Re: [新聞] DeepSeek低成本破壞價格 恐讓AI產業血流成河?已刪文
※ 引述《madeinheaven ()》之銘言:
: 三星早就看到低成本推理晶片的未來了
: 三星明年推 AI 晶片 Mach 1,採 LPDDR 而非 HBM 記憶體
: https://technews.tw/2024/03/21/samsung-to-launch-ai-chips-mach-1/
: 節錄:
: 三星 Mach-1 設計專注於提供專用於推理的加速功能,特別適合於邊緣計算應用。Mach-1
: 是基於專用積體電路(ASIC)設計,配備 LPDDR 記憶體,適合邊緣計算應用,能在推理
: 過程中大幅降低所需的記憶體頻寬。
: 與現有設計相比,Mach-1 能將推理所需記憶體頻寬大幅降低約 0.125 倍
: 另外下一代Mach-2正在開發
: Deepseek再發新模型 輝達急了:未來需要更多AI晶片
: https://www.ctee.com.tw/news/20250128700047-430704
: 節錄:未來推理需要大量輝達 GPU 和高效能網路
: NVIDA都說了未來推理需要大量GPU
: 所以未來低成本的推理晶片才是王道~!!!
NVIDA說的確實是對的
跟他急不急沒什麼關聯
transform模型的趨勢是
只要模型越大,效果就越好
這已經是鐵打的事實
無數paper都已經證明過這樣的結果
所以這年頭推出的模型一個比一個大
模型的大小是沒有極限的
極限在於錢不夠,沒錢買算力做更大的模型
先不論DS有沒有造假
假設DS說的都是真的好了
他也開源了
那接下來就很簡單啦
做一個更大的模型
表現一定更好
這是無庸置疑的
未來算力絕對不會太少
只有不夠的問題
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.171.130.202 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738065425.A.489.html
討論串 (同標題文章)
本文引述了以下文章的的內容:
完整討論串 (本文為第 5 之 6 篇):
Stock 近期熱門文章
PTT職涯區 即時熱門文章