Re: [新聞] DeepSeek低成本破壞價格 恐讓AI產業血流成河?已刪文

看板Stock (股票)作者 (A臉書)時間2天前 (2025/01/28 19:57), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串5/6 (看更多)
※ 引述《madeinheaven ()》之銘言: : 三星早就看到低成本推理晶片的未來了 : 三星明年推 AI 晶片 Mach 1,採 LPDDR 而非 HBM 記憶體 : https://technews.tw/2024/03/21/samsung-to-launch-ai-chips-mach-1/ : 節錄: : 三星 Mach-1 設計專注於提供專用於推理的加速功能,特別適合於邊緣計算應用。Mach-1 : 是基於專用積體電路(ASIC)設計,配備 LPDDR 記憶體,適合邊緣計算應用,能在推理 : 過程中大幅降低所需的記憶體頻寬。 : 與現有設計相比,Mach-1 能將推理所需記憶體頻寬大幅降低約 0.125 倍 : 另外下一代Mach-2正在開發 : Deepseek再發新模型 輝達急了:未來需要更多AI晶片 : https://www.ctee.com.tw/news/20250128700047-430704 : 節錄:未來推理需要大量輝達 GPU 和高效能網路 : NVIDA都說了未來推理需要大量GPU : 所以未來低成本的推理晶片才是王道~!!! NVIDA說的確實是對的 跟他急不急沒什麼關聯 transform模型的趨勢是 只要模型越大,效果就越好 這已經是鐵打的事實 無數paper都已經證明過這樣的結果 所以這年頭推出的模型一個比一個大 模型的大小是沒有極限的 極限在於錢不夠,沒錢買算力做更大的模型 先不論DS有沒有造假 假設DS說的都是真的好了 他也開源了 那接下來就很簡單啦 做一個更大的模型 表現一定更好 這是無庸置疑的 未來算力絕對不會太少 只有不夠的問題 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.171.130.202 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738065425.A.489.html
文章代碼(AID): #1dcCOHI9 (Stock)
討論串 (同標題文章)
文章代碼(AID): #1dcCOHI9 (Stock)