看板
[ Stock ]
討論串[新聞] DeepSeek低成本破壞價格 恐讓AI產業血流成河?
共 6 篇文章
內容預覽:
-------------------------------發文提醒----------------------------------. 1.發文前請先詳閱[新聞]分類發文規範,未依規範發文將受處份。. 2.連結過長請善用縮網址服務,連結不能點擊者板規1-2-2處份。. 3.心得/評論請盡量充實
(還有1350個字)
內容預覽:
原本是期待設備/算力. 成為AI產業護城河. 遏制後來者進入. 把玩家限制在有限數量. 因此這些人錢燒設備燒不眨眼的. 一年燒上百億鎂當單位. 眼睛都不眨一下. 此前財務預估. OpenAI 2026年預估年虧破百億鎂. 到2029盈利才可望翻正. 這樣的結果他們自身評估優於預期. 他們為啥原先有這
(還有520個字)
內容預覽:
又是我. 大過年無聊的AI測試碼農. 有人說到解決問題. 是吧?. 然後deepseek r1. 聽說在寫程式好棒棒. 是吧?. 一樣啦我不問他國中數學. 也不給他什麼codeforce程式競賽題. 假設我今天是個碼農. 想要實際解決程式問題好惹. 這次我的提示詞如下. https://g0v.ha
(還有2239個字)
內容預覽:
三星早就看到低成本推理晶片的未來了. 三星明年推 AI 晶片 Mach 1,採 LPDDR 而非 HBM 記憶體. https://technews.tw/2024/03/21/samsung-to-launch-ai-chips-mach-1/. 節錄:. 三星 Mach-1 設計專注於提供專用於
(還有351個字)
內容預覽:
NVIDA說的確實是對的. 跟他急不急沒什麼關聯. transform模型的趨勢是. 只要模型越大,效果就越好. 這已經是鐵打的事實. 無數paper都已經證明過這樣的結果. 所以這年頭推出的模型一個比一個大. 模型的大小是沒有極限的. 極限在於錢不夠,沒錢買算力做更大的模型. 先不論DS有沒有造假
(還有44個字)