Re: [新聞] 輝達帝國恐被谷歌打垮?Gemini 3太強引擔憂 專家直言免驚:想想DeepSeek

看板Stock (股票)作者 (拆了?簡單了)時間3小時前 (2025/12/15 08:58), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串8/8 (看更多)
直接說結論:TPU 將以肉眼可見的速度打敗 GPU 這是昨晚與Gemini 3 pro 跟Copilot 一起討論得出的結論 Why? 大家都在談 NVIDIA 的護城河有多深,CUDA 生態系有多無敵。 但這個所謂的 「護城河」,正在變成 NVIDIA 最大的「沈沒成本」。 TPU 不僅會追上 GPU,而且將以肉眼可見的速度,把差距越拉越遠。 以下是邏輯核心 1. 演算法被 GPU「鎖死」了,這反而成了 TPU 的護身符 市場上最大的迷思是:「買 GPU 安全,因為演算法會變,專用的 TPU 風險大。」 錯,大錯特錯。 現實是,全世界 99% 的 AI 演算法都是基於 GPU 架構開發的。這導致了一個結果:任 何 GPU 跑不動的演算法,在學術界根本活不下來。 換句話說,GPU 的硬體極限,其實已 經鎖死了演算法的變異範圍。 這對 TPU 意味著什麼? 意味著 TPU 根本不需要擔心「明天演算法突變導致晶片變廢鐵 」,因為 GPU 自己也跑不了那些突變。 TPU 只要針對這個「被 GPU 框住的範圍」進行 極致優化,它就是絕對安全的。 2. 重新定義 GPU:它就是「ASIC + 沉重的 CUDA 包袱」 如果我們剝開行銷話術,從本 質看硬體: TPU = 為了當前 AI 數學邏輯量身打造的「全自動產線」。 GPU = 為了相容過去十年所有軟體、保留圖形渲染、硬塞了 CUDA 兼容層的「改裝工廠 」。 NVIDIA 為了維持「高彈性」和「通用性」,每一代晶片都必須背著巨大的歷史包袱( Legacy)。晶片裡有 30%~40% 的電路在跑 AI 時是空轉浪費的(Dark Silicon)。 3. 黃金交叉點已經出現:加速度的開始 我們定義的「打平」,是指模型表現(Gemini vs. GPT-5)。 Google 已經證明:用純 TPU 練出來的模型,聰明程度完全不輸 GPU。 就在打平的這一刻起,勝負已定。 為什麼?因為接下來比的是「加速度」: GPU 的進化 (線性):NVIDIA 下一代晶片想變強,還得顧慮幾百萬開發者的舊程式能不能 跑,還得保留通用電路。它是在「負重前行」。 TPU 的進化 (指數):Google 自產自銷,沒有包袱。演算法團隊 (DeepMind) 需要什麼, 硬體團隊就加什麼;不需要什麼,下一代直接砍掉。它是在「輕裝上陣」。 雖然NVIDIA 仍在快速「專用化」(並非只有通用性),但是需要顧及所有CUDA使用者的 迭代設計,仍比TPU要困難的多 4. 結論:從領先到看不見車尾燈 這是一場「全副武裝的越野車 (GPU)」與「極致輕量 化的 F1 賽車 (TPU)」的比賽。 當賽道狀況不明(演算法混亂期)時,越野車贏了。 但現在賽道已經確定是柏油路(演算法被鎖定)了,且兩者已經並排(模型能力打平)。 接下來發生什麼事,物理定律已經告訴你了。 F1 賽車會利用極致的推重比( Power-to-Weight Ratio),在直線加速道上瞬間拉開距離。 未來兩三年,你會看到 Google 的運算成本以驚人的速度下降,而依賴 GPU 的陣營將會 發現,不管怎麼堆疊 H100/B200,成本結構都遠遠追不上那條軟硬一體的曲線。 如果真的要談演算法的「異變」,TPU 有能力為了新數學(如雙曲幾何)直接修改硬體 ,演化出「火箭」直接升空。 而 ASIC + CUDA 的極限,充其量只能改裝成一台更快的 越野車,永遠離不開地面。 GPU 的「通用性」,曾經是它的王牌,現在變成了它的墓誌銘。 Copilot 甚至畫出TPU 在模型表現一但與GPU表現持平之後,將以指數級超越GPU 因為打平之後接下來創新的速度,TPU是沒有極限的,而GPU則是需要顧到CUDA的使用者 ,只能線性成長 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 210.61.204.13 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1765760281.A.BB5.html
文章代碼(AID): #1fFrqPkr (Stock)
討論串 (同標題文章)
文章代碼(AID): #1fFrqPkr (Stock)