Re: [新聞] 輝達帝國恐被谷歌打垮?Gemini 3太強引擔憂 專家直言免驚:想想DeepSeek
直接說結論:TPU 將以肉眼可見的速度打敗 GPU
這是昨晚與Gemini 3 pro 跟Copilot 一起討論得出的結論
Why?
大家都在談 NVIDIA 的護城河有多深,CUDA 生態系有多無敵。 但這個所謂的
「護城河」,正在變成 NVIDIA 最大的「沈沒成本」。
TPU 不僅會追上 GPU,而且將以肉眼可見的速度,把差距越拉越遠。
以下是邏輯核心
1. 演算法被 GPU「鎖死」了,這反而成了 TPU 的護身符 市場上最大的迷思是:「買
GPU 安全,因為演算法會變,專用的 TPU 風險大。」 錯,大錯特錯。
現實是,全世界 99% 的 AI 演算法都是基於 GPU 架構開發的。這導致了一個結果:任
何 GPU 跑不動的演算法,在學術界根本活不下來。 換句話說,GPU 的硬體極限,其實已
經鎖死了演算法的變異範圍。
這對 TPU 意味著什麼? 意味著 TPU 根本不需要擔心「明天演算法突變導致晶片變廢鐵
」,因為 GPU 自己也跑不了那些突變。 TPU 只要針對這個「被 GPU 框住的範圍」進行
極致優化,它就是絕對安全的。
2. 重新定義 GPU:它就是「ASIC + 沉重的 CUDA 包袱」 如果我們剝開行銷話術,從本
質看硬體:
TPU = 為了當前 AI 數學邏輯量身打造的「全自動產線」。
GPU = 為了相容過去十年所有軟體、保留圖形渲染、硬塞了 CUDA 兼容層的「改裝工廠
」。
NVIDIA 為了維持「高彈性」和「通用性」,每一代晶片都必須背著巨大的歷史包袱(
Legacy)。晶片裡有 30%~40% 的電路在跑 AI 時是空轉浪費的(Dark Silicon)。
3. 黃金交叉點已經出現:加速度的開始 我們定義的「打平」,是指模型表現(Gemini
vs. GPT-5)。 Google 已經證明:用純 TPU 練出來的模型,聰明程度完全不輸 GPU。
就在打平的這一刻起,勝負已定。 為什麼?因為接下來比的是「加速度」:
GPU 的進化 (線性):NVIDIA 下一代晶片想變強,還得顧慮幾百萬開發者的舊程式能不能
跑,還得保留通用電路。它是在「負重前行」。
TPU 的進化 (指數):Google 自產自銷,沒有包袱。演算法團隊 (DeepMind) 需要什麼,
硬體團隊就加什麼;不需要什麼,下一代直接砍掉。它是在「輕裝上陣」。
雖然NVIDIA 仍在快速「專用化」(並非只有通用性),但是需要顧及所有CUDA使用者的
迭代設計,仍比TPU要困難的多
4. 結論:從領先到看不見車尾燈 這是一場「全副武裝的越野車 (GPU)」與「極致輕量
化的 F1 賽車 (TPU)」的比賽。 當賽道狀況不明(演算法混亂期)時,越野車贏了。
但現在賽道已經確定是柏油路(演算法被鎖定)了,且兩者已經並排(模型能力打平)。
接下來發生什麼事,物理定律已經告訴你了。 F1 賽車會利用極致的推重比(
Power-to-Weight Ratio),在直線加速道上瞬間拉開距離。
未來兩三年,你會看到 Google 的運算成本以驚人的速度下降,而依賴 GPU 的陣營將會
發現,不管怎麼堆疊 H100/B200,成本結構都遠遠追不上那條軟硬一體的曲線。
如果真的要談演算法的「異變」,TPU 有能力為了新數學(如雙曲幾何)直接修改硬體
,演化出「火箭」直接升空。 而 ASIC + CUDA 的極限,充其量只能改裝成一台更快的
越野車,永遠離不開地面。
GPU 的「通用性」,曾經是它的王牌,現在變成了它的墓誌銘。
Copilot 甚至畫出TPU 在模型表現一但與GPU表現持平之後,將以指數級超越GPU
因為打平之後接下來創新的速度,TPU是沒有極限的,而GPU則是需要顧到CUDA的使用者
,只能線性成長
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 210.61.204.13 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1765760281.A.BB5.html
討論串 (同標題文章)
完整討論串 (本文為第 8 之 8 篇):
Stock 近期熱門文章
PTT職涯區 即時熱門文章