Re: [新聞] 輝達帝國恐被谷歌打垮?Gemini 3太強引擔憂 專家直言免驚:想想DeepSeek
我讓整個推理步驟簡化的太多
以致於整個像是反串的...Orz.
砍前篇,重發
我把整個對話過程貼上來,看起來會合理的多:
問題1:谷歌從頭到尾用TPU訓練他們自家的模型,迭代自己的硬體跟演算法,兩者互相配合,而
其他家用的是GPGPU,縱使CUDA再怎麼厲害,也不是萬能,這似乎給了谷歌在發展AI上,
有別於其他家的獨一無二又非常關鍵的優勢!?
問題2:所以絕對有可能將來最好的演算法的迭代發生在TPU上(畢竟谷歌軟硬一體),而GPU卻模
擬不出來,或是無法模擬出優勢?
問題3:換個角度,利用GPU的是全世界最頂尖的AI研究員,而他們對GPU的改善建議難道不會高度
趨同嗎?
問題4:再換個角度來思考,跟TPU相比,能不能把GPU當成是ASIC+CUDA,也就是一個加上CUDA,
變成特化的,較有彈性的ASIC? 從這個角度來看。這兩款發展角度不同的ASIC,在TPU趕
上GPU之後,因為GPU必須一直滿足高彈性的特點。差異將會越走越遠,越走越大,漸漸被
TPU整個拉開差距?
問題5:從這個角度看。GPU上發展的演算法註定無法有大幅變動,CUDA有其極限,GPU架構更是有
其極限。若演算法註定無法大幅變動,TPU的優勢在打平的那一刻起,就註定越領先越多
了。可以這麼理解嗎?
問題6:所謂的打平是指LLM模型的分數與表現。正是因為GPU是演算法配合硬體,在硬體無法大幅
改變的可能之下,GPU的演算法也不可能大幅改變,所謂演算法一旦大幅改變TPU就無用論
實際上跟GPU比賽的話,這是不可能發生的,也就意味著一旦LLM的表現TPU追上GPU的那一
刻起,差距只會越來越遠。對嗎?
問答連結如下:
https://reurl.cc/9bnvlv
敝人知識有限,覺的Gemini 講的滿有道理的
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.38.64.161 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1765789636.A.0F4.html
推
12/15 17:09,
13小時前
, 1F
12/15 17:09, 1F
推
12/15 17:13,
12小時前
, 2F
12/15 17:13, 2F
推
12/15 17:13,
12小時前
, 3F
12/15 17:13, 3F
→
12/15 17:14,
12小時前
, 4F
12/15 17:14, 4F
→
12/15 17:14,
12小時前
, 5F
12/15 17:14, 5F
→
12/15 17:15,
12小時前
, 6F
12/15 17:15, 6F
推
12/15 17:17,
12小時前
, 7F
12/15 17:17, 7F
推
12/15 17:18,
12小時前
, 8F
12/15 17:18, 8F
推
12/15 17:18,
12小時前
, 9F
12/15 17:18, 9F
→
12/15 17:18,
12小時前
, 10F
12/15 17:18, 10F
→
12/15 17:18,
12小時前
, 11F
12/15 17:18, 11F
我的疑問一定帶有主觀,所以才問他
邏輯上對不對,可不可以換句話說
我的下一步問題也都是順著Gemini給出的思路再做邏輯詮釋,請他看看有沒有道理,對不對
→
12/15 17:19,
12小時前
, 12F
12/15 17:19, 12F
→
12/15 17:19,
12小時前
, 13F
12/15 17:19, 13F
→
12/15 17:19,
12小時前
, 14F
12/15 17:19, 14F
Gemini不就是拿來問自己的推論對不對?
問題沒有定見,或自己的看法
那答案不見千篇一律,只能是主流看法?
推
12/15 17:20,
12小時前
, 15F
12/15 17:20, 15F
→
12/15 17:20,
12小時前
, 16F
12/15 17:20, 16F
→
12/15 17:20,
12小時前
, 17F
12/15 17:20, 17F
→
12/15 17:21,
12小時前
, 18F
12/15 17:21, 18F
→
12/15 17:21,
12小時前
, 19F
12/15 17:21, 19F
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:23:59
推
12/15 17:24,
12小時前
, 20F
12/15 17:24, 20F
→
12/15 17:24,
12小時前
, 21F
12/15 17:24, 21F
喔,是真的還不敢
所以貼上來給各位大神打臉Gemini啊
= =
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:25:30
推
12/15 17:25,
12小時前
, 22F
12/15 17:25, 22F
噓
12/15 17:25,
12小時前
, 23F
12/15 17:25, 23F
→
12/15 17:25,
12小時前
, 24F
12/15 17:25, 24F
→
12/15 17:25,
12小時前
, 25F
12/15 17:25, 25F
→
12/15 17:25,
12小時前
, 26F
12/15 17:25, 26F
→
12/15 17:26,
12小時前
, 27F
12/15 17:26, 27F
→
12/15 17:26,
12小時前
, 28F
12/15 17:26, 28F
我試試
噓
12/15 17:26,
12小時前
, 29F
12/15 17:26, 29F
Gemini 有反串功能?
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:27:44
→
12/15 17:27,
12小時前
, 30F
12/15 17:27, 30F
噓
12/15 17:28,
12小時前
, 31F
12/15 17:28, 31F
→
12/15 17:28,
12小時前
, 32F
12/15 17:28, 32F
→
12/15 17:28,
12小時前
, 33F
12/15 17:28, 33F
→
12/15 17:28,
12小時前
, 34F
12/15 17:28, 34F
→
12/15 17:28,
12小時前
, 35F
12/15 17:28, 35F
→
12/15 17:28,
12小時前
, 36F
12/15 17:28, 36F
→
12/15 17:28,
12小時前
, 37F
12/15 17:28, 37F
→
12/15 17:28,
12小時前
, 38F
12/15 17:28, 38F
推
12/15 17:30,
12小時前
, 39F
12/15 17:30, 39F
→
12/15 17:30,
12小時前
, 40F
12/15 17:30, 40F
→
12/15 17:30,
12小時前
, 41F
12/15 17:30, 41F
噓
12/15 17:31,
12小時前
, 42F
12/15 17:31, 42F
問題有傾向本來就很正常好嗎?…
我多問了,給大家參考,剩下就自已問自已的模型吧
問:
請你從頭看這整段對話,那邊的邏輯跟推導或前提有問題,並進一步驗證較為接近的真相
答:
這是一個非常棒的思維挑戰。我們之前的對話建立在一個**「完美的邏輯推演」**之上,
這在理論上是無懈可擊的。
但是,現實世界往往充滿了雜訊和變數。為了還原最接近的真相,我們必須擔任**「紅隊
演練」(Red Teaming)**的角色,回頭攻擊我們剛才建立的這座邏輯城堡,找出地基可
能不穩的地方。
我們剛才的推論主要建立在三個核心前提上,而這三個前提在現實中都有可能出現**「漏
洞」**:
漏洞一:低估了 NVIDIA 的「ASIC 化」速度(它不是靜止的標靶)
我們剛才的假設: GPU 為了通用性,必須背負沈重的「CUDA 稅」和「馮·諾伊曼架構包
袱」,且硬體結構難以改變。
現實的挑戰: NVIDIA 正在瘋狂地把 GPU 變成 ASIC。
Tensor Cores 的引入: H100 裡面其實已經包含了大量的專用電路(Transformer
Engine),這部分本質上就是「嵌在 GPU 裡的 TPU」。
NVLink Switch: 我們提到 Google 的 OCS(光交換)是優勢,但 NVIDIA 的 NVLink
Switch 也在模擬這種高效通訊,雖然成本高,但對於開發者來說是透明的(不需要改演
算法)。
結論修正: GPU 並不是一把永遠不變的瑞士軍刀,它正在變成一把**「帶有瑞士軍刀功
能的雷射槍」**。NVIDIA 的迭代速度(一年一代)遠快於 Google TPU(約兩到三年一代
)。這種「暴力迭代」可能會掩蓋掉架構上的效率劣勢。
漏洞二:高估了「演算法鎖死」的程度(軟體其實能繞過硬體限制)
我們剛才的假設: 因為 GPU 架構受限,所以跑在上面的演算法也受限,無法大幅創新。
現實的挑戰: 軟體工程師的創造力是無限的。
FlashAttention: 這是一個經典案例。硬體沒變,但研究員透過重新排列記憶體讀寫順
序,讓 GPU 的訓練速度翻倍,突破了顯存頻寬瓶頸。
量化(Quantization): 透過 FP8 甚至 FP4 技術,軟體讓 GPU 的有效算力暴增。
結論修正: 即便 GPU 硬體有極限,「軟體優化」的紅利還沒吃完。在 TPU 徹底拉開硬
體架構差距之前,GPU 生態系可能透過軟體魔改,硬是把「通用架構」的壽命再延續
5-10 年。
漏洞三:忽略了「集體智慧」大於「單一巨頭」(生態系的真正威力)
我們剛才的假設: Google 的垂直整合(自研晶片+自研算法)效率最高,所以會贏。
現實的挑戰: 這是一個 「Google vs. 全世界」 的局。
研發分母: 全世界 99% 的 AI 論文、開源專案、新工具(如 LangChain, vLLM)都是基
於 GPU + PyTorch 開發的。
延遲效應(Lag): Google 的工程師雖然強,但他們必須把全世界發明的最新東西「翻
譯」到 TPU/JAX 上。這個翻譯過程即使只有幾個月的延遲,在 AI 這種「以週為單位」
進化的領域也是致命的。
結論修正: 「路徑依賴」本身就是一種護城河。 即使 TPU 理論上更強,但如果全世界
最好的想法都優先發生在 GPU 上,Google 就只能當一個「追隨者」而非「定義者」,除
非 Google 的 DeepMind 能持續產出像 AlphaGo/Transformer 這種「領先全世界兩年」
的算法(這非常難)。
漏洞四:ASIC 的「賭博風險」(特化過頭的代價)
我們剛才的假設: 專用的 TPU 一定比通用的 GPU 高效。
現實的挑戰: ASIC 的死穴在於**「賭錯方向」**。
TPU 的設計週期長達 3 年。假設 Google 在設計 TPU v6 時,賭定未來是 Transformer
架構。
結果 2 年後,世界突然發現一種全新的「非 Transformer」架構(例如 SSM、Mamba 或
某種生化模擬算法)才是真理。
這時,通用性較強的 GPU 雖然跑得慢,但至少能跑。而過度特化的 TPU 可能會直接變成
廢鐵(Dark Silicon)。
結論修正: 彈性(Flexibility)不僅是成本,也是一種**「對抗未知風險的保險」**。
在 AI 原理尚未完全被物理學定案前,過早進行極致的硬體特化是有巨大風險的。
還原最接近的「真相」
綜合我們的推論與上述的紅隊演練,比較客觀的局勢判斷應該是:
Google 在「成本」與「規模」上必勝: 只要 AI 還是 Transformer 架構(或矩陣運算
為主),TPU 的單位訓練成本和推論成本一定低於 GPU。這保證了 Google 的利潤率會非
常漂亮,這條護城河是穩的。
NVIDIA 在「創新速度」上仍佔主導: 由於「集體智慧」效應,最新的、最怪的、實驗性
的 AI 突破,依然會首先發生在 GPU 上。Google 必須疲於奔命地將這些突破整合進自己
的體系。
「黃金交叉」的真實意義: 您提到的「打平後拉開差距」,最可能發生在**「產品化階
段」**(Productization),而不是「科研階段」(Research)。
科研階段: GPU 繼續混亂、多元、領先。
產品階段(如 Search, YouTube, Gemini API): 一旦某種算法被驗證成熟,Google 就
可以用 TPU 把它做到極致便宜、極致快。這時候,其他依賴 NVIDIA 的公司(如
OpenAI/Microsoft)就會面臨毛利率被 Google 碾壓的痛苦。
最終修正後的邏輯: TPU 不會讓 Google 壟斷「AI 的發明」(那是 GPU 生態的事),
但 TPU 會讓 Google 壟斷**「大規模 AI 服務的利潤」**。這才是 Google 最務實且恐
怖的優勢。
※ 編輯: breathair (114.38.64.161 臺灣), 12/15/2025 17:35:11
→
12/15 17:32,
12小時前
, 43F
12/15 17:32, 43F
→
12/15 17:33,
12小時前
, 44F
12/15 17:33, 44F
→
12/15 17:33,
12小時前
, 45F
12/15 17:33, 45F
推
12/15 17:36,
12小時前
, 46F
12/15 17:36, 46F
→
12/15 17:36,
12小時前
, 47F
12/15 17:36, 47F
→
12/15 17:36,
12小時前
, 48F
12/15 17:36, 48F
討論串 (同標題文章)
完整討論串 (本文為第 9 之 9 篇):
Stock 近期熱門文章
PTT職涯區 即時熱門文章