Re: [新聞] 輝達帝國恐被谷歌打垮?Gemini 3太強引擔憂 專家直言免驚:想想DeepSeek

看板Stock (股票)作者 (拆了?簡單了)時間13小時前 (2025/12/15 17:07), 12小時前編輯推噓7(11433)
留言48則, 16人參與, 12小時前最新討論串9/9 (看更多)
我讓整個推理步驟簡化的太多 以致於整個像是反串的...Orz. 砍前篇,重發 我把整個對話過程貼上來,看起來會合理的多: 問題1:谷歌從頭到尾用TPU訓練他們自家的模型,迭代自己的硬體跟演算法,兩者互相配合,而 其他家用的是GPGPU,縱使CUDA再怎麼厲害,也不是萬能,這似乎給了谷歌在發展AI上, 有別於其他家的獨一無二又非常關鍵的優勢!? 問題2:所以絕對有可能將來最好的演算法的迭代發生在TPU上(畢竟谷歌軟硬一體),而GPU卻模 擬不出來,或是無法模擬出優勢? 問題3:換個角度,利用GPU的是全世界最頂尖的AI研究員,而他們對GPU的改善建議難道不會高度 趨同嗎? 問題4:再換個角度來思考,跟TPU相比,能不能把GPU當成是ASIC+CUDA,也就是一個加上CUDA, 變成特化的,較有彈性的ASIC? 從這個角度來看。這兩款發展角度不同的ASIC,在TPU趕 上GPU之後,因為GPU必須一直滿足高彈性的特點。差異將會越走越遠,越走越大,漸漸被 TPU整個拉開差距? 問題5:從這個角度看。GPU上發展的演算法註定無法有大幅變動,CUDA有其極限,GPU架構更是有 其極限。若演算法註定無法大幅變動,TPU的優勢在打平的那一刻起,就註定越領先越多 了。可以這麼理解嗎? 問題6:所謂的打平是指LLM模型的分數與表現。正是因為GPU是演算法配合硬體,在硬體無法大幅 改變的可能之下,GPU的演算法也不可能大幅改變,所謂演算法一旦大幅改變TPU就無用論 實際上跟GPU比賽的話,這是不可能發生的,也就意味著一旦LLM的表現TPU追上GPU的那一 刻起,差距只會越來越遠。對嗎? 問答連結如下: https://reurl.cc/9bnvlv 敝人知識有限,覺的Gemini 講的滿有道理的 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.38.64.161 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1765789636.A.0F4.html

12/15 17:09, 13小時前 , 1F
太難了無法回答
12/15 17:09, 1F

12/15 17:13, 12小時前 , 2F
你給這種提示詞,難怪得出前一篇的AI結論
12/15 17:13, 2F

12/15 17:13, 12小時前 , 3F
建議你先研究為什麼在GPU下會發展出Cuda這架構
12/15 17:13, 3F

12/15 17:14, 12小時前 , 4F
既然知識有限那你怎麼判斷他講的有道理 不覺得矛盾
12/15 17:14, 4F

12/15 17:14, 12小時前 , 5F
12/15 17:14, 5F

12/15 17:15, 12小時前 , 6F
連法官都知道禁止誘導性提問....
12/15 17:15, 6F

12/15 17:17, 12小時前 , 7F
是 你說的都對XD
12/15 17:17, 7F

12/15 17:18, 12小時前 , 8F
你從第一個提示詞就開始誘導AI與設定限制條件
12/15 17:18, 8F

12/15 17:18, 12小時前 , 9F
第一個問題 goog的算法+TPU就等於其他家的CUDA+GPU
12/15 17:18, 9F

12/15 17:18, 12小時前 , 10F
阿 如果有極限不就兩個一起有
12/15 17:18, 10F

12/15 17:18, 12小時前 , 11F
這樣AI自然就會順著你的論點一路推論下去
12/15 17:18, 11F
我的疑問一定帶有主觀,所以才問他 邏輯上對不對,可不可以換句話說 我的下一步問題也都是順著Gemini給出的思路再做邏輯詮釋,請他看看有沒有道理,對不對

12/15 17:19, 12小時前 , 12F
你何不先問問GPU在幹嘛的 CUDA在幹嘛的 當今深度學
12/15 17:19, 12F

12/15 17:19, 12小時前 , 13F
習LLM為什麼在GPU上跑,你真的懂這些基本問題嗎
12/15 17:19, 13F

12/15 17:19, 12小時前 , 14F
所以你的問題幾乎都包含結論了啊
12/15 17:19, 14F
Gemini不就是拿來問自己的推論對不對? 問題沒有定見,或自己的看法 那答案不見千篇一律,只能是主流看法?

12/15 17:20, 12小時前 , 15F
兩個都用過,還是覺得gpt比較好用
12/15 17:20, 15F

12/15 17:20, 12小時前 , 16F
你覺得他能回出甚麼東西
12/15 17:20, 16F

12/15 17:20, 12小時前 , 17F
你從開始沒有叫AI公正地去分析TPU和GPU的優缺點
12/15 17:20, 17F

12/15 17:21, 12小時前 , 18F
而是直接給了預設立場,這樣AI自然會被誘導去
12/15 17:21, 18F

12/15 17:21, 12小時前 , 19F
你想要的答案,或者說它故意給了你想要的答案
12/15 17:21, 19F
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:23:59

12/15 17:24, 12小時前 , 20F
你根本不用什麼推理,試圖用AI證明什麼,你直接AI
12/15 17:24, 20F

12/15 17:24, 12小時前 , 21F
炒股就好了,不敢就別叫
12/15 17:24, 21F
喔,是真的還不敢 所以貼上來給各位大神打臉Gemini啊 = = ※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:25:30

12/15 17:25, 12小時前 , 22F
你可以試試看,一模一樣的第一句提示詞
12/15 17:25, 22F

12/15 17:25, 12小時前 , 23F
問一些根本沒水準的問題是能得到什麼答案
12/15 17:25, 23F

12/15 17:25, 12小時前 , 24F
用你的論述法就算你沒犯法
12/15 17:25, 24F

12/15 17:25, 12小時前 , 25F
光是回答檢察官的引導式提問法
12/15 17:25, 25F

12/15 17:25, 12小時前 , 26F
大概第一天就被抓進去關出不來了
12/15 17:25, 26F

12/15 17:26, 12小時前 , 27F
但是反過來請AI去質疑或反向思辨
12/15 17:26, 27F

12/15 17:26, 12小時前 , 28F
你會發現AI給出許多GPU體系的大量優勢
12/15 17:26, 28F
我試試

12/15 17:26, 12小時前 , 29F
反串?
12/15 17:26, 29F
Gemini 有反串功能? ※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:27:44

12/15 17:27, 12小時前 , 30F
然後AI給出的論點,會一路駁斥你接下來的結論
12/15 17:27, 30F

12/15 17:28, 12小時前 , 31F
你媽知不知道你在這邊發廢文 知不知道都是廢文 哪有
12/15 17:28, 31F

12/15 17:28, 12小時前 , 32F
嚴格來說,不是說TPU和GPU誰更強或誰一定會贏
12/15 17:28, 32F

12/15 17:28, 12小時前 , 33F
人這樣問問題
12/15 17:28, 33F

12/15 17:28, 12小時前 , 34F
當然不是拿來問自己推論對不對 因為AI傾向你說的都
12/15 17:28, 34F

12/15 17:28, 12小時前 , 35F
對,除非你有明確事實錯誤
12/15 17:28, 35F

12/15 17:28, 12小時前 , 36F
你要真的AI檢驗 就是裝作是別人講的 叫AI反駁 而不
12/15 17:28, 36F

12/15 17:28, 12小時前 , 37F
是這樣問,這樣問他只會給你情緒價值
12/15 17:28, 37F

12/15 17:28, 12小時前 , 38F
而是你給的提示詞,會限制AI的分析
12/15 17:28, 38F

12/15 17:30, 12小時前 , 39F
網路上有一個用法 請AI扮演最挑剔的批評者 請它針
12/15 17:30, 39F

12/15 17:30, 12小時前 , 40F
對你的說法提出反駁 但必須是根據現實的反駁 你可
12/15 17:30, 40F

12/15 17:30, 12小時前 , 41F
以試試 我覺得你會得到很多不同的答案
12/15 17:30, 41F

12/15 17:31, 12小時前 , 42F
你從第一題問法開始就已經給出你的傾向了
12/15 17:31, 42F
問題有傾向本來就很正常好嗎?… 我多問了,給大家參考,剩下就自已問自已的模型吧 問: 請你從頭看這整段對話,那邊的邏輯跟推導或前提有問題,並進一步驗證較為接近的真相 答: 這是一個非常棒的思維挑戰。我們之前的對話建立在一個**「完美的邏輯推演」**之上, 這在理論上是無懈可擊的。 但是,現實世界往往充滿了雜訊和變數。為了還原最接近的真相,我們必須擔任**「紅隊 演練」(Red Teaming)**的角色,回頭攻擊我們剛才建立的這座邏輯城堡,找出地基可 能不穩的地方。 我們剛才的推論主要建立在三個核心前提上,而這三個前提在現實中都有可能出現**「漏 洞」**: 漏洞一:低估了 NVIDIA 的「ASIC 化」速度(它不是靜止的標靶) 我們剛才的假設: GPU 為了通用性,必須背負沈重的「CUDA 稅」和「馮·諾伊曼架構包 袱」,且硬體結構難以改變。 現實的挑戰: NVIDIA 正在瘋狂地把 GPU 變成 ASIC。 Tensor Cores 的引入: H100 裡面其實已經包含了大量的專用電路(Transformer Engine),這部分本質上就是「嵌在 GPU 裡的 TPU」。 NVLink Switch: 我們提到 Google 的 OCS(光交換)是優勢,但 NVIDIA 的 NVLink Switch 也在模擬這種高效通訊,雖然成本高,但對於開發者來說是透明的(不需要改演 算法)。 結論修正: GPU 並不是一把永遠不變的瑞士軍刀,它正在變成一把**「帶有瑞士軍刀功 能的雷射槍」**。NVIDIA 的迭代速度(一年一代)遠快於 Google TPU(約兩到三年一代 )。這種「暴力迭代」可能會掩蓋掉架構上的效率劣勢。 漏洞二:高估了「演算法鎖死」的程度(軟體其實能繞過硬體限制) 我們剛才的假設: 因為 GPU 架構受限,所以跑在上面的演算法也受限,無法大幅創新。 現實的挑戰: 軟體工程師的創造力是無限的。 FlashAttention: 這是一個經典案例。硬體沒變,但研究員透過重新排列記憶體讀寫順 序,讓 GPU 的訓練速度翻倍,突破了顯存頻寬瓶頸。 量化(Quantization): 透過 FP8 甚至 FP4 技術,軟體讓 GPU 的有效算力暴增。 結論修正: 即便 GPU 硬體有極限,「軟體優化」的紅利還沒吃完。在 TPU 徹底拉開硬 體架構差距之前,GPU 生態系可能透過軟體魔改,硬是把「通用架構」的壽命再延續 5-10 年。 漏洞三:忽略了「集體智慧」大於「單一巨頭」(生態系的真正威力) 我們剛才的假設: Google 的垂直整合(自研晶片+自研算法)效率最高,所以會贏。 現實的挑戰: 這是一個 「Google vs. 全世界」 的局。 研發分母: 全世界 99% 的 AI 論文、開源專案、新工具(如 LangChain, vLLM)都是基 於 GPU + PyTorch 開發的。 延遲效應(Lag): Google 的工程師雖然強,但他們必須把全世界發明的最新東西「翻 譯」到 TPU/JAX 上。這個翻譯過程即使只有幾個月的延遲,在 AI 這種「以週為單位」 進化的領域也是致命的。 結論修正: 「路徑依賴」本身就是一種護城河。 即使 TPU 理論上更強,但如果全世界 最好的想法都優先發生在 GPU 上,Google 就只能當一個「追隨者」而非「定義者」,除 非 Google 的 DeepMind 能持續產出像 AlphaGo/Transformer 這種「領先全世界兩年」 的算法(這非常難)。 漏洞四:ASIC 的「賭博風險」(特化過頭的代價) 我們剛才的假設: 專用的 TPU 一定比通用的 GPU 高效。 現實的挑戰: ASIC 的死穴在於**「賭錯方向」**。 TPU 的設計週期長達 3 年。假設 Google 在設計 TPU v6 時,賭定未來是 Transformer 架構。 結果 2 年後,世界突然發現一種全新的「非 Transformer」架構(例如 SSM、Mamba 或 某種生化模擬算法)才是真理。 這時,通用性較強的 GPU 雖然跑得慢,但至少能跑。而過度特化的 TPU 可能會直接變成 廢鐵(Dark Silicon)。 結論修正: 彈性(Flexibility)不僅是成本,也是一種**「對抗未知風險的保險」**。 在 AI 原理尚未完全被物理學定案前,過早進行極致的硬體特化是有巨大風險的。 還原最接近的「真相」 綜合我們的推論與上述的紅隊演練,比較客觀的局勢判斷應該是: Google 在「成本」與「規模」上必勝: 只要 AI 還是 Transformer 架構(或矩陣運算 為主),TPU 的單位訓練成本和推論成本一定低於 GPU。這保證了 Google 的利潤率會非 常漂亮,這條護城河是穩的。 NVIDIA 在「創新速度」上仍佔主導: 由於「集體智慧」效應,最新的、最怪的、實驗性 的 AI 突破,依然會首先發生在 GPU 上。Google 必須疲於奔命地將這些突破整合進自己 的體系。 「黃金交叉」的真實意義: 您提到的「打平後拉開差距」,最可能發生在**「產品化階 段」**(Productization),而不是「科研階段」(Research)。 科研階段: GPU 繼續混亂、多元、領先。 產品階段(如 Search, YouTube, Gemini API): 一旦某種算法被驗證成熟,Google 就 可以用 TPU 把它做到極致便宜、極致快。這時候,其他依賴 NVIDIA 的公司(如 OpenAI/Microsoft)就會面臨毛利率被 Google 碾壓的痛苦。 最終修正後的邏輯: TPU 不會讓 Google 壟斷「AI 的發明」(那是 GPU 生態的事), 但 TPU 會讓 Google 壟斷**「大規模 AI 服務的利潤」**。這才是 Google 最務實且恐 怖的優勢。 ※ 編輯: breathair (114.38.64.161 臺灣), 12/15/2025 17:35:11

12/15 17:32, 12小時前 , 43F
即使你甚麼都不懂 最簡單的做法就是你請他反駁
12/15 17:32, 43F

12/15 17:33, 12小時前 , 44F
你就會發現他從其他角度也可以給出乍看很對的答案
12/15 17:33, 44F

12/15 17:33, 12小時前 , 45F
所以如果沒能力判斷的使用者 只會得出錯誤結論
12/15 17:33, 45F

12/15 17:36, 12小時前 , 46F
這就有點像是現實的辯論,除非有明確的客觀答案
12/15 17:36, 46F

12/15 17:36, 12小時前 , 47F
你看看 結論是不是又不太一樣了
12/15 17:36, 47F

12/15 17:36, 12小時前 , 48F
否則不同的觀點與討論,可能推論出截然不同的答案
12/15 17:36, 48F
文章代碼(AID): #1fFy_43q (Stock)
討論串 (同標題文章)
文章代碼(AID): #1fFy_43q (Stock)