Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI風險令人擔憂已刪文

看板Stock (股票)作者 (嘴砲無雙)時間8小時前 (2025/12/14 18:53), 7小時前編輯推噓22(22049)
留言71則, 18人參與, 7小時前最新討論串22/23 (看更多)
※ 引述《googstar (股大濕)》之銘言: : ※ 引述《minazukimaya (水無月真夜)》之銘言: : : 沒關係,偷偷告訴你一個Insight : : 今年NeurIPS 2025有一篇超重量級的論文 : : Introducing Nested Learning : : 這篇文論的重要程度不亞於Attention is all you need : : 甚至可以說有過之而無不及 : : Transfomer架構只是發明了蒸氣機 : : Nested Learning這篇論文,簡直就是熱力學定律的等級了 : : 基本上等於宣告Transformer架構過時了(因為是一種扁平和單一頻率的特例) : : 未來三到五年,全面轉向Nested Learning的時代 : 如果真的架構更改 那對輝達反而更有利吧? : 這幾年設計的ASIC都是基於Transformer架構 : 基本上要整個打掉重來 重新設計新的ASIC : 那就又一次輪迴循環 只能利用NV GPU挺過過渡期 : 等架構整個穩定 再設計適配的ASIC : 每更改一次架構 就讓GPU的商業可用性拉長更多時間 : 另外假如真的實現agi 對算力的需求會再來一次幾倍的成長的 : LLM的泛用性 還不夠廣 : agi幾乎什麼都能做 同時也代表架構穩定需要一段時間 : 其實也會讓NV能賺爛的時間更長 我是做晶片跟系統架構的, 不是做AI模型的, 所以無法回答LLM跟Nested Learning相關問題, 但是就回答 "如果真的架構更改 那對輝達反而更有利吧?" 答案是的, 而且NVDA已經做了: https://nvidianews.nvidia.com/news/nvidia-unveils-rubin-cpx- a-new-class-of-gpu-designed-for-massive-context-inference Rubin CPX 就是為了 Memory Wall 等問題設計的架構 然後, 我又要繼續老話重提, Memory Wall 的問題在業界已經很多年了, 不是什麼很新奇的事情, 但是 就是沒人願意解決, 就像是Scaling Law 可能已經或是快失效一樣的道理, 很多事情業界都知道, 但是沒人願意去改算法改架構, 我每篇文章大喊方向錯了, 要改算法改架構, 只是被當笑話 就像我之前的文章說的, 這十幾年來, 只有谷歌跟輝達願意去嘗試改算法改架構, 其他公司都在玩MBA那套, 算投資效益,算CP值,盡量裁員並且節省成本, 改算法改架構就是要冒風險, 並且跟MBA那套理論完全相違背 再回到Memory Wall 與 Nested Learning, Nvidia Rubin CPX 想去解決或是增進Memory Wall 的效能瓶頸, 那麼當然下一代的TPU也會想到這問題與解法, 當然, 對於前幾代的TPU是很不利, 所以當切換到新的算法新的架構的時候, GPU的通用性會比TPU更適合在新的算法與架構上運作, 這是絕對正確的 同樣的問題, 新的算法與新的架構不見得會成功, Nested Learning 不見得會比現在的Transformer架構好, 很可能谷歌投入的資源在Nested Learning與相對應的NL XPU設計, 不見得會成功, 這真的很難說, 我先澆冷水 打預防針 Nested Learning 需要的XPU 應該是in memory compute 架構, performance looks amazing -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 174.194.128.87 (美國) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1765709636.A.441.html

12/14 18:55, 8小時前 , 1F
遲早會有人去玩出來的 只是不知道誰第一個吃螃蟹
12/14 18:55, 1F

12/14 18:59, 8小時前 , 2F
wait大聰明 因為NV絕對是鏟子王 技術領先
12/14 18:59, 2F

12/14 19:01, 8小時前 , 3F
只是甲骨文買的那一批怎麼辦
12/14 19:01, 3F
新的算法不見得會成功, 就算是成功, 全面換新的算法也不會那麼快, 只是如果新的算法成功了, OpenAI跟甲骨文就會比較麻煩 ※ 編輯: waitrop (174.194.128.87 美國), 12/14/2025 19:05:30

12/14 19:04, 8小時前 , 4F
沒人有辦法改架構 投資太大 所有公司上下游都要動
12/14 19:04, 4F

12/14 19:05, 8小時前 , 5F
但現在有了 NV有資格改 架構和通訊協定整套定規格做
12/14 19:05, 5F

12/14 19:06, 8小時前 , 6F
要牽頭的那個人定好 不然後面收封包的怎麼收
12/14 19:06, 6F

12/14 19:06, 8小時前 , 7F
Transformer論文發表到GPT3.5出來多久?
12/14 19:06, 7F

12/14 19:07, 8小時前 , 8F
做腳位的怎麼bump 速度規格要拉到多少 幾channel
12/14 19:07, 8F

12/14 19:07, 8小時前 , 9F
NL大概就多久
12/14 19:07, 9F

12/14 19:07, 8小時前 , 10F
然後你弄了跟別人無法溝通怎麼辦
12/14 19:07, 10F

12/14 19:09, 8小時前 , 11F
我想請益 這樣下一波硬體迭代時間 可能要至少多久
12/14 19:09, 11F

12/14 19:09, 8小時前 , 12F
有機會 我完全不懂硬體
12/14 19:09, 12F

12/14 19:09, 8小時前 , 13F
這就是TPU特化的風險,萬一更高效的算法TPU不支持,
12/14 19:09, 13F

12/14 19:09, 8小時前 , 14F
之前的TPU有機率整陀廢掉,然而通用型計算加速的GPU
12/14 19:09, 14F

12/14 19:09, 8小時前 , 15F
很大機率依然有用
12/14 19:09, 15F
完全正確, 所以這十幾年來只有谷歌一家自己做模型還願意自己做TPU, 其他模型開發商都是買或租NVDA GPU, 老話重提, 你要喝牛奶不見得需要買下一個農場養牛, 尤其是還有型號與保固期限等問題, 不如買有保證的NVDA獨家鮮奶 如果換新的算法, 舊有的TPU會很不利, 谷歌當然知道, 也一直有算法相對應的XPU在研發, 你可能沒看到我的關鍵字 ※ 編輯: waitrop (174.194.128.87 美國), 12/14/2025 19:15:02

12/14 19:13, 8小時前 , 16F
我只是想 分水嶺 如果五年後沒發生硬體革新,就有
12/14 19:13, 16F

12/14 19:13, 8小時前 , 17F
點意思了
12/14 19:13, 17F

12/14 19:14, 8小時前 , 18F
甲骨文旁邊玩沙
12/14 19:14, 18F

12/14 19:15, 8小時前 , 19F
我心裡覺得輝達更想要看到算法突破,如果出現一個更
12/14 19:15, 19F

12/14 19:15, 8小時前 , 20F
高效的算法TPU不再有優勢,反而是通用的GPU有優勢,
12/14 19:15, 20F

12/14 19:15, 8小時前 , 21F
那更有趣,TPU全部變成電子垃圾,這樣可以一次把TPU
12/14 19:15, 21F

12/14 19:15, 8小時前 , 22F
打死
12/14 19:15, 22F
這樣說也沒錯, 而且打死舊的TPU的人還是谷歌自己, 谷歌自己發表新的算法 實現推廣新的算法, 把自己舊的TPU打死, 有夠蠢, 但是這就是最近幾年谷歌一直在做的事情, 會有新的算法就會有相對應新的XPU

12/14 19:16, 7小時前 , 23F
幾年內都還得依賴&期待演算法突破 通用架構還是必要
12/14 19:16, 23F

12/14 19:16, 7小時前 , 24F
GPU是模擬大腦,ASIC是製造大腦,還在摸索AI架構的
12/14 19:16, 24F

12/14 19:16, 7小時前 , 25F
現在,GPU還是必要的
12/14 19:16, 25F

12/14 19:22, 7小時前 , 26F
輝達即將榮登牙膏二代
12/14 19:22, 26F

12/14 19:23, 7小時前 , 27F
原來如此 JOKIC大我懂了 代表新一代出來前是擠牙膏
12/14 19:23, 27F

12/14 19:23, 7小時前 , 28F
時間?
12/14 19:23, 28F

12/14 19:23, 7小時前 , 29F
老黃一直在跑起來革自己的命,不像有人一直擠牙膏
12/14 19:23, 29F

12/14 19:24, 7小時前 , 30F
市值能第一真的不是僥倖,只有牙膏廠才只靠僥倖
12/14 19:24, 30F

12/14 19:26, 7小時前 , 31F
例如最近發表的CUDA Tile就是再次自己拆自己護城河
12/14 19:26, 31F

12/14 19:27, 7小時前 , 32F
用更大護城河取代自己的舊護城河,推動技術革命
12/14 19:27, 32F
這十幾年, 只有谷歌跟老黃願意革自己的命, 其實谷歌這幾年的犧牲更大, 但是該做的事, 還是要做, 還是要有人有勇氣去做對的事情 在開會的時候, 有句話讓我印象非常深刻, 也是徹底改變我對公司還有業界使命感的印象, 算法的頭說, performance is amazing, 但是我們不敢保證新的算法+新的架構+新的XPU 開始大規模落地實現的時候, 也就是一兩年後, 我們不敢保證那時候會有更新更厲害的算法與架構, 如果到時候有更強的算法與架構, 我們這幾年的投入會成為一場空, 但是我們不能錯過任何的機會, 不能錯過這個新的算法與架構, 我們願意賭一把 ※ 編輯: waitrop (174.194.128.87 美國), 12/14/2025 19:28:51 ※ 編輯: waitrop (174.194.128.87 美國), 12/14/2025 19:32:06

12/14 19:30, 7小時前 , 33F
還好我在谷歌革命成功前夕進了一點,賭對了 XD
12/14 19:30, 33F

12/14 19:32, 7小時前 , 34F
NVDA GOOG TSM TSLA PLTR
12/14 19:32, 34F

12/14 19:32, 7小時前 , 35F
做動態比例調整 誰跌買誰各位覺得行不?
12/14 19:32, 35F
※ 編輯: waitrop (174.194.128.87 美國), 12/14/2025 19:40:15

12/14 19:35, 7小時前 , 36F
舊架構TPU已經贏了,新架構也會贏下去
12/14 19:35, 36F

12/14 19:38, 7小時前 , 37F
買VOO表示無所謂,誰贏我都會贏,不像某個宇宙無敵
12/14 19:38, 37F

12/14 19:38, 7小時前 , 38F
的中國A股,天天都在贏贏贏,但持股從來沒贏過。
12/14 19:38, 38F

12/14 19:39, 7小時前 , 39F
狗家只要一直圍繞著tpu 開發就好 根本不會有什麼新
12/14 19:39, 39F

12/14 19:39, 7小時前 , 40F
算法問題
12/14 19:39, 40F

12/14 19:46, 7小時前 , 41F
wait大 我很慶幸這個世界有谷歌 讓我有生之年可以
12/14 19:46, 41F

12/14 19:46, 7小時前 , 42F
用AI做音樂。你工作辛苦了 ^o^
12/14 19:46, 42F

12/14 19:47, 7小時前 , 43F
最重要是沒有老黃的硬體 這個理想更難發生 一起攜
12/14 19:47, 43F

12/14 19:47, 7小時前 , 44F
手引領人類的文明吧
12/14 19:47, 44F

12/14 19:49, 7小時前 , 45F
所以老黃黑歸黑,還是蠻肯拼的
12/14 19:49, 45F

12/14 19:49, 7小時前 , 46F
本來就不一定會成功阿
12/14 19:49, 46F

12/14 19:49, 7小時前 , 47F
我看文章cpx應該不是為了解決memory wall,因為pre
12/14 19:49, 47F

12/14 19:49, 7小時前 , 48F
fill是計算需求大於記憶體IO,所以才改選擇gddr
12/14 19:49, 48F

12/14 19:49, 7小時前 , 49F
memory較為經濟。而且實際上業界一直努力在減少io
12/14 19:49, 49F

12/14 19:49, 7小時前 , 50F
wall,這也是為啥誕生hbm,hbf。而且除了容量與頻
12/14 19:49, 50F

12/14 19:49, 7小時前 , 51F
寬,架構上也有近存運算跟存內運算,Cerebras跟寒
12/14 19:49, 51F

12/14 19:49, 7小時前 , 52F
武紀就是例子。另外每bit傳輸的能量也需要降低,所
12/14 19:49, 52F

12/14 19:49, 7小時前 , 53F
以有cpo/cpc。最後,始終都要考慮經濟問題而不是一
12/14 19:49, 53F

12/14 19:49, 7小時前 , 54F
味採用較高的規格。
12/14 19:49, 54F

12/14 19:49, 7小時前 , 55F
反正就先吹,到時候失敗再找藉口就好了
12/14 19:49, 55F

12/14 19:57, 7小時前 , 56F
谷歌從頭到尾用TPU訓練他們自家的模型,迭代自己的
12/14 19:57, 56F

12/14 19:57, 7小時前 , 57F
硬體跟演算法,兩者互相配合,而其他家用的是GPGPU
12/14 19:57, 57F

12/14 19:57, 7小時前 , 58F
,縱使CUDA再怎麼厲害,也不是萬能,這似乎給了谷歌
12/14 19:57, 58F

12/14 19:57, 7小時前 , 59F
在發展AI上,有別於其他家的獨一無二又非常關鍵的優
12/14 19:57, 59F

12/14 19:57, 7小時前 , 60F
勢!
12/14 19:57, 60F

12/14 19:59, 7小時前 , 61F
頂多就讓tpu慢兩年吧,新架構出來也不見得tpu不支
12/14 19:59, 61F

12/14 19:59, 7小時前 , 62F
12/14 19:59, 62F

12/14 20:09, 7小時前 , 63F
現在要思考的是,如果有新架構能否在GPGPU上發揮優
12/14 20:09, 63F

12/14 20:09, 7小時前 , 64F
勢?如果可以,馬上切換模擬不是問題,如果涉及硬體
12/14 20:09, 64F

12/14 20:09, 7小時前 , 65F
必須要配合(畢竟GPU也不是萬能),比如記憶體牆,
12/14 20:09, 65F

12/14 20:09, 7小時前 , 66F
谷歌的TPU是唯一自己可以迭代配合的,恐怖呦
12/14 20:09, 66F

12/14 20:13, 7小時前 , 67F
噗 不要最後新算法提出的不是谷歌,是Ilya Sutskeve
12/14 20:13, 67F

12/14 20:13, 7小時前 , 68F
r,然後tpu完全沒優勢,當新算法TPU特化晶片沒有優
12/14 20:13, 68F

12/14 20:13, 7小時前 , 69F
勢回到比通用計算,那GPU就虐了,這就是TPU最危險的
12/14 20:13, 69F

12/14 20:13, 7小時前 , 70F
地方,算法綁定
12/14 20:13, 70F

12/14 20:14, 7小時前 , 71F
本來就要考慮經濟問題啊,能耗.商轉上市後價格
12/14 20:14, 71F
文章代碼(AID): #1fFfT4H1 (Stock)
討論串 (同標題文章)
文章代碼(AID): #1fFfT4H1 (Stock)