Re: [情報] 輝達:將恢復H20在中國的銷售

看板Stock (股票)作者 (foxx)時間6小時前 (2025/07/16 14:48), 6小時前編輯推噓2(313)
留言7則, 5人參與, 5小時前最新討論串6/6 (看更多)
※ 引述《LDPC (Channel Coding)》之銘言: : 最近時間比較多 發發廢文https://reurl.cc/x3GvEb : 摘錄"我們希望中國持續使用排名第四的產品,因為他們仍然離不開美國技術", : "中國完全有能力自己做晶片,但你要保持領先一步,這樣他們就會持續買我們的產品" : 這意味 美國商務長已接受用次次次次級晶片 來鎖西岸自研 : (這論點很久以前就發過 參照2023 11月 1bJpKX18) 所以老黃應該會爆賺 : 針對H20架構 https://hao.cnyes.com/post/76040 : 還是老話一句 單顆快沒有太大好處 要的是整個node-to-node cluster-to-cluster : 巨大串級 也就是nvlink+cuda h20有4TB/s串連速度 穩定cuda 這種只有老黃有 : 這點來說h20還是可以打贏910b 尤其910b坪寬速度是h20一半 這意味多顆串連時 : 910b自身算力會被頻寬限制住而下降 以及h系列都有 transformer engine 可以動態調整 頻寬有兩種 HBM的頻寬跟GPU-GPU的頻寬 如果是串聯走張量並行 最後都是會卡在GPU頻寬沒錯 H20單顆算力較低 在input token較多的時候會顯得吃力 多顆並聯確實可以改善這問題 在使用者只問一些 幫我用Python寫一個貪食蛇 這種超短的prompt 根本不需要消耗多少算力 最後都是比頻寬 如果模型大小比較小可以整個塞在H20中 那H20的速度直接屌打華為 H20其實某種程度上CP值真的算很好 只有中國買得到 中國以外的地方 請你們買我們NV貴貴的GPU喔 不提供H20超值餐 : bf16精度 然後在inference系列還是有極佳generation token效果 : 而h20 記憶體是96GB hbm3 這就意味者 cowos/hbm/tsm小隊可以回歸了 : 中國的市場訂單可以作為後來買其他股票的定錨 下一季NV財報可以用來其他廠商對答案 : 這也意味者老AI要回來了 來吧 tsm小隊集合 \@@/ 我比較期待把HBM弄到個人電腦的那天 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 202.39.243.162 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1752648536.A.E04.html ※ 編輯: TameFoxx (202.39.243.162 臺灣), 07/16/2025 14:49:16

07/16 14:55, 6小時前 , 1F
主要製程封裝都是一樣的,電晶體數量少還可以宣傳成
07/16 14:55, 1F

07/16 14:55, 6小時前 , 2F
不易過熱XD
07/16 14:55, 2F

07/16 14:55, 6小時前 , 3F
不是 有B100 200 300系列買什麼H20?
07/16 14:55, 3F

07/16 14:56, 6小時前 , 4F
生意人做生意,又要滿足美國,又要滿足中國,難為了
07/16 14:56, 4F

07/16 15:03, 6小時前 , 5F
價格問題 B系列保底8片最便宜也要1200萬
07/16 15:03, 5F

07/16 15:29, 5小時前 , 6F
H是不好的
07/16 15:29, 6F

07/16 15:45, 5小時前 , 7F
中國有的選才不會買h20
07/16 15:45, 7F
文章代碼(AID): #1eTqjOu4 (Stock)
文章代碼(AID): #1eTqjOu4 (Stock)