Re: [新聞] DeepSeek會抑制AI投資?
好的黃董
下週財報財測 準備驗證你的說法
不要到時OOXX,然後與你說的完全相反
老黃吹牛吹到破
下週直接說展望:因為DeepSeek 讓AI比之前更爆力的需要GPU
然後財測給爆高,先吹再說
請學ㄧ下你小弟smci 梁董
2024 2025 財報不知真假,但財測先吹到2026
黃董 事不過三,該吹了吧
※ 引述《eeaa151》之銘言
: 原文標題:DeepSeek會抑制AI投資?NVIDIA黃仁勳:投資人解讀錯方向了
: 原文連結:https://udn.com/news/amp/story/6811/8563739
: 發布時間:2025-02-21 20:09
: 記者署名: 經濟日報 編譯陳律安/綜合外電
: 原文內容:
: 美國人工智慧(AI)晶片龍頭輝達(NVIDIA)執行長黃仁勳回應中國大陸DeepSeek引發輝
: 達股價賣壓一事,表示投資人弄錯了DeepSeek進步的訊息,正確的訊息應該是AI的後訓練
: (post-training)階段才是關鍵,將帶動對輝達晶片的需求不減反增。
: DeepSeek在1月發表「R1」大型語言模型(LLM),以較低的成本獲得高效能,引發美國科
: 技巨擘的AI投資前景憂慮,拖累輝達股價在1月挫跌。輝達的股價則已幾乎收復在那之後
: 的失土。
: 黃仁勳20日在合作夥伴DDN預錄的訪談影片表示,輝達股價對DeepSeek的劇烈反應,源於
: 投資人對DeepSeek進步的解讀錯誤。
: 他說,AI產業仍需要運算能力進行AI模型的後期訓練,隨著後期訓練的方法不斷增加、漸
: 趨多元,對輝達晶片所供應運算能力的需求也將成長。後期訓練讓AI模型能在完成訓練後
: ,做出結論或進行預測。
: 黃仁勳說,「從投資人的角度來看,過去都有一種心智模型,認為世界是先預訓練(pre-
: training),接著再(進入)推論(階段),而(投資人認知的)推論是:你問了AI一個
: 問題,就能立刻獲得答案」,「我不知道這是誰的錯,但很顯然,這個心智圖是不對的」
。
: 他說,預訓練仍然很重要,但後期訓練反而是「最重要的智慧環節,才是(AI)學會解決
: 問題的環節」,後期訓練方法「真的如火如荼」進展,AI模型將持續以新的推理方法進步
: 。他也稱讚DeepSeek的創新提振AI產業的活力,「實在令人無比興奮。R1開源在全球激起
: 的活力令人驚嘆」。
: 黃仁勳這番談話,或許透露了輝達26日財報說明會在面對DeepSeek的問題時,可能回答的
: 內容。在最近的美股財報季,DeepSeek已成為熱議話題,超微(AMD)執行長蘇姿丰也被
: 問到類似問題,回答表示DeepSeek正在帶動「有利AI採用」創新。
: 黃仁勳最近幾個月不斷駁斥模型擴展陷入麻煩的憂慮,即便是在DeepSeek聲名大噪之前,
: 1月就有報導指出OpenAI的模型進步正在放慢,引人憂心輝達成長可能放緩。黃仁勳去年1
: 1月強調,模型擴展「活得很好」,只是從訓練轉向推論。
: 心得/評論:
: 老黃開示:管你們deepseek還是open ai,通通都需要我的鏟子,而且只會需求越來越多
: 不過觀察NVDA昨晚直接掉4%顯然華爾街這次並不買賬,究竟這是週末的童話故事還是鬼故
事
: ---
: Sent from Ptter for iOS
----
Sent from BePTT on my iPhone 16
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 112.105.61.157 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1740220480.A.AED.html
推
02/22 18:39,
11小時前
, 1F
02/22 18:39, 1F
→
02/22 18:40,
11小時前
, 2F
02/22 18:40, 2F
噓
02/22 18:52,
10小時前
, 3F
02/22 18:52, 3F
推
02/22 19:17,
10小時前
, 4F
02/22 19:17, 4F
→
02/22 19:17,
10小時前
, 5F
02/22 19:17, 5F
噓
02/22 19:39,
10小時前
, 6F
02/22 19:39, 6F
→
02/22 19:39,
10小時前
, 7F
02/22 19:39, 7F
噓
02/22 20:52,
8小時前
, 8F
02/22 20:52, 8F
Stock 近期熱門文章
PTT職涯區 即時熱門文章