Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據
OpenAPI 的 Chief Research Officer (首席研究員)
Mark Chen 2025/01/29 凌晨發了一波推文評價 Deepseek R1 的論文
https://i.imgur.com/A73X07x.png


恭喜 DeepSeek 產出了一個 o1 級別的推理模型!他們的研究論文顯示,他們獨立發現了
一些我們在通往 o1 道路上所找到的核心理念。
不過,我認為外界的反應有些過度,特別是在成本相關的敘事上。擁有兩種範式(預訓練
和推理)的一個重要影響是,我們可以在兩個軸向上最佳化能力,而不是只有一個,這將
帶來更低的成本。
但這也意味著我們有兩個可以擴展的軸向,而我們計劃在這兩個方向上都積極投入算力!
隨著蒸餾(distillation)技術的成熟,我們也看到降低成本和提升能力這兩者之間的關
係越來越解耦。能夠以更低的成本提供服務(尤其是在較高延遲的情況下),並不代表能
夠產生更強的能力。
我們將持續改進模型的低成本部署能力,但我們仍對研究路線保持樂觀,並將專注於執行
計劃。我們很興奮能在本季度及今年內推出更優秀的模型!
Congrats to DeepSeek on producing an o1-level reasoning model! Their research
paper demonstrates that they’ve independently found some of the core ideas
that we did on our way to o1.
However, I think the external response has been somewhat overblown,
especially in narratives around cost. One implication of having two paradigms
(pre-training and reasoning) is that we can optimize for a capability over
two axes instead of one, which leads to lower costs.
But it also means we have two axes along which we can scale, and we intend to
push compute aggressively into both!
As research in distillation matures, we're also seeing that pushing on cost
and pushing on capabilities are increasingly decoupled. The ability to serve
at lower cost (especially at higher latency) doesn't imply the ability to
produce better capabilities.
We will continue to improve our ability to serve models at lower cost, but we
remain optimistic in our research roadmap, and will remain focused in
executing on it. We're excited to ship better models to you this quarter and
over the year!
-----
2025/01/28
CEO Sam Altman 也發了一些推文
deepseek's r1 is an impressive model, particularly around what they're able
to deliver for the price.
we will obviously deliver much better models and also it's legit invigorating
to have a new competitor! we will pull up some releases.
but mostly we are excited to continue to execute on our research roadmap and
believe more compute is more important now than ever before to succeed at our
mission.
the world is going to want to use a LOT of ai, and really be quite amazed by
the next gen models coming.
look forward to bringing you all AGI and beyond.
DeepSeek 的 R1 是一款令人印象深刻的模型,特別是在這個價格範圍內所能提供的性能
。我們當然會推出更強大的模型,而且有新的競爭對手確實讓人振奮!我們會發布一些新版
本。
但最重要的是,我們對繼續推進研究路線圖感到興奮,並且相信現在比以往任何時候都更
需要強大的算力來實現我們的使命。
全球對 AI 的需求將會大幅增加,未來一代的模型將讓人驚艷不已。
期待為大家帶來 AGI,甚至更遠大的突破。
-
下面的梗圖很好笑
https://i.imgur.com/rjVPsjX.png

※ 引述《andy3021515 ()》之銘言:
: 中央社
: OpenAI:已掌握DeepSeek盜用模型證據
: 2025/1/29 20:59(1/29 21:17 更新)
: https://www.cna.com.tw/news/aopl/202501290140.aspx
: (中央社倫敦29日綜合外電報導)中國新創公司「深度求索」(DeepSeek)引發的疑慮日
: 增。OpenAI今天表示已掌握證據,顯示DeepSeek盜用其模型進行開發;業界也指DeepSeek
: 握有大量輝達H100高階晶片,形同直接挑戰美國出口管制規定。
: 中國的DeepSeek因標榜低成本也能訓練出強大人工智慧(AI)模型,顛覆AI訓練不能沒有
: 精密昂貴晶片的刻板印象,引發市場強烈震盪。
: 不過,總部設在美國舊金山(San Francisco)的OpenAI公司向英國「金融時報」(
: Financial Times)證實,已掌握疑似DeepSeek利用「蒸餾」(distillation)技術的證
: 據。OpenAI是聊天機器人ChatGPT的開發商。
: 蒸餾技術可讓開發者利用更大、更強的模型輸出成果,在較小模型獲得更出色的表現,並
: 讓他們在特定任務上以更低廉的成本得到類似結果。
: 儘管蒸餾是AI業界常見做法,但DeepSeek若利用蒸餾技術來打造自家模型,並與OpenAI競
: 爭,將違反OpenAI服務條款,因此產生疑慮。
: OpenAI婉拒進一步說明或提供證據細節。根據該公司的服務條款,用戶不得「複製」任何
: OpenAI的服務,或是「利用輸出結果,來開發與OpenAI競爭的模型」。
: 彭博(Bloomberg News)28日引述知情人士說法報導,微軟(Microsoft)和OpenAI正在
: 調查一群與DeepSeek有關聯的人是否以未經授權的方式,不當取得OpenAI技術輸出的資訊
: 。
: 報導指,微軟維安研究員2024年秋天觀察到有人利用OpenAI應用程式介面(API)輸出大
: 筆數據,他們認為這些人可能與DeepSeek有關。
: 美國總統川普政府的AI專家塞克斯(David Sacks)也在福斯新聞(Fox News)訪談中提
: 及蒸餾技術,並稱有「大量證據」顯示DeepSeek是仰賴OpenAI模型輸出,以協助開發自家
: 技術,但他也沒有進一步提出證據。
: 另一方面,美國Scale AI執行長汪滔(Alexandr Wang)日前表示,DeepSeek應握有多達5
: 萬顆輝達(Nvidia)H100晶片,以開發現有模型。美國億萬富豪馬斯克(Elon Musk)也
: 在社群平台X回應相關推文,並加上「顯而易見」的評論,似乎同意這項說法。
: 由於H100晶片被禁止向中國出口,這形同直接挑戰美國出口管制政策。有分析直指,
: DeepSeek繞道囤積大量晶片以規避美國管制,因此其真實開發成本恐怕遠高於宣稱的558
: 萬美元(約新台幣1.83億元),未來也勢必將引發美方加強管制。(譯者:楊昭彥/核稿
: :施施)1140129
: 心得/評論:
: 彭博又是哪裡來的野雞雜誌,我們Deepseek 最強啦
: nvidia 股價溜滑梯到底了嗎
: 如果這是真的
: 那代表這幾天的新聞不過就是中國的大外宣
: 跟韓國的室溫超導體,中國的雲巴智軌一樣
: 喊得很大聲,做出來的不過就那樣
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.229.38.139 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738198763.A.61A.html
→
01/30 09:02,
5月前
, 1F
01/30 09:02, 1F
→
01/30 09:02,
5月前
, 2F
01/30 09:02, 2F
推
01/30 09:04,
5月前
, 3F
01/30 09:04, 3F
→
01/30 09:06,
5月前
, 4F
01/30 09:06, 4F
推
01/30 09:06,
5月前
, 5F
01/30 09:06, 5F
推
01/30 09:07,
5月前
, 6F
01/30 09:07, 6F
→
01/30 09:08,
5月前
, 7F
01/30 09:08, 7F
以前沒想過先進商用AI成本可以這麼低
你看一大票AI新創甚至Cloudflare、Perplexity都開始陸續引入
價格戰開始
推
01/30 09:09,
5月前
, 8F
01/30 09:09, 8F
→
01/30 09:09,
5月前
, 9F
01/30 09:09, 9F
→
01/30 09:09,
5月前
, 10F
01/30 09:09, 10F
→
01/30 09:09,
5月前
, 11F
01/30 09:09, 11F
→
01/30 09:09,
5月前
, 12F
01/30 09:09, 12F
→
01/30 09:10,
5月前
, 13F
01/30 09:10, 13F
→
01/30 09:10,
5月前
, 14F
01/30 09:10, 14F
→
01/30 09:10,
5月前
, 15F
01/30 09:10, 15F
推
01/30 09:11,
5月前
, 16F
01/30 09:11, 16F
→
01/30 09:11,
5月前
, 17F
01/30 09:11, 17F
沒有什麽可以滾這種事
Deepseek 現在已經全線開花
如果按照 ChatGPT 公佈的現在仍然持續虧損
這波又要跟 Deepseek 下去玩價格戰的話
對 OpenAI 一定更傷
Perplexity
https://i.imgur.com/rDAhYVD.png

Cloudflare
https://i.imgur.com/0pbumC2.png






→
01/30 09:11,
5月前
, 18F
01/30 09:11, 18F
→
01/30 09:12,
5月前
, 19F
01/30 09:12, 19F
→
01/30 09:12,
5月前
, 20F
01/30 09:12, 20F
→
01/30 09:12,
5月前
, 21F
01/30 09:12, 21F
→
01/30 09:13,
5月前
, 22F
01/30 09:13, 22F
→
01/30 09:14,
5月前
, 23F
01/30 09:14, 23F
→
01/30 09:14,
5月前
, 24F
01/30 09:14, 24F
→
01/30 09:14,
5月前
, 25F
01/30 09:14, 25F
推
01/30 09:14,
5月前
, 26F
01/30 09:14, 26F
推
01/30 09:15,
5月前
, 27F
01/30 09:15, 27F
→
01/30 09:15,
5月前
, 28F
01/30 09:15, 28F
下面有一個一般user的推文
One lesson to take from this: a model that is 90% as good as o1 but with no
usage limits is an OOM more useful in a knowledge worker’s daily life than
an o1 with ~10 queries a day.
In the 3 days of testing R1, I have probably sent 10x as many queries as I
have to o1 in the past three months combined — despite being a ChatGPT Plus
subscriber.
A great model that I can work and iterate together with — without concern of
getting cut off after a handful of messages — is so much better than a
slightly better model that I can speak to for 5 minutes a day.
從這件事學到的一點是:一個效能達到 o1 90% 的模型,但沒有使用限制,對知識工作者
的日常生活來說,比起每天只能發送約 10 次查詢的 o1,有數量級更高的實用性。
在測試 R1 的三天內,我發送的查詢數量可能是過去三個月內對 o1 查詢總數的 10 倍—
—儘管我是 ChatGPT Plus 訂閱者。
一個可以無限制地與我一起工作、反覆試驗的優秀模型,遠比一個稍微強一些但每天只能
使用 5 分鐘的模型要好得多。
推
01/30 09:15,
5月前
, 29F
01/30 09:15, 29F
前 Meta SWE 在底下酸他
Thanks for wasting everyone’s fucking time protecting proprietary training
techniques that will eventually come out anyway. ClosedAI.
感謝你浪費大家的時間來保護那些最終還是會洩露的專有訓練技術。封閉AI。
推
01/30 09:15,
5月前
, 30F
01/30 09:15, 30F
我有備註不過不太明顯
上色了
→
01/30 09:15,
5月前
, 31F
01/30 09:15, 31F
→
01/30 09:16,
5月前
, 32F
01/30 09:16, 32F
→
01/30 09:16,
5月前
, 33F
01/30 09:16, 33F
推
01/30 09:17,
5月前
, 34F
01/30 09:17, 34F
還有 51 則推文
還有 1 段內文
→
01/30 09:55,
5月前
, 86F
01/30 09:55, 86F
→
01/30 09:55,
5月前
, 87F
01/30 09:55, 87F
推
01/30 09:57,
5月前
, 88F
01/30 09:57, 88F
推
01/30 09:58,
5月前
, 89F
01/30 09:58, 89F
→
01/30 10:01,
5月前
, 90F
01/30 10:01, 90F
→
01/30 10:09,
5月前
, 91F
01/30 10:09, 91F
→
01/30 10:12,
5月前
, 92F
01/30 10:12, 92F
→
01/30 10:13,
5月前
, 93F
01/30 10:13, 93F
推
01/30 10:13,
5月前
, 94F
01/30 10:13, 94F
推
01/30 10:16,
5月前
, 95F
01/30 10:16, 95F
→
01/30 10:16,
5月前
, 96F
01/30 10:16, 96F
推
01/30 10:26,
5月前
, 97F
01/30 10:26, 97F
→
01/30 10:26,
5月前
, 98F
01/30 10:26, 98F
推
01/30 10:29,
5月前
, 99F
01/30 10:29, 99F
推
01/30 10:32,
5月前
, 100F
01/30 10:32, 100F
推
01/30 10:41,
5月前
, 101F
01/30 10:41, 101F
推
01/30 10:42,
5月前
, 102F
01/30 10:42, 102F
推
01/30 10:46,
5月前
, 103F
01/30 10:46, 103F
→
01/30 10:46,
5月前
, 104F
01/30 10:46, 104F
推
01/30 10:49,
5月前
, 105F
01/30 10:49, 105F
推
01/30 11:24,
5月前
, 106F
01/30 11:24, 106F
推
01/30 11:25,
5月前
, 107F
01/30 11:25, 107F
推
01/30 11:38,
5月前
, 108F
01/30 11:38, 108F
→
01/30 12:00,
5月前
, 109F
01/30 12:00, 109F
→
01/30 12:01,
5月前
, 110F
01/30 12:01, 110F
推
01/30 12:05,
5月前
, 111F
01/30 12:05, 111F
推
01/30 12:18,
5月前
, 112F
01/30 12:18, 112F
→
01/30 12:18,
5月前
, 113F
01/30 12:18, 113F
→
01/30 12:27,
5月前
, 114F
01/30 12:27, 114F
推
01/30 12:34,
5月前
, 115F
01/30 12:34, 115F
推
01/30 12:36,
5月前
, 116F
01/30 12:36, 116F
→
01/30 12:36,
5月前
, 117F
01/30 12:36, 117F
→
01/30 12:46,
5月前
, 118F
01/30 12:46, 118F
推
01/30 13:23,
5月前
, 119F
01/30 13:23, 119F
→
01/30 13:23,
5月前
, 120F
01/30 13:23, 120F
→
01/30 13:40,
5月前
, 121F
01/30 13:40, 121F
→
01/30 13:41,
5月前
, 122F
01/30 13:41, 122F
推
01/30 18:12,
5月前
, 123F
01/30 18:12, 123F
推
01/31 01:25,
5月前
, 124F
01/31 01:25, 124F
→
01/31 01:27,
5月前
, 125F
01/31 01:27, 125F
討論串 (同標題文章)
以下文章回應了本文:
完整討論串 (本文為第 10 之 12 篇):
Stock 近期熱門文章
PTT職涯區 即時熱門文章