Re: [新聞] DeepSeek技術抄襲、過度炒作 Google AI執行長說話了
※ 引述《winall (winall)》之銘言:
: DeepSeek技術抄襲、過度炒作 Google AI執行長說話了
: 吳孟峰/核稿編輯 2025/02/10 17:07
: https://ec.ltn.com.tw/article/breakingnews/4947008
: Google人工智慧實驗室執行長哈薩比斯(Demis Hassabis )表示,中國人工智慧新創公司
: DeepSeek的新模型「令人印象深刻,但炒作被誇大了」;它「沒有帶來任何實際的新科學進
: 步」。哈薩比斯也表示,DeepSeek採用的許多技術都是由Google團隊首創。
自由標題又造謠了
他只是説很多技術由GOOGLE首創,這和抄襲并不相同。
這些改善訓練成本的GOOGLE首創的技術,被擱置,因爲大家一起曾經維護過超高成本超多硬件堆積出來的大模型才有競爭力的美國夢
現在這些技術在美國之外的大模型做出來。只好說地緣政治規模上發揮作用。什麽意思不太好懂
但大概是很多資金不多的國家可以一起來試的意思。也就是高資本高成本護城河乾涸了
fp8精度降低大家都能做,但是精度降低有高階硬體的美國公司不屑做,
MOE技術也有很多模型采用,顯然DEEPSEEK也是對其做了足夠更深入研究才能降低運算力保持了編程和數學能力略勝chatgpt o1
至於自我强化學習,GOOGLE在llm領域也沒有DS做的深入,
自我强化學習,在AlphaGO中的確就有應用,但是deepmind并沒有把他們開源,只是一種思路,在LLM中應用顯然是DS自研的
google的意思是,我們走在前面,早就看到過這幾條路,但覺得這路荊棘太多,獵物看起來也少,爲了追趕chatgpt也就沒深入探索
等ds荊棘砍開,發現大量獵物了,哭啼啼說這些路我們“首創”首發現啦。説起來就是如此,很丟人就是了
: 哈薩比斯表示,DeepSeek的新人工智慧模型給他留下了深刻的印象,但他認為圍繞這項中國
: 技術的炒作被誇大。
: 哈薩比斯即將出席在巴黎舉行的人工智慧行動高峰會。他說:「但我們必須明白,儘管炒作
: 如此之多,但實際上並沒有新的科學進步。它只是利用了已知的技術」;「實際上,許多技
: 術都是我們在谷歌和DeepMind發明的」。
: 不過,哈薩比斯承認,DeepSeek的新模型可以在「地緣政治規模」上發揮作用。
: 上個月,DeepSeek展示出可以與OpenAI 的 ChatGPT等美國模型相媲美,震驚科技業,有可
: 能推翻市場先前認為美國公司佔據的領先地位。
: DeepSeek也表示,在人工智慧模型上的投入僅為美國公司投資的一小部分,這顛覆人們對開
: 發和改進先進機器學習的真正成本的看法。
: 此外,多年來,人工智慧界一直在爭論通用人工智慧(AGI)何時到來。AGI 廣義來說是指
: 比人類更聰明的人工智慧。
: 哈薩比斯表示,人工智慧產業正走向AGI,他將其描述為一種展現人類所有認知能力的系統
: 。
: 哈薩比斯說:「我認為我們已經很接近了,也許我們只需要5年左右的時間就能實現這樣的
: 系統,這將是非常了不起的」。
: 心得 :
: 我記得,DeepSeek還沒開始紅時 就有一堆中吹 在吹
: 中國的AI模型已經跟 OpenAI的模型並駕齊驅了
: 結果現在水落石出,就是在別人已經釣好魚的池中撈魚
: 講一句最白的 就是偷雞摸狗
: 為什麼歐美沒有人想到這種方法
: 原因很簡單,它們想的都是一種正式的方法,從來沒有人想用偷雞摸狗
: 簡單講 中國所有的科技發展都是這種模式
: 直接說結論 : 這種方式沒用
: 如果沒有OpenAI撈魚 , 你要撈個屁
: 而這種方式,每個AI公司都會
: DeepSeek都理論很多都是依據 Google跟OpenAI的基礎
: 這種方式是不可能對美國這些AI公司有任何威脅
: 所以你會看到 美國這些AI巨頭公司 資本支出反而增加
: 美國這些公司在了解 DeepSeek運用偷雞摸狗的方法後 反而老神在在
: DeepSeek還吹說用很少的成本
: 先不說隱藏成本,這種在別人已經做好的模型上在去建模
: 真的沒甚麼好吹的
: 中國的特色 隱瞞+吹
: 這也不是第一次這樣
: 另外中國因為政治問題 所建出的東西 基本上就是畸形
: 在一個宇宙運行的正軌上
: 這種方式永遠不可能能夠領先
: 因為這是基本的宇宙邏輯
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.52.229.208 (中國)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1739197445.A.A26.html
噓
02/10 22:26,
12小時前
, 1F
02/10 22:26, 1F
推
02/10 22:27,
12小時前
, 2F
02/10 22:27, 2F
推
02/10 22:28,
12小時前
, 3F
02/10 22:28, 3F
→
02/10 22:28,
12小時前
, 4F
02/10 22:28, 4F
→
02/10 22:28,
12小時前
, 5F
02/10 22:28, 5F
→
02/10 22:28,
12小時前
, 6F
02/10 22:28, 6F
→
02/10 22:28,
12小時前
, 7F
02/10 22:28, 7F
→
02/10 22:28,
12小時前
, 8F
02/10 22:28, 8F
→
02/10 22:29,
12小時前
, 9F
02/10 22:29, 9F
→
02/10 22:29,
12小時前
, 10F
02/10 22:29, 10F
→
02/10 22:30,
12小時前
, 11F
02/10 22:30, 11F
推
02/10 22:34,
12小時前
, 12F
02/10 22:34, 12F
推
02/10 22:39,
12小時前
, 13F
02/10 22:39, 13F
噓
02/10 22:41,
12小時前
, 14F
02/10 22:41, 14F
噓
02/10 22:43,
12小時前
, 15F
02/10 22:43, 15F
→
02/10 22:43,
12小時前
, 16F
02/10 22:43, 16F
噓
02/10 22:44,
12小時前
, 17F
02/10 22:44, 17F
噓
02/10 22:47,
11小時前
, 18F
02/10 22:47, 18F
→
02/10 22:48,
11小時前
, 19F
02/10 22:48, 19F
噓
02/10 22:58,
11小時前
, 20F
02/10 22:58, 20F
→
02/10 23:00,
11小時前
, 21F
02/10 23:00, 21F
→
02/10 23:04,
11小時前
, 22F
02/10 23:04, 22F
噓
02/10 23:06,
11小時前
, 23F
02/10 23:06, 23F
→
02/10 23:07,
11小時前
, 24F
02/10 23:07, 24F
※ 編輯: icrose (123.52.229.208 中國), 02/10/2025 23:09:59
→
02/10 23:07,
11小時前
, 25F
02/10 23:07, 25F
→
02/10 23:08,
11小時前
, 26F
02/10 23:08, 26F
推
02/10 23:08,
11小時前
, 27F
02/10 23:08, 27F
→
02/10 23:08,
11小時前
, 28F
02/10 23:08, 28F
→
02/10 23:09,
11小時前
, 29F
02/10 23:09, 29F
→
02/10 23:09,
11小時前
, 30F
02/10 23:09, 30F
→
02/10 23:10,
11小時前
, 31F
02/10 23:10, 31F
→
02/10 23:11,
11小時前
, 32F
02/10 23:11, 32F
→
02/10 23:11,
11小時前
, 33F
02/10 23:11, 33F
推
02/10 23:21,
11小時前
, 34F
02/10 23:21, 34F
推
02/10 23:30,
11小時前
, 35F
02/10 23:30, 35F
噓
02/11 01:23,
9小時前
, 36F
02/11 01:23, 36F
噓
02/11 01:24,
9小時前
, 37F
02/11 01:24, 37F
推
02/11 03:09,
7小時前
, 38F
02/11 03:09, 38F
→
02/11 03:09,
7小時前
, 39F
02/11 03:09, 39F
噓
02/11 03:18,
7小時前
, 40F
02/11 03:18, 40F
噓
02/11 05:57,
4小時前
, 41F
02/11 05:57, 41F
推
02/11 07:30,
3小時前
, 42F
02/11 07:30, 42F
討論串 (同標題文章)
本文引述了以下文章的的內容:
完整討論串 (本文為第 2 之 5 篇):
Stock 近期熱門文章
PTT職涯區 即時熱門文章