[新聞] 史丹福大學AI團隊抄襲中國大模型 曝光後全網刪庫 終道歉收場
看板Tech_Job (科技人)作者KotoriCute (乙醯胺酚)時間5月前 (2024/06/04 16:45)推噓54(62推 8噓 61→)留言131則, 69人參與討論串1/2 (看更多)
史丹福大學AI團隊抄襲中國大模型 曝光後全網刪庫 終道歉收場
https://bit.ly/4c6lYd0
網傳史丹佛大學AI團隊抄襲、「套殼」中國國産大模型成果,引起業界高度關注和熱議。目
前,涉事的史丹佛學生已公開正式道歉。
史丹福大學的一個研究團隊在5月29日發布Llama3-V項目,宣稱僅需500美元就能訓練出一個
SOTA(State of the Art,即最先進的)多模態大模型,效果比肩GPT-4V、Gemini Ultra、
Claude Opus等,但模型小100倍。
公開信息顯示,Llama3-V團隊的其中兩位作者 Siddharth Sharma 與 Aksh Garg 是史丹福
大學計算機系的本科生,曾發表過數篇機器學習相關的論文。
名校背景,特斯拉、SpaceX等大廠經歷的成員,再加上號稱足以「改變現狀」的研究成果,
Llama3-V受到了相當程度的關注。Llama3-V不僅在社交媒體上迅速躥紅,還一度沖上了Hugg
ingFace趨勢榜(機器學習領域中較有影響力的平台,其趨勢榜一定程度反映出模型的流行
度)的首頁。
然而,沒過幾天,一位網民發現,Llama3-V的模型結構和代碼與出自清華系明星創業公司面
壁智能的MiniCPM-Llama3-V 2.5幾乎一模一樣,只是變量名有所變化。
網民在面壁智能GitHub的項目下放出了證據。這些證據包括:Llama3-V的模型架構和代碼與
MiniCPM-Llama3-V 2.5幾乎完全相同,僅有一些變量名和格式化的差异;Llama3-V使用了Mi
niCPM-Llama3-V 2.5的分詞器(tokenizer),並且連同MiniCPM-Llama3-V 2.5定義的特殊
符號也出現在了Llama3-V中;將從HuggingFace下載的Llama3-V模型權重中的變量名改成Min
iCPM-Llama3-V 2.5的,模型可以用MiniCPM-V代碼成功運行。
網民為什麽不直接質疑Llama3-V,而是在面壁智能GitHub的項目下進行爆料?事實上,網民
此前於6月2日在Llama3-V頁面上提出的質疑,不過很快便被Llama3-V的作者已經删除了。
為此,提出質疑的網民被激怒暴走,跑到了 MiniCPM-V 的 Github 頁面進行事件還原,提
醒面壁智能團隊關注此事。
在MiniCPM-Llama3-V 2.5團隊收到提醒後也迅速作出反應,於是一個新的證據出現。
面壁智能的MiniCPM-Llama3-V 2.5項目具有獨特的功能,如識別清華簡——一種罕見的中國
古代文字。
公開資料顯示,清華簡是清華大學於2008年7月收藏的一批戰國竹簡,為戰國中晚期文物。M
iniCPM-Llama3-V 2.5團隊透露,識別清華簡是MiniCPM-Llama3-V 2.5的一項實驗功能,訓
練圖像是最近從出土文物中掃描並由MiniCPM-Llama3-V 2.5團隊標注,且尚未公開發布。
Llama3-V模型居然也可以識別「清華簡」。兩個模型在識別的表現上,正確的結果上基本一
致,錯誤的情况也頗為相似。
鑒於這些結果,MiniCPM-Llama3-V 2.5團隊表示,很難用巧合來解釋這種不尋常的相似性,
希望Llama3-V的作者能够對這個問題給出官方解釋。相信這對開源社區的共同利益很重要。
當網民拋出三大事實質疑後,Llama3-V的做法是——不回應直接删除網民評論。
目前,Llama3-V 的 GitHub 項目主頁已顯示為「404」,HuggingFace上Llama3-V項目也已
經不可見,在作者社交媒體賬號上也找不到此前宣傳 Llama3-V 的內容。
6月3日,Llama3-V團隊成員Aksh Garg在社交媒體上發文回應了質疑。但隨後不久這條回應
便被删除。
Llama3-V在未公開的實驗性特徵上與MiniCPM-Llama3-V 2.5表現出高度相似的行為,這些特
徵是根據MiniCPM-Llama3-V 2.5團隊內部數據訓練的。
面對抄襲的質疑,史丹福團隊最初辯稱,他們的工作早於面壁智能的MiniCPM,只是使用了
他們的tokenizer。
另據媒體消息,面壁智能聯合創始人兼CEO李大海在朋友圈回應說「深表遺憾」,這也是一
種「受到國際團隊認可的方式」,並呼籲大家共建開放、合作、有信任的社區環境。
面壁智能首席科學家、清華大學長聘副教授劉知遠表示,人工智能的飛速發展離不開全球算
法、數據與模型的開源共享,讓人們始終可以站在SOTA的肩上持續前進。面壁開源的MiniCP
M-Llama3-V 2.5 就用了最新的Llama3作為語言模型基座。而開源共享的基石是對開源協議
的遵守,對其他貢獻者的信任,對前人成果的尊重和致敬,Llama3-V團隊無疑嚴重破壞了這
一點。他們在受到質疑後已在Huggingface删庫,該團隊三人中的兩位也只是史丹福大學本
科生,未來還有很長的路,如果知錯能改,善莫大焉。
北京面壁智能科技有限責任公司成立於2022年8月,今年4月,面壁智能完成新一輪數億元融
資,由華為哈勃領投,春華創投、北京市人工智能産業投資基金等跟投,知乎作為戰略股東
持續跟投支持。今年2月,面壁智能發布開源模型MiniCPM後,又推出MiniCPM 2系列端側模
型。李大海表示,推動大模型在端側的落地是面壁目前的重點工作之一。
據第一財經報道,在最新的進展中,史丹福Llama3-V團隊的兩位作者Siddharth Sharma和 A
ksh Garg在社交平台上就這一學術不端行為向面壁MiniCPM團隊正式道歉,並表示會將Llama
3-V模型悉數撤下。
另外,史丹福人工智能實驗室主任Christopher David Manning也發文譴責這一抄襲行為,
並對MiniCPM這一中國開源模型表示贊揚。
Manning寫道,「怎能不為自己的錯誤買單!清華大學自然語言處理實驗室做出了很棒的開
源工作,有力推動科學發展。」
Manning還痛斥道:「所謂『真正做到之前,假裝你做到了』是矽谷的無耻産物。」Manning
引用的這句流行語「Fake it before you make it」,一度盛行於矽谷的初創圈和科技公司
,被不少創業者奉為圭臬。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.204.25.200 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1717490752.A.100.html
※ 編輯: KotoriCute (123.204.25.200 臺灣), 06/04/2024 16:46:28
推
06/04 16:48,
5月前
, 1F
06/04 16:48, 1F
推
06/04 16:55,
5月前
, 2F
06/04 16:55, 2F
推
06/04 17:02,
5月前
, 3F
06/04 17:02, 3F
推
06/04 17:24,
5月前
, 4F
06/04 17:24, 4F
推
06/04 17:28,
5月前
, 5F
06/04 17:28, 5F
推
06/04 17:43,
5月前
, 6F
06/04 17:43, 6F
→
06/04 17:44,
5月前
, 7F
06/04 17:44, 7F
→
06/04 17:44,
5月前
, 8F
06/04 17:44, 8F
→
06/04 17:44,
5月前
, 9F
06/04 17:44, 9F
→
06/04 17:44,
5月前
, 10F
06/04 17:44, 10F
→
06/04 17:44,
5月前
, 11F
06/04 17:44, 11F
※ Vanced:轉錄至看板 Gossiping 06/04 17:50
噓
06/04 17:54,
5月前
, 12F
06/04 17:54, 12F
推
06/04 18:00,
5月前
, 13F
06/04 18:00, 13F
→
06/04 18:14,
5月前
, 14F
06/04 18:14, 14F
→
06/04 18:14,
5月前
, 15F
06/04 18:14, 15F
噓
06/04 18:17,
5月前
, 16F
06/04 18:17, 16F
→
06/04 18:27,
5月前
, 17F
06/04 18:27, 17F
推
06/04 18:29,
5月前
, 18F
06/04 18:29, 18F
→
06/04 18:29,
5月前
, 19F
06/04 18:29, 19F
→
06/04 18:30,
5月前
, 20F
06/04 18:30, 20F
→
06/04 18:35,
5月前
, 21F
06/04 18:35, 21F
推
06/04 18:46,
5月前
, 22F
06/04 18:46, 22F
推
06/04 18:47,
5月前
, 23F
06/04 18:47, 23F
推
06/04 18:52,
5月前
, 24F
06/04 18:52, 24F
→
06/04 18:53,
5月前
, 25F
06/04 18:53, 25F
→
06/04 18:55,
5月前
, 26F
06/04 18:55, 26F
推
06/04 18:58,
5月前
, 27F
06/04 18:58, 27F
→
06/04 18:58,
5月前
, 28F
06/04 18:58, 28F
推
06/04 19:06,
5月前
, 29F
06/04 19:06, 29F
推
06/04 19:06,
5月前
, 30F
06/04 19:06, 30F
推
06/04 19:32,
5月前
, 31F
06/04 19:32, 31F
推
06/04 19:42,
5月前
, 32F
06/04 19:42, 32F
推
06/04 19:47,
5月前
, 33F
06/04 19:47, 33F
推
06/04 19:59,
5月前
, 34F
06/04 19:59, 34F
→
06/04 20:04,
5月前
, 35F
06/04 20:04, 35F
推
06/04 20:16,
5月前
, 36F
06/04 20:16, 36F
→
06/04 20:16,
5月前
, 37F
06/04 20:16, 37F
推
06/04 20:18,
5月前
, 38F
06/04 20:18, 38F
還有 53 則推文
→
06/05 08:22,
5月前
, 92F
06/05 08:22, 92F
→
06/05 08:22,
5月前
, 93F
06/05 08:22, 93F
→
06/05 08:22,
5月前
, 94F
06/05 08:22, 94F
→
06/05 08:24,
5月前
, 95F
06/05 08:24, 95F
推
06/05 08:28,
5月前
, 96F
06/05 08:28, 96F
→
06/05 08:28,
5月前
, 97F
06/05 08:28, 97F
→
06/05 08:30,
5月前
, 98F
06/05 08:30, 98F
→
06/05 08:32,
5月前
, 99F
06/05 08:32, 99F
→
06/05 08:32,
5月前
, 100F
06/05 08:32, 100F
→
06/05 08:33,
5月前
, 101F
06/05 08:33, 101F
推
06/05 08:34,
5月前
, 102F
06/05 08:34, 102F
推
06/05 08:40,
5月前
, 103F
06/05 08:40, 103F
→
06/05 08:40,
5月前
, 104F
06/05 08:40, 104F
推
06/05 08:49,
5月前
, 105F
06/05 08:49, 105F
→
06/05 08:49,
5月前
, 106F
06/05 08:49, 106F
推
06/05 08:53,
5月前
, 107F
06/05 08:53, 107F
推
06/05 09:33,
5月前
, 108F
06/05 09:33, 108F
推
06/05 10:01,
5月前
, 109F
06/05 10:01, 109F
推
06/05 10:43,
5月前
, 110F
06/05 10:43, 110F
推
06/05 15:44,
5月前
, 111F
06/05 15:44, 111F
→
06/05 16:58,
5月前
, 112F
06/05 16:58, 112F
→
06/05 17:00,
5月前
, 113F
06/05 17:00, 113F
→
06/05 17:00,
5月前
, 114F
06/05 17:00, 114F
推
06/05 17:10,
5月前
, 115F
06/05 17:10, 115F
推
06/05 19:41,
5月前
, 116F
06/05 19:41, 116F
→
06/05 19:41,
5月前
, 117F
06/05 19:41, 117F
→
06/05 20:03,
5月前
, 118F
06/05 20:03, 118F
推
06/05 20:05,
5月前
, 119F
06/05 20:05, 119F
噓
06/05 21:39,
5月前
, 120F
06/05 21:39, 120F
推
06/06 07:17,
5月前
, 121F
06/06 07:17, 121F
→
06/06 07:19,
5月前
, 122F
06/06 07:19, 122F
推
06/06 07:53,
5月前
, 123F
06/06 07:53, 123F
推
06/06 13:06,
5月前
, 124F
06/06 13:06, 124F
推
06/06 16:00,
5月前
, 125F
06/06 16:00, 125F
推
06/06 22:34,
5月前
, 126F
06/06 22:34, 126F
推
06/07 07:11,
5月前
, 127F
06/07 07:11, 127F
推
06/07 08:05,
5月前
, 128F
06/07 08:05, 128F
噓
06/07 08:32,
5月前
, 129F
06/07 08:32, 129F
→
06/07 08:32,
5月前
, 130F
06/07 08:32, 130F
→
06/09 17:15,
5月前
, 131F
06/09 17:15, 131F
討論串 (同標題文章)
完整討論串 (本文為第 1 之 2 篇):
54
131
Tech_Job 近期熱門文章
PTT職涯區 即時熱門文章