看板 [ Stock ]
討論串[新聞] OpenAI:已掌握DeepSeek盜用模型證據
共 12 篇文章

推噓32(33推 1噓 44→)留言78則,0人參與, 5月前最新作者iecju520 (台中李鐘碩)時間5月前 (2025/01/30 02:44), 5月前編輯資訊
0
1
0
內容預覽:
各位是不是忘了 中國人文化. 先說ㄛ 我沒深究 但我六年前影像的 我猜原理應該還是差不多. AI 發展幾十年 論文裡從沒看過 模型能只接把算力幹掉90%的. 偏偏中國人就可以,雖說中國人也發表過幾篇幾十萬引用的優秀模型. 但經典開源模型裡 通常會給出. pre-trained weights, ra
(還有439個字)

推噓0(3推 3噓 13→)留言19則,0人參與, 5月前最新作者dreambreaken (小滅滅)時間5月前 (2025/01/30 01:49), 5月前編輯資訊
0
1
4
內容預覽:
我先講我非AI專業. 但這件事情基本就是鬼扯. 甚麼叫做利用O1蒸餾出R1. 你要用API抓多少資訊量跟TOKEN才做得出來. 然後這件事情OPENAI還會不知道?. 這是GPT回我的. 透過 API 硬訓練一個能夠與 GPT-4 相媲美的模型,基本上是不可能的,原因如下:. 1. 訓練大規模語言模
(還有2232個字)

推噓16(17推 1噓 29→)留言47則,0人參與, 5月前最新作者LDPC (Channel Coding)時間5月前 (2025/01/30 01:19), 5月前編輯資訊
0
1
4
內容預覽:
現在全網路上的開源數據資料是屬於pre-training端 大多都是野生數據 無標籤. 那東西只是讓模型去向鸚鵡一樣 去做文字接龍. 但第二階段訓練會用到RLHF (Reinforcement Learning from Human Feedback). 就是要人類針對不同數據給意見 這個是要給標籤
(還有1120個字)

推噓23(29推 6噓 116→)留言151則,0人參與, 5月前最新作者IBIZA (溫一壺月光作酒)時間5月前 (2025/01/29 23:20), 5月前編輯資訊
0
1
0
內容預覽:
各家互相參考, 指的是訓練方法還有訓練的文本挑選, 蒸餾不太一樣. AI = 模型的程式碼+訓練. 能開源的部分只有程式碼, 訓練是看各自調教. 模型的能力夠, 差不多的調教方式就會得到差不多的結果. 訓練方法更好, 或是文本品質越高、越多樣、量越多, 模型就越強. 自從OpenAI爆紅以來, 大公
(還有953個字)

推噓44(57推 13噓 80→)留言150則,0人參與, 5月前最新作者mangle (mangle123)時間5月前 (2025/01/29 22:38), 編輯資訊
0
0
1
內容預覽:
比較好奇這段:. 儘管蒸餾是AI業界常見做法,但DeepSeek若利用蒸餾技術來打造自家模型,並與OpenAI競 爭,將違反OpenAI服務條款,因此產生疑慮。. OpenAI婉拒進一步說明或提供證據細節。根據該公司的服務條款,用戶不得「複製」任何OpenAI的服務,或是「利用輸出結果,來開發與Op
(還有176個字)