看板
[ Stock ]
討論串[新聞] OpenAI:已掌握DeepSeek盜用模型證據
共 12 篇文章
內容預覽:
各位是不是忘了 中國人文化. 先說ㄛ 我沒深究 但我六年前影像的 我猜原理應該還是差不多. AI 發展幾十年 論文裡從沒看過 模型能只接把算力幹掉90%的. 偏偏中國人就可以,雖說中國人也發表過幾篇幾十萬引用的優秀模型. 但經典開源模型裡 通常會給出. pre-trained weights, ra
(還有439個字)
內容預覽:
我先講我非AI專業. 但這件事情基本就是鬼扯. 甚麼叫做利用O1蒸餾出R1. 你要用API抓多少資訊量跟TOKEN才做得出來. 然後這件事情OPENAI還會不知道?. 這是GPT回我的. 透過 API 硬訓練一個能夠與 GPT-4 相媲美的模型,基本上是不可能的,原因如下:. 1. 訓練大規模語言模
(還有2232個字)
內容預覽:
現在全網路上的開源數據資料是屬於pre-training端 大多都是野生數據 無標籤. 那東西只是讓模型去向鸚鵡一樣 去做文字接龍. 但第二階段訓練會用到RLHF (Reinforcement Learning from Human Feedback). 就是要人類針對不同數據給意見 這個是要給標籤
(還有1120個字)
內容預覽:
各家互相參考, 指的是訓練方法還有訓練的文本挑選, 蒸餾不太一樣. AI = 模型的程式碼+訓練. 能開源的部分只有程式碼, 訓練是看各自調教. 模型的能力夠, 差不多的調教方式就會得到差不多的結果. 訓練方法更好, 或是文本品質越高、越多樣、量越多, 模型就越強. 自從OpenAI爆紅以來, 大公
(還有953個字)
內容預覽:
比較好奇這段:. 儘管蒸餾是AI業界常見做法,但DeepSeek若利用蒸餾技術來打造自家模型,並與OpenAI競 爭,將違反OpenAI服務條款,因此產生疑慮。. OpenAI婉拒進一步說明或提供證據細節。根據該公司的服務條款,用戶不得「複製」任何OpenAI的服務,或是「利用輸出結果,來開發與Op
(還有176個字)