Re: [討論] OpenAI GPT o1模型
看板Tech_Job (科技人)作者sxy67230 (charlesgg)時間1月前 (2024/09/19 09:00)推噓10(10推 0噓 12→)留言22則, 12人參與討論串5/5 (看更多)
阿肥外商碼農阿肥啦!
目前技術太多都說得太雲裡霧裡,但是截至目前為止針對o1其實OpenAI透露出來的技術細
節都不如過往得多,像之前GPT-4跟GPT-3.5過往還有完整的文件跟引用可以窺探,所以就
不做過份的臆測了。
以目前的一些文件上有提到的可以確定這次o1使用了CoT這絕對是一個Agent沒錯(跟過往
的單一模型不一樣),所以Response Time也會比過往再調用GPT-4o還要久。所謂的CoT本
質上就是一系列分解步驟,讓模型先分解問題再一步一步到最後結果,目前很多研究都發
現針對CoT再進行微調是有用的( https://arxiv.org/abs/2305.14045 ),所以這種對問
題
拆解迭代算是一種拉高對模型能力上限的方法。
然後目前RL for LLM有很多新的方法,像KTO這類方法將模型去比較兩兩對話的問題轉換
成一個BSO(二元訊號優化)的問題,研究就發現到相比傳統的RLHF甚至DPO,KTO的效果能
起到很好的Regularization(正規化)作用,對比DPO有時候還會過擬和、難以收束優化
不易訓練等問題,KTO可以讓收集數據更簡單(只要收集正負樣本)而且效果也不差。
另外就是GPT-2 guidance 的方法也算是這幾年比較重要的研究,當前包含谷歌 Deepmind
也發現通過不同種類的LLM不論大小其實也都有對主模型起到類蒸餾的效果,結果也是會
比你單做SFT或RLFH還要好,不過如果是同一個模型重複迭代就有很高的機會發生Model C
ollapse 的問題,這可以從統計學上做很好的解釋,詳細有興趣的就自己去看Paper。
以當前來說,我不太認為o1對業界有掀起很高的技術壁壘,反而從這次OpenAI一反常態的
保守有可能推測僅是對現有技術的組合拳。這有可能顯示單一LLM模型這樣訓練下逼近上
限的事實(每家模型大廠可能最後表現都不會差異到哪裡去)。
以上
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.216.223.33 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1726707601.A.130.html
※ 編輯: sxy67230 (49.216.223.33 臺灣), 09/19/2024 09:01:57
推
09/19 09:16,
1月前
, 1F
09/19 09:16, 1F
當前還有很多商業應用還可以探索,不至於泡沫就是了,而且很多商業應用是有既定模式
的,所以去討論AGI有沒有意義就多了。
※ 編輯: sxy67230 (49.216.223.33 臺灣), 09/19/2024 09:22:39
推
09/19 09:25,
1月前
, 2F
09/19 09:25, 2F
推
09/19 10:03,
1月前
, 3F
09/19 10:03, 3F
→
09/19 10:04,
1月前
, 4F
09/19 10:04, 4F
→
09/19 10:11,
1月前
, 5F
09/19 10:11, 5F
→
09/19 10:36,
1月前
, 6F
09/19 10:36, 6F
推
09/19 13:10,
1月前
, 7F
09/19 13:10, 7F
→
09/19 13:11,
1月前
, 8F
09/19 13:11, 8F
推
09/19 13:47,
1月前
, 9F
09/19 13:47, 9F
推
09/19 14:24,
1月前
, 10F
09/19 14:24, 10F
→
09/19 14:24,
1月前
, 11F
09/19 14:24, 11F
→
09/19 14:24,
1月前
, 12F
09/19 14:24, 12F
→
09/19 14:24,
1月前
, 13F
09/19 14:24, 13F
剛剛下班才看到,這邊的CoT跟你網路上看到的CoT差異很大喔!傳統上下step by step那
個是prompt engineer沒錯,但這次o1的CoT是類似於隱式設計進去先讓模型生成多個取樣
步驟再像鏈一樣一步一步思考,這也是為什麼當前很多示範都顯示出他很慢,也是我為什
麼會說這次的模型絕對是一個Agent而非傳統意義上的LLM。單一模型存在上限主要也是從
這次OpenAI沒有釋出GPT系列以及其他廠家的技術報告推論出來單一LLM逼近上限的事實,
主要可能原因還是在於高品質數據本身就存在上限,要再提升就要靠類蒸餾(Boostrap)
等方法。至於技術壁壘我認為還是不存在的,畢竟這個谷歌Deepmind大廠其實早在年初也
有類似的技術發表出來了,所以我才會說以OpenAI這次反常到不透露細節的作法,很可能
是怕被競品出現。
推
09/19 15:51,
1月前
, 14F
09/19 15:51, 14F
※ 編輯: sxy67230 (1.162.76.16 臺灣), 09/19/2024 20:00:48
推
09/19 22:49,
1月前
, 15F
09/19 22:49, 15F
推
09/20 12:09,
1月前
, 16F
09/20 12:09, 16F
→
09/20 12:09,
1月前
, 17F
09/20 12:09, 17F
推
09/20 15:53,
1月前
, 18F
09/20 15:53, 18F
→
09/20 15:54,
1月前
, 19F
09/20 15:54, 19F
→
09/20 15:54,
1月前
, 20F
09/20 15:54, 20F
→
09/20 15:54,
1月前
, 21F
09/20 15:54, 21F
→
09/20 15:55,
1月前
, 22F
09/20 15:55, 22F
討論串 (同標題文章)
Tech_Job 近期熱門文章
32
65
PTT職涯區 即時熱門文章