討論串[新聞]不,你無法用 600 萬美元複製一個 DeepSeek R1
共 3 篇文章
首頁
上一頁
1
下一頁
尾頁

推噓15(20推 5噓 36→)留言61則,0人參與, 19小時前最新作者pl132 (pl132)時間1天前 (2025/01/29 10:58), 編輯資訊
0
0
2
內容預覽:
不,你無法用 600 萬美元複製一個 DeepSeek R1. https://technews.tw/2025/01/28/you-cannot-copy-deepseekr1-with-6m/. 中國 AI 新創企業 DeepSeek 最新發布的 R1 模型震驚美國股市,關鍵在於其相對低廉的訓練
(還有1380個字)

推噓7(8推 1噓 25→)留言34則,0人參與, 1天前最新作者sxy67230 (charlesgg)時間1天前 (2025/01/29 15:33), 1天前編輯資訊
0
0
0
內容預覽:
呃,這新聞是哪個平行時空新聞,當前一堆美國大學實驗室都已經成功用其他小型模型像llama或Qwen 復刻R1實驗了,而且也事實證明模型只要有辦法再訓練的時候盡可能要求模型更長更多輪的思考時間那就必然會讓模型依據上下文湧現出推理能力。無論模型大小或是否用deepseek的模型架構。. 一堆知名的框架也
(還有1155個字)

推噓7(10推 3噓 28→)留言41則,0人參與, 11小時前最新作者KanzakiHAria (神崎・H・アリア)時間1天前 (2025/01/29 16:52), 11小時前編輯資訊
0
1
0
內容預覽:
建議先去看LATS 比較好理解什麼叫方法論. 簡單說R1是一套"如何讓LLM可以做深度思考"的方法論. 原本要讓LLM做深度思考 之前的做法一律都是COT. 比如把每次LLM的輸入輸出當作一個節點. 把多個節點做評分 最終選擇整條鏈評分最高的項目 即MCTS概念. 這就像是alphago那樣 每次棋
(還有1155個字)
首頁
上一頁
1
下一頁
尾頁