Re: [新聞] Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高

看板Stock (股票)作者 (人生無常)時間4小時前 (2025/02/01 21:12), 編輯推噓4(517)
留言13則, 8人參與, 3小時前最新討論串6/7 (看更多)
OpenAI又推出了最新的O3-mini跟O3-mini-high可以使用,原本的這個問題我又來問了一遍 ,想說也貼上來給大家品鑑一下O3-mini 究竟有沒有比Deepseek-R1強 ChatGPT-O3-mini https://i.imgur.com/QSFVbo4.jpeg
https://i.imgur.com/2sQSf9v.jpeg
---------- ChatGPT-O3-MINI-high https://i.imgur.com/WDnonEh.jpeg
https://i.imgur.com/YdfQ4Zg.jpeg
---------- 至於究竟是哪個寫得好,我覺得就留給看客吧,畢竟有人覺得R1好,有人覺得O1好,新的也 加進來比一比 ※ 引述 《iaminnocent (人生無常)》 之銘言: :   : 剛剛看FB,發現有個中國的作家對於Deepseek的作文水平感到驚訝,用了相同問題,以王 : 衛的電影風格去撰寫標題為人生何處不相逢的散文,來分別問CHATGPT-O1跟Deepseek-R1 : ChatGPT-O1: : https://i.imgur.com/T2jN9hZ.jpeg
:   : Deepseek-R1: : https://i.imgur.com/IitIbR0.jpeg
:   :   : 我是覺得Deepseek的回答好像有點純堆砌王家衛的電影名台詞的感覺,通篇王家衛感,但 : 不知道在說甚麼 : ChatGPT 在最後有點出散文標題,內容也比較有切合標題 :   : 這應該可以當作兩者的能力小比拼吧? : -------- : 補: : 我也有用4O用相同問題問過,我覺得寫得比O1跟R1還好 : https://i.imgur.com/7DN4Dz9.jpeg
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 125.228.63.38 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738415559.A.062.html

02/01 21:13, 4小時前 , 1F
但這幾個都是強在推理模型吧
02/01 21:13, 1F

02/01 21:22, 4小時前 , 2F
反正現在這些大頭不能慢慢擠牙膏割韭菜就是爽
02/01 21:22, 2F

02/01 21:22, 4小時前 , 3F
我還是覺得o1寫的風格比較像
02/01 21:22, 3F

02/01 21:27, 4小時前 , 4F
O3-mini 是取代原本的4O,他適合大部分問題,O3-mi
02/01 21:27, 4F

02/01 21:27, 4小時前 , 5F
ni-high 才是專注邏輯推理
02/01 21:27, 5F

02/01 21:35, 4小時前 , 6F
垃圾再怎麼改還是垃圾吧
02/01 21:35, 6F

02/01 21:35, 4小時前 , 7F
明明meta llama就開源的是要恐慌個小
02/01 21:35, 7F

02/01 21:36, 4小時前 , 8F
沒有吧 我看OPENAI網頁 O3mini還是寫給STEM用
02/01 21:36, 8F

02/01 21:37, 4小時前 , 9F
作文翻譯這些在O1推出時跟4o的對比是沒啥差
02/01 21:37, 9F

02/01 21:43, 4小時前 , 10F
如果又過了一年進步幅度不大,可能估值下修
02/01 21:43, 10F

02/01 21:44, 4小時前 , 11F
不過價格是便宜很多 他們應該下了很多功夫
02/01 21:44, 11F

02/01 21:44, 4小時前 , 12F

02/01 22:53, 3小時前 , 13F
反正最後就是比資料的品質 吃到垃圾吐出來還是垃圾
02/01 22:53, 13F
文章代碼(AID): #1ddXt71Y (Stock)
討論串 (同標題文章)
文章代碼(AID): #1ddXt71Y (Stock)