Re: [心得] 蘋果揭露人工智能並不思考

看板Stock (股票)作者 (達克鴨)時間8小時前 (2025/06/16 13:16), 6小時前編輯推噓11(11018)
留言29則, 15人參與, 3小時前最新討論串13/14 (看更多)
首先啦,在公眾對於AI發展的看法,有個很有趣的現象。 就是只要AI會做了某件任務,就會直接說,這不需要"思考"。 譬如AI在二十幾年前打敗西洋棋棋王,後來華生也打敗益智節目的人類冠軍。 人們直覺反應就是這不是思考啦,西洋棋就是暴力算棋譜,益智節目背題庫就好啦。 到了十年前還有人認為AI永遠不可能擊敗人類棋王,因為圍棋不是硬靠算力可以暴力解的。 還需要人的模式辨認與推理能力,而AI不會。 結果嘛,現在變成幾乎每個棋手都要靠AI訓練,還要尊稱AI為老師。 到現在LLM文字接龍因為量變產生質變,開始湧現出各種當初想不到的能力。 譬如翻譯、寫故事、甚至是更高階看起來需要推理的寫程式、在各種限制下規劃行程。 那現在的AI真可以直接說他不會思考thinking嗎? 心理學家把人類的thinking歸類為兩大系統(快思慢想) 系統一(快思): 不需要意識控制,常靠經驗與啟發法(heuristics), 例如九九乘法表的乘法計算、開車時的習慣反應。 通常都是直覺、快速、自動化的"快思"任務。 系統二(慢想): 需要意識控制,用來做邏輯推理、計算、分析與抉擇, 例如解數學方程式或做財務規劃。 通常是需要邏輯、緩慢、且偏代理型的"慢想"任務。 目前LLM這系列的AI湧現出來的能力大都是系統一的快思任務,所以AI當然會thinking。 配合了一些CoT等後訓練技術甚至可以湧現出一些些系統二慢想的任務。 但我猜還是有極限啦,像是要有意識的知道自己搞錯了就需要系統二的能力。 因此LLM常常被人認為是一本正經的胡說八道。 又或者一些代理agent任務,就極需要系統二的規劃能力, 現在的LLM就算使用推理模式,也會因為token預算不足而無法長時間執行。 像是蘋果這篇論文反而展示了LLM會思考的一面,他有許多問題都過於困難。 思考token預算不足,當然就直接放棄,但這不代表AI不會thinking。 只是AI目前的確很難處理非常大的問題,需要新的思考預算控制模式。 這也就是現在AI領域積極想要突破的agent領域。 Apple Intelligence之前Siri就已經很多agent類型任務的展示,也難怪一直生不出來。 連最近推出的通用型agent Manus都做不好了,慢人百步以上的Apple怎麼弄得好? 像是Meta的YanneCun就一直認為現在的LLM是弄不出AGI的,而是需要導入新的世界模型。 假如真的要能讓AI長期執行agent類型等系統二慢想任務,以及機器人能夠長期自主運作。 那這些AI的內心必須錨定一個世界模型,知道自己在這個世界中的狀態與定位。 才能夠調和自己的任務需求與外部的總總限制,而不是卡在死胡同裡。 而且能夠整合自己的工具與感官不斷地調整權重去做學習。 這些都是目前AI都還很欠缺的。若無法突破就很難達成人類等級的AGI。 而這方面能突破,那真的就可以期待AI能直接"取代"人力,達到新的工業革命。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 122.121.186.56 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1750051006.A.5BB.html ※ 編輯: DarkerDuck (122.121.186.56 臺灣), 06/16/2025 13:18:07 ※ 編輯: DarkerDuck (122.121.186.56 臺灣), 06/16/2025 13:19:50

06/16 13:18, 8小時前 , 1F
台肯
06/16 13:18, 1F

06/16 13:21, 8小時前 , 2F
圖靈是神的地方在圖靈測試,不跟你廢話五四三的!
06/16 13:21, 2F

06/16 13:22, 8小時前 , 3F
實際上lecun一直在吹的世界模型很多人也在搞 目前
06/16 13:22, 3F

06/16 13:22, 8小時前 , 4F
李飛飛的公司和Google 的demo我覺得不錯 倒是lecun
06/16 13:22, 4F

06/16 13:22, 8小時前 , 5F
自己的V-JEPA2 沒啥驚艷
06/16 13:22, 5F

06/16 13:23, 8小時前 , 6F
我們要先定義思考?? 耍嘴皮
06/16 13:23, 6F

06/16 13:26, 7小時前 , 7F
當然要先定義思考,這很重要的
06/16 13:26, 7F

06/16 13:31, 7小時前 , 8F
但現在AI確實很容易鬼打牆+唬爛 講了也不聽
06/16 13:31, 8F

06/16 13:33, 7小時前 , 9F
因為糾錯與重新規劃算是系統二的能力
06/16 13:33, 9F

06/16 13:33, 7小時前 , 10F
我用AI寫程式也是一樣,debug非常困難
06/16 13:33, 10F
※ 編輯: DarkerDuck (122.121.186.56 臺灣), 06/16/2025 13:42:00

06/16 13:45, 7小時前 , 11F
其實普通人的思考 也比不上LLM系統的直出回答...
06/16 13:45, 11F

06/16 13:45, 7小時前 , 12F
想不到這個非常小的題目 竟然可以討論這麼多篇...
06/16 13:45, 12F

06/16 13:46, 7小時前 , 13F
是啊,所以我覺得讓外星人來評估思考能力
06/16 13:46, 13F

06/16 13:47, 7小時前 , 14F
大部分的人類群體會被歸類成不會思考的....
06/16 13:47, 14F

06/16 13:47, 7小時前 , 15F
像是幣圈就被玩成蠢幣進化論,真是笑死外星人
06/16 13:47, 15F
※ 編輯: DarkerDuck (122.121.186.56 臺灣), 06/16/2025 13:47:58

06/16 13:48, 7小時前 , 16F
你說的其實就是我一直以來對這件事情的認知
06/16 13:48, 16F

06/16 13:49, 7小時前 , 17F
的確就是快思慢想的概念
06/16 13:49, 17F

06/16 13:49, 7小時前 , 18F
快思慢想我熟 一個靠老公亂翻的
06/16 13:49, 18F

06/16 13:55, 7小時前 , 19F
你用啥寫啊 我用sonnet 配cursor debug 蠻強的
06/16 13:55, 19F

06/16 13:56, 7小時前 , 20F
我現在已經不能沒有他們
06/16 13:56, 20F

06/16 13:58, 7小時前 , 21F
靠老公接案 靠學生亂翻 就唬蘭啊
06/16 13:58, 21F

06/16 14:00, 7小時前 , 22F
現在除非公司規定,不然應該沒有程式設計師不用AI了
06/16 14:00, 22F

06/16 14:01, 7小時前 , 23F
先定義人類思考是什麼
06/16 14:01, 23F

06/16 14:03, 7小時前 , 24F
一些執行期才會發生的非重現bug還是要自己trace就是
06/16 14:03, 24F

06/16 14:04, 7小時前 , 25F
還有那種元件耦合性錯誤,AI也很難跨那麼遠去抓
06/16 14:04, 25F

06/16 14:05, 7小時前 , 26F
新或再優化的AI模型 肯定很多研究者投入
06/16 14:05, 26F
※ 編輯: DarkerDuck (122.121.186.56 臺灣), 06/16/2025 14:37:30 ※ 編輯: DarkerDuck (122.121.186.56 臺灣), 06/16/2025 14:44:42

06/16 15:06, 6小時前 , 27F
當初Manus不是炒超大的 帳號能賣好價錢 結果ㄏㄏ喔?
06/16 15:06, 27F

06/16 15:06, 6小時前 , 28F
是的如haha98所言,其他路線也有人在研究了。
06/16 15:06, 28F

06/16 17:45, 3小時前 , 29F
我們需要重新定義蘋果AI的思考
06/16 17:45, 29F
文章代碼(AID): #1eJwY-Mx (Stock)
討論串 (同標題文章)
文章代碼(AID): #1eJwY-Mx (Stock)