[新聞] 為何大語言模型是死胡同
為何大語言模型是死胡同
------------------------------------------------
9月27日,2024年圖靈獎得主Richard Sutton教授接受海外播客主持人
Dwarkesh Patel的深度訪談。
訪談影片:
https://youtu.be/21EYKqUsPfg?si=KiU-QldhIDecQ_Bl
文章來源: https://hao.cnyes.com/post/197594
<鉅亨號> 作者: RexAA
本次對話始於一個問題:當前最熱的大語言模型(LLM)究竟是通往AGI的大道,
還是最終會走進死胡同?Sutton教授從強化學習的“第一性原理”出發,系
統地闡述了為何他認為LLM範式缺少了智能最本質的幾個要素。
Sutton教授指出,LLM本質上只是在“模仿”擁有世界模型的人類,
其本身並不具備一個能預測客觀世界、並因“意外”而學習的真實
世界模型。它預測的是“下一個詞”,而非“下一件事”。
針對行業普遍認為“先用LLM模仿學習獲得基礎,再用強化學習微調”
的路線,Sutton指出,在一個沒有客觀“對錯”標準(即獎勵訊號)的
框架裡,知識和先驗無從談起。他認為,LLM試圖繞過“擁有目標”和
“區分好壞”這兩點,是從一開始就走錯了方向。
針對“人類主要通過模仿學習”的普遍看法,
Sutton教授認為無論是動物還是嬰兒,其學習的核心
都是基於試錯和預測的“經驗範式”,模仿學習只是後期附加的
一小部分。因此,將AI的學習建立在模仿人類資料的范子上,
是對智能本質的誤解。
在談及AI的未來時,Sutton教授提出,在未來數字智能可以
無限複製和融合知識的時代,如何保證一個智能體在吸收外部
知識時不被“腐化”或“覆蓋”,將成為一個關乎“心智安全”
的重大挑戰。
-----------------------
心得
感覺癥結點在於:
DL或AIGC 他們的資料學習來自人類
無法透過自身的經驗去改進自己
也就是 "人類認為是甚麼 就是甚麼"
的模式去運作
這樣算不算AI還有待討論
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.44.42.10 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1759405717.A.AC7.html
推
10/02 19:53,
2小時前
, 1F
10/02 19:53, 1F
→
10/02 19:53,
2小時前
, 2F
10/02 19:53, 2F
→
10/02 19:53,
2小時前
, 3F
10/02 19:53, 3F
推
10/02 20:13,
1小時前
, 4F
10/02 20:13, 4F
推
10/02 20:46,
1小時前
, 5F
10/02 20:46, 5F
推
10/02 20:56,
1小時前
, 6F
10/02 20:56, 6F
→
10/02 20:56,
1小時前
, 7F
10/02 20:56, 7F
推
10/02 21:02,
1小時前
, 8F
10/02 21:02, 8F
→
10/02 21:02,
1小時前
, 9F
10/02 21:02, 9F
推
10/02 21:18,
52分鐘前
, 10F
10/02 21:18, 10F
→
10/02 21:18,
52分鐘前
, 11F
10/02 21:18, 11F
→
10/02 21:19,
51分鐘前
, 12F
10/02 21:19, 12F
→
10/02 21:19,
51分鐘前
, 13F
10/02 21:19, 13F
→
10/02 21:19,
51分鐘前
, 14F
10/02 21:19, 14F
→
10/02 21:19,
51分鐘前
, 15F
10/02 21:19, 15F
→
10/02 21:23,
47分鐘前
, 16F
10/02 21:23, 16F
→
10/02 21:25,
45分鐘前
, 17F
10/02 21:25, 17F
→
10/02 21:25,
45分鐘前
, 18F
10/02 21:25, 18F
→
10/02 21:25,
45分鐘前
, 19F
10/02 21:25, 19F
討論串 (同標題文章)
完整討論串 (本文為第 1 之 2 篇):
6
19
Tech_Job 近期熱門文章
PTT職涯區 即時熱門文章