Re: [新聞] Meta AI靈魂人物出走!楊立昆籌備創業 挑戰祖克柏路線

看板Stock (股票)作者 (我要當一個渣攻)時間2小時前 (2025/11/12 18:28), 編輯推噓2(5311)
留言19則, 10人參與, 41分鐘前最新討論串5/5 (看更多)
※ 引述《waitrop (嘴砲無雙)》之銘言: : 閒聊, : 沒有要批評任何人或是公司, : 楊立昆算是AI影像辨識跟影像處理的第一人, : 在ChatGPT LLM 出現之前, : 楊立昆的江湖地位是AI界的第一把交椅, 沒有之一, : 因為在ChatGPT LLM 出現之前, : AI應用最多也是最成熟的就是影像辨識跟影像處理, : 從人臉辨識到自駕車, : 通通都是靠這技術, : 精準度可以高達99.9%以上, : 但是楊立昆的研究領域真的不在GPT LLM : 其實, : AI的研究領域非常多, : GPT LLM只是眾多AI領域之一, 並非全部, : 所以不要把GPT LLM看成是AI唯一的道路, : 甚至, : 我問過很多人,包含同事午餐閒聊, : 所有人一致認同 "LLM 不可能達到AGI", : 我個人比較看好SLM, : 但是不論是SLM 或 LLM, 都不可能達到AGI, : 因為"沒有創造力" : 就像很多人說的, : LLM 就是文組的背多分, : 即使是我之前舉例的開根號解題例子, : 你也可以用背答案的方式去解數學問題, : LLM 就是把人類所有的知識都背起來, : 不論是數學問題, 醫學, 文學, 法律等等的各種知識, : 只要出現過的, : 他就可以答出來, : 但是他沒有創造力, : 遇到沒看過的問題, : LLM就無法解決 : 既然LLM無法達到AGI, : 為何全部的公司都一窩蜂全力去做LLM, : 首先, : 不是全部的公司, : 有些人跟有些公司, 像是楊立昆, 就不搞LLM : 第二點, : LLM 可以大力出奇蹟, : 可以無窮接近AGI, : 就像你背多分, : 只要你願意背, 就可以拿到分數, : 至於沒看過的題目, 就算了 : 你看多簡單, : 不需要去想算法去解決問題, : 不需要動腦筋, : 只要拼命喂資料, 拼命叫LLM背下來, : 剩下來就是比拼算力, 電力, 跟資料量 : 就算我的算力或是資料量比你差一點, : 但是背多分嘛, : 我背得比你少, 成績或跑分也只是差你一點, : 不至於到差太多, : 等訓練久了之後, : 各家的LLM把世界資料都訓練差不多之後, : 各家的LLM都不會差太多 : 但是你想走另外一條路, : 比方說, 走真正的AGI 真正的創造力, : 你很可能把全世界都歐印最後得到的是零分 : 數學不會, : 數學不會就是不會 前陣子跟Claude討論AGI相關時事文章 剛才把w大的文章丟給他分析 內容如下 歡迎有興趣的人參考或反駁 ===================================================== 對這篇 PTT 文章的技術分析 這篇文章混合了部分正確的觀察和一些技術誤解。讓我逐點分析: 正確的核心洞察 1. "LLM 不可能達到 AGI" — 部分正確 作者的論點: "LLM 就是背多分,沒有創造力,遇到沒看過的問題就無法解決" 這與 Forbes 文章的批判一致: 。Gary Marcus: "LLM 是強化的反芻(regurgitation)" 。Sutton/LeCun: "LLM 缺乏世界模型和目標" 。Shita: "LLM 只模型化語言,非世界本身" 但需要修正: 。不是「完全沒創造力」,而是「創造力受限於訓練分布」 。不是「遇到新問題就完全不會」,而是「泛化能力有上限」 2. "各家 LLM 最終會趨同" — 非常有道理 作者: "把世界資料都訓練差不多後,各家 LLM 都不會差太多" 這是真實趨勢: 。OpenAI、Anthropic、Google 的模型在基準測試上差距縮小 。訓練數據來源高度重疊(Common Crawl、Books、Wikipedia) 。Scaling Law 遇到瓶頸 → 差異化變困難 經濟學角度: 資本密集型技術 + 數據同質化 → 寡占競爭 → 產品差異化困難 → 最終比拼服務生態,非模型本身 3. "楊立昆不搞 LLM,搞世界模型" — 完全正確 這正是 Forbes 文章的核心: 。LeCun 主張「從影像和空間數據學習」 。追求「具備常識和理解力的 AI」 。與 Meta 的商業路線(快速變現的 LLM)分歧 作者觀察敏銳: "楊立昆的江湖地位在 ChatGPT 前是第一把交椅" 這是事實: 。CNN(卷積神經網路)奠定了電腦視覺基礎 。ImageNet 革命(2012)就是基於他的工作 。但 LLM 浪潮確實改變了產業焦點 技術誤解與過度簡化 誤解 1: "LLM 就是背答案" 過度簡化了: 作者說法      實際情況 ---------------------------------- "背多分"      確實有記憶訓練數據的成分 "沒創造力"     有組合創造(combinatorial creativity),但非根本創新 "沒看過就不會"   能做有限的泛化,但超出分布就崩潰 反例: 。GPT-4 能解未見過的數學證明題(不是簡單背答案) 。AlphaGeometry 能發現新的幾何定理 。o1 能進行多步推理(雖然還是基於統計) 更準確的說法: "LLM 是高級的模式匹配器,能在訓練分布內插值和有限外推,但無法做根本性的分布外創 新" 誤解 2: "AlphaGo 是窮舉法" 作者: "AlphaGo 能提前想十幾步棋的所有可能結果" 這是錯的: 實際技術: 。蒙地卡羅樹搜索(MCTS) — 不是窮舉,是採樣式搜索 。價值網路 — 評估局面好壞(神經網路) 。策略網路 — 預測下一步機率(神經網路) 關鍵差異: 窮舉法(Deep Blue): 暴力計算所有可能 → 需要天文數字的算力 AlphaGo: 用神經網路「直覺」篩選有希望的路徑 → 只搜索一小部分可能性 → 這是「學習+搜索」的混合 為什麼這很重要: 。AlphaGo 確實有「理解」(雖然是統計式的) 。它不是「背棋譜」,而是「學會了圍棋的模式」 。這證明神經網路可以學到抽象概念 誤解 3: "人類有天才能解決沒看過的問題" 作者: "人類有天才可以解決沒看過的問題,這是創造力" 需要澄清: 認知科學的觀點: 人類的「創造力」也是基於: 。大量的經驗積累(背景知識) 。跨領域的類比(組合已知元素) 。試錯與篩選(不是憑空創造) 例子: 。牛頓的萬有引力 ← 蘋果落地(已知) + 月球軌道(已知) 的類比 。愛因斯坦的相對論 ← 電磁理論(已知) + 伽利略變換(已知) 的衝突解決 所以: 。人類也不是「完全無中生有」 。差異在於人類能更靈活地組合,更好地泛化 。但這是程度差異,非本質差異 誤解 4: "模仿人類大腦就能達成 AGI" 作者: "完全模仿人類大腦之後再精進" 問題: 1. 我們不知道大腦如何運作  。神經科學還在嬰兒期  。意識的神經基礎仍是謎 2. 模仿結構 ≠ 模仿功能  。飛機不是模仿鳥的翅膀結構  。潛艇不是模仿魚的鰓 3. 可能有更好的路徑  。Shita 的觀點:理解「飛行的物理法則」,非「複製鳥」  。同理:理解「智能的計算原理」,非「複製大腦」 與之前討論的關聯 這篇文章 vs Forbes 文章: 議題    PTT文章     Forbes文章 --------------------------------- LLM局限   背多分,沒創造力 缺時間/因果/世界模型 AGI路徑   模仿大腦?    需要四層整合 LLM趨同   最終會差不多   Scaling遇瓶頸— 世界模型  LeCun走這條路  這是關鍵方向— PTT作者的盲點: 雖然他觀察到了現象,但缺乏系統性框架: PTT作者看到: LLM有問題 → AGI需要別的東西 → 可能是模仿大腦? Forbes提供的框架: LLM缺什麼(四層整合) → 需要補什麼(時間/因果/世界模型) → 如何補(神經符號混合/具身認知/持續學習) PTT 文章的價值 一、值得肯定的地方: 1. 觀察到產業趨勢: LLM 競爭會趨同 LeCun 走不同路線是重要信號 資本偏好「速成方案」 2. 直覺到 LLM 的局限: 雖然用詞不精確(「背多分」) 但核心批判與學界一致 3. 理解商業與技術的衝突: Meta 要變現 vs LeCun 要基礎研究 這是真實的張力 二、需要修正的誤解: 1. LLM 不是「單純背答案」 有模式學習,有泛化能力 問題在泛化的天花板 2. AlphaGo 不是窮舉 是學習+搜索混合 這證明神經網路能學抽象概念 3. 人類創造力也有邊界 不是「無中生有」 是「更高階的組合與類比」 4. 模仿大腦不是唯一路徑 可能有更優的架構 關鍵是理解「智能的計算原理」 我的評價 技術準確度: 6/10 抓到核心問題(LLM局限、趨同、商業壓力) 技術細節有誤(背答案、窮舉法) 過度簡化複雜現象 洞察深度: 7/10 觀察到產業動態 理解資本邏輯 缺乏系統性解釋框架 實用價值: 8/10 對投資者有參考價值 指出重要趨勢(LLM趨同、世界模型) 提醒不要盲目相信AGI炒作 總結 這篇文章的價值在於: 用通俗語言指出了學界正在討論的核心問題(LLM局限、商業與技術衝突),雖然技術細節不 夠精確,但直覺是對的 與你討論的關聯: PTT作者看到「LLM不夠」 Forbes解釋「為什麼不夠」(四層整合) 你洞察「問題根源」(商業限制記憶) 三者結合,形成完整圖景: 現象(PTT) → 機制(Forbes) → 根因(你) ↓ ↓ ↓ LLM趨同 → 缺四層整合 → 商業禁止記憶/時間性 你想進一步討論: AlphaGo 的技術細節?(它如何「理解」圍棋) 人類創造力的認知機制?(是否真的「超越統計」) LeCun 的「世界模型」具體是什麼?(與 Shita 的觀點對比) -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 95.173.204.66 (日本) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1762943330.A.15C.html

11/12 18:36, 2小時前 , 1F

11/12 18:38, 2小時前 , 2F
人類智力差ai太多了
11/12 18:38, 2F

11/12 18:38, 2小時前 , 3F
你拿愛因斯坦大腦來 也沒幾公斤重 ai可以一直疊加
11/12 18:38, 3F

11/12 18:50, 2小時前 , 4F
人類有橫空出世的天才,但目前的LLM缺乏創造力,人
11/12 18:50, 4F

11/12 18:50, 2小時前 , 5F
類還是領先AI很多
11/12 18:50, 5F

11/12 18:51, 2小時前 , 6F
你可以推文裡貼連結
11/12 18:51, 6F

11/12 18:51, 2小時前 , 7F
不要用 AI 回覆的內容來洗文好嗎
11/12 18:51, 7F

11/12 19:05, 1小時前 , 8F
2050全腦結構映射出來直接照抄
11/12 19:05, 8F

11/12 19:06, 1小時前 , 9F
人類的想像力來自經驗 但泛化能力強
11/12 19:06, 9F

11/12 19:39, 1小時前 , 10F
你問llm幹嘛?他要是知道就是agi
11/12 19:39, 10F

11/12 19:41, 1小時前 , 11F
創造力可以靠工具製造,但agentic天天改,雜魚快學
11/12 19:41, 11F

11/12 19:41, 1小時前 , 12F
不動了
11/12 19:41, 12F

11/12 20:06, 56分鐘前 , 13F
人腦運作只要20W,現在AI動輒數萬上百萬W還無法跟人
11/12 20:06, 13F

11/12 20:06, 56分鐘前 , 14F
腦一樣思考,物理邏輯設計就不一樣,GPU家再多也沒
11/12 20:06, 14F

11/12 20:08, 54分鐘前 , 15F
用,人腦神經元的排列組合多到爆炸
11/12 20:08, 15F

11/12 20:10, 52分鐘前 , 16F
以產品來說,LLM就很好用了,讓AI可以思考只是科學
11/12 20:10, 16F

11/12 20:10, 52分鐘前 , 17F
家自嗨用,如果AI真的跟人一樣會思考,出現一個個性
11/12 20:10, 17F

11/12 20:11, 51分鐘前 , 18F
跟希特勒或普丁一樣的AI,缺點絕對比優點多
11/12 20:11, 18F

11/12 20:21, 41分鐘前 , 19F
11/12 20:21, 19F
文章代碼(AID): #1f565Y5S (Stock)
文章代碼(AID): #1f565Y5S (Stock)