Re: [心得] 蘋果揭露人工智能並不思考

看板Stock (股票)作者 (喵)時間3周前 (2025/06/16 02:04), 編輯推噓59(634132)
留言199則, 62人參與, 3周前最新討論串3/14 (看更多)
大語言模型(LLM)它的原始目的是要「模仿人類回答出人類看得懂的答案。」 但跟人類的語言不同,你我使用的與言語表達會是一系列的文字規則, 例如「主詞,動詞,受詞」的SVO結構。 但模型本身並不是這樣學習的,它是把你看到的字,拆成詞素(token) 然後將這些詞向量化,變成一系列數列: king → [0.8, 0.1, 0.3, 0.7] queen → [0.9, 0.1, 0.5, 0.9] man → [0.9, 0.0, 0.3, 0.6] woman → [0.8, 0.0, 0.5, 0.8] 這個數列可以很長,例如有必要的話,可以到有300多個。然後模型可以找到特徵。 這個特徵用人類可以理解例子,就姑且濃縮成一個角度,便為說明就簡化成: king=右上 man=右上 queen=左上 woman=左上 那麼就算是你,也可以找到king跟man都是右上,故似乎有關連性。 而king跟queen角度不同,所以這兩個不是同樣的東西。 再把朕、殿下、皇帝、國王,排在一起。 只要資訊夠多,理論上是可以讓模型自己圈出有向量角度相近的集合。 我們可以再增加這個字出現在字首、字尾、中間第幾個字的頻率作為變數。 那麼就可以算出這個字出現在哪裡的特徵比較大。 這時我們回到剛剛的SVO結構,模型就可以在不懂中文,但憑統計出的特徵, 可以拼湊出一個你可以看懂的中文回答。 然而這並不是人類的理解與語意判定,以及衍伸的推理。 所以它就會造就出「中文房間」的錯覺,例如假設一個外國人被關在房間。 但他有一本教戰手則,上面說明了那些字出現了,可以給出哪些答案。 那他就算不懂中文,在手冊的指引上也可以回答定型文。 大語言模型也是同樣的概念,它是基於大量的資料來找出「特徵」, 而這些特徵的組合在在它的神經網絡會給予特定的權重,最後形成類似"手冊" 的東西,然後依照手冊找到近似值的解答,生成給你看。 但它不見得是理解回答是否有意義,所以才會出現錯誤。 比如說很常見的,現在threads被一堆詐騙仔用AI生成圖片, 例如啥我是護理師給我一個讚好嗎?但裡面的圖片會出現一些錯誤, 例如敘述自己是75年出生,但生成的身分證是57年出生。 或者有生成名字了,但它的字型大小很明顯不一致。 然而對於模型來說,它不會知道"怎麼樣才是對的格式",而它只是針對 中華民國身分證大概是長怎樣,而隨機生成一個結果。 故單純直接產出,就免不了會有以上的問題。 GPT4-O3它是說有多一個推理功能。然而它的底層還是大語言模型(LLM) 加上它的數據處理是弄成很長串的多維資料,你人類也看不懂, 所以你還是不會知道,它的推理過程,是不是也是模仿生成人類看得懂的邏輯。 但這個算法是否正確與必要,不見得正確。 這個問題在你處理只有你會面對的數學問題就有機會發生。 例如假設你要模型生成一個模型由0至指定最大值,與指定最小值機率遞減, 而機率遞減的分配公式,正常我們人類就是設一個權重來分配。 但我問過O3它就很奇葩,它想用自然常數來分配,然後算式會出現錯誤。 其他你看過的就是GPT跟deepseek下西洋棋,結果deepseek憑空出現棋子, 或者無視規則走奇怪的動作。這些都說明了語言模型並不是真的了解規則, 而只是像兩隻猴子看人類下棋,而模仿人類玩西洋棋。 由於這不是你熟知的建立規則(base rule),所以在面對複雜的隨機模擬。 它可能做出錯誤的資訊,而你沒有發現錯誤的話,它就會繼續引用上下文 而給出錯誤的結論,但你看起來覺得是對的。 比如說你不會選擇權,但你想要模型直接生成一個賣方與調整策略。 而模型基於call有正的delta,而錯誤認為sell call也有正dela, 那它就會繼續基於錯誤資訊引用,而得出: 當標的價格趨近於SC履約價,整體delta會變正而且增加,故需要買put調整的規則。 當然對我來說我可以看出哪裡有問題,但對於沒有理解的人來說, 那他就不會發現這個推理與建立規則錯誤,就會導致利用而產生虧損。 而這我認為基於大語言模型的訓練方式,本質上是無解。 你只能靠自己判斷模型的回答是否邏輯正確。而不是期望模型像神燈精靈, 你不用會你也可以產出一個東西跟專業的人競爭。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 192.253.210.90 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1750010675.A.954.html

06/16 02:09, 3周前 , 1F
人類的建立規則是靠五感的回饋機制不斷修正而來,但
06/16 02:09, 1F

06/16 02:09, 3周前 , 2F
LLM只能靠文字
06/16 02:09, 2F

06/16 02:12, 3周前 , 3F
目前AI只負責生成,不負責對錯
06/16 02:12, 3F

06/16 02:15, 3周前 , 4F
LLM 講白 只是接受很多數據 然後連連看 哪個規律最
06/16 02:15, 4F

06/16 02:15, 3周前 , 5F
高 最匹配就用哪個 不是真正 thinking 根本不是AG
06/16 02:15, 5F

06/16 02:15, 3周前 , 6F
I的方向 一旦碰到的東西沒這數據 就當機了 沒有學
06/16 02:15, 6F

06/16 02:15, 3周前 , 7F
習及糾錯能力 跟人腦差距還是太大
06/16 02:15, 7F

06/16 02:24, 3周前 , 8F
我比較認同Ilya的看法 目前的LLM甚至 MLLM只是一種
06/16 02:24, 8F

06/16 02:25, 3周前 , 9F
基於語意的壓縮世界模型 離真正的世界模型還差的遠
06/16 02:25, 9F

06/16 03:09, 3周前 , 10F
目前的模型,等老黃賣到G2兆時看能不能突破
06/16 03:09, 10F

06/16 03:20, 3周前 , 11F
alphago下棋就沒這種問題
06/16 03:20, 11F

06/16 03:46, 3周前 , 12F
生成式AI就大騙局,非人類進步方向
06/16 03:46, 12F

06/16 03:55, 3周前 , 13F
生成式AI的概念可能只是人類思考的一部分而已
06/16 03:55, 13F

06/16 04:55, 3周前 , 14F
講的好像別人跟你說一句話 你是先拆成主詞 受詞...
06/16 04:55, 14F

06/16 04:55, 3周前 , 15F
再去理解分析的
06/16 04:55, 15F

06/16 05:21, 3周前 , 16F
其實大量的迴歸與收斂,最後答案都會越來越正確,
06/16 05:21, 16F

06/16 05:21, 3周前 , 17F
只是在於有沒有人校正什麼是錯誤什麼是正確。AI本
06/16 05:21, 17F

06/16 05:21, 3周前 , 18F
來就不應該完全與人類相同的思考模式發展,否則就
06/16 05:21, 18F

06/16 05:21, 3周前 , 19F
不可控了。讓AI限縮在LLM的極致與正確性,或許對人
06/16 05:21, 19F

06/16 05:21, 3周前 , 20F
類是一種安全的選擇。
06/16 05:21, 20F

06/16 06:04, 3周前 , 21F
短時間內LLM還是要依賴Scale AI這類公司做資料清洗
06/16 06:04, 21F

06/16 06:04, 3周前 , 22F
、修正跟媒合血汗打工仔幫忙打標籤 沒有工人智慧就
06/16 06:04, 22F

06/16 06:04, 3周前 , 23F
沒有你現在看到的人工智慧
06/16 06:04, 23F

06/16 06:08, 3周前 , 24F
目前人們要的就是想要一個酷東西 他們才不會在乎後
06/16 06:08, 24F

06/16 06:08, 3周前 , 25F
面到底是統計模型 還是真的會推理 包括整個行業可
06/16 06:08, 25F

06/16 06:08, 3周前 , 26F
能也不想戳這個東西的真相
06/16 06:08, 26F

06/16 06:15, 3周前 , 27F
蘋果的論文可惜的是他發表的時間讓他們很尷尬 只有
06/16 06:15, 27F

06/16 06:15, 3周前 , 28F
被討罵的份而已
06/16 06:15, 28F

06/16 06:18, 3周前 , 29F
現在的Ai被包裝的很好 會有讓用戶認為他們是全能的
06/16 06:18, 29F

06/16 06:18, 3周前 , 30F
但可能要小心其實會錯大 包括整理資料跟分析講結
06/16 06:18, 30F

06/16 06:18, 3周前 , 31F
06/16 06:18, 31F

06/16 06:20, 3周前 , 32F
用戶事後都要去驗證 但新的問題又來了 當你習慣什
06/16 06:20, 32F

06/16 06:20, 3周前 , 33F
麼東西的丟給這樣的模型去幫你做整理 你要核實數字
06/16 06:20, 33F

06/16 06:20, 3周前 , 34F
的難度就會變高
06/16 06:20, 34F

06/16 06:21, 3周前 , 35F
因為藉由Ai你獲得了一個極佳的槓桿 你甚至可以一次
06/16 06:21, 35F

06/16 06:21, 3周前 , 36F
做的工作量變得以往多好幾倍
06/16 06:21, 36F

06/16 06:23, 3周前 , 37F
但也丟出很大的工作量給Ai 你無法有限的時間核實A
06/16 06:23, 37F

06/16 06:23, 3周前 , 38F
i給你說的數據是否正確 最後你會鬼遮眼選擇忽略會
06/16 06:23, 38F

06/16 06:23, 3周前 , 39F
發生這個問題的事實
06/16 06:23, 39F
還有 120 則推文
06/16 13:03, 3周前 , 160F
寫程式碼這件事只能說更離譜 因為特性的關係 程式
06/16 13:03, 160F

06/16 13:03, 3周前 , 161F
碼都是掰的(LLM特性)
06/16 13:03, 161F

06/16 13:04, 3周前 , 162F
就好比你在stackoverflow發起一個問題 結果回答你
06/16 13:04, 162F

06/16 13:04, 3周前 , 163F
的人 解決方案都是想像出來的 他也跑過
06/16 13:04, 163F

06/16 13:08, 3周前 , 164F
也沒跑過 (這個部分大概要解決 只能要讓ai想程式
06/16 13:08, 164F

06/16 13:08, 3周前 , 165F
碼的時候 要同步出你的環境條件 藉由不間斷的試錯
06/16 13:08, 165F

06/16 13:08, 3周前 , 166F
他可能才勉強真的驗證過回答是正確的
06/16 13:08, 166F

06/16 13:09, 3周前 , 167F
但實現上困難 簡單環境可以 複雜一點他的運算資源
06/16 13:09, 167F

06/16 13:09, 3周前 , 168F
會反向被濫用或DDoS別人
06/16 13:09, 168F

06/16 13:09, 3周前 , 169F
人思考過程也是一樣啊,根據學習經歷去找出能解決
06/16 13:09, 169F

06/16 13:09, 3周前 , 170F
問題的方法,只是目前模型沒這麼全能
06/16 13:09, 170F

06/16 13:11, 3周前 , 171F
目前LLM是能解決某些問題 但是他的一開始的架構就
06/16 13:11, 171F

06/16 13:11, 3周前 , 172F
已經決定他的極限在哪
06/16 13:11, 172F

06/16 13:11, 3周前 , 173F
人類學習過程會試錯 得到經驗
06/16 13:11, 173F

06/16 13:12, 3周前 , 174F
LLM是抄題仔 他的答案是沒有被驗證過的
06/16 13:12, 174F

06/16 13:12, 3周前 , 175F
模型學習本質就是試錯得到經驗,也一樣
06/16 13:12, 175F

06/16 13:13, 3周前 , 176F
另外模型訓練過程,資料會分成驗證組,不是沒驗證
06/16 13:13, 176F

06/16 13:13, 3周前 , 177F
如果他要為他的答案負責 大多數你大概會寧可關掉視
06/16 13:13, 177F

06/16 13:13, 3周前 , 178F
窗 因為非常慢 運氣好他陷入幻覺你要的答案根本你
06/16 13:13, 178F

06/16 13:13, 3周前 , 179F
等不到
06/16 13:13, 179F

06/16 13:14, 3周前 , 180F
為什麼Scale Ai這間公司很重要 因為數據來源跟有沒
06/16 13:14, 180F

06/16 13:14, 3周前 , 181F
有做好整理就大多決定了模型的能力
06/16 13:14, 181F

06/16 13:16, 3周前 , 182F
我認為現在研究團隊應該就是趁這個時間在熱度的高
06/16 13:16, 182F

06/16 13:16, 3周前 , 183F
峰 拿到投資人的錢看能不能解決LLM的真實痛點
06/16 13:16, 183F

06/16 13:16, 3周前 , 184F
人也是一樣啊,唸了國文課本但去考數學一樣爆炸XD
06/16 13:16, 184F

06/16 13:17, 3周前 , 185F
在這之前大家都會盡可能拖就拖
06/16 13:17, 185F

06/16 13:18, 3周前 , 186F
嗯。~我只想表達LLM真的離通用Ai真的蠻遠的 但也
06/16 13:18, 186F

06/16 13:18, 3周前 , 187F
因為這個東西的誕生 人們之間的資訊落差 的確有改
06/16 13:18, 187F

06/16 13:18, 3周前 , 188F
06/16 13:18, 188F

06/16 13:19, 3周前 , 189F
06/16 13:19, 189F

06/16 13:25, 3周前 , 190F
06/16 13:25, 190F

06/16 13:46, 3周前 , 191F
06/16 13:46, 191F

06/16 14:24, 3周前 , 192F
問題是現在有一個軍備競賽強迫一大部分的資源錯置
06/16 14:24, 192F

06/16 14:25, 3周前 , 193F
這個方向並沒有錯 只是單用這個方法走不到終點而已
06/16 14:25, 193F

06/16 15:05, 3周前 , 194F
你的中文很不通順,外國人?
06/16 15:05, 194F

06/16 15:14, 3周前 , 195F
對答案
06/16 15:14, 195F

06/16 17:31, 3周前 , 196F
語言是離散的有限的,真實世界是連續的無限的
06/16 17:31, 196F

06/16 17:36, 3周前 , 197F
數位資料的離散性就注定AI永遠不能真的思考
06/16 17:36, 197F

06/17 01:59, 3周前 , 198F
06/17 01:59, 198F

06/17 07:32, 3周前 , 199F
推推
06/17 07:32, 199F
文章代碼(AID): #1eJmipbK (Stock)
討論串 (同標題文章)
文章代碼(AID): #1eJmipbK (Stock)