Re: [心得] 蘋果揭露人工智能並不思考

看板Stock (股票)作者 (jodaway)時間6小時前 (2025/06/16 14:09), 5小時前編輯推噓5(5015)
留言20則, 8人參與, 3小時前最新討論串14/14 (看更多)
※ 引述《midas82539 (喵)》之銘言: : 大語言模型(LLM)它的原始目的是要「模仿人類回答出人類看得懂的答案。」 : 但跟人類的語言不同,你我使用的與言語表達會是一系列的文字規則, : 例如「主詞,動詞,受詞」的SVO結構。 : 但模型本身並不是這樣學習的,它是把你看到的字,拆成詞素(token) : 然後將這些詞向量化,變成一系列數列: : king → [0.8, 0.1, 0.3, 0.7] : queen → [0.9, 0.1, 0.5, 0.9] : man → [0.9, 0.0, 0.3, 0.6] : woman → [0.8, 0.0, 0.5, 0.8] : 這個數列可以很長,例如有必要的話,可以到有300多個。然後模型可以找到特徵。 : 這個特徵用人類可以理解例子,就姑且濃縮成一個角度,便為說明就簡化成: : king=右上 man=右上 : queen=左上 woman=左上 : 那麼就算是你,也可以找到king跟man都是右上,故似乎有關連性。 : 而king跟queen角度不同,所以這兩個不是同樣的東西。 : 再把朕、殿下、皇帝、國王,排在一起。 : 只要資訊夠多,理論上是可以讓模型自己圈出有向量角度相近的集合。 : 我們可以再增加這個字出現在字首、字尾、中間第幾個字的頻率作為變數。 : 那麼就可以算出這個字出現在哪裡的特徵比較大。 : 這時我們回到剛剛的SVO結構,模型就可以在不懂中文,但憑統計出的特徵, : 可以拼湊出一個你可以看懂的中文回答。 : 然而這並不是人類的理解與語意判定,以及衍伸的推理。 : 所以它就會造就出「中文房間」的錯覺,例如假設一個外國人被關在房間。 : 但他有一本教戰手則,上面說明了那些字出現了,可以給出哪些答案。 : 那他就算不懂中文,在手冊的指引上也可以回答定型文。 : 大語言模型也是同樣的概念,它是基於大量的資料來找出「特徵」, : 而這些特徵的組合在在它的神經網絡會給予特定的權重,最後形成類似"手冊" : 的東西,然後依照手冊找到近似值的解答,生成給你看。 : 但它不見得是理解回答是否有意義,所以才會出現錯誤。 : 比如說很常見的,現在threads被一堆詐騙仔用AI生成圖片, : 例如啥我是護理師給我一個讚好嗎?但裡面的圖片會出現一些錯誤, : 例如敘述自己是75年出生,但生成的身分證是57年出生。 : 或者有生成名字了,但它的字型大小很明顯不一致。 : 然而對於模型來說,它不會知道"怎麼樣才是對的格式",而它只是針對 : 中華民國身分證大概是長怎樣,而隨機生成一個結果。 : 故單純直接產出,就免不了會有以上的問題。 : GPT4-O3它是說有多一個推理功能。然而它的底層還是大語言模型(LLM) : 加上它的數據處理是弄成很長串的多維資料,你人類也看不懂, : 所以你還是不會知道,它的推理過程,是不是也是模仿生成人類看得懂的邏輯。 : 但這個算法是否正確與必要,不見得正確。 : 這個問題在你處理只有你會面對的數學問題就有機會發生。 : 例如假設你要模型生成一個模型由0至指定最大值,與指定最小值機率遞減, : 而機率遞減的分配公式,正常我們人類就是設一個權重來分配。 : 但我問過O3它就很奇葩,它想用自然常數來分配,然後算式會出現錯誤。 : 其他你看過的就是GPT跟deepseek下西洋棋,結果deepseek憑空出現棋子, : 或者無視規則走奇怪的動作。這些都說明了語言模型並不是真的了解規則, : 而只是像兩隻猴子看人類下棋,而模仿人類玩西洋棋。 : 由於這不是你熟知的建立規則(base rule),所以在面對複雜的隨機模擬。 : 它可能做出錯誤的資訊,而你沒有發現錯誤的話,它就會繼續引用上下文 : 而給出錯誤的結論,但你看起來覺得是對的。 : 比如說你不會選擇權,但你想要模型直接生成一個賣方與調整策略。 : 而模型基於call有正的delta,而錯誤認為sell call也有正dela, : 那它就會繼續基於錯誤資訊引用,而得出: : 當標的價格趨近於SC履約價,整體delta會變正而且增加,故需要買put調整的規則。 : 當然對我來說我可以看出哪裡有問題,但對於沒有理解的人來說, : 那他就不會發現這個推理與建立規則錯誤,就會導致利用而產生虧損。 : 而這我認為基於大語言模型的訓練方式,本質上是無解。 : 你只能靠自己判斷模型的回答是否邏輯正確。而不是期望模型像神燈精靈, : 你不用會你也可以產出一個東西跟專業的人競爭。 在現代哲學的知識論中將[知識獲得]分為兩種類型, 一種叫[內部論],一種叫[外部論]。 內部論強調的是對知識或主張背後整套理論或觀念的理解和掌握, 而外部論強調的是放棄主觀理解,以外在的權威、輿論聲量等來判別知識。 原PO說的[中文房]就是很典型的外部論, LLM目前採用的方法就是主要透過的方式找出答案, 但是可以完全跳過所謂的[理解]。 而作為一項[工具],這其實也完全沒有問題, 但就如樓主說的,你必須有起碼的知識背景才好配合用它, 否則LLM說出的事似真實假的東西,你也看不出來,反而害更大,因為它不會說他不懂。 他是負責給答案看看是否過關的中文房內的機器人,他不負責[理解]。 這並非說AI發展毫無處理[理解],之前的深藍、阿法狗等已經在圍棋方面屌打人類, 但是他這套演算法就只負責下圍棋,你叫它說話它能力是0,叫他認圖、畫圖也是0。 阿法狗跟深藍又不一樣,它不是靠暴力演算法下贏人類的,它是真的[理解]圍棋的 [邏輯]:只要你給它明確的遊戲規則,它能慢慢累積算出最佳解。 (這幕後最大的英雄我覺得是發展出那些演算法的人類) 本來LLM嘗試用一樣的[規則理解]來開發,可是碰壁, 於是後來改採歸納法為主的算法,加上[權重]、[反溯]等能力,以及人工訓練, 結果產生重大突破。 其實這種學習法也確實在某方面比較符合人類(和動物)的學習歷程, 人類的初始學習並非靠一套內洽的理論, 也是不斷的試錯、反饋,然後形成可行的模糊知識,並容許後續的修正。 認圖、畫圖AI也是一樣的,它並不(也無須)理解它在畫甚麼, 它是靠大量局部訓練過畫好的圖,組合起來, 交給人類去判斷是否過關, 如果不過關,就下次重畫,大量的反饋機制使它越畫越好。 但是它不知道自己在畫啥,你叫它畫[猴子],它只是畫出千錘百鍊的外貌, 它沒有理解[猴子]生物特性。 當然,也許語言模型跟畫圖模型串在一起,能發揮這樣的功能,我就不知道了。 當然[通用型AI]似乎仍有關鍵性的落差, 也確實其實所謂[AI]其實是個[集合稱], 負責畫圖的AI跟負責模仿語音的AI,可能除了在開發模型上有共享一些方法外, 其他方面天差地遠。 但是AI仍然有龐大的發展潛力, 因為它是由電力直接驅動的,只要給它演算法、資料, 它可以24小時不停歇的進步下去。 另一方面,更關鍵的是,它不需要全然仿照人類的智力來運作, 它只要在某些特化功能上,比人類幹得好就行了。 比如車跑得比人快、起重機舉的比人有力、風扇吹的風比人強, AI也是一樣的道理, 其實不需用人的判準來評價它,例如自覺、思考、價值觀、情感等等的, 因為它目前主要就是[工具],而且是人發明出來的, 只是它確實潛力強大,擁有部分人類難以駕馭的潛力, 這就好像核武一樣,為善為惡其實看人的造化。 而且通用型AI很可能不是好事, 雖然AI似乎只是特化功能很強的[計算機], 但是人腦其實目前來看也是神經細胞花幾億年演化出來的, 沒有理由斷定電腦無法辦到。 而如果它辦到了,肯定是千古巨變,後面會怎樣都不知道。 扯遠了,總而言之,就算AI不會[思考]也不怎樣, 它只要某功能好用就夠了,這本來就是如何理解AI的特質和目標。 因為人腦也會犯很多錯,而且很容易累, AI就是能把某些人類能做到的事, 用千百倍的精神做好,然後資料蒐集很快很廣, 一個任務它就幫你參照古今往來的案例丟答案給你, 對不對就靠你自己判斷了, 這樣還不夠好嗎? 已經很好了, 若還要它更好,它就要反客為主了。 -- 奧茲:你可以吃一堆香蕉! 芬利:哦,我懂了,就因為我是一隻猴子,所以我一定要喜歡香蕉! 奧茲:你不喜歡香蕉嗎? 芬利:別傻了! 我當然喜歡香蕉,我可是一隻猴子!我只是不喜歡你的推論方式。 https://philog8sophia.blogspot.com/ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 219.70.152.25 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1750054168.A.485.html

06/16 14:10, 6小時前 , 1F
那人類是怎麼理解猴子的
06/16 14:10, 1F

06/16 14:17, 6小時前 , 2F
怎麼好像一堆人不會思考在社會也活的好好的
06/16 14:17, 2F

06/16 14:36, 6小時前 , 3F
為啥在社會上活得好好的一定需要思考XD
06/16 14:36, 3F

06/16 14:39, 6小時前 , 4F
1F 你確定人類理解猴子嗎
06/16 14:39, 4F

06/16 14:43, 6小時前 , 5F
人類跟猴子也算遠古同宗室啊
06/16 14:43, 5F

06/16 14:53, 6小時前 , 6F
我的意思是說人類怎麼理解眼前的東西是猴子的
06/16 14:53, 6F
這問題其實很有趣,牽涉到語言哲學的意義、語意問題, 語言是一種有遊戲規則但無絕對嚴格規則的活動。 用維根斯坦的話來說,像是一場遊戲。 眾人的互動形成大致共識,但是仍有創造的空間。 有一案例可以參考是哲學家Quine的 [Gavagai]案例, 即便你看到語言不同的原住名,每次看到兔子都說'Gavagai', 你也無法斷定Gavagai=兔子, 也許Gavagai的意思是白色、獵物、食物、好運..., 除非有更多參照資訊,讓你能深化理解, 但是這始終是一種非完美的歸納法。 (內部論、外部論就是Quine的主張) 人們對[猴子]的理解當然也有不同面相, 可能約定俗成,也可能是現代的基因、生物學, 但也是有生物學研究人們才知道,雞的祖先是恐龍、海豚被歸為哺乳類等等, 這些知識顯然古人不會懂,所以對一物或概念的理解顯然會隨著背景知識轉變而轉變。 根據語言學家研究,人類似乎天生內建一套語言認知系統, 只要在幼年經過適當的刺激,很快能觸類旁通, 學習使用甚至創造性使用一套語言,但是只有一套。 (母語) 簡言之,人學習概念、語言的過程適複雜的,也可能是先外部、後內部, 而這跟知識的學習路徑是類似的,先依循傳統,學而熟習之, 然後融會貫通後,就能舉一反三,一以貫之。 這與鸚鵡學語是截然相反的。 至於說判別眼前的猴子是猴子, 這應該牽涉到認知科學, 但我印象中,人類辨別能力和現在的AI應用也是有些異曲同工之妙的, 比如人類的天生的人臉辨識系統,直覺認知、經驗記憶等, 接續才是背景知識等等更複雜的認識。 人類的大腦也是多工運行的,有的鑑識表情、有的觀察細節、聲音、色澤光暗、 行動等等的,然後再形成統覺。 或是再連到概念、語言區, 總之大腦是非常奧妙的東西。 ※ 編輯: jodawa (219.70.152.25 臺灣), 06/16/2025 15:31:22

06/16 15:09, 5小時前 , 7F
看到猴->大人說那是猴子->人生過程看到
06/16 15:09, 7F

06/16 15:10, 5小時前 , 8F
各式各樣的猴子->念猴子的書籍影片
06/16 15:10, 8F

06/16 15:11, 5小時前 , 9F
形成猴子的認知知識
06/16 15:11, 9F

06/16 15:13, 5小時前 , 10F
內部外部,怎麼不用理性主義跟經驗主義?NLP一開始
06/16 15:13, 10F

06/16 15:13, 5小時前 , 11F
是嘗試規制。LLM 是規則失敗只好用神經元、參數,
06/16 15:13, 11F

06/16 15:13, 5小時前 , 12F
所以才稱為 large LM, 何來 LLM 用規則。用規則模
06/16 15:13, 12F

06/16 15:13, 5小時前 , 13F
型就不大了。
06/16 15:13, 13F

06/16 15:16, 5小時前 , 14F
我看過一本關於東方哲學跟人工智慧的書,是中央大
06/16 15:16, 14F

06/16 15:16, 5小時前 , 15F
學出的書,裡面一大堆老哲學家,他們對AI對人工智
06/16 15:16, 15F

06/16 15:16, 5小時前 , 16F
慧對生成式AI的認識都非常精準,也就是他們當哲學
06/16 15:16, 16F

06/16 15:16, 5小時前 , 17F
家都是認真讀過才會發表的。
06/16 15:16, 17F

06/16 15:33, 5小時前 , 18F
yes one大,內部論外部論、用理性、經驗類比頗通
06/16 15:33, 18F

06/16 17:27, 3小時前 , 19F
推。另外目前多模態,理論上功能模型間應該會有交
06/16 17:27, 19F

06/16 17:27, 3小時前 , 20F
互。我認為有機會再湧現新的理解
06/16 17:27, 20F
文章代碼(AID): #1eJxKOI5 (Stock)
討論串 (同標題文章)
文章代碼(AID): #1eJxKOI5 (Stock)