Re: [新聞] ChatGPT的「幻覺」根本無法解決
※ 引述《breeze0817 ()》之銘言:
: 原文標題:
: 技術專家:ChatGPT的「幻覺」根本無法解決
: 原文連結:
: https://reurl.cc/N0KRy6
: 發布時間:
: 2023/08/09 15:58
: 記者署名:
: 鉅亨網新聞中心
: 原文內容:
: 掀起 AI 浪潮的 ChatGPT 儘管可以協助解決很多事情,但也因為會產生虛假的訊息,或
: 誤導性的內容,產生「人工智慧幻覺」(hallucinations) 而飽受批評,專家認為這種「
: 幻覺」受到技術與需求之間的限制,根本無法被解決。
: 財富網中文網報導,與 ChatGPT 或其他 AI 聊天機器人相處足夠長的時間,很快就會發
: 現它們有時會「編造答案」,這種現象被稱為「幻覺」,即機器人做出的捏造或純粹的編
: 造,對於那些試圖讓 AI 系統編寫文檔並完成工作的企業、組織甚至學生,這是一個致命
: 的問題。
: 聊天機器人 Claude 2 的製造商 Anthropic 共同創始人 Daniela Amodei 認為,現在沒
: 有任何一種模型能夠完全避免產生幻覺,因為它們的設計初衷只是用來預測下一個單詞,
: 因此模型肯定會有一定的錯誤率。
: 包括 ChatGPT 的製造商 OpenAI、Anthropic 及其他大型語言模型的 AI 系統主要開發者
: 都表示,他們正努力讓這些系統變得更準確,但目前尚不清楚需要多長時間才能達到足夠
: 的可靠性。
: 不過,華盛頓大學計算語言學實驗室的主任、語言學教授 Emily Bender 認為,「這個問
: 題無法完全解決,因為技術與實際需求之間存在固有的不匹配。」
: Google 已向新聞機構推銷一款新聞寫作 AI 產品,而作為與 OpenAI 合作的一部分,美
: 聯社也在探索使用這項技術,而 OpenAI 正在付費使用美聯社的部分存檔文本來改進其 A
: I 係統。因此,生成式 AI 的可靠性至關重要,麥肯錫全球研究院(McKinsey)預計,這
: 將為全球經濟帶來相當於 2.6 兆至 4.4 兆美元的收入。
: 心得/評論:
: chatGPT訪問量一再下滑
: 一窩蜂投資ai伺服器去訓練語言模型的
: 越來越有元宇宙的fu糗了
: 散戶:這次不一樣!!
純論AI的話 這個問題是一定可以被解決的
討論chatGPT肯定是無解 頂多提升準確度 提升到你認知不到「錯覺」
我自己是覺得用錯覺這個詞來闡述這個問題 好像滿奇怪的
簡單思考一下就知道了
假設AI是個人 他肯定會有他自己的認知
他的認知來自於他的資料庫
但誰能保證資料庫裡面的資料100%是對的?
畢竟資料庫的資料也是人為產出,或是他的開發者灌入的
最終都會限縮於:「什麼是對的」的這個命題
並且有一個很弔詭的事情是這樣的
「你憑什麼認為AI給出的答案是錯的,便稱作幻覺,難道就是基於人類的共同認知嗎?」
這個東西討論到後面就變成哲學問題了,所以不贅述。
但核心概念是這樣
一個人,老師,教授,都會有認知錯誤,都會出錯,為什麼人工智能不會
基於什麼樣的原因,你覺得他能掌握100%的真理,這樣想想不就知道了
但是基於網速科技提升,資料處理能力加強,程序優化肯定能再進步
回歸前面所說的,只要把AI的範圍侷限性拉大,就能提升正確率阿
比如你設定這個AI就叫做金融投資機器人,甚至叫做台灣金融投資機器人
並且串聯所有台灣銀行、投資平台、各大當鋪的內部資料
那肯定是強的沒話說。
你期待一個AI機器人,能貫通世界上所有領域的事情,給你都是正確的答案
那肯定是不切實際。
更何況一定一堆人是這樣:「請給我一個完美的python程序。」
「幹,你這個根本不完美」
你自己都定義不出來,都不知道什麼叫做完美了,AI怎麼可能會知道
你怎麼連話都說不清楚~
我自己是覺得AI很神啦,沒有戰文組的意思,但對於邏輯思考,表述能力不好的人來說
可能不好用
我在某平台上面,買了好幾次程式課,每次都沒有耐心看完,把作業做完。
chatgpt用了兩三天,已經弄出了兩個簡單的小程式,改善我工作上面的需求
平心而論,我就算認真把課程都上完,自己寫,寫個1個月,大概都弄不出來。
AI最強大的,就是他給你的資訊裡面,是有一定程度的正確率的,
你本來就要能分辨,什麼東西對你有用,然後再引導他幫助你,給出更多有用的資訊,
最後幫助你完成你的目標。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 220.136.194.220 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1691634339.A.FC5.html
推
08/10 10:26,
1年前
, 1F
08/10 10:26, 1F
我舉個簡單的例子給你聽
我們弄個AI加法機器人,並且只接受0~3,4個數字
那麼這個機器人的正確率 就是100%
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:28:41
→
08/10 10:27,
1年前
, 2F
08/10 10:27, 2F
→
08/10 10:28,
1年前
, 3F
08/10 10:28, 3F
→
08/10 10:29,
1年前
, 4F
08/10 10:29, 4F
推
08/10 10:29,
1年前
, 5F
08/10 10:29, 5F
→
08/10 10:29,
1年前
, 6F
08/10 10:29, 6F
→
08/10 10:29,
1年前
, 7F
08/10 10:29, 7F
→
08/10 10:29,
1年前
, 8F
08/10 10:29, 8F
→
08/10 10:30,
1年前
, 9F
08/10 10:30, 9F
→
08/10 10:30,
1年前
, 10F
08/10 10:30, 10F
承上述加法機器人的例子
你key了4和5進去,他會告訴你9
但也有可能,你key柯+大麻進去,他會回答你無罪
所以就看你有沒有要賦予他「創造」的能力
你要說他的思辨結果是不對的,一樣是看後面的演算法怎麼設定的
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:33:37
推
08/10 10:32,
1年前
, 11F
08/10 10:32, 11F
推
08/10 10:32,
1年前
, 12F
08/10 10:32, 12F
→
08/10 10:33,
1年前
, 13F
08/10 10:33, 13F
推
08/10 10:34,
1年前
, 14F
08/10 10:34, 14F
你就 去用 加法機器人就好了嘛 是不是肯定不會錯
→
08/10 10:34,
1年前
, 15F
08/10 10:34, 15F
推
08/10 10:35,
1年前
, 16F
08/10 10:35, 16F
→
08/10 10:35,
1年前
, 17F
08/10 10:35, 17F
→
08/10 10:35,
1年前
, 18F
08/10 10:35, 18F
→
08/10 10:35,
1年前
, 19F
08/10 10:35, 19F
→
08/10 10:36,
1年前
, 20F
08/10 10:36, 20F
範圍縮限就能解決這個問題
因為chatgpt目前的設定範圍,是無限
→
08/10 10:36,
1年前
, 21F
08/10 10:36, 21F
→
08/10 10:36,
1年前
, 22F
08/10 10:36, 22F
→
08/10 10:36,
1年前
, 23F
08/10 10:36, 23F
→
08/10 10:37,
1年前
, 24F
08/10 10:37, 24F
→
08/10 10:37,
1年前
, 25F
08/10 10:37, 25F
→
08/10 10:37,
1年前
, 26F
08/10 10:37, 26F
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:38:18
→
08/10 10:37,
1年前
, 27F
08/10 10:37, 27F
→
08/10 10:38,
1年前
, 28F
08/10 10:38, 28F
→
08/10 10:38,
1年前
, 29F
08/10 10:38, 29F
→
08/10 10:38,
1年前
, 30F
08/10 10:38, 30F
我理解會什麼叫做幻覺 也理解錯誤和無中生有的差距
但只是因為他對於人類共同認知的答案 在不熟悉的環境下 有不精準的回答
這個回答來自於他的資料庫不夠精準 也來自於他的程式設計有問題
你要解決所謂幻覺 暴力破解法就是載入所有的問題和答案
但極端例子來說 11111111111111111111111111+1111111111111111111111111111
他可能就回答不了你了
→
08/10 10:39,
1年前
, 31F
08/10 10:39, 31F
→
08/10 10:39,
1年前
, 32F
08/10 10:39, 32F
→
08/10 10:39,
1年前
, 33F
08/10 10:39, 33F
還有 372 則推文
還有 19 段內文
→
08/10 15:43,
1年前
, 406F
08/10 15:43, 406F
→
08/10 15:43,
1年前
, 407F
08/10 15:43, 407F
→
08/10 15:43,
1年前
, 408F
08/10 15:43, 408F
→
08/10 15:43,
1年前
, 409F
08/10 15:43, 409F
→
08/10 15:43,
1年前
, 410F
08/10 15:43, 410F
→
08/10 15:43,
1年前
, 411F
08/10 15:43, 411F
→
08/10 15:43,
1年前
, 412F
08/10 15:43, 412F
推
08/10 16:10,
1年前
, 413F
08/10 16:10, 413F
→
08/10 17:02,
1年前
, 414F
08/10 17:02, 414F
噓
08/10 17:06,
1年前
, 415F
08/10 17:06, 415F
→
08/10 17:06,
1年前
, 416F
08/10 17:06, 416F
噓
08/10 18:12,
1年前
, 417F
08/10 18:12, 417F
推
08/10 21:18,
1年前
, 418F
08/10 21:18, 418F
→
08/10 21:18,
1年前
, 419F
08/10 21:18, 419F
→
08/10 21:18,
1年前
, 420F
08/10 21:18, 420F
→
08/10 21:18,
1年前
, 421F
08/10 21:18, 421F
→
08/10 21:18,
1年前
, 422F
08/10 21:18, 422F
→
08/10 21:18,
1年前
, 423F
08/10 21:18, 423F
→
08/10 21:18,
1年前
, 424F
08/10 21:18, 424F
→
08/10 21:18,
1年前
, 425F
08/10 21:18, 425F
→
08/10 21:18,
1年前
, 426F
08/10 21:18, 426F
→
08/10 21:18,
1年前
, 427F
08/10 21:18, 427F
→
08/10 21:19,
1年前
, 428F
08/10 21:19, 428F
→
08/10 21:19,
1年前
, 429F
08/10 21:19, 429F
→
08/10 21:19,
1年前
, 430F
08/10 21:19, 430F
→
08/10 21:19,
1年前
, 431F
08/10 21:19, 431F
→
08/10 21:19,
1年前
, 432F
08/10 21:19, 432F
→
08/10 21:19,
1年前
, 433F
08/10 21:19, 433F
推
08/10 21:40,
1年前
, 434F
08/10 21:40, 434F
→
08/10 21:40,
1年前
, 435F
08/10 21:40, 435F
→
08/10 21:40,
1年前
, 436F
08/10 21:40, 436F
→
08/10 21:40,
1年前
, 437F
08/10 21:40, 437F
→
08/10 21:40,
1年前
, 438F
08/10 21:40, 438F
推
08/10 21:54,
1年前
, 439F
08/10 21:54, 439F
→
08/10 21:54,
1年前
, 440F
08/10 21:54, 440F
→
08/10 21:54,
1年前
, 441F
08/10 21:54, 441F
→
08/10 21:54,
1年前
, 442F
08/10 21:54, 442F
推
08/10 22:12,
1年前
, 443F
08/10 22:12, 443F
→
08/10 22:12,
1年前
, 444F
08/10 22:12, 444F
→
08/10 22:12,
1年前
, 445F
08/10 22:12, 445F
討論串 (同標題文章)
Stock 近期熱門文章
PTT職涯區 即時熱門文章