Re: [討論] 大家會擔心 ai 寫 code 讓工程師飯碗不

看板Soft_Job (軟體人)作者 (twy30)時間1月前 (2024/11/02 10:14), 1月前編輯推噓6(6012)
留言18則, 7人參與, 1月前最新討論串6/8 (看更多)
※ 引述《angus850503 (安格斯)》之銘言: : 不過之前就一直對生成式 AI 有個疑問 : 就是"幻覺"到底有沒有根本上的解決方法? 目前還沒人能證明「有」,也還沒人能證明「沒有」。 有興趣的話可以追蹤這個「 LLM 幻覺排行榜」: * https://github.com/vectara/hallucination-leaderboard/ * HN 相關討論: https://news.ycombinator.com/item?id=38286761 有興趣可以翻翻這排行榜的 Git 歷史,看看各 LLM 的進化歷程。然而,這排行 榜的評鑑方式也是公開的,各 LLM 也有可能 (不自覺地) 針對這類評鑑方式去優 化,所以這些資料只能做為參考。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 136.61.16.51 (美國) ※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1730513653.A.0A9.html

11/02 10:23, 1月前 , 1F
Cool 感謝提供網站
11/02 10:23, 1F

11/02 19:21, 1月前 , 2F
竟然還有這種榜
11/02 19:21, 2F

11/03 01:42, 1月前 , 3F
我記得昨天才在Reddit上面的OpenAI AMA串看到誰回覆
11/03 01:42, 3F

11/03 01:42, 1月前 , 4F
說幻覺很難解決,因為人類也是有同樣的狀況
11/03 01:42, 4F

11/03 01:46, 1月前 , 5F
雲觀眾也是一種幻覺
11/03 01:46, 5F

11/03 01:49, 1月前 , 6F
*感覺上* pattern recognition/matching 的低垂水果已經摘得差不多了;就看資 本/信仰能不能撐到下一個突破口,例如: Detecting hallucinations in large language models using semantic entropy https://news.ycombinator.com/item?id=40769496 ※ 編輯: AmosYang (136.61.16.51 美國), 11/03/2024 04:44:24

11/03 13:30, 1月前 , 7F
這就是我想詢問的 幻覺沒解決 AI的下一步到底在哪
11/03 13:30, 7F

11/03 15:41, 1月前 , 8F
幻覺為什麼一定要解決才能做AI產生生產力?不用解決也可以
11/03 15:41, 8F

11/03 15:41, 1月前 , 9F
啊。不是所有任務都要靠LLM生成不可靠的資訊。例如很多人
11/03 15:41, 9F

11/03 15:41, 1月前 , 10F
做RAG+QA問答,都無腦用搜候選結果,然後用LLM生成最後答
11/03 15:41, 10F

11/03 15:41, 1月前 , 11F
案,當然一堆幻覺。架構上改成拿LLM當選擇器,或限定next
11/03 15:41, 11F

11/03 15:41, 1月前 , 12F
tokens,只能輸出選擇1.2.3.4。在多個答案裡面挑一個,最
11/03 15:41, 12F

11/03 15:41, 1月前 , 13F
後靠程式輸出完全沒關鍵的答案。立刻解決幻覺問題。
11/03 15:41, 13F

11/03 15:44, 1月前 , 14F
LLM當特定task模組(不要拿來當最後輸出結果),結合傳統NLP
11/03 15:44, 14F

11/03 15:44, 1月前 , 15F
各種解決方案,任何一個功能任務,都可以"完全沒幻覺",能
11/03 15:44, 15F

11/03 15:44, 1月前 , 16F
力又比傳統NLP強很多。
11/03 15:44, 16F

11/03 16:33, 1月前 , 17F
樓上這個有專有名詞叫做rerank 我開發系統時有設計
11/03 16:33, 17F

11/04 14:22, 1月前 , 18F
11/04 14:22, 18F
文章代碼(AID): #1d9Ohr2f (Soft_Job)
討論串 (同標題文章)
文章代碼(AID): #1d9Ohr2f (Soft_Job)