[請問] 對大型語言模型神經網路的理解這樣對嗎

看板ask (問板)作者 (edm)時間5月前 (2025/06/24 14:05), 編輯推噓3(307)
留言10則, 5人參與, 5月前最新討論串1/1
https://reurl.cc/o8lgn5 https://reurl.cc/4LEaZD 哪個解釋較正確 有人知道嗎? 謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.187.67 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/ask/M.1750745143.A.E9C.html

06/24 15:16, 5月前 , 1F
請google,除非你期望ask版有這樣專業的人才能回答
06/24 15:16, 1F

06/24 15:40, 5月前 , 2F
都對 但前者只說明了資源來源 後者比較接近運作的本質
06/24 15:40, 2F

06/24 22:25, 5月前 , 3F
LLM不能爬網路資料 LLM單純就是預測下一個token
06/24 22:25, 3F

06/25 12:01, 5月前 , 4F
可以把它們的回答拿去問對方
06/25 12:01, 4F

06/25 12:01, 5月前 , 5F
讓他們互相解釋和討論
06/25 12:01, 5F

06/25 12:01, 5月前 , 6F
另外可以問的深入一點
06/25 12:01, 6F

06/25 12:01, 5月前 , 7F
例如可以問transformer架構和多頭注意力
06/25 12:01, 7F

06/25 12:01, 5月前 , 8F
可以幫助了解主流大語言模型的本質
06/25 12:01, 8F

06/26 00:52, 5月前 , 9F
參考參考就好 他這個就是一個很不自然的答案就像一張扭曲的
06/26 00:52, 9F

06/26 00:52, 5月前 , 10F
照片
06/26 00:52, 10F
文章代碼(AID): #1eMa0twS (ask)
文章代碼(AID): #1eMa0twS (ask)