Re: [心得] token maximum
看了這兩串, 充滿了疑問..
想討論一下這個主題: token
(1) 每個LLM 都有自己的max. tokens
這是在training model時就要決定的
(2) max output tokens是讓agent在送給LLM 之前處理用的,避免超過LLM model的max. to
(3) rules 沒被執行,有可能是context可能超過LLM model的max. tokens, agent 主動壓?
這樣不就解釋了兩串原po的問題?
麻煩指正,若我的了解有誤。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.83.213 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1772849566.A.402.html
噓
03/07 10:24,
3周前
, 1F
03/07 10:24, 1F
噓
03/07 14:26,
3周前
, 2F
03/07 14:26, 2F
→
03/07 14:26,
3周前
, 3F
03/07 14:26, 3F
為了避免LLM不處理超過model的max tokens (聽說 LLM會傳回error,往返也是cost)
所以才要靠agent把關, 不是嗎?
Max output token是給agent用的
當有需要減少context,
agent有個機制會壓縮整個context(prompt, history, rules, referenced files..)
再把壓縮後的context送往LLM
→
03/07 14:32,
3周前
, 4F
03/07 14:32, 4F
→
03/07 14:32,
3周前
, 5F
03/07 14:32, 5F
推
03/07 14:45,
3周前
, 6F
03/07 14:45, 6F
※ 編輯: pacino (111.249.83.213 臺灣), 03/07/2026 15:16:09
→
03/07 23:12,
3周前
, 7F
03/07 23:12, 7F
→
03/07 23:12,
3周前
, 8F
03/07 23:12, 8F
→
03/07 23:12,
3周前
, 9F
03/07 23:12, 9F
→
03/07 23:12,
3周前
, 10F
03/07 23:12, 10F
→
03/07 23:17,
3周前
, 11F
03/07 23:17, 11F
→
03/07 23:17,
3周前
, 12F
03/07 23:17, 12F
→
03/07 23:17,
3周前
, 13F
03/07 23:17, 13F
→
03/07 23:17,
3周前
, 14F
03/07 23:17, 14F
→
03/07 23:22,
3周前
, 15F
03/07 23:22, 15F
→
03/07 23:22,
3周前
, 16F
03/07 23:22, 16F
→
03/08 00:48,
3周前
, 17F
03/08 00:48, 17F
討論串 (同標題文章)
Soft_Job 近期熱門文章
40
131
PTT職涯區 即時熱門文章
53
126