Re: [討論] Claude開始水token

看板Tech_Job (科技人)作者 (Channel Coding)時間3小時前 (2026/04/21 04:53), 2小時前編輯推噓1(102)
留言3則, 1人參與, 1小時前最新討論串2/2 (看更多)
應該會吃緊啊 現在矽谷一堆PR都用claude審 搭配人類 我們算過 一個複雜點PR claude大概花費5~20美金 然後品質比較跟人類比 只要正確搭配人類 可以省下30min ~1hr 我們這邊工時一個人都是100美金/hr起跳 現在都是用時間和token費用和品質在換算 結論就是token狂燒 幹死對家 比誰的錢多和迭代速度快 然後我們PM也捲起來 跳下來開始幹實作 和對接crossfun team 在模型設計上codex使用體感還是比claude 好 這真是出乎意料(參照下方) 有傳言codex是MoE設計 claude是dense transformer 理論上後者的邏輯順序會比較好 但缺點就是計算量和速度偏慢 前者是一定會快的 https://reurl.cc/R2LaWD 但很吃Harness上下文管理設計不然邏輯順序會亂掉 現在進行式就是 token費用 vs 人類價值 vs 速度產出 vs 系統品質搭建 看到上一篇說LLM/Agent只就只是個語言系統....嗯嗯恩 QQ 我好羨慕那個世界線 現在Agent就幹這幾件事 拆解問題 選擇工具 組合工具解問題 工具結果驗證 已經不在是個當純語言模型的問題了 這也是為啥Harness設計最近很夯 尤其最近一篇ICLR paper已經驗證 SFT去訓練模型會打輸模型加個好的Context設計 原因就是SFT會造成information collapse和失去reasoning ability -- 人類跟猴子差別就是 會用工具 好的Agent就是會用工具 模型設計現在為啥RL會夯 就是因為RL在訓練模型要跟現實工具環境做交互影響來解決問題 已經不在是"語言"模型 比方說claude前幾代 當模型快用完context資源 會開始把答案縮短 來增加回合 逼得人類學在context上在系統架構 不斷要code來選曲 重新釋放 但現在最新模型 已經會自己去管context長度控制了 所以現在模型owner大概就是走向RL+ Context設計 SFT除了在少數落地場景需要速度 使用範圍性越來越下降 至於上篇說 沒有新血補入 實際上是有 只是會走向像是精英運動系統一樣 大學生被挑選上實習這些人 通常可以畢業正職加入 但這些名額是限量的 ※ 引述《yamakazi (大安吳彥祖)》之銘言: : 包含4.6 4.7 : https://youtu.be/J-fgEGfskaI?si=OXtbInZEST1ODp4_
: 跟影片前半段一樣 : 我要放棄claude轉gemini : 跟這個影片一樣 : 我今天幫一個同事安裝公司內部的wiki mcp : 我自己也裝過,很簡單一次提示詞就好 : 但幫我同事裝的時候 : 居然先問一堆問題,又寫了一個md : 然後開始寫python還一直寫錯 : 他媽的裝mcp為何要寫md和python : 有夠坑錢 : ----- : Sent from JPTT on my iPhone -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 98.37.67.135 (美國) ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1776718380.A.23A.html ※ 編輯: LDPC (98.37.67.135 美國), 04/21/2026 05:29:23 ※ 編輯: LDPC (98.37.67.135 美國), 04/21/2026 05:54:17

04/21 06:28, 1小時前 , 1F
LPDC大 前面那篇自刪很可惜 其實這系列討
04/21 06:28, 1F

04/21 06:28, 1小時前 , 2F
論串蠻有意義的 不知為何要自刪呢 畢竟回
04/21 06:28, 2F

04/21 06:28, 1小時前 , 3F
文章也是要花時間的
04/21 06:28, 3F
文章代碼(AID): #1fvf8i8w (Tech_Job)
討論串 (同標題文章)
文章代碼(AID): #1fvf8i8w (Tech_Job)