[心得] Salesforce 因 AI裁掉4,000人後急踩煞車
AI裁掉4,000人後急踩煞車 Salesforce高層坦言:當初太樂觀
記者吳立言/綜合報導
在大舉裁撤約 4,000 名員工、並以 AI 代理人取代部分人力後,企業軟體大廠
Salesforce 近期罕見對外鬆口,坦言對大型語言模型(LLM)的信心已不如一年前。
公司內部正重新調整 AI 發展方向,從高度倚賴生成式模型,轉向更可預測、
可控的自動化設計。
原文網址:https://ai.ettoday.net/news/3089740#ettoday
高層認了:當時太有信心
根據《The Information》報導,Salesforce 產品行銷資深副總裁 Sanjna Parulekar 表
示,過去一年公司對大型語言模型的態度明顯轉趨保守。
她直言,一年前無論是產業或內部團隊,對 LLM 的能力都更有信心,
但隨著實際導入企業流程,模型穩定性與可靠性問題逐漸浮現。
這番說法,也等同為 Salesforce 近來的 AI 策略轉向定調:不再一味強調生成能力,
而是更重視能否在商業場景中「準確執行」。
AI 上線,人力同步大縮水
這項轉變,發生在 Salesforce 大規模導入 AI 代理人之後。
執行長 Marc Benioff 先前在 Podcast 中透露,
公司支援人力已從約 9,000 人縮減至 5,000 人,等同裁撤約 4,000 個職位。
Benioff 也向 CNBC 表示,AI 導入後,公司「需要的人力變少」,
組織結構因此出現明顯調整。這番言論一度被視為 AI 取代人力的代表案例,
但如今看來,技術現實並未完全跟上當初的樂觀預期。
模型開始漏指令、流程失控
Salesforce 內部指出,問題並非單一案例。Agentforce 技術長 Muralidhar
Krishnaprasad 表示,當大型語言模型接收超過一定數量的指令時,
容易開始遺漏部分要求,對高度仰賴流程精準度的企業應用而言,風險明顯。
相關狀況也出現在客戶端。使用 Agentforce 處理客服業務的居家安全公司 Vivint,
服務超過 250 萬名用戶。報導指出,即便已清楚設定在每次客服互動後寄送滿意度調查,
系統仍不時漏發,最終必須額外加入「確定性觸發條件」,才能確保流程穩定運作。
除了漏指令,Salesforce 也觀察到 AI 代理人出現「漂移」現象。
當使用者提出與原任務無關的問題時,模型容易偏離既定目標,影響整體流程效率。
這類狀況,讓公司逐步降低對生成式 AI 自主判斷的依賴。
從 AI 模型 轉向資料優先
這樣的策略修正,與 Benioff 近期的公開說法相互呼應。
他向 Business Insider 表示,正在將公司年度策略的優先順序,從 AI 模型本身,
轉向資料基礎建設,並直言若缺乏清楚的資料脈絡,生成式 AI 容易產生「幻覺」。
隨著企業實際導入經驗累積,Salesforce 的調整,
也反映大型企業正重新校準 AI 在營運中的實際角色。
=====
毫不意外的結果。
如果要解決的是高層次但已熟稔的例行事務,
為什麼不用那些可預測又不隨便漂移的傳統自動化程序就好?
那還比較易控制、節能、減碳又便宜。
有 AI 供諮詢後,開發自動化程序的速度還會顯著加快。
如果要解決的是陌生且特殊的事務,
為什麼依靠 AI AgentS + MCP + LLM 這種不時改版,
不穩定又不保證行為能重現的工具,而不是把 AI 當顧問,
一步一步探索、學習,然後再確認要怎麼做並執行就好?
人就是最好的 AI Agent
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.167.0.207 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1766636943.A.14C.html
推
12/25 12:41,
2小時前
, 1F
12/25 12:41, 1F
推
12/25 13:40,
1小時前
, 2F
12/25 13:40, 2F
推
12/25 13:43,
1小時前
, 3F
12/25 13:43, 3F
推
12/25 14:00,
1小時前
, 4F
12/25 14:00, 4F
→
12/25 14:21,
39分鐘前
, 5F
12/25 14:21, 5F
※ 編輯: dream1124 (118.167.0.207 臺灣), 12/25/2025 14:32:08
Soft_Job 近期熱門文章
PTT職涯區 即時熱門文章
35
45