[新聞] Google壓縮技術可省記憶體大小達6X

看板Stock (股票)作者 (asin404)時間1小時前 (2026/03/26 17:38), 34分鐘前編輯推噓71(851473)
留言172則, 128人參與, 7分鐘前最新討論串1/1
https://money.udn.com/money/story/5599/9403705?from=edn_newest_index Google發表了一種演算法並宣稱這技術能改善 AI 模型的記憶體使用效率 。受此消息影響,記憶體晶片和儲存概念股周三全面下挫。 美光股價跌3.4%,盤中一度大跌6.1%,連續五日下跌;Sandisk大跌 3.5%,連續四個交易日 下跌。儲存裝置製造商希捷(Seagate)和威騰電子(Western Digital)股價周三各跌2.8% 和1.6%。 亞洲記憶體股周四開盤也跟著重挫,三星電子和SK海力士各跌2.8%和3.4%。 Google周二晚上推出了 TurboQuant壓縮演算法,並說 TurboQuant不僅提升 AI 模型速度和 效率,也能大幅減少記憶體使用量。 這項演算法針對的是「向量」(vectors),其功能是協助 AI 模型理解並處理從簡單到複 雜的資訊。Google 解釋說,高維度向量會消耗大量記憶體,進而在「鍵值快取」(KV cach e)產生瓶頸;而此快取技術正是讓 AI 模型能「記住」已處理過的資料,進而加快回應詢 問速度的關鍵。 雖然高維度向量可透過「向量量化」技術來壓縮,但 Google 說,這技術本身也會產生記憶 體問題,因為需要計算和儲存額外數據,「這在某種程度上違背了向量量化的初衷。」Goog le 去年 4 月發表研究論文所提出的 TurboQuant,正是為了解決這個問題。 記憶體和儲存裝置製造商先前因零組件短缺,能大幅調漲價格。如今,有投資人可能認為 A I 指標企業未來不再需要這麼多記憶體,削弱美光等供應商強大的定價權。 但也有人認為事情沒那麼簡單,因為當技術進步降低了資源成本時,反而會因為資源變得更 容易取得,進而推升了需求。 Google 說,其新型壓縮演算法能將 AI 模型的鍵值快取(KV cache)記憶體用量減少至少 六倍,並將速度提升高達八倍,這實質上降低了「推論」(即執行 AI 模型)的成本。有分 析師拿傑文斯悖論(Jevons paradox)解釋,這將帶動 AI 模型的普及,進而導致對記憶體 更多的需求。 Lynx Equity Strategies發給客戶的報告中寫道:「Google 所詳述的方法,在未來 3 到 5 年內幾乎不會減少對記憶體和快閃記憶體的需求,因應供給極度受限,」這個研究機構重 申了對美光 700 美元目標價;美光周二收盤價為 382美元。 =========== 難怪這幾天 華邦跌破百了還在繼續跌 旺宏直接躺平亮燈 群聯見不到底的跌了再跌 有潘董買自家股票的加持也沒用 南亞科有私募基金的大話題加持 一樣紅燈直下轉綠 難怪廠務設備今天一起狂跌 因為華爾街人認為 只需要1/6記憶體的產線就夠用了 不需要擴廠 Memory is over?? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.217.58.149 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1774517889.A.1AC.html

03/26 17:38, 1小時前 , 1F
貼新聞都不會= =?
03/26 17:38, 1F

03/26 17:38, 1小時前 , 2F
樓下記憶體專家
03/26 17:38, 2F

03/26 17:39, 1小時前 , 3F
蹦蹦
03/26 17:39, 3F
※ 編輯: asin404 (49.217.58.149 臺灣), 03/26/2026 17:39:43

03/26 17:39, 1小時前 , 4F
不可能 絕對不可能,如果是真的我要跳了!!!
03/26 17:39, 4F

03/26 17:40, 1小時前 , 5F
宣稱 嗯 壓低吃貨囉
03/26 17:40, 5F

03/26 17:40, 1小時前 , 6F
記憶體廠商先制裁
03/26 17:40, 6F

03/26 17:41, 1小時前 , 7F
你先OVER
03/26 17:41, 7F

03/26 17:42, 1小時前 , 8F
跟日本的壓縮機一樣稀少
03/26 17:42, 8F

03/26 17:42, 1小時前 , 9F
莫忘deepseek
03/26 17:42, 9F

03/26 17:42, 1小時前 , 10F
狗家這麼厲害
03/26 17:42, 10F

03/26 17:43, 1小時前 , 11F
再囤啊
03/26 17:43, 11F

03/26 17:43, 1小時前 , 12F
記憶體降下來絕對是消費者利多rrrr,終於可以開始
03/26 17:43, 12F

03/26 17:43, 1小時前 , 13F
換電腦了嗎
03/26 17:43, 13F

03/26 17:45, 1小時前 , 14F
聽說舊的概念吧!而且一週下來goog好慘
03/26 17:45, 14F

03/26 17:45, 1小時前 , 15F
有大神可解釋原理嗎 想不透
03/26 17:45, 15F

03/26 17:46, 1小時前 , 16F
投資人的錢包也被壓縮了
03/26 17:46, 16F

03/26 17:46, 1小時前 , 17F
是減少快取的使用量嗎
03/26 17:46, 17F

03/26 17:46, 1小時前 , 18F
這根本就沒影響
03/26 17:46, 18F

03/26 17:47, 1小時前 , 19F
那google改賣記憶體豈不賺爛 一條當六條賣 那就全
03/26 17:47, 19F

03/26 17:47, 1小時前 , 20F
市場記憶體全收來 我賣6倍
03/26 17:47, 20F

03/26 17:47, 1小時前 , 21F
借機出貨而已
03/26 17:47, 21F

03/26 17:47, 1小時前 , 22F
我解釋一下原理:記憶體廠商吊高價,有人不爽,跟
03/26 17:47, 22F

03/26 17:47, 1小時前 , 23F
你翻桌。
03/26 17:47, 23F

03/26 17:47, 1小時前 , 24F
就是這樣XD
03/26 17:47, 24F

03/26 17:47, 1小時前 , 25F
Google and 記憶體 is over
03/26 17:47, 25F

03/26 17:48, 1小時前 , 26F
那毛利直接突破天際
03/26 17:48, 26F

03/26 17:48, 1小時前 , 27F
跟衣物壓縮收納袋一樣
03/26 17:48, 27F

03/26 17:48, 1小時前 , 28F
google一起跌...
03/26 17:48, 28F

03/26 17:48, 1小時前 , 29F
總需求會上昇,降低單位成本,釋放更大需求,賣壓
03/26 17:48, 29F

03/26 17:48, 1小時前 , 30F
這兩個都一起over
03/26 17:48, 30F

03/26 17:48, 1小時前 , 31F
那是在騙下車
03/26 17:48, 31F

03/26 17:48, 1小時前 , 32F
os主記憶體量不會減少吧 還是我才疏學淺
03/26 17:48, 32F

03/26 17:48, 1小時前 , 33F
說deepseek的 google的理論是前面的耶...
03/26 17:48, 33F

03/26 17:48, 1小時前 , 34F
研究階段也能殺
03/26 17:48, 34F

03/26 17:48, 1小時前 , 35F
跟這沒什麼關係,記憶體早幾天就開始走弱,單純要
03/26 17:48, 35F

03/26 17:48, 1小時前 , 36F
開始套人
03/26 17:48, 36F

03/26 17:49, 1小時前 , 37F
空間變大只會塞更多的東西或衣物
03/26 17:49, 37F
還有 97 則推文
還有 5 段內文
03/26 18:28, 37分鐘前 , 135F
日本的壓縮機?
03/26 18:28, 135F

03/26 18:28, 37分鐘前 , 136F
上漲靠錢堆下跌靠風吹,完美詮釋XDD
03/26 18:28, 136F

03/26 18:29, 36分鐘前 , 137F
Ai要取代工程師 我看還久的 連這種基本問題都沒辦
03/26 18:29, 137F

03/26 18:29, 36分鐘前 , 138F
法 還是要靠人 AI泡沫太明顯
03/26 18:29, 138F
※ 編輯: asin404 (49.217.58.149 臺灣), 03/26/2026 18:29:41

03/26 18:29, 36分鐘前 , 139F
減少6倍就等於可以多塞6倍的context 啊
03/26 18:29, 139F

03/26 18:29, 36分鐘前 , 140F
當前AI瓶頸就是記憶體產能 當然要想辦法繞過去啊
03/26 18:29, 140F

03/26 18:30, 35分鐘前 , 141F
總不能一直被記憶體大廠掐著脖子吧
03/26 18:30, 141F
※ 編輯: asin404 (49.217.58.149 臺灣), 03/26/2026 18:31:01

03/26 18:31, 34分鐘前 , 142F
單一記憶體效率變高但用一樣的量不是整體效率更好
03/26 18:31, 142F

03/26 18:31, 34分鐘前 , 143F
03/26 18:31, 143F

03/26 18:32, 33分鐘前 , 144F
谷狗是先殺低等歐洲的判決吧
03/26 18:32, 144F

03/26 18:36, 29分鐘前 , 145F
卡哇 over
03/26 18:36, 145F

03/26 18:36, 29分鐘前 , 146F
只有影響推理部分而已
03/26 18:36, 146F

03/26 18:37, 28分鐘前 , 147F
記憶體不嫌少的拉 尤其是高速的
03/26 18:37, 147F

03/26 18:39, 26分鐘前 , 148F
便宜的記憶體買的到了嗎?
03/26 18:39, 148F

03/26 18:43, 22分鐘前 , 149F
才6倍,就算600倍記憶體產能還是遠遠不夠
03/26 18:43, 149F

03/26 18:44, 21分鐘前 , 150F
一起來壓低股價吃貨嗎
03/26 18:44, 150F

03/26 18:46, 19分鐘前 , 151F
goog出來砸爛然後默默吃低價
03/26 18:46, 151F

03/26 18:46, 19分鐘前 , 152F
好了啦 google自己都沒有漲了
03/26 18:46, 152F

03/26 18:47, 18分鐘前 , 153F
不可能 絕對不可能
03/26 18:47, 153F

03/26 18:48, 17分鐘前 , 154F
我怎麼感覺記憶體會更缺~~
03/26 18:48, 154F

03/26 18:48, 17分鐘前 , 155F
這本來就一直在卷的東西,就像過去的半導體,但需
03/26 18:48, 155F

03/26 18:48, 17分鐘前 , 156F
求的增長還是超過卷的速度
03/26 18:48, 156F

03/26 18:50, 15分鐘前 , 157F
這個演算法是免費的嗎?
03/26 18:50, 157F

03/26 18:51, 14分鐘前 , 158F
為跌找理由XD
03/26 18:51, 158F

03/26 18:51, 14分鐘前 , 159F
https://bely.cc/mMopjW 看看實作效果
03/26 18:51, 159F

03/26 18:51, 14分鐘前 , 160F
google自己都沒漲了
03/26 18:51, 160F

03/26 18:51, 14分鐘前 , 161F
需求快速往地端推而已啦 越搞越缺記憶體
03/26 18:51, 161F

03/26 18:51, 14分鐘前 , 162F
Goog資料中心龐大 一點優化都是量級
03/26 18:51, 162F

03/26 18:52, 13分鐘前 , 163F

03/26 18:52, 13分鐘前 , 164F
三個月後再說沒辦法就笑死
03/26 18:52, 164F

03/26 18:53, 12分鐘前 , 165F
看起來是可以改搶DDR4, DDR5
03/26 18:53, 165F

03/26 18:53, 12分鐘前 , 166F
一篇論文沒經過實體驗證讓記憶體市值掉了幾百億美
03/26 18:53, 166F

03/26 18:56, 9分鐘前 , 167F
壓縮會降速耶,如果本來就壓縮,這可能就是一種新演算
03/26 18:56, 167F

03/26 18:56, 9分鐘前 , 168F
法,但這跟消費電子應該沒關係
03/26 18:56, 168F

03/26 18:56, 9分鐘前 , 169F
之前狗家才說要改玩dram rack,搭配這個能成功那HB
03/26 18:56, 169F

03/26 18:56, 9分鐘前 , 170F
M要下去嗎
03/26 18:56, 170F

03/26 18:56, 9分鐘前 , 171F
狗狗自己都GG了
03/26 18:56, 171F

03/26 18:58, 7分鐘前 , 172F
這甚至是一年前的論文==
03/26 18:58, 172F
文章代碼(AID): #1fnFw16i (Stock)
文章代碼(AID): #1fnFw16i (Stock)