[情報] AI 將不需要大量記憶體 Google 發表 Turb

看板PC_Shopping (個人電腦購買)作者 (小蛋)時間3周前 (2026/03/26 21:06), 編輯推噓88(891128)
留言218則, 110人參與, 3周前最新討論串1/1
https://reurl.cc/18m4VQ AI 將不需要大量記憶體 Google 發表 TurboQuant 壓縮技術 記憶體加價潮或可終結 作者 Lawton 發佈日期 2026-03-26 Google 最新發表 TurboQuant 記憶體壓縮技術,大幅降低人工智能運算所需硬件資源,觸發市場對儲存設備需求大減恐慌。美股儲存晶片類股股價周三應聲暴跌,惟多間華爾街投行看好效率提升將帶動更大規模應用,呼籲投資者趁機吸納。 壓縮技術效能驚人 Google 發表名為 TurboQuant 記憶體壓縮演算法,市場憂慮儲存硬件長期需求會大幅減少,觸發相關資產拋售潮。Google 團隊指出 TurboQuant 可在不影響準確度下,將大型語言模型執行時佔用快取記憶體減少最少 6 倍。開發團隊成功將鍵值快取無損壓縮至 3-bit,利用 Gemma 及 Mistral 等開源模型測試時,發現在 Nvidia H100 顯示卡上運作效能對比未量化 32-bit 方案最高提升 8 倍。目前人工智能軍備競賽極度依賴硬件規模擴張,任何削減實體記憶體採購量技術進步,原文出自 unwire.hk, 均足以令估值偏高晶片類股面臨沉重沽壓。此項新技術將於下月 ICLR 2026 大會上正式發表。 等等黨要勝利了? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.140.155.127 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1774530364.A.002.html

03/26 21:10, 3周前 , 1F
好,要上128G可以少花一點錢了
03/26 21:10, 1F

03/26 21:15, 3周前 , 2F
爽啊~~~記憶體廠跌死你
03/26 21:15, 2F

03/26 21:15, 3周前 , 3F
我覺得企業會賣更多…
03/26 21:15, 3F

03/26 21:16, 3周前 , 4F
減少 6 倍那不就能跑 6 倍大的模型了嗎
03/26 21:16, 4F

03/26 21:16, 3周前 , 5F
壓縮後可以裝的更多了
03/26 21:16, 5F

03/26 21:17, 3周前 , 6F
記憶卡蛙...
03/26 21:17, 6F

03/26 21:17, 3周前 , 7F
不可能 絕對不可能
03/26 21:17, 7F

03/26 21:17, 3周前 , 8F
爽啦 記憶體本來就應該便宜
03/26 21:17, 8F

03/26 21:19, 3周前 , 9F
google竟然能間接拯救消費市場?
03/26 21:19, 9F

03/26 21:22, 3周前 , 10F
真假 估狗有這麼猛喔
03/26 21:22, 10F

03/26 21:22, 3周前 , 11F
減少6倍不就代表可以裝更多了嗎?
03/26 21:22, 11F

03/26 21:27, 3周前 , 12F
google我的神,推動地球進步的英雄
03/26 21:27, 12F

03/26 21:29, 3周前 , 13F
哇靠 大場面來了
03/26 21:29, 13F

03/26 21:32, 3周前 , 14F
爛美光可以重新開賣記憶體了嗎 = =
03/26 21:32, 14F

03/26 21:34, 3周前 , 15F
的跌死你!!!
03/26 21:34, 15F

03/26 21:34, 3周前 , 16F
可以花六倍 一樣漲
03/26 21:34, 16F

03/26 21:35, 3周前 , 17F
語言模型受惠,那影片那些呢
03/26 21:35, 17F

03/26 21:36, 3周前 , 18F
威剛 美光 三星 :幹
03/26 21:36, 18F

03/26 21:40, 3周前 , 19F
多跌一些www
03/26 21:40, 19F

03/26 21:41, 3周前 , 20F
壓縮技術是拿來跑更大的模型不是拿來降
03/26 21:41, 20F

03/26 21:41, 3周前 , 21F
價用的
03/26 21:41, 21F

03/26 21:42, 3周前 , 22F
顆粒廠有什麼好幹的 又沒擴廠根本不虧
03/26 21:42, 22F

03/26 21:43, 3周前 , 23F
這個東西主要是vector search,影響有限
03/26 21:43, 23F

03/26 21:46, 3周前 , 24F
能壓縮更多不代表可以裝更多,代表AI基
03/26 21:46, 24F

03/26 21:46, 3周前 , 25F
建更激烈不是
03/26 21:46, 25F

03/26 21:48, 3周前 , 26F
只會越用越多而已
03/26 21:48, 26F

03/26 21:48, 3周前 , 27F
因為我要看雪山狐狸
03/26 21:48, 27F

03/26 21:49, 3周前 , 28F
應該是覺得能跑更大模型而不是少買記憶體
03/26 21:49, 28F

03/26 21:49, 3周前 , 29F
03/26 21:49, 29F

03/26 21:49, 3周前 , 30F
誰跟你說這樣就不會漲了
03/26 21:49, 30F

03/26 21:50, 3周前 , 31F
記憶體需求會更多,以前做不到的事,現
03/26 21:50, 31F

03/26 21:50, 3周前 , 32F
在ai能做到更多事,用量會變更大
03/26 21:50, 32F

03/26 21:50, 3周前 , 33F
傻傻地
03/26 21:50, 33F

03/26 21:52, 3周前 , 34F
壓縮六倍=會用更多的資料訓練
03/26 21:52, 34F

03/26 21:52, 3周前 , 35F
根本不會減少記憶體需求吧
03/26 21:52, 35F

03/26 21:52, 3周前 , 36F
好哦,變六倍效能喔,繼續軍備競賽。
03/26 21:52, 36F

03/26 21:52, 3周前 , 37F
一樣是有多少包多少
03/26 21:52, 37F

03/26 21:54, 3周前 , 38F
爽啊
03/26 21:54, 38F

03/26 22:07, 3周前 , 39F
這不是昨天就在說嗎
03/26 22:07, 39F
還有 139 則推文
03/27 11:45, 3周前 , 179F
微再多一些成本就領先 那這樣當然就不回
03/27 11:45, 179F

03/27 11:45, 3周前 , 180F
再用100%的成本去執行囉
03/27 11:45, 180F

03/27 12:08, 3周前 , 181F
後頭有大魔王歐盟阿,籠斷性技術
03/27 12:08, 181F

03/27 12:09, 3周前 , 182F
很容易被歐盟用藉口罰錢,成本轉稼後
03/27 12:09, 182F

03/27 12:09, 3周前 , 183F
未必比現在還省
03/27 12:09, 183F

03/27 12:16, 3周前 , 184F
這不是讓你可用更大模型的技術
03/27 12:16, 184F

03/27 12:17, 3周前 , 185F
現在價跌只是很多人不懂
03/27 12:17, 185F

03/27 12:19, 3周前 , 186F
嗯,能落實的話我也覺得會再平衡
03/27 12:19, 186F

03/27 12:23, 3周前 , 187F
短期需求趨緩成長期發展,就比較難
03/27 12:23, 187F

03/27 12:23, 3周前 , 188F
炒價格惹
03/27 12:23, 188F

03/27 12:38, 3周前 , 189F
這波掃記憶體的又不是google
03/27 12:38, 189F

03/27 12:52, 3周前 , 190F
減少6倍不就代表同樣的硬體可以跑更大更
03/27 12:52, 190F

03/27 12:52, 3周前 , 191F
好的模型?
03/27 12:52, 191F

03/27 13:09, 3周前 , 192F
就說這是壓kv cache了 壓模型早就
03/27 13:09, 192F

03/27 13:09, 3周前 , 193F
有gguf等很多方法 但都是犧牲精度
03/27 13:09, 193F

03/27 13:09, 3周前 , 194F
去換
03/27 13:09, 194F

03/27 13:21, 3周前 , 195F
既有規模直接翻六倍,表示又能再增加了
03/27 13:21, 195F

03/27 14:36, 3周前 , 196F
google就是買不到貨才需要搞這個吧
03/27 14:36, 196F

03/27 14:46, 3周前 , 197F
上下文長度增加,記憶內容加大,只會
03/27 14:46, 197F

03/27 14:46, 3周前 , 198F
讓人覺得AI變聰明,使用量只會更多不
03/27 14:46, 198F

03/27 14:46, 3周前 , 199F
會更少
03/27 14:46, 199F

03/27 15:40, 3周前 , 200F
醬不就RAM買越多賺越多XD
03/27 15:40, 200F

03/27 17:50, 3周前 , 201F
爽啦
03/27 17:50, 201F

03/27 19:18, 3周前 , 202F
有沒人套住?
03/27 19:18, 202F

03/27 20:01, 3周前 , 203F
絕對有人怕了 不然也不會清一色唱衰
03/27 20:01, 203F

03/27 20:26, 3周前 , 204F
方向是不要再受制於特定硬體架構,然後
03/27 20:26, 204F

03/27 20:26, 3周前 , 205F
就炒不起來(?)
03/27 20:26, 205F

03/27 20:27, 3周前 , 206F
另外在問google買不買得到貨之前,好像
03/27 20:27, 206F

03/27 20:27, 3周前 , 207F
要問openai到底還吃不吃得下貨XD
03/27 20:27, 207F

03/27 20:40, 3周前 , 208F
太棒了真的降價我要幫gemeni升級pro了
03/27 20:40, 208F

03/27 23:56, 3周前 , 209F
需求減少 但多多益善是吧
03/27 23:56, 209F

03/28 00:57, 3周前 , 210F
沒事 閃迪今晚回神
03/28 00:57, 210F

03/28 00:57, 3周前 , 211F
雖然又A下去惹
03/28 00:57, 211F

03/28 12:20, 3周前 , 212F
快點跌 我要組
03/28 12:20, 212F

03/28 16:14, 3周前 , 213F
不是,到底有沒有人看懂,是kv變1/
03/28 16:14, 213F

03/28 16:14, 3周前 , 214F
6而已
03/28 16:14, 214F

03/28 16:14, 3周前 , 215F
看來留言很多沒玩, local llm
03/28 16:14, 215F

03/28 16:16, 3周前 , 216F
是省context ,非模型本身
03/28 16:16, 216F

03/28 21:22, 3周前 , 217F
放屁 這只會讓模型更巨大
03/28 21:22, 217F

03/29 10:30, 3周前 , 218F
3 bit!? 太猛了....
03/29 10:30, 218F
文章代碼(AID): #1fnIyy02 (PC_Shopping)
文章代碼(AID): #1fnIyy02 (PC_Shopping)