3 月 26 日,全球存储芯片市场因一篇学术论文陷入剧烈震荡,相关公司股价全线受挫。
美东时间 3 月 26 日,美股存储芯片板块大幅下挫,闪迪跌幅超 11%,西部数据跌超 7%,美光科技跌超 6%。A 股方面,恒烁股份跌超 6%,兆易创新、佰维存储、朗科科技均跌超 5%,江波龙、北京君正等个股同步走低。截至北京时间 22 点 30 分,美股盘中闪迪跌超 6%,美光科技、西部数据跌超 4%,希捷科技跌超 3%。
此次市场波动的导火索,是谷歌研究院即将在 ICLR 2026 国际学习表征会议发布的论文,其推出的新型 AI 内存压缩技术 TurboQuant,号称能将大语言模型推理的缓存内存压缩至原来的 1/6,在英伟达 H100 GPU 上实现最高 8 倍性能加速。
资本市场将这一技术解读为存储硬件需求的重大利空,恐慌性抛售随之而来,但其长期真实影响仍有待观察。
现实版 “Pied Piper” 来袭,TurboQuant 破解大模型内存难题
当前大模型运行的核心瓶颈之一是键值缓存(KV Cache),随着上下文窗口不断扩大,其内存消耗呈指数级增长,成为推高推理成本的关键因素。
TurboQuant 本质是极致量化压缩算法,团队凭借 PolarQuant 极坐标量化和 QJL 量化 JL 变换两大创新,实现零损失前提下将 KV Cache 压缩至 3-bit 精度。
业内人士将其比作美剧《硅谷》中凭借无损压缩算法颠覆行业的 Pied Piper,Cloudflare CEO 更是称其为谷歌的 “DeepSeek 时刻”,认为该技术有望大幅降低 AI 运行成本。
市场 “条件反射” 抛售,投行与业内人士发声纠偏
受 “算力存力至上” 逻辑影响,资本市场担忧该技术会导致 DRAM、HBM 物理采购量锐减,资金纷纷避险出逃。这并非存储股首次因技术恐慌下跌,2025 年初 DeepSeek 低成本模型发布时也曾引发类似质疑,“以软代硬” 正从概念走向现实。
不过华尔街投行保持理性,摩根士丹利研报指出市场存在误读:TurboQuant 仅作用于推理阶段的 KV Cache,不影响模型权重所需的 HBM,也与 AI 训练无关,6 倍压缩实则是提升单 GPU 吞吐量,而非减少总存储需求。
Lynx Equity Strategies 分析师则认为报道存在夸大,8 倍性能提升是对比老旧 32 位模型,当前推理模型已普遍使用 4-bit 量化。此外,该技术仅在 Gemma、Mistral 等开源模型验证,普适性仍需检验,且谷歌早在 2025 年 4 月就已发布相关技术论文。
国内也早有同类布局,月之暗面 KimiLinear 可降低最多 75% 的 KV Cache 使用,DeepSeek V2 的 MLA 方法也能优化缓存。
杰文斯悖论或再现,效率提升反而激活更大需求
从经济学视角看,TurboQuant 的长期影响或符合杰文斯悖论:技术效率提升降低使用成本,反而会激发更庞大的总需求。
短期来看,2026 年服务器 DRAM 需求预计增长 39%,HBM 需求年增 58%,行业增长浪潮或将覆盖技术优化效果。长期而言,压缩算法从未改变硬件采购整体规模,该技术会降低 AI 部署门槛,激活更多应用场景。
业内专家表示,推理成本重心将转向存储优化,总拥有成本大幅下降,助力中小厂商参与 AI 创新,加速 AI 民主化进程。
一篇未正式发表的论文便引发全球存储板块巨震,折射出当前 AI 基础设施投资逻辑的脆弱与敏感。截至发稿,谷歌尚未公布 TurboQuant 在 Gemini 等核心模型的部署时间表,相关讨论将在 4 月 ICLR 2026 会议持续发酵,本报将持续跟踪报道。