查看: 73|回复: 0
收起左侧

[IT业界] 内存焦虑有救了!谷歌发布新型AI内存压缩技术

[复制链接]
anyangmo
发表于 1 小时前 | 显示全部楼层 |阅读模式
本帖最后由 anyangmo 于 2026-3-26 12:58 编辑

内存焦虑有救了!谷歌发布新型AI内存压缩技术

快科技3月26日消息,谷歌研究院推出全新AI内存压缩技术TurboQuant,精准破解AI推理的内存瓶颈。

该技术可在不损失精度的前提下,将大语言模型缓存内存占用至少缩减6倍,推理速度最高提升8倍。


AI模型运行时有一种“工作内存”,即KV缓存(Key-Value Cache)。每当模型处理信息、生成回答时,KV缓存便会迅速膨胀,且上下文窗口越长,缓存占用的内存越大。

这已成为制约AI系统效率与成本的核心瓶颈,并非模型不够智能,而是运行时的内存难以支撑。


TurboQuant采用向量量化的方法对缓存进行压缩,使AI在占用更少内存的同时记住更多信息,且保持准确性。实现这一效果的关键在于两项技术:名为PolarQuant的量化方法,以及名为QJL的训练与优化手段。研究团队计划在下个月的ICLR 2026会议上正式发布相关成果。

研究团队在Gemma和Mistral等开源大模型上进行了严格的基准测试。实验数据显示,TurboQuant无需任何预训练或微调,即可将键值缓存高效压缩至3比特,在“大海捞针”等长上下文测试中实现零精度损失,内存占用降至原来的六分之一。

此外,在H100 GPU加速器上,4比特TurboQuant的运行速度较未量化的32比特基准提升了高达8倍。








您需要登录后才可以回帖 登录 | 快速注册

本版积分规则

手机版|杀毒软件|软件论坛| 卡饭论坛

Copyright © KaFan  KaFan.cn All Rights Reserved.

Powered by Discuz! X3.4( 沪ICP备2020031077号-2 ) GMT+8, 2026-3-26 14:22 , Processed in 0.081298 second(s), 3 queries , Redis On.

卡饭网所发布的一切软件、样本、工具、文章等仅限用于学习和研究,不得将上述内容用于商业或者其他非法用途,否则产生的一切后果自负,本站信息来自网络,版权争议问题与本站无关,您必须在下载后的24小时之内从您的电脑中彻底删除上述信息,如有问题请通过邮件与我们联系。

快速回复 客服 返回顶部 返回列表