华为开源 SINQ AI 量化技术:显存占用最高削减 70%
创始人
2025-10-06 09:14:38

IT之家 10 月 6 日消息,华为苏黎世计算系统实验室于 9 月 26 日发布全新开源量化(Quantization)技术 SINQ(Sinkhorn 归一化量化),旨在大幅降低大语言模型(LLM)的显存需求与运行成本。

这项技术无需复杂的校准过程,可直接集成至现有工作流,并且其代码已通过 Apache 2.0 许可证在 GitHub 和 Hugging Face 上开放,允许任何组织免费使用、修改和商业化部署。

SINQ 的核心优势在于其卓越的压缩性能。根据测试,该技术能将不同规模模型的显存占用普遍削减 60% 至 70%。这意味着,过去需要超过 60GB 显存才能运行的大型模型,现在仅需约 20GB 的环境即可部署。

此前需要企业级 GPU(如英伟达 A100 80GB 或 H100)计算的任务,现在仅用一张售价约 1600 美元的消费级显卡(如英伟达 RTX 4090)便可胜任。对于云端用户而言,每小时的算力成本也随之锐减。

该技术通过两大创新实现了性能突破。首先,SINQ 采用“双轴采样”策略,替代了传统的单尺度因子量化,通过分别为矩阵的行和列设置独立的缩放向量,更灵活地分散量化误差,有效抑制了异常值的影响。

其次,SINQ 引入了一种受 Sinkhorn 迭代启发的快速归一化算法,用于平衡矩阵行列的标准差,从而最小化“矩阵不平衡”现象,提升了量化后的模型精度。

在性能评估中,SINQ 的表现全面超越了多种主流的免校准量化方法(如 RTN、HQQ)。在处理 Qwen3、LLaMA 等多种主流模型时,SINQ 在 WikiText2 等标准测试集上显著降低了模型的困惑度(Perplexity),其性能表现接近甚至达到了需要数据校准的方案水平。

此外,SINQ 的量化速度极快,比 HQQ 快约 2 倍,更是比 AWQ 快 30 倍以上,充分满足了研究与生产环境中对效率的严苛要求。

IT之家注:量化一种模型压缩技术,通过降低模型内部数据的精度来减小其体积和显存占用。好比将一张高精度的照片(如浮点数)转换为一张文件更小、但肉眼看差别不大的普通照片(如整数),从而让模型运行得更快、更省资源。

困惑度(Perplexity)示评估语言模型性能的常用指标。它衡量的是模型对于一段新文本的“惊讶”或“不确定”程度。困惑度越低,表示模型对文本的预测越准确,语言能力越强。

参考

相关内容

热门资讯

一位校长的建议,为何被写入“十... 全国人大代表刘希娅提出推进基础教育“小班化”教学的建议,被国家发改委、教育部采纳,认为“很有必要,而...
北方稀土:拟出资1.12亿元建... 转自:财联社【北方稀土:拟出资1.12亿元建设年产10000吨稀土金属合金生产线项目】财联社3月13...
北方稀土:拟与宁波铄腾合资成立... 每经AI快讯,3月13日,北方稀土公告称,公司拟以自有资金出资11,560万元人民币与宁波铄腾新材料...
科润智控:拟在浙江省江山市经济... 格隆汇3月13日|科润智控公告,公司计划在浙江省江山市经济开发区城南工业园实施技改扩建智慧新能源电网...
今日财经要闻TOP10|202... 1、伊朗副外长:允许部分国家船只通过霍尔木兹海峡  据伊朗伊斯兰共和国通讯社12...