业界首个!蚂蚁开源万亿参数混合线性思考模型,IMO金牌水平
创始人
2026-02-13 21:50:49

智东西

作者 | 程茜

编辑 | 李水青

智东西2月13日消息,今天,蚂蚁集团开源全球首个基于混合线性架构的万亿参数思考模型Ring-2.5-1T

根据官方信息,相比蚂蚁2025年10月发布的万亿级思考模型Ring-1T,Ring-2.5-1T在生成效率、推理深度和长时程任务执行能力三个关键维度上实现提升,且在长文本生成、数学推理与智能体任务执行上达到开源领先水平。

在生成效率上,Ring-2.5-1T在32K以上长文本生成场景中,对比上代模型访存规模降低至1/10,生成吞吐提升3倍以上。

在深度思考能力方面,该模型在国际数学奥林匹克竞赛(IMO 2025)和中国数学奥林匹克(CMO 2025)自测均达到金牌水平,IMO为35分、CMO为105分。

目前,该模型已经适配Claude Code等智能体框架与OpenClaw个人AI助理,支持多步规划与工具调用。

Ring-2.5-1T的模型权重与推理代码已在Hugging Face、ModelScope等主流开源平台发布,官方平台Chat体验页和API服务将在近期上线。

一、拿下多项开源SOTA,达IMO金牌水平

为了评估Ring-2.5-1T的深度思考与长时任务执行能力,蚂蚁研究人员选择了具有代表性的开源思考模型DeepSeek-v3.2-Thinking、Kimi-K2.5-Thinking和闭源API GPT-5.2-thinking-high、Gemini-3.0-Pro-preview-thinking-high、Claude-Opus-4.5-Extended-Thinking作为比较。

蚂蚁集团公布的多项权威基准测试结果显示,Ring-2.5-1T在数学、编程和逻辑推理的IMOAnswerBench、AIME 26、HMMT 25、LiveCodeBench、ARC-AGI-V2等高难度推理任务以及Agent搜索、工具调用和软件工程Gaia2-search、Tau2-bench和SWE-Bench Verified等长时任务执行方面均实现了最先进的开源性能。

此外,蚂蚁还对深度思考(Heavy Thinking)模式下的模型性能进行了额外测试,Ring-2.5-1T在IMOAnswerBench、HMMT-25等数学竞赛推理基准和LiveCodeBench-v6代码生成基准中超越所有对比模型。

其中,在IMO 2025(满分42分)中,Ring-2.5-1T获得35分,达到金牌水平;在CMO 2025(满分126分)中,该模型获得105分,超过金牌分数线78分和国家队集训队选拔线87分。

研究人员比较了Ring-2.5-1T和Ring-1T的答案发现,前者在推理逻辑的严谨性、高级数学证明技术的应用以及答案表述的完整性方面均有提升。

智能体搜索任务Gaia2-search中,Ring-2.5-1T在开源模型中取得了SOTA性能。Gaia2环境强调跨应用工具协作和复杂任务执行能力,Ring-2.5-1T在规划生成和多步工具调用方面均展现出较高的效率和准确性。

二、三大关键维度提升,能快速适配Claude Code、OpenClaw

相比蚂蚁2025年10月发布的万亿级思考模型Ring-1T,Ring-2.5-1T在生成效率、推理深度和长时程任务执行能力三个关键维度上有显著改进。

首先在生成效率方面,通过采用高比例线性注意力机制,Ring-2.5-1T将内存访问开销降低至1/10,并将超过32K token序列的生成吞吐量提高了3倍以上,适用于深度思考和长时程任务执行。

其次在深度思考层面,该模型在RLVR(基于可验证奖励的强化学习)基础上引入密集奖励机制,为推理过程提供严格性反馈,使Ring-2.5-1T同时达到IMO 2025和CMO 2025(自测)的金奖水平。

最后是长程任务执行,Ring-2.5-1T通过大规模完全异步智能体RL(强化学习)训练,增强了解决复杂任务的长时程自主执行能力,使其能快速适配Claude Code等智能体编程框架和OpenClaw个人AI助手。

三、引入混合线性注意力架构,可提升长程推理场景吞吐量

Ring-2.5-1T基于Ling 2.5架构,通过优化注意力机制,可提升长文本推理的效率与稳定性。

作为实现自主模型架构的关键进展,Ling 2.5架构在Ling 2.0架构的基础上引入了一种混合线性注意力架构。通过增量训练,研究人员将Ling 2.0架构中的GQA(分组查询注意力)升级为MLA(多头线性注意力)+Lightning Linear结构的1:7比例。

具体来说,基于其先前发布的Ring-flash-linear-2.0技术路线图,研究人员将部分GQA层转换为Lightning Linear注意力,以提升长时程推理场景中的吞吐量。

同时为了进一步压缩KV缓存,研究人员将剩余的GQA层近似转换为MLA,同时针对QK Norm(查询-核归一化)和Partial RoPE(部分旋转位置编码)等特征进行针对性改进,从而增强Ling 2.5架构的表达能力。

在此基础上,模型激活参数规模从前代的51B提升至63B,并且在混合线性注意力架构的支持下,其推理效率相比Ling 2.0仍实现大幅提升。

与仅具备32B激活参数的Kimi K2架构相比,在1T总参数量下,Ling 2.5架构在长序列推理任务中的吞吐表现优势显著,且随着生成长度增加,效率优势持续扩大。

▲在一台配备8块H20-3e GPU的机器上,批处理大小=64,比较不同生成长度下的解码吞吐量

▲在一台配备8块H200 GPU的机器上,批处理大小=64,比较不同生成长度下的解码吞吐量

结语:从短对话到复杂规划,大模型需突破长文本瓶颈

随着AI大模型应用从短对话向长文档处理、跨文件代码理解、复杂任务规划等场景扩展,Ring-2.5-1T可以缓解模型在长输出场景下计算开销高、推理速度慢的问题。

此前,传统架构在面对超长文本、多模态内容、复杂业务流程时,普遍面临算力成本高、响应延迟大、部署难度高等问题,蚂蚁百灵团队此次通过底层架构创新,或为行业提供一条兼顾性能、成本与扩展性的技术路径。

相关内容

热门资讯

快而精医药获多家机构评级更新,... 经济观察网 近期多家华尔街机构更新了对快而精医药(QGEN.N)的评级与目标价。2026年2月6日,...
地方财政收入“东稳西快” 今年...   证券时报记者 郭博昊 贺觉渊  2025年,全国财政收支呈现总体平稳、结构优化态势,27个省份实...
年轻时写过“锄禾日... 年轻时写过“锄禾日当午”,为官后变脸急速,一餐竟然费鸡三百只?下面趣历史小编为大家详细介绍一下相关内...
爱摆排场的唐朝宰相,侍妾成群遭... 爱摆排场的唐朝宰相,侍妾成群遭恶人掠夺,他被杀后皇帝不敢追查?下面趣历史小编为大家详细介绍一下相关内...
长征精神1500字 长征精神征... 为纪念中国工农红军长征胜利80周年,传承和发扬伟大的长征精神,太阳教育网小编为大家带来了关于弘扬长征...