英伟达最强开源权重AI模型:Nemotron 3 Super登场
创始人
2026-03-12 13:01:46

IT之家 3 月 12 日消息,英伟达公司昨日(3 月 11 日)发布博文,宣布推出 Nemotron 3 Super 开源大模型,是其迄今为止最强大的开源权重 AI 模型。

IT之家注:开源权重模型(Open-weight AI models)是指将决定 AI 模型行为的关键参数(权重)向公众免费开放的模型。与完全闭源的模型(如 GPT-4)不同,开发者可以下载并在自己的设备上运行或微调这些模型。

Nemotron 3 Super 模型拥有 1200 亿参数,采用混合专家(MoE)架构(推理时仅激活 120 亿),专为大规模运行复杂智能体(Agentic AI)系统设计。

该模型结合了先进的推理能力,能够为自主智能体高精度地完成任务。Perplexity、Palantir 和西门子等行业巨头目前已将其应用于搜索、软件开发、电信和半导体设计等核心工作流中。

随着企业将 AI 应用从聊天机器人转向多智能体,往往面临两大瓶颈:“上下文爆炸”与“推理税”。多智能体交互会产生最多 15 倍的 Token 量,导致成本飙升和目标偏移;同时,复杂智能体每步都需要推理,让系统变得昂贵且迟钝。

Nemotron 3 Super 为解决这些问题,配备了 100 万 Token 的上下文窗口。这让智能体能够将完整的工作流状态保留在内存中,从而防止目标偏移,并大幅降低多步推理的成本。

在架构与性能方面,该模型采用了混合专家(MoE)架构,将吞吐量提升了 5 倍,准确率比前代翻倍。具体而言,其 Mamba 层使内存和计算效率提高了 4 倍,而 Transformer 层则负责高级推理。

此外,模型引入了“潜在 MoE(Latent MoE)”新技术,以单个专家的计算成本激活四个专家;并支持多 Token 预测,让推理速度提升 3 倍。在英伟达 Blackwell 平台上,该模型以 NVFP4 精度运行,相比 Hopper 架构上的 FP8,内存需求更低且推理速度快 4 倍。

英伟达对该模型采取了高度开放的策略。官方不仅遵循宽松许可证开源了模型权重,还公布了完整的训练方法,包括超 10 万亿 Token 的数据集和评估配方。在实际场景中,它能一次性加载完整代码库进行端到端调试,或瞬间读取数千页财务报告。

开发者目前可通过 Hugging Face、各大云服务商(谷歌云、甲骨文,及即将上线的 AWS 和 Azure)获取该模型。同时,它已被打包为 NVIDIA NIM 微服务,支持无缝部署制本地数据中心和云端。

相关内容

热门资讯

红楼梦:林之孝家的为何不让女儿... 林之孝夫妻俩是荣国府的奴才,他们只有一个独生女儿叫林红玉,因重了宝玉和黛玉的玉字,被改名为小红。他们...
原创 章... 据3月11日报道,章子怡在香港电影编剧家协会颁奖礼上的一番发言,直接给略显沉寂的影视圈投下了一颗“资...
读别让猴子跳回背上心得体会 别...   读《别让猴子跳回背上》心得体会    职场上总有一个令人困惑的现象,为什么主管们常常忙得不可开交...
到底为谁梳个半面妆读后感 到底...   到底为谁梳个半面妆读后感    二(7)班胡瑞琪    在你下旨赐死的那一刻,我才明白自己最初的...
读榜样交投集团先进典型事迹有感...   读《榜样·交投集团先进典型事迹》有感    榜样是旗帜,代表着方向;榜样是资源,凝聚着力量。  ...