华为宣布首次开源盘古大模型
创始人
2025-06-30 17:41:13

【大河财立方消息】6月30日,华为宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。

华为表示,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

据了解,此次是华为首次将盘古大模型的核心能力开源,本次开源主要包括:盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台;基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台;盘古7B相关模型权重与推理代码将于近期上线开源平台。

盘古大模型是华为推出的一系列超大规模人工智能预训练模型,涵盖自然语言处理、计算机视觉、科学计算等多个领域。其名称寓意“开天辟地”,象征着华为在人工智能基础研究和行业应用上的突破性探索。盘古模型自发布以来,已在多个行业中实现落地,包括金融、制造、能源、交通等,助力企业实现智能化升级。

据开源开发者平台GitGo上发布的信息,盘古Pro MoE是昇腾原生的分组混合专家模型。基于MoGE架构,华为团队构建了总参数量720亿、激活参数量160亿的盘古Pro MoE模型。

盘古Pro MoE在昇腾800I A2上实现了单卡1148 tokens/s 的推理吞吐性能,并可进一步通过投机加速等技术提升至1528 tokens/s,显著优于同等规模的320亿和720亿参数的稠密模型;在昇腾300I Duo推理服务器上,也实现了极具性价比的模型推理方案。

研究表明,昇腾NPU能够支持盘古Pro MoE的大规模并行训练。多项公开基准测试结果表明,盘古Pro MoE在千亿内总参数模型中处于领先地位。

责编:史健 | 审核:李震 | 监审:古筝

相关内容

热门资讯

北京市出台职称自主评审管理办法 新京报讯 据北京市人力资源和社会保障局消息,近日,北京市人力资源和社会保障局发布《北京市职称自主评审...
日本对美国的“冷漠”感到非常沮... 据环球时报援引日本共同社24日引述日本政府相关人士消息称,日本首相高市早苗已就明年3月访美的可能性向...
“2026人形机器人半马”敲定...   炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会! (来源:每日经济新闻...
新华财经晚报:人民币汇率破“7... 【重点关注】•商务部回应TikTok将在美成立合资公司:希望企业达成符合中国法律法规、利益平衡的解决...
中国有约丨从地铁里藏的高科技开...   日前,中国有约国际采访团来到天津一号线地铁的家,看小机器人用云计算、大数据、AI机器视觉检修地铁...