腾讯混元开源首款混合推理MoE模型,激活参数仅13B
创始人
2025-06-27 22:02:00

新京报贝壳财经讯(记者罗亦丹)6月27日,腾讯混元宣布开源首个混合推理MoE模型 Hunyuan-A13B,总参数80B,激活参数仅13B,效果比肩同等架构领先开源模型,但是推理速度更快,性价比更高。这意味着,开发者可以用更低门槛的方式获得更好的模型能力。

MeE是DeepSeek大模型采用的架构类型,并在DeepSeek爆火后得到了业界的更多认可。而本次腾讯混元所发布的,是业界首个13B级别的MoE开源混合推理模型,基于先进的模型架构,Hunyuan-A13B表现出强大的通用能力,在多个业内权威数据测试集上获得好成绩,并且在Agent工具调用和长文能力上有突出表现。

即日起,模型已经在 Github 和 Huggingface 等开源社区上线,同时模型API也在腾讯云官网正式上线,支持快速接入部署。

校对 穆祥桐

相关内容

热门资讯

新 华 都:AI营销已实现精准... 证券之星消息,新 华 都(002264)12月18日在投资者关系平台上答复投资者关心的问题。 投资者...
全球钱在换方向,AI信仰开始松... 今天A股普涨反弹,但有一个细节非常“反直觉”:指数在拉,但追涨资金明显不足;AI权重方向冲高回落,而...
AI 眼镜,我们准备好让 AI... 2025 年,AI 眼镜成了科技圈的 " 显学 "。 Meta 的 Ray-Ban 智能眼镜在 20...
全球大模型第一股,会是智谱吗?   炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!   题图|视觉中国 ...