Arcee发布全新Trinity开源模型家族:重塑美国开源AI
创始人
2025-12-04 17:17:19

12月2日消息,位于美国的AI初创公司Arcee AI今天宣布推出Trinity系列的前两款模型——Trinity Mini与Trinity Nano Preview。它们均为开源权重Mixture-of-Experts(MoE)架构模型,在美国本土基础设施从零开始训练,并采用企业友好的Apache 2.0协议。

开发者可立即通过Hugging Face、chat.arcee.ai和OpenRouter获取模型权重、部署或修改,并支持商业使用、微调和自托管。

Arcee 的 CTO Lucas Atkins坦言:“我们想补齐美国开源AI版图中缺失的那一块。”

2025年,阿里千问、DeepSeek等中国公司接管了开源权重前沿,推出多个大规模MoE模型。

而Arcee这次选择了从底层重构路线:流程全线自主,开展完整预训练,以长上下文、推理性能和本地化企业部署为核心目标,尝试追赶中国的步伐。

Trinity Mini为26B参数MoE模型,Trinity Nano为6B模型。尽管规模不及OpenAI、Qwen或DeepSeek的旗舰版本,但基准测试显示,它们在推理与函数调用能力上表现接近甚至超过更大的同类开源模型。其第三款模型 Trinity Large(420B参数)已在训练中,预计2026年1月发布。

Arcee为Trinity打造了新的Attention-First Mixture-of-Experts(AFMoE)架构,通过改进路由机制、注意力分配以及稀疏化方式,实现了模型稳定性与吞吐效率的平衡:

  • 128 Experts,8 active per token

  • 131K上下文窗口支持

  • 200+ tokens/s实时生成速度

  • sub-3s端到端响应延迟

官方称,Trinity Mini在MMLU Zero-shot、BFCL V3等测试中表现强劲,能够为企业级工具调用、代码与数学推理场景提供支持。

Arcee AI 的数据与训练基础设施来自两个关键合作伙伴:

  • DatologyAI:负责构建10T高质量训练语料,以及Trinity Large的20T数据集(合成 + web精筛)

  • Prime Intellect:提供美国境内GPU集群与训练堆栈,包括512 H200和2048 B300集群

与许多开源模型依托海外资源训练不同,Trinity强调的是本地算力、本地数据和可审计的供应链。Arcee认为下一代企业AI不只是模型性能竞赛,而是模型主权(Model Sovereignty),即拥有训练流程与数据;可审计、可控制、可本地部署;不依赖闭源生态与海外供应链,这与传统“基于别人的基础模型做微调”的方式形成了鲜明对比。

Trinity Large将于明年1月上线,一旦成功,它将成为少数真正全栈美国本土训练的开源权重超大模型之一,或将给千问,DeepSeek等公司带来压力。(鞭牛士、AI普瑞斯编译)

相关内容

热门资讯

相岭泉韵暖 彝乡绘新篇——凉山... 凉山喜德相岭泉韵暖彝乡绘新篇“温泉+”TRAVEL矿物温泉天然溶洞特色农家乐撬动文旅康养升级昨日,在...
向企业违法发放贷款超3亿 贵州... 新京报讯 据六盘水中院官微消息,2025年12月4日,贵州省六盘水市中级人民法院一审公开宣判贵州银行...
事关稀土,商务部最新回应(12...   商务部12月4日召开例行新闻发布会  商务部于2025年12月4日(星期四)15时召开例行新闻发...
湖北竹溪县:终止项目招投标,开... 转自:长安街知事12月4日,湖北竹溪县住建局发布情况通报,回应此前媒体反映的“竹溪县住建局本级机械设...
抓住了!吉林34岁男子2县2天... 转自:扬子晚报近日,吉林省松原市长岭县发生一起恶性案件。12月4日下午,犯罪嫌疑人姚某被警方抓获。协...