文 |无言
2026年1月1日,MacaronAI旗下MindLab搞出了个大动静。
他们推出的首款产品MinT平台,居然让普通CPU机器就能训练万亿参数的AI模型,一天就能跑完一轮训练。
MinT:CPU也能玩转万亿RL
之前AI圈里练万亿参数模型,那可是大公司的专属游戏。
没上千张顶级GPU,想都别想启动训练,中小团队和高校研究者只能看着算力门槛叹气。
MinT偏要打破这个规矩,它用了LoRA技术,不用改动模型全部参数,只针对性训练一小部分关键模块就行。
这个技术方案已经开源,还得到了NVIDIA官方的转载。
我本来以为这种级别的技术突破,得是老牌巨头才能搞定,没想到是一群年轻人牵头。
MindLab的团队配置确实亮眼,创始人Andrew毕业于MIT,现在还担任深圳清华大学研究院研发中心主任,之前做的FireAct是Agent微调领域的经典工作。
首席科学家马骁腾博士是清华自动化系出身,一直深耕强化学习。
团队里的人不是顶尖高校就是OpenAI、DeepMind这些头部实验室出来的,累计发表的论文和引用量都很能打。
这样的团队做出来的产品,技术底子自然不用怀疑。
MinT最让人惊喜的是成本控制,之前大模型强化学习的花费高到吓人,现在它直接把成本压了下来,让更多人有了参与的可能。
后训练之争:MinT对标Tinker
AI圈之前一直围着预训练打转,模型越做越大,数据越用越多。
但练完之后问题就来了,模型参数一旦定死,就像被冻住了一样,遇到新情况还是会重复犯错,没法适应变化的需求。
后来大家慢慢发现,强化学习才是破局的关键。
它能让模型不再只是记数据,而是学会推理,这一点已经被DeepSeekR1、Gemini这些前沿模型验证过。
海外那边,前OpenAICTOMira创办的ThinkingMachines,早就盯上了这个赛道,推出的Tinker平台在硅谷火得一塌糊涂,还拿了巨额融资。
本来以为Tinker会一直领跑后训练领域,没想到MinT不仅追了上来,还实现了反超。
MinT和Tinker的接口完全兼容,开发者不用改多少代码就能迁移过来。
更关键的是,MinT比Tinker更早实现了万亿参数的LoRA-RL,这可是业界首个该级别的成果。
如此看来,后训练赛道的竞争,已经从海外独角戏变成了全球同台竞技。
打破垄断:国产工具惠及更多人
MinT的出现,最受益的当属Agent领域的创业公司和高校实验室。
这些团队手里有好数据、好想法,却常常被算力和复杂的训练框架困住。
现在有了MinT,他们不用再为硬件发愁,本地CPU写几行代码,就能把训练任务分发到GPU集群执行。
切换不同模型也特别简单,只需要修改代码里的一个字符串就行。
目前已经有顶尖高校用它做基础研究,原本需要多节点才能完成的训练,现在单节点就能搞定。
创业公司也在垂直行业里落地,从智能客服到专业工具适配,都能看到MinT的身影。
在AI核心工具领域,国产产品能做到对标甚至超越海外标杆,真的很不容易。
现在数据安全越来越受重视,MinT作为国产平台,还能适配KimiK2、Qwen3-VL这些国内前沿模型,这一点尤为关键。
它没有搞技术封锁,反而开源方案、降低门槛,让更多人能用上先进的后训练工具。
MinT的横空出世,其实是给AI后训练时代带来了新的玩法。
它证明了AI技术不一定非要靠堆算力、砸钱才能推进,极致的工程效率同样能实现突破。
未来,随着这类国产工具的不断迭代,相信会有更多中小团队和研究者参与到AI创新中,中国AI也能在这个关键赛道上掌握更多主动权。
AI的下半场,从来不是少数人的游戏,而是更多人的共同探索。