科技圈再迎重磅消息!小米机器人团队今日正式开源阶段性成果——Xiaomi-Robotics-0具身智能VLA模型,凭借视觉语言理解与实时执行双能力,一举刷新行业纪录。这不仅是小米在机器人领域的关键突破,更标志着中国技术在全球具身智能赛道站上领跑位置,让机器人“听懂指令、精准做事”从概念走进现实。
这款VLA模型定位视觉-语言-动作一体化,兼顾强理解与高执行,彻底解决传统机器人“懂说不会做、动作慢又僵”的痛点。模型依托多模态技术底座,能精准解析自然语言指令,结合视觉感知完成空间判断与动作规划,响应流畅无卡顿,真机操作更连贯。团队还同步公开多段演示视频,直观展现复杂场景下的稳定表现,实用性拉满。
硬核实力更靠数据说话。Xiaomi-Robotics-0在Libero、Calvin、SimplerEnv三大主流测试集全面发力,覆盖全部Benchmark场景,与全球30款主流模型同台竞技,全部拿下当前最优成绩,多项指标刷新SOTA。这份成绩单含金量拉满,直接证明模型在行业内的领先地位,也让国产具身智能技术获得全球认可。
更难得的是小米选择全量开源,代码、权重、技术文档全面开放,全球开发者均可免费使用与二次创新。这种开放姿态,既打破技术壁垒,也加速具身智能落地家用、工业、服务等场景。从手机到汽车再到机器人,小米持续深耕硬核科技,这一次开源大模型,无疑为中国智造再添一块重要拼图,未来想象空间彻底打开。