Google Research 开源新架构,AI 不再依赖云端,直接跑在手表和耳机上
创始人
2025-10-27 13:45:45

作者 | Sergio De Simone

译者 | 田橙

Google Research 近日宣布开源 Coral NPU 平台,这是一套面向硬件工程师与 AI 开发者的全栈开源方案,帮助他们克服当前阻碍人工智能在可穿戴设备和边缘设备中落地的瓶颈,包括性能受限、生态碎片化以及用户信任缺失等问题。

Coral NPU 的核心目标,是让全天候 AI 应用能在电池供电的设备上高效运行,同时为高性能场景提供灵活配置选项,实现能耗与算力的平衡。

要让 AI 真正发挥“助理”的作用,比如主动帮用户规划日程、实时翻译对话,或理解所处的物理环境,它必须能够在用户佩戴或携带的设备上本地运行。这一需求带来了根本挑战:如何在电量受限的边缘设备中嵌入环境感知型 AI,让设备脱离云端依赖,从而实现私密、安全、真正全天候的智能体验。

在将 AI 融入可穿戴设备和边缘设备的过程中,Coral NPU 平台聚焦解决三大关键问题:

  • 弥合边缘设备有限算力与前沿大模型高需求之间的鸿沟;

  • 缓解设备生态碎片化带来的开发难题,统一不同厂商的专有芯片与硬件环境;

  • 确保用户数据免受未授权访问,强化隐私保护。

在架构层面,Coral NPU 通过反向设计理念重新定义芯片逻辑:不再优先传统的标量计算,而是将重点放在 机器学习矩阵引擎上,从底层硅片开始为 AI 优化,实现更高效的本地推理性能。

在隐私防护方面,Coral NPU 采用 CHERI 等技术手段,通过精细化的内存级安全机制与可扩展的软件隔离体系,构建由硬件强制执行的安全沙箱,确保用户数据安全。

该平台基于符合 RISC-V 指令集架构(ISA) 的一组 IP 模块构建,其基础设计即可在仅消耗数毫瓦功率的情况下,达到每秒 512 GOPS(十亿次运算) 的性能。相比之下,早期的非开源版 Google Coral 可实现 4 TOPS(万亿次运算),但功耗约为 1 瓦。

Coral NPU 平台包含三大核心组件:

  • 管理数据流的标量核心;

  • 兼容 RISC-V 向量指令集的向量执行单元;

  • 用于加速神经网络计算的矩阵执行单元。

在编程层面,Coral NPU 架构与现代 C 编译器(如 IREE 与 TFLM)深度集成,并支持多种机器学习框架,包括 TensorFlow、JAX 和 PyTorch。

为进一步提升性能,Google 研究团队开发了一整套复杂的工具链:使用 TensorFlow、JAX 或 PyTorch 构建的机器学习模型,会先被转换为通用的中间表示(MLIR),再经过多层次的语义降级(progressive lowering),逐步接近硬件底层语言,最终编译为二进制文件,实现高效部署。

值得一提的是,Google Research 还与 Synaptics 合作,共同打造了首款基于这一新架构的物联网处理器,为 Coral NPU 的落地提供了首个样本。

目前,Coral NPU 平台已在 GitHub 开源。

相关内容

热门资讯

保监会起劲争取加速出台贸易养老... 保监会将起劲争取出台加速贸易养老保险成长的政策文件,成立跨行业、跨部分的和谐禁锢和信息共享机制,加速...
“老师”为何成了万能称呼(有事... 最近发现一个耐人寻味的现象——在二手交易平台上出售收藏卡,不少买家一上来就叫“老师”;在短视频平台打...
什么是贸易养老保险 什么是贸易... 什么是贸易养老保险?贸易养老保险是贸易保险的一种,它以人的生命或身材为保险工具,在被保险人大哥退休或...
国务院关于“养老保险制度改良”... 国务院关于构造奇迹单元事恋职员养老保险制度改良的抉择国发〔最新或2023(历届)〕2号各省、自治区、...
住民根基养老保险治理流程 居民... 一、缴费前提、尺度及流程:1、年满18岁至59周岁(不含在校门生),未介入其他社会养老保险的城乡住民...