谷歌:全栈AI之王
创始人
2025-12-07 15:45:48

新智元报道

编辑:犀牛

【新智元导读】 随着Gemini 3模型与第七代TPU的强势发布,谷歌终于打破了OpenAI与英伟达主导的市场叙事,宣告这一「沉睡的巨人」已凭借硬核实力完全醒来。

ChatGPT一转眼已发布三年了。

过去三年,全球科技界都沉浸在一个由两位「双子星」所主导的叙事中——

  • 英伟达负责「卖铲子」,提供高达80%毛利的GPU硬件基石;

  • OpenAI则负责「挖金矿」,坚信Scaling Law(扩展法则),定义模型的前沿。

所有人都以为,谷歌这家一度被分析师认为在AI竞赛中「落后」的巨头,只能扮演一个追赶者的角色。

然而,现在一切都已不同。

上个月,当谷歌推出其Gemini 3系列模型和第七代TPU Ironwood时,市场的震撼达到了前所未有的程度。

这种震撼不是因为谷歌「追平」了对手,而是因为它直接重塑了游戏规则

作为新智元ASI产业图谱11月号文章,本文将深入分析谷歌是如何利用独有的「全栈AI」战略,构建起对手难以复制的护城河并重回巅峰的。

「沉睡的巨人」已完全醒来

Gemini 3发布后,就连奥特曼都罕见发声,承认在某些关键维度上确实「落后」了。

更加戏剧性的是,英伟达股价也应声下挫,过去一个月跌幅约15%。

如此大的跌幅逼得公司不得不发表声明,强调其GPU的通用性和CUDA生态的不可替代性。

与此同时,谷歌母公司Alphabet的股价却一路飙升,正迈向4万亿美元的市值。

这一切都指向了同一个事实:谷歌这个「沉睡的巨人」,现在已经完全醒来。

而这背后的力量源泉,正是其对AI技术栈的彻底垂直整合——全栈AI」战略

正如谷歌CEO Sundar Pichai在Gemini 3发布时所言——

也正因为我们在AI创新上有一套与众不同的全栈做法—— 从领先的基础设施,到世界一流的研究、模型和工具,再到触达全球数十亿人的产品——我们才能以前所未有的速度,把先进的能力带给全世界。

性能巅峰:Gemini 3

和Nano Banana的非线性突破

与Gemini 2.5 Pro相比,Gemini 3的进步并不体现在「参数翻倍」上,而是在推理能力与多模态架构上完成了一次显著跃迁。

它被谷歌定位为一款基于最先进推理能力的原生多模态模型:能在同一个模型里同时处理文本、图像、音频和视频,在统一的内部表示中做跨模态推理,并在多项主流基准测试中取得顶尖成绩。

在LMArena竞技场排行榜中,Gemini 3 Pro在所有项目中目前都排名第一。

在更强调综合智能的Artificial Analysis Intelligence Index排行榜中,Gemini 3同样以73分位居榜首。

如果说Gemini 3是智力的巅峰,那么Nano Banana Pro就是实用性和创造力的狂欢。

Nano Banana Pro一经发布,便迅速引发了一场「社交狂欢」,用户仅需通过极其简单的提示词,就能生成高质量的战力排行榜、知识绘本和各种表情包等。

谷歌CEO Sundar Pichai也提到,Nano Banana Pro在信息图表的生成上取得了突破。

这种强大的应用属性,让普通用户的创造力得以释放。

正如互联网让更多人成为创作者一样,AI工具正让更多人以脑海中的方式来表达自我。

Nano Banana Pro生成的信息图

「全栈AI」的垂直整合

模型能力的突破可能仅仅是冰山一角。

要理解谷歌的强大,则必须深入到其底层的战略本质——全栈垂直整合

如果将AI的进步视为一次登月计划,那么竞争对手可能只拥有最先进的火箭(模型)或者最有力的燃料(GPU)。

而谷歌,则建造了一座集成了燃料制造厂、火箭设计院和发射台的全套「航天中心」。

这套「全栈AI」从底层基础设施、世界级研究(模型和工具),一直延伸到面向用户的产品和平台。

换句话说,从Nano Banana这样的应用,到背后的模型,再到最底层的芯片,谷歌几乎都握在自己手里。

TPU的诞生与进化

谷歌的全栈故事,要从一场看似迫不得已的「自救」行动讲起。

2015年,谷歌内部部署了TPU v1,迅速在各部门获得热烈反响。

这并非出于炫技,而是被逼入了一个「不自研将难以支撑未来业务规模」的现实。

当时,深度学习开始广泛渗透谷歌的搜索、广告等核心业务,这让谷歌工程团队意识到一个关键问题:如果全面采用深度学习模型,谷歌全球数据中心的功耗将暴涨到难以承受的程度

当时的GPU虽然更适合训练大规模网络,但其能效并非针对实时在线推理设计的。

这让谷歌的高层意识到,继续依赖CPU和GPU的现有路线不可持续。

于是,谷歌决定自己造一块专用芯片(ASIC)——TPU,把目标定得非常简单粗暴:只干一件事,把训练和运行AI模型需要的那些矩阵、向量运算做到极致高效

到了2017年,那篇著名的Transformer论文发表后,谷歌立即意识到,这个新架构的计算模式高度规则矩阵密度极高并行度极高,简直是为TPU量身定做的。

于是,他们自己把软件架构、编译器、芯片架构、网络拓扑、散热系统都握在手里,形成全栈闭环。

TPU由此升级为谷歌AI基础设施的底座支柱

如今,TPU已发展到了第七代Ironwood(铁木)。

如果说TPU v4/v5p是兼顾训练和推理的多面手,那么Ironwood就是在继续强化训练能力的前提下,把推理放到设计核心的一代——一个为大规模推理优先、又能承担巨型模型训练的定制利器

相较第六代TPU Trillium(v6e),Ironwood在训练与推理工作负载上的单芯片性能提升超过4倍;与TPU v5p相比,峰值算力最高可达10倍。

它也是谷歌迄今性能最强、能效最高的TPU。

Ironwood单个superpod可容纳9,216颗TPU,依托9.6 Tb/s级别的芯片间互联和约1.77 PB的共享高带宽内存,大幅缓解了大模型训练和推理中的通信瓶颈,使复杂AI模型在超大规模集群上运行得更快、更稳定。

它的出现,意味着谷歌正式把资源和架构重心从「训练」转向「训练+大规模推理一体化」,并公开把「age of inference」(推理时代)定义为下一阶段AI基础设施的主战场。

通过Ironwood+AI Hypercomputer这套系统级组合拳,谷歌同时在单芯片性能和整机房级算力密度两条战线对标英伟达,争夺下一代AI基础设施的话语权。

Ironwood超级机柜的一部分,直接在一个单一域内连接了9,216个Ironwood TPU

模型与硬件的深度契合

谷歌的AI全栈战略在软硬件一体化这点上看得最清楚。

靠着这套从芯片、数据中心到模型架构都自己打通的体系,谷歌把过去层层割裂的环节拧成了一根绳,性能和效率一起往上抬。

以Ironwood为例,它就是研究人员影响硬件设计、硬件反过来加速研究成果的持续闭环产物。

当谷歌DeepMind团队需要为其顶尖模型实现特定架构突破或者优化时,他们可以直接与TPU工程师团队紧密协同创新。

这种内部协作确保了模型架构的设计始终是基于最新代际的TPU进行训练,从而相对于前代硬件实现显著的性能提升和加速。

Jupiter数据中心网络能够将多个Ironwood超级荚连接成包含数十万个TPU的集群

现在,谷歌的创新循环更进了一步,达到了「AI设计AI」的境界。

他们用一种名为AlphaChip的AI技术来设计下一代芯片的布局方案。

AlphaChip利用强化学习来生成更优化的芯片布局。

目前,这一方法已经成功应用于包括Ironwood在内的连续三代TPU的设计中。

这大大降低了谷歌对外部半导体设计工具和供应商的依赖。

通过这种自研芯片+内部优化,谷歌在算力成本上形成了天然优势,从而避免了昂贵的「CUDA税」。

巨头们的「投怀送抱」

谷歌内部实测数据显示,Ironwood在同等负载下的推理成本较GPU旗舰系统低30%-40%。

有分析指出,谷歌提供同等推理服务时的底层成本可能仅为对手的两成

在推理时代,这样的成本差异足以改变大客户的架构选择:对每年在推理上投入数千万甚至上亿美元的企业来说,压缩三到五成支出,足以改写财报。

在这一层意义上,TPU正在变成许多公司重构推理基础设施时优先考虑的算力引擎

谷歌自己也正在将TPU从「内部黑科技」打造为市场上的「生态可选项」,进而吸引像Anthropic、Meta这样的大客户。

仅Anthropic一家就计划接入高达100万个TPU。

谷歌还顺势启动了TPU@Premises计划,将TPU直接部署在企业的数据中心,使得客户可以在本地以极低的延迟使用推理能力。

近期还有市场传闻称,Meta正评估在2027年把TPU引入自家数据中心,并最早从明年起通过谷歌云租用部分算力——无论最终如何落地,这类讨论本身就说明TPU已经进入一线互联网公司的选项集。

回到更可量化的层面:根据谷歌第三季度财报,谷歌云新增客户数量同比增长近34%,超过10亿美元的大单规模已超过前两年的总和,超过70%的客户正在使用谷歌云的AI产品。

这些变化,在很大程度上都与谷歌在算力成本和产品形态上的优势紧密相关。

C端:全栈AI的终极引擎

正如上文谷歌CEO劈柴哥所言,谷歌的全栈AI战略,是一个涵盖AI基础设施、世界级研究(包括模型和工具)以及将AI带给全球用户的产品和平台的全面系统。

C端产品——特别是其核心业务如搜索、地图以及Gemini app和Nano Banana Pro等新的AI应用——不仅仅是战略的最终输出,它们更是驱动整个全栈AI生态系统向前发展的核心引擎,是实现技术验证数据积累商业闭环的关键。

谷歌凭借其无可匹敌的用户规模和数据广度,为其定制硬件和领先模型提供了无与伦比的「炼丹炉」和「试验场」。

这些数据源包括谷歌搜索、Android、YouTube等,谷歌通常自己使用这些数据。

而像Gemini系列模型,则被视为是贯穿谷歌所有产品的主线。

在2025年第三季度,谷歌的第一方模型(如 Gemini)仅通过客户直接API,每分钟就处理约70亿个tokens。

若把搜索、YouTube、Android等所有界面加起来,每月被模型消化的tokens已超过1.3千万亿个(quadrillion),一年内增长了20多倍。

这些数据展示了C端产品作为AI能力载体的恐怖规模,也使得Gemini应用在推出后,月活跃用户数迅速超过6.5亿,形成了驱动AI进步的数据飞轮。

以谷歌AI Mode为例,自推出以来其在美国实现了强劲且持续的周环比增长,查询量在一个季度内翻了一番。

截至三季度,已拥有超过7500万的日活用户,推广到了全球40种语言。

最重要的是,AI Mode已经为搜索带来了增量的总查询增长

12月2日,谷歌已宣布将AI Mode融入进搜索中,给搜索用户提供类似ChatGPT的聊天体验。

这种C端产品成功将AI技术转化为实实在在的业务增长,进一步奠定了谷歌在核心领域的竞争优势。

简言之,谷歌的C端产品(如搜索),是其全栈AI战略的需求源数据场商业出口

这些C端产品一方面制造了真实的流量和使用压力,另一方面又不断把反馈灌回谷歌的TPU和Gemini,让它们在高频迭代中越跑越省钱、越跑越高效。

全栈AI:改写技术文明底座

在当下这个以「推理为先」的AI时代,谷歌率先把竞争从单一模型的短跑,换成了全栈系统的马拉松。

至此,真正的护城河不再是谁有更多的芯片、更先进的模型,而是谁掌握了「基础设施-研究-产品-数据」的闭环。

展望未来,如果说过去互联网解决的是「信息是如何被找到的」,那么全栈AI要回答的将是「世界如何被重新组织」。

以谷歌为代表的科技公司,能否将这套AI闭环,转化为更公平的教育更高效的科研更可持续的产业,将在很大程度上决定下一代技术文明的形状——

那时,我们也许不再刻意谈论AI,因为它将成为文明的默认背景。

参考资料:

https://cloud.google.com/blog/products/compute/ironwood-tpus-and-new-axion-based-vms-for-your-ai-workloads

https://cloud.google.com/transform/ai-specialized-chips-tpu-history-gen-ai?utm_source=chatgpt.com

秒追ASI

相关内容

热门资讯

过户费800,秒变“0公里二手... 旧国标的电动自行车或借助二手市场继续流通。12月1日,不符合《电动自行车安全技术规范》(下称“新国标...
出售蒂佳婷,雅诗兰黛再瘦身 转自:北京日报客户端作为曾经风靡一时的韩妆代表品牌之一,蒂佳婷也要被卖了?近日,有消息传出,雅诗兰黛...
中国企业家代表团访美推动两国深... 新华财经旧金山12月7日电(记者吴晓凌)应美国商会邀请,中国贸促会组织中国企业家代表团2日至6日访问...
以工代赈,助力就业增收(锐财经... 来源:人民日报海外版国家发展改革委日前发布的数据显示,2025年以工代赈中央预算内投资规模达355亿...
流感高发,如何科学预防? (来源:嘉兴日报)转自:嘉兴日报   ■记者 钟淑婷  通讯员 成星学 沈俊珺  本报讯 随着冬季气...