上个月,Oracle 高管信心满满地放出一串数字:未来五个财年,公司将靠向 OpenAI 和其他人工智能开发者出租专用云服务器,创造 3810 亿美元收入。
消息一出,华尔街一片欢呼。
这家曾被称为数据库时代的遗老的公司,突然摇身一变成了AI 新贵,股价飙升,分析师们齐声喝彩。
可几周后,幻觉被戳破。The Infromation 拿到的一份内部文件给这场资本狂欢泼了一盆冰水:Oracle 的 AI 云业务毛利率 低得可怜——只有十几个百分点,甚至不如沃尔玛卖牙膏。
图片来源:The Infromation
财报显示,截至 8 月的三个月里,Oracle 靠出租英伟达 GPU 服务器实现收入约 9 亿美元,但最终只留下 1.25 亿美元毛利——每卖出 1 美元,只能剩下 14 美分。生意看上去体量庞大,实际上利润薄得几乎透明。
过去一年里,AI 云业务规模暴涨近三倍,但毛利率始终趴在地板上,在 10% 到 20% 之间徘徊,平均约 16%。有些批次甚至“赔本赚吆喝”——租老芯片赚不到钱,租新芯片反而更亏。更扎心的是,这 14% 的毛利率里,还包括人工、电力和部分折旧;如果把折旧算全,净毛利率还得再被吞掉 7 个百分点。
相比之下,传统云业务的毛利率一般在 60% 左右,而Oracle 的 AI 云相当于传统云利润水平的 1/4 以下。
换句话说,Oracle 正在用几乎不赚钱的方式,为 OpenAI 搭建“超级机房”。
“买芯片再出租”并不是一桩好生意
AI算力所需的英伟达GPU芯片价格高得惊人,其运行成本远超传统云服务器。Oracle每季度在芯片租赁、电力和网络互联设备上的投入,都让利润空间被极度压缩。而为了赢得像OpenAI这样的超级客户,Oracle与竞争对手纷纷提供大幅折扣。据知情人士透露,这些GPU租赁价格比公开定价低出一截,进一步侵蚀了利润。
美联社报道称,Oracle在截至5月的财年中,通过租赁云服务器获得约 100亿美元收入,其中 20% 来自GPU服务器。在最近一个季度,这一比例上升至 27%。Oracle在内部预测中甚至暗示,到2028年,其GPU云业务收入可能与传统数据库和ERP等非云业务相当。
但问题是,这些增长是靠牺牲利润换来的。在同一季度,Oracle因为部署新一代英伟达 Blackwell GPU 而亏损接近 1亿美元。原因在于:当Oracle准备好新机房时,客户通常要数周甚至数月后才开始使用和付费,这段“真空期”使资产利用率下降,而电力与运维成本却仍在计入账面。
内部数据显示,Oracle GPU服务器的利用率介于 60% 到 90%之间,取决于所使用的芯片型号。英伟达CEO黄仁勋曾宣称“新芯片的推出会立刻淘汰旧型号的需求”,但Oracle的财务数据反而显示出相反趋势——2020年的旧款Ampere芯片仍在创造稳定收入,而最新的Blackwell芯片则让利润率下滑。
Oracle如今最大的风险在于客户集中。内部文件披露,在截至8月的三个月里,Oracle签下的3170亿美元云合同几乎全部来自OpenAI。
这让Oracle陷入了客户依赖悖论: 没有OpenAI,它的云业务无法增长;有了OpenAI,它的利润被压到极限。
Guggenheim Securities分析师John DiFucci 揭示了Oracle内部的战略博弈:“公司内部也在争论,是维持高利润率、还是签下这些低利润大单。最终他们选择了后者——因为只要收入规模继续上升,就算利润薄,也能带来额外的现金流。”
这种策略短期内确实有效。Oracle的股价在过去三个月上涨了近40%,市值增加超过2000亿美元。但正如彭博社分析师Katie Roof所言:“这是一种营收驱动的繁荣,而非利润驱动的繁荣。”
微软、亚马逊和谷歌的云部门虽然同样受AI基础设施支出影响,但整体利润率依然稳定。微软CFO Amy Hood 在摩根士丹利会议上承认,AI数据中心的建设“确实给Azure的毛利率带来压力”,但通过优化效率,影响正在逐步减弱。
相比之下,Oracle的毛利率下降更为剧烈,因为它大部分数据中心并非自建,而是从第三方(如Crusoe)租赁——这使其每个GPU单元的固定成本更高。
系统性风险正在成形:当一家公司串联了芯片、云、能源与资本
判断一家企业是否构成系统性风险,关键不在“规模”两个字,而在它能沿着多少条路径传染整个系统。
而如今的 OpenAI,几乎把所有路径都绑在了自己身上。
上游,它同时与英伟达、AMD 签下巨额供货与融资安排;
中游,它捆绑 Oracle、CoreWeave 等云计算与数据中心巨头;
下游,它掌控着 300 万家企业客户、65% 的《财富》500 强公司、以及几乎所有头部 AI 应用的底层算力。
中间那根隐形的线,则穿过美国的电力系统、债券市场与资本流动的神经。FT的一篇报道中详细总结了OpenAI与产业链千丝万缕的关系。
图片来源:Financial Times
最典型的,是刚刚发布的与 AMD 的合作协议。OpenAI 以多代 GPU 采购为交换,获得最高 10% 的 AMD 授权认股权证,行权价仅 1 美分这意味着它可以几乎“白拿”AMD 的股份,只要达到一定的出货和市值目标。
换句话说,采购—持股—再融资—再采购的金融回路已经闭合。
当协议公布后,AMD 股价单日飙涨,连英伟达都被动被“带杠杆”了一轮。
据《金融时报》估算,OpenAI 与英伟达和 AMD 的交易金额可能分别高达 5000 亿美元和 3000 亿美元;与 Oracle 的长期算力合同支出约 3000 亿美元;CoreWeave 也已公开披露,与 OpenAI 的计算合同价值超过 220 亿美元。再加上与软银、甲骨文共同发起的 “星际之门(Stargate)”超级数据中心项目,总投资规模接近 5000 亿美元。
这些交易合计将在未来十年内,为 OpenAI 提供 20 吉瓦的计算能力——大致相当于 20 座核电站的发电量。每 1 吉瓦的 AI 计算能力部署成本约为 500 亿美元,整体账面成本逼近 1 万亿美元。
DA Davidson 分析师 Gil Luria 表示:“OpenAI 没有能力做出任何这些承诺。”他还补充说,OpenAI 今年可能损失约 100 亿美元。
更危险的,是所谓“循环交易”。OpenAI 与英伟达、AMD、Oracle、CoreWeave 彼此交叉投资、互为客户与供应商——现金流、产能、估值互相牵制,谁都离不开谁。一环松动,整条链条都可能反向收缩。
彭博社的分析形容这种格局像“自我喂养的生态系统”:只要信任存在,它就能膨胀;一旦信任塌陷,它就会同时塌向所有方向。
图片来源:高盛
在算力供给端,CoreWeave 的角色尤其微妙。
这家新贵在短短一年内与 OpenAI 多次追加合同,光是 2025 年 9 月新增的订单就高达 65 亿美元,使双方累计合同金额攀升至 224 亿美元。更重要的是,这些合同直接挂钩 OpenAI 的“Stargate”超算计划,而 CoreWeave 本身又获得英伟达的投资与供货担保——一条融资、供货、交付全闭环的通道正在成形。当这个闭环足够大时,任何一个环节——无论是交付延误、信贷收紧,还是需求回落——都可能被放大为系统性冲击。
与此同时,风险还在能源和金融层面被进一步外溢。
美国能源署(EIA)预测,2025—2026 年,美国全国用电量将连续创历史新高,主因正是 AI 数据中心的爆发。到 2030 年,AI 相关数据中心的耗电量预计将扩大十倍;在某些电力紧张的州,比如德州和弗吉尼亚,AI 服务器的能耗已经与居民区抢电。穆迪在最新报告中警告称:AI 数据中心的过快扩张,正在把风险从科技行业传导到公共基础设施与地方财政层面。
当一个公司能左右电网的稳定,它就不再只是商业主体,而是一个系统变量。
金融市场上的风险结构,也在悄然改变。OpenAI 的 400 多亿美元融资,表面上看由软银领投,实则背后是一套复杂的结构化债券游戏。公司把未来 API 的应收账款打包成债券,卖给养老基金、主权基金和对冲基金。
换句话说,OpenAI 的“未来营收”已经被提前质押给资本市场。一旦资金链出现波动,这批债券会像 2008 年的次贷产品一样,成为高收益债市场的定时炸弹。
在 Bernstein 的一份研报中,甚至评价道:“Sam Altman 有能力让全球经济倒退十年。”
从“大而不倒”到“系统性风险”,只隔一个外部冲击
AI基础设施越重要,利润率越低;越低的利润率,又迫使公司通过规模扩张维持估值。于是,一个由高资本投入、低边际利润、强客户绑定构成的循环体系,正在整个产业中蔓延。
OpenAI正是这个体系的中心节点。它不仅消耗算力,也反向制造“算力需求”的叙事。AI模型越大、推理调用越多,GPU的价值越高,资本越愿意为之融资。但在链条的另一端,像Oracle这样的供应商却在悄悄承担这场扩张的代价。
只要 AI 需求延续强劲,OpenAI 就会继续充当产业的“算力央行”,用合同与叙事给生态“注入流动性”。但当它在合同结构、能源侧硬约束、云侧利润缓冲与集中度四个维度同时加杠杆,任何一个外部冲击——电价与电网的阶段性约束、上游交付拖延、资本市场风险偏好的快速切换、或监管口径的边际收紧——都可能把“叙事驱动的繁荣”转化为“结构放大的回撤”。
从这个意义上说,OpenAI 不仅“大而不倒”,更已经长成了 AI 时代的系统性风险:它的稳定与否,不再只是它的事,而是整个智能基础设施与宏观信用周期的事。
来源:
[1] https://www.ft.com/content/5f6f78af-aed9-43a5-8e31-2df7851ceb67