美国 AI 圈开始出现“担心中国开源断供”的苗头了吗?10 月 20 日,在专注于开源模型讨论、拥有 55 万成员的 Reddit 分论坛“r/LocalLLaMA”上,一位网友发布了一则“当中国公司停止提供开源模型时会发生什么?”的提问,并表达了假如中国模型逐渐闭源或开始收费该怎么办的担忧。
这一提问引起了众多讨论,在这则贴文之下有一则留言得到了目前最多的点赞,其写道:“中国受益于开源模式,因为中国经济更依赖于实体商品的生产,而美国经济则更依赖于软件和服务,美国经济在这方面要脆弱得多。”
(来源:https://www.reddit.com/r/LocalLLaMA/comments/1ob)
10 月 4 日,曾帮助 Facebook 从数千万用户发展至数亿用户的 Meta 早期高管、Social Capital 公司创始人查马斯·帕里哈皮蒂亚(Chamath Palihapitiya)在知名科技播客“All-in”中直言,尽管他所创立的 Social Capital 公司已经是亚马逊 AI 托管平台 Bedrock 的 TOP 20 客户,但他已经开始将大量中国工作负载转向中国开源模型 Kimi K2,其表示理由很简单:“因为 K2 的性能确实足够强,而且说实话,比 OpenAI 和 Anthropic 便宜太多了。”
图 | 查马斯·帕里哈皮蒂亚(来源:https://www.linkedin.com/in/chamath)
在美学者为何转向中国模型?研究开销从万美元骤降至 50 元
如果说帕里哈皮蒂亚的案例距离我们比较遥远,那么在美国的华人学者或中国留学生可能对此感受更加深刻。上海交通大学本科校友、美国西北大学博士生郁家豪在近期一项研究中,便经历了选美国模型还是选中国模型的抉择,但他最终通过使用中国模型将课题花费从上万美元压缩到 50 元人民币。
在上述研究中,他需要针对离线学习数据采集进行模型选择,最初他打算使用美国 AI 公司 Anthropic 的商业模型 Claude Sonnet 4 进行数据采集,采集一小部分之后发现开销竟然达到 500 多美元。
进一步评估之后他和同事发现,使用 Claude Sonnet 4 采集完所有数据可能需要高达上万美元的开销,这远远超出了课题组的预算。于是,他开始寻求替代模型,同时他所需要的替代模型必须具备较好的智能体代码生成能力。
在此期间,恰逢国产大模型出现了一波井喷式爆发。从 Kimi-K2 到 Qwen3-coder-480B、再到 GLM-4.5,这些国产大模型的价格都远比 Anthropic 的模型要便宜。
郁家豪进行了几次小样本采集实验,结果发现这三个国产大模型的性能都接近于 Claude Sonnet 4,完全可以作为替代模型。更巧的是,GLM-4.5 在发布之后,其背后公司智谱 AI 推出一个月内试用 1 万亿 tokens 的套餐,这正好与郁家豪的实验节奏相吻合。
于是,他使用 GLM-4.5 提供的套餐完成了离线数据采集,最终采集数据的开销从原本的上万美元压缩到 50 元人民币。“在后续的模型微调中,这些数据的质量也很高,并具体反映在微调之后的模型性能上。”郁家豪告诉 DeepTech。
与此同时,他所采用的用于微调的模型也是同为国产大模型的 Qwen3-coder-30B,并表示当前全球 AI 领域都在普遍采用最新 Qwen 模型来微调任务。“这些经历让我们感慨:在 2023 年,开源领域几乎只有 Llama,大家进行模型微调研究都只基于 Llama2 进行;在 2025 年,国产大模型已经完成了接力棒的交接,代替 Llama 成为了开源领域的主流,而且和闭源模型的差距也在不断缩小。”郁家豪表示。
最终,通过使用中国开源模型,他完成了相关研究。众所周知,本轮 AI 浪潮始于 2022 年末 ChatGPT 的发布,但是中国自 2023 年初奋起直追并做出了一定成绩。2024 年秋,智源研究院的 BGE 模型曾登顶 Hugging Face 月度下载榜首。
2024 年年末,Hugging Face 的数据显示,Qwen2.5-1.5B-Instruct 当年的下载量占比达到 26.6%,均超过 Llama 3 和 Gemma 这些明星开源模型,网友还为此制作了“扎克伯格看着你使用 Qwen 而非 LLaMA”的梗图。
(来源:X)
(来源:Hugging Face)
同样是在 2024 年末,国际数学大牛陶哲轩也曾在 X 公开表达过对于 Qwen 模型的认可。
图 | 陶哲轩在 X 推文中提到 Qwen 模型(来源:X)
2025 年 7 月 30 日,在 Hugging Face 的开源模型榜单前 10 名中有 9 个来自于中国,这 9 个大模型分别属于智谱、阿里通义、腾讯混元、月之暗面;就这一榜单的前 5 名来说,当时除了第 4 名,其余几名全部是中国大模型。其中,智谱 AI 的开源模型 GLM-4.5 模型发布之后迅速冲上榜单前列,而这款模型正是前面提到的郁家豪所使用的国产大模型。
图 | 前 5 名中除了第 4 名其余几名全部是中国大模型(来源:Hugging Face)
同样是在 2025 年 7 月,美国硅谷风投公司 Benchmark 合伙人比尔·古尔利(Bill Gurley)在 X 写道,中国开源模型所产生的组合效应非常强大,模型之间可以互相学习,新模型的推出也更容易。
图 | 美国硅谷风投公司 Benchmark 合伙人比尔·古尔利(Bill Gurley)的 X 截图(来源:X)
而就在昨天,DeepSeek 发表了关于 OCR 的新论文,该论文得到了 OpenAI 联合创始成员之一、前特斯拉自动驾驶总监安德烈·卡帕西(Andrej Karpathy)的盛赞,他在 X 上写道:“我很喜欢 DeepSeek-OCR 的新论文,这是一个很好的 OCR 模型。”
图 | 美国硅谷风投公司 Benchmark 合伙人比尔·古尔利(Bill Gurley)的 X 截图(来源:X)
全球 AI 社区依赖“中国开源供给”有多深?
中国大模型目前并未得到所有知名 AI 人士的认可。然而,尽管 DeepMind 创始人戴米斯·哈萨比斯(Demis Hassabis)和 Meta 创始人扎克伯格都曾发表过不太认可中国大模型的言论,但这并不影响在美国的 AI 从业者对于中国模型的选择。除了郁家豪之外,多名在国外的 AI 学者均表示,他们正在使用中国开源大模型,同时他们也在使用美国大模型。
美国伦斯勒理工学院王革教授告诉 DeepTech:“我们团队在科研和教学中确实使用过来自中国和美国的开源模型。例如,DeepSeek 等模型具有高度的开放性,易于本地化部署,并且在强化学习驱动的推理方面为我们提供了启发,这让我们得以在多模态医学影像分析和合成生物智能方向上持续探索。”他指出,开源模型的最大价值在于,让研究者能够自由地进行实验、复现与改进算法,从而显著降低创新门槛。
新加坡南洋理工大学助理教授杜宇轩也告诉 DeepTech:“我经常会用到中国的开源大模型,比如 DeepSeek 和 Qwen。这些模型对我们构建面向特定领域的语言模型起到了关键作用。它们提供了灵活的访问权限,使我们能够基于具体科研任务采用多种策略进行优化,例如进行微调或基于强化学习的 GRPO 优化,从而让模型能够更好地适应特定的科研语境和知识体系。”
同时,开源模型降低了杜宇轩和团队的消融实验门槛,让其能够查看模型本身的能力对于下游任务到底有多大影响。这不仅让研究过程更透明,也让其能在有限的资源下找到性能和成本之间最佳平衡点。
美国南加利福尼亚大学博士生黄腾昊向 DeepTech 表示:“我经常使用 Qwen 模型用来作为后训练的基座模型,也使用了由中国开源社区贡献的 VeRL 框架。”(编者注:VeRL 是由字节跳动 Seed 团队与香港大学团队联合开发的强化学习训练框架,主要用于基于人类反馈的强化学习训练和智能体训练。)美国俄亥俄州立大学博士生郑博元告诉 DeepTech:“对于中国开源模型我用得还挺多的,特别是用 Qwen 和 DeepSeek 系列来做训练。
它们的优势主要是:首先,模型能力在开源模型中很强,并且有各种大小和类型的模型,可以满足各种训练和实验要求。以 Qwen 系列模型为例,从 text-only、QwenVL、reasoning model 都有,并且有 3B、7B 乃至更大的不同规格,此外还有 MOE 模型;其次,因为生态比较成熟,所以用起来特别方便,Qwen 在开源社区的支持做得非常好,一些开源框架也让我们可以非常快速地开展实验和验证想法。”
如果中国开源模型不再开源会怎样?
目前,全球 AI 社区对于这种“中国开源供给”的依赖程度只增不减。如果这一来源突然中断,最直接的后果会是什么?
对此,郑博元直言:“我觉得学术界对中国开源模型的依赖挺深的,特别是很多涉及到模型训练的工作都是在 Qwen、DeepSeek 之类的模型基础上的。
如果突然中断了,就是假设这些 model checkpoint 全都消失了,学术界的很多工作都会很受影响,特别是开源的工作都是相互依赖的,比如一些侧重于多模态模型的语言模型部分都会使用 Qwen、DeepSeek 之类的开源模型。”
王革也表示:“目前,全球 AI 开源生态的多样性在相当程度上依赖于中国研究团队和企业的贡献。中国的开源模型在参数规模、性能优化以及多语言适配等方面处于先进地位,并持续推动着整个社区的快速迭代与繁荣。
如果这一供给突然中断,短期内将导致开源模型的更新速度放缓,研究复现与创新实验的成本上升。从长远来看,闭源化趋势将削弱开放共享与科学协作的精神,造成生态失衡,使全球 AI 创新陷入失谐甚至失控的状态。”
杜宇轩认为,开源社区最核心的价值之一,就是避免整个行业过度依赖某一家模型或某个国家的技术体系。开源让研究者有自由去探索不同的路径,不会被技术封锁或商业垄断限制住。这种“百花齐放”的生态,其实才是推动 AI 长期进步的关键。
他继续说道,中国在全球开源 AI 社区里长期扮演着非常重要的中坚角色,很多中国团队贡献的模型、工具和数据集已经成为全球研究者的基础设施。
如果这部分供给突然中断,整个开源与闭源之间的平衡就会被打破,AI 研究可能重新回到被少数闭源体系主导的状态,而那样不仅不利于创新,也会拖慢人类在更长远目标上的探索步伐。
郑博元同时提出了一些其他看法,其表示:“如果中国开源供给真的断供,可能逐渐也会有新的开源模型出来补上这个生态位。一方面,工业界可能会开源一些较老版本或者蒸馏出来的模型,比如 OpenAI 在今年 8 月发布了 GPT-OSS。
另一方面,英伟达也放出来了很多开源模型,还有美国非营利性研究结构艾伦人工智能研究所也一直在积极推动包括模型数据在内的完全开源。”
而为了构建一个更具韧性、去中心化且真正全球化的 AI 开源未来,学术界、产业界和开源组织需要倡导或建立哪些新的协作机制与保障?王革认为,建立真正全球性的协作机制并非易事,但医疗健康领域可能是一个理想的起点。例如,通过建设共享算力与模型评测平台,可以避免资源被少数主体垄断,从而实现更加公平的科研生态。
他举例称,美国纽约州的 EmpireAI 项目就是一个值得借鉴的案例,该项目通过公共资金支持开放 AI 研究,为学术界提供算力基础设施。因此,科学界应持续推动开放科学政策,在保护知识产权与促进科研共享之间取得平衡,确保开源 AI 生态的长期可持续发展。
杜宇轩则补充说,AI 开源的未来需要产学研与开源机构之间形成一个相互支撑的协作模式:学术界可以发挥引领作用,推动开放标准、开放数据和可复现研究,把知识共享放在首位,并主动去挑战产业界的前沿问题,而非仅仅关注论文数量或模型性能;产业界则应持续加大对开源生态的投入,比如开放部分训练框架、算力平台或工具链,帮助学术界和开发者更高效地验证新想法;同时,开源组织需要推动跨国、跨机构的共治机制,确保模型和数据的开放是安全、透明且负责任的,并且要防止被滥用。
无论如何,可以预见的是,未来 AI 开源社区可能会形成“中美双引擎”的格局。那么,你认为中国开源模型会在全球 AI 领域扮演怎样的角色?如果有一天这些中国开源模型选择闭源,又会给你带来怎样的影响?
参考资料:
https://www.reddit.com/r/LocalLLaMA/comments/1ob9vvk/what_happens_when_chinese_companies_stop/
https://www.pingwest.com/a/301327
https://www.youtube.com/watch?v=ddAwgZ6ietc&t=2983s
https://peking.bjd.com.cn/content/s688b787ce4b0bd64e2e1b61d.html
https://thechinaacademy.org/interview-with-deepseek-founder-were-done-following-its-time-to-lead/
运营/排版:何晨龙