【全文2万字版】Anthropic CEO 最新深度对话: AI潜力, OpenAI竞争, GenAI业务, 末日论| 附视频
创始人
2025-07-31 13:02:48
0

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

(来源:Web3天空之城)

文: Web3天空之城| 未经许可不得转载

城主说本次最新访谈中, Anthropic CEO Dario Amodei 深入探讨了对人工智能未来的看法。Amodei 详细阐述了他对AI能力呈指数级增长的坚定信念,并解释了这为何让他产生强烈的紧迫感。他回应了外界对他“末日论者”的批评,并以其个人经历强调,他对AI风险的关切源于对技术巨大潜力的深刻理解。访谈还覆盖了Anthropic的商业模式、与科技巨头的竞争、人才策略以及开源AI的真正影响。Amodei 最终强调,在推动技术进步的同时,必须以严肃和诚实的态度来平衡其巨大的利益与风险,倡导一场关于AI安全的“竞优”。

需要指出的是, Amodei伟光正的表达背后, 其实有很多商业化的考量,包括粗暴中断Windsurf的API供应, 更不用说对东大Claude用户的封堵. 所以各位可以带着自己的思考看待他的谈话.

核心观点

Dario Amodei: 当人们叫我末日论者时,我非常生气。当,当有人说这家伙是个末日论者,他想拖慢事情的进展。你听到了我刚才说的,就像,你知道的,我的父亲因为,你知道的,本可以在几年后出现的疗法而去世。我理解这项技术的好处。

主持人: 我相信你已经听过像黄仁勋这样的人的批评,他们说,好吧,Dario认为他是唯一一个能安全地构建它的人,因此想控制整个行业。

Dario Amodei: 我从来没有说过,我从来没有说过类似的话。那是个无耻的谎言。那是我听过的最无耻的谎言。

主持人: Anthropic的首席执行官Dario Amodei加入我们,讨论人工智能的未来发展方向,生成式人工智能是否是一项好生意,并回击那些称他为末日论者的人。他和我们一起在旧金山Anthropic总部的工作室。Dario,很高兴再次见到你。欢迎来到节目。

Dario Amodei: 谢谢你邀请我。

主持人: 那么,让我们回顾一下您过去几个月的情况。您说人工智能可能会消灭一半的入门级白领工作。当您得知OpenAI将要收购Windsurf时,您切断了Windsurf对Anthropic顶级模型的使用权限。您向政府要求出口管制,并惹恼了英伟达首席执行官黄仁勋。你怎么了?

Dario Amodei: 我认为,我认为Anthropic,我自己和Anthropic,总是专注于努力去做和说我们相信的事情。而且我认为,随着我们越来越接近更强大的人工智能系统,我想更强烈、更公开地表达这些事情,以使观点更清晰。我多年来一直说,我们有这些,我们可以详细讨论它们,但是我们有这些缩放定律,人工智能系统变得越来越强大。它们正从几年前的水平发展而来,当时它们几乎没有连贯性。现在,几年前,它们还只是聪明的优秀高中生的水平。现在我们已经达到了聪明的大学生、博士生的水平,而且它们开始,它们开始应用到整个经济领域。

所以我想所有与人工智能相关的问题,从国家安全问题到经济问题,都开始变得非常接近,接近于我们,接近于我们实际上要面对它们的时候。所以,所以我认为随着这些问题越来越近,我,即使,在某种程度上,Anthropic一直在说这些事情,但我认为这些事情的紧迫性已经上升。而且,而且,而且,我想确保我们,我想确保我们说出我们相信的东西,并且警告世界可能存在的弊端。

即使,没有人能说会发生什么。我们,我们正在说我们,我们认为可能发生的事情,我们认为很可能发生的事情。我们尽我们所能地支持尽管它通常是对未来的推断,没有人,没有人能确定。但是,我认为我们,我们认为自己有义务,有义务警告世界将会发生什么。

这并不是说,我认为人工智能有大量的积极应用,对吧?我一直在继续谈论这件事。我读过这个,我写过这篇文章,《充满爱意的机器》。事实上,我觉得我和Anthropic经常能够比一些自称为乐观主义者或加速主义者的人更好地阐明人工智能的好处。所以我认为我们可能比任何人都更欣赏这些好处。但正是因为如此,因为如果我们把一切都做对,我们就能拥有一个如此美好的世界,所以我感到有义务警告大家注意风险。

指数增长的信念:为何AI发展比想象中更快

主持人: 所以这一切都来自你的时间线。基本上,你,似乎你的时间线比大多数人都要短。所以你感到一种紧迫感,想要走出去,因为你认为这是迫在眉睫的。

Dario Amodei: 我不确定。我认为这很难预测,尤其是在社会层面。所以如果你说,人们什么时候会部署人工智能?或者公司什么时候会使用,X美元的人工智能支出?或者,人工智能什么时候,人工智能什么时候会被用于这些应用?或者它什么时候会推动这些医学疗法?这有点难以说清。我认为底层技术更具可预测性,但仍然不确定,仍然没有人知道。

但我认为在底层技术方面,我开始变得更有信心。这并非毫无不确定性。我认为我们所处的指数增长可能会,可能会逐渐减弱,可能会完全停止。我认为可能有,我不知道,20%或25%的几率,在未来两年内的某个时候,这些模型会因为我们不理解的原因,或者可能因为我们理解的原因,比如,数据或计算资源的可用性,而停止变得更好。然后我所说的一切都,都显得,显得完全愚蠢。大家都嘲笑我发出的所有警告。而且,而且,我只是,我只是完全接受这一点,考虑到,考虑到我所看到的分布。

主持人: 所以我应该说,这是其中一部分,我们的谈话是我正在撰写的一篇关于你的简介的一部分。我已经和二十多位与你共事过、了解你、与你竞争过的人交谈过。我会在节目说明中链接它。如果有人想读可以免费阅读。但我与所有人交谈后得出的一个主题是,在所有主要的实验室负责人中,你的时间表最短。你刚才,就在刚才提到了它。那么,你为什么有这么短的时间表?我们为什么要相信你的时间表?

Dario Amodei: 这真的取决于你所说的时间线是什么意思。那么有一件事,而且,这些年来我一直坚持这一点,在人工智能领域里有一些术语,比如通用人工智能(AGI)和超人工智能。比如,你会听到一些公司的领导人说,我们已经实现了通用人工智能,我们正在转向超人工智能。或者说,某人停止研究通用人工智能,开始研究超人工智能,这真是令人兴奋。所以我认为这些术语完全没有意义。我不知道什么是通用人工智能。我不知道什么是超人工智能。听起来像一个,听起来像一个营销术语。

主持人: 这就是营销。

Dario Amodei: 听起来像是,某种,某种旨在激活人们的多巴胺的东西。所以你在公开场合会看到,我从不使用那些术语。而且,我实际上,很谨慎地批评那些术语的使用。但我认为,我认为尽管如此,我的确是最看好人工智能能力快速提升的人之一。

我认为真实存在,并且我一遍又一遍说过的是指数增长。也就是说,每隔几个月,我们就能得到一个比之前的AI模型更好的AI模型,而且我们通过在AI模型中投入更多的计算资源、更多的数据、更多新型训练模型来获得它。最初,这是通过所谓的预训练完成的,也就是你只是把互联网上的一堆数据输入到模型中。现在我们有了第二阶段,那就是强化学习,或者测试时计算,或者推理,或者你想怎么称呼它都可以。我认为它是涉及强化学习的第二阶段。现在,正如我们在自己的模型中所看到的,以及我们在其他公司的模型中所看到的,这两个阶段都在同步扩大规模。我没有看到任何阻碍即进一步扩大规模的因素。关于如何扩展强化学习(RL)方面的任务,有一些东西。我们在数学和代码方面看到了更多的进展,这些模型正接近于高专业水平,但在更主观的任务方面进展较少。但我认为这仅仅是一个暂时的障碍。

所以当我看到它时,我看到了这种指数增长,然后我说,你看,人们不太擅长理解指数增长,对吧?比如,如果某件事每六个月翻一番,那么,在它发生前两年,看起来它只完成了1/16。而且,而且,我们现在正处于2025年中期。而且这些模型在经济方面真的开始爆发式增长,对吧?如果你看看模型的能力,它们开始饱和所有的基准测试。如果你看看收入,Anthropx每年的收入都增长了10倍。每年我们都比较保守,然后说,它不可能增长10倍。这次,我,我从不,我从不假设任何事情,而且实际上总是非常保守地说,我认为业务方面将会放缓。但我们在2023年从零增长到1亿。我们在2024年从1亿增长到10亿。而且,今年,在今年上半年,我们已经从10亿增长到,我认为截至今天而言,它已经远远超过40亿,可能达到45亿。

所以如果你考虑一下,假设这种指数增长持续了两年。我不是说它会这样,但假设它持续了两年,你就会进入数千亿的级别。我不是说会发生那种情况。我是说现在的情况是,当你处于指数增长时,你真的会被它欺骗。距离指数增长完全失控还有两年,它看起来好像才刚刚开始。所以这就是基本的动态。

我们在90年代的网络上看到了这一点,对吧?就像,网络速度和计算机的底层速度变得越来越快。几年后,在所有这些之上建立一个数字全球通信网络成为可能,而几年前这是不可能的。几乎没有人,除了一些人之外,真正看到了其中的影响以及它发生的速度。这就是我的观点来源。这就是我的想法。现在,我不知道,如果一大堆卫星坠毁,也许互联网的发展会花费更长的时间。如果发生经济崩溃,也许会花费更长的时间。所以我们无法确定确切的时间表。但我认为人们被指数增长所迷惑,没有意识到它可能有多快,我认为它可能会有多快,虽然我不确定。

技术前沿:克服学习瓶颈与规模化挑战

主持人: 人工智能行业的很多人都在谈论规模化带来的收益递减。这与你刚才描绘的愿景不太相符。他们错了吗?

Dario Amodei: 就我们所见,我只能谈论Anthropic的模型。但就我在Anthropic的模型方面所看到的,如果我们看看,我们以编码为例。编码是一个领域,我认为Anthropic的模型进展非常迅速。采用速度非常快。我们不仅仅是一家编码公司。我们计划扩展到许多领域。但是如果你看看编码,我们发布了3.5 SONNET,一个我们称之为3.5 SONNET v2的模型,我们把它叫做3.6 SONNET,3.7 SONNET,然后是4.0 SONNET和4.0 OPUS。而且,那一系列的四到五个模型,每一个在编码方面都比上一个有了显著的提升。

如果你想看基准测试,你可以看看SWEBENCH,我认为从18个月前,它还在3%左右,一直增长到,72%到80%,取决于你如何衡量。并且实际使用量也呈指数级增长,我们正朝着自主方向发展,你可以直接使用这些模型。我认为在Anthropic编写的代码,实际上大部分都是,目前是由或至少是在一个模型参与下编写的。你和其他一些公司也发表了类似的声明。因此,我们认为进展非常快,指数增长仍在继续,我们没有看到任何收益递减。

主持人: 但似乎大型语言模型存在一些缺陷。例如,持续学习。几周前,我们请了Dwarkesh来。这是他的说法,他也在他的Substack上写了关于这件事的文章。缺乏持续学习是一个巨大的问题。在许多测试中,大型语言模型(LLM)的基线可能高于普通人,但你只能使用开箱即用的能力。所以,你只需要制造模型,就这样。它不会学习。这似乎是一个明显的缺陷。你对此怎么看?

Dario Amodei: 首先,我想说,即使我们从未解决持续学习问题,即使我们从未解决持续学习和记忆问题,我认为大型语言模型在经济规模上产生影响的潜力仍然非常高,对吧?如果我想到我曾经从事的生物学和医学领域,比如,假设我有一位非常聪明的诺贝尔奖获得者,我说,好的,你发现了所有这些东西,你拥有如此聪明的头脑,但是,你不能阅读新的教科书或吸收任何新的信息。我的意思是,那会很困难,但是,如果你有1000万个这样的人,他们仍然会在生物学上取得很多突破。就像,他们会受到限制,他们能够做一些人类无法做的事情,并且有些事情人类可以做,而他们却不能做。但即使那样,即使我们将其作为上限,那也相当令人印象深刻和具有变革性,即使我说你永远无法解决这个问题,我认为,人们低估了它的影响。

但是,你看,上下文窗口越来越长,而且模型实际上会在上下文窗口中学习,对吧?所以,正如我,你知道的,在上下文窗口中与模型对话,我进行了一次对话,它吸收了信息,模型底层的权重可能没有改变,但是,你知道的,就像我在这里和你说话一样,我们在进行对话,我听你所说的事情,并且我,你知道的,思考,并且我,比如,回应它们,模型也能够做到这一点。而且从机器学习的角度来看,从人工智能的角度来看,没有理由我们今天不能把上下文长度做到1亿个单词,对吧?这大致相当于人类一生所听到的内容。我们没有理由不能做到这一点。这实际上是推理支持。因此,再次强调,即使这样也填补了许多空白。不是全部空白,但它填补了许多空白。

然后还有很多事情,比如学习和记忆,它们确实允许我们更新权重。所以,有很多事情,比如,各种类型的强化学习、学习训练,很多年前,我们曾经谈论过内循环和外循环,对吧?内循环就像是,我经历了一些事情,并且在这些事情中学习到了一些东西,然后我试图针对这些事情的生命周期进行优化。而外循环则是在各个事件中,智能体的学习。所以我认为,也许这种内循环、外循环的结构是一种学习持续学习的方式。我们在人工智能领域学到的一件事是,每当感觉存在一些根本性的障碍时,比如两年前,我们认为在推理方面存在一个根本性的障碍,结果发现这只是强化学习(RL)。你只需要用强化学习进行训练,然后让模型写下一些东西,让模型写下东西来尝试解决客观的数学问题。在不太具体的情况下,我认为,我们可能已经有一些,一些,一些证据表明,这是另一个不像看起来那么困难的问题。我们会因规模效应而成功,再加上稍微不同的思考方式。

主持人: 你是否认为你对规模的痴迷可能会让你对一些新技术视而不见,就像德米斯·哈萨比斯所说的那样,为了达到通用人工智能(AGI),或者你可以称之为超强人工智能,或者任何其他名称,我们都在谈论人类水平的智能。我们可能需要一些新技术才能实现这一点。

Dario Amodei: 所以,我们正在开发新技术,我们每天都在开发新技术。

主持人: 好的。克劳德非常擅长代码,而且我们,我们并没有在外部过多谈论为什么克劳德如此擅长代码。

Dario Amodei: 为什么它如此擅长代码?就像我说的,我们不在外部谈论这个。

主持人: 我必须问一下。

Dario Amodei: 所以,我们制作的每个新版本的克劳德都,对架构进行了改进,对我们输入的数据进行了改进,对我们用来训练它的方法进行了改进。所以我们一直在开发新技术。新技术是我们构建的每个,模型的一部分,而且,这就是为什么我们,我说过这些关于,比如,我们正在尽力优化,比如,人才密度,尽可能地优化。比如,你需要那种人才密度才能发明新技术。

万亿赛道的商业逻辑:Anthropic的生存与发展之道

主持人: 有一件事一直悬而未决,那就是也许Anthropic是拥有正确想法但资源不足的公司。因为你看看XAI和Meta内部发生的事情,埃隆在那里建立了他的庞大集群。马克·扎克伯格正在建设这个5吉瓦的数据中心,他们投入了大量资源来扩大规模。有可能吗?我的意思是,Anthropic显然已经筹集了数十亿美元,但这些都是万亿美元级别的公司。

Dario Amodei: 所以我们已经筹集了,我想,到目前为止,略低于200亿美元。这还不错。这可不是小数目。我还要说,如果你看看我们正在与亚马逊一起建设的数据中心的规模,我不认为我们的数据中心规模扩张比该领域的任何其他公司小很多。在很多情况下,这些事情受到能源的限制,也受到资本化的限制。当人们谈论这些大笔资金时,他们说的是几年时间内的事情,对吧?当你听到这些声明时,有时它们还没有得到资金支持。我们已经看到了人们正在建设的数据中心的规模,而且我们实际上非常有信心,我们将在他们建设的数据中心的规模的粗略范围内。

主持人: 你提到了人才密度。你怎么看待马克·扎克伯格在人才密度方面所做的事情?我的意思是,将它与这些庞大的数据中心结合起来,似乎他将能够参与竞争。

Dario Amodei: 所以这实际上非常有趣,因为,我们注意到的一件事是,相对于其他公司,我认为Anthropic的人被挖走的要少得多。这不是因为他们没有尝试。我和很多人谈过,他们在Anthropic收到了这些offer,但他们拒绝了,他们甚至不和马克·扎克伯格谈话,他们说,不,我要留在Anthropic。我们对此的普遍回应是,我在公司的整个Slack频道上发布了一些东西,我说,听着,我们不愿意为了单独回应这些offer而妥协我们的薪酬原则,我们的公平原则。

在Anthropic,事情的运作方式是有一系列的级别。当一个候选人进来时,他们会被分配一个级别,我们不会就这个级别进行谈判,因为我们认为这不公平。我们希望有一种系统化的方法。如果,如果马克·扎克伯格,朝着飞镖靶扔飞镖并且击中了你的名字,那并不意味着你应该比你旁边那位,和你有同样技能,同样天赋的人多拿10倍的薪水。

我对情况的看法是,你真正会被这件事伤害的唯一方式是,如果你允许它通过恐慌,通过不公平地对待员工以试图捍卫公司,来摧毁你的公司文化。我认为实际上这对公司来说是一个团结的时刻,我们没有屈服。我们拒绝妥协我们的原则,因为我们有信心,人们在Anthropic是因为他们真正相信这个使命。而且,我认为这有点说明了我如何看待这件事。我认为他们所做的,是试图购买一些无法被购买的东西。那就是与使命的一致性。

而且,我认为这里存在选择效应。比如,他们得到的是那些最热情、与使命最一致、最兴奋的人吗?

主持人: 但他们有人才和GPU。你没有低估他们吗?

Dario Amodei: 我会看看事情如何发展。我对他们试图做的事情相当悲观。

成本与价值:揭秘生成式AI的商业模式

主持人: 那么让我们来谈谈你的业务,因为很多人一直在想,生成式人工智能的业务是真的吗?我也很好奇。我一直都有问题。你谈到了你筹集了多少钱,接近200亿美元。你从谷歌筹集了30亿美元,从亚马逊筹集了80亿美元,从由光速创投领投的新一轮融资中筹集了35亿美元,我和他们谈过。你的游说是怎样的?因为你不是大型科技公司的一部分,你是在独自发展。你只是提出规模法则,然后说,能给我一些钱吗?

Dario Amodei: 所以我对这件事的看法一直是,人才是最重要的。所以,如果你回到三年前,我们当时的处境是,我们只筹集到了区区数亿美元。OpenAI已经从微软筹集了130亿美元。大型超大规模科技公司坐拥1000亿美元、2000亿美元。基本上,我们当时的推销是,我们知道如何比其他人更好地改进这些模型。可能存在一个曲线。可能存在一个关于缩放定律的曲线。但是你看,如果我们能用1亿美元做到别人用10亿美元才能做到的事情,并且我们能用100亿美元做到他们用1000亿美元才能做到的事情,那么投资于Anthropic的资本效率是投资于其他公司的10倍。

你更愿意以10倍的成本做任何事情,还是从一大笔钱开始?如果你能以10倍的成本做事情,那么资金只是一个你可以弥补的暂时缺陷。如果你拥有这种内在能力,能以相同的价格,比其他任何人更好,或者与其他人一样好,但价格低得多地构建东西,那么投资者不是白痴,或者至少他们不总是白痴。

主持人: 这取决于你去哪一个。

Dario Amodei: 我不打算指名道姓。但他们基本上理解了资本效率的概念。所以3年前,我们所处的境地是这些差异就像1000倍。现在你在说,拥有200亿美元,你能与1000亿美元竞争吗?我的回答基本上是肯定的,因为人才密度。我之前说过,但在它目前的规模上,熵增实际上是历史上增长最快的软件公司。所以我们在2023年从零增长到1亿美元,2024年从1亿美元增长到10亿美元。今年,我们已经从10亿美元增长到,我想我之前说过,45亿。所以每年增长10倍,我的意思是,每年,我怀疑我们将以这个规模增长。并且每年,我几乎不敢公开说出来,因为我会想,不,这不可能再次发生。所以我认为,那种规模的增长,就我们与大型公司竞争的能力而言,已经不言自明了。

主持人: 好的。那么CNBC表示,Entropic公司60%到75%的销售额是通过API实现的。这是根据内部文件得出的。

Dario Amodei: 这个说法现在还准确吗?

主持人: 我不会给出确切的数字,但大多数的确是通过API实现的,尽管我们也有一个蓬勃发展的应用程序业务。而且我认为最近,Max层级(高级用户使用)以及云代码(程序员使用)。所以我认为我们有一个蓬勃发展且快速增长的应用程序业务。

Dario Amodei: 但是,大多数是通过API实现的。

主持人: 所以你是在这项技术上下了最纯粹的赌注。就像OpenAI可能在赌聊天GPT,而谷歌可能在赌无论技术发展到什么地步,它都可以集成到Gmail和日历中。那么,你为什么要在这种纯粹的技术本身上下注呢?

Dario Amodei: 我的意思是,我会说,我不会完全那样表达。我认为我会将其更多地描述为我们押注于该模型的商业用例,而不是押注于API本身。只是该模型的首批商业用例是通过API实现的。正如你提到的,OpenAI非常关注消费者端。谷歌非常关注谷歌现有的产品。我们的观点是,如果有什么不同的话,人工智能的企业应用甚至会比人工智能的消费者应用更大。我应该说是商业应用,因为它包括企业、初创公司、开发者,以及使用该模型提高生产力的超级用户。

我也认为,成为一家专注于商业用例的公司,实际上能给我们更好的激励,以改进模型。我认为值得进行的一个思想实验是,假设我有一个模型,它和生物化学专业的本科生一样优秀。然后我改进它和生物化学专业的博士生一样优秀。如果我面向消费者,对吧,如果我给他们聊天机器人,然后我说,好消息,我已经把这个模型在生物化学方面的水平从本科生提高到了研究生。也许,我不知道,只有1%的消费者会在意这个。99%的人只会觉得,反正我也搞不懂。但是,假设我现在去找辉瑞,我说,我已经把这个模型在生物化学方面的水平从本科生提高到了研究生。这将会是世界上最重要的事情。他们可能会为此付出10倍的价格。这对他们来说可能有10倍的价值。

因此,让模型解决世界难题,使其更加智能,并且能够带来许多积极的应用,就像我在《充满爱意的机器》一书中写到的那样,解决生物医学问题,解决地缘政治问题,解决经济发展问题,以及更平凡的事情,比如金融、法律、生产力或保险,这都是总体的目标。我认为这为尽可能地开发模型提供了更好的激励。而且我认为在许多方面,这甚至可能是一项更积极的业务。我会说,我们是在押注人工智能的商业用途,因为它与指数级增长最吻合。

主持人: 好的,那么简单说一下,你们是如何决定采用编码这一用例的?

Dario Amodei: 所以最初,就像大多数事情一样,我们试图优化模型,使其在很多方面都表现得更好。而编码尤其在价值方面脱颖而出。我曾与数千名工程师合作过。大约在一年前到一年半前,我曾合作过的最优秀的工程师之一说,以前所有的编码模型对我来说都毫无用处。而这个模型最终能够做一些我做不到的事情。然后在我们发布之后,它开始迅速被采纳。大约在这个时候,许多编码公司,如Cursor、Windsurf、GitHub、Augment Code开始迅速流行起来。然后,当我们看到它如此受欢迎时,我们就加倍投入。我的观点是,编程特别有趣,因为A,它的普及速度很快。并且B,通过模型更好地掌握编程实际上有助于你开发下一个模型。所以它有很多,我想说,优势。

主持人: 现在你通过Cloud Code销售你的AI编程。但非常有趣的是,定价模型让一些人感到困惑。你可以花费每月200美元来获得同等价值。我和一位开发者谈过。他们从你的API获得了相当于每月6000美元的价值。埃德·齐特隆指出,你的模型越受欢迎,如果人们是这项技术的超级用户,你就会损失更多的钱。那么这怎么说得通呢?

Dario Amodei: 所以实际上,定价方案和速率限制出人意料地复杂。所以其中一些基本上是我们在最大层级发布Cloud Code的结果,我们最终将其联系在一起,实际上并没有完全理解人们使用这些模型的方式以及他们实际能够获得的收益所带来的影响。所以在过去几天,截至本次采访时,我们已经对此进行了调整,尤其是在像Opus这样的大型模型上。我认为现在不可能用200美元的订阅费花费那么多了。而且未来可能会有更多变化。

但我们始终会有大量使用的用户和少量使用的用户。这并不一定意味着我们在赔钱,有些用户,如果通过API积分来衡量,他们通过消费者订阅获得的优惠比通过API产品获得的要好。对吧?这里有很多假设。我可以告诉你,其中一些是错误的。

主持人: 事实上,我们并没有赔钱。但我想还有一个问题是,你是否能继续服务于这些用例而不提高价格。仅举几个例子,有些开发者感到不满,因为使用Anthropic的新模型和游标花费了他们比以往更多的钱。我交谈过的一些初创公司表示,Anthropic的情况不太好,因为他们无法获得GPU。至少他们认为是这样。而且我最近在Repl.it采访了Amjad Massad,我们将在下周播出,他说有一段时间,每个token的价格,使用这些模型的价格,都在下降。然后停止下降了。那么发生了什么,导致这些模型的运行成本对于Anthropic来说如此昂贵,以至于它遇到了自己的瓶颈?

Dario Amodei: 再次说明,我认为你在这里做出了一些假设。

主持人: 所以我才问CEO。

Dario Amodei: 我思考这个问题的方式是,我们从这些模型创造了多少价值的角度来考虑。对吧?所以随着模型变得越来越好,我考虑它们创造了多少价值。还有一个单独的问题是,价值如何在模型制造者、芯片制造者和底层应用程序制造者之间分配。所以再说一次,在不透露太多细节的情况下,我认为你的问题中存在一些不一定正确的假设。

主持人: 你能告诉我哪些吗?

Dario Amodei: 我要这么说。我预计提供特定水平智能的价格会下降。我预计提供前沿智能的价格,它将提供某种不断增长的经济价值,可能会上升也可能会下降。我猜它可能会保持在现在的水平。但同样,所创造的价值会大幅上升。所以两年后,我猜我们会拥有成本与今天大致相同的模型,但它们将能够更自主、更广泛地完成工作,比今天的能力更强。

主持人: Amjad提到的事情之一是,他认为更大的模型,考虑到它们的规模,运行起来不会那么密集,或者更密集,因为架构和我们谈到的一些技术,它们只点亮了模型的某些部分。所以他的想法,我希望我能如实地传达这一点,是Anthropic可以运行这些模型,而后端不会有太多的负担,但仍然保持这些价格不变。我认为我要在此划清界限的是,为了达到软件利润率,有一些报告表明Anthropic略低于软件毛利率,你将不得不为这些模型收取更高的费用。

Dario Amodei: 所以,再次声明,我认为更大的模型比更小的模型运行成本更高。

主持人: 好的。

Dario Amodei: 我认为你提到的技术可能指的是混合专家模型之类的。所以无论你的模型是否是混合专家模型,比如混合专家模型是一种更廉价地运行模型的方式,它们拥有给定的参数数量,这是一种训练模型的方式。但如果你没有使用该技术,那么不使用该技术的更大的模型比不使用该技术的更小的模型运行成本更高。如果你使用了该技术,那么使用该技术的更大的模型,比使用该技术的更小的模型运行成本更高。所以我认为这有点扭曲了情况。

主持人: 基本上,我只是在猜测,并且我试图从你这里找到真相。

Dario Amodei: 听着,所以,就模型的成本而言,有一件事你会感到惊讶,人们,人们会将这件事归咎于,哦,天哪,将利润率从x百分比提高到y百分比将非常困难。我们一直在进行改进,使模型比以前的效率提高50%。我们仅仅处于优化推理的开端。推理能力从几年前到现在有了巨大的提升。这就是价格下降的原因。

主持人: 那么,多久才能实现盈利呢?因为我认为今年的损失将达到约30亿。这是他们的预测。

Dario Amodei: 所以我会区分不同的事物。运行模型的成本,对吧?因此,模型每赚一美元,就需要花费一定的成本。这实际上已经相当有利可图了。还有一些独立的事项。有支付人员工资和类似建筑物的成本。实际上,在整个大局中,这并不算太大。最大的成本是训练下一个模型的成本。

我认为这种公司亏损且不盈利的说法有点误导性。当你查看缩放定律时,你会开始更好地理解它。因此,作为一个思想实验,这些数字对于Entropic来说并不精确,甚至相差甚远。让我们假设在2023年,你训练一个耗资1亿美元的模型。然后在2024年,你部署2023年的模型,它创造了2亿美元的收入。但你花费10亿美元在2024年训练一个新模型。然后在2025年,这个耗资10亿美元的模型创造了20亿美元的收入,你花费100亿美元来训练下一个模型。因此,该公司每年都是不盈利的。它在2024年损失了8亿美元。然后在2025年,它损失了80亿美元。所以,这看起来像是一个非常没有盈利能力的企业。

但是,如果我换个角度,考虑的是每个模型是否盈利,对吧?把每个模型都想象成一个风险投资。我在这个模型上投资了1亿美元,然后在第二年从这个模型中获得了2亿美元。所以那个模型有50%的利润率,而且,像这样给我赚了1亿美元。第二年,公司投资了10亿美元,赚了20亿美元,或者抱歉,下一个模型,公司投资了10亿美元,并且创造了。所以每个模型都是盈利的,但公司每年都是亏损的。

我不是,这是一种风格,我不是声称这些数字适用于Anthropic,也不是声称这些事实,但这是一种普遍现象。

主持人: 对于Anthropic来说是这样吗?

Dario Amodei: 这种普遍的动态,总体而言,是对正在发生的事情的解释。所以,在任何时候,如果模型不再变得更好,或者如果一家公司停止投资于下一个模型,你可能会,你可能会用现有的模型拥有一项可行的业务,但每个人都在投资于下一个模型。所以最终它会达到某种规模。但我们花费更多来投资下一个模型这一事实表明,明年业务的规模将比前一年更大。可能发生的情况是,模型停止变得更好,并且存在这种一次性的成本,就像是浪费金钱一样,我们花了一大笔钱,但随后这些公司,这个行业将会回到这种,回到这个平台期,回到这个盈利水平,或者指数增长可以继续下去。所以我认为这是一种冗长的方式来说明,我认为这真的不是思考问题的正确方式。

主持人: 对。但是开源呢?因为如果你停止了,假设你停止投资模型,而开源赶上来了,那么人们就可以换成开源。现在,我很想听听你对此的看法,因为当涉及到Anthropic的业务时,人们和我谈论的一件事是,最终存在这种风险,即开源变得足够好,你可以把Anthropic拿走,然后放入开源。

Dario Amodei: 所以,人们有,我认为这个行业的一个特点是,我早期就看到了,我在人工智能的历史早期就看到了。人工智能经历的每一个社群,都有一套关于事物如何运作的启发式方法。就像我回到,2014年的人工智能时,就有一个现有的人工智能和机器学习研究社区,他们以某种方式思考问题,并且认为,这只是一种时尚,这是一种新事物,这行不通,这无法扩展。然后由于指数效应,所有这些事情都被证明是错误的。然后类似的事情发生在公司内部将人工智能部署到各种应用上的人们身上。然后在创业生态系统中也出现了同样的想法。

我认为现在我们正处于这样一个阶段:世界上的商业领袖,比如投资者和企业,他们有一整套关于商品化、护城河的词汇,价值会归于哪一层,价值会累积到哪一层。开源是一种你可以看到所有正在发生的事情的想法,它具有重要意义,它在某种程度上破坏了,它破坏商业的想法。而且我发现,作为一个完全不来自那个世界的人,一个从未使用过那种词汇的人,这是一种不知道任何事情反而经常让你做出比那些用上一代技术思维方式思考问题的人更好的预测的情况。

而且,我想,这一切都只是在用冗长的方式说,我认为开源在人工智能领域的工作方式与在其他领域不同,主要是因为对于开源,你可以看到,你可以看到模型的源代码。在这里,我们无法看到模型内部。人们经常称之为开放权重,而不是开源,以此来区分。但是很多好处,比如很多人可以一起工作,它是累加性的,这些都不能以同样的方式运作。所以,我实际上一直把它看作是一种转移注意力的东西。

当我看到它时,当我看到一个新的模型出现时,我不在乎它是开源的还是非开源的。比如,如果我们谈论DeepSeek,我不认为DeepSeek是开源的这件事很重要。我认为我会问,它是一个好模型吗?对。它比我们在你知道的那些事情上做得更好吗?这才是我在意的唯一事情。实际上哪种方式都无关紧-要。因为最终,你必须将其托管在云端。在云端托管它的人会进行推理。这些都是大型模型。它们很难进行推理。相反,你看到权重时可以做的很多事情,我们越来越多地在云端提供这些功能,你可以在云端微调模型。你可以,我们甚至在研究,用什么方法来,来,以某种方式,研究模型的激活,作为一种可解释性接口的一部分。上次我们在引导方面做了一些小事情。所以我认为,从竞争的角度来看,这是一个错误的思考方向,我考虑的是哪些模型擅长我们所做的任务。我认为开源实际上是一个转移视线的手段。

主持人: 但如果它的运行是免费且廉价的。

Dario Amodei: 它不是免费的。你必须,你必须,你必须,你必须在推理上运行而且有人,必须有人让它在推理上变得快速。

影响力的根源:个人经历与使命驱动

主持人: 好的。所以我想更多地了解达里奥这个人。我们还有一些时间。所以我有一些关于你早年生活以及你如何成为现在的你的问题。那么在旧金山长大是什么感觉?

Dario Amodei: 这座城市,当我刚在这里长大时,还没有真正,还没有真正高档化太多。当我长大时,科技繁荣还没有,还没有发生。它当时还没有发生。它发生在我读高中的时候,实际上我对它没有兴趣。它完全,它完全让我感到无聊。我当时想成为一名科学家。我对物理和数学感兴趣。而且,像写一些网站之类的想法,实际上我一点兴趣都没有,比如创办一家公司。那些根本不是我感兴趣的事情。我当时对发现基本的科学真理感兴趣。我对如何做一些能让世界变得更好的事情感兴趣。所以,这才是更,而且,我眼睁睁地看着科技繁荣在我周围发生,但我感觉,我本可以从中学习到各种各样现在会有帮助的东西,但我实际上没有关注,也没有兴趣,即使我身处其中。

主持人: 所以你是一位犹太母亲和一位意大利父亲的儿子。

Dario Amodei: 没错。

主持人: 在我来自的长岛,我们称之为披萨百吉饼。

Dario Amodei: 披萨百吉饼。我从未,我从未听过这个词。

主持人: 那么你和父母的关系怎么样?

Dario Amodei: 我的意思是,我一直,我一直,我一直和他们很亲近。我觉得他们给了我一种,一种是非观以及世界上什么才是重要的。我觉得,灌输一种强烈的责任感,这也许是我记忆最深刻的事情。他们总是那些有责任感的人,并且,想要,想要让世界,想要让世界变得更好。我觉得,这是我,我从他们身上学到的主要事情之一。它一直是一个非常,非常,非常充满爱的家庭,一个非常关爱的家庭。我和我的妹妹丹妮拉非常亲近,她当然成为了我的,成为了我的,成为了我的联合创始人。而且,我想我们很早就决定,我们想以某种,某种方式一起工作。我不知道我们是否想象过它会以如此大的规模发生。但是,我想,我想它真的,那是我们很早就决定要做的事情。

主持人: 这些年来,与你相识的人告诉我,你父亲的疾病对你产生了很大的影响。你能分享一些关于这件事的信息吗?

Dario Amodei: 他病了很长时间,最终在2006年去世。所以,这实际上是促使我做某事的原因之一,我不认为我们在这段采访中提到过,但在我进入人工智能之前,我进入了生物学。所以,我去了,我出现在,我出现在普林斯顿大学,想要成为一名理论物理学家。而且,我在那里的最初几个月里,在宇宙学方面做了一些工作。而且,那段时间正好是我父亲去世的时候。而且,这件事确实对我产生了影响,并且是说服我进入生物学的原因之一,试图解决人类疾病和生物学问题。

因此,我开始与我在普林斯顿大学所在的系的生物物理学和计算神经科学方面的一些人员交谈。这就是导致我转向生物学和计算神经科学的原因。然后,在那之后,我最终,我最终进入了人工智能领域。我进入人工智能领域的原因实际上是这种动机的延续,也就是说,当我在生物学领域花费多年时间后,我意识到生物学中潜在问题的复杂性感觉超出了人类的尺度。为了理解这一切,你需要成百上千的,人类研究人员。而且,他们经常难以协作或分享他们的,结合他们的,他们的知识和人工智能,当时我才刚开始看到人工智能的发现,但我觉得它是唯一一种可以弥合这种差距的技术,可以将我们带到超越人类的规模,从而,充分理解和解决生物学的问题。所以,这里有一条贯穿的线索。

主持人: 对。我可能理解错了,但我听到的一件事是,当他患病时,他的疾病基本上是无法治愈的。而且已经有一些进展,您可以分享更多吗?

Dario Amodei: 现在的一些进展已经使它变得更容易控制了。

主持人:

Dario Amodei: 那,那是真的。实际上,实际上仅仅在,也许在他去世后的三四年里,他所患疾病的治愈率从50%上升到大约95%。

主持人: 我的意思是,父亲因为一种本来可以治愈的疾病而被夺走生命,这一定让人感到非常不公平。

Dario Amodei: 当然。但它也告诉你们解决相关问题的紧迫性,对吧。那,那,那,那,曾经有个人致力于治疗这种疾病,而且,成功治愈了它并拯救了很多人的生命,但是,如果他们,如果,他们设法在他们实际发现这种疗法之前几年找到本可以拯救更多人的生命。

我认为这是,这是这里存在的紧张关系之一,对吧。那,我认为人工智能具有所有这些好处。而且,我希望每个人都能尽快获得这些好处。我可能比几乎任何人更了解这些好处有多么紧迫。所以,当我谈论人工智能存在这些风险,并且我担心这些风险时,我真的明白利害攸关,当人们称我为末日预言家时,我非常生气。当,当,当有人说,这家伙是个末日预言家,他想减慢事情的进展时,我真的很生气。你听到了我刚才说的话,我的,我的父亲去世是因为,本可以在几年后出现的疗法。我理解这项技术的好处。

当我坐下来,坐下来,坐下来写《充满爱意的机器》时,我写出了数十亿人可以通过这项技术改善生活的各种方式。这些人中的一些人,这些在推特上为加速欢呼的人,我认为他们对这项技术的好处缺乏人文主义的认识。他们的,他们的大脑里充满了肾上腺素,他们就像,他们想为某些事情欢呼,他们想加速。我感觉不到他们在乎。所以,当这些人称我为末日论者时,我认为,我认为他们完全,完全缺乏这样做的道德信誉。这真的让我对他们失去了尊重。

主持人: 我一直在想“影响”这个词是什么意思,因为它出现的频率太高了,以至于那些在你身边的人都说你特别痴迷于产生影响。

Dario Amodei: 事实上,我和一个很了解你的人谈过,他说你不会看《权力的游戏》,因为它与影响无关,那是浪费时间,而你想专注于产生影响。

主持人: 实际上,这不太对。我不会看因为它是一个如此负和的游戏。人们在玩,玩得如此消极,就好像这些人一开始,部分是由于情境,部分是因为他们就是些糟糕的人。他们喜欢创造一种情境,在这种情境下,到最后,每个人都比以前更糟。我真的很,我真的很兴奋能创造出正和的局面。

Dario Amodei: 好吧,我推荐你看看。这是一个很棒,很棒的节目。

主持人: 但我听到了你的抱怨。有些部分我非常不情愿,并且很长时间都没看。让我们回到影响上来。

Dario Amodei: 好的,让我们回到影响上来。

主持人: 所以这就是影响力,实际上你的职业生涯一直是这样,我,为了实现影响力而进行的探索,如果我说得太远了,请告诉我,是为了防止其他人陷入类似的情况。

Dario Amodei: 我,我认为,我认为,我认为那是其中的一部分。我的意思是,我,我已经看到了,许多,许多帮助人们的尝试。而且,其中一些比其他的更有效。而且,我认为,我认为我一直试图,它背后应该有策略,背后应该有智慧,试图,试图帮助人们,这通常意味着实现它需要很长的道路,对吧?它可以贯穿一家公司,而且,许多活动是技术性的,并没有直接与你试图产生的那种影响相关联。但是,这个,这个,这个弧线是,我总是试图将弧线弯向那个方向。我认为,我认为那是我的,那是我的理解。

那是我,那真的是我,那真的是我进入这一行的原因,对吧?我认为,类似于进入人工智能领域的原因是,我,我认为生物学的问题,如果没有几乎是难以解决的,或者至少进展太慢了。我认为我创办公司的理由是,我曾在其他公司工作过,而我,我,我只是觉得那些公司的运营方式,并不是真正地以,你知道的,努力,努力,努力地产生那种影响力为导向。有一个围绕它的故事,经常被用于招聘,但这些年来,我越来越清楚地意识到,这个故事并不真诚。

安全与责任:驳斥“末日论”与“竞优”哲学

主持人: 我要稍微绕一下,因为很明显你指的是OpenAI。据我所知,你拥有OpenAI 50%的计算能力。我的意思是,你负责运行GPT-3项目。所以,如果有人会专注于影响力和安全性,那不应该是你吗?

Dario Amodei: 我,我知道,有一段时间,在那段时间里,那是真的。但这并非一直如此。例如,当我们扩展GPT-3时,所以,我,当我在OpenAI的时候,我和我的许多同事,包括那些,你知道的,最终,最终创立了Anthropic的人们,The Pandas。

主持人: 熊猫们。那是你给它们起的名字。

Dario Amodei: 不,不,那不是我给它们起的名字。

主持人: 它们自己取的名字。

Dario Amodei: 那也不是它们自己取的名字。那是其他人叫它们的名字。

主持人: 我,我,也许那是其他人叫它们的名字。那不是我曾经用来称呼我的团队的名字。

Dario Amodei: 好的。抱歉。

主持人: 请继续。

Dario Amodei: 很好的澄清。

主持人: 谢谢。

Dario Amodei: 所以,我们参与了这些模型的扩展。实际上,构建GPT-2和GPT-3的最初原因是我们在进行的那种AI对齐工作的延伸,对吧?在那里,我和保罗·克里斯蒂亚诺以及一些Anthropic的联合创始人发明了一种叫做基于人类反馈的强化学习(RLHF)的技术。它的设计目的是帮助引导模型朝着一个方向发展,以遵循人类意图。实际上,它是另一种名为可扩展监督的方法的先驱,我认为它在多年后才刚刚开始发挥作用,以帮助模型更符合某种可扩展的人类意图。但我们发现,即使使用更原始的技术,即基于人类反馈的强化学习(RLHF),它也无法与小型语言模型(例如我们应用于GPT-1的模型,该模型由OpenAI的其他人构建)一起使用。因此,为了研究这些技术,为了大规模地应用基于人类反馈的强化学习(RLHF),我们才对GPT-2和GPT-3进行了扩展。

这引出了一个问题,我认为在这个领域,人工智能系统的对齐和人工智能系统的能力以一种方式交织在一起,这种方式总是比我们想象的更加紧密和相互关联。实际上,这件事让我意识到,很难将人工智能系统的安全性和人工智能系统的能力分开处理。很难只关注其中一个而不关注另一个。我实际上认为,以更积极的方式影响这个领域的价值和方式来自于组织层面的决策,何时发布,何时在内部研究,在系统上做什么样的工作。这也是促使我和其他一些人成为Anthropic创始人的原因之一,让我们用自己的方式去做。

主持人: 但再说一次,就像如果你在驾驶,如果你认为语言、如果你认为能力和安全是相互关联的,并且你是在OpenAI内部驱动前沿模型的人,如果你离开了,他们仍然会是一家在做这些事情的公司。

Dario Amodei: 没错。

主持人: 看起来如果你在驱动能力,你就会坐在驾驶座上,以你想要的方式帮助它变得安全。

Dario Amodei: 再次,我会说,如果有一个关于发布模型的决定,如果有一个关于公司治理的决定,如果有一个关于公司人员如何运作的决定,关于公司如何在外部展示自己的决定,公司在部署方面做出的决定,以及它在对社会运作方式方面所做的声明。这些事情中的很多都不是你仅仅通过训练模型就能控制的。而且,我认为信任非常重要。我认为公司的领导者必须是值得信赖的人。他们必须是动机真诚的人。无论你如何在技术上推动公司前进,如果你为动机不真诚、不诚实、不真正想让世界变得更好的人工作,那都不会奏效。你只是在助纣为虐。

主持人: 所以,我确信你听过像黄仁勋这样的人的批评,他们说,嗯,Dario认为他是唯一能安全构建这个的人。因此,说到“控制”这个词,他想控制整个行业。

Dario Amodei: 我从来没有说过类似的话。这是一个无耻的谎言。这是我听过的最无耻的谎言。

主持人: 顺便说一句,如果我错误地引用了黄仁勋的话,我很抱歉,但是……

Dario Amodei: 不,不,不。这些话是正确的。

主持人: 好的。

Dario Amodei: 他所说的是……但是这些言辞令人愤慨。事实上,我已经多次说过,而且我认为Anthropic的行动也表明了这一点,我们正致力于我们称之为“竞优”的目标。这些年来我曾在播客中说过,而且我认为Anthropic的行动也表明了这一点,在竞劣中,每个人都在竞相尽快推出产品。所以我说,当你们进行竞劣时,谁赢并不重要,重要的是每个人都输了,对吧?因为你制造的不安全系统会帮助你的对手,或者造成经济问题,或者从对齐的角度来看是不安全的。

我思考竞优的方式是,谁赢并不重要,重要的是每个人都赢了,对吧?所以竞优的方式是,你为这个领域的工作方式树立榜样。你说,我们将参与这种实践。因此,这方面的一个关键例子是负责任的扩展政策。我们是第一个提出负责任的扩展策略的人。我们没有说,其他人都应该这样做,否则你们就是坏人。我们没有试图利用它作为优势。我们把它发布出来,然后我们鼓励其他人也这样做。然后我们在随后的几个月里发现,其他公司内部有人试图提出负责任的扩展策略。但我们已经做过这件事的事实,允许了、赋予了那些人权限,对吧?某种程度上使这些人能够向领导层提出论点,嘿,Anthropic正在这样做,所以我们也应该这样做。

投资于可解释性也是如此。我们向所有人发布我们的可解释性研究,并允许其他公司复制即使我们已经看到它有时具有商业优势。宪法人工智能也是如此。对我们系统的危险性进行测量,即危险能力评估,也是如此。所以我们正试图为这个领域树立一个榜样。但存在一种相互作用,成为强大的商业竞争对手会有所帮助。我从未说过任何近似于这家公司应该是唯一一家构建这项技术的想法。我不知道任何人怎么可能从我说过的任何话中得出这个结论。这简直是一种令人难以置信的、恶意的歪曲。

主持人: 好的。让我们看看在我们问你最后一个问题之前,是否可以像闪电般快速地过一两个问题,最后一个问题我们有5分钟的时间。SPF发生了什么事?SPF发生了什么事?我的意思是,他是其中之一——请说。

Dario Amodei: 我无法告诉你。

主持人: 你没回答什么?

Dario Amodei: 我可能见过那家伙四五次。好的。所以我对山姆·班克曼-弗里德的心理,或者他为何会做出如此愚蠢或不道德的事情,没有深刻的见解。我认为我事先唯一了解到的关于山姆·班克曼-弗里德的事情是,有人向我提到他很难合作,他有点像那种“快速行动,打破常规”的人。我当时想,好吧,这样的人有很多——欢迎来到硅谷。

主持人: 欢迎来到硅谷。

Dario Amodei: 所以我记得我说过,好吧,我要给这家伙无投票权的股份。我不会让他进入董事会。听起来他像是个每天打交道都很糟糕的人。但他对人工智能很感兴趣。他对人工智能安全很感兴趣。他看好人工智能。而且他对人工智能安全感兴趣。看起来这似乎是明智之举。就像现在回想起来,快速行动,打破常规的做法比我曾经想象的要极端、糟糕得多得多。

在希望与风险之间:引领AI走向负责任的未来

主持人: 好的,我们今天就到这里吧。那么你找到了你的影响力。我的意思是,你现在几乎是在实现梦想。想想人工智能可以用于生物学的各种方式,就从这开始。你也说过这是一种危险的技术。我很好奇,你对影响力的渴望是否会推动你加速这项技术的发展,同时可能低估了控制它可能不可行的可能性。

Dario Amodei: 所以我认为,比起这个行业里的任何其他人,我更早就已经对这项技术的危险性发出了警告,对吧?我们刚刚花了10到20分钟讨论了那些令人恐惧的事情,那些运营着价值万亿美元的公司的人们批评我谈论这些技术的危险性,对吧?我有美国政府官员。我有管理着4万亿美元公司的人批评我谈论这项技术的危险性,对吧?将所有这些奇怪的动机归咎于我,这些动机与我曾经说过的任何话都没有关系,也没有任何我做过的事情可以支持。然而,我将继续这样做。

我实际上认为,随着收入的增长,随着人工智能的经济业务呈指数级增长,如果我是对的,几年后,它将成为世界上最大的收入来源,对吧?它将成为世界上最大的产业。经营公司的人已经这样认为了。所以我们实际上面临着这种可怕的局面:数千亿到数万亿,我说,也许20万亿美元的资本站在尽快加速人工智能的一边。我们有一家公司,按绝对值计算非常有价值,但与此相比显得非常小,对吧?600亿美元。而且我一直在发声,即使这让人们感到不快,并且已经出现了这些文章。例如,美国政府中的一些人对我们感到不满,因为我们反对暂停人工智能监管,支持对华芯片出口管制,以及谈论人工智能的经济影响。每次我这样做,都会受到许多同行的攻击。

主持人: 对,但你仍然假设我们可以控制它。这就是我所指出的。

Dario Amodei: 但我只是想告诉你,有多少努力,有多少坚持,有多少不顾一切的堆砌,不顾所有的危险,不顾对公司造成的风险,我仍然愿意发声。这就是我所说的,听着,如果我认为没有办法控制这项技术,对吧?如果我这样认为,即使我认为这只是一场赌博,对吧?有些人会说,哦,你认为人工智能有5%或10%的概率会出错。你只是在掷骰子。我不是这样看待它的。这是一个多步骤游戏,对吧?你走一步,你构建下一步更强大的模型。你有一个更密集的测试机制。随着我们越来越接近更强大的模型,我越来越多地发声。而且我采取了越来越激烈的行动,因为我担心人工智能的风险越来越近。我们正在努力解决这些问题。我们已经取得了一定的进展。

但是,当我担心我们在风险方面取得的进展没有达到技术发展速度所需的速度时,我就会更大声地说话。所以你在问,你在采访开始时说,你怎么了?你为什么在谈论这些?这是因为指数增长已达到某种程度,我担心我们可能会面临这样一种情况:我们处理风险的能力跟不上技术发展的速度。这就是我对此的回应。

如果我相信没有任何办法可以控制这项技术,但我绝对没有看到任何证据支持这种说法。我们在控制模型方面做得越来越好,每次发布新模型都是如此,对吧?所有这些事情都会出错,但你真的必须对模型进行非常严格的压力测试。这并不意味着不会出现突发的糟糕行为。而且我认为,如果我们使用现在拥有的对齐技术来构建更强大的模型,我会非常担心。那么我就会站出来说,每个人都应该停止构建这些东西。甚至中国也应该停止构建这些。我认为他们不会听我的,这也是我认为出口管制是一个更好措施的原因之一。但如果我们在模型上领先几年,却只有今天这样的对齐和引导技术,那我肯定会主张我们大幅减速。

我之所以警告这种风险,是为了我们不必减速。为了我们可以投资于安全技术,并能继续该领域的进步。这将是一项巨大的经济努力。即使有一家公司愿意放慢技术发展速度,也无法阻止所有其他公司。这也无法阻止我们的地缘政治对手,对他们来说这是一场为了生存而进行的你死我活的斗争。所以这里的余地很小。我们被这项技术的所有好处、加速发展的竞赛以及这是一场多方参与的竞赛这一事实所困扰。所以我正在尽我所能做最好的事情,那就是投资于安全技术,以加速安全方面的进展。我写过关于可解释性重要性的文章,以及安全方面的各种方向有多么重要。我们公开我们所有的安全工作,因为我们认为那是公共利益。那是每个人都需要分享的东西。

所以,如果你有更好的策略来平衡利益、技术的必然性和它所面临的风险,我非常乐意听取。因为我每天晚上都在思考这个问题才入睡。因为我对利益、它能做什么以及它能拯救的生命等方面的利害关系有着深刻的理解。我亲身经历过。我也亲身经历了风险。我们已经看到模型出错的情况。我们有布罗克的例子可以说明这一点。人们对此不屑一-顾,但当模型采取行动、进行制造以及负责医疗干预时,他们就不会再笑了。当模型只是在说话时,人们可以嘲笑这些风险。但我认为这非常严重。所以我认为这种情况需要对风险和收益进行非常严肃的理解。这些都是高风险的决策。需要以严肃的态度来对待。

我认为让我非常担忧的是,一方面,我们有一批末日论者。有人叫我末日论者。我不是。但确实存在末日论者,他们说他们知道没有办法安全地构建这个。我已经研究过他们的论点。他们都是胡说八道。这些模型存在危险,包括对整个人类的危险,这种想法对我来说是有道理的。我们能够以某种方式从逻辑上证明没有办法使它们安全,这种想法在我看来是无稽之谈。因此,我认为这是在智力和道德上对我们所处境况的一种不严肃的回应。

我也认为,对于那些掌握着20万亿美元资本,并且因为他们的激励机制相同而一起合作,眼里只有金钱的人来说,坐在那里说我们不应该在10年内监管这项技术,这在智力和道德上也是不严肃的。任何说我们应该担心这些模型安全性的人,都只是想自己控制这项技术。这是个无耻的说法。并且这是一个在道德上不严肃的说法。

我们坐在这里,做了所有可能的研究。当我们认为这样做是合适的时候,我们会发声。我们已经尝试后退。当我们声称人工智能的经济影响时,我们有一个经济研究委员会,我们有一个经济指数,我们用它来实时跟踪模型,而且我们正在为人们提供资助,以了解这项技术的经济影响。我认为,对于那些在经济上比我更投入于这项技术成功的人来说,只是轻松地进行人身攻击,我认为这在理智和道德上都和末日论者的立场一样不严肃。我认为我们现在需要的是更多的深思熟虑。我们需要更多的诚实。我们需要更多人愿意违背自己的利益,愿意不参与轻松的推特争吵和激烈的评论。我们需要人们真正投入精力去理解情况,真正去做工作,真正发布研究,并真正为我们所处的情况增添一些光明和见解。我正在努力做到这一点。我不认为我做得完美,因为没有人能做到完美。我正在尽我所能地去做。如果有其他人也尝试做同样的事情,那将会非常有帮助。

主持人: 好的,达里奥,我曾在镜头外说过,但我想在节目结束时确保也把它说出来。我很欣赏Anthropic公司发布了如此多的信息。我们从这些实验中学到了很多,从对模型进行红队测试到自动售货机克劳德,我们今天没有机会谈论它。但我认为世界会因为听到这里发生的一切而变得更好。鉴于此,感谢你和我一起坐下来,花这么多时间在一起。

Dario Amodei: 谢谢你邀请我。

相关内容

热门资讯

澄潭江“三色”文旅绘就振兴画卷 朱泽寰 雷诗雅  当“直木山集”的落地窗将南川河畔的晨雾揽入室内,九间以中药命名的客房传出一阵欢声笑...
烟火与潮流同框 (来源:嘉兴日报)转自:嘉兴日报  昨天傍晚,南湖区大桥镇,市民正在槜李市集农贸市场内采购食材。该农...
因失信董事辞职,汇洲智能被监管... 中经记者 庄灵辉 卢志坤 北京报道被立案调查尚未出结果,汇洲智能再收行政监管措施。7月28日晚间,汇...
开拓药业-B(09939)拟折... 开拓药业-B(09939)发布公告,于2025年8月1日(交易时段前),公司、童友之及卖方(KT I...
明查|普京签署新法令,白俄罗斯... 速览- 普京近日确实签署了一项新法令。该法令保障了俄白两国在对方领土上居住的永久居民的选举权与被选举...