来源:钛媒体
托马斯·萨金特(Thomas J. Sargent),图片由香港大学经管学院提供在全球经济进入高不确定性的时代,生产停滞、地缘政治分化、产业链重构,人们正在重新关注一个根本性问题:AI到底改变了经济运行的哪些基本规律?
诺贝尔经济学奖得主托马斯·萨金特(Thomas J. Sargent)足够具备回答这个问题的资格。他长期致力于宏观经济学、货币政策与时间序列分析的研究,近年来尤其关注人工智能、机器学习与经济学模型的融合。
2011年,萨金特与克里斯托弗·西姆斯(Christopher A. Sims )共同获得诺贝尔经济学奖。萨金特的的贡献主要在于“结构宏观计量经济学”(Structural Macroeconometrics)方法的发展。
也就是说,通过统计与计量模型,把人们对未来经济政策与经济环境的预期(expectations)纳入分析,并研究这些预期如何影响现实经济决策与结果。
作为理性预期革命的核心人物、动态宏观经济学与结构经济统计学的奠基者,萨金特长期研究“人类如何识别模式、理解规则,并据此进行决策”。
换言之,他研究的是机器学习试图模仿的那套智能机制。正因为如此,11月25日晚,萨金特在香港大学经管学院的这场《AI与经济学》(AI and Economics)演讲十分值得关注。
演讲主要围绕人工智能的本质、模式识别、规则理解、机制推断,以及这些能力如何塑造市场、社会与政策选择等话题展开。
钛媒体APP小结起来,萨金特的演讲关键亮点有三:
亮点1:AI是“开普勒式拟合”还是“牛顿式理解”?
当前的AI大多停留在拟合世界,而非解释世界——这是机器学习与经济学最大的差距。
亮点2:AI的数学骨架来自经济学与动态决策理论
萨金特指出,机器学习的根基来自经济学家、控制论学者与博弈论先驱,这本质上是一场跨领域知识的长周期汇流。
亮点3:AI将重新分配劳动、资本与市场结构的利益
AI不仅是技术革命,也是收入、竞争结构与生产率分布的重塑力量。
在演讲开篇,萨金特将“智能”拆解为三个部分:模式识别、概括与决策。这些能力长期被视为人类独有,却在机器学习与统计学的推动下以惊人的速度被部分复制。
然而,人类的智能并非为现代世界而生,而是源自数十万年的进化史。心理学家史蒂芬·平克(Steven Pinker)认为,我们的直觉在统计、经济、生物和物理领域往往是“原始的”。
面对现代经济的复杂性,人类直觉经常失败。这正是为什么人类需要模型,也正是为什么AI的发展离不开数学、经济学、统计学、博弈论等跨学科积累。
萨金特接着把理解AI的眼光放在了更长的科学史框架。他通过托勒密、布拉赫、开普勒、伽利略、牛顿等科学人物的对照,解释了机器学习与经济建模的核心差异:究竟是在做“开普勒式的曲线拟合”,还是在做“牛顿式的结构推断”?
现代AI在模式发现与拟合层面已高度成熟,而经济学、政策制定与社会治理仍然需要规则层面的理解。这意味着,真正的智能仍然需要人类的结构性洞察,而非仅仅依赖自回归模型的参数训练。
萨金特对多个AI奠基学科的梳理:动态规划、贝叶斯推断、进化算法、遗传算法、博弈论与最优控制,都以某种方式成为现代机器学习的基石。
他回顾了冯·诺伊曼(John von Neumann)、奥斯卡·摩根斯特恩(Oskar Morgenstern)、亚伯拉罕·瓦尔德(Abraham Wald)、约翰·霍兰德(John Holland)等跨学者如何在二战后奠定了“AI的数学骨架”,甚至认为,查尔斯·达尔文(Charles Darwin)是“最后一位伟大经济学家”——因为自然选择本质上就是激励与选择机制的经济学系统。
这些跨学科回顾某种程度上也在说明,AI并不是一种“新技术”,而是数学与经济学关于人类决策本质研究的延续。他进一步指出,AI对劳动力市场的影响是结构性的,它更易替代低技能劳动,而与高技能劳动形成互补。这一趋势正在推动资本回报上升、劳动份额下降,重塑全球收入分配的格局。
以下托马斯·萨金特现场演讲内容,并在不改变原始叙述顺序的前提下,对语言进行了学术化校订:
今天我们要谈论人工智能与经济学。在进入人工智能讨论之前,我想首先界定“智能”这一概念,即在本次讲座中我所指的智能含义。对我而言,智能可以从行动者的角度来理解,它主要包含三个方面。
第一,是模式识别。我们都会不断收集感官数据,并将这些数据压缩、提取为较小的结构,以形成可以被辨识和处理的模式。第二,是概括(generalization)。当我们识别出模式后,我们会做出一种几乎是类似宗教信仰般的假设:即这种模式会延续到我们尚未观察到的未来数据中。第三,是决策。人类每天都在进行决策——无论是向左、向右、向前、向后,还是是否工作、是否参与某一活动,这些都是基于认知模式与外推形成的判断。
那么,人工智能的含义是什么?简单来说,就是人类构造一种机器,使其能够执行上述一项或多项与智能相关的活动。而在创造人工智能时,我们依赖哪些技能?我们是如何创造这些系统的?要回答这些问题,我们需要回到心理学,尤其是认知心理学的研究。认知心理学家指出,人类在使用某些认知技能时,其基础往往源于进化过程中形成的本能,而这些本能并不总是适用于现代环境。
例如,史蒂芬·平克在《白板》(The Blank Slate)中指出,人类在数十万年的进化中,主要是一种采集者物种,而非农民、工人、数学家或经济学家。我们在长期进化中发展出的本能,让我们在一些领域表现得很强,例如生存、寻找食物、识别危险,但这些本能在现代社会的复杂问题面前往往并不可靠。平克强调,人类在四个领域拥有天生的原始直觉:统计、生物学、经济学和物理学。
然而,这些直觉是由远古环境塑造的,而非为现代世界设计的,因此它们在处理复杂系统或抽象理论时常常具有误导性。例如,原始人虽然在物理直觉上擅长处理空间、运动和动量之间的关系,但现代物理学(如量子力学)完全违背这种直觉;即便是费曼这样伟大的物理学家也承认自己无法“直觉地理解”量子力学。同样地,人类的经济直觉在面对现代经济体系的生产、分配、激励机制时往往表现糟糕。
因此,我们带着这些进化遗留的认知结构来构建人工智能模型,而这些模型使用的数学与逻辑工具往往正是为了补偿这些人类本能的不足。人工智能借鉴并继承了统计学、生物学、经济学和物理学的工具,因此从本质上说,它不是一个“新领域”,而是跨学科知识的延伸。
接下来,我想简要回顾科学革命中的几位关键人物,因为他们的工作方式能够帮助我们理解人工智能发展的历史阶段。托勒密(Ptolemy)提出以“圆”与“本轮–均轮体系(epicycles)”为基础的地心模型。他的数据来自几百年累积的大规模天文观测,他构造了一个具有大量参数的庞大模型来拟合行星位置。这是典型的“曲线拟合模型”,其拟合效果极佳,因此其理论长达1500年未受到挑战。
布拉赫(Tycho Brahe)并未提出新的理论,但他收集了更大规模、更高质量的天文数据。开普勒(Kepler)利用布拉赫的数据,将圆改为椭圆,使模型更简洁,参数更少,拟合效果更好。然而,开普勒的模型依然属于“描述性模型”,即通过拟合数据来描述现象,而非解释其背后的机制。
伽利略则采用了实验方法。他由于缺乏精确计时工具,设计了斜面来降低物体下落速度,以便获得可测量的数据。他从这些近似数据中推导出加速度规律,并将其传递给牛顿。牛顿的成就在于,他将开普勒的行星运动描述与伽利略的加速度概念统一到一个结构性解释中。他不仅拟合现象,更解释了背后的机制。这是从“开普勒式曲线拟合”迈向“牛顿式结构理论”的关键转变。
我总忍不住提到达尔文。达尔文通过大量文本笔记整理出自然选择的三条原则:自然差异、遗传和选择。他阅读了马尔萨斯与亚当·斯密关于进化与竞争的著作,从中获得理论灵感,并应用到自然界。事实上,有人说达尔文是“最后一位经济学家”,因为他将经济学的竞争逻辑成功引入了生物学。
人工智能在技术上延续了这些科学传统。以AlphaGo为例,它使用了博弈论、分布式计算、动态规划、蒙特卡罗模拟等工具,这些工具来自数学、经济学、物理学。冯·诺伊曼和瓦尔德在二战后发展了动态规划和统计决策理论,这些方法构成了现代机器学习的重要基础。
约翰·霍兰德(John Holland)是另一位跨学科的先驱,他在1980年代设计了遗传算法(Genetic Algorithm)。他以DNA结构为灵感,将“如果–那么”规则编码为二进制串,并通过突变、交叉等机制模拟选择过程。他让这些规则竞争,通过类似账簿的机制记录其表现。我们曾使用霍兰德的分类器系统,将其嵌入一个动态经济模型,以研究系统能否收敛到纳什均衡。结果显示它确实可以收敛,尽管最终稳定在一个较差的均衡上——这表明人工智能可以探索系统,但未必能找到“最好”的解。
理查德·费曼曾用一个著名比喻来解释科学家的工作方式:一个对国际象棋一无所知的观察者观看棋局,只能通过不完整的信息推断棋规。物理学家观察自然现象时处境类似,经济学家也是如此。结构经济统计学的目标正是从有限的价格与数量数据中反推产生这些数据的“游戏规则”,包括玩家、行动、收益、信息结构与均衡方式。
人工智能目前擅长发现与组织模式,但在推断“游戏规则”方面仍然非常有限。许多职业的核心工作正是组织模式,因此AI具备替代性;但涉及规则推断、机制设计、因果推理的工作仍高度依赖人类。
接下来,我想引用冯·诺伊曼、摩根斯坦和库普曼斯等人关于建模的经典区分。他们指出,物理与经济学模型有两个阶段:一是开普勒式的描述模型,主要依靠曲线拟合;二是牛顿式的结构模型,包含不随环境变化的“参数不变量”。现代经济学与机器学习也面临同样的划分。很多回归模型只是拟合关系,不能解释机制;而结构模型则追求在干预、政策变化下仍然稳定的推断逻辑。
在经济学与金融学中,我们使用大量“主方程”(master equations),包括均衡马尔可夫模型与一组在公共状态空间上定义的马尔可夫决策问题。AI在求解这些方程时展示了巨大潜力,尤其是在均场博弈(mean field games)与最优运输(optimal transport)问题中。但AI的成功依赖于高超的人类监督与模型设定。它可以帮助我们应对“维度灾难”,却无法替代模型本身。
在经济政策上,我们甚至可以用机器学习的函数逼近能力来求解拉姆齐计划(Ramsey plan)等动态规划问题。例如在Calvo(1978)定价模型中,我们可以让机器学习搜索满足偏微分方程的函数。但理解该函数所代表的经济意义,需要高度的人类经济学洞察。
接下来,人们常问:AI会取代工作吗?软件价格持续下降,企业越来越依赖软件而非硬件。软件替代了一些类型的任务,提高了企业加成率,使劳动份额下降、资本份额上升。不同技能的劳动者面临不同命运:对高技能者,AI是互补品;对低技能者,它是替代品。这是技术变迁下的结构性趋势。
现场对话环节
(由香港大学经管学院人工智能计量与组织中心主任李晋教授主持)
左:李晋,右:托马斯·萨金特,图片由香港大学经管学院提供李晋:非常荣幸能与托马斯进行对话。对我而言,这也是极大的荣幸。我认识托马斯已有25年,当时我还是加州理工学院的一名本科生。我们常常认为AI正在改变一切,认为AI是全新的,但实际上太阳底下并无新事。我认为,要理解AI,我们更需要审视那些永恒不变的东西。作为一名经济学家,随着时间推移(这方面您可以纠正我),我认为经济学可以概括为三个词:约束条件下的最大化与均衡。存在约束(即稀缺性),存在最大化行为,再加上竞争,最终导向均衡(这或许有些狭隘)。让我们从“约束”开始。在您看来,AI改变了哪些约束?它帮助我们缓解了哪些约束?它将如何改变社会?或者更具体地说,它将如何影响经济研究?
托马斯·萨金特:这是个很好的问题。我的回答完全基于个人观点,一切都从个人角度出发。我们晚餐时聊到了决策理论,冯·诺依曼和摩根斯坦(VNM)构建了主观效用理论的基础。那些效用函数不在外部世界,而在我们头脑中,描述我们的偏好。因此,我的回答将是完全主观的。
我思考的是我作为实证研究者日常活动所面临的约束。每天遇到的两个主要约束是:数据集在某种意义上不够大;它们没有在我关心的维度上提供足够的变异,从而难以推断我关注的参数。数据集不够大的一个原因是社会性的——社会尚未系统性地收集这些数据。但现在,数据信息的收集正在加速。不过,在我们将数据用于分析之前,它们仅仅是数据。如今数据集确实变得更大了,所以从很多方面来看,更大的数据集对我完全有益。
第二件事是,我打算用这些数据做什么?我要么采用频率学派的统计方法,要么采用某种贝叶斯统计方法。我的朋友克里斯·西姆斯会说,要么是频率统计,要么是贝叶斯统计。如果两者都不是,那我可能不够诚实。如果我说我不用任何模型、不用任何先验,只用深度神经网络和网络数据,他就会追问,让你不得不承认你其实有很强的先验——当你选择特定类别的基函数和特定的超参数集时,你实际上是在估计这些超参数,并对它们施加了隐含的先验。最终他会说,你其实很懒,因为你不能回到基本原则。遇到像克里斯·西姆斯这样的人,你无法逃避,只能被引导回正确的方向。所以我们使用某种频率学派或贝叶斯统计方法。
在这些方法中,你想要最大化某个目标,这是一个带约束的最大化问题。计算机速度、算法的进步以及巧妙的应用数学和计算方法为我们提供了许多工具。其中一些工具,比如PyTorch的底层,就包含了一系列非常复杂的优化算法,包括自动微分等。他们说“自动微分”,那么微分的是什么呢?你可以去深入了解。总之,这就是我的回答。我很喜欢你组织这个问题的方式。
李晋:关于约束,我想接着问下去。你的回答让我联想到费曼的比喻:你观察人们下棋,但不知道规则。我认为其中一个约束是“注意力是有限的”。从某种意义上说,我们看到了比以往更多的数据,但第二个问题是,我们如何决定哪些规则是相关的?你刚才没有时间详细展开,但你提到了两种理论类型:一种是曲线拟合,另一种是更具结构化的类型。你能否展望一下未来?你认为在经济学文献中,我们会看到更多曲线拟合类型的理论,还是更多结构化的规则?技术发展会导向哪个方向?
托马斯·萨金特:你提到了经济学。机器学习和AI使得其中一件事——曲线拟合——变得容易得多,也便宜得多。你知道,经济学理论、标准劳动经济学认为人既贪婪又懒惰。这就是我们写下的效用函数:人们喜欢消费,不喜欢付出努力。这没什么错,我们确实如此。所以现在,你基本上改变了相对价格。
你让其中一项活动(非结构化的描述性分析)变得便宜得多。在经济系里,我们已经看到了这种现象。而尚未变得便宜的,是构建结构化的模型——也就是写下博弈,试图确定偏好、技术、禀赋等深层参数。这并没有变得更便宜。对于给定的模型,一旦建立起来,求解确实更容易了。
但是,像拉尔斯·汉森在宏观经济学、阿里尔·帕克斯在产业组织、戴夫·唐纳德逊在贸易领域所做的那种深思熟虑的结构模型工作,目前还没有任何AI智能体能够提出这些模型。AI可以帮助他们更快地求解,但构建模型本身的价格并未下降,我认为短期内也不会下降。
现在问题变得有点神学意味了:我希望它下降吗?这取决于你从何处获得快乐。但我想,这正是让我们与众不同的地方。我不知道。在各个领域你都能看到,实际上,一些提倡非结构化工作的人对此相当诚实。他们这样说:像阿里尔·帕克斯所做的结构化工作充满了必要的技术性假设。
这是一个显而易见的观察。但这些只是假设,并非字面意义上的真实。想想它对科学数据的影响。这总是对的——我的意思是,我们的模型总是抽象的,并非字面真实,而且构建起来非常困难。所以我们不如放弃联立方程、动态博弈,只做那种计量经济学奠基人(如库普曼斯、胡利、马沙克)曾说会因忽略联立性和动态关系而产生误导的、非常简单的回归拟合。
我本来准备了另一张幻灯片:计量经济学和物理学的奠基人抵制使用“原因”这个词。他们只使用“关系”。但现在有一种文献,一直在使用“原因”这个词,其方式会让库普曼斯和哈维尔莫非常反对。这在某种程度上是因为他们所从事工作的相对价格发生了变化——非结构化工作的价格下降了。这确实非常有趣。
李晋:这个问题是由你刚才的回答所激发的。关于我们应该培养学生具备什么样的技能?我们这里有一个很大的硕士项目,以及AI高管项目。您认为未来哪些技能对我们的学生更重要?我补充一下,您在培养学生方面是传奇性的。您指导过很多博士生,可能很少有人能接近您那样的成就。我很好奇,您对我们这里的学生有什么建议?他们应该学习哪些东西?
托马斯·萨金特:我记得你在加州理工读本科时,感到很害怕。因为我曾就读于加州理工附近的一所高中,我父亲开车经过时会告诉我,我永远进不去那里——他说得对。每三四年,我们高中有一个人能被录取,但最终退学了。那个人比我强十倍。后来我遇到了你,和你交谈,我不明白为什么,我父亲是对的,那里确实很吓人。
我曾和你一起上过研究生课程,你当时是本科生。我只记得我们当时都在努力学习。我们都在那个班里学习。我试图学习并做些研究,而你去上课只是因为……所以你当时正处于同时成为通才和专才的过程中。
但问题是,这是一个约束优化问题。你懂的数学比我多。我当时大概55岁,你18或20岁。你懂的数学更多。不过,你不需要成为伟大的数学家也能成为合格的经济学家。
回答你的问题,哪些技能能持久?我认为,如果你是做应用研究的人,尤其是如果你非常擅长学习数学和统计学,你可以去我的办公室,我有五六十年历史的数学和统计学书籍。如果你打开它们,上面有铅笔笔记,我还记得里面的内容。那些东西比宏观经济学教科书中的流行内容陪伴我的时间更长。所以我认为,硬技能基础——就像李晋所说的,约束、优化、目标和均衡概念——至关重要。如果你能理解他所说的含义及其应用,那将伴随你一生。你可以去听一个研讨会,有人在谈论某事,用某种直觉来阐述,但没有明确说明约束是什么、标准是什么、均衡概念是什么。只要你心中有那些核心概念,你就能判断这个人是否在做连贯的演讲。这将一直伴随你。
所以我想说的是,有一些核心工具可以让你变得灵活。我们之前谈到决策理论。决策理论家大卫·克雷普斯深入思考过这个问题,他写过一篇关于灵活性偏好的早期论文并提出了公理。
我认为,在AI和类似技术发展的今天,你无法想象将来会有什么工具可用,什么会奏效,什么不会。我这样说并非有意冒犯,但你看,年轻的杨立昆(Yann LeCun)几周前说过,他是卷积神经网络的重要发明者之一,是机器学习领域的核心创造者。他说所有做大语言模型的大AI公司都走错了路,他们在浪费数十亿美元。
他告诉了原因。这不是细节问题,不是节点数不对或算法不对,而是他们对智能是什么的模型是错的。我之所以这么说,是因为他可能对也可能错,但他说那些投资数十亿美元的人并不知道正确答案,这让我怀疑是否有人知道5年或10年后会是什么样子。
实际上,他教过我。他告诉我,我可能当时也犯了像把“从现在起”说成“以前”这样的错误。我仍然记得在加州理工,他把时间说反了。他说:“你不应该为此感到难过,因为物理学的基本定律在时间反演后看起来是一样的。”所以他那样说真是非常友善,令人难忘。
李晋:我还想强调一点。现在不仅在经济学系,在战略系,人们也经常谈论回归第一性原理。对经济学家来说,第一性原理就是那三个词:约束、最大化、均衡。
我也认为,我们在大学里,任何时候有人问“最新趋势是什么?”,我们当然可以去关注。但那不一定是我们的比较优势。我们的比较优势或许在于关注那些更持久、更重要的东西。就像亚马逊创始人杰夫·贝索斯喜欢说的,人们喜欢问我10年后事情会有什么不同,这是个好问题。
但更好的问题是:未来10年什么不会改变?他说,未来10年,顾客可能仍然想要更低的价格、更快的配送、更高的质量。只有我们知道哪些东西是不变的,我们才知道如何在此基础上构建商业战略。在这个意义上,我认为来到大学,学习数学、统计学等难学的科目,可能会让我们与众不同,并赋予我们持久的竞争优势。这太精彩了。所以我还在上课学习。
托马斯·萨金特:为什么?因为我妻子不希望我退休后整天待在家里。如果你见到她,跟她说:“卡罗琳,我觉得我实际上认为我退休了。”你应该看看她的表情。
所以,我了解到他在加州理工学院的一位同学是我的一门课的老师。那门课是计算几何,是像他一样聪明的人教的。我从那门课学到的一个概念是“不变量”,这来自物理学。他们看一个问题,一大堆事情在发生,很多细节,他们寻找子系统中的不变量。但如果你以这些恒定的东西为指导,并将其作为教育的原则,用来指导你学习的东西,我不知道,你学习梯度是什么,一阶导数是什么,你明白这些概念会不断回来。
现场观众提问环节
观众1:您好,萨金特教授,感谢您精彩的讲座。我来自这里的硕士项目。我的问题与李教授的问题相关,是关于人工智能对教育的影响。在您的讲座中,您梳理了人类心智的智力结构,以及人工智能如何利用传统工具(用于研究自然法则)使其更易于应用。您也提到了通识教育与专才教育。
我想了解,您认为人工智能对学位教育和整体教育的影响是什么?您认为这会推动教育走向更注重通识(或更聪明)的方向,还是更专才的方向?博雅教育是否仍然重要?您会建议培训哪些技能,以让学生为未来时代做好更好准备?
托马斯·萨金特:谢谢,这是个很好的问题。这个问题让我困扰,因为我观察到AI已经对一些本科生和研究生造成了负面影响。例如,我曾教授一门本科课程,发现无论我们出什么题目,学生都会使用AI。研究生课程中情况类似。班上有一部分学生负责任地使用AI,但大多数人将其视为学习的替代品,并为自己能“智胜”老师而沾沾自喜。结果他们什么也没学到。
确实如此。我逐渐学会了一些应对方法。通过反复尝试最佳反应,我摸索出如何设计能够区分学生的考试,以及如何利用AI引导他们学习某些内容。但这只对班上排名前25%的学生有效。我提到这一点是因为感到遗憾:学生认为不必学习微积分,因为若有函数计算,直接输入AI即可。他们因此失去了一些能力。所以我认为这是一个巨大的挑战,一个明确存在的问题。
从劳动经济学的角度看,我们谈论互补技能与替代技能。AI对于已掌握技能的人具有互补性。例如,我是个糟糕的Python程序员,仍在学习中,但与优秀的Python程序员合作时,他们能借助AI将效率提升数个数量级。这体现了互补性。因此,AI对某些人有益,对另一些人则不利。
图片由香港大学经管学院提供观众2:当AI能够生成顶尖的智能、智慧和内容,就像您这样的水平时,因为它已经非常聪明,汇聚了各行各业的知识与视角,但有时它生成的内容却像一个有心理健康问题的聪明人所写,您如何看待这一点?
托马斯·萨金特:我不确定能否给出好答案,因为我自己也没有答案。唯一能提供答案的或许是,如何思考一些主观性问题?我可以坦诚但或许无用地回答:我曾与一位朋友(也是我的学生,实际上更是我的老师)合作撰写AI论文,要求AI解决一个具有层次结构的难题。该问题具有类似经典动态约束优化问题的结构,我们将其转化为计算问题,并用简单的函数逼近方法很好地解决了它。
但问题在于,如何理解并解释这个解决方案?解释意味着提取答案,并以动态规划理论家所使用的方式表述。我们尝试通过运行一系列回归来实现这一点,但这要困难得多。没有我们的介入,AI无法独立完成。这或许与你提到的情况类似。AI能处理数据、进行描述性分析、拟合函数。
有时,AI会非常有创造力地生成“伪造数据”。这不是指像某些政治人物所说的“假数据”,而是指在金融、物理学等领域广泛使用的一种方法,例如求解偏微分方程。这些方程出现在动态博弈与均衡中。
有些偏微分方程系统易于写出,但求解极具挑战性,无法解析求解,必须数值求解。方法是生成一些基函数,AI在这方面非常擅长。具体做法是:猜测一个函数,生成一些“伪造数据”,检查方程是否满足,若不满足则生成另一个猜测,形成目标函数并进行优化。AI以此方式创造性使用“伪造数据”,类似伽利略的做法。这种方法已被广泛应用,效果良好,但AI并未发明这些偏微分方程,也未指出哪些方程是正确的。正因如此,我认为,AI可能会让我失业,但我认为不会让他(李晋)失业。
观众3:您如何看待人们使用AI回答经济问题,以非理性方式生成看似理性的答案?他们拥有大量数据,并能逻辑地解释原因,但实际上是在为他们想要的结果倒推理由。
托马斯·萨金特:我明白你的意思。就像……为了“麦当劳岛”?(可能为玩笑或典故)不,我不确定那是什么。好吧,有人对“麦当劳岛”收取高额测试费,这是个事先的玩笑。他们用AI生成为何需要高测试费的理由。
这很有趣,也在某种程度上是真实的。仔细思考你关于“从想要的结果倒推是否可行”的问题,我想说,优秀的科学家经常这样做。牛顿便是一例:他想要推导开普勒定律,涵盖所有情况,解释某些方差等。他列出目标,一旦清单确定,剩下的计算甚至加州理工的本科生都能完成。他正是从想要的结果倒推。
问题部分在于设计你想要的目标。若目标本身有害,这引发深刻思考,这不仅关乎AI。我举个例子,在斯坦福时,我与一位政治学家交谈。某天在走廊遇到一位优秀的政治学家,我评论希特勒是疯子。他回应:“不,他不是疯子。”他指出希特勒并非拥有相同偏好,但行为非常理性,他随后解释,这让我震惊,因为我认为希特勒是纯粹邪恶,但他的观点有道理。
十年后,我读历史学家亚当·图兹的书,内容艰涩但,博弈论者谈论合理化:观察某些决策,能否逆向工程出一个连贯的世界观,使得这些决策在该世界观下最优?这甚至适用于希特勒?这令我恐惧,但在承担的风险方面?是的。因此,你的问题不仅是AI带来的新问题,更是社会科学中长期存在的旧问题。(本文首发于钛媒体APP,编辑整理|李程程)
特别声明:以上内容仅代表作者本人的观点或立场,不代表Hehson财经头条的观点或立场。如因作品内容、版权或其他问题需要与Hehson财经头条联系的,请于上述内容发布后的30天内进行。