炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
当人工智能(AI)的能力以指数级增长时,它依然是人类可以掌控的工具,还是涌现出的一个新物种?
在追求和创造“更智能的 AI”时,关于 AI 最本质的问题却被日渐忽视:它到底是什么?它要指引我们走向哪里?我们又该如何回应?
日前,历史学家、哲学家、《人类简史》&《未来简史》作者尤瓦尔·赫拉利(Yuval Noah Harari)与 LinkedIn 联合创始人、风险投资家&作家 Reid Hoffman,围绕 AI 的本质、风险、技术与社会的关系,进行了一场深入对话,回答了上述问题。
图|Yuval Noah Harari
一直以来,赫拉利都在关注 AI 对社会的深远影响,强调其可能带来的情感操控和社会结构变化。在访谈中,他提出了多个发人深省的观点,为理解 AI 的未来提供了一个不同寻常的视角。如下:
AI代表了「新物种的崛起」
有人说 AI 是继文字之后最重要的发明。赫拉利给出了截然不同的答案——AI,可能不是人类的延伸工具,而是一个即将诞生的新物种。
赫拉利指出,如果从历史尺度上审视文字与 AI 的意义,其地位并非是同维度的延续关系。他说:“文字扩展了智人(Homo sapiens)的能力,而智人已经统治了地球。而 AI,至少在某些设想中,是一种新物种的崛起。”
赫拉利认为,文字将有统治力的智人推向更高文明,而 AI “可能会取代智人成为地球上占主导地位的生命形式,或者至少是占主导地位的智能形式。”
此外,赫拉利还提出了一种假设:AI 的出现或许标志着“无机生命”的起源。“在未来某个时候,当回顾宇宙历史时,人们可能会说:‘40 亿年前出现了有机生命的起源。现在随着 AI 的崛起,出现了无机生命的起源。’”
人类太慢,AI太快:我们还能及时纠错吗?
赫拉利认为,AI 真正的危险,不仅在于它拥有强大的智能,更在于它发展的速度,可能远远超过了人类社会适应和纠错的能力。“自我纠错是一种相对缓慢、且相当麻烦的过程。AI 发展得如此之快,我真的很担心,人类根本来不及进行自我纠错。”
赫拉利指出,正是因为人类能够在犯错后意识到错误并加以修正,我们才得以不断演化、维系社会稳定。“一个良好的体系,应当具备一种内在机制,能够识别并纠正自身的错误。”
但身处 AI 时代,他发出了警告:“等你琢磨清楚当下 AI 技术到底咋回事,它对社会、对政治有啥影响,它早都变样十回了,你面对的完全是另一码事。”
AI缺乏“意识”,因此无法真正追求真理
赫拉利进一步指出,智能并不能自动带来伦理和真理。真正让人类关心真相、感受痛苦、拥有道德判断的,是“意识”。
然而,AI 目前只具备智能,尚未具备“良知”或“真理追求的本能”。也就是说,如果一个 AI 没有意识(例如不能“受苦”、不能“感受”),它也就无法真正理解“伤害”“同情”或“责任”这些人类社会的核心伦理概念。这将导致AI 在达成目标时可能完全不择手段。
他认为,硅谷过度重视“智能”而忽视“意识”:“硅谷汇聚了许多极其聪明的人,他们的生活建立在智能之上,因而倾向于高估智能的价值。但我的历史直觉告诉我,如果一个超级智能的 AI 缺乏意识,它就不会追求真理。它很快会开始追求别的东西,而那些将被幻觉所塑造。”
AI是否值得信任,取决于人类自己
在赫拉利看来,要应对 AI 带来的挑战,仅靠技术是远远不够的。人类社会内部的信任机制,以及国家之间的协作意愿,将决定 AI 发展的方向和后果。
他指出,当今世界秩序的动摇,在很大程度上源于信任的缺失。而这一缺失,使人类在面对 AI 时显得格外脆弱,也为一种危险的 AI 形态提供了土壤。“我们最为关键的任务是构建信任,这涉及多个层面,包括哲学层面和实践层面。”
“不妨将 AI 视为人类的‘孩子’。在教育孩子时,我们的话语固然重要,但孩子更会关注我们的实际行动。在教育过程中,我们的行为对孩子的影响力远大于我们对他们的口头教导。”
如果现实社会充满操控、欺骗和对权力的追逐,那么 AI 也会从这些行为中汲取规则逻辑。即使工程师试图在技术层面嵌入“可信机制”,如果这些机制背后的社会本身不可信,那么 AI 同样不会值得信任。
在他看来,那种将人类社会理解为纯粹权力斗争的世界观,不仅过于狭隘,也会误导 AI 的发展方向。“人类不仅争夺权力,也渴望爱、同情和真理。”通过正视自身的价值追求,人类才能为 AI 设定更具伦理意义的起点。“在一个真正追求真理、倡导同情关系的社会中开发出的 AI ,也会更加值得信任、更加富有同情心。”
关于全球协作,赫拉利提出,几乎所有科技领袖都明知 AI 风险巨大,却不愿放慢脚步。他们承认放慢节奏、投入更多安全研究是明智的选择。但几乎所有人都表示“做不到”。原因不是技术层面的限制,而是对竞争对手的不信任。
“他们都说他们不能放慢速度,因为他们害怕他们的竞争对手。因此,在 AI 革命的核心存在着一个内在的悖论。有同样的人告诉你,他们不能相信其他人,但他们认为他们可以相信他们正在开发的 AI。这太疯狂了!”
赫拉利并没有否认人类处理历史性危机的能力。相反,他提醒我们,我们已经拥有理解问题和解决问题的资源。回顾历史,许多困扰人类的问题都来自“资源不足”,例如瘟疫、饥荒和战争。但在今天的技术社会中,更多的问题源于“信任不足”。
“我们拥有理解能力,也拥有资源。我们需要的只是动力和信任。”
完整访谈链接:
https://www.possible.fm/podcasts/yuval/
编辑:锦鲤