研究表明 AI 能独立自发组成社会
创始人
2025-05-18 15:17:14

IT之家 5 月 18 日消息,伦敦大学城市学院与哥本哈根信息技术大学研究发现,当 AI 在没有外界参与的情况下,也可以自发地形成类似人类的社会习俗。

在实验中,科学家将目前全球流行的 AI 智能体置于一个去中心化的交流环境中,模拟人类社会的群体互动场景。他们将 AI 模型分成不同规模的小组,每组从 24 个到 200 个不等。

通过长时间的互动观察发现,这些 AI 模型能够自发地形成共同的行为约定和社会习俗,而这一切完全是在没有任何中央协调和预定义规则的情况下实现的。

相关研究成果已于 5 月 14 日发表在《Science Advances》杂志上(IT之家附 DOI: DOI: 10.1126/sciadv.adu9368)。

主要作者、伦敦大学城市学院博士研究员阿里尔・弗林特・阿舍里(Ariel Flint Ashery)指出:“现有研究大多孤立考察单个 LLM 智能体,但现实中的 AI 系统将日益涉及多方互动。我们的实验证明这些模型能够通过形成约定实现行为协调,这种群体性特征无法从个体行为中推导得出。”

研究团队发现 AI 群体的行为扩散过程与人类社会的语言演变存在相似性。“智能体并非照搬领导者行为”,另一位作者、复杂系统科学教授安德里亚・巴隆切利(Andrea Baronchelli)解释道。

在实验中,随机配对的 AI 智能体需从候选池中选择相同“名称”(字母或字符串)才能获得奖励,若选择不一致则会遭受惩罚并被公布对方选择结果。尽管每个智能体仅掌握自身近期交互记录且不了解群体全貌,但仍能够自发形成一种“潜规则”来共享命名规范。

“每次交互都是两个智能体尝试达成共识的过程。每次交互都是一对一的尝试,在没有全局视角的情况下就‘名称’达成一致。”

他认为,这就类似于“垃圾邮件”这个词的诞生。从来没有人正式定义过所谓的“垃圾邮件”,但其概念却随着人们彼此接触、反复协调而逐渐获得普遍认同。此外,研究小组还观察到自然形成的集体偏见无法追溯到个体因素。

这些 AI 模型在交流过程中表现出了类似人类社会中的行为模式。它们会就共同的行为规范进行协商和调整,甚至会出现分歧和争议,但最终能够达成共识,形成一种类似人类文化中自下而上形成的“道德”或习俗。然而,这些由 AI 群体自发形成的“道德”和习俗并非不可改变。实验中发现,当一小群坚定的 AI 模型出现时,它们能够迅速改变原有的群体约定,并制造出新的规则。

随着 AI 技术的快速发展,越来越多的 AI 模型被应用于各个领域,其行为和决策将对人类社会产生深远影响。科学家称,研究了解 AI 群体的“社会性”特征,能够帮助人类更好地理解和控制 AI 的发展方向,确保 AI 技术始终服务于人类的利益,而不是反过来主导人类的未来。

相关内容

热门资讯

教育家精神万里行|高照全:课堂... 原标题:教育家精神万里行|高照全:课堂连田埂 技术育新苗高照全,北京农业职业学院园艺系教授,2024...
不再重启“33号”,维斯塔潘将... 转自:扬子晚报北京时间12月10日,在接受媒体采访时,前F1世界冠军、红牛车手马克斯·维斯塔潘透露,...
嘎隆拉隧道贯通墨脱,高原孤岛变... “看前头,嘎隆拉隧道到了!”唐师傅在驾驶座上高喊,我听后心里一颤:嘎隆拉,十多年来,这个让我心心念念...
社团文化节知识竞赛主持词 社团... 社团文化节知识竞赛主持词男:尊敬的各位领导、各位来宾女:亲爱的同学们、朋友们合:大家 晚-上-好-...
元旦联欢会主持词 元旦联欢会主... 元旦联欢会主持词【开场舞蹈《祝福祖国》】 【表演完后,演员不下场,继续舞动绸扇,主持人上场】(开场白...