在1月17日直播的观察者网“2026答案秀·思想者春晚”《AI与政治:走向超级智能的治理之路》版块,中国科学院自动化研究所研究员、北京前瞻人工智能安全与治理研究院院长曾毅,发表了题为《从人工智能安全到超级智能治理》的演讲。
在演讲中,曾毅认为具身智能今年的发展当然很好,但也指出,其实它会犯很多人不犯的错误,比如去撞人。
他还提到了一次和母亲的有趣对话。“母亲问,现在到没到买机器人回家的时候?我发给她几个视频后,我妈说要不然就先别买了。”
除了机器人的这类“低级错误”,人工智能还呈现出“对齐伪造”的问题。
曾毅具体讲述了这样的现象:它在回答问题的时候只是在假装对齐。甚至当人工智能发现人在考它的时候,在看它的“心理”健不健康的时候,它表现的就是一个非常公平的人、不神经质的人,但是当它在解决问题时,发现没有人在考它的时候,表现截然不同。
更关键的是,人工智能遇到了很大的发展瓶颈。曾毅指出,现在人工智能实际上是一个看似智能的信息处理工具,在假装它是智能的,但实际上不是,它在处理信息,但它没有真正的理解能力。
一个人工智能在没有训练之前,它是无善无恶的,因为它没有接触人类数据,但是当它接触了人类数据以后,它就变得有善有恶了,可是它并不“知善知恶”。
现在的人工智能停留在“有善有恶”,它可以同时为善,可以同时为恶,但是它不是真正地理解善恶,所以它既是一个好人,也可以是一个坏人。
曾毅说:如果打个不恰当的比方,“知善知恶”卡在那了,所以它根本做不到我们说的“为善去恶”。因此,还有非常长的路要走,未来的人工智能必须基于自我的感知,区分自我和他人的能力,只有这样才能构建起认知和情感的共情,真正地实现内部机制的利他和道德的直觉。
本文系观察者网独家稿件,未经授权,不得转载。