倾听尼山2025 | 温海明:用儒学思想为技术狂奔的AI注入文明基因
创始人
2025-07-01 18:55:52
0

编者按

2025年7月9日至10日,第十一届尼山世界文明论坛将在山东曲阜举办。 

从2010年9月创立至今,尼山论坛汇集全球专家学者,汇聚世界文明智慧,共同为解决人类社会普遍存在的问题、为人类文明的未来发展贡献智慧,正日益成为世界了解中国的重要窗口、文明交流互鉴的重要平台、凝聚人类文明共识的重要纽带。 

当下,全球政治冲突频发、各国之间经贸壁垒陡增,不同文明之间的对话显得尤为迫切。 

本届尼山论坛的主题是“各美其美·美美与共——文明间关系与全球现代化”,并设置了“文明的起源与未来发展”“儒家文化的世界意义和时代价值”“齐鲁文化与世界文明”“在全球现代化进程中成人之美”“文明视野下的家庭意义与社会发展”“人工智能发展与人类文明走向”等多个分议题。 

这个世界如何才能做到各美其美、美美与共,不同的文明如何相处和互鉴,人类才能拥有更好的未来?结合本次论坛的主题和各分议题,经济观察报采访了来自不同国家和地区的学者与专家,以下是来自他(她)们的观察、思考和期望。

经济观察报 记者 钱玉娟

人工智能(AI)经过上百年的发展历程,走过符号推理、机器学习,迈入深度学习的阶段后,正以前所未有的速度改变着世界。

除了与人类进行交流表达,AI也在重构知识生产逻辑的基础上,狂奔至教育、制造、医疗、交通等多个领域。

从提升生产效率到促进产业升级、经济发展乃至社会进步,AI这一先进技术工具的效应加速凸显。但包括中国人民大学哲学院教授温海明在内的一些学者,在人类科技文明行至“人机共生”的十字路口时,指出技术创新存在的隐忧——AI发展如“双刃剑”,要确保科技进步不会走向与人类社会发展初衷相悖的方向。

“让AI儒家化。”温海明在2024年第10届尼山世界文明论坛上呼吁技术以及背后的开发者能拥有儒家主义心态,目的是让AI的应用符合人类发展的长远利益,促进技术和文化和谐共生。

对AI技术的演进水平,温海明多从文科领域的应用体验中感知,他肯定这一新的生产力工具带来的效率提升,但他基于意识、心灵哲学的多年研究,再经过系列哲学问题挑战DeepSeek等AI模型后,发现AI文明的构建与科技人文的共融话题,需要被学界重视并深入研讨。

2025年6月,在第11届尼山世界文明论坛启幕前,温海明接受经济观察报专访时再次谈及,AI技术不能无限狂奔,背后掌握着创新内核的开发者们,应在儒家“仁学”下怀有恻隐之心。在他看来,用儒学为AI设置伦理围栏,在科技文明社会发展的目标下,为AI重建一个“以人为本”的伦理坐标系,是在“人机共生”共识下,比驯化AI、技术迭代更紧迫的事。

AI儒家化的必要性

经济观察报:怎样的契机,促动你提出了“让AI儒家化”?

温海明:去年尼山世界文明论坛期间,我作为AI这一专场的主持人,与相关学者一起讨论的时候,就明确提出,AI的发展应该儒家化,我觉得这是很有必要的事情。

儒家以人为本,一直倡导仁爱他人之学,认为不论自己还是别人,都是有情感、爱心的生命体,而目前来看,AI作为人类的一个智能工具,虽然可以增强人们在运算、思考等很多方面的技能和效率,但是机器相对来说是冷冰冰的。

即便如此,我们希望AI发展会趋向于“把人当人”,不能在慢慢渗透至人类工作生活相关的场景后,产生技术霸权。AI发展需要得到正确引导,其发展如果完全没有方向,只是纯技术化地谋求迅速更新迭代,极有可能走向与我们初衷相悖的状态。

现在各行业都在关心AI未来会怎样发展,我觉得如果AI能自主思考的话,首先需要认真思考与发明它的主人,即人类的关系。一定程度上,AI能否学着去理解人类,是AI技术演进的一个重要课题。简而言之,我希望由人类发明的AI,今后能够理解儒家的“忠恕”之道,有推己及人的能力。

经济观察报:AI技术的飞速发展,不免让行业内产生“AI或将替代人类”的系列猜想。儒家探究“关系性存在”,你觉得AI应该如何更好地处理与人类的关系?

温海明:AI虽然是一个工具性存在,但它和之前所有因技术创新而诞生的工具不太一样。后者多是由人类去发出命令,技术工具照指令行事,人类有比较确定的把握,知道这个工具会怎么样去实现。AI则是在人类实现自我认知与技术探索后,发明出来的一个智能工具,现如今它甚至能独立思考,尝试去理解人的想法和情绪,反而是人不能完全理解AI,不知未来会何去何从。

人类原来是把工具型的技术或能力拿来为我所用,但是现在你会发现,AI不再是纯粹的工具,它有一定智力,很多时候的表现还会超出我们的想象。所以有些人开始悲观地预判,认为AI会在超越人以后再毁灭人。

正是因为预见到可能的危险,我们需要把AI往比较乐观的道路上去引导,尽可能防止它变成一个破坏性的力量。从中国古代阴阳学说来看,AI发展本身有两面性,像一把双刃剑,可能造福人类,也可能伤害人类,这就要求我们去探究如何充分地利用、引导其对人有利的一面,把不利于人类文明社会发展或具有破坏性的另一面减少或者去掉。

在社会生活当中,人的情感也是两面的,绵延两千多年的儒家学说,可以说只强调仁爱、忠恕,强调推己及人,“己欲立而立人,己欲达而达人”,强调“己所不欲勿施于人”。儒家学说的“普世价值”在于,它不断强调“人之为人”的正面、共情且共通的价值。也正因此,人们才能把一个可能潜在不利的东西,转化成“为我所用”之物。

AI现在朝着自主学习方向发展,如果人类不去充分、正确地引导,不把它儒家化,那人类就可能面临越来越大的麻烦。

经济观察报:你会担心AI未来不可控,技术作恶?

温海明:这是需要警惕的。开发AI、调教AI的技术人员应该有儒家情怀,才能让AI充分理解与人的关系,在AI思考或做决策的过程中,坚持“把人当人”,才能尽量避免技术作恶的可能。

我觉得AI与人的共情能力需要提升,这给开发人员提出了更高要求,而这也反映出,儒家情怀可能是研发工程师们推动技术狂飙突进过程中缺失的东西。

经济观察报:你希望AI开发者们拥抱儒家情怀,反观儒学中“人之为人”的核心价值,是否需要在AI时代进行新的价值锚定?

温海明:确实儒家情怀需要与时俱进。我提出人是意念创生的存在,可以通过一个人的意识实化状态,来对其形成监督和判断,也就是说,人的存在,其实就是其意识存在的状态。

人类的意识过去可能通过记录在纸片上存在,之后产生了手机、电脑等表达个人意识的终端设备。今天很多人如果丢了手机,就会像丢了魂儿似的,那是因为人们越来越多的私人数据存在手机上,手机终端已经成为人跟这个世界共在的一部分。

现如今伴随AI的发展,一个人若对AI的使用愈发频繁,他的意识就会跟AI绑定得越深,他也将变成跟AI共在的关系人。可以说,AI时代的人不再是原来单纯肉体意义的人,已经变成了“超自然人”状态,即与AI共生或人机共生的状态。

“人机共生”是趋势

经济观察报:你也提及人们对AI的认知、判断已分化为乐观、悲观两派,这也引申出了人文社会与技术融合与冲突的讨论。

温海明:其实讲到人机共生体,就代表当下人类文明与AI这种机器智能已经是一个融合状态。

我长期研究意本论,认为人之为人的存在,最根本是意识存续的状态,当人的意识和AI深度绑定,高度融合,这可以说是中国传统哲学心物一元或心物交融的现实体现。

西方哲学主张心物二元,认为身体和心灵是分开的,心灵、意识又和物质分开。AI技术发展下,身心关系、心物关系越来越趋向一元论,因为人和终端以及AI已经深度绑定,今天愈发走向了一种类似量子纠缠的关系,人与世界之前的那种关联关系,今天变成了人机一体化、人与AI一体化的共生状态。

经济观察报:中国哲学主张天人合一,这和现今技术演变背景下,绝大多数人对未来AI世界的趋势预判是“人机共生”有逻辑共通性。

温海明:对,现在我们已经处于人机共生、人机交融的状态,最后走向的将是人类与AI世界混于一体,技术帮我们实现了人和AI世界深度绑定、融通一体的可能性。

经济观察报:在AI与人类文明的创新融合中,现实中已有不少传统文化、历史古籍等基于AIGC(人工智能生成内容)再呈现,像哲学这类深奥的思想,是否有被AI从技术和深入学习后消解了文化深度的可能?

温海明:这要分不同层面来讲,首先要看数字人文,不只是经典古籍,像一些博物馆已经利用AI数字技术“复原”佛像,将流失海外的佛头与佛身虚拟地连接出来,供国人一睹佛像当年完整的状态。还有像清明上河图这样的画卷,通过AI视觉化的呈现,让观众的感受更生动。

在数字人文方面,AI有很正面的价值,它让不少经典“复活”,这种文化与技术的融合是一个活化的过程。

不过,AI对经典的诠释,除了形象化的呈现,还需要对经典本身的内涵义理有更深理解,这是当下比较难的事情。

我认为在中国传统文化中,最为精深奥妙的便是与哲理性相关的内容,比如书法的气韵,文字蕴藏的义理,经典背后的历史情景,古人交流的语境等。这估计是AI特别难理解的方面。

AI可以处理文字、图像资料,甚至再创作加以呈现出来,一旦涉及到哲学义理的知识,AI的长处在于整理,不在理解。从目前对一些AI产品的体验来看,AI离充分理解哲学还有距离,要真正消解人类文化的深度不容易。 

经济观察报:哲学学者一般会拿怎样的问题去挑战DeepSeek们呢?AI给出的回答,又有哪些会让你惊喜?

温海明:如果用一些比较难理解的哲学问题去挑战DeepSeek,会发现它对很多问题有大概的了解,也能回答清楚,但它往往是对问题有通用型的理解,对类似问题甚至会重复相关回答。

AI表示它也懂,大概知道问题出自哪里,什么意思,它看起来能给你解释得头头是道,让你觉得AI确实有经验,一旦你多次提出类似的问题,会发现AI回答近乎雷同。

分析是一套方法,显然AI的理解分析能力还有较大的提升空间。但不管怎么说,AI的资料、数据丰富性已经超出大部分人所能得到或想到的程度,它的运算处理速度也更快,对人类的工作提效带来很大帮助。 

经济观察报:给AI提供丰富的知识库甚至场景学习,让它加速进化迭代,一个被人类驯化得更好的AI,能与人类文明融合得更快?

温海明:如果一座“观音”机器人不仅会合掌诵经,还会在人们向它发问时,给出有佛学意味且令人满意的回答,民众就可能开始供养这个机器人,会尊崇AI为大师。

这就像DeepSeek们可以回答各种各样的问题,一下子震惊所有人,即使佛学、道学等深奥问题,也可以有问必答。一定程度上说明,伴随技术发展,AI通过深度学习,是能理解哲学义理的。我们可以思考,AI基于算法、理性,最后是否能提升到人类直觉性或者开悟性的状态。

可能的AI佛祖也许会表现出AI开悟的那面,AI能进化到怎样的状态?投喂大量数据,让AI进行海量学习之后,AI可能也会突然开悟。

人类社会繁杂的数据在AI面前都成了小儿科,至于最精妙的义理,能不能被AI所拥有,有的人持乐观态度,我不能判断AI行与不行,只是要强调的是,一旦AI在哲学方面都能够超越人类,它真的就变成一个大师级的存在。如康德所说,理性分析还是有边界的,AI目前基于数据、算法等与人类进行的交互,还是偏理性的,一旦要上升到开悟状态,需要超越理性的边界。

经济观察报:超越性是指AI在情感意识方面的融入,超越机器化,像人一样是理性加感性的?

温海明:目前AI总体来说还是理性地对海量数据、资料进行学习,它能否加入感性思维,又会引发不少悲观态度的人思考,AI有自我意识和情感后,就像人一样思考和体验,且它的运算能力远远超过人类,一旦AI的情感是反人类的,那就很麻烦。

这也是我主张让AI儒家化的原因所在,当AI有了感情,就更要驯化它具有恻隐之心,能够理解人,甚至对人有同情心。目前大家都知道AI不一定是善良的,在它还偏机器和工具的时候,若不正确规范引导,一旦出现反人类的情感,就等于人类把自己送上了毁灭之路。

不仅是设置AI伦理围栏

经济观察报:儒学讲“己所不欲勿施于人”,从科技人文视角看,是否也应该“己所不欲勿施于AI”?技术创新背后紧跟着的是治理问题,现在像AI医疗等应用落地场景下,非人决策引发的伦理讨论备受关注,你的相关研究中,哪些可以作为AI伦理的原则性标准?

温海明:伴随技术发展,引入AI伦理相关讨论特别有意义。不只是AI生物诊疗中的医疗决策开始非人化,由机器做决策的还包括当前火爆的无人驾驶相关。

过去,医疗、交通驾驶的决策,其责任主体都是人,如今AI机器决策,反倒成了医疗机构、驾驶员撇清责任的借口。

机器本应该是人的价值延伸,作为辅助技术来帮助人,而非彻底代替责任主体。即便技术无限发展,真正彻底实现了无人驾驶以后,AI也无法保证100%不出错,假设事故率是1‱,AI也不应该因为容错率就不担责任。

人类作为责任主体,可以被要求承担责任,那么AI时代该由谁来限制可能出现的问题,约束其不会因为技术狂奔走向相反的方向?

经济观察报:开发者们不回避AI仍是存在幻觉的,难以避免会出错,这就像给了AI一个免责的合理借口。

温海明:人类驾驶时因为累出现了幻觉,造成事故,要负相应的责任,这是后果论。今天到了AI时代,不能因为AI可能有幻觉,就让相关人规避责任。

AI既然已经介入人类工作生活等多个场景,那它在进行相关决策后就要负相应的责任,相对来看,AI的容错率应该比人还低,其要负的责任则更高才对。

不能因为AI是新技术,就纵容它出错,尤其在可能伤害人类的情境当中,背后训练AI的技术人员不能逃避相应的责任。 

经济观察报:用伦理规则约束AI技术,其实在行业内已有较高呼声,但面对狂奔在前的技术,你觉得该如何避免上述规则或讨论声音沦为技术发展的附庸?

温海明:与驾驶相关的伦理规则、责任事故认定等,是和驾驶、公路等技术一并发展起来的,到今天已经是相当完善的状态。所以AI治理或伦理的探讨,需要和技术发展同步进行。

我担心优先技术发展再去做治理的方式,极有可能让一些想逃脱伦理责任的人,在AI应用落地的诸多可能性当中,做一些不合伦理或难以被监督治理的事情。

因此,我也呼吁AI伦理、AI治理甚至相关法律的介入,都应该是与技术发展同步,要坚持“以人为本”的基本原则,为AI发展设置约束的围栏。

人类社会创新生产出来的技术,不管如何高精尖,都不能脱离“以人为本”,一旦以技术为本,让技术狂奔,AI或许有一天会在理解人后,更肆意地操控人、伤害人,这是很可怕的事情。 

经济观察报:你觉得眼下的AI技术,是否称得上人类文明发展进程中一个比较乐观的技术伙伴?

温海明:我认为AI的发展应该像手机、电脑那样为人所用,超出为人所用的部分,需要谨慎,这也在一定程度上要求技术相对缓慢地演进。

像很多车载场景已经接入了自动驾驶技术,但驾驶的伦理、法规并没有修改,现在行业强调自动驾驶还是工具,不应该仓促地大力推进,毕竟这一技术涉及到人类的生命财产安全。手机、电脑等诞生出来的时候,也有不少技术因不能真正帮助到人,渐渐被淘汰。AI发展同样,我们对待这一新技术,能否像目前已有的技术一样,有更多的耐心,朝着对人有利的角度去开发?

技术演进要循序渐进,而背后做研发的技术工程师们,更不该无限狂奔,避免给人类社会发展带来伤害的可能。 

经济观察报:能感受到你期许将来能进入一个“人机共生”的新型文明生态,但又不希望这个进程太快。

温海明:确实,技术应用于人文发展存在不利的方面,该规避就规避,该限制就限制。现在人们极度关注AI,经常看到一些宣传说“五年之后AI会替代多少行业”,这种说法其实是在制造焦虑,是不应该出现的。 

经济观察报:科技圈会勾勒一个技术普惠的愿景图,而AI因为算法被认为存在规则不平等,你如何从哲学视角分析算法对人的区别性?

温海明:AI到底是让社会更公平,还是加剧了不公平,这是很有意思的话题。今天通过终端应用等获取来的信息几乎没有信息差。但算法不同,控制AI和算法的人,将其变成有用的工具,而让大多数人成为算法操控的对象,这就回到了AI儒家化的问题。

手握AI先进技术,用算法控制信息的人,如果没有儒家情怀,就会把人变成资源,视人为“矿”,通过非人化手段将人变得物质化,这是很可怕的。 

经济观察报:真正实现AI普惠,其实契合儒家所倡导的“天下大同”思想,只是,想要切实促进人类科技文明社会的发展,眼下行业还有很长的路要走。

温海明:对,我觉得首先要有耐心,顺其自然,发展AI不能操之过急;其次是问题衍生出来,就要及时讨论解决办法,及时治理;第三是人类创新开发出来的一切前沿技术,不论应用于人类社会的哪些方面,都必须“以人为本”。

AI融入并推进人类社会发展,一定能够推动人与人之间实现更多公平、普惠。 

经济观察报:你与多位学者在今年展开一些思想学术讨论,其中就涉及对AI葆有质疑、批判精神,这是心灵哲学领域对AI与人类文明融合的共识吗?

温海明:对,中西方哲学家们都在对AI进行思考,担心AI慢慢地自我进化,将来有意识、情感后,它若脱离人类控制,将会给人类社会带去不可想象的麻烦。

当然未来AI是否会不可控地闯入人类文明生态中,取决于掌握着顶尖技术的科学家们,他们是否能够掌控、引导AI。总而言之,要展望人类科技文明的乐观将来,一件重要的事就是用儒学思想为技术狂奔的AI注入文明基因。

(作者 钱玉娟)

相关内容

热门资讯

关于稳定币,京东发布最新声明→   炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会! 据京东发言人微博消息...
2019年十大谣言盘点 被拐儿... 编者按:中国每年20万儿童被拐,只有0.1%被找回?多喝水能治疗感冒?“80后”或成无养老金可领的第...
兰州市委原常委张国一被诉 严重... 兰州市委原常委张国一涉受贿被诉,曾被指破坏地方政治生态张国一甘肃省人民检察院最新或2023(历届)1...
北京尚有三成车主未办ETC E... 尚有三成车主未办ETC高速通行速度“冰火两重天”ETC通行比混合车道快五倍本报记者 孙宏阳1月1日零...
上海静安置业终止与中诚信国际信... 观点网讯:7月1日,上海静安置业(集团)有限公司发布公告,宣布终止与中诚信国际信用评级有限责任公司的...