转自:中国科学报
“当前AI(人工智能)正处于快速演化的关键阶段。”近日,北京中关村学院院长刘铁岩在2025基础科学与人工智能论坛上表示,大模型、具身智能与科学智能三者深度融合,构成推动AI加速进化的“知识飞轮”。
当“知识飞轮”真正高效转动时,AI在某些维度上的学习与再生能力将可能超过人类。然而,刘铁岩直言,AI发展仍面临算力瓶颈、数据枯竭、评测滞后等一系列结构性挑战。
本次论坛是“2025国际基础科学大会”特别活动之一,北京中关村学院院长刘铁岩、清华大学电子工程系主任汪玉、美国纽约州立大学石溪分校顾险峰、曦智科技创始人兼CEO沈亦晨等多位专家围绕AI的根本范式、算力瓶颈议题展开讨论,500余名观众到场交流。
?
2025基础科学与人工智能论坛(赵宇彤摄)
“硬伤”犹在
“大模型能对现有知识进行充分理解、总结和逻辑推理,科学智能基于科学规律提出新假说、发现新知识,具身智能则为AI提供了与物理世界交互的路径,帮助验证与生成新的知识体系。”刘铁岩总结道。
当前,随着AI迈入复杂推理和多模态理解的新阶段,传统过度依赖堆叠算法、数据的“大力出奇迹”路径已难以再进一步拓展AI发展的边界。
?
刘铁岩作《人工智能前沿发展趋势与核心挑战》报告(赵宇彤摄)
刘铁岩指出,首当其冲的是数据瓶颈。“互联网上的自然文本数据已接近枯竭,被反复训练后边际效益显著降低。”他表示,作为大模型必不可少的“养料”,数据短缺制约其发展,尽管业界尝试拓展多模态输入、合成数据生成、交互数据采集等方式,但仍面临质量、成本和验证机制等挑战。
“当前AI系统普遍面临模型智能水平的持续提升,其推理能效却不断下降的矛盾。”清华大学电子工程系主任汪玉强调,Token(词元)是人工智能时代核心的生产要素,未来要更关注单位能耗下可生成的有效Token数量(Tokens/J),“只有当生产与应用的成本必须足够低廉、智能水平足够可靠、系统规模足够可扩展时,才能迎来真正意义上的产业革命。”
然而,如何衡量、判断不同大模型的推理能效?刘铁岩坦言,现有的模型评测体系过于惊天,容易被“对症”优化、“刷榜”提分,急需引入任务导向、动态更新与专家混合评估机制,推动评测体系回归本质。
新挑战涌现
“缺乏因果建模的能力是当前AI在自然科学、数理建模等任务上受到限制的原因。”针对AI发展的瓶颈与限制,顾险峰指出,目前AI仍以相关性建模为主,而真正的科学建模不能仅靠大量数据推导模式,而需要简约假设、逻辑自洽的因果体系。
刘铁岩则认为,部分大模型已经能“听懂”人类语言。在逻辑推理、数学解题、文本论证等任务时,具备对“因为”、“所以”等因果性文本结构的识别和理解能力,但在语义层面,是否真正理解文本背后的因果逻辑尚不明确。
近年来,多模态大模型的发展成了新热点。当认知对象从文本拓展到图像、视频,是否需要彻底摒弃token预测,转向“世界模型”等新范式?
“语言本身是人类认知的表达系统。”对此,汪玉持乐观态度,如果人类能够通过语言准确描述某一对象或规律,AI就能借助模型实现理解和总结,如果人类无法找到合适的语言描述方式,AI也无能为力。
此外,AI是否具备“原创”能力也是本次讨论热点。
“在科学研究中,重大理论的提出绝非数据堆积所能催生。最关键的一步转化,AI永远抓不住。”顾险峰直言,科学进步来自对未知现象的预判与假设,而非对已知结构的不断模仿。
沈亦晨则表示,尽管AI可以在大多数工程化问题中大显身手,但在解决10%原创性突破问题方面仍力有未逮。
“即便AI无法做到‘无中生有’,但它在已知边界上的全覆盖与组合重构,仍将对科学研究产生深远影响。”刘铁岩从产业视角指出,未来AI将在“从类比中发现新结构”方面具有巨大潜力,尤其是在AI for Science(人工智能驱动科学研究)的具体子任务中表现出色。
?
圆桌论坛(赵宇彤摄)
“下一场革命”
“AI要想走向大规模应用,必须突破能效瓶颈。”汪玉强调,这对构建下一代AI系统基础提出更高要求,不仅要处理数字信息,更需实时感知物理环境,与传感器和执行器深度融合。
对此,汪玉系统介绍了提升AI系统性能的两条路径:一是保持能效水平的同时提升智能水平,二是通过软硬件协同优化,提高单位能耗下的推理能力。“只有算法与芯片协同优化,才能实现真正意义上的系统能效提升。”汪玉强调。
然而,当前大模型对算力依赖正呈指数级增长的趋势。清华大学人工智能研究院常务副院长孙茂松举例称,最新一代大模型训练耗资约达100亿美元,需要20万张GPU卡支持,预计2035年将可能突破至1亿张卡。
“百万卡级别的计算已成为现实挑战。”沈亦晨回应道,尽管当前业界在传统电子芯片架构内尝试了多种优化策略,例如近存计算(CNM)、存内计算(CIM)、流式计算与ASIC专用芯片等不同方案,但这些仍局限于晶体管架构内部优化,算力上限仍受制于单位面积可集成晶体管数的物理天花板。
沈亦晨提出,光计算芯片或将成为新选择。要想充分发挥光计算的高能效优势,需要在算法层面推动向低精度模型优化。“同时,通过光作为连接介质,可以极大提升芯片间通信带宽与效率,解决分布式模型训练中‘多芯片如一芯片’的问题。”
汪玉补充道,无论是光计算还是电计算,关键是让让底层硬件异构对开发者透明,即“看起来就是一台机器”,进而保障工程系统的稳定性和迁移效率。
“真正的人工智能下半场,将是‘Experience-driven AI’(由经验驱动的人工智能)。”刘铁岩抛出一种全新的范式设想,由100万个机器人在物理世界中实时感知、同步数据和模型权重,实现全域智能协同,“这将超越大模型集中训练范式,形成全新的进化路径。”
“大模型的有效性是经验主义的,但它的问题也是根本性的。”面向未来,孙茂松提出新的期待,“真正的突破,有赖于我们在理论与系统两端都迈出新的一步。”
下一篇:南昌这些“神速找回”,真是太棒了