量子计算机越来越复杂,科学家如何用AI学会与它对话?
创始人
2025-10-04 21:19:15
0

1981 年,诺贝尔奖得主理查德·费曼(Richard Feynman)在美国麻省理工学院的第一届计算物理会议上提出了“量子计算”的概念,自此拉开了人类探索量子计算可行性的序幕。

在接下来的几十年里,量子计算主要处于原理验证阶段。那时的研究范式以经典模拟为主:科学家们先在经典计算机上模拟所提出的量子算法,再在量子设备上运行同样的算法,并通过对比两者的结果来验证量子设备的正确性。

2019 年成为量子计算发展的关键转折点。这一年,谷歌量子人工智能团队首次宣布实现了“量子优越性”(亦称“量子霸权”)。他们利用自研的“悬铃木”(Sycamore)53 量子比特超导芯片完成了随机电路采样实验。在发表于 Nature 的论文中,团队声称该实验在短时间内完成了传统超级计算机约需 1 万年才能完成的计算。

虽然此后不断有研究改进经典模拟方法,大幅缩短了模拟时间,但这一里程碑式实验传递出的核心信号是明确的:随着量子硬件的快速进步,经典计算机的“暴力模拟”逐渐力不从心。要知道,在暴力模拟的情况下,一台普通笔记本电脑仅能模拟约 25 个量子比特,即便是世界最强的超级计算机也只能逼近 45 比特。

自 2019 年以来,量子技术迎来高速发展。谷歌、IBM、微软、英伟达等科技巨头纷纷加码布局,量子比特的数量和质量持续提升,系统相干时间不断延长。我们一方面越来越接近梦寐以求的容错量子时代;另一方面,必须正视一个现实:每增加一个量子比特,模拟难度便呈指数增长。这意味着经典计算机难以再有效模拟这些高性能、大规模的量子处理器行为。

更棘手的问题在于:虽然量子硬件发展迅猛,但制造和维护成本极高,全球真正可用的高质量量子计算机依然屈指可数。结果就是,能用到这些顶尖设备的人非常少,算力资源被集中在少数机构手里。对大多数科研人员来说,即便有再好的算法点子,也很难真正跑在先进的量子计算机上进行验证,这就像出现了一种“算力孤岛”。

在这样的背景下,一个关键问题浮现出来:研究者们该如何理解和预测自己设计的量子算法在这些动辄数十、上百量子比特电路的表现?传统办法,比如量子断层扫描或用经典计算机模拟,都已难以为继:要么耗费海量资源,要么根本跟不上电路规模的指数级增长。于是,量子计算的发展反而面临一个悖论——它越是前进,越暴露出自己的“阿喀琉斯之踵”。

近期,新加坡南洋理工大学与富士康量子研究中心团队合作提出了一种新范式:它不像传统模拟那样完全与量子资源孤立,而是用 AI 模型学习量子计算机的行为。该研究创新性地从理论上证明了“有界门量子电路”中线性物理量的可学习性规律,并提出了一种同时兼顾样本效率和计算效率的新算法。

简而言之,在量子机器学习、量子化学、量子动力学仿真等一大类任务中,研究团队让 AI 模型充当量子计算机的代理(Agent)。一旦确定了量子算法的设计,这个 AI 模型只需从量子计算机获取极少量的结果,就能完成学习。之后,它便能够在完全不再依赖量子硬件的情况下,给出与真实量子计算机几乎一致的预测结果。

此外,如果研究者认为 AI 模型给出的结果与量子计算机还存在一定差距,可以将 AI 模型给出的结果作为初始猜想,再在真实的量子计算机上运行做微调。通过这样的方式,可以显著减少量子资源的使用。

图丨杜宇轩(来源:杜宇轩)

该论文第一作者兼通讯作者、南洋理工大学助理教授杜宇轩对 DeepTech 表示:“这项工作的意义在于,我们提出的 AI 模型可以在现有的 CPU 或 GPU 上高效运行。而这些算力依托成熟的云服务体系,已经能够在全球范围内便捷获取。这不仅大幅降低了量子计算的使用成本,也让更多研究人员能够通过这种 AI 代理来参与量子研究。”

审稿人之一对该研究评价称:“我相信对于学习量子电路的知识,是一项有价值且高质量贡献的工作。”

日前,相关论文以《针对有限门量子线路线性性质的高效学习》(Efficient learning for linear properties of bounded-gate quantum circuits)为题发表在 Nature Communications[1]。南洋理工大学助理教授杜宇轩是第一作者兼通讯作者,富士康研究院院长谢明修(Min-Hsiu Hsieh)和南洋理工大学教授陶大程担任共同通讯作者。

图丨相关论文(来源:Nature Communications)

这项研究最初的构想源于 IBM 于 2023 年发表在 Nature 发表的一项工作。IBM 声称,其所开发的量子计算机实现了“实用性”,即在解决多体物理任务时,量子计算机已经达到了一定高度,经典计算机很难“暴力模拟”。即便使用比较高端的模拟量子计算机的算法(比如张量网络),也达不到量子计算机的精度。

这篇论文发表后,引发了业内的广泛讨论。有人指出,当时对比的经典方法并非最优,也没有基于特定任务做相关改进。随后,发表在 Science Advances 以及 Physical Review Letters 等期刊的论文指出,加入先验信息可设计出比较高效的算法,至少能与量子计算机的模拟结果相媲美。

杜宇轩指出,从这种争论中可以看出,量子计算机发展到 2023 年之后,领域内已经不再满足于 2019 年谷歌在合成任务上演示的量子优越性,而是真正想在实际问题上做“划时代的工作”,而且希望比经典计算机能耗更低、资源更节省以及精度更高。

图丨 AI 代理用以学习有限门量子线路(来源:Nature Communications)

这也引发了研究团队的思考,于是研究人员提出:是否可以通过获取一些量子计算机信息的方式来解决这个问题?

研究团队进一步探讨了这一新方法的“边界”,想确认它到底能不能真正解决任意复杂量子电路中关键物理量的学习问题。理论结果表明,即便是大规模的量子系统,也可以用多项式时间或多项式样本量学习出来。

但与此同时,他们也证明了一个负面结果:虽然对于样本量来说比较高效,但对于时间成本,某类问题可能需要指数时间。

(来源:Nature Communications)

于是他们调整了研究思路,通过构建算法验证了在实际场景下,该方法仍然高效。杜宇轩解释说道:“实际场景是在很多量子化学问题或量子人工智能模型问题上,只要满足数学上的平滑条件,就可以用多项式时间与样本量学习出来。我们做了大量实验来论证这一点,结果也较为理想。”

图丨通过 60 量子位全局哈密顿量演化量子态性质的数值结果(来源:Nature Communications)

这项研究中关注的重点是量子化学和量子机器学习类问题,研究团队在这一新范式下迈出了扎实的第一步。论文发表仅三个月后,成果进展又更进一步:他们基于河南省量子信息与量子密码重点实验室黄合良副教授研制的国产自研 20 量子比特超导芯片,结合改进的 AI 代理模型,成功实现了非平衡 Floquet 对称性保护拓扑相。这种“非平衡拓扑相”是一类能在外部周期驱动下保持稳定的特殊量子态,它的实现为未来更稳健的量子计算和新型量子材料研究创造了新的可能性。

(来源:https://arxiv.org/pdf/2507.17470)

研究人员希望在未来的研究中,更深入地探索 AI 范式是否能权衡量子计算稀缺性的问题。比如在算法层,如何进一步改进 AI 模型从而大幅超越经典模拟器的极限,成为研究百万量子比特计算机的新范式;在应用层,该方法是否能够加速各类量子算法的设计,早日让量子计算在制药、材料、金融等领域获得实用性。

目前,杜宇轩教授课题组正在招募优秀本科生、硕士生、博士生和访问学者,欢迎有兴趣的同学共同探索量子计算与人工智能交叉领域的前沿研究。

参考资料:

1.Du, Y., Hsieh, MH. & Tao, D. Efficient learning for linear properties of bounded-gate quantum circuits. Nat Commun. 16, 3790 (2025). https://doi.org/10.1038/s41467-025-59198-z

2.https://yuxuan-du.github.io/

3.Liao, W., Du. Y., Wang, X., Tian, T., Tao, D., Huang, H., Demonstration of Efficient Predictive Surrogates for Large-scale Quantum Processors, arXiv:2507.17470 (2025). https://arxiv.org/pdf/2507.17470

运营/排版:何晨龙、刘雅坤

相关内容

热门资讯

唐嫣也要霸屏了,两部新剧都将在... 唐嫣也要霸屏了,两部新剧均在近日确定将在第四季度开播,这下她真是想不火都难了吧!近日,鹅厂发布了第四...
《许我耀眼》太闪亮了! 文|九儿这个秋天,都市情感剧《许我耀眼》为整个长剧市场注入了一股热烈氛围。改编自知名作家张悦然小说《...
外语专业大学生实习报告3000... ,这大概是大学生的通病,眼高手低。虽然我所做的不过是一份打杂的工作,更像是文秘助理,但如果我不做,在...
外语专业大学生实习报告3000... 传真,当听到传真发送成功后的“嘟嘟”声,我便又小小地得意一番,虽然很傻,但至少又学会了一项办公器材的...
施工监理员顶岗实习报告2000... 并安排了专业知识过硬的工程师带我,主要配合、协助土建工程师监督施工过程、工程验收以及负责旁站。初到工...