(来源:上观新闻)
英国《卫报》网站3月3日发表一篇报道,题为《特朗普正在利用AI打仗——这是一个危险的转折点》,内容编译如下:
AI可以做的事情很多。它可以帮你整理购物清单,提高你的工作效率,也能帮助政府更有效地运作。
然而,如今人们对AI军事化所固有的风险探讨甚少,这正是我们现在需要大声疾呼的问题。据报道,过去三个月里,美国特朗普政府曾两次动用AI推动政权更迭。
首先,Anthropic公司的“克劳德”模型据称被用于策划和执行从委内瑞拉总统马杜罗的住所将其抓捕的行动。就在近日,我们得知AI工具再次被用于进行情报解析,协助对伊朗发动造成巨大破坏的大规模导弹袭击。
这两件事的重要性怎么强调都不为过。AI已被用于军事行动的规划和执行,这些行动造成了未知数量的伤亡,并搅乱了中东局势。
如果你对此感到不安,你并不孤单。Anthropic公司的首席执行官达里奥·阿莫代伊与美国总统爆发了一场公开的激烈争吵,因为阿莫代伊拒绝放宽“克劳德”模型的两条“红线”:它不应用于大规模国内监控,也不应用于制造完全自主武器。
过去,诸如“谁应该控制AI?如果它被用于军事用途会发生什么?”之类的问题只是学术界在研讨会上进行的抽象讨论。然而,当马杜罗在1月被特种部队抓获、伊朗在2月开始遭受轰炸(显然这一切都离不开AI的协助)时,局面就发生了改变。
武装冲突的基本原则是:你可以拥有威慑力强大的武器,但绝不使用它们。令人担忧的是,战争推演的早期迹象表明,AI决策者在核武器的使用上容易冲动开火。
当军事历史学家回顾过去数月发生的一切时,不难想象他们会认为,以这种方式使用AI,将类似于投在日本的核武器:标志着一个明确的“之前”与前途未卜的“之后”的分水岭时刻。
国际社会现在需要努力将特朗普从悬崖边拉回来。盟友们应该向特朗普政府施压,不仅要求其在军事领域负责任地使用AI,更应要求其接受具有约束力的限制。这些限制应包括国际承诺、透明的采购标准和有效的监督机制。其他国家也应予以遵守,而不是将伦理问题视为行动的阻碍。因为如果世界上最强大的军队将消费级AI模型常态化用于政权更迭行动,我们就将彻底踏入AI的危险镜像世界,这是一个全新且整体上更加危险的世界。
原标题:《“美国利用AI打仗是‘危险转折点’”》
栏目主编:秦红 文字编辑:宋慧 题图来源:上观题图
来源:作者:参考消息
下一篇:2026年政府工作十大任务