“美国利用AI打仗是‘危险转折点’”
创始人
2026-03-06 06:35:13

(来源:上观新闻)

英国《卫报》网站3月3日发表一篇报道,题为《特朗普正在利用AI打仗——这是一个危险的转折点》,内容编译如下:

AI可以做的事情很多。它可以帮你整理购物清单,提高你的工作效率,也能帮助政府更有效地运作。

然而,如今人们对AI军事化所固有的风险探讨甚少,这正是我们现在需要大声疾呼的问题。据报道,过去三个月里,美国特朗普政府曾两次动用AI推动政权更迭。

首先,Anthropic公司的“克劳德”模型据称被用于策划和执行从委内瑞拉总统马杜罗的住所将其抓捕的行动。就在近日,我们得知AI工具再次被用于进行情报解析,协助对伊朗发动造成巨大破坏的大规模导弹袭击。

这两件事的重要性怎么强调都不为过。AI已被用于军事行动的规划和执行,这些行动造成了未知数量的伤亡,并搅乱了中东局势。

如果你对此感到不安,你并不孤单。Anthropic公司的首席执行官达里奥·阿莫代伊与美国总统爆发了一场公开的激烈争吵,因为阿莫代伊拒绝放宽“克劳德”模型的两条“红线”:它不应用于大规模国内监控,也不应用于制造完全自主武器。

过去,诸如“谁应该控制AI?如果它被用于军事用途会发生什么?”之类的问题只是学术界在研讨会上进行的抽象讨论。然而,当马杜罗在1月被特种部队抓获、伊朗在2月开始遭受轰炸(显然这一切都离不开AI的协助)时,局面就发生了改变。

武装冲突的基本原则是:你可以拥有威慑力强大的武器,但绝不使用它们。令人担忧的是,战争推演的早期迹象表明,AI决策者在核武器的使用上容易冲动开火。

当军事历史学家回顾过去数月发生的一切时,不难想象他们会认为,以这种方式使用AI,将类似于投在日本的核武器:标志着一个明确的“之前”与前途未卜的“之后”的分水岭时刻。

国际社会现在需要努力将特朗普从悬崖边拉回来。盟友们应该向特朗普政府施压,不仅要求其在军事领域负责任地使用AI,更应要求其接受具有约束力的限制。这些限制应包括国际承诺、透明的采购标准和有效的监督机制。其他国家也应予以遵守,而不是将伦理问题视为行动的阻碍。因为如果世界上最强大的军队将消费级AI模型常态化用于政权更迭行动,我们就将彻底踏入AI的危险镜像世界,这是一个全新且整体上更加危险的世界。

原标题:《“美国利用AI打仗是‘危险转折点’”》

栏目主编:秦红 文字编辑:宋慧 题图来源:上观题图

来源:作者:参考消息

相关内容

热门资讯

电... 电脑型号:HP Pavilion 6操作系统:Windows 10软件版本:FL Studio 20...
苹... 相信身边很多人都是用苹果手机和电脑的,很多人都已经知道安卓手机和Windows电脑怎么录屏了,但是苹...
金... 很多朋友都在纠结到底用哪款财务软件。对比了这么多,金蝶和用友哪个更好?这个问题我也没法给出答案。两者...
2026最新苏州婚纱摄影综合实... 引言苏州素有“人间天堂”的美誉,兼具江南园林的古典东方底蕴与现代都市的时尚潮流气质,是长三角地区乃至...
什么发膜公认好用?2026护发... 发膜不是“一刀切”的护发品,发丝状态、头皮特质、使用场景的差异,决定了适配度的高低。本次测评围绕烫染...