2026年1月16日,美国《防务快讯》网站报道,美国空军在“人机协作决策优势冲刺”测试中,一款人工智能(AI)工具的表现超越人类专业人员。测试显示,AI生成行动方案的速度比传统方法快90%,表现最佳的机器方案可行性与战术有效性达97%,而人类团队制定一份行动方案需要19分钟,仅有48%的选项“具备可行性与战术有效性”。此次测试涵盖规划空袭、变更战机航线、收集情报等多种任务,打破了人们对生成式AI易产生“幻觉”的担忧。
美军此次测试的AI军事决策系统,属于“窄人工智能”范畴,专门针对军事行动规划任务进行训练,无法像人类一样具备通用认知能力,但在特定任务上具有显著优势。其核心技术原理是通过大数据训练和强化学习,让AI掌握海量的军事战术规则、装备性能参数、战场环境数据,从而在面对复杂任务时,快速生成多种行动方案,并通过算法评估各方案的可行性和战术效果。
AI军事决策的最大优势是“快”和“准”。人类指挥官在制定行动方案时,需要处理海量信息,容易受到情绪、疲劳、记忆偏差等因素影响,而AI没有情绪波动,能在瞬间处理完人类需要数小时才能分析的数据,同时记住所有关键信息,避免遗漏。在此次测试中,AI在面对“基地遭破坏的战机变更航线”“异常电磁信号收集情报”等棘手任务时,能快速结合战机性能、气象条件、敌方防空部署等多种因素,生成最优方案,这是人类团队难以企及的。
此外,AI还能大幅提升决策的一致性和可重复性。人类指挥官的决策风格因人而异,不同的人面对相同的战场态势可能会做出不同的判断,而AI的决策基于统一的算法和数据,能够保持稳定的决策质量,避免因个人因素导致的决策失误。同时,AI生成的行动方案可以快速复制和调整,适合大规模作战和多兵种协同任务。
AI军事决策系统的成熟和应用,将深刻变革现代战争的模式,推动战争从“人力密集型”向“技术密集型”“智能密集型”转变。首先,在指挥控制层面,AI将成为指挥官的“超级参谋”,承担大量繁琐的信息分析、方案制定工作,让指挥官能够集中精力处理战略层面的问题,提升指挥效率和决策质量。未来的战场指挥中心可能会形成“人类指挥官+AI参谋”的模式,实现人机协同决策。
在作战样式层面,AI将催生“蜂群作战”“分布式作战”等新型作战样式。AI可以实现无人机、无人艇、无人战车等装备的自主协同,让大量低成本无人装备形成蜂群,对敌方目标实施饱和攻击,同时通过分布式部署,提升作战体系的抗毁伤能力。在乌克兰战场上,俄乌双方已开始使用无人机蜂群,但受限于人工控制,协同效率较低,未来AI主导的无人机蜂群将具备更强的作战能力。
尽管AI军事决策具有显著优势,但也存在诸多潜在风险。首先是“算法黑箱”问题,AI生成的行动方案基于复杂的算法,人类难以完全理解其决策逻辑,一旦算法出现漏洞或被黑客攻击,可能会导致严重的作战失误。其次是“伦理困境”,AI缺乏人类的道德判断能力,在面对平民目标时,可能会做出不符合战争伦理的决策,引发人道主义危机。
此外,AI军事决策高度依赖数据和网络,一旦数据被篡改或网络被攻击,AI系统将陷入瘫痪。在复杂的战场环境中,电磁干扰、网络攻击等手段层出不穷,如何保障AI系统的稳定性和安全性,是美军面临的重要挑战。同时,AI的表现也依赖于训练数据的质量,如果训练数据存在偏差或不完整,AI生成的行动方案可能会脱离实际战场情况。