思考:阻止自主武器的扩散是否已为时太晚?

如果智能自主武器是战争的未来,那么美国也就别无选择,只能努力应对它的复杂性。

国会任命了一个国家人工智能安全委员会,最近,它得出结论,"我们可以期待人工智能能力的大规模扩散"。最近的利比亚冲突似乎验证了关于人工智能(AI)的这一结论,根据联合国的一份报告,忠于利比亚将军哈利法-哈夫塔尔的士兵,使用了土耳其制造的Kargu-2无人机,"追捕并遥控参与"撤退的部队。目前还不清楚Kargu-2是否使用了它的智能自主能力,但是,土耳其政府承认它可以提供这种能力。

同样,俄罗斯在入侵乌克兰期间也使用了KUB-BLA游荡弹药,据说还有柳叶刀3。当然,这里的一些细节也很模糊。一些分析家对KUB-BLA是否拥有人工智能自主能力持怀疑态度,而且,关于使用柳叶刀3的说法,不是来自独立核实的战场图像,而来自俄罗斯国有国防集团Rostec。正是该集团拥有柳叶刀3的制造商。更加令人困惑的是:在每种情况下,无人机的自主操作显然是一种选择,尽管它可能不会被行使。这使得核查工作变得相当困难。

不那么模糊的是,美国需要考虑关于自主武器不扩散和反扩散的政策。这种政策需要根据特定武器的军事价值、对区域和全球竞争的影响以及获取的难易程度,进行细微的调整和风险告知。在某些情况下,美国应将自主武器视为外交政策中的另一个工具:广泛分享武器以支持盟友并削弱对手。在其他情况下,美国应该积极追求不扩散和反扩散,甚至包括对美国使用某些自主武器也采取有约束力的限制。

认清扩散的风险

严格来说,自主武器只是一种能够自行选择和攻击目标的武器。实际上,任何可以想象到的武器系统都可以让它变成自主武器。闲置弹药、地雷、主动防护系统以及反火箭、火炮和迫击炮系统都在使用先端技术,根据细节,就可能属于自主武器的范畴。

中国最近公布了能够发射无人机群的无人母舰,俄罗斯也正在研究用于反潜战的海底潜行器群,而印度则已经展示了一个能够自主打击士兵和车辆的75架无人机群。人工智能(AI)的发展是一个关键的推动因素,它可以保证更好地探测物体和改善决策。因此,基于AI的自主武器是一个关键的新兴问题。然而,严格来说,人工智能并不是一个系统自主的必要条件。不过,这篇文章将基于人工智能的系统作为当前的主题。

系统的广泛性意味着对扩散的关注有很大的不同。美国可能不需要太担心防御性系统的扩散;它甚至可以鼓励扩散,以保护关键基础设施免受多架无人机的攻击。

美国向阿拉伯联合酋长国出售F-35战斗机的"会"与"不会"的动态,说明了细节的重要性。美国国防部高级研究计划局(DARPA)的实验发现,人工智能驾驶的F-16战斗机在斗狗中占了上风。该技术仍处于非常初级的阶段,模拟并不是现实,但是,未来具有类似能力的作战系统,可能会大大影响区域权力平衡。因此,出口和更广泛的扩散问题,应基于对现有力量平衡以及自主武器如何塑造这种力量的仔细评估。

一般来说,人工智能自主系统的军事价值来自于质量和速度。从理论上讲,让人类从摆脱循环使用可以降低系统成本,使行为者可以部署更多的系统,并有可能压倒大型、昂贵的平台。或者一个国家可以创建广泛的战斗网络,在一个地区分配大量廉价的自主武器。人工智能也可能允许更快的战术决策,更迅速地完成从感觉到决策的循环过程。自主武器的可负担性表明它们可能有利于防御。不过,由于应用如此广泛,一时很难得出明确的结论。

系统的可靠性也是一个关键因素。人道主义者喜欢强调自主错误的风险。毕竟机器视觉的自主武器可能很容易被欺骗,也许会杀害平民。但是,可靠性也有重大的军事后果。未能摧毁目标的武器,就是对资源的浪费,甚至使士兵处于危险之中。它也可能产生战略影响,比如危机的意外升级或展示实力的失败。

尽管武器设计者肯定会致力于建造可靠的自主武器,但人工智能的不可预测性、数据依赖性和计算限制,很可能会限制系统的可靠程度。各国的风险容忍度也会不同:美国几十年前就放弃了化学武器,部分原因是它们太不可靠;巴沙尔-阿萨德政府在正在进行的叙利亚内战中广泛使用化学武器。对于一个试图镇压国内反对派团体的专制政权来说,一些不可靠的东西可能比错误更有特点。

建造简单的基于人工智能的自主武器,表面上几乎是微不足道,甚至很容易在网上找到建造自主彩弹枪炮塔的指导。然而,要建立一个强大的系统,以适应战场上的众多复杂情况,那就要困难得多。识别人是一回事,那么坦克或装甲运兵车呢?如果下雨、下雪、有雾或只是阴天怎么办?如果目标被部分遮挡怎么办?如果坦克上画着一个大"Z"怎么办?如果各国采用未经测试和不可靠的自主武器,根本没有去充分考虑到这些因素,那么美国实际上可能要鼓励更可靠的系统的扩散。这可能包括提供技术援助以评估和提高系统的可靠性,提供训练有素的人工智能算法,或提供完整的武器。

基于人工智能的自主武器扩散的可能性,也会有所不同。为了考虑扩散途径,我们将考虑一个假想的自主战斗机,即F-AI。

扩散途径

假定到了2050年,美国正在使用一种新的战斗机,即F-AI。F-AI几乎能完全自主:它可以识别和对付对手的战斗机,根据外部数据反馈避开对手的防空系统,执行人类指定的任务,并执行基本活动,如规划路线、空中加油和降落。F-AI比上一代空中优势战斗机包括一些系统升级,然而,它的主要变化是AI战斗芯片。人工智能战斗芯片是在战斗中允许高度精确的自主运动,预测敌人的运动,并选择和发射一系列的弹药。DARPA的人工智能狗斗实验可以说是有先见之明,其中F-AI彻底地主宰了天空。自然,美国不希望战机落入坏人之手。为此,美国需要担心三件事:系统捕获、非法贩运和本土开发。

2011年,伊朗声称通过欺骗全球定位系统和干扰通信,捕获了一架洛克希德-马丁公司的RQ-170哨兵无人机。美国否认伊朗做到这一点,但显然需要考虑这种可能性,特别是在系统纳入更大的自主权之后。人工智能有脆弱性,其中一个像素的变化甚至可能导致系统看到一只狗,而不是隐形轰炸机。这其实也就说明系统捕获也是F-AI的一个风险。即使没有这一点,系统也可能在日常战斗中被夺走。

系统设计会是扩散风险的一个主要因素。假设F-AI合理地完好无损,对手可以打破任何网络安全措施,并且软件没有自我清除,那么代码在支持对手的本土开发方面可能是无用的。战斗核心系统可能会根据F-AI的特定参数和组件进行优化,如推重比、转弯率、武器系统范围和类型以及飞行控制器。

即使人工智能的战斗核心部件可以被完全提取出来,它在一个新的系统中也可能完全会没有用处。

系统设计也将是非法转移风险的一个主要因素。如果人工智能战斗核心系统可以被有意义地分离,武器贩运就会成为一个大问题。一个对手或其他感兴趣的国家可以试图只偷取人工智能控制系统。就像网络武器一样,战斗核心系统可能作为硬盘被偷运出去。

如果一个国家试图建造自己的F-AI怎么办?军民两用技术的困境,可能会变得很严重,因为民用和军用人工智能工作从外面看可能很相似,都是利用类似的设备、硬件和人才。

任何自主武器系统都必须经过武器开发的正常阶段。这意味着建立需求,采购零件,制造飞机,并确保这该死的东西能飞起来。这意味着测试场、生产设施、获得技术专家、培训用户和维护人员,以及管理操作的组织支持。

此外,人工智能专用系统可能需要满足其他军事标准,例如对微芯片进行辐射加固,以抵御核爆炸的辐射。很少有民用人工智能应用需要对微芯片进行辐射加固,民用太空项目除外。因此,也可能需要大规模生产辐射加固的人工智能芯片或辐射加固的商业人工智能芯片的设施。所有这些都可能成为情报收集和分析的目标,或者,如果需要的话,通过拦截专用部件或破坏来反扩散。

如果人工智能的战斗核心部件不能被有意义地分离,那么F-AI的武器贩运可能就不是一个问题。主要武器系统的贸易往往会引起公众的极大关注,比如最近美国决定向乌克兰出售MQ-1C无人机。因此,试图用草图购买F-AI的行为也会受到关注。作为一个物理上的大型平台,F-AI无疑需要各种各样的维护人员,而且,有人可能会注意到F-AI的失踪。即使对手成功地完成了"十一罗汉"式的抢劫,抓住了F-AI,普通的出口控制措施仍然很重要:执法调查,核实F-AI运输时的最终用户和用途;以及检查货物中的违禁品。

当然,对于较小的自主系统来说,武器贩运仍可能是一个问题。2021年2月,以色列宣布它正在调查20名建造和贩运游荡弹药的嫌疑人,这些弹药不一定是自主武器,但"处于自主杀伤力的最前沿"。虽然正常的出口管制措施在这里也适用--以色列的走私事件似乎是一次正常的警方调查,但如果基于人工智能的自主性改变了规则,复杂性就来了。如果人工智能的存在改变了出口控制规则--谁可以购买武器,买家是否可以转让,需要哪些类型的批准--那么技术核查就成为一个重大挑战。

专门的人工智能芯片的存在可能会提供一些指标,但可能不会有什么线索。如果武器使用人工智能来帮助指导人类的目标,但人类仍然要决定摧毁什么呢?武器设计和规格的其他方面也可能提供线索。一个没有通讯接收器或允许远程操作的软件的武装无人平台很可能,但不一定能够进行自主打击。细节可能是特异性的,执法、出口管制和情报人员有责任对自主的可能性作出判断。

接下来怎么办?

美国不太可能在短期内装备F-AI,当然对手和盟友也不可能,但是,许多国家正在建造、开发和越来越多地部署基于AI的自主系统。总的来说,美国需要一个细致入微的、了解风险的不扩散和反扩散方法,认识到自主武器包括一系列广泛的系统。这一分析指出了美国及其盟友的几个考虑因素。

首先,系统设计是扩散风险的一个关键因素。如果自主武器的人工智能和自主性不能与整个武器有意义地分开,那么扩散风险就会减少,甚至可能会大大减少。作为更广泛的测试和评估活动的一部分,武器设计者需要考虑新的自主功能如何容易被操纵。设计者还需要考虑在系统被捕获的情况下,基于人工智能的功能如何能够随时被保护、提取、使用和销毁。最佳做法将需要被编入明确的标准,以适用于整个自主武器生态系统。

第二,不扩散政策应取决于武器的相对军事价值,特别是系统的可靠性。在某些情况下,美国可能希望鼓励可靠系统的扩散:提供技术援助培训以提高可靠性,提供已经开发的人工智能系统,或提供完整的武器。相反,对于可能影响微妙军事平衡的系统,美国应该非常谨慎。这意味着要进行建模、模拟、战争游戏和其他分析,以弄清自主系统真正影响最大的地方。在其他情况下,特别是针对自主核武器和大规模杀伤性无人机群,美国甚至应该考虑对其自身发展进行约束性限制。自主核武器给美国带来了潜在的灾难性风险,而大规模无人机群代表了潜在的重大不对称威胁,其风险类似于传统的大规模毁灭性武器。

第三,网络战能力应在任何不扩散和反扩散努力中发挥关键作用。在防御方面,人工智能战斗核心系统必须得到很好的保护,防止网络盗窃,并保护网络不受企图的攻击。这可能会产生权衡:一个独立的人工智能战斗核心系统可能更容易保护,而一个高度集成的系统可能需要与系统设计者广泛分享。在进攻方面,网络攻击可能被用来渗出对手的进展数据,毒害人工智能训练数据,或破坏对手的系统。如果人工智能的真正军事价值源于决策速度,那么巧妙地放慢人工智能的算法速度可能会产生有意义的军事效果。

最后,美国需要更好地参与到关于自主武器的全球对话中。美国在很大程度上反对全球越来越多的禁止自主武器的呼吁,强调这种武器现有战争法上的适用性。美国反对广泛禁止自主武器是一个正确立场,特别是对防御性系统和低风险自主武器的限制,如雷达寻的游荡弹药。

然而,美国也可能需要与禁令支持者合作,或至少尽量减少他们的反对意见,以建立全球防扩散努力。为此,美国应考虑支持关于条约的正式讨论,前提条件是全面禁止所有自主武器的问题必须得到解决。红十字国际委员会关于自主武器的声明,为谈判提供了一个基于风险的方法,其重点是可预测性和目标。这也将作为一个工具,在自主武器对美国安全构成重大威胁的领域,如自主核武器和无人机群,推进不扩散。

最终,防止自主武器扩散可能是一个令人困扰的挑战,其中技术和地缘政治背景将发挥重要作用。但是,如果人工智能和自主武器是战争的未来,那么美国别无选择,只能去努力解决这些复杂问题。

来源:《国家利益》网2022年6月13日Zachary Kallenborn的文章

发表评论
留言与评论(共有 0 条评论) “”
   
验证码:

相关文章

推荐文章