查看原文
其他

首发 | 国际上是如何看待致命性自主武器的?(上篇)

秦风 军事高科技在线
2024-09-16

导读:近年来,随着人工智能等技术的不断进步,无人军事平台的研究、开发和使用进展迅速,相关技术的武器化引发了人道主义关切。联合国《特定常规武器公约》(CCW)机制围绕致命性自主武器系统(LAWS)这一问题召开了多次会议,世界主要国家和非政府组织代表都在这一平台上阐述了本国在这一领域的立场。笔者根据官网公布的官方立场文件,将主要国家(地区)和非政府组织代表的主要观点进行综述,供读者参考。本文主要梳理了美国、中国、俄罗斯、日本和欧盟对于致命性自主武器系统的观点。

▲图:致命性自主武器系统(杀人机器人)概念图


一、美国的观点


国际人道法中有三大主要原则,分别是:区分原则,意指战斗人员可以将军事目标作为攻击目标,但不得直接攻击平民、平民目标或其他受保护人员和目标;比例原则,指的是“战斗人员必须避免对平民造成预期的生命损失或伤害,以及攻击所附带的对平民目标的损害,因为这些损害同预期将获得的具体和直接军事利益相比是过多的;预防措施原则,指的是“战斗人员在规划和发动攻击时必须采取可行的预防措施,以减少对平民和其他受保护的人或物造成伤害的危险,使其不成为攻击的目标。对于致命性自主武器系统在国际法的适用问题上,美国的主要观点如下:

1. 现有的国际人道主义法,包括区分、比例和预防措施原则,为管制在武器系统中的自主性提供了一个全面的框架。

2. 内部审查和试验程序,包括武器的法律审查,对执行国际人道主义法的要求是必不可少的。

3. 致命性自主武器系统领域新出现的技术可以强化执行国际人道主义法,除减少平民伤亡危险外,还可以便利调查,加强执行纠正行动的能力。

4. 致命自主武器系统领域正在出现的技术可以用来建立全新的能力,提高各国在使用武力时减少平民伤亡风险的能力。各国不应试图在致命自主武器系统领域对这种新出现的技术加以污蔑或草率禁止,而应鼓励这种创新,以促进《特定常规武器公约》的目标和宗旨。

随着无人驾驶汽车和智能助理等应用的出现,人工智能和机器学习等与自主相关的新兴技术在改善人类生活质量方面具有显著潜力。自主技术的使用可以挽救生命,如提高医疗诊断和外科手术的准确性、降低车祸的风险等。同样,这些技术在武装冲突中拯救生命的潜力也值得密切关注。具体而言,美国认为自主性相关技术能在以下领域提升战争的人道性。

▲图:谷歌无人驾驶汽车


(1)采用自毁或自中和机制减少平民伤亡。例如,自毁或自中和机制可以帮助确保一个地雷在它不再为其埋设的军事目的服务时就不再作为地雷发挥作用。此外,许多武器系统可以使用自毁弹药,这种弹药在一段时间后自动销毁弹丸,从而减少无意中击中平民和平民目标的危险。例如,高射炮经常使用自毁弹,以减少子弹击中目标后落到地面造成伤害的风险。

(2)提高对战场上平民和民用目标的感知能力。由于“战争迷雾”的存在,平民伤亡可能是由于对战场上平民的存在缺乏认识而造成的。例如,指挥官可能不知道平民在军事目标内或附近。同样,指挥官也可能善意地将平民错认为战斗人员,特别是在与竭尽全力躲在平民中间的武装集团发生武装冲突时。人工智能可以通过自动化数据处理和分析,帮助指挥官提高对战场上平民和民事目标存在的感知能力。提高情报程序的效率和准确性的结果之一可能是提高指挥官对平民、文化财产和医院等受到特别保护的物体和其他平民物体存在的感知能力。这种感知能力的提升可以帮助指挥官更好地评估预期的平民生命意外损失、平民受伤和攻击对平民目标的损害的总数,包括本来无法预见的意外伤害。这种增强的意识也可以帮助指挥官识别和采取额外的预防措施,包括识别不应该被攻击的额外财产或区域,或者在被攻击之前需要额外的审查或更高级别的批准。

(3)改进对军事行动可能产生的影响的评估。军事规划人员经常在规划军事行动时使用软件工具,以协助评估武器可能造成的影响,例如评估潜在的附带损害。使用软件工具可以在几分钟内生成曾经需要数小时或数天的估计值。先进的计算机建模软件可以帮助军事规划者更准确地评估平民的存在,预测武器打击军事目标时可能产生的影响。换言之,自主武器系统可以更迅速和更经常地进行评估,从而进一步减少平民伤亡的危险。

(4)目标识别、跟踪、选择和交战的自动化。自动目标识别、跟踪、选择和交战功能可以使武器更准确地打击军事目标,同时降低附带损害的风险。例如,使用带有制导系统的武器弹药使指挥官能够更准确地打击军事目标,并减少对平民和民用目标造成伤害的风险。此外,当武器变得更精确时,就只需要发射更少的武器来创造同样的军事优势。一个著名的案例研究是清化桥,它是越南战争期间使用的一条补给线,在被几枚新开发的激光制导炸弹成功摧毁之前的7年里,它曾被数百架美国战机和炸弹瞄准。此外,增加自动目标探测和交战功能,可以减少武器对平民造成的危险。正如《集束弹药公约》所认识到的,使用旨在探测和攻击单一目标的爆炸子弹药可被用来避免不分青红皂白的区域效应和未爆炸的子弹药所造成的危险。例如,CBU-105(传感器引信武器)使用具有先进传感器的子母弹精确地瞄准和攻击敌人的坦克和装甲车辆,而不是以一种非制导方式分散其子母弹。

(5)减少自卫时立即开火的需要。在军事力量与敌人接触并以自卫方式对敌人火力做出反应的情况下,平民的风险会增加。在这些作战情况下,立即采取行动应对敌人威胁的必要性减少了采取预防措施以减少平民伤亡风险的时间。而机器人和自主系统的使用可以减少人类接触敌方火力的时间,从而减少对紧急自卫火力的需求。其次,自动识别来火方向和位置的技术可以减少错误识别敌方火力位置或来源的风险。第三,使用防御性自主武器,如反火箭、火炮、迫击炮(C-RAM)拦截陆基密集阵武器系统,用于对抗来袭的火箭、迫击炮和火炮,可以提供额外的时间来进行深思熟虑的反应,以应对敌人的威胁。


二、中国的观点


在2018年中国向CCW会议上提交的立场文件中,中国代表认为,致命性自主武器系统是科学技术发展和新军事革命的产物,与正在研制的现有武器和新武器系统密切相关。因此,致命性自主武器系统问题涉及面广,解决起来也非常复杂。目前,致命性自主武器系统仍然缺乏一个明确和一致的定义,许多国家认为这种武器系统不存在。鉴于科学技术的迅速发展,国际社会应重视这类武器,积极探讨有效措施,妥善解决致命性自主武器系统带来的各方面问题。根据公开的立场文件,中国的主要观点可总结如下:

1. 致命性自主武器系统应该被理解为完全自主的致命武器系统。中国支持就致命性自主武器系统的具体定义达成一致,为研究和处理这类武器的各种问题创造条件。因此,中国支持首先讨论致命性自主武器系统的技术特征(规范、边界),并在此基础上寻求一个明确的定义和范围。中国认为,致命性自主武器系统应该包括但不限于以下5个基本特征。首先是致命性,这意味着足够的有效载荷和手段是致命的。第二是自主性,即在执行一项任务的整个过程中,没有人为的干预和控制。第三,不可终止性,这意味着一旦开始就没有办法终止设备。第四,滥杀滥伤效应,即该装置不受条件、情况和目标的限制,执行杀伤和致残任务。第五,进化性,意味着通过与环境的交互,机器可以自主学习,以超出人类预期的方式扩展其功能和能力。

2. 必要的人机交互措施有利于防止因脱离人的控制而造成致命性自主武器系统的滥杀滥伤。关于人机交互的讨论首先要明确规律,其次要明确人的参与和干预的方式和程度。诸如有意义的人类控制和人类判断等概念是相当笼统的,应该进一步加以阐述和澄清。

3. 致命性自主武器系统对周围环境的适应性很强,尤其适用于涉及核武器、生物武器和化学武器威胁的危险环境。作为新出现的高技术的产物,致命性自主武器系统的发展和使用将降低战争门槛和使用国的战争费用,这可能会使战争更容易、更频繁地爆发。更引人注目的是,致命性自主武器系统不能有效区分士兵和平民,因此更容易不分青红皂白地杀害或残害无辜的人。因此,在找到适当的解决办法之前,中国呼吁所有国家采取预防措施,特别是不要对平民任意使用这类武器。

4. 尽管人工智能等新兴技术是致命性自主武器系统领域的基础技术,但它们已经在许多国家的经济和社会发展中得到了广泛应用,极大地推动了人类的进步。中国认为,新兴技术的影响应该得到客观、公正和充分的讨论。在进行这种讨论之前,不应该有任何可能妨碍人工智能技术发展的预先设定的前提或预先判断的结果。

5. 作为战争手段,致命性自主武器系统原则上应遵守1949年《日内瓦公约》和1977年的两项附加议定书中规定的国际人道主义规则,包括预防、区分和比例原则。但是,就这类武器系统而言,上述原则的适用面临着很大的不确定性。首先,这种类型的武器系统是否具有任何区分能力是值得怀疑的;其次,这类武器系统缺乏作出相称性评估的能力;第三,在使用这类武器系统时,很难建立问责制。因此,在探讨与致命性自主武器系统有关的法律问题时,必须充分考虑一般法律规范对致命性自主武器系统的适用性。

▲图:日内瓦四公约及其附加议定书

 

此外,国家对新武器的研究、发展和使用的审查在一定程度上对防止有关技术的滥用和减少对平民的伤害具有积极意义。但是,由于各国在这方面的政策和作法有很大的不同,很难为这种审查制订统一的标准。关于这些审查的结果以及如何对待这些结果有很多不确定性。因此,任何基于这种审查的倡议或建议都很难从根本上解决致命性自主武器系统所引起的关切。

 


三、 俄罗斯的观点


1. 如果不对这类武器系统的工作定义和基本功能问题作初步澄清,就很难推动对致命性自主武器系统的讨论。为了更清楚地理解联合国政府专家组(UN GGE)框架内讨论的主题,包括区分具有高度自治/自动化程度的现有致命性自主武器系统,对它们进行阐述是很重要的。在这种情况下,俄罗斯认为,在目前阶段的讨论只能涉及对具有“人工智能”的“先进”水平的未来致命性自主武器系统的一般理解的阐述。在制定这些致命性自主武器系统的基本特征和工作定义的努力中,不应破坏人道主义关切与各参加国国防安全利益之间的平衡,维护国家安全是《公约》的基本优先事项。任何试图找到一个工作定义的致命性自主武器系统不应该导致一个部门的武器正在讨论到“坏”和“好”的,换言之,不应该允许此类武器为团体和类别的划分基础上的政治偏好特定组的状态。工作定义中所规定的要素不应破坏正在进行的和平机器人和人工智能领域的研究。俄罗斯联邦认为,关于制定致命性自主武器的工作定义和基本职能的工作应以最开放的方式进行,涉及从事这一综合性和多层面问题各个方面工作的最大数量的专家。同时,应坚持公平地域代表性的原则。

2. 具有高度自动化或自主性的现有武器系统不应被列为致命性自主武器。这种现有系统的实际使用实践表明,正是高自动化/自主程度使它们能够在动态的战斗情况和各种环境中进行操作,具有通常人类无法获得的高水平的效率。同时,保证了适当的选择性,并因此保证了它们遵守国际人道主义法准则。换句话说,在这样的系统中,机器扮演着不可或缺的助手的角色,比人类控制器更有效地处理委托的功能。因此,应该维护这样的系统。改进自主使用可以有助于更准确地指导针对军事资产的武器,这将有助于减少对平民和民用设施进行非故意攻击的危险。使用非制导或制导智能炸弹和导弹打击同一目标就是一个例子。为了确保这些职能,各国应在这方面依靠自己的标准。试图为现有的高度自动化的致命性自主武器系统——目标识别和打击指令,维持“重要的”人类控制——制定所谓“关键功能”的某些通用参数,几乎不会产生实际效果。例如,确定人类对机器控制的适当“重要性”水平的标准是否可以制定是值得怀疑的。

3. 使用具有自主功能的武器系统的国家和个人都应承担致命性自主武器系统带来的责任问题。决定使用武器系统,应由有关官员负责。例如,在设立不同级别的战斗特派团指挥官时,应评估平民人口和设施可能受到的威胁,如果必须使用这种武器,他们必须采取一切可能的步骤防止损失,包括平民的损失。因此,尽管它可能是先进的,一个自主的系统不能在没有人的支持下执行它的功能。因此,使用致命性自主武器系统的责任应该由操作或编写机器人系统程序并命令使用致命性自主武器的人承担。

4. 完全自主的武器系统不会很快出现。俄罗斯专家认为,要将人工智能系统提升到“奇点”或“超级智能”的水平,需要相当长的时间。人类远未解决意识之谜,远未创造出完全自主的武器系统。


四、 欧盟的观点


1. 确定致命性自主武器系统关键特征和详细制定工作定义,以促进政府间专家组的辩论,避免对完全自主系统的范围产生混淆和误解。欧盟国家认为,虽然完全致命性自主武器系统还不存在,但专家组应继续审议与这些系统的潜在发展和监管相关的问题,包括人对致命性自主武器系统的控制问题。在这方面,重要的是确保不妨碍高技术产业的创新,特别是在机器人或民用部门的其他相关领域的研究和开发。

2. 确保在可能研发和使用致命性自主武器系统的情况下适用和遵守国际法,特别是国际人道主义法和人权法。国家将承担使用致命性自主武器系统的法律和政治责任,建立问责制,任何国家的军队所使用的武器系统都必须遵守现有的国际法,特别是国际人道主义法。

3. 武装冲突法仍然是评估新出现的武器系统合法性的首要框架。欧盟要求《日内瓦公约第一附加议定书》缔约国进行法律武器审查,这是一个关键机制,以确定在每个具体案件中,未来可能的致命性自主武器系统是否可以合法地制定、制定或使用。欧盟及其成员国支持适当提高国家法律武器审查的透明度和更多信息共享。荷兰和瑞士已经提交了关于武器审查机制的工作文件。

4. 在尖端新兴技术的治理领域,科学家、工业界、军事和政治决策者必须承担责任,确保其在国际社会已建立的法律框架内。在这方面,欧盟强调负责任的创新的重要性。所有武器系统,包括法律及其在武装冲突中可能的部署,都必须遵守国际法的规则、规范和原则。欧盟期望所有各方重申,国际法完全适用于对致命性自主武器系统的管理,并有适当的人力控制来确保遵守。如果违反了法律,部署任何种类武器的国家和个人都有责任。欧洲联盟及其成员国根据国际人道主义法,就与致命性自主武器系统有关的不同的道德、法律、技术和军事方面进行进一步的讨论。


五、 日本的观点


1.日本表示不会开发全自主致命性自主武器,但会开发有人类控制的自主武器系统。一方面,日本表示没有开发全自主的致命性武器系统的计划。由于日本在国际社会中极其重视法治原则,并且强烈认为,在包括致命性自主武器系统在内的武器系统的开发和操作中必须坚持国际人道主义法,尽管目前还没有致命性自主武器系统,但它的迅速发展是可能的。另一方面,日本认为拥有有意义的人类控制的自主武器系统将在国家安全领域节省劳动力和减少人力方面产生积极的影响。日本表示,它打算开发和应用这类系统。目前运作的高度自动化武器系统不应该受到限制,因为这些系统的设计是为了确保有意义的人类控制。

2. 在致命性自主武器系统定义问题上,日本认为应对致命性和人类控制方式等关键问题进行进一步讨论。当前,各利益相关者对于什么事致命性自主武器的意见分歧仍然普遍。为了促进对致命性自主武器系统定义的实质性讨论,利益相关者应进一步探讨致命性的概念和人类控制的形式。在考虑如何制定有关武器系统的规则时,武器系统的致命性是至关重要的。把非致命性自主武器系统作为致命性自主武器系统的一部分,会不必要地把规则的范围扩大得太广,最终可能迫使各国为了自己的国家安全而逃避这些规则,从而导致规则失去效力。因此,只讨论具有杀伤力的自主武器系统是合适的。虽然有必要在这方面进一步讨论致命性的概念,但是很难区分进攻系统和防御系统。因此,有必要对直接杀人的武器系统进行讨论。任何上述提及的致命武器系统都必须伴有有意义的人员控制(如确保对使用中的武器系统有充分了解的人员进行适当操作)。此外,有意义的人员控制是一个可以用来作为对武器系统所造成的各种影响承担责任的前提的概念,也是确保采取纠正和/或防止武器系统的错误、故障和失控的措施所必要的。一些人认为,有意义的人类控制应该纳入武器化的整个过程,从开发前阶段的政治指导、研究和开发、测试、评估和认证、部署、培训、指挥和控制、使用和中止以及使用后的评估。另一方面,关于在武器系统的生命周期中,在什么地方以及在多大程度上需要有意义的人为控制,人们有各种各样的看法。因此,利益攸关方有必要在考虑到新兴技术趋势的情况下进一步探讨这些问题。

3. 不能因为对致命性自主武器的担忧而限制自主技术的研发。利用自主技术操作武器系统将使减少附带损伤(例如通过改善瞄准攻击目标的准确性)和人类的错误。因此,规则的范围应限于如上所述的具有杀伤力的、完全自主的、没有有意义的人类控制的武器系统。另一方面,需要进行深思熟虑的讨论,因为减少对人员伤亡的考虑也会降低冲突和战争爆发或升级的门槛。包括人工智能在内的自主技术已被应用于经济和社会的各个领域,如工业、医疗和救灾等领域。为了人类的利益,目前自主技术的快速发展预计将在未来继续下去。在这种情况下,自主技术的研究和开发不应受到限制,理由很简单,这些技术可能被转用于致命武器系统。考虑到限制研究和开发的潜在寒蝉效应以及阻碍民用部门技术发展和创新的风险,有必要认真谨慎地讨论这些规则。

▲图:人工智能广泛应用于社会各领域

 

4. 致命性自主武器系统的研发和使用应遵守国际法,特别是国际人道主义法,这在武装冲突中是必不可少的。它的使用应符合国际人道主义法所依据的各项原则,包括区分平民和战斗人员的原则、比例原则和预防措施的原则。一般来说,如果属于一个国家的自主武器系统违反了国际人道主义法,则可以假定这种违反是属于该国家的。在某些情况下,这类非法行动也可能是个别人士所为。在使用自主武器系统违反国际人道主义法的任何情况下,国家或个人应象常规武器系统那样承担责任。一般来说,确保对责任的追求对促进国际人道主义法的实施是重要的。为了加强对国际人道主义法的遵守,有必要深化对这一问题的讨论。

5. 各国要注重信息共享和建立信任措施。由于致命性自主武器系统目前仍然是一个并不存在的武器系统,因此必须确保这种系统的可预见性和可信性。虽然有关致命性自主武器系统的讨论已在公约的框架内进行,但就重要问题进行集中讨论可能需要相当长的时间。鉴于科学和技术正在迅速取得进展,应该严格检查新的武器系统包括致命性自主武器系统是否符合国际法。为了提高各国遵守国际人道主义法的透明度,应探讨可在协商一致的情况下采用的机制。通过年度CCW报告机制对各国如何遵守1949年8月12日《日内瓦公约》第一附加议定书第36条提出报告要求可能是一种选择。预期上述努力将促进各国和民间社会之间的信息交流和建立信任,并有助于以相对平静的方式进行讨论。



主要参考文献:

1.   Possible outcome of 2019 Group of Governmental Experts and future actions of international community on Lethal Autonomous Weapons Systems Submitted by Japan, https://www.unog.ch/80256EDD006B8954/(httpAssets)/B0F30B3F69F5F2EEC12583C8003F3145/$file/CCW_+GGE+.1_+2019_+WP3+JAPAN.pdf

2.   Implementing International Humanitarian Law in the Use of Autonomy in Weapon Systems Submitted by the United States of America, https://www.unog.ch/80256EDD006B8954/(httpAssets)/518CBFEFDDE93C21C12583C8005FC9FA/$file/US+Working+Paper+on+Implementing+IHL+in+the+Use+of+Autonomy+in+Weapon+Systems.pdf

3.   Potential opportunities and limitations of military uses of lethal autonomous weapons systems Submitted by the Russian Federation https://www.unog.ch/80256EDD006B8954/(httpAssets)/B7C992A51A9FC8BFC12583BB00637BB9/$file/CCW.GGE.1.2019.WP.1_R+E.pdf

4.   Group of Governmental Experts of the High Contracting Parties to the Convention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons Which May Be Deemed to Be Excessively Injurious or to Have Indiscriminate Effects Position Paper Submitted by China, https://www.unog.ch/80256EDD006B8954/(httpAssets)/E42AE83BDB3525D0C125826C0040B262/$file/CCW_GGE.1_2018_WP.7.pdf

5.   EU Statement on Lethal Autonomous Weapons Systems (LAWS)  Group of Governmental Experts  Convention on Certain Conventional Weapons ,Geneva, 13-17 November 2017, https://eeas.europa.eu/delegations/un-geneva_en/49820/Convention%20on%20Certain%20Conventional%20Weapons%20-%20Group%20of%20Governmental%20Experts%20-%20Lethal%20Autonomous%20Weapons%20Systems





THE  END

文字 | 秦风

图片 | 来源于网络

编辑 | cym

审阅 | 张于舒晴

友情支持 | NUDT战略研究俱乐部


“军事高科技在线”征稿啦!!

详情请戳👇👇👇

往期精彩

首发 | 揭开美军联合人工智能中心的神秘面纱

首发 | 高超声速武器拦截,难在何处?

首发 | 透视爱沙尼亚网络攻击事件

首发 | 超材料“超”什么,怎么“超”?

首发 | 系统战——未来战争的一种“潮流”

首发 | 联合作战的本质是什么

首发 | 风洞可以“吹出”尖端武器

首发 | 美军“海神”反潜机“神”在哪里——兼说反潜武器装备及其平台

首发 | “多域转型”—美陆军多域作战概念发展分析解读

首发 | 美国新版国家太空政策的变与不变

首发 | 从星空迷彩看科技强军

首发 | 从单兵口粮发展看科技兴军

首发 | 美军电磁频谱战发展及现状

首发 | 通信技术在信息化联合作战的应用

首发 | 撩开微波武器的神秘面纱

首发 | 揭开雷神情报与太空公司的神秘面纱

首发 | 军服防寒新科技

首发 | 美国国防部《电磁频谱优势战略》发展分析

首发 | 登陆破障装备技术发展应用述评

首发 | 从日本防卫大学看日本自卫队军官培养

首发 | 激光武器——为何“离实战总是差五年”

首发 | 美国陆军云计划——打造陆军数字信息中心(二)

首发 | 美国陆军云计划——打造陆军数字信息中心(一)

首发 | 浅析纳卡冲突的特点与启示

首发 | 未来联合登陆破障需要把握的几个问题

首发 | 美国国防科技研发领域的挑战与对策

继续滑动看下一个
军事高科技在线
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存