江天骄:国际非政府组织对人工智能武器控制的倡议
2023年11月11日  |  来源:复旦发展研究院  |  阅读量:3915

今年,以ChatGPT为代表的人工智能引爆了新一轮技术和产业革命。与此同时,一些智能武器装备和辅助决策系统已经在乌克兰危机中大显身手。国际社会长期对智能武器的失控风险、问责困境以及战争伦理问题忧心忡忡,联合国自2013年就开始关注致命性自主武器系统(LAWS)并多次开展政府专家组磋商,虽达成了一些共识,但由于各方竞争激烈,短期内缔结多边条约的难度较大。鉴于此,国际非政府组织和以科学家、法学家、行业专家以及智库为代表的知识共同体正在通过自下而上的模式,逐步打造有关智能武器风险和法律规则标准的国际认知共同体,并通过广泛的对话和交流机制不断扩大同心圆,以吸纳越来越多的国家学习并内化相关规则。

国际非政府组织的努力方向大致可以分为两类:一是全面禁止;二是分步控制。两者并不是非此即彼的关系,而是在部分重叠的情况下各有侧重。在第一类路径中,“禁止杀手机器人运动”明确提出禁止研发人类无法有效控制的武器,这个提法已经得到全球60多个国家(地区)约130多个团体的支持。在2018年的“国际人工智能联合会议”上,全球两千多名科学家和企业家共同签署了《致命性自主武器宣言》,承诺不参与相关武器系统的开发、研制、交易和使用。这些国际非政府组织主要要求全面禁止LAWS,并敦促《特定常规武器公约》(CCW)尽快就此达成国际条约。此外,谷歌、深智(Deepmind)、波士顿动力等企业员工纷纷以“不作恶”为由迫使公司退出美国国防部的智能武器项目。

第二类路径在针对LAWS的问题上与第一类基本一致。但除了LAWS之外,还关注人工智能与武器系统、情报侦察、辅助决策、指挥控制等更加广泛的军事应用问题。因为如果缺乏足够的高质量训练数据、数据被污染、算法本身的漏洞以及“算法黑箱”,抑或是真实战场环境的错综复杂,都可能导致相关系统在实验室和实际部署中出现巨大差异,甚至产生不可预估的后果,在现实中很可能引发冲突升级或造成人道主义灾难。红十字国际委员会(ICRC)早在2011年就开始关注相关系统的稳健性和负责任问题,并要求各国尽快确立关于限制智能武器的国际标准,遵守国际人道法的相关规则。2019年清华大学战略与安全研究中心与美国布鲁金斯学会围绕“人工智能与国际安全治理”开展了一系列二轨对话,聚焦如何设定智能武器的攻击禁区及国际法监管问题。

目前,主张对智能武器进行分步控制的方案已经由早些年的原则共识向减少风险的具体规则和标准方向深入推进。其中,位于日内瓦的“人道主义对话中心”和INHR智库邀请了新美国安全中心、布鲁金斯学会以及来自中国和欧洲的专家共同围绕智能武器的设计开发、测试评估、部署使用、问责机制、建立信任和国际合作等方面,设计了一套测试、评估、验证和核查(TEVV)风险管理框架。TEVV强调任何智能武器的部署都必须遵守国际人道法对于武器系统开展测试和评估的要求。由于智能武器独有的稳健性和负责任问题,测试和评估应不间断地贯穿相关系统的全生命周期。TEVV进一步要求各国政府在开发智能武器时与国际民用标准相协调,并将各国TEVV的原则和审查程序对外公开,从而增加透明度,塑造负责任形象。TEVV还建议设立类似国际民航组织这样的专业性机构来分析搜集各国人工智能的故障案例,监管智能武器发展的合规问题,并在一旦发生事故时能够组织专业力量打开人工智能“黑箱”,判定责任,避免冲突升级。

在相关国际非政府组织的努力下,由全球多个国家、国际组织以及非政府组织参与的“军事领域负责任使用人工智能”(REAIM)峰会发布了《军事领域负责任使用人工智能行动倡议》成果文件。迫于国际非政府组织和科技企业的压力,美国国防部也在今年更新了关于武器自主性的文件《国防部指令3000.09》,并提出将对智能武器系统开展类似TEVV的审查原则。但需要指出的是,美国对相关国际非政府组织提出的倡议往往采取合则用,不合则弃的态度,将对其有利的规则定义为“负责任行为”,而避免制定约束其霸权的国际条约。这将不利于国际社会推动人工智能国际规则的达成。

分类: 国际安全
回到顶部