Skip to content

The Problem of Defining Autonomous Weapons Chinese

Published:
May 28, 2018
Author:
Revathi Kumar

Contents

自主武器的定义问题


Click here to see this page in other languages: English US_Flag

准确地说,什么是自主武器?对于普通公众而言,这个词汇通常会被当成杀手机器人的同义词,并让他们联想起终结者。但对于军队来说,自主武器系统或自动警报系统(AWS)的定义很简单。

美国国防部把AWS定义为”一个武器系统,一旦激活,无需人类操作员进一步干预,就可以选择并射击目标。这包括人类监督的自主武器系统,这种系统允许人类操作员推翻对武器系统的操作,但可以在激活后,选择并射击目标,而无需进一步的人力投入。”

从根本上来说,它是一种可以在任何领域可使用的武器,包括陆地、空中、海洋、太空、网络或任何组合,而且远不只是发射弹药的平台。这意味着这种系统具有各种功能,例如识别、跟踪和射击目标,所有这些功能都可能具有不同程度的人机交互和投入。

亚利桑那州立大学全球安全行动计划的研究科学家、牛津大学的高级研究员海瑟·罗夫(Heather Roff)表示,即使是国防部定义的基本术语也不太清晰。

“这个定义是有问题的,因为我们不知道这里的“选择”是什么意思。究竟是‘检测’还是‘选择’呢?”她问道。罗夫还注意到另一个定义上的问题,因为在许多情况下,自主武器(独立行动)和自动武器(预定程序令其自动行动)之间的区别还不清楚。

武器系统的数据库


联合国《特定常规武器公约》(CCW)的缔约成员国也在努力解决这个问题,即什么是自主武器——而不是目前已有的自动武器。在CCW专家非正式会议上最近三年的讨论中,与会者通常只提到目前部署的两三个似乎是AWS的武器系统,如以色列的“Harpy”或美国的反火箭和迫击炮系统。

为了解决这一问题,红十字国际委员会要求提供关于目前部署的系统的更多数据。该委员会想要知道目前国家使用的武器系统和正在开发的项目。她呼吁人们采取行动。她从各种来源输入了很多公开数据,并汇编了一个由284个武器系统组成的数据库。她想知道目前部署的系统中已经存在哪些能力,以及这些能力是不是“自主的”。

“数据集着眼于排名前五的武器出口国,即俄罗斯、中国、美国、法国和德国,”罗夫说。“我正关注每个国家的主要销售和主要国防工业制造商。随后,我查看那些由这些顶尖制造商生产的国家目前部署的所有系统,我用大约20个不同的变量对它们进行编码。”

这些变量包括导航、归航、目标识别和开火等功能,而且对于每个变量,罗夫都会把武器编码为有能力或无能力。接着,罗夫创建了三个指标来涵盖各种能力:自主移动、自主导向和自主决定。自主移动能力使系统能够自行移动,自我导向与目标识别有关,而自我决定则指示系统在目标设定、计划和沟通方面可能具备的能力。大多数“智能”武器具有很高的自主移动和自主导向能力,但很少有自主决定的能力。

正如罗夫最近在一份外交政策帖子中所解释的那样,数据显示,“自主的新趋势与硬件的相关度小,在通信领域和目标识别的相关度更大。我们看到的是对更好的目标识别能力、敌我识别(IFF)以及学习的推动力。系统需要能够适应、学习,并在部署时更改或更新计划。简而言之,系统需要承担更多的事情以及模糊的任务。“因此,新系统需要更强的自主决定能力。

在决策中的人


但是了解武器系统能做什么,只是等式的一部分。在大多数系统中,人类仍然保持着不同程度的控制,而军方也经常声称人类总是处于“决策中”。也就是说,人类总是对系统有着某种意义的控制。但是这导致了另一个定义性问题:什么是有意义的人类控制?

罗夫认为,让人始终处于“决策中”的想法,不仅“没有帮助”,而且可能“阻碍我们思考自主系统存在问题的能力”。她提到了英国国防部称之为空机库问题:没有人希望走进军用飞机库,发现自主飞机可以自主决定开战。

罗夫f说:“这种情况不会发生,这些系统总是被人类使用,而由人类决定是否使用它们。”但她认为,思考在某种决策中的人类意味着把跟自主有关的任何困难都被推到了一边。

今年早些时候,关于“有意义的人类控制”一词,罗夫研究了第三十六条文章(Article 36),从而更清晰地定义这个词。他们发表了一份概念性论文《有意义的人类控制,人工智能和自主武器》,这篇文章为2016年CCW致命自主武器系统专家会议提供了指导方针。

在这篇论文中,罗夫和理查德 莫耶斯(Richard Moyes)概述了关键要素,如可预测、可靠性和透明技术、准确的用户信息,及时的人类行为和干预能力、攻击期间的人员控制等,用于确定AWS是否允许有意义人类的控制。

罗夫说:“你不能把你的道德义务转嫁给非道德媒介。这就是我认为关于有意义的人类控制我们需要研究的地方:人类指挥官在每次攻击中,都有道德义务来防范及对抗。”武器系统不能替人类做到这一点。

研究人员和国际社会刚刚开始解决AWS产生的伦理问题。对武器系统和人类将继续发挥作用的明确界定,是一个很严重问题的一小部分。罗夫将继续与国际社会合作,制定更明确的目标和指导方针。

她说:“我希望国际上能共同形成理论和讨论,自主志趣相投的状态实际上会生产规范,自主规范引导如何使用或不使用这种系统。

海瑟 罗夫在未来生命研究所(FLI)播客中也谈到了这项工作。

本文是AI安全研究基金的“未来生活”系列文章的一部分,该基金由伊隆 马斯克(Elon Musk)慷慨捐赠以及开放慈善项目的资助。

分享这篇文章

文明的大部分益处都来源于智慧,那么我们如何用人工智能来增强这些益处,而不会在就业市场上甚至各个领域,被取而代之呢?

This content was first published at futureoflife.org on May 28, 2018.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram