Who is Responsible for Autonomous Weapons? Chinese
Contents
谁将为自主武器负责?
Click here to see this page in other languages: English
请试想以下战时场景:某参战国为了保全本国士兵性命,部署了自主武器以歼灭敌军。
此类军用机器人的作战能力远超过训练有素的人类士兵。但它们撞击地面后,便会意识不清:无法区分敌军与百姓,开始滥杀无辜。指挥官竭尽全力想要阻止机器人酿成惨剧,但是终究还是造成了严重伤亡。
谁该为如此暴行负责?是派遣机器人的指挥官?技术的开发者?机器的制造商?还是机器人自己?
问责:从无人驾驶汽车到自主武器系统
纽约新学院大学的技术哲学家,科学家,新闻媒体人,彼得·阿萨罗(Peter Asaro)教授致力于探讨所有自主系统(不仅仅是自主武器系统)带来的基础性问题与所应承担的责任。通过探讨何为自主性、代理机构、以及责任方等定义,阿萨罗希望以法律的途径来规范自主系统的使用,并界定其将导致的伤害。
阿萨罗在近期的AI伦理学会议中探讨了AI应用于武器系统所带来的责任问题。他解释道,“一旦人们可以把自身的决策失误归咎于机器人系统故障,那么AI将对国际法构成威胁:以往的标准和规范将无法判定人类应为那些决策负责,也无法界定军事入侵的责任方。
法律系统要重新定义责任方, 这样才能确保事故发生时正义得以伸张。阿萨罗认为,自主武器引发的道德和法律问题将会比其他自主系统(例如,无人驾驶车辆)所带来的问题更加难以判定。
尽管研究人员认为无人驾驶车辆终究拥有导致偶发性致命事故的可能,但毕竟这些车的设计初衷是保障生命安全。
“相反,任何武器的制造本意就是企图造成伤害, 所以它就背负着一份特殊的法律与道德的枷锁。”
阿萨罗解释道,“人类的伦理道德要求我们确保只有在合理合法的情况下才能使用自主武器。”
而且, 与无人驾驶车辆和家用机器人相比,自主武器系统所应承担的责任更加模糊。
举例来说,沃尔沃等知名汽车公司表示,自动驾驶系统下造成的任何事故伤害,公司将承担所有责任。尽管现在并不明确制造商们将如何为其自动系统负责,严格的责任制外加集体公诉的震慑力足以使制造商把汽车的安全性提到最高。
相比较之下,武器冲突中的安全问题却更加棘手。
“在战争中,人们并没有明确的责任。” 阿萨罗说,“美国军方可以为一个不合格的武器产品起诉供应商。但是受害者却无法因为被自主系统错误的攻击而寻求法律保护。”
自主武器系统还将这一问题变得更加复杂:“当自主系统变得越具智能,它们的行为也更加难以预测。所以,这也会使指挥官们在心理上就觉得并不用为机器的行为负责。同样,他们没有内化这份责任。”阿萨罗在AI伦理学会议上这样解释道。
为确保军事指挥官能将责任内化,阿萨罗建议,“自主系统必须可让人类在自身道德观的监管下对其进行操作。” 在自主武器部署于战争前,指挥官们要确保他们可以完全掌控这套系统。一旦证明了控制权,谁将对系统的行为负责便一目了然。
对未知的准备
对于责任思考背后的首要的顾虑是自主性系统的行为很可能违背人类的初衷。阿萨罗质疑,“当系统的自主性变得越来越强,拥有者是否确定它们将做出什么。”
甚至程序员和制造商也有可能并不知道这些机器将会有哪些举动。发明自主机器的初衷本就是让它们在没有人为干预的情况下做出决策。但随着内置程序的日益复杂,人们将很难预测机器的行为。
公司与政府必须做好准备,处理家用、军用机器人或系统非蓄意伤害所造成的复杂法律问题。这样一旦伤害发生时,受害者才会在完善的法律下得到公正的保障。
阿萨罗解释道:“我们应该立法以保证有效的技术得以持续开发的同时,也能确保伤害能得到妥善处理。” 禁止将暴力与致命武器的运用决定自动化,并专注于优化自主系统的安全将会是一个好的开始。
彼得·阿萨罗同时也接受了未来生命的采访 (FLI podcast)。想了解其他详细信息,请关注http://www.peterasaro.org.
本文是未来生命人工智能安全研究资助(AI safety research grants )系列文章,感谢伊隆·马斯克(Elon Musk) 和 the Open Philanthropy Project 的慷慨资助。
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.