Skip to content

杀人机器人: 世界顶级AI和机器人公司敦促联合国禁止致命杀人武器

Published:
August 20, 2017
Author:
Ariel Conn

Contents

Click here to see this page in other languages: English US_Flag

一封公开信:人工智能和机器人界的企业领袖们在世界最大的人工智能大会上, 针对联合国机器人军备竞赛的讨论被推延到年底发表公开信。来自26个国家,116位机器人和人工智能公司的创始人签署了这封公开信,敦促联合国紧急磋商致命自动武器的危机,并在国际范围内禁止其使用。2016年12月,123个成员国已在联合国常规武器大会的总结会议上一致同意了开展对自动武器的正式讨论。其中19个国家已呼吁全面禁止。

这封信的主要组织者Toby Walsh教授在墨尔本的2017国际联合人工智能大会的开幕上发布了此信 。这个会议是全球顶级人工智能和机器人专家聚集的场所,Walsh教授是IJCAI2017 大会组委会成员之一。 这封公开信是AI和机器人公司第一次站在一起。之前仅有一家公司,加拿大的 Clearpath Robotics,正式呼吁对自动武器的禁止。

信中说:“致命自动武器有成为第三次武器革命的危险” ,“一旦开发成功,它们将使冲突的规模庞大到从未有过,而且会达到人类难以适应的速度” ,“它们将成为恐怖的武器,将成为暴君和恐怖分子残害无辜民众的武器,或者被黑客挟持的武器。我们的时间并不多。一旦潘多拉的盒子被打开,就很难被关上”。这封信紧急呼吁联合国磋商以寻求使所有人免于这种危险的武器。这封2017年公开信的签署者包括:

  • Elon Musk, Tesla,SpaceX and OpenAI创始人 (美国)
  • Mustafa Suleyman, 谷歌DeepMind 和应用AI部创始人及负责人(英国)
  • Esben Østergaard, 环球机器人创始人和 CTO (丹麦)
  • Jerome Monceaux, Aldebaran机器人创始人, Nao和Pepper机器人的制造者(法国)
  • Jü​rgen Schmidhuber, 领先的深入学习专家和Nnaisense的创始人(瑞士)
  • Yoshua Bengio, 领先的深入学习专家和Element AI的创始人(加拿大)

他们的公司雇用成千上万的研究人员,机器人和工程师,总价高达数十亿美元,覆盖全球从北到南,东到西:澳大利亚,加拿大,中国,捷克共和国,丹麦,爱沙尼亚,芬兰,法国,德国, 冰岛,印度,爱尔兰,意大利,日本,墨西哥,荷兰,挪威,波兰,俄罗斯,新加坡,南非,西班牙,瑞士,英国,阿拉伯联合酋长国和美国。

Walsh教授是2017年公开信的组织者之一。他也组织了2015年在布宜诺斯艾利斯的IJCAI大会上发表对自动武器的警告。 2015年的公开信由数千名在世界各地的大学和研究实验室工作的人工智能和机器人研究人员签署,并得到了英国物理学家史蒂芬霍金,苹果联合创始人史蒂夫·沃兹尼亚克和认知科学家诺姆·乔姆斯基等人的赞同。“几乎所有的技术都可用于善也可用于恶。人工智能也一样,它可以帮助解决当今社会面临的许多紧迫问题:不平等,贫困,气候变化和持续的全球金融危机。 然而,同样的技术也可以用于自动武器以致战争工业化。”, “我们今天要做出决定,选择我们想要的未来。 我强烈支持许多人道及其他组织呼吁联合国禁止此种武器,就像禁止化学武器和其他武器一样。“他补充说。“在两年前在同一次会议上,我们发布了一个公开信,得到了数千名AI和机器人领域的研究人员的签名,呼吁禁止自动武器。 这有助于把问题推上联合国议程,进行正式讨论。 我希望2017的公开信会由于更多AI和机器人工业界的支持,而增加联合国讨论的紧迫性,使这种讨论立刻开始。

公开信的第一签署人,Clearpath Robertics 的联合创始人Ryan Gariepy说“知名企业和个人签署公开信印证了我们的警告,这种威胁不是假想的,而是真实,紧迫, 需要立刻行动的”。“和很多处在科幻境界的AI技术不一样,自主武器正处于发展的尖端,而且有极大的潜力能无辜民众和全球的稳定会造成极大的伤害,”他补充说,“发展致命的自动武器系统是不明智的,也是不道德的,应该在国际范围内被禁止”。

Element AI的创始人, “深度学习”领军者,Yoshua Bengio说:“我签署了公开信,因为在自主武器中使用AI触痛了我的道德感,因为那会造成危险的升级并伤害良善AI应用的发展。这件事必须由国际社会来共同处理,就像好像处理过去被错误使用的生物武器,化学武器和核武器 。”

贝叶斯逻辑创始人兼副主席斯图尔特·罗素(Stuart Russell)也同意:“除非人们希望看到新的,以大量的致命小机器人形式出现的,大规模杀伤性武器遍布全球,建立和支持联合国对致命自动武器的禁止是非常有必要的,也是对国家和国际安全有致命影响的。”

媒体联络:

  • Prof Toby Walsh |人工智能教授, UNSW| 0424 325 167 | tw@cse.unsw.edu.au
  • Wilson da Silva |传媒顾问, UNSW | 0407 907 017 | dasilva@unsw.edu.au

BACKGROUND

– 国际联合人工智能大会(IJCAI)是世界顶级的人工智能会议,自1969年起,每两年举办一届,2015年起每年一届。今年的IJCAI吸引了两千位来自全球最优秀的人工智能研究者。今年的举办地是澳大利亚的墨尔本。

– 新闻发布会将在2017年8月21号早11点,墨尔本会展中心201房间召开,我们将会针对新闻发布所涉及到的话题做解答。地址: 1 Convention Centre Pl, South Wharf VIC 3006.

– 如需要参加2017大会的媒体,需要注册媒体证,请联系IJCAI执行秘书Vesna Sabljakovic-Fritz, 电邮 sablja@dbai.tuwien.ac.at

两年前在IJCAI2015,超过1000位AI学者签署了公开信呼吁禁止致命自动武器的使用。签名数现已增长到17000人。作为墨尔本的AI Festival(人工智能节)的一部分,8月23号星期三下午5:30到7点有论坛“杀人机器人,战争的终点?”。这个论坛将由Stuart Russel, Ugo Pagallo and Toby Walsh共同参与,这是AI沙龙的一部分。

Toby Walsh的新书《他是活的!AI从逻辑钢琴到杀人机器人刚刚由Black Inc出版社出版,包含了支持和反对致命自动武器的详细论证。

[翻译 Andy Song,Daniel Mo]

This content was first published at futureoflife.org on August 20, 2017.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:
Our content

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram