阿西洛马人工智能原则

这些原则是在2017年ASILOMAR会议 (视频)上共同开发的,请通过此网站查看过程描述。

点击此处查看其他语言页面: 英语 US_Flag

人工智能目前提供了一些有益的工具,使它们被全世界的人广泛使用。 如遵守以下原则,它的持续发展将会在未来的几十年甚至几世纪中提供更好的机遇去帮助及强大人类。

研究问题

1)  研究目标: 人工智能研究的目标应该建立有益的智能,而不是无向的智能。

2)  研究资金: 人工智能投资所伴随的资金应该授予被确保的有益研究,包括计算机,经济学,法律,伦理学和社会学的棘手问题,诸如:

    • 我们如何使得未来人工智能系统高度健全,从而不会发生故障和被入侵?
    • 在维持人们的资源和目标的同时,如何通过自动化来提高我们的繁荣?
    • 随着人工智能的发展,我们如何更公平和有效地修正法律系统以及管理人工智能相关的风险?
    • 人工智能应该遵守哪些价值观?人工智能的法律和伦理状态应当是什么?

3)  科学政策链接:人工智能研究人员和政策制定者的交谈应当有建设性。

4)  研究文化: 研究人员和人工智能开发人员应该被培养一种互相合作、互相信任和互相透明的文化。

5)  规避一蹴而就: 开发人工智能系统的团队应该积极合作,避免偷工减料从而达不i’ve 到安全标准。

道德标准和价值观念

6) 安全性: 人工智能系统应当是安全的,且是可适用的和可实行的。

7) 故障透明: 如果一个人工智能系统引起损害,应该有办法查明原因。

8) 审判透明: 在司法裁决中任意有关的自主研制的系统应该提供一个符合要求的审计,通过一个有能力胜任的执政掌权者。

9) 职责: 高级人工智能系统的设计者和建设者是系统利用,滥用和行动的权益方,他们有责任和机会塑造这些道德含义。

10) 价值观一致: 应该设计高度自主的人工智能系统,以确保其目标和行为在整个运行过程中与人类价值观相一致。

11) 人类价值观: AI系统的设计和运作应符合人类尊严,权利,自由和文化多样性的理念。

12) 个人隐私: 既然人工智能系统能分析和利用数据,人们应该有权利存取,管理和控制他们产生的数据。

13) 自由与隐私: 人工智能在个人数据的应用不能无理缩短人们的实际或感知的自由。

14) 共享利益: 人工智能技术应该尽可能地使更多人受益和授权。

15) 共享繁荣: 人工智能创造的经济繁荣应该广泛的共享,造福全人类。

16) 人类控制: 人类应该选择如何以及是否代表人工智能做决策,用来实现人为目标。

17) 非颠覆: 通过管控高度先进的人工智能所赋予的权利应该尊重和改善,而不是颠覆,健康社会的社会历程和民事诉讼。

18) 人工智能军备竞赛: 应该避免一个使用致命自主武器的军备竞赛。

长期问题

19) 性能警示: 因为没有达成共识,我们应该强烈避免关于未来人工智能性能的假设上限。

20) 重要性: 高级人工智能可以代表地球上生命历史的深奥变化,应该计划和管理相应的护理和资源。

21) 风险: 人工智能造成的风险,尤其是灾难性的和存在性的,都必须规划和努力减缓预期的影响。

22) 递归自我完善: 那些会递归地自我改进和自我复制的AI系统若能迅速增加质量或数量, 必须服从严格的安全控制措施。

23) 共同好处: 超级智能应当只为广泛分享道德理想而发展,是为了全人类而不是为了一个国家或者一个组织的利益。

目前为止,已经有多达1200名AI /机器人研究人员和其他2342人签署支持这些原则。 (想了解这些原则如何被开发,请点击此处,并在此处参与讨论。)

若您想表达您对原则的支持,或想查看签署人名单,请访问英文页面