Skip to content
All Open Letters

AI Principles Chinese

Published
15 May, 2017

阿西洛马人工智能原则

这些原则是在2017年ASILOMAR会议 (视频)上共同开发的,请通过此网站查看过程描述。

Click here to see this page in other languages : English US_Flag German  Japanese    Korean    Russian

人工智能目前提供了一些有益的工具,使它们被全世界的人广泛使用。 若以如下原则为指导,人工智能的持续发展,将于未来几十年甚至几世纪中,创造更多机会以更有效地帮助和壮大人类。

研究问题


1)  研究目标: 人工智能研究的目标应该建立有益的智能,而不是无秩序的的智能。

2)  研究资金: 投资人工智能的同时,应资助那些确保其创造有益价值的研究,包括计算机,经济学,法律,伦理学和社会学的棘手问题,诸如:

    • 我们如何使得未来人工智能系统高度稳健,从而按照我们的意志行事且不会发生故障或被入侵?
    • 维护人类的资源和目标的同时,如何通过自动化来提高我们的繁荣?
    • 为紧随人工智能发展步伐,并管理人工智能相关风险,我们该如何更新我们的法律系统,使其更为公平和有效?
    • 人工智能应该遵守哪些价值观?人工智能的法律和伦理状态应当是什么?

3)  科学政策链接:人工智能研究人员和政策制定者之间,应形成积极、有建设性的沟通。

4)  研究文化: 研究人员和人工智能开发人员应该被培养一种互相合作、互相信任和互相透明的文化。

5)  规避不当竞争: 人工智能开发团队间应积极合作,避免以妥协安全标准为竞争的代价。

道德标准和价值观念


6) 安全性: 人工智能系统应当在运行全周期均是安全可靠的,并在适用且可行的情况下可验证其安全性。

7) 故障透明: 如果一个人工智能系统引起损害,应该有办法查明原因。

8) 审判透明: 在司法裁决中,但凡涉及自主研制系统,都应提供一个有说服力的解释,并由一个有能力胜任的人员进行审计。

9) 职责: 高级人工智能系统的设计者和建设者是系统利用,滥用和行动的权益方,他们有责任和机会塑造这些道德含义。

10) 价值观一致:对于高度自主人工智能系统的设计,应确保其目标和行为在整个运行过程中与人类价值观相一致

11) 人类价值观: 人工智能系统的设计和运作应符合人类对尊严、权利、自由和文化多样性的理想

12) 个人隐私: 既然人工智能系统能分析和利用数据,人们应该有权利获取,管理和控制他们产生的数据。

13) 自由与隐私: 人工智能个人数据的应用不能不合理地削减人们的实际或感知的自由。

14) 共享利益: 人工智能技术应使尽可能多地人受益和赋能

15) 共享繁荣: 人工智能创造的经济繁荣应该广泛的共享,造福全人类。

16) 人类控制:为实现人为目标,人类应该选择如何以及是否由人工智能代做决策。

17) 非颠覆:通过控制高级人工智能系统所实现的权力,应尊重和改善健康社会所基于的社会和公民进程,而不是颠覆它。

18) 人工智能军备竞赛: 应该避免一个使用致命自主武器的军备竞赛。

长期问题


19) 性能警示: 因为没有达成共识,我们应该强烈避免关于未来人工智能性能的假设上限。

20) 重要性: 超级人工智能可代表地球生命历程中一个深远的变化,应以相应的关注和资源对其规划和管理。

21) 风险: 对于人工智能造成的风险,尤其是那些灾难性的和存在价值性的风险,必须付出与其所造成的影响相称的努力,以用于进行规划和缓解风险。

22) 递归自我完善: 那些会递归地自我改进和自我复制的人工智能系统若能迅速增加质量或数量, 必须服从严格的安全控制措施。

23) 共同利益: 超级人工智能只应服务于广大道德理想,应造福于全人类,而不是为了某个国家或某个组织的利益


目前为止,已经有多达1273名人工智能 /机器人研究人员和其他2541人签署支持这些原则。 (想了解这些原则如何被开发,请点击此处,并在此处参与讨论。)

若您想表达您对原则的支持,或想查看签署人名单,请访问英文页面

OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
2672

Open letter calling on world leaders to show long-view leadership on existential threats

The Elders, Future of Life Institute and a diverse range of co-signatories call on decision-makers to urgently address the ongoing impact and escalating risks of the climate crisis, pandemics, nuclear weapons, and ungoverned AI.
14 February, 2024
Signatories
Closed

AI Licensing for a Better Future: On Addressing Both Present Harms and Emerging Threats

This joint open letter by Encode Justice and the Future of Life Institute calls for the implementation of three concrete US policies in order to address current and future harms of AI.
25 October, 2023
Signatories
31810

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
22 March, 2023
Signatories
998

Open Letter Against Reckless Nuclear Escalation and Use

The abhorrent Ukraine war has the potential to escalate into an all-out NATO-Russia nuclear conflict that would be the greatest catastrophe in human history. More must be done to prevent such escalation.
18 October, 2022

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram