Skip to content

人工智能是否应受管制?

Published:
October 31, 2017
Author:
admin

Contents

Click here to see this page in other languages: English US_Flag

作者安东尼·阿吉雷(Anthony Aguirre),阿里尔·康尼(Ariel Conn)和马克斯·泰格马克(Max Tegmark)

人工智能(AI)应受到管制吗?能否被管制吗?如果可以,相关条例应如何制定?

对于仍然处于发展阶段的任何技术来说,这些都是难以回答的问题。比如管制食品、药物、汽车和航空等行业的条例,多于不良情况发生之后才得以实施,而不是在预测技术即将造成危险之后而实施。但因为人工智能发展迅速,潜在的影响力非常大,所以多数人倾向于事先制定好相关管制条例,而不是等待事故发生后再从错误中学习。

近期而言,和许多新技术一样,政策制定者需要加以关注失业、无人驾驶汽车、AI和算法决策以及驱动社交媒体的“聊天机器人”等领域。从长远来看,AI可能会影响到人类的所有利益和风险- 从可能迈向发展乌托邦社会到人类文明潜在的灭绝前景。因此,对于未来的监管机构来说,这种情况特别具有挑战性。

如今,许多AI工作者正在努力确保人工智能的研发是有益的,并且不对研发人员设立不必要的限制。今年1月,AI界的一些精英在加州阿西洛马的会议中碰面,并制订了《阿西洛马人工智能原则》。起草者希望通过这23项原则在一定程度上确保AI的研发能让所有人收益。迄今为止,已有超过1200名AI研究人员和2300名相关人士签署了该原则。

然而,倘若不能付诸实践,光有这些鼓舞人心的原则是不够,且有一个问题尚未解决:是否需要政府的管制和监督来保证AI科学家和公司遵守这些原则和其他类似的规定?

《阿西洛马人工智能原则》的签署人之一,伊隆·马斯克(Elon Musk),在最近全美州长协会上的发言引起了人们的关注。他呼吁监管机构对AI的发展进行监督。新闻机构对他就AI代表了一种存在性威胁的担忧表示了关注。他的提议也引发了一些AI研究人员的顾虑。他们担心管制,即使在最乐观的情况下,也会毫无益处并带来误导;最糟糕的情况是,管制将扼杀创新,使海外公司获利。

其中,马斯克一个重要的观点却被忽略了。即监管机构实际上应该做什么,他说:

“正确的流程应该是设立监管机构——初级目标:深入了解AI活动的状况,确保足够理解,完成以上步骤后,应制定相关政策以确保公众安全。总而言之,我的意思是要确保政府对此事有一定关注。”

AI研究人员对于AI的风险是什么、风险可能何时发生以及AI是否可能构成存在性风险等方面存在分歧,但几乎没有研究人员认为AI并不存在任何风险。目前,我们能够看到一些弱AI加剧歧视和失业等问题。随着AI变得日益智能及复杂,我们可以预料到如果不采取适当的预防措施,以上问题便会恶化,从而影响到更多人。

签署《阿西洛马人工智能原则》以及关于开发有益AI和反对致命自主武器公开信的研究人员人数众多。这表明研究人员们对于该问题已达成强烈共识 – 我们需要更深入了解及解决AI已知和潜在的风险。

AI研究人员签署的一些原则直接涉及到马斯克的声明,其中包括:

3)科学与政策的联系:在人工智能研究者和政策制定者之间应该有建设性及有益的交流。

4)研究文化:AI的研究人员和开发人员应该培养合作、信任和透明的文化。

5)避免竞争:人工智能系统开发团队之间应该积极合作,以避免在安全标准上偷工减料。

20)重要性:高级人工智能能够代表在地球上生命历史的一个深刻变化,人类应该有相应的关切和资源来进行计划和管理。

21)风险:AI系统造成的风险,特别是灾难性或存在性风险,必须遵循与其预期影响相当的规划和减缓措施。

正确的政策和管理方案可以指导AI的发展与以上原则相称。同时,这也能鼓励为实现该目标的跨学科对话。

最近成立的“AI”伙伴关系,包括主要的AI行业参与者,同样赞同按照原则进行AI开发的想法,他们的创始文件指出,“我们必须确保任何用AI工具以补充或取代人类决定的场合是安全可靠的,并且确保其行为符合被影响的人们的道德与偏好”。

正如马斯克所提议,第一步需要提高政府官员对AI影响的意识。例如,无人驾驶汽车预计将取代数百万个工作岗位,这几乎会影响到参加会议的每个州长(假设他们仍然在任职),但是这个话题很少在政治讨论中出现。

AI研究人员对AI能够提高人们健康和生活素质的惊人潜力而感到非常兴奋-这理所应当,也是最初大多数人加入该领域的原因。但是,对于可能滥用和/或设计不良的AI,特别当我们迈向更智能更普遍的AI,我们的担忧也是合理的。

因为这些问题会威胁到整个社会,所以我们不能把这些问题只留给一小部分研究人员来解决。政府官员至少需要了解并清楚AI会怎样影响其选民,以及AI安全研究将如何帮助我们在出现问题之前解决它们。

我们应帮决策者理解AI进程的实际意义和影响,而不是着眼于规定本身的好坏,为今后的建设性管制奠定基础。扪心自问:我们如何才能确保AI有益于所有人?又有哪些人应该参与此项工作?

This content was first published at futureoflife.org on October 31, 2017.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:
Our content

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram