为史无前例的变革做好准备

Click here to see this page in other languages: English 

重要性原则:高等人工智能的出现将成为地球生物历史上一场深刻的变革。我们应为此做好充分的准备。

人类历史的进程中,有少数事件是具有革命性的:以火作为工具,农业的诞生,工业革命,甚至是计算机和因特网的发明。然而,许多人预言,高等人工智能的诞生将在人类的历史中占有更重要的地位。

网络流行作家Tim Urban在“Wait But Why”网站中写到,人工智能是“迄今为止关于人类未来最重要的话题”。

或者,像人工智能教授Roman Yampolskiy跟我说的那样,“设计与人类智慧相当的人工智能将是历史上最具影响力的事件,为此做再多的准备也不为过分。”

“重要性原则”一文鼓励我们为“生命史无前例的变革”做好计划。但我们究竟该如何准备呢?高智能AI对社会有着什么样的意义?我向人工智能领域的专家请教了这些问题。

社会性效益?

Guruduth Banavar, IBM研究院副总裁,期待AI的发展会促进人类的发展。对于该原则的信赖,他说道:“我强烈相信(这项原则)。从进化的角度看来,人类依仗着智慧才取得了目前的实力和对世界的统治。AI是增强型智慧(Augmented Intelligence), 是人类和人工智能的合作的产物。相比较更遥远的完全自动化AI,增强型智慧会给予未来以更高的生产力。完全自动化的AI目前还不切实际。在可预见的未来,增强型AI,人类和AI紧密的合作,将会使这个星球上的生命面貌焕然一新。它会帮助我们解决环境、健康和教育领域的重大问题。”

“我认为我同意这个观点”,康奈尔大学教授Bart Selman说道,“也许并非世界上任何人都对这个话题感兴趣,但是科学家们应当对其进行讨论并制定一个计划。我们能否设计出保障价值观统一(value alignment)的安全指南?我们该做些什么才能保证发展最终是对我们有益的?”

伯克利的助理教授Anca Dragan解释道,“到头来,我们研究和发展AI是因为我们相信它会给世界带来正面的影响。但随着这项技术变得更容易应用,它被误用的几率也随之上升。或者说,错误的应用所带来的影响可能更加糟糕。这也就是为什么我们应该认真思考AI将在未来的社会扮演什么样的角色。”

短期内的顾虑

尽管【重要性原则】中特别强调了高等AI,但很多接受我采访的研究人员也相信短期内人工智能也会为人类带来重要的影响。

“我认为即便没有到达所谓“高等”的水平,AI还是能带来深远的影响。因此我们对这项技术的发展应当进行必要的计划和管理”,AI-Austin.org的执行总裁Kay Firth-Butterfield,解释道,“作为人类,我们并不擅长制定长远规划,我们的社会体系也并不鼓励我们这样做。然而在这个领域,我们必须增强我们的能力以保障 负责的和有益的人机协作”

斯坦福大学助理教授Stefano Ermon同样认为尚未进阶的AI会为人类带来影响。“这是项了不起的技术。人们利用强AI所能取得的成就将不可限量。但就目前的技术而言,(AI的)能力也是巨大的。我们亲见了计算机和信息技术为我们的社会,经济以及日常生活带来的变革。我猜想AI能带来的影响将有过之而无不及。我同样也认为,我们应当为这种巨大的变化深思熟虑,虽然这很难筹划周全。”

关于计划短期内AI发展的问题,Selma补充到,“我认为结果将富有戏剧性。有时候AI科学家会说,高级的AI可能不会对我们怎么样,但是愚蠢的AI… 一辆不理解要将乘客带去何处的自动驾驶汽车就是很好的例子。它甚至不知道驾驶是什么意思… 要是看过车祸发生前的视频记录,人们可能难以相信驾驶系统不会(在那种情况下)刹车。这都是因为无人车和人类驾驶员的开车方式大相径庭。因此我认为某些短期内AI的危险性在于,我们认为它们比我们聪明。或许将来随着机器水平的提高,这些问题都会随之解决,但现在…”

从经验中学习

尽管AI具有颠覆式的先进性,我们仍可从过去的技术革命中吸取经验,以便为即将到来的变革做好准备。

柏林科技大学客座教授Toby Walsh对“原则”略表质疑,他认为“重要性原则”适用于更广泛的“颠覆性技术”。

他解释道,“我相信有那么几类原则,它们可以适用于任何对社会造成改变的科技,不仅仅是高等AI。这个原则也是其中的一种……这个原则可以用在蒸汽机上,在某种程度上也可以用在社交网络上,然而我们在那里失败了。它也可以用在互联网上,但我们并没有为网络做好充足的规划。它也可以用到火上,但我们也失败了,并且把火用到了战争中。话说回来,只要我们认识到(原则中的)事项并非仅仅适用于AI,并且当你认识到AI即将成为开拓性的技术,则所有可用以约束任何创新性的技术的条件,也必适用于(AI)。”

回首这些曾经出现过的革命性技术,理解它们的影响,或者许我们能更好的认识到如何为高级AI的发展制定规划。

Dragan也有意于应用更加直接的解决方案来提早规划。

“随着AI能力的增长”,她对我说,“我们必须退一步,自问:我们是不是在解决对的问题?是否还有更好的方法来定义这个问题,使得我们能够得到对人类社会更有益的解决方案。”

“举例说,我们总是把AI执行体定义为理性的。这意味着他们会最大化收益。迄今为止,我们总是假设收益是可知的。但是你要是仔细想想,收益并没有一个明确的界定。我们总认为在某个地方,有这么个人知道如何给执行体定义收益。然而,人类并不这样运作,即便是AI专家也很难定义收益函数。我们尽力做到最好,但是到系统获取输入并完成优化过程,所得出的结果很可能出乎意料,通常也不是惊喜。这表明我们对AI执行体的定义是基于一个错误的假设上。这已经体现在对机器人的研究上。机器人的移动算法并没有将人考虑进去。而我们总在假设对机器人的教学上,人类的教导是完美无误的。我觉得我们在AI领域会看到更多的这类现象。我们必须把人类考虑成终端用户,并且严格的依照这个隐含的假设执行设计。”

你怎么想?

你认为高等AI对人类的发展会产生怎么样的影响?我们该如何应对这种巨大的改变?我们有能力做好准备么?从整个社会的角度,我们还应该提出什么样的问题?

本文是关于阿西洛马人工智能原则的系列报道,每周更新。这些原则提出了一个框架,用以规划对人类产生最大覆盖面的有益的AI。然而,AI专家Toby Walsh对这些原则评论道,“当然,这仅仅是个开始,是个未完成的作品。”

这些原则仅仅是对话的开始。我们有必要对每项条款进行广泛的讨论,并跟踪报道。请点击这个链接查看最新进展及其以往的讨论。