How Smart Can AI Get? Chinese
Contents
人工智能能有多聪明?
Click here to see this page in other languages : English Russian
“能力警告原则”:在没有达到共识的情况下,我们应该避免对未来人工智能(AI)能力的上限做出强烈地推测。
在未知的时间里,贯穿着社会每个阶段的重大改变即将到来。任何与此转变有关的人都有重大的责任和机会去最好地塑造这个转变。什么会触发这个改变?那就是人工智能。
“23条阿西洛马人工智能原则”提供了一个能帮助人工智能造福尽可能多人的框架。但是,正如人工智能专家托比·沃尔什(Toby Walsh)所说:“当然,这只是一个开始…正在进行中的一个工作。”这些原则代表了一个对话的开始,现在我们需要去跟进广泛讨论每一个原则。你可以在这里阅读关于之前每周里讨论的原则。
能力警告
AI研究人员面临的最大问题之一是:AI到底可以变得有多聪明,多能干呢?
近年来,AI已在跨越式地发展。由DeepMind创建的人工智能AlphaGo在具有挑战性和复杂性的围棋比赛中,超越了人类的表现。该公司所创建的AI已经可以训快地学会玩雅达利(Atari)电子游戏,并且能比人类玩得更优越。我们也见证了AI在语言翻译、自动驾驶汽车、甚至在创建新药物分子上的突破和进展。
但是,AI还能变得多先进呢?它会继续在有限的任务中表现出色,还是会开发更广阔的学习技巧,使一个AI能在大多数任务中胜过一个人?我们又如何为一个比我们想象中更智能的AI做准备呢?
有专家认为人类水平AI,或甚至超人类水平AI可以在几十年内开发出来,而有些人却认为没有人能完成这个壮举。“能力警告原则”争论道:在有具体的证据来证明AI有可能实现什么的之前,我们假设AI没有能力上限是最安全的。也就是说,现在什么事情都是有可能的,而我们需要相应地去做出规划。
专家的意见
“能力警告原则”即引起了专家们的共识,但也牵引了他们不同的意见。虽然我采访的每个人普遍同意我们不应该去假设AI能力的上限,但是他们的理论有所不同,有些还引起了忧虑。
斯坦福大学助理教授斯特凡诺·埃尔蒙(Stefano Ermon)和路易斯维尔大学副教授罗马·扬普尔斯基(Roman Yampolskiy)都采取了稳妥的态度。
埃尔蒙使用历史事件去提醒人们预测未来有多困难。他解释道:“预测未来总是很难的。…想想一百年前人们是如何想象未来的样子。…我觉得他们当时很难想象出我们今天所拥有的事物。我认为我们应该采取类似的、非常谨慎的态度来预测未来。如果这非常地困难,那么我们最好谨慎一点。”
扬普尔斯基(Yampolskiy)把目前的技术安全计策纳入考量,并说道:“在许多计算机科学的领域中(比如复杂性和密码学),通常默认的假设是我们要处理最坏的情况。同样地,在AI安全方面,我们应该假设AI将会拥有极大的能力,然后相应地做好准备。这样的话,就算我们估计错误,我们依旧能维持好的状态。”
华盛顿大学教授丹·韦尔德(Dan Weld)说到关于“能力警告原则”:“我同意!作为一名科学家,我反对对任何事物做出强烈或不合理的假设,所以我当然同意。”
然而,尽管他同意了这一原则背后的基本思想,韦尔德同时对此也有所保留。“这个原则使我感到烦恼,”韦尔德解释道:“因为这个原则似乎在暗指AI超级人类化或在近期内更加智能化将会是一个即刻危机,而我们需要担心这个问题。这个声明…使我担忧。因为我认为这让我们分散了放在更大、更重要、更近期的潜在破坏性问题的注意力。比起‘天网(Skynet)’,我更担心的是失业问题,以及关于保健、教育和基本收入的保障等问题。而且我会更担心一些恐怖分子会试图操作一个AI系统去杀死所有的美国人,而不是担心一个AI系统会突然醒来,并决定自己应该去做这件事情。”
从不同的角度上来说,IBM研究部副总裁格如德斯·巴拿瓦(Guruduth Banavar)担心限制AI能力的上限可能也会限制其有利的发展潜能。巴拿瓦解释道:“一般的想法是,以我们今天所了解的情况来说,人工智能是最终能够用来处理来自任何来源的信息,并用它来预测未来和适应未来的一种能力。这完全是机器可办得到的领域…我认为我们应该避免对机器智能上限的假设,因为我不希望AI的能力受到人为的限制。
IBM研究部科学家弗朗西斯卡·罗西(Francesca Rossi)从另一个角度考虑了“能力警告原则”,他表明AI对于人类达到我们最强的能力是必要的,我们也不想要被设定能力的上限。
“我个人偏向于制造AI系统去强大人类智能,而不是去取代人类智能,”罗西说道,“况且,我认为,在强大人类智能的这个空间里,AI确实有巨大的潜能让大家的个人和职业生活变的更好。在这方面上,我不认为未来AI的能力有所上限。我认为人类跟越来越多的AI系统结合将会增强我们的智能。这跟机器智能是互补的。而且这将帮助我们做出更好的决策,提供我们更好的生活,以及帮助我们解决一些我们目前不能解决的问题。我不认为这些能有上限。”
你认为呢?
人工智能是否有上限?我们能使用人工智能去实现的事情是否有上限?要高级AI达到日益增长的水平需要多长时间?我们该如何计划拥有这些不确定因素的未来?我们整个社会该如何去处理这些问题?我们还应该向AI能力方面提出怎么样的问题?
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.