Are Conscious AI Dangerous? Chinese
Contents
《西部世界》专栏: 有自主意识的人工智能危险吗?
Click here to see this page in other languages: English Russian
“残暴的愉悦终有同样残暴的结局”
在莎士比亚和迈克尔·克莱顿 (Michael Crichton) 的启发下, HBO电视网旗下的《西部世界》点燃了人们对高等人工智能(AI)的担忧。
如果你还没有看过这部剧,《西部世界》是一个高度拟人的AI们居住于一个被设计成美国西部大世界的公园里的电视剧。 游客们花重金在这个公园里游玩和体验西部世界的生活。 在这个世界里, 他们可以殴打, 强暴和屠戮人工智能。每当AI机器人“死亡” , 它的尸体会被清理干净, 记忆会被清除, 然后会开始一个新的剧本循环。
这一季的最后一集在周日晚上播出了, 而且这个结局有爆炸的效应(放心这个文章里没有剧透)。
《西部世界》内的人工智能安全隐患
《西部世界》是受到克莱顿同名旧电影的启发,并将其交给侏罗纪公园的作者创造一个故事情节,让我们质疑我们在先进科学研究方面能够保持的控制水平。但不同于机器人是坏角色的原片,在这个电视连续剧里, 机器人被描述成最受怜悯和最贴近人类的角色。
不出乎意料, 对于《西部世界》公园安全的担心马上浮现了出来。公园被一个可以做任何程序升级而不需要报备的人所监管。 机器人表现出记得他们遭遇的象征。其中一个角色提到机器人只有一行代码是用来预防他们伤害人类的。
这些问题只是该节目涉及目前真正的AI安全问题的其中一些担忧:一个适用高级人工智能来对人造成伤害的“不良代理人”; 软件里的小故障所带来致命的结果; 和在安全代码里缺失的重复性和强韧性。
很多真正富有争论的安全和道德问题总是环绕着到底机器人有没有思想。 实际上,整个剧探索的是最难的问题之一是: 到底什么是意识? 除此之外,人类到底能不能创造有意识的存在? 如果可以, 我们能控制它吗? 我们到底想不想寻找这个问题的答案?
为了思考这些问题, 我找到了佐治亚理工学院的专门研究制造创意人工智能的研究员, 马克·里德尔(Mark Riedl) 和来自纽约大学并因提出对“自主意识最难的问题”的构想而著名的哲学家大卫·查默斯 (David Chalmers)。
人工智能可以感受到疼痛吗?
我先与里德尔探讨, 问了他关于如果机器人被程序设定成可以感受疼痛的话,它的疼痛感会是什么程度。他说:“首先,我不会原谅任何针对人类、动物、被赋予情感的机器人、或者人工智能的伤害。”然后他继续解释道,人类和动物把疼痛感当作为“避免某种刺激”的警告信号。
但是对于机器人来说, 最接近的类比应该会发生在强化学习的机器人上, 这些机器人会从错误上学习进化。这些机器人会从一些行动中获得正面或者负面的结果, 然后它会根据结果来调整自己未来的行为。相比于感受疼痛,里德尔觉得负面的结果更像是在游戏里丢掉分数。
“机器人和人工智能可以被编程为能够表现出像人一样感受疼痛”,里德尔说:“但是这种疼痛可能是一种错觉。有一个创造这种错觉的原因是:用一种让人类可以理解和产生共鸣的方式让机器人和人类更好的交流内在的状态。”
里德尔不是担心到底机器人能不能感受疼痛,或者担心它们的记忆到底是不是每天都被清除一次,他知道清除记忆后就跟什么事都没发生过一样。但是他发现了一个安全隐患。想要加强学习在机器人身上合理运作,人工智能需要尽可能做能让他们获得正面结果的事。如果机器人的记忆没有被彻底清除,如果机器人记得发生在它身上的所有坏事,那它就有可能去避免那些不好的行动,或者去避免那些让坏事发生的人们。
“理论上,“ 里德尔说道: “这些工作人员会提前计划用尽可能最有效率的办法来减少机器人接受负面结果的可能性。如果机器人不理解行动所包含的正面或者负面的影响,它们也有可能阻止人类的行为来预防它们遭受伤害。”
里德尔指出尽管在可预见的未来里我们不会有性能这么好的机器人。但是一旦这些机器人出现,负面结果可能会对人类有很大的隐患。(有可能像电视剧说的,比想象中更危险的是如果机器人理解了几十年来人类对他们所有的虐待。)
人工智能可能拥有自主意识吗?
查默斯对这件事有不同的观点。“我对自主意识的看法”,查默斯说道: “大多数人对自主意识的看法-好像大家根本不问这些东西是否有自主意识。。。他们好像就是富有感情的生命-展示出感受痛的和思考的能力。。他们不只是对周围做出条件反射。他们在对坏境进行思考。他们在思考。
“很明显,他们是有感知的” 他接着说。
查默斯解释道我们应该想机器人缺少什么而不是什么让机器人变得有自主意识。查默斯说它们尤其缺少自由意志和记忆。但是很多人类也生存在不能打破的日常生活中。而且有很多人们失去记忆的案例,并没有人会觉得可以强奸或杀害这些失去记忆的人。
“如果虐待人工智能在这个电视剧里被认同的话,到底是因为他们有什么缺陷呢?或者说是因为其他什么?” 查默斯问道。
有些《西部世界》里的剧情不现实因为查默斯不相信两心分智论不适合进化出自主意识,甚至在机器人身上也是如此。 “我认为这个理论是无希望的”,他说, “即使是它想要阐释的机器人自主意识。只需编程让机器人直接监视他们自己的想法就会容易得多。”
但是这样还是有危险。“如果你遇到类似情况,遇到这些复杂的和大脑一样的东西,它们会很好被掌控吗?” 查默斯问道。
不管怎么说,不好地对待机器人很容易造成对人类安全的隐患。我们创造那些无意识的但是可能会从坏的结果上学习的机器人,或者是我们冒着风险无意创造(亦或是像《西部世界》里一样有意创造)那些有意识的最终会反抗一切对他们不公和压迫的个体。
在剧里,一个工作人员被问“到底她是不是‘真实的’”,她回答道:“如果你都不能分辨了,是否真实重要吗?”
这些可能是最安全的话了吧。
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.