Skip to content

The Evolution of AI: Can Morality be Programmed? Chinese

Published:
May 27, 2018
Author:
Revathi Kumar

Contents

人工智能的演化:能否为道德编程?


Click here to see this page in other languages: English US_Flag

原文发布于Futurism.com

概要

我们的人工智能系统正在以惊人的速度推进。虽然我们离类似人类的合成智能还有一段时间,但现在开始编程道德的工作是有意义的。在杜克大学的研究人员已经取得长足进展。

人工智能的最新进展使得建立计算机道德准则迫在眉睫。 不甚认同?那不妨考虑以下情形:当一个骑自行车的孩子突然迎面而来,正在行驶的汽车应该如何反应?是该转向反车道,撞上已经在行驶的另一辆车? 或者从公路上急转而下,撞向一棵树? 亦或继续前进,撞倒孩子?

每一个选项都十分艰难:都将导致人命丧失。

这是一个不幸的场景,但人类天天面临这样的决择。如果是一辆自动驾驶汽车在控制行驶,那么它亦需要能够做出这样的选择。 这就意味着我们需要研究清楚如何将道德编程进我们的计算机程序中。

杜克大学计算机科学系教授文森特•康尼茨 (Vincent Conitzer) 及合作研究者杜克大学哲学系教授沃尔特·辛诺特 – 阿姆斯特朗 (Walter Sinnott-Armstrong) 近期获得生命未来研究所(Future of Life Institute)的资助,以试图研究我们能如何制造出能够进行道德判断并采取相应行动的高级人工智能。

制造道德


乍看之下,目标看似很简单 – 使人工智能的行为方式符合道德责任;然而,实际上比起初看起来复杂得多,因为有太多因素能产生影响。正如康尼茨的项目所概述的那样,“道德判断受到权利(如隐私)、角色(如家庭)、过去行为(如承诺)、动机和意图,以及其它与道德有关特征的影响。 这些多样的因素尚未建立在人工智能系统中。”

这也正是我们现在试图做的。

在最近与《未来主义》(Futurism)的采访中,康尼茨坦言,虽然公众可能很关心要确保“邪恶”人工智能不会做出消灭人类的决定,但在当下,这样的情形并不是一个显著的威胁(而且在很长时间内也不会)。 因此,他的团队并不关注于制造一个崇拜人性的无私机器人,以防范出现“机器人启示录”。 相反,他们侧重于在更基础的层面上确保我们的人工智能系统能够做出人类日常需要做出的艰难道德选择。

那么,将如何让人工智能有能力做出艰难的道德选择呢?

康尼茨解释到,为了实现他们的目标,该团队正在遵循一条两步走的路径:让人类做出道德选择后从中摸索规律,然后研究如何将其转化为人工智能。 他进一步澄清道:“我们目前正在做的是让人们做出道德决定,或界定在特定情况下他们会做出什么决定,然后我们通过机器学习来鉴定一般模式是什么,并确定我们采纳这种决定的程度。”

简而言之,团队正在努力寻找我们道德选择的模式,并将这种模式转化到人工智能系统。康尼茨指出,在基本层面上,这即是预测人类在某一特定情况下如何反应,“如果我们能够很好地预测人们在这种道德情境下做出什么样的决定,那么我们可以通过计算机程序的形式做出这些决定。”

然而,一个关键问题则是道德并不是客观的——它既不永恒也不普世。

康尼茨通过回望前几十年的情况来阐述这个问题:“如果我们在一百年前进行同样的伦理测试,那么我们从人类获得的决定就会包含更多种族主义,性别歧视,还有其它各类我们如今不会认同为“好”的情况。同样的,也许我们现在的道德发展还没有达到顶峰,一百年后,那时的人们可能会觉得我们现在所做的一切,比如我们如何对待动物,是完全不道德的。 所以其中的确存有偏见的风险,并且局限于我们目前道德发展的水平。”

当然,这牵涉到了上述有关道德有多复杂的问题。 “纯粹的利他主义很容易在游戏理论中解决,但也许你会觉得你因为以前的行为而对我有所亏欠 。 这是游戏理论研究中遗漏的,所以我们对此也在反复思考 – 你如何能做到游戏理论中称之为“解决方案概念”? 你又如何计算这些?

为了解决这些问题,为了弄清楚道德的运作方式,以及为了可以被编程到人工智能当中,团队正在结合计算机科学、哲学、经济学和心理学。“言简意赅地说,这正是我们的项目所在做的。”康尼茨总结道。

但对于那些感性人工智能呢? 我们什么时候需要开始担心它们,并讨论如何监管它们?

类人智能


根据康尼茨的说法,近似于人类的人工智能在一段时间内还不会出现(耶!不会有终结者式的启示录了…至少未来几年内不会)。

“最近,科学家已经在向这样的系统推进, 我认为已经有了很多惊人的进展…但是我同时认为形成像人类一样灵活,有能力抽象化,并对此运用自如的‘真正的人工智能’,我们还相去甚远。” 康尼茨断言。

的确,我们可以对系统进行编程,来做很多人类可以胜任的事情,但是有些内容非常复杂,很难转化为计算机可以识别和学习的模式(亦是人工智能的根基)。

“人工智能前几十年的早期研究让我们意识到的是我们认为可以作为智力基准的一些任务,比如能够下棋,实际上对计算机来说是比较容易实现的。 编写和创造出国际象棋程序虽然并不容易,但它是可行的。”

的确,如今,我们已经有计算机能在一些竞技中打败世界上最强的高手——比如象棋和AlphaGo。

但是,康尼茨解释道,实际上下棋并不是人类智慧的一个很好的衡量标准。 或至少人类智慧涵盖更多方面。 “与此同时,我们发现其它对于人类来说易如反掌的事情,对于计算机来说却很困难,或者说对计算机进行相应编程很困难。例如,从人群中识别出你的祖母。你可以很容易地做到这一点,但实际上却很难编程让计算机来很好地识别人或物品。”

自从人工智能研究的早期阶段以来,我们已经使计算机能够识别和区分一些特定的图像。 然而,创造出一个能够做出所有人类可以做的事情的系统还是非常困难的,这就是为什么我们距离打造出一个 ‘真正的人工智能’还有相当长的时间。

不过康尼茨认为,现在是时候开始考虑我们将用什么样的规则去管理这样的智能。 “可能还有距离, 但对于计算机科学家来说,这也许仅意味数十年,试图略微前瞻性地考虑这些事情肯定是有意义的。”他指出,即使我们目前还没有像人类的机器人,但我们已有的智能系统已经在做出道德选择,并且可能关乎拯救或抹杀生命。

“很多时候,它们做出的许多决定会影响到人类,我们需要作出我们通常认为承载了道德的决定。 一个常用的例子是自动驾驶汽车应该选择直冲向迎面而来的汽车还是急转并可能伤害到行人。 你如何做出这些权衡? 这是我觉得我们可以真正取得一些进展的地方。这并不需要超级的人工智能,朴质的编程能通过多种方式来进行权衡。”

但是当然,知道做出什么决定前,我们首先需要知道道德是如何运作的(或至少有一个比较好的认识)。 基于此,我们可以开始编程,这也正是康尼茨和他的团队希望做的事情。

所以让我们迎来道德机器人的曙光。

为了更加简洁清晰,此访谈已被编辑。

这篇文章是生命未来研究所人工智能安全研究资助项目系列之一,由伊隆·马斯克(EIon Musk)和开放慈善项目慷慨捐赠 。

This content was first published at futureoflife.org on May 27, 2018.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:
Our content

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram