Skip to content

How Do We Align Artificial Intelligence with Human Values? Chinese

Published:
June 12, 2017
Author:
Ariel Conn

Contents

我们如何统一人工智能与人类价值观?


Click here to see this page in other languages: English US_Flag German Japanese    Russian 

在未知的时间尺度里,社会中的各个环节即将面对重大的改变。任何与此转变有关的人都有着巨大的责任和机会去塑造它。什么将会触发这个变化?人工智能。

最近,一些人工智能和相关领域的顶尖人才聚集在一起讨论如何确保在转型过程中的人工智能可以保持有利。这番讨论产生了阿西洛马人工智能23条原则。这23条原则的意图在于提供一个使人工智能让尽可能多的人受益的框架。但是,正如人工智能专家托夫·沃尔什(Toby Walsh)所说的:“当然,这只是个开始……工作正在进行中。”

这些原则代表了对话的开始。既然现在对话正在进行中,我们需要跟进每项原则进行广泛的讨论。这些原则对不同的人意味着不同的东西,所以为了尽可能多地造福社会,我们需要单独思考每项原则。

我采访了许多签署了原则文件的人工智能研究员,以了解他们签署这份文件的原因及对未来将面临的问题的看法。

价值观一致性


今天,我们从价值观一致性开始说起。

价值观一致性:高度自主的人工智能系统的设定应该以确保其目标和行为在整个运行过程中与人类价值观相一致。

曾经帮助开创价值观一致性的斯图尔特·拉塞尔(Stuart Russell)喜欢将这与米达斯王的故事进行比较。当米达斯王要求他所触摸的一切都变成黄金时,他真的只是想要变得富有。他其实并不想要他的食物和亲人变成黄金。在人工智能方面我们面临着类似的情况:我们该如何确保人工智能会做我们真正想要的,而不会受设计师的误导去伤害人类?

“机器人不会试图反抗人类,” 拉塞尔在加州大学伯克利分校的助理教授和同事安卡·德拉甘(Anca Dragan)解释道,“他们只会试图优化我们给他们的指令。因此,我们需要确保他们所优化的是我们真正想要的世界。”

我们想要什么?


理解“我们”所想要的是人工智能研究人员面临最大的挑战之一。

“当然,关键是要明确列出这些价值观。由于人类有着不同的文化,来自世界不同的地方,有着不同社会经济背景——我认为每个人会对这些价值观的定义有非常不同的意见。这才是真正的挑战。” 斯坦福大学助理教授斯特凡诺·额蒙(Stefano Ermon说道。

路易斯威尔大学副教授罗马·扬普尔斯基(Roman Yampolskiy解释说:“用编程语言对人的价值观进行编码已经非常困难了,而我们人类的价值又不一致,甚至达成一致的部分价值观会随着时间推进而改变,让这挑战难上加难。”

虽然我们在一些价值观上难以达成共识,但也有很多价值观是我们默认的。正如罗素所说,所有人都明白他们已经被情感价值和感性价值社会化,但很难保证机器人的程序能让它达到共识。

但IBM研究科学家弗朗塞斯卡·罗西(Francesca Rossi对此抱有希望。正如罗西指出的那样,“人们有可能通过科学研究来实际了解如何把我们认同的价值观嵌入到与人类共事的人工智能系统中。”

德拉甘从不同的角度研究这一问题。与其试图了解人类,她训练机器人或人工智能在与人类进行互动时能灵活地实现目标。她解释道:“在伯克利,…我们认为,应该让人工智能系统对目标保有疑惑,而不是去假设他们对目标完全明确,并且把人类的指挥视为能更加了解真正目的的宝贵观点。”

重写此原则?


虽然大多数研究人员同意价值观一致性原则的基本思想,但并不是每个人都满意其表达方式,更不用说去实现它了。

蒙特利尔大学的人工智能先驱和教授约书亚·本焦(Yoshua Bengio认为“确保价值观一致性”太理想化了。他解释说:“我们可能无法实现(将价值观)完全一致化。有很多事情是天生的,我们无法通过机器学习获得,甚至可能很难通过哲学或内省来获得,所以能完全一致是不确定的。我认为应该使用这样措辞:“我们会尽力而为(对应价值观)”。其他方面,我完全同意。”

现任柏林技术大学客座教授的沃尔什对使用“高度”一词提出质疑。“我认为任何一个自治制度,即使是一个低度自治的体系,都应该符合人类的价值观”,他说,“我会去掉‘高度’这一词”。

沃尔什还指出,虽然价值观一致性往往被认为是将来会出现的一个问题,但他认为这是需要尽早解决的问题。“我认为我们今天必须为执行这一原则而担忧,”他解释说。“这将有助于解决更具挑战性的价值观一致性问题,因为系统正变得越来越复杂,这个问题也正随着变得更棘手。”

支持价值观一致性的罗西把该原则比作“是一件深入我心的事情”,并认为这个原则应适用于当前的人工智能系统。她说:“我会比这份原则编写的更为宽广。…因为这个原则不仅需要符合自主的人工智能系统,而且对与人类紧密合作的系统和人类在其中扮演着最终决策者的系统来说是非常重要的。当人与机器紧密合作的时候,你希望他们成为一个真正的团队。”

但是,正如德拉甘所解释的:“这份原则是帮助人工智能弄清楚应该做什么的重要一步,而不断完善目标应该是人与人工智能之间不断持续的过程。”

开始对话吧


现在我们把对话权交给你。将人工智能与你自己的生活目标和理想保持一致,对你来说意味着什么?它如何同时与你和世界各地人类的目标一致?我们如何确保人们的理想人工智能不会使你的生活变得更艰难?我们该如何统一人类的价值观,而又要如何才能确保人工智能可以理解它们?如果你有私人人工智能助理,应该如何编写它的行为呢?如果有更多的人工智能配药或维持治安或进行教育,那应该是怎么样的呢?从社会的角度,我们还需要提出哪一些问题呢?

This content was first published at futureoflife.org on June 12, 2017.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:
Our content

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram