Skip to content

How Do We Align Artificial Intelligence with Human Values? Russian

Published:
August 26, 2017
Author:
Ariel Conn

Contents

Как мы сможем приспособить искусственный интеллект к человеческим ценностям?


Click here to see this page in other languages: English US_Flag Chinese   German Japanese  

Надвигаются серьезные изменения, они не имеют временных рамок, но затронут все сегменты общества. Люди, принимающие участие в этих событиях, несут огромную ответственность, но вместе с тем они имеют возможность изменить мир к лучшему. Что является причиной этих изменений? Искусственный интеллект.

Лучшие умы в области изучения искусственного интеллекта собрались вместе, чтобы обсудить вопрос о том, сможем ли мы гарантировать то, что ИИ будет нам выгоден и полезен. Результатом полемики явился свод законов для ИИ, получивший название «Асиломарские принципы ИИ». Цель этих 23 принципов – предложить решение, при котором искусственный интеллект может принести пользу как можно большему числу людей. Но, как сказал эксперт по ИИ Тоби Уолш: «Это только начало… работа продолжается”.

«Принципы» представляют собой начало разговора, и теперь, когда разговор идёт, нам необходимо продолжить обсуждение каждого принципа по- отдельности. Принципы будут означать разные вещи для разных людей, поэтому, чтобы извлечь как можно больше выгоды, мы должны рассмотреть каждый принцип индивидуально.

В рамках этого исследования, я взял интервью у многих учёных в области ИИ, подписавших документ «Принципы», чтобы узнать, почему они это сделали, и какие вопросы стоят перед нами на сегодняшний день.

Соотношение ценностей.


Начнём с принципов, касающиеся соотношения человеческих ценностей и ИИ.

Автономные системы ИИ должны быть разработаны таким образом, чтобы их цели и поведение совпадали с целями человека и его ценностями на протяжении всей их работы.

Стюарт Рассел, который выдвигал идею равных ценностей, любит сравнивать это с историей короля Мидаса. Когда король Мидас попросил, чтобы всё, к чему он прикасался, превращалось в золото, он просто хотел быть богатым. Но он вовсе не хотел, чтобы его еда и любимые люди также обращались в золото. Мы сталкиваемся с аналогичной ситуацией с искусственным интеллектом: как мы можем гарантировать, что ИИ будет делать то, что мы действительно хотим, при этом не причиняя вреда людям?

«Роботы вовсе не собираются восстать против человечества, – объясняет Анка Драган, помощник и коллега Рассела в Калифорнийском университете в Беркли, – они просто оптимизируют всё, что мы скажем им делать. Поэтому важно сказать им, каким мы действительно хотим видеть этот мир».

Чего мы хотим?


Понимание того, что именно мы хотим, – это одна из самых важнейших проблем, с которыми сталкиваются исследователи ИИ.

«Задача заключается в том, чтобы определить, что именно представляют собой ценности. Люди имеют разное представление о ценностях из-за культурных различий и разного социально-экономического положения. И это действительно проблема», – говорит Стефано Эрмон, доцент Стэнфордского университета.

Роман Ямпольский, доцент Университета Луисвилля, согласен. Он объясняет: «Очень сложно передать человеческие ценности на языке программирования, но проблема осложняется тем фактом, что мы не согласны общие ценности, а то, на что мы соглашаемся со временем меняется».

И хотя по поводу некоторых ценностей трудно достичь единого мнения, но существует огромное множество ценностей, где люди всё-таки смогут прийти к единодушному мнению. Но, как отмечает Рассел, любой человек осознаёт важность эмоций и чувств, с которыми он постоянно имеет дело, и нам трудно гарантировать, что робот будет запрограммирован с таким же пониманием.

Но исследователь из IBM (крупнейшей американской компании по производству и поставке аппаратного и программного обеспечения) Франческа Росси полна надежд. Как отмечает Росси, «будет проводиться ряд исследований, чтобы понять, как внедрить человеческие принципы и ценности в систему искусственного интеллекта для работы с людьми».

Драган подходит к проблеме с другой стороны. Вместо того, чтобы пытаться понять людей, она пытается обучить робота быть податливым и уступчивым по отношению к задачам, поскольку он взаимодействует с людьми. Она объясняет: «В Беркли … мы считаем важным то, чтобы робот имел только размытое представление о своих задачах, а не наоборот, тем самым он будет рассматривать человеческий вклад  как ценное наблюдение об истинной цели».

Переписать «Принципы»?


Хотя большинство исследователей согласны с основополагающей идеей Принципа равных ценностей, не все согласны с тем, как это представлено, не говоря уже о том, как его реализовать.

Йошуа Бенджио, пионер ИИ и профессор Монреальского университета, считает, что в деле, касающееся ИИ не может быть никаких гарантий. Он объясняет: «Скорее всего, невозможно сделать робота с человеком абсолютно равными. Существует много врождённых вещей, которым научить машину будет невозможно. То же касается философии или самоанализа. Поэтому на данный момент не совсем ясно, сможем ли мы быть равными. Я думаю, самые подходящие слова – это что-то вроде ‘мы сделаем все возможное’. В противном случае, я абсолютно согласен.»

Уолш, который в настоящее время является приглашенным профессором Берлинского технического университета, ставит под вопрос употребление слова «высоко». «Я думаю, что любая автономная система, даже низко автономная, должна быть оснащена человеческими ценностями. Я бы не употреблял здесь это слово», – отмечает Уолш.

Уолш также считает, что, хотя вопрос равных ценностей часто рассматривается как проблема будущего, лучше решить эту проблему сейчас, а не откладывать на потом. «Я думаю, что уже сегодня мы должны беспокоиться о соблюдении этого принципа», – объясняет он. «Это поможет нам решить более сложные задачи, касающиеся определения разнозначных ценностей человека и робота, поскольку системы становятся более сложными и изощрёнными».

Росси, который всем сердцем поддерживает Принцип уравнивания ценностей согласен с тем, что этот принцип должен применяться к современным системам ИИ. «Я бы добавил ещё кое-что об этом принципе», – говорит он. «Принцип должен иметь дело не только с автономными системами ИИ, но … очень важно и необходимо, чтобы он работал и в системах, которые работают с людьми, где человек является конечным лицом, принимающим решения. Когда человек и машина плотно работают вместе, мы хотим, чтобы это была настоящая команда».

Как объясняет Драган, «это один шаг к тому, чтобы помочь ИИ понять, что он должен делать. Важно то, чтобы постоянное совершенствование целей было непрерывным процессом между людьми и ИИ».

И да начнётся диалог.


И теперь мы переходим к вам. Что для вас значит искусственный интеллект, соответствующий вашим жизненным целям и стремлениям? Как он сможет жить с вами и остальным миром? Как мы сможем гарантировать, что версия идеального человека-робота не осложнит вам жизнь? Как мы пойдём на сделку с общими ценностями, и как мы можем гарантировать, что ИИ поймёт эти ценности? Если бы у вас был личный помощник-робот, как он должен быть запрограммирован себя вести? Если мы – люди и ИИ будем заниматься вместе такими вещами, как медицина, полицейская деятельность, образование, как это должно выглядеть? О чём ещё нас должны спросить?

This content was first published at futureoflife.org on August 26, 2017.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram