How Do We Align Artificial Intelligence with Human Values? Russian
Contents
Как мы сможем приспособить искусственный интеллект к человеческим ценностям?
Click here to see this page in other languages: English Chinese German Japanese
Надвигаются серьезные изменения, они не имеют временных рамок, но затронут все сегменты общества. Люди, принимающие участие в этих событиях, несут огромную ответственность, но вместе с тем они имеют возможность изменить мир к лучшему. Что является причиной этих изменений? Искусственный интеллект.
Лучшие умы в области изучения искусственного интеллекта собрались вместе, чтобы обсудить вопрос о том, сможем ли мы гарантировать то, что ИИ будет нам выгоден и полезен. Результатом полемики явился свод законов для ИИ, получивший название «Асиломарские принципы ИИ». Цель этих 23 принципов – предложить решение, при котором искусственный интеллект может принести пользу как можно большему числу людей. Но, как сказал эксперт по ИИ Тоби Уолш: «Это только начало… работа продолжается”.
«Принципы» представляют собой начало разговора, и теперь, когда разговор идёт, нам необходимо продолжить обсуждение каждого принципа по- отдельности. Принципы будут означать разные вещи для разных людей, поэтому, чтобы извлечь как можно больше выгоды, мы должны рассмотреть каждый принцип индивидуально.
В рамках этого исследования, я взял интервью у многих учёных в области ИИ, подписавших документ «Принципы», чтобы узнать, почему они это сделали, и какие вопросы стоят перед нами на сегодняшний день.
Соотношение ценностей.
Начнём с принципов, касающиеся соотношения человеческих ценностей и ИИ.
Автономные системы ИИ должны быть разработаны таким образом, чтобы их цели и поведение совпадали с целями человека и его ценностями на протяжении всей их работы.
Стюарт Рассел, который выдвигал идею равных ценностей, любит сравнивать это с историей короля Мидаса. Когда король Мидас попросил, чтобы всё, к чему он прикасался, превращалось в золото, он просто хотел быть богатым. Но он вовсе не хотел, чтобы его еда и любимые люди также обращались в золото. Мы сталкиваемся с аналогичной ситуацией с искусственным интеллектом: как мы можем гарантировать, что ИИ будет делать то, что мы действительно хотим, при этом не причиняя вреда людям?
«Роботы вовсе не собираются восстать против человечества, – объясняет Анка Драган, помощник и коллега Рассела в Калифорнийском университете в Беркли, – они просто оптимизируют всё, что мы скажем им делать. Поэтому важно сказать им, каким мы действительно хотим видеть этот мир».
Чего мы хотим?
Понимание того, что именно мы хотим, – это одна из самых важнейших проблем, с которыми сталкиваются исследователи ИИ.
«Задача заключается в том, чтобы определить, что именно представляют собой ценности. Люди имеют разное представление о ценностях из-за культурных различий и разного социально-экономического положения. И это действительно проблема», – говорит Стефано Эрмон, доцент Стэнфордского университета.
Роман Ямпольский, доцент Университета Луисвилля, согласен. Он объясняет: «Очень сложно передать человеческие ценности на языке программирования, но проблема осложняется тем фактом, что мы не согласны общие ценности, а то, на что мы соглашаемся со временем меняется».
И хотя по поводу некоторых ценностей трудно достичь единого мнения, но существует огромное множество ценностей, где люди всё-таки смогут прийти к единодушному мнению. Но, как отмечает Рассел, любой человек осознаёт важность эмоций и чувств, с которыми он постоянно имеет дело, и нам трудно гарантировать, что робот будет запрограммирован с таким же пониманием.
Но исследователь из IBM (крупнейшей американской компании по производству и поставке аппаратного и программного обеспечения) Франческа Росси полна надежд. Как отмечает Росси, «будет проводиться ряд исследований, чтобы понять, как внедрить человеческие принципы и ценности в систему искусственного интеллекта для работы с людьми».
Драган подходит к проблеме с другой стороны. Вместо того, чтобы пытаться понять людей, она пытается обучить робота быть податливым и уступчивым по отношению к задачам, поскольку он взаимодействует с людьми. Она объясняет: «В Беркли … мы считаем важным то, чтобы робот имел только размытое представление о своих задачах, а не наоборот, тем самым он будет рассматривать человеческий вклад как ценное наблюдение об истинной цели».
Переписать «Принципы»?
Хотя большинство исследователей согласны с основополагающей идеей Принципа равных ценностей, не все согласны с тем, как это представлено, не говоря уже о том, как его реализовать.
Йошуа Бенджио, пионер ИИ и профессор Монреальского университета, считает, что в деле, касающееся ИИ не может быть никаких гарантий. Он объясняет: «Скорее всего, невозможно сделать робота с человеком абсолютно равными. Существует много врождённых вещей, которым научить машину будет невозможно. То же касается философии или самоанализа. Поэтому на данный момент не совсем ясно, сможем ли мы быть равными. Я думаю, самые подходящие слова – это что-то вроде ‘мы сделаем все возможное’. В противном случае, я абсолютно согласен.»
Уолш, который в настоящее время является приглашенным профессором Берлинского технического университета, ставит под вопрос употребление слова «высоко». «Я думаю, что любая автономная система, даже низко автономная, должна быть оснащена человеческими ценностями. Я бы не употреблял здесь это слово», – отмечает Уолш.
Уолш также считает, что, хотя вопрос равных ценностей часто рассматривается как проблема будущего, лучше решить эту проблему сейчас, а не откладывать на потом. «Я думаю, что уже сегодня мы должны беспокоиться о соблюдении этого принципа», – объясняет он. «Это поможет нам решить более сложные задачи, касающиеся определения разнозначных ценностей человека и робота, поскольку системы становятся более сложными и изощрёнными».
Росси, который всем сердцем поддерживает Принцип уравнивания ценностей согласен с тем, что этот принцип должен применяться к современным системам ИИ. «Я бы добавил ещё кое-что об этом принципе», – говорит он. «Принцип должен иметь дело не только с автономными системами ИИ, но … очень важно и необходимо, чтобы он работал и в системах, которые работают с людьми, где человек является конечным лицом, принимающим решения. Когда человек и машина плотно работают вместе, мы хотим, чтобы это была настоящая команда».
Как объясняет Драган, «это один шаг к тому, чтобы помочь ИИ понять, что он должен делать. Важно то, чтобы постоянное совершенствование целей было непрерывным процессом между людьми и ИИ».
И да начнётся диалог.
И теперь мы переходим к вам. Что для вас значит искусственный интеллект, соответствующий вашим жизненным целям и стремлениям? Как он сможет жить с вами и остальным миром? Как мы сможем гарантировать, что версия идеального человека-робота не осложнит вам жизнь? Как мы пойдём на сделку с общими ценностями, и как мы можем гарантировать, что ИИ поймёт эти ценности? Если бы у вас был личный помощник-робот, как он должен быть запрограммирован себя вести? Если мы – люди и ИИ будем заниматься вместе такими вещами, как медицина, полицейская деятельность, образование, как это должно выглядеть? О чём ещё нас должны спросить?
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.