Skip to content

The Evolution of AI: Can Morality be Programmed? Russian

Published:
July 5, 2019
Author:
Revathi Kumar

Contents

Эволюция ИИ: можно ли запрограммировать нравственность?


Click here to see this page in other languages: English US_Flag Chinese  

Данная статья была впервые опубликована на сайте Futurism.com.

Недавние достижения в области ИИ дали ясно понять, что компьютеры нуждаются в моральном кодексе. Не согласны? Тогда рассмотрим такую ситуацию: самоуправляемый автомобиль едет по дороге, когда перед ним внезапно появляется ребенок на велосипеде. Выезжает ли машина на встречную полосу, врезаясь в другую машину или она сворачивает с дороги и врезается в дерево? Или она продолжает движение вперед и сбивает ребенка?

Каждый вариант развития событий имеет одну проблему: все они могут закончиться летальным исходом для человека. 

Это неудачный сценарий, но люди сталкиваются с такими на ежедневной основе. Если на самоуправляемом автомобиле лежит ответственность за контроль ситуации, он должен быть способен принять какое-либо решение. И это означает, что нам нужно понять как внести в программный код компьютера нравственные принципы.

Винсент Конитцер, профессор информатики в Duke University, недавно получил грант от Института «Будущее жизни», на исследование о том, как мы можем создать продвинутый ИИ, который способен на моральные суждения и действия на их основе.

Программируя нравственность


На первый взгляд цель довольно проста — создать ИИ, который действует, осознавая свою этическую ответственность — это намного более сложная задача, чем кажется, поскольку существует невероятно огромное количество факторов, которые вступают в игру. Как отмечает проект Конитцера: «Моральные суждения попадают под влияние таких факторов как: права человека (например, конфиденциальность), социальные роли (институт семьи), прошлые действия (данные обещания), мотивы, намерения и другие факторы, относящиеся к категории морали. Они пока не встроены в системы ИИ. И это именно то, над чем мы сейчас работаем».

В недавнем интервью, опубликованном на сайте Futurism, Конитцер пояснил, что, хотя общественность может быть обеспокоена тем, что вышедший из под контроля ИИ может уничтожить человечество, эта угроза на данный момент не совсем реальна (и не станет таковой еще в течение длительного времени). Поэтому его команда не ставит перед собой задачу предотвратить апокалипсис, создав бескорыстный ИИ, который будет обожать человечество. Скорее, они сосредоточены на более базовом уровне обеспечения того, чтобы наши системы искусственного интеллекта могли делать трудный моральный выбор, который люди делают ежедневно.

Итак, как же создать ИИ, который способен принять трудное моральное решение?

Конитцер объясняет, что для достижения цели его команда идет двумя путями: предоставляет людям возможность делать этический выбор, с целью выделить какие-либо шаблоны их мышления, а затем выяснить, как это все можно перенести в искусственный интеллект. Он поясняет: «Сейчас мы занимаемся тем, что ставим людей перед этическими выборами либо проводим опрос, как бы они поступили в той или иной ситуации, а затем с помощью машинного обучения пытаемся определить, каков общий паттерн их мышления и как мы могли бы воспроизвести его в системах ИИ».

Проще говоря, команда пытается найти закономерности в наших моральных выборах и перевести эту закономерность в системы ИИ. Конитцер отмечает, что вся работа проводится для того, чтобы быть способными прогнозировать развитие событий: «Если мы сможем очень точно предсказывать, какие решения люди принимают в тех или иных обстоятельствах, тогда мы могли бы сами принимать эти решения уже в форме компьютерной программы».

Однако одна из главных проблем заключается в том, что мораль не объективна — она не вечна и не универсальна.

Конитцер формулирует проблему, обращаясь к предыдущим десятилетиям: «Если бы мы провели те же этические тесты сто лет назад, ответы, которые мы получили бы от людей, были бы гораздо более расистскими, сексистскими и т.д. Точно так же, прямо сейчас, возможно, наше моральное развитие не достигло своего апогея, и через сто лет люди могут почувствовать, что некоторые вещи, которые мы делаем прямо сейчас, например, как мы относимся к животным, совершенно аморальны. Таким образом, есть риск предвзятости и зацикливания на каком бы то ни было текущем уровне морального развития».

И, конечно же, сложность заключается в том, насколько комплексно само понятие морали. «Чистый альтруизм очень легко рассмотреть в теории игр, но есть возможность, что вы чувствуете себя обязанными кому-то из-за каких-то действий в прошлом. Этот фактор не рассматривается в работах по теории игр, поэтому мы очень много размышляем над вопросом: как можно сделать то, что теория игр называет «концепцией решений» (формальное правило, предсказывающее, по какому сценарию пойдёт игра – прим.переводчика) — разумным? Как это можно вычислить?»

Чтобы решить эти проблемы и помочь понять, как именно функционирует мораль и как она может быть запрограммирована в ИИ, команда объединяет методы  информатики, философии и психологии. «Если обьяснять в  двух словах, наш проект занимается именно этим», — говорит Конитцер.

Но как насчет разумного ИИ? Когда нам нужно будет начать беспокоиться о его появлении и обсуждать нормы его регулирования?

Нравственный ИИ


По данным Конитцера, равный человеку ИИ придется еще подождать (ура! Никакого апокалипсиса в стиле «Терминатора»… по крайней мере, в течение следующих нескольких лет).

«В последнее время разработчики сделали ряд шагов в направлении подобной системы, и, думаю, за этим стоит много удивительных достижений… но мне кажется, что мы все еще довольно далеки от «истинного ИИ», который гибок, способен абстрактно мыслить и делать все те вещи, которые с легкостью делают люди».

Да, мы можем запрограммировать системы на выполнение многих вещей, которые люди делают хорошо, но есть вещи, которые чрезвычайно сложны и их трудно перевести в какой-либо шаблон, который компьютеры могли бы распознавать и учиться на нем (что является основой всего ИИ).

«В результате первых двух десятилетий исследований, некоторые вещи, которые мы считали реальными критериями интеллекта, такие как умение хорошо играть в шахматы, были на самом деле вполне доступны компьютерам. Было нелегко написать и создать шахматную программу, но это было вполне возможно».

Действительно, сегодня у нас есть компьютеры, которые способны обыграть лучших игроков мира во множестве игр — таких как, шахматы и Alpha Go, например.

Но Конитцер уточняет, что, как оказалось, игры не совсем подходят для измерения уровня интеллекта ИИ. Или, по крайней мере, человеческий разум устроен сложнее: «Пока что мы узнали, что проблемы, с которыми достаточно быстро справляется человек, оказались довольно трудными для компьютеров и для программистов. Например, распознавание своей бабушки в толпе людей: для человека эта задача не составит труда, но очень трудно запрограммировать компьютер, чтобы он справлялся с ней так же хорошо. С первых дней исследований ИИ мы создали компьютеры, которые способны распознавать и идентифицировать конкретные изображения. Но пока что, подводя главный итог, можно сказать, что невероятно трудно запрограммировать систему, которая была бы способна делать все то, что могут делать люди, поэтому пройдет еще некоторое время, прежде чем появится «настоящий искусственный интеллект».

Тем не менее, Конитцер утверждает, что сейчас самое время подумать о том, какие правила мы будем использовать для управления таким ИИ. «Это может показаться немного преждевременным, но у компьютерных разработчиков есть, скорее всего, всего несколько десятилетий, и определенно стоит озаботиться этой проблемой заранее». Он отмечает, что, хотя у нас пока нет роботов, похожих на людей, наши системы ИИ уже делают моральные выборы и потенциально могут спасать или забирать жизни.

«Очень часто многие из тех решений, которые принимает ИИ, влияют на людей, и нам, возможно, придется принимать решения, которые в принципе являются для нас морально сложными. Стандартный пример — это самоуправляемый автомобиль, который должен решить: либо ехать прямо и врезаться в машину впереди него, либо свернуть и, возможно, сбить пешехода. Какое решение принять? По моему мнению, мы можем продвинуться дальше в решении этой дилеммы. Это не требует наличия супер интеллектуального ИИ, это могут быть просто программы, которые могут принимать различные компромиссные решения».

Но, конечно, чтобы знать, какое решение принять, сначала нужно понимать, как работает человеческое понятие морали (или, по крайней мере, иметь довольно хорошее представление об этом). Только потом мы можем начать встраивать нравственность в системы ИИ, и это то, что и надеется сделать команда Конитцера.

Добро пожаловать: мы на заре появления нравственных роботов.

Это интервью было отредактировано для лаконичности и ясности. 

Данная статья является частью серии Института «Будущее Жизни» о грантах на исследования безопасности ИИ, которые были профинансированы за счет щедрых пожертвований Илона Маска и проекта «Открытая филантропия».

Статья переведена Карпуниной Анной 

This content was first published at futureoflife.org on July 5, 2019.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:
Our content

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram