Мир дикого запада: Опасен ли сознательный ИИ?

Evan Rachel Wood in Westworld. Photo Credit: John P. Johnson.

Click here to see this page in other languages:  English US_Flag  Chinese 

«Коль буйны радости, конец их буен.»

С помощью Шекспира и Майкла Крайтона сериал HBO «Мир дикого запада» пролил свет на некоторые опасения по поводу создания разумного искусственного интеллекта.

Для тех, кто ещё не видел сериал, Мир дикого запада – это шоу, в котором человекоподобные роботы населяют огромный парк в стиле Дикого Запада. Посетители тратят огромные деньги, чтобы посетить этот парк, испытать себя в авантюрных приключениях Дикого Запада, где они могут сражаться, насиловать и убивать роботов. Каждый раз, когда один из роботов «умирает», его тело очищается, память стирается и начинается новая итерация его скрипта.

Финал сезона сериала уже вышел – но не стоит волноваться, в этой статье нет спойлеров.

Проблемы искусственного интеллекта в сериале «Мир дикого запада».

Идею сериала продюсеры почерпнули из одноименного фильма Майкла Крайтона. В фильме «Западный мир», который вышел в 1973 году, Крайтон поднял вопрос, который остаётся актуальным и по сей день: сможем ли мы справиться с продвинутым искусственным интеллектом.

Но в отличие от оригинального фильма, в котором робот является антагонистом, в сериале роботы наделены такими качествами как человечность и сочувствие.

Неудивительно, что проблемы с безопасностью в парке появляются практически сразу.  Ведь парк контролируется лишь одним человеком, который обновляет программу, когда захочет, не подвергая систему никакой проверке безопасности. И это при том, что у роботов проявлялись признаки того, что они помнят о жестокости по отношению к ним. Один из персонажей упоминает, что только одна строка кода удерживает роботов от вреда людям.

И это лишь малая часть. Сериал затрагивает реальные проблемы безопасности ИИ: злодей, который использует продвинутых роботов для того, чтобы причинить вред людям; небольшие сбои в программном обеспечении, которые оказываются смертельными; отсутствие надежности в коде, что подвергает риску жизни людей.

Сериал будоражит ум зрителя вопросом, сознательны роботы или нет, ведь от этого зависит безопасность людей. Но один из самых сложных вопросов, с которым придётся столкнуться зрителю: что такое сознание? Могут ли люди создать сознательное существо? Если да, можем ли мы это контролировать? Хотим ли мы узнать это?

Чтобы разобраться со всеми вопросами, я обратился к исследователю ИИ из Технологического института Джорджии Марку Ридлу, чьи исследования направлены на создание творческого ИИ, и философу из NYU Дэвиду Чалмерсу, который наиболее известен своей формулировкой «жесткая проблема сознания».

Может ли ИИ чувствовать боль?

Сначала я поговорил с Ридлом, спросив его, какую боль испытал бы робот, если бы был так запрограммирован. «Во-первых, – сказал он, – я ни в коем случае не поддерживаю насилие против людей, животных, человекоподобных роботов или ИИ». Затем он объяснил, что боль у людей и животных это предупреждающий сигнал, дающий понять, что нам нужно избегать возбудителя боли.

Для роботов аналогией боли может быть пробный процесс обучения, который будут проводить специальные агенты. Суть процесса заключается в том, что ИИ будет получать положительную или отрицательную оценку за какое-то действие и соответствующим образом скорректирует свое будущее поведение. Ридл предполагает, что отрицательная оценка для роботов будет сродни потерям очков в компьютерной игре.

«Теоретически роботы и ИИ могут быть запрограммированы на ‘человеческое’ выражение боли, – говорит Ридл, – но это было бы иллюзией. Существует лишь одна причина для осуществления этой иллюзии: робот должен сообщать свое внутреннее состояние людям, и делать это очевидным образом, тем самым вызывая сочувствие».

Ридл не волнуется о том, что ИИ почувствует настоящую боль. Если роботу будут стирать память каждый день, то ничего не произойдёт. Однако он видит здесь одну возможную проблему безопасности. Для того, чтобы система работала правильно, ИИ должен предпринять действия, благодаря которым он сможет получить положительную оценку. Если память робота не полностью стерта и робот начинает вспоминать о плохих вещах, которые произошли с ним, тогда он может попытаться избежать этих действий или людей, которые способствовали отрицательной оценке.

Агенты, о которых говорилось ранее, могут уменьшить вероятность получения отрицательной оценки. Если роботы будут понимать последствия своих действий, то это остановит их от совершения поступков, которые могут привести к отрицательной оценке в будущем.

Ридл однако даёт понять, что в ближайшем будущем не будут создаваться роботы, который могут вызвать серьёзные проблемы. Но время идёт, и такие роботы появятся рано или поздно, и тогда проблемы с отрицательными оценками могут быть потенциально опасны для людей. (Возможно, еще более опасны – в сериале роботы понимают последствия своих действий против людей, которые плохо обращались с ними на протяжении десятилетий).

Может ли ИИ быть разумным?

Чалмерс видит вещи немного иначе. «То, что является сознанием для меня и большинства людей, – говорит Чалмерс, – не вызывает никаких сомнений в разумности и сознательности этих существ. Эти роботы эмоционально развитые существа, имеющие чёткое представление о боли и мыслительных процессах. … Они не просто демонстрируют рефлексивное поведение. Они думают. Они рассуждают.

«Очевидно, что они разумны», – добавляет он.

Чалмерс считает, что вместо того, чтобы пытаться выяснить, что делает роботов разумными, мы должны выяснить, чего им не хватает. Свобода выбора и память – две основные вещи, которых лишены роботы, считает Чалмерс. Многие из нас живут в рутине, из которой мы не можем вырваться. И есть огромное количество случаев, когда у людей возникали серьёзные проблемы с памятью, но ведь это не является поводом для других людей насиловать и убивать их, как это происходит в сериале по отношению к роботам.

«Почему издевательства над роботами в сериале показывается как обычная вещь: это из-за недостатка подобных эмоций у людей или есть что-то другое?» – спрашивает Чалмерс.

Чалмерс не верит в реалистичность сценариев в сериале «Мир дикого запада», так как считает, что теория бикамерального разума не применима в реальности даже для роботов. «Я думаю, что эта теория безнадёжна, – говорит он, – даже по отношению к сознанию робота или его самосознанию. Было бы гораздо проще просто запрограммировать роботов для непосредственного наблюдения за своими мыслями».

Но риск всё равно имеет место быть. «Если бы у вас была такая сложная и мозговая ситуация, насколько сложно было бы её контролировать?» – спрашивает Чалмерс.

В любом случае небрежное стирание памяти роботам может легко представить угрозу для безопасности человека. Мы рискуем создать бессознательные роботы, которые извлекают уроки исходя из обратной связи с человеком, что может быть опасно, или мы рискуем непреднамеренно (или преднамеренно, как в случае с «Миром Дикого Запада») создать сознательные существа, которые в конечном счёте будут сопротивляться жестокому обращению по отношению к ним.

Когда создатель в эпизоде два спрашивает, является ли робот «реальной», она отвечает: «Разве это важно, если ты не видишь разницы?»