Benefits & Risks of Artificial Intelligence Russian
Contents
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. ПРЕИМУЩЕСТВА И РИСКИ
«Все, что мы ценим в нашей цивилизации – продукт разума. Усиливая человеческий разум технологиями искусственного интеллекта, мы приобретаем потенциал для небывалого расцвета цивилизации. Важно, однако, чтобы технологии были безопасными и служили на благо человека».
Макс Тегмарк, президент института «Будущее жизни»
Click here to see this page in other languages: English Chinese French German Japanese Korean
ЧТО ТАКОЕ ИСКУСТВЕННЫЙ ИНТЕЛЛЕКТ?
Еще совсем недавно было сложно поверить в реальность голосового помощника Siri или беспилотных автомобилей: искусственный интеллект (или ИИ) эволюционирует очень быстро. Научная фантастика рисует нам искусственный разум в виде человекоподобных роботов, но на деле технология включает в себя довольно широкий спектр разработок: от поисковых алгоритмов Google до когнитивной системы Watson (IBM) и автономного оружия.
Сегодня под термином ИИ в первую очередь понимается специализированный искусственный интеллект (или слабый ИИ), разработанный для решения конкретной задачи – например, распознавания лиц, поиска в сети интернет или управления автомобилем. Долгосрочной же целью многих разработчиков является создание общего искусственного интеллекта (или сильного ИИ). В то время как специализированный ИИ выполняет конкретную задачу ‒ например, он может обыграть человека в шахматы или решить уравнения, общий ИИ превзойдет человека практически в любой когнитивной работе.
ДЛЯ ЧЕГО ИССЛЕДОВАТЬ ВОПРОСЫ БЕЗОПАСНОСТИ ИИ?
Возможность принести пользу обществу с помощью технологий искусственного интеллекта в краткосрочной перспективе движет разработчиками во многих сферах. Современные наработки используются для подтверждения экономических теорий, в законотворчестве, технических разработках в области верификации, актуализации данных, безопасности и контроля. Поэтому если взлом или сбой в системе работы персонального компьютера может остаться незамеченным, отклонения в работе ИИ, который управляет автомобилем, самолетом, кардиостимулятором, электросетью или, например, автоматизированной системой ведения торгов, могут привести к гораздо более масштабным и трагическим последствиям. Помимо этого, все более актуальной сегодня становится необходимость предотвращения разрушительной гонки вооружений в сфере автономного оружия.
Что же произойдет, если ИИ превзойдет человеческий разум и сможет успешнее решать все когнитивные задачи? В 1965 году Ирвинг Джон Гуд отмечал, что совершенствование системы ИИ само по себе является когнитивной задачей. Подобная система потенциально способна к рекурсивному самоулучшению и может спровоцировать тем самым «взрыв» интеллекта, оставив человеческий разум далеко позади.
Изобретение революционных технологий, а сверхразум ‒ одна из них, может помочь человечеству искоренить войны, болезни и бедность. Само по себе создание подобной технологии может стать крупнейшим событием во всей истории человечества. Однако, некоторые эксперты предполагают, что если человек не научится синхронизировать свои цели с задачами ИИ до того, как тот превратится в сверхразум, это событие может оказаться для него последним. Есть и те, кто сомневается в возможности создания сильного ИИ, и те, кто считает, что создание сверхразвитого ИИ гарантированно принесет человечеству пользу. Институт «Будущее жизни» признает возможность развития обоих сценариев событий и понимает, что ИИ может преднамеренно или непреднамеренно стать источником большой беды. Мы уверены, что структурное исследование вопроса сегодня поможет подготовиться к потенциально негативным сценариям и предотвратить их в будущем, даст возможность избежать опасных моментов, связанных с ИИ, а вместо этого использовать его преимущества.
В ЧЕМ ЗАКЛЮЧАЕТСЯ ОПАСНОСТЬ ИИ?
Большинство исследователей сходятся во мнении, что сверхразумный ИИ вряд ли будет проявлять эмоции, присущие человеку, такие как, например, любовь или ненависть. Не стоит также ожидать, что искусственный интеллект станет намеренно доброжелательным или, наоборот, озлобленным. По мнению экспертов, наиболее опасными системы ИИ могут стать в результате двух сценариев:
- Искусственный интеллект изначально разработан с разрушительной целью: например, в качестве системы управления автономным оружием. В руках не того человека такое оружие легко станет причиной множества жертв. Более того, гонка вооружений с использованием технологий ИИ может непреднамеренно привести к войнам искусственных разумов, которые, несомненно, унесут еще большее количество жизней. Вероятнее всего, подобное оружие будет не так-то просто взять и «выключить» ‒ будут разработаны системы защиты от вражеского взлома систем. А в результате, человечество может потерять контроль над подобными орудиями. Риск существует даже при использовании слабого ИИ, но с возрастанием степени его разумности и автономности угроза многократно увеличивается.
- Искусственный интеллект изначально разработан для позитивной задачи, однако в процессе ее исполнения избирает деструктивный метод достижения цели: это может случиться, как только мы допустим ошибку в синхронизации целей искусственного интеллекта и человечества. Синхронизация невероятно сложна. Так, если вы попросите самоуправляемый автомобиль доставить вас в аэропорт как можно скорее, вы можете прибыть в пункт назначения вместе с кортежем преследующих вас полицейских ‒ поездка будет совсем некомфортной. Машина сделает буквально то, что вы попросили, но не то, чего вы на самом деле хотели. Если сверхразуму поручить амбициозный геоинжиниринговый проект, побочным эффектом его деятельности может стать разрушение экосистемы, а попытки человека остановить работу ИИ будут восприняты как угроза, которую необходимо отразить.
Все эти примеры показывают, что основная сложность при применении систем сильного ИИ связана не со злым сверхразумом, но скорее с компетентностью разработчиков. Сверхразумный ИИ будет невероятно эффективен в решении поставленных задач, вот только если они разойдутся с реальной целью человека, возникнут проблемы.
Наверняка вы не относите себя к истребителям муравьев, которые из удовольствия и азарта вытаптывают насекомых, но если перед вами стоит задача построить ГЭС, и в зоне ее затопления случайно окажется муравейник…что ж, тем хуже для муравьев. Ключевая цель исследований безопасности в области ИИ ‒ предупредить ситуацию, в которой человечество окажется на месте муравьев.
АКТУАЛЬНОСТЬ ИЗУЧЕНИЯ ВОПРОСА БЕЗОПАСНОСТИ ИИ
Стивен Хокинг, Илон Маск, Стив Возняк, Билл Гейтс и многие другие эксперты в области науки и технологий высказывали в СМИ и в открытых письмах свою обеспокоенность рисками, связанными с использованием искусственного интеллекта. Им вторит целый ряд ведущих исследователей. Но почему предмет обсуждения вдруг стал так актуален?
Идея о создании сильного ИИ всегда считалась научной фантастикой, а на ее осуществление, казалось, потребуется не одно столетие. Несмотря на это, благодаря недавним прорывам, многие ключевые вехи, время достижения которых ученые еще недавно оценивали в десятилетия, уже пройдены. Теперь многие эксперты всерьез задумываются о возможности создания сверхразума в течение жизни современного поколения. Пока некоторые считают, что до создания равного человеку ИИ еще столетия, на конференции в Пуэрто Рико в 2015 году, большинство исследователей сошлись во мнении, что сверхразум появится до 2060 года. Поскольку создание протоколов безопасности может занять десятилетия, разумно начинать действовать уже сейчас.
У ИИ есть потенциал превзойти когнитивные способности любого человека, поэтому нет верного способа предсказать, как система себя поведет. Мы не можем использовать в качестве основы для предсказаний разработки прошлых лет, поскольку человечество никогда прежде не создавало механизмов, способных случайно или преднамеренно стать умнее нас. Лучшим примером того, с чем мы можем столкнуться, является эволюция самого человека. Люди господствуют на этой планете не потому, что сильнее, больше или быстрее других биологических видов, но потому, что умнее. И если мы станем не самыми умными ‒ как же сохранить господство?
Институт «Будущее жизни» считает, что процветание цивилизации возможно до тех пор, пока мы не позволим растущей силе технологий взять верх над благоразумным использованием оных. Что касается технологий ИИ, нам кажется, ключ не в том, чтобы препятствовать их развитию, но в том, чтобы путем исследований в области обеспечения безопасности ИИ, сделать упор на их разумное использование.
САМЫЕ ПОПУЛЯРНЫЕ МИФЫ ОБ ИИ
Увлекательная дискуссия сопровождает будущее искусственного интеллекта и его значение для человечества. Мировые эксперты придерживаются диаметрально противоположных мнений по многим вопросам. Например, идут споры о влияния ИИ на рынок труда, о том приведет ли к экспоненциальному росту когнитивных мощностей создание ИИ по умственным параметрам не уступающего человеку (если таковой появится), и стоит ли приветствовать прогресс в этой области или все же его нужно опасаться. Но кроме дискуссии в научных кругах можно наблюдать и множество утомительных псевдо-обсуждений, в которых участвуют некомпетентные люди, неспособные найти общий язык. Для того, чтобы сфокусироваться на действительно интересных моментах и актуальных вопросах, а не на недоразумениях, давайте проясним некоторые наиболее распространенные заблуждения.
МИФЫ О СРОКАХ СОЗДАНИЯ ИИ
Первое заблуждение касается прогнозов развития технологий с течением времени. Сколько времени осталось до момента, когда машинный интеллект превзойдет человеческий? Распространенным заблуждением является наше представление о том, что мы знаем ответ с большой степенью определенности.
Согласно одному из мифов, ученые уверены в появлении сверхразумного ИИ уже в этом столетии. На деле же, история пресыщена неоправданными технологическими надеждами. Где все термоядерные электростанции и летающие машины, на которых мы должны рассекать уже сегодня, если верить прогнозам прошлых лет? Возможности ИИ также были неоднократно преувеличены в прошлом, в том числе и первопроходцами в данной области исследований. Например, Джон Маккарти, автор термина «искусственный интеллект», Марвин Минский, Натаниэль Рочестер и Клод Шеннон написали чересчур оптимистичный прогноз о том, что может быть создано за два месяца с помощью прошловековых компьютеров: «Мы предлагаем летом 1956 на базе Дартмутского колледжа провести двухмесячное исследование искусственного интеллекта командой из 10 человек, […] в ходе которого будет предпринята попытка выяснить, как научить машину использовать язык, оперировать абстракциями и концептами, решать задачи, которые до этого были под силу только человеку и автоматически улучшать себя. Мы считаем, что значительный прогресс в одной или нескольких из этих задач может быть достигнут, если в течение лета тщательно отобранная группа ученых будет разрабатывать вопрос совместными усилиями». С другой стороны, существует популярный миф, полностью противоречащий первому: мы не сможем разработать сверхразумный ИИ в этом столетии. Исследователи обозначают широкий диапазон предположений о том, как далеки современные разработки от сверхразумного ИИ, но, учитывая длинный список ошибок в подобного рода скептических предсказаниях, мы все-таки не можем сказать с большой уверенностью, что вероятность прорыва в этом столетии стремится к нулю. Так, в 1933 году, менее, чем за 24 часа до того, как Сциллард совершил открытие цепной ядерной реакции, Эрнест Резерфорд, один из лучших физиков своего времени, сказал, что ядерная энергия это «выдумки». Аналогично, в 1956 году астроном Ричард Вулли называл межпланетные путешествия «полной чепухой». Наиболее же радикально миф отражен во мнении, что сверхразумный ИИ не появится никогда, поскольку это физически невозможно. Однако, ученые-физики знают, что мозг состоит из кварков и электронов, взаимодействующих друг с другом по тому же принципу, что и мощный компьютер ‒ и нет такого закона физики, которому бы противоречило создание еще более мощных сгустков кварков.
Среди исследователей искусственного интеллекта было проведено множество опросов, с целью выяснить их прогнозы относительно того, как скоро, с вероятностью хотя бы в 50%, может появиться сверхразумный ИИ. Опросы показали, что ведущие эксперты всего мира расходятся во мнениях, поэтому мы просто не знаем ответа. Например, в одном из таких опросов исследователей искусственного интеллекта в 2015 году на конференции в Пуэрто Рико, посвященной ИИ, среднестатистический ответ был «к 2045 году», но при этом некоторые исследователи называли сроки в сотни лет или даже больше.
Существует и родственный миф, который культивируют люди обеспокоенные тем, что от создания сверхмощного ИИ нас отделяет всего несколько лет. Однако большинство тех, кто открыто заявляет о своей обеспокоенности, в действительности видят возможность создания сверхмощного интеллекта лишь десятилетия спустя. Они аргументируют свои заявления так: поскольку нет стопроцентной гарантии того, что прорыв ИИ не произойдет в этом столетии, разумно было бы начать исследования в области безопасности этой технологии для того, чтобы подготовиться к непредвиденным событиям. Многие проблемы безопасности связанные с равным человеку ИИ настолько значительны, что на их решение могут понадобиться десятилетия. Поэтому, чтобы не пришлось поспешно разбираться с последствиями того, что может натворить компания программистов, окрыленная напитками Red Bull, дальновиднее будет начать исследование вопроса уже сегодня.
МИФЫ, ОСНОВАННЫЕ НА ЗАБЛУЖДЕНИЯХ
Еще одно распространенное заблуждение заключается в том, что люди, сомневающиеся в ИИ и отстаивающие необходимость исследования его безопасности ‒ луддиты, не знакомые с технологией ИИ. Когда Стюарт Рассел, автор стандартного учебника по ИИ, высказал такое мнение в ходе конференции в Пуэрто Рико, аудитория рассмеялась. С этим заблуждением связано еще одно ‒ о том, что возможность поддержки исследований безопасности ИИ очень сомнительна. Но на самом деле, для внесения скромного вклада в исследования не обязательно быть уверенным в неизбежности рисков, достаточно лишь знать, что они не исключены. Подобно этому, даже минимальная возможность пожара ‒ достаточное основание для того, чтобы потратить небольшую сумму на страховку дома.
Возможно, СМИ придали дискуссиям вокруг ИИ более противоречивый образ, который не соответствует реальности. Страх, конечно, увеличивает продажи и статьи с вырванными из контекста фразами, предсказывающими неизбежный конец света, собирают большее количество просмотров, чем проработанные и сбалансированные. В результате два человека, знакомых друг с другом лишь по цитатам из интервью, могут показаться друг другу гораздо более принципиальными оппонентами, чем есть на самом деле.
К примеру, техно-скептик, знакомый с позицией Билла Гейтса по публикациям в таблоидах, может ошибочно считать, что Гейтс твердо уверен в неизбежности создания сверхразумного ИИ. Таким же образом, кто-то из про-технологичного движения может быть совершенно не знаком с позицией Эндрю Ына в целом, но помнить цитату про перенаселенный Марс и считать, что Ын не озадачен проблемой безопасности искусственного интеллекта, однако это неправда. Суть в том, что прогнозы Эндрю Ына предполагают более поздний прорыв технологий искусственного интеллекта, и в приоритет он, как правило, ставит не долгосрочные задачи, связанные с ИИ, а краткосрочные.
МИФЫ ОБ ОПАСНОСТИ СВЕРХРАЗУМНОГО ИИ
Для многих разработчиков ИИ заголовок «Стивен Хокинг предупреждает, что искусственный интеллект ‒ угроза для человечества» ‒ все равно что красная тряпка для быка. Многие потеряли счет подобного рода пугающим статьям. Иллюстрируют такие материалы обычно злобным вооруженным андроидом, намекая, что мы должны опасаться роботов, которые выйдут из-под контроля, восстанут и начнут убивать. Если говорить менее серьезно, подобные тексты впечатляют, потому что в сжатом виде суммируют тот сценарий, о котором разработчики ИИ даже не задумываются. Этот сценарий состоит из трех самостоятельных заблуждений, базирующихся на опасениях касательно осознанности, зла и роботов.
Когда вы за рулем, вы переживаете собственные впечатления о цвете, звуках и окружающем вас пейзаже. Но может ли беспилотный автомобиль иметь собственные переживания? Ощущает ли вообще беспилотный автомобиль сам себя? Проблема осознанности и сознания как явления интересна сама по себе, однако для технологии ИИ она нерелевантна. Если вдруг вас собьет беспилотный автомобиль, вам будет не важно, обладает ли он самосознанием. Таким образом, человечеству придется взаимодействовать не с тем, что искусственный интеллект чувствует, но с тем, что делает.
Еще одно ложное умозаключение связано с опасением, что машины перейдут на темную сторону силы. В действительности же нужно опасаться не намеренного вредительства со стороны технологии, а некомпетентности разработчиков. Сверхмощный ИИ по определению будет невероятно эффективен в достижении поставленных целей (неважно, каких именно). Поэтому необходимо убедиться наверняка, что цель ИИ синхронизирована с потребностью человека. Человечество в целом равнодушно к муравьям и при достижении собственных целей не особенно считается с их потребностями. Люди умнее и могут себе это позволить. Поэтому цель тех, кто занимается разработкой безопасного ИИ ‒ предупредить ситуацию, в которой человечество окажется на месте муравьев.
Заблуждение, касающееся наличия у машин самосознания, связано с мифом о том, что роботы не могут иметь собственных целей. Однако, в узком смысле, цель машин проявляется в том, что они ориентированы на выполнение какой-либо задачи. Так, поведение ракеты с тепловой головкой самонаведения проще всего описать как стремление попасть в цель. Если вы чувствуете угрозу со стороны машины, цели которой отличаются от ваших, то почти наверняка истинным источником беспокойства являются сами цели, а не то, обладает ли робот самосознанием или ощущениями. И если ракета преследует вас, вы вряд ли воскликнете: «У машин не может быть целей, так что волноваться не о чем!»
Остается только посочувствовать Родни Бруксу и другим новаторам в области робототехники, которые, по вине провоцирующих панику таблоидов, незаслуженно оказались в роли последних злодеев. Все потому, что некоторые журналисты зациклены на робото-фобии и неизменно включают в свои материалы изображения зловещих металлических конструкций с красными сверкающими глазами. Но основное опасение движения за безопасный ИИ заключается не в роботах, но в интеллекте как таковом, а точнее, в ИИ, цели которого расходятся с нашими. Для того, чтобы стать причиной неприятностей, такому сверхразуму не нужно роботизированное тело ‒ достаточно интернет-соединения. С его помощью он сможет обмануть финансовые рынки, превзойти научных исследователей, подчинить себе влиятельных личностей и разработать оружие, устройство которого человеку и понять не удастся. Даже если бы конструкция роботов была физически невозможна, получив неограниченный доступ к деньгам, сверхразумный ИИ теоретически мог бы платить многим людям или манипулировать ими, чтобы те, сами того не подозревая, служили исполнителями его замыслов.
Неправильное представление о роботах связано с мифом о том, что машина не может управлять человеком. Разум дает контроль: люди могут управлять тигром не потому, что сильнее него, а потому что умнее. Это означает, что если мы уступим статус умнейших существ на планете, мы также можем потерять и контроль над ней.
ДЕЙСТВИТЕЛЬНО ВАЖНЫЕ ВОПРОСЫ
Если мы не будем тратить время на упомянутые выше заблуждения, то сможем сконцентрироваться на действительно интересных спорных моментах, в которых даже эксперты не согласны друг с другом.
Каким вы видите свое будущее? Стоит ли нам разрабатывать автономное вооружение? Как вы относитесь к автоматизации рабочих мест? Какую профессию посоветуете выбрать сегодняшним детям? Вы бы предпочли, чтобы на смену старым пришли новые рабочие места или чтобы общество, свободное от необходимости трудиться, блаженно проводило свободное время, наслаждаясь результатами работы машин? Если говорить об отдаленном будущем ‒ хотим ли мы создать сверхразумную жизнь и распространить ее во Вселенной? Будет ли человек контролировать машины или же они возьмут контроль над человеком? Заменят ли разумные машины человечество, будут ли сосуществовать с ним или полностью ассимилируются? Каково будет людям в эру искусственного разума? Какой бы вы хотели видеть эту эру, и как видение сделать реальностью в будущем? Присоединяйтесь к обсуждению!
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.