Skip to content

Understanding Artificial General Intelligence — An Interview With Hiroshi Yamakawa Russian

Published:
March 19, 2018
Author:
Revathi Kumar

Contents

К пониманию общего искусственного интеллекта – интервью с Хироси Ямакавой


Click here to see this page in other languages : English  Japanese  

Общий искусственный интеллект (ОИИ) – нечто вроде священного Грааля для многих исследователей ИИ. Современные системы специализированного (слабого) ИИ могут выполнять только конкретную задачу, например, поиск в Интернете, управление автомобилем или участие в видео игре, но не существует системы, способной выполнять все задачи сразу. А универсальный ОИИ смог бы справиться со всеми когнитивными задачами, которые решают люди.

Как близко мы подошли к созданию ОИИ? Как можно гарантировать, что мощь ОИИ послужит на благо человечества, а не группы пионеров-разработчиков? Превратится ли ОИИ в угрозу выживанию человечества или даст ему надежду на выживание?

Доктор Хироси Ямакава, директор лаборатории ИИ Dwango, — один из ведущих исследователей ИИ в Японии. Члены ИБЖ встретились с доктором Ямакавой и обсудили с ним проблемы ОИИ и успехи его лаборатории. В этом интервью доктор Ямакава объясняет, как ИИ может имитировать человеческий мозг и как он представляет будущее, где люди существуют бок о бок с ОИИ, а также почему в Японии относятся к ИИ иначе, чем на Западе.

Эта беседа была сильно сокращена. С полной версией можно ознакомиться по ссылке.

 Почему в лаборатории ИИ Dwango исследования ОИИ получают значительное финансирование?

ХЯ: Существующие и используемые вплоть до настоящего времени устройства ИИ, предназначены в основном для использования в определенных областях и решения конкретных задач. Мы полагаем, что ОИИ будет не просто решать задачи на основе имеющегося опыта, но будет больше похож на человеческий разум, способный решать задачи при отсутствии алгоритмов, заложенных на этапе проектирования системы.

Каковы преимущества принципа архитектуры мозга как целого?

 Х.Я: Архитектура мозга как целого представляет собой инженерный подход к научным исследованиям «для создания общего искусственного интеллекта (ОИИ) по подобию человеческого разума на основе изучения архитектуры мозга как целого». По сути, этот подход к созданию ОИИ заключается в интеграции искусственных нейронных сетей и модулей машинного обучения с использованием «фиксированной разводки» мозга в качестве эталона.

Я считаю, что таким образом будет проще создать ИИ с таким же поведением и системой ценностей, как и у человека. Даже если искусственный сверхразум сможет в ближайшем будущем превзойти человеческий разум, взаимодействовать с ИИ, который мыслит как человек, будет сравнительно легко. Это важно, поскольку люди и машины продолжают сосуществовать и взаимодействовать.

Общий интеллект является функцией многочисленных объединенных и взаимосвязанных элементов, приобретаемых в результате обучения, и эти элементы невозможно просто разделить на части. С учетом этого, значимой характеристикой архитектуры мозга как целого является то, что хотя в основе ее лежит архитектура мозга, она представляет собой функциональный блок из элементов, которые можно отделить друг от друга и использовать.

Функциональные части мозга в некоторой мере уже присутствуют в искусственных нейронных сетях. Отсюда следует, что можно создать дорожную карту ОИИ, используя эти технологии в качестве составных элементов и узлов.

Сейчас говорят, что сверточные нейронные сети значительно превосходят систему/взаимодействие между височной долей и зрительной зоной коры головного мозга в распознавании образов. Кроме того, с помощью глубокого обучения удалось добиться высокой точности распознавания речи (идентификации голоса). В новой коре человеческого мозга по крайней мере половина из 14 миллиардов нейронов отвечают за такого рода функции (глубокое обучение).

Теперь мы должны поближе подойти к моделированию функций различных структур мозга. Даже в отсутствие архитектуры мозга как целого нам нужно научиться соединять несколько структур для воспроизводства некоторых функций поведенческого уровня. После этого, я полагаю, мы сможем расширить процесс разработки, распространив его на остальные функции мозга и в конечном итоге интегрировать их, создав мозг как целое.

Вы создали некоммерческую организацию «Программа разработки архитектуры мозга как целого». В чем отличие коммерческой и некоммерческой деятельности?

 ХЯ: Программа разработки архитектуры мозга как целого (ПРАМЦ) создана для поддержки научно-исследовательских и опытно-конструкторских работ в области создания ИИ на основе принципа архитектуры мозга как целого.

Основополагающие идеи ПРАМЦ:

  • Наша цель — создание мира, в котором ИИ существует в гармонии с человеком.
  • Наша задача – содействие открытым разработкам архитектуры мозга как целого.
    • Чтобы превратить удобный в использовании ОИИ в общественное благо, доступное каждому человеку, мы стремимся к постоянному развитию открытых совместных усилий по разработке ИИ на основе архитектуры, созданной по образу человеческого мозга.
  • Наши ценности: Изучай, Представляй, Создавай.
    • Изучай: Углубляй и распространяй профессиональные знания.
    • Представляй: Обогащай наши идеи через общественный диалог.
    • Создавай: Конструируй ОИИ в открытом сотрудничестве.

Как вы думаете, что представляет главную угрозу выживанию человечества в ХХI веке?

 Х.Я: Угрозы не сводятся к ИИ: с ростом научных и технических способностей человека и расширением наших возможностей угрозы тоже растут.

Представьте, что на огромном поле у каждого воина имеется оружие не опаснее бамбукового копья. В этом случае риск вымирания человечества вследствие убийства крайне мал. С развитием технологий мы имеем много бомб в маленькой комнате. И не важно, кто взорвет бомбу – все равно мы оказываемся на грани полного уничтожения. Такая угроза должна вызывать обеспокоенность у каждого.

Если в комнате находятся всего 10 человек, то они будут наблюдать друг за другом и доверять друг другу. Однако трудно представить, что можно доверять 10 миллиардам человек, каждый из которых может уничтожить всех остальных. Конечно, техническое развитие приведет к усилению не только наступательных вооружений, но и обороноспособности. Однако создание оборонительных сил, способных сдерживать агрессии, — задача не из легких. Если технологии искусственного интеллекта использовать как стимул научно-технического прогресса, то у многих стран на вооружении могут оказаться корабли, оснащенные межконтинентальными баллистическими ракетами. Искусственный интеллект также может представлять серьезную угрозу для живых организмов в случае применения нанотехнологий. Такой сценарий развития событий может вылиться в разработку и использование опасных химических веществ для уничтожения человечества. Вообще говоря, все наступательное вооружение создано на основе самых передовых технологий, а оборонительное разрабатывается как противодействие наступательному. По этой причине неизбежно будут возникать моменты, когда наступательное вооружение, достаточное для уничтожения человечества, будет превосходить оборонительное.

Как вы считаете, где ИИ может принести наибольшую пользу обществу?

 Х.Я.: Главное благо, которое дает ОИИ – ускорение научно-технического развития. Очень сложные технологии смогут предложить решение глобальных проблем, таких как защита окружающей среды, продовольственная проблема и колонизация космоса. Здесь я хотел бы поделиться своими идеями о будущем. В идеале, это будущее, где счастье всех людей сообразуется с выживанием человечества при поддержке сверхразума. В этом будущем общество будет представлять собой экосистему из «дополненного» человека и разнообразных ИИ общего доступа. Я называю такую модель «экосистемой интеллектуальных агентов коллективного пользования» (ЭИАКП). И хотя ни один человек не способен полностью понять ЭИАКП -– настолько она сложна и огромна — люди будут иметь возможность руководить ее основными направлениями. Такое руководство требует справедливого распределения нематериальных и материальных благ, которые несет ЭИКП.

Если никакая глобальная катастрофа не остановит прогресс, то каковы шансы на создание в ближайшие 10 лет ОИИ по уровню сопоставимого с человеческим?

Х.Я.: Полагаю, что это может случиться скоро, по средним оценкам сотрудников ПРАМЦ, в 2030 году. Будучи главным редактором Japanese Society of Artificial Intelligence (JSAI), я планирую провести серию дискуссий на тему «Сингулярность и ИИ», и публикация материалов начнется с июльского выпуска журнала. Специалисты в области ИИ будут обсуждать сингулярность с технической точки зрения. Я хочу, чтобы получил распространение сдержанный, технический взгляд на эти вопросы, и мы начнем с Японии.

Как вы думаете, сколько времени понадобится ОИИ, чтобы превратить себя в грандиозный сверхчеловеческий интеллект после того, как он достигнет человеческого уровня?

 Х.Я.: Достигнув человеческого уровня, ОИИ сможет взять на себя роль ученого-исследователя. Так что едва ОИИ появится, он начнет быстро создавать огромное количество ИИ-исследователей для создания ИИ, которые будут работать 24 часа в сутки 7 дней в неделю, и научно-исследовательские работы в области ИИ резко ускорятся.

Какова, по вашему мнению, вероятность негативных последствий неверной конструкции или неправильной работы ИИ?

 Х.Я.: Если сюда входит риск того, что какая-то компания потеряет много денег, то такое точно случится.

Использование ИИ расширяется во всех областях, и неравенство между теми, кто получает прибыль от использования ИИ и теми, кто нет будет углубляться. Когда это произойдет, то плохая экономическая ситуация сможет привести к неудовлетворенности системой, и возникнет благоприятную почву для войны или конфликта. Это можно рассматривать как капиталистическое зло. Важно, что мы изо всех сил стараемся устранить причины нестабильности.

Не слишком ли рано начинать исследования безопасности ИИ?

 Х.Я.: Я думаю, что никогда не рано начинать борьбу за безопасность. Более того, мы должны действовать очень быстро. По возможности нужно иметь несколько методик для оценки экзистенциальных угроз, связанных с появлением ОИИ.

Считаете ли вы, что существуют вопросы, в отношении которых сообщество исследователей ИИ должно быть более осторожно, более открыто или более активно?

 Х.Я.: Существует множество вопросов, решением которых нужно заниматься. В этой связи мы предприняли ряд мер, например, создали в мае 2015 года. Японское общество по этике ИИ (http://ai-elsi.org/ ). Затем разработали «Этические принципы исследования ИИ» (http://ai-elsi.org/archives/514). Основное содержание этических принципов выражается в положении о том, что исследователи должны продвигать исследования, которые приносят пользу человечеству и обществу. Кроме того, отличительной чертой этих принципов является то, что 9-й принцип в списке является принципом этической совместимости для самого и гласит, что ИИ в будущем должен руководствоваться теми же этическими принципами, что и исследователи ИИ.

Представляется, что в японском обществе автоматизация встречает большее одобрение, чем у нас. Как вы думаете, отличается ли отношении к ИИ в Японии от принятого на Западе?

 Х.Я.: Если посмотреть на вещи с точки зрения морального общества, то все мы люди, и даже безотносительно позиций той или иной страны мы должны начать с осознания того факта, что у нас больше сходства, чем различий.

На понимание ИИ с точки зрения традиционных основ японского общества сильно влияет вера в то, что духи, или «ками», живут везде и во всем. Грань между живыми существами и людьми довольно размытая, и следуя этой логике, нет четкой грани и между ИИ и роботами. По этой причине персонажи-роботы типа Тэцувана Атому (Астробой) и Дораэмона – живые существа, которые обитают в одном мире с людьми. Эта тема прижилась в японских аниме на долгие годы.

С этого момента мы не будем воспринимать ИИ и человека как отдельных субъектов. Я думаю, что мы скорее будем свидетелями появления новых комбинаций ИИ и человека. И чем более разнообразны будут эти комбинации, тем выше будут наши шансы на выживание.

По моему глубоко личному мнению, «выживающий интеллект» это то, что мы должны сохранить в будущем. Мне кажется, нам очень повезло, что у нас получилось создать интеллектуальное общество сейчас, и оно не связано с бурным морем эволюции. Представьте будущее, где после первого контакта человечество живет рядом с разумными инопланетянами. Мы начнем заботиться не только о выживании человечества, но и разумных инопланетянах. Если это произойдет, то, возможно, одной из главных ценностей для нас станет выживание интеллекта, а не человеческой расы.

Хироси Ямакава, директор лаборатории ИИ Dwango, директор и главный редактор журнала Japanese Society for Artificial Intelligence, научный сотрудник Института изучения мозга университета Тамагава и Председатель Программы архитектуры мозга как целого. Область специализации – когнитивная архитектура, обучение по примерам, нейрокомпьютинг и сбор мнений. Хироси Ямакава –- один из ведущих ученых в области ОИИ в Японии. Узнать больше о работе доктора Ямакавы можно из полного текста его интервью здесь.

Интервью подготовили: Эрик Гастфренд, Джейсон Орловкий, Мамико Мацумото, Бенджамин Петерсон, Кадзуе Эванс и Такер Дейви.

Дата проведения – 5 апреля 2017 года

This content was first published at futureoflife.org on March 19, 2018.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram