Skip to content

Governing AI: An Inside Look at the Quest to Ensure AI Benefits Humanity (Russian)

Published:
October 19, 2018
Author:
Revathi Kumar

Contents

Регулирование ИИ: безопасный ИИ на службе у человечества – взгляд изнутри на достижение этой цели.


Click here to see this page in other languages:  English US_Flag

Финансовый сектор, образование, медицина, программирование, искусство – искусственный интеллект вот-вот внесет коренные изменения чуть ли не в каждую сферу общественной жизни; правительства и эксперты в области политики начали осознавать, что для того, чтобы быть готовым к такому будущему, минимизировать риски и гарантировать безопасность и выгоду от использования искусственного интеллекта, нужно начать готовиться к появлению усовершенствованных систем ИИ уже сегодня.

Несмотря на то что мы только начали движение в этом направлении, перспектива выглядит многообещающей. Несколько стран и независимых проектов уже приступили к разработке стратегий и процедур контролирования ИИ.

В прошлом году в ОАЭ впервые в истории появилась государственная должность Министра по развитию Искусственного Интеллекта. Германия предприняла не столь радикальные, но аналогичные шаги в 2017 году, когда Комиссия по этике при Министерстве транспорта и цифровой инфраструктуры Германии разработала первый в мире набор нормативных принципов для управления автономными и подключенными к интернету автомобилями.

Предпринятые шаги значительны; однако, их предстоит объединить в более глобальные стратегии управления, выходящие за рамки национальных границ государств. Стратегический центр по исследованию Искусственного интеллекта Ника Бострома стремится помочь найти решение данной задачи через определение единых ключевых аспектов и, в конечном счете, формирование стратегии долгосрочного развития ИИ в общемировом масштабе.

Разработка глобальной стратегии: текущее положение дел


Стратегический центр по исследованию Искусственного интеллекта создавался в 2015 году с пониманием того, что противостоять угрозам, исходящим от ИИ, мир может только при помощи согласованных усилий, направленных на решение существующих проблем, связанных с концепцией и развитием ИИ. Программа по управлении ИИ GovAI) под руководством Бострома и Аллана Дафо, является основной исследовательской программой центра, ключевой миссией которого, по словам директоров, является «изучение политических, экономических, военных, управленческих и этических аспектов того, как человечество может наилучшим образом задавать направление перехода к усовершенствованным системам ИИ». В этом отношении программа сфокусирована на стратегии – на формирование социальных, политических и правительственных систем, влияющих на исследования и разработки ИИ, а не на технических препятствиях, стоящих на пути создания и программирования безопасного ИИ.

Чтобы разработать надежную стратегию ИИ, программа сотрудничает с социологами, политиками, руководителями компаний и инженерами искусственного интеллекта/машинного обучения для решения вопросов о том, как именно мы должны подходить к управлению искусственным интеллектом. В недавнем подкасте с Робом Виблином «80,000 часов» Аллан Дафо в общих чертах изложил, как исследовательская деятельность команды формируется с практической точки зрения, и заявил, что работа сосредоточена на поиске ответов на вопросы, которые подразделяются на три категории:

  • Техническая перспектива: категория стремится ответить на все вопросы, связанные с тенденциями в исследованиях ИИ, с целью понять, какие будущие технологические пути развития возможны, и как они влияют на сложные задачи по управлению усовершенствованными системами ИИ.
  • Концепция ИИ: категория сфокусирована на вопросах, связанных с динамикой различных групп, корпораций и правительств, преследующих свои собственные интересы в сфере ИИ, и стремится оценить связанные с этим риски и каким образом можно смягчить эти риски.
  • Управление ИИ: категория рассматривает позитивное видение будущего, в котором человечество объединяет все усилия для управления усовершенствованным ИИ безопасным и надежным способом. В связи с этим возникают вопросы о том, как должна функционировать такая концепция управления и на каких принципах она должна быть основана.

Вышеупомянутые категории дают более ясное видение различных целей, которые преследуют инвесторы исследований в сфере стратегии ИИ, однако, эти категории достаточно обширны. Чтобы пролить свет на работу Центра, Джейд Люн, исследователь GovAI и кандидат наук в области международных отношений из Оксфордского университета, рассказала о некоторых конкретных актуальных направлениях работы команды.

Одним из самых интригующих направлений исследований центра является Китайская Стратегия ИИ. В рамках этого направления изучаются возможности ИИ Китая в сравнении с ИИ других стран, официальная стратегия ИИ и внутриполитическая обстановка с целью понять, по словам Джейд Люн, «амбиции Китая добиться статуса сверхдержавы в сфере ИИ, положение дел в области безопасности, сотрудничества и исследований по общему ИИ». В конечном счете, GovAI стремится выделить ключевые особенности государственной стратегии, чтобы понять позицию одного из самых важных акторов на мировой арене. В марте 2018 года Программа опубликовала отчет «Расшифровка Китайской Мечты об ИИ», в котором анализируются особенности новой стратегии Китая в развитии ИИ, и на котором планируется основывать дальнейшие исследования.

Еще одним направлением исследований центра является «Cотрудничество частных компаний и правительств», в рамках которого изучается роль, которую частные компании играют в разработке передовых ИИ, и то, как такие игроки будут взаимодействовать с национальными правительствами. В своем недавнем выступлении, посвященном возрастающей роли частного сектора в развитии ИИ на конференции EA Global в Сан-Франциско, Джейд Люн высказалась о необходимости учитывать роль частных компаний при создании стратегии по управлению ИИ, так как они являются неотъемлемой частью всего уравнения. В резюме доклада кратко изложены ключевые особенности исследований, и отмечается тот факт, что «частные компании являются единственными значимыми акторами, выразившими готовность заниматься развитием и передовыми исследованиями ИИ, поэтому крайне важно решить вопрос о том, как они будут вовлечены в будущее управление ИИ».

Другое направление работы, которое выделила Джейд Люн, включает в себя моделирование динамики гонки технологий, анализ роста числа высококвалифицированных исследователей ИИ и оборудования по всему миру.

Предстоящий путь


Когда Джейд Люн спросили о степени ее уверенности в том, что планы по долгосрочному развитию ИИ будут успешно реализованы общими усилиями на международном уровне, она аккуратно отметила, что это потребует усилий большего количества людей: «Безусловно, такие задачи требуют вовлеченности большого количества исследователей. Научным исследованиям также как и конкретным политическим действиям, направленным на поддержание безопасного и стабильного управления ИИ, до сих пор не уделяется должного внимания».

Кроме того, Люн отметила, что несмотря на то что на данном этапе уже ведутся определенные исследования и огромное количество усилий задействовано на проработке вопросов, связанных с управлением ИИ, появляется все больше направлений, нуждающихся в исследованиях. По этой причине у команды пока нет конкретных указаний, которым могли бы следовать органы государственной власти, поскольку необходим дальнейший фундаментальный анализ. «Учитывая степень неопределенности вокруг этой проблемы, в настоящее время у нас нет достаточно надежных и конкретных политических рекомендаций на ближайшую перспективу», – сказала она.

Тем не менее Люн и Дефо настроены оптимистично и считают, что этот информационный пробел, скорее всего, исчезнет — и достаточно быстро. Многие ученые приходят к пониманию  важности данной проблемы, и по мере того, как увеличивается количество научных работ и все больше людей включаются в жизнь информационного сообщества, исследования становятся более узконаправленными. «Через два года наше научное сообщество, вероятно, существенно расширится и окрепнет. Первым делом мы пытаемся обозначить самые важные и наименее сложные в решении проблемы и понять, как набрать лучшую команду для работы над ними», – сказал Аллан Дафо Виблину.

Несмотря на оптимистичные взгляды на будущее укрепление научного сообщества, вопрос о том, сможет ли оно сойтись во мнениях по поводу разработок системного управления ИИ, остается открытым. По словам Дафо, мы никогда раньше не были свидетелями настолько большого прорыва в развитии интеллекта, поэтому у нас нет примера, которым мы бы могли руководствоваться для прогнозирования и определения сроков появления усовершенствованных систем ИИ.

В конечном счете, именно из-за сложности в прогнозировании мы должны вносить существенный вклад в исследования стратегии ИИ в ближайшем будущем. Как отмечает Бостром в «Сверхинтеллект: Пути, Опасности и Стратегии», ИИ – это не просто разрушительная технология, это, вероятно, самая разрушительная технология, с которой человечество когда-либо столкнется: «Сверхинтеллект – вполне возможно, самая важная и самая сложная задача, с которой когда-либо сталкивалось человечество. И вне зависимости от того, преуспеем ли мы в ее решении или потерпим неудачу – это, вероятно, будет последним вызовом, с которым мы когда-либо столкнемся».

Эта статья является частью серии публикаций Института «Будущее Жизни», посвященной грантам на исследования безопасности искусственного интеллекта и спонсируемой за счет щедрых пожертвований Илона Маска и Проекта «Открытая Филантропия»

Статья переведена Карпуниной Анной

This content was first published at futureoflife.org on October 19, 2018.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:
Our content

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram