ПРИНЦИПЫ РАБОТЫ С ИИ, РАЗРАБОТАННЫЕ НА АСИЛОМАРСКОЙ КОНФЕРЕНЦИИ

 Принципы работы с ИИ были разработаны в ходе конференции в Асиломаре (Калифорния, США), прошедшей в 2017 году (видео с конференции). Здесь описан процесс их создания.

Click here to see this page in other languages : English US_Flag Japanese    Chinese 

Искусственный интеллект уже сделал возможным создание инструментов, по всему миру приносящих пользу тем, кто ими пользуется. Дальнейшая разработка ИИ в соответствии с представленными ниже принципами может открыть удивительные возможности для помощи людям на десятилетия и даже века вперед.

Область исследований

1) Цель исследования: цель исследований ИИ должна лежать в области создания не бесцельного разума, но систем, направленных на принесение пользы человечеству.

2) Финансирование исследований: инвестиции в ИИ должны сопровождаться субсидированием исследований, направленных на поиск полезных способов применения ИИ, в контексте которых рассматриваются непростые вопросы из области компьютерных наук, экономики, права, этики и социальных наук. Некоторые из таких вопросов:

  • Как обеспечить надежность будущего ИИ таким образом, чтобы системы выполняли свою программу, не подвергаясь угрозе сбоев и хакерских атак?
  • Как повысить уровень благосостояния с помощью автоматизации процессов, не сократив при этом уровень человеческого труда и сохранив его назначение?
  • Как, сделав правовую систему более эффективной и справедливой, модифицировать ее в соответствии с развитием ИИ и учесть все правовые риски, связанные с его использованием?
  • Какие ценностные ориентиры должны лежать в основе ИИ и каким правовым и моральным статусом он должен обладать?

3) Диалог ученых и политических деятелей: необходим конструктивный и здоровый диалог между исследователями ИИ и политическим руководством.

4) Культура отношений в исследовательском сообществе: среди исследователей и разработчиков систем ИИ должна поощряться культура взаимодействия, доверия и открытости.

5) Отсутствие конкуренции: команды разработчиков ИИ должны активно взаимодействовать друг с другом во избежание ненадлежащего исполнения стандартов безопасности.

Этика и ценности

6) Безопасность: системы ИИ должны быть безопасны и защищены на протяжении всего срока эскплуатации, а в ситуациях, где это целесообразно, штатная работа ИИ должна быть легко верифицируема.

7) Открытость сбоев в системе: если система ИИ причиняет вред, должна быть возможность выяснить причину.

8) Открытость системе правосудия: любое участие автономной системы ИИ в принятии судебного решения должно быть удовлетворительным образом обосновано и доступно для проверки компетентным органами.

9) Ответственность: разработчики и создатели продвинутых систем ИИ напрямую заинтересованы в моральной стороне последствий использования, злоупотребления и действий ИИ, и именно на их плечах лежит ответственность за формирование подобных последствий.

10) Синхронизация ценностей: системы ИИ с высокой степенью автономности должны быть разработаны таким образом, чтобы их цели и поведение были согласованы с человеческими ценностями на всем протяжении работы.

11) Человеческие ценности: устройство и функционирование систем ИИ должно быть согласовано с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.

12) Защита личных данных: люди должны иметь право на доступ к персональным данным, их обработку и контроль, при наличии у систем ИИ возможности анализа и использования этих данных.

13) Свобода и конфиденциальность: применение систем ИИ к персональным данным не должно безосновательно сокращать реальную или субъективно воспринимаемую свободу людей.

14) Совместная выгода: технологии ИИ должны приносить пользу максимально возможному числу людей.

15) Совместное процветание: экономические блага, созданные при помощи ИИ, должны получить широкое распространение ради принесения пользы всему человечеству.

16) Контроль ИИ человеком: люди должны определять процедуру и степень необходимости передачи системе ИИ функции принятия решений для выполнения целей, поставленных человеком.

17) Устойчивость систем: те, кто обладает влиянием, управляя продвинутыми системами ИИ, должны уважать и улучшать общественные процессы, от которых зависит здоровье социума, а не подрывать таковые.

18)  Гонка вооружений в области ИИ: стоит избегать гонки вооружений в области автономного летального оружия.

Долгосрочная перспектива

19) Опасность недооценки возможностей: стоит избегать уверенных предположений относительно верхнего порога возможностей ИИ будущего, особенно в отсутствие консенсуса по этому вопросу.

20)  Важность: продвинутый ИИ может повлечь коренные изменения в истории жизни на Земле, и его разработка и управление должны осуществляться при наличии соответствующих ресурсов и в условиях особой тщательности.

21) Риски: потенциальные риски, связанные с системами ИИ, особенно опасность катастроф или угроза существованию жизни в целом, должны купироваться действиями по планированию и смягчению рисков, соразмерными возможному масштабу воздействия.

22) Рекурсивное автообучение: системы ИИ, разработанные для улучшения эффективности собственных алгоритмов и самовоспроизведения, ведущего к быстрому изменению качества и количества, должны быть объектом применения мер жесткого регулирования и контроля.

23)  Всеобщее благо: сверхразум должен быть разработан исключительно в целях, соответствующих большинству этических идеалов и для пользы всего человечества, а не одного государства или организации.