Skip to content
All Open Letters

AI Principles Russian

Published
September 13, 2017

ПРИНЦИПЫ РАБОТЫ С ИИ, РАЗРАБОТАННЫЕ НА АСИЛОМАРСКОЙ КОНФЕРЕНЦИИ

 Принципы работы с ИИ были разработаны в ходе конференции в Асиломаре (Калифорния, США), прошедшей в 2017 году (видео с конференции). Здесь описан процесс их создания.

Click here to see this page in other languages : English US_Flag Chinese   German Japanese    Korean   

Искусственный интеллект уже сделал возможным создание инструментов, по всему миру приносящих пользу тем, кто ими пользуется. Дальнейшая разработка ИИ в соответствии с представленными ниже принципами может открыть удивительные возможности для помощи людям на десятилетия и даже века вперед.

Область исследований


1) Цель исследования: цель исследований ИИ должна лежать в области создания не бесцельного разума, но систем, направленных на принесение пользы человечеству.

2) Финансирование исследований: инвестиции в ИИ должны сопровождаться субсидированием исследований, направленных на поиск полезных способов применения ИИ, в контексте которых рассматриваются непростые вопросы из области компьютерных наук, экономики, права, этики и социальных наук. Некоторые из таких вопросов:

  • Как обеспечить надежность будущего ИИ таким образом, чтобы системы выполняли свою программу, не подвергаясь угрозе сбоев и хакерских атак?
  • Как повысить уровень благосостояния с помощью автоматизации процессов, не сократив при этом уровень человеческого труда и сохранив его назначение?
  • Как, сделав правовую систему более эффективной и справедливой, модифицировать ее в соответствии с развитием ИИ и учесть все правовые риски, связанные с его использованием?
  • Какие ценностные ориентиры должны лежать в основе ИИ и каким правовым и моральным статусом он должен обладать?

3) Диалог ученых и политических деятелей: необходим конструктивный и здоровый диалог между исследователями ИИ и политическим руководством.

4) Культура отношений в исследовательском сообществе: среди исследователей и разработчиков систем ИИ должна поощряться культура взаимодействия, доверия и открытости.

5) Отсутствие конкуренции: команды разработчиков ИИ должны активно взаимодействовать друг с другом во избежание ненадлежащего исполнения стандартов безопасности.

Этика и ценности


6) Безопасность: системы ИИ должны быть безопасны и защищены на протяжении всего срока эскплуатации, а в ситуациях, где это целесообразно, штатная работа ИИ должна быть легко верифицируема.

7) Открытость сбоев в системе: если система ИИ причиняет вред, должна быть возможность выяснить причину.

8) Открытость системе правосудия: любое участие автономной системы ИИ в принятии судебного решения должно быть удовлетворительным образом обосновано и доступно для проверки компетентным органами.

9) Ответственность: разработчики и создатели продвинутых систем ИИ напрямую заинтересованы в моральной стороне последствий использования, злоупотребления и действий ИИ, и именно на их плечах лежит ответственность за формирование подобных последствий.

10) Синхронизация ценностей: системы ИИ с высокой степенью автономности должны быть разработаны таким образом, чтобы их цели и поведение были согласованы с человеческими ценностями на всем протяжении работы.

11) Человеческие ценности: устройство и функционирование систем ИИ должно быть согласовано с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.

12) Защита личных данных: люди должны иметь право на доступ к персональным данным, их обработку и контроль, при наличии у систем ИИ возможности анализа и использования этих данных.

13) Свобода и конфиденциальность: применение систем ИИ к персональным данным не должно безосновательно сокращать реальную или субъективно воспринимаемую свободу людей.

14) Совместная выгода: технологии ИИ должны приносить пользу максимально возможному числу людей.

15) Совместное процветание: экономические блага, созданные при помощи ИИ, должны получить широкое распространение ради принесения пользы всему человечеству.

16) Контроль ИИ человеком: люди должны определять процедуру и степень необходимости передачи системе ИИ функции принятия решений для выполнения целей, поставленных человеком.

17) Устойчивость систем: те, кто обладает влиянием, управляя продвинутыми системами ИИ, должны уважать и улучшать общественные процессы, от которых зависит здоровье социума, а не подрывать таковые.

18)  Гонка вооружений в области ИИ: стоит избегать гонки вооружений в области автономного летального оружия.

Долгосрочная перспектива


19) Опасность недооценки возможностей: стоит избегать уверенных предположений относительно верхнего порога возможностей ИИ будущего, особенно в отсутствие консенсуса по этому вопросу.

20)  Важность: продвинутый ИИ может повлечь коренные изменения в истории жизни на Земле, и его разработка и управление должны осуществляться при наличии соответствующих ресурсов и в условиях особой тщательности.

21) Риски: потенциальные риски, связанные с системами ИИ, особенно опасность катастроф или угроза существованию жизни в целом, должны купироваться действиями по планированию и смягчению рисков, соразмерными возможному масштабу воздействия.

22) Рекурсивное автообучение: системы ИИ, разработанные для улучшения эффективности собственных алгоритмов и самовоспроизведения, ведущего к быстрому изменению качества и количества, должны быть объектом применения мер жесткого регулирования и контроля.

23)  Всеобщее благо: сверхразум должен быть разработан исключительно в целях, соответствующих большинству этических идеалов и для пользы всего человечества, а не одного государства или организации.

OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
1

Open letter calling on world leaders to show long-view leadership on existential threats

The Elders, Future of Life Institute and a diverse range of co-signatories call on decision-makers to urgently address the ongoing impact and escalating risks of the climate crisis, pandemics, nuclear weapons, and ungoverned AI.
February 14, 2024
Signatories
Closed

AI Licensing for a Better Future: On Addressing Both Present Harms and Emerging Threats

This joint open letter by Encode Justice and the Future of Life Institute calls for the implementation of three concrete US policies in order to address current and future harms of AI.
October 25, 2023
Signatories
31810

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
March 22, 2023
Signatories
998

Open Letter Against Reckless Nuclear Escalation and Use

The abhorrent Ukraine war has the potential to escalate into an all-out NATO-Russia nuclear conflict that would be the greatest catastrophe in human history. More must be done to prevent such escalation.
October 18, 2022

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram