Zum Inhalt springen
Alle offenen Briefe

AI-Prinzipien Russisch

Veröffentlicht
13 September, 2017

ПРИНЦИПЫ РАБОТЫ С ИИ, РАЗРАБОТАННЫЕ НА АСИЛОМАРСКОЙ КОНФЕРЕНЦИИ

 Принципы работы с ИИ были разработаны в ходе конференции в Асиломаре (Калифорния, США), прошедшей в 2017 году(видео с конференции). Здесь описан процесс их создания.

Klicken Sie hier, um diese Seite in anderen Sprachen zu sehen: Englisch US_Flagge Chinesisch   Deutsch Japanisch    Koreanisch   

Искусственный интеллект уже сделал возможным создание инструментов, по всему миру приносящих пользу тем, кто ими пользуется. Дальнейшая разработка ИИ в соответствии с представленными ниже принципами может открыть удивительные возможности для помощи людям на десятилетия и даже века вперед.

Область исследований


1) Цель исследования: цель исследований ИИ должна лежать в области создания не бесцельного разума, но систем, направленных на принесение пользы человечеству.

2) Финансирование исследований: инвестиции в ИИ должны сопровождаться субсидированием исследований, направленных на поиск полезных способов применения ИИ, в контексте которых расссматриваются непростые вопросы из области компьютерных наук, экономики, права, этики и социальных наук. Некоторые из таких вопросов:

  • Как обеспечить надежность будущего ИИ таким образом, чтобы системы выполняли свою программу, не подвергаясь угрозе сбоев и хакерских атак?
  • Как повысить уровень благосостояния с помощью автоматизации процессов, не сократив при этом уровень человеческого труда и сохранив его назначение?
  • Как, сделав правовую систему более эффективной и справедливой, модифицировать е в соответствии с развитием ИИ и учесть все правовые риски, связанные с его использованием?
  • Какие ценностные ориентиры должны лежать в основе ИИ и каким правовым и моральным статусом он должен обладать?

3) Диалог ученых и политических деятелей: необходим конструктивный и здоровый диалог между исследователями ИИ и политическим руководством.

4) Культура отношений в исследовательском сообществе: среди исследователей и разработчиков систем ИИ должна пощряться культура взаимодействия, доверия и открытости.

5) Отсутствие конкуренции: команды разработчиков ИИ должны активно взаимодействовать друг с другом во избежание ненадлежащего исполнения стандартов безопасности.

Этика и ценности


6) Безопасность: системы ИИ должны быть безопасны и защищены на протяжении всего срока эскплуатации, а в ситуациях, где это целесообразно, штатная работа ИИ должна быть легко верифицируема.

7) Открытость сбоев в системе: если система ИИ причиняет вред, должна быть возможность выяснить причину.

8) Открытость системе правосудия: любое участие автономной системы ИИ в принятии судебного решения должно быть удовлетворительным образом обосновано и доступно для проверки компетентным органами.

9) Ответственность: разработчики и создатели продвинутых систем ИИ напрямую заинтересованы в моральной стороне последствий использования, злоупотребления и действий ИИ, и именно на их плечах лежит ответственость за формирование подобных последствий.

10) Синхронизация ценностей: системы ИИ с высокой степенью автономности должны быть разработаны таким образом, чтобы их цели и поведение были согласованы с человеческими ценностями на всем протяжении работы.

11) Человеческие ценности: устройство и функционирование систем ИИ должно быть согласовано с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.

12) Защита личных данных: люди должны иметь право на доступ к персональным данным, их обработку и контроль, при наличи у систем ИИ возможности анализа и использования этих данных.

13) Свобода и конфиденциальность: применение систем ИИ к персональным данным не должно безосновательно сокращать реальную или субъективно воспринимаемую свободу людей.

14) Совместная выгода: технологии ИИ должны приносить пользу максимально возможному числу людей.

15) Совместное процветание: экономические блага, созданные при помощи ИИ, должны получить широкое распространение ради принесения пользы всему человечеству.

16) Контроль ИИ человеком: люди должны определять процедуру и степень необходимости передачи системе ИИ функциии принятия решений для выполнения целей, поставленных человеком.

17) Устойчивость систем: те, кто обладает влиянием, управляя продвинутыми системами ИИ, должны уважать и улучшать общественные процессы, от которых зависит здоровье социума, а не подрывать таковые.

18) Гонка вооружений в области ИИ: стоит избегать гонки вооружений в области автономного летального оружия.

Долгосрочная перспектива


19) Опасность недоценки возможностей: стоит избегать уверенных предположений относительно верхнего порога возможностей ИИ будущего, особенно в отсутствие консенсуса по этому вопросу.

20) Важность: продвинутый ИИ может повлечь коренные изменения в истории жизни на Земле, и его разработка и управление должны осуществляться при наличии соответствующих ресурсов и в условиях особой тщательности.

21) Риски: потенциальные риски, связанные с системами ИИ, особенно опасность катастроф или угроза существованию жизни в целом, должны купироваться действиями по планированию и смягчению рисков, соразмерными возможному масштабу воздействия.

22) Рекурсивное автообучение: системы ИИ, разработанные для улучшения эффективности собственных алгоритмов и самовоспроизведения, ведущего к быстрому изменению качества и количества, должны быть объектом применения мер жесткого регулирования и контроля.

23) Всеобщее благо: сверхразум должен быть разработан исключительно в целях, соответствующих большинству этических идеалов и для пользы всего человечества, а не одного государства или организации.

OFFENE BRIEFE

Verwandte Beiträge

Wenn Ihnen dieser Artikel gefallen hat, könnten Sie auch diese interessieren:
Unterzeichner
2672

Offener Brief, in dem Staats- und Regierungschefs aufgefordert werden, ihre Führungsrolle bei existenziellen Risiken mit Weitblick wahrzunehmen.

Die Elders, Future of Life Institute und eine Vielzahl von Mitunterzeichnern fordern Entscheidungsträger auf, sich dringend mit den anhaltenden Auswirkungen und eskalierenden Risiken der Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI auseinanderzusetzen.
14 Februar, 2024
Unterzeichner
Geschlossen

KI-Lizenzierung für eine bessere Zukunft: Über die Bewältigung gegenwärtiger Schäden und neuer Bedrohungen

Dieser gemeinsame offene Brief von Encode Justice und dem Future of Life Institute fordert die Umsetzung dreier konkreter politischer Maßnahmen in den USA, um aktuelle und zukünftige Schäden durch KI zu adressieren.
25 Oktober, 2023
Unterzeichner
31810

Große KI-Experimente stoppen: Ein offener Brief

Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate zu pausieren.
22 März, 2023
Unterzeichner
998

Offener Brief Gegen Rücksichtslose Nukleare Eskalation und Nutzung

Der fürchterliche Krieg in der Ukraine hat das Potenzial, zu einem umfassenden nuklearen Konflikt zwischen der NATO und Russland zu eskalieren, der die größte Katastrophe in der Geschichte der Menschheit wäre. Es muss mehr getan werden, um eine solche Eskalation zu verhindern.
18 Oktober, 2022

Abonnieren Sie den FLI Newsletter

Schließen Sie sich einer Leserschaft von 40.000 Abonenten an, die regelmäßig über unsere Arbeit und Schwerpunktbereiche informiert werden.
WolkeLupeKreuzPfeil-nach-oben
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram