Skip to content

How to Prepare for the Malicious Use of AI Russian

Published:
September 18, 2018
Author:
Revathi Kumar

Contents

Как подготовиться к злонамеренному использованию искусственного интеллекта?


Click here to see this page in other languages: English US_Flag

Каким образом мы можем предугадывать, предотвращать и (в случае необходимости) минимизировать вредоносные последствия злонамеренного использования искусственного интеллекта (ИИ)?

Этот вопрос был рассмотрен в 100-страничном докладе, который вышел на прошлой неделе, и был написан 26 исследователями из 14 учреждений. В результате двухдневного семинара в Английском городе Оксфорд, за которым последовали долгие месяцы научных исследований, был создан документ, предоставивший обширную картину вариантов негативных последствий для мировой безопасности, возникающих в связи с использованием ИИ.

Авторы доклада, среди которых представители Института Будущего Человечества, Центра Изучения Экзистенциального Риска, Open AI, и Центра Новой Американской Безопасности, обсуждали то, что ИИ не только изменяет характер и масштаб существующих угроз, но и расширяет круг проблем, с которыми мы можем столкнуться. Исследователей привлекают различные способы полезного применения ИИ, включая варианты использования его в целях улучшения способов защиты от негативных последствий такого использования. Основная цель доклада заключалась в том, чтобы рассмотреть область угроз для безопасности, возникающих из-за злонамеренного использования ИИ.

«В нашем докладе основное внимание уделяется способам использования ИИ человеком для преднамеренного причинения вреда» – говорил Шон О’Эйгертэй, Исполнительный директор Кембриджского Центра по Изучению Социального Риска. «ИИ может создать новые угрозы или изменить характер существующих проблем в физической, политической, а также кибербезопасности».

Наиболее важно, что этот доклад не просто рассматривает абстрактную ситуацию, которая может произойти в далеком будущем. Исследователи изучали только те технологии, которые уже доступны или, скорее всего, окажутся разработаны в ближайшие пять лет, что ставит проблему в центр повестки дня. Мы должны осознать риски и предпринять действия, которые помогут предотвратить их, поскольку технологии развиваются экспоненциально. Согласно утверждению репортера Дэйва Гершгорна: «Каждое преимущество ИИ для хороших ребят является преимуществом и для плохих ребят».

Системы ИИ могут быть более эффективными и легко управляемы, чем традиционно используемые инструменты. Вдобавок, использование ИИ повышает анонимность и снижает психологическое давление, которое человек испытывает по отношению к предпринятым действиям, таким образом снижая барьер для совершения преступлений и актов насилия. Более того, системы ИИ имеют свои собственные уникальные слабые места, включая риск отравления данных, примеры самостоятельных противостояний и эксплуатации недостатков собственного дизайна. Атаки на основе ИИ будут технологически опережать существующие кибератаки, поскольку они будут во многом более эффективны, более точно нацелены и более сложны для определения.

Те разновидности атак, к которым нам следует подготовиться, не будут ограничиваться сложными комплексными взломами. Согласно авторам доклада, существует три основных сферы безопасности: цифровая безопасность, которая в значительной степени сосредоточена на кибератаках; физическая безопасность, которая отвечает за предотвращения атак с дронов и других материальных систем; и политическая безопасность, в которую входят такие случаи, как наблюдение и убеждение через направленную пропаганду, а также жульничество через манипулятивные видео. Область работы этих сфер во многом совпадает, но разграничение может быть полезным для обнаружения различных типов атак, их обоснования и разновидностей способов, при помощи которых мы сможем уберечь себя.

Что можно сделать, чтобы подготовиться к злонамеренному использованию ИИ в каждой из перечисленных сфер безопасности? Авторы доклада предлагают много неплохих вариантов. Описанные сценарии являются отличной почвой для исследователей и политиков, чтобы изучить возможные варианты развития и начать поиск путей решения проблем с самыми критическими угрозами. Например, представим, что коммерческий робот-уборщик может быть перенастроен в неотслеживаемое взрывное устройство, что, безусловно, очень пугающе, но это также доказывает полезность таких процедур, как установка законов об обязательной регистрации любых роботов.

Каждая сфера безопасности имеет свои точки контроля и меры противодействия. Например, в целях улучшения цифровой безопасности компании могут повышать уровень осведомленности клиентов и приглашать «белых хакеров» для поиска слабых мест в коде. Нам тоже есть чему поучиться у сообщества кибербезопасности и предпринять такие меры, как: сотрудничество с «красной командой», формальная проверка систем и качественное изучение уязвимостей ИИ. Для улучшения физической безопасности, политикам стоит задуматься о регулировке разработок операционных систем и запрете продаж смертельного автономного оружия. Тем временем, медиа-платформам следует свести к минимуму угрозу политической безопасности путем введения сертификации подлинности изображений и видео, обнаружения поддельных новостей и использования систем шифрования.

В описанном докладе также предоставлены четыре важнейшие рекомендации, которые не нацелены предоставить особые технологические или политические предложения, а скорее стремятся обратить внимания на те области, в которых следует проводить дальнейшие расследования. Рекомендации гласят следующее:

Рекомендация №1: Политикам следует начать тесно сотрудничать с техническими исследователями в целях изучения, предотвращения и минимизирования потенциального злонамеренного использования ИИ.

Рекомендация №2: Исследователям и разработчикам искусственного интеллекта следует с полной серьезностью осознавать двойственный характер возможности использования плодов их работы. Таким образом, устанавливая приоритеты и нормы своей работы, согласно возникающим вариантам негативного использования, активно изучая соответствующие элементы, в которых намечается возможность вредоносного эксплуатирования.

Рекомендация №3: В исследованиях должны быть задействованы лучшие методики в необходимых областях, затрагивающих возможность двойного использования ИИ, таких как компьютерная безопасность, для использования применительно к случаю злонамеренного использования ИИ.

Рекомендация №4: Активно стремиться расширить круг заинтересованных сторон и экспертов в областях безопасности, задействованных в обсуждении этих проблем.

В конце доклада обозначены несколько областей, нуждающихся в дальнейшем исследовании. Первая из них – сообщество кибербезопасности, которое растет и развивается с той же скоростью, с которой системы на основе ИИ становятся более обширными и легко управляемыми. Другие области исследования включают изучение различных моделей открытости, продвижение культуры ответственности среди исследователей ИИ и развития технологических и политических решений.

Согласно утверждению авторов доклада: «Злонамеренное использование ИИ окажет влияние не только на то, как мы создаем и управляем цифровой инфраструктурой, но и на создание и распространение систем ИИ, что, скорее всего, повлечет за собой изменения в политике и других сферах жизни».

Хотя это лишь начальная ступень в необходимом понимании того, как ИИ повлияет на всемирную безопасность, этот доклад провоцирует дальнейшее обсуждение. В нем не только приводятся многочисленные проблемы безопасности, относящиеся к использованию ИИ, но и предлагаются способы, при помощи которых мы можем начать готовиться к противодействию этим угрозам уже сегодня.

This content was first published at futureoflife.org on September 18, 2018.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:
Our content

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram