How to Prepare for the Malicious Use of AI Russian
Contents
Как подготовиться к злонамеренному использованию искусственного интеллекта?
Click here to see this page in other languages: English
Каким образом мы можем предугадывать, предотвращать и (в случае необходимости) минимизировать вредоносные последствия злонамеренного использования искусственного интеллекта (ИИ)?
Этот вопрос был рассмотрен в 100-страничном докладе, который вышел на прошлой неделе, и был написан 26 исследователями из 14 учреждений. В результате двухдневного семинара в Английском городе Оксфорд, за которым последовали долгие месяцы научных исследований, был создан документ, предоставивший обширную картину вариантов негативных последствий для мировой безопасности, возникающих в связи с использованием ИИ.
Авторы доклада, среди которых представители Института Будущего Человечества, Центра Изучения Экзистенциального Риска, Open AI, и Центра Новой Американской Безопасности, обсуждали то, что ИИ не только изменяет характер и масштаб существующих угроз, но и расширяет круг проблем, с которыми мы можем столкнуться. Исследователей привлекают различные способы полезного применения ИИ, включая варианты использования его в целях улучшения способов защиты от негативных последствий такого использования. Основная цель доклада заключалась в том, чтобы рассмотреть область угроз для безопасности, возникающих из-за злонамеренного использования ИИ.
«В нашем докладе основное внимание уделяется способам использования ИИ человеком для преднамеренного причинения вреда» – говорил Шон О’Эйгертэй, Исполнительный директор Кембриджского Центра по Изучению Социального Риска. «ИИ может создать новые угрозы или изменить характер существующих проблем в физической, политической, а также кибербезопасности».
Наиболее важно, что этот доклад не просто рассматривает абстрактную ситуацию, которая может произойти в далеком будущем. Исследователи изучали только те технологии, которые уже доступны или, скорее всего, окажутся разработаны в ближайшие пять лет, что ставит проблему в центр повестки дня. Мы должны осознать риски и предпринять действия, которые помогут предотвратить их, поскольку технологии развиваются экспоненциально. Согласно утверждению репортера Дэйва Гершгорна: «Каждое преимущество ИИ для хороших ребят является преимуществом и для плохих ребят».
Системы ИИ могут быть более эффективными и легко управляемы, чем традиционно используемые инструменты. Вдобавок, использование ИИ повышает анонимность и снижает психологическое давление, которое человек испытывает по отношению к предпринятым действиям, таким образом снижая барьер для совершения преступлений и актов насилия. Более того, системы ИИ имеют свои собственные уникальные слабые места, включая риск отравления данных, примеры самостоятельных противостояний и эксплуатации недостатков собственного дизайна. Атаки на основе ИИ будут технологически опережать существующие кибератаки, поскольку они будут во многом более эффективны, более точно нацелены и более сложны для определения.
Те разновидности атак, к которым нам следует подготовиться, не будут ограничиваться сложными комплексными взломами. Согласно авторам доклада, существует три основных сферы безопасности: цифровая безопасность, которая в значительной степени сосредоточена на кибератаках; физическая безопасность, которая отвечает за предотвращения атак с дронов и других материальных систем; и политическая безопасность, в которую входят такие случаи, как наблюдение и убеждение через направленную пропаганду, а также жульничество через манипулятивные видео. Область работы этих сфер во многом совпадает, но разграничение может быть полезным для обнаружения различных типов атак, их обоснования и разновидностей способов, при помощи которых мы сможем уберечь себя.
Что можно сделать, чтобы подготовиться к злонамеренному использованию ИИ в каждой из перечисленных сфер безопасности? Авторы доклада предлагают много неплохих вариантов. Описанные сценарии являются отличной почвой для исследователей и политиков, чтобы изучить возможные варианты развития и начать поиск путей решения проблем с самыми критическими угрозами. Например, представим, что коммерческий робот-уборщик может быть перенастроен в неотслеживаемое взрывное устройство, что, безусловно, очень пугающе, но это также доказывает полезность таких процедур, как установка законов об обязательной регистрации любых роботов.
Каждая сфера безопасности имеет свои точки контроля и меры противодействия. Например, в целях улучшения цифровой безопасности компании могут повышать уровень осведомленности клиентов и приглашать «белых хакеров» для поиска слабых мест в коде. Нам тоже есть чему поучиться у сообщества кибербезопасности и предпринять такие меры, как: сотрудничество с «красной командой», формальная проверка систем и качественное изучение уязвимостей ИИ. Для улучшения физической безопасности, политикам стоит задуматься о регулировке разработок операционных систем и запрете продаж смертельного автономного оружия. Тем временем, медиа-платформам следует свести к минимуму угрозу политической безопасности путем введения сертификации подлинности изображений и видео, обнаружения поддельных новостей и использования систем шифрования.
В описанном докладе также предоставлены четыре важнейшие рекомендации, которые не нацелены предоставить особые технологические или политические предложения, а скорее стремятся обратить внимания на те области, в которых следует проводить дальнейшие расследования. Рекомендации гласят следующее:
Рекомендация №1: Политикам следует начать тесно сотрудничать с техническими исследователями в целях изучения, предотвращения и минимизирования потенциального злонамеренного использования ИИ.
Рекомендация №2: Исследователям и разработчикам искусственного интеллекта следует с полной серьезностью осознавать двойственный характер возможности использования плодов их работы. Таким образом, устанавливая приоритеты и нормы своей работы, согласно возникающим вариантам негативного использования, активно изучая соответствующие элементы, в которых намечается возможность вредоносного эксплуатирования.
Рекомендация №3: В исследованиях должны быть задействованы лучшие методики в необходимых областях, затрагивающих возможность двойного использования ИИ, таких как компьютерная безопасность, для использования применительно к случаю злонамеренного использования ИИ.
Рекомендация №4: Активно стремиться расширить круг заинтересованных сторон и экспертов в областях безопасности, задействованных в обсуждении этих проблем.
В конце доклада обозначены несколько областей, нуждающихся в дальнейшем исследовании. Первая из них – сообщество кибербезопасности, которое растет и развивается с той же скоростью, с которой системы на основе ИИ становятся более обширными и легко управляемыми. Другие области исследования включают изучение различных моделей открытости, продвижение культуры ответственности среди исследователей ИИ и развития технологических и политических решений.
Согласно утверждению авторов доклада: «Злонамеренное использование ИИ окажет влияние не только на то, как мы создаем и управляем цифровой инфраструктурой, но и на создание и распространение систем ИИ, что, скорее всего, повлечет за собой изменения в политике и других сферах жизни».
Хотя это лишь начальная ступень в необходимом понимании того, как ИИ повлияет на всемирную безопасность, этот доклад провоцирует дальнейшее обсуждение. В нем не только приводятся многочисленные проблемы безопасности, относящиеся к использованию ИИ, но и предлагаются способы, при помощи которых мы можем начать готовиться к противодействию этим угрозам уже сегодня.
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.