Skip to content

Towards a Code of Ethics in Artificial Intelligence with Paula Boddington Russian

Published:
March 6, 2019
Author:
Revathi Kumar

Contents

На пути к разработке Кодекса Этики ИИ с Полой Боддингтон


Click here to see this page in other languages:  English 

Искусственный интеллект обещает более умный мир – мир, где финансовые алгоритмы анализируют данные лучше, чем люди, самоуправляемые автомобили спасают миллионы жизней от несчастных случаев, а медицинские роботы искореняют болезни. Но машины не идеальны. Автоматизированный торговый агент может приобрести невыгодные акции, самоуправляемые автомобили сбить пешехода, а медицинский робот не заметить раковую опухоль – машины будут совершать ошибки, которые серьезно влияют на человеческие жизни.

Пола Боддингтон, философ, работающая на кафедре компьютерных наук в Оксфорде, утверждает, что противоречивые способности ИИ заставляют исследователей рассматривать этическую важность своей работы на каждом шагу. В целях поощрения этого, Пола предпринимает шаги, чтобы заложить основу для Кодекса Этики исследований ИИ.

Кодекс Этики затронет все сферы, связанные с человеческой жизнью,такие как медицина или инженерия. Технические организации, такие как Institute for Electronics and Electrical Engineers (IEEE) и Association for Computing Machinery (ACM), также придерживаются некоторых этических норм, чтобы их технологии оставались выгодными для человечества. Однако не существует конкретных общих принципов по этике ИИ, которые направляли бы исследователей, вовлеченных в разработках. Создание Кодекса Этики, как предлагает Боддингтон, позволило бы разработчикам более четко направить развитие ИИ в стремлении общества к улучшению благосостояния человека.

Для лучшего понимания этики ИИ Боддингтон рассматривает разные подходы, включая автономных агентов в сфере продаж в финансах, самоуправляемые машины и биомедицинские технологии. Во всех трех сферах машины не только способны причинить серьезный ущерб, но они берут на себя ответственность, когда-то принадлежавшую людям, тем самым поднимая фундаментальные этические вопросы.

«Этика –  это то, как мы относимся к людям, как мы относимся к миру, как мы понимаем, что такое жить человеческой жизнью или каковы наши конечные жизненные цели, –  говорит Боддингтон, –  ИИ поднимает все эти вопросы. Почти невозможно сказать, что такое этика ИИ в целом, потому что существует множество систем ИИ. Но один из ключевых вопросов заключается в том, что происходит, когда ИИ заменяет или дополняет человеческую деятельность, этот вопрос лежит в основе нашего понимания этики».

Проблема Черной коробки


Поскольку системы искусственного интеллекта перенимают на себя ответственность от людей и за людей – важно, чтобы мы понимали, как эти системы могут потерпеть неудачу, что, правда, не всегда происходит на практике.

Рассмотрим алгоритм Northpointe, который суды США использовали для прогнозирования рецидивов преступников. Алгоритм изучал 100 факторов, таких как предыдущие аресты, семейная жизнь, употребление наркотиков, возраст, пол и предсказывал вероятность того, совершит ли обвиняемый еще одно преступление. Разработчики Northpointe специально не рассматривали расовый критерий, но когда журналисты-расследователи из ProPublica проанализировали Northpointe, было обнаружено, что алгоритм неправильно распределял обвиняемых афроамериканцев в разряд «высокого риска рецидива», что почти в два раза чаще, чем это происходило с другими обвиняемыми. Не подозревая об этой предвзятости и стремясь улучшить свою систему правосудия, такие штаты, как Висконсин, Флорида и Нью-Йорк, годами доверяли алгоритму определения приговоров. Не понимая инструмента, который они использовали, эти суды заключали под стражу подсудимых на основе ошибочных расчетов.

Случай с Northpointe показывает потенциальные опасности от развертывания систем ИИ, которые недостаточно понятны людям. Существующая на сегодняшний момент система обучения машин функционирует настолько быстро, что никто на самом деле не знает, как машины принимают решения – этого не знают даже их разработчики.  Более того, эти системы учатся у своей среды и совершенствуют поведенческие механизмы, делая их более сложными для контролирования и понимания процесса принятия решения. Этот недостаток прозрачности процессов – проблема «черного ящика» –  делает разработку и введение Кодекса Этики невероятно сложной.

«Кодексы Этики эффективны в медицине и инженерии, поскольку профессионалы понимают и контролируют инструменты, с которыми они работают, –  говорит Боддингтон, –  все еще существует некоторые белые пятна, когда доктора не полностью знают механизмы работы назначаемых ими лекарств – но общество принимает этот «баланс риска».

«Все еще предполагается, что есть разумный уровень контроля, – объясняет она, –  в строительстве зданий нет никаких поблажек и возможности сказать: «Ой, я не знал, что конструкция упадет». Этот ответ просто неприемлем. Вы должны быть в состоянии просчитать это математически. Кодексы профессиональной этики опираются на основную идею о том, что специалисты имеют достаточный уровень контроля над своими товарами и услугами».

В случае с искусственным интеллектом все сложнее. Из-за проблемы «черного ящика» если система ИИ освобождает опасного преступника или рекомендует неправильное лечение пациенту, исследователи могут законно утверждать, что они не могли предвидеть эту ошибку.

«Если вы не можете гарантировать контроль над ИИ, по крайней мере, вы могли бы внести как можно больше ясности в общении с людьми, очертить границы того, что вы знаете и чего не знаете, и каковы риски, – предлагает Боддингтон, – Этика касается того, как мы обосновываем свои действия перед другими. Таким образом, прозрачность является ключевым этическим достоинством».

Разработка Кодекса Этики


Несмотря на проблему «черного ящика», Боддингтон считает, что научные и медицинские сообщества могут помочь сформировать этику исследований ИИ. Она объясняет: «этике научного, медицинского и фармацевтического сообществ действительно помогло пристальное внимание гражданских и общественных групп. И в медицине есть немало «индивидуалистов» или «отщепенцев», которые, например, задаются вопросом, какова конечная ценность медицины. Это одна из причин, почему важно прислушиваться к даже таким точкам зрения, чтобы разработать Кодекс Этики надежным и ответственным образом».

«Я думаю, что нам действительно нужно разнообразие с точки зрения стилей мышления, стилей личности и политических обстановок, потому что мир технологий и академический мир имеют тенденцию быть довольно однородными», – говорит Боддингтон.

Согласно исследованиям экономиста Лу Хонга и политолога Скотта Пейджа, различные точки зрения не только объясняют различные ценности, но и могут лучше решать проблемы. Хонг и Пейдж обнаружили, что если сравнить две группы, решающие проблему – одну однородную группу людей с очень высоким IQ и одну разнообразную группу людей с более низким IQ – разнообразная группа, вероятно, решит проблему лучше.

Закладывая фундамент


Осенью 2017 года Боддингтон выпустила главный продукт своего проекта: книгу под названием «На пути к Кодексу Этики для искусственного интеллекта». Она с готовностью признает, что книга не может охватить все этические дилеммы в ИИ, но она должна помочь продемонстрировать, насколько сложно его разрабатывать, и должна инициировать больше дискуссий о том, как кодексы профессиональной этики могут справиться с проблемой «черного ящика».

Боддингтон также сотрудничала с Глобальной инициативой IEEE по этическим соображениям в области искусственного интеллекта и автономных систем, которая выпустила доклад, призывающий исследователей выйти за рамки технических возможностей ИИ и «определить приоритетность повышения благосостояния человека в качестве показателя прогресса в алгоритмическую эпоху».

Хотя формальный кодекс является лишь частью того, что необходимо для развития этичного ИИ, Боддингтон надеется, что эта дискуссия в конечном итоге приведет к созданию Кодекса Этики исследований ИИ,  помощью  которого исследователи будут лучше оснащены для работы по развитию искусственного интеллекта в выгодном направлении.

Эта статья является частью серии Института «Будущее Жизни» о грантах на исследования безопасности ИИ, которые были профинансированы за счет щедрых пожертвований Илона Маска и проекта «Открытая филантропия».

Статья переведена Карпуниной Анной

This content was first published at futureoflife.org on March 6, 2019.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:
Our content

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram