Skip to content

Developing Ethical Priorities for Neurotechnologies and AI Russian

Published:
March 8, 2018
Author:
Revathi Kumar

Contents

Разрабатывая этические приоритеты для нейротехнологий и искусственного интеллекта


Click here to see this page in other languages:  English US_Flag

Изучая мозг для усовершенствования и манипулирования его функциями, частные компании и военный сектор продвинулись гораздо дальше изначально поставленной цели понимания мозга. Такие компании, в частности, как Neuralink Илона Маска и Kernel Брайана Джонсона рассчитывают использовать развитие компьютерных технологий и искусственного интеллекта наряду с нейронаукой для разработки новых способов соединения мозга с компьютером.

Маск также рассматривает это как вспомогательное средство для обращения как с безопасностью ИИ, так и с человеческим фактором, в то время как алгоритмы превосходят людей во все новых и новых сферах. Как он отмечал ранее: «Интерфейс некоторых высоких полос пропускания в мозгу будет тем, что поможет достигнуть симбиоза между интеллектом человека и машины, и, возможно, решит проблему контроля и проблему полезности».

В комментарии журналу Nature, 27 человек из The Morningside Group изложили четыре приоритетных направления для развивающегося сектора нейротехнологий и искусственного интеллекта. Среди авторов – нейроученые, специалисты в области этики, инженеры ИИ из Google, ведущие американские и глобальные университеты, а также несколько некоммерческих исследовательских организаций, таких как AI Now и The Hastings Center.

Статья в Newsweek выражает обеспокоенность: «Искусственный интеллект может похитить интерфейс мозга и компьютера и взять наш разум под свой контроль». В то время как это не совсем то предостережение, которое описывает The Morningside Group, они все же указывают на то, что мы находимся на пороге радикальных перемен:

– Мы на пути к миру, в котором будет можно расшифровать умственные процессы человека и напрямую манипулировать механизмами мозга, лежащими в основе его намерений, эмоций и решений; где каждый сможет общаться с другими людьми просто посредством мыслей; и где мощные вычислительные системы, напрямую связанные с мозгом, помогают взаимодействию людей с миром, чрезвычайно расширяя таким образом их умственные и физические особенности.

Авторы считают, что хотя эти открытия могут обеспечить значительное и полезное улучшение человеческого опыта, они также могут усугубить социальное неравенство, обеспечить распространение форм общественного манипулирования, и угрожать фундаментальным основам человеческого бытия. Они поощряют читателя к оценке последствий этих возникающих технологий уже сегодня.

Ссылаясь на Алисомарские принципы ИИ и другие этические принципы в качестве отправного пункта, они призывают к разработке нового свода правил, непосредственно касающихся вопросов, которые возникнут по мере того, как такие стартапы как Neuralink Илона Маска и другие компании вокруг света будут исследовать способы усовершенствования интерфейса мозга и машины. Их рекомендации охватывают четыре ключевых сферы: приватность и согласие; субъектность и идентичность; рост; и искажение данных.

В отношении приватности и согласия, они полагают необходимым сохранить частное право на нейронные данные. Для этой цели, они рекомендуют меры по предоставлению услуг пользователям только с их согласия, строгое регулирование коммерческих организаций, и использование техники блокчейн для обеспечения прозрачного контроля над использованием данных. В отношении представительства и идентичности, они рекомендуют включение телесной и психической целостности, а также способность выбора своих действий, в международные договоры, такие как Всеобщая декларация прав человека.

В области роста, авторы обсуждают вероятность роста гонки вооружений в сфере так называемых «суперсолдатов», которые более устойчивы к боевым условиям. Они рекомендуют строгое регулирование использования нейронной технологии в военных целях. И в заключение, они рекомендуют исследование контрмер наряду с разнообразием в процессе дизайна с целью предотвращения систематического искажения данных в приложениях машинного обучения.

Способы, при помощи которых ИИ все чаще будет подключаться к нашему телу и мозгу, ставят сложные вопросы безопасности и этики, которые потребуют участия обширного спектра людей. Как сообщил сайту STAT доктор наук Колумбийского университета Рафаэль Юсте, невролог, который является соавтором статьи, «этическое мышление является недостаточным. Наука продвигается до такой точки, где внезапно ты можешь делать то, что никогда не представлялось возможным».

This content was first published at futureoflife.org on March 8, 2018.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:
Our content

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram