Skip to content
All Open Letters

AI Open Letter Russian

Published
3 October, 2017

НАУЧНО-ИССЛЕДОВАТЕЛЬСКИЕ ПРИОРИТЕТЫ ДЛЯ СОЗДАНИЯ НАДЕЖНОГО И ПОЛЕЗНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Открытое письмо


Click here to see this page in other languages: English US_Flag Chinese    German Japanese 

Исследования искусственного интеллекта (ИИ) с самого начала включали изучение широкого круга проблем и направлений, но последние 20 лет особое внимание уделяется проблемам, связанным с построением интеллектуальных агентов – систем, воспринимающих окружающую среду и действующих в ней. В этом контексте «интеллект» связан со статистическими и экономическими понятиями рациональности, проще говоря, с умением принимать правильные решения, строить планы или делать выводы. Применение вероятностных репрезентаций и теории принятия решений, а также использование методов статистического обучения привели к значительной интеграции и взаимному обогащению ИИ, машинного обучения, статистики, теории управления, нейронаук и других областей. Установление общих теоретических основ в сочетании с доступом к данным и вычислительным мощностям позволило добиться значительных успехов в решении различных составных задач, таких как распознавание речи, классификация изображений, машинный перевод, моделирование ходьбы, создание автономных транспортных средств и вопросно-ответных систем.

По мере того как коммерческий потенциал этих и других применений технологий ИИ выходит за рамки чисто лабораторных исследований и они приобретают экономическую ценность, наступает благотворный цикл развития технологии, когда даже незначительное улучшение функций ведет к заметному росту экономической ценности, привлекая инвесторов. Сегодня существует распространенное мнение, что исследования ИИ неуклонно развиваются и что его воздействие на общество, скорее всего, будет и дальше расти. Потенциальные выгоды применения ИИ огромны, учитывая что все достижения современной цивилизации — продукт человеческого интеллекта, и трудно представить, каких еще высот можно достичь, усилив человеческий разум инструментами ИИ, но даже искоренение болезней и нищеты представляется возможным. Потенциал ИИ колоссален, и поэтому важно понять, как воспользоваться его преимуществами и не угодить в опасную ловушку.

Прогресс в разработке ИИ диктует настоятельную необходимость не только совершенствовать его способности, но и максимизировать выгоду, которую ИИ принесет обществу. Для решения этих проблем в 2008 году была создана президентская экспертная группа по долгосрочным перспективам ИИ при Ассоциации по продвижению ИИ (AAAI) и инициированы другие проекты по исследованию влияния ИИ, что свидетельствует о расширении диапазона исследований ИИ, до недавних пор сосредоточенных на технологии, а не на цели. Мы поддерживаем расширенные исследования, направленные на обеспечение надежности и полезности ИИ-систем с постоянно растущими возможностями: наши ИИ-системы должны делать то, что мы от них хотим. Прилагаемый документ об исследовательских приоритетах содержит ряд примеров направлений исследований, ориентированных на получение максимальной общественной выгоды от использования ИИ. Такие исследования неизбежно имеют междисциплинарный характер, поскольку затрагивают как ИИ, так и общество, и включают целый ряд дисциплин от экономики, философии и права до компьютерной безопасности, формальных методов и, разумеется, различных областей собственно ИИ.

Таким образом, мы считаем, что научные исследования проблем обеспечения надежности и полезности ИИ-систем важны и своевременны и существуют конкретные направления исследований, которыми можно заниматься уже сегодня.

На настоящий момент это открытое письмо подписали более 8000 человек. Если вы хотите подписать это письмо или просмотреть список подписавших, пожалуйста, посетите страницу открытого письма на английском языке.

OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
2672

Open letter calling on world leaders to show long-view leadership on existential threats

The Elders, Future of Life Institute and a diverse range of co-signatories call on decision-makers to urgently address the ongoing impact and escalating risks of the climate crisis, pandemics, nuclear weapons, and ungoverned AI.
14 February, 2024
Signatories
Closed

AI Licensing for a Better Future: On Addressing Both Present Harms and Emerging Threats

This joint open letter by Encode Justice and the Future of Life Institute calls for the implementation of three concrete US policies in order to address current and future harms of AI.
25 October, 2023
Signatories
31810

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
22 March, 2023
Signatories
998

Open Letter Against Reckless Nuclear Escalation and Use

The abhorrent Ukraine war has the potential to escalate into an all-out NATO-Russia nuclear conflict that would be the greatest catastrophe in human history. More must be done to prevent such escalation.
18 October, 2022

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram