Existential Risk Russian
Contents
ГЛОБАЛЬНЫЕ КАТАСТРОФЫ
Click here to see this page in other languages: English Chinese French German
Глобальная катастрофа – это событие, которое потенциально может уничтожить человечество, или, по меньшей мере, истребить значительную его часть, лишив тех, кто выжил, возможности восстановить современный уровень жизни и развития общества.
До относительно недавнего времени большинство таких событий наравне с событиями, представляющими глобальный риск (менее разрушительный аналог глобальных катастроф), носили природный характер. Это были извержения супервулканов или столкновения астероидов с Землей, которые миллионы лет назад привели к массовому вымиранию. Научно-технический прогресс прошлого века подарил нам великие достижения и открытия, но вместе с ним пришла опасность новых глобальных катастроф.
Ядерная война стала первой в списке глобальных угроз антропогенного характера, так как она может уничтожить значительную часть населения Земли. При этом по мере изучения ядерной угрозы, ученые обнаружили, что наступление ядерной зимы, возможно, еще более опасно, чем военные действия, поскольку повлечет за собой гибель большинства людей на планете.
Биотехнологии и генная инженерия вселяют в нас чувство восхищения, смешанное со страхом. Люди опасаются возможных негативных последствий клонирования, редактирования генов (механизмы сплайсинг и драйв) и целого ряда других достижений современной генетики. С помощью биотехнологий удастся спасти множество людей и улучшить качество жизни, но вместе с тем их использование может спровоцировать распространение искусственно созданной пандемии или исчезновение генетического разнообразия, а это, в свою очередь, поставит человечество перед новыми угрозами.
Долгое время концепция искусственного интеллекта (ИИ) обитала лишь на страницах научной фантастики, однако в последние годы отрасль ИИ сделала заметный шаг вперед. Как и в случае с биотехнологиями, у ИИ большой потенциал для улучшения качества жизни людей, но если в процессе разработки этой технологии будет допущена неосторожность, вероятно, кто-нибудь сможет случайно или намеренно запустить такую систему ИИ, которая в конечном счете ликвидирует человеческий род.
Другая причина для растущего беспокойства и проблема, с которой по всему миру борются на уровне общества и государства, – это изменение климата. С повышением среднемировых температур, такие природные катаклизмы как наводнения, засухи, ураганы и другие становятся привычным явлением. Они сопряжены с нехваткой продовольствия, воды и жилья и могут спровоцировать экономическую нестабильность и войны. Скорее всего, изменение климата как таковое не представляет глобальной опасности, но тот хаос, который оно несет, может увеличить вероятность начала ядерной войны, пандемии и других катаклизмов.
Когда только изобрели поезда, многие думали, что человеческое тело не способно переносить скорости выше 30 миль в час (48 км/ч); когда появились первые телефоны, были те, кто долго не решался их использовать, боясь удара током, а кто-то и вовсе считал новое изобретение сущей дьявольщиной; позже, с похожим пессимизмом были встречены самолеты, операции по пересадке сердца, проблема 2000 года (Y2K). И это лишь несколько из бытовавших некогда предрассудков. Мы надеемся, что опасения, связанные с некоторыми технологическими новшествами, перечисленными раннее, также не оправдаются, но для такого исхода необходимы образование, исследования и, если понадобится, надлежащее вмешательство в процесс. Какая же роль отведена здесь человеку? Это не роль случайного гостя, которому не обязательно задумываться о будущем планеты. Напротив, человек здесь – режиссер, способный создавать его своими руками.
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.