Skip to content

Existential Risk French

Published:
August 18, 2016
Author:
Revathi Kumar

Contents

Les risques existentielles


Click here to see this page in other languages:  English US_Flag Chinese    German Russian  

Un risque existentielle est un risque qui, s’il advenait, menacerait potentiellement d’éliminer une partie significative, ou la totalité, de la population mondiale. Un tel évènement risquerait de produire un niveau si élevé de dévastation qu’il est à prévoir que les survivants seraient incapable de rejoindre notre niveau de vie actuelle.

Jusqu’à récemment, la plupart des risques existentielles (et des risques moins extrêmes, tel que les risques catastrophiques) étaient d’origine naturelle. Par exemple, on compte au nombre de ces risques, les super-volcans et les astéroïdes du même type que celle qui causèrent des extinctions de masse, il y a plusieurs millions d’année. Cependant, les avancées technologiques du dernier siècle, bien qu’elles permirent d’énorme progrès pour l’humanité, sont également de nature à pouvoir représenter des risques d’un danger tout aussi grand que ces évènements.

L’arme nucléaire, et avec elle la possibilité d’une guerre nucléaire, fût la première forme de risque catastrophique global d’origine strictement humaine. En effet, si une guerre nucléaire mondiale advenait, il est à prévoir qu’une proportion substantielle de la population humaine y perde la vie. Pire encore, de nouvelles études scientifiques ont conclues que l’hiver nucléaire qui suivrait une telle guerre pourrait potentiellement être plus meurtrier que la guerre elle même, laissant du coup l’humanité disséminée.

Les biotechnologies et la recherche génétique sont des sujets qui génèrent à la fois crainte et enthousiasme. Nombreux et nombreuses sont ceux et celles qui s’inquiètent des effets potentiellement dangereux des modifications et altérations génétiques, du clonage et des autres formes de nouvelles technologies génétiques. S’il nous semble que les biotechnologies offre une opportunité incroyable de pouvoir sauver des vies et améliorer les conditions de vies des populations, il semble nécessaire de garder en tête que ces manipulations génétiques peuvent également être très risqués. Bien que les biotechnologies laissent entrevoir un champ de possible enrichissant, il ne faut pas négliger que ces possibles viennent également avec des risques existentiels s’il advenait que se produise une pandémie d’origine humaine, ou encore que ces modifications génétiques en viennent à réduire drastiquement la diversité génétique des écosystèmes.

Les intelligences artificielles ont longtemps relevé du domaine de la science-fiction, mais pourtant ce domaine des sciences informatiques est aujourd’hui l’objet de moult projet de développement et de recherche. Si, tout comme pour les biotechnologies, les intelligences artificielles permettent d’espérer qu’elles apporteront des améliorations substantives à notre qualité de vie, il faut également s’inquiéter que sans un développement sécuritaire, il existe également la possibilité de développer, intentionnellement ou accidentellement, une intelligence artificielle qui échapperait à notre contrôle. Il va sans dire qu’une telle intelligence artificielle pourraient s’avérer hautement dangereuse pour l’avenir de l’humanité.

Dans les dernières années, les changements climatiques ont fait l’objet de préoccupations grandissantes. Les peuples et les gouvernements du monde entier tentent d’apporter des solutions à ce problème. À défaut de pouvoir régler ce problème, il faut s’attendre à ce que les sécheresses, les inondations, les phénomènes météorologiques extrêmes et l’élévation de la température globale moyenne constitue la nouvelle norme. Dans un tel contexte climatique, il est à prévoir que les crises hydriques, les mouvements migratoires, ainsi que les famines produisent un climat d’instabilité économique capable de multiplier d’augmenter l’intensité des différents conflits armés dans le monde. Les changements climatiques ne pose en eux-même un risque existentiel pour l’humanité, mais l’instabilité et le chaos qu’il risque de provoquer augmente les probabilités que d’autres risques existentielles, tel que des pandémies ou une guerre nucléaire, se réalisent.

Lorsque le train est apparu, plusieurs personnes s’inquiétaient de la capacité du corps humain à résister à des vitesses supérieurs à 50 km/h. Un bon nombre de personne s’inquiétaient également des risques d’électrocution associé à l’utilisation du téléphone lorsqu’il apparut. Certains et certaines affirmèrent même qu’il s’agissait d’une invention du démon. Une multitude de technologies furent l’objet de craintes similaires. Il ne nous semble donc pas nécessaire de s’inquiéter outre mesure des développements technologiques à venir et nous espérons que ces risques existentielles ne se réaliseront jamais. Il est cependant de notre avis qu’afin de minimiser au maximum ces risques, il est de notre devoir, en tant qu’être humain, de ne pas demeurer passif quant à ce qui vient. L’éducation, la recherche et le débat public nous semble les meilleurs moyens afin de garantir que nous ne soyons pas que les observateurs de ce qui s’en vient, mais que nous y jouions un rôle actif afin d’assurer notre pérennité.

This content was first published at futureoflife.org on August 18, 2016.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about ,

If you enjoyed this content, you also might also be interested in:

The Pause Letter: One year later

It has been one year since our 'Pause AI' open letter sparked a global debate on whether we should temporarily halt giant AI experiments.
March 22, 2024

Catastrophic AI Scenarios

Concrete examples of how AI could go wrong
February 1, 2024

Gradual AI Disempowerment

Could an AI takeover happen gradually?
February 1, 2024

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram