Passer au contenu
Domaine d'intervention

Intelligence artificielle

Des algorithmes de recommandation aux chatbots en passant par les voitures autonomes, l'IA est en train de changer nos vies. Au fur et à mesure que l'impact de cette technologie s'accroît, les risques augmentent.
Pleins feux sur

Nous ne devons pas construire l'IA pour remplacer les humains.

Un nouvel essai d'Anthony Aguirre, directeur exécutif du Future of Life Institute

L'humanité est sur le point de développer une intelligence artificielle générale qui la dépasse. Il est temps de fermer les portes de l'AGI et de la superintelligence... avant de perdre le contrôle de notre avenir.

Voir le site

L'intelligence artificielle est en plein essor. Les entreprises créent de plus en plus de systèmes d'IA polyvalents et capables d'effectuer de nombreuses tâches différentes. Les grands modèles de langage (LLM) peuvent composer de la poésie, créer des recettes de cuisine et des codes de logiciels. Certains de ces modèles présentent déjà des risques majeurs, tels que l'érosion des processus démocratiques, la généralisation des préjugés et de la désinformation, ainsi qu'une course aux armes autonomes. Mais le pire est à venir.

Les capacités des systèmes d'IA ne cesseront de croître. Les entreprises s'intéressent activement à l'"intelligence artificielle générale" (AGI), qui peut être aussi performante, voire meilleure, que l'être humain pour de très nombreuses tâches. Ces entreprises promettent des avantages sans précédent, allant de la guérison du cancer à l'éradication de la pauvreté dans le monde. En revanche, plus de la moitié des experts en IA estiment qu'il y a une chance sur dix que cette technologie engendre notre extinction.

Cette conviction n'a rien à voir avec les robots maléfiques ou les machines intelligentes que l'on voit dans la science-fiction. À court terme, l'IA avancée pourra permettre à ceux qui cherchent à nuire - les bioterroristes, par exemple - d'exécuter facilement des tâches de traitement complexes sans réfléchir.

À plus long terme, nous ne devrions pas nous focaliser sur une méthode de nuisance spécifique, car les risques proviennent d'une intelligence supérieure. Il suffit de penser à la façon dont l'être humain domine les animaux moins intelligents sans utiliser d'arme particulière, ou à la façon dont un programme d'échecs d'IA bat les joueurs humains sans se baser sur un coup spécifique.

Les militaires pourraient perdre le contrôle d'un système très performant conçu pour nuire, ce qui aurait pour conséquence un impact dévastateur. Un système d'IA avancé, utilisé pour maximiser les profits d'une entreprise, pourrait employer des méthodes drastiques et imprévisibles. Même une IA programmée pour faire quelque chose d'altruiste pourrait poursuivre une méthode destructrice pour atteindre cet objectif. Nous n'avons actuellement aucun moyen de savoir comment les systèmes d'IA agiront, car personne, pas même leurs créateurs, ne comprend leur fonctionnement.

La sécurité de l'IA est devenue une préoccupation majeure. Les experts et le grand public expriment la même inquiétude face aux risques émergents et à la nécessité urgente de les gérer. Mais s'inquiéter ne suffit pas. Nous avons besoin de politiques pour faire en sorte que le développement de l'IA améliore les conditions de vie partout dans le monde, et ne se contente pas d'accroître les profits des entreprises. Nous avons besoin d'une gouvernance appropriée, donc d'une réglementation rigoureuse et d'institutions capables d'orienter cette technologie de transformation en évitant les risques extrêmes et en la mettant au service de l'humanité.

Domaines d'intervention

Autres domaines d'intervention

Explorez les autres domaines d'action que nous considérons comme les plus urgents :

Armes nucléaires

Près de quatre-vingts ans après leur apparition, les risques causés par les armes nucléaires sont plus élevés que jamais, et de nouvelles recherches révèlent que les conséquences sont encore plus graves qu'on ne le pensait auparavant.

Biotechnologie

Qu'il s'agisse de la propagation accidentelle d'agents pathogènes modifiés ou de l'échec d'une expérience de modification génétique, les dangers de la biotechnologie sont trop importants pour que nous puissions agir à l'aveugle.
Nos contenus

Contenu récent sur l'intelligence artificielle

Articles

Sommes-nous proches d'une explosion du renseignement ?

Les IA se rapprochent de plus en plus d'un seuil critique. Au-delà de ce seuil, les risques sont grands, mais son franchissement n'est pas inéluctable.
21 Mars, 2025

L'impact de l'IA sur l'éducation : Naviguer dans l'avenir imminent

Que faut-il prendre en compte pour construire un avenir sûr mais efficace pour l'IA dans l'éducation, et pour que les enfants soient en sécurité en ligne ?
13 Février, 2025

Une perspective bouddhiste sur l'IA : cultiver la liberté d'attention et la véritable diversité dans un avenir dominé par l'IA

Certains prétendent que la révolution de l'intelligence facilitée par l'IA met l'humanité sur la voie d'un avenir utopique de satisfaction presque sans effort et de choix sans friction. Nous devons nous méfier.
20 janvier, 2025

Pourrait-on désactiver une IA dangereuse ?

De nouvelles recherches confirment les inquiétudes de longue date concernant la difficulté de contraindre les systèmes d'intelligence artificielle puissants.
27 Décembre, 2024

Publication de l'indice de sécurité de l'IA

Le site Future of Life Institute a publié son premier tableau de bord de la sécurité des principales entreprises d'IA. Il en ressort que nombre d'entre elles ne prennent pas en compte les problèmes de sécurité, tandis que certaines ont pris des mesures initiales modestes dans la bonne direction.
11 Décembre, 2024

Pourquoi les agents d'intelligence artificielle doivent-ils vous intéresser ?

De puissants agents d'intelligence artificielle sont sur le point d'arriver sur le marché. Nous en explorons ici les implications.
4 Décembre, 2024

Max Tegmark sur le projet AGI Manhattan

Un nouveau rapport destiné au Congrès recommande que les États-Unis lancent un "projet Manhattan" pour développer l'intelligence artificielle générale. Ce serait une course au suicide.
20 novembre, 2024

FLI Déclaration sur le mémorandum de la Maison Blanche sur la sécurité nationale

La semaine dernière, la Maison Blanche a publié un mémorandum sur la sécurité nationale concernant la gouvernance de l'IA et la gestion des risques. Ce mémorandum fournit des orientations [...]
28 octobre, 2024

Ressources

Agences fédérales américaines : Cartographie des activités d'IA

Ce guide présente les activités liées à l'IA au sein du pouvoir exécutif américain, en mettant l'accent sur les autorités réglementaires, les budgets et les programmes.
9 Septembre, 2024

Scénarios catastrophes de l'IA

Des exemples concrets de risques de dérives de l'IA
1 Février, 2024

Ressources préliminaires sur les risques liés à l'IA

Pourquoi les gens sont-ils si inquiets au sujet de l'IA ?
18 Septembre, 2023
pile de papiers d'impression

Ressources sur la politique en matière d'IA

Les ressources qui décrivent et répondent aux défis politiques générés par l'IA sont en constante évolution. Cette page a pour but de vous aider à rester à jour en répertoriant certaines des meilleures ressources actuellement disponibles.
21 Mars, 2023

Documents de politique générale

Guide du collaborateur sur la politique en matière d'IA : Commissions du Congrès et législation pertinente

Mars 2025

Recommandations pour le plan d'action américain en matière d'IA

Mars 2025

Normes de sécurité pour des outils d'IA contrôlables et bénéfiques

Février 2025

FLI Indice de sécurité de l'IA 2024

décembre 2024

Lettres ouvertes

Signataires
2672

Lettre ouverte appelant les dirigeants mondiaux à adopter un leadership à long terme face aux menaces existentielles

The Elders, le Future of Life Institute et un large éventail de cosignataires appellent les décideurs à s'attaquer d'urgence aux impacts actuels et aux risques croissants de la crise climatique, des pandémies, des armes nucléaires et de l’IA incontrôlée.
14 Février, 2024
Signataires
Fermé

L'octroi de licences d'IA pour un avenir meilleur : S'attaquer aux préjudices actuels et aux menaces émergentes

Cette lettre ouverte conjointe d'Encode Justice et du site Future of Life Institute appelle à la mise en œuvre de trois politiques américaines concrètes afin de remédier aux méfaits actuels et futurs de l'IA.
25 octobre, 2023
Signataires
31810

Mettre en pause les expériences d'IA de grande envergure : lettre ouverte

Nous appelons tous les laboratoires d'IA à suspendre immédiatement l'entraînement des systèmes d'IA plus puissants que GPT-4 pour une durée d'au moins 6 mois.
22 Mars, 2023
Signataires
Fermé

Lettre ouverte sur la prévoyance en matière de réglementation de l'IA

L'émergence de l'intelligence artificielle (IA) laisse présager des changements spectaculaires dans nos structures économiques et sociales, ainsi que dans la vie quotidienne [...]
14 juin, 2020

Future of Life Awards

Prix "Future Of Life 2024

Trois chercheurs et universitaires de premier plan ont été honorés par le site Future of Life Institute pour avoir jeté les bases de l'éthique moderne et des considérations de sécurité pour l'intelligence artificielle et les ordinateurs.
Gagnants
James H. Moor, Batya Friedman, Steve Omohundro
Sujet
Pour avoir jeté les bases de l'éthique informatique moderne et de la sécurité de l'IA

S'abonner à la newsletter du Future of Life Institute

Rejoignez plus de 40 000 personnes qui reçoivent régulièrement des nouvelles de notre travail et de nos domaines d'action.
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram