Intelligence artificielle


Nous ne devons pas construire l'IA pour remplacer les humains.
L'humanité est sur le point de développer une intelligence artificielle générale qui la dépasse. Il est temps de fermer les portes de l'AGI et de la superintelligence... avant de perdre le contrôle de notre avenir.
L'intelligence artificielle est en plein essor. Les entreprises créent de plus en plus de systèmes d'IA polyvalents et capables d'effectuer de nombreuses tâches différentes. Les grands modèles de langage (LLM) peuvent composer de la poésie, créer des recettes de cuisine et des codes de logiciels. Certains de ces modèles présentent déjà des risques majeurs, tels que l'érosion des processus démocratiques, la généralisation des préjugés et de la désinformation, ainsi qu'une course aux armes autonomes. Mais le pire est à venir.
Les capacités des systèmes d'IA ne cesseront de croître. Les entreprises s'intéressent activement à l'"intelligence artificielle générale" (AGI), qui peut être aussi performante, voire meilleure, que l'être humain pour de très nombreuses tâches. Ces entreprises promettent des avantages sans précédent, allant de la guérison du cancer à l'éradication de la pauvreté dans le monde. En revanche, plus de la moitié des experts en IA estiment qu'il y a une chance sur dix que cette technologie engendre notre extinction.
Cette conviction n'a rien à voir avec les robots maléfiques ou les machines intelligentes que l'on voit dans la science-fiction. À court terme, l'IA avancée pourra permettre à ceux qui cherchent à nuire - les bioterroristes, par exemple - d'exécuter facilement des tâches de traitement complexes sans réfléchir.
À plus long terme, nous ne devrions pas nous focaliser sur une méthode de nuisance spécifique, car les risques proviennent d'une intelligence supérieure. Il suffit de penser à la façon dont l'être humain domine les animaux moins intelligents sans utiliser d'arme particulière, ou à la façon dont un programme d'échecs d'IA bat les joueurs humains sans se baser sur un coup spécifique.
Les militaires pourraient perdre le contrôle d'un système très performant conçu pour nuire, ce qui aurait pour conséquence un impact dévastateur. Un système d'IA avancé, utilisé pour maximiser les profits d'une entreprise, pourrait employer des méthodes drastiques et imprévisibles. Même une IA programmée pour faire quelque chose d'altruiste pourrait poursuivre une méthode destructrice pour atteindre cet objectif. Nous n'avons actuellement aucun moyen de savoir comment les systèmes d'IA agiront, car personne, pas même leurs créateurs, ne comprend leur fonctionnement.
La sécurité de l'IA est devenue une préoccupation majeure. Les experts et le grand public expriment la même inquiétude face aux risques émergents et à la nécessité urgente de les gérer. Mais s'inquiéter ne suffit pas. Nous avons besoin de politiques pour faire en sorte que le développement de l'IA améliore les conditions de vie partout dans le monde, et ne se contente pas d'accroître les profits des entreprises. Nous avons besoin d'une gouvernance appropriée, donc d'une réglementation rigoureuse et d'institutions capables d'orienter cette technologie de transformation en évitant les risques extrêmes et en la mettant au service de l'humanité.
Autres domaines d'intervention

Armes nucléaires

Biotechnologie
Contenu récent sur l'intelligence artificielle
Articles

Sommes-nous proches d'une explosion du renseignement ?

L'impact de l'IA sur l'éducation : Naviguer dans l'avenir imminent

Une perspective bouddhiste sur l'IA : cultiver la liberté d'attention et la véritable diversité dans un avenir dominé par l'IA

Pourrait-on désactiver une IA dangereuse ?

Publication de l'indice de sécurité de l'IA

Pourquoi les agents d'intelligence artificielle doivent-ils vous intéresser ?

Max Tegmark sur le projet AGI Manhattan

FLI Déclaration sur le mémorandum de la Maison Blanche sur la sécurité nationale
Ressources

Agences fédérales américaines : Cartographie des activités d'IA

Scénarios catastrophes de l'IA

Ressources préliminaires sur les risques liés à l'IA

Ressources sur la politique en matière d'IA
Documents de politique générale

Guide du collaborateur sur la politique en matière d'IA : Commissions du Congrès et législation pertinente

Recommandations pour le plan d'action américain en matière d'IA

Normes de sécurité pour des outils d'IA contrôlables et bénéfiques

FLI Indice de sécurité de l'IA 2024
Vidéos
Podcasts

Lettres ouvertes
Lettre ouverte appelant les dirigeants mondiaux à adopter un leadership à long terme face aux menaces existentielles
L'octroi de licences d'IA pour un avenir meilleur : S'attaquer aux préjudices actuels et aux menaces émergentes
Mettre en pause les expériences d'IA de grande envergure : lettre ouverte
Lettre ouverte sur la prévoyance en matière de réglementation de l'IA
Future of Life Awards
