Passer au contenu

Politique et recherche

Nous visons à améliorer la gouvernance de l'intelligence artificielle et son intersection avec les risques biologiques, nucléaires et cybernétiques.

Introduction

Améliorer la gouvernance des technologies de transformation

L'équipe politique du FLI s'efforce d'améliorer la gouvernance nationale et internationale de l'IA. Le FLI a investi beaucoup de ressources à cette fin.

En 2017, nous avons créé les Principes d'Asilomar AI, qui ont eu une grande influence. Il s'agit d'un ensemble de principes de gouvernance signés par des milliers d'esprits éminents de la recherche et de l'industrie de l'IA. Plus récemment, notre lettre ouverte de 2023 a suscité un débat mondial sur la place légitime de l'IA dans nos sociétés. Le FLI a témoigné devant le congrès des États-Unis, le Parlement européen et d'autres juridictions importantes.

Projet en vedette

Nous ne devons pas construire l'IA pour remplacer les humains.

Un nouvel essai d'Anthony Aguirre, directeur exécutif du Future of Life Institute

L'humanité est sur le point de développer une intelligence artificielle générale qui la dépasse. Il est temps de fermer les portes de l'AGI et de la superintelligence... avant de perdre le contrôle de notre avenir.

Voir le site
Notre travail

Base de données du projet

Perspectives des religions traditionnelles sur l'avenir positif de l'IA

La majorité de la population mondiale pratique une religion traditionnelle. Pourtant, les perspectives de ces religions sont largement absentes des discussions stratégiques sur l'IA. Cette initiative vise à aider les groupes religieux à exprimer leurs préoccupations et leurs espoirs relatifs à leur foi dans un monde avec l'IA. Elle vise également à coopérer avec eux pour éviter les préjudices et bénéficier des avantages de l'IA.

Sommets sur la sécurité de l'IA

Les gouvernements envisagent de collaborer pour naviguer dans un monde doté d'une IA avancée. FLI leur fournit des conseils et un soutien.

Recherche de normes de sécurité critiques pour l'IA avancée

Notre équipe chargée de la politique américaine conseille les responsables politiques du Congrès et des États sur la manière de garantir que les systèmes d'IA sont sûrs et bénéfiques.

S'engager avec les décrets sur l'IA

Nous apportons une contribution formelle aux agences du gouvernement fédéral américain, y compris une expertise technique et politique sur de nombreuses questions, telles que les contrôles à l'exportation, la gouvernance du matériel, la définition de normes, les marchés publics, etc.

Convergence de l'IA : risques à la croisée de l'IA et des menaces nucléaires, biologiques et cybernétiques

Le caractère à double tranchant des systèmes d'IA peut amplifier celui d'autres technologies - c'est ce que l'on appelle la convergence de l'IA. Nous fournissons une expertise politique aux décideurs américains dans trois domaines essentiels de convergence : biologique, nucléaire et cybernétique.

Mise en œuvre de la loi européenne sur l'IA

Nos principales recommandations consistent à élargir le champ d'application de la loi pour réglementer les systèmes à usage général et elles visent à étendre la définition de la manipulation interdite à tout type de technique de manipulation, ainsi qu'à la manipulation qui cause un préjudice à la société.

Sensibilisation aux armes autonomes létales

Les applications militaires de l'IA se développent rapidement. Nous élaborons des documents pédagogiques sur la manière dont certaines catégories restreintes d'armes utilisant l'IA peuvent nuire à la sécurité nationale et déstabiliser la civilisation, notamment les armes dans lesquelles la décision de tuer est entièrement déléguée à des algorithmes.
Tous nos travaux
Nos contenus

Derniers documents de politique et de recherche

Produit par nous

Normes de sécurité pour des outils d'IA contrôlables et bénéfiques

Février 2025

Cadre pour une utilisation responsable de l'IA dans le domaine nucléaire

Février 2025

FLI Indice de sécurité de l'IA 2024

décembre 2024

Recommandations de FLI pour le sommet d'action sur l'IA

novembre 2024

Télécharger la suite

Tous les documents

Présentation de notre personnel et de nos boursiers

Taxonomie des risques systémiques liés à l'IA généraliste

Risto Uuk, Carlos Ignacio Gutierrez, Lode Lauwaert, Carina Prunkl, Lucia Velasco
Janvier 2025

Atténuations efficaces des risques systémiques liés à l'IA généraliste

Risto Uuk, Annemieke Brouwer, Tim Schreier, Noemi Dreksler, Valeria Pulignano, Rishi Bommasani
Janvier 2025

Examen des arguments populaires contre le risque existentiel de l'IA : une analyse philosophique

Torben Swoboda, Risto Uuk, Lode Lauwaert, Andrew Peter Rebera, Ann-Katrien Oimann, Bartlomiej Chomanski, Carina Prunkl
Janvier 2025

Le référentiel des risques liés à l'IA : Méta-analyse, base de données et taxonomie

Peter Slattery, Alexander K. Saeri, Emily A. C. Grundy, Jess Graham, Michael Noetel, Risto Uuk, James Dao, Soroush Pour, Stephen Casper, Neil Thompson
août 2024

Télécharger la suite

Ressources

Nous fournissons des ressources politiques de haute qualité pour soutenir les décideurs politiques.

Agences fédérales américaines : Cartographie des activités d'IA

Ce guide présente les activités liées à l'IA au sein du pouvoir exécutif américain, en mettant l'accent sur les autorités réglementaires, les budgets et les programmes.
9 Septembre, 2024

Explorateur et vérificateur de conformité à la loi sur l'IA de l'UE

Consultez le texte intégral de la loi sur l'IA en ligne et découvrez en 10 minutes comment la loi sur l'IA vous affectera en répondant à une série de questions simples.
15 janvier, 2024

Site web sur les armes autonomes

L'ère où les algorithmes décident de la vie et de la mort est en marche. Nous devons agir maintenant pour interdire et réglementer ces armes.
20 novembre, 2017

Cible géographique

Où nous trouver

Nous sommes une organisation hybride. La plupart de nos activités politiques ont lieu aux États-Unis (D.C. et en Californie), au sein de l'UE (Bruxelles) et à l'ONU (New York et Genève).

États-Unis

Aux États-Unis, le FLI participe au consortium de l'US AI Safety Institute et promeut la législation sur l'IA au niveau des États et au niveau fédéral.

Union européenne

En Europe, nous nous concentrons sur la mise en œuvre rigoureuse de la loi européenne sur l'IA et sur l'encouragement des États européens à favoriser l'adoption d'un traité sur les armes autonomes.

Nations Unies

À l'ONU, le FLI plaide en faveur d'un traité sur les armes autonomes et d'une nouvelle agence internationale pour gérer l'IA.
Partenaires essentiels

Réalisations

Quelques-unes de nos réalisations

Élaboration des principes d'Asilomar en matière d'IA

En 2017, le FLI a coordonné l'élaboration des principes d'IA d'Asilomar, l'un des premiers ensembles de principes de gouvernance de l'IA et l'un des plus influents.
Voir les principes

Recommandation sur l'IA dans la feuille de route des Nations Unies sur la coopération numérique

Nos recommandations (3C) sur la gouvernance mondiale des technologies de l'IA ont été adoptées dans la feuille de route sur la coopération numérique du secrétaire général des Nations Unies.
Voir la feuille de route

Témoignage de Max Tegmark devant le Parlement européen

Notre fondateur et membre du conseil d'administration, Max Tegmark, a témoigné au Parlement européen sur la réglementation des systèmes d'IA à usage général.
Voir le témoignage
Nos contenus

Articles à la une

Voici une sélection d'articles relatifs à notre travail politique :

Contexte et ordre du jour du sommet pour l'action sur l'IA 2025

Le sommet pour l'action sur l'IA se tiendra à Paris du 10 au 11 février 2025. Voici l'ordre du jour et les principaux résultats attendus.
31 janvier, 2025

FLI Déclaration sur le mémorandum de la Maison Blanche sur la sécurité nationale

La semaine dernière, la Maison Blanche a publié un mémorandum sur la sécurité nationale concernant la gouvernance de l'IA et la gestion des risques. Ce mémorandum fournit des orientations [...]
28 octobre, 2024

Petit-déjeuner sur la sécurité de l'IA à Paris #2 : Dr. Charlotte Stix

Le deuxième de notre série de petits-déjeuners sur la sécurité de l'IA, avec Charlotte Stix sur les évaluations de modèles, les comportements trompeurs de l'IA et les sommets sur la sécurité et l'action en matière d'IA.
14 octobre, 2024

La Chambre des représentants des États-Unis demande la mise en place d'une responsabilité juridique pour les "Deepfakes".

Les récentes déclarations de la Chambre des représentants des États-Unis nous rappellent la menace urgente que représentent les "deepfakes" pour notre société, en particulier à l'approche de l'élection présidentielle américaine.
1 octobre, 2024

Déclaration sur le veto du projet de loi californien SB 1047

"Le lobbying acharné contre le projet de loi ne peut être interprété que d'une seule manière : ces entreprises estiment qu'elles doivent jouer selon leurs propres règles et n'avoir de comptes à rendre à personne. Ce veto ne fait que renforcer cette conviction. Il est temps de légiférer au niveau des États, au niveau fédéral et au niveau mondial pour obliger les grandes entreprises technologiques à respecter leurs engagements.
30 Septembre, 2024

Panda contre aigle

FLIexplique pourquoi l'intérêt national des États-Unis est bien mieux servi par une stratégie de coopération que par une stratégie d'opposition à l'égard de la Chine.
27 Septembre, 2024

Agences fédérales américaines : Cartographie des activités d'IA

Ce guide présente les activités liées à l'IA au sein du pouvoir exécutif américain, en mettant l'accent sur les autorités réglementaires, les budgets et les programmes.
9 Septembre, 2024

Petit-déjeuner sur la sécurité de l'IA à Paris #1 : Stuart Russell

Le premier de notre série de petits-déjeuners sur la sécurité de l'IA, avec Stuart Russell sur les développements significatifs de l'IA, les priorités de la recherche sur l'IA et les sommets sur la sécurité de l'IA.
5 Août, 2024
Nos contenus

Nous contacter

Nous vous mettrons en contact avec la bonne personne.

Nous nous efforçons de répondre à toutes les questions qui nous sont adressées dans un délai de trois jours ouvrables. Notre équipe est répartie dans le monde entier. Nous comptons donc sur votre compréhension. Tenez également compte du fait que la personne que vous contactez ne se trouve peut-être pas dans votre fuseau horaire.
Veuillez adresser les demandes concernant les médias et les interviews de Max Tegmark à press@futureoflife.org. Toutes les autres demandes peuvent être envoyées à l'adresse contact@futureoflife.org.

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention.
cloudmagnifiercroixarrow-up
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram