Politique et recherche
Introduction
Améliorer la gouvernance des technologies de transformation
L'équipe politique du FLI s'efforce d'améliorer la gouvernance nationale et internationale de l'IA. Le FLI a investi beaucoup de ressources à cette fin.
En 2017, nous avons créé les Principes d'Asilomar AI, qui ont eu une grande influence. Il s'agit d'un ensemble de principes de gouvernance signés par des milliers d'esprits éminents de la recherche et de l'industrie de l'IA. Plus récemment, notre lettre ouverte de 2023 a suscité un débat mondial sur la place légitime de l'IA dans nos sociétés. Le FLI a témoigné devant le congrès des États-Unis, le Parlement européen et d'autres juridictions importantes.

Comment l'IA pourrait-elle transformer notre monde ?
Tomorrow's AI est un site qui raconte des histoires et propose 13 scénarios interactifs, étayés par des recherches, qui montrent comment l'IA avancée pourrait transformer le monde, pour le meilleur et pour le pire. Le projet allie réalisme et prospective pour illustrer à la fois les défis à relever pour s'orienter vers un avenir positif et les possibilités qui s'offrent à nous si nous réussissons. Les lecteurs sont invités à se forger leur propre opinion sur les voies que l'humanité devrait emprunter.
Base de données du projet

Les perspectives des religions traditionnelles sur des avenirs positifs avec l'IA

Recommandations pour le plan d'action américain en matière d'IA

Indice de sécurité FLI AI : Édition de l'été 2025
Convergence de l'IA : risques à la croisée de l'IA et des menaces nucléaires, biologiques et cybernétiques

Sommets sur la sécurité de l'IA

S'engager avec les décrets sur l'IA

Mise en œuvre de la loi européenne sur l'IA

Sensibilisation aux armes autonomes
Derniers documents de politique et de recherche
Produit par nous
Guide du collaborateur sur la politique en matière d'IA : Commissions du Congrès et législation pertinente
Recommandations pour le plan d'action américain en matière d'IA
Normes de sécurité pour des outils d'IA contrôlables et bénéfiques
Cadre pour une utilisation responsable de l'IA dans le domaine nucléaire
Télécharger la suite
Présentation de notre personnel et de nos boursiers
Taxonomie des risques systémiques liés à l'IA généraliste
Atténuations efficaces des risques systémiques liés à l'IA généraliste
Examen des arguments populaires contre le risque existentiel de l'IA : une analyse philosophique
Le référentiel des risques liés à l'IA : Méta-analyse, base de données et taxonomie
Télécharger la suite
Nous fournissons des ressources politiques de haute qualité pour soutenir les décideurs politiques.

Agences fédérales américaines : Cartographie des activités d'IA

Explorateur et vérificateur de conformité à la loi sur l'IA de l'UE
Site web sur les armes autonomes
Cible géographique
Où nous trouver

États-Unis

Union européenne

Nations Unies
Réalisations
Quelques-unes de nos réalisations

Élaboration des principes d'Asilomar en matière d'IA

Recommandation sur l'IA dans la feuille de route des Nations Unies sur la coopération numérique

Témoignage de Max Tegmark devant le Parlement européen
Articles à la une

Contexte et ordre du jour du sommet pour l'action sur l'IA 2025

FLI Déclaration sur le mémorandum de la Maison Blanche sur la sécurité nationale

Petit-déjeuner sur la sécurité de l'IA à Paris #2 : Dr. Charlotte Stix

La Chambre des représentants des États-Unis demande la mise en place d'une responsabilité juridique pour les "Deepfakes".

Déclaration sur le veto du projet de loi californien SB 1047

Panda contre aigle







