Politique et recherche
Introduction
Améliorer la gouvernance des technologies de transformation
L'équipe politique du FLI s'efforce d'améliorer la gouvernance nationale et internationale de l'IA. Le FLI a investi beaucoup de ressources à cette fin.
En 2017, nous avons créé les Principes d'Asilomar AI, qui ont eu une grande influence. Il s'agit d'un ensemble de principes de gouvernance signés par des milliers d'esprits éminents de la recherche et de l'industrie de l'IA. Plus récemment, notre lettre ouverte de 2023 a suscité un débat mondial sur la place légitime de l'IA dans nos sociétés. Le FLI a témoigné devant le congrès des États-Unis, le Parlement européen et d'autres juridictions importantes.


Nous ne devons pas construire l'IA pour remplacer les humains.
L'humanité est sur le point de développer une intelligence artificielle générale qui la dépasse. Il est temps de fermer les portes de l'AGI et de la superintelligence... avant de perdre le contrôle de notre avenir.
Base de données du projet

Perspectives des religions traditionnelles sur l'avenir positif de l'IA

Sommets sur la sécurité de l'IA

Recherche de normes de sécurité critiques pour l'IA avancée

S'engager avec les décrets sur l'IA

Convergence de l'IA : risques à la croisée de l'IA et des menaces nucléaires, biologiques et cybernétiques

Mise en œuvre de la loi européenne sur l'IA

Sensibilisation aux armes autonomes létales
Derniers documents de politique et de recherche
Produit par nous

Normes de sécurité pour des outils d'IA contrôlables et bénéfiques

Cadre pour une utilisation responsable de l'IA dans le domaine nucléaire

FLI Indice de sécurité de l'IA 2024

Recommandations de FLI pour le sommet d'action sur l'IA
Télécharger la suite
Présentation de notre personnel et de nos boursiers
Taxonomie des risques systémiques liés à l'IA généraliste
Atténuations efficaces des risques systémiques liés à l'IA généraliste
Examen des arguments populaires contre le risque existentiel de l'IA : une analyse philosophique
Le référentiel des risques liés à l'IA : Méta-analyse, base de données et taxonomie
Télécharger la suite
Nous fournissons des ressources politiques de haute qualité pour soutenir les décideurs politiques.

Agences fédérales américaines : Cartographie des activités d'IA

Explorateur et vérificateur de conformité à la loi sur l'IA de l'UE

Site web sur les armes autonomes
Cible géographique
Où nous trouver

États-Unis

Union européenne

Nations Unies
Réalisations
Quelques-unes de nos réalisations

Élaboration des principes d'Asilomar en matière d'IA

Recommandation sur l'IA dans la feuille de route des Nations Unies sur la coopération numérique

Témoignage de Max Tegmark devant le Parlement européen
Articles à la une

Contexte et ordre du jour du sommet pour l'action sur l'IA 2025

FLI Déclaration sur le mémorandum de la Maison Blanche sur la sécurité nationale

Petit-déjeuner sur la sécurité de l'IA à Paris #2 : Dr. Charlotte Stix

La Chambre des représentants des États-Unis demande la mise en place d'une responsabilité juridique pour les "Deepfakes".

Déclaration sur le veto du projet de loi californien SB 1047

Panda contre aigle

Agences fédérales américaines : Cartographie des activités d'IA
