Passer au contenu

Travail sur la politique

Nous visons à améliorer la gouvernance de l'IA dans les applications civiles, les armes autonomes et les lancements d'armes nucléaires.

Introduction

Améliorer la gouvernance des technologies de transformation

L'équipe politique du FLI s'efforce d'améliorer la gouvernance nationale et internationale de l'IA. Le FLI a investi beaucoup de ressources à cette fin.

En 2017, nous avons créé les Principes d'Asilomar AI, qui ont eu une grande influence. Il s'agit d'un ensemble de principes de gouvernance signés par des milliers d'esprits éminents de la recherche et de l'industrie de l'IA. Plus récemment, notre lettre ouverte de 2023 a suscité un débat mondial sur la place légitime de l'IA dans nos sociétés. Le FLI a témoigné devant le congrès des États-Unis, le Parlement européen et d'autres juridictions importantes.

Dans le domaine civil, nous conseillons les décideurs politiques sur la meilleure façon de gérer les systèmes d'IA avancés. Dans le domaine militaire, nous plaidons aux Nations Unies en faveur d'un traité sur les armes autonomes et nous informons les décideurs politiques des risques liés à l'intégration de systèmes d'IA dans le lancement d'armes nucléaires.

Notre travail

Projets politiques

Lutter contre les "deepfakes

2024 se transforme rapidement en l'année du "Fake" (faux). Dans le cadre d'une coalition croissante d'organisations concernées, le FLI appelle les législateurs à prendre des mesures significatives pour perturber la chaîne d'approvisionnement des "deepfakes" générés par l'IA.

Sommets sur la sécurité de l'IA

Les gouvernements coopèrent de plus en plus pour assurer la sécurité de l'IA. Le FLI soutient et encourage ces efforts.

Élaboration de règles possibles en matière d'IA pour les États-Unis

Notre équipe chargée de la politique américaine conseille les responsables politiques du Congrès et des États sur la manière de garantir que les systèmes d'IA sont sûrs et bénéfiques.

S'engager en faveur du décret sur l'IA

Nous apportons une contribution formelle aux agences du gouvernement fédéral américain, y compris une expertise technique et politique sur de nombreuses questions, telles que les contrôles à l'exportation, la gouvernance du matériel, la définition de normes, les marchés publics, etc.

Convergence de l'IA : risques à la croisée de l'IA et des menaces nucléaires, biologiques et cybernétiques

Le caractère à double tranchant des systèmes d'IA peut amplifier celui d'autres technologies - c'est ce que l'on appelle la convergence de l'IA. Nous fournissons une expertise politique aux décideurs américains dans trois domaines essentiels de convergence : biologique, nucléaire et cybernétique.

Renforcement du règlement européen sur l'IA

Nos principales recommandations consistent à élargir le champ d'application de la loi pour réglementer les systèmes à usage général et elles visent à étendre la définition de la manipulation interdite à tout type de technique de manipulation, ainsi qu'à la manipulation qui cause un préjudice à la société.

Sensibilisation aux armes autonomes létales

Les applications militaires de l'IA se développent rapidement. Nous élaborons des documents pédagogiques sur la manière dont certaines catégories restreintes d'armes utilisant l'IA peuvent nuire à la sécurité nationale et déstabiliser la civilisation, notamment les armes dans lesquelles la décision de tuer est entièrement déléguée à des algorithmes.

Gouvernance mondiale de l'IA à l'ONU

Notre participation aux travaux des Nations Unies s'étend sur plusieurs années et comprend plusieurs initiatives, y compris la feuille de route pour la coopération numérique et le pacte mondial pour le numérique (GDC).
Tous nos travaux
Nos contenus

Derniers documents de politique générale

RfC on BIS Rule for 'Establishment of Reporting Requirements for Advanced AI Models and Computing Clusters' (en anglais)

octobre 2024

Passer de la vision à l'action : Mise en œuvre de la feuille de route du Sénat sur l'IA

Juin 2024

Amendements recommandés aux propositions législatives sur les "Deepfakes"

mai 2024

Réponse du FLI à l'OMB : demande d'informations sur l'acquisition responsable d'intelligence artificielle au sein du gouvernement

avril 2024

Télécharger la suite

Tous les documents

Cible géographique

Où nous trouver

Nous sommes une organisation hybride. La plupart de nos activités politiques ont lieu aux États-Unis (D.C. et en Californie), au sein de l'UE (Bruxelles) et à l'ONU (New York et Genève).

États-Unis

Aux États-Unis, le FLI participe au consortium de l'US AI Safety Institute et promeut la législation sur l'IA au niveau des États et au niveau fédéral.

Union européenne

En Europe, nous nous concentrons sur la mise en œuvre rigoureuse de la loi européenne sur l'IA et sur l'encouragement des États européens à favoriser l'adoption d'un traité sur les armes autonomes.

Nations Unies

À l'ONU, le FLI plaide en faveur d'un traité sur les armes autonomes et d'une nouvelle agence internationale pour gérer l'IA.
Partenaires essentiels

Réalisations

Quelques-unes de nos réalisations

Élaboration des principes d'Asilomar en matière d'IA

En 2017, le FLI a coordonné l'élaboration des principes d'IA d'Asilomar, l'un des premiers ensembles de principes de gouvernance de l'IA et l'un des plus influents.
Voir les principes

Recommandation sur l'IA dans la feuille de route des Nations Unies sur la coopération numérique

Nos recommandations (3C) sur la gouvernance mondiale des technologies de l'IA ont été adoptées dans la feuille de route sur la coopération numérique du secrétaire général des Nations Unies.
Voir la feuille de route

Témoignage de Max Tegmark devant le Parlement européen

Notre fondateur et membre du conseil d'administration, Max Tegmark, a témoigné au Parlement européen sur la réglementation des systèmes d'IA à usage général.
Voir le témoignage
Nos contenus

Articles à la une

Voici une sélection d'articles relatifs à notre travail politique :

Petit-déjeuner sur la sécurité de l'IA à Paris #2 : Dr. Charlotte Stix

Le deuxième de notre série de petits-déjeuners sur la sécurité de l'IA, avec Charlotte Stix sur les évaluations de modèles, les comportements trompeurs de l'IA et les sommets sur la sécurité et l'action en matière d'IA.
14 octobre, 2024

La Chambre des représentants des États-Unis demande la mise en place d'une responsabilité juridique pour les "Deepfakes".

Les récentes déclarations de la Chambre des représentants des États-Unis nous rappellent la menace urgente que représentent les "deepfakes" pour notre société, en particulier à l'approche de l'élection présidentielle américaine.
1 octobre, 2024

Déclaration sur le veto du projet de loi californien SB 1047

"Le lobbying acharné contre le projet de loi ne peut être interprété que d'une seule manière : ces entreprises estiment qu'elles doivent jouer selon leurs propres règles et n'avoir de comptes à rendre à personne. Ce veto ne fait que renforcer cette conviction. Il est temps de légiférer au niveau des États, au niveau fédéral et au niveau mondial pour obliger les grandes entreprises technologiques à respecter leurs engagements.
30 Septembre, 2024

Panda contre aigle

FLIexplique pourquoi l'intérêt national des États-Unis est bien mieux servi par une stratégie de coopération que par une stratégie d'opposition à l'égard de la Chine.
27 Septembre, 2024

Agences fédérales américaines : Cartographie des activités d'IA

Ce guide présente les activités liées à l'IA au sein du pouvoir exécutif américain, en mettant l'accent sur les autorités réglementaires, les budgets et les programmes.
9 Septembre, 2024

Petit-déjeuner sur la sécurité de l'IA à Paris #1 : Stuart Russell

Le premier de notre série de petits-déjeuners sur la sécurité de l'IA, avec Stuart Russell sur les développements significatifs de l'IA, les priorités de la recherche sur l'IA et les sommets sur la sécurité de l'IA.
5 Août, 2024

L'Artist Rights Alliance et Annie Lennox s'expriment dans le cadre de la campagne "Ban Deepfakes".

Lennox déclare : "nous devons demander des comptes aux entreprises technologiques dont les modèles d'IA permettent ce préjudice".
2 Août, 2024

Un sondage montre que la loi SB1047 de l'État de Californie sur la réglementation de l'IA jouit d'une large popularité

Un nouveau sondage de l'AI Policy Institute montre un soutien large et massif au projet de loi SB1047, qui vise à évaluer le risque de dommages catastrophiques posés par les modèles d'IA.
23 Juillet, 2024
Nos contenus

Nous contacter

Nous vous mettrons en contact avec la bonne personne.

Nous nous efforçons de répondre à toutes les questions qui nous sont adressées dans un délai de trois jours ouvrables. Notre équipe est répartie dans le monde entier. Nous comptons donc sur votre compréhension. Tenez également compte du fait que la personne que vous contactez ne se trouve peut-être pas dans votre fuseau horaire.
Veuillez adresser les demandes concernant les médias et les interviews de Max Tegmark à press@futureoflife.org. Toutes les autres demandes peuvent être envoyées à l'adresse contact@futureoflife.org.

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram