Passer au contenu
projet

Sommets sur la sécurité de l'IA

Les gouvernements coopèrent de plus en plus pour assurer la sécurité de l'IA. Le FLI soutient et encourage ces efforts.
Bletchley Park, où se tiendra le sommet britannique sur la sécurité de l'IA en 2023.

Que sont les sommets sur la sécurité de l'IA ?

Les sommets sur la sécurité de l'IA sont des réunions internationales semestrielles, organisées par les États pour discuter de la sécurité et de la réglementation de l'intelligence artificielle, en particulier des systèmes d'IA avancés.

Le premier sommet sur la sécurité de l'IA a été organisé par le Royaume-Uni à Bletchley Park en novembre 2023.

Après le deuxième sommet sur la sécurité de l'IA qui s'est tenu à Séoul les 21 et 22 mai 2024, la France a été désignée pour accueillir le troisième sommet en février 2025.

Pourquoi les sommets sont-ils importants ?

Les grandes entreprises sont engagées dans une course au développement de systèmes d'IA de plus en plus avancés. Ceux-ci peuvent être utilisés à mauvais escient par des groupes malveillants, afin de mener des cyberattaques sur les infrastructures numériques ou de créer de nouvelles armes biochimiques. Ces avancées technologiques risquent également de concentrer le pouvoir au sein d'un nombre limité d'entreprises privées. L'intervention des gouvernements et la coordination internationale sont essentielles pour minimiser ces risques.

Les sommets sur la sécurité sont des opportunités indispensables pour la gouvernance de l'IA : ils permettent une coopération internationale basée sur des résultats concrets. Par exemple, l'un des objectifs du premier sommet sur la sécurité de l'IA était de développer une compréhension commune des risques posés par les systèmes d'IA avancée. En conséquence, un groupe d'experts internationaux a rédigé le Rapport international sur la sécurité de l'IA : un rapport scientifique actualisé sur la sécurité des systèmes d'IA avancée.

Quel est l'engagement du FLI dans les sommets ?

Dans la période précédant les sommets, le FLI aide les organisateurs et les autres pays participants en leur fournissant des informations essentielles sur les progrès de l'IA, ainsi que des recommandations sur la manière d'améliorer la coopération en matière de sécurité de l'IA.

Recommandations provisoires de FLI pour le Sommet pour l’Action sur l’IA

novembre 2024

Nos recommandations pour le Sommet d'action sur l'IA, qui se tiendra en France du 10 au 11 février 2025.

Nous définissons un cadre stratégique pour la gouvernance mondiale de l'IA, en donnant la priorité à la collaboration internationale et à l'élaboration de normes de sécurité claires. Ces recommandations se concentrent sur une approche globale dans trois domaines essentiels : comprendre les risques de l'IA (science), encourager la coopération mondiale (solutions) et établir des normes internationales solides (normes).

Voir les recommandations

Recommandations du FLI pour le sommet britannique sur la sécurité de l'IA

septembre 2023

Dans la perspective du sommet britannique sur la sécurité de l'IA, qui se tiendra à Bletchley Park les 1er et 2 novembre 2023, le FLI a rédigé et publié un document présentant des recommandations essentielles. Il contient :

  • Une proposition de déclaration sur la sécurité de l'IA, à faire signer par les participants.
  • Les principales recommandations de certains gouvernements avant le sommet.
  • Une proposition d'ordre du jour du sommet, avec des sujets primordiaux à inclure.
  • Une feuille de route post-sommet, qui décrit les actions nécessaires à entreprendre après l'événement.

Voir les recommandations

Fiche d'évaluation du FLI et politique en matière de normes de sécurité

octobre 2023

Le FLI a également produit un bulletin d'évaluation destiné à cartographier le paysage de la gouvernance à l'approche du sommet britannique sur la sécurité de l'IA. De plus, il a défini une politique sur les normes de sécurité (SSP), leur fournissant ainsi un cadre juridique, ainsi que des mesures et une supervision efficaces.

Voir le bulletin d'évaluation et la politique

Petits déjeuners de sécurité de l'IA à Paris

NOUVEAU : septembre 2024

Le sommet pour l'action sur l'IA se tiendra en février 2025. Cette série d'événements vise à stimuler les discussions relatives au sommet sur la sécurité pour les publics anglophones et francophones, et à réunir des experts et des passionnés dans le domaine pour échanger des idées et des perspectives.

En savoir plus ou s'inscrire pour être informé des prochains petits-déjeuners sur la sécurité de l'IA

Ima (Imane Bello) est chargée des sommets sur la sécurité de l'IA pour le site Future of Life Institute (FLI).

Nos contenus

Contenus associés

Si vous avez aimé cet article, vous pourriez aussi aimer :

Petit-déjeuner sur la sécurité de l'IA à Paris #2 : Dr. Charlotte Stix

Le deuxième de notre série de petits-déjeuners sur la sécurité de l'IA, avec Charlotte Stix sur les évaluations de modèles, les comportements trompeurs de l'IA et les sommets sur la sécurité et l'action en matière d'IA.
14 octobre, 2024

Petit-déjeuner sur la sécurité de l'IA à Paris #1 : Stuart Russell

Le premier de notre série de petits-déjeuners sur la sécurité de l'IA, avec Stuart Russell sur les développements significatifs de l'IA, les priorités de la recherche sur l'IA et les sommets sur la sécurité de l'IA.
5 Août, 2024

Déclaration sur la sécurité de l'IA à l'approche du sommet de Séoul

Nous formulons quelques recommandations pour le prochain sommet sur la sécurité de l'IA, qui se tiendra à Séoul, notamment sur la nomination d'un coordinateur pour les coopérations entre les instituts de sécurité de l'IA.
20 mai, 2024
Nos contenus
Notre travail

Autres projets dans ce domaine

Nous travaillons sur une série de projets dans quelques domaines clés. Consultez certains de nos autres projets dans ce domaine :

Lutter contre les "deepfakes

2024 se transforme rapidement en l'année du "Fake" (faux). Dans le cadre d'une coalition croissante d'organisations concernées, le FLI appelle les législateurs à prendre des mesures significatives pour perturber la chaîne d'approvisionnement des "deepfakes" générés par l'IA.

Élaboration de règles possibles en matière d'IA pour les États-Unis

Notre équipe chargée de la politique américaine conseille les responsables politiques du Congrès et des États sur la manière de garantir que les systèmes d'IA sont sûrs et bénéfiques.
Notre travail

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram