Passer au contenu
projet

Sommets sur la sécurité de l'IA

Les gouvernements envisagent de collaborer pour naviguer dans un monde doté d'une IA avancée. FLI leur fournit des conseils et un soutien.
Bletchley Park, où se tiendra le sommet britannique sur la sécurité de l'IA en 2023.

Que sont les sommets sur la sécurité de l'IA ?

Les sommets sur la sécurité de l'IA sont des réunions internationales biannuelles organisées par les États afin de discuter de la sécurité et de la réglementation de l'intelligence artificielle, en particulier des systèmes d'IA avancés. Le premier sommet sur la sécurité de l'IA a été organisé par le Royaume-Uni à Bletchley Park en novembre 2023. À la suite du deuxième sommet sur la sécurité de l'IA, qui s'est tenu à Séoul les 21 et 22 mai 2024, la France a été désignée pour accueillir la troisième édition en février 2025.

Pourquoi les sommets sont-ils importants ?

Les grandes entreprises se livrent à une course effrénée pour développer des systèmes d'IA toujours plus avancés, qui peuvent être détournés par des groupes malveillants pour mener des cyberattaques contre les infrastructures numériques ou créer de nouvelles armes biochimiques. Ces avancées technologiques risquent également de concentrer le pouvoir entre les mains d'un nombre limité d'entreprises privées. L'intervention des pouvoirs publics et la coordination internationale sont essentielles pour atténuer ces risques. Les sommets sur la sécurité constituent des occasions clés pour la gouvernance de l'IA : ils permettent une coopération internationale sur des résultats concrets. Par exemple, l'un des objectifs du premier sommet sur la sécurité de l'IA était de développer une compréhension commune à l'échelle mondiale des risques posés par les systèmes d'IA avancés. À la suite de cela, un groupe d'experts internationaux a rédigé le Rapport international sur la sécurité de l'IA: un rapport scientifique actualisé sur la sécurité des systèmes d'IA avancés.

Quel est l'engagement du FLI dans les sommets ?

Dans la période précédant les sommets, le FLI aide les organisateurs et les autres pays participants en leur fournissant des informations essentielles sur les progrès de l'IA, ainsi que des recommandations sur la manière d'améliorer la coopération en matière de sécurité de l'IA.

Recommandations FLIpour le Sommet sur l'impact de l'IA

Février 2026

Nos recommandations pour le Sommet sur l'impact de l'IA en Inde, qui s'est tenu à New Delhi du 16 au 20 février 2026.

Dans le PDF, nous fournissons un résumé de l'état d'avancement du sommet, un aperçu des capacités actuelles de l'IA, un calendrier des sommets sur l'IA et des étapes importantes en matière de gouvernance, ainsi que nos propres recommandations pour le programme du sommet et les participants.

Voir les recommandations

Recommandations provisoires de FLI pour le Sommet pour l’Action sur l’IA

novembre 2024

Nos recommandations pour le Sommet d'action sur l'IA, qui se tiendra en France du 10 au 11 février 2025.

Nous définissons un cadre stratégique pour la gouvernance mondiale de l'IA, en donnant la priorité à la collaboration internationale et à l'élaboration de normes de sécurité claires. Ces recommandations se concentrent sur une approche globale dans trois domaines essentiels : comprendre les risques de l'IA (science), encourager la coopération mondiale (solutions) et établir des normes internationales solides (normes).

Voir les recommandations

Recommandations du FLI pour le sommet britannique sur la sécurité de l'IA

septembre 2023

Dans la perspective du sommet britannique sur la sécurité de l'IA, qui se tiendra à Bletchley Park les 1er et 2 novembre 2023, le FLI a rédigé et publié un document présentant des recommandations essentielles. Il contient :
  • Une proposition de déclaration sur la sécurité de l'IA, à faire signer par les participants.
  • Les principales recommandations de certains gouvernements avant le sommet.
  • Une proposition d'ordre du jour du sommet, avec des sujets primordiaux à inclure.
  • Une feuille de route post-sommet, qui décrit les actions nécessaires à entreprendre après l'événement.
Voir les recommandations

Fiche d'évaluation du FLI et politique en matière de normes de sécurité

octobre 2023

Le FLI a également produit un bulletin d'évaluation destiné à cartographier le paysage de la gouvernance à l'approche du sommet britannique sur la sécurité de l'IA. De plus, il a défini une politique sur les normes de sécurité (SSP), leur fournissant ainsi un cadre juridique, ainsi que des mesures et une supervision efficaces.

Voir le bulletin d'évaluation et la politique

Petits déjeuners de sécurité de l'IA à Paris

Septembre 2024

Le sommet pour l'action sur l'IA se tiendra en février 2025. Cette série d'événements vise à stimuler les discussions relatives au sommet sur la sécurité pour les publics anglophones et francophones, et à réunir des experts et des passionnés dans le domaine pour échanger des idées et des perspectives.

En savoir plus ou s'inscrire pour être informé des prochains petits-déjeuners sur la sécurité de l'IA

Ima (Imane Bello) est chargée des sommets sur la sécurité de l'IA pour le site Future of Life Institute (FLI).
Nos contenus

Contenus associés

Si vous avez aimé cet article, vous pourriez aussi aimer :

Contexte et ordre du jour du sommet pour l'action sur l'IA 2025

Le sommet pour l'action sur l'IA se tiendra à Paris du 10 au 11 février 2025. Voici l'ordre du jour et les principaux résultats attendus.
31 janvier, 2025

Petit-déjeuner sur la sécurité de l'IA à Paris #2 : Dr. Charlotte Stix

Le deuxième de notre série de petits-déjeuners sur la sécurité de l'IA, avec Charlotte Stix sur les évaluations de modèles, les comportements trompeurs de l'IA et les sommets sur la sécurité et l'action en matière d'IA.
14 octobre, 2024

Petit-déjeuner sur la sécurité de l'IA à Paris #1 : Stuart Russell

Le premier de notre série de petits-déjeuners sur la sécurité de l'IA, avec Stuart Russell sur les développements significatifs de l'IA, les priorités de la recherche sur l'IA et les sommets sur la sécurité de l'IA.
5 Août, 2024

Déclaration sur la sécurité de l'IA à l'approche du sommet de Séoul

Nous formulons quelques recommandations pour le prochain sommet sur la sécurité de l'IA, qui se tiendra à Séoul, notamment sur la nomination d'un coordinateur pour les coopérations entre les instituts de sécurité de l'IA.
20 mai, 2024
Nos contenus
Notre travail

Autres projets dans ce domaine

Nous travaillons sur une série de projets dans quelques domaines clés. Consultez certains de nos autres projets dans ce domaine :

Les perspectives des religions traditionnelles sur des avenirs positifs avec l'IA

La majorité de la population mondiale pratique une religion traditionnelle. Pourtant, les perspectives religieuses sont généralement absentes des discussions stratégiques sur l'IA. Cette initiative vise à aider les groupes religieux à exprimer, selon leur foi, leurs préoccupations et leurs espoirs pour un monde avec l’IA, et à collaborer avec eux pour en éviter les dérives et en réaliser les promesses.

Promouvoir un accord mondial sur l'IA

Nous avons besoin d'une coordination internationale afin que les avantages de l'IA profitent à l'ensemble de la planète, et ne se concentrent pas uniquement dans quelques endroits. Les risques liés à l'IA avancée ne resteront pas confinés à l'intérieur des frontières, mais se propageront à l'échelle mondiale et toucheront tout le monde. Nous devons œuvrer à la mise en place d'un cadre de gouvernance international qui empêche la concentration des avantages dans quelques endroits et atténue les risques mondiaux liés à l'IA avancée.
Notre travail

S'abonner à la newsletter du Future of Life Institute

Rejoignez plus de 40 000 personnes qui reçoivent régulièrement des nouvelles de notre travail et de nos domaines d'action.
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram