Contexte et ordre du jour du sommet pour l'action sur l'IA 2025

Contenu
Voir notre travail sur les sommets sur la sécurité de l'IA, y compris les recommandations pour le prochain sommet d'action sur l'IA et notre engagement lors des sommets précédents.
Contexte technologique
Les développements récents en IA, notamment le modèle d’o3 de la société états-unienne OpenAI, démontrent une accélération inquiétante des capacités. Les ‘benchmarks’ récents (ARC-AGI, CodeForce, GPQA) indiquent que les derniers modèles dépassent désormais les experts humains dans de nombreux domaines critiques. Cette évolution rapide, combinée à la commercialisation croissante d'agents d'IA autonomes, crée des risques systémiques nécessitant une action internationale urgente et coordonnée.
Histoire des sommets internationaux sur l'IA
- 1-2 novembre 2023, Royaume-Uni : Sommet de Bletchley Park sur la sécurité de l'IA 2023
- 21-22 mai 2024, Corée du Sud : Sommet de Séoul sur la sécurité de l'IA 2024
Réalisations des sommets précédents
- Élaboration et présentation d'un rapport scientifique international (provisoire) sur la sécurité de l'IA avancée, afin de créer une compréhension scientifique commune des risques liés aux systèmes d'IA à usage général.
- Création d'une norme minimale non-contraignante pour les entreprises qui développent ces systèmes via la définition de seuils à partir desquels les risques d'un système d'IA à usage général deviennent intolérables en l'absence de mesures d'atténuation (Frontier AI Safety Commitments).
- Création d'un rôle pour les gouvernements afin qu'ils participent aux tests de sécurité et création de centres de sécurité de l'IA et mise en réseau de certains d'entre eux.
Ambitions et résultats attendus du sommet de Paris
À ce stade, la semaine du sommet est planifiée comme suit :
- 6-7 février : Journées scientifiques à Saclay afin de fournir aux diplomates un aperçu scientifique qui devrait servir de base aux discussions lors du Sommet des 10 et 11 février.
- 8-9 février : Journées culturelles de l'IA dans plusieurs villes de France.
- 10-11 février : Sommet pour l'action sur l'IA
- 10 février : Échanges multilatéraux avec tables rondes thématiques et réservés aux dirigeants.
- 11 février : Réunion des chefs d’Etats et de gouvernements au Grand palais et un événement “business” qui se tiendra en parallèle à la Station F.
En ce qui concerne les résultats attendus, nous pouvons nous attendre aux annonces suivantes :
- La création d’une fondation sur l'IA visant à équiper les pays en développement d’outils d’IA en open-source sur la base de systèmes d’IA moins puissants, financée à hauteur de 2.5 milliards d’euros sur 5 ans.
- La présentation de 35 “défis convergence” afin de présenter l’impact des systèmes actuels d’IA dans des secteurs comme la santé ou encore l’adaptation au changement climatique.
- La signature d’un accord multilatéral sur l’impact environnemental de cette technologie est à prévoir en fin de Sommet.
- Le "Rapport international sur la sécurité de l'IA" achevé : 100 experts indépendants en IA du monde entier ont publié le tout premier rapport international sur la sécurité de l'IA, qui devrait être présenté à Paris. Soutenu par 30 pays et par l'OCDE, l'ONU et l'UE, le rapport résume l'état des connaissances scientifiques sur les capacités et les risques de l'IA, ainsi que sur les moyens d'atténuer ces risques. Il contribuera à une compréhension commune des risques posés par les systèmes d'IA à usage général.
Voir la page web officielle du sommet.
Ima Bello, responsable des sommets pour le Future of Life Institute FLI
À propos de la Future of Life Institute
Le Future of Life Institute FLI est un groupe de réflexion mondial composé d'une équipe de plus de 20 personnes travaillant à temps plein aux États-Unis et en Europe. Depuis sa création en 2014, le FLI s'efforce d'orienter le développement de technologies transformatrices au profit de la vie et à l'écart des risques extrêmes à grande échelle. Pour en savoir plus sur notre mission ou découvrir notre travail.
Contenus associés
Autres posts sur Politique en matière d'IA

Petit-déjeuner sur la sécurité de l'IA à Paris #4 : Rumman Chowdhury

Publication de l'indice de sécurité de l'IA
