Passer au contenu

Contexte et ordre du jour du sommet pour l'action sur l'IA 2025

Le sommet pour l'action sur l'IA se tiendra à Paris du 10 au 11 février 2025. Voici l'ordre du jour et les principaux résultats attendus.
Publié :
Janvier 31, 2025
Auteur :
Ima (Imane Bello)
Vue du Grand Palais, où s'est déroulé le sommet pour l'action sur l'IA, lors de la vente Bonhams 2014. Source de la photo : Wikimedia Commons.

Contenu

Voir notre travail sur les sommets sur la sécurité de l'IA, y compris les recommandations pour le prochain sommet d'action sur l'IA et notre engagement lors des sommets précédents.

Contexte technologique

Les développements récents en IA, notamment le modèle d’o3 de la société états-unienne OpenAI, démontrent une accélération inquiétante des capacités. Les ‘benchmarks’ récents (ARC-AGI, CodeForce, GPQA) indiquent que les derniers modèles dépassent désormais les experts humains dans de nombreux domaines critiques. Cette évolution rapide, combinée à la commercialisation croissante d'agents d'IA autonomes, crée des risques systémiques nécessitant une action internationale urgente et coordonnée.

Histoire des sommets internationaux sur l'IA

Réalisations des sommets précédents

  • Élaboration et présentation d'un rapport scientifique international (provisoire) sur la sécurité de l'IA avancée, afin de créer une compréhension scientifique commune des risques liés aux systèmes d'IA à usage général.
  • Création d'une norme minimale non-contraignante pour les entreprises qui développent ces systèmes via la définition de seuils à partir desquels les risques d'un système d'IA à usage général deviennent intolérables en l'absence de mesures d'atténuation (Frontier AI Safety Commitments).
  • Création d'un rôle pour les gouvernements afin qu'ils participent aux tests de sécurité et création de centres de sécurité de l'IA et mise en réseau de certains d'entre eux.

Ambitions et résultats attendus du sommet de Paris

À ce stade, la semaine du sommet est planifiée comme suit :

  • 6-7 février : Journées scientifiques à Saclay afin de fournir aux diplomates un aperçu scientifique qui devrait servir de base aux discussions lors du Sommet des 10 et 11 février.
  • 8-9 février : Journées culturelles de l'IA dans plusieurs villes de France.
  • 10-11 février : Sommet pour l'action sur l'IA
    • 10 février : Échanges multilatéraux avec tables rondes thématiques et réservés aux dirigeants.
    • 11 février : Réunion des chefs d’Etats et de gouvernements au Grand palais et un événement “business” qui se tiendra en parallèle à la Station F.

En ce qui concerne les résultats attendus, nous pouvons nous attendre aux annonces suivantes :

  • La création d’une fondation sur l'IA visant à équiper les pays en développement d’outils d’IA en open-source sur la base de systèmes d’IA moins puissants, financée à hauteur de 2.5 milliards d’euros sur 5 ans.
  • La présentation de 35 “défis convergence” afin de présenter l’impact des systèmes actuels d’IA dans des secteurs comme la santé ou encore l’adaptation au changement climatique. 
  • La signature d’un accord multilatéral sur l’impact environnemental de cette technologie est à prévoir en fin de Sommet.
  • Le "Rapport international sur la sécurité de l'IA" achevé : 100 experts indépendants en IA du monde entier ont publié le tout premier rapport international sur la sécurité de l'IA, qui devrait être présenté à Paris. Soutenu par 30 pays et par l'OCDE, l'ONU et l'UE, le rapport résume l'état des connaissances scientifiques sur les capacités et les risques de l'IA, ainsi que sur les moyens d'atténuer ces risques. Il contribuera à une compréhension commune des risques posés par les systèmes d'IA à usage général.

Voir la page web officielle du sommet.

Ima Bello, responsable des sommets pour le Future of Life Institute FLI

Ce contenu a été publié pour la première fois sur futureoflife.org le 31 janvier 2025.

À propos de la Future of Life Institute

Le Future of Life Institute FLI est un groupe de réflexion mondial composé d'une équipe de plus de 20 personnes travaillant à temps plein aux États-Unis et en Europe. Depuis sa création en 2014, le FLI s'efforce d'orienter le développement de technologies transformatrices au profit de la vie et à l'écart des risques extrêmes à grande échelle. Pour en savoir plus sur notre mission ou découvrir notre travail.

Nos contenus

Contenus associés

Autres posts sur

Si vous avez aimé ce contenu, vous pourriez aussi être intéressé par :

Petit-déjeuner sur la sécurité de l'IA à Paris #4 : Rumman Chowdhury

Le quatrième de notre série de petits-déjeuners sur la sécurité de l'IA, avec le Dr Rumman Chowdhury sur l'audit algorithmique, le "droit de réparer" les systèmes d'IA, et les sommets sur la sécurité et l'action en matière d'IA.
19 Décembre, 2024

Publication de l'indice de sécurité de l'IA

Le site Future of Life Institute a publié son premier tableau de bord de la sécurité des principales entreprises d'IA. Il en ressort que nombre d'entre elles ne prennent pas en compte les problèmes de sécurité, tandis que certaines ont pris des mesures initiales modestes dans la bonne direction.
11 Décembre, 2024

Max Tegmark sur le projet AGI Manhattan

Un nouveau rapport destiné au Congrès recommande que les États-Unis lancent un "projet Manhattan" pour développer l'intelligence artificielle générale. Ce serait une course au suicide.
20 novembre, 2024
Nos contenus

Quelques-uns de nos projets

Voir quelques-uns des projets sur lesquels nous travaillons dans cette région :
Notre travail

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention.
cloudmagnifiercroixarrow-up
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram