Passer au contenu

Notre travail

Une vue d'ensemble du type de travail que nous effectuons et de tous nos projets actuels et passés.

Domaines de travail

Nos domaines de travail

Nous travaillons sur des projets dans plusieurs domaines distincts :

Politique et recherche

Nous nous engageons dans la défense des politiques et la recherche aux États-Unis, dans l'Union européenne et dans le monde entier.
Nos travaux en matière de politique et de recherche

Avenirs

Nous travaillons sur des projets visant à guider l'humanité vers les résultats bénéfiques rendus possibles par les technologies de transformation.
Nos travaux sur l'avenir

Sensibilisation

Nous élaborons du matériel pédagogique destiné à éclairer le discours public et à encourager les gens à s'impliquer.
Notre travail de sensibilisation

Octroi de subventions

Nous accordons des subventions à des personnes et à des organisations, qui travaillent sur des projets qui soutiennent notre mission.
Nos programmes de subventions

Évènements

Nous réunissons les responsables des domaines concernés pour discuter des moyens de garantir la sécurité du développement et de l'utilisation de technologies puissantes.
Nos évènements

Nos réalisations

Nos contributions les plus importantes

Voici quelques-unes des réalisations dont nous sommes les plus fiers :

Organisation des premières conférences sur la sécurité de l'IA

Nous avons été les premiers à réunir des personnalités de premier plan dans le domaine de l'IA pour discuter de nos préoccupations concernant les risques liés à la sécurité de cette technologie émergente.
Voir nos événements

Création du premier programme de subventions pour la sécurité de l'IA

De 2015 à 2017, nous avons organisé le tout premier programme de subventions destiné à financer des projets de sécurité de l'IA. Nous offrons actuellement de nombreuses possibilités de subventions pour des projets qui font avancer notre mission.
Voir nos subventions

Élaboration des principes d'Asilomar en matière d'IA

En 2017, le FLI a coordonné l'élaboration des principes d'IA d'Asilomar, l'un des premiers ensembles de principes de gouvernance de l'IA et l'un des plus influents.
Voir les principes

Les Future of Life Awards récompensent 18 héros méconnus

Chaque année depuis 2017, le Future of Life Award récompense les personnes qui ont contribué à aider à préserver les conditions de vie.
Voir l'Award

Production d'une série de vidéos de sensibilisation sur les armes autonomes létales.

Nous avons produit deux courts métrages décrivant un monde, dans lequel la prolifération des armes autonomes a été autorisée.
Regardez les vidéos

Recommandation sur l'IA dans la feuille de route des Nations Unies sur la coopération numérique

Nos recommandations (3C) sur la gouvernance mondiale des technologies de l'IA ont été adoptées dans la feuille de route concernant la coopération numérique du secrétaire général des Nations Unies.

Voir la feuille de route

Projets

Les projets sur lesquels nous travaillons

Voici un aperçu de tous les projets sur lesquels nous travaillons actuellement :

Les perspectives des religions traditionnelles sur des avenirs positifs avec l'IA

La majorité de la population mondiale pratique une religion traditionnelle. Pourtant, les perspectives religieuses sont généralement absentes des discussions stratégiques sur l'IA. Cette initiative vise à aider les groupes religieux à exprimer, selon leur foi, leurs préoccupations et leurs espoirs pour un monde avec l’IA, et à collaborer avec eux pour en éviter les dérives et en réaliser les promesses.

Le rôle de l'IA dans la transformation de la distribution du pouvoir

Les systèmes d'IA avancés sont en passe de remodeler l'économie et les rapports de pouvoir. Bien qu'ils présentent un immense potentiel de progrès et d'innovation, ils comportent aussi le risque d’une concentration extrême du pouvoir, d’inégalités inédites et de perte de contrôle. Pour que l'IA serve le bien commun, il est crucial de mettre en place des institutions résilientes, des marchés concurrentiels, ainsi que des mécanismes de redistribution robustes.

Penser des avenirs positifs où la technologie a sa place

Les récits influencent profondément nos représentations des avenirs potentiels de l'humanité avec la technologie. S'il existe bien des fictions dystopiques, les visions d'un avenir désirable se font rares. Nous cherchons à encourager la création de visions plausibles, ambitieuses et pleines d'espoir d'un avenir que nous voulons atteindre.

Construire des avenirs résilients

Face à une époque de mutations rapides, il nous faut des systèmes résilients. En développant des outils, des technologies et des institutions robustes, nous œuvrons à relever les défis majeurs de l’humanité, tout en consolidant les piliers de notre société. Notre mission est de garantir que les avancées technologiques apportent stabilité et prospérité, plutôt que du chaos.

Recommandations pour le plan d'action américain en matière d'IA

La proposition du Future of Life Institute pour le plan d'action du président Trump en matière d'IA. Nos recommandations visent à protéger la présidence contre la perte de contrôle de l'IA, à promouvoir le développement de systèmes d'IA exempts d'agendas idéologiques ou sociaux, à protéger les travailleurs américains contre la perte et le remplacement d'emplois, et plus encore.

L'engagement des parties prenantes pour une IA sûre et prospère

FLI lance de nouvelles subventions pour éduquer et engager les groupes de parties prenantes, ainsi que le grand public, dans le mouvement en faveur d'une IA sûre, sécurisée et bénéfique.

Accélérateur de médias numériques

L'accélérateur de médias numériques soutient le contenu numérique de créateurs qui sensibilisent aux développements et aux problèmes actuels de l'IA et les font mieux comprendre.

Garder l'avenir humain

Pourquoi et comment nous devrions fermer les portes de l'AGI et de la superintelligence, et ce que nous devrions construire à la place ? Un nouvel essai d'Anthony Aguirre, directeur exécutif de FLI.

FLI Indice de sécurité de l'IA 2024

Sept experts en IA et en gouvernance évaluent les pratiques de sécurité de six grandes entreprises d'IA à vocation générale.

Convergence de l'IA : risques à la croisée de l'IA et des menaces nucléaires, biologiques et cybernétiques

Le caractère à double tranchant des systèmes d'IA peut amplifier celui d'autres technologies - c'est ce que l'on appelle la convergence de l'IA. Nous fournissons une expertise politique aux décideurs américains dans trois domaines essentiels de convergence : biologique, nucléaire et cybernétique.

Concours créatif sur la superintelligence

Le concours du meilleur matériel de formation créatif sur la superintelligence, les risques associés, ainsi que sur les répercussions de cette technologie dans notre monde. 5 prix de 10 000 $ chacun.

Sommets sur la sécurité de l'IA

Les gouvernements envisagent de collaborer pour naviguer dans un monde doté d'une IA avancée. FLI leur fournit des conseils et un soutien.

S'engager avec les décrets sur l'IA

Nous apportons une contribution formelle aux agences du gouvernement fédéral américain, y compris une expertise technique et politique sur de nombreuses questions, telles que les contrôles à l'exportation, la gouvernance du matériel, la définition de normes, les marchés publics, etc.

La lettre des sages sur les menaces existentielles

Les sages, le Future of Life Institute et de nombreuses personnalités éminentes appellent les dirigeants du monde à s'attaquer d'urgence aux dommages et aux risques croissants de la crise du climat, des pandémies, des armes nucléaires et de l'IA non gouvernée.

Mise en œuvre de la loi européenne sur l'IA

Nos principales recommandations consistent à élargir le champ d'application de la loi pour réglementer les systèmes à usage général et elles visent à étendre la définition de la manipulation interdite à tout type de technique de manipulation, ainsi qu'à la manipulation qui cause un préjudice à la société.

Lutter contre les "deepfakes

Dans le cadre d'une coalition croissante d'organisations concernées, FLI appelle les législateurs à prendre des mesures significatives pour perturber la chaîne d'approvisionnement en deepfakes pilotée par l'IA.

Sensibilisation aux armes autonomes

Les applications militaires de l'IA se développent rapidement. Nous élaborons des documents pédagogiques sur la manière dont certaines catégories restreintes d'armes utilisant l'IA peuvent nuire à la sécurité nationale et déstabiliser la civilisation, notamment les armes dans lesquelles la décision de tuer est entièrement déléguée à des algorithmes.

Gouvernance mondiale de l'IA à l'ONU

Notre participation aux travaux des Nations Unies s'étend sur plusieurs années et comprend plusieurs initiatives, y compris la feuille de route pour la coopération numérique et le pacte mondial pour le numérique (GDC).

Concrétiser des avenirs porteurs d'espoir - Nouvelles opportunités de financement du FLI

Nous ouvrons deux nouvelles possibilités de financement pour soutenir la recherche sur les façons dont l'intelligence artificielle peut être exploitée en toute sécurité pour rendre le monde meilleur.

Le Windfall Trust

Le Windfall Trust vise à atténuer l'impact économique du chômage provoqué par l'IA en mettant en place un filet de sécurité sociale mondial et accessible à tous.

Podcast Imagine A World

Pouvez-vous imaginer un monde en 2045, où nous parviendrions à éviter la crise climatique, les guerres majeures et les effets néfastes de l'intelligence artificielle ? Notre nouvelle série de podcasts explore les moyens de construire un avenir plus positif et propose des idées intéressantes sur la manière d'y parvenir.

L'escalade artificielle

Notre film de science-fiction montre un monde, où l'intelligence artificielle (IA) est intégrée aux systèmes de commandement, de contrôle et de communication des armes nucléaires ("NC3"), avec des résultats terrifiants.

Concours de construction d'univers

Le Future of Life Institute a accepté les candidatures d'équipes venant du monde entier pour participer à un concours doté d'un prix allant jusqu'à 100 000 $. L'objectif est de concevoir des visions d'un avenir plausible et ambitieux, qui inclut fortement l'intelligence artificielle.

Future of Life Award

Chaque année, le Future of Life Award est décerné à un ou plusieurs héros méconnus qui ont contribué de manière significative à préserver l'avenir de la vie.

Future of Life Institute Podcast

Un podcast consacré à des entretiens avec certains des plus grands intellectuels et acteurs mondiaux dans le domaine des technologies émergentes et de la réduction des risques. Plus de 140 épisodes depuis 2015, 4,8/5 étoiles sur Apple Podcasts.

Pages liées

Cherchiez-vous autre chose ?

Voici quelques autres pages que vous avez peut-être cherchées :

Notre mission

Découvrez notre mission et nos principes fondamentaux.
Consulter la page

Agir

Quel que soit votre niveau d'expérience ou d'ancienneté, il y a quelque chose que vous pouvez faire pour nous aider à garantir que l'avenir de la vie soit positif.
Consulter la page

Travail sur les évènements

Nous réunissons les responsables des domaines concernés pour discuter des moyens de garantir la sécurité du développement et de l'utilisation de technologies puissantes.
Consulter la page

S'abonner à la newsletter du Future of Life Institute

Rejoignez plus de 40 000 personnes qui reçoivent régulièrement des nouvelles de notre travail et de nos domaines d'action.
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram