Passer au contenu
Dernières mises à jour
De plus, les milliardaires de l'IA soutiennent un nouveau super PAC : Face à la surveillance publique, les milliardaires de l'IA soutiennent un nouveau super PAC ; notre nouveau concours créatif "Keep the Future Human", doté de 100 000 dollars ; l'IA de demain ; et plus encore.
4 Septembre, 2025
Plus : mise à jour des lignes directrices de l'UE ; le récent forum sur la sécurité de l'IA ; comment l'IA augmente le risque nucléaire ; et plus encore.
1 Août, 2025
Plus : les dossiers OpenAI ; une nouvelle vidéo InsideAI qui donne la chair de poule ; et plus encore.
3 Juillet, 2025
Des nouvelles de nous tous les mois
Rejoignez plus de 40 000 autres abonnés à la lettre d'information pour recevoir des mises à jour mensuelles sur le travail que nous accomplissons pour préserver notre avenir commun.

Vidéos à l'affiche

Le meilleur contenu récent de notre part et de celle de nos partenaires :
Plus de vidéos

Projets

Découvrez quelques-uns de nos projets actuels :
Récemment annoncé

Concours de création : Garder l'avenir humain

Plus de 100 000 dollars de prix pour des médias numériques créatifs qui reprennent les idées clés de l'essai, les aident à atteindre un plus grand nombre de personnes et les incitent à agir dans le monde réel.

Indice de sécurité FLI AI : Édition de l'été 2025

Sept experts en IA et en gouvernance évaluent les pratiques de sécurité de six grandes entreprises d'IA à vocation générale.

Recommandations pour le plan d'action américain en matière d'IA

La proposition du Future of Life Institute pour le plan d'action du président Trump en matière d'IA. Nos recommandations visent à protéger la présidence contre la perte de contrôle de l'IA, à promouvoir le développement de systèmes d'IA exempts d'agendas idéologiques ou sociaux, à protéger les travailleurs américains contre la perte et le remplacement d'emplois, et plus encore.

Sommets sur la sécurité de l'IA

Les gouvernements envisagent de collaborer pour naviguer dans un monde doté d'une IA avancée. FLI leur fournit des conseils et un soutien.

Indice de sécurité FLI AI : Édition de l'été 2025

Sept experts en IA et en gouvernance évaluent les pratiques de sécurité de six grandes entreprises d'IA à vocation générale.

Recommandations pour le plan d'action américain en matière d'IA

La proposition du Future of Life Institute pour le plan d'action du président Trump en matière d'IA. Nos recommandations visent à protéger la présidence contre la perte de contrôle de l'IA, à promouvoir le développement de systèmes d'IA exempts d'agendas idéologiques ou sociaux, à protéger les travailleurs américains contre la perte et le remplacement d'emplois, et plus encore.

Sommets sur la sécurité de l'IA

Les gouvernements envisagent de collaborer pour naviguer dans un monde doté d'une IA avancée. FLI leur fournit des conseils et un soutien.

Le rôle de l'IA dans la transformation de la distribution du pouvoir

Les systèmes d'IA avancés sont en passe de remodeler l'économie et les rapports de pouvoir. Bien qu'ils présentent un immense potentiel de progrès et d'innovation, ils comportent aussi le risque d’une concentration extrême du pouvoir, d’inégalités inédites et de perte de contrôle. Pour que l'IA serve le bien commun, il est crucial de mettre en place des institutions résilientes, des marchés concurrentiels, ainsi que des mécanismes de redistribution robustes.

Penser des avenirs positifs où la technologie a sa place

Les récits influencent profondément nos représentations des avenirs potentiels de l'humanité avec la technologie. S'il existe bien des fictions dystopiques, les visions d'un avenir désirable se font rares. Nous cherchons à encourager la création de visions plausibles, ambitieuses et pleines d'espoir d'un avenir que nous voulons atteindre.

Les perspectives des religions traditionnelles sur des avenirs positifs avec l'IA

La majorité de la population mondiale pratique une religion traditionnelle. Pourtant, les perspectives religieuses sont généralement absentes des discussions stratégiques sur l'IA. Cette initiative vise à aider les groupes religieux à exprimer, selon leur foi, leurs préoccupations et leurs espoirs pour un monde avec l’IA, et à collaborer avec eux pour en éviter les dérives et en réaliser les promesses.

Le rôle de l'IA dans la transformation de la distribution du pouvoir

Les systèmes d'IA avancés sont en passe de remodeler l'économie et les rapports de pouvoir. Bien qu'ils présentent un immense potentiel de progrès et d'innovation, ils comportent aussi le risque d’une concentration extrême du pouvoir, d’inégalités inédites et de perte de contrôle. Pour que l'IA serve le bien commun, il est crucial de mettre en place des institutions résilientes, des marchés concurrentiels, ainsi que des mécanismes de redistribution robustes.

Penser des avenirs positifs où la technologie a sa place

Les récits influencent profondément nos représentations des avenirs potentiels de l'humanité avec la technologie. S'il existe bien des fictions dystopiques, les visions d'un avenir désirable se font rares. Nous cherchons à encourager la création de visions plausibles, ambitieuses et pleines d'espoir d'un avenir que nous voulons atteindre.

Les perspectives des religions traditionnelles sur des avenirs positifs avec l'IA

La majorité de la population mondiale pratique une religion traditionnelle. Pourtant, les perspectives religieuses sont généralement absentes des discussions stratégiques sur l'IA. Cette initiative vise à aider les groupes religieux à exprimer, selon leur foi, leurs préoccupations et leurs espoirs pour un monde avec l’IA, et à collaborer avec eux pour en éviter les dérives et en réaliser les promesses.

Accélérateur de médias numériques

L'accélérateur de médias numériques soutient le contenu numérique de créateurs qui sensibilisent aux développements et aux problèmes actuels de l'IA et les font mieux comprendre.

Garder l'avenir humain

Pourquoi et comment nous devrions fermer les portes de l'AGI et de la superintelligence, et ce que nous devrions construire à la place ? Un nouvel essai d'Anthony Aguirre, directeur exécutif de FLI.

L'engagement des parties prenantes pour une IA sûre et prospère

FLI lance de nouvelles subventions pour éduquer et engager les groupes de parties prenantes, ainsi que le grand public, dans le mouvement en faveur d'une IA sûre, sécurisée et bénéfique.

Accélérateur de médias numériques

L'accélérateur de médias numériques soutient le contenu numérique de créateurs qui sensibilisent aux développements et aux problèmes actuels de l'IA et les font mieux comprendre.

Garder l'avenir humain

Pourquoi et comment nous devrions fermer les portes de l'AGI et de la superintelligence, et ce que nous devrions construire à la place ? Un nouvel essai d'Anthony Aguirre, directeur exécutif de FLI.

L'engagement des parties prenantes pour une IA sûre et prospère

FLI lance de nouvelles subventions pour éduquer et engager les groupes de parties prenantes, ainsi que le grand public, dans le mouvement en faveur d'une IA sûre, sécurisée et bénéfique.

Communauté de la sécurité existentielle de l'IA

Une communauté dédiée à la sécurité du développement de l'IA, comprenant à la fois des professeurs et des chercheurs en IA. Les membres sont invités à assister aux réunions, à participer à une communauté en ligne et à demander une aide financière pour leurs déplacements.

Bourses d'études

Depuis 2021, nous proposons des bourses de doctorat et de postdoctorat en sécurité existentielle de l'IA technique. En 2024, nous avons lancé une bourse de doctorat sur la gouvernance de l'IA entre les États-Unis et la Chine.

Appels d'offres, concours et collaborations

Demandes de propositions (RFP), concours publics et subventions de collaboration en soutien direct aux projets et initiatives internes de FLI .

Communauté de la sécurité existentielle de l'IA

Une communauté dédiée à la sécurité du développement de l'IA, comprenant à la fois des professeurs et des chercheurs en IA. Les membres sont invités à assister aux réunions, à participer à une communauté en ligne et à demander une aide financière pour leurs déplacements.

Bourses d'études

Depuis 2021, nous proposons des bourses de doctorat et de postdoctorat en sécurité existentielle de l'IA technique. En 2024, nous avons lancé une bourse de doctorat sur la gouvernance de l'IA entre les États-Unis et la Chine.

Appels d'offres, concours et collaborations

Demandes de propositions (RFP), concours publics et subventions de collaboration en soutien direct aux projets et initiatives internes de FLI .

Bulletin d'information

Des mises à jour régulières sur les technologies qui façonnent notre monde

Chaque mois, nous apportons à plus de 40 000 abonnés les dernières nouvelles sur la façon dont les technologies émergentes transforment notre monde. Il comprend un résumé des principaux développements dans nos domaines d'intérêt et des mises à jour essentielles sur le travail que nous effectuons.

Abonnez-vous à notre lettre d'information pour recevoir ces points forts à la fin de chaque mois.

Éditions récentes

De plus, les milliardaires de l'IA soutiennent un nouveau super PAC : Face à la surveillance publique, les milliardaires de l'IA soutiennent un nouveau super PAC ; notre nouveau concours créatif "Keep the Future Human", doté de 100 000 dollars ; l'IA de demain ; et plus encore.
4 Septembre, 2025
Plus : mise à jour des lignes directrices de l'UE ; le récent forum sur la sécurité de l'IA ; comment l'IA augmente le risque nucléaire ; et plus encore.
1 Août, 2025
Plus : les dossiers OpenAI ; une nouvelle vidéo InsideAI qui donne la chair de poule ; et plus encore.
3 Juillet, 2025
Plus : Mises à jour sur le code de pratique de la loi européenne sur l'IA ; le consensus de Singapour ; lettre ouverte des dirigeants évangéliques ; et plus encore.
31 mai, 2025
Voir tous

Dernier contenu

Le contenu le plus récent que nous avons publié :

Contenu à la une

Nous ne devons pas construire l'IA pour remplacer les humains.
Un nouvel essai d'Anthony Aguirre, directeur exécutif du Future of Life Institute
L'humanité est sur le point de développer une intelligence artificielle générale qui la dépasse. Il est temps de fermer les portes de l'AGI et de la superintelligence... avant de perdre le contrôle de notre avenir.
Lire l'essai ->

Articles

Sommes-nous proches d'une explosion du renseignement ?

Les IA se rapprochent de plus en plus d'un seuil critique. Au-delà de ce seuil, les risques sont grands, mais son franchissement n'est pas inéluctable.
21 Mars, 2025

L'impact de l'IA sur l'éducation : Naviguer dans l'avenir imminent

Que faut-il prendre en compte pour construire un avenir sûr mais efficace pour l'IA dans l'éducation, et pour que les enfants soient en sécurité en ligne ?
13 Février, 2025

Contexte et ordre du jour du sommet pour l'action sur l'IA 2025

Le sommet pour l'action sur l'IA se tiendra à Paris du 10 au 11 février 2025. Voici l'ordre du jour et les principaux résultats attendus.

Une perspective bouddhiste sur l'IA : cultiver la liberté d'attention et la véritable diversité dans un avenir dominé par l'IA

Certains prétendent que la révolution de l'intelligence facilitée par l'IA met l'humanité sur la voie d'un avenir utopique de satisfaction presque sans effort et de choix sans friction. Nous devons nous méfier.
20 janvier, 2025
Voir tous

Utilisez votre voix

Protégez l'humain.
Les géants de la tech s'affrontent pour développer des systèmes d'intelligence artificielle de plus en plus puissants et incontrôlables, conçus pour remplacer les humains. Vous avez le pouvoir d'agir.
Agissez dès maintenant pour protéger notre avenir :
Agir ->

Nos collaborateurs

Une équipe engagée pour l'avenir de la vie.
Notre personnel se compose de nombreux experts qui ont travaillé dans le monde universitaire, pour le gouvernement et dans l'industrie. Leur expérience va de l'apprentissage automatique à la médecine, en passant par tous les domaines intermédiaires.
Rencontrez notre équipe
Rôles ouverts

Notre histoire

Depuis 2014, nous nous efforçons de préserver l'avenir de l'humanité.

Découvrez le travail et les réalisations de la FLIdepuis sa création, notamment les conférences historiques, les programmes de subventions et les lettres ouvertes qui ont influencé le cours de la technologie.

Découvrez notre histoire ->

S'abonner à la newsletter du Future of Life Institute

Rejoignez plus de 40 000 personnes qui reçoivent régulièrement des nouvelles de notre travail et de nos domaines d'action.
cloudmagnifiercroixarrow-up
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram