Passer au contenu
Notre mission

Mettre les technologies de transformation au profit de la vie et œuvrer pour qu'elles ne présentent pas de risques majeurs à grande échelle.

Nous pensons que la manière dont une technologie puissante est développée et utilisée sera le facteur le plus important pour déterminer les perspectives d'avenir de la vie. C'est pourquoi nous nous sommes donnés pour mission de veiller à ce que la technologie continue d'améliorer ces perspectives.

Maintenant

Notre personnel sera présent au Sommet d'action sur l'IA qui se tiendra à Paris du 10 au 11 février 2025, dans le cadre de notre travail sur la série de sommets internationaux. Voir le contexte et l'ordre du jour de haut niveau, ainsi que nos recommandations pour le sommet.

Domaines d'intervention

Les risques sur lesquels nous nous concentrons

Nous sommes actuellement préoccupés par trois risques majeurs. Ils dépendent tous du développement, de l'utilisation et de la gouvernance des technologies de transformation. Nous concentrons nos efforts sur la maîtrise des impacts de ces technologies.

Intelligence artificielle

Des algorithmes de recommandation aux chatbots en passant par les voitures autonomes, l'IA est en train de changer nos vies. Au fur et à mesure que l'impact de cette technologie s'accroît, les risques augmentent.
Intelligence artificielle

Biotechnologie

Qu'il s'agisse de la propagation accidentelle d'agents pathogènes modifiés ou de l'échec d'une expérience de modification génétique, les dangers de la biotechnologie sont trop importants pour que nous puissions agir à l'aveugle.
Biotechnologie

Armes nucléaires

Près de quatre-vingts ans après leur apparition, les risques causés par les armes nucléaires sont plus élevés que jamais, et de nouvelles recherches révèlent que les conséquences sont encore plus graves qu'on ne le pensait auparavant.
Armes nucléaires
Drones autonomes UAV Kargu sur le campus du Technoparc OSTIM à Ankara, Turquie - juin 2020.

Notre travail

Comment abordons-nous ces questions ?

Il existe de nombreuses possibilités de changement potentiels pour orienter le développement et l'utilisation des technologies de transformation. Nous nous concentrons sur certaines de ces possibilités pour augmenter nos chances de réussite.

Politique

Nous menons des plaidoyers aux États-Unis, dans l'Union européenne et aux Nations unies.
Notre travail politique

Sensibilisation

Nous élaborons du matériel pédagogique destiné à éclairer le discours public et à encourager les gens à s'impliquer.
Notre travail de sensibilisation

Octroi de subventions

Nous accordons des subventions à des personnes et à des organisations, qui travaillent sur des projets qui soutiennent notre mission.
Nos programmes de subventions

Évènements

Nous réunissons les responsables des domaines concernés pour discuter des moyens de garantir la sécurité du développement et de l'utilisation de technologies puissantes.
Nos évènements
Projet en vedette

Évaluation des pratiques de sécurité des principales entreprises d'IA

L'amélioration rapide des capacités de l'IA a accru l'intérêt pour la manière dont les entreprises signalent, évaluent et tentent d'atténuer les risques associés. L'indice de sécurité de l'IA 2024 FLI a réuni un panel indépendant de sept éminents experts de l'IA et de la gouvernance pour évaluer les pratiques de sécurité de six grandes entreprises d'IA à usage général dans six domaines critiques.

Voir l'index

Projets à la une

Les projets sur lesquels nous travaillons

Découvrez quelques-uns de nos projets actuels :

Lutter contre les "deepfakes

2024 se transforme rapidement en l'année du "Fake" (faux). Dans le cadre d'une coalition croissante d'organisations concernées, le FLI appelle les législateurs à prendre des mesures significatives pour perturber la chaîne d'approvisionnement des "deepfakes" générés par l'IA.

Concours créatif sur la superintelligence

Le concours du meilleur matériel de formation créatif sur la superintelligence, les risques associés, ainsi que sur les répercussions de cette technologie dans notre monde. 5 prix de 10 000 $ chacun.

Perspectives des religions traditionnelles sur l'avenir positif de l'IA

La majorité de la population mondiale pratique une religion traditionnelle. Pourtant, les perspectives de ces religions sont largement absentes des discussions stratégiques sur l'IA. Cette initiative vise à aider les groupes religieux à exprimer leurs préoccupations et leurs espoirs relatifs à leur foi dans un monde avec l'IA. Elle vise également à coopérer avec eux pour éviter les préjudices et bénéficier des avantages de l'IA.

La lettre des sages sur les menaces existentielles

Les sages, le Future of Life Institute et de nombreuses personnalités éminentes appellent les dirigeants du monde à s'attaquer d'urgence aux dommages et aux risques croissants de la crise du climat, des pandémies, des armes nucléaires et de l'IA non gouvernée.

Réaliser des avenirs prometteurs - Nouvelles possibilités de subventions du FLI

Nous ouvrons deux nouvelles possibilités de financement pour soutenir la recherche sur les façons dont l'intelligence artificielle peut être exploitée en toute sécurité pour rendre le monde meilleur.

Convergence de l'IA : risques à la croisée de l'IA et des menaces nucléaires, biologiques et cybernétiques

Le caractère à double tranchant des systèmes d'IA peut amplifier celui d'autres technologies - c'est ce que l'on appelle la convergence de l'IA. Nous fournissons une expertise politique aux décideurs américains dans trois domaines essentiels de convergence : biologique, nucléaire et cybernétique.

Renforcement du règlement européen sur l'IA

Nos principales recommandations consistent à élargir le champ d'application de la loi pour réglementer les systèmes à usage général et elles visent à étendre la définition de la manipulation interdite à tout type de technique de manipulation, ainsi qu'à la manipulation qui cause un préjudice à la société.

Sensibilisation aux armes autonomes létales

Les applications militaires de l'IA se développent rapidement. Nous élaborons des documents pédagogiques sur la manière dont certaines catégories restreintes d'armes utilisant l'IA peuvent nuire à la sécurité nationale et déstabiliser la civilisation, notamment les armes dans lesquelles la décision de tuer est entièrement déléguée à des algorithmes.

Gouvernance mondiale de l'IA à l'ONU

Notre participation aux travaux des Nations Unies s'étend sur plusieurs années et comprend plusieurs initiatives, y compris la feuille de route pour la coopération numérique et le pacte mondial pour le numérique (GDC).

Concours de construction d'univers

Le Future of Life Institute a accepté les candidatures d'équipes venant du monde entier pour participer à un concours doté d'un prix allant jusqu'à 100 000 $. L'objectif est de concevoir des visions d'un avenir plausible et ambitieux, qui inclut fortement l'intelligence artificielle.

Future of Life Award

Chaque année, le Future of Life Award est décerné à un ou plusieurs héros méconnus qui ont contribué de manière significative à préserver l'avenir de la vie.
Afficher tous les projets

Bulletin d'informations

Des mises à jour régulières sur les technologies qui façonnent notre monde

Chaque mois, nous donnons à plus de 41 000 abonnés les dernières nouvelles sur la façon dont les technologies émergentes transforment notre monde. Cela comprend un résumé des principaux développements dans nos domaines d'intervention, ainsi que des mises à jour essentielles sur le travail que nous effectuons. Abonnez-vous à notre bulletin d'informations pour être informé de ces points forts à la fin de chaque mois.

Lettre d'information de lFuture of Life Institute : L'ombre du mal" de l'IA

Notes du Vatican sur l'IA ; le premier rapport international sur la sécurité de l'IA ; DeepSeek perturbe ; un essai vidéo sur la superintelligence, réalisé par des jeunes ; des bourses et des offres d'emploi ; et bien d'autres choses encore !
31 janvier, 2025

Future of Life Institute Bulletin d'information : Bilan de l'année 2024

Réflexions sur une autre année massive ; les grandes entreprises d'IA obtiennent des notes décevantes en matière de sécurité ; nos lauréats du prix Future of Life 2024 ; et plus encore !
31 Décembre, 2024

Future of Life Institute Bulletin d'information : L'IA outil > L'IA incontrôlable

Max Tegmark sur l'AGI par rapport à l'IA outil ; les couvertures de magazines d'un futur avec superintelligence ; rejoignez notre nouvelle expérience numérique en tant que bêta-testeur ; et plus encore.
2 Décembre, 2024
Lire les éditions précédentes
Nos contenus

Derniers articles

Les articles les plus récents que nous avons publiés :

Contexte et ordre du jour du sommet pour l'action sur l'IA 2025

Le sommet pour l'action sur l'IA se tiendra à Paris du 10 au 11 février 2025. Voici l'ordre du jour et les principaux résultats attendus.
31 janvier, 2025

Une perspective bouddhiste sur l'IA : cultiver la liberté d'attention et la véritable diversité dans un avenir dominé par l'IA

Certains prétendent que la révolution de l'intelligence facilitée par l'IA met l'humanité sur la voie d'un avenir utopique de satisfaction presque sans effort et de choix sans friction. Nous devons nous méfier.
20 janvier, 2025

Pourrait-on désactiver une IA dangereuse ?

De nouvelles recherches confirment les inquiétudes de longue date concernant la difficulté de contraindre les systèmes d'intelligence artificielle puissants.
27 Décembre, 2024

Petit-déjeuner sur la sécurité de l'IA à Paris #4 : Rumman Chowdhury

Le quatrième de notre série de petits-déjeuners sur la sécurité de l'IA, avec le Dr Rumman Chowdhury sur l'audit algorithmique, le "droit de réparer" les systèmes d'IA, et les sommets sur la sécurité et l'action en matière d'IA.
19 Décembre, 2024

Papiers

Les documents politiques et de recherche les plus récents que nous avons publiés :

Normes de sécurité pour des outils d'IA contrôlables et bénéfiques

Février 2025

Cadre pour une utilisation responsable de l'IA dans le domaine nucléaire

Février 2025

FLI Indice de sécurité de l'IA 2024

décembre 2024

Recommandations de FLI pour le sommet d'action sur l'IA

novembre 2024
Voir tous les articles

Future of Life Institute Podcast

Les podcasts les plus récents que nous avons diffusés :
Voir tous les épisodes

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention
cloudmagnifiercroixarrow-up
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram