Notre mission
Mettre les technologies de transformation au profit de la vie et œuvrer pour qu'elles ne présentent pas de risques majeurs à grande échelle.
Nous pensons que la manière dont une technologie puissante est développée et utilisée sera le facteur le plus important pour déterminer les perspectives d'avenir de la vie. C'est pourquoi nous nous sommes donnés pour mission de veiller à ce que la technologie continue d'améliorer ces perspectives.
Mises à jour récentes
Maintenant
Le projet de loi californien sur la sécurité de l'IA, qui vise à protéger le public tout en préservant l'innovation, a été adopté par le corps législatif avec le soutien des électeurs, des législateurs et des experts. Le gouverneur Newsom va-t-il signer ? Voici une explication vidéo rapide et les réponses aux questions les plus fréquentes.
Domaines d'intervention
Les risques sur lesquels nous nous concentrons
Nous sommes actuellement préoccupés par trois risques majeurs. Ils dépendent tous du développement, de l'utilisation et de la gouvernance des technologies de transformation. Nous concentrons nos efforts sur la maîtrise des impacts de ces technologies.
Intelligence artificielle
Des algorithmes de recommandation aux chatbots en passant par les voitures autonomes, l'IA est en train de changer nos vies. Au fur et à mesure que l'impact de cette technologie s'accroît, les risques augmentent.
Intelligence artificielle
Biotechnologie
Qu'il s'agisse de la propagation accidentelle d'agents pathogènes modifiés ou de l'échec d'une expérience de modification génétique, les dangers de la biotechnologie sont trop importants pour que nous puissions agir à l'aveugle.
Biotechnologie
Armes nucléaires
Près de quatre-vingts ans après leur apparition, les risques causés par les armes nucléaires sont plus élevés que jamais, et de nouvelles recherches révèlent que les conséquences sont encore plus graves qu'on ne le pensait auparavant.
Armes nucléaires
Drones autonomes UAV Kargu sur le campus du Technoparc OSTIM à Ankara, Turquie - juin 2020.
Notre travail
Comment abordons-nous ces questions ?
Il existe de nombreuses possibilités de changement potentiels pour orienter le développement et l'utilisation des technologies de transformation. Nous nous concentrons sur certaines de ces possibilités pour augmenter nos chances de réussite.
Politique
Nous menons des plaidoyers aux États-Unis, dans l'Union européenne et aux Nations unies.
Notre travail politiqueSensibilisation
Nous élaborons du matériel pédagogique destiné à éclairer le discours public et à encourager les gens à s'impliquer.
Notre travail de sensibilisationOctroi de subventions
Nous accordons des subventions à des personnes et à des organisations, qui travaillent sur des projets qui soutiennent notre mission.
Nos programmes de subventionsÉvènements
Nous réunissons les responsables des domaines concernés pour discuter des moyens de garantir la sécurité du développement et de l'utilisation de technologies puissantes.
Nos évènementsProjets à la une
Les projets sur lesquels nous travaillons
Découvrez quelques-uns de nos projets actuels :
Lutter contre les "deepfakes
2024 se transforme rapidement en l'année du "Fake" (faux). Dans le cadre d'une coalition croissante d'organisations concernées, le FLI appelle les législateurs à prendre des mesures significatives pour perturber la chaîne d'approvisionnement des "deepfakes" générés par l'IA.
Concours créatif sur la superintelligence
Le concours du meilleur matériel de formation créatif sur la superintelligence, les risques associés, ainsi que sur les répercussions de cette technologie dans notre monde. 5 prix de 10 000 $ chacun.
Perspectives des religions traditionnelles sur l'avenir positif de l'IA
La majorité de la population mondiale pratique une religion traditionnelle. Pourtant, les perspectives de ces religions sont largement absentes des discussions stratégiques sur l'IA. Cette initiative vise à aider les groupes religieux à exprimer leurs préoccupations et leurs espoirs relatifs à leur foi dans un monde avec l'IA. Elle vise également à coopérer avec eux pour éviter les préjudices et bénéficier des avantages de l'IA.
La lettre des sages sur les menaces existentielles
Les sages, le Future of Life Institute et de nombreuses personnalités éminentes appellent les dirigeants du monde à s'attaquer d'urgence aux dommages et aux risques croissants de la crise du climat, des pandémies, des armes nucléaires et de l'IA non gouvernée.
Réaliser des avenirs prometteurs - Nouvelles possibilités de subventions du FLI
Nous ouvrons deux nouvelles possibilités de financement pour soutenir la recherche sur les façons dont l'intelligence artificielle peut être exploitée en toute sécurité pour rendre le monde meilleur.
Convergence de l'IA : risques à la croisée de l'IA et des menaces nucléaires, biologiques et cybernétiques
Le caractère à double tranchant des systèmes d'IA peut amplifier celui d'autres technologies - c'est ce que l'on appelle la convergence de l'IA. Nous fournissons une expertise politique aux décideurs américains dans trois domaines essentiels de convergence : biologique, nucléaire et cybernétique.
Renforcement du règlement européen sur l'IA
Nos principales recommandations consistent à élargir le champ d'application de la loi pour réglementer les systèmes à usage général et elles visent à étendre la définition de la manipulation interdite à tout type de technique de manipulation, ainsi qu'à la manipulation qui cause un préjudice à la société.
Sensibilisation aux armes autonomes létales
Les applications militaires de l'IA se développent rapidement. Nous élaborons des documents pédagogiques sur la manière dont certaines catégories restreintes d'armes utilisant l'IA peuvent nuire à la sécurité nationale et déstabiliser la civilisation, notamment les armes dans lesquelles la décision de tuer est entièrement déléguée à des algorithmes.
Gouvernance mondiale de l'IA à l'ONU
Notre participation aux travaux des Nations Unies s'étend sur plusieurs années et comprend plusieurs initiatives, y compris la feuille de route pour la coopération numérique et le pacte mondial pour le numérique (GDC).
Concours de construction d'univers
Le Future of Life Institute a accepté les candidatures d'équipes venant du monde entier pour participer à un concours doté d'un prix allant jusqu'à 100 000 $. L'objectif est de concevoir des visions d'un avenir plausible et ambitieux, qui inclut fortement l'intelligence artificielle.
Future of Life Award
Chaque année, le Future of Life Award est décerné à un ou plusieurs héros méconnus qui ont contribué de manière significative à préserver l'avenir de la vie.
Afficher tous les projets
Bulletin d'informations
Des mises à jour régulières sur les technologies qui façonnent notre monde
Chaque mois, nous donnons à plus de 41 000 abonnés les dernières nouvelles sur la façon dont les technologies émergentes transforment notre monde. Cela comprend un résumé des principaux développements dans nos domaines d'intervention, ainsi que des mises à jour essentielles sur le travail que nous effectuons. Abonnez-vous à notre bulletin d'informations pour être informé de ces points forts à la fin de chaque mois.
Future of Life Institute Lettre d'information : Le gouvernement Newsom cède à Big Tech sur la loi SB 1047
Un résultat décevant pour le projet de loi sur la sécurité de l'IA, des nouvelles de l'AGNU, notre subvention de 1,5 million de dollars pour la recherche sur la convergence des risques à l'échelle mondiale, et plus encore.
Maggie Munro
1 octobre, 2024
Future of Life Institute Lettre d'information : Le projet de loi californien sur la sécurité de l'IA sur le bureau du gouverneur
Dernières mises à jour sur l'élaboration des politiques, l'équipe de sécurité de l'OpenAI aurait été réduite de moitié, vers un traité AWS, et plus encore.
Maggie Munro
30 Août, 2024
Future of Life Institute Lettre d'information : Nouveau programme de subventions de 4 millions de dollars !
Atténuer la concentration du pouvoir induite par l'IA, la collaboration entre Pindex et FLI , l'annonce de nos nouveaux boursiers et de leurs projets, et plus encore.
Maggie Munro
1 Août, 2024
Lire les éditions précédentes
Nos contenus
Derniers articles
Les articles les plus récents que nous avons publiés :
La Chambre des représentants des États-Unis demande la mise en place d'une responsabilité juridique pour les "Deepfakes".
Les récentes déclarations de la Chambre des représentants des États-Unis nous rappellent la menace urgente que représentent les "deepfakes" pour notre société, en particulier à l'approche de l'élection présidentielle américaine.
1 octobre, 2024
Déclaration sur le veto du projet de loi californien SB 1047
"Le lobbying acharné contre le projet de loi ne peut être interprété que d'une seule manière : ces entreprises estiment qu'elles doivent jouer selon leurs propres règles et n'avoir de comptes à rendre à personne. Ce veto ne fait que renforcer cette conviction. Il est temps de légiférer au niveau des États, au niveau fédéral et au niveau mondial pour obliger les grandes entreprises technologiques à respecter leurs engagements.
30 Septembre, 2024
Panda contre aigle
FLIexplique pourquoi l'intérêt national des États-Unis est bien mieux servi par une stratégie de coopération que par une stratégie d'opposition à l'égard de la Chine.
27 Septembre, 2024
L'avenir et l'artificiel : Une perspective islamique
"Un avenir positif pour un monde avec l'IA d'un point de vue islamique est un avenir dans lequel l'option de dire non à l'intégration de l'IA dans les infrastructures, les appareils, les produits, les services, les institutions, et ailleurs, est préservée aux niveaux individuel et collectif"
26 Septembre, 2024
Afficher tous les articles
Documents de politique générale
Les documents politiques les plus récents que nous avons publiés :
Passer de la vision à l'action : Mise en œuvre de la feuille de route du Sénat sur l'IA
Juin 2024
Amendements recommandés aux propositions législatives sur les "Deepfakes"
mai 2024
Réponse du FLI à l'OMB : demande d'informations sur l'acquisition responsable d'intelligence artificielle au sein du gouvernement
avril 2024
La concurrence dans l'IA générative : les réactions de l'institut Future of Life à la consultation de la Commission Européenne
mars 2024
Afficher tous les documents de politique générale
Future of Life Institute Podcast
Les podcasts les plus récents que nous avons diffusés :
Voir tous les épisodes