Passer au contenu
Faites-vous entendre

Protégez l'humain.

Les géants de la tech s'affrontent pour développer des systèmes d'intelligence artificielle de plus en plus puissants et incontrôlables, conçus pour remplacer les humains. Vous avez le pouvoir d'agir.
Agissez dès maintenant pour protéger notre avenir :

Informez les autres

Prenez la parole, faites-vous entendre. Parlez à votre famille et à vos amis de l'urgence d'agir.
Regarder la vidéo

Ce qu'il faut savoir sur l'IA aujourd'hui

Graphique des capacités d'IA

Les capacités de l'IA progressent de manière spectaculaire

...et ne font qu'accélérer.

Rien que ces dernières années, les modèles d’IA ont appris à imiter les humains, à générer des sons, des images et des vidéos saisissants de réalisme, à battre les meilleurs programmeurs du monde dans des compétitions de code, et à mener des travaux de recherche en toute autonomie. Tous les mois ou presque, de nouvelles capacités — et de nouveaux risques — apparaissent.

Tant que les géants de la tech investissent des budgets toujours plus importants et construisent des data centers toujours plus vastes, on peut s’attendre à une accélération continue des capacités de l’IA.

Cesser d'embaucher des humains Annonce

Les géants de la tech développent des IA explicitement conçues pour remplacer l'humain

…et ils pourraient bientôt y parvenir.

Les géants technologiques mondiaux (Google, Amazon, Microsoft, Facebook) ont tous déclaré qu'ils cherchaient à créer une intelligence artificielle générale, ou « IAG » : un type d’IA capable d’exécuter à peu près toutes les tâches qu’un humain peut accomplir.

Leur objectif final n’est PAS de concevoir des produits pour vous, mais pour votre employeur : des IA capables d’accomplir votre travail plus vite, à moindre coût, et sans limite de temps. Ils veulent vous remplacer.

Des experts tirent la sonnette d’alarme

...et pourtant, les décideurs restent passifs.

Des milliers d’experts ont alerté sur les immenses dangers posés par les systèmes d’IA puissants : armes biologiques, attaques contre les infrastructures, chômage de masse, voire même extinction.

Mais vous n’êtes pas obligé de les croire sur parole : plusieurs PDG de ces grandes entreprises de tech ont eux-mêmes reconnu publiquement que ces risques étaient bien réels.

Malgré ces alertes précoces, les décideurs continuent de céder aux pressions des lobbys de la tech et refusent d’adopter des mesures de précaution raisonnables.

Rejoignez le #CôtéHumain.

Depuis 2015, des personnes comme vous nous soutiennent dans notre combat pour un avenir humain, un avenir où l'humanité entière est habilitée par les outils d'IA à réaliser son potentiel, et non remplacée par l'IA.

Quelques exemples de la manière dont nous avons travaillé avec des personnes du monde entier pour s'assurer que l'avenir reste humain :

  • Plus de 33 000 personnes ont signé la lettre ouverte "Pause Giant AI Experiments" (Mettons en pause les expériences d'IA à grande échelle), appelant à une pause dans le développement de systèmes d'IA plus puissants, y compris des chefs d'entreprise, des leaders communautaires, des familles et des citoyens inquiets. La lettre a lancé une discussion mondiale sur la sécurité et l'éthique de l'IA.
  • Plus de 1 000 personnes ont participé à des ateliers, des cours et des hackathons pour élaborer des visions positives de l'avenir avec l'IA. Ces visions façonnent le discours sur les technologies que nous devrions développer et celles que nous ne devrions pas développer.
  • Les communautés religieuses du monde entier prennent conscience des avantages potentiels, mais aussi des risques majeurs, posés par l'IA puissante. Elles font entendre leur voix et exercent un leadership moral sur le développement des technologies émergentes.
  • Des milliers de personnes ont partagé leurs histoires sur les réseaux sociaux et signé des lettres ouvertes (y compris des leaders jeunesse, des parents, des universitaires, des experts en IA et même d'anciens employés de laboratoires d'IA) pour exprimer leur soutien à un projet de loi californien de 2024 visant à protéger les citoyens des risques liés à l'IA, lorsque son adoption était en jeu.
  • Plus de 100 millions de personnes ont visionné et partagé "Slaughterbots", notre série de vidéos virales sur les armes autonomes, à laquelle les décideurs politiques font toujours référence aujourd'hui.

Votre voix compte, soyez prêt à l'utiliser. Nos alertes d'action vous permettent d'agir de manière concrète au moment où c'est le plus important.

Nous devons garder le contrôle sur l'avenir de notre monde ; nous devons stopper le développement d'une IA surhumaine.

Recevez des alertes d'action

Participez à la lutte et tenez-vous informé.
Recevez des invitations à agir de manière directe et significative au moment où c'est le plus important.
Action liée

Abonnez-vous à la newsletter du FLI

Rejoignez plus de 40 000 abonnés à la newsletter afin de recevoir des mises à jour mensuelles sur le travail que nous effectuons pour prévenir le développement d'une IA surhumaine.

Lancez la conversation essentielle.

Prenez la parole, faites-vous entendre. Parlez à votre famille et à vos amis de l'urgence d'agir.
La plupart des gens ignorent que que les grandes entreprises technologiques construisent des IA pour remplacer les humains. 
Utilisez ce matériel personnalisable pour aider vos proches à comprendre les enjeux.

Visuels pour les réseaux sociaux

Utilisez, modifiez et partagez ces visuels dans vos messages privés et vos fils d'actualité pour faire passer le mot.
Ouvrir le dossier de visuels

Notre plan pour que les humains gardent le contrôle.

"L'humanité est sur le point de développer une intelligence artificielle générale qui surpassera la nôtre. Il est temps de fermer les portes de l'IAG et de la superintelligence... avant que nous ne perdions le contrôle de notre avenir".
Le dernier essai d'Anthony Aguirre, notre directeur exécutif : Comment nous en sommes arrivés là, où l'IA se dirige aujourd'hui, les risques que cela pose, et un plan en quatre étapes pour protéger notre avenir humain.
Découvrez l'article

Montrez-leur ce dont l'IA est capable aujourd'hui.

Saviez-vous que l'IA peut déjà créer un deepfake audio  d'une personne avec seulement quelques secondes d'enregistrement, générer une vidéo réaliste d'une scène imaginée, convaincre les gens en ligne qu'il s'agit d'une personne réelle, battre des développeurs professionnels dans des défis de codage, et bien plus encore ?
Les démonstrations ci-dessous montrent certaines des capacités les plus choquantes de l'IA aujourd'hui - et un aperçu de ce qui nous attend. Partagez-les avec les personnes de votre entourage qui n'ont peut-être pas remarqué ce que l'IA a appris à faire depuis ChatGPT.

Nos lectures recommandées

Voici quelques-uns des meilleurs écrits sur l'IA, rédigés par des personnes qui tentent de comprendre un monde avec l'IA et de l'orienter vers une direction positive. Ils offrent une clarté impressionnante et un bon sens remarquable. Nous les recommandons vivement à ceux qui souhaitent comprendre ce qui nous attend dans le domaine de l'IA et comment tracer une voie sûre

Faites pression sur les entreprises pour qu'elles excellent en matière de sécurité.

Nous devons montrer aux entreprises d'IA que la sûreté et la sécurité sont une priorité pour les clients et les citoyens. Faites-leur savoir que vous suivez de près leurs actions en leur posant directement des questions sur leurs performances par rapport à l'Index de sécurité de l'IA, et partagez cet index avec vos connaissances qui utilisent souvent l'IA.
Découvrir l'index
Notre Index de sécurité de l'IA invite des panels d'experts en IA à classer les principales entreprises d'IA en fonction de leurs performances en matière de sécurité, dans six domaines.

Ajoutez votre voix à celle des nombreux citoyens engagés.

Les individus doivent se faire entendre au sujet des technologies émergentes et des risques qu'elles comportent. Nous avons facilité ce dialogue au travers de nombreuses lettres ouvertes au fil des années. Les lettres ci-dessous continuent de récolter des signatures à ce jour — et elles ont besoin de la vôtre également.
Signataires
2672

Lettre ouverte appelant les dirigeants mondiaux à adopter un leadership à long terme face aux menaces existentielles

The Elders, le Future of Life Institute et un large éventail de cosignataires appellent les décideurs à s'attaquer d'urgence aux impacts actuels et aux risques croissants de la crise climatique, des pandémies, des armes nucléaires et de l’IA incontrôlée.
14 Février, 2024
Signataires
31810

Mettre en pause les expériences d'IA de grande envergure : lettre ouverte

Nous appelons tous les laboratoires d'IA à suspendre immédiatement l'entraînement des systèmes d'IA plus puissants que GPT-4 pour une durée d'au moins 6 mois.
22 Mars, 2023
Signataires
5720

Principes d'Asilomar sur l'IA

Les principes d'Asilomar sur l'IA, coordonnés par le FLI et élaborés lors de la Conférence d'Asilomar sur l'IA bénéfique, constituent l'un des premiers et l'un des plus influents ensembles de principes de gouvernance de l'IA.
11 Août, 2017
Toutes nos lettres ouvertes

Participez à nos programmes et initiatives

Nos projets

Jetez un œil à ce sur quoi nous travaillons actuellement et faites-nous savoir si vous êtes intéressé à collaborer — ou si vous avez des idées, des ressources ou des relations qui pourraient nous aider.

Accélérateur de médias numériques

Si vous souhaitez produire du contenu créatif sur le thème des risques de l'IA, nous voulons vous fournir les fonds nécessaires pour démarrer. Postulez à notre Accélérateur de médias numériques et partagez avec nous vos meilleures propositions.

Faites un don à la cause.

Nous avons à peine entamé notre liste d'idées de projets. Les dons nous permettent de croître en tant qu'organisation et de concrétiser davantage de nos initiatives.

Visitez la page Notre travail pour en savoir plus sur le ce que nous avons accompli jusqu'à présent et les types de projets que vos dons pourraient aider à soutenir. Découvrez tout ce que vous devez savoir sur les dons sur notre page dédiée :

Faire un don

Retour en haut de la page 

Aidez-nous à améliorer cette page

Avons-nous oublié quelque chose dont vous auriez besoin ?

Cette page a récemment été repensée pour offrir davantage d’opportunités d’action pertinentes.

N'hésitez pas à nous faire part de vos retours ou commentaires. Nous sommes particulièrement impatients de savoir :

  • Si vous cherchiez quelque chose, mais que vous ne l'avez pas trouvé.
  • Si vous avez des idées de ressources qui vous semblent utiles.
  • Si vous avez particulièrement apprécié certains éléments sur cette page, ou si d'autres vous ont déplu.

S'abonner à la newsletter du Future of Life Institute

Rejoignez plus de 40 000 personnes qui reçoivent régulièrement des nouvelles de notre travail et de nos domaines d'action.
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram