Accélérateur de médias numériques

La course effrénée des entreprises d'IA à la construction d'une IA de plus en plus puissante - y compris l'intelligence générale artificielle (AGI), bien qu'elles n'aient aucun moyen de la contrôler - précipite le reste de l'humanité vers un avenir dangereux et incertain. Les plus grands experts de l'IA s'accordent à dire que l 'atténuation du risque d'extinction par l'IA devrait être une priorité mondiale - les dirigeants des entreprises d'IA eux-mêmes abordant même explicitement les dangers de la technologie qu'ils sont en train de construire. Il n'est cependant pas trop tard pour changer de trajectoire. Nous pouvons créer un avenir sûr et prospère grâce à une IA-outil contrôlable et fiable - des systèmes intentionnellement construits pour renforcer l'homme plutôt que de le remplacer - si nous sommes prêts à prendre des mesures décisives dès maintenant.
Cependant, la sensibilisation et la compréhension du public restent limitées. Le programme FLI Digital Media Accelerator a pour but d'aider les créateurs à produire du contenu, à développer des chaînes et à faire passer le message à de nouveaux publics. Nous cherchons à soutenir les créateurs qui peuvent expliquer des questions complexes liées à l'IA - telles que les implications de l'AGI, les problèmes de contrôle, les objectifs mal alignés ou la concentration du pouvoir des Big Tech - d'une manière que leur public peut comprendre et à laquelle il peut s'identifier. En soutenant divers formats de contenu sur différentes plateformes, nous voulons susciter des conversations plus larges sur les risques liés au développement d'une IA de plus en plus puissante et de l'AGI.
Nous souhaitons soutenir les créateurs qui
- Ils sont déjà suivis et souhaitent sensibiliser le public à la sécurité et aux risques liés à l'IA ;
- Avoir des idées convaincantes pour des contenus percutants afin de sensibiliser de nouveaux publics à la sécurité et aux risques liés à l'IA ; et
- Nous sommes particulièrement désireux de soutenir les créateurs désireux de discuter de la sécurité de l'IA dans leur contenu de manière continue, en l'incorporant dans leur production régulière.
Vous trouverez ci-dessous des exemples de contenus que nous pourrions être intéressés à financer :
- Une série de vidéos explicatives sur YouTube sur des sujets liés à la sécurité de l'IA
- Une chaîne, telle qu'un compte TikTok, dédiée à l'actualité quotidienne de l'IA
- Un Substack ou un bulletin d'information consacré à l'explication des nouveaux documents de recherche sur la sécurité de l'IA
- Un compte existant avec un objectif spécifique (par exemple, l'éducation) créant une courte série explorant les impacts de l'IAG avancée sur le travail.
- Une chaîne de mise à jour technologique existante partageant plus d'informations sur les risques liés à l'IA
- Une série de podcasts pour le grand public sur les progrès de l'AGI et ses implications
N'hésitez pas à contacter maggie@futureoflife.org si vous avez des questions.
Formulaire de demande
Autres projets dans ce domaine

L'engagement des parties prenantes pour une IA sûre et prospère
