Passer au contenu
projet

Accélérateur de médias numériques

L'accélérateur de médias numériques soutient le contenu numérique de créateurs qui sensibilisent aux développements et aux problèmes actuels de l'IA et les font mieux comprendre.

La course effrénée des entreprises d'IA à la construction d'une IA de plus en plus puissante - y compris l'intelligence générale artificielle (AGI), bien qu'elles n'aient aucun moyen de la contrôler - précipite le reste de l'humanité vers un avenir dangereux et incertain. Les plus grands experts de l'IA s'accordent à dire que l 'atténuation du risque d'extinction par l'IA devrait être une priorité mondiale - les dirigeants des entreprises d'IA eux-mêmes abordant même explicitement les dangers de la technologie qu'ils sont en train de construire. Il n'est cependant pas trop tard pour changer de trajectoire. Nous pouvons créer un avenir sûr et prospère grâce à une IA-outil contrôlable et fiable - des systèmes intentionnellement construits pour renforcer l'homme plutôt que de le remplacer - si nous sommes prêts à prendre des mesures décisives dès maintenant.

Cependant, la sensibilisation et la compréhension du public restent limitées. Le programme FLI Digital Media Accelerator a pour but d'aider les créateurs à produire du contenu, à développer des chaînes et à faire passer le message à de nouveaux publics. Nous cherchons à soutenir les créateurs qui peuvent expliquer des questions complexes liées à l'IA - telles que les implications de l'AGI, les problèmes de contrôle, les objectifs mal alignés ou la concentration du pouvoir des Big Tech - d'une manière que leur public peut comprendre et à laquelle il peut s'identifier. En soutenant divers formats de contenu sur différentes plateformes, nous voulons susciter des conversations plus larges sur les risques liés au développement d'une IA de plus en plus puissante et de l'AGI.

Nous souhaitons soutenir les créateurs qui

  • Ils sont déjà suivis et souhaitent sensibiliser le public à la sécurité et aux risques liés à l'IA ;
  • Avoir des idées convaincantes pour des contenus percutants afin de sensibiliser de nouveaux publics à la sécurité et aux risques liés à l'IA ; et
  • Nous sommes particulièrement désireux de soutenir les créateurs désireux de discuter de la sécurité de l'IA dans leur contenu de manière continue, en l'incorporant dans leur production régulière.

Vous trouverez ci-dessous des exemples de contenus que nous pourrions être intéressés à financer :

  • Une série de vidéos explicatives sur YouTube sur des sujets liés à la sécurité de l'IA
  • Une chaîne, telle qu'un compte TikTok, dédiée à l'actualité quotidienne de l'IA
  • Un Substack ou un bulletin d'information consacré à l'explication des nouveaux documents de recherche sur la sécurité de l'IA
  • Un compte existant avec un objectif spécifique (par exemple, l'éducation) créant une courte série explorant les impacts de l'IAG avancée sur le travail.
  • Une chaîne de mise à jour technologique existante partageant plus d'informations sur les risques liés à l'IA
  • Une série de podcasts pour le grand public sur les progrès de l'AGI et ses implications

N'hésitez pas à contacter maggie@futureoflife.org si vous avez des questions.

Nous acceptons les candidatures sur une base continue.
En raison du volume de candidatures que nous recevons, nous ne sommes pas en mesure de fournir un retour d'information détaillé sur toutes les demandes.

Formulaire de demande

Notre travail

Autres projets dans ce domaine

Nous travaillons sur une série de projets dans quelques domaines clés. Consultez certains de nos autres projets dans ce domaine :

L'engagement des parties prenantes pour une IA sûre et prospère

FLI lance de nouvelles subventions pour éduquer et engager les groupes de parties prenantes, ainsi que le grand public, dans le mouvement en faveur d'une IA sûre, sécurisée et bénéfique.

Garder l'avenir humain

Pourquoi et comment nous devrions fermer les portes de l'AGI et de la superintelligence, et ce que nous devrions construire à la place ? Un nouvel essai d'Anthony Aguirre, directeur exécutif de FLI.
Notre travail

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention.
cloudmagnifiercroixarrow-up
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram