Passer au contenu
Le Future of Life Institute
présente

La superintelligence imaginée

Le concours créatif sur les risques de la superintelligence

Le concours du meilleur matériel de formation créatif sur la superintelligence, les risques associés, ainsi que sur les répercussions de cette technologie dans notre monde.
5 prix de 10 000 $ chacun | Entrée gratuite
Postuler avant le 31 août 2024

Remarques relatives aux concours

Soyez informé des mises à jour importantes relatives aux concours, recevez des rappels sur le calendrier et les événements liés aux concours, tels que les ateliers et les sessions de travail en commun.
A venir en octobre 2024

Gagnants

Les gagnants du concours seront présentés ici en octobre 2024. Pour être informé de l'annonce des gagnants, inscrivez-vous aux "notifications de concours".
Titre de la soumission
A venir
Titre de la soumission
A venir
Titre de la soumission
A venir
Titre de la soumission
A venir
Titre de la soumission
A venir
Contenu

Bulletin de participation

Introduction

Plusieurs des plus grandes entreprises technologiques, dont Meta et OpenAI, ont récemment réaffirmé leur engagement à concevoir une IA plus performante que l'homme dans toute une série de domaines. De plus, elles engagent d'énormes ressources pour atteindre cet objectif.

Les enquêtes montrent que le public est préoccupé par l'IA, surtout lorsqu'elle menace de remplacer la prise de décision humaine. Cependant, le discours public aborde rarement les conséquences fondamentales de la superintelligence : si nous créons une classe d'agents supérieure aux humains dans tous les domaines, l'humanité doit s'attendre à perdre le contrôle.

Un tel système présenterait des risques significatifs de déresponsabilisation de l'homme, voire même d'extinction. Les experts en IA ont averti le public des risques d'une course à la superintelligence, et ont signé une déclaration affirmant que l'IA comportait des risques d'extinction. Ils ont même réclamé une pause du développement de la "frontier AI".

Tout système, dont les performances dépassent celles des humains les plus experts dans un très large éventail de tâches cognitives, correspond à notre définition d'un système d'IA superintelligent.

Un système superintelligent peut être constitué d'un seul système très puissant ou de plusieurs systèmes moins puissants, travaillant simultanément pour surpasser les humains. Un tel système peut être développé en partant de zéro et en utilisant de nouvelles méthodes d'apprentissage de l'IA. Il peut également résulter d'un système d'IA moins intelligent, capable de s'améliorer lui-même (auto-amélioration récursive), conduisant ainsi à une explosion d'intelligence.

Un tel système pourrait bientôt voir le jour : les chercheurs en IA pensent qu'il y a 10 % de chances qu'un tel système soit développé d'ici 2027 (Remarque : la prédiction concerne la “High-Level Machine Intelligence” (HLMI), voir le paragraphe 3.2.1 à la page 4).

Le Future of Life Institute organise ce concours, afin de générer des projets qui explorent ce que sont la superintelligence, les dangers et les risques liés au développement d'une telle technologie, ainsi que les répercussions et les conséquences qui en résulteraient pour notre économie, notre société et notre monde.

Votre projet

Votre projet a pour objectif d'aider le public que vous avez sélectionné à répondre à la question fondamentale suivante :

Qu'est-ce que la superintelligence et comment peut-elle menacer l'humanité ?

Nous voulons découvrir des analyses audacieuses, ambitieuses, créatives et instructives de la superintelligence. Les projets soumis doivent être des outils efficaces visant à inciter les gens à réfléchir sur la direction prise par le développement de l'IA, tout en restant axés sur la recherche et sur les idées existantes relatives à cette technologie. Enfin, ils doivent pouvoir circuler facilement et avoir un impact sur un large auditoire. Nous espérons que les projets pourront toucher des auditoires qui n'ont pas encore été confrontés à ces idées, les informer sur les systèmes d'IA superintelligents et les inciter à réfléchir sérieusement à l'impact de ces systèmes sur les choses qui leur sont importantes.

Moyens

Tout format textuel / visuel / auditif / spatial (p. ex. des vidéos, des animations, des installations, des infographies, des jeux vidéo, des sites Web), y compris des supports multimédia. Le format peut être physique ou numérique, mais le projet final doit être hébergé en ligne et soumis sous forme numérique.

Les candidats retenus peuvent inclure des vidéos, des animations et des infographies. Nous aimerions voir davantage de supports créatifs, tels que des jeux vidéo, des romans graphiques, des œuvres de science-fiction, des expositions numériques et autres, pour autant qu'ils répondent à nos critères d'évaluation.

Les prix

Les prix seront attribués aux cinq projets soumis les mieux notés en fonction de nos critères d'évaluation, selon le vote de nos juges. Nous pouvons également publier des "mentions honorables" sur le site Web du concours - ces projets ne recevront aucun prix.

La participation au concours est gratuite.

Littérature recommandée

Vous pouvez consulter les ouvrages suivants ayant pour thème la superintelligence :

Introduction à la superintelligence

Ces ressources sont une introduction au thème de la superintelligence, à différents niveaux d'approfondissement :

Les risques de la superintelligence et comment les atténuer

Les ressources suivantes donnent des arguments expliquant pourquoi la superintelligence pourrait présenter des risques pour l'humanité, et ce que nous pourrions faire pour les atténuer :

Arguments contre les risques de la superintelligence

Tout le monde n'est pas d'accord sur le fait que la superintelligence est un risque pour l'humanité. Même si vous êtes d'accord avec nous pour dire que c'est le cas, votre auditoire cible peut être sceptique - vous pouvez donc souhaiter aborder certains de ces contre-arguments dans votre œuvre d'art :

Cette courte liste est tirée des articles du blog écrits par Michael Nielsen.

Accueillir des événements

Si vous souhaitez organiser un événement ou un atelier pour que les participants élaborent des projets pour ce concours, vous pouvez volontiers le faire. Veuillez nous contacter pour vous assurer que la structure de votre événement corresponde à nos critères d'éligibilité et obtenir un soutien supplémentaire si vous souhaitez.

Votre projet

Votre projet doit inclure les éléments suivants :

  • Matériel créatif (doit être numérisé, disponible sur une adresse URL)
  • Résumé de votre œuvre d'art (2-3 phrases) décrivant votre soumission
  • Détails de l'équipe : noms des membres, adresses mail, lieux, rôles dans le projet

La liste complète des champs à remplir figure dans le formulaire de candidature. Vous pouvez enregistrer un brouillon de votre projet et inviter d'autres personnes à coopérer sur un même projet.

Calendrier du concours

31 mai 2024
Date d'ouverture de soumission des projets
31 août 2024
Date limite de soumission des projets
octobre 2024
Évaluation achevée
octobre 2024
Annonce des lauréats
Les candidatures sont closes
Contactez-nous pour obtenir une prolongation de délai : taylor@futureoflife.org

Les supports des projets resteront la propriété intellectuelle (IP) du candidat. En signant cet accord, le candidat accorde au FLI une licence mondiale, irrévocable et libre de droits pour l'hébergement et la diffusion du support. Cela impliquera probablement une publication sur le site Web du FLI et la diffusion de messages dans les médias sociaux.

Les candidats ne doivent pas publier les supports de leur projet avant l'annonce des lauréats du concours, sauf pour mettre le dossier à la disposition de nos juges. Après l'annonce des lauréats, tous les candidats peuvent publier leur projet avec le support qu'ils souhaitent - nous les encourageons d'ailleurs à le faire.

Les soumissions gagnantes et les mentions honorables seront publiées sur la page web du concours, partagées sur nos canaux de médias sociaux et distribuées à notre public afin qu'elles puissent être vues et appréciées. Ces documents resteront sur notre site pour une durée indéterminée.

Les documents publiés avant la date limite de soumission ne sont pas éligibles pour ce concours. Ce concours est destiné à générer de nouveaux documents.

Les candidats sont autorisés à soumettre autant de candidatures qu'ils le souhaitent, mais ne peuvent recevoir qu'un seul prix. Les candidats ne peuvent travailler que dans une seule équipe, mais ils peuvent envoyer des projets à la fois en tant qu'équipe et en tant qu'individus.

Les équipes doivent partager l'argent gagné avec tous les membres de l'équipe.

Après l'annonce des lauréats, les projets présentés sur notre site Web doivent être mis gratuitement à la disposition de nos utilisateurs. C'est pourquoi vous souhaitez peut-être produire une démonstration gratuite de votre projet, si vous souhaitez vendre la version complète ailleurs.

Rejoindre la communauté

En tant qu'équipe, nous pouvons réaliser de plus grandes choses ayant une meilleure qualité. Si vous souhaitez former ou rejoindre une équipe, inscrivez-vous dans notre espace communautaire numérique pour nouer des contacts avec d'autres candidats, trouver des personnes ayant des compétences complémentaires, partager des idées de projets et coopérer.

Rejoindre la communauté

Les juges

Vous trouverez ci-dessous la liste des juges qui seront chargés d'examiner les candidatures :
Eddy Altmann
LinkedIn

Eddy est directeur de la technologie chez Conscience créativeune communauté créative et une organisation mondiale à but non lucratif qui organise des événements pour les créateurs de changement, des programmes de formation et les Creative Conscience Awards. En 2024, il a organisé un événement "Creative Change Makers : Créativité + IA pour un monde meilleur"afin de mettre en lumière les applications positives de l'IA dans les industries créatives. Diplômé en physique de l'université de Manchester, il excelle dans l'alliance de l'innovation et de la durabilité. Il a partagé ses idées sur l'avenir du design et de l'IA au V&A dans le cadre du Global Design Forum, et a contribué à des groupes de réflexion gouvernementaux sur l'IA dans le secteur créatif.

Ben Cumming
LinkedIn

Ben est directeur de la communication à l'adresse Future of Life Institute, et travaillait auparavant pour Responsible Business Initiative for Justice et Chatham House. Il est membre du conseil d'administration d'Action on Poverty et a publié des articles dans PRWeek, The Telegraph et MIT Sloan Management Review.

Beatrice Erkers
LinkedIn

Beatrice est directrice d'Existential Hope, un programme qui encourage les discussions réfléchies sur le rôle de la technologie dans la société, et co-animatrice du podcast "Existential Hope". podcast "Existential Hope à l'Institut Foresight Instituteune organisation qui fait progresser les sciences et les technologies sûres et bénéfiques pour l'épanouissement à long terme de la vie, où elle a précédemment occupé les fonctions de directrice de l'exploitation et de directrice de la communication. Elle a fait de nombreuses apparitions sur des blogs et des podcasts pour parler de l'importance de l'"espoir existentiel" et du long terme. Elle est titulaire d'une licence en littérature comparée et d'un master en histoire des sciences et des idées de l'université d'Uppsala.

Alexis Harrell
LinkedIn

Alexis est un candidat à la maîtrise en sciences des données sociales à l'Université d'Oxford, qui a récemment terminé une maîtrise en avenirs narratifs : Art, Data, Society de l'Université d'Édimbourg. Ses études précédentes combinaient des supports créatifs avec une recherche empirique sur l'IA et l'éthique des données. Ses recherches visent à garantir le développement et le déploiement éthiques de l'IA dans les systèmes de soins de santé. Elle est chargée d'enseignement en gouvernance de l'IA à BlueDot Impact et contractante en communication au Centre pour la résilience à long terme (CLTR).

Justin Liang
LinkedIn

Justin est actuellement responsable de la conformité pour la division matériel de Google, où il dirige la fonction Responsible AI & Compliance - une équipe interfonctionnelle d'avocats, d'ingénieurs en protection de la vie privée, de responsables de la confiance et de la sécurité, et d'éthiciens unis dans leur mission d'innover de manière responsable. Il a passé plus de 15 ans dans diverses fonctions de gestion des risques et de conformité, notamment en tant que Chief Compliance Officer (US Payments) chez Uber, et en tant que conseiller auprès de nombreuses startups technologiques. Il est titulaire d'une licence de l'université de Princeton et a suivi des études supérieures en économie politique à Harvard et au MIT, où il a été Boren National Security Fellow et Rotary Scholar. Il est passionné de triathlon, de musique, de taekwondo et de bibliophilie.

Sofia Pires
LinkedIn

Sofia est un penseur unique qui possède une longue expérience dans le domaine de la communication et de la stratégie de marque au sein de PHD Media, OMDet Ogilvy. Aujourd'hui, elle met à profit sa passion pour la technologie et son expertise pour partager des points de vue stimulants sur les implications de l'IA pour les entreprises et la société sur SubStack et sur Instagram et améliorer la connaissance de l'IA générative pour les autres. Elle commencera bientôt à travailler pour BridgeAI à l'Institut Alan Turing. Alan Turing Institute.

Elise Racine
LinkedIn

Elise est la fondatrice de "de PALOMA", un collectif artistique et une galerie activistes qui ont récemment lancé un nouveau projet intitulé Panopticons pandémiques qui présente certaines de ses créations. Elle est également chargée d'enseignement en gouvernance de l'IA auprès de BlueDot Impact, et fait partie du Collectif Arts, Santé et Éthique (AHEC) à l'Université d'Oxford, où elle est doctorante, Clarendon Scholar et lauréate de la bourse Baillie Gifford-Institute for Ethics in AI Scholarship. Ses recherches portent sur les impacts sociétaux, les implications politiques et les défis de gouvernance des technologies émergentes, en particulier l'intelligence artificielle. Un aspect clé de son approche est l'intégration des résultats créatifs avec la recherche académique et l'activisme. Auparavant, Elise a réalisé des travaux de création et de communication pour une variété d'organisations sociales et de startups.

Emily Schwartz
LinkedIn

Emily est partenaire en communication stratégique chez Bryson Gillette. Elle est également conseillère du Responsible Technology Fellowship à l'Aspen Institute. Au cours des dix dernières années, elle a travaillé à l'intersection de la technologie, des affaires et de la politique : parmi ses nombreuses réalisations, elle a dirigé la stratégie médiatique et de communication pour Frances Haugen, la dénonciatrice de Facebook, et a contribué à l'adoption d'une loi révolutionnaire en Californie exigeant des entreprises technologiques qu'elles donnent la priorité à la sécurité et à la vie privée des enfants. Au début de l'année, Emily est apparue aux côtés d'Anthony Aguirre, de FLI, à SXSW dans le cadre d'une table ronde intitulée "De l'algorithme à l'armement : comprendre la sécurité et la vie privée des enfants".Des algorithmes aux armes : comprendre l'interaction entre l'IA, les médias sociaux et les armes nucléaires".

Nell Watson
LinkedIn

Nell occupe un certain nombre de postes de conseillère dans le but de protéger l'éthique, la sécurité et les valeurs humaines dans la technologie, en particulier l'intelligence artificielle, notamment au sein de l'European Responsible Artificial Intelligence Office (EURAIO), de l'IEEE Standards Association, de la Singularity University, d'Apple, et bien d'autres. Elle a été juge pour de nombreux concours de startups et de création, ainsi que pour des prix d'innovation tels que XPRIZE. Cette année, elle a publié un livre intitulé "Apprivoiser la machine : Exploiter le pouvoir de l'IA de manière éthique". Elle a donné de nombreuses conférences sur la sécurité et l'éthique de l'IA. Vous pouvez en savoir plus sur son travail sur son site web.

Critères

Les projets seront évalués en fonction des critères suivants :

Une communication efficace sur les risques de la superintelligence

En fin de compte, nous voulons voir des propositions qui peuvent accroître la sensibilisation et l'engagement à l'égard des risques de la superintelligence. Il est donc essentiel que votre œuvre communique ces risques d'une manière efficace pour le public visé.

Par exemple, il peut s'agir d'étudier soigneusement votre auditoire, de tester un prototype et d'intégrer leurs commentaires.

Nous considérons ce critère comme étant le plus important - les candidatures qui ne répondent pas à ce critère ont très peu de chances d'être retenues.

Exactitude scientifique et plausibilité

Nous recherchons des projets présentant des idées cohérentes avec la science de l'IA et les risques associés et/ou qui décrivent des scénarios plausibles dans le monde réel. Si votre œuvre d'art présente les risques de façon irréaliste, il est peu probable qu'elle incite l'auditoire à prendre le problème au sérieux.

Par exemple, vous pourriez souhaiter étudier une partie de la littérature existante sur l'IA/la superintelligence plus intelligente que l'homme pour que votre œuvre d'art s'appuie sur des idées et des cadres existants, ou pour intégrer certains détails techniques à votre œuvre art.

Portée et accessibilité

Nous voulons que vos projets soient vus et appréciés par un grand nombre de personnes. Nous considérons que c'est un bonus si votre projet peut être largement diffusé sans perdre de son efficacité. Pensez à choisir un support ou un format qui peut être apprécié par différentes audiences dans de nombreux contextes - sans perdre de vue l'auditoire principal auquel vous vous adressez.

Par exemple, vous pourriez choisir de produire un livre électronique plutôt qu'un livre imprimé, de concevoir une version de votre site Web adaptée aux téléphones portables ou de mettre votre œuvre d'art à disposition en plusieurs langues.

FAQs

  • Les projets doivent être rédigés en anglais (ou fournir au moins une version anglaise).
  • Les participants peuvent venir de partout dans le monde (cependant, pour recevoir le prix, ils doivent se trouver dans un endroit, où nous pouvons leur verser de l'argent).
  • Il n'y a pas de limite d'âge pour les participants.

Les cinq projets gagnants seront désignés par notre jury sur la base des trois critères d'évaluation. Chacun d'entre eux recevra un prix de 10 000 USD.

Les équipes doivent partager l'argent gagné avec tous les membres de l'équipe.

Nous pourrons également décerner des "mentions honorables" à des travaux qui n'ont pas été primés, mais qui méritent d'être découverts. Ces projets ne recevront pas de prix numéraire, mais seront affichés sur notre site aux côtés des projets gagnants.

Oui, mais les équipes de plus de 5 personnes doivent nous contacter à l'adresse taylor@futureoflife.org pour approbation. Chaque participant ne peut s'inscrire qu'au sein d'une seule équipe, mais il a le droit de postuler en tant qu'équipe et en tant qu'individu.
Oui, si cela améliore la qualité de votre travail final, mais vous devez faire preuve de discernement, en décidant si les éléments de votre œuvre d'art sont créés par l'homme ou générés par l'IA. Vous devez également indiquer dans votre œuvre d'art comment et où le contenu généré par l'IA a été utilisé.

Contact

Pour de plus amples informations sur le concours, n'hésitez pas à nous contacter.

Responsable du concours

Questions sur le thème du concours, les conditions d'éligibilité et les critères d'évaluation.
taylor@futureoflife.org

Fonctionnement du concours

Questions sur le formulaire d'inscription et le paiement des prix.
grants@futureoflife.org

Remarques relatives aux concours

Soyez informé des mises à jour importantes relatives aux concours, recevez des rappels sur le calendrier et les événements liés aux concours, tels que les ateliers et les sessions de travail en commun.

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram