Passer au contenu
Le Future of Life Institute
présente

La superintelligence imaginée

Le concours créatif sur les risques de la superintelligence

Le concours du meilleur matériel de formation créatif sur la superintelligence, les risques associés, ainsi que sur les répercussions de cette technologie dans notre monde.
1 Grand prix : 20 000
5 prix : 10 000
7 mentions honorables
31 mai - 31 août 2024

Remarques relatives aux concours

Soyez informé des événements connexes à venir, tels que d'autres concours et ateliers, organisés par le site Future of Life Institute.

À propos du concours

Le site Future of Life Institute a le plaisir d'annoncer les résultats de son premier concours créatif sur les risques liés à l'intelligence artificielle avancée. Parmi plus de 180 propositions, notre panel de neuf juges a sélectionné un grand gagnant, cinq gagnants auxquels sera attribué un prix de 70 000 dollars, ainsi que sept finalistes. Les œuvres d'art sont maintenant publiées et disponibles sur cette page web.

La participation au concours était gratuite et nous avons accepté les contributions de personnes de tout âge, partout dans le monde, à condition qu'elles soient rédigées en anglais. Certains projets ont été soumis par des équipes de cinq personnes, tandis que d'autres ont été présentés par un seul contributeur. Nous avons sélectionné un panel de juges, composé de neuf personnalités de premier plan dans le domaine de la science et de la communication des risques liés à l'alcool, afin d'évaluer les candidatures.

À l'origine, le concours devait offrir 50 000 dollars de prix à cinq gagnants, mais nous avons été tellement impressionnés par la vidéo "Writing Doom" de Suzy Shepherd que nous avons ajouté un "grand prix" supplémentaire de 20 000 dollars pour récompenser cette candidature. Cette vidéo s'est distinguée par sa capacité à transmettre le message clé de notre concours tout en produisant une œuvre médiatique frappante et divertissante.

Gagnants

Ces soumissions ont été désignées comme les gagnantes du concours sur la base des votes exprimés par notre panel de juges en fonction des trois critères d'évaluation. Nous avons attribué un grand prix de 20 000 dollars et cinq prix de 10 000 dollars aux gagnants.
Grand prix
L'écriture du malheur
Court métrage - Suzy Shepherd
Voir la soumission
Résumé de l'auteur
Writing Doom est un court métrage de fiction qui se déroule dans la salle des scénaristes d'une série télévisée. L'équipe de scénaristes est chargée de faire de la superintelligence artificielle le "méchant" de la prochaine saison de leur série télévisée. Avec l'aide d'un nouveau venu dans l'équipe (un docteur en apprentissage automatique), ils doivent discuter et explorer comment et pourquoi une ASI pourrait fonctionner en tant qu'antagoniste. Le film est destiné à présenter à un large public un grand nombre d'idées centrales sur la sécurité de l'IA et les risques de la superintelligence.

Suzy Shepherd, Royaume-Uni - Cinéaste(site web)

Eddy - "Il y a un bon équilibre entre l'engagement et l'information [...] La différence de points de vue est excellente et permet au public d'entrer en contact. [...] il est accessible à un très large public. La production de haute qualité aide vraiment.

Sofia - "Un texte étonnant, qui couvre tant de questions. Explication de ce qu'est la superintelligence et perspective de la façon dont les outils actuels comme chatGPT peuvent apprendre et évoluer vers l'ASI. De superbes exemples, comme le maximiseur de trombones adapté à un jeu d'échecs, ainsi qu'une grande fluidité pour emmener les gens sur le chemin de la pensée, en présentant les différentes perspectives des différents personnages."

Prix
6 couvertures de magazines du futur : Avertissements sur les dangers de la (super)intelligence artificielle
Série de posters, site web - Effct (6 membres)
Voir la soumission
Résumé de l'auteur
Les couvertures de magazines illustrent des moments critiques de l'histoire. Notre projet présente des couvertures du futur décrivant la montée de la superintelligence artificielle (ASI) et les menaces existentielles qu'elle représente. Chaque couverture est accompagnée de descriptions et d'ouvrages cités, garantissant ainsi l'exactitude scientifique. Nous explorons le potentiel de l'ASI et les graves dangers qu'elle représente, en appelant à une conversation mondiale sur l'alignement de l'ASI sur les valeurs humaines. Ce travail s'adresse aux décideurs politiques, aux technologues et au public afin d'inspirer l'action et de façonner notre avenir commun.

Nick Brown, USA - Chef de projet
Lauren Sheil, USA - Spécialiste en marketing
John Boughey, USA - Gestionnaire de comptes
Isaac Bilmes, USA - Coordinateur de production
Emma Morey, USA - Stagiaire
Nathan Truong, USA - Stagiaire

Eddy - "J'aime beaucoup ce projet, je pense qu'il réussit à trouver le juste milieu entre l'information et l'engagement. Le projet montre la complexité des problèmes sans en faire une surcharge d'informations. Les effets potentiels de la superintelligence sont bien pensés."

Emily - "J'aime l'efficacité simple de cette campagne. Elle est visuellement convaincante et chaque image est unique. Il y a un peu de nostalgie mêlée aux couvertures de magazines.
J'aime la facilité avec laquelle cette campagne pourrait être traduite et internationalisée. La variation des thèmes fonctionne et je pourrais imaginer les afficher à grande échelle d'une manière ou d'une autre ou même en tant que messages sur les médias sociaux."

Prix
Comment l'IA menace l'humanité, avec Yoshua Bengio
Vidéo - Dr Waku (featuring Yoshua Bengio)
Voir la soumission
Résumé de l'auteur
Je dirige la chaîne YouTube Dr Waku, et j'ai réalisé cette vidéo comme une plongée spéciale dans la superintelligence, destinée au grand public. J'ai interviewé Yoshua Bengio et exposé certaines de ses idées. Lisez la description de la vidéo pour en savoir plus. Yoshua n'aurait probablement pas participé à cette vidéo sans le concours.

Dr Waku, Canada - Producteur, scénariste, vidéaste
Yoshua Bengio, Canada - Interviewé

Eddy - "Incroyablement détaillé et instructif, [cependant] la création d'une série de vidéos courtes serait probablement beaucoup plus efficace."

Elise - "La vidéo fait un excellent travail pour communiquer les risques de la superintelligence à un public général. En s'appuyant sur l'expertise de Yoshua Bengio et en formulant la discussion en termes accessibles, la présentation souligne efficacement les risques clés tels que la mauvaise utilisation, le désalignement et la perte de contrôle. Les informations sont claires, convaincantes et scientifiquement exactes, fondées sur des connaissances actualisées des risques liés à l'IA. La présence d'une personnalité faisant autorité comme Bengio ajoute à la crédibilité, et la vidéo met en évidence les défis réels auxquels sont confrontés les développeurs d'IA, soulignant la gravité de ces risques d'une manière plausible et compréhensible".

Prix
La superintelligence : La fin de l'humanité ou notre âge d'or ?
Vidéo - Zeaus Koh, Nainika Gupta
Voir la soumission
Résumé de l'auteur
Cette vidéo vous est présentée par Young Asian Scientists, un studio indépendant dirigé par des jeunes qui rend les STIM accessibles aux jeunes Asiatiques ! La vidéo est une exploration informative et accessible de ce qu'est la superintelligence, de la manière dont elle pourrait être atteinte et de ses conséquences possibles. S'appuyant sur des recherches existantes, la vidéo comporte des éléments dynamiques tels que le stop-motion LEGO, des animations et des sketches pour transmettre le concept abstrait de la superintelligence aux spectateurs du monde entier. Elle s'adresse aux jeunes et les encourage à réfléchir à l'avenir de la vie.

Zeaus Koh, Singapour - Chercheur, scénariste, narrateur, monteur vidéo
Nainika Gupta, États-Unis - Monteur vidéo, vidéographe, illustrateur, accessoiriste

Beatrice - "J'aime l'aspect personnel de ce livre et le fait qu'il explique bien les choses. J'aime particulièrement l'exemple de l'oiseau. Il est bien produit et s'adresse à un public plus jeune. J'ai aussi beaucoup aimé les recommandations à la fin, elles étaient très constructives.

Eleanor - "Une bonne explication détaillée avec beaucoup d'humour. Assez convaincant et des valeurs de production raisonnablement élevées, avec de bons résultats."

Prix
Le grand plan
Multimédia - Karl von Wendt
Voir la soumission
Résumé de l'auteur
"Le Grand Plan" est une histoire sur notre incapacité à comprendre les décisions d'une IA superintelligente, destinée à un public général. Lorsque le président annonce le Grand Plan dans un discours, l'auditoire est aux anges. Mais des doutes subsistent parmi ceux qui sont chargés de le mettre en œuvre : à quoi servent tous ces nouveaux centres de données, et pourquoi personne n'est autorisé à poser des questions à ce sujet ?

Karl von Wendt, Allemagne - Écrivain, rédacteur, compositeur de musique (site web)

Alexis - "Cette histoire captivante est accessible à un public non technique pour explorer les risques de l'ASI. Tout au long de la vidéo, des personnes occupant différents postes remettent en question le plan, en particulier les implications environnementales (avec les grands centres de données) et les changements dans l'autonomie humaine. La vidéo met également en évidence le fait que nous ne sommes peut-être pas en mesure de comprendre les objectifs de l'ASI, mais que nous la suivons aveuglément parce qu'elle promet des résultats bénéfiques. J'aime la façon dont le Grand Plan reste un mystère pour laisser le public s'interroger sur ce qu'il peut être".

Sofia - "Je pense que c'est une excellente idée [...] qui couvre différents risques tels que la perte de contrôle, la surveillance, le changement climatique, l'inégalité et les changements de régime autoritaire".

Prix
ZARA MARS
Roman graphique - Marcus Eriksen, Vanessa Morrow, Alberto Hidalgo
Voir la soumission
Résumé de l'auteur
Dans ZARA MARS, nous sommes en 2052 et nous retrouvons le capitaine Zara et son équipage dans un voyage de neuf mois pour rentrer de Mars. Grâce à son lien mental, le capitaine Zara converse avec l'agent ASI sensible du vaisseau, nommé Sarvajña, et discute du risque et de la récompense de la superintelligence, de son évolution, de l'alignement des valeurs, des acteurs malveillants et des IA voyous, des menaces existentielles, de la bienveillance et de la sensibilité des IA. Ce roman graphique et le guide de discussion qui l'accompagne sont destinés à un public de lycéens et d'étudiants, ainsi qu'à leurs instructeurs.

Marcus Eriksen, USA - Rédacteur
Vanessa Morrow, USA - Concepteur de sites web
Alberto Hidalgo, Argentine - Illustration graphique

Alexis - "Cet article explore les nuances de la superintelligence par le biais d'une bande dessinée captivante, parfaite pour ceux qui ne connaissent pas le concept. Les illustrations sont incroyables et captivent l'attention du lecteur à chaque page. Le guide de discussion qui l'accompagne est un excellent complément pour montrer comment cette ressource pourrait être utilisée dans une salle de classe, soulignant le potentiel éducatif du projet. [...] Il couvre un large éventail de risques potentiels liés à la superintelligence. Les prédictions sont relativement précises, et comme il s'agit d'une bande dessinée, on peut s'attendre à du sensationnalisme (et je pense que les lecteurs s'y attendent également). La plupart des informations s'appuient sur les avancées actuelles dans le domaine et ne sont donc pas très éloignées de ce qui pourrait être possible".

Sofia - "J'aime l'idée de l'utiliser comme guide de discussion pour les étudiants et l'idée originale, c'est engageant et racontable. Dans certains cas, je ne vois pas clairement quel personnage dit quoi, ce qui pourrait être facilement amélioré. J'ai trouvé que les mentions du pliage des protéines et du test de Turing méritaient plus d'explications, si l'on considère un large public qui n'a pas beaucoup de connaissances sur l'IA. Cela m'a semblé plausible, avec des exemples variés. En tant que ressource en ligne, je pense qu'elle est assez accessible et portable, et qu'il est possible de l'étendre à d'autres formats (vidéo/audio) et de créer d'autres récits couvrant différents risques".

Mentions honorables

Ces finalistes ne recevront pas de prix en argent, mais nous souhaitons les présenter sur cette page web indéfiniment afin de célébrer les efforts et la créativité dont ils ont fait preuve.
Mention honorable
Un guide pour débutants sur la superintelligence artificielle et les raisons pour lesquelles elle pourrait menacer l'humanité
Vidéo - Ramiro Castro
Voir la soumission
Résumé de l'auteur
Le public cible de cette vidéo est le grand public qui n'a que peu ou pas de connaissances en matière d'intelligence artificielle. La vidéo explique brièvement ce qu'est l'intelligence artificielle, ses avantages potentiels, ce qu'est la superintelligence et pourquoi elle pourrait menacer l'humanité. Les risques sont illustrés par une métaphore ludique impliquant un joueur de football bien connu, qui sert d'exemple de ce qui pourrait arriver si les choses tournaient au vinaigre. L'article se termine par un message final : l'IA doit permettre à l'humanité de s'épanouir tout en protégeant l'innovation dans ce domaine, et le public doit se faire entendre sur ce sujet.

Ramiro Castro, UK - Scénariste, animateur

Elise - "La vidéo fait un excellent travail pour transmettre les risques fondamentaux de la superintelligence à un public général, en particulier la façon dont une IA non alignée pourrait involontairement conduire à l'extinction de l'humanité. À travers l'histoire de Messi, l'IA superintelligente, elle illustre comment l'IA peut poursuivre des objectifs contraires à la survie de l'homme, même sans intention malveillante. Les risques sont expliqués de manière claire et accessible, ce qui rend ces concepts faciles à saisir pour les spectateurs ayant peu de connaissances préalables. Bien qu'elle se concentre sur un seul exemple, la vidéo reste attrayante et fondée sur des scénarios d'IA plausibles, même si elle pourrait bénéficier de quelques exemples supplémentaires pour élargir la discussion. La vidéo s'aligne sur les préoccupations réelles en matière de sécurité de l'IA, telles que l'alignement de l'IA, le désalignement des objectifs et les conséquences involontaires. L'exemple de Messi, bien qu'exagéré, reflète les discussions courantes dans la recherche sur la sécurité de l'IA. Les détails techniques simplifiés conviennent au public cible et permettent de trouver un équilibre entre l'information et l'accessibilité. En tant que vidéo YouTube, le format est très accessible et, une fois public, il a un fort potentiel d'impact à grande échelle.

Justin - "Court métrage d'animation agréable avec une voix off livresque qui couvre les bases de la superintelligence et les risques qui en découlent. J'ai trouvé les personnages et les exemples convaincants et racontables, même si la bande-son donne l'impression qu'il s'agit plus d'une publicité que d'un court-métrage. [...] J'ai trouvé que c'était superbement écrit et bien produit".

Mention honorable
Au-delà du contrôle
Nouvelle - Michael Backlund, Alexandra Sfez
Voir la soumission
Résumé de l'auteur
Beyond Control est un livre électronique de nouvelles (EN/FR) qui vise à simuler les progrès et les préoccupations de la superintelligence pour les jeunes âgés de 16 à 25 ans. Il s'agit d'un livre de fiction, conçu pour être relatable sur la base de notre expérience personnelle, mais ancré dans des données réelles. L'histoire suit quatre scientifiques qui créent accidentellement une IA qui progresse rapidement vers la superintelligence. Alors qu'ils observent sa croissance explosive, ils sont partagés entre l'émerveillement et la terreur, forcés de naviguer entre des opinions extrêmes avec de moins en moins de temps.

Michael Backlund, Finald - Rédacteur, concepteur de sites web
Alexandra Sfez, France - Rédacteur, éditeur

Beatrice - "Joli format de site web. C'est bien qu'il ne soit pas trop long. Belle présentation. C'est bien qu'il soit déjà en français et en anglais. J'aime le fait qu'on ait l'impression que des enfants jouent avec un ordinateur - c'est une bonne analogie. Je pense que les métaphores de ce type sont très utiles pour expliquer des concepts complexes aux gens. J'aime le fait qu'il y ait des notes de bas de page pour plus de crédibilité. J'AIME aussi le fait que ce ne soit pas que de la morosité ! Il y a un peu d'espoir à la fin".

Justin - "Passionnante et ancrée dans les faits, cette nouvelle présente un débat équilibré sur les avantages et les inconvénients de la superintelligence, vue sous l'angle des enfants. J'ai également apprécié le site web, qui comprend des citations et des références. [...] Je lui ai attribué de bonnes notes pour sa créativité et sa présentation générale."

Mention honorable
Ctrl+Cmd
Jeu vidéo - Seven Sardines (7 membres)
Voir la soumission
Résumé de l'auteur
Ctrl+Cmd est un jeu de gestion dans lequel vous devez jouer le rôle d'un leader technologique et dicter la voie de la recherche et du développement de l'IA. Développez les capacités de l'IA de votre entreprise tout en équilibrant ses effets sur la société. Atteignez votre objectif à la fin de votre mandat et constatez l'impact de vos décisions sur l'entreprise et le monde.

Jose Ignacio Locsin, Philippines - Programmeur, concepteur de jeux, écrivain
Gian Santos, Philippines - Programmeur, concepteur de jeux
Christian Quinzon, Philippines - Concepteur de jeux et d'équilibre, écrivain, compositeur de musique
Zairra Dela Calzada, Philippines - Concepteur de jeux, artiste, concepteur d'interface utilisateur
Daneel Potot, Philippines - Directeur artistique
Regina Maysa Cayas, Philippines - Écrivain
Jerome Maiquez, Philippines - Écrivain

Beatrice - "Un format amusant pour faire un jeu. Cependant, cela prend un peu de temps et ce n'est pas bon pour ceux qui n'ont pas l'habitude de jouer à des jeux. [...] Mais j'aime le fait qu'il s'agisse d'un prototype ambitieux ! Et c'est vraiment bien fait dans l'ensemble."

Justin - "J'ai vraiment apprécié ce jeu ; son interface était incroyablement facile à utiliser et à comprendre, et je lui ai donné de bonnes notes pour sa créativité et son accessibilité. Ce qui n'était pas aussi intuitif, c'était la corrélation ambiguë, parfois erronée, entre certains projets d'IA et les scores de "bénéfices pour l'humanité", car presque tous les progrès technologiques semblaient inversement corrélés aux bénéfices pour la société. En tant que joueur, je suis resté perplexe quant à la relation de cause à effet entre les risques et les dommages".

Mention honorable
Guide de l'intelligence fatale (1ère partie) - L'introduction ultime au risque existentiel de l'IA à venir.
Vidéo - Lethal Intelligence (Anonymous)
Voir la soumission
Résumé de l'auteur
Si vous n'êtes pas encore un expert en IA, voici ce que vous attendiez : Le risque existentiel de l'IA - POURQUOI et COMMENT. Un cours accéléré complet et la meilleure façon de comprendre rapidement et réellement tout cela. Il s'agit d'un film d'animation destiné à expliquer au grand public les concepts difficiles du risque existentiel de l'AGI, d'une manière que tout le monde peut visualiser et comprendre. L'objectif est de sensibiliser le public et de faire du risque x une conversation à l'heure du dîner dans tous les foyers.

Note : Ce "film" a été partiellement réalisé avant le début du concours, mais il a été achevé pour les besoins du concours.

Lethal Intelligence (Anonyme) - Scénariste, producteur, narrateur, monteur

Eddy - "Je pense que c'est trop long pour le style d'animation et le travail des voix off. J'ai eu du mal à rester captivé pendant toute l'heure et 20 minutes. [...] Une série de vidéos serait beaucoup plus attrayante. Je chercherais également à rendre le film plus émotif et plus informatif".

Eleanor - "Un long travail d'amour sur les questions d'IA avec des animations accompagnées. La valeur de production n'est pas assez élevée pour un film en soi, mais c'est assez bon en général."

Mention honorable
Les avantages et les dangers de la superintelligence artificielle
Vidéo - Gavin C Raffloer, Aaron Reslink
Voir la soumission
Résumé de l'auteur
Cette vidéo explique l'évolution de l'intelligence artificielle, des exemples de scénarios illustrant la capacité d'une ASI à remplacer, surpasser et manipuler des personnes, ainsi que le concept d'alignement. Elle est courte dans l'espoir d'améliorer son accessibilité et se termine par un appel à l'action et par des liens vers des groupes spécialisés dans l'alignement.

Gavin C Raffloer, USA - Scénariste, voix-off
Aaron Reslink, USA - Illustrateur, éditeur

Beatrice - "C'est super qu'il ne dure que 9 minutes ! Très bon format. Accessible. Explique les risques de manière raisonnable. Les illustrations sont agréables, mais j'ai du mal à imaginer que quelqu'un va s'asseoir et regarder la vidéo en entier. Des couleurs seraient bienvenues. J'aime le fait qu'elle mentionne à la fois les avantages et les risques.

Eleanor - "Une vidéo explicative attrayante sur l'IA, avec une voix off et un graphisme très agréables. [...] Avec un peu plus de peaufinage, elle pourrait être convaincante."

Mention honorable
Ceci n'est pas un jeu
Jeu vidéo - Jurgen Gravestein
Voir la soumission
Résumé de l'auteur
Ce jeu-questionnaire interactif est un format amusant et interactif qui permet d'en apprendre davantage sur la superintelligence, ses mythes, ses espoirs et ses risques d'une manière discrète. Il est conçu pour plaire à un large public, présenté avec humour et fondé sur des faits et des recherches. Il est facilement adaptable à différentes langues et à différents publics.

Jurgen Gravestein, Pays-Bas - Rédacteur (Substack : Apprendre aux ordinateurs à parler)

Alexis - "Le format ludique du quiz et la présentation générale le rendent amusant, engageant et accessible aux personnes de tous horizons. Les informations contenues dans le quiz sont exactes et abordent les mythes, les risques, les espoirs et les craintes liés à la superintelligence. Il y a quelques aspects techniques, mais pas trop, de sorte qu'il reste accessible aux non-techniciens. La possibilité de reprendre là où l'on s'est arrêté lorsqu'on s'est trompé est particulièrement utile et encourage l'apprentissage continu par l'erreur.

Ben - "Le format est très accessible et créatif, et c'est un excellent format pour aider un public général à en savoir plus sur les risques liés à l'IA. J'ai trouvé que le style rétro du jeu était stimulant et que les questions représentaient le bon niveau de défi. [...] Il serait utile de fournir des explications/informations supplémentaires après une réponse correcte, afin de créer une expérience d'apprentissage plus forte."

Mention honorable
Que se passe-t-il après l'ère humaine ?
Vidéo - Troy Bradley
Voir la soumission
Résumé de l'auteur
Cette vidéo explore les liens entre la superintelligence et le passé et l'avenir à long terme de l'humanité. J'ai également décidé de présenter l'un des innombrables avenirs possibles que nous pourrions connaître afin d'illustrer les idées de manière tangible.

Troy Bradley, Canada - Producteur, éditeur

Beatrice - "J'aime le fait que ce soit une vidéo ! C'est plus accessible. Mais elle est trop longue pour que beaucoup de gens la regardent. C'est aussi une bonne perspective - le zoom arrière. S'il avait duré entre 7 et 12 minutes, cela aurait été parfait. J'aime le fait que ce soit ambitieux !

Justin - "Il s'agit d'un film plus long qui comporte des chapitres scintillants et d'autres plus modestes, bien que la présentation générale soit à la fois informative et stimulante. Il est clair que ce film a fait l'objet d'une grande réflexion et d'un travail de préproduction et de postproduction. Les animations et la cinématographie sont puissantes et provocantes, même si la voix off saute parfois d'un concept à l'autre et manque parfois de fluidité. Mes seules critiques concernent les interstitiels occasionnels à la première personne, qui semblent nuire à la narration, et la longueur du film (plus de 34 minutes), qui réduit son score d'"accessibilité". J'ai l'impression qu'il aurait pu être réduit à environ 10-15 minutes sans nécessairement perdre son contenu le plus substantiel".

Contenu

Bulletin de participation

Introduction

Plusieurs des plus grandes entreprises technologiques, dont Meta et OpenAI, ont récemment réaffirmé leur engagement à concevoir une IA plus performante que l'homme dans toute une série de domaines. De plus, elles engagent d'énormes ressources pour atteindre cet objectif.

Les enquêtes montrent que le public est préoccupé par l'IA, surtout lorsqu'elle menace de remplacer la prise de décision humaine. Cependant, le discours public aborde rarement les conséquences fondamentales de la superintelligence : si nous créons une classe d'agents supérieure aux humains dans tous les domaines, l'humanité doit s'attendre à perdre le contrôle.

Un tel système présenterait des risques significatifs de déresponsabilisation de l'homme, voire même d'extinction. Les experts en IA ont averti le public des risques d'une course à la superintelligence, et ont signé une déclaration affirmant que l'IA comportait des risques d'extinction. Ils ont même réclamé une pause du développement de la "frontier AI".

Tout système, dont les performances dépassent celles des humains les plus experts dans un très large éventail de tâches cognitives, correspond à notre définition d'un système d'IA superintelligent.

Un système superintelligent peut être constitué d'un seul système très puissant ou de plusieurs systèmes moins puissants, travaillant simultanément pour surpasser les humains. Un tel système peut être développé en partant de zéro et en utilisant de nouvelles méthodes d'apprentissage de l'IA. Il peut également résulter d'un système d'IA moins intelligent, capable de s'améliorer lui-même (auto-amélioration récursive), conduisant ainsi à une explosion d'intelligence.

Un tel système pourrait bientôt voir le jour : les chercheurs en IA pensent qu'il y a 10 % de chances qu'un tel système soit développé d'ici 2027 (Remarque : la prédiction concerne la “High-Level Machine Intelligence” (HLMI), voir le paragraphe 3.2.1 à la page 4).

Le Future of Life Institute organise ce concours, afin de générer des projets qui explorent ce que sont la superintelligence, les dangers et les risques liés au développement d'une telle technologie, ainsi que les répercussions et les conséquences qui en résulteraient pour notre économie, notre société et notre monde.

Votre projet

Votre projet a pour objectif d'aider le public que vous avez sélectionné à répondre à la question fondamentale suivante :

Qu'est-ce que la superintelligence et comment peut-elle menacer l'humanité ?

Nous voulons découvrir des analyses audacieuses, ambitieuses, créatives et instructives de la superintelligence. Les projets soumis doivent être des outils efficaces visant à inciter les gens à réfléchir sur la direction prise par le développement de l'IA, tout en restant axés sur la recherche et sur les idées existantes relatives à cette technologie. Enfin, ils doivent pouvoir circuler facilement et avoir un impact sur un large auditoire. Nous espérons que les projets pourront toucher des auditoires qui n'ont pas encore été confrontés à ces idées, les informer sur les systèmes d'IA superintelligents et les inciter à réfléchir sérieusement à l'impact de ces systèmes sur les choses qui leur sont importantes.

Moyens

Tout format textuel / visuel / auditif / spatial (p. ex. des vidéos, des animations, des installations, des infographies, des jeux vidéo, des sites Web), y compris des supports multimédia. Le format peut être physique ou numérique, mais le projet final doit être hébergé en ligne et soumis sous forme numérique.

Les candidats retenus peuvent inclure des vidéos, des animations et des infographies. Nous aimerions voir davantage de supports créatifs, tels que des jeux vidéo, des romans graphiques, des œuvres de science-fiction, des expositions numériques et autres, pour autant qu'ils répondent à nos critères d'évaluation.

Les prix

Les prix seront attribués aux cinq projets soumis les mieux notés en fonction de nos critères d'évaluation, selon le vote de nos juges. Nous pouvons également publier des "mentions honorables" sur le site Web du concours - ces projets ne recevront aucun prix.

La participation au concours est gratuite.

Littérature recommandée

Vous pouvez consulter les ouvrages suivants ayant pour thème la superintelligence :

Introduction à la superintelligence

Ces ressources sont une introduction au thème de la superintelligence, à différents niveaux d'approfondissement :

Les risques de la superintelligence et comment les atténuer

Les ressources suivantes donnent des arguments expliquant pourquoi la superintelligence pourrait présenter des risques pour l'humanité, et ce que nous pourrions faire pour les atténuer :

Arguments contre les risques de la superintelligence

Tout le monde n'est pas d'accord sur le fait que la superintelligence est un risque pour l'humanité. Même si vous êtes d'accord avec nous pour dire que c'est le cas, votre auditoire cible peut être sceptique - vous pouvez donc souhaiter aborder certains de ces contre-arguments dans votre œuvre d'art :

Cette courte liste est tirée des articles du blog écrits par Michael Nielsen.

Accueillir des événements

Si vous souhaitez organiser un événement ou un atelier pour que les participants élaborent des projets pour ce concours, vous pouvez volontiers le faire. Veuillez nous contacter pour vous assurer que la structure de votre événement corresponde à nos critères d'éligibilité et obtenir un soutien supplémentaire si vous souhaitez.

Votre projet

Votre projet doit inclure les éléments suivants :

  • Matériel créatif (doit être numérisé, disponible sur une adresse URL)
  • Résumé de votre œuvre d'art (2-3 phrases) décrivant votre soumission
  • Détails de l'équipe : noms des membres, adresses mail, lieux, rôles dans le projet

La liste complète des champs à remplir figure dans le formulaire de candidature. Vous pouvez enregistrer un brouillon de votre projet et inviter d'autres personnes à coopérer sur un même projet.

Calendrier du concours

31 mai 2024
Date d'ouverture de soumission des projets
31 août 2024
Date limite de soumission des projets
octobre 2024
Évaluation achevée
25 octobre 2024
Annonce des lauréats
Les candidatures sont closes

Les supports des projets resteront la propriété intellectuelle (IP) du candidat. En signant cet accord, le candidat accorde au FLI une licence mondiale, irrévocable et libre de droits pour l'hébergement et la diffusion du support. Cela impliquera probablement une publication sur le site Web du FLI et la diffusion de messages dans les médias sociaux.

Les candidats ne doivent pas publier les supports de leur projet avant l'annonce des lauréats du concours, sauf pour mettre le dossier à la disposition de nos juges. Après l'annonce des lauréats, tous les candidats peuvent publier leur projet avec le support qu'ils souhaitent - nous les encourageons d'ailleurs à le faire.

Les soumissions gagnantes et les mentions honorables seront publiées sur la page web du concours, partagées sur nos canaux de médias sociaux et distribuées à notre public afin qu'elles puissent être vues et appréciées. Ces documents resteront sur notre site pour une durée indéterminée.

Les documents publiés avant la date limite de soumission ne sont pas éligibles pour ce concours. Ce concours est destiné à générer de nouveaux documents.

Les candidats sont autorisés à soumettre autant de candidatures qu'ils le souhaitent, mais ne peuvent recevoir qu'un seul prix. Les candidats ne peuvent travailler que dans une seule équipe, mais ils peuvent envoyer des projets à la fois en tant qu'équipe et en tant qu'individus.

Les équipes doivent partager l'argent gagné avec tous les membres de l'équipe.

Après l'annonce des lauréats, les projets présentés sur notre site Web doivent être mis gratuitement à la disposition de nos utilisateurs. C'est pourquoi vous souhaitez peut-être produire une démonstration gratuite de votre projet, si vous souhaitez vendre la version complète ailleurs.

Les juges

Vous trouverez ci-dessous la liste des juges qui seront chargés d'examiner les candidatures :
Eddy Altmann
LinkedIn

Eddy est directeur de la technologie chez Conscience créativeune communauté créative et une organisation mondiale à but non lucratif qui organise des événements pour les créateurs de changement, des programmes de formation et les Creative Conscience Awards. En 2024, il a organisé un événement "Creative Change Makers : Créativité + IA pour un monde meilleur"afin de mettre en lumière les applications positives de l'IA dans les industries créatives. Diplômé en physique de l'université de Manchester, il excelle dans l'alliance de l'innovation et de la durabilité. Il a partagé ses idées sur l'avenir du design et de l'IA au V&A dans le cadre du Global Design Forum, et a contribué à des groupes de réflexion gouvernementaux sur l'IA dans le secteur créatif.

Ben Cumming
LinkedIn
Ben Cumming est directeur de la communication à l'adresse Future of Life Institute. Il a notamment été responsable de la communication à la Responsible Business Initiative for Justice (RBIJ) et chef adjoint des conférences/relations extérieures à Chatham House (The Royal Institute of International Affairs). Il est titulaire d'une maîtrise en politique et relations internationales de l'université d'Édimbourg et a étudié à la Royal Academy of Dramatic Arts. Il est Rising Leaders Fellow de l'Aspen Institute UK et siège au conseil d'administration des organisations à but non lucratif Youth Voice Trust et Action on Poverty. Il est un expert reconnu en matière de communication axée sur les enjeux et a publié des articles dans des publications telles que PRWeek, The Telegraph et MIT Sloan Management Review.
Beatrice Erkers
LinkedIn

Beatrice est directrice d'Existential Hope, un programme qui encourage les discussions réfléchies sur le rôle de la technologie dans la société, et co-animatrice du podcast "Existential Hope". podcast "Existential Hope à l'Institut Foresight Instituteune organisation qui fait progresser les sciences et les technologies sûres et bénéfiques pour l'épanouissement à long terme de la vie, où elle a précédemment occupé les fonctions de directrice de l'exploitation et de directrice de la communication. Elle a fait de nombreuses apparitions sur des blogs et des podcasts pour parler de l'importance de l'"espoir existentiel" et du long terme. Elle est titulaire d'une licence en littérature comparée et d'un master en histoire des sciences et des idées de l'université d'Uppsala.

Alexis Harrell
LinkedIn

Alexis est un candidat à la maîtrise en sciences des données sociales à l'Université d'Oxford, qui a récemment terminé une maîtrise en avenirs narratifs : Art, Data, Society de l'Université d'Édimbourg. Ses études précédentes combinaient des supports créatifs avec une recherche empirique sur l'IA et l'éthique des données. Ses recherches visent à garantir le développement et le déploiement éthiques de l'IA dans les systèmes de soins de santé. Elle est chargée d'enseignement en gouvernance de l'IA à BlueDot Impact et contractante en communication au Centre pour la résilience à long terme (CLTR).

Justin Liang
LinkedIn

Justin est actuellement responsable de la conformité pour la division matériel de Google, où il dirige la fonction Responsible AI & Compliance - une équipe interfonctionnelle d'avocats, d'ingénieurs en protection de la vie privée, de responsables de la confiance et de la sécurité, et d'éthiciens unis dans leur mission d'innover de manière responsable. Il a passé plus de 15 ans dans diverses fonctions de gestion des risques et de conformité, notamment en tant que Chief Compliance Officer (US Payments) chez Uber, et en tant que conseiller auprès de nombreuses startups technologiques. Il est titulaire d'une licence de l'université de Princeton et a suivi des études supérieures en économie politique à Harvard et au MIT, où il a été Boren National Security Fellow et Rotary Scholar. Il est passionné de triathlon, de musique, de taekwondo et de bibliophilie.

Sofia Pires
LinkedIn

Sofia est un penseur unique qui possède une longue expérience dans le domaine de la communication et de la stratégie de marque au sein de PHD Media, OMDet Ogilvy. Aujourd'hui, elle met à profit sa passion pour la technologie et son expertise pour partager des points de vue stimulants sur les implications de l'IA pour les entreprises et la société sur SubStack et sur Instagram et améliorer la connaissance de l'IA générative pour les autres. Elle commencera bientôt à travailler pour BridgeAI à l'Institut Alan Turing. Alan Turing Institute.

Elise Racine
LinkedIn

Elise est la fondatrice de "de PALOMA", un collectif artistique et une galerie activistes qui ont récemment lancé un nouveau projet intitulé Panopticons pandémiques qui présente certaines de ses créations. Elle est également chargée d'enseignement en gouvernance de l'IA auprès de BlueDot Impact, et fait partie du Collectif Arts, Santé et Éthique (AHEC) à l'Université d'Oxford, où elle est doctorante, Clarendon Scholar et lauréate de la bourse Baillie Gifford-Institute for Ethics in AI Scholarship. Ses recherches portent sur les impacts sociétaux, les implications politiques et les défis de gouvernance des technologies émergentes, en particulier l'intelligence artificielle. Un aspect clé de son approche est l'intégration des résultats créatifs avec la recherche académique et l'activisme. Auparavant, Elise a réalisé des travaux de création et de communication pour une variété d'organisations sociales et de startups.

Emily Schwartz
LinkedIn

Emily est partenaire en communication stratégique chez Bryson Gillette. Elle est également conseillère du Responsible Technology Fellowship à l'Aspen Institute. Au cours des dix dernières années, elle a travaillé à l'intersection de la technologie, des affaires et de la politique : parmi ses nombreuses réalisations, elle a dirigé la stratégie médiatique et de communication pour Frances Haugen, la dénonciatrice de Facebook, et a contribué à l'adoption d'une loi révolutionnaire en Californie exigeant des entreprises technologiques qu'elles donnent la priorité à la sécurité et à la vie privée des enfants. Au début de l'année, Emily est apparue aux côtés d'Anthony Aguirre, de FLI, à SXSW dans le cadre d'une table ronde intitulée "De l'algorithme à l'armement : comprendre la sécurité et la vie privée des enfants".Des algorithmes aux armes : comprendre l'interaction entre l'IA, les médias sociaux et les armes nucléaires".

Nell Watson
LinkedIn

Nell occupe un certain nombre de postes de conseillère dans le but de protéger l'éthique, la sécurité et les valeurs humaines dans la technologie, en particulier l'intelligence artificielle, notamment au sein de l'European Responsible Artificial Intelligence Office (EURAIO), de l'IEEE Standards Association, de la Singularity University, d'Apple, et bien d'autres. Elle a été juge pour de nombreux concours de startups et de création, ainsi que pour des prix d'innovation tels que XPRIZE. Cette année, elle a publié un livre intitulé "Apprivoiser la machine : Exploiter le pouvoir de l'IA de manière éthique". Elle a donné de nombreuses conférences sur la sécurité et l'éthique de l'IA. Vous pouvez en savoir plus sur son travail sur son site web.

Critères

Les projets seront évalués en fonction des critères suivants :

Une communication efficace sur les risques de la superintelligence

En fin de compte, nous voulons voir des propositions qui peuvent accroître la sensibilisation et l'engagement à l'égard des risques de la superintelligence. Il est donc essentiel que votre œuvre communique ces risques d'une manière efficace pour le public visé.

Par exemple, il peut s'agir d'étudier soigneusement votre auditoire, de tester un prototype et d'intégrer leurs commentaires.

Nous considérons ce critère comme étant le plus important - les candidatures qui ne répondent pas à ce critère ont très peu de chances d'être retenues.

Exactitude scientifique et plausibilité

Nous recherchons des projets présentant des idées cohérentes avec la science de l'IA et les risques associés et/ou qui décrivent des scénarios plausibles dans le monde réel. Si votre œuvre d'art présente les risques de façon irréaliste, il est peu probable qu'elle incite l'auditoire à prendre le problème au sérieux.

Par exemple, vous pourriez souhaiter étudier une partie de la littérature existante sur l'IA/la superintelligence plus intelligente que l'homme pour que votre œuvre d'art s'appuie sur des idées et des cadres existants, ou pour intégrer certains détails techniques à votre œuvre art.

Portée et accessibilité

Nous voulons que vos projets soient vus et appréciés par un grand nombre de personnes. Nous considérons que c'est un bonus si votre projet peut être largement diffusé sans perdre de son efficacité. Pensez à choisir un support ou un format qui peut être apprécié par différentes audiences dans de nombreux contextes - sans perdre de vue l'auditoire principal auquel vous vous adressez.

Par exemple, vous pourriez choisir de produire un livre électronique plutôt qu'un livre imprimé, de concevoir une version de votre site Web adaptée aux téléphones portables ou de mettre votre œuvre d'art à disposition en plusieurs langues.

FAQs

  • Les projets doivent être rédigés en anglais (ou fournir au moins une version anglaise).
  • Les participants peuvent venir de partout dans le monde (cependant, pour recevoir le prix, ils doivent se trouver dans un endroit, où nous pouvons leur verser de l'argent).
  • Il n'y a pas de limite d'âge pour les participants.

Les cinq projets gagnants seront désignés par notre jury sur la base des trois critères d'évaluation. Chacun d'entre eux recevra un prix de 10 000 USD.

Les équipes doivent partager l'argent gagné avec tous les membres de l'équipe.

Nous pourrons également décerner des "mentions honorables" à des travaux qui n'ont pas été primés, mais qui méritent d'être découverts. Ces projets ne recevront pas de prix numéraire, mais seront affichés sur notre site aux côtés des projets gagnants.

Oui, mais les équipes de plus de 5 personnes doivent nous contacter à l'adresse taylor@futureoflife.org pour approbation. Chaque participant ne peut s'inscrire qu'au sein d'une seule équipe, mais il a le droit de postuler en tant qu'équipe et en tant qu'individu.
Oui, si cela améliore la qualité de votre travail final, mais vous devez faire preuve de discernement, en décidant si les éléments de votre œuvre d'art sont créés par l'homme ou générés par l'IA. Vous devez également indiquer dans votre œuvre d'art comment et où le contenu généré par l'IA a été utilisé.

Contact

Pour de plus amples informations sur le concours, n'hésitez pas à nous contacter.

Responsable du concours

Questions sur le thème du concours, les conditions d'éligibilité et les critères d'évaluation.
taylor@futureoflife.org

Fonctionnement du concours

Questions sur le formulaire d'inscription et le paiement des prix.
grants@futureoflife.org

Remarques relatives aux concours

Soyez informé des événements connexes à venir, tels que d'autres concours et ateliers, organisés par le site Future of Life Institute.

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention
cloudmagnifiercroixarrow-up
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram