Skip to content
All Open Letters

Stoppons les expérimentations sur les IA : Une Lettre Ouverte

Nous appelons tous les laboratoires à stopper immédiatement le développement des IA plus puissantes que GPT-4 pour une durée d'au moins 6 mois.
Signatures
31810

22 March 2023

This open letter was originally published in English here.

Les Intelligences Artificielles capables de rivaliser avec l’intelligence humaine peuvent poser de sérieuses menaces pour la société et l’humanité, comme l’ont démontré des recherches approfondies[1] et comme l’ont approuvé les laboratoires d’IA les plus proéminents[2]. Les Principes d’Asilomar l’ayant ainsi déclaré, la technologie de l’IA avancée est en passe de changer radicalement l’histoire de la vie sur Terre, et doit donc être planifiée et gérée avec beaucoup de soin, de recul et de ressources. Hélas, nous n’avons pas encore pris les précautions nécessaires, alors même que ces derniers mois, les laboratoires d’IA se sont lancés dans une course effrénée pour développer et déployer des puissances numériques toujours plus titanesques sur lesquelles personne – pas même leurs créateurs – n’a une capacité totale de compréhension, d’anticipation ou de contrôle.

Les systèmes d’IA contemporains rivalisent avec l’homme pour toutes sortes de tâches[3], et nous devons nous poser la question : devons-nous laisser des machines inonder nos moyens d’information de propagande et de vérités subjectives ? Devons-nous automatiser tous les emplois, même ceux qui nous permettent à nous, être humains, de nous réaliser ? Devons-nous développer des esprit artificiels qui pourraient devenir plus nombreux, plus intelligents, au point que nos esprit humains deviendraient obsolètes ? Sommes-nous prêts à mettre le contrôle de notre civilisation en péril ? Une telle décision ne doit pas, ne peut pas être prise par des leaders de la technologie qui n’ont pas été élus ou qui ne sont pas qualifiés sur le sujet. Des IA aussi puissantes ne devraient être développées seulement après avoir obtenu la certitude que leur impact sera positif et que les risques en découlant sont sous contrôle. Cette certitude doit être assurée et son importance doit aller de paire avec l’importance des potentiels effets négatifs générés par ces systèmes. La déclaration sur l’IA générale d’OpenAI indique qu’ « à un moment donné, il est vital que les créateurs aient l’approbation d’une entité indépendante avant de commencer le développement de futurs systèmes, et pour les plus avancés, que leur puissance de processing soit limitée lorsqu’il s’agit de créer de nouveaux modèles ». Cela semble évident. Ce « moment donné » est maintenant.

C’est pourquoi, nous appelons tous les laboratoires d’IA à stopper pour une durée d’au moins 6 mois le développement des IA plus puissantes que GPT-4. Cette halte devrait être publique et vérifiable, et doit inclure tous les acteurs essentiels dans ce domaine. Si une telle pause ne peut pas être appliquée rapidement, les gouvernements doivent entrer en jeu et instituer un moratoire.

Les laboratoires et les experts indépendants devraient utiliser ce temps de pause pour co-développer et élaborer un ensemble de protocoles de sécurité pour la conception et le développement d’IA avancées qui devront être rigoureusement vérifiés par des experts indépendants. Ces protocoles ont pour effet d’assurer que les systèmes y adhérant sont sûrs sans l’ombre d’un doute[4]. Cela ne signifie aucunement la fin du développement de l’IA, mais simplement un retrait de cette course dangereuse aux Black-box toujours plus grandes dont nous ne prendrions conscience des effets négatifs que trop tard.

La recherche et le développement de l’IA doit être réorienté et avoir pour objectif de rendre les puissants systèmes actuels plus précis, fiables, compréhensibles, transparents, robustes, dignes de confiance et loyaux.

En outre, les développeurs d’IA doivent, en union avec les responsables politiques, travailler pour accélérer drastiquement le développement de systèmes de contrôle des AI robustes. Cela doit inclure à minima : de nouvelles et réelles autorités de régulation sur le sujet de l’IA ; la surveillance et le suivi des systèmes artificiels les plus performants et les plus puissants ; une clarté de la provenance et un filigrane pour ces systèmes de manière à pouvoir différencier un modèle authentique d’une contrefaçon ; un écosystème de vérification et de certification fiable ; ainsi que des institutions dotées de ressources suffisantes pour compenser les perturbations économiques et politiques (surtout pour la démocratie) que les IA causeront.

L’humanité pourra ainsi profiter d’un avenir florissant avec l’IA. Après avoir réussi à créé des systèmes artificiels puissants et performants, nous pourrons ainsi récolter les fruits de notre labeur, continuer de créer ces systèmes pour le bien commun, et donner une bonne chance à la société de s’adapter et prospérer. La société a justement su fixer des limites pour d’autres technologies aux effets potentiellement dévastateurs, nous pouvons faire de même avec l’IA[5]. Profitons des benefices de l’IA actuelle sans nous precipitater vers un désastre.

[1]

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[3]

Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4]

Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".

[5]

Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

Signatories


View the full list of signatories

Attempting to load the full list of signatories on a mobile device or slow internet connection might cause formatting issues.

Read More
OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
1

Open letter calling on world leaders to show long-view leadership on existential threats

The Elders, Future of Life Institute and a diverse range of co-signatories call on decision-makers to urgently address the ongoing impact and escalating risks of the climate crisis, pandemics, nuclear weapons, and ungoverned AI.
February 14, 2024
Signatories
Closed

AI Licensing for a Better Future: On Addressing Both Present Harms and Emerging Threats

This joint open letter by Encode Justice and the Future of Life Institute calls for the implementation of three concrete US policies in order to address current and future harms of AI.
October 25, 2023
Signatories
31810

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
March 22, 2023
Signatories
998

Open Letter Against Reckless Nuclear Escalation and Use

The abhorrent Ukraine war has the potential to escalate into an all-out NATO-Russia nuclear conflict that would be the greatest catastrophe in human history. More must be done to prevent such escalation.
October 18, 2022

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram