Stoppons les expérimentations sur les IA : Une Lettre Ouverte
22 March 2023
This open letter was originally published in English here.
Les Intelligences Artificielles capables de rivaliser avec l’intelligence humaine peuvent poser de sérieuses menaces pour la société et l’humanité, comme l’ont démontré des recherches approfondies[1] et comme l’ont approuvé les laboratoires d’IA les plus proéminents[2]. Les Principes d’Asilomar l’ayant ainsi déclaré, la technologie de l’IA avancée est en passe de changer radicalement l’histoire de la vie sur Terre, et doit donc être planifiée et gérée avec beaucoup de soin, de recul et de ressources. Hélas, nous n’avons pas encore pris les précautions nécessaires, alors même que ces derniers mois, les laboratoires d’IA se sont lancés dans une course effrénée pour développer et déployer des puissances numériques toujours plus titanesques sur lesquelles personne – pas même leurs créateurs – n’a une capacité totale de compréhension, d’anticipation ou de contrôle.
Les systèmes d’IA contemporains rivalisent avec l’homme pour toutes sortes de tâches[3], et nous devons nous poser la question : devons-nous laisser des machines inonder nos moyens d’information de propagande et de vérités subjectives ? Devons-nous automatiser tous les emplois, même ceux qui nous permettent à nous, être humains, de nous réaliser ? Devons-nous développer des esprit artificiels qui pourraient devenir plus nombreux, plus intelligents, au point que nos esprit humains deviendraient obsolètes ? Sommes-nous prêts à mettre le contrôle de notre civilisation en péril ? Une telle décision ne doit pas, ne peut pas être prise par des leaders de la technologie qui n’ont pas été élus ou qui ne sont pas qualifiés sur le sujet. Des IA aussi puissantes ne devraient être développées seulement après avoir obtenu la certitude que leur impact sera positif et que les risques en découlant sont sous contrôle. Cette certitude doit être assurée et son importance doit aller de paire avec l’importance des potentiels effets négatifs générés par ces systèmes. La déclaration sur l’IA générale d’OpenAI indique qu’ « à un moment donné, il est vital que les créateurs aient l’approbation d’une entité indépendante avant de commencer le développement de futurs systèmes, et pour les plus avancés, que leur puissance de processing soit limitée lorsqu’il s’agit de créer de nouveaux modèles ». Cela semble évident. Ce « moment donné » est maintenant.
C’est pourquoi, nous appelons tous les laboratoires d’IA à stopper pour une durée d’au moins 6 mois le développement des IA plus puissantes que GPT-4. Cette halte devrait être publique et vérifiable, et doit inclure tous les acteurs essentiels dans ce domaine. Si une telle pause ne peut pas être appliquée rapidement, les gouvernements doivent entrer en jeu et instituer un moratoire.
Les laboratoires et les experts indépendants devraient utiliser ce temps de pause pour co-développer et élaborer un ensemble de protocoles de sécurité pour la conception et le développement d’IA avancées qui devront être rigoureusement vérifiés par des experts indépendants. Ces protocoles ont pour effet d’assurer que les systèmes y adhérant sont sûrs sans l’ombre d’un doute[4]. Cela ne signifie aucunement la fin du développement de l’IA, mais simplement un retrait de cette course dangereuse aux Black-box toujours plus grandes dont nous ne prendrions conscience des effets négatifs que trop tard.
La recherche et le développement de l’IA doit être réorienté et avoir pour objectif de rendre les puissants systèmes actuels plus précis, fiables, compréhensibles, transparents, robustes, dignes de confiance et loyaux.
En outre, les développeurs d’IA doivent, en union avec les responsables politiques, travailler pour accélérer drastiquement le développement de systèmes de contrôle des AI robustes. Cela doit inclure à minima : de nouvelles et réelles autorités de régulation sur le sujet de l’IA ; la surveillance et le suivi des systèmes artificiels les plus performants et les plus puissants ; une clarté de la provenance et un filigrane pour ces systèmes de manière à pouvoir différencier un modèle authentique d’une contrefaçon ; un écosystème de vérification et de certification fiable ; ainsi que des institutions dotées de ressources suffisantes pour compenser les perturbations économiques et politiques (surtout pour la démocratie) que les IA causeront.
L’humanité pourra ainsi profiter d’un avenir florissant avec l’IA. Après avoir réussi à créé des systèmes artificiels puissants et performants, nous pourrons ainsi récolter les fruits de notre labeur, continuer de créer ces systèmes pour le bien commun, et donner une bonne chance à la société de s’adapter et prospérer. La société a justement su fixer des limites pour d’autres technologies aux effets potentiellement dévastateurs, nous pouvons faire de même avec l’IA[5]. Profitons des benefices de l’IA actuelle sans nous precipitater vers un désastre.
[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4]
Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".
[5]
Examples include human cloning, human germline modification, gain-of-function research, and eugenics.
Media mentions
Signatories
View the full list of signatories
Attempting to load the full list of signatories on a mobile device or slow internet connection might cause formatting issues.
How does verification work?
• Declaration URL - This person has made a public declaration of signing the open letter which can be viewed online.