Principes de l'IA d'Asilomar
Ces principes ont été élaborés dans le cadre de la conférence d'Asilomar de 2017(vidéos ici), selon le processus décrit ici.
Cliquez ici pour voir cette page dans d'autres langues : Chinois Allemand Japonais Coréen Russie
L'intelligence artificielle a déjà fourni des outils bénéfiques qui sont utilisés chaque jour par des personnes du monde entier. La poursuite de son développement, guidée par les principes suivants, offrira des possibilités extraordinaires d'aider et d'autonomiser les gens dans les décennies et les siècles à venir.
Questions de recherche
1) Objectif de la recherche : l'objectif de la recherche en IA devrait être de créer non pas une intelligence non dirigée, mais une intelligence bénéfique.
2) Financement de la recherche : Les investissements dans l'IA devraient s'accompagner d'un financement de la recherche visant à garantir son utilisation bénéfique, y compris les questions épineuses en informatique, en économie, en droit, en éthique et en sciences sociales, comme par exemple :
- Comment pouvons-nous rendre les futurs systèmes d'IA extrêmement robustes, afin qu'ils fassent ce que nous voulons sans dysfonctionnement ni piratage ?
- Comment pouvons-nous accroître notre prospérité grâce à l'automatisation tout en préservant les ressources et les objectifs des personnes ?
- Comment pouvons-nous actualiser nos systèmes juridiques pour qu'ils soient plus justes et plus efficaces, pour qu'ils suivent le rythme de l'IA et pour qu'ils gèrent les risques associés à l'IA ?
- Sur quel ensemble de valeurs l'IA doit-elle s'aligner et quel statut juridique et éthique doit-elle avoir ?
3) Lien entre science et politique : Il devrait y avoir un échange constructif et sain entre les chercheurs en IA et les décideurs politiques.
4) Culture de la recherche : Une culture de coopération, de confiance et de transparence devrait être encouragée parmi les chercheurs et les développeurs d'IA.
5) Évitement de la précipitation : Les équipes qui développent des systèmes d’IA doivent coopérer activement pour éviter de négliger les normes de sécurité.
Éthique et valeurs
6) Sécurité : Les systèmes d'IA doivent être sûrs et sécurisés tout au long de leur durée de vie opérationnelle, et de manière vérifiable lorsque cela est possible et applicable.
7) Transparence des défaillances : Si un système d'IA cause des dommages, il devrait être possible d'en déterminer la raison.
8) Transparence judiciaire : Toute implication d'un système autonome dans la prise de décision judiciaire doit fournir une explication satisfaisante pouvant être vérifiée par une autorité humaine compétente.
9) Responsabilité : Les concepteurs et les constructeurs de systèmes d'IA avancés sont parties prenantes des implications morales de leur utilisation, de leur mauvaise utilisation et de leurs actions, et ont la responsabilité et la possibilité d'influencer ces implications.
10) Alignement des valeurs : Les systèmes d'IA hautement autonomes devraient être conçus de manière à ce que leurs objectifs et leurs comportements puissent être alignés sur les valeurs humaines tout au long de leur fonctionnement.
11) Valeurs humaines : Les systèmes d'IA devraient être conçus et exploités de manière à être compatibles avec les idéaux de dignité humaine, de droits, de libertés et de diversité culturelle.
12) Respect de la vie privée : Les personnes devraient avoir le droit d'accéder, de gérer et de contrôler les données qu'elles génèrent, étant donné le pouvoir des systèmes d'IA d'analyser et d'utiliser ces données.
13) Liberté et vie privée : L'application de l'IA aux données personnelles ne doit pas restreindre de manière déraisonnable la liberté réelle ou perçue des personnes.
14) Bénéfice partagé : Les technologies d’IA devraient avantager et responsabiliser le plus grand nombre de personnes possible.
15) Prospérité partagée : La prospérité économique créée par l'IA devrait être partagée largement, au bénéfice de l'ensemble de l'humanité.
16) Contrôle humain : Les humains devraient choisir comment et s'ils veulent déléguer des décisions aux systèmes d'IA, afin d'atteindre les objectifs qu'ils ont choisis.
17) Non-subversion : Le pouvoir conféré par le contrôle de systèmes d'IA très avancés devrait respecter et améliorer, plutôt que subvertir, les processus sociaux et civiques dont dépend la santé de la société.
18) La course aux armements de l'IA : Il faut éviter une course aux armements dans le domaine des armes autonomes létales.
Questions à long terme
19) Capacités : En l'absence de consensus, il convient d'éviter les hypothèses trop tranchées concernant les limites supérieures des capacités futures de l'IA.
20) Importance : L'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, et devrait être planifiée et gérée avec le soin et les ressources nécessaires.
21) Risques : Les risques posés par les systèmes d'IA, en particulier les risques catastrophiques ou existentiels, doivent faire l'objet d'une planification et d'efforts d'atténuation proportionnels à leur impact attendu.
22) Auto-amélioration récursive : Les systèmes d'IA conçus pour s'auto-améliorer ou s'auto-répliquer de façon récursive, d'une manière qui pourrait conduire à une augmentation rapide de la qualité ou de la quantité, doivent être soumis à des mesures strictes de sécurité et de contrôle.
23) Bien commun : La superintelligence ne devrait être développée qu'au service d'idéaux éthiques largement partagés, et pour le bénéfice de l'humanité tout entière plutôt que pour celui d'un État ou d'une organisation.
Ajoutez votre nom à la liste
Corrections de signature
Signataires
Chercheurs en IA/robotique :
Autres soutiens :
Comment fonctionne la vérification ?
- URL de la déclaration - Cette personne a fait une déclaration publique de signature de la lettre ouverte qui peut être consultée en ligne.