Passer au contenu
Toutes les lettres ouvertes

Principes de l'IA d'Asilomar

Les principes d'IA d'Asilomar, coordonnés par FLI et élaborés lors de la conférence Beneficial AI 2017, constituent l'un des premiers ensembles de principes de gouvernance de l'IA et l'un des plus influents.
Publié
11 Août, 2017

Ces principes ont été élaborés dans le cadre de la conférence d'Asilomar de 2017(vidéos ici), selon le processus décrit ici.

Cliquez ici pour voir cette page dans d'autres langues :  Chinois    Allemand Japonais    Coréen     Russie

L'intelligence artificielle a déjà fourni des outils bénéfiques qui sont utilisés chaque jour par des personnes du monde entier. La poursuite de son développement, guidée par les principes suivants, offrira des possibilités extraordinaires d'aider et d'autonomiser les gens dans les décennies et les siècles à venir.

Questions de recherche

1) Objectif de la recherche : l'objectif de la recherche en IA devrait être de créer non pas une intelligence non dirigée, mais une intelligence bénéfique.

2) Financement de la recherche : Les investissements dans l'IA devraient s'accompagner d'un financement de la recherche visant à garantir son utilisation bénéfique, y compris les questions épineuses en informatique, en économie, en droit, en éthique et en sciences sociales, comme par exemple :

  • Comment pouvons-nous rendre les futurs systèmes d'IA extrêmement robustes, afin qu'ils fassent ce que nous voulons sans dysfonctionnement ni piratage ?
  • Comment pouvons-nous accroître notre prospérité grâce à l'automatisation tout en préservant les ressources et les objectifs des personnes ?
  • Comment pouvons-nous actualiser nos systèmes juridiques pour qu'ils soient plus justes et plus efficaces, pour qu'ils suivent le rythme de l'IA et pour qu'ils gèrent les risques associés à l'IA ?
  • Sur quel ensemble de valeurs l'IA doit-elle s'aligner et quel statut juridique et éthique doit-elle avoir ?

3) Lien entre science et politique : Il devrait y avoir un échange constructif et sain entre les chercheurs en IA et les décideurs politiques.

4) Culture de la recherche : Une culture de coopération, de confiance et de transparence devrait être encouragée parmi les chercheurs et les développeurs d'IA.

5) Évitement de la précipitation : Les équipes qui développent des systèmes d’IA doivent coopérer activement pour éviter de négliger les normes de sécurité.

Éthique et valeurs

6) Sécurité : Les systèmes d'IA doivent être sûrs et sécurisés tout au long de leur durée de vie opérationnelle, et de manière vérifiable lorsque cela est possible et applicable.

7) Transparence des défaillances : Si un système d'IA cause des dommages, il devrait être possible d'en déterminer la raison.

8) Transparence judiciaire : Toute implication d'un système autonome dans la prise de décision judiciaire doit fournir une explication satisfaisante pouvant être vérifiée par une autorité humaine compétente.

9) Responsabilité : Les concepteurs et les constructeurs de systèmes d'IA avancés sont parties prenantes des implications morales de leur utilisation, de leur mauvaise utilisation et de leurs actions, et ont la responsabilité et la possibilité d'influencer ces implications.

10) Alignement des valeurs : Les systèmes d'IA hautement autonomes devraient être conçus de manière à ce que leurs objectifs et leurs comportements puissent être alignés sur les valeurs humaines tout au long de leur fonctionnement.

11) Valeurs humaines : Les systèmes d'IA devraient être conçus et exploités de manière à être compatibles avec les idéaux de dignité humaine, de droits, de libertés et de diversité culturelle.

12) Respect de la vie privée : Les personnes devraient avoir le droit d'accéder, de gérer et de contrôler les données qu'elles génèrent, étant donné le pouvoir des systèmes d'IA d'analyser et d'utiliser ces données.

13) Liberté et vie privée : L'application de l'IA aux données personnelles ne doit pas restreindre de manière déraisonnable la liberté réelle ou perçue des personnes.

14) Bénéfice partagé : Les technologies d’IA devraient avantager et responsabiliser le plus grand nombre de personnes possible.

15) Prospérité partagée : La prospérité économique créée par l'IA devrait être partagée largement, au bénéfice de l'ensemble de l'humanité.

16) Contrôle humain : Les humains devraient choisir comment et s'ils veulent déléguer des décisions aux systèmes d'IA, afin d'atteindre les objectifs qu'ils ont choisis.

17) Non-subversion : Le pouvoir conféré par le contrôle de systèmes d'IA très avancés devrait respecter et améliorer, plutôt que subvertir, les processus sociaux et civiques dont dépend la santé de la société.

18) La course aux armements de l'IA : Il faut éviter une course aux armements dans le domaine des armes autonomes létales.

Questions à long terme

19) Capacités : En l'absence de consensus, il convient d'éviter les hypothèses trop tranchées concernant les limites supérieures des capacités futures de l'IA.

20) Importance : L'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, et devrait être planifiée et gérée avec le soin et les ressources nécessaires.

21) Risques : Les risques posés par les systèmes d'IA, en particulier les risques catastrophiques ou existentiels, doivent faire l'objet d'une planification et d'efforts d'atténuation proportionnels à leur impact attendu.

22) Auto-amélioration récursive : Les systèmes d'IA conçus pour s'auto-améliorer ou s'auto-répliquer de façon récursive, d'une manière qui pourrait conduire à une augmentation rapide de la qualité ou de la quantité, doivent être soumis à des mesures strictes de sécurité et de contrôle.

23) Bien commun : La superintelligence ne devrait être développée qu'au service d'idéaux éthiques largement partagés, et pour le bénéfice de l'humanité tout entière plutôt que pour celui d'un État ou d'une organisation.

Ajoutez votre nom à la liste

Démontrez votre soutien à cette lettre ouverte en ajoutant votre propre signature à la liste :

Corrections de signature

Si vous pensez que votre signature a été ajoutée par erreur ou si vous avez d'autres préoccupations concernant son apparence, veuillez nous contacter à l'adresse letters@futureoflife.org.

Signataires

À ce jour, les principes ont été signés par 1200 Chercheurs en IA/robotique et 2342 d'autres. Découvrez comment ces principes ont été élaborés ici et participer à leur discussion ici. Trouver la liste complète des signataires ici. La liste des signataires comprend

Chercheurs en IA/robotique :

Vous devez activer javascript pour voir les signataires de la lettre ouverte.

Autres soutiens :

Vous devez activer javascript pour voir les signataires de la lettre ouverte.
Lire la suite
LETTRES OUVERTES

Postes connexes

Si vous avez aimé cet article, vous pourriez aussi aimer :
Signataires
2672

Lettre ouverte appelant les dirigeants mondiaux à faire preuve d'un leadership à long terme face aux menaces existentielles

Les Anciens, Future of Life Institute et un large éventail de cosignataires appellent les décideurs à s'attaquer d'urgence à l'impact actuel et aux risques croissants de la crise climatique, des pandémies, des armes nucléaires et de l'intelligence artificielle non gouvernée.
14 Février, 2024
Signataires
Fermé

L'octroi de licences d'IA pour un avenir meilleur : S'attaquer aux préjudices actuels et aux menaces émergentes

Cette lettre ouverte conjointe d'Encode Justice et du site Future of Life Institute appelle à la mise en œuvre de trois politiques américaines concrètes afin de remédier aux méfaits actuels et futurs de l'IA.
25 octobre, 2023
Signataires
31810

Faire une pause dans les expériences d'IA de grande envergure : lettre ouverte

Nous demandons à tous les laboratoires d'intelligence artificielle d'interrompre immédiatement, pour une durée d'au moins six mois, la formation de systèmes d'intelligence artificielle plus puissants que le GPT-4.
22 Mars, 2023
Signataires
998

Lettre ouverte contre l'escalade et l'utilisation inconsidérées du nucléaire

L'odieuse guerre en Ukraine risque de dégénérer en un conflit nucléaire entre l'OTAN et la Russie, ce qui constituerait la plus grande catastrophe de l'histoire de l'humanité. Il faut faire davantage pour empêcher une telle escalade.
18 octobre, 2022

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram