Ir al contenido
Todas las cartas abiertas

Principios de IA de Asilomar

Los Principios de IA de Asilomar, coordinados por FLI y desarrollados en la conferencia Beneficial AI 2017, son uno de los primeros y más influyentes conjuntos de principios de gobernanza de la IA.
Firmas
5720
Añada su firma
Publicado en
11 agosto, 2017

Estos principios se elaboraron junto con la conferencia de Asilomar de 2017(vídeos aquí), mediante el proceso descrito aquí.

Haga clic aquí para ver esta página en otros idiomas:  Chino    Alemán Japonés    Coreano     Ruso

La inteligencia artificial ya ha proporcionado herramientas beneficiosas que utilizan a diario personas de todo el mundo. Su desarrollo continuo, guiado por los siguientes principios, ofrecerá increíbles oportunidades para ayudar y empoderar a las personas en las décadas y siglos venideros.

Cuestiones de investigación

1) Objetivo de la investigación: El objetivo de la investigación en IA debe ser crear no inteligencia no dirigida, sino inteligencia beneficiosa.

2) Financiación de la investigación: Las inversiones en IA deben ir acompañadas de financiación para la investigación que garantice su uso beneficioso, incluidas cuestiones espinosas en informática, economía, derecho, ética y estudios sociales, como:

  • ¿Cómo podemos hacer que los futuros sistemas de IA sean muy robustos, de modo que hagan lo que queremos sin funcionar mal o ser pirateados?
  • ¿Cómo podemos aumentar nuestra prosperidad mediante la automatización, manteniendo al mismo tiempo los recursos y el propósito de las personas?
  • ¿Cómo podemos actualizar nuestros sistemas jurídicos para que sean más justos y eficientes, para seguir el ritmo de la IA y para gestionar los riesgos asociados a la IA?
  • ¿Con qué conjunto de valores debe alinearse la IA y qué estatus jurídico y ético debe tener?

3) Vínculo ciencia-política: Debe haber un intercambio constructivo y saludable entre los investigadores de IA y los responsables políticos.

4) Cultura de investigación: Debe fomentarse una cultura de cooperación, confianza y transparencia entre los investigadores y desarrolladores de IA.

5) Evitación de carreras: Los equipos que desarrollen sistemas de IA deben cooperar activamente para evitar recortes en las normas de seguridad.

Ética y valores

6) Seguridad: Los sistemas de IA deben ser seguros durante toda su vida operativa, y verificables cuando sea aplicable y factible.

7) Transparencia de los fallos: Si un sistema de IA causa daños, debe ser posible averiguar por qué.

8) Transparencia judicial: Cualquier participación de un sistema autónomo en la toma de decisiones judiciales debe proporcionar una explicación satisfactoria auditable por una autoridad humana competente.

9) Responsabilidad: Los diseñadores y constructores de sistemas avanzados de IA son partes interesadas en las implicaciones morales de su uso, mal uso y acciones, con la responsabilidad y la oportunidad de dar forma a esas implicaciones.

10) Alineación de valores: Los sistemas de IA altamente autónomos deben diseñarse de modo que sus objetivos y comportamientos puedan alinearse con los valores humanos a lo largo de su funcionamiento.

11) Valores humanos: Los sistemas de IA deben diseñarse y funcionar de modo que sean compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural.

12) Privacidad personal: Las personas deben tener derecho a acceder, gestionar y controlar los datos que generan, dado el poder de los sistemas de IA para analizar y utilizar esos datos.

13) Libertad y privacidad: La aplicación de la IA a los datos personales no debe restringir injustificadamente la libertad real o percibida de las personas.

14) Beneficio compartido: las tecnologías de IA deben beneficiar y capacitar al mayor número de personas posible.

15) Prosperidad compartida: La prosperidad económica creada por la IA debe compartirse ampliamente, en beneficio de toda la humanidad.

16) Control humano: los humanos deben elegir si delegan decisiones en los sistemas de IA y cómo hacerlo, para lograr los objetivos elegidos por los humanos.

17) No subversión: El poder que confiere el control de sistemas de IA muy avanzados debe respetar y mejorar, en lugar de subvertir, los procesos sociales y cívicos de los que depende la salud de la sociedad.

18) Carrera armamentística de la IA: Debe evitarse una carrera armamentística de armas autónomas letales.

Cuestiones a largo plazo

19) Precaución sobre las capacidades: Al no haber consenso, debemos evitar hacer suposiciones tajantes sobre los límites máximos de las futuras capacidades de la IA.

20) Importancia: La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados.

21) Riesgos: Los riesgos que plantean los sistemas de IA, especialmente los catastróficos o existenciales, deben ser objeto de una planificación y unos esfuerzos de mitigación proporcionales a su impacto previsto.

22) Automejora recursiva: Los sistemas de IA diseñados para auto-mejorarse recursivamente o auto-replicarse de manera que puedan conducir a un rápido aumento de la calidad o la cantidad deben estar sujetos a estrictas medidas de seguridad y control.

23) Bien común: La superinteligencia sólo debe desarrollarse al servicio de ideales éticos ampliamente compartidos, y en beneficio de toda la humanidad y no de un Estado u organización.

Añada su nombre a la lista

Demuestre su apoyo a esta carta abierta añadiendo su propia firma a la lista:

Correcciones de firma

Si cree que su firma se ha añadido por error o tiene alguna otra duda sobre su apariencia, póngase en contacto con nosotros en letters@futureoflife.org.

Firmantes

Hasta la fecha, los Principios han sido firmados por 1200 Investigadores de IA/Robótica y 2342 otros. Aprenda cómo se desarrollaron estos principios aquí y unirse a la discusión de los mismos aquí. Lista completa de firmantes aquí. La lista de firmantes incluye:

Investigadores en IA/Robótica:

Necesita activar javascript para ver los firmantes de la carta abierta.

Otros apoyos:

Necesita activar javascript para ver los firmantes de la carta abierta.
Seguir leyendo
CARTAS ABIERTAS

Puestos relacionados

Si te ha gustado, puede que también te guste:
Firmantes
2672

Carta abierta en la que se pide a los líderes mundiales que muestren un liderazgo a largo plazo frente a las amenazas existenciales

Los Ancianos, Future of Life Institute y una amplia gama de cofirmantes hacen un llamamiento a los responsables de la toma de decisiones para que aborden urgentemente el impacto actual y la escalada de riesgos de la crisis climática, las pandemias, las armas nucleares y la IA no gobernada.
14 de febrero de 2024
Firmantes
Cerrado

Licencias de IA para un futuro mejor: Cómo abordar tanto los daños actuales como las amenazas emergentes

Esta carta abierta conjunta de Encode Justice y Future of Life Institute reclama la aplicación de tres políticas estadounidenses concretas para hacer frente a los daños actuales y futuros de la IA.
25 de octubre de 2023
Firmantes
31810

Pausa a los experimentos gigantes de IA: Carta abierta

Pedimos a todos los laboratorios de IA que suspendan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4.
22 de marzo de 2023
Firmantes
998

Carta abierta contra la temeraria escalada nuclear y su uso

La aborrecible guerra de Ucrania puede degenerar en un conflicto nuclear OTAN-Rusia que sería la mayor catástrofe de la historia de la humanidad. Hay que hacer más para evitar esa escalada.
18 octubre, 2022

Suscríbete al boletín del Future of Life Institute

Únase a más de 40.000 personas que reciben actualizaciones periódicas sobre nuestro trabajo y áreas de interés.
nubelupacruzflecha arriba
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram