Principios de IA de Asilomar
Estos principios se elaboraron junto con la conferencia de Asilomar de 2017(vídeos aquí), mediante el proceso descrito aquí.
Haga clic aquí para ver esta página en otros idiomas: Chino Alemán
Japonés
Coreano
Ruso
La inteligencia artificial ya ha proporcionado herramientas beneficiosas que utilizan a diario personas de todo el mundo. Su desarrollo continuo, guiado por los siguientes principios, ofrecerá increíbles oportunidades para ayudar y empoderar a las personas en las décadas y siglos venideros.
Cuestiones de investigación
1) Objetivo de la investigación: El objetivo de la investigación en IA debe ser crear no inteligencia no dirigida, sino inteligencia beneficiosa.
2) Financiación de la investigación: Las inversiones en IA deben ir acompañadas de financiación para la investigación que garantice su uso beneficioso, incluidas cuestiones espinosas en informática, economía, derecho, ética y estudios sociales, como:
- ¿Cómo podemos hacer que los futuros sistemas de IA sean muy robustos, de modo que hagan lo que queremos sin funcionar mal o ser pirateados?
- ¿Cómo podemos aumentar nuestra prosperidad mediante la automatización, manteniendo al mismo tiempo los recursos y el propósito de las personas?
- ¿Cómo podemos actualizar nuestros sistemas jurídicos para que sean más justos y eficientes, para seguir el ritmo de la IA y para gestionar los riesgos asociados a la IA?
- ¿Con qué conjunto de valores debe alinearse la IA y qué estatus jurídico y ético debe tener?
3) Vínculo ciencia-política: Debe haber un intercambio constructivo y saludable entre los investigadores de IA y los responsables políticos.
4) Cultura de investigación: Debe fomentarse una cultura de cooperación, confianza y transparencia entre los investigadores y desarrolladores de IA.
5) Evitación de carreras: Los equipos que desarrollen sistemas de IA deben cooperar activamente para evitar recortes en las normas de seguridad.
Ética y valores
6) Seguridad: Los sistemas de IA deben ser seguros durante toda su vida operativa, y verificables cuando sea aplicable y factible.
7) Transparencia de los fallos: Si un sistema de IA causa daños, debe ser posible averiguar por qué.
8) Transparencia judicial: Cualquier participación de un sistema autónomo en la toma de decisiones judiciales debe proporcionar una explicación satisfactoria auditable por una autoridad humana competente.
9) Responsabilidad: Los diseñadores y constructores de sistemas avanzados de IA son partes interesadas en las implicaciones morales de su uso, mal uso y acciones, con la responsabilidad y la oportunidad de dar forma a esas implicaciones.
10) Alineación de valores: Los sistemas de IA altamente autónomos deben diseñarse de modo que sus objetivos y comportamientos puedan alinearse con los valores humanos a lo largo de su funcionamiento.
11) Valores humanos: Los sistemas de IA deben diseñarse y funcionar de modo que sean compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural.
12) Privacidad personal: Las personas deben tener derecho a acceder, gestionar y controlar los datos que generan, dado el poder de los sistemas de IA para analizar y utilizar esos datos.
13) Libertad y privacidad: La aplicación de la IA a los datos personales no debe restringir injustificadamente la libertad real o percibida de las personas.
14) Beneficio compartido: las tecnologías de IA deben beneficiar y capacitar al mayor número de personas posible.
15) Prosperidad compartida: La prosperidad económica creada por la IA debe compartirse ampliamente, en beneficio de toda la humanidad.
16) Control humano: los humanos deben elegir si delegan decisiones en los sistemas de IA y cómo hacerlo, para lograr los objetivos elegidos por los humanos.
17) No subversión: El poder que confiere el control de sistemas de IA muy avanzados debe respetar y mejorar, en lugar de subvertir, los procesos sociales y cívicos de los que depende la salud de la sociedad.
18) Carrera armamentística de la IA: Debe evitarse una carrera armamentística de armas autónomas letales.
Cuestiones a largo plazo
19) Precaución sobre las capacidades: Al no haber consenso, debemos evitar hacer suposiciones tajantes sobre los límites máximos de las futuras capacidades de la IA.
20) Importancia: La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados.
21) Riesgos: Los riesgos que plantean los sistemas de IA, especialmente los catastróficos o existenciales, deben ser objeto de una planificación y unos esfuerzos de mitigación proporcionales a su impacto previsto.
22) Automejora recursiva: Los sistemas de IA diseñados para auto-mejorarse recursivamente o auto-replicarse de manera que puedan conducir a un rápido aumento de la calidad o la cantidad deben estar sujetos a estrictas medidas de seguridad y control.
23) Bien común: La superinteligencia sólo debe desarrollarse al servicio de ideales éticos ampliamente compartidos, y en beneficio de toda la humanidad y no de un Estado u organización.
Añada su nombre a la lista
Correcciones de firma
Firmantes
Investigadores en IA/Robótica:
Otros apoyos:
¿Cómo funciona la verificación?
- URL de la declaración - Esta persona ha hecho una declaración pública de firma de la carta abierta que puede verse en línea.