Ir al contenido
Todas las cartas abiertas

Pausa a los experimentos gigantes de IA: Carta abierta

Pedimos a todos los laboratorios de IA que suspendan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4.
Firmas
31810
Añada su firma
Publicado en
22 de marzo de 2023

Los sistemas de IA con una inteligencia competitiva con la humana pueden plantear profundos riesgos para la sociedad y la humanidad, como demuestran numerosas investigaciones[1] y reconocen los principales laboratorios de IA[2]. Como se afirma en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados. Desgraciadamente, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses se ha visto a los laboratorios de IA enzarzados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable.

Los sistemas de inteligencia artificial contemporáneos ya compiten con los humanos en tareas generales[3], y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los más gratificantes? ¿Debemos desarrollar mentes no humanas que, con el tiempo, nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas de IA potentes sólo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La reciente declaración de OpenAI en relación con la inteligencia artificial general, afirma que "En algún momento, puede ser importante obtener una revisión independiente antes de empezar a entrenar futuros sistemas, y que los esfuerzos más avanzados acuerden limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos." Estamos de acuerdo. Ese momento es ahora.

Por lo tanto, pedimos a todos los laboratorios de IA que pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que la GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no puede realizarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria.

Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deberían garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable[4]. Esto no significa una pausa en el desarrollo de la IA en general, sino simplemente un paso atrás en la peligrosa carrera hacia modelos de caja negra cada vez más grandes e impredecibles con capacidades emergentes.

La investigación y el desarrollo de la IA deben centrarse en conseguir que los potentes sistemas actuales sean más precisos, seguros, interpretables, transparentes, robustos, alineados, fiables y leales.

Paralelamente, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza de la IA. Estos deberían incluir, como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes reservas de capacidad computacional; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear las fugas de modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por los daños causados por la IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas de recursos para hacer frente a las drásticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA.

La humanidad puede disfrutar de un futuro próspero con la IA. Tras haber logrado crear potentes sistemas de IA, ahora podemos disfrutar de un "verano de la IA" en el que cosechemos los frutos, diseñemos estos sistemas para el claro beneficio de todos y demos a la sociedad la oportunidad de adaptarse. La sociedad ha puesto pausa a otras tecnologías con efectos potencialmente catastróficos para la sociedad[5]. Podemos hacerlo aquí. Disfrutemos de un largo verano de la IA, no nos precipitemos sin estar preparados a un otoño.

Hemos preparado algunas preguntas frecuentes en respuesta a preguntas y debates en los medios de comunicación y otros medios. Puede consultarlas aquí.

Además de esta carta abierta, hemos publicado una serie de recomendaciones políticas que pueden consultarse aquí:

Políticas en pausa

12 de abril de 2023

Ver artículo

Esta carta abierta está disponible en francés, árabe y portugués de Brasil. También puede descargar esta carta abierta en formato PDF.

[1]

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, marzo). Sobre los peligros de los loros estocásticos: Can Language Models Be Too Big?🦜. En Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, julio). La IA actual y a corto plazo como posible factor de riesgo existencial. En Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk? arXiv preprint arXiv:2206.13353.

Christian, B. (2020). El problema de la alineación: aprendizaje automático y valores humanos. Norton & Company.

Cohen, M. y otros (2022). Los agentes artificiales avanzados intervienen en la provisión de recompensas. AI Magazine, 43(3) (pp. 282-293).

Eloundou, T., et al. (2023). Los GPT son GPT: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Humanos compatibles: La inteligencia artificial y el problema del control. Viking.

Tegmark, M. (2017). Life 3.0: Ser humano en la era de la inteligencia artificial. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[3]

Bubeck, S. et al. (2023). Chispas de Inteligencia General Artificial: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). Informe técnico GPT-4. arXiv:2303.08774.

[4]

Existe un amplio precedente jurídico: por ejemplo, los Principios de la IA de la OCDE, ampliamente adoptados, exigen que los sistemas de IA "funcionen adecuadamente y no planteen riesgos de seguridad irrazonables".

[5]

Algunos ejemplos son la clonación humana, la modificación de la línea germinal humana, la investigación de ganancia de función y la eugenesia.

Añada su nombre a la lista

Demuestre su apoyo a esta carta abierta añadiendo su propia firma a la lista:

Correcciones de firma

Si cree que su firma se ha añadido por error o tiene alguna otra duda sobre su apariencia, póngase en contacto con nosotros en letters@futureoflife.org.

Firmantes


Ver la lista completa de firmantes

Si se intenta cargar la lista completa de firmantes en un dispositivo móvil o con una conexión a Internet lenta, podrían producirse problemas de formato.

Seguir leyendo
CARTAS ABIERTAS

Puestos relacionados

Si te ha gustado, puede que también te guste:
Firmantes
2672

Carta abierta en la que se pide a los líderes mundiales que muestren un liderazgo a largo plazo frente a las amenazas existenciales

Los Ancianos, Future of Life Institute y una amplia gama de cofirmantes hacen un llamamiento a los responsables de la toma de decisiones para que aborden urgentemente el impacto actual y la escalada de riesgos de la crisis climática, las pandemias, las armas nucleares y la IA no gobernada.
14 de febrero de 2024
Firmantes
Cerrado

Licencias de IA para un futuro mejor: Cómo abordar tanto los daños actuales como las amenazas emergentes

Esta carta abierta conjunta de Encode Justice y Future of Life Institute reclama la aplicación de tres políticas estadounidenses concretas para hacer frente a los daños actuales y futuros de la IA.
25 de octubre de 2023
Firmantes
998

Carta abierta contra la temeraria escalada nuclear y su uso

La aborrecible guerra de Ucrania puede degenerar en un conflicto nuclear OTAN-Rusia que sería la mayor catástrofe de la historia de la humanidad. Hay que hacer más para evitar esa escalada.
18 octubre, 2022
Firmantes
Cerrado

Carta abierta sobre la previsión en la regulación de la IA

La aparición de la inteligencia artificial (IA) promete cambios drásticos en nuestras estructuras económicas y sociales, así como en la vida cotidiana [...].
14 de junio de 2020

Suscríbete al boletín del Future of Life Institute

Únase a más de 40.000 personas que reciben actualizaciones periódicas sobre nuestro trabajo y áreas de interés.
nubelupacruzflecha arriba
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram