Pausa nos experimentos gigantes de IA: Uma carta aberta
Os sistemas de IA com inteligência humana competitiva podem representar riscos profundos para a sociedade e para a humanidade, conforme demonstrado por uma extensa pesquisa[1] e reconhecido pelos principais laboratórios de IA[2]. Conforme declarado nos Princípios de IA da Asilomar, amplamente endossados, a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais. Infelizmente, esse nível de planejamento e gerenciamento não está ocorrendo, embora nos últimos meses os laboratórios de IA tenham se envolvido em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém - nem mesmo seus criadores - consegue entender, prever ou controlar de forma confiável.
Os sistemas de IA contemporâneos estão se tornando competitivos em relação aos humanos em tarefas gerais,[3] e devemos nos perguntar: Devemos permitir que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, inclusive os que são gratificantes? Devemos desenvolver mentes não humanas que possam vir a nos superar, ser mais espertas, obsoletas e nos substituir? Devemos correr o risco de perder o controle de nossa civilização? Essas decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos somente quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos possíveis efeitos de um sistema. A recente declaração da OpenAI sobre inteligência artificial geral afirma que "em algum momento, pode ser importante obter uma análise independente antes de começar a treinar sistemas futuros e, para os esforços mais avançados, concordar em limitar a taxa de crescimento da computação usada para criar novos modelos". Nós concordamos. Esse momento é agora.
Portanto, pedimos a todos os laboratórios de IA que interrompam imediatamente, por pelo menos 6 meses, o treinamento de sistemas de IA mais poderosos do que o GPT-4. Essa pausa deve ser pública e verificável, e incluir todos os principais atores. Se essa pausa não puder ser implementada rapidamente, os governos devem intervir e instituir uma moratória.
Os laboratórios de IA e os especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para o projeto e o desenvolvimento de IA avançada que sejam rigorosamente auditados e supervisionados por especialistas externos independentes. Esses protocolos devem garantir que os sistemas que aderirem a eles sejam seguros, além de qualquer dúvida razoável.[4] Isso não significa uma pausa no desenvolvimento da IA em geral, mas apenas um passo atrás na perigosa corrida para modelos de caixa preta imprevisíveis e cada vez maiores, com recursos emergentes.
A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas poderosos e de última geração atuais mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.
Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA. Esses sistemas devem incluir, no mínimo: autoridades reguladoras novas e capacitadas dedicadas à IA; supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional; sistemas de proveniência e marca d'água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados pela IA; financiamento público robusto para pesquisa técnica de segurança de IA; e instituições com bons recursos para lidar com as perturbações econômicas e políticas drásticas (especialmente para a democracia) que a IA causará.
A humanidade pode desfrutar de um futuro próspero com a IA. Tendo sido bem-sucedidos na criação de sistemas avançados de IA, podemos agora desfrutar de um "verão de IA" no qual colheremos as recompensas, projetaremos esses sistemas para o claro benefício de todos e daremos à sociedade a chance de se adaptar. A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos para a sociedade.[5] Podemos fazer o mesmo aqui. Vamos aproveitar um longo verão de IA, não nos precipitarmos despreparados para o outono.
Preparamos algumas perguntas frequentes em resposta a perguntas e discussões na mídia e em outros lugares. Você pode encontrá-las aqui.
Além dessa carta aberta, publicamos um conjunto de recomendações de políticas que podem ser encontradas aqui:
Elaboração de políticas na pausa
12 de abril de 2023
Esta carta aberta está disponível em francês, árabe e português do Brasil. Você também pode fazer o download dessa carta aberta em PDF.
[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, março). Sobre os perigos dos papagaios estocásticos: Os modelos de linguagem podem ser grandes demais? Em Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence (Superinteligência). Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, julho). A IA atual e de curto prazo como um possível fator de risco existencial. Em Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values (O problema do alinhamento: aprendizado de máquina e valores humanos). Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward (Agentes artificiais avançados intervêm no fornecimento de recompensas). AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs são GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models (Uma primeira análise do potencial de impacto no mercado de trabalho de modelos de idiomas de grande porte).
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Compatível com humanos: Artificial Intelligence and the Problem of Control [Inteligência Artificial e o Problema do Controle]. Viking.
Tegmark, M. (2017). Life 3.0 Ser Humano na Era da Inteligência Artificial. Knopf.
Weidinger, L. et al (2021). Riscos éticos e sociais de danos causados por modelos de linguagem. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, 16 de março). Sam Altman, CEO da OpenAI, diz que a IA vai remodelar a sociedade, reconhece os riscos: "Um pouco assustado com isso". ABC News.
Perrigo, B. (2023, 12 de janeiro). Demis Hassabis, CEO da DeepMind, pede cautela com a IA. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence (Fagulhas de Inteligência Geral Artificial): Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). Relatório Técnico GPT-4. arXiv:2303.08774.
[4]
Existe um amplo precedente legal - por exemplo, os Princípios de IA da OCDE, amplamente adotados, exigem que os sistemas de IA "funcionem adequadamente e não representem um risco de segurança irracional".
[5]
Os exemplos incluem clonagem humana, modificação da linha germinativa humana, pesquisa de ganho de função e eugenia.
Adicione seu nome à lista
Correções de assinatura
Menções na mídia
Signatários
Veja a lista completa de signatários
A tentativa de carregar a lista completa de signatários em um dispositivo móvel ou em uma conexão lenta com a Internet pode causar problemas de formatação.
Como funciona a verificação?
- URL da declaração - Essa pessoa fez uma declaração pública de assinatura da carta aberta que pode ser visualizada on-line.