Pular para o conteúdo
Todas as cartas abertas

Pausa nos experimentos gigantes de IA: Uma carta aberta

Pedimos a todos os laboratórios de IA que interrompam imediatamente, por pelo menos 6 meses, o treinamento de sistemas de IA mais poderosos que o GPT-4.
Assinaturas
31810
Adicione sua assinatura
Publicado
22 de março de 2023

Os sistemas de IA com inteligência humana competitiva podem representar riscos profundos para a sociedade e para a humanidade, conforme demonstrado por uma extensa pesquisa[1] e reconhecido pelos principais laboratórios de IA[2]. Conforme declarado nos Princípios de IA da Asilomar, amplamente endossados, a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais. Infelizmente, esse nível de planejamento e gerenciamento não está ocorrendo, embora nos últimos meses os laboratórios de IA tenham se envolvido em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém - nem mesmo seus criadores - consegue entender, prever ou controlar de forma confiável.

Os sistemas de IA contemporâneos estão se tornando competitivos em relação aos humanos em tarefas gerais,[3] e devemos nos perguntar: Devemos permitir que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, inclusive os que são gratificantes? Devemos desenvolver mentes não humanas que possam vir a nos superar, ser mais espertas, obsoletas e nos substituir? Devemos correr o risco de perder o controle de nossa civilização? Essas decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos somente quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos possíveis efeitos de um sistema. A recente declaração da OpenAI sobre inteligência artificial geral afirma que "em algum momento, pode ser importante obter uma análise independente antes de começar a treinar sistemas futuros e, para os esforços mais avançados, concordar em limitar a taxa de crescimento da computação usada para criar novos modelos". Nós concordamos. Esse momento é agora.

Portanto, pedimos a todos os laboratórios de IA que interrompam imediatamente, por pelo menos 6 meses, o treinamento de sistemas de IA mais poderosos do que o GPT-4. Essa pausa deve ser pública e verificável, e incluir todos os principais atores. Se essa pausa não puder ser implementada rapidamente, os governos devem intervir e instituir uma moratória.

Os laboratórios de IA e os especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para o projeto e o desenvolvimento de IA avançada que sejam rigorosamente auditados e supervisionados por especialistas externos independentes. Esses protocolos devem garantir que os sistemas que aderirem a eles sejam seguros, além de qualquer dúvida razoável.[4] Isso não significa uma pausa no desenvolvimento da IA em geral, mas apenas um passo atrás na perigosa corrida para modelos de caixa preta imprevisíveis e cada vez maiores, com recursos emergentes.

A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas poderosos e de última geração atuais mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.

Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA. Esses sistemas devem incluir, no mínimo: autoridades reguladoras novas e capacitadas dedicadas à IA; supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional; sistemas de proveniência e marca d'água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados pela IA; financiamento público robusto para pesquisa técnica de segurança de IA; e instituições com bons recursos para lidar com as perturbações econômicas e políticas drásticas (especialmente para a democracia) que a IA causará.

A humanidade pode desfrutar de um futuro próspero com a IA. Tendo sido bem-sucedidos na criação de sistemas avançados de IA, podemos agora desfrutar de um "verão de IA" no qual colheremos as recompensas, projetaremos esses sistemas para o claro benefício de todos e daremos à sociedade a chance de se adaptar. A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos para a sociedade.[5] Podemos fazer o mesmo aqui. Vamos aproveitar um longo verão de IA, não nos precipitarmos despreparados para o outono.

Preparamos algumas perguntas frequentes em resposta a perguntas e discussões na mídia e em outros lugares. Você pode encontrá-las aqui.

Além dessa carta aberta, publicamos um conjunto de recomendações de políticas que podem ser encontradas aqui:

Elaboração de políticas na pausa

12 de abril de 2023

Ver artigo

Esta carta aberta está disponível em francês, árabe e português do Brasil. Você também pode fazer o download dessa carta aberta em PDF.

[1]

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, março). Sobre os perigos dos papagaios estocásticos: Os modelos de linguagem podem ser grandes demais? Em Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence (Superinteligência). Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, julho). A IA atual e de curto prazo como um possível fator de risco existencial. Em Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values (O problema do alinhamento: aprendizado de máquina e valores humanos). Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward (Agentes artificiais avançados intervêm no fornecimento de recompensas). AI Magazine, 43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs são GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models (Uma primeira análise do potencial de impacto no mercado de trabalho de modelos de idiomas de grande porte).

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Compatível com humanos: Artificial Intelligence and the Problem of Control [Inteligência Artificial e o Problema do Controle]. Viking.

Tegmark, M. (2017). Life 3.0 Ser Humano na Era da Inteligência Artificial. Knopf.

Weidinger, L. et al (2021). Riscos éticos e sociais de danos causados por modelos de linguagem. arXiv preprint arXiv:2112.04359.

[4]

Existe um amplo precedente legal - por exemplo, os Princípios de IA da OCDE, amplamente adotados, exigem que os sistemas de IA "funcionem adequadamente e não representem um risco de segurança irracional".

[5]

Os exemplos incluem clonagem humana, modificação da linha germinativa humana, pesquisa de ganho de função e eugenia.

Adicione seu nome à lista

Demonstre seu apoio a essa carta aberta adicionando sua própria assinatura à lista:

Correções de assinatura

Se você acredita que sua assinatura foi adicionada por engano ou se tiver outras dúvidas sobre a aparência dela, entre em contato conosco pelo e-mail letters@futureoflife.org.

Signatários


Veja a lista completa de signatários

A tentativa de carregar a lista completa de signatários em um dispositivo móvel ou em uma conexão lenta com a Internet pode causar problemas de formatação.

Leia mais
CARTAS ABERTAS

Publicações relacionadas

Se você gostou deste artigo, talvez goste também:
Signatários
2672

Carta aberta conclamando os líderes mundiais a demonstrarem liderança com visão de longo prazo em relação às ameaças existenciais

Os Elders, Future of Life Institute e uma gama diversificada de co-signatários conclamam os tomadores de decisão a abordar com urgência o impacto contínuo e os riscos crescentes da crise climática, das pandemias, das armas nucleares e da IA não governada.
14 de fevereiro de 2024
Signatários
Fechado

Licenciamento de IA para um futuro melhor: Como lidar com os danos atuais e as ameaças emergentes

Essa carta aberta conjunta da Encode Justice e do site Future of Life Institute pede a implementação de três políticas concretas nos EUA para lidar com os danos atuais e futuros da IA.
25 de outubro de 2023
Signatários
998

Carta aberta contra a escalada e o uso imprudente de armas nucleares

A odiosa guerra na Ucrânia tem o potencial de se transformar em um conflito nuclear entre a OTAN e a Rússia, que seria a maior catástrofe da história da humanidade. É preciso fazer mais para evitar essa escalada.
18 de outubro de 2022
Signatários
Fechado

Carta aberta sobre a previsão da regulamentação da IA

O surgimento da inteligência artificial (IA) promete mudanças drásticas em nossas estruturas econômicas e sociais, bem como na vida cotidiana [...]
14 de junho de 2020

Inscreva-se para receber o boletim informativo Future of Life Institute

Junte-se a mais de 40.000 pessoas que recebem atualizações periódicas sobre nosso trabalho e áreas de causa.
nuvemlupacruzadoseta para cima
linkedin facebook pinterest youtube rss twitter instagram em branco no facebook rss-blank em branco no linkedin pinterest youtube twitter instagram