A Carta Aberta para pausar as Inteligências Artificiais (em português)
A Carta Aberta para pausar as Inteligências Artificiais (em português)

A Carta Aberta para pausar as Inteligências Artificiais (em português)

Cada dia a gente tem uma surpresa. El Future of Life Institute de Elon Musk e Max Tegmark, entre outros, publica AGORA uma carta se preocupando sobre as possíveis consequências dos grandes experimentos com Inteligências Artificiais (IA).

Anos de avisos por parte de profissionais das áreas de ciências sociais e humanas, avisando do racismo implícito, a discriminação, a ausência de transparência, os perigos para o mercado de trabalho, a necessidade de uma renda básica universal, as proposta de taxar máquinas que vão substituir pessoas, etc. que sempre foram vistos como mensagens catastróficos e fora da realidade não foram ouvidos até que os mesmos que levam divulgando a utilização das IA de forma irrestrita começam a perceber que “talvez” seria bom ver o que estão fazendo (os outros).

A carta, traduzida a português com Deepl diz assim:

Sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, como demonstrado por uma pesquisa extensiva[1] e reconhecido pelos melhores laboratórios de IA[2]. Como declarado nos Princípios de IA de Asilomar, amplamente endossados, a IA avançada pode representar uma mudança profunda na história da vida na Terra, e deve ser planejada e gerenciada com o mesmo cuidado e recursos. Infelizmente, este nível de planejamento e gerenciamento não está acontecendo, mesmo que nos últimos meses os laboratórios de IA tenham sido fechados em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável.

Os sistemas de IA contemporâneos estão agora se tornando competitivos nas tarefas gerais[3], e devemos nos perguntar: Devemos deixar que as máquinas inundem nossos canais de informação com propaganda e inverdades? Devemos automatizar todos os trabalhos, incluindo os que se cumprem? Devemos desenvolver mentes não-humanas que possam eventualmente ultrapassar em número, ser mais espertas, obsoletas e nos substituir? Devemos correr o risco de perder o controle de nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos somente quando estivermos confiantes de que seus efeitos serão positivos e de que seus riscos serão gerenciáveis.

Esta confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema. A recente declaração da OpenAI sobre inteligência geral artificial, afirma que “Em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar futuros sistemas, e para os esforços mais avançados para concordar em limitar a taxa de crescimento do cálculo usado para criar novos modelos”. Nós concordamos. Esse ponto é agora.

Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais potentes do que o GPT-4. Esta pausa deve ser pública e verificável, e incluir todos os atores-chave. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória.

Os laboratórios de IA e especialistas independentes devem usar esta pausa para desenvolver e implementar conjuntamente um conjunto de protocolos de segurança compartilhados para o projeto e desenvolvimento avançado de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes. Esses protocolos devem assegurar que os sistemas que os aderem sejam seguros, sem dúvida razoável[4]. Isso não significa uma pausa no desenvolvimento de IA em geral, meramente um retrocesso da corrida perigosa para modelos cada vez maiores e imprevisíveis de caixas pretas com capacidades emergentes.

A pesquisa e desenvolvimento de IA deve ser reorientada para tornar os sistemas atuais poderosos e de última geração mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.

Em paralelo, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA. Estes devem incluir, no mínimo: autoridades reguladoras novas e capazes dedicadas à IA; supervisão e rastreamento de sistemas de IA altamente capazes e grandes pools de capacidade computacional; sistemas de proveniência e marca d’água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados pela IA; financiamento público robusto para pesquisa técnica de segurança de IA; e instituições bem dotadas para lidar com as dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA causará.

A humanidade pode desfrutar de um futuro florescente com a gripe aviária. Tendo conseguido criar sistemas poderosos de IA, podemos agora desfrutar de um “verão de IA” no qual colhemos as recompensas, engendramos esses sistemas para o claro benefício de todos e damos à sociedade uma chance de se adaptar. A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos para a sociedade [5]. Podemos fazer isso aqui. Vamos aproveitar um longo verão AI, não nos apressemos em cair sem estar preparados.

Notas e referências

[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4]
Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems “function appropriately and do not pose unreasonable safety risk”.

[5]
Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

É muito curioso ver como solucionistas tecnológicos chegam tão tarde e se esquecem de reconhecer aos inúmeros profissionais que já avisaram para dizer agora que existe um risco.

Alguns dos motivos que aparecem na carta são exagerados, a primeira preocupação deveria ser o monopolio que podem causar as inteligências artificiais, que podem concentrar em poucas mãos bilhões de benefícios e controle sobre inúmeros produtos e serviços.

Não surpreende, mas chama a atenção que aproveitem o momento para pedir, como não, dinheiro público: “financiamento público robusto para pesquisa técnica de segurança de IA“.

Sobre a Open AI, destacar o artigo de Marta Peirano que explica como a empresa passou de ser “Open” a ser uma empresa fechada ao descobrir o potencial econômico que poderia ter.

Entre os assinantes da carta estão alguns pesquisadores de META e Google, atuais perdedores da corrida pela IA, e Elon Musk, que esteve atras da criação de Open AI e apresentou em 2016 sua inteligência artificial aplicada aos carros Tesla, o piloto automático, que não chegou a funcionar totalmente e um dos seus trabalhadores afirmou que o video foi forjado.

E vc, o que acha desta carta?

Deixe uma resposta

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.