Uma carta provocou um debate sobre o dia do juízo final da IA. Muitos dos que assinaram na verdade não eram adeptos do fim da IA.

Uma carta debateu o dia do juízo final da IA, mas muitos que assinaram não eram adeptos do fim da IA.

Em março, quase 35.000 pesquisadores de IA, tecnólogos, empreendedores e cidadãos preocupados assinaram uma carta aberta do Future of Life Institute, uma organização sem fins lucrativos, que pediu uma “pausa” no desenvolvimento de IA, devido aos riscos para a humanidade revelados nas capacidades de programas como o ChatGPT.

“Os sistemas de IA contemporâneos estão se tornando competitivos em tarefas gerais, e devemos nos perguntar… Devemos desenvolver mentes não humanas que eventualmente poderiam superar em número, ultrapassar em inteligência, tornar obsoletos e substituir-nos?”

Ainda posso estar provado errado, mas quase seis meses depois e com o desenvolvimento de IA mais rápido do que nunca, a civilização não desmoronou. Ei, o Bing Chat, oráculo de busca “revolucionário” da Microsoft, infundido com ChatGPT, nem sequer desbancou o Google como líder em busca. Então, o que devemos pensar sobre a carta e avisos de ficção científica semelhantes apoiados por nomes importantes sobre os riscos apresentados pela IA?

Dois estudantes empreendedores do MIT, Isabella Struckman e Sofie Kupiec, entraram em contato com os primeiros cem signatários da carta que pediu uma pausa no desenvolvimento de IA para aprender mais sobre suas motivações e preocupações. As descobertas da dupla revelaram uma ampla variedade de perspectivas entre aqueles que colocaram seus nomes no documento. Apesar da recepção pública da carta, relativamente poucos estavam realmente preocupados com a IA representando uma ameaça iminente para a própria humanidade.

Muitas das pessoas com quem Struckman e Kupiec conversaram não acreditavam que uma pausa de seis meses aconteceria ou teria muito efeito. A maioria dos signatários não imaginava o “cenário apocalíptico” que um respondente anônimo reconheceu que algumas partes da carta evocavam.

Um número significativo dos signatários estava, aparentemente, preocupado principalmente com o ritmo da competição entre Google, OpenAI, Microsoft e outros, à medida que o hype em torno do potencial de ferramentas de IA como o ChatGPT alcançava níveis extremos. O Google foi o desenvolvedor original de vários algoritmos-chave para a criação do chatbot, mas avançou relativamente devagar até que a mania do ChatGPT se estabelecesse. Para essas pessoas, a perspectiva de empresas se apressando para lançar algoritmos experimentais sem explorar os riscos era motivo de preocupação – não porque poderiam exterminar a humanidade, mas porque poderiam espalhar desinformação, produzir conselhos prejudiciais ou tendenciosos ou aumentar a influência e a riqueza de empresas de tecnologia já muito poderosas.

Alguns signatários também se preocuparam com a possibilidade mais distante de a IA substituir trabalhadores em uma velocidade até então nunca vista. E um número também sentiu que a declaração ajudaria a chamar a atenção do público para saltos significativos e surpreendentes no desempenho de modelos de IA, talvez pressionando os reguladores a tomar alguma ação para lidar com os riscos imediatos apresentados pelos avanços em IA.

Em maio, conversei com alguns dos signatários da carta e ficou claro que nem todos concordavam totalmente com tudo o que ela dizia. Eles assinaram porque sentiram que o momentum construído em torno da carta chamaria a atenção para os vários riscos que os preocupavam e, portanto, valia a pena apoiar.

Mas talvez tenha sido um erro tentar abordar tantas questões potencialmente levantadas pela IA existente e recentemente desenvolvida em uma carta que inevitavelmente seria definida por sua afirmação mais extravagante e assustadora. Alguns pesquisadores de IA passaram os últimos anos alertando de forma previdente sobre os problemas sociais mais imediatos que grandes modelos de linguagem poderiam causar, incluindo agravar vieses arraigados. Suas preocupações mal foram ouvidas no meio do furor que a carta provocou em torno de cenários apocalípticos sobre a IA. A proeminência dessa linha de pensamento apocalíptico foi reforçada por uma declaração subsequente em maio, também assinada por muitos pesquisadores de IA de destaque, que comparava a ameaça de extinção da IA à das armas nucleares e pandemias.

Nirit Weiss-Blatt, autora de The Techlash and Tech Crisis Communication, que revisou o artigo do MIT antes de sua publicação, diz que a carta e a declaração acabaram servindo aos interesses das empresas de tecnologia que constroem IA de ponta, porque o foco em cenários distantes de pior caso faz os reguladores acreditarem que a tecnologia é incrivelmente valiosa e difícil de lidar. Muitos dos professores que assinaram a carta não estavam pensando na IA como um risco existencial quando o fizeram, diz Weiss-Blatt. “Mas eles emprestaram seus nomes aos extremistas pessimistas da IA. Essa é a verdadeira desinformação aqui.”

No final, a carta pedindo uma pausa no desenvolvimento de IA pode ter feito o oposto do que muitos dos signatários desejavam. Ao tornar a discussão de cenários apocalípticos mais proeminente, a carta tornou mais difícil que preocupações sobre máquinas menos superinteligentes ganhassem atenção ou inspirassem ação.

Atualizado em 17/08/2023, 13:50 EDT: Weiss-Blatt acredita que a maioria dos professores que assinaram não estava pensando em risco existencial, não todos.