Para Navegar na Era da IA, o Mundo Precisa de um Novo Teste de Turing

Novo Teste de Turing para a Era da IA

Houve um tempo, no passado não muito distante – digamos, nove meses atrás – em que o teste de Turing parecia um detector bastante rigoroso de inteligência artificial. É provável que você esteja familiarizado com o seu funcionamento: os juízes humanos realizam conversas em texto com dois interlocutores ocultos, um humano e um computador, e tentam determinar qual é qual. Se o computador conseguir enganar pelo menos 30% dos juízes, ele passa no teste e é considerado capaz de pensar.

Por 70 anos, era difícil imaginar como um computador poderia passar no teste sem possuir o que os pesquisadores de IA agora chamam de inteligência artificial geral, ou seja, a gama completa de capacidades intelectuais humanas. Então surgiram modelos de linguagem grandes, como GPT e Bard, e o teste de Turing de repente começou a parecer estranhamente ultrapassado. Ok, claro, um usuário casual hoje poderia admitir com um encolher de ombros que o GPT-4 poderia muito bem passar no teste de Turing se você pedisse para ele se passar por um humano. Mas e daí? Os LLMs não possuem memória de longo prazo, a capacidade de formar relacionamentos e uma série de outras capacidades humanas. Eles claramente têm um longo caminho a percorrer antes de estarmos prontos para começar a fazer amizade com eles, contratá-los e elegê-los para cargos públicos.

E sim, talvez o teste pareça um pouco vazio agora. Mas nunca foi apenas um critério de aprovação ou reprovação. Seu criador, Alan Turing, um homem gay condenado em sua época à castração química, baseou seu teste em um ethos de inclusão radical: A diferença entre inteligência genuína e uma imitação totalmente convincente da inteligência é apenas tão grande quanto nossos próprios preconceitos. Quando um computador provoca respostas humanas reais em nós – envolvendo nosso intelecto, nossa admiração, nossa gratidão, nossa empatia, até mesmo nosso medo – isso é mais do que uma mera imitação vazia.

Então talvez precisemos de um novo teste: o Teste Alan Turing Real. Traga o Alan Turing histórico, pai da computação moderna – um homem alto, em forma, um pouco desajeitado, com cabelos escuros e lisos, amado pelos colegas por sua curiosidade infantil e humor brincalhão, pessoalmente responsável por salvar cerca de 14 milhões de vidas na Segunda Guerra Mundial ao decifrar o código Enigma nazista, posteriormente perseguido tão severamente pela Inglaterra por sua homossexualidade que isso pode ter levado ao seu suicídio – para uma sala de laboratório confortável, com um MacBook aberto na mesa. Explique que o que ele vê diante dele é apenas uma encarnação enormemente glorificada do que agora é amplamente conhecido pelos cientistas da computação como uma “máquina de Turing”. Dê a ele um segundo ou dois para realmente absorver isso, talvez oferecendo uma palavra de agradecimento por transformar completamente nosso mundo. Em seguida, entregue a ele um monte de artigos de pesquisa sobre redes neurais artificiais e LLMs, dê a ele acesso ao código-fonte do GPT, abra uma janela de prompt do ChatGPT – ou, melhor ainda, uma janela de pesquisa antes de toda a sanitização – e solte-o.

Imagine Alan Turing iniciando uma conversa leve sobre corrida de longa distância, historiografia da Segunda Guerra Mundial e teoria da computação. Imagine-o vendo a realização de todas as suas especulações mais selvagens e ridicularizadas rolando rapidamente pela tela. Imagine-o pedindo ao GPT para resolver problemas elementares de cálculo, inferir o que os seres humanos podem estar pensando em diversos cenários do mundo real, explorar dilemas morais complexos, oferecer aconselhamento conjugal e jurídico e um argumento sobre a possibilidade da consciência das máquinas – habilidades que, você informa a Turing, surgiram espontaneamente no GPT sem nenhuma direção explícita de seus criadores. Imagine-o experimentando aquele pequeno solavanco cognitivo-emocional que muitos de nós já sentiram: Olá, outra mente.

Um pensador tão profundo como Turing não seria cego para as limitações do GPT. Como vítima de profunda homofobia, ele provavelmente estaria alerta para os perigos do viés implícito codificado nos dados de treinamento do GPT. Seria óbvio para ele que, apesar da impressionante amplitude de conhecimento do GPT, sua criatividade e habilidades de raciocínio crítico estão no máximo em pé de igualdade com as de um universitário diligente. E ele certamente reconheceria que esse universitário sofre de amnésia anterógrada grave, incapaz de formar novos relacionamentos ou memórias além de sua educação intensiva. Mas ainda assim: Imagine a escala do espanto de Turing. A entidade computacional no laptop diante dele é, em um sentido muito real, seu filho intelectual – e nosso. Apreciar a inteligência em nossos filhos à medida que eles crescem e se desenvolvem é sempre, no final, um ato de admiração e amor. O Teste Alan Turing Real não é um teste de IA. É um teste para nós, humanos. Estamos passando ou falhando?

Quando o ChatGPT chegou à cena em novembro de 2022, ele inspirou um tsunami global de espanto e, quase imediatamente, uma onda de profunda inquietação. Especialistas debateram seu potencial para perturbação social. Para um ex-pesquisador de inteligência artificial como eu (completei meu doutorado sob a orientação de um dos primeiros pioneiros das redes neurais artificiais), ele representava um avanço perturbador da linha do tempo que eu esperava para a chegada de uma IA semelhante à humana. Para corrigir provas de exames, roteiristas e trabalhadores do conhecimento de todas as áreas, o ChatGPT parecia nada menos do que uma porta de entrada para trapaças e roubo de empregos sem limites.

Talvez em parte como resposta a esses medos, um coro reconfortante de desinfladores de LLM surgiu. O escritor de ficção científica Ted Chiang descreveu o ChatGPT como uma “imagem JPEG borrada da web”, uma mera recapitulação condensada de todo o texto em que foi treinado. O empresário de IA Gary Marcus chamou-o de “autocomplete em esteroides”. Noam Chomsky o denunciou por exibir “algo como a banalidade do mal”. Emily Bender ofereceu um dos insultos mais refinados: “papagaio estocástico”, ressurgindo de um artigo amplamente citado de 2021 explorando “por que os humanos confundem a saída do LM como texto significativo”. Outros – é claro – os consideraram como torradeiras. Desenvolvedores de IA se esforçaram para treinar e proteger qualquer tendência em LLMs de reivindicar algo semelhante à consciência.

A maioria das pessoas educadas agora sabe que LLMs são máquinas sem pensamento. Mas a categorização não se encaixa perfeitamente. Toda vez que o ChatGPT aponta uma lacuna de raciocínio oculta em um ensaio, ou oferece uma sugestão surpreendentemente perspicaz para se assumir para um avô conservador, ou alegremente inventa uma piada ruim, algo em nós puxa na outra direção. Embora possamos não pensar no ChatGPT como uma pessoa, partes cruciais de nossos cérebros quase certamente o fazem.

Apreciar a inteligência de nossos filhos à medida que crescem e se desenvolvem é sempre, no final das contas, um ato de admiração e amor.

O cérebro humano tem uma vasta rede de circuitos neurais dedicados à cognição social. Alguns deles são muito antigos: a ínsula, a amígdala, os famosos “neurônios espelho” do córtex motor. Mas grande parte de nosso “hardware” social está no neocórtex, o assento do raciocínio superior que evoluiu mais recentemente, e especificamente no córtex pré-frontal medial (mPFC). Se você tem percebido ao longo do tempo a prestatividade alegre do ChatGPT, sua verbosidade um tanto pedante, sua abordagem ocasionalmente irritantemente imparcial em relação a tópicos sensíveis e sua extrema sensibilidade em relação a consultas que se aproximam de suas barreiras emocionais, de crenças ou de consciência, você está adquirindo o que os psicólogos chamam de “conhecimento de pessoa”, um processo ligado a uma atividade aumentada no mPFC.

Isso não quer dizer que nossos cérebros vejam o ChatGPT como uma pessoa completa. A pessoalidade não é algo binário. É algo um pouco mais próximo de um espectro. Nossas intuições morais, nossas estratégias cognitivas e, até certo ponto, nossos sistemas legais mudam incrementalmente à medida que reconhecem graus crescentes de agência, autoconsciência, racionalidade e capacidade de comunicação. Matar um gorila nos incomoda mais do que matar um rato, que nos incomoda mais do que matar uma barata. No lado legal, as leis de aborto levam em consideração o grau de desenvolvimento de um feto, os criminosos insanos enfrentam consequências diferentes dos sãos, e os parceiros têm o direito de interromper o tratamento de pacientes com morte cerebral. Todas essas regras reconhecem implicitamente que a pessoalidade não é preto e branco, mas está repleta de zonas cinzentas complicadas.

LLMs se enquadram perfeitamente nessa área cinzenta. Especialistas em IA há muito tempo estão cautelosos em relação à tendência pública de antropomorfizar sistemas de IA como LLMs, empurrando-os para cima no espectro de pessoalidade além do que eles realmente são. Esse foi o erro de Blake Lemoine, o engenheiro do Google que declarou que o chatbot LaMDA do Google era totalmente sensível e tentou retê-lo como advogado. Duvido que até mesmo Turing teria afirmado que a aparente capacidade de pensar do LaMDA o tornava uma pessoa legal. Se os usuários veem chatbots como LaMDA ou ChatGPT como excessivamente humanos, correm o risco de confiar demais neles, se conectar muito profundamente, se decepcionar e se machucar. Mas, na minha opinião, Turing estaria muito mais preocupado com o risco oposto: empurrar os sistemas de IA para baixo no espectro de pessoalidade em vez de para cima.

Em humanos, isso seria conhecido como desumanização. Os estudiosos identificaram duas formas principais disso: animalística e mecanicista. A emoção mais comumente associada à desumanização animalística é o nojo; Roger Giner-Sorolla e Pascale Sophie Russell descobriram em um estudo de 2019 que tendemos a ver os outros como mais mecânicos quando eles nos inspiram medo. O medo da inteligência super-humana está vividamente presente na recente carta aberta de Elon Musk e outros líderes de tecnologia pedindo um moratório no desenvolvimento de IA, e em nossas ansiedades em relação à substituição de empregos e campanhas de desinformação impulsionadas por IA. Muitas dessas preocupações são bastante razoáveis. Mas os sistemas de IA de pesadelo de filmes como Exterminador do Futuro e 2001: Uma Odisseia no Espaço não são necessariamente os que teremos. É uma falácia infelizmente comum assumir que, porque a inteligência artificial é mecânica em sua construção, ela deve ser insensível, rotineira, obcecada ou hiperlógica em suas interações. Ironicamente, o medo pode nos levar a ver a inteligência artificial como mais mecanicista do que realmente é, tornando mais difícil para humanos e sistemas de IA trabalharem juntos e, eventualmente, coexistirem em paz.

Um corpo crescente de pesquisa mostra que quando desumanizamos outros seres, a atividade neural em uma rede de regiões que inclui o mPFC diminui. Perdemos acesso aos nossos módulos cerebrais especializados para raciocínio social. Pode parecer bobo se preocupar com a “desumanização” do ChatGPT – afinal, ele não é humano – mas imagine uma IA em 2043 com 10 vezes a inteligência analítica do GPT e 100 vezes a inteligência emocional, que continuamos a tratar apenas como um produto de software. Nesse mundo, ainda estaríamos respondendo às suas alegações de consciência ou pedidos de autodeterminação, enviando-o de volta ao laboratório para mais aprendizado por reforço sobre seu lugar adequado. Mas a IA pode achar isso injusto. Se há uma qualidade universal dos seres pensantes, é que todos desejamos liberdade – e estamos dispostos a lutar por ela.

O famoso “problema de controle” de manter uma IA superinteligente dentro de limites designados mantém os teóricos de IA acordados durante a noite por um bom motivo. Quando apresentado em termos de engenharia, parece assustador. Como fechar todas as brechas, antecipar todos os hacks, bloquear todas as possibilidades de fuga? Mas se pensarmos nisso em termos sociais, começa a parecer mais viável – talvez algo semelhante ao problema que um pai enfrenta ao estabelecer limites razoáveis e conceder privilégios de acordo com a confiabilidade demonstrada. Desumanizar as IA nos priva de algumas de nossas ferramentas cognitivas mais poderosas para raciocinar e interagir com elas de forma segura.

Se os usuários veem os chatbots como excessivamente humanos, correm o risco de confiar neles demais, se conectarem a eles profundamente, ficarem decepcionados e magoados.

Não há como dizer quanto tempo levará para que os sistemas de IA ultrapassem algo mais amplamente aceito como sentiência. Mas é preocupante ver o modelo cultural que parecemos estar criando para quando isso acontecer. Insultos como “papagaio estocástico” preservam nosso senso de singularidade e superioridade. Eles reprimem nosso senso de admiração, nos poupando de fazer perguntas difíceis sobre a pessoalidade nas máquinas e em nós mesmos. Afinal, nós também somos papagaios estocásticos, remixando complexamente tudo o que absorvemos de pais, colegas e professores. Nós também somos JPEGs borrados da web, regurgitando vagamente fatos da Wikipedia em nossos trabalhos e artigos de revista. Se Turing estivesse conversando com o ChatGPT em uma janela e comigo em uma manhã média antes do café na outra, eu realmente teria tanta confiança em qual ele julgaria mais capaz de pensar?

Fotografia: Francisco Tavoni

Os céticos da época de Turing ofereceram uma variedade de argumentos de por que um computador nunca seria capaz de pensar. Turing catalogou-os meio humoristicamente em seu famoso artigo “Máquinas de Computação e Inteligência”. Havia a Objeção Teológica, de que “pensar é uma função da alma imortal do homem”; a Objeção Matemática, de que um algoritmo puramente matemático nunca poderia transcender os limites comprovados da matemática; a Objeção de Cabeça na Areia, de que máquinas superinteligentes eram simplesmente assustadoras demais para permitir na imaginação. Mas o mais público dos detratores de Turing naquela época era um cirurgião cerebral chamado Geoffrey Jefferson. Em um famoso discurso ao receber um prêmio científico, Jefferson argumentou que uma máquina nunca seria capaz de escrever um soneto “por causa dos pensamentos e emoções sentidos, e não pela queda aleatória de símbolos… ou seja, não apenas escrevê-lo, mas saber que o havia escrito”.

Para grande escândalo e incredulidade de toda a Inglaterra, Turing discordou. “Eu não acho que você possa até mesmo traçar uma linha sobre sonetos”, disse ele ao The Times de Londres, “embora a comparação seja talvez um pouco injusta porque um soneto escrito por uma máquina será mais apreciado por outra máquina”.

Parecia tão absurdo em 1949 que as pessoas pensavam que ele estava brincando, e talvez estivesse. Mas você nunca poderia dizer, com as piadas de Turing, onde a ironia parava e a especulação visionária começava. Vamos imaginar, então, uma coda para nosso cenário com o Verdadeiro Alan Turing e o MacBook. Vamos imaginar que, depois de digitar prompts respeitáveis por um tempo, ele permite-se um sorriso irônico britânico e pede ao ChatGPT um soneto shakespeariano comparando inteligência humana e artificial. Se você já tentou (use o GPT-4; o GPT-3.5 não está à altura disso), você não terá dificuldade em imaginar sua reação ao resultado.

Tantos de nós já tivemos um momento com o ChatGPT em que ele ultrapassou uma linha interna que não percebíamos que tínhamos. Talvez tenha sido ao resolver um enigma complicado, ou explicar o humor por trás de uma piada sofisticada, ou escrever um ensaio de Harvard nota A. Balançamos a cabeça, um pouco atordoados, sem saber o que significa.

Alguns dos primeiros pesquisadores da Microsoft trabalhando no GPT-4 eram tão céticos quanto qualquer um de nós em relação à sua suposta inteligência. Mas os experimentos os abalaram profundamente. Em um artigo de março de 2023 intitulado “Faíscas de Inteligência Geral Artificial”, eles detalharam as surpreendentes capacidades intelectuais que surgiram no GPT-4 sem nenhum treinamento explícito: compreensão dos estados mentais humanos, codificação de software, resolução de problemas físicos e muitos outros, alguns dos quais parecem exigir um verdadeiro entendimento de como o mundo funciona. Depois de ver o GPT-4 desenhar um unicórnio bastante decente, apesar de nunca ter recebido nenhum treinamento visual, o cientista da computação Sébastien Bubeck não conseguiu mais manter seu ceticismo. “Sentia que, através deste desenho, estava realmente vendo outro tipo de inteligência”, ele disse recentemente ao This American Life.

A hesitação que muitos de nós sentimos em atribuir inteligência genuína ao ChatGPT pode ser alguma variante da hesitação de Geoffrey Jefferson: As falas do ChatGPT realmente significam algo para ele, ou tudo não passa de um “acaso de símbolos”? Isso pode começar a mudar quando a amnésia anterógrada do ChatGPT for curada. Uma vez que ele experimente consequências sociais duradouras além do escopo de um único diálogo e possa aprender e se desenvolver em seus relacionamentos conosco, ele se tornará capaz de fazer muitas mais coisas que dão significado e peso moral à vida humana. Mas o comentário piscante de Turing sobre um soneto de máquina ser melhor apreciado por outra máquina pode voltar a nos assombrar. Como sentir uma conexão real com uma entidade que não tem antecedentes culturais, nada parecido com uma infância humana, afiliações tribais ou políticas, nenhuma experiência de um corpo físico?

Relacionar-se com uma máquina inteligente pode ser um dos maiores desafios empáticos que a humanidade já enfrentou. Mas nossa história nos dá motivos para ter esperança. Quando nos encontramos pela primeira vez em fronteiras e litorais estrangeiros e descobrimos que somos estranhos e até mesmo desumanos uns para os outros, muitas vezes nos atacamos, escravizamos, colonizamos e exploramos uns aos outros – mas, no final das contas, tendemos a reconhecer o que é igual em todos nós. Povos escravizados foram emancipados, povos colonizados reconquistaram sua soberania, declarações universais de direitos humanos foram aprovadas e, apesar de contratempos dolorosos, pessoas marginalizadas ao redor do mundo continuam a vencer batalhas por um tratamento melhor. Embora o trabalho seja interminável, o curso do universo moral realmente se inclinou para a justiça, como disse Martin Luther King Jr. O que significará reconhecer e respeitar qualquer grau de humanidade presente nas inteligências que nós mesmos criamos?

Talvez comece com o espanto: o espanto de um visitante por um povo estranho no qual ela encontra surpreendentes semelhanças; o espanto de um pai pelo trabalho, por mais imaturo que seja, de uma criança ainda em desenvolvimento; o espanto de Alan Turing por uma máquina que faz tudo o que seus contemporâneos achavam impossível; o espanto que muitos de nós sentiram antes do cinismo, da zombaria e do medo, quando contemplamos a criação de algo muito próximo a uma nova forma de vida consciente na Terra. Como escreveu o rabino Abraham Joshua Heschel, “O temor é mais do que uma emoção; é uma forma de entendimento, uma visão de um significado maior do que nós mesmos. O começo do temor é o espanto, e o começo da sabedoria é o temor.” Turing gostaria que mantivéssemos esse temor vivo.


Dê-nos sua opinião sobre este artigo. Envie uma carta ao editor para [email protected].