Não pergunte a robôs burros se a IA vai destruir a humanidade

Don't ask dumb robots if AI will destroy humanity.

No início deste mês, várias fontes proeminentes divulgaram notícias de que a inteligência artificial não representará perigo para a humanidade. A fonte dessas notícias tranquilizadoras? Um grupo de cabeças de robôs humanoides conectadas a simples chatbots.

As histórias surgiram de um painel em uma conferência das Nações Unidas em Genebra, chamada IA para o Bem, onde vários humanoides apareceram ao lado de seus criadores. Repórteres foram convidados a fazer perguntas aos robôs, incluindo Sophia, uma máquina feita pela Hanson Robotics que ganhou notoriedade por aparecer em programas de entrevistas e, até mesmo, ganhar status legal como pessoa na Arábia Saudita, de forma bizarra.

As perguntas incluíam se a IA destruiria a humanidade ou roubaria empregos. Suas respostas foram possibilitadas pela tecnologia de chatbot, algo semelhante ao que alimenta o ChatGPT. Mas, apesar das conhecidas limitações desses bots, as respostas dos robôs foram relatadas como se fossem as opiniões significativas de entidades autônomas e inteligentes.

Por que isso aconteceu? Robôs capazes de imitar visualmente as expressões humanas despertam uma resposta emocional nos espectadores, pois estamos tão prontos para captar essas pistas. No entanto, permitir que o que não passa de uma marionete avançada disfarce as limitações da IA atual pode confundir pessoas que estão tentando entender a tecnologia ou preocupações recentes sobre os problemas que ela pode causar. Fui convidado para a conferência em Genebra e, quando vi que Sophia e outros robôs eram listados como “palestrantes”, perdi o interesse.

É frustrante ver tamanha bobagem em um momento em que especialistas mais confiáveis estão alertando sobre os riscos atuais e futuros representados pela IA. Algoritmos de aprendizado de máquina já estão exacerbando preconceitos sociais, espalhando desinformação e aumentando o poder de algumas das maiores corporações e governos do mundo. Especialistas em IA de destaque estão preocupados que o ritmo do progresso possa produzir algoritmos difíceis de controlar em questão de anos.

A Hanson Robotics, empresa que fabrica Sophia e outros robôs realistas, é impressionantemente habilidosa em construir máquinas que imitam expressões humanas. Há vários anos, visitei a sede da empresa em Hong Kong e me encontrei com o fundador David Hanson, que anteriormente trabalhou na Disney, durante o café da manhã. O laboratório da empresa parecia algo saído de Westworld ou Blade Runner, com robôs desligados olhando tristemente para o horizonte, rostos enrugados jogados em prateleiras e protótipos repetindo as mesmas palavras em um loop infinito.

Fotografia: Will Knight

Hanson e eu conversamos sobre a ideia de adicionar uma inteligência real a essas máquinas evocativas. Ben Goertzel, um conhecido pesquisador em IA e CEO da SingularityNET, lidera um esforço para aplicar avanços em aprendizado de máquina ao software dentro dos robôs da Hanson, permitindo que eles respondam à fala humana.

A IA por trás de Sophia às vezes pode fornecer respostas razoáveis, mas a tecnologia não é nem de longe tão avançada quanto um sistema como o GPT-4, que alimenta a versão mais avançada do ChatGPT e custou mais de US$ 100 milhões para ser criado. E, é claro, mesmo o ChatGPT e outros programas de IA de última geração não podem responder de forma sensata a perguntas sobre o futuro da IA. Talvez seja melhor pensarmos neles como imitadores preternaturalmente conhecedores e talentosos que, embora sejam capazes de raciocínio surpreendentemente sofisticado, são profundamente falhos e têm apenas um “conhecimento” limitado do mundo.

As “entrevistas” enganosas de Sophia e sua equipe em Genebra nos lembram de como a antropomorfização de sistemas de IA pode nos levar ao erro. A história da IA está repleta de exemplos de humanos extrapolando demais a partir de novos avanços na área.

Em 1958, no início da inteligência artificial, o The New York Times escreveu sobre um dos primeiros sistemas de aprendizado de máquina, uma rede neural artificial rudimentar desenvolvida para a Marinha dos EUA por Frank Rosenblatt, um psicólogo de Cornell. “A Marinha revelou o embrião de um computador eletrônico hoje que se espera que seja capaz de andar, falar, ver, escrever, se reproduzir e estar consciente de sua existência”, informou o Times – uma declaração audaciosa sobre um circuito capaz de aprender a identificar padrões em 400 pixels.

Se você olhar para a cobertura do Deep Blue, o computador da IBM que joga xadrez, do AlphaGo, o jogador campeão de Go da DeepMind, e muitos dos avanços em aprendizado profundo da última década – que são diretamente descendentes da máquina de Rosenblatt – verá muito do mesmo: pessoas interpretando cada avanço como se fosse um sinal de alguma inteligência mais profunda e parecida com a humana.

Isso não quer dizer que esses projetos – ou mesmo a criação de Sophia – não foram feitos notáveis ou potencialmente passos em direção a máquinas mais inteligentes. Mas ter uma visão realista sobre as capacidades dos sistemas de IA é importante quando se trata de avaliar o progresso dessa tecnologia poderosa. Para entender os avanços da IA, pelo menos devemos parar de fazer perguntas bobas a marionetes animatrônicas.