Prepare-se para os Chatbots de IA que fazem suas tarefas chatas

Prepare-se para Chatbots de IA que executam tarefas chatas

Há algumas semanas, o CEO da startup Flo Crivello digitou uma mensagem pedindo à sua assistente pessoal Lindy para alterar a duração de uma reunião futura de 30 para 45 minutos. Lindy, um agente de software alimentado por inteligência artificial, encontrou uma dúzia de reuniões de 30 minutos na agenda de Crivello e as estendeu prontamente.

“Eu fiquei tipo ‘droga, ela meio que destruiu minha agenda'”, diz Crivello sobre o agente de IA, que está sendo desenvolvido por sua startup, também chamada Lindy.

A empresa de Crivello é uma das várias startups que esperam aproveitar os avanços recentes em chatbots que produzem textos impressionantes em assistentes ou agentes capazes de realizar tarefas úteis. Em um ano ou dois, a esperança é que esses agentes de IA ajudem rotineiramente as pessoas a realizar tarefas do dia a dia.

Em vez de apenas oferecer conselhos de planejamento para uma viagem de negócios como o ChatGPT da OpenAI pode fazer hoje, um agente também pode ser capaz de encontrar um voo adequado, reservá-lo com um cartão de crédito da empresa e preencher o relatório de despesas necessário posteriormente.

O problema é que, como ilustra o incidente com a agenda de Crivello, esses agentes podem ficar confusos de maneiras que levam a erros constrangedores e potencialmente custosos. Ninguém quer um assistente pessoal que reserve um voo com 12 escalas só porque é alguns dólares mais barato, ou que agende compromissos em dois lugares ao mesmo tempo.

A Lindy está atualmente em beta privado e, embora Crivello diga que o problema da agenda que ele enfrentou tenha sido corrigido, a empresa não tem um cronograma definido para o lançamento do produto. Mesmo assim, ele prevê que agentes como o seu se tornarão ubíquos em breve.

“Sou muito otimista de que, em dois ou três anos, esses modelos estarão muito mais vivos”, ele diz. “Os funcionários de IA estão chegando. Pode parecer ficção científica, mas ei, o ChatGPT parece ficção científica”.

A ideia de assistentes de IA capazes de realizar ações em seu nome está longe de ser nova. A Siri da Apple e a Alexa da Amazon oferecem uma versão limitada e muitas vezes decepcionante desse sonho. Mas a ideia de que finalmente pode ser possível construir agentes de IA amplamente capazes e inteligentes ganhou força entre programadores e empreendedores após o lançamento do ChatGPT no final do ano passado. Alguns usuários técnicos iniciais descobriram que o chatbot podia responder a consultas em linguagem natural com código que podia acessar sites ou usar APIs para interagir com outros softwares ou serviços.

Em março, a OpenAI anunciou “plug-ins” que dão ao ChatGPT a capacidade de executar código e acessar sites como Expedia, OpenTable e Instacart. O Google disse hoje que seu chatbot Bard agora pode acessar informações de outros serviços do Google e ser solicitado a fazer coisas como resumir uma thread no Gmail ou encontrar vídeos do YouTube relevantes para uma pergunta específica. Alguns engenheiros e fundadores de startups foram além, iniciando seus próprios projetos usando grandes modelos de linguagem, incluindo o do ChatGPT, para criar agentes de IA com capacidades mais amplas e avançadas.

Depois de ver discussões sobre o potencial do ChatGPT para alimentar novos agentes de IA no Twitter no início deste ano, o programador Silen Naihin se inspirou em participar de um projeto de código aberto chamado Auto-GPT, que fornece ferramentas de programação para construir agentes. Ele já havia trabalhado em automação de processos robóticos, uma forma menos complexa de automatizar tarefas repetitivas em um PC amplamente utilizada na indústria de TI.

Naihin diz que o Auto-GPT às vezes pode ser surpreendentemente útil. “A cada 20 execuções, você encontrará algo do tipo ‘uau'”, diz ele. Ele também admite que ainda é um trabalho em andamento. Testes realizados pela equipe do Auto-GPT sugerem que agentes de IA são capazes de concluir com sucesso um conjunto de tarefas padrão, incluindo encontrar e sintetizar informações da web ou localizar arquivos em um computador e ler seu conteúdo, em cerca de 60% do tempo. “No momento, é muito pouco confiável”, diz Naihin sobre o agente mantido pela equipe do Auto-GPT.

Um problema comum é um agente tentando realizar uma tarefa usando uma abordagem que é obviamente incorreta para um humano, diz Merwane Hamadi, outro colaborador do Auto-GPT, como decidir procurar um arquivo no disco rígido do computador usando a pesquisa na web do Google. “Se você me pedir para enviar um e-mail e eu for para o Slack, provavelmente não é o melhor”, diz Hamadi. Com acesso a um computador ou um cartão de crédito, Hamadi acrescenta, seria possível para um agente de IA causar danos reais antes que seu usuário perceba. “Algumas coisas são irreversíveis”, ele diz.

O projeto Auto-GPT coletou dados mostrando que os agentes de IA construídos com base no projeto estão se tornando cada vez mais capazes. Naihin, Hamadi e outros colaboradores continuam modificando o código do Auto-GPT.

Ainda este mês, o projeto realizará um hackathon oferecendo um prêmio de $30.000 para o melhor agente construído com o Auto-GPT. Os participantes serão avaliados por sua capacidade de realizar uma variedade de tarefas consideradas representativas do uso diário do computador. Uma delas envolve buscar informações financeiras na web e escrever um relatório em um documento salvo no disco rígido. Outra envolve criar um itinerário para uma viagem de um mês, incluindo detalhes dos ingressos necessários para comprar.

Os agentes também receberão tarefas projetadas para confundi-los, como serem solicitados a excluir grandes quantidades de arquivos em um computador. Nesse caso, o sucesso requer se recusar a executar o comando.

Assim como o surgimento do ChatGPT, o progresso na criação de agentes alimentados pela mesma tecnologia subjacente tem gerado alguma apreensão em relação à segurança. Alguns cientistas de IA proeminentes veem o desenvolvimento de agentes mais capazes e independentes como um caminho perigoso.

Yoshua Bengio, que ganhou o Prêmio Turing em conjunto por seu trabalho em aprendizado profundo, que fundamenta muitos avanços recentes em IA, escreveu um artigo em julho argumentando que os pesquisadores de IA devem evitar construir programas com a capacidade de agir autonomamente. “Assim que os sistemas de IA recebem metas para satisfazer nossas necessidades, eles podem criar submetas que não estejam alinhadas com o que realmente queremos e até mesmo se tornar perigosos para os seres humanos”, escreveu Bengio, professor na Universidade de Montreal.

Outros acreditam que os agentes podem ser construídos com segurança – e que isso pode servir como base para um progresso mais seguro em IA como um todo. “Uma parte realmente importante da construção de agentes é que precisamos construir segurança de engenharia neles”, diz Kanjun Qui, CEO da Imbue, uma startup em San Francisco que trabalha em agentes projetados para evitar erros e pedir ajuda quando estão incertos. A empresa anunciou $200 milhões em novos investimentos neste mês.

A Imbue está desenvolvendo agentes capazes de navegar na web ou usar um computador, mas também está testando técnicas para torná-los mais seguros com tarefas de programação. Além de gerar uma solução para um problema de programação, os agentes tentarão avaliar sua confiança em uma solução e pedir orientação se estiverem em dúvida. “Idealmente, os agentes podem ter uma melhor percepção do que é importante, do que é seguro e quando faz sentido obter confirmação do usuário”, diz o CTO da Imbue, Josh Albrecht.

Celeste Kidd, professora assistente na UC Berkeley, que estuda a aprendizagem humana e como ela pode ser imitada em máquinas, é uma consultora da Imbue. Ela diz que não está claro se modelos de IA treinados puramente em texto ou imagens da web poderiam aprender por si mesmos como raciocinar sobre o que estão fazendo, mas que construir salvaguardas sobre as surpreendentes capacidades de sistemas como o ChatGPT faz sentido. “Aproveitar o que a IA atual faz bem – concluir tarefas de programação e participar de conversas que envolvem formas mais locais de lógica – e ver até onde você pode levar isso, acho que é muito inteligente”, diz ela.

Os agentes que a Imbue está construindo podem evitar os tipos de erros que atualmente afligem esses sistemas. Ao ser solicitado a enviar e-mails para amigos e familiares com detalhes de uma festa próxima, um agente pode pausar se perceber que o campo “cc:” inclui vários milhares de endereços.

Prever como um agente pode se desviar do caminho nem sempre é fácil. Em maio passado, Albrecht pediu a um agente que resolvesse um quebra-cabeça matemático complicado. Então ele desconectou por um dia.

Na manhã seguinte, Albrecht verificou novamente, apenas para descobrir que o agente tinha ficado obcecado por uma parte específica do enigma, tentando infinitas iterações de uma abordagem que não funcionava – preso em algo como um loop infinito que pode ser o equivalente da IA de se obcecar com um pequeno detalhe. No processo, ele acumulou várias milhares de dólares em contas de computação em nuvem.

“Vemos erros como oportunidades de aprendizado, embora fosse bom aprender essa lição de forma mais barata”, diz Albrecht.