IA e Você Os Chatbots Estão Conversando Entre Si, IA Ajuda Cirurgiões a Localizar Tumores Cerebrais

Inteligência Artificial ao seu lado Os Chatbots estão dialogando, enquanto a IA auxilia cirurgiões a identificar tumores cerebrais

Depois de um tempo afastado, voltei esta semana para descobrir minha caixa de entrada inundada de notícias sobre ferramentas de IA, problemas, falhas e aventuras. E o que chamou a atenção foi o quanto se está investindo em ter chatbots de IA fingindo ser outra pessoa.

No caso da Meta, o CEO Mark Zuckerberg expandiu o elenco de personagens de IA com os quais mais de 3 bilhões de usuários da gigante da tecnologia podem interagir nas populares plataformas da Meta, como Facebook, Instagram, Messenger e WhatsApp. Esses personagens são baseados em celebridades, atletas e artistas da vida real, incluindo o músico Snoop Dogg, a famosa Kylie Jenner, o ex-jogador de futebol americano Tom Brady, a estrela do tênis Naomi Osaka, outra celebridade, Paris Hilton, e a célebre escritora inglesa Jane Austen.

“Os personagens são uma forma de as pessoas se divertirem, aprenderem coisas, conversarem sobre receitas ou apenas passarem o tempo – tudo dentro do contexto de se conectar com amigos e familiares”, disseram os executivos da empresa ao The New York Times sobre todos esses amigos fictícios com os quais agora você pode conversar.

Zuckerberg disse: “As pessoas não vão querer interagir com apenas uma IA super inteligente – as pessoas vão querer interagir com várias diferentes.”

Mas não vamos fingir que os amigos fictícios são apenas para ajudar você a se conectar com a família e os amigos. Como sabemos, tudo se resume ao dinheiro, e atualmente as empresas de tecnologia estão em uma corrida em que a Meta compete com outras gigantes da IA, como o ChatGPT da OpenAI, o Bing da Microsoft e o Bard do Google. Isso foi destacado também pelo Times: “Para a Meta, a aceitação generalizada de seus novos produtos de IA poderia aumentar significativamente o engajamento em seus muitos aplicativos, a maioria dos quais depende de publicidade para ganhar dinheiro. Mais tempo gasto nos aplicativos da Meta significa mais anúncios exibidos aos usuários.”

Com certeza, a Meta não foi a primeira a ter a ideia de criar personalidades ou personagens para dar uma aparência humana aos chatbots de IA (veja ELIZA, que nasceu nos anos 60). E é uma abordagem que parece estar dando resultados.

A Character.ai, que permite interagir com chatbots baseados em pessoas famosas como Taylor Swift e Albert Einstein e personagens fictícios como o Super Mario da Nintendo, tem 2 anos e é um dos sites de IA mais visitados e, segundo a Bloomberg, está procurando investimento que colocaria o valor da startup entre $5 bilhões e $6 bilhões. Esta semana a Character.ai, que também permite criar seus próprios chatbots guiados por personalidades, introduziu um novo recurso para assinantes, chamado Character Group Chat, que permite que você e seus amigos conversem com vários personagens de IA ao mesmo tempo. (Agora é a sua chance de adicionar Swift e Mario às suas conversas em grupo.)

No entanto, usar pessoas famosas para promover a IA só é divertido se essas pessoas estiverem envolvidas – e com isso quero dizer sendo pagas pelos seus avatares de IA. No início deste mês, o ator Tom Hanks alertou as pessoas sobre um anúncio odontológico que usava sua semelhança sem sua aprovação. “Cuidado!!” Hanks disse aos seus 9,5 milhões de seguidores no Instagram. “Existe um vídeo lá fora promovendo algum plano odontológico com uma versão de IA minha. Eu não tenho nada a ver com isso.”

Em um podcast de abril, Hanks previu os perigos causados pela IA. “Agora, se eu quisesse, poderia me reunir e propor uma série de sete filmes em que eu seria o protagonista e teria 32 anos até o fim dos tempos. Qualquer pessoa agora pode se recriar em qualquer idade que quiser usando IA ou tecnologia deepfake… Posso dizer que há discussões acontecendo em todos os sindicatos, todas as agências e todos os escritórios de advocacia para definir as ramificações legais de meu rosto e minha voz – e de todos os outros – serem nossa propriedade intelectual.”

Claro, ele estava certo sobre todas essas discussões. O Writers Guild of America acabou de encerrar a greve dos roteiristas com Hollywood depois de concordar com os termos do uso de IA no cinema e na TV. Mas os atores, representados pelo SAG-AFTRA, ainda estão lutando, sendo um dos pontos de discórdia o uso de “réplicas digitais“.

Aqui estão outras novidades em IA que valem a sua atenção.

ChatGPT agora pode ouvir e falar – por um preço

A OpenAI está lançando novas capacidades de voz e imagem no ChatGPT que permitem “ter uma conversa vocal ou mostrar ao ChatGPT sobre o que você está falando”. As novas capacidades estão disponíveis para pessoas que pagam para usar o chatbot (ChatGPT Plus custa $20 por mês.)

A empresa diz: “Tire uma foto de um ponto turístico enquanto viaja e tenha uma conversa ao vivo sobre o que há de interessante nele. Quando estiver em casa, tire fotos da geladeira e da despensa para descobrir o que vai ter para o jantar (e faça perguntas de acompanhamento para obter uma receita passo a passo). Depois do jantar, ajude seu filho com um problema de matemática tirando uma foto, circulando o conjunto de problemas e compartilhando dicas com ambos.”

Então, como é falar com o ChatGPT? A revisora do Wall Street Journal, Joanna Stern, descreve como algo semelhante ao filme Ela, no qual Joaquin Phoenix se apaixona por um sistema operacional de IA chamado Samantha, com a voz de Scarlett Johansson.

“A voz natural, o tom de conversa e as respostas eloquentes são quase indistinguíveis de um humano em alguns momentos”, escreve Stern. “Mas você definitivamente ainda está conversando com uma máquina. O tempo de resposta … pode ser extremamente lento, e a conexão pode falhar – reiniciar o aplicativo ajuda. Algumas vezes ele interrompe abruptamente a conversa (pensei que só humanos mal-educados fizessem isso!)”

Uma IA mal-educada? Talvez os chatbots estejam se tornando mais humanos afinal.

Adeus, grupos focais humanos; olá, humanos sintéticos?

Falando em IA mais parecidas com humanos, uma empresa chamada Fantasy está criando “humanos sintéticos” para clientes como Ford, Google, LG e Spotify para ajudá-los a “conhecer os públicos, pensar em conceitos de produtos e até gerar novas ideias”, relatado pela ENBLE.

“A Fantasy usa o tipo de tecnologia de aprendizado de máquina que alimenta chatbots como o ChatGPT da OpenAI e o Bard do Google para criar seus humanos sintéticos”, segundo a ENBLE. “A empresa fornece a cada agente dezenas de características retiradas de pesquisa etnográfica de pessoas reais, alimentando-as em modelos de linguagem grandes comerciais como o GPT da OpenAI e o Claude da Anthropic. Seus agentes também podem ser configurados com conhecimento sobre linhas de produtos existentes ou negócios, para que possam conversar sobre as ofertas de um cliente.”

Os humanos não estão totalmente excluídos do processo. A Fantasy disse à ENBLE que, para a empresa de petróleo e gás BP, eles criaram grupos focais compostos por pessoas reais e humanos sintéticos e pediram para eles discutirem um tópico ou ideia de produto. O resultado? “Enquanto um humano pode ficar cansado de responder perguntas ou não querer responder de muitas maneiras, um humano sintético pode continuar”, disse Roger Rohatgi, chefe global de design da BP, à publicação.

Então, o objetivo final pode ser apenas ter os bots conversando entre si. Mas há um problema: Treinar personagens de IA não é uma tarefa fácil. A ENBLE conversou com Michael Bernstein, professor associado da Universidade Stanford que ajudou a criar uma comunidade de chatbots chamada Smallville, e o parafraseou da seguinte forma:

“Quem espera usar IA para modelar pessoas reais, Bernstein diz, deve questionar como modelos de linguagem realmente refletem o comportamento real. Personagens gerados dessa maneira não são tão complexos ou inteligentes quanto pessoas reais e tendem a ser mais estereotipados e menos variados do que informações coletadas de populações reais. Como fazer com que os modelos reflitam a realidade de forma mais fiel ainda é uma ‘questão de pesquisa em aberto’, diz ele.”

Por que ética e confiança importam

A Deloitte atualizou seu relatório sobre o “Estado da Ética e Confiança em Tecnologia” para 2023, e você pode baixar o relatório de 53 páginas aqui. Vale a pena ler, mesmo que seja apenas para lembrar que a forma como as ferramentas e sistemas de IA são desenvolvidos, implantados e usados depende inteiramente de nós, humanos.

O TL;DR, resumidamente, da Deloitte é: as organizações devem “desenvolver princípios confiáveis e éticos para tecnologias emergentes” e trabalhar colaborativamente com “outras empresas, agências governamentais e líderes do setor para criar regulamentações uniformes e éticas para tecnologias emergentes”.

E se não o fizerem? A Deloitte lista os danos causados por erros éticos, incluindo danos à reputação, danos humanos e penalidades regulamentares. O pesquisador também descobriu que danos financeiros e insatisfação dos funcionários andam de mãos dadas. “Comportamento antiético ou falta de atenção visível à ética pode diminuir a capacidade de uma empresa de atrair e manter talentos. Um estudo constatou que os funcionários de empresas envolvidas em violações éticas perderam em média 50% de ganhos acumulados durante a década seguinte em comparação com trabalhadores de outras empresas”.

O pesquisador também descobriu que 56% dos profissionais não têm certeza se suas empresas têm diretrizes éticas para o uso de IA, de acordo com um resumo das descobertas do site irmão da ENBLE, a ENBLE de acordo com.

Trabalhando nos limites da cirurgia cerebral

Um dos desafios na remoção de tumores cerebrais é para os cirurgiões determinarem quanto da margem ao redor do tumor eles precisam remover para garantir que tenham retirado todas as coisas ruins. É um negócio complicado, para dizer o mínimo, porque eles precisam encontrar um “equilíbrio delicado entre maximizar a extensão da ressecção e minimizar o risco de dano neurológico”, de acordo com um novo estudo.

Esse relatório, publicado na Nature, nesta semana, traz notícias sobre um avanço fascinante na detecção de tumores, graças a uma rede neural de IA. Cientistas na Holanda desenvolveram um sistema de aprendizado profundo chamado Sturgeon, que tem como objetivo ajudar os cirurgiões a encontrar esse equilíbrio delicado, auxiliando na obtenção de um perfil detalhado do tumor durante a cirurgia.

É possível ler o relatório da Nature, mas vou compartilhar o resumo em inglês simples fornecido por Benjamin Mueller, um escritor de ciência do New York Times: “O método envolve um computador analisando segmentos do DNA de um tumor e identificando modificações químicas que podem fornecer um diagnóstico detalhado do tipo e até mesmo do subtipo do tumor cerebral. Esse diagnóstico, gerado durante as primeiras etapas de uma cirurgia que pode durar várias horas, pode ajudar os cirurgiões a decidir o quão agressivamente operar”.

Em testes com amostras de tumores congelados de cirurgias prévias de câncer cerebral, o Sturgeon diagnosticou com precisão 45 de 50 casos dentro de 40 minutos após o início do sequenciamento de DNA, segundo o Times. E então foi testado durante 25 cirurgias cerebrais ao vivo, a maioria das quais em crianças, e apresentou 18 diagnósticos corretos.

O Times observou que alguns tumores cerebrais são difíceis de diagnosticar e que nem todos os cânceres podem ser diagnosticados por meio das modificações químicas que o novo método de IA analisa. Ainda assim, é encorajador ver o que poderia ser possível com as novas tecnologias de IA à medida que a pesquisa continua.

Palavra da semana de IA: IA

Dado todo o debate acima sobre como IAs estão sendo usadas para criar versões fictícias de pessoas reais (além do Super Mario), a palavra que escolheria para esta semana seria “antropomorfismo”, que se refere a atribuir qualidades humanas a coisas não humanas. Mas já falei sobre isso na edição de 19 de agosto de IA e Você.

Portanto, ofereço a definição do Conselho da Europa de “inteligência artificial“:

Conjunto de ciências, teorias e técnicas cujo objetivo é reproduzir, por meio de uma máquina, as capacidades cognitivas de um ser humano. Os desenvolvimentos atuais visam ser capazes de confiar a uma máquina tarefas complexas anteriormente delegadas a um ser humano.

No entanto, o termo inteligência artificial é criticado por especialistas que distinguem entre IA “forte” (capaz de contextualizar problemas especializados muito diferentes de forma completamente independente) e IA “fraca” ou “moderada” (que se saem extremamente bem em sua área de treinamento). De acordo com alguns especialistas, a IA “forte” exigiria avanços na pesquisa básica para ser capaz de modelar o mundo como um todo e não apenas melhorias no desempenho dos sistemas existentes.

Para fins de comparação, aqui está a citação do Departamento de Estado dos EUA citando a Lei Nacional de Inteligência Artificial de 2020:

O termo “inteligência artificial” significa um sistema baseado em máquina que pode, para um determinado conjunto de objetivos definidos pelo ser humano, fazer previsões, recomendações ou decisões que influenciam ambientes reais ou virtuais.

Observação dos editores: A ENBLE está usando um mecanismo de IA para ajudar a criar algumas histórias. Para mais informações, consulte este post.