Assistentes de Inteligência Artificial (IA) precisam conhecer muito sobre você para funcionarem melhor. Isso está OK?

É necessário que os Assistentes de Inteligência Artificial (IA) tenham um amplo conhecimento sobre você para desempenharem suas funções de forma mais efetiva. Isso é aceitável?

Assistentes digitais existem há anos; afinal, Siri estreou no iPhone 4S em 2011. Mas os primeiros assistentes de voz tinham funcionalidades limitadas, às vezes tendo dificuldades em fornecer respostas úteis mesmo em circunstâncias ideais. A nova onda de agentes digitais que começaram a surgir no final de 2022 e 2023, no entanto, podem facilmente fazer de tudo, desde criar receitas até resumir seus e-mails, e até mesmo escrever legendas em redes sociais para suas fotos.

Assistentes virtuais deram um salto adiante este ano graças ao surgimento da inteligência artificial generativa, ou IA capaz de criar conteúdo com base em estímulos depois de ser treinada com dados. A OpenAI impressionou o mundo com o ChatGPT há cerca de um ano, e gigantes da tecnologia como Microsoft, Google, Amazon e Meta habilmente incorporaram IA generativa em seus chatbots, motores de busca e assistentes digitais ao longo de 2023.

Mas a nova geração de mordomos digitais de alta tecnologia também requer confiança nas Big Techs, um pedido considerável após vazamentos de dados, controvérsias como o escândalo Cambridge Analytica de 2018 e investigações sobre práticas de privacidade que abalaram nossa confiança nas empresas de tecnologia. Os últimos 10 anos têm levantado grandes questões por parte dos reguladores e do público em geral sobre como as empresas utilizam o fluxo de dados que lhes fornecemos. Colher os benefícios da nova IA pode significar se envolver ainda mais pessoalmente com os serviços de tecnologia que usamos todos os dias.

De certa forma, chatbots como ChatGPT da OpenAI, Copilot da Microsoft e Bard do Google são apenas evoluções de como os serviços digitais já operam. Empresas como a Alphabet, matriz do Google, Meta e Amazon já analisam dados sobre nossos hábitos de navegação na internet para fornecer conteúdos, anúncios e recomendações personalizadas. As novas ferramentas de IA podem não exigir mais dados pessoais, mas é a forma como essas ferramentas conectam os pontos entre diferentes tipos de dados pessoais, como nossos e-mails e mensagens, que levantam novas preocupações com a privacidade.

“Podemos ver agora como as peças estão sendo montadas com essas ferramentas”, disse Matthew Butkovic, diretor técnico da divisão de segurança cibernética da CERT da Universidade Carnegie Mellon. “Sabíamos que os dados estavam lá, mas agora estamos vendo como eles estão sendo usados em combinação”.

O surgimento de novos assistentes de IA

Copiloto da Microsoft na área de trabalho do Windows 11.

Microsoft

Ao longo de 2023, ficou claro que os assistentes virtuais estão passando por uma grande transformação. Enquanto motores de busca, chatbots e geradores de imagens foram as primeiras ferramentas online a receberem um impulso de IA, empresas como Microsoft e Google estão agora incorporando tecnologia em assistentes digitais completos.

O Copiloto da Microsoft, que a empresa detalhou em seu evento de 21 de setembro, é mais sofisticado do que a Cortana, a assistente pessoal anterior da gigante dos PCs, que agora foi descontinuada.

O Copiloto não apenas responde perguntas e comandos como “Como estará o clima na Espanha na próxima semana?” ou “Qual é o horário da minha próxima reunião?”, ele busca informações em seus aplicativos, na web e em seus dispositivos para fornecer respostas mais específicas e personalizadas.

No discurso de 21 de setembro, Carmen Zlateff, vice-presidente do Windows, mostrou um exemplo de como o Copiloto em seu PC com Windows será capaz de responder perguntas com base nas informações encontradas nas mensagens de texto do seu telefone, como detalhes sobre um voo próximo. Esse exemplo destaca como o Copiloto vai além de simplesmente buscar respostas com base na web ou em dados armazenados em sua conta da Microsoft.

Assistente com o Bard do Google

Captura de tela/CNET

Não demorou muito para o Google mostrar como a IA generativa desempenhará um papel em seu próprio assistente, o Google Assistant. Durante um evento em 4 de outubro, o Google apresentou o Assistant with Bard, uma nova versão de seu parceiro virtual alimentado pela tecnologia por trás de seu chatbot Bard conversacional. 

Sissie Hsiao, vice-presidente e gerente geral do Google Assistant e Bard, demonstrou isso no evento, mostrando como você poderá recitar um comando como “Atualize-me sobre quaisquer emails importantes que perdi esta semana”. Foi tudo o que bastou para o Google Assistant criar uma lista com marcadores, destilando emails como um convite para a festa de aniversário de uma criança e uma notificação sobre uma feira de carreira universitária, em apenas algumas frases. 

“Embora o Assistant seja ótimo para lidar com tarefas rápidas como configurar alarmes, fornecer atualizações climáticas e fazer chamadas rápidas, há muito mais que sempre imaginamos que um assistente pessoal profundamente capaz seja capaz de fazer”, disse ela durante a apresentação. “Mas a tecnologia para proporcionar isso não existia até agora.”

ChatGPT exibido em um smartphone com logo da OpenAI visto na tela ao fundo.

Jonathan Raa/NurPhoto via Getty Images

A IA generativa está influenciando quase todos os aspectos de como interagimos com a internet – desde a recuperação de resultados de pesquisa até a edição de imagens. Mas as anúncios da Microsoft e do Google representam uma mudança radical em como essas empresas estão pensando nos assistentes de IA. Isso vai além de tornar esses assistentes virtuais melhores ouvintes e conversadores, como a Amazon fez com a Alexa atualizada que foi lançada em setembro. 

A Microsoft e o Google podem ser os maiores defensores do uso de IA generativa para criar assistentes mais inteligentes, mas eles não são os únicos. A OpenAI, que iniciou a moda da IA generativa com o ChatGPT no ano passado, anunciou recentemente que os usuários poderão criar versões personalizadas do ChatGPT para tarefas específicas – como explicar regras de jogos de tabuleiro e fornecer conselhos técnicos. Isso potencialmente abre a oportunidade para qualquer pessoa criar seu próprio assistente digital especializado, que a OpenAI chama de GPTs. Tudo o que você precisa fazer é fornecer instruções, decidir o que quer que seu GPT faça e, é claro, fornecer dados a ele. 

Confiança na IA para usar nossos dados da maneira certa

Um corredor futurista com logos do Bard do Google, ChatGPT e Bing em meio a uma feroz disputa de chatbots de IA.

James Martin/CNET

A IA generativa poderia representar um ponto de virada para os assistentes virtuais, fornecendo-lhes a compreensão contextual e a compreensão da conversa que eles não tinham.

No entanto, fazer isso também significa dar a esses ajudantes digitais uma janela maior para nossas vidas pessoais e profissionais. Requer confiança nesses sistemas de IA para combinar e processar nossos emails, arquivos, aplicativos e mensagens de forma útil, em vez de disruptiva ou perturbadora.

Butkovic, da Carnegie Mellon, fornece um exemplo hipotético de como trabalhar com um assistente de IA generativa poderia dar errado. Digamos que você peça a um ajudante de IA para compilar um relatório sobre um tópico específico relacionado ao trabalho. Um ajudante de IA poderia acidentalmente misturar dados sensíveis do cliente em seu relatório se esses dados não forem classificados corretamente.

“Podemos ver potencialmente uma nova fonte de risco em combinações de informações que não antecipamos”, disse ele. “Porque antes não tínhamos as ferramentas e não colocamos salvaguardas para impedir isso.”

Não se trata apenas de dados sensíveis. Existem momentos em nossas vidas em que podemos não querer ser lembrados ao pedir a um assistente digital para elaborar um relatório ou redigir um email. Como podemos confiar que isso não acontecerá?

Jen King, pesquisadora de privacidade e dados do Instituto de Inteligência Artificial Centrada no Ser Humano de Stanford, cita outro exemplo hipotético. Se você tiver conversas de email longas com membros da família discutindo acordos para um ente querido falecido, provavelmente não gostaria que essas comunicações fossem incluídas em determinadas respostas ou relatórios. 

O aplicativo Google Fotos

Sarah Tew/CNET

Já existe um precedente para isso acontecer em aplicativos de redes sociais e galerias de fotos. Após receber feedback, o Facebook adicionou mais controles em 2019 para facilitar a transição de uma conta para um ente querido falecido. A empresa usa IA para evitar que perfis de amigos ou familiares falecidos apareçam em notificações de aniversário e recomendações de convites para eventos, mas reconheceu na época que havia espaço para melhorias. 

“Estamos trabalhando para melhorar e agilizar isso”, dizia o post.

O Google também adicionou mais controles para gerenciar quais memórias selecionadas aparecem em seu aplicativo Fotos, após ENBLE destacar o quão doloroso é olhar para certas fotos armazenadas em nossos telefones e a falta de ferramentas para gerenciá-las na época.

“Quanto mais dados eu puder alimentar [ele] sobre você, mais vou poder preencher as lacunas”, disse King. “E se você estiver analisando diversas facetas da vida de alguém, essa é uma estratégia realmente arriscada, porque grande parte de nossas vidas não são estáticas”.

Isso se soma aos desafios existentes que aplicativos e chatbots baseados em IA generativa já enfrentam, como a precisão das informações que fornecem e o potencial de hackers enganarem esses sistemas. As empresas de tecnologia estão cientes desses obstáculos e estão tentando resolvê-los.

O Google sugere que você verifique as respostas de Bard e diz que a ferramenta pode fornecer informações incorretas, por exemplo. Ele também observa que Bard só pode acessar dados pessoais do Workspace, conjunto de softwares de produtividade do Google que inclui o Gmail, com a permissão do usuário. Além disso, não utiliza esse conteúdo para exibir anúncios ou melhorar Bard. A postagem do Google sobre o Assistente com Bard também menciona que os usuários poderão personalizar as configurações de privacidade.

O ChatGPT também incentiva os usuários a verificarem as respostas e informa que nem sempre elas serão precisas. Ele também alerta os usuários para não inserirem informações sensíveis na ferramenta.

A página de perguntas frequentes do Microsoft Copilot observa que as respostas não são garantidas e diz que o Copilot segue os mesmos padrões de segurança dos produtos empresariais, como o Microsoft 365. Também afirma que os dados dos clientes não são usados para treinar seus modelos de linguagem grandes.

No entanto, Irina Raicu, diretora do programa de ética na internet no Markkula Center for Applied Ethics da Universidade de Santa Clara, está preocupada com novas vulnerabilidades de privacidade específicas de IA gerada que ainda não foram resolvidas. Um exemplo disso é a injeção de enunciados, uma exploração que permite que os atacantes se aproveitem dos grandes modelos de aprendizado de linguagem, ocultando instruções maliciosas.

Alguns especialistas em privacidade acreditam que o aumento da IA generativa pode resultar em novos tipos de ameaças. 

Angela Lang/CNET

Em um post de blog de agosto, o Centro Nacional de Segurança Cibernética do Reino Unido descreveu um exemplo de como um ataque de injeção de enunciados poderia ser. Um hacker poderia teoricamente esconder código malicioso em uma solicitação de transação enviada a um usuário através de um aplicativo de banco. Se a pessoa perguntasse ao chatbot do banco sobre seus hábitos de gastos no mês, o grande modelo de linguagem poderia acabar analisando esse código do atacante enquanto procurava pelas transações da pessoa para responder à pergunta. Isso, por sua vez, poderia fazer com que dinheiro fosse enviado para a conta do atacante.

Raicu está preocupada que a segurança cibernética não esteja acompanhando essas novas ameaças. Ela cita o aumento dos ataques de ransomware nos últimos anos como um exemplo do que pode acontecer quando as soluções de segurança cibernética não evoluem rápido o suficiente.

“Imagine isso, mas com uma nova camada de desafios que ainda não entendemos”, disse ela.

No entanto, há algumas razões para ter esperança de que o boom da IA não resulte em falhas de privacidade como as que aconteceram com a proliferação de novas plataformas de tecnologia no passado. Já há uma pressão por regulamentação da IA na Casa Branca e na UE, por exemplo. As empresas de tecnologia estão geralmente sob maior escrutínio quando se trata de privacidade, segurança e tamanho e influência do que estavam quando plataformas como Facebook, Instagram e Google Search surgiram.

Mas, no final, ainda teremos que lidar com os riscos potenciais e os comprometimentos que acompanham os benefícios das novas tecnologias.

“Não haverá absolutos nisso”, disse Butkovic. “Viveremos neste espaço cinza onde você precisará tomar decisões pessoais sobre o seu conforto com esses tipos de sistemas vasculhando os artefatos da sua vida digital.”

Nota dos editores: A ENBLE está usando um mecanismo de IA para ajudar a criar algumas histórias. Para mais informações, veja este post.