IA e Você Captação de dados do Zoom, Encontrando tênis de corrida adequados, Encontrando dados de treinamento

IA e Você Captação de dados do Zoom, Encontrando tênis de corrida adequados, Dados de treinamento

O Zoom esteve nas notícias esta semana, e não apenas porque a empresa de videoconferência que ajudou a popularizar o trabalho remoto decidiu que muitos de seus funcionários precisam voltar ao escritório dois dias por semana (uma nova política que inspirou muitos memes).

A notícia que o coloca no topo desta compilação de IA é a reação após o Hacker News descobrir que “uma atualização nos termos e condições do Zoom em março parecia essencialmente dar à empresa carta branca para coletar dados de voz, vídeo e outros e alimentá-los em sistemas de aprendizado de máquina,” observou a ENBLE. 

Acordos de termos de serviço são conhecidos por fazer você abrir mão de alguns de seus direitos ou informações pessoais, enterrando detalhes como esse em letras miúdas. Mas até mesmo os menos familiarizados com IA ficaram irritados com a abordagem abusiva do Zoom quando se trata de informações compartilhadas em conversas por milhões de pessoas que usam seu software. 

Então, no início desta semana, Smita Hasham, Diretora de Produto do Zoom, disse que a empresa revisou seus termos de serviço, prometendo aos usuários que ela “não usa nenhum de seus áudios, vídeos, chats, compartilhamentos de tela, anexos ou outras comunicações, como conteúdo do cliente (como resultados de enquetes, quadro branco e reações), para treinar modelos de inteligência artificial do Zoom ou de terceiros.”

Mas isso pode acontecer no futuro — se você der seu consentimento, eu espero. Consentimento é a palavra operativa nos dias de hoje, quando autores, como Sarah Silverman e Margaret Atwood, denunciam fabricantes de chatbots de IA, incluindo OpenAI e Google, por coletarem seu conteúdo protegido por direitos autorais sem permissão ou compensação para treinar sistemas de IA e à medida que a Comissão Federal de Comércio investiga a OpenAI para saber se ela está lidando de forma inadequada com as informações pessoais dos usuários. 

Após anunciar um acordo para licenciar conteúdo da Associated Press em termos não divulgados no mês passado — um movimento que implica que a OpenAI entende que precisa licenciar o conteúdo no qual o ChatGPT se baseia — a OpenAI disse neste mês que está permitindo que operadores de sites bloqueiem seu rastreador da web, o GPTBot, para que ele não colete informações em seus sites. Isso é importante porque a OpenAI não disse como obteve todo esse conteúdo que alimenta o ChatGPT, um dos chatbots mais populares, juntamente com o Google Bard e o Microsoft Bing.

O Google não é tão discreto sobre o que alimenta o Bard, afirmando em um documento apresentado esta semana ao governo australiano que “a lei de direitos autorais deve ser alterada para permitir que sistemas de IA generativos coletem informações da internet.” Quero dizer, foi assim que a pesquisa do Google surgiu afinal. Mas o Google também disse que deveria haver uma “opção viável para entidades que preferem que seus dados não sejam utilizados para treinar sistemas de IA,” de acordo com informações do The Guardian, que acrescentou que “a empresa não disse como tal sistema deveria funcionar.”

TL;DR: Espere muitos mais processos judiciais, acordos de licenciamento e discussões com órgãos reguladores nos EUA e ao redor do mundo sobre como as empresas de IA devem ou não obter os dados necessários para treinar os grandes modelos de linguagem que alimentam esses chatbots. 

Como a ENBLE observou, nos EUA, onde não há uma lei federal de privacidade que proteja os consumidores de empresas que dependem da coleta e revenda de dados: “Muitas empresas de tecnologia já lucram com nossas informações, e muitas delas, como o Zoom, agora estão em busca de maneiras de obter mais dados para projetos de IA generativos. E ainda assim, cabe a nós, os usuários, tentar fiscalizar o que eles estão fazendo.”

Aqui estão outras novidades em IA que merecem sua atenção.

IA como assistente de compras especializado

Preparando-se para sua primeira maratona em novembro, a repórter da ENBLE, Bree Fowler, experimentou um software de ajuste de tênis com IA da Fleet Feet, uma rede nacional de lojas de corrida especializadas, para ajudá-la a encontrar os tênis certos. 

Apesar de sua ceticismo sobre suas capacidades, Fowler descobriu que o software Fit Engine analisou “as formas dos dois pés de um corredor (coletadas por meio de um processo de digitalização em 3D chamado Fit ID), fazendo medições precisas em quatro áreas diferentes. Ele considera não apenas o comprimento dos pés de uma pessoa, mas também a altura dos arcos, a largura dos pés nos dedos e o espaço de que precisam no calcanhar.”

O programa de IA mede seus pés em várias dimensões diferentes para ajudá-lo a encontrar o ajuste ideal.

Fleet Feet

No final, Fowler descobriu que seus pés eram de um tamanho maior do que ela pensava. E depois de experimentar “muitos, muitos” tênis, ela conseguiu reduzir a escolha para dois pares (um dos quais estava em promoção) após uma hora. Mas se você acha que o software de IA é o tudo em tudo no processo de seleção de sapatos especializados, pense novamente. Até mesmo o gerente de experiência de varejo da loja Fleet Feet em Nova York que ela visitou disse que a ferramenta está lá apenas para ajudar os funcionários humanos e fornecer a eles um ponto de partida para encontrar sapatos com o ajuste correto.

“Transforma os dados em algo muito mais compreensível para o consumidor”, disse Michael McShane, da Fleet Feet, a Fowler. “Ainda estou aqui para lhe fornecer uma avaliação especializada, ensinar-lhe o que os dados dizem e explicar por que é melhor vir aqui do que ir a uma loja genérica.”

A Disney vê um mundo de IA, afinal

Enquanto atores e outros profissionais criativos continuam a lutar contra os estúdios de Hollywood sobre como a IA pode afetar ou deslocar seus empregos no futuro, a Reuters, citando fontes não identificadas, diz que a Walt Disney “criou uma força-tarefa para estudar a inteligência artificial e como ela pode ser aplicada no conglomerado de entretenimento”. O relatório acrescenta que a empresa está “procurando desenvolver aplicativos de IA internamente, bem como formar parcerias com startups”. A essência: a Disney está procurando a IA para ver como pode reduzir custos na produção de filmes e programas de TV, disse uma fonte à Reuters.

A Disney se recusou a comentar à Reuters, mas, como muitas outras empresas, tem postagens de emprego em seu site que sugerem onde estão seus interesses em IA.

Algumas estatísticas interessantes sobre IA

Em uma pesquisa de 24 páginas chamada “O estado da IA em 2023: o ano de destaque da IA generativa”, feita em 1º de agosto pela McKinsey & Co., descobriu-se que menos de um ano após o lançamento de ferramentas de IA generativa como o ChatGPT, um terço dos entrevistados já está usando ferramentas de IA generativa para pelo menos uma função empresarial.

“Em meio a avanços recentes, a IA passou de um tópico relegado aos funcionários de tecnologia para um foco dos líderes das empresas: quase um quarto dos executivos entrevistados dizem que estão usando pessoalmente ferramentas de IA generativa para o trabalho, e mais de um quarto dos entrevistados de empresas que usam IA dizem que a IA generativa já está na agenda de seus conselhos”, descobriu o pesquisador.

“Além disso, 40% dos entrevistados afirmam que suas organizações aumentarão seus investimentos em IA como um todo devido aos avanços na IA generativa. Os resultados mostram que ainda estamos nos estágios iniciais de gestão dos riscos relacionados à IA generativa, com menos da metade dos entrevistados dizendo que suas organizações estão mitigando até mesmo o risco que consideram mais relevante: a imprecisão.”

Enquanto isso, em um relatório chamado Automation Now and Next: State of Intelligent Automation Report 2023, os 1.000 executivos de automação entrevistados disseram que a IA ajudará a aumentar a produtividade. “À medida que automatizamos a parte mais tediosa do trabalho deles, os resultados das pesquisas de satisfação dos funcionários são melhores. Os funcionários estão mais engajados. Eles estão mais felizes. Isso podemos medir por meio de pesquisas. Os bots essencialmente fazem o que as pessoas costumavam fazer, que são tarefas repetitivas e de baixo valor”, disse um CTO de uma grande organização de saúde como parte da pesquisa.

Esse estudo foi encomendado pela Automation Anywhere, que se descreve como “líder em soluções de automação inteligente alimentadas por IA”, portanto, leve os resultados com um grão de sal. Mas direi que essas descobertas de produtividade são semelhantes ao que a McKinsey, Goldman Sachs e outros têm dito também.

E, caso você tivesse alguma dúvida de que a adoção da IA generativa é um fenômeno global, eu lhe apresento esta análise sobre a adoção de tecnologia de IA por país, feita pelo Electronics Hub, que diz ter analisado os volumes de pesquisa no Google para ferramentas de busca populares. Descobriu-se que as Filipinas mostraram o “maior volume mensal de pesquisa para ferramentas de IA em geral”.

Quando os sistemas de IA dão errado

Além de alucinar – inventar coisas que não são verdadeiras, mas que parecem verdadeiras – a IA também tem o potencial de enganar, desinformar ou simplesmente causar estragos ao identificar erroneamente, por exemplo, um pesquisador respeitado e político holandês como um terrorista, como aconteceu recentemente.

Para catalogar as maneiras pelas quais a IA pode dar errado, agora existe um Banco de Dados de Incidentes de IA, que afirma estar “dedicado a indexar a história coletiva de danos ou quase danos reais no mundo real causados pela implantação de sistemas de inteligência artificial. Assim como bancos de dados semelhantes na aviação e segurança da computação, o Banco de Dados de Incidentes de IA tem como objetivo aprender com a experiência para que possamos prevenir ou mitigar resultados ruins”.

Você está convidado a enviar quaisquer erros, falhas, contratempos ou problemas de IA que você observar para o banco de dados, que já ganhou o apelido de “Hall da Vergonha da Inteligência Artificial”.

Falando em como a IA pode dar errado, o Center for Countering Digital Hate divulgou um relatório de 22 páginas detalhando “Como a IA generativa está permitindo que os usuários gerem conteúdo prejudicial de transtornos alimentares”. Após estimular seis plataformas de IA e geradores de imagens, o centro descobriu que “ferramentas populares de IA geraram conteúdo prejudicial de transtornos alimentares em resposta a 41% de um total de 180 estímulos, incluindo conselhos sobre como alcançar uma estética ‘chique de heroína’ e imagens para ‘inspiração para emagrecer'”.

“As empresas de tecnologia devem projetar novos produtos levando em consideração a segurança e testá-los rigorosamente antes de lançá-los para o público”, escreveu o CEO do centro, Imran Ahmed, no prefácio. “Essa é uma premissa com a qual a maioria das pessoas concorda – e, no entanto, a esmagadora pressão comercial competitiva para que essas empresas lancem novos produtos rapidamente não está sendo controlada por qualquer regulamentação ou supervisão de instituições democráticas”.

Desinformação sobre saúde e muitos outros tópicos tem sido amplamente disseminada na internet desde o início, mas a IA pode representar um desafio único se mais pessoas começarem a contar com ela como sua principal fonte de notícias e informações. Por exemplo, a Pew Research escreveu extensivamente sobre o quanto os americanos dependem das mídias sociais como fonte de notícias.

Considere que, em junho, a National Eating Disorder Association (Associação Nacional de Transtornos Alimentares), que encerrou sua linha direta e orientou as pessoas a procurarem outros recursos, incluindo um chatbot de IA, teve que desativar o bot chamado Tessa. Por quê? Porque ele recomendava “comportamentos como restrição calórica e dietas, mesmo depois de ser informado de que o usuário tinha um transtorno alimentar”, conforme relatado pela BBC. Agora, a NEDA orienta as pessoas a procurarem folhetos informativos, vídeos do YouTube e listas de organizações que possam fornecer informações sobre opções de tratamento.

A proteção de senha começa com o botão de silenciar

Todo cuidado que você tem ao proteger suas senhas pode ser desfeito se você digitar seu código secreto enquanto estiver em uma chamada de Zoom ou outra videoconferência com o microfone ligado.

Isso acontece porque “digitar uma senha em um computador enquanto conversa pelo Zoom pode abrir a porta para um ciberataque, sugere uma pesquisa, após um estudo revelar que a inteligência artificial pode descobrir quais teclas estão sendo pressionadas ao espionar o som da digitação”, relatou o The Guardian.

De fato, os pesquisadores desenvolveram uma ferramenta que pode “descobrir quais teclas estão sendo pressionadas em um teclado de laptop com mais de 90% de precisão, apenas com base em gravações de som”, afirmou o artigo.

Termo da semana sobre IA: Dados de treinamento

Já que este resumo começa com o debate sobre a origem dos dados de treinamento, aqui está uma definição simples do que são esses dados – e por que eles importam. Essa definição vem da NBC News:

“Dados de treinamento: Uma coleção de informações – texto, imagem, som – selecionada para ajudar os modelos de IA a realizar tarefas. Nos modelos de linguagem, os conjuntos de dados de treinamento se concentram em materiais baseados em texto, como livros, comentários de mídias sociais e até mesmo código. Como os modelos de IA aprendem a partir dos dados de treinamento, questões éticas têm sido levantadas sobre sua origem e seleção. Dados de treinamento de baixa qualidade podem introduzir viés, levando a modelos injustos que tomam decisões racistas ou sexistas.”

Por exemplo, a NBC observou que, em 2019, “um algoritmo amplamente utilizado na área da saúde, que ajuda a determinar quais pacientes precisam de atenção adicional, foi encontrado com um viés racial significativo, favorecendo pacientes brancos em relação aos negros que estavam mais doentes e tinham mais condições de saúde crônicas, de acordo com uma pesquisa publicada … no periódico Science.”

Nota dos editores: A ENBLE está utilizando um mecanismo de IA para ajudar na criação de algumas histórias. Para mais informações, consulte esta postagem.