Ferramentas de IA de terceiros são responsáveis por 55% das falhas de IA nos negócios

55% das falhas de IA nos negócios são causadas por ferramentas de IA de terceiros.

Imagine abrir um aplicativo de previsão do tempo alimentado por IA e ver céu claro para um piquenique da empresa naquela tarde, apenas para acabar embaixo de uma chuva torrencial segurando um cachorro-quente encharcado. Ou ter a sua empresa implementar uma ferramenta de IA para suporte ao cliente, mas que se integra mal ao seu CRM e perde dados valiosos dos clientes.

De acordo com uma nova pesquisa, ferramentas de IA de terceiros são responsáveis por mais de 55% das falhas relacionadas à IA em organizações. Essas falhas podem resultar em danos à reputação, perdas financeiras, perda de confiança dos consumidores e até mesmo ações judiciais. A pesquisa foi conduzida pela MIT Sloan Management Review e Boston Consulting Group e focou em como as organizações estão abordando a IA responsável, destacando as consequências do mundo real de não fazê-lo. 

Também: Como escrever melhores prompts para o ChatGPT para obter os melhores resultados de IA generativa

“As empresas ainda não adaptaram completamente seus programas de gerenciamento de riscos de terceiros para o contexto de IA ou os desafios de implantar com segurança sistemas complexos como produtos de IA generativa”, disse Philip Dawson, chefe de política de IA da Armilla AI, aos pesquisadores do MIT. “Muitas não submetem fornecedores de IA ou seus produtos ao tipo de avaliação realizada para cibersegurança, deixando-as cegas para os riscos de implantar soluções de IA de terceiros.”

O lançamento do ChatGPT há quase um ano desencadeou um boom de IA generativa na tecnologia. Não demorou muito para que outras empresas seguissem a OpenAI e lançassem seus próprios chatbots de IA, incluindo o Microsoft Bing e o Google Bard. A popularidade e capacidades desses bots também deram origem a desafios éticos e perguntas.

À medida que a popularidade do ChatGPT aumentava tanto como um aplicativo independente quanto como uma API, empresas de terceiros começaram a aproveitar seu poder e desenvolver chatbots de IA semelhantes para produzir soluções de IA generativa para suporte ao cliente, criação de conteúdo, suporte de TI e verificação gramatical. 

Dos 1.240 entrevistados na pesquisa em 87 países, 78% relataram que suas empresas usam ferramentas de IA de terceiros, acessando, comprando ou licenciando-as. Dessas organizações, 53% usam exclusivamente ferramentas de terceiros, sem nenhuma tecnologia de IA interna. Embora mais de três quartos das empresas pesquisadas usem ferramentas de IA de terceiros, 55% das falhas relacionadas à IA decorrem do uso dessas ferramentas. 

Também: Agora você pode conversar por voz com o ChatGPT. Veja como

Apesar de 78% dos entrevistados dependerem de ferramentas de IA de terceiros, 20% falharam em avaliar os riscos significativos que elas representam. O estudo concluiu que a IA responsável (RAI) é mais difícil de ser alcançada quando as equipes contratam fornecedores sem supervisão, e uma avaliação mais completa das ferramentas de terceiros é necessária.

“Com clientes em setores regulamentados como serviços financeiros, vemos fortes ligações entre as práticas de gerenciamento de risco de modelo baseadas em alguma forma de regulamentação externa e o que sugerimos que as pessoas façam do ponto de vista da RAI”, segundo Triveni Gandhi, líder de IA responsável da empresa de IA Dataiku.

Também: Por que o crescimento da TI está levando a mais esgotamento e o que deve ser feito sobre isso

A IA de terceiros pode ser uma parte integrante das estratégias de IA organizacionais, então o problema não pode ser resolvido apenas removendo a tecnologia. Em vez disso, os pesquisadores recomendam estratégias abrangentes de avaliação de riscos, como auditorias de fornecedores, revisões internas e conformidade com padrões da indústria. 

Com a rapidez com que o ambiente regulatório da RAI está evoluindo, os pesquisadores acreditam que as organizações devem priorizar a IA responsável, desde os departamentos regulatórios até o CEO. Organizações com um CEO envolvido em RAI relataram 58% mais benefícios comerciais do que aquelas com um CEO que não está diretamente envolvido em RAI. 

Também: Por que o código aberto é o berço da inteligência artificial

A pesquisa também descobriu que organizações com um CEO envolvido em RAI têm quase o dobro de probabilidade de investir em RAI do que aquelas com um CEO não envolvido.