Todos querem uma IA responsável, mas poucas pessoas estão fazendo algo a respeito

Querem IA responsável, mas poucos agem

Enquanto quase nove em cada dez líderes empresariais concordam que é importante ter diretrizes claras sobre ética em inteligência artificial (IA) e responsabilidade corporativa, apenas alguns admitem ter tais diretrizes, mostra uma pesquisa recente.

Tais descobertas sugerem que há confusão sobre quais abordagens devem ser tomadas para governar a adoção de IA, e os profissionais de tecnologia precisam se destacar e assumir a liderança para o desenvolvimento seguro e ético de suas iniciativas baseadas em dados.

Também: Cinco maneiras de usar IA de forma responsável

Os resultados são de uma pesquisa baseada nas opiniões de 500 líderes empresariais divulgada pela empresa de tecnologia Conversica, que afirma: “Uma mensagem contundente emerge da pesquisa: a maioria dos entrevistados reconhece a importância primordial de diretrizes bem definidas para o uso responsável de IA dentro das empresas, especialmente aquelas que já adotaram a tecnologia”.

Quase três quartos (73%) dos entrevistados disseram que as diretrizes de IA são indispensáveis. No entanto, apenas 6% estabeleceram diretrizes éticas claras para o uso de IA, e 36% indicam que podem implementar diretrizes nos próximos 12 meses.

Mesmo entre as empresas que já têm IA em produção, um em cada cinco líderes de empresas que atualmente usam IA admitiu ter conhecimento limitado ou nenhum conhecimento sobre as políticas relacionadas à IA de sua organização. Mais de um terço (36%) afirmaram estar apenas “um pouco familiarizados” com as preocupações relacionadas às políticas.

As diretrizes e políticas para abordar a IA responsável devem incorporar governança, dados de treinamento imparciais, detecção de viés, mitigação de viés, transparência, precisão e inclusão de supervisão humana, afirmam os autores do relatório.

Também: Os melhores chatbots de IA: ChatGPT e outras alternativas notáveis

Cerca de dois terços (65%) dos executivos entrevistados disseram que já possuem ou planejam ter serviços com IA nos próximos 12 meses. Os principais casos de uso para IA incluem impulsionar as funções de engajamento, como atendimento ao cliente e marketing (citado por 39%), e produzir insights analíticos (35%).

A pesquisa descobriu que as principais preocupações com as saídas de IA são a precisão dos modelos de dados atuais, informações falsas e falta de transparência. Mais de três quartos (77%) dos executivos expressaram preocupação com a geração de informações falsas pela IA.

Os provedores de IA não estão fornecendo informações suficientes para ajudar na formulação de diretrizes, disseram os líderes empresariais, especialmente quando se trata de segurança e transparência de dados, e criação de políticas éticas fortes.

Também: O boom atual da IA amplificará os problemas sociais se não agirmos agora

Aproximadamente dois terços (36%) dos entrevistados disseram que suas empresas têm regras sobre o uso de ferramentas de IA generativas, como o Chat GPT. Mas 20% disseram que suas empresas estão dando liberdade total aos funcionários individuais quanto ao uso de ferramentas de IA no futuro previsível.

A pesquisa da Conversica mostra que há uma lacuna de liderança quando se trata de tornar a IA responsável uma realidade. Então, como os líderes de tecnologia e profissionais de linha de negócios podem se destacar para garantir que as práticas responsáveis de IA estejam em vigor? Aqui estão algumas das diretrizes-chave compartilhadas pela equipe de IA do Google:

  • Use uma abordagem de design centrada no ser humano: “A forma como os usuários reais experimentam seu sistema é essencial para avaliar o verdadeiro impacto de suas previsões, recomendações e decisões. Projete recursos com divulgações adequadas incorporadas: clareza e controle são cruciais para uma boa experiência do usuário. Considere possíveis feedbacks adversos no início do processo de design, seguidos por testes e iterações ao vivo específicos para uma pequena fração do tráfego antes da implantação completa.”
  • Engaje-se com um conjunto diversificado de usuários e cenários de uso: “Incorpore feedback antes e durante o desenvolvimento do projeto. Isso irá incorporar uma variedade rica de perspectivas de usuários no projeto e aumentar o número de pessoas que se beneficiam da tecnologia.”
  • Projete seu modelo usando metas concretas de justiça e inclusão: “Considere como a tecnologia e seu desenvolvimento ao longo do tempo impactarão diferentes casos de uso: Quais pontos de vista são representados? Que tipos de dados são representados? O que está sendo deixado de fora?”
  • Verifique o sistema em relação a vieses injustos: “Por exemplo, organize um grupo de testadores confiáveis e diversos que possam testar adversarialmente o sistema e incorporar uma variedade de inputs adversários nos testes unitários. Isso pode ajudar a identificar quem pode experimentar impactos adversos inesperados. Mesmo uma baixa taxa de erro pode permitir um erro muito grave ocasional.”
  • Teste o sistema em casos difíceis: “Isso permitirá que você avalie rapidamente o desempenho do sistema em exemplos que podem ser particularmente prejudiciais ou problemáticos cada vez que você atualizar seu sistema. Assim como todos os conjuntos de testes, você deve atualizar continuamente este conjunto à medida que seu sistema evolui, recursos são adicionados ou removidos e você tem mais feedback dos usuários.”
  • Teste, teste, teste: “Aprenda com as melhores práticas de teste de engenharia de software e engenharia de qualidade para garantir que o sistema de IA esteja funcionando como pretendido e possa ser confiável. Realize testes de unidade rigorosos para testar cada componente do sistema isoladamente. Realize testes de integração para entender como os componentes individuais de IA interagem com outras partes do sistema geral.”
  • Use um conjunto de dados de referência para testar o sistema e garantir que ele continue se comportando conforme o esperado: “Atualize este conjunto de testes regularmente de acordo com os usuários e casos de uso em mudança, e para reduzir a probabilidade de treinar no conjunto de testes. Realize testes de usuários iterativos para incorporar um conjunto diversificado de necessidades dos usuários nos ciclos de desenvolvimento.”
  • Aplique o princípio de engenharia de qualidade do poka-yoke: “Incorpore verificações de qualidade em um sistema, para que falhas não intencionais não possam acontecer ou desencadeiem uma resposta imediata – por exemplo, se uma funcionalidade importante estiver inesperadamente ausente, o sistema de IA não fornecerá uma previsão.”

A empresa pode querer implementar a IA rapidamente, mas é necessário ter cautela para garantir que as ferramentas e seus modelos sejam precisos e justos. Enquanto as empresas estão buscando avançar com a IA, a tecnologia deve fornecer resultados responsáveis a cada vez.