56% dos profissionais não têm certeza se suas empresas possuem diretrizes éticas para o uso de IA

56% dos profissionais têm dúvidas sobre a existência de diretrizes éticas para o uso de IA em suas empresas.

Escala em um bloco

Embora a IA exista desde a década de 1950, ela tem visto um crescimento tremendo no último ano. As gigantes da tecnologia estão implementando a IA em seus produtos e serviços, enquanto os indivíduos a usam para tornar suas vidas um pouco mais fáceis.

Segundo a Deloitte, 74% das empresas pesquisadas em seu Relatório de Ética de Confiança em Tecnologia da segunda edição já começaram a testar a IA gerativa, enquanto 65% começaram a usá-la internamente. A crescente conscientização das novas capacidades da IA levou à questão urgente de como as organizações podem usar essa tecnologia de forma ética.

Também: Ética da IA gerativa: Como podemos aproveitar essa poderosa tecnologia

A Deloitte entrevistou 26 especialistas em diversas indústrias para obter informações sobre como líderes do setor estão considerando preocupações sobre o uso ético de tecnologias emergentes, incluindo a IA gerativa.

Em seguida, a empresa testou hipóteses e realizou uma pesquisa de 64 perguntas com mais de 1.700 empresas e profissionais técnicos para obter mais insights.

O relatório, elaborado por Beena Ammanath, diretora administrativa da Deloitte Consulting LLP e líder da prática de Ética em Tecnologia da Deloitte, se refere às tecnologias emergentes da seguinte forma: tecnologias cognitivas (incluindo IA geral e gerativa e chatbots), realidade digital, experiências ambientais, veículos autônomos, computação quântica, tecnologia de registro distribuído e robótica.

De acordo com a pesquisa, 39% dos entrevistados, formados por líderes empresariais e desenvolvedores de tecnologias emergentes, acreditam que as tecnologias cognitivas têm o maior potencial para o bem social, em comparação com 12% na realidade digital e 12% nas experiências ambientais.

Também: A IA está transformando organizações em todos os lugares. Como essas 6 empresas estão liderando o caminho

No entanto, 57% dos entrevistados também acreditam que as tecnologias cognitivas têm o maior potencial para riscos éticos graves.

Estatística mais preocupante: mais da metade dos entrevistados (56%) afirmou que sua “empresa não tem ou não tem certeza se possui princípios éticos que orientam o uso da IA gerativa”.

Gráfico sobre tecnologia emergente da Deloitte

Comparado ao relatório da Deloitte em 2022 sobre ética e confiança em tecnologias emergentes, o relatório deste ano revela que “organizações se veem lutando com novas questões éticas apresentadas pela adoção em larga escala dessa tecnologia novamente nova”.

Essas questões estão relacionadas às preocupações sobre como as empresas e organizações estão usando essas tecnologias.

Apesar dos muitos benefícios da IA, 22% dos entrevistados estavam preocupados com a privacidade de dados, enquanto 14% citaram a transparência sobre como a IA é treinada com dados para produzir seus resultados.

Também: 3 maneiras de garantir o melhor parceiro de IA para seus negócios

O envenenamento de dados, bem como a propriedade intelectual e os direitos autorais, foram preocupações que representaram 12% dos entrevistados da pesquisa. O envenenamento de dados consiste na “poluição” dos conjuntos de dados de treinamento por agentes mal-intencionados e pode levar a resultados imprecisos produzidos pela IA.

Gráfico de preocupações com IA

O relatório da Deloitte também detalhou os tipos de danos que os entrevistados acreditam que podem surgir quando violações éticas não são levadas a sério.

O dano à reputação foi a maior fonte de preocupação para 38% dos entrevistados, seguido por danos humanos, como diagnósticos errados ou violações de privacidade de dados (27%), penalidades regulatórias, como infração de direitos autorais (17%), danos financeiros (9%) e insatisfação dos funcionários (9%).

Esses danos são evidentes nos vários processos judiciais que já foram movidos devido a violações de privacidade, infração de direitos autorais e outros problemas relacionados ao uso antiético da IA.

Também: Como a inteligência artificial generativa confiável pode melhorar a experiência do cliente conectado

Então, como as empresas podem garantir que estão utilizando a IA com segurança? A Deloitte lista uma abordagem de várias etapas para ajudar as empresas:

  • Exploração: As empresas podem começar permitindo que os proprietários de produtos, líderes empresariais e praticantes de IA/ML explorem a IA generativa por meio de workshops para ver como ela pode criar valor para seus negócios. Dessa forma, as empresas podem reconhecer os custos e benefícios de incorporar a IA em seus negócios.
  • Base: As empresas podem comprar ou construir plataformas de IA para implementar a IA generativa em seus negócios. Dos entrevistados da pesquisa, 30% das empresas dos entrevistados escolheram usar capacidades existentes com principais plataformas de IA. 8% dos entrevistados criaram suas próprias plataformas internas de IA, enquanto 5% decidiram não usar IA generativa.
  • Governança: Criar padrões e protocolos para o uso da IA pode minimizar os impactos potencialmente prejudiciais da IA, portanto as empresas devem determinar que tipos de princípios éticos planejam seguir.
  • Capacitação e educação: As empresas podem exigir treinamentos que explicam os princípios éticos do uso da IA. Além disso, treinamentos técnicos que educam os funcionários sobre o uso de várias LLMs podem fornecer às empresas mais orientações sobre o uso ético da IA.
  • Testes iniciais: Engenheiros e líderes de produto podem realizar experimentos em diversos casos de uso para testar provas de conceito e programas piloto e depois eliminar aspectos que são muito arriscados.
  • Implementação: As empresas devem elaborar um plano para introduzir um produto recém-aperfeiçoado no mercado e atribuir responsabilidades para a implementação e propriedade do produto. A empresa também deve ter uma equipe de especialistas preparada para lidar com quaisquer problemas que possam surgir. A transparência também é crucial para esta etapa, pois as empresas devem explicar como os dados do usuário são inseridos no modelo, como o modelo chega à sua saída e a probabilidade de ele alucinar.
  • Auditoria: De acordo com um entrevistado, as empresas precisarão modificar suas políticas dependendo dos riscos do uso de IA. Isso pode variar dependendo da empresa, já que nem todas as organizações irão incorporar a IA para o mesmo caso de uso.

“Quanto mais cedo as empresas trabalharem juntas para identificar os riscos e estabelecer a governança antecipadamente, melhor poderão contribuir para gerar valor para as partes interessadas, elevar suas marcas, criar novos mercados e contribuir para a construção de um mundo mais equitativo”, disse Ammanath.