As organizações estão lutando pela adoção ética da IA. Aqui está como você pode ajudar

Organizações em busca da adoção ética da IA saiba como contribuir

Duas pessoas olhando para uma tela futurística

À medida que a inteligência artificial se torna mais integrada em nossas vidas diárias, também aumentam as implicações éticas dessa tecnologia. Como resultado, organizações estão defendendo os trabalhadores e consumidores que poderiam ser impactados negativamente pela IA – e existem maneiras de você se juntar à luta pela adoção ética da IA pela sociedade.

Provocando preocupações éticas, a IA é conhecida por exibir viés de gênero e racial. Também levanta questões sobre privacidade, como no caso do uso da IA para vigilância. Além disso, a tecnologia tem sido explorada para disseminar informações equivocadas.

Se utilizada corretamente – e eticamente – a IA poderia elevar a sociedade como um todo e impulsionar positivamente a tecnologia do futuro. É por isso que essas organizações estão se esforçando para reduzir os impactos negativos e nos guiar na direção certa.

Também: A ética da IA generativa: como podemos aproveitar essa tecnologia poderosa

Uma dessas organizações sem fins lucrativos é a ForHumanity, que trabalha para examinar e analisar os riscos associados à IA e aos sistemas autônomos, além de se envolver na máxima redução de riscos nesses sistemas. Ryan Carrier, diretor executivo e fundador da ForHumanity, disse à ENBLE que a organização é composta por voluntários de todo o mundo.

Destaque Especial

Como a IA está transformando organizações em todos os lugares

Algumas das organizações mais eficazes do mundo estão utilizando as últimas inovações em IA de maneiras inteligentes – e às vezes surpreendentes. Concentramos a atenção em uma variedade diversa de organizações em diferentes setores da economia para ver como elas estão automatizando, otimizando e transformando a forma como as coisas são feitas.

“A ForHumanity tem mais de 1.600 pessoas de 91 países ao redor do mundo, e estamos crescendo de 40 a 60 pessoas por mês”, disse Carrier. “Os voluntários representam uma ampla gama de consumidores, trabalhadores, acadêmicos, líderes de pensamento, solucionadores de problemas, auditores independentes, etc., ajudando-nos com nossas regras auditáveis e até mesmo treinando para se tornarem auditores certificados.”

A comunidade da ForHumanity é 100% aberta, e não há restrições quanto a quem pode participar. Você só precisa se registrar no site e concordar com um código de conduta. Qualquer pessoa que se voluntarie para a organização pode participar do processo tanto quanto quiser.

Uma das principais preocupações da ForHumanity é criar regras auditáveis para auditores de IA (pessoas que avaliam sistemas de IA para garantir que funcionem conforme o esperado) com base na lei, normas e melhores práticas, por meio de um processo colaborativo e iterativo com os voluntários da ForHumanity. A organização então submete essas regras auditáveis aos governos e órgãos reguladores.

“Fornecemos esse campo de jogo equitativo, esse ecossistema, onde incentivamos auditores, prestadores de serviços, pessoas em empresas, etc., a usar essas regras para criar conformidade com o cenário de leis, regulamentos, melhores práticas, etc., em constante mudança”, disse Carrier.

Até agora, a ForHumanity já apresentou solicitações tanto para o governo do Reino Unido quanto para o da União Europeia e está perto de ter um esquema de certificação aprovado (ou seja, um conjunto de regras auditáveis), que, segundo Carrier, seria o primeiro esquema de certificação aprovado do mundo para sistemas de IA e algoritmos. Esse conjunto de regras representa o mais alto nível de conformidade garantido, e atualmente não há nada parecido com isso na IA hoje.

“As regras que foram criadas têm o objetivo de mitigar riscos para os seres humanos e fornecer uma interpretação binária de conformidade com a lei”, disse Carrier, acrescentando que o impacto dos esquemas de certificação voluntária é que as empresas que investem neles têm uma maior certeza de que estão cumprindo a lei.

“A missão da ForHumanity é exclusivamente focada nos seres humanos. Assim, tanto os consumidores/usuários quanto os funcionários se beneficiarão com a implementação desses esquemas de certificação”, disse Carrier.

Também: Cinco maneiras de usar IA de forma responsável

Outra organização que trabalha em pesquisa e política de IA é o Centro de Políticas de IA e Digital (CAIDP), que se concentra em desenvolver educação em IA que promova direitos fundamentais, valores democráticos e o Estado de Direito.

O CAIDP possui clínicas de políticas de IA onde aqueles interessados em aprender mais sobre IA podem se reunir gratuitamente. Até agora, 207 estudantes se formaram nessas sessões de aprendizado.

“Os estudantes [das clínicas] vão desde advogados, profissionais, pesquisadores, defensores da sociedade, etc., para aprender como a IA afeta os direitos e sair com habilidades e defesa sobre como manter os governos responsáveis e como afetar a mudança no espaço da IA”, disse Merve Hickok, presidente do CAIDP, ao ENBLE.

Qualquer pessoa pode participar dessas clínicas de políticas de IA para receber uma Certificação em Políticas de IA do CAIDP. Aqueles interessados em se inscrever podem fazê-lo no site do CAIDP. As clínicas duram um semestre e requerem um compromisso de tempo de cerca de seis horas por semana.

Hickok disse que, além da parte educacional do CAIDP, a organização também está interessada no aspecto consultivo, especialmente na proteção dos direitos do consumidor em relação à IA.

Também: 6 ferramentas de IA para potencializar seu trabalho e vida cotidiana

“Pedimos medidas de segurança para sistemas de IA”, acrescentou Hickok. “Que os sistemas de IA não sejam implantados sem levar em conta certas medidas de segurança, proteção e equidade. Consumidores e sociedade em geral não devem ser usados como cobaias – eles não devem ser experimentados”.

Além disso, a outra preocupação do CAIDP são os direitos dos trabalhadores – especialmente em relação à vigilância dos trabalhadores.

“Enviamos recomendações para a Casa Branca, EEOC e diferentes agências (sobre os direitos dos trabalhadores em relação à IA)”, disse Carrier. “Porque queremos que os trabalhadores tenham voz em como eles podem usar ou se envolver em sistemas de IA, e não apenas serem submetidos à vigilância e monitoramento de desempenho, etc., e serem explorados”.

O Índice de IA e Valores Democráticos anual do CAIDP é uma peça importante de seu trabalho, onde examina uma avaliação mundial de políticas e práticas de IA, divididas por 75 países. Em 2022, por exemplo, países como Canadá, Japão e Colômbia tiveram pontuações altas em termos de políticas de IA, enquanto países como Irã, Vietnã, Venezuela e outros tiveram pontuações baixas.

“Governos ao redor do mundo estão se movendo rapidamente para entender as implicações da implantação de IA à medida que mais sistemas são implantados”, diz o relatório. “Antecipamos que a taxa de criação de políticas de IA acelerará nos próximos anos”.

O CAIDP já está trabalhando com agências federais e governos. Em março, a organização apresentou uma reclamação abrangente sobre a OpenAI à Comissão Federal de Comércio, pedindo para investigar e interromper a implantação de modelos futuros até que medidas de segurança estejam em vigor.

Também: Executivos precisam de melhores habilidades tecnológicas. Aqui estão seis formas de capacitação ascendente

E embora as duas organizações estejam fazendo coisas diferentes para responsabilizar a IA, ambas têm as mesmas preocupações quando se trata do futuro da IA e seus riscos.

Carrier disse que isso se resume essencialmente a cinco áreas de preocupação: Riscos éticos, viés, privacidade, confiança e cibersegurança.

“Realmente depende do caso de uso e dos maiores riscos dentro dele, mas geralmente sempre há muitos”, disse ele. “E é por isso que fazemos o que fazemos”.

Quanto ao futuro da IA, ambas as organizações estão relativamente otimistas de que haverá adoção de regulamentações e controle dos riscos.

“Do nosso ponto de vista, queremos garantir que a IA seja adotada e que sempre seja feita de uma maneira que seja benéfica para os humanos, maximizando a mitigação de riscos de cada ferramenta individual”, disse Carrier. “Em um futuro perfeito, seria obrigatório ter sistemas de auditoria independentes para toda IA e que os sistemas algorítmicos e autônomos impactassem significativamente os humanos”.