A IA pode falhar na questão das mudanças climáticas devido a conjuntos de dados tendenciosos, revela estudo

Study reveals AI's failure in addressing climate change due to biased data sets.

Entre os muitos benefícios da inteligência artificial defendidos por seus defensores está a capacidade potencial da tecnologia de ajudar a resolver as mudanças climáticas. Se este for realmente o caso, os recentes avanços na IA não poderiam ter chegado em melhor hora. Neste verão, as evidências continuaram a se acumular de que a Terra já está passando de um aquecimento para um estado de ebulição.

No entanto, por mais intensa que tenha sido a publicidade em torno da IA nos últimos meses, também há uma longa lista de preocupações que a acompanham. Seu uso prospectivo na disseminação de desinformação, juntamente com questões potenciais de discriminação, privacidade e segurança.

Além disso, pesquisadores da Universidade de Cambridge, Reino Unido, descobriram que o viés nos conjuntos de dados usados para treinar modelos de IA pode limitar sua aplicação como uma ferramenta justa na luta contra o aquecimento global e seu impacto na saúde planetária e humana.

Como acontece frequentemente quando se trata de viés global, trata-se de um conflito entre o Norte Global e o Sul Global. Com a maioria dos dados coletados por pesquisadores e empresas com acesso privilegiado à tecnologia, os efeitos das mudanças climáticas serão inevitavelmente vistos de uma perspectiva limitada. Como tal, a IA tendenciosa tem o potencial de distorcer as informações climáticas. Ou seja, os mais vulneráveis sofrerão as consequências mais graves.

Chamada para conjuntos de dados globalmente inclusivos

Em um artigo intitulado “Aproveitando a inteligência humana e artificial para ação climática em nível planetário”, publicado na prestigiosa revista Nature, os autores admitem que “usar IA para considerar os fatores em constante mudança das mudanças climáticas nos permite gerar previsões mais bem informadas sobre mudanças ambientais, permitindo-nos implantar estratégias de mitigação mais cedo”.

Isso, dizem eles, continua sendo uma das aplicações mais promissoras da IA no planejamento da ação climática. No entanto, somente se os conjuntos de dados usados para treinar os sistemas forem globalmente inclusivos.

“Quando as informações sobre mudanças climáticas são super-representadas pelo trabalho de indivíduos bem-educados em instituições de alto escalão do Norte Global, a IA só verá as mudanças climáticas e as soluções climáticas através de seus olhos”, disse o autor principal e Cambridge Zero Fellow, Dr. Ramit Debnath.

Em contraste, aqueles que têm menos acesso à tecnologia e mecanismos de relatório estarão sub-representados nas fontes digitais em que os desenvolvedores de IA se baseiam.

“Nenhum dado é limpo ou imparcial, e isso é particularmente problemático para a IA, que depende inteiramente de informações digitais”, disse a coautora do artigo, professora Emily Shuckburgh. “Somente com uma consciência ativa dessa injustiça de dados podemos começar a enfrentá-la e, consequentemente, construir soluções climáticas lideradas por IA melhores e mais confiáveis”.

Os autores defendem projetos de IA humanos-na-malha que podem contribuir para uma web epistêmica planetária que apoia ação climática, possibilita intervenções de mitigação e adaptação e reduz as injustiças de dados associadas aos conjuntos de dados pré-treinamento de IA.

A necessidade do momento, conclui o estudo, é ser sensível às desigualdades e injustiças digitais dentro da comunidade de inteligência artificial, especialmente quando a IA é usada como instrumento para enfrentar desafios de saúde planetária como as mudanças climáticas.

Se não abordarmos essas questões, argumentam os autores, poderemos ter consequências catastróficas que afetarão o colapso social e a estabilidade planetária, incluindo o não cumprimento de nenhuma das trajetórias de mitigação climática.