EU estabelece regras para IA generativa, avança para vigilância

A União Europeia estabelece diretrizes para inteligência artificial generativa e avança na regulamentação da vigilância

O mundo da tecnologia está esperando ansiosamente pelos resultados das negociações finais em Bruxelas sobre o marco legal de Inteligência Artificial (AI) da União Europeia. As discussões, que começaram às 14:00 CET de quarta-feira, não conseguiram chegar a uma conclusão antes do final do dia. No entanto, negociadores chegaram a um compromisso sobre o controle de sistemas gerativos de AI, como o ChatGPT.

De acordo com fontes familiarizadas com as negociações, agora elas continuarão sobre o uso controverso de AI para vigilância biométrica, o qual os legisladores querem proibir. Conforme relatado pela Reuters, os governos podem ter feito concessões em outros aspectos para poderem usar a tecnologia para fins relacionados à “segurança nacional, defesa e militar”.

Fontes esperam que as negociações continuem por várias horas na quinta-feira.

Ato de Inteligência Artificial: inovação versus regulamentação

Embora o Ato de Inteligência Artificial – a primeira tentativa global de regulamentar a inteligência artificial – esteja em andamento desde abril de 2021, a rápida evolução da tecnologia e a emergência da AI Genética complicaram a situação em Bruxelas.

Além de terem que compreender o lado tecnológico dos modelos fundamentais – e antecipar a evolução da tecnologia ao longo do tempo, para que a regulamentação não se torne obsoleta em poucos anos – os estados membros se dividiram em diferentes grupos.

Os legisladores propuseram requisitos para que os desenvolvedores mantenham informações sobre como treinam seus modelos, além de divulgar o uso de materiais protegidos por direitos autorais e rotular conteúdos produzidos por AI, em oposição a seres humanos.

A França e a Alemanha (lar das empresas europeias líderes em AI Mistral AI e Aleph Alpha) se opuseram a regras vinculativas que, segundo eles, prejudicariam as empresas gerativas de AI do bloco. Juntamente com a Itália, eles prefeririam permitir que os desenvolvedores se autorregulem, aderindo a um código de conduta.

Se as negociações de quinta-feira falharem em gerar (veja o que fizemos aqui) quaisquer conclusões definitivas, teme-se que todo o ato seja adiado até depois das eleições europeias no próximo ano – que trarão uma nova Comissão e Parlamento. Dada a enxurrada de notícias sobre desenvolvimentos, como o Gemini do Google e o novo super chip de AI da ADM, os reguladores podem precisar reescrever completamente as regras até lá. Bem, isso é burocracia de Bruxelas para você.