Dentro do acordo provisório da UE sobre a regulamentação inovadora de IA no mundo

Dentro do acordo provisório da UE sobre regulação inovadora de IA no cenário mundial

Após maratonas de discussões na semana passada, a União Europeia assegurou um acordo preliminar sobre os termos do AI Act, aproximando ainda mais a regulamentação histórica da promulgação.

Embora tenham perdido o prazo original para quarta-feira, os legisladores conseguiram chegar a um acordo na sexta-feira, bem a tempo para o fim de semana. Caso contrário, a lei teria sido adiada até o próximo ano, potencialmente após as eleições em toda a UE em junho.

Não tem sido fácil tentar acertar um alvo móvel.

Anunciado como a primeira legislação abrangente do mundo para inteligência artificial, o Act foi proposto pela primeira vez em 2021. Nos anos seguintes, o desenvolvimento rápido da AI causou várias divisões nos planos regulatórios do bloco.

A última divisão surgiu após o lançamento explosivo do ChatGPT no ano passado. O chatbot OpenAI causou pânico e empolgação sobre o poder dos modelos fundamentais, às vezes chamados de sistemas de IA “de propósito geral”. As nações da UE se dividiram sobre a melhor maneira de supervisioná-los.

França, Alemanha e Itália se opuseram aos planos de regras obrigatórias, temendo que isso prejudicasse a inovação e seus negócios internos. O trio propôs seguir códigos de conduta em vez disso.

Outro ponto de discórdia foram as restrições à vigilância biométrica. Legisladores da UE queriam uma proibição completa, enquanto os governos pediam uma isenção de segurança nacional.

Abordagem baseada em risco para sistemas de IA

Na última hora, os legisladores chegaram a um acordo provisório sobre os princípios do Act, centrado no que eles chamam de abordagem baseada em risco. Isso segue uma estrutura de categorias em camadas:

  • Risco mínimo – como sistemas de recomendação habilitados para AI ou filtros de spam. Isento de obrigações e restrições.
  • Risco alto – sistemas como infraestruturas críticas, dispositivos médicos, acesso a instituições educacionais ou recrutamento de pessoas, aplicação da lei, etc. Precisarão cumprir requisitos, incluindo sistemas de mitigação de riscos, qualidade alta de conjuntos de dados, registro de atividade, documentação detalhada, supervisão humana e um alto nível de resistência e cibersegurança.
  • Risco inaceitável – o Act proibirá sistemas considerados uma ameaça clara aos direitos fundamentais das pessoas. Isso inclui “sistemas ou aplicativos de IA que manipulam o comportamento humano para contornar a livre vontade dos usuários”. Por exemplo, pontuação social por governos ou empresas, ou sistemas para “classificação em tempo real de pessoas”. No entanto, há uma “exceção restrita” para identificação biométrica remota para fins de aplicação da lei.
  • Risco específico de transparência – os usuários precisam estar cientes de que estão interagindo com IA, e deepfakes ou conteúdo gerado por IA devem ser rotulados como tal.

Como é habitual nas regulamentações de tecnologia da UE, multas pesadas serão aplicadas àqueles que não estiverem em conformidade. Elas variarão de €35 milhões (ou 7% do faturamento global anual, o que for maior) para violações de aplicativos proibidos, a €7,5 milhões (ou 1,5%) para fornecimento de informações incorretas.

Além disso, o Act introduz regras específicas para modelos de IA de propósito geral. Para modelos muito poderosos que possam representar riscos sistêmicos, haverá “obrigações vinculativas adicionais” que serão “operacionalizadas por meio de códigos de práticas desenvolvidos pela indústria, comunidade científica, sociedade civil e outras partes interessadas, juntamente com a Comissão”.

Nova Agência Europeia de IA

Embora a aplicação seja de responsabilidade de cada país membro, o Act também determina a criação de uma nova Agência Europeia de IA no seio da Comissão Europeia. Enquanto isso, Thierry Breton, chefe da indústria do bloco, afirmou que o Act não é apenas uma cartilha, mas um “trampolim para startups e pesquisadores da UE liderarem a corrida global de IA”.

A provisão agora exigirá mais negociação – e ainda há tempo para mais lobby. Mas agora há fortes chances de um acordo completo antes das eleições parlamentares europeias do próximo ano.

No entanto, é improvável que a lei entre em vigor por pelo menos 18 meses. Até lá, o mundo da IA poderá ser muito diferente.