Analisando os Riscos UE Exige Mais Informações dos Gigantes da Tecnologia sobre IA Generativa

Meta, Microsoft, Snap, TikTok e X receberam uma série de pedidos oficiais de informação (RFI) da Comissão Europeia sobre sua abordagem para gerenciar riscos associados ao uso de inteligência artificial generativa.

“`html

UE aumenta supervisão de grandes plataformas para riscos de GenAI antes das eleições | ENBLE

A Comissão Europeia não está arriscando quando se trata dos perigos potenciais da inteligência artificial generativa. Em uma ação que causou ondas de choque na indústria de tecnologia, a Comissão solicitou formalmente informações de vários grandes players, incluindo Google, Meta, Microsoft, Snap, TikTok, e X, sobre como estão lidando com os riscos associados a essa tecnologia de ponta.

Qual é a Grande Novidade?

As demandas da Comissão Europeia estão sob o guarda-chuva do Digital Services Act (DSA), que delineia as regras e regulamentos que regem o comércio eletrônico e a governança online na União Europeia. Esses gigantes da tecnologia, também conhecidos como plataformas online muito grandes (VLOPs), foram designados como tal pela Comissão, significando que têm responsabilidades adicionais além da mera conformidade com o livro de regras.

A Comissão está particularmente interessada em como essas plataformas estão mitigando os riscos relacionados à inteligência artificial generativa. Isso inclui preocupações como a criação de informações falsas, a disseminação viral de deepfakes e a potencial manipulação de serviços que poderiam induzir os eleitores ao erro. Os reguladores da UE não estão deixando pedra sobre pedra, também solicitando informações sobre o impacto da inteligência artificial generativa nos processos eleitorais, disseminação de conteúdo ilegal, proteção dos direitos fundamentais, violência de gênero, proteção de menores e bem-estar mental.

Testando a IA para Deepfakes Políticos

A Comissão Europeia não está parando nas solicitações de informações. Eles estão planejando uma série de testes para avaliar a preparação dessas plataformas para lidar com os riscos da inteligência artificial generativa, como a possibilidade de uma inundação de deepfakes políticos. Com as eleições do Parlamento Europeu se aproximando em junho, a UE está determinada a garantir que as plataformas estejam totalmente preparadas para detectar e combater quaisquer incidentes que possam comprometer a integridade das eleições.

“Queremos pressionar as plataformas para nos informarem sobre tudo o que estão fazendo para estarem o mais bem preparadas possível… para todos os incidentes que poderemos detectar e aos quais teremos que reagir antes das eleições,” disse um alto funcionário da Comissão, falando sob condição de anonimato.

Construindo um Ecossistema de Fiscalização

A segurança das eleições é uma das principais prioridades da Comissão e eles estão trabalhando na produção de orientações formais para VLOPs nesse sentido. As futuras Diretrizes de Segurança Eleitoral pretendem ir “muito além” do recente acordo da indústria de tecnologia sobre combate ao uso enganoso da IA durante as eleições. A UE planeja utilizar um triplo golpe de salvaguardas: as regras claras de diligência devida do DSA, o Código de Prática Contra a Desinformação e as regras de rotulagem de transparência/modelo de IA sob a próxima Lei de IA.

O objetivo? Construir “um ecossistema de estruturas de fiscalização” que possa ser acionado quando se trata de segurança eleitoral.

O Amplo Espectro de Riscos da Inteligência Artificial Generativa

Enquanto o foco da UE está na segurança das eleições, eles estão bem cientes de que a inteligência artificial generativa apresenta riscos além da manipulação de votos. Danos relacionados a deepfakes pornográficos e a outras gerações de conteúdo sintético malicioso, independentemente do tipo de mídia produzida, também estão no radar da Comissão. Além dos riscos eleitorais, a aplicação do DSA aos VLOPs abrange problemas como conteúdo ilegal (incluindo discurso de ódio) e proteção infantil.

A Comissão estabeleceu um prazo até 24 de abril para que as plataformas forneçam respostas às suas solicitações de informações sobre esses outros riscos da inteligência artificial generativa.

Indo Além dos VLOPs

A UE não está preocupada apenas com as grandes plataformas, mas também com os pequenos players que podem potencialmente distribuir deepfakes enganosos ou maliciosos. Embora essas plataformas menores e fabricantes de ferramentas de IA não estejam sob a supervisão explícita do DSA, a Comissão planeja aplicar pressão indireta por meio de grandes plataformas atuando como amplificadores ou canais de distribuição. Eles também contarão com mecanismos autorregulatórios, como o Código de Prática Contra a Desinformação e o Pacto de IA.

P&R: O Que Você Pode Querer Saber

P: O que é inteligência artificial generativa?

R: A inteligência artificial generativa refere-se a tecnologias de inteligência artificial que podem criar novos conteúdos ou informações autonomamente. Isso pode incluir a geração de texto, imagens, vídeos ou outras formas de mídia.

P: O que são deepfakes?

R: Deepfakes são vídeos ou imagens manipulados realistas criados usando algoritmos de IA. Eles podem fazer parecer que alguém disse ou fez algo que nunca aconteceu realmente, levando a possíveis desinformação e manipulação.

“““html

Q: Como os deepfakes afetam as eleições?

A: Os deepfakes podem ser usados para espalhar informações falsas sobre candidatos políticos ou para manipular a percepção do público sobre um evento ou declaração política. Isso pode minar a integridade das eleições ao desinformar os eleitores e criar confusão.

Q: Quais são os riscos potenciais da IA generativa além da segurança eleitoral?

A: A IA generativa pode representar riscos, como a criação de conteúdo sintético malicioso, incluindo deepfake pornográfico, discurso de ódio ou outros meios prejudiciais. Também pode ter implicação na proteção infantil e disseminação de conteúdo ilegal.

O Futuro da Regulação da IA Generativa

As ações da Comissão Europeia destacam o reconhecimento crescente dos riscos associados à tecnologia de IA generativa. À medida que as capacidades da IA continuam a se desenvolver, é essencial estabelecer diretrizes claras e regulamentações exigíveis para garantir que essas tecnologias sejam usadas de maneira responsável e ética. O foco da UE em construir um ecossistema de estruturas de aplicação demonstra seu compromisso em se antecipar e proteger as eleições e o conteúdo online.

Com os testes de estresse iminentes e as futuras Diretrizes de Segurança Eleitoral, a UE está enviando uma mensagem clara aos gigantes da tecnologia: Chegou a hora de uma responsabilidade aumentada e de medidas proativas. Vamos torcer para que seus esforços resultem em um ambiente digital mais seguro e transparente.

Referências

“`