Deepfakes, Chantagem e os Perigos da IA Generativa

Deepfakes, Chantagem e Perigos da IA Generativa

A capacidade da IA generativa está acelerando rapidamente, mas vídeos e imagens falsos já estão causando danos reais, escreve Dan Purcell, fundador da Ceartas io.

Este recente anúncio de serviço público do FBI alertou sobre os perigos que deepfakes de IA representam para a privacidade e segurança online. Cibercriminosos são conhecidos por explorar e chantagear indivíduos, manipulando digitalmente imagens em fakes explícitos e ameaçando divulgá-las online, a menos que uma quantia em dinheiro seja paga.

Isso, juntamente com outras medidas adotadas, é, em última instância, algo positivo. No entanto, acredito que o problema já é mais generalizado do que qualquer um percebe, e novos esforços para combatê-lo são urgentemente necessários.

Por que os Deepfakes podem ser localizados tão facilmente?

O que me preocupa nos deepfakes prejudiciais é a facilidade com que podem ser localizados. Em vez de estarem nas sombras obscuras da internet, eles são encontrados nos aplicativos de mídia social mainstream que a maioria de nós já tem em nossos smartphones.

Um projeto de lei para criminalizar aqueles que compartilham imagens sexuais deepfake de outras pessoas

Na quarta-feira, 10 de maio, legisladores do Senado de Minnesota aprovaram um projeto de lei que, quando ratificado, criminalizará aqueles que compartilham imagens sexuais deepfake de outras pessoas sem o consentimento prévio delas. O projeto de lei foi aprovado quase unanimemente para incluir aqueles que compartilham deepfakes para influenciar indevidamente uma eleição ou prejudicar um candidato político.

Outros estados que aprovaram legislação semelhante incluem Califórnia, Virgínia e Texas.

Estou satisfeito com a aprovação deste projeto de lei e espero que não demore muito para que seja completamente aprovado como lei. No entanto, sinto que é necessária uma legislação mais rigorosa em todos os estados americanos e globalmente. A União Europeia está liderando nisso.

O Senado de Minnesota e os avisos do FBI

Estou otimista de que as ações robustas do Senado de Minnesota e os avisos do FBI irão provocar um debate nacional sobre essa questão crítica. Minhas razões são profissionais, mas também pessoais. Alguns anos atrás, um ex-parceiro meu fez upload de imagens sexuais íntimas minhas sem o meu consentimento prévio.

SEM proteção para o indivíduo afetado — ainda

As fotos ficaram online por cerca de dois anos antes de eu descobrir, e quando descobri, a experiência foi constrangedora e traumatizante. Parecia completamente perturbador para mim que tal ato pudesse ser cometido sem recurso para o perpetrador ou proteção para o indivíduo afetado por tal ação. No entanto, foi o catalisador para o meu futuro negócio, pois prometi desenvolver uma solução que rastreasse, localizasse, verificasse e, em última instância, removesse conteúdo de natureza não consensual.

Imagens deepfake que atraíram interesse mundial

Imagens deepfake que atraíram interesse e atenção mundial recentemente incluem a prisão do ex-presidente Donald Trump, o elegante casaco branco do Papa Francisco e o presidente francês Emmanuel Macron trabalhando como um coletor de lixo. Este último aconteceu durante as greves de reforma da previdência da França. A reação imediata a essas fotos foi a sua realidade, embora poucos espectadores tenham sido enganados. Memorável? Sim. Prejudicial? Não exatamente, mas o potencial está lá.

O presidente Biden abordou a questão

O presidente Biden, que recentemente abordou os perigos da IA com líderes de tecnologia na Casa Branca, esteve no centro de uma controvérsia de deepfake em abril deste ano. Após anunciar sua intenção de concorrer à reeleição nas eleições presidenciais dos EUA em 2024, o RNC (Comitê Nacional Republicano) respondeu com um anúncio no YouTube atacando o presidente usando imagens geradas inteiramente por IA. Um pequeno aviso no canto superior esquerdo do vídeo atesta isso, embora o aviso tenha sido tão pequeno que há uma possibilidade distinta de que alguns espectadores possam confundir as imagens como reais.

Se o RNC tivesse escolhido seguir por um caminho diferente e se concentrar na idade avançada ou mobilidade de Biden, imagens de IA dele em um asilo ou em uma cadeira de rodas poderiam potencialmente influenciar os eleitores em relação à sua adequação para mais um mandato de quatro anos no cargo.

A manipulação de imagens tem o potencial de ser altamente perigosa

Não há dúvida de que a manipulação de tais imagens tem o potencial de ser altamente perigosa. A Primeira Emenda deveria proteger a liberdade de expressão. Com a tecnologia deepfake, o debate político racional e ponderado está agora em perigo. Consigo ver os ataques políticos se tornando cada vez mais caóticos à medida que 2024 se aproxima.

Se o presidente dos EUA pode se encontrar em uma posição tão vulnerável em termos de proteger sua integridade, valores e reputação, que esperança têm os cidadãos do resto do mundo?

Alguns vídeos deepfake são mais convincentes do que outros, mas descobri em minha vida profissional que nem sempre são engenheiros de computação altamente qualificados envolvidos em sua produção. Um laptop e algum conhecimento básico de computação podem ser praticamente tudo o que é necessário, e há muitas fontes de informação online também.

Aprenda a distinguir entre um vídeo real e falso

Para aqueles de nós que trabalham diretamente com tecnologia, saber a diferença entre um vídeo real e um falso é relativamente fácil. Mas a capacidade da comunidade em geral de identificar um deepfake pode não ser tão simples. Um estudo mundial em 2022 mostrou que 57% dos consumidores declararam que poderiam detectar um vídeo deepfake, enquanto 43% afirmaram que não conseguiam distinguir a diferença entre um vídeo deepfake e um real.

Esse grupo, sem dúvida, incluirá aqueles em idade de votar. O que isso significa é que deepfakes convincentes têm o potencial de determinar o resultado de uma eleição se o vídeo em questão envolver um candidato político.

IA generativa

O músico e compositor Sting recentemente divulgou uma declaração alertando que os compositores não devem ser complacentes, pois agora competem com sistemas de IA generativa. Eu entendo o ponto dele. Um grupo chamado Human Artistry Campaign está atualmente realizando uma petição online para manter a expressão humana “no centro do processo criativo e proteger o sustento e o trabalho dos criadores”.

A petição afirma que a IA nunca pode ser um substituto para a realização e a criatividade humana. TDM (mineração de texto e dados) é uma das várias maneiras pelas quais a IA pode copiar a voz de um músico ou seu estilo de composição e envolve o treinamento de grandes quantidades de dados.

A IA pode nos beneficiar como seres humanos.

Embora eu possa ver como a IA pode nos beneficiar como seres humanos, estou preocupado com as questões que envolvem a governança adequada da IA generativa dentro das organizações. Isso inclui falta de transparência, vazamento de dados, viés, linguagem tóxica e direitos autorais.

Precisamos ter regulamentações e legislações mais fortes.

Sem regulamentações mais fortes, a IA generativa ameaça explorar os indivíduos, independentemente de serem figuras públicas ou não. Na minha opinião, o rápido avanço dessa tecnologia tornará isso ainda mais evidente, e o recente aviso do FBI reflete isso.

Enquanto essa ameaça continua a crescer, também cresce o tempo e o dinheiro investidos em pesquisa e desenvolvimento de IA. O valor de mercado global da IA está atualmente avaliado em quase US$100 bilhões e espera-se que alcance quase dois trilhões de dólares americanos até 2030.

Aqui está um incidente da vida real relatado nas notícias, KSL, hoje.

– Por favor, leia para proteger seus filhos – especialmente adolescentes.

Leia aqui.

Os pais recentemente divulgaram essas informações para ajudar a todos nós.

As três principais categorias foram roubo de identidade e golpes de impostores

A tecnologia já está avançada o suficiente para gerar um vídeo deepfake a partir de apenas uma imagem, enquanto uma versão passável da voz de uma pessoa requer apenas alguns segundos de áudio. Por outro lado, entre os milhões de relatórios de consumidores registrados no ano passado, as três principais categorias foram roubo de identidade e golpes de impostores, resultando em uma perda de até US$8,8 bilhões em 2022.

Voltando à lei de Minnesota, os registros mostram que um único representante votou contra o projeto de lei para criminalizar aqueles que compartilham imagens deepfake de natureza sexual. Fico curioso para saber qual foi a motivação deles para fazer isso.

Eu mesmo fui vítima!

Como vítima, tenho sido bastante vocal sobre o assunto, então eu vejo isso como uma questão bastante clara. Quando isso aconteceu comigo, me senti muito sozinho e não sabia a quem recorrer em busca de ajuda. Felizmente, as coisas avançaram muito desde então. Espero que esse impulso positivo continue para que outros não vivenciem o mesmo trauma que eu.

Dan Purcell é o fundador e CEO da Ceartas DMCA, uma empresa líder em proteção de direitos autorais e marcas alimentada por IA, que trabalha com os principais criadores, agências e marcas do mundo para prevenir o uso e distribuição não autorizados de seu conteúdo. Visite www.ceartas.io para mais informações.

Crédito da imagem em destaque: Rahul Pandit; Pexels; Obrigado!