Os Problemas à Espreita no Histórico Acordo de IA de Hollywood

Os Desafios Escondidos no Acordo Histórico de Inteligência Artificial de Hollywood

Nem todos em Hollywood estão felizes com o histórico acordo de IA da indústria cinematográfica. Críticos argumentam que uma disposição que permite a criação de réplicas digitais e atores sintéticos pode diminuir o número de empregos disponíveis para atores e equipes de produção. Isso, por sua vez, poderia permitir que astros famosos – e seus clones gerados por IA – aparecessem em múltiplos projetos ao mesmo tempo, afastando atores emergentes à medida que Hollywood se enche de atores sintéticos.

Os sentimentos são tão fortes que 14% do conselho nacional do Screen Actors Guild-American Federation of Television and Radio Artists, ou SAG-AFTRA, na sigla em inglês, votaram contra levar o acordo para ratificação pelos membros em geral. Líderes do Directors Guild of America e do Writers Guild of America, por outro lado, concordaram esmagadoramente em fazer com que seus membros aceitem os acordos que firmaram com a Alliance of Motion Picture and Television Producers (AMPTP).

Com o acordo com a AMPTP, os roteiristas estavam tentando retomar o controle de uma ferramenta que poderia aprender a escrever roteiros originais ou alterar roteiros escritos por humanos sem permissão. Para os atores, uma das questões-chave nas negociações era diferente: eles temiam que a IA pudesse roubar suas próprias semelhanças. Controles rigorosos parecem ser existencialmente necessários. “Neste acordo, de fato, existem muitos usos imaginados no futuro, tanto para personagens secundários quanto para personagens principais e atores de apoio”, diz Joshua Glick, professor associado de cinema e artes eletrônicas do Bard College. “Isso é parte do motivo pelo qual talvez exista mais ansiedade em relação à posição dos atores em relação à IA em comparação com os ganhos obtidos pelos roteiristas.”

Uma das críticas mais veementes ao acordo foi a atriz de “Family Ties”, Justine Bateman, que atua como conselheira de IA para o comitê de negociação do SAG-AFTRA. Nos dias seguintes ao acordo provisório do SAG com a AMPTP, ela publicou um thread amplamente compartilhado no X que terminou com a frase: “Em suma, estamos entrando em uma era muito desagradável para atores e equipes de produção”.

A maior preocupação de Bateman é a linguagem do acordo referente a “atores sintéticos” – ou AIs que se assemelham a humanos. “Isso dá às produtoras/plataformas o sinal verde para usar objetos de IA com aparência humana em vez de contratar um ator humano”, ela escreveu no X. “É uma coisa usar [IA generativa] para criar um King Kong ou uma serpente voadora (embora isso desloque muitos artistas de VFX/CGI), é outra coisa ter um objeto de IA interpretando um personagem humano em vez de um ator de verdade”. Segundo ela, isso seria como os membros do Teamsters permitirem que seus empregadores usassem caminhões autônomos em vez de motoristas sindicalizados.

Regular as características desses “atores sintéticos” é outra questão complexa. Um resumo do novo acordo afirma que “se um produtor planeja criar um personagem gerado por computador que tenha uma característica principal no rosto – como olhos, nariz, boca ou orelhas – que claramente se pareça com um ator real, e eles usem o nome e o rosto desse ator para instruir o sistema de IA a fazer isso, eles devem primeiro obter permissão desse ator e concordar com como esse personagem será usado no projeto”.

Os atores podem se basear no direito de publicidade, também conhecido como direito de imagem, para se protegerem caso um estúdio infrinja claramente sua imagem. Mas e quanto a um ator sintético que exibe, digamos, a gravidade de Denzel Washington, mas que não é, tecnicamente, Denzel Washington? Seria possível reivindicar isso como uma “réplica digital”, que, segundo o contrato, requer consentimento para uso? Quão facilmente um ator poderá defender características mais nebulosas? Com algum peso jurídico, um estúdio pode argumentar que seu ator de IA é simplesmente treinado com base nas atuações de grandes atores, assim como qualquer aspirante a ator, da mesma maneira que um grande modelo de linguagem “digere” grandes obras literárias para influenciar a escrita que produz. (Se LLMs devem ou não ser autorizados a fazer isso é um assunto de debate permanente.)

“Onde fica a linha entre uma réplica digital e um semelhante que se parece, mas não é exatamente uma réplica?” diz David Gunkel, professor do Departamento de Comunicações da Northern Illinois University, especializado em IA na mídia e entretenimento. “Isso é algo que será litigado no futuro, à medida que vemos processos movidos por diversos grupos, à medida que as pessoas começam a testar esse limite, porque não está bem definido nos termos do contrato.”

Há mais preocupações em relação à ambiguidade de algumas das linguagens do contrato. Tome, por exemplo, a estipulação de que os estúdios não precisam buscar consentimento “se estiverem protegidos pela Primeira Emenda (por exemplo, comentário, crítica, bolsa de estudos, sátira ou paródia, uso em um docudrama ou obra histórica ou biográfica)”. Não é difícil imaginar os estúdios, se assim desejarem, contornando o consentimento classificando o uso como satírico e usando a Constituição dos EUA como proteção.

Ou leve em consideração a discussão em torno de alterações digitais, especificamente que não há necessidade de buscar consentimento para uma réplica digital se “a fotografia ou trilha sonora permanecer substancialmente como roteirizada, executada e/ou gravada”. Isso pode incluir mudanças de cabelo e guarda-roupa, diz Glick, ou notablemente, um gesto ou expressão facial. Isso levanta a questão do efeito da IA na arte de atuar: os artistas e atores começarão a marcar performances livres de IA ou incentivar movimentos anti-IA, como o Dogme 95? (Essas preocupações começam a relembrar antigas discussões da indústria sobre CGI.)

A precariedade dos artistas os torna vulneráveis. Se um ator precisa pagar as contas, o consentimento da IA e a possível replicação podem se tornar uma condição de emprego. A desigualdade entre os atores também é provável que se aprofunde – aqueles que podem se dar ao luxo de resistir a projetos de IA podem obter mais proteção; os atores famosos que concordam em serem recriados digitalmente podem “aparecer” em vários projetos ao mesmo tempo.

Há um limite para o que pode ser alcançado em negociações entre guildas e estúdios, como explicou o ator e diretor Alex Winter em um artigo recente para a ENBLE. Assim como ele observou para o acordo da WGA, o acordo “coloca muita confiança nos estúdios para fazerem a coisa certa”. Sua conquista central, argumenta ele, é manter a conversa entre o trabalho e o capital. “É um passo na direção certa em relação à proteção dos trabalhadores; ele transfere parte do controle das mãos do estúdio para as mãos dos trabalhadores que estão sindicalizados sob o SAG-AFTRA”, diz Gunkel. “Eu acho, porém, que, porque está limitado a um contrato por um período de tempo muito preciso, não é algo que devemos apenas comemorar e dar por concluído.”