O Meta planeja aumentar o uso de etiquetas em imagens geradas por IA durante um ano cheio de eleições. Esta informação vem da ENBLE.

Meta amplia rotulagem de imagens geradas por IA em suas plataformas de mídia social, incluindo Facebook, Instagram e Threads, para incluir imagens sintéticas criadas com a tecnologia de IA generativa de concorrentes

🌟 Meta Dá um Passo em Direção à Rotulagem de Imagens Geradas por IA nas Redes Sociais 📸

Em uma iniciativa para combater a desinformação e a desinformação alimentadas por IA, o Meta (anteriormente conhecido como Facebook) está expandindo a rotulagem de imagens geradas por IA em suas plataformas de mídia social, incluindo Facebook, Instagram e Threads. Essa expansão inclui a rotulagem de imagens sintéticas criadas com o uso de ferramentas de IA generativa de outras empresas, desde que essas ferramentas incluam “indicadores padrão da indústria” que o Meta consiga detectar. No entanto, o Meta não divulgou a quantidade exata de conteúdo sintético circulando em suas plataformas, deixando-nos perguntando sobre o impacto dessa iniciativa na luta contra a desinformação gerada por IA em um ano com muitas eleições ocorrendo em todo o mundo.

Detectando Imagens Geradas por IA

O Meta já detecta e rotula “imagens fotorrealistas” criadas com sua própria ferramenta de IA generativa chamada “Imagine with Meta”, lançada em dezembro do ano passado. No entanto, anteriormente, não havia rotulado imagens sintéticas criadas com o uso de ferramentas de outras empresas. Agora, o Meta está trabalhando com parceiros do setor para estabelecer padrões técnicos comuns para identificar conteúdo de IA generativo. Ao detectar os sinais incorporados nas ferramentas de geração de imagens de IA concorrentes, o Meta tem como objetivo rotular imagens geradas por IA que os usuários postam em suas plataformas.

A rotulagem expandida será implementada gradualmente ao longo do próximo ano, com ênfase nas eleições importantes ao redor do mundo. O Meta planeja aprender mais sobre como as pessoas criam e compartilham conteúdo de IA durante esse período, permitindo-lhes desenvolver boas práticas e tomar decisões informadas sobre a expansão da rotulagem em diferentes mercados.

🔍 O Desafio com Vídeos e Áudio Gerados por IA

Embora o Meta esteja avançando com a rotulagem de imagens, a detecção de vídeos e áudio gerados por IA ainda é um desafio. Técnicas de marcação e marca d’água não foram amplamente adotadas, dificultando a identificação precisa desses deepfakes por ferramentas de detecção. Além disso, a edição e a manipulação podem facilmente remover quaisquer sinais presentes no conteúdo.

O Meta está trabalhando ativamente no desenvolvimento de classificadores para detectar automaticamente o conteúdo de vídeo gerado por IA sem a necessidade de marcadores invisíveis. Eles também estão explorando maneiras de aprimorar a resiliência das marcas d’água invisíveis, como integrar mecanismos de marcação d’água diretamente no processo de geração de imagem. Para mitigar os riscos, o Meta agora exige que os usuários divulguem manualmente se postarem vídeos de IA “fotorrealistas” ou áudio “com som realista”. A falta de divulgação pode resultar em penalidades, incluindo suspensão de conta ou banimento.

🎭 Falsificação sem o Uso de IA

É importante observar que a manipulação de mídia digital não se limita exclusivamente a conteúdo gerado por IA. Criar falsificações virais e enganar as pessoas em grande escala é possível com habilidades básicas de edição e acesso a uma conta de mídia social. O Meta tem enfrentado críticas em relação às suas políticas sobre vídeos manipulados. O Conselho de Supervisão, um órgão independente de revisão de conteúdo estabelecido pelo Meta, criticou a empresa por ter políticas “incoerentes” em relação a vídeos falsificados, especialmente aqueles gerados por IA. O Conselho enfatizou a necessidade de o Meta também abordar os riscos de manipulação de conteúdo não relacionados a IA.

🤖 IA Generativa como uma Ferramenta de Moderação de Conteúdo

Além da rotulagem de conteúdo gerado por IA, o Meta está explorando o uso de IA generativa como complemento aos seus esforços de moderação de conteúdo. Nick Clegg, presidente do Meta, sugere que modelos de linguagem grandes (LLMs) possam ajudar em momentos de “risco elevado”, como as eleições. Testes iniciais usando LLMs treinados nos Padrões da Comunidade do Meta mostraram resultados promissores na identificação de violações de políticas. Os LLMs também estão sendo utilizados para remover conteúdo das filas de revisão quando houver alta confiança de que ele não viola as políticas do Meta. Esta abordagem visa aliviar o trabalho dos revisores de conteúdo humanos e aprimorar a eficiência da moderação de conteúdo.

🔍 Verificação de Fatos em Conteúdo Gerado por IA

O Meta também permite que parceiros independentes de verificação de fatos verifiquem conteúdo gerado por IA em suas plataformas. Isso significa que o conteúdo gerado por IA pode não apenas ser rotulado como tal, mas também desmentido se contiver informações falsas. No entanto, a aplicação simultânea de vários rótulos e indicadores ao conteúdo pode se tornar confusa para os usuários que navegam nas plataformas de mídia social.

👥 O Desafio da Assimetria e a Resposta do Meta

Reconhecendo a assimetria entre a disponibilidade de verificadores de fatos humanos e as ferramentas de IA cada vez mais acessíveis usadas para criar desinformação, o Meta está sob pressão para demonstrar seu compromisso em combater as falsificações geradas por IA. Sem dados concretos sobre a prevalência de conteúdo sintético versus autêntico nas plataformas do Meta e a eficácia de seus sistemas de detecção de IA, é difícil tirar conclusões definitivas. No entanto, com inúmeras eleições no horizonte, os esforços do Meta para combater a desinformação gerada por IA estão ganhando atenção.

🔗 Referências:Meta lança um gerador de imagens alimentado por inteligência artificial autônomaO Conselho Supervisor pede à Meta para reescrever regras ‘incoerentes’ contra vídeos falsificadosDe assistente de inteligência artificial a reestilizador de imagens: as novas funcionalidades de IA da Meta

💡 Perguntas e respostas dos leitores: P: A expansão da rotulagem de conteúdo produzido por IA também se aplica a vídeos e áudio? R: Embora a Meta esteja rotulando atualmente imagens geradas por IA, a detecção e rotulagem de vídeos e áudios gerados por IA continuam sendo um desafio. A empresa está trabalhando ativamente no desenvolvimento de ferramentas para identificar esse tipo de conteúdo. No entanto, no momento, o foco da rotulagem é principalmente em imagens geradas por IA.

P: Existem penalidades para usuários que deixam de declarar que seu conteúdo é gerado por IA? R: Sim. A Meta possui uma política de Padrões da Comunidade que se aplica a todos os usuários em todo o mundo. Usuários que deixarem de divulgar manualmente um vídeo gerado por IA com “realismo fotográfico” ou áudio com “realismo sonoro” podem sofrer penalidades, incluindo suspensões ou banimentos de suas contas.

P: Como a Meta planeja lidar com os riscos de manipulação de conteúdo não relacionados à IA? R: Embora os esforços recentes da Meta tenham se concentrado no conteúdo gerado por IA, o Conselho Supervisor instou a empresa a revisar suas políticas para abordar os riscos de manipulação de conteúdo não relacionados à IA. A Meta ainda não detalhou planos específicos em resposta a essa recomendação.

P: Os parceiros de verificação de fatos podem desmentir o conteúdo gerado por IA além de rotulá-lo? R: Sim, os parceiros de verificação de fatos têm autoridade para desmentir o conteúdo gerado por IA se ele contiver informações falsas. Além de ser rotulado como gerado por IA, o conteúdo considerado impreciso ou enganoso também pode ser desmentido.

🌐 O Futuro do Conteúdo Gerado por IA nas Redes Sociais

À medida que a IA continua a avançar, ela desempenhará um papel cada vez mais significativo na moldagem de nossas experiências online. Os esforços da Meta para rotular o conteúdo gerado por IA e explorar a IA generativa como ferramenta de moderação de conteúdo destacam a importância de enfrentar os desafios impostos pela desinformação. O desenvolvimento de técnicas robustas de detecção e políticas claras serão cruciais para o futuro. A prevalência de conteúdo gerado por IA, aliada ao risco de manipulação, serve como um lembrete da necessidade de um comportamento online responsável e pensamento crítico.

📢 Compartilhe suas opiniões!

O que você acha da expansão da Meta na rotulagem de conteúdo gerado por IA? Você acredita que isso ajudará a combater efetivamente a desinformação? Compartilhe suas opiniões nos comentários abaixo e participe da conversa!

🙌 Gostou deste artigo? Não se esqueça de compartilhá-lo nas redes sociais!

Aviso Legal: Este artigo é apenas para fins informativos. As opiniões expressas neste artigo são exclusivamente do autor e não refletem necessariamente as políticas oficiais ou posições da Meta ou de suas subsidiárias.


🔍 Referências:Meta lança um gerador de imagens alimentado por inteligência artificial autônomaO Conselho Supervisor pede à Meta para reescrever regras ‘incoerentes’ contra vídeos falsificadosDe assistente de inteligência artificial a reestilizador de imagens: as novas funcionalidades de IA da Meta