Threads está ganhando seus próprios verificadores de fatos para combater informações falsas

O Threads está desenvolvendo seus próprios verificadores de fatos para combater a propagação de informações falsas

O Meta planeja adicionar verificação direta de fatos para Threads, com o objetivo de combater informações falsas no próprio aplicativo, em vez de fazer isso por meio de suas outras plataformas.

Embora o proprietário do Facebook e Instagram utilize equipes de verificação terceirizadas para desmascarar informações falsas e desinformações nessas plataformas (se isso é totalmente bem-sucedido é outra história), a resposta do Meta ao Twitter/X não possui uma equipe própria dedicada à verificação de fatos.

“No início do próximo ano, nossos parceiros de verificação de fatos terceirizados poderão revisar e classificar conteúdo falso na Threads”, o Meta explicou em uma atualização. “No momento, quando um verificador de fatos classifica um conteúdo como falso no Facebook ou Instagram, estendemos essa classificação de verificação de fatos para conteúdo quase idêntico na Threads, mas os verificadores de fatos não podem classificar o conteúdo das Threads por si só”.

O chefe do Instagram, Adam Mosseri, também compartilhou em uma postagem sobre o programa, embora não tenha dado muitos detalhes além do fato de que ele chegará “no próximo ano”.

“Atualmente, correspondemos às classificações de verificação de fatos do Facebook ou Instagram na Threads, mas nosso objetivo é que os parceiros de verificação de fatos tenham a capacidade de revisar e classificar informações falsas no aplicativo”, escreveu Mosseri. “Mais detalhes em breve”.

O Meta tem enfrentado críticas há muito tempo por permitir a propagação de informações falsas (assim como discursos de ódio) em suas plataformas, especialmente relacionadas à COVID-19 e durante as eleições presidenciais dos EUA em 2016 e 2020. O Meta revelou seus planos para publicidade política durante as eleições globais de 2024, embora, como escreve Meera Navlakha da ENBLE, “A publicidade política nas plataformas do Meta tem sido e continua sendo um assunto controverso. Durante eleições anteriores, acusações de disseminação de informações falsas — e uma clara falha em bloquear tais informações falsas — mancharam a reputação auto-proclamada do Meta de priorizar a proteção das eleições online”.

Em 2021, o Facebook começou a sinalizar páginas que constantemente propagam notícias falsas e proibiu oficialmente todas as contas do Instagram, páginas do Facebook e grupos relacionados à teoria da conspiração QAnon. Após a invasão da Rússia na Ucrânia, o Meta estabeleceu um Centro de Operações Especiais para combater a desinformação e remover discursos de ódio e conteúdos que incitam a violência. No entanto, esses tipos de conteúdo continuaram a crescer no Facebook e Instagram durante a guerra em curso entre Israel e o Hamas — com a União Europeia até mesmo intervindo para investigar. Em alguns desses casos, o Meta tomou medidas.

Um fator-chave aqui é a conexão do Threads com notícias. Embora o Threads esteja avançando em direção a tornar os tópicos mais populares coletados de forma mais intuitiva, o Meta realmente não enfatiza a plataforma como um espaço voltado para notícias e atualidades, conforme Mosseri escreveu em julho: “Política e notícias sérias inevitavelmente vão aparecer no Threads – elas também apareceram no Instagram até certo ponto – mas não faremos nada para encorajar essas áreas temáticas.”

É importante observar que certas palavras foram bloqueadas na busca do Threads, com o The Washington Post relatando que palavras como “coronavírus”, “vacinas”, “vacinação”, “sexo”, “pornografia”, “nudez” e “violência” foram intencionalmente bloqueadas. O Threads ainda não possui suas próprias diretrizes comunitárias; em vez disso, a empresa afirma que o Threads é “especificamente parte do Instagram, portanto os Termos de Uso do Instagram e as Diretrizes da Comunidade do Instagram” também se aplicam ao Threads.

No entanto, o Threads já apresenta problemas com discursos de ódio, como relatado por Chase DiBenedetto da ENBLE em julho. Na época, um porta-voz do Meta disse à ENBLE e à Media Matters for America em um comunicado: “Nossas ferramentas líderes do setor para aplicação de integridade e revisão humana estão incorporadas ao Threads. Como todos os nossos aplicativos, as políticas de discurso de ódio se aplicam. Além disso, alinhamos as avaliações de informações incorretas feitas por verificadores independentes de fatos ao conteúdo em nossos outros aplicativos, incluindo o Threads. Estamos considerando maneiras adicionais de lidar com informações incorretas em futuras atualizações.”

Isso parece ser essa atualização, prevista para ser lançada “no início do próximo ano”.