A maioria dos usuários no X nunca vê Notas Comunitárias corrigindo informações erradas

A maioria dos usuários no X nunca encontram Correções de Notas Comunitárias para informações equivocadas

Quando Elon Musk assumiu o controle do X, anteriormente conhecido como Twitter, uma de suas primeiras medidas foi reformular as políticas de moderação de conteúdo da empresa. Quando se trata de desinformação, Musk depende dos usuários do X para lidar com o problema na forma das Notas da Comunidade, um programa que permite que usuários aprovados adicionem contexto a postagens que contenham imprecisões ou falsidades.

Infelizmente, para Musk e sua empresa, essa solução baseada em contribuições do público não parece estar funcionando. E o aumento de desinformação desde que o Hamas atacou Israel em 7 de outubro, e Israel subsequentemente começou a bombardear Gaza, só piorou as coisas.

X transfere a moderação de conteúdo para as Notas da Comunidade

O problema de desinformação do X nos últimos meses tem sido tão proeminente que a União Europeia ameaçou tomar medidas contra a empresa, iniciando uma investigação que pode resultar em pesadas multas ao X.

No mês passado, o X anunciou várias reformulações nas Notas da Comunidade na tentativa de apaziguar os funcionários da União Europeia. A CEO do X, Linda Yaccarino, publicou duas dúzias de postagens sem resposta e sem retweets em outubro. Nove dessas postagens foram sobre atualizações para o programa de Notas da Comunidade. No mesmo mês, o executivo do X, Joe Benarroch, entrou em contato com ENBLE para fornecer um comunicado de imprensa sobre as atualizações das Notas da Comunidade, marcando a primeira vez que a ENBLE ouviu falar do X desde que Elon Musk adquiriu a empresa no ano passado.

O X deixou claro em tudo mencionado acima que depende das Notas da Comunidade para combater a desinformação. Mas as Notas da Comunidade estão falhando.

De acordo com um relatório da NBC News no mês passado, e um relatório recente do Bloomberg na semana passada, o X frequentemente deixou de mostrar verificações de fatos das Notas da Comunidade em postagens virais que espalham falsidades de maneira oportuna. O tempo que leva para uma Nota da Comunidade aparecer em uma postagem era um elemento central das atualizações do programa do X. No entanto, o Bloomberg descobriu que as Notas da Comunidade levam mais de sete horas para aparecer em média, com algumas postagens que espalham desinformação levando dias antes de aparecerem com uma verificação de fatos.

Nos últimos dois meses, ENBLE também tem monitorado Notas da Comunidade, rastreando 50 posts virais que tinham uma Nota da Comunidade aprovada anexada. No entanto, nosso objetivo era descobrir quantos usuários do X estão vendo uma Nota da Comunidade depois que ela é aprovada e a plataforma realmente fixa a nota em um post, tornando-a visível publicamente para toda a base de usuários do X.

O ENBLE descobriu que o X não está conseguindo colocar as Notas da Comunidade na frente de seus usuários — mesmo depois que a verificação de fatos é aprovada pela comunidade.

Desinformação recebe muito mais visualizações do que verificações de fatos

Na noite de 17 de outubro, o usuário do X @MichalSabra postou um vídeo alegando retratar um cântico de estudantes pró-Palestina protestando na UPenn com a frase “Queremos o genocídio judeu”.

No entanto, os usuários que assistiram ao vídeo puderam ouvir que isso era falso. Os manifestantes estavam cantando “Nós os acusamos de genocídio”, um slogan acusatório. A ADL também confirmou isso em sua própria refutação da afirmação.

Quando o ENBLE começou a rastrear a postagem, ela já havia recebido mais de meio milhão de visualizações em 12 horas. Quase 20 horas depois, as duas Notas da Comunidade que posteriormente seriam aprovadas foram enviadas para serem classificadas, o que significa que elas eram visíveis apenas para membros do programa Notas da Comunidade — não para a base de usuários da plataforma em geral.

Em 19 de outubro, dois dias depois que @MichalSabra postou a informação falsa, o ENBLE recebeu uma notificação do X informando que a Nota da Comunidade havia sido aprovada no post e havia sido vista 100.000 vezes.

Até 28 de novembro, o post de @MichalSabra não foi excluído. Ele acumulou 3,9 milhões de visualizações. As duas Notas da Comunidade que foram aprovadas para aparecer no post têm apenas um total de 185.000 visualizações. A Nota da Comunidade foi vista apenas por 4,7% dos usuários que viram a desinformação original.

Notas da Comunidade no post de @MichalSabra.

Além disso, de acordo com o X, essas duas Notas da Comunidade também aparecem em outros 22 posts contendo o vídeo de @MichalSabra, e as visualizações desses posts são incluídas nas métricas cumulativas das Notas da Comunidade também.

Notas da Comunidade desaparecendo

O usuário do X @elikowaz publicou um post em 18 de novembro retratando um “Eu amo o Hamas” que alegadamente foi impresso e colado pelo Social Justice Centre da University of British Columbia no campus da faculdade.

Horas após o post, o UBC Social Justice Centre negou as acusações. Mais tarde, a Hillel BC compartilhou que uma terceira parte associada à organização judaica do campus universitário era de fato responsável pelos adesivos.

Quando o ENBLE começou a monitorar esse post em 20 de novembro, ele tinha mais de 600.000 visualizações. A Nota da Comunidade aprovada contendo a verificação de fatos tinha pouco mais de 25.000 visualizações.

Até 28 de novembro, o post de @elikowaz continua, agora com um milhão de visualizações. No entanto, o ENBLE notou que, mesmo após a aprovação da Nota da Comunidade, o post original contendo a desinformação continuou acumulando mais visualizações do que a verificação de fatos.

Em uma semana, o post de @elikowaz com a Nota da Comunidade anexada obteve cerca de 400.000 visualizações adicionais. Isso significa que, se as Notas da Comunidade funcionassem como pretendido, a verificação de fatos teria cerca de 425.000 visualizações — ou um pouco menos da metade das visualizações no post em que está anexada.

Em vez disso, a Nota da Comunidade tem apenas 143.000 visualizações.

Post de @elikowaz com uma Nota da Comunidade

O que aconteceu? Parece que a Nota da Comunidade não sempre aparecia fixada ao post, mesmo depois que a nota fosse aprovada. A ENBLE notou esse mesmo problema em outros posts que estava monitorando. Às vezes, uma nota perdia sua aprovação e era rebaixada a um status de classificação, o que significa que apenas os membros do programa de Notas da Comunidade podiam ver o post. Outras vezes, a nota desaparecia completamente e não era mais visível em um post, nem mesmo pelos membros do programa de Notas da Comunidade.

Métricas das próprias Notas da Comunidade da X levantam questões

A X tem se vangloriado do número de visualizações que as Notas da Comunidade recebem na plataforma várias vezes. Em 14 de outubro, a X afirmou que as Notas da Comunidade estavam “gerando mais de 85 milhões de impressões na última semana” após o ataque do Hamas em 7 de outubro. Dez dias depois, em um comunicado de imprensa enviado à ENBLE, a X disse que as Notas da Comunidade foram vistas “muito além de 100 milhões de vezes” nas últimas duas semanas. Depois, em 14 de novembro, a X publicou uma postagem no blog afirmando que “as notas foram visualizadas muito além de cem milhões de vezes” no “primeiro mês do conflito.”

Pelas próprias métricas da X, a menos que o tráfego para a plataforma e o número de posts sendo feitos também estejam caindo, parece que as visualizações nas Notas da Comunidade estão em tendência de queda.

Além disso, com base na viralidade de muitos dos posts que disseminam desinformação que a ENBLE analisou, 100 milhões de visualizações no total das Notas da Comunidade é um número extremamente pequeno.

Por exemplo, em 9 de novembro, o usuário @Partisangirl da X postou um vídeo afirmando que mostrava helicópteros israelenses atirando em seus próprios cidadãos no festival de música Supernova em 7 de outubro. A afirmação foi desmentida, pois o vídeo mostrava os helicópteros israelenses atacando o Hamas em um local separado.

No entanto, o post de @Partisangirl com a afirmação falsa obteve impressionantes 30 milhões de visualizações até 29 de novembro. É um único post da X com 20 dias de idade e cerca de 30% das visualizações que a totalidade das Notas da Comunidade obteve em um mês.

Post de @Partisangirl

Uma Nota da Comunidade foi eventualmente colocada no post de @Partisangirl. A nota tem apenas cerca de 244.200 visualizações ou aproximadamente 0,8% das visualizações que o post original recebeu. A desinformação foi visualizada 123 vezes mais do que a verificação de fatos.

Nota da Comunidade no post de @Partisangirl

Notas da Comunidade não sendo vistas pela maioria dos usuários

Embora o post de @Partisangirl seja um dos exemplos mais extremos, a ENBLE descobriu que, na maioria dos casos que observamos, havia uma grande disparidade entre o número de visualizações em um post e o número de visualizações na Nota da Comunidade anexada ao mesmo post.

Um post de 19 de outubro do usuário desinformador regular da X, @DrLoupis, atribuiu uma declaração falsa ao presidente da Turquia, Erdoğan, dizendo que o país interv@DrLoupis post

Em outro post de @DrLoupis publicado em 26 de novembro, o usuário falsamente retrata uma foto de uma criança em Gaza como um menino israelense. Em três dias, esse post falso acumulou 6,3 milhões de visualizações. A Nota da Comunidade aprovada só foi enviada quase 27 horas depois. Comparado às 6,3 milhões de visualizações que o post possui, a Nota da Comunidade anexada possui apenas pouco mais de 111.000 visualizações. A desinformação tem 57 vezes mais visualizações do que a verificação de fatos.

Outro grande disseminador de desinformação em X, @dom_lucre, publicou um post em 23 de outubro afirmando que tropas americanas foram atacadas na Síria com uma imagem que retrata uma explosão. A imagem era na verdade uma foto editada que retrata um ataque aéreo israelense em Gaza em 2018. A desinformação de @dom_lucre recebeu quase 800.000 visualizações, ou cerca de 10 vezes mais visualizações do que a verificação de fatos da Nota da Comunidade, que recebeu apenas 82.400 visualizações.

Usuários verificados são grandes disseminadores de desinformação

Cada conta mencionada até agora neste artigo – @MichalSabra, @elikowaz, @Partisangirl, @DrLoupis e @dom_lucre – é uma assinante do serviço de verificação pago da X, X Premium, anteriormente conhecido como Twitter Blue.

ENBLE não tinha como objetivo direcionar esses usuários. As postagens que rastreamos estavam entre as mais virais da plataforma. Algumas foram descobertas por meio do recurso de pesquisa da X. Outras foram encontradas por meio da conta oficial da X, @HelpfulNotes, que compartilha postagens que recebem uma Nota da Comunidade. No entanto, X dá aos assinantes do X Premium e um impulso algorítmico, o que ajuda suas postagens a se disseminarem por toda a plataforma.

Por exemplo, o usuário da X @jacksonhinklle se tornou uma das figuras mais influentes na plataforma desde 7 de outubro, ganhando milhões de seguidores em apenas algumas semanas. Ele também é assinante do X Premium e regular disseminador de desinformação.

@jacksonhinklle's post

Em 8 de novembro, @jacksonhinklle postou que o atirador israelense Barib Yariel foi morto pelo Hamas. O post recebeu 6,4 milhões de visualizações. No entanto, Barib Yariel não existe. Quatro Notas da Comunidade separadas foram aprovadas no post, sendo que a primeira foi enviada 10 horas depois do post de @jacksonhinklle. As quatro Notas da Comunidade juntas receberam cerca de 639.300 visualizações, ou menos de 10% das visualizações recebidas pelo post de @jacksonhinklle.

Muitos assinantes do X Premium, incluindo alguns dos indivíduos mencionados neste relatório, são monetizados na plataforma. Isso significa que a empresa de Musk paga esses indivíduos com base no número de outros assinantes que visualizam anúncios colocados em suas postagens. No entanto, em 30 de outubro, Musk anunciou que a política estava mudando e postagens que recebessem uma Nota da Comunidade não eram mais elegíveis para o programa de compartilhamento de receita com anúncios. No entanto, conforme descoberto pelo Newsguard em uma análise realizada semanas após o anúncio de Musk, anúncios de grandes marcas como Microsoft, Pizza Hut e Airbnb ainda estavam aparecendo em postagens que continham desinformações sobre Israel e Palestina.

Embora esta investigação tenha se concentrado principalmente em desinformação sobre Israel e Gaza, a ENBLE monitorou outras postagens e encontrou os mesmos problemas em postagens sobre vários assuntos e tópicos. Por exemplo, o usuário verificado X @LaurenWitzkeDE postou um vídeo de um “drumstick cultivado em laboratório” se movendo e tremendo em uma mesa. @LaurenWitzkeDE afirmou que isso era um exemplo da “carne misteriosa cultivada em laboratório de Bill Gates”. No entanto, o vídeo não retratava um pedaço real de frango e era na verdade uma obra de arte criada por um artista no TikTok. A postagem original de @LaurenWitzkeDE recebeu 1,6 milhão de visualizações. A Nota da Comunidade com a verificação de fatos obteve pouco mais de 203.000 visualizações.

A ENBLE monitorou 50 postagens nos últimos dois meses, excluímos algumas de nossa investigação após a remoção ou desaparecimento da Nota da Comunidade. Apenas três postagens que rastreamos tinham Notas da Comunidade com aproximadamente metade das visualizações da postagem que continha a falsidade – duas das quais continham a mesma mídia manipulada.

Muitas vezes, a desinformação sobre X se espalha sem nenhuma Nota da Comunidade. Ou em outro cenário comum, uma Nota da Comunidade é aprovada, mas depois removida da postagem. Das postagens que recebem uma Nota da Comunidade e essa nota permanece fixada na postagem, a falsidade na postagem geralmente é vista cerca de 5 a 10 vezes mais do que a verificação de fatos. E às vezes, como mencionado nos exemplos citados, essa disparidade é ainda maior.