As falhas de moderação do Meta incitam ao ódio e abusos aos direitos humanos, de acordo com a Anistia Internacional

As deficiências na moderação do Meta incentivam o ódio e os abusos dos direitos humanos, aponta a Anistia Internacional

Meta e sua plataforma Facebook estão enfrentando chamadas contínuas por responsabilidade e reparações após acusações de que suas plataformas podem exacerbar conflitos globais violentos.

O mais recente esforço vem na forma de um novo relatório da organização de direitos humanos Anistia Internacional, que investigou as políticas de moderação de conteúdo do Meta durante o início de um conflito em andamento na região de Tigray, na Etiópia, e a falha da empresa em responder aos atores da sociedade civil que pediam ação antes e durante o conflito.

Lançado em 30 de outubro, o relatório – intitulado “Uma Sentença de Morte Para o Meu Pai”: Contribuição do Meta para Abusos aos Direitos Humanos no Norte da Etiópia – foca nos mecanismos de mídia social por trás do conflito civil armado etíope e da limpeza étnica que eclodiu na parte norte do país em novembro de 2020. Mais de 600.000 civis foram mortos pelas forças em confronto alinhadas com o governo federal da Etiópia e aquelas alinhadas com os governos regionais. A guerra civil se espalhou posteriormente para as regiões vizinhas de Amhara e Afar, durante as quais a Anistia Internacional e outras organizações documentaram crimes de guerra, crimes contra a humanidade e o deslocamento de milhares de etíopes.

“Durante o conflito, o Facebook (propriedade do Meta) na Etiópia se inundou de conteúdo incitando violência e promovendo ódio”, escreve a Anistia Internacional. “O conteúdo com alvo na comunidade tigrina era particularmente pronunciado, com o primeiro-ministro da Etiópia, Abiy Ahmed, ativistas pró-governo e páginas de notícias alinhadas ao governo postando conteúdo promovendo ódio que incitava violência e discriminação contra a comunidade tigrina.”

A organização argumenta que o “modelo de negócios baseado em vigilância” e o algoritmo do Meta, que “privilegiam o ‘envolvimento’ a todo custo” e dependem da coleta, análise e lucro dos dados das pessoas, levaram à rápida disseminação de postagens cheias de ódio. Um relatório recente da Comissão Internacional de Direitos Humanos nomeada pelas Nações Unidas sobre a Etiópia (ICHREE) também observou a prevalência de discursos de ódio online que alimentaram tensões e violência.

A Anistia Internacional fez acusações semelhantes contra a empresa por seu papel nos ataques direcionados, assassinatos e deslocamentos da comunidade Rohingya em Mianmar, e afirma que entidades corporativas como o Meta têm a obrigação legal de proteger os direitos humanos e exercer a devida diligência sob o direito internacional.

Em 2022, vítimas da guerra etíope entraram com um processo contra o Meta por seu papel em permitir que postagens inflamatórias permanecessem em sua plataforma social durante o conflito ativo, com base em uma investigação do Bureau de Jornalismo Investigativo e do Observer. Os peticionários alegam que os sistemas de recomendações do Facebook amplificaram postagens cheias de ódio e violência e permitiram que os usuários publicassem conteúdo incitando violência, apesar de estarem cientes de que isso estava alimentando tensões regionais. Alguns também alegam que essas postagens levaram ao direcionamento e morte direta de indivíduos.

Protocolado no Quênia, onde estão localizadas as operações sub-saarianas do Meta, o processo é apoiado pela Anistia Internacional e outras seis organizações, e exige que a empresa estabeleça um fundo de US$ 1,3 bilhão (ou 200 bilhões de xelins quenianos) para compensar as vítimas de ódio e violência no Facebook.

Além do fundo de reparações, a Anistia Internacional também pede ao Meta que expanda suas capacidades de moderação de conteúdo e linguagem na Etiópia, além de um reconhecimento público e um pedido de desculpas por contribuir para violações dos direitos humanos durante a guerra, conforme descrito em seu relatório recente.

As recomendações mais amplas da organização também incluem a incorporação de avaliações de impacto nos direitos humanos no desenvolvimento de novos algoritmos e IA, um investimento em recursos de idiomas locais para comunidades globais em risco e a introdução de mais “medidas de atrito” – ou design de sites que tornam mais difícil o compartilhamento de conteúdo, como limites de compartilhamento, encaminhamento de mensagens e tamanho de grupos.

O Meta já enfrentou críticas por permitir o discurso de ódio, desinformação e informações falsas em suas plataformas baseadas em algoritmos, mais notadamente durante as eleições presidenciais dos EUA em 2016 e 2020. Em 2022, a empresa estabeleceu um Centro de Operações Especiais para combater a propagação de desinformação, remover discurso de ódio e bloquear conteúdo que incitasse a violência em suas plataformas durante a invasão russa da Ucrânia. Já implantou outras ferramentas de privacidade e segurança em regiões de conflito anteriormente, incluindo uma ferramenta de bloqueio de perfil para usuários no Afeganistão lançada em 2021.

Além disso, a empresa recentemente tem sido criticada por moderar excessivamente, ou “banimento nas sombras”, contas que compartilham informações durante a crise humanitária em Gaza, bem como promover estereótipos prejudiciais dos palestinos por meio de traduções imprecisas.

Em meio a conflitos contínuos ao redor do mundo, incluindo a violência contínua na Etiópia, defensores dos direitos humanos querem ver as empresas de tecnologia fazendo mais para lidar com a rápida disseminação de postagens cheias de ódio e desinformação.

“O desenvolvimento não regulamentado da Big Tech resultou em graves consequências para os direitos humanos ao redor do mundo”, escreve a Anistia Internacional. “Não há dúvida de que os algoritmos do Meta são capazes de prejudicar sociedades em todo o mundo, promovendo conteúdo que incentiva o ódio e que incita violência e discriminação, afetando de forma desproporcional comunidades já marginalizadas”.