Um memorando vazado mostra que o TikTok sabe que tem um problema trabalhista

TikTok memo leak reveals labor issue awareness

No mês passado, um tribunal no Quênia emitiu uma decisão histórica contra a Meta, proprietária do Facebook e Instagram. O gigante de tecnologia dos EUA foi considerado, pelo tribunal, o “verdadeiro empregador” das centenas de pessoas empregadas em Nairóbi como moderadores em suas plataformas, vasculhando postagens e imagens para filtrar violência, discurso de ódio e outros conteúdos chocantes. Isso significa que a Meta pode ser processada no Quênia por violações dos direitos trabalhistas, mesmo que os moderadores sejam tecnicamente empregados por um contratante terceirizado.

O gigante das redes sociais TikTok estava acompanhando de perto o caso. A empresa também usa moderadores terceirizados no Quênia e em outros países do sul global, por meio de um contrato com a Majorel, sediada em Luxemburgo. Documentos vazados obtidos pela ONG Foxglove Legal, vistos pela WIRED, mostram que o TikTok está preocupado que possa ser o próximo na linha de possíveis litígios.

“O TikTok provavelmente enfrentará riscos reputacionais e regulatórios devido à sua relação contratual com a Majorel no Quênia”, diz o memorando. Se os tribunais quenianos decidirem a favor dos moderadores, o memorando adverte que “o TikTok e seus concorrentes podem enfrentar escrutínio por violações reais ou percebidas dos direitos trabalhistas”.

A decisão contra a Meta veio depois que a empresa de tecnologia tentou fazer com que o tribunal rejeitasse um caso movido contra ela e sua parceira contratada, a Sama, pelo moderador sul-africano Daniel Motaung, que foi demitido após tentar formar um sindicato em 2019.

Motaung disse que o trabalho, que envolvia assistir a horas de conteúdo violento, gráfico ou traumatizante diariamente, deixou-o com transtorno de estresse pós-traumático. Ele também alegou que não havia sido totalmente informado sobre a natureza do trabalho antes de se mudar da África do Sul para o Quênia para iniciar o emprego. Motaung acusa a Meta e a Sama de várias violações da legislação trabalhista queniana, incluindo tráfico de pessoas e repressão sindical. Se o caso de Motaung for bem-sucedido, poderá permitir que outras grandes empresas de tecnologia que terceirizam para o Quênia sejam responsabilizadas pela forma como os funcionários lá são tratados e forneçam um quadro para casos semelhantes em outros países.

“[O TikTok] o vê como uma ameaça à reputação”, diz Cori Crider, diretora da Foxglove Legal. “O fato de eles estarem explorando pessoas é uma ameaça à reputação”.

O TikTok não respondeu a um pedido de comentário.

Em janeiro, à medida que o processo de Motaung avançava, a Meta tentou romper os laços com a Sama e transferir suas operações de terceirização para a Majorel, parceira do TikTok.

No processo, 260 moderadores da Sama eram esperados para perder seus empregos. Em março, um juiz emitiu uma liminar impedindo a Meta de rescindir seu contrato com a Sama e transferi-lo para a Majorel até que o tribunal pudesse determinar se as demissões violavam as leis trabalhistas quenianas. Em uma ação separada, moderadores da Sama, alguns dos quais falaram com a WIRED no início deste ano, alegaram que a Majorel os colocou em uma lista negra para se candidatarem aos novos empregos de moderador da Meta, em retaliação por tentarem buscar melhores condições de trabalho na Sama. Em maio, 150 moderadores terceirizados que trabalham para o TikTok, ChatGPT e Meta por meio de empresas terceirizadas votaram para formar e registrar a União dos Moderadores de Conteúdo Africano.

A Majorel se recusou a comentar.

Os documentos do TikTok mostram que a empresa está considerando uma auditoria independente do local da Majorel no Quênia. A Majorel possui locais em todo o mundo, incluindo Marrocos, onde seus moderadores trabalham para a Meta e o TikTok. Tal exercício, que muitas vezes envolve a contratação de um escritório de advocacia externo ou consultoria para conduzir entrevistas e fornecer uma avaliação formal com base em critérios como leis trabalhistas locais ou padrões internacionais de direitos humanos, “pode mitigar escrutínios adicionais de representantes sindicais e mídia”, disse o memorando.

Paul Barrett, diretor adjunto do Centro de Negócios e Direitos Humanos da Universidade de Nova York, diz que essas auditorias podem ser uma maneira para as empresas parecerem estar tomando medidas para melhorar as condições em sua cadeia de suprimentos, sem ter que fazer as mudanças drásticas necessárias.

“Houve casos em várias indústrias em que as auditorias foram em grande parte performáticas, apenas um pouco de teatro para dar a uma empresa global uma estrela dourada para que possam dizer que estão cumprindo todas as normas relevantes”, diz ele, observando que é difícil dizer antecipadamente se uma potencial auditoria das operações de moderação do TikTok seria igualmente superficial.

A Meta realizou várias auditorias, incluindo em 2018, contratando consultores da Business for Social Responsibility para avaliar seu impacto em direitos humanos em Mianmar após um genocídio que investigadores da ONU alegaram ter sido parcialmente alimentado por discurso de ódio no Facebook. No ano passado, a Meta divulgou seu primeiro relatório de direitos humanos. No entanto, a empresa repetidamente adiou a divulgação da cópia completa e não editada de seu relatório de impacto em direitos humanos na Índia, encomendado em 2019, após pressão de grupos de direitos que a acusaram de contribuir para a erosão das liberdades civis no país.

O memorando do TikTok não diz nada sobre como a empresa pode usar essa avaliação para ajudar a orientar melhorias nas condições materiais de seus trabalhadores terceirizados. “Você perceberá que as recomendações não estão dizendo de repente que eles deveriam apenas dar acesso às pessoas a psiquiatras, ou permitir que elas optem por não ver o conteúdo tóxico e pré-selecioná-las de maneira muito cuidadosa, ou pagá-las de forma mais igual que reconheça os perigos inerentes do trabalho”, diz Crider. “Acho que é sobre o desempenho de fazer algo.”

Barrett diz que há uma oportunidade para o TikTok abordar a questão de maneira mais pró-ativa do que seus predecessores. “Acho que seria muito infeliz se o TikTok dissesse: ‘Vamos tentar minimizar a responsabilidade, minimizar nossa responsabilidade e não apenas terceirizar esse trabalho, mas terceirizar nossa responsabilidade de garantir que o trabalho realizado em nome de nossa plataforma seja feito de maneira apropriada e humana'”.