Empresa de Moderação de Conteúdo Responsabilizada por Danos Psicológicos de Trabalhador Um Momento Decisivo na Indústria

Um tribunal espanhol considerou uma empresa sediada em Barcelona, que fornece serviços de moderação de conteúdo para o Facebook e Instagram como subcontratada da Meta, responsável por causar danos psicológicos a um de seus funcionários.

Autoridades espanholas estão pressionando o modelo de subcontratação de moderadores de conteúdo do Meta.

Em uma decisão inovadora de um tribunal na Espanha, uma empresa terceirizada sediada em Barcelona, que presta serviços de moderação de conteúdo para o Meta, empresa mãe do Facebook e do Instagram, foi considerada responsável por causar danos psicológicos a um de seus funcionários. Essa decisão judicial marca a primeira vez que uma empresa de moderação de conteúdo é responsabilizada pelos transtornos mentais sofridos por um funcionário.

De acordo com relatos da imprensa local, o caso foi movido por um trabalhador brasileiro de 26 anos que vem passando por tratamento psiquiátrico nos últimos cinco anos devido à exposição a conteúdo extremo e violento no Facebook e no Instagram. O conteúdo consistia em imagens perturbadoras como assassinatos, suicídios, terrorismo e tortura. Como resultado dessa exposição, o trabalhador desenvolveu uma série de problemas psicológicos, incluindo ataques de pânico, comportamentos de evitação, preocupação excessiva com doenças, distúrbios do sono, dificuldade em engolir e um medo significativo da morte.

O tribunal reconheceu que os problemas de saúde mental do trabalhador não eram uma doença comum, mas sim um resultado direto de seu trabalho. No entanto, a empresa terceirizada do Meta tentou se eximir de qualquer responsabilidade categorizando a condição do trabalhador como um problema pessoal. Já passou da hora de o Meta e outras plataformas de mídia social reconhecerem e abordarem a magnitude desse problema, em vez de negar sua existência. Somente quando eles confrontarem e aceitarem essa realidade horrível é que as coisas começarão a mudar.

A decisão do tribunal foi celebrada como uma grande vitória para os trabalhadores que sofrem problemas de saúde mental como consequência de seu trabalho. O escritório de advocacia que representa o trabalhador, Espacio Jurídico Feliu Fins, enfatizou a necessidade de o Meta e outras empresas reverem sua abordagem e estratégias em relação à moderação de conteúdo.

🔍 Perguntas e Respostas Relacionadas:

P: A terceirização da moderação de conteúdo é uma prática comum na indústria? R: Sim, a terceirização da moderação de conteúdo para subcontratados é uma prática comum na indústria. Esses subcontratados geralmente empregam trabalhadores mal remunerados que atuam como filtros humanos para conteúdo violento e perturbador.

P: Existem outros casos em que moderadores de conteúdo sofreram danos psicológicos? R: Sim, houve vários casos em que moderadores de conteúdo desenvolveram problemas de saúde mental devido à exposição a imagens violentas e gráficas. Por exemplo, o Meta chegou a um acordo de US$ 52 milhões em uma ação coletiva nos Estados Unidos em 2020, onde moderadores de conteúdo alegaram que seu trabalho causou transtorno de estresse pós-traumático.

P: Que medidas as empresas estão tomando para apoiar a saúde mental dos moderadores de conteúdo? R: Empresas como o Meta afirmam ter certas disposições para apoiar a saúde mental dos moderadores de conteúdo. Isso inclui suporte no local de trabalho por profissionais treinados, acesso a assistência médica privada desde o primeiro dia de trabalho e soluções técnicas para limitar a exposição a material gráfico.

A terceirização da moderação de conteúdo para empresas terceirizadas tem sido uma preocupação constante há anos. Histórias de trabalhadores mal remunerados expostos a conteúdo traumático levantaram questões éticas sobre a responsabilidade das plataformas de mídia social. Embora o Meta tenha se recusado a comentar a recente decisão judicial contra sua empresa terceirizada na Espanha, a empresa defendeu sua abordagem à moderação de conteúdo destacando o suporte e as ferramentas de triagem fornecidas aos subcontratados.

Entretanto, é importante considerar se a implementação de serviços de apoio e ferramentas de triagem pode ser comprometida por quotas rigorosas de produtividade impostas pelos subcontratados. Na prática, essas quotas podem dificultar para os moderadores de conteúdo o acesso a um suporte adequado ao mesmo tempo que atendem às exigências de seus empregadores.

Além disso, relatos de jornais sediados em Barcelona indicaram que uma porcentagem significativa de trabalhadores da empresa terceirizada do Meta, CCC Barcelona Digital Services, tirou licença por problemas de trauma psicológico causados pela revisão de conteúdo tóxico. Os trabalhadores criticaram o nível de suporte fornecido pelo empregador como insuficiente. Além disso, metas de desempenho rigorosas e trabalho por turnos podem contribuir ainda mais para o desenvolvimento de problemas de saúde mental entre moderadores de conteúdo.

🔍 Leitura Adicional:

  1. O Lado Sombrio da Moderação de Conteúdo: O Impacto na Saúde Mental dos Trabalhadores
  2. Gigantes das Redes Sociais e a Responsabilidade Moral da Moderação de Conteúdo
  3. Soluções de IA para Moderação de Conteúdo: Equilibrando Eficiência e Bem-estar Psicológico
  4. O Ônus Psicológico de Assistir à Violência nas Redes Sociais

É crucial que empresas como a Meta priorizem o bem-estar mental de seus moderadores de conteúdo e garantam um ambiente de trabalho de apoio e seguro. Decisões legais que impõem responsabilidades aos revisores de conteúdo de terceiros para proteger a saúde mental dos trabalhadores podem representar um ponto de virada na indústria. Embora a moderação de conteúdo continue sendo uma tarefa desafiadora, é fundamental priorizar a saúde e o bem-estar daqueles responsáveis por proteger os usuários de conteúdo prejudicial.

Em conclusão, a recente decisão judicial na Espanha destaca a necessidade das plataformas de mídia social reavaliarem suas estratégias e reconhecerem o impacto da moderação de conteúdo na saúde mental dos trabalhadores. A terceirização da moderação de conteúdo não deve ser em detrimento do bem-estar dos funcionários. Conforme a indústria avança, é crucial encontrar um equilíbrio entre proteger os usuários e garantir a segurança e a saúde mental dos moderadores de conteúdo.

💬 Leitores, qual é a sua opinião sobre as responsabilidades das empresas de mídia social em relação aos moderadores de conteúdo? Compartilhe suas opiniões abaixo! E não se esqueça de clicar no botão de compartilhamento para espalhar a conscientização sobre esse importante assunto.