O Conselho de Fiscalização da Meta expandirá seu escopo para incluir Threads em moderação de conteúdo.

O Conselho de Supervisão revelou hoje que ampliará sua jurisdição para incluir Threads, além do Facebook e Instagram, para examinar as decisões do Meta sobre moderação de conteúdo.

“`html

O Conselho de Supervisão da Meta agora inclui Threads.

📢 Grandes novidades no mundo da moderação de conteúdo! O grupo consultivo externo da Meta, o Conselho de Supervisão, acaba de anunciar que está expandindo seu escopo para incluir Threads, juntamente com o Facebook e o Instagram. Isso significa que, se você não estiver satisfeito com as decisões da Meta sobre conteúdo ou problemas de exclusão de conta no Threads, agora pode recorrer ao Conselho de Supervisão. 🆘

“A expansão do Conselho para Threads se baseia em nossa fundação de ajudar a Meta a resolver as questões mais difíceis em torno da moderação de conteúdo. Ter responsabilidade independente desde cedo para um novo aplicativo como o Threads é de vital importância,” afirmou Helle Thorning-Schmidt, co-presidente do Conselho de Supervisão. 📝

Mas, espere um segundo, vamos mergulhar na história aqui. Em 2018, Mark Zuckerberg mencionou pela primeira vez a ideia de um conselho independente de supervisão. Em janeiro de 2020, o Facebook propôs os estatutos do conselho e anunciou o primeiro grupo de membros em maio. E em outubro de 2020, o conselho iniciou sua missão ao revisar casos. Avançando para 2021, o órgão observatório expandiu seu escopo para revisar a decisão da Meta de manter determinados conteúdos ativos. 🌍

Agora, não nos esqueçamos de alguns dos casos de alto perfil que este conselho enfrentou. O que mais se destaca é, sem dúvida, a crítica que o conselho fez ao Facebook por banir “indefinidamente” o ex-presidente Donald Trump. Embora o conselho tenha concordado que Trump quebrou as regras da plataforma, questionou a falta de especificações para um banimento indefinido. 🚫

Certo, agora vamos direcionar nosso foco para Threads. Desde o seu lançamento em julho do ano passado, os usuários levantaram preocupações sobre suas práticas de moderação. O Washington Post relatou em outubro que a plataforma estava bloqueando termos como “Covid” e “vacinas”, além de palavras como “gore”, “nude”, “sex” e “porn”. O chefe do Instagram, Adam Mosseri, mencionou que essa proibição era temporária, mas, surpreendentemente, ainda está em vigor. 😱

Threads implementou recentemente um programa de verificação de fatos, mas não vamos nos adiantar com nossa animação. Os rótulos que os usuários estão vendo em algumas postagens são na verdade porque correspondem às verificações de fatos existentes nas outras propriedades da Meta. Threads pretendia ter um programa de verificação de fatos separado, mas ainda está em desenvolvimento. 🤷‍♂️

Mosseri deixou claro que Threads não vai recomendar conteúdo político ou “amplificar notícias” na plataforma. No entanto, a função de tópicos em alta recém-lançada poderia apresentar conteúdo político, desde que esteja de acordo com a política da empresa. 🗞

Catalina Botero Marino, co-presidente do Conselho de Supervisão, destacou a crescente dificuldade da moderação de conteúdo devido a conflitos ao redor do mundo, eleições futuras e avanços na tecnologia de IA. Com todos esses desafios, o conselho está em uma missão de encontrar soluções que protejam a liberdade de expressão enquanto minimizam danos. Ele busca criar padrões que melhorem a experiência online para os usuários do Threads. 👩‍⚖️

Agora, vamos falar sobre o processo para recorrer das decisões da Meta sobre Threads através do Conselho de Supervisão. O usuário deve primeiro recorrer à Meta, e se ainda estiver insatisfeito com o veredicto em 15 dias, poderá então recorrer ao conselho. O conselho revisará o recurso em até 90 dias, a partir da data em que foi apresentado. Embora o conselho tenha enfrentado críticas no passado pela lentidão de suas respostas, não houve mudanças no processo para Threads no momento. 📅

Vale ressaltar que o conselho pode emitir recomendações e decisões. Embora as recomendações não sejam vinculativas, a Meta é obrigada a seguir as decisões do conselho. Então, há um poder real aí! 💪

A expansão do Conselho de Supervisão da Meta para incluir Threads é um passo significativo para garantir responsabilidade e transparência na moderação de conteúdo. Coloca a supervisão independente onde é mais necessária e proporciona uma plataforma para os usuários expressarem suas preocupações. Vamos ver como essa mudança se desenrola e esperamos por uma melhor experiência online para os usuários do Threads. 🙏

Perguntas e Respostas:

P: Como funciona o processo de recursos com Threads e o Conselho de Supervisão?

R: Para recorrer das decisões da Meta sobre Threads, os usuários devem primeiro recorrer diretamente à Meta. Se ainda estiverem insatisfeitos com o resultado, têm 15 dias para enviar um recurso ao Conselho de Supervisão. O conselho então revisará o recurso, juntamente com a resposta da Meta, em até 90 dias. É crucial seguir este processo para ter a chance de ter suas preocupações tratadas por um órgão independente.

“““html

Q: Pode o Meta ignorar as recomendações feitas pelo Conselho de Supervisão?

A: Embora as recomendações emitidas pelo Conselho de Supervisão não sejam legalmente vinculativas, o Meta é obrigado a considerá-las e a responder a elas. O objetivo do conselho é fornecer orientações independentes sobre decisões de moderação de conteúdo, e, embora o Meta mantenha a palavra final, as recomendações têm um peso significativo.

Q: Há planos para o Conselho de Supervisão expandir seu escopo para outros aplicativos ou plataformas?

A: O Conselho de Supervisão já expandiu seu escopo para incluir Threads, Facebook e Instagram. No entanto, não há informações oficiais sobre quaisquer planos futuros para uma expansão adicional. À medida que o cenário digital evolui, não seria surpreendente se o conselho considerasse ampliar sua atuação para abordar questões de moderação de conteúdo em outras plataformas.

Q: Como funciona o programa de verificação de fatos no Threads?

A: Atualmente, o Threads depende de verificações de fatos de outras propriedades do Meta para rotular postagens. A intenção era estabelecer um programa de verificação de fatos separado especificamente para o Threads, mas os detalhes e os verificadores de fatos participantes ainda não foram finalizados. Embora a implementação da verificação de fatos seja um passo na direção certa, a plataforma ainda está trabalhando para implementar completamente seu programa de verificação de fatos independente.

Perspectivas Futuras:

A expansão do Conselho de Supervisão do Meta para incluir o Threads destaca a crescente importância da moderação transparente de conteúdo em plataformas de mídia social. À medida que conflitos, eleições e avanços na tecnologia de IA continuam a moldar o espaço digital, encontrar soluções eficazes para a moderação de conteúdo torna-se cada vez mais crucial.

Esse movimento poderia abrir caminho para que outras plataformas e aplicativos adotem conselhos de supervisão semelhantes, fortalecendo a responsabilidade e promovendo experiências online mais justas. Equilibrar a liberdade de expressão com a necessidade de reduzir danos continuará sendo um desafio, mas com colaboração contínua e um compromisso com a inovação, tais conselhos podem ajudar a moldar um mundo digital mais responsável.

Referências:

  1. Morning After: Meta Oversight Board Says Manipulated Biden Video Can Stay on Facebook
  2. SpaceX wrongly fired eight activist employees, US labor board alleges
  3. Recent PC cases that make us excited for what’s next (Digital Trends)
  4. Meta to Restrict Teen Instagram and Facebook Accounts from Seeing Certain Content
  5. Federal Judge Rejects Comcast Claim that California’s Content Moderation Law Violates Free Speech (TechCrunch)

“`