O Instagram Reels supostamente mostra conteúdo sexual para usuários que apenas seguem crianças

O Instagram Reels supostamente expõe conteúdo sexual para usuários que seguem apenas crianças

Foi um período difícil para a Meta. Primeiro, a gigante da tecnologia foi acusada de deliberadamente direcionar crianças menores de 13 anos para usar suas plataformas. Em seguida, parecia estar rejeitando anúncios de produtos para cuidados menstruais sob o argumento de que eram “adultos” e “políticos”. Agora está enfrentando alegações de que o algoritmo do Instagram Reels entrega conteúdo abertamente sexual para contas que apenas seguem crianças, além de exibir anúncios de grandes marcas ao lado deles. No geral, não é uma boa imagem.

Em um novo relatório do The Wall Street Journal, a publicação testou o algoritmo do Instagram criando contas que apenas seguiam “jovens ginastas, líderes de torcida e outros influenciadores adolescentes e pré-adolescentes” — conteúdo envolvendo crianças e sem nenhuma conotação sexual. Mesmo assim, o experimento do Journal constatou que o concorrente do TikTok da Meta recomendou, posteriormente, conteúdo sexual para suas contas de teste, incluindo vídeos adultos provocantes e “imagens atrevidas de crianças”.

O Journal também descobriu que usuários crianças, como aqueles seguidos pelas contas de teste, eram frequentemente seguidos por contas de homens adultos. Seguir tais contas parecia fazer o algoritmo do Instagram exibir “conteúdo mais perturbador”.

Tudo isso já é ruim o suficiente, mas fica ainda pior para a Meta. O relatório também descobriu que o Instagram Reels exibia anúncios de empresas como Disney, Walmart, Pizza Hut, Bumble, Match Group e até mesmo o próprio Journal, junto com esse conteúdo sexual enviado pelo algoritmo, sem solicitação.

Em resposta, as empresas de aplicativos de namoro Bumble e Match Group suspenderam a veiculação de anúncios no Instagram, por discordar de seus anúncios serem exibidos junto a conteúdo inadequado.

De acordo com Samantha Stetson, da Meta, os resultados dos testes do Journal são “baseados em uma experiência fabricada que não representa o que bilhões de pessoas em todo o mundo veem”. O vice-presidente do Conselho de Clientes e Relações Comerciais da Meta afirmou que mais de quatro milhões de Reels são removidos todos os meses por violações a suas políticas. Um porta-voz da Meta também observou que as instâncias de conteúdo que violam suas políticas são relativamente baixas.

“Não queremos esse tipo de conteúdo em nossas plataformas e as marcas não querem que seus anúncios apareçam ao lado dele. Continuamos a investir agressivamente para impedir isso — e relatar trimestralmente a prevalência de tal conteúdo, que continua sendo muito baixa”, disse Stetson em declaração à ENBLE. “Nossos sistemas são eficazes na redução de conteúdo prejudicial, e investimos bilhões em soluções de segurança e adequação de marca.”

No início deste ano, a Meta lançou uma ferramenta de IA projetada para determinar se o conteúdo atende às suas políticas de monetização, classificando-o em categorias de adequação e desativando anúncios se eles estiverem fora de todas elas. Essa ferramenta foi expandida para os Reels em outubro.

Tem sido um período difícil para as marcas que tentam anunciar nas redes sociais. No início deste mês, grandes anunciantes como Apple e IBM abandonaram o Twitter/X depois que o proprietário Elon Musk expressou apoio a uma conspiração antissemita, e um relatório da Media Matters descobriu que ele exibiu anúncios ao lado de conteúdo nazista.

O Twitter e o X fizeram o mesmo argumento que o Meta está colocando agora, ou seja, que os testes que resultaram em conteúdo inadequado sendo exibido ao lado de anunciantes foram “fabricados”. No entanto, assim como no caso do Twitter/X, a questão é menos sobre quantas pessoas viram ou como ocorreu, e mais sobre isso poder acontecer de qualquer maneira.

Os Reels do Instagram também diferem do problema do Twitter/X no sentido de que, enquanto o teste do Media Matters fez com que ele seguisse contas que postavam “conteúdo extremo de margem”, o Journal apenas seguiu jovens atletas e influenciadores. O conteúdo sexual oferecido parecia ser totalmente devido às inferências feitas pelo algoritmo do Instagram.

Portanto, parece que o referido algoritmo poderia passar por alguns ajustes significativos.