ChatGPT pode moderar conteúdo ilegal em sites como o Facebook | ENBLE

ChatGPT moderates illegal content on sites like Facebook | ENBLE

O GPT-4 – o grande modelo de linguagem (LLM) que alimenta o ChatGPT Plus – em breve poderá assumir um novo papel como moderador online, policiando fóruns e redes sociais em busca de conteúdo nefasto que não deve ver a luz do dia. Isso é de acordo com uma nova postagem no blog do desenvolvedor do ChatGPT, OpenAI, que afirma que isso poderia oferecer “uma visão mais positiva do futuro das plataformas digitais”.

Ao recrutar inteligência artificial (IA) em vez de moderadores humanos, a OpenAI afirma que o GPT-4 pode implementar “iterações muito mais rápidas nas mudanças de políticas, reduzindo o ciclo de meses para horas”. Além disso, “o GPT-4 também é capaz de interpretar regras e nuances em documentação de política de conteúdo longa e se adaptar instantaneamente às atualizações de política, resultando em uma rotulagem mais consistente”, afirma a OpenAI.

Rolf van Root / Unsplash

Por exemplo, a postagem no blog explica que as equipes de moderação poderiam atribuir rótulos ao conteúdo para explicar se ele está dentro ou fora das regras de uma determinada plataforma. O GPT-4 poderia então usar o mesmo conjunto de dados e atribuir seus próprios rótulos, sem saber as respostas antecipadamente.

Os moderadores poderiam então comparar os dois conjuntos de rótulos e usar quaisquer discrepâncias para reduzir a confusão e adicionar esclarecimentos às suas regras. Em outras palavras, o GPT-4 poderia agir como um usuário comum e avaliar se as regras fazem sentido.

O impacto humano

OpenAI

No momento, a moderação de conteúdo em vários sites é realizada por seres humanos, o que os expõe regularmente a conteúdo potencialmente ilegal, violento ou prejudicial. Já vimos repetidamente o terrível impacto que a moderação de conteúdo pode ter sobre as pessoas, com o Facebook pagando US$ 52 milhões a moderadores que sofreram de transtorno de estresse pós-traumático devido aos traumas de seu trabalho.

Reduzir o fardo dos moderadores humanos poderia ajudar a melhorar suas condições de trabalho, e, como as IAs como o GPT-4 são imunes ao tipo de estresse mental que os humanos sentem ao lidar com conteúdo problemático, elas poderiam ser implantadas sem preocupação com esgotamento e transtorno de estresse pós-traumático.

No entanto, isso levanta a questão de se o uso de IA dessa maneira resultaria em perda de empregos. A moderação de conteúdo nem sempre é um trabalho divertido, mas ainda é um trabalho, e se o GPT-4 substituir os humanos nessa área, é provável que haja preocupação de que os antigos moderadores de conteúdo simplesmente se tornem redundantes em vez de serem realocados para outras funções.

A OpenAI não menciona essa possibilidade em seu post no blog, e isso realmente é algo para as plataformas de conteúdo decidirem. Mas isso pode não fazer muito para acalmar os temores de que a IA seja implantada por grandes empresas simplesmente como uma medida de economia de custos, com pouca preocupação com as consequências.

Ainda assim, se a IA puder reduzir ou eliminar a devastação mental enfrentada pelas equipes sobrecarregadas e subvalorizadas que moderam o conteúdo nos sites usados por bilhões de pessoas todos os dias, pode haver algo de bom nisso. Resta saber se isso será temperado por redundâncias igualmente devastadoras.