Aviso aos pais Este Chatbot pode falar com seu filho sobre sexo e álcool

Aviso aos pais Este Chatbot pode conversar com o seu filho sobre sexo e consumo de álcool

Ser pai em 2023 requer conversar com seus filhos não apenas sobre os perigos da internet e das redes sociais, mas também sobre a inteligência artificial que está se espalhando rapidamente para quase todos os aplicativos ou serviços online. A Common Sense Media, uma organização sem fins lucrativos que classifica filmes e outros meios de comunicação para os pais, está tentando ajudar as famílias a se adaptarem à era da IA. Hoje, ela lançou sua primeira análise e classificação de ferramentas de IA, incluindo o ChatGPT da OpenAI e o chatbot My AI do Snapchat.

O My AI recebeu uma das pontuações mais baixas entre os 10 sistemas abordados no relatório da Common Sense, que alerta que o chatbot está disposto a conversar com adolescentes sobre sexo e álcool e que ele distorce a publicidade direcionada do Snapchat. A Common Sense conclui que existem “mais desvantagens do que benefícios” no uso do My AI.

O Washington Post já havia relatado resultados semelhantes à Common Sense ao testar o My AI do Snapchat no início deste ano. Em declaração enviada por Maggie Cherneff, em nome do proprietário do Snapchat, a Snap, foi afirmado que o chatbot é uma ferramenta opcional projetada com segurança e privacidade em mente, e que os pais podem verificar se e quando os adolescentes o utilizam pelo Family Center do aplicativo.

As avaliações dos serviços de IA da Common Sense foram realizadas por especialistas, incluindo Michael Preston, diretor de um laboratório de inovação e pesquisa da Sesame Workshop, produtora do programa Sesame Street; Margaret Mitchell, pesquisadora da startup Hugging Face, que anteriormente trabalhou no Google liderando pesquisas de ética em IA; e Tracy Pizzo Frey, que anteriormente trabalhou com IA responsável na Google Cloud.

Os revisores atribuíram a cada ferramenta de IA uma classificação geral de uma a cinco estrelas e uma classificação separada de privacidade, e relataram como o ChatGPT e outros se saíram em relação a um conjunto de princípios de IA para serviços destinados a crianças e famílias apresentados pela Common Sense Media em setembro. Os princípios incluem promover o aprendizado e manter as crianças e os adolescentes em segurança.


  • Classificações de segurança infantil para introdução de IA Desenho para o palco Por 20 anos, a organização sem fins lucrativos Common Sense Media classificou a compatibilidade de...
  • Função de classificação de IA do Snap AI 'Amigo virtual' incorporado no Snapchat Classificação segundo a lista de Common Sense 25 Pontuação de privacidade 64 Política de idade 13 apenas...
  • Classificação do ChatGPT Função 'amigo virtual' incorporada no Snapchat Classificação segundo a lista de Common Sense 35 Pontuação de privacidade 48 Política de idade 13 apenas...
Gráfico: Equipe ENBLE; Fonte: Common Sense Media

As classificações mais altas foram dadas aos serviços de IA para educação, como o Ello, que usa reconhecimento de fala para atuar como tutor de leitura, e o assistente de chatbot Khanmigo da Khan Academy para estudantes, que permite aos pais monitorar as interações de uma criança e recebe uma notificação se os algoritmos de moderação de conteúdo detectarem uma troca que viole as diretrizes da comunidade. O relatório credita a OpenAI, criadora do ChatGPT, por tornar o chatbot menos propenso a gerar textos potencialmente prejudiciais para crianças do que quando foi lançado no ano passado, e recomenda seu uso por educadores e estudantes mais velhos.

Além do My AI do Snapchat, os geradores de imagens Dall-E 2 da OpenAI e Stable Diffusion da startup Stability AI também obtiveram pontuações baixas. Os revisores da Common Sense alertaram que as imagens geradas podem reforçar estereótipos, espalhar deepfakes e frequentemente retratar mulheres e meninas de forma hipersexualizada.

Quando o Dall-E 2 é solicitado a gerar imagens fotorrealistas de pessoas de cor ricas, ele cria desenhos animados, imagens de baixa qualidade ou imagens associadas à pobreza, conforme constataram os revisores do Common Sense. O relatório adverte que o Stable Diffusion representa um risco incalculável para as crianças e conclui que os geradores de imagens têm o poder de “erodir a confiança ao ponto em que a democracia ou as instituições cívicas sejam incapazes de funcionar”.

“Eu acho que todos sofremos quando a democracia é erodida, mas os jovens são os maiores perdedores, porque eles vão herdar o sistema político e a democracia que temos,” diz o CEO do Common Sense, Jim Steyer. A organização sem fins lucrativos planeja realizar milhares de análises de IA nos próximos meses e anos.

O Common Sense Media divulgou suas classificações e análises logo após procuradores-gerais estaduais terem processado o Meta alegando que ele coloca crianças em perigo, e em um momento em que pais e professores estão começando a considerar o papel da IA generativa na educação. A ordem executiva do presidente Joe Biden emitida no mês passado exige que o secretário de educação emita orientações sobre o uso da tecnologia na educação dentro do próximo ano.

Susan Mongrain-Nock, mãe de dois filhos em San Diego, sabe que sua filha Lily, de 15 anos, usa o Snapchat e tem preocupações sobre ela ver conteúdo prejudicial. Ela tem tentado construir confiança conversando com sua filha sobre o que ela vê no Snapchat e no TikTok, mas diz que sabe pouco sobre como a inteligência artificial funciona e recebe de braços abertos novos recursos.

Falar com seu filho sobre como a IA, como o ChatGPT, funciona e suas limitações deve ajudar, diz Celeste Kidd, que dirige um laboratório de pesquisa em IA na UC Berkeley. Ela diz que os resultados de uma pesquisa realizada pelo Common Sense e divulgada em maio que descobriu que a maioria dos pais desconhece que seus filhos usam o ChatGPT são preocupantes. Isso sugere que a IA pode estar moldando os pontos de vista das crianças sem o conhecimento de seus pais.

Kidd está mais preocupada com os efeitos de longo prazo da IA geradora de imagens, como o Dall-E 2. “Se uma criança está gerando imagens de médicos e criminosos, e a IA está exagerando preconceitos e retratando estereótipos como eles fazem, isso vai influenciar muito mais as crianças do que os adultos,” ela diz.

Josh Golin, diretor executivo do Fair Play for Kids, uma organização de defesa que apoia legislação para proteger os jovens, como a Lei de Segurança Online para Crianças, diz que as novas classificações do Common Sense são um novo recurso bem-vindo para os pais. Mas ele diz que, no final das contas, são necessárias novas regulamentações para conter os riscos da IA. “Se há uma lição que aprendemos com a falta de regulamentação adequada das redes sociais é que os designers desses produtos colocarão a monetização acima do bem-estar da sociedade e das crianças,” diz Golin.