A OpenAI está trabalhando em uma ferramenta para detectar imagens geradas por inteligência artificial do DALL-E 3

A OpenAI está desenvolvendo uma ferramenta para detectar imagens criadas pelo modelo de inteligência artificial DALL-E 3

A OpenAI está trabalhando em uma ferramenta para verificar imagens criadas pelo DALL-E 3, seu gerador de imagens de IA.

No evento Tech Live do The Wall Street Journal, ocorrido na terça-feira, a CTO da OpenAI, Mira Murati, disse que a empresa está desenvolvendo uma tecnologia para identificar se uma imagem foi criada pelo DALL-E 3. A ferramenta é “quase 99% confiável”, afirmou Murati durante a entrevista. No entanto, ela ainda está passando por testes internos. Murati não compartilhou detalhes sobre o lançamento dessa ferramenta, mas a página do DALL-E 3 no site da OpenAI disse que mais informações sobre a ferramenta, chamada de “classificador de origem”, serão divulgadas em breve.

O avanço das imagens geradas por IA tem aumentado as preocupações com a disseminação de desinformação e deepfakes. Ferramentas como o DALL-E 3 (disponível para usuários do ChatGPT Plus), Midjourney, Stable Diffusion, Adobe Firefly e o gerador de imagens de IA da Shutterstock – até mesmo chatbots gratuitos como Bing Image Creator e SGE do Google – são ou em breve serão capazes de criar imagens fotorealísticas convincentes. Empresas que oferecem essas ferramentas estão se protegendo contra comportamentos prejudiciais adicionando marcas d’água ou impedindo usuários de criar imagens com pessoas famosas ou usando informações pessoais identificáveis.

Atualmente, os deepfakes são tão realistas que sua propagação pode ter consequências reais. Uma imagem falsa do Pentágono em chamas causou um breve declínio no mercado de ações em maio passado. No início de outubro, o ator Tom Hanks postou no Instagram dizendo que não tinha nada a ver com um deepfake dele promovendo um plano dentário. O que antes era considerado um problema hipotético se tornou uma realidade, e precisamos das ferramentas e mecanismos de segurança para garantir que os deepfakes não se tornem uma grande ameaça.