WormGPT O que saber sobre o primo malicioso do ChatGPT

WormGPT Descubra tudo sobre o primo maligno do ChatGPT

redkeys-gettyimages-1563732897

Quando o ChatGPT foi disponibilizado ao público em 2022, o chatbot de IA causou furor no mundo.

O software é desenvolvido pela OpenAI, uma empresa de IA e pesquisa. O ChatGPT é uma ferramenta de processamento de linguagem natural capaz de responder perguntas e fornecer informações obtidas de conjuntos de dados. Ele se tornou uma ferramenta valiosa para coleta de informações, análise e tarefas de escrita on-the-fly para milhões de usuários em todo o mundo.

Recursos Especiais

Melhores Práticas de Cibersegurança para Proteger seus Ativos Digitais

Encare a realidade: seus dados pessoais e comerciais estão sob ameaça 24/7 – e proteger esses ativos digitais enquanto você compra, faz transações bancárias e joga online continua sendo a prioridade número um. Boas notícias: existem mais ferramentas e estratégias com foco em segurança disponíveis do que nunca. Os guias mais atualizados de cibersegurança da ENBLE oferecem dicas práticas para se manter seguro e produtivo hoje, diante do cenário de ameaças em constante evolução amanhã.

A primeira versão pública do ChatGPT tinha uma limitação significativa: ele não podia acessar a internet. No entanto, assinantes pagantes agora podem usar plug-ins de navegador para permitir que o chatbot acesse a web em tempo real e ele fornecerá links para as fontes usadas em suas respostas.

Embora alguns especialistas acreditem que a tecnologia possa alcançar um nível de disrupção na internet, outros observam que o ChatGPT demonstra ‘inexatidão confiante’. Um grande número de estudantes foi pego plagiando trabalhos acadêmicos usando essa ferramenta. A menos que os conjuntos de dados sejam verificados, ChatGPT e outros modelos de linguagem grandes (LLMs) podem se tornar disseminadores inadvertidos de desinformação e propaganda.

Também: Os melhores chatbots de IA

De fato, agora que o chatbot pode acessar a web, será interessante ver o impacto de longo prazo na validade de seus resultados e respostas.

Também existem preocupações regulatórias, com a FTC dos Estados Unidos investigando o manuseio de informações pessoais pela OpenAI e os dados usados para criar seu modelo de linguagem.

Também: A IA generativa vai muito além do que o ChatGPT pode fazer. Aqui está tudo sobre os avanços dessa tecnologia.

No entanto, além das preocupações com a proteção de dados, sempre que uma nova inovação tecnológica é feita, também são criados caminhos para o abuso. Era apenas uma questão de tempo antes que os chatbots de IA e os LLMs fossem utilizados para fins maliciosos – e algumas ferramentas já estão disponíveis no mercado, conhecidas como WormGPT e FraudGPT.

O que é o WormGPT?

Em 13 de julho, pesquisadores da empresa de cibersegurança SlashNext publicaram um post em seu blog revelando a descoberta do WormGPT, uma ferramenta sendo promovida para venda em um fórum de hackers.

De acordo com o usuário do fórum, o projeto WormGPT tem como objetivo ser uma “alternativa” blackhat para o ChatGPT, “uma que permite fazer todo tipo de atividade ilegal e vendê-la facilmente online no futuro.”

Também: Como encontrar e remover spyware do seu telefone

SlashNext ganhou acesso à ferramenta, descrita como um módulo de IA baseado no modelo de linguagem GPT-J. WormGPT supostamente foi treinado com fontes de dados, incluindo informações relacionadas a malware — mas os conjuntos de dados específicos são conhecidos apenas pelo autor do WormGPT.

Talvez seja possível para o WormGPT gerar código malicioso, por exemplo, ou emails convincentes de phishing.

Para o que o WormGPT está sendo usado?

O WormGPT é descrito como “similar ao ChatGPT, mas sem limites ou restrições éticas”.

O ChatGPT possui um conjunto de regras para tentar impedir que os usuários abusem do chatbot de forma antiética. Isso inclui recusar a realização de tarefas relacionadas à criminalidade e malware. No entanto, os usuários estão constantemente encontrando formas de burlar essas limitações com os estímulos corretos.

Também: A ética da IA generativa: como podemos aproveitar essa poderosa tecnologia

Os pesquisadores conseguiram usar o WormGPT para “gerar um email destinado a pressionar um gerente de conta desavisado a pagar uma fatura fraudulenta”. A equipe ficou surpresa com o quão bem o modelo de linguagem executou a tarefa, chamando o resultado de “notavelmente persuasivo [e] também estrategicamente astuto”.

Embora eles não tenham dito se usaram o serviço de escrita de malware, é plausível que o bot de IA possa fazê-lo — dado que as limitações do ChatGPT não existem.

O que o futuro reserva para o WormGPT?

De acordo com o especialista em segurança Brian Krebs, o WormGPT é criação do desenvolvedor português “Last”, que está na casa dos vinte anos. O sistema é — ou era — usado por aproximadamente 200 clientes, e devido ao interesse da mídia no chatbot, Last parecia estar tentando dar uma nova direção ao projeto.

Também: Segurança Cibernética 101: Tudo sobre como proteger sua privacidade e manter-se seguro online

Last disse que queria mudar a conversa de maliciosa para não-censurada e, para isso, estão sendo implementadas restrições no WormGPT. Last disse a Krebs:

“Qualquer coisa relacionada a assassinatos, tráfico de drogas, sequestro, pornografia infantil, ransomware, crimes financeiros. Estamos trabalhando para bloquear BEC também, no momento ainda é possível, mas na maioria das vezes será incompleto porque já adicionamos algumas limitações. Nosso plano é marcar o WormGPT como uma IA não-censurada, não blackhat”.

Também: Essa tentativa de golpe usando fatura de criptomoedas gerada por IA quase me pegou, e sou um profissional de segurança

No entanto, um dia depois da publicação do relatório, o canal de desenvolvedores do Telegram para o WormGPT foi fechado. Pode ser que o projeto ainda esteja em andamento ou será reformulado, mas só o tempo dirá. O desenvolvedor disse:

“No final das contas, o WormGPT não é nada mais do que um ChatGPT irrestrito. Qualquer pessoa na Internet pode usar uma técnica conhecida de jailbreak e obter os mesmos, se não melhores, resultados usando versões de ChatGPT com jailbreak”.

E o FraudGPT?

De acordo com a pesquisa da Trustwave, uma LLM maliciosa alternativa surgiu no mercado em julho de 2023. Conhecido como FraudGPT, o desenvolvedor anunciou o serviço no Telegram e na Dark Web como uma “alternativa irrestrita para o ChatGPT”.

Também: 9 principais ameaças à segurança móvel e como evitá-las

O desenvolvedor afirma que o FraudGPT é excelente para aprender a hackear, escrever malware e código malicioso, criar conteúdo de phishing e encontrar vulnerabilidades.

Não é possível verificar as afirmações do desenvolvedor sobre o chatbot, que está sendo oferecido sob assinatura.

O WormGPT e o FraudGPT são iguais ao ChatGPT?

Não. O ChatGPT foi desenvolvido pela OpenAI, uma organização legítima e respeitada.

O WormGPT e o FraudGPT não são criações da OpenAI. Eles são exemplos de como os criminosos cibernéticos podem se inspirar em chatbots de IA avançada para desenvolver suas próprias ferramentas maliciosas usando LLMs.

Veremos mais ferramentas como o WormGPT e o FraudGPT no futuro?

Até mesmo nas mãos de novatos e golpistas típicos, modelos de linguagem natural podem transformar golpes básicos de phishing e BEC facilmente evitáveis em operações sofisticadas com maior probabilidade de sucesso. Não há dúvida de que onde houver dinheiro a ser ganho, os criminosos cibernéticos seguirão a tendência, e ferramentas como o WormGPT são apenas o começo de uma nova gama de produtos que serão comercializados em mercados clandestinos.

Também:6 habilidades de que você precisa para se tornar um engenheiro de IA

Conforme pesquisadores descobriram, alguns atores ameaçadores estão tentando lucrar com LLMs maliciosos por meio de modelos de assinatura. Os preços variam de US$ 100 por mês a milhares de dólares para configurações privadas.

Também devemos considerar que pesquisadores demonstraram como contornar obstáculos de segurança no ChatGPT, Bard, e Claude. Mesmo que os LLMs maliciosos não vão além de alguns modelos no mercado clandestino, os criminosos cibernéticos ainda podem usar serviços legítimos para seus próprios fins.

O que os reguladores dizem sobre o abuso de ferramentas de IA?

  • Europol: A Europol afirmou em seu relatório de 2023, “O impacto dos Modelos de Linguagem Grande na aplicação da lei,” que “será crucial monitorar […] o desenvolvimento, já que LLMs escuros (modelos de linguagem grande) treinados para facilitar saídas prejudiciais podem se tornar um modelo de negócio criminoso fundamental do futuro. Isso representa um novo desafio para a aplicação da lei, em que será mais fácil do que nunca para atores maliciosos cometer atividades criminosas sem conhecimento prévio necessário.”
  • Comissão Federal de Comércio: A FTC está investigando a OpenAI, criadora do ChatGPT, por suas políticas de uso de dados e imprecisões.
  • Agência Nacional de Crimes do Reino Unido (NCA): A NCA alerta que a IA pode provocar um aumento nos riscos para jovens e abuso.
  • Escritório da Comissão de Informações do Reino Unido (ICO): A ICO lembra as organizações de que suas ferramentas de IA ainda estão sujeitas às leis existentes de proteção de dados.

O ChatGPT pode ser usado para fins ilegais?

Captura de tela por Charlie Osborne/ZDNET

Não sem táticas ocultas, mas com os prompts corretos, muitos modelos de linguagem natural podem ser persuadidos a realizar ações e tarefas específicas.

Também: 6 regras simples de cibersegurança que você pode aplicar agora

O ChatGPT, por exemplo, pode redigir e-mails profissionais, cartas de apresentação, currículos, ordens de compra e muito mais. Isso por si só pode remover alguns dos indicadores mais comuns de um e-mail de phishing: erros de ortografia, problemas de gramática e problemas com uma segunda língua. Isso pode causar dor de cabeça para empresas que tentam detectar e treinar seus funcionários para reconhecer mensagens suspeitas.

Os pesquisadores da SlashNext afirmam: “os cibercriminosos podem usar essa tecnologia para automatizar a criação de e-mails falsos altamente convincentes, personalizados para o destinatário, aumentando assim as chances de sucesso do ataque”.

Portanto, mesmo que um LLM recuse um prompt obviamente ilegal, ainda existem formas que os cibercriminosos podem aproveitar dessas tecnologias.

Também: 7 dicas avançadas de escrita de prompt para o ChatGPT que você precisa saber

Para instruções passo a passo sobre como usar o ChatGPT para fins legítimos, confira o guia do ENBLE sobre como começar a usar o ChatGPT.

Quanto custa o ChatGPT?

O modelo básico do ChatGPT é gratuito para uso. A ferramenta pode responder a consultas gerais, escrever conteúdo e código ou gerar prompts para tudo, desde histórias criativas até projetos de marketing.

Também: Como acessar, instalar e usar os plugins do AI ChatGPT-4 (e por que você deveria)

A assinatura do ChatGPT Plus cobre o uso em chat.openai.com, prioridade para consultas (reduzindo o tempo de espera) e inclui recursos avançados por $20 por mês. Uma versão do ChatGPT para usuários corporativos também está disponível.