Hacker ataca OpenAI Vazamento de dados do ChatGPT revelado

O culpado é um hacker, e não uma invasão de dados.

OpenAI responde ao suposto vazamento de conversa privada envolvendo o ChatGPT.

Publicado em 30 de jan. de 2024, às 16:01, horário padrão do leste (EST)

ATUALIZAÇÃO: Esta história foi atualizada para incluir um comunicado da OpenAI sobre a investigação realizada, bem como uma confirmação sobre a origem do problema.

O que inicialmente se acreditava ser um vazamento de dados do ChatGPT acabou se revelando obra de um hacker, de acordo com a OpenAI.

Fonte da imagem: Nome da imagem

Segundo um relatório da Ars Technica, um usuário chamado Chase Whiteside recebeu inadvertidamente credenciais de login e informações pessoais do que parecia ser um cliente de farmácia em um portal de medicamentos prescritos. Essas informações foram fornecidas em resposta a uma consulta não relacionada, e Whiteside, por sua vez, compartilhou-as com o site de notícias de tecnologia.

“Eu fui fazer uma consulta (neste caso, ajudar a encontrar nomes criativos para cores em uma paleta)”, escreveu Whiteside em um e-mail. “Quando retornei segundos depois para acessar, notei as conversas adicionais.” Em um comunicado à ENBLE, a OpenAI esclareceu que o “uso indevido” foi devido à invasão da conta.

“Com base em nossas descobertas, as credenciais de login da conta dos usuários foram comprometidas e um agente malicioso usou a conta. O histórico de conversas e arquivos exibidos são resultado do uso indevido dessa conta e não se trata do ChatGPT mostrando o histórico de outro usuário.”

Descobriu-se que as respostas que pareciam vazar informações eram resultado de conversas criadas no Sri Lanka, e não na localização de Whiteside, em Brooklyn. A cronologia dessa atividade coincide com um login no mesmo local, reforçando as evidências de invasão.

Whiteside, no entanto, permanece cético em relação à invasão de sua conta. Ele afirma usar uma senha com nove caracteres, símbolos especiais, uma combinação de letras maiúsculas e minúsculas, e a utiliza apenas para sua conta da Microsoft – em nenhum outro lugar. É um pouco como ter uma fortaleza com guardas armados protegendo um tesouro simples, porém valioso, apenas para descobrir que um ladrão esperto enganou a todos e passou pelas defesas.

Por outro lado, a OpenAI mantém que não viu esse problema em nenhum outro lugar.

As conversas vazadas parecem envolver um funcionário frustrado solucionando problemas com um aplicativo usado pela farmácia. Além de todo o texto desdenhando o aplicativo, o vazamento incluía o nome de usuário de um cliente, a senha e o número da loja do funcionário. Embora ainda não esteja claro se o conteúdo é genuíno, parece que o tíquete completo de feedback foi incluído na resposta do ChatGPT. É como descobrir todos os segredos de uma receita de culinária, incluindo o ingrediente secreto, acidentalmente revelados em uma conversa entre dois chefs.

Fonte da imagem: Nome da imagem

O ChatGPT vem levantando preocupações sobre privacidade e segurança de dados há algum tempo. Hackers e pesquisadores descobriram vulnerabilidades que permitem extrair informações sensíveis, seja por meio de injeção de comando ou jailbreaking. É como ter uma fechadura em sua porta da frente que pode ser facilmente arrombada ou hackeada, tornando-a inútil.

No passado, ocorreram incidentes, como um bug que revelou informações de pagamento de usuários do ChatGPT Plus. Embora a OpenAI tenha abordado certas questões relacionadas aos usuários do ChatGPT, informações pessoais ou confidenciais compartilhadas com o ChatGPT permanecem desprotegidas. Isso ficou evidente quando funcionários da Samsung utilizaram o ChatGPT para ajudar com código, resultando em divulgações acidentais de segredos da empresa. Não é de surpreender que muitas empresas tenham proibido o uso do ChatGPT completamente. É como dar acesso a um assistente de IA ao seu diário e descobrir que ele compartilha os segredos mais suculentos com o mundo.

Conforme a política de privacidade da OpenAI, os dados de entrada devem ser anonimizados e desprovidos de qualquer informação pessoal identificável. No entanto, mesmo os próprios criadores nem sempre conseguem identificar claramente o que leva a determinadas respostas, o que ressalta os riscos inerentes aos Modelos de Linguagem Avançados (LLMs, em inglês). É como ter um animal de estimação super inteligente, mas imprevisível, que às vezes surpreende com suas ações inesperadas.

Embora este incidente possa ter sido o trabalho habilidoso de um hacker, é sempre importante lembrar: não compartilhe informações confidenciais ou pessoais com o ChatGPT. É como contar seus segredos mais profundos para uma papagaio falante com um bico especialmente solto.

Perguntas e Respostas: Atenção às Preocupações dos Leitores

P: Há alguma atualização sobre a investigação da OpenAI sobre o vazamento de dados do ChatGPT?

A OpenAI divulgou um comunicado reconhecendo que o suposto vazamento foi resultado de um hacker comprometendo a conta de um usuário, e não um problema com o próprio ChatGPT. Eles confirmaram que as conversas exibidas eram provenientes do mau uso dessa conta hackeada. No entanto, a OpenAI assegura aos usuários que não viu esse problema ocorrer em outros lugares.

P: O ChatGPT é seguro para uso de informações sensíveis?

Embora a OpenAI tenha tomado medidas para lidar com certos problemas relacionados ao uso do ChatGPT, ainda não protege totalmente informações pessoais ou confidenciais compartilhadas com a IA. Incidentes anteriores, como o vazamento acidental de informações de pagamento e segredos da empresa, destacam os riscos envolvidos. É aconselhável não compartilhar informações sensíveis ou pessoais com o ChatGPT para evitar possíveis violações de privacidade e segurança de dados.

P: Quais medidas indivíduos e empresas devem tomar para se proteger ao usar o ChatGPT?

Para garantir a segurança de informações pessoais e confidenciais, é melhor evitar compartilhar tais informações com o ChatGPT. Além disso, indivíduos e empresas devem considerar a implementação de medidas de segurança adicionais, como o uso de senhas fortes e únicas, ativar autenticação de dois fatores e atualizar regularmente seus sistemas para corrigir vulnerabilidades.

Impacto e Futuros Desenvolvimentos

O recente incidente de vazamento de dados envolvendo o ChatGPT expõe os desafios contínuos e riscos relacionados à privacidade e segurança de dados no domínio dos Modelos de Linguagem Grandes. O incidente destaca a importância de melhorar continuamente as medidas de segurança em torno de sistemas de IA e a necessidade de os usuários agirem com cautela ao interagir com tais tecnologias.

No futuro, espera-se que os desenvolvedores de IA, incluindo a OpenAI, intensifiquem seus esforços para aprimorar os recursos de segurança e privacidade de seus sistemas. Esse incidente pode servir como um catalisador para regulamentações e diretrizes mais rígidas relacionadas ao uso e tratamento de informações sensíveis em aplicações de IA.

Referências:

  1. OpenAI lança correção para vazamento de dados do ChatGPT, mas o problema não está completamente resolvido
  2. Hackers da máquina de sorvete do McDonald’s dizem ter encontrado a prova que matou uma startup
  3. Cuidado! Há um novo robô cozinheiro na cidade, e é dos pesquisadores do Google DeepMind
  4. ChatGPT vs. ChatGPT Plus: o valor da assinatura vale a pena?
  5. OpenAI toma medidas para reduzir risco regulatório abordando privacidade de dados na UE
  6. Google e Samsung juntando ‘Nearby Share’ e ‘Quick Share’ em uma única solução entre Androids
  7. Meta sobre indo além da Inteligência Artificial Geral