O ChatGPT está violando sua privacidade, diz queixa importante da GDPR | ENBLE

ChatGPT viola privacidade, queixa GDPR | ENBLE

Desde que as primeiras ferramentas de inteligência artificial (IA) generativa explodiram na cena tecnológica, surgiram questões sobre de onde elas estão obtendo seus dados e se estão coletando seus dados privados para treinar seus produtos. Agora, a OpenAI, fabricante do ChatGPT, pode estar em maus lençóis exatamente por esses motivos.

Segundo a ENBLE, uma reclamação foi apresentada ao Escritório Polonês de Proteção de Dados Pessoais alegando que o ChatGPT viola um grande número de regras encontradas no Regulamento Geral de Proteção de Dados (GDPR) da União Europeia. Sugere que a ferramenta da OpenAI tem coletado dados do usuário de maneiras questionáveis.

Joe Maring / ENBLE

A reclamação afirma que a OpenAI violou as regras do GDPR quanto à base legal, transparência, equidade, direitos de acesso aos dados e privacidade por design.

Essas parecem ser acusações graves. Afinal, o reclamante não está alegando que a OpenAI simplesmente violou uma ou duas regras, mas que ela infringiu uma série de proteções projetadas para impedir que dados privados das pessoas sejam usados e abusados sem permissão. De certa forma, isso poderia ser interpretado como uma violação sistemática das regras de proteção da privacidade de milhões de usuários.

Chatbots na mira

Hatice Baran / Unsplash

Não é a primeira vez que a OpenAI se encontra na mira. Em março de 2023, ela se envolveu em problemas com reguladores italianos, o que levou ao banimento do ChatGPT na Itália por violação da privacidade do usuário. É mais uma dor de cabeça para o chatbot de IA generativa viral em um momento em que concorrentes como o Google Bard estão ganhando destaque.

E a OpenAI não é a única fabricante de chatbots levantando preocupações com a privacidade. No início de agosto de 2023, o proprietário do Facebook, Meta, anunciou que começaria a criar seus próprios chatbots, o que levantou temores entre defensores da privacidade sobre quais dados privados seriam coletados pela empresa conhecida por sua aversão à privacidade.

Violacões do GDPR podem resultar em multas de até 4% do faturamento anual global para as empresas penalizadas, o que poderia levar a OpenAI a enfrentar uma multa enorme, se aplicada. Se os reguladores decidirem contra a OpenAI, ela poderá ter que modificar o ChatGPT para cumprir as regras, assim como aconteceu na Itália.

Grandes multas podem estar a caminho

Sanket Mishra / Pexels

A reclamação polonesa foi apresentada por um pesquisador de segurança e privacidade chamado Lukasz Olejnik, que ficou preocupado quando usou o ChatGPT para gerar uma biografia sobre si mesmo e descobriu que ela estava cheia de informações e alegações factualmente imprecisas.

Ele então entrou em contato com a OpenAI, solicitando a correção das imprecisões e também pediu para receber informações sobre os dados que a OpenAI havia coletado sobre ele. No entanto, ele afirma que a OpenAI não forneceu todas as informações exigidas pelo GDPR, sugerindo que ela não estava sendo transparente nem justa.

O GDPR também estabelece que as pessoas devem ter permissão para corrigir as informações que uma empresa possui sobre elas, se estiverem incorretas. No entanto, quando Olejnik pediu à OpenAI para corrigir a biografia errônea que o ChatGPT escreveu sobre ele, ele afirma que a OpenAI alegou não ser capaz de fazê-lo. A reclamação argumenta que isso sugere que a regra do GDPR “é completamente ignorada na prática” pela OpenAI.

Não é uma boa imagem para a OpenAI, pois parece estar infringindo várias disposições de uma importante legislação da UE. Como isso pode afetar potencialmente milhões de pessoas, as penalidades podem ser muito altas. Fique de olho em como isso se desenrola, pois isso pode levar a mudanças significativas não apenas para o ChatGPT, mas também para os chatbots de IA em geral.