A Apple fornece mais clareza sobre por que abandonou o plano de detectar CSAM em fotos do iCloud

Apple explains why it abandoned the plan to detect CSAM in iCloud photos

A Apple forneceu na quinta-feira a explicação mais completa até agora para o abandono, no ano passado, de seu polêmico plano de detectar Material de Abuso Sexual Infantil (CSAM) armazenado no iCloud Photos.

A declaração da Apple, compartilhada com o ENBLE e reproduzida abaixo, veio em resposta à demanda do grupo de segurança infantil Heat Initiative para que a empresa “detecte, denuncie e remova” CSAM do iCloud e ofereça mais ferramentas para os usuários denunciarem tal conteúdo à empresa.

“O material de abuso sexual infantil é abominável e estamos comprometidos em quebrar a cadeia de coerção e influência que torna as crianças suscetíveis a ele”, escreveu Erik Neuenschwander, diretor de privacidade do usuário e segurança infantil da Apple, em resposta à Heat Initiative. No entanto, ele acrescentou que, após colaborar com uma variedade de pesquisadores de privacidade e segurança, grupos de direitos digitais e defensores da segurança infantil, a empresa concluiu que não poderia prosseguir com o desenvolvimento de um mecanismo de verificação de CSAM, mesmo que construído especificamente para preservar a privacidade.

“A verificação dos dados do iCloud armazenados privadamente de cada usuário criaria novos vetores de ameaça para que ladrões de dados os encontrem e os explorem”, escreveu Neuenschwander. “Isso também injetaria a possibilidade de uma escorregadia ladeira de consequências indesejadas. A verificação de um tipo de conteúdo, por exemplo, abre a porta para a vigilância em massa e pode criar o desejo de buscar outros sistemas de mensagens criptografadas em diferentes tipos de conteúdo.”

Em agosto de 2021, a Apple anunciou planos para três novos recursos de segurança infantil, incluindo um sistema para detectar imagens conhecidas de CSAM armazenadas no ‌iCloud Photos‌, uma opção de Segurança na Comunicação que desfoca fotos sexualmente explícitas no aplicativo Mensagens e recursos de combate à exploração infantil para a Siri. A Segurança na Comunicação foi lançada nos EUA com o iOS 15.2 em dezembro de 2021 e desde então foi expandida para o Reino Unido, Canadá, Austrália, Nova Zelândia, e os recursos da ‌Siri também estão disponíveis, mas a detecção de CSAM nunca foi lançada.

Inicialmente, a Apple disse que a detecção de CSAM seria implementada em uma atualização do iOS 15 e iPadOS 15 até o final de 2021, mas a empresa adiou o recurso com base no “feedback de clientes, grupos de defesa, pesquisadores e outros”. Os planos foram criticados por uma ampla gama de indivíduos e organizações, incluindo pesquisadores de segurança, a Electronic Frontier Foundation (EFF), políticos, grupos de políticas, pesquisadores universitários e até mesmo alguns funcionários da Apple.

A resposta mais recente da Apple ao problema ocorre em um momento em que o debate sobre criptografia foi reacendido pelo governo do Reino Unido, que está considerando planos para alterar a legislação de vigilância que exigiria que as empresas de tecnologia desativassem recursos de segurança, como a criptografia de ponta a ponta, sem informar o público.

A Apple diz que suspenderá serviços, incluindo FaceTime e iMessage, no Reino Unido se a legislação for aprovada em sua forma atual.

Observação: Devido à natureza política ou social da discussão sobre este tópico, o tópico da discussão está localizado em nosso fórum de Notícias Políticas. Todos os membros do fórum e visitantes do site são bem-vindos para ler e seguir o tópico, mas a postagem é limitada a membros do fórum com pelo menos 100 postagens.