O melhor pedaço da Maçã.

Campanha quer retorno do recurso que escaneia fotos com pornografia infantil

rafapress / Shutterstock.com
Logo da Apple e silhueta de pessoa usando um smartphone

Como muitos devem se lembrar, a Apple apresentou, em 2021, um recurso que analisaria imagens em dispositivos (iPhones e iPads) de usuários para detectar possíveis conteúdos de pornografia infantil, com o intuito de combater esse crime. A funcionalidade, porém, atraiu os olhares (e as críticas) de múltiplas pessoas e até de organizações — de modo que, no fim do ano passado, a companhia desistiu de implementar sua solução.

Publicidade

Vários meses após o “fim” dessa polêmica, entretanto, esse assunto voltou à tona depois que um grupo de segurança infantil conhecido como Heat Initiative anunciou uma campanha para exigir que a Apple “detecte, denuncie e remova” material de abuso sexual infantil (child sexual abuse material, ou CSAM) do iCloud e ofereça mais ferramentas para os usuários denunciarem tais conteúdos à empresa. As informações são da WIRED.

Em um movimento incomum, porém, a Apple forneceu uma resposta ao grupo, na qual o diretor de privacidade da companhia, Erik Neuenschwander, alegou que materiais de abuso sexual infantil “são abomináveis” e que a Maçã está “comprometida em quebrar a cadeia de coerção e influência que torna as crianças suscetíveis a ele”.

Ele acrescentou, porém, que depois de colaborar com uma série de pesquisadores de privacidade e segurança, grupos de direitos digitais e defensores da segurança infantil, a empresa concluiu que “não poderia prosseguir com o desenvolvimento de um mecanismo de verificação de CSAM, mesmo que fosse construído especificamente para preservar a privacidade”.

Publicidade

A verificação dos dados do iCloud armazenados de forma privada de cada usuário criaria novos vetores de ameaças para os ladrões de dados encontrarem e explorarem. A varredura de um tipo de conteúdo, por exemplo, abre a porta para vigilância em massa e pode criar o desejo de pesquisar outros sistemas de mensagens criptografadas em vários tipos de conteúdo.

Ele também afirmou que, mesmo a Apple tendo desenvolvido um recurso bem-intencionado, essa ferramenta não poderia ser “adequadamente protegida na prática”, admitindo potenciais brechas do recurso.

Decidimos não prosseguir com a proposta de uma abordagem híbrida cliente-servidor para detecção de CSAM para fotos do iCloud de alguns anos atrás. Concluímos que não era praticamente possível implementar sem colocar em risco a segurança e a privacidade dos nossos usuários.

A Heat Initiative não comentou ainda a resposta da Apple. O grupo, vale notar, é liderado por Sarah Gardner, ex-vice-presidente de relações externas da Thorn (organização que trabalha em novas tecnologias para combater a exploração infantil online e o tráfico sexual). Ela, inclusive, disse em um email ao CEO1Chief executive officer, ou diretor executivo. da Apple, Tim Cook, que a Heat Initiative considerou a decisão da companhia de abandonar o recurso “decepcionante”.

Acreditamos firmemente que a solução não apenas posicionou a Apple como líder global em privacidade do usuário, mas também prometeu erradicar milhões de imagens e vídeos de abuso sexual infantil do iCloud. Faço parte de uma iniciativa em desenvolvimento que envolve especialistas e defensores preocupados em segurança infantil que pretendem se envolver com você e sua empresa, a Apple, sobre seu atraso contínuo na implementação de tecnologias [que combatam a pornografia infantil]… o abuso sexual infantil é uma questão difícil que ninguém quer falar sobre, e é por isso que é silenciado e deixado para trás. Estamos aqui para garantir que isso não aconteça.

Em vez de a Apple adotar uma abordagem que violaria a confiança do usuário e a tornaria uma intermediária no processamento de identificação de conteúdos ilegais, a empresa agora está focando nos caminhos que os usuários devem seguir para denunciar conteúdos de pornografia infantil.

Publicidade

Nesse sentido, o recurso Segurança na Comunicação (Communication Safety) será expandido mundialmente no iOS 17, o que permitirá aos usuários filtrar fotos indesejadas de nudez, bem como alertar crianças sobre o recebimento ou o envio de fotos/vídeos com nudez no aplicativo Mensagens. Nos iOS/iPadOS 17 e no macOS Sonoma 14, ele também será aplicado no AirDrop, em mensagens de vídeo do FaceTime e nos Pôsteres de Contato (no app Telefone).

via AppleInsider

Notas de rodapé

  • 1
    Chief executive officer, ou diretor executivo.

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Longplay (para ouvir álbuns inteiros) é atualizado com modo aleatório

Próx. Post

Instagram poderá encerrar integração com o Messenger já em outubro

Posts Relacionados