O melhor pedaço da Maçã.

Apple desiste de escaneamento de fotos contendo nudez infantil

Tada Images / Shutterstock.com
App Fotos no iPhone

Após remover a referência do recurso em seu site, a Apple agora confirmou que o escaneamento de imagens com conteúdos de material de abuso sexual infantil (child sexual abuse material, ou CSAM) foi oficialmente descartado. As informações são da WIRED.

Publicidade

Mesmo que a intenção do recurso tenha sido combater o abuso e a pornografia infantil, assim que ele foi anunciado pela Maçã no ano passado, muita polêmica acerca de segurança e privacidade se instaurou, principalmente por parte de grupos de pesquisadores e grupos de direitos digitais.

Em declaração oficial à WIRED, a Apple explicou que não prosseguirá com o recurso e se focará em outras maneiras para o combate ao abuso infantil, como o recurso Segurança na Comunicação, que veio no iOS 15.2.

Após extensa consulta com especialistas para coletar feedback sobre as iniciativas de proteção infantil que propusemos no ano passado, estamos aprofundando nosso investimento no recurso Segurança na Comunicação, que disponibilizamos pela primeira vez em dezembro de 2021.

Decidimos ainda não avançar com nossa ferramenta de detecção de CSAM proposta anteriormente para o iCloud Photos. As crianças podem ser protegidas sem que as empresas vasculhem dados pessoais, e continuaremos trabalhando com governos, defensores da criança e outras empresas para ajudar a proteger os jovens, preservar seu direito à privacidade e tornar a internet um lugar mais seguro para as crianças e para todos nós.

Diferentemente de escanear as fotos e monitorar todas as imagens do seu aparelho, o recurso de Segurança na Comunicação deixa automaticamente embaçadas as fotos com conteúdos sexuais explícitos enviadas no app Mensagens.

Tendo liberado hoje uma atualização que traz, pela primeira vez, a criptografia de ponta a ponta para backups e fotos do iCloud, a Apple retomou seu compromisso com a privacidade.

A Apple se dedica a desenvolver soluções inovadoras de preservação da privacidade para combater o material de abuso sexual infantil e proteger as crianças, ao mesmo tempo em que atende às necessidades exclusivas de privacidade de comunicações pessoais e armazenamento de dados.

Vamos ver se, assim, a empresa consegue diminuir a preocupação dos pesquisadores de segurança…

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Apple permitirá uso de chaves físicas para autenticar logins

Próx. Post

Apple TV+ lançará a 3ª temporada de “Truth Be Told” em 20/1

Posts Relacionados