Como cobrimos ontem, a Apple anunciou novos recursos de segurança os quais chegarão — com o iOS/iPadOS 15 e o macOS Monterey 12 — ao app Fotos, ao iMessage, à Siri e ao Spotlight. Esses recursos, que estarão disponíveis inicialmente nos Estados Unidos, têm como objetivo proteger crianças e pré-adolescentes contra o abuso infantil a partir de diversas tecnologias.
Uma delas (e talvez a mais “polêmica”) é o “escaneamento” de imagens do dispositivo, o qual pretende detectar conteúdos de pornografia infantil a partir do cruzamento de dados das imagens (os chamados hashes) com informações fornecidas pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA (NCMEC) e outras instituições.
Há, no entanto, alguns poréns que valem ser comentados. O primeiro deles, como destacado pelo editor do MacRumors, Joe Rossignol, é que se o usuário desabilitou o recurso Fotos do iCloud (que envia e armazena as imagens na nuvem, muito usado para liberar mais espaço nos aparelhos), a Apple *não* será capaz de detectar imagens CSAM que podem representar possíveis conteúdos de pornografia infantil.
Outro detalhe importante, levantado por Benjamin Mayo, diz respeito justamente à análise das imagens de um dispositivo.
Segundo ele, o sistema visa buscar imagens específicas que podem indicar abuso de crianças, e não ficar bisbilhotando sua biblioteca — até porque, isso não é muito diferente do que praticamente todos os serviços na nuvem (e redes sociais) já fazem.
Com relação ao recurso de proteção que será implantado no iMessage — o qual identificará e ocultará, a partir de uma tecnologia de aprendizado de máquina, conteúdos pornográficos ou impróprios enviados para crianças —, Rossignol explicou que usuários a partir de 18 anos não poderão ativá-lo.
Nesse sentido, o recurso é exclusivo para contas infantis e deverá ser ativado por um responsável a partir do Compartilhamento Familiar.
Ainda segundo ele, as notificações sobre recebimento de imagens inapropriadas serão opcionais para contas de crianças com menos de 13 anos e não estão disponíveis para contas de usuários entre 13 e 17 anos.
Críticas
Naturalmente, um anúncio desse calibre geraria repercussões para além da sua finalidade — a qual, convenhamos, é necessária.
Nesse sentido, a Fundação Fronteira Eletrônica (Electronic Frontier Foundation, ou EFF), uma organização sem fins lucrativos americana, publicou um extenso artigo detalhando as possíveis implicações do novo sistema da Apple.
Mais precisamente, eles citam uma possível “redução” na garantia de privacidade dos usuários com a criação de uma backdoor que permite analisar o conteúdo de usuários — mesmo que apenas conteúdos específicos.
Já dissemos antes e diremos de novo agora: é impossível construir um sistema de escaneamento que só possa ser usado para imagens sexualmente explícitas enviadas ou recebidas por crianças. Como consequência, mesmo um esforço bem-intencionado para construir tal sistema quebrará as promessas importantes da criptografia e abrirá a porta para abusos mais amplos.
As pessoas têm o direito de se comunicar em particular, sem backdoor ou censura, inclusive quando essas pessoas são menores de idade. A Apple deve tomar a decisão certa: manter essas backdoors longe dos dispositivos de usuários.
Ecoando as críticas do pesquisador de segurança Matthew Green, o presidente da Freedom of Press, Edward Snowden, também advertiu sobre a possibilidade de a Maçã expandir as fronteiras da sua análise para outros assuntos além do abuso infantil, explorando ainda mais os conteúdos de usuários.
Fato é que a Apple nunca agradará a todos — vide o reboliço após a implantação da Transparência do Rastreamento de Apps (App Tracking Transparency, ou ATT), no começo deste ano.
A meu ver, a crítica precisa ser feita a partir dos motivos pelo quais esses sistemas foram necessários, inicialmente.