O melhor pedaço da Maçã.
Raymond Vong Photography / Shutterstock.com
Criança usando iPad

Sistema da Apple contra abuso infantil é detalhado — e criticado

Como cobrimos ontem, a Apple anunciou novos recursos de segurança os quais chegarão — com o iOS/iPadOS 15 e o macOS Monterey 12 — ao app Fotos, ao iMessage, à Siri e ao Spotlight. Esses recursos, que estarão disponíveis inicialmente nos Estados Unidos, têm como objetivo proteger crianças e pré-adolescentes contra o abuso infantil a partir de diversas tecnologias.

Publicidade

Uma delas (e talvez a mais “polêmica”) é o “escaneamento” de imagens do dispositivo, o qual pretende detectar conteúdos de pornografia infantil a partir do cruzamento de dados das imagens (os chamados hashes) com informações fornecidas pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA (NCMEC) e outras instituições.

Há, no entanto, alguns poréns que valem ser comentados. O primeiro deles, como destacado pelo editor do MacRumors, Joe Rossignol, é que se o usuário desabilitou o recurso Fotos do iCloud (que envia e armazena as imagens na nuvem, muito usado para liberar mais espaço nos aparelhos), a Apple *não* será capaz de detectar imagens CSAM que podem representar possíveis conteúdos de pornografia infantil.

Eu esclareci alguns detalhes de segurança infantil com a Apple:
– Se um usuário tiver o Fotos do iCloud desativado, a Apple disse que não será capaz de detectar imagens conhecidas do CSAM.
– As notificações parentais para a segurança da comunicação no iMessage são opcionais para as crianças menores de 13 anos, e não disponíveis para idades de 13 a 17.

Outro detalhe importante, levantado por Benjamin Mayo, diz respeito justamente à análise das imagens de um dispositivo.

Segundo ele, o sistema visa buscar imagens específicas que podem indicar abuso de crianças, e não ficar bisbilhotando sua biblioteca — até porque, isso não é muito diferente do que praticamente todos os serviços na nuvem (e redes sociais) já fazem.

Se o novo sistema de escaneamento de fotos da Apple estivesse analisando todas e quaisquer fotos armazenadas no seu dispositivo, acho que haveria um debate ético a ser feito. Mas é apenas aplicado às Fotos do iCloud, o que não o torna diferente de qualquer outro grande serviço da web ou rede social.
.
“E se eu tirar fotos dos meus filhos no banho ou brincando ou qualquer outra coisa… os algoritmos vão me sinalizar?” — Os hashes identificam correspondências exatas de material ilícito conhecido. Não está procurando coisas que se pareçam com partes do corpo em crianças pequenas, está procurando imagens *específicas*.

Com relação ao recurso de proteção que será implantado no iMessage — o qual identificará e ocultará, a partir de uma tecnologia de aprendizado de máquina, conteúdos pornográficos ou impróprios enviados para crianças —, Rossignol explicou que usuários a partir de 18 anos não poderão ativá-lo.

Publicidade

Nesse sentido, o recurso é exclusivo para contas infantis e deverá ser ativado por um responsável a partir do Compartilhamento Familiar.

O novo recurso de Segurança de Comunicação que chegará ao iMessage no iOS 15 — também conhecido como desfoque automático de nudes — não pode ser habilitado para uso pessoal por adultos com mais de 18 anos, de acordo com a Apple. O recurso é exclusivo para crianças e deve ser ativado por um dos pais no Compartilhamento Familiar.
.
Tenho certeza de que há muitos adultos que receberam nudes não solicitadas que valorizariam muito o recurso se ele fosse disponibilizado para eles também!

Talvez um dia.

Ainda segundo ele, as notificações sobre recebimento de imagens inapropriadas serão opcionais para contas de crianças com menos de 13 anos e não estão disponíveis para contas de usuários entre 13 e 17 anos.

Críticas

Naturalmente, um anúncio desse calibre geraria repercussões para além da sua finalidade — a qual, convenhamos, é necessária.

Publicidade

Nesse sentido, a Fundação Fronteira Eletrônica (Electronic Frontier Foundation, ou EFF), uma organização sem fins lucrativos americana, publicou um extenso artigo detalhando as possíveis implicações do novo sistema da Apple.

Publicidade

Mais precisamente, eles citam uma possível “redução” na garantia de privacidade dos usuários com a criação de uma backdoor que permite analisar o conteúdo de usuários — mesmo que apenas conteúdos específicos.

Já dissemos antes e diremos de novo agora: é impossível construir um sistema de escaneamento que só possa ser usado para imagens sexualmente explícitas enviadas ou recebidas por crianças. Como consequência, mesmo um esforço bem-intencionado para construir tal sistema quebrará as promessas importantes da criptografia e abrirá a porta para abusos mais amplos.

As pessoas têm o direito de se comunicar em particular, sem backdoor ou censura, inclusive quando essas pessoas são menores de idade. A Apple deve tomar a decisão certa: manter essas backdoors longe dos dispositivos de usuários.

Ecoando as críticas do pesquisador de segurança Matthew Green, o presidente da Freedom of Press, Edward Snowden, também advertiu sobre a possibilidade de a Maçã expandir as fronteiras da sua análise para outros assuntos além do abuso infantil, explorando ainda mais os conteúdos de usuários.

Não importa o quão bem-intencionada, a @Apple está implementando vigilância em massa para todo o mundo com isso. Não se engane: se eles podem escanear pornografia infantil hoje, poderão escanear qualquer coisa amanhã.
Eles transformaram um trilhão de dólares em dispositivos em iNarcs — *sem pedir*.

Fato é que a Apple nunca agradará a todos — vide o reboliço após a implantação da Transparência do Rastreamento de Apps (App Tracking Transparency, ou ATT), no começo deste ano.

A meu ver, a crítica precisa ser feita a partir dos motivos pelo quais esses sistemas foram necessários, inicialmente.

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Vídeo: Smart Scale C1 — balança inteligente da eufy (Anker)

Próx. Post

Fornecedoras dos “iPhones 13” estão disputando funcionários

Posts Relacionados