O melhor pedaço da Maçã.
Galeria de fotos do iPhone X (by MacMagazine)

Apple analisará fotos do seu iPhone para detectar abuso infantil, diz especialista [atualizado]

O problema são as implicações de privacidade trazidas pela (suposta) tecnologia

A eterna corda-bamba entre privacidade e segurança é motivo de embates desde que os seres humanos passaram a se organizar em sociedade, e com o advento dos meios digitais a questão passou a ser ainda mais profunda: em que ponto nós dividimos o direito à privacidade de cada um da capacidade de as forças competentes combaterem crimes?

Publicidade

Bom, ao que tudo indica, um novo capítulo desse cabo de guerra começará a ser escrito em breve pela Apple. Segundo Matthew Green, professor de criptografia na Universidade Johns Hopkins, a Maçã lançará em breve uma ferramenta que poderá escanear fotos nos iPhones dos usuários para detectar sinais de abuso e pornografia infantil.

As descobertas de Green foram confirmadas por múltiplas fontes e corroboradas pelo Financial Times. O sistema, chamado internamente de NeuralMatch, deverá entrar em ação inicialmente nos Estados Unidos e poderá acionar equipes de revisão humanas para verificar determinados conteúdos; por outro lado, especialistas apontam problemas na questão da privacidade e possíveis ameaças quanto ao mau uso desse sistema.

Entendamos a questão por partes, portanto. Primeiramente, quanto ao sistema em si: ele usa algoritmos de hashing para detectar os sinais de abuso infantil nas fotos. A Wikipédia traz uma explicação muito mais completa do que eu jamais poderia fornecer, mas basicamente o hash permite identificar conteúdos semelhantes em diferentes arquivos por meio de pontos de interseção ou valores em comum.

No caso das imagens, que é o que a Apple pretende escanear, isso se traduz em “formas” bem rudimentares geradas pelo algoritmo. Se o sistema detecta hashes similares em determinados conteúdos, pode concluir que aquele conjunto de arquivos faz parte de um mesmo “grupo” — podendo, potencialmente, detectar usuários com posse de pornografia infantil.

O sistema desenvolvido pela Apple, segundo Green, funciona da seguinte forma: caso o NeuralMatch detecte muitos arquivos com hashes relacionados a abuso infantil, uma equipe de revisão humana poderá entrar em ação e analisar os conteúdos. Caso algo ilegal seja de fato encontrado nas fotos, a equipe poderá acionar as autoridades.

Imagine que alguém lhe manda um arquivo sobre política totalmente inofensivo e você o compartilha com seus amigos. Mas e se esse arquivo tiver o mesmo hash de um conteúdo conhecido de pornografia infantil?

Ainda que iniciativas para combater o abuso infantil sejam sempre louváveis, o sistema desenvolvido pela Apple tem uma série de problemas, segundo Green. O primeiro deles está no fato de que o algoritmo usado pelo NeuralMatch é proprietário e fechado — isto é, ninguém fora da Apple sabe como ele funciona, e portanto não há como fazer uma auditoria do seu funcionamento.

Publicidade

É bom lembrar, inclusive, que a Apple já utiliza técnicas parecidas para detectar sinais de abuso infantil, mas apenas em fotos armazenadas no iCloud — uma prática empregada também por basicamente todas as companhias que oferecem serviços de armazenamento em nuvem. Nesta nova fase, ainda não confirmada por Cupertino, a verificação seria feita localmente, nos próprios iPhones dos usuários — aí sim, uma coisa inédita na indústria tecnológica.

Publicidade

O segundo ponto de preocupação é imaginar o que poderia acontecer no caso de uma extrapolação desse sistema ou no seu uso por governos autoritários e agências de investigação não muito preocupadas com mandatos ou restrições.

A Apple já se comprometeu a nunca usar o NeuralMatch em outros serviços, como o iMessage, mas nunca se sabe como será o dia de amanhã — em alguns casos, a empresa já cedeu anteriormente a pressões externas relacionadas à privacidade, como a não criptografia dos backups do iCloud, supostamente exigida pelo FBI, e o armazenamento dos dados de usuários chineses em servidores na própria China.

Publicidade

O fato é que, por ora, nada está oficializado. Segundo Green, a Apple já mostrou o sistema a uma série de acadêmicos nos EUA e deverá falar mais sobre ele (publicamente) nas próximas semanas, então ficaremos de olho sobre possíveis mais detalhes.

E aí, opiniões?

via The Verge

Atualização, por Eduardo Marques05/08/2021 às 17:45

O sistema foi confirmado pela Apple. Confira o novo artigo que fizemos sobre o assunto.

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Desenvolvedor revela protótipo funcional do AirPower

Próx. Post

Artistas agora podem compartilhar conquistas do Apple Music com fãs

Posts Relacionados