Parece que as polêmicas relacionadas ao “escaneamento” de imagens, anunciado pela Apple no início deste mês, ainda vão render por bastante tempo.
Ontem, Asuhariet Ygvar (um usuário do Reddit) relatou ter encontrado códigos do NeuralHash (que será usado para detectar conteúdos de pornografia infantil) na versão 14.3 do iOS, lançada há oito meses. Ele afirma que o algoritmo estava oculto entre as APIs1Application programming interfaces, ou interfaces de programação de aplicações. e seu contêiner era chamado de MobileNetV3.
De acordo com Ygvar, foi possível realizar a engenharia reversa do código e reconstruir um modelo funcional na linguagem Python, que pode ser usado com algumas imagens. Segundo testes preliminares, o sistema não é enganado pelo redimensionamento ou compactação da imagem, mas detecta cortes ou rotações.
Questionado se as informações eram verídicas, ele afirmou que os arquivos achados possuem o mesmo prefixo encontrado na documentação fornecida pela Maçã e que as partes verificáveis do código funcionam da mesma forma que o algoritmo descrito.
Ainda assim, nem tudo são flores, pois ataques mais significativos foram rapidamente descobertos. Um usuário do GitHub chamado, Cory Cornelius, conseguiu produzir uma colisão no algoritmo — isto é, duas imagens que geram o mesmo hash. Caso a descoberta se confirme, significará uma grave falha na criptografia do novo sistema da Apple.
Na prática, ela gera uma imagem falso-positiva que dispara os alertas mesmo não sendo um conteúdo de pornografia infantil, já que produz o mesmo hash de uma imagem presente nos bancos de dados de referência.
Mesmo assim, embora a colisão seja significativa, seriam necessários grandes esforços para explorá-la na prática e, fora isso, apenas geraria um alerta para a Apple e para o Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA (National Center for Missing & Exploited Children, ou NCMEC), que facilmente identificariam as imagens como falso-positivas.
Apesar de tudo isso, as informações reveladas por esses códigos podem não representar a versão final do NeuralHash, afinal a Apple o está construindo há anos, então provavelmente a empresa já vinha testando esse sistema por um tempo. Diferentemente do que foi exposto pelo usuário, a Maçã afirmou em um de seus documentos que a análise levaria em consideração cortes e rotações nas imagens.
Quanto às versões beta do iOS 15, nenhum desenvolvedor achou referências ao algoritmo NeuralHash em seus códigos — pelo menos por enquanto. Quando isso acontecer, é bem possível que os novos dados sejam extraídos e comparados com os que foram revelados ontem.
Quem se interessar em visualizar e testar o código pode encontrá-lo em um repositório no GitHub. No entanto, o trabalho pode ser em vão, dado que apenas uma parte do complexo processo feito pelo algoritmo é realizado e ele não leva em conta o sistema de vouchers ou o que ocorre no lado do servidores remotos.
A Apple ainda não cravou uma data para que seu novo recurso de detecção comece a funcionar, mas espera-se que ele seja lançado (inicialmente só nos Estados Unidos, vale lembrar) em uma versão pontual após a estreia de seus novos sistemas operacionais — que provavelmente chegarão entre setembro e outubro.
Notas de rodapé
- 1Application programming interfaces, ou interfaces de programação de aplicações.