Hoje mais cedo, nós comentamos aqui algumas falhas encontradas no polêmico NeuralHash, o novo algoritmo que a Apple implementará em seus principais sistemas operacionais a fim de detectar conteúdos de pornografia infantil nos aparelhos.
Em resposta às acusações, a empresa disse ao iMore que a engenharia reversa realizada pelo usuário do Reddit não é precisa e que ela disponibilizou o NeuralHash publicamente para que pesquisadores de segurança pudessem investigá-lo.
A Maçã disse, também, que os códigos analisados fazem parte de uma versão genérica da tecnologia e não diz respeito à versão que será lançada futuramente. Além disso, a companhia alegou que os hashes perceptivos, por definição, podem ser enganados ao pensar que duas imagens diferentes são iguais, mas que a segurança da varredura CSAM1Child sexual abuse material, ou material de abuso sexual infantil. leva isso em consideração.
Ainda segundo a empresa, as colisões são esperadas e não comprometem a segurança do sistema, afinal, o banco de dados de hash CSAM presente no dispositivo é criptografado. Portanto, não seria possível para um invasor gerar colisões contra imagens já conhecidas pelo sistema.
A Apple observa que, quando o limite de materiais sensíveis é ultrapassado, um segundo algoritmo independente analisa as fotos comparando-as com os conteúdos CSAM conhecidos. Este outro algoritmo é também executado pelos servidores remotos e não está ao alcance de invasores.
Essa proteção é fundamental para garantir que as contas de usuários não sejam sinalizadas erroneamente por causa de imagens que não contenham materiais sensíveis.
Por fim, a empresa enfatizou que a detecção está sujeita à revisão humana, como já sabíamos. Mesmo que o limite mínimo de 30 imagens acione um alerta, o processo está sujeito a uma revisão humana que poderá identificar as imagens falso-positivas, caso a conta de um usuário seja incorretamente sinalizada.
Fato é: mesmo com as críticas, tudo indica que a Apple não voltará atrás e deverá lançar o novo sistema brevemente. Ainda assim, a companhia não cravou uma data para que o algoritmo comece a funcionar. Como já sabemos, ele estará disponível inicialmente apenas nos Estados Unidos, e deverá chegar em uma futura versão pontual dos novos sistemas operacionais da Maçã.
Notas de rodapé
- 1Child sexual abuse material, ou material de abuso sexual infantil.