O vice-presidente sênior de engenharia de software da Apple, Craig Federighi, falou com a jornalista do The Wall Street Journal, Joanna Stern, sobre a polêmica envolvendo os futuros recursos de proteção contra abuso e pornografia infantil da empresa — que serão implantados após o lançamento do iOS/iPadOS 15 e do macOS Monterey 12.
Embora defenda a implantação das ferramentas, Federighi disse que a Apple errou ao lançar três recursos de proteção infantil ao mesmo tempo e gostaria que a confusão fosse evitada — comentando como a reação negativa foi vista na Apple.
Confira a entrevista, na íntegra, no vídeo abaixo:
Gostaríamos que isso tivesse ficado um pouco mais claro para todos, porque nos sentimos muito positivos sobre o que estamos fazendo, e podemos ver que [os recursos] têm sido mal interpretados.
Admito que, em retrospectiva, apresentar esses dois recursos ao mesmo tempo foi uma receita para esse tipo de confusão. É realmente claro que muitas informações foram confundidas. Eu acredito que a frase de efeito que saiu mais cedo foi: “Meu Deus, a Apple está examinando meu telefone em busca de imagens.” Não é isso que está acontecendo.
O executivo, então, repercutiu o que a Apple já havia divulgado em um FAQ sobre os processos envolvidos na digitalização de fotos do iCloud das imagens identificadas como CSAM1Child sexual abuse material, ou material de abuso sexual infantil. e no que acontece quando essa imagem é enviada a uma criança pelo app Mensagens.
O executivo também disse que o escaneamento CSAM “não cria uma backdoor” e que ele não entendeu de onde saiu essa teoria.
Isso [o escaneamento de imagens] só está sendo aplicado como parte de um processo de armazenamento de algo na nuvem. Isso não é um processamento executado nas imagens que você armazena no Mensagens ou no Telegram, ou no que você está navegando na web. Isso literalmente faz parte do processo para armazenar imagens no iCloud.
Quando questionado se o banco de dados de imagens usado para corresponder ao conteúdo CSAM nos dispositivos poderia ser comprometido pela inserção de outros materiais, como conteúdo político, Federighi explicou que essas informações são cruzadas a partir de imagens de “várias organizações de segurança infantil”, com pelo menos duas sendo “em jurisdições distintas”.
Sobre o porquê de anunciar tais recursos agora, o VP da Apple disse que a empresa finalmente “descobriu como implantar uma solução para um problema de longa data”.
Pelo visto, a companhia terá, ainda, que convencer seus próprios funcionários — além de clientes, especialistas e entidades que já estão com um pé atrás sobre os novos recursos.
via iMore
Notas de rodapé
- 1Child sexual abuse material, ou material de abuso sexual infantil.