Após “críticas generalizadas”, a Apple anunciou que não lançará seus recursos contra abuso infantil conforme planejado, adiando a implantação das ferramentas (anunciadas no mês passado) para fazer “melhorias” antes de lançá-las, como divulgado pelo colunista da Bloomberg, Mark Gurman.
Como informamos, os recursos foram amplamente criticados por usuários e especialistas em segurança, os quais alegaram uma possível violação de privacidade — principalmente em relação à ferramenta de escaneamento das fotos do iCloud em busca de indicadores de material de abuso sexual infantil (child sexual abuse material, ou CSAM).
No mês passado, anunciamos planos para lançar recursos destinados a proteger as crianças de abusadores que usam ferramentas de comunicação para aliciá-los e explorá-los, e limitar a disseminação de material de abuso sexual infantil. Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos dedicar mais tempo nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes.
Outros recursos contra abuso infantil anunciados pela Apple, e que também serão adiados, incluem a identificação de conteúdo pornográfico no app Mensagens, e as melhorias na Siri e no Spotlight.
Até agora, a Apple ofereceu poucas informações sobre quando planeja (re)lançar os recursos — os quais seriam disponibilizados, inicialmente, após a chegada dos novos sistemas operacionais (iOS 15, iPadOS 15 e macOS Monterey 12) — ou como será o processo de revisão das ferramentas.
Ficaremos de olho, é claro.