A Sociedade para a Prevenção da Crueldade contra Crianças do Reino Unido (National Society for the Prevention of Cruelty to Children, ou NSPCC) está acusando a Apple de subnotificar casos de material de abuso sexual infantil em suas plataformas.
Segundo o órgão, predadores infantis usaram serviços como iCloud, iMessage e FaceTime para armazenar e compartilhar imagens de abuso infantil mais vezes na Inglaterra e no País de Gales do que a Maçã relatou no mundo todo em um ano.
Entre abril de 2022 e março de 2023, a Apple esteve envolvida em 337 crimes de imagens de abuso infantil nos países. No entanto, em 2023, relatou apenas 267 casos suspeitos ao Centro para Crianças Desaparecidas e Exploradas (NCMEC).
Em comparação, outras grandes empresas de tecnologia, como o Google e a Meta, relataram muito mais casos. Dados mostram que a gigante de Mountain View informou mais de 1,47 milhão; já a companhia de Mark Zuckerberg, mais de 30,6 milhões.
O chefe de política de segurança infantil online da NSPCC, Richard Collard, expressou preocupação com a diferença entre o número de crimes de imagens de abuso infantil no Reino Unido nos serviços da Apple e os poucos relatórios globais da empresa.
Ele destacou que a Maçã está atrás de outras empresas no combate ao abuso sexual infantil e pediu que ela invista mais em medidas de segurança, especialmente com a chegada da Lei de Segurança Online no Reino Unido, aprovada no ano passado.
O lançamento da Apple Intelligence gerou preocupações entre especialistas em segurança infantil. A NSPCC teme que imagens de abuso infantil geradas por IA aumentem os riscos para as crianças e dificultem a proteção das vítimas.
Em 2023, o NCMEC recebeu mais de 4,7 mil relatórios de CSAM gerado por IA e espera que esse número cresça. O recurso Segurança de Comunicação (Communication Safety) é considerado insuficiente por críticos para resolver o problema.
A Maçã não respondeu diretamente às acusações da NSPCC, mas mencionou declarações feitas em agosto de 2023. Nelas, explicou que decidiu não implementar o programa que escanearia fotos no iCloud em busca de material de abuso infantil (CSAM), optando por priorizar a privacidade e a segurança dos usuários.
via The Guardian