Após o choque inicial, múltiplas críticas e muitos receios sobre a iniciativa da Apple de combate à pornografia e ao abuso infantil, chegou a vez de a Alemanha, a Áustria e a Suíça questionarem o recurso.
A Associação Alemã de Jornalismo (DJV) pediu, por meio de um comunicado, que a Comissão Europeia tome medidas contra a análise de fotos do iCloud no continente europeu. Eles alegam que isso é uma “violação da liberdade de imprensa” e do Regulamento Geral de Proteção de Dados (GDPR).
A associação também acredita que o sistema de combate ao CSAM1Child sexual abuse material, ou material de abuso sexual infantil. poderá ser usado para coletar informações confidenciais de dispositivos pessoais — principalmente de jornalistas e opositores a governos.
“Todos os jornalistas têm conteúdo confidencial em seus smartphones”, disse a ex-correspondente dos EUA, Priscilla Imboden.
Essa, no entanto, não é a primeira vez que um país europeu questionou as medidas da Apple. Na semana passada, jornalistas portugueses levantaram a preocupação de que o sistema poderia gerar uma backdoor para o acesso indevido de iPhones por governos, estados autoritários ou entidades políticas, algo que a DJV também acredita.
Mesmo após o vice-presidente sênior de engenharia de software da Apple, Craig Federighi, tentar acalmar as preocupações de usuários, o porta-voz da associação, Hubert Krech, acredita que a empresa deseja acessar arquivos como contratos e documentos confidenciais guardados em dispositivos.
O porta-voz do conselho de editores da ORF, Dieter Bornemann, sugeriu que um governo poderia verificar se há imagens que possam ser evidências de que a pessoa está envolvida na comunidade LGBT.
Além disso, o grupo também acredita que, por ora, mesmo estando disponível somente nos EUA, o sistema poderá rapidamente ser adotado na Europa.
Mas, calma…
Todas essas preocupações, contudo, já foram, de certa forma, explicadas. Primeiro, a Apple deixou claro que a análise de fotos será feita a partir de hashes e não a partir do conteúdo da imagem em si.
As imagens analisadas serão apenas aquelas que já foram identificadas e existem nos bancos de imagens da NCMEC — conforme foi explicado em um FAQ compartilhado pela Maçã.
O chefe de privacidade da Apple, Erik Neuenschwander, também já explicou que o sistema de detecção CSAM tem vários elementos para evitar que governos o abusem. E por fim, o funcionamento da função dependerá da legislação de cada país, então, é claro que isso será levado em consideração.
De qualquer forma, qualquer preocupação é valida de análise e uma discussão mais ampla do assunto não faz mal a ninguém.
via AppleInsider
Notas de rodapé
- 1Child sexual abuse material, ou material de abuso sexual infantil.