O melhor pedaço da Maçã.

Alemanha, Áustria e Suíça temem recursos da Apple contra abuso infantil

Os três países temem que o recurso possa ser usado para espionagem
Shutterstock.com
Comissão Europeia

Após o choque inicial, múltiplas críticas e muitos receios sobre a iniciativa da Apple de combate à pornografia e ao abuso infantil, chegou a vez de a Alemanha, a Áustria e a Suíça questionarem o recurso.

Publicidade

A Associação Alemã de Jornalismo (DJV) pediu, por meio de um comunicado, que a Comissão Europeia tome medidas contra a análise de fotos do iCloud no continente europeu. Eles alegam que isso é uma “violação da liberdade de imprensa” e do Regulamento Geral de Proteção de Dados (GDPR).

A associação também acredita que o sistema de combate ao CSAM1Child sexual abuse material, ou material de abuso sexual infantil. poderá ser usado para coletar informações confidenciais de dispositivos pessoais — principalmente de jornalistas e opositores a governos.

“Todos os jornalistas têm conteúdo confidencial em seus smartphones”, disse a ex-correspondente dos EUA, Priscilla Imboden.

Publicidade

Essa, no entanto, não é a primeira vez que um país europeu questionou as medidas da Apple. Na semana passada, jornalistas portugueses levantaram a preocupação de que o sistema poderia gerar uma backdoor para o acesso indevido de iPhones por governos, estados autoritários ou entidades políticas, algo que a DJV também acredita.

Mesmo após o vice-presidente sênior de engenharia de software da Apple, Craig Federighi, tentar acalmar as preocupações de usuários, o porta-voz da associação, Hubert Krech, acredita que a empresa deseja acessar arquivos como contratos e documentos confidenciais guardados em dispositivos.

O porta-voz do conselho de editores da ORF, Dieter Bornemann, sugeriu que um governo poderia verificar se há imagens que possam ser evidências de que a pessoa está envolvida na comunidade LGBT.

Além disso, o grupo também acredita que, por ora, mesmo estando disponível somente nos EUA, o sistema poderá rapidamente ser adotado na Europa.

Mas, calma…

Todas essas preocupações, contudo, já foram, de certa forma, explicadas. Primeiro, a Apple deixou claro que a análise de fotos será feita a partir de hashes e não a partir do conteúdo da imagem em si.

As imagens analisadas serão apenas aquelas que já foram identificadas e existem nos bancos de imagens da NCMEC — conforme foi explicado em um FAQ compartilhado pela Maçã.

O chefe de privacidade da Apple, Erik Neuenschwander, também já explicou que o sistema de detecção CSAM tem vários elementos para evitar que governos o abusem. E por fim, o funcionamento da função dependerá da legislação de cada país, então, é claro que isso será levado em consideração.

Publicidade

De qualquer forma, qualquer preocupação é valida de análise e uma discussão mais ampla do assunto não faz mal a ninguém.

via AppleInsider

Notas de rodapé

  • 1
    Child sexual abuse material, ou material de abuso sexual infantil.

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Tinder expandirá selo de verificação para usuários no mundo todo

Próx. Post

Promoções na App Store: Gone Home, Hatchi, Graphing Calculator 4 e mais!

Posts Relacionados