O melhor pedaço da Maçã.

Europa quer “quebrar” criptografia para inibir pornografia infantil

guteksk7 / Shutterstock.com
iMessage

A Comissão Europeia, órgão que representa e defende os interesses da União Europeia, divulgou hoje uma proposta que poderá exigir que provedores de serviços de mensagens como Meta, Apple e Google (entre outras) analisem mensagens para detectar material de abuso sexual infantil (child sexual abuse material, ou CSAM).

Publicidade

O regulamento, que precisa ser endossado pelos países membros e pelo parlamento da UE, forçaria as empresas que operam na região a detectar, relatar e remover esses conteúdos das suas plataformas de mensagens. A detecção voluntária é atualmente a norma, porém, a comissão acredita que as plataformas não protegem adequadamente as crianças, uma vez que “muitas empresas não fazem o trabalho de identificação”.

A comissão da UE está convencida de que a nova proposta ofereceria “fortes salvaguardas para o respeito à privacidade e aos dados pessoais”, embora os críticos tenham dito que isso pode permitir que as empresas espionem os usuários.

O professor de criptografia da Universidade Johns Hopkins, Matthew Green, lembrou que o regulamento “repete a história da Apple”, em referência ao próprio método de escaneamento de imagens da Maçã, o qual foi adiado indefinidamente após diversas críticas.

Will Cathcart, chefe do WhatsApp (pertencente à Meta), disse que os planos são “incrivelmente decepcionantes” pois não protegem a criptografia de ponta a ponta. Ele comentou, ainda, que as medidas “forçariam as empresas a escanear as mensagens de cada pessoa e colocariam a privacidade e a segurança dos cidadãos da UE em sério risco” e que a obrigatoriedade do sistema proposto “construído para um propósito na UE” poderia ser usado para minar a privacidade “de várias maneiras diferentes globalmente.”

Publicidade

Em sua defesa, a Comissão Europeia afirmou que “qualquer revisão de conteúdos ocorreria anonimamente e que as medidas para identificar usuários só seriam tomadas caso um possível abuso infantil fosse identificado”. Contudo, a tecnologia utilizada permitiria a extração de qualquer informação além daquela necessária para detectar o abuso.

Os relatos de abuso sexual infantil na Europa aumentaram de 23 mil, em 2010, para mais de 1 milhão, em 2020. A agência internacional de polícia Interpol também relatou um aumento na distribuição online de imagens sexuais explícitas de crianças durante a pandemia do novo Coronavírus (COVID-19), segundo a Direção-Geral da Migração e Assuntos Internos da UE.

Como verificado em um apêndice da proposta, as regras poderão ser introduzidas ainda este ano e seriam válidas até 2027, inicialmente. Até o momento, porém, tanto a Apple quanto o Google não comentaram a proposta.

via POLITICO

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Usuários reclamam de ruídos estranhos nos MacBooks Pro

Próx. Post

Uber testa no Brasil recurso de chamar corrida para outra pessoa

Posts Relacionados