O melhor pedaço da Maçã.
MM News

Receba os nossos principais artigos diariamente, por email.

Lupa sobre página da Apple
Mr. Tempter / Shutterstock.com

Apple remove referências a recurso de escaneamento de fotos [atualizado]

A Apple anunciou, em agosto, um conjunto de recursos contra o abuso infantil online, entre eles a Segurança na Comunicação e melhorias voltadas para a Siri, o Spotlight e as pesquisas do Safari no sentido de ajudarem crianças e pais a se manterem seguros e obter ajuda em situações de risco, os quais foram lançados com o iOS 15.2.

Publicidade

Além das novidades mencionadas, a Maçã também anunciou um terceiro recurso de escaneamento de imagens com conteúdos de material de abuso sexual infantil (child sexual abuse material, ou CSAM). Essa tecnologia, especificamente, foi criticada por uma ampla gama de indivíduos e organizações, incluindo pesquisadores de segurança e até alguns funcionários da Apple.

Inicialmente, a companhia tentou reverter esse cenário divulgando informações detalhadas sobre o recurso — incluindo FAQs, vários novos documentos, entrevistas com executivos da empresa e muito mais, a fim de minimizar as preocupações.

No entanto, apesar dos esforços, a empresa não conseguiu uma boa aceitação — nem de boa parte dos seus usuários, nem da mídia. Sendo assim, a companhia decidiu adiar o lançamento do recurso de escaneamento — e, agora, tudo indica que ela está colocando ainda mais panos quentes sobre a situação.

Publicidade

Como descoberto em um tópico do Reddit, a Apple discretamente removeu todas as referências ao recurso da sua página de tecnologias de segurança infantil, citando apenas os recursos do iMessage e da Siri/Spotlight. Além disso, antes o site tinha o seguinte aviso, que agora foi removido:

Atualização em 3 de setembro de 2021: anunciamos anteriormente planos para recursos destinados a ajudar a proteger crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los e para ajudar a limitar a disseminação de material de abuso sexual infantil. Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes.

De fato, pode ser que a Maçã esteja estudando a viabilidade do recurso de escaneamento de imagens; contudo, parece que isso não está mais na lista de prioridades da companhia.

via MacRumors

Atualização15/12/2021 às 16:23

Em um comunicado enviado ao The Verge, um porta-voz da Apple disse que “a posição da empresa não mudou desde setembro, quando anunciou que atrasaria o lançamento do recurso de detecção de CSAM”.

Logo, o movimento mais recente da Maçã não significa que o recurso tenha sido cancelado, apesar da especulação de algumas pessoas.

Ver comentários do post

Carregando os comentários…
Artigo Anterior
Apple e privacidade

O que é e como ativar o Relatório de Privacidade dos Apps [iPhone e iPad]

Próximo Artigo
Revisando áudio no WhatsApp

WhatsApp já permite ouvir áudios antes de enviá-los

Posts Relacionados