O melhor pedaço da Maçã.

Recursos contra abuso infantil foram “incompreendidos”, diz Craig Federighi

WIRED
Craig Federighi

O vice-presidente sênior de engenharia de software da Apple, Craig Federighi, falou com a jornalista do The Wall Street Journal, Joanna Stern, sobre a polêmica envolvendo os futuros recursos de proteção contra abuso e pornografia infantil da empresa — que serão implantados após o lançamento do iOS/iPadOS 15 e do macOS Monterey 12.

Publicidade

Embora defenda a implantação das ferramentas, Federighi disse que a Apple errou ao lançar três recursos de proteção infantil ao mesmo tempo e gostaria que a confusão fosse evitada — comentando como a reação negativa foi vista na Apple.

Confira a entrevista, na íntegra, no vídeo abaixo:

YouTube video

Gostaríamos que isso tivesse ficado um pouco mais claro para todos, porque nos sentimos muito positivos sobre o que estamos fazendo, e podemos ver que [os recursos] têm sido mal interpretados.

Admito que, em retrospectiva, apresentar esses dois recursos ao mesmo tempo foi uma receita para esse tipo de confusão. É realmente claro que muitas informações foram confundidas. Eu acredito que a frase de efeito que saiu mais cedo foi: “Meu Deus, a Apple está examinando meu telefone em busca de imagens.” Não é isso que está acontecendo.

O executivo, então, repercutiu o que a Apple já havia divulgado em um FAQ sobre os processos envolvidos na digitalização de fotos do iCloud das imagens identificadas como CSAM1Child sexual abuse material, ou material de abuso sexual infantil. e no que acontece quando essa imagem é enviada a uma criança pelo app Mensagens.

O executivo também disse que o escaneamento CSAM “não cria uma backdoor” e que ele não entendeu de onde saiu essa teoria.

Isso [o escaneamento de imagens] só está sendo aplicado como parte de um processo de armazenamento de algo na nuvem. Isso não é um processamento executado nas imagens que você armazena no Mensagens ou no Telegram, ou no que você está navegando na web. Isso literalmente faz parte do processo para armazenar imagens no iCloud.

Quando questionado se o banco de dados de imagens usado para corresponder ao conteúdo CSAM nos dispositivos poderia ser comprometido pela inserção de outros materiais, como conteúdo político, Federighi explicou que essas informações são cruzadas a partir de imagens de “várias organizações de segurança infantil”, com pelo menos duas sendo “em jurisdições distintas”.

Sobre o porquê de anunciar tais recursos agora, o VP da Apple disse que a empresa finalmente “descobriu como implantar uma solução para um problema de longa data”.

Publicidade

Pelo visto, a companhia terá, ainda, que convencer seus próprios funcionários — além de clientes, especialistas e entidades que já estão com um pé atrás sobre os novos recursos.

via iMore

Notas de rodapé

  • 1
    Child sexual abuse material, ou material de abuso sexual infantil.

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Apple Arcade: wurdweb reinterpreta as palavras cruzadas

Próx. Post

Disney anuncia preços do Star+, seu novo serviço de streaming

Posts Relacionados