O melhor pedaço da Maçã.

FAQ: Apple tira dúvidas sobre recursos contra abuso infantil

Apple e privacidade

Como muitos de vocês devem ter acompanhado, na semana passada a Apple anunciou novos recursos de segurança — que chegarão posteriormente ao lançamento do iOS/iPadOS 15 e do macOS Monterey 12 — contra abuso e pornografia infantil.

Publicidade

Em meio a elogios e críticas, muitas dúvidas surgiram, e a Apple respondeu hoje grande parte desses questionamentos em um novo FAQ1Frequently asked questions, ou perguntas frequentes. [PDF].

Na Apple, nosso objetivo é criar tecnologias que capacitem as pessoas e enriqueçam suas vidas — ao mesmo tempo que as ajudam a permanecer seguras. Queremos proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los, e limitar a disseminação de material de abuso sexual infantil [child sexual abuse material, ou CSAM]. Desde que anunciamos esses recursos, muitas partes interessadas, incluindo organizações de privacidade e de segurança infantil, expressaram seu apoio a essa nova solução, e alguns entraram em contato com perguntas.

Inicialmente, a Maçã explicou as diferenças entre a varredura de imagens do Fotos do iCloud com conteúdos explícitos para crianças e os novos recursos de segurança do app Mensagens [grifo nosso].

[O recurso do app Mensagens] funciona apenas com imagens enviadas ou recebidas no aplicativo Mensagens para contas de crianças configuradas no Compartilhamento Familiar. Ele analisa as imagens no dispositivo e, portanto, não altera as garantias de privacidade das Mensagens. Quando uma conta de criança envia ou recebe imagens sexualmente explícitas, a foto fica desfocada e a criança é avisada, apresentada a recursos úteis e assegurada de que está tudo bem se não quiser ver ou enviar a foto. Como precaução adicional, as crianças também podem ser informadas de que, para ter certeza de que estão seguras, seus pais receberão uma mensagem se a virem.

O segundo recurso, a detecção de imagens CSAM nas Fotos do iCloud, foi projetado para manter esses conteúdos fora das Fotos do iCloud sem fornecer informações à Apple sobre quaisquer fotos que não correspondam às imagens CSAM conhecidas. A posse dessas imagens é ilegal na maioria dos países, incluindo os Estados Unidos. Este recurso afeta apenas usuários que optaram por usar as Fotos do iCloud para armazenar suas fotos. Isso não afeta usuários que não optaram por usar o Fotos do iCloud. Não há impacto em nenhum outro dado no dispositivo. Este recurso não se aplica ao [app] Mensagens.

A Apple também abordou preocupações sobre a possibilidade de o sistema ser usado para detectar qualquer outra coisa além de imagens com material de abuso sexual infantil [grifo nosso].

Nosso processo é projetado para evitar que isso aconteça. A detecção de CSAM das Fotos do iCloud foi desenvolvida para que o sistema funcione apenas com hashes de imagem CSAM fornecidos pelo NCMEC2National Center for Missing & Exploited Children, ou Centro Nacional para Crianças Desaparecidas e Exploradas. e outras organizações de segurança infantil. Esse conjunto de hashes de imagem é baseado em imagens adquiridas e validadas como CSAM por organizações de segurança infantil. Não há relatórios automatizados para as autoridades policiais e a Apple conduz uma análise humana antes de fazer um relatório para o NCMEC. Como resultado, o sistema foi projetado apenas para relatar as Fotos do iCloud que são reconhecidas como CSAM.

Nesse sentido, a empresa também garante que nem mesmo governos poderão forçar a Apple a escanear outras imagens que não aquelas com material de abuso sexual infantil:

A Apple recusará tais demandas. […] Já enfrentamos demandas para criar e implantar mudanças impostas pelo governo que degradam a privacidade dos usuários antes e recusamos firmemente essas demandas. Continuaremos a recusá-los no futuro. Sejamos claros, essa tecnologia se limita a detectar CSAM armazenados no iCloud e não atenderemos a nenhum pedido governamental para expandi-la. Além disso, a Apple conduz uma revisão humana antes de fazer um relatório ao NCMEC. No caso em que o sistema sinaliza fotos que não correspondem às imagens CSAM conhecidas, a conta não seria desativada e nenhum relatório seria enviado ao NCMEC.

Muitos usuários se preocuparam com a possibilidade de imagens de seus filhos ou outras crianças em seus dispositivos servirem de gatilho para o recurso de proteção — mas não há chance de isso acontecer, segundo a Apple.

O sistema é projetado para ser muito preciso, e a probabilidade de que o sistema sinalize incorretamente qualquer conta é menor do que um em um trilhão por ano. Além disso, sempre que uma conta é sinalizada pelo sistema, a Apple conduz uma revisão humana antes de fazer um relatório ao NCMEC. Como resultado, os erros ou ataques do sistema não farão com que pessoas inocentes sejam relatadas ao NCMEC.

No geral, a Apple explica que o recurso garantirá ao máximo a privacidade de usuários, de forma que as pessoas afetadas serão aquelas que, bom, estão cometendo um crime — pelo menos na teoria.

Aos interessados, o FAQ está disponível na íntegra aqui [PDF], em inglês.

Notas de rodapé

  • 1
    Frequently asked questions, ou perguntas frequentes.
  • 2
    National Center for Missing & Exploited Children, ou Centro Nacional para Crianças Desaparecidas e Exploradas.

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Spotify recua e agora promete suporte ao AirPlay 2

Próx. Post

CEO da Epic Games acusa a Apple de agir como “spyware”

Posts Relacionados