A decisão da Apple de cancelar o lançamento de um recurso que possibilitaria identificar conteúdos de nudez infantil em imagens no iCloud ainda acarreta dor de cabeça para a empresa.
Mais recentemente, por exemplo, uma proposta de ação coletiva aponta que a Apple está “se escondendo atrás de alegações de privacidade para evitar a interrupção do armazenamento de material de abuso infantil no iCloud e do suposto aliciamento no iMessage”.
As acusações mais recentes surgiram em um novo processo protocolado no Tribunal Distrital Norte da Califórnia em nome de uma criança de nove anos identificada como Jane Doe (um pseudônimo). Segundo a ação, ela foi coagida a enviar conteúdos sexuais de seu iPad.
Quando Jane Doe, de 9 anos, recebeu um iPad de Natal, ela nunca imaginou que os perpetradores o usariam para coagi-la a produzir e enviar material de abuso sexual infantil (“CSAM”) para o iCloud.
A criança citada no processo foi contatada inicialmente pelo aplicativo Snapchat. As conversas foram então transferidas para o iMessage, antes que ela fosse solicitada a gravar vídeos sexuais.
O processo pede um julgamento por júri e o pagamento de danos morais superiores a US$5 milhões para cada pessoa abrangida pela ação coletiva. A demandante também pede que a Apple seja forçada a adotar medidas para proteger crianças contra o armazenamento e a distribuição de materiais de abuso sexual infantil no iCloud, entre outras exigências.
A ação surge inclusive após as alegações de uma organização do Reino Unido de que a Apple está subnotificando incidentes de material de abuso sexual infantil em suas plataformas.
via AppleInsider