Ao longo dos últimos dias, a Apple tem promovido um verdadeiro tour de imprensa para explicar os seus novos recursos contra abuso/pornografia infantil e apaziguar as preocupações — muitas delas deveras pertinentes — de que as ferramentas podem ser ameaças à privacidade dos usuários.
Pois no documento de perguntas e respostas publicado hoje mais cedo pela Maçã, a empresa tratou de mais alguns assuntos importantes relacionados às ferramentas. O primeiro dele diz respeito aos vídeos sincronizados com a sua biblioteca do Fotos do iCloud.
Mais precisamente, a Apple deixou claro que — ao menos a princípio — os vídeos não serão submetidos à análise de hashes para detecção de possível conteúdo ilegal. O recurso, por ora, funcionará exclusivamente com fotos (o que faz sentido, considerando que o sistema é todo pensado para “emparelhar” automaticamente suas imagens com outras conhecidas e registradas de abuso infantil).
Ainda assim, é possível que os vídeos entrem também na ferramenta de análise futuramente — até porque os conteúdos em vídeo também são parte importante do tráfego global de materiais de abuso infantil. Por ora, entretanto, nada feito.
Expansão para outros apps e serviços
Outro aspecto tratado pela Maçã foi em relação ao uso de suas ferramentas por terceiros. Segundo a empresa, a intenção é, sim, de eventualmente disponibilizar os recursos para que outras empresas e plataformas possam implementá-los em seus apps e serviços, mas ainda não há nenhum anúncio concreto a ser feito neste sentido.
A Apple não explicou como seria o uso das ferramentas por outras empresas, mas não é difícil imaginar exemplos: redes como Instagram e TikTok, por exemplo, poderiam aplicar os mesmos recursos do iMessage em contas de menores de idade, analisando automaticamente fotos trocadas pelos usuários e alertando-os sobre possível conteúdo inapropriado.
A Apple poderia, ainda, disponibilizar o NeuralHash para outras empresas de armazenamento da nuvem, possibilitando que serviços como Dropbox e Google Drive utilizassem a mesma tecnologia de hashes para detectar automaticamente conteúdo ilegal.
Obviamente, tudo isso é hipotético: não sabemos se Dropbox ou Google aceitariam entregar toda essa verificação a uma outra empresa, nem se a Apple estaria interessada em colaborar com seus concorrentes diretos nesse sentido.
O fato é que, pelo menos por enquanto, essas são as informações que temos. Digam vocês, agora: mudaram de opinião em relação aos recursos, continuam com o pé atrás ou concordam desde o início?
via MacRumors