O melhor pedaço da Maçã.
Apple e inteligência artificial

Análise de abuso infantil terá auditoria pública e limite de 30 imagens

Além disso, a Apple passou a orientar os empregados das suas lojas a estudar a documentação sobre os recursos para responder perguntas de clientes

Mais um dia, mais uma rodada de explicações sobre os novos recursos da Apple contra abuso infantil. Agora, mais precisamente sobre o mais polêmico deles: a análise de hashes das fotos no seu iPhone/iPad (quando o Fotos do iCloud está ativado), que serão enviadas para monitoramento de possíveis conteúdos relacionados a pornografia infantil.

Publicidade

Em um documento liberado hoje [PDF], a Apple ofereceu a explicação mais técnica e completa sobre a tecnologia até o momento. A seção dedicada ao NeuralHash (nome técnico da tecnologia de detecção de CSAM1Child sexual abuse material.) também traz alguns dados novos — como o fato de que o sistema poderá, sim, ter auditoria pública.

Mais precisamente, quando o sistema começar a operar, usuários poderão verificar o hash raiz (root hash) da base de dados nos seus próprios dispositivos. Concomitantemente, a Apple publicará uma base de conhecimento com a root hash usada nas análises; com isso, usuários, pesquisadores de segurança e grupos pró-privacidade poderão verificar se as duas listas batem.

Isso é importante considerando como é formada a lista de hashes “proibidos”. Já se sabe que a Apple usará bases de dados de algumas organizações, com centenas de milhares de imagens conhecidas de pornografia infantil. A lista de hashes será constantemente atualizada e produzida a partir de uma interseção de duas ou mais bases de dados.

Funcionamento do NeuralHash

A auditoria, portanto, garantirá aos usuários e grupos que os hashes utilizados sempre virão das organizações de combate a abuso infantil, sem inclusões de hashes “irregulares”.

Publicidade

O documento da Maçã também detalha os dispositivos de segurança para evitar possíveis abusos do sistema — como um cenário hipotético no qual diferentes governos e organizações contra o abuso infantil se unissem para adicionar hashes não relacionados a CSAM no sistema. Neste caso, a equipe de análise humana da Apple verificará que usuários estão sendo marcados por fotos que não correspondem a conteúdo de abuso infantil e detectará o problema na lista de hashes, agindo de acordo.

Em relação ao sistema, já sabemos que ele tem um número mínimo de “detecções” antes de disparar o alerta para que a equipe de análise humana da Apple entre em ação. Este limite mínimo ainda não tinha sido divulgado, mas o documento revela que, inicialmente, o número será de 30 imagens — a Apple, entretanto, poderá alterar o valor com o avanço do sistema. A empresa garante que o número nunca ficará abaixo do valor exigido para que o NeuralHash mantenha sua taxa de erros em 1:1.000.000.000.000.

Todos os outros detalhes técnicos do sistema podem ser conferidos no documento, disponível nesse link [PDF].

Apple orientando varejo

Por mais que a Apple esteja incessantemente explicando e tirando dúvidas sobre seus novos recursos, a empresa sabe que pisou na bola na estratégia de lançamento deles e que os consumidores estão receosos e com dúvidas — o próprio Craig Federighi admitiu o erro numa entrevista hoje mais cedo.

Publicidade

Agora, segundo a Bloomberg, a Maçã está instruindo os empregados de suas lojas que se preparem para perguntas de clientes. Em um memorando distribuído entre o setor de varejo, a empresa pediu que funcionários leiam as documentações relacionadas aos novos recursos e se preparem para possíveis perguntas dos consumidores:

Publicidade

Você poderá receber perguntas sobre privacidade de consumidores que souberam dos nossos anúncios recentes sobre proteções expandidas para crianças. Este documento inclui uma seção de perguntas e respostas para lidar com essas questões e trazer mais clareza e transparência ao processo. Nós também adicionamos as principais perguntas sobre a detecção de CSAM abaixo. Por favor, tome seu tempo para analisar o conteúdo abaixo e o FAQ completo para que você possa ajudar nossos clientes.

Pelo visto, a força-tarefa de redução de danos da Maçã está se formando rapidamente. Será que vai ter resultado?

via MacRumors

Notas de rodapé

  • 1
    Child sexual abuse material.

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Vídeo: MM Entrevista com William Marchiori

Próx. Post

Apple supera Netflix e comprará filme com Jennifer Lawrence, diz fonte

Posts Relacionados