O melhor pedaço da Maçã.
Shutterstock.com
Rede neural

Apple quer levar recursos contra abuso infantil a apps de terceiros

A empresa também confirmou que, ao menos a princípio, vídeos não serão analisados pela tecnologia NeuralHash

Ao longo dos últimos dias, a Apple tem promovido um verdadeiro tour de imprensa para explicar os seus novos recursos contra abuso/pornografia infantil e apaziguar as preocupações — muitas delas deveras pertinentes — de que as ferramentas podem ser ameaças à privacidade dos usuários.

Publicidade

Pois no documento de perguntas e respostas publicado hoje mais cedo pela Maçã, a empresa tratou de mais alguns assuntos importantes relacionados às ferramentas. O primeiro dele diz respeito aos vídeos sincronizados com a sua biblioteca do Fotos do iCloud.

Mais precisamente, a Apple deixou claro que — ao menos a princípio — os vídeos não serão submetidos à análise de hashes para detecção de possível conteúdo ilegal. O recurso, por ora, funcionará exclusivamente com fotos (o que faz sentido, considerando que o sistema é todo pensado para “emparelhar” automaticamente suas imagens com outras conhecidas e registradas de abuso infantil).

Ainda assim, é possível que os vídeos entrem também na ferramenta de análise futuramente — até porque os conteúdos em vídeo também são parte importante do tráfego global de materiais de abuso infantil. Por ora, entretanto, nada feito.

Expansão para outros apps e serviços

Outro aspecto tratado pela Maçã foi em relação ao uso de suas ferramentas por terceiros. Segundo a empresa, a intenção é, sim, de eventualmente disponibilizar os recursos para que outras empresas e plataformas possam implementá-los em seus apps e serviços, mas ainda não há nenhum anúncio concreto a ser feito neste sentido.

Publicidade

A Apple não explicou como seria o uso das ferramentas por outras empresas, mas não é difícil imaginar exemplos: redes como Instagram e TikTok, por exemplo, poderiam aplicar os mesmos recursos do iMessage em contas de menores de idade, analisando automaticamente fotos trocadas pelos usuários e alertando-os sobre possível conteúdo inapropriado.

A Apple poderia, ainda, disponibilizar o NeuralHash para outras empresas de armazenamento da nuvem, possibilitando que serviços como Dropbox e Google Drive utilizassem a mesma tecnologia de hashes para detectar automaticamente conteúdo ilegal.

Publicidade

Obviamente, tudo isso é hipotético: não sabemos se Dropbox ou Google aceitariam entregar toda essa verificação a uma outra empresa, nem se a Apple estaria interessada em colaborar com seus concorrentes diretos nesse sentido.

O fato é que, pelo menos por enquanto, essas são as informações que temos. Digam vocês, agora: mudaram de opinião em relação aos recursos, continuam com o pé atrás ou concordam desde o início?

via MacRumors

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Call center terceirizado da Apple quer vigiar seus funcionários em casa

Próx. Post

TikTok passa Facebook e é o app mais baixado do mundo

Posts Relacionados