O melhor pedaço da Maçã.
MM News

Receba os nossos principais artigos diariamente, por email.

Rede neural
Shutterstock.com

Apple quer levar recursos contra abuso infantil a apps de terceiros

A empresa também confirmou que, ao menos a princípio, vídeos não serão analisados pela tecnologia NeuralHash

Ao longo dos últimos dias, a Apple tem promovido um verdadeiro tour de imprensa para explicar os seus novos recursos contra abuso/pornografia infantil e apaziguar as preocupações — muitas delas deveras pertinentes — de que as ferramentas podem ser ameaças à privacidade dos usuários.

Publicidade

Pois no documento de perguntas e respostas publicado hoje mais cedo pela Maçã, a empresa tratou de mais alguns assuntos importantes relacionados às ferramentas. O primeiro dele diz respeito aos vídeos sincronizados com a sua biblioteca do Fotos do iCloud.

Mais precisamente, a Apple deixou claro que — ao menos a princípio — os vídeos não serão submetidos à análise de hashes para detecção de possível conteúdo ilegal. O recurso, por ora, funcionará exclusivamente com fotos (o que faz sentido, considerando que o sistema é todo pensado para “emparelhar” automaticamente suas imagens com outras conhecidas e registradas de abuso infantil).

Ainda assim, é possível que os vídeos entrem também na ferramenta de análise futuramente — até porque os conteúdos em vídeo também são parte importante do tráfego global de materiais de abuso infantil. Por ora, entretanto, nada feito.

Expansão para outros apps e serviços

Outro aspecto tratado pela Maçã foi em relação ao uso de suas ferramentas por terceiros. Segundo a empresa, a intenção é, sim, de eventualmente disponibilizar os recursos para que outras empresas e plataformas possam implementá-los em seus apps e serviços, mas ainda não há nenhum anúncio concreto a ser feito neste sentido.

Publicidade

A Apple não explicou como seria o uso das ferramentas por outras empresas, mas não é difícil imaginar exemplos: redes como Instagram e TikTok, por exemplo, poderiam aplicar os mesmos recursos do iMessage em contas de menores de idade, analisando automaticamente fotos trocadas pelos usuários e alertando-os sobre possível conteúdo inapropriado.

A Apple poderia, ainda, disponibilizar o NeuralHash para outras empresas de armazenamento da nuvem, possibilitando que serviços como Dropbox e Google Drive utilizassem a mesma tecnologia de hashes para detectar automaticamente conteúdo ilegal.

Publicidade

Obviamente, tudo isso é hipotético: não sabemos se Dropbox ou Google aceitariam entregar toda essa verificação a uma outra empresa, nem se a Apple estaria interessada em colaborar com seus concorrentes diretos nesse sentido.

O fato é que, pelo menos por enquanto, essas são as informações que temos. Digam vocês, agora: mudaram de opinião em relação aos recursos, continuam com o pé atrás ou concordam desde o início?

via MacRumors

Ver comentários do post

Carregando os comentários…
Artigo Anterior
Mulher em um call center

Call center terceirizado da Apple quer vigiar seus funcionários em casa

Próximo Artigo
TikTok

TikTok passa Facebook e é o app mais baixado do mundo

Posts Relacionados