O melhor pedaço da Maçã.

Apple usa ferramenta para remover apps perigosos para crianças da App Store

Manuela Durson / Shutterstock.com
Adolescente usando iPhone

A Apple removeu da App Store pelo menos dez aplicativos sociais apontados pelo site The App Danger Project como “potencialmente perigosos para crianças”. Criado pelo cientista da computação Brian Levine, o projeto usa inteligência artificial para encontrar comentários com termos relacionados a pornografia infantil ou pedofilia nas avaliações de apps na App Store e no Google Play.

Publicidade

Em reportagem do The New York Times, Levine afirmou que a ideia do The App Danger Project nasceu da falta de recursos (como pesquisa por palavras-chave nas avaliações) para ajudar pais a avaliar se um aplicativo é ou não seguro para seus filhos. O site lista atualmente 182 aplicativos que têm pelo menos um comentário relacionado aos termos supracitados — o que não significa, necessariamente, que todos eles sejam realmente inseguros.

Possuindo um campo de pesquisa e ordenando os aplicativos do que tem o maior número de comentários problemáticos ao que possui menos, o App Danger permite clicar no nome de qualquer um dos sites listados — o que exibe tanto a quantidade quanto as avaliações propriamente ditas. O Whisper é o líder nessa lista, contando com mais de 100 comentários do gênero apenas na App Store.

Tanto a Apple quanto o Google afirmaram ao jornal que inspecionam regularmente avaliações de usuários com seus próprios algoritmos, os quais incluem investigações referentes a abuso sexual infantil. A Maçã, inclusive, afirmou ter removido dez dos apps listados pelo App Danger — embora tenha se recusado a fornecer quais foram eles e por quais razões tomou a decisão de excluí-los da sua loja de aplicativos.

Publicidade

“Nossa equipe de revisão de aplicativos trabalha 24 horas por dia, 7 dias por semana para revisar cuidadosamente cada novo aplicativo e atualização para garantir que ele atenda aos padrões da Apple”, disse um porta-voz da empresa, que, de fato, vem tomando algumas decisões visando combater a pedofilia e a pornografia infantil — como o recém-lançado recurso Segurança na Comunicação.

Por outro lado, já mostramos como a Apple pode ignorar denúncias de usuários referentes a conteúdos relacionados a tais temas — ou, até mesmo, fazer “vista grossa” quando o assunto são apps que potencialmente podem favorecer a prática de crimes virtuais envolvendo crianças.

via 9to5Mac

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Threads enfrenta baixa popularidade no Brasil, aponta pesquisa

Próx. Post

Apple ajudará o Havaí a se recuperar de incêndios florestais

Posts Relacionados