Já faz um tempo que o TikTok vem se mobilizando para adequar o seu app ao público infantil e trazer mais opções de segurança. Agora, a empresa anunciou novas ferramentas de moderação de conteúdo para tornar o app ainda mais confiável e personalizável, principalmente para usuários menores de 18 anos.
Atualmente, já é possível sinalizar ao app que você não gostaria de ver mais determinados conteúdos ou assuntos relacionados. Agora, ao descartar um conteúdo, você também poderá escolher remover uma hashtag para não ver mais nenhum outro vídeo do tipo. A empresa menciona o exemplo de alguém que está em uma certa dieta e não gostaria mais de ver um determinado tipo de receita, mas o recurso pode ser usado também para evitar assuntos e hashtags com assuntos mais delicados.
A outra novidade ocorre nos “bastidores”, onde o algoritmo do app trabalhará para diminuir a frequência de certos tipos de assuntos que podem trazer danos se vistos repetidamente, como é o caso de dietas, condicionamento físico extremo, tristeza e outros tópicos de bem-estar. A empresa afirma que ainda está testando e desenvolvendo maneiras de entender as nuances dessa função, já que alguns conteúdos podem ser tristes e também encorajadores, como acontece em relatos de quem já venceu distúrbios alimentares, entre outras coisas.
Por fim, eles apresentaram o novo sistema Content Levels (Níveis de Conteúdo), que restringirá aos adolescentes certos tipos de mídias. Conteúdo adulto é proibido na plataforma; ainda assim, a empresa afirma que podem existir “temas maduros ou complexos que podem refletir experiências pessoais ou eventos do mundo real destinados a públicos mais velhos”. Portanto, esse novo sistema busca classificar esse tipo de conteúdo e atribuir a ele uma pontuação de maturidade, o que impedirá que ele seja visto por usuários com idade entre 13 e 17 anos.
O recurso será lançado nas próximas semanas, mas terá uma progressão até que chegue ao ponto ideal. Isto é, inicialmente somente o TikTok avaliará os vídeos mais populares ou aqueles sinalizados pelos usuários. O próximo passo seria estender essa avaliação para toda a comunidade e, por fim, os próprios criadores de conteúdo poderão classificar seus conteúdos por faixa etária.
Essas medidas provavelmente são uma maneira de amenizar as pressões e acusações que o TikTok vem sofrendo por promover conteúdo prejudicial aos mais jovens. Como a influência do app nessa faixa etária é grande, esperamos que esses e mais esforços venham de fato a amenizar os problemas — lembrando, é claro, que os responsáveis pelos menores de idade devem sempre acompanhar de perto seus filhos, independentemente dos recursos de segurança implementados pela rede.
via TechCrunch