Entre as várias mudanças promovidas pelo Twitter nos últimos tempos, muitas delas estão relacionadas à busca por um ambiente mais saudável e menos tóxico na rede. Pensando nisso, a plataforma está testando um recurso para permitir que usuários repensem uma resposta com linguagem potencialmente prejudicial ou ofensiva.
A ferramenta usa inteligência artificial para identificar tweets com palavras sensíveis ou com outros elementos potencialmente prejudiciais. Antes de publicar o tweet, o usuário será alertado e terá a possibilidade de editar, apagar ou, caso não veja nenhum problema, publicar seu comentário.
Vale notar que esse recurso vinha sendo testado pelo Twitter desde março de 2020 e, agora, o alerta possui um formato atualizado, divulgado nesta semana. De acordo com a rede, em 30% dos casos nos quais usuários receberam esses alertas, eles fizeram alguma correção no tweet — o que é uma quantia significativa.
Segundo o Twitter, a funcionalidade, disponível em inglês, será testada a partir desta semana com uma parte das pessoas que usam o Twitter com configurações de idioma em português.
De qualquer forma, juntando-se a outras ferramentas interessantes (como o chamado Modo Seguro e os adesivos dos “bots do bem”), fica a torcida para que as iniciativas do Twitter deem certo. Um ambiente saudável é sempre mais agradável, não é mesmo?