Segundo rede social, teste de mensagem de aviso acontecerá apenas em iPhones. Aviso vai aparecer apenas para tuítes em inglês.
Por G1 05/05/2020 17h03
Atualizado há 49 minutos
Postado em 05 de maio de 2020 às 17h55m
Twitter vai avisar usuários antes que eles publiquem tuíte com palavras que já foram denunciadas como ofensivas — Foto: REUTERS/Kacper Pempel
O Twitter irá testar uma ferramenta de envio de notificação aos usuários quando eles postarem uma resposta a tuíte usando "linguagem ofensiva" que aparece em mensagens marcadas como ofensivas. A medida é parte do esforço para moderar as conversas na plataforma, disse a rede social nesta terça-feira (5).
Segundo publicação feita no perfil de suporte da empresa, o aviso estará disponível apenas em celulares com sistema operacional iOS (iPhones). De acordo com a agência reuters, o teste deve durar pelo menos algumas semanas e será realizado globalmente, mas apenas vai ser aplicado sobre tuítes em inglês.
When things get heated, you may say things you don't mean. To let you rethink a reply, we’re running a limited experiment on iOS with a prompt that gives you the option to revise your reply before it’s published if it uses language that could be harmful.— May 5, 2020
Quando os usuários clicam em "enviar" em sua resposta, eles serão informados que as palavras no tuíte são semelhantes às usadas em publicações denunciadas como ofensivas e serão questionados se gostariam de revisá-lo ou não.
O Instagram já havia anunciado uma política semelhante para diminuir o número de comentários com conteúdo ofensivo.
Há muito tempo que o Twitter está sob pressão para eliminar conteúdo abusivo. Atualmente, a rede é monitorada por usuários, que denunciam tuítes ofensivos e por tecnologia de inteligência artificial, que faz a remoção automática de publicações problemáticas.
"Estamos tentando incentivar as pessoas a repensarem seu comportamento e repensarem sua linguagem antes de publicarem, porque geralmente estão no calor do momento e podem acabar dizendo algo que vão se arrepender depois", disse Sunita Saligram, chefe global de política do Twitter na área de confiança e segurança.
As políticas do Twitter não permitem que os usuários ataquem indivíduos com insultos racistas ou sexistas ou conteúdo degradante.