Todo mundo que usa o Twitter sabe que o maior desafio da plataforma é manter a timeline sem discursos de ódio ou discriminatórios, de forma que as pessoas ainda também tenha liberdade de expressão. No ano passado, a companhia ampliou as diretrizes que expulsam quem tratar grupos religiosos de maneira agressiva e, agora, a rede social vem sendo mais incisiva para banir comentários tóxicos, expandindo as regras para banir quem falar pejorativamente sobre coisas como idade, deficiências e doenças.
Essas mudanças chegam em um momento oportuno, já que estamos vivendo uma grande disseminação do novo coronavírus SARS-CoV-2 e muita gente tem feito postagens preconceituosas sobre esse tema, incluindo discursos discriminatórios sobre a China e seus habitantes, uma vez que o país asiático foi o epicentro da doença COVID-19. A partir desta semana, os tweets que já violaram as novas regras precisarão ser excluídos, mas não resultarão em nenhuma suspensão de conta porque essas normas não estavam em vigor no momento da publicação.
No entanto, todos os tweets publicados a partir de agora terão de obedecer à política de conduta; caso contrário, os perfis podem ser banidos. Mas o que seria um texto inadequado? Bem, qualquer tipo de comentário que associe a COVID-19 com “piadinhas” envolvendo asiáticos, ou se você tentar humilhar alguém por causa de coisas como idade e deficiências (inclusive mentais), por exemplo.
Vale destacar que é o mesmo tratamento já vigente em outros assuntos que causam punições na plataforma, como ofensas a raça, etnia, origem, orientação sexual e gênero.
Problemas de execução
Um dos problemas sobre essas novas regras é que o Twitter não consegue acompanhar tão rapidamente a aplicação de tais normas devido ao grande volume de tweets publicados. Além disso, sua confiança em fazer com que os usuários sinalizem os tweets para revisão significa que a remoção do discurso de ódio é tratada de maneira reativa, e não proativa. E é justamente por conta desse comportamento que a plataforma vem sendo criticada, pois esse tipo de filtro permite que os abusos permaneçam online por um tempo — até que a denúncia seja recebida e verificada, ao menos.
O próprio Twitter admite esses e outros desafios, e afirma que vem realizando um treinamento mais aprofundado, com um período de experiência suficiente para que os revisores humanos entendam melhor quando e como agir, e a melhor forma de proteger conversas de grupos marginalizados. A companhia diz ter criado um Conselho de Confiança e Segurança para ajudar os usuários a compreenderem melhor as nuances e o contexto em torno de categorias complexas, como raça, etnia e origem nacional.
Especialistas acreditam que a adição de prompts educacionais na caixa de texto de composição, que alertam os usuários sobre o conteúdo que provavelmente será relatado ou removido, seriam mais eficazes do que ampliar as restrições na política de exclusão de contas. O jeito é aguardar e ver se a nova medida realmente diminui os discursos tóxicos na plataforma.
Fonte: TechCrunch via CanalTech
Seja o primeiro a comentar