O Facebook iniciou o período de testes de novas ferramentas e políticas de moderação de conteúdo na rede social. De acordo com a Wired, o objetivo agora é entender exatamente o contexto de cada postagem para saber se ela é de fato ofensiva e faz sentido em relação a um determinado assunto.
Tudo isso está em desenvolvimento dentro do próprio Facebook e deve corrigir uma das maiores falhas do site: não deletar várias publicações ou aceitar algumas denúncias por não identificar que a frase era ofensiva ou discriminatória. O contrário também vale: evitar falsos positivos e o banimento de contas que estão dentro das regras.
Antes, os moderadores tinham que tomar uma decisão sobre remover a postagem ou não e depois responder a uma série de perguntas se justificando sobre a decisão. Agora, isso será revertido: primeiro vêm as perguntas, depois a decisão.
Segundo o Facebook isso aumentou a precisão da moderação, que ainda terá novos materiais de treinamento e até cursos de especialização sobre discurso de ódio. Vale lembrar que o Facebook recentemente foi criticado pela baixa verificação dos anúncios e também por más condições dos locais de trabalho dos moderadores, que entram em contato com conteúdos pesados ao longo do dia e recebiam baixos pagamentos por isso.
Fonte: Tecmundo
Seja o primeiro a comentar