O YouTube anunciou nesta quarta-feira, 29, uma atualização em suas políticas de moderação para remover vídeos que tenham informações falsas sobre vacinas em geral.
A plataforma já tinha regras para as desinformação relacionada com imunizante contra a Covid-19, mas agora passa a ter diretrizes que valem para todas vacinas aplicadas atualmente que tenham aprovação de segurança e eficácia emitidas pelas autoridades locais de saúde e a OMS.
Canais que publicarem conteúdos que desrespeitem a regra terão o material removido e receberão uma notificação por e-mail.
Se a infração se repetir, o envio de novos vídeos fica restrito por uma semana – reincidências em um período de 90 podem resultar na exclusão da conta.
De acordo com a companhia, serão removidos conteúdos com alegações falsas de que vacinas aprovadas são:
perigosas;
causam danos crônicos à saúde;
não reduzem as chances de transmitir/contrair doenças;
ou que contenham desinformação sobre as substâncias contidas nos imunizantes.
Como exemplo, a empresa citou alegações falsas incluindo afirmar que vacinas aprovadas causam autismo, câncer ou infertilidade ou que substâncias presentes nas vacinas podem rastrear quem as tomou.
“Temos visto constantes alegações falsas sobre as vacinas contra o coronavírus, que acabam gerando muita desinformação sobre imunizantes em geral”, escreveu o diretor de parcerias de saúde pública do YouTube, Garth Graham, em um comunicado.
O YouTube disse que conversou com organizações e especialistas da área da saúde de diversos países para criar as políticas.
“Como qualquer atualização em larga escala, levará um tempo até que nossos sistemas terminem de aplicar as regras em toda a plataforma, incluindo vídeos antigos”, afirmou a empresa.
A plataforma citou exceções, como conteúdo que aborde políticas relacionadas às vacinas, novos testes de vacinas e históricos de sucesso ou falha dos imunizantes.
“Também permitiremos depoimentos pessoais sobre as vacinas, desde que o vídeo não viole as diretrizes da comunidade ou que o canal não apresente um padrão de conteúdo que promove desinformação sobre vacinas”, disse a companhia.
Remoção de vídeos
Segundo o YouTube, foram removidos mais 130 mil vídeos que violaram as políticas sobre a vacina contra Covid-19 desde outubro de 2020.
Esse dado faz parte de um balanço divulgado em agosto pela plataforma, quando afirmou que foram removidos “mais de 1 milhão de vídeos relacionados a informações perigosas sobre o coronavírus” desde o início da pandemia, em fevereiro de 2020.
O número é modesto na comparação com o total de materiais tirados do ar no YouTube entre janeiro de 2020 e junho de 2021. A soma das remoções desse período, que inclui todos os tipos de conteúdos proibidos, chega a 50,3 milhões de vídeos.
Um estudo divulgado em novembro do ano passado pela União Pró-Vacina (UPVacina), ligada à USP de Ribeirão Preto (SP), apontou que, mesmo com as mudanças nas diretrizes anunciada meses antes, o YouTube mantinha no ar vídeos que davam informações falsas sobre a vacina contra Covid.
Entre os conteúdos alarmistas e sem nenhuma fundamentação científica, havia posts que datavam de março daquele ano, portanto, publicados após a regra que veta esse tipo de conteúdo, que geravam recursos financeiros tanto para a empresa quanto para produtores de 37 canais, com mais de 3,1 milhões de inscritos e 3,8 milhões de visualizações até 22 de outubro, de acordo com o instituto.
Na época, o YouTube informou ao g1 que não foi procurado pelos autores da pesquisa e, portanto, não tinha como comentar a metodologia utilizada e os resultados encontrados.
Seja o primeiro a comentar