Humanidades

Teorias da conspiração florescem no YouTube, relata estudo
Um novo estudo realizado por pesquisadores de mídia social da Universidade de Sydney e da QUT descobriu que as teorias da conspiração estão prosperando no YouTube, apesar dos esforços da plataforma para endurecer as regras e diretrizes de postagem.
Por Universidade de Sydney - 06/10/2022


Domínio público

Um novo estudo realizado por pesquisadores de mídia social da Universidade de Sydney e da QUT descobriu que as teorias da conspiração estão prosperando no YouTube, apesar dos esforços da plataforma para endurecer as regras e diretrizes de postagem.

O estudo, publicado na Harvard Kennedy School Misinformation Review , examinou os comentários do YouTube sobre vídeos de notícias da COVID-19 com o magnata e filantropo americano Bill Gates e descobriu que as teorias da conspiração eram dominadas.

Os comentários abordaram tópicos como a agenda oculta de Bill Gates, seu papel no desenvolvimento e distribuição de vacinas, sua linguagem corporal , sua conexão com o criminoso sexual condenado Jeffrey Epstein, danos à rede 5G e ideias sobre Gates controlando pessoas por meio de microchip humano e a "marca da besta."

Os resultados sugerem que, durante a pandemia do COVID-19, o recurso de comentários do YouTube, como os fóruns de mensagens anônimas 4chan e 8kun, pode ter desempenhado um papel subestimado no crescimento e circulação de teorias da conspiração .

Os resultados apoiam estudos anteriores que argumentam que a desinformação é um fenômeno coletivo e socialmente produzido.

Dra. Joanne Gray, pesquisadora da Universidade de Sydney sobre política e governança de plataformas digitais, disse: "Descobrimos que o processo de desenvolvimento de uma teoria da conspiração é bastante social. As pessoas se reúnem e socialmente 'juntam os pontos' ou compartilham novas informações que eles usam para construir narrativas conspiratórias. As abordagens atuais das plataformas de mídia social para moderação de conteúdo (que geralmente são automatizadas) não são boas para detectar esse tipo de teorização de conspiração social."

Os coautores do estudo incluem Lan Ha e Dr. Timothy Graham da Universidade de Tecnologia de Queensland.

YouTube e teorias da conspiração

Durante a pandemia do COVID-19, o YouTube introduziu novas políticas e diretrizes destinadas a limitar a disseminação de informações médicas erradas sobre o vírus na plataforma.

Mas o estudo descobriu que o recurso de comentários permanece relativamente não moderado e tem poucas barreiras à entrada para postagem pública, com muitas postagens violando as regras da plataforma, por exemplo, comentários de que as vacinas propostas são usadas para esterilização em massa ou para inserir microchips nos destinatários.

Os pesquisadores estudaram um conjunto de dados de 38.564 comentários do YouTube extraídos de três vídeos relacionados ao COVID-19 postados pelas organizações de mídia Fox News, Vox e China Global Television Network. Cada vídeo apresentava Bill Gates e, no momento da extração de dados, tinha entre 13.000 e 14.500 comentários postados entre 5 de abril de 2020 e 2 de março de 2021.

Por meio de modelagem de tópicos e análise qualitativa de conteúdo, o estudo descobriu que os comentários de cada vídeo são fortemente dominados por declarações conspiratórias.

Alguns comentários foram considerados "conteúdo limítrofe", que o YouTube define como conteúdo que "se choca", mas não cruza as linhas estabelecidas por suas regras.

Exemplos de conteúdo limítrofe incluem comentários que levantam dúvidas sobre os motivos de Bill Gates no desenvolvimento e distribuição de vacinas e a sugestão de que ele busca assumir o controle em uma "nova ordem mundial". Esses comentários implicavam ou ligavam a teorias sobre o uso de vacinas para controlar ou rastrear grandes populações de pessoas.

Recomendações do YouTube

Os pesquisadores disseram que a plataforma deve considerar mudanças de design e políticas que respondam a estratégias de conversação usadas por teóricos da conspiração para evitar resultados semelhantes para futuros assuntos de interesse público de alto risco.

Três estratégias comuns de conversação incluem: fortalecer uma teoria da conspiração ("juntar os pontos de informações díspares"), desacreditar uma autoridade ("lançar dúvidas") e defender uma teoria da conspiração. Esses comentários podem ser amplificados quando os leitores 'curtem' o comentário.

"O YouTube quase não possui os recursos liderados pela comunidade ou de moderação humana necessários para detectar esses tipos de estratégias", disse o Dr. Gray.

Os pesquisadores disseram que, para que o YouTube resolva esse problema de forma adequada, ele deve atender tanto às estratégias de conversação que evitam os sistemas de detecção automatizados quanto redesenhar o espaço para fornecer aos usuários as ferramentas necessárias para se automoderar de forma eficaz.

Editores de notícias e comentários moderadores

O estudo insta o YouTube a desenvolver diretrizes de moderação de conteúdo de práticas recomendadas para editores de notícias que descrevam estratégias usadas por teóricos da conspiração que são invisíveis à moderação automatizada. Além disso, os editores de notícias podem desativar os comentários em vídeos de interesse público de alto risco para garantir que eles não exacerbem a circulação de teorias da conspiração.

"Uma grande implicação do nosso estudo é que o YouTube precisa redesenhar o espaço para fornecer infraestrutura de moderação social", disse o Dr. Gray. “Caso contrário, as estratégias discursivas dos teóricos da conspiração continuarão a escapar dos sistemas de detecção, apresentarão desafios intransponíveis para os criadores de conteúdo e jogarão nas mãos dos produtores de conteúdo que se beneficiam e/ou incentivam tal atividade”.

 

.
.

Leia mais a seguir