Humanidades

Capacitar os usuários de mídia social para avaliar o conteúdo ajuda a combater a desinformação
Ao combater a disseminação de desinformação, as plataformas de mídia social normalmente colocam a maioria dos usuários no banco do passageiro. As plataformas costumam usar algoritmos de aprendizado de máquina ou verificadores...
Por Adam Zewe - 16/11/2022


Os pesquisadores do MIT construíram um protótipo de plataforma de mídia social para estudar os efeitos de dar aos usuários mais agência para avaliar a precisão do conteúdo e controlar as postagens que veem com base nas avaliações de precisão de outras pessoas. Crédito: Imagem: Jose-Luis Olivares, MIT

Ao combater a disseminação de desinformação, as plataformas de mídia social normalmente colocam a maioria dos usuários no banco do passageiro. As plataformas costumam usar algoritmos de aprendizado de máquina ou verificadores de fatos humanos para sinalizar conteúdo falso ou desinformante para os usuários.

"Só porque este é o status quo não significa que seja a maneira correta ou a única maneira de fazê-lo", diz Farnaz Jahanbakhsh, aluno de pós-graduação do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL) do MIT.

Ela e seus colaboradores realizaram um estudo no qual colocaram esse poder nas mãos dos usuários de mídia social.

Eles primeiro pesquisaram as pessoas para saber como elas evitam ou filtram a desinformação nas mídias sociais. Usando suas descobertas, os pesquisadores desenvolveram um protótipo de plataforma que permite aos usuários avaliar a precisão do conteúdo, indicar em quais usuários eles confiam para avaliar a precisão e filtrar postagens que aparecem em seu feed com base nessas avaliações.

Por meio de um estudo de campo , eles descobriram que os usuários eram capazes de avaliar com eficácia as postagens de desinformação sem receber nenhum treinamento prévio. Além disso, os usuários valorizaram a capacidade de avaliar postagens e visualizar avaliações de forma estruturada. Os pesquisadores também observaram que os participantes usavam filtros de conteúdo de maneira diferente – por exemplo, alguns bloqueavam todo o conteúdo desinformante, enquanto outros usavam filtros para procurar esses artigos.

Este trabalho mostra que uma abordagem descentralizada da moderação pode levar a uma maior confiabilidade do conteúdo nas mídias sociais, diz Jahanbakhsh. Essa abordagem também é mais eficiente e escalável do que os esquemas de moderação centralizada e pode atrair usuários que desconfiam das plataformas, acrescenta ela.

"Muitas pesquisas sobre desinformação assumem que os usuários não podem decidir o que é verdade e o que não é, então temos que ajudá-los. Não vimos isso de forma alguma. Vimos que as pessoas realmente tratam o conteúdo com escrutínio e eles também tentam ajudar uns aos outros. Mas esses esforços não são apoiados pelas plataformas atualmente”, diz ela.

Jahanbakhsh escreveu o artigo com Amy Zhang, professora assistente da Escola Allen de Ciência da Computação e Engenharia da Universidade de Washington; e autor sênior David Karger, professor de ciência da computação no CSAIL. A pesquisa será apresentada na ACM Conference on Computer-Supported Cooperative Work and Social Computing, e foi publicada como parte do Proceedings of the ACM on Human-Computer Interaction .

Combate à desinformação

A disseminação de desinformação online é um problema generalizado. No entanto, os métodos atuais que as plataformas de mídia social usam para marcar ou remover conteúdo desinformante têm desvantagens. Por exemplo, quando as plataformas usam algoritmos ou verificadores de fatos para avaliar as postagens, isso pode criar tensão entre os usuários que interpretam esses esforços como infringindo a liberdade de expressão, entre outras questões.

“Às vezes, os usuários querem que informações erradas apareçam em seus feeds porque querem saber a que seus amigos ou familiares estão expostos, para que saibam quando e como falar com eles sobre isso”, acrescenta Jahanbakhsh.

Os usuários geralmente tentam avaliar e sinalizar desinformação por conta própria e tentam ajudar uns aos outros pedindo a amigos e especialistas que os ajudem a entender o que estão lendo. Mas esses esforços podem sair pela culatra porque não são suportados por plataformas. Um usuário pode deixar um comentário em uma postagem enganosa ou reagir com um emoji raivoso, mas a maioria das plataformas considera essas ações sinais de engajamento. No Facebook, por exemplo, isso pode significar que o conteúdo desinformado seria mostrado para mais pessoas, incluindo amigos e seguidores do usuário – exatamente o oposto do que esse usuário queria.

Para superar esses problemas e armadilhas, os pesquisadores buscaram criar uma plataforma que oferecesse aos usuários a capacidade de fornecer e visualizar avaliações estruturadas de precisão nas postagens, indicar outras pessoas em quem confiam para avaliar as postagens e usar filtros para controlar o conteúdo exibido em seu feed. Em última análise, o objetivo dos pesquisadores é tornar mais fácil para os usuários ajudarem uns aos outros a avaliar a desinformação nas mídias sociais, o que reduz a carga de trabalho para todos.

Os pesquisadores começaram entrevistando 192 pessoas, recrutadas usando o Facebook e uma lista de e-mail, para ver se os usuários valorizavam esses recursos. A pesquisa revelou que os usuários estão hiperconscientes da desinformação e tentam rastreá-la e denunciá-la, mas temem que suas avaliações possam ser mal interpretadas. Eles são céticos em relação aos esforços das plataformas para avaliar o conteúdo para eles. E, embora eles gostem de filtros que bloqueiem conteúdo não confiável, eles não confiariam em filtros operados por uma plataforma.

Usando essas informações, os pesquisadores construíram um protótipo de plataforma semelhante ao Facebook, chamado Trustnet. Na Trustnet, os usuários publicam e compartilham artigos de notícias reais e completos e podem seguir uns aos outros para ver o conteúdo postado por outras pessoas. Mas antes que um usuário possa postar qualquer conteúdo na Trustnet, ele deve avaliar esse conteúdo como preciso ou impreciso, ou perguntar sobre sua veracidade, que ficará visível para outras pessoas.

"A razão pela qual as pessoas compartilham desinformação geralmente não é porque elas não sabem o que é verdadeiro e o que é falso. Em vez disso, no momento do compartilhamento, sua atenção é desviada para outras coisas. Se você pedir que avaliem o conteúdo antes de compartilhá-lo , isso os ajuda a serem mais exigentes", diz ela.

Os usuários também podem selecionar indivíduos confiáveis ??cujas avaliações de conteúdo verão. Eles fazem isso de maneira privada, caso sigam alguém com quem estão conectados socialmente (talvez um amigo ou familiar), mas em quem não confiariam para avaliar o conteúdo. A plataforma também oferece filtros que permitem aos usuários configurar seu feed com base em como as postagens foram avaliadas e por quem.

Testando Trustnet

Após a conclusão do protótipo, eles realizaram um estudo no qual 14 indivíduos usaram a plataforma por uma semana. Os pesquisadores descobriram que os usuários podem avaliar o conteúdo de forma eficaz, muitas vezes com base na experiência, na fonte do conteúdo ou na avaliação da lógica de um artigo, apesar de não receberem treinamento. Eles também puderam usar filtros para gerenciar seus feeds, embora os utilizassem de maneira diferente.

"Mesmo em uma amostra tão pequena, foi interessante ver que nem todo mundo queria ler suas notícias da mesma maneira. Às vezes, as pessoas queriam ter postagens desinformantes em seus feeds porque viam benefícios nisso. Isso aponta para o fato de que essa agência agora está ausente das plataformas de mídia social e deve ser devolvido aos usuários", diz ela.

Às vezes, os usuários lutavam para avaliar o conteúdo quando ele continha várias afirmações, algumas verdadeiras e outras falsas, ou se um título e um artigo fossem desconexos. Isso mostra a necessidade de dar aos usuários mais opções de avaliação – talvez afirmando que um artigo é verdadeiro, mas enganoso ou que contém uma inclinação política, diz ela.

Como os usuários da Trustnet às vezes tinham dificuldade para avaliar artigos em que o conteúdo não correspondia ao título, Jahanbakhsh lançou outro projeto de pesquisa para criar uma extensão de navegador que permitisse aos usuários modificar os títulos das notícias para ficarem mais alinhados com o conteúdo do artigo.

Embora esses resultados mostrem que os usuários podem desempenhar um papel mais ativo na luta contra a desinformação, Jahanbakhsh adverte que dar aos usuários esse poder não é uma panaceia. Por um lado, essa abordagem pode criar situações em que os usuários só veem informações de fontes afins. No entanto, filtros e avaliações estruturadas podem ser reconfigurados para ajudar a mitigar esse problema, diz ela.

Além de explorar os aprimoramentos da Trustnet, Jahanbakhsh quer estudar métodos que possam encorajar as pessoas a ler avaliações de conteúdo de pessoas com pontos de vista diferentes, talvez por meio de gamificação. E como as plataformas de mídia social podem relutar em fazer mudanças, ela também está desenvolvendo técnicas que permitem aos usuários postar e visualizar avaliações de conteúdo por meio de navegação normal na web, em vez de em uma plataforma.


Mais informações: Farnaz Jahanbakhsh et al, Alavancando avaliações estruturadas de pares confiáveis ??para combater a desinformação, Procedimentos do ACM sobre interação humano-computador (2022). DOI: 10.1145/3555637

 

.
.

Leia mais a seguir