Estudo simula estratégias para conter desinformação online

Questão de Fato
23 jun 2022
Autor
Imagem
viral 1

Uma mentira contada mil vezes pode não virar verdade, mas, nestes tempos de redes sociais, muitas vezes se torna viral. Foi pensando nesta similaridade entre como a desinformação se espalha na internet e a maneira como um vírus se dissemina numa população que um grupo de pesquisadores da Universidade de Washington decidiu investigar como diferentes intervenções afetam a viralização da mentira, quando usadas de forma isolada ou em conjunto. E, assim como na pandemia de COVID-19, descobriram que a combinação de estratégias é a melhor saída para conter uma infodemia.

No estudo, intitulado “Combining interventions to reduce the spread of viral misinformation” e publicado nesta quinta-feira, 23, no periódico Nature Human Behaviour, os cientistas do Centro para um Público Informado primeiro avaliaram os impactos na disseminação da desinformação de intervenções como checagem de fatos, com a posterior rotulagem ou remoção dos conteúdos falsos; a aplicação do que chamaram de “interruptores de viralidade”, que buscam reduzir o alcance de conteúdos envolvendo temas polêmicos via, por exemplo, a suspensão da amplificação pelos algoritmos da rede social, sem necessariamente remover as publicações imediatamente; “inoculação”, ou seja, educar o público para identificar e não compartilhar desinformação; e o banimento e fechamento de contas que repetidamente espalham conteúdos falsos. Depois, eles analisaram os resultados do uso combinado destas intervenções com diferentes níveis de rigor ou eficácia atribuídos para cada uma delas.

 

Modelagem

 

Para tanto, os pesquisadores começaram criando um modelo da disseminação de desinformações no Twitter com base numa coleção de mais de 1 bilhão de postagens relativas às eleições presidenciais americanas de 2020 publicadas entre 1º de setembro e 15 de dezembro daquele ano. Nelas, eles identificaram 430 do que chamaram de “incidentes” – histórias distintas que incluíam informações falsas, exageradas ou que, de alguma outra forma, continham alegações ou narrativas duvidosas. Buscas com termos específicos para cada um destes incidentes resultaram em 23 milhões de postagens de 10,8 milhões de contas na coleção. Tanto os incidentes quanto os termos de busca foram monitorados em tempo real pela Parceria para a Integridade das Eleições, iniciativa que reuniu dezenas de especialistas e instituições dos EUA quando do pleito presidencial, o que, segundo os pesquisadores, valida seu conjunto de dados como um “minuciosa – se não exaustiva – visão geral da desinformação durante as eleições presidenciais dos EUA em 2020”.

A partir da cronologia destes incidentes, os pesquisadores identificaram então 544 potenciais “eventos” de viralização, em que a disseminação de histórias falsas ou enganosas teve rápido crescimento, seguido de queda, envolvendo 14,6 milhões de postagens entre tuítes, retuítes, respostas e citações. O número de "eventos" (viralizações) é maior que o de "incidentes" (histórias falsas ou enganosas) porque cada incidente pode passar por mais de um período de viralização.

Com isso, os cientistas criaram um modelo, adaptado a partir dos usados para estudar epidemias de doenças infecciosas, para caracterizar os padrões de disseminação da desinformação e a eficácia das intervenções para contê-las, que testado contra os dados reais da coleção de tuítes resultou em um conjunto final de dados de 10,5 milhões de postagens de 454 eventos de viralização. Esse conjunto foi submetido a simulações de engajamento de usuários.

"Usamos modelos desenvolvidos no campo da epidemiologia porque eles estudam contágio, e contágio foi o que aconteceu com a disseminação de certas ideias durante as eleições nos EUA em 2020", conta Jevin West, professor da Escola de Informação da Universidade de Washington e um dos autores do estudo. "É interessante a similaridade na disseminação de vírus biológicos e informações virais. Estas ideias são transmitidas por uma pessoa por meio de compartilhamentos em mídias sociais, postagens, repostagens, comentários. E quando outra pessoa recebe isso, ela pode passar a ideia para frente. Vemos o mesmo tipo de dinâmica nas redes em que estas ideias e partículas virais se espalham".

 

Testes

Num primeiro teste, os pesquisadores analisaram os impactos de intervenções que têm como alvo o engajamento com conteúdos específicos, ou seja, o total de postagens na forma de tuítes, retuítes, respostas e citações. Essas intervenções assumem a forma mais comum de checagem da informação, seguida por rotulagem como conteúdo falso, ou remoção. Estas intervenções têm em comum o fato de demandarem tempo e trabalho para serem aplicadas, tanto na etapa de verificação quanto na de decidir o que fazer com o conteúdo identificado como falso.

viral 2

Em casos extremos, a plataforma pode ainda apagar ou ocultar todo o material que contenha palavras-chave que se encaixem em um incidente de desinformação e em seu evento de viralização, atitude para qual os cientistas rodaram simulações do modelo até que a disseminação fosse interrompida por completo. Como esperado, a remoção rápida dos conteúdos é altamente eficaz para evitar disseminação, produzindo uma redução de 93,8% no número total de postagens sobre os tópicos, se implementada num período de 30 minutos após a publicação. E mesmo com um atraso de 4 horas, a intervenção ainda se mostrou eficaz, com o modelo indicando redução de 55,6% nas postagens.

Estes efeitos, no entanto, “generosamente presumem que as plataformas podem monitorar, detectar, verificar suficientemente e implementar a remoção completa dentro do período estimado”, ressalvam os autores. “Assim, a eficácia (deste tipo de intervenção) é drasticamente reduzida se apenas uma fração dos eventos levarem a uma ação”.

Como forma de driblar este problema, os pesquisadores testaram então os chamados “interruptores de viralidade”. Segundo eles, este tipo de abordagem, que suspende a amplificação, pelos algoritmos da plataforma, de um conteúdo potencialmente falso que esteja em vias de viralizar, permite que as companhias considerem as questões éticas e legais da atitude ao mesmo tempo em que minimiza a repercussão negativa de atitudes mais diretas e definitivas, como a remoção do conteúdo. Além disso, esta estratégia limita o trabalho de checagem dos conteúdos, permitindo um tempo de resposta mais rápido. Nas simulações no modelo, esta intervenção teve um impacto sobre a disseminação de conteúdos falsos quase tão forte quanto a simples remoção, com uma redução de 10% na viralidade via algoritmos quatro horas após a publicação, traduzindo-se numa queda de 45,3% nas postagens. Assim como a remoção dos conteúdos, porém, esta estratégia tem sua eficácia limitada pela fração de eventos contra os quais é efetivamente implementada.

"Os interruptores de viralização parecem ser uma forma muito eficiente de combater a desinformação, com algumas vantagens sobre a remoção de conteúdos ou o banimento de contas", considera West. "É uma intervenção que é mais rápida de ser implementada de forma ampla, como limitar de imediato a amplificação via algoritmos de publicações com uma combinação de termos como 'urnas' e 'fraude', ou 'COVID' e 'ivermectina', sem ter que passar por um demorado processo de verificação e checagem de cada mensagem - vimos nos resultados que quanto mais cedo uma atitude for tomada, melhores os resultados -, e ao mesmo tempo poupar as plataformas de críticas como censura e cerceamento da liberdade de expressão, já que as postagens e as contas continuam lá, podem ser encontradas e lidas, só perderam foi a amplificação. Os usuários continuam podendo escrever o que quiserem, só não terão seu discurso amplificado".

 

Inoculação

Outro problema das intervenções dependentes de checagem é que funcionam melhor contra conteúdos claramente falsos ou demonstravelmente enganadores. A desinformação, porém, pode ser mais sutil, envolvendo afirmações parcialmente verdadeiras e, assim, mais trabalhosas e demoradas para serem verificadas e combatidas. Coisas como, por exemplo, alegações de irregularidades numéricas ou estatísticas na contagem de votos - levantadas pelo presidente Jair Bolsonaro quando de sua eleição em 2018 e também surgidas nas eleições americanas de 2020 -, requerem o trabalho de um estatístico na compilação e análise dos dados para determinar seu mérito. Além disso, podem ser dribladas com a publicação de imagens das postagens no lugar da replicação do conteúdo, ou de links que levem os usuários para fora das plataformas sociais.

Para se contrapor a isso, especialistas sugerem uma estratégia conhecida como “inoculação psicológica”, um tipo de “vacina contra a desinformação” que, à semelhança das vacinas usadas para “ensinar” o sistema imune a combater vírus e outros micro-organismos causadores de doenças, buscam educar as pessoas a identificar e se proteger de tentativas de manipulação, desenvolvendo pensamento crítico, ou “anticorpos mentais”, que as ajudem a reconhecer as técnicas da desinformação e evitar seu compartilhamento.

Como as vacinas biológicas, no entanto, esta inoculação não é perfeita na tarefa de interromper a transmissão da desinformação. 

"Este tipo de intervenção é complicado porque cada pessoa tem uma origem diferente, formação, capacidades, trabalhos, e usa diferentes plataformas de mídias sociais", comenta West. "Você pode dar para todo mundo cinco conjuntos de habilidades para trabalhar quando confrontadas com desinformação e vieses de confirmação e cada pessoa vai reagir de modo diferente. Haverá variações em como vão absorver isso, e assim este tipo de intervenção só ajuda até certo ponto. Além disso, sempre estão surgindo novas formas de espalhar a desinformação. As campanhas de desinformação estão constantemente evoluindo e talvez algumas habilidades aprendidas para identificar ou aumentar a consciência psicológica dos usuários das redes sociais podem não ser úteis naquela nova situação".

 

“Superdisseminadores”

O conjunto de dados usado pelos pesquisadores da Universidade de Washington também revelou a existência dos que se poderiam chamar de “superdisseminadores” de desinformação, contas que repetidamente publicaram ou disseminaram conteúdos falsos ou enganosos. Pior, muitas destas contas tinham um número de seguidores muito maior do que a média dos usuários do Twitter, indo de algumas centenas de milhares a milhões de pessoas. Algo como um indivíduo que, sabidamente infectado pelo SARS-CoV-2, vírus causador da COVID-19, decidisse comparecer a um jogo de futebol e espalhar a doença para o maior número de vítimas possível.

Nestes casos, em geral a saída das redes sociais tem sido banir tais usuários de suas plataformas. Atitude que ainda era incomum durante o período das eleições americanas de 2020, mas ganhou força a partir da invasão do Capitólio, a sede do Congresso dos EUA, em 6 de janeiro de 2021, como o próprio Twitter acabou fazendo com o ex-presidente Donald Trump, acusado de incitar o episódio.

Segundo os autores do estudo, avaliar os impactos dos fechamentos destas contas na disseminação de desinformação apresenta desafios extras, dada a complexidade de relacionar o banimento a variáveis como tamanho de sua audiência, propensão a compartilhar desinformação e o momento em que tais contas são usadas para amplificar o alcance das narrativas. Isto é, uma conta com um número muito grande de seguidores, que frequentemente compartilha desinformação logo nos primeiros minutos do evento de viralização, terá um efeito muito maior do que um usuário com uma quantidade menor de seguidores que apenas ocasionalmente replique a desinformação, horas depois que ela começou a se espalhar.

Para levar isso em consideração, os pesquisadores fizeram seu modelo colher amostras de disseminação baseadas em uma distribuição do número de seguidores em diferentes períodos temporais. Além disso, como estas contas superdisseminadoras eram conhecidas dentro de seu conjunto de dados, eles puderam simular diretamente o efeito da remoção de determinados usuários no engajamento total. “Em outras palavras, nossas simulações foram condicionadas a padrões não vistos e a variações no comportamento individual sem explicitamente quantificar as diferenças no comportamento individual”, explicam. “Nossos modelos e simulações, desta forma, exibem robustez diante das consideráveis complexidades não mesuradas do mundo real”. De acordo com os pesquisadores, a remoção de 1.504 contas disseminadoras contumazes de desinformação de seu conjunto de dados reduziu o engajamento em cerca de 30%, impacto similar ao da inoculação de 10% do público para que identifique e evite compartilhar conteúdos falsos.

A seguir, os cientistas testaram o impacto de uma “regra de três faltas”, em que contas são removidas das plataformas após serem flagradas disseminando desinformação em três eventos separados. Nestas simulações, qualquer interação com ou amplificação de conteúdo falso, sejam tuítes, retuítes ou compartilhamentos, contariam como uma “falta”, e não apenas sua publicação original. Com isso, argumentam os autores, pune-se exageradamente usuários que foram enganados por conteúdo falso e o replicaram seguidamente, no lugar de focar em contas que espalham desinformação de uma maneira mais ampla.

Segundo os pesquisadores, quando aplicada exclusivamente em contas verificadas do Twitter, este tipo de intervenção pode reduzir em 12,7% o engajamento total. Já se aplicada com base na quantidade de seguidores da conta, e não se é verificada, o modelo indica impactos significativos na disseminação da desinformação apenas se este limite for bem baixo, algo como a partir de 10 mil seguidores, o que demandaria o banimento de um número muito grande de usuários.

 

Estratégias combinadas

Embora os resultados destas simulações indiquem que todas intervenções testadas são capazes de diminuir a disseminação de desinformação, com diferentes níveis de eficácia, os pesquisadores argumentam que o impacto máximo de cada uma delas só aparece sob parâmetros pouco realistas, como a rápida checagem e remoção de todo conteúdo falso, níveis relativamente altos de identificação de desinformação pelo público "inoculado" ou o banimento de uma quantidade considerável de usuários das plataformas. Diante disso, eles decidiram avaliar qual seria o efeito do uso combinado destas estratégias, sob condições mais realistas.

Na primeira destas simulações, eles calcularam qual seria a redução no engajamento caso os “interruptores de viralidade” atingissem 5% do conteúdo falso, reduzindo sua viralidade em 10% quando aplicados 120 minutos após o início do evento, com 20% das postagens efetivamente removidas após quatro horas, além de presumir uma redução de 10% no compartilhamento devido à inoculação do público, o banimento permanente de contas superdisseminadoras e aplicação de uma política de três faltas a todas contas verificadas ou com mais de 100 mil seguidores, chegando a uma queda de 53,3% nas postagens de desinformação.

viral 3

Em outra simulação mais “agressiva”, eles elevaram a aplicação dos “interruptores de viralidade” para 10% do conteúdo falso, dobrando para 20% a redução de viralidade e cortando pela metade o tempo de resposta para 60 minutos, além de um nível de inoculação do público presumido de 20% e diminuição do limite da política de três faltas para contas não verificadas com a partir de 50 mil seguidores. Neste caso, a redução nas postagens de desinformação chegou a 63%.

“Nossos resultados mostram que a combinação de intervenções em níveis plausíveis de aplicação pode efetivamente reduzir a disseminação viral de desinformação”, concluem os autores do estudo. “Embora não seja surpresa que múltiplas intervenções tenham um desempenho melhor do que abordagens individuais, nossos achados proveem uma visão da magnitude desta diferença. A eficácia de uma abordagem combinada depende não apenas da natureza das intervenções individuais, mas também de como interagem umas com as outras, a dinâmica da disseminação da desinformação, a duração do evento, o comportamento de compartilhamento dos usuários, a quantidade de seguidores destes usuários e como estes fatores mudam durante uma campanha de desinformação. Ao ajustarmos nosso modelo a um grande corpo de eventos durante um período ativo de desinformação e má informação, nossos resultados atendem muito desta complexidade”.

 

Plataforma de testes

Para West, outra grande contribuição do trabalho é fornecer para pesquisadores e empresas de mídias sociais uma plataforma para testar o impacto e eficácia de diferentes intervenções de forma isolada ou combinada, chegando à melhor receita para cada situação e procurando acompanhar o ritmo da evolução das estratégias da desinformação.

"Não são apenas os números. As intervenções começam a ter resultados decrescentes quando atingem determinado nível. Isto é importante porque temos limites do que podemos fazer como uma empresa de mídias sociais ou uma autoridade governamental no desenvolvimento de políticas para tentar conter a disseminação da desinformação", destaca. "Eles precisam saber que terão retornos decrescentes da mesma maneira que este modelo mostra, mas também que podem combinar as intervenções para ter melhores resultados, porque esta combinação provê uma maneira de superar este problema dos retornos decrescentes. Você pode impor diferentes intervenções com níveis de rigor razoáveis para ter uma redução na disseminação viral da desinformação maior do que teria com a imposição de uma intervenção individual de forma draconiana. Por isso é importante construir modelos como o nosso. Não só para pesquisadores da desinformação, mas para as empresas de mídias sociais usarem para experimentar diferentes estratégias para conter a desinformação e depois as implantarem em suas plataformas. Vemos muitas hipóteses e abordagens sistemáticas que são difíceis de ser testadas, e que quando implementadas podem surgir problemas. O modelo é uma ferramenta que permite refinar a aplicação de todas estas intervenções e acelerar sua implementação"..

 

Cesar Baima é jornalista e editor-assistente da Revista Questão de Ciência

Sua Questão

Envie suas dúvidas, sugestões, críticas, elogios e também perguntas para o "Questionador Questionado" no formulário abaixo:

Ao informar meus dados, eu concordo com a Política de Privacidade.
Digite o texto conforme a imagem

Atendimento à imprensa

11 95142-8998 

11 95142-7899