Uma vacina contra a desinformação

Paralelamente à implementação do programa de vacinação para o vírus SARS-CoV-2, investigadores das Ciências Psicológicas têm desenvolvidos pesquisas acerca da possibilidade de conferir imunidade à população contra a desinformação e notícias falsas. Obtenha neste artigo a sua “vacina para a desinformação”

Não obstante esforços em contrário, implementados a diferentes níveis na população, continua a propagar-se e, diariamente, assistimos a novos focos um pouco por todo o lado. Poderíamos estar a falar do vírus SARS-CoV-2, cujo súbito aparecimento há pouco menos de um ano resultou na atual pandemia.

Contudo, a frase de abertura do presente texto aplica-se igualmente à desinformação e notícias falsas, que encontraram na dinâmica subjacente às modernas redes sociais uma “ecologia” adequada à sua emergência, propagação e efeitos adversos.

Surpreendentemente, a analogia entre o SARS-CoV-2 e a desinformação nas redes sociais pode ir mais além do que o mero paralelismo superficial ensaiado nestas linhas: num momento em que vacinas para o vírus SARS-CoV-2 foram recentemente desenvolvidas e implementados programas de vacinação, investigadores das Ciências Psicológicas têm estudado formas de implementar estratégias similares no combate à desinformação.

A ideia de fomentar resistência psicológica, a nível individual, a informações falsas, não é recente, antes remontando à década de 1960.

Na altura, psicólogos sociais envolvidos no Programa de Atitude e Persuasão da Universidade de Yale conduziram alguns estudos na tentativa de responder aos receios de “lavagens cerebrais” (brainwash) e persuasão a soldados americanos capturados no Extremo Oriente.

É neste contexto que William McGuire vem a desenvolver a chamada Teoria da Inoculação (1970), a qual tem ressurgido como alvo de vários estudos recentes como potencial estratégia no combate às modernas versões de desinformação.

Uma “vacina para a desinformação” mostra-se particularmente promissora, pois soluções alternativas têm-se mostrado ineficazes (como por exemplo, iniciativas de correção de notícias falsas que, por necessariamente se focarem em peças de informação particulares, mostram-se mais demoradas e com menos alcance que a própria desinformação) ou mesmo resultado em efeitos adversos (como a implementação de algoritmos informáticos que filtrem notícias falsas ou iniciativas legislativas e reguladoras).

A noção de inoculação psicológica segue de perto a ideia de base do análogo biomédico: se uma pessoa for exposta a pequenas amostras de informação falsa, relativamente “enfraquecidas”, isso espoletará processos de raciocínio que, quais “anticorpos mentais”, poderão vir a ser reativados aquando da futura exposição a desinformação, resultando num equivalente de “imunização psicológica”.

Na sua versão clássica, uma “vacinação psicológica” envolve geralmente dois componentes de base, um afetivo e outro cognitivo: (i) a pessoa é avisada de que vai ser exposta a uma peça de informação enviesada e falsa, similar aquelas que poderá encontrar no seu dia-a-dia – o propósito é aqui espoletar uma resposta emocional a uma possível “ameaça” e consequente activação de processos de raciocínio de resistência (componente afectivo); (ii) a informação é apresentada, podendo ser acompanhada de contra-argumentos e respostas possíveis (componente cognitiva).

Uma meta-análise de 54 estudos clássicos acerca da “inoculação psicológica” revelou que esta se mostra mais eficaz na resistência a desinformação do que o mero fornecimento de informação fidedigna e que o efeito de “imunização” se mantem por pelo menos duas semanas.

Obviamente, e tal como acontece com o seu análogo imunológico, o sucesso da inoculação psicológica depende criticamente de uma compreensão clara não só dos mecanismos e processos subjacentes às principais formas de desinformação para as quais se deseja uma imunização, mas também os fenómenos psicológicos associados à respetiva vulnerabilidade.

Curiosamente, alguns estudos recentes (e.g., Pennycook e colaboradores, 2020) evidenciaram que, de uma forma geral e pese embora diferenças individuais, a capacidade de discernir notícias e informações falsas não é comensurável como a intenção de partilhar as mesmas nas redes sociais.

Com efeito, quando foi pedido a participantes de um estudo que indicassem o grau em que acreditavam ou o grau em que partilhariam nas redes sociais conteúdos desinformativos, as respostas divergiam entre si.

Dito de outra forma, o que motiva uma qualquer pessoa a partilhar desinformação não é necessariamente o grau em que acredita na sua veracidade, mas antes o grau em que concorda com parte do conteúdo ou o grau em que esse é consonante com a afiliação sociocultural, o que facilmente é compreensível se se notar que tendemos a ser positivamente reforçados (e a reforçarmos nós mesmos, com likes e interações sociais, sob a forma de comentários) pela partilha de conteúdo congruente com o grupo social ao qual nos identificamos, e não necessariamente pela sua veracidade e precisão.

Simultaneamente, quando indagadas a esse respeito, a maioria das pessoas indica que é relevante para elas partilhar somente informação credível e precisa nas redes sociais.

Acresce que, no mesmo estudo, quando era pedido às pessoas que indicassem o grau em que uma única notícia lhes parecia verosímil ou credível, relatos posteriores de intenções de partilha nas redes sociais para peças de desinformação, mesmo com conteúdo distinto, tendiam a correlacionar-se com juízos de credibilidade.

Aparentemente, o mero facto de lhes ter sido previamente pedido que indicassem “até que ponto acreditavam” numa qualquer notícia foi suficiente para tornar saliente essa dimensão e, consequentemente, espoletar os mesmos processos cognitivos associados ao discernimento de notícias falsas.

Este resultado encapsula as condições mínimas para uma “inoculação psicológica” – apresentação de uma amostra de desinformação acompanhada de um aviso de que a mesma pode não ser fidedigna, implicitamente presente na questão colocada ao participante.

Na mesma linha, outros autores têm procurado implementar a lógica da Teoria da Inoculação em pequenos jogos interativos, os quais se apresentam como “vacinas de largo espetro” (ainda sem versões em Português) para a desinformação nas redes sociais: Bad News (focado em Notícias Falsas, de uma forma geral), Harmony Square (com um contexto declaradamente político) e Go Viral (com um foco na atual pandemia e respetiva desinformação).

Todos estes partilham da mesma mecânica de jogo: o jogador é convidado a personificar um agente de desinformação com o objetivo de semear discórdia, confusão e cisões na “população”, implementando estratégias similares aquelas usadas para a propagação de notícias e informação falsa nas redes sociais. O desempenho do jogador é traduzido em likes virtuais (similares a uma pontuação) e na conquista de insígnias (badges) quando domina uma de várias estratégias comuns.

O primeiro destes, Bad News, desenvolvido em colaboração com Sander van der Linden e Jon Roozenbeek, investigadores na Universidade de Cambridge, do Reino Unido, e líderes na pesquisa contemporânea sobre a Teoria da Inoculação, mostrou-se eficaz na melhoria da capacidade de discernir e resistir a desinformação, num estudo de larga escala com 15000 participantes.

Ainda que o componente ativo, tal como implementado no jogo, seja um aspeto relevante na “inoculação psicológica”, é o seu aspeto informativo, instanciado no jogo sob a forma de insígnias, que fornece imunidade a notícias falsas e conteúdo enviesado.

O leitor poderá, pois, e ainda que sem o aspeto lúdico, beneficiar de imediato da sua “vacina para a desinformação” ao apreender as seguintes estratégias comummente usadas em notícias falsas. Note que, ainda que cada uma possa parecer inócua em isolamento, uma campanha de desinformação bem-sucedida tende a usá-las em conjunto. Consegue identificar uma ou mais destas estratégias de desinformação no feed de notícias das suas redes sociais?

Falsificação da fonte: Atualmente, na internet e redes sociais, é particularmente fácil e barato adotar um perfil ou criar uma página “de notícias” que simule superficialmente um perito ou uma instituição profissional e legítima, ao mimetizar a sua aparência, pela adoção de logótipos e/ou nomes aparentados.

As pessoas, ao partilharem informação online, raramente prestam a devida atenção à fonte, bastando a alguém que apenas mimetize superficialmente alguém legítimo ou de confiança para que possa disseminar e propagar desinformação.

Emoção: Emoções como o medo, raiva e empatia são intrinsecamente motivantes e compelem as pessoas a agir – seja partilhando material que ativou esses estados emocionais, seja a reagir (sob a forma de comentários) a esse material.

Obviamente, nem todo o conteúdo emocional das redes sociais é necessariamente falso. Contudo, e sabendo que as pessoas tendem a suprimir uma reflexão analítica quando emocionalmente ativadas, é relativamente fácil incutir medo, raiva ou empatia na desinformação – consequentemente, as pessoas irão refletir menos sob a veracidade da informação e agir com base na forma como essa as faz sentir, especialmente se as emoções implicarem alguma urgência.

Polarização e falsa amplificação: Agentes de desinformação, seja impelidos por uma qualquer agenda específica, ou tão-somente para com o objetivo em si mesmo de disseminar informações falsas, nem sempre precisam sequer de criar conteúdo original.

A sociedade contemporânea e as redes sociais são ricas em clivagens entre grupos sociais e perspetivas sobre inúmeros assuntos. Frequentemente, estas cisões e oposições são relativamente subtis e manejáveis no dia-a-dia.

Contudo, é também relativamente fácil explorar essas para polarizar opiniões ao extremo e manufaturar conflitos. Uma boa metáfora é o caso de uma tábua de madeira que, quando sujeita a pressão, quebra no seu ponto mais fraco. É comum que conteúdo de desinformação explore essas linhas de rutura amplificando-as e, frequentemente, forjando opiniões e notícias que suportem ambos os lados.

Uma estratégia típica consiste no uso de bots – programas informáticos autónomos que “partilham” informação nas redes sociais simulando utilizadores legítimos. Um pequeno exército de bots pode ser suficiente para que um assunto ganhe tração nas redes sociais e pareça bem mais relevante e prevalente do que realmente é.

Conspiração: Teorias da conspiração são sedutoras – fornecem uma perspetiva sobre o mundo que dota os seus seguidores de uma sensação de compreensão e domínio sob o mesmo.

A ideia de que sabemos ou nos apercebemos de algo que a maioria das pessoas ignora pode ser inebriante e fazer alguém sentir-se superior e/ou mais capaz. A internet e as redes sociais fornecem uma base de interações e partilha de informação que facilmente alimenta teorias conspiratórias. Quando orquestradas de forma a se oporem ou lançarem dúvidas sobre uma “narrativa oficial”, podem ser propositadamente usadas como veículo de desinformação.

Descredibilização: Inevitavelmente, qualquer peça de desinformação que ganhe destaque e relevo na sociedade e redes sociais virá a ser alvo de refutação, seja por esforços coletivos de verificação de factos, seja por cidadãos individuais.

Quando tal ocorre, a estratégia típica consiste na tentativa de descredibilizar ou questionar a legitimidade desses. Note-se que, para manutenção e amplificação de desinformação, não é necessário (e até é contraprodutivo) responder às vozes críticas ou aos respetivos argumentos – basta defletir a atenção para a credibilidade dessas, modificando assim o foco e preservando a desinformação que se pretende disseminar.

A descredibilização não precisa sequer de ser fidedigna – a lógica consiste antes em fomentar uma ideia de “onde há fumo, há fogo”.

Trolling: Este termo anglófono descreve a técnica apelidada em Português de “Pesca Corrico”, em que uma amostra de isco é arrastada por um barco em movimento lento para atrair peixes.

Veio a ser adaptado e amplamente utilizado na internet e redes sociais para designar comentários que deliberadamente provocatórios ou controversos, com o intuito de espoletar respostas emocionais e ludibriar as pessoas a encetarem uma discussão.

Frequente em virtualmente qualquer rede social, o trolling pode ser facilmente explorado por campanhas de desinformação para minar a credibilidade de vozes opostas, mudar o foco da discussão como distração ou para atrair seguidores e comentários para um dado tópico que pretende amplificar.

 

Autor: Nuno Alexandre de Sá Teixeira formou-se em Psicologia pela Faculdade de Psicologia e de Ciências da Educação da Universidade de Coimbra, e doutorou-se em Psicologia Experimental pela mesma instituição.
Trabalhou como investigador doutorado no Departamento de Psicologia Experimental Geral da Universidade Johannes-Gutenberg, Mainz, Alemanha, no Instituto de Psicologia Cognitiva da Universidade de Coimbra e no Centro de Biomedicina Espacial da Universidade de Roma ‘Tor Vergata’, Itália.
É atualmente Professor Auxiliar Convidado no Departamento de Educação e Psicologia da Universidade de Aveiro.
Os seus trabalhos científicos têm-se centrado no estudo da forma como variáveis físicas (em particular, a gravidade) são instanciadas pelo cérebro, como “modelos internos”, para suportar funções percetivas e motoras na interação com o mundo. Assim, os seus interesses partem da charneira entre áreas temáticas como a Psicologia da Perceção, Psicofísica e Neurociências.

 

 

 

 

 

Ajude-nos a fazer o Sul Informação!
Contribua com o seu donativo, para que possamos continuar a fazer o seu jornal!

Clique aqui para apoiar-nos (Paypal)
Ou use o nosso IBAN PT50 0018 0003 38929600020 44

 

 



Comentários

pub