Uma vacina contra a desinformação

Numa conjuntura em que jornais, rádios, televisões e redes sociais quase só falam de pandemia, tantas vezes com informações contraditórias, um especialista ajuda a distinguir o trigo do joio comunicacional.

0
426

Paralelamente à implementação do programa de vacinação para o vírus SARS-CoV-2, investigadores das Ciências Psicológicas têm desenvolvido pesquisas acerca da possibilidade de conferir imunidade à população contra a desinformação e notícias falsas. Obtenha neste artigo a sua “vacina para a desinformação”.

Não obstante esforços em contrário, implementados a diferentes níveis na população, continua a propagar-se e, diariamente, assistimos a novos focos um pouco por todo o lado. Poderíamos estar a falar do vírus SARS-CoV-2, cujo súbito aparecimento há pouco menos de um ano resultou na actual pandemia. Contudo, a frase de abertura do presente texto aplica-se igualmente à desinformação e notícias falsas, que encontraram na dinâmica subjacente às modernas redes sociais uma “ecologia” adequada à sua emergência, propagação e efeitos adversos. 

Surpreendentemente, a analogia entre o SARS-CoV-2 e a desinformação nas redes sociais pode ir mais além do que o mero paralelismo superficial ensaiado nestas linhas: num momento em que vacinas para o vírus SARS-CoV-2 foram recentemente desenvolvidas e implementados programas de vacinação, investigadores das Ciências Psicológicas têm estudado formas de implementar estratégias similares no combate à desinformação.

A ideia de fomentar resistência psicológica, a nível individual, a informações falsas, não é recente, antes remontando à década de 1960. Na altura, psicólogos sociais envolvidos no Programa de Atitude e Persuasão da Universidade de Yale conduziram alguns estudos na tentativa de responder aos receios de “lavagens cerebrais” (brainwash) e persuasão a soldados americanos capturados no Extremo Oriente. É neste contexto que William McGuire vem a desenvolver a chamada Teoria da Inoculação (1970), a qual tem ressurgido como alvo de vários estudos recentes como potencial estratégia no combate às modernas versões de desinformação. 

Uma “vacina para a desinformação” mostra-se particularmente promissora pois soluções alternativas têm-se mostrado ineficazes (como por exemplo, iniciativas de correcção de notícias falsas que, por necessariamente se focarem em peças de informação particulares, mostram-se mais demoradas e com menos alcance que a própria desinformação) ou mesmo resultado em efeitos adversos (como a implementação de algoritmos informáticos que filtrem notícias falsas ou iniciativas legislativas e reguladoras).

A noção de inoculação psicológica segue de perto a ideia de base do análogo biomédico: se uma pessoa for exposta a pequenas amostras de informação falsa, relativamente “enfraquecidas”, isso espoletará processos de raciocínio que, quais “anticorpos mentais”, poderão vir a ser reactivados aquando da futura exposição a desinformação, resultando num equivalente de “imunização psicológica”. 

Na sua versão clássica, uma “vacinação psicológica” envolve geralmente dois componentes de base, um afectivo e outro cognitivo: (i) a pessoa é avisada de que vai ser exposta a uma peça de informação enviesada e falsa, similar aquelas que poderá encontrar no seu dia-a-dia – o propósito é aqui espoletar uma resposta emocional a uma possível “ameaça” e consequente activação de processos de raciocínio de resistência (componente afectivo); (ii) a informação é apresentada, podendo ser acompanhada de contra-argumentos e respostas possíveis (componente cognitiva). Uma meta-análise de 54 estudos clássicos acerca da “inoculação psicológica” revelou que esta se mostra mais eficaz na resistência a desinformação do que o mero fornecimento de informação fidedigna e que o efeito de “imunização” se mantém por pelo menos duas semanas.

Obviamente, e tal como acontece com o seu análogo imunológico, o sucesso da inoculação psicológica depende criticamente de uma compreensão clara não só dos mecanismos e processos subjacentes às principais formas de desinformação para as quais se deseja uma imunização, mas também os fenómenos psicológicos associados à respectiva vulnerabilidade.

Curiosamente, alguns estudos recentes (e.g., Pennycook e colaboradores, 2020) evidenciaram que, de uma forma geral e pese embora diferenças individuais, a capacidade de discernir notícias e informações falsas não é comensurável como a intenção de partilhar as mesmas nas redes sociais.

Com efeito, quando foi pedido a participantes de um estudo que indicassem o grau em que acreditavam ou o grau em que partilhariam nas redes sociais conteúdos desinformativos, as respostas divergiam entre si. Dito de outra forma, o que motiva uma qualquer pessoa a partilhar desinformação não é necessariamente o grau em que a mesma acredita na veracidade da mesma, mas antes o grau em que concorda com parte do conteúdo ou o grau em que esse é consonante com a afiliação sociocultural, o que facilmente é compreensível se se notar que tendemos a ser positivamente reforçados (e a reforçarmos nós mesmos, com ‘likes’ e interacções sociais, sob a forma de comentários) pela partilha de conteúdo congruente com o grupo social ao qual nos identificamos, e não necessariamente pela veracidade e precisão do mesmo. 

Simultaneamente, quando indagadas a esse respeito, a maioria das pessoas indica que é relevante para elas partilhar somente informação credível e precisa nas redes sociais. Acresce que, no mesmo estudo, quando era pedido às pessoas que indicassem o grau em que uma única notícia lhes parecia verosímil ou credível, relatos posteriores de intenções de partilha nas redes sociais para peças de desinformação, mesmo com conteúdo distinto, tendiam a correlacionar-se com juízos de credibilidade. 

Aparentemente, o mero facto de lhes ter sido previamente pedido que indicassem “até que ponto acreditavam” numa qualquer notícia foi suficiente para tornar saliente essa dimensão e, consequentemente, espoletar os mesmos processos cognitivos associados ao discernimento de notícias falsas. Este resultado encapsula as condições mínimas para uma “inoculação psicológica” – apresentação de uma amostra de desinformação acompanhada de um aviso de que a mesma pode não ser fidedigna, implicitamente presente na questão colocada ao participante.

Na mesma linha, outros autores têm procurado implementar a lógica da Teoria da Inoculação em pequenos jogos interactivos, os quais se apresentam como “vacinas de largo espectro” (ainda sem versões em Português) para a desinformação nas redes sociais: Bad News (focado em Notícias Falsas, de uma forma geral), Harmony Square (com um contexto declaradamente político) e Go Viral (com um foco na actual pandemia e respectiva desinformação). Todos estes partilham da mesma mecânica de jogo: o jogador é convidado a personificar um agente de desinformação com o objectivo de semear discórdia, confusão e cisões na “população”, implementando estratégias similares aquelas usadas para a propagação de notícias e informação falsa nas redes sociais. O desempenho do jogador é traduzido em ‘likes’ virtuais (similares a uma pontuação) e na conquista de insígnias (badges) quando domina uma de várias estratégias comuns.

O primeiro destes, Bad New, desenvolvido em colaboração com Sander van der Linden e Jon Roozenbeek, investigadores na Universidade de Cambridge do Reino Unido e líderes na pesquisa contemporânea sobre a Teoria da Inoculação, mostrou-se eficaz na melhoria da capacidade de discernir e resistir a desinformação, num estudo de larga escala com 15 mil participantes. Ainda que o componente activo, tal como implementado no jogo, seja um aspecto relevante na “inoculação psicológica”, é o seu aspecto informativo, instanciado no jogo sob a forma de insígnias, que fornece imunidade a notícias falsas e conteúdo enviesado.

O leitor poderá, pois, e ainda que sem o aspecto lúdico, beneficiar de imediato da sua “vacina para a desinformação” ao apreender as seguintes estratégias comummente usadas em notícias falsas. Note que, ainda que cada uma possa parecer inócua em isolamento, uma campanha de desinformação bem-sucedida tende a usá-las em conjunto. Consegue identificar uma ou mais destas estratégias de desinformação no “feed” de notícias das suas redes sociais?

Falsificação da fonte: actualmente, na internet e redes sociais, é particularmente fácil e barato adoptar um perfil ou criar uma página “de notícias” que simule superficialmente um perito ou uma instituição profissional e legítima, ao mimetizar a sua aparência, pela adopção de logótipos e/ou nomes aparentados. As pessoas, ao partilharem informação “on line”, raramente prestam a devida atenção à fonte, bastando a alguém que apenas mimetize superficialmente alguém legítimo ou de confiança para que possa disseminar e propagar desinformação.

Emoção: emoções como o medo, raiva e empatia são intrinsecamente motivantes e compelem as pessoas a agir – seja partilhando material que activou esses estados emocionais, seja a reagir (sob a forma de comentários) a esse material. Obviamente, nem todo o conteúdo emocional das redes sociais é necessariamente falso. Contudo, e sabendo que as pessoas tendem a suprimir uma reflexão analítica quando emocionalmente activadas, é relativamente fácil incutir medo, raiva ou empatia na desinformação – consequentemente, as pessoas irão reflectir menos sob a veracidade da informação e agir com base na forma como essa as faz sentir, especialmente se as emoções implicarem alguma urgência.

Polarização e falsa amplificação: agentes de desinformação, sejam impelidos por uma qualquer agenda específica ou tão-somente para com o objectivo em si mesmo de disseminar informações falsas, nem sempre precisam sequer de criar conteúdo original. A sociedade contemporânea e as redes sociais são ricas em clivagens entre grupos sociais e perspectivas sobre inúmeros assuntos. Frequentemente, estas cisões e oposições são relativamente subtis e manejáveis no dia-a-dia. Contudo, é também relativamente fácil explorar essas para polarizar opiniões ao extremo e manufacturar conflitos. Uma boa metáfora é o caso de uma tábua de madeira que, quando sujeita a pressão, quebra no seu ponto mais fraco. É comum que conteúdo de desinformação explore essas linhas de ruptura amplificando-as e, frequentemente, forjando opiniões e notícias que suportem ambos os lados. Uma estratégia típica consiste no uso de “bots” – programas informáticos autónomos que “partilham” informação nas redes sociais simulando utilizadores legítimos. Um pequeno exército de “bots” pode ser suficiente para que um assunto ganhe tracção nas redes sociais e pareça bem mais relevante e prevalente do que realmente é.

Conspiração: teorias da conspiração são sedutoras – fornecem uma perspectiva sob o mundo que dota os seus seguidores de uma sensação de compreensão e domínio sob o mesmo. A ideia de que sabemos ou nos apercebemos de algo que a maioria das pessoas ignora pode ser inebriante e fazer alguém sentir-se superior e/ou mais capaz. A internet e as redes sociais fornecem uma base de interacções e partilha de informação que facilmente alimenta teorias conspiratórias. Quando orquestradas de forma a se oporem ou lançarem dúvidas sobre uma “narrativa oficial” podem ser propositadamente usadas como veículo de desinformação.

Descredibilização: inevitavelmente, qualquer peça de desinformação que ganhe destaque e relevo na sociedade e redes sociais virá a ser alvo de refutação, seja por esforços colectivos de verificação de factos, seja por cidadãos individuais. Quando tal ocorre, a estratégia típica consiste na tentativa de descredibilizar ou questionar a legitimidade desses. Note-se que, para manutenção e amplificação de desinformação, não é necessário (e até é contraprodutivo) responder às vozes críticas ou aos respectivos argumentos – basta deflectir a atenção para a credibilidade dessas, modificando assim o foco e preservando a desinformação que se pretende disseminar. A descredibilização não precisa sequer de ser fidedigna – a lógica consiste antes em fomentar uma ideia de “onde há fumo, há fogo”.

‘Trolling’: este termo anglófono descreve a técnica apelidada em Português de “Pesca Corrico”, em que uma amostra de isco é arrastada por um barco em movimento lento para atrair peixes. Veio a ser adaptado e amplamente utilizado na internet e redes sociais para designar comentários que deliberadamente provocatórios ou controversos, com o intuito de espoletar respostas emocionais e ludibriar as pessoas a encetarem uma discussão. Frequente em virtualmente qualquer rede social, o “trolling” pode ser facilmente explorado por campanhas de desinformação para minar a credibilidade de vozes opostas, mudar o foco da discussão como distracção ou para atrair seguidores e comentários para um dado tópico que pretende amplificar. ■