Come il meccanismo cognitivo ci fa credere alle fake news

Paolo Scarrone
La Mosca Bianca
Published in
6 min readJul 23, 2017

Traduzione di un articolo scritto da Vedrana Simičević a proposito della diffusione e dell’apprendimento cognitivo di fake news.

Articolo originale disponibile qui :http://www.euroscientist.com/holding-on-to-lies/

Cinque anni fa, il World Economic Forum ha dichiarato che la diffusione di disinformazione attraverso i social media fosse uno dei più grandi rischi globali verso il nostro futuro e la nostra prosperità. In quel periodo, la futura scalata di questa minaccia non era ancora chiara, persino per gli esperti di media. In ogni caso, lo scorso anno è stato una rivelazione travolgente per chiunque avesse il minimo dubbio su quanto rapidamente i social network stiano modificando il consumo di notizie ed i suoi effetti.

La disinformazione e le fake news hanno influenzato ogni grande processo di votazione e rafforzato i movimenti anti-scientifici — basti considerare l’onnipresenza della propaganda anti-vaccini e lo scetticismo riguardo al cambiamento climatico. Ma quali sono le conseguenze e i rimedi a questo tipo di fenomeno?

Quello di disinformazione non era un concetto sconosciuto ai media del ventesimo secolo, ma internet si sta rivelando una piattaforma ideale per la diffusione, la moltiplicazione e l’acritico consumo di fatti infondati. Di fronte a questo enorme flusso di informazioni, viene facilmente smarrita l’evidenza empirica. Il debunking (processo di confutazione di una fake news n.d.r.) è diventato un argomento fondamentale, ma combattere contro le fake news è tutt’altro che facile. Scoprire il meccanismo che muove questo fenomeno e ovviamente il primo passo.

Secondo gli scienziati della cognizione, il problema più grande del debunking è che continua a influenzare giudizi e conclusioni anche dopo la correzione. I ricercatori hanno descritto questo fenomeno nel 1994 per la prima volta , soprannominandolo continued influence effect (effetto di influenza continua). Hollyn Johnson e Colleen Seifert, dell’università del Michigan, hanno condotto un progetto di ricerca in cui hanno esposto ad alcuni soggetti una storia riguardo ad un incendio in un magazzino che includeva notizie non vere; hanno poi manipolato le tempistiche di presentazione della versione corretta. Johnson e Seifert hanno concluso che non è possibile cancellare informazioni dalla nostra mente semplicemente affermando che sono false, anche se questa correzione avviene immediatamente dopo la prima esposizione.

Negli ultimi dieci anni, molti studi simili hanno contribuito a sbloccare il complesso meccanismo cognitivo che sta dietro a questo effetto di influenza continua. Stephan Lewandowsky, delluniversità di Bristol, è uno degli esperti più importanti in questo campo. The Debunking Handbook, scritto da Lewandowsky e John Cook, riassume i principali effetti di “ritorno di fiamma” che possono avvenire durante i tentativi di correzione. Il overkill backifre effect (effetto da ritorno di fiamma eccessivo) può avvenire se utilizziamo troppe argomentazioni complicate. L’informazione semplice da comprendere ha più possibilità di essere considerata come vera. Il debunking dipende anche da convinzioni preesistenti , e su processi cognitivi come i confirmation bias, ovvero la tendenza a cercare selettivamente informazioni che confermino le nostre teorie.

L’effetto più sconcertante del cosiddetto ritorno di fiamma è rinforzare la familiarità con la disinformazione riferendoci ad essa durante un tentativo di correzione. È difficile fare il debunking di una notizia senza menzionare l’errore originale ed è qui che sorge il problema: Quando le persone usano metodi semplici ed automatici di recupero della memoria è più facile accettare informazioni false come fossero vere in quanto sembrano familiari. L’arte del debunking si fa dunque più complicata. Sebbene qualche ricerca mostri che questi tentativi di debunking rinforzino la disinformazione come verità, in due studi sperimentali del 2017, Lewandowsky, Ulrich Eker e Briony Swire non hanno trovato nessuna prova del familiarity backfire effect (effetto familiarità del ritorno di fiamma).

Lewandowsky spiega che la familiarità probabilmente viene sopraffatta quando attiviamo i nostri processi mnemonici più strategici e complessi; questi ci permettono di ricordare dettagli come dove, quando e come abbiamo appreso l’informazione. In ogni caso, la memoria strategica potrebbe facilmente fallire nel caso fossimo distratti da qualcosa oppure riluttanti o incapaci di esercitarci mentalmente. Perciò, anche se menzionare la disinformazione nel processo di debunking non conduce sempre a risultati negativi, è meglio evitare di farlo come precauzione e concentrarsi sui fatti. “Elaborare rappresenta un equilibrio tra la reazione basata sulla familiarità e il processo strategico, e quando il primo supera il secondo, allora ci si aspetterebbe un effetto ritorno di fiamma basato sulla familiarità”, spiega Lewandowsky.

Nella loro ricerca più recente, pubblicata nel giornale PLOS One, Cook Lewandowsky e Eker confermano inoltre che le persone possono essere “vaccinate” contro la disinformazione con differenti tipi di avvertimenti. Per esempio, il ben noto fenomeno del falso equilibrio della copertura dei media, che diminuisce l’accettazione di fatti scientifici, potrebbe essere facilmente neutralizzato con un precedente avvertimento riguardo al contenuto ingannevole.

È anche importante sottolineare che il debunking nell’era digitale potrebbe essere accompagnato da trappole online. Come avverte Lewandowsky, qualsiasi cosa trovata in rete sembra ugualmente credibile, l’informazione si spande molto più velocemente e ogni opinione trova conferma in qualche angolo della rete.

Nel continuo sforzo di capire il meccanismo della diffusione di disinformazione su internet, Walter Quattrociocchi, dell’IMT di Lucca, ha lavorato insieme ad alcuni colleghi per analizzare migliaia di post e le interazioni fra utenti su pagine Facebook pubbliche. Le hanno poi divise in due categorie: quelle a contenuto scientifico e quelle cospirazioniste. I risultati ottenuti lo scorso anno, pubblicati ne Proceedings of the National Academy of Sciences of the United States of America (PNAS), mostrano chiaramente l’esistenza di echo chambers, comunità polarizzate di utenti che selezionano e condividono contenuti relativi ad una narrativa specifica e tendono ad ignorare il resto. Hanno concluso che le confirmation bias riforniscono queste echo chambers, che a loro volta promuovono la diffusione dei contenuti su Facebook . Mentre però le notizie scientifiche tendono a diffondersi in particolar modo all’inizio della loro vita, i risultati mostrano come l’attività delle dicerie cospirazioniste abbia una durata molto più estesa su Facebook.

Nella loro ricerca più recente, pubblicata quest’anno su PNAS, Quattrociocchi ed i suoi colleghi hanno esplorato l’apprendimento di notizie analizzando 920 nuovi canali di informazione e 376 milioni di utenti. Hanno concluso che gli utenti che prendono informazioni da Facebook limitano la propria ricerca a pochi siti. Nonostante il grande numero di nuove fonti disponibili, una massiccia segregazione e una crescente polarizzazione sono i fattori principali dell’apprendimento di notizie online.

“La discussione online influenza negativamente la percezione degli utenti e intensificano la polarizzazione, creando echo cambers dove le credenze vengono rinforzate”, dice Quattrociocchi. “Con l’utenza dei social media indirizzata a massimizzare il numero di like, l’informazione è spesso eccessivamente semplificata”, aggiunge, spiegando che la semplificazione e la segregazione forniscono un ambiente ideale nel quale la disinformazione si può diffondere.

Questo tipo di ambiente polarizzato è inoltre piuttosto resistente ai fenomeni di debunking. Le ricerche rivelano come dopo l’esposizione a post di debunking gli utenti di pagine cospirazioniste rimangono fedeli, o addirittura aumentano la propria convinzione con la propria echo chamber cospirazionista.

“La verità è un concetto difficile, mentre il modo di rappresentare la scienza è quasi religiosamente formalistico”, spiega Quattrociocchi. “Allo stesso tempo è difficile fare affidamento su risultati se non si è capaci di distinguere tra causa e correlazione”. Avere a che fare con fenomeni come l’immigrazione o i cambiamenti economici richiede concetti come probabilità e incertezza, con cui la maggioranza delle persone non ha familiarità. Ci perdiamo in uno storytelling che è sprovvisto di ingredienti di base utili a comprendere la realtà”.

Confermando l’importanza di sbloccare il meccanismo cognitive che sta dietro all’influenza della disinformazione, David Budtz Pedersen, condirettore del Humanomics Research Centre a Copenhagen, Danimarca, sottolinea che il cambiamento della cultura informativa è effettivamente diventato uno strumento politico. Budtz Pedersen conclude dicendo: “Se si è in grado di creare una polarizzazione tra credenti e non-credenti si crea una forte piattaforma politica. Una nuova ricerca dell’università di Harvard suggerisce che le fake news non rimangono fisse nella testa. Un elettore medio americano è in grado di ricordare solo 1.4 elementi di una fake news, il che suggerisce che le fake news da sole non cambiano il sistema politico. In ogni caso, l’effetto cognitivo sottostante di accumulo di fake news e disinformazione è la polarizzazione politica e la creazione di echo chambers.” Budtz Pedersen avverte che “ciò può seriamente danneggiare la deliberazione democratica”.

In questo mondo dei social media in continua e veloce trasformazione, I giornalisti di scienza sono coloro che dovranno mantenere un equilibrio, dice Volker Stollorz capo editore del Science Media Center in Germania. Perciò, avverte, è utile per i giornalisti capire a fondo come l’inquinamento della comunicazione scientifica sia realmente avvenuto. “Il giornalismo scientifico, è stata la prima professione a scoprire che la cognizione per la preservazione dell’identità non può essere modificata fornendo solo i fatti e più conoscenza. Ogni volta che un argomento scientifico viene polarizzato e aggrovigliato a linee di partito da parte di mercanti di dubbio con interesse d’acquisto, la cognizione per la preservazione dell’identità inizia a fare effetto e può bloccare fatti sconvenienti. Dobbiamo capire come elaborare uno storytelling migliore, che accetti i pregiudizi cognitivi e che adatti la comunicazione in modo che le persone possano sviluppare fiducia nel giornalismo”, conclude Volker Stollorz.

--

--

Paolo Scarrone
La Mosca Bianca

Laureato in lingue e giornalismo, cerco fortuna nel mondo della comunicazione. Granata da legare.