Chi controlla i controllori? (la post-truth ti fa male lo so)

Federico Dolce
12 min readDec 31, 2016

Annamaria Testa scrive così:

In tempi di post-verità (in tempi, cioè, in cui i fatti oggettivi appaiono meno rilevanti delle opinioni e delle credenze soggettive) il fatto che l’82 per cento degli studenti della scuola secondaria e delle università americane sia incapace di distinguere una notizia vera da una falsa non è […] una bella notizia.

Con la parola dell’anno “Post truth” abbiamo imparato a riconoscere tutte quelle notizie false che vengono condivise sui social media dalle nostre zie poco avvezze all’informatica, ma anche a bollare frettolosamente come fraudolenti ed autosqualificanti tutta una serie di argomenti a supporto di tesi che semplicemente non ci piacciono o non ci convincono.

In linea di massima non sono pochi gli osservatori, opinionisti, giornalisti e politici che hanno trovato nella “bufala” una nuova giustificazione per i risultati lontani dalle proprie aspettative e previsioni, come si è visto per i risultati della Brexit, delle elezioni presidenziali americane o il referendum costituzionale in Italia. Una panacea buona per tutti i mali ,ed un nuovo grande nemico da sconfiggere a tutti i costi: la bufala.

Il riquadro semantico di Google, tanto per capirci

E’ di questi giorni la dichiarazione del presidente dell’Antrisust, Giovanni Pitruzzella che auspica “una rete di agenzie pubbliche per combattere la diffusione di notizie-bufala su Internet”. Questa è solo l’ultima di una serie di accurate iniziative al servizio della Verità come plugin al browser che mettono il “bollino” alle notizie certificate, o la disponibilità dimostrata dagli amministratori dei principali social network (dopo una sessione di facepalm durata anni, evidentemente) per fornire quello che più di ogni altra cosa vista fin ora si avvicina alla distopia orwelliana “1984”: il Ministero della Verità.

Il plugin di Facebook avrà una grafica più accattivante, promettono

Nessuno intende difendere quei personaggi squallidi che inventano di sana pianta le notizie (magari razziste, quasi sempre incendiarie) per guadagnare click, visualizzazioni di sponsor o anche solo temporanea fama e visibilità, ma i rischi derivanti dall'attribuire poteri censori o divinatori ad entità che difficilmente potranno essere sempre imparziali ed infallibili sono grandi.

Come si fa quando chi deve effettuare il controllo sbaglia a sua volta?

Succede molto più spesso di quanto si voglia ammettere.
Succede tutte le volte in cui l’errore da smascherare è un qualcosa che sfugge alla logica binaria dello “scientificamente vero” o “scientificamente falso”, o più prosaicamente il controllore sceglie di controllare opinioni invece dei fatti (la sezione Fact-checking dell’AGI ad esempio è un raffinato elenco di editoriali, non di fredde analisi).
Succede tutte le volte in cui il controllore non ha abbastanza conoscenza specifica e tecnica della materia in oggetto o questa è complessa come complesse sono le soluzioni ai problemi complessi che la vita ci sottopone.
Succede, infine, tutte le volte in cui il controllore si trova ad analizzare una questione su cui ha una sua visione e convinzione personale da cui non riesce ad astrarsi per effettuare il controllo.
E’ una questione di autorità del controllore, direte voi. Era però anche una questione di autorità della testata giornalistica quando si trattava di divulgare notizie verificate ed attendibili.
Non è finita bene, e ogni giorno assistiamo a magre figure dei massimi esponenti della attendibilità giornalistica.

Come si fa quando chi deve controllare non è imparziale?

Anche qui i casi non sono pochi: una polemica mesi fa investì Facebook accusandola di offuscare e sopprimere notizie di orientamento conservatrice.

C’è poi la Poynter, un’entità autorevole nel mondo del giornalismo, ma non necessariamente super partes. Una sua dirigente, Kelly McBride, ha commentato in maniera piuttosto decisa l’elezione di Donald Trump. Un articolo di Melody Kramer, pubblicato prima delle elezioni, negava invece che i media fossero faziosi nella contesa tra Trump e la Clinton, malgrado evidenze in senso contrario.

E’ stato calcolato che Politifact riconosce come vere la maggior parte delle affermazioni di politici democratici e come false la maggior parte di quelle di politici repubblicani. Forse questi ultimi mentono davvero di più, ma numerosi critici ritengono invece che Politifact interpreti le loro asserzioni in maniera più letterale, trovando così quasi sempre una virgola cui aggrapparsi per invalidarle.

Combattere il monopolio e affidarsi ad una rete di controllori indipendenti?

Questa è una delle soluzioni che sembrano più caldeggiate ma nasconde sempre un problema di concetto e struttura: se “chiunque” può diventare factchecker e partecipare al controllo dell’attendibilità di una notizia, avremo il ripetersi dello stesso fenomeno osservato fin ora: una parte di “controllori” si collocherà ideologicamente vicino ai produttori di bufale (quando addirittura non le stesse persone) e l’indice di attendibilità sarà sempre influenzato non tanto dalla reale affidabilità della notizia ma da una sua popolarità nel parco dei controllori.

Se invece questo sarà chiuso o “a chiamata” verranno quindi contestati i criteri o le entità che si ergeranno a compiere questa scelta. D’altra parte c’è un motivo se le bufale più virali cominciano col titolo in caps lock “CONDIVIDI PRIMA CHE CENSURINO QUESTO”.

L’idea infine di dare ai singoli utenti la possibilità di segnalare direttamente le bufale lascia il tempo che trova: già ora è possibile segnalare articoli, immagini, pagine e profili per motivi che vanno da criteri pedopornografici a generali violazioni delle condizioni di utilizzo. Le segnalazioni vengono semplicemente usate come strumento di opposizione da parte di gruppi organizzati di utenti che segnalano l’avversario per qualsivoglia motivo. Oltretutto costruendo una struttura in cui è la stessa popolarità a decidere l’accuratezza di un’informazione compiremmo un suicidio tecnico impareggiabile.

La parte razionale: dare agli utenti gli “strumenti” per distinguere

Da più parti stanno fiorendo invece inviti a sostegno della mozione “pedagogica”: quella che sostiene la necessità di aiutare i singoli utenti a riconoscere la bontà delle informazioni attraverso l’educazione, la scuola per il media tecnologico, i decaloghi di buon comportamento e il fact-checking fatto in casa (senza olio di palma).

Oltre ad essere un wishful thinking quello di poter educare le masse a comportamenti che noi riteniamo razionali, dovremmo principalmente mettere sotto la lente di ingrandimento il peccato originale: pretendere che tutti la pensino come noi non sarà mai la soluzione.

E la maggior parte dei ragionamenti alla base di queste soluzioni si basano per l’appunto sull’uso del caro vecchio buon senso — a patto che il buon senso di tutti sia precisamente uguale al nostro. Cosa che non solo è lontanissimo dalla realtà ma renderebbe la vita oltremodo noiosa.
Infine dà per assunto che ci sia una porzione di pubblico completamente esente da bufale e raggiri vari — noi, ovviamente — perchè più intelligente e preparata del resto della popolazione. Un pensiero molto rassicurante ma anche molto classista — e molto sbagliato.

La parte emozionale: i valori su internet

Riprendiamo la definizione del termine iniziale post-truth:

[…]si riferisce a circostanze in cui i fatti oggettivi sono meno influenti degli appelli a emozioni e credenze personali nel formare l’opinione pubblica

La condizione in base alla quale una notizia viene apprezzata o diffusa, invece che contestata e criticata è il sistema valoriale del singolo utente.
Il fact checking viene eseguito (anche solo nelle parti più basiche) più facilmente da coloro che incontrano la notizia “ostile”, e questo vale per tutti, noi compresi.

E’ il ben noto meccanismo del bias di conferma: quel processo mentale che consiste nel ricercare, selezionare e interpretare informazioni in modo da porre maggiore attenzione, e quindi attribuire maggiore credibilità, a quelle che confermano le proprie convinzioni o ipotesi, e viceversa, ignorare o sminuire informazioni che le contraddicono.

Pretendere che venga considerato vero ciò che noi consideriamo vero, che vengano scelte le notizie da diffondere in base a canoni che noi riteniamo basilari, lascia intravedere tutta la famosa superiorità antropologica della media èlite di Sorkiniana memoria.

E’ vero che ci sono notizie ampiamente e palesemente false (false al punto di essere oggetto di querele per diffamazione), ma credere che le persone vengano “truffate” a credere in ciò che credono da queste notizie è paternalistico.
Volerle “liberare” insegnando loro a cosa credere è ancora peggio.

Nello specifico: la zia ottantenne al cenone di natale ha tenuto un comizio di 20 minuti sugli immigrati che rapinano il Papa pagati da Renzi 85€ al giorno per stare nelle SPA a diffondere malattie ha sicuramente tratto le sue informazioni dalle bufale su Facebook. E ci fa sentire meglio pensare a lei come ad una tenera anziana che viene truffata da dei manigoldi tecnologici, ma la amara verità è che la zia è molto probabilmente una vecchina razzista punto e basta, che ha creduto alle storie di Salvini perchè le fanno schifo gli immigrati e non viceversa.

Se il nostro obiettivo è convincere la zia che gli immigrati non vanno respinti a cannonate sui barconi, vietarle di entrare in contatto con quelle bufale non la “salverà”. Piuttosto permetterle di incontrare realtà importanti come quella del volontariato e delle associazioni per l’aiuto verso i più deboli e disagiati potrebbe intaccare quel sistema valoriale che ha creato in lei un terreno così fertile per tali storielle.

Il reganiano crede che i comunisti mangiano davvero i bambini.
Il reganiano odia i comunisti, ma non perchè mangiano i bambini.
Spendere numerose energie per dissipare in lui ogni dubbio sui comunisti che mangiano i bambini non ridurrà di un centimetro il suo odio per i comunisti, al massimo rafforzerà il suo pregiudizio sui radical chic petulanti e paternalistici.

In questo senso andrebbe analizzato in che modo i social network abbiano lavorato e contribuito a formare lo schema valoriale che ci rende più o men vulnerabili a certe bufale piuttosto che ad altre.
Come per la par condicio in televisione in cui non conta tanto il semplice minutaggio di una parte politica, quanto il come se ne parla durante quei minuti, dove se ne parla e soprattutto cosa si dice quando non se ne parla, allo stesso modo andrebbe messo sotto la lente di ingrandimento non la bufala, ma le interazioni sociali (e le informazioni) che ci vengono sottoposte nel tempo restante da quell’engagement.

Come vediamo, cosa vediamo quando siamo bendati

La famosa filter-bubble, evoluta poi in echo-chamber è quel meccanismo per cui un’informazione, un’idea una convinzione vengono amplificate e rinforzate dalla comunicazione e ripetizione all’interno di un sistema definito. Al suo interno le fonti ufficiali non vengono messe in dubbio e visioni avverse o differenti vengono censurate, negate, proibite o semplicemente non rappresentate.

In molti hanno dato la colpa di queste echo-chamber all’algoritmo di Facebook che riscrive il feed di informazioni centrale che ogni utente vede in base ai suoi gusti, interazioni, credenze espresse. È stato sicuramente un elemento molto importante nel rinforzare la “bolla” che altrimenti si stava pian piano sfaldando dalle dimensioni che Facebook stava raggiungendo nelle nostre vite.
I social network sono in maggioranza costruiti con l’intento di mettere in contatto persone simili fra loro, per interessi o credenze: rende più godibile l’esperienza per l’utente. Facebook aveva raggiunto dimensioni tali da mettere in crisi questo schema, nonostante fosse strutturato per aggiungere “amici” conosciuti in vita reale la sua diffusione l’ha reso una sorta di “anagrafe virtuale” e quasi tutti noi siamo entrati in contatto con così tante persone (fino a 5000 amici: chi di noi è costantemente in contatto con 5000 persone nella vita reale?) da creare inevitabilmente numerosi punti di contatto fra persone estremamente diverse e generare conflitti.
Gli amministratori non vogliono conflitti, necessitano di utenti che si comportino molto meglio che nella vita reale, sono un costo di gestione e di immagine. Così hanno provato ad aumentare la gestione della privacy da parte dell’utente — per limitarne l’interazione con gli indesiderati — e quindi sono intervenuti pesantemente nei punti di contatto che maggiormente scatenano le interazioni, cioè nel piatto di notizie che ognuno di noi ha sotto il naso ogni momento per darci l’illusione di vedere “cosa succede su Facebook” (pazzia) mentre ne stiamo vedendo una misera porzione della misera porzione che noi stessi abbiamo selezionato.
Fate la prova: prendete la cerchia di persone con cui interagite più spesso su Facebook e “nascondetela” (smettete di seguirla, nascondendola dal feed centrale). Improvvisamente vedrete riaffiorare amici di vecchissima data, spesso compagni di liceo o università o vecchi colleghi con cui condividete pochissime vedute culturali o politiche ma che mai avevate nascosto o cancellato: erano semplicemente sprofondati fuori dalla bolla che Facebook ci prepara per farci felici.

Come ha scritto Alan Martin su Wired:

If you use the internet reasonably regularly, you will have seen examples of this, some more subtle than others: Netflix pushes films and shows based on your viewing habits, Twitter will suggest who you might like to follow by cross checking who your peers are, and as Eli Pariser’s “Filter Bubble” TED Talk demonstrates, Googlewill offer dramatically different search results based on a bunch of factors, even if you’re not logged in. Facebook’s algorithm works overtime, tailoring your newsfeed based on who you routinely interact with, and it’s far from perfect. Regularly like or comment on someone’s statuses?

They’ll pop up all the time, no matter whether they’ve just made a sandwich or won the lottery. Someone you tend to ignore will get brushed under the carpet — sometimes for major life events, like the birth of a child or their imminent wedding.

Alla base di tutto però c’è proprio questo: il conflitto.
Una vita passata sui social network ci ha “imbambolato” dal punto di vista del confronto con ciò che è nuovo e diverso da noi, un confronto che nella vita reale ci succede più spesso mentre online succede di rado — e quando succede tira fuori il leone da tastiera che è in noi. Un’educazione valoriale impostata sul conosciuto e rassicurante, che tiene a distanza il diverso è alla base di ogni ignoranza e paura — che poi a sua volta è alla base di tante cose fra cui il razzismo. Una chiusura mentale nascosta dal fatto di giungere dal media che più di tutti avrebbe dovuto aprircela la mente, l’utente del social network è grossomodo un abitante della metropoli moderna che per quieto vivere si trasferisce nel paesino di campagna dove conosce tutti, fan tutti la stessa cosa e non cambia mai niente.
Questo è il terreno fertile per le echo-chamber, che hanno preparato le menti — o meglio le loro reazioni istintive — per tutti i livelli di bufala.

Il conflitto, l’emarginazione, l’odio che sta alla base della reazione del webete dovrebbe essere il primo pensiero per chi davvero volesse adoperarsi a migliorare la situazione, ma naturalmente è un desiderata piuttosto infantile.

Resta che quando l’onorevole Boldrini resta molto turbata dalla quantità di bufale che circolano sul suo conto, si convince che una grossa fetta di cittadini arriverà ad odiarla a causa di esse ma si sbaglia di grosso. Se risulta così antipatica è perchè incarna lo spirito della radical chic che 30 anni di film, giornali e cultura popolare in genere ci hanno insegnato a disprezzare, la bufala ne è una mera conseguenza.

Quando in un forte alterco mi insultano arrivano a darmi del figlio di puttana: posso inchiodarli come bufalari portando prove tangibili e fiscali del fatto che mia madre è una maestra elementare in pensione e non ha mai operato nel meretricio, ma forse non coglierei il punto.

Cogliere il punto: che fare?

Alla luce di tutto questo un’autorità sotto qualsiasi forma: privata, pubblica, monocratica o multipolare che si prodighi a censurare (o anche solo sconsigliare) ciò che ritiene falso può essere di una qualche limitata utilità nel raffreddare i sintomi, non certo curare la causa. Al contempo però crea un precedente pericolosissimo e spiana la strada ai peggiori autoritarismi — che visto i tempi che corrono non andrebbero di certo incentivati.
Basterebbe un “enforcement” delle leggi vigenti su diffamazione e ingiustificato allarme, sempre ricordandosi di come andare a sbattere contro la definizione di “satira” dietro cui si trincerano quasi tutti i bufalari di professione (e spesso anche i veri satirici, il cui operato però è indistinguibile).

Un impegno ad una migliore alfabetizzazione informatica del “selvaggio digitale” può farsi sentire meglio con noi stessi ma se fatto con la dovuta condiscendenza spesso peggiora solo la situazione. Andrebbe poi incentivato in qualche modo un buon bagno di umiltà per chiunque voglia insegnare a scovare bufale salvo poi trovarsi a difenderne altrettante ma a lui affini. Meglio se questa scolarizzazione non venga dal settore giornalistico che ha così generosamente contribuito al decadimento della qualità di informazione.

Cosa resta da fare? Resta da occuparsi del conflitto, come da sempre. Migliorare le condizioni di un Paese in crisi economica ma anche culturale.
E però soprattutto economica, e non facciamo finta di dimenticarcelo per via delle bufale.
Riprendere a dare il buon esempio invece di farsi tentare dal scendere al livello dell’avversario. Perchè la tentazione è forte, ma soprattutto la giustificazione che ci si da (“si, ma io lo faccio a fin di bene”) è pericolosissima.
E soprattutto scacciare la convinzione che i liberali stiano perdendo contro i populisti per colpa del web e delle bufale perchè sarebbe la più autoassolutoria, ridicola e inconcludente delle strategie.

--

--