Image: João Salazar, detail

Takeaways tattici sull’informazione politica social-driven

Cosa insegna l’esperimento di elezioni.tracking.exposed

Introduzione

Inizio con l’introdurre l’esperimento, la cui natura è chiaramente spiegata sul sito ufficiale: http://elezioni.tracking.exposed al quale vi rimando.

Una serie di articoli di Tracking Exposed che esaminano la metodologia e mostrano i risultati con tanti grafici sui dati ai quali faccio riferimento è la seguente:

  1. Background sul progetto e su facebook.tracking.exposed
  2. Metodologia e applicazione alle elezioni
  3. Prima analisi dell’influenza dell’algoritmo
  4. Analisi sulla discriminazione dell’algoritmo
  5. Alterazioni basate sulla tipologia di post

Una volta che abbiamo chiari metodologia e risultati statistici, vorrei aggiungere qui una riflessione “opinionated” sui risultati concreti di questo esperimento, di cui (disclaimer) ho fatto parte.

Vorrei rispondere ad una serie di domande per fornire dei concetti “a portar via”, nell’ambito pragmatico/tattico/actionable dell’informazione politica intermediata dai social network.
Queste domande approfondiscono la seguente problematica: quali sono i rischi nell’informarsi su Facebook alla luce dei risultati di questo studio.

Procediamo quindi con una scansione per rischi (aiuta la mia mente abituata alla security) adatta all’approccio tattico, ai quali sono legate domande le cui risposte ci potrebbero aiutare a prendere decisioni migliori nella nostra informazione online.

Rischio 1 — Filter Bubble

Se seguo le fonti della mia parte politica preferita, che tipo di informazione ottengo?

Questo è il comportamento più naturale e forse più comune. Ma sostanzialmente, vuol dire scegliere di entrare (o rimanere) nella echo chamber: ti verranno proposti quasi esclusivamente contenuti di quella parte politica, in modo acritico e fortemente parziale. 
Impedisce quindi di formare un’opinione dalla valutazione critica di più fonti. Come noteremo in seguito, se non si selezionerà anche la qualità delle fonti seguite, l’ informazione ottenuta sarà a) controllata a monte e b) riproposta nel tempo dall’algoritmo di Facebook.
In pratica è il peggior caso possibile.

Se seguo fonti diversificate ottengo un’informazione diversificata?

L’esperimento di elezioni.tracking.exposed aiuta nel valutare proprio questa evenienza. I 6 soggetti seguono le stesse fonti, ma mettendo like per diverse parti politiche. Il risultato è che l’algoritmo di Facebook, come forse ci si aspetta, preferisca i risultati pubblicati o collegati alle pagine alle quali si è messo il like.
Come si può vedere dall’analisi di Tracking Exposed l’algoritmo non “giudica”, nel senso che non forza ad esempio un utente con preferenze di destra a vedere solo risultati di destra. L’alterazione avviene, come l’articolo ha ancora analizzato, sulla tipologia di post, conseguentemente all’aggiornamento dell’algoritmo, preferendo “contenuti che stimolano conversazioni”.
Sorvoliamo sulle implicazioni di questa scelta e rimaniamo nell’ottica della domanda: la risposta potrebbe essere che l’informazione che si ottiene in questo caso è diversificata ma non imparziale e comunque ancora controllata a monte nella qualità e nella quantità (misurata come numero di riproposizioni del contenuto in timeline).
Insomma, questo scenario è preferibile ma ancora troppo vicino alla filter bubble.

Rischio 2 — Erronea valutazione della fonte d’informazione

Esistono criteri per valutare la qualità della fonte? Se sì, quali?

Sicuramente esistono dei criteri, banalizzando si può pensare che basti il comune buonsenso ma vale la pena considerare altri criteri, da differenziare tra fonti più o meno formalizzate.

È evidente che fonti formalizzate, come le testate giornalistiche o gli account ufficiali di esponenti, partiti e movimenti politici, sono più affidabili perché sono automaticamente accountable ossia responsabili diretti della qualità e del tono delle affermazioni e dei contenuti pubblicati.

Fonti informali, come gruppi e pagine di supporter non ufficiali dei suddetti soggetti politici, o semi-formali come associazioni di promozione sociale e comitati politici si possono valutare sulla base:

  • dell’endorsement del soggetto politico alla fonte
  • dell’accountability, leggasi “chi ci mette la faccia”: persona, associazione, impresa
  • della qualità dei contenuti: la presenza di clickbait, fake news, istigazione all’odio e alla violenza sono sintomi di gestioni della pagina orientati alla viralità o al marketing piuttosto che alla qualità dell’informazione. Al contrario contenuti ben circostanziati e dalla chiara provenienza e intenzionalità (magari con un mission statement riscontrabile) sono sintomo di attenzione all’offerta informativa.
  • della web reputation: che è poi anche quello che stiamo facendo quando facciamo questa stessa analisi. In questo caso però andremo a valutare la reputazione che la fonte vanta da terze parti affidabili.

Tipologie di fonti differenti alterano diversamente la timeline?

Fonti differenti possono preferire tipologie di post differenti: post testuali, foto, video, presenza o meno di sponsorizzazione con targeting (che è un argomento a sé) e possono avere poco o tanto engagement.

Fattori questi che sicuramente alterano la visibilità nella timeline, ma che non dipendono dalla qualità del contenuto, ma solo dalla sua conformazione.
Per capirci, due post che hanno qualità ugualmente (o comparabilmente) buona possono essere più o meno mostrati in timeline a causa di parametri di costruzione del post che esulano dal loro contenuto.

È evidente che questa peculiarità dell’algoritmo non va a favore dell’imparzialità e di un flusso di informazioni eterogeneo finalizzato all’informazione politica, ma favorisce invece altri scopi del consumo del contenuto.

Rischio 3 — È possibile che mi vengano nascosti dei post che dovrei vedere o mostrati post che non dovrei vedere?

Sì e sì. 
Post sponsorizzati e targettizati possono arrivare a te indipendentemente dalle tue preferenze se il target della “pubblicità politicizzata” corrisponde al profilo che Facebook ha di te.
Analogamente ti possono essere nascosti dei post provenienti da fonti da te scelte se questi post non rispettano i parametri per la loro valorizzazione da parte dell’algoritmo.

A seconda della prospettiva che scegliamo di adottare questa notizia può essere buona o meno: se riteniamo di avere una buona e diversificata selezione di profili seguiti e possiamo ritenere che Facebook abbia fatto una profilazione accurata dei nostri dati anagrafici e personali e dei nostri interessi dovremmo preoccuparci di meno (paradossalmente, aggiungo).
In questo caso saremmo bersagliati in (pseudo-)egual misura da tutti i soggetti politici che abbiano intenzione di farlo.
Se questo non vi suona come una cosa buona, basta immaginare il caso alternativo per ricredersi: una selezione parziale e una profilazione inaccurata, o addirittura un’alterazione artefatta e maldestra degli stessi, porterebbe a proposte di contenuto scorrelate e improprie sia della parzialità acuta della echo chamber sia della imparzialità apparente della selezione delle fonti.

Ricordo che la propaganda può essere trasversale: ad esempio un post di un soggetto di destra può targettizzare soggetti di sinistra, e un post che tratta di bilancio dello Stato può targettizzare chi ha interesse in ONG umanitarie.
A questo proposito si può fare riferimento al progetto di Openpolis e ProPublica http://propaganda.openpolis.it/ .

Rischio 4 — Errori di valutazione sulla neutralità, o imparzialità, dell’algoritmo di Facebook.

Come possiamo leggere nell’analisi di Tracking Exposed, l’aggiornamento dell’algoritmo di Facebook di Gennaio ha modificato il modo di fruire i post nella timeline di 2 utenti fantoccio.
Possiamo dunque inferire intanto che alterazioni all’algoritmo (che ricordo essere unilaterali, non si può scegliere di non riceverle) inevitabilmente alterano il nostro processo di informazione, in ogni caso e per quanto attento esso sia.
Questo potrebbe sembrare un’ovvietà, ma se si considera che in Italia esiste il diritto all’informazione “qualificato e caratterizzato dal pluralismo delle fonti cui attingere conoscenze e notizie in modo tale che il cittadino possa essere messo in condizione di compiere le sue valutazioni avendo presenti punti di vista differenti e orientamenti culturali contrastanti” garante del quale è l’AGCOM (Autorità per le Garanzie nelle Comunicazioni), la questione si guarda sotto una luce diversa.

Questo ci porta direttamente a considerare un fatto: le testate giornalistiche sono tenute a rispettare i dettami dell’AGCOM (par condicio, silenzio stampa etc), mentre le pagine gestite in modo anonimo su Facebook non sono obbligate, se non moralmente, a rispettare le stesse regole del gioco.

Key takeway: Facebook è un social network adatto ad informarsi sulla politica?

Quello che possiamo inferire dai risultati di elezioni.tracking.exposed e dalle riflessioni appena fatte è che Facebook non è un luogo da preferire per informarsi sulla politica.

Le motivazioni, alcune delle quali sfiorate in queste righe, hanno una radice comune: il social network di Menlo Park non è progettato, nè direttamente nè indirettamente, per la comunicazione politica. E questo vale nonostante ci sforziamo di farlo essere tale solo perché è il più frequentato.

È pensato per comunicare con una rete sociale di amici ed altri enti che conosciamo direttamente e che condividono aggiornamenti, contenuti e proposte di valore o prodotti ai quali siamo interessati. È pensato per essere engaging e per intrattenere.
Ovviamente ci sono tutta una serie di conseguenze di queste finalità e tutta una serie di scopi sotterranei che non è il caso di esplorare qui.
Basta sapere che, alla luce di queste ed altre evidenze, la forma di social network scelta da Facebook con i suoi algoritmi altera troppo la fruizione dei contenuti per renderla affidabile e imparziale.

Quale sia, e se ci sia, un luogo preferibile per l’informazione politica è una questione che merita una trattazione dedicata.
Passando dalla concretezza dell’analisi alla fantasia della creatività, si può immaginare un social network dedicato esclusivamente a questo scopo.
Potrebbe far scegliere fonti in modo da formare una panoramica pluralistica, pesare i contenuti, valutare le fonti con un voto per accountability, fact checking, indipendenza e reputazione.

Quel che è certo, ad oggi, è che questo social network non è Facebook.