Righe su un Database

Elezioni, datafication, e la fine del contenuto e della responsabilità.

image from GhostWriter

In un articolo del 2014 Jonathan Zittrain raccontava come i colossali esperimenti sociali computazionali costantemente messi in atto da operatori come Facebook su centinaia di migliaia di persone per volta, rappresentassero un pericolo reale, di cui iniziare ad occuparsi seriamente. Zittrain arrivava a mostrare come, a giudicare da quel che si sa di questi esperimenti, un operatore come Facebook avrebbe potuto influenzare in maniera radicale l’esito delle elezioni statunitensi.

Nell’articolo, Zittrain affermava:

“Lo scenario è un esempio di gerrymandering digitale [https://it.wikipedia.org/wiki/Gerrymandering].
cos’è il Gerrymandering, da Wikipedia
Una estesa serie di fattori influenza ciò che Facebook o Twitter presentano in una bacheca, o quello che Google o Bing mostrano nella lista dei risultati di una ricerca.
Ci aspettiamo che gli intermediari rendano disponibili condutture aperte al contenuto degli altri, e che le variabili nei loro processi aiutino semplicemente a proporci informazioni per noi più rilevanti.
Il gerrymandering digitale accade quando un sito web, invece, distribuisce informazione in modi che siano al servizio della propri agenda ideologica. Questo è possibile con ogni servizio che personalizzi ciò che vedono gli utenti e l’ordine in cui lo vedono, ed è progressivamente sempre più semplice da attuare.”

Il fatto che i grandi player globali utilizzino le proprie piattaforme digitali per sostenere attivamente una propria agenda politica non era un fatto nuovo.

Per esempio, già nel 2012 Google aveva utilizzato il suo “doodle” in home page per protestare nei confronti della Stop Online Piracy Act (SOPA), puntando ad una pagina sul proprio blog ufficiale che conteneva l’avvio di una petizione.

Con l’esempio evidenziato da Zittrain, però, si trattava di uno scenario molto differente e altamente problematico. Non solo questi operatori erano nelle condizioni di utilizzare le logiche algoritmiche delle proprie piattaforme globali per influenzare il comportamento e le scelte di milioni di persone — per esempio esponendole sistematicamente e computazionalmente a certi contenuti invece che altri, in maniera dipendente dai loro gusti e preferenze politiche — , ma erano in grado di farlo in modi subdoli e completamente opachi, non trasparenti. Facebook avrebbe potuto influenzare le elezioni, e nessuno si sarebbe accorto di nulla.

Era l’inizio esplicito dell’era della politica computazionale.

Nel suo “Engineering the Public” Zeynep Tufekci, parlando proprio di questi operatori, delle enormi quantità di dati che riescono ad accumulare su centinaia di milioni di persone, e delle implicazioni politiche di questo fatto, affermava che

i big data e i relativi strumenti analitici portano un più efficace — e meno trasparente — processo di ingegnerizzazione del consenso nella sfera pubblica.

E apriva la stagione delle computational politics, la politica computazionale:

Le Computational Politics si riferiscono alla possibilità di applicare metodi computazionali a grandi set di dati derivati da sorgenti online e offline per condurre azioni di coinvolgimento delle comunità, di persuasione e mobilitazione al servizio dell’elezione, di conferma o opposizione ad un candidato, di una politica o di una legislazione.

In un op-ed del NY Times, Tufekci scriveva:

Portano la persuasione verso un contesto privato, invisibile. Le pubblicità fuorvianti in TV possono essere contrastate e fact-checked. Un messaggio fuorviante, inviato nella mail giusta, propio di quel tipo e formato che aprirai o su cui cliccherai rimane nascosto dalle sfide dell’altra campagna o del resto dei media.

Tutto questo succedeva nel 2012–2014.

Da quel periodo lo scenario è progressivamente peggiorato: sono successi gli scandali per gli esperimenti di Facebook; le elezioni di Trump; il microtargeting; gli algoritmi e le intelligenze artificiali; e tante, tante altre cose.

Normalità

Ciò che solo pochi anni fa era scandaloso, ora è diventato normale, parte dell’offerta standard degli operatori più grandi.

Ad esempio, Google, tra i propri prodotti, offre Google Elections.

una schermata dal sito del servizio

“Win the moments that win elections” Google annuncia sulla home page del servizio, alludendo alla possibilità di colonizzare costantemente ogni occasione in cui le persone cercano informazioni online: “The more of those moments you win, the better your chances of winning on Election Day.”

Tutto è costruito per progettare presenze online in maniera ubiqua e pervasiva: Establish, Build, Persuade, Respond, Mobilize.

Establish: stabilire una presenza online.

Build: raggiungere (e quindi conoscere) le persone più rilevanti per la campagna.

Persuade: usare il digital advertising in maniera informata dai Big Data dei comportamenti per comprendere come vincere quei “momenti”, per far sì che le ricerche di informazioni delle persone si trasformino in opportunità per la campagna elettorale, in maniera pervasiva.

Respond: trasformare ogni momento in una opportunità, conoscendo la risposta dell’elettorato e calando in picchiata come un predatore per sganciare la risposta giusta per il pubblico giusto.

Mobilize: “get out the vote and drive more of your supporters to the polls” come dirlo meglio?

“Give voters what they’re searching for”

“Dai ai votanti quello che cercano”. Non si accenna più in alcun modo alla responsabilità di condurre un programma politico con un senso: si parla solo ed esclusivamente della colonizzazione dell’attenzione delle persone, per dargli quello che vogliono, per farsi votare.

I metodi da infiltrazione, distorsione e sovraccarico dei media tipici delle azioni di intelligence internazionale diventano prodotti da scaffale. Controllo, sorveglianza e un buon business.

You’re not alone

Google non è l’unico soggetto impegnato in questo scenario.

In un articolo su Insurge Intelligence si ipotizza come Facebook potrebbe infiltrarsi nelle elezioni e controllare il mondo in 10 anni.

Se Sean Parker, l’ex presidente di Facebook, esprime dubbi sugli effetti negativi della piattaforma sulle generazioni più giovani, Facebook, al contrario, si posiziona in maniera altamente problematica.

Tecnicamente, attraverso apparati di elaborazione massiva dei dati completamente non trasparenti. Accerchiandoci, letteralmente, acquisendo piattaforme su piattaforme (per esempio Whatsapp e Instagram), e integrandone dati e funzionalità, e acquistandone altre solo per i dati: io dico X al servizio A e Y al servizio B; B fallisce (come tantissime app) e A compra a prezzo stracciato B, solo per averne i dati, e conosce sia X che Y di me, anche se io Y non gliel’ho mai detto. E, infine, spostandosi su territori sempre più problematici, per esempio la realtà virtuale e la realtà aumentata, oppure, addirittura, la telepatia.

Mentre gli esperimenti sociali computazionali continuano in maniera massiva sulla piattaforma, alcune indicazioni molto problematiche iniziano ad emergere.

Come ad esempio la sistematica azione di rimozione degli account non graditi ai governi statunitensi e israeliani. Su Facebook la discussione sulla censura, sulla rimozione di account e contenuti si fa sempre più complessa e i centri come quello di Essen in Germania diventano sempre più luoghi in cui convergono enormi interessi, da quelli commerciali a quelli politici.

La fine del contenuto

Il risultato è che tendenzialmente nulla ha più importanza e significato. Chiusi nelle nostre bolle, perdiamo progressivamente la possibilità di comprendere cosa sia reale e cosa fasullo. Non la capacità o la sensibilità di capirlo, ma proprio la possibilità.

È il culto del sé, che sta distruggendo le nostre società.

Questo culto porta dentro di sé i classici tratti della psicopatia: uno charm superficiale, la grandiosità e l’auto-attribuzione di importanza; il bisogno di stimolazione continua; l’abitudine alla menzogna, l’inganno e la manipolazione; e l’incapacità di rimorso e senso di colpa.

Non si lavora più, si “salva il mondo”.

Si fanno gli analytics delle proprie amicizie e relazioni.

Viviamo chiusi in bolle di informazione, in cui ogni sapere, dato o nozione, progressivamente, è personalizzata, aggiustata, adattata, filtrata, per sembrarci rilevante, interessante, per stimolare la nostra partecipazione, attivazione, click, espressione.

Le interfacce dei siti che frequentiamo, dei social network che utilizziamo, dei sistemi di messaging, degli strumenti online, oramai, non sono più per noi.

Sono interfacce per le Intelligenze Artificiali, che usano per leggerci, per leggere noi, per estrarre dati e informazioni dai nostri comportamenti, dalle nostre espressioni, dalle nostre relazioni.

Siamo come le mucche, attaccate al macchinario che tira il latte: si inizia a parlare apertamente di user farming.

la lista dei bias cognitivi, da Wikipedia

Ogni forma di bias cognitivo trova ampia realizzazione sugli strumenti online che utilizziamo: bias dell’attenzione, della disponibilità, l’effetto Ben Franklin, l’illusione dei cluster, il bias da conferma, il bias da congruenza, l’effetto da influenza continuativa, l’illusione di controllo, di validità, di correlazione. E centinaia di altri, che non solo trovano negli attuali sistemi di comunicazione e interrelazione la loro realizzazione sistemica completa, ma che sono — anche e soprattutto — alla base dei modelli di business degli operatori economici che conducono questi sistemi che, predisponendo in maniera algoritmica e computazionale le infrastrutture per cui questi bias possano emergere con così tanta forza ed efficacia, si assicurano i comportamenti psicotici, compulsivi, ripetitivi che permettono di massimizzare click, interazioni, espressioni e guadagni.

Si crea uno stato di illusione ed allucinazione sociale, organizzato in bolle di coerenza gestite computazionalmente. Come in ogni cultura che viva in uno stato di illusione, viene a perpetrarsi uno stato di infantilismo permanente, di assenza di responsabilità e solidarietà.

Nella nostra transizione al digitale, ci trasformiamo in righe su database e costrutti algoritmici, mentre veniamo simulati da Intelligenze Artificiali attraverso i nostri dati e la conoscenza che viene estratta dai nostri comportamenti, per creare il “mondo personalizzato” che ci si avvolgerà intorno, con proprio quelle persone, quegli argomenti ed opinioni, quelle opportunità di conflitto, quelle offerte speciali, proprio tutto quello che è “rilevante” per me, e che determinerà tendenzialmente cosa sarà “rilevante” per me domani.

In questo processo il senso di responsabilità, la sensibilità, la solidarietà e l’empatia verso gli esseri umani, gli animali, l’ambiente diventano concetti problematici e distanti, essi stessi sotto assalto ad opera delle forze che attaccano il nostro immaginario.

Quando tutto diventa dato, tutti cessano di assumersi responsabilità. Lo dice il dato, l’esperto, il fatto. Dati che supportano altri dati. L’umanità, la responsabilità, la solidarietà, la vita, l’ambiente e la fratellanza scompaiono. Quello che diventa importante è la riga sul database: chi ne può cambiare il valore, lo stato, detiene il potere.

Viene, in sostanza, a perdersi il concetto fondamentale che il dato è un’opinione: che idearlo, costruirlo, catturarlo, raccoglierlo, interpretarlo, rappresentarlo, comunicarlo sono tutti atti ideologici, che presuppongono opinioni, scelte, responsabilità.

Elezioni, di nuovo

In Italia stanno per arrivare le elezioni.

Già la campagna elettorale ha dato il peggio di sé stessa, tra annunci elettorali maldestri, voltafaccia e cambi di coalizioni basate su pochi punti percentuali invece che sui programmi politici, e su promesse irrealizzabili, fatte per dare alle persone quello che vogliono.

Nessuno sembra interessato a prendersi la responsabilità di far accadere realmente delle cose. Nessuno sembra realmente interessato a stabilire un reale rapporto con le persone. I populisti, in questo, trionfano, proprio per il loro approccio algoritmico-computazionale: nati nella loro forma attuale con i social network, i meme, i contenuti sponsorizzati, la possibilità di creare con semplicità grandi quantità di account falsi, e tutte le altre strane opportunità offerte dal mondo digitale, sono culturalmente algoritmici e computazionali, anche quando operano analogicamente.

Sembra più un sistema di customer satisfaction che una elezione. Manca una reale inclinazione e intenzione ad assumersi realmente delle responsabilità. Da tutte e due le parti: dalla parte dei candidati e delle loro coalizioni, che non sembrano interessati a prendere realmente la guida di una nazione, nell’era contemporanea, per aumentarne il benessere, e di avere una reale visione su cosa possa essere una nazione come l’Italia, ma solo a costruire alchimie di affermazioni, apparizioni pubbliche e strette di mano tali da comporre computazionalmente un sufficiente livello di certezza di elezione per la propria fazione; e dalla parte delle persone, gli elettori, che hanno smesso di votare, e che sembrano molto interessati a chiudersi nella bolla delle loro opinioni, nel lamento, nella riflessione a brevissimo termine, nel gossip.

Questo comportamento, che siamo abituati a vedere in TV e sulle pagine — di carta o web — di quotidiani e notiziari, ha la sua controparte online e, anzi, online trova la sua massima espressione, fatta di strategie di comunicazione sui social media, di campagne di annunci, di influencer, account falsi, endorsements più o meno trasparenti. Il tutto pilotato da dati, algoritmi per la loro analisi e, nei casi più avanzati, da intelligenze artificiali, a guidare lo svolgimento delle campagne elettorali.

Il tutto, ovviamente, senza la possibilità per le persone di comprendere le dinamiche, di vedere, di godere di una visione di insieme: mentre i candidati parlano di onestà, trasparenza, partecipazione dei cittadini alla vita pubblica, collaborazione, ed altre cose vere e auspicabili, i meccanismi della persuasione agiscono secondo logiche computazionali che di trasparente, aperto e collaborativo non hanno proprio nulla, e che usano logiche militari in modo militare.

Vogliamo aggiustare problemi gravissimi, che minano alla base le nostre libertà e diritti, come le fake news, i populismi e le tante forme di violenza online e offline? Bene, non sarà qualche mirabolante algoritmo di Intelligenza Artificiale in grado di riconoscere automaticamente notizie e account falsi e censurarli a permetterci di risolvere questi problemi. Sarà una azione culturale, estetica, della comunicazione, il cui scopo sarà quello di portare le persone verso una sensibilità differente, verso uno spazio cognitivo diverso, verso una nuova immaginazione.

Viene da chiedersi, in questo strano mondo, in questo momento di passaggio che stiamo vivendo, come mai ci siano tanti investimenti sui dati, sull’intelligenza artificiale, sull’internet delle cose, sul pensiero computazionale, e così pochi sull’estetica, sull’arte, sulla sensibilità.

Ciò che è certo è che se non cambiamo linguaggi, estetiche, intonazioni e sensibilità, non potremo cambiare nulla.

courtesy of Macao