I big data e l’intelligenza artificiale mettono in pericolo la nostra libertà?

Sono stato colpito profondamente dalla decisione di Alessandro Gassmann di qualche giorno fa, il quale ha annunciato la sua decisione di chiusura del suo account twitter a seguito degli insulti ricevuti dopo avere espresso la sua posizione sullo ius soli. Non voglio parlare di ius soli, lo preciso subito prima che…cambiate canale.

L’ultimo tweet di Alessandro Gassmann, come si vede nell’immagine sottostante, recita: “Ok… lo faccio… ma va tutto bene ci vediamo nel mondo”.

E’ quel “ci vediamo nel mondo” che mi ha colpito nel profondo. Mi ha portato a riflettere e quindi a scrivere questo articolo — che scrivo in lingua italiana a differenza di tutti gli altri articoli che scrivo su Medium in lingua inglese, dove tratto di argomenti di cui mi occupo a livello professionale.

Di che voglio parlare — o meglio, scrivere?

Il tweet di Alessandro Gassmann mi spinge a parlare di tecnologie digitali e… di libertà.

Come ho scritto in un altro articolo, la rivoluzione digitale sta “allagando” il pianeta di dati. Nel 2016 è stata prodotta una quantità di dati pari a tutti quelli prodotti fino al 2015. IBM stima che l’avvento dell’Internet of Things (“Internet delle Cose”) determinerà un raddoppio dei dati ogni 12 ore.

Si salvi ora chi non sa nuotare….

Poi c’è l’intelligenza artificiale. Tutto diventerà intelligente. Presto avremo non solo smart-phones (cioè telefoni-intelligenti), ma anche case-intelligenti, fabbriche-intelligenti e città-intelligenti. Tutto-intelligente!

Vari “esperti” stimano che i super-computer super-intelligenti saranno in grado di superare gli umani in quasi tutti gli ambiti della conoscenza tra il 2020 e il 2060.

Possiamo aspettarci allora anche nazioni-intelligenti e un pianeta-intelligente?

Qui mi arrivano i primi dubbi e soprattutto mi sorge spontanea una domanda, LA DOMANDA: tutta questa super-intelligenza non è che mette a rischio il futuro della nostra libertà?

Allarmismo oppure presa di coscienza per evitare errori gravi, molto gravi?

Singapore è considerata oggi come un perfetto esempio di città-stato gestita sulla base dei dati. Ciò che è iniziato come un programma per proteggere i suoi cittadini dal terrorismo, ha finito per influenzare la politica economica e le decisioni sull’immigrazione nonché la programmazione scolastica. La Cina sta seguendo a ruota. Molto presto ogni cittadino cinese riceverà una sorta di punteggio che sarà la base per ottenere prestiti, offerte di lavoro, permessi per visitare altri paesi, ecc. Questo genere di monitoraggio comprenderà ovviamente anche il comportamento in Rete.

Ma la Cina è diversa, direte voi. Bene, vogliamo parlare della “patria della democrazia”, cioè degli USA?

L’agenzia per la sicurezza nazionale (la mitica NSA) attraverso il programma PRISMA ha (o ha avuto — ma in questo secondo caso significa che potrà ancora averlo) accesso diretto ai sistemi di Google, Facebook, Apple e altri giganti tecnologici. Il programma consente (o ha consentito — vedi sopra) di raccogliere tutti i dati di ricerca, navigazione, email, file transfer e chat. Tutto di tutti.

Oppure vogliamo parlare dell’equivalente inglese, il “Karma Police”? Tutto di tutti anche in questo caso.

Qui potete trovare un elenco su Wikipedia dei programi di sorveglianza di massa che in qualche modo sono già noti. C’è anche l’Unione Europea. Tutto di tutti all’ennesima potenza.

Tutto questo serve per proteggerci? Certo, ma possono esserci altri effetti fortemente indesiderabili.

Chi riesce ad accedere ai dati relativi al nostro comportamento in Rete, può anche influenzarci attraverso quello che io chiamo “l’effetto eco”, cioè fornirci suggerimenti e raccomandazioni personalizzate. In questo modo, i nostri comportamenti digitali possono essere rinforzati (e previsti) attraverso la ripetizione, creando appunto una sorta di effetto eco: alla fine, ciò che si vede, si ascolta, si legge, sono solo le nostre opinioni che vengono riflesse verso noi stessi.

Come ho scritto in un altro articolo, sarebbe il trionfo della noia!

E’ chiaro che l’effetto eco potrebbe essere anche utilizzato per produrre cambiamenti di opinione politica su vasta scala. Tali cambiamenti richiedono tempo per realizzarsi, ma una volta realizzati diventa molto difficile cancellarli e tornare dietro.

Il fatto però ancora più rilevante è che questa manipolazione di massa può modificare il modo in cui prendiamo le nostre decisioni, by-passando le nostre radici culturali e umane.

In breve, questi metodi di manipolazione di massa potranno determinare seri danni sociali, compreso la brutalizzazione del comportamento nel mondo digitale — di cui Alessandro Gassmann è stato vittima — e quindi poi nel mondo non digitale (quello che Gassmann ha chiamato semplicemente “… mondo”).

Chi è responsabile di tutto questo? Purtroppo, oggi, nessuno! E questo per me è totalmente inaccettabile.

Innanzitutto, è chiaro che la manipolazione nel mondo digitale restringe la nostra libertà di scelta, esattamente come nel mondo non digitale. Se il controllo remoto del nostro comportamento fosse perfetto, saremmo degli “schiavi digitali” poiché eseguiremmo solo quelle decisioni che altri hanno preso per nostro conto. Anche se la manipolazione nel mondo digitale procede lentamente, non possiamo per questo accettare di perdere lentamente la nostra libertà.

Nella ricerca accademica, anche gli esperimenti di dimensione più ridotta relativi allo studio del comportamento decisionale dei consumatori, richiedono una totale trasparenza e approvazione scritta da parte dei consumatori che partecipano all’esperimento. Al contrario, un solo e semplice click per accettare il contenuto di decine di pagine di “condizioni di utilizzo” risulta essere totalmente inadeguato — alzi la mano chi le ha lette. E inoltre, nonostante questo, esperimenti di “pilotaggio” (il cosiddetto “nudging”) del comportamento sono realizzati dai giganti della rete con milioni di soggetti, i quali ne sono del tutto ignari.

Per chi legge in inglese, può ad esempio essere utile leggere questo articolo di ieri, che descrive quanto sta iniziando a fare Facebook per “pilotare” gli utenti ad entrare in comunità online i cui membri hanno interessi omogenei.

Per fare cosa? Zuckerberg ha detto, “…we are probably one of the larger institutions that can help empower people to build communities”. Cioè: “…siamo probabilmente una delle più grandi istituzioni che può aiutare le persone a creare delle comunità”.

In realtà la risposta vera è un altra: segmentare gli utenti e vendere spazi pubblicitari ad alto valore unitario.

E tutto questo senza alcun vincolo di tipo etico né tantomeno normativo.

E’ chiaro quindi che, se vogliamo evitare comportamenti irresponsabili dagli effetti potenzialmente devastanti, si rende necessario intervenire.

Una società digitale migliore è possibile, deve essere possibile

Le tecnologie digitali, i big data, l’intelligenza artificiale, sono senza dubbio innovazioni importanti, molto importanti, forse le più importanti nella storia dell’umanità. Esse hanno un potenziale gigantesco per catalizzare il progresso sociale ed economico. E’ però totalmente inaccettabile utilizzare queste tecnologie per ridurre o condizionare la libertà decisionale delle persone.

Cosa possiamo fare?

Ho scritto questo articolo per avviare un dibattito sul tema, dando alcuni suggerimenti, idee personali, che non sono certamente esaustive per un tema così ampio ed articolato. Non voglio parlare di cose complesse, come ad esempio i sistemi distribuiti per diffondere la conoscenza, bensì dei principi di base, quelli da cui partire.

Innanzitutto, i diritti fondamentali delle persone devono essere protetti. Sempre. Forse sarà necessario una sorta di nuovo contratto sociale, basato sulla fiducia e sulla cooperazione, in cui i consumatori e i cittadini in genere sono visti come soggetti con i quali collaborare, non come risorse dalle quali ottenere le maggiori vendite, margini, click, ecc. Affinchè questo accada, gli stati dovranno fornire una struttura regolatoria adeguata che garantisca un utilizzo della tecnologia digitale conforme ai principi etici della nostra società.

Ad esempio, dovrebbe essere garantita l’auto-determinazione informativa, non solo dal punto di vista teorico, ma anche pratico. Penso ad esempio, all’obbligo di fornire a tutti i consumatori e cittadini un elenco contenente tutti i dati personali che sono stati raccolti su di loro, derivanti dall’uso che essi fanno delle tecnologie digitali. Potrebbe essere previsto un obbligo di legge che prevede l’invio automatico di queste informazioni in un formato standardizzato e la conservazione in un “contenitore” digitale, dove il cittadino può accedere e decidere come i suoi dati possono essere utilizzati — magari con l’aiuto di un assistente digitale intelligente, anzi super-intelligente. In questo modo i cittadini e consumatori sarebbero in grado di decidere chi può utilizzare i dati a loro relativi, per fare cosa e per quanto tempo. L’uso non autorizzato di questi dati dovrebbe essere ovviamente punito a norma di legge.

Si potrebbe poi pensare a sistemi di raccomandazione e algoritmi di ricerca molto più sofisticati, che utilizzano criteri multipli per aumentare la diversità delle fonti informative. Se i filtri di raccomandazione e gli algoritmi di ricerca fossero selezionabili e configurabili dagli utenti, potremmo vedere la realtà secondo prospettive differenti, aumentando così la qualità delle informazioni che riceviamo, sulla base delle quali poi prendiamo le nostre decisioni.

E che dire di sistemi efficienti attraverso i quali esprimere reclami per attivare in tempi rapidissimi sanzioni nei confronti di coloro che hanno violato le regole.

E perché non pensare anche ad una sorta di codice di condotta per tutti i professionisti delle tecnologie informatiche che possono avere accesso a dati sensibili nel corso della loro vita professionale — simile al Giuramento di Ippocrate dei medici.

E infine, la madre di tutte le battaglie: i valori che trasmettiamo a scuola e nella famiglia. Non è certamente questo il luogo per parlare di digital education, o più semplicemente di education, ma è chiaro a tutti che chi scrive parole volgari in rete per insultare, trasmette disvalori. Se mio figlio o mia figlia scrivessero parole volgari di insulto in un tweet nei confronti di chicchesia per qualsivoglia argomento, li costringerei con la forza ad appoggiare le orecchie sullo schermo del PC (o del tablet) per farsele tirare da colui (o colei) che hanno insultato.

Il rispetto del pensiero altrui è un limite invalicabile, ma in realtà il tema è un altro. Come ho scritto infatti in un altro articolo, riportando una famosa frase di Stephen Hawking: “Il più grande nemico della conoscenza non è l’ignoranza, ma l’illusione della conoscenza”.

Ecco che allora torniamo alla libertà di scelta: se la libertà di scelta viene ridotta dalla manipolazione digitale, la conoscenza si riduce, eccetera, eccetera, ricominciamo dall’inizio.

Difficile tutto questo? Tremendamente difficile, ma la nostra libertà è in gioco. Non perdiamo ulteriore tempo.