Oltre il GDPR

Dalla legge alla ritualità.

Ho scritto questo articolo stamattina, dopo la riunione di ieri sera della scuola che stiamo aprendo a San Lorenzo, per usare l’Intelligenza Artificiale e i dati per comprendere il posizionamento esistenziale degli esseri umani. (seguite l’evoluzione del progetto della scuola a questo indirizzo: https://www.he-r.it/school-artificial-intelligence-and-data )

Leggendo le notizie, mi sono imbattuto in questo video:

Si tratta di Guy Verhofstadt, ex primo ministro del Belgio e oggi parlamentare europeo dell’Alde, che coglie in maniera molto appassionata il momento in cui può porre le proprie domande a Mark Zuckerberg durante l’udienza al Parlamento Europeo.

Guardatelo.

Fatto?

Cosa vi è rimasto di questo video?

Le richieste sono sacrosante, ovviamente, vista la attuale criticità dei sistemi come Facebook e dei risultati della logica estrattiva applicata ai dati delle persone.

Ma proviamo ad andare oltre.

Verhofstadt inizia dal paragonare Zuckerberg al CEO nel libro The Circle di Dave Eggers, e punta il dito indicando una “azienda fuori controllo”.

Poi aggiunge che Facebook si è trovata nella condizione di dover chiedere “scusa” 15 o 16 volte nel decennio trascorso, e di elargire promesse a destra e a manca: “aggiusteremo tutto!”

Poi arriva al punto, porgendo le proprie domande: “Siete effettivamente in grado di aggiustare tutto?”

E, nell’indicare cosa, esattamente, ci sia da “aggiustare”, fa riferimento al fatto che secondo lui, liberista di mercato, l’unico modo di “aggiustare” è quello di aderire ad un regolamento pubblico.

Poi abbraccia una petizione su AVAAZ in cui più di un milione di cittadini europei chiedono a Facebook di aderire al GDPR europeo.

E, quindi, chiede apertamente a Zuckerberg se stia effettivamente dicendo la verità quando sostiene che Facebook applicherà il GDPR, per esempio ponendo l’esempio di come FB abbia trasferito fuori Europa grandi quantità di dati “europei” dopo lo scandalo di Cambridge Analytica (“è contro il regolamento GDPR e contro il regolamento esistente!”).

Poi Verhofstadt arriva all’articolo 82 del GDPR, chiedendosi come esattamente Facebook risarcirà i suoi utenti europei per i problemi che ha causato. Forse partendo dal “valore dell’account dell’utente”? Saranno forse i 186 euro che vale l’account di Verhofstadt stesso a costituire il “risarcimento”? Come si quantifica?

L’ultimo punto è sull’antitrust: è disposto Zuckerberg a discutere con l’antitrust riguardo lo smembramento di Facebook dalle sue altre controllate? Si tiene FB e Instagram e dà via Messenger e Whatsapp? O come?

L’interrogazione si chiude sul personale. Verhofstadt chiede: “come vuoi essere ricordato? Come uno dei 3 giganti di Internet, insieme a Steve Jobs e Bill Gates, che hanno arricchito le nostre società, o come un genio che ha creato un mostro digitale, capace di distruggere le nostre democrazie e le nostre società?”

Il copione è sempre lo stesso. Verhofstadt, tutto rosso, sorride sornione, fa battutine e infligge. Zuckerberg silenzioso con il suo “alien look”, a volte gli scappa un sorriso alle battutine insinuanti di Verhofstadt, ma fondamentalmente è un rendering perfetto della costrizione: pallido, con gli occhi scavati e rossi, con le ombre, uno scolaretto dal maestro, che si sta beccando la ramanzina, e che non veda l’ora che finisca, per poter andare a giocare a football.

Anche nelle fasi successive il copione è sempre lo stesso: Zuck si scusa, dice che non lo farà più, che le cose già stanno cambiando, e che invocherà il suo “team” per rispondere alle domande più tecniche. Che puntualmente arrivano e non soddisfano nessuno.

Qual è il problema?

Ce ne sono tanti.

Iniziamo dallo “scandalo” di Cambridge Analytica. Chiamarlo scandalo, forse, non è corretto.

Si dovrebbe, forse, parlare di “normalità”.

Chiamarlo “scandalo” ha implicazioni serie a livello della comunicazione pubblica e della percezione che ne consegue.

Questo “scandalo” è la “normalità”: è l’essenza della modalità “estrattiva” dell’economia basata sui dati.

Questo è il problema: l’economia dei dati è “estrattiva”.

Estrae dati dalle persone, proprio come quella del petrolio estrae il greggio dal terreno.

Ci sono aziende serissime che estraggono greggio in modo “legale”, e aziende che, invece, violano leggi e regolamenti.

Ambedue i tipi sono, comunque, aziende che operano in logica estrattiva: speculano estraendo risorse dall’ambiente.

È giusto? Sbagliato?

Capiamolo insieme. Ma per adesso concentriamoci sull’architettura del problema. L’estrazione.

I regolamenti sull’estrazione non ne mettono in dubbio la modalità. Semplicemente, la regolamentano.

Non ti dico che non devi avere il tuo pozzo di petrolio, ti dico come devi stivare i barili, come trasportarli, come gestire i macchinari per non creare disastri ambientali, come risarcire le popolazioni per il disturbo dei pozzi e qualche cancro di troppo.

Ma non metto in discussione nulla. Vai ed estrai! Il mondo è così.

Questo vale anche per l’attuale GDPR.

Il GDPR regolamenta una industria estrattiva: la attuale industria dei dati.

Il GDPR ha l’effetto che nelle aziende si creerà una struttura (grande o piccola non ha importanza) che gestirà la responsabilità sui dati. È una bella cosa, no? A parte i modi, che magari si sarebbero potuti concepire in maniera differente, è un modo in cui ogni azienda potrà essere resa responsabile del trattamento sui dati, in maniera molto forte e con tanti appigli per le persone per proteggersi, controllare, intervenire ed eventualmente per farsi risarcire.

Nonostante la sua utilità, il GDPR, di fatto, riconosce e accetta che l’industria dei dati è una industria estrattiva.

Dice come posso stipare i dati, come posso e non posso estrarre, come è possibile spostarli da una parte all’altra, come gestire software e hardware per minimizzare la possibilità di disastri, come dare alle persone la possibilità di controllare ed, eventualmente, come risarcirle.

Ma non mette in dubbio nulla: l’industria dei dati è così, è di questo tipo, e la lasceremo esistere in questo modo.

Anche il discorso dell’europarlamentare è orientato in questo modo. Insieme alla conversazione generale globale.

Il dato è estratto dalle persone. Questo è lo status di questo processo.

Le intelligenze artificiali, gli algoritmi e, in generale, gli agenti della computazione prendono i dati estratti dalle persone, li elaborano e ne producono informazioni, conoscenza e strumenti che sono ad uso dell’industria e della governance, separati completamente dalla società, se non sotto forma di prodotti o servizi acquistabili.

Alla base di questo ragionamento, inoltre, ci sono diverse imprecisioni, ingenuità e, addirittura, elementi di pericolo.

Per esempio, anche solo semplicemente percorrendo il discorso dell’europarlamentare, possiamo trovare traccia evidente di tutte questi elementi problematici su cui, attualmente, leggi, regolamenti e impostazioni di governo non sanno portare alcun contributo.

Si potrebbe iniziare dal modo in cui Verhofstadt parla di “azienda fuori controllo” parlando del funzionamento di Facebook, che denota una completa incapacità (concettuale e giuridica) di avere a che fare con codice software e tecnologie. Quel “fuori controllo” corrisponde esattamente al normale funzionamento di una azienda che produce software e servizi tecnologici. Tra milioni di righe di codice, migliaia di personaggi che sviluppano codice (spesso con contratti ridicoli a pochi mesi di durata), outsourcing spinto, uso sostanziale di librerie di programmazione in continua evoluzione, dozzine di versioni dei sistemi in funzione simultaneamente (per prendere in considerazione le problematiche di internazionalizzazione, per fare A/B testing, per provare nuove feature…), sistemi globali solo parzialmente allineati, utenti che si muovono da un sistema all’altro, e con migliaia e migliaia di righe di codice simultaneamente in riscrittura continua, è, di fatto, impossibile assicurare alcunché.

Non è che FB è fuori controllo: è una industria che per sua natura è fuori controllo, perché si basa su architetture complesse la cui forza e natura consiste proprio nella impossibilità di essere controllate utilizzando gli strumenti della linearità, il che è anche il motivo che ne comporta la incredibile capacità di innovazione.

Da cui deriva la problematicità del concetto dell’”aggiustare” menzionato nel discorso: cosa vuol dire esattamente?

Vuol dire forse “aderire al GDPR”?

Cosa esattamente “aggiusterebbe” questa adesione?

Porterebbe qualcuno a cui “dare la colpa”?

Poter “dare la colpa” vuol dire “aggiustare”?

Siamo sicuri?

Cosa stiamo facendo, così, per promuovere il sorgere di una economia NON estrattiva?

Addirittura l’europarlamentare, nell’argomentare, presenta una petizione sulla piattaforma Avaaz, che utilizza gli stessi meccanismi estrattivi dei propri concorrenti, e comuni a tutta l’industria online.

Alla base di tutto questo c’è una fondamentale incomprensione sull’evoluzione del concetto di identità che si attiva nelle culture digitali, e delle implicazioni psicologiche, sociali, relazionali e politiche che ne derivano.

L’idea di identità digitale messa in atto dai governi, Europa compresa, è quanto di più lontano ci sia dal concetto di identità nel digitale. Mentre l’identità digitale promossa dai governi è in sostanza un passaporto espresso in bit — una identità univoca — , l’identità digitale può essere individuale, multipla, collettiva, anonima, temporanea, transitiva, e combinazioni delle precedenti.

La disponibilità di identità realmente digitali permetterebbe di affrontare la questione dei dati in modi completamente nuovi, dando alle persone il completo controllo sui propri dati e, simultaneamente, di creare quegli ambiti di solidarietà e collaborazione che permetterebbero di realizzare dei data commons in maniera efficace e civica.

Oltretutto, queste determinazioni, insieme a quelle sulla condivisione e sulla libertà di circolazione di contenuti, saperi, informazioni e dati che si sono affrontati in passato e che (purtroppo) ci troviamo nella necessità di ridiscutere tutt’ora, funzionano in maniera ottimale in scenari di solidarietà e collaborazione, non di opacità e di competizione.

E, invece, il concetto di identità digitale viene distorto sul concetto dell’identità univoca e le strategie sono orientate verso la competizione e la chiusura invece che verso la solidarietà e la collaborazione.

In questo contesto, la dimensione del risarcimento prospettata sia dal parlamentare sia dal GDPR stesso, descrive un percorso di finanziarizzazione del sé che non solo è incapace di avere a che fare con i danni portati agli individui e alla società, ma che contribuisce ulteriormente allo svilimento dell’essere umano, e alla sua trasformazione in entità finanziaria scambiabile, cedibile, senza alcun diritto civile, di espressione e di relazione. L’essere umano ridotto a mero valore finanziario.

Il discorso del parlamentare finisce poi con il “mostro”: Zuck, vuoi essere ricordato come un mostro dai posteri?

Il “mostro”, appunto, mostra: mette in vista ciò che è la nostra società.

Dracula, il mostro del vapore, il nobile che succhia il sangue. Frankenstein, dell’elettricità, della catena di montaggio. Gli zombies, in cui i mostri diventiamo noi, con il consumismo.

Ora il mostro qual è? È la piattaforma? È la finanza? Cosa è il mostro? Dov’è? Quando è?

In buona sintesi, il discorso dell’europarlamentare mostra solo una cosa: una sostanziale incapacità di comprendere il posizionamento esistenziale dell’essere umano di questo periodo storico, e come questo determina la sua capacità di relazionarsi con gli altri elementi e soggetti dell’ecosistema, con gli altri esseri umani, le organizzazioni, e con l’ambiente, gli edifici, gli oggetti e i processi, resi progressivamente sempre più senzienti attraverso le tecnologie ubique.

Questa incomprensione fa eco a quella dei governi e, sostanzialmente, anche delle aziende.

Tutti questi soggetti affrontano la questione utilizzando strumenti amministrativi, burocratici e finanziari, assolutamente inadatti a proporre alcuna innovazione che sia in grado di affrontare le questioni in modi che puntino al benessere, alla felicità e alla giustizia sociale.

Il GDPR stesso è uno strumento burocratico e amministrativo il cui scopo è di regolamentare l’economia estrattiva dei dati, e che per questa sua natura non è in grado di proporre altre visioni, né di attuarle.

Invece.

Invece possiamo immaginare altri schemi e altre architetture.

Proprio come possiamo fare nel caso ambientale, per seguire il parallelo tra industrie estrattive.

Possiamo immaginare una economia eco-logica (che non vuol dire ambientalista) dei dati, che si occupi dell’ecosistema e della sua evoluzione.

Possiamo immaginare una economia dei dati CON le persone, non SULLE persone, in cui i dati originino da processi partecipativi, civici, etici, estetici, originati dalla solidarietà necessaria alle culture digitali per produrre i risultati positivi nella società e nell’ambiente. Capaci di produrre nuove ritualità intorno ai dati.

Possiamo immaginare e realizzare processi che riguardino identità nuove, come le abbiamo descritte, e le relazioni con le nuove soggettività, mentre la computazione e l’intelligenza artificiale entrano in scena e alimentano organizzazioni, processi, oggetti, edifici, città e territori, rendendoli senzienti, vivi, soggetti.

Ci sono tante domande che possiamo porci in questo scenario:

  • come si raccolgono i dati in modo performativo, partecipativo, uscendo fuori dal laboratorio, nello spazio pubblico, e in modo da chiudere il cerchio della solidarietà e del benessere sociale facendo in modo che tutti ne possano beneficiare?
  • come si manifestano i dati nello spazio pubblico?
  • come si re-inventa la scuola, per essere ubiqua, per poter trarre conoscenza, informazione, relazione dai dati ubiqui, performati in maniera solidale?
  • come sono fatte queste nuove aziende, organizzazioni e istituzioni, che usano i dati non secondo modelli estrattivi, ma collaborativi, solidali, e partecipativi?

E, soprattutto: vi è una questione cosmologica.

Non abbiamo costruito, come società, una cosmologia per posizionarci esistenzialmente di fronte a dati e entità computazionali. I riti di cui disponiamo, che costituiscono la nostra esperienza quotidiana e che danno forma al nostro immaginario e alla nostra capacità di creare senso, non ci parlano ancora di queste opportunità e di questi conflitti. Al contrario, siamo esposti a miriadi di micro riti che non sono immaginati per la costruzione relazionale del nostro posizionamento esistenziale, ma per influenzare in maniera opaca — tramite il design delle interfacce — la nostra percezione di cosa sia possibile, consigliato, adatto, accettabile, desiderabile e immaginabile. Ognuna delle interfacce cui siamo esposti, davanti al monitor, con lo smartphone in mano, o nelle città tecnologiche, è costituita da centinaia di questi riti, che influenzano i confini del nostro mondo e delle nostre relazioni.

Di quali nuovi riti ci possiamo circondare? Ne possiamo inventare di nuovi?Con quali manifestazioni, celebrazioni, immaginazioni?

Questi sono alcune delle domande fondamentali che ci stiamo ponendo attraverso la scuola di quartiere a San Lorenzo, a Roma.

Vi invitiamo a partecipare attivamente al processo, seguendone la storia e prendendo parte alle iniziative, come indicato nella pagina provvisoria della scuola.