“Io sono per taggare”

Sull’urgenza di un dibattito ampio sull’introduzione di nuove forme di controllo sociale

alessandro mantelero
4 min readDec 4, 2015

--

di Alessandro Mantelero e Giuseppe Vaciago

C’è un fil rouge che unisce il discorso del premier tenutosi alla kermesse organizzata da Riccardo Luna a Venaria (Italian Digital Day) e la posizione di alcune delle più rilevanti forze di polizia statunitensi sull’uso dei Big Data.

C’è l’idea che le capacità di raccolta ed analisi dei dati possano offrire a tutti un mondo migliore e più sicuro. In questa veloce conclusione (“io sono per taggare i potenziali soggetti” afferma il premier) v’è sicuramente del vero, ma allo stesso tempo emerge il segno delle ben note algorithmic illusions, dell’idea che i dati e la loro elaborazione possano agevolmente e correttamente risolvere situazioni complesse.

In realtà, certamente l’impiego intelligente delle informazioni può migliorare le operazioni di polizia e di intelligence. Già sono disponibili sistemi c.d. di predictive policing che impiegano dati storici per predire eventi criminosi o individuare soggetti sospetti. Esiste tuttavia il rischio concreto (verificatosi in più casi) che errori nella definizione delle strategie di raccolta ed elaborazione dei dati conducano a conclusioni distorte e quindi sbagliate.

Anche per queste ultime ragioni, a fronte di questo futuro à la Arthur Clarke, occorre ricordare che simili soluzioni non possono e non devono trovare cittadinanza se non affiancate da adeguate forme di tutela e garanzia dei diritti fondamentali. A tal riguardo, ampio e risalente è il dibattito sul bilanciamento fra sicurezza e valori della persona, e chiare sono le indicazioni in proposito derivanti dalle carte fondamentali dei diritti umani e dalle corti nazionali ed europee, incentrate sui concetti di necessità e proporzionalità (v. da ultimo la decisione della Corte di Giustizia dell’Unione europea sull’accordo Safe Harbour).

In un report della RAND Corporation, sono stati correttamente identificati alcuni dei possibili rischi del predictive policing. Tra i molti identificati due sono particolarmente rilevanti: la mancanza di trasparenza nelle modalità di abbinamento dei dataset da parte dei software predittivi e, come detto, il rispetto dei diritti umani.

Passando dal livello dei principi a quello più operativo, occorre poi stare attenti a non incorrere in facili entusiasmi con riguardo all’impiego dei sistemi di analisi dei dati per la prevenzione del crimine. Oltre al già citato rischio delle algorithmic illusions, esistono infatti diverse criticità che, sulla spinta di un agire frettoloso, rischiano di essere trascurate.

In primo luogo, il Presidente del Consiglio ha fatto riferimento a sistemi di monitoraggio dei “potenziali soggetti”: occorrerebbe quindi definire chi può rientrare in questa categoria. Sono sospetti solo coloro che risultano oggetto di indagine penale o sono sospetti tutti coloro cui sia attribuito un giudizio predittivo di pericolosità, derivante dall’elaborazione mediante algoritmi delle più varie informazioni personali, relazionali e di contesto?

Ovviamente nel secondo caso si aprono scenari che difficilmente possono conciliarsi con i principi che connotano la materia penale e con i diritti fondamentali, specie ove i Big Data consentano di estrarre elementi predittivi da semplici correlazioni desunte, impiegando informazioni inerenti ad aspetti del tutto distinti da quelli poi oggetto del giudizio predittivo e facendo ricorso a modalità di analisi non trasparenti (c.d. black box).

In secondo luogo, sembra paventarsi l’idea della centralizzazione delle banche dati e dei sistemi di videosorveglianza (“mettere in comune tutte le banche dati… ogni telecamera sia a disposizione della forza pubblica” nel discorso del Presidente del Consiglio). Tralasciando le rilevanti implicazioni in termini di libertà e di democrazia, guardando solo ai dati personali, va sottolineato come la centralizzazione costituisca un rischio per molteplici ragioni. Non solo si creerebbe una concentrazione di potere informativo che richiederebbe elevate garanzie in termini di prevenzione dell’uso illegittimo dei dati, ma si presenterebbero notevoli rischi in termini di security, laddove un accesso illegittimo ai dati potrebbe facilmente mutare un sistema di prevenzione in un obiettivo strategico per gruppi di cyber-criminali.

Allo stato attuale della legislazione, simili progetti paiono fortunatamente trovare diversi limiti a tutela dei diritti delle persone, tuttavia la Francia stessa, ma anche gli USA e la Gran Bretagna mostrano come l’unione fra spinte politiche e compiacenza verso le richieste di piazza possano portare all’adozione di sistemi di controllo diffuso. In questa prospettiva sorge allora un ultimo ulteriore quesito: quanto è efficiente questa compressione delle libertà individuali e collettive?

Il tema in questione pare dunque troppo complesso e delicato per essere affrontato sull’onda emotiva degli eventi. Anche se alcune soluzioni tecniche possono essere già adottate e sono già sul mercato, non possiamo lasciarci trasportare dall’entusiasmo, in quanto è difficile garantire ad oggi un livello di affidabilità che ci permetta di assicurare un margine di errore minimo. E quando stiamo parlando di diritti umani, il rischio di “falso positivo” dovrebbe essere il più vicino allo zero.

Sebbene le ragioni della privacy non debbano necessariamente e sempre prevalere su quelle della sicurezza (e negli anni tante deroghe in favore di queste ultime sono state poste in essere), pare tuttavia necessaria una seria e meditata discussione a riguardo, che non si svolga nel chiuso delle stanze del potere e fra gli addetti ai servizi di intelligence, ma che coinvolga attivamente i cittadini nel dibattito sulla società che verrà, perché essere taggati da un algoritmo potrebbe non essere il migliore degli scenari auspicabili.

Farinetti ha recentemente definito internet come “la più grande invenzione dell’umanità dopo il fuoco” e ha anche aggiunto che l’umanità non ha scoperto subito le potenzialità del fuoco, ma c’è voluto tempo. Il nostro cauto suggerimento è di continuare nella sperimentazione, ma di evitare o di limitare al minimo il rischio di “scottarsi” con uno strumento tanto prezioso e rivoluzionario, quanto ancora poco conosciuto.

--

--

alessandro mantelero

Alessandro Mantelero is Associate Professor of Private Law at the Polytechnic University of Turin and Council of Europe Rapporteur on AI and data protection.