Per l’Europa regolare l’intelligenza artificiale non sarà facile — Wired

Piantare dei paletti su Ai e riconoscimento facciale potrebbe rivelarsi più arduo del previsto. Ecco cosa suggeriscono gli esperti

Vincenzo Tiani
Il Digitale Spiegato
5 min readApr 29, 2020

--

Dalla teoria alla pratica, dalle parole ai fatti. Dopo aver messo nero su bianco le sue idee su intelligenza artificiale e digitalizzazione, come si muoverà all’atto pratico la Commissione europea? Gli scenari, come è emerso durante il Data Science & Law forum, evento che ogni anno Microsoft organizza a Bruxelles, sono vari, come emerso in un incontro a porte chiuse con la stampa europea (tra cui Wired).

L’impatto di regole europee sull’Ai

Secondo Guntram Wolff, direttore del think tank Bruegel, c’è il rischio che l’adozione di una regolamentazione per l’intelligenza artificiale (Ai) possa rallentare l’innovazione. A quasi due anni di distanza dall’entrata in vigore del Gdpr, il regolamento europeo per la privacy, ancora molti si lamentano di come un regolamento costruito per arginare il potere delle big tech californiane mal si sia coniugato con la realtà delle piccole e medie imprese europee. Secondo molti suoi detrattori, il Gdpr ha costituito più che altro un onere burocratico, affrontabile solamente da quelle aziende che potevano permettersi costose consulenze legali per la compliance. Nuove regole potrebbero dunque costituire, secondo Wolff, un ostacolo all’adozione di queste tecnologie per le realtà meno strutturate.

Benché ci sia un fondo di verità in questo timore, è opportuno ricordare che moltissimi errori sono stati commessi nel momento dell’implementazione del Gdpr più che nel testo di per sé. In particolare quello che si potrebbe fare in vista di una futura regolamentazione dell’Ai, sarebbe quella di non attivarsi all’ultimo (il testo del Gdpr fu pubblicato due anni prima della sua entrata in vigore) e sfruttare maggiormente le reti di imprese e le associazioni di categoria per sviluppare soluzioni comuni e abbattere i costi di implementazione e compliance legale.

Il ruolo della Cina

Secondo Wolff inoltre, nonostante le buone intenzioni della Commissione di costruire la via maestra che sia da modello al resto del mondo, è difficile dire se , fornendo anche le discusse tecnologie di riconoscimento facciale tanto usate in Cina per fare qualsiasi cosa, come pagare la spesa o prendere la carta igienica nei bagni pubblici. Questo costituirà un enorme vantaggio per le aziende cinesi, dato che una delle maggiori critiche all’adozione in Occidente di questa tecnologia è proprio l’alta percentuale di grandi mercati come Africa e India seguiranno il vecchio continente per quella via. La Cina sta investendo da tempo nelle infrastrutture digitali nel continente africano errori con le persone afroamericane, soprattutto se donne. Questo perché i dataset dei paesi occidentali sono stati allenati solamente con foto di maschi bianchi caucasici.

Come non è chiaro come si potrà imporre il modello europeo alla Cina stessa. È vero che già oggi app cinesi di grande successo come TikTok o WeChat hanno funzionalità limitate nella loro versione europea ma con il riconoscimento facciale e l’intelligenza artificiale potrebbe essere tutt’altra partita. Secondo Wolff il rischio maggiore si avrà proprio in quei Paesi come la Cina, dove esistono leggi nazionali che obbligano le imprese a condividere alcuni dati con il governo. Ci si chiede dunque se queste leggi varrebbero ugualmente se si imponesse loro che i dati dei cittadini Ue fossero conservati fuori dal territorio cinese.

Regole chiare per il riconoscimento facciale

Dal white paper della Commissione Europea è scomparsa l’ipotesi di blocco di 3–5 anni per alcuni casi di utilizzo di riconoscimento facciale. Forse le polizie europee hanno fatto pressing? Certo è che un divieto totale avrebbe potuto compromettere gli affari di molte aziende interessate a sviluppare soluzioni ad hoc in questo settore in espansione. Microsoft è tra quelle aziende che chiede regole certe su un tema così delicato e secondo cui avere dei principi etici da seguire è un buon punto di partenza, ma non può bastare.

Le tecnologie di riconoscimento facciale sono molto meno precise di quelle che usano le impronte digitali o il dna, hanno un margine di errore molto più alto e la loro efficacia dipende molto dallo scopo e dalle capacità tecniche e i contesti in cui vengono utilizzate”, ha detto John Frank, vicepresidente di Microsoft. E ha aggiunto: “ Tempo fa una forza di polizia americana si è rivolta a noi perché volevano usare il riconoscimento facciale sulle bodycam (le telecamere che i poliziotti indossano a tutela del proprio operato e dei cittadini arrestati, ndr). Ne abbiamo sconsigliato l’adozione perché quelle telecamere non sempre hanno buona qualità e sono usate in situazioni molto diverse, spesso con poca luce, e non avrebbero fornito dei buoni risultati. Ci hanno ringraziato perché hanno detto che non lo sapevano “.

Secondo Frank il solo Gdpr e la direttiva indirizzata alle forze di polizia potrebbero non essere sufficienti per regolare il riconoscimento facciale. “ L’adozione di codici di condotta e soft law (norme non vincolanti davanti a un tribunale, ndr) potrebbero accelerare i processi “, ha detto Frank.

Comitati etici per discutere i casi più complessi

Intanto diverse aziende hanno iniziato a formare dei comitati etici al loro interno per le questioni più delicate. Microsoft dal canto suo ha creato due anni fa Aethic ( Ai and Ethics in Engineering and Research) che include manager dei reparti di ricerca, ingegneria, legale e che si occupa di garantire il rispetto dei principi di giustizia, sicurezza, privacy, inclusione, trasparenza e responsabilità. A questo si è aggiunta l’anno scorso una divisione per garantire una Ai responsabile. Il dipartimento, guidato da Natasha Crampton, segue sia le politiche interne che quelle esterne. Consiglia gli ingegneri nei casi più controversi, tenendo conto anche degli aspetti legati alla cultura locale.

Abbiamo chiesto a Crampton come sono certi che dopo aver fornito una tecnologia di Intelligenza Artificiale ad un’azienda, questa poi non la usi in un modo che loro non approverebbero. “A volte siamo consapevoli di come un sistema potrebbe evolvere in futuro e per quello dichiariamo quali dovranno essere i limiti della tecnologia che abbiamo fornito. Usiamo delle clausole contrattuali ed inseriamo nei nostri termini e condizioni che qualsiasi uso debba rispettare i diritti degli altri, dove per diritti intendiamo i diritti umani.”

Originally published at https://www.wired.it on March 30, 2020.

--

--

Vincenzo Tiani
Il Digitale Spiegato

LL.M. #Copyright #GDPR / 👨‍🏫 Adjunct professor © and privacy/ 📰 Contributor @wireditalia & others / 🎙️ Podcaster : Il Digitale Spiegato & Digital Explained