L’intelligenza Artificiale può essere resa giuridicamente responsabile delle proprie decisioni

Secondo informatici, scienziati dei processi cognitivi e studiosi di legge, i sistemi di intelligenza artificiale dovrebbero essere in grado di spiegare le loro decisioni senza rivelare tutti i loro segreti.

I sistemi di spiegazione dovrebbero essere separati dai sistemi AI, secondo il team di Harvard

L’intelligenza artificiale è destinata a svolgere un ruolo sempre più importante nella società e questo solleva la questione della responsabilità. Se ci affidiamo alle macchine per prendere decisioni sempre più importanti, avremo bisogno di meccanismi di ricorso nel caso in cui i risultati si rivelassero inaccettabili o di difficile comprensione.

Ma fare in modo che i sistemi di intelligenza artificiale spieghino le loro decisioni non è del tutto semplice. Un problema è che le spiegazioni non sono libere, ma richiedono notevoli risorse sia per lo sviluppo del sistema AI che per il modo in cui viene interrogato nella pratica.

Un’altra preoccupazione è che le spiegazioni possono rivelare segreti commerciali costringendo gli sviluppatori a pubblicare il funzionamento interno del sistema di intelligenza artificiale. Inoltre uno dei vantaggi di questi sistemi è che possono dare senso a dati complessi in modi non accessibili all’uomo. Quindi rendere le loro spiegazioni comprensibili agli esseri umani potrebbe richiedere una riduzione in termini di performance.

Come possiamo quindi rendere l’intelligenza artificiale responsabile delle sue decisioni senza soffocare l’innovazione?

Oggi riceviamo una risposta grazie al lavoro di Finale Doshi-Velez, Mason Kortz e altri dell’Università di Harvard, a Cambridge nel Massachusetts. Queste persone sono informatici, scienziati cognitivi e giuristi che insieme hanno esplorato le questioni legali sollevate dai sistemi di intelligenza artificiale, hanno identificato problemi chiave e suggerito possibili soluzioni. “Assieme, siamo esperti in giurisprudenza, nella creazione di sistemi AI e nella valutazione delle capacità e limiti del ragionamento umano” affermano.

Loro cominciano definendo il concetto di spiegazione: “Quando parliamo di spiegazione di una decisione, intendiamo generalmente le ragioni o le giustificazioni di quel particolare risultato, piuttosto che una descrizione del processo decisionale in generale,” affermano.

La distinzione è importante. Doshi-Velez ed il suo gruppo sottolineano che è possibile spiegare come un sistema AI prenda decisioni nello stesso modo in cui è possibile spiegare come funziona la gravità o come cuocere una torta. Ciò avviene stabilendo le regole che il sistema segue, senza fare riferimento specifico ad alcun oggetto in caduta libera o torta.

Questo è il timore degli industriali che vogliono mantenere segreti i meccanismi dei loro sistemi AI per proteggere il loro vantaggio commerciale. 
Tuttavia, questo tipo di trasparenza non è necessario in molti casi. Spiegare perché un oggetto è caduto in un incidente industriale, ad esempio, non richiede normalmente una spiegazione collegata alla gravità. Al contrario, le spiegazioni sono di solito necessarie per rispondere a domande come queste: quali sono stati i fattori principali di una decisione? Il cambiamento di un certo fattore avrebbe cambiato la decisione? Perché due casi simili hanno portato a decisioni diverse?

Rispondere a queste domande non richiede necessariamente una spiegazione dettagliata del funzionamento di un sistema AI.

Quando dovrebbero essere fornite spiegazioni? Essenzialmente, quando il beneficio supera il costo. “Troviamo che ci siano tre condizioni che caratterizzano le situazioni in cui la società considera un decisore obbligato — moralmente, socialmente o legalmente — a fornire una spiegazione,” dicono Doshi-Velez ed il suo gruppo.

Il team dice che la decisione deve avere un impatto su una persona diversa dal decisore. Deve essere utile sapere se la decisione è stata presa erroneamente. E ci deve essere qualche ragione per credere che si sia verificato (o si verificherà) un errore nel processo decisionale.

Ad esempio, gli osservatori potrebbero sospettare che una decisione sia stata influenzata da alcuni fattori irrilevanti, come ad esempio un chirurgo che si rifiuta di eseguire un’ operazione a causa di una fase lunare. Oppure possono diffidare di un sistema se hanno preso la stessa decisione in due circostanze completamente diverse. In tal caso potrebbero sospettare che non abbia tenuto conto di un fattore importante. Un’altra preoccupazione riguarda le decisioni che sembrano trarre ingiustamente vantaggio da un gruppo, come nel caso in cui gli amministratori delle società adottino decisioni che vanno a vantaggio dei loro azionisti.

In altre parole, ci devono essere buone ragioni per pensare che una decisione sia impropria prima di chiedere una spiegazione. Ma possono anche esserci altre ragioni per fornire spiegazioni, come il tentativo di aumentare la fiducia nei confronti dei consumatori.

Così Doshi-Velez ed il suo gruppo guardano a concrete situazioni giuridiche in cui le spiegazioni sono necessarie. Essi sottolineano che menti ragionevoli possono e non possono differire a seconda che sia moralmente giustificabile o socialmente auspicabile chiedere una spiegazione. “D’altro canto, le leggi sono codificate, e mentre si potrebbe discutere se una legge è corretta, almeno sappiamo che cos’è la legge,” affermano.

In base alla legislazione statunitense, le spiegazioni sono richieste in un’ampia varietà di situazioni e a vari livelli di dettaglio. Ad esempio, sono necessarie spiegazioni nei casi di responsabilità oggettiva, divorzio o discriminazione, per le decisioni amministrative e per i giudici e le giurie. Ma il livello di dettaglio varia enormemente.

Tutto ciò ha importanti implicazioni per i sistemi di intelligenza artificiale. Doshi-Velez ed il suo gruppo ritengono che le spiegazioni giuridicamente fattibili sono possibili per i sistemi di intelligenza artificiale. Questo perché la spiegazione di una decisione può essere fatta indipendentemente dalla descrizione del suo funzionamento interno. Inoltre, il team dice che un sistema di spiegazione dovrebbe essere considerato distinto dal sistema di intelligenza artificiale.

Questo è un risultato significativo. Ciò non significa che sarà sempre facile fornire spiegazioni soddisfacenti. Ad esempio, come si può dimostrare che un sistema di sicurezza che utilizza come input immagini di un volto non discrimina in base al genere? Questo è solo possibile utilizzando un volto alternativo che è simile per ogni verso all’originale ad eccezione del sesso, afferma il team.

Ma le spiegazioni per le decisioni prese dai sistemi AI sono generalmente possibili. E che porta la squadra ad una chiara conclusione.

“Per il momento proponiamo che i sistemi di intelligenza artificiale possano e debbano essere considerati ad uno standard di spiegazione simile a quello degli esseri umani,” affermano.

“Ma il nostro uso e la nostra comprensione dell’intelligenza artificiale probabilmente cambierà in modi che non comprendiamo ancora (e forse non comprenderemo mai). Per questo motivo tale approccio dovrà essere rivisto. In futuro potremmo desiderare di mantenere l’intelligenza artificiale a uno standard diverso,” affermano Doshi-Velez ed il suo gruppo.


Tradotto in Italiano. Articolo originale: MIT Tecnology Review


VISIONARI è un network di imprenditori, scienziati, artisti, scrittori e changemakers che pensano e agiscono al di fuori degli schemi.
 Puoi fare domanda per entrare qui: https://bit.ly/visionari-entra

Seguici sulla nostra pagina Facebook per scoprire nuovi progetti innovativi:
 Visionari