Morale sintetica, accettare il fallimento delle macchine.

Cosa accade quando si affida la propria vita a degli automi? Chi è responsabile delle loro conseguenze e come possiamo, noi, difenderli da un eventuale pregiudizio rispetto ai loro errori?

“0. Un robot non può recare danno all’ umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno.

1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero.

2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge.

3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.”

Sono le leggi della robotica utilizzate da Asimov, nei suoi romanzi, per tèssere la ferrea morale dei suoi vari personaggi meccatronici. Questi scritti, pur trattandosi di artefatti letterari, rappresentano un utile spunto di riflessione su quello che potrebbe essere un concreto futuro prossimo, ovvero, quando arriveremo ad avere una relazione di tipo familiare con le macchine (e, in piccolissima parte, è già così se ci pensate).

Discutere di bioetica è, di per sé, cosa complessa e lo diventa ancor di più quando ci si avventura in un limbo popolato di figure dai contorni e dalle funzioni non ancora ben definite; le intelligenze artificiali, gli automi, i robot.

La capacità innata dell’essere umano di antropizzare e riflettersi nei suoi stessi artifizi non facilita il compito di chi, in questi tempi, si sta occupando della questione filosofica ed etica legata all’ emergere di queste nuove tecnologie e del loro ruolo che avranno queste nella nostra società.

In altre parole, corriamo il rischio di dimenticarci del fatto che questi siano (per adesso) sistemi progettati e programmati da esseri umani; sistemi del tutto sprovvisti di libero arbitrio, con la terribile conseguenza del renderli, ingiustamente, capri espiatori dei nostri stessi errori.

L’esperimento — prospettiva umana sull’etica delle macchine.

Al MIT di Boston hanno preso particolarmente a cuore la questione, tanto da sviluppare un esperimento sociologico sull’inevitabile rapporto tra il comportamento delle macchine e la vita (o meglio, la morte) dell’essere umano.

Si chiama “the Moral Machine” ed è una piattaforma tramite la quale i ricercatori stanno raccogliendo dati in merito alla prospettiva umana circa le decisioni morali fatte da ipotetiche intelligenze artificiali.

I quesiti sono estremi, pragmatici e spesso richiedono un approccio cinico, freddo e calcolatore; ad esempio, in una situazione di pericolo, dovendo scegliere tra due pedoni di cui una donna medico ed un ladro in fuga, chi dei due sarebbe sacrificabile secondo la morale umana?
In questo esempio, probabilmente, saremmo tutti concordi nella scelta, ma cosa accade quando tocca scegliere tra una coppia di anziani con il loro nipotino ed una donna incinta con suo marito? O tra due atleti ed un insegnante obeso?
Insomma, questo esperimento tende a far emergere canoni che, nel nostro essere “umani” tendiamo ad ignorare bollandoli come “pregiudizi” o “scortesie” ma che, in realtà, rappresentano il risultato di una precisa elaborazione di dati, statistiche, prospettive future… tutte cose che, i robot senzienti, dovranno essere in grado di prendere in considerazione per poter fare scelte autonome e non dipendenti da algoritmi, appunto, “umani”.

Instillare il concetto di paradosso

Per quanto possa essere smisurata la quantità di dati a disposizione va prevista la possibilità del configurarsi di un paradosso; una situazione di stallo nella quale la logica, la razionalità, collassano su loro stesse annichilendo qualunque tipo di decisione oggettiva. Come umani, dovremmo conoscere bene questa sensazione e in nostro aiuto viene l’intuizione, il famoso “colpo di genio”, la “lampadina che si accende” ma che, tuttavia, non sempre rappresenta esattamente la miglior cosa da fare. Capita.

Ecco, direste mai “vabeh, capita” ad un robot che ha appena commesso un errore? Perdonatemi, ma ne dubito.
Scommetto, invece, che pensereste “è fatto male”, “ha problemi”, “è rotto”.
Beh, pensandoci meglio, trattiamo allo stesso modo anche altri nostri simili umani, ma questo magari è un altro discorso…

Come permettere, dunque, ad una “intelligenza artificiale” di andare oltre i propri modelli, quando necessario? Di sbloccarsi da una situazione di “collisione logica”? Insomma, di fare “una follia”?
Difficile a dirsi, perché significherebbe dare alle macchine una sorta di libero arbitrio, posto che prima ancora queste debbano essere rese capaci di astrarre un proprio pensiero.
E ancora più difficile sarebbe accettare una macchina che, dopo aver recato danno ad un umano a seguito di una scelta sbagliata, si giustificasse con un “pensavo fosse la cosa migliore da fare”…

Il caso “guida automatica”

Negli ultimi mesi ci sono stati diversi casi in cui, macchine a “guida autonoma”, abbiano fallito il proprio compito e, in alcuni di questi, ci sono state persone che ci hanno rimesso la vita.
Va detto, in tutti questi casi c’era comunque al volante un essere umano che era distratto, un umano che aveva posto troppa fiducia in un sistema fallace; esattamente come egli stesso.
Gli errori capitano e lo sbaglio è parte della logica delle cose.

E allora perché in questi casi molti se la sono presa con “la macchina che non è riuscita ad evitare l’incidente” piuttosto che con “il pilota che messaggiava sul cellulare invece di guardare la strada”?

Non stiamo forse sopravvalutando tutta questa automazione cercando, non tanto un sistema che migliori la nostra vita, quanto più un’entità astratta da colpevolizzare per i nostri stessi errori?

Conclusione

Siamo in una fase epocale in cui la tecnologia sta permeando praticamente ogni cosa nella nostra quotidianità, tuttavia, non tutti sono ancora in grado di comprenderla e dominarla e questo porta, come conseguenza, una risposta che si pone tra il rifiuto, lo scetticismo e la demonizzazione.

Non siamo né culturalmente, né mentalmente pronti a poter stringere la mano ad un “amico robot”; accontentiamoci di un imbarazzato “Hey Siri…”

A computer scientist who works on a daily basis with TypeScript and Node.js, passionate about Computer Vision and Robotics.

A computer scientist who works on a daily basis with TypeScript and Node.js, passionate about Computer Vision and Robotics.