Guida autonoma ed etica: può una macchina uccidere il suo passeggero?
I ricercatori evidenziano che un’adozione di massa dei veicoli a guida autonoma ridurrebbe gli incidenti del 90%.
Questo perché il 90% degli incidenti è causato da errori umani.
Tuttavia alcuni incidenti, del restante 10%, potrebbero essere inevitabili e in quelle circostanze un’auto a guida autonoma si troverebbe di fronte a scelte etiche.

Uno studio ha proposto 3 scenari domandando cosa dovrebbe fare l’intelligenza artificiale:
a) un’auto sta per investire più persone e sul marciapiede c’è un pedone: deve procedere e investire le persone o sterzare e investire il pedone?
b) Un’auto sta per investire una persona: deve proseguire e investire il pedone o sterzare ed uccidere il passeggero?
c) Un’auto sta per investire più persone: deve proseguire e investire le persone o sterzare ed uccidere il passeggero?
Lo studio ha effettuato dei sondaggi su un totale di 913 persone:
Il 75% degli intervistati ha affermato che sarebbe disposto a sacrificarsi nel caso i potenziali investiti fossero 10, una percentuale che si abbasserebbe a circa il 50% se il potenziale investito fosse uno.
Le persone intervistate erano molto meno propense ad accettare che un eventuale sacrificio programmato nel software di una vettura fosse stabilito per legge; dovrebbe essere una libera scelta.
In un altro test è stato chiesto alle persone se preferirebbero:
a) un’auto programmata per sacrificare il guidatore
b) un’auto programmata per proteggere in ogni caso il guidatore
c) un’auto in grado di effettuare in caso di incidente una scelta casuale.
In questo test le preferenze sono risultate quasi equamente divise tra le tre possibilità.
Alcuni ricercatori sostengono che dobbiamo affidarci all’utilitarismo, ossia il ragionamento che porta un umano a sacrificare una vita anziché molte.
E se la vita fosse quella di chi è a bordo?
Con le auto a guida autonoma potrà capitare per la prima volta che un robot debba prendere la decisione di uccidere il proprio passeggero umano.
Vengono in mente le tre Leggi della robotica che Asimov pensò nei lontani anni quaranta del 900:
1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
Partiamo dalla prima: un robot non può recare danno a un essere umano; ma se gli esseri umani sono due, per esempio il passeggero e un pedone, come si deve comportare?
C’è differenza se il pedone è un bambino e il passeggero un anziano?
E se il passeggero fosse una donna in gravidanza?
Ad oggi tuttavia il robot risponde esclusivamente agli ordini impartiti dagli esseri umani, legge 2, ossia coloro che hanno scritto il software.
In futuro non possiamo sapere come si evolveranno le IA
Intanto DeepMind di Google e l’Università di Oxford hanno creato una sorta di “pulsante rosso” in grado di spegnere un’intelligenza artificiale; è anche in grado di impedire che un sistema troppo sviluppato possa capire e aggirare questo “pulsante”.
La possibilità che un giorno una IA riesca ad evolversi così tanto da divenire pericolosa per l’essere umano evidentemente non è più fantascienza.