Rivelate le preferenze su chi salvare in caso di incidente con auto a guida autonoma

Complimenti a: giovani, grandi gruppi di persone e persone che non sono animali.

Se le auto a guida autonoma si diffondono, la società dovrà affrontare un nuovo dilemma: la capacità di programmare veicoli con preferenze sulle vite da salvare in caso di incidente. I conducenti umani fanno queste scelte istintivamente, ma gli algoritmi saranno in grado di farle in anticipo. Le case automobilistiche e i governi sceglieranno di salvare gli anziani o i giovani? I molti o i pochi?

Un nuovo documento pubblicato dal MIT sonda il pensiero pubblico su queste domande, raccogliendo i dati di un quiz online lanciato nel 2016 chiamato Moral Machine. Ha chiesto agli utenti di prendere una serie di decisioni etiche riguardo ad incidenti automobilistici simulati, simili al famoso problema del carrello ferroviario. Sono stati testati nove fattori separatamente, tra cui le preferenze di genere, di numero, o se uccidere giovani o anziani, pedoni più o meno rispettosi delle regole, e persino scegliere tra individui di basso o alto status sociale.

Milioni di utenti provenienti da 233 paesi e regioni hanno risposto al quiz, prendendo in totale 40 milioni di decisioni etiche. Da questi dati, gli autori dello studio hanno trovato alcune preferenze globali coerenti: risparmiare gli esseri umani piuttosto che gli animali, più vite piuttosto che meno, e i bambini invece che gli adulti. Suggeriscono che questi fattori dovrebbero quindi essere considerati come “blocchi di costruzione” per i responsabili politici quando si creano leggi per le auto a guida autonoma. Ma gli autori hanno sottolineato che i risultati dello studio non sono affatto un modello per il processo decisionale algoritmico.

Quello che stiamo cercando di mostrare qui è l’etica descrittiva: le preferenze delle persone nelle decisioni etiche”, ha detto Edmond Awad, co-autore del documento. “Ma quando si tratta di etica normativa, che è il modo in cui le cose dovrebbero essere fatte, questo dovrebbe essere lasciato agli esperti”.

I dati evidenziano inoltre significative variazioni nelle preferenze etiche nei diversi paesi. Queste sono correlate a una serie di fattori, tra cui la geografia (differenze tra nazioni europee e asiatiche, ad esempio) e la cultura (confronto tra società individualistiche e collettiviste).

È importante notare che, sebbene queste decisioni dovranno essere prese in futuro, la tecnologia per la guida autonoma ha ancora molta strada da percorrere. L’autonomia è ancora agli inizi, e le auto che guidano da sole (nonostante la percezione del pubblico) sono ancora prototipi, non prodotti. Gli esperti dicono anche che, sebbene non sia chiaro come queste decisioni saranno programmate nei veicoli in futuro, c’è un chiaro bisogno di consultazione e dibattito pubblico.

Ciò che accade con i veicoli autonomi può dare il via libera ad altre IA e alla robotica, dal momento che sono i primi ad essere integrati nella società in scala”, ha detto Patrick Lin, direttore del gruppo Etica e Scienze emergenti della Cal Poly University. “Quindi è importante che la conversazione sia il più informata possibile, dato che le vite sono letteralmente in gioco”.

Un esempio del quiz della moral machine: scegliere se investire i pedoni, oppure schiantarsi, uccidendo i passeggeri.

IN CHE MODO LA CULTURA INFLUISCE SULLE PREFERENZE ETICHE?

I risultati della Moral Machine suggeriscono che ci sono alcuni principi condivisi quando si tratta di questi dilemmi etici. Ma gli autori del documento hanno anche trovato variazioni nelle preferenze che hanno seguito alcune divisioni. Nessuna di queste ha stravolto questi principi fondamentali (come risparmiare i molti su pochi), ma differiscono in una certa misura.

I ricercatori hanno scoperto che in paesi dell’Asia e del Medio Oriente, per esempio in Cina, Giappone e Arabia Saudita, la preferenza di risparmiare persone più giovani piuttosto che anziane era “molto meno pronunciata”. Le persone provenienti da questi paesi, inoltre, si preoccupavano relativamente meno di risparmiare individuidi alto stato sociale rispetto alle persone che rispondevano dall’Europa e dal Nord America.

Gli autori dello studio suggeriscono che ciò potrebbe essere dovuto alle differenze tra le culture individualistiche e collettiviste. Nel primo, dove il valore distinto di ogni individuo è enfatizzato, c’era una “più forte preferenza a risparmiare il maggior numero di personaggi”. Al contrario, la preferenza più debole per il risparmio dei personaggi più giovani potrebbe essere il risultato di culture collettiviste, “che sottolineano il rispetto dovuto ai membri più anziani della comunità”.

Queste variazioni suggeriscono che “la vicinanza geografica e culturale può permettere a gruppi di territori di convergere su preferenze condivise per l’etica delle macchine”, dicono gli autori dello studio.

Tuttavia, c’erano altri fattori che si correlavano con variazioni non necessariamente geografiche. I paesi meno prosperi, per esempio, con un prodotto interno lordo (PIL) pro capite più basso e istituzioni civiche più deboli erano meno propensi a colpire i pedoni indisciplinati piuttosto che le persone che attraversano la strada legalmente, “presumibilmente a causa della loro esperienza di minore osservanza delle regole e di una punizione più debole della deviazione dalle regole”.

Gli autori sottolineano, tuttavia, che i risultati della “Moral Machine” non sono affatto valutazioni definitive delle preferenze etiche dei diversi paesi. Per cominciare, il quiz si autoseleziona, ma è probabile che venga preso solo da persone relativamente esperte di tecnologia. È anche strutturato in modo da eliminare le sfumature. Gli utenti hanno solo due opzioni con risultati definiti: uccidere queste persone o quelle persone. Nella vita reale, queste decisioni sono probabilistiche, con individui che scelgono tra risultati di diversa gravità e gradi (“Se giro intorno a questo camion, c’è una piccola possibilità che colpisca quel pedone a bassa velocità”, e così via.)

Tuttavia, gli esperti dicono che questo non significa che tali quiz siano irrilevanti. La natura artificiosa di questi dilemmi è una “caratteristica, non un bug”, dice Lin, perché eliminano “variabili disordinate per concentrarsi su quelle particolari a cui siamo interessati”.

Aggiunge che anche se le auto non devono scegliere regolarmente tra l’oggetto X o l’oggetto Y, devono comunque ponderare le decisioni relative, come ad esempio calcolare la distanza necessaria per stare alla larga dei due potenziali bersagli. E questo è ancora “fondamentalmente un problema etico”, dice Lin, “quindi questa è una conversazione che dobbiamo avere in questo momento”.

Una telecamera viene montata su questa Google Car.

TRASFORMARE L’ETICA IN LEGISLAZIONE

Ma quanto siamo vicini alla necessità di legiferare su questi temi? Quando le aziende inizieranno a programmare le decisioni etiche in veicoli a guida autonoma?

La risposta breve alla seconda domanda è che le imprese hanno già programmato degli algoritmi. Questo è vero nel senso più banale: ogni algoritmo prende decisioni di qualche tipo, e alcune di esse avranno conseguenze etiche. Ma in termini più concreti, è probabile che vengano codificate le preferenze di massima, anche se le aziende coinvolte non sono interessate a parlarne pubblicamente.

Nel 2014, ad esempio, il fondatore di Google X Sebastian Thrun, ha detto che il prototipo di auto a guida autonoma dell’azienda avrebbe scelto di colpire il più piccolo dei due oggetti in caso di incidente. E nel 2016, Chris Urmson di Google ha detto che le sue auto “cercheranno di evitare di colpire gli utenti della strada non protetti: ciclisti e pedoni”. Nello stesso anno, un manager Mercedes-Benz ha dichiarato che i veicoli autonomi dell’azienda avrebbero dato la priorità alla vita dei passeggeri in un incidente, anche se l’azienda in seguito ha negato questa affermazione, dicendo che si trattava di un errore.

È comprensibile che le aziende non siano disposte ad essere aperte su queste decisioni. Da un lato, i sistemi di guida autonoma non sono ancora abbastanza sofisticati per distinguere, ad esempio, i giovani e gli anziani. Algoritmi e sensori all’avanguardia possono fare ovvie distinzioni, come tra scoiattoli e ciclisti, ma non possono essere molto più precisi di così. Inoltre, qualsiasi sia la vita a cui le aziende potrebbero dire di dare priorità — persone o animali, passeggeri o pedoni — sarà una decisione che sconvolge qualcuno. Ecco perché questi sono dilemmi etici: non c’è una risposta facile.

Le aziende private stanno lavorando maggiormente su queste domande, dice Andrea Renda, ricercatore senior presso il Centre for European Policy Studies. “Il settore privato sta agendo in questo senso, ma i governi potrebbero non considerarlo sufficiente”, dice Renda. Egli afferma che in Europa, l’UE sta lavorando su linee guida etiche e probabilmente le applicherà attraverso “la legislazione di comando e controllo, o attraverso la certificazione e la coregolamentazione”. Negli Stati Uniti, il Congresso ha pubblicato principi bipartisan per una potenziale regolamentazione, ma il controllo federale sarà probabilmente lento, e non è chiaro se i legislatori vogliono anche tuffarsi nel pantano delle preferenze etiche per gli incidenti automobilistici.

Renda avverte che anche se il pubblico dovesse essere coinvolto in questi dibattiti, “affidarsi solo alla consultazione dal basso verso l’alto sarebbe estremamente pericoloso”. I governi e gli esperti, dice, dovranno fare scelte che riaffermino i diritti umani.

Ma i problemi che ci attendono si intravedono già in Germania, l’unico paese che finora ha proposto linee guida ufficiali per le scelte etiche dei veicoli autonomi. I legislatori hanno cercato di tagliare il nodo gordiano del problema del carrello affermando che tutta la vita umana dovrebbe essere valutata equamente e che ogni distinzione basata su caratteristiche personali come l’età o il sesso dovrebbe essere proibita. Ma, come notano i ricercatori del MIT, se questa scelta venisse attuata, andrebbe contro la forte preferenza del pubblico a risparmiare i più giovani sugli anziani. Se un governo introduce questa politica, chiedono, come gestirà il contraccolpo “che si verificherà inevitabilmente il giorno in cui un veicolo autonomo sacrifica i bambini in una situazione di dilemma”?

Awad dice che questo tipo di conflitto è “inevitabile” ma deve far parte del processo. “L’importante è rendere trasparenti queste decisioni”, dice, “per chiarire cosa si sta facendo. Se tutto questo accadesse dietro le quinte, e o costruttori dicessero ‘fidati di noi’, non credo che sarà accettabile. Tutti devono essere coinvolti in queste decisioni”.

Tradotto in Italiano. Articolo originale: The Verge

VISIONARI è un’associazione non-profit che promuove l’utilizzo responsabile di scienza e tecnologia per il miglioramento della società. Per diventare socio, partecipare ai nostri eventi e attività, o fare una donazione, visita: https://visionari.org

Seguici su Facebook e Instagram per scoprire nuovi progetti innovativi.

--

--

ad astra
VISIONARI | Scienza e tecnologia al servizio delle persone

Per diventare socio, partecipare ai nostri eventi e attività, o fare una donazione visita: https://visionari.org