Di etica e macchine

Il dibattito sulla diffusione delle IA, sempre più acceso e diffuso, sembra vertere tuttavia con una certa insistenza sugli aspetti sociali ed economici della questione, che hanno il vantaggio di essere più appetibili sia per i sostenitori che per i detrattori delle macchine intelligenti, e trascura invece un piano che è solo apparentemente scollegato dalle implicazioni socio-economiche delle IA, l’etica delle macchine.

Vediamo perchè.

Se il progresso nel settore delle intelligenze artificiali non incontrerà ostacoli di sorta, molto presto ci troveremo a dividere le nostre città e le nostre case con con un numero sempre maggiore di sistemi autonomi capaci di prendere decisioni potenzialmente fatali per noi o per chi ci sta accanto. Il classico dilemma del carrello è un ottimo esempio degli sviluppi che ci possiamo aspettare in uno scenario del genere. Immaginiamo una vettura autonoma in movimento su una strada urbana che viene improvvisamente attraversata da un gruppo di bambini. Che cosa dovrebbe fare quella vettura, messa di fronte alla necessità di scegliere fra la morte del proprio passeggero o quella di uno o più passanti? Esistono innumerevoli approcci teorici a questo problema, ma tutti prevedono un agente umano.

Che succede quando questo agente umano viene a mancare?

Considerazioni di questo tipo possono sembrare esercizi accedemici, ma sono in realtà fondamentali per stabilire le basi per la convivenza fra esseri umani e macchine. Le intelligenze artificiali, infatti, una volta lasciati i laboratori e scese nelle strade dovranno essere capaci di agire all’interno di un quadro di valori morali di riferimento (i nostri) ed essere in grado di scegliere fra “bene” e “male” sulla base della loro comprensione della realtà in ogni determinato momento. Nell’esempio citato poco sopra si annida una questione di fondamentale importanza legale: su chi dovrebbe ricadere la colpa per l’omicidio di una o più persone commesso dalla vettura autonoma? Questa semplice domanda potrebbe essere sufficiente a scardinare la stessa definizione di reato come è intesa nel diritto penale italiano, poichè alla morte di quelle persone non si potrebbe collegare direttamente alcun agente umano.

Ed è proprio a questo livello che l’aspetto morale si riallaccia con quello economico: sviluppare un sistema di riferimento che permetta alle intelligenze artificiali di agire in conformità con le regole morali vigenti nelle diverse società umane è un compito difficilissimo che sta assorbendo totalmente alcune delle migliori menti del pianeta, con tutte le conseguenze che ne conseguono in termini di tempo e denaro necessari. Tempo e denaro che le grandi multinazionali impegnate nella commercializzazione delle IA non hanno nessuna intenzione di spendere, prese come sono nella corsa al mercato.

Mai come in questo caso è fondamentale che la mentalità ottocentesca del brevetto ceda il passo alla condivisione: non possiamo accettare che una tecnologia con delle implicazioni profonde come l’intelligenza artificiale venga sviluppata dietro porte chiuse e senza la giusta supervisione, da parte di multinazionali guidate dalla sola sete di profitto. Un ammirevole passo in questa direzione è stato intrapreso da Open AI, ma non è ancora sufficiente per mitigare i rischi insiti nello sviluppo di IA proprietarie. 
L’unico approccio che può impedire il monopolio nel mercato delle IA e tutte le nefaste conseguenze del caso è quello Open Source, in cui tutti gli attori collaborano invece di competere ed il codice è di pubblico dominio.

Perchè, se proprio dobbiamo cedere il passo alle macchine, che almeno siano macchine su cui possiamo esercitare il controllo.