Avanti con Virgilio: verso un’intelligenza più sociale che artificiale
In un articolo precedente abbiamo fatto una panoramica sul concetto di Society-in-the-Loop (SITL) e di come esso possa aiutare uno sviluppo socialmente più accettabile e condivisibile del mondo dell’alta tecnologia. Ricapitolando, un modello SITL nasce dall’estensione di un sistema preesistente che vedrebbe un ruolo più attivo della componente umana nella supervisione delle attività di una macchina, cioè un sistema Human-in-the-Loop (HITL). Il recente e notevole sviluppo della tecnologia ha però portato le macchine ad avere una valenza sociale più ampia rispetto ad azioni e calcoli ben determinati, necessitando una supervisione e un potere decisionale più estesi di quelli che può fornire un singolo individuo.
Vi è quindi bisogno di creare un loop di supervisione reciproca che inserisca anche la società (cioè i diritti e gli interessi degli utenti e delle terze parti, oltre a quelli dei programmatori e degli esperti) nella decisione di cosa può fare una macchina, o un bot, e di come venga utilizzato. Tuttavia, immettere la società nel loop significa anche definire il contratto sociale che unisce e regola i vari interessi degli attori che compongono la società. Bisognerebbe comprendere cosa si intende per “società regolatrice” nella supervisione della programmazione di una macchina. Vi è cioè la necessità di comprendere quali decisioni possano soddisfare al meglio le aspettative dei diversi componenti del tessuto sociale.
Citando Iyad Rahwan (2017):
“Abbiamo passato secoli cercando di addomesticare ‘Il Leviatano’ di Hobbes, il sovrano con pieni poteri. Ora dobbiamo creare ed addomesticare il nuovo ‘Tecno Leviatano’.”
Nel seguito proviamo a riassumere i motivi principali per i quali il sistema SITL non sia stato adottato a nessun livello e le azioni possibili perché ciò avvenga, con delle nostre particolari iniziative al riguardo.
Un problema fondamentale è il divario disciplinare esistente fra la programmazione algoritmica delle macchine e i valori legali ed etici delle scienze sociali da includere nel loop. Per quanto professionisti e accademici in ambito sociale e legale possano identificare comportamenti non etici o non corretti nell’operato di un computer, non è sempre così ovvio riuscire ad articolare matematicamente come una macchina debba comportarsi per non infrangere i dettami etici o morali identificati.
In breve, è estremamente complesso quantificare matematicamente la nozione di “giusto”, “corretto” o “accettabile” e programmare algoritmicamente i computer perché siano rispettate le aspettative che i vari attori sociali hanno riguardo l’operato delle macchine. Inoltre, la relazione uomo-macchina è anche caratterizzata da un apprendimento reciproco. Le abilità informatiche degli utenti umani sono in costante evoluzione, mutando quello che viene considerato accettabile dal contesto sociale più ampio.
La demografia moderna, in più, non facilita l’integrazione della società, avendo a che fare con milioni di interessi diversi e in costante mutamento. Si potrebbe però provare ad avvicinare la realtà sociale a quella tecnologica attraverso diversi tentativi. Uno di questi è l’utilizzo di crowdsourcing su internet, cioè la raccolta di dati e opinioni attraverso sondaggi e rilevamenti statistici per la creazione di un database di informazioni qualitative, raccolte attraverso processi di mechanism design mirati a un’accurata valutazione dei diversi interessi in gioco.
Rahwan fornisce un esempio alquanto interessante di un esperimento di crowdsourcing simile con un questionario aperto al pubblico, chiamato Moral Machine, in cui i partecipanti sono invitati a decidere su questioni etiche, del tipo “se questa self-driving car è destinata a schiantarsi, è meglio che uccida x numero di pedoni (fra cui anche una donna incinta, per esempio) o i passeggeri (fra cui altre tipologie di persone)”. La collezione di tutte queste informazioni ci può dire molto su come ragiona il contesto sociale più ampio su determinate questioni di natura morale.
Tuttavia, analizzare le preferenze della società in generale non è sufficiente per uno sviluppo sostenibile. È necessario controllare anche l’operato degli algoritmi e dei programmatori. La possibilità di un audit umano è stata esplorata a lungo nel campo dell’Intelligenza Artificiale, a partire dalla teorizzazione del sistema HITL. Un audit umano, però, non è sufficiente per un controllo costante secondo Rahwan, che predilige un audit più accurato da parte di altri computer. In un paper di Amitai e Oren Etzioni (2016) troviamo ben specificata questa possibilità, con l’implementazione di oversight programs, ovvero programmi di supervisione che provvedono a un controllo costante e accurato della performance di altre macchine, non solo in un primo ambiente simulato e virtuale. Stando alle loro parole: “Per assicurare una condotta corretta delle intelligenze artificiali, gli umani devono impiegare altri sistemi IA”.
Affidare la supervisione delle macchine ad altre macchine è, però, alquanto tautologico. Ciò non risolverebbe affatto il problema principe della nostra ricerca, cioè l’integrazione della componente umana e degli studi umanistici nel mondo dell’hi-tech. C’è bisogno comunque di una supervisione umana per l’operato algoritmico dei computer.
Alan Advantage, per analizzare molti degli aspetti che porteranno ad individuare soluzioni per facilitare la diffusione e l’affermazione dell’approccio SITL, ha avviato da più di un anno in collaborazione con uno dei suoi partner scientifici il progetto di ricerca “Virgilio”. Attraverso un approccio olistico e innovativo sia nel metodo che nel contenuto, Virgilio è un framework metodologico che si muove oltre l’orizzonte delle classiche metodologie di analisi consentendo ad Alan Advantage di offrire servizi di consulenza a supporto del processo di adozione di tecnologie di Intelligenza Artificiale nelle aziende.
Tre overview (Company View, Function View e People View) ci permettono di sviluppare un framework che include un’accurata analisi tecnica e finanziaria, così come per l’importanza delle risorse umane e dell’approccio aziendale verso i nuovi sistemi di AI. Crediamo, infatti, che gli aspetti sociali insiti nell’approccio SITL trovino una loro importanza anche all’interno del contesto aziendale, per compagnie di qualsiasi dimensione.
Come il Virgilio della Divina Commedia, il nostro framework metodologico vuole accompagnare le aziende attraverso i vari aspetti della strategia da adottare negli investimenti in Intelligenza Artificiale consentendoci di offrire servizi di consulenza in grado di armonizzare i nuovi investimenti con i piani preesistenti e gettando le basi per i nuovi sistemi aziendali.
La progettazione di un tale framework, oltre a facilitare i processi decisionali per la propria impresa, sposa la nostra vision secondo la quale l’inclusione del contesto sociale e aziendale più ampio può sfruttare più efficientemente il potenziale dell’Intelligenza Artificiale. L’implementazione della tecnologia non deve necessariamente sacrificare la componente umana. Anzi, al contrario, un movimento di reciproco apprendimento può migliorare ambo le parti coinvolte. Virgilio è solo un delle tante iniziative che Alan Advantage offre, ma non è la sola che ha intenzione di proporre.
Referenze Bibliografiche
Etzioni, A.; Etzioni, O. (2016). AI assisted ethics. Ethics and Information Technology, 18 (2), 149–156.
Rahwan, I. (2017). Society-in-the-Loop: programming the algorithmic social contract. Ethics and Information Technology. DOI 10.1007/s10676–017–9430–8