Intelligenza artificiale: chimera narrativa o realtà tecnologica?

Da almeno un secolo è pervasiva dei libri di fantascienza la rappresentazione di macchine pensanti e coscienti. Queste sono create emulando gli esseri umani per intelligenza e capacità di linguaggio, ma raramente ne raggiungono lo spessore emotivo. Da qualche anno però quest’idea è andata a mischiarsi in maniera confusionaria con le tecnologie odierne utilizzate per realizzare programmi in grado di prendere decisioni informate e di conseguenza in grado di compiere operazioni e fornire servizi che fino a poco tempo fa avrebbero richiesto una presenza umana.

Questa confusione è frutto di una serie di problemi dell’informazione moderna che non verranno trattati qui. Parleremo invece del mezzo con cui questa confusione è alimentata: le parole. In particolare due parole: “Intelligenza Artificiale”.

Intelligenza Artificiale è un termine con una storia lunga e complicata. Il concetto di macchina pensante nasce in ambito filosofico e letterario, mentre il termine vero e proprio “Artificial Intelligence” nasce in ambito accademico per delineare quella branca delle scienze informatiche che si occupa di far svolgere alle macchine compiti che richiederebbero intelligenza se venissero svolti dagli uomini. Questa è la definizione che diede Minksy, uno tra i primi e più rilevanti ricercatori nel campo, erede delle visioni futuristiche di Pitts, Turing e di chi, nei secoli passati, aveva investigato la possibilità di una macchina pensante.

Dove tutto è cominciato

Questa definizione, oggi, ci sembra fuori luogo: molti dei compiti che svolge un comune computer sarebbero stati considerati un’esclusiva umana fino a qualche decennio fa, eppure oggi ci sembrano applicazioni comuni e assolutamente alla portata della macchina. Fino a qualche secolo fa, svolgere operazioni di calcolo che andassero oltre la semplice aritmetica sembrava impensabile per un pezzo di ferro senz’anima. Chi diede questa definizione di Intelligenza Artificiale negli anni ’50 forse fu incapace di mettere in prospettiva il proprio tempo e realizzare che non c’era vera differenza tra i compiti svolti dai calcolatori e quelli svolti dagli umani.

Una battuta che si fa spesso parlando di questi temi è che è “Intelligenza Artificiale” tutto ciò che non siamo in grado di far fare ad un computer. Non appena ci riusciamo, quella specifica attività viene considerata risolta e annoverata tra i problemi “banali” che forse non hanno davvero bisogno di intelligenza umana. Nelle prime pagine di “Gödel, Escher, Bach: un’eterna ghirlanda brillante”, pubblicato nel 1979, Hofstadter afferma con leggerezza che una macchina non potrà essere in grado di guidare un’automobile fino a quando non sarà dotato di un’intelligenza di tipo umano. Anche se le automobili a guida autonoma sono ancora lontane dalla perfezione, è ormai chiaro che un computer possa condurre un veicolo su strada.

Il termine, all’interno del mondo delle scienze informatiche, ha identificato per lunghi anni una serie di tecniche volte a risolvere problemi, ad esempio attraverso la logica, oppure con complesse rappresentazioni astratte della conoscenza o dei problemi da risolvere, per renderli trattabili con la forza bruta di un processore. Parallelamente il termine ha indicato tutti gli sforzi per creare una macchina in grado di pensare, risolvere problemi arbitrari, parlare, comunicare e dare un contesto alle informazioni a sua disposizione. In questi casi si parla di Intelligenza Artificiale Generale o AGI. Questi sforzi non hanno mai prodotto soluzioni interessanti ma alcune hanno dato vita a nuovi rami di ricerca che sopravvivono ancora oggi.

La ricerca nell’ambito dell’AGI si è interrotta grossomodo tra 25 e 35 anni fa e ad oggi nessuno svolge seriamente progetti in questo ambito, a parte una manciata di ricercatori e aziende che sono considerati alla stregua di ciarlatani in cerca di finanziamenti. Con questa interruzione c’è anche stato un progressivo allontanamento dal termine “Intelligenza Artificiale”, sopratutto da parte di quelle branche nate per creare una AGI e poi cresciute in altre forme in tempi più recenti.

Come abbiamo detto, la fantascienza ha trattato questi temi molto tempo prima che qualcuno iniziasse a fare ricerca e ne ha costruito una narrativa molto specifica, declinata in versione positiva o negativa: “HAL 9000", “Terminator”, “The Matrix”, “Io, Robot” e tutte le utopie o distopie possibili ed immaginabili. Il tratto comune è che queste entità hanno sempre una loro forma di personalizzazione, un carattere, un’autonomia di pensiero che, seppur differente da quella umana, li identifica come un’entità senziente. E non apriamo il capitolo sull’uso spregiudicato del termine “robot”, perché ce ne sarebbe abbastanza per altri due articoli.

Nulla di più lontano da quello che abbiamo oggi. Le persone che fanno marketing, così come i giornalisti, su questa ambiguità hanno costruito un immaginario, una narrativa e un nuovo vocabolario che nasconde ancora di più una tecnologia che già sembra magia nera a chi come me ci lavora.

Abbiamo le self-driving car di Google, gli assistenti vocali e i chatbot, i filtri di Facebook, la gestione dei magazzini di Amazon, i sistemi che analizzano i dati genetici, il traffico telefonico o altri dati molto complessi, abbiamo macchinari in grado di estirpare le erbacce e altri in grado di operare bracci robotici di precisione in base a ciò che osservano attraverso sensori ottici.

“Questa IA è in grado di …”, fa venire in mente un vecchio seduto ad una scrivania, con indosso un paio di occhiali spessi, che revisiona carte su carte all’interno del vostro smartphone per darvi le risposte che vi servono. Visualizzarlo così viene naturale e semplifica la percezione del prodotto. Gli dà una dimensione antropomorfa che permette di incasellarlo in una precisa categoria mentale e sopratutto fa apparire il suo operato come occulto, al pari di quello della mente umana di cui conosciamo tanto, ma ancora non abbastanza per arrivare ad una definizione univoca di intelligenza. Quando poi gli si dà un nome, una voce e la capacità di interpretare il linguaggio umano, si crea una cortina di fumo blu attraverso cui è impossibile intravedere gli ingranaggi all’opera e si percepisce solo il lato umanizzato del chatbot o dell’assistente vocale di turno.


Nella realtà questi sistemi sono tutto fuorché una singola componente pensante: molto più spesso sono invece una serie di piccoli programmi specifici, ognuno in grado di risolvere uno specifico problema, messe insieme per mostrare all’utente un comportamento coerente, semplice, magari anche dialogante (nel senso comune del termine) . A fare la “magia” è l’abilità ingegneristica degli sviluppatori che hanno messo insieme i pezzi, la genialità del ricercatore che ha realizzato una nuova topologia di Deep Learning perfetta per lo scopo e il design di chi ha messo tutto in un’interfaccia semplice , non certo un progresso della tecnologia che seppur molto consistente, non sta in alcun modo andando nella direzione di un’intelligenza generale e antropomorfa.

Complicato, ma non magico

Questo sarebbe un innocuo artificio comunicativo come ce ne sono tanti nel mondo della tecnologia se non fosse che la confusione di cui sopra ha un forte impatto sull’opinione pubblica su temi che saranno sempre più importanti col passare del tempo. Molte persone hanno paura delle potenzialità di queste tecnologie perché umanizzandole, ne temono una deriva in cui queste saranno in grado di avere una volontà propria che potenzialmente potrebbe danneggiare gli esseri umani. Questo non è uno scenario realistico in un arco temporale di decenni, come recentemente ribadito anche dalla Casa Bianca. Sicuramente non con evoluzioni dirette delle tecnologie attuali.

Questo crea ostilità verso il settore nel suo complesso che in futuro potrebbe portare a scellerate scelte politiche basate sul pregiudizio, come è successo per gli OGM in Europa. Inoltre, fatto forse ancora più grave, inquina il dibattito pubblico sulle problematiche già esistenti.

Come si deve legiferare sulle armi in grado di puntare e sparare in maniera totalmente autonoma? Chiaro che se ci si immagina un soldatino in miniatura piazzato dentro la torretta di un veicolo corazzato il giudizio sarà di natura diversa rispetto al valutare la questione basandosi sui fatti, ovvero che la responsabilità di eventuali errori è esclusivamente di chi ha costruito il sistema, di chi ha deciso di usarlo e come ha deciso di usarlo, sapendo che il sistema ha un grado di imprecisione ineliminabile. Il legislatore spesso lo sa ma l’uomo della strada che fa pressione politica no.

Ad esempio, sapere che questo rischio di errore può essere misurato in molti casi e per molte tecnologie è qualcosa che sfugge alla rappresentazione antropomorfa di un’arma automatica: non si può dare una dimostrazione matematica della probabilità che un ragazzo americano diciottenne stressato, mal addestrato e sotto pressione possa sparare ad un civile per sbaglio. Si può conteggiare a posteriori e chiamarlo “danno collaterale” e sapere approssimativamente quante altre volte succederà, ma non è esattamente la stessa cosa.

M300FE: un fucile a puntamento assistito

Se un sistema automatico sbaglia nel 60% dei casi di test e lo si sa anni prima di schierarlo sul campo, c’è una responsabilità di chi l’ha messo lì nonostante l’alto rischio. Se quando il sistema è incerto sull’identità del bersaglio a cui sta sparando e il sistema è progettato per sparare comunque, c’è un dolo da chi ha voluto che fosse così.


All’interno della comunità di ricercatori ed ingegneri c’è la percezione forte di questa concezione errata da parte di media e pubblico. Il tema è considerato caldo e viene affrontato spesso e volentieri ma aleggia un senso di impotenza: il peso mediatico di chi crea confusione è troppo superiore a quello riservato agli specialisti di settore per pensare di cambiare questo andamento in maniera diretta. Il risultato è che tanti si piegano ad utilizzare termini impropri per fare divulgazione in maniera comprensibile, alimentando ulteriormente la confusione.

Inoltre si percepisce, su questo tema come su tanti altri collegati al Machine Learning, una forma di isolamento da parte dei filosofi che non sembrano in grado di rapportarsi in maniera costruttiva e pragmatica con lo stato attuale della tecnologia, preferendo cimentarsi con scenari ipotetici e lontani. Il risultato è che abbiamo una marea di posizioni forti su cosa fare con ipotetici robot senzienti o su come affrontare una singolarità tecnologica ma c’è un deserto sui temi etici legati ad esempio alle self-driving car, che alcuni mesi fa sono diventati rilevanti nel dibattito pubblico e accademico dall’oggi al domani. Fa eccezione il tema relativo alle armi presentato poche righe fa.

Da tecnico non posso fare altro che constatare la mia impotenza e ignoranza nella trattazione di questi argomenti. La speranza è che col tempo ci sia un approccio maggiormente interdisciplinare e si possa limitare la cattiva informazione prima che questa abbia un impatto negativo sul pubblico, con conseguente irrazionalità nella gestione pubblica e privata delle potenzialità offerte dai progressi nel Machine Learning e nella Data Science.