Pensieri molto umani sull’AI

Considerazioni e riflessioni sull’Intelligenza Artificiale, il significato che riveste nelle nostre vite, lo stato dell’arte e le sue applicazioni.

Francesca Di Mari
Verso il futuro
8 min readApr 28, 2021

--

Previsione della struttura di una proteina effettuata da AlphaFold (DeepMind)

Ormai è difficile trascorrere una giornata senza incappare nel termine “Intelligenza Artificiale”. Devo dire spesso usato un po’ a sproposito come una specie di chiave per aprire le porte del futuro, un deus ex machina che produce una sorta di magia che ci lascia tutti attoniti, rassicurati, e sotto sotto, più felici. È un altro modo per dire che il 99% delle volte usiamo il termine senza avere la più pallida idea di che cosa si stia dicendo per davvero. La nostra percezione dell’AI oscilla tra il Grande Boh e HAL9000.

Eppure se ne parla moltissimo: nel giro di sei anni il numero di pubblicazioni dedicate sulle riviste scientifiche è cresciuto di sei volte. Intanto le corporate investono negli studi e nelle applicazioni di AI a un ritmo forsennato. Solo nell’ultimo anno gli investimenti globali privati sono cresciuti del 10%, nonostante la pandemia. Le opportunità esistono e sono evidenti, la tecnologia capace di farle diventare profitto invece deve ancora maturare.

Ma cos’è per davvero l’AI, come la usiamo e a che cosa serve nella nostra vita di persone, consumatori, cittadini e designer?

In questo percorso di comprensione ci aiuta il ponderoso studio “Artificial Intelligence Index Report 2021” pubblicato dallo Stanford Institute for Human Centered Artificial Intelligence. Al momento, il più completo ed esaustivo compendio sullo stato dell’arte della disciplina e delle sue applicazioni. Un documento di non agile lettura, ma capace di suscitare numerose riflessioni.

Intanto con AI si intende quel vasto aggregato di tecnologie — dal Machine Learning al Natural Language Processing — che permettono alle macchine di percepire, comprendere, agire e imparare.

A che punto siamo con la tecnologia?

Prima di tutto, a che punto siamo con la tecnologia? Ben lontani da HAL9000. Siamo ancora più o meno agli inizi delle applicazioni su larga scala: al momento l’accademia e l’industria si stanno concentrando su come rendere davvero performanti e veloci le intelligenze a base silicio. È un prerequisito per un sacco di usi industriali: dalla medicina all’automotive (se l’AI a bordo di un veicolo a guida autonoma non è in grado di riconoscere in fretta una persona che corre al crepuscolo, o il cane del vicino, beh potrebbe non finire bene).

Mentre la tecnologia progredisce, aumentano anche le preoccupazioni — purtroppo più dell’accademia e dell’opinione pubblica, meno dell’industria — nei confronti dei suoi usi perversi, portando la discussione in quel terreno accidentato tra etica e ricerca.

Nessuno mette in discussione la potenza, la velocità e la logica rigorosa (date premesse valide, ça va sans dire) con cui un’AI riesce a condurre i suoi processi (mi riesce ancora un po’ difficile usare il termine ‘ragionamento’): per questo si sprecano i contest in cui le intelligenze artificiali si sfidano per risolvere dilemmi matematici o mettere alla prova alcuni teoremi matematici. Una roba da nerd? Forse. Avete mai dato un’occhiata, anche solo di sfuggita, alle matrici di Heisenberg? Tranquilli, anche Einstein non ci capì un accidente, eppure sono alla base della moderna fisica dei quanti e dei suoi straordinari risultati.

Ma senza andare così lontano, i suoi usi spaziano dalla progettazione di circuiti, alla validazione della bontà logica degli algoritmi e delle loro performance, e da lì a tutte le loro applicazioni: un algoritmo mediocre, produrrà risultati mediocri i cui effetti saranno ancora peggiori e via di seguito.

Mentre alcune AI si concentrano sulla pura logica, altre analizzano il linguaggio: la sua struttura profonda, ma anche le sue esternazioni come i discorsi e la scrittura. Sono i sistemi di Natural Language Processing (NPL) che insegnano alle macchine a interpretare, manipolare, e, infine, a generare linguaggio.

È possibile trasformare l’audio o il video in testi o viceversa, tradurre da una lingua all’altra con grande accuratezza, rispondere a domande. Siamo ormai quasi tutti abituati ai chatbot, quei risponditori automatici e stupidi che sono di solito i primi interlocutori nei customer care. Siamo meno avvezzi ai professionisti qualificati virtuali — avvocati, consulenti — che cominciano a fare la loro comparsa (funzionano meglio in inglese, con le altre lingue fanno ancora un po’ di pasticci).

A volte questi personaggi assumono l’aspetto o la voce o le maniere di un essere umano, in alcuni casi di qualcuno di conosciuto o di famoso. Possiamo divertirci tutti facendo i giochini sui social sostituendo la nostra faccia a quella di attori famosi e interpretando così alcune scene di film del passato, ma le applicazioni possono essere ben più sinistre. Soprattutto se gli usi perversi si sommano a quelli derivanti dalla generazione di immagini generate autonomamente (la computer vision è un altro settore tecnologico in crescita vertiginosa: ha permesso applicazioni interessanti nel settore dell’automotive con le macchine a guida autonoma, nell’analisi medicale, nel settore della sicurezza e della sorveglianza e anche nella manifattura).

Potremmo avere un ruggente Joe Biden che annuncia l’apocalisse nucleare. Un video fasullo dall’inizio alla fine, ma quali effetti potrebbe avere?

Di sicuro, la possibilità di questi avvenimenti — anche meno drammatici, sia chiaro — fornisce la motivazione per lo sviluppo di applicazioni di intelligenza artificiale che si occupano solo di Deep Fake Detection, ribaltando le pratiche di generazione di contenuti sintetici.

Comprendere la forma della vita

Però mi sono tenuta il meglio per la fine. Siamo stati tutti strabiliati dalla velocità con cui sono stati sviluppati i vaccini mRNA per contrastare l’epidemia di SARS-Cov-19, e questa accelerazione è dovuta in gran parte alle applicazioni di Natural Learning Processing alla struttura delle proteine. Nature ha pubblicato un articolo a questo proposito lo scorso novembre, presentando AlphaFold, l’algoritmo sviluppato da DeepMind che ha reso possibile questa scoperta.

Il dietro le quinte del team di scienziati e ingegneri di DeepMind che ha creato AlphaFold, un sistema di intelligenza artificiale riconosciuto come una soluzione alla forma delle proteine, una grande sfida scientifica da oltre 50 anni.

Come ci insegnano a scuola, il DNA è il linguaggio della vita e ad un certo punto le informazioni contenute nella doppia elica vengono tradotte per produrre amminoacidi e, da questi, le proteine. L’apparato di traduzione è fatto dai ribosomi e dalle stringhe di RNA messaggero, una specie di nastro che contiene la chiave per la decodifica. Per farla breve, applicando le tecniche di NLP a questo particolare linguaggio si è in grado di predire con sufficiente accuratezza la sequenza degli amminoacidi e quindi la forma delle proteine. E quindi di fornire le istruzioni giuste per produrre la proteina adatta.

Lo scorso anno ci hanno frastornato raccontandoci della famosa proteina spike, quella che consente al covid di diffondersi, e che, se presente da sola, senza il virus, è del tutto innocua, ma induce la produzione degli anticorpi. Ecco, i vaccini a mRNA possono indurre la produzione della proteina spike. È davvero l’alba di una nuova generazione di farmaci e di applicazioni medicali (contro il cancro, per esempio, o per debellare le malattie autoimmuni, sarebbe stupendo).

Sostenibilità ambientale, sociale e dilemmi etici

Prima di tutto abbiamo un problema grande come un pianeta, il nostro: quanto hardware, materie prime, energia servono per far funzionare tutta questa roba? Possiamo permettercelo, come ecosistema? Siamo davvero pronti a pagarne il fio? E davvero pensiamo che favorire la riforestazione in zone economicamente e socialmente deprivate del mondo basti a mettere le cose in pari?

E parliamo anche di sostenibilità sociale, per un momento: l’accesso a queste tecnologie e ai suoi usi sarà egualitario o fortemente sproporzionato? Ovviamente è una domanda retorica, di cui purtroppo conosciamo bene la risposta. E la politica — qui intesa come quel apparato in grado di indirizzare verso il benessere collettivo i comportamenti delle persone in relazione ad alcuni fenomeni — arranca. Il Canada ha provato a fornire un quadro normativo all’uso delle AI già nel 2017 e, ad oggi, 30 altre nazioni hanno seguito le sue tracce, ma capite bene che una normativa nazionale potrebbe non essere adeguata.

Così l’anno scorso è stato aperto un tavolo di lavoro intergovernativo per trovare un perimetro regolatorio comune e diffuso.

Il mercato generalmente si occupa solo del profitto, molto meno di questioni etiche e di giustizia sociale, e le grandi preoccupazioni delle corporate si concentrano quindi soprattutto sulla sicurezza legata all’uso di questo tipo di tecnologie. E tra tutti i rischi possibili, l’attenzione del mercato cade soprattutto sulla cybersecurity e la protezione dei dati commerciali.

Di contro i cittadini e i lavoratori hanno il tema della fiducia tra le loro principali preoccupazioni legate alle AI: queste tecnologie davvero tengono in considerazione il mio benessere e la mia salute (e sul luogo di lavoro non è cosa da poco), o hanno priorità diverse (tipo massimizzare l’efficienza a scapito delle mie dita, per dirne una)?

Inoltre i dati rivelano un grande problema di inclusione. Intanto c’è una questione razzista: le AI sono progettate in larghissima parte da occidentali bianchi. Immagino che le cose cambieranno abbastanza velocemente ora che anche la Cina e altri paesi dell’estremo oriente stanno aumentando la loro influenza sulla ricerca e il numero dei loro esperti in questo settore cresce.

La progettazione riflette naturalmente i modelli mentali, i condizionamenti culturali e comportamentali dei progettisti e quindi le AI hanno performance migliori quando si applicano a maschi bianchi che abitano negli Stati Uniti. Tutto giusto? Insomma, mica tanto…

Come designer abbiamo una responsabilità: abbiamo il dovere di tenere conto di tutti questi aspetti quando ci troviamo a progettare prodotti, servizi o sistemi che coinvolgano qualcuna di queste tecnologie.

La progettazione dovrà quindi fondarsi su 5 principi progettuali:

  • Garantire l’apertura e la completezza delle informazioni: tutte le info alla base di una scelta della AI dovranno essere rese visibili all’uomo perché possa accettare la scelta.
  • Gli esseri umani devono poter scegliere liberamente: gli esseri umani devono essere gli unici in grado di prendere scelte più importanti; la scelta finale deve essere possibile per l’uomo indipendentemente da quello che dice la macchina.
  • Creare un rapporto dialettico, collaborativo e fiduciario tra gli Umani e le AI: la fiducia si costruisce attraverso una relazione duratura e sulla base di una serie di incontri positivi: l’uomo deve poter ignorare le indicazioni dell’AI e questa si deve adeguare senza perdere, tuttavia, la loro completezza.
  • Quantificare il valore delle AI: il valore dell’AI deve essere reso tangibile per i suoi utilizzatori e quindi diventare comprensibile e accettabile (io che uso questo strumento, quanti soldi posso guadagnare?).
  • Proteggere la privacy: gli utenti devono essere sicuri di potersi fidare della loro controparte informatica. Le informazioni che si scambiano devono essere a disposizione esclusiva dell’utente e non di altri.

Le intelligenze artificiali aprono le porte a una comprensione profonda e accurata della meccanica del mondo. Resta il dilemma che già era di Faust: che fare con la conoscenza? Ma questo è un dilemma etico e non ci sono scorciatoie o automazioni: spetta tutto all’uomo.

--

--