Un’Intelligenza Artificiale crea un Obama perfettamente funzionante

Un algoritmo creato all’Università di Washington è in grado di simulare espressioni e mimica facciale: si aprono le porte alle fake news

Qual è il vero Obama?

Immagina di aprire YouTube, digitare “Barack Obama intervista”, e il primo risultato che ti appare è un filmato dell’Ex-Presidente degli Stati Uniti che si congratula con Putin per l’invasione dell’Ucraina, dice che l’Unione Europea non è un partner affidabile oppure si prende gioco di Kim Jong Un per le dimensioni del suo razzo.

Il tuo primo pensiero dovrebbe essere: “Cosa ho appena visto?”

Andiamo per gradi. L’Intelligenza Artificiale permette di raccogliere tantissimi dati, di elaborarli e di ottenere un risultato eccellente nel giro di pochi secondi. I ricercatori dell’Università di Washington, hanno pensato di creare dei sosia digitali di personalità conosciute, come Tom Hanks o Arnold Schwarzenegger, ma alla fine hanno deciso di creare l’alter-ego di un personaggio pubblico di cui sono disponibili tonnellate di video in alta definizione: Barack Obama.

L’AI ha analizzato le espressioni facciali e le movenze dell’ex-presidente. I numerosi filmati sono stati inseriti all’interno di una rete neurale che ha creato una sorta di mappatura che delinea le corrispondenze tra parole ed espressioni. I ricercatori hanno così creato un Obama del tutto funzionante, a cui hanno fatto ripetere svariati discorsi, tra cui alcune interviste che ha realizzato quando era solo uno studente. Il risultato è del tutto uguale all’originale.

Questa tecnologia sarebbe stata molto utile a Robert Zemeckis nel 1994, quando ha dovuto far interagire Forrest Gump nell’omonimo film, con personaggi come John Lennon o Kennedy. Al posto di una faticosa ricerca di filmati originali, con scarsa definizione, e di un lavoro immane di editing e morphing, Zemeckis avrebbe semplicemente dovuto lanciare un software.

I ricercatori stessi hanno pensato che questa tecnologia potrebbe migliorare le conferenze in videochiamata: i partecipanti dovrebbero quindi solo inviare dell’audio, che ha una quantità minore di dati rispetto al video, mentre l’AI potrà simulare il loro volto, rendendo la comunicazione più fluida senza spiacevoli effetti di freeze.

Questo è il lato buono della medaglia, ma esiste anche un rovescio.

Se l’AI è utile per poterci alleggerire molti compiti, la sua potenza di calcolo potrebbe essere utilizzata per scopi criminali. A fine Maggio del 2016, Federico Pistono e Roman V. Yampolskiy avevano pubblicato una “ricerca poco etica”: come creare un’intelligenza artificiale maligna (MAI — da Malevolent Artificial Intelligence). Una MAI potrebbe ad esempio sapere come degli osservatori internazionali analizzino una determinata questione, dalle emissioni del motore di un automobile alle elezioni democratiche, per poter rivelare dei dati credibili quando invece la realtà è tutt’altra. Nel caso invece di falle legislative, una MAI potrebbe facilmente cercare e contattare chi è più facilmente corruttibile per poter violare determinate leggi. Un ulteriore scenario proposto è quello dei colpi di Stato, messi in moto da informazioni false. Ed è a questo punto che ritorniamo alla nostra ricerca su YouTube.

Utilizzando un software come quello dell’Università di Washington, insieme ad altri programmi basati su AI in grado di risintetizzare la voce umana, come Lyrebird, potremmo far dire quello che (non) vogliamo a funzionari pubblici, presidenti, intellettuali; creare una valanga di notizie false per smuovere gli animi dei più scettici; e, per chi è abbastanza perverso da giocare pesante, creare finte organizzazioni terroristiche per unire popolazioni democratiche sotto la bandiera totalitaria della “paura del nemico”.

AI sempre, MAI… mai!

A detta dell’Università di Washington, è possibile riconoscere i video “finti”: ad esempio alcune parti, come i denti di Obama, sono a tratti un po’sfocati. Un osservatore umano potrebbe essere ingannato, ma si potrebbe creare un’AI che invece controlli se il video è vero o artificiale.
Inoltre, i video creati artificialmente sono riconoscibile dal fatto che la figura creata dall’AI non ha emozioni correlate al contenuto del suo discorso.
Non è però da escludere che un gruppo criminale perfezioni l’intelligenza artificiale in maniera tale da creare immagini sempre più fedeli, oppure che possa creare una MAI che nasconda opportunamente i punti da controllare, come detto prima.
Altre ricerche nel campo potrebbero poi risolvere la correlazione emozioni-contenuto, facendo in modo che un presidente generato artificialmente possa assumere una cera autorevole mentre dichiara guerra a questa o quest’altra Nazione, o si congratuli dei successi del proprio Stato mostrando un po’ di entusiasmo.

Pistono e Yampolskiy indicano l’Open Source come via d’uscita: se tutti avessero possibilità di contribuire alla costruzione di un’AI, ci sarebbero più occhi che controllano, ma soprattutto più persone da convincere sul come utilizzare un determinato algoritmo. Un esempio di intelligenza artificiale completamente open è OpenAI, di Elon Musk.
D’altra parte le stesse Nazioni Unite potrebbero inaugurare un Gruppo di Supervisione che possa garantire la benevolenza delle intelligenze artificiali.

Se il potere corrompe, e se il potere assoluto corrompe in maniera assoluta, allora è anche vero che il libero accesso alla tecnologia da parte di noi utenti e l’attiva partecipazione a progetti open source potrà fare in modo che i pochi “cattivi” non possano mai creare una MAI tanto efficace da convincerci a seguire i suoi scopi.

In fin dei conti, piuttosto che ascoltare le provocazioni di un Obama un po’arrabbiato, lo preferiamo come prossimo Face Filter di Instagram.

VISIONARI è un network di imprenditori, scienziati, artisti, scrittori e changemakers che pensano e agiscono al di fuori degli schemi.
Puoi fare domanda per entrare qui: https://bit.ly/visionari-entra

--

--

ad astra
VISIONARI | Scienza e tecnologia al servizio delle persone

Per diventare socio, partecipare ai nostri eventi e attività, o fare una donazione visita: https://visionari.org