Deep Fake: quando la sottile linea tra realtà e finzione è minacciata dall’intelligenza artificiale

Giulia Banfi
Mapping Journalism
Published in
10 min readJul 23, 2024

Qual è e quale sarà il contributo dell’intelligenza artificiale alla creazione di immagini e video sintetici. Alcune riflessioni sulle implicazioni da tenere in considerazione per garantire l’autenticità delle notizie.

di Beatrice Diletta Rossi

Negli ultimi anni la tecnologia ha giocato un ruolo di grande importanza nel mondo giornalistico, l’avvento dell’Intelligenza Artificiale grazie ai suoi algoritmi di generazione di immagini digitali e di video ha reso possibile la creazione di prodotti estremamente realistici; questi ultimi inseriti all’interno di un articolo sono fondamentali per accompagnare le notizie, soprattutto quando attraverso testimonianze oculari abbiamo la necessità di rendere chiara e coinvolgente l’informazione che stiamo trasmettendo.

Complessivamente, l’IA sta giocando un ruolo sempre più importante nel campo delle notizie, offrendo nuove possibilità per la produzione, la distribuzione e la personalizzazione dei contenuti giornalistici. Tuttavia, è importante fare attenzione all’etica e alla trasparenza nell’uso dell’IA nelle notizie, per garantire l’accuratezza e l’integrità delle informazioni riportate. Usando l’Intelligenza artificiale chiunque può creare falsi contenuti,testi e in particolar modo immagini e video. Proprio perché alla portata di tutti nasce una nuova pratica, pericolosa, manipolatoria e difficile da riconoscere che si diffonde rapidamente sul web creando scompiglio, disinformazione e panico. In questo articolo andremo a scoprire nel dettaglio il fenomeno dei Deep Fake.

I Deep Fake e la disinformazione, il report dello scienziato Todd C. Helmus

I progressi fatti dall’ informatica fino ad oggi hanno dato vita ad un mondo nuovo e altamente innovativo, quello dell’Intelligenza Artificiale, talmente dettagliato e realistico che ha inevitabilmente portato alla nascita dei “Deep Fake”. L’ intelligenza artificiale è considerata una tecnologia con molteplici applicazioni la maggior parte di queste sono attribuibili ad un campo denominato Deep Learning che viene applicato ad immagini, testi e voci alterate in modo altamente realistico. Dietro questa tecnologia complessa si cela un uso più facile e comune di quanto pensiamo, questi servizi infatti sono disponibili al pubblico, gli strumenti di deep fake hanno bassi requisiti tecnici che di solito implicano l’uso di un comune Pc di casa dotato di scheda grafica. Dunque qualunque utente domestico senza una profonda conoscenza tecnica può creare contenuti falsi che possono essere difficili da verificare.

Nel report di ricerca scientifica dello scienziato e professore Todd C. Helmus, ci viene spiegato accuratamente come questa tecnologia innovativa messa nelle mani sbagliate provochi seri pericoli all’interno della società: “Questi materiali digitali sono principalmente immagini o filmati alterati dove il volto o il corpo di una persona viene modificato digitalmente per apparire come un altro o qualcos’altro.”

Esistono diversi metodi per creare deep fake, il più comune si basa su una tecnica di scambio volti, è necessario avere prima un video di un individuo chiamato target, da usare come base per il deep fake e poi una raccolta di videoclip della persona che si vuole inserire nel target. Attraverso degli algoritmi si studiano i tratti distintivi del primo individuo, da diverse angolazioni per poi mappare quella persona sull’individuo del video di destinazione trovando caratteristiche comuni. Un altro tipo di apprendimento automatico è il GAN (Generative Adversarial Networks) che rileva e migliora eventuali difetti nel deep fake, rendendoli più difficili da riconoscere.

“Da quando Ian Goodfellow e i suoi colleghi hanno creato il software Gan i video Deep Fake sono diventati incredibilmente convincenti spopolando addirittura sulla piattaforma social Tiktok”

Prosegue Helmus, nella primavera 2021 un account Tik Tok ha rilasciato una serie di video estremamente realistici di quello che sembra essere il famoso attore statunitense Tom Cruise, video che hanno raggiunto le 15,9 milioni di visualizzazioni, causando una significativa disinformazione. Questo genere di contenuti richiede una quantità di risorse come tempo, soldi e skill non da poco. Potremmo citare altri contenuti come questo ad esempio il video deep fake di Barack Obama realizzato dall’attore Jordan Peele che ci mostra in tempo reale come sia facile cadere nella trappola di un deep fake usando il volto dell’ex Presidente degli USA.

Ma cosa succede quando proprio grazie a questi video dove la persona nello schermo non è reale ma generata con lo scopo di ingannarci ci spinge ad attuare azioni di natura illecita? È piuttosto recente la truffa avvenuta ad Hong Kong, quando dei dipendenti d’azienda hanno ricevuto dal loro direttore finanziario un email. Aprendo la casella di posta il messaggio riportava di un’operazione segreta via videoconferenza, nonostante il sospetto hanno seguito il link fornito e si sono trovati davanti al direttore finanziario e altri ospiti, presenti in quella che sembrava una riunione di lavoro da remoto, che li istruiscono nel trasferire 200 milioni di dollari di Hong Kong (25 mila dollari statunitensi), a cinque conti correnti. La truffa scoperta solo il giorno successivo era opera di un deep fake.

Una grave conseguenza di questo fenomeno di manipolazione come abbiamo visto è certamente il furto d’identità e la violazione della privacy che siano personaggi pubblici o persone comuni, i contenuti deep fake rischiano di far perdere il controllo della propria immagine e della propria reputazione, infatti possono ritrarre soggetti in situazioni spiacevoli. Come il fenomeno del “revengeporn” che attraverso contenuti ottenuti tramite intelligenza artificiale vengono diffusi materiali a sfondo sessuale che hanno un grave impatto sulla vita delle persone, tutto questo porta a gravi violazioni dei diritti personali privando le vittime di avere controllo sulle informazioni che riguardano la propria persona. Un esempio lampante è quello avvenuto nei giorni scorsi riguardante la cantante Taylor Swift vittima di un attacco online di deep fake dove diverse immagini esplicite generate con IA raffiguranti la pop star hanno fatto il giro del web e sono state visualizzate decine di milioni di volte, sul caso riporta il Guardian è intervenuta anche la portavoce della Casa Bianca, Karine Jean-Pierre definendo la situazione allarmante e che le piattaforme social devono avere la responsabilità nel prevenire la circolazione di questo tipo di contenuti.

Non solo immagini ma anche Voice Cloning

Un altra pratica molto usata nell’ambito dei Deep Fake è quella del “Voice Cloning”. Attraverso questo software di deep learning vengono realizzate delle truffe manipolando e generando file audio che sembrano realistici, con lo scopo di realizzare discorsi e dialoghi inventati imitando le voci di persone specifiche. Un esempio dell’ uso di questa pratica ci viene riportato dall’ Inghilterra dove un CEO di un’importante società energetica ha riferito di aver ricevuto una chiamata da quello che sembrava essere il suo capo, ignaro del fatto che fosse realizzato da un software di clonazione vocale. Le istruzioni erano chiare, doveva effettuare un bonifico di 220.000€ sul conto bancario di un fornitore Ungherese. Un altro tipo di truffa molto diffuso anche in italia in questo ultimo periodo è il raggiro telefonico dove ai poveri malcapitati viene richiesto da parte di uno sconosciuto un ingente somma di denaro, la scusa più comune è quella di un presunto figlio finito in prigione che necessita di soldi per pagarsi un avvocato, molto spesso le vittime sono mirate puntando ai più deboli e indifesi come gli anziani che spesso vivono da soli e sentendo una voce, un pianto così credibili si fidano ciecamente del loro truffatore.

Implicazioni etiche e sociali, l’UE ci tutela

I deep fake dunque inducono le persone in errore e diffondono disinformazione. Questo può influenzare le opinioni pubbliche, alimentare teorie del complotto e minare la fiducia nelle istituzioni. Oggi giorno i rischi effettivi che ci riguardano da vicino partono dalla sfera politica, manipolando immagini e video di figure pubbliche e politici si possono influenzare le elezioni compromettendo la capacità di prendere decisioni informate da parte dei cittadini. Le vittime di deep fake subiscono gravi danni alla reputazione sia personale che professionale a seguito dell’ invasione della privacy per la manipolazione delle immagini, anche i video di emergenze e crimini possono ostacolare il soccorso e l’applicazione della legge rendendo difficile la distinzione tra realtà e finzione. Tutto questo comporta una crisi di fiducia nei media e nel giornalismo, proprio per questo motivo abbiamo la necessità di accedere a strumenti che ci aiutino a distinguere quali contenuti sono autentici e quali manipolati.

Come cittadini abbiamo il diritto di proteggerci attraverso leggi che affrontano il problema tutelando le persone e la società stessa. È necessario agire coinvolgendo sia le istituzioni che le aziende tecnologiche, la Commissione Europea ha approvato il Digital Service Act (DSA) per contrastare l’utilizzo dei deep fake. Questo impone alle grandi compagnie tecnologiche di lottare alla diffusione di contenuti falsi sulle loro piattaforme. Hanno infatti cominciato ad utilizzare algoritmi per il rilevamento dei deep fake e la creazione di team che monitorino tali contenuti. Istituzioni ed aziende devono offrire una difesa efficace apportando un metodo tecnologico in aggiunta ad un’educazione pubblica che possa garantire un ambiente online più sicuro.

Scovare i Deep Fake in 6 passi

Anche nel nostro piccolo possiamo riconoscere i deep fake, oltre a sensibilizzare la popolazione attraverso corsi e risorse online per dare una consapevolezza maggiore di quello che vediamo sul web; come possiamo fare però a riconoscere i contenuti fake che ci circondano e sommergono quotidianamente e soprattutto come possiamo evitare la disinformazione che ne comporta?

Ecco sei semplici segnali da tenere a mente:

Attendibilità della fonte: è fondamentale riconoscere la fonte in cui l’immagine o il video viene pubblicato valutandone la reputazione.

Occhi: il movimento che viene prodotto dall’occhio umano, come lo sbattere delle ciglia o il movimento delle pupille risulta ancora difficile da realizzare per l’IA. Un movimento degli occhi innaturale può essere un segnale chiaro soprattutto perché spesso nelle immagini risultano sfocati e poco definiti.

Viso ed espressioni facciali: come detto in precedenza i deep fake sovrappongono le immagini creando quindi espressioni facciali distorte e spesso innaturali. Prestate attenzione alla texture della pelle, ad esempio se è troppo liscia o rugosa, se presenta ombre strane oppure barba e baffi anomali.

Denti e capelli: anche i denti essendo un parte del corpo molto dettagliata è spesso riconoscibile nei deep fake, solitamente i sorrisi sono strani e poco definiti. Mentre i capelli sembrano quasi sempre un oggetto unico, troppo luminosi e piatti.

Rumori o audio incoerente: quando ci troviamo davanti ad un video è importante fare attenzione all’audio e cercare di correlare il movimento delle labbra della persona che sta parlando.

Distorsioni visive: questo può essere un passaggio difficile e che spesso passa inosservato ma è di grande importanza, bisogna prestare attenzione anche ai pixel o ad eventuali oggetti fuori posto.

Il futuro dei deep fake, la grande sfida per il giornalismo

Come abbiamo potuto constatare i deep fake sono e saranno sempre una grande sfida per il giornalismo odierno e per la società, i danni causati dall’ intelligenza artificiale sono irreversibili e minano la reputazione delle persone, danneggiano carriere, spargono a macchia d’olio falsità che in pochi secondi si diffondono e coprono il mondo intero di disinformazione. In futuro dobbiamo avere la consapevolezza che questi algoritmi saranno sempre più sofisticati permettendo a chiunque di creare contenuti falsi attraverso il continuo miglioramento delle tecnologie. Per difendersi il giornalismo dovrà adottare strategie in grado di contrastare questa minaccia e dimostrare che è ancora una fonte importantissima per la società che necessita di mantenersi informata. Educando il pubblico a riconoscere i contenuti presenti sul web si riuscirà in gran parte a prevenire una buona porzione dei deep fake.

Il progresso che avviene ogni giorno ci aiuta ad affrontare la vita quotidiana ma a questo bisogna aggiungere maggiore consapevolezza e attenzione nel destreggiarsi tra le centinaia di migliaia di informazioni che ci travolgono sul web. Non possiamo riporre fiducia nel prossimo vista la facilità con la quale questi software vengono utilizzati da chiunque nella comodità di casa da un semplice portatile, siamo noi che attraverso le istituzioni, i giornalisti fonte di attendibilità e la nostra coscienza di cittadini attivi nell’ambito della lotta contro la disinformazione, i raggiri, e tutti i tipi di ingiustizia che ci circondano sul web dobbiamo affrontare con decisione le sfide che l’intelligenza artificiale ci sottoporrà rimanendo affianco del giornalismo usandolo come faro e non temendolo perché sarà l’unico a fare luce nell’oscurità del deep web.

Riferimenti utili

Todd C. Helmus. (2022, 1 luglio). Artificial Intelligence, Deepfakes, and Disinformation: A Primer. RAND Corporation https://www.jstor.org/stable/resrep42027?mag=artificial-intelligence-and-education-a-reading-list&typeAccessWorkflow=login&seq=3

Stamatis Karnouskos. (2020, 24 giugno). Artificial Intelligence in Digital Media: The Era of Deepfakes. IEEE Transactions on Technology and Society ( Volume: 1, Issue: 3, September 2020)

https://ieeexplore.ieee.org/abstract/document/9123958

Bernard Marr. (2024, 20 marzo). Will all content soon be fake?. Forbes.

https://www.forbes.com/sites/bernardmarr/2024/03/20/will-all-content-soon-be-fake/?sh=632fcdff5236

Missiaggia, M. L. (2024, 23 febbraio). Deepfake, come riconoscere la minaccia e tutelare gli utenti. Huffpost. https://www.huffingtonpost.it/blog/2024/02/23/news/come_comprendere_la_minaccia_e_proteggersi_dal_pericolo_dei_deepfake-15204913/

Sky TG24. (2024, 29 gennaio). Foto hard Deepfake di Taylor Swift su X, allarme sui rischi dell’IA. News: ultime notizie di oggi e ultima ora. Sky TG24. https://tg24.sky.it/tecnologia/2024/01/29/taylor-swift-ai-foto

Immagini e video:

CNN. No, Tom Cruise isn’t on TikTok. It’s a deep fake. CNN Business

https://edition.cnn.com/videos/business/2021/03/02/tom-cruise-tiktok-deepfake-orig.cnn-business

BuzzFeed. (2018,17 aprile). You Won’t Believe What Obama Says In This Video!. BuzzFeedVideo

https://youtu.be/cQ54GDm1eL0?si=18Bn8cgtkKVnj8sk

Velia Alvich. (2024, 7 febbraio). La truffa dell’anno: creano un clone deepfake del suo capo e lo convincono a versare 25 milioni di dollari. Corriere della sera. https://www.corriere.it/tecnologia/24_febbraio_07/la-truffa-dell-anno-creano-un-clone-deepfake-del-suo-capo-e-lo-convincono-a-versare-25-milioni-di-dollari-fcb62466-31eb-421a-93be-79b935d2dxlk.shtml

Francesco Munafò. (2023, 03 ottobre). “Tuo figlio è in arresto!”, ma è solo una truffa. Giornale la voce. https://www.giornalelavoce.it/news/cronaca/537105/tuo-figlio-e-in-arresto-ma-e-solo-una-truffa.html

Luigi Campaniello. (2024, 27 febbraio). DIGITAL SERVICES ACT, COS’È E COSA STA CAMBIANDO. Mondo Privacy. https://mondoprivacy.it/blog/digital-services-act/digital-services-act/

--

--

Giulia Banfi
Mapping Journalism

PhD Student @Unife. Studio la società, analizzando i processi comunicativi e la transizione digitale della PA ✏️ Credo in un’innovazione sociale accessibile.