L’impatto dell’intelligenza artificiale sul giornalismo

Giulia Banfi
Mapping Journalism
Published in
14 min readJul 16, 2024

Negli ultimi decenni, il giornalismo ha attraversato una serie di cambiamenti sempre più rapidi e ravvicinati. L’intelligenza artificiale ha già rivoluzionato il modo di fruizione delle notizie, e ora sta trasformando anche il modo in cui vengono scritte. Queste tecnologie hanno forse il potenziale di cambiare il giornalismo in modo più significativo di qualsiasi altra tecnologia precedente. Tuttavia, è difficile prevedere se questo cambiamento avrà più effetti positivi o negativi. Ciò che è certo è che sta avvenendo in un momento di particolare fragilità per il settore giornalistico.

di Alessio Colognesi

Cosa sono le intelligenze artificiali?

Ultimamente si parla molto di intelligenza artificiale, ma esattamente cos’è?

L’intelligenza artificiale (IA) è l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. L’intelligenza artificiale permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepisce, risolvere problemi e agire verso un obiettivo specifico.”[1]

Figura 1 — Schema riassuntivo della differenza fra Narrow AI e General AI, le due principali macrocategorie di intelligenze artificiali.

Questa definizione è vaga e teorica, ma nella pratica esistono varie tipologie di IA con strutture e obiettivi diversi. Le più diffuse sono le “narrow AI” (IA ristrette) che eseguono attività specifiche, senza ulteriori capacità di apprendimento, come il riconoscimento delle immagini, i processori del linguaggio naturale, i generatori di immagini, così come Siri, l’assistente Google e Alexa [2].

Le IA che consigliano notizie

L’applicazione più comune dell’IA nel mondo dell’informazione sono i recommendation systems (RS), algoritmi che consigliano all’utente prodotti, video e contenuti, attraverso un sistema di machine learning. Questi algoritmi tengono traccia delle azioni dell’utente e le comparano ad esempio con quelle di altri utenti, alla posizione geografica e all’ora del giorno. Grazie a questi fattori sono in grado di apprendere le preferenze dell’utente e produrre suggerimenti sempre più precisi al fine di migliorare l’esperienza sulla piattaforma.

Guardando dal punto di vista della fruizione delle notizie, questi reccomandation systems hanno fatto diminuire la propensione alla ricerca individuale delle informazioni, specialmente fra i più giovani [3]. La maggior parte dei giovani, infatti, sembra non ricerchi attivamente le notizie, ma sia più passiva nei confronti dell’informazione, facendo spesso affidamento ai social media per tenersi aggiornati [3]. Questa passività può portare a una crescita delle filter bubbles: ovvero quando a un utente vengono proposte solamente informazioni in linea con il proprio pensiero e che lo spingano a interagire con la piattaforma (ad esempio anche notizie ideologicamente caricate allo spettro ideologico opposto all’utente per fargli avere una risposta emotiva e quindi interagire [7]) con il rischio di minare la pluralità dell’informazione e lo sviluppo del pensiero critico dell’individuo.

Ciò avviene perché i RS sono progettati con il ruolo primario di intrattenere l’utente il più possibile, non di informarlo correttamente, in modo da farlo rimanere all’interno della piattaforma il più possibile e possa quindi vedere più pubblicità e di conseguenza aumentare i ricavi dell’azienda proprietaria [9].

Questi algoritmi, insieme alla necessaria semplificazione richiesta per attirare l’attenzione sulle piattaforme social, porteranno sempre a un’informazione fortemente polarizzata, che attiri l’utente, gli dia un quadro rapido, ma molto spesso incompleto, della situazione e lo porti poi a interagire o condividere, facendo così in modo che l’algoritmo lo riproponga ancora ad altre persone.

Bisogna però dire che non per tutti i ricercatori il quadro è così cupo. Sembra infatti che diversi ritengano che la posizione ideologica di un individuo (specialmente se estrema) influisca di più nel rifiutare visioni diverse dalla propria [3].

Figura 2 — Numero di intervistati che hanno espresso la loro opinione riguardo: a. Accettabilità sulla personalizzazione dei servizi; b. Accettabilità sull’uso dell’informazione per la personalizzazione; c. Accettabilità sul raccoglimento dei dati.[4]

Uno dei problemi delle IA nel consiglio dei contenuti è la poca trasparenza. Da un lato verso gli utenti, molto spesso non consapevoli che i loro dati vengano utilizzati sia per proporre loro pubblicità mirata (ad esempio utilizzando anche fattori come l’etnia), che per ricevere messaggi politici personalizzati durante le campagne elettorali [4]. Dall’altro, la mancanza di accesso a questi dati impedisce la ricerca su come questi sistemi influenzano il sistema democratico [5].

Questo nuovo ambiente informativo, alimentato dai sistemi di raccomandazione, è stato il terreno fertile per l’espansione delle fake news. Basti pensare alla diffusione di campagne di disinformazione durante la Brexit, e le elezioni americane del 2016, oltre che all’aumento di teorie complottistiche come il terrapiattismo o riguardo la campagna vaccinale per il Covid-19 [4]. Anche se la disinformazione è un problema di lunga data, i sistemi di intelligenza artificiale presenti nell’attuale ecosistema digitale contribuiscono principalmente all’aggravarsi del problema in due modi. In primo luogo, possono essere sfruttati da soggetti malintenzionati per manipolare le persone in modo particolarmente efficace e su larga scala, inoltre possono amplificare direttamente la diffusione di tali contenuti. I RS sono infatti programmati per aumentare l’interazione senza che sia considerata la veridicità del contenuto, di conseguenza il principale fattore che contribuisce alla diffusione della disinformazione è più legato al modello di business dei social media e del web più che ai sistemi di raccomandazione in quanto tali [5].

Figura 3 — Esempio di un’intelligenza artificiale che è in grado di riconoscere se un testo sia stato creato usando un Chatbot.

In reazione a tutti gli effetti negativi della disinformazione sulla società, e in particolare nel contesto della pandemia da Covid-19, i social media e i motori di ricerca sono stati sempre più chiamati ad agire contro la diffusione della disinformazione online [5]. Questo anche grazie all’uso delle IA che possono identificare contenuti su temi sensibili (come i banner su Facebook o YouTube riguardo al Covid-19) e alle IA progettate per rilevare contenuti falsi generati da altre IA. Il problema di queste ultime è che sono legate a una singola architettura, e richiedono quindi l’utilizzo in una singola piattaforma (ad esempio social) di più IA contemporaneamente, con il rischio che comunque fatichino a stare al passo degli sviluppi delle IA in grado di creare contenuti [13].

Per quanto possano rivelarsi degli ottimi alleati contro la diffusione delle fake news, la disinformazione rimane un problema endemico dei social network e della loro struttura. Risulta quindi ancora più importante che i cittadini sviluppino un’adeguata conoscenza sui meccanismi di funzionamento dei RS, su come vengano utilizzati i loro dati personali e sulle potenzialità delle IA nella creazione e diffusione di informazioni false [5].

Figura 4 — Homepage di Google News.

Un altro utilizzo degli algoritmi di consiglio per quanto riguarda il giornalismo lo si ritrova negli aggregatori di notizie. Questi sono siti o app nelle quali si possono scegliere determinati argomenti che si prediligono e un algoritmo fornirà articoli di testate diverse suddivise in diverse categorie. Gli aggregatori di notizie (come Google News, Yahoo News e Flipboard) utilizzano sistemi di raccomandazione che selezionano gli articoli da fornire all’utente basandosi sia su quanto da lui espressamente richiesto che dai suoi dati personali e sulle abitudini di lettura. Il loro impatto più dannoso sul mondo dell’informazione è rendere ancora più competitiva la ricerca dell’attenzione del lettore da parte delle varie testate, che con gli introiti ridotti delle pubblicità nelle versioni online, alimentano uno stile di giornalismo sensazionalista, polarizzato e con scarse risorse per la creazione di approfondimenti e articoli d’inchiesta.

Le IA che scrivono notizie

Non si è ancora fatto riferimento a un’altra sottocategoria delle “narrow AI”, ovvero le IA generative. Queste sono “un tipo di Intelligenza Artificiale che utilizza algoritmi di Machine Learning per generare nuovi contenuti che in precedenza si basavano sulla creatività dell’uomo. Questi contenuti possono essere ad esempio testo, audio, immagini, video e codice informatico” [6].

Il primo problema di questo tipo di IA per quanto riguarda l’informazione è che gli esempi più famosi (ChatGPT, MidJourney, …) non nascono con l’obiettivo di diventare fonti affidabili di informazione [9]. Le IA generative possono, infatti, generare delle risposte che contengono informazioni false o fuorvianti presentate come vere, dette allucinazioni, e queste possono dipendere sia dai dati su cui fanno affidamento che dal modo in cui sono state addestrate.

Figura 5 — Esempio di allucinazione: richiesta a ChatGPT di quale sia il record mondiale di attraversamento del canale della manica a piedi.

In un esperimento si è provato a fare domande relativamente alla campagna elettorale europea (2024) ad alcuni dei Chatbot più diffusi [8]. Il risultato è che molto spesso questi sono incostanti nel dare delle risposte pertinenti, a volte non rispondendo, altre volte dando informazioni parziali, altre volte con informazioni in parte o completamente false. Si è visto inoltre come in alcune lingue il margine di risposte sia più corretto rispetto ad altre [8][9], un altro problema di queste tecnologie in un ambiente democratico plurilinguista come quello dell’Unione Europea.

L’UE è stata anche molto veloce a legiferare riguardo alle IA, facendo da apripista alla discussione delle tematiche collegate a un uso non regolato di queste tecnologie. L’UE AI Act ne limita alcuni possibili impieghi in campo privato, come la possibilità di distinguere individui sulla base dei loro dati biometrici o di creare modelli di social ranking come quelli già presenti in Cina. Mentre per quanto riguarda le IA generative obbliga le aziende produttrici a dover rendere pubblici i modelli di addestramento utilizzati, questo per poter far rispettare le leggi sul diritto d’autore europee. Ci sarà, inoltre, un obbligo dell’inserimento di watermark (filigrana) per poter distinguere i contenuti creati da IA da quelli creati da esseri umani.

Figura 6 — Esempio di Watermark.

Queste nuove IA in grado di generare contenuti possono però essere sfruttate insieme ai sistemi di raccomandazione. Sono diversi gli esperimenti e in futuro potranno essere forse l’applicazione più rilevante delle IA nella fruizione di notizie. Una prova di raccoglitore di notizie con l’utilizzo di un’IA generativa è stato Artifact, un aggregatore di notizie che riassumeva articoli nell’ambito tecnologico, ma che ha chiuso nel giro di qualche mese per essere poi essere successivamente integrato in Yahoo News. Ritorna quindi anche in questo caso il problema delle filter bubbles, con un’IA che può essere su misura per l’utente, in questo caso oltre che selezionando i contenuti, anche trasponendoli creando un testo derivante ma indipendente dalle sue fonti, e rischiando quindi ancora di più di limitare la diversità dell’informazione ricevuta dall’utente.

Gli impatti a lungo termine delle IA nel giornalismo

Le IA stanno già avendo un grande impatto nel mondo del giornalismo e dell’informazione, sia nella produzione che la fruizione, ma sono ancora molti i modi in cui potrebbero cambiare l’ecosistema informativo. Molte redazioni sperimentano già da anni con IA per vari applicativi: dal raccoglimento di dati (ad esempio attraverso sistemi che riescano a rilevare nuovi eventi che vengono caricati sui social prima di raggiungere fonti ufficiali), al fact-checking, allo scrivere brevi articoli che aggiornino sui risultati e le statistiche di una partita di hockey [10].

Questo potrebbe portare a due differenti percorsi di sviluppo. Da un lato potrebbe far ritornare a un ruolo più investigativo del giornalista, che non dovendo più limitarsi al dover riportare le notizie delle agenzie stampa, sarebbe in grado di dedicarsi maggiormente al giornalismo d’inchiesta, sfruttando le IA per ottenere dati, analizzarne la correttezza e rendere più fruibile l’articolo [13]. Dall’altro potrebbe infliggere un ulteriore colpo al settore giornalistico, portando a un nuovo ridimensionamento delle redazioni (negli Stati Uniti, più di un quarto dei posti di lavoro nelle redazioni è stato perso tra il 2008 e il 2020 [10]) e a una maggiore automazione del settore.

Un nuovo modo sperimentale di fare giornalismo per cercare di sfruttare maggiormente le caratteristiche dei media digitali e delle IA è stato provato dalla BBC con l’atomised news [11]. Per atomizzazione (atomised), in questo caso, si fa riferimento a una notizia che viene divisa in “atomi” (o oggetti, unità) di informazioni, che possono poi essere ricombinati dagli algoritmi per creare notizie adattabili all’utilizzo dell’utente [11]. Questo sistema prevede che invece della scrittura di articoli interi, il giornalista scriva dei brevi tagli di notizie e li etichetti con dei tag (è stato sperimentato anche con un formato video, caricando brevi video lunghi 15 secondi l’uno con una breve didascalia).

Figura 7 — Schema dei vari modi in cui si potrebbe comporre un flusso di notizie nell’esperimento della BBC sull’atomised journalism.

Attraverso questi tag l’algoritmo di consiglio raccomanda un’altra breve notizia collegata a quella che stai attualmente leggendo. L’esperimento sembra aver dato i risultati sperati, portando maggiore coinvolgimento specialmente fra i più giovani [11]. Per i giornalisti potrebbe quindi cambiare lo stesso modo di scrittura degli articoli, potendosi trovare a scrivere articoli più brevi e diretti alla macchina più che al pubblico direttamente.

Le potenzialità delle IA potrebbero però non essere accessibili a tutte le testate allo stesso modo [12]. Anzitutto per il costo che avrebbe un software di questo tipo personalizzato per una singola testata. Ma anche utilizzando soluzioni di terze parti rimarrebbe il problema di una potenziale grande influenza da parte di alcune grandi aziende tecnologiche. I costi per la creazione di IA stanno già aumentando, e molte startup stanno fallendo o venendo acquistate dai colossi della Big Tech come Microsoft, Google o Amazon.

Il rischio in questo caso sarebbe, oltre a un potenziale oligopolio su queste tecnologie, la possibilità concreta di un’informazione parziale. Se i dati utilizzati per addestrare le IA non saranno resi pubblici o controllabili, come possiamo garantire che un’IA sviluppata da un’azienda non scriva articoli faziosi in caso di scandali interni, o che adotti un tono meno imparziale nei loro stessi lanci d’agenzia? Inoltre, con la consapevolezza che il linguaggio non possa essere oggettivo, come si esprimeranno queste IA? [14] Come potrebbero scrivere articoli su tematiche particolarmente complesse o divisive? Quali dati verranno quindi utilizzati e perché? Inoltre, attualmente queste IA sono addestrate principalmente su modelli di stampo occidentale, come potranno adattarsi a diverse culture e sensibilità?

Conclusioni

Le IA stanno avendo già da anni un impatto sull’informazione, principalmente attraverso algoritmi che propongono notizie all’utente, sia in base alle sue interazioni nella piattaforma che confrontando i suoi dati con quelli di altri utenti. Più recentemente, invece, hanno attirato molto l’attenzione le IA generative: queste sono in grado di produrre un contenuto a partire da una richiesta dell’utente. Questo ha sollevato diversi dubbi e preoccupazioni sia nel pubblico generale che nei professionisti dell’informazione. Saranno sicuramente necessarie maggiori regolamentazioni per le IA: dall’ottenimento dei dati necessari per il loro addestramento (affinché vengano usati dati controllati e veritieri, per proteggere la privacy degli utenti e per poter tutelare il diritto d’autore dei contenuti usati come modelli all’insaputa dei creatori) a watermark per la diffusione di contenuti prodotti da queste IA sui social, come già proposto dall’EU IA act.

Il rischio nel mentre è che il pubblico perda fiducia nel giornalismo, trovandosi sempre di più a informarsi da fonti esterne all’industria giornalistica. Questo darebbe ancora più potere nelle mani delle poche aziende che gestiscono il flusso di informazioni attraverso i RS, sia nel caso dei social che per gli aggregatori di notizie. Questi ultimi che potrebbero anche essere potenziati dalla possibilità di riassumere le notizie provenienti da varie fonti attraverso IA generative che possano trascrivere o leggere riassunti delle notizie.

Per il futuro quindi si prospetta un altro cambiamento per il giornalismo, che ne sta affrontando sempre più di frequente e fatica a riottenere la rilevanza che aveva un tempo. L’impatto potrebbe essere sia nocivo che positivo. Da un lato porterà probabilmente a una diminuzione ulteriore delle redazioni, potendo automatizzare molte più parti della produzione di notizie, specialmente quelle brevi o dipendenti dai lanci di agenzia. Dall’altro si spera che possa portare a un ritorno del giornalismo investigativo, che beneficerebbe delle IA, ad esempio, per l’ottenimento di dati e il fact-checking.

Potrebbe, però, anche cambiare completamente il modo di scrivere per i giornalisti, che potrebbero doversi concentrare sul riportare notizie affinché siano poi riordinate dall’IA, in un’atomizzazione del giornalismo con notizie e informazioni collegate fra loro in modo personalizzato per l’utente.

Se osserviamo il progresso con ottimismo, la crisi di sfiducia nel giornalismo potrebbe essere affrontata mediante la produzione di giornalismo di qualità grazie alle IA. Tuttavia, anche abbracciando questa visione non si negherebbe del tutto la possibilità che si sviluppino altre problematiche, poiché più legate all’attuale sistema economico del panorama mediatico piuttosto che dipendenti dalle soluzioni tecnologiche come le IA.

Riferimenti utili

· Fonti:

[1] Che cos’è l’intelligenza artificiale? | Tematiche | Parlamento europeo. (2020, March 9). Tematiche | Parlamento Europeo. https://www.europarl.europa.eu/topics/it/article/20200827STO85804/

[2] Innovation, R. O. D. (2023, October 23). Intelligenza Artificiale, significato e applicazioni dell’AI. https://blog.osservatori.net/it_it/intelligenza-artificiale-funzionamento-applicazioni

[3] Eg, R., Tønnesen, Ö. D., & Tennfjord, M. K. (2023). A scoping review of personalized user experiences on social media: The interplay between algorithms and human factors. Computers in Human Behavior Reports, 9, 100253. https://doi.org/10.1016/j.chbr.2022.10025

[4] Kozyreva, A., Lorenz-Spreen, P., Hertwig, R., Lewandowsky, S., & Herzog, S. M. (2021). Public attitudes towards algorithmic personalization and use of personal data online: evidence from Germany, Great Britain, and the United States. Humanities & Social Sciences Communications, 8(1). https://doi.org/10.1057/s41599-021-00787-w

[5] Bontridder, N., & Poullet, Y. (2021). The role of artificial intelligence in disinformation. Data & Policy, 3, e32. doi:10.1017/dap.2021.20

[6] Negri, C. (2024, May 14). Come funziona l’AI generativa: significato e applicazioni. Osservatori Digital Innovation. https://blog.osservatori.net/it_it/come-funziona-ai-generativa-significato-applicazioni

[7] Milli, S., Carroll, M., Pandey, S., Wang, Y., & Dragan, A. D. (2023). Engagement, user satisfaction, and the amplification of divisive content on social media. arXiv (Cornell University). https://doi.org/10.48550/arxiv.2305.16941

[8] Are chatbots misinforming us about the European elections? Yes. | Democracy Reporting International. (2024, November 4). https://democracy-reporting.org/en/office/global/publications/chatbot-audit

[9] Bontcheva, K., Papadopoulous, S., Tsalakanidou, F., Gallotti, R., Dutkiewicz, L., Krack, N., Nucci, F. S., Spangenberg, J., Srba, I., & Verdoliva, L. (2024). Generative AI and Disinformation: Recent Advances, Challenges, and Opportunities. Fraunhofer-Gesellschaft. https://doi.org/10.24406/publica-2761

[10] Opdahl, A. L., Tessem, B., Dang-Nguyen, D., Motta, E., Setty, V., Throndsen, E., Tverberg, A., & Trattner, C. (2023). Trustworthy journalism through AI. Data & Knowledge Engineering, 146, 102182. https://doi.org/10.1016/j.datak.2023.102182

[11] Elastic News — skimming and digging using atomised content. (2017, December 24). BBC R&D. https://www.bbc.co.uk/rd/blog/2015-09-elastic-news-on-a-mobile

[12] De-Lima-Santos, M., & Ceron, W. (2021). Artificial intelligence in news media: current perceptions and future outlook. Journalism and Media, 3(1), 13–26. https://doi.org/10.3390/journalmedia3010002

[13] Noain-Sánchez, A. (2022). Addressing the Impact of Artificial Intelligence on Journalism: the perception of experts, journalists and academics. Communication & Society, 35(3), 105–121. https://doi.org/10.15581/003.35.3.105-121

[14] How large language models will transform science, society, and AI. (2021, February 5). Stanford HAI. https://hai.stanford.edu/news/how-large-language-models-will-transform-science-society-and-ai

· Approfondimenti (collegamenti ipertestuali):

Granata, P. (2023, November 30). Intelligenza Artificiale: un’occhiata alle sue tre tipologie e alle loro possibili implicazioni future. DeltalogiX. https://deltalogix.blog/2023/03/08/intelligenza-artificiale-unocchiata-alle-sue-tre-tipologie-e-alle-loro-possibili-implicazioni-future/

What is a Recommendation System? (n.d.-c). NVIDIA Data Science Glossary. https://www.nvidia.com/en-us/glossary/recommendation-system/

filter bubble — Treccani — Treccani. (n.d.). Treccani. https://www.treccani.it/vocabolario/filter-bubble_res-b92bdbdc-89c2-11e8-a7cb-00271042e8d9_(Neologismi)/

Ferrario, C. (2022, November 21). Cos’è il machine learning, com’è nato e alcuni esempi delle sue applicazioni. Geopop. https://www.geopop.it/cose-il-machine-learning-esempi/

Negri, C. (2024, May 14). Come funziona l’AI generativa: significato e applicazioni. Osservatori Digital Innovation. https://blog.osservatori.net/it_it/come-funziona-ai-generativa-significato-applicazioni

Ansa, A. (2024, January 15). Chiude Artifact, l’app di notizie basata sull’IA — Software e App — Ansa.it. Agenzia ANSA. https://www.ansa.it/canale_tecnologia/notizie/software_app/2024/01/15/chiude-artifact-lapp-di-notizie-basata-sullia_3769ad08-4290-4d74-8135-2bfd32dd352c.html

High-level summary of the AI Act | EU Artificial Intelligence Act. (n.d.). https://artificialintelligenceact.eu/high-level-summary/

Fontana, A. (2023, June 10). Anche l’intelligenza artificiale può avere le allucinazioni. Wired Italia. https://www.wired.it/article/intelligenza-artificiale-allucinazioni-cause-conseguenze/

L’entusiasmo per le intelligenze artificiali si sta un po’ stemperando. (2024, April 10). Il Post. https://www.ilpost.it/2024/04/10/intelligenze-artificiali-rallentamento/?homepagePosition=3

· Immagini:

Figura 1 — Dario. (2022, January 5). Artificial intelligence: How to Harness it to Improve insurance compliance. SmartCompliance. https://smartcompliance.co/blog/artificial-intelligence-improve-compliance

Figura 2 — Kozyreva, A., Lorenz-Spreen, P., Hertwig, R., Lewandowsky, S., & Herzog, S. M. (2021). Public attitudes towards algorithmic personalization and use of personal data online: evidence from Germany, Great Britain, and the United States. Humanities & Social Sciences Communications, 8(1). https://doi.org/10.1057/s41599-021-00787-w

Figura 3 — https://contentatscale.ai/ai-content-detector/

Figura 4 — https://news.google.com/home

Figura 5 — Bordoloi, S. K. (2023, February 8). The hilarious & horrifying hallucinations of AI. Sify. https://www.sify.com/ai-analytics/the-hilarious-and-horrifying-hallucinations-of-ai/

Figura 6 — Giglioli, S. (2013, February 8). L’azione del watermark protegge la tua opera d’ingegno! FotografiaProfessionale.it. https://www.fotografiaprofessionale.it/lazione-del-watermark-protegge-la-tua-opera-dingegno

Figura 7 — Elastic News — skimming and digging using atomised content. (2017, December 24). BBC R&D. https://www.bbc.co.uk/rd/blog/2015-09-elastic-news-on-a-mobile

--

--

Giulia Banfi
Mapping Journalism

PhD Student @Unife. Studio la società, analizzando i processi comunicativi e la transizione digitale della PA ✏️ Credo in un’innovazione sociale accessibile.