Anche l’IA ha pregiudizi? BIAS nell’intelligenza artificiale, una questione ancora nell’ombra

Giulia Banfi
Mapping Journalism
Published in
10 min readJul 15, 2024

Cosa sono i bias dell’intelligenza artificiale? E come possiamo identificarli e ridurli? Le importanti questioni che il giornalismo del presente e del futuro deve porsi se vuole introdurre sistemi di intelligenza artificiale nell’attività di scrittura e ricerca.

di Gaia Mascellani

L’impatto dell’intelligenza artificiale (IA) sta rivoluzionando diversi aspetti della nostra vita quotidiana, tra cui salute, sicurezza e sicuramente la fruizione delle informazioni. Purtroppo, i benefici apportati da questi avanzamenti vanno di pari passo con una crescente preoccupazione riguardo l’aspetto etico di tali sistemi: soprattutto quelli discriminanti perpetrati nell’IA, non più solo in modo casuale, ma volontari, i quali sembrerebbero fare da “copia e incolla” alle dinamiche sociali umane, rendendo l’intelligenza artificiale meno intelligente.

L’intelligenza artificiale si occupa di studiare come realizzare dei sistemi informatici che emulino il più fedelmente possibile il ragionamento umano. Sempre più popolare negli ultimi anni, l’IA promette rivoluzioni e migliorie in molti settori, a partire dal suo ruolo in diversi sistemi e infrastrutture sociali, reso noto nell’articolo Della Porta, M. R. (28 Settembre 2022). L’intelligenza artificiale a supporto del settore sanitario: i sei principi dell’Oms, fino ad arrivare a influenzare in parte anche la nostra routine, abitudini e preferenze, ne è un esempio ChatGPT, IA per la comunicazione.

fonte immagine: https://pin.it/gMJOVQ3WG

Diventa perciò molto importante riconoscerne i rischi e le criticità, come i “bias cognitivi”, ovvero i pregiudizi, che questa tecnologia può a volte presentare come “falla” nel sistema e sulle conseguenze che potrebbero derivare dal suo utilizzo.

Cosa sono i bias e come funzionano sull’IA?

Cosa sono esattamente i bias cognitivi in ambito umano? Brevemente in psicologia sono delle distorsioni cognitive, create da dei pattern di deviazione dalla razionalità, sono essenzialmente pregiudizi che non corrispondono all’evidenza.

Come abbiamo visto, l’Intelligenza Artificiale fa ormai parte della molteplicità delle dinamiche quotidiane e sociali, quest’ultima ha le sue fondamenta sul cosiddetto Machine Learning e Deep Learning cioè sull’apprendimento automatico. Il problema si pone, quando il campione dati, su cui l’intero meccanismo fa affidamento, risulta essere compromesso e distorto (da qui biased) da cui nasce il bias che genera l’automazione nella discriminazione, fondato sulla discriminazione di genere, razza, cultura. Per fare un esempio concreto, nell’articolo qui riportato vengono illustrati i 4 principali esempi di bias cognitivi nell’IA: George Denison (24 Ottobre, 2023) 4 shocking AI bias examples | Prolific.

Questo si diffonde successivamente nelle dinamiche tecniche, così da rendere questa tecnologia inefficace e pericolosa. Questo perché essa si basa su algoritmi che riflettono i preconcetti dei loro stessi creatori, ma che alla fine risultano come imprevisti non calcolati. Da qui viene meno la tesi sull’imparzialità delle macchine e sulla loro affidabilità, come illustrato nell’articolo di Ragazzi, D. (14 Giugno, 2023), Il ruolo dei dati per una intelligenza artificiale equa e imparziale. Agenda Digitale.

Tutto parte perciò dall’algoritmo e dalle interconnessioni con una vastissima quantità di dati che, affidandosi all’apprendimento automatico, consentono di costruire reti neurali. Le reti neurali dell’IA sono complesse formule matematiche che imitano il funzionamento del cervello umano, ma che ancora oggi nascondono un lato nell’ombra che non riusciamo ancora a scorgere. Tutto quello che sappiamo è che le tecnologie attuali non ci consentono di capire cosa avvenga nelle fasi di lavorazione dei dati, ma ci permettono soltanto di sapere che a fronte di un determinato input otterremo un risultato.

Casi emblematici di biased IA

Nell’ultimo decennio ci sono stati casi importanti che riguardano i bias dell’IA. Questi non riguardano solo singoli settori, ma l’intera umanità dovrebbe esserne coinvolta, dato che viene toccata l’intera sfera sociale.

Uno dei primi casi che mi sento di citare, è il caso Amazon e lo scarto dei cv femminili. Un algoritmo che nella ricerca di un impiego ha penalizzato tutti i cv che contenevano la parola “donna”, presentando quindi una discriminazione di genere. Si considera questo dato, prettamente perché l’IA è gestito dal genere maschile e solamente il 16%, dal genere femminile. Come racconta Silvia Pagliuca per Il Sole 24 ORE.

Un altro dei casi emblematici è quello di OPTUM, un sistema statunitense utilizzato negli ospedali, creato per cercare di prevedere quali pazienti avrebbero avuto la necessità di ulteriori cure mediche. Su questo caso si è aperto un enorme dibattito dopo la scoperta di alcune teorie sull’algoritmo compromesso, che avrebbe discriminato i pazienti neri più ammalati rispetto ai pazienti bianchi. Come spiega Johnson, C. Y. per il Washington Post.

Anche se il colore della pelle non era un dato previsto e calcolabile, l’intelligenza artificiale si è affidata al costo delle cure mediche, il risultato fu il seguente: i pazienti neri risultavano aver sostenuto minori spese mediche rispetto a quelli bianchi, di conseguenza l’IA stava prolungando il dato discriminatorio fondato su queste basi algoritmiche, procurando danno a una parte dei pazienti. Dopo la scoperta e il dibattito, i programmatori si sono affiancati ai ricercatori, riuscendo a ridurre il bias dell’80%.

Conseguenze del bias artificiale

I dati in uscita generati oggi dall’IA sono ancora in fase sperimentale e soprattutto imperfetti, lontano dal pensiero unico di perfezione dell’intelligenza artificiale, a cui di solito siamo abituati a pensare. Il paradosso, esiste proprio alla base dell’ampliamento dei dati, che non fanno altro che automatizzare l’errore e renderlo standard, di conseguenza il processo di ottimizzazione dei dati rimane compromesso. Alla base del problema quindi, viene meno l’avanzamento tecnologico quanto invece l’incapacità dell’essere umano di creare norme adeguate a risolvere il problema.

L’impatto dell’IA nel giornalismo e media

Come abbiamo già visto, l’intelligenza artificiale fa ormai parte delle nostre vite ed è diventata tema centrale anche nell’ambito del giornalismo e dei media, per inseguire il valore etico dell’accuratezza, padrone della disciplina. Con l’intelligenza artificiale e i sistemi di apprendimento automatico, esiste un elemento statistico di incertezza, questo significa che è impossibile garantire una precisione del 100%. Gli strumenti di intelligenza artificiale come ChatGPT di OpenAI, Copilot di Microsoft e Gemini di Google sono stati oggetto di forte dibattito. L’intelligenza artificiale può essere uno strumento utile per gli studenti di giornalismo e ricercatori nel campo dei media ma una delle principali preoccupazioni tra i giornalisti è che l’intelligenza artificiale a volte può creare distorsioni sui dati.

fonte:https://www.bestdigitaltoolsmentor.com/ai-tools/llm/the-impact-of-llms-on-content-creation-and-journalism/

Nonostante il vantaggio sulla velocità che l’IA offre, ovvero generare articoli in pochi secondi o minuti, il che può essere utile per le testate giornalistiche che necessitano di pubblicare contenuti rapidamente, ci sono alcuni potenziali svantaggi della scrittura automatizzata. Uno svantaggio sono i contenuti generati dall’intelligenza artificiale privi di creatività. Inoltre, esiste il rischio che i file generati dall’intelligenza artificiale potrebbero essere parziali o privi del contesto.

Sebbene vi siano alcune preoccupazioni e limitazioni da considerare, il vantaggio dell’utilizzo dell’intelligenza artificiale per la scrittura sono significativi e possono aiutare le testate giornalistiche a produrre risultati elevati e contenuti di qualità in modo più efficiente.

Identificare e ridurre i Bias nel giornalismo

I sistemi di intelligenza artificiale (IA) possono perpetuare e amplificare i pregiudizi presenti nel mondo, grazie ai dati utilizzati per addestrarli o agli algoritmi utilizzati per progettarli. Ecco alcuni modi per identificare e ridurre i bias nell’intelligenza artificiale:

- Selezione dei dati: una fonte comune di bias nell’intelligenza artificiale è la selezione dei dati. I dati quindi non rappresentano l’intera popolazione e contengono imprecisioni o gruppi sottorappresentati. Questo può portare a risultati distorti. Per affrontare questo problema, è essenziale raccogliere un set di dati rappresentativi ed equamente bilanciati.

- Bias nell’algoritmo: un’altra fonte di bias è algoritmica. Gli algoritmi distorti possono perpetuare stereotipi, discriminazioni e altre forme di pregiudizio nei processi decisionali. Un modo per risolvere questo problema è controllare regolarmente gli algoritmi per individuare eventuali bias.

- Diversità e inclusione: un altro modo per ridurre i pregiudizi nell’intelligenza artificiale è aumentare la diversità e l’inclusione nel processo di sviluppo e distribuzione dei dati. Coinvolgendo un gruppo eterogeneo di persone nella progettazione e nello sviluppo di sistemi di intelligenza artificiale, possiamo garantire che i pregiudizi vengano rilevati e affrontati prima che diventino integrati nella tecnologia.

- Frame etici: anche l’uso di frame e linee guida etici può aiutare a ridurre bias nell’intelligenza artificiale. Questi quadri dovrebbero affrontare le questioni relative all’equità e alla responsabilità, trasparenza e considerazioni etiche nella progettazione e nell’implementazione dei sistemi di intelligenza artificiale

- Human-in-the-loop: un approccio per ridurre i bias dell’IA è coinvolgere gli esseri umani nel processo decisionale. Questo approccio prevede l’utilizzo dei sistemi di intelligenza artificiale come strumenti di solo supporto alle decisioni.

- Monitoraggio continuo: infine, è essenziale monitorare i sistemi di intelligenza artificiale per individuare bias e altri errori. Testare regolarmente i sistemi di intelligenza artificiale per verificarne l’equità, l’accuratezza può aiutare a ridurre i pregiudizi nel tempo.

fonte: https://it.pinterest.com/pin/74731675045016910/

Inoltre, mentre le redazioni avanzano con il giornalismo automatizzato e i fact-checker si affidano sempre più all’intelligenza artificiale per la ricerca di modelli di analisi che indichino contenuti ingannevoli, l’UE ha faticato a escogitare un frame unico per la regolamentazione dell’intelligenza artificiale. Per quanto concerne la sfera sociale, la diffusione dell’AI all’interno delle istituzioni è tradizionalmente responsabile della responsabilità democratica. Ma la scarsità di adeguate garanzie etiche, giuridiche coerenti suscitano allarme.

HLEG, gruppo di esperti nel settore ha pubblicato le sue Linee guida etiche per un’IA affidabile nell’aprile 2019. Secondo le linee guida, l’IA affidabile dovrebbe soddisfare tre criteri durante l’intero ciclo di vita del sistema:

(1) lecito: rispettando tutte le leggi e i regolamenti applicabili

(2) etico: rispetto dei principi e dei valori etici

(3) robusto: sia dal punto di vista tecnico che considerando il suo ambiente sociale.

L’intelligenza artificiale e la responsabilità giornalistica
La crescente adozione di strumenti di apprendimento automatico, basati sull’intelligenza artificiale nella società, stanno trasformando sia le redazioni che i servizi mediatici. A rigor di logica, il giornalismo si unirebbe a numerose altre discipline caratterizzate dall’ubiquità dei sistemi intelligenti interconnessi con capacità autonome.

Questo espone il giornalismo e la veridicità delle informazioni ad un elevato rischio. Il bias dell’automazione porta a presupporre che i metodi quantitativi siano superiori a quelli qualitativi. Questo mina e svaluta la necessaria contestualizzazione complessa che il ragionamento umano applica.

fonte: https://it.pinterest.com/pin/595108538275294086/

Tradizionalmente, la responsabilità per qualsiasi errore giornalistico sarebbe attribuita alla redazione attraverso una serie di obblighi etici, quadri normativi e, soprattutto, illeciti (diffamazione/calunnia). Tuttavia, le macchine per l’apprendimento autonomo vengono alimentate con fonti di dati, imparano senza supervisione a produrre risultati che non possono essere previsti. Quindi la responsabilità può essere attribuita ad un principio di “controllo”. I sistemi di intelligenza artificiale e i modelli di apprendimento automatico ribaltano questo principio.

Al momento, nelle redazioni ci sono sistemi di intelligenza artificiale in grado di decidere una linea di condotta e di agire senza intervento umano. Le regole su cui agiscono non sono fisse, ma cambiano durante il funzionamento dell’IA e dal sistema stesso. La macchina impara e produce una serie di azioni, dove i metodi tradizionali di attribuzione di responsabilità non sono compatibili con il principio del controllo. Questo costituisce il “gap di responsabilità”.

fonte: https://it.pinterest.com/pin/3518505952812682/

Poiché i sistemi di intelligenza artificiale nelle redazioni sono affamati di dati e richiedono enormi quantità di informazioni e dati, la trasparenza è fondamentale per costruire un’intelligenza artificiale affidabile. Spiegare questo tipo di tematica può aiutare i cittadini a capire, come i dati sono stati elaborati all’interno di un sistema di intelligenza artificiale, ma ciò non corrisponde alla divulgazione.

Conclusioni

Oggi l’opinione pubblica non è molto informata sull’andamento dell’IA, e alcune forme tecnologiche risultano così innovative da creare distorsioni e preoccupazioni.

Proprio a causa di poche informazioni e conoscenze riguardo all’intelligenza artificiale, molti sono i dubbi che sono incorsi nell’opinione pubblica, tra cui ansie e preoccupazioni per la veridicità di ciò che i media ci mostrano e la manipolazione dei dati. Così se ne parla in questo articolo:

“I cittadini hanno un ruolo fondamentale nel plasmare il futuro dell’IA. È importante che siano consapevoli dei potenziali rischi e benefici dell’IA e che si impegnino a utilizzare questa tecnologia in modo responsabile e, soprattutto, ad essere critici nell’interpretare i contenuti che scorrono ogni giorno sotto i loro occhi.”

Quindi l’IA è meno intelligente? Sta diventando una minaccia? Secondo Diana Urania Galetta, professoressa universitaria di diritto amministrativo presso l’università di Milano:

“In effetti, ancora oggi i neuroscienziati ritengono che sarebbe impossibile replicare davvero il cervello umano nelle macchine: data la sua incredibile complessità e la mancanza di dati affidabili per determinare con certezza il suo pieno funzionamento.”

Uno degli argomenti più interessanti di questo scritto, riguarda l’ibridazione tra uomo e macchina, come questa mischiandosi alla mente umana potrebbe farci addirittura diventare immortali e promettere l’impensabile. Ma nella realtà dei fatti, è la macchina “perfetta” che dovrà adattarsi all’uomo “imperfetto”.

fonte: https://it.pinterest.com/pin/151715081191833849/

Esaltando questo aspetto, la capacità del ragionamento umano, come analizzare e imparare, sono tuttavia anche soggetti a certi pregiudizi e limitazioni nel loro stesso pensiero.

Ciò significa che l’assenza di comprensione della logica dietro la macchina è grave, non solo dal punto di vista dell’integrità giornalistica (data la necessità di garantire trasparenza algoritmica) ma anche su una prospettiva sociale più ampia. Questo rischio può portare a ulteriori discriminazioni, perdite economiche e sociali catastrofiche, così come la perdita della reputazione e, in alcuni casi, la violazione delle libertà civili.

È importante che tutti gli affiliati alla produzione e al consumo dei media, compresi i lettori, abbiano una sorta di consapevolezza di cosa sia realmente l’intelligenza artificiale e di come funziona. Diventa fondamentale questo requisito, per consentirci di modellare l’uso dell’IA in un modo che sia effettivamente al servizio della società, piuttosto che semplicemente tecnologia.

In linea definitiva, il rischio che si corre al momento, non è quello di potenziare troppo l’intelligenza umana grazie all’intelligenza artificiale, ma quello di renderla un clone della stessa.

Riferimenti utili:

Aurelio, G. (2024, February 22). L’AI e la manipolazione dell’opinione pubblica. I rischi e il ruolo dei cittadini. CyberSecurityItalia. https://www.cybersecitalia.it/lai-e-la-manipolazione-dellopinione-pubblica-i-rischi-e-il-ruolo-dei-cittadini/29449/

Dhiman, Dr. Bharat, Does Artificial Intelligence Help Journalists: A Boon or Bane? (24 Marzo 2023), SSRN: https://ssrn.com/abstract=4401194

European Commission, Directorate-General for Justice and Consumers, Gerards, J., Xenidis, R., Algorithmic discrimination in Europe — Challenges and opportunities for gender equality and non-discrimination law, Publications Office, 2021, https://data.europa.eu/doi/10.2838/544956

Galetta D. U. (22 febbraio 2023) Human-stupidity-in-the-loop? Riflessioni (di un giurista) sulle potenzialità e i rischi dell’Intelligenza Artificiale, Federalismi.it https://air.unimi.it/retrieve/d06cf2bf-3128-4f3f-8c2e-a9c9529ef702/EDITORIALE_22022023211050.pdf

Leiser, M. R. (2022). Bias, journalistic endeavours, and the risks of artificial intelligence. In T. Pihlajarinne & A. Alén-Savikko (Eds.), Artificial Intelligence and the Media: Reconsidering Rights and Responsibilities (pp. 8–32). Cheltenham: Edward Elgar Publishing. ISBN: 9781839109966 ; 9781839109973 https://scholarlypublications.universiteitleiden.nl/handle/1887/3504982

--

--

Giulia Banfi
Mapping Journalism

PhD Student @Unife. Studio la società, analizzando i processi comunicativi e la transizione digitale della PA ✏️ Credo in un’innovazione sociale accessibile.