Chi l’avrebbe mai detto che l’AI può aiutare a creare una società più inclusiva?

Giulia Banfi
Mapping Journalism
Published in
10 min readJul 24, 2024

L’AI può aiutarci a garantire diritti, inclusività e imparzialità? Una stretta collaborazione tra AI e giornalismo potrebbe rivoluzionare il nostro concetto di inclusività, ma quali sono i limiti da tenere in considerazione?

di Serena Rita Manigrassi

Un nuovo mondo da esplorare: l’AI

Il logico matematico Alan Turing nell’incipit del suo articolo “Computering machine and intelligence” parte da un quesito: i computer sono in grado di pensare? Questo semplice spunto di riflessione, risalente agli anni 50’, ha dato il via alla nascita dello studio di un nuovo metodo di approccio tecnologico alla realtà, l’Artificiale Intelligence (AI).

Il concetto di AI non è stato ancora definito universalmente, ma è in continua evoluzione. Il sito ufficiale del Parlamento Europeo, nella sezione tematica “tecnologia digitale”, ci parlerà di intelligenza artificiale (AI) come il “presente e futuro della tecnologia […] l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività” [European Parliament 2023]. L’AI è una disciplina sperimentale che studia delle tecniche, teorie e metodi che si occupano di sviluppare hardware o software capaci di fornire all’elaboratore elettronico delle prestazioni tipiche di un’intelligenza umana [Somalvico, 1987]. Il fine ultimo di questa tecnologia è quindi ricevere dei dati, processarli, rielaborarli e rispondere.

Oggi la tematica dell’AI è alla base delle logiche della nostra società in quanto rappresenta al meglio l’evoluzione tecnologica nel mondo. Parlare di AI rappresenta non solo la promozione dello sviluppo e della ricerca, principi saldi già presenti nella nostra costituzione, ma contribuisce alla spinta per ridefinire una società in continuo mutamento. Il progresso tecnologico ha portato a dover far fronte a nuovi mezzi di comunicazione che sono oramai “onniscienti” nelle nostre vite ma che andrebbero utilizzati con cautela. Divenendo queste tecnologie fondamento della nostra società si sta cercando di delineare e stilarne un’etica di utilizzo. Una delle questioni etiche più salienti e discusse è: quanto l’uso di AI aiuti a promuovere l’inclusività?

La corsa all’inclusività

Il Pride Month, la cultura del body positive, la desinenza schwa, sono solo alcuni esempi di quanto oggi il tema dell’inclusività sia presente nelle nostre vite. Parlare di ciò non è sempre stata una esigenza prioritaria, infatti, notiamo come lo stesso termine nell’ Enciclopedia Treccani venga considerato neologismo. Per condurre un’analisi etimologica bisogna risalire infatti alla parola “inclusione” che deriva a sua volta dal sostantivo latino “inclusio,onis” e rappresenta “l’atto di includere, cioè di inserire, di comprendere in una serie, in un tutto”. Essere inclusivi vuol dire essere capaci di rivedere i criteri di categorizzazione usati sino a quel momento e promuovere omogeneità. La volontà della nostra società moderna è quella di rappresentare sottogruppi considerati minoritari per genere, razza, etnia, opinioni politiche, orientamento sessuale etc.

Nei media digitali la spinta all’inclusività è avvenuta non appena si è compreso che lo strumento tecnologico, Internet, permette di abbattere le distanze, geografiche e ideologiche, poiché aiuta nella creazione o l’ampliamento di nuove reti di relazione. L’utente non è più solo spettatore e fruitore (consumer) ma è anche produttore (producer) di contenuti. Ogni singolo individuo può esprimere la propria opinione e ricevere feedback immediati su questa, anche chi ha delle diversità. Grazie a questo meccanismo intrinseco del digitale, infatti, i gruppi minoritari hanno avuto la possibilità di far sentire la propria voce sottolineando che non è più sufficiente all’interno di una società favorire l’integrazione o l’assimilazione sociale, quindi una banale “accettazione”, ma bisogna garantire l’uguaglianza di diritti e opportunità all’interno delle società.

L’AI può essere imparziale?

Con la svolta digitale ci si domanda sempre più quanto l’inclusività sia un obiettivo fondamentale da perseguire. Nel caso dell’AI generativa uno degli scopi primari di questa tecnologia è promuovere l’eterogeneità della popolazione nella formulazione di risposte [Slip Arumugam et.al 2023]. Gli sviluppatori di questi sistemi stabiliscono che i feedback elaborati da questa tecnologia siano an-bias, ossia prettamente oggettivi, e che essi, quindi, possano produrre oggettività nei processi decisionali. Gli studiosi stanno cercando di costruire quella che viene definita “AI Giusta” (Fair AI), ossia un’intelligenza che ha la capacità di fornire sistemi che aiutino ad individuare, calcolare e rielaborare una distorsione di realtà, quindi un pregiudizio o uno stereotipo verso una determinata categoria sociale, per favorire l’inclusione sociale e sfavorire la discriminazione [Stefan Ferringuel et.al 2020].

L’Intelligenza artificiale è un supporto algoritmico decisionale fondato su dati. La macchina, quindi, è in grado di elaborare risposte sulla base di elementi già forniti; pertanto, rielabora dati ma non li crea. In molte ricerche è stato studiato che è proprio questo sistema interno a portare mancanza di “equità” ed “inclusione” poiché se la macchina presenta nei dati di partenza una base di pregiudizio, quindi una inferenza algoritmica, i risultati prodotti conterranno automaticamente pregiudizio. Tuttavia, questo bias algoritmico può anche esser visto come una funzione del modo in cui la tecnologia e la società sono reciprocamente costitutive, ossia come tendono ad influenzarsi vicendevolmente [Elisabeth K. Kelan 2023]. In questo senso, non è solo la società che plasma l’AI e il suo funzionamento ma anche l’AI che plasma la società.

Sono state proposte negli anni una serie di iniziative responsabili e giudiziose nel campo dell’intelligenza artificiale al fine di ridurre le discriminazioni, un esempio ne è il Fair ML, ampiamente criticato per il suo approccio top-down. Il Fair Machine Learning (Fair ML) è “un ramo dell’etica dell’intelligenza artificiale coinvolto nella costruzione di algoritmi di apprendimento fondati sull’equità” [Mehrabi et al., 2019]. Utilizzando diversi concetti, definizioni e livelli di equità, il Fair ML si occupa di integrare vincoli etici negli algoritmi machine learning. Ciononostante, articoli recenti criticano questa tecnologia perché ritengono non sia capace di valutare sufficientemente il contesto in cui l’algoritmo viene applicato e quindi produca effetti collaterali [John-Mathews, 2022; Fazelpour & Lipton, 2020].

Sebbene il problema di un pregiudizio generato dall’AI sia risolvibile, è ancora difficile stabilire come evitare di commetterlo, quindi come eliminarlo definitivamente. Tra le soluzioni proposte abbiamo: una continua valutazione dell’impatto sociale attraverso dei test o sondaggi, ma soprattutto una verifica attenta e regolamentata della macchina per individuare gli effetti potenzialmente discriminatori [Elizabeth K Kelan, 2023]. Fondamentale, inoltre, è il costante aggiornamento degli algoritmi per garantire dati attendibili, in modo da non far affidamento su dati proposti, esplicitamente o implicitamente, da gruppi elitari [Charlwood & Guenole, 2022]. Per facilitare il controllo dell’AI, sono state sviluppate delle metriche per le valutazioni algoritmiche della disuguaglianza. Prendendo in esame sia un gruppo maggioritario che un gruppo minoritario, si cerca di elaborare una progettazione di previsioni inclusive. Per ottenerle si riduce la precisione della previsione di prestazione del gruppo che rappresenta la maggioranza, al fine di avvicinare il valore della previsione della prestazione attribuito al gruppo di minoranza [Ferringuel et al. 2020]. La creazione di un supporto decisionale “giusto” spesso richiede interventi sugli approcci di creazione di queste tecnologie, i quali modellano attentamente i cicli di feedback e quindi le risposte ottenute [Ferringuel et al. 2020].

L’AI e il giornalismo complici per promuovere l’inclusività

L’inclusività è diventata una sfida fondamentale per l’informazione nei media ed il media che per eccellenza si occupa di “informare” è il giornale. Il contesto giornalistico oggi si trova a far fronte con una sfera pubblica sempre più impegnata e schierata nei dibattitti sulla promozione dell’idea di una società inclusiva, cioè una società in cui ogni cittadino gode di pari opportunità indipendentemente dall’origine, dalla razza, dall’etnia, dalla fede, dalla religione, lingua, ecc. Le nuove tecnologie hanno potenzialmente influenzato il modo di scrivere testi inclusivi. Ma allora anche l’AI generativa può contribuire ad una un’informazione più equa e rappresentativa?

All’interno di una redazione, l’intelligenza artificiale inizialmente svolgeva compiti di reporting e statistica. Con il miglioramento dei programmi, il ruolo di queste tecnologie è in crescita. Nel 2019 è stata condotta la prima globale su come le redazioni utilizzano l’intelligenza artificiale. Tra aprile e luglio 2023, questa indagine è stata estesa a quale sia l’impegno condotto dalle testate giornalistiche nei confronti dell’AI e delle tecnologie correlate, coinvolgendo 105 agenzie di stampa in 46 paesi. Circa tre quarti (73%) delle redazioni intervistate hanno dichiarato che le applicazioni di intelligenza artificiale generativa, come Bard o ChatGPT, offrono nuove opportunità al giornalismo [Beckett et al., 2023].

Una delle innovazioni più grandi nella produzione di contenuti inclusivi nel giornalismo basata sull’intelligenza artificiale è la tecnologia chiamata “generazione del linguaggio naturale” o NLG. L’elaborazione del linguaggio naturale è una tecnologia che utilizza il machine learning, un metodo digitale di analisi e rielaborazione, per interpretare, manipolare e comprendere il linguaggio umano [Amazon, 2023]. L’analisi delle frasi umane è condotta su più livelli: l’analisi lessicale, l’analisi grammaticale, quella sintattica, ed infine l’analisi semantica che dona un significato complessivo effettivo di quella determinata espressione linguistica [DocsMarshall, 2019].

La ricerca accademica sull’inclusività indica che è tradizionalmente responsabilità del giornalismo prevenire la diffusione di pregiudizi e discorsi di odio nello studio delle fonti di notizie [Zalova, 2024]. Grazie all’AI persone con disabilità hanno la possibilità di accedere ad una più vasta gamma di contenuti, ad esempio la riproduzione di un pezzo giornalistico in voce facilità la fruizione ai non vedenti e al contrario la produzione di una voce in testo facilità la fruizione ai non udenti. Una delle applicazioni più utilizzate per la produzione automatica di contenuti è “Quakebot”, software utilizzato per creare testi di notizie su catastrofi e criminalità. Un altro esempio è il programma “Voicedocs” con il quale è possibile convertire automaticamente voce e video in testo o anche il programma di intelligenza artificiale “Azreco” con il quale è possibile riprodurre il testo con una voce che non può essere distinta dalla voce umana [Zalova, 2024].

Il grande potenziale di questo nuovo approccio alla scrittura di articoli è saper comprendere immediatamente il tasso di engagement, denominato comunemente l’interesse del pubblico [Zalova, 2024]. Interpretando e analizzando più dati contemporaneamente, l’AI può aiutare i giornalisti a rimanere ben informati sulle ultime notizie e tendenze. Un altro tra i vantaggi dell’intelligenza artificiale è che può aiutare i giornalisti a scrivere storie in modo tempestivo e veloce cogliendo anche facilmente la trasparenza delle notizie e le questioni di responsabilità. Il giornalismo dall’AI è particolare e facilmente identificabile allo stesso tempo, in quanto le sue caratteristiche principali sono l’assenza di tracce di pubblicità ma soprattutto la mancanza di empatia ed emozioni.

La ricerca “Applying artificial intelligence technologies to inclusive journalism” [Zalova, 2024] sottolinea che l’AI ha diverse potenzialità all’interno delle redazioni per promuovere l’inclusività: aiuta a sostenere, preservare e rivitalizzare le lingue locali creando strumenti per lo studio, servizi di traduzione automatica e risorse che aiutano la comunicazione e lo scambio culturale.

L’intelligenza artificiale contribuisce alla digitalizzazione e la conservazione della conoscenza locale, ovvero permette di salvaguardare i valori storici e morali di ogni società. Alcune tecniche AI, come il riconoscimento delle immagini e la realtà virtuale, possono aiutare a distinguere digitalmente artefatti culturali, opere d’arte e siti storici, in modo che non vadano perduti o sottratti. Strumenti educativi basati sull’intelligenza artificiale favoriscono la comprensione della storia riducendo la discriminazione.

Il Parlamento Europeo e la tutela dei diritti dell’uomo in ambito digitale: AI act

In un articolo de Il Sole 24 Ore è stato dichiarato che “la rivoluzione dell’Intelligenza Artificiale sarà costruttiva se riusciremo in maniera compatta a garantire la trasparenza e la responsabilità dei processi guidati dalla stessa IA, combattendo attivamente i pregiudizi e la discriminazione, preservando l’integrità e la credibilità del giornalismo” [Econopoly, Ranj Begley 2024]. Il compito del giornalista è utilizzare l’intelligenza artificiale in modo consapevole affinché favorisca eguaglianza. Per sostenere questo progetto il Parlamento Europeo nel marzo del 2024 ha approvato la legge sull’intelligenza artificiale: l’AI Act. Lo scopo di questo atto è prevenire e mitigare i rischi dell’AI vietando o limitando l’uso di questa stessa se presenta un rischio per la sicurezza, la salute, la dignità, l’autonomia delle persone, o la violazione di valori democratici [Agenda Digitale 2024]. L’AI utilizzata, per essere “a norma”, dovrà soddisfare dei requisiti di trasparenza e conformità sottoponendosi a test di vario genere che vadano a garantire un’alta gestione di rischi, una forte qualità di dati e fonti. Le intelligenze artificiali dovranno inoltre favorire cybersicurezza, avere la marcatura CE ed essere registrati in un database europeo. [La Repubblica, Gabriele Franco, 2024].

Un approccio responsabile per l’AI

Lo scopo di queste nuove tecnologie è porsi da supporto alla nostra intelligenza umana. L’AI è perfettamente capace a contribuire in modo eccellente alla creazione di una società migliore, offrendo moltissime possibilità a noi cittadini per promuovere inclusività. La strategia da intraprendere per utilizzarla al meglio è un approccio responsabile sia nella scelta del sistema utilizzato, selezionando quello più in grado di favorire l’equità e la salvaguardia della tutela dei diritti umani, sia nell’effettivo utilizzo, controllando non abbia dati di pregiudizio alla base e che sia capace di rielaborare dati giusti che favoriscano un senso di appartenenza.

Riferimenti utili

European Parliament (2023). Che cosa è l’intelligenza artificiale? Tratto da European Parliament:

https://www.europarl.europa.eu/topics/it/article/20200827STO85804/che-cos-e-l-intelligenza- artificiale-e-come-viene-usata

Marco Somalvico (1987). Intelligenza Artificiale:

https://schiaffonati.faculty.polimi.it/pubblicazioni/H1.pdf

Elisabeth K. Kelan (2023). Algorithmic: Shaping the predictive algorithms of artificial intelligence in hiring:

https://onlinelibrary.wiley.com/doi/full/10.1111/1748-8583.12511

Stefan Feuerriegel, Mateusz Dolata, Gerhard Schwabe (2020). Fair AI:

https://link.springer.com/article/10.1007/s12599-020-00650-3

Sunbul M. Zalova (2024). Applying artificial intelligence technologies to inclusive journalism:

https://jpis.az/uploads/article/en/2024_1/APPLYING_ARTIFICIAL_INTELLIGENCE_TECHNOLOGIES_TO_INCLUSIVE_JOURNALISM.pdf

Amazon (2024). Cos’è è l’elaborazione del linguaggio naturale (NLP)?:

https://aws.amazon.com/it/what-is/nlp/

DocsMarshal (2019). Elaborazione del linguaggio naturale: come viene utilizzato:

https://www.docsmarshal.it/elaborazione-del-linguaggio-naturale-come-viene-utilizzato/

Econopoly, IlSole24Ore (2024). Se l’Intelligenza Artificiale aiuta il giornalismo (e fa crescere i lettori):

https://www.econopoly.ilsole24ore.com/2024/05/02/giornalismo-algoritmi-intelligenza-artificiale/?refresh_ce=1

Rocco Panetta, Agenda Digitale (2024). Ai Act: cos’è e come plasma l’intelligenza artificiale in Europa:

https://www.agendadigitale.eu/cultura-digitale/ai-act-ci-siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa/

European Parliament (2024). Il Parlamento europeo approva la legge sull’intelligenza artificiale:

https://www.europarl.europa.eu/news/it/press-room/20240308IPR19015/il-parlamento-europeo-approva-la-legge-sull-intelligenza-artificiale

Gabriele Franco, la Repubblica (2024). Via libera del Parlamento europeo all’AI Act:

https://www.repubblica.it/tecnologia/2024/03/13/news/via_libera_del_parlamento_europeo_allai_act-422302635/

Riferimenti immagini

Immagini interamente realizzate con AI generativa: Canva, Disigner.Microsoft

https://create.microsoft.com/it-it/features/ai-image-generator

https://www.canva.com/it_it/generatore-immagini-ai/

--

--

Giulia Banfi
Mapping Journalism

PhD Student @Unife. Studio la società, analizzando i processi comunicativi e la transizione digitale della PA ✏️ Credo in un’innovazione sociale accessibile.