Riflessioni non richieste sull’incertezza nei sistemi di supporto alle decisioni basati su intelligenza artificiale

Vincenzo Gioia
Alan Advantage
Published in
4 min readDec 14, 2022
Enneratto (cubo ennadimensionale)

In questo articolo riporto le mie perplessità in merito alle ricadute del concetto di incertezza nei sistemi a supporto delle decisioni cercando di fare una particolare attenzione agli effetti generati sui decision support systems basati su intelligenza artificiale (AI-DSS). Il percorso che mi ha portato a questo articolo è iniziato dalle riflessioni che ho condiviso nell’articolo nel quale declino il concetto di incertezza oltre il perimetro della qualità dei dati (qui il link).

I sistemi a supporto dei processi decisionali. Un sistema di supporto alle decisioni (DSS — Decision Support System) è un sistema software in grado di raccogliere, organizzare ed analizzare i dati aziendali al fine di fornire informazioni utili a supportare un qualsiasi processo decisionale oppure supportare attività di gestione e/o pianificazione. In altre parole, un DSS supporta le persone che devono prendere decisioni strategiche in contesti particolarmente complessi nei quali è difficile determinare quale sia la scelta giusta da prendere oppure quale strategia decisionale debba essere utilizzata per raggiungere un determinato obiettivo. La loro affidabilità la si può ricondurre agli algoritmi utilizzati per elaborare i dati ed alla qualità del dataset utilizzato. In sostanza, tali sistemi si basano su un modello semplificato della realtà costruito partendo dai dati in possesso del decisore.

I DSS basati su intelligenza artificiale. Negli ultimi anni i sistemi software presenti nei DSS sono stati potenziati attraverso l’adozione dell’intelligenza artificiale al fine di rendere sempre più affidabile il modello di rappresentazione della realtà sulla base del quale generare delle elaborazioni. L’AI è in grado, infatti, di costruire autonomamente il modello di rappresentazione dell’universo analizzato (modello AI) e di farlo partendo dal solo dataset progettato dagli analisti.

L’importanza del giuso dataset. Riassumendo quanto fin qui scritto, una AI sviluppa il modello di rappresentazione dell’universo da analizzare basandosi esclusivamente sul dataset che gli analisti hanno progettato. Essendo, tuttavia, il mondo reale molto più complesso della nostra capacità di sintesi, gli analisti progettano i dataset in modo tale da trovare il giusto compromesso tra un numero di dimensioni sufficientemente ampio da rappresentarne le macrodinamiche del fenomeno da analizzare ma non troppo da rendere complesso il processo di verifica dei risultati prodotti dal modello.

… e qui nascono i miei dubbi

La complessità del mondo reale. Per quanto correttamente progettato, un dataset resta pur sempre una delle possibili rappresentazioni dell’universo nel quale si manifesta il fenomeno da analizzare. Dal momento che una delle possibili forme dell’incertezza (descritte qui) è proprio legata alla complessità dell’ambiente reale, come possiamo essere certi che il dataset progettato dagli analisti non sia affetto anche solo da incertezza ambientale? Per essere chiari, non sto parlando propriamente di bias ma di qualcosa che temo sia meno tangibile seppur potenzialmente impattante tanto quanto i bias.

Le dimensioni contano. I miei dubbi sono legati alla scelta delle dimensioni da inserire nel dataset e dall’impossibilità di sapere come ogni dimensione concorrerà a generare il modello AI ed i risultati delle sue elaborazioni. Inoltre, le dimensioni di un modello AI (features) sono spesso considerate indipendenti le une dalle altre laddove, invece, tra le stesse potrebbero innescarsi interazioni o interdipendenze inattese che possono influenzare il risultato delle elaborazioni. Immaginiamo un modello AI a 10 dimensioni delle quali, a nostra insaputa, 3 non sono effettivamente necessarie alla sua rappresentatività ed esaustività. Possiamo pensare che, essendo dimensioni marginali, non impattino sul risultato finale generato dal modello AI. Tuttavia, non solo il modello tiene conto della loro presenza ma le pondera con un criterio che è totalmente nascosto ai nostri occhi a causa del fatto che i sistemi AI operano come delle black box.

Processo di elaborazione di una intelligenza artificiale. Un sistema AI opera attraverso una rete neurale addestrata a compiere determinati task. Una rete neurale è un processo appartenente ad un’area specifica del machine learning chiamata Deep Learning. Le reti neurali usano una struttura stratificata di neuroni nella quale ogni strato è caratterizzato da una specifica micro-competenza e la somma delle elaborazioni effettuate da ogni singolo strato della rete neurale concorre a formare l’elaborazione finale. La capacità principale di una rete neurale è quella di imparare dai propri errori al fine di risolvere problemi complessi, come riassumere documenti o riconoscere volti, in piena autonomia. Il problema delle elaborazioni effettuate da una rete neurale è legato al fatto che ogni suo strato elabora i dati acquisiti attraverso operazioni non lineari. La somma delle elaborazioni prodotte da ogni strato concorre a generare una elaborazione finale per la quale non è possibile effettuare una verifica di correttezza. In sostanza, il processo di calcolo è talmente complesso che i data scientists non sono in grado di verificarlo. In ragione di questa natura complessa, le AI sono considerate black box.

Il problema della certezza del risultato. Oggi le AI presentano come loro limite principale non più la potenza di calcolo o la disponibilità dei dati ma la struttura del modello AI che elabora i risultati: quando non comprendiamo adeguatamente la struttura del contesto nel quale si manifesta il fenomeno da analizzare, dobbiamo essere cauti nell’affidare ad una AI l’onere di individuare una soluzione ad un problema perché potrebbe generare una soluzione ottimale in un universo non del tutto conforme alla realtà.

--

--