Explainability vs Interpretability nel Machine Learning

Un compromesso tra uomo e risultato

Leonardo Danzo
Catobi
4 min readNov 22, 2020

--

catobistrategy.com

“If all your friends jumped off a cliff, would you?

Machine learning algorithm: yes”

Sono Leonardo, statistico di formazione e con una passione smodata per i dati.

Uno degli obiettivi della mia materia è apprendere, spiegare e prevedere le caratteristiche di un fenomeno, nella maniera più accurata possibile. Si tratta di scopi che la statistica condivide con il mondo del machine learning e dell’intelligenza artificiale, nonostante l’approccio utilizzato per la risoluzione dei problemi sia diverso.

Pensiamo, ad esempio, ad uno dei modelli più noti ed applicati in campo statistico, la regressione lineare, con la quale cerchiamo di spiegare il valore atteso di una variabile Y, chiamata dipendente, sulla base di una serie di variabili X, o esplicative.

Ad esempio, la variabile che vogliamo stimare potrebbe essere lo stipendio (Y) e la variabile che ci aiuta a prevederlo gli anni di istruzione (X).

Il risultato sarà una retta (o meglio, un piano, se consideriamo più X) di regressione che sarà la stima cercata per il problema in questione.

Retta di regressione stimata tra Istruzione e Stipendio

Una volta ottenuta questa stima, basata sul campione a disposizione, si può decidere se fare una previsione su un insieme di dati differenti rispetto a quello utilizzato in precedenza, basandosi sulla retta trovata.

Una delle forze indubbie di questo modello è il fatto che ci permette di spiegare i risultati ottenuti.

Nel caso dell’esempio sopra, abbiamo un coefficiente associato all’istruzione che mi permette di dire: se l’istruzione aumenta di 1 anno, in media lo stipendio mi aumenta di Z (in questo caso Z=1589 euro).

Questo consente anche ad un umano di comprendere come il modello si stia comportando, cosa stia facendo e di spiegare i risultati ottenuti.

Quello appena riportato è un esempio di modello in cui viene attribuita particolare importanza alla sua capacità di essere facilmente comprensibile, o explainability, concetto caro agli statistici, dal momento che attribuisce potere a chi costruisce il modello. Infatti, siamo in grado di valutare con attenzione quali variabili sono importanti nella specificazione di quest’ultimo e, successivamente, decidere se inserirne di nuove o di eliminare quelle non necessarie.

Scarica la registrazione!

Con l’avvento del machine learning invece le cose sono cambiate drasticamente.

La parte algoritmica ha preso il sopravvento, le assunzioni statistiche sono divenute più lievi e il potere nelle mani dell’analista si è ridotto.

Tutto ciò ha comportato lo sviluppo di una tipologia di modelli c.d. black box: modelli più raffinati, flessibili e in grado di adattarsi in maniera sempre più precisa ai dati. Allo stesso tempo però, questi modelli presentano una explainability molto bassa, risultando particolarmente complesso comprendere come il modello riesca ad adattarsi ai dati e come i risultati siano ottenuti.

Guardiamo alle reti neurali. Queste hanno come obiettivo, analogamente alla regressione lineare, la stima della relazione (funzione) che lega le variabili esplicative alla variabile dipendente.

Rete neurale multistrato

Cosa capiamo da un grafico come quello sopra riportato?

Molto poco, dal momento che l’obiettivo di questi modelli non è quello di risultare chiaro all’occhio umano, ma di cogliere la relazione tra le variabili in gioco (evitando di cadere nell’overfitting) e minimizzare l’errore di previsione.

Ciò considerato, assume fondamentale importanza l’interpretability, ovvero la capacità di spiegare il fenomeno, modellandolo e stimandolo il più precisamente possibile.

In termini assoluti, i modelli di machine learning più recenti danno risultati migliori rispetto ai modelli statistici classici, ovvero presentano maggiore interpretability.

Questo vale soprattutto nei casi dove la posta in gioco è alta: ad esempio se stiamo cercando di prevedere la possibilità per una persona di ammalarsi di cancro, il rischio di morte in un incidente automobilistico, o ancora la probabilità di default finanziario di un’azienda. Si tratta infatti di situazioni in cui è fondamentale che l’errore di previsione sia il minore possibile.

Tuttavia, se siamo interessati a spiegare perchè una certa variabile è importante più di un’altra nel prevedere i casi sopra elencati, diventa fondamentale l’explainability.

Quest’ultima, infatti, comporta il sorgere spontaneo di domande che, a loro volta, ci permettono di studiare meglio il fenomeno di interesse portando ad ulteriori ricerche.

👉 Clicca qui

Lo scontro tra explainability e interpretability si riduce quindi ad un semplice compromesso: ottenere i risultati migliori in termini di previsione, non tralasciando la comprensione che l’uomo può avere del fenomeno.

Inoltre, non dimentichiamo che l’explainability può guidare, quindi, la scelta di un modello rispetto ad un altro. Quando siamo davanti a una scelta molto marginale tra due modelli (mettiamo, ad esempio, una differenza tra gli errori di previsione inferiore allo 0.5%), è importante scegliere quello i cui risultati possono essere spiegati più agevolmente.

Cosa può fare quindi il machine learning per evolversi in questo senso e incorporare nel modello l’explainability che gli serve per staccarsi dall’approccio black box?

La risposta è l’Explainable Artificial Intelligence.

Segnatevi queste parole, perchè ne sentirete parlare: sarà uno dei prossimi argomenti che andrò a trattare.

--

--

Leonardo Danzo
Catobi
Writer for

Consulente in ambito Business Intelligence, mi interesso di tematiche relative ai dati e al loro utilizzo, con un focus sull’impatto nel mondo aziendale.