Intelligenza Artificiale e Normazione

Perché stiamo regolando troppo e male

Alfonso Fuggetta
Commenti & Riflessioni
5 min readApr 27, 2024

--

Nei giorni scorsi ho letto due diversi provvedimenti di legge in corso di discussione ed approvazione sul tema dell’Intelligenza Artificiale:

  1. Disegno di Legge 1066 (in discussione alla Ottava Commissione del Senato) intitolato “Norme per lo sviluppo e l’adozione di tecnologie di intelligenza artificiale”.
  2. Schema di Disegno di Legge approvato dal Consiglio dei Ministri “Recante disposizioni e delega al governo in materia di intelligenza artificiale”.

Il primo documento tratta sostanzialmente due punti:

  1. trasparenza del funzionamento dei sistemi di Intelligenza Artificiale;
  2. promozione dell’adozione di questa tecnologia.

Una settimana fa ho mandato delle note alla commissione che penso pubblicherà sul sito del Senato. Quindi qui mi limito a riportare le conclusioni di quanto ho scritto:

L’esame dell’articolato conferma le considerazioni iniziali sulla duplice natura delle misure previste, sulla loro temporaneità e sulle difficoltà e criticità nascoste nelle modalità attuative. Se è certamente lodevole l’intento del DDL, le criticità evidenziate dovrebbero essere indirizzate in modo puntuale e deciso per evitare di inficiare o rendere poco incisivo l’impatto complessivo del provvedimento.

Ieri ho letto il secondo Disegno di Legge che mi pare sia, come molti hanno notato, del tutto inutile e mal costruito. Ma ciò che mi ha colpito è la definizione di Intelligenza Artificiale. In questo periodo su IA se ne leggono di tutti i colori e quelli più stupiti del clamore e dell’approssimazione con cui si trattano questi temi credo siano proprio i ricercatori che si occupano di AI. Quella definizione (al di là del fatto che è trasposizione di quella fornita nell’AI Act dell’Unione Europea) è emblematica di un problema che abbiamo nel nostro continente e ancora di più nel nostro Paese.

Di suo l’Unione Europea tende a produrre troppe norme e regolamenti, atteggiamento che nel nostro Paese è sempre stato stigmatizzato da quelli che dicono che la UE regola troppo e per questioni inutili. Ma in questo caso, non è parso vero a tanti nostri giuristi e parlamentari di saltare sul carro del “regolamentiamo l’IA!”. Per cui al problema di fondo che spesso affligge l’UE si è aggiunta l’ansia mai repressa di regolare una tecnologia. Tuttavia, non solo stupisce la sudditanza su questi temi verso la UE, che viene spesso invece criticata proprio per la sua invadenza: ciò che più mi lascia esterrefatto sono le argomentazioni. Provo a farne una sintesi.

Una prima argomentazione è di principio: in sostanza, traspare dai commenti il bisogno di definire l’IA.

È possibile definire l’IA? Certamente possiamo discuterne a livello scientifico o accademico: noi accademici siamo bravissimi ad alimentare discussioni infinite su cosa sia o non sia IA. Ma quando prendiamo una “possibile” definizione è la mettiamo al centro di una norma, tutto diventa molto più critico. Non è più una brillante discussione tra addetti ai lavori, ma diviene oggetto di procedimenti che incidono sulla vita delle persone e della società.

Proprio ieri Robert Dolci su X sottolineava un fatto importante:

Lo stesso principio è stato ripreso da Raffaello Lupi:

Questo il testo dello Schema di Disegno di Legge:

sistema di intelligenza artificiale: un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali;

Il mio commento è che questa definizione può essere interpretata in modo molto ampio e includere moltissimi sistemi informatici. Emblematici i commenti di Luca Mariot a fronte di alcune interpretazioni date a questa definizione:

Si dice anche “non vogliamo definire cosa sia l’AI”, ma un “sistema di AI”. Faccio veramente fatica a capire come si possano distinguere le due definizioni. Nè mi consola il fatto che la definizione sia “molto lasca”: vuol dire che sistemi e applicazioni che in realtà avessero poco o nulla a che fare con l’IA potrebbero essere usati strumentalmente in un giudizio e, essendo la norma molto ampia, non sarebbe possibile delimitare i casi di contenzioso a quelli realmente pertinenti.

Una seconda motivazione è di tipo formale: quella definizione è della UE che riprende OECD.

Andiamo a leggere il documento dal quale è tratta la definizione che riportavo in precedenza. Qui il testo dell’AI Act:

Il documento stesso dice (riporto la versione italiana):

La nozione di sistema di IA” di cui al presente regolamento dovrebbe essere definita in maniera chiara e dovrebbe essere strettamente allineata al lavoro delle organizzazioni internazionali che si occupano di IA al fine di garantire la certezza del diritto, agevolare la convergenza internazionale e un’ampia accettazione, prevedendo nel contempo la flessibilità necessaria per agevolare i rapidi sviluppi tecnologici in questo ambito.

A queste considerazioni, seguono pagine di commenti “esplicativi” che sono infarciti di “dovrebbe”, “sarebbe” o “è opportuno”, espressioni che immagino siano la gioia degli avvocati chiamati in un giudizio a discutere violazioni a questa “definizione”.

Quindi sono essi stessi consapevoli del fatto che è una definizione labile. È su queste fondamenta che il nostro Paese si è affrettato a scrivere Disegni di Legge?

Ma, si dice, questa definizione non è altro che la trasposizione di quella adottata in ambito OECD:

Dice questo documento:

for the purpose of this Recommendation the following terms should be understood as follows:

AI system: An AI system is a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. Different AI systems vary in their levels of autonomy and adaptiveness after deployment.

Si noti che si esordisce con la frase “for the purpose of this Recommendation”, cioè “per gli scopi di questa raccomandazione”. Quella definizione è funzionale a ciò che segue: non è una verità rivelata, ma ha uno scopo strumentale alla discussione che segue. E cosa segue? Una serie di principi e raccomandazioni, di certo non regolamenti o norme che impongono o sanzionano comportamenti e violazioni. In poche parole, stiamo prendendo delle definizioni che hanno uno scopo di indirizzo e le stiamo facendo diventare la base di provvedimenti legislativi.

Vediamo il testo analogo USA:

https://www.congress.gov/bill/116th-congress/house-bill/6216/text

Esordisce con questa frase che fa capire molto:

The Federal Government lacks clear understanding of the capabilities of artificial intelligence and its potential to affect various social and economic sectors, including ethical concerns, national security implications, and workforce impacts.

Infatti, il resto del documento (come nel caso di quello OECD) è una serie di raccomandazioni che si basano su parole che sono molto indicative: “support”, “promote”, “funding”, “assess”, “study”, “evaluate”. Un tono totalmente diverso.

Guardiamo poi l’update del 2024 e in particolare la sua sintesi:

Colpisce una frase:

Authorizes establishment of an Artificial Intelligence Safety Institute (“Institute”) at the National Institute of Standards and Technology (“NIST”) with the mission of assisting the private sector and agencies in developing voluntary standards and best practices for AI.

L’espressione chiave è “assisting the private sector and agencies in developing voluntary standards and best practice”.

Ma noi facciamo Disegni di Legge.

--

--