Il collegamento straordinario tra reti nervose nel cervello e la natura dell’universo

Dal punto di vista scientifico non è stato possibile fino ad ora spiegare per quale ragione le reti neurali profonde sono in grado di risolvere problemi complessi. Ora sembra che una nuova pagina stia per aprirsi, e il segreto sembra risiedere nelle leggi della fisica.

Negli ultimi due anni, le tecniche di apprendimento profondo hanno trasformato il mondo dell’intelligenza artificiale. Una ad una, le abilità e le tecniche che gli uomini hanno immaginato di possedere in esclusiva, sono state intaccate dall’efficienza di macchine sempre più potenti e complesse. Le reti neurali profonde allo stadio attuale sono più performanti rispetto agli esseri umani nel portare a termine compiti come il riconoscimento di volti e oggetti. Hanno appreso la padronanza del Go, gioco da tavola della tradizione cinese, surclassando i più esperti giocatori umani.

Ma sussiste un problema. Non esiste alcuna evidenza matematica che spieghi la migliore performance delle reti neurali disposte a strati a queste sfide. I matematici sono rimasti confusi e non sono stati in grado di spiegare o replicare il successo di queste reti neurali profonde.

Tuttavia, questo scenario potrebbe evolversi rapidamente grazie alle ricerche scientifiche promosse da Henry Lin dell’Università di Harvard e Max Tegmark del MIT. Secondo questi scienziati, la ragione che ha impedito ai matematici di trovare il bandolo della matassa è da ricercare nella natura dell’universo. In altre parole, la risposta risiede nel campo della fisica e non in quello della matematica.

Innanzitutto, per affrontare il problema nel modo corretto è utile cominciare con un esempio, come la classificazione di un’immagine in scala di grigi da 1 megabit per determinare se essa mostra un gatto o un cane.

Tale immagine è costituita da un milione di pixel che possono assumere ognuno dei 256 valori possibili nella scala di grigi. Quindi in teoria, ci possono essere 256¹⁰⁰⁰⁰⁰⁰ immagini possibili, e per ognuna di esse è necessario calcolare se il soggetto rappresentato è un gatto o un cane. Le reti neurali, costituite da migliaia e addirittura milioni di parametri, riescono a gestire questa classificazione con facilità.

Nel linguaggio matematico, le reti neurali lavorano approssimando funzioni matematiche complesse a quelle più semplici. Quando si tratta di classificare immagini di gatti e cani, la rete neurale deve implementare una funzione che prende in esame un milione di pixel in scala di grigi in ingresso, producendo ciò che andrà rappresentato grazie ad una distribuzione probabilistica.

Il problema è che ci sono ordini di grandezza con più funzioni matematiche rispetto alle possibili reti che servono per approssimarle. Nonostante ciò le reti neurali profonde riescono a scovare in qualche modo la risposta corretta.

Lin e Tegmark affermano di aver spiegato il perché. La risposta è che l’universo è governato da un minuscolo sottogruppo di tutte le funzioni possibili. In altre parole, le leggi della fisica sono scritte in modo matematico, ma possono essere rappresentate da funzioni che hanno un notevole insieme di proprietà semplici.

Accade quindi che le reti neurali così profonde non devono approssimare alcuna possibile funzione matematica, ma soltanto un piccolo sotto-insieme di esse.

Per dare una prospettiva più chiara a questo concetto, consideriamo l’ordine di una funzione polinomiale, che è il valore del suo esponente più alto. Quindi l’equazione quadratica di y = x² ha ordine 2, l’equazione y = x²⁴ ha ordine 24, e così via.

Ovviamente, il numero di ordini è infinito e tuttavia solo un piccolo sottoinsieme di polinomi appare nelle leggi della fisica. “Per ragioni che non sono ancora pienamente comprese, il nostro universo può essere descritto in modo accurato da polinomi hamiltoniani di valore basso”, affermano Lin e Tegmark. Tipicamente, i polinomi che descrivono le leggi della fisica ricadono in ordini compresi tra 2 a 4.

Le leggi della fisica hanno altre proprietà importanti. Ad esempio, sono di solito simmetriche nei casi di rotazione e traslazione. Se un gatto o un cane viene fatto ruotare per 360 gradi sembra identico; Se lo si effettua una traslazione di 10 metri o 100 metri o un chilometro apparirà sempre uguale. Tutto questo semplifica il compito di approssimare il processo di riconoscimento del gatto o del cane.

Queste proprietà spiegano come le reti neurali non abbiano il bisogno di approssimare un’infinità di possibili funzioni matematiche, ma solo un piccolo sottoinsieme di esse.

C’è un’altra proprietà dell’universo che viene sfruttata dalle reti neurali. Essa è la gerarchia della sua struttura. “Le particelle elementari formano atomi che formano a loro volta molecole, cellule, organismi, pianeti, sistemi solari, galassie”, dichiarano i 2 ricercatori. Risulta evidente che le strutture più complesse sono spesso formate da una sequenza di pattern più semplici.

È per questo che anche la struttura delle reti neurali è importante: gli strati di queste reti possono approssimare ogni passo nella sequenza causale.

Lin e Tegmark citano l’esempio della radiazione cosmica di fondo a microonde che permea l’universo, causata dall’eco del Big Bang. Negli ultimi anni, i veicoli spaziali hanno mappato questa radiazione ricavando una risoluzione sempre più elevata. Naturalmente, i fisici sono rimasti perplessi dalla forma di queste mappe.

I 2 scienziati sottolineano che qualunque sia la ragione, è senza dubbio il risultato di una gerarchia causale.

“Un insieme di parametri cosmologici (la densità della materia oscura, ecc.) determina lo spettro di potenza delle fluttuazioni di densità nel nostro universo, che a sua volta determina il modello della radiazione cosmica di fondo che proviene dall’universo primordiale; la radiazione produce una frequenza che viene catturata da un telescopio satellitare”.

Ciascuno di questi strati causali contiene progressivamente una quantità maggiore dati. Sussiste solo una manciata di parametri cosmologici, ma le mappe e il rumore che contengono sono costituiti da miliardi di numeri. L’obiettivo della fisica è quello di analizzare i grandi numeri in modo da poter estrarre i più piccoli.

E quando i fenomeni hanno questa struttura gerarchica, le reti neurali rendono il processo di analisi molto più facile.

“Abbiamo dimostrato che il successo dell’apprendimento profondo e basato su pochi stimoli dipende non soltanto dalla matematica, ma anche dalla fisica, che spiega la distribuzione di alcune classi di probabilità eccezionalmente semplici che formano il modello per l’apprendimento profondo”, affermano Lin e Tegmark.

Questo ricerca scientifica è interessante e avrà implicazioni e ripercussioni rilevanti. Le reti neurali artificiali sono si basano su quelle biologiche. Quindi le scoperte di Lin e Tegmark non soltanto spiegano perché le macchine per l’apprendimento profondo funzionino così bene, ma spiegano inoltre perché i cervelli umani possano concettualizzare il senso stesso dell’universo.

L’evoluzione si è in qualche modo sedimentata su una struttura cerebrale ideale per sondare la complessità dell’universo.

Questo lavoro apre la strada anche ad importanti progressi nel settore dell’intelligenza artificiale. Ora che è stato finalmente compreso perché le reti neurali profonde funzionano così bene, i matematici possono arrivare a lavorare esplorando le proprietà matematiche specifiche che consentono a tali reti di performare così bene. “Il rafforzamento della comprensione analitica dell’apprendimento profondo può suggerire modi per migliorarlo”, concludono Lin e Tegmark.

L’apprendimento profondo ha compiuto passi in avanti consistenti negli ultimi anni. In seguito a questa ricerca, il tasso di avanzamento è destinato ad accelerare ulteriormente.


Tradotto in Italiano. Articolo originale: Technology Review


VISIONARI è un network di imprenditori, scienziati, artisti, scrittori e changemakers che pensano e agiscono al di fuori degli schemi.
Puoi fare domanda per entrare qui: https://bit.ly/visionari-entra