Lo scheletro metallico dello stellarator Wendelstein 7-X. Credit: Max-Planck-Institut für Plasmaphysik (IPP)

Piccoli Soli da laboratorio (1/3)

La rivoluzione che non c’è stata

Michele Diodati
Spazio Tempo Luce Energia
6 min readOct 28, 2015

--

I primi computer che comprai negli anni ’80, un’era geologica fa, non avevano disco fisso. Il Commodore aveva solo 64 kilobyte di memoria con cui fare tutto e un lentissimo registratore a nastro come memoria esterna.

Un dischetto da 5,25 pollici. Credit: Mentalo 67

Il computer che comprai in seguito, un Amstrad, aveva il sistema operativo, il DOS della IBM, che si caricava in memoria da un dischetto da 5 pollici e ¼, uno strano oggetto che i ragazzi del 2016 probabilmente non hanno mai neppure sentito nominare. All’inizio degli anni ’90 acquistai il mio primo disco rigido: 40 megabyte a un costo equivalente a diverse centinaia di euro attuali. Poco più di vent’anni dopo, e per una cifra molto minore, ho potuto comprare un disco rigido da 2 terabyte, la cui capienza è 50.000 volte maggiore del disco che pagai a caro prezzo ai tempi della prima guerra del Golfo.

Qualcosa di ancor più incredibile è accaduto alla potenza di elaborazione dei computer domestici: si è passati dalla grafica minimale di Pac-man a mondi simulati dagli scenari iper-realistici, così estesi che non basterebbe una vita intera per esplorarli completamente. Tutto ciò senza parlare di Internet, della banda larga, della possibilità di trasferire terabyte di dati da un capo all’altro del mondo in pochi minuti o addirittura secondi. Certo, moltissimi non hanno ancora accesso alle tecnologie più sofisticate, però è un fatto che esistono. E, comunque, un qualsiasi modello di smartphone — un aggeggio che si trova ormai nelle tasche di chiunque, dalla Mongolia alla foresta amazzonica — ha molta più potenza di elaborazione del computer di bordo del modulo di allunaggio delle missioni Apollo.

Nel campo dell’energia, invece, siamo ancora lontanissimi da una rivoluzione paragonabile a quella che c’è stata in campo informatico. Agli inizi degli anni ’50 del secolo scorso cominciavano le vendite di UNIVAC I, il primo computer commerciale della storia: era una sorta di mostro preistorico a confronto di un MacBook o di un Microsoft Surface odierni. Negli stessi anni in cui UNIVAC I era il computer di punta dell’industria informatica, le automobili andavano a benzina già da molto tempo… e vanno a benzina ancora oggi, 65 anni dopo. Sì, è vero, abbiamo anche le auto elettriche e persino quelle a idrogeno come la Toyota Mirai, ma il grosso dell’energia — per i trasporti, l’industria, il riscaldamento ecc. — viene ancora dai combustibili fossili. In Cina quasi non si respira più, perché un miliardo e mezzo di persone vive ancora usando il carbone e i derivati del petrolio per larga parte dei suoi bisogni energetici. Si stanno facendo, in verità, grandi sforzi per aumentare la produzione di energia solare ed energia eolica, ma sono altrettanto grandi gli sforzi per ricavare, pericolosamente, petrolio e gas da giacimenti come quelli canadesi, in cui la produttività è scarsa e la distruzione ambientale notevole. Gli impianti nucleari a fissione, dal canto loro, sono una soluzione controversa e certamente provvisoria: le scorte di uranio e plutonio sono limitate e i rischi ecologici enormi (vedi Fukushima).

La fusione nucleare, dunque, era e resta il vero sogno nel campo dell’energia. Poter ricreare sulla Terra le condizioni che consentono a quattro nuclei di idrogeno di fondersi, formando un nucleo di elio e liberando energia secondo le vantaggiosissime condizioni dell’equazione di Einstein (E=mc²), vorrebbe dire procurarsi un piccolo Sole a uso e consumo degli umani. Significherebbe avere improvvisamente a disposizione una quantità di energia pressoché infinita.

È per questo sogno che, da almeno settant’anni, alcune delle menti più brillanti del pianeta si arrovellano per trovare un sistema praticabile per replicare la fusione nucleare qui sulla Terra. I problemi teorici e pratici da superare sono immensi e nascono da un limite invalicabile che impedisce di creare un meccanismo del tutto simile a quello con cui funziona il Sole: la gravità.

La gravità rende il Sole una perfetta macchina per la fusione nucleare. Una massa di quasi due quadriliardi di tonnellate preme sul nucleo solare, creando condizioni di pressione, densità e temperatura tali da consentire a una sufficiente quantità di nuclei di idrogeno di superare la reciproca repulsione elettromagnetica (la barriera di Coulomb) e di fondersi, dando il via alle reazioni che producono l’energia che il Sole irradia senza sosta nello spazio. L’enorme massa che grava sul nucleo solare agisce inoltre come un ottimo sistema di confinamento: il plasma denso e caldo all’interno del quale l’idrogeno si trasforma in elio non ha la possibilità di disperdersi all’esterno e di raffreddarsi, sicché le reazioni possono continuare a tempo indeterminato, come stanno facendo da almeno 4 miliardi e mezzo di anni.

Sulla Terra non abbiamo purtroppo nulla di simile alla gravità del Sole. Così gli scienziati hanno dovuto inventare qualcosa che potesse simulare, sia pure molto alla lontana, le condizioni che esistono nel nucleo solare. Il problema non è tanto quello di innescare la fusione, ma di tenerla sotto controllo. La bomba all’idrogeno esiste dagli anni ’50 del secolo scorso: si usa una bomba a fissione per generare la pressione e la temperatura necessarie a innescare la fusione dell’idrogeno, ma il risultato è, come dire, devastante… Il Sole, d’altra parte, non funziona come una bomba (per nostra fortuna), ma piuttosto come una stufa nucleare: il ritmo di fusione nel nucleo è talmente blando che viene prodotto in media solo 1 watt per ogni due tonnellate e mezzo circa di materia solare.

Pensa e ripensa, l’unica forza che possiamo manipolare con sufficiente libertà, qui sulla Terra, per cercare di creare le condizioni che possono permettere una fusione nucleare controllata, è la forza elettromagnetica. Usando dei potentissimi magneti opportunamente posizionati, è possibile riscaldare ad altissime temperature un plasma di isotopi dell’idrogeno e tenerlo confinato per il tempo necessario a ottenere delle reazioni di fusione nucleare.

Tuttavia, in un nucleo stellare la bassissima probabilità che si verifichi un evento di fusione è compensata dall’enorme densità della materia, che favorisce una quantità di collisioni tra protoni tale da far accadere ripetutamente anche l’improbabile. Purtroppo per noi terrestri, invece, le tecnologie di cui disponiamo attualmente sono ancora ben lontane dalla capacità di ricreare le densità tipiche dei nuclei stellari. A titolo di esempio, la densità del plasma nello stellarator W7-X è 3×10²⁰ particelle per metro cubo, mentre la densità media nel nucleo solare è di circa 2,31×10³¹ protoni per metro cubo: una differenza di undici ordini di grandezza! Dunque, non potendo aspettare miliardi di anni che si verifichino in un reattore nucleare eventi di fusione secondo il loro (basso) grado di probabilità, non resta che alzare di brutto la temperatura: così, mentre nelle stelle bastano circa 10 milioni di gradi perché si avvii il motore a idrogeno, le macchine a fusione finora costruite sulla Terra hanno bisogno di temperature che oscillano tra i 100 e i 150 milioni di gradi.

Con simili limitazioni non deve meravigliare che l’obiettivo di produrre energia per scopi commerciali tramite macchine a fusione sia ancora una chimera (o quasi). Tuttavia, dopo circa sette decenni di sperimentazione, si sono fatti discreti passi in avanti sulla strada verso la fusione nucleare controllata ed esistono organismi e progetti internazionali che puntano seriamente verso l’obiettivo finale.

Sono principalmente due le tecnologie che si contendono il campo in questa difficilissima corsa ad ostacoli verso la fusione nucleare controllata: il tokamak e lo lo stellarator. Ne parleremo diffusamente nei post successivi.

Nella stessa serie:

--

--

Michele Diodati
Spazio Tempo Luce Energia

Science writer with a lifelong passion for astronomy and comparisons between different scales of magnitude.