Super
computer
Il supercomputer più potente del mondo esegue 2.746 milioni di miliardi di operazioni al secondo
Se tutti gli abitanti della Terra facessero un’operazione al secondo per un anno, eseguirebbero 258 milioni di miliardi di operazioni (8,2 miliardi di abitanti per 31.536.000 secondi)
Quanti anni servirebbero, al ritmo di una operazione al secondo, a tutti gli abitanti della Terra per eguagliare la potenza di calcolo dei 10 supercomputer più potenti?
Tuolumne - USA
1,1 anni
Leonardo - Italia
1,2 anni
LUMI - Finlandia
Fugaku - Giappone
2,1 anniAlps - Svizzera
2,2 anniHPC6 - Italia
2,3 anniEagle - USA
3,3 anniAurora - USA
7,7 anniFrontier - USA
8 anniEl Capitan - USA
10,6 anniPer sviluppare la stessa potenza di calcolo che El Capitan esprime in un secondo, una persona dovrebbe fare un’operazione al secondo per 87 miliardi di anni
Se chiedete a uno scienziato che cos’è un supercomputer, lui vi risponderà: «È quella cosa che viene subito prima di quello di cui ho realmente bisogno». Questa risposta è molto più di una battuta: è una bussola. Una guida per comprendere le macchine per il calcolo non umano.
È il puntino rosso che dice: “voi siete qui”. E che indica le frontiere del sapere, il luogo dove nuove scoperte convivono con problemi irrisolvibili. Dove una macchina e gli uomini che l’hanno costruita provano a superare i limiti del possibile. Talvolta riuscendoci, talvolta fermandosi «subito prima».
Viaggio nell'Italia del supercalcolo
Oggi il supercomputer più potente del mondo è americano. Si chiama El Capitan ed è di proprietà della Nasa. Può eseguire 1,7 quintilioni di operazioni al secondo. Un numero difficile da comprendere: per sviluppare la stessa potenza di calcolo, un essere umano dovrebbe eseguire un’operazione al secondo per 87 miliardi di anni.
El Capitan guida la Top500, la classifica dei 500 supercomputer più veloci del mondo che viene aggiornata ogni sei mesi. Se si guardano i dati aggregati per nazione, si scopre che l’Italia è sul podio.
Con 14 supercalcolatori censiti a novembre 2024, il nostro Paese è primo in Europa per potenza di calcolo installata. Il supercomputer italiano più potente si chiama Hpc6: è di proprietà dell’Eni ed è il quinto più potente del mondo.
Nella classifica globale, l’Italia è terza dopo Stati Uniti (molto lontani) e Giappone (molto vicino). Siamo davanti a Svizzera, Germania, Finlandia e Cina.
Superpotenze di calcolo
Nella 2017 la Cina guidava la classifica mondiale. Il paese del Dragone è rimasto in zona podio fino al novembre del 2023. Oggi è sesto, anche se nessuno può escludere, come del resto per tutti gli altri paesi, che in Cina siano in funzione supercomputer non censiti.
La velocità con cui cambiano le prime posizioni in classifica conferma una sfida in atto tra i continenti. Una sfida per il primato nel supercalcolo spinta dall’intelligenza artificiale. Più precisamente, dall’incontro tra le potenti Gpu Nvidia e gli algoritmi capaci di addestrare i grandi modelli linguistici (LLM). Incontro che ha reso possibile l’intelligenza artificiale generativa.
Un’intelligenza capace di comprendere il linguaggio naturale e generare autonomamente testi, video e immagini. OpenAI con ChatGpt è stata la prima a sfruttare questo mix nel novembre 2024. Poi sono arrivati gli altri a competere sul mercato: inclusi i cinesi di DeepSeek.
Sei facce del supercalcolo globale
Senza i supercomputer spinti dalle Gpu di Nvidia oggi, semplicemente, non ci sarebbe l’intelligenza artificiale generativa. Non saremmo ancora passati dalla teoria (nota da decenni) alla pratica. Si spiega così perché i data center sparsi per il mondo stiano mutando pelle: da infrastrutture per servizi cloud e storage dei dati a centri per il calcolo ad alte prestazioni che rende artificiale l’intelligenza.
Tutto questo ha trasformato i “nuovi” data center in infrastrutture strategiche. Centri di potere che negli Usa sono in mano perlopiù alle grandi big tech private: Google, Amazon e Microsoft.
Lo sviluppo è caotico ed energeticamente non sostenibile sul lungo periodo, tanto che il mondo della ricerca sta concentrando gli sforzi per trovare chip meno energivori. Ma bisogna fare in fretta.
C’è un dato che spiega perché, meglio di tutti: Nvidia ha comunicato che, con l’aumento delle prestazioni, presto il singolo armadio di un supercomputer assorbirà fino a 700 kW di energia: 700 kW di energia in meno di un metro quadrato!
L’ente internazionale IEEE (Institute of electrical and electronics engineers) stima che già oggi i data center consumino, a livello globale, più dell’intero Messico: 600 TWh all’anno contro 550. Energia che serve ad alimentare le risorse di calcolo assorbite da ChatGpt e dai suoi simili per rispondere alle nostre richieste: i nostri prompt – come si chiamano in gergo – che non fanno che aumentare. Mettendo in secondo piano i prompt dell’ambiente, che restano inascoltati.
La gara tra Paesi, continenti, settori e produttori
In questo scenario, l’Intelligenza artificiale rischia di fare la fine di Internet, e cadere nelle mani del mercato e di pochi privati con dimensioni sovranazionali. È già così.
L’Europa – in ritardo sul fronte dei prodotti, ma più attenta al bene comune – è oggi l’unico continente che tra mille difficoltà può tentare di cambiare le cose.
Il Vecchio Continente, in questo momento, ha la più grande infrastruttura di supercalcolo pubblica al mondo, di cui il Cineca di Bologna è uno dei nodi principali. E insieme agli Stati membri sta investendo fondi pubblici per potenziare ulteriormente questa infrastruttura, creando le AI Factory.
Sono “fabbriche del supercalcolo” corredate da servizi, da mettere a disposizione, gratuitamente, delle industrie, ma anche di Pmi e Pubbliche amministrazioni, per attività di ricerca e innovazione, con l’obiettivo di far nascere un ecosistema di prodotti e servizi di intelligenza artificiale europea.
Una delle prime due AI Factory sta nascendo proprio a Bologna, grazie a 430 milioni di euro di fondi comunitari.
Una sfida intercontinentale
Bologna è diventata capitale europea dei big data e del supercalcolo grazie a scelte lungimiranti prese oltre 30 anni fa. Oggi il Dama Tecnopolo ospita, oltre al supercomputer Leonardo del Cineca, i quattro supercomputer del Centro europeo per le previsioni meteo a medio termine (Ecmwf) e il data center dell’Infn, dove confluiscono i dati degli esperimenti del Cern.
Il supercalcolatore Leonardo è il 20esimo sistema di supercalcolo del Cineca – che è un consorzio interuniversitario per il calcolo ad alte prestazioni fondato nel 1967 – e presto sarà affiancato da una macchina 40 volte più potente.
L’avamposto italiano nel settore è presidiato anche da Leonardo – con il supercomputer Da Vinci specializzato in applicazioni per la difesa, Enea – che ha inaugurato Cresco8, il supercalcolatore che avrà il compito di accelerare la ricerca sulla fusione nucleare – e l’Istituto italiano di tecnologia, che a Genova con Franklin indaga problemi irrisolti in ambito medico, ma non solo.
E ancora l’Università di Pisa, laSissa di Trieste, Fastweb a Bergamo, il Centro euro-mediterraneo sui cambiamenti climatici di Lecce, il CRS4 in Sardegna. Ognuno di questi soggetti ha almeno un supercomputer.
Per fare rete è anche stato istituito il Centro nazionale di ricerca in High-Performance Computing, Big Data e Quantum Computing, uno dei cinque Centri Nazionali istituiti dal PNRR e dedicati a settori strategici.
I supercomputer italiani più potenti
Questa corsa senza sosta alla potenza di calcolo vede all’orizzonte i computer quantistici, capaci di fare in una manciata di minuti, consumando pochissima energia, i calcoli che a un supercomputer richiedono anni. Napoli, Roma, Firenze, Padova sono i nodi di questa rete nascente con al centro i Qbit.
Anche i modelli di apprendimento evolveranno e gli algoritmi che governano le elaborazioni diventeranno più efficienti. Verrà allora un giorno in cui avremo più potenza di calcolo di quella necessaria?
Giorgio Parisi, premio Nobel per la fisica e pioniere italiano del supercalcolo, ci ha risposto di no, perché la «complessità non ha limiti»: ogni problema risolto apre la strada a nuovi problemi da risolvere.
I sistemi di supercalcolo evolveranno, ma resteranno «quella cosa che viene subito prima di quello di cui abbiamo realmente bisogno». La corsa per migliorarli, quindi, non si arresterà: a ogni nuova generazione, ne servirà una più potente. Perché l’istinto dell’uomo di superare i propri limiti correrà sempre più veloce di qualsiasi supercomputer.