Ieri sera è uscita la nuova graduatoria Top500 che, come abbiamo raccontato più volte, elenca due volte all'anno i sistemi di calcolo più performanti al mondo; la nuova classifica non presenta grosse novità rispetto all'edizione di giugno, nel senso che nulla cambia ai primi posti: domina ancora il supercomputer giapponese Fugaku, con una potenza peraltro leggermente aumentata (442 Petaflops contro i 416 di 5 mesi fa) grazie all'aggiunta di oltre 300mila cores realizzati da Fujitsu. Distanziati notevolmente, ci sono ancora i due sistemi statunitensi Summit e Sierra, entrambi basati su processori Power9 e coprocessori ad altissime prestazioni NVIDIA Tesla V100; il primo sfiora i 150 Petaflop mentre l'altro è poco sotto i 100 PF, praticamente a pari merito con il cinese Sunway TaihuLight. A scendere, incontriamo il sistema Selene, realizzato in casa NVIDIA e che ha scalato ben tre posizioni grazie a un raddoppio delle sue dimensioni; questo supercomputer modulare sfrutta il nuovo co-processore A100 di cui parleremo tra poco. Purtroppo, i due computer installati in Italia, HPC5 di ENI e Marconi del Cineca, sono scivolati in basso di due posizioni e adesso occupano all'ottava e all'undicesima posizione, rispettivamente. Ma come vedremo tra poco, il centro di calcolo nostrano Cineca presto tornerà alla carica! Un'ultima importante considerazione da fare è che la potenza di calcolo complessiva dei 500 supercomputer contenuti nella classifica è cresciuta meno del 10% dall'ultima edizione e un livello così basso non si era mai osservato da quando, nel 1993, è iniziata questa classificazione; insomma, la corsa verso potenze di calcolo numerico sempre più elevate sta decisamente rallentando, cosa che viene provocatoriamente illustrata nel grafico seguente, in cui ho estrapolato l'andamento fin qui osservato immaginando addirittura una stasi a partire dal 2023.
Evoluzione della potenza di calcolo in virgola mobile; in rosso il sistema in cima alla classifica, in blu quello all'ultima posizione e in verde la potenza complessiva di tutti i 500 supercomputer sommati tra loro - Credits: Top500.org / Processing: Marco Di Lorenzo
Il motivo di questo rallentamento è frutto di una serie di cause. Sicuramente, la potenza di calcolo raggiunta anche da sistemi di media potenza è ormai sufficiente per molte applicazioni "normali" mentre, in settori meno tradizionali e nella ricerca di punta, adesso si spinge sempre più verso applicazioni che sfruttino anche le potenzialità dell'intelligenza artificiale e data-mining avanzato, magari sacrificando la precisione del calcolo in favore di una maggiore efficienza anche energetica. E questo ci porta a parlare di cosa bolle in pentola in Europa e in Italia.
Del supercomputer Leonardo, in costruzione presso il suddetto centro di calcolo avanzato del CINECA, abbiamo parlato a più riprese. Si tratta di uno dei più potenti supercomputer al mondo e la sua realizzazione rientra in un piano strategico europeo per il "Calcolo ad Alte Prestazioni" (HPC) che prevede la realizzazione di ben 8 sistemi "exa-scale" nel continente.
Leonardo è classificato in realtà come supercomputer di categoria "pre-exascale" perchè, ragionando in termini di calcolo in virgola mobile a doppia precisione, non raggiungerà affatto il traguardo del miliardo di miliardi di operazioni al secondo (1018 "Floating Point Operations" ovvero 1 exaFLOPs), ma si attesterà poco oltre i 200 Petaflops, cioè la metà del supercomputer attualmente più performante da questo punto di vista; tuttavia, se guardiamo alla velocità di calcolo a singola precisione (32 bit), allora dovrebbe superare abbondantemente i 2 exaflop, che diventano addirittura 10 considerando le operazioni in bassa precisione svolte tipicamente nel campo dell'Intelligenza Artificiale (AI). Da questo punto di vista, quando entrerà in funzione nel 2022, Leonardo sarà probabilmente il sistema con le prestazioni più elevate al mondo!
Il processore GPU A100 Ampére - Credits:NVIDIA
Tutta questa potenza sarà principalmente merito della nuova unità GPU A100, cui abbiamo accennato prima, basata sulla tecnologia Ampère di NVIDIA. Questo co-processore ad elevatissimo livello di integrazione (54 miliardi di transistors) è 6-7 volte più potente del suo predecessore V100 nel calcolo a singola precisione e nelle capacità di "inferenza" AI. II Tensor Core di terza generazione offre una potenza di calcolo di quasi 20 TF in doppia precisione (64 bit) e oltre 300 TF a 32 bit, che raddoppiano usando numeri a virgola mobile in bassa precisione (16 bit); la memoria interna è di 40 GB.
Leonardo consumerà 9 MW di potenza, contro i 40 MW di Fugaku, ed avrà 50 PB di memoria "storage". Conterrà 3500 "nodi" per un totale di 14000 processori A100 e costerà 240 milioni di euro, metà forniti dal consorzio EuroHPC e metà dal ministero italiano della Ricerca e dell'Università; prenderà forma l'anno prossimo in un nuovo centro dati ad alta efficienza energetica, nel parco della scienza di Bologna. Verrà impiegato, tra l'altro, per effettuare simulazioni meteorologiche ed anche astrofisiche.
Riferimenti:
https://www.cineca.it/en/hot-topics/Leonardo
https://www.impresacity.it/news/24268/supercomputer-leonardo-atos-nvidia-hpc.html
https://www.nvidia.com/it-it/data-center/a100/
https://atos.net/wp-content/uploads/2018/09/BullSequana_X1000-technical-factsheet.pdf