Si chiama Frontier ed è installato  presso l'Oak Ridge National Laboratory (ORNL) nel Tennessee, Stati Uniti. Gestito dal Dipartimento americano per l'Energia (DoE), è il primo vero "Exa-scale" computer, avendo raggiunto una performance di 1102 Petflop/s, secondo il benchmark HPL. Questa stima è stabilita dall'organismo Top500 che, da ormai 29 anni, stila due volte all'anno la classifica aggiornata dei 500 sistemi più performanti al mondo. Basato sulla più recente architettura HPE Cray EX235a, il Frontier è dotato di processori AMD EPYC 64C a 2 GHz, ciascuno coadiuvato da due potenti GPU Instinct multi-chip, sempre di AMD. Il sistema possiede ben 8,7 milioni di core totali, non lontano dal record del cinese Sunway TaihuLight (10,6 milioni di cores), e può contare su oltre 9 PetaBytes di memoria.

 La caratteristica più interessante di questo innovativo sistema è l'elevatissima efficienza energetica, oltre 52 gigaflops per ogni watt di potenza assorbita. Per dare una idea, il precedente detentore del primo posto, il giapponese Fugaku, si limitava a 15,5 Gflops/W, consumando il 33% di energia in più (30 MW contro 21 MW), ma avendo prestazioni più basse del 60% rispetto al Frontier.

 Fugaku è ora sceso al secondo posto mentre al terzo appare il nuovo sistema finlandese LUMI, il più potente in Europa con i suoi 152 Petaflops e una efficienza energetica comunque molto alta. La European High-Performance Computing Joint Undertaking (EuroHPC JU) sta mettendo in comune le risorse europee per sviluppare supercomputer Exascale di fascia alta per l'elaborazione di big data; nel progetto rientra il costruendo supercomputer Leonardo di cui abbiamo già parlato. Per ora l'Italia non appare nei "Top10" perchè, a causa dei nuovi ingressi, il sistema nazionale più performante (HPC5 di Eni) è scivolato al dodicesimo posto.

jun2022

Evoluzione delle performances di calcolo riportate nelle liste Top500 - Source: Top500.org - Processing: Marco Di Lorenzo

 Il grafico qui sopra mostra l'andamento negli anni delle performances del primo, dell'ultimo classificato e della somma di tutti i sistemi nella lista. I tratti lineari, essendo la scala verticale logaritmica, corrispondono ad andamenti esponenziali ma con velocità diverse. In particolare, fino al 2015 la potenza del primo classificato tendeva a raddoppiare ogni 10-11 mesi, portando a prevedere il raggiungimento del fatidico Exaflop a cavallo tra il 2019 e il 2020. Invece, ultimamente siamo passati ad un raddoppio ogni 20 mesi circa e questo ha causato il ritardo di 2,5 anni cui accennavamo. Non finisce qui, perchè guardando attentamente la curva blu dell'ultimo classificato, si assiste ultimamente ad un arresto quasi completo, come se i progressi riguardassero solo la parte alta della lista. Questa sembra una avvisaglia di un fenomeno di "cristallizzazione" che potrebbe riguardare l'intera lista, nel giro di un paio di anni al massimo. Una simile saturazione e arresto totale di progresso può sembrare inverosimile ma è invece giustificata dal fatto che, ormai, l'industria del calcolo ad alte prestazioni sta re-indirizzando i propri interessi su altri settori rispetto al classico calcolo HPC "a doppia precisione". Quest'ultimo sopravvivrà ma, probabilmente, dopo il raggiungimento di un paio di EFlop/s, gli sforzi saranno indirizzati a migliorare ulteriormente l'efficienza energetica, riducendo costi e impatto ambientale, piuttosto che proseguire nella competizione sulla potenza bruta di calcolo; pertanto, la lista Green-500 avrà presumibilmente una importanza sempre maggiore a scapito della classica Top-500.

 La nuova frontiera, naturalmente, è quella della "intelligenza artificiale" (AI), del "deep learning" e anche del "data mining". Per queste attività non è richiesta una elevata precisione di calcolo e questo rende più semplici e veloci le operazioni. Da questo punto di vista, Fugaku era già in grado di superare l'Exa-flop e Frontier lo farà ancora meglio. Il benchmark HPL-AI, sviluppato sempre da Top500, cerca proprio di evidenziare la convergenza dei carichi di lavoro HPC e AI, su cui si basano le attività di machine learning e deep learning, risolvendo un sistema di equazioni lineari con nuovi algoritmi a precisione mista, che sfruttano l'hardware moderno.

 Il sistema Frontier ha dimostrato un benchmark HPL-AI di 6,86 exaflop, contro i circa 2 exaflop/s di Fugaku; naturalmente, anche il sistema italiano Leonardo in arrivo avrà prestazioni avanzate su questo fronte.