Scritto: Mercoledì, 19 Giugno 2019 10:16 Ultima modifica: Domenica, 05 Gennaio 2020 09:02

L'exaflop che verrà


 Quando verrà raggiunto il leggendario traguardo del supercalcolo, un miliardo di miliardi di operazioni al secondo? A quanto pare non manca molto e anche l'Italia avrà presto il suo "exa-scale" computer...

Rate this item
(0 votes)
Aumento della capacità di calcolo complessiva (in verde), del primo classificato (in giallo) e dell'ultimo (in blu) della lista Top500; la regione rosa sfumata indica la futura possibile evoluzione verso il primo ExaFlop computer Aumento della capacità di calcolo complessiva (in verde), del primo classificato (in giallo) e dell'ultimo (in blu) della lista Top500; la regione rosa sfumata indica la futura possibile evoluzione verso il primo ExaFlop computer Credits: top500.org - Processing: Marco Di Lorenzo

 L'altro giorno a Francoforte è stata resa pubblica la nuova lista Top500 che elenca, due volte all'anno, i 500 sistemi di calcolo più performanti al mondo, perlomeno tra quelli pubblicamente dichiarati. Rispetto all'edizione precedente (uscita a Novembre), la lista non contiene novità eclatanti e, ai primi posti, si confermano i due "supercomputer" americani Summit e Sierra, entrambi costruiti da IBM e installati in due diverse località per conto del Dipartimento per l'Energia statunitense. Le due macchine si basano su decine di migliaia di processori "Power 9" co-adiuvati da processori grafici NVIDIA V100. Il più potente dei due, il Summit, ha leggermente migliorato le sue prestazioni rispetto a 7 mesi fa e rimane l'unica macchina al mondo che supera regolarmente i 100 petaflops, ovvero 100 milioni di miliardi (1017) di operazioni al secondo. Fa impressione pensare che il Cray-1, realizzato oltre 40 anni fa e considerato il primo supercomputer, aveva una potenza 1 miliardo di volte inferiore!

CraySummit

Il primo supercomputer "Cray-1" insieme al suo creatore (a sinistra) e il più potente sistema attuale, il Summit IBM (a destra) - Credits: Cray research / IBM / DOE

 Qualcuno potrebbe chiedersi a cosa serva tutta questa potenza di calcolo; al di là della competizione (che indubbiamente c'è) tra i costruttori e tra le nazioni per accaparrarsi il prestigio del primato, queste macchine sono davvero utili per una quantità di ricerche altrimenti impossibili; i campi di studio si estendono dalla fisica delle particelle alla fusione nucleare, passando per la chimica, la biologia, la fluidodinamica, le scienze dei materiali e giungendo fino all'astrofisica e alla cosmologia, dove ci stanno regalando simulazioni sempre più dettagliate e realistiche dell'evoluzione dell'Universo. Ci sono anche applicazioni molto concrete e con un ritorno immediato, come le previsioni meteorologico/climatiche e lo sviluppo di nuovi farmaci, senza nascondere il fatto che lo stesso Dipartimento dell'Energia americano ha costruito ed utilizzato queste macchine per simulare gli effetti delle esplosioni nucleari, una volta che i test reali sono stati interrotti.

 Tuttavia, ultimamente molte cose stanno cambiando in questo settore di punta e l'intero paradigma del supercalcolo sta subendo una profonda metamorfosi.

 Da un lato, ci si sta avvicinando a dei limiti tecnologici oggettivi che minano l'evoluzione osservata in passato; questo lo si vede benissimo nella figura d'apertura, dove "il ginocchio" nelle rette che interpolano i dati suggerisce che, da almeno 5 anni, il ritmo di crescita esponenziale della potenza di calcolo è sceso, passando da un raddoppio (o quasi) ogni anno a un raddoppio ogni 27 mesi, dunque un tasso che è più basso del 55%. Il motivo di questo deciso rallentamento è duplice: da una parte, nell'intero settore dell'elettronica si sta assistendo, da svariati anni, a una generale deviazione della celebre legge di Moore, con transistors che sono ormai giunti vicini ai limiti estremi di miniaturizzazione, frequenze di clock che già non crescono significativamente da una quindicina di anni e un parallelismo interno (multicore) sempre meno efficace nel sopperire a tali limitazioni. Inoltre, andando nel settore specifico dei supercomputer, si aggiungono difficoltà legate alla potenza eccessiva assorbita e, di conseguenza, alle crescenti difficoltà nel fornirla e soprattutto nel dissipare efficacemente l'immenso calore prodotto; quest'ultimo aspetto, peraltro, va ad inficiare anche l'affidabilità dei sistemi. La crescente potenza di calcolo è sempre più difficile da sfruttare pienamente anche per l'esigenza di "parallelizzare" il software e distribuire i calcoli sulle varie unità logiche, problema aggravato dalle difficoltà crescenti nel realizzare trasferimenti di dati a velocità sufficientemente elevata.

 Per questo, la principale sfida tecnologica nell'era già iniziata dell' "Exa-scale computing" è quella di aumentare drasticamente l'efficienza energetica del calcolo, unitamente al miglioramento delle interconnessioni.

 C'è poi anche un radicale cambiamento nell'uso di queste macchine; l'impetuosa spinta della ricerca basata sui "big data" e sulla Intelligenza Artificiale (AI) fa si che ci sia una crescente richiesta di calcolo massivo che però non necessita di una grande precisione scientifica (32 bit sono più che sufficienti e a volte se ne usano solo 16). Infatti, pochi giorni fa, il suddetto sistema Summit ha stabilito un impressionante record di 1,88 exaops (1,88·1018 operazioni al secondo) usando un mix di calcoli con precisioni differenti, nell'ambito di studi genetici.

Exaprototipi

Prototipi dei futuri supercomputer Frontier e Thiane-3 - Credits: CRAY/AMD/DOE/OakRidge/Xinhuanet news agency

 Tornando al classico calcolo in doppia precisione, comunque, l'estrapolazione del trend attuale (sempre la figura d'apertura) indicherebbe la data del 2025 per il raggiungimento del traguardo di 1 Eflop; tuttavia, sulla base degli annunci rilasciati nei mesi scorsi, è probabile che i primi esemplari entrino in funzione in anticipo, tra il 2021 e il 2023. I primi due exaflop computer saranno probabilmente l'americano "Frontier" e il "Thiane-3" cinese (figura in alto) seguiti, a breve giro, da esemplari del Giappone, Europa e altri paesi. A proposito di Europa, di recente è stato fatto un annuncio che ci riguarda da vicino: la decisione di realizzare, entro un paio di anni, un supercomputer "exa-scale" da 270 Pflop proprio in Italia, presso il costruendo polo tecnologico CINECA vicino a Bologna; si chiamerà "Leonardo" e verrà utilizzato anche da INFN per simulazioni di astrofisica e per elaborare l'enorme mole di dati del futuro radiointerferometro SKA.

 

Riferimenti:

https://www.top500.org/statistics/perfdevel/

https://en.wikipedia.org/wiki/Exascale_computing

https://www.hpcwire.com/2019/06/19/summit-achieves-445-petaflops-on-new-hpl-ai-benchmark/

https://www.media.inaf.it/2019/06/11/leonardo-supercomputer-europeo-a-bologna/

https://www.ornl.gov/blog/eesd-review/genomics-code-exceeds-exaops-summit-supercomputer

Altre informazioni su questo articolo

Read 919 times Ultima modifica Domenica, 05 Gennaio 2020 09:02
Marco Di Lorenzo (DILO)

Sono laureato in Fisica e insegno questa materia nelle scuole superiori; in passato ho lavorato nel campo dei semiconduttori e dei sensori d'immagine. Appassionato di astronautica e astronomia fin da ragazzo, ho continuato a coltivare queste passioni sul web, elaborando e pubblicando numerose immagini insieme al collega Ken Kremer. E naturalmente amo la fantascienza e la fotografia!

https://www.facebook.com/marco.lorenzo.58 | Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.

Latest from Marco Di Lorenzo (DILO)

Leave a comment

Make sure you enter all the required information, indicated by an asterisk (*). HTML code is not allowed.

Seguici!

Newsletter

Abilita il javascript per inviare questo modulo

Immagine del giorno

NEO news

NEO News

Notizie e aggiornamenti sugli asteroidi che passano vicini a noi, sulla loro catalogazione e...

StatisticaMENTE

Curiosity odometry

Curiosity odometry

Aggiornato il 14 Luglio [updated on Jul...

ISS height

ISS height

Aggiornamento del 14 Luglio [Last update...

HST orbit

HST orbit

Aggiornamento del 14 Luglio [Last update...

Insight statistics

Insight statistics

[aggiornato al 12/7/20 - Sol 577] - Mete...

OSIRIS REx operations

OSIRIS REx operations

(aggiornato il 11/7/20). Le manovre della sonda am...

[LIBRO] Con la Cassini-Huygens nel sistema di Saturno

Con la Cassini-Huygens nel sistema di Saturno di Elisabetta BonoraLa pubblicazione ripercorre le gesta della missione interplanetaria NASA / ESA / ASI Cassini–Huygens, che esplorò Saturno e le sue lune dal 2004 al 2017. Le principali fasi del progetto, del lungo viaggio durato sette anni e della missione ultradecennale sono raccontate con semplicità e passione allo scopo di divulgare e ricordare una delle imprese spaziali robotiche più affascinanti ideate dall’uomo. Le meravigliose foto scattate dalla sonda nel sistema di Saturno, elaborate e processate dall’autrice, sono parte centrale della narrazione. Immagini uniche che hanno reso popolare e familiare un angolo remoto del nostro Sistema Solare. 244 pagine.

Acquista