Scritto: Mercoledì, 19 Giugno 2019 10:16 Ultima modifica: Giovedì, 08 Agosto 2019 08:28

L'exaflop che verrà


 Quando verrà raggiunto il leggendario traguardo del supercalcolo, un miliardo di miliardi di operazioni al secondo? A quanto pare non manca molto e anche l'Italia avrà presto il suo "exa-scale" computer...

Rate this item
(0 votes)
Aumento della capacità di calcolo complessiva (in verde), del primo classificato (in giallo) e dell'ultimo (in blu) della lista Top500; la regione rosa sfumata indica la futura possibile evoluzione verso il primo ExaFlop computer Aumento della capacità di calcolo complessiva (in verde), del primo classificato (in giallo) e dell'ultimo (in blu) della lista Top500; la regione rosa sfumata indica la futura possibile evoluzione verso il primo ExaFlop computer Credits: top500.org - Processing: Marco Di Lorenzo

 L'altro giorno a Francoforte è stata resa pubblica la nuova lista Top500 che elenca, due volte all'anno, i 500 sistemi di calcolo più performanti al mondo, perlomeno tra quelli pubblicamente dichiarati. Rispetto all'edizione precedente (uscita a Novembre), la lista non contiene novità eclatanti e, ai primi posti, si confermano i due "supercomputer" americani Summit e Sierra, entrambi costruiti da IBM e installati in due diverse località per conto del Dipartimento per l'Energia statunitense. Le due macchine si basano su decine di migliaia di processori "Power 9" co-adiuvati da processori grafici NVIDIA V100. Il più potente dei due, il Summit, ha leggermente migliorato le sue prestazioni rispetto a 7 mesi fa e rimane l'unica macchina al mondo che supera regolarmente i 100 petaflops, ovvero 100 milioni di miliardi (1017) di operazioni al secondo. Fa impressione pensare che il Cray-1, realizzato oltre 40 anni fa e considerato il primo supercomputer, aveva una potenza 1 miliardo di volte inferiore!

CraySummit

Il primo supercomputer "Cray-1" insieme al suo creatore (a sinistra) e il più potente sistema attuale, il Summit IBM (a destra) - Credits: Cray research / IBM / DOE

 Qualcuno potrebbe chiedersi a cosa serva tutta questa potenza di calcolo; al di là della competizione (che indubbiamente c'è) tra i costruttori e tra le nazioni per accaparrarsi il prestigio del primato, queste macchine sono davvero utili per una quantità di ricerche altrimenti impossibili; i campi di studio si estendono dalla fisica delle particelle alla fusione nucleare, passando per la chimica, la biologia, la fluidodinamica, le scienze dei materiali e giungendo fino all'astrofisica e alla cosmologia, dove ci stanno regalando simulazioni sempre più dettagliate e realistiche dell'evoluzione dell'Universo. Ci sono anche applicazioni molto concrete e con un ritorno immediato, come le previsioni meteorologico/climatiche e lo sviluppo di nuovi farmaci, senza nascondere il fatto che lo stesso Dipartimento dell'Energia americano ha costruito ed utilizzato queste macchine per simulare gli effetti delle esplosioni nucleari, una volta che i test reali sono stati interrotti.

 Tuttavia, ultimamente molte cose stanno cambiando in questo settore di punta e l'intero paradigma del supercalcolo sta subendo una profonda metamorfosi.

 Da un lato, ci si sta avvicinando a dei limiti tecnologici oggettivi che minano l'evoluzione osservata in passato; questo lo si vede benissimo nella figura d'apertura, dove "il ginocchio" nelle rette che interpolano i dati suggerisce che, da almeno 5 anni, il ritmo di crescita esponenziale della potenza di calcolo è sceso, passando da un raddoppio (o quasi) ogni anno a un raddoppio ogni 27 mesi, dunque un tasso che è più basso del 55%. Il motivo di questo deciso rallentamento è duplice: da una parte, nell'intero settore dell'elettronica si sta assistendo, da svariati anni, a una generale deviazione della celebre legge di Moore con transistors che sono ormai giunti vicini ai limiti estremi di miniaturizzazione, frequenze di clock che già non crescono significativamente da una quindicina di anni e un parallelismo interno (multicore) sempre meno efficace nel sopperire a tali limitazioni. Inoltre, andando nel settore specifico dei supercomputer, si aggiungono difficoltà legate alla potenza eccessiva assorbita e, di conseguenza, alle crescenti difficoltà nel fornirla e soprattutto nel dissipare efficacemente l'immenso calore prodotto; quest'ultimo aspetto, peraltro, va a inficiare anche l'affidabilità dei sistemi. La crescente potenza di calcolo è sempre più difficile da sfruttare pienamente anche per l'esigenza di "parallelizzare" il software e distribuire i calcoli sulle varie unità logiche, problema aggravato dalle difficoltà crescenti nel realizzare trasferimenti di dati a velocità sufficientemente elevata.

 Per questo, la principale sfida tecnologica nell'era già iniziata dell' "Exa-scale computing" è quella di aumentare drasticamente l'efficienza energetica del calcolo, unitamente al miglioramento delle interconnessioni.

 C'è poi anche un radicale cambiamento nell'uso di queste macchine; l'impetuosa spinta della ricerca basata sui "big data" e sulla "intelligenza artificiale" (AI) fa si che ci sia una crescente richiesta di calcolo massivo che però non necessitare una grande precisione scientifica (32 bit sono sufficienti e a volte se ne usano solo 16). Infatti, pochi giorni fa, il suddetto sistema Summit ha stabilito un impressionante record di 1,88 exaops (1,88·1018 operazioni al secondo) usando un mix di calcoli con precisioni differenti, nell'ambito di studi genetici.

Exaprototipi

Prototipi dei futuri supercomputer Frontier e Thiane-3 - Credits: CRAY/AMD/DOE/OakRidge/Xinhuanet news agency

 Tornando al classico calcolo in doppia precisione, comunque, l'estrapolazione del trend attuale (sempre la figura d'apertura) indicherebbe la data del 2025 per il raggiungimento del traguardo di 1 Eflop ma, sulla base degli annunci rilasciati nei mesi scorsi, è probabile che i primi esemplari entrino in funzione in anticipo, tra il 2021 e il 2023. I primi due exaflop computer saranno probabilmente l'americano "Frontier" e il "Thiane-3" cinese (figura in alto) seguiti, a breve giro, da esemplari del Giappone, Europa e altri paesi. A proposito di Europa, di recente è stato fatto un annuncio che ci riguarda da vicino: la decisione di realizzare, entro un paio di anni, un supercomputer "exa-scale" da 270 Pflop proprio in Italia, presso il costruendo polo tecnologico CINECA vicino a Bologna; si chiamerà "Leonardo" e verrà utilizzato anche da INFN per simulazioni di astrofisica e per elaborare l'enorme mole di dati del futuro radiointerferometro SKA.

 

Riferimenti:

https://www.top500.org/statistics/perfdevel/

https://en.wikipedia.org/wiki/Exascale_computing

https://www.hpcwire.com/2019/06/19/summit-achieves-445-petaflops-on-new-hpl-ai-benchmark/

https://www.media.inaf.it/2019/06/11/leonardo-supercomputer-europeo-a-bologna/

https://www.ornl.gov/blog/eesd-review/genomics-code-exceeds-exaops-summit-supercomputer

Altre informazioni su questo articolo

Read 339 times Ultima modifica Giovedì, 08 Agosto 2019 08:28
Marco Di Lorenzo (DILO)

Sono laureato in Fisica e insegno questa materia nelle scuole superiori; in passato ho lavorato nel campo dei semiconduttori e dei sensori d'immagine. Appassionato di astronautica e astronomia fin da ragazzo, ho continuato a coltivare queste passioni sul web, elaborando e pubblicando numerose immagini insieme al collega Ken Kremer. E naturalmente amo la fantascienza e la fotografia!

https://www.facebook.com/marco.lorenzo.58 | Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.

Leave a comment

Make sure you enter all the required information, indicated by an asterisk (*). HTML code is not allowed.

Seguici!

Newsletter

Abilita il javascript per inviare questo modulo

Immagine del giorno

NEO news

  • NEO News

    Notizie e aggiornamenti sugli incontri ravvicinati con oggetti potenzialmente pericolosi e sulla loro catalogazione. Ultimo aggiornamento: 19 Ottobre (ore 15)

Log: Missioni e Detriti

  • Rilevazione di Onde Gravitazionali
    Rilevazione di Onde Gravitazionali

    Stato della rivelazione di probabili Onde Gravitazionali da parte di Virgo e Ligo (aggiornato al 6 Ottobre).

  • ISS height
    ISS height

    Andamento dell'orbita della Stazione Spaziale Internazionale.

    Aggiornamento del 18/10 [Last update: Oct,18]

  • Hayabusa 2 operations
    Hayabusa 2 operations

    Le manovre della sonda giapponese intorno a Ryugu (aggiornato il 15/10/19).

  • HST orbit
    HST orbit

    Hubbe Space Telescope orbit monitor.

    Aggiornamento del 18/10 [Last update: Oct,18].

  • Insight statistics
    Insight statistics

    Meteorologia e numero di immagini trasmesse dal lander geologo [aggiornato al 18/10 - Sol 317]

  • OSIRIS REx operations
    OSIRIS REx operations

    Le manovre della sonda americana intorno a Bennu (aggiornato il 13/8/19).

  • Curiosity odometry
    Curiosity odometry

    Statistiche sulla distanza percorsa, posizione, velocità e altezza del rover Curiosity.

    Aggiornato il 16 Ottobre [updated on Oct,16] Hot!

HOT NEWS