Per high performance computing (HPC) si intende la pratica di aggregare la capacità di elaborazione in modo da garantire una potenza molto più elevata rispetto ai computer e ai server tradizionali. L'HPC o il supercomputer è analogo all'elaborazione standard, solo più potente. È un modo per elaborare enormi volumi di dati a velocità molto elevate utilizzando più computer e dispositivi di storage come fabric coesivo. L'HPC consente di esplorare e trovare risposte ad alcuni dei maggiori problemi mondiali nel campo della scienza, dell'ingegneria e degli affari.
Oggi, l'HPC viene utilizzato per risolvere problemi complessi e a uso intensivo di prestazioni, e le organizzazioni stanno spostando sempre più i carichi di lavoro HPC sul cloud. L'HPC nel cloud sta cambiando l'economia dello sviluppo e della ricerca dei prodotti perché richiede meno prototipi, accelera i test e riduce il time-to-market.
Alcuni carichi di lavoro, come il sequenziamento del DNA, sono troppo impegnativi per un singolo computer. Gli ambienti HPC o di supercomputer affrontano queste grandi sfide complesse con singoli nodi (computer) che lavorano insieme in un cluster (gruppo connesso) per eseguire enormi quantità di elaborazione in un breve periodo di tempo. La creazione e la rimozione di questi cluster è spesso automatizzata nel cloud per ridurre i costi.
L'HPC può essere eseguito su molti tipi di carichi di lavoro, ma i due più comuni sono carichi di lavoro "embarrassingly parallel" e carichi di lavoro "tightly coupled".
Sono problemi computazionali suddivisi in attività di piccole dimensioni, semplici e indipendenti che possono essere eseguite contemporaneamente, spesso con poca o nessuna comunicazione tra di loro. Ad esempio, un'azienda potrebbe inviare 100 milioni di record di carte di credito a singoli core del processore in un cluster di nodi. L'elaborazione di un record di carte di credito è un'attività di piccole dimensioni e quando 100 milioni di record sono distribuiti nel cluster, queste attività di piccole dimensioni possono essere eseguite contemporaneamente (in parallelo) a velocità sorprendenti. I casi d'uso comuni includono simulazioni di rischio, modellazione molecolare, ricerca contestuale e simulazioni logistiche.
In genere utilizzano carichi di lavoro condivisi di grandi dimensioni e li suddividono in attività più piccole che comunicano costantemente. In altre parole, i diversi nodi del cluster comunicano tra loro mentre eseguono l'elaborazione. I casi d'uso comuni includono fluidodinamica computazionale, modelli di previsioni meteorologiche, simulazioni di materiali, emulazioni di collisioni automobilistiche, simulazioni geospaziali e gestione del traffico.
Da decenni l'HPC è una parte fondamentale della ricerca accademica e dell'innovazione industriale. L'HPC aiuta ingegneri, data scientist, progettisti e altri ricercatori a risolvere problemi grandi e complessi in molto meno tempo e a un costo inferiore rispetto all'elaborazione tradizionale.
I principali vantaggi dell'HPC sono:
Le aziende Fortune 1000 in quasi tutti i settori impiegano l'HPC e la sua popolarità è in crescita. Secondo Hyperion Research, il mercato globale dell'HPC dovrebbe raggiungere i 44 miliardi di dollari entro il 2022.
Di seguito sono riportati alcuni dei settori che utilizzano l'HPC e i tipi di carichi di lavoro che l'HPC sta aiutando a eseguire:
L'HPC può essere eseguito on-premise, nel cloud o in un modello ibrido.
In un'implementazione HPC on-premise, un'azienda o un istituto di ricerca crea un cluster HPC completo di server, soluzioni di storage e altre infrastrutture che gestisce e aggiorna nel tempo. In un'implementazione HPC nel cloud, un provider di servizi cloud amministra e gestisce l'infrastruttura, mentre le organizzazioni la utilizzano su un modello Pay-as-you-Go.
Alcune organizzazioni utilizzano implementazioni ibride, in particolare quelle che hanno investito in un'infrastruttura on-premise ma desiderano anche sfruttare la velocità, la flessibilità e il risparmio sui costi del cloud. Possono utilizzare il cloud per eseguire alcuni carichi di lavoro HPC su base continuativa e passare a servizi cloud su base ad hoc, ogni volta che il tempo di attesa diventa un problema on-premise.
Le organizzazioni con ambienti HPC on-premise ottengono grande controllo sulle proprie operations, ma devono affrontare diverse sfide, tra cui
In parte a causa dei costi e di altre sfide degli ambienti on-premise, le implementazioni HPC basate su cloud stanno diventando più popolari, con Market Research Future che prevede una crescita del mercato del 21% dal 2017 al 2023. Quando le aziende eseguono i loro carichi di lavoro HPC nel cloud, pagano solo per ciò che utilizzano e possono aumentare o diminuire in base alle loro esigenze.
Per conquistare e fidelizzare i clienti, i principali provider cloud mantengono tecnologie all'avanguardia progettate specificamente per i carichi di lavoro HPC. Pertanto, non vi è alcun rischio di degrado delle performance come con l'obsolescenza delle apparecchiature on-premise. I provider cloud offrono le CPU e le GPU più recenti e veloci, nonché storage flash a bassa latenza, reti RDMA velocissime e sicurezza di classe enterprise. I servizi sono disponibili tutto il giorno, tutti i giorni, con tempi di attesa ridotti o nulli.
Non tutti i provider cloud sono uguali. Alcuni cloud non sono progettati per l'HPC e non possono fornire performance ottimali durante i periodi di picco di carichi di lavoro impegnativi. I quattro tratti da considerare nella scelta di un provider cloud sono
In generale, è opportuno scegliere servizi cloud bare metal che offrono più controllo e performance. In combinazione con la rete cluster RDMA, l'HPC bare metal fornisce risultati identici a quelli che si ottengono con hardware simile on-premise.
Le aziende e le istituzioni di diversi settori si affidano all'HPC per guidare la crescita, che dovrebbe continuare per molti anni a venire. Si prevede che il mercato globale dell'HPC crescerà da 31 miliardi di dollari nel 2017 a 50 miliardi di dollari nel 2023. Poiché le performance del cloud continuano a migliorare e diventano sempre più affidabili e performanti, si prevede che gran parte di questa crescita deriverà da implementazioni HPC basate su cloud, che solleveranno le aziende dalla necessità di investire milioni nell'infrastruttura del data center e nei relativi costi.
Nel prossimo futuro, vedremo Big Data e HPC convergenti, con lo stesso grande cluster di computer utilizzati per analizzare Big Data ed eseguire simulazioni e altri carichi di lavoro HPC. Man mano che queste due tendenze convergeranno, il risultato sarà maggiore potenza e capacità di elaborazione, portando a ricerca e innovazione ancora più rivoluzionarie.
i Earl Joseph, Steve Conway, Bob Sorensen, Alex Norton. Aggiornamento di Hyperion Research: ISC19. https://hyperionresearch.com/wp-content/uploads/2019/06/Hyperion-Research-ISC19-Breakfast-Briefing-Presentation-June-2019.pdf