High Performance Computing (HPC) verwijst naar de praktijk van het samenvoegen van rekenkracht op een manier die veel meer vermogen biedt met traditionele computers en servers mogelijk zou zijn. HPC – of supercomputing – is te vergelijken met het dagelijkse computergebruik, alleen veel krachtiger. Het is een manier om op zeer hoge snelheden enorme hoeveelheden data te verwerken met behulp van meerdere computers en opslagapparaten die fungeren als één samenhangend geheel. HPC maakt het mogelijk om enkele van 's werelds grootste problemen op het gebied van de wetenschap, de techniek en het bedrijfsleven te onderzoeken en hier antwoorden op te geven.
Tegenwoordig wordt HPC gebruikt om complexe, prestatie-intensieve problemen op te lossen, en steeds meer organisaties verplaatsen HPC-workloads naar de cloud. HPC in de cloud verandert de economische aspecten van productontwikkeling en onderzoek omdat er minder prototypes nodig zijn, sneller wordt getest en de marktintroductietijd wordt verkort.
Sommige workloads, zoals DNA-sequencing, zijn simpelweg te immens om door één computer te worden verwerkt. Door HPC- of supercomputeromgevingen worden deze grote en complexe uitdagingen aangepakt met afzonderlijke knooppunten (computers) die samenwerken in een cluster (verbonden groep) om in korte tijd enorme hoeveelheden data te verwerken. Het maken en verwijderen van deze clusters wordt in de cloud vaak geautomatiseerd om kosten te besparen.
HPC kan op veel soorten workloads worden uitgevoerd, maar de twee meest voorkomende zijn belemmerend parallelle workloads en strak gekoppelde workloads.
Dit zijn rekenproblemen die zijn onderverdeeld in kleine, eenvoudige en onafhankelijke taken die tegelijkertijd kunnen worden uitgevoerd, vaak met weinig of geen onderlinge communicatie. Een bedrijf kan bijvoorbeeld 100 miljoen creditcardrecords indienen bij individuele processorkernen in een cluster van knooppunten. Het verwerken van één creditcardrecord stelt niets voor en wanneer 100 miljoen records over de cluster zijn verspreid, kunnen die kleine taken tegelijkertijd (parallel) met verbazingwekkende snelheden worden uitgevoerd. Veel voorkomende gebruiksscenario's zijn risicosimulaties, moleculaire modellering, contextueel zoeken en logistieke simulaties.
Deze workloads gebruiken doorgaans een grote gezamenlijke workload die wordt opgesplitst in kleinere taken die continu communiceren. Met andere woorden: de verschillende knooppunten in de cluster communiceren met elkaar terwijl ze hun verwerking uitvoeren. Veel voorkomende gebruiksscenario's zijn onder meer computational fluid dynamics, modellering van weersvoorspellingen, materiaalsimulaties, emulaties van botsingen van auto's, georuimtelijke simulaties en verkeersmanagement.
HPC is al decennialang een cruciaal onderdeel van academisch onderzoek en industriële innovatie. HPC helpt ingenieurs, datawetenschappers, ontwerpers en andere onderzoekers om grote, complexe problemen in veel minder tijd en tegen lagere kosten op te lossen dan bij het traditionele computergebruik.
De belangrijkste voordelen van HPC zijn:
Bedrijven uit de Fortune 1000 in bijna elke branche maken gebruik van HPC en de populariteit ervan neemt gestaag toe. Volgens Hyperion Research zal de wereldwijde HPC-markt tegen 2022 naar verwachting $ 44 miljard bedragen.
In onder andere de volgende branches worden HPC en de typen workloads gebruikt die met HPC kunnen worden uitgevoerd:
HPC kan on-premises, in de cloud of in een hybride model worden uitgevoerd waarbij een deel van elk is betrokken.
Bij een on-premises HPC-implementatie bouwt een bedrijf of onderzoeksinstelling een HPC-cluster met veel servers, opslagoplossingen en een andere infrastructuur die ze vervolgens zullen moeten beheren en upgraden. In een HPC-implementatie in de cloud wordt de infrastructuur door een cloudserviceprovider beheerd en organisaties gebruiken die infrastructuur als een pay-as-you-go-model.
Sommige organisaties gebruiken hybride implementaties, vooral die organisaties die hebben geïnvesteerd in een on-premises infrastructuur, maar ook willen profiteren van de snelheid, flexibiliteit en kostenbesparingen van de cloud. Ze kunnen de cloud gebruiken om een aantal HPC-workloads doorlopend uit te voeren en op ad-hocbasis gebruik maken van cloudservices wanneer op de locatie de wachttijd een probleem wordt.
Organisaties met on-premises HPC-omgevingen krijgen veel meer controle over hun activiteiten, maar krijgen wel te maken met verschillende uitdagingen, waaronder:
Gedeeltelijk vanwege de kosten van en andere problemen met on-premises omgevingen worden cloudgebaseerde HPC-implementaties steeds populairder, waarbij Market Research Future een wereldwijde marktgroei van 21% tussen 2017 en 2023 verwacht. Wanneer bedrijven hun HPC-workloads in de cloud uitvoeren, betalen ze alleen voor wat ze gebruiken en kunnen ze op- en afschalen al naargelang wat ze op dat moment nodig hebben.
Om klanten binnen te halen en te behouden, gebruiken de grote cloudproviders toonaangevende technologieën die specifiek zijn ontworpen voor HPC-workloads, zodat ze niet het risico lopen dat de prestaties minder worden naarmate on-premises apparatuur ouder wordt. Cloudproviders leveren de nieuwste en snelste CPU's en GPU's, evenals flash-opslag met lage latentie, bliksemsnelle RDMA-netwerken en beveiliging op bedrijfsniveau. De services zijn dagelijks, 24 uur per dag beschikbaar, met weinig tot geen wachttijd.
Niet alle cloudproviders zijn hetzelfde. Sommige clouds zijn niet ontworpen voor HPC en kunnen geen optimale prestaties leveren tijdens piekperiodes van veeleisende workloads. De vier kenmerken waarmee u rekening moet houden bij het kiezen van een cloudprovider, zijn:
Over het algemeen kunt u het beste zoeken naar bare metal-cloudservices die meer controle en prestaties bieden. In combinatie met RDMA-clusternetwerken levert bare metal-HPC exact dezelfde resultaten als wat u krijgt met vergelijkbare hardware on-premises.
Bedrijven en instellingen in verschillende branches stappen over op HPC en stimuleren groei die naar verwachting nog vele jaren zal aanhouden. De wereldwijde HPC-markt zal naar verwachting groeien van $ 31 miljard in 2017 tot $ 50 miljard in 2023. Naarmate de cloudprestaties steeds beter en nog betrouwbaarder en krachtiger worden, is de verwachting dat een groot deel van die groei zal plaatsvinden in cloudgebaseerde HPC-implementaties waardoor bedrijven geen miljoenen meer hoeven te investeren in een datacenterinfrastructuur en bijkomende kosten.
In de nabije toekomst zullen big data en HPC gaan integreren, met dezelfde grote cluster computers die wordt gebruikt om big data te analyseren en simulaties en andere HPC-workloads uit te voeren. Naarmate deze twee trends samenkomen, zal het resultaat voor beide zijn dat er meer rekenkracht en -capaciteit nodig is, wat leidt tot nog meer baanbrekend onderzoek en baanbrekende innovatie.
i Earl Joseph, Steve Conway, Bob Sorensen, Alex Norton. Hyperion Research Update: ISC19. https://hyperionresearch.com/wp-content/uploads/2019/06/Hyperion-Research-ISC19-Breakfast-Briefing-Presentation-June-2019.pdf