Serverrack som utgjør NTNUs superdatamaskin «Vilje». Innfelt er skjermkortet GeForce GTX 670 fra Nvidia. (Foto: NTNU og Nvidia)

Unyansert om superdatamaskiner

Mohammed Sourouri er postdoktor ved Institutt for elektronikk og telekommunikasjon, NTNU.
Mohammed Sourouri er postdoktor ved Institutt for elektronikk og telekommunikasjon, NTNU. Foto: NTNU

Den 29. juni publiserte digi.no en nyhetsartikkel om russiske fysikere som hadde tilrettelagt en spesiell type kvantemekanisk beregning for grafikkprosessorer (GPU-er).

Til fysikernes (og journalistens) store forbløffelse, gikk beregningene på en GPU til bare noen tusen kroner, raskere enn tilsvarende beregninger utført på en tysk superdatamaskin fra 2009 til titalls millioner kroner. På bakgrunn av denne sammenligningen, spekulerer artikkelen om hvorvidt helt ordinære maskiner utstyrt med GPU-er vil føre til redusert behov for superdatamaskiner.

At akseleratorer, som for eksempel GPU-er, kan benyttes til å øke hastigheten på parallelle beregninger, er intet nytt og har vært et aktivt forskningsområde i over 15 år. På grunn av dreiningen fra serielle til parallelle prosesseringsarkitekturer, velger stadig flere forskere å tilrettelegge nye og eksisterende applikasjoner for disse prosesseringsarkitekturene – så fremt det er mulig. Det publiseres nærmest daglig vitenskapelige artikler, på tvers av ulike fagfelt, om nettopp slike akselerator-implementasjoner.

Enkelte av disse artiklene melder om sensasjonelle ytelsesforbedringer fra hundre til tusen ganger, utelukkende fordi beregningene utføres på GPU-er fremfor CPU-er. Ikke ulikt den publiserte artikkelen til de russiske forskerne, altså. Men som regel blir slike påstander raskt tilbakevist fordi sammenlikningsgrunnlaget er feil.

En typisk feil som ofte gjøres er å sammenlikne en parallell akselerator-implementasjon med en seriell CPU-implementasjon. I de aller mest ekstreme tilfellene har optimaliserte GPU-koder blitt sammenliknet med sub-optimale og sekvensielle CPU-koder. Sistnevnte fenomen henger trolig sammen med at enkelte tenker rett og slett at en høyere hastighetsforbedring virker mer imponerende. Men når de samme beregningene parallelliseres på CPU-en, blir ikke ytelsestallene fullt så imponerende.

De russiske fysikerne hevder at beregninger som engang tok to til tre døgn å utføre på superdatamaskinen Jugene fra 2009, nå tar under tre sekunder på en GPU. Problemet er at forskerne sier ingenting om implementasjonen de sammenlikner sin kode med. Bare fordi et program kjører på en superdatamaskin betyr ikke at beregningene vil gå raskt av seg selv eller at superdatamaskinen utnyttes til sin fulle kapasitet. Det opplyses heller ingenting om at kvaliteten på implementasjonen. For alt vi vet, kan det være snakk om en seriell implementasjon.

Grafikkprosessoren som ble benyttet i de russiske eksperimentene var en Nvidia GeForce GTX 670 med en teoretisk flyttallsytelse på 2,4 teraflops, mens Jugene hadde i sin tid en teoretisk flyttallsytelse på 1,0 petaflops. Det er med andre ord en størrelsesorden i forskjell på ytelsen mellom disse to enhetene. Allerede på dette tidspunktet burde varsellampene hos journalisten starte å blinke, men det gjorde det dessverre ikke. Det er ikke kjent for undertegnede hvordan journalisten har kommet over denne pressemeldingen og om han har faktisk intervjuet forskerne bak eksperimentet eller om dette er en gjengivelse av en pressemelding som er sendt ut. Journalisten burde uansett ha vært mer kritisk til innholdet eller intervjuobjektet.

Å spekulere i at rimelige GPU-er truer superdatamaskiner slik fysikerne og artikkelen gjør, er ikke bare feil, men også en avsporing. For det første er det ingenting i veien for å utstyre superdatamaskiner med akseleratorer som eksempelvis GPU-er. I skrivende stund er de tre raskeste superdatamaskinene i verden utstyrt med akseleratorer. For det andre har superdatamaskiner flere oppgaver enn bare å utføre lynraske beregninger. En viktig, men dessverre ofte glemt dimensjon, er muligheten til å fordele store simuleringer som ikke får plass i for eksempel minnet til én maskin utover flere maskiner. Andre viktige egenskaper er simuleringer som stiller ekstreme krav til lagringskapasitet, raskt nettverk eller flyttallsoperasjoner med høy presisjon og ytelse. For personer som faktisk jobber med store simuleringer er klynger som Vilje på NTNU et helt uunnværlig arbeidsredskap som ikke kan erstattes av en ordinær skrivebords-pc utstyrt med en GPU kjøpt over disk.

Tungregning går i disse dager en svært spennende tid i møte på grunn av økende behov for regnekraft. Prosessering av stordata (big data) og kunstig intelligens’ renessanse (maskinlæring, ”dyplæring”, og så videre), gjør at det er få som føler at superdatamaskiner og store regneklynger er overflødige. Snarere tvert i mot. For oss som faktisk jobber innenfor dette fagfeltet er spørsmålet om hvorvidt klyngene vi har til rådighet i Norge er moderne nok og kapable til å håndtere den spennende tiden vi går i møte.

Kommentarer (5)

Kommentarer (5)
Til toppen