Serverstrøm dyrere enn maskinen

Google mener driftsstrøm til servere snart vil koste mer enn selve maskinvaren.

Parallelt med at servere stadig vekk får større regnekraft, så bruker de også mer strøm. Undersøkelser gjort internt i Google, viser at forholdet mellom regnekraft og effektforbruket til selskapets servere, har vært temmelig uendret for de tre siste servergenerasjonene.

I denne siden i septemberutgaven av Association for Computing Machinery's Queue, skriver Luiz André Barroso, tekniker i Google og tidligere prosessordesigner i DEC, at strømutgiftene for drift av en generell server snart vil kunne passere innkjøpsutgiftene av maskinvaren til den samme serveren.

Barroso setter opp et eksempel med en server til 3000 dollar som i snitt forbruker 200 watt. På grunn av ineffektivitet i strømleveringen og kjølebehov i serverrommet, vil det faktiske energiforbruket til serverinstallasjonen være det dobbelte, altså 400 watt. Hvis man tar utgangspunkt i en strømpris på ni cent per kilowatt-time og en levetid for serveren på fire år, vil elektrisitetskostnadene allerede være 40 prosent høyere enn maskinvarekostnadene.

– Hvis ytelsen per watt forblir konstant de neste årene, vil strømkostnadene lett forbigå maskinvareutgiftene, muligens med en stor margin, skriver Barroso.

I artikkelen setter han opp fire forskjellige scenarier med forskjellig årlig vekstrate for ytelsen. I det mest aggressive tilfellet, med 50 prosent årlig vekst i ytelsen, vil strømkostnadene forbigå maskinvarekostnadene allerede etter to år.

For et selskap som Google, med tusenvis av servere i konstant drift, vil dette ha stor betydning.

– Muligheten for at datautstyrets strømforbruk kommer ut av kontroll, kan ha alvorlige konsekvenser for den generelle prisen på databehandling, for ikke å snakke om den generelle helsetilstanden til planeten, skriver Barroso. Han oppgir at i mindre servere, står prosessorene gjerne for mellom 50 og 60 prosent av det totale energiforbruket.

Som en midlertidig løsning på problemet, viser Barroso til en tilnærming som minner mye om det Sun nylig lanserte i for av prosessoren UltraSparc T1 Niagara. Barroso var i 2000 med på å utvikle en prosessor for DEC med kodenavnet Piranha. Denne kom aldri på markedet, men hadde i likhet med Niagara åtte kjerner. Hver kjerne kan kjøre fire samtidige tråder. Prosessoren bruker maksimalt 72 watt, sammenlignet med opptil 95 watt for AMDs Opteron og mellom 110 og 165 watt for Intels Xeon.

Piranha, og for en stor del også Niagara, er basert på det Barroso kaller «chip multiprocessor»-teknologi (CMP), det vil si prosessorer med tung støtte for multithreading.

– Et svært kostnadseffektivt, distribuert datasystem er essensielt for storskalatjenester som de som tilbys av Google. For disse systemene, gitt de distribuerte egenskapene til lasten, har ytelsen til enkelttråder mye mindre betydning enn det samlede kost/ytelses-forholdet til et helt system. CMP er en god måte å tilfredsstille disse kravene på, skriver Barroso.

Han mener at når man kjører slike parallelle arbeidsbyrder, vil CMP utnytte både ressursene i brikken og minnesystemet bedre enn prosessorer med tradisjonell konstruksjon. Dette vil derfor hjelpe til med å holde energikostnadene under kontroll de nærmeste årene. Barroso mener likevel at CMP ikke kan løse utfordringen ved ytelseseffektiviteten alene, men at teknologien kan forskyve utfordringen to eller tre prosessorgenerasjoner framover.

– Grunnleggende fornyelse av kretser og arkitektur er fortsatt nødvendig på lenger sikt, konkluderer Barroso.

Til toppen