Alle må lære av Googles IT-modell

Neste generasjons IT-system må fungerer på en helt annen måte. Google har kommet langt, sier Gartner.

Analyseselskapet Gartner publiserte nylig en rapport om hvordan de venter seg at store bedriftssystemer vil utvikle seg de kommende ti årene. Gartner mener vi bare har sett starten på en vedvarende eksplosjon i datamengder, og kartlegger teknologiene som framtidas «tera-arkitektur» vil trenge.

Drivkreftene bak eksplosjonen i datamengde finnes overalt der det pågår databehandling. Alle kjenner for eksempel behovet for stadig raskere og mer intelligent gjenfinning av informasjon, og beslutningsstøttesystemenes ustoppelige appetitt på alt regnskaps- og transaksjonssystemene kan levere. I tillegg kommer nye teknologier som radiomerking (RFID), nye behov innen overvåkning og så videre, samt det faktum at XML, distribuerte applikasjoner, tjenesteorientert arkitektur (SOA – «service oriented architecture»), kommende offentlige kontrollordninger med mer, alle drar i samme retning.

Gartner anslår at kapasitetskravet til IT-infrastruktur vil ti dobles fra 2005 til 2010 – sannsynligheten for at dette vil skje oppgis til 70 prosent – og venter enda en tidobling fra 2010 til 2015.

Dette galopperende kapasitetsbehovet krever det Gartner kaller «tera-arkitektur», definert som et IT-system som setter seg selv sammen fra standardbaserte servere, samtidig som det er i stand til å kjøre helt allmenne applikasjoner. Etter hvert som systemet øker i fysisk omfang, skal det ikke kreve større mannskap for å driftes. Maskinvarekomponentene behøver ikke være mer pålitelige enn dagens PC-er, og de skal ikke være fri for byrder assosiert med tradisjonell serverteknologi, som høye innkjøps- og driftskostnader. Tera-arkitekturen skal altså være skalerbart, og evne å håndtere enorme belastninger med langt lavere innsats av kapital og arbeidskraft enn noe som finnes i dag.

På maskinvaresiden trekker Gartner fram infrastrukturen til Google som en forsmak på det tera-arkitekturen vil medføre.

Gartner anslår at Googles utgifter til maskinvareinfrastruktur ligger på en tidel av tilsvarende ytelse og kapasitet levert gjennom en tradisjonell løsning.

Google bygger sin infrastruktur på PC-teknologi, mener Gartner, og har konstruert den slik at svikt i enkeltkomponenter ikke får merkbare følger for helheten. Gartner kaller dette en «ikke bry seg-tilnærming» («don't care approach»). Googles applikasjoner bryr seg ikke om maskinvaresvikt fordi alle datasamlinger lagres flere steder. Dette er bakgrunnen for at Google kan tilby sine brukere for eksempel to gigabyte gratis e-postlagring.

Grunnen til at Gartner mener at Google-infrastrukturen bare er en forsmak på framtida, er at programvareutfordringene ikke er løst fullt ut.

Google kjører bare noen få store applikasjoner, som dessuten er skreddersydd for deres spesielle infrastruktur. Denne tilnærmingen er ikke egnet for å dekke behovene i alminnelige forretningsmiljøer.

Det spesielle for Google, er at deres applikasjoner ikke er pålagt å bevare sine tilstander når en maskinvarekomponent svikter. I et forretningsmiljø kan ikke en eneste transaksjon gå tapt. Hos Google spiller det liten rolle om man mister en transaksjon. For søketjenesten betyr ikke det annet enn at brukeren opplever tilgivelig hikke – og som regel tenker at «Internett» har skylda – og taster inne søkekriteriene på nytt. Google kan med andre ord tillate seg friheter som er utenkelige i en virkelig tera-arkitektur.

Her ligger tera-arkitekturens grunnleggende utfordring: Hvordan bevare tilstanden i en distribuert applikasjon, uavhengig av den underliggende maskinvaren, og uten å ty til de svært kostbare løsningene som anvendes i dag? I dag koster nemlig feilfrihet mye i form av maskinvare, men også i form av driftspersonale for kontinuerlig å overvåke hva som skjer, og iverksette omfattende redningstiltak når det skjer.

Gartner tenker seg at programvare må konstrueres eksplisitt med tanke på å kunne gjenopprette sin tilstand når maskinvaren svikter. Et første skritt på veien er det selskapet kaller hendelsesdreven tjeneste-orientert arkitektur, der tilstanden til applikasjonen eksponeres i meldingene mellom tjenestene. Da vil en spesialisert agent kunne gjenopprette tilstanden til applikasjonen, ved å hente inn data fra loggen, uten at det legger spesielle bånd på programmereren.

For at dette skal realiseres fullt ut, slik at alt som kontrollerer flyten av tjenester også gjøre uavhengig av den bærende maskinvaren, trenger man det Gartner kaller et hendelsesdrevet operativsystem («distributed-event OS»). Dette operativsystemet skal fordele hendelser til tjenestene i nettet, spore dem fram til de er fullført, og sørge for at de fullføres dersom de avbrytes på grunn av systemsvikt. Det er selv en hendelsesdreven applikasjon, og skal aldri være avhengig av en bestemt prosessor eller annen komponent i infrastrukturen.

Virtualisering av maskinvare spiller en nøkkelrolle i tera-arkitekturen. Gartner ser for seg en allmenn «virtuell maskin overvåker» («virtual machine monitor» eller VMM) som videreutvikler det som finnes i dag av virtualiseringsteknologi.

Virtualiseringen gjør at tradisjonelle operativsystemer ikke trenger å utvides med tanke på tera-arkitekturen, siden de bare skal fungere som mellomledd mellom applikasjoner og virtualisert maskinvare. Det er virtualiseringen og infrastrukturens underliggende hendelsesdrevne operativsystem som utgjør den vesentlige tilpasningen av programvaren.

Det vil ikke si at dagens operativsystemer ikke trenger noen form for endring. Det som trengs av endringer skal hindre dem fra å prøve å nå ned til den faktiske maskinvaren, ifølge Gartner.

x86-arkitekturen vil kreve bestemte endringer for å tilpasses tera-arkitekturen. Begge dagens store prosessorleverandører har nyheter på gang: Gartner venter at Intels Vanderpool-teknologi skal være klar i løpet av 2005, mens AMDs Pacifica-teknologi kommer i 2006. Endringene vil gjøre det mulig å overlate maskinvarekontrollen til et operativsystemuavhengig programvarelag, som Gartner kaller«hypervisor». Gartner insisterer på behovet for at virtuell maskinovervåker og hypervisor, selv om de kan tenkes levert som én pakke, holdes strengt atskilt funksjonelt.

Etter hypervisor, virtuell maskinovervåker og hendelsesdrevet operativsystem, krever tera-arkitekturen en fjerde bestanddel på programvaresiden: en infrastrukturstyrer eller «iinfrastructure manager». Denne skal levere intelligensen som trengs for effektiv drift av tjenestene, for sikkerhet, for kopling mellom applikasjon og data, og så videre.

De to siste bestanddelene i tera-arkitekturen er ifølge Gartner at nettverket må være selvmonterende («self-assembling network»), og at de fysiske nodene må ha innebygde lokaliseringstjenester («location services») slik at de selv finner ut av hvor de er og kan kringkaste dette til resten av systemet. Gartner ser for seg at slik lokaliseringstjenester kan være funksjonelle fra 2010.

Til toppen