Truer etablerte leverandører av store lagringssystemer

Med ny lagringsteknikk kapret oppstartselskapet Panasas en prestisjekontrakten fra EMC.

Panasas ble grunnlagt i 2000 av tidligere forsker ved Carnegie Mellon University, Garth Gibson, og har samlet til sammen 72,5 millioner dollar fra en rekke tunge investorer, blant dem Intel. Det første kommersielle produktet, ActiveScale Storage Cluster, ble kunngjort offisielt i dag, samtidig med prestisjekontrakten til Los Alamos National Laboratory, og en liste over andre referansekunder, blant dem Sandia National Laboratories og University of California, San Diego.

ActiveScale Storage Cluster er en klynge av lagringsenheter spesielt laget for å betjene Linux-baserte tungregneklynger. Los Alamos har flere tungregneklynger, blant annet en med over 2800 AMD-prosessorer. Panasas vant en anbudskonkurranse mot et dusin konkurrenter, for et system med en kapasitet på 120 terabytes, med mulighet for videre utbygging til 600 terabytes. Dette skal være historiens største lagringskontrakt til en Linux-klynge.

Lagringsklyngen til Panasas bygger på et prinsipp kalt "objekt-basert" lagring for å hente og skrive store mengder data parallelt til et stort antall disker, slik at overføringen går langt raskere enn med andre løsninger. Systemet gjør det også mye raskere å finne lagrede data. Uavhengige tester viser at tilfeldig lesing og skriving til et 10 terabytes Panasas-system er betydelig raskere enn til tilsvarende systemer fra EMC og Network Appliance, og at datagjennomstrømningen er opptil 10 ganger så høy.

Siden systemet bygges opp av standardkomponenter – ATA-disker, Intel-prosessorer, gigabit Ethernet-svitsjer – er Panasas også svært konkurransedyktig når det gjelder pris. Panasas mener besparelsen i eierkostnader er 70.000 dollar per terabyte. Det er utviklet programvare som gjør det mulig å styre opptil flere petabytes som ett system med katalogstruktur, dynamisk lastfordeling og innstillinger for tjenestekvalitet.

Lagringsklyngen kan koples til ethvert TCP/IP Ethernet, og håndterer både Windows (CIFS) og Unix (NFS) fildeling. Panasas' egen protokoll, DirectFlow, anbefales der det kreves ekstra høy ytelse. Et Panasas-system kan håndtere alle disse protokollene samtidig.

På programvaresiden, ved siden av DirectFlow-protokollen og styringssystemet PanActive Manager, har ActiveScale File System en sentral plass. Det er dette systemet som styrer den parallelle dataflommen inn og ut av lagringsklyngen, og får til den høye ytelsen.

Fysisk sett består klyngen av tre forskjellige enheter, i tillegg til vifter, strømforsyningen og liknende. Disse tre står loddrett på hyller med en høyde på 4 U. To av dem er tilgjengelige fra forsiden, mens gigabit Ethernet-svitsjen plasseres i et spor på baksiden, mellom to vifter. De to typene som står på forsiden kalles henholdsvis StorageBlade og DirectorBlade. På en hylle er det plass til opptil elleve Storage- og DirectorBlades.

Selve diskene står i StorageBlade-enhetene, hver med to disker. Kapasiteten per StorageBlade varierer, enten 160 GB, 240 GB eller 500 GB. Ellers er den fysiske oppbyggingen lik en bladserver, med Pentium III eller Celeron-prosessor, og ATA eller Serial ATA-disker. Det er opptil ti StorageBlade på en hylle, med en samlet kapasitet på opptil 5 terabytes.

På hver hylle er det dessuten minst én DirectorBlade som fordeler oppgavene mellom hyllens StorageBlades. Også den er fysisk som en bladserver, med egen 80 GB disk, 2,4 GHz lavspent Xeon, og selvfølgelig spesielt tilpasset programvare.

Den største Panasas-klyngen som har gjennomgått uavhengig ytelsestesting, inneholdt 30 hyller med til sammen 270 StorageBlades på 240 GB hver – altså nærmere 64 terabytes i alt – samt 60 DirectorBlades. I tilfeldig lesing og skriving oppnådde den 305.805 NFS ops/s. En klynge på fem hyller, med 45 StorageBlades og 10 DirectorBlades, oppnådde 51.024 NFS ops/s. Panasas mener dette viser hvordan systemet deres faktisk skalerer lineært.

Til toppen