Skal man kjøpe 50 terabyte til med SSD- eller SAS-disker, eller skal man investere i et mer hensiktsmessig system der 75 prosent av dataene kan flyttes til enklere og billigere typer lagring? Svein Ole Skrivervik i Proact er ikke i tvil om at intelligent lagring er regningssvarende. (Bilde: Per Ervland)

– «Dyr» lagring er god investering

– Ikke regningsvarende å stadig hive inn flere disker, sier Sven Ole Skrivervik i Proact.

«Alle» snakker om det: Lagringsbehovet vokser eksponentielt. Det skapes mer digital data enn noen gang, og alt skal lagres. På den andre siden får harddisker større kapasitet og lavere pris i minst samme takt. Hva er da problemet? Kan ikke lagringseksplosjonen mestres bare ved å slenge inn flere disker?

Ifølge lagringsekspert Sven Ole Skrivervik i Proact vil en slik tilnærming føre til at man mister oversikten. Uten oversikt vil det bli stadig dyrere å utnytte det man lagrer. Etter hvert som den lagrede datamengden øker, vil kostnadene til drift, gjenfinning og nyttiggjøring øke enda raskere. Den billigste løsningen på kort sikt, kun å øke kapasiteten i takt med behovet, vil etter hvert utløse en ustyrlig kostnadsvekst. Det billigste i dag, er det dyreste i morgen.

Skrivervik oppfordrer bedrifter til å tenke. Man behøver ikke ta vare på alt. Man behøver ikke lagre alt man vil ta vare på, på samme måte.

– Hovedproblematikken som vi ser, er den voldsomme økningen i data som skal administreres. 80 prosent av økningen er ustrukturerte data, det vil si filer. Å løse lagringsproblemet, er først og fremst å sørge for en mer intelligent måte å håndtere filer på.

Prinsipielt sett er løsningen enkel. Dagens teknologi åpner for å skille mellom raske, halvraske og trege disker. De raske passer til å lagre filer under arbeid. De trege kan brukes til arkivere det man av ulike grunner ikke kan kaste, men heller ikke trenger kjapp tilgang til om behovet skulle oppstå. De halvraske kan brukes til mellomstadiet.

– Det gjelder altså å tenke gjennom hva som kan plasseres hvor. De mest aktuelle data skal man ha på raske systemer. Det som ikke lenger er så aktuelt kan man ha i et lager underlagt deduplisering. Det betyr at man i overgangen fra toppnivå til mellomnivå sørger for å kutte ut kopier av samme fil eller dokument, slik at ingenting lagres mer enn én gang. Til slutt har man et eget langtidslager der innholdet er indeksert og gjenfinnbart ikke gjennom filstrukturen, men gjennom søk og andre tjenester beregnet på bruk over lang tid.

Deduplisering er et nøkkelord her. Mye av den løpende dataveksten er rett og slett kopiering. Å sende e-post med vedlegg betyr at vedlegget blir kopiert like mange ganger som e-posten har mottakere. Hvorfor skal alle disse identiske kopiene oppbevares, og attpåtil tas backup av? Teknikken er også interessant når man tar sikkerhetskopier av virtuelle maskiner: 90 prosent av filene på disse maskinene er Windows. Deduplisering kan redusere lagringsbehovet – og kostnadene – tilsvarende.

Ifølge Skrivervik har alt for mange norske bedrifter et lagringssystem der alt havner på det samme, dyre nivået.

– Sannsynligheten taler for at 80 prosent av det man har av ustrukturert data i et primærlager, kunne vært flyttet bort. Budskapet er følgelig at man nå må begynne å tenke smart lagring. Skal man kjøpe 50 terabyte til med SSD- eller SAS-disker, eller skal man investere i et mer hensiktsmessig system der 75 prosent av dataene kan flyttes til enklere og billigere typer lagring?

Poenget er at «mer terabyte»-metoden er beheftet med «myke» kostnader, det vil si kostnader man ikke ser, og som ekspanderer mye fortere enn man tror.

– Det kan oppfattes som billig å kaste fysisk disk etter et lagringsproblem. Men på ett tidspunkt må man begynne å tenke smartere. Da må man blant annet se på arkivering.

Hva arkivering er, er fortsatt lite avklart i norske organisasjoner, ifølge Skrivervik.

– Mange bruker backup som arkiv. Det er galt. Backup er en sekundær kopi av data som skal brukes til å gjenskape noe som er blitt slettet ved en feil. Arkiv er noe annet. Arkiv er en primær kopi av data som må være tilgjengelig, men som ikke behøver å brukes hver dag.

Det er smart, og lønnsomt, å anvende en ordning som identifiserer og automatisk flytter gamle data (filer) over til mer hensiktsmessig lagring

– For virkelig langtidslagring bør man legge til et CAS-system, «content addressable storage». Da er man virkelig over i smart lagring. Man kan legge opp et system der data flyter mellom et NAS («network attached storage») med kjappe og dyre disker, et NAS med deduplisering, og et CAS.

Da oppnår man å gjøre dataveksten på primærsiden mer kontrollerbar. På arkivnivået innfører man en ordning der man ikke lenger har tilgang gjennom en «H-disk» og en filstruktur, men gjennom søk. Man begrenser backup til den løpende dataveksten. Arkivet sikres gjennom en egen ordning.

– Backup er i dag et stort problem for mange. Det er ikke status å jobbe med det, og den økende graden av virtualisering gir nye utfordringer. Gartner peker på at den som ikke har redesignet sin backupløsning de siste tolv månedene, må gjøre det nå.

En gjennomtenkt tilnærming til lagring er en forutsetning for å kunne benytte seg av lagring i nettskyen.

– Stadig flere selskaper går vekk fra tape. Det typiske med tape er at man har kopi nummer én lagret lokalt, og kopi nummer to i en fjellhall. I framtiden vil fjellhallen være i nettskyen. Da vil man ta en deduplisert sikkerhetskopi lokalt, som så kopieres til nettskyen. Etter den første overføringen vil kopien i nettskyen kun tilføres endringer i deduplisert format.

Til toppen