Strategidirektør for informasjonsforvaltning i IBM, Andrew Warzecha (til høyre), og programvaresjef i IBM Nordic, Bjørn Nordby, mener bedrifter må bruke nye verktøy og avsette egne eksperter i kampen for datakvalitet.

Dataråte kan undergrave hele bedriften

Dataråte er en overordnet trussel. Kampen krever egne «datainspektører», mener IBMS Andrew Warzecha.

Andrew Warzecha er strategidirektør i IBMs avdeling for «information management», altså forvaltning av informasjon. Han mener informasjonssystemer i dag står ved et avgjørende vendepunkt, der de må bevise at de kan levere pålitelig informasjon på alle nivåer, baserte på data innhentet fra alle delsystemene i organisasjonen.

Det informasjonsforvalter Warzecha er mest opptatt av for tiden, er at «business intelligence» (BI) og andre systemer for å forvalte informasjon og gi beslutningstakere best mulig grunnlag for taktiske og strategiske avgjørelser, ofte fordreier og tåkelegger virkeligheten. Årsaken er dataråte i systemenes informasjonskilder. I disse tider der man er opptatt av å integrere stadig flere IT-systemer, slår det gamle SISU-prinsippet – «søppel inn, søppel ut» – til for fullt.

– Det hjelper ikke å ha verdens beste system for «business intelligence» når du forer det med søppel, sier han til digi.no. – Når du ser at tall og grafikk som skulle vært identiske, varierer vilt avhengig av hvordan du stiller opp en rapport eller en spørring, så skjønner du at noe grunnleggende er riv ruskende galt.

Det å ordne opp i dette er Warzechas store utfordring som strateg for forvaltning av informasjon.

– Det man ønsker seg i dag, er ikke bare optimale delsystemer for ERP, leverandørkjeden eller kundekontakt, men å gå i dybden og oppnå innsikt over hele bedriftens virke. Man må kunne se nøyaktig i hvor lønnsom hver kunde er, hva slags risikonivå bedriften faktisk arbeider under, hvor effektive leverandørkjedene virkelig er og så videre.

Man må komme bort fra det Warzecha beskriver som informasjonssiloer.

– Man ønsker ikke lenger å forholde seg til fastlagte siloer, men å gi beslutningstakere på mange nivåer tilgang til informasjon på tvers av hele organisasjonen.

Dette er altså behovet, sett fra informasjonsforvalterens ståsted: Tilby oversikt over alt i sanntid, slik at alle beslutningstakere får et helhetlig ståsted. Spranget opp til det nye nivået fordrer at man løser et problem knyttet til måten store bedrifter har bygget opp sin informasjonsforvaltning. Det har ikke skjedd med tanke på helheten, men for å dekke ett og ett område, ifølge Warzecha. Dette er dette han sikter til når han snakker om siloer.

– Silo-prinsippet gir god oversikt over hver enkelt delområde, det vil si der det går en klar linje oppover fra datainnsamling til applikasjon og beslutningsstøtte.

Å gjøre analyser på tvers av de ulike siloene kan derimot være svært problematisk.

– I dag ønsker alle seg tilgang til informasjon utenfor sin silo. De kopierer data fra andre kilder og andre systemer, og så erfarer de at resultatene de får ikke stemmer.

Warzecha mener dette skyldes dataråte.

– Selv om de samme dataene er duplisert i system etter system, er de duplisert på litt forskjellig måte hver gang. Navn og adresse på samme kunde kan variere fra tabell til tabell, informasjonen struktureres på forskjellig vis og så videre. Jo flere systemer man har, desto mer baller problemene på seg. Dataintegriteten blir etter hvert mer og mer tvilsom.

Flere forhold forsterker problemene med å sørge for pålitelige og ensartede data til alle systemer, mener Warzecha.

– De viktigste er at tiden man har til rådighet for å ta avgjørende beslutninger blir stadig kortere, samtidig som informasjonsmengden som skal legges til grunn for hver beslutning øker eksponentielt. Informasjonen ligger i ens egne systemer, men det virker tilsynelatende umulig å foredle dem til noe som kan gi pålitelig innsikt innen tidsfristene man må forholde seg til.

– Det var jo dette problemet datavarehus skulle løse?

– Datavarehus har vist seg å være et utilstrekkelig svar på problemene knyttet til upålitelige data og behovet for raskt og oppdatert helhetlig oversikt. Teoretisk sett skal datavarehus være det stedet der alle data oppbevares i ensartede formater til bruk for all rapportering og alle spørringer. I praksis greier de færreste å sørge for at denne tilstanden varer over tid.

Det som skjer, ifølge Warzecha, er at synkroniseringen mellom datavarehuset og datakildene svikter. Endringer i tabellstrukturen i databasene som forer datavarehusene følges ikke opp. Det gjøres oppkjøp uten at noen griper fatt i hva det betyr for datavarehuset. Og det legges fortsatt fortløpende inn usikrede og upålitelige data.

– Etter hvert oppdager brukerne at et gitt datavarehus ikke «virker» lenger, og avdelingsledelsen tar et initiativ for å lage et nytt som er mer à jour. Det er en av grunnene til at vi i IBM lever så godt av å levere datavarehus.

Ifølge Gartner er et gjennomsnittlig datavarehus i bruk i fire til fire og et halvt år. Men de driftes i seks år.

– Det er den overordnede styringen av datavarehusene som svikter. Man ser ikke på informasjon med utgangspunkt i verdien den representerer for forretningen, men betrakter den som et IT-problem.

Et annet problem med datavarehus, er at teknologien opprinnelig ble utviklet med tanke på å støtte et begrenset antall analytikere.

– Etter hvert viser det seg at «alle» skal ha tilgang til databasen, og «ingen» er tilfreds med at data bare oppdateres en gang i døgnet eller en gang i uken. Beslutningstakere har andre behov enn analytikere. De må blant annet kunne følge enkelttransaksjoner, og finne ut hvordan helheten så ut på et gitt tidspunkt. Det innebærer at datavarehuset faller til kort på flere vis. Det er ikke dimensjonert med tanke på et tilstrekkelig antall brukere, det henter data fra et for avgrenset område, dataene er for aggregerte, og det er ikke mulig å følge enkelttransaksjoner.

Utfordringen til strategen for informasjonsforvaltning er følgelig: Med utgangspunkt i atskilte informasjonssiloer, og uten å måtte restrukturere siloene eller frata de siloansvarlige ansvaret for at systemene fungerer optimalt sett fra deres ståsted, sørge for at alt bedriften genererer av informasjon er tilgjengelig i sanntid for alle etter rolle og behov. Forutsetningen for dette er at alle former for dataråte skal avverges, enten de oppstår ved kilden, under behandlingen, eller når ulike datakilder kombineres.

– Informasjonen må samles slik at den gjøres tilgjengelige for forretningsprosessen, uavhengig av om den er i SharePoint, Oracle eller dB2. Vi må anta at organisasjoner har heterogene datamiljøer. Vi må rense data og levere det på en pålitelig måte når og der det trengs.

Ifølge Warzecha har IBM trukket kundene inn i arbeidet med disse problemstillingene siden 2004 da de opprettet IBM Data Governance Council under slagordet «Data as a Business Priority».

– Det vi fant var at det store problemet som gikk igjen i alt som hadde med data å gjøre, uavhengig av bransje, var datakvalitet. Alle slet med at de samme produktene ble kodet forskjellig, at de samme typer kundeforhold ble styrt av ulike kontrakter, at registrene hadde mange uoverensstemmelser seg i mellom. Ingen hadde vanskelig for å generere rapporter. Utfordringen vara å få rapporter som var presise og pålitelige.

Det grunnleggende spørsmålene til bedriftslederne er: Er dere villige til å satse stillingen deres på at informasjonen dere får gjennom IT-systemene deres er korrekt?

– Sist vi innhentet svar på dette spørsmålet, var i april. Det entydige svaret fra 52 prosent var: «nei».

Ifølge Warzecha er dette en framgang fra tidligere undersøkelser.

– Andelen som sier nei, faller. IT-systemene er med andre ord i ferd med å bli mer pålitelige. Men de er ennå ikke pålitelige nok til å kunne anvendes slik man ønsker.

De teknologiske verktøyene for å vaske data og sørge for økt samstemmighet når man for eksempel skal hente kundeinformasjon fra mange atskilte kilder, er blitt bedre.

– Vår erfaring er at man ikke kan løse dette problemet gjennom teknologi alene. Bedriftene må erkjenne nødvendigheten av å kvalitetssikre data fra det øyeblikket det går inn i IT-systemene.

Warzecha forteller om en større bank som arbeidet i to år for å få til et system som kunne gi en helhetlig oversikt over hver kunde, og levere dette videre til brukerne gjennom deres «egne» kildesystemer.

– De oppnådde en nøyaktighet som vi målte til 85 prosent. Så erfarte de at nøyaktighetsmålet begynte å falle igjen. Ny informasjon som ble registrert i systemene holdt ikke kvalitetsmålet bedriften uttrykkelig hadde satt seg.

Feilene som ble gjort var elementære: Man valgte ikke de riktige malene for å legge inn informasjon, eller man sjekket ikke at en kunde allerede var registrert før vedkommende ble opprettet som «ny».

– Lærdommen er at teknologien må suppleres med tiltak i organisasjonen.

Det tiltaket IBM-kundene fant var mest hensiktsmessig, var å gi bestemte medarbeidere «eierskap» til data.

– Vi kaller det «data steward» [«datainspektør» høres bedre ut på norsk enn «datastuert»]. Deres jobb er datakvalitet. De skal sikre data som legges inn i systemet på et så tidlig tidspunkt som mulig.

Ifølge Warzecha er denne ideen i ferd med å slå an blant de største.

– Jeg har allerede merket meg et par utlysninger hos Fortune 500-selskaper, under betegnelsen «information architects». Rollen er påkrevet for å tette sårbarheter i IT-systemene som hindrer informasjon fra å kunne leveres på en pålitelig måte og i sanntid.

– Poenget er, understreker Warzecha, at dersom vi ikke løser denne utfordringen, vil det strategiske vendepunktet vi befinner oss ved i dag, skifte karakter. I stedet for å bli det punktet der IT-systemet virkelig begynner å levere, vil det markere en annen overgang, til den epoken der det var umulig å få noe som helst vettugt ut av IT-systemene.

Det ligger i dette at også redningsfolkene, datainspektørene, trenger egne IT-verktøy.

– Det er vi i ferd med å utvikle, forsikrer Warzecha.

    Les også:

Til toppen