Illustrasjonsfoto.
Illustrasjonsfoto. (Bilde: Colourbox)

Det er ikke teknologien som er problemet. Det er data

Dette er første del i en serie på tre kronikker fra Jean-Philippe André Caquet, arkivarkitekt og rådgiver i Trondheim kommune.

Jean-Philippe André Caquet, arkivarkitekt og rådgiver i Trondheim kommune.
Jean-Philippe André Caquet, arkivarkitekt og rådgiver i Trondheim kommune. Foto: Privat

Dette innlegget er ikke skrevet på 90-tallet som et angrep på EDB-teknologiens inntog i det offentlige, men er et forsøk på å forklare hvorfor den teknologiske utviklingen i det offentlige, og da spesielt kommunene, oppleves å gå saktere enn i samfunnet forøvrig. Og problemet er, som nevnt, data.

Begrepet data betyr egentlig informasjon som ligger til grunn for kunnskap, men på 80- og 90-tallet ble det synonymt med selve databehandlingsteknologien (det som da var EDB og etterhvert ble IT og IKT). Data er en kvalitativ og kvantitativ størrelse, jo flere data vi har, jo mer nyttige er de, men bare dersom dataene er korrekte. I tillegg til data har vi også «metadata» (data om data) som gir dataene kontekst. Metadata er vitale for gjenbruk, sortering og deling av data. Uten metadata, eller med mangelfulle metadata, kan vi aldri sikre, validere, koble, tilgjengeliggjøre eller påberope oss eierskap til data. Uten metadata er også data verdiløst som dokumentasjon. 

Ingen kan konkurrere med kommunene i kompleksitet

Ingen bedrifter eller statlige organer kan konkurrere med kommunene i kompleksitet. Uansett om en kommune er liten eller stor har den ansvar for et svært bredt spekter av tjenester, blant annet skole, barnehager, byggetillatelser, barnevern, sosiale tjenester, flyktninger, miljøvern, skatt, lokal næring, helsetjenester, vei, vann og avløp, kultur, jordbruk og beredskap. Hvert område styres av egne lov- og regelverk, og har ofte særegne dokumentasjonskrav. Dette skaper enorme mengder ulike data som på en eller annen måte må forvaltes.

En del data finnes i dag i det som kalles «fagsystemer». Disse systemene har store forskjeller seg imellom, for eksempel er ikke et «navn» det samme i to forskjellige systemer, og en «adresse» kan bety mange forskjellige ting. Noen av fagsystemene har betegnelsen Noark-systemer, noe som vil si at de er formelt godkjent som «arkiver», det vil si at Arkivverket har godkjent at de kan brukes til å langtidslagre data. I fagsystemene sies data å være strukturerte, men mange har udokumentert oppbygning og, inneholder ofte mengder av metadata som i noen tilfeller er viktige for oppbyggingen av systemene, men uvesentlige for gjenfinning og kontekst. På den annen side er ofte vitale metadata skjult som uforståelige forkortelser, eller i logger vi mangler tilgang til. Mulighetene til å vite hvilke data og metadata som finnes i systemene er som oftest begrenset til det man kan se gjennom løsningens brukergrensesnitt, og leverandørene er sjelden villige til å fortelle kundene sine om hvordan datastrukturene egentlig ser ut under overflaten. Dette er et like stort problem i Noark-systemer som i andre systemer.

Dette problemet blir enda større av at data har blitt registrert manuelt over lang tid (i noen tilfeller 30-40 år) uten noen som helst kvalitetskontroll eller validering. Databaser som blir fylt ved manuell registrering av data vil fort inneholde tusenvis av feil. I de fleste kommunale databaser er manuell registrering av data standard, og det har vært sånn siden systemene ble innført.

Data har en tendens til å forsvinne

Utenfor fagsystemene finnes mengder av usystematiserte og/eller ustandardiserte data. Mange kommunalt ansatte utfører arbeidsoppgavene sine pr mail, telefon, tekst  eller nettbaserte løsninger, samt i diverse kontorstøtteverktøy. Noe av vår viktigste dokumentasjon kan f. eks. finnes i 20 år gamle excel-baser som kanskje bare noen få personer kjenner til. Data har en tendens til å forsvinne ved utfasing av it-verktøy, ved omorganiseringer eller når ansatte går av. Informasjonen som ligger i dataene har ofte et livsløp som er lengre enn man tror, og faktum er at viktige data forsvinner hver eneste dag.

Data har en tendens til å forsvinne ved utfasing av it-verktøy, ved om­organi­seringer eller når ansatte går av

Det har vært gjort forsøk på å fange opp dokumentasjon som oppstår «på siden» og tvinge den inn i Noark- eller fagsystemer gjennom integrasjoner. Ofte blir dette presentert som svaret på problematikken, men vi lurer oss selv dersom vi tror dette er noe annet enn en nødløsning. Ved å tvinge dataene inn i en rigid og lukket Noark-tolkning (alle leverandører har en egen tolkning av Noark) mister vi verdifulle metadata og får tilført en del ukorrekte, fordi minimumsløsningen til Noark rett og slett er for smal. I tillegg er de fleste av disse systemene bygget så tidlig som på 80 og 90-tallet og ikke i stand til å håndtere mengden av data som genereres i dag.

Noark-systemenes sterke «dokument»-fokus har dessverre også ledet til en oppfatning av at et dokument er et elektronisk papirdokument (en pdf), og derfra til forståelsen av et «arkiv» som et brev- eller dokumentlager. Dette gjør at mange av de data som ikke nødvendigvis faller inn under det klassiske dokumentbegrepet blir glemt eller ignorert. SvarUt er et godt eksempel på at vi fortsatt tror vi sender brev til brukerne av offentlige tjenester. 

Disse grunnleggende problemene kan ikke løses av «digitalisering», «Big Data», «skyen»,  eller «robotisering» eller hva som er dernier cri i dag. Ikke ennå i hvert fall. Vi sitter på mengder av sensitive data som vi vet for lite om, samtidig som vi er pålagt en stor grad av innsyn i de både sensitive og ikke-sensitive data. Videre pålegger ny personvernsforordning oss å slette personlige data med mindre vi kan argumentere for hvorfor vi skal ta vare på dem. For å kunne lage gode algoritmer for datahåndtering trenger vi kunnskap og oversikt over dataene de skal behandle, og deretter må algoritmene «læres opp» ved å behandle store mengder data over tid slik at de kan «forstå» dem. Den kunnskapen og oversikten har vi ikke. På begrensede områder kan det være mulig å få noe nytte fra teknologien, men det er ikke det som redder oss, og ingen konsulentselskaper eller systemleverandører kan løse problemene for oss.

Datakvaliteten i kommunene er rett og slett for dårlig til å tilgjengeliggjøre data på tvers av fagområder gjennom store felles publikumsløsninger uten en komplisert og arbeidskrevende opprydning.

«IT-gjelden» er et misvisende begrep. Vi har tilgang på all den teknologien vi trenger, men vår tilgang til, kunnskap om og forståelse av egne data er for dårlig. Vi skylder ikke noen IT, men vi drukner i et hav av data. Vi må begynne å fokusere på den langsomme prosessen å komme oss opp til overflaten.

 

Kommentarer (18)

Kommentarer (18)
Til toppen