Illustrasjon.
Illustrasjon. (Bilde: Colourbox)

Kunstig intelligens – trussel eller mulighet?

– Det er en sann glede å lese Datatilsynets rapport om kunstig intelligens og personvern, skriver vår kommentator.

I konferanse etter konferanse for tiden blir teknologi fremstilt som en driver for de endringer vi står overfor. Konferansene er også preget av betydelig teknologi-optimisme – at teknologien ubetinget er av det gode.

Slik er det ikke. Teknologien er ikke den eneste driveren for endringer, og den er ikke ubetinget et gode.

Det er alltid et samspill mellom teknologiutvikling og andre utviklingselementer. Noen eksempler: Økt fokus på verdien av å ta vare på klimaet i form av reduserte klimagassutslipp kan løses ved intelligente strømnett og styringssystemer for byggebransjen. Nettskytjenester kan bidra til å redusere strømutgiftene for offentlige og private virksomheter. Teknologiene som brukes er en del av løsningene. Det er forståelsen av behovet for endring på grunn av endrede krav fra myndighetene, konkurransene fra andre aktører eller nye brukerkrav, som setter krav til hvordan teknologiene kan løse «problemet». I tillegg ligger løsningen i  den innovasjon og det samarbeid som oppstår mellom teknologiaktører og bedrifter/bransjer. Teknologien definerer ikke behovet; behovet definerer hvordan teknologien kan og bør brukes.

Det er derfor en langt mer sammensatt problemstilling enn ensidig å se på «teknologiens muligheter». Teknologien gir oss store utfordringer på mange plan. De som har lykkes i å ta i bruk ny teknologi, er de som har hatt en reflektert holdning til teknologien og dens betydning.

En glede å lede Datatilsynets rapport om kunstig intelligens

Det er derfor en sann glede å lese Datatilsynets rapport om Kunstig Intelligens og personvern. Den gir ikke bare en meget god og leseverdig oversikt over hva Kunstig Intelligens (KI) er, men også hvilke utfordringer den har på personvernet. Og det er det viktigste: Hvordan KI kan anvendes på en måte som ivaretar personvernhensyn.

Kjernen i rapporten er at personvernreglene ikke er til hinder for å bruke KI, men at personvernreglene setter krav til teknologien. To nye krav som er spesielt relevante, er kravet om innebygd personvern og vurdering av personvernkonsekvenser. Rapporten peker da også helt konkret på hva bedrifter og etater må gjøre for å implementere KI i sine prosesser. 

Rapporten tar for seg flere utfordringer; de viktigste er kanskje knyttet til begrepene «dataminimering» og «den svarte boks».

«Dataminimering» stiller krav om at de opplysningene som skal fores inn i et maskinlæringssystem (KI),  skal være adekvate, relevante og begrenset til det som er nødvendig for å oppnå formålet de behandles for. Rapporten nevner her Skatteetaten som har utviklet en prediktiv analyse basert på KI for å velge ut hvilke selvangivelser som bør kontrolleres for å oppdage feil eller juks. De testet i utgangspunket om lag 500 ulike variabler som sa noe om skattyternes demografi, hendelser i livet og opplysninger i selvangivelsen. Men i den endelige modellen er det bare med 30 variabler.

Dette er et eksempel hvordan en etat eller bedrift benytter ny teknologi med en reflektert holdning: Det er tilstrekkelig med et begrenset utvalg av variabler for å oppnå formålet med prosjektet, samtidig som det oppfyller krav til personvern.

«Den svarte boksen» er et annet problem, men som kan ha sammenheng med det første.  Skatteetaten sier selv at med mange variabler i den prediktive analysen, kan en ikke vite – eller etterprøve – om resultatet er riktig, rett og slett fordi en ikke vet hvordan maskinen har kommet frem til resultatet.

Kan bli et tillitsproblem

Et kjent eksempel på dette er spillet AlphaGo Zero som ble satt til å spille sjakk med seg selv, og som etter  ca. 3 uker klarte å bli bedre enn det beste sjakkspillet til nå, Stockfish. Problemet er at en ikke vet hvordan maskinen kommer frem til dette resultatet. Enten det gjelder å få råd fra aksjemeglere, kjøpe bolig eller få fastsatt skatt eller uføretrygd, har kundene krav på å vite hvorfor beslutningen ble som den ble. Når «algoritmene blir så avanserte at vi ikke klarer å forstå hvorfor beslutningene ble som de ble», som Teknologirådet sier i en rapport, kan vi få et tillitsproblem.

Her kan man også se en forskjell på bruk av teknologi som KI: Mens tillit er et konkurransefortrinn for private aktører, er det en nødvendighet for offentlige etater.

Går en over til et prosjekt om kunstig intelligens som Teknologirådet nå arbeider med, anvendelse av KI i helsesektoren, ser en de samme problemene.

Det er ingen tvil om at KI vil kunne ha stor betydning i helsesektoren, en sektor hvor vi får lite helse for hver krone, og hvor vi trenger teknologi for å løse de store kvantitative utfordringene (ressursmangel), men også de kvalitative utfordringene i form av bedre tjenester.

Ved hjelp av KI/maskinlæring kan en f.eks. skanne flere millioner røntgenbilder i løpet av kort tid. Det betyr at diagnosen for den enkelte blir satt hurtigere enn hvis den skjer av en radiolog, samtidig som alle kan få samme kvalitet på helsetjenestene. Ved å kombinere KI med en digital assistent kan pasienten få hjelp i førstelinjen, og dermed avlaste legevakttjenesten. Osv.

Algoritmen blir vår nye lege.

Men igjen kommer spørsmålet om en reflektert holdning til hva teknologien kan og bør gjøre, og hvilket problem den egentlig skal løse.

Et eksempel kommer fra USA  hvor en brukte KI for å undersøke risikoen for komplikasjoner for pasienter med lungebetennelse. Resultatet ble at pasienter som hadde både astma og lungebetennelse, ble kategorisert som lavrisikopasienter – til legenes store overraskelse. Pasienter med både astma og lungebetennelse hadde altså høyere risiko, men bedre overlevelsesrate. Årsaken var at maskinen ikke klarte å fange opp at pasienter med begge sykdommer fikk bedre oppfølging og mer intensiv behandling enn de som kun hadde den ene sykdommen.  (Datatilsynets rapport side 10).

Dette viser noe av risikoen ved bruk av data uten kunnskap om fagområdet det skal betjene.

Vinnerne blir de som har en reflektert holdning til teknologien

I tillegg har vi en annen utfordring med nye teknologier som KI, Bg Data og blokkjede-teknologi. Det er at de i stor grad påvirker verdikjedene i en bedrift eller etat, og endrer og forskyver maktforholdene mellom aktørene i verdikjeden. Helsesektoren er et eksempel: Teknologiutviklingen betyr ikke nødvendigvis at sykepleiere mister «trivielle» arbeidsoppgaver, men tvert om at de overtar  noen av legens funksjoner; pasientene overtar mer av omsorgstjenestens funksjoner, etc.

Problemstillingene er derfor mangeartete og sammensatte: Som følge av teknologiutviklingen blir målbildet – hva etaten eller bedriften skal gjøre – endret. Det blir fler aktører med endrede oppgaver. Maktforskyvningen i lange verdikjeder blir endret. Det stilles nye krav til kompetanseutvikling i alle ledd og tverrfaglighet  i samarbeid om løsninger og oppgaver. Innovasjon i samarbeid med konkurrenter og teknologileverandører blir mer regelen enn unntaket. Det oppstår mer kompliserte drifts- og samfunnsøkonomiske betraktninger om investering og gevinstrealisering av ny teknologi. Osv.

Det er de bedrifter og offentlige etater som har en reflektert holdning til teknologien og de utfordringer den fører med seg, som blir vinnere. Ikke de som ukritisk tar i bruk KI, BigData og blokkjede-teknologi.


Arild Haraldsen har bidratt til digi.no med debatt, kommentarer og bokanmeldelser i mange år. Haraldsen var tidligere adm dir i NorStella, og i den anledning ansvarlig for Samhandlingsarenaenen i forskningsprosjektet Semicolon. Nå selvstendig konsulent med oppdrag innen strategisk bruk av IKT, foredrag og debattleder. Haraldsen har skrevet en rekke fagbøker innen sitt område.

Kommentarer (1)

Kommentarer (1)
Til toppen