DEBATT

– Vi trenger politisk tydelighet innen kunstig intelligens

Forsker ønsker seg tydeligere politikere.

Inga Strümke, PhD i partikkelfysikk og forsker på kunstig intelligens i Simula, er nestleder i Norsk Råd for Digital Etikk (NORDE).
Inga Strümke, PhD i partikkelfysikk og forsker på kunstig intelligens i Simula, er nestleder i Norsk Råd for Digital Etikk (NORDE). Foto: Privat
Inga Strümke, PhD i partikkelfysikk og forsker på kunstig intelligens i Simula
10. nov. 2020 - 13:45

I fjor var det eneste jeg ønsket meg til jul en plan for norske data. I år rådes vi å starte julehandelen litt tidligere – og det begynner dessuten å nærme seg fristen for hvor lenge de politiske partiene er åpne for nye punkter til partiprogrammene.

Jeg har for første gang i mitt liv lest programmene til alle de store partiene, og jeg er ikke overrasket over at det er lite målrettet fokus på problemer og potensialet rundt kunstig intelligens. Det er konkret tre ting samtlige partier bør ta stilling til hvordan vi skal løse:

  1. Vi eksporterer verdifulle data gratis. Teknologigigantenes enorme vekst de siste årene demonstrerer hvor verdifulle data er. Vi er åpenbart avhengige av samarbeid med EU for å sanksjonere og holde gigantene i tømmene, men hva med dataene vi gir fra oss uten selv å ta del i verdiskapningen? Tenk om vi ikke hadde tatt grep for å sikre at petroleumens verdier kom oss og ikke internasjonale kommersielle aktører til gode på 70-tallet? Vi befinner oss i samme situasjon nå som da – men sliter kanskje med å ta det innover oss fordi data representerer en mer abstrakt verdi.
  2. Vi må nyttiggjøre oss verdien av våre egne data. Mange lovende prosjekter strander fordi de involverte ikke greier å navigere i lovverket. Når vi har like mange eksempler på at det stopper opp som på at det går fremover, må den politiske makten innse sitt ansvar og bistå. Helt konkret: Det trengs støtteordninger for juridiske og etiske avklaringer rundt trygg datadeling, og for å gjøre livene våre bedre ved hjelp av kunstig intelligens. Sistnevnte bringer oss over på neste punkt:
  3. Vi trenger en instans til å veilede og kontrollere dem som tar i bruk kunstig intelligente løsninger i Norge. All kunstig intelligens har et innebygd verdensbilde, med rettferdighetsprinsipp og alt som hører med, og det finnes ingen som sørger for at våre kunstig intelligente systemer er basert på de samme etiske prinsippene, eller engang at alle de digital-etiske diskusjonene tas. Det er stor fallhøyde for dem som utvikler kunstig intelligente løsninger, og ofte tryggere å sitte stille i båten enn å belyse de nødvendige vanskelige avveiningene.

Hvordan skal vi sikre oss at vi klarer å komme utviklingen i forkjøpet? Vi kan ikke vente på at  Facebook påvirker et valg eller Google barns karakterer før vi tar styringen selv.

Hvorfor er det lettere for meg å dele helsedata med Garmin enn med det norske helsevesenet, som jeg selv betaler skatt for og har egeninteresse av å støtte? Dette er et retorisk spørsmål som jeg selv så klart vet svaret på: Det er teknisk og juridisk vanskelig å sette opp en løsning for frivillig datadeling – men dette betyr bare at det må et kollektivt løft til for å få det til. Denne ballen kan kanskje oppfyllelsen på fjorårets juleønske ta: Vi har fått et senter for datadeling som skal legge til rette for deling av data, akkurat som den nasjonale strategien for kunstig intelligens oppfordret til. Vi har tatt første skritt på veien – hvem tar ledelsen videre?

Jesper Olsen er sikkerhetsdirektør for Nord-Europa i Palo Alto Networks. Han mener det er en fare for at kunstig intelligens gjør analytikere mindre dyktige til å håndtere komplekse eller uvanlige situasjoner som i utgangspunktet krever dyp forståelse og kritisk tenkning.
Les også

Ikke glem menneskene!

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.