Jyoti Sharma, Manager i Accenture Strategy.
Jyoti Sharma, Manager i Accenture Strategy. (Accenture / Stefanie Padtberg)

Hvem skal ha ansvar for kunstig intelligens?

Det har skjedd mye siden jeg startet min karriere innen teknologi og IT for snart 10 år siden.

  • Debatt

Den gang lærte vi at maskiner kun kan gjøre det de ble fortalt. Jeg lærte også at en av grunnprinsippene ved bruk av teknologi er at den ikke skal arve menneskelige laster som forutinntatthet, partiskhet eller i verste fall diskriminering. Med fremveksten av kunstig intelligens er ikke dette lenger tilfellet.

Illustrasjon/tegning med en ropert og teksten "debatt"

I dag finnes det selvlærende algoritmer som helt uten menneskelig påvirkning kan ta viktige beslutninger innen sentrale funksjoner i samfunnet. Dersom disse systemene blir fôret med et unøytralt datagrunnlag kan de i verste fall være direkte diskriminerende. En av de mest fremtredende eksemplene på dette skjedde da amerikanske tilsynsmyndigheter brukte selvlærende algoritmer til å forutse gjentakelsesfaren blant tidligere straffedømte. Resultatet ble svært uheldig da algoritmen endte opp med å diskriminere på bakgrunn av hudfarge. Det viste seg at systemet overvurderte sannsynligheten for gjentakelse blant afroamerikanske straffedømte, og undervurderte tilsvarende hos de hvite. Algoritmen hadde brukt hudfarge som en av de mest sentrale parameterne siden flere afroamerikanere historisk sett hadde blitt straffedømt. Når kunstig intelligens tar steget fra «laben» og ut i det virkelige liv er slike uheldige konsekvenser en reell risiko, også i Norge.

Når kunstig intelligens tar steget fra «laben» og ut i det virkelige liv er slike uheldige konsekvenser en reell risiko, også i Norge

Når regjeringen, ledet an av vår nye digitaliseringsminister Nikolai Astrup, nå jobber med en ny nasjonal strategi for kunstig intelligens, bør et av de store spørsmålene være hvordan vi skal unngå lignende tilfeller i Norge. Svaret er, nokså forenklet, at teknologien må gjenspeile våre verdier, moralske prinsipper og grunnholdninger. Vi må rett og slett utdanne, oppdra og lære systemene rett fra galt. Kunstig intelligens vil gjøre det vi forteller den. Vi kan dermed ikke forvente at en algoritme som har blitt trent på et datagrunnlag som gjenspeiler vårt samfunn, oppfører seg bedre enn samfunnet - med mindre vi helt bevisst designer den til å være bedre. Slik jeg ser det bør følgende tre hovedutfordringer adresseres i den nasjonale strategien som ferdigstilles ved utgangen av 2019:

  1. Kunstig intelligens må ta ansvarlige beslutninger. Vi må «oppdra» teknologien til å ta de rette og etisk forsvarlige beslutningene. Når vi mennesker tar beslutninger vurderer vi ulike innfallsvinkler og kan holdes ansvarlig for våre handlinger. I fremtiden vil kunstig intelligens få like mye innflytelse som et menneske. Hvordan kan vi da stole på at teknologien tar de rette beslutningene? Norske myndigheter og næringsliv må derfor lære opp sin kunstige intelligens til å representere gode verdier, skille mellom rett og galt, og hva det vil si å opptre ansvarlig. Dette må sikres både ved utforming av algoritmene og ved valg av datagrunnlag for opplæring av disse. Det finnes verktøy som kan støtte dette arbeidet. For eksempel jobber IBM med å utvikle automatiserte algoritmer som kan gjenkjenne «bias» (bias er her forstått som en skjevhet, favorisering eller forutinntatthet i vårt beslutningsgrunnlag).
  2. Algoritmenes datagrunnlag for opplæring må representere «alle» innfallsvinkler, og etterstrebe objektivitet og nøytralitet. Vi må være oppmerksomme på hva vi fôrer algoritmene med ved opplæring. Myndigheter og næringsliv må ta ansvar for datagrunnlaget teknologien får for å utvikle seg. Få norske virksomheter har oversikt over hvilket datagrunnlag som er nødvendig for utstrakt bruk av intelligent automatisering. Et datagrunnlag som er korrekt for én type bruk er ikke nødvendigvis en sannhet i alle tilfeller det kan tenkes brukt. Dette er spesielt viktig i tilfeller der kunstig intelligens skal gjøre prediktive analyser for at vi skal unngå tilfeller der systemet diskriminerer (som i overnevnte eksempel).
  3. Mennesker og maskiner må jobbe sammen. Jeg tror ikke at kunstig intelligens vil fullstendig erstatte mennesker i arbeidslivet, men snarere at arbeidsstokken vil jobbe sammen med teknologien i fremtiden. Dette stiller nye krav til både ledere og ansatte. Bonden forsvant ikke selv om vi gikk fra hest til traktor. Et nytt verktøy åpnet opp for nye muligheter for både bøndene og samfunnet. Våre undersøkelser forteller samme historie: Maskiner og mennesker må jobbe sammen - ikke mot hverandre. Kunstig intelligens er ikke et diffust konsept, men et konkret og håndfast verktøy dersom vi utformer den rett. Ny teknologi gjør oss i stand til å ta bedre beslutninger og jobbe med mer verdiskapende oppgaver – og mindre rutinebasert. For at dette skal bli en virkelighet må arbeidsgivere sørge for at de ansatte sitter med den nødvendige teknologikompetansen og får opplæring i hvordan de skal samhandle med maskiner i hverdagen.

Disse utfordringene åpner også opp for det store spørsmålet for vår nye digitaliseringsminister: Hvordan skal samfunnet «regulere» kunstig intelligens? Hvem skal ha ansvar for å bestemme hvor og i hvilke sammenhenger vi kan og bør bruke kunstig intelligens? Hvem skal lære maskiner om hvilket datagrunnlag som bør brukes for å sikre ansvarlighet? Kunstig intelligens begynner å lære fra det sekundet den skrus på – vi må derfor sørge for at vi vurderer overnevnte spørsmål nøye og «oppdrar» den rett fra start.

Jeg støtter min amerikanske Accenture-kollega, og en av lederne for vår globale satsning på kunstig intelligens Ruman Chowdhury, at dette ansvaret ikke kun påligger myndighetene, men hele samfunnet.

I samfunnet har vi normer og verdier som er utviklet og ivaretatt uten myndighetenes direkte innflytelse. Disse verdiene må også kunstig intelligens arve og reprodusere. Det kan kun skje ved at både samfunns- og næringsliv tar ansvar for å «oppdra» teknologien slik at den har en positiv innflytelse i fremtiden. Foreløpig finnes det få retningslinjer og en nasjonal strategi må derfor belyse denne tematikken.

Kommentarer (9)

Kommentarer (9)
Til toppen