Debatt

Menneskelig kontroll av KI – en farlig sovepute?

Norsk KI-politikk bygger på prinsippet om menneskelig kontroll over KI-systemer. Forskning viser at slik kontroll ofte ikke blir reell. Norge kan lære av Singapore.

Det er ikke sånn at all bruk av KI svekker dømmekraft, men risikoen øker når kompleksitet og tempo overstiger menneskets faktiske kontrollkapasitet, påpeker innleggsforfatteren.
Det er ikke sånn at all bruk av KI svekker dømmekraft, men risikoen øker når kompleksitet og tempo overstiger menneskets faktiske kontrollkapasitet, påpeker innleggsforfatteren. Illustrasjonsfoto: Colourbox
Èrlend Vestre, sjefskonsulent i Devoteam Norway
6. apr. 2026 - 10:00

Dette debattinnlegget gir uttrykk for skribentens meninger. Innlegg kan sendes til debatt@digi.no.

 Når kunstig intelligens (KI) påvirker beslutninger, håndterer sensitive data eller utfører handlinger med reelle konsekvenser, fremstår menneskelig involvering som nødvendig. Den begrunnes særlig med behovet for ansvar, dømmekraft og tillit.

Et KI-system kan ikke holdes rettslig eller moralsk ansvarlig, derfor må et menneske stå ansvarlig for beslutningen. Mennesker antas å kunne vurdere kontekst, utøve skjønn og fange opp avvik bedre enn dagens KI-systemer. Krav om menneskelig involvering er også forankret i lovverk og standarder. Nasjonal KI-strategi legger til grunn at mennesker skal sikre rettssikkerhet, kvalitet og ansvar, mens EU AI Act forutsetter at mennesker kan gripe inn, forstå begrensningene og overstyre resultatet KI-systemet produserer.  

Falsk trygghet?

Mennesker har en dokumentert tendens til å stole mer på systemer enn på egen vurdering, skriver Erlend Vestre i Devoteam. Foto:  Devoteam
Mennesker har en dokumentert tendens til å stole mer på systemer enn på egen vurdering, skriver Erlend Vestre i Devoteam. Foto:  Devoteam

En metastudie fra MIT (Malone et al, Nature Human Behaviour 2023) viser at trygghet gjennom menneskelig kontroll kan være en kostbar illusjon. Mennesket sitter med ansvaret, men uten reell styringsmulighet. KI-systemer opererer i et tempo, volum og med en kompleksitet som gjør løpende menneskelig kontroll vanskelig. Beslutninger tas raskt, konsekvenser viser seg senere, og handlinger skjer i sammenhengende kjeder snarere enn som enkelthendelser. Da oppstår situasjoner der KI leverer autoritative svar mens vi blir passive godkjennere. Konsekvensen er at vi gradvis svekker vår evne til selvstendig vurdering – og dermed svekker ferdighetene som er nødvendige for kritisk kontroll.

Dette betyr ikke at all bruk av KI svekker dømmekraft, men at risikoen øker når kompleksitet og tempo overstiger menneskets faktiske kontrollkapasitet. Menneskelig kontroll kan være en effektiv sikkerhetsmekanisme i oversiktlige og stabile arbeidsprosesser, der mennesker faktisk har kapasitet til å utøve selvstendig kontroll.

Samtidig har mennesker en dokumentert tendens til å stole mer på systemer enn på egen vurdering, overse feil når noe fremstår som riktig og godkjenne fordi «systemet pleier å ha rett». Menneskelig kontroll må derfor forstås og utformes annerledes.

Hva kan gjøres?

Malone peker på at trygg KI-bruk først og fremst ikke handler om mer menneskelig godkjenning, men om bedre design av samspillet mellom menneske og maskin. Arbeidsprosesser må redesignes slik at kontroll flyttes fra løpende godkjenning i etterkant til tydelig mandatstyring og rammesetting. KI bør operere innenfor klart definerte handlingsrom, mens mennesker fastsetter kriterier, grenser og stoppregler. Det må bygges inn tekniske «nødbremser» og terskler som automatisk overfører kontroll til mennesker når risiko over en viss terskel oppstår, kombinert med løsninger som hjelper ansatte å utvikle et riktig tillitsnivå til systemene.

Malone understreker at varig kontroll ikke skapes gjennom teknologi alene, men gjennom bred kompetanseheving og en organisasjonskultur som forstår, utfordrer og aktivt former bruken av KI.

Singapores modell

Et konkret eksempel på en slik tilnærming er Singapores helhetlige styringsmodell for autonome agenter, lansert i januar 2026. I stedet for kontinuerlig menneskelig overvåkning, brukes sjekkpunktbasert godkjenning, der mennesker kun kobles inn ved kritiske og irreversible veivalg. Agenters handlingsrom avgrenses teknisk gjennom tydelige mandater og soneinndeling, supplert av «vaktbikkje-agenter» som overvåker atferd og varsler ved avvik. Reell kontroll bygges inn i arkitektur og styring, fremfor å overlates til menneskelig godkjenning alene.

Hva bør Norge gjøre?

Malones forskning og Singapores modell peker i samme retning: Norge bør konkretisere hva menneskelig kontroll faktisk betyr i praksis og stille krav til at virksomheter dokumenterer kontroll, ikke bare tilstedeværelsen av den. Reell styring oppstår først når struktur, kompetanse og kultur virker sammen. I noen tilfeller kan det mest ansvarlige være å avstå.

Yann LeCun satser på verdensmodeller i det ny oppstartsselskapet Ami.
Les også:

KI-pioneren Yann LeCun: – Språkmodeller vil ikke føre til intelligens på menneskelig nivå

Kommentarer
Du må være innlogget hos Ifrågasätt for å kommentere. Bruk BankID for automatisk oppretting av brukerkonto. Du kan kommentere under fullt navn eller med kallenavn.