Når kunstig intelligens (KI) påvirker beslutninger, håndterer sensitive data eller utfører handlinger med reelle konsekvenser, fremstår menneskelig involvering som nødvendig. Den begrunnes særlig med behovet for ansvar, dømmekraft og tillit.
Et KI-system kan ikke holdes rettslig eller moralsk ansvarlig, derfor må et menneske stå ansvarlig for beslutningen. Mennesker antas å kunne vurdere kontekst, utøve skjønn og fange opp avvik bedre enn dagens KI-systemer. Krav om menneskelig involvering er også forankret i lovverk og standarder. Nasjonal KI-strategi legger til grunn at mennesker skal sikre rettssikkerhet, kvalitet og ansvar, mens EU AI Act forutsetter at mennesker kan gripe inn, forstå begrensningene og overstyre resultatet KI-systemet produserer.
Falsk trygghet?
.jpg)
En metastudie fra MIT (Malone et al, Nature Human Behaviour 2023) viser at trygghet gjennom menneskelig kontroll kan være en kostbar illusjon. Mennesket sitter med ansvaret, men uten reell styringsmulighet. KI-systemer opererer i et tempo, volum og med en kompleksitet som gjør løpende menneskelig kontroll vanskelig. Beslutninger tas raskt, konsekvenser viser seg senere, og handlinger skjer i sammenhengende kjeder snarere enn som enkelthendelser. Da oppstår situasjoner der KI leverer autoritative svar mens vi blir passive godkjennere. Konsekvensen er at vi gradvis svekker vår evne til selvstendig vurdering – og dermed svekker ferdighetene som er nødvendige for kritisk kontroll.
Dette betyr ikke at all bruk av KI svekker dømmekraft, men at risikoen øker når kompleksitet og tempo overstiger menneskets faktiske kontrollkapasitet. Menneskelig kontroll kan være en effektiv sikkerhetsmekanisme i oversiktlige og stabile arbeidsprosesser, der mennesker faktisk har kapasitet til å utøve selvstendig kontroll.
Samtidig har mennesker en dokumentert tendens til å stole mer på systemer enn på egen vurdering, overse feil når noe fremstår som riktig og godkjenne fordi «systemet pleier å ha rett». Menneskelig kontroll må derfor forstås og utformes annerledes.
Hva kan gjøres?
Malone peker på at trygg KI-bruk først og fremst ikke handler om mer menneskelig godkjenning, men om bedre design av samspillet mellom menneske og maskin. Arbeidsprosesser må redesignes slik at kontroll flyttes fra løpende godkjenning i etterkant til tydelig mandatstyring og rammesetting. KI bør operere innenfor klart definerte handlingsrom, mens mennesker fastsetter kriterier, grenser og stoppregler. Det må bygges inn tekniske «nødbremser» og terskler som automatisk overfører kontroll til mennesker når risiko over en viss terskel oppstår, kombinert med løsninger som hjelper ansatte å utvikle et riktig tillitsnivå til systemene.
Malone understreker at varig kontroll ikke skapes gjennom teknologi alene, men gjennom bred kompetanseheving og en organisasjonskultur som forstår, utfordrer og aktivt former bruken av KI.
Singapores modell
Et konkret eksempel på en slik tilnærming er Singapores helhetlige styringsmodell for autonome agenter, lansert i januar 2026. I stedet for kontinuerlig menneskelig overvåkning, brukes sjekkpunktbasert godkjenning, der mennesker kun kobles inn ved kritiske og irreversible veivalg. Agenters handlingsrom avgrenses teknisk gjennom tydelige mandater og soneinndeling, supplert av «vaktbikkje-agenter» som overvåker atferd og varsler ved avvik. Reell kontroll bygges inn i arkitektur og styring, fremfor å overlates til menneskelig godkjenning alene.


Hva bør Norge gjøre?
Malones forskning og Singapores modell peker i samme retning: Norge bør konkretisere hva menneskelig kontroll faktisk betyr i praksis og stille krav til at virksomheter dokumenterer kontroll, ikke bare tilstedeværelsen av den. Reell styring oppstår først når struktur, kompetanse og kultur virker sammen. I noen tilfeller kan det mest ansvarlige være å avstå.

KI-pioneren Yann LeCun: – Språkmodeller vil ikke føre til intelligens på menneskelig nivå





