Debatt

Fysisk kunstig intelligens kan bli vårt neste «Chat GPT-øyeblikk»

Neste steg i KI-utviklingen er at teknologien flytter ut i den fysiske verden. Dette kan bli et vendepunkt. Alt avhenger av at vi kan stole på systemene.

– Risiko oppstår i samspillet mellom algoritmer, mennesker, data og omgivelser, ikke i KI-modellen alene, skriver Christian Agrell i DNV.
– Risiko oppstår i samspillet mellom algoritmer, mennesker, data og omgivelser, ikke i KI-modellen alene, skriver Christian Agrell i DNV. Foto: DNV
Christian Agrell, programdirektør for KI-forskning i DNV
25. apr. 2026 - 11:58

Dette debattinnlegget gir uttrykk for skribentens meninger. Innlegg kan sendes til debatt@digi.no.

Når kunstig intelligens (KI) ikke bare gir svar på en skjerm, men styrer maskiner og systemer i den fysiske verden, snakker vi om fysisk kunstig intelligens (embodied AI). Det kan være en robot på en produksjonslinje som fileterer laks, en «robothund» som utfører sikkerhetskontroller på en oljeplattform eller en autonom ferge som krysser fjorden. Etter hvert vil de også finne veien inn i hjemmene våre.  

Fysisk kunstig intelligens er allerede i bruk i kontrollerte miljøer og vil skaleres betydelig de neste årene. Hvor raskt teknologien tas i bruk i åpne og sikkerhetskritiske systemer, vil i stor grad avgjøres av vår evne til å etablere robust kvalitetssikring og risikostyring.

Store konsekvenser

 Kunstig intelligens er på vei inn i kritisk infrastruktur – som energi, transport og industri. Det er viktig ikke å undervurdere risikoen ved å slippe KI løs i fysiske systemer. Når KI-baserte systemer ikke oppfører seg som forventet, enten i et strømnett, på en oljeplattform eller om bord på et skip, kan konsekvensene bli alvorlige. Derfor må risikostyring integreres fra starten av. Det må ikke sees som en barriere for innovasjon, men som en muliggjører. Vi må kunne stole på at systemene virker.  

Nytt risikobilde

I tradisjonell teknologiutvikling testes og kvalitetssikres systemene før de tas i bruk. Kunstig intelligens utfordrer denne logikken. Teknologien er ikke statisk og forutsigbar, men utvikler seg over tid. Når kunstig intelligens tas i bruk i komplekse systemer, påvirker den både hvordan systemet oppfører seg og hvordan mennesker samhandler med det. Dermed endres også risikobildet. Små endringer i data eller kontekst kan få store utslag. 

I vårt arbeid med kvalitetssikring av KI-systemer ser vi at risiko sjelden ligger i modellen alene. Den oppstår i samspillet mellom KI-komponenten, resten av systemet, brukerne og omgivelsene. 

Kvalitetssikring 

Konsekvensen er tydelig: Tradisjonell kvalitetssikring er ikke lenger tilstrekkelig. Der man tidligere har basert seg på punktvise kontroller, krever kunstig intelligens en løpende og helhetlig tilnærming. Tilliten til kunstig intelligens kan ikke etableres én gang for alle. Den må bygges og vedlikeholdes over tid. 

Virksomheter som tar i bruk kunstig intelligens, må kunne dokumentere hvordan systemene faktisk oppfører seg, hvordan risiko utvikler seg og hvordan den håndteres over tid. Risiko oppstår i samspillet mellom algoritmer, mennesker, data og omgivelser, ikke i KI-modellen alene. Hyppige oppdateringer og komplekse ansvarsforhold gjør det krevende å holde oversikt. Teknologiens iboende uforutsigbarhet forsterker utfordringen og stiller nye krav til virksomheter som tar den i bruk. 

Må tilpasses KI 

I sikkerhetskritiske næringer som energi og maritim sektor er det utviklet metoder for å håndtere kompleks risiko gjennom flere tiår. Disse prinsippene kan tilpasses kunstig intelligens. Ved å kombinere etablerte risikoprinsipper med kontinuerlig overvåkning kan vi utvikle systemer som oppfører seg robust, også når omgivelsene endrer seg. 

Kunstig intelligens vil spille en stadig større rolle i norsk kritisk infrastruktur. For Norge, hvor store deler av verdiskapningen skjer i komplekse industrielle prosesser, kan evnen til å ta i bruk teknologien bli avgjørende for vår konkurransekraft. 

Fysisk kunstig intelligens kan bli vårt neste «Chat GPT-øyeblikk». Men det forutsetter én ting: At vi kan stole på systemene.

Det er ikke sånn at all bruk av KI svekker dømmekraft, men risikoen øker når kompleksitet og tempo overstiger menneskets faktiske kontrollkapasitet, påpeker innleggsforfatteren.
Debatt

Menneskelig kontroll av KI – en farlig sovepute?

Kommentarer
Du må være innlogget hos Ifrågasätt for å kommentere. Bruk BankID for automatisk oppretting av brukerkonto. Du kan kommentere under fullt navn eller med kallenavn.