Debatt

Vi må beskyttes mot farlig KI

I et umodent KI-marked kan det være vanskelig å skille mellom gode, dårlige og rent ut farlige løsninger. Hvordan gjøre et godt valg?

Førsteårsstudenter ved bachelorstudiet i produktdesign og teknologi ved NTNU i Gjøvik. De får nye og nyttige ideer ved å bruke kunstig intelligens, men ser også farene ved slike hjelpemidler. Bildet brukes som illustrasjon til debattartikkelen.
Førsteårsstudenter ved bachelorstudiet i produktdesign og teknologi ved NTNU i Gjøvik. De får nye og nyttige ideer ved å bruke kunstig intelligens, men ser også farene ved slike hjelpemidler. Bildet brukes som illustrasjon til debattartikkelen. Foto: Morten Sagstuen/NTNU
Marit Stubø Jorde og Thomas Flo Haugaard, advokater i Advokatfirmaet Alver AS.
25. mai 2025 - 11:07

Dette debattinnlegget gir uttrykk for skribentens meninger. Innlegg kan sendes til debatt@digi.no.

En KI-løsning er god dersom den svarer på bedriftens behov, samtidig som bruken av den ikke innebærer uakseptabel risiko. Løsningen bør altså ikke bare være nyttig, men den må også legge til rette for at kunden kan ivareta grunnleggende hensyn til for eksempel personvern, konfidensialitet, sikkerhet og immaterielle rettigheter.

Etter vår erfaring er det dessverre svært få bedrifter som kjøper og bruker slike verktøy som del av en bevisst og gjennomtenkt forretningsstrategi.

Thomas Flo Haugaard, advokat i Alver.
Thomas Flo Haugaard, advokat i Alver.
Marit Stubø Jorde, advokat i Alver.
Marit Stubø Jorde, advokat i Alver.

Mange velger å binde seg til dyre og ofte dårlige løsninger etter «det første og beste»-prinsippet, uten tanke på hvilken risiko bedriften tar ved å bruke løsningen ute i det virkelige liv på ekte mennesker.

En slik bevisstløs holdning til bruken av et såpass kraftig verktøy med varierende grad av autonomi og lærings- og tilpasningsevne, kan bidra til både kostbare lovbrudd, svekket renommé og tapte markedsandeler. I verste fall kan dystopien bli en realitet.

Hvilke krav må stilles?

I dagens lovgivning stilles det ikke spesifikke krav til hvordan KI-løsninger utformes og brukes, ut over at man må overholde de relevante kravene som gjelder mer generelt, for eksempel følgende:

  • en KI-løsning som innebærer behandling av personopplysninger, vil ofte bety at den behandlingsansvarlige må vurdere personvernkonsekvensene (DPIA) ved KI-bruken
  • en KI-løsning kan ikke brukes til å fatte beslutninger som har stor betydning for enkeltpersoner, uten at menneskelig intelligens involveres
  • en KI-løsning kan ikke brukes til usaklig diskriminering
  • en KI-løsning kan heller ikke brukes til å gjøre inngrep i opphavsrett og andre immaterielle rettigheter.

I tillegg til disse teknologinøytrale rammene som allerede gjelder for KI her til lands, er det også mer målrettet lovgivning på vei.

EUs KI-forordning (AI Act) skal nemlig snart innføres i norsk rett. Den nye loven vil innebære at vi får en enhetlig regulering av KI i hele EØS-området, med risikobaserte krav som primært retter seg mot utviklere av KI-løsninger: Jo mer skade en KI-løsning kan gjøre, desto strengere krav vil bli stilt til for eksempel sikkerhet, åpenhet og menneskelig involvering – og motsatt.

Uakseptabel risiko

Teknologisk singularitet er et begrep som beskriver det hypotetiske punktet der teknologi, spesielt KI, utvikler seg så raskt at den overgår menneskers intellektuelle kapasitet og kontroll. Konseptet innebærer at KI-løsninger, ved hjelp av selvforsterkende forbedringer, kan oppnå en overmenneskelig form for kognisjon – en form for superintelligens – med potensielt uforutsigbare konsekvenser for samfunnet. Dette representerer naturligvis et mildt sagt uønsket scenario for menneskeheten, og de nye KI-reglene ser ut til å forme et slags juridisk forsvarsverk mot en slik utvikling: enkelte typer KI-løsninger innebærer nemlig en så høy risiko for oss at de rett og slett vil bli forbudt. Dette gjelder blant annet KI som

  • manipulerer underbevisstheten vår
  • utnytter sårbare mennesker
  • rangerer mennesker
  • forutsier uønsket atferd
  • «skraper» nettet etter ansikter
  • gjenkjenner følelser
  • kategoriserer mennesker utfra biometriske kjennetegn, altså våre fysiske og atferdsmessige egenskaper

Når den nye KI-loven er på plass, antakelig på sensommeren 2026, vil vi altså få et lovverk som skal bidra til gode og samfunnsnyttige løsninger, samtidig som det skal beskytte oss mot farlig bruk av KI.

Da blir det selvfølgelig viktig at din bedrift ikke bare stiller krav om at KI-leverandøren din oppfyller lovkravene og leverer en god løsning, men at dere også stiller krav til menneskelig involvering når løsningen tas i bruk. I motsatt fall kan bedriften din bidra til verdens undergang. Det vil du vel ikke?

I flere tilfeller har vi sett at kunstig intelligens har fordommer som slår negativt ut for kvinner. Det kreves god kompetanse for å trene modellene riktig, og derfor må KI-kompetanse inn i hele utdanningsløpet, skriver statsrådene Sigrun Aasland og Karianne Tung.
Debatt

Vi må kreve åpenhet om KI-modeller

Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.