Debatt

Frykten skaper større risiko enn KI selv

Språkmodeller, prediktive modeller og automatiserte beslutningssystemer er forskjellige teknologier. Vi blander dem sammen til én uklar trussel.

Open AI-sjef Sam Altman advarer jevnlig verden mot KI. Han har sammenlignet KI-utviklingen med Manhattan-prosjektet, som utviklet atombomben. Altman har blitt mistenkt for å drive forkledt markedsføring.
Open AI-sjef Sam Altman advarer jevnlig verden mot KI. Han har sammenlignet KI-utviklingen med Manhattan-prosjektet, som utviklet atombomben. Altman har blitt mistenkt for å drive forkledt markedsføring. Foto: Kim Kyung-Hoon/Reuters/NTB
Maria Johansen, grunnlegger og eier av Konsultbiz.com
25. nov. 2025 - 13:36

Dette debattinnlegget gir uttrykk for skribentens meninger. Innlegg kan sendes til debatt@digi.no.

I Norge har fryktretorikk blitt selve rammen for debatten om kunstig intelligens (KI). Når forskere i mediene beskriver teknologien som «å leke med ilden», får vi en samtale som ikke handler om hva teknologien faktisk gjør, men om hva vi frykter at den kan bli.

Det fører til et offentlig ordskifte som svekker både kunnskapen og strategiene vi trenger for å håndtere fremtidens digitale risiko.

Når kunstig intelligens fremstilles som en trussel, trekker folk seg unna i stedet for å sette seg inn i teknologien. Ledelsen i virksomheter blir forsiktige, og investeringer settes på vent. Andre land bygger kompetanse, infrastruktur og næringsliv rundt kunstig intelligens. Norge sitter fast i en defensiv samtale som gjør oss mindre i stand til å delta i utviklingen som skjer globalt.

Teori vs. virkelighet

Det største problemet i norsk offentlighet i dag er ikke kunstig intelligens, men misforståelser rundt hva den er, skriver Maria Johansen i Ocean Hyway Cluster.  Foto:  Amena Johansen
Det største problemet i norsk offentlighet i dag er ikke kunstig intelligens, men misforståelser rundt hva den er, skriver Maria Johansen i Ocean Hyway Cluster.  Foto:  Amena Johansen

Advarsler fra akademiske miljøer har verdi, men de må forstås som teoretiske perspektiver, ikke som operative trusselbilder. Når forskningshypoteser, fremtidsspekulasjoner og filosofiske scenarioer presenteres som akutte samfunnsrisikoer, skapes et inntrykk av at teknologien allerede er ute av kontroll. Det er den ikke.

Kunstig intelligens har svakheter. Det finnes skjevheter i datasett, feilprediksjoner, utydelige ansvarsmodeller og risiko for misbruk. Det er alvorlig nok.

Men disse utfordringene løses ikke gjennom frykt eller dramatiserende metaforer. De løses av bedre datakvalitet, teknologiforståelse, tydelig styring og politiske beslutninger som bygger kompetanse – ikke panikk. 

Farlig kunnskapsmangel

Det største problemet i norsk offentlighet i dag er ikke kunstig intelligens, men misforståelser rundt hva den er. Mange tror at kunstig intelligens fungerer som en bevisst organisme. Det stemmer ikke.

Språkmodeller, prediktive modeller og automatiserte beslutningssystemer er grunnleggende forskjellige teknologier. Når vi blander dem sammen til én uklar trussel, svekker vi vår evne til å regulere, bruke og forstå dem.

En ansvarlig teknologi­debatt må være menneskesentrert. Den må handle om arbeidsliv, kompetanse, ansvar og kvalitet, ikke om hypotetiske scenarioer om kunstig bevissthet. Skal Norge lykkes, må vi tørre å nærme oss teknologien med innsikt i stedet for frykt. Det krever at vi får en debatt som er mer konkret, mer kunnskapsbasert og mindre emosjonell. 

Frykten skaper risiko

Norge trenger et nasjonalt kompetanseløft i grunnleggende forståelse av kunstig intelligens. Vi trenger bedre standarder for datakvalitet og transparens, samt lederopplæring for beslutningstakere uten teknisk bakgrunn. Uten dette blir vi sittende igjen med teknologi vi ikke forstår, og risikoen øker.

Når overskrifter spiller på panikk, blir samfunnet mindre i stand til å håndtere teknologien. Frykt svekker læring, og uten læring mister vi kontroll. Fremtiden formes av mennesker som forstår teknologien – ikke av dem som advarer mot den uten å forklare den.

Tine Austvoll Jensen (t.v.) antyder at Googles nye modell har evne til å tenke. Ekspertene Inga Strümke (PhD. i partikkelfysikk og KI-forsker) og Robert Engels (PhD. i maskinlæring) ser på utspillet som markedsføring.
Les også:

Google lover KI som «faktisk tenker»: Eksperter kaller det markedsføringsmagi

Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.