Debatt

KI-fabrikken i Narvik gir store muligheter og like stor risiko

Aker og Open AIs «KI-fabrikk» i Narvik kan gjøre oss mer avhengige av aktører og teknologi vi ikke kontrollerer.

Stargate Norway er en del av programmet «OpenAI for countries». Der står det at samarbeid skjer «i koordinering med den amerikanske regjeringen».
Stargate Norway er en del av programmet «OpenAI for countries». Der står det at samarbeid skjer «i koordinering med den amerikanske regjeringen». Arash A. Nejad
Lillian Røstad (adm. direktør), Olav Lysne (professor og sjefsforsker), Jostein Jensen (direktør for cybersikkerhet), Michael A. Riegler (Head of AI) - alle Simula Research Laboratory. Klas Pettersen, direktør ved SimulaMet.
27. aug. 2025 - 07:27

Dette debattinnlegget gir uttrykk for skribentens meninger. Innlegg kan sendes til debatt@digi.no.

Aker og Open AI vil bygge en «KI-fabrikk» i Narvik, drevet av norsk vannkraft. Det kan gi et stort løft for norsk kunstig intelligens, men også gjøre oss mer avhengige av aktører og teknologi vi ikke kontrollerer.

Norge trenger et eget KI-sikkerhetssenter for å sikre nasjonal kontroll og digitale verdier.

Nylig ble det kjent at Aker og Open AI vil etablere en storskala datasenterpark i Narvik. Her skal 100.000 avanserte databrikker, såkalte GPU-er, gjøre om norsk vannkraft til datakraft – og derfra til kunstig intelligens.

Til sammenligning har Norges nye superdatamaskin for forskning bare 304 GPU-er.

En KI-fabrikk under amerikansk kontroll

Open AI lanserer prosjektet Stargate Norway som en del av programmet «Open AI for countries». De satser på Norge som første land i Europa for datasenterinitiativet.

Mange av dagens KI-systemer gir imponerende resultater, men de gjør oss  ikke klokere, og vi forstår ikke alltid hvordan de kommer fram til resultatene. Men det kan vi gjøre noe med, mener professor.
Les også:

 Professor om KI: – Vi må forstå mer av det som skjer inne i boksen

Ifølge dem selv skal norske forskere og oppstartsbedrifter få prioritet. Det høres lovende ut. Men to spørsmål melder seg:

  • Hvor mye bør vi basere vår KI-utvikling på teknologi vi ikke eier eller styrer?
  • Hva må vi gjøre for å ha kontroll?

For i programmet presiseres det at samarbeidet skjer «i koordinering med den amerikanske regjeringen».

Teknologikontroll brukes politisk

De fleste land i verden har allerede en betydelig digital avhengighet til beslutninger som tas i USA. Tidligere var bekymringen først og fremst at amerikanske sikkerhetsmyndigheter kunne få tilgang til data.

Nå ser vi også eksempler på at teknologikontroll brukes politisk: 

  • Amerikanske forhandlere skal ha truet med å stenge satellittjenesten Starlink i Ukraina for å få en mineralavtale.
  • Sjefanklageren i Den internasjonale straffedomstolen mistet tilgang til e-posten sin hos Microsoft etter at domstolen utstedte arrestordre på Israels statsminister.
Open AI-sjef Sam Altman vil lansere et KI-maskinvareprodukt ganske snart, om de nye rapportene stemmer.
Les også:

Rapport: – Dette blir Open AIs første KI-maskinvareprodukt

Må tilpasses demokratiske verdier

Under Arendalsuka kunne Petter M. Tømmeraas fra Aker Horizons forsikre om at norske aktører ikke blir låst til å kjøre Open AIs systemer fra Stargate Norway.

Det er et viktig signal og et skritt i riktig retning av å ta del i KI-utviklingen på egne premisser. 

Men fri tilgang alene er ikke nok. For at vi skal kunne stole på KI-systemene, må de tilpasses norsk språk, lovverk, etikk, kultur og demokratiske verdier.

Når store norske institusjoner tar i bruk teknologi fra utenlandske aktører, må vi vite hvilke konsekvenser det har, og kunne påvirke utviklingen.

Det er nå, i en tidlig fase, vi bygger fremtidens avhengigheter også på KI-området. Hvis vi ikke tar grep, kan endrede politiske forhold sette oss i vanskelige situasjoner.

Vi må sikre at Norge har kompetanse, kapasitet og kontroll – ikke bare tilgang gjennom utenlandske partnerskap.

Norge trenger et KI-sikkerhetssenter

For å bevare digital suverenitet og beskytte innbyggerne, bør Norge opprette et nasjonalt KI-sikkerhetssenter som kan:

  • teste, evaluere og verifisere KI-systemer
  • drive forskning på hvordan de store KI-modellene fungerer
  • sikre at teknologien følger norske verdier og sikkerhetsinteresser
Chat GPT kan bli vesentlig tryggere å bruke med den nye «nedstengningsmodusen», men på bekostning av en del funksjonalitet.
Les også:

Stor sikkerhetstrussel: Slik skal brukerne beskyttes

Storbritannia og EU har allerede opprettet slike institusjoner, og ti andre land har fulgt etter. Norge er ikke på listen.

Disse landene samarbeider nå om KI-sikkerhet og møtes på toppmøter som AI Safety Summit og AI Action Summit. Neste store møte er i New Delhi i februar 2026.

Der har Norge en gyllen anledning til å kunngjøre et nasjonalt KI-sikkerhetssenter, og vise at vi vil ta styring over vår teknologiske fremtid.

Ikke overlat alt til andre 

Vi vet at kunstig intelligens har endret, og vil fortsette å endre, samfunnet vi lever i. Utviklingen og maktkonsentrasjonen skjer så raskt at det er vanskelig å vite hvordan fremtiden vil se ut. 

Skal Norge høste gevinstene på en trygg måte må vi sørge for at verdiene og kontrollen forblir i Norge, ikke hos utenlandske selskaper.

Vi står i det internasjonale KI-rampelyset akkurat nå. Det gir store muligheter og like stor risiko. Kontroll får vi bare hvis vi bygger den selv.

Sam Altman har god grunn til å frykte Google – og flere av de øvrige KI-aktørene, for den saks skyld.
Les også:

Open AI i krisemodus: Erklærer «kode rød»

Kommentarer
Du må være innlogget hos Ifrågasätt for å kommentere. Bruk BankID for automatisk oppretting av brukerkonto. Du kan kommentere under fullt navn eller med kallenavn.