Aker og Open AI vil bygge en «KI-fabrikk» i Narvik, drevet av norsk vannkraft. Det kan gi et stort løft for norsk kunstig intelligens, men også gjøre oss mer avhengige av aktører og teknologi vi ikke kontrollerer.
Norge trenger et eget KI-sikkerhetssenter for å sikre nasjonal kontroll og digitale verdier.
Nylig ble det kjent at Aker og Open AI vil etablere en storskala datasenterpark i Narvik. Her skal 100.000 avanserte databrikker, såkalte GPU-er, gjøre om norsk vannkraft til datakraft – og derfra til kunstig intelligens.
_logo.svg.png)
.jpg)
Til sammenligning har Norges nye superdatamaskin for forskning bare 304 GPU-er.
En KI-fabrikk under amerikansk kontroll
Open AI lanserer prosjektet Stargate Norway som en del av programmet «Open AI for countries». De satser på Norge som første land i Europa for datasenterinitiativet.

Open AI: KI-agent skal gjøre tunge kodeoppgaver mye enklere
Ifølge dem selv skal norske forskere og oppstartsbedrifter få prioritet. Det høres lovende ut. Men to spørsmål melder seg:
- Hvor mye bør vi basere vår KI-utvikling på teknologi vi ikke eier eller styrer?
- Hva må vi gjøre for å ha kontroll?
For i programmet presiseres det at samarbeidet skjer «i koordinering med den amerikanske regjeringen».
Teknologikontroll brukes politisk
De fleste land i verden har allerede en betydelig digital avhengighet til beslutninger som tas i USA. Tidligere var bekymringen først og fremst at amerikanske sikkerhetsmyndigheter kunne få tilgang til data.
Nå ser vi også eksempler på at teknologikontroll brukes politisk:
- Amerikanske forhandlere skal ha truet med å stenge satellittjenesten Starlink i Ukraina for å få en mineralavtale.
- Sjefanklageren i Den internasjonale straffedomstolen mistet tilgang til e-posten sin hos Microsoft etter at domstolen utstedte arrestordre på Israels statsminister.

Altman om lisenskrav: – Det ville vært katastrofalt
Må tilpasses demokratiske verdier
Under Arendalsuka kunne Petter M. Tømmeraas fra Aker Horizons forsikre om at norske aktører ikke blir låst til å kjøre Open AIs systemer fra Stargate Norway.
Det er et viktig signal og et skritt i riktig retning av å ta del i KI-utviklingen på egne premisser.
Men fri tilgang alene er ikke nok. For at vi skal kunne stole på KI-systemene, må de tilpasses norsk språk, lovverk, etikk, kultur og demokratiske verdier.


Når store norske institusjoner tar i bruk teknologi fra utenlandske aktører, må vi vite hvilke konsekvenser det har, og kunne påvirke utviklingen.
Det er nå, i en tidlig fase, vi bygger fremtidens avhengigheter også på KI-området. Hvis vi ikke tar grep, kan endrede politiske forhold sette oss i vanskelige situasjoner.
Vi må sikre at Norge har kompetanse, kapasitet og kontroll – ikke bare tilgang gjennom utenlandske partnerskap.
Norge trenger et KI-sikkerhetssenter
For å bevare digital suverenitet og beskytte innbyggerne, bør Norge opprette et nasjonalt KI-sikkerhetssenter som kan:
- teste, evaluere og verifisere KI-systemer
- drive forskning på hvordan de store KI-modellene fungerer
- sikre at teknologien følger norske verdier og sikkerhetsinteresser

I strupen på Meta: – De kan ikke prioritere hva som er bra for verden
Storbritannia og EU har allerede opprettet slike institusjoner, og ti andre land har fulgt etter. Norge er ikke på listen.
Disse landene samarbeider nå om KI-sikkerhet og møtes på toppmøter som AI Safety Summit og AI Action Summit. Neste store møte er i New Delhi i februar 2026.
Der har Norge en gyllen anledning til å kunngjøre et nasjonalt KI-sikkerhetssenter, og vise at vi vil ta styring over vår teknologiske fremtid.
Ikke overlat alt til andre
Vi vet at kunstig intelligens har endret, og vil fortsette å endre, samfunnet vi lever i. Utviklingen og maktkonsentrasjonen skjer så raskt at det er vanskelig å vite hvordan fremtiden vil se ut.
Skal Norge høste gevinstene på en trygg måte må vi sørge for at verdiene og kontrollen forblir i Norge, ikke hos utenlandske selskaper.
Vi står i det internasjonale KI-rampelyset akkurat nå. Det gir store muligheter og like stor risiko. Kontroll får vi bare hvis vi bygger den selv.

Brukere protesterte: Nå blir GPT-5 «varmere» i tonen