Høsten 2024 fikk vi levert to GPU-servere — maskinvaren som driver all moderne kunstig intelligens (KI) — blant de første av sitt slag i Norge. Servere til flere millioner kroner, utstyrt med den mest avanserte akseleratorteknologien som var tilgjengelig.
De passet ikke i heisen. Vi tok dem imot på fortauet utenfor kontorene våre i Oslo, lastet dem i en leiebil og fant et kjellerrom med nok strøm og kjøling.
Der bygget vi datasenteret selv — racking, nettverk, alt fra grunnen av. Vi ville bygge noe ingen i Norge hadde gjort: En plattform der KI lytter til samtalen mellom lege og pasient, forstår den medisinske konteksten og genererer et journalutkast — helt uten at data forlater norsk infrastruktur.


I dag er kjellerrommet Vidds AI-lab: Et fullverdig utviklingsmiljø der vi kjører store språkmodeller for medisinsk norsk. Der itererte vi på alt fra talemodeller til promptarkitektur, testet med klinisk personell og bygget plattformen som til slutt ble godkjent for bruk i produksjon på norske sykehus.
Problemet vi løser
Norske leger bruker en betydelig del av arbeidsdagen på dokumentasjon. Det er ikke et nytt problem, og det er ikke mangel på gode intensjoner. Men det er stor avstand mellom intensjon og implementering — og det er i det gapet vi jobber.
Konseptet tale-til-notat er intuitivt: En KI-modell lytter til pasientsamtalen og genererer et strukturert journalutkast som legen gjennomgår og godkjenner. Gjennomføringen er noe annet.
Verdien av å bygge selv
Som ingeniør kan jeg si: Det teknisk enkleste hadde vært å sende et lydopptak til et skybasert API og få et journalnotat tilbake. En prototyp tar ikke stort lenger enn en uke å utvikle.
Men pasientsamtaler er blant de mest sensitive dataene som finnes. Skybaserte løsninger kan i prinsippet brukes — men å drifte hele KI-stakken selv, på dedikert infrastruktur i Norge, gir fordeler som er vanskelige å oppnå på andre måter.
- Full datasuverenitet: Ingen pasientdata forlater infrastruktur du kontrollerer.
- Uavhengighet fra utenlandske leverandører som kan endre vilkår, priser eller tilgjengelighet.
- Full sporbarhet i hele prosesseringskjeden.
- Forutsigbare kostnader som ikke eskalerer med bruk.
- Og en leverandørkjede der du vet nøyaktig hva som skjer med dataene i hvert ledd.
Forskjellen på å konsumere en KI-tjeneste over et API og å drifte alle leddene selv — talegjenkjenning, språkmodell, applikasjonslaget — er fundamental. Det er forskjellen mellom å bestille en ferdigrett og å drive et kjøkken. Begge kan gi et godt resultat, men bare det ene gir deg full kontroll over ingrediensene.
Hva det innebærer
Vi kjører en åpen europeisk språkmodell med fri lisens — bygget med GDPR og EU AI Act som utgangspunkt. Vi laster ned modellvektene og kjører all inferens selv. Ingen data deles med modelleverandøren.
For talegjenkjenning bruker vi en spesialisert modell for medisinsk norsk, trent for dialektvariasjoner og medisinsk terminologi. Alt kjører på GPU-servere med åtte akseleratorer per node, med dedikert planlegging av kjøling og krafttilførsel. Sikkerhetsdokumentasjonen for en sykehusintegrasjon er gjerne mer omfattende enn selve kodebasen.
Fra kjeller til klinikk
I mai 2025 signerte Diakonhjemmet sykehus en samarbeidsavtale om KI-basert journalskriving i alderspsykiatrisk avdeling. En måned senere fulgte Akershus universitetssykehus med en pilot i psykisk helsevern. I begge tilfellene kjører plattformen på dedikert infrastruktur i profesjonelle norske datasentre, med de sikkerhetssertifiseringene sykehusene krever.
Grunnprinsippet er det samme som i kjellerrommet: All prosessering skjer lokalt, ingen pasientdata forlater den kontrollerte infrastrukturen, og klinikeren har alltid siste ord før noe lagres i journalen.
Hva vi har lært
Et drøyt år etter at vi bar serverne inn fra fortauet, har vi en plattform som kjører i produksjon i norsk spesialisthelsetjeneste. Noen erfaringer er verdt å dele.


Alt tar lengre tid enn du tror. Å anskaffe og installere GPU-servere er i seg selv krevende — fra innkjøp og logistikk til strøm, kjøling og nettverksoppsett. Å få alle lagene til å kjøre stabilt, krever full kontroll fra maskinvaredrivere til modelloptimalisering. Og prosessen med å dokumentere, sertifisere og forankre løsningen i et sykehussystem er omfattende og tidkrevende. Det er riktig at den er det.
Åpne modeller endrer spillereglene. Når du kan laste ned modellvektene og kjøre inferens selv, forsvinner avhengigheten til en ekstern API-leverandør — og med den mye av personvern-problematikken.
Og infrastrukturen er produktet. I en sektor der dataene ikke kan forlate bygget, er det hele stakken — fra GPU til brukergrensesnitt — som skaper verdi.

Frustrert over «annenrangs» Microsoft Azure i Norge
.jpg)


