Debatt

Generativ KI kan hjelpe oss med IT-sikkerheten

Cybersikkerhetstruslene har endret seg raskt. Autonome agenter og avanserte deepfakes gjør oss mer sårbare, men åpner også for nye løsninger.

Sikkerhetsledere må balansere mellom å bruke KIs styrker og håndtere nye risikoer, skriver Marius Sandbu i Sopra Steria.
Sikkerhetsledere må balansere mellom å bruke KIs styrker og håndtere nye risikoer, skriver Marius Sandbu i Sopra Steria. Foto: Sopra Steria
Marius Sandbu, spesialist på kunstig intelligens og skytektologi i Sopra Steria
15. okt. 2025 - 13:49

Dette debattinnlegget gir uttrykk for skribentens meninger. Innlegg kan sendes til debatt@digi.no.

Generative KI-modeller har vokst raskt de siste årene. Ved lansering kunne Chat GPT behandle rundt 2500 ord, mens nye, moderne modeller som Google Gemini håndterer opptil flere millioner. Dette gir langt større kapasitet til å analysere komplekse sikkerhetsscenarier.

Gjennombruddet har kommet innen tre nøkkelområder: skala, nøyaktighet og kost. Dagens modeller håndterer ikke bare langt mer informasjon, men gjør det også med betydelig lavere grad av hallusinasjoner. Det har blitt billigere å kjøre disse modellene, noe som gjør KI-sikkerhetsverktøy mer tilgjengelige for organisasjoner i alle størrelser.

Den mest betydningsfulle utviklingen har vært fremveksten av autonome sikkerhetsagenter. Etter hvert kan disse agentene handle selvstendig for å beskytte digital infrastruktur.

Mye mer KI-generert kode

Analyse av mistenkelig kode har blitt enklere, også for kunstig intelligens. Mer av all kode er også blitt KI-generert, og Google rapporterer at 25 prosent av deres interne kodebase stammer fra KI-systemer. Men denne effektiviteten medfører også nye risikoer: Studier viser at minst 40 prosent av KI-generert kode inneholder sårbarheter, noe som understreker behovet for avanserte analysetjenester.

Integreringen av KI i utviklingsprosesser har skapt en hittil usett utfordring: Mengden programvaresårbarheter eksploderer. CVE-rapporter, som gir en oversikt over sårbarheter i datamaskiner, passerte 22.000 i 2024, en økning på 30 prosent fra 2023. Dette sammenfaller med den utbredte bruken av KI-kodeassistenter, som har gått fra 40 prosent bruk i 2021 til å bli nær universell blant utviklere.

Sammenhengen stiller viktige spørsmål om sikkerheten knyttet til KI-generert kode. Mens KI dramatisk øker produktiveteten for utviklere, arver den også sikkerhetsfeil som finnes i treningsdataene. Etter hvert som modellene lærer fra eksisterende kode (inkludert kode med sårbarheter), risikerer de å videreføre disse svakhetene i stor skala.

Nye angrepsfarer med KI

De samme KI-kapasitetene som styrker sikkerheten, skaper også nye angrepsfarer. Ondsinnede aktører kan utnytte KI til å:

  • raskt skanne kode for å oppdage og utnytte null-dagers sårbarheter før de blir rettet.
  • generere sofistikert skadevare: Selv angripere med minimal erfaring med koding kan nå lage ondsinnede programmer ved hjelp av KI.
  • gjennomføre målrettet sosial manipulering: KI kan analysere sosiale medier-profiler og offentlig informasjon for å utforme høyst personlige phishing-kampanjer.

Tips til sikkerhetsledere

Basert på nåværende trender og fremvoksende trusler bør sikkerhetsledere:

  • Bygge på fundamentene: Den raske utviklingen innen KI gjør det fristende å søke komplekse løsninger. Men det er avgjørende med god datastyring, robuste informasjonssikkerhetstiltak og omfattende opplæring av ansatte.
  • Være fleksible: KI-sikkerhetslandskapet endrer seg raskt, så organisasjoner må kunne justere sikkerhetsarkitekturen og strategier og reagere på nye trusler.
  • Øke samspill mellom mennesker og KI: Den beste tilnærmingen er å bruke KI-verktøy til å styrke sikkerhetsanalytikere, slik at menneskelig vurdering kombineres med KI-ens effektivitet.

KI-agenter som samarbeider

Neste generasjon KI i cybersikkerhet vil trolig bestå av nettverk med spesialiserte KI-agenter som samarbeider for å beskytte digitale systemer.

Sikkerhetsledere må balansere mellom å bruke KIs styrker og håndtere nye risikoer. Med økt autonomi i KI er denne balansen viktigere enn noen gang.

Cybersikkerhet fremover krever ikke at man unngår KI, men at man bruker teknologien effektivt, sammen med gode vurderinger fra mennesker. De mest vellykkede organisasjonene vil utnytte KI i tråd med en god sikkerhetskultur.

Open AI har lansert Sora 2. Her har sjefen Sam Altman plassert seg selv i en scene generert med den nye KI-videogeneratoren.
Les også:

Får egen mobilapp: Lanserer sin kraftigste KI-videogenerator

Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.