Kommentar

Språkmodellenes hviskelek

Hjernen bobler hvis man begynner å fundere på potensial for kupping av sannheten i en konflikt eller angrep på organisasjoners omdømme.

Kjenner du hviskeleken? Fra førstemann sier noe til sistemann skal gjenta det som er blitt hvisket gjennom mange ledd, har det vanligvis skjedd store endringer. Sånn er det også med fakta og språkmodeller, skriver ukas spaltist. Her hvisker Lauren Sanchez noe til Meta-sjef Mark Zuckerberg.
Kjenner du hviskeleken? Fra førstemann sier noe til sistemann skal gjenta det som er blitt hvisket gjennom mange ledd, har det vanligvis skjedd store endringer. Sånn er det også med fakta og språkmodeller, skriver ukas spaltist. Her hvisker Lauren Sanchez noe til Meta-sjef Mark Zuckerberg. Foto: Kenny Holston/The New York Times/NTB
17. okt. 2025 - 12:34

Denne kommentaren gir uttrykk for skribentens meninger.

Denne uken har jeg lest to særdeles spennende publikasjoner som ved første øyeblikk kanskje ikke ser ut å ha så mye med hverandre å gjøre, men hvis samlede innsikt betyr at det haster med å stille mye strengere krav til den oppdragelsen utviklere gir sine «KI-babyer».

De to artiklene spiller hverandre gode av flere grunner, men den viktigste er kanskje hvor ufattelig vanskelig det skal bli å ettergå fakta og sannheter fremover.

KI fant 155.000 overflødige årsverk

Den første artikkelen, «KI og effektivisering: Hvordan GPT-4 fant 155.000 overflødige årsverk i norsk offentlig sektor», er åpent tilgjengelig via tidsskriftet Stat & Styring.

Forskningsartikkelen ettergår beregninger som ligger til grunn for visjonen om kunstig intelligens som game changer for norsk, offentlig sektor. Nærmere bestemt løfter om en besparelse på hele 155.000 årsverk!

Artikkelen er verdt lesning i seg selv, men det jeg særlig biter meg merke i, er hvilket kaninhull forskerne må ned i for å spore tallets opprinnelse. Og hvordan de, etter et detektivarbeid utenfor hvermannsens kapasitet og kompetanse, finner at «fakta» delvis baserer seg på en språkmodells vurdering av egen effektivitet.

Prompts får store utslag

En rekke andre tungtveiende analysepremisser virker også å ha forsvunnet da det glade effektiviseringsbudskap ble delt. For eksempel at språkmodellers potensial samkokes til å omfatte all KI-teknologi, at spørsmålsformulering (prompts) får store utslag på estimert effektivitetspotensial og at norske prediksjoner baserer seg på amerikansk yrkesklassifisering.

Som kjent skiller jo det norske og det amerikanske helse- og utdanningssystemet seg ganske mye fra hverandre med hensyn til arbeidsoppgaver, kultur, profittincentiv og i det hele tatt tilstedeværelsen av velferdsstaten for alle.

Her er det altså ingen ondsinnede intensjoner, men likevel nærmest ugjennomtrengelig å skille snørr og barter, som man sier det på fint.

Mange snubletråder små

Den andre artikkelen, som også ligger åpent på nett, har den fengende tittelen «A small number of samples can poison LLMs of any size», og er signert av Anthropic, UK AI Secrity Institute, Alan Turning Institute, University of Oxford og ETH Zurich.

Svært kort oppsummert viser studien av dataforgiftning – altså at treningsdata intensjonelt manipuleres eller korrumperes – krever mye mindre gift og tilgang enn man har antatt. Dette har igjen konsekvenser for både hvem og hvordan disse handlingene kan utføres.

Selv med de beste intensjoner kan det gå på snørra. Jeg har ikke tall på hvor mange ganger jeg har humret over folk som følger GPS-en blindt og kjører bilen rett ut i en elv. Ikke minst fordi jeg selv har dårlig retningssans, og den blir ikke bedre av at jeg har gjort meg helt avhengig av teknologien for å komme meg fra A til B.

Mer alvorlig blir det med anklager om at chatboter kan fremme kjærestesvindel (catphising), seksualisering av barn, død og selvmord ved å trigge, manipulere og lyve.

Parallelt er trusselaktør-landskapet stadig mer uoversiktlig. Stat, privat, kriminell og basically anything-as-a-service samles i en ideologisk, nasjonalistisk og økonomisk motivert suppe. Brukervennlige, tilgjengelige verktøy og hybride allianser visker ut tidligere ressurs- og kapabilitetsbegrensninger.

Lykke på reisen

Inga Strumke viser i Aftenposten hvor få krav det er til at KI-produkter skal være edruelige, sannferdige, veloppdragne og trygge. Og hvordan det å oppføre seg ordentlig fremstilles som en konkurranseulempe tilsvarende det HMS, miljøkrav og arbeiders rettigheter tidvis har blitt.

I de fleste tilfeller får vi ikke nødvendigvis se bak sceneteppet. Vi har dermed begrenset mulighet til å nøste opp i hva som ligger bak informasjonen vi presenteres for. Og hvem som er ansvarlige for feilskjær, tabber og feiltolkning. Om man i det hele tatt har tid, gidd og evner til slikt.

Informasjon flytter seg også mellom dimensjoner og kontekster uten at forbehold, svakheter og premisser nødvendigvis blir med på lasset. Tall adopteres, og ulike premissleverandører låner bort sin troverdighet til estimater som sementeres som fakta.

I møte med lange informasjonskjeder av klipp og lim kommer sunt bondevett til kort.

Og, som Antropic-artikelen viser, kan selve verktøyene våre groomes og forgiftes slik at ondsinnede aktører faktisk kan kuppe det orakelet vi allerede bruker som sannhetsgestalt for alt fra lapskausoppskrift til hvem som bør styre landet.

Hjernen bobler hvis man begynner å fundere på potensial for kupping av sannheten i en konflikt eller angrep på organisasjoners omdømme. Legg på agentisk KI, så snakker vi neste generasjons påvirkningsoperasjon. Brøling om fake news og mainstream media kan bare gå og legge seg.

Mange kryptoutvinnere har snudd seg mot å bli «Neo-Clouds». Også Stargate Norway er etter alt å dømme best forstått som en Neo-Cloud. Bildet er fra tomten i Kvandal ved Narvik, hvor datasenteret skal bygges.
Debatt

Gullrush eller sprekkeferdig boble?

Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.