Morgenbladet publiserte før påske en omfattende reportasje med den nokså ledende tittelen «Hvor redde skal vi være for KI?» Et kobbel av svært kompetente fagfolk ble intervjuet. Dessverre ble det – især i etterkant av publiseringen – en raskt nedadgående spiral av debattklima.
Morgenbladet-saken kommer skjevt ut fra hoppkanten. Kunstig intelligens (KI) behandles som en sekkepost der alt fra språkmodeller til ondsinnet superintelligens og stormaktspolitikk blandes i samme gryte. Da åpnes det også for cherry-picking av både støttespillere, anekdoter og empiri.
Inga Strumke fremstilles som en akademisk isdronning som fornekter det vi ikke kan bevise her og nå, mens tenketanken Langsikt med Axel Braanen Sterri i front plasseres i rollen som kjøpte katastrofemaner og naiv fremtidsprofet.


Det er en dramaturgi som inviterer til konflikt, ikke innsikt. Dermed ender vi i den litt trettende fortellingen: En kamp mellom ludditter versus Silicon Valley‑papegøyer. Det er unødvendig, og først og fremst fordummende.
Hvem skal få være med i samtalen?
Det blir også raskt en mild variant av hersketeknikk – diplomer og utmerkelser settes opp mot hverandre. For motstandere blir Sterri «bare» en filosof og Strumke «bare» en fysiker. Begge har mange års høyere utdanning og jobber aktivt med feltet. Hvis ikke det er godt nok – hva da med resten av oss? Som om KI kun kan forstås gjennom én disiplin og én type kompetanse.
Ta prinsippet om man (or woman) in the loop når KI brukes i forsvarssammenheng, for eksempel i deployering av autonome systemer eller målutvelgelse. Teknologisk kompetanse er helt nødvendig for å lage systemer som faktisk fungerer i praksis. Men det er langt fra tilstrekkelig.
Man må også forstå sikkerhetspolitikk og internasjonale relasjoner, folkerett, militær teori, forholdet mellom proporsjonalitet og effekt, organisasjonsadferd under press og ikke minst brukerperspektivet i skarpe situasjoner. Hvis bare ett sett med perspektiver slippes inn, får vi store blindsoner – og farligere teknologi.
Når en teknologi er sektorovergripende og samfunnsformende, holder det ikke å stirre blindt enten på byggeklossene eller på det store bildet. Dette er ikke enten fugle- eller froskeperspektiv. Hvordan vi snakker om teknologien, påvirker også hva som utvikles, hvem som får definere rammene og hvilke løsninger vi ender opp med.
Starten påvirker hvor du ender
Kompetanse betyr selvsagt noe. Ingen bygger svømmehall med bare rørleggere, bare byplanleggere eller bare arkitekter. Når vi begynner å diskutere hvem som har lov til å mene noe, mister vi det store bildet: Teknologi former samfunn, og samfunn former teknologi. Da trenger vi både fagspesifikk kunnskap, praktisk erfaring og ulike blikk på hva som faktisk står på spill.
Eksperter kan fortsatt ikke se inn i fremtiden, uavhengig av hvor mange leketøy og mastergrader de har tilgjengelig. At man har hatt rett før, er fortsatt ingen garanti for at man får rett igjen. Tidvis er det faktisk tvert om. Amaras lov minner oss også om at vi fort overvurderer teknologiens kortsiktige betydning og undervurderer de langsiktige samfunnsendringene.
Filosofi, informatikk og politisk analyse starter fra ulike steder – og det er nettopp derfor de utfyller hverandre. Tenketanker opererer under andre rammevilkår enn akademia. Det betyr ikke at noen av dem bør knebles.
Alle stemmer skal selvfølgelig ikke telle likt i alle kontekster, du ber ikke sykehusadministratoren om å gjennomføre selve hjertekirurgien. Men sykehusadministratoren gjør det mulig for hjertekirurgen å gjøre jobben sin. Sammen redder de liv.
En liten frekkas
Munnhellet sier at når krybben er tom, bites hestene. Innen KI er det mer enn nok å ta tak i for alle, så det er ingen grunn til å bite huet av hverandre. Vi er ikke tjent med høye murer og harselering. Da blir meningsfeltet farlig smalt, og vi kommer til å snuble.
Med fare for å høres naiv ut: Vi trenger en faktabasert diskusjon om hva teknologien faktisk kan her og nå, med norske rammebetingelser i mente – Norge er ikke USA, og våre beslutninger bør reflektere nettopp norske rammer, behov og verdier. Vi trenger også rom for scenariene og fremtidsvyene, både de vi frykter og de vi håper på. Beredskap bygges som kjent ved å planlegge for farer man håper ikke materialiserer seg.
Avslutningsvis: Jeg er en sivil statsviter – jeg har ikke førstegangstjenesten engang – som tillater meg å mene noe om teknologi, retorikk og militære saker. Bare fordi jeg kan og vil. Fordi slik gjør vi det i demokratier. Og hurra for det.

Oljefondet satser på KI og amerikanske selskaper: – Har ikke noe valg




