«Hva har de å hente på mine data?» spør mange – helt til de rammes av et falskt venneangrep via sosiale medier, melding eller e-post.
Jeg forsker på kunstig intelligens, bygger KI-systemer og sammenligner dem med hjernen til dyr og mennesker.
Vi finner mange likheter mellom naturlig og kunstig intelligens, men forskjellene er samtidig så store at jeg ikke frykter maskinbevissthet. Det jeg er bekymret for er teknologi i feil hender som kan utnytte store mengder data, i kombinasjon med tilgjengeligheten av personlige data.
Historien som forvarsler – og en skjør nåtid
For 85 år siden invaderte nazistene Frankrike og beslagla folketellingslister, medlemsregister og telefonkataloger for å kartlegge og forfølge «uønskede» grupper.
.jpg)
Den gang måtte de grave i fysiske arkiver. I dag bærer vi et digitalt leksikon av persondata: posisjonslogg, politiske holdninger, økonomisk status, sosiale forbindelser, helse- og forbruksvaner – alt lagret i skyen.
Vi vet ikke hvem den neste autoritære trusselen blir, men de vil definitivt våpengjøre disse dataene for å identifisere fiender og levere skreddersydd propaganda.
Verdens spilleregler er i endring; allianser forskyves, og det som før var stabilt, virker flytende. Kunstig intelligens kan både styrke og ødelegge – det kommer helt an på hvem som bruker teknologien, og til hvilket formål.
Fra spionromaner til stordata
I klassiske spionfortellinger bruker agenten måneder på å bygge dekknavn og vinne tillit. Nå kan én KI-agent, programmert til å etterligne menneskelig kommunikasjon, analysere livsmønstrene dine på sekunder.


Hundrevis av slike agenter kan jobbe døgnet rundt: tilpasse budskap, lage falske nyheter, deepfakes og dukke opp i innboks/feed – ubemerket.
Vi ser allerede hvordan deepfakes brukes for å manipulere politiske holdninger: fra falske, grufulle bilder av lidende spedbarn i Gaza-krigen, som rapportert av AP News, til russiskprodusert digital propaganda om krigen i Ukraina, ifølge CJD Project – slikt innhold vekker avsky eller sympati og spres lynraskt, uten at du merker manipulasjonen.
De målretter seg presist mot dine psykologiske sårbarheter, utnytter frykt, ambisjoner og fordommer uten å vekke mistanke.

KI har skapt kunnskapshull, usikkerhet og risikoaversjon
Digital beredskap for en dystopisk fremtid
Vi har mottatt info om beredskap som vann og matlagre. Men hvordan forbereder vi oss når algoritmene blir våpen? Her er min beredskapsliste:
- Revurder sosiale medier. Disse er hovedpunkter for tilpasset manipulasjon, designet for engasjement fremfor info. Husk at følelsesladd innhold ofte omgår kritisk tenkning.
- Behandle personlige data som en strategisk ressurs. Hver bit av informasjon blir treningsdata for systemer som vil påvirke deg.
- Bruk personvernfokuserte nettlesere, VPN, og sjekk app-tillatelser regelmessig. Vurder betalte alternativer fremfor «gratis»-tjenester. Slå av sensordata som mikrofon og bevegelsessensorer.
- Varier informasjonskildene dine. Søk primærkilder som offentlige dokumenter og databaser. Spør alltid: Hvem står bak informasjonen, og hva er deres insentiver?
- Bli "KI-literær" – lær å gjenkjenne KI-generert innhold. Se etter emosjonelle manipulasjonstaktikker laget for å provosere eller bekrefte fordommer.
- Støtt regelverk for åpenhet om KI-generert innhold, uavhengig forskning på KI, uavhengig journalistikk, og utdanningsprogrammer som lærer kritisk tenkning.

Får en del av «KI-milliarden»: – Et stort ansvar


Uten uavhengig forskning, ingen pålitelig KI
Dagens KI snakker veltalende og med autoritet, og presenterer argumenter så overbevisende at selv skeptikere nikker.
Denne evnen er farlig. KIs moralske begrensninger er i hovedsak er kosmetiske—menneskepålagte filtre som kan modifiseres eller fjernes av den som kontrollerer systemet.
Dette understreker behovet for uavhengig forskning som gir innsikt i hvordan vi bygger og verifiserer KI-systemer som fortjener vår tillit, fri fra kommersielle eller politiske interesser.
Viljen til å forhindre den neste trusselen
Nazistene trengte år på å utarbeide sine lister. Et moderne autoritært regime vil ganske enkelt trenge tilgang til databasene vi allerede har bygget. Spørsmålet er ikke om denne informasjonen kan bli våpengjort—det er om vi har viljen til å forutse og forberede oss.
Alle ledd i samfunnet må bidra: enkeltbrukeren må ta kontroll over egne data, uavhengige institusjoner må utvikle pålitelige systemer, politikere må kreve ansvarlighet og transparens. Slik kan vi unngå at KI blir et redskap for undertrykkelse.

Her tar en KI-superdatamaskin vare på pasienter