Amerikanske immigrasjonsmyndigheter har fått marsjordre: Folk skal sopes opp fra gaten, barnehagen og tinghuset. Det bør ikke overraske noen at dårlig trente, paramilitære tjenestepersoner – høye på våpen og med få guardrails – i møte med sinte, men ubevæpnede sivile folkemengder, ender i aggresjon, overgrep og død.
Et utbombet Gaza bør sjokkere og skape avsky. Sammenraste, kollapsede bygninger, hindring av nødhjelp og blokkering av fluktveier bryter fundamentalt med alt vi bør stå for. Uavhengig av hvem man «heier på», skal sivile aldri være mål eller våpen i konflikt.
Slagmarken i Ukraina beskrives som en kjøttkvern. Droner skaper store dødsoner der evakuering, medisinsk bistand og forsyninger blir nesten umulig. Sprengkulden gjør vondt verre i skyttergraver som minner mer om første verdenskrig enn moderne krigføring.
Mange data små
Men dette er ikke krig på gamlemåten. Sensorer og såkalte åpne data militariseres gjennom innsamling, analyse og målutvelgelse. Sofistikerte systemer jobber side om side med røkla i sverm. Israels «Gospel», en KI-drevet målfabrikk, spyr tydeligvis ut en uendelig liste over mål som skal angripes. Prosesser automatiseres og agentisk KI skal skape så raske beslutningskjeder at «man in the loop» fremstår mer som PR enn realitet.
ICEs målutvelgelse ser ut til å basere seg på massiv oppsoping av datapunkter fra sosiale medier, dingser, offentlige registre som skattemyndigheter, eierskapsdata, helse- og velferdsmyndigheter og immigrasjonsmyndigheter. Særlig informasjonsdelingen fra Medicaid, som primært retter seg mot ressurssvake grupper, setter en skummel presedens for såkalt creep: At data samlet inn for ett formål brukes til et annet eller et bredere.
Informasjonsdelingen kan også få alvorlige utilsiktede konsekvenser hvis enkelte grupper blir redde for å oppsøke helsevesenet.
Din info deles med ICE
Det har også kommet flere rapporter om hvordan amerikanske myndigheter, særlig innen immigrasjon og grensekontroll, kjøper data fra kommersielle databørser for å omgå rettsstatlige begrensninger på overvåkning. Data som kan ha betydelige feilkilder brukes likevel i arbeid med livsendrende konsekvenser for enkeltpersoner.
Et eksempel er ICEs ansiktsgjenkjennings-app, anklaget av amerikanske senatorer for overtramp av borgerrettigheter, feilidentifikasjon og ulovlig datadeling med private kontraktører.
Skal man til VM eller på ferie i USA, er det også verdt å merke seg at informasjon om flypassasjerer og visumsøkere deles med ICE. Selv uten planer om å «overstay your welcome», sier nyhetene lite om hvorvidt informasjonen kan brukes til andre formål, trenes på eller når den eventuelt slettes.


Hvem har ansvaret?
Store datamengder fra mange kilder med varierende kvalitet kjøres gjennom plattformer som forhåpentligvis ivaretar kontekst, kvalitet, sporbarhet og etterprøvbarhet. Pressemeldingene jeg har sett, fremhever derimot informasjonsaggregering, mobilitet og brukervennlighet langt mer enn tilgangskontroll og sikring mot misbruk.
Smerteterskelen for utilsiktede konsekvenser kan også justeres etter «strategiske prioriteringer», som for eksempel hvor mange prosent terrorist noen må være for å legitimere et angrep.
I en slik verden blir spørsmålet om man er uskyldig til det motsatte er bevist, eller skyldig til algoritmen sier noe annet.
I sentrum står de såkalte «enablers», ofte oversatt til plattformer og databehandlere. Når de kritiseres, argumenterer de med at de ikke kan holdes ansvarlige for kundenes (mis)bruk av produktene de tilbyr.
Da vil jeg minne om konsentrasjonsleirfange og prest Martin Niemöllers dessverre tidløse advarsel:
Først kom de for å ta kommunistene, men jeg protesterte ikke – for jeg var ikke kommunist.
Så kom de for å ta fagforeningsmedlemmene, men jeg protesterte ikke – for jeg var ikke fagforeningsmedlem.
Så kom de for å ta jødene og sigøynerne, men jeg protesterte ikke – for jeg var verken jøde eller sigøyner.
Så kom de for å ta de homofile, men jeg protesterte ikke – for jeg var ikke homofil.
Da de kom for å ta meg – var det ingen igjen som kunne protestere.
.jpg)
De ti KI-bud: Alle i Norge skal lære ekte KI, ikke bare Chat GPT






