På forbrukerelektronikkmessen CES i Las Vegas diskuterte leger og teknologer nylig fremtiden for kunstig intelligens i helsevesenet. Det handlet ikke om fjerne visjoner, men om teknologier som allerede er i bruk: smartklokker som varsler uregelmessig hjerterytme, ringer som analyserer søvn og stress og kunstig intelligens (KI) som tolker medisinske målinger før en lege har sett dem.
Det burde bekymre oss mer enn det begeistrer. Ikke fordi teknologien er dårlig, men fordi utviklingen skjer raskere enn diskusjonen om ansvar, regulering og tillit.
Jeg forsker på tillit til KI i rådgivningssituasjoner der mye står på spill. Helse er et av de tydeligste eksemplene på hva som skjer når KI beveger seg fra å være beslutningsstøtte til å bli en løpende rådgiver i menneskers liv.
Økt overvåkning
Ta Oura-ringer og smartklokker som eksempel. De måler søvn, puls, temperatur og aktivitet døgnet rundt, og de bruker KI til å gi daglige råd om trening, restitusjon og livsstil. For mange oppleves dette som nyttig og motiverende. Samtidig er det et skifte fra sporadiske helsemålinger til kontinuerlig overvåkning og kontinuerlig påvirkning.
Eller ta EKG-funksjonene i moderne smartklokker. De er laget for at KI skal kunne oppdage mønstre som er for subtile for mennesker å se. Det kan redde liv. Men det kan også gi falske alarmer, mer helseangst og vanskelige vurderinger for både pasient og fastlege, som ofte må håndtere varsler generert av systemer de ikke kontrollerer.
Dette er ikke hypotetiske problemstillinger. Norske leger rapporterer allerede om økt pågang fra pasienter som kommer med KI-genererte funn og bekymringer.
Mennesket i loopen?
Et vanlig svar på slike utfordringer er at mennesket må være i loopen. I praksis betyr det ofte at en lege, sykepleier eller annet helsepersonell skal godkjenne eller forklare anbefalinger de ikke har full innsikt i, og som er generert av kommersielle systemer utenfor helsevesenets kontroll.
Da er ikke mennesket i loopen som styringsmekanisme, men som ansvarsbuffer. Forebygging flyttes til individet, men ansvaret følger ikke med.
I panelet på CES ble det sagt rett ut at helsevesenet ikke har kapasitet til å drive forebyggende helsearbeid i stor skala. Det må skje hos individet, støttet av KI.


Det er sannsynligvis riktig. Men da må vi også stille spørsmålet: Hvem har ansvar når rådene påvirker livsvalg, prioriteringer og helseangst? Er det teknologiselskapet som leverer algoritmen, helsevesenet som må håndtere konsekvensene, eller individet som forventes å ta riktige valg basert på komplekse anbefalinger?
Helse har ikke ett mål
Noen sammenligner utviklingen med autopilot i luftfart. I dag flyr vi over verdenshav nesten uten menneskelig inngripen. Hvorfor ikke gjøre det samme i medisin?
Problemet er at helse ikke er et standardisert system med ett riktig mål. Det handler om verdier, preferanser og risiko. Når slike avveiinger automatiseres, flyttes makt, ikke bare arbeidsoppgaver.
Teknologien er her. Spørsmålet er styringen.
Dette er ikke bare et helseproblem. De samme teknologiene er på vei inn i finans, forsikring og offentlig forvaltning. Fellesnevneren er at KI gir råd i situasjoner der mennesker er sårbare, og der feil eller dårlig rådgivning kan få store konsekvenser.
Den største risikoen er ikke at kunstig intelligens tar feil. Det er at vi tar teknologien i bruk uten å avklare ansvar, krav og tilsyn.
Teknologien er her. Nå må styringen komme etter.



Chat GPT endret teknologibransjen – men hva skjer nå?





