DIGITALISERING OG OFFENTLIG IT

AI-saksbehandlerne kommer. Hvordan hindrer vi at de blir urettferdige?

Saksbehandlerne du møter i offentlig sektor, vil oftere og oftere være algoritmer basert på maskinlæring. Nå må offentlig sektor finne måter å hindre at algoritmene blir fordomsfulle, rasistiske sexister.

Det må ligge en menneskerettslig risikoanalyse bak både utvikling, gjennomføring og evalueringen av systemer basert på kunstig intelligens, mener Ingrid Stolpestad, politisk rådgiver i Amnesty, her i debatt med Robert Steen, helsebyråd i Oslo Kommune.
Det må ligge en menneskerettslig risikoanalyse bak både utvikling, gjennomføring og evalueringen av systemer basert på kunstig intelligens, mener Ingrid Stolpestad, politisk rådgiver i Amnesty, her i debatt med Robert Steen, helsebyråd i Oslo Kommune. Skjermbilde: Arendalsuka
17. aug. 2022 - 05:00

Arendal: − Før hadde vi det som het morspresumpsjonen, at mor var best i stand til å ta vare på barnet etter en skilsmisse. Slik praktiseres det ikke lenger, men om de historiske dataene henger igjen i systemet, vil beslutningen systemet tar, bli feil, sier likestillingsombud Bjørn Erik Thon fra scenen i Arendal.

Share icon
Del

Kommentarsystemet er deaktivert

Kommentarsystemet leveres av en ekstern leverandør, og kan ikke lastes inn uten at informasjonskapslene er aktivert. Endre dine Personvern/cookies innstillinger for å aktivere kommentering.