DEBATT

Er vi forberedt på likestillingsfellene i den nye teknologien?

I 2018 ble det kjent at Amazon hadde utviklet et rekrutteringsverktøy, hvor målet var finne de beste kandidatene automatisk ved hjelp av maskinlæring. Resultatet ble imidlertid et program som diskriminerte kvinner til fordel for mannlige søkere. Dette er kanskje det mest kjente eksempelet på likestillingsfellene som lurer med kunstig intelligens.

Kronikkforfatteren: Monica A. Paulsen, forbundsleder i fagforeningen Negotia.
Kronikkforfatteren: Monica A. Paulsen, forbundsleder i fagforeningen Negotia. Foto: Negotia
Av Monica A. Paulsen i Negotia
13. mars 2023 - 10:04

Mulighetene innen kunstig intelligens (KI) er enorme for norsk arbeidsliv, men for å ta dem fullt i bruk, må teknologien komme alle til gode. Én av ti norske virksomheter brukte KI i 2021, og for de største foretakene var tallet tre av ti. Hvilke sikringer har de for å hindre at programmene inneholder skjevheter som kan gi lignende diskriminering som det Amazon oppdaget?

Uten et etisk og bevisst forhold til ansvarlig bruk vil kunstig intelligens kunne videreføre menneskelige fordommer. Systemene påvirkes av kvaliteten på datasettene de trenes på og hvem det er som utvikler systemene, koder datasettene og programmerer algoritmene.

Dersom datasettene vi mater inn i algoritmene er basert på historisk skjeve data, kan KI-systemer føre til diskriminering – som i eksempelet med Amazon, hvor systemet vurderte mannlige søkere som best, fordi datasettene som algoritmen lærte av hadde en overvekt av menn.

Undersøkelser viser at menn oppgir oftere enn kvinner at de har kjennskap til og synspunkter på algoritmer. I tillegg har de som har opplevd diskriminering, lavere tillit til KI. Dersom menn i større grad enn kvinner kan nyttiggjøre seg av mulighetene som ligger i digitalisering, er det et likestillingsproblem.

Det krever bevisst innsats å hindre at vi ikke får et teknologisk likestillingsgap mellom kvinner og menn. Først og fremst må vi får mer mangfoldige perspektiver inn i utviklingen av ny teknologi. Bare 29 prosent av ansatte i IT-bedrifter i Norge er kvinner. Det er ikke godt nok. IKT-utdanningene må tiltrekke seg flere jenter, og bedriftene i teknologisektoren må legge en særskilt innsats i å oppfordre kvinner til å søke.

Videre må vi stille krav og ha forventninger til de etiske vurderingene i utvikling og bruk av KI. Negotia har vært en pådriver for dette – og i 2020 fikk vi etiske retningslinjer for bruk av KI. Det er myndighetenes ansvar å kontinuerlig jobbe for at befolkningen kan ha tillit til teknologien vi er omgitt av.

I tillegg til gode prinsipper på bunn, må vi bygge kunnskap for å sette folk i stand til å gjøre selvstendige kritiske vurderinger av de digitale systemene vi bruker på jobb og i livet. Negotia, sammen med Finansforbundet og NITO, har vist vei ved å utvikle en digital veileder, gratis for alle. Den gir tillitsvalgte, ledere og ansatte kunnskap om KI. Gjennom kompetansebygging får vi datatillitsvalgte som i fremtiden kan bistå virksomhetene med å styre bruken og effekten av KI-systemer, slik at de ikke virker mot sin hensikt.

Ved hjelp av kunnskapsbygging om teknologien vi er omgitt av, tydelige krav og forventninger til utvikling og bruk av kunstig intelligens, og bevisst innsats over tid for å bygge en mer likestilt teknologisektor, kan vi unngå likestillingsfellene i algoritmene.

Ishita Barua, lege med doktorgrad i kunstig intelligens innen medisin, har skrevet bok om KI.
Les også

Tror KI kan korrigere ubevisste fordommer hos leger

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.