Rumman Chowdhury fortalte blant annet om hvordan programmering i utgangspunktet ble sett på som en «kvinnejobb», frem til yrket på 70-80-tallet ble lønnsomt – og overtatt av menn.
Rumman Chowdhury fortalte blant annet om hvordan programmering i utgangspunktet ble sett på som en «kvinnejobb», frem til yrket på 70-80-tallet ble lønnsomt – og overtatt av menn. (Foto: Sarah McDonald Gerhardsen)

– Mann er til programmering som kvinne er til husmor

Kunstig intelligens kan reflektere og forsterke samfunnets fordommer og kjønnsforskjeller, men kunstig intelligens kan også hjelpe til med å bekjempe dem, mener Rumman Chowdhury – en av fjorårets 100 mest inspirerende og innovative kvinner, ifølge BBC.  

Frokostbord og deltakere på Kvinnefrokost. Foto
Rundt 200 kvinner – og noen få menn – var til stede under Accentures «Kvinnefrokost». Foto: Sarah McDonald Gerhardsen

OSLO (digi.no): I forbindelse med den kommende kvinnedagen, arrangerte Accenture Norge «Kvinnefrokost» i Oslo Kongressenter fredag. Temaet var «Getting to equal», og blant talerne var den amerikanske lederen av Accentures globale satsing på kunstig intelligens, Rumman Chowdhury. 

Hun pekte på at det globale kjønnsgapet, målt av World Economic Forum, i 2017 hadde økt for første gang siden målingene startet i 2006. Også i Norge har kjønnsgapet økt, selv om vi har rykket opp en plass fra året før, og nå ligger på en respektabel andreplass – bare Island er mer likestilt. 

Ifølge Accenture-lederen kan kunstig intelligens risikere å forsterke dette kjønnsgapet ytterligere, men brukt riktig kan det også motvirke det. 

Mann på kjøkkenet = Kvinne

Chowdhury snakket blant annet om hvordan kunstig intelligens kan reflektere fordommene og kjønnsforskjellene i samfunnet det lærer av. Hun fortalte om en studie som brukte arkivbilder fra Getty Images for å lære, som endte med å automatisk identifisere menn som befant seg på kjøkkenet, som kvinner.

– Når man trener kunstig intelligens til bildegjenkjenning, finner man at menn assosieres med utendørsaktiviteter, biler, lederroller. Kvinner assosieres med kjøkkenutstyr og husarbeid. Og dette er bilder vi som samfunn har produsert. Så det er korrekt data, korrekt innlært, men det reflekterer ikke et samfunn vi ønsker å leve i. 

Et liknende eksempel var en modell for språkprosessering, som lærte av et bredt spekter tekster: bøker, nyhetsmedier, tekster på internett og liknende. Når modellen fikk i oppgave å fullføre analogien «mann er til programmering, som kvinne er til ...», fullførte den med «husmor».

– Kunstig intelligens har ført oss til et etisk vendepunkt. Vi må se på hvordan slike eksempler er et slags «moralsk speil» for samfunnet, og hvordan vi kan bruke den kunnskapen. 

Rumman Chowdhury taler fra scenen. Foto
«You don't solve for women, you solve for equality – and when you solve for equality, everybody wins», var Rumman Chowdhurys siste ord fra scenen.  Foto: Sarah McDonald Gerhardsen

Kvinner er sjefete, menn er ambisiøse

Chowdhury fortalte også om hvordan kunstig intelligens kan hjelpe til med å identifisere og motvirke kjønnsforskjellene i yrkeslivet. Hun pekte på en amerikansk analyse av Palatine Analytics, som ved hjelp av kunstig intelligens gikk gjennom forskjellene mellom hvordan menn og kvinner ble vurdert av arbeidsgivere. 

– Så kan vi ved hjelp av kunstig intelligens oppdage for eksempel at når en kvinne evalueres, er de mest brukte ordene «sjefete», «for bestemt» eller «trenger å smile mer», mens for menn ser man heller ord som «ambisiøs» eller «stå-på-vilje» – og dette er hos arbeidstakere som presterer og ellers vurderes helt likt.

Analysen fant at kvinnelige ledere vurderte mannlige og kvinnelige arbeidstakere likt, mens 70 prosent av mannlige ledere vurderte menn mer positivt enn kvinner – blant mannlige toppledere var andelen 75 prosent som forskjellsbehandlet mellom kjønn. 

– Og det som er fantastisk med å bruke denne måten å gjenkjenne forskjellsbehandling på, er at vi kvinner vet dette fra før. Vi vet det anekdotisk, vi vet det personlig. Men for å kunne gjøre noe med det, for å skape en bevegelse, trenger man harde fakta for å vise at det faktisk er et problem. Og det får man med slike analyser som benytter seg av kunstig intelligens, argumenterte Chowdhury.

Også Microsoft er bekymret for AI som behandler mennesker urettferdig: – Maskinlæringsmodeller kan trenes opp med «feil» data (Ekstra)

Kommentarer (0)

Kommentarer (0)
Til toppen