AI-etikk må starte hos den enkelte: – I jakten på systemer som er objektive, har vi skapt systemer som er subjektive

Vi lager fremdeles teknologi slik som da vi bygde biler på 1950- og 60-tallet – overbeviste om at markedet vil fikse de problemene som dukke opp, sier jurist og instituttleder Carly Kind.

Carly Kind, leder ved Ada Lovelace Institute.
Carly Kind, leder ved Ada Lovelace Institute. (Foto: Ada Lovelace Institute)
EKSTRA

Vi lager fremdeles teknologi slik som da vi bygde biler på 1950- og 60-tallet – overbeviste om at markedet vil fikse de problemene som dukke opp, sier jurist og instituttleder Carly Kind.

Amazons skrotede rekrutteringssystem er et skoleeksempel på konsekvensene av bias, eller skjevhet, i maskinlæring. Systemet skulle hjelpe bedriften med å gjennomgå CV-ene til jobbsøkere og finne de meste attraktive talentene, men endte opp med å bli droppet fordi det uforvarende hadde lært å foretrekke mannlige framfor kvinnelige kandidater.

månedlig

Kr 235
Kr 59 per uke
Kjøp
Én måned gratis
Ubegrenset tilgang til tu.no og digi.no | Historisk arkiv: Teknisk Ukeblad fra 1854 til i dag | Rabatt på konferanser
 

Betal med Visa, MasterCard eller PayPal. Ved årlig periodisering tilbys også bedriftsfaktura.

Abonnementet autofornyes og kan sies opp når som helst.

Vilkår og bruksbetingelser

Spørsmål vedrørende abonnement? Kontakt oss på ekstra@tu.no
Til toppen