AI-etikk må starte hos den enkelte: – I jakten på systemer som er objektive, har vi skapt systemer som er subjektive

Vi lager fremdeles teknologi slik som da vi bygde biler på 1950- og 60-tallet – overbeviste om at markedet vil fikse de problemene som dukke opp, sier jurist og instituttleder Carly Kind.

AI-etikk må starte hos den enkelte: – I jakten på systemer som er objektive, har vi skapt systemer som er subjektive
Carly Kind, leder ved Ada Lovelace Institute. Foto: Ada Lovelace Institute

Amazons skrotede rekrutteringssystem er et skoleeksempel på konsekvensene av bias, eller skjevhet, i maskinlæring. Systemet skulle hjelpe bedriften med å gjennomgå CV-ene til jobbsøkere og finne de meste attraktive talentene, men endte opp med å bli droppet fordi det uforvarende hadde lært å foretrekke mannlige framfor kvinnelige kandidater.