Amazons skrotede rekrutteringssystem er et skoleeksempel på konsekvensene av bias, eller skjevhet, i maskinlæring. Systemet skulle hjelpe bedriften med å gjennomgå CV-ene til jobbsøkere og finne de meste attraktive talentene, men endte opp med å bli droppet fordi det uforvarende hadde lært å foretrekke mannlige framfor kvinnelige kandidater.
KUNSTIG INTELLIGENS
AI-etikk må starte hos den enkelte: – I jakten på systemer som er objektive, har vi skapt systemer som er subjektive
Vi lager fremdeles teknologi slik som da vi bygde biler på 1950- og 60-tallet – overbeviste om at markedet vil fikse de problemene som dukke opp, sier jurist og instituttleder Carly Kind.

Carly Kind, leder ved Ada Lovelace Institute. Foto: Ada Lovelace Institute
Les mer om:
Kommentarsystemet er deaktivert
Kommentarsystemet leveres av en ekstern leverandør, og kan ikke lastes inn uten at informasjonskapslene er aktivert. Endre dine Personvern/cookies innstillinger for å aktivere kommentering.
