KUNSTIG INTELLIGENS

AI-etikk må starte hos den enkelte: – I jakten på systemer som er objektive, har vi skapt systemer som er subjektive

Vi lager fremdeles teknologi slik som da vi bygde biler på 1950- og 60-tallet – overbeviste om at markedet vil fikse de problemene som dukke opp, sier jurist og instituttleder Carly Kind.

Carly Kind, leder ved Ada Lovelace Institute.
Carly Kind, leder ved Ada Lovelace Institute. Foto: Ada Lovelace Institute
Magnus Boye, Pro.ing.dk
18. sep. 2019 - 05:00

Amazons skrotede rekrutteringssystem er et skoleeksempel på konsekvensene av bias, eller skjevhet, i maskinlæring. Systemet skulle hjelpe bedriften med å gjennomgå CV-ene til jobbsøkere og finne de meste attraktive talentene, men endte opp med å bli droppet fordi det uforvarende hadde lært å foretrekke mannlige framfor kvinnelige kandidater.

Share icon
Del

Kommentarsystemet er deaktivert

Kommentarsystemet leveres av en ekstern leverandør, og kan ikke lastes inn uten at informasjonskapslene er aktivert. Endre dine Personvern/cookies innstillinger for å aktivere kommentering.