DEBATT: Etikk i kunstig intelligens

– Hvordan vi kan jobbe for å sikre etikk i kunstig intelligens


Per Haakon Lomsdalen, Norgessjef i Salesforce.
Per Haakon Lomsdalen, Norgessjef i Salesforce. (Foto: Pia Sønstrød)


  • Debatt

Dette debattinnlegget gir uttrykk for skribentens meninger. Debattinnlegg kan sendes til tips@digi.no

Utvikling og bruk av kunstig intelligens (KI) må ivareta personvern og motvirke diskriminering og forutinntatthet. Vi som leverer denne type teknologi, må sørge for at etikk er en del av oppskriften, fra utvikling til daglig bruk.

Regjeringens nasjonale strategi for kunstig intelligens fremlegger flere etiske prinsipper som bør ligge til grunn for kunstig intelligens. Vi som er teknologileverandører, kjenner godt til at modeller for kunstig intelligens kan skape utilsiktede konsekvenser. Det er en del av vårt ansvar å hjelpe bedrifter og myndigheter å unngå fellene.

Computas har nylig offentliggjort en undersøkelse viser at én av fire bedrifter planlegger å ta i bruk kunstig intelligens, samtidig som ni av ti norske bedrifts- og organisasjonsledere ikke kjenner innholdet i regjeringens strategi. Det understreker ansvaret vi har som teknologiutviklere, så vi unngår eksempler som at stemmegjenkjenningsprogramvare har dannet skjev prioritering (bias) mot kvinnelige stemmer, og at verktøy for prediksjon av kriminalitet forsterket diskriminering hos amerikansk politi. Et annet nylig eksempel er en tjeneste for å gjenskape ansikter fra uskarpe bilder, som viste seg å gjengi fargede mennesker som hvite.

For å bygge KI-løsninger folk kan ha tillit til, må vi forklare hva de er ment å gjøre og hvordan den utfører handlinger, tar valg eller gjør anbefalinger. Etiske vurderinger må følge løsningene gjennom hele levetiden, og følge disse tre prinsippene:

Gjør etikk til en del av utviklingsmetoden

For en utviklerorganisasjon handler etikk og KI om å skape en kultur for kritisk tenking blant ansatte. Man kan ikke forvente at en gruppe alene skal ta ansvar for å identifisere etisk risiko i et utviklingsprosjekt. Ved å inkludere perspektiver fra ulike kulturer, etnisitet, kjønn og fagområder i utviklingsmetoden, fjerner vi blindsoner som skaper skjevheter i løsningene.

For å få til dette, bør man ha et rammeverk for å kartlegge konsekvenser, altså hvilke utilsiktede resultater man kan se for seg med den løsningen man skal utvikle. Teamet må stille seg spørsmål om hvem som vil bli påvirket, hvordan? Kan noen komme til å bruke produktet eller tjenesten med ondsinnethet, kunnskapsløshet eller andre måter enn du hadde tenkt? Med hvilke konsekvenser?

Opplæringsprogrammer bør inngå som en del av dette, både for å videreutvikle av eksisterende ansatte og en som en del av opplæringen av nye ressurser.

Les også

KI-modellene må merkes

Transparens reduserer risikoen for utilsiktede resultater. Hvordan man samler og bruker data påvirker resultatene. Derfor bør man analysere datakvaliteten, vurdere å aktivt fjerne data som kan skape feil resultater, og samarbeide med eksterne eksperter, som akademikere, bransjefolk og myndigheter, som kan gi flere perspektiver på dataene.

Deretter er det viktig å gi så mye innsyn som mulig i hvordan en KI-modell har blitt bygd, slik at brukeren forstår hvordan man har forebygget fordommer og skjevheter i modellen. Dette kan man for eksempel gjøre ved å publisere modellkort. På samme måte som man finner ernæringsverdi på baksiden av matvarer, kan AI-modellkort brukes for å beskrive hva modellen skal brukes til og hvem den er ment for, hvordan den er trent og andre etiske vurderinger. Dette kan hjelpe med å bygge tillit, ikke bare mot kunder, men også myndigheter og samfunnet.

Gjør det mulig for KI-brukerne å gjøre etisk riktige valg

Problemstillingene knyttet til etikk følger KI-modellen i hele dens levetid. Mens utviklere lager plattformene, er KI-brukerne ansvarlige for sine data. Selv om utviklere gir kunder opplæring og ressurser som hjelper med å se bias og fjerne utilsiktede konsekvenser, kan modellene likevel skape uheldige stereotypier dersom de re-trenes feil eller ikke følges opp aktivt. Derfor må vi gi brukerne de riktige verktøyene for å bruke KI trygt og ansvarlig, så de gjenkjenner problemer og kan løse dem.

For eksempel er det regler knyttet til bruk av informasjon som alder, hudfarge og kjønn. Skjevheter kan likevel oppstå når KI-modellen bruker tilknyttede datafelt (såkalte proxy-felt) for å utføre sine oppgaver. Om brukeren selv kan markere tilknyttede sensitive felter, kan løsningen flagge resultater man bør sjekke en ekstra gang. Med god veiledning kan kunder bedre forstå hvordan de påvirker modellen ved å ta bort eller redigere bruken av sensitive data og proxy-data, og få bedre resultater.   

Det å bake inn etikk i utvikling av modeller for kunstig intelligens innebærer en kulturendring blant ansatte, kunder og andre involverte. Alle disse målgruppene behøver verktøy og kunnskap for å kunne bruke teknologien på en ansvarlig måte. Det skaper KI som gagner bedrifter og samfunn.

Les også

Kommentarer (0)

Kommentarer (0)
Til toppen