Jusprofessor Ryan Calo ved Stanford.
Jusprofessor Ryan Calo ved Stanford.

Stanford-professor: Kom igang med reguleringen av kunstig intelligens

Frykten for en nært forestående robot-apokalypse har tatt fokuset bort fra et reelt behov for å diskutere lovregulering av kunstig intelligens, mener Standford-professor.

På ett eller annet tidspunkt skal en eller annen ett eller annet sted bestemme hvem som skal reddes og hvem som skal dø, når selvkjørende biler skal velge mellom en mur og en fotgjenger. Dette har lenge vært et dilemma innenfor utvikling av maskinlæring og kunstig intelligens (AI), og etikkdebatten har gått like lenge. 

Men etikk er utilstrekkelig til å håndheve et så komplisert felt som kunstig intelligens, det trengs lovgivning, understreker Ryan Calo. Han er jussprofessor ved Stanford og har nettopp gitt ut et 30 sider langt essay om emnet

Selv om vi antar at det er en «moralsk konsensus, mangler etikk en hard mekanisme for håndheving», skriver Calo og etterlyser politikk på området. 

«AI er i gang med å gjenskape aspekter av samfunnet i dag og vil sannsynligvis drive gjennom enda større forandringer i de kommende årene», heter det i artikkelen.

Disse forandringene medfører vanskelige spørsmål for politikerne, mener Calo.

Frykt for AI distraherer

Det er ikke frykten for at fiendtlig AI skal utslette menneskeheten som skal drive lovgivningsspørsmålet. Tvertimot har diskusjonen om AI-dommedag fjernet fokus og ressurser fra områder hvor AI i dag allerede har løpt løpsk, med negative konsekvenser til følge.

Eller som IT-eksperten Pedro Domingos, som siteres av Calo, formulerer det:

«Problemet er ikke at kunstig intelligens blir for intelligent og overtar verden. Problemet er at den er for dum, og allerede har gjort det.»

Calo ramser opp eksempler på at algoritmer diskriminerer med hensyn til kjønn eller etnisitet. Som når maskinoversettelser antar at leger er menn og sykepleiere er kvinner, hvor afrikanske personer gjenkjennes som gorillaer av bildeprogrammer, eller når en asiatisk familie ikke kan ta en selfie, fordi programvaren tror de blunker.

Her skal politikerne spørre seg selv om det trengs en politikk for hvordan man minimerer diskriminering og med hvilke verktøy, påpeker Calo.

Hvor mye skade skal AI kunne gjøre?

I andre eksempler kan skaden fra algoritmer være mer alvorlig. I amerikanske domstoler har man prøvd algoritmer for å vurdere om en person skal ha prøveløslatelse. Algoritmer som handler aksjer på børsen kan destabilisere hele aksjesystemet, mens andre allerede brukes til å spre onlineinnhold som desinformerer befolkningen. 

«Lovgivere skal bedømme hvilken form for ikke-fysisk eller indirekte skade som kommer opp på et slik nivå at det er nødvendig med reguleringsstandarder», understreker Calo.

Det samme gjelder AI med potensiale for å utøve fysiske skader. Når det kommer til selvkjørende biler har amerikanske politikere argumentert for at de skal være sikrere enn menneskelige bilister.

«Men "sikrere enn mennesker" ser ut til å være en utilstrekkelig standard for å godkjenne et gitt autonomt system», skriver Calo, og fortsetter:

«Og nøyaktig hvor mye sikrere skal førerløse biler være enn mennesker før vi aksepterer dem? Dette er vanskelige spørsmål ikke om teknologi, men om politikk».

Robot-kommisjon

Selv om man kan bli enige om en akseptabel sikkerhetsgrense for biler, droner og andre AI-styrte teknologier, skal det være metoder hvor man kan teste og sikre at teknologien lever opp til kravene. 

Alt dette krever et politisk rammeverk som ennå ikke eksisterer, poengterer Calo, som riktignok også bemerker at emnet etter mange års fravær har fått politikernes oppmerksomhet. I 2016 ble de første workshops om AI holdt i Det Hvite Hus, mens utvalg i kongressen gjorde det samme.

Til tross for fremskrittet henger USA etter både EU og Japan, ifølge Calos vurdering. I EU har man nylig satt ned kommisjoner som skal svare på noen av de vanskelige politiske spørsmålene om regulering av AI. 

Denne artikkelen er levert av Version2.dk

Kommentarer (6)

Kommentarer (6)
Til toppen