JUSS OG SAMFUNN

– Vær varsom med kunstig intelligens

Forskerne selv ser store utfordringer.

Hvordan skal samfunnet forholde seg til maskiner med kunstig intelligens? Mange forskere mener at dette et spørsmål som det er på høy tid å finne svar på. De tar derfor til orde for omfattende, tverrfaglig forskning innen dette området.
Hvordan skal samfunnet forholde seg til maskiner med kunstig intelligens? Mange forskere mener at dette et spørsmål som det er på høy tid å finne svar på. De tar derfor til orde for omfattende, tverrfaglig forskning innen dette området. Bilde: EU-kommisjonen
Harald BrombachHarald BrombachNyhetsleder
12. jan. 2015 - 12:10

Science fiction-forfattere har i sine verk i mange tiår advart mot det som kan bli konsekvensene dersom datamaskiner får så høy intelligens eller så selvbevisste at de blir en trussel mot mennesker.

Riktignok henger den virkelig verden langt bak virkelighetene som fremstilles i mange av bøkene og filmene. For eksempel er oppstarten av et system som Skynet snart 18 år på overtid. Men det gjøres for tiden svært mange, men ofte små, framskritt innen kunstig intelligens. Samtidig kan det se ut til at mer av forskningen gjøres av selskaper som allerede har begynt å hente gevinst fra disse løsningene. Et plutselig gjennombrudd kan få uante konsekvenser.

Dette har ført til at også forskere nå maner til varsomhet med utviklingen av kunstig intelligens. I desember i fjor sa Stephen Hawking til BBC at utvikling av full, kunstig intelligens kan bety slutten på mennesket. Hawking regnes blant verdens ledende fysikere.

Nå har han fått følge av en rekke forskere som tar til orde for mye av det samme, men langt mindre spissformulert. Det som kjennetegner disse til nå mer enn 150 forskerne, er at de fleste til daglig jobber med nettopp kunstig intelligens, blant annet ved akademiske institusjoner eller kommersielle selskaper som Microsoft, Google, DeepMind, IBM, Tesla og Amazon.

Åpent brev

Alle har undertegnet et åpen brev hvor det tas til orde for å prioritere forskning som bidrar til kunstig intelligens som er robust og gunstig.

– Det er nå bred overensstemmelse om at AI-forskning stadig gjør framskritt, og at det er sannsynlig at den i økende grad vil påvirke samfunnet. De potensielle fordelene er enorme, siden alt det sivilisasjonen har å tilby, er et resultat av menneskelig intelligens. Vi kan ikke forutsi hva vi kan komme til å oppnå når denne intelligensen er forstørret ved hjelp av verktøyene kunstig intelligens kanskje kan tilby, men utslettelse av sykdom og fattigdom er ikke umulige å se for seg. På grunn av det store potensialet til kunstig intelligens, er det viktig at å forske på hvordan man kan høste fordelene, mens man unngår potensielle fallgruver, heter det i brevet.

– Denne forskningen er nødvendigvis tverrfaglig, fordi den involverer både samfunnet og kunstig intelligens. Den spenner fra økonomi, jus og filosofi til datasikkerhet, formelle metoder og selvfølgelig grener innen kunstig intelligens i seg selv.

– Vår systemer med kunstig intelligens må gjøre det vi ønsker at de skal gjøre.

I et separat dokument nevnes det flere eksempler på spørsmål som reiser seg når datamaskiner begynner å ta avgjørelser på egenhånd.

Selvstyrende biler

Det kanskje mest nærliggende for mange, er autonome kjøretøyer. Som digi.no skriver i dag, er det stadig flere som tror dette vil være allment tilgjengelig innen ti år.

Det er to problemstillinger ved dette som forskerne mener må utforskes på tvers av mange ulike fagfelt. Begge er selvfølgelig knyttet til ulykker. For selv om man tror at selvstyrende biler vil føre til færre trafikkulykker, vil bilprodusentene likevel motta flere søksmål, siden det er produsentene som er ansvarlige for bilene atferd. Et spørsmål som må drøftes handler derfor om hva slags lovgivning som skal gjelde for autonome kjøretøyer.

Den andre problemstillingen handler om etikken til maskiner. Hvordan skal et autonomt kjøretøy velge mellom to alternativer i situasjon, hvor begge medfører potensiell skade, og hvor det ene alternative innebære en begrenset fare for personskade, mens det andre innebærer høy sannsynlighet for stor, materiell skade?

Autonome våpen

Vil det være mulig å lage autonome våpen som er i overensstemmelse med humanitær lov? Bør de totalforbys, og – dersom ikke – hvordan skal våpnene integreres med eksisterende kommando- og kontrollstrukturer, slik at ansvarlighet og ansvar kan fordeles? Vil autonome våpen kunne føre til redusert motvilje mot konflikt, eller kanskje til og med til utilsiktede strider eller kriger?

Personvern

Hvordan skal muligheten systemer med kunstig intelligens vil ha til å tolke data som hentes inn fra alt fra e-post til overvåkningskameraer fungere i samspill med retten til personvern?

– Muligheten vi har til fullt ut å utnytte synergien mellom kunstig intelligens og «big data» vil delvis avhenge av evnen vår til å håndtere og ta vare på personvern, heter det i dokumentet.

Det er fortsatt mulig for flere å signere det åpne brevet, som er publisert av organisasjonen The Future of Life Institute.

    Les også:

Les mer om:
Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.