Etter stortingsmøtet forrige uke møttes (fra venstre) Torgeir Waterhouse fra IKT-Norge, Stephen Goose fra Human Rights Watch og AI-proffessor Noel Sharkey til en panelsamtale ledet av Sigrid Heiberg, på Mesh i Oslo.
Etter stortingsmøtet forrige uke møttes (fra venstre) Torgeir Waterhouse fra IKT-Norge, Stephen Goose fra Human Rights Watch og AI-proffessor Noel Sharkey til en panelsamtale ledet av Sigrid Heiberg, på Mesh i Oslo. (Foto: Heidi Sævold)
EKSTRA

Autonome våpen

Vil ha kunstig intelligens ut av våpenindustrien: – Er rett og slett ikke egnet til formålet

AI-professor Noel Sharkey forhandler om et forbud i FN.  – Et godt eksempel på hvorfor vi trenger en nasjonal AI-strategi, sier IKT-Norge.

Hei, dette er en Ekstra-sak som noen har delt med deg.
Lyst til å lese mer? Få fri tilgang for kun 199,- i måneden.
Bli Ekstra-abonnent »

MESH, OSLO (digi.no): Utviklingen av bevæpnede dronesvermer, ubemannede tanks og maskinpistoler uten et menneske bak avtrekkeren er på frammarsj. Og stormaktene USA, Kina, Russland, Israel og Storbritannia løper et kappløp om de mest de mest effektive løsningene. 

«Death by algorithm is the ultimate indignity» – Sitatet fra den amerikanske generalmajoren Ribert H. Latiff oppsummerer i korte trekk budskapet til den internasjonale kampanjen for å stoppe drapsroboter (Campaign To Stop Killer Robots).

I forrige uke besøkte to av lederne for kampanjen Stortinget for å informere politikerne om farene ved bruk av kunstig intelligens og fravær av menneskelig kontroll med våpen. 

Noel Sharkey, leder for «International Committee for Robot Arms Control». Foto: Heidi Sævold

– Massespredning kan bli helautomatisert, og dehumaniseringen av stadig raskere våpen vil føre til utilsiktede konflikter, sa professor i kunstig intelligens og robotikk, Noel Sharkey, til tilhørerne som møtte opp på et debattmøte på Mesh i Oslo etter møtet på Stortinget forrige uke.

Sammen med Human Rights Watch startet han samarbeidet «Campaign To Stop Killer Robots» i 2013.

Neste uke (25.-29. mars) skal de i et møte i FN for tredje gang. Målet er en sjette protokoll i Våpenkonvensjonen, en internasjonal lov som vil forby fravær av menneskelig kontroll over to funksjoner; verifikasjon og sporing av et militært mål, og å angripe målet med hensikt å skade. Aktivistene har imidlertid møtt motstand fra USA og Russland.

– Ser ikke om radaren er på et luftvern eller en skole

Northrop Grumman X-47B Unmanned Combat Air System (UCAS). Foto: NTB Scanpix

Sharkey trekker fram nylig utviklede våpen som det amerikanske ubemannede militærflyet Northrop Grumman X-47B, russiske Kalashnikovs autonome maskinpistol og russlands nye T-14 Armata-stridsvogn.

Han er også bekymret for Israelsk-utviklede såkalte Cusp-våpen, som har vært i bruk en stund. 

Russlands T-14 Armata-stridsvogn. Foto: Yekaterina Aisimova/AFP

– Enheten skytes opp som en rakett, og svever rundt i luften for å lete etter radarer fra luftvernsystemer. Den identifiserer deretter via en database om radaren er fra eget luftvern. Hvis enheten ikke finner radaren i databasen, blir den til en stupbomber og uskadeliggjør luftvernet. Men den vil ikke kunne vurdere hvorvidt radaren faktisk tilhører et fremmed luftvern eller for eksempel er plassert på en barneskole, sier Sharkey til Digi. 

Eksperter i 2017: – Et spørsmål om tid før vi overlater avtrekkeren til maskinene

Algoritme vs. algoritme = uante konsekvenser 

Nettsidene Profnath og Bordeebook hadde for noen år siden hver sin kopi av den utgåtte fagboken «The Making of a Fly» ute for salg til henholdsvis 1,730,045.91 og 2,198,177.95 dollar. Det viste seg at begge var algoritimisk priset, og at Profnath en gang om dagen satte sin pris på 0,9983 ganger prisen på Bordeebook sin kopi, mens prisene hos Bordeebook steg med 1.270589 ganger prisen hos Profnath.

Noel Sharkey mener fagbok-eksemplet illustrerer at vi ikke kan forutse konsekvensene av at to ulike algoritmer møtes, og frykter konsekvensene av at to ulike autonome våpensystemer sloss mot hverandre. 

– Hvis to bevæpnede dronesvermer møtes på grensen, har man ikke bare å gjøre med en konflikt, men også ukjente algoritmer for hvordan de skal angripe. Da aner vi ikke hva som skjer, sier han.

Ikke egnet til formålet

– Vet dere at autonome våpen faktisk vil drepe flere sivile? Eller er dere bare redde for tanken på at en maskin dreper et menneske?

– Det er ikke frykt, jeg baserer meg på forskning. Og i forskning ligger bevisbyrden på den som påstår noe eller vil ta i bruk noe, som her er våpenprodusenten, og ikke på meg, svarer Sharkey, og fortsetter: 

– Poenget er at kunstig intelligens ikke egner seg til formålet. De er ikke gode på å gjenkjenne mål, de kan ikke ta forholdsmessige avgjørelser og de kan ikke følge lovgivning for krigføring.  Ett land som Norge kan bestemme seg for å klare å bruke AI på en fornuftig og begrenset måte, men det er også en fot i døra: Da vet vi ikke hva stormaktene vil gjøre.

– Godt eksempel på hvorfor vi trenger en nasjonal strategi

8. mars i år satte regjeringen igang arbeidet med en nasjonal strategi for kunstig intelligens, noen uker etter etableringen av den nye digitaliseringsminister-posten. Strategien skal være ferdig ved utgangen av året. Både bedrifter og interesseorganisasjoner har etterspurt en strategi lenge. Storbritannia, Frankrike, Sverige, Finland og Danmark har allerede strategier på plass.

IKT-Norge, som gir råd til regjeringen og Stortinget på vegne av IT-næringen, er glad for at en nasjonal strategi for kunstig intelligens omsider er på trappene.  

Torgeir Waterhouse, direktør for internett og nye medier i IKT-Norge. Bilde: IKT-Norge

– Hvordan skal vi få mest ut av AI som samfunn, hvordan påvirker det sikkerhet, hvilke data skal det baseres på på, hvem skal eie dataene og hvem skal de være tilgjengelig for, og hvordan håndterer vi problemstillinger knyttet til partiskhet i AI? Og skal regulering av Forsvaret gå inn under AI-strategien? Dette blir viktige spørsmål å svare på i en nasjonal strategiplan, mener Torgeir Watehouse, direktør for internett og nye medier i IKT-Norge. 

Foreløpig har de ikke gått inn med konkrete anbefalinger til regjeringen. 

– Til nå har vi fokusert på å få regjeringen til å lage en strategi. Vi syns det er bra at de nå har valgt å fokusere på det. Da kan vi konkretisere arbeidet rundt hva strategien bør inneholde, sier Waterhouse.

Han mener at det at regjeringen har snudd handler om modenhet i forståelsen av hva AI er for noe.

IKT-Norges leder uttalte forrige uke at hun er imponert over IT-ministeren: – Han viser en handlekraft vi aldri har sett før (for abonnenter).

– I dag kan kunstig intelligens gjøre nytte i smale nisjer, ved å for eksempel bare forholde seg til branner. Jo bredere funksjoner som skal dekkes, jo vanskeligere blir det. Og konsekvensene blir desto større, sier Waterhouse, som mener det også vil være naturlig å vurdere om det bør gå et skille mellom militær og sivil AI-strategi.

– Forsvaret er et godt eksempel på kompliserte områder vi mener det må utformes politikk for. Her er det betydelige etiske utfordringer, der vi aktivt må velge hvordan teknologien skal bidra og ikke.

En «drapsrobot» fotografert like ved Big Ben i London under en kampanje i 2013 for å forby autonome våpen.
En «drapsrobot» fotografert like ved Big Ben i London under en kampanje i 2013 for å forby autonome våpen. Foto:  AFP Photo/Carl Court

Mange mener at et individ skal kunne være ansvarlig i bruk av våpen, noe som er vanskelig med kunstig intelligens. 

– USA skal man ikke lenger offentliggjøre informasjon om sivile som blir drept. Her står man ved et etisk og metodisk veivalg, sier Waterhouse. 

Han viser også til at det er høy feilrate på for eksempel ansiktsgjenkjenning, og at vi derfor ikke bør stole på at ansiktsgjenkjenning fra lufta i 3D ikke vil slå feil. 

Les også kommentaren: Hvem skal ha ansvar for kunstig intelligens?

Hinsides utprøving

I forrige uke skrev Digi at Morten Middelfart, som er grunnlegger av og Chief Data Scientist hos Lumina Analytics i Danmark, mener det er vrøvl å diskutere en særskilt etisk kodeks for bruken av kunstig intelligens

– Vi skylder oss selv virkelig å forstå – som mennesker og som ledere – hvor grensen går for hva kunstig intelligens kan gjøre, og så bruke den for alt den er verd. Det er derfor jeg har lyst til at folk skal gå i gang med å tilnærme seg dette. Jo før man går i gang med å tilnærme seg det, desto tidligere forstår man også hvor grensene går. Og dermed blir det ikke bare røverhistorier, sa han under konferansen Data Day '19 i København.

Noel Sharkey fra Campaign to Stop Killer Robots mener det er langt fra nødvendig å teste ut teknologien før man legger begrensninger på bruken av kunstig intelligens. 

– Det er et hinsides argument. Det er mange farlige ting vi ikke utforsker, fordi det ville vært veldig uansvarlig. Og, autonome våpen utforskes allerede i dag. Vi kan vite mer enn nok ved å se på teknologien, finansieringen av den og hvordan den vil kunne utvikle seg de neste 5-10 årene, sier Sharkey til Digi.

Økning i folkelig motstand

I en Ipsos-undersøkelse publisert i januar, var 61 prosent av respondentene fra 26 land imot bruk av dødelige autonome våpen.  Dette er en økning fra 56 prosent året før. Av de som var i mot autonome våpen, begrunnet 66 prosent av dem det med at det er umoralsk å la en maskin drepe, og mer enn halvparten (54 prosent) mente denne typen våpen er upålitelige. 

Noel Sharkey posserer med nobelprisvinner Jody Williams (til venstre) og en illustrerende modell av en «drapsrobot» i London i 2013 i forbindelse med lanseringen av «Campaign to Stop Killer Robots» Foto: AFP PHOTO/CARL COURT

Kommentarer (0)

Kommentarer (0)
Til toppen