Generative Adversarial Network 

Telenorforsker tror deepfake-videoer kommer for fullt i år

Peker samtidig på nyttige bruksområder for den bakenforliggende teknologien.

Selv om det kan se slik ut, har skuespilleren Daisy Ridley ikke spilt i den filmen som bildet er hentet fra. Tvert imot ble ansiktet hennes blitt satt i ved hjelp av FakeApp, applikasjonen som også er avbildet over.
Selv om det kan se slik ut, har skuespilleren Daisy Ridley ikke spilt i den filmen som bildet er hentet fra. Tvert imot ble ansiktet hennes blitt satt i ved hjelp av FakeApp, applikasjonen som også er avbildet over. (Montasje: digi.no)
EKSTRA

Peker samtidig på nyttige bruksområder for den bakenforliggende teknologien.

Hei, dette er en Ekstra-sak som noen har delt med deg.
Lyst til å lese mer? Få fri tilgang for kun 199,- i måneden.
Bli Ekstra-abonnent »

FORNEBU (digi.no): For et år siden ble mange for alvor oppmerksomme på fenomenet «deepfake» etter at det på en temmelig troverdig måte, og med relativt enkelt utstyr, ble utgitt en videosnutt med skuespilleren Daisy Ridley, selv om hun egentlig ikke var med i videoen. I stedet var ansiktet til en annen kvinne blitt skiftet ut med Ridleys ansikt. 

Deepfake var blant temaene under en «fireside chat» med forskere fra Telenor Research i forrige uke. Det var forskeren Axel Tidemann som fortalte og svarte på spørsmål om deepfake. 

Trener nettverket

– Konseptet falske nyheter har blitt stadig viktigere de siste årene. Deepfake er et nytt uttrykk hvor det brukes en metode innen kunstig intelligens, kalt Generative Adversarial Network (GAN), for å skape falsk innhold. Med denne teknikken kan du egentlig skape hva som helst, inkludert bilder og tekst. Det fungerer på en ganske enkel måte. Du trener med både virkelige og falske bilder i nettverket. Du prøver å gjøre nettverket så bra til å lage falske bilder at eksperter ikke kan se forskjell, fortalte Tidemann. 

– Med dette kan du lage fotografier av folk som aldri har eksistert, men som ser ut som om de er virkelige. Det kan du da i grunnen bruke til å manipulere alt og alle. Du kan også bruke det til å lage videoer hvor noen har sagt noe som de aldri ville ha sagt i virkeligheten. Du kan bruke det til å lage en video hvor for eksempel Barack Obama, Donald Trump eller andre kommer med falske uttalelser. 

En trend i 2019

Axel Tidemann, forsker ved Telenor Research.
Axel Tidemann forsker på kunstig intelligens ved Telenor Research. Foto: Harald Brombach

Tidemann tror at slike falske videoer vil bli en trend i 2019. 

– Det er fortsatt ganske dyrt å lage, da det krever mye regnekraft og tid for å genere disse videoene. Men som vi har sett med alle slike teknologigjennombrudd, synker inngangskostnadene hele tiden fordi folk finner opp nye teknikker og metoder, noe som gjør det tilgjengelig for alle, sa han. 

Opplæring og bevissthet

Tidemann tror likevel deepfake vil være et forbigående problem, og kanskje også redusere problemet med deling av oppdiktede (falske) nyheter.

– Jeg tror det vil føre til en økt bevissthet om hvor ting blir publisert. Løgner og propaganda har alltid blitt spredd gjennom media. Med deepfake vil folk i framtiden være mer oppmerksomme, sa han.

– Det avgjørende elementet er opplæring. Uten slik opplæring, eller dersom forfalskningen har blitt virkelig dyktig gjort, vil den fortsatt kunne forvirre mange mennesker, sa Tidemann. Han mener at det foreløpig er ganske enkelt å se at videoene er falske.

Jeg tror det vil føre til en økt oppmerksomhet om hvor ting blir publisert.

Foreløpig er det det han kaller for en slags «ville vesten»-tilstand, hvor aktører som Facebook aktivt gjør mottiltak for å hindre delingen. 

–  Jeg tror det viktigste er å informere offentligheten om at dersom du ser noe publisert på et nettsted du aldri har hørt om, lokalisert i et land som du sannsynligvis ikke leser nyheter fra […] – jeg tror det vil være et mye kraftigere verktøy enn å forsøke å stoppe alle disse videoene, i alle fall i år, fordi utviklingen skjer så raskt. Når det gjelder 2019, tror jeg at alle kanskje ikke er klar over hvor enkelt det er å skape dette falske innholdet som ser veldig ekte ut, sa Tidemann. 

Bruker teknologien selv

En annen ting som er interessant med dette, er at GAN er én av de få virkelig nye innovasjonene innenfor kunstig intelligens. Denne teknikken ble oppfunnet i 2016. Det fleste av de andre tingene som vi gjør innen AI og maskinlæring nå, er prinsipper som ble oppfunnet på 1980- og 1990-tallet, fortalte Tidemann. 

Det er også slik at deepfake på ingen måte er det eneste slike teknikker kan brukes til. Tidemann fortalte at Telenor selv bruker dette internt. 

Modellen har ingen identifiserende egenskaper.

– For eksempel kan vi bruke den samme typen metoder til å ta et datasett og trene et GAN til å lage eksempler som tilsvarer det originale datasettet, uten at vi behøver å ha de faktiske dataene, sa han. 

– Kanskje vi ser et interessant bruksmønster i en annen forretningsenhet, samtidig som at vi av ulike årsaker ikke har lov til å hente dataene ut av forretningsenheten. Det vi da kan gjøre, er å trene modellen vår hos denne forretningsenheten. Modellen har ingen identifiserende egenskaper. Men den replikerer de samme statistiske egenskapene som det opprinnelige datasettet. Dette er et veldig godt eksempel på hvordan vi kan bruke dette internt og omgå mange av problemene vi møter når gjelder personvern og sikkerhet, forklarte Tidemann.

Les mer: FakeApp har gjort det enkelt å bytte ut ansikter i video. Hva den brukes mest til, trenger du kanskje ikke å spørre om

Kommentarer (1)

Kommentarer (1)
Til toppen