Deepfake-svindel

Ny svindeltype bruker kunstig intelligens: Tyver stjal stort pengebeløp med «deepfake»-teknologi


Ny svindeltype bruker kunstig intelligens: Tyver stjal stort pengebeløp med «deepfake»-teknologi
(Foto: Colourbox/32772311)


Datateknologien har som kjent bragt med seg et utall ulike svindel- og tyverimetoder, men nå som avansert kunstig intelligens for alvor har gjort sitt inntog begynner vi å se atter nye metoder.

I den forbindelse melder avisen Wall Street Journal og Washington Post nå om en uvanlig sak som potensielt kan sette en ny og skremmende presedens – og nødvendiggjøre nye typer sikkerhetstiltak.

Etterlignet stemmen til sjefen

Ved å bruke kunstig intelligens til å etterligne stemmen til en toppsjef i et selskap klarte nemlig tyver, eller hackere om man vil, å stjele 240 000 kroner – cirka 2,1 millioner kroner – i mars i år.

Verktøyet var altså en audiobasert «Deepfake», et begrep som vanligvis brukes om AI-genererte og ofte svært overbevisende fremstillinger av mennesker – som oftest av visuell art.

Mange har allerede advart mot Deepfake-teknologiens destruktive potensiale, blant annet når det gjelder identitetstyveri, sverting av andre personer og falske nyheter. Med det nye tyveriet har vi fått et konkret eksempel på et nytt ondsinnet bruksområde for teknologien.

Tyveriet foregikk ved at en person i en ledende stilling i det aktuelle selskapet fikk en telefon fra det som tilsynelatende var den administrerende direktøren, som overtalte sin underordnede til å overføre penger til en hemmelig konto i et annet land.

De nødvendige detaljene for utføring av transaksjonen ble sendt på e-post mend telefonsamtalen pågikk. Svindelen ble avslørt da tyvene ringte opp på nytt for å kreve en ny overføring, hvorpå personen ble mistenksom og ringte opp den ekte sjefen.

Flere tilfeller

Selskapet saken gjelder skal være et britisk energiselskap, men er ikke navngitt.

Personen som besvarte anropet og overførte pengene sa i en uttalelse at forespørselen virket uvanlig, men at stemmen var så livaktig og overbevisende at vedkommende ikke følte han hadde noe valg.

Det er uvisst hvor utbredt denne type svindel er, men som Washington Post peker på har sikkerhetsselskapet Symantec allerede avdekket tre tilfeller hvor deepfake-teknologi har blitt brukt til å etterligne stemmen til sjefer i selskaper i den hensikt å stjele penger.

En av teknologiene som deepfake-fenomenet baserer seg på heter «Generative adversarial network» (GAN), som blant annet har blitt brukt til å generere ekstremt realistiske bilder av kunstige mennesker.

Les også: Telenorforsker tror deepfake-videoer kommer for fullt i år. Peker også på mer nyttige bruksområder (Ekstra-artikkel) »

Kommentarer (0)

Kommentarer (0)
Til toppen