KUNSTIG INTELLIGENS

Svindlere bruker kunstig intelligens til å utgi seg som familiemedlemmer – stjeler penger

Ny, farlig trend.

AI-basert svindel over telefonen blir stadig mer utbredt – og stadig vanskeligere å avsløre på grunn av teknologiske fremskritt.
AI-basert svindel over telefonen blir stadig mer utbredt – og stadig vanskeligere å avsløre på grunn av teknologiske fremskritt. Illustrasjonsfoto: Colourbox/22721055
8. mars 2023 - 16:05

Vi har sett mange eksempler på at mennesker med mindre enn edle intensjoner benytter seg av de teknologiske fremskrittene innen kunstig intelligens til vinningskriminalitet og annen ugagn. Nå har vi fått et nytt eksempel på akkurat hvor langt denne type svindel har kommet.

Avisen The Washington Post rapporterer om en økende trend i USA som innebærer at svindlere bruker AI-teknologi til å utgi seg for å være nære familiemedlemmer av ofrene – og på denne måten svindle til seg større pengebeløp over telefonen.

Audiobasert deepfake

Fenomenet, som altså er en form for audiobasert «deepfake», har medført tap på over 100 millioner kroner i USA bare i fjor, skriver avisen.

Svindelmetoden kan benyttes relativt enkelt, takket være et stort antall AI-verktøy tilgjengelig på nettet som gjør det mulig å komponere falske samtaler kun ved hjelp av et kort lydspor med stemmen til personen som etterlignes.

Med fremskrittene som gjøres innen kunstig intelligens blir slike verktøy stadig mer sofistikerte, og nå  har altså teknikken blitt så troverdig at den kan lure selv familiemedlemmer til personen hvis stemme brukes til å utføre svindelen.

«Deepfake»-fenomenet har nå inntatt en ny arena – jobbintervjuer over nettet. Dette er et illustrasjonsbilde.
Les også

Advarer mot ny trend: Nå brukes AI-skapte mennesker til å søke på jobber

The Washington Post var i kontakt med et eldre ektepar som hadde blitt oppringt av en person de trodde var sønnesønnen. Vedkommende opplyste over telefonen at han var blitt arrestert og trengte penger til kausjon, hvorpå besteforeldrene dro til banken for å ta ut penger. 

Til tross for at paret var overbevist om at personen var sønnesønnen dreide det seg i stedet om en AI-basert svindel.

Flere eksempler

Eksperter som avisen snakket med kommenterte at myndigheter er dårlig skikket til å forebygge denne type svindel, og i tillegg er det vanskelig å spore opp gjerningspersonene. Vedkommende kan bruke en telefon hvor som helst i verden, som også gjør det vanskelig å avgjøre hvilken jurisdiksjon saken faller under.

Digi.no har rapportert om denne type svindel både i 2019 og i 2021. I sistnevnte tilfelle benyttet gjerningspersonene AI-basert «deepfake»-teknologi til å etterligne stemmen til direktøren i et større selskap, og klarte på den måten å svindle til seg hele 300 millioner kroner.

Med den falske stemmen ringte gjerningspersonene opp en avdelingsleder i en annen del av selskapet for å informere om at selskapet var i ferd med å gjennomføre et stort oppkjøp.

For å gjennomføre oppkjøpet ba den AI-genererte stemmen avdelingslederen om en overføring på 35 millioner dollar til et antall ulike bankkontoer. Avdelingslederen kjente stemmen til direktøren og antok at forespørselen var legitim.

Det eneste svindlere trenger å gjøre er å sikre seg en prøve av personens stemme, noe som ofte er enkelt om det dreier seg om høyt profilerte personer. Også stemmen til «vanlige» personer kan imidlertid være enkelt å skaffe prøver av, for eksempel gjennom Youtube-videoer eller sosiale medier.

En tilsynelatende legitim telefonsamtale kan fort få kostbare konsekvenser, takket være AI-basert «deep voice»-teknologi.
Les også

Slik stjal de 300 millioner kroner ved hjelp av kunstig intelligens

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.