CHATGPT

Advarer: ChatGPT brukes allerede til å lage skadevare

Hackere omgår chatbotens sikkerhetsmekanismer.

Chatboten ChatGPT har blitt et yndet verktøy også blant dem med mindre edle hensikter, rapporterer sikkerhetsforskere.
Chatboten ChatGPT har blitt et yndet verktøy også blant dem med mindre edle hensikter, rapporterer sikkerhetsforskere. Skjermbilde: Digi.no
11. feb. 2023 - 13:00

OpenAI sin kreasjon ChatGPT har skapt til dels store bølger i teknologikretsene, og kanskje var det bare et spørsmål om tid før chatbotens popularitet også trengte inn i de mørkere hjørnene av teknologiuniverset. Det ser nå ut til å ha skjedd, melder blant andre Digital Trends.

Sikkerhetsselskapet Check Point Research (CPR) rapporterer at de har oppdaget ondsinnede aktører som benytter ChatGPT til å utvikle skadevare.

Omgår restriksjoner

ChatGPT har flere restriksjoner på plass som er ment å forhindre at folk bruker chatboten til å lage ondsinnet innhold. Disse restriksjonene består blant annet i å nekte å utføre bestemte kommander, slik som for eksempel å etterligne en bank, lage skadevare eller skrive en troverdig phising-epost.

Som Check Point peker på finnes det imidlertid allerede effektive måter å omgå disse restriksjonene på.

Pål Aaserudseter i Check Point mener vi må ta i bruk AI i mye større grad for å ligge foran de cyberkriminelle,
Les også

Mener AI-hacking må bekjempes av AI-sikkerhet

Én av måtene dette foregår på er ved bruk av Telegram-boter, en metode som også tidligere har blitt brukt til ondsinnet aktivitet. Ifølge sikkerhetsselskapet er disse botene i stand til å komme rundt ChatGPTs restriksjoner ved å bruke OpenAI sitt API – programmeringsgrensesnitt.

Telegram-botene markedsføres aktivt på diverse undergrunnsfora, og selges også som tjenester hvor folk kan betale en slant penger for vedvarende tilgang til den «restriksjonsløse» versjonen av ChatGPT.

Forskerne hos Check Point sier de fant flere eksempler på blant annet phishing-eposter laget av Telegram-boter ved hjelp av OpenAIs API. Metoden brukes imidlertid også til å utvikle, eller heve kvaliteten på, skadevare.

Kan skrive ondsinnet programvare

– CPR-forskere fant nylig et tilfelle av cyberkriminelle som brukte ChatGPT til å «forbedre» koden til en infostealer-skadevare fra 2019, skriver sikkerhetsselskapet. Infostealer er navnet på en type trojaner som er designet for å hente ut data fra ofrenes systemer.

Sikkerhetsselskapet fant også eksempler på at ChatGPT ble brukt til å skrive kode, basert på kommandoer som spesifiserte skadevarens ønskede funksjonalitet – som for eksempel å stjele en bestemt type filer.

Et eksempel på ondsinnet kode skrevet av ChatGPT, hentet fra et undergrunnsforum. <i>Foto: Check Point Research.</i>
Et eksempel på ondsinnet kode skrevet av ChatGPT, hentet fra et undergrunnsforum. Foto: Check Point Research.

Ifølge Check Point eksisterer det for tiden en trend blant cyberkriminelle som innebærer å utforske hvordan ChatGPT kan utnyttes innen skadevareutvikling og generering av phishing-eposter. 

At cyberkriminelle benytter seg av kunstig intelligens i sitt virke er for så vidt ingen nyhet, og noe som har pågått en stund allerede. Som Digi.no rapporterte tidligere denne måneden uttalte sikkerhetsarkitekt Pål Aaserudseter i Check Point Norge at kriminelle har mye å vinne på de store fremskrittene innen kunstig intelligens.

– Jo mer data disse maskinlæringsmotorene får tilgang til, jo bedre blir de, og jo lettere er det da etter hvert for andre å utnytte det må en kriminell måte – som kanskje kan gi angrep vi aldri har sett før, sa Aaserudseter til Digi .no.

Gmail-skaperen Paul Buchheit mener Google med rette bør være nervøse for ChatGPT og lignende teknologier.
Les også

Gmail-skaperen: – ChatGPT kan ødelegge Googles forretningsmodell innen to år

Les mer om:
Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.