MICROSOFT

Microsoft-president: – Dette er den største trusselen ved kunstig intelligens

Brad Smith er mer redd for «deepfakes» enn noe annet.

Deepfake-fenomenet er blant de aller største AI-truslene, mener Microsofts president Brad Smith.
Deepfake-fenomenet er blant de aller største AI-truslene, mener Microsofts president Brad Smith. Foto: Marius Jørgenrud
31. mai 2023 - 13:15

Den raske utviklingen innen kunstig intelligens har gjort mange begeistret for det produktive potensialet til teknologien, men folk er også genuint bekymret for hva den kan brukes til i gale hender. Nå har Microsoft kommet på banen med særlig én bestemt frykt, melder Reuters.

Visestyreleder og president Brad Smith i Microsoft holdt nylig en tale i Washington om behovet for å regulere kunstig intelligens. Der ga han uttrykk for at det er «deepfake»-fenomenet som er den største trusselen som kunstig intelligens muliggjør.

Vil ha merking av AI-innhold

– Vi må ta skritt for å beskytte oss mot endringer av legitimt innhold med den intensjon å villede eller svindle folk gjennom bruk av kunstig intelligens, sa Smith i talen.

Han refererte blant annet til  land som Russland, Kina og Iran, som han mener allerede bruker slik teknologi i et bekymringsfullt omfang.

Smith omtalte også kunstig intelligens-utviklingen i et blogginnlegg han forfattet tidligere denne måneden. I innlegget tar han til orde for tydelig merking av innhold som er generert av kunstig intelligens, noe som ikke minst bør omfatte deepfakes.

– I tillegg bør offentligheten gis myndighet til å «kjenne innholdet» som AI skaper gjennom bruk av et merke eller annen indikator som informerer folk om når en video eller lydfil har blitt produsert av en AI-modell i stedet for et menneske. Denne plikten til å merke bør også beskytte offentligheten mot forandringer av originalt innhold og produksjon av deepfakes, skriver han.

Smith mener det er viktig å få på plass nye lover som forhindrer bruk av av teknologien til å villede mennesker, og at dette til syvende og sist handler om å beskytte demokratiet. 

Kan gjøre mye skade

Frykten for at AI-teknologi kan brukes til manipulering og forfalsking i forbindelse med for eksempel valg, er noe både Smith og andre deler. Som Reuters peker på, uttalte også OpenAI-sjefen Sam Altman at AI-teknologiens potensial til å true valgintegriteten er blant de største truslene – og at teknologien derfor bør reguleres.

Deepfakes ble for øvrig også omtalt i en omfattende rapport som Nasjonal sikkerhetsmyndighet nylig la frem her til lands. Rapporten tar for seg sikkerhetsfaglige råd til norske politikere fram mot 2030.

Det finnes mange eksempler på det skadelige potensialet til deepfake-teknologien. Nylig meldte Digi.no for eksempel om kvinner som får frastjålet ansikt og kropp til syntetiske, pornografiske produkter.

Ikke minst brukes teknologien til å svindle andre mennesker. I ett tilfelle ble en audiobasert deepfake brukt til å etterligne stemmen til en person på så overbevisende vis at vedkommendes egne familiemedlemmer ble lurt til å gi fra seg penger. I et annet tilfelle ble en deepfake-stemme brukt til å stjele hele 300 millioner kroner.

Deepfake-kreasjoner har til og med blitt brukt til å søke på jobber som kan utføres hjemmefra, har det amerikanske etterforskningsbyrået FBI advart.

«Deepfake»-fenomenet har nå inntatt en ny arena – jobbintervjuer over nettet. Dette er et illustrasjonsbilde.
Les også

Advarer mot ny trend: Nå brukes AI-skapte mennesker til å søke på jobber

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.