KUNSTIG INTELLIGENS

Microsoft advarer ansatte mot å dele sensitive data med ChatGPT

Advarselen kommer like etter Microsoft inngikk en milliardavtale med selskapet bak chatboten om å finansiere og utvikle tjenesten.

Microsoft-sjef Satya Nadella. Selskapet har akkurat inngått milliardkontrakt med ChatGPT, og advarer samtidig sine ansatte om chatroboten.
Microsoft-sjef Satya Nadella. Selskapet har akkurat inngått milliardkontrakt med ChatGPT, og advarer samtidig sine ansatte om chatroboten. Foto: Shannon Stapleton /Reuters/ NTB
Heidi SævoldHeidi SævoldJournalist
3. feb. 2023 - 10:00

En Microsoft-ansatt spurte i et internt forum tidligere denne måneden om ChatGPT og andre tjenester fra chatbot-produsenten OpenAI var tillatt å bruke i jobben.

En representant for Microsofts teknologiledelse svarte at de var tillatt, så lenge ansatte ikke deler konfidensiell informasjon med chatboten.

«Vennligst ikke send sensitive data til et OpenAI-endepunkt, da de kan bruke det til å trene fremtidige modeller», het det i svaret, ifølge nettstedet Business Insider.

Kunstig intelligens-chatboten ChatGPT har blitt svært populær etter at den ble lansert som en prototyp i slutten av november. Dette har fått flere teknologiselskaper, deriblant Amazon, til å advare ansatte mot ukritisk bruk av teknologien.

Bekymringen er at ansatte utilsiktet kan dele konfidensiell bedriftsinformasjon med chatboten for å be om tips eller råd om hvordan de kan forbedre arbeidet sitt, for eksempel intern programvarekode. ChatGPT kan deretter behandle dataene for å trene seg selv – og deretter dele versjoner av den konfidensielle informasjonen den mottok, i fremtidige utvekslinger med andre brukere.

Partnerskap verdt milliarder

Det som er spesielt med at Microsoft advarer mot dette, er de tette båndene mellom Microsoft og OpenAI.

Chatboten ChatGPT har blitt et yndet verktøy også blant dem med mindre edle hensikter, rapporterer sikkerhetsforskere.
Les også

Advarer: ChatGPT brukes allerede til å lage skadevare

Microsoft var fra 2019 en av aksjonærene, etter at de investerte én milliard dollar i det kommersielle selskapet OpenAI. OpenAI er etablert av stiftelsen med samme navn, som ble grunnlagt av Sam Altman og Elon Musk med flere i 2015. I 2021 fulgte Microsoft på med nok en investering, og sist uke bekreftet selskapene det de kalte «den tredje fasen av et langt partnerskap», der Microsoft kjøper seg kraftig opp i OpenAI.

Partnerskapet kommer med det Microsoft kaller en «multibillion»-investering. Tidligere rapporter om investeringen satte tallet til 10 milliarder dollar, tilsvarende knapt 100 milliarder kroner.

Microsoft setter selv investeringen i sammenheng med lanseringen av OpenAI-verktøy i sky-porteføljen og planlegger å innføre OpenAIs modeller på tvers av produktene sine.
Microsoft skal blant annet jobbe for å implementere ChatGPT i søkemotoren Bing og Office-applikasjoner, og nylig lanserte Microsoft en premium-versjon av Teams, med støtte bygget på OpenAIs språkmodell ChatGPT.

Partnerskapet mellom de to selskapene kan føre til en potensiell interessekonflikt for Microsoft, siden de kan få nytte av at OpenAI får mer treningsdata, uttaler Vincent Conitzer, en informatikkprofessor og direktør for et kunstig intelligens-laboratorium ved Carnegie Mellon University i Pennsylvania, til Business Insider.

– Betydelig innflytelse

Det er ikke klart hva Microsoft eller OpenAI gjør for å løse problemet.

Informatikkprofessoren sier ifølge Business Insider at vi alle må finne ut hva som bør forventes av hvem i disse situasjonene, og diskutere hvordan ansvaret bør fordeles mellom tjenesten og den som deler informasjon.

– Som en av de mest etablerte aktørene i teknologibransjen vil Microsoft sannsynligvis ha betydelig innflytelse på den samtalen, sier han til nettstedet.

Chatboten ChatGPT kan bli en trussel mot eksisterende arbeidere, er lærdommen fra en ny, amerikansk undersøkelse.
Les også

Nå har bedrifter begynt å erstatte ansatte med ChatGPT

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.