KUNSTIG INTELLIGENS

Etikk og KI – det er også ditt ansvar!

– Vi eksponeres for langt mer informasjon enn vi er skapt for å håndtere. Det er lett å tro på alt man ser og hører i en verden av endeløs skrolling, skriver forfatterne av dette debattinnlegget.

Forfatterne fra Deloite setter i dette debattinnlegget søkelyset på den enkeltes ansvar om å vurdere rett og gal bruk av kunstig intelligens. Fra venstre: Tor Kramvik Sivertsen, partner og medlem av Deloittes AI Task Force og teknologistrategi- og transformasjons-team, Hanne Pernille Gulbrandsen, partner i Deloitte advokatfirma, Steinar Østmoe, senior manager i Deloitte advokatfirma og prosjektleder for Deloittes skoleprogram for etikk og kunstig intelligens, samt Vilde Dille Øvreeide, ekspert på etisk KI og psykologi i digitale medier.
Forfatterne fra Deloite setter i dette debattinnlegget søkelyset på den enkeltes ansvar om å vurdere rett og gal bruk av kunstig intelligens. Fra venstre: Tor Kramvik Sivertsen, partner og medlem av Deloittes AI Task Force og teknologistrategi- og transformasjons-team, Hanne Pernille Gulbrandsen, partner i Deloitte advokatfirma, Steinar Østmoe, senior manager i Deloitte advokatfirma og prosjektleder for Deloittes skoleprogram for etikk og kunstig intelligens, samt Vilde Dille Øvreeide, ekspert på etisk KI og psykologi i digitale medier. Foto: Pressebilder
Tor Kramvik Sivertsen, Hanne Pernille Gulbrandsen, Steinar Østmoe og Vilde Dille Øvreeide, alle i Deloitte
19. feb. 2024 - 16:50

I løpet av 17 timer hadde 47 millioner mennesker sett et pornografisk bilde av Taylor Swift, fremstilt ved hjelp av kunstig intelligens (KI), såkalt deepfake. Dette skjedde få dager etter at pave Frans uttrykte sin bekymring for generativ KI. Paven har også vært offer for genererte bilder av seg selv på motorsykkel og ikledd en moteriktig boblejakke. Morsomt for noen, krenkende for andre – det er på tide at vi alle snakker sammen om etikk og KI.

Maskiner uten moralsk kompass

Generativ KI skiller seg fra teknologien vi allerede er kjent med. Den skaper noe helt nytt – fra datakode og tekst til musikk og visuell kunst. Nå kan alle med tilgang til internett bruke den, og KI-generert innhold sprer seg som ild i tørt gress. Teknologien kommer ikke med et moralsk kompass inkludert. Maskinene vet ikke at det er galt å generere nakenbilder, oppskrifter på bomber eller store politiske løgner. Det betyr at vi som omgir oss med KI og syntetiske medier, må være kildekritiske og ha en forståelse for etisk bruk av teknologien. For hva er greit å manipulere ved hjelp av KI, og når beveger vi oss over på uetisk territorium? Vi må alle ta samtalen. Vi kan ikke overlate den til ekspertene.

Bevisst ondskap og blind tillit

Uetisk bruk av KI kan deles inn i to kategorier: bevisst og ubevisst. Mens bevisst uetisk bruk assosieres med «onde hensikter» og å villede handlinger, kan ubevisst bruk være mennesker som stoler blindt på resultatet av KI-systemer og derfor ender opp med et uetisk resultat. Selv om bevisst uetisk bruk har flere negative konnotasjoner enn motsatsen, kan ubevisst uetisk bruk av KI på være minst like skadelig.

De mange cybertruslene som allerede finnes vil bare bli verre med fremskrittene innen KI.
Les også

Sikkerhetsselskap: Dette er de viktigste KI-truslene 

En deepfake-dystopi

Deepfakes blir ofte generert med hensikt om å villede eller skade – et eksempel på bevisst uetisk bruk av KI. I dag kan man med noen tastetrykk generere bevis som ikke har rot i virkeligheten, men som likevel har en innvirkning på samfunnet. Eksemplene er mange: KI-genererte videoer av presidenter som sier ting de aldri engang har tenkt, pornografiske bilder av medelever og forskningsartikler basert på falske datasett generert av Chat GPT. Å avsløre feilinformasjon er ikke så enkelt som man tror. Nyere forskning viser nemlig at mennesker sliter med å identifisere deepfakes, selv når de får instruksjoner om hvordan man kan avsløre dem.

Effekten av feilinformasjon forsterkes i sosiale medier, der man lett fanges i ekkokamre av raske nyheter. Menneskehjernen er ikke skapt for å håndtere mengdene data vi er omgitt av på nett. Det blir umulig å stille spørsmål ved all informasjonen. Å skille mellom sannhet og desinformasjon blir vanskeligere, særlig når det falske innholdet kan tilpasses den enkelte mottaker. Man kan fort ende opp med å spre informasjonen videre, uten å selv være klar over det. Kildekritikk blir vanskeligere, men også en stadig viktigere ferdighet – og dette gjelder for alle.

Chat GPT kan være et svært nyttig verktøy, men har også sine skyggesider.
Les også

Studie: Chat GPT gjør folk «dummere»

Bias og hallusinasjoner

Man kan ubevisst bruke KI uetisk ved å stole blindt på resultatene. Et system som bruker KI, blir ikke bedre enn datagrunnlaget. Dersom man har et skjevt datasett, er det stor fare for et partisk resultat. Dette er én av de største utfordringene ved å bruke KI til å ta viktige beslutninger. Menneskelige fordommer som kan ha satt spor i datasettet, settes i system og forsterkes, og deretter brukes det til å bestemme hvem som får lån eller hvem som skal bli ansatt. Før man tar i bruk KI, er det derfor svært viktig å ha innsikt i datagrunnlaget og være bevisst på svakhetene. For den som blir utsatt for beslutninger tatt av KI, er det viktig å være klar over at roboten ikke er objektiv og at det går an å klage.

Generativ KI kan dikte opp ting som ikke har grunnlag i datasettet. KI-hallusinasjoner er misinformasjon som kan omfatte genererte kilder, sitater og fakta uten rot i virkeligheten. Generative språkmodeller som Chat GPT er skapt for å svare på spørsmål, men ikke nødvendigvis for å gi riktig svar. Dette stiller krav til oss som brukere. Dersom vi ikke kan bekrefte eller avkrefte svaret vi får fra KI-modellen, er det en fare for at vi deler desinformasjon og bidrar til å spre usannheter.

Ta samtalen om rett og galt!

Med populære generative verktøy som kan skape hva som helst, blir det stadig mer krevende å identifisere sannheten. Hvilke bilder av Taylor Swift er ekte, og kjører paven faktisk motorsykkel, slik som de KI-genererte bildene vil ha det til? Vi eksponeres for langt mer informasjon enn vi er skapt for å håndtere. Det er lett å tro på alt man ser og hører i en verden av endeløs skrolling. I 2024 må vi tenke annerledes og ta samtalen om rett og galt. Vi har alle et ansvar for stille spørsmål, selv om beslutningen er tatt av en «objektiv» maskin. Vi må være kildekritiske og sørge for å bruke generativ KI i situasjoner hvor vi har kunnskap til å validere resultatet. Da kan vi bruke den fantastiske teknologien på etisk vis.

De mange cybertruslene som allerede finnes vil bare bli verre med fremskrittene innen KI.
Les også

Sikkerhetsselskap: Dette er de viktigste KI-truslene 

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.