KUNSTIG INTELLIGENS

Vi trenger en ny nasjonal AI-strategi. Den fra 2020 virker veldig utdatert

I 2020 la Solberg-regjeringen frem en nasjonal AI-strategi. Siden november 2022 har ChatGPT skjedd. Det endrer alt, skriver Tor W. Andreassen i denne kronikken.

Kronikkforfatter Tor W. Andreassen, som er professor ved Norges Handelshøyskole, er bekymret for at den raske utviklingen innen kunstig intelligens i verste fall kan true demokratiet.
Kronikkforfatter Tor W. Andreassen, som er professor ved Norges Handelshøyskole, er bekymret for at den raske utviklingen innen kunstig intelligens i verste fall kan true demokratiet. Foto: NHH
Av Tor W. Andreassen, professor ved Norges Handelshøyskole.
14. apr. 2023 - 11:48

Du har sikkert fått med deg den gryende polariserte «endre verden-debatten» om AI-teknologien som blant annet ligger bak ChatGPT og GPT4. Teknologien vil enten ødelegge oss eller forvandle oss til en lykkeligere, mer hyperkreativ og produktiv art. Jeg har tidligere skrevet om det siste.

Uavhengig av om man er enig eller ikke om effektene av AI, vil utviklingen være preget av to enkle sannheter. For det første vet vi at dersom noe er lønnsomt og kan bygges, vil det bli bygget. Ifølge nettstedet Enterpriseappstoday.com vil det generative AI-markedet innen 2030 nå nesten 16 milliarder dollar med en forventet økning i globalt BNP på 26 prosent. For det andre vil teknologi alltid utvikle seg raskere enn reguleringen av den. Nå er utviklingen i an tall AI-apper eksponentiell.  

Adopsjonsraten av ChatGPT kombinert med Microsoft (Copilot) og Google (Bard) sine AI-satsinger, viser at AI-teknologien kommer med en hastighet nesten ingen utenfor AI-selskapene er klar over. Vi snakker måneder – ikke år – før virkningen treffer oss som lovgivere, ledere, ansatte, kunder, konsumenter, innbyggere, og velgere. Dersom vi stiller uforberedt, vil i ytterste konsekvens demokratiet være truet. 

 Even Vinge er partner og nordisk KI-leder i EY Consulting, Mads Ribe er assosiert partner/advokat og KI-leder i Ernst & Young Advokatfirma, mens Andreas Bjørnebye er assosiert partner/advokat i Ernst & Young Advokatfirma. De mener at implementering av EUs AI Act i norsk rett med fordel kan skje tidlig.
Les også

Enighet om EUs AI Act gir forutsigbarhet for norske selskaper

Årsaken til denne dystre spådommen er at teknologien, brukt på gal måte, kan true vår tillit til juridiske, politiske, og økonomiske institusjoner – grunnlaget for et stabilt samfunn. At teknologien nærmer seg et nivå nær det vi kaller generell kunstig intelligens, ref. GPT4, er en vesentlig årsak. I praksis betyr det at teknologien kan utføre enhver intellektuell oppgave som et menneske kan utføre – ofte bedre. I USA har GPT4 allerede bestått den medisinske embetseksamen med glans. Jeg ser tre grunner til at en uregulert AI-teknologi kan utfordre oss. 

Deepfake: Teknologien kan brukes til å lage ekstremt realistiske deepfake-videoer, lydopptak og bilder som kan brukes til å spre feilinformasjon eller propaganda. Dette kan være spesielt skadelig under valgkamper, der falsk eller villedende informasjon kan påvirke opinionen og undergrave den demokratiske prosessen.

Manipulasjon av opinionen: Teknologien kan brukes til å lage målrettet innhold, for eksempel falske nyhetsartikler, innlegg på sosiale medier eller skreddersydde reklamebudskap, som er utformet for å manipulere opinionen, skape uenighet, eller dulte konsumenter i ønskede retninger. Dette kan brukes til å undergrave tilliten til demokratiske institusjoner, politiske par tier eller kandidater. Cambridge Analytics skandalen blir barnemat i forhold. 

Open AI mener at å kun trene på materiale som ikke er opphavsbeskyttet, ville vært et interessant eksperiment, men det ville resultert i en språkmodell basert på 100 år gammelt språk.
Les også

Open AI: Umulig å lage Chat GPT uten opphavsbeskyttet materiale

Forsterke eksisterende skjevheter: Teknologien kan opprettholde og forsterke eksisterende skjevheter (biases) i samfunnet og diskriminering mot mennesker basert på for eksempel seksuell orientering, kjønn, religion, og hudfarge. Dette kan ha betydelige konsekvenser for demokratiske prosesser, som for eksempel velgerundertrykkelse eller ulik representasjon og inkludering. 

I tillegg til truslene mot demokratiet kan jeg se minst to vesentlige etiske dilemmaer som følger av teknologien. For det første vil deepfake-situasjoner reise alvorlige personvernproblemer ved at man feilaktig kan bli brukt for å fremme visse synspunkter. Dette kan skape muligheter for ondsinnede aktører til å spre feilinformasjon som kan polarisere og destabilisere samfunnet 10 ganger sterkere enn Youtube, Tiktok, eller Facebook. 

For det andre kan teknologien brukes til å lage nytt innhold som for eksempel tekst, kunstverk eller musikk fordi teknologien har øvd på all tidligere tilgjengelig tekst, kunst og musikk – uten tillatelse. Dette er utfordrende. Hvordan skal og kan vi avgjøre hvem som eier opphavsretten eller immaterielle rettigheter for generert innhold. Dette kan føre til juridiske tvister om eierskap og kompensasjon for generert innhold. 

I 2020 la Solberg-regjeringen frem en nasjonal AI-strategi. Siden november 2022 har ChatGPT skjedd. Det endrer alt. Derfor må Støre-regjeringen snarest utvikle en ny AI-strategi som speiler hvor vi i dag befinner oss i utviklingen, slik at vi alle er bedre rustet for fremtiden. 

Å sette utviklingen på vent eller forby den (slik Italia har gjort), er ikke mulig. For mye står på spill.

Kronikken ble først publisert i Tor W. Andreassens eget nyhetsbrev, «Food for thought».

Selskapene bak kunstig intelligens kommer med store påstander om hva teknologien kan utrette. Ikke alle tar det for god fisk.
Les også

Ekspert tror KI-visjoner er overdrevne

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.
Tekjobb
Se flere jobber
En tjeneste fra