DEBATT

Holdninger til kunstig intelligens i offentlig sektor

– En fersk undersøkelse om holdninger til kunstig intelligens viser at offentlig sektor kan utrette mye med teknologien, men må bygge kompetanse både på muligheter, begrensninger og risiko, skriver de fire forskerne som står bak dette debattinnlegget.

Innleggsforfatterne (f.v): Jo Erskine Hannay og Leif Knutsen, begge ved Simula Metropolitan Center for Digital Engineering (SimulaMet), samt Sinan Tanilkan ved Norsk Regnesentral. Også José David Patón-Romero ved SimulaMet er medforfatter av teksten.
Innleggsforfatterne (f.v): Jo Erskine Hannay og Leif Knutsen, begge ved Simula Metropolitan Center for Digital Engineering (SimulaMet), samt Sinan Tanilkan ved Norsk Regnesentral. Også José David Patón-Romero ved SimulaMet er medforfatter av teksten. Foto: Pressebilder
Jo Erskine Hannay, Leif Knutsen, José David Patón-Romero og Sinan Tanilkan
11. aug. 2023 - 13:00

Dette debattinnlegget gir uttrykk for skribentens meninger. Ønsker du selv å bidra i debatten, enten med et debattinnlegg eller en kronikk, les retningslinjene våre her.

Debatten om bruk, misbruk og begrensninger i kunstig intelligens har tiltatt i volum og temperatur den siste tiden, særlig i forbindelse med såkalt generativ kunstig intelligens som for eksempel ChatGPT. 

Vi gjennomførte en spørreundersøkelse blant nesten 60 KI-interesserte IT-ledere og spesialister i forbindelse med et seminar vi holdt om emnet i slutten av juni. Innholdet i undersøkelsen ble for øvrig generert ved hjelp av ChatGPT.

Resultatene viste markant ambivalens om emnet hos de aller fleste.

  • Generelt mente de som svarte at selv om de hadde stor interesse for emnet, så hang de etter i sin kunnskap om det. Det var påfallende at ledere uttrykte større selvtillit om sin kunnskap enn de andre gruppene.

  • Mens det var stor optimisme knyttet til mulighetene for nyttig bruk av generativ KI i offentlig sektor, var det forholdsvis liten tro på at det offentlige gjorde tilstrekkelig innsats for å realisere disse mulighetene. 

  • Ved vurdering av tre potensielle bruksområder (automatisering, dataanalyse og beslutningsstøtte og innholdsproduksjon/personalisering), rangerte deltagerne både mulige positive og negative effekter svært høyt, men de negative jevnt over noe høyere.

  • De som svarte, mente at kvaliteten på spørreundersøkelsen var generelt høy, men manglet kreativitet og originalitet. De aller fleste gjettet riktig om at vi hadde brukt ChatGPT til å utvikle den.

Vi kan ikke nyttiggjøre oss generativ kunstig intelligens om vi ikke har sikkerhet i bunn, skriver avdelingsdirektør Geir Arild Engh-Hellesvik i Nasjonal sikkerhetsmyndighet (NSM) i denne kronikken.
Les også

Ingen kan forklare hvordan kunstig intelligens virker

Disse funnene blir presentert i en vitenskapelig konferanse (ISBM 2023) i begynnelsen av september og utgjør – etter det vi kan forstå – første undersøkelse av sitt slag.

Vi håper at disse funnene oppmuntrer til videre vitenskapelig forskning, men også at det utgjør et innspill til ledere i offentlig sektor om å diskutere og treffe tiltak for å sikre effektfull og forsvarlig bruk av kunstig intelligens.

Etter denne studien å dømme, er det spesielt viktig at diskusjoner om muligheter for kunstig intelligens forankres i god forståelse av hva teknologien kan og ikke kan utrette, risikomomenter og spesielle fenomen ved det (for eksempel «hallusinasjoner» – altså troverdige men uriktige tekstkombinasjoner). 

Det er trolig også et behov for utstrakt samarbeid mellom offentlige institusjoner, ettersom KI oppleves som vanskelig og er et raskt skiftende emne som få virksomheter kan bygge opp tilstrekkelig kompetanse for på egen hånd.

Elisabeth Aspaas Runsjø og  Henning Torgersen kommer i kronikken med råd til digitaliseringsministeren om hvordan hun skal nå målet om at 80 prosent av offentlig sektor skal bruke kunstig intelligens innen 2025.
Les også

Slik når du KI-målet ditt, Karianne

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.