Nesten halvparten av verdens befolkning skal innom valgurnene i 2024. Det er første gang i historien så mange mennesker fra så mange land stemmer – samme år.
Til tross for at det på mange måter er et merkeår for demokratiet, er det også en viss bekymring i forbindelse med det store valgåret.
Det handler spesielt om den drastiske økningen av desinformasjon vi har sett den siste tiden, forteller førsteamanuensis ved NTNU i Gjøvik, Muhammad Mudassar Yamin.
– Vi har allerede mange eksempler på hva falske nyheter om politisk betente saker kan føre til. Han viser blant annet til opptøyene som oppsto i kjølvannet av knivdrapene i England i sommer. Da skal usann informasjon om gjerningspersonen med hensikt ha blitt spredt på sosiale medier.
KI diskuterer med deg i kommentarfeltet
Bevisst spredning av feil og villedende informasjon er på ingen måte et nytt fenomen. Men det var først med presidentvalget i USA i 2016 at begrepet «fake news» for alvor fikk fotfeste.
Siden den gang har generativ kunstig intelligens kommet på banen og gjort jobben med å lage og spre falske nyheter i stor skala enklere enn noensinne.
Det har blant annet ført til at World Economic Forum tidligere i år løftet desinformasjon fram som en av de aller største risikoene verden står overfor i sin globale risikorapport.
Flere studier antyder dessuten at villedende innhold får mer oppmerksomhet på sosiale medier enn sannferdig nyhetsstoff. Og det er ikke bare falske nyhetssaker og innlegg som spres i stor stil, ifølge Yamin.
– Kunstig intelligens er nå også trent opp til å samhandle med leserne, for eksempel til å svare på kommentarer og delta i diskusjoner i sosiale medier.
USA: KI preger valget på en annen måte enn fryktet
Over 97 prosent treffsikkerhet
Yamin har – sammen med stipendiat Ehtesham Hashmi og andre kollegaer ved NTNU i Gjøvik – utviklet en ny modell som skal avsløre falske nyheter.
Modellen bygger på ulike maskinlærings- og dyplæringsteknikker som fanger opp ord og språklige mønstre som kjennetegner desinformasjon.
Modellen har så langt fått bryne seg på tre store datasett med til sammen over 100.000 nyhetsartikler. Her klarte den å klassifisere falske nyheter med over 97 prosent treffsikkerhet.
– Modellen er trent opp på et stort og tematisk variert datagrunnlag som spenner fra politikk til kjendisnyheter. Det er viktig blant annet for å unngå skjevheter. Hadde vi utelukkende trent modellen opp på én type data, ville den kanskje prestert fint på lignende stoff, men hatt store vanskeligheter når den ble stilt overfor andre saker, sier Hashmi.
– Det varierte datagrunnlaget gjør også modellen bedre rustet til å håndtere språklige endringer og nye sammenhenger.
At språket er i stadig endring er noe begrepet «fake news» i seg selv er et eksempel på:
– Det var ingen som snakket om «fake news» for 20–30 år siden. Nå kjenner alle begrepet. Slik er det også med språket for øvrig – det er i stadig forandring. Da må verktøy som skal oppdage falske nyheter være i stand til å tilpasse seg det, sier NTNU-forskeren.
Javascript 2024: Slutt på tomme løfter, mener web-arkitekt
Gjennomsiktighet skaper tillit
Selv om det allerede finnes lovende modeller basert på dyplæring, fungerer disse i stor grad som «svarte bokser», forklarer forskerne. Det vil si at brukerne ikke har innsikt i hvordan verktøyene virker. Man vet hvilke data de blir matet med og hvordan de klassifisere den, men prosessen som ligger til grunn for avgjørelsen er ikke tilgjengelig.
– Samtidig som KI-verktøyene blir mer avanserte og vanskeligere å forstå, øker fokuset på at KI skal holde et visst nivå av ansvarlighet. Vi har derfor sørget for at modellen vår er gjennomsiktig og viser brukerne hvilke elementer den baserer avgjørelsen sin på.
– I tillegg til å vekke tillit hos brukerne, kan det også gi oss innsikter som kan bidra til å gjøre modellen enda mer effektiv, forklarer Hashmi.
Det 30 år gamle Java-språket bruker unødvendige ressurser – modernisering er på vei
Skal utvides
Modellen er tett opp mot 100 prosent treffsikker og har langt på vei å ha løst problemene knyttet til gjennomsiktighet. Likevel mener forskerne at modellen deres fremdeles kan forbedres.
Det er hovedsakelig to ting de jobber med nå. Det ene er å gjøre modellen bedre til å oppdage falskt innhold på andre språk enn engelsk.
– Store engelskspråklige datagrunnlag til å trene opp algoritmer med, er lett tilgjengelig. Det er derfor et naturlig sted å begynne. Men det er også viktig at de kan fungere effektivt på mindre språk, som for eksempel norsk, sier Hashmi.
Forskerne ønsker i tillegg å gjøre verktøyet deres i stand til å vurdere andre elementer enn bare tekst. – For også bilder kan bidra til å avsløre falske nyheter.
Stemmer for eksempel innholdet på bildene overens med teksten? Kan vi være sikre på at de ble tatt i den sammenhengen det påstås? Eller kan det være snakk om misbruk av gammelt materiale?
Å kunne gi svar på slike og lignende spørsmål vil være helt avgjørende i kampen mot den stadig økende strømmen av realistisk desinformasjon som finner veien inn i nyhetsfeeden vår, mener forskerne.
Artikkelen ble først publisert på Gemini.