Kunstig intelligens

Derfor er Chat GPT dårlig til å spille menneske

Store språkmodeller som Chat GPT er nyttige til mye. Men foreløpig er de ikke flinke nok til å etterligne måten mennesker snakker på.

Førsteamanuensis Lucas Bietti finner at språkmodellene ofte kludrer det til for seg. Dermed avslører de at de ikke er mennesker.
Førsteamanuensis Lucas Bietti finner at språkmodellene ofte kludrer det til for seg. Dermed avslører de at de ikke er mennesker. Foto: Marta Behnke
Steinar Brandslet, Gemini.no
21. okt. 2025 - 15:37

Seksjonen Fra forskning består av saker som er skrevet av ansatte i Sintef, NTNU, Universitetet i Oslo, Oslo Met, Universitetet i Agder, UiT Norges arktiske universitet, Universitetet i Sørøst-Norge og NMBU.

Det er lett å bli imponert av kunstig intelligens. Mange bruker store språkmodeller som ChatGPT, Copilot eller Perplexity for å få hjelp til å løse ulike oppgaver eller simpelthen for underholdningens skyld.

Men hvor gode er språkmodellene til å late som om de er mennesker?

Ikke noe særlig, viser ny forskning.

– Språkmodellene snakker annerledes enn folk gjør, sier førsteamanuensis Lucas Bietti ved Institutt for psykologi.

Bietti var med på forskningsartikkelen som nå er publisert i PMC. Førsteforfatter er Eric Mayor ved Universität Basel, mens sisteforfatter er Adrian Bangerter fra Université de Neuchâtel.

Testet flere språkmodeller

Forskerne testet de store språkmodellene ChatGPT-4, Claude Sonnet 3.5, Vicuna og Wayfarer.

Lumo tar sikte på å berolige KI-brukere som er bekymret for personvernet sitt.
Les også:

Denne Chat GPT-konkurrenten setter personvernet i høysetet

Først sammenlignet de på egen hånd utskrifter av telefonsamtaler mellom mennesker med simulerte samtaler i de store språkmodellene.
Deretter sjekket de om andre mennesker kunne skjelne mellom menneskelige telefonsamtaler og språkmodellenes.
Stort sett lar ikke mennesker seg lure, i hvert fall ikke ennå. Så hva gjør språkmodellene feil?

Hermer etter for mye

Når vi mennesker snakker med hverandre, hermer vi litt etter hverandre. Vi tilpasser ordene og samtalen etter den andre til en viss grad. Men vi overdriver som regel ikke hermingen.

– Språkmodeller blir litt for ivrige etter å herme, og denne overdrevne hermingen kan vi mennesker oppfatte, forklarer Bietti.

Dette kalles «exaggerated alignment» på fagspråket.

Men dette er ikke alt.

Bruker de små ekstraordene feil

Filmer med dårlig manus kan ha samtaler som høres kunstige ut. Da har de som skrev manus gjerne glemt at samtaler slett ikke bare inneholder de nødvendige innholdsordene. For i vanlige samtaler fyller de fleste av oss på med små ord som kalles «diskursmarkører».

Mange er bekymret for folks KI-bruk, og det inkluderer også aktørene bak teknologien – her Open AI-sjef Sam Altman.
Les også:

Open AI-sjefen: «Urolig» over måten mange bruker Chat GPT på

Dette er ord som «liksom», «vel» eller «altså». På trøndersk kan vi gjerne slenge på et «sjø».

Slike ord har blant annet en sosial funksjon fordi de kan sende samtalepartneren signaler om interesse, tilhørighet, holdning eller mening. Men de kan også brukes for å organisere samtalen.

Artikkelen fortsetter etter annonsen
annonse
Innovasjon Norge
Made in Norway er blitt et konkurransefortrinn

Språkmodeller er ennå elendige til å bruke disse ordene.

– Språkmodellene bruker disse småordene annerledes, og ofte feil, sier Bietti.

Dette bidrar til å avsløre dem som ikke-menneskelige. Men det er mer.

Kludrer til begynnelse og slutt

Når du begynner å snakke med noen, går du antakelig ikke rett på sak. Isteden åpner du kanskje med en «hallaisen» eller «så, hvordan går det med deg, da?» eller «jaså, er det den karen?» Så småpludrer dere litt før dere går over til det dere egentlig skulle snakke om.

Dette skiftet fra innledning til business går mer eller mindre av seg selv hos mennesker, uten at det blir sagt høyt.

– Denne innledningen, og skiftet til en ny fase av samtalen, er det også vrient for språkmodellene å etterligne, sier Bietti.

Det samme gjelder slutten. Vi slutter som regel ikke samtalen brått straks informasjonen er overført til den andre. Isteden runder vi gjerne av med noen fraser som «ja, men så sier vi det, da», eller «prekæs» eller «snakkes» eller «ok, ha det så lenge».

Språkmodellene fikser ikke helt den delen heller.

Det kan være fristende å «hjelpe» dem som skal vurdere en forskningsartikkel, dersom de uansett bruker kunstig intelligens til arbeidet.
Les også:

Skjulte kommandoer gir artikler positive vurderinger

I framtida? Antakelig bedre

Til sammen utgjør dette altså såpass mye trøbbel for språkmodellene at konklusjonen er klar:

– Språkmodellene greier ennå ikke å herme etter mennesker nok til at de konsekvent lurer oss, sier Bietti.

Nå går utviklingen så raskt på dette feltet at språkmodellene antakelig kan dette også ganske så snart, i hvert fall om vi ønsker at de skal gjøre det. Eller?

– Forbedringer i språkmodellene kan nok redusere gapet mellom menneskelige samtaler og de kunstige. Men sentrale ulikheter vil antakelig vedvare, mener Bietti.

Foreløpig er språkmodellene uansett ikke helt menneskelignende nok til at vi lar oss lure. I hvert fall ikke hver gang.

Referanse: Mayor E, Bietti LM, Bangerter A. Can Large Language Models Simulate Spoken Human Conversations? Cogn Sci. 2025 Sep;49(9):e70106. doi: 10.1111/cogs.70106. PMID: 40889249; PMCID: PMC12401190.

Artikkelen ble først publisert på Gemini.no

Chatboter påvirker også barn og tenåringer annerledes enn en tradisjonell søkemotor fordi de er designet for å oppleves menneskelige
Les også:

Studie: Chat GPT kan gi tenåringer farlige råd om narkotika og selvmord

Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.