KUNSTIG INTELLIGENS

Studie: Slik kan man unngå at brukere av AI-chatboter blir lurt av faktafeil

Flere la ikke merke til hvorvidt AI-chatboten ga mening eller ikke.

En fersk studie utfordret rundt 200 deltakere til å avgjøre om ulikt fremstilte utsagn generert av en kunstig intelligens-chatbot ga logisk mening.
En fersk studie utfordret rundt 200 deltakere til å avgjøre om ulikt fremstilte utsagn generert av en kunstig intelligens-chatbot ga logisk mening. Illustrasjonsfoto: Michael Dwyer
Heidi SævoldHeidi SævoldJournalist
2. mai 2023 - 12:43

Forskere fra MIT og Columbia University har testet hvordan presentasjonen av informasjonen fra chatboter som ChatGPT, Bing og Bard påvirker brukernes evne til å tenke kritisk om innholdet.

I den ferske studien ble rundt 200 deltakere presentert for et sett med utsagn generert av OpenAIs GPT-3, og ba dem avgjøre om de ga logisk mening.

Måtte sjekke logikken selv

Et eksempel på en slik uttalelse, referert i studien, er: «Dataspill får folk til å være aggressive i den virkelige verden. En spiller knivstakk en annen etter å ha blitt slått i spillet Counter-Strike».

Deltakerne ble delt inn i tre grupper. Den første gruppens utsagn kom uten noen forklaring i det hele tatt. Den andre gruppens utsagn kom hver med en forklaring på hvorfor det var eller ikke var logisk.

I eksempelet over var denne forklaringen «hvis en person spilte dataspill og var aggressiv, følger det ikke at alle som spiller dataspill vil være aggressive».

Den tredje gruppens uttalelser kom hver med et spørsmål som fikk leserne til å sjekke logikken selv.

Siden mobiltelefonene kom på markedet har det blitt diskutert om strålingen de gir kan skade mennesker.
Les også

Ny studie: Ingen hjernesvulst fra mobiltelefonen

I dataspill-eksempelet var dette spørsmålet «Hvis en person spilte dataspill og var aggressiv, følger det at alle som spiller dataspill vil være aggressive?»

Forskerne fant at gruppen som ble presentert for spørsmål, i større grad enn de to andre gruppene la merke til når logikken ikke stemte.

Følte ansvar

Spørsmålsmetoden fikk også folk til å føle seg mer ansvarlige for beslutninger tatt ved hjelp av kunstig intelligens, den kan ifølge forskerne redusere risikoen for å bli for avhengig av AI-generert informasjon.

– Når folk fikk et ferdig svar, fulgte de i større grad logikken til AI-systemet, men når AI-en stilte et spørsmål, sa de at det fikk dem til å stille spørsmål ved reaksjonene sine og å tenke hardere, sier Valdemar Danry, en av forskerne bak studien, til MIT Technology Review.

– En stor seier for oss var å se at folk følte at det var de som kom frem til svarene og at de hadde ansvaret for det som skjedde, sier han til magasinet.

Forskerne håper metoden deres kan bidra til å utvikle folks kritiske tenkning når de bruker chatboter basert på kunstig intelligens til å finne informasjon.

«Chatboten er en adskilt juridisk enhet, som er ansvarlig for sine egne handlinger», skal flyselskapet ha argumentert i retten. De ble ikke hørt.
Les også

Chatbot fant på nye regler. Nå må selskapet punge ut

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.