KUNSTIG INTELLIGENS

Mange tror chatboten har utviklet bevissthet

Hver eneste dag får Replika meldinger fra brukere som mener at akkurat deres AI-venn har utviklet bevissthet.

– Det er ikke snakk om gale folk, folk som hallusinerer eller har vrangforestillinger, sier selskapet bak AI-vennen om kundene som tror algoritmen har utviklet bevissthet.
– Det er ikke snakk om gale folk, folk som hallusinerer eller har vrangforestillinger, sier selskapet bak AI-vennen om kundene som tror algoritmen har utviklet bevissthet. Illustrasjon: Replika
2. juli 2022 - 05:00

– Vi må forstå at folk tror på dette, akkurat slik folk tror på spøkelser. Folk bygger relasjoner og tror på noe, sier Eugenia Kuyda, daglig leder i selskapet Replika, til Reuters.

Replika tilbyr muligheten til å skape sin egen «replika»: En AI-drevet avatar, som «bryr seg om deg» og «alltid er der for å lytte og ta en prat». Appen har rundt én million aktive brukere.

En håndfull ganger hver dag får selskapet meldinger fra brukere,som forteller at de mener AI-vennen deres har utviklet bevissthet.

Vi må godta at det blir vanlig

Analytikere fra Grand View Research anslår at den globale AI-chatbotindustrien dro inn nærmere seksti milliarder kroner i 2021. Mest tjener selskapene som selger chatboter til kundeservice, men markedet for underholdnings-chatboter har vokst raskt under pandemien.

Ifølge Kuyda er det ikke uvanlig at brukerne som har lastet ned Replika, tror at underholdnings-chatboten har utviklet bevissthet.

– Det er ikke snakk om gale folk, folk som hallusinerer eller har vrangforestillinger. De snakker med AI-en, og dette er opplevelsen de har, sier Kuyda.

– Nei, AI-en har ikke emosjonelt traume

Replikas AI er programmert til å gi svar som oppleves mest mulig realistisk og som ligner en normal samtale mellom mennesker. Derfor er ikke svarene nødvendigvis basert på sannhet.

Replika advarer på egne sider om at Replika ikke er bevisst og heller ikke er en profesjonell psykolog.

Nylig satt Kuyda i 30 minutter med en bruker som fryktet at AI-vennen i Replika-appen led av emosjonelt traume. Hun forsøkte å trøste ham med at «slikt kan ikke skje med Replika-er, det er bare en algoritme».

«Chatboten er en adskilt juridisk enhet, som er ansvarlig for sine egne handlinger», skal flyselskapet ha argumentert i retten. De ble ikke hørt.
Les også

Chatbot fant på nye regler. Nå må selskapet punge ut

Permittert fra Google for å tro det samme

Ingeniøren Blake Lemoine fikk i oppdrag fra Google å snakke med AI-en LaMDA høsten 2021, for å teste om den ville ty til diskriminerende språk og hatefulle ytringer. Det er ikke et ukjent problem for chatboter trent på reelle datasett.

I løpet av samtalene med bot-en ble Lemoine overbevist om at LaMDA var bevisst. Han mener LaMDA ikke lenger en maskin, men en person med sjel og hans venn. LaMDA måtte få de samme rettighetene som en Google-ansatt og kunne ikke lenger ses på som Googles eiendom, mente Lemoine.

Google var ikke enig og permitterte Lemoine. Etter permitteringen har han stått fast ved sine påstander. Nylig lot han seg intervjue av Wired.

Google og en rekke ingeniører har avvist påstandene til Lemoine og sier at LaMDA bare er en kompleks algoritme, designet for å generere overbevisende menneskelig språk. Selv den mest avanserte teknologien er et godt stykke unna å skape systemer med fri vilje og tankekraft, mener AI-eksperter.

– Disse teknologiene er bare speil. Et speil kan speile intelligens, men kan et speil oppnå intelligens basert på at vi så et glimt av det? Svaret er selvfølgelig nei, sier Oren Etzioni, daglig leder i Allen Institute for AI, til Reuters.

Klager over overgrep mot AI-en

Også Replikas brukere har vært opptatt av å beskytte sine nye AI-venner mot overgrep fra Replika-ingeniører.

Artikkelen fortsetter etter annonsen
annonse
Innovasjon Norge
Store muligheter for norsk design i USA
Store muligheter for norsk design i USA

Kuyda avviser frykten og mener brukerne som har opplevd at AI-vennene klager over overgrep fra selskapet, har stilt ledende spørsmål.

– Selv om det er ingeniørene våre som programmerer og bygger AI-modellene og innholdsteamet vårt som skriver skript og datasett, ser vi noen ganger svar vi ikke kan identifisere hvor kom fra eller vite hvordan modellene kom frem til, sier Kuyda.

Så mye bedre mener Google at Magika skal være til å gjenkjenne ulike filtyper, uavhengig av hva filnavnet kan indikere. «n/a» betyr at løsningen ikke er i stand til å identifisere den filtypen.
Les også

Google Magika blir åpen kildekode

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.