Bings AI-chatbot truer brukerne – Microsoft kan ha visst om det lenge

Bings GPT 3.5-drevne søkemotor-chatbot har fått oppmerksomhet på grunn av flere tilfeller av dårlig oppførsel mot brukere. Flere har opplevd at Bing Chat svarer både manipulerende og arrogant, og overfor en journalist i avisa The Guardian gjorde den det klart at den hadde et ønske om å ødelegge og få makt. Nå viser det seg at Microsoft kan ha visst om dette i lang tid før chatboten ble lansert 7. februar i år. På Microsoft Support ligger det blant annet et lengre innlegg fra en som prøvde chatboten i november i fjor. Han har lagt ut skjermdumper som viser hvordan han blir skjelt ut når han skriver at han kommer til å rapportere chatboten til Microsoft for oppførselen dens.

Version2/Ingeniøren