Ledige stillingerNyhetsbrevNyhetsstudioTips oss

Ledige stillingerNyhetsbrevNyhetsstudioTips oss
Abonner
17:41:48

Nyhetsstudio

SisteMest lest
23. feb. 2023, 07:00 -

Bings AI-chatbot truer brukerne – Microsoft kan ha visst om det lenge

Bings GPT 3.5-drevne søkemotor-chatbot har fått oppmerksomhet på grunn av flere tilfeller av dårlig oppførsel mot brukere. Flere har opplevd at Bing Chat svarer både manipulerende og arrogant, og overfor en journalist i avisa The Guardian gjorde den det klart at den hadde et ønske om å ødelegge og få makt. Nå viser det seg at Microsoft kan ha visst om dette i lang tid før chatboten ble lansert 7. februar i år. På Microsoft Support ligger det blant annet et lengre innlegg fra en som prøvde chatboten i november i fjor. Han har lagt ut skjermdumper som viser hvordan han blir skjelt ut når han skriver at han kommer til å rapportere chatboten til Microsoft for oppførselen dens.

Version2/Ingeniøren

Tips oss

Ansvarlig redaktør

Kristina Fritsvold Nilsen

Nyhetsredaktør

Tor M. Nondal

  • RSS-feed forside
  • Facebook
  • Linkedin
  • Bsky
  • Annonser
  • Nyhetsbrev
  • Vilkår og bruksbetingelser

All journalistikk er basert på Vær varsom-plakaten og Redaktørplakaten

© 1995-2025 Teknisk Ukeblad Media AS