Ledige stillingerNyhetsbrevNyhetsstudioTips oss

Ledige stillingerNyhetsbrevNyhetsstudioTips oss
Abonner
22:31:06

Nyhetsstudio

SisteMest lest
06:09 - Redaksjonen

Ansatte lekker sensitiv info til språkmodeller

Oppstartselskapet Prompt Shields bygger et beskyttende lag mellom ansatte og kunstig intelligens-tjenester som Chat GPT, skriver Kode24.

– I dag brukes generativ AI bredt av ansatte – ofte uten tilsyn. Det fører til at sensitive data potensielt kan lekke til tredjepartsleverandører uten at ledelsen har innsikt eller kontroll.

Det sier Tage Ringstad, driftssjef i det nyoppstartede selskapet Prompt Shields, til Kode24. Han sa nylig opp jobben som investeringssjef i investeringsselskapet Antler for å bygge opp Prompt shields sammen med Jun Seki, som er daglig leder i selskapet. Med Prompt Shields hevder de to å kunne hindre at data kommer på avveie når ansatte bevisst eller ubevisst sender data ut av bedriften via KI-tjenester som for eksempel Chat GPT. (hf)

Tips oss

Ansvarlig redaktør

Kristina Fritsvold Nilsen

Nyhetsredaktør

Tor M. Nondal

  • RSS-feed forside
  • Facebook
  • Linkedin
  • Bsky
  • Annonser
  • Nyhetsbrev
  • Vilkår og bruksbetingelser
  • KI-retningslinjer

All journalistikk er basert på Vær varsom-plakaten og Redaktørplakaten

© 1995-2025 Teknisk Ukeblad Media AS