Ansatte lekker sensitiv info til språkmodeller
Oppstartselskapet Prompt Shields bygger et beskyttende lag mellom ansatte og kunstig intelligens-tjenester som Chat GPT, skriver Kode24.
– I dag brukes generativ AI bredt av ansatte – ofte uten tilsyn. Det fører til at sensitive data potensielt kan lekke til tredjepartsleverandører uten at ledelsen har innsikt eller kontroll.
Det sier Tage Ringstad, driftssjef i det nyoppstartede selskapet Prompt Shields, til Kode24. Han sa nylig opp jobben som investeringssjef i investeringsselskapet Antler for å bygge opp Prompt shields sammen med Jun Seki, som er daglig leder i selskapet. Med Prompt Shields hevder de to å kunne hindre at data kommer på avveie når ansatte bevisst eller ubevisst sender data ut av bedriften via KI-tjenester som for eksempel Chat GPT. (hf)