FORBRUKERTEKNOLOGI

Tredjeparter kan lytte til ekstremt sensitive Siri-samtaler ingen er ment å høre – nå tar Apple grep

4. aug. 2019 - 20:54

Forrige uke fikk den britiske avisen The Guardian opplyst at kontraktører som jobber for Apple regelmessig lytter til deler av Siri-samtaler som et ledd i å forbedre Siri-teknologien, og at disse kontraktørene noen ganger får tilgang til svært personlig og sensitiv informasjon

I kjølvannet av rapporten har Apple nå valgt å ta grep, som The Guardian meldte på fredag.

Avslutter praksisen og gir brukere valg

Selskapet kunngjorde overfor avisen at de inntil videre avslutter praksisen med å evaluere og forbedre Siri-kvaliteten ved hjelp av tredjeparts-tjenesteleverandører mens selskapet gjennomfører en grundig undersøkelse av praksisen.

I tillegg bekrefter Apple at de vil gi brukere mulighet til å melde seg helt ut av evalueringen dersom de ønsker det. Dette vil komme på plass i en fremtidig programvareoppdatering, uten at det er klart når denne vil foreligge.

I den opprinnelige rapporten hos The Guardian bekreftet Apple at en liten andel av Siri-forespørsler analyseres og brukes til å forbedre Siri og dikteringsteknologien.

Ifølge Apple er det mindre enn én prosent av daglige Siri-aktiveringer  som brukes vilkårlig i dette henseende, og selskapet bedyrer at analysene skjer under strenge konfidensialitetskrav og i sikre anlegg. Klippene som brukes skal ikke være mer enn noen sekunder lange, og skal ikke inneholde noen identifikatorer som kan knyttes til brukerens Apple ID.

Aktiveres ved uhell

Anonyme kilder blant leverandørene av disse tjenestene opplyste imidlertid at mange av klippene som sendes til dem stammer fra Siri-aktiveringer som skjer ved et uhell – og i de tilfellene kan svært sensitive data bli eksponert.

 – Det har vært tallrike tilfeller av opptak av private diskusjoner mellom doktorer og pasienter, bedriftsavtaler, tilsynelatende kriminelle aktiviteter, seksuell aktivitet og så videre. Disse opptakene er akkompagnert av brukerdata som viser lokasjon, kontaktdetaljer og app-data, sa en av kildene til The Guardian.

Siri kan som kjent aktiveres av triggerord som ved et uhell kan dukke opp i samtaler, og noen ganger ikke av ord i det hele tatt, men lyder. I tillegg finnes det andre måter å aktivere Siri på. Hvis for eksempel en Apple Watch-klokke registrerer å ha blitt løftet opp og deretter hører tale, vil Siri-aktiveres.

Apple er ikke det eneste selskapet som har opplevd denne type kompromittering av personvern. Forrige måned meldte digi.no at medier hadde fått tilgang til private samtaler som følge av lekkasjer fra en underleverandør som har blitt hyret for å utbedre stemmestyringssystemet til Google Assistant.

Som en følge av dette har Google nå startet en full, intern granskning av praksisen.

Les også: Google fant flere alvorlige iPhone-sårbarheter »

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.