Il tema della privacy è quello più caldo, in quest’epoca di tech e social, e anche Apple non fa eccezione. La compagnia della Mela ci tiene spesso a sottolineare, come fatto con un suo slogan, che «quello che succede sul tuo iPhone, rimane sul tuo iPhone», ma potrebbe non accadere lo stesso con l’assistente vocale Siri.
Secondo quanto riferito da The Guardian, infatti, Siri delle volte registrerebbe delle clip di audio dopo essersi attivata per sbaglio. L’amichevole assistente vocale di Appel dovrebbe attivarsi sentendo la frase “hey, Siri”, ma a volte percepisce erroneamente parole simili, in altre è risultata attiva anche solo con il rumore di una cerniera. Oltretutto, riferiscono le fonti, Siri si attiva anche quando indossate il vostro Apple Watch, alzate il braccio e iniziate a parlare.
La notizia è stata rivelata al quotidiano da alcuni collaboratori esterni di Apple, che lavorano per verificare e migliorare l’accuratezza dell’assistenza fornita da Siri. Prendendo in analisi le clip fornite dall’assistente vocale, questi professionisti si sono accorti che Siri ha eseguito registrazioni in momenti estremamente inopportuni.
Tra questi momenti, hanno riferito, ci sono anche conversazioni molto private con il proprio medico, rapporti sessuali e anche incontri di lavoro in cui si discutono dettagli d’affari (affari criminali compresi). Queste registrazioni, aggiungono le fonti, vengono associate all’utente e mostrano anche la location dove sono state registrate.
In risposta a questo allarme, Apple ha dichiarato che sta applicando delle misure di sicurezza per impedire che le registrazioni vengano ricollegate all’utente, quando sono sottoposte all’attenzione dei suoi collaboratori. Inoltre, questi audio non sono legati al vostro Apple ID e viene precisato che meno dell’1% delle attivazioni giornaliere di Siri viene inviato per la revisione a questi professionisti. Professionisti che, aggiunge la Mela, sono sottoposti a segreto professionale e non possono divulgare quanto ascoltano nelle registrazioni.
Vedremo se, con la diffusione di queste informazioni, Apple prenderà ulteriori provvedimenti per evitare che Siri si “intrometta” in momenti molto privati della vita degli utenti – rendendo il quadro un po’ più rassicurante e meno distopico.
Fonte: ArsTechnica