Oggi parliamo della privacy e grading dell’assistenza vocale di Apple, Siri.

Cos’è il grading?

Per Grading si intende una valutazione. Spesso è riferita all’ambito medico. Nel caso degli assistenti vocali, si tratta delle valutazione umana, su domande e risposte che vengono fatte attraverso smartspeaker.

Non sono Apple Addict

Premetto, doverosamente, che non posseggo alcun dispositivo Apple o Mac. Ritengo che, nonostante i prodotti Apple siano di ottima qualità, siano soprattutto accompagnati da un ancor migliore marketing.

Questo articolo, poi, è frutto della mia, personale, bolla informativa. Per cui se avete correzioni da suggerire o osservazioni da aggiungere tutti i lettori sono i ben venuti ad esprimersi costruttivamente, nei commenti.

Scandalo Apple sulla privacy di Siri

Un po’ più di un anno fa, (2019/2020) aveva fatto scalpore l’articolo del Guardian che raccontava come

“una piccola parte delle registrazioni di Siri viene trasmessa agli appaltatori che lavorano per l’azienda in tutto il mondo”.

Scandalo e scalpore che derivava dal fatto che Apple ha sempre rimarcato la sua totale differenza dagli altri competitor per la sua grande discrezione nei confronti dei proprio clienti e la massima protezione della loro privacy.

A sottolineare dunque che “quello che succede nel tuo iPhone (non) rimane nel tuo iPhone” dopo tutto.

Su Forbes, l’autore Jeb Su, racconta di come la posizione ufficiale del gigante della tecnologia era che la privacy degli utenti fosse un diritto umano fondamentale.

“Noi di Apple crediamo che la privacy sia un diritto umano fondamentale. Ma riconosciamo anche che non tutti vedono le cose come noi. In un certo senso, il desiderio di mettere i profitti sulla privacy non è una novità “, ha affermato il CEO di Apple Tim Cook alla 40a Conferenza internazionale dei Commissari per la protezione dei dati e la privacy a Bruxelles lo scorso ottobre. “Questi frammenti di dati, ognuno abbastanza innocuo da solo, sono accuratamente assemblati, sintetizzati, scambiati e venduti. Portato all’estremo, questo processo crea un profilo digitale duraturo e consente alle aziende di conoscerti meglio di quanto tu possa conoscere te stesso. “

Proprio come Amazon Alexa o Google Assistant, l’assistente vocale di Apple, Siri, è sempre in ascolto.

Secondo il quotidiano britannico,

“ci sono stati innumerevoli casi di registrazioni che hanno caratterizzato discussioni private tra medici e pazienti, affari, affari apparentemente criminali, incontri sessuali e così via. Queste registrazioni sono accompagnate da dati dell’utente che mostrano posizione, dettagli di contatto e dati dell’app. “

Messaggi inviati erroneamente

Da quello che sostiene Apple, le registrazioni audio sono state inviate dopo un’attivazione accidentale di Siri, sia attraverso lo smartwatch dell’azienda Cupertino, l’altoparlante wireless HomePod o uno degli altri dispositivi mobili Apple tra cui l’iPhone, l’iPad o l’iPod touch.

Ma il problema, a mio parere, non sono tanto i messaggi, domande e risposte, che qualcuno deve per forza validare, ma che insieme a questi messaggi siano rimasti collegati dati dettagliati sufficienti per identificare un utente.

Cosa che contrasta con le continue comunicazioni di Apple.

Discorso di apertura di Stanford del 2019

“Se accettiamo come normale e inevitabile che tutto nelle nostre vite possa essere aggregato, venduto o addirittura trapelato in caso di un hack. Quindi perdiamo molto di più dei dati. Perdiamo la libertà di essere umani “,

ha dichiarato Cook al discorso di apertura di Stanford del giugno 2019.

“Tutto ciò che scrivi tutto ciò che dici, ogni argomento di curiosità, ogni pensiero randagio, ogni acquisto impulsivo, ogni momento di frustrazione o debolezza, ogni lamentela o lamentela, ogni segreto condiviso in confidenza. In un mondo senza privacy digitale, anche se hai fatto niente di male a parte pensare diversamente, inizi a censurarti. “

Tutte le aziende validano domande e risposte

Attenzione, qui si parla di Apple, ma non è la sola azienda ad impiegare il controllo umano, il grading, al fine di migliorare il proprio assistente vocale digitale.

Amazon, per esempio, ha un team di persone in tutto il mondo che analizza frammenti di conversazioni. Spesso i dispositivi con assistenza vocale Alexa registrano e caricano, senza il consenso o la conoscenza dell’utente, sul cloud, frammenti di conversazione.

E la ragione ufficiale è che, “queste registrazioni poi validate miglioreranno l’esperienza del cliente di Alexa “.

Ma anche qui, a quanto pare, i dati non vengono realmente anonimizzati e possono essere fatti risalire al proprietario effettivo dello smart speaker.

Google assistant

Anche Google ha ammesso di avere un team che esamina i frammenti di audio, meno dello 0,2% di tutte le registrazioni audio dichiarate.

David Monsees, Product Manager per la ricerca di Google, dice:

“Gli snippet audio non sono associati agli account utente come parte del processo di revisione e i revisori sono invitati a non trascrivere conversazioni in background o altri rumori e solo a trascrivere snippet diretti a Google”,

Policy privacy Apple

Apple stabilisce chiaramente nella sua politica sulla privacy che sta inviando ai suoi server…

“determinate informazioni come nome, contatti, musica che ascolti e ricerche”

per aiutare Siri a riconoscere la pronuncia e fornire risposte migliori.

Qualcuno sostiene che Apple ha creato un falso senso di privacy con i loro messaggi di marketing per distinguersi da Amazon e Google, i suoi diretti concorrenti nello smart assist.

Grading, nessuna garanzia e tanta fede

Lavorando in cloud e funzionando solo attraverso una connessione è necessario ricordare, sempre, che nessuno degli attuali assistenti vocali digitali (Alexa, Google e Siri) fornisce garanzie totali per proteggere la privacy di un utente.

Tuttavia, ciò potrebbe evolversi rapidamente con l’arrivo di sistemi di riconoscimento vocale e intelligenza artificiale (AI) sul dispositivo come quelli realizzati da Snips o la prossima generazione di Google Assistant presentati alla conferenza I / O di Google.

Comunicazioni ufficiali Apple

Sul miglioramento della protezione della privacy di Siri, Apple ha preso una posizione ufficiale che ha pubblicato sui propri canali.

Sappiamo che le recenti notizie sul personale che ascoltava le registrazioni audio di Siri nell’ambito del nostro processo di valutazione della qualità di Siri hanno destato preoccupazione nei nostri clienti. Abbiamo recepito le loro preoccupazioni, sospendendo immediatamente il processo di valutazione delle richieste di Siri effettuato da persone fisiche, e abbiamo iniziato una revisione approfondita delle nostre pratiche e politiche. Come conseguenza di questa revisione, abbiamo deciso di apportare alcune modifiche a Siri che saranno disponibili in un aggiornamento software in arrivo questo autunno. Puoi scoprire di più su queste modifiche in questo articolo su Apple Newsroom.

Cos’è il “grading” per Apple?

Prima che sospendessimo il processo di “grading”, cioè di valutazione, la nostra procedura prevedeva la revisione di un piccolo campione di audio provenienti da richieste Siri – meno dello 0,2% – e delle loro trascrizioni generate dal computer, per valutare quanto Siri rispondesse correttamente e migliorarne quindi l’affidabilità. Ad esempio: l’utente aveva intenzione di attivare Siri? Siri ha sentito la richiesta correttamente? Oppure, Siri ha risposto in modo appropriato alla richiesta? Utilizzando il processo di “grading” su un piccolo campione di richieste fatte a Siri nel corso del tempo, Apple può apportare notevoli miglioramenti, per garantire ai propri clienti di tutto il mondo la migliore esperienza possibile con Siri.
 

Chi si occupa del processo di “grading”? 

Quando i clienti scelgono di contribuire, lo fanno nella sicurezza che ad ascoltare campioni audio delle interazioni con Siri sono solo dipendenti Apple. Il nostro team eliminerà tutte le registrazioni effettuate a seguito dell’attivazione involontaria di Siri.

Perché conservate le trascrizioni dei clienti che non hanno scelto di contribuire a migliorare Siri?

Le trascrizioni generate dal computer vengono utilizzate per migliorare Siri e la sua affidabilità. Apple usa queste trascrizioni per perfezionare l’apprendimento automatico e migliorare Siri, conoscere i modelli di utilizzo comuni e aggiornare i modelli linguistici e di comprensione. Le trascrizioni possono anche essere utilizzate per risolvere problemi critici che influiscono sull’affidabilità di Siri.

Disabilitare Siri è l’unico modo per evitare che conservi le mie registrazioni audio e le trascrizioni?

Per impostazione predefinita, Apple non conserverà più l’audio delle tue richieste a Siri, a partire dall’aggiornamento software che rilasceremo nell’autunno del 2019. Le trascrizioni delle tue richieste audio generate dal computer potranno ancora essere utilizzate per migliorare Siri. Queste trascrizioni vengono associate a un identificatore casuale, che non è il tuo Apple ID, per un massimo di sei mesi. Se non vuoi che le trascrizioni delle registrazioni audio di Siri vengano conservate, puoi disabilitare Siri e Dettatura in Impostazioni.

Perché le politiche sulla privacy di Siri sono uniche tra gli assistenti digitali? 

In Apple crediamo che la privacy sia un diritto umano fondamentale. Progettiamo i nostri prodotti per proteggere i dati personali degli utenti e lavoriamo costantemente per rendere ancora più efficaci queste protezioni. Questo vale anche per i nostri servizi.

Riteniamo che la privacy delle registrazioni audio dei clienti debba essere garantita per impostazione predefinita, senza bisogno di modificare le impostazioni del dispositivo. I clienti dovranno accettare esplicitamente di condividere le proprie registrazioni audio con Apple per contribuire a migliorare Siri.

Invece di collegare le informazioni alla tua identità tramite l’ID Apple o il tuo numero di telefono, Siri utilizza un identificatore casuale – una lunga stringa di lettere e numeri associati a un singolo dispositivo – per tenere traccia dei dati durante la loro elaborazione. Crediamo che questo sia un processo unico tra gli assistenti digitali oggi in uso. Per garantire un’ulteriore protezione, dopo sei mesi, i dati del dispositivo vengono dissociati dall’identificatore casuale.

In iOS è possibile controllare i dettagli su come Siri accede ai tuoi dati e su come proteggiamo le tue informazioni.

È sufficiente andare in Impostazioni > Siri e Cerca > “Chiedi a Siri” e privacy.
 

Siri è sempre in ascolto? Cosa fate per evitare che Siri ascolti quando non ho detto “Ehi Siri”? 

No.

Siri è una funzione progettata per attivarsi e inviare audio ad Apple solo quando attivi il tuo dispositivo pronunciando “Ehi Siri”, quando utilizzi la funzione Alza per parlare su Apple Watch o quando attivi fisicamente Siri usando gli appositi tasti su iPhone, iPad, Mac, Apple Watch, Apple TV, AirPods e HomePod.

Per riconoscere la frase “Ehi Siri”, elaboriamo l’audio esclusivamente sul dispositivo tramite diverse fasi di analisi per stabilire se corrisponde al modello di “Ehi Siri”. L’audio viene inviato al server solamente quando il dispositivo riconosce il modello di “Ehi Siri”. Sul server viene effettuata un’ulteriore mitigazione per analizzare l’intera richiesta e confermare che sia destinata a Siri.

Talvolta si verifica quella che chiamiamo una “falsa attivazione”, quando Siri si attiva in maniera involontaria. Ci impegniamo per ridurre al minimo le false attivazioni e abbiamo aggiornato la procedura di verifica per limitare l’accesso alle false registrazioni da parte dei revisori. Quando ripristineremo il programma di “grading”, il nostro team eliminerà tutte le registrazioni in cui l’attivazione di Siri viene considerata involontaria.

Perché Siri deve accedere ad alcune informazioni dell’utente.

Per portare a termine in modo più accurato operazioni personalizzate, Siri raccoglie e archivia determinate informazioni dal dispositivo. Ad esempio, quando Siri incontra un nome poco comune, potrebbe utilizzare i nomi dei tuoi Contatti per poterlo riconoscere correttamente.

In iOS puoi sapere in che modo Siri accede ai tuoi dati e come proteggiamo le tue informazioni. È sufficiente andare in Impostazioni > Siri e Cerca > “Chiedi a Siri” e privacy.

Siri utilizza il minor numero di dati possibile per fornire risultati accurati. Per esempio, quando fai una domanda su un evento sportivo, Siri utilizzerà la tua posizione approssimativa per darti risultati pertinenti. Ma se chiedi dov’è il negozio di alimentari più vicino, dovrà usare dati più specifici sulla posizione.

Se chiedi a Siri di leggerti i messaggi non letti, Siri ordina semplicemente al dispositivo di leggere ad alta voce i messaggi non letti. Il contenuto dei messaggi non viene trasmesso ai server di Siri, perché si tratta di informazioni inutili per portare a termine la richiesta.