2018/06/01

Assistenti vocali troppo pettegoli: Amazon Echo cattura e invia conversazione privata

Amazon Echo in versione HAL.
Credit: Cryteria (CC-BY).
Ricordate quando dicevo che mettersi in casa un microfono sempre aperto e connesso a Internet, come per esempio un Google Home o un Amazon Echo, era una pessima idea perché esponeva al rischio che qualcuno ascoltasse le conversazioni? È successo. Non ci voleva un genio particolare per prevederlo, per cui non mi voglio prendere meriti da profeta, ma almeno un “ve l’avevo detto” credo di potermelo permettere.

Un assistente vocale (o “altoparlante smart”) Echo di Amazon, installato in una casa a Portland, in Oregon, ha ascoltato, registrato e inviato una conversazione privata tra moglie e marito a un conoscente degli abitanti della casa che vive a Seattle. Amazon ha confermato la notizia, accolta inizialmente con una certa incredulità.

Tutto è iniziato a metà maggio scorso con una telefonata da uno dei dipendenti della coppia, che avvisava di scollegare subito i dispositivi di Amazon presenti in casa perché erano stati “hackerati”. Il dipendente ha spiegato che aveva ricevuto dei file audio che contenevano registrazioni delle conversazioni avvenute nella casa. La coppia, inizialmente incredula, ha dovuto ricredersi quando il dipendente ha descritto il contenuto di una conversazione e poi gliel’ha fatta riascoltare.

Amazon, contattata dalla coppia, si è scusata, ha analizzato i log dell’altoparlante smart e ha spiegato come è avvenuta la violazione della sfera privata: il dispositivo Echo, permanentemente in ascolto, ha captato delle parole nella conversazione della coppia che ha interpretato come un comando di attivazione (il comando standard è il nome Alexa). Poi ne ha captate delle altre che ha interpretato come una richiesta di inviare un messaggio (send message).

A questo punto Echo ha detto “To whom?” (“A chi?”) e poi si è messo in ascolto in attesa che qualcuno dicesse il nome del destinatario del messaggio. La coppia, ignara della richiesta e del microfono aperto, ha proseguito la propria conversazione ed Echo ha interpretato alcune delle loro parole come il nome di una persona presente nella rubrica dei contatti.

Echo ha poi chiesto conferma dicendo “[nome del contatto], right?” e si è messo in attesa di una risposta. Intanto la coppia ha continuato a parlare ed Echo ha interpretato erroneamente alcune delle loro parole come una conferma (“right”) e quindi ha inviato il messaggio, contenente un brano della conversazione.

In sintesi:
  • Coppia: bla bla bla bla bla
  • Echo capisce che gli è stato ordinato di mandare un messaggio e chiede “A chi?”
  • Coppia: bla bla bla bla bla
  • Echo capisce che gli è stato detto il nome del contatto a cui mandare il messaggio e chiede “A [nome], giusto?”
  • Coppia: bla bla bla bla bla
  • Echo capisce che gli è stato risposto “Giusto”, inizia a registrare il “messaggio” e lo manda al contatto.

Tre errori di interpretazione concatenati sono un evento improbabile, certo, ma l’evento improbabile è avvenuto, dimostrando chiaramente che questi dispositivi possono fraintendere facilmente i comandi vocali e addirittura inventarsene quando non ne sono stati dati.

La coppia ha chiesto ad Amazon il rimborso dei dispositivi Alexa. Amazon per ora non ha accettato e ha dichiarato che sta prendendo “misure affinché questo non succeda in futuro”.


Fonte aggiuntiva: Ars Technica.

Nessun commento:

Posta un commento

Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.

Pagine per dispositivi mobili