Google Assistant

Google Assistant potrebbe essere hackerato tramite frequenze ultrasoniche

Gli assistenti vocali sono entrati prepotentemente nel nostro quotidiano, il più discusso del momento è proprio Google Assistant. Se da un lato stanno migliorando esponenzialmente molti aspetti della nostra vita, dall’altro presentano ancora molti lati sconosciuti. Un tema molto dibattuto, anche in relazione all’applicazione pratica, riguarda la sicurezza.

Secondo uno studio dell’università di Berkeley, Google Assistant potrebbe ricevere comandi subliminali via radio

Google Assistant

La sicurezza rispetto a Google Assistant rimane ancora un campo poco conosciuto. Il lavoro dell’università di Berkeley è incentrato proprio nell’analizzare eventuali falle di questi dispositivi. Pare infatti che il device in questione leggerebbe dei segnali impossibili da percepire all’orecchio umano. In pratica si tratta di segnali audio all’interno di musica o video in riproduzione riconoscibili soltanto dal software dell’assistant. Un’altra ricerca, portata avanti dalla Zhejiang University, dimostra anche che l’assistente smart sarebbe suscettibile alle frequenze ultrasoniche. Quindi, secondo le ricerche, una rimodulazione delle tracce audio porterà a dare dei comandi nascosti ai device.

Potrebbe interessarti anche: Google Duplex è l’intelligenza artificiale che sembra umana

Nonostante non ci siano ancora stati casi di violazioni, le ricerche aprono a degli scenari inquietanti. Infatti con la domotizzazione completa delle case utilizzando questi mezzi si potrà aver accesso proprio agli appartamenti. Immaginiamo uno scenario dove mandando un segnale segnale nascosto, si possano aprire delle porte, oppure acquistare merce, in maniera illegale. Abbiamo parlato maggiormente nell’articolo riferendoci a Google Assistant, però le ricerche dell’università di Berkeley sono estese anche agli altri assistenti. Infatti sia Amazon Alexa che Siri di Apple sono soggetti alle stesse falle.

[su_app]