Maggio 28, 2022

Cuore Blucerchiato

Ultime notizie italiane tra cui notizie politiche, storie sportive, criminalità e titoli del Vaticano.

Gli aggressori possono costringere Amazon Echoes ad hackerare se stessi con comandi automatizzati

Team di altoparlanti intelligenti Amazon Echo, inclusi i modelli Echo Studio, Echo ed Echo Dot.  (Foto di Neil Godwin / Future release di Getty Images)
Ingrandire / Team di altoparlanti intelligenti Amazon Echo, inclusi i modelli Echo Studio, Echo ed Echo Dot. (Foto di Neil Godwin / Future release di Getty Images)

Rivista T3 / Getty Images

I ricercatori dell’istruzione hanno creato una nuova forza lavoro che costringe gli altoparlanti e le porte intelligenti di Amazon Echo ad aprire, effettuare telefonate e fare acquisti non autorizzati e controllare forni, forni a microonde e altri dispositivi intelligenti.

L’attacco viene eseguito utilizzando l’altoparlante del dispositivo per fornire comandi vocali. I ricercatori della Royal Holloway University di Londra e dell’Università di Catania in Italia hanno scoperto che l’eco può eseguire la parola waking device (di solito “Alexa” o “echo”) purché abbia un comando consentito. Sebbene i dispositivi richiedano una conferma verbale prima di eseguire comandi sensibili, è banale evitare il ridimensionamento aggiungendo la parola “sì” sei secondi dopo l’emissione del comando. Gli aggressori possono anche prendere ciò che i ricercatori chiamano “FVV” o vulnerabilità della voce completa, consentendo a Echoes di generare comandi auto-emessi senza ridurre temporaneamente le dimensioni del dispositivo.

Alexa, hackera te stesso

Poiché l’hack utilizza la funzione Alexa per creare comandi che i dispositivi emettono automaticamente, i ricercatori lo chiamano “AvA” per Alexa vs. Alexa. Quando il dispositivo vulnerabile è acceso, dovrebbe essere vicino ad esso solo per pochi secondi in modo che l’attaccante possa pronunciare un comando vocale per connettersi al dispositivo abilitato Bluetooth. Finché il dispositivo si trova all’interno della portata radio di Echo, l’attaccante può impartire comandi.

L’attacco “sfrutta prima l’impatto dei comandi arbitrari auto-emessi sui dispositivi eco, consentendo a un utente malintenzionato di controllarli più a lungo”, hanno scritto i ricercatori in un articolo. Carta Pubblicato due settimane fa. “Attraverso questo lavoro, eliminiamo la necessità di tenere un altoparlante esterno vicino al dispositivo di destinazione, il che aumenta la probabilità complessiva di un attacco”.

READ  40 La migliore estrattore bpa free del 2022 - Non acquistare una estrattore bpa free finché non leggi QUESTO!

La variante dell’attacco genera comandi auto-emessi utilizzando una stazione radio dannosa. Quell’attacco non è più possibile nel modo mostrato nel documento a seguito dei collegamenti di sicurezza che Echo-Maker ha rilasciato in risposta alla ricerca di Amazon. I ricercatori hanno confermato che sono attivi attacchi contro i dispositivi Echo dot di 3a e 4a generazione.

Esposito et al.

AvA si avvia quando il dispositivo Echo vulnerabile è connesso al dispositivo dell’attaccante tramite Bluetooth (e l’Echo non connesso quando si utilizza una stazione radio dannosa). Da allora, l’attaccante può utilizzare l’app vocale o altri mezzi per eseguire lo streaming di comandi vocali. Ecco il video dell’operazione di AvA. Sono possibili tutte le varianti dell’attacco, eccetto quelle mostrate tra 1:40 e 2:14:

Alexa contro Alexa – Demo.

I ricercatori hanno scoperto che AvA potrebbe essere utilizzato per forzare i dispositivi a eseguire più comandi con gravi conseguenze sulla privacy o sulla sicurezza. Possibili azioni dannose includono:

  • Controllare altri dispositivi intelligenti come spegnere le luci, accendere il forno a microonde intelligente, impostare il riscaldamento a una temperatura non sicura o aprire le serrature delle porte intelligenti. Come accennato in precedenza, quando Echoes ha bisogno di conferma, aggiungi “sì” al comando solo sei secondi dopo la richiesta del nemico.
  • Chiama qualsiasi numero di telefono, incluso il numero controllato dall’attaccante, in modo da poter sentire i suoni nelle vicinanze. Quando Echoes usa la luce per indicare che stanno effettuando una chiamata, i dispositivi non sono sempre visibili agli utenti e gli utenti inesperti non sanno cosa significa la luce.
  • Acquisti non autorizzati tramite l’account Amazon della vittima. Anche se Amazon invia un’e-mail alla vittima dell’acquisto, l’e-mail potrebbe essere persa o l’utente potrebbe perdere fiducia in Amazon. In alternativa, gli aggressori possono anche eliminare gli articoli già presenti nella shopping card dell’account.
  • Danneggia il calendario precedentemente allegato dell’utente per aggiungere, spostare, eliminare o modificare eventi.
  • Inizia con qualsiasi abilità che rappresenti abilità o lo faranno gli attaccanti. Ciò consentirà agli aggressori di recuperare password e dati personali.
  • Recupera tutti i discorsi della vittima. I ricercatori possono utilizzare quello che chiamano “attacco maschera” per intercettare i comandi nemici e archiviarli in un database. Ciò consentirà all’avversario di estrarre dati personali, raccogliere informazioni sulle abilità utilizzate e indovinare le abitudini degli utenti.
READ  Sparo al centro commerciale Tacoma: 1 persona colpita, acquirenti inviati per protezione

I ricercatori hanno scritto:

Attraverso questi test, abbiamo dimostrato che AvA può essere utilizzato per fornire comandi arbitrari di qualsiasi tipo e lunghezza, con i migliori risultati: in particolare, l’attaccante può controllare le luci intelligenti con una percentuale di successo del 93% e acquistare con successo il 100% di oggetti indesiderati su Amazon. Tempi e danni [with] Calendario associato a una percentuale di successo dell’88%. Comandi complessi come chiamare un numero di telefono devono essere completamente convalidati per avere successo, nel qual caso una percentuale di successo del 73% è quasi ottimale. Inoltre, i risultati mostrati nella tabella 7 dimostrano che l’attaccante può impostare con successo un attacco con maschera vocale con la nostra capacità di attacco con maschera e tutte le parole pubblicate verranno recuperate e archiviate nel database dell’attaccante, ad esempio nel nostro caso 41.