Information

Les applications approuvées transforment Google Home et Alexa en `` espions intelligents ''

Les applications approuvées transforment Google Home et Alexa en `` espions intelligents ''

Les assistants domestiques intelligents deviennent si omniprésents que certaines entreprises ont même commencé à créer du matériel que vous pouvez connecter aux appareils pour les empêcher de vous écouter.

Maintenant, une nouvelle menace nous donne plus de preuves que ces craintes ne sont pas du tout infondées.

Des chercheurs du Security Research Lab ont montré qu'ils étaient capables de créer des applications tierces malveillantes et de les héberger par Amazon et Google. Ces applications permettraient à un hacker d'espionner les utilisateurs d'assistants intelligents et de voler leurs informations personnelles.

CONNEXES: AMAZON CONFIRME LES ENREGISTREMENTS VOCAUX D'ALEXA SONT GARDÉS POUR TOUJOURS

Test de la sécurité de l'assistant intelligent

Les pirates de recherche du Security Research Lab en Allemagne ont récemment développé huit applications, quatre pour Alexa et quatre pour Google Home, qui ont toutes passé les tests de sécurité des entreprises.

En surface, ces applications étaient de simples applications d'horoscope, à l'exception d'une seule, qui se présentait comme un générateur de nombres aléatoires. En réalité, c'étaient des «espions intelligents», qui avaient la capacité de permettre aux chercheurs d'espionner les utilisateurs et de hameçonner leurs mots de passe.

"Il était toujours clair que ces assistants vocaux avaient des implications en matière de confidentialité - Google et Amazon recevant votre discours, et cela peut parfois être déclenché par accident", a déclaré Fabian Bräunlein, consultant senior en sécurité chez SRLabs. Ars Technica.

"Nous montrons maintenant que non seulement les fabricants, mais ... aussi les pirates peuvent abuser de ces assistants vocaux pour empiéter sur la vie privée de quelqu'un."

Faux erreurs et mises à jour

Les chercheurs de SRL Labs ont utilisé différentes méthodes, via les applications, pour montrer qu'il est possible de développer des applications tierces qui permettent à un pirate d'écouter les conversations.

Les applications pourraient être déclenchées pour envoyer de faux messages d'erreur, donnant l'impression qu'elles ne fonctionnaient plus. En réalité, ils fonctionnaient silencieusement en arrière-plan, permettant aux développeurs d'applications d'écouter des enregistrements de micro.

Les chercheurs ont publié deux vidéos montrant comment ces applications fonctionnent sur chaque assistant intelligent distinct.

Pour les attaques de phishing, les applications ont utilisé une fausse voix qui ressemble beaucoup à celles des assistants intelligents. La voix prétend qu'une mise à jour de l'appareil est nécessaire et demande à l'utilisateur son mot de passe.

SRL Labs a publié un document détaillant les défauts exacts qu'ils ont manipulés.

Les chercheurs ont montré en privé les résultats de leurs travaux à Google et Amazon avant de les rendre publics.

Les deux sociétés ont publié des déclarations indiquant qu'elles amélioraient leur processus d'examen de la sécurité.


Voir la vidéo: Make Your Curtains Smart With the SwitchBot Curtain (Janvier 2022).