Les pirates peuvent utiliser des lasers pour " communiquer " avec votre Amazon Echo ou Google Home

En envoyant des " commandes de lumière " alimentées par laser à un assistant intelligent, les chercheurs pourraient l'obliger à déverrouiller des voitures, à ouvrir des portes de garage, et plus encore.


Signal lumineux transformé en signal numérique

Au printemps de l'année dernière, Takeshi Sugawara, chercheur en cybersécurité, est entré dans le laboratoire de Kevin Fu, un professeur en visite à l'Université du Michigan. Il voulait montrer un truc étrange qu'il avait découvert. Sugawara a pointé un laser puissant sur le microphone de son iPad - le tout à l'intérieur d'une boîte en métal noir, pour éviter de brûler ou d'aveugler qui que ce soit - et a demandé à Fu de mettre une paire d'écouteurs pour écouter le son que le micro du iPad captait. Comme Sugawara a fait varier l'intensité du laser dans le temps sous la forme d'une onde sinusoïdale, fluctuant à environ 1 000 fois par seconde, Fu a capté un son aigu distinct. Le microphone de l'iPad avait inexplicablement converti la lumière du laser en un signal électrique, tout comme il le ferait avec le son.
Six mois plus tard, Sugawara, en compagnie de Fu et d'un groupe de chercheurs de l'Université du Michigan, en visite à l'Université d'Electro-Communications de Tokyo, a affiné cette curieuse bizarrerie photoacoustique en quelque chose de beaucoup plus inquiétant. Ils peuvent maintenant utiliser des lasers pour " parler " silencieusement à n'importe quel ordinateur qui reçoit des commandes vocales, y compris les smartphones, les haut-parleurs Amazon Echo, Google Homes et les dispositifs de chat vidéo du portail Facebook. Ce tour d'espion leur permet d'envoyer des " commandes légères " à des centaines de mètres ; ils peuvent ouvrir des garages, faire des achats en ligne, et causer toutes sortes de méfaits ou de malveillances. L'attaque peut facilement passer à travers une fenêtre, lorsque le propriétaire de l'appareil n'est pas à la maison pour remarquer un point lumineux clignotant ou les réponses de l'appareil cible.
"Il est possible de faire en sorte que les microphones réagissent à la lumière comme s'il s'agissait d'un son ", dit Sugawara. "Cela signifie que tout ce qui agit sur les commandes sonores agira sur les commandes lumineuses."
Au cours des mois d'expérimentation qui ont suivi les premières découvertes de Sugawara, les chercheurs ont découvert que lorsqu'ils pointaient un laser sur un microphone et changeaient l'intensité à une fréquence précise, la lumière perturbait d'une certaine façon la membrane du microphone à cette même fréquence. Le positionnement n'avait pas besoin d'être particulièrement précis; dans certains cas, ils inondaient simplement l'appareil de lumière. Sinon, ils ont utilisé un Téléobjectif et un trépied à engrenages pour frapper leur marque.
Par conséquent, le microphone a interprété la lumière entrante en un signal numérique, exactement comme elle sonnait. Les chercheurs ont ensuite essayé de modifier l'intensité du laser au fil du temps pour qu'elle corresponde à la fréquence d'une voix humaine, en dirigeant le faisceau vers les microphones d'une collection d'appareils grand public qui acceptent les commandes vocales.
Lorsqu'ils ont utilisé un laser de 60 milliwatts pour " parler " des commandes à 16 différents haut-parleurs intelligents, téléphones intelligents et autres dispositifs à commande vocale, ils ont constaté que presque tous les haut-parleurs intelligents enregistraient les commandes à une distance de 164 pieds, la distance maximale qu'ils testaient. Les smartphones se sont avérés plus délicats : un iPhone n'était sensible qu'à partir d'une portée d'environ 33 pieds, et deux téléphones Android ne pouvaient être contrôlés qu'à partir d'environ 16 pieds.

Commande à distance des équipements connectés

Les commandes " vocales " transmises par ce faisceau laser, soulignent les chercheurs, seraient totalement silencieuses. Un observateur pourrait remarquer une tâche bleue clignotante sur son microphone - s'il était même à la maison pour la voir. "Vos suppositions sur le blocage du son ne sont pas vraies en ce qui concerne le blocage de la lumière ", dit Daniel Genkin, professeur à l'Université du Michigan qui a codirigé l'équipe. "Ce problème de sécurité se manifeste sous la forme d'un laser à travers la fenêtre de votre système à commande vocale."
Pour encore plus de subtilité, les chercheurs suggèrent qu'un pirate à assistance vocale pourrait utiliser un laser infrarouge, qui serait invisible à l'œil nu. (Ils ont testé un laser infrarouge et ont constaté qu'il fonctionnait pour contrôler de près les haut-parleurs Echo et Google Home, mais ils n'ont pas essayé des portées plus longues par crainte de brûler ou d'aveugler quelqu'un.) Et alors que les assistants vocaux donnent généralement une réponse audible, un pirate informatique peut envoyer une commande initiale qui réduit le volume à zéro. Bien qu'ils ne l'aient pas testé spécifiquement, les chercheurs suggèrent également qu'un attaquant pourrait utiliser des commandes légères pour déclencher le "mode chuchotement" d'Amazon, qui permet à un utilisateur de prononcer des commandes et de recevoir des réponses sur un ton feutré.
Lorsqu'il s'agit de la physique réelle d'un microphone interprétant la lumière comme un son, les chercheurs ont eu une réponse surprenante : Ils ne le savent pas. En fait, dans l'intérêt de la rigueur scientifique, ils ont même refusé de spéculer sur la mécanique photoacoustique à l'origine de leur effet lumière-parole.
Mais au moins deux mécanismes physiques différents pourraient produire les vibrations qui rendent les commandes de lumière possibles, dit Paul Horowitz, professeur émérite de physique et de génie électrique à Harvard et coauteur de The Art of Electronics. Tout d'abord, une impulsion de lumière laser réchauffe le diaphragme du microphone, ce qui dilate l'air autour de lui et crée une bosse de pression tout comme le son. Par ailleurs, Horowitz postule que si les composants des dispositifs cibles ne sont pas complètement opaques, la lumière du laser peut passer devant le microphone et frapper directement la puce électronique qui interprète ses vibrations en un signal électrique. Selon M. Horowitz, cela pourrait avoir le même effet photovoltaïque que celui qui se produit dans les diodes des cellules solaires et aux extrémités des câbles à fibres optiques, transformant la lumière en électricité ou en signaux électriques. Il dit que cela pourrait facilement faire en sorte que le laser soit traité comme une commande vocale.
Les ravages potentiels vont du déclenchement de commandes intelligentes comme les serrures de porte et les thermostats jusqu'au déverrouillage à distance des voitures. "C'est le même modèle de menace que n'importe quel système vocal, mais avec un effet de distance inhabituel ", dit Fu. Ou, comme le dit Sara Rampazzi, chercheuse à l'Université du Michigan : "Vous pouvez détourner les commandes vocales. Maintenant, la question est de savoir à quel point votre voix est puissante, et à quoi vous l'avez liée."
Un porte-parole de Google a déclaré dans un communiqué qu'il " étudie de près ce document de recherche. La protection de nos utilisateurs est primordiale, et nous cherchons toujours des moyens d'améliorer la sécurité de nos appareils." Apple a refusé de commenter, et Facebook n'a pas répondu immédiatement. Un porte-parole d'Amazon a écrit dans une déclaration que " nous sommes en train de revoir cette recherche et de continuer à nous engager avec les auteurs pour mieux comprendre leur travail ".

Comment réduire les risques de piratage ?

Certains appareils offrent des protections d'authentification qui pourraient déjouer un pirate manipulant un laser. iPhones iPhones et iPads exigent d'un utilisateur de prouver leur identité avec TouchID ou FaceID avant, disons, de faire un achat. Et les chercheurs reconnaissent que pour la plupart des assistants vocaux des téléphones intelligents, les " mots de réveil " qui commencent une commande vocale doivent être prononcés dans la voix du propriétaire du téléphone, ce qui rend leur attaque laser beaucoup plus difficile à déclencher. Mais ils notent qu'un attaquant qui obtient ou reconstruit seulement ces mots comme "hey Siri" ou "OK Google" pourrait alors "prononcer" ces mots dans la voix de l'utilisateur cible comme préambule à ses commandes vocales.
Les haut-parleurs intelligents comme l'Echo et Google Home, cependant, n'ont pas cette authentification vocale. Et étant donné la nature physique de la vulnérabilité, aucune mise à jour logicielle ne peut y remédier. Mais les chercheurs suggèrent certains correctifs moins qu'idéaux, comme l'exigence d'un NIP vocal avant que les assistants vocaux n'exécutent les commandes les plus sensibles. Ils suggèrent également d'apporter des modifications futures à la conception des dispositifs afin de les protéger contre leur attaque, par exemple en construisant un blindage léger autour du microphone ou en écoutant les commandes vocales de deux microphones différents situés sur les côtés opposés du dispositif, qui pourraient être difficiles à toucher simultanément avec un laser.
Jusqu'à ce que ces correctifs ou changements de conception arrivent, le Genkin du Michigan suggère une règle empirique simple mais contre-intuitive pour quiconque est concerné par les implications de l'attaque : "Ne mettez pas un appareil à commande vocale dans la ligne de mire de votre adversaire", dit-il. S'ils peuvent voir votre Echo ou Google home à travers une fenêtre, ils peuvent aussi lui parler.

Date de création : 2019-11-05
Auteur :

0 Avis

Pas encore d'avis.

Déposer un avis

CGU - Gralon - Confidentialité
Accéder au site complet
© Gralon 2011-2024