Les assistants numériques obéissent à des commandes inaudibles pour l'homme



De nos jours, la technologie que l'on peut appeler un «assistant numérique» d'une personne est devenue très populaire. Nous parlons à la fois de Siri, Cortana et d'enceintes intelligentes - en particulier d'Amazon. Beaucoup d'entre nous sont habitués au fait qu'une seule commande vocale peut faire agir l'assistant - par exemple, dire la météo de demain, lire le texte ou chanter une chanson.

Pour les experts en sécurité de l'information, certains aspects du travail de ces assistants soulèvent un certain nombre de questions. Sans aucun doute, les services sont assez pratiques, mais ils sont vulnérables aux interférences extérieures. L'exemple le plus simple - après avoir reporté sur les systèmes TV Amazon Echo de San Diego, qui "écoutait" la chaîne locale CW6, a commencé à commander des maisons de poupées.

Le problème était qu'à la télévision, ils parlaient des maisons de poupées, discutant de la fille qui avait commandé une telle maison à Alexa. Et la colonne n'a rien ordonné de plus. Le journaliste a déclaré ce qui suit à la télévision: "J'ai aimé la fille qui a dit" Alexa, commande-moi une maison de poupée. " Et d'autres orateurs ont commencé à commander de toute urgence des maisons de poupées.


La même chronique a été remarquée il y a quelque temps dans le fait qu'elle se mit à rire terriblement sans raison. Très probablement, il y avait une raison, et c'était un piratage dans la colonne elle-même (une sorte de bogue peut difficilement conduire à des conséquences similaires).

En ce qui concerne les commandes non autorisées, la raison de l '«échec» réside dans le fait qu'Alexa n'est pas équipée d'un système de reconnaissance ami ou ennemi, afin qu'elle puisse écouter les commandes vocales des autres, et pas seulement son utilisateur. La situation est similaire avec Siri, Cortana, un assistant Google. Il s'est avéré que les «aides» obéissaient à des commandes impossibles à distinguer de l'oreille humaine.

Une équipe combinée de chercheurs de Chine et des États-Unis a réussi à activer secrètement les systèmes d'intelligence artificielle sur les smartphones et les haut-parleurs intelligents. Des équipes d'hommes inaudibles ont forcé les assistants numériques à composer différents numéros et à ouvrir des sites. Mais les possibilités sont beaucoup plus larges - les attaquants peuvent utiliser la «naïveté» des colonnes pour effectuer des transferts d'argent ou commander des marchandises (mais pas les maisons de poupées).

Les équipes décrites ci-dessus peuvent être intégrées dans des enregistrements de chansons de n'importe quelle longueur ou dans un discours conversationnel. Certains attaquants peuvent commencer à jouer un enregistrement musical qui semblera assez habituel pour une personne, mais l'assistant numérique entendra la commande et commencera à exécuter l'ordre. Les chercheurs, qui ont déjà publié les résultats de leurs travaux, estiment que leur technologie sera tôt ou tard rendue publique. Cette idée n'est pas unique, donc tout le monde peut y venir. Ou peut-être que cela fonctionne déjà, étant utilisé par un attaquant.


Le chercheur en sécurité de l'information ne dévoile pas les détails de la technologie, mais il faut penser que la menace est réelle. Quelque temps après la publication d'informations sur la vulnérabilité des assistants vocaux, les développeurs de ces services d'autres pays ont commencé à parler d'une solution rapide au problème. Amazon a déclaré que le problème avait déjà été résolu.

Quoi qu'il en soit, mais le même Siri écoute maintenant de telles commandes. De plus, ils contiennent des instructions sur la nécessité de garder le silence pour l'assistant numérique. Après tout, quel est l'intérêt de donner une commande si le téléphone "se réveille" et commence à répéter d'une voix tout ce qui est caché dans une commande inaudible? Et donc - la commande va, le téléphone est activé, mais passe en mode silencieux et ne dit rien2 en réponse.

Les chercheurs ont appelé la technologie DolphinAttack. Maintenant, les développeurs de logiciels d'assistants numériques ont commencé à étudier les informations fournies par les scientifiques afin de résoudre le problème. C'est difficile à faire, mais probablement possible. Si rien n'est fait, alors une idée qui représente vraiment un danger potentiel commencera à trouver la compréhension entre toutes sortes d'attaquants. Et ceux-ci, à leur tour, l'utiliseront pour réaliser leurs propres objectifs incompatibles avec la loi. Jusqu'à présent, l'étude de la «vulnérabilité sonore» potentielle se poursuit.

Source: https://habr.com/ru/post/fr412331/


All Articles