Digitale Assistenten befolgen Befehle, die für Menschen unhörbar sind



Heutzutage ist Technologie, die als "digitaler Assistent" einer Person bezeichnet werden kann, sehr beliebt geworden. Wir sprechen sowohl von Siri, Cortana als auch von intelligenten Lautsprechern - insbesondere von Amazon. Viele von uns sind es gewohnt, dass der Assistent mit nur einem Sprachbefehl handeln kann - zum Beispiel das Wetter für morgen mitteilen, den Text lesen oder ein Lied singen.

Für Experten für Informationssicherheit werfen einige Aspekte der Arbeit solcher Assistenten eine Reihe von Fragen auf. Zweifellos sind die Dienste recht praktisch, aber sie sind anfällig für Störungen von außen. Das einfachste Beispiel: Nachdem Amazon Echo-Systeme aus San Diego im Fernsehen berichtet hatten, die den lokalen CW6-Kanal "hörten", begannen sie, Puppenhäuser zu bestellen.

Das Problem war, dass sie im Fernsehen etwas über Puppenhäuser sagten und über das Mädchen diskutierten, das ein solches Haus bei Alexa bestellte. Und die Kolumne bestellte nichts mehr. Der Reporter sagte im Fernsehen Folgendes: „Ich mochte das Mädchen, das sagte:„ Alexa, bestelle mir ein Puppenhaus. “ Und andere Redner begannen dringend, Puppenhäuser zu bestellen.


Dieselbe Kolumne wurde vor einiger Zeit dadurch bemerkt, dass sie ohne Grund schrecklich zu lachen begann. Höchstwahrscheinlich gab es einen Grund, und dies war ein Hack in die Spalte selbst (eine Art Fehler kann kaum zu ähnlichen Konsequenzen führen).

Der Grund für den „Fehler“ bei nicht autorisierten Bestellungen liegt in der Tatsache, dass Alexa nicht mit einem Freund-oder-Feind-Erkennungssystem ausgestattet ist, sodass sie Sprachbefehle anderer Personen und nicht nur des Benutzers abhören kann. Ähnlich verhält es sich mit Siri, Cortana, einem Google-Assistenten. Wie sich herausstellte, gehorchen „Helfer“ Befehlen, die für das menschliche Ohr nicht zu unterscheiden sind.

Ein kombiniertes Forscherteam aus China und den USA konnte eine verdeckte Aktivierung künstlicher Intelligenzsysteme auf Smartphones und in intelligenten Lautsprechern erreichen. Unhörbare Mannteams zwangen digitale Assistenten, verschiedene Nummern zu wählen und Websites zu öffnen. Die Möglichkeiten sind jedoch viel größer - Angreifer können die „Naivität“ der Säulen nutzen, um Geld zu überweisen oder Waren zu bestellen (nur keine Puppenhäuser).

Die oben beschriebenen Teams können in Aufnahmen von Songs beliebiger Länge oder Konversationssprache eingebettet werden. Einige Angreifer können mit der Wiedergabe einer Musikaufnahme beginnen, was für eine Person ganz normal klingt, aber der digitale Assistent hört den Befehl und beginnt mit der Ausführung des Befehls. Forscher, die die Ergebnisse ihrer Arbeit bereits veröffentlicht haben, glauben, dass ihre Technologie früher oder später veröffentlicht wird. Diese Idee ist nicht einzigartig, so dass jeder dazu kommen kann. Oder vielleicht funktioniert es bereits, wenn es von einem Angreifer verwendet wird.


Der Informationssicherheitsforscher legt die Details der Technologie nicht offen, aber man muss denken, dass die Bedrohung real ist. Einige Zeit nach der Veröffentlichung von Informationen über die Verwundbarkeit von Sprachassistenten begannen Entwickler solcher Dienste aus anderen Ländern, über eine frühzeitige Lösung des Problems zu sprechen. Amazon sagte, das Problem sei bereits behoben.

Wie dem auch sei, aber derselbe Siri hört jetzt auf solche Befehle. Darüber hinaus enthalten sie Anweisungen zur Notwendigkeit, für den digitalen Assistenten still zu bleiben. Was nützt es, einen Befehl zu erteilen, wenn das Telefon „aufwacht“ und mit einer Stimme alles wiederholt, was in einem unhörbaren Befehl verborgen ist? Und so - der Befehl geht, das Telefon ist aktiviert, geht aber in den stillen Modus und sagt nichts2 als Antwort.

Forscher haben die DolphinAttack-Technologie genannt. Jetzt haben Softwareentwickler für digitale Assistenten begonnen, die von Wissenschaftlern bereitgestellten Informationen zu untersuchen, um das Problem zu lösen. Dies ist schwierig, aber wahrscheinlich möglich. Wenn nichts unternommen wird, wird eine Idee, die wirklich eine potenzielle Gefahr darstellt, bei allen Arten von Angreifern Verständnis finden. Und diese wiederum werden es nutzen, um ihre eigenen Ziele zu verwirklichen, die mit dem Gesetz unvereinbar sind. Bisher wird die Untersuchung der potenziellen „Sound Vulnerability“ fortgesetzt.

Source: https://habr.com/ru/post/de412331/


All Articles