Los asistentes digitales obedecen comandos que son inaudibles para los humanos.



Hoy en día, la tecnología que se puede llamar un "asistente digital" de una persona se ha vuelto muy popular. Estamos hablando de Siri, Cortana y altavoces inteligentes, en particular, de Amazon. Muchos de nosotros estamos acostumbrados al hecho de que solo un comando de voz puede hacer que el asistente actúe, por ejemplo, decir el clima para mañana, leer el texto o cantar una canción.

Para los expertos en seguridad de la información, algunos aspectos del trabajo de dichos asistentes plantean una serie de preguntas. Sin duda, los servicios son bastante convenientes, pero son vulnerables a la interferencia externa. El ejemplo más simple: después de informar en la televisión los sistemas Amazon Echo de San Diego, que "escucharon" el canal local CW6, comenzaron a ordenar casas de muñecas.

El problema era que en la televisión decían algo sobre casas de muñecas, discutían sobre la niña que ordenó tal casa a Alexa. Y la columna no ordenó nada más. El periodista dijo lo siguiente en la televisión: "Me gustó la chica que dijo" Alexa, pídeme una casa de muñecas ". Y otros oradores comenzaron urgentemente a ordenar casas de muñecas.


La misma columna se notó hace algún tiempo en el hecho de que comenzó a reír terriblemente sin ninguna razón. Lo más probable es que haya una razón, y esto fue un truco en la columna misma (algún tipo de error difícilmente puede tener consecuencias similares).

En cuanto a las órdenes no autorizadas, la razón de la "falla" radica en el hecho de que Alexa no está equipada con un sistema de reconocimiento de amigos o enemigos, por lo que puede escuchar los comandos de voz de otras personas, y no solo su usuario. La situación es similar con Siri, Cortana, un asistente de Google. Al final resultó que, "ayudantes" obedecen órdenes que son indistinguibles para el oído humano.

Un equipo combinado de investigadores de China y Estados Unidos pudo lograr la activación encubierta de sistemas de inteligencia artificial en teléfonos inteligentes y altavoces inteligentes. Equipos de hombres inaudibles obligaron a los asistentes digitales a marcar diferentes números y abrir sitios. Pero las posibilidades son mucho más amplias: los atacantes pueden usar la "ingenuidad" de las columnas para hacer transferencias de dinero o pedir bienes (solo no casas de muñecas).

Los equipos descritos anteriormente pueden integrarse en grabaciones de canciones de cualquier duración o discurso conversacional. Algunos atacantes pueden comenzar a reproducir un disco musical, que sonará bastante habitual para una persona, pero el asistente digital escuchará el comando y comenzará a ejecutar la orden. Los investigadores, que ya han publicado los resultados de su trabajo, creen que su tecnología tarde o temprano se hará pública. Esta idea no es única, por lo que cualquiera puede llegar a ella. O tal vez ya funciona, siendo utilizado por algún atacante.


El investigador de seguridad de la información no revela los detalles de la tecnología, pero uno debe pensar que la amenaza es real. Algún tiempo después de la publicación de información sobre la vulnerabilidad de los asistentes de voz, los desarrolladores de dichos servicios de otros países comenzaron a hablar sobre una solución temprana para el problema. Amazon dijo que el problema ya se ha resuelto.

Sea como fuere, pero el mismo Siri escucha esos comandos ahora. Además, contienen instrucciones sobre la necesidad de guardar silencio para el asistente digital. Después de todo, ¿de qué sirve dar una orden si el teléfono "se despierta" y comienza a repetir en voz todo lo que está oculto en una orden inaudible? Y así: el comando continúa, el teléfono se activa, pero entra en modo silencioso y no dice nada2 en respuesta.

Los investigadores han llamado a la tecnología DolphinAttack. Ahora los desarrolladores de software de asistentes digitales han comenzado a estudiar la información proporcionada por los científicos para resolver el problema. Esto es difícil de hacer, pero probablemente sea posible. Si no se hace nada, entonces una idea que realmente plantea un peligro potencial comenzará a encontrar entendimiento entre todo tipo de atacantes. Y aquellos, a su vez, lo usarán para realizar cualquiera de sus propios objetivos incompatibles con la ley. Hasta ahora, el estudio de la potencial "vulnerabilidad de sonido" continúa.

Source: https://habr.com/ru/post/es412331/


All Articles