Assistentes digitais obedecem a comandos inaudíveis para humanos



Atualmente, a tecnologia que pode ser chamada de "assistente digital" de uma pessoa se tornou muito popular. Estamos falando de Siri, Cortana e alto-falantes inteligentes - em particular da Amazon. Muitos de nós estão acostumados ao fato de que apenas um comando de voz pode fazer o assistente agir - por exemplo, diga o tempo para amanhã, leia o texto ou cante uma música.

Para especialistas em segurança da informação, alguns aspectos do trabalho desses assistentes levantam várias questões. Sem dúvida, os serviços são bastante convenientes, mas são vulneráveis ​​a interferências externas. O exemplo mais simples - depois de reportar nos sistemas de TV Amazon Echo de San Diego, que "ouviram" o canal CW6 local, começaram a pedir casas de boneca.

O problema era que, na TV, eles diziam algo sobre casas de boneca, discutindo a garota que encomendou uma casa dessas a Alexa. E a coluna não pediu mais nada. O repórter disse o seguinte na TV: "Gostei da garota que disse" Alexa, me peça uma casa de bonecas ". E outros oradores começaram a pedir urgentemente casas de boneca.


A mesma coluna foi notada há algum tempo no fato de que começou a rir terrivelmente sem motivo. Provavelmente, havia um motivo, e isso foi um hack na própria coluna (algum tipo de bug dificilmente pode levar a consequências semelhantes).

Quanto a pedidos não autorizados, o motivo da "falha" está no fato de o Alexa não estar equipado com um sistema de reconhecimento de amigo ou inimigo, para que ele possa ouvir os comandos de voz de outras pessoas, e não apenas seu usuário. A situação é semelhante com Siri, Cortana, uma assistente do Google. Como se viu, "ajudantes" obedecem a comandos indistinguíveis do ouvido humano.

Uma equipe combinada de pesquisadores da China e dos Estados Unidos conseguiu alcançar a ativação secreta de sistemas de inteligência artificial em smartphones e em alto-falantes inteligentes. Equipes de homens inaudíveis forçaram assistentes digitais a discar diferentes números e abrir sites. Mas as possibilidades são muito mais amplas - os atacantes podem usar a "ingenuidade" das colunas para fazer transferências de dinheiro ou encomendar mercadorias (apenas não casas de bonecas).

As equipes descritas acima podem ser incorporadas em gravações de músicas de qualquer tamanho ou discurso de conversação. Alguns atacantes podem começar a tocar um disco musical, o que parecerá bastante comum para uma pessoa, mas o assistente digital ouvirá o comando e começará a executar a ordem. Pesquisadores, que já publicaram os resultados de seus trabalhos, acreditam que sua tecnologia será divulgada mais cedo ou mais tarde. Essa idéia não é única, então qualquer pessoa pode chegar a ela. Ou talvez já funcione, sendo usado por algum invasor.


O pesquisador de segurança da informação não divulga os detalhes da tecnologia, mas é preciso pensar que a ameaça é real. Algum tempo após a publicação de informações sobre a vulnerabilidade dos assistentes de voz, os desenvolvedores de tais serviços de outros países começaram a falar sobre uma correção precoce do problema. A Amazon disse que o problema já foi resolvido.

Seja como for, mas o mesmo Siri ouve esses comandos agora. Além disso, eles contêm instruções sobre a necessidade de permanecer em silêncio para o assistente digital. Afinal, qual é o sentido de dar um comando se o telefone "acordar" e começar a repetir em voz tudo o que está oculto em um comando inaudível? E assim - o comando continua, o telefone é ativado, mas entra no modo silencioso e não diz nada2 em resposta.

Os pesquisadores chamaram a tecnologia DolphinAttack. Agora, os desenvolvedores de software para assistentes digitais começaram a estudar as informações fornecidas pelos cientistas para resolver o problema. Isso é difícil de fazer, mas provavelmente possível. Se nada for feito, uma idéia que realmente represente um perigo em potencial começará a encontrar entendimento entre todos os tipos de atacantes. E esses, por sua vez, o usarão para realizar quaisquer de seus próprios objetivos incompatíveis com a lei. Até agora, o estudo da potencial "vulnerabilidade sonora" continua.

Source: https://habr.com/ru/post/pt412331/


All Articles