Os pesquisadores de segurança conseguiram obter controle remoto sobre o sistema de piloto automático do carro Tesla Model S e controlá-lo com a ajuda de um joystick de jogo. Assim, eles chamaram a atenção para os possíveis problemas de segurança dos modernos sistemas de assistência ao motorista (Advanced Driver Assistance Systems, ADAS), cuja tarefa é precisamente aumentar a segurança de quem está dirigindo.Pesquisadores do Tencent Keen Security Lab ativaram com sucesso o sistema de piloto automático Tesla Tesla Autopilot, ganhando controle sobre ele, conforme relatado em uma
nova publicação que detalha os detalhes do estudo.
O grupo, que já havia demonstrado suas descobertas na Black Hat USA 2018 Conference Conference, postou um
vídeo demonstrando o hack. O novo relatório descreve três maneiras de obter o controle do sistema de piloto automático de um carro, explorando várias vulnerabilidades em uma
unidade de controle eletrônico (ECU ).
Os pesquisadores destacam três grandes conquistas na quebra do sistema de piloto automático da ECU versão 18.6.1. Primeiro, usando um erro no sistema de reconhecimento de imagem dos limpadores automáticos, eles ativaram os limpadores de pára-brisa. Em segundo lugar, colocando adesivos interferentes na estrada que enganavam o sistema de reconhecimento da pista, eles forçaram Tesla a manobrar na faixa de tráfego que se aproximava. Em terceiro lugar, eles foram capazes de controlar remotamente o controle do carro, mesmo que o piloto automático não tivesse sido ativado pelo motorista.
"Assim, ficou provado que, mudando levemente o ambiente físico, podemos controlar o carro até um certo ponto sem uma conexão remota", concluem os pesquisadores em um relatório. "Esperamos que os defeitos potenciais revelados por uma série de testes atraiam a atenção de todos. lados dos fabricantes, o que aumentará a estabilidade e a confiabilidade de suas máquinas automotoras ".
Riscos de Progresso
Obviamente, os pesquisadores afirmam que notificaram a Tesla após comprometerem com êxito o sistema de piloto automático e, de acordo com a Tencent, a Tesla "corrigiu imediatamente" uma série de erros.
Pesquisadores do Tencent Keen Security Lab conseguiram comprometer o sistema de piloto automático do sistema perfeito de assistência ao motorista do Tesla Model S. (Fonte: Tesla)Independentemente disso, o estudo demonstra um perigo iminente, que reside no uso potencial por hackers da abertura e inteligência dos carros modernos como base para ataques; Pela primeira vez, essa oportunidade foi vividamente demonstrada no
hack de 2015 de um Jeep Cherokee , publicado na Wired.
"O carro moderno médio contém centenas de sensores e muitos computadores de bordo, cada um deles potencialmente vulnerável a ataques físicos, de software e / ou lógicos", disse Jerry Gamblin, engenheiro chefe de inteligência de segurança da Kenna Security, em entrevista ao Security Ledger . "Esse fato cria um terreno incrível para ataques que os fabricantes de automóveis devem impedir e também cria um campo de alvo extenso para possíveis agressores".
Desde que entrou no jipe, os carros se tornaram ainda mais complexos. Assim, na indústria automotiva, tecnologias ADAS como o Tesla Autopilot estão se desenvolvendo rapidamente
Esses sistemas devem aprimorar as capacidades do motorista e fornecer ao carro sistemas de segurança inteligentes, como sistemas de prevenção de colisões, para aumentar a segurança. Ao mesmo tempo, o aumento da complexidade torna esses sistemas potencialmente destrutivos quando comprometidos, o que lança dúvidas sobre a segurança do uso das tecnologias ADAS.
Privilégios igual controle
Pesquisadores do Keen Security Labs disseram que usaram credenciais ROOT (
obtidas conectando-se remotamente através da exploração de várias vulnerabilidades - aprox. Transl. ) eles escrevem. Os pesquisadores usaram privilégios para enviar comandos de controle do piloto automático enquanto o carro estava em movimento.
A possibilidade de influenciar os limpadores e o sistema de controle de via foi alcançada devido ao algoritmo aprimorado de otimização usado para criar os chamados "elementos de guerra", que foram alimentados à entrada dos sistemas de veículos correspondentes.
Tanto os limpadores quanto o sistema de reconhecimento de estrada tomam suas decisões com base nos dados da câmera, como descobriram os pesquisadores. Assim, não foi muito difícil enganá-los, forçando-os a "ver" condições que na verdade não existiam.
Os pesquisadores conseguiram isso enviando imagens para a rede neural de limpadores e modificando as marcações das estradas no caso de um sistema de reconhecimento de estradas. Nos dois experimentos, o sistema respondeu ao que "viu" em vez das condições reais da estrada.
Os modelos dos concorrentes também são monitorados de perto. Enquanto mais e mais sistemas dependem do aprendizado de máquina, mais pesquisadores estão procurando maneiras de influenciar seu trabalho,
fornecendo informações falsas .
Resposta de Tesla
Em seu blog, Tencent Keen publicou a resposta de Tesla ao hack, que, surpreendentemente, era claramente defensivo. A empresa rejeitou o comprometimento dos limpadores de pára-brisa e dos sistemas de reconhecimento de estradas devido ao fato de "não acontecerem na vida real" e, portanto, não devem ser motivo de preocupação para os motoristas.
Em sua resposta, Tesla também enfatizou que os motoristas, se desejado, podem desligar o sistema de limpeza automática. Além disso, eles têm a capacidade de "alternar para o controle manual usando o volante ou o pedal do freio e devem estar constantemente preparados para fazer isso", especialmente se houver suspeita de que o sistema não esteja funcionando corretamente.
Falando sobre o uso de privilégios de ROOT ao seqüestrar um carro, Tesla lembrou aos pesquisadores que a empresa corrigiu a principal vulnerabilidade descrita no relatório ao atualizar o sistema de segurança em 2017 e a subsequente atualização extensiva do sistema no ano passado (a
vulnerabilidade foi corrigida na versão de software 2018.24 - aprox. perev. ). Além disso, de acordo com a resposta da Tesla, essas duas atualizações estavam disponíveis mesmo antes do Tencent Keen Security Lab contar às empresas sobre sua pesquisa, afirmou Tesla.
"Nos muitos anos em que produzimos carros nas estradas, nunca vimos um único consumidor que tenha sido vítima de qualquer vulnerabilidade apresentada no relatório", acrescentou a empresa.
Deixando de lado os protestos da empresa, os especialistas em segurança ainda não estão convencidos de que os sistemas ADAS, como o Tesla Autopilot, não causarão caos e danos se cairem sob o controle de intrusos. "Os fabricantes devem levar isso em consideração ao desenvolver novos sistemas", disse Jerry Gamblin.
"É necessário concentrar a maior parte da atenção em garantir a segurança dos sistemas que podem causar sérios danos aos consumidores e outros passageiros em caso de comprometimento", aconselhou o especialista. "Os fabricantes devem distribuir as finanças da melhor maneira possível e responder corretamente a quaisquer dificuldades que surjam de ataques a sistemas secundários e podem afetar o usuário final, que em nenhum caso deve estar em risco".