Les pirates peuvent contrôler à distance Tesla Model S en utilisant le système de pilote automatique

Les chercheurs en sécurité ont réussi à contrôler à distance le système de pilote automatique de la voiture Tesla Model S et à le contrôler à l'aide d'un joystick de jeu. Ainsi, ils ont attiré l'attention sur les problèmes de sécurité potentiels des systèmes modernes d'aide à la conduite (ADAS), dont la tâche est précisément d'augmenter la sécurité de celui qui conduit.

Des chercheurs du Tencent Keen Security Lab ont réussi à activer le système de pilote automatique Tesla Tesla Autopilot, en prenant le contrôle, comme indiqué dans une nouvelle publication qui détaille les détails de l'étude.

Le groupe, qui avait précédemment démontré ses conclusions lors de la conférence de sécurité de Black Hat USA 2018, a publié une vidéo démontrant le piratage. Le nouveau rapport décrit trois façons de prendre le contrôle du système de pilote automatique d'une voiture en exploitant plusieurs vulnérabilités dans une unité de contrôle électronique (ECU ).

Les chercheurs soulignent trois réalisations majeures dans la rupture de la version 18.6.1 du système de pilote automatique de l'ECU. Tout d'abord, en utilisant une erreur dans le système de reconnaissance d'image des essuie-glaces automatiques, ils ont activé les essuie-glaces. Deuxièmement, en plaçant des autocollants gênants sur la route qui ont trompé le système de reconnaissance de la piste, ils ont forcé Tesla à manœuvrer dans la voie de circulation venant en sens inverse. Troisièmement, ils ont pu contrôler à distance le contrôle de la voiture même si le pilote automatique n'était pas activé par le conducteur.

"Ainsi, il a été prouvé qu'en modifiant légèrement l'environnement physique, nous pouvons contrôler la voiture dans une certaine mesure sans connexion à distance", concluent les chercheurs dans un rapport. "Nous espérons que les défauts potentiels révélés par une série de tests attireront l'attention avec des constructeurs, ce qui augmentera la stabilité et la fiabilité de leurs machines automotrices. "

Risques de progrès


Bien sûr, les chercheurs affirment avoir notifié Tesla après avoir réussi à compromettre le système de pilote automatique et, selon Tencent, Tesla a «immédiatement corrigé» un certain nombre d'erreurs.


Les chercheurs de Tencent Keen Security Lab ont pu compromettre le système de pilote automatique du système d'assistance au conducteur parfait de Tesla Model S. (Source: Tesla)

Quoi qu'il en soit, l'étude démontre un danger imminent, qui réside dans l'utilisation potentielle par les pirates de l'ouverture et de l'intelligence des voitures modernes comme motif d'attaques; Pour la première fois, cette opportunité a été clairement démontrée dans le hack 2015 d'un Jeep Cherokee , publié dans Wired.

"La voiture moderne moyenne contient des centaines de capteurs et de nombreux ordinateurs de bord, chacun étant potentiellement vulnérable aux attaques physiques, logicielles et / ou logiques", a déclaré Jerry Gamblin, ingénieur en chef des renseignements de sécurité chez Kenna Security, dans une interview avec Security Ledger. . "Ce fait crée un terrain incroyable pour les attaques que les constructeurs automobiles doivent empêcher, et crée également un vaste champ cible pour les attaquants potentiels."

Depuis leur entrée dans la Jeep, les voitures sont devenues encore plus complexes. Ainsi, dans l'industrie automobile, les technologies ADAS comme Tesla Autopilot se développent rapidement

Ces systèmes devraient améliorer les capacités du conducteur et fournir à la voiture des systèmes de sécurité intelligents, tels que des systèmes anti-collision, afin d'accroître la sécurité. Dans le même temps, la complexité accrue rend ces systèmes potentiellement destructeurs lorsqu'ils sont compromis, ce qui met en doute la sécurité de l'utilisation des technologies ADAS.

Privilèges égalité de contrôle


Les chercheurs de Keen Security Labs ont déclaré avoir utilisé des informations d'identification ROOT ( obtenues en se connectant à distance en exploitant un certain nombre de vulnérabilités - environ la traduction ) pour effectuer la partie la plus effrayante de leur piratage - prendre le contrôle du système de contrôle Tesla de manière «sans contact», comme eux-mêmes ils écrivent. Les chercheurs ont utilisé des privilèges pour envoyer des commandes de contrôle du pilote automatique pendant que la voiture se déplaçait.

La possibilité d'influencer les essuie-glaces et le système de contrôle de piste a été obtenue grâce à l'algorithme d'optimisation amélioré utilisé pour créer les soi-disant «éléments en guerre», qui ont été alimentés à l'entrée des systèmes de véhicules correspondants.

Les essuie-glaces et le système de reconnaissance routière prennent leurs décisions en fonction des données de la caméra, comme l'ont découvert les chercheurs. Ainsi, il n'était pas très difficile de les tromper, les forçant à «voir» des conditions qui n'existaient pas réellement.

Les chercheurs ont atteint cet objectif en envoyant des images au réseau neuronal d'essuie-glaces et en modifiant les marquages ​​routiers dans le cas d'un système de reconnaissance routière. Dans les deux expériences, le système a répondu à ce qu'il a «vu» au lieu des conditions routières réelles.

Les modèles concurrents sont également étroitement surveillés. Alors que de plus en plus de systèmes s'appuient sur l'apprentissage automatique, de plus en plus de chercheurs cherchent des moyens d'influencer leur travail en donnant de fausses informations .

La réponse de Tesla


Sur leur blog, Tencent Keen a publié la réponse de Tesla au piratage, qui, étonnamment, était clairement défensif. L'entreprise a rejeté le compromis des essuie-glaces et des systèmes de reconnaissance de la route car ils "ne se produiront pas dans la vraie vie" et ne devraient donc pas inquiéter les conducteurs.

Dans leur réponse, Tesla a également souligné que les conducteurs, s'ils le souhaitaient, pouvaient désactiver le système d'essuie-glace automatique. De plus, ils ont la possibilité de «passer en commande manuelle à l'aide du volant ou de la pédale de frein et doivent être constamment prêts à le faire», surtout si l'on soupçonne que le système ne fonctionne pas correctement.

Parlant de l'utilisation des privilèges ROOT lors du détournement d'une voiture, Tesla a rappelé aux chercheurs que la société avait corrigé la principale vulnérabilité décrite dans le rapport lors de la mise à jour du système de sécurité en 2017 et la mise à jour complète du système qui a suivi l'année dernière (la vulnérabilité a été corrigée dans la version logicielle 2018.24 - env. perev. ). De plus, selon la réponse de Tesla, ces deux mises à jour étaient disponibles avant même que Tencent Keen Security Lab n'ait informé la société de ses recherches, a déclaré Tesla.

"Depuis de nombreuses années que nous produisons des voitures sur les routes, nous n'avons jamais vu un seul consommateur victime d'une vulnérabilité présentée dans le rapport", a ajouté la société.

Mis à part les protestations de l'entreprise, les experts en sécurité ne sont toujours pas convaincus que les systèmes ADAS, comme le pilote automatique Tesla, ne causeront pas de chaos et de dommages s'ils tombent sous le contrôle d'intrus. «Les fabricants devraient en tenir compte lors du développement de nouveaux systèmes», a déclaré Jerry Gamblin.

«Il est nécessaire de concentrer l'essentiel de l'attention sur la garantie de la sécurité des systèmes susceptibles de nuire gravement aux consommateurs et aux autres passagers en cas de compromis», a indiqué l'expert. "Les fabricants doivent répartir de manière optimale les finances et répondre correctement à toutes les difficultés résultant d'attaques sur les systèmes secondaires et pouvant affecter l'utilisateur final, qui ne devrait en aucun cas être à risque."

Source: https://habr.com/ru/post/fr447962/


All Articles