Los piratas inform谩ticos pueden controlar remotamente el Tesla Model S utilizando el sistema de piloto autom谩tico

Los investigadores de seguridad lograron obtener control remoto sobre el sistema de piloto autom谩tico del autom贸vil Tesla Model S y controlarlo con la ayuda de un joystick del juego. Por lo tanto, llamaron la atenci贸n sobre los posibles problemas de seguridad de los sistemas modernos de asistencia al conductor (ADAS), cuya tarea es precisamente aumentar la seguridad de quien conduce.

Los investigadores de Tencent Keen Security Lab activaron con 茅xito el sistema de piloto autom谩tico Tesla Tesla Autopilot, obteniendo el control sobre 茅l, como se inform贸 en una nueva publicaci贸n que detalla los detalles del estudio.

El grupo, que hab铆a demostrado previamente sus hallazgos en la Conferencia de Seguridad Black Hat USA 2018, public贸 un video que demuestra el hack. El nuevo informe describe tres formas de obtener el control del sistema de piloto autom谩tico de un autom贸vil explotando varias vulnerabilidades en una unidad de control electr贸nico (ECU ).

Los investigadores destacan tres logros principales en la ruptura del sistema de piloto autom谩tico ECU versi贸n 18.6.1. En primer lugar, utilizando un error en el sistema de reconocimiento de im谩genes de los limpiaparabrisas autom谩ticos, activaron los limpiaparabrisas. En segundo lugar, al colocar calcoman铆as interferentes en la carretera que enga帽aban al sistema de reconocimiento de la pista, obligaron a Tesla a maniobrar en el carril de tr谩nsito que se aproxima. En tercer lugar, pudieron controlar de forma remota el control del autom贸vil incluso si el piloto no activ贸 el piloto autom谩tico.

"Por lo tanto, se demostr贸 que al cambiar ligeramente el entorno f铆sico, podemos controlar el autom贸vil hasta cierto punto sin una conexi贸n remota", concluyeron los investigadores en un informe. "Esperamos que los posibles defectos revelados por una serie de pruebas atraigan la atenci贸n con lados de los fabricantes, lo que aumentar谩 la estabilidad y la fiabilidad de sus m谩quinas autopropulsadas ".

Riesgos de progreso


Por supuesto, los investigadores afirman que notificaron a Tesla despu茅s de comprometer con 茅xito el sistema de piloto autom谩tico y, seg煤n Tencent, Tesla "repar贸 de inmediato" una serie de errores.


Los investigadores de Tencent Keen Security Lab han podido comprometer el sistema de piloto autom谩tico del sistema de asistencia al conductor perfecto de Tesla Model S. (Fuente: Tesla)

Independientemente de esto, el estudio demuestra un peligro inminente, que radica en el uso potencial por parte de los piratas inform谩ticos de la apertura e inteligencia de los autom贸viles modernos como terreno de ataque; Por primera vez, esta oportunidad se demostr贸 v铆vidamente en el truco de 2015 de un Jeep Cherokee , publicado en Wired.

"El autom贸vil moderno promedio contiene cientos de sensores y muchas computadoras a bordo, cada una de las cuales es potencialmente vulnerable a ataques f铆sicos, de software y / o l贸gicos", dijo Jerry Gamblin, ingeniero jefe de inteligencia de seguridad en Kenna Security, en una entrevista con Security Ledger. . "Este hecho crea un terreno sorprendente para los ataques que los fabricantes de autom贸viles deben evitar, y tambi茅n crea un amplio campo objetivo para los posibles atacantes".

Desde que irrumpieron en el Jeep, los autos se han vuelto a煤n m谩s complejos. Entonces, en la industria automotriz, las tecnolog铆as ADAS como el piloto autom谩tico Tesla se est谩n desarrollando r谩pidamente

Estos sistemas deber铆an mejorar las capacidades del conductor y proporcionar al autom贸vil sistemas de seguridad inteligentes, como los sistemas de prevenci贸n de colisiones, para aumentar la seguridad. Al mismo tiempo, la mayor complejidad hace que dichos sistemas sean potencialmente destructivos cuando se ven comprometidos, lo que arroja dudas sobre la seguridad del uso de las tecnolog铆as ADAS.

Privilegios igual control


Los investigadores de Keen Security Labs dijeron que utilizaron credenciales ROOT ( obtenidas mediante la conexi贸n remota mediante la explotaci贸n de una serie de vulnerabilidades, aprox. Transl. ) Al llevar a cabo la parte m谩s aterradora de su pirater铆a: tomar el control del sistema de control de Tesla de forma "sin contacto", ya que ellos mismos ellos escriben Los investigadores utilizaron privilegios para enviar comandos de control de piloto autom谩tico mientras el autom贸vil se mov铆a.

La posibilidad de influir en los limpiaparabrisas y el sistema de control de la pista se logr贸 debido al algoritmo de optimizaci贸n mejorado utilizado para crear los llamados "elementos en guerra", que se alimentaron a la entrada de los sistemas de veh铆culos correspondientes.

Tanto los limpiaparabrisas como el sistema de reconocimiento de carreteras toman sus decisiones en funci贸n de los datos de la c谩mara, como descubrieron los investigadores. Por lo tanto, no fue muy dif铆cil enga帽arlos, oblig谩ndolos a "ver" condiciones que en realidad no exist铆an.

Los investigadores lo han logrado enviando im谩genes a la red neuronal de limpiaparabrisas y modificando las marcas viales en el caso de un sistema de reconocimiento de carreteras. En ambos experimentos, el sistema respondi贸 a lo que "vio" en lugar de las condiciones reales de la carretera.

Los modelos de la competencia tambi茅n son monitoreados de cerca. Si bien cada vez m谩s sistemas dependen del aprendizaje autom谩tico, m谩s investigadores buscan formas de influir en su trabajo, aportando informaci贸n falsa .

La respuesta de Tesla


En su blog, Tencent Keen public贸 la respuesta de Tesla al ataque, que, sorprendentemente, fue claramente defensivo. La compa帽铆a rechaz贸 el compromiso de los limpiaparabrisas y los sistemas de reconocimiento de carreteras debido a que "no suceder谩n en la vida real" y, por lo tanto, no deber铆an ser motivo de preocupaci贸n para los conductores.

En su respuesta, Tesla tambi茅n enfatiz贸 que los conductores, si lo desean, pueden apagar el sistema de limpiaparabrisas autom谩tico. Adem谩s, tienen la capacidad de "cambiar al control manual usando el volante o el pedal del freno y deben estar constantemente preparados para hacerlo", especialmente si existe la sospecha de que el sistema no funciona correctamente.

Hablando sobre el uso de los privilegios ROOT al secuestrar un autom贸vil, Tesla record贸 a los investigadores que la compa帽铆a corrigi贸 la vulnerabilidad principal descrita en el informe al actualizar el sistema de seguridad en 2017 y la posterior actualizaci贸n extensa del sistema el a帽o pasado (la vulnerabilidad se corrigi贸 en la versi贸n de software 2018.24 - aprox. perev. ). Adem谩s, seg煤n la respuesta de Tesla, ambas actualizaciones estaban disponibles incluso antes de que Tencent Keen Security Lab les contara a las compa帽铆as sobre su investigaci贸n, dijo Tesla.

"En los muchos a帽os que hemos estado produciendo autom贸viles en las carreteras, nunca hemos visto un solo consumidor que haya sido v铆ctima de alguna vulnerabilidad presentada en el informe", agreg贸 la compa帽铆a.

Dejando de lado las protestas de la compa帽铆a, los expertos en seguridad a煤n no est谩n convencidos de que los sistemas ADAS, como el piloto autom谩tico Tesla, no causen caos y da帽os si caen bajo el control de intrusos. "Los fabricantes deben tener esto en cuenta al desarrollar nuevos sistemas", dijo Jerry Gamblin.

"Es necesario concentrar la mayor parte de la atenci贸n en garantizar la seguridad de los sistemas que pueden causar graves da帽os a los consumidores y otros pasajeros en caso de compromiso", aconsej贸 el experto. "Los fabricantes deben distribuir de manera 贸ptima las finanzas y responder correctamente a cualquier dificultad que surja de los ataques a sistemas secundarios y que puedan afectar al usuario final, que en ning煤n caso deber铆a estar en riesgo".

Source: https://habr.com/ru/post/447962/


All Articles