Sicherheitsforscher haben es geschafft, das Autopilotsystem des Tesla Model S fernzusteuern und es mit Hilfe eines Spiel-Joysticks zu steuern. Sie machten daher auf die potenziellen Sicherheitsprobleme moderner Fahrerassistenzsysteme (Advanced Driver Assistance Systems, ADAS) aufmerksam, deren Aufgabe es ist, die Sicherheit des Fahrers genau zu erhöhen.Forscher des Tencent Keen Security Lab haben das Tesla Tesla Autopilot-Autopilotsystem erfolgreich aktiviert und die Kontrolle darüber erlangt, wie in einer
neuen Veröffentlichung berichtet wurde, in der die Details der Studie detailliert beschrieben werden.
Die Gruppe, die ihre Ergebnisse zuvor auf der Black Hat USA 2018 Security Conference demonstriert hatte, veröffentlichte ein
Video , in dem der Hack demonstriert wurde. Der neue Bericht beschreibt drei Möglichkeiten, um die Kontrolle über das Autopilotsystem eines Autos zu erlangen, indem mehrere Schwachstellen in einem
elektronischen Steuergerät (ECU ) ausgenutzt werden.
Die Forscher heben drei wichtige Erfolge beim Brechen des ECU-Autopilotsystems Version 18.6.1 hervor. Erstens haben sie mithilfe eines Fehlers im Bilderkennungssystem der automatischen Scheibenwischer die Scheibenwischer aktiviert. Zweitens zwangen sie Tesla, auf die Gegenfahrbahn zu manövrieren, indem sie störende Aufkleber auf der Straße anbrachten, die das Erkennungssystem der Strecke betrogen. Drittens konnten sie die Steuerung des Fahrzeugs fernsteuern, auch wenn der Autopilot nicht vom Fahrer aktiviert wurde.
„Somit wurde bewiesen, dass wir durch geringfügige Änderungen der physischen Umgebung das Auto bis zu einem gewissen Grad ohne Fernverbindung steuern können“, schließen die Forscher in einem Bericht. „Wir hoffen, dass die potenziellen Mängel, die durch eine Reihe von Tests aufgedeckt wurden, die Aufmerksamkeit auf sich ziehen Seiten der Hersteller, die die Stabilität und Zuverlässigkeit ihrer selbstfahrenden Maschinen erhöhen. "
Risiken des Fortschritts
Natürlich behaupten die Forscher, sie hätten Tesla benachrichtigt, nachdem sie das Autopilotsystem erfolgreich kompromittiert hatten, und laut Tencent habe Tesla eine Reihe von Fehlern „sofort behoben“.
Forscher des Tencent Keen Security Lab konnten das Autopilotsystem des perfekten Fahrerassistenzsystems von Tesla Model S. kompromittieren. (Quelle: Tesla)Unabhängig davon zeigt die Studie eine unmittelbare Gefahr, die darin besteht, dass Hacker die Offenheit und Intelligenz moderner Autos als Angriffsgrund nutzen können. Zum ersten Mal wurde diese Gelegenheit beim
2015er Hack eines Jeep Cherokee , der in Wired veröffentlicht wurde, anschaulich demonstriert.
"Das durchschnittliche moderne Auto enthält Hunderte von Sensoren und viele Bordcomputer, von denen jeder potenziell anfällig für physische, Software- und / oder logische Angriffe ist", sagte Jerry Gamblin, leitender Ingenieur für Sicherheitsinformationen bei Kenna Security, in einem Interview mit Security Ledger . "Diese Tatsache schafft einen erstaunlichen Boden für Angriffe, die Autohersteller verhindern müssen, und schafft auch ein umfangreiches Zielfeld für potenzielle Angreifer."
Seit dem Einbruch in den Jeep sind Autos noch komplexer geworden. In der Automobilindustrie entwickeln sich ADAS-Technologien wie Tesla Autopilot rasant
Diese Systeme sollten die Fahrerfähigkeiten verbessern und das Auto mit intelligenten Sicherheitssystemen wie Kollisionsvermeidungssystemen ausstatten, um die Sicherheit zu erhöhen. Gleichzeitig macht die zunehmende Komplexität solche Systeme bei einer Gefährdung potenziell zerstörerisch, was Zweifel an der Sicherheit der Verwendung von ADAS-Technologien aufkommen lässt.
Privilegien gleiche Kontrolle
Forscher der Keen Security Labs gaben an, dass sie ROOT-Anmeldeinformationen (
die durch Remoteverbindung durch Ausnutzen einer Reihe von Sicherheitslücken erhalten wurden - ca. übersetzt ) verwendet haben, um den erschreckendsten Teil ihres Hackings durchzuführen - die Kontrolle über das Tesla-Steuerungssystem auf "kontaktlose Weise" zu übernehmen, wie sie selbst sie schreiben. Die Forscher verwendeten Berechtigungen, um Autopilot-Steuerbefehle zu senden, während sich das Auto bewegte.
Die Möglichkeit der Beeinflussung der Scheibenwischer und des Spursteuerungssystems wurde durch den verbesserten Optimierungsalgorithmus erreicht, der zur Erzeugung der sogenannten "Kriegselemente" verwendet wurde, die dem Eingang der entsprechenden Fahrzeugsysteme zugeführt wurden.
Wie die Forscher herausfanden, treffen sowohl die Scheibenwischer als auch das Straßenerkennungssystem ihre Entscheidungen auf der Grundlage von Kameradaten. Daher war es nicht sehr schwierig, sie zu täuschen und sie zu zwingen, Bedingungen zu „sehen“, die tatsächlich nicht existierten.
Forscher haben dies erreicht, indem sie Bilder an das neuronale Netzwerk von Scheibenwischern gesendet und Straßenmarkierungen im Fall eines Straßenerkennungssystems geändert haben. In beiden Experimenten reagierte das System auf das, was es „sah“, anstatt auf die tatsächlichen Straßenzustände.
Wettbewerbsmodelle werden ebenfalls genau überwacht. Während immer mehr Systeme auf maschinellem Lernen beruhen, suchen immer mehr Forscher nach Möglichkeiten, ihre Arbeit zu beeinflussen
und falsche Eingaben zu machen .
Teslas Antwort
Tencent Keen veröffentlichte auf ihrem Blog Teslas Antwort auf den Hack, der überraschenderweise eindeutig defensiv war. Das Unternehmen lehnte den Kompromiss zwischen Scheibenwischern und Straßenerkennungssystemen ab, da diese "im wirklichen Leben nicht vorkommen" und daher kein Grund zur Sorge für die Fahrer sein sollten.
In ihrer Antwort betonte Tesla auch, dass Fahrer auf Wunsch das automatische Wischersystem ausschalten können. Darüber hinaus können sie "über das Lenkrad oder das Bremspedal auf manuelle Steuerung umschalten und müssen ständig darauf vorbereitet sein", insbesondere wenn der Verdacht besteht, dass das System nicht ordnungsgemäß funktioniert.
Tesla sprach über die Verwendung von ROOT-Berechtigungen bei der Entführung eines Autos und erinnerte die Forscher daran, dass das Unternehmen die im Bericht beschriebene Hauptschwachstelle bei der Aktualisierung des Sicherheitssystems im Jahr 2017 und der anschließenden umfassenden
Systemaktualisierung im letzten Jahr behoben hatte (die
Schwachstelle wurde in der Softwareversion 2018.24 behoben - ca. perev. ). Laut Teslas Antwort waren diese beiden Updates bereits verfügbar, bevor Tencent Keen Security Lab Unternehmen über seine Forschung informierte, sagte Tesla.
"In den vielen Jahren, in denen wir Autos auf der Straße produzieren, haben wir noch nie einen einzigen Verbraucher gesehen, der Opfer einer im Bericht dargestellten Sicherheitslücke geworden ist", fügte das Unternehmen hinzu.
Abgesehen von den Protesten des Unternehmens sind Sicherheitsexperten immer noch nicht davon überzeugt, dass ADAS-Systeme wie der Tesla-Autopilot kein Chaos und keinen Schaden verursachen, wenn sie unter die Kontrolle von Eindringlingen geraten. "Hersteller sollten dies bei der Entwicklung neuer Systeme berücksichtigen", sagte Jerry Gamblin.
"Es ist notwendig, den größten Teil der Aufmerksamkeit auf die Gewährleistung der Sicherheit von Systemen zu konzentrieren, die Verbrauchern und anderen Passagieren im Falle eines Kompromisses ernsthaften Schaden zufügen können", riet der Experte. "Die Hersteller müssen die Finanzen optimal verteilen und auf alle Schwierigkeiten, die sich aus Angriffen auf Sekundärsysteme ergeben, korrekt reagieren und können den Endbenutzer betreffen, der in keinem Fall gefährdet sein sollte."