Peneliti keamanan berhasil mendapatkan kendali jarak jauh atas sistem autopilot pada mobil Tesla Model S dan mengendalikannya dengan bantuan joystick game. Dengan demikian, mereka menarik perhatian pada masalah keamanan potensial sistem bantuan pengemudi modern (Advanced Driver Assistance Systems, ADAS), yang tugasnya justru untuk meningkatkan keselamatan orang yang mengemudi.Para peneliti di Tencent Keen Security Lab berhasil mengaktifkan sistem autopilot Tesla Tesla Tesla, mendapatkan kontrol atas itu, seperti yang dilaporkan dalam
publikasi baru yang merinci rincian penelitian.
Kelompok itu, yang sebelumnya mendemonstrasikan temuannya di Konferensi Keamanan Black Hat USA 2018, memposting
video yang menunjukkan peretasan. Laporan baru menjelaskan tiga cara untuk mendapatkan kendali atas sistem autopilot mobil dengan mengeksploitasi beberapa kerentanan dalam
unit kontrol elektronik (ECU ).
Para peneliti menyoroti tiga pencapaian utama dalam memecahkan sistem autopilot ECU versi 18.6.1. Pertama, menggunakan kesalahan dalam sistem pengenalan gambar wiper otomatis, mereka mengaktifkan wiper kaca depan. Kedua, dengan menempatkan stiker yang mengganggu di jalan yang menipu sistem pengenalan trek, mereka memaksa Tesla untuk bermanuver ke jalur lalu lintas yang akan datang. Ketiga, mereka dapat mengontrol kontrol mobil dari jarak jauh walaupun autopilot tidak diaktifkan oleh pengemudi.
"Dengan demikian, terbukti bahwa dengan sedikit mengubah lingkungan fisik, kita dapat mengendalikan mobil sampai batas tertentu tanpa koneksi jarak jauh ke sana," para peneliti menyimpulkan dalam sebuah laporan. "Kami berharap bahwa cacat potensial yang diungkapkan oleh serangkaian tes akan menarik perhatian dengan sisi produsen, yang akan meningkatkan stabilitas dan keandalan mesin self-propelled mereka. "
Risiko Kemajuan
Tentu saja, para peneliti mengklaim bahwa mereka memberi tahu Tesla setelah berhasil mengkompromikan sistem autopilot dan, menurut Tencent, Tesla “segera memperbaiki” sejumlah kesalahan.
Para peneliti di Tencent Keen Security Lab telah dapat mengkompromikan sistem autopilot dari sistem bantuan pengemudi Tesla Model S. yang sempurna. (Sumber: Tesla)Terlepas dari ini, penelitian menunjukkan bahaya yang akan terjadi, yang terletak pada potensi penggunaan oleh peretas keterbukaan dan kecerdasan mobil modern sebagai tempat serangan; Untuk pertama kalinya kesempatan ini ditunjukkan dengan jelas dalam
retasan Jeep Cherokee 2015 , yang diterbitkan di Wired.
"Rata-rata mobil modern berisi ratusan sensor dan banyak komputer terpasang, yang masing-masing berpotensi rentan terhadap serangan fisik, perangkat lunak, dan / atau logis," kata Jerry Gamblin, insinyur utama untuk intelijen keamanan di Kenna Security, dalam sebuah wawancara dengan Security Ledger . "Fakta ini menciptakan tempat yang luar biasa untuk serangan yang harus dihindari oleh pabrikan mobil, dan juga menciptakan bidang target yang luas bagi penyerang potensial."
Sejak membobol Jeep, mobil menjadi semakin kompleks. Jadi, dalam industri otomotif, teknologi ADAS seperti Tesla Autopilot berkembang pesat
Sistem ini harus meningkatkan kapabilitas pengemudi dan memberi mobil sistem keamanan cerdas, seperti sistem penghindaran benturan, untuk meningkatkan keselamatan. Pada saat yang sama, meningkatnya kompleksitas membuat sistem seperti itu berpotensi merusak ketika dikompromikan, yang menimbulkan keraguan pada keamanan menggunakan teknologi ADAS.
Keistimewaan kontrol yang sama
Para peneliti di Keen Security Labs mengatakan mereka menggunakan kredensial ROOT (
diperoleh dengan menghubungkan dari jarak jauh dengan mengeksploitasi sejumlah kerentanan - kira-kira. Terjemahan )
. Dalam melakukan bagian yang paling menakutkan dari peretasan mereka - mengambil kendali sistem kontrol Tesla dengan “cara tanpa kontak”, sebagaimana mereka sendiri mereka menulis. Peneliti menggunakan hak istimewa untuk mengirim perintah kontrol autopilot saat mobil bergerak.
Kemungkinan mempengaruhi wiper dan sistem kontrol trek tercapai karena algoritma optimasi yang ditingkatkan digunakan untuk membuat apa yang disebut "elemen perang", yang dimasukkan ke input dari sistem kendaraan yang sesuai.
Baik wiper dan sistem pengenalan jalan membuat keputusan berdasarkan data kamera, seperti yang ditemukan para peneliti. Jadi, tidak terlalu sulit untuk menipu mereka, memaksa mereka untuk "melihat" kondisi yang sebenarnya tidak ada.
Para peneliti telah mencapai ini dengan mengirimkan gambar ke jaringan saraf wiper dan memodifikasi tanda jalan dalam kasus sistem pengenalan jalan. Dalam kedua percobaan, sistem merespons apa yang dilihatnya alih-alih kondisi jalan yang sebenarnya.
Model pesaing juga dimonitor dengan ketat. Sementara semakin banyak sistem mengandalkan pembelajaran mesin, semakin banyak peneliti mencari cara untuk mempengaruhi pekerjaan mereka,
memberikan input yang salah .
Jawaban Tesla
Di blog mereka, Tencent Keen menerbitkan tanggapan Tesla terhadap peretasan, yang, secara mengejutkan, jelas bersifat defensif. Perusahaan menolak kompromi wiper dan sistem pengenalan jalan karena fakta bahwa mereka "tidak akan terjadi dalam kehidupan nyata" dan, oleh karena itu, tidak boleh menjadi alasan untuk kekhawatiran pengemudi.
Dalam tanggapan mereka, Tesla juga menekankan bahwa pengemudi, jika diinginkan, dapat mematikan sistem penghapus otomatis. Selain itu, mereka memiliki kemampuan untuk "beralih ke kontrol manual menggunakan setir atau pedal rem dan harus selalu siap untuk melakukan ini," terutama jika ada kecurigaan bahwa sistem tidak bekerja dengan benar.
Berbicara tentang penggunaan hak istimewa ROOT ketika membajak sebuah mobil, Tesla mengingatkan para peneliti bahwa perusahaan memperbaiki kerentanan utama yang dijelaskan dalam laporan ketika memperbarui sistem keamanan pada 2017 dan pembaruan sistem ekstensif berikutnya tahun lalu (
kerentanan diperbaiki dalam versi perangkat lunak 2018.24 - kira-kira. perev. ). Selain itu, menurut tanggapan Tesla, kedua pembaruan ini tersedia bahkan sebelum Tencent Keen Security Lab memberi tahu perusahaan tentang penelitiannya, kata Tesla.
"Selama bertahun-tahun kami memproduksi mobil di jalan, kami belum pernah melihat satu pun konsumen yang menjadi korban dari kerentanan yang disajikan dalam laporan," tambah perusahaan itu.
Mengesampingkan protes perusahaan, para pakar keamanan masih tidak yakin bahwa sistem ADAS, seperti Tesla Autopilot, tidak akan menyebabkan kekacauan dan kerusakan jika mereka berada di bawah kendali penyusup. "Produsen harus mempertimbangkan ini ketika mengembangkan sistem baru," kata Jerry Gamblin.
"Penting untuk memusatkan sebagian besar perhatian pada memastikan keamanan sistem yang dapat menyebabkan kerusakan serius bagi konsumen dan penumpang lain jika terjadi kompromi," saran ahli. "Pabrikan harus mendistribusikan keuangan secara optimal dan menanggapi dengan benar setiap kesulitan yang timbul dari serangan pada sistem sekunder dan dapat memengaruhi pengguna akhir, yang dalam kasus apa pun seharusnya tidak berisiko."