تمكن باحثو الأمن من التحكم عن بعد في نظام الطيار الآلي لسيارة Tesla Model S والتحكم فيها بمساعدة عصا التحكم في اللعبة. وبالتالي ، لفتوا الانتباه إلى مشاكل السلامة المحتملة لأنظمة مساعدة السائق الحديثة (ADAS) ، والتي تتمثل مهمتها بالتحديد في زيادة سلامة الشخص الذي يقود السيارة.قام باحثون من Tencent Keen Security Lab بنجاح بتنشيط نظام الطيار الآلي Tesla Tesla Autopilot ، وسيطروا عليه ، كما ورد في
منشور جديد يفصل تفاصيل الدراسة.
نشرت المجموعة ، التي سبق أن أظهرت نتائجها في Black Hat USA 2018 Security Conference ،
شريط فيديو يوضح الاختراق. يصف التقرير الجديد ثلاث طرق للسيطرة على نظام الطيار الآلي للسيارة من خلال استغلال العديد من نقاط الضعف في
وحدة التحكم الإلكترونية (ECU ).
يسلط الباحثون الضوء على ثلاثة إنجازات رئيسية في كسر نسخة نظام الطيار الآلي ECU 18.6.1. أولاً ، باستخدام خطأ في نظام التعرف على الصور الخاص بالمساحات الآلية ، قاموا بتنشيط مساحات الزجاج الأمامي. ثانياً ، من خلال وضع ملصقات متداخلة على الطريق الذي يخدع نظام التعرف على المسار ، أجبروا Tesla على المناورة في حارة المرور القادمة. ثالثًا ، تمكنوا من التحكم عن بعد في السيارة حتى لو لم يتم تنشيط الطيار الآلي من قبل السائق.
وخلص الباحثون في تقرير إلى "أنه ثبت أنه من خلال تغيير البيئة الفيزيائية بشكل طفيف ، يمكننا التحكم في السيارة إلى حد ما دون اتصال بعيد بها. نأمل أن تجذب الانتباه العيوب المحتملة التي تكشف عنها سلسلة من الاختبارات إلى جوانب من الشركات المصنعة ، مما سيزيد من استقرار وموثوقية آلات الدفع الذاتي الخاصة بهم. "
مخاطر التقدم
بطبيعة الحال ، يدعي الباحثون أنهم أبلغوا تسلا بعد اختراق بنجاح نظام الطيار الآلي ، ووفقا لتينسنت ، تسلا "إصلاح على الفور" عددا من الأخطاء.
تمكن الباحثون في Tencent Keen Security Lab من اختراق نظام الطيار الآلي لنظام مساعدة السائق المثالي في Tesla Model S. (المصدر: Tesla)بغض النظر عن ذلك ، توضح الدراسة وجود خطر وشيك ، يكمن في الاستخدام المحتمل من قبل المتسللين للانفتاح والذكاء للسيارات الحديثة كأساس للهجمات ؛ لأول مرة تم عرض هذه الفرصة بوضوح في
اختراق عام 2015 لسيارة جيب شيروكي ، التي نشرت في Wired.
وقال جيري جامبلين ، كبير مهندسي الاستخبارات الأمنية في Kenna Security ، في مقابلة مع Security Ledger ، "تحتوي السيارة الحديثة المتوسطة على المئات من أجهزة الاستشعار والعديد من أجهزة الكمبيوتر على متنها ، كل منها يحتمل أن يكون عرضة للهجمات المادية ، و / أو البرامجية ،". . "هذه الحقيقة تخلق أرضية مذهلة للهجمات التي يجب على شركات صناعة السيارات منعها ، وكذلك تخلق مجالًا مستهدفًا واسعًا للمهاجمين المحتملين."
منذ اقتحام سيارة جيب ، أصبحت السيارات أكثر تعقيدًا. لذلك ، في صناعة السيارات ، تتطور تقنيات ADAS مثل Tesla Autopilot بسرعة
يجب أن تعمل هذه الأنظمة على تعزيز قدرات السائق وتزويد السيارة بأنظمة أمان ذكية ، مثل أنظمة تجنب الاصطدام ، من أجل زيادة السلامة. وفي الوقت نفسه ، فإن التعقيد المتزايد يجعل مثل هذه الأنظمة مدمرة عند تعرضها للخطر ، مما يلقي ظلالا من الشك على سلامة استخدام تقنيات ADAS.
امتيازات التحكم على قدم المساواة
قال الباحثون في Keen Security Labs إنهم استخدموا بيانات اعتماد ROOT (
التي تم الحصول عليها عن طريق الاتصال عن بُعد من خلال استغلال عدد من الثغرات - الترجمة تقريبًا. ) في تنفيذ الجزء الأكثر إثارة للخوف من القرصنة - السيطرة على نظام التحكم في Tesla "بطريقة لا تلامس" ، لأنهم يكتبون. استخدم الباحثون امتيازات لإرسال أوامر التحكم الآلي في حين كانت السيارة تتحرك.
تم تحقيق إمكانية التأثير على المساحات ونظام التحكم في المسار بسبب تحسين خوارزمية التحسين المستخدمة لإنشاء ما يسمى "العناصر المتحاربة" ، والتي تم تغذيتها على مدخلات أنظمة المركبات المقابلة.
يتخذ كل من المساحات ونظام التعرف على الطريق قراراتهم بناءً على بيانات الكاميرا ، كما وجد الباحثون. وبالتالي ، لم يكن من الصعب للغاية خداعهم ، مما أجبرهم على "رؤية" الظروف التي لم تكن موجودة بالفعل.
لقد حقق الباحثون ذلك عن طريق إرسال الصور إلى الشبكة العصبية للممسحات وتعديل علامات الطرق في حالة وجود نظام للتعرف على الطرق. في كلتا التجربتين ، استجاب النظام لما "شاهد" بدلاً من ظروف الطريق الفعلية.
يتم أيضًا مراقبة نماذج المنافسين عن كثب. في حين يعتمد عدد متزايد من الأنظمة على التعلم الآلي ، يبحث المزيد من الباحثين عن طرق للتأثير على عملهم ،
مع إعطاء مدخلات خاطئة .
الجواب تسلا
على مدونتها ، نشرت Tencent Keen رد Tesla على الاختراق ، والذي كان من المدهش أنه دفاعي بشكل واضح. رفضت الشركة حل وسط المساحات وأنظمة التعرف على الطرق بسبب حقيقة أنها "لن تحدث في الحياة الحقيقية" ، وبالتالي ، لا ينبغي أن تكون مصدر قلق للسائقين.
في ردهم ، شدد تسلا أيضًا على أن السائقين ، إذا رغبت في ذلك ، يمكنهم إيقاف تشغيل نظام المساحات التلقائي. بالإضافة إلى ذلك ، لديهم القدرة على "التبديل إلى التحكم اليدوي باستخدام عجلة القيادة أو دواسة الفرامل ويجب أن يكونوا مستعدين دائمًا للقيام بذلك" ، خاصة إذا كان هناك شك في أن النظام لا يعمل بشكل صحيح.
في معرض حديثه عن استخدام امتيازات ROOT عند اختطاف سيارة ، ذكّرت Tesla الباحثين بأن الشركة قد أصلحت الثغرة الرئيسية الموضحة في التقرير عند تحديث نظام الأمان في عام 2017 وتحديث النظام الشامل الشامل في العام الماضي (
تم إصلاح الثغرة الأمنية في إصدار البرنامج 2018.24 - تقريبًا. perev. ). علاوة على ذلك ، ووفقًا لاستجابة Tesla ، فإن كلا التحديثين كانا متاحين حتى قبل أن يخبر Tencent Keen Security Lab الشركات عن أبحاثه ، حسبما قالت Tesla.
"في السنوات العديدة التي ننتج فيها سيارات على الطرق ، لم نر قط مستهلكًا واحدًا كان ضحية لأي ثغرة أمنية معروضة في التقرير" ، أضافت الشركة.
إذا تركنا جانبا احتجاجات الشركة ، لا يزال خبراء الأمن غير مقتنعين بأن أنظمة ADAS ، مثل Tesla Autopilot ، لن تسبب الفوضى والأضرار إذا وقعت تحت سيطرة المتسللين. قال جيري جامبلين: "يجب على الشركات المصنعة أخذ ذلك في الاعتبار عند تطوير أنظمة جديدة".
"من الضروري تركيز معظم الاهتمام على ضمان أمن الأنظمة التي يمكن أن تسبب أضرارًا جسيمة للمستهلكين والركاب الآخرين في حالة وجود حل وسط" ، نصح الخبير. "يجب على المصنِّعين أن يوزعوا الأموال على النحو الأمثل وأن يستجيبوا بشكل صحيح لأي صعوبات تنشأ عن الهجمات على الأنظمة الثانوية ويمكن أن تؤثر على المستخدم النهائي ، الذي يجب ألا يكون بأي حال من الأحوال في خطر"