بدأت حرب الذكاء الاصطناعي تهيمن على استراتيجيات الولايات المتحدة الأمريكية والصين ، لكن هل التقنيات جاهزة لذلك؟

في مارس الماضي ، أعلن باحثون صينيون عن عزمهم شن هجوم رائع ومدمّر على أحد أهم الأصول التكنولوجية الأمريكية: سيارة تسلا الكهربائية.
أظهر فريق من مختبر الأمن في شركة التكنولوجيا الصينية العملاقة تينسنت عدة طرق لخداع خوارزمية تسلا في الذكاء الاصطناعي. عن طريق تغيير البيانات إلى أجهزة استشعار السيارة بشكل طفيف ، تمكن الباحثون من إرباك الذكاء الاصطناعي الذي يقود السيارة.
في إحدى الحالات ، كان هناك نمط مخفي على شاشة التلفزيون جعل الماسحات تعمل.
في مكان آخر ، تم تغيير العلامات على الطريق قليلاً لإرباك نظام القيادة المستقل ، وبعد ذلك حوّل السيارة إلى ممر مجاور.
عادة ما تقوم خوارزميات تسلا بعمل رائع في تحديد قطرات المطر على الزجاج الأمامي أو اتباع علامات الطريق ، ولكن مبدأ التشغيل الخاص بها يختلف اختلافًا جذريًا عن تصور الإنسان. لهذا السبب ، يصبح من السهل بشكل مفاجئ خداع خوارزميات التعلم العميق (اكتساب شعبية بسرعة في مجالات مثل التعرف على الوجوه وتشخيص السرطان) إذا كنت تعرف نقاط ضعفها.
قد يبدو أنه في الخلط بين سيارة تسلا لا توجد تهديدات استراتيجية للولايات المتحدة. ولكن ماذا لو تم استخدام تقنيات مشابهة لخداع طائرات بدون طيار أو برامج تحلل صور الأقمار الصناعية بحيث ترى كائنات غير موجودة في الصور ، أو لا ترى ما هي عليه بالفعل؟
تراكم الذكاء الاصطناعي
في جميع أنحاء العالم ، تعتبر منظمة العفو الدولية بالفعل الخطوة التالية في الحصول على ميزة عسكرية كبيرة.
هذا العام ، أعلنت الولايات المتحدة عن تنفيذ إستراتيجية تستخدم فيها منظمة العفو الدولية في العديد من المجالات العسكرية ، بما في ذلك تحليل البيانات ، وصنع القرار ، والمركبات ذاتية الحكم ، والخدمات اللوجستية ، والأسلحة. من أصل 718 مليار دولار التي طلبتها وزارة الدفاع لعام 2020 ، سيتم تخصيص 927 مليون دولار لمنظمة العفو الدولية والتعلم الآلي. من بين المشاريع الحالية ، هناك كلاهما ممل (التحقق من قدرة الذكاء الاصطناعى على التنبؤ بالحاجة إلى خدمة الدبابات والشاحنات) والأكثر تطوراً في مجال التسلح (أسراب الطائرات بدون طيار).
يدافع البنتاغون عن استخدام الذكاء الاصطناعي ، لا سيما بسبب الخوف من أن يستخدم خصومه التكنولوجيا. في العام الماضي ، أرسل جيم ماتيس ، كوزير للدفاع ، إلى الرئيس دونالد ترامب مذكرة تحذر من أن الولايات المتحدة متأخرة بالفعل في مسائل الذكاء الاصطناعي. يمكن فهم قلقه.
في يوليو 2017 ، كشفت الصين عن استراتيجيتها لمنظمة العفو الدولية ، قائلة إن "أكبر الدول المتقدمة في العالم تقبل تطوير الذكاء الاصطناعي باعتباره الإستراتيجية الرئيسية لتحسين الوضع التنافسي وحماية أمن الدولة". بعد بضعة أشهر ، توصل فلاديمير بوتين ، رئيس روسيا ، إلى التنبؤ التالي: "أي شخص يصبح قائدًا في منظمة العفو الدولية سيحكم العالم" [
هذه ترجمة حرفية للمقطع المقتبس من المقال الأصلي. ولكن ، كما يحدث في كثير من الأحيان ، يتم تشويه الاقتباس. بدت هكذا : "إذا كان شخص ما يستطيع أن يضمن احتكارًا في مجال الذكاء الاصطناعي ، فإننا نفهم جميعًا العواقب - سيصبح حاكم العالم" / تقريبًا. العابرة. ].
يمكن فهم الرغبة في بناء أذكى الأسلحة وأكثرها فتكًا ، ولكن كما يظهر من اختراق Tesla ، يمكن للعدو الذي يعرف مبادئ خوارزمية الذكاء الاصطناعي تحييده أو قلبه ضد المالكين. قد لا يكون سر الفوز في حروب الذكاء الاصطناعى هو صنع الأسلحة الأكثر إثارة للإعجاب ، ولكن إتقان فن خداع البرمجيات الغادرة.
روبوتات المعركة
في يوم مشمس مشرق الصيف الماضي في واشنطن العاصمة ، جلس مايكل كنعان في مقهى البنتاغون ، وأكل ساندويتش ودهشته المجموعة الجديدة من خوارزميات التعلم الآلي القوية.
قبل ذلك بأسابيع قليلة ، كان كنعان يشاهد لعبة فيديو عملت فيها خمس خوارزميات الذكاء الاصطناعى معًا ، وفازت على خمسة أشخاص بالضرب واهتزت في مسابقة كان من الضروري فيها السيطرة على القوات والمخيمات والموارد المنتشرة في ساحة معركة كبيرة ومعقدة. ومع ذلك ، عبس كنعان تحت شعره الأشقر القصير كما وصف ما كان يحدث. لقد كان هذا العرض الأكثر إثارة للإعجاب لإستراتيجية الذكاء الاصطناعى على الإطلاق الذي رآه - رعشة غير متوقعة من الذكاء الاصطناعى ، على غرار تلك التي حدثت في لعبة الشطرنج ، وألعاب أتاري ، إلخ.
تم لعب هذه المعارك في Dota 2 ، وهي لعبة فيديو NF شهيرة لا تزال معقدة بشكل لا يصدق لأجهزة الكمبيوتر. يجب أن تدافع الفرق عن أراضيها من خلال مهاجمة معسكر العدو في بيئة أكثر تعقيدًا وخيانة من أي لعبة ألواح. يمكن للاعبين رؤية جزء صغير فقط من الحقل بأكمله ، وقد يستغرق الأمر حوالي نصف ساعة لتحديد ما إذا كانت استراتيجيتهم ناجحة.
لم يتم تطوير المعارضين الخاضعين لسيطرة الذكاء الاصطناعي من قبل الجيش ، ولكن من قِبل OpenAI ، الذي تم إنشاؤه لإجراء الأبحاث الأساسية في مجال الذكاء الاصطناعى من قِبل نجوم وادي السيليكون ، بما في ذلك Elon Mask و Sam Altman. طور هؤلاء المحاربون الخوارزميون ، المعروفون باسم OpenAI Five ، استراتيجية الفوز الخاصة بهم ، وممارسة اللعبة دون كلل ، واستخدام الحركات التي أثبتت أنها الأفضل.
هذا هو نوع البرامج التي تهم كنعان ، أحد أولئك الذين يجب عليهم استخدام الذكاء الاصطناعي لتحديث الجيش الأمريكي. من وجهة نظره ، يُظهر هذا البرنامج المزايا التي سيحصل عليها الجيش ، مع مساعدة كبار الباحثين العالميين في مجال الذكاء الاصطناعى. ومع ذلك ، سواء كانوا مستعدين لتقديمها - أصبح هذا السؤال أكثر حدة.
قاد كنعان مشروع القوات الجوية الأمريكية Maven ، وهي مبادرة عسكرية تهدف إلى استخدام الذكاء الاصطناعي لأتمتة التعرف على الأشياء في الصور الجوية. كانت Google هي المقاول للمشروع ، وعندما اكتشف بعض موظفي الشركة في عام 2018 ، قررت الشركة التخلي عن هذا المشروع. بعد ذلك ، أصدرت الشركة قواعد استخدام الذكاء الاصطناعى ، حيث كتبت أن Google لن تستخدم الذكاء الاصطناعى الخاص بها لتطوير "أسلحة أو تقنيات أخرى هدفها الرئيسي أو طريقة تنفيذها تنطوي على إلحاق الأذى بالناس".
تبع Google موظفي من شركات التكنولوجيا الكبرى الأخرى ، مما يتطلب من أصحاب العمل الامتناع عن العقود العسكرية. أيد العديد من الباحثين البارزين في منظمة العفو الدولية محاولات تنظيم حظر عالمي على الأسلحة ذاتية الحكم بالكامل.
ومع ذلك ، بالنسبة لكنعان ، ستكون مشكلة كبيرة إذا لم يتمكن الجيش من العمل مع الباحثين - مثل أولئك الذين طوروا OpenAI Five. إن الاحتمال الذي سيحصل فيه الخصم على إمكانية الوصول إلى هذه التكنولوجيا المتقدمة يبدو أكثر سوءًا. وقال "الرمز موجود في المجال العام ، ويمكن للجميع استخدامه". وأضاف: الحرب أكثر تعقيدًا بكثير من لعبة فيديو ".

زيادة منظمة العفو الدولية
يشدد كنعان على السؤال مع منظمة العفو الدولية ، لا سيما لأنه يعرف عن كثب مدى الفائدة التي يمكن أن تكون للجيش. قبل ست سنوات ، كان ضابط مخابرات في القوات الجوية الأمريكية في أفغانستان ، وكان مسؤولاً عن نشر جهاز جديد لجمع المعلومات الاستخبارية: محلل فائق الطيفية. يمكن أن تلاحظ هذه الأداة أشياء مخفية عن الأنظار العادية ، مثل الخزانات المغطاة بقماش التمويه ، أو الانبعاثات من مصنع متفجر غير قانوني. يقول كنعان إن هذا النظام سمح للجيش بإزالة آلاف الكيلوغرامات من المتفجرات من ساحة المعركة. ومازال ، في كثير من الأحيان ، لا يستطيع المحللون في الواقع تحليل الكميات الضخمة من البيانات التي يجمعها المحلل. يقول: "لقد قضينا وقتًا طويلاً في النظر إلى البيانات ، وقليلًا من الوقت في اتخاذ القرارات". "في بعض الأحيان استمر الأمر كثيراً لدرجة أننا بدأنا نفكر فيما إذا كان بإمكاننا إنقاذ المزيد من الأرواح".
يمكن العثور على الحل في تحقيق تقدم في مجال رؤية الكمبيوتر من قبل فريق من جامعة تورونتو تحت إشراف جوفري هينتون. لقد أظهر العلماء أن خوارزمية مستوحاة من شبكة عصبية متعددة الطبقات يمكن أن تتعرف على الكائنات بدقة غير مسبوقة إذا قدمت لها ما يكفي من البيانات وقوة الحوسبة.
يعني تعلم الشبكة العصبية أنها ستتلقى البيانات ، على سبيل المثال ، بكسلات الصور ، وستقوم بمعالجتها ، وتغيير الاتصالات الداخلية باستمرار في الشبكة باستخدام التقنيات الرياضية ، بحيث يكون الإخراج أقرب ما يمكن إلى نتيجة محددة ، على سبيل المثال ، تحديد ما إذا كان صورة الكائن. بمرور الوقت ، تتعلم هذه الشبكات العصبية للتعلم العميق التعرف على أنماط من وحدات البكسل التي تشير ، على سبيل المثال ، إلى الأشخاص أو المنازل. أحدثت طفرات في التعلم العميق طفرة الذكاء الاصطناعي الحالية ؛ هذه التكنولوجيا هي أساس الأنظمة المستقلة لخوارزميات تسلا و OpenAI.
أدرك كنعان على الفور إمكانية التعلم العميق لمعالجة أنواع مختلفة من الصور وبيانات الاستشعار عن العمليات العسكرية. سرعان ما بدأ هو وزملاؤه من سلاح الجو في تحفيز السلطات للاستثمار في هذه التكنولوجيا. ساهمت جهودهم في تقدم البنتاغون لخطط تطوير الذكاء الاصطناعي.
ومع ذلك ، بعد وقت قصير من اقتحام التعلم العميق في مجال الذكاء الاصطناعى ، اكتشف الباحثون أن نفس الخصائص التي تجعلها أداة قوية هي كعب أخيل.
إذا كان من الممكن حساب كيفية ضبط معلمات الشبكة بحيث يصنف الكائن بشكل صحيح ، فمن الممكن حساب ما هي التغييرات الطفيفة في الصورة التي يمكن أن تسبب الشبكة في ارتكاب خطأ. في مثل هذه "الأمثلة التنافسية" ، بعد تغيير عدد قليل من وحدات البكسل للصورة ، تبدو متشابهة بالنسبة لشخص ما ، لكن خوارزمية الذكاء الاصطناعى ينظر إليها بطريقة مختلفة تمامًا. يمكن أن تحدث المشكلة في أي مكان يستخدم فيه التعلم العميق - على سبيل المثال ، في إدارة المركبات الآلية أو مهام التخطيط أو اكتشاف اختراقات الشبكة.
وفي خضم كل هذا النمو النشط في استخدام الذكاء الاصطناعى للأغراض العسكرية ، لاحظ قلة من الناس نقاط الضعف الغامضة في البرمجيات.
الأهداف المتحركة
كائن واحد جدير بالذكر يوضح القدرة الكاملة للتعلم آلة تنافسية. هذه هي صورة خطأ.
يبدو الأمر عاديًا بالنسبة لي أو لك ، لكنها ترى طائرة بدون طيار أو روبوتًا مع خوارزمية رؤية آلية معينة يتم الحصول عليها من خلال التدريب العميق ... كسلاح. في الواقع ، يمكن إعادة تشكيل النمط الفريد من العلامات الموجودة على صدفة السلحفاة بحيث يمكن رؤية رؤية الكمبيوتر المستندة إلى الذكاء الاصطناعي ، والتي يمكن الوصول إليها من خلال خدمة Google السحابية ، بين أي شيء (ومنذ ذلك الحين قامت Google بتحديث خوارزمية ، ولا يمكنك خداعها فقط ).
في الوقت نفسه ، لم تصنع السلحفاة من قبل عدو الدولة ، ولكن بواسطة أربعة رجال من معهد ماساتشوستس للتكنولوجيا. أحدهم هو أنيش أتالي ، وهو شاب نحيف ومؤدب للغاية يعمل في مجال أمن الكمبيوتر في مختبر علوم الكمبيوتر والذكاء الاصطناعي (CSAIL). ويظهر مقطع فيديو يدور على حاسوبه المحمول عملية اختبار السلاحف (بعض هذه الطرز ، سُرقت في مؤتمر) ، والتي تدور 360 درجة وتحولت رأسًا على عقب. وترى الخوارزمية نفس الشيء هناك: "بندقية" ، "بندقية" ، "بندقية".
كانت الأمثلة التنافسية الأولى هشة وغالبًا ما رفضت العمل ، لكن أتالي وأصدقائه كانوا يعتقدون أنهم سيكونون قادرين على تطوير نسخة موثوق بها إلى حد ما لمثل هذا المثال يمكن أن يعمل حتى على كائن مطبوع على طابعة ثلاثية الأبعاد. كان من الضروري محاكاة الأجسام ثلاثية الأبعاد وتطوير خوارزمية تخلق سلحفاة - مثال تنافسي يعمل من زوايا نظر مختلفة وعلى مسافات مختلفة. ببساطة ، توصلوا إلى خوارزمية تخلق شيئًا يخدع التعلم الآلي بشكل موثوق.
التطبيقات العسكرية لهذه التكنولوجيا واضحة. باستخدام خوارزميات التمويه التنافسية والدبابات والطائرات يمكن أن تخفيه من الأقمار الصناعية وطائرات بدون طيار مع منظمة العفو الدولية. يمكن للصواريخ التي تعمل بالطاقة AI أن تتغاضى عن البيانات التنافسية ، أو حتى تعود إلى أهداف صديقة. يمكن تسميم المعلومات التي تغذيها الخوارزميات الذكية عن طريق إخفاء تهديد إرهابي أو بحبس الجنود في العالم الحقيقي.
فوجئت Atalya بمدى قلقه بشأن التعلم الآلي التنافسي. "تحدثت مع مجموعة من الناس من هذه الصناعة ، وسألهم عما إذا كانوا قلقين بشأن الأمثلة التنافسية" ، كما يقول. "كلهم تقريبا أجابوا سلبا".
لحسن الحظ ، بدأ البنتاغون في الاهتمام بهذا. في أغسطس ، أعلن مشروع DARPA عن إطلاق العديد من المشاريع البحثية الرئيسية لمنظمة العفو الدولية. من بينها GARD ، وهو برنامج يركز على تعلم الآلة التنافسي. تقول هوا شيجيلمان ، الأستاذة بجامعة ماساتشوستس ومديرة برنامج GARD ، إن هذه الهجمات يمكن أن تكون مدمرة في المواقف العسكرية لأن الناس لا يستطيعون التعرف عليها. "من المفترض أن نكون أعمى" ، كما يقول. "وهذا يجعل الوضع خطيرًا للغاية."
تفسر مشكلات تعلم الآلة المتنافسة أيضًا سبب حرص البنتاغون على العمل مع شركات مثل Google و Amazon ، وكذلك معاهد البحوث مثل MIT. تتطور التكنولوجيا بسرعة كبيرة ، ويتم تحقيق أحدث التطورات في المختبرات التي تديرها شركات وادي السيليكون وأفضل الجامعات ، بدلاً من مقاولي الدفاع العاديين.
ما هو مهم ، أنها تحدث أيضا خارج الولايات المتحدة ، ولا سيما في الصين. يقول كنعان: "أعتقد أن هناك عالمًا آخر قادم". "وعلينا أن نحاربها مع منظمة العفو الدولية".
إن رد الفعل الغاضب على استخدام الذكاء الاصطناعي للأغراض العسكرية أمر مفهوم ، لكنه قد لا يرى الصورة كاملة. الناس يشعرون بالقلق من الروبوتات القاتلة الذكية ، ومع ذلك ، فمن المحتمل أن نكون في وقت قريب في خطر من الضباب الخوارزمي للحرب - والتي من خلالها حتى أذكى الآلات لا تستطيع رؤية أي شيء.