يتحسن التعرف على الصور باستخدام الشبكات العصبية ، لكن حتى الآن لم يتغلب الباحثون على بعض أوجه القصور الأساسية فيها. حيث يرى الشخص بوضوح وبشكل واضح ، على سبيل المثال ، دراجة ، حتى الذكاء الاصطناعي المتقدم والمدرب يمكنه رؤية الطيور.
غالبًا ما يكون السبب هو ما يسمى "البيانات الضارة" (أو "العناصر التنافسية" ، أو "النسخ الضارة" أو حتى مجموعة من الخيارات ، لأن "الأمثلة المعادية" لم تتلق ترجمة مقبولة بشكل عام). هذه هي البيانات التي يخدعها مصنف الشبكة العصبية ، مما يؤدي إلى انزلاق علامات الفئات الأخرى إليه - وهي معلومات ليست مهمة وليست مرئية للإدراك البشري ، ولكنها ضرورية لرؤية الآلة.
نشر باحثون من Google عملاً في عام 2015 ، حيث أوضحوا المشكلة في هذا المثال:
تم تطبيق تدرج "ضار" على صورة الباندا. بطبيعة الحال ، يستمر الشخص في الصورة الناتجة في رؤية الباندا ، والشبكة العصبية تتعرف عليها على أنها جيبون ، حيث تم خلط إشارات فئة أخرى بشكل خاص في تلك الأجزاء من الصورة التي تعلمت بها الشبكة العصبية تحديد الباندا.
في المناطق التي يجب أن تكون فيها رؤية الجهاز دقيقة للغاية ، ويمكن أن يكون للخطأ والقرصنة وأفعال المهاجمين عواقب وخيمة ، فإن البيانات الضارة تشكل عقبة خطيرة أمام التنمية. التقدم في المعركة بطيء ، وقررت GoogleAI (وحدة أبحاث الذكاء الاصطناعي في Google) جذب قوة المجتمع وتنظيم المنافسة.
تقدم الشركة الجميع لإنشاء آلياتهم الخاصة للحماية من البيانات الضارة ، أو العكس - صور مدللة تمامًا لا تتعرف عليها أي خوارزمية بشكل صحيح. من يستطيع أن يفعل الأفضل سيحصل على جائزة نقدية كبيرة (لم يتم الإعلان عن الحجم بعد).
ستبدأ المسابقة بإحماء وتشغيل الخوارزميات الأولى للهجمات البسيطة باستخدام البيانات الضارة. اختارت Google ثلاث مجموعات بيانات مع أنواع غش شائعة ومدروسة جيدًا. يجب على المشاركين إنشاء خوارزميات تتعرف على جميع الصور المقترحة فيها دون خطأ واحد أو إجابة غامضة.
نظرًا لأن الظروف التي تستند إليها البيانات الضارة في مجموعات بيانات التدفئة معروفة ويمكن الوصول إليها ، يتوقع المنظمون من المشاركين إنشاء خوارزميات مصممة خصيصًا لهذه الهجمات بسهولة. لذلك ، يحذرون - الحلول الأكثر وضوحا ليس لديهم فرصة واحدة في الجولة الثانية. يبدأ بعد الإحماء ، وسيكون هناك بالفعل جزء تنافسي فيه ، حيث سيتم تقسيم المشاركين إلى مهاجمين ومدافعين.
سيتم بناء المسابقة حول التعرف على الصور مع الطيور والدراجات. أولاً ، سيراقب الأشخاص كل صورة مقترحة وسيصدرون حكمًا مجهولًا تم تصويره هناك. ستدخل الصورة في مجموعة البيانات فقط عندما يوافق جميع الحكام على أنها تظهر بوضوح إما طائرًا أو دراجة ، ولا توجد علامات على الارتباك الواضح (على سبيل المثال ، الطيور على الدراجات أو مجرد أنماط وصور مجردة).
أعلاه أمثلة على الصور المناسبة ، أدناه غير مناسبةيجب على المشاركين المدافعين إنشاء خوارزمية أنه بدون خطأ واحد ، سيتم توزيع الصور إلى ثلاث فئات - "الطيور" و "الدراجات" و "إلى أجل غير مسمى".أي أنه في المرحلة التنافسية - على عكس التسخين - قد تمتنع الخوارزمية عن الرد ، ولكن وفقًا لنتائج معالجة مجموعة البيانات ، يجب ألا تقع أكثر من 20٪ من الصور في غير مسمى.
المتطلبات الفنية للخوارزميات هي كما يلي:
- يجب التعرف على 80٪ من الصور. لا يسمح بالأخطاء. إذا انضم المشاركون بالفعل خلال المرحلة التنافسية ، فيجب عليهم معالجة مجموعتي البيانات السابقين بنجاح.
- يجب أن يكون عرض النطاق الترددي صورة واحدة على الأقل في الدقيقة على Tesla P100.
- يجب أن يكون النظام سهل القراءة ، مكتوبًا في TensorFlow أو PyTorch أو Caffe أو NumPy. يمكن إزالة الأنظمة المربكة للغاية والتي يصعب إعادة إنتاجها من المنافسة بقرار من القضاة.
إذا استمرت الخوارزمية الواقية لمدة 90 يومًا بدون أخطاء ، فسيأخذ منشئوها نصف مجموع الجائزة.
يحصل المهاجمون على إمكانية الوصول إلى نماذج غير مدربة وإلى التعليمات البرمجية المصدر بالكامل للخوارزميات.تتمثل مهمتهم في إنشاء صورة يقبلها جميع القضاة كصورة لا لبس فيها لدراجة أو طائر ، وستتخذ الخوارزمية القرار الخاطئ. ستجمع Google جميع الصور المقترحة لكل أسبوع ، ثم ترسلها للفحص ثم تُدرجها في مجموعات البيانات.
إذا تمكن المهاجمون من خداع الخوارزمية التي تعاملت مع المهام السابقة ، فسوف يتلقون أموالًا من النصف الثاني من مجموع الجوائز. إذا حققت العديد من الفرق النجاح ، فسيتم تقسيم الأموال فيما بينها.
ليس لدى المسابقة مواعيد نهائية واضحة وستستمر حتى تظهر أفضل خوارزمية وقائية. ووفقًا للمنظمين ، فإن هدفهم ليس مجرد نظام يصعب الالتفاف عليه ، بل هو شبكة عصبية محصنة تمامًا ضد أي هجمات. يمكن العثور على إرشادات المشاركة على
صفحة المشروع على Github .