يجعل نظام Amazon AI من السهل معالجة المحتوى الفاحش للمستخدم

تستخدم الآلاف من الشركات خدمة رؤية آلة Rekognition من Amazon للبحث عن الصور الفاحشة ومقاطع الفيديو التي قام المستخدمون بتحميلها




تستخدم تقنية Rekognition المثيرة للجدل من Amazon بالفعل لإزالة صور القضيب من مواقع الأطعمة. على الأقل هذا مثال على استخدامه. في مرحلة ما ، واجهت خدمة تسليم الأغذية ومقرها لندن Deliveroo مشكلات تتعلق بإدارة المحتوى. في حالة وجود مشكلة في الغذاء ، يرسل عملاء Deliveroo صورة للوجبة مع شكوى. وغالبا ما يفعلون photobombing مع الأعضاء التناسلية. أو قم بعمل صور فاحشة للطعام. نعم حقا

وهكذا اتضح أن موظفي Deliveroo لا يرغبون دائمًا في التعامل مع هذا المحتوى. لذلك ، تستخدم الشركة Rekognition للتعرف على الصور الفاحشة ، وتمويهها أو إزالتها قبل أن يراها الشخص.

مشكلة تقدم Deliveroo جانبًا غريبًا إلى حد ما لمشكلة أكثر تعقيدًا بشكل تدريجي. بطريقة أو بأخرى ، تعتمد العديد من الشركات عبر الإنترنت على المحتوى الذي ينشئه المستخدم. في السنوات الأخيرة ، نواجه بشكل متزايد اختراق هذا الجانب المظلم من الطبيعة البشرية. أصبح تعديل المحتوى من الأولويات ، حيث تواجه المواقع بشكل متزايد مواد غير سارة مثل الأخبار المزيفة والعنف والدفيق والبلطجة والخطابة العدوانية والمحتوى السام الآخر الذي أنشأه المستخدمون. إذا كنت فيسبوك ، لحل هذه المشكلة ، يمكنك تطوير الذكاء الاصطناعي الخاص بك أو استئجار جيش من المشرفين - أو القيام بكليهما. ومع ذلك ، فإن الشركات الأصغر التي لديها موارد قليلة غالباً ما لا تملك هذه القدرة. هذا هو المكان الذي تقدم فيه خدمة تعديل المحتوى من Amazon.

هذه الخدمة جزء من حزمة خدمات رؤية الكمبيوتر Rekognition المقدمة من Amazon Web Services. تعرض لانتقادات كثيرة في الصحافة لحقيقة أن الشركة وافقت على تقديم خدمات التعرف على الوجوه لخدمة الهجرة الأمريكية. على موقع Rekognition ، يمكنك العثور على أمثلة أخرى لاستخدام الخدمة للتتبع - على سبيل المثال ، القدرة على التعرف على أرقام السيارات المأخوذة من زوايا مختلفة على الفيديو ، أو لتتبع مسار شخص ما باستخدام سجلات الكاميرا.

ربما بحثًا عن صورة أكثر إيجابية لخدمة رؤية الكمبيوتر ، تحدثت Amazon أولاً عن استخدام Rekognition للإشراف على محتوى المستخدم من أجل القضاء على العنف واللاأخلاقية. تتيح لك الخدمة التعرف على المحتوى غير الآمن أو غير السار على الصور ومقاطع الفيديو التي تم تحميلها على الموقع.

وهذا العمل ينمو. يقول سوامي سيفاسوبرامانيان ، نائب رئيس أمازون ، أمازون: "يتزايد دور المحتوى الذي ينشئه المستخدمون بشكل هائل من عام إلى آخر - اليوم نحن نشارك بالفعل 2-3 صور يوميًا على الشبكات الاجتماعية مع أصدقائنا وأقاربنا". يقول شيفاسوبرامانيان أن أمازون بدأت في تقديم خدمات الإشراف على المحتوى استجابة لطلبات العملاء في عام 2017.

قد تدفع الشركات مقابل Rekognition بدلاً من توظيف أشخاص لدراسة الصور القابلة للتنزيل. مثل الخدمات الأخرى مع AWS ، فهو يعمل على نموذج الدفع لكل استخدام ، وتعتمد تكلفته على عدد الصور التي تتم معالجتها بواسطة الشبكة العصبية.

ليس من المستغرب أن تكون خدمات المواعدة من بين المستخدمين الأوائل لإدارة المحتوى - فهم يحتاجون إلى معالجة صور سيلفي محمّلة بسرعة إلى ملفات تعريف المستخدمين. تقول أمازون إن مواقع التعارف Coffee Meets Bagel و Shaadi تستخدم هذه الخدمة فقط لهذا الغرض - تمامًا مثل موقع Portuguese Soul الذي يساعد الأشخاص على إنشاء مواقع مواعدة.

الذكاء الاصطناعى لا يبحث فقط عن العري. تم تدريب الشبكة العصبية على التعرف على أي محتوى مشكوك فيه ، بما في ذلك صور الأسلحة أو العنف ، أو الصور غير السارة بشكل عام. فيما يلي قائمة التصنيف من موقع Rekognition :

عُري صريح:

  • جسم عار
  • رسم بياني لجسم ذكر عار
  • صورة بيانية لجسم الأنثى العاري ؛
  • النشاط الجنسي
  • إظهار العري أو النشاط الجنسي
  • لعب للبالغين.

محتوى مشبوه:

  • ملابس السباحة النسائية أو الملابس الداخلية ؛
  • سروال سباحة للرجال أو ملابس داخلية؛
  • هيئة عارية جزئيا.
  • ملابس صريحة.

المحتوى الذي يثبت العنف:

  • التمثيل البياني للعنف أو الدم ؛
  • الاعتداء الجسدي ؛
  • عنف بالسلاح
  • الأسلحة؛
  • إلحاق الأذى بالنفس.

المحتوى المرئي المزعج:

  • الهيئات الهزال ؛
  • الجثث.
  • شنقا.

كيف يعمل؟


مثل كل شيء على AWS ، يمتد Rekognition في السحابة. يمكن أن تخبر الشركة الخدمة عن نوع الصور التي تحتاجها. ثم تغذي الصور ومقاطع الفيديو الواردة من المستخدمين - والتي يمكن تخزينها في كثير من الحالات على خوادم AWS على أي حال.

تعالج الشبكة العصبية الصور وتبحث عن هذا المحتوى وتلاحظ أي محتويات غير سارة. تنتج الشبكة العصبية بيانات وصفية تصف محتويات الصور ، إلى جانب نسبة من الثقة في الملصقات الصادرة. يبدو شيء مثل هذا:



تتم معالجة هذه البيانات بالفعل بواسطة برنامج من جانب العميل ، والذي يقرر ، بناءً على قواعد العمل المبرمجة ، ما يجب القيام به مع الصورة التي تمت معالجتها. يمكنه حذفه تلقائيًا أو تخطيه أو تمويه جزء منه أو إرساله إلى المشرف للمراجعة.

الشبكات العصبية العميقة لمعالجة الصور لها طبقات عديدة. يقوم كل منهم بتقييم البيانات التي تمثل جوانب مختلفة من الصور ، ويقوم بإجراء العمليات الحسابية ، ويرسل النتيجة إلى الطبقة التالية. أولاً ، تقوم الشبكة بمعالجة المعلومات ذات المستوى المنخفض مثل النماذج الأساسية أو وجود شخص في صورة ما.

"ثم تقوم باستمرار بتحسين البيانات أكثر فأكثر ، تصبح الطبقات التالية أكثر تحديدًا ، وهكذا ،" تشرح شيفاسوبرامانيان. تدريجيا ، طبقة تلو الأخرى ، تحدد الشبكة العصبية محتوى الصور مع اليقين المتزايد باستمرار.

يقول نائب رئيس AWS لمنظمة AI Matt Wood إن فريقه يقوم بتدريب نماذج رؤية الكمبيوتر على ملايين الصور الخاصة والمتاحة للجمهور من مجموعات مختلفة. يقول أن أمازون لا تستخدم الصور التي تم تلقيها من المستخدمين لهذا الغرض.

الإطار حسب الإطار


لا يستخدم بعض أكبر عملاء Rekognition هذه الخدمة لإدارة المحتوى الذي ينشئه المستخدمون. تقول Amazon إن شركات الوسائط الكبرى التي تضم مكتبات فيديو رقمية ضخمة تريد معرفة محتويات كل إطار من مقاطع الفيديو هذه. يمكن للشبكة العصبية Rekognition أن تعالج كل ثانية من مقطع فيديو ، وتصفه باستخدام بيانات التعريف ، وتعلم الصور التي قد تكون خطرة.

يخبرني وود أن "إحدى المهام التي يؤديها التعلم الآلي بشكل جيد هي الدخول في مقاطع الفيديو أو الصور وتوفير سياق إضافي". "يمكن القول أنه" في هذا الفيديو ، تمشي امرأة على طول شاطئ بحيرة مع كلب ، أو "رجل يرتدي ملابس جزئية". في هذا الوضع ، كما يقول ، فإن الشبكة العصبية قادرة على التعرف على المحتوى الخطير أو السام أو غير اللائق في الصور بدقة عالية.

ومع ذلك ، فإن مجال رؤية الكمبيوتر لم يصل بعد إلى مرحلة النضج. لا يزال العلماء يكتشفون طرقًا جديدة لتحسين خوارزميات الشبكة العصبية حتى يتمكنوا من التعرف على الصور بدقة أكبر وبتفاصيل أكثر. يقول وود: "لم نصل بعد إلى حالة من الأرباح المتناقصة".

أخبرني شيفاسوبرامانيان أنه في الشهر الماضي فقط ، قام الفريق الذي يعمل على رؤية الكمبيوتر بتقليص عدد الإيجابيات الخاطئة (عندما كانت الصورة تعتبر خطأً) بنسبة 68٪ ، وعدد السلبية الزائفة بنسبة 36٪. "لدينا الفرصة لتحسين دقة واجهات برمجة التطبيقات هذه" ، كما يقول.

بالإضافة إلى الدقة ، يطلب العملاء تصنيفًا أكثر تفصيلًا للصور. يقول موقع AWS أن الخدمة توفر فقط الفئة الرئيسية وفئة فرعية واحدة من الصور غير الآمنة. لذلك ، على سبيل المثال ، يمكن للنظام أن يوضح أن الصورة تحتوي على عُري باعتباره الفئة الرئيسية ، والأفعال الجنسية كفئة فرعية. قد تحتوي الفئة الفرعية الثالثة على تصنيف لنوع النشاط الجنسي.

وقال بيترو بيرونا ، أستاذ نظم الحوسبة والعصبية من جامعة كاليفورنيا للتكنولوجيا ، وهو مستشار في شركة كالتيك للتكنولوجيا ، "حتى الآن ، فإن الآلة عرضة للحقائق وتعمل حرفيًا - ستخبرك أن هذا يظهر هناك". - لكن العلماء يرغبون في تجاوز هذا الإطار ، والإبلاغ ليس فقط عما هو موضح هناك ، ولكن أيضًا ما يعتقد هؤلاء الأشخاص أنه يحدث. ونتيجة لذلك ، ترغب هذه المنطقة في التطور في هذا الاتجاه - وليس فقط إعطاء قائمة بما يظهر في الصورة. "

ومثل هذه الاختلافات الدقيقة يمكن أن تكون مهمة لإدارة المحتوى. سواء كانت الصورة تحتوي على محتوى مسيء أم لا ، فقد تعتمد على نوايا الأشخاص الذين صوروا هناك.

حتى تعاريف الصور "غير الآمنة" و "المسيئة" ضبابية للغاية. قد تتغير بمرور الوقت وتعتمد على المنطقة الجغرافية. والسياق هو كل شيء ، يشرح بيرونا. صور العنف هي مثال جيد.

وتقول بيرونا: "يمكن أن يكون العنف غير مقبول في سياق واحد ، مثل العنف الحقيقي في سوريا" ، لكنه مقبول في سياق آخر ، مثل مباراة كرة قدم أو مشهد من فيلم تارانتينو. "

كما هو الحال مع خدمات AWS الأخرى ، لا تبيع Amazon أدوات تعديل المحتوى للآخرين فقط: إنها عميلها الخاص. تقول الشركة إنها تستخدم هذه الخدمة لفرز المحتوى الذي ينشئه المستخدم في صور ومقاطع فيديو مرفقة بتعليقات المتجر.

Source: https://habr.com/ru/post/ar475886/


All Articles