هل سمعت من أي وقت مضى عن "deepfakes"؟ تم استخدام الذكاء الاصطناعي ، الذي يفرض وجه شخص ما على جسم شخص آخر ، لاستبدال هاريسون فورد بنيكولاس كيج في مقاطع فيديو لا تعد ولا تحصى ، ولأغراض أكثر شناعة: ظهر المشاهير في الإباحية والدعاية بدون علمهم. الآن ، للأفضل أو الأسوأ ، طور الباحثون في جامعة كارنيجي ميلون نظامًا جديدًا وأكثر قوة وتنوعًا.
يطلق عليه "Recycle-GAN". هذا نظام لتحويل محتويات مقطع فيديو أو صورة فوتوغرافية على غرار مقطع فيديو آخر ، والتعلم حصريًا من إدخال بيانات غير مخصصة (تدريب بدون معلم). يقول الباحثون ، "إن مهمة تغيير المحتوى مع الحفاظ على نمط النص الأصلي لها استخدامات عديدة ، على سبيل المثال ، فرض حركات وتعبيرات وجه شخص على شخص آخر ، وتدريب الروبوتات باستخدام طريقة" افعل ما أنا "، أو تحويل مقاطع الفيديو بالأبيض والأسود إلى اللون."
حتى الآن ، حتى أكثر أساليب التحول تقدمًا كانت تستهدف الوجوه البشرية ، ووفقًا للباحثين ، "كان من المستحيل عمليًا تطبيقها في مجالات أخرى" ، بالإضافة إلى "أنها تعمل بشكل سيء للغاية مع الوجوه المخفية جزئيًا". تستخدم الطرق الأخرى تحويل إطار تلو الآخر ، الأمر الذي يتطلب وضع العلامات اليدوية الشاقة ومحاذاة البيانات.

يستخدم Recycle-GAN شبكات الخصومة التوليدية (GANs) و "علامات الزمكان" "لربط" صورتين أو مقطع فيديو. (GANs هي نماذج تتكون من مولد يحاول "خداع" المميّز من خلال إنتاج نتائج واقعية بشكل متزايد من بيانات الإدخال.) عند التدريب على الفيديو مع الأشخاص ، ينشئون مقاطع فيديو تحتوي على لحظات مراوغة مثل الدمامل على الخدين التي تتكون عندما تبتسم وحركة الشفة.
كتب فريق التطوير: "بدون أي تدخل ومعرفة أساسية تتعلق بخصائص الفيديو ، فإن نهجنا قادر على التعلم ببساطة باستخدام مقاطع الفيديو التي يمكن الوصول إليها بشكل عام من الإنترنت".
Recycle-GAN قادر على أكثر من نقل تعبيرات الوجه. استخدمه الباحثون لتغيير الظروف الجوية في الفيديو عن طريق تحويل الهدوء الكامل في يوم عاصف. لقد قلدوا أزهارًا متفتحة ومحتضرة ، وصنعوا شروقًا مقنعًا من فيديو على الإنترنت.
نتائج الاختبار جيدة جدًا: تمكن النظام من خداع 15 هدفًا في 28.3٪ من الحالات ، لكن الفريق يعتقد أن منتجات الإصدارات المستقبلية من النظام يمكن أن تكون أكثر قابلية للتصديق إذا أخذوا في الاعتبار سرعة التشغيل ، على سبيل المثال ، مدى سرعة أو بطء قول الأشخاص في الفيديو
وكتب الفريق "يجب أن يكون نقل النمط المعقول قادرًا على مراعاة حتى الفارق الزمني الناتج عن استنساخ الكلام / المحتوى". "نحن نعتقد أن أفضل بنية مكانية زمانية لشبكة عصبية يمكن أن تحل هذه المشكلة في المستقبل القريب."
ليس من المستغرب أن تظل Deepfakes موضوعًا ساخنًا محل جدل ساخن. تجعل الخدمات المتاحة للجمهور عملية إنشائها سهلة نسبيًا ، ولا يوجد أساس قانوني لحماية ضحايا مقاطع الفيديو هذه.
اتخذ كل من Reddit و Pornhub و Twitter وغيرهم موقفًا ضدهم ، ويواصل الباحثون (انضموا مؤخرًا إلى وزارة الدفاع الأمريكية) البحث عن طرق للكشف عن التزييفات العميقة. ولكن ، كما قال مؤخرًا إريك جولدمان ، الأستاذ في كلية الحقوق بجامعة سانتا كلارا ومدير معهد التكنولوجيا العالية ، من الأفضل "الاستعداد للعيش في عالم تحيط به الصور ومقاطع الفيديو الحقيقية والمزيفة."