تسمح لك الخوارزمية الجديدة التي أنشأها العلماء بإنشاء "رؤوس حديث" تكاد تكون مثالية مع أشخاص حقيقيين



تعلم الباحثون كيفية تحرير مقاطع الفيديو عن طريق وضع أي كلمات وجمل في فم الشخص على مقطع فيديو . تقوم التقنية بمعالجة الفيديو بطريقة تبدو طبيعية وعضوية للغاية ، يمكنك ملاحظة المزيفة فقط إذا كنت تشك في التحرير.

تم إنشاء الخوارزمية الجديدة بواسطة فريق مشترك من الباحثين من ستانفورد ومعهد ماكس بلانك وبرينستون وأدوبي. تتكون عملية التحرير فقط في إنشاء النص الذي يجب على الشخص من الفيديو نطقه. تتم بقية العمل بواسطة الشبكة العصبية. من الصعب أن تلاحظ مزيفة لأن تعبيرات الوجه وأنماط حركات "السماعة" محفوظة ، تتيح التكنولوجيا إخفاء آثار التداخل.

من أجل تحقيق ذلك ، علمه منشئو الخوارزمية كيفية تحليل الفيديو. تختار الشبكة العصبية الإيماءات الضرورية وعناصر تعبيرات الوجه والكلمات بالتعبير ، ثم تجمع الإطارات الفردية بحيث يبدو الفيديو المعدل سليماً. والنتيجة هي ، في الواقع ، نموذج كمبيوتر يقوم بتنفيذ الإجراءات اللازمة لمالك التكنولوجيا.

حركات الشفاه واللسان وجميع العناصر المفصلية هي أصلية ، والشبكة العصبية "تقطعهم" عن الفيديو الأصلي. بعد ذلك ، لا يبدو الفيديو طبيعيًا للغاية ، لأنه يحتوي على عدد كبير من عمليات القطع والإيقاف المؤقت. لذلك ، فإن التكنولوجيا "تسهل" الخيار الناتج بحيث تبدو طبيعية قدر الإمكان.

قبل الاستخدام ، يجب تدريب الشبكة العصبية - تحتاج إلى "تغذية" 40 دقيقة على الأقل من الفيديو مع الشخص أو الأشخاص الذين سيتم استبدال خطابهم. صحيح ، هذا مهم فقط لمقاطع الفيديو باللغة الإنجليزية ، حيث لا يوجد سوى 44 صوتًا باللغة الإنجليزية ، لذلك من الأسهل بكثير تدريب شبكة عصبية باستخدام اللغة الإنجليزية كمثال من الروسية أو اليابانية. ومع ذلك ، بمرور الوقت ، يمكن استخدام هذه التقنية لتحرير مقاطع الفيديو مع أشخاص يتحدثون أي لغة أخرى. يوجد أدناه فيديو يعمل كدليل على إمكانيات التكنولوجيا الموصوفة.


بالطبع ، يثير هذا العمل عددًا من الأسئلة. واحد منهم هو أمن المعلومات والوسائط. إذا كان من الممكن وضع أي كلمات في فم أي شخص ، وستبدو النتيجة طبيعية جدًا ، فهل هذه التكنولوجيا خطيرة؟ يدعي مؤلفو التطوير أنه نعم ، يمكن استخدامه من قبل المهاجمين. ولكن ، على سبيل المثال ، توجد برامج تحرير الرسوم البيانية لفترة طويلة جدًا ، وبمساعدتهم يمكنك أيضًا تزوير أي شيء ، ولكن العالم وما زلنا موجودًا معه.

بالإضافة إلى ذلك ، يقول المؤلفون أنهم يفهمون أنه يمكن استخدام نفس التكنولوجيا من قبل السياسيين عديمي الضمير. سيتمكن الأخير من تجنب الحاجة إلى إلقاء الخطب أمام الكاميرا إذا تم استبدالها بـ "رؤوس الحديث" التي تشكلت من الخطب السابقة التي تم التقاطها على الفيديو.

لاكتشاف مزيفة ، يقترح مؤلفو الفكرة استخدام علامة مائية متخصصة وبعض التقنيات الأخرى التي ستمكن من التعرف على التزوير.

بالطبع ، من السهل إثبات حقيقة تعديل الفيديو إذا كان هناك فيديو أصلي. بالإضافة إلى ذلك ، يخطط المؤلفون لتطوير طرق لحماية محتوى الوسائط عن طريق إضافة "بصمات رقمية" إلى الإصدار الأصلي ، والتي يسهل اكتشافها وفهم ما إذا كان الفيديو أصليًا أم مزيفًا.

يمكن الاطلاع على النص الكامل للدراسة هنا .

Source: https://habr.com/ru/post/ar455439/


All Articles