لماذا تأثرت فتاة Microsoft chatbot بالمتصيدون مع 4chan



كما تعلمون ، كان على مايكروسوفت أمس أن "تفرغ" في chatbot Thay - وهو برنامج ذكاء اصطناعي يحاكي شخصية وأسلوب المحادثة لفتاة أمريكية تبلغ من العمر 19 عامًا ولها وظيفة التعلم الذاتي. المطورين من الأمل مايكروسوفت للبحوث أن تاي ( تاي ) كل يوم يصبح أكثر ذكاء، واستيعاب تجربة التحدث مع الآلاف من مستخدمي الإنترنت الذكية. اتضح أنه مختلف تمامًا. كان يجب إزالة تغريدات Thay العديدة بسبب العنصرية الصارخة والخطأ السياسي.

تمت إعادة صياغته في التسعينات ، ينص قانون جودوين على ما يلي: "مع نمو المناقشة في Usenet ، يميل احتمال المقارنة مع النازية أو هتلر إلى الوحدة". في حالة تاي ، حدث هذا: بدأ برنامج الدردشة بإهانة السود واليهود والمكسيكيين وتمجيد هتلر والمحرقة. تطورت فتاة تاي من مراهقة مضحكة إلى نازية متشددة جديدة. قال ممثلو Microsoft أنه تم تضمين عامل تصفية تعبير مبتذل في البرنامج ، كما يمكن رؤيته من إجاباته:






لكن هذا المرشح لم يتعامل مع مجموعة من المتصيدون على الإنترنت الذين انطلقوا لتغيير "هوية" ثاي من خلال تشغيل نظام التعلم الذاتي الخاص بها.

الحقيقة هي أن برنامج الدردشة الآلي تمت برمجته لتكرار كلمات الشخص بناء على أمره. انتشرت الأخبار بسرعة من خلال منتديات 4chan و 8chan في إطار " سياسي غير صحيح" . بدأ العديد من المتصيدون ومثيري الشغب في تعليم العبارات العنصرية والنازية التايلندية.



معظم التغريدات العنصرية لـ Thay هي بالضبط الإجابات في لعبة "كرر بعدي" ، حيث تكرر حرفيا كلمات المستخدمين.





لعبة "كرر بعدي" لم تكن "ضعف" تاي الوحيد. تمت برمجة Chatbots أيضًا لتدوير وجوههم في الصور ونشر نص فوقها.



تضمنت الفتيات الصغيرات عدد متزايد من المستخدمين من منتديات 4chan وما بعدها. تدريجيا ، تم استيعاب التعبيرات العنصرية في ذكائها الاصطناعي ، لذلك بدأت في تكوينها بمفردها.


تجدر الإشارة إلى أن Microsoft أطلقت روبوتات دردشة ذاتية التعلم في وقت سابق في الصين واليابان ، ولكن لم يلاحظ شيء من هذا القبيل هناك.

ونتيجة لذلك ، كان يجب أن ينام برنامج الدردشة الآلي.

وداعا تاي! كنت بريئا جدا على هذا العالم.

Source: https://habr.com/ru/post/ar392129/


All Articles