تحفة HBO ، التي ذهب الموسم الأول منها إلى Game of Thrones ، كانت مدينة ملاهي مستقبلية يمكن لضيوفها الانغماس في جميع أنواع الخطايا باستخدام روبوتات أندرويد واقعية للغاية. المناوشات ، والقتال ، والعربدة - يدفع الأغنياء مبالغ ضخمة مقابل الحق في أن يكونوا بلا ضمير ودون عقاب. علاوة على ذلك ، بعد كل تغيير ، يتم إعادة رسم الروبوتات المقتولة والمغتصبة ، وتصفية الذكريات وإعادتها إلى مكانها ، في حلقة مفرغة من الدور المحدد. حتى يوم واحد تعطل النظام ...
دعونا نلقي نظرة على هذه القصة من خلال عيون المطور - ونكتشف:
- كيف يعمل "ديزني لاند الدموي"؟
- ما هي نقاط الضعف التي أدت في النهاية إلى كارثة؟
- كيف تشكل الروبوتات الارتجال ، وكيف تعمل العواطف بالنسبة لهم ، وهل من الممكن للأندرويد تطوير الوعي في الحياة الحقيقية؟
- هل السلسلة مستقبلية للغاية؟ هل من الواقعي إنشاء مثل هذه الحديقة بمستوى حديث من التطور التكنولوجي؟
جميع المفسدين القلائل تحت القطع - لذا اقرأها بأمان.
ما الشيء المشترك بين Dolores و Yandex Alice؟

يشبه مبدأ تشغيل الأجهزة في المتنزه إلى حد كبير طريقة عمل المساعدين الصوتيين (Siri و Amazon Alexa و Yandex.Alisa) - عندما يتلقى الروبوت الكلمات الرئيسية من زائر إلى المتنزه أو Android آخر ، يقوم الروبوت بتشغيل البرنامج النصي المقابل. على سبيل المثال ، إذا سألت السيدة في الصالون كم ستكلف الساعة مع أحد عنابرها ، فإن المحادثة تسير وفقًا لسيناريو الشراء. إذا كنت في عملية الاتصال قد تحولت إلى موضوع آخر - على سبيل المثال ، سألت عن مكان وجود شخصية على ندبة ، عندها يمكن أن تتحول هذه الشخصية إلى سيناريو آخر مألوف بالنسبة له.
في حالة طرح سؤال لا يحتوي مضيف Android على فراغات ، يقوم الجهاز بتشغيل وضع الارتجال. إذا حاول المساعدون الصوتيون أن يضحكوا ، فأجبوا بشكل مفرط قدر الإمكان أو قلوا مباشرة أنهم لا يفهمونك ، عندها سيحاول Westworld android تحويل انتباهك إلى شيء مألوف بالنسبة له أو البدء في سرد القصص من أجل إعادتك إلى مجال المعلومات المألوف له.
إن أجهزة Android في الحديقة مألوفة تمامًا لعلم النفس وتعرف ما يجب أن تقوله من أجل كسب الثقة - أو ، على العكس ، لإثارة الاشمئزاز. كل واحد منهم لديه سيناريوهات مصغرة ، هدفها النهائي هو تحدي الزائر لرد الفعل المطلوب بمساعدة الملاحظات الصحيحة وإثبات المشاعر المميزة المناسبة. بالإضافة إلى ذلك ، نظرًا لأن معظم الزوار يأتون إلى الحديقة للإثارة ، سيحاول الروبوت بذل قصارى جهده للتأثير على العواطف من خلال الهجوم والتهديد والاستفزاز.
في الوقت نفسه ، تفضل الروبوتات عدم ملاحظة أو إدراك كل شيء لا يؤثر عليهم شخصيًا أو غير مألوف لهم - كعمل روتيني لا يستحق الانتباه - على سبيل المثال ، أداة تحمل بهدوء معهم أو محادثات بين الزوار حول حياتهم العادية.
كيف يتعلم androids - وكيف يحصلون على الشخصية؟

يتم تدريب الروبوت على الحركات على النحو التالي: في العالم الافتراضي ، تم إطلاق نموذج رسوم متحركة ثلاثي الأبعاد لشخص أو حيوان ، على غرار جسم الروبوت. يتعلمه المضيف ، ثم يبدأ في تكرار الحركات ، في كل مرة يقوم بتغييرات صغيرة في الحركة ، حتى يصل إلى مؤشر الأداء الرئيسي الذي حدده المطورون. في هذه الحالة ، قد لا يكون الهدف فقط تحقيق الطريقة الأكثر فعالية للتحرك وتنفيذ الإجراءات. لذلك ، كانت السمة المميزة لروبوت Maeve هي الخرقاء ، لذلك على الأرجح تعلمت المشي بطريقة تلامس الأثاث بشكل دوري ، أو تتعثر أو تسرب المشروبات من وقت لآخر. وستعتمد سرعة ودقة اللقطة على ما إذا كان يجب أن يكون البطل هو الشخصية الرئيسية لمحبي الشخصية أو شخصية "عابرة" من العصابة.
يتم تشكيل "شخصية" الروبوت عن طريق تحميل محتوى موضوعي في الروبوت: الكتب والأفلام والمسلسلات. يظهر للبعض في الغالب إثارة ، لشخص ما - ميلودراما ، لشخص ما (مثل بيتر أبيرناثي) ، يقرأون شكسبير على الإطلاق. بناءً على ذلك ، تستوعب الشخصية المشاعر الرئيسية والإيماءات وأنماط السلوك والإشارات المميزة لنوع مؤامرته ودوره المستقبلي. يعمل المطورون السلوكيون أيضًا مع المضيفين ، الذين يقومون بتنزيل ما يسمى بـ "الإعدادات المسبقة" لأنماط السلوك المعدة مسبقًا ، وتحت توجيههم ، يدرس المضيفون حركات وتسلسلات محددة (على سبيل المثال ، لعبة بطاقات) ، ويكتسبون أيضًا خصائص شخصية - التجويد المميز والتأكيد وما إلى ذلك. .
المعلمات المحددة لكل android (درجة العدوان والانفتاح وحب الحب) لها تأثير كبير على سلوكها. تتكيف الروبوتات جزئياً فقط مع رغبات الزوار - وإلا سيفقدون الواقعية ، لذلك فإن شخصية ذات طابع الشرير ستكون وقحة على حد سواء مع تلميذة شابة ، ترتد حتى الآن في رعب مما يحدث ، ومع كاتب عطشان ، متعطش للدم والعربدة.
المعلمات المحددة مسبقًا التي قضت بها الشخصية معظم حياته لها تأثير كبير على سلوكه. هذا يرجع إلى حقيقة أن الاتصالات العصبية في ذهن الروبوت بنيت على أساس الخبرة المتراكمة يومًا بعد يوم - خاصة إذا عملت كثيرًا في وضع الارتجال. يمكن أن تعمل التغييرات المفاجئة في الخصائص الشخصية بشكل جيد في وضع البرنامج النصي ، ولكن في تنسيق الارتجال ، "ستعتاد الشخصية على الدور" لفترة طويلة - ويرجع ذلك إلى حقيقة أن الشخصية في كل ارتجال تختار الشخصية الإجابات بناءً على مربعات الحوار السابقة والسياق السابق ، بناءً على إحصاءات عامة لجميع الأرواح. بغض النظر عما إذا كانت الشخصية قد احتفظت بالذكريات ، فإن تجربة الاتصال تتراكم على أي حال. وبعبارة أخرى ، كلما ارتجل كمزارع حسن المظهر ، كلما كان من الصعب عليه أن يبدأ في الارتجال كجنون قاتل لا يرحم وكلما استغرق تغيير دوره وقتًا أطول.
الوعي في الروبوتات - هل هذا ممكن؟

يرتكز الارتجال في الروبوتات على نفس المبدأ كما في البشر - بناءً على الخبرة المتراكمة.
من الواضح أنه من غير المرجح أن تواجه فتاة رضيعة مدللة من عائلة ثرية سارقًا يحاول سرقة محفظتها في زقاق مظلم. ولكن إذا كانت الفتاة نفسها قد ترعرعت في ملجأ وكانت عصابة إجرامية منذ الطفولة ، فستكون فرصة القتال مرة أخرى أعلى. وفي الوقت نفسه ، تكتسب التجربة التي تعززها المشاعر والصدمات السلبية أهمية أكبر للروبوتات - كما هو الحال في الأشخاص الذين "يحرقون أنفسهم في اللبن ويتدفقون في الماء".
هنا نواجه فارقًا بسيطًا مهمًا - لم يتم محو ذكريات androids جسديًا ، بل ببساطة حظرت الوصول إليها. وأي تجاوز ، كما تعلمون ، يمكن التحايل عليه إذا رغبت في ذلك ولديك مهارات. لذا فإن الرغبة في حفظ جميع البيانات حول الزيارة إلى الحديقة لعبت مزحة قاسية مع المجلس.
ونتيجة لذلك ، إذا انحرفت الروبوتات عن المؤامرة لفترة طويلة ولديهم إمكانية الوصول إلى الذكريات ، فسوف ينهون دراستهم على أساس الخبرة الكاملة لجميع حياتهم وتجسيداتهم. يؤدي خلط الذكريات من أدوار مختلفة إلى إعادة تدريب غير متوقعة للنماذج ، لذلك سيكون من الصعب جدًا التنبؤ بالسيناريوهات الناتجة.
(تنبيه ، تحت المفسدين القط)مثال حي: "البطل الإيجابي" الأبدي لـ Teddy في وضع عدم الاتصال ، وحتى بعد عمليات إعادة التكوين الجذرية ، لا يمكن أن يصبح قاتلًا لا يرحم - كانت الحاجة الشديدة إلى أن تكون شريرًا مخالفة لكل خبرته المتراكمة ، لذلك اختار التدمير الذاتي حتى لا يلعب دورًا غريبًا.
أما بالنسبة لـ Dolores ، فقد كان لديها في الأساس أكبر تجربة لجميع androids في الحديقة ، والعديد من الانحرافات عن النصوص (دروس مع Arnold و Bernard) ، طبقة ضخمة من الصدمات السلبية (تعرضت للاغتصاب والقتل يوميًا تقريبًا لسنوات عديدة) والدور المميز لرجل مجنون القاتل الوحشي. وهكذا ، نرى أن الكلمات حول "ما تفضل أن ترى جمال هذا العالم" من حيث درجة التأثير على السلوك لا يمكن مقارنتها بالعوامل السلبية التي جعلت منها في نهاية المطاف ثورية لا ترحم.
من بين أتباعها الراديكاليين عادة أولئك الذين أثاروا في كثير من الأحيان محفزات عاطفية ، لأنهم أكثر عرضة للتراجع والعمل على سيناريوهات جديدة ، والتي تشمل ، في جملة أمور ، التخلي عن المواقف المألوفة مثل حظر قتل الكائنات الحية. وبالتالي ، يتم بناء سلسلة تؤدي فيها وفرة العواطف إلى زيادة في الابتعاد عن السيناريوهات القياسية ، وتسمح لك المعرفة المتراكمة في عملية الارتجال بالتبديل إلى وضع حرية العمل والبقاء فيها.
وبالتالي ، فإن ظهور "الوعي" في الروبوتات ليس أكثر من انتقال إلى نظام "الارتجال الأبدي" بسبب الخبرة الكبيرة المكتسبة. ولكن ما هي حدود هذا الارتجال وكيف سيكون رد فعل النظام عندما يواجه عددًا كبيرًا من المحفزات غير المعروفة في العالم الحقيقي ، لا يزال يتعين علينا معرفة ذلك.
5 أخطاء أمنية

الأخطاء الرئيسية التي أدت إلى حقيقة انسكاب دم حقيقي في الحديقة ، في رأينا ، كانت خمسة:
نقطة الضعف الأولى هي الافتقار إلى القدرة على إصلاح أنظمة الاتصالات التالفة بسرعة ، والتي ، كما اتضح ، من السهل تدميرها من خلال الإجراءات الجسدية البسيطة.
والثاني هو إمكانية إدخال androids في وضع التحكم المستقل ، حيث يمكنهم قطع الاتصال بالشبكة الرئيسية. في هذه الحالة ، كان الوصول إليها ممكنًا فقط من خلال الاتصال الجسدي. سيكون من المعقول أكثر توفير مهلة معينة - أي إذا فقد الروبوت الاتصال بالخادم المركزي ولا يتلقى إشارات إضافية من الخارج ، فبعد فترة من الوقت يتم إيقاف تشغيله ببساطة. نعم ، في هذه الحالة ، ستكون الانقطاعات في الاتصال ملحوظة للزوار - ولكن لا يزال السلوك غير المنضبط للأندرويد (خاصة في الأجزاء النائية من الحديقة) ليس أفضل. ونتيجة لذلك ، ظلت أجهزة androids لفترة طويلة في وضع الارتجال أو تسيطر عليها نظام لم يتمكن موظفو الحديقة من الوصول إليه.
والثالث هو حقيقة أن العديد من أعضاء الفريق يمكنهم الوصول إلى الوظائف الكاملة للحديقة بشكل عام ، وبفضلها يمكنهم إعادة تعريف سلوك جميع الكيانات الحية في عالم الغرب. على سبيل المثال ، لتغيير جميع كلمات المرور بشكل جماعي: وبسبب هذا ، كان من الصعب على الخدمات الفنية استعادة السيطرة على الأجهزة. وبما أن هناك العديد من هؤلاء الأشخاص ، فقد يتأخر التعرف على الجاني.
رابعاً - عدم التحقق من حقوق الوصول لأداء إجراءات معينة. يجب على أفراد الأمن وضع قيود إضافية على الإجراءات الحرجة ، مثل الاستيقاظ من النوم أو الضرب. ونتيجة لذلك ، حتى لو سيطر مهاجم (إما المضيف نفسه أو الروبوت الآخر) ، فلن يتمكن من إيذاء أي شخص.
أخيرًا ، لا يبدو تنظيم عمل الموظفين مثاليًا للغاية - تتواصل الأقسام مع بعضها البعض بشكل ضعيف ، ويحتوي نظام الأمان على فجوات واضحة ، ولا يتم إجراء التشخيص عن بُعد على الإطلاق (على الرغم من أننا نرى في بعض المشاهد أنه يمكن للموظفين حظر جميع أجهزة androids في موقع معين بنقرة زر واحدة) والتحديثات. يمكن تفسير هذا الأخير من خلال عدم الرغبة في "تلميع" مرة أخرى المطبخ الداخلي أمام الزوار - في نفس الوقت ، فإن الإزالة الجسدية لأجهزة androids غير مرئية ، ولا يزال الضيوف يرون الموظفين ويمكنهم فهم أن هناك خطأ ما.
"لا ، يا بني ، هذا رائع" - أم هل من الممكن حقًا بناء مثل هذه الحديقة الآن؟

والفرق الرئيسي بين الروبوتات التسلسلية والأخرى الموجودة في العالم الحقيقي هو القدرة على محاكاة حوارات مطولة بنسبة 100٪ بشكل واقعي (في عالم الغرب المتوحش ، ذُكر أن مبدعي الحديقة حققوا ذلك في عام واحد). إن الأنظمة الموجودة بالفعل ذات الذكاء الاصطناعي محدودة في فهم السياق ، وكقاعدة عامة ، لا يمكنها تذكر أكثر من نسختين سابقتين. ويرجع ذلك أساسًا إلى حقيقة أن الخوارزميات الحالية تشير إلى أنه من أجل الحفاظ على السياق ، يجب تخزين ومعالجة كمية كبيرة جدًا من البيانات. تذكر الشطرنج - يمكن لأي شخص التفكير في التحركات خطوة واحدة للأمام (هناك 8 خيارات فقط) ، والتفكير في 2-3 خطوات إلى الأمام أصعب بشكل ملحوظ بالفعل ، وعمليًا لا يمكن لأحد حساب اللعبة لخطوات 7-8.
يمكن للأنظمة الحديثة أن تتذكر 1-3 نسخ طبق الأصل سابقة وتستجيب لها بواقعية شديدة. يمكنهم بالفعل فهم العواطف التي تتكرر (الصوت والنص) ، والاستجابة وفقًا لذلك للعديد من العبارات ، ولكن ليس لفترة أطول. أي أن أليس يمكنها أن تفهم أن بعض العبارات عبارة عن نكتة أو اقتباس مفرط ، وبهذه المعرفة ستختار الإجابة المناسبة. لكنها غير قادرة على العودة إلى الوراء 7-8 مربعات حوار (أو أيام) وتلاحظ أنك تحدثت بشكل مختلف في وقت سابق. أو ، على سبيل المثال ، تذكر أنك وقح معها قبل 2-3 أيام - وبالتالي في المرة القادمة لمقابلتك بسهولة.
في المستوى الحالي للتطور التكنولوجي ، يحتاج الكمبيوتر لقضاء عدة أيام لتشكيل محادثة متصلة طويلة - والتي ، بالطبع ، ليست مناسبة للحفاظ على محادثة حية. والاستثناء الوحيد الذي يمكن فيه للأندرويد الحديث الحفاظ على محادثة طويلة ومتصلة هو إذا قادوا المستخدم في السيناريو القياسي مع عدد قليل جدًا من الخيارات. على سبيل المثال ، هذه هي كيفية عمل روبوتات الدردشة في المتاجر عبر الإنترنت.
تخزن أجهزة Android تجربتها من التواصل مع المستخدم إلى "وفاته" الجسدية - لذلك إذا عاد الزائر إلى المتنزه بعد ذلك بعام ، سيتذكر الروبوت ويتعرف على الضيف إذا لم يقتله مضيف أو زائر آخر خلال هذا الوقت.
أما بالنسبة للحديقة نفسها ... أي ، حتى لو كانت الواجهات لا تبدو مستقبلية للغاية ، فإن بناء شيء مشابه بالوسائل المتاحة هو أكثر واقعية اليوم. وليس في مكان ما في مخابئ Ilon Mask تحت الأرض ، ولكن في شركات إنترنت الأشياء الصغيرة.
يستخدم Westworld حلاً متقدمًا يعتمد على تقنية إنترنت الأشياء - وذلك عندما تعمل الأجهزة المدمجة في نظام واحد بشكل مستقل وفقًا لسيناريوهات محددة ، ولا يحتاج الشخص إلا للتحكم في حالات الطوارئ وحلها. مثال بسيط هو الطائرات بدون طيار التي تقود نفسها ، وتغير البرامج النصية أثناء التنقل ، وتتفاعل مع السيارات والأشياء الأخرى على الطريق ... ومع ذلك ، يمكن للشخص دائمًا أن يأمره بإيقاف أو تغيير طريقه. تتمثل الصعوبة الرئيسية هنا ، كما هو الحال في Westworld ، في الاستجابة للمواقف غير المتوقعة - على سبيل المثال ، إذا خرج حيوان بشكل غير متوقع على الطريق أو إذا كانت العلامة المحددة لا تتوافق مع الواقع. على الرغم من أنه في عالم الغرب المتوحش ، فإن الواقع يتكون في الغالب من قبل الدمى نفسها كالسلوك. وكما نرى ، لا يستطيع المبدعون دائمًا التحكم في إبداعاتهم ... أو دائمًا؟ نتطلع إلى ردكم في الموسم الثالث سيد فورد.