معرض Intel IoT Roadshow أو الواقع الافتراضي في العالم الحقيقي

من 27 يونيو - 28 يونيو 2015، و ستقام المسابقة نظمت من قبل شركة انتل، حيث SenseDrive المشروع استغرق المركز الثاني. خلال العرض التقديمي ، نظر فريقنا قليلاً في المستقبل وأظهر كيفية توسيع القدرات البشرية من خلال الانغماس في مساحة افتراضية متصلة بإنترنت الأشياء.




خلفية صغيرة


بدأ كل شيء بمؤتمر DevCon 2015 ، حيث تعرفت لأول مرة على قدرات تقنية RealSense ، وفي ليلة hackathon كنت محظوظًا لتقييم قدرات الكاميرا و RealSense SDK. كانت رغبتي الأولى هي توصيل الكاميرا بنظارات الواقع الافتراضي لرؤية يدي "الافتراضية". ومع ذلك ، لم أتمكن من العثور على مبرمجي Unity المجانيين والمصممين ثلاثي الأبعاد في ذلك الهاكاثون. لذلك ، بعد أن تعاونت مع رجل من فيتنام ، تمكنا من دراسة SDK وميزات العمل مع الكاميرا جيدًا بما يكفي لإثبات برنامج بسيط يساعد المبرمجين على شحن العين والتأكد من أن المبرمج لا "يخدع" حوله. تعلمت أيضًا أنه خلال أسبوع في سان بطرسبرغ سيكون هناك هاكاثون آخر يستخدم هذه التكنولوجيا.

لذا ، لدي الآن أسبوع للتحضير. لقد كنت مهتمًا بفكرتي من قبل الزميل دميتري بوستيلجو ، الذي رسم واجهة ثلاثية الأبعاد خالية اليدين لـ Windows Phone في الوحدة. وفي هذا الوقت كنت أقوم بتطوير القدرة على نقل البيانات حول وضع اليدين في الهاتف الذكي.

لم تكن هذه المهمة تافهة ، لأن RealSense تتطلب معالجًا قويًا للغاية و USB 3.0 ، والذي كان غائبًا في هاتفنا الذكي لأسباب واضحة. اضطررت إلى كتابة مكون إضافي لـ Unity ، والذي ينشر خادمًا على الهاتف وتطبيق عميل للكمبيوتر الشخصي الذي ينقل حزم البيانات المعالجة إلى الهاتف ، مما مكننا من "توصيل" عدة كاميرات بنظارات افتراضية مستقبلية في وقت واحد لتحديد موقع اليدين بدقة أكبر.

كانت النتيجة بنية مرنة إلى حد ما لم يكن هناك اختلاف ملحوظ فيها لـ Unity: سواء كانت البيانات من الكاميرا تسير بشكل مستقيم (للحالة عندما يتم نشر التطبيق على جهاز كمبيوتر) أو عبر WiFi (للحالة عندما يتم نشر التطبيق على هاتف ذكي). بالنظر إلى المستقبل ، كانت هذه الهندسة المعمارية هي التي أنقذتنا خلال العرض التقديمي في الهاكاثون الأخير.

اتضح أن الأسبوع كان وقتًا قصيرًا جدًا للحصول على الوقت لإنشاء نموذج أولي للأيدي الافتراضية ، حيث كنا منخرطين في المشروع في وقت فراغنا من العمل الرئيسي. كتبوا المشروع حتى في الليل ، أثناء السفر بالقطار من مينسك إلى سان بطرسبرج. ونتيجة لذلك ، احتلنا المركز الأول .




أيضًا في الهاكاثون الثاني ، اكتشفت عرض Intel IoT Roadshow القادم في شهر والتقيت بمكسيم ماسالسكي من Robot Kitchen- مختبر مينسك للروبوتات. معه ، قررنا أخيرا توحيد العالم الافتراضي والحقيقي.

لإثبات هذه القدرات ، قام Maxim بتجميع روبوت بكاميرا متحركة ، قمنا بتوصيلها بلوحة Intel Edison في اختراق. أطلق Maxim شبكة WiFi وبث دفق فيديو من كاميرا الروبوت إلى الشبكة. لقد طورنا نظامًا لأوامر التحكم واتضح أنه روبوت يمكنك فيه "الانتقال" من الواقع الافتراضي.

ينقل الروبوت ما يراه من خلال كاميرا الفيديو: الدفق من الكاميرا التي تم إطلاقها على Intel Edison مباشرة إلى نظارات افتراضية ، والواقع الافتراضي ينقل موضع الرأس والأمر من "أذرع التحكم" الافتراضية إلى الروبوت. تمكنا من إنشاء "تأثير حضور" في نظارات المستخدم في كشك التحكم في الصورة الرمزية للروبوت. في الوقت نفسه ، لم يتمكن المستخدم بيديه فقط (بدون ماوس ولوحة مفاتيح وعمومًا بدون أسلاك) للإشارة إلى المكان الذي يجب أن يذهب إليه الروبوت ، ولكن أيضًا أدار رأسه إلى الجانبين ، بينما كان الروبوت يؤدي بطاعة نفس الشيء من خلال إدارة الكاميرا.




إن الصورة الرمزية للروبوت ، بالطبع ، رائعة ، ولكن ليس من الواضح تمامًا ما هي جيدة. لذلك ، لم يكن روبوت واحد كافياً بالنسبة لنا. حتى قبل أحداث الهاكاثون ، كان لدينا جلسة عصف ذهني صغيرة للتوصل إلى كيفية تقديم فائدة أفضل وأكثر وضوحًا إلى هيئة المحلفين. لم تكن هناك حاجة للذهاب للحصول على أمثلة لفترة طويلة ، كان هناك الكثير منها (بعضها يمكنك العثور عليه في وصف المشروع) ، ولكن لا يمكن فعل الكثير في غضون 24 ساعة ، لذلك تقرر اختيار نوعين:
  1. إيقاف تشغيل جهاز كهربائي (بعد كل شيء ، لا أحد يريد أن يحترق منزله لأن الحديد أو الموقد توقف على عجل عندما تم تشغيله) ؛
  2. . , , , :) , , … , - .

جلب مكسيم المقتصد معه العديد من الماكينات والمرحلات ، وتقرر أن ينظر الباقي على الفور.

كجهاز كهربائي يمكنه حرق شقة ، استخدمنا غلاية كهربائية. وبهذا ساعدنا Evgeny Tkachevsky ، وهو رجل من Video Wings كان مهتمًا بمشروعنا وأحضر غلاية من المنزل في صباح اليوم الثاني.

تم تصميم مغذي القط على الورق في قطار في طريقه إلى سان بطرسبرغ ، تم رسم نموذج كمبيوتر وطبعه على طابعة ثلاثية الأبعاد بمجرد وصوله. ولكن مع البحث عن القط ، كان كل شيء أكثر تعقيدًا. لم يكن هناك قطط بالقرب من المكان ، لذلك استعارنا دمية دب من أحد خبراء Intel.



يجب أن أقول أن المشروع أثار اهتمامًا كبيرًا حتى في مرحلة الاختبار. ومع ذلك ، ليس كل يوم تشاهد مبرمجًا وعيناه مغلقتان في صندوق أبيض ، يلوح بيديه أمام جهاز كمبيوتر محمول ويقف بجانب روبوت على حامل ، وعجلات تدور ذهابًا وإيابًا وتلوح برأسه ... حتى أن بعض المشاهدين كانوا محظوظين لاختبار أنفسهم كسائق روبوت.



عرض


لسوء الحظ ، في وقت العرض التقديمي ، ذهب الإنترنت تمامًا ، ولم يعد من الممكن التحدث عن أي نقل للبيانات حول وضع اليدين ، بل وأكثر من ذلك حول بث بث الفيديو من كاميرا الروبوت. في الثواني الأخيرة قبل الإصدار ، تقرر تفريغ دفق البيانات قدر الإمكان ، تاركًا فقط أوامر التحكم في الروبوت وفك النظارة الافتراضية تمامًا. كان علينا أن نعرض نسخة الكمبيوتر الشخصي من المشروع ، حيث كان من المستحيل أن ندير رؤوسنا ونرى من خلال عيون الروبوت. يمكننا فقط التحكم في الروبوت ، إبريق الشاي والمغذي بمساعدة أيدي افتراضية ، ومراقبة حركات الروبوت ، وإيقاف تشغيل الغلاية وانتشار الأعلاف. وأخيرًا ، بالنسبة لأولئك الذين يرغبون ، عرضنا قياس النظارات ونشعر على الأقل للحظة بأنفسنا في العالم الافتراضي.



لماذا الواقع الافتراضي؟


لسوء الحظ ، بسبب الصعوبات الفنية ، لم نتمكن من نقل الفكرة الرئيسية للمشروع - كيف تختلف السيطرة من العالم الافتراضي عن مجرد النقر على الأزرار الموجودة على الشاشة باستخدام الماوس . وكل شيء بسيط حقًا ، فمن الملائم أكثر أن ينقر شخص ما على الماوس ، أو شخصًا ما يضغط بإصبعه على الشاشة ، أو شخصًا ما يكتب في وحدة التحكم ، فالواقع الافتراضي يجعل من الممكن التفاعل مع العالم الحقيقي باستخدام الإجراءات والإيماءات المألوفة لجسم الإنسان ، والتي تتيح لك عدة إجراءات مألوفة في وقت واحد للشخص.



على سبيل المثال ، في التنفيذ الحالي ، يمكنك جعل الروبوت يسير بيد واحدة ، وتحويله قليلاً إلى اليمين بيد أخرى ، وتحويل رأسك ورؤية ما يحدث على اليسار. بالتأكيد ، كان على العديد من سائقي السيارات حمل عجلة القيادة بيد واحدة ، والتحدث على الهاتف مع اليد الأخرى والنظر بشكل دوري إلى الجانب لمعرفة ما إذا كان هناك أي فجوة للمشاة في الانحناء. إنه نفس الشيء هنا. حسنًا ، كمكافأة في العالم الافتراضي ، يمكن أن يكون للشخص "قدرة تفوق" مثل الأبطال الخارقين. على سبيل المثال ، للتبديل من روبوت إلى غلاية أو مغذي ، قمت بتمريرات بيدي ، مما أدى إلى حركة أجسام ثلاثية الأبعاد في هذا العالم ، مثل جدي ... كانت هناك فكرة لإطلاق كرة نارية من يدي وبالتالي إيقاف الروبوت ، لكنها قررت أنها كانت أكثر من اللازم.

أليست هذه حرية؟ حرية الحركة ، حرية الفكر ، حرية العمل ، حرية الخيال ...

لكن هذا ليس كل شيء. ليس من المناسب دائمًا أن يتحكم الشخص في شيء معقد فقط. يسمح تنفيذ المشروع الحالي للعديد من الأشخاص بإدارة عدة أجزاء من نفس الجهاز في وقت واحد. ليس عليك الذهاب بعيداً للحصول على أمثلة. يمكن لمستخدمين الاتصال بخزان الروبوت ، وسيتحكم أحدهما في حركة الخزان على السطح ، والثاني في هذا الوقت يدور برج الخزان وسيتمكن من التحكم في كمامة. فقط تخيل كيف ستبدو لعبة معركة الدبابات مع تنفيذها؟!

من وجهة نظر الإنتاج ، لا توجد حاجة الآن إلى إنفاق الكثير من المال على تصنيع لوحات المفاتيح أو الفئران أو عصي التحكم المناسبة أو أي متلاعبين آخرين. ما عليك سوى رسم لوحة تحكم وتحميلها في العالم الافتراضي. وكيف سيبدو شكله يعتمد فقط على الخيال والاحتياجات المحددة.

ماذا بعد؟


في الهاكاثون ، كان هدفنا هو إظهار الإمكانيات التي يوفرها تكافل إنترنت الأشياء ، والروبوتات والواقع الافتراضي. نحن الآن في مرحلة توجيه المشروع ، وبينما تلوح المجالات التالية في الأفق:

  • تطوير روبوت يسيطر عليه عدة أشخاص في وقت واحد ، نموذج أولي لروبوت دبابة ؛
  • إضافة دعم لمنصات Android و IOS في المشروع الحالي ؛
  • تطوير صورة رمزية كاملة قادرة على التقاط العناصر وبث صورة مجسمة من عينين ؛
  • تطوير بروتوكول كامل و SDK للاتصال بإنترنت الأشياء والواقع الافتراضي. سيسمح هذا لأي شخص يريد ربط أدواته الإلكترونية بسهولة بالواقع الافتراضي ونتيجة لذلك سيوسع نطاق النظارات ؛
  • تطوير نظارات افتراضية خاصة بك ؛
  • إضافة واجهة عصبية ، والتي ستمكن الناس من التحكم في الأشياء ليس فقط بمساعدة حركات الجسم ، ولكن أيضًا بقوة الفكر. في الهاكاثون الأخير كان هناك العديد من المشاريع التي تستخدم واجهة مماثلة وربما يمكننا الجمع بين جهودنا لصالح الإنسانية.

Source: https://habr.com/ru/post/ar382109/


All Articles