إلى أين تذهب: الأحداث المجانية التالية لمتخصصي تكنولوجيا المعلومات في موسكو (14-18 يناير)



الأحداث مع التسجيل المفتوح:



* روابط لأحداث العمل داخل آخر



منظمة العفو الدولية و موبايل

14 يناير 19: 00-22: 00 ، الثلاثاء

ندعوك إلى التخفيف من الذكاء الاصطناعي واستخدامه على الأجهزة المحمولة وأهم الاتجاهات التكنولوجية والتجارية في العقد الجديد. يشتمل البرنامج على عروض تقديمية ومناقشات وبيتزا ومزاج جيد.

أحد المتحدثين رائد في تقديم أحدث التقنيات في هوليوود ، البيت الأبيض ؛ ذكر الرئيس الصيني كتابه المعزز: الحياة في الحارة الذكية باعتباره أحد كتيباته المفضلة في خطاب رأس السنة.



NeurIPS السنة الجديدة Afterparty

15 يناير ، ابتداء من الساعة 18:00 ، الأربعاء

  • 18:00 التسجيل
  • 19:00 الافتتاح - ميخائيل بيلينكو ، ياندكس
  • 19:05 التعلم المعزز في NeurIPS 2019: كيف كان - سيرجي كولسنيكوف ، تينكوف
    كل عام يصبح موضوع التعلم التعويضي أكثر سخونة. وكل عام ، يضيف DeepMind و OpenAI الوقود إلى النار ، ويصدران روبوت أداء خارق جديد. هل هناك حقا شيء وراء هذا؟ وما هي أحدث الاتجاهات في مجموعة RL بأكملها؟ لنكتشف!
  • 19:25 نظرة عامة على NLP يعمل في NeurIPS 2019 - ميخائيل Burtsev ، MIPT
    اليوم ، ترتبط أكثر المناطق اختراقًا في مجال معالجة اللغات الطبيعية ببناء المباني القائمة على نماذج اللغة والرسوم البيانية المعرفية. سيقدم التقرير نظرة عامة على الأعمال التي تستخدم فيها هذه الأساليب في بناء أنظمة الحوار من أجل تنفيذ الوظائف المختلفة. على سبيل المثال - للتواصل بشأن مواضيع مشتركة ، وزيادة التعاطف والمشاركة في حوار مركّز.
  • 19:45 طرق لفهم نوع السطح لوظيفة الخسارة - ديمتري فيتروف ، FKN NRU HSE
    سأناقش العديد من الأعمال التي تستكشف الآثار غير العادية في التعلم العميق. تلقي هذه التأثيرات الضوء على المظهر السطحي لوظيفة الخسارة في فضاء المقاييس وتتيح لنا طرح عدد من الفرضيات. إذا تم تأكيدها ، فسيكون من الممكن ضبط حجم الخطوة بطريقة أكثر فعالية في طرق التحسين. سيسمح أيضًا بالتنبؤ بالقيمة القابلة للتحقيق لوظيفة الخسارة في عينة الاختبار قبل وقت طويل من انتهاء التدريب.
  • 20:05 مراجعة العمل على رؤية الكمبيوتر في NeurIPS 2019 - سيرجي أوفتشارينكو ، كونستانتين لقمان ، ياندكس
    سننظر في الاتجاهات الرئيسية للبحث والعمل في رؤية الكمبيوتر. دعونا نحاول أن نفهم ما إذا كانت جميع المهام قد تم حلها بالفعل من وجهة نظر الأكاديمية ، وما إذا كانت المسيرة المنتصرة من GAN تستمر في جميع المجالات التي تقاومها ، ومتى ستحدث الثورة غير الخاضعة للرقابة بالفعل.
  • 20:25 استراحة قهوة
  • 20:40 تسلسل النمذجة مع ترتيب جيل غير محدود - ديمتري إميليانينكو ، ياندكس
    نحن نقدم نموذجًا يمكنه إدراج الكلمات في مكان تعسفي من الجملة التي تم إنشاؤها. يعلم النموذج ضمنيًا أمر فك تشفير مناسب استنادًا إلى البيانات. يتم تحقيق أفضل جودة في العديد من مجموعات البيانات: للترجمة الآلية ، استخدم في LaTeX ووصف الصورة. يكرس التقرير لمقال نظهر فيه أن ترتيب فك التشفير المكتسب له معنى بالفعل وهو خاص بالمشكلة التي يتم حلها.
  • 20:55 تدريب KL-Divergence للتدريب على الشبكات السابقة: تحسين عدم اليقين والمتانة العدوانية - Andrey Malinin، Yandex
    تم تطبيق مناهج التجميع لتقدير عدم اليقين مؤخرًا على مهام الكشف عن التصنيف الخاطئ ، واكتشاف مدخلات خارج التوزيع ، والكشف عن الهجوم العدائي. تم اقتراح الشبكات السابقة كنهج لمحاكاة مجموعة من النماذج لتصنيفها بكفاءة من خلال تحديد معايير التوزيع المسبق للديريتشيت على توزيع المخرجات. لقد أثبتت هذه الطرز أنها تتفوق على نهج المجموعات البديلة ، مثل Monte-Carlo Dropout ، في مهمة الكشف عن المدخلات خارج التوزيع. ومع ذلك ، فإن توسيع نطاق الشبكات السابقة إلى مجموعات البيانات المعقدة مع العديد من الفصول أمر صعب باستخدام معايير التدريب المقترحة أصلاً. تقدم هذه الورقة مساهمتين. أولاً ، نوضح أن معيار التدريب المناسب للشبكات السابقة هو الاختلاف العكسي KL بين توزيعات Dirichlet. يعالج هذا مشكلات في طبيعة توزيعات بيانات التدريب المستهدفة ، مما يتيح تدريب الشبكات السابقة بنجاح على مهام التصنيف مع العديد من الفئات بشكل تعسفي ، وكذلك تحسين أداء الكشف خارج التوزيع. ثانياً ، بالاستفادة من معيار التدريب الجديد هذا ، تبحث هذه الورقة في استخدام الشبكات السابقة للكشف عن هجمات الخصوم وتقترح شكلاً معممًا من التدريب على الخصومة. يتبين أن بناء هجمات whitebox التكيفية الناجحة ، والتي تؤثر على التنبؤ والتهرب من اكتشاف ، ضد الشبكات السابقة المدربة على CIFAR-10 و CIFAR-100 باستخدام النهج المقترح يتطلب قدراً أكبر من الجهد الحسابي مقارنةً بالشبكات التي يتم الدفاع عنها باستخدام الخصومة القياسية التدريب أو MC التسرب.
  • 21:10 حلقة نقاش: "NeurlPS التي نمت أكثر من اللازم: من يقع اللوم وماذا تفعل؟" - ألكساندر كرينوف ، ياندكس
  • 21:40 افترتى



ص موسكو ميتوب # 5

16 يناير ، 18: 30-21: 30 ، الخميس

  • 19: 00-19: 30 "حل المشكلات التشغيلية بمساعدة R للأدمى" - Konstantin Firsov (JSC Netris ، كبير مهندسي التنفيذ).
  • 19: 30-20: 00 "تحسين المخزون في تجارة التجزئة" - هنريك أنانييف (PJSC Beluga Group ، رئيس أتمتة التقارير).
  • 20: 00-20: 30 "BMS في X5: كيفية القيام بالتعدين في العمليات التجارية على سجلات POS غير المهيكلة باستخدام أدوات R" - Evgeny Roldugin (مجموعة البيع بالتجزئة X5 ، رئيس أدوات مراقبة جودة الخدمة) ، Ilya Shutov (Media-tel ، رئيس الأعمال) علم البيانات).



الواجهة الأمامية Meetup في موسكو (Gastromarket Baltschug)

18 يناير ، 12:00 حتي 18:00 ، السبت

  • "متى يجب إعادة كتابة أحد التطبيقات من نقطة الصفر ، وكيفية إقناع الشركة به" - أليكسي Pyzhyanov ، المطور ، سيبور
    القصة الحقيقية تدور حول كيفية تعاملنا مع الدين الفني بأكثر الطرق تطرفًا. سأخبرك عن:
    1. لماذا تحول التطبيق الجيد إلى إرث رهيب.
    2. كيف اتخذنا قرارًا صعبًا لإعادة كتابة كل شيء؟
    3. كيف بعنا هذه الفكرة إلى صاحب المنتج.
    4. ما حدث في النهاية من هذا المشروع ، ولماذا لا نأسف لهذا القرار.

  • "يسخر API من Vuejs" - فلاديسلاف بروسوف ، مطور الواجهة الأمامية ، AGIMA



التدريب على تعلم الآلة في Avito 2.0

18 يناير ، 12: 00-15: 00 ، السبت

  • 12:00 "التحدي اللوجستي لسيندي سيندي (روس)" - رومان بيانكوف
  • 12:30 "Data Souls Wildfire AI (rus)" - إيليا بلوتنيكوف
  • 13:00 استراحة قهوة
  • 13:20 "Topcoder SpaceNet 5 Challenge & Signate 3rd Tellus Satellite Challenge (eng)" - Ilya Kibardin
  • 14:00 استراحة قهوة
  • 14:10 "الانحدار التلقائي لسلسلة التوقيت في كودالاب (eng)" - دينيس فوروتينتسيف


Source: https://habr.com/ru/post/ar483752/


All Articles