Wohin: Die nächsten kostenlosen Veranstaltungen für IT-Spezialisten in Moskau (14.-18. Januar)



Veranstaltungen mit offener Anmeldung:



* Links zu Ereignissen funktionieren innerhalb des Beitrags



AI & Mobile

Dienstag, 14. Januar, 19: 00-22: 00 Uhr

Wir laden Sie ein, sich mit künstlicher Intelligenz, ihrer Verwendung auf Mobilgeräten und den wichtigsten technologischen und geschäftlichen Trends des neuen Jahrzehnts auseinanderzusetzen. Auf dem Programm stehen interessante Vorträge, Diskussionen, Pizza und gute Laune.

Einer der Redner ist ein Pionier bei der Einführung der neuesten Technologien in Hollywood, dem Weißen Haus. Sein Buch Augmented: Life in the Smart Lane wurde vom chinesischen Präsidenten als eines seiner Lieblingshandbücher in seiner Neujahrsansprache erwähnt.



NeurIPS Neujahr Afterparty

15. Januar ab 18:00 Uhr, Mittwoch

  • 18:00 Registrierung
  • 19:00 Eröffnung - Mikhail Bilenko, Yandex
  • 19:05 Reinforcement Learning auf der NeurIPS 2019: Wie es war - Sergey Kolesnikov, Tinkoff
    Jedes Jahr wird das Thema des verstärkten Lernens (RL) heißer und hektischer. Und jedes Jahr geben DeepMind und OpenAI Brennstoff ins Feuer und bringen einen neuen übermenschlichen Performance-Bot heraus. Gibt es wirklich etwas dahinter? Und was sind die neuesten Trends in der gesamten RL-Vielfalt? Lass es uns herausfinden!
  • 19:25 Überblick über NLP-Arbeiten bei NeurIPS 2019 - Mikhail Burtsev, MIPT
    Heutzutage sind die bahnbrechendsten Bereiche im Bereich der Verarbeitung natürlicher Sprache mit der Konstruktion von Architekturen verbunden, die auf Sprachmodellen und Wissensgraphen basieren. Der Bericht gibt einen Überblick über die Arbeiten, in denen diese Methoden beim Aufbau von Dialogsystemen zur Implementierung verschiedener Funktionen eingesetzt werden. Zum Beispiel - um über gemeinsame Themen zu kommunizieren, das Einfühlungsvermögen zu erhöhen und einen fokussierten Dialog zu führen.
  • 19:45 Wege zum Verständnis des Oberflächentyps der Verlustfunktion - Dmitry Vetrov, FKN NRU HSE
    Ich werde einige Arbeiten diskutieren, die ungewöhnliche Effekte im Tiefenlernen untersuchen. Diese Effekte werfen ein Licht auf das Erscheinungsbild der Verlustfunktion im Raum der Skalen und erlauben es uns, eine Reihe von Hypothesen aufzustellen. Wenn sie bestätigt werden, kann die Schrittgröße in den Optimierungsmethoden effektiver angepasst werden. Sie ermöglicht auch die Vorhersage des erreichbaren Werts der Verlustfunktion in der Testprobe lange vor dem Ende des Trainings.
  • 20:05 Rückblick auf die Arbeit an Computer Vision bei NeurIPS 2019 - Sergey Ovcharenko, Konstantin Lakhman, Yandex
    Wir werden die Hauptrichtungen der Forschung und Arbeit in der Computer Vision betrachten. Versuchen wir zu verstehen, ob alle Aufgaben aus akademischer Sicht bereits gelöst sind, ob die siegreiche Prozession der GAN in allen Bereichen, die sich ihr widersetzen, andauert und wann die unbeaufsichtigte Revolution bereits stattfinden wird.
  • 20:25 Kaffeepause
  • 20:40 Modellierungssequenzen mit unbegrenzter Generierungsreihenfolge - Dmitry Emelianenko, Yandex
    Wir bieten ein Modell an, mit dem Wörter an einer beliebigen Stelle des generierten Satzes eingefügt werden können. Das Modell lehrt implizit eine bequeme Decodierungsreihenfolge basierend auf Daten. Die beste Qualität wird für mehrere Datensätze erzielt: Für maschinelle Übersetzung in LaTeX und Bildbeschreibung verwenden. Der Bericht ist einem Artikel gewidmet, in dem wir zeigen, dass die erlernte Dekodierungsreihenfolge wirklich eine Bedeutung hat und spezifisch für das zu lösende Problem ist.
  • 20:55 Umgekehrtes KL-Divergenz-Training früherer Netzwerke: Verbesserte Unsicherheit und widersprüchliche Robustheit - Andrey Malinin, Yandex
    Ensemble-Ansätze zur Unsicherheitsschätzung wurden kürzlich auf die Aufgaben der Erkennung von Fehlklassifizierungen, der Erkennung von nicht verteilten Eingaben und der Erkennung von gegnerischen Angriffen angewendet. Bisherige Netzwerke wurden als Ansatz vorgeschlagen, um ein Ensemble von Modellen zur Klassifizierung durch Parametrisierung einer Dirichlet-Vorverteilung über Ausgangsverteilungen effizient zu emulieren. Es wurde gezeigt, dass diese Modelle alternative Ensemble-Ansätze wie Monte-Carlo-Dropout bei der Erkennung von nicht verteilten Eingaben übertreffen. Das Skalieren von Prior Networks auf komplexe Datensätze mit vielen Klassen ist jedoch unter Verwendung der ursprünglich vorgeschlagenen Trainingskriterien schwierig. Dieses Papier macht zwei Beiträge. Zunächst zeigen wir, dass das geeignete Trainingskriterium für Prior Networks die umgekehrte KL-Divergenz zwischen Dirichlet-Verteilungen ist. Dies befasst sich mit Problemen in der Art der Trainingsdaten-Zielverteilungen, ermöglicht es früheren Netzwerken, erfolgreich auf Klassifizierungsaufgaben mit beliebig vielen Klassen zu trainieren, und verbessert die Erkennungsleistung für nicht verteilte Daten. Zweitens untersucht dieser Aufsatz unter Ausnutzung dieses neuen Trainingskriteriums die Verwendung von Prior Networks, um gegnerische Angriffe zu erkennen, und schlägt eine verallgemeinerte Form des gegnerischen Trainings vor. Es wird gezeigt, dass der Aufbau erfolgreicher adaptiver Whitebox-Angriffe, die sich auf die Vorhersage und Ausweicherkennung auswirken, gegen auf CIFAR-10 und CIFAR-100 unter Verwendung des vorgeschlagenen Ansatzes trainierte frühere Netzwerke einen größeren Rechenaufwand erfordert als gegen Netzwerke, die unter Verwendung von Standard-Widersprüchen verteidigt werden Training oder MC-Abbruch.
  • 21:10 Podiumsdiskussion: „NeurlPS, das zu stark gewachsen ist: Wer ist schuld und was zu tun?“ - Alexander Krainov, Yandex
  • 21:40 Afterparty



R Moscow Meetup # 5

16. Januar, 18.30-21.30 Uhr, Donnerstag

  • 19: 00-19: 30 “Lösung von Betriebsproblemen mit Hilfe von R for Dummies” - Konstantin Firsov (JSC Netris, Chief Implementation Engineer).
  • 19:30 bis 20:00 Uhr „Optimierung des Warenbestands im Einzelhandel“ - Henrik Ananyev (PJSC Beluga Group, Leiter Reporting Automation).
  • 20: 00-20: 30 „BMS in X5: Vorgehensweise beim Business Process Mining auf unstrukturierten POS-Protokollen mit R-Tools“ - Evgeny Roldugin (X5-Einzelhandelsgruppe, Leiter Service Quality Control Tools), Ilya Shutov (Media-Tel, Leiter Business Datenwissenschaft).



Frontend Meetup in Moskau (Gastromarkt Baltschug)

18. Januar, 12: 00-18: 00 Uhr, Samstag

  • „Wann man eine Anwendung von Grund auf neu schreibt und wie man ein Unternehmen davon überzeugt“ - Alexey Pyzhyanov, Entwickler, Sibur
    Die wahre Geschichte handelt davon, wie wir mit technischen Schulden radikal umgegangen sind. Ich erzähle Ihnen von:
    1. Warum eine gute App zu einem schrecklichen Erbe wurde.
    2. Wie wir eine schwierige Entscheidung getroffen haben, alles neu zu schreiben.
    3. Wie wir diese Idee an den Produktbesitzer verkauft haben.
    4. Was ist am Ende aus diesem Unternehmen geworden und warum bereuen wir die Entscheidung nicht?

  • "Vuejs API Mocks" - Vladislav Prusov, Frontend-Entwickler, AGIMA



Maschinelles Lernen in Avito 2.0

18. Januar, 12: 00-15: 00 Uhr, Samstag

  • 12:00 “Zindi Sendy Logistics Challenge (rus)” - Roman Pyankov
  • 12:30 “Data Souls Wildfire AI (rus)” - Ilya Plotnikov
  • 13:00 Kaffeepause
  • 13:20 “Topcoder SpaceNet 5 Challenge & Signate Die 3. Tellus Satellite Challenge (ger)” - Ilya Kibardin
  • 14:00 Kaffeepause
  • 14:10 "Codalab Automated Time Series Regression (engl.)" - Denis Vorotyntsev


Source: https://habr.com/ru/post/de483752/


All Articles