
Veranstaltungen mit offener Anmeldung:
* Links zu Ereignissen funktionieren innerhalb des Beitrags
Dienstag, 14. Januar, 19: 00-22: 00 UhrWir laden Sie ein, sich mit künstlicher Intelligenz, ihrer Verwendung auf Mobilgeräten und den wichtigsten technologischen und geschäftlichen Trends des neuen Jahrzehnts auseinanderzusetzen. Auf dem Programm stehen interessante Vorträge, Diskussionen, Pizza und gute Laune.
Einer der Redner ist ein Pionier bei der Einführung der neuesten Technologien in Hollywood, dem Weißen Haus. Sein Buch Augmented: Life in the Smart Lane wurde vom chinesischen Präsidenten als eines seiner Lieblingshandbücher in seiner Neujahrsansprache erwähnt.
15. Januar ab 18:00 Uhr, Mittwoch- 18:00 Registrierung
- 19:00 Eröffnung - Mikhail Bilenko, Yandex
19:05 Reinforcement Learning auf der NeurIPS 2019: Wie es war - Sergey Kolesnikov, TinkoffJedes Jahr wird das Thema des verstärkten Lernens (RL) heißer und hektischer. Und jedes Jahr geben DeepMind und OpenAI Brennstoff ins Feuer und bringen einen neuen übermenschlichen Performance-Bot heraus. Gibt es wirklich etwas dahinter? Und was sind die neuesten Trends in der gesamten RL-Vielfalt? Lass es uns herausfinden!
19:25 Überblick über NLP-Arbeiten bei NeurIPS 2019 - Mikhail Burtsev, MIPTHeutzutage sind die bahnbrechendsten Bereiche im Bereich der Verarbeitung natürlicher Sprache mit der Konstruktion von Architekturen verbunden, die auf Sprachmodellen und Wissensgraphen basieren. Der Bericht gibt einen Überblick über die Arbeiten, in denen diese Methoden beim Aufbau von Dialogsystemen zur Implementierung verschiedener Funktionen eingesetzt werden. Zum Beispiel - um über gemeinsame Themen zu kommunizieren, das Einfühlungsvermögen zu erhöhen und einen fokussierten Dialog zu führen.
19:45 Wege zum Verständnis des Oberflächentyps der Verlustfunktion - Dmitry Vetrov, FKN NRU HSEIch werde einige Arbeiten diskutieren, die ungewöhnliche Effekte im Tiefenlernen untersuchen. Diese Effekte werfen ein Licht auf das Erscheinungsbild der Verlustfunktion im Raum der Skalen und erlauben es uns, eine Reihe von Hypothesen aufzustellen. Wenn sie bestätigt werden, kann die Schrittgröße in den Optimierungsmethoden effektiver angepasst werden. Sie ermöglicht auch die Vorhersage des erreichbaren Werts der Verlustfunktion in der Testprobe lange vor dem Ende des Trainings.
20:05 Rückblick auf die Arbeit an Computer Vision bei NeurIPS 2019 - Sergey Ovcharenko, Konstantin Lakhman, YandexWir werden die Hauptrichtungen der Forschung und Arbeit in der Computer Vision betrachten. Versuchen wir zu verstehen, ob alle Aufgaben aus akademischer Sicht bereits gelöst sind, ob die siegreiche Prozession der GAN in allen Bereichen, die sich ihr widersetzen, andauert und wann die unbeaufsichtigte Revolution bereits stattfinden wird.
- 20:25 Kaffeepause
20:40 Modellierungssequenzen mit unbegrenzter Generierungsreihenfolge - Dmitry Emelianenko, YandexWir bieten ein Modell an, mit dem Wörter an einer beliebigen Stelle des generierten Satzes eingefügt werden können. Das Modell lehrt implizit eine bequeme Decodierungsreihenfolge basierend auf Daten. Die beste Qualität wird für mehrere Datensätze erzielt: Für maschinelle Übersetzung in LaTeX und Bildbeschreibung verwenden. Der Bericht ist einem Artikel gewidmet, in dem wir zeigen, dass die erlernte Dekodierungsreihenfolge wirklich eine Bedeutung hat und spezifisch für das zu lösende Problem ist.
20:55 Umgekehrtes KL-Divergenz-Training früherer Netzwerke: Verbesserte Unsicherheit und widersprüchliche Robustheit - Andrey Malinin, YandexEnsemble-Ansätze zur Unsicherheitsschätzung wurden kürzlich auf die Aufgaben der Erkennung von Fehlklassifizierungen, der Erkennung von nicht verteilten Eingaben und der Erkennung von gegnerischen Angriffen angewendet. Bisherige Netzwerke wurden als Ansatz vorgeschlagen, um ein Ensemble von Modellen zur Klassifizierung durch Parametrisierung einer Dirichlet-Vorverteilung über Ausgangsverteilungen effizient zu emulieren. Es wurde gezeigt, dass diese Modelle alternative Ensemble-Ansätze wie Monte-Carlo-Dropout bei der Erkennung von nicht verteilten Eingaben übertreffen. Das Skalieren von Prior Networks auf komplexe Datensätze mit vielen Klassen ist jedoch unter Verwendung der ursprünglich vorgeschlagenen Trainingskriterien schwierig. Dieses Papier macht zwei Beiträge. Zunächst zeigen wir, dass das geeignete Trainingskriterium für Prior Networks die umgekehrte KL-Divergenz zwischen Dirichlet-Verteilungen ist. Dies befasst sich mit Problemen in der Art der Trainingsdaten-Zielverteilungen, ermöglicht es früheren Netzwerken, erfolgreich auf Klassifizierungsaufgaben mit beliebig vielen Klassen zu trainieren, und verbessert die Erkennungsleistung für nicht verteilte Daten. Zweitens untersucht dieser Aufsatz unter Ausnutzung dieses neuen Trainingskriteriums die Verwendung von Prior Networks, um gegnerische Angriffe zu erkennen, und schlägt eine verallgemeinerte Form des gegnerischen Trainings vor. Es wird gezeigt, dass der Aufbau erfolgreicher adaptiver Whitebox-Angriffe, die sich auf die Vorhersage und Ausweicherkennung auswirken, gegen auf CIFAR-10 und CIFAR-100 unter Verwendung des vorgeschlagenen Ansatzes trainierte frühere Netzwerke einen größeren Rechenaufwand erfordert als gegen Netzwerke, die unter Verwendung von Standard-Widersprüchen verteidigt werden Training oder MC-Abbruch.
- 21:10 Podiumsdiskussion: „NeurlPS, das zu stark gewachsen ist: Wer ist schuld und was zu tun?“ - Alexander Krainov, Yandex
- 21:40 Afterparty
16. Januar, 18.30-21.30 Uhr, Donnerstag- 19: 00-19: 30 “Lösung von Betriebsproblemen mit Hilfe von R for Dummies” - Konstantin Firsov (JSC Netris, Chief Implementation Engineer).
- 19:30 bis 20:00 Uhr „Optimierung des Warenbestands im Einzelhandel“ - Henrik Ananyev (PJSC Beluga Group, Leiter Reporting Automation).
- 20: 00-20: 30 „BMS in X5: Vorgehensweise beim Business Process Mining auf unstrukturierten POS-Protokollen mit R-Tools“ - Evgeny Roldugin (X5-Einzelhandelsgruppe, Leiter Service Quality Control Tools), Ilya Shutov (Media-Tel, Leiter Business Datenwissenschaft).
18. Januar, 12: 00-18: 00 Uhr, Samstag„Wann man eine Anwendung von Grund auf neu schreibt und wie man ein Unternehmen davon überzeugt“ - Alexey Pyzhyanov, Entwickler, SiburDie wahre Geschichte handelt davon, wie wir mit technischen Schulden radikal umgegangen sind. Ich erzähle Ihnen von:
- Warum eine gute App zu einem schrecklichen Erbe wurde.
- Wie wir eine schwierige Entscheidung getroffen haben, alles neu zu schreiben.
- Wie wir diese Idee an den Produktbesitzer verkauft haben.
- Was ist am Ende aus diesem Unternehmen geworden und warum bereuen wir die Entscheidung nicht?
- "Vuejs API Mocks" - Vladislav Prusov, Frontend-Entwickler, AGIMA
18. Januar, 12: 00-15: 00 Uhr, Samstag- 12:00 “Zindi Sendy Logistics Challenge (rus)” - Roman Pyankov
- 12:30 “Data Souls Wildfire AI (rus)” - Ilya Plotnikov
- 13:00 Kaffeepause
- 13:20 “Topcoder SpaceNet 5 Challenge & Signate Die 3. Tellus Satellite Challenge (ger)” - Ilya Kibardin
- 14:00 Kaffeepause
- 14:10 "Codalab Automated Time Series Regression (engl.)" - Denis Vorotyntsev