
Eventos con inscripción abierta:
* Los enlaces a eventos funcionan dentro de la publicación
14 de enero, 19: 00-22: 00, martesTe invitamos al mitap sobre inteligencia artificial, su uso en dispositivos móviles y las tendencias tecnológicas y comerciales más importantes de la nueva década. El programa incluye presentaciones interesantes, debates, pizza y buen humor.
Uno de los oradores es pionero en la introducción de las últimas tecnologías en Hollywood, la Casa Blanca; su libro Augmented: Life in the Smart Lane fue mencionado por el presidente chino como uno de sus manuales favoritos en su discurso de Año Nuevo.
15 de enero, a partir de las 18:00, miércoles- 18:00 Registro
- 19:00 Apertura - Mikhail Bilenko, Yandex
19:05 Aprendizaje de refuerzo en NeurIPS 2019: cómo fue - Sergey Kolesnikov, TinkoffCada año, el tema del aprendizaje por refuerzo (RL) se está volviendo más candente y más exagerado. Y cada año, DeepMind y OpenAI agregan combustible al fuego, lanzando un nuevo bot de rendimiento sobrehumano. ¿Hay realmente algo detrás de esto? ¿Y cuáles son las últimas tendencias en toda la variedad RL? ¡Averígualo!
19:25 Descripción general de los trabajos de PNL en NeurIPS 2019 - Mikhail Burtsev, MIPTHoy, las áreas más avanzadas en el campo del procesamiento del lenguaje natural están asociadas con la construcción de arquitecturas basadas en modelos de lenguaje y gráficos de conocimiento. El informe proporcionará una visión general de los trabajos en los que se utilizan estos métodos en la construcción de sistemas de diálogo para implementar diversas funciones. Por ejemplo, para comunicarse sobre temas comunes, aumentar la empatía y entablar un diálogo centrado.
19:45 Formas de comprender el tipo de superficie de la función de pérdida - Dmitry Vetrov, FKN NRU HSEDiscutiré varios trabajos que exploran efectos inusuales en el aprendizaje profundo. Estos efectos arrojan luz sobre la apariencia superficial de la función de pérdida en el espacio de las escalas y nos permiten presentar una serie de hipótesis. Si se confirman, será posible ajustar más efectivamente el tamaño del paso en los métodos de optimización. También permitirá predecir el valor alcanzable de la función de pérdida en la muestra de prueba mucho antes del final del entrenamiento.
20:05 Revisión del trabajo sobre visión por computadora en NeurIPS 2019 - Sergey Ovcharenko, Konstantin Lakhman, YandexConsideraremos las principales direcciones de investigación y trabajo en visión por computadora. Tratemos de entender si todas las tareas ya han sido resueltas desde el punto de vista de la academia, si la procesión victoriosa de la GAN continúa en todas las áreas que se resisten y cuándo la revolución no supervisada ya tendrá lugar.
- 20:25 Pausa para el café
20:40 Secuencias de modelado con orden de generación ilimitado - Dmitry Emelianenko, YandexOfrecemos un modelo que puede insertar palabras en un lugar arbitrario de la oración generada. El modelo enseña implícitamente un conveniente orden de decodificación basado en datos. La mejor calidad se logra en varios conjuntos de datos: para traducción automática, uso en LaTeX y descripción de imágenes. El informe está dedicado a un artículo en el que mostramos que el orden de decodificación aprendido realmente tiene significado y es específico para el problema que se está resolviendo.
20:55 Entrenamiento de divergencia KL inversa de redes anteriores: incertidumbre mejorada y robustez adversaria - Andrey Malinin, YandexLos enfoques de conjunto para la estimación de la incertidumbre se han aplicado recientemente a las tareas de detección de clasificación errónea, detección de entrada fuera de distribución y detección de ataques adversos. Las redes anteriores se han propuesto como un enfoque para emular eficientemente un conjunto de modelos para la clasificación al parametrizar una distribución previa de Dirichlet sobre distribuciones de salida. Se ha demostrado que estos modelos superan a los enfoques de conjuntos alternativos, como el abandono de Monte-Carlo, en la tarea de detección de entrada fuera de distribución. Sin embargo, escalar Redes previas a conjuntos de datos complejos con muchas clases es difícil usando los criterios de capacitación originalmente propuestos. Este artículo hace dos contribuciones. Primero, mostramos que el criterio de entrenamiento apropiado para Redes anteriores es la divergencia KL inversa entre las distribuciones de Dirichlet. Esto aborda problemas en la naturaleza de las distribuciones de destino de datos de entrenamiento, permitiendo que las redes anteriores sean entrenadas con éxito en tareas de clasificación con arbitrariamente muchas clases, así como también mejorando el rendimiento de detección fuera de distribución. En segundo lugar, aprovechando este nuevo criterio de entrenamiento, este artículo investiga el uso de Redes Previas para detectar ataques adversos y propone una forma generalizada de entrenamiento adversario. Se muestra que la construcción de ataques exitosos de caja blanca adaptativa, que afectan la predicción y evadir la detección, contra Redes anteriores capacitadas en CIFAR-10 y CIFAR-100 utilizando el enfoque propuesto requiere una mayor cantidad de esfuerzo computacional que contra las redes defendidas utilizando el adversario estándar entrenamiento o abandono de MC.
- 21:10 Panel de discusión: "NeurlPS que ha crecido demasiado: ¿quién tiene la culpa y qué hacer?" - Alexander Krainov, Yandex
- 21:40 Afterparty
16 de enero, 18: 30-21: 30, jueves- 19: 00-19: 30 "Solución de problemas operativos con la ayuda de R para tontos" - Konstantin Firsov (JSC Netris, Ingeniero Jefe de Implementación).
- 19: 30-20: 00 "Optimización del inventario en el comercio minorista" - Henrik Ananyev (PJSC Beluga Group, Jefe de Automatización de Informes).
- 20: 00-20: 30 "BMS en X5: cómo hacer minería de procesos de negocio en registros POS no estructurados utilizando herramientas R" - Evgeny Roldugin (Grupo minorista X5, Jefe de herramientas de control de calidad de servicio), Ilya Shutov (Media-tel, Jefe de negocios ciencia de datos).
18 de enero, 12: 00-18: 00, sábado"Cuándo reescribir una aplicación desde cero y cómo convencer a una empresa de ella" - Alexey Pyzhyanov, desarrollador, SiburLa verdadera historia es sobre cómo lidiamos con la deuda técnica de la manera más radical. Te contaré sobre:
- Por qué una buena aplicación se convirtió en un terrible legado.
- Cómo tomamos la difícil decisión de reescribir todo.
- Cómo vendimos esta idea al dueño del producto.
- Lo que sucedió al final de esta aventura y por qué no lamentamos la decisión.
- "Simulacros de API Vuejs" - Vladislav Prusov, desarrollador Frontend, AGIMA
18 de enero, 12: 00-15: 00, sábado- 12:00 “Desafío logístico Zindi Sendy (rus)” - Roman Pyankov
- 12:30 “Almas de datos Wildfire AI (rus)” - Ilya Plotnikov
- 13:00 Coffee break
- 13:20 "Topcoder SpaceNet 5 Challenge & Signate The 3rd Tellus Satellite Challenge (eng)" - Ilya Kibardin
- 14:00 Coffee break
- 14:10 "Regresión automatizada de series de tiempo de Codalab (ing)" - Denis Vorotyntsev