Onde ir: os próximos eventos gratuitos para especialistas em TI em Moscou (14 a 18 de janeiro)



Eventos com inscrição aberta:



* Links para eventos funcionam dentro do post



AI e dispositivos móveis

14 de janeiro, 19: 00-22: 00, terça-feira

Convidamos você a conhecer a inteligência artificial, seu uso em dispositivos móveis e as tendências tecnológicas e comerciais mais importantes da nova década. O programa inclui apresentações interessantes, discussões, pizza e bom humor.

Um dos palestrantes é pioneiro na introdução das mais recentes tecnologias em Hollywood, a Casa Branca; seu livro Augmented: Life in the Smart Lane foi mencionado pelo presidente chinês como um de seus livros favoritos no discurso de Ano Novo.



Pós-festa de Ano Novo NeurIPS

15 de janeiro, começando às 18:00, quarta-feira

  • 18:00 Registro
  • 19:00 Abertura - Mikhail Bilenko, Yandex
  • 19:05 Aprendizado por reforço no NeurIPS 2019: como foi - Sergey Kolesnikov, Tinkoff
    Todos os anos, o tópico de aprendizagem por reforço (RL) está ficando cada vez mais quente e mais exagerado. E a cada ano, o DeepMind e o OpenAI adicionam combustível ao fogo, liberando um novo bot de desempenho sobre-humano. Existe realmente algo por trás disso? E quais são as últimas tendências em toda a variedade RL? Vamos descobrir!
  • 19:25 Visão geral da PNL trabalha no NeurIPS 2019 - Mikhail Burtsev, MIPT
    Hoje, as áreas mais inovadoras no campo do processamento de linguagem natural estão associadas à construção de arquiteturas baseadas em modelos de linguagem e gráficos de conhecimento. O relatório fornecerá uma visão geral dos trabalhos em que esses métodos são utilizados na construção de sistemas de diálogo para a implementação de várias funções. Por exemplo - para se comunicar sobre tópicos comuns, aumente a empatia e participe de um diálogo focado.
  • 19:45 Maneiras de entender o tipo de superfície da função de perda - Dmitry Vetrov, FKN NRU HSE
    Vou discutir vários trabalhos que exploram efeitos incomuns no aprendizado profundo. Esses efeitos lançam luz sobre a aparência superficial da função de perda no espaço das escalas e permitem apresentar uma série de hipóteses. Se eles forem confirmados, será possível ajustar com mais eficiência o tamanho da etapa nos métodos de otimização. Também permitirá prever o valor alcançável da função de perda na amostra de teste muito antes do final do treinamento.
  • 20:05 Revisão do trabalho sobre visão computacional no NeurIPS 2019 - Sergey Ovcharenko, Konstantin Lakhman, Yandex
    Consideraremos as principais direções de pesquisa e trabalho em visão computacional. Vamos tentar entender se todas as tarefas já foram resolvidas do ponto de vista da academia, se a procissão vitoriosa do GAN continua em todas as áreas que resistem a ela e quando a revolução não supervisionada já ocorrerá.
  • 20:25 Intervalo para café
  • 20:40 Sequências de modelagem com ordem de geração ilimitada - Dmitry Emelianenko, Yandex
    Oferecemos um modelo que pode inserir palavras em um local arbitrário da sentença gerada. O modelo ensina implicitamente uma ordem conveniente de decodificação com base nos dados. A melhor qualidade é obtida em vários conjuntos de dados: para tradução automática, use no LaTeX e na descrição da imagem. O relatório é dedicado a um artigo no qual mostramos que a ordem de decodificação aprendida realmente tem significado e é específica para o problema que está sendo resolvido.
  • 20:55 Treinamento reverso de divergência KL de redes anteriores: incerteza aprimorada e robustez adversa - Andrey Malinin, Yandex
    Abordagens de ensemble para estimativa de incertezas foram recentemente aplicadas às tarefas de detecção de classificação incorreta, detecção de entrada fora de distribuição e detecção de ataque adversário. Redes anteriores foram propostas como uma abordagem para emular eficientemente um conjunto de modelos para classificação, parametrizando uma distribuição anterior do Dirichlet sobre as distribuições de saída. Foi mostrado que esses modelos superam as abordagens alternativas de conjuntos, como o Monte-Carlo Dropout, na tarefa de detecção de entrada fora de distribuição. No entanto, é difícil escalar redes anteriores para conjuntos de dados complexos com muitas classes, usando os critérios de treinamento propostos originalmente. Este artigo faz duas contribuições. Primeiro, mostramos que o critério de treinamento apropriado para redes anteriores é a divergência inversa de KL entre as distribuições de Dirichlet. Isso aborda problemas na natureza das distribuições de destino de dados de treinamento, permitindo que redes anteriores sejam treinadas com êxito em tarefas de classificação com muitas classes arbitrariamente, além de melhorar o desempenho da detecção de fora da distribuição. Segundo, aproveitando esse novo critério de treinamento, este artigo investiga o uso de redes anteriores para detectar ataques adversários e propõe uma forma generalizada de treinamento adversário. É mostrado que a construção de ataques de caixa branca adaptativos bem-sucedidos, que afetam a previsão e a detecção de fuga, contra redes anteriores treinadas no CIFAR-10 e CIFAR-100, usando a abordagem proposta, requer uma quantidade maior de esforço computacional do que contra redes defendidas usando o sistema adversário padrão. treinamento ou desistência de MC.
  • 21:10 Painel de discussão: “NeurlPS que cresceu demais: quem é o culpado e o que fazer?” - Alexander Krainov, Yandex
  • 21:40 Afterparty



R Moscou Meetup # 5

16 de janeiro, 18: 30-21: 30, quinta-feira

  • 19: 00-19: 30 “Solução de problemas operacionais com a ajuda de R para manequins” - Konstantin Firsov (JSC Netris, engenheiro-chefe de implementação).
  • 19: 30-20: 00 “Otimização de estoque no varejo” - Henrik Ananyev (PJSC Beluga Group, Chefe de automação de relatórios).
  • 20: 00-20: 30 “BMS no X5: como fazer a mineração de processos de negócios em logs POS não estruturados usando ferramentas R” - Evgeny Roldugin (X5 Retail Group, chefe de ferramentas de controle de qualidade de serviços), Ilya Shutov (Media-tel, chefe de negócios ciência de dados).



Frontend Meetup em Moscou (Gastromarket Baltschug)

18 de janeiro, 12: 00-18: 00, sábado

  • “Quando reescrever um aplicativo do zero e como convencer um negócio dele” - Alexey Pyzhyanov, desenvolvedor, Sibur
    A verdadeira história é sobre como lidamos com a dívida técnica da maneira mais radical. Vou falar sobre:
    1. Por que um bom aplicativo se transformou em um legado terrível.
    2. Como tomamos uma decisão difícil de reescrever tudo.
    3. Como vendemos essa ideia ao proprietário do produto.
    4. O que aconteceu no final deste empreendimento e por que não lamentamos a decisão.

  • “Mockups da API do Vuejs” - Vladislav Prusov, desenvolvedor Frontend, AGIMA



Treinamentos de aprendizado de máquina no Avito 2.0

18 de janeiro, 12: 00-15: 00, sábado

  • 12:00 “Desafio de logística de Zindi Sendy (Rússia)” - Roman Pyankov
  • 12:30 “Data Souls Wildfire AI (rus)” - Ilya Plotnikov
  • 13:00 Coffee break
  • 13:20 “Topcoder SpaceNet 5 Challenge & Signate The 3rd Tellus Satellite Challenge (eng)” - Ilya Kibardin
  • 14:00 Coffee break
  • 14:10 "Regressão automatizada de séries temporais do Codalab (eng)" - Denis Vorotyntsev


Source: https://habr.com/ru/post/pt483752/


All Articles