NeurIPS 2019: tendências de ML que estarão conosco na próxima década

NeurIPS ( Sistemas de processamento de informações neurais ) é a maior conferência do mundo em aprendizado de máquina e inteligência artificial e o principal evento no mundo do aprendizado profundo.

Na nova década, os engenheiros do DS também dominarão biologia, lingüística e psicologia? Vamos contar em nossa análise.



Este ano, a conferência reuniu mais de 13.500 pessoas de 80 países em Vancouver, Canadá. Este não é o primeiro ano em que o Sberbank representou a Rússia na conferência - a equipe do DS falou sobre a introdução do BC nos processos bancários, sobre a concorrência do BC e sobre os recursos da plataforma Sberbank DS. Quais foram as principais tendências de 2019 na comunidade de ML? Os participantes da conferência contam: Andrey Chertok e Tatyana Shavrina .

Este ano, mais de 1400 artigos foram aceitos no NeurIPS - algoritmos, novos modelos e novos aplicativos para novos dados. Link para todos os materiais

Conteúdo:


  • Tendências
    • Interpretabilidade do modelo
    • Multidisciplinaridade
    • Raciocínio
    • RL
    • Gan
  • Principais palestras convidadas
    • "Inteligência social", Blaise Aguera e Arcas (Google)
    • “Ciência de dados verídicos”, Bin Yu (Berkeley)
    • “Modelagem do comportamento humano com aprendizado de máquina: oportunidades e desafios”, Nuria M Oliver, Albert Ali Salah
    • “Do Sistema 1 ao Sistema 2 de Aprendizado Profundo”, Yoshua Bengio


2019 Tendências


1. Interpretabilidade do modelo e a nova metodologia de ML

O tópico principal da conferência é a interpretação e a prova de por que obtemos esses ou aqueles resultados. Você pode falar por um longo tempo sobre a importância filosófica de interpretar a “caixa preta”, mas havia mais métodos reais e desenvolvimentos técnicos nessa área.

A metodologia de reprodutibilidade dos modelos e a extração de conhecimento deles é um novo conjunto de ferramentas da ciência. Os modelos podem servir como uma ferramenta para adquirir novos conhecimentos e testá-los, e todos os estágios de pré-processamento, treinamento e aplicação do modelo devem ser reproduzíveis.
Uma proporção significativa de publicações é dedicada não à construção de modelos e ferramentas, mas a problemas de garantia de segurança, transparência e verificabilidade dos resultados. Em particular, um fluxo separado apareceu sobre ataques ao modelo (ataques adversários), e são consideradas opções para ataques ao treinamento e ataques a aplicativos.

Artigos:



ExBert.net mostra interpretação de modelo para tarefas de processamento de texto

2. Multidisciplinaridade

Para garantir uma verificação confiável e desenvolver mecanismos para testar e reabastecer o conhecimento, precisamos de especialistas de áreas afins que tenham competência em ML e na área de atuação (medicina, linguística, neurobiologia, educação etc.). Destaca-se a presença mais significativa de trabalhos e apresentações sobre neurociências e ciências cognitivas - há uma aproximação de especialistas e idéias de empréstimos.

Além dessa aproximação, a multidisciplinaridade é planejada no processamento conjunto de informações de várias fontes: texto e fotos, texto e jogos, banco de dados de gráficos + texto e fotos.

Artigos:



Dois modelos - estrategista e intérprete - baseados em RL e PNL desempenham uma estratégia online

3. Raciocínio

Fortalecer a inteligência artificial - um movimento em direção a sistemas de auto-aprendizagem, "consciente", raciocínio e argumentação (raciocínio). Em particular, a inferência causal e o raciocínio de senso comum se desenvolvem. Parte dos relatórios é dedicada à meta-aprendizagem (como aprender a aprender) e à combinação de tecnologias DL com lógica de 1ª e 2ª ordem - o termo Inteligência Geral Artificial (AGI) torna-se um termo comum nos discursos dos palestrantes.

Artigos:


4. Aprendizado de Reforço

A maior parte do trabalho continua a desenvolver as áreas tradicionais de RL - DOTA2, Starcraft, combinando arquiteturas com visão computacional, PNL, bancos de dados de gráficos.

Um dia separado da conferência foi dedicado ao workshop de RL, que apresentou a arquitetura do Modelo Crítico de Ator Otimista, superando todos os anteriores, em particular o Soft Actor Critic.

Artigos:



Jogadores do StarCraft lutam com a Alphastar (DeepMind)

5. GAN

As redes generativas ainda estão no foco das atenções: muitos trabalhos usam GANs de baunilha para provas matemáticas e também os aplicam em versões novas e incomuns (modelos geradores de gráficos, trabalhos em série, aplicativos para causar e afetar relacionamentos em dados, etc.).

Artigos:


Como o trabalho foi realizado mais de 1.400 abaixo, falaremos sobre as performances mais importantes.

Palestras convidadas


"Inteligência social", Blaise Aguera e Arcas (Google)


Link
Slides e vídeos
O relatório é dedicado à metodologia geral de aprendizado de máquina e às perspectivas que estão mudando o setor no momento - que encruzilhada estamos enfrentando? Como o cérebro e a evolução funcionam, e por que usamos tão pouco que já sabemos bem sobre o desenvolvimento de sistemas naturais?

O desenvolvimento industrial do ML coincide em grande parte com os marcos do desenvolvimento do Google, que publica sua pesquisa no NeurIPS de ano para ano:

  • 1997 - lançamento das capacidades de busca, primeiros servidores, pequeno poder de computação
  • 2010 - Jeff Dean lança o projeto Google Brain, um boom da rede neural no início
  • 2015 - implementação industrial de redes neurais, reconhecimento rápido de faces diretamente no dispositivo local, processadores de baixo nível aprimorados pela computação tensorial - TPU. Google lança Coral ai - um análogo do raspberry pi, um mini-computador para introduzir redes neurais em instalações experimentais
  • 2017 - Google inicia o desenvolvimento de um treinamento descentralizado e combina os resultados do treinamento de redes neurais de diferentes dispositivos em um modelo - no android

Hoje, todo um setor se preocupa com a segurança dos dados, combinando e reproduzindo os resultados da aprendizagem em dispositivos locais.

Aprendizado federado - direção de ML, em que modelos individuais estudam independentemente e depois são combinados em um único modelo (sem centralizar os dados de origem), ajustado para eventos raros, anomalias, personalização etc. Todos os dispositivos Android são essencialmente um único supercomputador de computação para o Google.

Modelos generativos baseados em aprendizado federado são uma área promissora no futuro, segundo o Google, que está "nos estágios iniciais de crescimento exponencial". Os GANs, de acordo com o professor, são capazes de aprender a reproduzir o comportamento em massa de populações de organismos vivos, pensando em algoritmos.

Usando duas arquiteturas simples de GAN como exemplo, é mostrado que nelas a busca pelo caminho de otimização vagueia em um círculo, o que significa que a otimização não ocorre como tal. Além disso, esses modelos modelam com sucesso os experimentos que os biólogos realizam em populações bacterianas, forçando-os a aprender novas estratégias de comportamento em busca de alimentos. Podemos concluir que a vida funciona de maneira diferente da função de otimização.


Otimização errônea de GAN

Tudo o que estamos fazendo no âmbito do aprendizado de máquina agora são tarefas estreitas e extremamente formalizadas, enquanto esses formalismos são pouco generalizados e não correspondem ao nosso conhecimento da matéria em campos como neurofisiologia e biologia.

O que realmente vale a pena emprestar do campo da neurofisiologia em um futuro próximo é a nova arquitetura dos neurônios e uma pequena revisão dos mecanismos de propagação traseira do erro.

O próprio cérebro humano não aprende a usar uma rede neural:

  • Ele não tem introduções preliminares aleatórias, incluindo aquelas estabelecidas pelos sentidos e na infância
  • Ele tem as orientações estabelecidas para o desenvolvimento instintivo (o desejo de aprender um idioma com uma criança, postura ereta)

Aprender o cérebro individual é uma tarefa de baixo nível, talvez devêssemos considerar as “colônias” de indivíduos que mudam rapidamente, transmitindo conhecimento uns aos outros para reproduzir os mecanismos de evolução do grupo.

O que podemos levar para os algoritmos de ML agora:

  • Aplique modelos de linhagem celular que forneçam treinamento para a população, mas a curta vida do indivíduo ("cérebro individual")
  • Aprendizado de poucos tiros em alguns exemplos
  • Estruturas neuronais mais complexas, funções de ativação ligeiramente diferentes
  • Passando o "genoma" para as gerações futuras - algoritmo de propagação traseira
  • Assim que conectarmos a neurofisiologia e as redes neurais, aprenderemos como construir um cérebro multifuncional a partir de muitos componentes.

Desse ponto de vista, a prática das soluções SOTA é prejudicial e deve ser revisada para desenvolver tarefas comuns (benchmarks).

“Ciência de dados verídicos”, Bin Yu (Berkeley)


Vídeos e slides
O relatório é dedicado ao problema de interpretação dos modelos de aprendizado de máquina e à metodologia de verificação direta e verificação. Qualquer modelo de ML treinado pode ser percebido como uma fonte de conhecimento que precisa ser extraída dele.

Em muitas áreas, especialmente na medicina, a aplicação do modelo é impossível sem extrair esse conhecimento oculto e interpretar os resultados do modelo - caso contrário, não teremos certeza de que os resultados serão estáveis, não aleatórios, confiáveis ​​e não matarão o paciente. Toda a direção da metodologia de trabalho está se desenvolvendo dentro do paradigma de aprendizado profundo e vai além de seus limites - a ciência de dados verídica. O que é isso

Queremos alcançar a qualidade das publicações científicas e a reprodutibilidade dos modelos para que sejam:

  1. previsível
  2. computável
  3. estável

Esses três princípios formam a base da nova metodologia. Como os modelos de ML podem ser testados com base nesses critérios? A maneira mais fácil é construir modelos imediatamente interpretáveis ​​(regressões, árvores de decisão). No entanto, queremos obter as vantagens imediatas do aprendizado profundo.

Várias maneiras existentes de lidar com o problema:

  1. interpretar o modelo;
  2. Use métodos baseados em atenção
  3. usar conjuntos de algoritmos para treinamento e garantir que modelos interpretáveis ​​lineares aprendam a prever as mesmas respostas que uma rede neural, interpretando recursos de um modelo linear;
  4. Alterar e aumentar os dados de treinamento. Isso inclui a adição de ruído, interferência e aumento de dados;
  5. quaisquer métodos que garantam que os resultados do modelo não sejam aleatórios e não dependam de pequenas interferências indesejadas (ataques adversários);
  6. interpretar o modelo pós-factum após o treinamento;
  7. estude pesos de sinais de várias maneiras;
  8. estudar as probabilidades de todas as hipóteses, a distribuição de classes.


Ataque adversário a um porco

Erros de modelagem custam caro a todos: um exemplo vívido - o trabalho de Reinhart e Rogov " Crescimento em tempos de dívida " influenciou as políticas econômicas de muitos países europeus e os forçou a seguir políticas de austeridade, mas a verificação cuidadosa dos dados e seus anos de processamento mais tarde mostrou o resultado oposto!

Qualquer tecnologia ML tem seu próprio ciclo de vida, da implementação à implementação. A tarefa da nova metodologia é verificar três princípios básicos em cada estágio da vida do modelo.

Resumo:

  • Vários projetos estão sendo desenvolvidos para ajudar o modelo de ML a ser mais confiável. Por exemplo, deeptune (link para: github.com/ChrisCummins/paper-end2end-dl );
  • Para um maior desenvolvimento da metodologia, é necessário melhorar significativamente a qualidade das publicações no campo da ML;
  • O aprendizado de máquina precisa de líderes com treinamento multidisciplinar e conhecimento nas áreas técnica e humanitária.

“Modelagem do comportamento humano com aprendizado de máquina: oportunidades e desafios” Nuria M Oliver, Albert Ali Salah


Palestra sobre modelagem do comportamento humano, seus fundamentos tecnológicos e perspectivas de aplicação.

A modelagem do comportamento humano pode ser dividida em:

  • comportamento individual
  • comportamento em pequenos grupos
  • comportamento em massa

Cada um desses tipos pode ser modelado usando ML, mas com informações e recursos de entrada completamente diferentes. Cada tipo também possui seus próprios problemas éticos pelos quais cada projeto passa:

  • comportamento individual - roubo de identidade, fraude profunda;
  • o comportamento de grupos de pessoas - desanonimização, obtenção de informações sobre movimentos, ligações telefônicas, etc;

Comportamento individual

Em maior medida, o tema da Visão por Computador - reconhecimento das emoções humanas, suas reações. É possível apenas no contexto, no tempo ou com uma escala relativa de sua própria variabilidade de emoções. No slide, está o reconhecimento das emoções de Mona Lisa usando o contexto do espectro emocional das mulheres mediterrâneas. Resultado: um sorriso de alegria, mas com desprezo e nojo. O motivo é mais provável na maneira técnica de determinar a emoção "neutra".

Comportamento de pequenos grupos

Até agora, o pior é modelado devido à falta de informação. Os trabalhos de 2018 a 2019 foram mostrados como exemplo. em dezenas de pessoas X dezenas de vídeos (consulte conjuntos de dados de imagem 100k ++). Para a melhor simulação nesta tarefa, são necessárias informações multimodais, de preferência de sensores a um tele-altímetro, termômetro, gravação de microfone, etc.

Comportamento em massa

A área mais desenvolvida, como o cliente são as Nações Unidas e muitos estados. Câmeras de vigilância externa, dados de torres telefônicas - cobrança, SMS, chamadas, dados sobre o movimento entre as fronteiras dos estados - tudo isso dá uma idéia muito confiável do movimento dos fluxos das pessoas, das instabilidades sociais. Aplicações potenciais da tecnologia: otimização das operações de resgate, assistência e evacuação oportuna da população em caso de emergência. Os modelos utilizados são, na maioria das vezes, mal interpretados - esses são vários LSTMs e redes convolucionais. Houve uma breve observação de que a ONU está fazendo lobby por uma nova lei que obrigará as empresas europeias a compartilhar dados anonimizados necessários para qualquer pesquisa.

“Do Sistema 1 ao Sistema 2 de Aprendizado Profundo”, Yoshua Bengio


Slides
Em uma palestra de Joshua, o aprendizado profundo de Benjio encontra a neurociência no nível de estabelecimento de metas.
Benjio identifica dois tipos principais de tarefas, de acordo com a metodologia do ganhador do Nobel Daniel Kahneman (o livro “ Pense devagar, resolva rapidamente ”)
tipo 1 - Sistema 1, as ações inconscientes que realizamos “na máquina” (o cérebro antigo): dirigir um carro em lugares familiares, caminhar, reconhecer rostos.
tipo 2 - Sistema 2, ações conscientes (córtex cerebral), estabelecimento de metas, análise, pensamento, tarefas compostas.

Até o momento, a IA alcança níveis suficientes apenas em tarefas do primeiro tipo - enquanto nossa tarefa é trazê-la para o segundo, tendo aprendido como executar operações multidisciplinares e operar com lógica, habilidades cognitivas de alto nível.

Para atingir esse objetivo, propõe-se:

  1. use a atenção como um mecanismo chave para modelar o pensamento em tarefas da PNL
  2. use o meta-aprendizado e o aprendizado de representação para melhor modelar os sinais que afetam a consciência e sua localização - e com base neles mudar para operar com conceitos de nível superior.

Em vez da conclusão, deixamos a entrada da palestra convidada: Benjio é um dos muitos cientistas que estão tentando expandir o campo da ML além dos problemas de otimização, SOTA e novas arquiteturas.
A questão permanece em aberto, como a combinação dos problemas de consciência, a influência da linguagem no pensamento, neurobiologia e algoritmos é o que nos espera no futuro e nos permitirá avançar para máquinas que “pensam” como pessoas.

Obrigada

Source: https://habr.com/ru/post/pt485384/


All Articles