Ainda não entendi completamente como isso aconteceu, mas no ano passado me inscrevi no curso Deep Learning palavra por palavra e, surpreendentemente, li. Ele prometeu - eu espalhei!
O curso não pretende ser completo, mas uma maneira de brincar com as mãos nas principais áreas em que o aprendizado profundo se estabeleceu como uma ferramenta prática e obtém base suficiente para ler e entender livremente artigos modernos.
Os materiais do curso foram testados em estudantes do
Departamento de AIPT da Universidade Estadual de Novosibirsk , para que haja uma chance de que você possa realmente aprender algo com eles.

O curso exige:
- Conhecimento de matemática no nível do primeiro ou do segundo ano da universidade: você precisa conhecer um pouco da teoria das probabilidades, álgebra linear, noções básicas de matemática e análise das funções de muitas variáveis. Se tudo isso passou por você,
aqui estão todos os cursos que você
precisa do MIT e Harvard. Neles, normalmente o suficiente para passar pelas duas primeiras seções.
- Capacidade de programar em python.
Em um bom curso, palestras, exercícios e um local onde você pode fazer perguntas e discutir devem estar disponíveis. Aqui eles são coletados do mundo por thread:
- Palestras existem como
gravações no Youtube .
- Como exercícios, você pode usar as tarefas dos magníficos cursos Stanford DeepLearning (
CS231n e
CS224n ), escreverei abaixo quais especificamente.
- Você pode
discutir e perguntar sobre
ClosedCircles e
ODS.ai.Palestras e exercícios
Palestra 1: IntroduçãoAula 2: Classificador LinearAula 2.1: SoftmaxExercício: seções
dos classificadores k-Neighbour Nearest e Softmax
daquiPelas especificidades da tarefa, essas
notas de aula podem ajudar.
Aula 3: Redes neurais. RetropropagaçãoPalestra 4: Redes Neurais em DetalheExercício: seções de rede neural de duas camadas
daqui e rede neural totalmente conectada
daquiPalestra 5: Redes Neurais Convolucionais (CNN)Palestra 6: Bibliotecas para Aprendizado ProfundoExercício: Redes Convolucionais e PyTorch nas seções CIFAR-10
daquiPalestra 7: Outras tarefas de visão computacionalAula 8: Introdução à PNL. word2vecExercício: a seção word2vec
daquiPalestra 9: Redes Neurais Recursivas (RNN)Aula 10: Tradução Automática, Seq2Seq, AtençãoNão encontrei uma boa tarefa pronta aqui, mas você pode implementá-la no PyTorch Char-RNN a partir do
famoso post de Andrej Karpathy e colocá-lo contra Shakespeare.
Aula 11: Introdução à Aprendizagem por Reforço (RL), Algoritmos BásicosAula 12: Exemplos do uso de RL. Alfa (Go) Zero.Aula 13: Redes neurais em 2018.Onde discutir e fazer perguntas
Todas as perguntas do curso podem ser feitas pessoalmente ou discutidas no círculo
#data no
ClosedCircles.com (
aqui está um convite ).
Além disso, as tarefas podem ser discutidas no canal # class_cs231n no
ODS.ai , onde elas ajudarão. Para fazer isso, você precisará receber um convite lá, enviar aplicativos.
Bem, em geral, escreva e ligue sempre feliz.
A seção mais agradável é obrigado!
Antes de tudo,
muito obrigado a
Buriy , com quem preparamos o curso. Graças ao
departamento nativo , que deu uma oportunidade em geral.
Todos os participantes do hangout no ODS.ai e no ClosedCircles, que ajudaram na preparação, responderam perguntas, enviaram comentários, lembraram a todos para divulgar tudo, etc.
Por fim, todo mundo que assistia às transmissões no canal fazia perguntas em tempo real e geralmente criava a sensação de que eu não estava falando com a parede.
Do coração.