Todavía no entendía completamente cómo sucedió, pero el año pasado me inscribí en el curso de Aprendizaje Profundo palabra por palabra y, sorprendentemente, lo leí. Prometió, ¡lo extendí!
El curso no pretende ser completo, sino más bien una forma de jugar con las manos en las áreas principales donde el aprendizaje profundo se ha establecido como una herramienta práctica y obtener la base suficiente para leer y comprender libremente artículos modernos.
Los materiales del curso fueron probados en estudiantes del
Departamento de AIPT de la Universidad Estatal de Novosibirsk , por lo que existe la posibilidad de que realmente pueda aprender algo de ellos.

El curso requiere:
- Conocimientos de matemática a nivel del primer o segundo año de la universidad: necesita conocer un poco de teoría de la probabilidad, álgebra lineal, los fundamentos del matanálisis y el análisis de las funciones de muchas variables. Si todo esto pasó por alto,
aquí están todos los cursos que
necesita de MIT y Harvard. En ellos, generalmente suficiente para pasar por las dos primeras secciones.
- Posibilidad de programar en python.
En un buen curso, deberían estar disponibles conferencias, ejercicios y un lugar donde pueda hacer preguntas y debatir. Aquí se recogen del mundo por hilo:
- Las conferencias existen como
grabaciones en Youtube .
- Como ejercicios, puede utilizar las tareas de los magníficos cursos de Stanford DeepLearning (
CS231n y
CS224n ), escribiré a continuación cuáles son específicamente.
- Puede
discutir y preguntar en
ClosedCircles y
ODS.ai.Conferencias y ejercicios.
Lección 1: IntroducciónLección 2: Clasificador linealLección 2.1: SoftmaxEjercicio: secciones
del clasificador k-Nearest Neighbour y Softmax
desde aquíSegún los detalles de la tarea, estas
notas de clase pueden ayudar.
Lección 3: Redes neuronales. Propagación hacia atrásLección 4: Redes neuronales en detalleEjercicio: secciones de red neuronal de dos capas
desde aquí y red neuronal completamente conectada
desde aquíLección 5: Redes neuronales convolucionales (CNN)Lección 6: Bibliotecas para el aprendizaje profundoEjercicio: redes convolucionales y PyTorch en secciones CIFAR-10
desde aquíLección 7: Otras tareas de visión por computadoraLección 8: Introducción a la PNL. word2vecEjercicio: la sección word2vec
desde aquíLección 9: Redes neuronales recursivas (RNN)Lección 10: Traducción automática, Seq2Seq, AtenciónNo encontré una buena tarea preparada aquí, pero puedes implementarla en PyTorch Char-RNN desde el
famoso post de Andrej Karpathy y ponerlo en contra de Shakespeare.
Lección 11: Introducción al aprendizaje por refuerzo (RL), algoritmos básicosLección 12: Ejemplos del uso de RL. Alfa (Ir) Cero.Lección 13: Redes neuronales en 2018.Dónde discutir y hacer preguntas
Todas las preguntas sobre el curso pueden hacerse personalmente o discutirse en el círculo
#data en
ClosedCircles.com (
aquí hay una invitación ).
Además, las tareas se pueden discutir en el canal # class_cs231n en
ODS.ai , allí ayudarán. Para hacer esto, deberá recibir una invitación allí mismo, enviar solicitudes.
Bueno, en general, call-write, siempre feliz.
¡La sección más divertida es gracias!
En primer lugar,
muchas gracias a
buriy , con quien preparamos el curso. Gracias al
departamento nativo , que dio esa oportunidad en general.
Todos en los lugares de reunión en ODS.ai y ClosedCircles que ayudaron en la preparación respondieron preguntas, enviaron comentarios, recordaron a todos que publicaran todo, etc., etc.
Finalmente, todos los que vieron las transmisiones en el canal hicieron preguntas en tiempo real y generalmente crearon la sensación de que no estaba hablando con el muro.
Desde el corazon.