Curso de aprendizaje profundo en dedos de los pies

Todavía no entendía completamente cómo sucedió, pero el año pasado me inscribí en el curso de Aprendizaje Profundo palabra por palabra y, sorprendentemente, lo leí. Prometió, ¡lo extendí!

El curso no pretende ser completo, sino más bien una forma de jugar con las manos en las áreas principales donde el aprendizaje profundo se ha establecido como una herramienta práctica y obtener la base suficiente para leer y comprender libremente artículos modernos.

Los materiales del curso fueron probados en estudiantes del Departamento de AIPT de la Universidad Estatal de Novosibirsk , por lo que existe la posibilidad de que realmente pueda aprender algo de ellos.



El curso requiere:

- Conocimientos de matemática a nivel del primer o segundo año de la universidad: necesita conocer un poco de teoría de la probabilidad, álgebra lineal, los fundamentos del matanálisis y el análisis de las funciones de muchas variables. Si todo esto pasó por alto, aquí están todos los cursos que necesita de MIT y Harvard. En ellos, generalmente suficiente para pasar por las dos primeras secciones.
- Posibilidad de programar en python.

En un buen curso, deberían estar disponibles conferencias, ejercicios y un lugar donde pueda hacer preguntas y debatir. Aquí se recogen del mundo por hilo:

- Las conferencias existen como grabaciones en Youtube .
- Como ejercicios, puede utilizar las tareas de los magníficos cursos de Stanford DeepLearning ( CS231n y CS224n ), escribiré a continuación cuáles son específicamente.
- Puede discutir y preguntar en ClosedCircles y ODS.ai.

Conferencias y ejercicios.


Lección 1: Introducción
Lección 2: Clasificador lineal
Lección 2.1: Softmax

Ejercicio: secciones del clasificador k-Nearest Neighbour y Softmax desde aquí
Según los detalles de la tarea, estas notas de clase pueden ayudar.

Lección 3: Redes neuronales. Propagación hacia atrás
Lección 4: Redes neuronales en detalle

Ejercicio: secciones de red neuronal de dos capas desde aquí y red neuronal completamente conectada desde aquí

Lección 5: Redes neuronales convolucionales (CNN)
Lección 6: Bibliotecas para el aprendizaje profundo

Ejercicio: redes convolucionales y PyTorch en secciones CIFAR-10 desde aquí

Lección 7: Otras tareas de visión por computadora
Lección 8: Introducción a la PNL. word2vec

Ejercicio: la sección word2vec desde aquí

Lección 9: Redes neuronales recursivas (RNN)
Lección 10: Traducción automática, Seq2Seq, Atención

No encontré una buena tarea preparada aquí, pero puedes implementarla en PyTorch Char-RNN desde el famoso post de Andrej Karpathy y ponerlo en contra de Shakespeare.

Lección 11: Introducción al aprendizaje por refuerzo (RL), algoritmos básicos
Lección 12: Ejemplos del uso de RL. Alfa (Ir) Cero.
Lección 13: Redes neuronales en 2018.

Dónde discutir y hacer preguntas


Todas las preguntas sobre el curso pueden hacerse personalmente o discutirse en el círculo #data en ClosedCircles.com ( aquí hay una invitación ).
Además, las tareas se pueden discutir en el canal # class_cs231n en ODS.ai , allí ayudarán. Para hacer esto, deberá recibir una invitación allí mismo, enviar solicitudes.

Bueno, en general, call-write, siempre feliz.

¡La sección más divertida es gracias!


En primer lugar, muchas gracias a buriy , con quien preparamos el curso. Gracias al departamento nativo , que dio esa oportunidad en general.

Todos en los lugares de reunión en ODS.ai y ClosedCircles que ayudaron en la preparación respondieron preguntas, enviaron comentarios, recordaron a todos que publicaran todo, etc., etc.

Finalmente, todos los que vieron las transmisiones en el canal hicieron preguntas en tiempo real y generalmente crearon la sensación de que no estaba hablando con el muro.

Desde el corazon.

Source: https://habr.com/ru/post/es414165/


All Articles