Cours d'apprentissage en profondeur sur les orteils

Je ne comprenais toujours pas comment cela s'est passé, mais l'année dernière, je me suis inscrit au cours de Deep Learning mot pour mot et, étonnamment, je l'ai lu. Il a promis - je l'ai répandu!

Le cours ne prétend pas être complet, c'est plutôt un moyen de jouer avec les mains sur les principaux domaines où l'apprentissage en profondeur s'est installé comme un outil pratique et a suffisamment de base pour lire et comprendre librement des articles modernes.

Le matériel de cours a été testé auprès d'étudiants du département de l'AIPT de l'Université d'État de Novossibirsk , il y a donc une chance que vous puissiez vraiment apprendre quelque chose d'eux.



Le cours nécessite:

- Connaissance des mathématiques au niveau de la première ou de la deuxième année de l'université: vous devez connaître un peu la théorie des probabilités, l'algèbre linéaire, les bases de la matanalyse et l'analyse des fonctions de nombreuses variables. Si tout cela vous a échappé, voici tous les cours dont vous avez besoin au MIT et à Harvard. En eux, généralement assez pour parcourir les deux premières sections.
- Possibilité de programmer en python.

Dans un bon cours, des conférences, des exercices et un endroit où vous pouvez poser des questions et discuter devraient être disponibles. Ici, ils sont collectés du monde par fil:

- Les conférences existent sous forme d' enregistrements sur Youtube .
- Comme exercices, vous pouvez utiliser les tâches des magnifiques cours Stanford DeepLearning ( CS231n et CS224n ), j'écrirai ci-dessous lesquels spécifiquement.
- Vous pouvez discuter et poser des questions sur ClosedCircles et ODS.ai.

Conférences et exercices


Conférence 1: Introduction
Conférence 2: Classificateur linéaire
Conférence 2.1: Softmax

Exercice: sections du classificateur k-Nearest Neighbour et Softmax d'ici
Par les spécificités de la mission, ces notes de cours peuvent aider.

Conférence 3: Réseaux de neurones. Rétropropagation
Conférence 4: Réseaux de neurones en détail

Exercice: sections de réseau neuronal à deux couches d'ici et réseau neuronal entièrement connecté d'ici

Conférence 5: Réseaux neuronaux convolutionnels (CNN)
Conférence 6: Bibliothèques pour l'apprentissage en profondeur

Exercice: Réseaux convolutifs et PyTorch sur les sections CIFAR-10 d'ici

Conférence 7: Autres tâches de vision par ordinateur
Conférence 8: Introduction à la PNL. word2vec

Exercice: la section word2vec d'ici

Conférence 9: Réseaux de neurones récursifs (RNN)
Conférence 10: Traduction automatique, Seq2Seq, Attention

Je n'ai pas trouvé de bonne tâche toute faite ici, mais vous pouvez l'implémenter sur PyTorch Char-RNN du célèbre poste d'Andrej Karpathy et le mettre contre Shakespeare.

Conférence 11: Introduction à l'apprentissage par renforcement (RL), algorithmes de base
Conférence 12: Exemples d'utilisation de RL. Alpha (Go) Zero.
Conférence 13: Réseaux de neurones en 2018.

Où discuter et poser des questions


Toutes les questions sur le cours peuvent être posées personnellement ou discutées dans le cercle #data sur ClosedCircles.com ( voici une invitation ).
De plus, les tâches peuvent être discutées dans le canal # class_cs231n sur ODS.ai , là elles vous aideront. Pour ce faire, vous devrez y recevoir vous-même une invitation, envoyer des candidatures.

Eh bien, en général, appelez-écrivez, toujours heureux.

La section la plus agréable est merci!


Tout d'abord, merci beaucoup à Buriy , avec qui nous avons préparé le cours. Merci au département natif , qui a donné une telle opportunité en général.

Tous les participants aux Hangouts sur ODS.ai et ClosedCircles qui ont aidé à la préparation ont répondu aux questions, envoyé des commentaires, rappelé à tout le monde de tout publier, etc. etc.

Enfin, tous ceux qui ont regardé les flux sur la chaîne ont posé des questions en temps réel et ont généralement créé le sentiment que je ne parlais pas au mur.

Du cœur.

Source: https://habr.com/ru/post/fr414165/


All Articles