Je ne comprenais toujours pas comment cela s'est passé, mais l'année dernière, je me suis inscrit au cours de Deep Learning mot pour mot et, étonnamment, je l'ai lu. Il a promis - je l'ai répandu!
Le cours ne prétend pas être complet, c'est plutôt un moyen de jouer avec les mains sur les principaux domaines où l'apprentissage en profondeur s'est installé comme un outil pratique et a suffisamment de base pour lire et comprendre librement des articles modernes.
Le matériel de cours a été testé auprès d'étudiants du
département de l'AIPT de l'Université d'État de Novossibirsk , il y a donc une chance que vous puissiez vraiment apprendre quelque chose d'eux.

Le cours nécessite:
- Connaissance des mathématiques au niveau de la première ou de la deuxième année de l'université: vous devez connaître un peu la théorie des probabilités, l'algèbre linéaire, les bases de la matanalyse et l'analyse des fonctions de nombreuses variables. Si tout cela vous a échappé,
voici tous les cours dont vous avez
besoin au MIT et à Harvard. En eux, généralement assez pour parcourir les deux premières sections.
- Possibilité de programmer en python.
Dans un bon cours, des conférences, des exercices et un endroit où vous pouvez poser des questions et discuter devraient être disponibles. Ici, ils sont collectés du monde par fil:
- Les conférences existent sous forme d'
enregistrements sur Youtube .
- Comme exercices, vous pouvez utiliser les tâches des magnifiques cours Stanford DeepLearning (
CS231n et
CS224n ), j'écrirai ci-dessous lesquels spécifiquement.
- Vous pouvez
discuter et poser des questions sur
ClosedCircles et
ODS.ai.Conférences et exercices
Conférence 1: IntroductionConférence 2: Classificateur linéaireConférence 2.1: SoftmaxExercice: sections
du classificateur k-Nearest Neighbour et Softmax
d'iciPar les spécificités de la mission, ces
notes de cours peuvent aider.
Conférence 3: Réseaux de neurones. RétropropagationConférence 4: Réseaux de neurones en détailExercice: sections
de réseau neuronal à deux couches
d'ici et réseau neuronal entièrement connecté
d'iciConférence 5: Réseaux neuronaux convolutionnels (CNN)Conférence 6: Bibliothèques pour l'apprentissage en profondeurExercice: Réseaux convolutifs et PyTorch sur les sections CIFAR-10
d'iciConférence 7: Autres tâches de vision par ordinateurConférence 8: Introduction à la PNL. word2vecExercice: la section word2vec
d'iciConférence 9: Réseaux de neurones récursifs (RNN)Conférence 10: Traduction automatique, Seq2Seq, AttentionJe n'ai pas trouvé de bonne tâche toute faite ici, mais vous pouvez l'implémenter sur PyTorch Char-RNN du
célèbre poste d'Andrej Karpathy et le mettre contre Shakespeare.
Conférence 11: Introduction à l'apprentissage par renforcement (RL), algorithmes de baseConférence 12: Exemples d'utilisation de RL. Alpha (Go) Zero.Conférence 13: Réseaux de neurones en 2018.Où discuter et poser des questions
Toutes les questions sur le cours peuvent être posées personnellement ou discutées dans le cercle
#data sur
ClosedCircles.com (
voici une invitation ).
De plus, les tâches peuvent être discutées dans le canal # class_cs231n sur
ODS.ai , là elles vous aideront. Pour ce faire, vous devrez y recevoir vous-même une invitation, envoyer des candidatures.
Eh bien, en général, appelez-écrivez, toujours heureux.
La section la plus agréable est merci!
Tout d'abord, merci
beaucoup à
Buriy , avec qui nous avons préparé le cours. Merci au
département natif , qui a donné une telle opportunité en général.
Tous les participants aux Hangouts sur ODS.ai et ClosedCircles qui ont aidé à la préparation ont répondu aux questions, envoyé des commentaires, rappelé à tout le monde de tout publier, etc. etc.
Enfin, tous ceux qui ont regardé les flux sur la chaîne ont posé des questions en temps réel et ont généralement créé le sentiment que je ne parlais pas au mur.
Du cœur.