Ich habe immer noch nicht ganz verstanden, wie es passiert ist, aber letztes Jahr habe ich mich Wort für Wort für den Deep Learning-Kurs angemeldet und ihn überraschenderweise gelesen. Er versprach - ich habe es verbreitet!
Der Kurs gibt nicht vor, vollständig zu sein, sondern bietet eine Möglichkeit, mit den Händen in den Hauptbereichen herumzuspielen, in denen sich tiefes Lernen als praktisches Werkzeug etabliert hat, und eine ausreichende Grundlage zu erhalten, um moderne Artikel frei zu lesen und zu verstehen.
Die Kursmaterialien wurden an Studenten des
AIPT-Instituts der Staatlichen Universität Nowosibirsk getestet, sodass die Möglichkeit besteht, dass Sie wirklich etwas von ihnen lernen können.

Der Kurs erfordert:
- Mathematikkenntnisse auf der Ebene des ersten oder zweiten Studienjahres: Sie müssen ein wenig Wahrscheinlichkeitstheorie, lineare Algebra, die Grundlagen der Matanalyse und die Analyse der Funktionen vieler Variablen kennen. Wenn all dies an Ihnen vorbeigegangen ist, finden Sie
hier alle Kurse, die Sie von MIT und Harvard
benötigen . In ihnen normalerweise genug, um die ersten beiden Abschnitte durchzugehen.
- Fähigkeit, in Python zu programmieren.
In einem guten Kurs sollten Vorträge, Übungen und ein Ort verfügbar sein, an dem Sie Fragen stellen und diskutieren können. Hier werden sie per Thread aus der Welt gesammelt:
- Vorträge existieren als
Aufnahmen auf Youtube .
- Als Übungen können Sie die Aufgaben der großartigen Stanford DeepLearning-Kurse (
CS231n und
CS224n ) verwenden. Ich werde im Folgenden genau beschreiben, welche.
- Sie können auf
ClosedCircles und
ODS.ai diskutieren und fragen.
Vorträge und Übungen
Vorlesung 1: EinführungVorlesung 2: Linearer KlassifikatorVorlesung 2.1: SoftmaxÜbung: k-Nearest Neighbor und Softmax-Klassifikatorabschnitte
von hierDurch die Besonderheiten der Aufgabe können diese
Vorlesungsunterlagen helfen.
Vorlesung 3: Neuronale Netze. BackpropagationVorlesung 4: Neuronale Netze im DetailÜbung: Zweischichtige neuronale Netzabschnitte
von hier und vollständig verbundenes neuronales Netz
von hierVorlesung 5: Convolutional Neural Networks (CNN)Vorlesung 6: Bibliotheken für Deep LearningÜbung: Faltungsnetzwerke und PyTorch in CIFAR-10-Abschnitten
von hier ausVorlesung 7: Andere Computer Vision-AufgabenVorlesung 8: Einführung in NLP. word2vecÜbung: der Abschnitt word2vec
von hierVorlesung 9: Rekursive Neuronale Netze (RNN)Vorlesung 10: Maschinelle Übersetzung, Seq2Seq, AchtungIch habe hier keine gute vorgefertigte Aufgabe gefunden, aber Sie können sie auf PyTorch Char-RNN aus dem
berühmten Posten von Andrej Karpathy implementieren und ihn gegen Shakespeare stellen.
Vorlesung 11: Einführung in das Reinforcement Learning (RL), Grundlegende AlgorithmenVorlesung 12: Beispiele für die Verwendung von RL. Alpha (Go) Zero.Vorlesung 13: Neuronale Netze im Jahr 2018.Wo kann man diskutieren und Fragen stellen?
Alle Fragen zum Kurs können mir persönlich gestellt oder im # Datenkreis auf
ClosedCircles.com besprochen werden (
hier ist eine Einladung ).
Außerdem können Aufgaben im Kanal # class_cs231n auf
ODS.ai besprochen werden , dort helfen sie. Dazu müssen Sie dort selbst eine Einladung erhalten und Bewerbungen senden.
Nun, im Allgemeinen Anruf schreiben, immer glücklich.
Der angenehmste Abschnitt ist danke!
Zunächst einmal
vielen Dank an
buriy , mit der wir den Kurs vorbereitet haben. Vielen Dank an die
einheimische Abteilung , die eine solche Gelegenheit im Allgemeinen gab.
Jeder in den Hangouts auf ODS.ai und ClosedCircles, der bei der Vorbereitung half, beantwortete Fragen, schickte Feedback, erinnerte daran, dass alles angelegt werden musste usw. usw.
Schließlich stellten alle, die die Streams auf dem Kanal sahen, in Echtzeit Fragen und erzeugten im Allgemeinen das Gefühl, dass ich nicht mit der Wand sprach.
Aus dem Herzen.