Deep Learning on Toes Kurs

Ich habe immer noch nicht ganz verstanden, wie es passiert ist, aber letztes Jahr habe ich mich Wort für Wort für den Deep Learning-Kurs angemeldet und ihn überraschenderweise gelesen. Er versprach - ich habe es verbreitet!

Der Kurs gibt nicht vor, vollständig zu sein, sondern bietet eine Möglichkeit, mit den Händen in den Hauptbereichen herumzuspielen, in denen sich tiefes Lernen als praktisches Werkzeug etabliert hat, und eine ausreichende Grundlage zu erhalten, um moderne Artikel frei zu lesen und zu verstehen.

Die Kursmaterialien wurden an Studenten des AIPT-Instituts der Staatlichen Universität Nowosibirsk getestet, sodass die Möglichkeit besteht, dass Sie wirklich etwas von ihnen lernen können.



Der Kurs erfordert:

- Mathematikkenntnisse auf der Ebene des ersten oder zweiten Studienjahres: Sie müssen ein wenig Wahrscheinlichkeitstheorie, lineare Algebra, die Grundlagen der Matanalyse und die Analyse der Funktionen vieler Variablen kennen. Wenn all dies an Ihnen vorbeigegangen ist, finden Sie hier alle Kurse, die Sie von MIT und Harvard benötigen . In ihnen normalerweise genug, um die ersten beiden Abschnitte durchzugehen.
- Fähigkeit, in Python zu programmieren.

In einem guten Kurs sollten Vorträge, Übungen und ein Ort verfügbar sein, an dem Sie Fragen stellen und diskutieren können. Hier werden sie per Thread aus der Welt gesammelt:

- Vorträge existieren als Aufnahmen auf Youtube .
- Als Übungen können Sie die Aufgaben der großartigen Stanford DeepLearning-Kurse ( CS231n und CS224n ) verwenden. Ich werde im Folgenden genau beschreiben, welche.
- Sie können auf ClosedCircles und ODS.ai diskutieren und fragen.

Vorträge und Übungen


Vorlesung 1: Einführung
Vorlesung 2: Linearer Klassifikator
Vorlesung 2.1: Softmax

Übung: k-Nearest Neighbor und Softmax-Klassifikatorabschnitte von hier
Durch die Besonderheiten der Aufgabe können diese Vorlesungsunterlagen helfen.

Vorlesung 3: Neuronale Netze. Backpropagation
Vorlesung 4: Neuronale Netze im Detail

Übung: Zweischichtige neuronale Netzabschnitte von hier und vollständig verbundenes neuronales Netz von hier

Vorlesung 5: Convolutional Neural Networks (CNN)
Vorlesung 6: Bibliotheken für Deep Learning

Übung: Faltungsnetzwerke und PyTorch in CIFAR-10-Abschnitten von hier aus

Vorlesung 7: Andere Computer Vision-Aufgaben
Vorlesung 8: Einführung in NLP. word2vec

Übung: der Abschnitt word2vec von hier

Vorlesung 9: Rekursive Neuronale Netze (RNN)
Vorlesung 10: Maschinelle Übersetzung, Seq2Seq, Achtung

Ich habe hier keine gute vorgefertigte Aufgabe gefunden, aber Sie können sie auf PyTorch Char-RNN aus dem berühmten Posten von Andrej Karpathy implementieren und ihn gegen Shakespeare stellen.

Vorlesung 11: Einführung in das Reinforcement Learning (RL), Grundlegende Algorithmen
Vorlesung 12: Beispiele für die Verwendung von RL. Alpha (Go) Zero.
Vorlesung 13: Neuronale Netze im Jahr 2018.

Wo kann man diskutieren und Fragen stellen?


Alle Fragen zum Kurs können mir persönlich gestellt oder im # Datenkreis auf ClosedCircles.com besprochen werden ( hier ist eine Einladung ).
Außerdem können Aufgaben im Kanal # class_cs231n auf ODS.ai besprochen werden , dort helfen sie. Dazu müssen Sie dort selbst eine Einladung erhalten und Bewerbungen senden.

Nun, im Allgemeinen Anruf schreiben, immer glücklich.

Der angenehmste Abschnitt ist danke!


Zunächst einmal vielen Dank an buriy , mit der wir den Kurs vorbereitet haben. Vielen Dank an die einheimische Abteilung , die eine solche Gelegenheit im Allgemeinen gab.

Jeder in den Hangouts auf ODS.ai und ClosedCircles, der bei der Vorbereitung half, beantwortete Fragen, schickte Feedback, erinnerte daran, dass alles angelegt werden musste usw. usw.

Schließlich stellten alle, die die Streams auf dem Kanal sahen, in Echtzeit Fragen und erzeugten im Allgemeinen das Gefühl, dass ich nicht mit der Wand sprach.

Aus dem Herzen.

Source: https://habr.com/ru/post/de414165/


All Articles