![]() |
Sorry - this page is available in German language only. Click here to return to the international website. |
Deep Learning Lecture
This material is part of my Deep Learning lecture at the THM University of Applied Sciences, Gießen (Technische Hochschule Mittelhessen). Please be aware, that videos and script only cover parts of the lecture and are provided to complete the course.Vorlesungsskript
Das Vorlesungsskript enthält weitgehend die Vorlesungsfolien, sowie freie Flächen die für Notizen genutzt werden können.Vorlesung
Geschichte künstlicher neuronaler Netze
Vorlesung:
Erste Einführung in Julia
Eine schöne Einführung gibt es in der Julia-Academy
Und wer bereits vom Julia-Virus infiziert ist, dem wird das hier gefallen: Hey Julia
Biologische Grundlagen
Vorlesung:
Das Perzeptron
Vorlesung:
Tutorial: Implementierung eines einfachen Perzeptrons in Julia:
Training des MLP
Vorlesung:
Tutorial: Implementierung des XOR-Gatters und AutoGrad:
Regularisierung
Vorlesung:
Tutorial: MNIST-Datensatz aus einem Iterator (selbst gebaut):
Tipps und Tricks für das MLP und überhaupt
Vorlesung Teil 1:
Vorlesung Teil 2:
CNN - Convolutional Neural Networks: Computer Vision
Vorlesung Theorie:
Vorlesung Anwendungen:
Tutorial: Verwendung eines vortrainierten CNN in Python:
Tutorial: Verwendung eines vortrainierten CNN in Julia:
RNN - Recurrent Neural Networks: Time Series
Vorlesung: Theorie und Training des RNN
Vorlesung: LSTM - Long Short-term Memory:
Tutorial: Implementierung eines LSTM:
Tutorial: NLP mit dem RNN (Machine Translation):
Autoencoder und Self-supervised Training
Vorlesung: Self-Organising Maps
Vorlesung: Vanilla Autoencoder und VAEs:
Vorlesung: Tiefe Autoencoder und RBMs:
Vorlesung: Convolutional Autoencoder:
Vorlesung: Sequence-to-Sequence Netze (RNNs):
Attention Mechanisms
Vorlesung: Idee und Theorie der Attention in Neuronalen Netzen:
Vorlesung: Berechnung der Attention-Faktoren:
Tutorial: Sequence-to-Sequence-Netz mit Attention (Machine Translation noch besser!):
Tranformer und Bert
Vorlesung: Transformer:
Vorlesung: Vortrainierte Transformer - Bert:
Tutorial: Attention is all You Need - Implementierung in Julia:
Tutorial: Transformer für Machine Translation: