DE Sorry - this page is available in German language only. Click here to return to the international website.

Deep Learning Lecture

This material is part of my Deep Learning lecture at the THM University of Applied Sciences, Gießen (Technische Hochschule Mittelhessen). Please be aware, that videos and script only cover parts of the lecture and are provided to complete the course.

Vorlesungsskript

Das Vorlesungsskript enthält weitgehend die Vorlesungsfolien, sowie freie Flächen die für Notizen genutzt werden können.

Vorlesung

Geschichte künstlicher neuronaler Netze

Vorlesung:

Erste Einführung in Julia

Eine schöne Einführung gibt es in der Julia-Academy

Und wer bereits vom Julia-Virus infiziert ist, dem wird das hier gefallen: Hey Julia

Biologische Grundlagen

Vorlesung:

Das Perzeptron

Vorlesung:

Tutorial: Implementierung eines einfachen Perzeptrons in Julia:

Training des MLP

Vorlesung:

Tutorial: Implementierung des XOR-Gatters und AutoGrad:

Regularisierung

Vorlesung:

Tutorial: MNIST-Datensatz aus einem Iterator (selbst gebaut):

Tipps und Tricks für das MLP und überhaupt

Vorlesung Teil 1:

Vorlesung Teil 2:

CNN - Convolutional Neural Networks: Computer Vision

Vorlesung Theorie:

Vorlesung Anwendungen:

Tutorial: Verwendung eines vortrainierten CNN in Python:

Tutorial: Verwendung eines vortrainierten CNN in Julia:

RNN - Recurrent Neural Networks: Time Series

Vorlesung: Theorie und Training des RNN

Vorlesung: LSTM - Long Short-term Memory:

Tutorial: Implementierung eines LSTM:

Tutorial: NLP mit dem RNN (Machine Translation):

Autoencoder und Self-supervised Training

Vorlesung: Self-Organising Maps

Vorlesung: Vanilla Autoencoder und VAEs:

Vorlesung: Tiefe Autoencoder und RBMs:

Vorlesung: Convolutional Autoencoder:

Vorlesung: Sequence-to-Sequence Netze (RNNs):

Attention Mechanisms

Vorlesung: Idee und Theorie der Attention in Neuronalen Netzen:

Vorlesung: Berechnung der Attention-Faktoren:

Tutorial: Sequence-to-Sequence-Netz mit Attention (Machine Translation noch besser!):

Tranformer und Bert

Vorlesung: Transformer:

Vorlesung: Vortrainierte Transformer - Bert:

Tutorial: Attention is all You Need - Implementierung in Julia:

Tutorial: Transformer für Machine Translation: