Maschinelles Lernen II
Lernform | Kürzel | Gruppengröße | Aufwand | Kontaktzeit | LP | Abschluss |
Vorlesung | -- | k.A. | 60 (4 SWS) | 60 | 2 | PL: Portfolio |
Übung | -- | k.A. | 30 (2 SWS) | 30 | 1 | -- |
Selbststudium | 135 | - | 4,5 | - | ||
Summe | - | - | 225 | 90 | 7,5 | - |
Modulbeauftragte(r): | Kschischo |
Sprache: | Deutsch |
Turnus: | Wintersemester |
Standort: | RAC |
Lehrende: | Jaekel, Dellen, Kschischo |
Zwingende Voraussetzungen: | Analysis I und II und Lineare Algebra I und II, Programmierkenntnisse, Maschinelles Lernen I |
Inhaltliche Voraussetzungen: | keine |
Lernziele und Kompetenzen
Die Studierenden können komplexe Fragestellungen in neuronalen Netzen modellieren und auch eigene Architekturen und Modelle entwerfen. Sie kennen sowohl die Grundkonzepte neuronaler Netze als auch die Trainingsmethoden. Sie können die Ergebnisse kritisch interpretieren und die Modelle testen und validieren.
Vorlesungsinhalt
Ziel dieses Moduls ist eine Einführung in Neuronale Netze und Deep Learning. Neben grundlegenden Konzepten wie Feedforward Netze und Perzeptrons und dem Training mit Backpropagation werden auch wichtige Architekturen und Modellklassen diskutiert, wie Convolutional Networks, ResNets, Rekursive Neuronale Netze incl. Long short term memory (LSTMs) und Gated Recurrent Units (GRUS), Attention Layers und Transformerarchitekturen, Autoencoder (incl. Variational) und Generative Adversarial Networks (GANs). In den Übungen wird die Fähigkeit erlangt, diese mit einem Deep Learning Framework (pytorch, Tensorflow oder Jax) anzuwenden, wozu auch die Visualisiering und Bewertung der gelernten Modelle gehört.
Literatur
- Murphy, Probabilistic Machine Learning: An Introduction, MIT Press
- Zhang, Lipton, Zachary, Li, Mu and Smola, Dive Into Deep Learning, arXiv:2106.11342