### PO 2020 ### ### Studiengang und Semester 2MOMI:2020 ### Modulbezeichnung Deep Learninig~~ ### Englische Modulbezeichnung Deep Learninig ### Art Wahlpflichtfach ### ECTS-Punkte 5 ### Studentische Arbeitsbelastung 27, 123 ### Voraussetzungen (laut Prüfungsordnung) ### Empfohlene Voraussetzungen ### Pruefungsform und -dauer Hausarbeit/Projekt ### Lehrmethoden und Lernmethoden Multimedial aufbereitetes Online-Studienmodul zum Selbststudium mit zeitlich parallel laufender Online-Betreuung (E-Mail, Foren, Chat, Webkonferenzen, Einsendeaufgaben u. a.) ### Modulverantwortlicher F. Gers (BHT) ### Modulautor F. Gers (BHT) ### Qualifikationsziele Die Studierenden lernen Deep Learning (DL) Anwendungen zu erstellen und auf Daten anzuwenden. Nach Abschluss des Moduls sind die Studierenden in der Lage: - Mathematische Konzepte von Deep Learning (DL) nachzuvollziehen - Die Funktionsweise bestehender DL-Anwendungen zu erläutern - Problemspezifischen Vorrausetzungen zur Anwendung von DL einzuschätzen - Rohdaten zu analysieren uns vorzuverarbeiten - DL-Frameworks zu bewerten und zu nutzen - DL-Anwendungen auf der Basis geeigneter Frameworks zu erstellen - DL auf einen Datensatz oder ein gegebenes Problem anzuwenden und die Ergebnisse zu bewerten - DL-Methoden und -Systeme im Hinblick auf ihre Tauglichkeit für ein gegebenes Problem zu evaluieren - DL- Algorithmen aus aktuellen Veröffentlichungen zu analysieren ### Lehrinhalte Als Vorbild für ein komplexes lernendes System werden wir uns zunächst mit dem menschlichen Gehirn beschäftigen. Wir werden Module identifizieren und die Architektur untersuchen. Die Ergebnisse dienen uns später zum Vergleich mit tiefen Lernern wie tiefen neuronalen Netzen (engl. Deep Neuronal Networks, DNN). Zur Modellbildung von künstlichen Neuronen und neuronalen Netzen (NN) betrachten wir biologische Neuronen und deren Netze. Wir entwickeln daraus ein Neuronenmodell und lernen Feed-Forwared Neuronale Netze (FNN) als Netzwerkarchitektur kennen. Wir wenden diese auf Beispieldaten an, und überlegen uns was es bedeutet darauf eine tiefe Architektur aufzubauen. Zur Verarbeitung von Sequenzen werden rekurrente neuronale Netze (RNN) eingeführt. Wir betrachten verschiedene Varianten von RNNs: traditionelle RNNs, Long Short-Term Memory (LSTM), General Recurrent Units (GRU) uns RNNs mit Attention Mechanismus. Besonders bei der Verarbeitung von Bildern haben sich Convolutional Neural Networks (CNN) etabliert. Als Alternative dazu werden Capsule Systems (CapsNet) vorgeschlagen. Wir werden beide Systeme einführen und vergleichen. Zur Modellierung von Verhalten und dem Lernen aus Erfahrung, zum Beispiel von Robotern, wird Deep Reinforcement Learning (DRL) eingeführt. Gliederung des Studienmoduls 1. Das Gehirn als lernendes System 2. Biologischen Neuronale Netze 3. Deep Learning Frameworks 4. Feed-Forwared Neuronale Netze (FNN) 5. Deep Neuronal Networks (DNN) 6. Convolutional Neural Networks (CNN) 7. Recurrent Neuronal Networks (RNN) 8. Long Short-Term Memory (LSTM) 9. Attention Mechanism 10. Deel Learning Architekturen 11. Deep Reinforcement Learning (DRL) ### Literatur Deep Learning with Python, Francois Chollet, Manning, 201, ISBN-13: 978-1617294433 Deep Learning (Adaptive Computation and Machine Learning, Ian Goodfellow, Yoshua Bengio, Aaron Courville, MIT Press, 2017, ISBN-10: 0262035618 Python Deep Learning, Valentino Zocca, Gianmario Spacagna, Daniel Slater, Peter Roelants, Packt Publishing, 2017, ISBN-10: 1786464454, ISBN-13: 978-1786464453 Fundamentals of Deep Learning: Designing Next-Generation Machine Intelligence Algorithms, Nikhil Buduma, O'Reilly, 2017, ISBN-10: 1491925612, ISBN-13: 978-1491925614