PTI01830 – Data Science III, Überwachtes und Unüberwachtes Lernen

Modul
Data Science III, Überwachtes und Unüberwachtes Lernen
Data Science III, Supervised and Unsupervised Learning
Modulnummer
PTI01830
Version: 3
Fakultät
Physikalische Technik / Informatik
Niveau
Bachelor
Dauer
1 Semester
Turnus
Wintersemester
Modulverantwortliche/-r

Prof. Dr. Mike Espig
mike.espig(at)fh-zwickau.de

Dozent/-in(nen)

Prof. Dr. Mike Espig
mike.espig(at)fh-zwickau.de

Lehrsprache(n)

Deutsch - 80.00%
in "Data Science III, Überwachtes und Unüberwachtes Lernen "

Englisch - 20.00%
in "Data Science III, Überwachtes und Unüberwachtes Lernen "

ECTS-Credits

10.00 Credits

Workload

300 Stunden

Lehrveranstaltungen

8.00 SWS (2.00 SWS Praktikum | 6.00 SWS Vorlesung mit integr. Übung / seminaristische Vorlesung)

Selbststudienzeit

180.00 Stunden
180.00 Stunden Selbststudium - Data Science III, Überwachtes und Unüberwachtes Lernen

Prüfungsvorleistung(en)

Testat
in "Data Science III, Überwachtes und Unüberwachtes Lernen "

Prüfungsleistung(en)

schriftliche Prüfungsleistung
Modulprüfung | Prüfungsdauer: 120 min | Wichtung: 100%
in "Data Science III, Überwachtes und Unüberwachtes Lernen "

Medienform
Keine Angabe
Lehrinhalte/Gliederung

Im Kern dieser Vorlesung steht das Überwachte Lernen als eine der drei wichtigen Säulen des Maschinellen Lernens. Insbesondere werden Klassifikationsprobleme untersucht und die praktische Lösung an den Programmbibliotheken SciKit-Learn, PyTorch sowie Keras als Tensorflow-API einstudiert. Das Problem des Overfitting wird untersucht und gängige Lösungsstrategien zur Wahl von verbesserten Parametern sowie fortgeschrittene Techniken wie Bagging und Boosting werden übertragen. Folgende Themen werden hierbei besprochen:

  • Logistische Regression 
  • parameterabhängige Hypothesen 
  • Support Vector Machine (SVM)
  • Neuronale Netze
  • Loss-Funktion für Klassifikationsprobleme/Optimierung
  • Regularisierung & Dropout werden übertragen
  • K-Nearest-Neighbor für Klassifikationsprobleme
  • Decision Tree 
  • Random Forest
  • Overfitting/Training-Test-Validation-Splitting für Klassifikationsprobleme übertragen
  • Cross-Validation für Klassifikationsprobleme übertragen
  • Bagging für Klassifikationsprobleme übertragen
  • Boosting für Klassifikationsprobleme übertragen

Das Unüberwachte Lernen bildet eine weitere Säule des Maschinellen Lernens. Folgende Themen werden einstudiert:

  • Segmentierung (Clustering)
  • K-Means
  • Principal Component Analysis (PCA)
  •  Generative Adversarial Networks (GANs)

Darüberhinaus werden ethische Aspekte algorithmischen Entscheidens diskutiert.

Qualifikationsziele

Überwachtes Lernen (Klassifikationsprobleme)

Die Studierenden besitzen tiefgreifende Kenntnisse im Lösen von Klassifikationsproblemen beim Überwachten Lernen. Sie kennen das Problem des Overfitting und beherrschen gängige Lösungsstrategien zur Wahl von verbesserten Parametern bei Klassifikationsproblemen. Sie sind in der Lage, die richtige Auswahl elementarer Methoden und Konzepte zu treffen, die zur Anwendung auf und Lösung von Übungs- und Praxissaufgaben notwendig sind, wie z.B. Neuronale Netze, K-Nearest-Neighbor, Decision Tree, Cross-Validation, Bagging sowie Boosting. Außerdem sind sie fähig, unter Verwendung von Hilfsmitteln wie vorlesungsbegleitender Literatur problemslösungsorientiert zu arbeiten.

Unüberwachtes Lernen

Die Studierenden besitzen tiefgreifende Kenntnisse im Lösen von Problemen beim Unüberwachten Lernen. Sie sind in der Lage, die richtige Auswahl elementarer Methoden und Konzepte zu treffen, die zur Anwendung auf und Lösung von Übungs- und Praxissaufgaben notwendig sind, wie z.B. Segmentierung (Clustering), K-Means, Principal Component Analysis und Generative Adversarial Networks. Außerdem sind sie fähig, unter Verwendung von Hilfsmitteln wie vorlesungsbegleitender Literatur problemslösungsorientiert zu arbeiten.

Die Studierenden verfügen über ein geschärftes Urteilsvermögen zu ethischen Aspekten algorithmisch getroffener Entscheidungen.

Besondere Zulassungsvoraussetzung

keine

Empfohlene Voraussetzungen
  • PTI182 - Data Science II, Datenvisualisierung & Überwachtes Lernen 
  • PTI171 - Mathematische Grundlagen I
  • PTI172 - Mathematische Grundlagen II
Fortsetzungsmöglichkeiten

PIT184, PIT185, PIT186, PIT187

Literatur
  • Vorlesungsskript
  • Géron: Hands-on Machine Learning with Scikit-Learn, Keras, and TensorFlow, O'Reilly Media
  • Chollet: Deep Learning with Python, Manning
  • Mohri, Rostamizadeh, Talwalkar: Foundations of Machine Learning, MIT Press
  • Shalev-Shwartz, Ben-David: Understanding Machine Learning From Theory to Algorithms,  Cambridge University Press
  • Bishop: Pattern Recognition and Machine Learning, Springer 
  • Vapnik: Statistical Learning Theory, Springer
  • Vapnik: The Nature of Statistical Learning Theory, Springer
  • Györfi, Kohler, Krzyzak, Walk: A Distribution-Free Theory of Nonparametric Regression, Springer
  • Cucker, Zhou: Learning Theory An Approximation Theory Viewpoint, Cambridge Monographs
  • Barber: Bayesian Reasoning and Machine Learning, Cambridge University Press
  • Murphy: Machine Learning A Probabilistic Perspective, MIT Press
Hinweise

Die Modulprüfung kann in deutscher und englischer Sprache abgelegt werden.