PTI01820 – Data Science II, Datenvisualisierung und Überwachtes Lernen

Modul
Data Science II, Datenvisualisierung und Überwachtes Lernen
Data Science II, Data Visualisation and Supervised Learning
Modulnummer
PTI01820
Version: 3
Fakultät
Physikalische Technik / Informatik
Niveau
Bachelor
Dauer
1 Semester
Turnus
Sommersemester
Modulverantwortliche/-r

Prof. Dr. Mike Espig
mike.espig(at)fh-zwickau.de

Dozent/-in(nen)

Prof. Dr. Mike Espig
mike.espig(at)fh-zwickau.de

Lehrsprache(n)

Deutsch - 80.00%
in "Data Science II, Datenvisualisierung und Überwachtes Lernen"

Englisch - 20.00%
in "Data Science II, Datenvisualisierung und Überwachtes Lernen"

ECTS-Credits

10.00 Credits

Workload

300 Stunden

Lehrveranstaltungen

8.00 SWS (2.00 SWS Praktikum | 6.00 SWS Vorlesung mit integr. Übung / seminaristische Vorlesung)

Selbststudienzeit

180.00 Stunden
180.00 Stunden Selbststudium - Data Science II, Datenvisualisierung und Überwachtes Lernen

Prüfungsvorleistung(en)

Testat
in "Data Science II, Datenvisualisierung und Überwachtes Lernen"

Prüfungsleistung(en)

schriftliche Prüfungsleistung
Modulprüfung | Prüfungsdauer: 120 min | Wichtung: 100%
in "Data Science II, Datenvisualisierung und Überwachtes Lernen"

Medienform
Keine Angabe
Lehrinhalte/Gliederung

Einführung in die Software-Bibliotheken Matplotlib und Seaborn. Hierbei werden praxisgerechte Funktionen vorgestellt und in den Praktika einstudiert.

Im Kern dieser Vorlesung steht das Überwachte Lernen als eine der drei wichtigen Säulen des Maschinellen Lernens. Insbesondere werden Regressionsprobleme untersucht und die praktische Lösung an den Programmbibliotheken SciKit-Learn, PyTorch, sowie Keras als Tensorflow-API einstudiert. Folgende Themen werden hierbei besprochen:

  • Lineare Regression
  • parameterabhängige Hypothesen 
  • Neuronale Netze
  • 1D Gefaltete Neuronale Netze (Convolutional Neural Networks CNN)
  • Loss-Funktion für Regressionsprobleme/Optimierung
  • Regularisierung & Dropout
  • Cross-Validation
  • K-Nearest-Neighbor
  • Decision Tree Regression
  • Overfitting/Training-Test-Validation-Splitting
  • Bagging
  • Boosting
  • rechtliche Aspekte der Datennutzung, insbesondere Datenschutz

Das Problem des Overfitting wird untersucht und gängige Lösungsstrategien zur Wahl von verbesserten Parametern vorgestellt. 

Qualifikationsziele

Die Studierenden besitzen Kenntnisse in den Software-Bibliotheken Matplotlib und Seaborn und können diese fachgerecht einsetzen.  

Die Studierenden besitzen tiefgreifende Kenntnisse im Lösen von Regressionsproblemen beim Überwachten Lernen. Sie kennen das Problem des Overfitting und beherrschen gängige Lösungsstrategien zur Wahl von verbesserten Parametern. Sie sind in der Lage, die richtige Auswahl elementarer Methoden und Konzepte zu treffen, die zur Anwendung auf und Lösung von Übungs- und Praxissaufgaben notwendig sind, wie z.B. Neuronale Netze,1D gefaltete Neuronale Netze (Convolutional Neural Networks CNN) K-Nearest-Neighbor, Decision Tree Regression, Cross-Validation, Bagging sowie Boosting. Außerdem sind sie fähig, unter Verwendung von Hilfsmitteln wie vorlesungsbegleitender Literatur problemslösungsorientiert zu arbeiten. Die Studierenden können rechtliche Aspekte beim Sammeln und Verarbeiten von Daten beurteilen.

Besondere Zulassungsvoraussetzung

keine

Empfohlene Voraussetzungen
  • PTI181- Data Science I, Einführung in Python und Datenvorverarbeitung 
  • PTI171 - Mathematische Grundlagen I
Fortsetzungsmöglichkeiten

PTI183, PTI184, PTI185, PTI186, PTI187

Literatur
  • Vorlesungsskript
  • Géron: Hands-on Machine Learning with Scikit-Learn, Keras, and TensorFlow, O'Reilly Media
  • Chollet: Deep Learning with Python, Manning
  • Mohri, Rostamizadeh, Talwalkar: Foundations of Machine Learning, MIT Press
  • Shalev-Shwartz, Ben-David: Understanding Machine Learning From Theory to Algorithms,  Cambridge University Press
  • Bishop: Pattern Recognition and Machine Learning, Springer 
  • Vapnik: Statistical Learning Theory, Springer
  • Vapnik: The Nature of Statistical Learning Theory, Springer
  • Györfi, Kohler, Krzyzak, Walk: A Distribution-Free Theory of Nonparametric Regression, Springer
  • Cucker, Zhou: Learning Theory An Approximation Theory Viewpoint, Cambridge Monographs
  • Barber: Bayesian Reasoning and Machine Learning, Cambridge University Press
  • Murphy: Machine Learning A Probabilistic Perspective, MIT Press
Hinweise
Keine Angabe