PTI01820 – Data Science II, Data Visualisation and Supervised Learning

Module
Data Science II, Data Visualisation and Supervised Learning
Data Science II, Datenvisualisierung und Überwachtes Lernen
Module number
PTI01820
Version: 3
Faculty
Physikalische Technik / Informatik
Level
Bachelor
Duration
1 Semester
Semester
Summer semester
Module supervisor

Prof. Dr. Mike Espig
mike.espig(at)fh-zwickau.de

Lecturer(s)

Prof. Dr. Mike Espig
mike.espig(at)fh-zwickau.de

Course language(s)

German - 80.00%
in "Data Science II, Datenvisualisierung und Überwachtes Lernen"

English - 20.00%
in "Data Science II, Datenvisualisierung und Überwachtes Lernen"

ECTS credits

10.00 credits

Workload

300 hours

Courses

8.00 SCH (2.00 SCH Internship | 6.00 SCH Lecture with integrated exercise / seminar-lecture)

Self-study time

180.00 hours
180.00 hours Self-study - Data Science II, Datenvisualisierung und Überwachtes Lernen

Pre-examination(s)

Attestation
in "Data Science II, Datenvisualisierung und Überwachtes Lernen"

Examination(s)

schriftliche Prüfungsleistung
Module examination | Examination time: 120 min | Weighting: 100%
in "Data Science II, Datenvisualisierung und Überwachtes Lernen"

Media type
No information
Instruction content/structure

Einführung in die Software-Bibliotheken Matplotlib und Seaborn. Hierbei werden praxisgerechte Funktionen vorgestellt und in den Praktika einstudiert.

Im Kern dieser Vorlesung steht das Überwachte Lernen als eine der drei wichtigen Säulen des Maschinellen Lernens. Insbesondere werden Regressionsprobleme untersucht und die praktische Lösung an den Programmbibliotheken SciKit-Learn, PyTorch, sowie Keras als Tensorflow-API einstudiert. Folgende Themen werden hierbei besprochen:

  • Lineare Regression
  • parameterabhängige Hypothesen 
  • Neuronale Netze
  • 1D Gefaltete Neuronale Netze (Convolutional Neural Networks CNN)
  • Loss-Funktion für Regressionsprobleme/Optimierung
  • Regularisierung & Dropout
  • Cross-Validation
  • K-Nearest-Neighbor
  • Decision Tree Regression
  • Overfitting/Training-Test-Validation-Splitting
  • Bagging
  • Boosting
  • rechtliche Aspekte der Datennutzung, insbesondere Datenschutz

Das Problem des Overfitting wird untersucht und gängige Lösungsstrategien zur Wahl von verbesserten Parametern vorgestellt. 

Qualification objectives

Die Studierenden besitzen Kenntnisse in den Software-Bibliotheken Matplotlib und Seaborn und können diese fachgerecht einsetzen.  

Die Studierenden besitzen tiefgreifende Kenntnisse im Lösen von Regressionsproblemen beim Überwachten Lernen. Sie kennen das Problem des Overfitting und beherrschen gängige Lösungsstrategien zur Wahl von verbesserten Parametern. Sie sind in der Lage, die richtige Auswahl elementarer Methoden und Konzepte zu treffen, die zur Anwendung auf und Lösung von Übungs- und Praxissaufgaben notwendig sind, wie z.B. Neuronale Netze,1D gefaltete Neuronale Netze (Convolutional Neural Networks CNN) K-Nearest-Neighbor, Decision Tree Regression, Cross-Validation, Bagging sowie Boosting. Außerdem sind sie fähig, unter Verwendung von Hilfsmitteln wie vorlesungsbegleitender Literatur problemslösungsorientiert zu arbeiten. Die Studierenden können rechtliche Aspekte beim Sammeln und Verarbeiten von Daten beurteilen.

Special admission requirements

keine

Recommended prerequisites
  • PTI181- Data Science I, Einführung in Python und Datenvorverarbeitung 
  • PTI171 - Mathematische Grundlagen I
Continuation options

PTI183, PTI184, PTI185, PTI186, PTI187

Literature
  • Vorlesungsskript
  • Géron: Hands-on Machine Learning with Scikit-Learn, Keras, and TensorFlow, O'Reilly Media
  • Chollet: Deep Learning with Python, Manning
  • Mohri, Rostamizadeh, Talwalkar: Foundations of Machine Learning, MIT Press
  • Shalev-Shwartz, Ben-David: Understanding Machine Learning From Theory to Algorithms,  Cambridge University Press
  • Bishop: Pattern Recognition and Machine Learning, Springer 
  • Vapnik: Statistical Learning Theory, Springer
  • Vapnik: The Nature of Statistical Learning Theory, Springer
  • Györfi, Kohler, Krzyzak, Walk: A Distribution-Free Theory of Nonparametric Regression, Springer
  • Cucker, Zhou: Learning Theory An Approximation Theory Viewpoint, Cambridge Monographs
  • Barber: Bayesian Reasoning and Machine Learning, Cambridge University Press
  • Murphy: Machine Learning A Probabilistic Perspective, MIT Press
Notes
No information