Wie lassen sich KI-Modelle zuverlässig bewerten und verbessern? In diesem Workshop geht es um typische Herausforderungen wie Under- und Overfitting, unausgeglichene Datensätze und Evaluationsmetriken wie Accuracy, Precision und Recall. Ergänzt wird dies durch praktische Übungen zu Hyperparameter Tuning, Data Augmentation und Test-Set-Performance. Zusätzlich erhalten Sie Einblicke in hilfreiche Programmier-Tools, bevor die gesamte Reihe zusammengefasst und gemeinsam reflektiert wird. Dadurch entwickeln Sie ein Verständnis dafür, wie Modelle nicht nur erstellt, sondern auch systematisch geprüft und optimiert werden können.
Inhalte
- Probleme bei der Einführung von KI
- Evaluationsmetriken
- Hyperparameter Tuning & Data Augmentation
- Test-Set-Performance & Label Leakage
Ziele
- Sie lernen, Underfitting, Overfitting und unausgeglichene Datensätze zu erkennen und zu bewerten.
- Sie erfahren, wie Evaluationsmetriken wie Accuracy, Precision, Recall und die Confusion Matrix richtig eingesetzt werden.
- Sie üben, Modelle praktisch zu verbessern durch Hyperparameter Tuning und Data Augmentation.
- Sie verstehen, die Bedeutung von Test-Set-Performance und die Problematik von Label Leakage für reale Anwendungen.
Zielgruppe
- Grundlagen der Python-Programmierung werden vorausgesetzt. Diese werden in der Themenreihe KI Programmieren – Webinar: KI & Code für Einsteiger (1/6) vermittelt.
- Der Besuch der vorhergehenden Teile der Veranstaltungsreihe wird empfohlen. Eine Teilnahme ist jedoch auch ohne deren Besuch möglich. Es werden kurze Wiederholungen durchgeführt, in diesem Fall kann es jedoch vereinzelt zu inhaltlichen Verständnisproblemen kommen.
- Branchenübergreifend: Führungskräfte, Mitarbeitende und Interessierte aus KMU.
- Für den praktischen Teil ist Zugang zum Browser sowie Tastatur und Maus erforderlich.