Übersicht Blockvorlesung: Machinelles Lernen Inhaltsverzeichnis Montag: 1.+2. Lerneinheit 1. Übersicht und Entscheidungsbäume 1.1 Organisatorisches 1.2 Definition Machine Learning 1.3 Klassen von maschinellen Lernverfahren a) Supervised Learning / Überwachtes Lernen b) Unsupervised Learning / Unüberwachtes Lernen c) Reinforcement Learning / Verstärkendes Lernen 1.4. Nomenklatur a) Das Modell: Was wird gelernt? c) Features, Attribute, Deskriptoren? d) Abstraktion und Generalisierung e) Abstandsmaße: Metrische und normierte Rüume 1.5 Entscheidungsbäume (ID3) 1.6 Entropie einer Zufallsquelle 1.7 Information Gain zur Auswahl von Attributen 1.8 Overfitting 1.9 Erweiterungen in C4.5. 2. Partitionierendes Clustering 2.1 Beispiele partitionierendes Clustering 2.2 Clustering durch Varianzminimierung 2.3 Clustering durch k-means (Mediode, Centroide) 2.4 Inter- und Intraclusterabstände: TD²-Wert 2.5 k-fache Kreuzvalidierung 2.6 Bewertung Lernverfahren: Konfluenzmatrix 2.7 True/False Positives, True/False Negatives 2.8 Präzision (Accuracy), F1-Measure Dienstag: 3.+4. Lerneinheit 3. Hierarchisches Clustering 3.1 Hierarchisches Clustering mit Dentogramm 3.2 Verbindung Hierarchisches / Partitionierendes Clustern 3.3 Kernobjekte und Dichte-Verbundenheit, 3.4 Algorithmen: CLEARNS und DBSCAN 3.5 Silhouetten-Koeffizient und Erreichbarkeitsdiagramme 4. Markov Ketten und HMMs 4.1 Einführung Wahrscheinilichkeitstheorie 4.2 Ereignisse und Zufallsvariablen 4.3 Kolmogorov Axiome 4.3 Bedingte Wahrscheinlichkeit und Venn-Diagramme 4.4 Markov-Annahme k-ter Stufe 4.5 Umdrehen der Bedingung: Bayes Theorem 4.6 Markov Ketten: Probabilistische Modellierung von Zustandsübergängen 4.7 Initiale Wahrscheinlichkeitsverteilung 4.6 Hidden Markov Modelle: Beobachtungen 4.7 Transitionsmatrix, Beobachtungsmatrix Mittwoch: 5.+6. Lerneinheit 5. Lineare Regression und Klassifikation 5.1 Lineare Regressionsgleichung 5.2 Regularisierung zur Vermeidung von Overfitting 5.3 Analytische Lösung des Regressionsproblem 5.4 Lineare Klassifikation 5.5 Perceptron Algorithmus und Dualität 5.6 Der Kern-Trick 5.7 Linearer, Quadratischer bzw. RBF-Kern 6. Naive Bayes 6.1 Graphische Systeme 6.2.Bedingte Wahrscheinlichkeit und Kausalität 6.2 Formel Naive Bayes 6.3 Bedingte Unabhängigkeit Donnerstag: 7.+8. Lerneinheit 7. Bayes’sche Netze 7.1 Probabilistische Inferenz (PI) in Belief-Netzen 7.2 NP-Vollständigkeitsbeweis PI durch Reduktion auf 3-SAT 7.3 Bucket-Elimination Algorithmus für Belief-Netze 8. SVMs 7.1 Support Vector Maschine und Bit Vector Maschine, 7.2 Parameter-Tuning mit Grid-Suche 7.3 Primal/Dual Definition SVM 7.4 Herleitung aus Hinge Loss 7.5 Kernelintegration 7.6 Soft Margin SVM (Rauschen) Freitag: 9.+10. Lerneinheit 9. MDPs 9.1 Definition Markov Decision Process (MDPs) 9.2 Horizoneffekte und Discount 9.3 Bellmann-Gleichung und -Optimalitätsprinzip 9.4 Reinforement Learning Algorithmen 9.5 Value Iteration Algorithmus 9.6 Speicherplatzreduktion und externe Berechnung 9.7 Vom MDP zum POMDP 10. Randomisierte Suche mit MCTS 10.1 Exploitation vs. Exploration 10.2 k-armige Banditen 10.3.Upper Confidence Bound (UCB) 10.4 UCB applied to Trees (UCT) 10.5 Monte-Carlo Baumsuche in Optimierungsproblemen 10.6 Schachtelung der Suche 10.7 Nested Monte-Carlo Suche 10.8 Nested Rollout Policy Adaptation 10.9 Erhöhung der Diversität 10.10 Anwendungen Montag: 11.+12. Lerneinheit 11. Concept Learning 11.1 Das Lernen von Konzepten 11.2 Hypothesenbildung, Konzepte 11.3 Totale und partielle Ordnung 11.4 Find-S Algorithmus: Vor- und Nachteile 11.5 Der Candidate-Elimination Algorithmus 12. GAs und (S)GD 12.1 Klassen globaler Optimierungsverfahren 12.2 Ameisenalgorithmen, Particleswarm-Optimierung, Simulated Annealing 12.3 Genetische Algorithmen: Mutation, Recombination, Selektion 12.4 Potential und Grenzen Genetischer Algorithmen: Das Schema Theorem 12.5 Gradientenabstieg: Gradient Decent 12.6 Stochastic Gradient Decent Dienstag: 13.+14. Lerneinheit 13. Regellernen 13.1 Data Mining und Predictive Analytics 13.2 Die Warenkorb-Analyse: Einkaufszettel 13.3 Support und Konfidenz 13.4 Assoziationsregeln, A Priori-Algorithmus 14. Recommender Systeme 14.1 Collaborative Filtering 14.2 Additive / Multiplikative Modelle und Link Prediction 14.3 Erkennung von Latent Features 14.4 Anwendungen - Netflix Preis 14.5 Matrix-Dekomposition Verfahren 14.6 SGD Implementierung 14.6 Stufen des KDD-Prozesses Mittwoch: 15.+16. Lerneinheit 15. CBR und NN 15.1 Case-based Reasoning und k-nächste Nachbarn 15.2 Voronoi-Diagramme und Delaunay Triangulierung 15.3 On-Line vs. Off-Line Berechnung 15.4 Das Lokalisationsproblem 15.5 Nearest Neighbor Algorithmen a) exakte Berechnung nächster Nachbarn: Full-Delaunay-Hierarchie (FDH), b) approximative Berechnung nächster Nachbarn: Fractal-NN 15.6 kd-Bäume: Mediane 15.7 Erweiterung von NN auf unterschiedliche Mengen 16. SVD und PCA 16.1 Eigenwerte: Die Feinstruktur im Vektorraum 16.2 Potentierung von Matrizen durch Spektralanalyse 16.3 Gründe riesige Feature-Mengen: Sliding Windows 16.4 Auswahl von Features 16.5 Singular Value Decomposition 16.6 Principle Component Analysis (Hauptkomponentenanalyse). Donnerstag: 17.+18. Lerneinheit 17. Strings 17.1 Maschinelles Lernen und Mustererkennung 17.2 Approximative Zeichenketten-/Teilstringsuche 17.3 Grenzen des Lernens von Automaten 17.4 Automatenlernen mit (I)ID 17.5 Dynamic Time Warp (DTW) 17.6 Datenreihen zu Strings: (i)SAX 17.7 Lernen von Abkürzungen Aho-Corasick 17.8 Der Makroproblemlöser: Nahe dem Menschlichem Lösen 18. Neuronale Netze 18.1 Menschliche Neuronale Netze 18.2 Artifizielle Neuronale Netze 18.3 Hopfield Netze zur kombinatorischen Optimierung 18.3 Self-Organizing Maps zum Lernen geometischer Formen 18.4 Multilayer Neural Nets, 18.5 Darstellungssätze: Boolesche und Allgemeine Funktionen 18.6 Backpropagation-Verfahren zum Berechnen des Gradientens 18.7 Convolutional Neural Nets und Deep Learning Freitag: 19.+20. Lerneinheit 19. Anwendungen Machine Learning 19.1 Lernen von Mustern in Spielen 19.2 Lernen von Netzwerkdaten 19.3 Lernen von Videoartefakten 19.4 Lernen von Backergebnissen 19.5 Lernen von Gesten 19.6. Lernen fürs 3D Drucken 19.7 Lernen von Sequenzalignierungen 19.8 Lernen von Straßenkarten 20. Grundzüge der Lerntheorie 20.1 Shatter und VC-Dimension 20.2 Definition PAC-Lernbarkeit 20.3 Fundamentalsatz der Lerntheorie 21. Wrap-Up, Questionaire Klausur 17.3.2017, 12-13:30 Uhr