Vorlesung Machine Learning Vorbesprechung, Überblick, Grundbegriffe 14.04.2015 Machine Learning Heute: Organisatorisches: Wichtige Termine, Prüfungsmodalitäten, Übungen usw. Motivation, Fragestellungen, Grundbegriffe Überblick über Themen der Vorlesung Machine Learning Das Team Stefan Edelkamp [email protected] Raum 2.63 im TAB 2 Daniel Machine Learning Übungen In der Übung • werden Fragen zur Vorlesung und zu den Übungsaufgaben, sowie • die Lösungen der Aufgaben diskutiert und • praktische Übungen – vor allem mit dem WEKA toolkit – durchgeführt. Machine Learning Vorschlag zur Scheinvergabe • Scheinkriterien • 90% der Punkte nötig für 1.0 (dafür aber keine “N-1Regelung”). • Insgesamt müssen 50% der Punkte für ein Fachgespäch erreicht werden. • Beteiligung an den Übungen im Tutorium (auch bei mündlicher Modulprüfung) wird empfohlen. • Übunszettel dürfen auch abgegeben werden, wenn eine andere Prüfungsform gewählt wird. Machine Learning Vorschlag zur Scheinvergabe • Mündliche Prüfung • Wissenschaftliche • ca. 30-minütige mündliche Prüfung • Inhalte der Übungen werden mit abgefragt. • Fachgespräch • die Individualität der Leistung wird durch ein Fachgespräch sichergestellt. Machine Learning Verfehlung (Abschreiben) – Abgaben werden systematisch auf Plagiate geprüft. – Meldung an die SK/DPA – Bei Plagiat 0 Punkte auf das Aufgabenblatt. Prüfungsvorbereitung • Parallele Lektüre • AIMA, Mitchell, Flach, Shai^2 Ester/Sander. • Sonstige Literatur • Übung (auch bei Modulprüfung!) Machine Learning • Folien sind KEIN LERNmaterial, Sondern: LEHR-Hilfsmittel! • Hinweis: Folien enthalten urheberrechtlich geschütztes Material! Literatur http://www.cs.cmu.edu/~tom/mlbook.html 1. Introduction 2. Concept Learning and the General-to-Specific Ordering 3. Decision Tree Learning 4. Artificial Neural Networks 5. Evaluating Hypotheses 6. Bayesian Learning 7. Computational Learning Theory 8. Instance-Based Learning 9. Genetic Algorithms 10. Learning Sets of Rules 11. Analytical Learning 12. Combining Inductive and Analytical Learning 13. Reinforcement Learning Machine Learning https://www.cs.bris.ac.uk/~flach/mlbook/ Prologue: a machine learning sampler 1. The ingredients of machine learning 2. Binary classification and related tasks 3. Beyond binary classification 4. Concept learning 5. Tree models 6. Rule models 7. Linear models 8. Distance-based models 9. Probabilistic models 10. Features 11. In brief: model ensembles 12. In brief: machine learning experiments Epilogue: where to go from here Important points to remember Bibliography Index. Machine Learning 1. Introduction Part I. Foundations: 2. A gentle start 3. A formal learning model 4. Learning via uniform convergence 5. The bias-complexity trade-off 6. The VC-dimension 7. Non-uniform learnability 8. The runtime of learning Part II. From Theory to Algorithms: Part III. Additional Learning Models: 9. Linear predictors 21. Online learning 10. Boosting 22. Clustering 11. Model selection and validation 23. Dimensionality reduction 12. Convex learning problems 24. Generative models 13. Regularization and stability 25. Feature selection and generation 14. Stochastic gradient descent Part IV. Advanced Theory: 15. Support vector machines 26. Rademacher complexities 16. Kernel methods 27. Covering numbers 17. Multiclass, ranking 28. Proof of the fundamental theorem of learning theory 18. Decision trees 29. Multiclass learnability 19. Nearest neighbor 30. Compression bounds 20. Neural networks 31. PAC-Bayes. Machine Learning Knowledge Discovery in Databases Martin Ester; Jörg Sander Kapitel 3: Clustering Machine Learning Stuart Russell & Peter Norvig Artificial Intelligence: A Modern Approach Second Edition Prentice-Hall, 2003 ISBN 0-13-080302-2 Künstliche Intelligenz: Ein moderner Ansatz 2. Auflage Pearson Studium, Prentice-Hall, 2004 3. Auflage Machine Learning Weka toolkit http://www.cs.waikato.ac.nz/ml/weka/ Java, GPL, umfasst sehr viele wichtigen Lernverfahren, wird seit fast 20 Jahren genutzt und weiterentwickelt Alternative: Rapid Miner Machine Learning Maschinelles Lernen Bereits “vor der KI” als relevantes Forschungsfeld identifiziert (A. Turing: Computing Machinery and Intelligence, 1950) Definition (R. Michalski): “Lernen ist das Konstruieren oder Verändern von Repräsentationen von Erfahrungen.” Machine Learning Motivation für Maschinelles Lernen: • Aufgaben, die sich durch die automatischen Interpretation sehr großer Datenmengen besser lösen lassen als durch menschliche Experten (klassisches Beispiel: Automatische Erkennung gesprochener Sprache und andere Mustererkennungsprobleme). • Exploration sehr großer Datenmengen (Beispiel: Data Mining). • Kognitive Modellierung menschlichen Lernens. Machine Learning Maschinelles Lernen Motivationen (nach K. Morik): • Prinzipien menschlichen Lernens mit Hilfe von operationalen Modellen untersuchen. • Operationalisierung von Schlussfolgerungen (insbes. Induktion). • Verbesserung der Arbeit mit Computern. Machine Learning • Entscheidungsbäume • Neuronale Netzwerke • Stochastische Lernverfahren • Regelinduktion • Nächste Nachbarn • Genetische Algorithmen Machine Learning Lernverfahren • Überwachtes Lernen (supervised learning) • Unüberwachtes Lernen (unsupervised learning) • Reinforcement Learning (Bestärkungslernen, Verstärkungslernen, Bekräftigungslernen) Machine Learning Überwachtes Lernen (supervised learning) • Trainings- und Testdaten • Lernziel vorab bekannt (z.B. Klassifikationsschema, Entscheidungsproblem) • positive/negative Beispiele • Beispiele: ID3-Algorithmus: Induktion von Entscheidungsbäumen, C4.5 (Weiterentwicklung von ID3), “Naive” Bayessche Klassifikation, KNN, HMM-Training, SVMs, ... Machine Learning Unüberwachtes Lernen (unsupervised learning) • Ausgangsdaten: Rohdaten ohne explizit spezifiziertes Lernziel. • Beispiele: Clustering (z.B. Hierarchisches Bottomup-Clustering und Clustering mit K-meansAlgorithmus), Assoziationslernen, Dimensionsreduktion, ... • Ziel: Entdeckung “interessanter” Strukturen. Machine Learning Unüberwachtes Lernen (unsupervised learning) • Ausgangsdaten: Rohdaten ohne explizit spezifiziertes Lernziel. • Gibt es Rohdaten? • Auswahl von Merkmalen, Attributen • Granularität und Verlässlichkeit von Messungen, Datenmenge • Quellen, Vorverarbeitungsschritte • “Ausreißer” Machine Learning Reinforcement Learning • Positives u./o. negatives Feedback zu Zwischenresultaten führt zu einer inkrementellen Annäherung an das Lernziel. • Approximation von Funktionen, Optimierungsprobleme. • Lernen in Multiagentensystemen. Machine Learning • • • • • Maschinelles Lernen: Lerntypen Klassifikationslernen Regellernen Numerische Vorhersage Clustering Entscheidungslernen Machine Learning Klassifikationslernen (überwachtes Lernen) • Gegeben: Klassifikationssystem • Hierarchie von Klassen (Kategorien) • Menge von Klassen (“Schubladen”) • Lernziel: möglichst fehlerfreie Zuordnung von Beispielen (Instanzen) zu den Klassen. Machine Learning Klassifikationslernen • Input des Klassifikators: Beispiele (Instanzen), diese werden in Trainings- und Testdaten unterteilt. • Output: eine Abbildung, die jeder möglichen Instanz eine • Klasse oder • Menge von Klassen (evtl. leer) zuordnet, und • Ggfs. ein Maß für (Un)sicherheit der Zuordnung Machine Learning Klassifikationslernen • Trainingsdaten: • Positive Beispiele: <bi,Kj> • Ggfs. negative Beispiele: ~ <bi,Kj> Diese werden verwendet um eine Zuordnung von allen möglichen Instanzen zu einer Klasse zu bestimmen. Machine Learning Klassifikationslernen • Testdaten: • Positive Beispiele: <bi,Kj> und • negative Beispiele: ~ <bi,Kj> Diese werden verwendet um die Qualität der gelernten Zuordnung zu beurteilen. Machine Learning Klassifikationsproblem Machine Learning Einzelkriterium Länge trennt nicht perfekt Machine Learning Auch das Merkmal “Helligkeit” allein ist nicht hinreichend Machine Learning Kombination beider Merkmale erlaubt eine sehr gute Trennung. Machine Learning Weitere Optimierungsmöglichkeiten: • zusätzliche Merkmale. • Nichtlineare Trennfunktion. Overfitting? Machine Learning Vielleicht besser? Machine Learning Klassifikationslernen • Evaluation mit Testdaten: • Wieviele der positiven Testdaten werden vom System als positiv erkannt (recall, Ausbeute) • Beispiel: Wenn von 100 positiven Testdaten 90 als Positiv erkannt wurden, hat das System (auf diesen Testdaten) eine Ausbeute von 0,9. Machine Learning Klassifikationslernen • Evaluation mit Testdaten: • Wieviele der als Positiv beurteilten Testdaten sind positiv (precision, Präzision). • Beispiel: Wenn das System 100 positive Zuordnungen vornimmt und davon sind 80 positive Testdaten, dann hat das System (auf diesen Testdaten) eine Präzision von 0,8. Machine Learning Klassifikationslernen • Kombination von Precision und Recall: F-Maß: 2 * (prec * rec) / (prec + rec) • ... und Varianten mit weiterer Gewichtung usw. Wichtig: Bedeutung dieser Qualitätsmaße hängt im Wesentlichen vom Anwendungskontext/Erkenntnisinteresse ab: • mangelnde Präzision von Diagnosen im Krankenhaus oder im AKW ist nicht hinnehmbar. • bei der heuristischen Exploration von großen Datenmengen ist eine geringere Präzision akzeptabel. In Gerichtsverfahren ist eine schlechte Ausbeute (unschuldig Verurteilte) zu vermeiden. Machine Learning Kreuzvalidierung (k-fold crossvalidation) - typisch: 90% Training, 10% Test, 10-fach - extrem: Leave-one-out-Evaluation (K = N) test data training set Machine Learning Clustering Ziel: • Identifikation von "sinnvollen" Gruppen ("Clustern") ähnlicher Datenpunkte in (typischerweise: sehr großen) Datenbeständen Machine Learning Kriterien für Clustering-Algorithmen Standardkriterien: Komplexität (Zeit- und Raumbedarf) Wichtige Grundcharakteristika: • Partitionierende Algorithmen (Bsp.: k-means) • Hierarchische Algorithmen - agglomerativ - divisiv Machine Learning Kriterien für Clustering-Algorithmen (2) • • • • • • disjunkt/nicht disjunkt crisp vs. fuzzy bzw. deterministisch vs. probabilistisch mit/ohne Constraints (Must-Link, Cannot-Link) Clustergeometrie Dichte-basierte Algorithmen Gitter-basierte Algorithmen Machine Learning Clustering Ziele des Clusterings beim Text Mining • Häufig: Identifikation von thematisch zusammenhängenden Gruppen von Texten Politik Technik Machine Learning Sport Clustering Alternative Kriterien: • Stilistische Ähnlichkeit • Entstehungszeitpunkt • Textsorte • Autor Alternative Ausgangsdaten: • Wörter • Distributionen • Sprachen, Dialekte, Sprachstufen Machine Learning Clustering Unüberwachtes Lernen • Clustering als Klassifikations- oder Kategorisierungsprozess • Aber: Die Klassen sind nicht vorab festgelegt Machine Learning Clustering Partitionierendes Clustering: Machine Learning Hierarchisches Clustering Venn-Diagramm Machine Learning Hierarchisches Clustering Dendrogramm Machine Learning Hierarchisches Clustering Dendrogramm Divisiv (teilend) vs. Agglomerativ (anhäufend) Machine Learning Clustering-Prozess Schritte (nach Halkidi et al. 2001): 1. Auswahl von Merkmalen, ggfs. Gewichtung von Merkmalen 2. Cluster-Algorithmus a) Ähnlichkeitsmaß (Euklidische Distanz, information radius, ...) b) Cluster-Kriterium (Kostenfunktion, Regel, ...) 3. Validierung 4. Interpretation Machine Learning Clustering-Prozess Schritte (nach Halkidi et al. 2001): 1. Auswahl von Merkmalen, ggfs. Gewichtung von Merkmalen 2. Cluster-Algorithmus a) Ähnlichkeitsmaß (Euklidische Distanz, information radius, ...) b) Cluster-Kriterium (Kostenfunktion, Regel, ...) 3. Validierung 4. Interpretation Machine Learning Ziel des Clustering • Identifikation einer endlichen Menge von Kategorien, Klassen oder Gruppen (Cluster) in den Daten. • Objekte im gleichen Cluster sollen möglichst ähnlich sein. • Objekte aus verschiedenen Clustern sollen möglichst unähnlich zueinander sein. Machine Learning Ziel des Clustering • Identifikation einer endlichen Menge von Kategorien, Klassen oder Gruppen (Cluster) in den Daten. • Objekte im gleichen Cluster sollen möglichst ähnlich sein. • Objekte aus verschiedenen Clustern sollen möglichst unähnlich zueinander sein. Machine Learning Was ist ähnlich? Was hat eine kurze Distanz zueinander? • • • • • • • • • • Bremen, Syke, Bratislava, Hamburg, Berlin, Rom, Osterholz-Schambeck, Neustadt, Christchurch, Mecca. Machine Learning Themen der Vorlesung Motivation, Success Story, Examples, Ingredients. Decision Trees, Bayes' Nets. Regression, Graphical Nets. Classification: Binary, Neuronal Nets, Backpropagation. Percepton, SVMs. Clustering: NN, k-means and Hierarchies. Rule Learning: Concepts, Words, Macros, Association Rules. Reinforcement Learning: Value and Policy Iteration, RTDP. Recommender Systems: Collaborative Filtering and others. Regular Languages: Automata Learning (via ID and IID). Evolutionary Learning: GAs and PSAs. Feature Construction, Selection and Transformations. Monte-Carlo (Tree) Search: Bandits, UCT, NMCS, and NRPA. Learning Theory: PAC and VC. Current Trends in ML (e.g., Deep Learning). Machine Learning Unterlagen (Skripte, Literatur, Programme usw.): Peter Flach: Machine Learning – The Art and Science of Algorithms that Make Sense of Data. Cambridge, 1. Auflage (2014) Tom Mitchell: Machine Learning, McGraw Hill, (1997) + New Chapters (Web). Pat Langley: Elements of Machine Learning. Morgan Kaufmann (1995). Shai Shalev-Shwartz, Shai Ben-David. Understanding Machine Learning. Cambridge (2014). Christopher M. Bishop: Pattern Recognition and Machine Learning. Information Science and Statistics, Springer (2006). Stefan Edelkamp: Heuristic Search, Morgan Kaufmann (2012). Richard Sutton, Andrew Barto: Reinforcement Learning, MIT. (1998) Recent Publications in AI conferences (e.g., AAAI, IJCAI, ECML, ICML). Machine Learning . ML-Projekte: - FlourAnalysis (Supervised) - RoboticTraces (Supervised) - GVGAI (Reinforce) - PTSP (Reinforce) - VideoAnnotate (Supervised) - Anomaly (Unsupervised) Machine Learning