Machine Learning

Werbung
Vorlesung
Machine Learning
Vorbesprechung, Überblick, Grundbegriffe
18.10.2016
Machine Learning
Heute:
Organisatorisches:



Wichtige Termine,

Prüfungsmodalitäten,

Übungen usw.
Motivation, Fragestellungen,
Grundbegriffe

Überblick über Themen der
Vorlesung
Machine Learning
Das Team
Stefan Edelkamp
[email protected]
Raum 2.63 im TAB 2
Machine Learning
Daniel
Übungen
In der Übung
• werden Fragen zur Vorlesung
und zu den Übungsaufgaben,
sowie
• die Lösungen der Aufgaben
diskutiert und
• praktische Übungen – vor allem
mit dem WEKA toolkit –
durchgeführt.
Machine Learning
Vorschlag zur Scheinvergabe
• Scheinkriterien
• 90% der Punkte nötig für 1.0 (dafür aber keine “N-1Regelung”).
• Insgesamt müssen 50% der Punkte für ein Fachgespäch
erreicht werden.
• Beteiligung an den Übungen im Tutorium (auch bei
mündlicher Modulprüfung) wird empfohlen.
• Übunszettel dürfen auch abgegeben werden, wenn eine
andere Prüfungsform gewählt wird.
Machine Learning
Vorschlag zur Scheinvergabe
• Mündliche Prüfung
• ca. 30-minütige mündliche
Prüfung
• Inhalte der Übungen werden mit
abgefragt.
• Wissenschaftliche
Verfehlung (Abschreiben)
– Abgaben werden
systematisch auf Plagiate
geprüft.
– Meldung an die SK/DPA
• die Individualität der Leistung wird – Bei Plagiat 0 Punkte auf
das Aufgabenblatt.
durch ein Fachgespräch
• Fachgespräch
sichergestellt.
Machine Learning
Prüfungsvorbereitung
• Parallele Lektüre
• AIMA, Mitchell, Flach,
Shai^2 Ester/Sander.
• Sonstige Literatur
• Übung (auch bei
Modulprüfung!)
Machine Learning
• Folien sind KEIN
LERNmaterial, Sondern:
LEHR-Hilfsmittel!
• Hinweis: Folien enthalten
urheberrechtlich
geschütztes Material!
Literatur
http://www.cs.cmu.edu/~tom/mlbook.html
1. Introduction
2. Concept Learning and the General-to-Specific Ordering
3. Decision Tree Learning
4. Artificial Neural Networks
5. Evaluating Hypotheses
6. Bayesian Learning
7. Computational Learning Theory
8. Instance-Based Learning
9. Genetic Algorithms
10. Learning Sets of Rules
11. Analytical Learning
12. Combining Inductive and Analytical Learning
13. Reinforcement Learning
Machine Learning
https://www.cs.bris.ac.uk/~flach/mlbook/
Prologue: a machine learning sampler
1. The ingredients of machine learning
2. Binary classification and related tasks
3. Beyond binary classification
4. Concept learning
5. Tree models
6. Rule models
7. Linear models
8. Distance-based models
9. Probabilistic models
10. Features
11. In brief: model ensembles
12. In brief: machine learning experiments
Epilogue: where to go from here
Important points to remember
Bibliography
Index.
Machine Learning
1. Introduction
Part I. Foundations:
2. A gentle start
3. A formal learning model
4. Learning via uniform convergence
5. The bias-complexity trade-off
6. The VC-dimension
7. Non-uniform learnability
8. The runtime of learning
Part II. From Theory to Algorithms:
9. Linear predictors
10. Boosting
11. Model selection and validation
12. Convex learning problems
13. Regularization and stability
14. Stochastic gradient descent
15. Support vector machines
16. Kernel methods
17. Multiclass, ranking
18. Decision trees
19. Nearest neighbor
20. Neural networks
Machine Learning
Part III. Additional Learning Models:
21. Online learning
22. Clustering
23. Dimensionality reduction
24. Generative models
25. Feature selection and generation
Part IV. Advanced Theory:
26. Rademacher complexities
27. Covering numbers
28. Proof of the fundamental theorem of learning theory
29. Multiclass learnability
30. Compression bounds
31. PAC-Bayes.
Knowledge Discovery in Databases Martin Ester; Jörg Sander
Kapitel 3: Clustering
Machine Learning
Stuart Russell & Peter Norvig
Artificial Intelligence: A Modern Approach
Second Edition
Prentice-Hall, 2003
ISBN 0-13-080302-2
Künstliche Intelligenz: Ein moderner Ansatz
2. Auflage
Pearson Studium, Prentice-Hall, 2004
3. Auflage
Machine Learning
Weka toolkit
http://www.cs.waikato.ac.nz/ml/weka/
Java, GPL, umfasst sehr viele
wichtigen Lernverfahren, wird seit fast
20 Jahren genutzt und
weiterentwickelt
Alternative: Rapid Miner
Machine Learning
Maschinelles Lernen
Bereits “vor der KI” als relevantes
Forschungsfeld identifiziert (A.
Turing: Computing Machinery and
Intelligence, 1950)
Definition (R. Michalski): “Lernen ist
das Konstruieren oder Verändern
von Repräsentationen von
Erfahrungen.”
Machine Learning
Motivation für Maschinelles Lernen:
• Aufgaben, die sich durch die automatischen Interpretation sehr großer
Datenmengen besser lösen lassen als durch menschliche Experten
(klassisches Beispiel: Automatische Erkennung gesprochener Sprache
und andere Mustererkennungsprobleme).
• Exploration sehr großer Datenmengen (Beispiel: Data Mining).
• Kognitive Modellierung menschlichen Lernens.
Machine Learning
Maschinelles Lernen
Motivationen (nach K. Morik):
• Prinzipien menschlichen Lernens mit Hilfe
von operationalen Modellen untersuchen.
• Operationalisierung von
Schlussfolgerungen (insbes. Induktion).
• Verbesserung der Arbeit mit Computern.
Machine Learning
• Entscheidungsbäume
• Neuronale Netzwerke
• Regelinduktion
• Nächste Nachbarn
• Stochastische
• Genetische
Lernverfahren
Algorithmen
Machine Learning
Lernverfahren
• Überwachtes Lernen (supervised learning)
• Unüberwachtes Lernen (unsupervised
learning)
• Reinforcement Learning
(Bestärkungslernen, Verstärkungslernen,
Bekräftigungslernen)
Machine Learning
Überwachtes Lernen (supervised learning)
• Trainings- und Testdaten
• Lernziel vorab bekannt (z.B. Klassifikationsschema,
Entscheidungsproblem)
• positive/negative Beispiele
• Beispiele: ID3-Algorithmus: Induktion von
Entscheidungsbäumen, C4.5 (Weiterentwicklung von ID3),
“Naive” Bayessche Klassifikation, KNN, HMM-Training,
SVMs, ...
Machine Learning
Unüberwachtes Lernen
(unsupervised learning)
• Ausgangsdaten: Rohdaten ohne explizit
spezifiziertes Lernziel.
• Beispiele: Clustering (z.B. Hierarchisches Bottomup-Clustering und Clustering mit K-meansAlgorithmus), Assoziationslernen,
Dimensionsreduktion, ...
• Ziel: Entdeckung “interessanter” Strukturen.
Machine Learning
Unüberwachtes Lernen
(unsupervised learning)
• Ausgangsdaten: Rohdaten ohne explizit
spezifiziertes Lernziel.
• Gibt es Rohdaten?
• Auswahl von Merkmalen, Attributen
• Granularität und Verlässlichkeit von Messungen,
Datenmenge
• Quellen, Vorverarbeitungsschritte
• “Ausreißer”
Machine Learning
Reinforcement Learning
• Positives u./o. negatives Feedback zu
Zwischenresultaten führt zu einer
inkrementellen Annäherung an das Lernziel.
• Approximation von Funktionen,
Optimierungsprobleme.
• Lernen in Multiagentensystemen.
Machine Learning
•
•
•
•
•
Maschinelles Lernen: Lerntypen
Klassifikationslernen
Regellernen
Numerische Vorhersage
Clustering
Entscheidungslernen
Machine Learning
Klassifikationslernen (überwachtes Lernen)
• Gegeben: Klassifikationssystem
• Hierarchie von Klassen (Kategorien)
• Menge von Klassen (“Schubladen”)
• Lernziel: möglichst fehlerfreie Zuordnung von Beispielen
(Instanzen) zu den Klassen.
Machine Learning
Klassifikationslernen
• Input des Klassifikators: Beispiele (Instanzen), diese
werden in Trainings- und Testdaten unterteilt.
• Output: eine Abbildung, die jeder möglichen Instanz
eine
• Klasse oder
• Menge von Klassen (evtl. leer) zuordnet, und
• Ggfs. ein Maß für (Un)sicherheit der Zuordnung
Machine Learning
Klassifikationslernen
• Trainingsdaten:
• Positive Beispiele: <bi,Kj>
• Ggfs. negative Beispiele: ~ <bi,Kj>
Diese werden verwendet um eine Zuordnung von allen
möglichen Instanzen zu einer Klasse zu bestimmen.
Machine Learning
Klassifikationslernen
• Testdaten:
• Positive Beispiele: <bi,Kj> und
• negative Beispiele: ~ <bi,Kj>
Diese werden verwendet um die Qualität der gelernten
Zuordnung zu beurteilen.
Machine Learning
Klassifikationsproblem
Machine Learning
Einzelkriterium Länge trennt nicht perfekt
Machine Learning
Auch das Merkmal “Helligkeit” allein ist nicht hinreichend
Machine Learning
Kombination beider Merkmale erlaubt eine sehr gute Trennung.
Machine Learning
Weitere Optimierungsmöglichkeiten:
• zusätzliche Merkmale.
• Nichtlineare Trennfunktion.
Overfitting?
Machine Learning
Vielleicht besser?
Machine Learning
Klassifikationslernen
• Evaluation mit Testdaten:
• Wieviele der positiven Testdaten werden vom System
als positiv erkannt (recall, Ausbeute)
• Beispiel: Wenn von 100 positiven Testdaten 90 als
Positiv erkannt wurden, hat das System (auf diesen
Testdaten) eine Ausbeute von 0,9.
Machine Learning
Klassifikationslernen
• Evaluation mit Testdaten:
• Wieviele der als Positiv beurteilten Testdaten sind
positiv (precision, Präzision).
• Beispiel: Wenn das System 100 positive Zuordnungen
vornimmt und davon sind 80 positive Testdaten, dann
hat das System (auf diesen Testdaten) eine Präzision
von 0,8.
Machine Learning
Klassifikationslernen
• Kombination von Precision und Recall:
F-Maß: 2 * (prec * rec) / (prec + rec)
• ... und Varianten mit weiterer Gewichtung usw.
Wichtig: Bedeutung dieser Qualitätsmaße hängt im Wesentlichen
vom Anwendungskontext/Erkenntnisinteresse ab:
• mangelnde Präzision von Diagnosen im Krankenhaus oder im
AKW ist nicht hinnehmbar.
• bei der heuristischen Exploration von großen Datenmengen ist
eine geringere Präzision akzeptabel. In Gerichtsverfahren ist eine
schlechte Ausbeute (unschuldig Verurteilte) zu vermeiden.
Machine Learning
Kreuzvalidierung
(k-fold crossvalidation)
- typisch: 90% Training, 10% Test, 10-fach
- extrem: Leave-one-out-Evaluation (K = N)
test data
training set
Machine Learning
Clustering
Ziel:
• Identifikation von "sinnvollen" Gruppen ("Clustern") ähnlicher
Datenpunkte in (typischerweise: sehr großen) Datenbeständen
Machine Learning
Kriterien für Clustering-Algorithmen
Standardkriterien: Komplexität (Zeit- und Raumbedarf)
Wichtige Grundcharakteristika:
• Partitionierende Algorithmen (Bsp.: k-means)
• Hierarchische Algorithmen
- agglomerativ
- divisiv
Machine Learning
Kriterien für Clustering-Algorithmen (2)
•
•
•
•
•
•
disjunkt/nicht disjunkt
crisp vs. fuzzy bzw. deterministisch vs. probabilistisch
mit/ohne Constraints (Must-Link, Cannot-Link)
Clustergeometrie
Dichte-basierte Algorithmen
Gitter-basierte Algorithmen
Machine Learning
Clustering
Ziele des Clusterings beim Text Mining
• Häufig: Identifikation von thematisch zusammenhängenden Gruppen
von Texten
Politik
Technik
Machine Learning
Sport
Clustering
Alternative Kriterien:
• Stilistische Ähnlichkeit
• Entstehungszeitpunkt
• Textsorte
• Autor
Alternative Ausgangsdaten:
• Wörter
• Distributionen
• Sprachen, Dialekte, Sprachstufen
Machine Learning
Clustering
Unüberwachtes Lernen
• Clustering als Klassifikations- oder Kategorisierungsprozess
• Aber: Die Klassen sind nicht vorab festgelegt
Machine Learning
Clustering
Partitionierendes Clustering:
Machine Learning
Hierarchisches Clustering
Venn-Diagramm
Machine Learning
Hierarchisches Clustering
Dendrogramm
Machine Learning
Hierarchisches Clustering
Dendrogramm
Divisiv (teilend) vs. Agglomerativ
(anhäufend)
Machine Learning
Clustering-Prozess
Schritte (nach Halkidi et al. 2001):
1. Auswahl von Merkmalen, ggfs. Gewichtung von Merkmalen
2. Cluster-Algorithmus
a) Ähnlichkeitsmaß (Euklidische Distanz, information radius, ...)
b) Cluster-Kriterium (Kostenfunktion, Regel, ...)
3. Validierung
4. Interpretation
Machine Learning
Clustering-Prozess
Schritte (nach Halkidi et al. 2001):
1. Auswahl von Merkmalen, ggfs. Gewichtung von Merkmalen
2. Cluster-Algorithmus
a) Ähnlichkeitsmaß (Euklidische Distanz, information radius, ...)
b) Cluster-Kriterium (Kostenfunktion, Regel, ...)
3. Validierung
4. Interpretation
Machine Learning
Ziel des Clustering
• Identifikation einer endlichen Menge von Kategorien, Klassen oder
Gruppen (Cluster) in den Daten.
• Objekte im gleichen Cluster sollen möglichst ähnlich sein.
• Objekte aus verschiedenen Clustern sollen möglichst unähnlich
zueinander sein.
Machine Learning
Ziel des Clustering
• Identifikation einer endlichen Menge von Kategorien, Klassen oder
Gruppen (Cluster) in den Daten.
• Objekte im gleichen Cluster sollen möglichst ähnlich sein.
• Objekte aus verschiedenen Clustern sollen möglichst unähnlich
zueinander sein.
Machine Learning
Was ist ähnlich?
Was hat eine kurze Distanz zueinander?
•
•
•
•
•
•
•
•
•
•
Bremen,
Syke,
Bratislava,
Hamburg,
Berlin,
Rom,
Osterholz-Schambeck,
Neustadt,
Christchurch,
Mecca.
Machine Learning
Themen der Vorlesung
Motivation, Success Story, Examples, Ingredients.
Decision Trees, Bayes' Nets.
Regression, Graphical Nets.
Classification: Binary, Neuronal Nets, Backpropagation. Percepton, SVMs.
Clustering: NN, k-means and Hierarchies.
Rule Learning: Concepts, Words, Macros, Association Rules.
Reinforcement Learning: Value and Policy Iteration, RTDP.
Recommender Systems: Collaborative Filtering and others.
Regular Languages: Automata Learning (via ID and IID).
Evolutionary Learning: GAs and PSAs.
Feature Construction, Selection and Transformations.
Monte-Carlo (Tree) Search: Bandits, UCT, NMCS, and NRPA.
Learning Theory: PAC and VC.
Current Trends in ML (e.g., Deep Learning).
Machine Learning
Unterlagen (Skripte, Literatur, Programme usw.):
Peter Flach: Machine Learning – The Art and Science of
Algorithms that Make Sense of Data. Cambridge, 1. Auflage
(2014)
Tom Mitchell: Machine Learning, McGraw Hill, (1997) + New
Chapters (Web).
Pat Langley: Elements of Machine Learning. Morgan Kaufmann
(1995).
Shai Shalev-Shwartz, Shai Ben-David. Understanding Machine
Learning. Cambridge (2014).
Christopher M. Bishop: Pattern Recognition and Machine
Learning. Information Science and Statistics, Springer (2006).
Stefan Edelkamp: Heuristic Search, Morgan Kaufmann (2012).
Richard Sutton, Andrew Barto: Reinforcement Learning, MIT.
(1998)
Recent Publications in AI conferences (e.g., AAAI, IJCAI, ECML,
ICML).
.
Machine Learning
ML-Projekte:
- FlourAnalysis (Supervised)
- RoboticTraces (Supervised)
- GVGAI (Reinforce)
- PTSP (Reinforce)
- VideoAnnotate (Supervised)
- Anomaly (Unsupervised)
Machine Learning
Zugehörige Unterlagen
Herunterladen