Fakultät für Wirtschaftswissenschaften Diplomarbeit Educational Data Mining Abschlussarbeit zur Erlangung des Grades einer Diplom-Wirtschaftsinformatikerin (FH) der Hochschule Wismar eingereicht von: Daniela Garling-Schmid geboren am 30. September 1978 in Rostock Studiengang Wirtschaftsinformatik Matrikelnummer: 117718 Erstgutachter: Prof. Dr. J. Cleve Zweitgutachter: Prof. Dr. Ing. U. Lämmel Bamberg, den 16. Juni 2015 Inhaltsverzeichnis 1 Einleitung 1 2 Grundlagen und Definitionen 2 2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2.2 EDM und Learning Analytics . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2.3 Entstehung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2.4 Einsatzbereiche und Datenquellen . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.5 Interessengruppen und Ziele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.5.1 Interessengruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.5.2 Analyse und Visualisierung von Daten . . . . . . . . . . . . . . . . . . . 11 2.5.3 Erarbeiten von Empfehlungen . . . . . . . . . . . . . . . . . . . . . . . 11 2.5.4 Entwicklung von Concept Maps . . . . . . . . . . . . . . . . . . . . . . 11 2.5.5 Gruppierung von Studenten . . . . . . . . . . . . . . . . . . . . . . . . 12 2.5.6 Entwicklung von Modellen . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.5.7 Entwicklung von Kursen . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.5.8 Leistungsprognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.5.9 Planung und Disposition . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.5.10 Unterstützung der Bildungsforschung . . . . . . . . . . . . . . . . . . . 13 2.6 Anwendungsklassen und Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 16 2.6.1 Vorhersage - Prediction . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.6.2 Strukturerkennung - Structure Discovery . . . . . . . . . . . . . . . . . . 19 2.6.3 Beziehungs-Mining - Relationship Mining . . . . . . . . . . . . . . . . . 20 2.6.4 Entdecken mit Modellen - Discovery with Models . . . . . . . . . . . . . 21 2.6.5 Sonstige Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3 Ausgewählte Beispiele aus der Literatur 24 3.1 A Survey on Pre-Processing Educational Data . . . . . . . . . . . . . . . . . . 24 3.1.1 Vorverarbeitungswerkzeuge . . . . . . . . . . . . . . . . . . . . . . . . 28 3.1.2 Schlussfolgerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.2 Web mining for self-directed e-learning . . . . . . . . . . . . . . . . . . . . . . 29 3.2.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.2.2 Self-Directed E-Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 29 II INHALTSVERZEICHNIS 3.2.3 Defizite der vorgestellten Systeme . . . . . . . . . . . . . . . . . . . . . 30 3.2.4 Web-Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.2.5 Web-Mining im E-Learning-Bereich . . . . . . . . . . . . . . . . . . . . 32 3.2.6 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.2.7 Schlussfolgerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.3 Web-based educational hypermedia . . . . . . . . . . . . . . . . . . . . . . . . 33 3.3.1 Probleme mit der „just-put-it-on-the-web“-Variante . . . . . . . . . . . . . 33 3.3.2 Adaptive (Educational) Hypermedia . . . . . . . . . . . . . . . . . . . . 34 3.3.3 AHAM - Adaptive Hypermedia Application Model . . . . . . . . . . . . . 35 3.3.4 AHA! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.3.5 Fragen, Tests und Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . 39 3.3.6 Anpassung an Lernstile . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 3.3.7 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.4 A Personalized e-Learning Material Recommender System . . . . . . . . . . . . 40 3.4.1 Vorüberlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.4.2 Framework des PLRS . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.4.3 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.4.4 Komponentendetails . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.4.5 Vorteile des Frameworks . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.5 Off-Task Behaviour in the Cognitive Tutor Classroom . . . . . . . . . . . . . . . 44 3.5.1 Studienaufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.5.2 Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.5.3 Die Beziehungen von Off-Task-Verhalten zum Lernerfolg . . . . . . . . . 46 3.5.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4 Eigene Anwendungsbeispiele 50 4.1 Zielstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.2 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.3 Lernumgebung und Rohdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.3.1 ILIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.3.2 Datensätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.4 Welche Fragen in einem Test sind besonders einfach oder besonders schwer? . 52 4.4.1 Datenvorverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.4.2 Data Mining und Evaluation 53 . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Gibt es Fragearten, die besonders häufig falsch bzw mit nicht voller Punktzahl absolviert wurden? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.5.1 Datenvorverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.5.2 Data Mining und Evaluation 56 . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Gibt es Fragenpaare oder -gruppen, die häufig gemeinsam richtig / falsch beantwortet wurden? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III 59 INHALTSVERZEICHNIS 4.6.1 Datenvorverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 4.6.2 Data Mining und Evaluation 60 . . . . . . . . . . . . . . . . . . . . . . . . 5 Fazit 62 IV Abbildungsverzeichnis 2.1 Ziele und Interessengruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.2 Anwendungsklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.3 Anwendungsklassenverteilung in der Literatur . . . . . . . . . . . . . . . . . . . 16 3.1 Hauptvorverarbeitungsschritte bei Bildungsdaten nach Romero, Romero & Ventura (2014) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.2 Verschiedene Stufen der Granularität in Beziehung zu der Datenmenge nach Romero, Romero & Ventura (2014) . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.3 Web-Mining-Taxonomie nach Desikan et al. (2006) . . . . . . . . . . . . . . . . 31 3.4 Dexter Modell und AHAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.5 AHA! Architektur nach De Bra (2006) . . . . . . . . . . . . . . . . . . . . . . . 37 3.6 Anpassung in AHA! nach De Bra (2006) . . . . . . . . . . . . . . . . . . . . . . 38 3.7 PLRS Framework nach Lu (2004) . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.8 Learning Material Tree nach Lu (2004) . . . . . . . . . . . . . . . . . . . . . . . 44 3.9 zeitliche Verteilung der Verhaltensweisen in Prozent . . . . . . . . . . . . . . . 47 3.10 Anteil der Schüler, die die Verhaltensweisen mind. ein Mal zeigten . . . . . . . . 48 3.11 Einflussfaktoren auf das Nachtestergebnis . . . . . . . . . . . . . . . . . . . . . 49 4.1 Educational Data Mining Prozess . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.2 Beispieltabellen aus der ILIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.3 Auszug aus einer ARFF-Datei . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 4.4 Auszug aus einem KNIME Workflow . . . . . . . . . . . . . . . . . . . . . . . . 54 4.5 Verteilung der erreichten Punkte . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.6 J48-Entscheidungsbaum zur TI-Testklausur . . . . . . . . . . . . . . . . . . . . 56 4.7 Datenbereinigung in Knime . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 4.8 Scatter Plot Fragetyp (X-Achse) und erreichte Prozent (Y-Achse) . . . . . . . . . 58 4.9 Scatter Plot: Test-ID (X-Achse) und erreichte Prozent (Y-Achse) . . . . . . . . . 58 4.10 Scatter Plot: Frage (X-Achse) und durchschnittlich erreichte Prozent (Y-Achse) . 59 4.11 Scatter Plot: Fragetyp (X-Achse) und durchschnittlich erreichte Prozent (Y-Achse) 59 4.12 EDM-Workflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 4.13 Gefundene Assoziationsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 V Tabellenverzeichnis 2.1 Vergleich EDM und LAK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2.2 Datenquellen und Fragestellungen für das Data Mining in verschiedenen Bildungsbereichen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 3.1 Verschiedene Arten von Daten und Data Mining Techniken nach Romero, Romero & Ventura (2014) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.2 Datenvorverarbeitungswerkzeuge nach Romero, Romero & Ventura (2014) . . . 28 3.3 Beispiele für web-basierte E-Learning Anwendungen . . . . . . . . . . . . . . . 30 3.4 inhaltsorientierte und kooperationsorientierte Recommender-Systeme . . . . . . 41 3.5 Korrelationskoeffizienten verschiedener Verhaltensweisen zum Nachtestergebnis nach Baker et al. (2004) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.6 Vergleich zwischen Gamern und Nicht-Gamern mit niedrigem Vorwissen . . . . . 48 5.1 SWOT-Analyse der EDM-Forschung nach Papamitsiou & Economides (2014) . . 64 VI Abkürzungsverzeichnis AHS Adaptive Hypermedia Systems AIWBES Adaptive and Intelligent Web-Based Educational Systems BKT Bayesian Knowledge Tracing DM Data Mining EDM Educational Data Mining HAC Hierarchical Agglomerative Clustering IEDMS International Educational Data Mining Society ITS Intelligent Tutoring Systems LA Learning Analytics LAK Learning Analytics and Knowledge LCMS Learning Content Management System MOOC Massive Open Online Course PDF Probability Density Function PLE Personal Learning Environment PLRS Personalized Learning Recommender System SNA Social Network Analysis SMI Supervised Model Induction SVM Support Vector Machines SWE Selbstwirksamkeitserwartung WCM Web Content Mining WLM Web Log Mining WSM Web Structure Mining WUM Web Usage Mining VII Kapitel 1 Einleitung Anfang 2013 veröffentlichte der IT-Branchenverband BITKOM unter der Schlagzeile „E-Learning gewinnt rasant an Bedeutung“ eine repräsentative Umfrage der BITKOM Research, nach der über die Hälfte der Bundesbürger zwischen 14 und 29 Jahren bereits E-Learning Angebote genutzt haben. Knapp zwei Drittel der Unternehmen aus der Informations- und Kommunikationstechnikbranche nutze digitale Lernformen, wobei Online-Trainings am beliebtesten seien.1 Die grosse Verbreitung computergestützter Bildungsangebote und -systeme führt zu einer verstärkten Produktion von großen und komplexen Datenmengen im Bildungsbereich, die mit klassischen Methoden der Datenverarbeitung kaum ausgewertet werden können. Das durch sinkende Speicherpreise leichtere Sammeln dieser Daten gepaart mit Fortschritten in der computergestützten Auswertung kann bei der Verbesserung von formalen Lernprozessen hilfreich sein. 2 Der Fokus innerhalb von Educational Data Mining (EDM) liegt auf der Verwendung von Data Mining Methoden mit diesen grossen Datenmengen, um Lernprozesse und damit auch die Effektivität von Bildungsangeboten zu verbessern. Es gibt eine Vielzahl von Schwerpunkten innerhalb des EDM, zum Beispiel die Senkung von Schulabbruchraten, die Personalisierung von Lernangeboten und die Auswertung von Lernverhalten innerhalb von Kursmanagementsystemen. 3 Diese Diplomarbeit gibt einen Überblick über die Disziplin EDM. Einleitend werden Grundlagen dargestellt, es wird auf Einsatzbereiche, Ziele und Interessengruppen sowie Anwendungsklassen und Verfahren eingegangen. In Kapitel 3 werden ausgewählte Beispiele aus der Literatur angeführt und schliesslich werden in Kapitel 4 einige Beispiele anhand von Daten aus dem Lernmanagementsystem ILIAS vorgestellt. In Kapitel 5 werden Schwachstellen und Risiken angesprochen und ein Fazit gebildet. 1 BITKOM (2013), S. 1. Vgl. SIEMENS, G. (2012), S. 252-254. 3 Vgl. HUEBNER, R. (2013), S. 1-13. 2 1 Kapitel 2 Grundlagen und Definitionen 2.1 Definition Romero und Ventura definieren Data Mining (DM) kurz als „Prozess durch den interessante, interpretierbare, nützliche und neue Informationen aus Daten extrahiert werden“. 1 EDM wiederum definieren dieselben Autoren als „die Anwendung von Data Mining Verfahren auf die speziellen Arten von Datensätzen, die aus dem Bildungsbereich stammen, um sich mit wichtigen Fragen der Bildung auseinanderzusetzen“. 2 Die International Educational Data Mining Society (IEDMS) definiert EDM wie folgt: „Educational Data Mining ist eine aufkommende Disziplin, deren Inhalt es ist, Methoden zu entwickeln, um die speziellen Arten von Daten aus dem Bildungsbereich zu erforschen, zu analysieren und auszuwerten, um dadurch das Lernverhalten und die Lernszenarien von Studenten verstehen zu können“. 3 besser 4 Die Disziplin EDM beschäftigt sich also mit der Entwicklung, Erforschung und Anwendung von computergestützten Methoden, um Muster in grossen Mengen von Bildungsdaten zu entdecken, die andernfalls aufgrund der enormen Menge an Daten, in denen sie sich befinden, schwierig bis unmöglich auffindbar wären. 5 Ein erster Workshop zum Thema EDM fand 2005 statt, jährliche Konferenzen gibt es seit 2008. 2009 erschien erstmalig das EDM-Journal. 2011 wurde die IEDMS gegründet, die 2014 bereits 240 Mitglieder zählte. 6 1 Vgl. ROMERO, C., VENTURA, S. (2010), S. 601-618. Vgl. ROMERO, C., VENTURA, S. (2013), S. 12-27. 3 Englisch: students, gemeint sind stets Schüler, Studenten und sonstige Lernende, also all jene, die Bildungsangebote nutzen. 4 IEDMS (2015). 5 Vgl. ROMERO, C., VENTURA, S. (2013), S. 12-27. 6 Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. 2 2 2.2. EDM UND LEARNING ANALYTICS 2.2 EDM und Learning Analytics EDM arbeitet mit und erweitert verwandte Disziplinen wie Machine Learning, Text Mining und Statistik. Weitere wichtige Einflüsse stammen aus dem Gebiet der Psychometrie und der Web Log Analyse. 7 EDM ist zudem eng verwandt mit Learning Analytics (LA auch LAK für Learning Analytics and Knowledge). Beide Gebiete teilen sich das Interesse an datenintensiven Herangehensweisen an die Bildungsforschung sowie das Ziel die Bildung als solche zu verbessern. Schon die Definitionen sind einander ähnlich. LA definiert sich als „.. die Messung, Sammlung, Analyse von und Berichterstellung aus Daten über Lernende und die Zusammenhänge, um das Lernen und die Lernumgebungen besser zu verstehen und zu optimieren.“ Beide Communities haben also das Ziel die Qualität der Analyse grosser Datenmengen aus dem Bildungsbereich zu verbessern, um damit sowohl Grundlagenforschung als auch die praktische Bildung zu verbessern. Trotzdem haben beide Bereiche unterschiedliche Wurzeln und Ansätze. Siemens und Baker erstellten 2012 eine Übersicht der Hauptunterscheidungspunkte, versahen diese jedoch mit dem Hinweis, dass die Grenzen fliessend seien und gerade durch das Lernen voneinander und die Zusammenarbeit zwischen den Disziplinen immer mehr verschwimmen.8 Tabelle 2.1 zeigt, dass EDM ein größeres Augenmerk auf automatisierte Datenanalyse legt, während bei LA die Beurteilung und Interpretation durch den Menschen eine größere Rolle spielt. EDM fokussiert eher auf einzelne Bestandteile des Bildungs- bzw Lernsystems während LAK es in seiner Gänze mit all seiner Komplexität betrachtet. Die Ergebnisse werden bei EDM vorzugsweise automatisiert implementiert, bei LA dienen sie der Stärkung der Lernenden und Lehrenden. Der Einsatz der Techniken und Methoden verändert sich über die Zeit. Baker und Inventado (2014) halten u.a. fest, dass Vorhersagemodelle und Strukturanalyse in beiden Lagern beliebt seien. Domain-Strukturanalyse ist bei EDM stärker vertreten. Auch Relationship Mining und Discovery with Models werden häufiger bei EDM angewandt. (Soziale) Netzwerkanalyse sowie Textanalyse in Form von Text Mining und Diskursanalyse hingegen sind beliebte Methoden bei LAK. 9 2.3 Entstehung Im herkömmlichen Frontalunterricht können Lehrende direkte Rückmeldung von den Schülern erhalten und dadurch ggf. eine kontinuierliche Anpassung und Verbesserung ihres Unterrichts gewährleisten. Dazu können sie das Verhalten der Schüler beobachten, Erfahrungswerte in Betracht ziehen und die Effektivität verschiedener pädagogischer Strategien abschätzen. Viele der ersten webbasierten E-Learning-Angebote bestanden jedoch aus statischem Material, das in keiner Weise auf die Lernenden und ihre Unterschiede eingehen konnte. Die Antwort waren intelligente adaptive Systeme, die mithilfe von Daten aus Serverzugriffsstatistiken und dem auf7 Vgl. SCHEUER, O., McLAREN, B. (2012), S. 1075-1079. Vgl. SIEMENS, G., BAKER, R. (2012), S. 252-254. 9 Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. 8 3 2.3. ENTSTEHUNG Schwerpunkt Reduktion & Holismus EDM automatisierte Entdeckung von Zusammenhängen. Menschliches Urteil wird eingesetzt, um das Ziel zu erreichen. Größeres Augenmerk auf die Reduktion auf einzelne Bestandteile und die Analyse individueller Komponenten und der Beziehungen zwischen ihnen Wurzeln Starke Wurzeln in der Bildungssoftware und Student Modeling sowie der Vorhersage von Kursergebnissen Anpassung & Personalisierung Größerer Fokus auf automatisierter Anpassung durch den Computer ohne menschliche Beteiligung LAK Die Nutzung des menschlichen Urteils steht im Mittelpunkt. Automatisierte Entdeckungen sind Mittel, dieses Ziel zu erreichen. Größeres Augenmerk auf das Verstehen von Systemen als Ganzes LAK entstammt eher dem Bereich der Semantik, des „Intelligenten Lehrplans“, Ergebnisvorhersage und der systemischen Interventionen Der Fokus liegt auf dem Informationsgewinn für und der Stärkung von Lehrenden und Lernenden Tabelle 2.1: Vergleich EDM und LAK gezeichneten Lernverhalten des Studenten, seiner Ziele, Präferenzen und seines vorhandenen Wissens umfassende Lernprofile erstellen konnten. Diese Systeme versuchen den Lernenden personalisierte Bildung anzubieten und so die Lernerfahrungen zu bereichern. 10 Das Ziel von EDM ist das Entdecken nützlicher Informationen in den großen Mengen digitaler Daten, die von elektronischen Bildungssystemen erfasst werden. 11 Dabei zählen zu den hierfür interessanten Daten nicht nur die Interaktionen zwischen Studenten und Lernsystem (Navigation, Testeingaben, interaktive Übungen) sondern auch Daten aus der Zusammenarbeit mehrerer Studenten (Chatlogs), administrative Daten (Schule, Schulbezirk, Lehrer) und demographische Daten (Geschlecht, Alter, Schulnoten). Auch Daten über die Stimmung, Motivation und Gefühlslage von Schülern können berücksichtigt werden. 12 Mithilfe von Methoden aus dem Bereich des Data Mining kann dann also das Lern- und Nutzungsverhalten von Studierenden im E-Learningbereich analysiert und ausgewertet werden, um so die Effizienz des jeweiligen Systems zu bewerten und gegebenenfalls die Gestaltung anzupassen.13 Zu den vielversprechendsten frühen Arbeiten zählt die Entwicklung von e-Learning Recommendation Agents14 . Diese observieren was ein Student gerade tut und empfehlen darauf basierend für ihn sinnvolle Aktionen (Aktivitäten, Shortcuts, Inhalte, etc.). Recommender Agents können auch in sich selbst weiterentwickelnde E-Learning-Systeme integriert werden. Diese Systeme 10 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. Vgl. KULKARNI, S., RAMPURE, G., YADAV, B. (2013), S. 773-777. 12 Vgl. SCHEUER, O., McLAREN, B. (2012), S. 1075-1079. 13 Vgl. PAHL, C. (2006), S. 41-57. 14 LU, J. (2004), S. 374-380. 11 4 2.4. EINSATZBEREICHE UND DATENQUELLEN finden Materialien im Internet und ordnen sie eigenständig ein. Damit helfen Sie Lehrenden aus heterogenen Quellen wie dem Internet die Materialien auszuwählen, die am besten für die Zusammenstellung neuer Kurse geeignet sind. 15 Auf der fünften Internationalen EDM Konferenz im Jahr 2012 formulierten Dolan und Behrens fünf Hoffnungen, die sie im Zusammenhang mit EDM hegten. Diese beginnen jeweils mit: „Wir hoffen, EDM wird ...“ 1) die Vielfalt an sozialen und organisatorischen Aspekte von Bildung und ihrer Verwaltung berücksichtigen, inklusive informellem und ubiquitärem Lernen. 2) die Vielfalt an Eingangsgrößen und digitalen Artefakten, die bei dem Entwurf von Lernsystemen eine Rolle spielen, berücksichtigen (nicht nur die Ergebnisse von Interaktionen mit dem System). 3) Data Mining als menschliche Bemühung verstehen, was an sich bereits ein eigenes Thema psychologischer, soziologischer und anderer akademischer Disziplinen darstellt. 4) nicht die Grundlagen von qualitativ hochwertiger Datenanalyse vergessen, ungeachtet der rechenbetonten Techniken. 5) Informationen bereitstellen, die die Vielfalt effektiver Pädagogiken feiert und das Lernen von Sonderfällen, versteckten Clustern und sonstigen speziellen Gruppen von Menschen, die im Durchschnitt und sonstigen unsensiblen Aggregaten untergehen, unterstützen. 16 2.4 Einsatzbereiche und Datenquellen Data Mining kann auf Daten angewandt werden, die aus verschiedenen Bildungssystemen kommen. Romero und Ventura unterscheiden grob zwischen traditionellem Unterricht in Klassenzimmern und Fernbildung. Letztere unterteilen sie in die Kategorien web-basierte Kurse, pädagogische Content Management Systeme (Learning Content Management Systems (LCMS)) und „adaptive und intelligente web-basierte Bildungssysteme“ (Adaptive and intelligent web-based educational systems (AIWBES)). Die anzuwendenden Techniken, Datenquellen und Zielvorgaben differieren teils stark zwischen den verschiedenen Einsatzgebieten. 17 Eine aufbereitete Zusammenfassung findet sich in Tabelle 2.2. Die Übersicht der Datenquellen kann um massive offene Onlinekurse (Massive Open Online Courses, MOOCs), computerbasierte Bildungsangebote (die in keine andere Kategorie fallen, z.B. Desktopanwendungen) und mobiles Lernen (Lernprogramme, die ausschliesslich oder primär auf mobilen Endgeräten genutzt werden, „Apps“) ergänzt werden. Weitere Quellen können auch Fragebögen, Interviews und Google Analytics sein. Häufig bedienen sich Data Miner auch öffentlicher Datensätze, z.B. aus dem PSLC Data Shop18 . 19 15 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. Vgl. DOLAN, B., BEHRENS, J. (2012), S. 7. 17 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. 18 PSLC Data Shop (2015). 19 Vgl. PAPAMITSIOU, Z., ECONOMIDES, A. (2014), S. 49-64. 16 5 2.4. EINSATZBEREICHE UND DATENQUELLEN LCMS (auch LMS) sind Plattformen, die viele verschiedene Kanäle und Arbeitsumgebungen anbieten. Den Kursteilnehmern wird so der Informationsaustausch und die Kommunikation untereinander und mit den Tutoren ermöglicht. Ausbilder können Kursmaterial an die Studenten verteilen, Inhalte erstellen, Aufgaben und Tests vorbereiten, in Diskussionen mitwirken und Fernstudienklassen verwalten, gemeinsames Lernen mithilfe von Foren und Chats fördern. Diese Systeme sammeln grosse Mengen an Logdaten über die Aktivitäten der Studenten und haben üblicherweise eingebaute Beobachtungsfunktionen. Obwohl einige dieser Plattformen auch Berichtswerkzeuge bereitstellen wird es schnell unübersichtlich für Tutoren sinnvolle Informationen zu extrahieren - gerade bei einer großen Menge von Studenten. 20 AIWBES sind eine Alternative zu den traditionellen „just-put-it-on-the-web“-Ansätzen. Sie streben eine höhere Anpassungsfähigkeit an den einzelnen Studenten an, indem sie ein Profil aus Zielen, Vorlieben und des Wissens des Studenten bauen und dieses Modell während jeder Interaktion mit ihm nutzen, um seinen Bedürfnissen gerecht zu werden. AIWBES sind das Resultat einer gemeinsamen Entwicklung aus Intelligent Tutoring Systems (ITS) und Adaptive Hypermedia Systems (AHS). Die Daten aus AIWBES sind umfangreicher und ermöglichen eine diagnostischere Auswertung. 21 Betrachtet und untersucht werden z.B. Login Häufigkeit, Anzahl der Chatnachrichten zwischen Teilnehmern, Anzahl der Fragen an den Ausbilder, Anzahl der angefragten Hinweise, Antwortzeiten bei der Beantwortung von Testfragen oder sonstigen Aufgaben, besuchte Ressourcen, vorherige Noten, Abschlussnoten in Kursen, detaillierte Profile, Einstellungen im LMS, Forenund Diskussionseinträge, beobachtete Emotionen (Langeweile, Frustration, Verwirrung, Freude, etc) usw. 22 20 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. 22 Vgl. PAPAMITSIOU, Z., ECONOMIDES, A. (2014), S. 49-64. 21 6 Fragestellungen Datenquellen Bereich 7 LCMS Wie nutzen Studenten den Kurs? In welcher Reihenfolge lernen die Studenten das Material?, Welche Seiten / Themen werden ausgelassen?, Wieviel Zeit verbringen die Studenten auf einer Seite, mit einem Kapitel oder dem gesamten Kurs? DM wird zur Untersuchung, Visualisierung und Analyse der Daten eingesetzt, - um sinnvolle Muster zu erkennen, - um Aktivitäten besser bewerten zu können, - um objektives Feedback zu Kursen zu erhalten, - um zu erfahren, wie die Studenten mit dem LCMS lernen Web Access Logs, Server Logs, Client Logs umfangreiche Logdateien mit Informationen zu Nutzungsverhalten und Nutzeraktivitäten Nutzerprofile, (lesen, schreiben, Tests Seiteninhalt, absolvieren, Kommunikation mit Seitenstruktur, anderen Studenten oder dem Nutzungsdaten Ausbilder, Aufgaben lösen,...), Datenbank mit Nutzerprofilen und akademischen Leistungen Webbasierte Kurse Fernbildung AES AIWBES DM kann eingesetzt werden, - um die Ursachen für Probleme im System zu ermitteln, - um das Niveau an den Lernfortschritt des Studenten anzupassen, - um den Studenten personalisierte Lernerlebnisse und Aktivitäten vorzuschlagen Domain Model, pädagogische Datensätze (Aufgaben mit Antworten und Angaben zu ihrem Schwierigkeitsgrad), Interaktionslogs, Nutzerprofile (Student Models) ITS Tabelle 2.2: Datenquellen und Fragestellungen für das Data Mining in verschiedenen Bildungsbereichen Wieviele Studenten werden sich in einen Kurs eintragen?, Welche Studenten brauchen Hilfe, um zu bestehen / ihren Abschluss zu machen?, In welchem Kurs wird ein Student am wahrscheinlichsten gut abschneiden?, Was trägt am meisten zum Lernerfolg bei? Wie lassen sich sinnvoll Studiengrupen bilden? Anwesenheitslisten, Kursinformationen, Lehrpläne, Testergebnisse, Schülerakten, Personalakten des Lehrpersonals, Klassenbücher, Stundenpläne Traditionelle Bildung 2.4. EINSATZBEREICHE UND DATENQUELLEN 2.5. INTERESSENGRUPPEN UND ZIELE 2.5 Interessengruppen und Ziele EDM bietet umfangreiche Analysemöglichkeiten für viele sehr unterschiedliche Fragestellungen und Probleme in der Bildungsforschung und -entwicklung. Dies wird sowohl durch die Vielzahl an Interessengruppen als auch durch die Menge an Zielvorgaben und Vorstellungen widergespiegelt. In ihrer ersten Übersichtsarbeit 200723 betrachteten Romero und Ventura drei Interessengruppen, 201024 ergänzten sie zwei weitere. - Schüler / Studenten (2007) - Lehrkräfte (2007) - Personen mit Verwaltungs- oder Administrationsaufgaben (2007) - Kurs(-software-)entwickler / Bildungsforscher (2010) - Bildungseinrichtungen (2010) Ausgewählte Fragestellungen lauteten und lauten beispielsweise25 : Für Studenten: - Wie wählt man am besten einen Kurs aus (basierend auf Vorhersagen, wie gut man darin abschneiden wird)? Für Lehrkräfte: - Welche Lernerlebnisse tragen am meisten zum Lernergebnis bei? - Warum ist eine Klasse besser als die andere? - Wie lassen sich Studenten in Lerngruppen zusammenfassen? Für die Verwaltung: - Welche Zugangsvorraussetzungen gibt es? - Wie groß wird die Klassenstufe? Für Bildungseinrichtungen: - Welche / Wieviele Studenten werden sich in einen bestimmten Kurs eintragen? - Welche Studenten brauchen Hilfe, um zu bestehen / ihren Abschluss zu machen? Unterschiedliche Autoren gliedern die Ziele und Arbeitsschwerpunkte von EDM zum Teil sehr unterschiedlich. Zum Beispiel fasste Baker die wichtigsten Arbeitsbereiche in vier Punkten zusammen26 : 23 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. Vgl. ROMERO, C., VENTURA, S. (2010), S. 601-618. 25 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. 26 Vgl. BAKER, R. (2010), S. 112-118. 24 8 2.5. INTERESSENGRUPPEN UND ZIELE - die Verbesserung von Studentenprofilen (Student Models) - das Auffinden und Verbessern von Domänenmodellen (Domain Models) - das Untersuchen des pädagogischen Nutzens von Lernsoftware - wissenschaftliche Entdeckungen über das Lernen und Lernende Eine umfassendere Aufstellung, bei der es jedoch zum Teil zu Überschneidungen kommt, findet sich bei Romero und Ventura27 : - die Analyse und das Visualisieren von Daten - das Bereitstellen von Feedback zur Unterstützung der Lehrkräfte - die Formulierung von Empfehlungen für Studenten - das Vorhersagen studentischer Leistungen - das Entwickeln von Studentenprofilen (Student Modeling) - das Feststellen von unerwünschtem Lernverhalten - das Gruppieren von Studenten - die Analyse sozialer Netzwerke (Social Network Analysis) - die Entwicklung von Concept-Maps - die Entwicklung von Kursen - die Planung und Disposition Mit dem Wachsen der EDM-Gemeinde und der Entwicklung neuer Mining-Methoden erweiterten sich auch die Arbeits- und Forschungsgebiete. In Abbildung 2.1 wird eine Kategorisierung in starker Anlehnung an die obige Taxonomie mit Berücksichtigung aktueller Aufgabenbereiche mit einer Zuordnung zu Nutzniessern vorgestellt, die im Anschluss näher erläutert wird. Die Informationen und Beschreibungen wurden zusammengetragen aus Romero & Ventura (2007)28 , Romero & Ventura (2010)29 , Scheuer & McLaren (2012)30 , Huebner (2013)31 , Baker & Yacef (2009)32 , Baker (2010)33 und Papamitsiou & Economides (2014)34 . 27 Vgl. ROMERO, C., VENTURA, S. (2010), S. 601-618. ROMERO, C., VENTURA, S. (2007), S. 135-146. 29 ROMERO, C., VENTURA, S. (2010), S. 601-618. 30 SCHEUER, O., McLAREN, B. (2012), S. 1075-1079. 31 HUEBNER, R. (2013), S. 1-13. 32 BAKER, R., YACEF, K. (2009), S. 3-16. 33 BAKER, R. (2010), S. 112-118. 34 PAPAMITSIOU, Z., ECONOMIDES, A. (2014), S. 49-64. 28 9 2.5. INTERESSENGRUPPEN UND ZIELE Analyse und Visualisierung Erarbeiten von Empfehlungen Studenten Entwicklung von Concept Maps Ausbilder Entwicklung von Kursen Gruppierung von Studenten Kursentwickler Leistungsprognose Entwicklung von Modellen Bildungseinrichtungen Planung und Disposition Bildungsforschung Unterstützung der Bildungsforschung Abbildung 2.1: Ziele und Interessengruppen 2.5.1 Interessengruppen Die folgende Aufstellung entstand in enger Anlehnung an Romero und Venturas Übersicht35 . Studenten Zu dieser Gruppe gehören Schüler, Studenten und sonstige Lernende also all jene, die Bildungsangebote nutzen. Ausbilder Hierzu zählen sämtliche Personen mit Lehrtätigkeit, Ausbilder, Lehrer, Professoren, Dozenten, Tutoren – also Lehrkräfte im Allgemeinen. Bildungseinrichtungen Als Nutzniesser fallen in diesen Bereich nicht nur Universitäten und Schulen, sondern alle privaten und öffentlichen Organisationen und Einrichtungen, die Bildung anbieten bzw. deren Entscheidungsträger, mit deren Verwaltung betraute oder an deren Gewinn beteiligte Personen. Auch Verantwortliche aus der Politik zählen zu dieser Kategorie. 35 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146., Vgl. ROMERO, C., VENTURA, S. (2010), S. 601-618. 10 2.5. INTERESSENGRUPPEN UND ZIELE Kursentwickler Gemeint sind Entwickler von Lernsoftware. Bildungsforschung Personen und Institute, die sich mit pädagogischer Forschung beschäftigen, gehören zu dieser Interessengruppe. 2.5.2 Analyse und Visualisierung von Daten Die Analyse von Daten ist im Data Mining eine allumfassende Aufgabe, die Bestandteil jeder Untersuchung ist. Aber erst die Visualisierung, z.B. die Berichterstellung für Ausbilder und Verwaltungsmitarbeiter oder die graphische Aufbereitung von Forschungsergebnissen für Kursentwickler, Studenten oder Administratoren verhilft zu einem besseren Verständnis des neu gewonnenen Wissens. Durch die Analyse und Visualisierung von Daten kann also nicht nur den Lehrkräften objektives Feedback in leicht interpretierbarer Form gegeben werden, auch für alle anderen Nutzniesser und Aufgabenbereiche sind diese Arbeitsschritte wichtig, da die anschauliche Darstellung des gefundenen Wissens massgeblich zur Akzeptanz der Resultate beiträgt. 2.5.3 Erarbeiten von Empfehlungen Das Entwickeln von Personal Learning Environments (PLE) und „Recommender Systems“ ist eines der prominentesten Ziele im EDM. Hier geht es vordergründig um die Verbesserung des Lernerlebnisses und des Lernerfolgs von Studenten. Dazu gehören die Unteraufgaben der Personalisierung des Lernens im Allgemeinen und im Besonderen die Anpassung aller Empfehlungen - seien es Kursempfehlungen, Buchempfehlungen, Literaturempfehlungen - an die Erfahrungen und Vorlieben eines Studenten. Dies kann unter anderem auf Basis der bereits belegten Kurse und erzielten Ergebnisse, der gelesenen Kapitel, der Ergebnisse von Tests oder Fragebögen, der Systemeinstellungen in einem LMS, der Browserhistorie oder auch der Daten ähnlicher Studenten geschehen. Für EDM ist an dieser Stelle unter anderem die Social Network Analysis (SNA) interessant, bei der zur Bestimmung der Vorlieben auch die Daten der sozialen Beziehungen zwischen Individuen berücksichtigt werden. In diesem Zusammenhang gelten Gruppen von Menschen, Organisationen oder Gruppen von Freunden oder Kollegen als soziales Netzwerk. „Collaborative Filtering“ ist zum Beispiel eine Methode, bei der Vorhersagen über die Interessen eines Nutzers anhand der Vorlieben vieler Nutzer gemacht werden. 2.5.4 Entwicklung von Concept Maps Concept Maps sind graphische Darstellungen von Begriffen / Konzepten und ihren Zusammenhängen. So kann die hierarchische Struktur von Wissen dargestellt werden. Die Aufgabe von EDM ist es, bei der automatisierten Entwicklung solcher Übersichten zu unterstützen. Dies kann 11 2.5. INTERESSENGRUPPEN UND ZIELE wiederum den Lehrkräften helfen, das Lehrmaterial, den Kursaufbau und den Lernprozess besser zu strukturieren. 2.5.5 Gruppierung von Studenten Die automatisierte Gruppierung von Studenten auf Basis derer Eigenschaften, Bedürfnisse und Leistungen erleichtert es Ausbildern wie auch Kursentwicklern, auf individuelle Bedürfnisse näher eingehen zu können und Gruppenprojekte erfolgreicher zu gestalten. 2.5.6 Entwicklung von Modellen Die Entwicklung und Verbesserung von Modellen und die Arbeit mit diesen ist eines der neueren und vielversprechenden Arbeitsgebiete innerhalb von EDM. Hierzu zählen zwei Bereiche: die Parameterfindung und Erstellung von Studentenprofilen und das Bilden von Domänenmodellen. Studentenprofile werden zumeist in Intelligenten Tutorsystemen eingesetzt, wo sie in Echtzeit ausgewertet werden und zur Personalisierung herangezogen werden. Sie enthalten detaillierte Informationen über den Studenten, seine Charakteristiken, Stimmungen, Motivationsgrad, Wissensstand und innere Einstellungen, die aus beobachtbarem und messbarem Verhalten während der Arbeit mit dem System gewonnen werden. Mit dem Herausstellen individueller Unterschiede zwischen Studenten wird es möglich, Software herzustellen, die auf diese Unterschiede reagiert und damit das Lernen signifikant verbessert. Solche Modelle wurden in der Vergangenheit angewendet, um abzuleiten, ob Studenten das System zu überlisten versuchen, eine schlechte Selbstwirksamkeitserwartung (SWE) haben, abgelenkt, gelangweilt oder gar frustriert sind aber auch ob jemand einen Fehler „aus Versehen“ gemacht hat - also eine falsche Antwort gewählt hat, obwohl er die richtige Antwort kennt. Mithilfe dieser Profile lassen sich das Wissen von Studenten und deren künftige Leistungen besser voraussagen. Ein Ziel von EDM ist die automatisierte Erstellung von Studenten- und Verhaltensprofilen durch die Identifizierung von relevanten Parametern und Mustern. Domänenquerschnitte wiederum sind Modelle der Wissensstruktur, der Konzepte, vermittelten Fähigkeiten, Lernschwerpunkte und ihrer Zusammenhänge in einem System. Dabei berücksichtigen diese Systemquerschnitte auch Aspekte der menschlichen Wahrnehmung, des Wissens und der Problemlösungsfähigkeiten. Es wurden durch EDM Methoden entwickelt, die anhand der im System befindlichen Daten automatisiert und schnell akkurate Domain Models entwerfen und existierende Modelle bewerten. 2.5.7 Entwicklung von Kursen Ziel ist es, dass Ausbilder und Entwickler den Aufbau und die Entwicklung von Kursen automatisiert durchführen können. Hierfür wird unter anderem Material aus heterogenen Quellen wie dem Internet herausgefiltert und in bestehende Kurse integriert, bzw zur Integration vorgeschlagen. Auch die Wiederverwendung von vorhandenem Kursmaterial von anderen Kursen / 12 2.5. INTERESSENGRUPPEN UND ZIELE Nutzern / Systemen für die Erstellung neuer Kurse wird begünstigt. Es wird dafür nach Informationen darüber gesucht, wie Kursinhalte sich besser und automatisiert anpassen lassen. Auch die Kursstruktur kann in Bezug auf ihre Effektivität für den Lernprozess analysiert werden. Webseiten können restrukturiert werden, um Kursinhalte personalisieren zu können, die Inhalte an den Lernfortschritt anzupassen und personalisierte Lehrpläne zu entwickeln. 2.5.8 Leistungsprognose Für Bildungseinrichtungen und Ausbilder ist eine möglichst genaue Einschätzung der von Studenten zu erwartenden Leistungen von Interesse. Durch die frühzeitige Erkennung von potentiellen Bildungsabbrechern kann den Problemen dieser Studenten proaktiv begegnet werden. Die fundiertere Beurteilung von Studenten, gerade hinsichtlich Erfolgs- wie auch Risikofaktoren und unerwünschter Verhaltensweisen (niedrige Motivation, Täuschung, akademische Misserfolge, Missbrauch, etc.) ist eine wichtige Vorraussetzung zur Effektivitätssteigerung. Das Aufspüren von Faktoren, die mit studentischem Versagen einhergehen, erleichtert es Lehrkräften rechtzeitig zu erkennen, welche Studenten Hilfe und Unterstützung benötigen. 2.5.9 Planung und Disposition Im Rahmen dieses Aufgabenbereichs werden Methoden des DM eingesetzt, um das zukünftige Kursangebot und Lehrpläne zu entwickeln, der Verwaltung Messgrößen anzubieten, die sie bei der Disposition der vorhandenen Ressourcen unterstützen, beim Zulassungsprozess zu helfen, usw. Einflussgrößen auf die Effizienz von Webseiten (optimale Servergröße, Verteilung des Netzaufkommens) werden ermittelt, so dass sie an das Nutzerverhalten angepasst werden können. EDM kann dazu beitragen, die institutionelle Effizienz zu steigern, die kostengünstigsten Methoden zu ermitteln, um Schulabbruchraten zu senken und Noten zu verbessern, die am besten qualifizierten Bewerber zur Zulassung zu ermitteln, das Kursangebot auf Basis des größten Nutzens zu erweitern, Lehrer und Lehrpläne zu beurteilen und auch die Effektivität von Fernstudiengängen zu bewerten. 2.5.10 Unterstützung der Bildungsforschung Die Unterstützung bei der Untersuchung von Phänomenen im Bildungssektor ist ein weiteres Einsatzgebiet für EDM. Das Ziel ist das Finden empirischer Belege für die Weiterentwicklung und Erweiterung von Theorien, um ein besseres Verständnis der Zusammenhänge und Schlüsselfaktoren, die das Lernen beeinflussen, zu erlangen. Oft wird dies mit dem Ziel verbunden, bessere Lernsysteme zu gestalten. Untersucht wird hierfür ganz allgemein das Lernen und Lernverhalten, sowohl das individuelle Lernen als auch das Lernen in Gruppen mithilfe von Bildungssoftware, das Durchführen von Prüfungen mithilfe des Computers, die Effektivität computergestützter Fernkurse und der pädagogische Nutzen von Lernsoftware. Herauszufinden, 13 2.5. INTERESSENGRUPPEN UND ZIELE welche der Funktionen eines LMS am nützlichsten ist, ist eine beliebte Aufgabe innerhalb der EDM-Gemeinde. Auch der Vergleich verschiedener Data Mining Techniken, um die geeignetste für jede Aufgabe zu ermitteln und die Entwicklung spezieller Data Mining Werkzeuge für die konkreten und speziellen Herausforderungen von Daten aus dem Bildungsbereich ist Bestandteil dieses Aufgabenbereichs. Das Hauptziel ist das Lernen als solches zu vereinfachen und zu verbessern. 14 Text Mining Statistik und Visualisierung Assoziationsanalyse Zeitreihenanalyse Clustering Klassifizierung Ausreißererkennung Romero & Ventura (2007) 15 Entdecken mit Modellen (grafische) Ergebnisaufbereitung • KausalbeziehungsMining • Zeitreihenanalyse • Korrelations-Mining • Assoziationsanalyse Beziehungs-Mining Clustering • Dichteschätzung • Regression • Klassifizierung Vorhersage Baker & Yacef (2009) Abbildung 2.2: Anwendungsklassen Entdecken mit Modellen (grafische) Ergebnisaufbereitung • KausalbeziehungsMining • Zeitreihenanalyse • Korrelations-Mining • Assoziationsanalyse Beziehungs-Mining • Clustering Unüberwachtes (maschinelles) Lernen Parameterschätzung • Regressionsmodelle • Klassifizierungsmodelle Überwachtes (maschinelles) Lernen Scheuer & McLaren (2012) Entdecken mit Modellen (grafische) Ergebnisaufbereitung Beziehungs-Mining Clustering Vorhersage Kulkarni et al (2013) Entdecken mit Modellen • KausalbeziehungsMining • Zeitreihenanalyse • Korrelations-Mining • Assoziationsanalyse Beziehungs-Mining • Domänenstrukturerkennung • Faktoranalyse • Clustering Structure Discovery • Latent Knowledge Estimation • Regression • Klassifizierung Vorhersage Baker & Inventado (2014) 2.5. INTERESSENGRUPPEN UND ZIELE 2.6. ANWENDUNGSKLASSEN UND VERFAHREN Abbildung 2.3: Anwendungsklassenverteilung in der Literatur 2.6 Anwendungsklassen und Verfahren Abbildung 2.2 zeigt einige Beispiele, die veranschaulichen, wie Data Mining Methoden, die im Bereich EDM angewandt werden, von verschiedenen Autoren zu verschiedenen Zeitpunkten unterschiedlich klassifiziert wurden aber auch, dass immer mehr unterschiedliche Klassen Anwendung finden. 36 . Es fällt auf, dass Bakers Übersicht von 2014 nicht mehr die visuelle Aufbereitung für den Menschen zu den EDM-Methoden zählt. Obgleich die Visualisierung von Daten und Ergebnissen nach wie vor als wichtige Aufgabe im EDM gilt, werden die hier angewandten Verfahren doch streng genommen von den meisten nicht in den Bereich des Data Mining gehörig gesehen. Die Veränderung der Taxonomien spiegelt auch die Veränderung der Einsätze der Methoden in der Literatur wieder (vgl. Abbildung 2.3). Insbesondere Beziehungs-Mining, das zunächst bei über 40 Prozent aller Arbeiten im EDM angewandt wurde, kam 2009 nur noch auf 9 Prozent. Vorhersagemethoden hingegen waren 2009 mit 42 Prozent sehr stark vertreten (2005 bei 28 Prozent). Die Entwicklung von Modellen und Profilen, die bis 2005 noch kaum eine Rolle spielte, wurde 2009 bereits in fast 1/5 aller Veröffentlichungen angewandt. 37 Noch immer werden neue Methoden entwickelt und angewandt, die Domain Strukturerkennung 36 37 Vgl. BAKER, R., YACEF, K. (2009), S. 3-16. Vgl. BAKER, R., YACEF, K. (2009), S. 3-16. 16 2.6. ANWENDUNGSKLASSEN UND VERFAHREN und auch die latente Wissensabschätzung (latent knowledge estimation) sind verhältnismäßig neue und aktuell sehr prominente Bereiche. Letztlich geht es vor allem darum, herauszufinden, für welche Aufgabe welche Methode am besten geeignet ist und die besten Resultate liefert. 38 Auf den folgenden Seiten werden die in Abbildung 2.2 genannten Anwendungsklassen näher erläutert. 2.6.1 Vorhersage - Prediction Das Ziel, bei der Vorhersage (engl. Prediction) ist die Erstellung eines Modells, das Prognosen über unbekannte Merkmalswerte (die vorhergesagte Variable) auf Basis anderer Merkmale (Einflussgrößen) oder auf Basis des gleichen Merkmals aus früheren Perioden machen kann. 39 Überwachtes (maschinelles) Lernen - Supervised Model Induction Ein anderer Oberbegriff für die Anwendungsklassen, die unter die Vorhersagekategorie fallen, ist überwachtes Lernen oder auch Supervised Model Induction (SMI). SMI umfasst Methoden aus dem Maschinenlernen, die Vorhersagemodelle aus Trainingsdaten ableiten, für die die Werte der Zielattribute bekannt sind. Vorhersagemodelle erhalten Instanzen als Eingabe und geben eine Vorhersage über das Zielattribut zurück. Modelle, die kategoriale Zielwerte vorhersagen nennt man Klassifizierungsmodelle, solche, die stetige Werte prognostizieren, sind Regressionsmodelle. Im Rahmen von EDM können zum Beispiel einzelne Diskussionsbeiträge nach zum Thema gehörig oder nicht (das Zielattribut) anhand von Termini aus dem Beitragstext (Attributvektor) unterschieden werden. 40 Klassifizierung - Classification Bei der Klassifizierung werden Klassenbezeichnungen vorhergesagt. Das heisst, damit kann zum Beispiel die Kennzeichnung von Attributen einer Gruppe von Nutzerprofilen erfolgen, einer Menge an ähnlichen Seiten oder ähnlicher Lernsitzungen.41 Die abhängige Variable ist hierbei entweder binär (bspw. true/false) oder kategorial (Element aus einer abgeschlossenen Kategorienliste). Einige gängige Klassifikationsmethoden im Bildungsbereich sind Entscheidungsbäume, random forests, Entscheidungsregeln, schrittweise Regression, Logistische Regression und Support Vector Machines (SVM).4243 38 Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. 40 Vgl. SCHEUER, O., McLAREN, B. (2012), S. 1075-1079. 41 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. 42 Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. 43 Vgl. BAKER, R. (2010), S. 112-118. 39 17 2.6. ANWENDUNGSKLASSEN UND VERFAHREN Regression - Regression Bei der Regression ist die abhängige Variable eine stetige.44 Die am weitesten verbreiteten Regressoren innerhalb von EDM sind die lineare Regression und Regressionsbäume. 45 Latente Wissenseinschätzung - Latent Knowledge Estimation Bei der latenten Wissenseinschätzung oder Wissensbewertung werden die Fähigkeiten und das Wissen eines Studenten anhand von gefundenen Genauigkeitsmustern („patterns of correctness“) bei der Anwendung dieser Konzepte bewertet. Der Zusatz „latent“ wird verwendet, da Wissen nicht direkt messbar ist, diese Größe muss aus der studentischen Leistung abgeleitet werden. Es existieren eine Vielzahl an Algorithmen für die Latente Wissenseinschätzung. Klassischerweise werden Bayes Netze für komplexe Wissensstrukturen oder Bayesian Knowledge Tracing (BKT) verwendet. 46 Ausreißererkennung - Outlier Detection Ausreißer sind solche Messwerte, die ungewöhnlich gross oder klein im Verhältnis zu anderen Daten im Datenbestand sind. Sie können folgenden Ursachen zugeschrieben werden: - der Wert wurde falsch beobachtet, aufgezeichnet oder erfasst - die Messwerte stammen aus einem anderen Bestand - die Messung ist korrekt, spiegelt aber einen Ausnahmefall wider. Mit Verfahren aus dieser Anwendungsklasse lassen sich beispielsweise auffällige Studenten, z.B. solche mit Lernproblemen, ermitteln. 47 Dichteschätzung - Density Estimation Bei der Density Estimation ist die vorherzusagende Variable eine Dichtefunktion (Probability Density Function, PDF). Je nach Prognoseart können die Eingangsvariablen entweder kategorial oder stetig sein. Die Zuverlässigkeit der Prognoseverfahren ist abhängig von der Art der verwendeten Eingangsgrößen. 48 Parameterschätzung - Parameter Estimation Parameter Estimation beinhaltet solche statistischen Verfahren, mit denen sich Parameter wahrscheinlichkeitstheoretischer Modelle aus vorhandenen Daten ableiten lassen. Mit diesen Modellen wird die Wahrscheinlichkeit des Eintretens von interessanten Ereignissen vorausgesagt. Die Methode basiert auf der Annahme, dass das Modell eine gegebene parametrische Form 44 Vgl. BAKER, R. (2010), S. 112-118. Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. 46 Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. 47 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. 48 Vgl. BAKER, R. (2010), S. 112-118. 45 18 2.6. ANWENDUNGSKLASSEN UND VERFAHREN hat (z.B. Gaussche Normalverteilung mit den Parametern Durchschnitt und Varianz). Eine Beispielanwendung in EDM ist die Schätzung von Bayesian Knowledge Tracing-Parametern. BKT wird verwendet um auf Basis von vergangenen Leistungen zu bestimmen, wie hoch die Wahrscheinlichkeit ist, dass ein Student eine Fähigkeit erlernt hat. 49 2.6.2 Strukturerkennung - Structure Discovery Mit Strukturerkennungsalgorithmen wird versucht, interessante Strukturen und Muster in Daten zu finden, ohne vorher genau zu wissen, wonach gesucht wird. Clustering Das Clustering ist eine Form des unüberwachten (maschinellen) Lernens. Dort werden Modelle aus Trainingsdaten generiert, für die die Werte der Zielattribute nicht bekannt sind. Clustering wird genutzt, um Gruppen von Datensätzen in einem Trainingsset zu identifizieren, die einander ähnlich sind. Der Datenbestand wird so in Teilmengen zerlegt, dass Elemente einer Gruppe, also eines Clusters, einander möglichst ähnlich sind und Elemente verschiedener Cluster einander möglichst unähnlich. Typischerweise wird für die Bestimmung des Grades der Ähnlichkeit eine Distanzfunktion angewendet (z.B. die Euklidische Distanz). So lassen sich die am häufigsten vorkommenden Kategorien innerhalb eines Datenbestandes ermitteln, ohne sie im Voraus zu kennen. Sobald ein Set von Clustern gebildet wurde, können neue Instanzen dadurch klassifiziert werden, dass der nächste Cluster gefunden wird (Vergleich mit Centroids oder Medoids). 50 Zum Beispiel ließen sich so Schulen oder Studenten gruppieren, um ihre Unterschiede und Gemeinsamkeiten zu untersuchen, Handlungsweisen von Studenten (um Verhaltensmuster zu untersuchen), Webseiten mit ähnlichem Inhalt und so weiter. Die Clusteringverfahren lassen sich in zwei Gruppen aufteilen: hierarchische (Hierarchical Agglomerative Clustering, HAC) und nicht-hierarchische (k-Means, Gaussian Mixture Modeling, Spectral Clustering). 51 Faktoranalyse - Factor Analysis Bei der Faktoranalyse gilt es, Variablen zu finden, die sich zu Gruppen zusammenfassen lassen, wodurch sich die Menge der Variablen in eine Menge latenter (nicht direkt messbarer) Faktoren aufteilt. Im EDM wird die Faktoranalyse zur Dimensionsreduktion genutzt (um die Zahl der Variablen zu reduzieren). So wird potentiellem Overfitting entgegengewirkt. Ein Anwendungsbeispiel aus dem EDM ist die Ermittlung von gruppierbaren Eigenschaften intelligenter Tutorsysteme. 52 49 Vgl. SCHEUER, O., McLAREN, B. (2012), S. 1075-1079. Vgl. SCHEUER, O., McLAREN, B. (2012), S. 1075-1079. 51 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. 52 Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. 50 19 2.6. ANWENDUNGSKLASSEN UND VERFAHREN Domänenstrukturerkennung - Domain Structure Discovery Beim Entdecken von Strukturen in einer Domäne wird versucht herauszufinden, welche Strukturelemente sich spezifischen Fähigkeiten von Studenten zuordnen lassen. 53 2.6.3 Beziehungs-Mining - Relationship Mining Beim Relationship Mining geht es darum, Beziehungen zwischen Variablen in einem Datenbestand zu finden und diese als Regeln für den späteren Gebrauch zu formulieren.54 So findet man mit Methoden des Relationship Mining zum Beispiel heraus, welche Variablen am stärksten mit einer einzelnen Variablen von besonderem Interesse verbunden sind. Andererseits lässt sich auch ermitteln, zwischen welchen Variablen der stärkste Zusammenhang besteht. Beziehungen, die so gefunden wurden, müssen zwei Kriterien genügen: statistischer Bedeutung und Interessantheit. Es gibt eine Vielzahl an Interessantheitsmassen, z.B. Support, Confidence, Conviction, lift, Einfluss (leverage), Erfassung (coverage), correlation, und cosine. 55 Assoziationsanalyse - Association Rule Mining Assoziationsanalyse ist der Warenkorbanalyse sehr ähnlich. Es geht darum, Wenn-Dann-Regeln zu finden. Also, wenn eine Gruppe von Variablen bestimmte Werte haben, dann hat eine andere Variable ebenfalls einen spezifischen Wert. Beispielsweise liessen sich Regeln der Art bilden: WENN ein Student frustriert ist ODER ihm das Lernen wichtiger ist als seine Note DANN fragt er häufig nach Hilfe. Regeln, die durch die Assoziationsanalyse gefunden werden, zeigen häufige Kookkurenzen (gemeinsames Auftreten) in den Daten, die auf anderem Weg nur schwer auffindbar wären.56 Diese Regeln müssen festgelegte Mindestwerte für „Support“ und Konfidenz aufweisen. Support gibt die relative Häufigkeit der Beispiele an, in denen die Regel anwendbar ist. Also die Menge der Datensätze bei denen die Werte des Wenn- als auch des Dann-Teils einer Regel vorkommen geteilt durch die Anzahl aller Datensätze. Konfidenz ist ein Mass für die relative Häufigkeit von Datensätzen, die die Regel erfüllen. In EDM wird es beispielsweise angewendet, um Fehler auszumachen, die häufig gemeinsam auftreten (Wenn Student Frage A und Frage B falsch beantwortet, so beantwortet er auch Frage C falsch).57 Zeitreihenanalyse - Sequential Pattern Mining Das Ziel der Zeitreihenanalyse ist es, zeitliche Beziehungen zwischen Ereignissen zu finden. Im Bereich EDM liesse sich so herausfinden, welche Folge von studentischem Verhalten schließ53 Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. Vgl. KULKARNI, S., RAMPURE, G., YADAV, B. (2013), S. 773-777. 55 Vgl. BAKER, R. (2010), S. 112-118. 56 Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. 57 Vgl. SCHEUER, O., McLAREN, B. (2012), S. 1075-1079. 54 20 2.6. ANWENDUNGSKLASSEN UND VERFAHREN lich zu einem bestimmten pädagogischen Ereignis von Interesse führt.58 So wird beispielsweise auch untersucht, welche Abfolge in Gruppenarbeiten zu einem insgesamt erfolgreicheren Gruppenprojekt führt, wie sich das Hilfe-Anforderungsverhalten über die Zeit entwickelt und welche Muster in der Nutzung von Concept Maps mit einem besseren Lernerlebnis einhergehen.59 Es lassen sich ebenso Muster erkennen, welche Inhalte Studenten gleichzeitig erlernen oder welche Kombination von Hilfsmitteln sie nutzen. Mithilfe der Zeitreihenanalyse kann man bspw. zeigen, inwiefern das Studium eines Kapitels den Zugriff auf ein anderes beeinflusst oder wie Inhalte miteinander verflochten sind.60 Korrelations-Mining - Correlation Mining Beim Correlation Mining ist das Ziel positive oder negative lineare Korrelationen zwischen Variablen zu finden. Correlation Mining wurde bereits genutzt, um die Beziehung zwischen innerer Einstellung und hilfe-suchendem Verhalten von Studenten zu untersuchen. Eine andere Studie untersuchte den Zusammenhang zwischen der Gestaltung eines ITS und dem Fakt, dass Studenten versuchen, das System zu überlisten. 61 Kausalbeziehungs-Mining - Causal Data Mining Kausalbeziehungs-Mining untersucht, ob ein Ereignis (oder beobachtetes Konstrukt) die Ursache für ein anderes Ereignis war. Dazu wird die Kovarianz beider Ereignisse analysiert oder aber betrachtet, was einen der Events ausgelöst hat. Im Rahmen von EDM wurde Causal Data Mining bereits genutzt, um vorherzusagen, welche Faktoren dazu führen werden, dass ein Student schlechte Leistungen erbringt, um zu analysieren, wie unterschiedliche Bedingungen einer Studie die Inanspruchnahme von Hilfe und das Lernen unterschiedlich beeinflussen und zu untersuchen, wie zum Beispiel die Einstellung das Verhalten in einem ITS und das konsequente Lernen beeinflusst. 62 2.6.4 Entdecken mit Modellen - Discovery with Models Im Rahmen der Discovery with Models wird ein Modell eines Phänomens mithilfe von Vorhersage, Clustering oder auch Knowledge Engineering entwickelt. Dieses Modell wird dann als Bestandteil bei weiteren Analysen oder Modellen genutzt, zum Beispiel einer erneuten Vorhersage oder Beziehungsanalyse. 63 Zum Beispiel werden Modelle zur Abschätzung von laten- tem Wissen für Vorhersagemodelle von meta-kognitivem Verhalten genutzt. Erstere wiederum arbeiten häufig mit Daten aus Domänenstrukturmodellen. 58 Vgl. BAKER, R. (2010), S. 112-118. Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. 60 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. 61 Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. 62 Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. 63 Vgl. BAKER, R. (2010), S. 112-118. 64 Vgl. BAKER, R., INVENTADO, P. (2014), S. 61-75. 59 21 64 Mit Modellen wurde schon unter- 2.6. ANWENDUNGSKLASSEN UND VERFAHREN sucht, von welchem Lernmaterial welche Schülergruppen am meisten profitieren können, wie verschiedene Verhaltensmuster von Studenten ihr Lernen unterschiedlich beeinflussen und wie Veränderungen der Gestaltung von ITS das Studentenverhalten über die Zeit beeinflussen. 65 2.6.5 Sonstige Methoden Statistik und Visualisierung / (grafische) Ergebnisaufbereitung - Distillation of Data for Human Judgment Nutzungsstatistiken bilden häufig den ersten Ansatzpunkt bei der Evaluierung von E-LearningSystemen, obwohl dies streng genommen nicht zu den Data Mining Techniken zählt. Bei der statistischen Auswertung testet man zuvor getroffene Annahmen gegen die vorhandenen Daten. Beim Data Mining hingegen wird die Hypothese automatisch durch die Untersuchung der Daten gebildet. Einige Beispiele für Nutzungsstatistiken sind einfache Messgrößen wie die Anzahl der Besuche oder Besuche pro Seite. Anhand weiterer statistischer Auswertungen lässt sich die Verteilung der Studenten über die Zeit zeigen sowie die am häufigsten besuchten Kurse. Die Ergebnisse von diesen und insbesondere von komplexeren Statistiken wie Lernkurven sind jedoch – gerade für Laien – nicht immer einfach zu interpretieren. Durch grafische Ergebnisaufbereitung können Ausbilder Besonderheiten der Daten einfacher und schneller identifizieren und klassifizieren (z.B. für die anschliessende Erstellung von Vorhersagemodellen). So können multidimensionale Daten der Studenten mit Visualisierungstechniken verständlicher z.B. als Kalkulationstabelle, Streudiagramm oder in 3D dargestellt werden. Auf die Art werden Informationen zu beendeten Aufgaben, beantworteten Fragen, Testergebnissen aber auch insbesondere Lernkurven (Anzahl der Gelegenheiten, eine Fähigkeit zu üben auf der X-Achse, Leistungsattribut wie Antwortzeit auf der Y-Achse) anschaulicher gemacht. Auch soziale Zusammenhänge im Bereich des computergestützten Lernens wie Diskussionen in Foren, Unterhaltungen auf Messageboards oder private Nachrichten sind visuell leicht verständlich aufbereitbar. So können gerade bei Fernkursen die Ausbilder nützliche zusätzliche Informationen über ihre Studenten erhalten. 66 Text Mining Text Mining Methoden können als Erweiterung von Data Mining verstanden werden, die es ermöglichen textuelle Daten zu analysieren. Die Interdisziplinarität ist hier besonders gross, es werden Methoden des Maschinenlernens, der Statistik, der Informationsgewinnung und der Verarbeitung natürlicher Sprache mit denen des Data Mining vereint. 67 65 Vgl. BAKER, R., YACEF, K. (2009), S. 3-16. Vgl. BAKER, R., YACEF, K. (2009), S. 3-16. 67 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. 66 22 2.6. ANWENDUNGSKLASSEN UND VERFAHREN Web Mining Unter Web Mining versteht man die Anwendung von Data Mining Algorithmen, um Wissen aus Webdaten zu fördern. Dabei wird Web Content Mining (WCM) unterschieden von Web Structure Mining (WSM) und Web Usage Mining (WUM). Bei ersterem werden sinnvolle Informationen aus den Inhalten von Webdokumenten extrahiert, bei WSM werden der Aufbau und die Struktur untersucht und bei WUM wird versucht, Muster in den Daten zu finden, die durch Client-ServerTransaktionen generiert (zB geloggt) werden. Gerade ITS nutzen Web Log Mining, eine Unterkategorie von WUM, um on-the-fly, also in Echtzeit, Nutzerdaten auszuwerten und den Studenten direkt beim Lernen zu unterstützen. 68 68 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. 23 Kapitel 3 Ausgewählte Beispiele aus der Literatur Es gibt einige Überblicksarbeiten über den Stand der Dinge im Bereich EDM, die vorhandene Fallstudien und Veröffentlichungen gruppieren und nach verschiedenen Aspekten klassifizieren. Hervorzuheben sind in diesem Zusammenhang „Educational data mining: A survey from 1995 to 2005“ von Romero & Ventura1 und „Educational data mining: A review of the state of the art“ ebenfalls von Romero & Ventura2 . Die Erstellung einer ähnlichen Arbeit unter Berücksichtigung der Veröffentlichungen der vergangenen fünf Jahre dürfte allerdings einen beträchtlichen Aufwand darstellen. Aus 753.000 Einträgen zum Suchbegriff „Educational Data Mining“ auf google scholar allein und 11.600.000 Treffern bei Google 3 werden in diesem Kapitel fünf ausgewählte Artikel vorgestellt. Als erstes wird eine ausführliche Arbeit über die Datenvorbereitungsschritte näher beleuchtet. Es folgt die Zusammenfassung zweier Artikel mit dem Fokus auf Web-basiertem Lernen, zunächst mit dem Schwerpunkt Web-Mining und im Anschluss etwas über die Erstellung von und Arbeit mit Nutzerprofilen. Im darauffolgenden Abschnitt soll es um Lus Ansatz zur Entwicklung eines Systems zur personalisierten E-Learning Materialempfehlung gehen. Abschliessend folgt die Zusammenfassung einer Fallstudie zur Bestimmung der Beziehung von Off-Task-Verhalten und Testergebnissen. 3.1 A Survey on Pre-Processing Educational Data „A Survey on Pre-Processing Educational Data“4 wurde von Cristobal Romero, Jose Raul Romero and Sebastian Ventura 2014 im Buch Educational Data Mining 5 veröffentlicht. Das Hauptziel von Romero, Romero und Ventura ist es, mit ihrem Artikel einen Überblick – auch eine Art Leitfaden – über die verschiedenen notwendigen Datenvorverarbeitungsschritte für das EDM zu liefern. 1 ROMERO, C., VENTURA, S. (2007), S. 135-146. ROMERO, C., VENTURA, S. (2010), S. 601-618. 3 www.google.de Abruf: 24. Mai 2015 4 Eine Studie zur Vorverarbeitung von Bildungsdaten 5 ROMERO, C., ROMERO, J., VENTURA, S. (2014), S. 29-64. 2 24 3.1. A SURVEY ON PRE-PROCESSING EDUCATIONAL DATA Als erstes nennen und beschreiben die Verfasser verschiedene Arten von computergestützten Bildungssystemen (LMS, MOOC, ITS, AIHS sowie Test- und Quizsysteme) und die Daten, die jeweils von diesen erhoben werden. Jedes dieser Systeme stelle unterschiedliche Datenquellen zur Verfügung, die verschiedener Vorverarbeitungsschritte bedürfen, sowohl was die Art der verfügbaren Daten als auch was die speziellen Probleme und Aufgaben betreffe, die von verschiedenen DM Techniken gelöst werden müssten. Zunächst erläutern sie die Arten von Daten und die passenden Data Mining Techniken eingehend, anschliessend stellen die Autoren beides zusammenfassend gegenüber: Arten von Daten Relationale Daten Transaktionsdaten Temporal-, Sequenz und Zeitreihendaten Textdaten Multimediadaten World Wide Web Daten DM Techniken Relationales Data Mining Klassifizierung, Clustering, Assoziations-Mining, etc. Zeitreihenanalyse / Sequenz-Mining Text Mining Multimedia Data Mining Web Content/Structure/Usage Mining Tabelle 3.1: Verschiedene Arten von Daten und Data Mining Techniken nach Romero, Romero & Ventura (2014) Anschliessend gehen sie auf die Hauptaufgaben und –probleme bei der Vorbereitung von Bildungsdaten ein. Durch die Datenvorverarbeitung würden Rohdaten umgewandelt in eine Form, die es erlaube ein Problem mithilfe von speziellen Data Mining Methoden, Techniken oder Algorithmen zu lösen. Laut Romero, Romero und Ventura würde für die Phase der Datenvorbereitung üblicherweise zwischen 60 und 90% der Zeit, Aufwände und Ressourcen des gesamten Mining-Projekts benötigt. Die Vorverarbeitungsaufgaben unterteilen die Autoren in zwei Gruppen: 1) Erkennungstechniken, um Fehlerstellen im Datenbestand zu finden 2) Transformationstechniken, um leichter zu bewältigende Datenbestände zu erhalten. Folgende vier Aspekte werden aufgeführt, die besondere Herausforderungen von Bildungsdaten darstellen: • die reine Menge an zur Verfügung stehenden Daten, die von Bildungssystemen täglich generiert werden • nicht alle Studenten beenden alle Aktivitäten, Übungen, Tests usw. Daraus folgt, dass es überdurchschnittlich häufig zu fehlenden oder unvollständigen Datensätzen kommt. 25 3.1. A SURVEY ON PRE-PROCESSING EDUCATIONAL DATA Abbildung 3.1: Hauptvorverarbeitungsschritte bei Bildungsdaten nach Romero, Romero & Ventura (2014) • Es gibt üblicherweise eine Vielzahl an Attributen über Studenten und eine Menge Instan- zen, mit unterschiedlicher Granularität. Also bedarf es einer Attributauswahl und Filterung, um die repräsentativsten Attribute und Instanzen auszuwählen, um ein spezifisches Bildungsproblem anzugehen • einige Datentransformationsaufgaben, wie Attributdiskretisierung können angewandt werden, um die Verständlichkeit der Daten und gewonnenen Modelle zu verbessern. In den darauffolgenden Abschnitten skizzieren die Verfasser die Hauptschritte und –aufgaben bei der Datenvorbereitung und erläutern die einzelnen Punkte ausführlich. Im Rahmen der Datenerfassung, dem ersten Schritt, würden alle benötigten und gewünschten Daten aus verschiedenen Quellen wie Logdateien, Testergebnissen und Portfolios zusammengetragen. Im nächsten Schritt - der Datenaggregation und –integration - gelte es, die Daten zu gruppieren in ein gemeinsames Datenformat zu bringen, normalerweise in einer Datenbank zusammenzuführen. Aggregation würde angewendet auf Daten derselben Art von unterschiedlichen Problemen, Sitzungen, Studenten, Klassen, Schulen und die Integration gelte für unterschiedliche Arten von Daten zum selben Problem, zur selben Sitzung, Studenten, Klasse, Schule. Die Datenbereinigung, so die Autoren, bestünde aus dem Auffinden und Verwerfen von fehlerhaften und irrelevanten Daten. Fehlende Werte könnten durch globale Konstanten ersetzt werden oder durch einen Ersatzwert (Attributdurchschnitt oder den häufigsten Wert). Auch die Ausreißererkennung gehöre zu diesem Arbeitsschritt. Werte, die sich von den übrigen signifikant unterscheiden, könnten durch Messfehler verursacht sein oder auch einer grossen Datenvielfalt geschuldet sein, wobei sie dann seltene oder unerwartete Werte darstellten. Ein Weg, Ausreißer zu behandeln sei es, Mittelwerte statt Durchschnitte zu verwenden. In Bildungsdaten gäbe es stets besonders gute wie auch besonders schlechte Studenten, die sich stark auf die Durchschnittswerte auswirken. Gerade die Entscheidung, welche Ausreisser einbezogen würden und welche nicht, sei eine schwere und bedürfe einer umfangreichen Kenntnis der Umstände unter welchen die Daten gesammelt wurden und dem Ziel der Analyse. Eine einfache Methode, Ausreisser zu erkennen sei die Visualisierung von Datenclustern. Ein anderes anzugehendes Thema wäre die Problematik der inkonsistenten Daten. Hier gelte es, die Datenbezeichnungen, Datenkodierungen und Datenformate zu prüfen. Häufige 26 3.1. A SURVEY ON PRE-PROCESSING EDUCATIONAL DATA Fehlerquellen seien beispielsweise Eingabefelder wie Geburtstag und Alter. Speziell im Zusammenhang mit webbasierten Bildungssystemen sei es ausserdem wichtig, lange Zeiträume zwischen zwei Aktionen zu bereinigen (Student hat den Computer verlassen?) und unvollständige Daten. Der vierte Schritt der Vorverarbeitung, die „Nutzer und Sitzungsidentifizierung“ sei ein sehr wichtiger. Er bestehe aus der Identifizierung von Nutzern durch IP-Adressen, Cookies oder Authentifizierungsmechanismen und Sitzungen. Insbesondere die Erkennung des Endes einer Sitzung stelle weiterhin ein Problem dar. Alle Datensätze könnten dann in aufsteigender Reihenfolge sortiert werden – mit der Nutzer-ID als Primärschlüssel und dem Ereigniszeitpunkt als Sekundärschlüssel. Nachdem diese Sortierung stattgefunden habe, sei es einfacher, Sitzungen durch die Gruppierung zeitlich zusammenhängender Datensätze zwischen zwei Logins zu identifizieren. Bestandteil dieses Schrittes sei ebenfalls die juristisch wichtige Anonymisierung der Personendaten. Dabei müsse darauf geachtet werden, die Zuordnung der Datensätze zueinander nicht zu verlieren – eine Möglichkeit wäre die Verwendung von User-IDs anstelle von Namen. Gegenstand des fünften Schrittes der Datenvorverarbeitung sei die Attributauswahl. Es gelte aus dem gesamten Satz an Attributen diejenigen auszuwählen, die für das konkrete Problem relevant seien. Zu ignorieren seien irrelevante und redundante Variablen. Dieser Schritt sei deshalb gerade für Bildungsdaten wichtig, weil eine zu grosse Anzahl von Einflussfaktoren die Genauigkeit eines Lernmodells aufgrund von Overfitting beeinträchtigen könne. In der Vergangenheit sei bspw. mithilfe von Entscheidungsbäumen ermittelt worden, welche Variablen den größten Einfluss hätten (Relevanzanalyse, Feature Selection). Die Verfasser behandeln anschliessend den Aspekt Datenfilterung. Hierbei würden aus einem großen Datenbestand eine geringere Menge repräsentativer Datensätze ausgewählt. So filtere man bspw. lediglich die Datensätze, die zu demselben Kurs, Test, Nutzer, Tag oder ähnlichem gehörten, um mit einem überschaubareren Bestand arbeiten zu können. Ein besonderer Aspekt bei Bildungsdaten sei in diesem Zusammenhang die unterschiedliche Granularität der vorhandenen Daten: Zu den verschiedenen betrachtbaren Ebenen gehörten die der Tastenanschläge, der Antworten, Sitzungen, Nutzer, Klassen, Schulen. Hierzu käme, dass ein größeres Mass an Granularität mit einer geringeren Menge an Datensätzen einherginge (vgl. Abbildung: 3.2). Als letzten Bestandteil des Vorverarbeitungsprozesses führen die Autoren die Datenumwandlung bzw. -transformation an. Was hier geschehe, sei die Umwandlung bereits vorhandener Attribute in neue Attribute. Beispiele hierfür seien die Normalisierung, Diskretisierung, Ableitung und Dateiformatumwandlung. Jedes dieser Beispiele wird von den Autoren ausführlich erläutert. Insbesondere die Formatumwandlung betreffend werden einige mögliche Ergebnisformate aufgeführt, darunter das Weka ARFF Format, Keels DAT Format, XML und CSV. 27 3.1. A SURVEY ON PRE-PROCESSING EDUCATIONAL DATA Abbildung 3.2: Verschiedene Stufen der Granularität in Beziehung zu der Datenmenge nach Romero, Romero & Ventura (2014) 3.1.1 Vorverarbeitungswerkzeuge Im folgenden Teil des Artikels nennen die Autoren populäre Software zur allgemeinen Datenvorverarbeitung im EDM, die sie in drei Gruppen unterteilen. Datenanalyse zur Behandlung von fehlenden Werten, Datenumwandlung, Merkmalsmanipulation oder Metadatenbehandlung. Matlab R IBM SPSS Modeler SAS Statistica Microsoft Excel Data Mining sowohl einfache als auch erweiterte Möglichkeiten zur Datenumwandlung, Merkmalsauswahl und Metadatenbehandlung Weka RapidMiner Knime Business Intelligence zur Geschäftsdatenanalyse und -visualisierung zur Unterstützung von Entscheidungsprozessen. mit erweiterten Funktionen zur Datenuntersuchung und -umwandlung. Orange Angoss Amadea Tabelle 3.2: Datenvorverarbeitungswerkzeuge nach Romero, Romero & Ventura (2014) Neben den allgemeinen Aufgaben der Datenvorverarbeitung gebe es noch die besonderen Aufgaben, wobei es sich bei der Software in diesem Bereich aktuell noch überwiegend um Prototypen mit eingeschränkter Funktionalität handele. Genannt werden in diesem Zusammenhang DataPreparator und EDM Workbench. 28 3.2. WEB MINING FOR SELF-DIRECTED E-LEARNING 3.1.2 Schlussfolgerung Die Autoren bemerken zusammenfassend, dass es nur wenige spezielle Datenvorverarbeitungswerkzeuge für EDM gäbe und EDM-Nutzer daher üblicherweise allgemeine Softwarelösungen und Data Mining Werkzeuge wählen würden. Die meisten der aktuell vorhandenen Werkzeuge könnten sowohl für EDM-Forscher, Ausbilder und sonstige Nutzer, die keine Data Mining Experten seien, zu komplex sein. 3.2 Web mining for self-directed e-learning „Web-Mining for self-directed e-learning“6 wurde von P. Desikan, C. DeLong, K. Beemanapalli, A. Bose und J. Srivastava 2006 verfasst und im Buch „Data Mining in E-Learning“ von Romero & Ventura (Hrsg.) veröffentlicht7 . Das Ziel der Arbeit ist es, den Nutzen von Web-Mining bei selbstgesteuerten E-Learning Angeboten aufzuzeigen. 3.2.1 Einleitung Einleitend stellen die Autoren fest, dass es deutliche Unterschiede zwischen Lernenden gäbe, zum Beispiel im Hinblick auf die Lerngeschwindigkeit, persönliche Interessen und das Vorwissen. Sie stellen die These auf, dass wenn es gelingen würde, E-Learning Angebote an diese Unterschiede anzupassen, das persönliche Lernerlebnis deutlich verbessert werden könne. Allerdings sei es schwierig, so die Autoren, alle möglichen Nutzungsvarianten bereits beim Design eines Systems zu berücksichtigen. Ausserdem wären die Anforderungen sehr unterschiedlich und würden sich sehr schnell verändern. Daraus ergäbe sich die Notwendigkeit für ein System, das sich kontinuierlich selbst über die Anforderungen seiner Nutzer weiterbilde und dann stets das am besten geeignete Material präsentiere. 3.2.2 Self-Directed E-Learning Selbstgesteuertes (self-directed) E-Learning finde immer dann statt, wenn das Lernen ohne Lehrplan, ohne Stundenplan, ohne Noten und Tests mit freiem Zugriff auf alle Ressourcen sei. Als Beispiele führen die Verfasser eine Vollzeitmutter (also eine nicht-berufstätige Mutter) an, die einen grossen Lernbedarf hinsichtlich der Aufzucht, Pflege, Erziehung und Entwicklung von Kindern habe und einen Diplomanden, der sich über interessante Forschungsthemen informieren möchte. Das Internet stelle eine scheinbar grenzenlose Menge von Informationen bereit daraus effektiv und effizient diejenigen Angebote zu ermitteln, die den individuellen Wünschen und Anforderungen am besten gerecht werden, sei nach wie vor die größte Herausforderung. Die Verfasser nennen und beschreiben sechs große webbasierte E-Learning Anwendungen und gehen dann auf die gemeinsamen Defizite dieser Systeme ein (vgl. Tabelle 3.3). 6 7 Web-Mining im Bereich des selbstgesteuerten E-Learnings DESIKAN, P. et al. (2006), S. 21-40. 29 3.2. WEB MINING FOR SELF-DIRECTED E-LEARNING Angebot Google Scholar Westlaw CiteSeer LexisNexis Beschreibung Suchmaschine für akademische Veröffentlichungen Suchmaschine für juristische Dokumente in Thompson Wests proprietärer Datenbank Suchmaschine und Zitationsdatenbank wissenschaftlicher Literatur, hauptsächlich IT Sammlung von Suchwerkzeugen und Fachdatenbank zu den Themen Recht, Wissenschaft, Strafverfolgung, Nachrichten, Wirtschaft,... Knowledge Management Systems Wissensdatenbanken innerhalb von Organisationen Dr. Spock bietet Eltern Expertenratschläge, Informationen und Inspirationen zur Kindererziehung Tabelle 3.3: Beispiele für web-basierte E-Learning Anwendungen 3.2.3 Defizite der vorgestellten Systeme 1) Kommunikation zwischen den Nutzern Bei keinem der genannten Angebote könne – anders als in realen Klassenzimmern – eine Kommunikation, Zusammenarbeit, gemeinsame Lösungsfindung oder Diskussion zwischen den Nutzern stattfinden. 2) Zeitmanagement Die Suchen wären unter Umständen zeitraubend, insbesondere dann, wenn der Anwender den richtigen Suchstring nicht kenne und erst herausfinden müsse. 3) fortlaufende Selbstverbesserung Die Suchergebnisse würden nicht auf das Modell der Dokumentrelevanz abgebildet. Zugriffsstatistiken der Ergebnisdokumente könnten als Relevanzindikatoren genutzt werden. 4) implizite Beziehungen Die Berücksichtigung von implizit verwandten Dokumenten und Inhalten finde nach Ansicht der Autoren noch nicht in ausreichendem Ausmass statt. Bislang würden nur direkte Beziehungen (über Zitate) oder textuelle Ähnlichkeiten berücksichtigt. Letzteres sei aber fehleranfällig bei Worten, die in unterschiedlichen Zusammenhängen vorkommen können. Ein noch ungelöstes Problem in diesem Zusammenhang sei die Identifizierung von Nutzerkontext. Gerade was aber die Berücksichtigung des gewünschten Kontexts betreffe, könne noch eine Verfeinerung der Suchergebnisse erreicht werden. 30 3.2. WEB MINING FOR SELF-DIRECTED E-LEARNING Abbildung 3.3: Web-Mining-Taxonomie nach Desikan et al. (2006) 3.2.4 Web-Mining Im Folgenden beschreiben die Autoren unterschiedliche Möglichkeiten von Data Mining Methoden, um Wissen aus Webdaten, also Webinhalten, Webstrukturen oder Webnutzungsdaten, zu extrahieren. Sie gehen darauf ein, was konkret miniert werden könne, von den Texten auf den Webseiten über die Hyperlinks, Dokumentenaufbau, Serverdaten bis hin zu den Anwendungsdaten. Schliesslich geben sie einen kurzen Überblick über den Stand der Wissenschaft bzgl. Web-Mining und erwähnen erfolgversprechende Studienergebnisse und abgeschlossene Entwicklungen. Insbesondere führen sie Folgendes auf: • das Extrahieren von Informationen aus strukturierten und unstrukturierten Daten und die Integration von Informationen aus verschiedenen Quellen • Webseitenkategorisierung und Themendestillation • Hyperlink-Analyse, insbesondere PageRank, ein Algorithmus der Googlegründer, bei dem Hypertextdokumente der Wichtigkeit nach sortiert werden, wobei eine Seite umso wichtiger ist, je wichtiger die Seiten sind, die auf sie verweisen • verbesserte, sogenannte „Usage Aware PageRank“-Algorithmen, die zusätzlich auch Nutzungsstatistiken berücksichtigen 31 3.2. WEB MINING FOR SELF-DIRECTED E-LEARNING • „Hub“- und „Authority“-Wertungen: mit dem Hintergrund der Graphentheorie würden Mittel- punkte und „Authoritäten“ als Elemente eines zweiteiligen Webgraphen arrangiert, wobei die Wertungen nicht seitenspezifisch sondern jeweils für themenbezogene Gruppen von Seiten berechnet würden 3.2.5 Web-Mining im E-Learning-Bereich Gegenstand der Betrachtungen in diesem Abschnitt sind die noch nicht (gänzlich) genutzten weiteren Möglichkeiten von Web-Mining Techniken. Zwar würden diese bereits effektiv in Suchmaschinentechnologien eingesetzt, um die relevantesten und signifikantesten Seiten zu finden, aber die Resultate könnten nach Meinung der Autoren mehr beinhalten als den reinen Seiteninhalt. Gerade für Lernmaterial seien zum Beispiel auch Nutzungsdaten von Interesse. WUM könne in diesem Zusammenhang dabei helfen, die Nutzerperspektive zu verstehen, Nutzerprofile zu erstellen, Navigationsmuster aufzudecken. Diese Daten könnten dann als nützliches Feedback für Experten dienen, um herauszufinden, wie Anfänger das Thema angingen, könnte aber auch den Anfängern nutzen, um von der Navigationserfahrung anderer zu profitieren. Letztlich böte WUM Möglichkeiten von der Gestaltung besserer adaptiver Webseiten bis hin zur Erstellung von Recommender Systems. 3.2.6 Ausblick Die Autoren nennen fünf Schwerpunkte, die im Bereich der selbstgesteuerten E-LearningSysteme das Nutzererlebnis signifikant aufwerten könnten. 1. Nutzungsmuster Durch die Untersuchung von Nutzungsmustern aus Server Logs könnten relevante Dokumente basierend auf dem Surf- und Abfrageverhalten anderer Nutzer identifiziert werden. Die Resultate könnten dann, ähnlich wie im Bereich e-Commerce, in einer Seitenleiste als Empfehlungen gelistet werden („Andere Nutzer lasen auch...“). 2. Schlagwort-Clustering Zur Empfehlung ähnlicher Suchbegriffe oder Rückgabe von Ergebnissen von ähnlichen Suchen könnten Stichwort- bzw. Schlagwort-Cluster gebildet werden. Diese könne man mit Punkt 1 kombinieren, um in der Seitenleiste verwandte Suchen und Vorschläge für weitere Suchvorgänge anzeigen zu können. 3. Empfehlungs-Mining Das Minieren der eigentlichen Empfehlungen selbst – entweder direkt der Suchergebnisse oder auch die der Seitenleiste – könnte eingesetzt werden, um die Seitenleistenergebnisse nach Bedarf einzuschränken oder zu erweitern und / oder ein Relevanzmodell aufzubauen, um bspw. einen Link nicht mehr anzuzeigen, wenn ihn nie jemand ausgewählt habe. 32 3.3. WEB-BASED EDUCATIONAL HYPERMEDIA 4. Intelligente Ergebnisse: Relevanzmodell Nicht jeder Nutzer habe das gleiche Vorwissen oder sei an der gleichen Detailtiefe interessiert. Aktuell spiegelten Suchergebnisse noch nicht wieder, ob ein Experte, der an genaueren Informationen und Details interessiert ist oder ein Anfänger, der sich zunächst eher einen Überblick verschaffen möchte, die Anfrage stelle. Ein Relevanzmodell solle hier Abhilfe schaffen. 5. Intelligente Knowledge Management Systeme Intelligente KMS könnten sich Nutzerprofile merken, das Nutzersurfverhalten analysieren und darauf basierend Empfehlungen der Art machen, wie „Letzte Woche suchten Sie nach... Es gibt inzwischen neue Einträge zu diesem Thema:...“ usw. 3.2.7 Schlussfolgerung Die Autoren schliessen mit der Feststellung, dass selbstgesteuertes E-Learning stetig wichtiger werde. Sie betonen, dass die aktuell noch vorhandenen Defizite mithilfe von WUM behoben und das Potential der existierenden Angebote noch deutlich besser genutzt werden könnte. 3.3 Web-based educational hypermedia Der Artikel „Web-based educational hypermedia“8 wurde von P. De Bra verfasst und 2006 im Buch „Data Mining in E-Learning“ von C. Romero und S. Ventura (Hrsg.) veröffentlicht9 . Das Ziel der Arbeit ist es aufzuzeigen, wie das Lernen mit elektronischen Lehrbüchern durch das Auswerten von Nutzerdaten verbessert werden könne und wie die Erstellung von Nutzerprofilen und die Inhaltsanpassung Hypermedia in der Bildung bereichern könnten. Zunächst beschreibt der Autor Probleme mit der „just-put-it-on-the-web“-Methode und erläutert dann zwei Hypertext-Referenzmodelle. Im Anschluss zeigt er an Beispielen inwiefern die Anpassung von Lehrmaterialien unter Berücksichtigung unterschiedlicher Wissensstände und Lernstile mithilfe einer Open-Source-Courseware umgesetzt werden könne. 3.3.1 Probleme mit der „just-put-it-on-the-web“-Variante Der Autor bot um 1993 herum erstmals einen Online-Kurs an und erkannte eine Reihe von Schwierigkeiten, denen die Studenten begegneten: 1. Orientierung Durch das Fehlen einer strikt hierarchischen Struktur blieben den Studenten viele Freiheiten was die Reihenfolge der Bearbeitung betreffe. Im Beispielkurs von 1993 gab es eine Liste von Hauptthemen, aber eine Vielzahl von Seiten gehörte zu mehreren Themen und 8 9 Web-basierte Hypermedien für die Bildung De BRA, P. (2006), S. 3-20. 33 3.3. WEB-BASED EDUCATIONAL HYPERMEDIA konnte auch von verschiedenen Seiten aus erreicht werden. Es gab also kein Inhaltsverzeichnis im eigentlichen Sinne, das die eigene aktuelle Position beim Lesen wie in einem Buch, das man von oben nach unten, von vorn nach hinten liest, angezeigt hätte. Die Studenten hätten also zu keiner Zeit einschätzen können, wo sie sich im Kurs befanden oder welchen Anteil des Kurses sie bereits bewältigt hatten und teilweise sogar, wo das noch fehlende Material zu finden gewesen wäre. 2. Verständnis Es sei schwer bis unmöglich, stellt De Bra fest, einen kompletten Kurs zu verfassen, bei dem jedes Kapitel ohne das Lesen mindestens eines anderen Kapitels auskomme. Wenn den Studenten die Lesereihenfolge aber frei stünde und sie sich quasi kreuz und quer durch den Stoff bewegten, kämen sie zwangsläufig an den Punkt, wo ihnen Grundlagenwissen fehle, um ein neues Thema zu verstehen. 3. Leistungseinschätzung Für das Ende des Kurses sei ein Multiple-Choice-Test für die Studenten bereitgestellt worden. Da es keine Struktur, bspw. in der Form von Kapiteln gab, sei es aber nicht möglich gewesen, Zwischenprüfungen anzubieten, um den Studenten eine Möglichkeit zu geben, frühzeitig zu erkennen, ob sie das Material in hinreichender Tiefe studierten oder nicht. Um diesen Problemen zu begegnen, könne man entweder eine klarere Struktur in Form von Kapiteln und Unterkapiteln vorschreiben oder eine Art automatisierte Führung durch den Stoff anbieten. Die Methoden und Werkzeuge von „Adaptive Hypermedia Systemen“ bieten die Möglichkeit, so viel Navigationsfreiheit wie möglich mit so viel strukturiertem Wissensaufbau (Grundlagen vor Aufbauwissen) wie nötig zu kombinieren. 3.3.2 Adaptive (Educational) Hypermedia Der Autor verweist auf die Arbeiten von Peter Brusilovsky10 ,11 , in denen dieser bereits Einführungen und Übersichten über das Feld „Adaptive Hypermedia“ vorgestellt habe und geht in diesem Abschnitt auf die speziellen Vorteile und Möglichkeiten von AH-Systemen im Bildungsbereich ein. Zu den Vorteilen gehöre die Vermeidung von Problemen, die durch das Lesen in einer suboptimalen Reihenfolge entstünden und die Tatsache, dass Studenten mit unterschiedlichem Vorwissen gleichermassen gut mit den Systemen arbeiten könnten. Durch die Analyse der Lesereihenfolge eines Studenten könnten folgende Anpassungen zur Laufzeit stattfinden: 10 Brusilovsky, P., Methods and techniques of adaptive hypermedia. User Modeling and User Adapted Interaction, 6(2-3), 1996. 11 Brusilovsky, P., Adaptive hypermedia. User Modeling and User Adapted Interaction, 11(1), 2001. 34 3.3. WEB-BASED EDUCATIONAL HYPERMEDIA 1. Angepasste Darstellung (Inhaltsanpassung) • prerequisite explanation: Bei Verweisen auf noch nicht gelesene Konzepte könne eine Kurzerklärung zu benötigtem Vorwissen eingeblendet werden. • additional explanation: Für Experten liessen sich zusätzliche Informationen einblenden, die bei Anfängern noch nicht sichtbar wären. • comparative explanation: Vergleiche zwischen zwei Konzepten könnten dann eingeblendet werden, wenn das jeweils zweite Konzept studiert werde. 2. Angepasste Navigation (Linkanpassung) • adaptive link sorting: Die Liste der weiterführenden / verfügbaren Links könne in der Form sortiert werden, dass die aktuell passendsten Seiten weiter oben geführt würden. • adaptive link removal: Links könnten zu unterschiedlichen Zeitpunkten verfügbar gemacht werden (ausblenden / einblenden). • link hiding u.ä.: Mit Style Sheets liessen sich Links bestimmte Zusatzbedeutungen verleihen, indem man sie mit Icons versähe, indem man sie durch die Darstellung wie Text quasi verstecke oder durch Farbcodierungen, die bestimmte Bedeutungen vermitteln könnten (grüne Links wären Leseempfehlungen, von den roten würde noch abgeraten etc.). • Ein Linkziel könne je nach Lernfortschritt unterschiedliche Inhalte haben. Für Kursentwickler sei es schwierig, zu entscheiden, wann welche Darstellungsform jeweils am geeignetsten wäre – hier kämen Möglichkeiten aus dem Bereich des Data Mining zum Einsatz. 3.3.3 AHAM - Adaptive Hypermedia Application Model De Bra, Houben und Wu entwickelten Ende der 90er Jahre ein Referenzmodell für „Adaptive Hypermedia“12 , das De Bra hier kurz erläutert. Die AHAM-Referenzarchitektur erweitere das sogenannte „Dexter Hypertext Reference Model“ (vgl. Abbildung 3.4). Das Dexter Modell bestehe aus drei Ebenen und zwei Schnittstellen, die jeweils unterschiedliche funktionale Aspekte eines Hypertextsystems übernehmen würden. Im Dexter-Modell werde der Hypermedia-Teil von der Benutzerschnittstelle (Browser) und der Datenbank / dem Dateisystem getrennt. Die Speicherschicht stelle einen Container für die Datenspeicherung dar. Sie fungiere als Datenbank, die sich aus einer Hierarchie von Datenbeinhaltenden Komponenten und Knoten zusammensetze, die durch Links verbunden seien. Die Komponenten enthielten Text, Bilder, Animationen usw. die den Inhalt im Hypertext-Netzwerk bildeten. Die Ebene innerhalb der Komponenten (Within-Component Layer) beschreibe die 12 De BRA, P., HOUBEN, G., WU, H. (1999), S. 147-156. 35 3.3. WEB-BASED EDUCATIONAL HYPERMEDIA Abbildung 3.4: Dexter Modell und AHAM Struktur der Knoten (Seiten) und Links. Jede Komponente verfüge über eine Reihe von Attributen, Darstellungsspezifikationen, Anker und Inhaltsangaben. De Bra erläutert, dass im AHAM die Speicherebene genauer spezifiziert wurde und sich aus drei Elementen zusammensetze. Ein Baustein sei das Lehrmodell (später Adaptionsmodell). Es verkörpere die Methoden, die genutzt würden, um den Lernenden durch die Informationsstruktur zu führen. Weitere Bestandteile seien das Domänenmodell – das im Grunde der Dexter Speicherschicht entspreche – es bilde die Strukturen der Information ab, und letztlich das Benutzerprofil, das zeige, wie der Nutzer mit den Informationen in Verbindung gebracht werde. Um einen Kurs zu entwickeln, müssen nun nur folgende Schritte berücksichtigt werden: 1. Aufführen von Konzepten und Themen, die im Kurs behandelt werden (inklusive einer Hierarchie von Themen und Unterthemen in Form von Kapiteln und Abschnitten) 2. Festlegen von Abhängigkeiten zwischen Konzepten 3. Übersetzen der Beziehungen zwischen den Konzepten mit den zuvor erwähnten Methoden (z.B. Link Annotation) in das Anpassungsverhalten und so generische Anpassungsregeln für jede Art von Beziehung definieren - alle Regeln zusammen bildeten das Lehrmodell bzw. Adaptionsmodell und setzten später die Benutzeraktionen in Benutzerprofilupdates um. Ein typisches Beispiel für eine Anpassungsregel wäre: Beim Öffnen einer Seite P, falls P empfohlener Lehrstoff ist, setze den Wissenswert von P auf 100. Es handele sich also um Ereignis–Bedingung–Aktion–Regeln, wobei das Ereignis in diesem Fall der Zugriff auf eine Seite P darstelle, die Bedingung sei, dass P zum empfohlenen Lehrmaterial gehöre und falls dies der Fall wäre, folge die Aktion in Form der Erhöhung des Wissensstandes um 100. In diesem Fall wäre das auslösende Ereignis ein Seitenzugriff, doch gäbe es noch eine ganze Reihe weiterer Trigger. Auch das Aktualisieren des Nutzerprofils als solches, könne weitere 36 3.3. WEB-BASED EDUCATIONAL HYPERMEDIA Abbildung 3.5: AHA! Architektur nach De Bra (2006) Schritte nach sich ziehen. Gehört beispielsweise die Seite P zu einem Kapitel C, so würde auch der Wert für den Wissensstand von C angepasst werden und gegebenenfalls änderten sich auch die empfohlenen Lehrmaterialien. Die Kursautoren müssten diese Regeln nicht kennen, betont De Bra, da sie auf Basis der Konzeptbeziehungen automatisch implementiert würden. 3.3.4 AHA! AHA! sei eine Open Source Webservererweiterung, die Anwendungen wie Onlinekurse um die Adaptationsfähigkeit erweitere, so De Bra. Der Autor erläutert, dass AHA! eine Vielzahl von Informationen im Benutzerprofil speichere und aktualisiere und ein Log der Nutzeraktionen führe, das als grossartige Basis für Data Mining Anwendungen dienen könne, um das Nutzerverhalten zu analysieren und potentielle Probleme zu entdecken. Das wichtigste Element sei die AHA! Engine, die durch Java Servlets implementiert werde, welche auf dem Webserver liefen und mit diesem kommunizierten. Auf dem Server befänden sich drei Arten von Informationen: - ein kombiniertes Domänen- und Adaptionsmodell (DM/AM), analog zu diesen Modellen im AHAM - ein Benutzerprofil (User Model, UM), das den Wissensstand des Nutzers zu den Konzepten und Seiten des Kurses vorhalte - Autoren- und Verwaltungswerkzeuge 37 3.3. WEB-BASED EDUCATIONAL HYPERMEDIA Abbildung 3.6: Anpassung in AHA! nach De Bra (2006) Externe Seiten von anderen Webservern könnten ebenfalls integriert werden. Dabei würden sie (möglicherweise) ebenso angepasst dargestellt wie lokale Seiten (vgl. Abbildung 3.5). Die Anpassung erfolge auf Basis des Benutzerprofils, welches zum größten Teil ein Overlay Model sei. Das Benutzerprofil beinhalte eine Reihe von Attributwerten für jedes Konzept, das der Kurs beinhalte, z.B. Wissen und Eignung. Die Summe der Wissensattributwerte von allen Konzepten ergebe beispielsweise ein detailliertes Bild über den Wissensstand des Lernenden in Bezug auf den gesamten Kurs. Der Eignungswert sage etwas darüber aus, ob ein Konzept empfohlen werde oder nicht. Die Konzeptstruktur von AHA! bestehe aus Konzepten, die (wahlweise) mit einer oder mehreren Ressourcen (bspw. Seiten) gekoppelt seien. Mit jedem Konzept sei zudem eine Reihe von Eigenschaften verbunden, jedes mit einer Anzahl von Adaptionsregeln. Jedes Konzept hat beispielsweise ein Attribut „Zugriff“ mit Adaptionsregeln, die ausgeführt werden, wenn auf das Konzept zugegriffen werde. Die Regeln funktionieren wie bereits oben beschrieben, auch was bspw. die kaskadierende Aktualisierung von Wissensständen betreffe. Seiten würden in AHA! als Ressourcen dargestellt, die mit Konzepten fest verknüpft seien. Sie könnten aber auch durch Regeln über ein Attribut namens „show-ability“ verbunden sein, das besage, ob und wie sie angezeigt würden und in Abhängigkeit von weiteren Regeln ggf. angepasst werden würden. Die Inhalte (Seiten) könnten auf zwei Arten angepasst werden (vgl. Abbildung 3.6): Zum einen könnten sie Fragmente oder Objekte, die an Anzeigebedingungen geknüpft seien, besitzen. Zum anderen liessen sich Links über die Auswertung des „Suitability“ bzw. „Desirability“ Attributs anpassen. Ist auf einer Seite ein Link enthalten, schaue die AHA! Engine, ob das Ziel aktuell 38 3.3. WEB-BASED EDUCATIONAL HYPERMEDIA empfohlen werde und gestalte den Link dann entsprechend farblich oder mit Icons. AHA! nutze ein Layout Modell, das beschreibe, wie die Inhalte dargestellt würden. Das Layout bestehe aus HTML-Frame-Strukturen, wobei immer ein Frame die aktuelle Seite zeige. Darüberhinaus könnten aber in anderen Bereichen weitere Inhalte angezeigt werden, z.B. ein Inhaltsverzeichnis, eine Liste von Konzepten, mit denen die aktuelle Seite zusammenhänge, Konzepte, die Vorwissen beinhalten (und deren aktueller Wissenslevel) usw. AHA! biete ferner zwei grosse Autorenwerkzeuge und einen Multiple-Choice Test-Editor. Mithilfe von „Graph Author“ liessen sich Konzeptstrukturen und –abhängigkeiten (Vorwissen) leicht und einfach implementieren. Die Software generiere dann automatisch auf Basis der Struktur die Adaptionsregeln für das Domänenmodell / Adaptionsmodell. Der „Concept Editor“ stelle eine zusätzliche Option für Fortgeschrittene Nutzer dar. 3.3.5 Fragen, Tests und Aufgaben Die grundlegende Idee bei der Anpassung basiere laut De Bra auf der Einschätzung des Nutzerwissens durch das System, daher sei es wichtig, dass das System einen guten Überblick über den Wissensstand des Lernenden habe. Das System könne aber lediglich Klicks registrieren, kein Scrolling und keine Augenbewegungen (Lesen). Hierzu meint De Bra, dass Fragen, Tests und Aufgaben dazu dienen könnten, den Wissensstand genauer abzufragen. Multiple-Choice-Tests seien dabei am beliebtesten, da sie sich einfach automatisch auswerten liessen. Zu den Möglichkeiten, die sich durch Tests bieten würden, gehörten: • Vorwissen einschätzen • vom System geschätzten Wissensstand verifizieren • Studenten Seiten, die (erneut) studiert werden sollten, vorschlagen • Feedback für den Kursautoren liefern, wenn Regelmässigkeiten was das Nichtverstehen bestimmter Passagen betreffe, erkannt würden 3.3.6 Anpassung an Lernstile Laut De Bra könne die Individualisierung noch erweitert werden, indem das System neben den unterschiedlichen Wissensständen auch verschiedene Lernstile berücksichtige. So könnte beim ersten Anmelden eines Nutzers gefragt werden, um welchen Lerntypen es sich bei ihm handelte oder aber bei der ersten Gelegenheit mehrere Medientypen (Text, Bilder, Video, Audio,..) zur Auswahl anbieten und die vom Nutzer getroffene Wahl als Präferenz speichern. Im weiteren Verlauf könnten dann auf Basis dieser Präferenz andere Medientypen ein- oder ausgeblendet werden. 39 3.4. A PERSONALIZED E-LEARNING MATERIAL RECOMMENDER SYSTEM Bei Kolb13 werden Lernende in sogenannte Reflektoren und Aktivisten eingeteilt. Erstere sammelten und analysierten Informationen, bevor sie aktiv werden, letztere würden gern experimentieren und werden durch Herausforderungen motiviert. De Bra meint, man könne die Kursinhalte mit einem Attribut versehen, das anzeige, ob es sich um ein Beispiel oder eine Aktivität handelte. Wenn nun ein Link angezeigt werden müsse, könne die Engine entscheiden, welches Ziel für welchen Nutzer am geeignetsten sei. 3.3.7 Fazit De Bra schliesst mit dem Fazit, dass mithilfe von Autorenwerkzeugen wie dem AHA!-System Kursautoren das Formulieren von Anpassungsregeln abgenommen werden könne. Des Weiteren wurden verschiedene Lernstile betrachtet, um zu sehen, wie sich das Lernerlebnis noch weiter individualisieren liesse. Aspekte wie die Berücksichtigung der konkreten Aufgaben eines Nutzers oder die Anpassungen von Suchergebnissen wären jedoch nicht betrachtet worden. 3.4 A Personalized e-Learning Material Recommender System 2004 veröffentlichte Jie Lu seinen Artikel „A Personalized e-Learning Material Recommender System“14 in den „Proceedings of the 2nd International Conference on Information Technology for Application“15 . Er stellt darin ein Framework für ein personalisiertes Lernempfehlungssystem vor, dessen Ziel es ist, Studenten dabei zu helfen, die Lernmaterialien herauszufinden, die in ihrer Situation am besten geeignet sind. Da immer mehr Lernmaterialien online verfügbar seien, falle es Lehrpersonal zunehmend schwerer, ihren Studenten die am besten geeigneten Materialien zu empfehlen. Gleichsam falle es Lernenden schwer, zu entscheiden, welche Materialien für sie am besten wären. Lu führt aus, dass Empfehlungssysteme zunächst für den E-Commerce-Bereich entwickelt worden seien, wo sie inzwischen auch erfolgreich eingesetzt werden würden. Sie ermittelten dort auf Basis verschiedener Grundlagen personalisierte Produktempfehlungen. Vorhandene Recommender Systeme im E-Commerce-Bereich könnten grob unterschieden werden in inhaltsorientierte und kooperationsorientierte Systeme (vgl. Tabelle 3.4). Im Bildungsbereich existierten noch deutlich weniger Studien zum Einsatz solcher Systeme, so Lu. Dabei könnten sie auch hier den natürlichen Prozess des Vertrauens auf Freunde, Klassenkameraden, Dozenten und andere Quellen was die Lernentscheidungen betreffe, unterstützen. 13 Kolb, D., Experiential learning experience as the source of learning and development. Prentice Hall, 1984 Ein personalisiertes E-Learning Materialempfehlungssystem 15 LU, J. (2004), S. 374-380. 14 40 3.4. A PERSONALIZED E-LEARNING MATERIAL RECOMMENDER SYSTEM inhaltsorientiert Datenbasis Produktbeschreibungen mit einer Vielzahl Attribute Erstellt Empfehlungen durch Vergleich der Kundenpräferenzen mit Produktinhalten Details zur Empfehlungsberechnung Kundenwünsche werden vorausberechnet durch die Analyse der Beziehungen zwischen Produktbewertungen und den zugehörigen Produkteigenschaften. Nachteile / Schwachstellen können nicht eingesetzt werden für: - neue Kunden, die nur wenig gekauft haben, - potentielle Kunden, die noch nichts gekauft haben - Kunden, die Produkte kaufen wollen, die nicht häufig gekauft werden kooperationsorientiert Daten einer Gruppe von Kunden, dienen dazu Empfehlungen für einzelne Mitglieder der Gruppe machen zu können Vergleich der Kundenbewertung für ein Produkt mit den Bewertungen anderer Kunden Kollaboratives Filtern: Kundengruppen, deren Interessen einem Kunden ähnlich sind („Nachbarn“) werden identifiziert und es werden dem Kunden Empfehlungen auf Basis der Vorlieben der anderen Kundengruppenmitglieder gemacht Sparsity-Problem / Erstbewerterproblem: - wenn Produkte nur wenige Bewertungen haben, ist kollaboratives Filtern schwierig - besonderes Problem: Markteintritt von neuen Produkten, die noch gar keine Bewertungen haben (Ermittlung der „Nachbarn“ dann nicht möglich) Tabelle 3.4: inhaltsorientierte und kooperationsorientierte Recommender-Systeme 3.4.1 Vorüberlegungen Im Rahmen dieser Studie stellt Lu ein Framework für personalisierte Lernempfehlungssysteme (Personalized Learning Recommender System, PLRS) vor. Dabei seien die wichtigsten Fragestellungen: - Wie identifiziert man akkurat den Bedarf eines Studenten? - Wie findet man die passenden Lernmaterialien zu diesem Bedarf? Dabei gelte es folgendes zu beachten: Die individuellen Bedürfnisse und Lernstile eines einzelnen Studenten sollten berücksichtigt werden. Ausserdem sollte sich die Lernumgebung zur Laufzeit weiter anpassen und ihr Verhalten auf Basis der Interaktionen mit dem Studenten verändern können, stellt Lu fest. Um solch eine Lernumgebung zu schaffen, müssten zunächst der 41 3.4. A PERSONALIZED E-LEARNING MATERIAL RECOMMENDER SYSTEM Hintergrund eines Studenten, sein bevorzugter Lernstil und sein Lernbedarf identifiziert werden. Was die ausgesprochenen Empfehlungen betreffe, so unterteilt Lu schlechte Empfehlungen in zwei Arten: falsch negative und falsch positive. Falsch negative Empfehlungen seien solche Materialien, die nicht empfohlen werden, obwohl sie von Interesse wären. Falsch positive hingegen sind diejenigen Materialien, die empfohlen werden, obwohl sie unnötig oder gar nicht geeignet wären. Lu betont, dass im Kontext einer Lernumgebung letztere auf jeden Fall zu vermeiden seien, da sie zu frustrierten Studenten führten, die die Seite nicht mehr besuchen würden. 3.4.2 Framework des PLRS Lus Framework hat vier Hauptbestandteile. Die Aufgaben der einzelnen Komponenten lauten: 1. Sammeln der Studenteninformationen 2. Identifizieren des Lernbedarfs der Studenten 3. Lernmaterialien-Vergleichsanalyse 4. Generierung von Empfehlungen Sobald eine Lernmaterialdatenbank oder eine Lernaktivitätendatenbank erstellt worden sei und Studentendaten eingeholt wurden, könne das PLRS computergestützte Analysemodelle benutzen, um den spezifischen Lernbedarf eines Studenten zu ermitteln und dann mithilfe von Matching Regeln Empfehlungen von Lernmaterialien oder –aktivitäten für den Studenten erstellen. Die vier Elemente sind verbunden mit einer Benutzerschnittstelle, einer Studentendatenbank und einer Lernmaterialdatenbank mit Baumstruktur. Ferner gäbe es ein Bedarfsmodell und MatchingRegeln (vgl. Abbildung 3.7). Der Ablauf sei dann wie folgt: Das System erhalte Studenteninformationen und speichere diese in der Studentendatenbank (Komponente 1). Dann werde der Lernbedarf des Studenten von der zweiten Komponente festgestellt. In der dritten Komponente finde der Vergleich der Lernmaterialien mit den Anforderungen statt und schliesslich würden in der vierten Komponente Empfehlungen für den Studenten generiert. 3.4.3 Definitionen Studenten würden als Vektoren dargestellt werden: X = (x1 , x2 ,..., xn ). Die Kriterien zur Evaluation des Lernbedarfs seien unabhängige Variablen und würden als Kriterienvektor notiert werden: C = (c1 , c2 ,...,cm ). Der Bedarf eines Studenten xi für Lernmaterial werde ebenfalls durch einen Vektor repräsentiert: Ril = (ril , fl ,...,fp ), l<=i<=n. ril sei dabei der Bedarf an Lernmaterial, fl ,...,fp seien Eigenschaften des notwendigen Lernmaterials, wie z.B. der Schwierigkeitsgrad. Die Empfehlungen für einen Studenten xi würden dann aus einem Lernmaterialsatz bestehen: Li = (li1 ,li2 ,...,lik ). Der Lernmaterialsatz Li stimme überein mit dem Studentenbedarf Ri (i=1,2,...,n) (nach fuzzy matching-Regeln). 42 3.4. A PERSONALIZED E-LEARNING MATERIAL RECOMMENDER SYSTEM Students Interface 1: Getting students information Student Database 2: Student requirement identification 3: Learning material matching analysis Multi-criteria student requirement analysis model Matching rules 4: Learning recommendation generation Learning material tree Learning material management Abbildung 3.7: PLRS Framework nach Lu (2004) 3.4.4 Komponentendetails 1. Erhalten der Studenteninformationen Die Informationen würden auf verschiedene Arten eingeholt: zum Einen von den Studenten selbst, insbesondere bei Neuanmeldungen. Weiterhin werde der Bedarf auf Basis der Lernhistorie der am häufigsten auftretenden Studentengruppen ermittelt. Die Datenbank speichere zudem die Ergebnisse des WUM der Klick Streams der Studenten. Durch die Analyse der Klick-Streams würden deutlich bessere Ergebnisse erzielt als durch die blosse Zugriffsauswertung. Ausserdem würden Assoziationsregeln aus dem Klick-Stream miniert, die interessante Beziehungen zwischen Lernmaterialien offenbarten. 2. Identifizierung des Lernbedarfs Diese Komponente untersuche verschiedene Informationsquellen und wende ein Multi-KriterienAnalyse-Modell des Studentenlernbedarfs an, um die Anforderungen einzelner Studenten zu ermitteln, erläutert Lu. In der Studentendatenbank liegen Aufzeichnungen über Lernstile, Lernmaterialzugriffe und Leistungen aller Studentengruppen. Diese Daten werden genutzt, um individuelle Präferenzen einzelner Studenten der Gruppe zu identifizieren. Die Studenten erhalten also Empfehlungen auf Basis von Materialien, die ihre Kommilitonen bevorzugten. 3. Lernmaterialvergleichsanalyse 43 3.5. OFF-TASK BEHAVIOUR IN THE COGNITIVE TUTOR CLASSROOM Database Subject Introduction ER-modeling Normalization Business rules Draw ER-model ER transformation Level 0 SQL Transaction Level 1 Level 2 L-224, 2, L-223, 3, L-222, L-221, 3, Level 3 Abbildung 3.8: Learning Material Tree nach Lu (2004) Die dritte Komponente nutze fuzzy matching Regeln, um Lernmaterialien zu finden, die den Studentenanforderungen entsprechen. Das Lernmaterial sei in einer Baumstruktur aufgebaut, die Materialien in verschiedenen Schwierigkeitsstufen klassifiziere und in unterschiedlichen Ebenen repräsentiere (vgl. Abbildung 3.8) Fuzzy Set Techniken könnten komplexe und unstete Beziehungen beschreiben und mit unbeständigen Klassifizierungen, umgehen. Fuzzy Sets, die auf Fuzzy Distance basierten, könnten aufgrund ihrer Dehnbarkeit den Vergleich von Anforderungen und Lernmaterialien verbessern. 4. Generierung von Empfehlungen Diese Komponente generiere eine Liste von Lernmaterialien, um sie dem Studenten zu präsentieren und sie gleichsam in der Studentendatenbank abzulegen. 3.4.5 Vorteile des Frameworks Inhaltsorientierte Empfehlungen und kooperationsorientierte Empfehlungen ergänzten sich gegenseitig. Dieses Framework integriere beide Ansätze, wodurch die Empfehlungsleistung insgesamt gesteigert worden sei. 3.5 Off-Task Behaviour in the Cognitive Tutor Classroom „Off-Task Behaviour in the Cognitive Tutor Classroom: When Students ’Game the System’“16 wurde von Ryan Baker, Albert Corbett, Kenneth Koedinger und Angela Wagner 2004 veröffentlicht17 . Die Autoren beschreiben in diesem Artikel Off-Task-Verhalten von Schülern beim Lernen mit ITS und den Einfluss dieser Verhaltensweisen auf den Lernerfolg. Off-Task-Verhalten definiert 16 17 Aufgabenfernes Verhalten im Tutorsystem: Wenn Studenten versuchen, das System zu überlisten BAKER, R. et al. (2004), S. 383-390. 44 3.5. OFF-TASK BEHAVIOUR IN THE COGNITIVE TUTOR CLASSROOM Baker, wäre zu beobachten, wenn ein Schüler sich komplett von der Lernumgebung ablöst und sich einer Tätigkeit zuwende, die ohne Bezug zur Aufgabe ist. Die Autoren stellen eine starke negative Beziehung zwischen dem Lernerfolg und einem Verhalten, das sie „Gaming the System“ nennen, fest. „Gaming the System“ bedeute, dass ein Schüler Funktionen der Software ausnutze, um vom System die richtigen Antworten zu erhalten und im Programm weiterzukommen, anstatt selbst über die Lösung nachzudenken. Beispiele seien: 1) schnelles und wiederholtes Fragen nach Hilfe, bis der Tutor die richtige Antwort gäbe 2) schnelles und systematisches Eingeben von willkürlichen Antworten oder das Auswählen jeder möglichen Checkbox, bis der Tutor eine richtige Antwort bestätige. Tatsächlich sei der Einfluss dieses Verhaltens auf das Lernergebnis genauso groß wie das Vorwissen und die allgemeine akademische Leistung eines Schülers. 3.5.1 Studienaufbau Die Autoren verweisen auf eine Hypothese von Caroll, genannt „Time-On-Task-Hypothese“ nach der eine Beziehung zwischen dem Verhalten im Klassenzimmer und Lernen der Art bestünde, dass je länger ein Student sich mit dem Lernmaterial beschäftige, er umso mehr Gelegenheit habe zu lernen. Diese These suggeriere, dass Off-Task-Verhalten das Lernen negativ beeinflusse. Die Verfasser beobachteten die Häufigkeit von verschiedenen Off-Task-Verhaltensmustern bei Schülern, während diese einen Cognitive Tutor verwendeten, um zu untersuchen, ob und inwiefern die verschiedenen Arten von Off-Task Verhalten unterschiedlich starken Einfluss auf das Lernen hätten. Untersucht wurden Kurse mit einer Mischung aus konzeptionellem Unterricht und ITS Kurseinheiten, wobei das ITS Problemlösungsaufgaben und Feedback auf Basis des entwickelten Profils des Schülers und seiner Fähigkeiten auswähle. Die Beobachtungen fanden in 5 Grundschulklassen mit insgesamt 70 Schülern zwischen 12 und 14 Jahren an zwei unterschiedlichen Schulen einer mittelgrossen Stadt im Nordosten der USA statt. Zunächst sahen die Schüler eine Power Point Präsentation mit übergelagerten gesprochenen Erklärungen. Darauf folgte ein erster Test, mit dem das vor der Tutoreinheit vorhandene Wissen gemessen wurde. Nach Absolvierung einer Tutoreinheit erfolgte dann ein Nachtest. Die Tests wurden danach bewertet, wie viele der notwendigen Schritte in einem Problemlösungsprozess richtig waren. Die Aufzeichnungen über das On- und Off-Task-Verhalten der Schüler wurden durch unauffällige 45 3.5. OFF-TASK BEHAVIOUR IN THE COGNITIVE TUTOR CLASSROOM (periphere) Beobachtung während der Tutoreinheit gesammelt. Jeder Observationsabschnitt dauerte 20 Sekunden. Aufgezeichnet wurde neben der Häufigkeit auch die Art des Verhaltens. Unterschieden wurde dabei zwischen: 1) On-Task, bei der Arbeit 2) On-Task, Unterhaltung zum Thema (bspw mit dem Lehrer oder einem anderen Schüler) 3) Off-Task, Unterhaltung (Unterhaltung über aufgabenferne Themen) 4) Off-Task, Beschäftigung allein (z.B. lesen, surfen,...) 5) Off-Task, Inaktivität (in den Raum starren oder Kopf auf Tisch für den gesamten 20 Sek. dauernden Observationsabschnitt) 6) Off-Task, „Gaming the System“ (systematisch und in schneller Folge falsche Antworten eingeben oder die Hilfefunktionen nutzen, mehrere dieser Aktionen innerhalb des 20-Sek. dauernden Observationsintervalls) So kodierten Baker und Wagner insgesamt 563 Beobachtungen, durchschnittlich also 8 pro Schüler. Wurden zwei unterschiedliche Verhalten beobachtet, wurde nur das jeweils erste notiert. Die Noten des Abschlusstests der Schüler wurden als Maßstab für die generelle akademische Leistung in die Auswertung einbezogen. 3.5.2 Ergebnisse Das durchschnittliche Vortestergebnis lag bei 40% und verbesserte sich auf 71% im Nachtest. Die Autoren beobachteten folgende Verhaltensweisen: 82% der Zeit beschäftigten sich die Schüler mit der Aufgabe (inkl. 4% themenbezogener Konversation). 11% der Zeit wurde mit Off-Task Unterhaltungen verbracht. Gaming the System fand in 3% der Zeit statt, ebensohäufig wurde Inaktivität beobachtet. Am seltensten, in nur 1% der Zeit, beschäftigten sich Schüler allein ohne Aufgabenbezug. Jedoch zeigten mehr Schüler das jeweilige Verhalten mindestens ein Mal, als die Häufigkeiten suggerieren: 41% der Schüler führten mindestens ein Mal eine themenfremde Unterhaltung. 24% der Schüler wurden mindestens ein Mal beim „Gaming the System“ beobachtet. Inaktivität wurde bei 21% der Schüler mindestens ein Mal festgestellt und 9% der Schüler beschäftigten sich mindestens ein Mal eigenständig mit themenfremdem Material. 100% der Schüler wurden mindestens ein Mal bei der konzentrierten Bearbeitung der Aufgabe beobachtet. 3.5.3 Die Beziehungen von Off-Task-Verhalten zum Lernerfolg Das Vorwissen (Vortestergebnis, r=0.32) und die allgemeine akademische Leistung (r=0.36) der Schüler seien für sich genommen gute Prädiktorwerte für die Nachtestergebnisse. Gemeinsam würden sie eine hohe Korrelation zum Nachtestergebnis aufweisen (r=0.61). 46 3.5. OFF-TASK BEHAVIOUR IN THE COGNITIVE TUTOR CLASSROOM Abbildung 3.9: zeitliche Verteilung der Verhaltensweisen in Prozent Fasse man alle Arten von Off-Task-Verhalten zusammen, erhalte man einen ziemlich guten Prädiktorwert für das Nachtestergebnis, mit einem Korrelationskoeffizienten r von -0.33. Dabei ermittelten die Verfasser signifikante Unterschiede zwischen den Korrelationskoeffizienten der verschiedenen Verhaltensweisen, „Gaming-the-System“ stelle jedoch das einzige Off-Task-Verhalten dar, das einen signifikanten negativen Einfluss auf das Nachtestergebnis habe (r=-0.38, zum Vergleich, Off-Task-Unterhaltungen hätten -0.19, die anderen Verhaltensweisen noch schwächere Korrelationskoeffizienten). Nachtestergebnis Vortestergebnis Allg. akademische Leistung Off-Task, „GamingtheSystem“ Off-Task, Unterhaltung Off-Task, Inaktivität Off-Task, Einzelbeschäftigung On-Task, Unterhaltung Geschlecht 0,32 0,36 -0,38 -0,19 -0,08 -0,08 -0,24 -0,08 Tabelle 3.5: Korrelationskoeffizienten verschiedener Verhaltensweisen zum Nachtestergebnis nach Baker et al. (2004) Erstaunlicherweise bestehe ebenfalls ein negativer Zusammenhang zwischen den On-Task Unterhaltungen und dem Nachtestergebnis. Da überwiegend die Schüler das Verhaltensmuster „Gaming the System“ zeigten, die ein niedriges Vortestergebnis hatten, könnte die Hypothese aufgestellt werden, dass die Schüler deshalb dieses Verhalten zeigten, weil sie ohnehin nicht so recht wüssten, wo sie anfangen sollten, und dass es keinen eigenen Effekt aufweise. Um dies zu untersuchen, betrachten die 47 3.5. OFF-TASK BEHAVIOUR IN THE COGNITIVE TUTOR CLASSROOM Abbildung 3.10: Anteil der Schüler, die die Verhaltensweisen mind. ein Mal zeigten Autoren diejenigen 8 Schüler, die dieses Verhalten am häufigsten zeigten und vergleichen sie mit den 24 Schülern, die das Verhalten nie zeigten und höchstens ein ebenso niedriges Vortestergebnis (maximal 17%) hatten (vgl. Tabelle 3.6). Häufiges „Gaming the System“-Verhalten Nie gezeigtes „Gaming-the-System“-Verhalten 8% 7% 44% 68% Durchschnittl. Vortestergebnis Durchschnittl. Nachtestergebnis Tabelle 3.6: Vergleich zwischen Gamern und Nicht-Gamern mit niedrigem Vorwissen Während sich die Gamer nur um durchschnittlich 36% verbesserten, betrug die Verbesserung bei der Vergleichsgruppe 61%. 3.5.4 Zusammenfassung Zusammenfassend könne gesagt werden, dass Schüler, zu deren Verhaltensweisen „Gaming the System“ gehöre, grundsätzlich schlechtere allgemeine akademische Leistungen und am wenigsten Vorwissen in dem relevanten Bereich hätten. Ferner würden Schüler, die diese Charakteristiken teilten, dieses Verhalten aber nicht an den Tag legten, im Vergleich deutlich mehr lernen. Eine andere Erkenntnis sei, dass die Art der Off-Task-Beschäftigung relevanter wäre als die absolute Häufigkeit, wobei „Gaming the System“ die stärkste negative Beziehung zeige. 48 3.5. OFF-TASK BEHAVIOUR IN THE COGNITIVE TUTOR CLASSROOM Abbildung 3.11: Einflussfaktoren auf das Nachtestergebnis Dies widerspreche der Time-On-Task-Hypothese. Weniger Zeit mit der Aufgabe zu verbringen scheine zu einem niedrigeren Lernerfolg zu führen, aber es sei wichtiger, wie der Schüler die Software nutze als die absolute Zeit, die er mit ihr verbringe. Ein moderater Anteil an Zeit, die mit Gaming-the-System verbraucht werde, scheine nachteiliger zu sein als ein moderater Anteil anderer Off-Task-Verhalten. Gaming-the-System könne ein Signal dafür sein, dass der Schüler mehr Interesse daran habe, gut abzuschneiden als etwas zu lernen, und dass es diese Leistungsorientierung wäre, die dem Lernen im Weg stehe. Eine andere These, die die Autoren vorschlagen ist, dass „Gaming-the-System“ Gemeinsamkeiten mit dem strategischen Verhalten von Schülern zeige, die Hilflosigkeit erlernt hätten, da sie ihre früheren Misserfolge (was allgemeinhin eine Folge von niedrigem Vorwissen ist, eine der Eigenschaften der Schüler, die in dieser Studie häufig das System ausnutzten) einer grundsätzlichen Minderbegabung zuschrieben und aktiv schwierige Herausforderungen meiden würden wodurch sie stets weniger lernten als die Schüler, die sich immer wieder bemühten. Welche dieser Thesen zutreffe könne auf Basis der Studienergebnisse nicht gesagt werden, die Autoren schließen jedoch mangelndes Interesse am konkreten Unterrichtsmaterial als Ursache für das Gaming-Verhalten aus. Wäre mangelndes Interesse eine Ursache, so argumentieren sie, würden die Gamer ebenso auch die anderen Off-Task-Verhaltensweisen häufiger zeigen, was sie nicht taten. Schüler, die das Gaming-the-System-Verhalten zeigten, widmeten sich mit der gleichen Häufigkeit den anderen Off-Task-Verhaltensweisen wie andere Schüler. 49 Kapitel 4 Eigene Anwendungsbeispiele 4.1 Zielstellung Mögliche Fragestellungen, die anhand von Datenbankeinträgen eines LMS untersucht werden könnten, lauten beispielsweise: 1. Welche Fragen in einem Test sind besonders einfach oder besonders schwer? 2. Gibt es Fragearten, die besonders häufig falsch bzw. mit nicht voller Punktzahl absolviert wurden? 3. Gibt es Fragenpaare oder -gruppen, die häufig gemeinsam falsch beantwortet wurden? (Wer Frage X nicht richtig beantworten konnte, kann auch Frage Y nicht richtig beantworten.) 4. Steht die Dauer der Aktivität eines Users in der ILIAS in Zusammenhang mit seinen Testergebnissen? 5. Gibt es falsche Antworten, die sehr populär sind, also überdurchschnittlich häufig ausgewählt wurden, obwohl sie ja falsch sind? 6. Gibt es Fragen, die nie (im ersten Durchgang) richtig beantwortet wurden? 7. Liessen sich anhand von Testergebnissen Studentengruppen mit ähnlichem Wissensstand bilden? 8. Gibt es einen Zusammenhang zwischen der Dauer, die jemand im Skript oder anderen Elementen des Lernmoduls verbracht hat und seinem Abschneiden im zugehörigen Test? 9. Gibt es einen Zusammenhang zwischen der Bearbeitungsdauer eines Tests und der Wahrscheinlichkeit einer guten Note? 10. Gibt es einen Zusammenhang zwischen Bearbeitungsdauer einer Frage und der Wahrscheinlichkeit einer korrekten Antwort? In den folgenden Abschnitten werden beispielhaft Fragen 1 bis 3 untersucht. 50 4.2. VORGEHENSWEISE Abbildung 4.1: Educational Data Mining Prozess 4.2 Vorgehensweise Romero und Ventura1 skizzieren den DM Prozess im Bildungsbereich wie folgt (vgl. Abbildung 4.1): Zunächst wird eine Hypothese gebildet, aus der Lernumgebung werden Rohdaten entnommen, diese werden vorverarbeitet. Mit den modifizierten Daten findet dann das eigentliche Data Mining statt. Die so gefundenen Modelle und Muster werden dann interpretiert und evaluiert. In Kapitel 4.3 wird beschrieben, welche Daten für dieses Kapitel herangezogen wurden. Der weitere Ablauf der Untersuchungen unterscheidet sich je nach Fragestellung und wird daher jeweils in den Abschnitten 4.4, 4.5 und 4.6 beschrieben. 4.3 4.3.1 Lernumgebung und Rohdaten ILIAS Die Universität Wismar, die unter dem Namen WINGS verschiedene Fernstudiengänge anbietet, ergänzt seit einigen Jahren ihre Lehrangebote vermehrt mit E-Learning-Materialien. Hierbei setzen sie sowohl im Präsenzstudium als auch im Fernstudium auf das Lernmanagementsystem ILIAS2 , kurz für „Integriertes Lern-, Informations- und Arbeitskooperations-System“. ILIAS ist eine plattformunabhängige, Open-Source Softwarelösung, die seit 2000 unter der GPL veröffentlicht wird. 2009 waren bereits über 2500 Referenzinstallationen bekannt, zu den größten zählen die der Bundesagentur für Arbeit mit über 100.000 Anwendern. Auch die NATO und die Bayrische Landespolizei setzen die ILIAS als Lernplattform ein.3 Eine Standardinstallation der ILIAS Version 5.0 besteht aus 861 Tabellen. Abbildung 4.2 zeigt einige Wesentliche davon. 4.3.2 Datensätze Zur Untersuchung der obigen Fragestellungen liegt ein Datenbankspeicherabzug der ILIASInstallation der Universität Wismar vor. Der Abzug umfasst knapp 8.000 bereits anonymisierte Nutzerdatensätze. 1 ROMERO, C., VENTURA, S. (2013), S. 12-27. ILIAS (2015). 3 WIKIPEDIA, Stichwort „ILIAS (Software)“ (2015). 2 51 4.4. WELCHE FRAGEN IN EINEM TEST SIND BESONDERS EINFACH ODER BESONDERS SCHWER? Abbildung 4.2: Beispieltabellen aus der ILIAS 4.4 Welche Fragen in einem Test sind besonders einfach oder besonders schwer? 4.4.1 Datenvorverarbeitung Eine detaillierte Beschreibung des Schrittes der Datenvorbereitung, findet sich bei Romero, Romero und Ventura4 (vgl. Kapitel 3.1 und insbesondere Abbildung 3.1). 1. Daten erfassen Die benötigen Informationen finden sich über zwei Tabellen verteilt. Die fragespezifischen Daten liegen in der Tabelle qpl_questions: Frage-ID, Frageart, Fragepool (Test), Titel und maximal erhältliche Punkte. Über die Tabelle tst_active können Testergebnisse einzelnen Nutzern und Testdurchgängen zugeordnet werden. In der Tabelle tst_test_result finden sich dann die je Frage und Nutzer erreichten Punkte. Beispielhaft wird im Folgenden eine Testklausur der Theoretischen Informatik (TI) betrachtet. 1 SELECT q p l q . q u e s t i o n _ i d , q p l q . q u e s t i o n _ t y p e _ f i , q p l q . o b j _ f i , q p l q . t i t l e , q p l q . p o i n t s as maxpoints , q p l q . q u e s t i o n _ t e x t , t a . a c t i v e _ i d , t a . u s e r _ f i , t a . t e s t _ f i , t t r . p o i n t s , t t r . p o i n t s / q p l q . p o i n t s ∗ 100 as prozent , i q . t e s t p r o z e n t FROM q p l _ q u e s t i o n s qplq , t s t _ a c t i v e ta , t s t _ t e s t _ r e s u l t t t r , 3 (SELECT t a . u s e r _ f i , SUM( t t r . p o i n t s ) /SUM( q p l q . p o i n t s ) ∗ 100 as t e s t p r o z e n t FROM q p l _ q u e s t i o n s qplq , t s t _ a c t i v e ta , t s t _ t e s t _ r e s u l t WHERE t a . a c t i v e _ i d = t t r . a c t i v e _ f i 5 4 Vgl. ROMERO, C., ROMERO, J., VENTURA, S. (2014), S. 29-64. 52 ttr 4.4. WELCHE FRAGEN IN EINEM TEST SIND BESONDERS EINFACH ODER BESONDERS SCHWER? AND q p l q . q u e s t i o n _ i d = t t r . q u e s t i o n _ f i GROUP BY t a . u s e r _ f i 7 ) iq 9 WHERE o b j _ f i = 58020 AND t t r . pass = 0 11 AND t a . a c t i v e _ i d = t t r . a c t i v e _ f i AND q p l q . q u e s t i o n _ i d = t t r . q u e s t i o n _ f i 13 AND t a . t e s t _ f i = 549 AND i q . u s e r _ f i = t a . u s e r _ f i Listing 4.1 : SQL Query 2. Datenaggregation und -integration Es werden keine weiteren Quellen berücksichtigt. Damit entfällt die Datenaggregation und -integration in diesem Fall. 3. Datenbereinigung Die Ergebnisse der SQL-Abfrage wurden in einer CSV-Datei gespeichert und zunächst mit Microsoft Excel eingehender betrachtet. Es wurden die Datensätze von unvollendeten Testdurchläufen ermittelt und verworfen. 4. Nutzer- und Sitzungsidentifizierung und Datenfilterung Die Nutzer- und Sitzungsidentifizierung fand bereits mithilfe der SQL-Abfrage statt. Es wurden lediglich die Tests „TI-Klausurfragen“ (obj_fi = 58020) und lediglich der Testdurchlauf (test_fi = 549) ausgewählt. 5. Attributauswahl und Datenumwandlung Auch die Attributauswahl und Datenumwandlung fand weitestgehend bereits mit der SQLAbfrage statt. Die erhaltenen Prozent je Test und Nutzer wurden bereits mit einer Hilfsabfrage ermittelt. Diese wurden dann in Microsoft Excel anhand des universitätsweit gültigen Notenschlüssels in Noten umgewandelt. Es wurde dann aus der CSV- eine ARFF-Datei gebildet, in die zu jeder User-ID die erhaltenen Punkte je Frage und die Gesamtnote des Tests aufgenommen wurden (vgl. Abbildung 4.3). 4.4.2 Data Mining und Evaluation Zur weiteren Untersuchung der nun vorbereiteten Daten wird die freie Software Knime, der Konstanz Information Miner, genutzt (vgl. Abbildung 4.4). „Die graphische Benutzeroberfläche ermöglicht das einfache und schnelle Aneinandersetzen von Modulen für die Datenvorverarbeitung, der Modellierung und Analyse und der Visualisierung.“5 5 WIKIPEDIA, Stichwort „KNIME“ (2015). 53 4.4. WELCHE FRAGEN IN EINEM TEST SIND BESONDERS EINFACH ODER BESONDERS SCHWER? Abbildung 4.3: Auszug aus einer ARFF-Datei Abbildung 4.4: Auszug aus einem KNIME Workflow Als erstes erfolgt das Einlesen der Datei mithilfe des Moduls ARFF Reader. Da die Daten schon vorbereitet wurden, können dann direkt verschiedene weitere Module angewendet werden. Um die Fragestellung zu beantworten, bietet sich die Visualisierung der Testergebnisse mithilfe des Moduls Scatter Plot an. Die Ergebnisse sind in Auszügen in Abbildung 4.5 zu sehen. Auf den ersten Blick lassen sich einige Auffälligkeiten ersehen. So schneiden nahezu alle Teilnehmer bei der Frage zu den Blättern eines Entscheidungsbaumes mit voller Punktzahl ab, bei der Frage zu den Themen der Theoretischen Informatik erhält jedoch kaum ein Nutzer einen Punkt. Die Frage zu den endlichen Automaten wurde sogar von keinem Studenten erfolgreich beantwortet. Hingegen ist die Punkteverteilung bei dem Fehlertext zur Turing-Maschine nahezu gleichmäßig. Diese Informationen erlauben interessante Rückschlüsse für den Dozenten. Welche Bereiche bereiten den Studenten am meisten Probleme? Was fällt ihnen besonders leicht? Welche Themen könnten stärker betont werden? Wie lassen sich die Ressourcen zum Beispiel in Form von Vorlesungszeit besser verteilen? Wo besteht zusätzlicher Bedarf an Materialien oder Beispielen? So könnte beispielsweise in diesem Fall der Dozent entscheiden, den Bereich im Skript, der sich mit endlichen Automaten beschäftigt zu vereinfachen oder um Beispiele zu erweitern. 54 4.5. GIBT ES FRAGEARTEN, DIE BESONDERS HÄUFIG FALSCH BZW MIT NICHT VOLLER PUNKTZAHL ABSOLVIERT WURDEN? Abbildung 4.5: Verteilung der erreichten Punkte Ferner lässt sich auf Basis der erstellten ARFF-Datei mithilfe des J48-Moduls ein Entscheidungsbaum zeichnen (vgl. Abbildung 4.6. Aus diesem wird ersichtlich, dass ein Großteil derer, die im Bereich Mengenoperationen 0 Punkte erhielten, die Testklausur mit der Note 5 abschlossen, also nicht bestehen konnten. Die Daten erlauben jedoch in diesem Fall keine eindeutige Klassifikation: so absolvierten nur 11 der 14 Studenten, die 0 Punkte für die Frage über Mengenoperationen erhielten, den Test mit der Note 5, drei erhielten andere Noten. Analog kann man im Baum auch die anderen Fehlerraten ersehen. Jedes Blatt zeigt als erstes das erreichte Testergebnis und in Klammern vor dem Schräger die Anzahl derer, für die die Klassifizierung gelten müsste und hinter dem Schräger die Teilmenge derer, für die sie nicht gilt. 4.5 Gibt es Fragearten, die besonders häufig falsch bzw mit nicht voller Punktzahl absolviert wurden? 4.5.1 Datenvorverarbeitung 1. Daten erfassen In der ILIAS können 15 verschiedene Fragearten unterschieden werden (Relation qpl_qst_type). Ferner sind die Informationen aus den Tabellen tst_test_result und qpl_questions hier relevant. Mithilfe von SQL werden so die Attribute Frage-ID, Frageart, erreichte Punkte, erreichbare Punkte, erreichte Prozent, Anzahl (Wie oft wurde die Frage beantwortet) und Objekt-ID (Zu welchem Test gehört die Frage?) ermittelt. Das Ergebnis wurde als CSV-Datei gespeichert. 55 4.5. GIBT ES FRAGEARTEN, DIE BESONDERS HÄUFIG FALSCH BZW MIT NICHT VOLLER PUNKTZAHL ABSOLVIERT WURDEN? Abbildung 4.6: J48-Entscheidungsbaum zur TI-Testklausur 2. Datenbereinigung Zunächst wurden die Fragen eliminiert, die weniger als 10 Mal beantwortet wurden, da diese Menge als statistisch nicht relevant eingestuft wurde. Einige Datensätze waren offensichtlich fehlerhaft, da die erreichten Punkte die maximal erreichbaren Punkte überstiegen (erreichte Prozent > 100). Auch die Datensätze zu diesen Fragen wurden verworfen. Mit zwei Fragen konnten jeweils maximal 0 Punkte erreicht werden, auch diese wurden gelöscht. Es verblieben 1746 unterschiedliche Frage-Datensätze. Da zu einigen Fragetypen nur wenige bzw. teilweise gar keine Daten vorhanden sind, wurden im weiteren Verlauf der Untersuchung ausschliesslich die 1740 Datensätze zu Fragen der übrigen 10 Typen berücksichtigt. Abbildung 4.7 zeigt den beschriebenen Workflow in Knime. 3. Nutzer- und Sitzungsidentifizierung Anhand der Objekt-ID können die Datensätze einzelnen Tests zugeordnet werden. Zur weiteren Analyse ausgesucht wurden die Tests „DB Fragenpool 2“, „OCP Assessmenttest“, „TI-Klausurfragen“ und „UF - Operative Planung und Kontrolle“. 4. Attributauswahl und Datenfilterung Zunächst werden die Attribute Fragetyp und erreichte Prozent in Beziehung gesetzt. 4.5.2 Data Mining und Evaluation Zur Analyse der Fragestellung wird das Modul Scatter Plot zum Zeichnen eines Streudiagramms mit den Achsen Fragetyp und (erreichte) Prozent benutzt. Über alle 1740 Datensätze ergibt sich das Bild 4.8. Es zeichnet sich ab, dass die Ergebnisverteilung bei den Fragetypen 1 (Single- 56 4.5. GIBT ES FRAGEARTEN, DIE BESONDERS HÄUFIG FALSCH BZW MIT NICHT VOLLER PUNKTZAHL ABSOLVIERT WURDEN? Abbildung 4.7: Datenbereinigung in Knime Choice), 2 (Multiple Choice), 3 (Lückentext), 4 (Zuordnung) und 5 (Sortierung) eher gleichmässig ist. Fragetyp 6 (Imagemap) hat überdurchschnittlich viele Antworten im oberen Viertel, bei den Fragetypen 8 (Textaufgabe), 9 (Fragen mit numerischen Antworten) und 10 (Lückentext mit vorgegebenen Antworten) hingegen, schneiden die Studenten überdurchschnittlich schlecht ab, mit den meisten Antworten in den unteren zwei Dritteln. Des Weiteren ist ersichtlich, dass die Fragetypen 1, 2 und 3 am häufigsten vertreten sind, Fragetyp 7 (Java Applet) gar nicht. Interessant ist auch die grafische Gegenüberstellung von Objekt-ID und Prozent. Sie zeigt die Ergebnisverteilung je Test. Wenngleich es einige wenige Tests gibt, deren Ergebnisse sich ausschliesslich in den oberen zwei Dritteln bewegen, so ist die Mehrheit der Testergebnisse doch sehr gleichmässig auf der Prozentachse verteilt (vgl. Abbildung 4.9). Weiterhin wurde untersucht, wie sich diese Verhältnisse in einzelnen Tests äussern. Es wurden vier Tests ausgewählt: 1. OCP Assessmenttest, 37 Fragen, 104 Teilnehmer, da es der Test mit den meisten Teilnehmern im Datenbestand ist. 2. TI Klausurfragen, 23 Fragen, 32 Teilnehmer, da dieser Test bereits in Kapitel 4.4 behandelt wurde. 3. DB Fragenpool 2, 84 Fragen, 32 Teilnehmer, da dieser Test aus überdurchschnittlich vielen Fragen besteht und von verhältnismässig vielen Teilnehmern absolviert wurde. 4. UF - Operative Planung und Kontrolle, 104 Fragen, 12 Teilnehmer, da es der Test mit den meisten Fragen ist. Der OCP Assessmenttest besteht nahezu ausschliesslich aus Single Choice Fragen. In der 57 4.5. GIBT ES FRAGEARTEN, DIE BESONDERS HÄUFIG FALSCH BZW MIT NICHT VOLLER PUNKTZAHL ABSOLVIERT WURDEN? Abbildung 4.8: Scatter Plot Fragetyp (X-Achse) und erreichte Prozent (Y-Achse) Abbildung 4.9: Scatter Plot: Test-ID (X-Achse) und erreichte Prozent (Y-Achse) überwiegenden Mehrheit der Fragen wurde im Durchschnitt ein Ergebnis im oberen Drittel erreicht. Bei allen 37 Fragen lag der durchschnittlich erreichte Prozentwert über 60%, bei 29 davon sogar bei oder über 75% (vgl. Abbildung 4.10-links). Die TI-Klausurfragen stellen den Test mit den meisten unterschiedlichen Fragetypen dar, allerdings wurden keine Single Choice Fragen verwendet. Stattdessen gibt es Multiple Choice Fragen (8), Lückentexte (3), Zuordnungsfragen (4), Sortierfragen (3), Imagemaps (2) und Textaufgaben (3), wobei Multiple Choice und Imagemap durchschnittlich die besten Ergebnisse produzierten mit minimal 62%. Die Textaufgaben erwiesen sich als am schwierigsten (mit 0, 9 und 28% im Durchschnitt). Zu erwähnen ist ferner, dass auch die übrigen drei Fragetypen vom Durchschnitt nicht bestanden werden konnten mit Ergebnissen zwischen 36 und 54% bei 9 der 10 Fragen und 64% bei einer Zuordnungsfrage. Die Verteilung der durchschnittlich erreichten Prozent je Fragetyp kann aus Grafik 4.11-links ersehen werden. Der DB-Fragenpool 2 besteht ausschliesslich aus Multiple Choice Fragen. Die ersten zwei Fragegruppen konnten durchschnittlich nicht bestanden werden, erst in der dritten Fragegruppe wurde eine relativ gleichmässige Verteilung der Ergebnisse auf der Prozentachse erreicht (vgl. Abbildung 4.10-Mitte). 58 4.6. GIBT ES FRAGENPAARE ODER -GRUPPEN, DIE HÄUFIG GEMEINSAM RICHTIG / FALSCH BEANTWORTET WURDEN? Abbildung 4.10: Scatter Plot: Frage (X-Achse) und durchschnittlich erreichte Prozent (Y-Achse) Abbildung 4.11: Scatter Plot: Fragetyp (X-Achse) und durchschnittlich erreichte Prozent (YAchse) Der Test zur Operativen Planung und Kontrolle setzt sich zusammen aus Fragen der Typen 1 (Single Choice, 3 Stück), 2 (Multiple Choice, 4 Stück), 3 (Lückentext, 87 Stück), 4 (Zuordnungsfragen, 9 Stück) und 8 (Textaufgabe, 1). Die gleichmässigste Leistungsverteilung erreichen dabei die Lückentextaufgaben, aber auch die anderen Fragen lassen keine klare Tendenz erkennen, wie auch in der Scatterplot-Ansicht von Fragen und durchschnittlich erreichten Prozentwerten deutlich wird (Abbildungen 4.11-rechts 4.10-rechts). 4.6 Gibt es Fragenpaare oder -gruppen, die häufig gemeinsam richtig / falsch beantwortet wurden? 4.6.1 Datenvorverarbeitung Der Workflow zur Analyse der Fragestellung ist in Abbildung 4.12 zusammengefasst dargestellt. Zunächst werden aus dem Datenbestand via SQL-Queries diejenigen Datensätze und Attribute ausgewählt, die für die Fragestellung relevant sind. In diesem Fall waren das diejenigen Testfragenergebnisse, bei denen (im ersten Durchgang) 0 bzw. 100% erreicht wurden. Des Weiteren wurde die Auswahl auf Fragen aus einem Test (dem OCP-Assessmenttest) beschränkt, da anzunehmen ist, dass Fragen aus verschiedenen Tests keinen starken Zusammenhang aufweisen würden. Diese Ergebnisse wurden nutzerspezifisch zugeordnet. Im Anschluss fand die Datenumwandlung der SQL-Ergebnisdatei in eine CSV-Datei statt. Dabei 59 4.6. GIBT ES FRAGENPAARE ODER -GRUPPEN, DIE HÄUFIG GEMEINSAM RICHTIG / FALSCH BEANTWORTET WURDEN? Abbildung 4.12: EDM-Workflow wurden die Zeilen nutzerspezifisch zu einer Zeile zusammengefasst. In Knime fand dann erneut eine Datenumwandlung (Bilden einer sogenannten Sammelspalte) und eine Datenbereinigung (Verwerfen der User, die nur eine Frage beantwortet hatten) statt. Dann konnte das Modul Association Rule Miner auf die vorbereiteten Daten angewendet werden. 4.6.2 Data Mining und Evaluation Im Fall der Fragestellung „Wer Frage X nicht beantworten kann, der kann auch Frage Y nicht beantworten“ konnten zahlreiche Regeln gefunden werden (die vier mit dem höchsten Support sind in Abbildung 4.13-oben aufgeführt), die vier stärksten wiesen einen Support von knapp 0,5 auf. Die Confidence-Werte dieser vier Regeln liegen zwischen etwa 0,7 und 0,9. Der Lift dieser Regeln liegt allerdings nur bei maximal 1,27. In 90% aller Fälle, in denen Frage 118677 falsch beantwortet wurde, wurde auch Frage 118680 falsch beantwortet und diese - also verhältnismässig sichere - Regel kann auf etwa die Hälfte der Datensätze angewendet werden. Der Lift-Wert zeigt an, wie viel wahrscheinlicher es ist, die Konsequenz (Frage 118680) zu 60 4.6. GIBT ES FRAGENPAARE ODER -GRUPPEN, DIE HÄUFIG GEMEINSAM RICHTIG / FALSCH BEANTWORTET WURDEN? Abbildung 4.13: Gefundene Assoziationsregeln finden, wenn die Prämisse (Frage 118677) erfüllt ist oder anders gesagt, der Confidence-Wert der Regel geteilt durch den Support-Wert der Konsequenz. Beträgt der Lift 1, spricht man von unabhängigen Werten. Je größer der Wert ist, desto stärker ist die Bindung zwischen Prämisse und Konsequenz. Die Regeln mit einem Lift von nur 1,27 können also nur bedingt als nützlich betrachtet werden. Für die Fragestellung „Wer Frage X korrekt beantworten kann, der kann auch Frage Y richtig beantworten“ wurden Regeln mit einem noch größeren Support gefunden, wie auch aus Abbildung 4.13-unten ersichtlich ist. Bei allen untersuchten Datensätzen wurden die Fragen 11866 und 11867 richtig beantwortet und in 100% dieser Fälle wurde auch Frage 11864 richtig beantwortet. Gleichzeitig muss betont werden, dass der Lift aller hier gefundenen Regeln lediglich 1 beträgt, die Abhängigkeit also nicht sehr stark ausgeprägt ist. Das heisst, auch Frage 11864 wurde in allen Fällen richtig beantwortet, ein Zusammenhang zur korrekten Beantwortung der in der Prämisse aufgeführten Fragen kann also nicht belegt werden. 61 Kapitel 5 Fazit Obwohl die Ergebnisse einzelner Studien und Untersuchungen sinnvolle und interessante Resultate produzieren, gibt es nach wie vor einige Schwachstellen und Risiken innerhalb des Fachgebiets EDM. So sagt Huebner1 , dass es ein großer Nachteil vieler Arbeiten sei, dass die Resultate nicht ohne Weiteres für andere Institutionen oder Bereiche zu verallgemeinern seien. Im Gegenteil seien die meisten Ergebnisse sehr spezifisch für eine Zeit und eine Institution. Er betont, dass es notwendig sei, allgemeinere Ergebnisse zu produzieren. Zur gleichen Thematik schreiben Romero und Ventura 2 bereits 2007, dass das Fehlen von Standards bei den Daten und die fehlende Standardisierung von Methoden eine große Schwachstelle darstellten. Die Möglichkeit der Wiederverwendung von Algorithmen, Techniken oder Werkzeugen wäre von großem Nutzen auch für andere Forscher statt nur für die Entwickler einer speziellen Studie. Dies betreffe neben den Daten insbesondere auch die Datenvorverarbeitung und Ergebnisaufbereitung. Scheuer und McLaren schreiben, dass es sinnvoll sei, Vorhersagemodelle auch in ursprungsfremden Umgebungen und Zusammenhängen zu validieren. Replikationsstudien seien wichtig, um die Generalisierbarkeit der jeweiligen Ergebnisse zu prüfen. Ein wichtiger Schritt sei daher die Bereitstellung öffentlicher Datenbestände in Repositories wie dem PSLC Data Shop, um den Austausch von Daten und Modellen zu fördern3 . Romero, Romero und Ventura bemerken hierzu, dass dieses Repository bislang das einzige seiner Art sei und es dort lediglich Daten aus ITS gäbe, es bestünde aber ebenso Bedarf an Daten aus anderen Quellen wie AIHS, LMS, MOOCs usw. 4 . Schon 2007 verlangten Romero und Ventura5 eine größere Fokussierung auf Ausbilder hinsichtlich der Entwicklung von EDM-Werkzeugen. Parameterfreie, weniger komplexe, intuitivere und einfachere Bedienschnittstellen seien vonnöten. Insbesonders Visualisierungsmöglichkeiten für die Ergebnisse wären wichtig. Dem schliesst sich auch Huebner an. Ein Schwachpunkt sei, so sagt er, die Tatsache, dass es keine einfach zu bedienenden Tools für Ausbilder gäbe, um 1 Vgl. HUEBNER, R. (2013), S. 1-13. Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. 3 SCHEUER, O., McLAREN, B. (2012), S. 1075-1079. 4 Vgl. ROMERO, C., ROMERO, J., VENTURA, S. (2014), S. 29-64. 5 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. 2 62 selbst EDM-Methoden anzuwenden. Es bestehe die Notwendigkeit, Werkzeuge für Ausbilder zu gestalten, die es ihnen erlauben auch selbst kompliziertere Analysen in Datenbeständen durchzuführen, um verschiedene Aspekte des Lernprozesses zu untersuchen6 . Besonders anschaulich ist die SWOT-Analyse der EDM-Forschung von Papamitsiou und Economides7 (vgl. Tabelle 5.1). Romero und Ventura8 schlagen vor, die Data Mining Anwendungen und Werkzeuge in die E-Learning-Systeme als weiteres Authorentool zu integrieren. Alle Data Mining Aufgaben Datenvorverarbeitung, Data Mining und Ergebnisaufbereitung – sollten in einer einzigen Anwendung ausführbar sein. Die Ergebnisse könnten so direkt in die Umgebung integriert werden. Nach Ansicht des Verfassers würde dies den gesamten Prozess des EDM vereinfachen, denn das reine Vorhandensein grosser Datenmengen macht die Auswertung und Nutzbarkeit der Daten nicht einfacher. Im Gegenteil, die Datenaufbereitung, sprich die Vorverarbeitungsschritte, erfordern eine große Menge Zeit und Wissen. Auch mit Fortgeschrittenenkenntnissen ist es nicht immer trivial, Daten aus einem umfangreichen LMS in sinnvolle Formate umzuwandeln, um sie auswerten zu können. Hier besteht in jedem Fall Entwicklungsbedarf, um die Effizienz von EDM zu steigern und den Einsatzbereich zu vergrößern. 6 Vgl. HUEBNER, R. (2013), S. 1-13. PAPAMITSIOU, Z., ECONOMIDES, A. (2014), S. 49-64. 8 Vgl. ROMERO, C., VENTURA, S. (2007), S. 135-146. 7 63 64 - ethische Problemen - Datenschutz - Über-Analyse: die Analysen gehen immer tiefer und die Ergebnisse sind nicht verallgemeinerbar. Die „Übergranularität“ gefährdet das ganzheitliche Bild (den Baum untersuchen und den Wald übersehen) - Möglichkeit der Musterfehlklassifizierung - Vertrauen: gegensätzliche Erkenntnisse bei verschiedenen Implementationen Risiken - Fehlinterpretation der Ergebnisse - heterogene Datenquellen: kein einheitlich verwendetes Vokabular zur Beschreibung –>Datendarstellungsprobleme - überwiegend quantitative Untersuchungsergebnisse, qualitative Untersuchungen haben bislang noch keine signifikanten Resultate hervorgebracht - Informationsüberflutung - komplexe Systeme - Unsicherheit: bislang könnten nur besonders qualifizierte Ausbilder die Ergebnisse korrekt interpretieren Schwächen Tabelle 5.1: SWOT-Analyse der EDM-Forschung nach Papamitsiou & Economides (2014) Stärken - große Bestände an verfügbaren Bildungsdaten –>erhöhte Genauigkeit experimenteller Ergebnisse - bereits existente leistungsstarke und valide algorithmische Methoden - zahlreiche interpretierbare Visualisierungen, um Ausbilder zu unterstützen - genauere Nutzerprofile / Modelle zur Personalisierung von Systemen - kritische Momente und Muster beim Lernen können erkannt werden - Einsicht in Lernstrategien und -verhalten kann gewonnen werden Chancen - Nutzung öffentlicher verknüpfter Daten zur Datenstandardisierung und Kompatibilität zwischen verschiedenen Werkzeugen und Anwendungen –>zur Entwicklung einer allgemeinen Plattform - Multimodale und affektive Lernmöglichkeiten basierend auf hoch entwickelten Messgrößen - Selbstreflektion / Selbsterfahrung / Selbstlernen in intelligenten, autonomen und riesigen Systemen - maschinenlesbare Ergebnisse aus EDM-Verfahren können in andere Datenbetriebene Systeme eingelesen werden, um die Entscheidungsfindung zu verbessern - Akzeptanzmodelle: wahrgenommener Nutzen, Zielerwartungen, wahrgenommene Verspieltheit, Vertrauen, etc. Literaturverzeichnis [1] BAKER, RYAN, CORBETT, ALBERT, KOEDINGER, KENNETH, WAGNER, ANGELA (2004): Off-task behavior in the cognitive tutor classroom: When students „game the system.“, in: Proceedings of the ACM Conference on Human Factors in Computing Systems, ACM Press, S. 383-390. [2] BAKER, RYAN & YACEF, Kalina (2009): The State of Educational Data Mining in 2009 : A Review and Future Visions, in: Journal of Educational Data Mining, 2009, Vol. 1, S. 3-16. [3] BAKER, RYAN (2010): Data mining for education, in: WANG, J. (Ed.): International Encyclopedia of Education, 2010, Vol. 7, S. 112-118. [4] BAKER, RYAN & INVENTADO, PAUL (2014): Educational Data Mining and Learning Analytics, in: LARUSSON, JOHANN, WHITE, BRANDON (Ed.): Learning Analytics: From Research to Practice. Springer New York, 2014, S. 61-75. [5] BITKOM(2013): Presseinfo, URL: http://www.bitkom.org/files/documents/BITKOM_Presseinfo_E-Learning_ Unternehmen_18_02_2013.pdf, (Stand:18.02.2013, Abruf: 21.04.2015). [6] De BRA, PAUL, HOUBEN, GEERT-JAN, WU, HONGJING (1999): Aham: A dexter-based reference model for adaptive hypermedia, in: ACM Conference on Hypertext and Hypermedia, Darmstadt, Germany, 1999, S. 147–156 [7] De BRA, PAUL (2006): Web-based educational hypermedia, in: ROMERO, C., VENTURA, S. (Ed.): Data Mining in E-Learning, 2006, Boston, S. 3-20. [8] DESIKAN, PRASANNA, DeLONG, COLIN, BEEMANAPALLI, KALYAN, BOSE, AMIT, SRIVASTAVA, JAIDEEP (2006): Web Mining for Self-Directed E-learning, in: ROMERO, C., VENTURA, S. (Ed.): Data Mining in E-Learning, 2006, Boston, S. 21-40. 65 LITERATURVERZEICHNIS [9] DOLAN, BOB, BEHRENS, JOHN (2012): Five Aspirations for Educational Data Mining, in: YACEF, KALINA, ZAIANE, OSMAR, HERSHKOVITZ, ARNON, YUDELSON, MICHAEL, STAMPER, JOHN (Hrsg.): Proceedings of the Fifth International Conference on Educational Data Mining, 2012, S. 7. [10] HUEBNER, RICHARD (2013): A survey of educational data-mining research, in: Research in Higher Education Journal, H. 19, 2013, S. 1-13. [11] ILIAS, URL: http://www.ilias.de/, (Abruf: 03.06.2015). [12] INTERNATIONAL EDUCATIONAL DATA MINING SOCIETY, URL: http://www.educationaldatamining.org, (Abruf: 21.04.2015). [13] KULKARNI, SUHAS, RAMPURE, GANESH & YADAV, BHAGWAT (2013): Understanding Educational Data Mining (EDM), in: International Journal of Electronics and Computer Science Engineering, 2013, S. 773777. [14] LU, JIE (2004): A Personalized e-Learning Material Recommender System, in: Proceedings of the 2nd International Conference on Information Technology for Application (ICITA 2004), S. 374-380. [15] PAHL, CLAUS (2006): Data Mining for the Analysis of Content Interaction in Web-based Learning and Training Systems, in: ROMERO, C., VENTURA, S. (Ed.): Data Mining in E-Learning, 2006, Boston, S. 41-57. [16] PAPAMITSIOU, ZACHAROULA & ECONOMIDES, ANASTASIOS (2014): Learning analytics and educational data mining in practice: A systematic literature review of empirical evidence, in: Educational Technology and Society, 2014, Vol. 17, S. 49-64. [17] PSLC Data Shop, URL: https://pslcdatashop.web.cmu.edu/, (Abruf: 6.02.2015). [18] ROMERO, CRISTOBAL & VENTURA, SEBASTIAN (2007): Educational data mining: A survey from 1995 to 2005, in: Expert Systems with Applications, Vol. 33, 2007, S. 135-146. [19] ROMERO, CRISTOBAL & VENTURA, SEBASTIAN (2010): Educational data mining: A review of the state of the art, in: IEEE Transactions on Systems, Man, and Cybernetics, Part C: Applications and Reviews, 2010, Vol. 40, S. 601-618. [20] ROMERO, CRISTOBAL & VENTURA, SEBASTIAN (2013): Data mining in education, in: Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, Bd. 3, 2013, S. 12–27. 66 LITERATURVERZEICHNIS [21] ROMERO, CRISTOBAL, ROMERO, JOSE, VENTURA, SEBASTIAN (2014): A Survey on Pre-Processing Educational Data, in: PENA-AYALA, A. (Ed.), Educational Data Mining, Studies in Computational Intelligence 524, 2014, Springer International Publishing Switzerland, S. 29-64. [22] SCHEUER, OLIVER & McLAREN, BRUCE (2012): Educational Data Mining, in: SEEL, N. (Ed.): Encyclopedia of the Sciences of Learning, Springer US 2012, S. 10751079. [23] SIEMENS, GEORGE, BAKER, RYAN (2012): Learning analytics and educational data mining: towards communication and collaboration, in: Proceedings of the 2nd International Conference on Learning Analytics and Knowledge, 2012, S. 252 - 254. [24] WIKIPEDIA, Stichwort „ILIAS (Software)“, Version vom 23.05.2015, abrufbar unter: http://de.wikipedia.org/w/index.php?title=ILIAS_(Software)&oldid= 142395171.(Abruf: 02.06.2015). [25] WIKIPEDIA, Stichwort „KNIME)“, Version vom 30.07.2014, abrufbar unter: http://de.wikipedia.org/w/index.php?title=KNIME&oldid=132619038.(Abruf: 10.06.2015). 67 Ehrenwörtliche Erklärung Ich erkläre hiermit ehrenwörtlich, dass ich die vorliegende Arbeit selbstständig angefertigt habe. Die aus fremden Quellen direkt oder indirekt übernommenen Gedanken sind als solche kenntlich gemacht. Es wurden keine anderen als die angegebenen Stellen und Hinweise verwandt. Alle Quellen, die dem World Wide Web entnommen oder in einer sonstigen digitalen Form verwendet wurden, ohne allgemein zugänglich zu sein, sind der Arbeit beigefügt. Der Durchführung einer elektronischen Plagiatsprüfung stimme ich hiermit zu. Die eingereichte Datei entspricht der eingereichten Druckfassung. Die vorliegende Arbeit wurde bisher keiner anderen Prüfungsbehörde vorgelegt und auch noch nicht veröffentlicht. Bamberg, 16. Juni 2015 ......................................... 68