Ausarbeitung - Detlef Krömke - Goethe

Werbung
 Goethe‐Universität Frankfurt Bachelorarbeit Analyse und Visualisierung des User‐Verhaltens in einem Massive Open Online Course eingereicht bei Prof. Dr.‐Ing. D. Krömker Dipl.‐Inf. D. Weiß Professur für Graphische Datenverarbeitung von Tarik Amhamdi Eingereicht am: 28.03.2013 Eidesstattliche Erklärung Ich erkläre hiermit an Eides statt, dass ich die vorliegende Arbeit selbstständig und ohne Benutzung anderer als der angegebenen Hilfsmittel angefertigt habe; die aus fremden Quellen direkt oder indirekt übernommenen Gedanken sind als solche kenntlich gemacht. Die Arbeit wurde bisher in gleicher oder ähnlicher Form keiner anderen Prüfungskommission vorgelegt und auch nicht veröffentlicht. Frankfurt am Main, den 28. März 2013 —————————
(Tarik Amhamdi) Inhaltsverzeichnis 1. Einführung ...................................................................................................................... 1 1.1. Motivation ....................................................................................................................... 1 1.2. Struktur und Vorgehensweise dieser Arbeit ................................................................... 2 2. Grundlagen ..................................................................................................................... 4 2.1. Massive Open Online Course (MOOC) ............................................................................ 4 2.1.1. OPCO11 ..................................................................................................................... 4 2.1.2. OPCO12 ..................................................................................................................... 5 2.1.3. Funkkolleg‐Medien ................................................................................................... 6 2.2. Blogs und Soziale Netzwerke ........................................................................................... 7 2.2.1. Blogs und Wordpress ................................................................................................ 7 2.2.2. Twitter ....................................................................................................................... 9 2.3. User‐ und Soziale Netzwerkanalyse .............................................................................. 10 2.4. Visualisierung ................................................................................................................. 10 3. State of the art .............................................................................................................. 13 3.1. Standpunkt der MOOCs ................................................................................................. 13 3.2. Social Network Analysis ................................................................................................. 14 3.3. Netzwerk‐Analyse in MOOCs ......................................................................................... 15 3.4. Software zur Analyse eines Massive Open Online Courses .......................................... 16 3.4.1 Gephi ........................................................................................................................ 17 3.4.2. TAGSExplorer .......................................................................................................... 21 3.4.3. Alternative Software ............................................................................................... 22 4. Konzeption .................................................................................................................... 24 4.1. Analyse der vorhandenen Quellen ................................................................................ 24 4.2. Transformation der Daten ............................................................................................. 28 4.3. Konzeption des Analysetools ......................................................................................... 32 4.3.1. Allgemeiner Aufbau des Tools ................................................................................ 32 4.3.2. Dashboard ............................................................................................................... 35 4.3.3. Twitter‐Analyse ....................................................................................................... 37 4.3.4. Blog‐Analyse ............................................................................................................ 43 4.3.5. Übergeordneter Vergleich zwischen den MOOCs .................................................. 46 4.4. Echtzeitanalyse .............................................................................................................. 48 5. Implementierung .......................................................................................................... 51 5.1. Programmierwerkzeug zur Umsetzung ......................................................................... 51 5.2. Zusätzliche Implementierungen .................................................................................... 53 6. Zusammenfassung und Fazit ......................................................................................... 54 6.1. Was wurde erreicht? ..................................................................................................... 54 6.2. Was wurde nicht erreicht? ............................................................................................ 55 6.3. Ausblick .......................................................................................................................... 56 Q. Quellenverzeichnis ....................................................................................................... 58 A. Anhang ......................................................................................................................... 60 1. Einführung
1.1. Motivation Im Jahr 2008 entstand einer der weltweit ersten „Massive Open Online Course“ (MOOC), der von Stephen Downes und George Siemens an der „University of Manitoba“ geleitet wurde [Cla13]. Es existieren zwar Vorläufer, jedoch besitzt dieser eine weitaus höhere Popularität. Es handelte sich dabei um einen Onlinekurs, der es Menschen auf der ganzen Welt ermöglichte daran teilzunehmen und ihr Wissen zu teilen. Ursprünglich wurde dieser MOOC mit dem Titel „Connectivism and Connective Knowledge“ (CCK08) mit dem Hintergrund eines kleindimensionalen Onlinekurses aufgesetzt, welcher dann aber letztendlich mehr als 2200 Menschen weltweit anlockte und somit den ersten Meilenstein für die neue Art des Lernens setzte. In diesem Moment brach das Zeitalter der MOOCs aus und es ist bis zum heutigen Zeitpunkt eine stark steigende Tendenz erkennbar, was das Interesse an diesen besonderen Onlinekursen angeht. An der Goethe‐Universität in Frankfurt am Main wurde von studiumdigitale, der zentralen eLearning Einrichtung der Universität, im Jahr 2011 der erste deutsche MOOC aufgesetzt, der OpenCourse 2011 (OPCO11), welcher den Titel „Zukunft des Lernens“ trägt [Cla11] . Der Kurs sollte die Teilnehmer dazu anregen sich Gedanken über die Entwicklung des Lernens in der heutigen mediengestützten Gesellschaft zu machen und mittels einer Agenda, die sich über den gesamten Zeitraum von 11 Wochen des OpenCourse streckte, wurden die Struktur und der Rahmen geschaffen, in dem der Kurs stattfand. Der Veranstalter setzte einen Kursblog auf und regte die Kommunikation auf Twitter an um den Teilnehmern aktiv die Möglichkeit zu geben sich über die Inhalte des Kurses auszutauschen. Die Nachfrage an MOOCs im deutschsprachigen Raum wurde mit OPCO11 erkannt und gefördert, da in Zusammenarbeit mit weiteren Instituten im Folgejahr 2012 der OPCO12 mit dem Titel „Trends im E‐teaching“ und das Funkkolleg‐Medien 2012/2013 unter dem Namen „Wirklichkeit 2.0“ entstanden [Cla12]. Hier wurde ebenso die mediale Unterstützung via Twitter und Blogs bereitgestellt und im Falle von Funkkolleg‐Medien erfolgte hinzukommend noch eine radiogestützte Publizierung, da der hessiche Runkfunk der Veranstalter war [Hel12]. Die steigende Nachfrage an Open Courses in Deutschland und das positive Feedback werfen natürlich Fragen auf, wie die vergangenen Kurse aus dem Blickwinkel des Nutzerverhaltens verliefen. Es wurden diesbezüglich viele Beiträge der Teilnehmer in den oben genannten Open Courses auf Twitter gesammelt, in denen sich unter anderem Daten, wie Zeitpunkte der Beiträge und direkte Kommunikation zu anderen Benutzern, befinden. Auch die Blogbeiträge der Nutzer auf der Kursblog‐Seite können eine Interessenentwicklung über den gesamten Kurs ergeben, wenn diese anhand ihrer Intensivität über die Kursdauer analysiert werden. Es stellen sich einige interessante Fragen auf, ob die Kursteilnehmer den OpenCourse konsequent von Anfang an besuchten, diesen frühzeitig abbrachen oder auch erst zu einem späteren Zeitpunkt dazu fanden. Weiterhin fiel
1 das Augenmerk auf die Interaktion zwischen den Teilnehmern gefallen, wie diese die Kommunikationsplattformen nutzten, ob sie Favoriten hatten und ob es dem allgemeinen Trend entsprach. Außerdem ist die Netzwerkentstehung ein wesentlicher Betrachtungspunkt, der Aufschluss über die Teilnehmerentwicklung liefern kann, indem man beobachtet ob bestehende Teilnehmer mit der Zeit neue User dazu holen und der Kurs via Netzwerkausbreitung an Popularität gewinnen konnte. Die Aufdeckung dieser Netzwerkstrukturen und Gruppenbildung kann Klarheit darüber verschaffen, mit welchen Intentionen potentielle Teilnehmer zu dem MOOC dazu kommen. Die Frage, ob das Prinzip des weltweit vernetzten Online Kurses auch bei einem deutschsprachigen Kurs erhalten bleibt, erfordert eine weitergehende Aufklärung, aus welchen Regionen die Teilnehmer stammen. Das Grundprinzip der MOOCs beruht auf der aktiven Teilnahme an den Kursen, zu jeder Zeit, an jedem Ort. Darauf basierend liegt es nahe die Analyse nach dem gleichen Schema der Echtzeit handzuhaben. Letztendlich entstand das Verlangen nach einer Lösung, die es parallel zum aktiv laufenden Kurs erlaubt, selbstständig, interaktiv und übergreifend das Nutzerverhalten in Echtzeit zu analysieren und mit geeigneten Mitteln zu visualisieren. Eine Unterredung mit einem der Betreuer aus OPCO11 und studiumdigitale bezüglich dieses Themas und der Idee, aus den gesammelten Daten der Kommunikationsplattformen, die oben genannten Informationen dynamisch zu erforschen, lag den Grundstein für diese Bachelorarbeit. Es bestand das Interesse mehr als eine statische Auswertung von Fakten und Besucherverhalten zu erlangen , viel mehr leitete die Idee des individuellen Erforschens einzelner Komponenten der Netzwerkbildung und Nutzerverhaltens zu dem letztendlichen Thema dieser Arbeit. Es besteht die Hoffnung das Teilnehmerverhalten in den deutschsprachigen MOOCs, die studiumdigitale begleitet hat, auf interaktive Weise zu analysieren und diese Analyse auf Basis einer leichten Interpretierbarkeit mittels geeigneter Visualisierung in Form einer Web‐Lösung zu ermöglichen. Hiermit soll ebenso die Grundlage dafür geschaffen werden, mit Hilfe des gewonnenen Wissens aus vergangenen Open Courses, die Entwicklung folgender MOOCs in Deutschland besser auf das Nutzerverhalten der Teilnehmer abzustimmen. Damit die entstehenden Werkzeuge leicht handzuhaben sind, bedarf es geeigneter Visualisierungstechniken. Diese werden ebenso wesentlicher Bestandteil dieser Bachelorarbeit sein. 1.2. Struktur und Vorgehensweise dieser Arbeit In dieser Bachelorarbeit wird die Herangehensweise für die Aufarbeitung, der für die Analyse relevanten Informationen, beschrieben und die Stärken dieser Quellen werden hervorgehoben. Außerdem wird auf die technische Realisierung eingegangen, mit der letztendlich die Analyse ermöglicht wird. Nachdem in diesem Kapitel die Motivation und Vorgehensweise geklärt wurden, folgt im nächsten Kapitel eine Erklärung wichtiger Begriffe für das bessere Verständnis dieser Arbeit. Dazu gehört eine Erläuterung grundlegender Kommunikationsplattformen und die Möglichkeit diese zu analysieren, Klärung in welche 2 Kategorie die Analyse solcher Kurse fällt und was unter dem Begriff der Visualisierung im Kontext dieser Arbeit verstanden wird. Im folgenden Kapitel „State of the art“ wird erklärt wo der aktuelle Fokus bei der Analyse von Massive Open Online Courses liegt und bereits bestehende Analysetools von Netzwerken werden genauer beschrieben. Kapitel 4 unterliegt der Konzeption des Skripts. Es wird aufgezählt, welche Quellen vorhanden sind, es wird untersucht welche Informationen aus diesen Quellen analysiert werden sollen, ob eine weitere Aufbereitung nötig ist um sie zu nutzen und schließlich für welche Zielgruppe, unter Berücksichtigung entsprechender Nutzerfreundlichkeit, diese zugänglich gemacht werden. Anschließend wird in Kapitel 5 ein Einblick in die Implementierung der Software gewährt, mit welchem Programmierwerkzeug diese entstand und wie die Entwicklung eigener Tools erfolgte. Schließlich folgt in Kapitel 6 eine Zusammenfassung der Ergebnisse. 3 2. Grundlagen 2.1. Massive Open Online Course (MOOC) Ein Massive Open Online Course (MOOC) ist ein Online‐Kurs mit einer potentiell unbegrenzt hohen Teilnehmerzahl. Er beinhaltet den Beitrag von Experten zu den jeweiligen Themen, enthält meist eine Reihe von kostenlos zur Verfügung gestelltem Online‐Material und er vereint die Verbundenheit aus sozialen Netzwerken für die erweiterte mediengestützte Kommunikation. Grundsätzlich wird zwischen den Formaten xMOOC und cMOOC unterschieden [Dav10]. Bei einem xMOOC handelt es sich um eine Form des Onlinekurses, die hauptsächlich den Einsatz von Videovorlesungen verfolgt, wobei der cMOOC mehr die Form eines Online‐Lernportals besitzt, in dem der Fokus auf dem Austausch von Informationen zwischen den Teilnehmern liegt. Die am meisten verbreitete Form des Massive Open Online Course ist der cMOOC und dieser wird einfachheitshalber im Folgenden als MOOC bezeichnet. Der erste MOOC seiner Art wurde im September 2008 an der „University of Manitoba“ von Stephen Downes und George Siemens aufgesetzt [Cla13]. Ursprünglich sollte es ein kleiner Kurs sein, um den Studenten einen weiteren Schein zu ermöglichen, der jedoch offenen Zugriff für alle auf dem Netz hatte. Im Endeffekt schrieben sich für diesen Kurs eine Reihe von Leuten ein und die Idee des „Connectivism“ wurde populärer. Diese besagt, dass der Mensch nicht als isoliertes, sondern als vernetztes Individuum zu sehen ist, mit dem ein Netzwerk zu anderen Menschen und „Nicht‐Menschen“ entsteht [Geo05]. Die Idee des MOOCs ist‐ je mehr man sich selbst mit dem Inhalt des Kurses auseinander setzt, umso mehr lernt man auch. Wenn man nun alle Elemente der Kommunikation, die der MOOC anbietet selber in Anspruch nimmt, bildet sich ein individuelles Informations‐Netzwerk. Von der ursprünglichen Struktur des MOOCs ausgehend, wird mit jedem weiteren Onlinekurs, den man anbietet, diese immer mehr verfeinert, da man aus dem Feedback der Teilnehmer und selbst gewonnener Erfahrung, wertvolle Rückschlüsse ziehen kann um darauffolgende MOOCs zu verbessern. Die Teilnahme an einem MOOC ist kostenlos und zugänglich für jeden, jedoch gibt es Fälle, in denen man entweder Geld bezahlen oder eine gewisse Aktivität nachweisen muss, um sich seine Teilnahme als Schein anrechnen zu lassen. Ein Professor, der sich mit dem Thema MOOCs auseinandersetzt, geht davon aus, dass diese auch auf Universitäts‐Ebene immer stärker an Bedeutung gewinnen warden‐ „It seems likely this new breed of MOOCs will have impact on education at the university level, particularly for technical majors such as computer science“(Prof. Fred G. Martin in: „Will Massive Open Online Courses Change How We Teach?”) [Fre12]. 2.1.1. OPCO11 Der Massive Open Online Course „OPCO11“ war der erste seiner Art im deutschsprachigen Raum. Er befasste sich mit dem Thema „Zukunft des Lernens“ und führte die Interessenten 4 in einer elf‐wöchigen Agenda durch dieses Thema. Der offizielle Start der Agenda war am 2. Mai 2011. Ab diesem Zeitpunkt wurde nahtlos Woche für Woche ein anderes Thema unter dem Deckmantel „Zukunft des Lernens“ diskutiert, bis schließlich der Kurs am 17. Juli 2011 endete. Inhaltlich beschäftigte sich der Open Course mit dem derzeitigen Stand des mediengestützten Lernens und in welcher Hinsicht sich das Thema „Lernen“ in diesem Kontext ändern kann. Unter Einbindung von Communitys aus sozialen Netzwerken, neuester Elektronik wie iPads, eBooks & Co. und Einbeziehung des mobilen Lernens wurde der Rahmen für die Diskussion geschaffen, in dem alle Kursinteressenten ihre Erfahrungen und Wissen einbringen konnten. Dieser MOOC wurde unter anderem von studiumdigitale, in Person von Claudia Bremer, Prof. Detlef Krömker und David Weiß und Jochen Robes vom „Weiterbildungsblog“ geführt [Joc13]. Diese waren maßgeblich für die Inhalte und für die zur Verfügung‐Stellung von Experten und Kursthemen verantwortlich. Der OPCO11 verfügte über einen eigenen Kursblog, indem die Autoren in regelmäßigen Abständen die Teilnehmer mit interessanten Beiträgen zum Thema informierten. Außerdem war es für Angehörige des Fachbereichs 12 der Goethe‐Universität möglich sich die Teilnahme an dem Kurs in Form von Credit Points gutschreiben zu lassen [Cla11]. Die Internetpräsenz des Kurses wurde mit Wordpress in einer Blog‐Form aufgestellt und schaffte den Kursteilnehmern somit ein gewohntes Umfeld für die Kommunikation auf der Seite. Die User waren in der Lage sich für einen Newsletter zu registrieren, in dem sie regelmäßig über die aktuellen Inhalte informiert wurden. Weiterhin konnte zum medialen Angebot unter dem #tag #opco11 getweetet werden und die Konversation über den Open Course somit auf Twitter anregen. Der Teilnehmerkreis erstreckte sich auf Nutzer aller Art. Vertreten waren MOOC‐Neulinge, themeninteressierte Laien und Experten und allesamt in verschieden ausgeprägter Teilnahmeaktivität. Jedem Nutzer stand es frei, sich wie ein Beobachter zu verhalten und den Beiträgen zu folgen, selbst aktiv zu werden und sein Wissen in Form von Kommentaren auf der Kursseite oder in Twitter preiszugeben oder tief einzusteigen, indem eigene Blogs zu dem Thema entstehen und mittels Pingback‐Funktion aus Wordpress im OPCO11 mit verfolgt werden können. Der OPCO11 aggregierte die entstandenen Inhalte zum Thema auf der Kursseite und diente somit als zentrale Sammelstelle. Zusätzlich fanden im Rahmen des Kursthemas regelmäßig Livesessions statt, zu denen die Teilnehmer freien Zugang hatten. 2.1.2. OPCO12 OPCO12 entstand, wie der Name schon andeuten lässt, im Jahr 2012 und es erhielt seinen Namen in Bezug zu den Open Course des Vorjahres OPCO11. Beginnend mit dem 16. April 2012 startete die erste Auseinandersetzung zu dem Kursthema „Trends im E‐Teaching – Der Horizon Report unter der Lupe“ [Cla12]. Unter insgesamt 6 verschiedenen Themen, in einem Zeitraum von 14 Wochen, fand der Kurs statt und endete schließlich mit dem 21. Juli 2012. Inhaltlich beschäftigten die Veranstalter alle Kurs‐Interessenten mit denen im Horizon 5 Report thematisierten Technologietrends. Unter anderem waren das „Mobile Apps“, „Tablet Computing“, „Game‐Based Learning” und einige mehr. Die Teilnahme am Kurs war kostenfrei und der Einstieg war zeitlich unabhängig. Somit war es auch Teilnehmern, die erst später von dem Kurs erfuhren, möglich Anschluss zu finden und teilzunehmen. Das Ziel des Open Course war es, in der Vergangenheit propagierte Ansätze, auf ihre Erfüllung zu untersuchen und technologische Trends inklusive ihrer Wirkung im Bereich der Bildung zu diskutieren. Diese Diskussion konnte wie in OPCO11 zuvor auf der Kursseite selbst oder auf Twitter unter #opco12 geführt werden. In regelmäßigen Abständen fanden Livesessions statt, die sich die OPCO‐User per Video‐Stream anschauen konnten. Zusätzlich zur unverbindlichen Teilnahme am Kurs, konnte sich jeder kostenfrei registrieren. Registrierte Nutzer waren somit in der Lage mit der Angabe ihrer Email‐Adresse regelmäßig Newsletter zu erhalten, die die Ergebnisse der Woche zusammengefasst enthielten. Darüber hinaus waren Registrierte dazu befugt sich für die Online‐Badges anzumelden. Die Online‐Badges in OPCO12 stellten eine Art Auszeichnung dar, die sich jedes Teilnahmemitglied selbst geben konnte [Cla12]. Es war somit möglich das eigene Interesse, bzw. die eigene Aktivität am Open Course zu kategorisieren. Als Badges standen „Beobachter“, „Kommentator“ und „Kurator“ zur Verfügung. Der Rang „Beobachter“ stellte keine Anforderungen an den Teilnehmer, da er sich selbst als passiv agierende Einheit im Hintergrund kategorisiert. Der „Kommentator“ hingegen machte es sich selbst zur Aufgabe aktiv mit Kommentaren an der Diskussion teilzunehmen und diese zu verfolgen. Von einem „Kurator“ wurde jedoch mehr als alleiniges Verfolgen und Kommentieren erwartet. Aktives Auseinandersetzen mit den Inhalten und das Erstellen eigener Blogbeiträge oder ähnlich große Aufwendungen sollte sich ein Kurator als Ziel gesetzt haben um dieser Rolle gerecht zu werden. Für alle 3 Online‐
Badges, die die Teilnehmer wählen durften, konnten sie ihre eigene Rollenbeschreibung hinzufügen, um ihre genauen Ziele niederzuschreiben und es einem Administrator somit zu erlauben, diese auf Erfüllung zu überprüfen. Jeder Badge setzte eine gewisse Aktivität voraus. Dadurch, dass sich jeder seinen Badge selbst aussuchen und verleihen konnte, bestand die Gefahr, sich bewusst oder unbewusst für einen unpassenden Badge einzutragen. Die Veranstalter des Kurses waren jedoch in der Lage, bei grob falscher Kategorisierung, einzelne Korrekturen zu tätigen und gegebenenfalls Nutzer herabzustufen. Der größte Anteil an Teilnehmern war als Beobachter und Kommentator gekennzeichnet und wenige trauten sich den Rang Kurator zu. Der OPCO12 wurde größtenteils von denselben Veranstaltern wie bei OPCO11 geführt und es entstanden seit der Eröffnung dieses Kurses mehrere Hunderte Beiträge auf Twitter und der Kursseite. Der Teilnehmerkreis war, wie typisch für MOOCs, uneingeschränkt offen für jeden Interessenten und dem entsprechend beteiligten sich, neben den Neugierigen, auch wieder Experten an den Diskussionen beteiligt. 2.1.3. Funkkolleg‐Medien Nachdem Mitte 2012 der Open Course OPCO12 thematisch sein Ende nahm, folgte wenige Monate später, am 3. November 2012, der offene Online‐Kurs (OOK) Funkkolleg 2012/2013 6 mit dem Thema „Wirklichkeit 2.0 – Medienkultur im digitalen Zeitalter“ [Hel12]. Ein Unterschied zu den bisher beschriebenen Open Courses OPCO11 und OPCO12 besteht darin, dass der Funkkolleg‐Medien während der Entstehung dieser Bachelorarbeit noch nicht abgeschlossen ist. Somit sind noch nicht alle Diskussionen abgeschlossen und es wird in dieser Arbeit der Fokus auf den Inhalt gelegt, der bis zur Fertigstellung entstand. Außerdem unterscheidet sich der zum Funkkolleg organisierte OOK zu den OPCOs in der Hinsicht, dass der Funkkolleg bereits seit Jahren existierte. Der offene online Kurs wurde nachträglich dazu organisiert. Auch hier diente der Kurs zur Aggregation, der zum Thema verfassten Inhalte, und somit ist er diesbezüglich die zentrale Anlaufstelle. Inhaltlich setzt sich dieser Open Course mit dem Internet als führendes Leitmedium auseinander. Es wird der Einfluss der digitalen Medien auf das private und gesellschaftliche Umfeld diskutiert und welche Vorteile und Risiken hieraus resultieren. Zusätzlich zu studiumdigitale, die maßgeblich an OPCO11 und OPCO12 beteiligt waren [Cla11] [Cla12], ist mit dem hessischen Rundfunk „hr2‐Kultur“ ein Hauptveranstalter mit zusätzlichem Einfluss in der medialen Kommunikation vorhanden. Im Rahmen des Funkkolleg organisierten Kurses sind 23 Radiosendungen bei „hr2‐kultur“ geplant [Hel12]. Die 23 Sendungen sind in 4 Kategorien unterteilt und bis zum 11. Mai 2013 geplant. Darüber hinaus wird ein Begleitbuch angeboten, welches den Titel „Wirklichkeit 2.0 – Medienkultur im digitalen Zeitalter“ trägt. Das Buch ist nicht notwendig um inhaltlich den Diskussionen des Open Courses zu folgen, sondern soll ergänzend zum Wissen fungieren. Der Austausch zwischen den Teilnehmern erfolgt nach gewohntem Format auf der Kursseite, die ähnlich, wie bereits stattgefundene MOOCs in Wordpress, erstellt wurden und somit können Kommentare erstellt und beantwortet werden. Außerdem wird unter dem #tag #fkmedien in Twitter diskutiert und die zu diesem Thema entstehenden Tweets werden auf der Kursseite gesammelt und zum Nachlesen gelistet. Die User können ähnlich wie bei OPCO11 und OPCO12 einen Newsletter abonnieren und an regelmäßigen Video‐Livesessions teilnehmen. Weiterhin kann sich jeder Kurs‐Teilnehmer einer Prüfung unterziehen um ein anerkanntes Zertifikat von dem Institut für Qualitätsentwicklung Hessen zu erhalten. Diese Prüfung ist zwei‐geteilt und erfolgt zum einen Teil als Online‐Prüfung und zum anderen Teil als Präsenz‐Prüfung in einer Hochschule innerhalb Hessens. Die Prüfung in der Hochschule ist mit 10 Euro kostenpflichtig, womit die Zertifizierung Kosten mit sich bringt. Der Open Course selbst ist jedoch, wie für die meisten MOOCs üblich, kostenfrei. Der Kurs ist für jeden mit Interesse zugänglich und zielgerichtet an diejenigen, die Erfahrungen im digitalen Zeitalter im Rahmen eines Open Courses teilen und diskutieren möchten. Durch den Umstand, dass der Funkkolleg‐Medien zum Entstehungszeitpunkt dieser Bachelorarbeit nicht abgeschlossen ist, erfolgt in diesem Kontext keine endgültige Reflektion, sondern eine, die auf den bis zu diesem Zeitpunkt gesammelten Informationen beruht. 2.2. Blogs und Soziale Netzwerke 2.2.1. Blogs und Wordpress Der Begriff Blog leitet sich aus dem englischen “Web Log”, sprich Online‐Tagebuch ab und 7 existiert seit Mitte der 1990er Jahre [Uni13]. Ein Blog ist ein, von Autoren, jedoch meist einem Autor, geführte Webseite, auf der der Autor regelmäßig neue Einträge verfassen kann. Die Einträge sind thematisch nicht eingeschränkt und können von Privatleben, Beruf oder sonstigen Themen handeln. In der Regel stehen die aktuellsten Beiträge am Anfang der Webseite und somit entsteht eine nach unten schier endlose Liste von Beiträgen, die seit der Bloggründung verfasst wurden. Es ist nicht unüblich, dass Blogautoren den Lesern erlauben Kommentare darauf zu verfassen und somit aktiv im Blog zu werden, womit man das Auseinandersetzen mit Blogs und die aktive Teilnahme daran als „Bloggen“ bezeichnet. Eine weitere Form des Bloggens ist das Mikrobloggen, bei dem meistens kürzere Blogbeiträge verfasst werden, um mit anderen Blogteilnehmern zu kommunizieren, wobei es in der Regel einfachheitshalber ebenso als „bloggen“ bezeichnet wird. In diesem Zusammenhang bietet es sich an auf die freie und kostenlose Software Wordpress einzugehen [Wor13]. Wordpress ist eine in der Programmiersprache PHP entwickelte Software, die das unkomplizierte Erstellen von eigenen Blogs erlaubt. Es benötigt eine Anbindung an eine MySQL Datenbank, in der alle Einträge des Blogs gespeichert werden. Wordpress liefert somit die Grundlage dafür, dass Blogs als Kommunikationsmedium leichter auch für Laien des Internets verwendbar werden und somit das Bloggen an Popularität gewinnt. Es werden verschiedene Daten über den Autor und die Kommentatoren in der Datenbank gespeichert und es können verschiedene Funktionen zur Erweiterung der Blogfunktionalität freigeschaltet werden. Auf diese Informationen in der Datenbank kann dementsprechend im Nachhinein zugegriffen werden. Zu den Funktionen, die hinzu geschaltet werden können befinden sich unter anderem die Pingbacks und Trackbacks. Trackbacks kommen im näheren Detail nicht in dieser Arbeit vor, aus welchem Grund nur die Pingbacks weiter erläutert werden. Die Funktion des Pingbacks ermöglicht es jedem Autor bei der Erstellung eines Eintrages in seinem Blog diesen, für andere mit Wordpress erstellte Blogs, auf inhaltlichen Zusammenhang zu durchsuchen. Auf der anderen Seite müssen die korrespondierenden Blogs diese Funktion im Allgemeinen ebenfalls freigeschaltet haben, sodass diese aktiv nach Beiträgen mit inhaltlichen Gemeinsamkeiten in anderen Blogs suchen. Wenn beide Parteien diese Gegebenheiten erfüllen, wird in dem Blog, der die Suchfunktion nach inhaltlich relevanten Themen freigeschaltet hat, automatisch ein Eintrag erstellt, der den Link beinhaltet, zu dem der Pingback generiert wurde. Das bedeutet, dass auf dem gegenüber betrachteten Blog der Link des korrespondierenden Blogs gelistet sein muss, sodass der Suchende diesen erkennt und einen inhaltlichen Zusammenhang zwischen diesen herstellt. Durch diese Funktion des Pingbacks können Blogs, die sich einander referenzieren, auch für die Blogleser dargestellt und in Zusammenhang gebracht werden. In diesem Kontext ist die Erläuterung des RSS‐Formats sinnvoll. RSS steht für „Really Simple Syndication“ und ist eine einfache Struktur für die schnelle Veröffentlichung von Änderungen auf Webseiten [Mic06]. Die Betreiber von den Seiten können einen RSS‐Feed zur Verfügung stellen, den, am Inhalt der Seite interessierte User abonnieren können. Diese User sind somit in der Lage auf dem neusten Stand ihrer abonnierten RSS‐Feeds zu bleiben 8 ohne die Webseite an sich besuchen zu müssen. In der Regel erhalten sie eine Benachrichtigung, die sie grob über den Inhalt der neuen Beiträge informiert und dem sie bei weiterem Interesse folgen können um den kompletten Inhalt auf der Webseite zu betrachten. Dieses Format war auch in den, in dieser Bachelorarbeit betrachteten MOOCs vorhanden. 2.2.2. Twitter Twitter ist eine im Jahr 2006 gegründete Online‐Anwendung für das Microblogging, mit der man mit über 850 Millionen registrierten Mitgliedern weltweit bloggen kann, und wird meist als soziales Netzwerk definiert [Twi13]. Es kann über die Internetwebpräsenz genutzt werden oder auch über die Twitter App für die meisten Smartphone Betriebssysteme. Weiterhin wird Twitter von Privatpersonen, Organisationen und Firmen genutzt um sogenannte „Tweets“ (auf „gezwitscher“) mit einer maximalen Länge von 140 Zeichen zu verfassen. Jeder Nutzer besitzt in Twitter seinen eigenen Twitterblog auf dem die oben genannten Tweets verfasst werden. Außerdem ist es möglich den Beiträgen anderer Nutzer zu folgen, indem man auf der Seite der gewünschten Person zum „Follower“ wird. Somit wird man automatisch über neue Beiträge der gefolgten Person benachrichtigt und Nutzer sind somit in der Lage von Personen, Organisationen oder auch Firmen auf dem aktuellsten Stand gehalten zu werden. Auf der anderen Seite ist der Nutzer neben „Follower“ auch selbst jemand, dem gefolgt werden kann. In Twitter besteht die Möglichkeit des „Retweetens“. Ein Retweet kann auf einem Beitrag eines anderen Nutzers erstellt werden und fungiert inhaltlich nach dem Schema der Weiterleitung einer Email. Mit einem Retweet „tweetet“ man denselben Inhalt unter seinem eigenen Namen und ermöglicht somit den eigenen Followern das Lesen des Tweets. Ein wichtiges Kriterium des Mikrobloggens ist die Konversation untereinander und somit schaffte Twitter die Möglichkeit von direkten Antworten mittels „@Reply“. Es ist möglich in Konversationen auf einem Nutzer‐Blog anderen Teilnehmern direkt zu antworten, auch wenn diese sich nicht an der Konversation beteiligen. Indem man seinen Twitterbeitrag mit einem „@“ und dem Nutzernamen beginnt, zählt Twitter den Beitrag als direkte Antwort zu dem mit „@“ adressierten Nutzer, womit dieser im Anschluss über die direkte Ansprache informiert wird. Automatisiert geschieht das mit Hilfe des „Antworten“ Buttons, der unter jedem Tweet vorhanden ist. Ebenso nützlich sind die #tags (Hash‐Tags) in Twitter, die den Tweet einer Kategorie zuordnen, indem man in seinen Beitrag die „#“ und im Anschluss die Kategorie hinzufügt. Somit ist jeder Nutzer in der Lage seine Nachrichten einer ausgewählten Klasse unterzuordnen, nach der in Twitter explizit gesucht werden kann. Daraus ergibt sich die Möglichkeit für die Twitter‐Mitglieder nach Schlagwörtern ihrer Wahl zu suchen und sie erhalten alle Beiträge, die in kürzerer Zeit unter diesem #tag verfasst wurden. Twitter stellt für seine Dienste eine Programmierschnittstelle (API) zur Verfügung, die den Mitgliedern eine Nutzung des Inhaltes der Twitterbeiträge für andere Kanäle ermöglicht [Twi131]. Eine verbreitete Anwendung der Twitter API ist die Überführung von Tweets in 9 eine Datenbank oder auch in Microsoft Excel. Auf Grundlage dieses Schemas entstanden die resultierenden Datenbanken, die den Inhalt der Tweets zu den Open Courses wiederspiegeln. In diesem Kontext ist die Erwähnung gewisser Problematiken in Twitter sinnvoll. Für User, die an den Inhalten von Twitter interessiert sind, stehen mittels der Twitter‐API die Tweetinformationen nur bis zu sieben Tage zur Verfügung. Es ist somit schwieriger Tweets über einen langen Zeitraum vom Startzeitpunkt der Anfrage zu sammeln. Um an ältere Tweets der User zu gelangen, bedarf es einer kontinuierlichen Datenspeicherung, was letztendlich die Umstände für eine historisch fundierte Analyse erschwert. Außerdem liefert die Suchfunktion in Twitter unvollständige Ergebnisse, womit es wiederum schwieriger wird, alle suchrelevanten Beiträge für das zu analysierende Thema zu erhalten. 2.3. User‐ und Soziale Netzwerkanalyse Die Soziale Netzwerkanalyse (SNA) ist unter anderem eine Methode zur Aufdeckung von Verbundeffekten in sozialen Netzwerken [Uwe13]. Innerhalb dieser deckt sie Beziehungen zwischen interagierenden Parteien auf und stellt sie in Bezug zueinander. Sie ist ein weitverbreitetes Mittel um nach Schlüsselwörtern in sozialen Netzwerken zu priorisieren und ihre Wichtigkeit herauszulesen. Weiterhin eignet sie sich gut um Trends innerhalb von Netzwerken zu erkennen und daraus resultierende Handlungen zu erklären. Außerdem lassen sich mittels der Sozialen Netzwerkanalyse die Entstehung von Untergruppierungen beobachten und es ist zu erkennen, welche Nutzer stärker miteinander kommunizieren und aufgrund welcher Bedingungen dies passiert. Gründe für eine stärkere Gruppenbildung sind oftmals durch die lokale Nähe bedingt. Es lassen sich zentrale Nutzer in einem Netzwerk erkennen und wie stark ihr Einfluss auf den gesamten Netzwerkgraphen ist. Für eine geeignete Netzwerkanalyse bedarf es aufklärender Visualisierungen, da aus Rohdaten schwer auf Anhieb eine Übersicht zu gewinnen ist, da oftmals die übergeordnete Sicht fehlt. Oft wird hierfür auf das Prinzip von Knoten und Kanten zurückgegriffen, wobei Knoten eine Instanz darstellen und Kanten die Verbindung zwischen Instanzen ergeben. Durch weitere Parameter wie Größe, Skalierung und Positionierung, kann die Illustrierung einer SNA verständlicher werden. Für diesen Zweck besteht bereits eine Reihe von Software, die im ersten Schritt die Rohdaten gewinnt und im zweiten Schritt diese aufbereitet und visuell verständlicher macht [Gep13]. Alles in allem ist die Soziale Netzwerkanalyse wesentlicher Bestandteil bei der Untersuchung und Relativierung von unterschiedlichen Netzwerkstrukturen. 2.4. Visualisierung Der Begriff der Visualisierung gilt als Synonym für das Veranschaulichen [Dan06]. In dem Kontext dieser Arbeit ist diese mit dem Veranschaulichen der Daten zu definieren, die im Rahmen der stattgefundenen MOOCs gesammelt wurden. Sie ist von anderen Visualisierungsarten zu unterscheiden, da sie sich in diesem Kontext auf die digitale, 10 interaktive Visualisierung bezieht. Veranschaulichungen jeglicher Art beinhalten das Potential, die Aussagekraft von Daten, die analysiert werden können, stark zu erhöhen. Durch die Möglichkeit, Daten, durch geschickte Techniken deutlicher zu machen und in eine für den Menschen verständliche Form zu bringen, beinhalten die hieraus resultierenden Graphen enormes Aussagepotential über Zusammenhänge und Ursachen, die anhand der Rohdaten nicht erkannt würden. Im Rahmen dieser Bachelorarbeit erlaubt die Visualisierung das Aufdecken von Verbundeffekten innerhalb von sozialen Netzwerken und ermöglicht erst die Interpretation von ihren Zusammenhängen. Die Visualisierung ist hier die Grundlage für eine einfache Interpretierbarkeit der Daten aus den Open Courses, da eine Analyse der Datenbanken und anderen Rohdaten sehr schwierig und ab einem gewissen Grad der Datenmenge nicht mehr manuell möglich ist. In diesem Sinne bietet die Veranschaulichung eine einfache Transformation der Daten in Schaubilder und Diagramme. Diese eignen sich hervorragend für eine Gewichtung von Kriterien und für den Vergleich dieser untereinander. Ein weiteres Schema, an dem sich diese Bachelorarbeit im Rahmen der Visualisierung bedient ist die Verwendung von Graphen in Koordinatensystemen. Indem eine beliebige Variable auf die Zeit abgebildet werden kann, entstehen Tendenzen mit denen Prognosen für einen weiteren Verlauf der gewählten Variable getroffen werden können. Weiterhin können mit dieser Art und Weise zweidimensionale Daten veranschaulicht werden, da sich diese ideal für Koordinatensysteme eignen. In Kuchen‐ und Balkendiagrammen können in diesem Zusammenhang eindimensionale Daten eine Form der Veranschaulichung erhalten, die die Handhabung dieser Informationen vereinfacht. Auch der Google Konzern bietet frei verfügbare Diagramme und andere Illustrationen. Ebenso stehen mit dem JavaScript Plugin „jQuery“ inklusive dem dazugehörigen Plugin „jqPlot“ eine Menge an Visualisierungswerkzeugen zur Verfügung auf die später in dieser Bachelorarbeit genauer Bezug genommen wird. Es ist die Visualisierung, die das Aufdecken von Gruppen innerhalb von Netzstrukturen überhaupt erst möglich macht, da ein wesentlicher Teil dieser Zugehörigkeit nur mittels dieser optischen Effekte bewerkstelligt werden kann. Im Kontext dieser Arbeit existiert Visualisierungssoftware, die auf das Themengebiet der Sozialen Netzwerkanalyse eingeht und dessen Verwendung in späteren Kapiteln genauer betrachtet wird. Es ist außerdem möglich IP‐Adressen auszuwerten und anzeigen zu lassen, was auch eine Form der Visualisierung darstellt und ohne diese Hilfe eine Zuordnung zu der Region, aus der der Beitrag stammt nur anhand von Breiten‐ und Längengrade möglich wäre. Ein anderer Parameter, der wegleitend für die hier erarbeiteten Ergebnisse sein wird, ist die Veranschaulichung in Echtzeit. Durch zeitlich bedingte Änderungen im Datenbestand in Verbindung mit der Darstellung dieser, kann neues Wissen dazugewonnen werden. Durch das Illustrieren von nachhaltig entstehenden Kettenreaktionen, die aufbauend auf einem Auslöser entstehen, können Strukturen erkannt werden und zueinander in Verbindung gesetzt werden. Ein Beispiel, welches an dieser Stelle erwähnenswert ist und das Verständnis 11 hierüber verdeutlicht ist das Projekt der „Süddeutsche Zeitung“, die alle Daten von Verspätungen der Züge sammelt und in Echtzeit abspielt [Süd13]. Bei losgelöster Betrachtung der einzelnen Verspätungen würde die potentielle Ursache für das Zuspätkommen nicht ersichtlich. Durch die Visualisierung einer ersten Verspätung einer Reihe von Verspätungen, ist eine Kettenreaktion an darauffolgenden Verspätungen erkennbar. Durch die Visualisierung dieser Kettenreaktion kann Aufschluss darüber gewonnen werden, wie einzelne Komponenten eines großen Ganzen letztendlich zusammenhängen. 12 3. State of the art Thema dieses Kapitels ist die Aufklärung über den Status der Massive Open Online Courses, die Betrachtung bestehender Soziale‐Netzwerk‐Analyse Vorgehen und was diese behandeln. Es wird an einem bestehenden MOOC‐Netzwerkanalyse ‐Beispiel analysiert, welche Ergebnisse diese zum Vorschein brachten und in welchen Aspekten diese sinnvoll erweitert werden können. Außerdem wird in diesem Kapitel eine Übersicht der bestehenden Analysetools für soziale Netzwerke gegeben, welche Input‐Formatierung diese benötigen, ob es sinnvolle Tools gibt, die die Überführung in das passende Format ermöglichen und in wie fern sich die Resultate voneinander unterscheiden. 3.1. Standpunkt der MOOCs Massive Open Online Courses existieren in ihrer hier beschriebenen Form erst seit 2008, dennoch entwickelte sich in dieser kurzen Zeit eine Menge weiter und wurde Teilnehmern aus aller Welt zugänglicher gemacht. Das hängt damit zusammen, dass das Interesse an MOOCs in den letzten Jahren stark zunahm und ein regelrechter „Hype“ entstand [Cla131]. Dadurch, dass MOOCs nicht nur regional angesiedelte Interessenten anziehen, können sich Teilnehmer ein facettenreicheres Bild über das dort besprochene Thema machen, da Menschen aus der ganzen Welt ihren Standpunkt zur Diskussion beitragen können. Eine aktuelle Übersicht zu den stattfindenden MOOCs würde den Rahmen sprengen, da durch die hohe Nachfrage an diesen Kursen, die Menge der aktuell laufenden MOOCs schwer überschaubar ist. Jedoch kann die Sicht auf die deutschsprachigen MOOCs beschränkt werden, wobei hier zu unterscheiden ist, dass es englischsprachige Kurse von deutschen Veranstaltern gibt. Ein Beispiel für einen aktuell laufenden, populären MOOC ist der „#MMC13“, „der deutschsprachige MOOC‐MAKER‐COURSE“ [Dör13]. In diesem, vom 16. Januar 2013 startenden Kurs möchten die Veranstalter die deutsche MOOC‐Szene stärken und die Entwicklung von diesen Kursen im deutschsprachigen Raum fördern. In diesem Sinne soll, der bis zum 22. Februar 2013 laufende Kurs die Diskussionen darüber, wie ein MOOC konzipiert werden sollte von den Veranstaltern begleitet werden. Es werden MOOC‐
spezifische Begriffe erläutert, Didaktiken betrachtet und Motive der Veranstalter eines solchen Kurses offen gelegt. Inhaltlich passt dieser MOOC gut zum aktuellen Stand der MOOCs in Deutschland, da mit steigender Nachfrage nach diesem Lernkonzept auch Fragen aufkommen, wie dieses am besten umgesetzt werden kann. Hier knüpft der #MMC13 geeigneter Weise an den entstehenden Wissensbedarf an und ermöglicht Neueinsteigern einen guten Start in die MOOC‐Gemeinde. 13 3.2. Social Network Analysis In dem Gebiet der Netzwerk‐Analyse gibt es unter anderem die „Social Network Analysis“ (SNA) bei der eine Netzwerkanalyse anhand von sozialen Netzwerken betrieben wird und die Verbundenheit von verschiedenen Parteien des Netzwerkes nach unterschiedlichen Kriterien ermittelt werden kann [Uwe13]. Sie dient dem übergeordneten Überblick von sozialen Netzwerken und ermöglicht eine fundierte Suche nach Ursachen und Folgen von laufenden Vorgängen innerhalb des Netzwerkes. Für diesen Zweck wurde Software entwickelt, die diese Daten aus sozialen Netzwerken, wie Facebook extrahiert und für die Verarbeitung in die Netzwerkanalyse bereitstellt. Für Twitter existiert, wie im Vorfeld erwähnt, die Twitter‐API, aus der Nutzerdaten gewonnen werden können. Diese Daten beinhalten, je nachdem nach welchem Kriterium ausgefiltert wird, Informationen über die Nutzer des sozialen Netzwerkes, wer diese sind und mit wem sie über welche Themen in Verbindung treten. Es ist möglich diese Daten aus dem Blickfeld einzelner Nutzer zu gewinnen oder eine Suche nach ausgewählten Begriffen zu starten [Mel13]. Aufgrund davon, dass diese Daten essentiell für die SNA sind, ist mit der Gewinnung des Datenbestandes, der erste Schritt in diesem Gebiet getan. Als nächstes bedient man sich geeigneter Visualisierungssoftware, die die Informationen durch Visualisierung überhaupt erst interpretierbar machen. Welche Software für die eigene Netzwerkanalyse geeignet ist und wie sich die Programme voneinander unterscheiden, folgt im nächsten Unterkapitel. In der Regel lehnt sich diese Art von Software an die Graphentheorie an und symbolisiert die Parteien eines Netzwerkes mittels Knoten und die Verbindung zu anderen mit Hilfe von Kanten. Durch eine übergeordnete Betrachtung des resultierenden Netzwerkgraphen sind oft Gruppen erkennbar und durch welche Nutzer sie gegebenenfalls miteinander verbunden sind. Ein Schwerpunkt für die Nutzung der SNA liegt in der Marketing‐Industrie [Mir13]. Das Nutzerverhalten und die Interpretation zwischen Verbindungen einzelner Parteien sind die Grundlage für die Verbreitung von Werbung in sozialen Netzwerken wie Facebook und Twitter. Unternehmen sind sehr stark daran interessiert, ausgehend von dem Beginn ihrer Werbekampagnen, von welchen Gruppen oder sogar Nutzern eine aktive Verbreitung des Werbeinhaltes gefördert wird. Die Firmen sind somit in der Lage nach der Auswertung einer Kampagne mithilfe der SNA die Reichweite ihrer Werbung zu analysieren. Mit dieser Auswertung können zukünftige Marketingkampagnen exakter ansetzen und die Werbung an die Gruppen anpassen, die in der Vergangenheit am intensivsten über die firmeneigenen Produkte sprachen. Zuletzt wird in diesem Kapitel der Bachelorarbeit auf die, im Hasso‐Plattner‐Institut für Softwaresystemtechnik GmbH (HPI) in Potsdam entwickelte, Software eingegangen um einen aktuellen Forschungsstand in der SNA anhand von Weblogs zu demonstrieren [Han13]. Am HPI wird an einem Programm entwickelt, dass über die Netzwerkanalyse einzelner Weblogs hinaus, auch die Interaktion zwischen Weblogs und ihre Verbindung mit sozialen Netzwerken und News‐Portalen darstellt. Dadurch, dass die Aktivitäten in Blogs durchaus 14 mit denen in sozialen Netzwerken zu vergleichen sind, existiert auch in diesem Bereich ein erheblich hoher wachsender Datenbestand. Mit der, am HPI entwickelten, Software lassen sich somit Fragen nach den weltweit am stärksten aktiven Blogs und den beliebtesten Themen beantworten. Mit solchen Programmen wird die Netzaktivität von Parteien im Internet, die untereinander agieren immer transparenter und Netzwerkbildung nachvollziehbarer. Für die Blog‐Szene ist diese Art der Analyse revolutionär, da die Grundstruktur von Blogs durchaus unterschiedlich sein kann und die Erkennung von Gemeinsamkeiten zwischen verschiedenen Blogs demnach umso schwieriger ist. Es existieren auf dem Gebiet der Sozialen Netzwerkanalyse letztendlich viele Einsatzmöglichkeiten und es ist ein Trend für die aktive Nutzung dieser erkennbar. Die Möglichkeiten der Interpretation und Verwendung der Netzwerkgraphen gewinnt im Web 2.0 Zeitalter immer mehr an Bedeutung. 3.3. Netzwerk‐Analyse in MOOCs Bezüglich der Netzwerk‐Analyse eines Massive Open Online Courses werden Netzwerkvisualisierungs‐Graphen genutzt um die Verbundenheit der Teilnehmer des Kurses anzuzeigen. Die Tatsache, dass MOOCs erst seit 2008 aktiv betrieben werden, ist ein Grund für die ausführliche Analyse dieser. Weiterhin werden MOOCs mediengestützt durch soziale Netzwerke stark ergänzt, was für die Verwendung der Sozialen Netzwerkanalyse in diesem Bereich spricht. Bestehende Analysen, anhand des Beispiels von dem MOOC CMC11 (Creativity & Multicultural Communication 2011), in dem es inhaltlich um die globale Kommunikation in multidisziplinären Veranstaltungsorten geht, zeigen, dass bei den meisten Teilnehmern eines MOOCs keine Verbindung zwischen den Nutzern besteht [CBl12]. In der folgenden Abbildung wird dies kurz illustriert, wobei Kreise die Teilnehmer repräsentieren sollen, ihre Größe ein Maßstab für die Teilnehmeraktivität sein soll und die Linien zwischen den Kreisen eine bestehende Interaktion zueinander in Form von Kommunikation bedeuten. 15 Abbildung 3.1.: Netzwerkgraph des cMOOCs CMC11 Die Abbildung 3.1. zeigt bereits auf den ersten Blick, dass ein verstärkt vernetztes und verdichtetes Netzwerk in der Nähe des MOOCs entstand und weiter mit der Entfernung zu diesem auch die Verbundenheit untereinander abnimmt. Eine interessante Erweiterung für dieses Schaubild wäre eine farbliche Hinterlegung für die Knoten, die den Kurs nicht bis zum Ende besuchten und ob, falls dies der Fall war, mangelnde Konnektivität zu anderen Teilnehmer eine Ursache dafür war. Somit könnte man eine Aussage darüber treffen, ob Konnektivität, die Teilnahme an einem MOOC positiv beeinflussen würde. Dieses Kriterium soll mit der Ausarbeitung dieser Bachelorarbeit untersucht werden können. Weiterhin steht die Frage der Gewichtung der unterschiedlichen Plattformen im Schaubild offen. Es ist nicht ablesbar, auf welche Plattform sich die oben abgebildete Graphik bezieht. Aus diesem Grund würde eine Trennung der medialen Einrichtungen definitiv Sinn machen, weil somit eine unabhängige Betrachtung von verschiedenen sozialen Netzwerken möglich wäre, da diese auch verschiedene Anreize der Teilnahme an die Nutzer bieten würde. 3.4. Software zur Analyse eines Massive Open Online Courses In diesem Abschnitt des 3. Kapitels werden bestehende Software‐Lösungen um einen MOOC in Hinsicht auf das Benutzerverhalten und die Analyse seines sozialen Netzwerkes untersucht. Hierfür wird einerseits die Open‐Source Software betrachtet, die dazu in der Lage ist Informationen aus Twitter, Facebook und anderen sozialen Netzwerken einzuspeisen und auszuwerten und andererseits kostenpflichtige Programme, die eine distanziertere Betrachtung des MOOCs als Ganzes zulassen. Im Folgenden wird die Software vorgestellt, die zum einen eine Analyse aufgrund von Datenbanken zulässt, zum anderen 16 basierend auf Excel die Daten einspeist und die übergreifend über bestehende Soziale Netzwerke arbeitet. Letztendlich werden Tools vorgestellt, die eine fortlaufende Analyse in Echtzeit online erlauben. 3.4.1 Gephi Gephi ist eine open‐source Software die unter anderem für die Netzwerkanalyse genutzt werden kann [Gep13]. Mit den Daten die das Programm erhält kann es beliebige Kriterien als Knoten anzeigen und die Beziehungen zwischen interagierenden Knoten werden mit Kanten dargestellt. Somit können im Bereich der SNA verschiedene Netzwerk‐Gruppen und wie diese im Verhältnis zueinander stehen, erkannt werden. Die Software verfügt über verschiedene Gestaltungsmöglichkeiten der Visualisierung in Form von farblicher Erkennung, Knotenmarkierungen mittels Labels und stellt eine Reihe von verschiedenen Layouts zur Verfügung, die unterschiedliche Ausgestaltungen des resultierenden Graphen erlauben, sodass, je nach Kategorie der eingelesenen Daten, andere Modellierungsarten gewählt werden können. Abbildung 3.2.: Benutzeroberfläche der Software Gephi v. 0.8 Das für diese Arbeit interessante Feature von Gephi, welches betrachtet wird, ist die SNA mithilfe der Daten aus der Twitter‐Datenbank aus OPCO12. Doch bevor das genauer betrachtet wird, wird zuerst ermittelt mit welchen Ressourcen Gephi überhaupt arbeiten kann. Gephi erkennt standardmäßig einige bekannte Graph‐Dateiformate wie GML und CSV. Es ermöglicht einen einfachen Import dieser, sodass man im Anschluss dann auch mit den, von Gephi zur Verfügung gestellten, Werkzeugen editieren kann. Das Programm gibt außerdem die Möglichkeit, Spreadsheets „á la“ Excel einzulesen und stellt die Spalten der 17 Excel Datei zueinander in Verbindung. Somit kann beim Import der Excel‐Datei angegeben werden, welche Spalten für die Knoten betrachtet werden sollen und welche für die Kanten‐
Verbindungen relevant sind. Die Tatsache, dass Gephi open‐source ist, ermöglicht es Entwicklern selbstständig an Plugins dafür zu arbeiten. Ein für MOOCs besonders interessantes Plugin ist der „DBDrivers“. Mit diesem Plugin ist es möglich Datenbanken in Gephi einzulesen und unter anderem auch MySQL‐Datenbanken. Es werden mittels Import‐Fenster die Datenbank‐Informationen wie „Host“, „Username“ und „Password“ eingegeben, sodass die Software mit dem Datenbankserver in Verbindung steht. Anschließend wird separat das SQL‐Statement eingegeben, das einmal die Knoten (sogenannte „Node“) charakterisieren soll und einmal die Verknüpfung der Kanten (auch als „Edge“ bezeichnet) realisiert. Um den für die eigenen Zwecke gewünschten Graphen zu erhalten, müssen in der SQL‐Anfrage an die Datenbank gewisse Spaltennamen deklariert werden, sodass Gephi weiß, wie es mit den Spalten umzugehen hat und diese sinngemäß verwendet. Abbildung 3.3.: SQL‐Anfrage bei dem Datenbankimport in Gephi Node Query: In der Anfrage an die Datenbank für die Knoten ist nur eine Spalte „id“ zwingend notwendig, da jeder Knoten eindeutig zuordenbar sein muss. Die Originalspalte in der SQL‐Datenbank muss nicht unbedingt so benannt sein, es ist mittels Query möglich einer Spalte mit dem Befehl „as“ einer Bezeichnung zuzuordnen, die in diesem Fall „id“ sein muss. Für einen aussagekräftigeren Graphen können optional weitere Referenzpunkte in die Anfrage hinzugefügt werden. Diese sind „label“, „x“, „y“ und „size“. Mit „label“ kann man den Knoten Bezeichnungen verleihen, die dann im Graphen neben dem dazugehörigen Knoten angezeigt werden. Die Spalten „x“ und „y“ fungieren als Koordinate des Knotens, sodass es möglich ist, dem Graphen Koordinaten für die Position der Knoten im Schaubild zu übermitteln. Schließlich kann man mit „size“ einen Indikator für die Größe der Knoten setzen. Edge Query: Für die Kanten sind in der Anfrage die Bezeichnungen der Spalten „source“ und „target“ Pflicht, da die Software den Start‐ und Endpunkt der Linie als Mindestvoraussetzung benötigt. Als weitere Option ist es möglich eine Spalte „weight“ anzugeben, die als Indikator für die Breite der Kanten dient. Auch mit diesem Eintrag lassen sich wichtigere Verbindungen, unter Angabe einer Priorität ,verdeutlichen oder es kann die Anzahl der Verbindungen zwischen zwei Knoten mit der Ausgestaltung der Kantenbreite signalisiert werden. 18 Um seine Daten zu exportieren bietet Gephi standardmäßig die Formate PDV, PNG und SVG an. Mittels Plugins lassen sich auch hier wieder weitere Export‐Formate einrichten, die jedoch an dieser Stelle nicht weiter betrachtet werden, da diese den Rahmen sprengen würden. Als interessante Anwendung der, in OPCO12 gesammelten Twitter‐Beiträge, die in einer MySQL‐Tabelle von der Twitter‐API gespeichert sind, wurden sie in das Programm Gephi mit dem bereits erwähnten Plugin „DBDrivers“ geladen. Die Spalten, die Seitens Twitter in der Datenbank angegeben wurden, beinhalten unter anderem Daten der „@Replys“ aus Twitter. Es ist also eine Datenbank der gesamten Twitterbeiträge, die während dem Zeitraum aus OPCO12 gesammelt wurden, vorhanden, die jegliche am Anfang bestehenden @replys der Benutzer beinhaltet. Genau diese Informationen, welche Teilnehmer in Twitter @replys an andere verfassten, wie diese untereinander verbunden sind und wie die Gesamtsituation aller @replys aussieht, werden in Gephi visualisiert. Für diesen Zweck wurden aus der von Twitter gelieferten Tabelle, die Informationen in eine neue, speziell für diesen Zweck erstellte Datenbank überführt. Einmal wurde die Tabelle nodes angelegt, die die Spalten „id“, „label“ und „size“ beinhaltet. In „id“ wurde die „post_id“ aus der Twitter‐Datenbank übernommen, in „label“ der „from_user“ und zuletzt wurde anhand der Original‐Twitter Datenbank mittels PHP die Anzahl der @replys gezählt und zum entsprechenden Post des Users in „size“ eingetragen. Weiterhin sind in der Tabelle edges die Spalten „source“, „target“ und „size“ angelegt. In „source“ steckt der „from_user“, „target“ beinhaltet den „to_user“ und in „size“ wurden die Anzahl der @replys mittels Php‐Skript ermittelt und eingepflegt. Die SQL‐Anfrage sieht geeigneter Weise wie folgt aus: Node Query: SELECT id, label, size FROM nodes Edge Query: SELECT source, target, size FROM edges 19 Nachfolgend ein Ausschnitt aus dem Graphen, den die Software aus der SQL‐Datenbank extrahierte: Abbildung 3.4.: Ausschnitt aus einem OPCO12 Gephi‐plot Dies ist lediglich ein Ausschnitt aus dem Original‐Graphen, der jedoch die wichtigsten Elemente aufzeigt. Rechts im Bild sind die Benutzer (Knoten) zu sehen, die stärker in der @reply‐Konversation involviert waren und man kann an der Größe der Knoten erkennen, mit welcher Gewichtung sie beteiligt waren. Außerdem sind rechts im Bild, neben den eher größeren Knoten auch dickere Pfeile zu sichten. Die Richtung eines Pfeiles besagt die @reply Richtung, sprich vom Benutzer, der den @reply verfasste an den Benutzer, der diesen erhielt. Je dicker der Pfeil ist, umso mehr @replys gingen vom Benutzer zum Empfänger. Die Knoten weiter links im Bild sind Teilnehmer, die zwar etwas posteten, aber zum Teil keinen @Reply verfassten , weshalb sie keine Kanten besitzen. Im Großen und Ganzen sieht man in diesem Bild, dass das Nutzerverhalten im Hinblick auf die @replys in dem OPCO12 tendentiell unterschiedlich war. Es waren einige Teilnehmer dabei, die nicht den direkten Kontakt suchten, welche die dem einen oder anderen Rede und Antwort standen und einige wenige, die sich sehr stark durch eine intensive Unterhaltung mittels @Replys in den Austausch stürzten. Letztendlich ist es mit der Software Gephi möglich, gesammelte Informationen in übersichtliche Graphen mit den verschiedensten Interpretationsmöglichkeiten zu transformieren, Merkmale nach Wunsch hervorzuheben und somit in vielen Teilen der 20 Netzwerkanalyse Klarheit zu verschaffen. Dadurch, dass Gephi als Download‐Software zur Verfügung steht und es aktuell keine Onlineversion dafür gibt, ist Gephi nur bedingt für die Echtzeit‐Ermittlung der Netzwerkgraphen geeignet. 3.4.2. TAGSExplorer Mit dem „TAGSExplorer“, entwickelt von Martin Hawksey, existiert ein weiteres Tool zur Veranschaulichung von Netzwerken, speziell aus den Daten von Twitter [TAG13]. Der wesentliche Unterschied zu Gephi ist, dass dieses Tool Browser‐orientiert arbeitet und im Gegensatz zu Gephi nicht erst installiert werden muss. Es ist nach dem Prinzip von Freeware nutzbar und jeder kann mit seiner Hilfe eine eigene Netzwerkanalyse aus Twitter starten. Es funktioniert so, dass ein Account für die Nutzung der Twitter‐API erstellt werden muss. In einem Google‐Spreadsheet, das vom Entwickler des TAGSExplorer geschrieben wurde, können die Twitter‐Daten aus der API ergänzt werden [Goo13]. Außerdem wird in diesem Spreadsheet eingegeben, nach welchen Nutzern, Begriffen und #tags gesucht werden soll und diese Suche ist mit den logischen Operatoren „AND“ und „OR“ erweiterbar. Weitere Parameter sind ebenso auswählbar, unter anderem auf welchen Zeitraum zurückgegriffen werden soll und in welchen Abständen das Datenkontingent erneuert werden soll. Dadurch, dass das Spreadsheet, in dem alle analyserelevanten Daten enthalten sind, online nutzbar ist, kann durch die vorgegebene Automatisierung, der Datenbestand in regelmäßigen Abständen erweitert werden, sodass die resultierenden Netzwerkgraphen dauerhaft auf dem aktuellsten Stand bleiben können. Die Auswertung, die im Nachhinein geschieht, durchsucht Twitter nach den definierten Suchkriterien und listet sie in einer Google‐Tabelle. Es werden zeitgleich weitere Statistiken über die angeforderte Suche erstellt, die aber bei genauerer Betrachtung an dieser Stelle der Arbeit irrelevant sind. Mit den gewonnenen Informationen aus Twitter in Form der Onlinetabelle, kann die im Spreadsheet generierte URL zum Tabellenblatt in den TAGSExplorer letztendlich eingespeist werden. Dieser bezieht die Daten dann in Echtzeit aus der Tabelle, die die Resultate der Suchkriterien in sich trägt und erstellt einen Netzwerkgraphen, bestehend aus Knoten und Kanten, ähnlich wie in Gephi. Zusätzlich zur Veranschaulichung in Form des Graphen, ist jeder Knoten anklickbar und es können weitere Informationen über den so abgebildeten Nutzer gewonnen werden. Man erhält somit eine Kurzinformation wie hoch die Zahl an Tweets der Person im definierten Zeitraum war, wie viele @replys diese Person verfasste und die Anzahl an Erwähnungen mittels #tags. Selbst die letzten Konversationen mit anderen werden nach einem kurzen Mausklick ergänzt. Die Kanten verbinden die Nutzer miteinander, die unmittelbar mittels @replys in Verbindung treten. Mit dem Hintergrund, dass in dieser Arbeit das Userverhalten in MOOCs analysiert werden soll und die Tatsache, dass diese Kurse immer online stattfinden, ist die Analyse des sozialen Netzwerkes eines MOOCs mit dem TAGSExplorer handlicher, als mit Software wie Gephi. Gephi weist andere Stärken auf, jedoch ist mit dem TAGSExplorer eine Echtzeitanalyse im 21 Onlineformat möglich, was letztendlich den entscheidenden Vorteil im Vergleich für die Zwecke dieser Bachelorarbeit bietet. 3.4.3. Alternative Software Für den Rahmen dieser Bachelorarbeit wurden Gephi und der TAGSExplorer genauer betrachtet, da sie für die Analyse eines MOOCs gut geeignet sind. Es sind Freeware‐
Produkte, unter den SNA‐Analyse Tools weit verbreitet und somit gibt es auch genug Referenzen auf die man zurückgreifen kann. In diesem Abschnitt sollen jedoch andere interessante Software und Tools kurz betrachtet werden, die auch andere Features anbieten, die Gephi und der TAGSExplorer teilweise nicht mit sich bringen. Ein ziemlich ähnlich funktionierendes Programm wie Gephi ist die Software NodeXL. Sie ist ebenso Freeware, jedoch besteht der signifikante Unterschied darin, dass NodeXL ein Template für Microsoft Excel ab Version 2007 ist. Es benötigt, ähnlich wie Gephi, die Angabe einer Quelle und eines Ziels in Form von zwei Spalten. Die Software ermittelt dann mithilfe aller gegebenen Daten in den beiden Spalten den resultierenden Verknüpfungsgraphen und erkennt dabei auch automatisch, welche Punkte anderen untergeordnet sind[Bri12]. Weiterhin lassen sich, ähnlich wie in Gephi, Eigenschaften wie „Farbe“, Größe“ und einige andere hinzufügen, die die Leserlichkeit des Graphen unterstützen. Nachfolgend ein Ausschnitt aus einem Youtube‐Video von NodeXL zur Illustrierung der Software:
Abbildung 3.5.: NodeXL Ausschnitt In der Abbildung 3.5. ist auf der linken Seite die Excel‐Liste zu sehen und rechts davon das Resultat nach dem Plotten mit NodeXL. 22 Ein anderes, interessantes Werkzeug für die Netzwerkanalyse besteht in der kostenpflichtigen Software „Meltwater Buzz“. Diese ist mit sehr vielen „social media“ Plattformen verknüpft und durchforstet diese nach vorgegebenen Schlüsselwörtern oder Firmennamen um so eine Statistik dafür aufzustellen, wo beispielsweise das eigene Unternehmen beim Namen benannt wird [Mel13]. Das Programm ist mehr eine Software‐
Lösung für Firmen, die sich strategisch besser positionieren möchten, als eine Möglichkeit für den privaten Benutzer ein Vorhaben im kleineren Umfang zu analysieren. Es bietet zahlreiche Möglichkeiten, Nachforschungen über die Nutzer zu tätigen, die mit dem Unternehmen agieren. Als weiterer grundlegender Unterschied zu den, in dieser Bachelorarbeit bisher genannten Programmen, liegt in der Kernkompetenz von Meltwater Buzz, in seiner Möglichkeit gegebene Netzwerke nach bestimmten Kriterien zu filtern und zu sortieren. Es ist viel mehr eine Dienstleistung zur Visualisierung oder individuellen Ausgestaltung von Daten, die nicht im eigenen Besitz sind, sondern erst aus den verschiedenen Netzwerken ermittelt werden, wobei Gephi und NodeXL auf Grundlage von Input‐Daten operieren und diese auswerten. Dieses Argument allein unterteilt die benannten Softwareangebote nach Interessengruppen, die einerseits neue Erkenntnisse gewinnen möchten und andererseits ihre selbsterfassten Ergebnisse visualisieren möchten. An dieser Stelle soll nochmal der Fokus auf ein anderes Netzwerkanalyse‐Tool gesetzt werden, das von seiner Funktion her recht ähnlich wie Gephi und TAGSExplorer agiert. Es handelt sich hierbei um die „Stanford Network Analysis Project“(SNAP), welches auch über das hier beschriebene NodeXL verfügbar ist [Jur13]. Für die Zwecke dieser Bachelorarbeit liefert SNAP keine Ergebnisse, die neue Betrachtungsweisen erlauben würden, da in dieser Hinsicht Gephi das meiste bereits abdeckt. Jedoch ist ein anderer Vorteil den SNAP besitzt und der an dieser Stelle unbedingt genannt werden sollte, das Potential an Daten, mit dem das Programm umgehen kann. Im Vergleich zum TAGSExplorer, welcher nach eigenem Testen ab einer Datenmenge von knapp 3000 Knoten aufwärts Anzeigeprobleme bekommt, da die Darstellung im Browser zulange benötigt und demnach abbricht, ist SNAP in der Lage mehrere Hundertmillionen Knoten zu bearbeiten und anzuzeigen. Die Aussagekraft, die hinter solchen Mengen an Daten steckt ist immens und macht es SNAP somit möglich riesige Netzwerke und ihre Verknüpfungen anzuzeigen. Da im Rahmen dieser Arbeit mit den drei untersuchenden Kursen Daten im überschaubaren Bereich vorhanden sind wurde der Fokus auf den agilen TAGSExplorer für die Anzeige gelegt und für die Analyse auf dem Desktop Gephi völlig ausreichend war. 23 4. Konzeption In diesem Kapitel entsteht die Umsetzung der Anwendung, beginnend mit der Analyse der Quellen aus den Open Courses OPCO11, OPCO12 und Funkkolleg‐Medien, mit dem Hintergrund welche Daten hieraus relevant für diese Arbeit sind. Desweiteren wird geplant wie die gewonnenen Informationen sinnvoll umzusetzen sind und welche Vorkehrungen dafür geschaffen werden müssen. Es wird der infrastrukturelle Rahmen für die resultierende Webpräsenz geschaffen, der gesamte Programmcode für die Software entwickelt und letztendlich sinnvoll für eine leichte Handhabung des Programms visualisiert. 4.1. Analyse der vorhandenen Quellen Im Kapitel 2 wurden bereits die MOOCs vorgestellt, die maßgeblich für die, in dieser Bachelorarbeit entstehende, Analyse sind. Aus diesem Blickwinkel sind die verwendeten Kommunikationsmedien in den Open Courses besonders interessant, da die Analysen über das Nutzerverhalten der Teilnehmer auf genau diesen Medien aufgebaut sind. Insgesamt wurde über alle Veranstaltungen hinweg unter anderem die Kommunikationsplattform Twitter verwendet, für die jeweils ein Twitter‐Account erstellt wurde um als Ansprechpartner für die Twitter‐Community zu fungieren. In Twitter veröffentlichten die Open Courses Neuigkeiten über den Kurs und Interessenten an den Kursen twitterten über den jeweiligen #tag oder direkt per @reply an OPCO11, OPCO12 oder Funkkolleg‐Medien. Somit ist es möglich mit der twitterinternen Suchfunktion alle Erwähnungen von Beiträgen unter dem Deckmantel des jeweiligen #tags zu finden, um somit alle kursrelevanten Beiträge zu sichern. Im Fall von OPCO11 geschah die Sicherung seitens studiumdigitale per HTML‐
Format über alle elf Wochen der Agenda. Für OPCO12 wurden alle Tweets mit Hilfe der Twitter API in eine MySQL‐Datenbank überführt, die von dem 21. Februar 2012 bis zum 21. Dezember desselben Jahres verlief und somit über den zeitlichen Rahmen der Agenda für OPCO 12 hinaus. Die Tweets, die unter dem Deckmantel von Funkkolleg verfasst wurden, werden seit dem 11.09.2012 in HTML‐Format auf der Funkkolleg Webseite im selben Format gespeichert und laufen während der Entstehung dieser Bachelorarbeit weiter an. Als Quelle wird in diesem Rahmen der Arbeit, der Zeitraum von dem 11. September 2012 bis zum 11. Februar 2013 berücksichtigt. Als weiteres Kommunikationsmedium im weiteren Sinne dient Wordpress. Alle drei Webseiten der diskutierten Online Kurse sind infrastrukturell mit Wordpress aufgebaut. Wordpress ermöglicht es eine Kommentarfunktion zu nutzen, die auf alle Unterteile der Webseite verwendet werden kann, in der sie freigeschaltet wurde. Somit ist es möglich für die Open Course Teilnehmer zentral auf der Kursseite über die unterschiedlichen Inhalte zu posten. Diese Art der Kommunikation ist an das Bloggen angelehnt, weil ebenso kommentarartig am Fuß der Seite Beiträge entstehen. Dadurch, dass Wordpress für den Webpräsenzauftritt genutzt wird, speichert dieses alle verfassten Beiträge in einer MySQL‐
Datenbank. Somit wurden alle im aktiven Zeitraum der Kurse verfassten Beiträge in der Wordpress Datenbank zentral gesammelt, die darüber hinaus auch die Inhalte der Autoren 24 der Seite in eine weitere separate MySQL Datenbank sichert. An dieser Stelle sollte erwähnt werden, dass außerhalb der zentralen Webseite der Veranstalter zusätzlich inhaltlich themenrelevante Blogs entstehen. Die Kursseiten aggregierten die entstandenen themenrelevanten Inhalte zentral und bildeten zusätzlich zu den blogintern verfassten Kommentaren externes Material ab. Wenn diese ebenfalls mittels Wordpress verfasst sind, kann mittels der Pingback‐Funktion von Wordpress innerhalb der offiziellen Kurs‐Webseite darauf referenziert werden. Auf den Inhalt der so entstandenen externen Blogs wird für die Datenanalyse dieser Bachelorarbeit jedoch kein Bezug genommen. Außer den Daten aus den soeben erwähnten Kommunikationsmedien wurden für die Nutzerverhaltensanalyse Datenbanken zu den registrierten Anmeldungen verwendet. Darüberhinaus existiert speziell für OPCO12 eine Datenbank in der die Aufteilung der Online‐
Badges, die ein Maß für die Eigeninitiative in dem Open Course sind, dokumentiert steht. Bis an diese Stelle wurden die zur Verfügung stehenden Ressourcen bestimmt. Als nächsten Schritt beschäftigt sich diese Arbeit mit dem Aspekt welche Informationen sie aus den vorher beschriebenen Quellen in Erfahrung bringen möchte. Analyse der Zeit: Als Erstes wird der Fokus auf die zeitliche Streuung der Twitterbeiträge und Webseitenkommentare gelegt. Die Zeit, an dem ein Tweet oder Kommentar verfasst wurde ist für sich einzeln betrachtet wenig aussagekräftig, jedoch kann in der Masse der Beiträge, die verfasst wurden eine Annahme über die aktive Teilnahme in Form von den Posts getroffen werden. Dadurch, dass in den Datenbanken zu den Tweets und Kommentaren der genaue Zeitpunkt erfasst wurde, wann der Beitrag erschien, ist es möglich diese in Bezug zum Erstellungszeitpunkt zu nehmen. Dafür wird der Entstehungszeitpunkt der Posts auf die kumulierte Menge der Postings auf Twitter und der Webseite abgebildet. Diese Sicht ermöglicht einen Trend festzustellen wann der Kurs tendenziell am stärksten in Form von Beiträgen verfolgt wurde oder auch um festzustellen an welchen Tagen die Teilnahme rege war. Interpretationsansätze hierbei liegen wiederum darin zu überprüfen ob eine verminderte Kommunikation auf das aktuell besprochene Thema der Agenda zurückzuführen ist. Genau in dieser Art des Interpretierens liegt der Fokus der Bachelorarbeit, um das Handwerkszeug dafür zu schaffen, interaktiv Nachforschungen nach aufgestellten Thesen zu betreiben. Quantitative Analyse: Das dokumentierte Datum der Beiträge kann vielseitig für die Analyse des Nutzerverhaltens genutzt werden, warum ein weiterer Aspekt, der betrachtet wurde, die individuelle zeitliche Struktur im Rahmen des gesamten Open Courses war. Hierfür wird die erste Interaktion in Form von einem Kommentar oder Tweet betrachtet, um den ersten aktiven Kontakt mit dem Open Course festzustellen. Es werden also die Anzahl der aktiven Postings illustriert, aufgeteilt auf die einzelnen Tage, an denen diese getätigt wurden. Somit ist es möglich für 25 jeden Twitternutzer oder Kommentator ein Bild darüber zu erhalten, wie sich die Anzahl der Beiträge zu den Open Courses an einzelnen Tagen verhielt. Interessante Rückschlüsse können wiederum daraus gezogen werden, wenn einzelne Tage stichprobenartig betrachtet und Zusammenhänge erkennbar werden. User Analyse: Ein weiterer Aspekt, in dem die Analyse ermöglicht werden soll, ist die Aktivität von den Kursteilnehmern. Es ist schwierig anhand der Anzahl von Beiträgen eines Nutzers Rückschlüsse auf sein Nutzerverhalten zu ziehen. Es ist möglich, dass Teilnehmer den Open Course als beobachtende Instanz stark verfolgen, jedoch weniger aktiv dazu schreiben. An dieser Stelle ist es schwierig anhand der vorhandenen Daten aufschlussreiche Informationen darüber zu erhalten wie aktiv jemand am Kurs teilnahm, ohne dabei Beiträge zu verfassen. Jedoch steht im Falle von OPCO12 eine Informationsquelle zur Verfügung, die in dieser Art OPCO11 und Funkkolleg verwehrt blieb. Es existiert eine SQL‐Datenbank, in der die registrierten Teilnehmer und ihr selbstgewählter Badge gelistet sind. Der Online‐Badge lässt die Benutzer selbst kategorisieren, in welcher Ausprägung sie am Open Course teilnehmen möchten. Zur Auswahl stehen die Ränge Beobachter, Kommentator und Kurator. Jeder dieser Ränge ist namentlich für sich selbst sprechend und Besucher des Kurses können optional eine Aussage darüber treffen, was sie sein möchten. Wenn jetzt die Problematik von der Messung der Aktivität betrachtet wird ist mit den in Kapitel 2 erwähnten Badges in OPCO12 eine Möglichkeit eingeräumt, diese zu messen. Es werden somit im Rahmen der Analyse Statistiken über den Grad der Aktivität erstellt und somit zueinander in Bezug gesetzt, wie viele der registrierten Benutzer letztendlich schwach‐, mittel‐ oder starkinteressiert ausgerichtet sind. Gleichzeitig werden in der Masse der Teilnehmer die Ziele dieser näher erläutert, womit gleichzeitig erkannt werden kann, welche Ausprägung der Open Course hat und ob diese optimal auf die Masse der teilnehmenden Interessenten abgestimmt sind. Somit kann ein Kurs der interaktiv ausgerichtet ist, bei einer Masse von selbsternannten Beobachtern auf Widerstand stoßen, ähnlich umgekehrt. Vernetzung: Ein weiterer Punkt, der innerhalb dieser Arbeit analysiert werden soll ist die Netzwerkbildung. In sozialen Netzwerken spielt diese unter dem Name der „Sozialen Netzwerk Analyse“ (SNA) eine bedeutende Rolle um Ursachen für Informationsausbreitungen zu identifizieren. Auf diesen Aspekt soll hier anhand der vorhandenen Quellen im Rahmen des Möglichen eingegangen werden. Bei der Betrachtung der zur Verfügung stehenden Quellen fällt auf, dass im Bezug zu der SNA die Wordpress Kommentar‐Datenbanken weniger Aufschluss über die Verbreitung von Informationen geben können, wenn nur die im Kursblog intern verfassten Kommentare und Kommentarantworten betrachtet werden. Da für die Analyse in dieser Bachelorarbeit die Inhalte von externen Blogs nicht betrachtet werden, ist der Analysehintergrund in diesem Fall begrenzt. Mehr Analysehintergrund bezüglich der Verbreitung von Informationen und 26 der daraus resultierenden Netzwerkbildung liefert das soziale Netzwerk Twitter. In Twitter sind mittels @replys direkte Erwähnungen, bzw. Ansprachen einzelner oder auch mehrerer Twitteruser möglich. Die Twitter‐API speichert diese Informationen, welcher Nutzer mittels @reply andere erwähnt in einer separaten Spalte in der SQL‐Datenbank nur, wenn dieser direkt am Anfang des Tweets benannt wird. Da vorkommende @replys mitten im Text von der Twitter‐API nicht erfasst werden, aber dennoch bei anderen Nutzern Benachrichtigungen auslösen, wurde im Rahmen dieser Bachelorarbeit eine weitere Spalte der Twitter‐API hinzugefügt, die alle vorkommenden @replys eines Tweets beinhaltet. Mit dieser erweiterten Quelle besteht zur Analyse der Netzwerkbildung ein größeres Arsenal an Daten, auf das man zurückgreifen kann. Zur Analyse, wie die Nutzer innerhalb eines sozialen Netzwerks wie Twitter miteinander agieren und sich vernetzen, bedarf es der Nachverfolgung der @replys der einzelnen Nutzer. Man betrachtet jeden Nutzer für sich separat, die Anzahl an Beiträgen die er an andere adressierte, sowie die Teilnehmer selbst, die adressiert wurden. Mit steigender Anzahl an Beiträgen und Erwähnungen anderer steigt die Wichtigkeit des Nutzers für die Netzwerkbildung. Das resultierende Netzwerkkonstrukt, gibt Aufschluss darüber, wie stark die Kommunikationsverbreitung über das Thema war. Wenn man die Netzwerkentwicklung über die Zeit betrachtet ist es außerdem möglich innerhalb der Entstehung zu erkennen, welche Nutzer erst mit der Zeit zu Twitter und somit zu OPCO12 fanden. Es ist somit eine Streuung ausgehend von Twitter‐Usern erkennbar, die Andere mittels @reply bezüglich den, in dem Open Course diskutierten, Thema kontaktieren und ihr Interesse damit auf den Kurs lenken. Darüber hinaus können die neugewonnen Nutzer ebenso weitere Nutzer kontaktieren und das Netzwerk in der Breite erweitern. Das endgültige Netzwerk ist jenes, welches zum Ende der Datenerfassung entsteht. Hier ist jedoch eine entsprechende Visualisierung unbedingt notwendig um die Daten interpretieren zu können. Analyse der Lokationen: In dieser Arbeit wird die Netzwerkbildung auch nach einem weiteren Gesichtspunkt betrachtet. Für die Netzwerkentstehung können außerdem Aufenthaltsorte der kommunizierenden Nutzer erfasst und modelliert werden, um nach diesem Aspekt die Netzwerkausbreitung anhand seiner Lokalität zu analysieren. In der Twitter‐Datenbank sind keine Aufenthaltsorte oder IP‐Adressen, welche Rückschlüsse darauf erlauben, vorhanden. Diese sogenannten „Geo“ Daten sind für diese Art der Netzwerkbetrachtung jedoch erforderlich. In Wordpress hingegen werden alle Nutzer, die einen Kommentar verfassen, mit ihrer IP‐Adresse gesichert, womit mittels der vorhandenen Wordpress‐Datenbanken Geo Informationen entnehmbar sind und das Netzwerk nach dieser Hinsicht analysiert werden kann. Hierfür werden die Geo‐Daten aufbereitet, um die letztendlichen Standorte zu erhalten und diese werden anschließend mittels geeigneter Illustrierung lesbar gemacht. Hier ist die Visualisierung wiederum essentiell für ein Verständnis über die Netzwerkentstehung, über die Ländergrenzen des Veranstaltungsortes hinaus. Beide Netzwerkanalysen, die der direkten Adressierung anderer Nutzer und die, der 27 Aufenthaltsorte, erlauben differenzierte Betrachtungsweisen über das Nutzerverhalten der Open Course Teilnehmer. Nach der Klärung und Analyse der vorhandenen Quellen folgt im nächsten Unterkapitel die Vorgehensweise, wie die Quellen aufbereitet werden müssen um die Form zu erhalten, die für die Entstehung des Analyseskripts notwendig ist. 4.2. Transformation der Daten In den Quellen aus dem vorherigen Unterkapitel stecken viele Daten bezüglich dem Aufenthalt der Benutzer in den Open Courses. Den Hauptteil der Quellen machen die MySQL‐Datenbanken aus, die entweder aus Twitter stammen, von Wordpress generiert sind oder von studiumdigitale selbst ermittelt wurden. Um alle diese Informationen sinnvoll nutzen zu können, bedarf es einer Vereinheitlichung der Quellen. Ziel ist es alle diese Daten im MySQL‐Datenbankenformat zu erhalten, sodass die Programmierung im Nachhinein einheitlich in Hinsicht auf ihre Struktur ist. Weiterhin bedarf es für die Analyse, die in dieser Bachelorarbeit ermöglicht werden soll, zusätzlicher Informationen die aus den vorhandenen Quellen extrahiert und transformiert werden. Nachfolgend eine Auflistung der Ressourcen, die zur Verfügung stehen : Quelle Relevanter Inhalt Datenbank: OPCO 11 Anmeldung User‐Daten, Registrierdatum Datenbank: Wordpress Commentsmeta
‐
Datenbank: Wordpress Comments User‐Daten, Kommentarinhalt‐ und Datum.
dazugehörige IP‐Adressen und Pingback‐Indikator Datenbank: Wordpress Postmeta ‐
Datenbank: Wordpress Posts Inhalt der Beiträge des Veranstalters HTML: Twitter Beiträge Tweet‐ und Userinformationen , @replys, #tags und Tweetdatum Tabelle 4.1.: Auflistung der Quellen für OPCO11 28 Quelle Relevanter Inhalt Datenbank: OPCO 12 Anmeldung User‐Daten, Registrierdatum Datenbank: Wordpress Commentsmeta
‐
Datenbank: Wordpress Comments User‐Daten, Kommentarinhalt‐ und Datum. dazugehörige IP‐Adressen und Pingback‐Indikator Datenbank: Wordpress Postmeta ‐
Datenbank: Wordpress Posts Inhalt der Beiträge des Veranstalters Datenbank: OPCO12 Tweets Tweet‐ und Userinformationen , @replys, #tags und Tweetdatum Datenbank: OPCO12 Links In Twitter veröffentlichte Links Datenbank: OPCO12 Badges User‐Informationen zu ihren Badges Tabelle 4.2.: Auflistung der Quellen für OPCO12 Quelle Datenbank: Funkkolleg Anmeldung Relevanter Inhalt User‐Daten, Registrierdarum Datenbank: Wordpress Commentsmeta
‐
Datenbank: Wordpress Comments User‐Daten, Kommentarinhalt‐ und Datum.
dazugehörige IP‐Adressen und Pingback‐Indikator Datenbank: Wordpress Postmeta ‐
Datenbank: Wordpress Posts Inhalt der Beiträge des Veranstalters HTML: Twitter Beiträge Tweet‐ und Userinformationen , @replys, #tags und Tweetdatum Tabelle 4.3.: Auflistung der Quellen für Funkkolleg‐Medien Diese gegebenen Quellen sollen das Grundgerüst für die interaktive Analyse darstellen. Von dem Inhalt ausgehend sind die Wordpress Datenbanken „Wordpress Commetsmeta“ und „Wordpress Commetsmeta“ für die Hintergründe, die diese Arbeit aufdecken soll, irrelevant. 29 Somit werden diese Datenbanken für alle 3 Open Courses im Sinne der Analyse außen vor gelassen. Die OPCO12 Tweets‐Datenbank beinhaltet im Gesamten genug Informationen um die angestrebten Analysen durchführen zu können. Jedoch fiel bei genauerer Betrachtung der Datenbank auf, dass in der Spalte, in der sich die Benutzer befinden, die mittels @reply adressiert wurden, nur diejenigen enthalten sind, die direkt am Anfang des Beitrages erwähnt wurden. Somit steht in der Spalte „to_user“ maximal 1 Nutzer drinnen und immer nur der, mit dem der Beitrag beginnt. Wenn weitere direkt im Anschluss oder auch später im Beitrag genannt werden, werden diese von der Twitter‐API nicht in die zugehörige Spalte gelistet. Jedoch wird in Twitter selbst nicht unterschieden, ob ein @reply am Anfang oder mitten im Beitrag erscheint, alle erwähnten Nutzer werden darauf binnen eines Tweets benachrichtigt. Warum Twitter es in ihrer Programmierschnittstelle anders handhabt, ist auf den ersten Blick nicht ersichtlich. Um jedoch für andere Analysen diesen Sachverhalt beizubehalten, wird im Rahmen dieser Arbeit die originale Twitter‐Datenbankstruktur beibehalten, lediglich weitere Spalten werden hinzugefügt. Mit den Spalten „all_at_replys_to_user“ und „at_replys_count“ wurden zwei weitere hinzugenommen worden, die einmal mehr Hintergrund über die Vernetzung erschließen und weiterhin einen Indikator für die Intensität der Erwähnungen liefern. Die Erste beinhaltet somit eine Erweiterung der ursprünglichen Spalte, in der, der erste am Anfang vorkommende, @reply steht. In dieser Spalte sind alle @replys aufgeführt, die in dem zugehörigen Tweet erwähnt wurden, unabhängig davon ob diese am Anfang platziert wurden. Auf diese Daten kann dann zurückgegriffen werden um ein differenzierteres Bild der Netzwerkentstehung zu erhalten. Die zweite Spalte beinhaltet die gesamte Anzahl der @replys, sofern welche getätigt und illustriert somit wieviele Benutzer mit diesem Tweet angeschrieben wurden. Um diese Erweiterung zu befüllen, wurde im Rahmen dieser Bachelorarbeit ein Php‐Skript erstellt, welches alle Datenbankeinträge in der Spalte „text“ ausliest und jede Erwähnung eines @replys in dieselbe Zeile schreibt. Gleichzeitig werden diese gezählt und die Gesamtzahl an @replys in die andere neu erstellte Spalte geschrieben. Da für die effizientere Programmierung des Skripts zur Analyse des Nutzerverhaltens ein einheitliches Ressourcenarsenal geeigneter ist, müssen die beiden einzig aufgeführten Quellen, die nicht als SQL‐Datenbanken betrachtet wurden, in solch eine transformiert werden. Hierbei handelt es sich um die HTML‐Formate der OPCO11‐ und Funkkolleg‐Tweets. Die Überführung einer Auflistung von Tweets im HTML‐Format in eine SQL‐Datenbank ist insofern nicht trivial, da sich die Anforderungen bei jeder HTML‐Datei ändern. Es wurde für die Transformation in die Datenbank vereinbart, die gleiche Struktur beizubehalten, wie sie bei der Erweiterung der OPCO12 Datenbank entstand. Dafür wurden zuerst die Tweets im HTML‐Format aus programmiereffizienteren Gründen in die resultierenden Datenbanken eingespeist. Diese Maßnahme ermöglicht eine direkte Operation auf der Datenbank ohne wiederholt auf die HTML‐Datei zugreifen zu müssen. Hierfür wurde ein Php‐Programm entwickelt, welches die einheitliche HTML‐Formatierung erkennt und die Tweets aus dem 30 HTML in die Datenbank überführt. Der Twitterbeitrag ist somit in seiner Rohform inklusive, üblich in HTML vorkommenden, Tags in einer gesonderten Spalte der Datenbank überführt. Anhand dieser in HTML formatierten Tweets wurden alle benötigten Spalteninformationen herausgefiltert, die für die Struktur der von uns erstellten Twitterdatenbank notwendig sind. Informationen zu Feldern, die nicht unmittelbar in der aus HTML übersetzten Spalte vorhanden sind, wurden aufbauend auf der Information, die bereits beschaffen werden konnte aus den zugehörigen Twitterseitenprofilen ausgelesen. Die Ergebnisse nach diesen Operationen sind dieselben Datenbanken von ihrer Struktur her, wie sie auch bei OPCO12 verwendet werden, lediglich mit dem Zusatz der HTML Daten innerhalb der Datenbank. Als letzte Maßnahme, um das Grundmaterial für die Implementierung des Analyseskripts zu erhalten, werden die Informationen, die sich hinter den in Wordpress vorhandenen Datenbanken befinden, eingeholt. Als Hintergrund für diese Maßnahme ist zu erwähnen, dass Wordpress die IP‐Adresse jedes Autoren speichert, der einen Kommentar auf der Seite hinterlässt. Jede dieser Adressen gibt Aufschluss über den Aufenthaltsort des Gerätes, über das der Kommentar verfasst wurde. Um jedoch an diese Information heranzukommen ist eine Überführung der IP‐Adressen in die jeweiligen Standorte notwendig. Hierfür existieren im Internet Anbieter, die kostenlose Datenbanken zur Verfügung stellen, die eine Übersetzung der IP‐Adresse erlauben. Eine eigene Implementierung für die Überführung würde den Rahmen dieser Bachelorarbeit sprengen, weshalb die Datenbanken „GeoLite City“ von „http://dev.maxmind.com/geoip/geolite“[Max13] verwendet werden. Das Prinzip ist folgendes: Für die Verwendung der Aufenthaltsorte aus den IP‐Adressen werden in der Abfrage des Analyseskripts die IP‐Adressen unmittelbar übersetzt. Der erste Schritt hierfür ist die Kodierung der IP‐Adresse in das Long‐Dateiformat. Dieses Format wird oft für die plattformunabhängige Überführung von Byte‐Reihenfolgen genutzt und ermittelt in diesem Rahmen die entsprechende Bytereihenfolge für jede IP‐Adresse. Mit der so erhaltenen Bytefolge wird die erste der beiden Datenbanken des „GeoLite City“ durchsucht. In dieser sind zeilenweise Intervalle aufgeführt. Jedes dieser Intervalle wird durchsucht, bis die richtige Zeile gefunden wurde, die der Bytereihenfolge zugehörig ist. Folglich wird eine „Location‐ID“ für das entsprechende Intervall zugeordnet, welche in der zweiten Datenbank Verwendung findet. In dieser ist zu jeder Location‐ID ein eindeutiger Längen‐ und Breitengrad angegeben. Letztendlich können mit Hilfe dieser Informationen das Land und sogar die Stadt ermittelt werden, die der angegebenen IP‐Adresse zugehörig sind. Im Rahmen der Automatisierung zur Verwendung dieser Daten wird „Google Maps“ verwendet um diese Daten letztendlich anzeigen zu lassen [Goo131]. In der in OPCO12 vorhandenen Links‐Datenbank sind alle von Twitter generierten „Short‐
URLs“ inklusive ihres Originallinks vorhanden. Die Problematik, die an dieser Stelle entstand war, dass Originallinks, die auf dieselben Webseiten verwiesen, zum Teil unterschiedlich geschrieben waren und zum Teil durch Twitter unterschiedliche Short‐URLs erhielten. Im Rahmen der Entwicklung des Analysetools wurde so vorgegangen, dass jede Short‐URL in der Links‐Datenbank in allen verfassten Twitter‐Beiträgen durchsucht und die Häufigkeit des 31 Vorkommens gezählt wurde. Im Anschluss wurde eine Überführung der Short‐URLs zu den Original‐Links erbracht um im Nachhinein alle identisch geschriebenen Originallinks nach ihrem ursprünglichen Vorkommen zu zählen. Außerdem wurden Originallinks, die unterschiedliche Schreibweisen enthalten, jedoch zur selben URL führen, nicht zusammengefasst, um die meist genutzten Schreibweisen für die geposteten Links voneinander unterscheiden zu können. Nachdem in diesem Kapitel die vorhandenen Ressourcen aus den MOOCs vorbereitet wurden, indem man sie erweiterte, umformte oder übersetzte, wurde die Struktur des Datenbestands vereinheitlicht und somit besser nutzbar gemacht. Im nächsten Unterkapitel wird die Planung erläutert, wie die Informationen aus den Quellen sinnvoll für die Analyse des Userverhaltens verwendet werden. 4.3. Konzeption des Analysetools Nachdem in den vorherigen Unterkapiteln der Datenbestand analysiert und vorbereitet wurde, wird in diesem Abschnitt geklärt, welche Analysen in dem Programm ermöglicht werden sollen und was hieraus interpretiert werden kann. Hierfür wird dieses Kapitel in 5 grobe Teile gegliedert. Beginnend mit dem Teil 4.3.1., der den allgemeinen Aufbau des entstehenden Analysetools beschreibt. Als nächstes wird der zweite Abschnitt dieses Unterkapitels die zusammenfassenden Analyseaspekte des hier benannten Dashboards erläutern. Anschließend folgt der Part, der sich ausschließlich mit den Analysemöglichkeiten aus Twitter beschäftigt, was deren Stärken sind und welche Informationen hier im Gegensatz zum Wordpress‐Blog hervorzuheben sind. Hierfür werden verschiedene Charakteristika von Twitter aufgelistet und die Wichtigkeit dieser für die Nutzeranalyse verdeutlicht. Anschließend werden die Besonderheiten aus den Wordpress‐
Quellen im Unterkapitel 4.3.4. dargelegt und ein Bild darüber vermittelt, welche Aspekte hier vorhanden und nutzbar sind. Im letzten Teil 4.3.5. werden vorhandene Parallelen zwischen den zwei unterschiedlichen Netzwerkstrukturen Twitter und dem Weblog benannt und Schwachstellen bei der Gegenüberstellung aufgezeigt. Außerdem erfolgt ein Überblick des übergreifenden Vergleiches zwischen den Open Courses und an welcher Stelle Gemeinsamkeiten auftreten. Es wird untersucht in wie fern diese miteinander vergleichbar sind und wie Gemeinsamkeiten verglichen werden können. 4.3.1. Allgemeiner Aufbau des Tools Der Aufbau des infrastrukturellen Rahmens dieser Bachelorarbeit und des hieraus resultierenden Programms für die Analyse und Visualisierung des User‐Verhaltens in einem MOOC orientieren sich an dem Teilnehmerkreis, der diese Art der Analyse mithilfe des Programms durchführen möchte. Es wurde sich bewusst für eine Art Internetseite, sprich eine Webpräsenz, entschieden, um damit Bezug auf den Nutzerkreis eines MOOCs zu nehmen. Open Course bauen darauf auf, dass sie online stattfinden, sodass zum einen keine Einschränkungen bei der Teilnahme bestehen und gleichzeitig Interessenten weltweit sich 32 mit dem Kursinhalt auseinandersetzen können. Unter Berücksichtigung dieses Hintergrundes erscheint eine durchzuführende Analyse, die nicht online realisiert werden kann, als umständlich und widersprüchlich. Aus diesem Grund wurde sich bei dieser Bachelorarbeit bewusst für das Online‐Format entschieden, um so dem MOOC entsprechend am ähnlichsten zu sein und den Interessierten die Möglichkeit der Analyse zu bieten, die auf dem selben Medium aggregiert. Die Auswertung des Nutzerverhaltens innerhalb eines Onlinekurses ist somit für alle Teilnehmer von vornherein transparent und es muss keine zusätzliche Software installiert und heruntergeladen werden. Somit entsteht ein gewisser Grad der Plattformunabhängigkeit. Die Analyse des User‐Verhaltens kann somit auf allen gängigen Endgeräten erfolgen, die einen Internetzugang besitzen. Es ist somit problemlos möglich vom Smartphone oder Tablet‐Computer auf die Software zuzugreifen, ähnlich simpel, wie die Nutzer auf einen MOOC zugreifen können. Aufgebaut wurde die Webpräsenz in HTML (Hypertext Markup Language), welches den Rahmen für alle in dieser Arbeit getätigten Implementierungen bildet. Die Inhalte der Webseite wurden mit Hilfe von HTML‐Tags „div“ angeordnet und mit CSS (Cascading Style Sheets), einer unter anderem für HTML‐Dateien gängige Sprache formatiert. Mit den in CSS möglichen Stilvorlagen können Inhalte der Webpräsenz individuell dargestellt werden und nach Belieben des Entwicklers gestaltet werden. Durch die Wahl dieses Erstellungswerkzeuges wird die Webpräsenz, wie bereits erwähnt, für alle gängigen Browser‐
Formate, für PC‐ und Mobilgeräte zugänglich. Die hier entstehende Darstellung des Web‐
Layouts soll dem Web 2.0 Standard entsprechen, welcher hohen Wert auf die Übersichtlichkeit der Webseite legt, um eine intuitive und schnell verständliche Bedienung der Webseite zu ermöglichen. Besucher von Webseiten, die dem Web 2.0 Standard folgen, sollen sich in ihnen bekannten Mustern rasant wieder finden können, sodass das Konsumieren von Inhalten auf effizientere Weise geschehen kann, ohne sich vorher mit dem Web Layout der Seite vertraut machen zu müssen. Mit der soeben beschriebenen Struktur soll der Grundstein für eine leichte Orientierung und somit „Usability“, sprich einer leichten Handhabbarkeit geschaffen werden. Mit dem Start der Webseite wird eine Auswahl darüber getroffen, welcher MOOC analysiert werden soll. Jeder MOOC soll einzeln betrachtet und unabhängig von den anderen analysiert werden können. Um nicht von den Inhalten der anderen MOOCs im Vorfeld abzulenken, wird am Anfang eine Auswahl angeboten, für die sich der Nutzer entscheiden muss. 33 Abbildung 4.1.: Startseite der MOOC Analytics Webseite Nachdem eine Auswahl getroffen wurde, welcher MOOC analysiert werden möchte, gelangt der Benutzer in einen, von den anderen Kurs‐Analysen isolierten, Bereich. Empfangen wird er mit der Dashboard‐Seite auf der er zu Beginn eine Übersicht des Open Course erhält. Für den Aspekt der Handhabbarkeit der Software ist es wichtig, den Benutzer nicht von Anfang an in die Tiefen der Analyse zu schicken, sondern aufbauend seine Analysen zu begleiten. Das Seitenlayout soll die Infrastruktur zur Verfügung stellen, stufenweise in die Analyse einzusteigen und sich nach eigenem Ermessen zu informieren. Erst einmal bei dem Dashboard angelangt, soll dem Benutzer nachdem er sich mit den dort übermittelten Informationen vertraut gemacht hat, in der Seiteninternen Tab‐Leiste eine tiefere Analyse gewährt werden. Abbildung 4.2.: Tab‐Leiste der Open Courses Er hat die Auswahl zwischen der Blog‐Analyse, die sich mit den auf der Kursseite ermittelten Informationen beschäftigt, der Twitter‐Analyse, die das User‐Verhalten der Twitter‐Nutzer genauer betrachtet und dem Vergleich, der die MOOCs untereinander vergleicht. Die Elemente sind in der Reihenfolge angeordnet, in der es sich inhaltlich empfiehlt die Analyse 34 zu betreiben. In der Blog‐Analyse erhält der Benutzer erst einmal Auskunft über die relevanten Informationen, die auf der Kurs‐Seite ermittelt wurden. Die Blog‐Analyse eignet sich gut für den ersten Einstieg in die tiefere Analyse des User‐Verhaltens, da die Twitter‐
Analyse etwas umfangreicher ist. Die einzelnen Tabs beinhalten keine weiteren untergeordneten Seiten, da die Analyse übersichtlich bleiben soll und der Nutzer sich nicht in den Tiefen der Webseite verlieren soll. Die Twitter‐Analyse beinhaltet jedoch durch den Aspekt der @replys eine Möglichkeit sich interaktiv durch die einzelnen Nutzerprofile zu klicken, um die Struktur von den dort gelisteten Nutzern zu verfolgen. Hier wurde darauf geachtet, dass der Analyst sich nicht beim Klicken durch die vernetzten Teilnehmer in der Seitenstruktur verliert. Mit einem Klick auf ein Nutzerprofil wird keine weitere Tiefe erreicht, sondern man bleibt auf derselben Tiefe der Webseite. Nachdem der Besucher seine Analysen über das Nutzerverhalten der Kursteilnehmer abschließt, ist er in der Lage mit dem letzten Tab den soeben analysierten MOOC mit den anderen beiden in dieser Arbeit betrachteten Kursen zu vergleichen. Dieser Vergleich erfolgt auf der Ebene der zu vergleichenden Dashboards, da hier die grundlegenden Fakten vorhanden sind und diese am geeignetsten für einen groben Vergleich der beiden Kurse sind. In diesem Unterkapitel lag der Fokus auf dem Aufbau der Webseite und was sich hinter den Ideen des Webdesigns verbarg. Im folgenden Kapitel werden die Visualisierungstechniken und was hinter ihnen steckt, erläutert. 4.3.2. Dashboard Der Begriff „Dashboard“ stammt aus dem Englischen und heißt übersetzt „Armaturenbrett“. Dieser Begriff wird als Überschrift für diesen Teil des Unterkapitels gewählt, weil er durchaus in Zusammenfassungen von Analysen auftritt und in diesem Abschnitt auch zusammenfassend gemeinsame Aspekte, wie auf einem Armaturenbrett, betrachtet werden. Neben den detaillierten Analysen, die sich bisher hinter Twitter und dem Weblog aus Wordpress verbargen, werden die Aktivitäten und andere Eckdaten übergreifend über beide Netzwerke betrachtet. Im Folgenden gelingt eine Analyse auf Grundlage eines gesamten Open Courses und mit inbegriffen sind die Statistiken der Twitter‐ und Blognutzung. Ein erstes Indiz für die übergreifende Aktivität der Kursteilnehmer und ihrer verfassten Beiträge liefert die kumulierte Menge der an einem Tag verfassten Postings. Wenn der gesamte Zeitraum betrachtet wird, zu dem Beiträge in Twitter und auf der Kursseite entstanden und diesen wiederum auf die Menge der Einträge abbildet, die verfasst wurden, lässt sich mit Hilfe eines, in einem Koordinatensystem abgebildeten, Graphen übersichtlich eine Tendenz der Aktivität aufstellen. Auch hier muss das Phänomen des Pingbacks, welches im vorherigen Unterkapitel erwähnt wurde berücksichtigt werden, da dieses inklusive seiner Gewichtung nicht abgebildet wird, sondern lediglich als ein verfasster Beitrag gezählt wird. Diese Art der 35 Darstellung ist jedoch ein geeignetes Schaubild um einen ersten Eindruck der zu erwartenden Analyse zu gewinnen und passt inhaltlich gut in das Dashboard. Wenn jedoch die Beiträge aus Twitter und aus der Kursseite auf ihren quantitativen Aspekt verglichen werden sollen, ist dieses Schaubild nicht mehr geeignet um diese Daten voneinander zu unterscheiden. Aus diesem Grund entsteht eine weitere Illustration der in Zahlen ausgedrückten Menge der Beiträge aus Twitter und aus dem Weblog des betrachteten Open Course. Die einzelnen Übersichtsgraphen zu den Beiträgen sind zwar bereits vereinzelt in den dazugehörigen Bereichen Twitter und Blog gelistet, jedoch lassen sich diese nur aufwendig vergleichen. Für diesen Zweck wird der Zeitraum, in dem Beiträge zu Twitter und dem kursinternen Blog entstanden sind auf die Anzahl ihrer verfassten Beiträge abgebildet. In Form eines 2‐Komponenten‐Graphens werden beide Funktionen innerhalb desselben Koordinatensystems abgebildet und somit ein direkter Vergleich auf zu betrachtenden Tage möglich gemacht. Diese Darstellung lässt außerdem Rückschlüsse auf das von den Kursteilnehmern präferierte Medium schließen. Um jedoch nicht nur einen Überblick über die Tendenzen der quantitativ betrachteten Beiträge zu erhalten, werden Balkendiagramme zur Verfügung gestellt, die die Gewichtung der Beiträge in ihrem Verhältnis zueinander verdeutlichen. Somit kann auf den ersten Blick analysiert werden in welchem der beiden Kommunikationsmedien Twitter Weblog, der Schwerpunkt aller Kursteilnehmer lag. Bei genauerer Betrachtung der Quellen fällt auf, dass die meisten Teilnehmer, die sich auf der Kursseite registrierten, keinen Kommentar verfassten. Dieses Phänomen hinterlässt genug Gründe die Anzahl der registrierten Teilnehmer des Open Course und die Anzahl der Twitter‐
Accounts, von denen aus Beiträge verfasst wurden, zu vergleichen. Hiermit soll auf dem Dashboard illustriert werden in welchem Verhältnis die letztendlichen Nutzer zueinander standen, losgelöst von der Anzahl ihrer Beiträge. Abbildung 4.4.: Balken‐ und Kuchendiagramm der in OPCO12 vorkommenden User Mit diesem Wissen, inklusive den Informationen aus den bisher aufgezählten Analysewerkzeugen des Dashboards, können Annahmen über die Intensität getroffen 36 werden, mit denen die Teilnehmer ihre Beiträge auf den unterschiedlichen Kommunikationsplattformen verfassen. Zuletzt erfolgt ein interessanter Vergleich, der zwischen Twitter‐ und Blognutzern getätigt wird. Es wird zu allen Kommentaren der hinterlegte Name, falls angegeben, mit allen in der Twitter‐Datenbank vorhandenen Namen verglichen und bei einem übereinstimmenden Treffer vermerkt, dass dieser Teilnehmer in beiden Medien unterwegs war. Dieser Vergleich wird mit jedem Kommentar durchgeführt und auf einen Treffer in der Twitter‐Datenbank durchsucht und gleichermaßen werden die Autoren der Twitter‐Beiträge in der Datenbank der Kursseite durchforstet. Diese übergreifende Analyse erlaubt Rückschlüsse darauf, welche Teilnehmer in beiden Plattformen aktiv waren. Aus diesen Informationen entsteht eine alphabetisch sortierte Auflistung aller Teilnehmer, die diese Verteilung von alleinigen Twitter‐Nutzern, alleinigen Blognutzern und Nutzern beider Kommunikationsplattformen anzeigt. Es werden beide Nutzerprofile zur Auswahl aufgestellt, sodass man ohne zusätzliches Suchen in den Unterkategorien Twitter‐Analyse und Blog‐Analyse direkt die betroffenen Nutzerprofile betrachten kann. 4.3.3. Twitter‐Analyse In diesem Abschnitt wird der Umfang geklärt, den das Programm haben wird, für die Analyse aus den gegebenen Twitter‐Datenbanken. Für alle drei, in Kapitel 2 betrachteten Open Courses ist für die erfolgte Kommunikation zum jeweiligen Themengebiet eine Twitterdatenbank hinterlegt. Exemplarisch wird der Umfang der Analyse im Folgenden anhand des OPCO12 stattfinden. In erster Linie werden in der Twitter‐Analyse des Programmes Daten über die Twitternutzung aufbereitet. Hierfür ist eine Auflistung aller vorkommenden #tags aus der dazugehörigen Twitterdatenbank geplant. In dieser sind alle Tweets der Nutzer gespeichert. Durch eine Auslese aller Texte und Filterung nach allen vorkommenden #tags kann somit ermittelt werden welche #tags innerhalb der Open Course Kommunikation genannt wurden. Darüber hinaus wird die Darstellung aller #tags nach der Häufigkeit ihres Vorkommens in den Quellen absteigend sortiert. Somit geraten die Tags in den Fokus, die am stärksten in den Tweets erwähnt wurden. Die Auflistung aller #tags, die im Rahmen des Kurses vorkamen, soll eine Analyse darüber erlauben, welche Themen stark mit dem eigentlichen Kursthema verwandt sind, bzw. Parallelen besitzen. Hierfür können weitere Begriffe in der #tag‐Auflistung erscheinen, die zuvor gegebenenfalls nicht bekannt waren und durch die hierarchische Auflistung der Tags kann die Relevanz dieser Themen indiziert werden. Dieses Werkzeug soll die Analyse nach anderen, verwandten Themen erlauben. Analog zur Auflistung der #tags, sollen in dem Tool alle vorkommenden @replys mit derselben Hierarchie wie die Tags gelistet werden. Die Aufbereitung dieser Liste entspricht demselben Schema wie dem der #tags. Es werden alle vorkommenden Tweets in der Datenbank nach vorkommenden @replys durchsucht und nach ihrer Häufigkeit gelistet. An dieser Stelle ist das außerordentlich hohe Potential der Analysetiefe zu erwähnen, welches 37 in den @replys steckt. Auf den ersten Blick erlaubt die Auflistung aller @replys eine Übersicht stark involvierter Teilnehmer innerhalb des Open Courses. Darüber hinaus liegt die wahre Stärke dieser Art der Kommunikation in ihrer ursprünglichen Bedeutung. Ein Twitter‐
Nutzer, der einen @reply an andere Parteien verfasst, adressiert somit den Inhalt seines Tweets an diejenigen, die er erwähnt. Somit wird eine Verbindung zwischen dem, was der Benutzer inhaltlich mit dem Tweet aussagen möchte zu den angesprochenen Nutzern geschaffen. Der adressierte Nutzer wird somit in direkte Verbindung mit dem Tweet gebracht und erweitert somit die Netzwerkkommunikation im Hinblick des Tweet‐Inhaltes. Im Falle der Open Courses kann von Beginn an nachverfolgt werden, wie sich das Netzwerk bezüglich des Kursthemas verbreitet. Es kann analysiert werden, welche Parteien am stärksten in dem Prozess der Netzwerkbildung involviert sind und welche neuen Subnetzwerke somit potentiell entstehen. Der Aspekt welche Nutzer am stärksten in den @replys und somit in den damit verbundenen Interpretationsmöglichkeiten eingebunden sind, soll mittels einer geeigneten Visualisierung aufbereitet und leicht nachvollziehbar gemacht werden. Hierfür sollen die am stärksten in dem Prozess der @reply‐Kommunikation eingebundenen Twitteruser zueinander in Bezug gestellt werden. Im Unterschied zu der Referenzierung der @replys der gängigen Twitter‐API Datenbanken, besteht die Stärke des hier entstehenden Tools darin, dass die verwendeten Twitterdatenbanken nicht nur die @replys der Twitter‐API enthalten, sondern alle vorkommenden Erwähnungen. Die Kommunikationsintensität erhält dadurch eine maßgeblich höhere Grundlage an Vernetzungen, als es bei vereinzelter 1:1 Zuordnungen wäre. Durch die vorhandenen Daten können somit Informationen basierend auf 1:n Relationen verwendet werden. Das Netzwerkanalysepotential steigt somit immens. Als letze Auflistung über twitterrelevante Aspekte wird ebenfalls wie bei den #tags und @replys eine Übersicht aller Dienste gegeben, die genutzt wurden um Beiträge auf Twitter zu veröffentlichen. Mit dieser Darstellung soll die Grundlage für die Analyse nach den Kanälen geschaffen werden, die an der Twitterkommunikation beteiligt sind. Hierfür wird ebenfalls eine hierarchische Auflistung erstellt um somit populäre Dienste in den Vordergrund zu stellen. Diese Darstellung soll den Hintergrund für den infrastrukturellen Rahmen der Twitterkommunikation erleuchten und gängige Tools für das Tweeten auflisten. Darüber hinaus wird eine Auflistung der genauen Links, die hinter den Kanälen stecken, erfolgen. Diese Auflistung der Links erlaubt durch seine absteigende Anordnung nach der Häufigkeit einen Blick auf den exakten Link, der zur Beitragserstellung genutzt wurde. Hiermit kann einerseits ausgelesen werden, über welche Aktionen der Tweet hinzugefügt wurde, wie zum Beispiel mit dem Drücken des „Tweetbuttons“ und andererseits gibt es Links, die speziell für das Posten mit dem iPad von der Firma Apple genutzt werden. Für die Analyse der Aktivität aller an dem Kurs teilnehmenden Nutzer innerhalb von Twitter werden die Anzahl der Tweets im Bezug auf den Erstellungszeitpunkt betrachtet. Dadurch, dass in der Twitterdatenbank der genaue Zeitpunkt zu jedem Beitrag dokumentiert ist, kann ein Zeitintervall auf die Anzahl an Beiträgen abgebildet werden. Mit diesen Informationen 38 soll in dem Programm mit Hilfe eines Graphen die Aktivität an dem Open Course im Rahmen von Twitter analysiert werden können. Im Folgenden ein Ausschnitt aus dem entwickelten Analysetool und dem Graphen aller in OPCO12 verfassten Tweets. Abbildung 4.5.: Screenshot OPCO12 Tweets Hierfür werden als Zeitintervall die Tage gewählt, an denen Beiträge zum Kurs erstellt wurden und auf deren Anzahl abgebildet. Somit entsteht ein geeignetes Schaubild, aus dem abgelesen werden kann an welchen Tagen die Aktivität in Twitter am stärksten, bzw. am schwächsten war. Außerdem ist durch die Visualisierung mittels Graphen das Potential vorhanden, Tendenzen für steigende, bzw. sinkende Teilnahme zu erkennen. Dadurch, dass in den Kursen wöchentliche Agenden den Rahmen vorgeben, auf dessen Grundlage die Diskussionen basieren, kann mithilfe der beschriebenen Darstellung eine Referenz zur Aktivität der Teilnehmer erstellt werden und somit Rückschlüsse auf die Popularität der Themen gezogen werden. Die Existenz der Zeitpunkte, zu denen ein Beitrag erstellt wurde hinterlässt außerdem die Möglichkeit Aussagen über die genaue Aktivität zu treffen. Genauer betrachtet kann ein Zeitpunkt bestimmt werden, zu dem Teilnehmer von Beginn des Kurses dabei waren und wie lange diese aktiv an der Diskussion in Twitter beteiligt waren. Es werden die Nutzer gelistet, die erst im Laufe des Kurses zu der Twitterkommunikation stießen. Außerdem werden alle Nutzer gelistet, die unmittelbar nach einem @reply in die Twitterdiskussionen einstiegen und damit im Zusammenhang mit der Netzwerkbildung stehen. Der Vollständigkeit halber werden außerdem alle Twitter‐Nutzer aufgestellt, die unmittelbar an dem Prozess der Netzwerkenstehung mit Hilfe der @replys neue Interessenten gewinnen konnten. Als Werkzeug dienende Funktion existiert darüber hinaus auch eine Auflistung aller Links, die in den Twitter‐Beiträgen der Nutzer vorkamen. Hier lässt sich sehr schnell erkennen, ob Tweets unter dem Deckmantel des MOOCs verfasst wurden, die Links zu inhaltlich nicht relevanten 39 Seiten beinhalten. Bei steigender Zahl an Nutzern eines MOOCs lässt sich somit analysieren, welche Beiträge dem Kurs schaden, da die Aufmerksamkeit, die durch den Open Course generiert wurde anderweitig genutzt wird. Mit diesem Abschnitt sollen Fakten aufbereitet werden und eine eigenständige Interpretation, bzw. Analyse ermöglichen. Sie beziehen sich auf die Gesamtzahl an getätigten Beiträgen innerhalb Twitter. Desweiteren soll ebenso die Grundlage dafür geschaffen werden, Nachforschungen über einzelne Teilnehmer in der Twitterdiskussion zu betreiben. Die Nutzer werden absteigend nach der Anzahl ihrer Beiträge aus Twitter aufgezählt. Hierfür werden ein Teil der soeben beschriebenen Analysewerkzeuge erneut zur Verfügung gestellt, nur mit dem Unterschied, dass Daten einzelner Nutzer betrachtet werden können. Somit erhält jeder Twitternutzer, der etwas zu den Open Courses verfasste ein eigenes Nutzerprofil. Beginnend damit soll wieder eine Auflistung aller Kanäle, #tags und @replys erfolgen mit dem selben Analysehintergrund, der auf alle Tweets bezogen wurde, jedoch mit dem Unterschied, dass im Detail nun einzelne Nutzer auf diesen Kriterien betrachtet werden können. Gleichzeitig bildet das Programm die Kategorie der Beiträge ab und wie sich diese zahlenmäßig verhalten. Durch ein Diagramm wird hiermit illustriert wie hoch der Anteil an Beiträgen ist in denen @replys, #tags oder keiner dieser beiden vorkommen. Im selben Rahmen sollen alle Twitterbeiträge des individuellen Teilnehmers auf den Erstellungszeitraum abgebildet werden. Hierfür wird wiederum ein Graph zur Illustrierung bereitgestellt, mit dem man in der Lage ist sich ein Bild über die Posting‐Aktivität zu machen. Somit wird die Grundlage für die Analyse der Aktivität einzelner Nutzer geschaffen. Zusätzlich werden in jedem Nutzerprofil ein paar Fakten zu dem User beschrieben. Es wird überprüft ob der Nutzer erst von jemandem mittels @reply in Twitter geworben wurde, bevor er sein erstes Posting verfasste, ob er selbst andere Nutzer warb und somit maßgeblich an der Netzwerkbildung beteiligt war oder ob er zusätzlich zu Twitter sich auch auf der Kursseite mit den Inhalten des Open Course auseinander setzte. Mit der Separierung zwischen allen getätigten Twitterbeiträgen und der Analyse der Beiträge einzelner Nutzer soll die Möglichkeit geschaffen werden Einzelne genauer nach ihrem Verhalten erforschen zu können. Ein besonders interessanter Aspekt der eingebaut wird ist die Vernetzung des individuell betrachteten Nutzers mit denjenigen, bei denen die @reply Konversation am stärksten war. Bei dieser gesonderten Betrachtung wird zusätzlich zur Darstellung mit wem der Nutzer mittels @reply in Verbindung stand ein weiteres Navigieren ermöglicht. Dieses Navigieren soll in Form von Weiterverlinkungen auf weitere Nutzerprofile innerhalb von diesen gestaltet werden. Es werden somit nicht nur alle Nutzer, mit denen der Profilsinhaber in Verbindung stand gelistet, sondern diese werden zugleich verlinkt, sodass sie anklickbar sind. 40 Abbildung 4.6.: @reply Netzwerk von dem Twitternutzer volkmarla Diese Darstellung kann in jedem in dieser Arbeit erstellten Twitter‐Nutzerprofil gefunden werden, unabhängig davon, ob der Nutzer @replys verfasste oder nicht. Der zu betrachtende User ist mittig aufgeführt und um ihn herum werden die zehn am stärksten mit @replys kontaktierten Nutzer angezeigt. Mit dieser Vernetzung ist die technische Voraussetzung dafür gegeben, dass durch beliebig viele, miteinander verknüpfte Nutzerprofile navigiert werden kann. Dieses Nutzerprofil enthält ebenfalls die oben abgebildete Darstellung, auf dessen Grundlage ein weiterer User angeklickt werden kann. Nach einem Klick öffnet sich das Nutzerprofil des Users, der angeklickt wurde. Einerseits fällt diese Darstellung unter den Deckmantel der Visualisierung, andererseits ist es zusätzlich ein Werkzeug um interaktiv und bequem an die Nutzerinformationen von zusammenhängenden Profilen zu gelangen. Dieser Aspekt erweitert das Netzwerkanalyse‐Potential des Programms erheblich, da die meisten relevanten Daten der Nutzer in direkter Verbindung mit ihrem Kommunikationsumfeld stehen. Der, im „State of the Art“ Kapitel erläuterte, TAGSExplorer wird ebenfalls eine Verwendung innerhalb dieser Arbeit finden. Wie bereits erläutert, ist es mit diesem Tool mittels Online‐
Spreadsheet von Google möglich aus aktuellen Twitterbeiträgen Informationen zu gewinnen, um letztendlich die User innerhalb eines Netzwerkgraphen in Bezug zueinander zu setzen und graphisch zu visualisieren. Für die Verwendung in dieser Bachelorarbeit wurde somit ein separater Google‐Account angelegt um die Spreadsheets des TAGSExplorer zu nutzen. Darüber hinaus musste ein neuer Twitter‐Account erstellt werden um Zugriff auf die Twitter‐
API zu erhalten und mittels Spreadsheet‐Befehle die Tweets auszulesen. 41 Abbildung 4.7.: Screenshot des TAGSExplorer anhand der Twitter‐Datenbank aus OPCO12 In Twitter sind die Beiträge, die dort verfasst werden nur innerhalb eines gewissen Zeitraumes abrufbar, aus welchem Grund das Spreadsheet mit den Daten aus den Twitter‐
Datenbanken gefüttert wird. Hierfür werden jedoch nicht wahllos alle Tweets berücksichtigt, die in den Twitter‐Datenbanken vorhanden sind, es werden nur die Beiträge in den TAGSExplorer eingespeist, die in ihrem Text @replys enthalten, sodass der TAGSExplorer bei der Masse an vorhandenen Daten nur mit den relevanten für die Netzwerkbildung gefüllt wird.Es wird ab dem Erstellungszeitpunkt dieser Bachelorarbeit fortan im Stundenrhythmus das Spreadsheet aktualisiert und mit den neuesten Tweets zu den Kursthemen gefüttert und aktuell gehalten. Da der Funkkolleg‐Medien noch andauert, sind dementsprechend mehr Tweets noch aktuell auf Twitter zu finden, was das Datenvolumen für den TAGSExplorer etwas erhöht. Da dieser jedoch nicht lokal auf einem eigenen Server installiert werden kann, wurde dieser mittels „iframe“ in die HTML eingebunden. Er wird in älteren Browsern fehlerhaft angezeigt oder teils überhaupt nicht geladen. Aus diesem Grund wurde die Implementierung, in das in dieser Arbeit entstehende Programm, so angegangen, dass beim Laden der Seite ein zeitgemäßer Screenshot anstelle des TAGSExplorer‐Ergebnisses angezeigt wird. Im Anschluss kann dieser per Button aktiviert werden und bei einer zu alten Browserversion wird darauf 42 hingewiesen, dass das Ausführen des TAGSExplorer nicht mit dieser Browserversion möglich ist. Das Einbinden des TAGSExplorer in die Twitter‐Analyse dieser Arbeit erlaubt eine Analyse des Twitternetzwerkes innerhalb der erstellten Online‐Software. Es wird kein Download oder ähnliches benötigt um den Nutzern erschwerend eine Visualisierung liefern zu können. Stattdessen ist es möglich mittels einfachem „Surfen“ eine Übersicht des gesamten Twitter‐
Netzwerkes zu erhalten, das sich mit dem betrachteten Open Course beschäftigt. Da dieses in regelmäßigen Zeitabständen aktualisiert wird, bleibt diese Ansicht dynamisch und gewinnt mit der Zeit immer mehr an Aussagekraft. 4.3.4. Blog‐Analyse In diesem Abschnitt wird der Rahmen geklärt, in dem das Script eine Analyse der Wordpress Datenbanken erlauben wird. Die durch Wordpress überlieferten Daten sind sehr umfangreich und die Aufgabe besteht darin, einerseits die für diese Bachelorarbeit inhaltlich relevanten Aspekte heraus zu filtern und zusätzlich die weitere Interpretation dieser Daten offen zu legen. Ähnlich wie für die Twitter‐Analyse fand das Kommunikationsmedium „Bloggen“ auch in allen drei besprochenen Open Courses Verwendung. Es existierte jedoch ein Aspekt in OPCO12, der in OPCO11 und Funkkolleg so nicht vorkam, und zwar handelt es sich hierbei um die Online‐Badges. Aus diesem Grund fundiert die folgende Analyse auf dem Open Course 2012. Die Online‐Badges hängen inhaltlich zwar nicht mit den Wordpress‐
Datenbanken zusammen, jedoch ist eine Registrierung erforderlich, aus welchem Grund die Einbeziehung der Badges hier erfolgt. Das Bloggen ähnelt dem Twittern nur in kleinster Weise. Beides sind Austausch‐ und Kommentarmöglichkeiten zu einem Thema und erlauben das Involvieren anderer Parteien, jedoch besitzt auch das Bloggen Aspekte, die im Zusammenhang mit dem OPCO12 interessantes Analysematerial bilden. In der Blog‐Analyse soll mit dem Skript wieder eine Analyse auf abstrakter Basis aller Kommentatoren der Blogs möglich sein und man soll in der Lage sein, die Informationen die über die Bloguser vorhanden sind angezeigt zu bekommen. Beginnend mit dem allgemeineren Betrachtungspunkt sollen Statistiken übergeordneter Art zur Verfügung gestellt werden. In den Open Courses gab es die Möglichkeit sich als registrierter oder unregistrierter Benutzer mit einem Kommentar an der Diskussion zu beteiligen. Diejenigen, die sich registrierten, konnten sich einen Online‐Badge selbst zuteilen und sich somit in einer von drei Kategorien von Teilnehmern einstufen. Darüber hinaus war es registrierten Benutzern möglich sich die Teilnahme an dem Open Course bestätigen zu lassen und eine sogenannte Teilnahmebestätigung zu erwerben, mit der die in dem Kurs erbrachte Leistung im universitären Rahmen anerkannt werden kann. Hier soll mit dem entstehenden Analysetool eine Übersicht geliefert werden, welche aktiven Kommentatoren in den Blogs registriert waren oder nicht. Darüber hinaus erfolgt ein Blick darauf, wie die Verteilung der teilnehmenden Online‐Badges aussah und wie diese verteilt waren. Hiermit lässt sich mit 43 einem kurzen Blick schnell einsehen, wo der Interessenschwerpunkt in dem Open Course für die Teilnehmer war, da sich die Nutzer als Beobachter, Kommentator oder Kurator selbst einstufen konnten. Ein weiterer Übersichtspunkt der gegeben werden soll, ist die Art der Kommentare. Es wird in dem Skript einsehbar sein, wie die prozentuale Verteilung der Kommentare war, in Hinsicht der normalen Kommentare oder den von Wordpress generierten Ping‐ und Trackbacks. Nach Betrachtung der Quellen wurde festgestellt, dass Letzteres, sprich die Trackbacks keine wesentliche Rolle in den Open Courses spielte. Im Hinblick auf die Aktivität erhält man mit der Statistik zu den Online‐Badges ein qualitatives Merkmal über die Aktivität der OPCO Teilnehmer, jedoch soll außerdem ein Blick auf die quantitative Aktivität geschaffen werden. Für diesen Zweck wird wie bei der Twitter‐
Analyse die Anzahl der Posts, zu den Zeitintervallen der Tage, über die Zeit des Open Courses zugeordnet. Innerhalb dieses Graphen wird wieder ein erhebliches Maß an Analysemöglichkeiten geschaffen, indem man Tendenzen in Hinsicht auf die Anzahl der Posts treffen kann und die inhaltlichen Themen auf die quantitative Beteiligung abgleichen kann. Alle User werden absteigend nach der Anzahl ihrer getätigten Kommentare auf dieser Seite aufgelistet, um die Nutzer mit stärkerer aktiver Teilnahme auf den ersten Blick oben zu sehen. Darüber hinaus soll mithilfe des Programms illustriert werden zu welchen Themen die Kommentare am stärksten vertreten waren. Es sollen mithilfe eines Diagrammes die Unterschiede erkennbar gemacht werden, in welchen Subkategorien innerhalb des Open Course die höchste Beteiligung war. Mit diesen Informationen ist es möglich für zukünftige Open Courses sich inhaltlich mehr an den Interessenschwerpunkt zu orientieren. Einer der aufschlussreichsten Analyseaspekte der innerhalb dieser Bachelorarbeit geschaffen werden soll, beruht auf den hier verwendeten Wordpress‐Datenbanken. Innerhalb dieser wurden alle IP‐Adressen zu jedem verfassten Kommentar gespeichert, mit dessen Hilfe ein Hinweis auf den Standort der aktiven Kommentatoren des Open Course möglich ist. Diese Daten ermöglichen einen Aufschluss darüber mit welcher Reichweite der Open Course stattfand und welche Grenzen außerhalb Deutschlands überschritten worden sind. Im Hinblick auf die Netzwerkbildung stellen diese Angaben die Resultate der Netzwerkanalyse dar, bis wohin der deutsche Open Course hinreichte. Die Aufbereitung der IP‐Adressen ist bis zu diesem Zeitpunkt bereits erfolgt und die Längen‐ und Breitengrade stehen zur Verfügung. 44 Abbildung 4.8.: Screenshot der Standorte an denen Beiträge verfasst wurden. Mithilfe dieser Daten und unter Verwendung des Programms GoogleMaps von Google ist es möglich diese Informationen in eine übersichtliche Karte zu überführen. Mit dieser, im Skript zur Verfügung gestellten, Übersicht über alle OPCO‐Kommentatoren ist die Grundlage für die Geo‐Analyse geschaffen. Durch ein einfaches und den meisten bereits durch GoogleMaps bekanntes Durchnavigieren auf der Weltkarte können Kommentatoren relativ genau auf ihren Standort zurückverfolgt werden. Ähnlich wie bei der Twitter‐Analyse werden auch hier Nutzerprofile für die Kommentatoren errichtet. Diese sind mit zusätzlichen Informationen ausgerüstet, die mehr über den User hinter dem Kommentar in Erfahrung bringen lassen. Es werden einige Daten, die übergreifend für alle Nutzer betrachtet wurden für den Einzelnen ebenso zugänglich gemacht. Unter anderem betrifft es das aktive Kommentieren, auf den Kurszeitpunkt abgebildet. Es wird für diese Abbildung wieder ein Koordinatensystem inklusive Graphen verwendet. Die Unterteilung erfolgt genau wie bei den zuvor verwendeten Analysen in Tagen. Weiterhin folgen Diagramme über die inhaltliche Zuordnung der Postings, ob es sich hierbei um Pingbacks oder reguläre Kommentare handelt. Allein schon bei grober Betrachtung der Verteilung der Postings die auf Twitter zum MOOC verfasst wurden, im Verhältnis zu den Beiträgen die als Kommentar auf der Kursseite entstanden, fällt auf, dass es auf der Kursseite erheblich weniger Beiträge gibt. Das mag einerseits daran liegen, dass Twitter sich zu seiner Zeit als gängigeres Kommunikationsmedium unter den meisten Teilnehmern durchsetzte, jedoch lassen die Pingbacks auf der anderen Seite einen Hinweis dafür, dass Teilnehmer hier einen großen Teil ihrer Zeit investierten. Wie zuvor in den Grundlagen erläutert, hinterlassen die Pingbacks, die auf der Kursseite gelistet werden, eine Verbindung zu einem außerhalb der Seite verfassten Blog, der inhaltlich mit dem MOOC verbunden ist. Der Aufwand einen Weblog aufzusetzen, zu pflegen und die Konversation mit den dort herrschenden Besuchern aufrecht zu erhalten, übersteigt in den meisten Fällen den 45 Aufwand, der in einen Tweet gesteckt werden muss. Es besteht hier das Problem der Vereinheitlichung dieser Blogs. Da in jedem Weblog unterschiedlich viel Arbeit steckt, lassen sie sich nicht auf einen Wert normieren. Aus diesem Grund ist bei der Analyse innerhalb dieser Bachelorarbeit und dem Programm, das Hintergrundwissen zu der Relevanz und dem Aufwand der Pingbacks essentiell. Wenn sich also die Anzahl der Tweets und der Kommentare in den Blogs gegenüber stehen, muss ein zweiter Blick auf die Art der Kommentare geworfen werden und die Anzahl der herrschenden Pingbacks in dem Vergleich berücksichtigt werden. Die mittels GoogleMaps zur Verfügung gestellte Übersicht für alle Kommentatoren erfolgt gleichermaßen in den Nutzerprofilen, sodass nachverfolgt werden kann, von wo der betrachtete Nutzer seinen Kommentar verfasste. Es folgen interessante Statistiken über die Aktivität des Benutzers. Zum Teil wird aufgelistet, wann der erste Beitrag des Nutzers war, ob der Poster ein registriertes Mitglied war oder seine Beteiligung losgelöst davon war und ob der Nutzer sich selbst für einen Online‐Badge eintrug inklusive der von ihm gewählten Kategorie. 4.3.5. Übergeordneter Vergleich zwischen den MOOCs In diesem Abschnitt soll untersucht und geplant werden, wie über die Grenzen eines der in dieser Arbeit betrachteten MOOCs hinaus, Parallelen und Unterschiede erkannt werden können. Zum einen bezieht sich diese Analyse auf die Nutzerdaten, ähnlich wie sie im Dashboard ermittelt werden und auf der anderen Seite befasst sich dieser Teil des Unterkapitels mit Maßnahmen identische Nutzer aus verschiedenen MOOCs ausfindig machen zu können. Dies soll eine Useranalyse der Teilnehmer über einen Open Course hinweg erlauben um so gegebenenfalls deren Aktivitäten zwischen den Kursen zu vergleichen. Die Problematik, die hierbei entsteht ist, dass kein eindeutiges Kriterium, wie eine User‐ID oder ähnliches, existiert, um einen Nutzer in zwei verschiedenen MOOCs zu erkennen. Außerdem besteht die Möglichkeit, dass ein User in einem Kurs nur innerhalb Twitter aktiv war und bei einem anderen Onlinekurs seine Beiträge nur auf dem Blog verfasste. Diese Betrachtung erfordert Maßnahmen von den Teilnehmern eines MOOCs, ihre Identität und Kommunikationsmedien anzugeben, sodass sie leichter identifiziert werden können. Im Rahmen dieser Bachelorarbeit wurde jedoch als Basis für die Erkennung identischer Benutzer in verschiedenen Kursen der hinterlegte Name gewählt. In Twitter entspricht der Name, auf den referenziert wird, dem Twitter‐Usernamen und für den Weblog von Wordpress ist dies der Name, der entweder in einem Kommentar hinterlegt wurde oder der Name, der bei der Registrierung angegeben wurde. Dadurch, dass Teilnehmer ihre Postings im Weblog auch ohne Registrierung verfassen können, kann in diesem Rahmen nur Bezug auf den im Kommentar hinterlegten Namen genommen werden. In den, für diese 46 Bachelorarbeit betrachteten und vorhandenen, Datenquellen wurde somit als gemeinsame Schnittmenge der verschiedenen Netzwerke, der Name erkannt und weiterhin verwendet. Abbildung 4.9.: Screenshot der übergreifenden Liste aller Teilnehmer Es ist somit möglich MOOC‐übergreifend User wieder zu erkennen und ihre Nutzerprofile für den jeweiligen Open Course zu laden und zu vergleichen. Die vorhergehenden Informationen und Analysewerkzeuge in Form des Dashboards beeinhalten einige wichtige Daten, die intuitiv verständlich sind und es ist kein weiterer Aufwand notwendig, der in die selbstständige Analyse gesteckt werden muss um wesentliche Grundinformationen zu erhalten. Aus diesem Grund wird auf dieser Informationsgrundlage der Vergleich zwischen den stattgefundenen Open Courses betrachtet. Jeder Open Course besitzt eine eigenständige Twitter‐, Blog‐ und übergreifende Analyse, womit für jeden Kurs eine Grobübersicht besteht. In jeder eigenständigen Kurs‐
Analyse‐Seite besteht die Möglichkeit die zuvor genannten Eckdaten auf einen Blick mit anderen Kursen zu vergleichen. Der Vergleich soll so funktionieren, dass basierend auf dem MOOC, der analysiert werden möchte, ein weiterer MOOC dazu betrachtet werden kann. Es folgen die zwei Dashboards zu den Kursen, die verglichen werden möchten und diese werden innerhalb einer Seite nebeneinander gestellt. Es ist mit Hilfe dieser Gegenüberstellung möglich ohne zusätzliches Navigieren oder Öffnen von weiteren Tabs die MOOCs auf ihre Grunddaten zu vergleichen. Darüber hinaus erscheint bei jeglichen Vergleichen, die zwischen zwei der von dieser Bachelorarbeit betrachteten MOOCs erfolgen, eine Liste aller vorkommenden Nutzer der drei Open Courses inklusive ihrer Verlinkung zu 47 ihren Nutzerprofilen. Mit dieser Tabelle ist unabhängig davon, welche zwei MOOCs auf ihre Dashboards verglichen werden sollen, immer eine Übersicht von allen Parteien vorhanden, die zumindest einen Beitrag in Form eines Tweets oder Kommentar verfassten und die dazugehörigen Nutzerprofile. 4.4. Echtzeitanalyse In diesem Abschnitt erfolgt die Beschreibung der Echtzeit‐Komponenten, die innerhalb des zu realisierenden Programms vorhanden sind. Mit einer Komponente von Echtzeit ist ein beliebiger Teil der Software gemeint, der jedoch in der Lage ist mit neuem Laden der Seite, aktualisierte Ergebnisse zu liefern. Der Unterschied zu einer Auswertung, die nicht in Echtzeit geschieht ist, dass die ermittelten Ergebnisse nicht einmalig statisch geliefert werden und keine Veränderungen in den Analysewerkzeugen sichtbar werden. Selbst wenn der Datenbestand erneuert, erweitert oder verkürzt wird, bleibt das Ergebnis dasselbe und ist in seiner Flexibilität massiv eingeschränkt. Eine Echtzeitanalyse ermöglicht jedoch kurzfristige Änderung im Datenbestand, sei es, in dem Kontext dieser Bachelorarbeit, beispielsweise ein neuer Tweet zu dem MOOC Thema. So würde dieser erkannt, erfasst und mit in die Auswertung übernommen werden können. Die Analyse in Echtzeit ermöglicht es, die Veränderung des Datenbestandes aktiv mit zu verfolgen, womit Benutzer des Programms mehr als einen einmaligen Anreiz haben sich mit der Analyse zu beschäftigen. Ein fortlaufend sich weiter entwickelnder Datenbestand liefert kontinuierlich neues Material um die Analyse fortzuführen. Die Motivation, die hinter einer Auswertung in Echtzeit steckt ist, dass für zukünftig stattfindende MOOCs das Programm von Beginn an parallel zum Open Course laufen kann. Somit ist es in der Lage den Datenbestand von Beginn an nach zu verfolgen und auszuwerten. Es ist möglich die Entwicklung des Netzwerkes und seine Ausbreitung von Anfang an zu sehen, womit aktive Nutzer inklusive jener, die maßgeblich zu der Netzwerkentstehung beitragen früh erkannt werden können und ihre Aktivität weiter verfolgt werden kann. Ein weiterer Aspekt der Echtzeitanalyse besteht in der Intensität, mit der die MOOC‐Teilnehmer im Kurs Beiträge verfassen. In der Twitter‐Analyse und in der Blog‐Analyse werden alle Nutzer absteigend nach der Anzahl ihrer verfassten Beiträge gelistet. Wenn die Software zu Beginn des Kurses parallel gestartet wird, ist die Anzahl der Beiträge, die verfasst wurden letztendlich bei Null. Im Rahmen der Echtzeitanalyse kann hier ein erheblich großer Anreiz für die Kursteilnehmer geschaffen werden sich aktiv im Weblog und in Twitter mit dem Open Course zu beschäftigen, da sie mit jedem Beitrag, den sie verfassen, auf der Analyse‐Seite gelistet werden. Es ist die Grundlage für eine wettbewerbsbasierte Teilnahme geschaffen, in der jeder Teilnehmer sich mit anderen in seiner Aktivität messen kann. Bei den in dieser Bachelorarbeit analysierten MOOCs bestand keine Möglichkeit sich in einer Art Rangliste wieder zu finden und die Motivation am Kurs war letztendlich die, sich nach eigenem Interesse mit dem Kursinhalt zu beschäftigen. Mit der Echtzeitanalyse der verfassten Beiträge aus Twitter und dem Weblog werden alle Nutzer 48 absteigend nach der Anzahl ihrer Beiträge gelistet, aus welchem Grund auch ein Wettbewerbsgefühl entsteht. Dies trägt den positiven Aspekt mit sich, dass ein wesentlich höheres Datenvolumen geschaffen werden kann, auf dessen Grundlage eine Analyse aussagekräftiger wird. Durch die erhöhte Anzahl an Beiträgen wird gleichermaßen ein Mehr‐
Interesse generiert, da die Reichweite mit der Anzahl der in Twitter verfassten Beiträge wächst, da sich das soziale Netzwerk stärker ausbreitet. Auf der anderen Seite birgt solch eine Motivation das Risiko, dass Beiträge verfasst werden, die überflüssig und irrelevant für das Thema sind und somit eine Art „Spam“ generiert wird. Dies würde die Qualität, die hinter der Masse an Beiträgen stecken soll, beeinträchtigen und somit die Aussagekraft der Analyse senken, beziehungsweise verfälschen. Die in den vorherigen Abschnitten erläuterten Analysewerkzeuge werden größtenteils automatisch in Echtzeit verlaufen. Andere benötigen ein kleines manuelles Update eines Administrators, um weiterhin auf dem aktuellsten Stand zu sein. Unter anderem wird bei der Geo‐Analyse, bei der die IP‐Adressen erst in Längen‐ und Breitengrad überführt werden müssen, in Form der Echtzeitanalyse eine längere Berechnungszeit fällig, sodass die Ergebnisse nicht schnell genug zur Verfügung stehen würden. Dies würde die Ausführbarkeit der Analyse zeitlich stark beschränken, aus welchem Grund die Auswertung in Echtzeit nicht direkt auf den Daten basiert. Es wird im Minutentakt, eine ebenfalls in dieser Arbeit entwickelte PHP‐Datei, im Hintergrund ausgeführt, die diese längere Berechnung der neu hinzugekommenen IP‐Adressen durchführt und dem Programm vor dem Abruf des Datenbestandes bereits zur Verfügung steht. Durch diese Handhabung kann dennoch das Gefühl der Echtzeitanalyse erhalten bleiben, ohne dass der Benutzer etwas davon merkt, dass die Daten im Hintergrund erst umgerechnet werden müssen. Ähnlich verhält es sich bei dem TAGSExplorer, der innerhalb der Twitter‐Analyse zum Einsatz kommt. In den Einstellungen des Spreadsheets ist ein automatisches Update der Daten aus Twitter nur im Stundentakt möglich und diese Einstellungen können in der Software nicht verändert werden. Die Verzögerung in der Auswertung der hinzukommenden Tweets ist jedoch marginal und wird die Echtzeitanalyse im Rahmen der Analyse nicht stark beeinträchtigen. Ein Kernaspekt, aus welchem Grund in dieser Bachelorarbeit das Format der Echtzeit‐
Analyse gewählt wurde, ist neben der komfortablen Nutzung der, dass die Philosophie des Open Course auf der interaktiven Kommunikation in Echtzeit beruht. Teilnehmer tweeten und verfassen ihre Beiträge auf der Kursseite um im Anschluss ein zügiges Feedback zu erhalten oder ihr Wissen schnell weiterzugeben, um es auf die Masse der Teilnehmer zu verbreiten. Dem Prinzip zur Folge sollte auch die Analyse diesem Format entsprechen und nicht erst am Ende eines MOOCs die Ergebnisse daraus liefern. In diesem gesamten Unterkapitel inklusive seiner Subkapitel wurden die wichtigsten Aspekte hervorgehoben, die das Analyseskript beinhaltet. Es wurde darüber unterrichtet welche Betrachtungsweisen implementiert werden und wie diese interpretiert werden können. Im nächsten Unterkapitel der Konzeption wird der infrastrukturelle Rahmen, indem das hier 49 beschriebene implementiert werden soll, erläutert und in welcher Art und Weise es zu einer hohen Nutzerfreundlichkeit beitragen kann. Daraufhin wird detaillierter auf die hier bereits erwähnten Visualisierungsmöglichkeiten Bezug genommen und welche Gedanken hinter der Wahl dieser Werkzeuge stehen. 50 5. Implementierung 5.1. Programmierwerkzeug zur Umsetzung Die in dieser Bachelorarbeit entstehende Analysewebseite wird im Rahmen von HTML umgesetzt. Die letztendliche Programmierung geschieht mit Hilfe der Programmiersprache PHP in der Version 5. Die Realisierung entsteht mittels PHP, da diese Sprache die weltweit verbreitetste serverbasierte Programmiersprache für das Internet ist und sehr viele Dokumentationen, Bibliotheken und Klassen im Internet hierzu zu finden sind. Mit dem bereits hohem und weiterhin steigendem Bekanntheitsgrad dieser Programmiersprache wachsen zugleich ihre Einsatzgebiete mit. Der gesamte Programmcode wurde an vereinzelten Stellen mittels geeigneter Kommentierung nachvollziehbarer gemacht. Als Editor, in dem die hier entstehende Webpräsenz entstanden ist, wurde der HTML‐Editor Dreamweaver CS6 von der Firma Adobe Systems verwendet. Das Programm ist gut für professionelle Webseitenerstellung geeignet, da es mit vielen Funktionen, Hilfestellungen im Programmcode und Fehleranalysen erheblich bei der Programmierung unterstützt. Für die Erstellung und Editierung von Bildern und Graphiken wurde Photoshop CS6, ebenfalls von Adobe Systems verwendet. Das Potential dieser Software übersteigt die in dieser Arbeit angefallene Verwendung, jedoch wurde sie aus Gründen der leichten Handhabung benutzt. Die Implementierung für die in der Konzeption beschriebenen Analysewerkzeuge geschah auf der Grundlage der MySQL‐Datenbanken. Systematisch wurde für jedes Schaubild oder Werkzeug so vorgegangen, dass in erster Linie für alle Implementierungen zuerst die relevanten Daten aus der Datenbank gelesen wurden. Dadurch, dass MySQL Datenbankabfragen selbst in PHP möglich sind, wurde die zu untersuchende Datenbank mit ihrem kompletten Inhalt in ein Array gepackt. Dies geschah aus dem Grund, weil die Arbeit mit dem PHP‐Code in PHP schneller bearbeitet werden kann, anstelle von mehreren SQL‐
Statements. Beim Laden der Webseite beinhalten die Arrays nach aktuellem Auslesen der Datenbanken die neusten Aktualisierungen der Datensätze, womit eine Auslese der Datenbank mittels komplexen und verschachtelten „Querys“ die Ladezeit bei großen Datenmengen verzögern würde. Der Inhalt dieses Arrays ist so aufgebaut, dass jeder Eintrag der Datenbanktabelle zeilenbasiert vorhanden ist. Eine beispielhafte Abfrage würde folgender Maßen aussehen: 51 $opco12_tweets = array(); $result = $db_opco12‐>query( "SELECT * FROM `tweets`”); while ($row = $result‐>fetch_assoc()) { $opco12_tweets[] = $row; } Ein Ausschnitt aus dem Array sieht strukturell folgender Maßen aus: $opco12_tweets { [0]=> array(14) { ["id"]=> "164732749020803072" ["from_user_id"]=> "14756945" ["from_user"]=> "eme1408" ... ["at_replys_count"]=> "0" } [0]=> array(14) { ["id"]=> "164734138270752768" ["from_user_id"]=> "76887049" ["from_user"]=> " timovt " ... ["at_replys_count"]=> "1" } … } Mit dem kompletten Inhalt der Datenbanktabelle in diesem 2‐dimensionalen Array ist die Basis dafür geschaffen, den SQL‐Datenbankinhalt in PHP weiter zu bearbeiten. Als nächsten Schritt werden dann für die, von der zu implementierenden Analyse geforderten, Informationen aus dem Array extrahiert und in ein neues Ergebnis‐Array gespeichert. Somit stehen die benötigten Daten auf Abruf zur Verfügung. Dieses Vorgehen war bei den meisten hier entwickelten Analysemöglichkeiten der Fall. Für die Webpräsenz, die in dieser Arbeit entsteht, wurde für die technische Umsetzung von Visualisierungen größtenteils JavaScript verwendet. Um genauer zu sein, wurden die meisten Graphiken und Koordinatensysteme mit Hilfe des Plug‐ins „jqPlot“ von der Javascript‐
Bibliothek „jQuery“ realisiert. jQuery ist eine von John Resig entwickelte, freie JavaScript‐
Bibliothek mit vielen komfortablen Funktionen für die Nutzung von JavaScript in HTML‐
Seiten. Mit Hilfe des jQuery Plug‐ins „jqPlot“ ist es möglich übersichtliche Graphiken unterschiedlichster Kategorien zu erstellen. Für die weitere Verarbeitung der Informationen zu den Graphiken aus jqPlot wurden die Arrays in die, für die vom jQuery Plugin benötigte, Datenstruktur überführt. Bei dieser handelt es sich um einen String, der im Rahmen der Anforderungen von jqPlot passend generiert wird. Weiterhin wurden mittels PHP teilweise die Informationen aus den Datenbanken 52 transformiert. Das war im Falle von jqPlot notwendig, da beim Einlesen der Daten alles im String‐Format benötigt wurde. Weiterhin mussten beispielsweise die Inhalte der Spalte, in der die Zeitangabe stand, wann der Beitrag verfasst wurde, umformatiert werden, sodass in der Visualisierung die deutsche Zeitformatierung, anstelle der amerikanischen zu sehen ist. Im Großen und Ganzen bestand die Komplexität der Auswertung in der Datengewinnung für die jeweiligen Analysen. Die Interpretation der Daten und das Bereitstellen der notwendigen Informationen, auf deren Grundlage die Analysewerkzeuge arbeiten, stellte die Hauptaufgabe in der Implementierung dar. Es wird bewusst auf eine detaillierte Beschreibung der Implementierung des Quelltextes verzichtet, da der Fokus dieser Bachelorarbeit auf der Konzeption liegt und die Implementierung Mittel zum Zweck ist. 5.2. Zusätzliche Implementierungen Als Unterstützung für die Datengewinnung in dieser Bachelorarbeit wurden Parser im kleineren Umfang entwickelt, sodass die Transformation aus den Twitterbeiträgen, die im HTML‐Format vorhanden waren, in eine MySQL‐Datenbank möglich war. Dies war einmal für die Linkarchivierung der OPCO11 Tweets notwendig, da diese im Laufe dieses Kurses im HTML‐Format gespeichert wurden und einmal für den Open Course Funkkolleg‐Medien, dessen Twitter‐Beiträge ebenfalls aus HTML überführt wurden. Da Twitter die Suchergebnisse der verfassten Tweets auf einen gewissen Zeitraum beschränkt ist es nicht mehr möglich die alten Beiträge zu OPCO11 in vollem Umfang zu erhalten, weshalb auf die folgende Methode gebaut wurde. Hierfür wurde im Fall des OPCO11 Parsers zuerst eine MySQL‐Datenbank angelegt, die dieselbe Struktur, wie die OPCO12‐Datenbank besitzt, welche aus der Twitter‐API generiert wurde. Für die weitere Füllung wurden drei zusätzliche Spalten hinzugefügt, die später keine Relevanz mehr besitzen, jedoch den Programmieraufwand bis auf weiteres vereinfachen. In diesen zusätzlichen Spalten wurde der Inhalt der Tweets der verschiedenen Twitter‐User eingetragen, sodass die weitere Bearbeitung der Datenbank losgelöst von dem HTML‐Inhalt stattfinden kann. Mit diesem Vorhaben sind alle Daten zwar noch nicht in ihren zugehörigen Spalten vorhanden, jedoch allesamt in der Datenbank, womit eine weitere Nutzung der HTML‐Links nicht mehr notwendig ist. Im nächsten Schritt wird ein PHP‐Skript erstellt, welches alle Daten der Tweets, welche innerhalb der angelegten Datenbank vorhanden sind, auf die verschiedenen Kriterien filtert und in die Spalten einträgt. Durch sukzessives Abarbeiten der Twitter‐Beiträge können somit alle Daten, die in der Struktur von der Twitter‐API vorhanden sind, beschaffen werden. Als Endergebnis entsteht die OPCO11 Datenbank, die von der Struktur her nicht von der Twitter‐API generierten Datenbanktabelle zu unterscheiden ist. Der für Funkkolleg entstandene Parser ist auf dieselbe Art und Weise realisiert worden, mit dem Unterschied, dass die Tweets des gesamten Kurses auf einer HTML‐Seite zusammengefasst waren, wobei sie bei OPCO11 zu den elf Themenwochen separiert worden sind. 53 6. Zusammenfassung und Fazit 6.1. Was wurde erreicht? Es wurden alle Anforderungen, die in der Konzeption definiert und beschrieben wurden erfüllt. Somit sind im Rahmen dieser Bachelorarbeit die drei MOOCs OPCO11, OPCO12 und Funkkolleg‐Medien analysiert worden. Es wurde das Handwerkszeug dafür implementiert das User‐Verhalten der Besucher aus den MOOCs selbstständig zu analysieren und mit geeigneten Visualisierungen verständlich zu machen. 
Webbasierte Analyse des User‐Verhalten von MOOC‐Teilnehmern: Es wurde mit der Webpräsenz für die drei Open Courses der Grundstein für eine selbstständige Analyse des User‐Verhaltens der MOOC‐Teilnehmer gelegt. Es ist im Internet öffentlich ohne Nutzungsrestriktionen zugänglich. Weiterhin ist durch die Anzahl an erstellten Implementierungen ein facettenreiches Angebot an Analysewerkzeugen entstanden, die das Nutzerverhalten aus verschiedenen Aspekten untersuchen lässt. Das interaktive Erforschen von einzelnen Nutzern ist durch die entstandenen Nutzer‐
Profile bewerkstelligt worden, in denen sich Fakten zu den betrachteten Nutzern befinden, gegebenenfalls ihr Aufenthaltsort aus dem sie ihren Beitrag verfassten und im Falle von Twitter das Netzwerk, was um sie herum entstand. Durch die Verknüpfung der Nutzerprofile des Twitternetzwerkes wurde der Rahmen der Verhaltensanalyse erweitert und erlaubt einen Blick über einzelne User hinaus. 
Visualisierungen: Es wurden verschiedene, jedoch auf den ersten Blick übersichtliche Visualisierungen des Datenkontingentes geschaffen, die jedem Benutzer der Analysewebseiten eine intuitive Nutzung ermöglicht. Die in dieser Bachelorarbeit gewählten Visualisierungen wurden mit dem Ziel implementiert, eine gute Handhabbarkeit für die Nutzer zu erreichen. Es sollen die wichtigsten Fakten schnell erkennbar werden und ein intuitives Wiederfinden in den Tools wurde hiermit ermöglicht. 
Echtzeit: Die entstandene Webpräsenz wurde nicht nur für den, bis zum Erstellungszeitpunkt dieser Bachelorarbeit, Datenbestand entwickelt, sondern sie ist in der Lage auf Veränderungen in der Datenbank zu agieren. Es ist für weitere MOOCs, mit demselben vorhandenen Datenhaushalt, möglich, die Website von Anfang an mitlaufen zu lassen und neueste Tätigkeiten in den MOOCs rundum Twitter und Weblog zu erfassen und mit den zur Verfügung stehenden Analyse‐ und Visualisierungstools zu erforschen. Somit ist die hier entstandene Internetpräsenz mehr als eine statische Auswertung, die sich nicht weiterentwickelt, viel eher ist sie ein mitwachsendes Tool, das seine Aussagekraft mit der Entwicklung der MOOCs verstärkt. 54 
Eigene Auswertung der MOOCs: Mit der Entstehung dieser Bachelorarbeit sind während der eigenständigen Analyse und Entwicklung der Programme bereits einige markante Eckdaten aufgefallen. Zum einen ist das Datenvolumen, das aus Twitter und Wordpress vorhanden war, unterschiedlich im Hinblick der Informationen, die daraus ermittelt werden können. In Twitter fehlte der Aspekt der Lokation der Nutzer, wobei im Weblog im Rahmen dieser Arbeit kein Bezug auf ein entwickelndes Netzwerk möglich war. Desweiteren war erstaunlich zu beobachten, dass die Anzahl der Beiträge aus Twitter erheblich höher war, als dieAnzahl der, die im Weblog entstanden. Paradoxerweise war dahingegen die Anzahl der Teilnehmer am MOOC um Längen größer, als involvierte Twitter‐Accounts identifiziert werden konnten. In Twitter hatten die Beiträge in den meisten Fällen den Charakter der Netzwerkverbreitung, da in dem größten Teil der Beiträge andere User adressiert wurden. Im Weblog hingegen war das Posten von Inhalten meist mit einem rein informativen oder kommentierenden Gedanken fundiert. Das Ziel dieser Bachelorarbeit war es jedoch eine selbstständige Analyse des User‐
Verhaltens mit Hilfe von geeigneten Visualisierungen zu ermöglichen. Die in diesem Abschnitt aufgeführten Fakten sind Informationen, die während der Entwicklung bereites auffielen. 6.2. Was wurde nicht erreicht? In Bezug zu den in der Konzeption angestrebten Realisierungen konnten die Analysewerkzeuge zwar entwickelt werden, jedoch waren dafür teilweise komplexe SQL‐
Abfragen notwendig oder gewisse Datenbestände überhaupt nicht vorhanden. 
Geo‐Daten: Die aus der Twitter‐API angeforderten Daten wurden in eine entsprechende SQL‐Tabelle überführt. Die Struktur beinhaltete sogar die Spalte für die Geo‐Lokation der Twitter‐User, jedoch stellt Twitter diese Daten in der Twitter‐
API nur zur Verfügung, wenn der User diese in seinen Nutzereinstellungen freigibt. Aus diesem Grund war es, auf der Twitter‐API beruhend, in dieser Arbeit nicht möglich die Standorte aus denen die Tweets verfasst wurden aus den IP‐Adressen auszulesen, da die Freigabe der IPs per Default ausgeschaltet ist und keine IP‐
Adressen in den verwendeten Quellen vorhanden sind. Für die registrierten Blog‐Nutzer aus dem internen Kursblog gilt ähnliches. Wordpress stellt zwar die Daten für die User zur Verfügung, die einen Kommentar oder Beitrag innerhalb der Kursseite verfassen, jedoch ist bei der Registrierung der MOOC‐
Teilnehmer keine IP‐Adresse hinterlegt worden, obwohl diese im Vergleich zu den verfassten Postings erheblich mehr sind. Somit wurden die Geo‐Daten nur aus den Usern visualisiert, die einen Kommentar verfassten. 55 
Netzwerkanalyse der Weblogs: In dieser Bachelorarbeit wurde keine Netzwerkanalyse für inhaltlich zusammenhängende Weblogs entwickelt oder zur Verfügung gestellt. Lediglich die Unterscheidung zwischen normalen Beiträgen innerhalb des Kursblogs und Pingbacks hinterlassen einen Indikator für die Relevanz und Existenz von extern betriebenen Blogs, die inhaltlich zu dem im MOOC besprochenen Thema passen. Auf diesem Gebiet der übergreifenden Netzwerkanalyse von Blogs wird zum Zeitpunkt der Entwicklung dieser Bachelorarbeit aktuell geforscht. Eine eigene Entwicklung würde den Rahmen dieser Bachelorarbeit sprengen. 6.3. Ausblick In diesem Abschnitt sollen Anregungen zu dem in dieser Bachelorarbeit behandelten Thema gegeben werden, die jedoch den Rahmen sprengen würden und aus diesem Grund dafür geeignet wären, in einem anderen Rahmen neue Analysen zu betreiben. Beginnend mit den, in dieser Arbeit zugrunde liegenden, Analysemöglichkeiten ist die Grundlage geschaffen das entstehende Netzwerk in Massive Open Online Courses zu untersuchen. Der Aufbau der Webpräsenz entstand mit dem Hintergrund, dass sie für jeden nutzbar ist und keine Einschränkung im Kreis der Verwender herrscht. Außerdem entstand mit der hier entworfenen Darstellung für das soziale Netzwerk Twitter und den Nutzern, die im Rahmen der MOOCs @replys tätigten, eine Übersicht des Netzwerkes, die sich hervorragend für die soziale Netzwerk Analyse eignet. Unter diesem Aspekt bietet sich die Möglichkeit eine Nutzer‐ und Gruppenanalyse auf soziologischer Basis aufzustellen. Dadurch, dass die Datengrundlage dargelegt ist, auf welcher die Analysetools entstanden, sind fundierte Aussagen im Hinblick auf den sozialen Aspekt der Netzwerkbildung möglich, ohne dabei an der Herkunft der Daten zu zweifeln. Es bietet sich an, eine Analyse über entstehende und bestehende Gruppen innerhalb des Netzwerkes zu tätigen und das Ausbreiten des Netzwerkes zu beobachten. Mit Hilfe dieser Arbeit wäre es möglich Fragen, wie die Entstehung und Entwicklung von Subgruppen innerhalb eines Netzwerkes auf sozialmenschlicher Basis aussieht, zu beantworten. Durch die vorhandenen Nutzerprofile, die über jeden MOOC‐Teilnehmer verfügbar sind, ist die Herkunft und die Aktivität jedes Einzelnen nachvollziehbar. Für jeden Nutzer ist sein unmittelbares Netzwerk dargestellt, mit welchen anderen Teilnehmern dieser kommunizierte. Auf dieser Ermittlungsgrundlage sollte die, wie bereits erwähnte, Analyse auf sozial‐ und psychologischer Basis im Hinblick auf MOOC‐Teilnehmer möglich sein. Ein weiterer Ausblick bezieht sich auf die im Kapitel 6.2 nicht erreichten Inhalte. Mit der Existenz von Daten, die über die, in dieser Bachelorarbeit zur Verfügung gestellten, hinaus reichen, wäre die Masse der erstellten Inhalte größtenteils lückenlos implementierbar gewesen. Somit besteht der Anreiz jeden Teilnehmer der MOOCs zu Beginn seiner Teilnahme ein entsprechendes Nutzerprofil ausfüllen zu lassen, um die Nutzerdaten aus erster Hand zu erlangen und somit unter Umständen ein Datenkontingent zu erhalten, 56 welches das hier zugrunde liegende übersteigt. Es wäre möglich die in dem Nutzerprofil geforderten Felder auf eine darauffolgende Analyse so abzustimmen, dass sich die Erstellung der Analysetools nicht auf die Daten beschränkt, sondern die Daten den Wegweiser der Analyse darstellen können. Die Nutzerprofile könnten auf freiwilliger Basis zur Verfügung gestellt werden, um dem Grundgedanken der MOOCs nicht zu widersprechen eine unverbindliche freiwillige Teilnahme zu ermöglichen. 57 Q. Quellenverzeichnis [Jur13] Leskovec, Jure. SNAP. [Online] [Zitat vom: 14. März 2013.] http://snap.stanford.edu/index.html. [Goo131] Google Inc. Google Maps. [Online] [Zitat vom: 5. Februar 2013.] https://developers.google.com/maps/documentation/javascript/examples/. [Dan06] Weiskopf, Daniel. GPU‐Based Interactive Visualization Techniques. Heidelberg : Springer, 2006. [Geo05] Siemens, George. Connectivism: A Learning Theory for the Digital Age. [Online] Januar 2005. [Zitat vom: 5. März 2013.] http://www.itdl.org/Journal/Jan_05/article01.htm. [Uwe13] Serdült, Uwe. Soziale Netzwerkanalyse: eine Methode zur Untersuchung von Beziehungen. [Online] 2002. [Zitat vom: 10. Februar 2013.] http://www.oezp.at/pdfs/2002‐2‐01.pdf. [Mic06] Sauers, Michael P. Blogging and RSS: A Librarian's Guide. USA : s.n., 2006. Mic06. [Joc13] Robes, Jochen. Weiterbildungsblog. [Online] [Zitat vom: 27. Februar 2013.] http://www.weiterbildungsblog.de. [Hel12] Reitze, Helmut. Funkkolleg: Wirklichkeit 2.0 ‐ Medienkultur im digitalen Zeitalter. [Online] 2012. [Zitat vom: 14. Februar 2013.] http://funkkolleg‐medien.de/. [Fre12] Martin, Fred G. Will Massive Open Online Courses Change How We Teach? Massachusetts, USA : s.n., August 2012. [Jen10] Mackness, Jenny, Mak, Sui Fai John und Williams, Roy. The Ideals and Reality of Participating in a MOOC. Portsmouth, England : s.n., April 2010. [Mir13] Haalck, Mirko. Soziale Netzwerkanalyse für das Marketing. [Online] [Zitat vom: 15. März 2013.] http://www.dezign.de/online‐marketing/social‐media‐marketing/soziale‐netzwerkanalyse. [Dör13] Giebel, Dörte, König, Monika und Wittenbrink, Heinz. #MMC13. [Online] [Zitat vom: 20. Februar 2013.] http://howtomooc.org/. [Ste] Downes, Stephen und Siemens, George. The Connectivism and Connective Knowledge course (CCK08). [Online] 2008. [Zitat vom: 14. Februar 2013.] https://sites.google.com/site/themoocguide/3‐cck08‐‐‐the‐distributed‐course . [Dav10] Cormier, Dave. What is a MOOC? Youtube. [Online] 8. Dezember 2010. [Zitat vom: 14. Februar 2013.] http://youtu.be/eW3gMGqcZQc. [CBl12] CBlissMath. CMC11_MOOC. Youtube. [Online] 14. Juli 2012. [Zitat vom: 17. Februar 2013.] http://www.youtube.com/watch?v=K_dIXNGVZnk. 58 [Bri12] BrianBritt89. NodeXL Tutorial (part 1 of 3). Youtube. [Online] 6. April 2012. [Zitat vom: 14. Februar 2013.] http://www.youtube.com/watch?v=pwsImFyc0lE. [Cla12] Bremer, Claudia. OPCO12: Trends im E‐Teaching ‐ Der Horizon Report unter der Lupe. [Online] 2012. [Zitat vom: 2. Februar 2013.] http://opco12.de/. [Han13] Allgeier, Hans‐Joachim. CeBIT: Hasso‐Plattner‐Institut demonstriert schnellen Durchblick durch die Blogosphäre. [Online] 28. Februar 2013. [Zitat vom: 5. März 2013.] http://www.innovations‐
report.de/html/berichte/cebit_2013/cebit_hasso_plattner_institut_demonstriert_schnellen_210296.
html. [Süd13] Süddeutsche Zeitung. Zugmonitor der Süddeutsche Zeitung. [Online] [Zitat vom: 25. Januar 2013.] http://zugmonitor.sueddeutsche.de. [Wor13] Wordpress Foundation. Wordpress. [Online] [Zitat vom: 13. Februar 2013.] http://wordpress.org/. [Uni13] Uni Münster. Was ist ein Weblog? [Online] [Zitat vom: 15. Februar 2013.] http://www.uni‐
muenster.de/ZBMed/aktuelles/aktuelles/was‐ist‐ein‐weblog. [Twi131] Inc., Twitter. Twitter‐API. [Online] [Zitat vom: 15. Februar 2013.] http://dev.twitter.com/docs. [Twi13] Twitter Inc. Twitter. [Online] [Zitat vom: 12. Februar 2013.] https://twitter.com/. [TAG13] TAGSExplorer. TAGSExplorer. [Online] [Zitat vom: 24. Februar 2013.] http://hawksey.info/tagsexplorer/. [Mel13] Meltwater Group. Meltwater Buzz. [Online] [Zitat vom: 17. Februar 2013.] http://www.meltwater.com/products/meltwater‐buzz‐social‐media‐marketing‐software/. [Jav13] JavaScript. jqPlot. [Online] [Zitat vom: 2. Februar 2013.] http://www.jqplot.com. [Goo13] Google Inc. Google Spreadsheets. [Online] [Zitat vom: 24. Februar 2013.] https://drive.google.com. [Gep13] Gephi. Gephi. [Online] [Zitat vom: 19. Februar 2013.] https://gephi.org/. [Max13] Maxmind. GeoLite Free Downloadable Databases. [Online] [Zitat vom: 24. Februar 2013.] http://dev.maxmind.com/geoip/geolite. [Cla11] Bremer, Claudia. OPCO11: Zukunft des Lernens. [Online] 2011. [Zitat vom: 14. Februar 2013.] http://blog.studiumdigitale.uni‐frankfurt.de/opco11/. [Cla131] Bremer, Claudia.. Deutschsprachige MOOCs. [Online] [Zitat vom: 10. März 2013.] http://mooc13.wordpress.com/geschichte‐und‐beispiele/deutschsprachige‐moocs/. [Cla13] Bremer, Claudia.. MOOCs ‐ Infos, Links, Beispiele, Artikel. [Online] [Zitat vom: 12. Februar 2013.] http://mooc13.wordpress.com/geschichte‐und‐beispiele/geschichte‐und‐vorlaufer/. 59 A. Anhang A.1. Empfehlung für die Nutzung der Anwendung Für die optimale Verwendung der hier entwickelten Anwendung empfehlen sich Browser, wie der Internetexplorer ab Version 8, Mozilla Firefox ab Version 10 und Google Chrome ab Version 6. Die Browser Safari und Opera werden auch unterstützt. Zusätzlich ist anzumerken, dass JavaScript im Browser aktiviert sein sollte. Tarik Amhamdi Frankfurt, 28.03.2013 60 
Herunterladen