Fakultät III Wirtschaftswissenschaften, Wirtschaftsinformatik und Wirtschaftsrecht Professur für Computerunterstützte Gruppenarbeit und Soziale Medien Prof. Dr. Volkmar Pipek Steigerung der bedarfsgerechten Informationsversorgung durch Verfahren zur Bewertung von Informationsqualität am Beispiel des interorganisationalen Krisenmanagements Bachelorarbeit Autor: Sebastian Römer Matrikelnummer: 901028 Studiengang: Bachelor Wirtschaftsinformatik PO 2007/2008 Betreuer: Benedikt Ley & Torben Wiedenhöfer Erstprüfer: Prof. Dr. Volkmar Pipek Zweitprüfer: Prof. Dr. Gunnar Stevens Eingereicht am: 05.06.2014 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Kapitel 1-4 Projektseminar Kapitel 5-8 Bachelorarbeit 2 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Eidesstattliche Erklärung Hiermit versichere ich, dass ich die vorliegende Arbeit selbstständig verfasst und keine anderen, als die angegebenen Quellen und Hilfsmittel benutzt habe, insbesondere keine anderen als die angegebenen Informationen aus dem Internet. Diejenigen Paragraphen der für mich gültigen Prüfungsordnung, welche etwaige Betrugsversuche betreffen, habe ich zur Kenntnis genommen. Der Speicherung meiner Bachelorarbeit zum Zweck der Plagiatsprüfung stimme ich zu. Ich versichere, dass die elektronische Version mit der gedruckten Version inhaltlich übereinstimmt. (Ort, Datum) (Unterschrift des Verfassers) 3 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Inhaltsverzeichnis Eidesstattliche Erklärung......................................................................................... 3 Inhaltsverzeichnis .................................................................................................... 4 Abbildungsverzeichnis ............................................................................................ 7 1. Einleitung ............................................................................................................ 8 1.1 Motivation ...................................................................................................... 8 1.2 Fragestellung ................................................................................................. 9 2. Grundlagen und Stand der Forschung .......................................................... 10 2.1 Informationsqualität...................................................................................... 10 2.2 Informationsqualität in der HCI Forschung ................................................... 13 2.3 Informationsvisualisierung ........................................................................... 19 2.4 Analysemodelle zur Messung der Informationsqualität ................................ 22 2.5 Komplexe Situationen im Krisenmanagement ............................................. 28 3. Methoden und Mechanismen zur Bewertung von Informationen ................ 31 3.1 Methoden und Mechanismen zur Bewertung der IQ: ................................... 32 von Webinformationen ................................................................................. 32 3.2 Methoden und Mechanismen zur Bewertung der IQ: ................................... 38 von sozialen Systemen ................................................................................ 38 3.2.1 Bewertungssysteme .............................................................................. 38 3.2.2 Schwierigkeiten bei der Auswertung & Bewertung ................................ 40 3.2.3 Empfehlungssysteme ............................................................................ 42 3.3 Methoden und Mechanismen zur Bewertung der IQ: ................................... 43 im Krisenmanagement ................................................................................. 43 3.3.1 Forschungsprojekt Infostrom der Universität Siegen............................. 46 4. Informationsqualität auf Datenebene ............................................................. 48 4 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 4.1 Fehlerbehaftete Datensätze ......................................................................... 48 4.2 Ansätze und Methoden zur Verbesserung von Datenqualität ...................... 50 5. Konzept ............................................................................................................. 53 5.1 Konzeptionelle Vorüberlegungen ................................................................. 53 5.2 Darstellung potentieller Verbesserungsmöglichkeiten ................................. 54 5.2.1 Zusammenfassen von Informationsressourcen..................................... 54 5.2.2 Empfehlungssystem für potentiell relevante Informationen ................... 56 5.2.3 Vervollständigen der Metainformationen ............................................... 58 5.2.4 Festhalten des Inhalts einer Informationsressource .............................. 60 5.2.5 Bewertung von Informationsressourcen ................................................ 61 6. Implementierung .............................................................................................. 61 6.1 Social Networking Engine Elgg ....................................................................... 62 6.2 Technischer Aufbau des bestehenden Plug-Ins .......................................... 63 6.3 Modifizierung des Informationspools............................................................ 64 6.3.1 Informationsverwaltung und Organisation ............................................. 64 6.3.2 Empfehlungssystem für Informationsressourcen .................................. 67 6.3.3 Schnittstelle zur Vervollständigung der Metadaten ............................... 68 7. Evaluation ......................................................................................................... 71 7.1 Aufbau und Methodik ...................................................................................... 72 7.2 Limitationen der Evaluation .......................................................................... 73 7.3 Ergebnisse ................................................................................................... 74 7.3.1 Vervollständigung der Metadaten bei der Erstellung einer Informationsressource.................................................................................... 74 7.3.2 Informationsorganisation über Infomappen ........................................... 77 7.3.3 Informationsabruf unterstützt durch das Empfehlungssystem ............... 79 8. Fazit und Ausblick ........................................................................................... 82 Literaturverzeichnis................................................................................................ 86 5 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Anhang A: Definition der 15 IQ-Dimensionen ...................................................... 90 Anhang B: Gängige Definitionen des Begriffs der Informationsqualität ........... 92 Anhang C: Infografik .............................................................................................. 93 Anhang D: Analysemodelle zur Bestimmung der Informationsqualität (Eppler, 2006) ........................................................................................................................ 94 Anhang E: Kompromisse zwischen einzelnen IQ-Kriterien (Eppler, 2006)........ 95 Anhang F: Beispiel Framing Effekt ....................................................................... 97 Anhang G: IM-Activities & IQ-Dimensions Framework ....................................... 98 Anhang H: Gewichtung der IQ-Kriterien im Krisenmanagement (Friberg) ........ 99 Anhang I: Fehlende Daten ................................................................................... 100 Anhang J: Zusammenfassung möglicher Verbesserungspotentiale ............... 101 Anhang K: Evaluationsleitfaden (siehe CD) ....................................................... 102 Anhang L: Transkripte der Interviews (siehe CD) .............................................. 102 Anhang M: Quellcode (siehe CD) ........................................................................ 102 6 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Abbildungsverzeichnis Abbildung 1:15 Dimensionen der Informationsqualität ............................................. 11 Abbildung 2: MoTEC Model (Egger, 2000) ............................................................... 16 Abbildung 3: 4 Fehlerarten bei der Einstufung von Glaubwürdigkeit ........................ 18 Abbildung 4: Informationsmanagement der Informationsqualität [Eppler, 2006]....... 24 Abbildung 5: Informationszyklus [Eppler, 2006] ........................................................ 25 Abbildung 6: IQIP Modell .......................................................................................... 34 Abbildung 7: Visualisierung der Suchergebnisse nach Yamamoto & Tanaka .......... 36 Abbildung 8: Visualisierung der Suchergebnisse nach Schwarz & Morris ................ 37 Abbildung 9: Bewertung eines Datenbestands nach dem Kriterium der "Reliability" 40 Abbildung 10: Auswahl der Infomappe ..................................................................... 55 Abbildung 11: Informationsdetails mit Empfehlung ................................................... 58 Abbildung 12: Detailansicht Informationsressource mit Status der Ressource ......... 59 Abbildung 13: Detailansicht Informationsressource mit Vorschaubild ...................... 60 Abbildung 14: Information zu Mappe hinzufügen oder entfernen ............................. 66 Abbildung 15: Infomappen von anderen Benutzern anzeigen & übernehmen .......... 66 Abbildung 16: Exemplarische Darstellung einer Antwort der API zur Anreicherung der Metadaten ................................................................................... 70 Abbildung 17: Evaluationsteilnehmer ....................................................................... 73 7 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 1. Einleitung 1.1. Motivation Durch den stetigen Einsatz von modernen Medien und deren Weiterentwicklung hat sich die heutige Gesellschaft immer mehr zur so genannten Informationsgesellschaft entwickelt. Eine Fülle von Informationsmöglichkeiten ergibt sich und wächst rasant. Viele Kernbereiche unserer Gesellschaft wie Wirtschaft und soziale Interaktionen passen sich immer mehr dieser Entwicklung an. In der Vergangenheit wurden gewonnene Daten oder Informationen nicht als ein Produkt angesehen, das bewusst produziert wurde und für einen Mehrwert sorgen könnte (Madnick & Wang, 2009). Dies hat sich mittlerweile verändert. Für Firmen, die wirtschaftlich erfolgreich sein möchten, ist es heute so wichtig wie noch nie zuvor, immer die richtige Information in der richtigen Form zur richtigen Zeit zur Verfügung zu haben um für zukünftige Veränderungen gewappnet zu sein. Aber auch im sozialen Umfeld spielt der Informationsaustausch eine große Rolle. Durch Facebook und Twitter ist der Informationsaustausch unter Freunden und Bekannten enorm angestiegen. Jeder kann erfahren, was wer wann und wo gemacht hat. Dass diese Flut an Informationen nicht immer auch relevante Inhalte vermittelt, zeigt sich insbesondere durch die enorme Verbreitung von Spam. Es liegt nahe, dass sich viele Menschen durch diese Fülle an Informationen überfordert fühlen und Hilfe benötigen, um die für sich relevanten Informationen sichtbar zu machen oder wiederzufinden. Wenn eine Information abgerufen wurde, muss diese Information bewertet werden. Dies geschieht häufig durch das subjektive Empfinden und nicht durch besondere Qualitätsmerkmale, da diese häufig nicht oder nur wenig vorhanden sind. 8 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Im privaten Bereich mag diese Problematik der Bewertung einer Information vielleicht nicht direkt tiefgreifende Auswirkungen haben. Im wirtschaftlichen Bereich sieht dies allerdings anders aus, da sich die Qualität einer Information dort möglicherweise direkt auf ein Produkt auswirkt und damit auch auf den Umsatz und die wirtschaftliche Lage des Unternehmens. Allerdings gibt es auch Domänen, in denen die Qualität einer Information Auswirkungen auf die Gesundheit oder sogar das Leben eines Menschen hat. Im Krisenmanagement ist dies beispielsweise der Fall. Hier gilt es, möglichst schnell nach dem Eintreten einer Krisensituation die notwendigen, vertrauenswürdigen Informationen vorrätig zu haben, um die notwendigen Schritte zur Rettung einzuleiten. Da sich innerhalb von Krisensituationen wie Überschwemmungen oder Waldbränden die Situationslage sehr schnell sehr radikal ändern kann, ist es eine große Herausforderung, diese Situationslage mittels zuverlässigen Informationen für die leitenden Einsatzkräfte möglichst genau und schnell nachzubilden. Im Folgenden soll es insbesondere um die Betrachtung dieser Disziplin und ihre besonderen Herausforderungen gehen. 1.2. Fragestellung Durch die in 1.1 dargestellte Situationsbeschreibung ergibt sich nun folgende Fragestellung, der in dieser Arbeit nachgegangen werden soll: Wie lassen sich Informationen so aufbereiten, dass sie bedarfsgerecht zur Verfügung stehen und so einen Mehrwert bei der Entscheidungsfindung im Krisenmanagement bieten? Um diese Fragestellung beantworten zu können, muss zunächst geklärt werden: Welche Qualitätskriterien, Bewertungs- und Aufbereitungsmöglichkeiten existieren im Zusammenhang mit Informationen und wie werden diese eingesetzt? 9 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 2. Grundlagen und Stand der Forschung Mithilfe der definierten Grundlagen in diesem Abschnitt soll der aktuelle Forschungsstand dargestellt und erläutert werden, auf besondere Problemstellungen der Domäne eingegangen und darüber hinaus auf übertragbare Erkenntnisse im Bereich Informationsqualität hingewiesen werden. 2.1 Informationsqualität Bei der Definition von Qualität geht es in der Regel darum, dass ein Produkt oder eine Dienstleistung bestimmte Erwartungen und Bedürfnisse erfüllen muss. Diese Erwartungen haben eine subjektive und eine objektive Komponente. (Eppler, 2006) Das heißt, dass es sowohl definierte Kriterien gibt, anhand derer man die Qualität messen kann als auch empfundene, subjektive Kriterien, die erst bei der Betrachtung des Kontexts an Relevanz gewinnen. Bevor man die Qualität einer Information bewerten kann, soll an dieser Stelle zwischen den Begriffen Informationen, Daten und Wissen unterschieden werden. Rohe, unverbundene Gegenstände werden als Daten angesehen, während eine Information versucht, Fragen, Aussagen oder Antworten über eine Situation oder einen Fakt zu geben. Aus Daten können Informationen werden, wenn sie in Verbindung mit anderen Daten gebracht werden und so eine zusammenhängende Aussage getroffen werden kann. Werden diese zusammenhängenden Informationen von einem Empfänger verinnerlicht und gespeichert, spricht man von Wissen (Eppler, 2006). Laut Wang & Strong lässt sich eine Information objektiv anhand von 15 Dimensionen/Kriterien bewerten. Auf Abbildung 1 sind diese 15 InformationsqualitätsDimensionen von der Deutschen Gesellschaft für Informations- und Datenqualität1 1 http://www.dgiq.de/ 10 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. ins Deutsche übertragen worden, um eine einheitliche Verwendung der Begrifflichkeiten im deutschen Sprachraum vorzuschlagen. Natürlich ist es möglich, die Kriterien noch spezieller zu definieren, so dass man auf eine mögliche Anzahl von rund 70 Dimensionen kommt. Dabei gibt es allerdings häufig Überschneidungen oder besondere Kriterien, die nur auf spezielle Anwendungsfälle anzuwenden sind. Auf das Modell zur Bewertung von Informationsqualität von Richard Y. Wang & Diane M. Strong (Wang, Strong, 1996) wird in der Fachliteratur am häufigsten Bezug genommen und dieses hat sich in der Vergangenheit weitestgehend durchgesetzt. Aufbauend auf diesem Modell wird in Kapitel 2.4 ein weiteres Modell vorgestellt, welches dieser Arbeit (zumindest in Teilen) als Grundlage definiert werden soll. Abbildung 1: 15 Dimensionen der Informationsqualität Neben der Definition dieser 15 IQ-Dimensionen wurde auch eine Kategorisierung und Gruppierung der Dimensionen vorgenommen. Für die Bewertung einer Information bedeutet dies, dass man verschiedene Facetten einer Information genauer untersuchen muss. Für die Dimensionen Zugänglichkeit und Bearbeitbarkeit muss dafür 11 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. beispielsweise das datenverarbeitende System und deren Benutzeroberfläche genauer betrachtet und analysiert werden. Durch diese Gliederung wird versucht, eine Information aus verschiedenen Perspektiven zu betrachten. Will man eine Information auf ihre Glaubwürdigkeit überprüfen, dann muss der Inhalt der Information überprüft werden und nicht die Darstellung, wie der Inhalt optisch aufbereitet wurde – dies wiederum ist notwendig, wenn man zu einer Bewertung der Übersichtlichkeit einer Information kommen möchte. In Anhang A befindet sich eine kurze Erklärung zu allen genannten Dimensionen und was unter jedem einzelnen Begriff zu verstehen ist (Hildebrand et al., 2011). Wie anfangs beschrieben werden nicht nur objektive Kriterien zur Bestimmung der Informationsqualität benötigt, sondern auch subjektive Faktoren spielen eine Rolle. Um erfolgreich mit den vorgestellten IQ-Dimensionen arbeiten zu können, muss auch diese Seite betrachtet werden. Genauer gesagt bedeutet dies, dass die Qualität einer Information sehr stark von dem Kontext abhängt, in der sie verwendet werden soll. Dementsprechend muss ein Anforderungskatalog des Anwenders der Information aufgestellt werden, um zu erfassen, für welchen Anwendungsfall die Information benötigt wird. Beispielsweise ohne die Definition, an welchem Ort (und dessen entsprechende Amtssprache) ein Informationstext dargestellt werden soll, ist der Inhalt der Information möglicherweise für den Großteil der Zielgruppe wertlos. In der Regel kann nicht ohne weiteres eine Information aus einem Kontext in einen anderen übertragen werden, da die Erwartungen an die Information dort vielleicht viel tiefergehend sind, als sie bei der ursprünglichen Erhebung gewesen sind. In den vergangenen Jahren wurde das Thema der Informationsqualität vielfach untersucht und behandelt. Dementsprechend vielfältige Definitionen haben sich in der Fachliteratur ergeben. Für meine Arbeit möchte ich die Definition von Eppler zur Informationsqualität zu Grunde legen: „Information quality is the characteristic of information to meet the functional, technical, cognitive, and aesthetic requirements of information producers, administrators, consumers, and experts“ (Eppler, 1999) 12 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. In Anhang B sind weitere gängige Definitionen aufgeführt. 2.2 Informationsqualität in der HCI Forschung Während die allgemeine IQ-Forschung sich sehr stark mit der Entwicklung von Algorithmen und der genauen Kategorisierung von Informationen beschäftigt und dementsprechend stark auch auf die Optimierung von Datenbanken und deren Abfragenmethodik eingeht (Jiang 2010; Alkharboush, Li 2010) stellt die Forschung in dem Bereich der „Human-Computer-Interaction“ andere Fragen. Hier geht es vielmehr darum, herauszufinden, wann bereitgestellte Informationen von Computern für den Menschen als glaubwürdig angesehen oder Computersysteme generell als glaubwürdig eingestuft werden. Glaubwürdigkeit ist in der allgemeinen IQ-Forschung eine Dimension bzw. ein Kriterium unter vielen, das bei der Bestimmung der Informationsqualität untersucht wird – bei der Interaktion zwischen Mensch und Computer steht dieser Aspekt allerdings im Fokus (Fogg & Tseng, 1999). In manchen Fällen steht hier die eigentliche Information und deren Bewertung sogar erst einmal im Hintergrund und es geht vielmehr um das Gerät, Programm oder System, das die Information repräsentiert. Es reicht z.B. nicht mehr aus, nur eine funktionierende Webseite zu erstellen, sondern sie muss auch Glaubwürdigkeit vermitteln (Fogg, 2003), und um dies bei einem Menschen zu erreichen, müssen verschiedene Faktoren berücksichtigt werden. Fogg & Tseng (1999) haben in ihrer Arbeit herausgestellt, dass die Glaubwürdigkeit von Menschen gegenüber Computerprogrammen hauptsächlich durch das Kriterium der empfundenen Zuverlässigkeit und der empfundenen Kompetenz beeinflusst werden: „highly credible computer products will be perceived to have high levels of both trustworthiness and expertise“ (Fogg & Tseng, 1999) 13 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Glaubwürdigkeit ist demnach ein empfundenes Qualitätskriterium und lässt sich nicht an einem Objekt, einer Person oder einem Datum festmachen, sondern verlangt vielmehr eine Kombination aus allem. Nach der Definition von Fogg & Tseng (1999) spielen die zwei Faktoren Zuverlässigkeit und Kompetenz/Sachkenntnis bei der Gesamtbewertung der Glaubwürdigkeit einer Sache eine große Rolle. Zur Bestimmung wie zuverlässig eine Quelle ist, gilt es zu überprüfen, ob diese etwas Gutes beabsichtigt, ehrlich und unvoreingenommen ist. Man könnte auch sagen, dass die Quelle nach einer von sittlichen Normen und Werten geprägten Gesinnung handeln muss [ethos]. Der andere Faktor, der Einfluss auf die Bestimmung der Glaubwürdigkeit hat, ist die Kompetenz oder die Sachkenntnis. Das heißt, dass eine Quelle, deren Glaubwürdigkeit bestimmt wird, sich daran messen lassen muss, wie viel Erfahrung und Wissen diese auf dem entsprechenden Gebiet mit sich bringt. Entsprechend dem Erfüllungsgrad dieser beiden Faktoren steigt oder fällt die Glaubwürdigkeit gegenüber einer Quelle. Fogg & Tseng (1999) stellen 6 verschiedene Domänen auf, in denen die Glaubwürdigkeit von Computern beleuchtet wird. Auf diese Weise soll herausgefunden werden, was bei der Interaktion zwischen Mensch und Computer dazu beiträgt, dass der Mensch den Informationen des Computers vertraut und demnach die empfundene Glaubwürdigkeit steigt. Zunächst wird auf generelle Computermythen eingegangen, die beispielsweise besagen, dass viele Menschen Computern (computergenerierten Informationen) automatisch eine höhere Glaubwürdigkeit anrechnen als ihren Mitmenschen. Empirische Forschungen können diesen Mythos allerdings nicht bestätigen, sondern beweisen eher das Gegenteil. In manchen Fällen wird Computern sogar eine geringere Glaubwürdigkeit zugesprochen. Die Dimension der Glaubwürdigkeit ist sehr dynamisch und kann starken Schwankungen unterlegen sein. Sie wird beispielsweise erhöht, wenn Informationen bereitgestellt werden, die der Benutzer als korrekt auffasst. Werden allerdings fehlerhafte oder falsche Informationen ausgegeben, dann leidet automatisch die Glaubwürdigkeit des gesamten Systems – egal wie groß oder klein der Fehler in der Information 14 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. gewesen ist. Inwiefern diese Fehlerrate Einfluss auf die Glaubwürdigkeit, hat ist allerdings abhängig vom Kontext. Beispielsweise ist die empfundene Fehlertoleranz bei einem Navigationssystem bedeutend höher als bei einem Bankautomaten. Damit Benutzer einem System wieder mehr Vertrauen entgegen bringen, muss es über einen längeren Zeitraum fehlerfreie Informationen geliefert haben oder aber das System liefert immer den gleichen Fehler, so kann der Benutzer lernen, damit umzugehen und versuchen, den Fehler zu umgehen oder direkt zu korrigieren. Der Kontext in dem ein Computersystem eingesetzt wird, spielt ebenfalls eine Rolle für den Grad der Glaubwürdigkeit. Beispielsweise vertrauen Menschen dem System eher, wenn sie in einer ungewohnten/unbekannten Situation sind, es bisher nicht gelungen ist, ein Problem ohne fremde Hilfe zu lösen oder aber wenn das Bedürfnis nach einer bestimmten Information sehr hoch ist. In diesen Fällen steigt ebenfalls das Vertrauen in eine computergenerierte Information. Beispielsweise wird einem Navigationssystem in einer unbekannten Umgebung mehr Vertrauen entgegen gebracht als in einer bekannten. Fogg & Tseng (1999) stellen in ihrer Arbeit heraus, dass es auch am Kenntnisstand des Benutzers über das Computersystem liegt, bis zu welchem Maße sie dem System Vertrauen entgegen bringen. Allerdings gibt es in diesem Gebiet unterschiedliche Forschungsergebnisse. Studien haben sowohl gezeigt, dass Computerexperten einer computergenerierten Information mehr vertrauen, als auch das genaue Gegenteil. In beiden Fällen liegt der Grund darin, dass die Benutzer verstanden haben, wie der Computer arbeitet – jedoch ziehen sie daraus unterschiedliche Schlüsse. „Weil ich weiß, wie der Computer oder das Programm arbeitet, vertraue ich ihm“ bzw. „Weil ich weiß, wie der Computer oder das Programm arbeitet, vertraue ich ihm nicht“. Eine der 4 Kategorien von IQ-Dimensionen behandelt die Darstellung von Informationen. Auch in der HCI wurde die Auswirkung von grafischen Interfaces auf die Vertrauenswürdigkeit einer Webseite untersucht. (Kim, Moon 1997) Dabei stellte man fest, dass beispielsweise kältere Farbtöne die Vertrauenswürdigkeit eines Systems 15 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. erhöhen können. Hier kann es in unterschiedlichen Kulturgruppen allerdings zu Abweichungen kommen. Als letzte der angesprochenen 6 Domänen zur Glaubwürdigkeit von Computern wurde versucht, das, was in einer Mensch-zu-Mensch Beziehung für Glaubwürdigkeit sorgt, auf die Mensch-Computer Beziehung zu übertragen. Beispielsweise wurde herausgefunden, dass Menschen der Gruppe, in der sie Arbeiten verrichten, mehr vertrauen, als Menschen aus einer fremden oder unbekannten Gruppe. Dementsprechend vertrauen diese Menschen auch den Systemen ihrer Gruppe mehr, als denen einer fremden Gruppe. Außerdem lies sich feststellen, dass Menschen nicht nur menschlichen ausgezeichneten Spezialisten (Professoren, Doktoren etc.) ein höheres Vertrauen entgegen bringen, sondern auch Computern, die als „Spezialist“ (deren Verwendung auf einen Anwendungsfall spezialisiert wurde) ausgezeichnet wurden, beispielsweise über bestimmte Siegel oder Zertifikate. Abbildung 2: MoTEC Model (Egger, 2000) Im Bereich E-Commerce ist es besonders wichtig, dass bei der Interaktion zwischen Menschen und Computer (und damit auch zwischen Kunde und Händler) ein Vertrauensverhältnis besteht. Erst wenn dies erreicht ist, wird der potentielle Kunde auch einen Einkauf tätigen (Egger, 2000). Um dies zu erreichen sind laut MoTEC Modell 16 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. (Modell of trust for electronic commerce) drei Komponenten notwendig, die es zu identifizieren und adressieren gilt. Der potentielle Käufer verfügt häufig über ein Vorwissen bzw. eine Meinung über den Händler, bevor er überhaupt mit dessen System in Berührung kommt. Diese kann er sich durch den Ruf des Unternehmens oder vorherige Erfahrungen gebildet haben. Die zweite Komponente betrifft das Userinterface – dabei wird insbesondere die Usability und der erste Eindruck, den das System auf den Benutzer macht, angesprochen. Der dritte Aspekt, der im „Business to Customer“ Vertrauensverhältnis eine Rolle spielt, ist der Inhalt, der durch den Händler auf seiner Webseite bereitgestellt wird. Hier werden weitere drei Unterpunkte unterschieden: - Wie hoch ist das finanzielle Risiko und welche Garantien werden vom Händler ausgesprochen? - Wie transparent ist das Geschäft des Händlers? (Eindeutige Geschäftsbedingungen und Datenschutzerklärungen) - Wie sieht die Interaktion zwischen Käufer (Cooperation) und Verkäufer aus? Hier kann das einbeziehen von dritten sehr hilfreich sein. Beispielsweise können Zertifikate, Siegel oder externe Testberichte zur Transparenz, aber auch zur Interaktion zwischen Käufer und Verkäufer beitragen. Bei der Einordnung eines Produktes oder einer Information in ihre Glaubwürdigkeit können verschiedene Formen von Fehlern auftreten. In Abbildung 3 sind die vier typischerweise gemachten Fehler aufgeführt. Es ist möglich, dass ein Produkt oder eine Information vom Benutzer als vertrauenswürdig eingestuft wird, diese aber in Wahrheit nicht vertrauenswürdig ist. In diesem Fall spricht man vom „Gullibility Error“. Ein typisches Beispiel hierfür sind so genannte Phishing Webseiten, die sich als seriöse Webseiten ausgeben, in Wahrheit allerdings zum gezielten Betrug veröffentlicht wurden. Um dieser Form der Fehleinschätzung von Glaubwürdigkeit entgegenzutreten müssen die Benutzer geschult werden, um mögliche Hinweise zu erkennen. Der andere am häufigsten begangene Fehler tritt auf, wenn ein Benutzer eine Information oder ein Produkt als nicht vertrauenswürdig einstuft, es sich allerdings um eine vertrauenswürdige Information handelt. In diesem Fall sind die Designer des Systems in 17 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. der Verantwortung, das Auftreten dieser Fehlerform zu reduzieren und das System entsprechend anders zu gestalten. Abbildung 3: 4 Fehlerarten bei der Einstufung von Glaubwürdigkeit [Tseng & Fogg, 1999] Ben Shneiderman (2000) hat ebenfalls einige Leitlinien veröffentlicht, anhand derer man sich bei der Gestaltung von vertrauenswürdigen Computersystemen orientieren kann. Einige der Richtlinien ähneln den Erkenntnissen von Fogg & Tseng (1999), allerdings sind Shneidermans Leitlinien hauptsächlich auf Online-Plattformen ausgelegt. Seine Prinzipien besagen vor allem, dass eine Webseite Vertrauen erlangt, indem man offenlegt, welches Unternehmen und welche Struktur dahinter steckt – also die Transparenz erhöht. Am besten geschieht dies, wenn möglichst viele Informationen (z.B. Umweltreports, Datenschutzerklärungen etc.) offengelegt werden. Außerdem hilft es, wenn Benutzer, die bereits mit der Qualität des Dienstes zufrieden waren, auch die Möglichkeit bekommen, diese Erfahrung an andere weiterzugeben, da Benutzer häufig auf der Suche nach Erfahrungsberichten von bisherigen Kunden oder Konsumenten sind. Besondere Zertifikate wie TRUSTe2 oder BBBOnLine3 können das Vertrauen in den Dienst ebenfalls steigern. Shneiderman warnt davor, dass Versprechen, die auf der Webseite kommuniziert werden, insbesondere im Handel, nicht eingehalten werden. Ein gebrochenes Versprechen oder eine nicht eingehaltene Garantie bezüglich Rückgaberecht, Versand oder Erstattung kann einen enorm großen Vertrauensverlust beim Benutzer bedeuten und auch nachhaltige Auswirkungen haben. 2 3 http://www.truste.com http://www.bbb.org/online/ 18 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Shneiderman kommt in seiner Ausarbeitung an mehreren Stellen zu dem Schluss, dass bei der Gestaltung einer Webseite oder einem anderen Gegenstand, der Vertrauen ausstrahlen soll, auf klare und deutliche Kommunikation in jedem Bereich geachtet werden soll. Darunter fällt auch die klare Kommunikation von Verantwortlichkeiten, wie Lieferzeiten, Gebühren und Steuern. Somit soll vermieden werden, dass der Kunde unliebsame Überraschungen erlebt. 2.3 Informationsvisualisierung Eine Dimension der Informationsqualität aus Kapitel 2.1 beinhaltet das Thema der Darstellung von Informationen. Dieses Thema soll in diesem Abschnitt näher beleuchtet werden, da sich eine eigene Disziplin, insbesondere unter Grafikern aber auch unter den Menschen, die gezielt Informationen, beispielsweise mit politischem oder gesellschaftlichem Hintergrund, transportieren wollen, gebildet hat.4 Aber auch in der Forschung wird sich mit dieser Disziplin schon lange auseinandergesetzt.5 Überall dort wo viele Informationen gesammelt werden, werden häufig textuell ausformulierte Berichte abgegeben um die gesammelten Daten und Fakten zu transportieren. Diese Berichte dienen zwar zu einer umfassenden Auseinandersetzung mit der Thematik, allerdings nicht zur schnellen Informationsgewinnung der Kernthesen, zur Verbreitung von Informationen oder zur Verdeutlichung von aktuellen gesellschaftlichen Entwicklungen. Es wird vorausgesetzt, dass man sich mit dem Stoff intensiv auseinandersetzen muss. Es geht bei der Informationsvisualisierung nicht darum den geschriebenen Text oder die gewonnenen Daten ausschließlich grafisch ansprechend zu formatieren, sondern die Bedeutung und die Aussage des Textes / der Daten so zu transportieren, dass dieser schnell und einfach verstanden werden kann (Huang & Lim Tan, 2007). Informationsvisualisierung verbindet das Lesen mit grafischen Darstellungen, um komplexe Inhalte und Daten anschaulicher, verständlicher und einfacher zum Konsumenten zu transportieren. Häufig eingesetzte Werkzeuge sind dabei Karten, Graphen, Diagramme oder Zeitlinien– jeweils abhängig davon, welche Frage es zu beantworten gilt und welche Information sich mit wel- 4 5 http://www.informationisbeautiful.net/ http://www.infovis-wiki.net 19 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. chem Werkzeug am Besten transportieren lässt. Colin Ware (Tergan, Keller 2005) beschreibt den Grund für Informationsvisualisierung folgendermaßen: „The power of a visualization comes from the fact that it is possible to have a far more complex concept structure represented externally in a visual display than can be held in visual and verbal working memories“ Drei Punkte haben sich bei der Darstellung von Informationen besonders herausgebildet und sollten in jedem Fall bei der Darstellung beachtet werden (Emerson, 2008): Das Design einer Information muss klar und genau sein. Es sollte vermieden werden, zu viele unterschiedliche Informationen innerhalb einer Übersicht vermitteln zu wollen, da das einfache Verständnis sonst darunter leiden könnte. Das heißt, dass es besser sein kann, weniger zu vermitteln, dies aber mit mehr Sorgfalt zu tun. Außerdem müssen die zu vermittelnden Informationen selbstverständlich auch überprüfbar sein und der Wahrheit entsprechen. Die Darstellung einer Information muss überzeugend sein und eine Funktion vermitteln. Manche Menschen lassen sich nicht durch reine Fakten oder Daten von etwas überzeugen, da sie den Zusammenhang zwischen diesen vielleicht nicht komplett erfassen, verstehen, oder Ergebnisse aus der Vergangenheit nicht mehr präsent haben. An dieser Stelle können Grafiken oder Diagramme dabei helfen, zu überzeugen. Information muss fesselnd sein, damit sie nicht einfach nur überflogen wird. Bei einem Überangebot an Informationen werden häufig nur die Dinge konsumiert, die auf den ersten Blick ansprechend und interessant erscheinen. Um diese Punkte erfolgreich umsetzen zu können, muss die Zielgruppe, für die die Information gedacht ist, im Fokus stehen und genau identifiziert sein. Die Darstellung kann vielleicht für den Designer klar und verständlich sein, dieser besitzt aber gegebenenfalls auch ein gewisses Hintergrundwissen über die zu transportierenden Informationen. Außerdem können die Ziele der Zielgruppe ganz unterschiedlich sein. Beispielsweise kann ein Nutzer auf der Suche nach einer ganz bestimmten Information innerhalb einer großen Datensammlung sein, während ein anderer sich einen Überblick verschaffen möchte oder bestimmte Muster entdecken will. (Shneiderman, 2005) 20 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Dementsprechend bietet es sich an, wenn man bei der Gestaltung von Systemen, die Informationen repräsentieren, folgendes Prinzip beherzigt: „Overview first, zoom and filter, then details on demand“ (Shneiderman, 2005) Somit wird dem Benutzer ermöglicht, schnell große Datenmengen zu erkunden, da er sich zunächst über eine Kategorie einen Überblick verschaffen kann, je nach Bedarf dann tiefer eintaucht und so zu den Informationen kommt, die er benötigt. Ben Shneiderman (2005) gibt in dem Buch „Designing The User Interface“ Hinweise darauf, wie man Informationen entsprechend der Bedürfnisse des Benutzers darstellt. Die Herausforderung dabei ist es, dass dem Benutzer so viele Informationen, Interfaces und Werkzeuge dargestellt werden, wie er in der Lage ist zu verarbeiten, ohne ihn von der eigentlichen Aufgabe abzulenken. Die konkrete Herangehensweise dabei richtet sich nach der Informationsform, die benötigt wird (Text, Video, Bild). Oft geht es bei der Visualisierung von Informationen darum, dass man abstrakte Daten so repräsentiert, dass ihre Wahrnehmung beim Menschen verstärkt wird und verstanden werden kann (Card, 2008). Eine Möglichkeit, dieses Ziel zu erreichen ist, dass man versucht, Informationen zu kategorisieren und zu clustern um Unterschiede, Muster oder starke Veränderungen zu verdeutlichen. So genannte „Infographics“ sieht man in den vergangenen Jahren häufig in sozialen Netzwerken, Videoplattformen oder Printmedien. Diese demonstrieren, welche Wirkung das Bündeln und Kategorisieren von Informationen mit sich bringt. Alabdulqader (2013) hat solche Infografiken im Umgang mit Computer-ethischen Fragen verwendet um die Aufmerksamkeit auf bestimmte Problematiken zu lenken und komplexe Informationen an eine breite Masse von Menschen weiterzugeben. In Anhang C ist eine exemplarische Darstellung einer solchen Infografik abgebildet. Ein weiteres Ziel der Informationsvisualisierung ist, mithilfe von kompakten Userinterfaces große Datenmengen von möglicherweise vielen unterschiedlichen Quellen so zu visualisieren, dass Benutzer Fragen beantwortet bekommen, von denen sie gar nicht wussten, dass sie diese haben. Dabei gilt es allerdings zu beachten, dass es nicht das Ziel ist, möglichst visuell beeindruckende Effekte darzustellen, sondern 21 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. dass durch grafische Veränderungen auch messbare Verbesserungen bei alltäglichen Aufgaben entstehen. Shneiderman (2005) schlägt vor, Daten nach ihren Typen zu unterscheiden, um so entsprechende Datensammlungen aufzubauen, die es dann zu visualisieren gilt. Shneiderman unterscheidet dabei in ein- (Texte, alphabetische Listen), zwei- (geographische Karten), drei- (reale Objekte wie Körper, Räume) oder multidimensionale Daten. Zusätzlich definiert er auch zeitabhängige Daten, die bestimmte Ereignisse zu bestimmten Zeitpunkten erfassen oder Daten, die Baumstrukturen sowie komplexe Netzwerke abbilden. Je nach Datentyp sind unterschiedliche Darstellungsformen wie Graphen, Tabellen, Diagramme, Karten, Icons, Bilder oder Netzwerke zu wählen Innerhalb diesen Datensammlungen ergeben sich verschiedene Aufgaben, die ein Benutzer erfüllen möchte. Dazu gehört das Verschaffen eines Überblicks über die gesamte Sammlung um anschließend einzelne Elemente zu fokussieren, zu vergrößern oder zusätzliche Informationen darüber zu erhalten. Außerdem sollen uninteressante Elemente einfach ausblendbar sein. Eine weitere Aufgabe, die bei der Visualisierung Beachtung findet, ist die Darstellung von Relationen zwischen einzelnen Objekten. Dies kann beispielsweise durch einfache Linien oder bestimmte Farbschemata geschehen oder aber auch indem man mit unterschiedlichen Abständen zwischen einzelnen Objekten arbeitet – die Möglichkeiten sind, wie auch in den anderen Bereichen, vielfältig und je nach Umfang sehr komplex. 2.4 Analysemodelle zur Messung der Informationsqualität Um Informationsqualität bewerten als auch verbessern zu können, ist es notwendig, dass Kontext und objektiv bewertbare Kriterien ineinander greifen und gut zusammenspielen. Um die Probleme und die Qualität einer Information analysieren zu können ist es hilfreich, wenn man ein Modell zu Hilfe nimmt, mit dem man die verschiedenen Facetten der Ausgangslage übersichtlich darstellt, um die Situation erfassen und verstehen zu können. Anschließend sind Möglichkeiten zu finden, mit denen man eine Lösung bereitstellen kann. 22 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. In den vergangenen Jahren haben sich viele verschiedene Analysemodelle zur Messung der Informationsqualität hervorgetan. Eppler (2006) spricht von bis zu 20 verschiedenen Modellen in den vergangenen Jahren. Allerdings sind manche davon lediglich Listen von Qualitätskriterien, die es zu erfüllen gilt, und erfüllen somit nicht den Anspruch, systematisch, gezielt und analytisch ein Problem zu lösen wie es ein wissenschaftliches Modell versucht. Da es bei der Bewertung der Informationsqualität sehr stark auf den Kontext der Information ankommt, sind die verschiedenen Modelle großteiles nur für einzelne spezielle Anwendungsgebiete konzipiert und häufig nicht universell einsetzbar. In Anhang D sind die unterschiedlichen Modelle, von denen Eppler spricht, dargestellt und der jeweilige Kontext ist zugeordnet. Nur drei der Modelle sind auch für den kontextunabhängigen Einsatz geeignet. Eppler (2006) hat sieben dieser Analysemodelle näher untersucht und kommt zu dem Schluss, dass lediglich das Modell von Wang & Strong (1996) sowohl in der Literatur als auch in praktischen Anwendungsfällen Verwendung findet. Allerdings wird auch festgestellt, dass insbesondere im Bereich der kontextlosen Anwendung und der Darstellung von Kompromissen zwischen einzelnen Kriterien Verbesserungsbedarf bei allen analysierten Modellen besteht. Eppler (2006) hat dahingehend ein eigenes Modell (Abbildung 4) entwickelt und vorgestellt. Sein Modell besteht aus vier Hauptelementen. Er verwendet dabei, wie in den meisten Modellen, eine Art Matrixstruktur. Die vertikale Ausrichtung besteht dabei aus 4 Ebenen die einzelne IQ-Kriterien ihrem Kontext nach bündeln. Die im Folgenden genannten IQ-Kriterien sind Beispiele, um die einzelnen Kategorien zu verdeutlichen und zu verstehen. In der ersten Kategorie (Relevant Information) wird die Information dahingehend bewertet, ob sie umfassend, akkurat, klar und einfach genug für den konkreten Anwendungsfall einzusetzen ist. Die zweite Ebene (Sound Information) wird dahingehend präziser, da hier die Charakteristiken der Information oder vielleicht besser des reinen Datums näher beleuchtet werden. Hier stehen Fragen wie: „ist die Information korrekt oder nicht?“, „ist sie aktuell oder wie alt ist sie genau?“, „ist die Information konsistent und liegt immer im gleichen Format vor?“ im Vordergrund. Der Kontext soll hier nicht so sehr im Fokus stehen sondern vielmehr objektiv bewertbare Fragestellungen. Die dritte Kategorie (Optimized Process) behandelt den Managementprozess 23 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. zum Erstellen und Vertreiben der Information. Fragen wie: „wie praktisch ist die Handhabung des Dienstes der die Information zur Verfügung stellt?“ oder „stehen Informationen zeitnah zur Verfügung?“ werden hier gestellt und versucht zu beantworten. Es wird ebenfalls untersucht, wie interaktiv der Umgang mit einer Information für den Benutzer ausfällt. Die vierte und letzte Kategorie (Reliable Infrastructure) lässt sich leicht verwechseln mit der vorherigen Kategorie. Allerdings geht es hier ausschließlich um das System, auf dem der Dienst zur Beschaffung der Information läuft. Sicherheit, Zugänglichkeit, Wartbarkeit (im Hinblick auf die Kosten) und Geschwindigkeit stehen hier im Vordergrund. Abbildung 4 Informationsmanagement der Informationsqualität [Eppler, 2006] Die zweite, horizontale Ebene des Modells behandelt den Lebenszyklus einer Information (Abbildung 5) aus der Sicht eines Nutzers. Dieser ist eingeteilt in folgende vier Phasen: 1. Eine Information wird gesucht und gefunden 2. Die gefundene Information wird evaluiert 3. Die Information wird auf einen neuen Kontext übertragen 4. Die Information wird verwendet 24 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Abbildung 5: Informationszyklus [Eppler, 2006] Durch diese Einteilung in die vier Phasen wird versucht, die einzelnen Prozesse der Informationsverarbeitung weiter zu strukturieren und festzustellen in welchen Bereichen und bei welchen Schritten mögliche Probleme auftreten. Da bei der Informationsverarbeitung möglicherweise viele unterschiedliche Personen beteiligt sind, hilft dieses Vorgehen, herauszufinden, an welcher Stelle welches Problem auftritt. Die dritte Ebene des Modells beinhaltet die einzelnen Qualitätskriterien, die im Kern auf den aufgestellten Kriterien von Wang & Strong basieren, hier allerdings von Eppler stellenweise modifiziert wurden. In Anhang E ist eine detaillierte Definition der einzelnen Kriterien aufgeführt und mit einem Beispiel für die Anwendung versehen. Die einzelnen Kriterien werden entsprechend ihrer Wichtigkeit in den Phasen des Informationslebenszyklus platziert. Hier kommt auch Epplers Wunsch zur Darstellung von Kompromissen zum Tragen. Kompromisse zwischen einzelnen IQ-Kriterien bedeuten hier, dass die Steigerung eines Kriteriums dazu führen kann, dass ein anderes möglicherweise vernachlässigt werden muss und somit ein Zielkonflikt eintritt. Beispielsweise kann in einem Anwendungsfall die Anforderung an eine Information sein, dass sie sehr schnell verfügbar sein soll (timeliness), dies steht allerdings häufig im Widerspruch mit der Fehlerfreiheit (free of error) oder der Vollständigkeit (completeness). Es gilt also abzuwägen, welche Kompromisse man bei der Informationsbereitstellung eingehen muss und kann. Im Modell werden mögliche Zielkonflikte durch entsprechende rote Pfeile zwischen den Kriterien dargestellt. 25 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Anders als durch eine Liste an stumpfen Kriterien wird durch dieses Analysemodell und die vier Phasen deutlich, in welchen Bereichen der Informationsverarbeitung typische Informationsqualitätsprobleme sichtbar werden. Um durch das Analysemodell auch Verbesserungen herbeizuführen kommt die letzte Ebene des Modells zum Tragen: Die Managementprinzipien. Bisher wurden mögliche Problembereiche in der Informationsverarbeitung ausfindig gemacht (Ebene 2), Qualitätskriterien ausgewählt und deren Konflikte dargestellt (Ebene 3), und diese Bereiche entsprechend ihrer Kategorie zugeordnet (Ebene 1). Durch die Managementprinzipien der Informationsverarbeitung werden nun Aktivitäten vorgestellt, wie in den einzelnen Phasen der Informationsverarbeitung (Informationslebenszyklus) die Qualität entsprechend verbessert werden kann. Im vorgestellten Modell ist die Rede von vier unterschiedlichen Prinzipien, die jeweils bestimmte Aktivitäten mit sich bringen. Das Prinzip der Integration schlägt vor, dass Produzenten von Informationen immer weiter versuchen, diese zu komprimieren, um sie greifbarer und zugänglicher zu machen. Dieses Prinzip findet Anwendung in der Phase der Identifikation einer Information. Aktivitäten, die dabei helfen können, wären z.B. Tabellen, Zusammenfassungen, bestimmte Formen der Visualisierung (Grafiken/Diagramme) oder bestimmte Sortiermöglichkeiten der Information. Wie die Umsetzung konkret im Anwendungsfall aussieht gilt es individuell zu entscheiden, immer mit dem Ziel, dass der Produzent einer Information darauf achtet, dass eine Information möglichst einfach zu erfassen ist. Die Überprüfung nach Genauigkeit, Beständigkeit, Pünktlichkeit und Sicherheit von Informationen besagt das zweite Prinzip der Validierung und ist im Informationslebenszyklus bei der Evaluation wiederzufinden. Durch dieses Prinzip soll sichergestellt werden, dass ausschließlich dazu berechtigte Informationen zum Konsum bereitgestellt werden. Um die Validierung für den Benutzer auch überprüfbar zu machen sollten die durchgeführten Tests und Schritte zur Validierung für ihn sichtbar sein. Das Ziel dieses Prinzips ist es, dass sichergestellt wird, dass möglicherweise falsche Einschätzungen aufgedeckt und eliminiert werden. Mechanismen zur Ver26 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. besserung bzw. zur Gewährleistung des Prinzips sind beispielsweise das Befragen von unabhängigen Dritten, wie externen Kontrollfirmen, das Hinzuziehen von weiteren Quellen – zur Überprüfung der These. Und das Durchführen von Stichprobentests. Darüberhinaus kann die Validierung auch erzwungen werden, wie man es beispielsweise häufig in Online-Formularen findet. Dort werden beispielsweise bestimmte, vom Standard abweichende Eingabeformate nicht angenommen oder bei der Passwortvergabe müssen bestimmte Regeln eingehalten werden. Um Fehlinterpretationen von Informationen zu vermeiden, muss ein Kontext hergestellt werden, in dem die Information verwendet wird, bzw. indem die Information zu verstehen ist. Der Kontext soll deutlich machen, worum es eigentlich genau geht, woher eine Information stammt (in welchem Kontext sie bereits eingesetzt wurde und wo sie vielleicht nicht einzusetzen ist) und inwieweit sie aktualisiert werden kann. Diese Vorgehensweise wird im Prinzip des Kontextes vereint und wird im Prozess der Allocation umgesetzt. Das bedeutet, dass der Produzent einer Information auch in der Verantwortung steht, ausreichend Hintergrundinformationen zu liefern, um auf den Kontext zu schließen. Durch dieses Prinzip soll vermieden werden, dass eine Information falsch interpretiert wird, weil sie aus dem Kontext gelöst wurde. Mechanismen, die dabei helfen können zu verstehen, aus welchem Kontext eine Information stammt und wie man sie in einen anderen übertragen kann, sind beispielsweise typische Metainformationen eines Dokuments (Autor, Erstellungsdatum) oder gepflegte Revisionshistorien (von wem wurde die Information wann und wie verändert). Diese Metadaten helfen dabei, festzustellen wo sie herkommen und wie sie entstanden sind und geben Hintergrundwissen über die Information. Beispielsweise lässt sich durch die Angabe des Datums der Erstellung eines Dokuments und dessen Veröffentlichung feststellen, wie groß die zeitliche Verzögerung dazwischen ist und gibt somit möglicherweise Aufschluss über das verarbeitende System. Das Prinzip der Aktivierung besagt, dass Informationen so organisiert werden sollen, dass sie direkt im Kontext des Anwenders anwendbar sind bzw. vom Anwender an entsprechender Stelle abgerufen werden können. Wiederzufinden ist dieses Prinzip in der „Application“ im Informationslebenszyklus. Die Aktivierung einer Information ist eine komplexe Aufgabe und kann nicht ausschließlich durch eine spezifische Maß27 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. nahme geschehen. Ein Beispiel wie eine solche Maßnahme aussehen kann um eine Information zu aktivieren, ist, dass eine Informationen in eine Geschichte eingebettet wird. Eine solche Geschichte lässt sich leicht merken und enthält die Kerninformation bzw. eine Lösung des erlebten Problems. Außerdem lässt sich die Geschichte weitererzählen und so verbreiten. Möglicherweise bezieht sich die Geschichte auf eine komplett andere Situation als die, für die man gerade eine Lösung benötigt, aber die enthaltene Information lässt sich ohne weiteres auf die eigene Situation übertragen. Demnach wäre auf diese Weise das Prinzip der Aktivierung erfolgt. Ein weiteres Beispiel zur Aktivierung von Informationen kann das Durchführen eines Workshops sein, in dem viele verschiedene Personen zusammenkommen und so einzelne Informationen aktivieren, austauschen und abspeichern. Weitere Möglichkeiten sind Gedächtnisstützen, Metaphern oder Analogien. Zusammengefasst bedeutet das, dass eine Information am besten möglichst interaktiv zur Verfügung gestellt wird, um sie möglichst einfach zu speichern und an entsprechender Stelle wieder zu aktivieren. Mithilfe des vorgestellten Analysemodells von Eppler (2006) ist es möglich, auf der einen Seite zu analysieren wo sich mögliche Probleme bei der Informationsverarbeitung ergeben, aber auch dann gezielt Möglichkeiten anzubieten, mit denen man versuchen kann, die Probleme zu lösen. Allerdings sind die möglichen auftretenden Konflikte nicht zu vernachlässigen. 2.5 Komplexe Situationen im Krisenmanagement In Abschnitt 2.1. wurde bereits festgestellt, dass die Qualität einer Information sehr stark vom Kontext abhängig ist, in dem sie verwendet wird. Diese Arbeit soll sich vorrangig mit der Verarbeitung von Informationen in komplexen Situationen (Krisensituationen) beschäftigen. Demnach soll in diesem Abschnitt herausgestellt werden, was diese kennzeichnet und wo die Schwierigkeiten liegen. Komplexe Situationen sind dadurch gekennzeichnet, dass sie einen sehr großen Umfang besitzen. Es sind viele Elemente vorhanden, die meist auch in Relation zueinander stehen und sich gegenseitig beeinflussen. Es besteht jederzeit die Möglichkeit, den Überblick zu verlieren. Auch wenn nicht von außen durch Maßnahmen eingegriffen wird, entwickelt sich die Situation weiter. Es kommen neue Probleme hinzu, 28 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Situationen verschlimmern oder verbessern sich. Die Betroffenen sind dadurch immer unter Zeitdruck. Außerdem wird in komplexen Situationen das Handeln oder die Auswirkung von getroffenen Entscheidungen und Maßnahmen meist nicht sofort sichtbar, da es immer zu Verzögerungen kommen kann und sich Situationen verändern. Getroffene Entscheidungen sind meist unumkehrbar. (Hofinger, 2003) Anhand dieser Merkmale von komplexen Situationen ist ersichtlich, dass die Entscheidungsfindung nicht trivial ist. Eine Entscheidung bringt immer Risiken und Gefahren mit sich, die sich direkt oder indirekt auf die Gesundheit oder das Leben von Menschen auswirken können. Deshalb ist es wichtig abzuschätzen, welche erwünschten oder unerwünschten Konsequenzen eine Handlung mit sich bringt. Der Zeitdruck, der dazu kommt, hat zur Folge, dass sich das Stressniveau bei allen beteiligten Personen erhöht („Information Overload“). Ist der Entscheidende mit dieser Situation überfordert, kommt es häufig zu Entscheidungen, die für sich genommen sinnvoll sind, allerdings den Gesamtzusammenhang ausblenden und demnach gegebenenfalls kontraproduktiv sind. (Hofinger, 2003) Da sehr viele Parteien am Krisenmanagement beteiligt sind, gibt es eine weitere Herausforderung, die es zu bewältigen gilt: Die Kommunikation und Koordination zwischen Organisationen wie Polizei, THW und Rettungsdienst. Nach Manoj und Hubenko Baker (Manoj & Hubenko Baker, 2007) gibt es drei Kategorien von Herausforderungen, die bei dieser Art der Kommunikation und Koordination eine Rolle spielen: Technologische, soziologische und organisationale Herausforderungen. Der Aufbau eines zuverlässigen Kommunikationssystems zwischen allen beteiligten Personen gilt beispielsweise als technische Herausforderung. Dies ist durch den vielfältigen unterschiedlichen Einsatz von Kommunikationsmedien nicht immer einfach, da beispielsweise unterschiedliche Technologien eingesetzt werden oder ein unterschiedlicher technischer Standard vorherrscht. Um die sozialen Herausforderungen erkennen zu können, muss man das menschliche Sozial- und Kommunikationsverhalten mit einbeziehen. Viele verschiedene Menschen treffen aufeinander und damit stellt sich automatisch die Frage, wem man welche Informationen anvertrauen kann und für wen welche Informationen wichtig sind. Beispielsweise kann die Kommunika29 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. tion von kritischen Informationen an die Öffentlichkeit eine Situation erheblich verschlechtern. Abgesehen davon verwenden die einzelnen Organisationen ein anderes Vokabular, was schnell zu Missverständnissen führen kann. Das Feld der sozialen Herausforderungen ist sehr komplex und umfasst viele Faktoren. Unter organisationalen Herausforderungen wird der hierarchische Aufbau der Situation verstanden. Wer trifft Entscheidungen und welchen Entscheidungen ist wer untergeordnet? Diese Herausforderung ist besonders groß, wenn streng hierarchische Organisationen plötzlich mit flach strukturierten Organisationen zusammenarbeiten müssen und diese unterschiedlichen Organisationsformen aufeinander stoßen und zusammenarbeiten müssen. Die Problematik der Koordination zwischen unterschiedlichen Organisationen wurde auch von Ley, Pipek, Reuter & Wiedenhöfer (2012) untersucht. Insbesondere wie ITSysteme gestaltet werden können, um die Improvisationen, die während einer Krise notwendig sind, zu unterstützen. Improvisation ist in vielen Bereichen des Krisenmanagements unabdingbar, da Situationen sich schnell verändern können oder die Pläne, die im Vorfeld gemacht wurden, nicht umsetzbar sind. Außerdem unterscheiden sich die verschiedenen Einsätze. Auch bei der Informationsbeschaffung wird häufig innerhalb der Einsatzkräfte improvisiert. Zum Beispiel werden über privat genutzte Smartphones Daten von Google Maps geladen, Wetterinformationen abgerufen oder lokale Webcams genutzt. Insgesamt wurden durch die Arbeit Defizite bei den für die Einsatzkräfte vorhandenen Informationen festgestellt. Gründe dafür können sein, dass Privatpersonen übertreiben, wenn sie den Notruf wählen, Informationen nur dezentral verfügbar sind, Serviceprovider wie Stromanbieter nur sehr wenige Informationen veröffentlichen oder Berechtigungen, wer eine Information einsehen darf, nicht geklärt sind. Insbesondere die Zugriffsberechtigungen auf Informationen stellen eine Hürde dar, da die Organisationen durch zu offenen Umgang mit Informationen rechtliche Konsequenzen oder Kritik von außerhalb fürchten. Dementsprechend muss bei einer IT-Lösung auf diese Problematik geachtet werden. Darüberhinaus wurde festgestellt, dass der interorganisationale Informationsaustausch nur in wenigen Situationen gut funktioniert. Aufgrund dieser schwierigen Situation im Krisenmanagement, ist die Unterstützung beim Informationsaustausch zwischen unterschiedlichen Organisationen mittels IT eine große Herausforderung geworden. Sie erfordert 30 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. statt strengen prozessorientierten Praktiken eine Möglichkeit des unterstützenden informellen Informationsaustauschs zwischen allen beteiligten Personen. Darüberhinaus ist es wichtig, Möglichkeiten zu schaffen, mit denen auch das informelle Zusammenarbeiten von Personen unterschiedlicher Organisationen möglich wird. Es zeigt sich, dass sehr viele Herausforderungen im Krisenmanagement existieren und zu beachten sind. Umso wichtiger ist es, dass den Entscheidungsträgern eine ausreichende Menge an qualitativ hochwertigen Informationen zur Verfügung steht und diese übersichtlich und schnell zu erfassen sein muss. Um diese breite Informationsbasis zu schaffen, muss die Zieldomäne (Feuerwehr, THW, Rettungsdienst etc.) in den einzelnen Prozessen unterschieden und analysiert werden. Für zeitkritische Prozesse (z.B. abwehrender Brandschutz) gelten andere Prioritäten als für nicht zeitkritische Prozesse (Japs & Prödel, 2009). Dementsprechend muss ein System auch die Möglichkeit bieten, innerhalb der unterschiedlichen Prozesse zu unterstützen. Allerdings kann auch das Vorhandensein von qualitativ hochwertigen Daten noch Gefahren mit sich bringen. Neben der Gefahr des „information overload“ und dem Treffen von zeitkritischen Entscheidungen gibt es eine weitere Gefahr in Krisensituationen: ein zu hohes Level an Erfahrung der Entscheidungsträger. Fisher (1999) hat herausgefunden, dass Experten mehr Wert auf Daten mit hoher Qualität legen als Anfänger. Experten tendieren allerdings dazu, sich mehr auf ihre positiven Erfahrungen aus der Vergangenheit zu verlassen als auf die Daten, die ihnen zur Verfügung stehen. Anfänger hingegen betrachten neue Informationen mit der gleichen Aufmerksamkeit wie alte, ggf. bewährte Informationen. Dies geht ebenfalls aus der Analyse einer Aktienprognose zwischen Experten und Anfängern hervor. (Yates, McDaniel, Brown, 1991) 3. Methoden und Mechanismen zur Bewertung von Informationen Bisher wurde in Kapitel 2 definiert, wie Informationsqualität zu verstehen ist und wie man diese bewerten kann. Im folgenden Abschnitt soll geklärt werden, wie Information in der Praxis bewertet wird und wie versucht wird, schlechte Informationsqualität zu verbessern und aufzubereiten. 31 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 3.1 Methoden und Mechanismen zur Bewertung der IQ: - von Webinformationen Es wurde bereits herausgestellt, dass durch das Internet viele Informationsmöglichkeiten hinzugekommen sind. In Zahlen ausgedrückt heißt das, dass mittlerweile knapp 150 Millionen registrierte Domains6 existieren und ungefähr 30 Milliarden Internetseiten7. Eine solche Menge an Daten macht es einem Anwender sehr schwer, die möglichst passenden Daten zu finden, die er benötigt. Datenbanken können zwar abgefragt werden, allerdings sind die zurückgegebenen Informationen meist nur sehr allgemein, da sie die Anforderungen, die ein Benutzer an die Informationen hat meist nur sehr eingeschränkt durch die Anfrage widerspiegeln. Dementsprechend müssen weitere Kriterien zur Anfrage hinzugefügt werden. (Lóscioa et al, 2012). Gelman & Barletta (2008) haben untersucht, wie man diese Fülle an möglichen Informationen schnell filtern und bewerten kann. Es sollte in einer „quick and dirty“ Analyse festgestellt werden, ob ein Zusammenhang zwischen der Rechtschreibung eines Textes und dessen Informationsgehalt besteht. Dazu wurde eine Auswahl der am häufigsten falsch geschriebenen Worte verwendet und diese gegen einige hundert im Vorfeld manuell bewerteten Webseiten analysiert. Das Ergebnis lässt darauf schließen, dass ein direkter Zusammenhang zwischen Rechtschreibung und Informationsqualität besteht. Dieser Ansatz muss allerdings weiter evaluiert werden und kann lediglich als „quick and dirty“ Methode zur IQ-Analyse verstanden werden. Speziell für die Analyse von Webangeboten auf ihre Glaubwürdigkeit ist die „Prominence-Interpretation Theory“ (Fogg, 2003) nach vielen praktischen Forschungsstudien8 entstanden. Diese Theorie beschreibt, wie ein Benutzer zu einer Entscheidung kommt, ob eine Webseite und deren Informationen insgesamt als glaubwürdig angesehen werden oder nicht. Der Ablauf umfasst zwei Schritte. Im ersten Schritt bemerkt der Benutzer etwas (Prominence) und anschließend bewertet er das, was er bemerkt hat (Interpretation). Dieser Ablauf wird mehrfach durchlaufen um zu einer 6 http://www.whois.sc/internet-statistics/ (Stand: April 2014) http://www.worldwidewebsize.com/ (Stand: April 2014) 8 http://credibility.stanford.edu/credlit.html 7 32 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. endgültigen Bewertung zu kommen. Nur wenn ein Benutzer ein Element der Webseite auch bemerkt, kann es zur Steigerung der Vertrauenswürdigkeit führen. Wenn z.B. die Datenschutzrichtlinien nur schwer zu finden sind und der Benutzer nicht darauf aufmerksam wird, dann kann dieses Element nicht in seine Bewertung mit einfließen. Ob ein Benutzer aufmerksam wird auf bestimmte Elemente hängt unter anderem davon ab, wie sehr der Benutzer darum bemüht ist. Beispielsweise ist, jemand, der auf der Suche nach Informationen zu einer möglichen Krankheit ist, mehr daran interessiert, eine zufriedenstellende Information zu finden als ein Schüler, der schnell seine Hausaufgaben erledigen möchte. Hat ein Nutzer ein Element auf der Webseite identifiziert, wird er dies sofort interpretieren. Wird beispielsweise eine fehlerhafte Verlinkung bemerkt, lässt dies darauf schließen, dass die Webseite nicht mehr gewartet wird oder schon bei der Erstellung nicht sorgfältig gearbeitet wurde. Auch hier gibt es verschiedene Faktoren, die die Interpretation beeinflussen. Zum Beispiel spielen Vorannahmen und gemachte Erfahrungen eine wesentliche Rolle und können dementsprechend unterschiedlich bei jedem Nutzer sein. Diese Vorgänge passieren schnell und häufig, bevor der Benutzer zu einer endgültigen Aussage über die gesamte Webseite kommt. Eine automatisierte Methode, um eine Übersicht zu bekommen, welche Informationen im Internet häufig genutzt werden und somit ggf. auch relevant für die Allgemeinheit sind, ist der Einsatz von so genannten Webcrawlern. Insbesondere im Hinblick auf die Dimensionen Zugänglichkeit, Bearbeitbarkeit und eindeutige Auslesbarkeit ist der Einsatz von Computerprogrammen, die immer wiederkehrende Aufgaben erledigen, notwendig (Eppler, 2006). Dadurch lässt sich auch über einen längeren Zeitraum herausfinden, wie sehr diese Kriterien erfüllt werden und zu welchen Zeitpunkten ggf. bestimmte Informationen nicht zugänglich gewesen sind oder nur fehlerhaft darstellbar waren. Neben diesen Webcrawlern bieten auch Webseitenanalysetools wie Google Analytics9 darüber Auskunft, welche Informationen oder Artikel besonders häufig abgefragt wurden und durch welche Suchbegriffe diese Informationen gefunden wurden. Außerdem geben solche Werkzeuge auch darüber Auskunft, welche Personen (Land, Hardware/Software) von welchem Ort und wie lange auf die 9 http://www.google.com/analytics/ 33 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Webseite zugegriffen haben. Dies kann bei der weiteren Gestaltung des Informationsangebots zur Optimierung eingesetzt werden. Unabhängig davon, welche Schritte zum Verbessern der Informationsqualität unternommen wurden, ist das Auffinden von Informationen entscheidend. Im Internet werden für diesen Prozess in den meisten Fällen Suchmaschinen verwendet, die einen großen, bereits indizierten Datenbestand besitzen. Um die ausgegebenen Suchergebnisse qualitativ hochwertiger zu machen, haben Knight & Burn (2005) das IQIP Modell entwickelt, das den Benutzer, die Umgebung und die Aufgabe identifiziert. Basierend auf den identifizierten Merkmalen werden bestimmte IQ-Dimensionen in die Auswertung des Datenbestandes einbezogen und anhand derer einen „Dimension-Score“ quantifiziert. Somit soll jede Information einen berechneten Wert haben, anhand dessen man zuordnen kann, wie relevant die Information ist. Der Datenbestand wird mittels eines Webcrawlers weiter aufgebaut. Der Webcrawler richtet sich dabei an die Dimensionen, die am höchsten bewertet wurden. Die Perfektionierung dieses zirkulären Modells geschieht, indem der Crawler auch auf das Feedback von Benutzern eingeht und dementsprechend sein Verhalten anpasst. In Abbildung 6 ist das IQIP-Modell zum besseren Verständnis grafisch abgebildet. Abbildung 6: IQIP Modell 34 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Auch Yamamoto & Tanaka (2011) haben sich mit der Verbesserung der Informationsqualität von Websuchen beschäftigt. Hier ging es in erster Linie um die Verbesserung der Repräsentation von Suchergebnissen. Um eine Aussage zur Informationsqualität zu treffen wurden 5 Kriterien zur Bewertung herangezogen: Genauigkeit (z.B. wie viele Fehler bei der Verlinkung/Rechtschreibung sind vorhanden?), Objektivität (ist der Artikel objektiv geschrieben oder von einer bestimmten Partei/Personengruppe verfasst?), Autor (Informationen über den Autor werden herangezogen), Aktualität (wann wurde die letzte Aktualisierung vorgenommen?), Abdeckung (ist die Information vollständig?). Nach der Analyse werden die Suchergebnisse mittels eines Netzdiagramms visuell dargestellt (Abbildung 7). Zu jedem Benutzer wird im System ein eigenes Netzdiagramm gespeichert. Dieses Netzdiagramm repräsentiert die Interessen und Vorlieben bei der Suche. Klickt ein Benutzer beispielsweise häufig Suchergebnisse an, die eine hohe Genauigkeit aufweisen, so wird das eigene Netzdiagramm in diese Richtung ausgeweitet. Für zukünftige Suchen werden dann die entsprechenden Ergebnisse anhand der eigenen Präferenzen anders sortiert. Die Evaluation dieses Systems hat allerdings hervorgebracht, dass hauptsächlich die Benutzer davon profitierten, die sich schon etwas mit dem Thema der gesuchten Information auseinandergesetzt hatten, da sie ihre Kriterien genauer formulieren konnten. 35 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Abbildung 7: Visualisierung der Suchergebnisse nach Yamamoto & Tanaka Ebenfalls mit der Verbesserung von Suchergebnissen haben sich Schwarz & Morris (2011) beschäftigt. Hier sollte allerdings keine automatische Einteilung der Suchergebnisse in bestimmte Kategorien erfolgen, sondern die Benutzer sollen zusätzliche Informationen zur Webseite bekommen und somit nur unterstützend sein. Diese Informationen beschränken sich auf die Fragen „Wer, Wann und Wo“. Mit der Fragestellung „Wer“ wird Auskunft erteilt, von welchen Benutzergruppen (Experten oder „Jedermann“) die Webseite hauptsächlich besucht wird. Darüberhinaus wird angegeben, welchen PageRank10 die Seite besitzt. Wann die Webseite am häufigsten besucht wurde, kann man anhand eines Graphs, der sich über die letzten Monate erstreckt, ablesen. Außerdem ist eine Karte dargestellt, mit deren Hilfe man feststellen kann, von welchen Nationen die Webseite am häufigsten aufgerufen wurde. Darüberhinaus scannt das Programm die Webseite des Suchergebnisses nach möglichen Auszeichnungen und Awards und stellt diese ggf. grafisch dar. Es stellte sich heraus, dass sich durch diese Zusatzinformationen die Anzahl der Fehleinschätzungen, ob eine Webseite vertrauenswürdig ist oder nicht, reduzierte und die Benutzer 10 http://pr.efactory.de/d-index.shtml 36 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. durch diese Zusatzinformationen bestimmten Webseiten stärkeres Vertrauen geschenkt haben als anderen. Abbildung 8: Visualisierung der Suchergebnisse nach Schwarz & Morris Ein weiterer Bereich, der bei der Forschung zur Informationsqualität herangezogen wird, ist die Bestimmung und Evaluation von Wikipedia. Bis heute wird die Qualität von Wikipedia-Artikeln skeptisch betrachtet, da jeder Benutzer die Möglichkeit hat, über jedes beliebige Thema einen Artikel zu verfassen. Bisherige Studien (Gilles, 2005, Chesney 2006) konnten allerdings nicht belegen, dass die Qualität der freien Enzyklopädie schlechter ist, als die von angesehenen Enzyklopädien mit einem guten Ruf. Das Prinzip der Wahrung der Informationsqualität basiert darauf, dass viele Autoren einen Artikel pflegen, aktuell halten, korrigieren und über Änderungen diskutieren. Dementsprechend sollen Fehler minimiert werden. Wikipedia bietet aus diesem Grund auch die Möglichkeit, sich den Änderungsverlauf eines Artikels anzusehen. Pirolli, Wollny, Suh (2009) haben das Wikidashboard 11entwickelt, mit dessen Hilfe schneller und übersichtlicher erkannt wird, wann ein Artikel verändert wurde und wer wie viele Änderungen an einem Artikel vorgenommen hat. Außerdem wird für jeden Benutzer eine Übersicht erstellt, welche Artikel er außerdem noch bearbeitet hat. Somit ist es möglich, schneller eine Aussage über die Glaubwürdigkeit des Artikels zu treffen. In einem Test mit verschiedenen Benutzern konnte dies ebenfalls 11 http://wikidashboard.appspot.com 37 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. belegt werden. Die Nutzung von solchen Werkzeugen kann allerdings auch negative Auswirkungen haben und dazu führen, dass Informationen (in diesem Fall von Wikipedia) nicht mehr kritisch gelesen werden, sondern von vorneherein als korrekt erachtet werden. (Pirolli, Wollny, Suh, 2009) 3.2 Methoden und Mechanismen zur Bewertung der IQ: - von sozialen Systemen 3.2.1 Bewertungssysteme Neben diesen Methoden zur Analyse der Informationsqualität von Webseiten existieren auch Methoden zur Verbesserung der IQ, die durch den Menschen vorgenommen werden, meist innerhalb von sozialen Netzwerken/Systemen. Bekannt sind diese Methoden beispielsweise von Portalen wie „Yahoo Answers“12 oder „Stackoverflow“ 13 . Diese Portale dienen alle der Informationsgewinnung in unterschiedlichen Kontexten. Das Besondere hierbei ist allerdings, dass sie über eine Komponente verfügen, durch die Benutzer abgegebene Antworten auf die gestellte Frage dahingehend bewerten können, wie hilfreich diese Antwort für sie gewesen ist. In der Vergangenheit musste man in Foren viele Seiten lesen, um zur besten, hilfreichsten oder korrekten Antwort zu gelangen. Durch das Bewerten von Informationen/Beiträgen ist die schnelle Verfügbarkeit von relevanten und korrekten Antworten besser möglich. Allerdings führen Bewertungen von Antworten nicht immer zur richtigen oder qualitativ hochwertigsten Antwort, da Benutzer bevorzugt Antworten von „Freunden“ gut bewerten, weil ihnen die Antwort gut gefällt (weil sie ggf. unterhaltend formuliert wurde) oder weil sie das Bewertungssystem austricksen wollen, um sich Belohnungspunkte zu verdienen (Chen, Wang, Dasgupta, Yang, 2012). Diese Form der Aneignung von Glaubwürdigkeit einer Information durch die Bewertung von Dritten wird auch als „Reputed Credibility“ bezeichnet (Fogg & Tseng, 1999). Dieses Bewertungssystem, das durch die Benutzer eines Systems vorangetrieben wird, gilt als einer der Gründe, warum ebay als Verkaufsplattform so erfolgreich geworden ist. Die Wichtigkeit wurde erkannt, ein starkes Vertrauensverhältnis zwischen Kunde, Verkäufer und Webseite aufzubauen – in Abschnitt 2.2 wurde dies bereits herausgestellt 12 13 http://de.answers.yahoo.com/ http://stackoverflow.com/ 38 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. (Shneidermann, 2000). Ebay hatte als einer der ersten Webshops ein umfangreiches Bewertungssystem von Käufern & Verkäufern aufgebaut, anhand dessen festgestellt werden konnte wie vertrauenswürdig der potentielle Verkäufer / Käufer bei den bisherigen Transaktionen gewesen ist. Amazon hat ebenfalls ein Bewertungssystem für die Rezensionen der Produkte eingeführt. Otterbacher (2009) hat die Systematik hinter dem Bewertungssystem genauer betrachtet und festgestellt, dass die analysierten Produkte im Durchschnitt 340 Bewertungen besitzen und es demnach notwendig ist, dass in erster Linie die bisher hilfreichsten Bewertungen für den potentiellen Käufer als erstes dargestellt werden. Damit soll vermieden werden, dass der Benutzer zu viele Informationen auf einmal zu Gesicht bekommt und nicht selbst herausfinden muss, was für ihn relevant sein könnte. Amazon bietet zu jedem Beitrag die Funktion, diesen als hilfreich zu bewerten. Allerdings ist die Sortierungsreihenfolge nicht ausschließlich nur auf die hilfreichen Bewertungen beschränkt. Ein Aspekt der Informationsqualität ist der Zeitbezug. Bei Produkten kann dies sehr relevant sein, da sich das Produkt möglicherweise verändert (Art der Herstellung, Lieferant etc.). Dementsprechend wird auch der Zeitbezug bei der Darstellung der Rezensionen beachtet. Otterbacher (2009) hat bei der Auswertung auch die Reputation der Personen in Betracht gezogen, die ein Produkt bewertet haben. Die (empfundene) Qualität einer Information kann sehr stark davon abhängig sein, von wem diese Information stammt. Amazon bietet die Möglichkeit, dass sich die Schreiber einer Rezension Punkte verdienen können - je nachdem wie gut ihr Beitrag bewertet wurde. Somit ist es möglich, dass die geschriebenen Bewertungen einer Person mit hoher Reputation bevorzugt werden gegenüber jemandem der sich erst wenig Reputation verdient hat. All diese Kriterien werden bei der Sortierung der Bewertungen beachtet, damit der Benutzer der Seite eine möglichst gute Erkenntnis über das Produkt bekommen kann und es anschließend eingekauft wird. Dass die Rezension und deren Informationsqualität einen positiven Beitrag zum Verkauf des Produktes leistet, wurde in vergangenen Studien bestätigt (Chen et al. 2001). Bewertungssysteme kommen nicht nur beim Verkauf von Produkten zum Einsatz, sondern auch beim wissenschaftlichen Arbeiten und im Umgang mit großen Daten39 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. mengen. Mit der Software „Viqtor“ wurde dies umgesetzt (Naumann & Führing, 2007). Mit dieser ist es möglich, sowohl Excel Tabellen zu laden, als auch ein eigenständiges Format zu verwenden. Die dargestellten Daten und Werte können anschließend von jedem Benutzer eingesehen und bewertet werden. Die Bewertung einzelner Felder/Werte kann anhand verschiedener IQ-Kriterien erfolgen. Neben dem Kriterium kann bestimmt werden, wie zutreffend dieses Kriterium auf das Feld ist. Wie hoch eine Bewertung ausgefallen ist, wird dargestellt, indem die Farbsättigung entsprechend eingestellt ist. Außerdem ist aus der grafischen Darstellung ebenfalls ersichtlich, wie viele Benutzer eine Bewertung vorgenommen haben. Abbildung 9 zeigt eine exemplarische Darstellung. Abbildung 9: Bewertung eines Datenbestands nach dem Kriterium der "Reliability" 3.2.2 Schwierigkeiten bei der Auswertung & Bewertung Bei der Bewertung von Informationen durch Menschen gilt es allerdings zu beachten, wie die Fragestellung der zu bewertenden Information aussieht. Je nachdem wie eine Information oder eine Frage präsentiert wird, kann es zu unterschiedlichen Ergebnissen kommen – dem so genannten Framing Effekt. In Anhang F wird der Effekt 40 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. dieses Problems verdeutlicht. In der Regel tendieren Menschen zu risikoreicheren Entscheidungen, wenn ihnen die negativen Folgen ihrer Entscheidung verstärkt präsentiert werden und vermeiden Risiken, wenn die Folgen positiv erscheinen (Hartmann et al. 2008). Es ist also bei der Auswertung der von Menschen bewerteten Informationen zu beachten, wie die Fragestellung ausgesehen hat, um möglichst unverfälschte Ergebnisse zu bekommen. Wenn der Benutzer einer Information ein Mensch ist und keine automatisierte Maschine, dann kommt ein besonderer Faktor bei der Bewertung von Informationen und deren Verarbeitung hinzu. In der Psychologie spricht man vom „Dual-Process of human information processing“ (Strack, Deutsch, 2003). Diese Theorie hilft dabei zu verstehen, warum Menschen mit der gleichen Information unterschiedlich umgehen. Menschen wenden zunächst schon vorhandene bzw. gelernte Heuristiken an, um die Information zu verarbeiten. Ein Alltagsbeispiel für das Anwenden solcher Heuristiken ist das unterbewusste spontane entscheiden, ob eine neu empfangene E-Mail gelöscht werden kann, ohne diese exakt und vollständig zu lesen. Entsprechend der Zeit und den Ressourcen die zum Verarbeiten einer Information vorhanden sind, wird anschließend an den heuristischen Prozess eine systematische Auseinandersetzung und Analyse mit der Information angestoßen. Dieser Verarbeitungsprozess kann auch in umgekehrter Reihenfolge erfolgen oder es wird nur einer der beiden Prozesse durchlaufen. Betrachtet man nun eine Information, die auf die IQ-Dimension „Believability“ (Glaubwürdigkeit) bewertet werden soll, dann kann es passieren, dass die Glaubwürdigkeit der Information von Person A positiv bewertet wird, da sie bereits Erfahrungen mit dieser Information gemacht hat, Person B die gleiche Information allerdings negativ bewertet, da sie direkt mit der systematischen Auseinandersetzung beginnt und feststellt, dass die Information aufgrund bestimmter Faktoren für den Anwendungsfall nicht aussagekräftig genug ist. Es existieren zwar Forschungsansätze, um die Lücke zwischen objektiv-bewertbaren Informationen und subjektiv bewertbaren Informationen zu schließen (Watts, Shankaranarayanan, Even, 2009), allerdings befindet man sich hier erst am Anfang. 41 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Im Bereich von sozialen Communities eröffnet sich ein weiteres Problemfeld der Bewertung von Informationsqualität. Informationen sind in sozialen Communities zwar vorhanden, allerdings kann die gesuchte Information aufgrund von unsachgemäßen Formulierungen oder fehlenden Metadaten nur schwer gefunden werden. Wünschenswert wäre hier eine semantische Suche (Hitzler et al., 2007). In Kurznachrichtendiensten wie Twitter helfen zwar Hashtags bei der Kategorisierung von Texten, allerdings sind diese nicht ausreichend. Des Weiteren sind Informationen aus sozialen Netzwerken häufig stark kontextabhängig. Beispielsweise können die Aktivitäten von Nutzer A sehr relevant und informativ für Nutzer B sein, Nutzer C empfindet diese allerdings sehr störend. Agarwal & Yiliyasi (Agarwal & Yiliyasi, 2010) haben versucht, den Problemen für die Informationsqualität, die sich durch soziale Netzwerke und die Datenflut im Internet ergeben, durch Automatisierungstechniken und IQFrameworks, wie dem in 2.4 beschriebenen, zu begegnen. Sie sind aber zu dem Fazit gekommen, dass es mit den bisherigen Methoden noch nicht möglich ist, diesen Problemen effektiv entgegen zu treten. 3.2.3 Empfehlungssysteme Im Zusammenspiel mit Bewertungssystemen können auch so genannte „Recommender Systems“ (Systeme zur Empfehlung von Gegenständen, Informationen etc.) dabei helfen, in sozialen Netzen die Informationsqualität zu verbessern. Für einige Zeit waren Empfehlungssysteme sehr in die Kritik geraten, da ihre Empfehlungen keinen Sinn ergaben (Zaslow, 2002). Mittlerweile haben sich die Algorithmen allerdings verbessert und Empfehlungen sind treffender als zuvor – insbesondere am Beispiel Amazon kann man dies sehr gut beobachten, da dort auf sehr vielen Ebenen Systeme zur Empfehlung von Produkten eingesetzt werden (Mangalindan, 2012). Bisher wurde schon mehrfach das Problem der Informationsüberflutung („Information Overload“) angesprochen. Systeme zur Empfehlung von Informationsgegenständen sind ein weiterer Lösungsansatz für diese Problematik, da versucht wird, die Fülle an Informationen auf das zu minimieren, was den Benutzer dabei unterstützt, das zu finden, was er wirklich sucht (McNee, Riedl, Konstan, 2006). 42 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Generell lassen sich Systeme zur Empfehlung von Informationsgegenständen in zwei Gruppen einteilen: Inhaltsbasierte und kollaborative Empfehlungssysteme (Lops, Gemmis, Semeraro, 2011). Inhaltsbasierte Empfehlungssysteme versuchen ähnliche Dinge zu empfehlen, die ein Benutzer in der Vergangenheit in irgendeiner Form als interessant empfunden hat. Sei es durch passive Datengewinnung über den Benutzer („Was hat er sich angesehen?“, „nach was hat er gesucht?“) oder durch explizites Abfragen seiner Interessen. Dabei wird ein Profil des Benutzers angelegt, mit allen Eigenschaften der von ihm erfassten Interessen. Das Empfehlungssystem versucht nun Produkte / Informationsgegenstände zu finden, die den Eigenschaften des Benutzerprofils entsprechen. Die Informationsgegenstände müssen im Vorfeld ebenfalls bewertet werden, damit eine Zuordnung stattfinden kann. Je exakter das Profil des Benutzers aufgebaut werden kann, desto besser können auch die Empfehlungen ausfallen. Das Verhalten anderer Nutzer spielt hier keine Rolle. Dies ist anders bei dem Verfahren der kollaborativen Empfehlungssysteme. Hier wird die Ähnlichkeit zwischen Benutzerprofilen verglichen und anschließend das empfohlen, was die Benutzer mit ähnlichen Interessen als interessant empfunden haben. Die Gewinnung der Daten darüber, was ein Benutzer als interessant empfindet, geschieht dabei wie bei den inhaltsbasierten Empfehlungssystemen (Klahold, 2009). Beide Systeme haben ihre jeweiligen Vor- und Nachteile. Deswegen werden beide Verfahren zu so genannten Hybriden kombiniert um ein möglichst exaktes Bild des Benutzers und dessen Informationsbedürfnis zu bekommen und anschließend entsprechende Empfehlungen auszuprechen. 3.3 Methoden und Mechanismen zur Bewertung der IQ: - Im Krisenmanagement Im Kontext des Krisenmanagements wurde bereits festgehalten, dass viele komplexe Abläufe während einer Krise behandelt werden müssen. Für diese ist es wiederum notwendig, entsprechende Informationen zur Hand zu haben. Jay R. Galbraith (1974) hat dies sehr treffend formuliert: 43 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. „The greater the task uncertainty, the greater the amount of information that must be processed among deciscion makers during task execution in order to achieve a given level of performance“ Dementsprechend wichtig ist es, in solchen Situationen möglichst gut im Vorfeld zu planen, um vorbereitet zu sein. Dies gelingt jedoch nur auf Basis einer guten Informations- und Datenqualität (Fisher, 2001). Zudem müssen verantwortliche Personen gutem IQ-Management gegenüber positiv eingestellt sein. Rafael A. Gonzalez & Nitesh Bharosa (2009) haben sich mit den Herausforderungen des IQ-Management in Krisensituationen beschäftigt. Sie versuchten mittels eines Frameworks genauer zu bestimmen, bei welchen Aufgaben, die es in einer Krise zu bewältigen gibt, es hilfreich ist, Dimensionen wie Aktualität oder Vollständigkeit mit einzubeziehen (Anhang G). Im vorgestellten Analysemodell wurde bereits dargelegt, dass anhand eines solchen Frameworks auch die notwendigen Kompromisse, die möglicherweise eingegangen werden, um bestimmte Ziele zu erreichen, sichtbar werden. So wurde hier deutlich, dass beispielsweise die ausschließliche Analyse von vollständigen Informationen dazu führt, dass mögliche Gefahren zwar aufgedeckt werden können, es allerdings viel länger dauern wird, bis eine Entscheidung getroffen und diese mit allen teilnehmenden Parteien kommuniziert werden kann. Dies kann in einer Krise allerdings Menschenleben kosten. Trotzdem wird die Empfehlung abgegeben, dass das Einbinden von IQ-Dimensionen in die Analyse einer Situation entscheidende Vorteile bringen kann. Insbesondere hinsichtlich der Koordination von Aufgaben und Arbeitsabläufen. Allerdings wurde auch festgestellt, dass es möglicherweise notwendig ist, die Rolle eines Informations-Managers zu besetzen, da durch den Einsatz anderer Werkzeuge und technischer Mittel (die es ermöglichen, bessere IQ zu liefern) manche Ersthelfer nicht mehr in der Lage sind, effizient in ihrem Bereich zu arbeiten. Dieser Informations-Manager soll zwischen der neuen Technik und den Mitarbeitern vermitteln und Trainingseinheiten zur neuen Arbeitspraxis abhalten. In der Arbeit von Friberg, Prödel und Koch (2011) geht es ebenfalls um den Umgang mit Informationen in Kombination mit den Herausforderungen in Krisensituationen. Auch hier kommen verschiedene Dimensionen der Informationsqualität zum Einsatz. 44 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Allerdings wird hier versucht, anhand einer Gegenüberstellung zwischen IQ-Kriterien und Charakteristika von komplexen Situationen herauszufinden, welche IQ- Dimensionen besonders relevant in Krisensituationen sind. Ihre Ergebnisse überschneiden sich zum großen Teil mit denen von Gonzalez und Bharosa (2009). Die Kriterien, die sich daraus ergeben haben, sind die folgenden: Genauigkeit (Accuracy), Prägnanz (Conciseness), Glaubwürdigkeit (Believability), Vollständigkeit (Completeness), Klarheit (Clarity), Gültigkeit (Validity), Relevanz (Relevance), Pünktlichkeit (Timeliness), Objektivität (Objectivity). Zur Evaluation, welche dieser Kriterien am wichtigsten für die betroffenen Einsatzkräfte sind, wurden Expertenbefragungen durchgeführt und die verschiedenen Kriterien nach ihrer Relevanz im Einsatz sortiert. Das Ergebnis kann in Anhang H eingesehen werden. Anhand dieser Angaben soll ein IT-System aufgebaut werden, das automatisch die vorhandenen Informationen über einen kommenden Einsatzort nach den Ergebnissen der Expertenbefragung filtert. Somit soll ein Überangebot an Informationen vermieden werden und lediglich die relevanten Daten dargestellt werden. Um die Informationsflut zu minimieren und ein IT-System aufzubauen, das sich bei zu treffenden Entscheidungen positiv auswirkt, ist es notwendig, genaue Kenntnisse über das Anwendungsgebiet zu erlangen und die Abläufe im entsprechenden Kontext zu durchschauen (Japs & Prödel, 2009). Um dies zu realisieren, bietet es sich an, die entsprechenden Prozesse des Zielsystems zu modellieren (z.B. durch ereignisgesteuerte Prozessketten). Dadurch lässt sich erkennen, welcher konkrete Informationsbedarf besteht, um anschließend zu evaluieren, wie dieser durch die vorhandenen Datenquellen gedeckt werden kann. Ein solches IT-System wurde bereits von der Universität Paderborn & Universität Dortmund unter dem Namen „Mobis Pro“ entwickelt. Dieses mobile Informationssystem soll Feuerwehren am Einsatzort mit notwendigen Informationen unterstützen und so ihre Prozesse optimieren, um effektiver arbeiten zu können. Dies geschieht, indem unterschiedliche Daten (die in ihrer Ausgangsform eigentlich inkompatibel waren) aus unterschiedlichen Datenbanken und Datenquellen (Gebäudeverwaltungen, Planungsämter, Bauordnungsämter, Vermessungsämter, Energie- und Versor- 45 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. gungsunternehmen, Verkehrsbetriebe) zusammengeführt werden und ortsunabhängig zur Verfügung stehen. (Mobis Pro Fact Sheet, 2011) 3.3.1 Forschungsprojekt Infostrom der Universität Siegen Ley, Pipek, Reuter & Wiedenhöfer (2012) haben bei der Informationsbeschaffung im Krisenmanagement ebenfalls verschiedene Herausforderungen ausfindig gemacht, denen die Einsatzkräfte gegenübergestellt sind. Zum Teil decken sich diese auch mit den bereits erwähnten Kriterien. Darüber hinaus wird aber auch auf die Notwendigkeit von zentralen Informationssystemen, auf die alle beteiligten Rettungskräfte Zugriff haben, hingewiesen. Es ist ebenfalls aufgefallen, dass bestimmte Informationen für sich alleine genommen nicht aussagekräftig genug sind oder nur in Kombination mit weiteren Informationen oder Daten an Aussagekraft gewinnen und daher gewisse Abhängigkeiten zwischen einzelnen Informationsartefakten bestehen. Der in der Arbeit vorgestellte Lösungsansatz umfasst den Aufbau eines kartenbasierten Informationspools. Innerhalb des Informationspool können verschiedene Informationsressourcen (interne & externe) hinzugefügt werden, um anschließend jedem Benutzer die Möglichkeit zu geben, auf exakt die Information zuzugreifen, die er für seine Arbeit benötigt. In 2.5 wurde bereits auf die Problematik beim interorganisationalen Krisenmanagement hingewiesen. Auch hier soll dieser gemeinsam genutzte Informationspool dabei helfen, dass alle beteiligten Einsatzkräfte über die gleichen Informationen verfügen, da eingetragene Veränderungen am Informationsbestand sofort für alle sichtbar werden. Darüber hinaus können die verschiedenen Parteien über dieses System miteinander kommunizieren und einander Informationen aus verschiedenen Kanälen zur Verfügung stellen. Mit diesem Ansatz soll das Ziel verfolgt werden, sowohl die strategische Planung als auch die operative Arbeit zu unterstützen. (Wiedenhöfer et al., 2011) Im Rahmen dieser Forschungsergebnisse ist das Forschungsprojekt Infostrom 14 der Universität Siegen entstanden. Der Fokus liegt auf der technischen Unterstützung der interorganisationalen Zusammenarbeit und organisationsübergreifenden Wiederherstellungsarbeit im Falle eines Stromausfalls entstanden. Dies geschieht mithilfe 14 http://www.infostrom.org 46 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. einer Kollaborationsplattform, der „Sicherheitsarena“. Bei der Sicherheitsarena handelt es sich um ein soziales Intranet, zu dem verschiedene Akteure aus Feuerwehr, Polizei oder Infrastrukturbetreiber Zugang besitzen und so gemeinsam Informationen austauschen können. Darüberhinaus verfügt das System über eine interaktive Lagekarte, die individuell gestaltet werden kann. Um nützliche Informationen zwischen allen Beteiligten auszutauschen und zu sammeln wurde das Subsystem „Informationspool“ geschaffen. Hier hat jeder Benutzer die Möglichkeit, interessante Informationen festzuhalten und anderen zur Verfügung zu stellen. Darüberhinaus kann auch eine Verknüpfung mit der Lagekarte geschaffen werden, indem einzelne Informationsressourcen mit einem regionalen Bezug ausgestattet werden. Schwächen dieses Systems bestehen momentan noch darin, dass verwandte Informationsressourcen, die gemeinsam Synergieeffekte bilden, nicht identifiziert werden können. Außerdem haben Benutzer nicht die Möglichkeit, für ihren konkreten Anwendungsfall Informationen, die für ihren Kontext relevant sind, zusammenzufassen. 47 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 4. Informationsqualität auf Datenebene Bisher wurde der Umgang mit Informationsqualität in verschiedenen Kontexten betrachtet und der Unterschied von Information und Daten deutlich gemacht. Im folgenden soll es verstärkt um den Datenaspekt der Thematik gehen, da in der Forschung zum Thema Informationsqualität auch vermehrt dieser Bereich behandelt wird. 4.1 Fehlerbehaftete Datensätze Mithilfe der vorgestellten Ansätze & Methoden zur Bewertung bzw. zur Darstellung der Informationsqualität wird dem Benutzer in erster Linie versucht darzustellen, in welcher Lage sich die präsentierten Daten befinden. Sei es durch eine grafische Aufbereitung mittels Dashboard veränderter Wikipedia Artikel oder durch den Hinweis von wem, wann und wo eine Information erstellt wurde. Allerdings bleibt das Problem, dass Datenbestände trotzdem weiterhin mit Fehlern behaftet sind und somit die Qualität der Ressource weiterhin darunter leidet, insofern nicht auch eine automatische Fehlerkorrektur stattfindet. Wenn ein Unternehmen oder eine Organisation keine besonderen Anstrengungen vorgenommen hat, ihre Datenbestände qualitativ zu verbessern und von Fehlern zu befreien, dann sollte im Durchschnitt von einer Fehlerrate von 1-5% ausgegangen werden (Fehlerrate = Anzahl der Fehlerhaften Felder/Anzahl aller Felder) (Redman, 1998). Der erste Schritt um die Datenqualität zu verbessern ist es, auf das Problem von schlechter Datenqualität hinzuweisen und deutlich zu machen warum es ein Problem darstellt das dringend behandelt werden muss. In Unternehmen kann eine schlechte 48 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Datenqualität Auswirkungen auf die Kundenzufriedenheit, steigende Kosten und ineffektive Entscheidungen haben. Langfristig beeinflusst dies sogar die Formulierung von Zielerreichungsstrategien (Redman, 1998). Die Kundenzufriedenheit leidet beispielsweise, wenn Waren falsch geliefert wurden, weil die Kundendatenbank fehlerhafte Einträge enthält. Steigende Kosten fallen dadurch an, dass laufend Aufwand entsteht, der durch fehlerhafte Daten entstanden ist. Schätzungsweise fallen 40-60% der Ausgaben einer Organisation aufgrund von fehlerhaften Daten an. „Decisions are no better than the data on which they are based“ (Redman, 2008). Dementsprechend können gute Entscheidungen für eine effektive Strategie nur getroffen werden, wenn die Datenqualität hoch genug ist. Bevor verschiedene Ansätze zur Bewältigung von schlechter Datenqualität vorgestellt werden, sollt an dieser Stelle aufgezeigt werden, dass Fehlerhafte Daten nicht immer die gleiche Ausprägung haben, sondern sehr vielfältig auftreten können. In Anhang I ist eine Einteilung von „Missing and non-missing-Data“ grafisch vorgenommen und soll die verschiedenen Ausprägungen die „dirty data“ haben kann verdeutlichen (Onifade & Akomolafe, 2011). Daten die auf den ersten Blick fehlerhaft, unvollständig oder mit wenig Informationsgehalt erscheinen, können durch eine solche Kategorisierung plötzlich einige interessante zusätzliche Informationen zum Vorschein bringen. Kim et al. (2002) hat drei Kategorien vorgestellt, anhand derer man unterscheidet: Missing Completely at Random, Missing at Random und Missing Not at Random. Wenn es keinerlei Hinweis darauf gibt, dass z.B. in einem Formular ein Feld absichtlich nicht ausgefüllt wurde, spricht man von Missing Completely at Random. Es kann also kein Zusammenhang zwischen einem nicht ausgefüllten (falsch ausgefüllten Feld) und beispielsweise einer Bevölkerungsgruppe hergestellt werden. Das Gegenteil ist bei Missing Not at Random der Fall. Dort kann unter Umständen eine Information dadurch gewonnen werden, dass ein Feld in einem Formular absichtlich nicht ausgefüllt wurde. Beispielsweise geben Personen mit einem geringen Einkommen seltener Informationen darüber preis, wie viel sie verdienen, als andere (Dunning & Freedmann, 2008). Von Missing at Random ist die Rede, wenn ein fehlender Wert 49 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. zwar mit einem anderen nicht in Verbindung gebracht werden kann, es aber unklar ist, ob es nicht vielleicht doch noch einen Wert gibt, wo eine Verbindung hergestellt werden kann und warum dieses Feld des Formulars nicht ausgefüllt wurde. Es ist also festzuhalten, dass auch mit fehlerbehafteten Datenbeständen, die als wertlos erscheinen, bei entsprechender Analyse und Bearbeitung, Auffälligkeiten und Informationen erscheinen können, die trotzdem zur Mehrinformation beitragen können. 4.2 Ansätze und Methoden zur Verbesserung von Datenqualität Redman (2008) vergleicht Datenqualität mit einem See, dieser stellt die Datenbank an sich dar und das Wasser des Sees steht für die Daten. In einem Unternehmen oder einer Organisation fallen regelmäßig neue Daten an, dies wird durch den Zufluss zum See illustriert. Dieser Zufluss wird allerdings durch angrenzende Firmen stark verschmutzt und somit kommt das eigentlich frische Wasser (Daten) nur mit minderer Qualität an. Die Endnutzer müssen mit diesem vorhandenen Wasser arbeiten und zurecht kommen. Redman stellt drei Arten vor, wie man dem Problem begegnen kann. Der erste Ansatz beschreibt das Vorgehen, das dann zum Einsatz kommt, wenn es bereits zu spät ist. Die Datenqualität des „data-lakes“ ist zu gering als dass man sie noch verwenden kann, dementsprechend soll die Datenquelle komplett geschlossen werden, da man ihr nicht mehr vertrauen kann und sie zu minderwertiges Wasser (Daten) liefert. Dieser Ansatz ist natürlich nicht optimal, allerdings bleibt häufig kein anderer Ausweg, da sich in der Vergangenheit zu wenig um die Datenqualität im Unternehmen oder der Organisation gekümmert wurde. Der zweite vorgestellte Ansatz beschäftigt sich damit, dass der Datenbestand versucht wird aufzuräumen. Dieser Ansatz kann zwar sehr effektiv sein, da fehlerhafte Daten oder nicht vorhandene Daten korrigiert und eingefügt werden, allerdings ist er auch sehr zeitaufwendig und kostspielig. Grund dafür ist, dass dieser Prozess eigentlich nie beenden werden kann, da Fehler immer wieder auftreten werden – auch bei der zukünftigen Neugewinnung von Daten. 50 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Der dritte Ansatz geht der Fehlerquelle auf den Grund und versucht diese zu beheben. Beispielsweise kann sich bei den Mitarbeitern, die für die Dateneingabe verantwortlich sind, eingebürgert haben, dass das System „N/A“ als erlaubte Eingabe zwar akzeptiert, es aber durch diese Eingabe im weiteren Verarbeitungsprozess zu neuen Fehlern kommt und somit selbständig fehlerhafte Datensätze von den eigenen Mitarbeitern produziert werden. Eine Mitarbeiterschulung kann diese Problematik sofort beheben. In Organisationen gibt es nur wenige dieser Fehlerquellen, allerdings kann die Qualität um ein vielfaches gesteigert werden, wenn diese beseitigt werden. Der Ansatz des „Prevention Approach“ sollte dementsprechend bevorzugt werden. Allerdings zeigte sich in der Vergangenheit, dass Organisationen erst bereit sind Geld für ihre Datenqualität auszugeben, wenn dieser Ansatz nicht mehr ausreicht, sondern nur noch der Datenbestand durch Säuberungen oder komplette Reorganisation in Ordnung gebracht werden kann (Rhind, 2007). Der Einsatz von semantischen Technologien wäre für den von Redman (2008) definierten „Prevention Approach“ eine besondere Rolle. Demnach sollten Informationen, seien sie aus dem Internet oder aus dem Unternehmen generiert, immer direkt in einer Maschinenlesbaren Form zur Verfügung gestellt werden und somit auch ihre genaue Bedeutung definieren. Für diesen Zweck bieten sich bereits existierende Datenformate wie XML, RDF(S) und OWL an (Hitzler et al., 2007). Durch die Maschinenlesbare Form können Daten schneller bereinigt und gesuchte Daten schneller gefunden werden. Mithilfe dieser Standardisierten Datenformate werden Metainformationen zu einem Datum hinzugefügt. Dies geschieht häufig mithilfe von sogenannten „Tags“. Diese Tags umschließen einen bestimmten Teil eines Textes, damit ein Programm versteht wie mit diesem Teil des Textes umgegangen werden soll. HTML (Hypertext Markup Language) ist ebenfalls eine sogenannte Markup-Sprache und kommuniziert über Tags mit dem Browser um ihm mitzuteilen, wie ein bestimmter Teil eines Textes dargestellt werden soll. <i>Beispieltext</i> in Kursiv 51 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Mithilfe diesen Tags wird im obigen Beispiel dem Browser mitgeteilt, dass „Beispieltext“ kursiv dargestellt werden soll. Im Kontext der Verbesserung von Informationsund Datenqualität können Tags beispielsweise dazu eingesetzt werden um den Computer darüber zu informieren, von wem ein Text geschrieben wurde, wann er geschrieben wurde oder in welcher Sprache er verfasst ist. Darüberhinaus gilt das finden und wiederfinden von Informationen als wichtigste Aktivität für Benutzer des Internets und dementsprechend wichtig ist es möglichst viele Metainformationen über Daten verwenden zu können (Seitlinger, Ley 2012). Um diesen Prozess im Alltag zu erleichtern hat sich „social tagging“ etabliert. Dabei werden Webinformationen mittels kurzen Schlagworten versehen, um später bestimmte Bilder, Videos oder Artikel wiederzufinden. Es werden also Daten über Daten angelegt (Metadaten) (Greenberg, 2003). Das anlegen dieser Metadaten kann sowohl manuell durch einen Menschen als auch automatisch erfolgen. Die Qualität der Metadaten die manuell erstellt wurden hängt davon ab, wie die Kenntnis des Autors über den Nutzen und Einsatz von Metadaten ist. Metadaten die manuell angelegt werden, findet man häufig dort wo Beschreibungen angegeben werden, die von Suchmaschinen erfasst werden sollen. Das automatische anlegen von Metadaten findet bei Computersystemen nahezu kontinuierlich statt (Erstellungsdaten, Versanddaten, Geografischer Standort) (Greenberg, 2003). Allerdings fehlt es an dieser Stelle häufig an Daten, die bei der Einordnung der genauen Bedeutung und des Kontexts helfen. Ein weiterer Ansatz zur Verbesserung schlechter Datenqualität geht in die Richtung, dass die Datenqualität nicht weiter verbessert wird, sondern die Fähigkeiten von Suchalgorithmen erweitert werden (Onifade & Akomolafe, 2011). Hierzu kommen so genannte „Fuzzy Search“ Algorithmen zum Einsatz, die den Suchbegriff zwar für die Suche verwenden, darüber hinaus aber auch zusätzliche Suchbegriffe erstellen, die vielleicht auch vom Nutzer gemeint sein könnten. Somit wird die Suche verbreitert, aber damit auch automatisch die Vielfalt der Suchergebnisse. In bestimmten Fällen kann diese Methode allerdings trotzdem sehr gute Ergebnisse liefern. Beispielsweise wenn die Eingabe eines Datenformates in einem bestimmten Format erfolgt ist, die Datenbank aber verschiedene Repräsentationen des beherbergt. 52 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Wie man sieht, gibt es verschiedene Möglichkeiten, wie man schlechter Informationsqualität bzw. schlechter Datenqualität begegnen kann. Es gibt keine Pauschallösung zur allgemeinen direkten Verbesserung, da es jeweils von der Ausgangslage, dem Kontext und den Zielen die man erreichen möchte abhängig ist. 5. Konzept 5.1 Konzeptionelle Vorüberlegungen In der vorherigen Literaturrecherche wurde ein Überblick über praktische Methoden und theoretische Bewertungsmöglichkeiten von Informationen gegeben. Im folgenden sollen anhand des bereits vorgestellten Forschungsprojekts Infostrom konkrete Vorschläge zur Steigerung der bedarfsgerechten Informationsversorgung innerhalb des Projekts geben werden. Insbesondere wird an dieser Stelle auf das Subsystem der Sicherheitsarena – den „InfoPool“ eingegangen. Zur konzeptionellen Vorüberlegung der Gestaltung und Anordnung der einzelnen Elemente habe ich verschiedene Mock-Ups mit Adobe Photoshop & Axure erstellt. Einzelne Abbildungen aus diesem Kapitel wurden daraus verwendet. Zur Orientierung, welche potentiellen Erweiterungen am Informationspools vorgenommen werden können, habe ich mich an dem in der Literaturrecherche vorgestellten Kriterienkatalog von Eppler (2006) orientiert (Anhang E). Im Anhang J habe ich eine Übersicht über alle Bewertungskriterien erstellt und kenntlich gemacht an welchen Stellen eine Verbesserung möglich wäre. Davon ausgehend, habe ich die nachfolgenden potentiellen Verbesserungsmöglichkeiten entworfen und im Anschluss daran auch implementiert. 53 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 5.2 Darstellung potentieller Verbesserungsmöglichkeiten 5.2.1 Zusammenfassen von Informationsressourcen Bisher ist es für den Benutzer des Informationspools nicht möglich einzelne Informationsartefakten zusammenzufassen und bestimmten Anwendungsfällen bzw. Kontexten (z.B. Brand, Verkehrsunfall, Wetterentwicklung) zuzuordnen um so bei wiederkehrenden Ereignissen sofort auf die aus der Vergangenheit bewährten Informationsressourcen zugreifen zu können und so das schnellere Verfügbar machen von Informationen zu ermöglichen. Diese Zusammenstellung von auf den ersten Blick unterschiedlichen Informationen ist insofern interessant, als dass sich daraus in bestimmten Kontexten Synergieeffekte erzielen lassen. So ist es beispielsweise möglich aus einer Zusammenstellung von Informationen bestehend aus Wettervorhersage und den aktuellen Pegelständen in der Region eine genauere Aussage darüber treffen zu können wie sich ein etwaiges Hochwasser entwickelt. Außerdem ergeben sich durch eine solche Kontextzuordnung von einzelnen Informationsartefakten mögliche interessante Metadaten, die im folgenden weiterverwendet werden können. Beurteilt wurde dieser Zustand nach dem Kriterium der Interaktivität, das darüber eine Aussage trifft, inwiefern der Benutzer die Möglichkeit besitzt für seine Bedürfnisse Anpassungen vorzunehmen und diese zu adaptieren. Um hier eine Verbesserung herbeizuführen soll das zusammenfassen von Informationen innerhalb von „Infomappen“ geschehen. Innerhalb dieser Infomappen soll jeder Benutzer individuell für bestimmte Kontexte Informationen zusammenstellen können. Wie bisher gewohnt kann der Benutzer des Informationspools mit den vorhandenen Werkzeugen durch den Informationspool blättern und diesen durchsuchen oder filtern. Zusätzlich bietet sich jetzt die Möglichkeit mithilfe eines Dropdownmenüs eine neue Infomappe anzulegen oder den gesamten Informationspool anhand bereits angelegter Infomappen zu filtern (Abbildung 10). Das zuordnen einer Information zu einer Infomappe soll über das Kontextmenü „Optionen“ geschehen. Wurde eine Infomappe über das Dropdownmenü ausgewählt, wird die Tabelle entsprechend gefiltert und nur die Informationen sind sichtbar, die zu dem gewählten Kontext gehören. In dieser Ansicht sollen sich auch einzelne Informationsressourcen wieder aus der 54 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. gewählten „Infomappe“ entfernen lassen. Dies soll ebenfalls über einen entsprechenden Eintrag im Optionsmenü geschehen. Da einzelne Anwendungsfälle immer wieder auftreten können und von unterschiedlichen Benutzern bearbeitet werden, soll ebenfalls die Möglichkeit bestehen eine Infomappe zwischen den Benutzern auszutauschen. Dies soll über die Funktion „Mappen von anderen Benutzern“ ermöglicht werden. Hier soll der Name eines Anderen Benutzer der Sicherheitsarena eingeben werden können, um sich auf diese Weise die bereits vorhandene Infomappen anzeigen zu lassen und für die eigene Verwendung zu übernehmen. Auf diese Weise lassen sich die Informationen zusammentragen, die für den Benutzer in seiner Aufgabe Synergieeffekte erzeugen oder auch nur für einen bestimmten Fall besonders wichtig sind und zusammen gehören. Außerdem kann schneller auf benötigte Informationen zugegriffen werden, insbesondere wenn routinierte und wiederkehrende Ereignisse eintreten. Abbildung 10: Auswahl der Infomappe 55 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 5.2.2 Empfehlungssystem für potentiell relevante Informationen Im vorherigen Abschnitt wurde bereits das zusammenstellen von verwandten Informationen, die gemeinsam möglicherweise Synergieeffekte erzielen, bzw. Informationen die dem gleichen Kontext zuzuordnen sind vorgestellt. Innerhalb der Literaturrecherche wurde häufig das Problem der „Information Overload“ festgestellt, also das es bei umfangreichen Informationssammlungen schwer ist einen Überblick zu bewahren oder bestimmte gesuchte Informationen auch zu finden. Diese Problematik besteht ebenfalls im betrachteten Projekt, da jeder Benutzer die Möglichkeit besitzt für ihn interessante Informationen zum Informationspool hinzuzufügen. Bei umfangreichen Informationssammlungen ist es für den Benutzer schwer neue potentiell interessante Informationen zu entdecken – ohne das gesamte Archiv zu durchsuchen. Dies gestaltet sich noch schwerer, wenn der Benutzer nicht in der Lage ist zu formulieren was genau er sucht oder diese unter anderen Begriffen sucht als sie indexiert wurden. Somit leidet das Bewertungskriterium der „Convenience“, also dass möglicherweise viele Schritte im Informationsprozess notwendig sind um an die gewünschte Information zu gelangen. Darüberhinaus kommen immer neue Informationen hinzu, über die der Anwender noch nicht informiert ist, für ihn aber möglicherweise interessant sein können. Um dem entgegen zu treten soll ein Empfehlungssystem aufgebaut werden, das ausgehend von den einzelnen Benutzerindividuellen Zusammenstellungen innerhalb der Infomappen, Informations-Empfehlungen für jeden Benutzer ausspricht. Somit soll der Benutzer auf mögliche harmonisierende Informationen zusätzlich zur gerade betrachteten Information hingewiesen werden. Bisher war eine solche Auswertung von möglichen harmonisierenden Informationen nicht möglich, da das System keine Kenntnis darüber besaß welche Informationen gemeinsam verwendet werden bzw. für einen gemeinsamen Kontext relevant sind. Neben der gemeinsamen Verwendung innerhalb der Infomappen soll auch eine Empfehlung über eine Information ausgesprochen werden, wenn eine Information von einem anderen Mitglied der eigenen Organisation (THW, Feuerwehr, Polizei) verwendet wird. Auf diese Weise soll es auch neuen Benutzer der Sicherheitsarena ermöglicht werden schnell an Informationen zu gelangen, die für ihn interessant sind. 56 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Der Grundgedanke dieser Form des Empfehlungssystems ähnelt der Art des kollaborativen Empfehlungssystems (Klahold, 2009). Ausgehend von allen Zusammenstellungen (Infomappen) von Informationen aller Benutzer kann ermittelt werden welche Informationen häufig miteinander kombiniert werden und dementsprechend gut harmonisieren. Darüberhinaus werden Informationen, die von Benutzern der selben Organisation in einer Infomappe kombiniert wurden, höher bewertet und entsprechend vorrangig dargestellt. Der Nachteil dieser Form ist allerdings, dass das System erst entsprechend genau arbeitet, wenn genügend Benutzer ihre Infomappen zusammengestellt haben und somit ein ausreichender Datenbestand besteht. Sichtbar wird die Empfehlung von harmonisierenden Informationen in der Detailansicht einer angeklickten Information (Abbildung 11). Bei der Gestaltung und Ausarbeitung soll sich am Empfehlungssystem von Amazon.com orientiert werden (Mangalindan, 2012). Für einen optimalen Aufbau wäre eine Ergänzung um eine inhaltsbasierte Komponente des Empfehlungssystems notwendig. Das bedeutet, dass der Benutzer, so wie die Informationen, noch viel stärker attribuiert werden müssten um noch genauer bestimmen zu können welche Informationen optimal zu welchem Typ von Benutzer passen. Um dies zu erreichen müssten die Attribute und das Verhalten des Anwenders noch besser abgegriffen werden, sowohl durch explizites Abfragen als auch durch implizites Verhalten. Beispielsweise könnte erfasst werden welche Begriffe häufig gesucht werden oder welche Informationstypen am meisten angeklickt werden um darauf aufbauend weitere Faktoren bei der Empfehlung in Betracht zu ziehen. Dadurch lies sich dann noch besser bestimmen, welche Informationen für ihn in der jeweiligen Situation interessant sein können. Diese Erfassung ist allerdings sehr komplex und zeitaufwendig. Dementsprechend musste ich mich im Rahmen meiner Bachelorarbeit auf die bereits vorgestellten Komponenten für das Empfehlungssystems beschränken. 57 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Abbildung 11: Informationsdetails mit Empfehlung 5.2.3 Automatisches Vervollständigen der Metainformationen Beim Hinzufügen neuer Informationen zum Informationspool ist der anlegende Benutzer in der Verantwortung seine Information auch richtig zu dokumentieren und alle notwendigen Felder korrekt auszufüllen. Je mehr Metainformationen er dabei angibt, desto leichter wird es für andere Benutzer Informationen zu finden. Werden falsche Metainformationen angegeben bzw. unvollständige, sinkt die Qualität der hinzugefügten Information und sorgt dafür dass diese möglicherweise sehr wichtige Information untergeht und nicht verwendet wird. Die Korrektheit der Daten ist also nur durch den Ersteller gewährleistet und wird nicht durch das System evaluiert und auch nicht angereichert. Um hier eine Verbesserung zu schaffen, soll eine automatische Erfassung von Metainformationen implementiert werden. Wird beispielsweise eine Webseite hinzugefügt, können die dort bereits vorhanden Metainformationen der Webseite, die beispielsweise zur Suchmaschinenoptimierung eingesetzt werden, ausgelesen werden und zur Information hinzugefügt werden. 58 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Hat der Ersteller oder das System der originalen Kerninformation eine Metainformation hinterlegt, wann die Webseite zuletzt bearbeitet wurde lässt sich so auch ermitteln, ob es Veränderungen über den Zeitverlauf gegeben hat – alternativ kann dies auch über die Dateigröße festgestellt werden. Durch die automatische Auswertung des „content-types“ kann das System nun auch eine genauere Kategorisierung der Informationsressource vornehmen. In der derzeitigen Situation werden lediglich eine Auswahl an möglichen Informationstypen zur Verfügung gestellt. Beim hinzufügen einer Webadresse kann so auch geprüft werden ob diese tatsächlich existiert oder dem Benutzer möglicherweise ein Schreibfehler unterlaufen ist. Wie umfangreich diese Anreicherung der Metainformationen ausfällt, hängt davon ab, wie sehr das Ausgangsmaterial gepflegt wurde. Das Ziel soll es sein, die breite der Metainformationen zu einer hinzugefügten Information zu erhöhen und dabei die manuelle Erfassung von Metainformationen durch eine automatische Erfassung zu ergänzen. Außerdem soll durch die neu gewonnen Metadaten versucht werden, eine Aussage zur Aktualität, Verfügbarkeit und Änderungsverlauf einer Information zu treffen. Abbildung 12: Detailansicht Informationsressource mit Status der Ressource Zur Umsetzung des Auslesens der Metainformationen soll die Open Source Software Tika15 von Apache eingesetzt werden. Tika extrahiert Metadaten und strukturierten Texte aus vielen unterstützen Dokumentformaten 15 https://tika.apache.org/ 59 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 5.2.4 Festhalten des Inhalts einer Informationsressource Wird der Informationspool durchsucht, werden für die Suchergebnisse lediglich die angegebenen Metainformationen zur Hilfe genommen und nicht der Inhalt von vorhandenen Webinformationen. Dies soll sich ändern indem bereits beim Hinzufügen einer Informationsressource der Inhalt der Webseite geparst wird und zum Suchindex hinzugefügt wird. Somit wird es auch das vollständige durchsuchen möglich, auch wenn bestimmte Schlagworte nicht durch den Benutzer aufgenommen wurden. Umgesetzt wird diese Funktionalität ebenso wie das Auslesen der Metainformationen durch die Open Source Software Tika14. Neben der inhaltlichen Erfassung soll ebenfalls das Aussehen der Informationsressource festgehalten werden. Dies soll der Wiedererkennbarkeit dienen, da anhand der visuellen Darstellung der Information schneller festgestellt werden kann worum es sich dabei handelt (Abbildung 13). Abbildung 13: Detailansicht Informationsressource mit Vorschaubild Die Screenshots der Information können ebenfalls für das Empfehlungssystem eingesetzt werden (Abbildung 11). 60 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 5.2.5 Bewertung von Informationsressourcen Bisher wird durch die Anzahl der Verwendungen einer Informationsressource eine Aussage getroffen, wie beliebt diese bei den Nutzern ist. Allerdings wird dadurch nicht erfasst, ob die Benutzer auch zufrieden sind und ob man der Information auch vertrauen kann. Deshalb soll hier ein System eingesetzt werden, dass die „Reputed Credibility“ (Fogg & Tseng, 1999) erhöht. Konkret bedeutet dies, dass die Benutzer die Möglichkeit bekommen sollen, individuell zu entscheiden, ob die Information generell für sie hilfreich gewesen ist oder nicht. Darüber hinaus wäre auch das Einführen eines „Sternesystems“ denkbar, mithilfe dessen der Benutzer Aussagen über seine Zufriedenheit über die Information treffen kann. 6. Implementierung Im vorherigen Kapitel wurde ein konzeptioneller Überblick über mögliche Lösungsansätze zur Steigerung der bedarfsgerechten Informationsversorgung am Beispiel des Projekts Infostrom und der Sicherheitsarena vorgestellt. Im folgenden soll die konkrete Implementierung des Prototypen dargestellt und erläutert werden. Zunächst soll die Umsetzung der Sicherheitsarena durch das Open Source Projekt „Elgg“ vorgestellt werden, anschließend das bisher implementierte Plug-In des Informationspools und danach die im Rahmen der Bachelorarbeit getätigten Modifizierungen dieses Plug-Ins. Abschließend wird die Implementierung der Schnittstelle zur Anreicherung der Metadaten vorgestellt. Die gesamte Implementierung fand auf einem privaten Server statt und somit ebenfalls auf einer separaten Installation der Sicherheitsarena. Um die Übertragung der 61 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. entwickelten Version problemlos zu ermöglichen, wurde darauf geachtet die identischen Versionen aller verwendeten Plug-Ins und der Elgg-Plattform an sich zu verwenden. Eine Testversion mit Testdaten ist online unter http://elgg.knob1.de zu erreichen. Für den Login ist der Benutzername „testuser“ mit dem identischen Passwort zu verwenden. 6.1 Social Networking Engine Elgg16 Bei dem Open Source Projekt Elgg handelt es sich um ein Framework, das es ermöglicht soziale Umgebungen in Form eines sozialen Netzwerks nachzubilden. Im Projekt Infostrom wird das soziale Netzwerk dazu verwendet, unterschiedlichen Akteure aus verschiedenen Kontexten eine Austauschplattform zu geben um Informationen und Nachrichten auszutauschen. Konkret bedeutet das, dass Feuerwehrleute, Polizeibeamte oder Helfer des THWs so die Möglichkeit bekommen Informationen auszutauschen. Das Framework bietet umfangreiche Funktionen zur Modifikation der open Source Software um z.B. einzelne Elgg-Objekte (dies können Benutzer, Ereignisse, Nachrichten etc. sein) miteinander in Relation zu setzen oder bestehende Objekte zu erweitern. Durch die umfangreiche API gibt es viele Möglichkeiten das System nach Bedarf zu verändern. Komplexe zu formulierende SQL abfragen werden auf diese Art überflüssig. Relationen von Benutzern (Objekten) lassen sich beispielsweise direkt per Funktionsaufruf abrufen. Neben Funktionen wie Benutzerverwaltung und Nachrichtenaustausch bietet das System durch seine Plug-In Schnittstelle die Möglichkeit es durch beliebige Funktionalitäten zu erweitern. Dadurch lassen sich beispielsweise Funktionen zum gemeinsamen Kalender und Termine verwalten ergänzen oder das Erscheinungsbild der Benutzeroberfläche verändert werden. Darüberhinaus ist Elgg von Grund auf Multi- 16 http://www.elgg.org 62 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. lingual ausgelegt. Dementsprechend lässt sich das Grundsystem auch mittels eines passenden Plug-Ins in beliebig viele Sprachen übersetzen. Im Falle der Sicherheitsarena wurde das System durch verschiedene Plug-Ins erweitert. Insbesondere im Bereich der Zusammenarbeit zwischen den einzelnen Akteuren. Durch diese Erweiterungen besteht beispielsweise mittlerweile die Möglichkeit anhand einer Lagekarte Informationen einzuzeichnen, Gebiete zu markieren und so genannte KML Daten, die Geodaten für eine bestimmte Region enthalten, einzubinden. Eine weitere Kernkomponente der Sicherheitsarena ist das Plug-In „Informationspool“, durch den jeder Benutzer die Möglichkeit hat, für ihn wichtige Informationen für andere bereitzustellen. Diese Informationen kann er selbst anlegen, indem er einen Text verfasst oder einen Link zu einer Informationsquelle hinterlegt. Außerdem lassen sich auch Webdienste einbinden und auf der Lagekarte darstellen. Neben diesen nicht öffentlichen Erweiterungen, die speziell für die Sicherheitsarena erstellt wurden, existiert auf der Elgg-Webseite ein Verzeichnis, wo alle öffentlichen Erweiterungen entsprechend ihrer Kategorie aufgeführt werden. 6.2 Technischer Aufbau des bestehenden Plug-Ins Bevor mit der eigentlichen Implementierung begonnen werden konnte musste ich mir einen kompletten Überblick über den Aufbau des Plug-Ins, das es zu modifizieren galt, verschaffen. Im folgenden soll dies erläutert werden. Die Elgg-Plattform basiert auf der Programmiersprache PHP. Für gewöhnlich sind dementsprechend auch die Plug-Ins in PHP geschrieben, da die Elgg-API Aufrufe zur Plattform nur in PHP zur Verfügung stehen. Die Programmiersprache ist so aufgebaut, dass der geschrieben Code serverseitig verarbeitet wird und nicht an den Browser übermittelt wird, sondern lediglich die generierte Webseite zur Darstellung gesendet wird. Das hat zur Folge, dass für jede Änderung der Ansicht, die Webseite vom Server neu geladen werden muss. 63 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Damit Seiten nicht immer wieder neu geladen werden müssen, geht der Trend in der Webentwicklung dahin, dass der Code der Webseite im Browser des Benutzers ausgeführt wird und mit dem Server hauptsächlich nur über AJAX Anfragen kommuniziert wird. AJAX (Asynchronous JavaScript and XML) ist eine Methode, mit der bestimmte Daten von einem Server abgefragt werden oder zu einem Server gesendet werden können, allerdings in asynchroner Form, das heißt die Anfrage zum Server kann gestellt werden, der Code nach der Anfrage muss allerdings in der Regel nicht in der Ausführung gestoppt werden. Die Antwort des Servers wird dann verarbeitet sobald die Daten verfügbar sind. Diese Technik wird auch im vorliegenden Plug-In verwendet. Somit ist das gesamte Userinterface in JavaScript, HTML und CSS geschrieben und wird dynamisch vom Browser generiert. Die Daten, die von der Elgg-Plattform benötigt werden (beispielsweise Benutzerdaten oder Informationsressourcen) werden per AJAX von einer entsprechend implementierten Schnittstelle abgerufen. Diese Schnittstelle ist in PHP implementiert und liefert bei entsprechender Abfrage immer ein Ergebnis in Arrayform zurück. Dieses Array kann dann beispielsweise alle vorhandenen Informationsressourcen enthalten, die dann vom JavaScript Code in einer Tabelle formatiert werden. Somit ist es für die Implementierung notwendig gewesen, sowohl diese Schnittstelle zur Kommunikation zwischen Userinterface und Elgg anzupassen und zu erweitern als auch die entsprechende Datenverarbeitung im Browser für das Userinterface. 6.3 Modifizierung des Informationspools 6.3.1 Informationsverwaltung und Organisation Im folgenden sollen die konkreten Erweiterungen am Informationspool Plug-In beschrieben und aufgezeigt werden. Eine der elementaren Aufgaben bestand darin eine Möglichkeit zu schaffen, die vorhandenen Informationsressourcen Benutzerindividuell zu organisieren und einzelnen Anwendungsprofilen/Anwendungskontexten (Infomappen) zuzuordnen. Um dem Benutzer die Möglichkeit zu geben den gesamten Informationspool dahingehend zu filtern dass er nur das sieht, was er für einen 64 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. bestimmten Fall benötigt. Außerdem ergeben sich dadurch Daten, die darüber Aufschluss geben, welche Informationen thematisch zusammengehören. Diese Funktionalität wurde so umgesetzt, indem der Benutzer jetzt die Möglichkeit hat über ein Dropdownmenü sowohl neue Infomappen anzulegen, als auch vorhandene auszuwählen. Bei der Auswahl einer vorhandenen Infomappe wird die bereits vorhandene Informationstabelle des Javascript DataTable Frameworks17 so gefiltert, dass nur die zur Infomappe zugeordneten Informationen sichtbar werden. Alle bisherigen zusätzlichen Funktionen zum sortieren und filtern beispielsweise nach Typ oder bleiben weiterhin verfügbar. Diese Funktionen zum filtern und organisieren der Informationen in Infomappen ist in allen eingerichteten Tabs („von mir“, „kontakte“, „regional“) vorhanden. Soll eine neue Infomappe angelegt werden, erscheint nach klick auf den entsprechenden Menüpunkt ein Eingabefeld um einen Namen festzulegen. Sobald eine neue Infomappe angelegt wird, erstellt Elgg ein neues Objekt und speichert dies in der Datenbank ab. Dieses Objekt besitzt sowohl einen Namen (Name der Mappe), eine eindeutige Identifikationsnummer und einen Besitzer. Die Zuordnung zwischen Information und Mappe geschieht durch eine Elgg spezifischen Beziehungstyp ("info_belongs_to“). Anhand dieser Beziehung lassen sich anschließend alle zugehörigen Informationen filtern. Um eine Information aus einer Infomappe zu entfernen oder zu dieser hinzuzufügen wurde das bestehende Optionen-Kontextmenü um diese Funktionalität erweitert. Abhängig davon ob man sich gerade in einer Infomappe befindet oder nicht, ergibt sich entweder die Option zum Hinzufügen oder zum Entfernen einer Information (Abbildung 14). 17 https://datatables.net/ 65 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Abbildung 14: Information zu Mappe hinzufügen oder entfernen Damit sowohl Infomappen als auch einzelne Informationsressourcen problemlos gelöscht werden können, musste darauf geachtet werden, dass bevor das eigentliche Objekt gelöscht wird alle vorher eingegangenen Beziehungen erfolgreich aufgelöst werden. Dementsprechend musste bei einzelnen Löschfunktionen eine Änderung vorgenommen werden. Da die Infomappen Benutzerindividuell abgespeichert werden, wurde die Möglichkeit implementiert sich die Infomappen von anderen Benutzern anzeigen zu lassen und diese entweder komplett für sich zu übernehmen, oder aber nur einzelne Informationsressourcen. Um eine Infomappe eines gesuchten Benutzers zu übernehmen, ist ein Klick auf das rote Pluszeichen neben dem Namen der Mappe notwendig (Abbildung 15). Bei der kompletten Übernahme wird ein neues Elgg-Objekt erstellt und alle Beziehungen zwischen Infomappe und Information in das neue Objekt kopiert. Somit wird ausgeschlossen, dass einzelne Benutzer die Infomappen von anderen verändern oder löschen können. Abbildung 15: Infomappen von anderen Benutzern anzeigen & übernehmen 66 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 6.3.2 Empfehlungssystem für Informationsressourcen Jede Informationsressource verfügt über eine Detailansicht, bei der Metainformationen wie Ersteller, Datum oder Beschreibungstext angezeigt werden. An dieser Stelle wurde die Detailansicht um eine Ansicht auf möglicherweise für den Benutzer interessante Informationen ergänzt. Sobald die Detailansicht einer Information aufgerufen wird, sucht ein Algorithmus im Hintergrund die Informationen aus allen im System vorhandenen Infomappen zusammen und gruppiert diese anhand ihrer Infomappen-Zugehörigkeit. Anschließend werden alle Infomappen aussortiert, die die gerade betrachtete Information nicht enthält. Die übriggebliebenen Infomappen enthalten demnach die gerade betrachtete Information und darüberhinaus weitere Informationen die in irgendeinem Verhältnis zu ihr stehen. Jetzt werden diese Infomappen wiederrum durchlaufen und geprüft wie häufig einzelne Informationen darin auftauchen, um so darauf zu schließen, wie oft Benutzer die gerade betrachtete Information mit anderen empfehlungswürdigen Informationen verwenden und demnach wie relevant diese sind. Ein weiteres Kriterium des Algorithmus beachtet die Organisation des gerade eingeloggten Benutzers und die, von dem die einzelne Infomappe stammt die gerade durchlaufen wird. Sind die Organisationen identisch, also vom gerade eingeloggten Benutzer und die der Infomappe, in der sich die Information befindet die gerade betrachtet wird, dann wird die Punktzahl der Relevanz verdoppelt. Anhand eines Beispiels und Abbildung 16 soll diese Funktionsweise noch einmal verdeutlicht werden. Benutzer A ist Feuerwehrmann und betrachtet gerade eine Information. Benutzer B hat im Vorfeld die aktuell betrachtete Informationsressource zusammen mit anderen Informationen einer Infomappe zugeordnet. Benutzer C hat diese Information ebenfalls mit anderen Informationen einer Infomappe zugeordnet, darüberhinaus ist dieser ebenfalls Feuerwehrmann, während B bei der Polizei beschäftigt ist. Somit werden Benutzer A nun vorrangig die Informationen in geordneter Reihenfolge präsentiert, die Benutzer C in seiner Infomappe verwendet hat. Überschneiden sich die Informationen die B und C jeweils in ihrer Mappe haben, dann erhöht sich ihre Relevanz und wird weiter vorne in der Liste platziert. Je mehr Benut67 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. zer ins Spiel kommen, umso komplexer wird natürlich die Auswertung der Daten aber auch entsprechend genauer wird die Empfehlung von verwandten Informationen. Sortiert werden die Empfehlungen im Userinterface von links nach rechts, entsprechend ihrer Relevanz. Abbildung 16: Grafische Darstellung des Empfehlungsalgorithmus 6.3.3 Schnittstelle zur Vervollständigung der Metadaten Zur Umsetzung des in 5.2.3 beschriebenen Konzepts zur Vervollständigung der Metadaten einer Webinformation wurde eine externe REST-API implementiert, die per POST-Request angesprochen wird. Beim hinzufügen einer neuen Webinformation zum Informationspool hat man nun die Möglichkeit beim einfügen der URL und anschließenden druck des entsprechenden Buttons die URL an die neu geschaffene API zu senden und auswerten zu lassen. Das Ergebnis wird dann nach wenigen Sekunden in den entsprechenden Feldern dargestellt. 68 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Die Implementierung der Schnittstelle erfolgte auf der Plattform Node.js 18 und ist demnach in der Programmiersprache JavaScript geschrieben. Bei Node.js handelt es sich um eine Art Framework zum ausführen von Serverseitigem JavaScript Code. Für die Entwicklung mittels node.js habe ich mich entschieden, da ich bereits Vorkenntnisse auf dem Gebiet hatte, das Plug-In für Elgg weitestgehend ebenfalls in JavaScript geschrieben wurde und es durch node.js sehr komfortabel ist eine API zu entwickeln. Des weiteren bietet node.js eine breite Auswahl an Paketen, die die Entwicklung von komplexen Funktionen sehr erleichtern. Nachdem die URL zur Webinformation in das dafür vorgesehene Feld auf der Webseite der Sicherheitsarena eingefügt wurde und der entsprechende Button zum Abrufen der enthaltenen Metadaten betätigt wurde, wird die serverseitig implementierte API angesprochen. Hier wird zunächst geprüft, ob es sich bei der URL um eine Webseite handelt und ob diese auch erreichbar ist, der Statuscode der Webseite wird vermerkt. Anschließend wird der gesamte Inhalt der Webseite, inklusive HTML Code, ausgelesen und analysiert. Dies geschieht über das „Tika“ Framework von Apache. Hier wird der textliche Inhalt ausgelesen und ebenfalls alle Metadaten, die beispielsweise zur Suchmaschinenoptimierung im Header der Webseite angegeben wurden. Zum jetzigen Implementierungsstand werden die Metadaten zu den angegebenen Schlagwörtern [keywords], die Beschreibung [description] und das Datum der letzten Änderung [last-modified] der Seite erfasst. Alle Angaben werden in einem Objekt in der JSON Notation abgespeichert. Darüberhinaus wird über das Webshot Framework 19 ein Screenshot der Webseite erstellt und dieser mittels FTP Verbindung abgespeichert. Wie auch für das erstellen des Screenshots kommt auch hier ein Paket aus dem Node-Repository20 zum Einsatz (node-ftp21). Der Name des Screenshots bezieht sich direkt auf die eindeutige Identifikationsnummer der Informationsressource, welche gerade neu in der Elgg Datenbank angelegt werden soll. 18 http://www.nodejs.org https://github.com/brenden/node-webshot 20 https://www.npmjs.org/ 21 https://github.com/mscdex/node-ftp 19 69 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Durch den asynchronen Aufbau von Node.js kann die gesamte Verarbeitung des Screenshots und der Analyse der Webseite parallel erfolgen. Sobald die einzelnen Prozesse abgeschlossen sind, wird das JSON Objekt zurück zum aufrufenden Benutzer innerhalb der Sicherheitsarena gesendet (Abbildung 17) und dort weiterverarbeitet. Abbildung 17: Exemplarische Darstellung einer Antwort der API zur Vervollständigung der Metadaten Die Weiterverarbeitung erfolgt insofern, als dass Felder wie die Verschlagwortung (Tags) automatisch ausgefüllt werden, eine Beschreibung in das dafür vorgesehene Feld angehängt wird und der Screenshot der Webseite abgebildet wird. Außerdem wird im Hintergrund das Datum der letzten Veränderung der Webseite abgespeichert. Handelt es sich bei der Webseite um keine gültige Webseite oder ist diese offline, wird der Benutzer entsprechend darauf hingewiesen. Der Grund für das abspeichern des Datums zur letzten Veränderung, liegt an der zweiten Komponente der entwickelten API. Wird in Zukunft die Detailansicht einer Information aufgerufen, wird die hinterlegte URL der Information ebenfalls wieder zur Analyse an die API gesendet und überprüft, ob sich etwas in der Zwischenzeit seit der Erstellung der Elgg-Informationsressource am Datum der letzten Veränderung der Webseite (last-modified) geändert hat, bzw. ob die Webseite überhaupt noch erreichbar ist. Das Ergebnis wird dann entsprechend grafisch dargestellt. Wurde die Information nicht verändert wird dies über einen grünes Icon dargestellt, wurde die Webseite verändert, ist aber noch online erscheint ein gelbes Icon mit entsprechendem Beschreibungstext und ist die Ressource nicht mehr verfügbar erscheint ein rotes Icon. Somit ist der Benutzer sofort in der Lage eine Aussage über die Aktualität und Erreichbarkeit der Ressource zu treffen. 70 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Da das Datumsformat des Feldes „last-modified“ von Webseitenbetreibern in sehr unterschiedlichen Formaten ausgefüllt wird und die Schreibweise auch von der jeweiligen Sprache abhängt in der die Webseite vorliegt, kommt an dieser Stelle ein weiteres JavaScript Framework zum Einsatz. Moment.js22 hilft dabei das Datumsformat zu parsen und in ein standardisiertes JavaScript Format umzuwandeln. Somit soll versucht werden nach Möglichkeit immer einheitliche Zeitangaben festzuhalten. 7. Evaluation In diesem Kapitel soll evaluiert werden, inwiefern die Funktionen zur Vervollständigung der Metadaten und der Informationsorganisation mittels Infomappen den Prinzipien der Benutzerfreundlichkeit entsprechen. Darüberhinaus soll insbesondere durch das implementierte Empfehlungssystem untersucht werden, inwieweit ein solches System den Benutzer dabei unterstützen kann seine im jeweiligen Kontext benötigten Informationen zu erlangen. 22 http://momentjs.com/ 71 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 7.1 Aufbau und Methodik Für die Evaluation wurden die implementierten Erweiterungen am Informationspool in drei Bereich eingeteilt und in entsprechende Aufgaben für den Evaluationsteilnehmer verpackt. Zunächst sollte eine neue Informationsressource anlegen werden, anschließend eine Infomappe erstellt werden und entsprechende Informationen einsortiert werden und zum Abschluss sollten verschiedene vorher definierte Informationen aus dem Informationspool abgerufen werden. Bevor allerdings mit den Aufgaben begonnen wurde, hat jeder Teilnehmer der Evaluation eine kurze Einleitung in das Forschungsprojekt Infostrom erhalten. Außerdem wurden die Grundfunktionen und der Aufbau der Sicherheitsarena dargestellt und erklärt. Um die Aufgaben in einen für die Teilnehmer greifbaren Kontext zu bringen, wurde im Vorfeld ein Szenario aus dem Krisenmanagement entwickelt (Anhang K) und die Aufgaben in diesen Kontext eingebettet. Da die Teilnehmer unterschiedliche berufliche Hintergründe hatten, wurde ihnen auch ihre jeweilige einzunehmende Rolle dargelegt. Im Anschluss an die Aufgaben wurde je nach Notwendigkeit ein teilstrukturiertes Interview durchgeführt. In manchen Fällen konnte dies allerdings auch geringer ausfallen, da im Gespräch bereits bestimmte Fragen automatisch beantwortet wurden. Während der Nutzung des Systems waren die Teilnehmer aufgefordert ihre Gedanken und Eindrücke laut zu äußern (Thinking-Aloud Methode). Auf diese Weise sollen die Gedankengänge bei der Benutzung ersichtlich und Verständnisprobleme formuliert werden. Zur Evaluation der Benutzerfreundlichkeit (Usability) soll sich nach Möglichkeit an den 10 Heuristiken von Nielsen (Nielsen, 1995) orientiert werden. Um die Äußerungen der Teilnehmer festzuhalten, wurde jedes Gespräch mit Ton aufgezeichnet. Außerdem wurde der Bildschirm und damit alle Interaktionen mit dem System ebenfalls aufgezeichnet. Alle Teilnehmer wurden zu Gesprächsbeginn über die Aufnahmen informiert und waren einverstanden. Als Testsystem diente ein MacBook Pro, mit externer Maus. Die Evaluationen wurden nach Möglichkeit bei den Teilnehmern zuhause durchgeführt. In einem Fall (E05) war dies nicht möglich und wurde demnach im Büro am Arbeitsplatz durchgeführt. Der zeitliche Rahmen pro Interview war auf 60 Minuten zugeschnitten. Je nachdem wie schnell die Aufgaben gelöst werden konnten, konnte die Zeit sowohl über- als auch unterschritten werden. 72 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Im Durchschnitt ist der Zeitahmen aber genau erfüllt worden. Bevor die Interviews durchgeführt wurden, wurde das Testsystem vorbereitet. Dabei war es wichtig, dass ausreichend Testinformationen und Infomappen (für das Empfehlungssystem) vorhanden waren und die entsprechenden Benutzer angelegt sind. Die Testdaten wurden aus den Empirie Ergebnissen des bereits durchgeführten Infostrom Projekts entnommen. Im Anschluss an jedes Interview wurde die Audioaufzeichnung mithilfe der Transkriptionssoftware InqScribe23 transkribiert. Insgesamt haben fünf Personen an der Evaluation teilgenommen. Bei der Auswahl der Personen wurde darauf Wert gelegt, dass sie zu der potentiellen Nutzergruppe der Sicherheitsarena gehören. Demnach wurden sowohl Polizisten, THW Helfer als auch Feuerwehrleute in Betracht gezogen. Bis auf die beiden Vollzeitbeschäftigten Polizisten waren alle anderen ehrenamtliche Helfer. Auf Abbildung 18 ist eine genauere Übersicht der einzelnen Teilnehmer dargestellt. Abkürzung Alter Beruf / Dienst E01 30-40 Autobahnpolizei Butzbach E02 30-40 Freiwillige Feuerwehr Haiger E03 20-30 Polizei Frankfurt E04 20-30 Technisches Hilfswerk Dillenburg E05 40-50 Freiwillige Feuerwehr Bad Marienberg, Technische Einsatzleitung Abbildung 18: Evaluationsteilnehmer 7.2 Limitationen der Evaluation In diesem Abschnitt soll auf die Einschränkungen hingewiesen werden, die bei der Evaluation aufgetreten sind und demnach entsprechend bei der Beurteilung der Ergebnisse beachtet werden müssen. Keiner der Teilnehmer der Evaluation hatte bereits vorher die Möglichkeit die Sicherheitsarena oder den Informationspool über einen längeren Zeitraum zu verwenden. 23 http://www.inqscribe.com/ 73 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Demnach mussten vereinzelt Hilfestellungen an Stellen gegeben werden, die bei längerer Benutzung wahrscheinlich klarer gewesen wären. Darüberhinaus war eines der Elemente der Evaluation das Empfehlungssystem. Es wurde bereits angesprochen, dass das Empfehlungssystem erst durch längere Benutzung und die Erstellung von Infomappen entsprechend genau arbeitet. Wie sich das Empfehlungssystem mit realen Nutzern und realen Daten verhält, konnte an dieser Stelle nur mit Testdaten entsprechend simuliert und vorbereitet werden. Dazu wurden geeignete Infomappen angelegt, damit die Empfehlungen bei der Aufgabenbewältigung unterstützend verwendet werden konnten. 7.3 Ergebnisse Im folgenden Abschnitt werden die Ergebnisse aus den drei Evaluationsabschnitten dargestellt. 7.3.1 Vervollständigung der Metadaten bei der Erstellung einer Informationsressource Hilfe & Dokumentation Der am häufigsten genannte Kritikpunkt beim Anlegen einer Informationsressource bezog sich auf die Selbstbeschreibungsfähigkeit des Systems. Das heißt, dass es oftmals nicht direkt klar gewesen ist, was mit einzelnen auszufüllenden Feldern gemeint ist und welche Interaktionen von dem Benutzer gefordert waren. Dafür wurde häufig ein entsprechendes Icon gewünscht, was das Feld genauer beschreibt und erklärt. „Manchmal gibt’s bei solchen Sachen auch nebendran solche "I-zeichen" um zu erfahren, was damit überhaupt gemeint ist. Gerade wenn man es nicht häufig macht, ist das hilfreich.“ (E01, 00:21:23.26) Dieses Problem trat insbesondere bei dem auszuwählenden Informationstyp auf, da dort Fachbegriffe wie KML, Webservice oder WMS verwendet werden, mit denen einzelne Benutzer nichts in Verbindung bringen konnten. Ein Teilnehmer gab ebenfalls den Hinweis, dass eine solche Funktion besonders wichtig für die älteren Kollegen bei der Polizei, die sowieso schon Probleme mit dem Computer haben. Auch der 74 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Button um die anzulegende Information durch die implementierte Schnittstelle automatisch vervollständigen zu lassen „Informationen abrufen“ war nicht jedem sofort klar und hätte durch einen Beschreibungstext erklärt werden sollen. Allerdings gingen die Interpretationen, was sich dahinter verbergen könnte in die richtige Richtung. So vermuteten vier Teilnehmer, dass die Webseite auf ihre Existenz überprüft wird oder möglicherweise auf einer Art Blacklist gelistet ist. Bis auf einen Teilnehmer hat dies allerdings niemanden davon abgehalten trotzdem auszuprobieren, was mit dem Klick passieren wird. Fehlerprävention Das System zeigt in der jetzigen Form erst nach dem Klick auf speichern an, welche Felder noch vom Benutzer auszufüllen sind. Um diesen Fehler zu vermeiden haben sich einzelne Teilnehmer eine entsprechende Markierung der zwangsweise auszufüllenden Felder gewünscht. Ein weiterer Fehler, der häufig beobachtet werden konnte war, dass der einzufügende Link zu einer Webressource in den Beschreibungstext eingefügt wurde und nicht in das dafür vorgesehene Textfeld. Um diesen Fehler in Zukunft zu vermeiden wünschten sich drei Teilnehmer eine andere Position des Auswahlfensters zum Informationstyps, beispielsweise noch vor den Titel oder Beschreibungstext. Abgesehen von diesen Aspekten wurde die Usability als positiv bewertet. Ebenso als durchweg sehr positiv wurde das automatische Ergänzen der Informationsressource mithilfe der implementierten Schnittstelle empfunden. Dessen positive Auswirkung auf die Vervollständigung der manuell eingegeben Metadaten konnte auch während der Evaluation festgestellt werden. Insbesondere hinsichtlich der angegeben Stichworte und der generellen Bereitschaft zum Ausfüllen des Formulars war dies zu beobachten. Alle Teilnehmer haben intuitiv ein Schlagwort zum wiederfinden der Information angegeben. Zwei der fünf Teilnehmer taten dies aber erst, nachdem sie vom System aufgefordert wurden. Auch der Beschreibungstext zur angegebenen Information ist meist nicht sehr umfassend im Vergleich zum automatischen Beschreibungstext ausgefallen. Trotzdem gaben fast alle Teilnehmer an, dass sie es als sehr notwendig empfinden, dass möglichst Präzise Angaben notwendig 75 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. sind um die Information auch später bei der Suche wiederzufinden. Als Grund für die wenig umfangreichen Angaben wurde angegeben, dass man in der Regel nicht so viel Zeit hat entsprechende Angeben zu machen, es sei denn es gehöre zu den Kernaufgaben des Jobs oder dass man generell „Textfaul“ sei. Ich bin eher so der textfaule Typ und schreibe und schicke auch einfach mal kommentarlos irgendwelche Links. Klar, wenn es darum geht, dass andere darauf angewiesen sind was ich so von mir gebe, dann würde ich mir vermutlich auch etwas mehr Mühe geben und auch was dazu schreiben. Aber durch die automatische Funktion wird das schon relativ gut abgedeckt. (E3, 00:13:21.01) Es ist nicht allen Teilnehmern aufgefallen, dass auch das letzte Änderungsdatum der Informationsressource automatisch erfasst wird, zwei der Teilnehmer haben dies allerdings als besonders hilfreich angesehen. Dies war natürlich auch bedingt durch die für die Evaluation ausgewählte Beispiel Webseite einer Webcam Sammlung und damit verbunden wie aktuell die dargestellten Bilder sind. Außerdem wurde die automatische Generierung eines Vorschaubildes gelobt, die sehr zur Übersichtlichkeit beiträgt. Nachteile an der Funktion wurden keine festgestellt. Trotz der automatischen Vervollständigung der Metadaten sei man ja noch in der Lage diese zu überprüfen und gegebenenfalls zu entfernen. Dies wurde auch von einem Teilnehmer durchgeführt, da ihm einzelne Stichworte nicht gefallen haben. Die zunächst vorhandenen Unkenntnis über die Funktionalität, die sich hinter dem Button „Informationen abrufen“ befand konnte nach dem Ausprobieren der Funktion in einen positiven Eindruck umgewandelt werden, da Sie eine solche Funktion als sehr hilfreich und arbeitserleichternd ansehen. Es wurde auch darauf hingewiesen, dass durch eine solche Funktionalität fehlerhafte Eingaben vermieden werden können. Insbesondere bei Ortsbezeichnungen könne dies schnell passieren, so ein Feuerwehrmann. Eine andere Teilnehmerin traf in diesem Zusammenhang eine ähnliche Aussage: 76 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Also es hat ja sowieso vieles von selbst gemacht, von daher konnte ich nicht viel verkehrt machen (E01, 00:35:04.27) 7.3.2 Informationsorganisation über Infomappen Sichtbarkeit des Systemzustandes Auch bei dieser Aufgabenstellung wurde ein Kritikpunkt am häufigsten genannt bzw. hat für Unklarheit gesorgt. Nachdem eine neue Infomappe angelegt wurde, war für alle Teilnehmer nicht ersichtlich in welchem Zustand sich das System gerade befindet. Dies äußerte sich so, dass es unklar gewesen ist, ob eine neue Infomappe angelegt wurde oder was genau nach dem Klick auf speichern der Infomappe passiert ist. Hier wurde sich gewünscht, dass man gerne eine Hilfestellung bekommen hätte, wie nun das weitere Vorgehen auszusehen hat. Darüberhinaus sind alle Teilnehmer davon ausgegangen, dass die Organisation der Informationen mithilfe der Infomappen für alle anderen Teilnehmer ebenfalls sichtbar sind. Das heißt dass die Infomappen die angelegt werden, auch bei allen anderen Benutzern auftauchen. Hier war gewünscht, entsprechende Einstellungen vornehmen zu können bzw. die Sichtbarkeit entsprechend deutlich zu machen. Benutzerkontrolle & Zufriedenheit Wurde der Informationspool nach dem Inhalt der Infomappe gefiltert, wurde ein weiteres häufig aufgetretenes Problem sichtbar. Vier der Teilnehmer wussten nicht, wie sie wieder zurück zur gesamten Ansicht kommen. Hier wurde sich eine deutliche Möglichkeit gewünscht, mit der man wieder die volle Ansicht herstellen kann. Beispielsweise über einen deutlichen zurück Button oder ähnliches. Beim Hinzufügen einer Information zu einer angelegten Infomappe wurde angemerkt, dass der Button für die Optionen zu klein dargestellt ist und das Icon des Zahnrads dafür gesorgt hat, dass sich nicht getraut wurde intuitiv darauf zu klicken. Das Untermenü, das beim fahren über „zu Mappe hinzufügen“ aufgegangen ist, wurde von drei Teilnehmern nicht sofort wahrgenommen. Um hier eine Verbesserung zu schaffen, wurde gewünscht, dies entsprechend anders farblich darzustellen bzw. deutlich zu machen, dass sich dort ein Untermenü befindet. 77 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Flexibilität & Effizienz Ein Benutzer hat sich eine effizientere Möglichkeit gewünscht mehrere Informationen mit einem Klick zu einer Infomappe zuzuordnen, beispielsweise über eine Möglichkeit mehrere Einträge zu markieren und diese gemeinsam hinzuzufügen. Fehlerprävention Ein Teilnehmer hatte bei der Aufgabenstellung eine Information aus der Infomappe zu entfernen versehentlich auf den Button zum Entfernen der gesamten Infomappe geklickt. Auf diesen Umstand sollte mit einem entsprechenden Dialog hingewiesen werden um etwaige Fehler zu vermeiden. Übereinstimmung zwischen System und der Realwelt Auf die Frage, ob es im Arbeitsalltag der jeweiligen Organisationen (Feuerwehr, Polizei, THW) ähnliche Praktiken gibt, wurde häufig der Ausbildungsprozess der jeweiligen Parteien genannt. In diesen Fällen existieren bei allen bestimmte Sammlungen an Informationen für bestimmte Kontexte. In der Regel ist dies allerdings nicht am PC verfügbar, sondern in physischen Ordnern/Schränken. Ein Teilnehmer (E05) äußerte dass er genau dieses Konzept der Infomappe in Form von Schnellheftern im Einsatzwagen abgelegt hat. Dort sind für ihn alle notwendigen Informationen wie Telefonnummern und Ansprechpartner festgehalten. Insbesondere in Situationen, die nicht alltäglich sind, sei dies sehr hilfreich. Dementsprechend eingängig und verständlich war der Begriff der Infomappe für alle Teilnehmer. Neben diesen Äußerungen zur Benutzerfreundlichkeit der Funktion, wurde eine solche Organisation der Informationen mithilfe von Infomappen als sehr hilfreich und nützlich empfunden. Also prinzipiell finde ich das sehr gut, weil man so etwas immer braucht - es ist oft vieles zu wenig sortiert. Wir haben auf der Arbeit zu viele Informationen, die auch zu wenig sortiert sind. Du hast da zwar dieses Intranet und da steht auch irgendwie alles drin, aber du findest es nicht. Und wenn du dann irgend ein Problem hast, das kann alles mögliche sein, von einer Bombendrohung bis zu "ich hab was gefunden, was mache ich damit" oder "da hinten läuft gerade Wasser runter" und dann weißt du aber manchmal nicht direkt wie vorzugehen 78 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. ist. Wenn du dann so etwas im Vorfeld am Computer angelegt hast, dann ist das schon eine super Sache (E01, 00:55:59.03). Allen Teilnehmern war sofort der Nutzen der Funktion ersichtlich. Es wurden auch neue Verwendungsmöglichkeiten entwickelt. So äußerte ein Teilnehmer (E05) dass eine solche Funktionalität sehr gut für die Ausbildung junger Feuerwehrleute verwendet werden kann, da die einzelnen Übungseinheiten häufig von verschiedenen Internetplattformen zusammengetragen werden aber nicht an einer Stelle festgehalten werden. In diesem Zusammenhang wurde auch in die Richtung gedacht, sich informieren zu können, wie andere Feuerwehren im Umkreis mit einzelnen Themen umgehen. Kritisch wurde die Funktion dahingehend betrachtet, dass die Bereitschaft zur Pflege eines solchen Systems nicht immer da sein könnte. In diesem Zusammenhang nannten drei Teilnehmer als Grund für die möglicherweise fehlende Motivation dass eine solche Arbeit nicht in ihre Hauptaufgaben im Beruf bzw. im Dienst fällt. Wenn sich dies ändern würde und täglich mit dem System gearbeitet werden müsste, dann wäre die Bereitschaft vermutlich eher vorhanden. Ja das ist immer so die Frage. Ich bin begeisterter Fahrradfahrer und dort gibt es die Open Source Karten, aber da habe ich auch selbst noch nichts reingepflegt. Das kommt aber auch sicherlich auf die Position drauf an in der ich Sitze. Also wenn ich das System viel nutzen würde, dann würde ich das auch aktuell halten. (E03, 00:25:16.19) 7.3.3 Informationsabruf unterstützt durch das Empfehlungssystem An der Usability der Empfehlungen hat sich keiner der Teilnehmer gestört oder Kritik geäußert. Es kam lediglich der Hinweis, dass bei der Darstellung der Empfehlungen nicht immer wieder die Gleichen auftauchen sollten, wenn man mit dem Navigationspfeil nach rechts oder links navigiert. Einige Teilnehmer haben dabei besonders die eingeblendeten Vorschaubilder gelobt. Auf diese Weise kann der Wiedererkennungswert einer Ressource, die möglicherweise bereits besucht wurde, gesteigert werden. 79 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Neben dem Empfehlungssystem wurden auch zu anderen Bereichen Anmerkungen gemacht, die durch den Prozess des Informationsabrufs deutlich wurden. So wurde zur Detailansicht einer Informationsressource häufig der Kritikpunkt geäußert, dass der Link zur eigentlichen Webseite sehr leicht übersehen werden kann und auch übersehen wurde. Hier wäre eine farbliche Abhebung wünschenswert. Darüberhinaus sollte in der Detailansicht der Informationsressource auch ein größeres Vorschaubild darstellbar sein, (beispielsweise durch einen klick zum vergrößern) da die bisherige Darstellung zu klein sei. Insgesamt haben vier der Teilnehmer das Empfehlungssystem während der Bewältigung der Aufgabe identifiziert und als solches wiedererkannt. Einer der Teilnehmer hatte die grafische Darstellung der Empfehlungen erst nach dem Erledigen aller Aufgaben wahrgenommen – bis dahin ist er davon ausgegangen, dass es sich dabei um eine Art Verlauf der bereits angeklickten Informationsressourcen handelte. Die Identifizierung als eine Art Empfehlungssystem wurde dadurch unterstützt, dass die Darstellung sehr stark an die vom Internetshop Amazon.de erinnert. So wurde auf die Frage was sich hinter diesem Bereich verbirgt oftmals auf Amazon verwiesen. Das sieht so ein bisschen aus wie bei Amazon "was haben die anderen Kunden gekauft" (E04, 00:32:58.17) Auffällig war, dass sobald die Teilnehmer das Empfehlungssystem entdeckt hatten, (was nicht immer im ersten Versuch geschehen ist) sie ab dann ausschließlich die Empfehlungen für die Aufgabenbewältigung verwendet haben. Keiner der Teilnehmer ist noch zurück zur Suchfunktion gegangen und hat das nächste Schlagwort eingegeben. Auf die Frage ob Sie nicht wieder zurück gehen würden um eine neue Suche zu starten kam bei allen Teilnehmern eine Antwort wie diese: Nein - ganz im Gegenteil. Ich wäre jetzt hier auf die Webseite navigiert und wenn ich da meine Informationen bekommen habe, gehe ich nicht wieder zurück und such was anderes, sondern schaue mir das hier unten, was mir das System vorgeschlagen hat, genauer an und finde sofort etwas was mich auch noch interessiert [...] Dadurch dass das System mir das vorschlägt ist das für mich eine Arbeitserleichterung und ich spare Zeit. (E02, 00:05:55.23) 80 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Zwei Teilnehmer sehen darin aber auch ein Risiko und geben zu Bedenken, dass man auf diese Weise möglicherweise andere wichtige Informationen übersehen kann und zu stark in eine Richtung gelenkt wird. Nur weil andere Benutzer die Information verwenden, heiße dies ja noch nicht sofort dass es auch die Besten verfügbaren Informationen sind. Auf die Frage ob man persönlich positiv oder negativ einem solchen Empfehlungssystem gegenüber eingestellt sei, gaben alle Teilnehmer zur Antwort dass sie ein solches System bereits genutzt haben und sie dies hauptsächlich mit positiven als mit negativen Erinnerungen assoziieren. Allerdings wurde an dieser Stelle häufig auf Amazon Bezug genommen – andere Anbieter wie Thalia.de seien an der Stelle viel schwächer. Im Gespräch wurde dabei auch deutlich, dass sobald die Empfehlungen gar nicht zutreffen, ein solches System auch Ärgernis hervorrufen kann. Es wurde häufig deutlich gemacht, dass die Einstellung einem solchen System gegenüber sehr stark von dessen Genauigkeit abhängt. Mit dem implementierten System waren allerdings alle Teilnehmer sehr zufrieden und würden es bei weiteren Verwendungen sofort gezielt ansteuern und für ihre Informationsrecherche nutzen. 81 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 8. Fazit und Ausblick Das Ziel dieser Arbeit war es, herauszufinden, wie eine Aufbereitung von Informationen im Krisenmanagement aussehen kann, um dem Benutzer die Informationen in entsprechend guter Qualität zur Verfügung zu stellen, die er in seiner Situation benötigt. Hierzu wurde zunächst dargestellt, welche Kriterien eine gute Informationsqualität ausmachen und wie man diese bei einer vorhandenen Information bewerten kann. Dazu wurden verschiedene Methoden und Mechanismen vorgestellt, die in der Wissenschaft und Praxis entwickelt und eingesetzt werden. Um die Frage nach der bedarfsgerechten Versorgung mit qualitativ hochwertigen Informationen zu beantworten, wurden die Erkenntnisse durch die vorangegangenen Literaturrecherche eingesetzt und ein Konzept im Rahmen des InfoStrom Projekts entwickelt. Der erste Teil des Konzepts beschäftigte sich mit der Fragestellung wie anzulegende Informationsressourcen so aufbereitet werden können, dass diese in möglichst hoher Qualität abgespeichert werden können. Dies kann nur gewährleistet werden, wenn Metadaten vorhanden sind, die es einem Entscheider erlauben eine Bewertung nach Kriterien wie Aktualität, Herkunft oder Genauigkeit vorzunehmen bzw. es überhaupt erst zu ermöglichen mithilfe von Suchfunktionen auf die benötigte Information zu stoßen. Im Rahmen der Literaturrecherche wurde auf das Problem hingewiesen, dass die Qualität manuell erfasste Metadaten immer vom Ersteller und dessen Kenntnisstand über die Notwendigkeit der selbigen abhängig ist (Greenberg, 2003). Dies hat sich auch in der Evaluation bestätigt. Hier hat sich gezeigt, dass das Bewusstsein zwar in manchen Fällen vorhanden ist, möglichst Präzise und umfangreiche Angaben zu treffen, die Umsetzung allerdings sehr gering und auf das nötigste Beschränkt ausfällt. Als Grund dafür wurde fehlende Kreativität, Unkenntnis über die eigentliche Informationsressource oder der Eindruck dass ein Stichwort bzw. ein sehr kurzer Beschreibungstext ausreicht genannt. Es wurde auch vermehrt darauf hingewiesen, dass insbesondere bei älteren Kollegen bei Feuerwehr oder Polizei möglichst viele Unterstützungsmöglichkeiten geschaffen werden müssen, da diese meist nur ein beschränktes Verständnis für die eingesetzte Technik besitzen. 82 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Eine solche Unterstützungsmöglichkeit wurde der evaluierten Lösung zur automatischen Vervollständigung der Informationsressource durchaus zugesprochen und als sehr hilfreich erachtet. An dieser Stelle ist auch darauf hinzuweisen, dass durch die automatische Erfassung von Metadaten auf Daten zugegriffen werden kann, die in der Regel nur mit Mühe manuell angelegt werden können. Hier wäre beispielsweise das automatisch generierte Vorschaubild oder die Überprüfung der letzten Änderung an der Informationsressource beispielhaft zu nennen. Neben den genannten Gründen, die für die implementierte Lösung sprechen, ist zu ergänzen, dass der Ersteller der hinzuzufügenden Kerninformation meist eine bessere Kenntnis über die Information hat und entsprechend besser in der Lage ist Aussagekräftige Metadaten zu hinterlegen, als derjenige der diese in den Informationspool aufnehmen möchte. Es ist allerdings zu beachten, dass eine solche automatische Erfassung auch nur dann gut arbeiten kann, wenn das zu erfassende Material auch in ausreichend guter Form vorliegt und der Verfasser entsprechend gut gearbeitet hat. Die während der Evaluation verwendete Beispielwebseite war entsprechend gut präpariert. Aber dadurch dass die Verfasser von Webinformationen ein Interesse daran haben, dass ihre Ressourcen auch durch Suchmaschinen gefunden werden können, ist zumindest eine gewisse Motivation vorhanden diese Metadaten gut zu pflegen. Hier sollte aber noch mehr auf die Einhaltung von Standards (beispielsweise bei der Formatierung von Datumsformaten oder der Schreibweise von Metatags) geachtet werden. Der zweite Teil des Konzepts umfasste die Erstellung einer Möglichkeit den Benutzer dabei zu unterstützen, auf die Informationen zuzugreifen, die er in seiner Situation benötigt. Um diese Aufgabe zu lösen, galt es herauszufinden, in welcher Situation welche Informationen relevant sind und diese Erkenntnisse dem System beizubringen. Diese Aufgabe automatisiert und intelligent mittels Analyse des benutzerspezifizierten Such- oder Klickverhaltens oder anderen Verfahren zu lösen, ist allerdings zu komplex und nicht Hauptgegenstand dieser Arbeit. Dementsprechend wurde eine 83 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Lösung angestrebt, mit der die Benutzer dem System selbst beibringen, welche Informationen in Beziehung zueinander stehen. Dies geschah durch den Aufbau der so genannten Infomappen, die dazu gedacht sind, Situationsspezifisch alle Informationen nicht nur nach dem Informationstyp zu filtern, sondern auch nach Einsatzkontext. Was eigentlich als notwendiges Mittel zum Zweck der Erstellung eines Empfehlungssystems implementiert wurde, zeigte sich in der Evaluation als wichtiges Sortierwerkzeug. Auf diese Weise wurden auch parallelen zu ähnlichen Informationssammlungen bei Polizei und Feuerwehr deutlich und der Bedarf zur Strukturierung nach Verwendungszweck. [...] deswegen finde ich das eine klasse Sache und trifft genau das was man im Alltag braucht. Das man für bestimmte Fälle sofort die Informationen findet (E01, 00:55:59.03) Dadurch dass das System auf diesem Weg im ständigen Prozess erlernen kann, welche Informationen in Verbindung zueinander stehen, war es möglich das Empfehlungssystem zu implementieren. Neben der Information darüber, welche Informationen häufig zusammen in Infomappen verwendet werden, ist es auch hilfreich zu wissen, von welcher Organisation derjenige ist, der die Infomappe angelegt hat. Dies soll dazu beitragen noch genauer abschätzen zu können in welchem Kontext die Information verwendet wird (Feuerwehr, Polizei, THW). Somit wird es ermöglicht, einzelne Informationsressourcen die in Beziehung zu der gerade betrachteten Ressource stehen, für die Verwendung zu empfehlen und somit dazu beizutragen dem Benutzer möglichst exakt die Informationen zur Verfügung zu stellen, die er in seiner Situation benötigt. In der Evaluation konnte dieser Effekt auch sehr gut beobachtet werden und wurde auch so von den Teilnehmern kommuniziert. Wenn das System einmal verwendet wurde, wurde es auch sofort der Suchfunktion vorgezogen. In der Konzeptionelle Vorüberlegung zur Implementierung des Empfehlungssystems (5.2.2) wurde erwähnt, dass es bei Suchfunktionen zu dem Problem kommen kann, dass Begriffe eingegeben werden, die aber nicht unter diesem Begriff angelegt wur84 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. den. Auch dieser Aspekt hat sich in der Evaluation wiedergespiegelt und wurde von einem Teilnehmer selbständig aufgegriffen und als positiv bewertet. Die Evaluation hat zwar gezeigt, dass ein solches Empfehlungssystem durchaus sehr gut dabei helfen kann, Informationen so zu präsentieren wie sie gerade benötigt werden. Allerdings wurde die Evaluation auch unter Laborbedingungen durchgeführt. Erst durch einen Betrieb mit echten Benutzern und einer größeren Anzahl an Infomappen lässt sich zeigen, inwiefern die Empfehlungen dann auch noch zutreffend sind. Für die Zukunft wäre es notwendig, die Empfehlungsmechanismen weiter auszubauen. Dadurch könnte noch exakter festgestellt werden, in welcher Situation sich der Benutzer gerade befindet und was sein Informationsbedarf ist um entsprechend passgenaue Informationen zu liefern. Außerdem sind in der Evaluation einige Schwierigkeiten mit der Bedienung der Infomappen aufgetreten. Diese Probleme sind vermehrt bei den älteren und nicht so technikversierten Teilnehmern aufgetreten, die jüngeren Teilnehmer bzw. die, die viel am Computer arbeiten hatten nur sehr geringe Probleme mit der Benutzung. Dennoch wäre es notwendig, das Bedienkonzept entsprechend anzupassen oder zu erweitern. Aufgrund der zeitlichen Frist der Arbeit konnte dies nicht mehr umgesetzt werden. Ausgehend von den Aussagen der Evaluationsteilnehmern bieten die implementierten Lösungen zur Bedarfsgerechten Informationsversorgung in Form eines Empfehlungssystems und einer automatischen Vervollständigung von Metadaten eine sehr gute Möglichkeit das Niveau der qualitativen Informationsversorgung positiv zu beeinflussen. 85 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Literaturverzeichnis 1. Agarwal & Yiliyasi (2010) – „Information Quality Challenges in Social Media“ 2. Alkharboush, Li (2010) – „A Decision Rule Method For Data Quality Assessment“, Web Intelligence and Intelligent Agent Technology (WI-IAT), 2010 IEE/WIC/ACM International Conference 3. C.W. Fisher (1999) – „An empirically based exploration oft the interaction of time constaints and experience levels on the data quality information factor in deciscion making“, University at Albany, Albany, NY 4. C.W. Fisher (2001) – „Criticality of data quality as exemplified in two disasters“, Information & Management 39 5. Card, Stuart (2008) – „The Human Computer Interaction Handbook“, Lawrence Erlbaum Assoc Inc, 2007 6. Chen Bee-Chung, Wang Xuanhui, Dasgupta Anirban, Yang Jie (2012) – „Vote Calibration in Community Question-Answering Systems“, Proceedings of the 35th internation ACM SIGIR conference on Research and development in information retieval 7. Chen, Pei-yu; Dhanasobhon, Samita; and Smith, Michael D., "All Reviews are Not Created Equal: The Disaggregate Impact of Reviews and Reviewers at Amazon.com" (2001). Heinz Research.Paper 55. 8. Chesney (2006) „An empirical examination of Wikipedia’s credibility“ http://firstmonday.org/article/view/1413/1331 9. Dunning, T., & Freedman, D.A. (2008) – „Modelling section iffects. In Outhwaite, W. & Turner S., Handbook of Social Science Methodology 10. Ebtisam Alabdulqader (2013) – „Visualizing Computer Ethics using Infographics“, Proceedings oft he 18th ACM conference in Innovation and technology in computer science education 11. Egger, Florian (2000) – „Trust Me, I’m an Online Vandor“: Towards a Model of Trust for ECommercse System Design, CHI 200: Interactive Papers 12. Eggler, Florian (2000) „Trust Me, I’m an Online Vendor: Twoards a Model of Trust for ECommerce System Design“, CHI 2000 13. Emerson, J. (2008) – „Visualizing Information for Advocacy – An Introduction to Information Design“ http://backspace.com/infodesign.pdf 14. Eppler, Martin (2006) – „Managing Information Quality Increasing the Value of Information in knowledge-insensive Products and Processes“, Springer 15. Fogg, BJ (2003) – „Prominence-Interpretation Theory: Explaining How People Assess Credibility Online“, CHI 2003: New Horizons, Short Talk: Trust, Security & Safety 86 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 16. Fogg, Tseng (1999) – „The Elements of Computer Credibility“, Proceedings of the SIGCHI conference of Human Factors in Computing Systems 17. Friberg, Prödel, Koch (2011) – „Information Quality Criteria and their iportance for Experts in Crisis Situations“ Proceedings oft he 8th International ISCRAM Conference – Lisabon, Portugal 18. Führing, P., Naumann, F. (2007) – „Emergent data quality annotation and visualization“. In Proceedings of the International Conference on Information Quality (IQ’07) 19. Gelman, I., A., & Barletta A., L. (2008) – „A quick and dirty website data quality indicator“, Proceedings oft he 2nd ACM workshop on Information credebility on the web 20. Gilles (2005) „Internet encyclopaedias go head to head“ http://www.nature.com/nature/journal/v438/n7070/full/438900a.html 21. Greenberg, Jane (2003) – „Metadata and the World Wide Web“ Encyclopedia of Library and Information Science 22. Hartmann, J., De Angeli, A., Sutcliffe, A. (2008) – „Framing the User Experience: Information Biases on Website Quality Judgement“. In the Proceedings of Computer Human Interaction (CHI 2008) 23. Hildebrand et al. (2011) – „Daten- und Informationsqualität“, Springer Fachmedien 24. Hitzler Pascal, Krötzsch Markus, Rudolph Sebastian, Sure York (2007) – „Semantic Web“, Springer 25. Hofinger (2003) – „Fehler und Fallen beim Entscheiden in kritischen Situationen“, Verlag für Polizeiwissenschaft http://online.wsj.com/news/articles/SB1038261936872356908 http://repository.cmu.edu/heinzworks/55 http://tech.fortune.cnn.com/2012/07/30/amazon-5/ 26. J.F. Yates, L.S. McDanie, E.S. Brown (1991) - „Probabilistic forecasts of stock prices and earnings; the hazards of nascent expertise“, Organizational Behavior and Human Deciscion Processes 27. Japs Anna Maria, Prödel Stephan (2009) – „Entscheidungsunterstützung durch Erweiterung der Informationsbasis mit situationsbezogenen Daten“ in „Kurzbeiträge zum Workshop IT Unterstützung von Rettungskräften“, Lübeck 28. Jay R. Galbraith (1974) – „Organization Design: An Information Processing View“, European Institute for Advanced Studies 29. Jiang, Lei (2010) – „Data Quality By Design: A Goal-oriented Approach“ 30. Kim, Moon (1997) – „Emotional Usability of Customer Interfaces“, Proceeding CHI EA `97 Extended Abstracts on Human Factors in Computing Systems 31. Kim, W., Choi, B-J., Hong, E-K., Kim, S-K and Lee, D. (2003) – „A Taxonomy of Dirty Data“, Data Mining and Knowledge Discovery, Kluwer Academic Publishers 32. Klahold (2009) – „Empfehlungssysteme – Grundlagen, Konzepte und Lösungen“ Vieweg + Teubner 87 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 33. Knight, Shirlee-ann Burn, Janice (2005) – „Developing a Framework for Assessing Information Quality on the World Wide Web“ 34. Ley, Pipek, Reuter, Wiedenhöfer (2012) – „Supporting Improvisation Work in InterOrganizational Crisis Management“, CHI 2012: Session: Performative Emergency Simulation 35. Lops, Gemmis, Semeraro (2011) – „Content-based Recommender Systems: State of the Art and Trends“ – Recommender Systems Handbook, Springer Science + Business Media 36. Lóscioa, Bernadette Farias, Batista, Maria C. M., Souza, Damires, Salgado, Ana Carlonia (2012) – Using Information Quality fort he Identification of Relevant Web Data Sources: A Proposal In Proceedings oft he 14th International Conference on Imformation Integration and Web-based Applications & Services 37. Madnick, Wang (2009) – „Overview and Framework for Data and Information Quality Research“, ACM Journal of Data and Information Quality, Vol. 1, No. 1 Article 2 38. Mangalindan (2012) – „Amazon’s recommendation secret“ 39. Manoj, Hubenko Baker (2007) – „Communication Challenges in Emergency Response“, Communication oft he ACM, Vol. 50, No. 3 40. McNee, Riedl, Konstan (2006) – „Making Recommendations Better: An Analytic Model for Human-Recommender Interaction“, CHI 2006 – Work-In-Progress 41. Mobis Pro Fact Sheet (2011) – http://www.simobit.de/documents/Fact_Sheet_Mobis_Pro_.pdf 42. Nielsen, Jakob (1995) „10 Usability Heuristics for User Interface Design“, http://www.nngroup.com/articles/ten-usability-heuristics/ 43. Onifade, O. F. W. & Akomolafe, O., P., (2011) - „A Fuzzy Search Model for Dealing with Retrieval Issues in some Classes of Dirty Data“, 44. Otterbacher J. (2009) – „Helpfulness in Online Communities: A Measure of Message Quality“ 45. Pirolli, Wollny, Suh (2009) „So You Know You’re Getting the Best Possible Information: A Tool that Increases Wikipedia Credibility“, Proceedings oft he SIGCHI Conference on Human Factors in Computing Systems, CHI 2009 – Studying Wikipedia 46. Rafael A. Gonzalez, Nitesh Bharosa (2009) – „A Framework Linking Information Quality Dimensions and Coordination Challenges during Interagency Crisis Response“, Proceedings oft he 42nd Hawaii International Conference on System Sciences 47. Redman, Thomas (1998) – „The Impact of Poor Data Quality on the Typical Enterprise“, Communication of the ACM, Vol. 41, No. 2 48. Redman, Thomas (2008) – „Data Warehouse and Quality: Not Just for IT Anymore“, A Navesink Consulting Group White Paper 49. Rhind, Graham (2007) – „Poor Quality Data – the pandemic problem that needs addressing“ http://www.grcdi.nl/PCAwhitepaper.pdf 50. Schwarz Julia, Morris Meredith Ringel (2011) – „Augmenting Web Pages and Search Results to Support Credibility Assessment“, CHI 2011: Session: Search & Information Seeking 51. Seitlinger, Ley (2012) „Implicit Imitation in Social Tagging: Familarity and Semantic Reconstruction“ CHI 2012: Session Future Design – Austin, Texas 88 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 52. Shneiderman, Ben (2000) – „Designing Trust into online Experiences“, Communication of the ACM December 2000 Vol. 43 No 12 53. Shneiderman, Ben (2005) – „Designing the User Interface: Strategies for Effective Human Computer Interaction“ 4. Addison-Wesley, 2004 54. Strack, Deutsch (2003) – „The Two Sides of Social Behavior: Modern Classic and Overlooked Gems in the Interplay of Automativ and Controlled Processes, Psychological Inquiry“ 55. Tergan, Keller (2005) – „Knowledge and Information Visualization – Searching or Synergies“ Springer 56. Tseng, Fogg (1999) – „Credibility and Computing Technology“, Communication of the ACM May 1999 Vol. 42 No 5 57. Wang, Strong (1996) – „Beyond Accuracy: What Data Quality Means to Data Consumers“, http://web.mit.edu/tdqm/www/papers/94/94-10.html 58. Watts, Shankaranarayanan, Even (2009) – „Data quality assessment in context: A cognitive perspective“ in Decision Support Systems 48 59. Weihua Huang, Chew Lim Tan (2007) – „A System for Unterstanding Imaged Infographics and Its Applications“, Proceedings of the 2007 ACM symposium on Document engineering 60. Wiedenhöfer et al. (2011) „Inter-Organizational Crisis Management Infrastructures for Electrical Power Breakdowns“, Proceedings of the 8th International ISCRAM Conference – Lisabon, Portugal, May 2011 61. Yamamoto, Tanaka (2011) – „Enhancing Credibility Judgment of Web Search Results“, CHI 2011: Session: Search & Information Seeking 62. Zaslow, Jeffrey (2002) „If TiVo Thinks You Are Gay, Here’s How to Set it Straight“ 89 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Anhang A: Definition der 15 IQ-Dimensionen Zugänglichkeit (accessibility): Informationen sind zugänglich, wenn sie anhand einfacher Verfahren und auf direktem Weg für den Anwender abrufbar sind. Angemessener Umfang (appropriate amount of data): Informationen sind von angemessenem Umfang, wenn die Menge der verrfügbaren Informationen den gestellten Anforderungen genügt. Glaubwürdigkeit (believability): Informationen sind Glaubwürdig, wenn Zertifikate einen hohen Qualitätsstandard ausweisen oder die Informationsgewinnung und –verbreitung mit hohem Aufwand betrieben werden. Vollständigkeit (completeness): Informationen sind vollständig, wenn sie nicht fehlen und zu den festgelegten Zeitpunkten in den jeweiligen Prozess-Schritten zur Verfügung stehen. Übersichtlichkeit (concise representation): Informationen sind übersichtlich, wenn genau die benötigten Informationen in einem passenden und leicht fassbaren Format dargestellt sind. Einheitliche Darstellung (consistent representation): Informationen sind einheitlich dargestellt, wenn die Informationen fortlaufend auf dieselbe Art und Weise abgebildet werden. Bearbeitbarkeit (ease of manipulation): Informationen sind leicht bearbeitbar, wenn sie leicht zu ändern und für unterschiedliche Zwecke zu verwenden sind. Fehlerfreiheit (free of error): Informationen sind fehlerfrei, wenn sie mit der Realität übereinstimmen. Eindeutige Auslesbarkeit (interpretability): 90 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Informationen sind eindeutig auslesbar, wenn sie in gleicher, fachlicher korrekter Art und Weise begriffen werden. Objektivität (objectivity): Informationen sind objektiv, wenn sie streng sachlich und wertfrei sind. Relevanz (relevancy): Informationen sind relevant, wenn sie für den Anwender notwendige Informationen liefern. Hohes Ansehen (reputation): Informationen sind hoch angesehen, wenn die Informationsquelle, das Transportmedium und das verarbeitenden System im Ruf einer hohen Vertrauenswürdigkeit und Kompetenz stehen. Aktualität (timeliness): Informationen sind aktuell, wenn sie die tatsächliche Eigenschaft des beschriebenen Objektes zeitnah abbilden. Verständlichkeit (understandability): Informationen sind verständlich, wenn sie unmittelbar von den Anwendern verstanden und für deren Zwecke eingesetzt werden können. Wertschöpfung (value-added): Informationen sind wertschöpfend, wenn ihre Nutzung zu einer quantifizierbaren Steigerung einer monetären Zielfunktion führen kann. 91 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Anhang B: Gängige Definitionen des Begriffs der Informationsqualität 1. „Information quality can be defined as informationthat is fit for use by information consumers“ (Huang, Lee, Wang, 1999) 2. „Information quality ist he characteristic of information to meet or exceed customer expectations“ (Kahn & String, 1998) 3. „Quality information is information that meets specifications or requirements“ (Kahn & Strong, 1998) 4. „Information quality is the characteristic of information to be of high value to its users“ (Lesca & Lesca, 1995) 5. “The degree to which information has content, form, and time characteristics which give it value to specific end users” (Brien, 1991) 6. “Quality of information can be defined as a difference between the required information determined by a goal and the obtained information. In an ideal situation there will be no difference between the required and obtained information. A qualitative measure for information qual- ity is expressed by the following tendency: the smaller this difference, the greater the quality of information” (Gerkes, 1997). 92 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Anhang C: Infografik http://blog.qmee.com/qmee-online-in-60-seconds/ 93 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Anhang D: Analysemodelle zur Bestimmung der Informationsqualität (Eppler, 2006) 94 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Anhang E: Kompromisse zwischen einzelnen IQ-Kriterien (Eppler, 2006) 95 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 96 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Anhang F: Beispiel Framing Effekt Stellen Sie sich vor, die USA bereiten sich auf den Ausbruch einer ungewöhnlichen asiatischen Grippeepidemie vor, an der 600 Personen sterben werden. Um die Epidemie zu bekämpfen, wurden zwei alternative Maßnahmen vorgeschlagen. Gehen Sie davon aus, dass die exakte wissenschaftliche Schätzung der Wirkung der Maßnahmen wie folgt ist: A) 200 Personen werden gerettet B) 1/3 Wahrscheinlichkeit, dass 600 Personen gerettet werden, allerdings 2/3 Wahrscheinlichkeit dass keine Person gerettet wird Einer zweiten Gruppe befragter Personen wurde folgende Entscheidungsmöglichkeit vorgelegt: C) 400 Personen werden sterben D) 1/3 Wahrscheinlichkeit dass niemand stirbt, allerdings 2/3 Wahrscheinlichkeit, dass 600 Personen sterben Umfrageergebnis: Situation 1: 72% wählen Maßnahme A 28% wählen Maßnahme B Situation 2: 22% wählen Maßnahme C 78% wählen Maßnahme D Diekmann, A. (1995): Empirische Sozialforschung – Grundlagen, Methoden, Anwendungen, Rowohlt 97 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Anhang G: IM-Activities & IQ-Dimensions Framework 98 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Anhang H: Gewichtung der IQ-Kriterien im Krisenmanagement (Friberg) 99 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Anhang I: Fehlende Daten 100 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Anhang J: Zusammenfassung möglicher Verbesserungspotentiale 101 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Anhang K: Evaluationsleitfaden (siehe CD) Anhang L: Transkripte der Interviews (siehe CD) Anhang M: Quellcode (siehe CD) 102