Steigerung der bedarfsgerechten Informationsversorgung durch

Werbung
Fakultät III Wirtschaftswissenschaften,
Wirtschaftsinformatik und Wirtschaftsrecht
Professur für Computerunterstützte Gruppenarbeit und Soziale Medien
Prof. Dr. Volkmar Pipek
Steigerung der bedarfsgerechten Informationsversorgung
durch Verfahren zur Bewertung von Informationsqualität
am Beispiel des interorganisationalen Krisenmanagements
Bachelorarbeit
Autor:
Sebastian Römer
Matrikelnummer: 901028
Studiengang:
Bachelor Wirtschaftsinformatik PO 2007/2008
Betreuer:
Benedikt Ley & Torben Wiedenhöfer
Erstprüfer:
Prof. Dr. Volkmar Pipek
Zweitprüfer:
Prof. Dr. Gunnar Stevens
Eingereicht am:
05.06.2014
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Kapitel 1-4
Projektseminar
Kapitel 5-8
Bachelorarbeit
2
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Eidesstattliche Erklärung
Hiermit versichere ich, dass ich die vorliegende Arbeit selbstständig verfasst und keine anderen, als die angegebenen Quellen und Hilfsmittel benutzt habe, insbesondere keine anderen als die angegebenen Informationen aus dem Internet.
Diejenigen Paragraphen der für mich gültigen Prüfungsordnung, welche etwaige Betrugsversuche betreffen, habe ich zur Kenntnis genommen.
Der Speicherung meiner Bachelorarbeit zum Zweck der Plagiatsprüfung stimme ich
zu.
Ich versichere, dass die elektronische Version mit der gedruckten Version inhaltlich
übereinstimmt.
(Ort, Datum)
(Unterschrift des Verfassers)
3
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Inhaltsverzeichnis
Eidesstattliche Erklärung......................................................................................... 3
Inhaltsverzeichnis .................................................................................................... 4
Abbildungsverzeichnis ............................................................................................ 7
1. Einleitung ............................................................................................................ 8
1.1
Motivation ...................................................................................................... 8
1.2
Fragestellung ................................................................................................. 9
2. Grundlagen und Stand der Forschung .......................................................... 10
2.1
Informationsqualität...................................................................................... 10
2.2
Informationsqualität in der HCI Forschung ................................................... 13
2.3
Informationsvisualisierung ........................................................................... 19
2.4
Analysemodelle zur Messung der Informationsqualität ................................ 22
2.5
Komplexe Situationen im Krisenmanagement ............................................. 28
3. Methoden und Mechanismen zur Bewertung von Informationen ................ 31
3.1
Methoden und Mechanismen zur Bewertung der IQ: ................................... 32
von Webinformationen ................................................................................. 32
3.2
Methoden und Mechanismen zur Bewertung der IQ: ................................... 38
von sozialen Systemen ................................................................................ 38
3.2.1 Bewertungssysteme .............................................................................. 38
3.2.2 Schwierigkeiten bei der Auswertung & Bewertung ................................ 40
3.2.3 Empfehlungssysteme ............................................................................ 42
3.3
Methoden und Mechanismen zur Bewertung der IQ: ................................... 43
im Krisenmanagement ................................................................................. 43
3.3.1 Forschungsprojekt Infostrom der Universität Siegen............................. 46
4. Informationsqualität auf Datenebene ............................................................. 48
4
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
4.1
Fehlerbehaftete Datensätze ......................................................................... 48
4.2
Ansätze und Methoden zur Verbesserung von Datenqualität ...................... 50
5. Konzept ............................................................................................................. 53
5.1
Konzeptionelle Vorüberlegungen ................................................................. 53
5.2
Darstellung potentieller Verbesserungsmöglichkeiten ................................. 54
5.2.1 Zusammenfassen von Informationsressourcen..................................... 54
5.2.2 Empfehlungssystem für potentiell relevante Informationen ................... 56
5.2.3 Vervollständigen der Metainformationen ............................................... 58
5.2.4 Festhalten des Inhalts einer Informationsressource .............................. 60
5.2.5 Bewertung von Informationsressourcen ................................................ 61
6. Implementierung .............................................................................................. 61
6.1 Social Networking Engine Elgg ....................................................................... 62
6.2
Technischer Aufbau des bestehenden Plug-Ins .......................................... 63
6.3
Modifizierung des Informationspools............................................................ 64
6.3.1 Informationsverwaltung und Organisation ............................................. 64
6.3.2 Empfehlungssystem für Informationsressourcen .................................. 67
6.3.3 Schnittstelle zur Vervollständigung der Metadaten ............................... 68
7. Evaluation ......................................................................................................... 71
7.1 Aufbau und Methodik ...................................................................................... 72
7.2
Limitationen der Evaluation .......................................................................... 73
7.3
Ergebnisse ................................................................................................... 74
7.3.1 Vervollständigung der Metadaten bei der Erstellung einer
Informationsressource.................................................................................... 74
7.3.2 Informationsorganisation über Infomappen ........................................... 77
7.3.3 Informationsabruf unterstützt durch das Empfehlungssystem ............... 79
8. Fazit und Ausblick ........................................................................................... 82
Literaturverzeichnis................................................................................................ 86
5
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Anhang A: Definition der 15 IQ-Dimensionen ...................................................... 90
Anhang B: Gängige Definitionen des Begriffs der Informationsqualität ........... 92
Anhang C: Infografik .............................................................................................. 93
Anhang D: Analysemodelle zur Bestimmung der Informationsqualität (Eppler,
2006) ........................................................................................................................ 94
Anhang E: Kompromisse zwischen einzelnen IQ-Kriterien (Eppler, 2006)........ 95
Anhang F: Beispiel Framing Effekt ....................................................................... 97
Anhang G: IM-Activities & IQ-Dimensions Framework ....................................... 98
Anhang H: Gewichtung der IQ-Kriterien im Krisenmanagement (Friberg) ........ 99
Anhang I: Fehlende Daten ................................................................................... 100
Anhang J: Zusammenfassung möglicher Verbesserungspotentiale ............... 101
Anhang K: Evaluationsleitfaden (siehe CD) ....................................................... 102
Anhang L: Transkripte der Interviews (siehe CD) .............................................. 102
Anhang M: Quellcode (siehe CD) ........................................................................ 102
6
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Abbildungsverzeichnis
Abbildung 1:15 Dimensionen der Informationsqualität ............................................. 11
Abbildung 2: MoTEC Model (Egger, 2000) ............................................................... 16
Abbildung 3: 4 Fehlerarten bei der Einstufung von Glaubwürdigkeit ........................ 18
Abbildung 4: Informationsmanagement der Informationsqualität [Eppler, 2006]....... 24
Abbildung 5: Informationszyklus [Eppler, 2006] ........................................................ 25
Abbildung 6: IQIP Modell .......................................................................................... 34
Abbildung 7: Visualisierung der Suchergebnisse nach Yamamoto & Tanaka .......... 36
Abbildung 8: Visualisierung der Suchergebnisse nach Schwarz & Morris ................ 37
Abbildung 9: Bewertung eines Datenbestands nach dem Kriterium der "Reliability" 40
Abbildung 10: Auswahl der Infomappe ..................................................................... 55
Abbildung 11: Informationsdetails mit Empfehlung ................................................... 58
Abbildung 12: Detailansicht Informationsressource mit Status der Ressource ......... 59
Abbildung 13: Detailansicht Informationsressource mit Vorschaubild ...................... 60
Abbildung 14: Information zu Mappe hinzufügen oder entfernen ............................. 66
Abbildung 15: Infomappen von anderen Benutzern anzeigen & übernehmen .......... 66
Abbildung 16: Exemplarische Darstellung einer Antwort der API zur Anreicherung
der Metadaten ................................................................................... 70
Abbildung 17: Evaluationsteilnehmer ....................................................................... 73
7
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
1. Einleitung
1.1. Motivation
Durch den stetigen Einsatz von modernen Medien und deren Weiterentwicklung hat
sich die heutige Gesellschaft immer mehr zur so genannten Informationsgesellschaft
entwickelt. Eine Fülle von Informationsmöglichkeiten ergibt sich und wächst rasant.
Viele Kernbereiche unserer Gesellschaft wie Wirtschaft und soziale Interaktionen
passen sich immer mehr dieser Entwicklung an.
In der Vergangenheit wurden gewonnene Daten oder Informationen nicht als ein
Produkt angesehen, das bewusst produziert wurde und für einen Mehrwert sorgen
könnte (Madnick & Wang, 2009). Dies hat sich mittlerweile verändert. Für Firmen, die
wirtschaftlich erfolgreich sein möchten, ist es heute so wichtig wie noch nie zuvor,
immer die richtige Information in der richtigen Form zur richtigen Zeit zur Verfügung
zu haben um für zukünftige Veränderungen gewappnet zu sein. Aber auch im sozialen Umfeld spielt der Informationsaustausch eine große Rolle. Durch Facebook und
Twitter ist der Informationsaustausch unter Freunden und Bekannten enorm angestiegen. Jeder kann erfahren, was wer wann und wo gemacht hat.
Dass diese Flut an Informationen nicht immer auch relevante Inhalte vermittelt, zeigt
sich insbesondere durch die enorme Verbreitung von Spam. Es liegt nahe, dass sich
viele Menschen durch diese Fülle an Informationen überfordert fühlen und Hilfe benötigen, um die für sich relevanten Informationen sichtbar zu machen oder wiederzufinden. Wenn eine Information abgerufen wurde, muss diese Information bewertet
werden. Dies geschieht häufig durch das subjektive Empfinden und nicht durch besondere Qualitätsmerkmale, da diese häufig nicht oder nur wenig vorhanden sind.
8
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Im privaten Bereich mag diese Problematik der Bewertung einer Information vielleicht
nicht direkt tiefgreifende Auswirkungen haben. Im wirtschaftlichen Bereich sieht dies
allerdings anders aus, da sich die Qualität einer Information dort möglicherweise direkt auf ein Produkt auswirkt und damit auch auf den Umsatz und die wirtschaftliche
Lage des Unternehmens.
Allerdings gibt es auch Domänen, in denen die Qualität einer Information Auswirkungen auf die Gesundheit oder sogar das Leben eines Menschen hat. Im Krisenmanagement ist dies beispielsweise der Fall.
Hier gilt es, möglichst schnell nach dem Eintreten einer Krisensituation die notwendigen, vertrauenswürdigen Informationen vorrätig zu haben, um die notwendigen
Schritte zur Rettung einzuleiten. Da sich innerhalb von Krisensituationen wie Überschwemmungen oder Waldbränden die Situationslage sehr schnell sehr radikal ändern kann, ist es eine große Herausforderung, diese Situationslage mittels zuverlässigen Informationen für die leitenden Einsatzkräfte möglichst genau und schnell
nachzubilden.
Im Folgenden soll es insbesondere um die Betrachtung dieser Disziplin und ihre besonderen Herausforderungen gehen.
1.2. Fragestellung
Durch die in 1.1 dargestellte Situationsbeschreibung ergibt sich nun folgende Fragestellung, der in dieser Arbeit nachgegangen werden soll:

Wie lassen sich Informationen so aufbereiten, dass sie bedarfsgerecht zur
Verfügung stehen und so einen Mehrwert bei der Entscheidungsfindung im
Krisenmanagement bieten?
Um diese Fragestellung beantworten zu können, muss zunächst geklärt werden:

Welche Qualitätskriterien, Bewertungs- und Aufbereitungsmöglichkeiten existieren im Zusammenhang mit Informationen und wie werden diese eingesetzt?
9
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
2. Grundlagen und Stand der Forschung
Mithilfe der definierten Grundlagen in diesem Abschnitt soll der aktuelle Forschungsstand dargestellt und erläutert werden, auf besondere Problemstellungen der Domäne eingegangen und darüber hinaus auf übertragbare Erkenntnisse im Bereich Informationsqualität hingewiesen werden.
2.1 Informationsqualität
Bei der Definition von Qualität geht es in der Regel darum, dass ein Produkt oder
eine Dienstleistung bestimmte Erwartungen und Bedürfnisse erfüllen muss. Diese
Erwartungen haben eine subjektive und eine objektive Komponente. (Eppler, 2006)
Das heißt, dass es sowohl definierte Kriterien gibt, anhand derer man die Qualität
messen kann als auch empfundene, subjektive Kriterien, die erst bei der Betrachtung
des Kontexts an Relevanz gewinnen.
Bevor man die Qualität einer Information bewerten kann, soll an dieser Stelle zwischen den Begriffen Informationen, Daten und Wissen unterschieden werden. Rohe,
unverbundene Gegenstände werden als Daten angesehen, während eine Information versucht, Fragen, Aussagen oder Antworten über eine Situation oder einen Fakt
zu geben. Aus Daten können Informationen werden, wenn sie in Verbindung mit anderen Daten gebracht werden und so eine zusammenhängende Aussage getroffen
werden kann. Werden diese zusammenhängenden Informationen von einem Empfänger verinnerlicht und gespeichert, spricht man von Wissen (Eppler, 2006).
Laut Wang & Strong lässt sich eine Information objektiv anhand von 15 Dimensionen/Kriterien bewerten. Auf Abbildung 1 sind diese 15 InformationsqualitätsDimensionen von der Deutschen Gesellschaft für Informations- und Datenqualität1
1
http://www.dgiq.de/
10
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
ins Deutsche übertragen worden, um eine einheitliche Verwendung der Begrifflichkeiten im deutschen Sprachraum vorzuschlagen. Natürlich ist es möglich, die Kriterien
noch spezieller zu definieren, so dass man auf eine mögliche Anzahl von rund 70
Dimensionen kommt. Dabei gibt es allerdings häufig Überschneidungen oder besondere Kriterien, die nur auf spezielle Anwendungsfälle anzuwenden sind.
Auf das Modell zur Bewertung von Informationsqualität von Richard Y. Wang & Diane M. Strong (Wang, Strong, 1996) wird in der Fachliteratur am häufigsten Bezug
genommen und dieses hat sich in der Vergangenheit weitestgehend durchgesetzt.
Aufbauend auf diesem Modell wird in Kapitel 2.4 ein weiteres Modell vorgestellt, welches dieser Arbeit (zumindest in Teilen) als Grundlage definiert werden soll.
Abbildung 1: 15 Dimensionen der Informationsqualität
Neben der Definition dieser 15 IQ-Dimensionen wurde auch eine Kategorisierung
und Gruppierung der Dimensionen vorgenommen. Für die Bewertung einer Information bedeutet dies, dass man verschiedene Facetten einer Information genauer untersuchen muss. Für die Dimensionen Zugänglichkeit und Bearbeitbarkeit muss dafür
11
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
beispielsweise das datenverarbeitende System und deren Benutzeroberfläche genauer betrachtet und analysiert werden.
Durch diese Gliederung wird versucht, eine Information aus verschiedenen Perspektiven zu betrachten. Will man eine Information auf ihre Glaubwürdigkeit überprüfen,
dann muss der Inhalt der Information überprüft werden und nicht die Darstellung, wie
der Inhalt optisch aufbereitet wurde – dies wiederum ist notwendig, wenn man zu
einer Bewertung der Übersichtlichkeit einer Information kommen möchte.
In Anhang A befindet sich eine kurze Erklärung zu allen genannten Dimensionen und
was unter jedem einzelnen Begriff zu verstehen ist (Hildebrand et al., 2011).
Wie anfangs beschrieben werden nicht nur objektive Kriterien zur Bestimmung der
Informationsqualität benötigt, sondern auch subjektive Faktoren spielen eine Rolle.
Um erfolgreich mit den vorgestellten IQ-Dimensionen arbeiten zu können, muss auch
diese Seite betrachtet werden. Genauer gesagt bedeutet dies, dass die Qualität einer Information sehr stark von dem Kontext abhängt, in der sie verwendet werden
soll. Dementsprechend muss ein Anforderungskatalog des Anwenders der Information aufgestellt werden, um zu erfassen, für welchen Anwendungsfall die Information
benötigt wird. Beispielsweise ohne die Definition, an welchem Ort (und dessen entsprechende Amtssprache) ein Informationstext dargestellt werden soll, ist der Inhalt
der Information möglicherweise für den Großteil der Zielgruppe wertlos. In der Regel
kann nicht ohne weiteres eine Information aus einem Kontext in einen anderen übertragen werden, da die Erwartungen an die Information dort vielleicht viel tiefergehend
sind, als sie bei der ursprünglichen Erhebung gewesen sind.
In den vergangenen Jahren wurde das Thema der Informationsqualität vielfach untersucht und behandelt. Dementsprechend vielfältige Definitionen haben sich in der
Fachliteratur ergeben. Für meine Arbeit möchte ich die Definition von Eppler zur Informationsqualität zu Grunde legen:
„Information quality is the characteristic of information to meet the functional,
technical, cognitive, and aesthetic requirements of information producers, administrators, consumers, and experts“ (Eppler, 1999)
12
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
In Anhang B sind weitere gängige Definitionen aufgeführt.
2.2 Informationsqualität in der HCI Forschung
Während die allgemeine IQ-Forschung sich sehr stark mit der Entwicklung von Algorithmen und der genauen Kategorisierung von Informationen beschäftigt und dementsprechend stark auch auf die Optimierung von Datenbanken und deren Abfragenmethodik eingeht (Jiang 2010; Alkharboush, Li 2010) stellt die Forschung in dem
Bereich der „Human-Computer-Interaction“ andere Fragen.
Hier geht es vielmehr darum, herauszufinden, wann bereitgestellte Informationen von
Computern für den Menschen als glaubwürdig angesehen oder Computersysteme
generell als glaubwürdig eingestuft werden. Glaubwürdigkeit ist in der allgemeinen
IQ-Forschung eine Dimension bzw. ein Kriterium unter vielen, das bei der Bestimmung der Informationsqualität untersucht wird – bei der Interaktion zwischen Mensch
und Computer steht dieser Aspekt allerdings im Fokus (Fogg & Tseng, 1999).
In manchen Fällen steht hier die eigentliche Information und deren Bewertung sogar
erst einmal im Hintergrund und es geht vielmehr um das Gerät, Programm oder System, das die Information repräsentiert. Es reicht z.B. nicht mehr aus, nur eine funktionierende Webseite zu erstellen, sondern sie muss auch Glaubwürdigkeit vermitteln
(Fogg, 2003), und um dies bei einem Menschen zu erreichen, müssen verschiedene
Faktoren berücksichtigt werden. Fogg & Tseng (1999) haben in ihrer Arbeit herausgestellt, dass die Glaubwürdigkeit von Menschen gegenüber Computerprogrammen
hauptsächlich durch das Kriterium der empfundenen Zuverlässigkeit und der empfundenen Kompetenz beeinflusst werden:
„highly credible computer products will be perceived to have high levels of
both trustworthiness and expertise“ (Fogg & Tseng, 1999)
13
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Glaubwürdigkeit ist demnach ein empfundenes Qualitätskriterium und lässt sich nicht
an einem Objekt, einer Person oder einem Datum festmachen, sondern verlangt
vielmehr eine Kombination aus allem.
Nach der Definition von Fogg & Tseng (1999) spielen die zwei Faktoren Zuverlässigkeit und Kompetenz/Sachkenntnis bei der Gesamtbewertung der Glaubwürdigkeit
einer Sache eine große Rolle. Zur Bestimmung wie zuverlässig eine Quelle ist, gilt es
zu überprüfen, ob diese etwas Gutes beabsichtigt, ehrlich und unvoreingenommen
ist. Man könnte auch sagen, dass die Quelle nach einer von sittlichen Normen und
Werten geprägten Gesinnung handeln muss [ethos]. Der andere Faktor, der Einfluss
auf die Bestimmung der Glaubwürdigkeit hat, ist die Kompetenz oder die Sachkenntnis. Das heißt, dass eine Quelle, deren Glaubwürdigkeit bestimmt wird, sich daran
messen lassen muss, wie viel Erfahrung und Wissen diese auf dem entsprechenden
Gebiet mit sich bringt. Entsprechend dem Erfüllungsgrad dieser beiden Faktoren
steigt oder fällt die Glaubwürdigkeit gegenüber einer Quelle.
Fogg & Tseng (1999) stellen 6 verschiedene Domänen auf, in denen die Glaubwürdigkeit von Computern beleuchtet wird. Auf diese Weise soll herausgefunden werden, was bei der Interaktion zwischen Mensch und Computer dazu beiträgt, dass der
Mensch den Informationen des Computers vertraut und demnach die empfundene
Glaubwürdigkeit steigt.
Zunächst wird auf generelle Computermythen eingegangen, die beispielsweise besagen, dass viele Menschen Computern (computergenerierten Informationen) automatisch eine höhere Glaubwürdigkeit anrechnen als ihren Mitmenschen. Empirische
Forschungen können diesen Mythos allerdings nicht bestätigen, sondern beweisen
eher das Gegenteil. In manchen Fällen wird Computern sogar eine geringere Glaubwürdigkeit zugesprochen.
Die Dimension der Glaubwürdigkeit ist sehr dynamisch und kann starken Schwankungen unterlegen sein. Sie wird beispielsweise erhöht, wenn Informationen bereitgestellt werden, die der Benutzer als korrekt auffasst. Werden allerdings fehlerhafte
oder falsche Informationen ausgegeben, dann leidet automatisch die Glaubwürdigkeit des gesamten Systems – egal wie groß oder klein der Fehler in der Information
14
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
gewesen ist. Inwiefern diese Fehlerrate Einfluss auf die Glaubwürdigkeit, hat ist allerdings abhängig vom Kontext. Beispielsweise ist die empfundene Fehlertoleranz
bei einem Navigationssystem bedeutend höher als bei einem Bankautomaten.
Damit Benutzer einem System wieder mehr Vertrauen entgegen bringen, muss es
über einen längeren Zeitraum fehlerfreie Informationen geliefert haben oder aber das
System liefert immer den gleichen Fehler, so kann der Benutzer lernen, damit umzugehen und versuchen, den Fehler zu umgehen oder direkt zu korrigieren.
Der Kontext in dem ein Computersystem eingesetzt wird, spielt ebenfalls eine Rolle
für den Grad der Glaubwürdigkeit. Beispielsweise vertrauen Menschen dem System
eher, wenn sie in einer ungewohnten/unbekannten Situation sind, es bisher nicht gelungen ist, ein Problem ohne fremde Hilfe zu lösen oder aber wenn das Bedürfnis
nach einer bestimmten Information sehr hoch ist. In diesen Fällen steigt ebenfalls
das Vertrauen in eine computergenerierte Information. Beispielsweise wird einem
Navigationssystem in einer unbekannten Umgebung mehr Vertrauen entgegen gebracht als in einer bekannten.
Fogg & Tseng (1999) stellen in ihrer Arbeit heraus, dass es auch am Kenntnisstand
des Benutzers über das Computersystem liegt, bis zu welchem Maße sie dem System Vertrauen entgegen bringen. Allerdings gibt es in diesem Gebiet unterschiedliche Forschungsergebnisse. Studien haben sowohl gezeigt, dass Computerexperten
einer computergenerierten Information mehr vertrauen, als auch das genaue Gegenteil. In beiden Fällen liegt der Grund darin, dass die Benutzer verstanden haben, wie
der Computer arbeitet – jedoch ziehen sie daraus unterschiedliche Schlüsse. „Weil
ich weiß, wie der Computer oder das Programm arbeitet, vertraue ich ihm“ bzw. „Weil
ich weiß, wie der Computer oder das Programm arbeitet, vertraue ich ihm nicht“.
Eine der 4 Kategorien von IQ-Dimensionen behandelt die Darstellung von Informationen. Auch in der HCI wurde die Auswirkung von grafischen Interfaces auf die Vertrauenswürdigkeit einer Webseite untersucht. (Kim, Moon 1997) Dabei stellte man
fest, dass beispielsweise kältere Farbtöne die Vertrauenswürdigkeit eines Systems
15
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
erhöhen können. Hier kann es in unterschiedlichen Kulturgruppen allerdings zu Abweichungen kommen.
Als letzte der angesprochenen 6 Domänen zur Glaubwürdigkeit von Computern wurde versucht, das, was in einer Mensch-zu-Mensch Beziehung für Glaubwürdigkeit
sorgt, auf die Mensch-Computer Beziehung zu übertragen. Beispielsweise wurde
herausgefunden, dass Menschen der Gruppe, in der sie Arbeiten verrichten, mehr
vertrauen, als Menschen aus einer fremden oder unbekannten Gruppe. Dementsprechend vertrauen diese Menschen auch den Systemen ihrer Gruppe mehr, als denen
einer fremden Gruppe. Außerdem lies sich feststellen, dass Menschen nicht nur
menschlichen ausgezeichneten Spezialisten (Professoren, Doktoren etc.) ein höheres Vertrauen entgegen bringen, sondern auch Computern, die als „Spezialist“ (deren Verwendung auf einen Anwendungsfall spezialisiert wurde) ausgezeichnet wurden, beispielsweise über bestimmte Siegel oder Zertifikate.
Abbildung 2: MoTEC Model (Egger, 2000)
Im Bereich E-Commerce ist es besonders wichtig, dass bei der Interaktion zwischen
Menschen und Computer (und damit auch zwischen Kunde und Händler) ein Vertrauensverhältnis besteht. Erst wenn dies erreicht ist, wird der potentielle Kunde auch
einen Einkauf tätigen (Egger, 2000). Um dies zu erreichen sind laut MoTEC Modell
16
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
(Modell of trust for electronic commerce) drei Komponenten notwendig, die es zu
identifizieren und adressieren gilt. Der potentielle Käufer verfügt häufig über ein Vorwissen bzw. eine Meinung über den Händler, bevor er überhaupt mit dessen System
in Berührung kommt. Diese kann er sich durch den Ruf des Unternehmens oder vorherige Erfahrungen gebildet haben. Die zweite Komponente betrifft das Userinterface
– dabei wird insbesondere die Usability und der erste Eindruck, den das System auf
den Benutzer macht, angesprochen. Der dritte Aspekt, der im „Business to Customer“ Vertrauensverhältnis eine Rolle spielt, ist der Inhalt, der durch den Händler auf
seiner Webseite bereitgestellt wird. Hier werden weitere drei Unterpunkte unterschieden:
-
Wie hoch ist das finanzielle Risiko und welche Garantien werden vom Händler
ausgesprochen?
-
Wie transparent ist das Geschäft des Händlers? (Eindeutige Geschäftsbedingungen und Datenschutzerklärungen)
-
Wie sieht die Interaktion zwischen Käufer (Cooperation) und Verkäufer aus?
Hier kann das einbeziehen von dritten sehr hilfreich sein. Beispielsweise können Zertifikate, Siegel oder externe Testberichte zur Transparenz, aber auch zur Interaktion
zwischen Käufer und Verkäufer beitragen.
Bei der Einordnung eines Produktes oder einer Information in ihre Glaubwürdigkeit
können verschiedene Formen von Fehlern auftreten. In Abbildung 3 sind die vier typischerweise gemachten Fehler aufgeführt. Es ist möglich, dass ein Produkt oder
eine Information vom Benutzer als vertrauenswürdig eingestuft wird, diese aber in
Wahrheit nicht vertrauenswürdig ist. In diesem Fall spricht man vom „Gullibility Error“.
Ein typisches Beispiel hierfür sind so genannte Phishing Webseiten, die sich als seriöse Webseiten ausgeben, in Wahrheit allerdings zum gezielten Betrug veröffentlicht
wurden. Um dieser Form der Fehleinschätzung von Glaubwürdigkeit entgegenzutreten müssen die Benutzer geschult werden, um mögliche Hinweise zu erkennen. Der
andere am häufigsten begangene Fehler tritt auf, wenn ein Benutzer eine Information
oder ein Produkt als nicht vertrauenswürdig einstuft, es sich allerdings um eine vertrauenswürdige Information handelt. In diesem Fall sind die Designer des Systems in
17
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
der Verantwortung, das Auftreten dieser Fehlerform zu reduzieren und das System
entsprechend anders zu gestalten.
Abbildung 3: 4 Fehlerarten bei der Einstufung von Glaubwürdigkeit
[Tseng & Fogg, 1999]
Ben Shneiderman (2000) hat ebenfalls einige Leitlinien veröffentlicht, anhand derer
man sich bei der Gestaltung von vertrauenswürdigen Computersystemen orientieren
kann. Einige der Richtlinien ähneln den Erkenntnissen von Fogg & Tseng (1999),
allerdings sind Shneidermans Leitlinien hauptsächlich auf Online-Plattformen ausgelegt. Seine Prinzipien besagen vor allem, dass eine Webseite Vertrauen erlangt, indem man offenlegt, welches Unternehmen und welche Struktur dahinter steckt – also
die Transparenz erhöht. Am besten geschieht dies, wenn möglichst viele Informationen (z.B. Umweltreports, Datenschutzerklärungen etc.) offengelegt werden. Außerdem hilft es, wenn Benutzer, die bereits mit der Qualität des Dienstes zufrieden waren, auch die Möglichkeit bekommen, diese Erfahrung an andere weiterzugeben, da
Benutzer häufig auf der Suche nach Erfahrungsberichten von bisherigen Kunden
oder Konsumenten sind. Besondere Zertifikate wie TRUSTe2 oder BBBOnLine3 können das Vertrauen in den Dienst ebenfalls steigern. Shneiderman warnt davor, dass
Versprechen, die auf der Webseite kommuniziert werden, insbesondere im Handel,
nicht eingehalten werden. Ein gebrochenes Versprechen oder eine nicht eingehaltene Garantie bezüglich Rückgaberecht, Versand oder Erstattung kann einen enorm
großen Vertrauensverlust beim Benutzer bedeuten und auch nachhaltige Auswirkungen haben.
2
3
http://www.truste.com
http://www.bbb.org/online/
18
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Shneiderman kommt in seiner Ausarbeitung an mehreren Stellen zu dem Schluss,
dass bei der Gestaltung einer Webseite oder einem anderen Gegenstand, der Vertrauen ausstrahlen soll, auf klare und deutliche Kommunikation in jedem Bereich geachtet werden soll. Darunter fällt auch die klare Kommunikation von Verantwortlichkeiten, wie Lieferzeiten, Gebühren und Steuern. Somit soll vermieden werden, dass
der Kunde unliebsame Überraschungen erlebt.
2.3
Informationsvisualisierung
Eine Dimension der Informationsqualität aus Kapitel 2.1 beinhaltet das Thema der
Darstellung von Informationen. Dieses Thema soll in diesem Abschnitt näher beleuchtet werden, da sich eine eigene Disziplin, insbesondere unter Grafikern aber
auch unter den Menschen, die gezielt Informationen, beispielsweise mit politischem
oder gesellschaftlichem Hintergrund, transportieren wollen, gebildet hat.4 Aber auch
in der Forschung wird sich mit dieser Disziplin schon lange auseinandergesetzt.5
Überall dort wo viele Informationen gesammelt werden, werden häufig textuell ausformulierte Berichte abgegeben um die gesammelten Daten und Fakten zu transportieren. Diese Berichte dienen zwar zu einer umfassenden Auseinandersetzung mit
der Thematik, allerdings nicht zur schnellen Informationsgewinnung der Kernthesen,
zur Verbreitung von Informationen oder zur Verdeutlichung von aktuellen gesellschaftlichen Entwicklungen. Es wird vorausgesetzt, dass man sich mit dem Stoff intensiv auseinandersetzen muss. Es geht bei der Informationsvisualisierung nicht darum den geschriebenen Text oder die gewonnenen Daten ausschließlich grafisch
ansprechend zu formatieren, sondern die Bedeutung und die Aussage des Textes /
der Daten so zu transportieren, dass dieser schnell und einfach verstanden werden
kann (Huang & Lim Tan, 2007). Informationsvisualisierung verbindet das Lesen mit
grafischen Darstellungen, um komplexe Inhalte und Daten anschaulicher, verständlicher und einfacher zum Konsumenten zu transportieren. Häufig eingesetzte Werkzeuge sind dabei Karten, Graphen, Diagramme oder Zeitlinien– jeweils abhängig
davon, welche Frage es zu beantworten gilt und welche Information sich mit wel-
4
5
http://www.informationisbeautiful.net/
http://www.infovis-wiki.net
19
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
chem Werkzeug am Besten transportieren lässt. Colin Ware (Tergan, Keller 2005)
beschreibt den Grund für Informationsvisualisierung folgendermaßen:
„The power of a visualization comes from the fact that it is possible to have a far more complex concept structure represented externally in a visual display than can be
held in visual and verbal working memories“
Drei Punkte haben sich bei der Darstellung von Informationen besonders herausgebildet und sollten in jedem Fall bei der Darstellung beachtet werden (Emerson,
2008):
Das Design einer Information muss klar und genau sein. Es sollte vermieden
werden, zu viele unterschiedliche Informationen innerhalb einer Übersicht vermitteln
zu wollen, da das einfache Verständnis sonst darunter leiden könnte. Das heißt, dass
es besser sein kann, weniger zu vermitteln, dies aber mit mehr Sorgfalt zu tun. Außerdem müssen die zu vermittelnden Informationen selbstverständlich auch überprüfbar sein und der Wahrheit entsprechen.
Die Darstellung einer Information muss überzeugend sein und eine Funktion
vermitteln. Manche Menschen lassen sich nicht durch reine Fakten oder Daten von
etwas überzeugen, da sie den Zusammenhang zwischen diesen vielleicht nicht komplett erfassen, verstehen, oder Ergebnisse aus der Vergangenheit nicht mehr präsent
haben. An dieser Stelle können Grafiken oder Diagramme dabei helfen, zu überzeugen.
Information muss fesselnd sein, damit sie nicht einfach nur überflogen wird.
Bei einem Überangebot an Informationen werden häufig nur die Dinge konsumiert,
die auf den ersten Blick ansprechend und interessant erscheinen.
Um diese Punkte erfolgreich umsetzen zu können, muss die Zielgruppe, für die die
Information gedacht ist, im Fokus stehen und genau identifiziert sein. Die Darstellung
kann vielleicht für den Designer klar und verständlich sein, dieser besitzt aber gegebenenfalls auch ein gewisses Hintergrundwissen über die zu transportierenden Informationen. Außerdem können die Ziele der Zielgruppe ganz unterschiedlich sein.
Beispielsweise kann ein Nutzer auf der Suche nach einer ganz bestimmten Information innerhalb einer großen Datensammlung sein, während ein anderer sich einen
Überblick verschaffen möchte oder bestimmte Muster entdecken will. (Shneiderman,
2005)
20
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Dementsprechend bietet es sich an, wenn man bei der Gestaltung von Systemen,
die Informationen repräsentieren, folgendes Prinzip beherzigt:
„Overview first, zoom and filter, then details on demand“ (Shneiderman, 2005)
Somit wird dem Benutzer ermöglicht, schnell große Datenmengen zu erkunden, da
er sich zunächst über eine Kategorie einen Überblick verschaffen kann, je nach Bedarf dann tiefer eintaucht und so zu den Informationen kommt, die er benötigt.
Ben Shneiderman (2005) gibt in dem Buch „Designing The User Interface“ Hinweise
darauf, wie man Informationen entsprechend der Bedürfnisse des Benutzers darstellt. Die Herausforderung dabei ist es, dass dem Benutzer so viele Informationen,
Interfaces und Werkzeuge dargestellt werden, wie er in der Lage ist zu verarbeiten,
ohne ihn von der eigentlichen Aufgabe abzulenken. Die konkrete Herangehensweise
dabei richtet sich nach der Informationsform, die benötigt wird (Text, Video, Bild). Oft
geht es bei der Visualisierung von Informationen darum, dass man abstrakte Daten
so repräsentiert, dass ihre Wahrnehmung beim Menschen verstärkt wird und verstanden werden kann (Card, 2008). Eine Möglichkeit, dieses Ziel zu erreichen ist,
dass man versucht, Informationen zu kategorisieren und zu clustern um Unterschiede, Muster oder starke Veränderungen zu verdeutlichen. So genannte „Infographics“
sieht man in den vergangenen Jahren häufig in sozialen Netzwerken, Videoplattformen oder Printmedien. Diese demonstrieren, welche Wirkung das Bündeln und Kategorisieren von Informationen mit sich bringt. Alabdulqader (2013) hat solche Infografiken im Umgang mit Computer-ethischen Fragen verwendet um die Aufmerksamkeit auf bestimmte Problematiken zu lenken und komplexe Informationen an eine
breite Masse von Menschen weiterzugeben. In Anhang C ist eine exemplarische
Darstellung einer solchen Infografik abgebildet.
Ein weiteres Ziel der Informationsvisualisierung ist, mithilfe von kompakten Userinterfaces große Datenmengen von möglicherweise vielen unterschiedlichen Quellen so
zu visualisieren, dass Benutzer Fragen beantwortet bekommen, von denen sie gar
nicht wussten, dass sie diese haben. Dabei gilt es allerdings zu beachten, dass es
nicht das Ziel ist, möglichst visuell beeindruckende Effekte darzustellen, sondern
21
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
dass durch grafische Veränderungen auch messbare Verbesserungen bei alltäglichen Aufgaben entstehen.
Shneiderman (2005) schlägt vor, Daten nach ihren Typen zu unterscheiden, um so
entsprechende Datensammlungen aufzubauen, die es dann zu visualisieren gilt.
Shneiderman unterscheidet dabei in ein- (Texte, alphabetische Listen), zwei- (geographische Karten), drei- (reale Objekte wie Körper, Räume) oder multidimensionale
Daten. Zusätzlich definiert er auch zeitabhängige Daten, die bestimmte Ereignisse zu
bestimmten Zeitpunkten erfassen oder Daten, die Baumstrukturen sowie komplexe
Netzwerke abbilden. Je nach Datentyp sind unterschiedliche Darstellungsformen wie
Graphen, Tabellen, Diagramme, Karten, Icons, Bilder oder Netzwerke zu wählen
Innerhalb diesen Datensammlungen ergeben sich verschiedene Aufgaben, die ein
Benutzer erfüllen möchte. Dazu gehört das Verschaffen eines Überblicks über die
gesamte Sammlung um anschließend einzelne Elemente zu fokussieren, zu vergrößern oder zusätzliche Informationen darüber zu erhalten. Außerdem sollen uninteressante Elemente einfach ausblendbar sein. Eine weitere Aufgabe, die bei der Visualisierung Beachtung findet, ist die Darstellung von Relationen zwischen einzelnen
Objekten. Dies kann beispielsweise durch einfache Linien oder bestimmte Farbschemata geschehen oder aber auch indem man mit unterschiedlichen Abständen
zwischen einzelnen Objekten arbeitet – die Möglichkeiten sind, wie auch in den anderen Bereichen, vielfältig und je nach Umfang sehr komplex.
2.4
Analysemodelle zur Messung der Informationsqualität
Um Informationsqualität bewerten als auch verbessern zu können, ist es notwendig,
dass Kontext und objektiv bewertbare Kriterien ineinander greifen und gut zusammenspielen. Um die Probleme und die Qualität einer Information analysieren zu können ist es hilfreich, wenn man ein Modell zu Hilfe nimmt, mit dem man die verschiedenen Facetten der Ausgangslage übersichtlich darstellt, um die Situation erfassen
und verstehen zu können. Anschließend sind Möglichkeiten zu finden, mit denen
man eine Lösung bereitstellen kann.
22
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
In den vergangenen Jahren haben sich viele verschiedene Analysemodelle zur Messung der Informationsqualität hervorgetan. Eppler (2006) spricht von bis zu 20 verschiedenen Modellen in den vergangenen Jahren. Allerdings sind manche davon
lediglich Listen von Qualitätskriterien, die es zu erfüllen gilt, und erfüllen somit nicht
den Anspruch, systematisch, gezielt und analytisch ein Problem zu lösen wie es ein
wissenschaftliches Modell versucht. Da es bei der Bewertung der Informationsqualität sehr stark auf den Kontext der Information ankommt, sind die verschiedenen Modelle großteiles nur für einzelne spezielle Anwendungsgebiete konzipiert und häufig
nicht universell einsetzbar. In Anhang D sind die unterschiedlichen Modelle, von denen Eppler spricht, dargestellt und der jeweilige Kontext ist zugeordnet. Nur drei der
Modelle sind auch für den kontextunabhängigen Einsatz geeignet. Eppler (2006) hat
sieben dieser Analysemodelle näher untersucht und kommt zu dem Schluss, dass
lediglich das Modell von Wang & Strong (1996) sowohl in der Literatur als auch in
praktischen Anwendungsfällen Verwendung findet. Allerdings wird auch festgestellt,
dass insbesondere im Bereich der kontextlosen Anwendung und der Darstellung von
Kompromissen zwischen einzelnen Kriterien Verbesserungsbedarf bei allen analysierten Modellen besteht.
Eppler (2006) hat dahingehend ein eigenes Modell (Abbildung 4) entwickelt und vorgestellt. Sein Modell besteht aus vier Hauptelementen. Er verwendet dabei, wie in
den meisten Modellen, eine Art Matrixstruktur. Die vertikale Ausrichtung besteht dabei aus 4 Ebenen die einzelne IQ-Kriterien ihrem Kontext nach bündeln. Die im Folgenden genannten IQ-Kriterien sind Beispiele, um die einzelnen Kategorien zu verdeutlichen und zu verstehen.
In der ersten Kategorie (Relevant Information) wird die Information dahingehend bewertet, ob sie umfassend, akkurat, klar und einfach genug für den konkreten Anwendungsfall einzusetzen ist. Die zweite Ebene (Sound Information) wird dahingehend
präziser, da hier die Charakteristiken der Information oder vielleicht besser des reinen Datums näher beleuchtet werden. Hier stehen Fragen wie: „ist die Information
korrekt oder nicht?“, „ist sie aktuell oder wie alt ist sie genau?“, „ist die Information
konsistent und liegt immer im gleichen Format vor?“ im Vordergrund. Der Kontext soll
hier nicht so sehr im Fokus stehen sondern vielmehr objektiv bewertbare Fragestellungen. Die dritte Kategorie (Optimized Process) behandelt den Managementprozess
23
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
zum Erstellen und Vertreiben der Information. Fragen wie: „wie praktisch ist die
Handhabung des Dienstes der die Information zur Verfügung stellt?“ oder „stehen
Informationen zeitnah zur Verfügung?“ werden hier gestellt und versucht zu beantworten. Es wird ebenfalls untersucht, wie interaktiv der Umgang mit einer Information
für den Benutzer ausfällt. Die vierte und letzte Kategorie (Reliable Infrastructure)
lässt sich leicht verwechseln mit der vorherigen Kategorie. Allerdings geht es hier
ausschließlich um das System, auf dem der Dienst zur Beschaffung der Information
läuft. Sicherheit, Zugänglichkeit, Wartbarkeit (im Hinblick auf die Kosten) und Geschwindigkeit stehen hier im Vordergrund.
Abbildung 4 Informationsmanagement der Informationsqualität [Eppler, 2006]
Die zweite, horizontale Ebene des Modells behandelt den Lebenszyklus einer Information (Abbildung 5) aus der Sicht eines Nutzers. Dieser ist eingeteilt in folgende
vier Phasen:
1. Eine Information wird gesucht und gefunden
2. Die gefundene Information wird evaluiert
3. Die Information wird auf einen neuen Kontext übertragen
4. Die Information wird verwendet
24
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Abbildung 5: Informationszyklus [Eppler, 2006]
Durch diese Einteilung in die vier Phasen wird versucht, die einzelnen Prozesse der
Informationsverarbeitung weiter zu strukturieren und festzustellen in welchen Bereichen und bei welchen Schritten mögliche Probleme auftreten. Da bei der Informationsverarbeitung möglicherweise viele unterschiedliche Personen beteiligt sind, hilft
dieses Vorgehen, herauszufinden, an welcher Stelle welches Problem auftritt.
Die dritte Ebene des Modells beinhaltet die einzelnen Qualitätskriterien, die im Kern
auf den aufgestellten Kriterien von Wang & Strong basieren, hier allerdings von Eppler stellenweise modifiziert wurden. In Anhang E ist eine detaillierte Definition der
einzelnen Kriterien aufgeführt und mit einem Beispiel für die Anwendung versehen.
Die einzelnen Kriterien werden entsprechend ihrer Wichtigkeit in den Phasen des
Informationslebenszyklus platziert. Hier kommt auch Epplers Wunsch zur Darstellung
von Kompromissen zum Tragen. Kompromisse zwischen einzelnen IQ-Kriterien bedeuten hier, dass die Steigerung eines Kriteriums dazu führen kann, dass ein anderes möglicherweise vernachlässigt werden muss und somit ein Zielkonflikt eintritt.
Beispielsweise kann in einem Anwendungsfall die Anforderung an eine Information
sein, dass sie sehr schnell verfügbar sein soll (timeliness), dies steht allerdings häufig im Widerspruch mit der Fehlerfreiheit (free of error) oder der Vollständigkeit (completeness). Es gilt also abzuwägen, welche Kompromisse man bei der Informationsbereitstellung eingehen muss und kann. Im Modell werden mögliche Zielkonflikte
durch entsprechende rote Pfeile zwischen den Kriterien dargestellt.
25
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Anders als durch eine Liste an stumpfen Kriterien wird durch dieses Analysemodell
und die vier Phasen deutlich, in welchen Bereichen der Informationsverarbeitung typische Informationsqualitätsprobleme sichtbar werden.
Um durch das Analysemodell auch Verbesserungen herbeizuführen kommt die letzte
Ebene des Modells zum Tragen: Die Managementprinzipien. Bisher wurden mögliche Problembereiche in der Informationsverarbeitung ausfindig gemacht (Ebene 2),
Qualitätskriterien ausgewählt und deren Konflikte dargestellt (Ebene 3), und diese
Bereiche entsprechend ihrer Kategorie zugeordnet (Ebene 1). Durch die Managementprinzipien der Informationsverarbeitung werden nun Aktivitäten vorgestellt, wie
in den einzelnen Phasen der Informationsverarbeitung (Informationslebenszyklus)
die Qualität entsprechend verbessert werden kann. Im vorgestellten Modell ist die
Rede von vier unterschiedlichen Prinzipien, die jeweils bestimmte Aktivitäten mit sich
bringen.
Das Prinzip der Integration schlägt vor, dass Produzenten von Informationen immer
weiter versuchen, diese zu komprimieren, um sie greifbarer und zugänglicher zu machen. Dieses Prinzip findet Anwendung in der Phase der Identifikation einer Information. Aktivitäten, die dabei helfen können, wären z.B. Tabellen, Zusammenfassungen, bestimmte Formen der Visualisierung (Grafiken/Diagramme) oder bestimmte
Sortiermöglichkeiten der Information. Wie die Umsetzung konkret im Anwendungsfall
aussieht gilt es individuell zu entscheiden, immer mit dem Ziel, dass der Produzent
einer Information darauf achtet, dass eine Information möglichst einfach zu erfassen
ist.
Die Überprüfung nach Genauigkeit, Beständigkeit, Pünktlichkeit und Sicherheit von
Informationen besagt das zweite Prinzip der Validierung und ist im Informationslebenszyklus bei der Evaluation wiederzufinden. Durch dieses Prinzip soll sichergestellt werden, dass ausschließlich dazu berechtigte Informationen zum Konsum bereitgestellt werden. Um die Validierung für den Benutzer auch überprüfbar zu machen sollten die durchgeführten Tests und Schritte zur Validierung für ihn sichtbar
sein. Das Ziel dieses Prinzips ist es, dass sichergestellt wird, dass möglicherweise
falsche Einschätzungen aufgedeckt und eliminiert werden. Mechanismen zur Ver26
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
besserung bzw. zur Gewährleistung des Prinzips sind beispielsweise das Befragen
von unabhängigen Dritten, wie externen Kontrollfirmen, das Hinzuziehen von weiteren Quellen – zur Überprüfung der These. Und das Durchführen von Stichprobentests. Darüberhinaus kann die Validierung auch erzwungen werden, wie man es beispielsweise häufig in Online-Formularen findet. Dort werden beispielsweise bestimmte, vom Standard abweichende Eingabeformate nicht angenommen oder bei der
Passwortvergabe müssen bestimmte Regeln eingehalten werden.
Um Fehlinterpretationen von Informationen zu vermeiden, muss ein Kontext hergestellt werden, in dem die Information verwendet wird, bzw. indem die Information zu
verstehen ist. Der Kontext soll deutlich machen, worum es eigentlich genau geht,
woher eine Information stammt (in welchem Kontext sie bereits eingesetzt wurde und
wo sie vielleicht nicht einzusetzen ist) und inwieweit sie aktualisiert werden kann.
Diese Vorgehensweise wird im Prinzip des Kontextes vereint und wird im Prozess
der Allocation umgesetzt. Das bedeutet, dass der Produzent einer Information auch
in der Verantwortung steht, ausreichend Hintergrundinformationen zu liefern, um auf
den Kontext zu schließen. Durch dieses Prinzip soll vermieden werden, dass eine
Information falsch interpretiert wird, weil sie aus dem Kontext gelöst wurde. Mechanismen, die dabei helfen können zu verstehen, aus welchem Kontext eine Information stammt und wie man sie in einen anderen übertragen kann, sind beispielsweise
typische Metainformationen eines Dokuments (Autor, Erstellungsdatum) oder gepflegte Revisionshistorien (von wem wurde die Information wann und wie verändert).
Diese Metadaten helfen dabei, festzustellen wo sie herkommen und wie sie entstanden sind und geben Hintergrundwissen über die Information. Beispielsweise lässt
sich durch die Angabe des Datums der Erstellung eines Dokuments und dessen
Veröffentlichung feststellen, wie groß die zeitliche Verzögerung dazwischen ist und
gibt somit möglicherweise Aufschluss über das verarbeitende System.
Das Prinzip der Aktivierung besagt, dass Informationen so organisiert werden sollen,
dass sie direkt im Kontext des Anwenders anwendbar sind bzw. vom Anwender an
entsprechender Stelle abgerufen werden können. Wiederzufinden ist dieses Prinzip
in der „Application“ im Informationslebenszyklus. Die Aktivierung einer Information ist
eine komplexe Aufgabe und kann nicht ausschließlich durch eine spezifische Maß27
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
nahme geschehen. Ein Beispiel wie eine solche Maßnahme aussehen kann um eine
Information zu aktivieren, ist, dass eine Informationen in eine Geschichte eingebettet
wird. Eine solche Geschichte lässt sich leicht merken und enthält die Kerninformation
bzw. eine Lösung des erlebten Problems. Außerdem lässt sich die Geschichte weitererzählen und so verbreiten. Möglicherweise bezieht sich die Geschichte auf eine
komplett andere Situation als die, für die man gerade eine Lösung benötigt, aber die
enthaltene Information lässt sich ohne weiteres auf die eigene Situation übertragen.
Demnach wäre auf diese Weise das Prinzip der Aktivierung erfolgt. Ein weiteres Beispiel zur Aktivierung von Informationen kann das Durchführen eines Workshops sein,
in dem viele verschiedene Personen zusammenkommen und so einzelne Informationen aktivieren, austauschen und abspeichern. Weitere Möglichkeiten sind Gedächtnisstützen, Metaphern oder Analogien. Zusammengefasst bedeutet das, dass eine
Information am besten möglichst interaktiv zur Verfügung gestellt wird, um sie möglichst einfach zu speichern und an entsprechender Stelle wieder zu aktivieren.
Mithilfe des vorgestellten Analysemodells von Eppler (2006) ist es möglich, auf der
einen Seite zu analysieren wo sich mögliche Probleme bei der Informationsverarbeitung ergeben, aber auch dann gezielt Möglichkeiten anzubieten, mit denen man versuchen kann, die Probleme zu lösen. Allerdings sind die möglichen auftretenden
Konflikte nicht zu vernachlässigen.
2.5
Komplexe Situationen im Krisenmanagement
In Abschnitt 2.1. wurde bereits festgestellt, dass die Qualität einer Information sehr
stark vom Kontext abhängig ist, in dem sie verwendet wird. Diese Arbeit soll sich vorrangig mit der Verarbeitung von Informationen in komplexen Situationen (Krisensituationen) beschäftigen. Demnach soll in diesem Abschnitt herausgestellt werden, was
diese kennzeichnet und wo die Schwierigkeiten liegen.
Komplexe Situationen sind dadurch gekennzeichnet, dass sie einen sehr großen
Umfang besitzen. Es sind viele Elemente vorhanden, die meist auch in Relation zueinander stehen und sich gegenseitig beeinflussen. Es besteht jederzeit die Möglichkeit, den Überblick zu verlieren. Auch wenn nicht von außen durch Maßnahmen eingegriffen wird, entwickelt sich die Situation weiter. Es kommen neue Probleme hinzu,
28
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Situationen verschlimmern oder verbessern sich. Die Betroffenen sind dadurch immer unter Zeitdruck. Außerdem wird in komplexen Situationen das Handeln oder die
Auswirkung von getroffenen Entscheidungen und Maßnahmen meist nicht sofort
sichtbar, da es immer zu Verzögerungen kommen kann und sich Situationen verändern. Getroffene Entscheidungen sind meist unumkehrbar. (Hofinger, 2003)
Anhand dieser Merkmale von komplexen Situationen ist ersichtlich, dass die Entscheidungsfindung nicht trivial ist. Eine Entscheidung bringt immer Risiken und Gefahren mit sich, die sich direkt oder indirekt auf die Gesundheit oder das Leben von
Menschen auswirken können. Deshalb ist es wichtig abzuschätzen, welche erwünschten oder unerwünschten Konsequenzen eine Handlung mit sich bringt. Der
Zeitdruck, der dazu kommt, hat zur Folge, dass sich das Stressniveau bei allen beteiligten Personen erhöht („Information Overload“). Ist der Entscheidende mit dieser
Situation überfordert, kommt es häufig zu Entscheidungen, die für sich genommen
sinnvoll sind, allerdings den Gesamtzusammenhang ausblenden und demnach gegebenenfalls kontraproduktiv sind. (Hofinger, 2003)
Da sehr viele Parteien am Krisenmanagement beteiligt sind, gibt es eine weitere
Herausforderung, die es zu bewältigen gilt: Die Kommunikation und Koordination
zwischen Organisationen wie Polizei, THW und Rettungsdienst. Nach Manoj und
Hubenko Baker (Manoj & Hubenko Baker, 2007) gibt es drei Kategorien von Herausforderungen, die bei dieser Art der Kommunikation und Koordination eine Rolle spielen: Technologische, soziologische und organisationale Herausforderungen.
Der Aufbau eines zuverlässigen Kommunikationssystems zwischen allen beteiligten
Personen gilt beispielsweise als technische Herausforderung. Dies ist durch den vielfältigen unterschiedlichen Einsatz von Kommunikationsmedien nicht immer einfach,
da beispielsweise unterschiedliche Technologien eingesetzt werden oder ein unterschiedlicher technischer Standard vorherrscht. Um die sozialen Herausforderungen
erkennen zu können, muss man das menschliche Sozial- und Kommunikationsverhalten mit einbeziehen. Viele verschiedene Menschen treffen aufeinander und damit
stellt sich automatisch die Frage, wem man welche Informationen anvertrauen kann
und für wen welche Informationen wichtig sind. Beispielsweise kann die Kommunika29
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
tion von kritischen Informationen an die Öffentlichkeit eine Situation erheblich verschlechtern. Abgesehen davon verwenden die einzelnen Organisationen ein anderes
Vokabular, was schnell zu Missverständnissen führen kann. Das Feld der sozialen
Herausforderungen ist sehr komplex und umfasst viele Faktoren. Unter organisationalen Herausforderungen wird der hierarchische Aufbau der Situation verstanden.
Wer trifft Entscheidungen und welchen Entscheidungen ist wer untergeordnet? Diese
Herausforderung ist besonders groß, wenn streng hierarchische Organisationen
plötzlich mit flach strukturierten Organisationen zusammenarbeiten müssen und diese unterschiedlichen Organisationsformen aufeinander stoßen und zusammenarbeiten müssen.
Die Problematik der Koordination zwischen unterschiedlichen Organisationen wurde
auch von Ley, Pipek, Reuter & Wiedenhöfer (2012) untersucht. Insbesondere wie ITSysteme gestaltet werden können, um die Improvisationen, die während einer Krise
notwendig sind, zu unterstützen. Improvisation ist in vielen Bereichen des Krisenmanagements unabdingbar, da Situationen sich schnell verändern können oder die Pläne, die im Vorfeld gemacht wurden, nicht umsetzbar sind. Außerdem unterscheiden
sich die verschiedenen Einsätze. Auch bei der Informationsbeschaffung wird häufig
innerhalb der Einsatzkräfte improvisiert. Zum Beispiel werden über privat genutzte
Smartphones Daten von Google Maps geladen, Wetterinformationen abgerufen oder
lokale Webcams genutzt. Insgesamt wurden durch die Arbeit Defizite bei den für die
Einsatzkräfte vorhandenen Informationen festgestellt. Gründe dafür können sein,
dass Privatpersonen übertreiben, wenn sie den Notruf wählen, Informationen nur
dezentral verfügbar sind, Serviceprovider wie Stromanbieter nur sehr wenige Informationen veröffentlichen oder Berechtigungen, wer eine Information einsehen darf,
nicht geklärt sind. Insbesondere die Zugriffsberechtigungen auf Informationen stellen
eine Hürde dar, da die Organisationen durch zu offenen Umgang mit Informationen
rechtliche Konsequenzen oder Kritik von außerhalb fürchten. Dementsprechend
muss bei einer IT-Lösung auf diese Problematik geachtet werden. Darüberhinaus
wurde festgestellt, dass der interorganisationale Informationsaustausch nur in wenigen Situationen gut funktioniert. Aufgrund dieser schwierigen Situation im Krisenmanagement, ist die Unterstützung beim Informationsaustausch zwischen unterschiedlichen Organisationen mittels IT eine große Herausforderung geworden. Sie erfordert
30
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
statt strengen prozessorientierten Praktiken eine Möglichkeit des unterstützenden
informellen Informationsaustauschs zwischen allen beteiligten Personen. Darüberhinaus ist es wichtig, Möglichkeiten zu schaffen, mit denen auch das informelle Zusammenarbeiten von Personen unterschiedlicher Organisationen möglich wird.
Es zeigt sich, dass sehr viele Herausforderungen im Krisenmanagement existieren
und zu beachten sind. Umso wichtiger ist es, dass den Entscheidungsträgern eine
ausreichende Menge an qualitativ hochwertigen Informationen zur Verfügung steht
und diese übersichtlich und schnell zu erfassen sein muss. Um diese breite Informationsbasis zu schaffen, muss die Zieldomäne (Feuerwehr, THW, Rettungsdienst etc.)
in den einzelnen Prozessen unterschieden und analysiert werden. Für zeitkritische
Prozesse (z.B. abwehrender Brandschutz) gelten andere Prioritäten als für nicht zeitkritische Prozesse (Japs & Prödel, 2009). Dementsprechend muss ein System auch
die Möglichkeit bieten, innerhalb der unterschiedlichen Prozesse zu unterstützen.
Allerdings kann auch das Vorhandensein von qualitativ hochwertigen Daten noch
Gefahren mit sich bringen. Neben der Gefahr des „information overload“ und dem
Treffen von zeitkritischen Entscheidungen gibt es eine weitere Gefahr in Krisensituationen: ein zu hohes Level an Erfahrung der Entscheidungsträger. Fisher (1999) hat
herausgefunden, dass Experten mehr Wert auf Daten mit hoher Qualität legen als
Anfänger. Experten tendieren allerdings dazu, sich mehr auf ihre positiven Erfahrungen aus der Vergangenheit zu verlassen als auf die Daten, die ihnen zur Verfügung
stehen. Anfänger hingegen betrachten neue Informationen mit der gleichen Aufmerksamkeit wie alte, ggf. bewährte Informationen. Dies geht ebenfalls aus der Analyse
einer Aktienprognose zwischen Experten und Anfängern hervor. (Yates, McDaniel,
Brown, 1991)
3. Methoden und Mechanismen zur Bewertung von Informationen
Bisher wurde in Kapitel 2 definiert, wie Informationsqualität zu verstehen ist und wie
man diese bewerten kann. Im folgenden Abschnitt soll geklärt werden, wie Information in der Praxis bewertet wird und wie versucht wird, schlechte Informationsqualität
zu verbessern und aufzubereiten.
31
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
3.1 Methoden und Mechanismen zur Bewertung der IQ:
- von Webinformationen
Es wurde bereits herausgestellt, dass durch das Internet viele Informationsmöglichkeiten hinzugekommen sind. In Zahlen ausgedrückt heißt das, dass mittlerweile
knapp 150 Millionen registrierte Domains6 existieren und ungefähr 30 Milliarden Internetseiten7. Eine solche Menge an Daten macht es einem Anwender sehr schwer,
die möglichst passenden Daten zu finden, die er benötigt. Datenbanken können zwar
abgefragt werden, allerdings sind die zurückgegebenen Informationen meist nur sehr
allgemein, da sie die Anforderungen, die ein Benutzer an die Informationen hat meist
nur sehr eingeschränkt durch die Anfrage widerspiegeln. Dementsprechend müssen
weitere Kriterien zur Anfrage hinzugefügt werden. (Lóscioa et al, 2012).
Gelman & Barletta (2008) haben untersucht, wie man diese Fülle an möglichen Informationen schnell filtern und bewerten kann. Es sollte in einer „quick and dirty“
Analyse festgestellt werden, ob ein Zusammenhang zwischen der Rechtschreibung
eines Textes und dessen Informationsgehalt besteht. Dazu wurde eine Auswahl der
am häufigsten falsch geschriebenen Worte verwendet und diese gegen einige hundert im Vorfeld manuell bewerteten Webseiten analysiert. Das Ergebnis lässt darauf
schließen, dass ein direkter Zusammenhang zwischen Rechtschreibung und Informationsqualität besteht. Dieser Ansatz muss allerdings weiter evaluiert werden und
kann lediglich als „quick and dirty“ Methode zur IQ-Analyse verstanden werden.
Speziell für die Analyse von Webangeboten auf ihre Glaubwürdigkeit ist die „Prominence-Interpretation Theory“ (Fogg, 2003) nach vielen praktischen Forschungsstudien8 entstanden. Diese Theorie beschreibt, wie ein Benutzer zu einer Entscheidung kommt, ob eine Webseite und deren Informationen insgesamt als glaubwürdig
angesehen werden oder nicht. Der Ablauf umfasst zwei Schritte. Im ersten Schritt
bemerkt der Benutzer etwas (Prominence) und anschließend bewertet er das, was er
bemerkt hat (Interpretation). Dieser Ablauf wird mehrfach durchlaufen um zu einer
6
http://www.whois.sc/internet-statistics/ (Stand: April 2014)
http://www.worldwidewebsize.com/ (Stand: April 2014)
8 http://credibility.stanford.edu/credlit.html
7
32
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
endgültigen Bewertung zu kommen. Nur wenn ein Benutzer ein Element der Webseite auch bemerkt, kann es zur Steigerung der Vertrauenswürdigkeit führen. Wenn z.B.
die Datenschutzrichtlinien nur schwer zu finden sind und der Benutzer nicht darauf
aufmerksam wird, dann kann dieses Element nicht in seine Bewertung mit einfließen.
Ob ein Benutzer aufmerksam wird auf bestimmte Elemente hängt unter anderem
davon ab, wie sehr der Benutzer darum bemüht ist. Beispielsweise ist, jemand, der
auf der Suche nach Informationen zu einer möglichen Krankheit ist, mehr daran interessiert, eine zufriedenstellende Information zu finden als ein Schüler, der schnell
seine Hausaufgaben erledigen möchte. Hat ein Nutzer ein Element auf der Webseite
identifiziert, wird er dies sofort interpretieren. Wird beispielsweise eine fehlerhafte
Verlinkung bemerkt, lässt dies darauf schließen, dass die Webseite nicht mehr gewartet wird oder schon bei der Erstellung nicht sorgfältig gearbeitet wurde. Auch hier
gibt es verschiedene Faktoren, die die Interpretation beeinflussen. Zum Beispiel spielen Vorannahmen und gemachte Erfahrungen eine wesentliche Rolle und können
dementsprechend unterschiedlich bei jedem Nutzer sein. Diese Vorgänge passieren
schnell und häufig, bevor der Benutzer zu einer endgültigen Aussage über die gesamte Webseite kommt.
Eine automatisierte Methode, um eine Übersicht zu bekommen, welche Informationen im Internet häufig genutzt werden und somit ggf. auch relevant für die Allgemeinheit sind, ist der Einsatz von so genannten Webcrawlern. Insbesondere im Hinblick auf die Dimensionen Zugänglichkeit, Bearbeitbarkeit und eindeutige Auslesbarkeit ist der Einsatz von Computerprogrammen, die immer wiederkehrende Aufgaben
erledigen, notwendig (Eppler, 2006). Dadurch lässt sich auch über einen längeren
Zeitraum herausfinden, wie sehr diese Kriterien erfüllt werden und zu welchen Zeitpunkten ggf. bestimmte Informationen nicht zugänglich gewesen sind oder nur fehlerhaft darstellbar waren. Neben diesen Webcrawlern bieten auch Webseitenanalysetools wie Google Analytics9 darüber Auskunft, welche Informationen oder Artikel
besonders häufig abgefragt wurden und durch welche Suchbegriffe diese Informationen gefunden wurden. Außerdem geben solche Werkzeuge auch darüber Auskunft,
welche Personen (Land, Hardware/Software) von welchem Ort und wie lange auf die
9
http://www.google.com/analytics/
33
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Webseite zugegriffen haben. Dies kann bei der weiteren Gestaltung des Informationsangebots zur Optimierung eingesetzt werden.
Unabhängig davon, welche Schritte zum Verbessern der Informationsqualität unternommen wurden, ist das Auffinden von Informationen entscheidend. Im Internet werden für diesen Prozess in den meisten Fällen Suchmaschinen verwendet, die einen
großen, bereits indizierten Datenbestand besitzen. Um die ausgegebenen Suchergebnisse qualitativ hochwertiger zu machen, haben Knight & Burn (2005) das IQIP
Modell entwickelt, das den Benutzer, die Umgebung und die Aufgabe identifiziert.
Basierend auf den identifizierten Merkmalen werden bestimmte IQ-Dimensionen in
die Auswertung des Datenbestandes einbezogen und anhand derer einen „Dimension-Score“ quantifiziert. Somit soll jede Information einen berechneten Wert haben,
anhand dessen man zuordnen kann, wie relevant die Information ist. Der Datenbestand wird mittels eines Webcrawlers weiter aufgebaut. Der Webcrawler richtet sich
dabei an die Dimensionen, die am höchsten bewertet wurden. Die Perfektionierung
dieses zirkulären Modells geschieht, indem der Crawler auch auf das Feedback von
Benutzern eingeht und dementsprechend sein Verhalten anpasst. In Abbildung 6 ist
das IQIP-Modell zum besseren Verständnis grafisch abgebildet.
Abbildung 6: IQIP Modell
34
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Auch Yamamoto & Tanaka (2011) haben sich mit der Verbesserung der Informationsqualität von Websuchen beschäftigt. Hier ging es in erster Linie um die Verbesserung der Repräsentation von Suchergebnissen. Um eine Aussage zur Informationsqualität zu treffen wurden 5 Kriterien zur Bewertung herangezogen: Genauigkeit
(z.B. wie viele Fehler bei der Verlinkung/Rechtschreibung sind vorhanden?), Objektivität (ist der Artikel objektiv geschrieben oder von einer bestimmten Partei/Personengruppe verfasst?), Autor (Informationen über den Autor werden herangezogen), Aktualität (wann wurde die letzte Aktualisierung vorgenommen?), Abdeckung (ist die Information vollständig?). Nach der Analyse werden die Suchergebnisse mittels eines Netzdiagramms visuell dargestellt (Abbildung 7). Zu jedem Benutzer wird im System ein eigenes Netzdiagramm gespeichert. Dieses Netzdiagramm
repräsentiert die Interessen und Vorlieben bei der Suche. Klickt ein Benutzer beispielsweise häufig Suchergebnisse an, die eine hohe Genauigkeit aufweisen, so wird
das eigene Netzdiagramm in diese Richtung ausgeweitet. Für zukünftige Suchen
werden dann die entsprechenden Ergebnisse anhand der eigenen Präferenzen anders sortiert. Die Evaluation dieses Systems hat allerdings hervorgebracht, dass
hauptsächlich die Benutzer davon profitierten, die sich schon etwas mit dem Thema
der gesuchten Information auseinandergesetzt hatten, da sie ihre Kriterien genauer
formulieren konnten.
35
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Abbildung 7: Visualisierung der Suchergebnisse nach Yamamoto & Tanaka
Ebenfalls mit der Verbesserung von Suchergebnissen haben sich Schwarz & Morris
(2011) beschäftigt. Hier sollte allerdings keine automatische Einteilung der Suchergebnisse in bestimmte Kategorien erfolgen, sondern die Benutzer sollen zusätzliche
Informationen zur Webseite bekommen und somit nur unterstützend sein. Diese Informationen beschränken sich auf die Fragen „Wer, Wann und Wo“. Mit der Fragestellung „Wer“ wird Auskunft erteilt, von welchen Benutzergruppen (Experten oder
„Jedermann“) die Webseite hauptsächlich besucht wird. Darüberhinaus wird angegeben, welchen PageRank10 die Seite besitzt. Wann die Webseite am häufigsten besucht wurde, kann man anhand eines Graphs, der sich über die letzten Monate erstreckt, ablesen. Außerdem ist eine Karte dargestellt, mit deren Hilfe man feststellen
kann, von welchen Nationen die Webseite am häufigsten aufgerufen wurde.
Darüberhinaus scannt das Programm die Webseite des Suchergebnisses nach möglichen Auszeichnungen und Awards und stellt diese ggf. grafisch dar. Es stellte sich
heraus, dass sich durch diese Zusatzinformationen die Anzahl der Fehleinschätzungen, ob eine Webseite vertrauenswürdig ist oder nicht, reduzierte und die Benutzer
10
http://pr.efactory.de/d-index.shtml
36
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
durch diese Zusatzinformationen bestimmten Webseiten stärkeres Vertrauen geschenkt haben als anderen.
Abbildung 8: Visualisierung der Suchergebnisse nach Schwarz & Morris
Ein weiterer Bereich, der bei der Forschung zur Informationsqualität herangezogen
wird, ist die Bestimmung und Evaluation von Wikipedia. Bis heute wird die Qualität
von Wikipedia-Artikeln skeptisch betrachtet, da jeder Benutzer die Möglichkeit hat,
über jedes beliebige Thema einen Artikel zu verfassen. Bisherige Studien (Gilles,
2005, Chesney 2006) konnten allerdings nicht belegen, dass die Qualität der freien
Enzyklopädie schlechter ist, als die von angesehenen Enzyklopädien mit einem guten Ruf. Das Prinzip der Wahrung der Informationsqualität basiert darauf, dass viele
Autoren einen Artikel pflegen, aktuell halten, korrigieren und über Änderungen diskutieren. Dementsprechend sollen Fehler minimiert werden. Wikipedia bietet aus diesem Grund auch die Möglichkeit, sich den Änderungsverlauf eines Artikels anzusehen. Pirolli, Wollny, Suh (2009) haben das Wikidashboard
11entwickelt,
mit dessen
Hilfe schneller und übersichtlicher erkannt wird, wann ein Artikel verändert wurde und
wer wie viele Änderungen an einem Artikel vorgenommen hat. Außerdem wird für
jeden Benutzer eine Übersicht erstellt, welche Artikel er außerdem noch bearbeitet
hat. Somit ist es möglich, schneller eine Aussage über die Glaubwürdigkeit des Artikels zu treffen. In einem Test mit verschiedenen Benutzern konnte dies ebenfalls
11
http://wikidashboard.appspot.com
37
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
belegt werden. Die Nutzung von solchen Werkzeugen kann allerdings auch negative
Auswirkungen haben und dazu führen, dass Informationen (in diesem Fall von Wikipedia) nicht mehr kritisch gelesen werden, sondern von vorneherein als korrekt erachtet werden. (Pirolli, Wollny, Suh, 2009)
3.2 Methoden und Mechanismen zur Bewertung der IQ:
- von sozialen Systemen
3.2.1 Bewertungssysteme
Neben diesen Methoden zur Analyse der Informationsqualität von Webseiten existieren auch Methoden zur Verbesserung der IQ, die durch den Menschen vorgenommen werden, meist innerhalb von sozialen Netzwerken/Systemen. Bekannt sind diese Methoden beispielsweise von Portalen wie „Yahoo Answers“12 oder „Stackoverflow“ 13 . Diese Portale dienen alle der Informationsgewinnung in unterschiedlichen
Kontexten. Das Besondere hierbei ist allerdings, dass sie über eine Komponente verfügen, durch die Benutzer abgegebene Antworten auf die gestellte Frage dahingehend bewerten können, wie hilfreich diese Antwort für sie gewesen ist. In der Vergangenheit musste man in Foren viele Seiten lesen, um zur besten, hilfreichsten oder korrekten Antwort zu gelangen. Durch das Bewerten von Informationen/Beiträgen
ist die schnelle Verfügbarkeit von relevanten und korrekten Antworten besser möglich. Allerdings führen Bewertungen von Antworten nicht immer zur richtigen oder
qualitativ hochwertigsten Antwort, da Benutzer bevorzugt Antworten von „Freunden“
gut bewerten, weil ihnen die Antwort gut gefällt (weil sie ggf. unterhaltend formuliert
wurde) oder weil sie das Bewertungssystem austricksen wollen, um sich Belohnungspunkte zu verdienen (Chen, Wang, Dasgupta, Yang, 2012). Diese Form der
Aneignung von Glaubwürdigkeit einer Information durch die Bewertung von Dritten
wird auch als „Reputed Credibility“ bezeichnet (Fogg & Tseng, 1999). Dieses Bewertungssystem, das durch die Benutzer eines Systems vorangetrieben wird, gilt als einer der Gründe, warum ebay als Verkaufsplattform so erfolgreich geworden ist. Die
Wichtigkeit wurde erkannt, ein starkes Vertrauensverhältnis zwischen Kunde, Verkäufer und Webseite aufzubauen – in Abschnitt 2.2 wurde dies bereits herausgestellt
12
13
http://de.answers.yahoo.com/
http://stackoverflow.com/
38
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
(Shneidermann, 2000). Ebay hatte als einer der ersten Webshops ein umfangreiches
Bewertungssystem von Käufern & Verkäufern aufgebaut, anhand dessen festgestellt
werden konnte wie vertrauenswürdig der potentielle Verkäufer / Käufer bei den bisherigen Transaktionen gewesen ist.
Amazon hat ebenfalls ein Bewertungssystem für die Rezensionen der Produkte eingeführt. Otterbacher (2009) hat die Systematik hinter dem Bewertungssystem genauer betrachtet und festgestellt, dass die analysierten Produkte im Durchschnitt 340
Bewertungen besitzen und es demnach notwendig ist, dass in erster Linie die bisher
hilfreichsten Bewertungen für den potentiellen Käufer als erstes dargestellt werden.
Damit soll vermieden werden, dass der Benutzer zu viele Informationen auf einmal
zu Gesicht bekommt und nicht selbst herausfinden muss, was für ihn relevant sein
könnte. Amazon bietet zu jedem Beitrag die Funktion, diesen als hilfreich zu bewerten. Allerdings ist die Sortierungsreihenfolge nicht ausschließlich nur auf die hilfreichen Bewertungen beschränkt. Ein Aspekt der Informationsqualität ist der Zeitbezug.
Bei Produkten kann dies sehr relevant sein, da sich das Produkt möglicherweise verändert (Art der Herstellung, Lieferant etc.). Dementsprechend wird auch der Zeitbezug bei der Darstellung der Rezensionen beachtet. Otterbacher (2009) hat bei der
Auswertung auch die Reputation der Personen in Betracht gezogen, die ein Produkt
bewertet haben. Die (empfundene) Qualität einer Information kann sehr stark davon
abhängig sein, von wem diese Information stammt. Amazon bietet die Möglichkeit,
dass sich die Schreiber einer Rezension Punkte verdienen können - je nachdem wie
gut ihr Beitrag bewertet wurde. Somit ist es möglich, dass die geschriebenen Bewertungen einer Person mit hoher Reputation bevorzugt werden gegenüber jemandem
der sich erst wenig Reputation verdient hat. All diese Kriterien werden bei der Sortierung der Bewertungen beachtet, damit der Benutzer der Seite eine möglichst gute
Erkenntnis über das Produkt bekommen kann und es anschließend eingekauft wird.
Dass die Rezension und deren Informationsqualität einen positiven Beitrag zum Verkauf des Produktes leistet, wurde in vergangenen Studien bestätigt (Chen et al.
2001).
Bewertungssysteme kommen nicht nur beim Verkauf von Produkten zum Einsatz,
sondern auch beim wissenschaftlichen Arbeiten und im Umgang mit großen Daten39
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
mengen. Mit der Software „Viqtor“ wurde dies umgesetzt (Naumann & Führing,
2007). Mit dieser ist es möglich, sowohl Excel Tabellen zu laden, als auch ein eigenständiges Format zu verwenden. Die dargestellten Daten und Werte können anschließend von jedem Benutzer eingesehen und bewertet werden. Die Bewertung
einzelner Felder/Werte kann anhand verschiedener IQ-Kriterien erfolgen. Neben dem
Kriterium kann bestimmt werden, wie zutreffend dieses Kriterium auf das Feld ist.
Wie hoch eine Bewertung ausgefallen ist, wird dargestellt, indem die Farbsättigung
entsprechend eingestellt ist. Außerdem ist aus der grafischen Darstellung ebenfalls
ersichtlich, wie viele Benutzer eine Bewertung vorgenommen haben. Abbildung 9
zeigt eine exemplarische Darstellung.
Abbildung 9: Bewertung eines Datenbestands nach dem Kriterium der "Reliability"
3.2.2 Schwierigkeiten bei der Auswertung & Bewertung
Bei der Bewertung von Informationen durch Menschen gilt es allerdings zu beachten,
wie die Fragestellung der zu bewertenden Information aussieht. Je nachdem wie eine Information oder eine Frage präsentiert wird, kann es zu unterschiedlichen Ergebnissen kommen – dem so genannten Framing Effekt. In Anhang F wird der Effekt
40
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
dieses Problems verdeutlicht. In der Regel tendieren Menschen zu risikoreicheren
Entscheidungen, wenn ihnen die negativen Folgen ihrer Entscheidung verstärkt präsentiert werden und vermeiden Risiken, wenn die Folgen positiv erscheinen (Hartmann et al. 2008). Es ist also bei der Auswertung der von Menschen bewerteten Informationen zu beachten, wie die Fragestellung ausgesehen hat, um möglichst unverfälschte Ergebnisse zu bekommen.
Wenn der Benutzer einer Information ein Mensch ist und keine automatisierte Maschine, dann kommt ein besonderer Faktor bei der Bewertung von Informationen und
deren Verarbeitung hinzu. In der Psychologie spricht man vom „Dual-Process of human information processing“ (Strack, Deutsch, 2003). Diese Theorie hilft dabei zu
verstehen, warum Menschen mit der gleichen Information unterschiedlich umgehen.
Menschen wenden zunächst schon vorhandene bzw. gelernte Heuristiken an, um die
Information zu verarbeiten. Ein Alltagsbeispiel für das Anwenden solcher Heuristiken
ist das unterbewusste spontane entscheiden, ob eine neu empfangene E-Mail gelöscht werden kann, ohne diese exakt und vollständig zu lesen. Entsprechend der
Zeit und den Ressourcen die zum Verarbeiten einer Information vorhanden sind, wird
anschließend an den heuristischen Prozess eine systematische Auseinandersetzung
und Analyse mit der Information angestoßen. Dieser Verarbeitungsprozess kann
auch in umgekehrter Reihenfolge erfolgen oder es wird nur einer der beiden Prozesse durchlaufen.
Betrachtet man nun eine Information, die auf die IQ-Dimension „Believability“
(Glaubwürdigkeit) bewertet werden soll, dann kann es passieren, dass die Glaubwürdigkeit der Information von Person A positiv bewertet wird, da sie bereits Erfahrungen mit dieser Information gemacht hat, Person B die gleiche Information allerdings negativ bewertet, da sie direkt mit der systematischen Auseinandersetzung
beginnt und feststellt, dass die Information aufgrund bestimmter Faktoren für den
Anwendungsfall nicht aussagekräftig genug ist. Es existieren zwar Forschungsansätze, um die Lücke zwischen objektiv-bewertbaren Informationen und subjektiv bewertbaren Informationen zu schließen (Watts, Shankaranarayanan, Even, 2009), allerdings befindet man sich hier erst am Anfang.
41
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Im Bereich von sozialen Communities eröffnet sich ein weiteres Problemfeld der Bewertung von Informationsqualität. Informationen sind in sozialen Communities zwar
vorhanden, allerdings kann die gesuchte Information aufgrund von unsachgemäßen
Formulierungen oder fehlenden Metadaten nur schwer gefunden werden. Wünschenswert wäre hier eine semantische Suche (Hitzler et al., 2007). In Kurznachrichtendiensten wie Twitter helfen zwar Hashtags bei der Kategorisierung von Texten,
allerdings sind diese nicht ausreichend. Des Weiteren sind Informationen aus sozialen Netzwerken häufig stark kontextabhängig. Beispielsweise können die Aktivitäten
von Nutzer A sehr relevant und informativ für Nutzer B sein, Nutzer C empfindet diese allerdings sehr störend. Agarwal & Yiliyasi (Agarwal & Yiliyasi, 2010) haben versucht, den Problemen für die Informationsqualität, die sich durch soziale Netzwerke
und die Datenflut im Internet ergeben, durch Automatisierungstechniken und IQFrameworks, wie dem in 2.4 beschriebenen, zu begegnen. Sie sind aber zu dem Fazit gekommen, dass es mit den bisherigen Methoden noch nicht möglich ist, diesen
Problemen effektiv entgegen zu treten.
3.2.3 Empfehlungssysteme
Im Zusammenspiel mit Bewertungssystemen können auch so genannte „Recommender Systems“ (Systeme zur Empfehlung von Gegenständen, Informationen etc.)
dabei helfen, in sozialen Netzen die Informationsqualität zu verbessern. Für einige
Zeit waren Empfehlungssysteme sehr in die Kritik geraten, da ihre Empfehlungen
keinen Sinn ergaben (Zaslow, 2002). Mittlerweile haben sich die Algorithmen allerdings verbessert und Empfehlungen sind treffender als zuvor – insbesondere am
Beispiel Amazon kann man dies sehr gut beobachten, da dort auf sehr vielen Ebenen Systeme zur Empfehlung von Produkten eingesetzt werden (Mangalindan,
2012). Bisher wurde schon mehrfach das Problem der Informationsüberflutung („Information Overload“) angesprochen. Systeme zur Empfehlung von Informationsgegenständen sind ein weiterer Lösungsansatz für diese Problematik, da versucht wird,
die Fülle an Informationen auf das zu minimieren, was den Benutzer dabei unterstützt, das zu finden, was er wirklich sucht (McNee, Riedl, Konstan, 2006).
42
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Generell lassen sich Systeme zur Empfehlung von Informationsgegenständen in
zwei Gruppen einteilen: Inhaltsbasierte und kollaborative Empfehlungssysteme
(Lops, Gemmis, Semeraro, 2011).
Inhaltsbasierte Empfehlungssysteme versuchen ähnliche Dinge zu empfehlen, die
ein Benutzer in der Vergangenheit in irgendeiner Form als interessant empfunden
hat. Sei es durch passive Datengewinnung über den Benutzer („Was hat er sich angesehen?“, „nach was hat er gesucht?“) oder durch explizites Abfragen seiner Interessen. Dabei wird ein Profil des Benutzers angelegt, mit allen Eigenschaften der von
ihm erfassten Interessen. Das Empfehlungssystem versucht nun Produkte / Informationsgegenstände zu finden, die den Eigenschaften des Benutzerprofils entsprechen.
Die Informationsgegenstände müssen im Vorfeld ebenfalls bewertet werden, damit
eine Zuordnung stattfinden kann. Je exakter das Profil des Benutzers aufgebaut
werden kann, desto besser können auch die Empfehlungen ausfallen. Das Verhalten
anderer Nutzer spielt hier keine Rolle.
Dies ist anders bei dem Verfahren der kollaborativen Empfehlungssysteme. Hier wird
die Ähnlichkeit zwischen Benutzerprofilen verglichen und anschließend das empfohlen, was die Benutzer mit ähnlichen Interessen als interessant empfunden haben.
Die Gewinnung der Daten darüber, was ein Benutzer als interessant empfindet, geschieht dabei wie bei den inhaltsbasierten Empfehlungssystemen (Klahold, 2009).
Beide Systeme haben ihre jeweiligen Vor- und Nachteile. Deswegen werden beide
Verfahren zu so genannten Hybriden kombiniert um ein möglichst exaktes Bild des
Benutzers und dessen Informationsbedürfnis zu bekommen und anschließend entsprechende Empfehlungen auszuprechen.
3.3 Methoden und Mechanismen zur Bewertung der IQ:
- Im Krisenmanagement
Im Kontext des Krisenmanagements wurde bereits festgehalten, dass viele komplexe
Abläufe während einer Krise behandelt werden müssen. Für diese ist es wiederum
notwendig, entsprechende Informationen zur Hand zu haben. Jay R. Galbraith (1974)
hat dies sehr treffend formuliert:
43
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
„The greater the task uncertainty, the greater the amount of information that must be
processed among deciscion makers during task execution in order to achieve a given
level of performance“
Dementsprechend wichtig ist es, in solchen Situationen möglichst gut im Vorfeld zu
planen, um vorbereitet zu sein. Dies gelingt jedoch nur auf Basis einer guten Informations- und Datenqualität (Fisher, 2001). Zudem müssen verantwortliche Personen
gutem IQ-Management gegenüber positiv eingestellt sein.
Rafael A. Gonzalez & Nitesh Bharosa (2009) haben sich mit den Herausforderungen
des IQ-Management in Krisensituationen beschäftigt. Sie versuchten mittels eines
Frameworks genauer zu bestimmen, bei welchen Aufgaben, die es in einer Krise zu
bewältigen gibt, es hilfreich ist, Dimensionen wie Aktualität oder Vollständigkeit mit
einzubeziehen (Anhang G). Im vorgestellten Analysemodell wurde bereits dargelegt,
dass anhand eines solchen Frameworks auch die notwendigen Kompromisse, die
möglicherweise eingegangen werden, um bestimmte Ziele zu erreichen, sichtbar
werden. So wurde hier deutlich, dass beispielsweise die ausschließliche Analyse von
vollständigen Informationen dazu führt, dass mögliche Gefahren zwar aufgedeckt
werden können, es allerdings viel länger dauern wird, bis eine Entscheidung getroffen und diese mit allen teilnehmenden Parteien kommuniziert werden kann. Dies
kann in einer Krise allerdings Menschenleben kosten. Trotzdem wird die Empfehlung
abgegeben, dass das Einbinden von IQ-Dimensionen in die Analyse einer Situation
entscheidende Vorteile bringen kann. Insbesondere hinsichtlich der Koordination von
Aufgaben und Arbeitsabläufen. Allerdings wurde auch festgestellt, dass es möglicherweise notwendig ist, die Rolle eines Informations-Managers zu besetzen, da
durch den Einsatz anderer Werkzeuge und technischer Mittel (die es ermöglichen,
bessere IQ zu liefern) manche Ersthelfer nicht mehr in der Lage sind, effizient in ihrem Bereich zu arbeiten. Dieser Informations-Manager soll zwischen der neuen
Technik und den Mitarbeitern vermitteln und Trainingseinheiten zur neuen Arbeitspraxis abhalten.
In der Arbeit von Friberg, Prödel und Koch (2011) geht es ebenfalls um den Umgang
mit Informationen in Kombination mit den Herausforderungen in Krisensituationen.
Auch hier kommen verschiedene Dimensionen der Informationsqualität zum Einsatz.
44
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Allerdings wird hier versucht, anhand einer Gegenüberstellung zwischen IQ-Kriterien
und Charakteristika von komplexen Situationen
herauszufinden, welche IQ-
Dimensionen besonders relevant in Krisensituationen sind. Ihre Ergebnisse überschneiden sich zum großen Teil mit denen von Gonzalez und Bharosa (2009). Die
Kriterien, die sich daraus ergeben haben, sind die folgenden: Genauigkeit (Accuracy), Prägnanz (Conciseness), Glaubwürdigkeit (Believability), Vollständigkeit
(Completeness), Klarheit (Clarity), Gültigkeit (Validity), Relevanz (Relevance), Pünktlichkeit (Timeliness), Objektivität (Objectivity).
Zur Evaluation, welche dieser Kriterien am wichtigsten für die betroffenen Einsatzkräfte sind, wurden Expertenbefragungen durchgeführt und die verschiedenen Kriterien nach ihrer Relevanz im Einsatz sortiert. Das Ergebnis kann in Anhang H eingesehen werden. Anhand dieser Angaben soll ein IT-System aufgebaut werden, das
automatisch die vorhandenen Informationen über einen kommenden Einsatzort nach
den Ergebnissen der Expertenbefragung filtert. Somit soll ein Überangebot an Informationen vermieden werden und lediglich die relevanten Daten dargestellt werden.
Um die Informationsflut zu minimieren und ein IT-System aufzubauen, das sich bei
zu treffenden Entscheidungen positiv auswirkt, ist es notwendig, genaue Kenntnisse
über das Anwendungsgebiet zu erlangen und die Abläufe im entsprechenden Kontext zu durchschauen (Japs & Prödel, 2009). Um dies zu realisieren, bietet es sich
an, die entsprechenden Prozesse des Zielsystems zu modellieren (z.B. durch ereignisgesteuerte Prozessketten). Dadurch lässt sich erkennen, welcher konkrete Informationsbedarf besteht, um anschließend zu evaluieren, wie dieser durch die vorhandenen Datenquellen gedeckt werden kann.
Ein solches IT-System wurde bereits von der Universität Paderborn & Universität
Dortmund unter dem Namen „Mobis Pro“ entwickelt. Dieses mobile Informationssystem soll Feuerwehren am Einsatzort mit notwendigen Informationen unterstützen und
so ihre Prozesse optimieren, um effektiver arbeiten zu können. Dies geschieht, indem unterschiedliche Daten (die in ihrer Ausgangsform eigentlich inkompatibel waren) aus unterschiedlichen Datenbanken und Datenquellen (Gebäudeverwaltungen,
Planungsämter, Bauordnungsämter, Vermessungsämter, Energie- und Versor-
45
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
gungsunternehmen, Verkehrsbetriebe) zusammengeführt werden und ortsunabhängig zur Verfügung stehen. (Mobis Pro Fact Sheet, 2011)
3.3.1 Forschungsprojekt Infostrom der Universität Siegen
Ley, Pipek, Reuter & Wiedenhöfer (2012) haben bei der Informationsbeschaffung im
Krisenmanagement ebenfalls verschiedene Herausforderungen ausfindig gemacht,
denen die Einsatzkräfte gegenübergestellt sind. Zum Teil decken sich diese auch mit
den bereits erwähnten Kriterien. Darüber hinaus wird aber auch auf die Notwendigkeit von zentralen Informationssystemen, auf die alle beteiligten Rettungskräfte Zugriff haben, hingewiesen. Es ist ebenfalls aufgefallen, dass bestimmte Informationen
für sich alleine genommen nicht aussagekräftig genug sind oder nur in Kombination
mit weiteren Informationen oder Daten an Aussagekraft gewinnen und daher gewisse
Abhängigkeiten zwischen einzelnen Informationsartefakten bestehen. Der in der Arbeit vorgestellte Lösungsansatz umfasst den Aufbau eines kartenbasierten Informationspools. Innerhalb des Informationspool können verschiedene Informationsressourcen (interne & externe) hinzugefügt werden, um anschließend jedem Benutzer die
Möglichkeit zu geben, auf exakt die Information zuzugreifen, die er für seine Arbeit
benötigt. In 2.5 wurde bereits auf die Problematik beim interorganisationalen Krisenmanagement hingewiesen. Auch hier soll dieser gemeinsam genutzte Informationspool dabei helfen, dass alle beteiligten Einsatzkräfte über die gleichen Informationen
verfügen, da eingetragene Veränderungen am Informationsbestand sofort für alle
sichtbar werden. Darüber hinaus können die verschiedenen Parteien über dieses
System miteinander kommunizieren und einander Informationen aus verschiedenen
Kanälen zur Verfügung stellen. Mit diesem Ansatz soll das Ziel verfolgt werden, sowohl die strategische Planung als auch die operative Arbeit zu unterstützen. (Wiedenhöfer et al., 2011)
Im Rahmen dieser Forschungsergebnisse ist das Forschungsprojekt Infostrom 14 der
Universität Siegen entstanden. Der Fokus liegt auf der technischen Unterstützung
der interorganisationalen Zusammenarbeit und organisationsübergreifenden Wiederherstellungsarbeit im Falle eines Stromausfalls entstanden. Dies geschieht mithilfe
14
http://www.infostrom.org
46
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
einer Kollaborationsplattform, der „Sicherheitsarena“. Bei der Sicherheitsarena handelt es sich um ein soziales Intranet, zu dem verschiedene Akteure aus Feuerwehr,
Polizei oder Infrastrukturbetreiber Zugang besitzen und so gemeinsam Informationen
austauschen können. Darüberhinaus verfügt das System über eine interaktive Lagekarte, die individuell gestaltet werden kann.
Um nützliche Informationen zwischen allen Beteiligten auszutauschen und zu sammeln wurde das Subsystem „Informationspool“ geschaffen. Hier hat jeder Benutzer
die Möglichkeit, interessante Informationen festzuhalten und anderen zur Verfügung
zu stellen. Darüberhinaus kann auch eine Verknüpfung mit der Lagekarte geschaffen
werden, indem einzelne Informationsressourcen mit einem regionalen Bezug ausgestattet werden.
Schwächen dieses Systems bestehen momentan noch darin, dass verwandte Informationsressourcen, die gemeinsam Synergieeffekte bilden, nicht identifiziert werden
können. Außerdem haben Benutzer nicht die Möglichkeit, für ihren konkreten Anwendungsfall Informationen, die für ihren Kontext relevant sind, zusammenzufassen.
47
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
4. Informationsqualität auf Datenebene
Bisher wurde der Umgang mit Informationsqualität in verschiedenen Kontexten betrachtet und der Unterschied von Information und Daten deutlich gemacht. Im folgenden soll es verstärkt um den Datenaspekt der Thematik gehen, da in der Forschung
zum Thema Informationsqualität auch vermehrt dieser Bereich behandelt wird.
4.1 Fehlerbehaftete Datensätze
Mithilfe der vorgestellten Ansätze & Methoden zur Bewertung bzw. zur Darstellung
der Informationsqualität wird dem Benutzer in erster Linie versucht darzustellen, in
welcher Lage sich die präsentierten Daten befinden. Sei es durch eine grafische Aufbereitung mittels Dashboard veränderter Wikipedia Artikel oder durch den Hinweis
von wem, wann und wo eine Information erstellt wurde. Allerdings bleibt das Problem, dass Datenbestände trotzdem weiterhin mit Fehlern behaftet sind und somit die
Qualität der Ressource weiterhin darunter leidet, insofern nicht auch eine automatische Fehlerkorrektur stattfindet. Wenn ein Unternehmen oder eine Organisation keine besonderen Anstrengungen vorgenommen hat, ihre Datenbestände qualitativ zu
verbessern und von Fehlern zu befreien, dann sollte im Durchschnitt von einer Fehlerrate von 1-5% ausgegangen werden (Fehlerrate = Anzahl der Fehlerhaften Felder/Anzahl aller Felder) (Redman, 1998).
Der erste Schritt um die Datenqualität zu verbessern ist es, auf das Problem von
schlechter Datenqualität hinzuweisen und deutlich zu machen warum es ein Problem
darstellt das dringend behandelt werden muss. In Unternehmen kann eine schlechte
48
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Datenqualität Auswirkungen auf die Kundenzufriedenheit, steigende Kosten und ineffektive Entscheidungen haben. Langfristig beeinflusst dies sogar die Formulierung
von Zielerreichungsstrategien (Redman, 1998).
Die Kundenzufriedenheit leidet beispielsweise, wenn Waren falsch geliefert wurden,
weil die Kundendatenbank fehlerhafte Einträge enthält. Steigende Kosten fallen
dadurch an, dass laufend Aufwand entsteht, der durch fehlerhafte Daten entstanden
ist. Schätzungsweise fallen 40-60% der Ausgaben einer Organisation aufgrund von
fehlerhaften Daten an. „Decisions are no better than the data on which they are based“ (Redman, 2008). Dementsprechend können gute Entscheidungen für eine effektive Strategie nur getroffen werden, wenn die Datenqualität hoch genug ist.
Bevor verschiedene Ansätze zur Bewältigung von schlechter Datenqualität vorgestellt werden, sollt an dieser Stelle aufgezeigt werden, dass Fehlerhafte Daten nicht
immer die gleiche Ausprägung haben, sondern sehr vielfältig auftreten können. In
Anhang I ist eine Einteilung von „Missing and non-missing-Data“ grafisch vorgenommen und soll die verschiedenen Ausprägungen die „dirty data“ haben kann verdeutlichen (Onifade & Akomolafe, 2011). Daten die auf den ersten Blick fehlerhaft, unvollständig oder mit wenig Informationsgehalt erscheinen, können durch eine solche Kategorisierung plötzlich einige interessante zusätzliche Informationen zum Vorschein
bringen. Kim et al. (2002) hat drei Kategorien vorgestellt, anhand derer man unterscheidet: Missing Completely at Random, Missing at Random und Missing Not at
Random.
Wenn es keinerlei Hinweis darauf gibt, dass z.B. in einem Formular ein Feld absichtlich nicht ausgefüllt wurde, spricht man von Missing Completely at Random. Es kann
also kein Zusammenhang zwischen einem nicht ausgefüllten (falsch ausgefüllten
Feld) und beispielsweise einer Bevölkerungsgruppe hergestellt werden. Das Gegenteil ist bei Missing Not at Random der Fall. Dort kann unter Umständen eine Information dadurch gewonnen werden, dass ein Feld in einem Formular absichtlich nicht
ausgefüllt wurde. Beispielsweise geben Personen mit einem geringen Einkommen
seltener Informationen darüber preis, wie viel sie verdienen, als andere (Dunning &
Freedmann, 2008). Von Missing at Random ist die Rede, wenn ein fehlender Wert
49
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
zwar mit einem anderen nicht in Verbindung gebracht werden kann, es aber unklar
ist, ob es nicht vielleicht doch noch einen Wert gibt, wo eine Verbindung hergestellt
werden kann und warum dieses Feld des Formulars nicht ausgefüllt wurde.
Es ist also festzuhalten, dass auch mit fehlerbehafteten Datenbeständen, die als
wertlos erscheinen, bei entsprechender Analyse und Bearbeitung, Auffälligkeiten und
Informationen erscheinen können, die trotzdem zur Mehrinformation beitragen können.
4.2
Ansätze und Methoden zur Verbesserung von Datenqualität
Redman (2008) vergleicht Datenqualität mit einem See, dieser stellt die Datenbank
an sich dar und das Wasser des Sees steht für die Daten. In einem Unternehmen
oder einer Organisation fallen regelmäßig neue Daten an, dies wird durch den Zufluss zum See illustriert. Dieser Zufluss wird allerdings durch angrenzende Firmen
stark verschmutzt und somit kommt das eigentlich frische Wasser (Daten) nur mit
minderer Qualität an. Die Endnutzer müssen mit diesem vorhandenen Wasser arbeiten und zurecht kommen.
Redman stellt drei Arten vor, wie man dem Problem begegnen kann. Der erste Ansatz beschreibt das Vorgehen, das dann zum Einsatz kommt, wenn es bereits zu
spät ist. Die Datenqualität des „data-lakes“ ist zu gering als dass man sie noch verwenden kann, dementsprechend soll die Datenquelle komplett geschlossen werden,
da man ihr nicht mehr vertrauen kann und sie zu minderwertiges Wasser (Daten)
liefert. Dieser Ansatz ist natürlich nicht optimal, allerdings bleibt häufig kein anderer
Ausweg, da sich in der Vergangenheit zu wenig um die Datenqualität im Unternehmen oder der Organisation gekümmert wurde.
Der zweite vorgestellte Ansatz beschäftigt sich damit, dass der Datenbestand versucht wird aufzuräumen. Dieser Ansatz kann zwar sehr effektiv sein, da fehlerhafte
Daten oder nicht vorhandene Daten korrigiert und eingefügt werden, allerdings ist er
auch sehr zeitaufwendig und kostspielig. Grund dafür ist, dass dieser Prozess eigentlich nie beenden werden kann, da Fehler immer wieder auftreten werden – auch bei
der zukünftigen Neugewinnung von Daten.
50
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Der dritte Ansatz geht der Fehlerquelle auf den Grund und versucht diese zu beheben. Beispielsweise kann sich bei den Mitarbeitern, die für die Dateneingabe verantwortlich sind, eingebürgert haben, dass das System „N/A“ als erlaubte Eingabe zwar
akzeptiert, es aber durch diese Eingabe im weiteren Verarbeitungsprozess zu neuen
Fehlern kommt und somit selbständig fehlerhafte Datensätze von den eigenen Mitarbeitern produziert werden. Eine Mitarbeiterschulung kann diese Problematik sofort
beheben. In Organisationen gibt es nur wenige dieser Fehlerquellen, allerdings kann
die Qualität um ein vielfaches gesteigert werden, wenn diese beseitigt werden. Der
Ansatz des „Prevention Approach“ sollte dementsprechend bevorzugt werden. Allerdings zeigte sich in der Vergangenheit, dass Organisationen erst bereit sind Geld für
ihre Datenqualität auszugeben, wenn dieser Ansatz nicht mehr ausreicht, sondern
nur noch der Datenbestand durch Säuberungen oder komplette Reorganisation in
Ordnung gebracht werden kann (Rhind, 2007).
Der Einsatz von semantischen Technologien wäre für den von Redman (2008) definierten „Prevention Approach“ eine besondere Rolle. Demnach sollten Informationen,
seien sie aus dem Internet oder aus dem Unternehmen generiert, immer direkt in
einer Maschinenlesbaren Form zur Verfügung gestellt werden und somit auch ihre
genaue Bedeutung definieren. Für diesen Zweck bieten sich bereits existierende Datenformate wie XML, RDF(S) und OWL an (Hitzler et al., 2007). Durch die Maschinenlesbare Form können Daten schneller bereinigt und gesuchte Daten schneller
gefunden werden.
Mithilfe dieser Standardisierten Datenformate werden Metainformationen zu einem
Datum hinzugefügt. Dies geschieht häufig mithilfe von sogenannten „Tags“. Diese
Tags umschließen einen bestimmten Teil eines Textes, damit ein Programm versteht
wie mit diesem Teil des Textes umgegangen werden soll. HTML (Hypertext Markup
Language) ist ebenfalls eine sogenannte Markup-Sprache und kommuniziert über
Tags mit dem Browser um ihm mitzuteilen, wie ein bestimmter Teil eines Textes dargestellt werden soll.
<i>Beispieltext</i> in Kursiv
51
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Mithilfe diesen Tags wird im obigen Beispiel dem Browser mitgeteilt, dass „Beispieltext“ kursiv dargestellt werden soll. Im Kontext der Verbesserung von Informationsund Datenqualität können Tags beispielsweise dazu eingesetzt werden um den
Computer darüber zu informieren, von wem ein Text geschrieben wurde, wann er
geschrieben wurde oder in welcher Sprache er verfasst ist. Darüberhinaus gilt das
finden und wiederfinden von Informationen als wichtigste Aktivität für Benutzer des
Internets und dementsprechend wichtig ist es möglichst viele Metainformationen über
Daten verwenden zu können (Seitlinger, Ley 2012). Um diesen Prozess im Alltag zu
erleichtern hat sich „social tagging“ etabliert. Dabei werden Webinformationen mittels
kurzen Schlagworten versehen, um später bestimmte Bilder, Videos oder Artikel wiederzufinden. Es werden also Daten über Daten angelegt (Metadaten) (Greenberg,
2003).
Das anlegen dieser Metadaten kann sowohl manuell durch einen Menschen als auch
automatisch erfolgen. Die Qualität der Metadaten die manuell erstellt wurden hängt
davon ab, wie die Kenntnis des Autors über den Nutzen und Einsatz von Metadaten
ist. Metadaten die manuell angelegt werden, findet man häufig dort wo Beschreibungen angegeben werden, die von Suchmaschinen erfasst werden sollen. Das automatische anlegen von Metadaten findet bei Computersystemen nahezu kontinuierlich
statt (Erstellungsdaten, Versanddaten, Geografischer Standort) (Greenberg, 2003).
Allerdings fehlt es an dieser Stelle häufig an Daten, die bei der Einordnung der genauen Bedeutung und des Kontexts helfen.
Ein weiterer Ansatz zur Verbesserung schlechter Datenqualität geht in die Richtung,
dass die Datenqualität nicht weiter verbessert wird, sondern die Fähigkeiten von
Suchalgorithmen erweitert werden (Onifade & Akomolafe, 2011). Hierzu kommen so
genannte „Fuzzy Search“ Algorithmen zum Einsatz, die den Suchbegriff zwar für die
Suche verwenden, darüber hinaus aber auch zusätzliche Suchbegriffe erstellen, die
vielleicht auch vom Nutzer gemeint sein könnten. Somit wird die Suche verbreitert,
aber damit auch automatisch die Vielfalt der Suchergebnisse. In bestimmten Fällen
kann diese Methode allerdings trotzdem sehr gute Ergebnisse liefern. Beispielsweise
wenn die Eingabe eines Datenformates in einem bestimmten Format erfolgt ist, die
Datenbank aber verschiedene Repräsentationen des beherbergt.
52
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Wie man sieht, gibt es verschiedene Möglichkeiten, wie man schlechter Informationsqualität bzw. schlechter Datenqualität begegnen kann. Es gibt keine Pauschallösung zur allgemeinen direkten Verbesserung, da es jeweils von der Ausgangslage,
dem Kontext und den Zielen die man erreichen möchte abhängig ist.
5. Konzept
5.1 Konzeptionelle Vorüberlegungen
In der vorherigen Literaturrecherche wurde ein Überblick über praktische Methoden
und theoretische Bewertungsmöglichkeiten von Informationen gegeben. Im folgenden sollen anhand des bereits vorgestellten Forschungsprojekts Infostrom konkrete
Vorschläge zur Steigerung der bedarfsgerechten Informationsversorgung innerhalb
des Projekts geben werden. Insbesondere wird an dieser Stelle auf das Subsystem
der Sicherheitsarena – den „InfoPool“ eingegangen.
Zur konzeptionellen Vorüberlegung der Gestaltung und Anordnung der einzelnen
Elemente habe ich verschiedene Mock-Ups mit Adobe Photoshop & Axure erstellt.
Einzelne Abbildungen aus diesem Kapitel wurden daraus verwendet.
Zur Orientierung, welche potentiellen Erweiterungen am Informationspools vorgenommen werden können, habe ich mich an dem in der Literaturrecherche vorgestellten Kriterienkatalog von Eppler (2006) orientiert (Anhang E). Im Anhang J habe ich
eine Übersicht über alle Bewertungskriterien erstellt und kenntlich gemacht an welchen Stellen eine Verbesserung möglich wäre. Davon ausgehend, habe ich die nachfolgenden potentiellen Verbesserungsmöglichkeiten entworfen und im Anschluss daran auch implementiert.
53
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
5.2
Darstellung potentieller Verbesserungsmöglichkeiten
5.2.1 Zusammenfassen von Informationsressourcen
Bisher ist es für den Benutzer des Informationspools nicht möglich einzelne Informationsartefakten zusammenzufassen und bestimmten Anwendungsfällen bzw. Kontexten (z.B. Brand, Verkehrsunfall, Wetterentwicklung) zuzuordnen um so bei wiederkehrenden Ereignissen sofort auf die aus der Vergangenheit bewährten Informationsressourcen zugreifen zu können und so das schnellere Verfügbar machen von Informationen zu ermöglichen. Diese Zusammenstellung von auf den ersten Blick unterschiedlichen Informationen ist insofern interessant, als dass sich daraus in bestimmten Kontexten Synergieeffekte erzielen lassen. So ist es beispielsweise möglich aus
einer Zusammenstellung von Informationen bestehend aus Wettervorhersage und
den aktuellen Pegelständen in der Region eine genauere Aussage darüber treffen zu
können wie sich ein etwaiges Hochwasser entwickelt. Außerdem ergeben sich durch
eine solche Kontextzuordnung von einzelnen Informationsartefakten mögliche interessante Metadaten, die im folgenden weiterverwendet werden können.
Beurteilt wurde dieser Zustand nach dem Kriterium der Interaktivität, das darüber
eine Aussage trifft, inwiefern der Benutzer die Möglichkeit besitzt für seine Bedürfnisse Anpassungen vorzunehmen und diese zu adaptieren.
Um hier eine Verbesserung herbeizuführen soll das zusammenfassen von Informationen innerhalb von „Infomappen“ geschehen. Innerhalb dieser Infomappen soll jeder
Benutzer individuell für bestimmte Kontexte Informationen zusammenstellen können.
Wie bisher gewohnt kann der Benutzer des Informationspools mit den vorhandenen
Werkzeugen durch den Informationspool blättern und diesen durchsuchen oder filtern. Zusätzlich bietet sich jetzt die Möglichkeit mithilfe eines Dropdownmenüs eine
neue Infomappe anzulegen oder den gesamten Informationspool anhand bereits angelegter Infomappen zu filtern (Abbildung 10). Das zuordnen einer Information zu
einer Infomappe soll über das Kontextmenü „Optionen“ geschehen. Wurde eine Infomappe über das Dropdownmenü ausgewählt, wird die Tabelle entsprechend gefiltert und nur die Informationen sind sichtbar, die zu dem gewählten Kontext gehören.
In dieser Ansicht sollen sich auch einzelne Informationsressourcen wieder aus der
54
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
gewählten „Infomappe“ entfernen lassen. Dies soll ebenfalls über einen entsprechenden Eintrag im Optionsmenü geschehen.
Da einzelne Anwendungsfälle immer wieder auftreten können und von unterschiedlichen Benutzern bearbeitet werden, soll ebenfalls die Möglichkeit bestehen eine Infomappe zwischen den Benutzern auszutauschen. Dies soll über die Funktion „Mappen von anderen Benutzern“ ermöglicht werden. Hier soll der Name eines Anderen
Benutzer der Sicherheitsarena eingeben werden können, um sich auf diese Weise
die bereits vorhandene Infomappen anzeigen zu lassen und für die eigene Verwendung zu übernehmen.
Auf diese Weise lassen sich die Informationen zusammentragen, die für den Benutzer in seiner Aufgabe Synergieeffekte erzeugen oder auch nur für einen bestimmten
Fall besonders wichtig sind und zusammen gehören. Außerdem kann schneller auf
benötigte Informationen zugegriffen werden, insbesondere wenn routinierte und wiederkehrende Ereignisse eintreten.
Abbildung 10: Auswahl der Infomappe
55
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
5.2.2 Empfehlungssystem für potentiell relevante Informationen
Im vorherigen Abschnitt wurde bereits das zusammenstellen von verwandten Informationen, die gemeinsam möglicherweise Synergieeffekte erzielen, bzw. Informationen die dem gleichen Kontext zuzuordnen sind vorgestellt. Innerhalb der Literaturrecherche wurde häufig das Problem der „Information Overload“ festgestellt, also das
es bei umfangreichen Informationssammlungen schwer ist einen Überblick zu bewahren oder bestimmte gesuchte Informationen auch zu finden. Diese Problematik
besteht ebenfalls im betrachteten Projekt, da jeder Benutzer die Möglichkeit besitzt
für ihn interessante Informationen zum Informationspool hinzuzufügen. Bei umfangreichen Informationssammlungen ist es für den Benutzer schwer neue potentiell interessante Informationen zu entdecken – ohne das gesamte Archiv zu durchsuchen.
Dies gestaltet sich noch schwerer, wenn der Benutzer nicht in der Lage ist zu formulieren was genau er sucht oder diese unter anderen Begriffen sucht als sie indexiert
wurden. Somit leidet das Bewertungskriterium der „Convenience“, also dass möglicherweise viele Schritte im Informationsprozess notwendig sind um an die gewünschte Information zu gelangen. Darüberhinaus kommen immer neue Informationen hinzu, über die der Anwender noch nicht informiert ist, für ihn aber möglicherweise interessant sein können.
Um dem entgegen zu treten soll ein Empfehlungssystem aufgebaut werden, das
ausgehend von den einzelnen Benutzerindividuellen Zusammenstellungen innerhalb
der Infomappen, Informations-Empfehlungen für jeden Benutzer ausspricht. Somit
soll der Benutzer auf mögliche harmonisierende Informationen zusätzlich zur gerade
betrachteten Information hingewiesen werden. Bisher war eine solche Auswertung
von möglichen harmonisierenden Informationen nicht möglich, da das System keine
Kenntnis darüber besaß welche Informationen gemeinsam verwendet werden bzw.
für einen gemeinsamen Kontext relevant sind. Neben der gemeinsamen Verwendung
innerhalb der Infomappen soll auch eine Empfehlung über eine Information ausgesprochen werden, wenn eine Information von einem anderen Mitglied der eigenen
Organisation (THW, Feuerwehr, Polizei) verwendet wird. Auf diese Weise soll es
auch neuen Benutzer der Sicherheitsarena ermöglicht werden schnell an Informationen zu gelangen, die für ihn interessant sind.
56
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Der Grundgedanke dieser Form des Empfehlungssystems ähnelt der Art des kollaborativen Empfehlungssystems (Klahold, 2009). Ausgehend von allen Zusammenstellungen (Infomappen) von Informationen aller Benutzer kann ermittelt werden welche
Informationen häufig miteinander kombiniert werden und dementsprechend gut harmonisieren. Darüberhinaus werden Informationen, die von Benutzern der selben Organisation in einer Infomappe kombiniert wurden, höher bewertet und entsprechend
vorrangig dargestellt.
Der Nachteil dieser Form ist allerdings, dass das System erst entsprechend genau
arbeitet, wenn genügend Benutzer ihre Infomappen zusammengestellt haben und
somit ein ausreichender Datenbestand besteht.
Sichtbar wird die Empfehlung von harmonisierenden Informationen in der Detailansicht einer angeklickten Information (Abbildung 11). Bei der Gestaltung und Ausarbeitung soll sich am Empfehlungssystem von Amazon.com orientiert werden (Mangalindan, 2012).
Für einen optimalen Aufbau wäre eine Ergänzung um eine inhaltsbasierte Komponente des Empfehlungssystems notwendig. Das bedeutet, dass der Benutzer, so wie
die Informationen, noch viel stärker attribuiert werden müssten um noch genauer bestimmen zu können welche Informationen optimal zu welchem Typ von Benutzer
passen. Um dies zu erreichen müssten die Attribute und das Verhalten des Anwenders noch besser abgegriffen werden, sowohl durch explizites Abfragen als auch
durch implizites Verhalten. Beispielsweise könnte erfasst werden welche Begriffe
häufig gesucht werden oder welche Informationstypen am meisten angeklickt werden
um darauf aufbauend weitere Faktoren bei der Empfehlung in Betracht zu ziehen.
Dadurch lies sich dann noch besser bestimmen, welche Informationen für ihn in der
jeweiligen Situation interessant sein können. Diese Erfassung ist allerdings sehr
komplex und zeitaufwendig. Dementsprechend musste ich mich im Rahmen meiner
Bachelorarbeit auf die bereits vorgestellten Komponenten für das Empfehlungssystems beschränken.
57
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Abbildung 11: Informationsdetails mit Empfehlung
5.2.3 Automatisches Vervollständigen der Metainformationen
Beim Hinzufügen neuer Informationen zum Informationspool ist der anlegende Benutzer in der Verantwortung seine Information auch richtig zu dokumentieren und alle
notwendigen Felder korrekt auszufüllen. Je mehr Metainformationen er dabei angibt,
desto leichter wird es für andere Benutzer Informationen zu finden. Werden falsche
Metainformationen angegeben bzw. unvollständige, sinkt die Qualität der hinzugefügten Information und sorgt dafür dass diese möglicherweise sehr wichtige Information
untergeht und nicht verwendet wird. Die Korrektheit der Daten ist also nur durch den
Ersteller gewährleistet und wird nicht durch das System evaluiert und auch nicht angereichert.
Um hier eine Verbesserung zu schaffen, soll eine automatische Erfassung von Metainformationen implementiert werden. Wird beispielsweise eine Webseite hinzugefügt, können die dort bereits vorhanden Metainformationen der Webseite, die beispielsweise zur Suchmaschinenoptimierung eingesetzt werden, ausgelesen werden
und zur Information hinzugefügt werden.
58
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Hat der Ersteller oder das System der originalen Kerninformation eine Metainformation hinterlegt, wann die Webseite zuletzt bearbeitet wurde lässt sich so auch ermitteln, ob es Veränderungen über den Zeitverlauf gegeben hat – alternativ kann dies
auch über die Dateigröße festgestellt werden. Durch die automatische Auswertung
des „content-types“ kann das System nun auch eine genauere Kategorisierung der
Informationsressource vornehmen. In der derzeitigen Situation werden lediglich eine
Auswahl an möglichen Informationstypen zur Verfügung gestellt. Beim hinzufügen
einer Webadresse kann so auch geprüft werden ob diese tatsächlich existiert oder
dem Benutzer möglicherweise ein Schreibfehler unterlaufen ist.
Wie umfangreich diese Anreicherung der Metainformationen ausfällt, hängt davon
ab, wie sehr das Ausgangsmaterial gepflegt wurde.
Das Ziel soll es sein, die breite der Metainformationen zu einer hinzugefügten Information zu erhöhen und dabei die manuelle Erfassung von Metainformationen durch
eine automatische Erfassung zu ergänzen. Außerdem soll durch die neu gewonnen
Metadaten versucht werden, eine Aussage zur Aktualität, Verfügbarkeit und Änderungsverlauf einer Information zu treffen.
Abbildung 12: Detailansicht Informationsressource mit Status der Ressource
Zur Umsetzung des Auslesens der Metainformationen soll die Open Source Software
Tika15 von Apache eingesetzt werden. Tika extrahiert Metadaten und strukturierten
Texte aus vielen unterstützen Dokumentformaten
15
https://tika.apache.org/
59
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
5.2.4 Festhalten des Inhalts einer Informationsressource
Wird der Informationspool durchsucht, werden für die Suchergebnisse lediglich die
angegebenen Metainformationen zur Hilfe genommen und nicht der Inhalt von vorhandenen Webinformationen. Dies soll sich ändern indem bereits beim Hinzufügen
einer Informationsressource der Inhalt der Webseite geparst wird und zum Suchindex hinzugefügt wird. Somit wird es auch das vollständige durchsuchen möglich,
auch wenn bestimmte Schlagworte nicht durch den Benutzer aufgenommen wurden.
Umgesetzt wird diese Funktionalität ebenso wie das Auslesen der Metainformationen
durch die Open Source Software Tika14.
Neben der inhaltlichen Erfassung soll ebenfalls das Aussehen der Informationsressource festgehalten werden. Dies soll der Wiedererkennbarkeit dienen, da anhand
der visuellen Darstellung der Information schneller festgestellt werden kann worum
es sich dabei handelt (Abbildung 13).
Abbildung 13: Detailansicht Informationsressource mit Vorschaubild
Die Screenshots der Information können ebenfalls für das Empfehlungssystem eingesetzt werden (Abbildung 11).
60
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
5.2.5 Bewertung von Informationsressourcen
Bisher wird durch die Anzahl der Verwendungen einer Informationsressource eine
Aussage getroffen, wie beliebt diese bei den Nutzern ist. Allerdings wird dadurch
nicht erfasst, ob die Benutzer auch zufrieden sind und ob man der Information auch
vertrauen kann. Deshalb soll hier ein System eingesetzt werden, dass die „Reputed
Credibility“ (Fogg & Tseng, 1999) erhöht. Konkret bedeutet dies, dass die Benutzer
die Möglichkeit bekommen sollen, individuell zu entscheiden, ob die Information generell für sie hilfreich gewesen ist oder nicht. Darüber hinaus wäre auch das Einführen eines „Sternesystems“ denkbar, mithilfe dessen der Benutzer Aussagen über
seine Zufriedenheit über die Information treffen kann.
6. Implementierung
Im vorherigen Kapitel wurde ein konzeptioneller Überblick über mögliche Lösungsansätze zur Steigerung der bedarfsgerechten Informationsversorgung am Beispiel des
Projekts Infostrom und der Sicherheitsarena vorgestellt. Im folgenden soll die konkrete Implementierung des Prototypen dargestellt und erläutert werden. Zunächst soll
die Umsetzung der Sicherheitsarena durch das Open Source Projekt „Elgg“ vorgestellt werden, anschließend das bisher implementierte Plug-In des Informationspools
und danach die im Rahmen der Bachelorarbeit getätigten Modifizierungen dieses
Plug-Ins. Abschließend wird die Implementierung der Schnittstelle zur Anreicherung
der Metadaten vorgestellt.
Die gesamte Implementierung fand auf einem privaten Server statt und somit ebenfalls auf einer separaten Installation der Sicherheitsarena. Um die Übertragung der
61
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
entwickelten Version problemlos zu ermöglichen, wurde darauf geachtet die identischen Versionen aller verwendeten Plug-Ins und der Elgg-Plattform an sich zu verwenden.
Eine Testversion mit Testdaten ist online unter http://elgg.knob1.de zu erreichen. Für
den Login ist der Benutzername „testuser“ mit dem identischen Passwort zu verwenden.
6.1 Social Networking Engine Elgg16
Bei dem Open Source Projekt Elgg handelt es sich um ein Framework, das es ermöglicht soziale Umgebungen in Form eines sozialen Netzwerks nachzubilden. Im
Projekt Infostrom wird das soziale Netzwerk dazu verwendet, unterschiedlichen Akteure aus verschiedenen Kontexten eine Austauschplattform zu geben um Informationen und Nachrichten auszutauschen. Konkret bedeutet das, dass Feuerwehrleute,
Polizeibeamte oder Helfer des THWs so die Möglichkeit bekommen Informationen
auszutauschen.
Das Framework bietet umfangreiche Funktionen zur Modifikation der open Source
Software um z.B. einzelne Elgg-Objekte (dies können Benutzer, Ereignisse, Nachrichten etc. sein) miteinander in Relation zu setzen oder bestehende Objekte zu erweitern. Durch die umfangreiche API gibt es viele Möglichkeiten das System nach
Bedarf zu verändern. Komplexe zu formulierende SQL abfragen werden auf diese Art
überflüssig. Relationen von Benutzern (Objekten) lassen sich beispielsweise direkt
per Funktionsaufruf abrufen.
Neben Funktionen wie Benutzerverwaltung und Nachrichtenaustausch bietet das
System durch seine Plug-In Schnittstelle die Möglichkeit es durch beliebige Funktionalitäten zu erweitern. Dadurch lassen sich beispielsweise Funktionen zum gemeinsamen Kalender und Termine verwalten ergänzen oder das Erscheinungsbild der
Benutzeroberfläche verändert werden. Darüberhinaus ist Elgg von Grund auf Multi-
16
http://www.elgg.org
62
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
lingual ausgelegt. Dementsprechend lässt sich das Grundsystem auch mittels eines
passenden Plug-Ins in beliebig viele Sprachen übersetzen.
Im Falle der Sicherheitsarena wurde das System durch verschiedene Plug-Ins erweitert. Insbesondere im Bereich der Zusammenarbeit zwischen den einzelnen Akteuren. Durch diese Erweiterungen besteht beispielsweise mittlerweile die Möglichkeit
anhand einer Lagekarte Informationen einzuzeichnen, Gebiete zu markieren und so
genannte KML Daten, die Geodaten für eine bestimmte Region enthalten, einzubinden.
Eine weitere Kernkomponente der Sicherheitsarena ist das Plug-In „Informationspool“, durch den jeder Benutzer die Möglichkeit hat, für ihn wichtige Informationen für
andere bereitzustellen. Diese Informationen kann er selbst anlegen, indem er einen
Text verfasst oder einen Link zu einer Informationsquelle hinterlegt. Außerdem lassen sich auch Webdienste einbinden und auf der Lagekarte darstellen.
Neben diesen nicht öffentlichen Erweiterungen, die speziell für die Sicherheitsarena
erstellt wurden, existiert auf der Elgg-Webseite ein Verzeichnis, wo alle öffentlichen
Erweiterungen entsprechend ihrer Kategorie aufgeführt werden.
6.2
Technischer Aufbau des bestehenden Plug-Ins
Bevor mit der eigentlichen Implementierung begonnen werden konnte musste ich mir
einen kompletten Überblick über den Aufbau des Plug-Ins, das es zu modifizieren
galt, verschaffen. Im folgenden soll dies erläutert werden.
Die Elgg-Plattform basiert auf der Programmiersprache PHP. Für gewöhnlich sind
dementsprechend auch die Plug-Ins in PHP geschrieben, da die Elgg-API Aufrufe
zur Plattform nur in PHP zur Verfügung stehen. Die Programmiersprache ist so aufgebaut, dass der geschrieben Code serverseitig verarbeitet wird und nicht an den
Browser übermittelt wird, sondern lediglich die generierte Webseite zur Darstellung
gesendet wird. Das hat zur Folge, dass für jede Änderung der Ansicht, die Webseite
vom Server neu geladen werden muss.
63
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Damit Seiten nicht immer wieder neu geladen werden müssen, geht der Trend in der
Webentwicklung dahin, dass der Code der Webseite im Browser des Benutzers ausgeführt wird und mit dem Server hauptsächlich nur über AJAX Anfragen kommuniziert wird. AJAX (Asynchronous JavaScript and XML) ist eine Methode, mit der bestimmte Daten von einem Server abgefragt werden oder zu einem Server gesendet
werden können, allerdings in asynchroner Form, das heißt die Anfrage zum Server
kann gestellt werden, der Code nach der Anfrage muss allerdings in der Regel nicht
in der Ausführung gestoppt werden. Die Antwort des Servers wird dann verarbeitet
sobald die Daten verfügbar sind. Diese Technik wird auch im vorliegenden Plug-In
verwendet.
Somit ist das gesamte Userinterface in JavaScript, HTML und CSS geschrieben und
wird dynamisch vom Browser generiert. Die Daten, die von der Elgg-Plattform benötigt werden (beispielsweise Benutzerdaten oder Informationsressourcen) werden per
AJAX von einer entsprechend implementierten Schnittstelle abgerufen.
Diese Schnittstelle ist in PHP implementiert und liefert bei entsprechender Abfrage
immer ein Ergebnis in Arrayform zurück. Dieses Array kann dann beispielsweise alle
vorhandenen Informationsressourcen enthalten, die dann vom JavaScript Code in
einer Tabelle formatiert werden.
Somit ist es für die Implementierung notwendig gewesen, sowohl diese Schnittstelle
zur Kommunikation zwischen Userinterface und Elgg anzupassen und zu erweitern
als auch die entsprechende Datenverarbeitung im Browser für das Userinterface.
6.3
Modifizierung des Informationspools
6.3.1 Informationsverwaltung und Organisation
Im folgenden sollen die konkreten Erweiterungen am Informationspool Plug-In beschrieben und aufgezeigt werden. Eine der elementaren Aufgaben bestand darin
eine Möglichkeit zu schaffen, die vorhandenen Informationsressourcen Benutzerindividuell zu organisieren und einzelnen Anwendungsprofilen/Anwendungskontexten
(Infomappen) zuzuordnen. Um dem Benutzer die Möglichkeit zu geben den gesamten Informationspool dahingehend zu filtern dass er nur das sieht, was er für einen
64
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
bestimmten Fall benötigt. Außerdem ergeben sich dadurch Daten, die darüber Aufschluss geben, welche Informationen thematisch zusammengehören.
Diese Funktionalität wurde so umgesetzt, indem der Benutzer jetzt die Möglichkeit
hat über ein Dropdownmenü sowohl neue Infomappen anzulegen, als auch vorhandene auszuwählen. Bei der Auswahl einer vorhandenen Infomappe wird die bereits
vorhandene Informationstabelle des Javascript DataTable Frameworks17 so gefiltert,
dass nur die zur Infomappe zugeordneten Informationen sichtbar werden. Alle bisherigen zusätzlichen Funktionen zum sortieren und filtern beispielsweise nach Typ oder
bleiben weiterhin verfügbar. Diese Funktionen zum filtern und organisieren der Informationen in Infomappen ist in allen eingerichteten Tabs („von mir“, „kontakte“, „regional“) vorhanden.
Soll eine neue Infomappe angelegt werden, erscheint nach klick auf den entsprechenden Menüpunkt ein Eingabefeld um einen Namen festzulegen. Sobald eine
neue Infomappe angelegt wird, erstellt Elgg ein neues Objekt und speichert dies in
der Datenbank ab. Dieses Objekt besitzt sowohl einen Namen (Name der Mappe),
eine eindeutige Identifikationsnummer und einen Besitzer. Die Zuordnung zwischen
Information und Mappe geschieht durch eine Elgg spezifischen Beziehungstyp ("info_belongs_to“). Anhand dieser Beziehung lassen sich anschließend alle zugehörigen Informationen filtern.
Um eine Information aus einer Infomappe zu entfernen oder zu dieser hinzuzufügen
wurde das bestehende Optionen-Kontextmenü um diese Funktionalität erweitert. Abhängig davon ob man sich gerade in einer Infomappe befindet oder nicht, ergibt sich
entweder die Option zum Hinzufügen oder zum Entfernen einer Information (Abbildung 14).
17
https://datatables.net/
65
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Abbildung 14: Information zu Mappe hinzufügen oder entfernen
Damit sowohl Infomappen als auch einzelne Informationsressourcen problemlos gelöscht werden können, musste darauf geachtet werden, dass bevor das eigentliche
Objekt gelöscht wird alle vorher eingegangenen Beziehungen erfolgreich aufgelöst
werden. Dementsprechend musste bei einzelnen Löschfunktionen eine Änderung
vorgenommen werden.
Da die Infomappen Benutzerindividuell abgespeichert werden, wurde die Möglichkeit
implementiert sich die Infomappen von anderen Benutzern anzeigen zu lassen und
diese entweder komplett für sich zu übernehmen, oder aber nur einzelne Informationsressourcen. Um eine Infomappe eines gesuchten Benutzers zu übernehmen, ist
ein Klick auf das rote Pluszeichen neben dem Namen der Mappe notwendig (Abbildung 15). Bei der kompletten Übernahme wird ein neues Elgg-Objekt erstellt und alle
Beziehungen zwischen Infomappe und Information in das neue Objekt kopiert. Somit
wird ausgeschlossen, dass einzelne Benutzer die Infomappen von anderen verändern oder löschen können.
Abbildung 15: Infomappen von anderen Benutzern anzeigen & übernehmen
66
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
6.3.2 Empfehlungssystem für Informationsressourcen
Jede Informationsressource verfügt über eine Detailansicht, bei der Metainformationen wie Ersteller, Datum oder Beschreibungstext angezeigt werden. An dieser Stelle
wurde die Detailansicht um eine Ansicht auf möglicherweise für den Benutzer interessante Informationen ergänzt.
Sobald die Detailansicht einer Information aufgerufen wird, sucht ein Algorithmus im
Hintergrund die Informationen aus allen im System vorhandenen Infomappen zusammen und gruppiert diese anhand ihrer Infomappen-Zugehörigkeit. Anschließend
werden alle Infomappen aussortiert, die die gerade betrachtete Information nicht enthält. Die übriggebliebenen Infomappen enthalten demnach die gerade betrachtete
Information und darüberhinaus weitere Informationen die in irgendeinem Verhältnis
zu ihr stehen. Jetzt werden diese Infomappen wiederrum durchlaufen und geprüft wie
häufig einzelne Informationen darin auftauchen, um so darauf zu schließen, wie oft
Benutzer die gerade betrachtete Information mit anderen empfehlungswürdigen Informationen verwenden und demnach wie relevant diese sind.
Ein weiteres Kriterium des Algorithmus beachtet die Organisation des gerade eingeloggten Benutzers und die, von dem die einzelne Infomappe stammt die gerade
durchlaufen wird. Sind die Organisationen identisch, also vom gerade eingeloggten
Benutzer und die der Infomappe, in der sich die Information befindet die gerade betrachtet wird, dann wird die Punktzahl der Relevanz verdoppelt.
Anhand eines Beispiels und Abbildung 16 soll diese Funktionsweise noch einmal
verdeutlicht werden. Benutzer A ist Feuerwehrmann und betrachtet gerade eine Information. Benutzer B hat im Vorfeld die aktuell betrachtete Informationsressource
zusammen mit anderen Informationen einer Infomappe zugeordnet. Benutzer C hat
diese Information ebenfalls mit anderen Informationen einer Infomappe zugeordnet,
darüberhinaus ist dieser ebenfalls Feuerwehrmann, während B bei der Polizei beschäftigt ist. Somit werden Benutzer A nun vorrangig die Informationen in geordneter
Reihenfolge präsentiert, die Benutzer C in seiner Infomappe verwendet hat. Überschneiden sich die Informationen die B und C jeweils in ihrer Mappe haben, dann
erhöht sich ihre Relevanz und wird weiter vorne in der Liste platziert. Je mehr Benut67
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
zer ins Spiel kommen, umso komplexer wird natürlich die Auswertung der Daten aber
auch entsprechend genauer wird die Empfehlung von verwandten Informationen.
Sortiert werden die Empfehlungen im Userinterface von links nach rechts, entsprechend ihrer Relevanz.
Abbildung 16: Grafische Darstellung des Empfehlungsalgorithmus
6.3.3 Schnittstelle zur Vervollständigung der Metadaten
Zur Umsetzung des in 5.2.3 beschriebenen Konzepts zur Vervollständigung der Metadaten einer Webinformation wurde eine externe REST-API implementiert, die per
POST-Request angesprochen wird. Beim hinzufügen einer neuen Webinformation
zum Informationspool hat man nun die Möglichkeit beim einfügen der URL und anschließenden druck des entsprechenden Buttons die URL an die neu geschaffene
API zu senden und auswerten zu lassen. Das Ergebnis wird dann nach wenigen Sekunden in den entsprechenden Feldern dargestellt.
68
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Die Implementierung der Schnittstelle erfolgte auf der Plattform Node.js 18 und ist
demnach in der Programmiersprache JavaScript geschrieben. Bei Node.js handelt es
sich um eine Art Framework zum ausführen von Serverseitigem JavaScript Code.
Für die Entwicklung mittels node.js habe ich mich entschieden, da ich bereits Vorkenntnisse auf dem Gebiet hatte, das Plug-In für Elgg weitestgehend ebenfalls in
JavaScript geschrieben wurde und es durch node.js sehr komfortabel ist eine API zu
entwickeln. Des weiteren bietet node.js eine breite Auswahl an Paketen, die die Entwicklung von komplexen Funktionen sehr erleichtern.
Nachdem die URL zur Webinformation in das dafür vorgesehene Feld auf der Webseite der Sicherheitsarena eingefügt wurde und der entsprechende Button zum Abrufen der enthaltenen Metadaten betätigt wurde, wird die serverseitig implementierte
API angesprochen.
Hier wird zunächst geprüft, ob es sich bei der URL um eine Webseite handelt und ob
diese auch erreichbar ist, der Statuscode der Webseite wird vermerkt. Anschließend
wird der gesamte Inhalt der Webseite, inklusive HTML Code, ausgelesen und analysiert. Dies geschieht über das „Tika“ Framework von Apache. Hier wird der textliche
Inhalt ausgelesen und ebenfalls alle Metadaten, die beispielsweise zur Suchmaschinenoptimierung im Header der Webseite angegeben wurden. Zum jetzigen Implementierungsstand werden die Metadaten zu den angegebenen Schlagwörtern
[keywords], die Beschreibung [description] und das Datum der letzten Änderung
[last-modified] der Seite erfasst. Alle Angaben werden in einem Objekt in der JSON
Notation abgespeichert.
Darüberhinaus wird über das Webshot Framework 19 ein Screenshot der Webseite
erstellt und dieser mittels FTP Verbindung abgespeichert. Wie auch für das erstellen
des Screenshots kommt auch hier ein Paket aus dem Node-Repository20 zum Einsatz (node-ftp21). Der Name des Screenshots bezieht sich direkt auf die eindeutige
Identifikationsnummer der Informationsressource, welche gerade neu in der Elgg
Datenbank angelegt werden soll.
18
http://www.nodejs.org
https://github.com/brenden/node-webshot
20 https://www.npmjs.org/
21 https://github.com/mscdex/node-ftp
19
69
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Durch den asynchronen Aufbau von Node.js kann die gesamte Verarbeitung des
Screenshots und der Analyse der Webseite parallel erfolgen. Sobald die einzelnen
Prozesse abgeschlossen sind, wird das JSON Objekt zurück zum aufrufenden Benutzer innerhalb der Sicherheitsarena gesendet (Abbildung 17) und dort weiterverarbeitet.
Abbildung 17: Exemplarische Darstellung einer Antwort der API zur Vervollständigung der Metadaten
Die Weiterverarbeitung erfolgt insofern, als dass Felder wie die Verschlagwortung
(Tags) automatisch ausgefüllt werden, eine Beschreibung in das dafür vorgesehene
Feld angehängt wird und der Screenshot der Webseite abgebildet wird. Außerdem
wird im Hintergrund das Datum der letzten Veränderung der Webseite abgespeichert. Handelt es sich bei der Webseite um keine gültige Webseite oder ist diese offline, wird der Benutzer entsprechend darauf hingewiesen.
Der Grund für das abspeichern des Datums zur letzten Veränderung, liegt an der
zweiten Komponente der entwickelten API. Wird in Zukunft die Detailansicht einer
Information aufgerufen, wird die hinterlegte URL der Information ebenfalls wieder zur
Analyse an die API gesendet und überprüft, ob sich etwas in der Zwischenzeit seit
der Erstellung der Elgg-Informationsressource am Datum der letzten Veränderung
der Webseite (last-modified) geändert hat, bzw. ob die Webseite überhaupt noch erreichbar ist. Das Ergebnis wird dann entsprechend grafisch dargestellt. Wurde die
Information nicht verändert wird dies über einen grünes Icon dargestellt, wurde die
Webseite verändert, ist aber noch online erscheint ein gelbes Icon mit entsprechendem Beschreibungstext und ist die Ressource nicht mehr verfügbar erscheint ein
rotes Icon. Somit ist der Benutzer sofort in der Lage eine Aussage über die Aktualität
und Erreichbarkeit der Ressource zu treffen.
70
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Da das Datumsformat des Feldes „last-modified“ von Webseitenbetreibern in sehr
unterschiedlichen Formaten ausgefüllt wird und die Schreibweise auch von der jeweiligen Sprache abhängt in der die Webseite vorliegt, kommt an dieser Stelle ein weiteres JavaScript Framework zum Einsatz. Moment.js22 hilft dabei das Datumsformat zu
parsen und in ein standardisiertes JavaScript Format umzuwandeln. Somit soll versucht werden nach Möglichkeit immer einheitliche Zeitangaben festzuhalten.
7. Evaluation
In diesem Kapitel soll evaluiert werden, inwiefern die Funktionen zur Vervollständigung der Metadaten und der Informationsorganisation mittels Infomappen den Prinzipien der Benutzerfreundlichkeit entsprechen. Darüberhinaus soll insbesondere
durch das implementierte Empfehlungssystem untersucht werden, inwieweit ein solches System den Benutzer dabei unterstützen kann seine im jeweiligen Kontext benötigten Informationen zu erlangen.
22
http://momentjs.com/
71
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
7.1 Aufbau und Methodik
Für die Evaluation wurden die implementierten Erweiterungen am Informationspool in
drei Bereich eingeteilt und in entsprechende Aufgaben für den Evaluationsteilnehmer
verpackt. Zunächst sollte eine neue Informationsressource anlegen werden, anschließend eine Infomappe erstellt werden und entsprechende Informationen einsortiert werden und zum Abschluss sollten verschiedene vorher definierte Informationen
aus dem Informationspool abgerufen werden. Bevor allerdings mit den Aufgaben begonnen wurde, hat jeder Teilnehmer der Evaluation eine kurze Einleitung in das Forschungsprojekt Infostrom erhalten. Außerdem wurden die Grundfunktionen und der
Aufbau der Sicherheitsarena dargestellt und erklärt.
Um die Aufgaben in einen für die Teilnehmer greifbaren Kontext zu bringen, wurde
im Vorfeld ein Szenario aus dem Krisenmanagement entwickelt (Anhang K) und die
Aufgaben in diesen Kontext eingebettet. Da die Teilnehmer unterschiedliche berufliche Hintergründe hatten, wurde ihnen auch ihre jeweilige einzunehmende Rolle dargelegt. Im Anschluss an die Aufgaben wurde je nach Notwendigkeit ein teilstrukturiertes Interview durchgeführt. In manchen Fällen konnte dies allerdings auch geringer ausfallen, da im Gespräch bereits bestimmte Fragen automatisch beantwortet
wurden. Während der Nutzung des Systems waren die Teilnehmer aufgefordert ihre
Gedanken und Eindrücke laut zu äußern (Thinking-Aloud Methode). Auf diese Weise
sollen die Gedankengänge bei der Benutzung ersichtlich und Verständnisprobleme
formuliert werden. Zur Evaluation der Benutzerfreundlichkeit (Usability) soll sich nach
Möglichkeit an den 10 Heuristiken von Nielsen (Nielsen, 1995) orientiert werden.
Um die Äußerungen der Teilnehmer festzuhalten, wurde jedes Gespräch mit Ton
aufgezeichnet. Außerdem wurde der Bildschirm und damit alle Interaktionen mit dem
System ebenfalls aufgezeichnet. Alle Teilnehmer wurden zu Gesprächsbeginn über
die Aufnahmen informiert und waren einverstanden. Als Testsystem diente ein MacBook Pro, mit externer Maus. Die Evaluationen wurden nach Möglichkeit bei den
Teilnehmern zuhause durchgeführt. In einem Fall (E05) war dies nicht möglich und
wurde demnach im Büro am Arbeitsplatz durchgeführt. Der zeitliche Rahmen pro
Interview war auf 60 Minuten zugeschnitten. Je nachdem wie schnell die Aufgaben
gelöst werden konnten, konnte die Zeit sowohl über- als auch unterschritten werden.
72
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Im Durchschnitt ist der Zeitahmen aber genau erfüllt worden. Bevor die Interviews
durchgeführt wurden, wurde das Testsystem vorbereitet. Dabei war es wichtig, dass
ausreichend Testinformationen und Infomappen (für das Empfehlungssystem) vorhanden waren und die entsprechenden Benutzer angelegt sind. Die Testdaten wurden aus den Empirie Ergebnissen des bereits durchgeführten Infostrom Projekts entnommen. Im Anschluss an jedes Interview wurde die Audioaufzeichnung mithilfe der
Transkriptionssoftware InqScribe23 transkribiert.
Insgesamt haben fünf Personen an der Evaluation teilgenommen. Bei der Auswahl
der Personen wurde darauf Wert gelegt, dass sie zu der potentiellen Nutzergruppe
der Sicherheitsarena gehören. Demnach wurden sowohl Polizisten, THW Helfer als
auch Feuerwehrleute in Betracht gezogen. Bis auf die beiden Vollzeitbeschäftigten
Polizisten waren alle anderen ehrenamtliche Helfer. Auf Abbildung 18 ist eine genauere Übersicht der einzelnen Teilnehmer dargestellt.
Abkürzung
Alter
Beruf / Dienst
E01
30-40
Autobahnpolizei Butzbach
E02
30-40
Freiwillige Feuerwehr Haiger
E03
20-30
Polizei Frankfurt
E04
20-30
Technisches Hilfswerk Dillenburg
E05
40-50
Freiwillige Feuerwehr Bad Marienberg, Technische Einsatzleitung
Abbildung 18: Evaluationsteilnehmer
7.2
Limitationen der Evaluation
In diesem Abschnitt soll auf die Einschränkungen hingewiesen werden, die bei der
Evaluation aufgetreten sind und demnach entsprechend bei der Beurteilung der Ergebnisse beachtet werden müssen.
Keiner der Teilnehmer der Evaluation hatte bereits vorher die Möglichkeit die Sicherheitsarena oder den Informationspool über einen längeren Zeitraum zu verwenden.
23
http://www.inqscribe.com/
73
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Demnach mussten vereinzelt Hilfestellungen an Stellen gegeben werden, die bei
längerer Benutzung wahrscheinlich klarer gewesen wären.
Darüberhinaus war eines der Elemente der Evaluation das Empfehlungssystem. Es
wurde bereits angesprochen, dass das Empfehlungssystem erst durch längere Benutzung und die Erstellung von Infomappen entsprechend genau arbeitet. Wie sich
das Empfehlungssystem mit realen Nutzern und realen Daten verhält, konnte an dieser Stelle nur mit Testdaten entsprechend simuliert und vorbereitet werden. Dazu
wurden geeignete Infomappen angelegt, damit die Empfehlungen bei der Aufgabenbewältigung unterstützend verwendet werden konnten.
7.3
Ergebnisse
Im folgenden Abschnitt werden die Ergebnisse aus den drei Evaluationsabschnitten
dargestellt.
7.3.1 Vervollständigung der Metadaten bei der Erstellung einer Informationsressource
Hilfe & Dokumentation
Der am häufigsten genannte Kritikpunkt beim Anlegen einer Informationsressource
bezog sich auf die Selbstbeschreibungsfähigkeit des Systems. Das heißt, dass es
oftmals nicht direkt klar gewesen ist, was mit einzelnen auszufüllenden Feldern gemeint ist und welche Interaktionen von dem Benutzer gefordert waren. Dafür wurde
häufig ein entsprechendes Icon gewünscht, was das Feld genauer beschreibt und
erklärt.
„Manchmal gibt’s bei solchen Sachen auch nebendran solche "I-zeichen" um
zu erfahren, was damit überhaupt gemeint ist. Gerade wenn man es nicht häufig macht, ist das hilfreich.“ (E01, 00:21:23.26)
Dieses Problem trat insbesondere bei dem auszuwählenden Informationstyp auf, da
dort Fachbegriffe wie KML, Webservice oder WMS verwendet werden, mit denen
einzelne Benutzer nichts in Verbindung bringen konnten. Ein Teilnehmer gab ebenfalls den Hinweis, dass eine solche Funktion besonders wichtig für die älteren Kollegen bei der Polizei, die sowieso schon Probleme mit dem Computer haben. Auch der
74
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Button um die anzulegende Information durch die implementierte Schnittstelle automatisch vervollständigen zu lassen „Informationen abrufen“ war nicht jedem sofort
klar und hätte durch einen Beschreibungstext erklärt werden sollen. Allerdings gingen die Interpretationen, was sich dahinter verbergen könnte in die richtige Richtung.
So vermuteten vier Teilnehmer, dass die Webseite auf ihre Existenz überprüft wird
oder möglicherweise auf einer Art Blacklist gelistet ist. Bis auf einen Teilnehmer hat
dies allerdings niemanden davon abgehalten trotzdem auszuprobieren, was mit dem
Klick passieren wird.
Fehlerprävention
Das System zeigt in der jetzigen Form erst nach dem Klick auf speichern an, welche
Felder noch vom Benutzer auszufüllen sind. Um diesen Fehler zu vermeiden haben
sich einzelne Teilnehmer eine entsprechende Markierung der zwangsweise auszufüllenden Felder gewünscht. Ein weiterer Fehler, der häufig beobachtet werden konnte
war, dass der einzufügende Link zu einer Webressource in den Beschreibungstext
eingefügt wurde und nicht in das dafür vorgesehene Textfeld. Um diesen Fehler in
Zukunft zu vermeiden wünschten sich drei Teilnehmer eine andere Position des
Auswahlfensters zum Informationstyps, beispielsweise noch vor den Titel oder Beschreibungstext.
Abgesehen von diesen Aspekten wurde die Usability als positiv bewertet.
Ebenso als durchweg sehr positiv wurde das automatische Ergänzen der Informationsressource mithilfe der implementierten Schnittstelle empfunden. Dessen positive
Auswirkung auf die Vervollständigung der manuell eingegeben Metadaten konnte
auch während der Evaluation festgestellt werden. Insbesondere hinsichtlich der angegeben Stichworte und der generellen Bereitschaft zum Ausfüllen des Formulars
war dies zu beobachten. Alle Teilnehmer haben intuitiv ein Schlagwort zum wiederfinden der Information angegeben. Zwei der fünf Teilnehmer taten dies aber erst,
nachdem sie vom System aufgefordert wurden. Auch der Beschreibungstext zur angegebenen Information ist meist nicht sehr umfassend im Vergleich zum automatischen Beschreibungstext ausgefallen. Trotzdem gaben fast alle Teilnehmer an, dass
sie es als sehr notwendig empfinden, dass möglichst Präzise Angaben notwendig
75
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
sind um die Information auch später bei der Suche wiederzufinden. Als Grund für die
wenig umfangreichen Angaben wurde angegeben, dass man in der Regel nicht so
viel Zeit hat entsprechende Angeben zu machen, es sei denn es gehöre zu den
Kernaufgaben des Jobs oder dass man generell „Textfaul“ sei.
Ich bin eher so der textfaule Typ und schreibe und schicke auch einfach mal
kommentarlos irgendwelche Links. Klar, wenn es darum geht, dass andere
darauf angewiesen sind was ich so von mir gebe, dann würde ich mir vermutlich auch etwas mehr Mühe geben und auch was dazu schreiben. Aber durch
die automatische Funktion wird das schon relativ gut abgedeckt.
(E3, 00:13:21.01)
Es ist nicht allen Teilnehmern aufgefallen, dass auch das letzte Änderungsdatum der
Informationsressource automatisch erfasst wird, zwei der Teilnehmer haben dies allerdings als besonders hilfreich angesehen. Dies war natürlich auch bedingt durch
die für die Evaluation ausgewählte Beispiel Webseite einer Webcam Sammlung und
damit verbunden wie aktuell die dargestellten Bilder sind. Außerdem wurde die automatische Generierung eines Vorschaubildes gelobt, die sehr zur Übersichtlichkeit
beiträgt.
Nachteile an der Funktion wurden keine festgestellt. Trotz der automatischen Vervollständigung der Metadaten sei man ja noch in der Lage diese zu überprüfen und
gegebenenfalls zu entfernen. Dies wurde auch von einem Teilnehmer durchgeführt,
da ihm einzelne Stichworte nicht gefallen haben.
Die zunächst vorhandenen Unkenntnis über die Funktionalität, die sich hinter dem
Button „Informationen abrufen“ befand konnte nach dem Ausprobieren der Funktion
in einen positiven Eindruck umgewandelt werden, da Sie eine solche Funktion als
sehr hilfreich und arbeitserleichternd ansehen. Es wurde auch darauf hingewiesen,
dass durch eine solche Funktionalität fehlerhafte Eingaben vermieden werden können. Insbesondere bei Ortsbezeichnungen könne dies schnell passieren, so ein Feuerwehrmann. Eine andere Teilnehmerin traf in diesem Zusammenhang eine ähnliche
Aussage:
76
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Also es hat ja sowieso vieles von selbst gemacht, von daher konnte ich nicht
viel verkehrt machen (E01, 00:35:04.27)
7.3.2 Informationsorganisation über Infomappen
Sichtbarkeit des Systemzustandes
Auch bei dieser Aufgabenstellung wurde ein Kritikpunkt am häufigsten genannt bzw.
hat für Unklarheit gesorgt. Nachdem eine neue Infomappe angelegt wurde, war für
alle Teilnehmer nicht ersichtlich in welchem Zustand sich das System gerade befindet. Dies äußerte sich so, dass es unklar gewesen ist, ob eine neue Infomappe angelegt wurde oder was genau nach dem Klick auf speichern der Infomappe passiert
ist. Hier wurde sich gewünscht, dass man gerne eine Hilfestellung bekommen hätte,
wie nun das weitere Vorgehen auszusehen hat.
Darüberhinaus sind alle Teilnehmer davon ausgegangen, dass die Organisation der
Informationen mithilfe der Infomappen für alle anderen Teilnehmer ebenfalls sichtbar
sind. Das heißt dass die Infomappen die angelegt werden, auch bei allen anderen
Benutzern auftauchen. Hier war gewünscht, entsprechende Einstellungen vornehmen zu können bzw. die Sichtbarkeit entsprechend deutlich zu machen.
Benutzerkontrolle & Zufriedenheit
Wurde der Informationspool nach dem Inhalt der Infomappe gefiltert, wurde ein weiteres häufig aufgetretenes Problem sichtbar. Vier der Teilnehmer wussten nicht, wie
sie wieder zurück zur gesamten Ansicht kommen. Hier wurde sich eine deutliche
Möglichkeit gewünscht, mit der man wieder die volle Ansicht herstellen kann. Beispielsweise über einen deutlichen zurück Button oder ähnliches.
Beim Hinzufügen einer Information zu einer angelegten Infomappe wurde angemerkt,
dass der Button für die Optionen zu klein dargestellt ist und das Icon des Zahnrads
dafür gesorgt hat, dass sich nicht getraut wurde intuitiv darauf zu klicken.
Das Untermenü, das beim fahren über „zu Mappe hinzufügen“ aufgegangen ist, wurde von drei Teilnehmern nicht sofort wahrgenommen. Um hier eine Verbesserung zu
schaffen, wurde gewünscht, dies entsprechend anders farblich darzustellen bzw.
deutlich zu machen, dass sich dort ein Untermenü befindet.
77
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Flexibilität & Effizienz
Ein Benutzer hat sich eine effizientere Möglichkeit gewünscht mehrere Informationen
mit einem Klick zu einer Infomappe zuzuordnen, beispielsweise über eine Möglichkeit mehrere Einträge zu markieren und diese gemeinsam hinzuzufügen.
Fehlerprävention
Ein Teilnehmer hatte bei der Aufgabenstellung eine Information aus der Infomappe
zu entfernen versehentlich auf den Button zum Entfernen der gesamten Infomappe
geklickt. Auf diesen Umstand sollte mit einem entsprechenden Dialog hingewiesen
werden um etwaige Fehler zu vermeiden.
Übereinstimmung zwischen System und der Realwelt
Auf die Frage, ob es im Arbeitsalltag der jeweiligen Organisationen (Feuerwehr, Polizei, THW) ähnliche Praktiken gibt, wurde häufig der Ausbildungsprozess der jeweiligen Parteien genannt. In diesen Fällen existieren bei allen bestimmte Sammlungen
an Informationen für bestimmte Kontexte. In der Regel ist dies allerdings nicht am PC
verfügbar, sondern in physischen Ordnern/Schränken. Ein Teilnehmer (E05) äußerte
dass er genau dieses Konzept der Infomappe in Form von Schnellheftern im Einsatzwagen abgelegt hat. Dort sind für ihn alle notwendigen Informationen wie Telefonnummern und Ansprechpartner festgehalten. Insbesondere in Situationen, die
nicht alltäglich sind, sei dies sehr hilfreich. Dementsprechend eingängig und verständlich war der Begriff der Infomappe für alle Teilnehmer.
Neben diesen Äußerungen zur Benutzerfreundlichkeit der Funktion, wurde eine solche Organisation der Informationen mithilfe von Infomappen als sehr hilfreich und
nützlich empfunden.
Also prinzipiell finde ich das sehr gut, weil man so etwas immer braucht - es ist
oft vieles zu wenig sortiert. Wir haben auf der Arbeit zu viele Informationen,
die auch zu wenig sortiert sind. Du hast da zwar dieses Intranet und da steht
auch irgendwie alles drin, aber du findest es nicht. Und wenn du dann irgend
ein Problem hast, das kann alles mögliche sein, von einer Bombendrohung bis
zu "ich hab was gefunden, was mache ich damit" oder "da hinten läuft gerade
Wasser runter" und dann weißt du aber manchmal nicht direkt wie vorzugehen
78
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
ist. Wenn du dann so etwas im Vorfeld am Computer angelegt hast, dann ist
das schon eine super Sache (E01, 00:55:59.03).
Allen Teilnehmern war sofort der Nutzen der Funktion ersichtlich. Es wurden auch
neue Verwendungsmöglichkeiten entwickelt. So äußerte ein Teilnehmer (E05) dass
eine solche Funktionalität sehr gut für die Ausbildung junger Feuerwehrleute verwendet werden kann, da die einzelnen Übungseinheiten häufig von verschiedenen
Internetplattformen zusammengetragen werden aber nicht an einer Stelle festgehalten werden. In diesem Zusammenhang wurde auch in die Richtung gedacht, sich
informieren zu können, wie andere Feuerwehren im Umkreis mit einzelnen Themen
umgehen.
Kritisch wurde die Funktion dahingehend betrachtet, dass die Bereitschaft zur Pflege
eines solchen Systems nicht immer da sein könnte. In diesem Zusammenhang nannten drei Teilnehmer als Grund für die möglicherweise fehlende Motivation dass eine
solche Arbeit nicht in ihre Hauptaufgaben im Beruf bzw. im Dienst fällt. Wenn sich
dies ändern würde und täglich mit dem System gearbeitet werden müsste, dann wäre die Bereitschaft vermutlich eher vorhanden.
Ja das ist immer so die Frage. Ich bin begeisterter Fahrradfahrer und dort gibt
es die Open Source Karten, aber da habe ich auch selbst noch nichts reingepflegt. Das kommt aber auch sicherlich auf die Position drauf an in der ich Sitze. Also wenn ich das System viel nutzen würde, dann würde ich das auch aktuell halten. (E03, 00:25:16.19)
7.3.3 Informationsabruf unterstützt durch das Empfehlungssystem
An der Usability der Empfehlungen hat sich keiner der Teilnehmer gestört oder Kritik
geäußert. Es kam lediglich der Hinweis, dass bei der Darstellung der Empfehlungen
nicht immer wieder die Gleichen auftauchen sollten, wenn man mit dem Navigationspfeil nach rechts oder links navigiert. Einige Teilnehmer haben dabei besonders die
eingeblendeten Vorschaubilder gelobt. Auf diese Weise kann der Wiedererkennungswert einer Ressource, die möglicherweise bereits besucht wurde, gesteigert
werden.
79
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Neben dem Empfehlungssystem wurden auch zu anderen Bereichen Anmerkungen
gemacht, die durch den Prozess des Informationsabrufs deutlich wurden. So wurde
zur Detailansicht einer Informationsressource häufig der Kritikpunkt geäußert, dass
der Link zur eigentlichen Webseite sehr leicht übersehen werden kann und auch
übersehen wurde. Hier wäre eine farbliche Abhebung wünschenswert. Darüberhinaus sollte in der Detailansicht der Informationsressource auch ein größeres Vorschaubild darstellbar sein, (beispielsweise durch einen klick zum vergrößern) da die
bisherige Darstellung zu klein sei.
Insgesamt haben vier der Teilnehmer das Empfehlungssystem während der Bewältigung der Aufgabe identifiziert und als solches wiedererkannt. Einer der Teilnehmer
hatte die grafische Darstellung der Empfehlungen erst nach dem Erledigen aller Aufgaben wahrgenommen – bis dahin ist er davon ausgegangen, dass es sich dabei um
eine Art Verlauf der bereits angeklickten Informationsressourcen handelte. Die Identifizierung als eine Art Empfehlungssystem wurde dadurch unterstützt, dass die Darstellung sehr stark an die vom Internetshop Amazon.de erinnert. So wurde auf die
Frage was sich hinter diesem Bereich verbirgt oftmals auf Amazon verwiesen.
Das sieht so ein bisschen aus wie bei Amazon "was haben die anderen Kunden gekauft" (E04, 00:32:58.17)
Auffällig war, dass sobald die Teilnehmer das Empfehlungssystem entdeckt hatten,
(was nicht immer im ersten Versuch geschehen ist) sie ab dann ausschließlich die
Empfehlungen für die Aufgabenbewältigung verwendet haben. Keiner der Teilnehmer ist noch zurück zur Suchfunktion gegangen und hat das nächste Schlagwort
eingegeben. Auf die Frage ob Sie nicht wieder zurück gehen würden um eine neue
Suche zu starten kam bei allen Teilnehmern eine Antwort wie diese:
Nein - ganz im Gegenteil. Ich wäre jetzt hier auf die Webseite navigiert und wenn
ich da meine Informationen bekommen habe, gehe ich nicht wieder zurück und
such was anderes, sondern schaue mir das hier unten, was mir das System vorgeschlagen hat, genauer an und finde sofort etwas was mich auch noch interessiert [...] Dadurch dass das System mir das vorschlägt ist das für mich eine Arbeitserleichterung und ich spare Zeit. (E02, 00:05:55.23)
80
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Zwei Teilnehmer sehen darin aber auch ein Risiko und geben zu Bedenken, dass
man auf diese Weise möglicherweise andere wichtige Informationen übersehen kann
und zu stark in eine Richtung gelenkt wird. Nur weil andere Benutzer die Information
verwenden, heiße dies ja noch nicht sofort dass es auch die Besten verfügbaren Informationen sind.
Auf die Frage ob man persönlich positiv oder negativ einem solchen Empfehlungssystem gegenüber eingestellt sei, gaben alle Teilnehmer zur Antwort dass sie ein
solches System bereits genutzt haben und sie dies hauptsächlich mit positiven als
mit negativen Erinnerungen assoziieren. Allerdings wurde an dieser Stelle häufig auf
Amazon Bezug genommen – andere Anbieter wie Thalia.de seien an der Stelle viel
schwächer. Im Gespräch wurde dabei auch deutlich, dass sobald die Empfehlungen
gar nicht zutreffen, ein solches System auch Ärgernis hervorrufen kann. Es wurde
häufig deutlich gemacht, dass die Einstellung einem solchen System gegenüber sehr
stark von dessen Genauigkeit abhängt.
Mit dem implementierten System waren allerdings alle Teilnehmer sehr zufrieden
und würden es bei weiteren Verwendungen sofort gezielt ansteuern und für ihre Informationsrecherche nutzen.
81
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
8. Fazit und Ausblick
Das Ziel dieser Arbeit war es, herauszufinden, wie eine Aufbereitung von Informationen im Krisenmanagement aussehen kann, um dem Benutzer die Informationen in
entsprechend guter Qualität zur Verfügung zu stellen, die er in seiner Situation benötigt. Hierzu wurde zunächst dargestellt, welche Kriterien eine gute Informationsqualität ausmachen und wie man diese bei einer vorhandenen Information bewerten
kann. Dazu wurden verschiedene Methoden und Mechanismen vorgestellt, die in der
Wissenschaft und Praxis entwickelt und eingesetzt werden.
Um die Frage nach der bedarfsgerechten Versorgung mit qualitativ hochwertigen
Informationen zu beantworten, wurden die Erkenntnisse durch die vorangegangenen
Literaturrecherche eingesetzt und ein Konzept im Rahmen des InfoStrom Projekts
entwickelt.
Der erste Teil des Konzepts beschäftigte sich mit der Fragestellung wie anzulegende
Informationsressourcen so aufbereitet werden können, dass diese in möglichst hoher
Qualität abgespeichert werden können. Dies kann nur gewährleistet werden, wenn
Metadaten vorhanden sind, die es einem Entscheider erlauben eine Bewertung nach
Kriterien wie Aktualität, Herkunft oder Genauigkeit vorzunehmen bzw. es überhaupt
erst zu ermöglichen mithilfe von Suchfunktionen auf die benötigte Information zu stoßen. Im Rahmen der Literaturrecherche wurde auf das Problem hingewiesen, dass
die Qualität manuell erfasste Metadaten immer vom Ersteller und dessen Kenntnisstand über die Notwendigkeit der selbigen abhängig ist (Greenberg, 2003). Dies hat
sich auch in der Evaluation bestätigt. Hier hat sich gezeigt, dass das Bewusstsein
zwar in manchen Fällen vorhanden ist, möglichst Präzise und umfangreiche Angaben zu treffen, die Umsetzung allerdings sehr gering und auf das nötigste Beschränkt
ausfällt. Als Grund dafür wurde fehlende Kreativität, Unkenntnis über die eigentliche
Informationsressource oder der Eindruck dass ein Stichwort bzw. ein sehr kurzer Beschreibungstext ausreicht genannt. Es wurde auch vermehrt darauf hingewiesen,
dass insbesondere bei älteren Kollegen bei Feuerwehr oder Polizei möglichst viele
Unterstützungsmöglichkeiten geschaffen werden müssen, da diese meist nur ein beschränktes Verständnis für die eingesetzte Technik besitzen.
82
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Eine solche Unterstützungsmöglichkeit wurde der evaluierten Lösung zur automatischen Vervollständigung der Informationsressource durchaus zugesprochen und als
sehr hilfreich erachtet.
An dieser Stelle ist auch darauf hinzuweisen, dass durch die automatische Erfassung
von Metadaten auf Daten zugegriffen werden kann, die in der Regel nur mit Mühe
manuell angelegt werden können. Hier wäre beispielsweise das automatisch generierte Vorschaubild oder die Überprüfung der letzten Änderung an der Informationsressource beispielhaft zu nennen.
Neben den genannten Gründen, die für die implementierte Lösung sprechen, ist zu
ergänzen, dass der Ersteller der hinzuzufügenden Kerninformation meist eine bessere Kenntnis über die Information hat und entsprechend besser in der Lage ist Aussagekräftige Metadaten zu hinterlegen, als derjenige der diese in den Informationspool
aufnehmen möchte.
Es ist allerdings zu beachten, dass eine solche automatische Erfassung auch nur
dann gut arbeiten kann, wenn das zu erfassende Material auch in ausreichend guter
Form vorliegt und der Verfasser entsprechend gut gearbeitet hat. Die während der
Evaluation verwendete Beispielwebseite war entsprechend gut präpariert. Aber
dadurch dass die Verfasser von Webinformationen ein Interesse daran haben, dass
ihre Ressourcen auch durch Suchmaschinen gefunden werden können, ist zumindest eine gewisse Motivation vorhanden diese Metadaten gut zu pflegen. Hier sollte
aber noch mehr auf die Einhaltung von Standards (beispielsweise bei der Formatierung von Datumsformaten oder der Schreibweise von Metatags) geachtet werden.
Der zweite Teil des Konzepts umfasste die Erstellung einer Möglichkeit den Benutzer
dabei zu unterstützen, auf die Informationen zuzugreifen, die er in seiner Situation
benötigt. Um diese Aufgabe zu lösen, galt es herauszufinden, in welcher Situation
welche Informationen relevant sind und diese Erkenntnisse dem System beizubringen. Diese Aufgabe automatisiert und intelligent mittels Analyse des benutzerspezifizierten Such- oder Klickverhaltens oder anderen Verfahren zu lösen, ist allerdings zu
komplex und nicht Hauptgegenstand dieser Arbeit. Dementsprechend wurde eine
83
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Lösung angestrebt, mit der die Benutzer dem System selbst beibringen, welche Informationen in Beziehung zueinander stehen. Dies geschah durch den Aufbau der so
genannten Infomappen, die dazu gedacht sind, Situationsspezifisch alle Informationen nicht nur nach dem Informationstyp zu filtern, sondern auch nach Einsatzkontext.
Was eigentlich als notwendiges Mittel zum Zweck der Erstellung eines Empfehlungssystems implementiert wurde, zeigte sich in der Evaluation als wichtiges Sortierwerkzeug. Auf diese Weise wurden auch parallelen zu ähnlichen Informationssammlungen bei Polizei und Feuerwehr deutlich und der Bedarf zur Strukturierung nach Verwendungszweck.
[...] deswegen finde ich das eine klasse Sache und trifft genau das was man
im Alltag braucht. Das man für bestimmte Fälle sofort die Informationen findet
(E01, 00:55:59.03)
Dadurch dass das System auf diesem Weg im ständigen Prozess erlernen kann,
welche Informationen in Verbindung zueinander stehen, war es möglich das Empfehlungssystem zu implementieren. Neben der Information darüber, welche Informationen häufig zusammen in Infomappen verwendet werden, ist es auch hilfreich zu wissen, von welcher Organisation derjenige ist, der die Infomappe angelegt hat. Dies
soll dazu beitragen noch genauer abschätzen zu können in welchem Kontext die Information verwendet wird (Feuerwehr, Polizei, THW). Somit wird es ermöglicht, einzelne Informationsressourcen die in Beziehung zu der gerade betrachteten Ressource stehen, für die Verwendung zu empfehlen und somit dazu beizutragen dem
Benutzer möglichst exakt die Informationen zur Verfügung zu stellen, die er in seiner
Situation benötigt.
In der Evaluation konnte dieser Effekt auch sehr gut beobachtet werden und wurde
auch so von den Teilnehmern kommuniziert. Wenn das System einmal verwendet
wurde, wurde es auch sofort der Suchfunktion vorgezogen.
In der Konzeptionelle Vorüberlegung zur Implementierung des Empfehlungssystems
(5.2.2) wurde erwähnt, dass es bei Suchfunktionen zu dem Problem kommen kann,
dass Begriffe eingegeben werden, die aber nicht unter diesem Begriff angelegt wur84
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
den. Auch dieser Aspekt hat sich in der Evaluation wiedergespiegelt und wurde von
einem Teilnehmer selbständig aufgegriffen und als positiv bewertet.
Die Evaluation hat zwar gezeigt, dass ein solches Empfehlungssystem durchaus
sehr gut dabei helfen kann, Informationen so zu präsentieren wie sie gerade benötigt
werden. Allerdings wurde die Evaluation auch unter Laborbedingungen durchgeführt.
Erst durch einen Betrieb mit echten Benutzern und einer größeren Anzahl an Infomappen lässt sich zeigen, inwiefern die Empfehlungen dann auch noch zutreffend
sind.
Für die Zukunft wäre es notwendig, die Empfehlungsmechanismen weiter auszubauen. Dadurch könnte noch exakter festgestellt werden, in welcher Situation sich der
Benutzer gerade befindet und was sein Informationsbedarf ist um entsprechend
passgenaue Informationen zu liefern.
Außerdem sind in der Evaluation einige Schwierigkeiten mit der Bedienung der Infomappen aufgetreten. Diese Probleme sind vermehrt bei den älteren und nicht so
technikversierten Teilnehmern aufgetreten, die jüngeren Teilnehmer bzw. die, die viel
am Computer arbeiten hatten nur sehr geringe Probleme mit der Benutzung. Dennoch wäre es notwendig, das Bedienkonzept entsprechend anzupassen oder zu erweitern. Aufgrund der zeitlichen Frist der Arbeit konnte dies nicht mehr umgesetzt
werden.
Ausgehend von den Aussagen der Evaluationsteilnehmern bieten die implementierten Lösungen zur Bedarfsgerechten Informationsversorgung in Form eines Empfehlungssystems und einer automatischen Vervollständigung von Metadaten eine sehr
gute Möglichkeit das Niveau der qualitativen Informationsversorgung positiv zu beeinflussen.
85
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Literaturverzeichnis
1. Agarwal & Yiliyasi (2010) – „Information Quality Challenges in Social Media“
2. Alkharboush, Li (2010) – „A Decision Rule Method For Data Quality Assessment“, Web Intelligence and Intelligent Agent Technology (WI-IAT), 2010 IEE/WIC/ACM International Conference
3. C.W. Fisher (1999) – „An empirically based exploration oft the interaction of time constaints
and experience levels on the data quality information factor in deciscion making“, University at
Albany, Albany, NY
4. C.W. Fisher (2001) – „Criticality of data quality as exemplified in two disasters“, Information &
Management 39
5. Card, Stuart (2008) – „The Human Computer Interaction Handbook“, Lawrence Erlbaum
Assoc Inc, 2007
6. Chen Bee-Chung, Wang Xuanhui, Dasgupta Anirban, Yang Jie (2012) – „Vote Calibration in
Community Question-Answering Systems“, Proceedings of the 35th internation ACM SIGIR
conference on Research and development in information retieval
7. Chen, Pei-yu; Dhanasobhon, Samita; and Smith, Michael D., "All Reviews are Not Created
Equal: The Disaggregate Impact of Reviews and Reviewers at Amazon.com" (2001). Heinz
Research.Paper 55.
8. Chesney
(2006)
„An
empirical
examination
of
Wikipedia’s
credibility“
http://firstmonday.org/article/view/1413/1331
9. Dunning, T., & Freedman, D.A. (2008) – „Modelling section iffects. In Outhwaite, W. & Turner
S., Handbook of Social Science Methodology
10. Ebtisam Alabdulqader (2013) – „Visualizing Computer Ethics using Infographics“, Proceedings
oft he 18th ACM conference in Innovation and technology in computer science education
11. Egger, Florian (2000) – „Trust Me, I’m an Online Vandor“: Towards a Model of Trust for ECommercse System Design, CHI 200: Interactive Papers
12. Eggler, Florian (2000) „Trust Me, I’m an Online Vendor: Twoards a Model of Trust for ECommerce System Design“, CHI 2000
13. Emerson, J. (2008) – „Visualizing Information for Advocacy – An Introduction to Information
Design“ http://backspace.com/infodesign.pdf
14. Eppler, Martin (2006) – „Managing Information Quality Increasing the Value of Information in
knowledge-insensive Products and Processes“, Springer
15. Fogg, BJ (2003) – „Prominence-Interpretation Theory: Explaining How People Assess Credibility Online“, CHI 2003: New Horizons, Short Talk: Trust, Security & Safety
86
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
16. Fogg, Tseng (1999) – „The Elements of Computer Credibility“, Proceedings of the SIGCHI
conference of Human Factors in Computing Systems
17. Friberg, Prödel, Koch (2011) – „Information Quality Criteria and their iportance for Experts in
Crisis Situations“ Proceedings oft he 8th International ISCRAM Conference – Lisabon, Portugal
18. Führing, P., Naumann, F. (2007) – „Emergent data quality annotation and visualization“. In
Proceedings of the International Conference on Information Quality (IQ’07)
19. Gelman, I., A., & Barletta A., L. (2008) – „A quick and dirty website data quality indicator“,
Proceedings oft he 2nd ACM workshop on Information credebility on the web
20. Gilles
(2005)
„Internet
encyclopaedias
go
head
to
head“
http://www.nature.com/nature/journal/v438/n7070/full/438900a.html
21. Greenberg, Jane (2003) – „Metadata and the World Wide Web“ Encyclopedia of Library and
Information Science
22. Hartmann, J., De Angeli, A., Sutcliffe, A. (2008) – „Framing the User Experience: Information
Biases on Website Quality Judgement“. In the Proceedings of Computer Human Interaction
(CHI 2008)
23. Hildebrand et al. (2011) – „Daten- und Informationsqualität“, Springer Fachmedien
24. Hitzler Pascal, Krötzsch Markus, Rudolph Sebastian, Sure York (2007) – „Semantic Web“,
Springer
25. Hofinger (2003) – „Fehler und Fallen beim Entscheiden in kritischen Situationen“, Verlag für
Polizeiwissenschaft
http://online.wsj.com/news/articles/SB1038261936872356908
http://repository.cmu.edu/heinzworks/55
http://tech.fortune.cnn.com/2012/07/30/amazon-5/
26. J.F. Yates, L.S. McDanie, E.S. Brown (1991) - „Probabilistic forecasts of stock prices and earnings; the hazards of nascent expertise“, Organizational Behavior and Human Deciscion Processes
27. Japs Anna Maria, Prödel Stephan (2009) – „Entscheidungsunterstützung durch Erweiterung
der Informationsbasis mit situationsbezogenen Daten“ in „Kurzbeiträge zum Workshop IT Unterstützung von Rettungskräften“, Lübeck
28. Jay R. Galbraith (1974) – „Organization Design: An Information Processing View“, European
Institute for Advanced Studies
29. Jiang, Lei (2010) – „Data Quality By Design: A Goal-oriented Approach“
30. Kim, Moon (1997) – „Emotional Usability of Customer Interfaces“, Proceeding CHI EA `97 Extended Abstracts on Human Factors in Computing Systems
31. Kim, W., Choi, B-J., Hong, E-K., Kim, S-K and Lee, D. (2003) – „A Taxonomy of Dirty Data“,
Data Mining and Knowledge Discovery, Kluwer Academic Publishers
32. Klahold (2009) – „Empfehlungssysteme – Grundlagen, Konzepte und Lösungen“ Vieweg +
Teubner
87
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
33. Knight, Shirlee-ann Burn, Janice (2005) – „Developing a Framework for Assessing Information
Quality on the World Wide Web“
34. Ley, Pipek, Reuter, Wiedenhöfer (2012) – „Supporting Improvisation Work in InterOrganizational Crisis Management“, CHI 2012: Session: Performative Emergency Simulation
35. Lops, Gemmis, Semeraro (2011) – „Content-based Recommender Systems: State of the Art
and Trends“ – Recommender Systems Handbook, Springer Science + Business Media
36. Lóscioa, Bernadette Farias, Batista, Maria C. M., Souza, Damires, Salgado, Ana Carlonia
(2012) – Using Information Quality fort he Identification of Relevant Web Data Sources: A
Proposal In Proceedings oft he 14th International Conference on Imformation Integration and
Web-based Applications & Services
37. Madnick, Wang (2009) – „Overview and Framework for Data and Information Quality Research“, ACM Journal of Data and Information Quality, Vol. 1, No. 1 Article 2
38. Mangalindan (2012) – „Amazon’s recommendation secret“
39. Manoj, Hubenko Baker (2007) – „Communication Challenges in Emergency Response“,
Communication oft he ACM, Vol. 50, No. 3
40. McNee, Riedl, Konstan (2006) – „Making Recommendations Better: An Analytic Model for
Human-Recommender Interaction“, CHI 2006 – Work-In-Progress
41. Mobis Pro Fact Sheet (2011) – http://www.simobit.de/documents/Fact_Sheet_Mobis_Pro_.pdf
42. Nielsen,
Jakob
(1995)
„10
Usability
Heuristics
for
User
Interface
Design“,
http://www.nngroup.com/articles/ten-usability-heuristics/
43. Onifade, O. F. W. & Akomolafe, O., P., (2011) - „A Fuzzy Search Model for Dealing with Retrieval Issues in some Classes of Dirty Data“,
44. Otterbacher J. (2009) – „Helpfulness in Online Communities: A Measure of Message Quality“
45. Pirolli, Wollny, Suh (2009) „So You Know You’re Getting the Best Possible Information: A Tool
that Increases Wikipedia Credibility“, Proceedings oft he SIGCHI Conference on Human Factors in Computing Systems, CHI 2009 – Studying Wikipedia
46. Rafael A. Gonzalez, Nitesh Bharosa (2009) – „A Framework Linking Information Quality Dimensions and Coordination Challenges during Interagency Crisis Response“, Proceedings oft
he 42nd Hawaii International Conference on System Sciences
47. Redman, Thomas (1998) – „The Impact of Poor Data Quality on the Typical Enterprise“,
Communication of the ACM, Vol. 41, No. 2
48. Redman, Thomas (2008) – „Data Warehouse and Quality: Not Just for IT Anymore“, A Navesink Consulting Group White Paper
49. Rhind, Graham (2007) – „Poor Quality Data – the pandemic problem that needs addressing“ http://www.grcdi.nl/PCAwhitepaper.pdf
50. Schwarz Julia, Morris Meredith Ringel (2011) – „Augmenting Web Pages and Search Results
to Support Credibility Assessment“, CHI 2011: Session: Search & Information Seeking
51. Seitlinger, Ley (2012) „Implicit Imitation in Social Tagging: Familarity and Semantic
Reconstruction“ CHI 2012: Session Future Design – Austin, Texas
88
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
52. Shneiderman, Ben (2000) – „Designing Trust into online Experiences“, Communication of the
ACM December 2000 Vol. 43 No 12
53. Shneiderman, Ben (2005) – „Designing the User Interface: Strategies for Effective Human
Computer Interaction“ 4. Addison-Wesley, 2004
54. Strack, Deutsch (2003) – „The Two Sides of Social Behavior: Modern Classic and Overlooked
Gems in the Interplay of Automativ and Controlled Processes, Psychological Inquiry“
55. Tergan, Keller (2005) – „Knowledge and Information Visualization – Searching or Synergies“ Springer
56. Tseng, Fogg (1999) – „Credibility and Computing Technology“, Communication of the ACM
May 1999 Vol. 42 No 5
57. Wang, Strong (1996) – „Beyond Accuracy: What Data Quality Means to Data Consumers“,
http://web.mit.edu/tdqm/www/papers/94/94-10.html
58. Watts, Shankaranarayanan, Even (2009) – „Data quality assessment in context: A cognitive
perspective“ in Decision Support Systems 48
59. Weihua Huang, Chew Lim Tan (2007) – „A System for Unterstanding Imaged Infographics
and Its Applications“, Proceedings of the 2007 ACM symposium on Document engineering
60. Wiedenhöfer et al. (2011) „Inter-Organizational Crisis Management Infrastructures for Electrical Power Breakdowns“, Proceedings of the 8th International ISCRAM Conference – Lisabon,
Portugal, May 2011
61. Yamamoto, Tanaka (2011) – „Enhancing Credibility Judgment of Web Search Results“, CHI
2011: Session: Search & Information Seeking
62. Zaslow, Jeffrey (2002) „If TiVo Thinks You Are Gay, Here’s How to Set it Straight“
89
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Anhang A: Definition der 15 IQ-Dimensionen
Zugänglichkeit (accessibility):
Informationen sind zugänglich, wenn sie anhand einfacher Verfahren und auf direktem Weg für den Anwender abrufbar sind.
Angemessener Umfang (appropriate amount of data):
Informationen sind von angemessenem Umfang, wenn die Menge der verrfügbaren
Informationen den gestellten Anforderungen genügt.
Glaubwürdigkeit (believability):
Informationen sind Glaubwürdig, wenn Zertifikate einen hohen Qualitätsstandard
ausweisen oder die Informationsgewinnung und –verbreitung mit hohem Aufwand
betrieben werden.
Vollständigkeit (completeness):
Informationen sind vollständig, wenn sie nicht fehlen und zu den festgelegten Zeitpunkten in den jeweiligen Prozess-Schritten zur Verfügung stehen.
Übersichtlichkeit (concise representation):
Informationen sind übersichtlich, wenn genau die benötigten Informationen in einem
passenden und leicht fassbaren Format dargestellt sind.
Einheitliche Darstellung (consistent representation):
Informationen sind einheitlich dargestellt, wenn die Informationen fortlaufend auf dieselbe Art und Weise abgebildet werden.
Bearbeitbarkeit (ease of manipulation):
Informationen sind leicht bearbeitbar, wenn sie leicht zu ändern und für unterschiedliche Zwecke zu verwenden sind.
Fehlerfreiheit (free of error):
Informationen sind fehlerfrei, wenn sie mit der Realität übereinstimmen.
Eindeutige Auslesbarkeit (interpretability):
90
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Informationen sind eindeutig auslesbar, wenn sie in gleicher, fachlicher korrekter Art
und Weise begriffen werden.
Objektivität (objectivity):
Informationen sind objektiv, wenn sie streng sachlich und wertfrei sind.
Relevanz (relevancy):
Informationen sind relevant, wenn sie für den Anwender notwendige Informationen
liefern.
Hohes Ansehen (reputation):
Informationen sind hoch angesehen, wenn die Informationsquelle, das Transportmedium und das verarbeitenden System im Ruf einer hohen Vertrauenswürdigkeit und
Kompetenz stehen.
Aktualität (timeliness):
Informationen sind aktuell, wenn sie die tatsächliche Eigenschaft des beschriebenen
Objektes zeitnah abbilden.
Verständlichkeit (understandability):
Informationen sind verständlich, wenn sie unmittelbar von den Anwendern verstanden und für deren Zwecke eingesetzt werden können.
Wertschöpfung (value-added):
Informationen sind wertschöpfend, wenn ihre Nutzung zu einer quantifizierbaren
Steigerung einer monetären Zielfunktion führen kann.
91
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Anhang B: Gängige Definitionen des Begriffs der Informationsqualität
1. „Information quality can be defined as informationthat is fit for use by information consumers“ (Huang, Lee, Wang, 1999)
2. „Information quality ist he characteristic of information to meet or exceed
customer expectations“ (Kahn & String, 1998)
3. „Quality information is information that meets specifications or requirements“
(Kahn & Strong, 1998)
4. „Information quality is the characteristic of information to be of high value to its
users“ (Lesca & Lesca, 1995)
5. “The degree to which information has content, form, and time characteristics
which give it value to specific end users” (Brien, 1991)
6. “Quality of information can be defined as a difference between the required information determined by a goal and the obtained information. In an ideal situation there will be no difference between the required and obtained information.
A qualitative measure for information qual- ity is expressed by the following
tendency: the smaller this difference, the greater the quality of information”
(Gerkes, 1997).
92
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Anhang C: Infografik
http://blog.qmee.com/qmee-online-in-60-seconds/
93
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Anhang D: Analysemodelle zur Bestimmung der Informationsqualität (Eppler, 2006)
94
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Anhang E: Kompromisse zwischen einzelnen IQ-Kriterien
(Eppler, 2006)
95
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
96
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Anhang F: Beispiel Framing Effekt
Stellen Sie sich vor, die USA bereiten sich auf den Ausbruch einer ungewöhnlichen asiatischen Grippeepidemie vor, an der 600 Personen
sterben werden. Um die Epidemie zu bekämpfen, wurden zwei alternative Maßnahmen vorgeschlagen. Gehen Sie davon aus, dass die exakte
wissenschaftliche Schätzung der Wirkung der Maßnahmen wie folgt ist:
A) 200 Personen werden gerettet
B) 1/3 Wahrscheinlichkeit, dass 600 Personen gerettet werden, allerdings 2/3 Wahrscheinlichkeit dass keine Person gerettet wird
Einer zweiten Gruppe befragter Personen wurde folgende Entscheidungsmöglichkeit vorgelegt:
C) 400 Personen werden sterben
D) 1/3 Wahrscheinlichkeit dass niemand stirbt, allerdings 2/3 Wahrscheinlichkeit, dass 600 Personen sterben
Umfrageergebnis:
Situation 1:
72% wählen Maßnahme A
28% wählen Maßnahme B
Situation 2:
22% wählen Maßnahme C
78% wählen Maßnahme D
Diekmann, A. (1995): Empirische Sozialforschung – Grundlagen, Methoden, Anwendungen, Rowohlt
97
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Anhang G: IM-Activities & IQ-Dimensions Framework
98
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Anhang H: Gewichtung der IQ-Kriterien im Krisenmanagement (Friberg)
99
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Anhang I: Fehlende Daten
100
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Anhang J: Zusammenfassung möglicher Verbesserungspotentiale
101
Error! Use the Home tab to apply Überschrift 1 to the text that you want to
appear here.
Anhang K: Evaluationsleitfaden (siehe CD)
Anhang L: Transkripte der Interviews (siehe CD)
Anhang M: Quellcode (siehe CD)
102
Herunterladen