Data Warehouse

Werbung
Fachhochschule
Deggendorf
IT-Kompaktkurs
Data Warehouse
Datenbank-Skript zur Folge 14
Prof. Dr. Michael Ponader
Fachhochschule Deggendorf
IT-Kompaktkurs / Data Warehouse
Datenbanken sind eine wesentliche Grundlage für die betriebliche Informationsversorgung.
Aber meistens existiert in einem Unternehmen nicht nur eine Datenbank, sondern mehrere. So
können z.B. Kundendaten in verschiedenen Datenbanken enthalten sein, aber in einer
gemeinsamen Auswertung benötigt werden.
PROBLEME IN UNTERNEHMEN
Ein wesentliches Problem sind heterogene DV-Strukturen. In den verschiedenen Bereichen
eines Unternehmens existieren häufig unterschiedliche Datenbanken. Diese sind meist über
Jahre zusammen mit den entsprechenden operativen DV-Systemen gewachsen und decken die
spezifischen Anforderungen des Bereiches ab. Übergreifende Auswertungen sind schwierig
und zeitaufwendig. Teilweise erschweren z.B. unterschiedliche Ordnungsbegriffe die
Zusammenführung der Daten.
Ein weiteres Problem ist, dass die Anwender in den Fachabteilungen keine Werkzeuge haben,
um sich die gewünschten Analysen erstellen zu können. Für die gewünschten Auswertungen
sind häufig Programmierkenntnisse erforderlich. Komfortable grafische
Benutzungsoberflächen zur Formulierung der Abfragen stehen den Fachabteilungen nicht zur
Verfügung. Sie sind auf die Unterstützung der EDV-Abteilungen angewiesen, die die
erforderliche Auswertung häufig individuell programmieren muss. Die EDV-Abteilung ist
jedoch meist bereits mit der Weiterentwicklung der Systeme ausgelastet.
Neben der EDV-Abteilung wird auch die vorhandene DV-Infrastruktur bei der Erstellung der
Auswertungen sehr stark belastet. Die operativen DV-Systeme sind auf die effiziente
Bearbeitung einzelner Transaktionen, wie z.B. die Anlage eines Kundenauftrages, optimiert.
Bei diesen Transaktionen wird nur auf geringe Datenmengen in wenigen Tabellen
zugegriffen. Analysen und Berichte erfordern aber den Zugriff auf eine große Menge von
Daten und oft auf eine Vielzahl von Tabellen eines relationalen Systems.
Bei den Analysen spielen immer häufiger verdichtete Daten und Vergleiche über längere
Zeiträume eine Rolle, z.B. die Produktabsätze der letzten Jahre, um über Zeitreihenanalysen
Trends erkennen zu können. Historische Daten werden von operativen Systemen jedoch auf
kostengünstigere, langsame Datenträger ausgelagert, auf die nicht online zugegriffen werden
kann. Damit fehlen die erforderlichen historischen Daten.
Ein wichtiger Aspekt ist, dass in operativen Systemen permanent neue Geschäftsvorfälle
verarbeitet werden. Frühere Auswertungen können zu einem späteren Zeitpunkt oft nicht
nachvollzogen werden, da die erforderlichen historischen Daten nicht verfügbar sind. In
operativen Systemen müssen die verschiedenen Geschäftsvorfälle sofort zu einer
Aktualisierung der Daten, z.B. der Verkaufzahlen, führen. Eine Analyse, die auf diese Daten
zurückgreift, kann daher unter Umständen schon nach kurzer Zeit nicht mehr nachvollzogen
werden, da die zugrundeliegenden Werte in den operativen Systemen durch neue
Transaktionen geändert wurden.
Prof. Dr. Michael Ponader
Seite 2
IT-Kompaktkurs / Data Warehouse
ZIEL EINES DATA WAREHOUSE
Zunächst einmal ist es das Ziel eines Data Warehouse, Entscheidungsunterstützung für die
Mitarbeiter aller Unternehmensbereiche zu bieten.
Es sollen Informationen für die Kontroll- und Entscheidungsprozesse in einem Unternehmen
bereitgestellt werden. Die Verfügbarkeit problemadäquater Informationen für ein gezieltes
Marketing oder die frühzeitige Erkennung von Chancen und Risiken wird für Unternehmen
zunehmend erfolgskritisch. Denken Sie nur an Ansätze wie Database Marketing oder One-toone-Marketing, bei denen aus detaillierten Informationen über den Kunden eine
individualiserte Kundenansprache abgeleitet werden soll. Neben der Kontrolle von
Entscheidungen durch Standardauswertungen oder Ad hoc Abfragen werden Informationen
für eine gezielte Ausgestaltung des Marketing Mix immer wichtiger. Es gilt, neue
Zusammenhänge in den Datenbeständen zu erkennen, z.B. wodurch zeichnen sich gewinnund verlustbringende Kunden aus, welche Kunden sind gefährdet oder welche
Vertriebskanäle/Marketingaktionen sind die wirksamsten.
Kern ist eine Datenbank mit allen entscheidungsrelevanten Informationen. Diese Datenbank
ist eine bedarfsgerechte Zusammenführung der Datenbanken, die für die Abwicklung der
operativen Geschäftsprozesse eingesetzt werden, ergänzt um externe Quellen.
Ergänzt wird diese Datenbank um Softwarewerkzeuge, mit denen die Daten in die Data
Warehouse-Datenbank eingestellt werden und mit denen diese Daten danach abgefragt und
analysiert werden können.
ANFORDERUNGEN AN EIN DATA WAREHOUSE
Im Vergleich zu den operativen Datenbeständen der Administrations- und
Dispositionssysteme muss ein Data Warehouse grundsätzlich andere Anforderungen erfüllen.
Diese sind zu verschiedenen Regeln für ein Data Warehouse zusammengefaßt worden. Die
bekanntesten Regeln stammen von Inmon:
Die Entscheidungen in einem Unternehmen basieren auf Informationen über z.B. Kunden
oder Produkte und weniger auf Informationen über die innerbetrieblichen Prozesse. Die
Speicherung der Informationen in einem Data Warehouse sollte sich daher an den Subjekten
eines Unternehmens, z.B. den Kunden, orientieren und nicht an den innerbetrieblichen
Abläufen. Daten, die nicht der Entscheidungsunterstützung dienen, werden nicht das Data
Warehouse aufgenommen.
Das Data Warehouse ist eine Zusammenfassung verschiedenster Datenbanken. Durch
Struktur- und Formatvereinheitlichung müssen zusammengehörige Informationen, z.B. die
Kundeninformationen, bereinigt und in einer ü-bergreifenden Datenstruktur abgebildet
werden.
Prof. Dr. Michael Ponader
Seite 3
IT-Kompaktkurs / Data Warehouse
Mit der Unveränderbarkeit der Daten – der Nicht-Volatilität – soll die Reproduzierbarkeit der
Analyseergebnisse gewährleistet werden.
Data Warehouse-Daten können vom Anwender nicht gelesen werden - in ein Data Warehouse
werden neue Daten hinzugeladen oder andere archiviert. Nie werden vorhandene Daten
verändert – auch nicht von anderen Programmen.
Alle Daten erhalten den Bezug zu einem Zeitraum, für den sie gültig sind. Damit können
historische Daten, z.B. Verkaufszahlen, parallel zu aktuellen Informationen gespeichert und
z.B. für Trendanalysen verwendet werden.
Eine wesentliche Anforderung sind flexiblere Analysemöglichkeiten. Dies ist im Interesse der
Fachabteilung und der internen DV. Durch einfach zu bedienende, intuitive grafische
Oberflächen können die Analysen in der Fachabteilung selbst erstellt werden. Diese wird
dadurch unabhängiger von der Internen DV. Papierberge und entsprechende Kosten können
abgebaut werden, indem Auswertungen on demand erzeugt werden. Die DV-Abteilung muss
weniger Auswertungen programmieren und wird dadurch entlastet.
Durch eine umfassende Informationsbasis, in die auch externe Daten einbezogen werden, z.B.
die Branchenentwicklung, sollen fundiertere Entscheidungen möglich werden. Häufig finden
sich in unterschiedlichen Berichten nicht vergleichbare Informationen, da diese Berichte auf
unterschiedlichen Datenbanken in den verschiedenen Bereichen eines Unternehmens beruhen.
Dies kann vermieden werden, wenn alle Bereiche eines Unternehmens auf eine gemeinsame,
bereinigte Datenbasis zugreifen.
DATA WAREHOUSE ARCHITEKTUR
Bei einem Data Warehouse können zwei wesentliche Bereiche unterschieden werden. Der
Bereich der Datenbereitstellung und der der Informationsgewinnung.
Als Grundlage müssen die verschiedensten operativen Datenbestände zu einem gemeinsamen,
konsistenten Datenbestand zusammengeführt werden. Ausgangsbasis können relationale
Datenbanken, Vsam-Dateien oder sonstige Dateien sein. Neben den internen Daten sind auch
externe Daten, z.B. Marktforschungsdaten oder volkswirtschaftliche Daten, zu integrieren.
Beispiele für externe Daten können Marktforschungsdaten sein oder volkswirtschaftliche
Daten über die Branchenentwicklung. Aufgrund der Heterogenität der Ausgangsdaten
verursacht der Bereich der Datenbereitstellung meistens den wesentlichen Aufwand bei einer
Data Warehouse-Entwicklung.
Diese Daten werden dann in einer Datenbank, dem Data Warehouse im engeren Sinne,
abgelegt. In den meisten Fällen handelt es sich hier um eine von den operativen Systemen
getrennte Datenbank.
Prof. Dr. Michael Ponader
Seite 4
IT-Kompaktkurs / Data Warehouse
Auf diese kann dann für die gewünschten Auswertungen und Analysen zugegriffen werden.
Z.B. können konventionelle Reportgeneratoren zum Einsatz kommen, mit denen vordefinierte
Auswertungen automatisch zu vorher festgelegten Zeitpunkten oder Ad hoc erzeugt werden.
Eine andere Möglichkeit besteht in der weiteren Auswertung und Verarbeitung der Data
Warehouse-Daten mit Spreadsheet-Programmen, wie z.B. Excel. Damit können z.B.
zusätzliche statistische Berechnungen auf den Data Warehouse-Daten ausgeführt werden. Mit
dem Bereich OLAP-Tools und Analysen werden wir uns im weiteren Verlauf der heutigen
Sendung noch beschäftigen.
Das Data Mining ist die neueste Auswertungstechnologie. Bei den bisher genannten
Auswertungsverfahren sind zumindest die Dimensionen der Analyse vorgedacht und die
Zusammenhänge zwischen diesen Strukturen sind bekannt oder werden unterstellt. Die
Analyse der Informationen erfolgt intuitiv und weitgehend manuell durch den Benutzer. Beim
Data Mining sollen automatisch neue Muster und Zusammenhänge in den Daten erkannt und
der Benutzer darauf aufmerksam gemacht werden.
Mögliche Einsatzfelder des Data Minings sind die Einteilung von Kunden in Risikoklassen
für eine Bonitätsprüfung oder die Analyse von Warenkörben zur Erforschung des
Kaufverhaltens. Hierzu kommen beim Data Mining unterschiedliche Techniken zum Einsatz,
z.B. klassische statistische Verfahren wie die Clusteranalyse oder Methoden der Künstlichen
Intelligenz wie Neuronale Netze.
DATENBEREITSTELLUNG
= Erzeugen der Data Warehouse-Datenbank.
Der erste Schritt ist das Anzapfen der bestehenden Datenbanken. Die wesentliche
Entscheidung, die hier zu treffen ist, ist in welchen Zeitabständen welche Daten abgezogen
werden. Es können z.B. in periodischen Abständen alle relevanten Daten übertragen werden.
Da viele Daten zeitlich relativ stabil sind, wie z.B. die Stammdaten, ist dieses Vorgehen hier
uneffizient, daher werden bei anderen Verfahren nur die Daten übertragen, die seit dem
letzten Abzug verändert wurden oder die neu hinzugekommen sind.
Der vielleicht wichtigste Schritt ist der der Transformation der Ausgangsdaten, da hier die
Qualität des Datenbestandes und damit der späteren Analysen entscheidend festgelegt wird.
Aus den unterschiedlichen Daten muss ein einheitlicher Datenbestand erzeugt werden. Die
Felder der operativen Datenbanken müssen in die Felder der Data Warehouse-Datenbank
transformiert werden. In den verwendeten Werkzeugen werden hierfür Regeln definiert, nach
denen die Data Warehouse-Daten gewonnen werden.
Beispiel:
Das Geschlecht kann in den unterschiedlichen operativen Systemen unterschiedlich abgelegt
sein: ausgeschrieben, abgekürzt, in unterschiedlichen Sprachen oder 0/1-kodiert für eine
optimale Verarbeitung durch das Programm. Für die Data Warehouse-Datenbank muss dies
vereinheitlicht werden. Darüber hinaus müssen die Informationen in einer für den
menschlichen Benutzer optimal lesbaren Form abgelegt werden, also z.B. männlich/weiblich.
Prof. Dr. Michael Ponader
Seite 5
IT-Kompaktkurs / Data Warehouse
Weiterhin müssen vor der Übernahme in die Data Warehouse-Datenbank
Plausibilitätsprüfungen ausgeführt werden, z.B. liegen die Daten in den richtigen Formaten
vor. Fehlende oder fehlerhafte Daten werden protokolliert.
Die Detaildaten werden für die spätere Analysen nach unterschiedlichen Dimensionen
verdichtet, z.B. die Absatzzahlen nach Produkten/Warengruppen/Geschäftsfeldern oder
unterschiedlichen zeitlichen Dimensionen. Dies wird uns heute bei dem Thema OLAP
nochmals begegnen.
Sollten bei den Detaildaten bestimmte Informationen fehlen, so können diese in einem
weiteren Schritt berechnet werden.
Liegen z.B. die Umsätze, die variablen und die fixen Kosten vor, so kann zusätzlich der
Deckungsbetrag ausgerechnet und zusammen mit den anderen Daten in der Data WarehouseDatenbank abgelegt werden.
Um eine weitere Anforderung von Inmon zu erfüllen, müssen die Daten einen Zeitstempel
oder Gültigkeitszeitraum erhalten. Auf diese Weise wird eine Historie aufgebaut, auf die z.B.
für Zeitreihenanalysen oder Zeitvergleiche zu-rückgegriffen werden kann.
Für diese Arbeitsschritte werden unterschiedlichste Werkzeuge angeboten, die häufig als ETL
– Extraktion, Transformation, Laden-Werkzeuge bezeichnet werden.
METADATEN
Wesentliche Grundlage für diese Systeme sind Metadaten. Metadaten sind Daten über Daten.
Metadaten sind nichts Data Warehouse-Spezifisches, sie sind in der Datenverarbeitung lange
bekannt. Ein typisches Beispiel hierfür sind Data Dictionarys.
Die Metadaten beschreiben die Struktur und die Zusammenhänge eines Systems. Die
Metadaten bilden damit die Grundlage dafür, komplexe Systeme verstehen und warten bzw.
weiterentwickeln zu können. Stellen Sie sich vor, Datenfelder in den operativen Datenbanken
werden geändert. Es muss nachvollziehbar sein, welche Data Warehouse-Datenfelder davon
betroffen sind. Auch die oben beschriebenen Transformationsregeln sind als Metadaten
abgelegt und stehen so den ETL-Werkzeugen zur Verfügung. Weitere Beispiele sind
Datenmodelle auf logischer Ebene in Form von Entity Relationship-Modellen,
Datenbankkataloge mit der physischen Speicherstruktur und Informationen über die
Ausgangsdaten der operativen Systeme, z.B. Formate, Verantwortlichkeiten.
Neben diesen dv-technischen Metadaten für die Administration der Data WarehouseUmgebung treten fachliche Metadaten, die unmittelbar den Anwender betreffen.
Die Metadaten sind wesentliches Hilfsmittel für den Benutzer, das System verstehen und
zielgerichtet nutzen zu können. Beispiele hierfür sind Informationen über existierende
Standardberichte/Berichtsvorlagen, fachliche Berechnungsvorschriften und Begriffslexika.
Die Metadaten können in einer separaten Datenbank abgelegt sein oder in der gleichen
Datenbank abgelegt werden wie die entscheidungsrelevanten Daten.
Prof. Dr. Michael Ponader
Seite 6
IT-Kompaktkurs / Data Warehouse
OLAP
Eine relativ junge Technologie im Bereich Informationsgewinnung ist OLAP (Online
Analytical Processing). Der Begriff OLAP wurde von E. F. Codd geprägt und von ihm
erstmals 1993 in einem Aufsatz verwendet.
OLAP ist nicht zwangsläufig an ein Data Warehouse gebunden, aber OLAP und ein Data
Warehouse ergänzen sich sehr gut. Das Data Warehouse stellt eine bereinigte, konsistente
Datenbasis zur Verfügung. Auf dieser können OLAP-Werkzeuge aufsetzen, um dem Benutzer
die entsprechenden Auswertungsmöglichkeiten zur Verfügung zu stellen.
OLAP ermöglicht die mehrdimensionale Analyse betriebswirtschaftlicher Variablen, z.B.
Umsatz, Gewinn, nach verschiedenen Kriterien, z.B. Kunden, Regionen. Die typische
Darstellung dieser mehrdimensionalen Sicht ist der Olap-Würfel, den wir hier auf dieser Folie
sehen. Die Kanten des Würfels sind die Analysekriterien oder Dimensionen, hier in unserem
Beispiel Region, Zeit und Produkt. Die Zellen des Würfels enthalten die Analysevariablen,
z.B. den Umsatz. Eine Zelle des Würfels enthält also beispielsweise den Umsatz des
Produktes X in Deutschland im Jahr 2000.
Für die Dimensionen werden verschiedene Aggregationsstufen definiert. Also z.B. Monat,
Quartal, Jahr für die Zeit oder Bundesland, Land, Kontinent für die Region. Entsprechend
liegen dann auch die Kennzahlen in den verschiedenen Verdichtungsstufen vor.
Das wesentliche an dem Modell ist, dass die Daten in mehrdimensionalen Strukturen abgelegt
sind. Mit dem OLAP-Würfel läßt sich dies anschaulich darstellen.
Es ist durchaus möglich, dass mehr als drei Dimensionen zur Beschreibung der Daten
möglich sind. Es können – und das ist in der Praxis fast immer der Fall – noch zusätzliche
Dimensionen, z.B. Vertriebseinheit, Kundengruppe, hinzukommen. Der OLAP-Würfel wird
für die Darstellung des Modells gewählt, weil wir uns nicht mehr als drei Dimensionen
vorstellen können.
Für konkrete Auswertungen sind schon drei Dimensionen zu viel, weil nicht alle Werte
sichtbar sind. Bei mehr als zwei Dimensionen lassen sie sich in einer Auswertung nicht
sinnvoll darstellen. In der Visualisierung bleibt auch OLAP wie normale Spreadsheets auf
zwei Dimensionen beschränkt.
Das wesentliche gegenüber den bisherigen Auswertungen und Spreadsheet-Programmen ist,
das trotz der beschränkten Darstellungsmöglichkeiten die Daten nach mehreren Dimensionen
beschrieben sind, was wesentlich flexiblere Auswertungsmöglichkeiten bewirkt.
Man stellt sich eine typische Liste vor, die mit einem Reportgenerator erzeugt wird, oder ein
entsprechendes Spreadsheet mit den Umsätzen für das Jahr 2000 gegliedert nach
Produktlinien und Kundengruppen. Gegenüber Ihren Planungen haben sich die Umsätze bei
den verschiedenen Produktlinien sehr unterschiedlich entwickelt. Sie interessieren daher die
Umsätze bei den einzelnen Produkten, um in die Analyse der Ursachen einzusteigen. Oder Sie
möchten die Zahlen für 1999, um zu sehen, ob normale saisonale Schwankungen aufgetreten
sind.
Prof. Dr. Michael Ponader
Seite 7
IT-Kompaktkurs / Data Warehouse
Mit den herkömmlichen Analysetechniken hat man diese Informationen nicht ad hoc zur
Verfügung. Mit OLAP können Sie sofort in eine Detailanalyse einsteigen oder zusätzliche
Dimensionen in die Analyse einbeziehen.
DRILL-DOWN
= die Detaillierung der dargestellten Informationen. Man kann sich damit die Daten auf einer
feineren Detaillierungsstufe innerhalb der gleichen Dimension ansehen.
Beispiel:
Die schrittweise Detaillierung vom Kontinent über das Land zum Bundesland.
DRILL- ODER ROLL-UP?
Die Daten werden auf die nächsthöhere Aggregationsebene einer Dimension verdichtet.
Beispiel:
Vom Bundesland über das Land zum Kontinent.
Es gibt prinzipiell zwei Möglichkeiten, wie bei diesen Analysen die Dimensionen behandelt
werden. Bei der einen werden die nicht angezeigten Dimensionen auf der höchsten
Aggregationsstufe einbezogen, also ohne weitere Detaillierung. Z.B. alle Kunden oder für das
Gesamtunternehmen bei der Dimension Vertriebsbereiche.
Bei der anderen Form wird die nicht angezeigte Dimension nur mit einer bestimmten
Ausprägung einbezogen. Damit wären wir bei der nächsten Analyseform von OLAP, dem
Slice.
SLICE
Beim Slice werden einzelne Scheiben oder Schichten aus dem Würfel herausgeschnitten.
Stellen Sie sich z.B. einen Produktmanager vor. Dieser ist nur an den Zahlen des Produktes
interessiert, für das er verantwortlich ist. Alle anderen Dimensionen, z.B. Region oder Zeit,
sollen nur hinsichtlich seines Produktes in die Analysen einbezogen werden. Oder ein anderes
Beispiel, ein Gebietsleiter. Dieser ist nur an einer bestimmten Region interessiert, hier aber an
allen Produkten und für alle Perioden.
Slice bedeutet also das Filtern in bestimmten Dimensionen. In einer Dimension wird eine
bestimmte Ausprägung als Filter gesetzt. Für die weiteren Analysen werden bei den anderen
Dimensionen nur die Werte einbezogen, die sich auf diesen Filter beziehen.
Auf diese Weise kann man den Blickwinkel einer Analyse sehr schnell wechseln und die
Untersuchung bzw. die Darstellung mit einer anderen Sicht fortsetzen.
Hierzu dient auch die letzte Analysetechnik, die wir im Rahmen dieser Vorlesung besprechen
wollen.
Prof. Dr. Michael Ponader
Seite 8
IT-Kompaktkurs / Data Warehouse
DICE
Unter Dice versteht man das Drehen des Würfels, so dass die zweidimensionale Auswertung
die gewünschten Dimensionen enthält. Zu jedem Zeitpunkt der Analyse können so die für die
Darstellung gewünschten Dimensionen gegeneinander ausgetauscht werden.
Die OLAP-Analysewerkzeuge sind mit sehr komfortablen grafischen Benutzungsoberflächen
ausgestattet. Die gewünschten Analysen können sehr einfach mit der Maus per Drag and Drop
zusammengestellt werden. Die Funktionen wie Dice oder Drill down können ebenfalls z.B.
mit einfachen Mausklicks in einer Grafik angestoßen werden. Damit ist eine wesentliche
Voraussetzung für die Akzeptanz dieser Technik bei den Benutzern gegeben.
BEISPIELE FÜR NUTZUNGSEFFEKTE
Der Nutzen eines Data Warehouse liegt vor allem im qualitativen Bereich, z.B. mit aktuellen,
qualitativ hochwertigen Informationen zu marktgerechteren und schnelleren Entscheidungen
beizutragen und damit Umsatzpotentiale zu erschließen.
Auch die Auswirkungen auf die interne DV, z.B. die Entlastung der operativen Systeme oder
der internen DV-Abteilung von der Programmierung von Auswertungen, sind in eine
Nutzenbetrachtung einzubeziehen.
Diese Beispiele machen aber deutlich, dass eine exakte Wirtschaftlichkeitsbetrachtung zu
Beginn des Projektes kaum möglich ist. Auch während oder nach der Einführung bleiben
diese Nutzeffekte schwer messbar. Durch ein stufenweises Vorgehen können aber möglichst
frühzeitig Erfahrungswerte gewonnen werden, die die Entscheidung über die Realisierung
weiterer Aufgabenbereiche erleichtern.
ZUSAMMENFASSUNG
Auslöser für die Data Warehouse-Entwicklung war die Notwendigkeit, umfassendere,
aktuellere Informationen für betriebliche Entscheidungen zur Verfügung zu haben, um
schneller auf Marktänderungen reagieren zu können und Chancen frühzeitig zu erkennen.
Dieser Informationsbedarf konnte mit den bestehenden operativen Datenbanken nur
unzureichend befriedigt werden. Die erforderlichen Informationen waren über verschiedene
Datenbanken verteilt, Auswertungen konnten nur mit Programmierkenntnissen erstellt werden
oder erforderliche historische Daten waren nicht verfügbar.
Für ein Data Warehouse werden daher die entscheidungsrelevanten Daten aus den operativen
Systemen zusammengeführt und gegebenenfalls durch externe Daten ergänzt. Für das Füllen
der Data Warehouse-Datenbank und die Informationsgewinnung kommen unterschiedlichste
Tools zum Einsatz. Dies ist ein wesentlicher Punkt, ein Data Warehouse ist mehr als eine
zusätzliche Datenbank.
Prof. Dr. Michael Ponader
Seite 9
IT-Kompaktkurs / Data Warehouse
Der Datenbereitstellung kommt besondere Bedeutung zu, da hiervon die Möglichkeiten und
die Qualität der späteren Analysen entscheidend beeinflußt wird. Für zusammengehörige
Daten aus verschiedenen Datenbanken muss eine gemeinsame Datenstruktur festgelegt
werden, Formate müssen vereinheitlicht werden und eine Historie der Daten muss aufgebaut
werden, um nur einige Beispiele zu nennen.
Die Data Warehouse-Datenbank kann mit unterschiedlichsten Auswertungswerkzeugen
genutzt werden, z.B. herkömmliche Reportgeneratoren oder Spreadsheet-Programme. Einen
wesentlichen Fortschritt bezüglich der Flexibilität der Analysen und der einfachen
Bedienbarkeit der hierfür verwendeten Werkzeuge brachte das Online Analytical Processing.
Wegen des zugrundeliegenden mehrdimensionalen Modells für die betriebswirtschaftliche
Kennzahlen können Analysen sehr flexibel durchgeführt werden.
Trotz der offensichtlichen Vorteile eines Data Warehouse erweist es sich als sehr schwierig,
eine exakte Wirtschaftlichkeitsbetrachtung als Grundlage für eine Einführungsentscheidung
anzustellen, da sich fast alle Nutzeffekte nicht exakt quantifizieren lassen.
LITERATUR
Wieken, J.-H., Der Weg zum Data Warehouse, München 1999
Prof. Dr. Michael Ponader
Seite 10
Herunterladen