Fachhochschule Deggendorf IT-Kompaktkurs Data Warehouse Datenbank-Skript zur Folge 14 Prof. Dr. Michael Ponader Fachhochschule Deggendorf IT-Kompaktkurs / Data Warehouse Datenbanken sind eine wesentliche Grundlage für die betriebliche Informationsversorgung. Aber meistens existiert in einem Unternehmen nicht nur eine Datenbank, sondern mehrere. So können z.B. Kundendaten in verschiedenen Datenbanken enthalten sein, aber in einer gemeinsamen Auswertung benötigt werden. PROBLEME IN UNTERNEHMEN Ein wesentliches Problem sind heterogene DV-Strukturen. In den verschiedenen Bereichen eines Unternehmens existieren häufig unterschiedliche Datenbanken. Diese sind meist über Jahre zusammen mit den entsprechenden operativen DV-Systemen gewachsen und decken die spezifischen Anforderungen des Bereiches ab. Übergreifende Auswertungen sind schwierig und zeitaufwendig. Teilweise erschweren z.B. unterschiedliche Ordnungsbegriffe die Zusammenführung der Daten. Ein weiteres Problem ist, dass die Anwender in den Fachabteilungen keine Werkzeuge haben, um sich die gewünschten Analysen erstellen zu können. Für die gewünschten Auswertungen sind häufig Programmierkenntnisse erforderlich. Komfortable grafische Benutzungsoberflächen zur Formulierung der Abfragen stehen den Fachabteilungen nicht zur Verfügung. Sie sind auf die Unterstützung der EDV-Abteilungen angewiesen, die die erforderliche Auswertung häufig individuell programmieren muss. Die EDV-Abteilung ist jedoch meist bereits mit der Weiterentwicklung der Systeme ausgelastet. Neben der EDV-Abteilung wird auch die vorhandene DV-Infrastruktur bei der Erstellung der Auswertungen sehr stark belastet. Die operativen DV-Systeme sind auf die effiziente Bearbeitung einzelner Transaktionen, wie z.B. die Anlage eines Kundenauftrages, optimiert. Bei diesen Transaktionen wird nur auf geringe Datenmengen in wenigen Tabellen zugegriffen. Analysen und Berichte erfordern aber den Zugriff auf eine große Menge von Daten und oft auf eine Vielzahl von Tabellen eines relationalen Systems. Bei den Analysen spielen immer häufiger verdichtete Daten und Vergleiche über längere Zeiträume eine Rolle, z.B. die Produktabsätze der letzten Jahre, um über Zeitreihenanalysen Trends erkennen zu können. Historische Daten werden von operativen Systemen jedoch auf kostengünstigere, langsame Datenträger ausgelagert, auf die nicht online zugegriffen werden kann. Damit fehlen die erforderlichen historischen Daten. Ein wichtiger Aspekt ist, dass in operativen Systemen permanent neue Geschäftsvorfälle verarbeitet werden. Frühere Auswertungen können zu einem späteren Zeitpunkt oft nicht nachvollzogen werden, da die erforderlichen historischen Daten nicht verfügbar sind. In operativen Systemen müssen die verschiedenen Geschäftsvorfälle sofort zu einer Aktualisierung der Daten, z.B. der Verkaufzahlen, führen. Eine Analyse, die auf diese Daten zurückgreift, kann daher unter Umständen schon nach kurzer Zeit nicht mehr nachvollzogen werden, da die zugrundeliegenden Werte in den operativen Systemen durch neue Transaktionen geändert wurden. Prof. Dr. Michael Ponader Seite 2 IT-Kompaktkurs / Data Warehouse ZIEL EINES DATA WAREHOUSE Zunächst einmal ist es das Ziel eines Data Warehouse, Entscheidungsunterstützung für die Mitarbeiter aller Unternehmensbereiche zu bieten. Es sollen Informationen für die Kontroll- und Entscheidungsprozesse in einem Unternehmen bereitgestellt werden. Die Verfügbarkeit problemadäquater Informationen für ein gezieltes Marketing oder die frühzeitige Erkennung von Chancen und Risiken wird für Unternehmen zunehmend erfolgskritisch. Denken Sie nur an Ansätze wie Database Marketing oder One-toone-Marketing, bei denen aus detaillierten Informationen über den Kunden eine individualiserte Kundenansprache abgeleitet werden soll. Neben der Kontrolle von Entscheidungen durch Standardauswertungen oder Ad hoc Abfragen werden Informationen für eine gezielte Ausgestaltung des Marketing Mix immer wichtiger. Es gilt, neue Zusammenhänge in den Datenbeständen zu erkennen, z.B. wodurch zeichnen sich gewinnund verlustbringende Kunden aus, welche Kunden sind gefährdet oder welche Vertriebskanäle/Marketingaktionen sind die wirksamsten. Kern ist eine Datenbank mit allen entscheidungsrelevanten Informationen. Diese Datenbank ist eine bedarfsgerechte Zusammenführung der Datenbanken, die für die Abwicklung der operativen Geschäftsprozesse eingesetzt werden, ergänzt um externe Quellen. Ergänzt wird diese Datenbank um Softwarewerkzeuge, mit denen die Daten in die Data Warehouse-Datenbank eingestellt werden und mit denen diese Daten danach abgefragt und analysiert werden können. ANFORDERUNGEN AN EIN DATA WAREHOUSE Im Vergleich zu den operativen Datenbeständen der Administrations- und Dispositionssysteme muss ein Data Warehouse grundsätzlich andere Anforderungen erfüllen. Diese sind zu verschiedenen Regeln für ein Data Warehouse zusammengefaßt worden. Die bekanntesten Regeln stammen von Inmon: Die Entscheidungen in einem Unternehmen basieren auf Informationen über z.B. Kunden oder Produkte und weniger auf Informationen über die innerbetrieblichen Prozesse. Die Speicherung der Informationen in einem Data Warehouse sollte sich daher an den Subjekten eines Unternehmens, z.B. den Kunden, orientieren und nicht an den innerbetrieblichen Abläufen. Daten, die nicht der Entscheidungsunterstützung dienen, werden nicht das Data Warehouse aufgenommen. Das Data Warehouse ist eine Zusammenfassung verschiedenster Datenbanken. Durch Struktur- und Formatvereinheitlichung müssen zusammengehörige Informationen, z.B. die Kundeninformationen, bereinigt und in einer ü-bergreifenden Datenstruktur abgebildet werden. Prof. Dr. Michael Ponader Seite 3 IT-Kompaktkurs / Data Warehouse Mit der Unveränderbarkeit der Daten – der Nicht-Volatilität – soll die Reproduzierbarkeit der Analyseergebnisse gewährleistet werden. Data Warehouse-Daten können vom Anwender nicht gelesen werden - in ein Data Warehouse werden neue Daten hinzugeladen oder andere archiviert. Nie werden vorhandene Daten verändert – auch nicht von anderen Programmen. Alle Daten erhalten den Bezug zu einem Zeitraum, für den sie gültig sind. Damit können historische Daten, z.B. Verkaufszahlen, parallel zu aktuellen Informationen gespeichert und z.B. für Trendanalysen verwendet werden. Eine wesentliche Anforderung sind flexiblere Analysemöglichkeiten. Dies ist im Interesse der Fachabteilung und der internen DV. Durch einfach zu bedienende, intuitive grafische Oberflächen können die Analysen in der Fachabteilung selbst erstellt werden. Diese wird dadurch unabhängiger von der Internen DV. Papierberge und entsprechende Kosten können abgebaut werden, indem Auswertungen on demand erzeugt werden. Die DV-Abteilung muss weniger Auswertungen programmieren und wird dadurch entlastet. Durch eine umfassende Informationsbasis, in die auch externe Daten einbezogen werden, z.B. die Branchenentwicklung, sollen fundiertere Entscheidungen möglich werden. Häufig finden sich in unterschiedlichen Berichten nicht vergleichbare Informationen, da diese Berichte auf unterschiedlichen Datenbanken in den verschiedenen Bereichen eines Unternehmens beruhen. Dies kann vermieden werden, wenn alle Bereiche eines Unternehmens auf eine gemeinsame, bereinigte Datenbasis zugreifen. DATA WAREHOUSE ARCHITEKTUR Bei einem Data Warehouse können zwei wesentliche Bereiche unterschieden werden. Der Bereich der Datenbereitstellung und der der Informationsgewinnung. Als Grundlage müssen die verschiedensten operativen Datenbestände zu einem gemeinsamen, konsistenten Datenbestand zusammengeführt werden. Ausgangsbasis können relationale Datenbanken, Vsam-Dateien oder sonstige Dateien sein. Neben den internen Daten sind auch externe Daten, z.B. Marktforschungsdaten oder volkswirtschaftliche Daten, zu integrieren. Beispiele für externe Daten können Marktforschungsdaten sein oder volkswirtschaftliche Daten über die Branchenentwicklung. Aufgrund der Heterogenität der Ausgangsdaten verursacht der Bereich der Datenbereitstellung meistens den wesentlichen Aufwand bei einer Data Warehouse-Entwicklung. Diese Daten werden dann in einer Datenbank, dem Data Warehouse im engeren Sinne, abgelegt. In den meisten Fällen handelt es sich hier um eine von den operativen Systemen getrennte Datenbank. Prof. Dr. Michael Ponader Seite 4 IT-Kompaktkurs / Data Warehouse Auf diese kann dann für die gewünschten Auswertungen und Analysen zugegriffen werden. Z.B. können konventionelle Reportgeneratoren zum Einsatz kommen, mit denen vordefinierte Auswertungen automatisch zu vorher festgelegten Zeitpunkten oder Ad hoc erzeugt werden. Eine andere Möglichkeit besteht in der weiteren Auswertung und Verarbeitung der Data Warehouse-Daten mit Spreadsheet-Programmen, wie z.B. Excel. Damit können z.B. zusätzliche statistische Berechnungen auf den Data Warehouse-Daten ausgeführt werden. Mit dem Bereich OLAP-Tools und Analysen werden wir uns im weiteren Verlauf der heutigen Sendung noch beschäftigen. Das Data Mining ist die neueste Auswertungstechnologie. Bei den bisher genannten Auswertungsverfahren sind zumindest die Dimensionen der Analyse vorgedacht und die Zusammenhänge zwischen diesen Strukturen sind bekannt oder werden unterstellt. Die Analyse der Informationen erfolgt intuitiv und weitgehend manuell durch den Benutzer. Beim Data Mining sollen automatisch neue Muster und Zusammenhänge in den Daten erkannt und der Benutzer darauf aufmerksam gemacht werden. Mögliche Einsatzfelder des Data Minings sind die Einteilung von Kunden in Risikoklassen für eine Bonitätsprüfung oder die Analyse von Warenkörben zur Erforschung des Kaufverhaltens. Hierzu kommen beim Data Mining unterschiedliche Techniken zum Einsatz, z.B. klassische statistische Verfahren wie die Clusteranalyse oder Methoden der Künstlichen Intelligenz wie Neuronale Netze. DATENBEREITSTELLUNG = Erzeugen der Data Warehouse-Datenbank. Der erste Schritt ist das Anzapfen der bestehenden Datenbanken. Die wesentliche Entscheidung, die hier zu treffen ist, ist in welchen Zeitabständen welche Daten abgezogen werden. Es können z.B. in periodischen Abständen alle relevanten Daten übertragen werden. Da viele Daten zeitlich relativ stabil sind, wie z.B. die Stammdaten, ist dieses Vorgehen hier uneffizient, daher werden bei anderen Verfahren nur die Daten übertragen, die seit dem letzten Abzug verändert wurden oder die neu hinzugekommen sind. Der vielleicht wichtigste Schritt ist der der Transformation der Ausgangsdaten, da hier die Qualität des Datenbestandes und damit der späteren Analysen entscheidend festgelegt wird. Aus den unterschiedlichen Daten muss ein einheitlicher Datenbestand erzeugt werden. Die Felder der operativen Datenbanken müssen in die Felder der Data Warehouse-Datenbank transformiert werden. In den verwendeten Werkzeugen werden hierfür Regeln definiert, nach denen die Data Warehouse-Daten gewonnen werden. Beispiel: Das Geschlecht kann in den unterschiedlichen operativen Systemen unterschiedlich abgelegt sein: ausgeschrieben, abgekürzt, in unterschiedlichen Sprachen oder 0/1-kodiert für eine optimale Verarbeitung durch das Programm. Für die Data Warehouse-Datenbank muss dies vereinheitlicht werden. Darüber hinaus müssen die Informationen in einer für den menschlichen Benutzer optimal lesbaren Form abgelegt werden, also z.B. männlich/weiblich. Prof. Dr. Michael Ponader Seite 5 IT-Kompaktkurs / Data Warehouse Weiterhin müssen vor der Übernahme in die Data Warehouse-Datenbank Plausibilitätsprüfungen ausgeführt werden, z.B. liegen die Daten in den richtigen Formaten vor. Fehlende oder fehlerhafte Daten werden protokolliert. Die Detaildaten werden für die spätere Analysen nach unterschiedlichen Dimensionen verdichtet, z.B. die Absatzzahlen nach Produkten/Warengruppen/Geschäftsfeldern oder unterschiedlichen zeitlichen Dimensionen. Dies wird uns heute bei dem Thema OLAP nochmals begegnen. Sollten bei den Detaildaten bestimmte Informationen fehlen, so können diese in einem weiteren Schritt berechnet werden. Liegen z.B. die Umsätze, die variablen und die fixen Kosten vor, so kann zusätzlich der Deckungsbetrag ausgerechnet und zusammen mit den anderen Daten in der Data WarehouseDatenbank abgelegt werden. Um eine weitere Anforderung von Inmon zu erfüllen, müssen die Daten einen Zeitstempel oder Gültigkeitszeitraum erhalten. Auf diese Weise wird eine Historie aufgebaut, auf die z.B. für Zeitreihenanalysen oder Zeitvergleiche zu-rückgegriffen werden kann. Für diese Arbeitsschritte werden unterschiedlichste Werkzeuge angeboten, die häufig als ETL – Extraktion, Transformation, Laden-Werkzeuge bezeichnet werden. METADATEN Wesentliche Grundlage für diese Systeme sind Metadaten. Metadaten sind Daten über Daten. Metadaten sind nichts Data Warehouse-Spezifisches, sie sind in der Datenverarbeitung lange bekannt. Ein typisches Beispiel hierfür sind Data Dictionarys. Die Metadaten beschreiben die Struktur und die Zusammenhänge eines Systems. Die Metadaten bilden damit die Grundlage dafür, komplexe Systeme verstehen und warten bzw. weiterentwickeln zu können. Stellen Sie sich vor, Datenfelder in den operativen Datenbanken werden geändert. Es muss nachvollziehbar sein, welche Data Warehouse-Datenfelder davon betroffen sind. Auch die oben beschriebenen Transformationsregeln sind als Metadaten abgelegt und stehen so den ETL-Werkzeugen zur Verfügung. Weitere Beispiele sind Datenmodelle auf logischer Ebene in Form von Entity Relationship-Modellen, Datenbankkataloge mit der physischen Speicherstruktur und Informationen über die Ausgangsdaten der operativen Systeme, z.B. Formate, Verantwortlichkeiten. Neben diesen dv-technischen Metadaten für die Administration der Data WarehouseUmgebung treten fachliche Metadaten, die unmittelbar den Anwender betreffen. Die Metadaten sind wesentliches Hilfsmittel für den Benutzer, das System verstehen und zielgerichtet nutzen zu können. Beispiele hierfür sind Informationen über existierende Standardberichte/Berichtsvorlagen, fachliche Berechnungsvorschriften und Begriffslexika. Die Metadaten können in einer separaten Datenbank abgelegt sein oder in der gleichen Datenbank abgelegt werden wie die entscheidungsrelevanten Daten. Prof. Dr. Michael Ponader Seite 6 IT-Kompaktkurs / Data Warehouse OLAP Eine relativ junge Technologie im Bereich Informationsgewinnung ist OLAP (Online Analytical Processing). Der Begriff OLAP wurde von E. F. Codd geprägt und von ihm erstmals 1993 in einem Aufsatz verwendet. OLAP ist nicht zwangsläufig an ein Data Warehouse gebunden, aber OLAP und ein Data Warehouse ergänzen sich sehr gut. Das Data Warehouse stellt eine bereinigte, konsistente Datenbasis zur Verfügung. Auf dieser können OLAP-Werkzeuge aufsetzen, um dem Benutzer die entsprechenden Auswertungsmöglichkeiten zur Verfügung zu stellen. OLAP ermöglicht die mehrdimensionale Analyse betriebswirtschaftlicher Variablen, z.B. Umsatz, Gewinn, nach verschiedenen Kriterien, z.B. Kunden, Regionen. Die typische Darstellung dieser mehrdimensionalen Sicht ist der Olap-Würfel, den wir hier auf dieser Folie sehen. Die Kanten des Würfels sind die Analysekriterien oder Dimensionen, hier in unserem Beispiel Region, Zeit und Produkt. Die Zellen des Würfels enthalten die Analysevariablen, z.B. den Umsatz. Eine Zelle des Würfels enthält also beispielsweise den Umsatz des Produktes X in Deutschland im Jahr 2000. Für die Dimensionen werden verschiedene Aggregationsstufen definiert. Also z.B. Monat, Quartal, Jahr für die Zeit oder Bundesland, Land, Kontinent für die Region. Entsprechend liegen dann auch die Kennzahlen in den verschiedenen Verdichtungsstufen vor. Das wesentliche an dem Modell ist, dass die Daten in mehrdimensionalen Strukturen abgelegt sind. Mit dem OLAP-Würfel läßt sich dies anschaulich darstellen. Es ist durchaus möglich, dass mehr als drei Dimensionen zur Beschreibung der Daten möglich sind. Es können – und das ist in der Praxis fast immer der Fall – noch zusätzliche Dimensionen, z.B. Vertriebseinheit, Kundengruppe, hinzukommen. Der OLAP-Würfel wird für die Darstellung des Modells gewählt, weil wir uns nicht mehr als drei Dimensionen vorstellen können. Für konkrete Auswertungen sind schon drei Dimensionen zu viel, weil nicht alle Werte sichtbar sind. Bei mehr als zwei Dimensionen lassen sie sich in einer Auswertung nicht sinnvoll darstellen. In der Visualisierung bleibt auch OLAP wie normale Spreadsheets auf zwei Dimensionen beschränkt. Das wesentliche gegenüber den bisherigen Auswertungen und Spreadsheet-Programmen ist, das trotz der beschränkten Darstellungsmöglichkeiten die Daten nach mehreren Dimensionen beschrieben sind, was wesentlich flexiblere Auswertungsmöglichkeiten bewirkt. Man stellt sich eine typische Liste vor, die mit einem Reportgenerator erzeugt wird, oder ein entsprechendes Spreadsheet mit den Umsätzen für das Jahr 2000 gegliedert nach Produktlinien und Kundengruppen. Gegenüber Ihren Planungen haben sich die Umsätze bei den verschiedenen Produktlinien sehr unterschiedlich entwickelt. Sie interessieren daher die Umsätze bei den einzelnen Produkten, um in die Analyse der Ursachen einzusteigen. Oder Sie möchten die Zahlen für 1999, um zu sehen, ob normale saisonale Schwankungen aufgetreten sind. Prof. Dr. Michael Ponader Seite 7 IT-Kompaktkurs / Data Warehouse Mit den herkömmlichen Analysetechniken hat man diese Informationen nicht ad hoc zur Verfügung. Mit OLAP können Sie sofort in eine Detailanalyse einsteigen oder zusätzliche Dimensionen in die Analyse einbeziehen. DRILL-DOWN = die Detaillierung der dargestellten Informationen. Man kann sich damit die Daten auf einer feineren Detaillierungsstufe innerhalb der gleichen Dimension ansehen. Beispiel: Die schrittweise Detaillierung vom Kontinent über das Land zum Bundesland. DRILL- ODER ROLL-UP? Die Daten werden auf die nächsthöhere Aggregationsebene einer Dimension verdichtet. Beispiel: Vom Bundesland über das Land zum Kontinent. Es gibt prinzipiell zwei Möglichkeiten, wie bei diesen Analysen die Dimensionen behandelt werden. Bei der einen werden die nicht angezeigten Dimensionen auf der höchsten Aggregationsstufe einbezogen, also ohne weitere Detaillierung. Z.B. alle Kunden oder für das Gesamtunternehmen bei der Dimension Vertriebsbereiche. Bei der anderen Form wird die nicht angezeigte Dimension nur mit einer bestimmten Ausprägung einbezogen. Damit wären wir bei der nächsten Analyseform von OLAP, dem Slice. SLICE Beim Slice werden einzelne Scheiben oder Schichten aus dem Würfel herausgeschnitten. Stellen Sie sich z.B. einen Produktmanager vor. Dieser ist nur an den Zahlen des Produktes interessiert, für das er verantwortlich ist. Alle anderen Dimensionen, z.B. Region oder Zeit, sollen nur hinsichtlich seines Produktes in die Analysen einbezogen werden. Oder ein anderes Beispiel, ein Gebietsleiter. Dieser ist nur an einer bestimmten Region interessiert, hier aber an allen Produkten und für alle Perioden. Slice bedeutet also das Filtern in bestimmten Dimensionen. In einer Dimension wird eine bestimmte Ausprägung als Filter gesetzt. Für die weiteren Analysen werden bei den anderen Dimensionen nur die Werte einbezogen, die sich auf diesen Filter beziehen. Auf diese Weise kann man den Blickwinkel einer Analyse sehr schnell wechseln und die Untersuchung bzw. die Darstellung mit einer anderen Sicht fortsetzen. Hierzu dient auch die letzte Analysetechnik, die wir im Rahmen dieser Vorlesung besprechen wollen. Prof. Dr. Michael Ponader Seite 8 IT-Kompaktkurs / Data Warehouse DICE Unter Dice versteht man das Drehen des Würfels, so dass die zweidimensionale Auswertung die gewünschten Dimensionen enthält. Zu jedem Zeitpunkt der Analyse können so die für die Darstellung gewünschten Dimensionen gegeneinander ausgetauscht werden. Die OLAP-Analysewerkzeuge sind mit sehr komfortablen grafischen Benutzungsoberflächen ausgestattet. Die gewünschten Analysen können sehr einfach mit der Maus per Drag and Drop zusammengestellt werden. Die Funktionen wie Dice oder Drill down können ebenfalls z.B. mit einfachen Mausklicks in einer Grafik angestoßen werden. Damit ist eine wesentliche Voraussetzung für die Akzeptanz dieser Technik bei den Benutzern gegeben. BEISPIELE FÜR NUTZUNGSEFFEKTE Der Nutzen eines Data Warehouse liegt vor allem im qualitativen Bereich, z.B. mit aktuellen, qualitativ hochwertigen Informationen zu marktgerechteren und schnelleren Entscheidungen beizutragen und damit Umsatzpotentiale zu erschließen. Auch die Auswirkungen auf die interne DV, z.B. die Entlastung der operativen Systeme oder der internen DV-Abteilung von der Programmierung von Auswertungen, sind in eine Nutzenbetrachtung einzubeziehen. Diese Beispiele machen aber deutlich, dass eine exakte Wirtschaftlichkeitsbetrachtung zu Beginn des Projektes kaum möglich ist. Auch während oder nach der Einführung bleiben diese Nutzeffekte schwer messbar. Durch ein stufenweises Vorgehen können aber möglichst frühzeitig Erfahrungswerte gewonnen werden, die die Entscheidung über die Realisierung weiterer Aufgabenbereiche erleichtern. ZUSAMMENFASSUNG Auslöser für die Data Warehouse-Entwicklung war die Notwendigkeit, umfassendere, aktuellere Informationen für betriebliche Entscheidungen zur Verfügung zu haben, um schneller auf Marktänderungen reagieren zu können und Chancen frühzeitig zu erkennen. Dieser Informationsbedarf konnte mit den bestehenden operativen Datenbanken nur unzureichend befriedigt werden. Die erforderlichen Informationen waren über verschiedene Datenbanken verteilt, Auswertungen konnten nur mit Programmierkenntnissen erstellt werden oder erforderliche historische Daten waren nicht verfügbar. Für ein Data Warehouse werden daher die entscheidungsrelevanten Daten aus den operativen Systemen zusammengeführt und gegebenenfalls durch externe Daten ergänzt. Für das Füllen der Data Warehouse-Datenbank und die Informationsgewinnung kommen unterschiedlichste Tools zum Einsatz. Dies ist ein wesentlicher Punkt, ein Data Warehouse ist mehr als eine zusätzliche Datenbank. Prof. Dr. Michael Ponader Seite 9 IT-Kompaktkurs / Data Warehouse Der Datenbereitstellung kommt besondere Bedeutung zu, da hiervon die Möglichkeiten und die Qualität der späteren Analysen entscheidend beeinflußt wird. Für zusammengehörige Daten aus verschiedenen Datenbanken muss eine gemeinsame Datenstruktur festgelegt werden, Formate müssen vereinheitlicht werden und eine Historie der Daten muss aufgebaut werden, um nur einige Beispiele zu nennen. Die Data Warehouse-Datenbank kann mit unterschiedlichsten Auswertungswerkzeugen genutzt werden, z.B. herkömmliche Reportgeneratoren oder Spreadsheet-Programme. Einen wesentlichen Fortschritt bezüglich der Flexibilität der Analysen und der einfachen Bedienbarkeit der hierfür verwendeten Werkzeuge brachte das Online Analytical Processing. Wegen des zugrundeliegenden mehrdimensionalen Modells für die betriebswirtschaftliche Kennzahlen können Analysen sehr flexibel durchgeführt werden. Trotz der offensichtlichen Vorteile eines Data Warehouse erweist es sich als sehr schwierig, eine exakte Wirtschaftlichkeitsbetrachtung als Grundlage für eine Einführungsentscheidung anzustellen, da sich fast alle Nutzeffekte nicht exakt quantifizieren lassen. LITERATUR Wieken, J.-H., Der Weg zum Data Warehouse, München 1999 Prof. Dr. Michael Ponader Seite 10