Seminar CRM SS 2006 Data Warehouses und Customer Relationship Management Jan Guggisberg & Urs Dietrich 1. Der Einsatz von Data Warehouses im Customer-Relationship-Management 2 2. Die Einführung eines Data Warehouses 3 3. Anforderungen an das Data Warehouse 4 3.1.1 Churn-Analysen und Service-Optimierumg 4 3.1.2 Warenkorb-Analyse 4 3.1.3 Zielgruppen-Analyse 4 3.1.4 Vertriebs-Targeting 5 3.1.5 Budget-Analysen 5 3.1.6 Cross-Selling 5 3.1.7 Fertigung/Logistik/Distribution 5 3.1.8 Cross-funktionale Fragen 5 4. Das Customer Orientation Framework (COF) 6 5. Data Warehouses – eine technikorientierte Einführung 7 6. 5.1 Einleitung 7 5.2 Grundlagen des OLAP 9 5.3 Modellierung von Data Warehouses 11 5.4 Der Fuzzy Logic Approach 13 Bibliographie 15 1 1. Der Einsatz von Data Warehouses im CustomerRelationship-Management Um heute noch konkurrenzfähig zu sein, müssen die Unternehmen Strategien entwickeln, die den Kundenanforderungen entsprechen. Die Hauptschwierigkeit hier ist, die Kundenbeziehungen als Asset einzusetzen. Um dies zu erreichen, ist die Entwicklung eines Data Warehouses unumgänglich. (Meier 2003) Es werden Lösungen angestrebt, die gezielt den Kundenanspruch sowie die Kundenzufriedenheit steigern. Dazu benötigt man Daten, die z. B. Aussagen über das Kaufdas Reklamations- und das Bestellverhalten enthalten, um die Ausrichtung der gesamten unternehmerischen Wertschöpfungskette auf den Kunden ermöglichen. Hier kommt das Data Warehouse ins Spiel. Es dient als zentraler Speicher von Kundenwissen, das mit Hilfe analytischer Hilfsmittel (Business Intelligence) wie Data-Mining und OLAP die benötigten Informationen liefert. (Hofmann and Mertiens 2000) Abbildung 1: Marktanalyse der Behandlung von Kundentaten für CRM Wie man bei Abbildung 1 sieht, ist die häufigste Methode der Datenbeschaffung immer noch die manuelle Sammlung. Ausserdem werden diese eher dazu gebraucht, die Bestellungen zu machen, als das Kundenverhalten zu analysieren und zu überwachen. Wenn die Daten elektronisch erfasst werden, stellt sich ausserdem das Problem, dass sich diese oft an verschiedenen Standorten in verschiedenen Datenbanken befinden. Die Aufgabe des Data Warehouses ist, die Daten aus den verschiedenen Datenquellen zu sammeln und soll ermöglichen, dass diese ohne grösseren Aufwand analysiert werden können. «Das Beispiel des Einzelhandels macht die Problematik klarer. Jeder Kunde hinterlässt an der Scannerkasse Spuren seines Einkaufs. Es wird der genaue Inhalt des Einkaufswagens 2 zusammen mit dem Datum und der Uhrzeit des Einkaufs gespeichert. Sogar die Identität kann bei Zahlung mit ec- oder Kreditkarte festgestellt werden.»1 2. Die Einführung eines Data Warehouses Die meisten Projekte ein Data Warehouse einzuführen, scheitern am organisatorischen Aufwand. Es ist empfehlenswert, den Aufbau in verschiedenen Etappen vorzunehmen, da es oft gar nicht möglich ist, ein unternehmensweites Data Warehouse in einem Schritt aufzubauen. In Abbildung 2 sind die wesentlichen Schritte dargestellt: Abbildung 2: Die wesentlichen Schritte bei der Einführung eines Data Warehouses Als erstes muss bestimmt werden, welchen Anforderungen das Data Warehouse genügen soll. Aufschluss darüber gibt eine Prozessanalyse der ausgewählten Unternehmensteile. Es wird eine Mitarbeiterumfrage durchgeführt um die vorhandenen Informationsströme zu analysieren und um herauszufiltern, welche Informationen gefordert werden. Ausserdem fördert diese Umfrage die Akzeptanz für dieses neue Informationssystem. Mit den gewonnenen Informationen wird nun ein Grobkonzept erstellt. Auf dieser Basis sollte eine 1 Hofmann, M. and M. Mertiens (2000). Customer-Lifetime-Value-Management. Kundenwerte schaffen und erhöhen: Konzepte, Strategien, Praxisbeispiele. Wiesbaden, S. 155. 3 Wirtschaftlichkeitsanalyse durchgeführt werden, wobei der erwartete Nutzen des Ware Houses den Kosten für Aufbau, Betrieb und Schulung der Mitarbeiter gegenübergestellt wird. Hat man sich nun für die Einführung entschieden, müssen die verschiedenen Datenquellen identifiziert und detailliert beschrieben werden. Ausserdem ist auf Abhängigkeiten zwischen den verschiedenen Datenquellen zu achten. Wenn man diese zwei Hauptschritte durchgeführt hat, muss man noch die richtige Software auswählen und diese dem bestehenden System anpassen. 3. Anforderungen an das Data Warehouse «Von einem Data-Warehouse wird die komfortable Analyse komplizierter Sachverhalte mit niedrigen Antwortzeiten, auch bei sehr grossen Datenmengen, erwartet.»2 Jegliche Auswertungen sollten ohne grossen Programmieraufwand machbar sein. Nicht alle Benutzer sind an denselben Daten interessiert. Analytiker benötigen detailliertere Daten als die Geschäftsleitung. Folgende Analysebeispiele geben Aufschluss auf die unterschiedlichen Anforderungen an das Data Warehouse. 3.1.1 Churn-Analysen und Service-Optimierumg Die Churn-rate ist die Rate der Vertragskündigungen oder die Rate der Geshäftskunden, die dauerhaft in einem anderen Geschäft einkaufen. Die Gründe dieser Fluktuationen geben oftmals Aufschluss über mögliches Optimierungspotential in der Kundenbeziehung. Andererseits dient die Churn-Analyse auch als Frühwarnsystem.3 3.1.2 Warenkorb-Analyse Durch die Analyse der Warenverkäufe kann überprüft werden, ob positive oder negative Korrelationen zwischen den einzelnen Produkten bestehen (z. B. wird Bier häufig zusammen mit Chips oder Grillwaren gekauft). Mit diesen Informationen lässt sich das Sortiment und die Produktpositionierung optimieren. 3.1.3 Zielgruppen-Analyse Data Warehousing und Data-Mining erlauben es, die klassische Zielgruppenanalyse um eine Dimension zu erweitern. Verschiedenste Variablen des Kaufverhaltens können genauestens untersucht werden. Somit kann vom bestehenden Sortiment auf Kundenprofile geschlossen 2 Ibid., S. 178. 3 Ibid. 4 werden, «die als ‹Schablone› für Neukunden dienen können.»4 Mit Hilfe dieser Profile können ausserdem Vorhersagemodelle erstellt werden, welche die Wahrscheinlichkeit vorhersagen können, ob ein neues Produkt ein Erfolg werden kann oder nicht. 3.1.4 Vertriebs-Targeting Hier wird vor allem eine geographische Analyse der Kaufgewohnheiten durchgeführt. Mit den gewonnenen Erkenntnissen können die Vertriebsressourcen optimiert und die Marketingaktivitäten koordiniert werden. 3.1.5 Budget-Analysen Mit Hilfe der Zielgruppenanalyse kann auch festgestellt werden, wie effektiv das Budget bezüglich einzelner Kampagnen eingesetzt wurde: «so können zum Beispiel nach einer Kampagne in einem Printmedium die reinen Abverkaufszahlen des beworbenen Produktes aufgebrochen, mit der regionen- sowie zielgruppenspezifischen Reichweite des gewählten Medium verknüpft und miteinander in Beziehung gesetzt werden.»5 3.1.6 Cross-Selling Häufig werden bei grossen Produktpaletten die Geschäftsfelder getrennt, um die Vermarktung zu vereinfachen. Dadurch werden mögliche Synergien gar nicht oder nur unzureichend ausgenutzt. Ein Data Warehouse ermöglicht hier Geschäftsfelder zu virtuellen Einheiten zu verknüpfen. 3.1.7 Fertigung/Logistik/Distribution Durch die verschiedenen Analysen des Marktes mit Hilfe von Data-Mining können Trends frühzeitig erkannt werden. Dies erlaubt es einem Unternehmen, rechtzeitig reagieren zu können und die Fertigung anzupassen. Ausserdem kann die Lagerhaltung und der Vertrieb schnell angepasst werden. 3.1.8 Cross-funktionale Fragen Die Einführung eines Data Warehouses kann das Informationsverhalten der Mitarbeiter positiv beeinflussen. Sie erhalten einen Einblick auf die gesamte Wertschöpfungskette und können die Konsequenzen ihres Handelns besser abschätzen. Ausserdem können die Verknüpfungen zwischen den Abteilungen analysiert werden. Managemententscheidungen 4 Ibid., S. 161. 5 Ibid. 5 können so auf eine solide Grundlage gestellt werden. Durch Red-Flag-Funktionalitäten werden darüber hinaus schnelle Reaktionszeiten auf kritische Veränderungen ermöglicht. Die hier aufgezeigten Beispiele stellen nur einen Bruchteil der Möglichkeiten dar, die durch die Einführung von Customer Data Warehouses möglich sind. 4. Das Customer Orientation Framework (COF) Um Kundenbeziehungen zu bilden und zu pflegen, braucht es spezifische Methoden, hier illustriert durch die fünf Elemente eines customer orientation frameworks (COF). In einem ersten Schritt muss die Strategie festgelegt werden. Es muss ein Mix zwischen Kundengewinnung, Kundenbindung und add-on selling gefunden werden. Ziel der Kundengewinnung ist es, aus der Gesamtheit der Marktteilnehmer Sympathisanten zu gewinnen, sie zu Interessenten zu machen und als Kunden zu gewinnen. Folgende Mittel stehen dafür zur Verfügung: Imagewerbung/Public Relations, Produktwerbung, Responsemedien (Mailings, Telefon…) usw. Weiter muss versucht werden, die gewonnenen Kunden zu binden. Das Wohlwollen der Kunden muss schrittweise gefestigt werden, um so die Loyalität und das Vertrauen der Kunden zu erhöhen (Abbildung 4). Das kann man erreichen, wenn man in ständiger Kommunikation mit den Kunden bleibt (Telefon, Fax, E-Mail, Persönliche Beratung…). Abbildung 3: Die fünf Elemente des Customer orientation framework (COF) 6 Abbildung 4: Die einzelnen Phasen des Beziehungskreislaufes Der zweite Schritt widmet sich der Planung. Als erstes müssen die Geschäftsprozesse während dem gesamten Kundenlebenszyklus analysiert werden. Zweitens werden durch ein customer equity model Kundensegmente gebildet oder angepasst. In einem dritten Schritt werden Kampagnen geplant, um die interessanten Segmente zu bearbeiten (Kundengewinnung und Bindung). (Meier 2003) Drittens muss die Organisation geregelt werden. Eine wichtige Frage ist hier, ob ein chief customer officer (CCO) ernannt werden soll oder nicht. Als Mitglied der Geschäftsleitung wäre er dafür da, eine kundenorientierte Unternehmenspolitik zu garantieren. Ausserdem wäre er für das Relationship-Marketing, sales und after-sales Dienstleistungen zuständig. (Meier 2003) Schritt vier dieses frameworks besteht in der Bereitstellung und dem Support von «customer data warehouses» bzw. einer «contact database» (Meier 2003). Die folgenden Ausführungen fokussieren auf technische Aspekte von Data Warehouses und gehen insbesondere auf neuere Entwicklungen in diesem Bereich ein. 5. Data Warehouses – eine technikorientierte Einführung 5.1 Einleitung Im Gegensatz zu Datenbanken, die im produktiven Bereich eingesetzt werden und transaktionsorientiert ausgerichtet und diesbezüglich optimiert sind, werden Data Warehouses 7 unter dem Blickwinkel der Auswertbarkeit von Informationen entworfen und implementiert. Elmasri und Navathe beschreiben sie in einer sehr allgemeinen Form als «a collection of decision support technologies, aimed at enabling the knowledge worker (executive, manager, analyst) to maker better and faster decisions» (Elmasri and Navathe 2004). Sie werden für Anwendungen des On-Line Analytical Processings (OLAP), der Visualisierung, des Data Minings und des Knowledge Discovery verwendet. Dabei sind die darin enthaltenen Daten von den operationalen Daten getrennt, themenbezogen, integriert, zeitveränderlich und nicht flüchtig (Vossen 2000). In der Praxis sind Data Warehouses in eine technische Umgebung eingebettet, die in vielen Fällen etwa folgendem Muster entspricht: o Die (meisten) Datenquellen sind relationale Datenbanken o Das Data Warehouse selbst ist ein relationales Datenbankmanagementsystem. o Datenintegration und –extraktion erfolgen offline, meist im Batchbetrieb über Nacht. o Die Quelldatenbanken werden vollständig im Data Warehouse repliziert, die Extraktion findet, wenn überhaupt, auf einem nur rudimentären Level statt. o Das Data Warehouse wird weiter in Data Marts unterteilt, welche themenspezifische Untersuchungen, Auswertungen und OLAP erlauben. Damit wird in vielen Fällen eine zusätzliche Schicht zwischen dem in Abbildung 5 gezeigten Data Warehouse und den anschliessenden Auswertungen gelegt. Um ein Data Warehouse einzurichten, sind zumindest folgende Aktivitäten notwendig: o Extrahieren von Daten aus operationalen Datenbanken o Laden eines initialen Datensets o Periodische Aktualisierungen dieses Datensets o Transformation und Anpassung der Quelldaten an das Schema des Data Warehouse 8 Abbildung 5: Auswertungsorientierte Integration von Daten und Anwendungen von Data Warehouses (Vossen 2000) Da das Data Warehouse von den zugrunde liegenden Quellen losgelöst unterhalten wird, müssen die Datenbestände in regelmässigen Abständen aktualisiert werden. Hier werden zwei Ansätze unterschieden: o Bei einem Refresh-Copy werden in bestimmten Abständen alle Daten neu ins Data Warehouse kopiert. Für grosse Datenmengen ist dieser Ansatz ungeeignet. o Bei einem Incremental-Copy werden nur die geänderten Daten im Data Warehouse nachgeführt. (Vossen 2000) Mittels des von der OMG vorgeschlagenen Common Warehouse Metamodells (CWM) wird ein Standard zur Beschreibung, den Zugriff und den Austausch von Metadaten in Data Warehouses vorgeschlagen. Der Standard definiert ein Metamodell, das Metadaten sowohl aus betriebswirtschaftlicher als auch aus technischer Sicht darstellen kann. Da das CWM sowohl die Syntax als auch die Semantik bereitstellt, kann der komplette Prozess beschrieben werden. (OMG 2003; Haag 2004; Wikipedia 2006) 5.2 Grundlagen des OLAP Beim On-Line Analytical Processing geht es in erster Linie um die Unterstützung von Anfragen zum Zwecke von Analysen oder auch um eine Aufbereitung von geschäftskritischen Daten für Entscheidungsträger in Unternehmungen. Der Begriff geht auf Codd zurück, der 12 Regeln zur Evaluierung von OLAP-Systemen formulierte und diese letztendlich auf 18 erweiterte (Codd, Codd et al. 1993). Unter dem Akronym FASMI (Fast Analysis of Shared 9 Multidimensional Information) wurden 1995 durch Pendse und Creeth fünf herstellerunabhängige Evaluierungsregeln aufgestellt, um damit das OLAP-Konzept zu beschreiben; hier wurde das Gewicht verstärkt auf Benutzeranforderungen und weniger auf technische Anforderungen gelegt. OLAP wird den hypothesengestützten Analysemethoden zugeordnet, was bedeutet, dass der Analyst vor der eigentlichen Untersuchung wissen muss, welche Anfragen er an das System stellen möchte. Seine Hypothese wird dann durch das Analyseergebnis bestätigt oder abgelehnt (Wikipedia 2006). Zentral für Data Warehouses und OLAP ist die Sicht, dass Daten mehrdimensional sein können. Das Data Warehouse wird als eine Menge von Fakten in einem multidimensionalen Raum betrachtet, wobei jedes Faktum durch ein aggregiertes Mass sowie eine oder mehrere Dimensionen wie «Zeit», «Ort» oder «Produktekategorie» gekennzeichnet ist. Das folgende Beispiel eines 3D-Cubes zeigt Daten über erfolgte Verkäufe. Als Dimensionen werden hier «Product», «Quarter» und «City» verwendet, als Mass (Measure) die Verkäufe. In einem solchen – hier mit drei Dimensionen versehenen – Datenwürfel oder Data Cube spannen die Dimensionen den Würfel auf, bilden also die Koordinatenachsen. Durch die betrachteten Attribute wird der Würfel in Zellen zerlegt und jeweils mit einem Funktionswert in Abhängigkeit der Dimensionen versehen. (Vossen 2000) Abbildung 6: Bestandteile eines (3D-)Datenwürfels (Vossen 2000) Auf einem solchen Cube können dann die folgenden Operationen ausgeführt werden: o ein Roll-up aggregiert Daten, bildet Summen und reduziert Dimensionen, 10 o ein Drill-down navigiert von Summen zu detaillierteren Daten und entspricht damit der Umkehrung des Roll-ups, o Slice and Dice dient der Selektion von Teilwürfeln, z. B. der Selektion horizontaler Ebenen oder einzelner Zellen, o das Ranking bzw. Sorting bildet Rangfolgen und Ordnungen, o derived oder computed attributes nehmen Ergebnisse von Berechnungen innerhalb einer Dimension oder dimensionsübergreifend auf, o das Nesting erlaubt die Darstellung eines n-dimensionalen Würfels (mit n>2) in genau 2 Dimensionen o und das Pivoting erlaubt ein Rotieren von Spalten und Zeilen. (Elmasri and Navathe 2004) 5.3 Modellierung von Data Warehouses Zur Unterstützung der oben aufgezählten Operationen haben sich spezifische Formen von Datenbankschemas herauskristallisiert. Man unterscheidet in solchen Schemas zwischen einer Faktentabelle und jeweils einer oder mehreren unnormalisierten Dimensionstabellen, die zu einem Star-, Snowflake- oder Fact Constellation Schema angeordnet werden. Beim Star-Schema bildet die Faktentabelle das Zentrum, die Dimensionstabellen die «Strahlen». Jede Dimensionstabelle ist durch zwei Arten von Attributen gekennzeichnet, nämlich durch einen gegebenenfalls künstlichen Schlüssel sowie zugehörende beschreibende Attribute. Abbildung 7: Allgemeine Form eines Starschemas (Vossen 2000) 11 Die einzelnen Dimensionen können als Hierarchie strukturiert sein, um Aggregationen zu ermöglichen. Die Zeitdimension in Abbildung 8 weist zum einen eine Fragmentierung des Jahres in Quartale, Monate und Tage auf, zum andern eine Fragmentierung in Wochen und Tage. Abbildung 8: Beispiel eines Starschemas (Meier 2003) Ein solches Schema unterstützt keine Attributhierarchien, was aber durch eine Normalisierung und einen Übergang von einem Stern- zu einem Snowflakeschema erreicht werden kann: Abbildung 9: Beispiel eines Snowflakeschemas (Vossen 2000) Ein Fact Constellation Schema verwendet mit mehreren Faktentabellen dieselben Dimensionstabellen, so dass mehrere Starschemen praktisch überlagert werden. 12 5.4 Der Fuzzy Logic Approach Heute ist nicht mehr der Mangel an Daten, sondern deren Überfluss ein Problem. Unternehmen und Organisationen suchen daher Werkzeuge für die Datenanalyse, die ihnen Grundlagen für Entscheide liefern können. Mittels Knowledge Discovery in Datenbanken (KDD) werden wertvolle Informationen aus solchen Datenbeständen extrahiert. Primäres Ziel eines solchen Prozesses ist die Reduktion der Datenkomplexität sowie das Erkennen von Mustern. Klassische Ansätze verwenden Cluster- oder Regressionsanalysen, basieren also auf statistischen Verfahren. Diese wiederum erfordern als Grundlage numerische Werte oder solche aus einem definierten Wertebereich. Fehlt eine solche Basis, versagen viele der herkömmlichen Ansätze. (Meier, Werro et al. 2005; Werro, Meier et al. 2005) Anfragesprachen wie SQL setzen voraus, dass die Anfragen in der gleichen Granularität und Genauigkeit formuliert werden, wie die Daten in der Datenbank abgelegt sind. SQL als die am weitest verbreitete Anfragesprache erlaubt keine ungenau oder unscharf formulierten Abfragen, was aber in vielen Fällen erwünscht ist. So ergeben sich in den verschiedensten Anwendungsbereichen Probleme. (Werro, Stormer et al. 2005) Abbildung 10: Beispiel einer unscharfen Abfrage unter Verwendung einer linguistischen Variable (Meier, Mezger et al. 2003) Die an der Universität Fribourg entwickelte unscharfe Klassifizierungssprache fuzzy Classification Query Language (fCQL) basiert auf einer Erweiterung des relationalen Datenbankschemas; hierbei wird ein Kontextmodell für unscharfes Klassifizieren von Tabelleninhalten vorgeschlagen. fCQL ermöglicht mit Hilfe von vordefinierten unscharfen linguistischen Variablen6 den Zugriff auf die darunter liegenden Daten, indem die fCQLAufrufe in SQL übersetzt werden, was wiederum eine Migration des Basissystems in eine unscharfe Datenbank zu vermeiden hilft. (Meier, Mezger et al. 2003; Werro, Stormer et al. 2005) 6 Siehe dazu auch: Koop, E. A. (2004). Datenbankunterstützung für imperfekte Daten im Verkehrsumfeld. Karlsruhe, 2004. 13 Mit Hilfe dieses Kontextmodells werden Klassen im relationalen Datenbankschema gebildet, so dass z. B. «Lieferenten mit schlechtem Service» in eine andere Klasse als «Lieferanten mit sehr gutem Service» zu liegen kommen.7 Damit wird die Komplexität reduziert. Neben klassischen «scharfen» Klassifikationen, wie sie beispielsweise bei Gebrauch von bool’schen Variablen entstehen, können auch solche verwendet werden, die Werte zwischen 0 und 1 akzeptieren, also 0.25 für die Klasse «Lieferenten mit schlechtem Service» und 0.75 für die Klasse «Lieferanten mit sehr gutem Service» - ein so verorteter Lieferant ist also zumindest ein akzeptabler Zulieferer. Im fuzzy-relationalen Kontextmodell ist jedem Attribut Aj, definiert auf einem Wertebereich D(Aj), ein Kontext zugeordnet. Ein Kontext K(Aj) ist dann eine Partition von D(Aj) in Äquivalenzklassen. Ein relationales Datenbankschema mit Kontexten besteht daher aus einer Menge von Attributen A=(A1,...,An) und einer Menge assoziierter Kontexte K=(K1(A1),...,Kn(An)). (Meier, Mezger et al. 2003; Meier, Werro et al. 2005; Werro, Meier et al. 2005) fCQL ist stark an SQL angelehnt; anstelle des Kommandos «Select» wird «classify» verwendet, die from-Klausel ist mit derjenigen in SQL identisch und an Stelle der whereKlausel wird das Konstrukt «with» verwendet, das ein Prädikat für eine Klassifikation spezifiziert. Ein Beispiel für eine Anfrage könnte dann wie folgt aussehen: classify CUSTOMER from CUSTOMERRELATION with turnover is high and paymenttime is positive Wie bereits erwähnt, wird mit diesem System das Datenbankschema erweitert, und zwar im Bereich des Metadatenmodells. Namen und dazugehörende Definitionen der Äquivalenzklassen, die Beschreibung der Klassen und die gesamten Metainformationen, die so genannten «membership functions» betreffend. Abbildung 11 zeigt die Architektur des fCQL-Toolkits, dessen wesentlichstes Merkmal die Zwischenschicht zwischen dem relationalen DBMS und dem Benutzer ist und es ermöglicht, dieses DBMS inhaltlich nicht zu verändern, sondern lediglich zu erweitern. Der Zugriff auf die Datenbank erfolgt entweder wie bis anhin direkt (Fall 1) und unter Einsatz von SQL, über mEdit (Fall 2) oder über den Interpreter von fCQL (Fall 3). Mit mEdit kann der Datenarchitekt Attribute auswählen, Äquivalenzklassen, linguistische Variablen, linguistische Terme und «membership functions» 7 Siehe dazu auch die Arbeiten zum Thema «Imperfekte Daten» und «Erweiterungen des relationalen Modells für unscharfe Klassifikationen»: Merkel, A. (2003). Imperfektion und Datenbanken. Schemaerweiterung zur Abbildung von imperfekten Daten, Schepperle, H., A. Merkel and A. Haag (2004). Erhalt von Imperfektion in einem DataWarehouse. Symposium “Data Warehousing und Data Mining“, Darmstadt. 14 definieren. Der Interpreter erlaubt die Bildung von unscharfen Anfragen, die analysiert und dann nach einer Übersetzung in SQL an die Datenbank geschickt werden. Das Resultat ermöglicht dem Interpreter, die Unschärfe für den Benutzer zu berechnen.8 Abbildung 11: Architektur des fCQL Toolkits 6. Bibliographie Codd, E. F., S. B. Codd and C. T. Salley (1993). Providing OLAP to User-Analysts: An IT Mandate. Codd & Associates. Michigan Elmasri, R. and S. B. Navathe (2004). Fundamentals of Database Systems. Boston Haag, A. (2004). Konzeption und Umsetzung einer Erweiterung des Common Warehouse Metamodel (CWM) zur Beschreibung von imperfekten Daten. Karlsruhe, 2004. Hofmann, M. and M. Mertiens (2000). Customer-Lifetime-Value-Management. Kundenwerte schaffen und erhöhen: Konzepte, Strategien, Praxisbeispiele. Wiesbaden Koop, E. A. (2004). Datenbankunterstützung für imperfekte Daten im Verkehrsumfeld. Karlsruhe, 2004. Meier, A. (2003). A Data Warehouse Approach to Customer Relationship Management. Proceedings of the 2nd International Conference "Management Education for the 21st Century", Hanoi, Vietnam. Meier, A., C. Mezger, N. Werro, et al. (2003). Zur unscharfen Klassifikation von Datenbanken mit fCQL. Proceedings of the GI-Workshop LLWA - Lehren, Lernen, Wissen, Adaptivität. Meier, A., N. Werro and M. Albrecht (2005). Using a Fuzzy Classification Query Language for Customer Relationship Management. Proceedings of the Very Large Database Conference (VLDB05), Trondheim. Merkel, A. (2003). Imperfektion und Datenbanken. Schemaerweiterung zur Abbildung von imperfekten Daten. Nançoz, C. (2004). mEdit. membership function editor for fCQL-based architecture. Fribourg, 2004. OMG (2003). Common Warehouse Metamodel (CWM) Specification. 8 Siehe dazu auch den ausführlichen Artikel von Christian Nançoz: Nançoz, C. (2004). mEdit. membership function editor for fCQL-based architecture. Fribourg, 2004. 15 Schepperle, H., A. Merkel and A. Haag (2004). Erhalt von Imperfektion in einem DataWarehouse. Symposium “Data Warehousing und Data Mining“, Darmstadt. Vossen, G. (2000). Datenmodelle, Datenbanksprachen und Datenbankmanagementsysteme. München Werro, N., A. Meier and C. Mezger (2005). Concept and Implementation of a Fuzzy Classification Query Language. Proceedings of the International Conference on Data Mining (DMIN05). World Congress in Applied Computing, Las Vegas. Werro, N., H. Stormer and A. Meier (2005). Personalized discount - a fuzzy logic approach. Proceedings of the IFIP International Conference on eBusiness, eCommerce and eGovernment, Poznan, Poland. Wikipedia. (11.05.2006). "Common Warehouse Metamodel." Retrieved 23.05.2006 from http://de.wikipedia.org/wiki/CWM. Wikipedia. (19.05.2006). "Online Analytical Processing." Retrieved 22.05.2006 from http://de.wikipedia.org/wiki/OLAP. 16