LEITFADEN Abb. © NAN - Fotolia.com Business-Intelligence-Architektur Eine Basis zur erfolgreichen Datensammlung und -auswertung Lorem ipsum dolor sit amet, consetetur sadipscing elitr Träger Impressum Herausgeber eBusiness-Lotse Oberschwaben-Ulm www.eloum.net c/o Hochschule Ravensburg-Weingarten Doggenriedstraße 88250 Weingarten Telefon: +49 (0) 751 501-0 Verantwortlicher Redakteur Prof. Dr. Wolfram Höpken Doggenriedstraße 88250 Weingarten Telefon: +49 (0) 751 501 4917 [email protected] Redaktionelle Bearbeitung Thomas Menner Autor Bärbel Häußler Stand Januar 2015 2 Partner Lorem ipsum dolor sit amet, consetetur sadipscing elitr Inhalt 1 Einleitung.................................................................. 4 2 Architektur eines BI-Systems................................... 5 3 Quellsysteme............................................................ 7 4 Datenintegration - Extraktion, Transformation und Laden (ETL)............................................................. 7 5 Data Warehouse...................................................... 9 6 Analyse....................................................................10 Reporting.................................................................10 OLAP (Online Analytial Processing).......................11 Performance Management.....................................13 Data Mining.............................................................14 Planung und Simulation..........................................15 7 Zusammenfassung..................................................17 8 Glossar....................................................................18 9 eBusiness-Lotse Oberschwaben-Ulm................... 20 3 3 1.Einleitung Für Unternehmen ist die Bewältigung der täglichen Informationsflut zur Herausforderung geworden. Ohne technische Hilfsmittel sind die immer größer werdenden Datenmengen kaum noch zu beherrschen. Business-IntelligenceSysteme (BI-Systeme) können dabei helfen, die Informationsflut in den Griff zu bekommen. Mit ihnen können Daten sinnvoll zusammengeführt, ausgewertet und zur Entscheidungsunterstützung aufbereitet werden. Damit werden sie unverzichtbar für die Steuerung des Unternehmens und schaffen so eine Basis für Wettbewerbsvorteile. Aus technischer Sicht umfassen BI-Systeme die Komponenten Datenhaltung, Datenintegration, Reporting, Data Mining, tiefgreifende Analysen und Planung. 4 In diesem Leitfaden werden die technischen Aspekte vertieft und die Architektur von BI-Systemen erläutert. Das Werk ist für erfahrene Leser gedacht, die sich mit IT-Architekturen im weitesten Sinne auskennen und sich speziell mit der Architektur von BI-Systemen befassen wollen. Aber auch Interessierte, die mit Business Intelligence allgemein vertraut sind und mehr über technische Details sowie die Einordnung spezieller Tools in eine BI-Architektur wissen wollen, erhalten hier einen nützlichen Überblick. Im Anschluss finden Sie ein Glossar mit zusammenfassenden Informationen zu wichtigen Fachbegriffen. Abb: © stockWERK - Fotolia.com 2. Architektur eines BI-Systems Technisch gesehen verwenden BI-Systeme bereits vorhandene Technologien und Werkzeuge. BI-Komponenten wie ein Data Warehouse, grafische Tools für das Reporting oder ETL-Tools werden kombiniert und müssen deshalb nicht zwangsweise von einem einzigen Software-Hersteller stammen. Um die unterschiedlichen Komponenten gemäß ihren BI-Architektur 5 Aufgaben und Funktionalitäten zu ordnen, hilft eine BI-Architektur. Diese ist in der Regel in vier Schichten unterteilt, wovon jede Schicht jeweils eine bestimmte Rolle bei der Aufgabenbewältigung zugesprochen bekommt. Die Schichten sind dabei allgemeingültig definiert, sodass eine Realisierung auch mithilfe von Standardtechnologien ermöglicht wird. Abb: © eBusiness-Lotse Oberschwaben-Ulm Architektur eines BI-Systems Business Intelligence beinhaltet viele Methoden und Werkzeuge, um Daten zu sammeln, zu speichern, zu analysieren und zu visualisieren. Diese Aufgaben spiegeln sich auch in der Architektur eines BI-Systems wieder. Das Ziel von BI ist es, aus geschäftsrelevanten Informationen Erkenntnisse zu gewinnen und diese als Grundlage für den betrieblichen Entscheidungsprozess zu verwenden, sodass die richtigen operativen und strategischen Entscheidungen getroffen werden können. Die unterste Schicht, die als Quellsysteme bezeichnet wird, gehört nicht direkt zum BISystem. Sie enthält vielmehr die operativen und transaktionalen Systeme wie z. B. ein Enterprise Resource Planning System (ERP-System), ein Customer Relationship Management System (CRM-System) oder andere Datenquellen wie Dateien, gescannte Dokumente oder historische Daten. Aber auch externe Datenquellen wie Adressdatenbanken oder eine Aktienkursdatenbank zählen zu den Quellsystemen. Innerhalb der Datenintegration werden die Daten aus den unterschiedlichen Vorsystemen extrahiert und evtl. mit weiteren Informationen angereichert. Anschließend werden sie in eine einheitliche Form transformiert und in das Data Warehouse geladen. Während dieses sog. ETLProzesses (Extraktion, Transformation und Laden) findet eine Homogenisierung der Daten aus den unterschiedlichen Systemen statt, bei der besonders auf die Datenqualität geachtet werden sollte. Das Data Warehouse ist eine Datensammlung, in der Daten aus den unterschiedlichsten Quellen integriert und gespeichert werden. Die Integration der Daten kann durch einen geeigneten Modellierungsansatz wie z. B. das multidimensionale Datenmodell (Sternschema) erreicht werden. Die oberste Schicht der Analyse beinhaltet unterschiedliche Tools für die Visualisierung und Analyse der Daten wie Reporting, Planung oder Data Mining. Ziel ist es hierbei, mithilfe dieser Tools entscheidungsrelevante Informationen aus dem Data Warehouse heraus bereitzustellen. Aufgrund der Komplexität von BI-Anwendungen und der unterschiedlichen Nutzertypen gibt es eine Vielzahl von Anwenderwerkzeugen. Für die häufig verwendeten, parametrisierbaren Standardberichte können die Daten auf Anforderung oder regelmäßig im Batch aufgerufen werden. Schnelle und interaktive Zugriffe (adhoc) auf Daten können mit Hilfe des Online Analytical Processing (OLAP) stattfinden, mit dem relativ einfach auch durch einen multidimensionalen Datenbestand navigiert werden kann. Mit Data Mining hingegen sollen Datenbestände mit Hilfe von statistischen Verfahren ausgewertet werden, um Muster, Trends, Regeln und Beziehungen zu erkennen. Abb: © mybaitshop - Fotolia.com 6 3.Quellsysteme Bei den Quellsystemen kann zwischen internen und externen Datenquellen unterschieden werden. Zu den internen Datenquellen gehören hauptsächlich operative Vorsysteme wie ERPSysteme, Warenwirtschaftssysteme oder CRMSysteme, die die Durchführung von Geschäftsprozessen unterstützen. Die erzeugten Daten sind meist transaktions- orientiert und haben den Detaillierungsgrad, der typischerweise für die operative Tätigkeit des Unternehmens notwendig ist. Häufig sind diese Daten nicht historisiert, was bedeutet, dass der jeweilige Datensatz (beispielsweise eine laufende Bestellung) immer wieder überschrieben oder auch gelöscht wird. Adressdatenbanken sein. Sie können an die entsprechenden Systeme angebunden werden und bei Bedarf die gewünschten Informationen liefern. Aber auch CDs oder DVDs, beispielsweise mit Produkt- oder Kataloginformationen, können als externe Datenquellen dienen. Operative Systeme unterstützen die Unternehmen im Tagesgeschäft, indem die vorhandenen Geschäftsabläufe als Prozesse im System abgebildet werden. Typische operative Systeme sind ERP-Systeme, mit denen Einkäufe und Verkäufe abgewickelt werden können oder das Rechnungs-, Finanz- und Personalwesen unterstützt werden. CRM-Systeme helfen den Unternehmen, das Kundenmanagement flexibler und effizienter zu gestalten. Externe Datenquellen können beispielsweise Online-Datenbanken für Aktienkurse, Währungen, Geoinformationssysteme oder 4. Datenintegration – Extraktion, Transformation und Laden (ETL) Die Aufbereitung und Bereitstellung aller relevanten Daten in einem Data Warehouse ist ein zentraler Prozess innerhalb eines BI-Systems und wird als „ETL-Prozess“ bezeichnet. Ein ETL-Prozess läuft normalerweise in drei Schritten ab: 1. Die relevanten Daten werden ausgewählt und aus den Quellsystemen extrahiert. 2. Die extrahierten Daten werden in das vorher festgelegte Format transformiert. 3. Die transformierten Daten werden in das Data Warehouse geladen. 7 Für das Extrahieren der Daten werden sog. Konnektoren benötigt, mit denen die Quellsysteme an das ETL-Tool angebunden und die Daten ausgelesen werden können. Die Konnektoren werden normalerweise von den ETL-Tools bereitgestellt und unterstützen die gängigsten Dateiformate oder Quellsysteme wie relationale Datenbanken, XML-Formate, CSV-Dateien usw. Datenintegration Im nächsten Schritt ist es erforderlich, die ausgelesenen Daten in ein einheitliches Format zu transformieren. So können unterschiedliche Schreibweisen (z.B. amerikanische und deutsche Schreibweise eines Datums) desselben Sachverhaltes vereinheitlicht werden, was einerseits das Verständnis und andererseits die einheitliche Verarbeitung der Daten erheblich vereinfacht. In der Folge ist auch die semantische Bereinigung von inhaltlichen Aspekten der Daten deutlich einfacher. Beispielsweise können fehlerhafte oder leere Datensätzen schnell erkannt und eliminiert werden. Auch die Bereinigung von Duplikaten, die Umrechnung von Maßeinheiten, das Aggregieren von Werten und die Anreicherung von Daten, beispielsweise durch demografische Daten, ist im Nachgang der Homogenisierung leichter zu handhaben. des Data Warehouses müssen zunächst sämtliche Daten geladen werden. Je nach Datenmenge kann dies sehr zeitaufwändig werden. Bei den anschließenden Aktualisierungen werden meist nur die jeweiligen Änderungen in das Data Warehouse übernommen. Der gesamte ETL-Prozess kann periodisch oder ereignisgesteuert stattfinden. Der periodische Anstoß des Prozesses erfolgt dabei nach regelmäßigen Intervallen. Damit die Systeme nicht während des laufenden Betriebs zu sehr belastet werden, bietet sich hierbei eine Durchführung in Ruhezeiten (nachts oder an Wochenenden) an. Die ereignisgesteuerte Durchführung richtet sich hingegen nach bestimmten eintretenden Ereignissen. So wird der ETLProzess beispielsweise angestoßen, wenn eine bestimmte Anzahl an neuen Datensätzen in der operativen Datenbank erreicht wurde. Als abschließender Schritt des ETL-Prozesses werden über das Laden die transformierten, bereinigten und aggregierten Daten in das Data Warehouse übertragen. Für das initiale Befüllen ETL-Prozess 8 Abb: © eBusiness-Lotse Oberschwaben-Ulm 5. Data Warehouse Ein Data Warehouse ist eine Sammlung von Daten aus unterschiedlichen Quellen, die in einer vordefinierten Struktur abgespeichert werden und so einen einheitlichen Zugriff auf die vorhandenen Daten erlaubt. Für ein Data Warehouse wird hierbei in der Regel eine relationale Datenbank verwendet. Dazu werden die Daten meist in einem sog. Sternschema abgespeichert. Bei diesem Schema können zwei verschiedene Arten von Tabellen unterschieden werden: zum einen die Faktentabelle, die der Speicherung von Kennzahlen wie beispielsweise Umsatz oder Kosten dient, und zum anderen die Dimensionstabellen. Diese enthalten die unternehmerische Sichtweise auf die Fakten. So kann ein Umsatz beispielsweise nach Produkt, Region und Zeit analysiert werden. Dimensionen ermöglichen somit eine multidimensionale Sichtweise auf die vorhandenen Fakten. Im Allgemeinen haben Controller kein Interesse an Detaildaten, wie sie in einzelnen Geschäftsvorfällen vorkommen. Interessanter sind eher Fragestellungen wie beispielsweise: „Wie hat sich der Umsatz eines Produktes im Vergleich zum Vorjahr in Region A entwickelt?“ Auch die Frage nach der Entwicklung in einem bestimmten Land ist diesbezüglich eine oft gestellte Frage für international operierende Unternehmen. Diese Art der Fragestellung setzt Daten voraus, die entlang unterschiedlicher Dimensionen verdichtet werden können. Stern-Schema 9 Abb: © eBusiness-Lotse Oberschwaben-Ulm Lorem ipsum dolor sit amet, consetetur sadipscing elitr 6Analyse Reporting Über Reportinganwendungen lassen sich individualisierte Berichte erzeugen und verbreiten. So wird einem Nutzer die Möglichkeit gegeben, bestehende Fragen über eine Analyse jener Kennzahlen zu beantworten, die auch tatsächlich für die Beantwortung nötig sind. Eine Möglichkeit stellen hierbei die Standardberichte dar. Sie werden mit den entsprechenden BI-Reporting-Tools erstellt und den Benutzern regelmäßig (z.B. am Ende jeder Woche) zur Verfügung gestellt. Diese Berichte können von den Usern normalerweise nicht verändert werden und dienen der einheitlichen Sicht auf die Unternehmenskennzahlen. Die Berichte können in Papier- oder elektronischer Form zur Verfügung gestellt werden. Für zeitkritische Entscheidungen außerhalb des regelmäßigen Berichtsintervalls lassen sich auch sog. Ad-Hoc-Berichte erstellen. Ad-hoc-Berichte sind vom Benutzer interaktiv zusammengestellte Auswertungen, die normalerweise nur für einen bestimmten Zweck und aus einer bestimmten Situation heraus erstellt werden. Der User kann dabei den Inhalt und das Aussehen des Berichtes bestimmen. Um schnell auf die Informationen zugreifen zu können und die entsprechenden Details zu erforschen bzw. Analysen zu starten, ist ein Zugriff auf die Datenbasis (beispielsweise ein Data Warehouse) notwendig. Da für diese Art der Berichtserstellung sehr gute Kenntnisse der Daten und auch der Tools benötigt werden, bleibt diese Art der Berichtserstellung häufig nur einer kleinen Anzahl von Spezialisten vorbehalten. 10 Für die Darstellung der Berichtsdaten werden hauptsächlich Tabellen, Listen und Diagramme verwendet, die normalerweise als Templates zur Verfügung stehen und mit Daten aus der Datenbasis befüllt werden. Zusätzliche Elemente wie Firmenlogo oder Anpassung der Berichte an das Corporate Design sind grundsätzlich möglich. Die Ausgabe bzw. Verteilung der erstellten Reports kann in unterschiedlichen Formaten wie beispielsweise PDF, HTML oder Excel erfolgen. Auch die Integration in ein Unternehmensportal ist bei den meisten Lösungen möglich. Abb. 1 auf der nächsten Seite zeigt hierzu einen beispielhaften Bericht, welcher über Microsoft Dynamics erstellt wurde. Abgebildet werden hierbei die wichtigsten Zahlen zu den vertriebenen Produktgruppen. Die Aktualisierung erfolgt wöchentlich, sodass der verantwortliche Mitarbeiter in Bezug auf die Produkte nach jeder Woche stets auf dem aktuellsten Stand ist. Veröffentlicht wurde der Bericht in Form einer HTML-Seite. Der Report kann so von den entsprechenden Mitarbeitern unkompliziert über den Browser abgerufen werden, was die Verteilung und Aktualisierung gegenüber Berichten in Papierform erheblich vereinfacht. Lorem ipsum dolor sit amet, consetetur sadipscing elitr Analyse Abb. 1: BI-Bericht Abb.: © Microsoft. Die Verwendung erfolgt in Übereinstimmung mit den Microsoft-Nutzungsvorgaben OLAP (Online Analytical Processing) Der Nachteil klassischer Berichte besteht hauptsächlich darin, dass Diagramme und Tabellen statisch sind. Der Nutzer kann nach der Zusammenstellung des Berichts keine weiteren Interaktionen mehr durchführen, der Bericht kann quasi nur noch gelesen werden. Mit Hilfe von OLAP-Anwendungen hingegen können multidimensionale Datenstrukturen (beispielsweise eines Data Warehouses) auch interaktiv ausgewertet werden, sodass sie für die betriebliche Entscheidungsunterstützung herangezogen werden können. Dimensionen und Kennzahlen, die zur Beantwortung einer aktuellen Fragestellung notwendig sind, können beliebig selektiert und aggregiert werden. So 11 kann beispielsweise eine Frage nach dem Umsatz eines Produktes in einer bestimmten Region in einem bestimmten Zeitraum relativ einfach und zeitnah beantwortet werden. Die Funktionsweise von OLAP lässt sich auch mithilfe eines Würfels (dem sog. OLAP-Cube) grafisch darstellen. In Abb. 2 (nächste Seite) soll hierzu das oben genannte Beispiel veranschaulicht werden. Bei der Frage nach dem Umsatz eines bestimmten Produkts in einer bestimmten Region zu einer bestimmten Zeit steht der Umsatz als Unternehmenskennzahl im Mittelpunkt der Analyse. Als Fakt ist er bei dieser Analyse deshalb auch im Mittelpunkt des Würfels anzusiedeln. 11 Lorem ipsum dolor sit amet, consetetur sadipscing elitr Analyse Abb. 2: OLAP-Würfel Fakten stehen stets im Würfelkern. Die drei abgefragten Dimensionen „Produkt“, „Region“ und „Zeit“ stellen die unternehmerische Sichtweise dar, nach der ein Fakt (hier der Umsatz) aufgeschlüsselt werden kann. Die Dimensionen bilden deshalb die Achsen des Würfels. Für die Abfrage der dahinterliegenden Daten gibt es einige typische OLAP-Operatoren, die ein Navigieren, Auswählen und Rotieren der Daten ermöglichen. Zum Rotieren der Daten kann eine Technik verwendet werden, mit denen Kennzahlen aus unterschiedlichen Blickwinkeln heraus betrachtet werden können. Beispielsweise kann von der Darstellung des Umsatzes nach Regionen auf die Umsatzansicht im zeitlichen Verlauf oder nach Produkten gewechselt werden. Diese sog. Rotation beschreibt das Drehen eines Würfels und somit das Ändern der Perspektive auf eine Kennzahl. Beim Navigieren kann interaktiv in eine tiefere oder höhere Detaillierungsebene der Daten gewechselt werden. Der sog. Drill-Down ermöglicht es beispielsweise, von der Landesebene in eine bestimmte Region des Landes zu navigieren. Umgekehrt ermöglicht es ein sog. Drill-Up beispielsweise, von einem Monat auf ein Jahr zu verdichten. In beiden Fällen wird der Umsatz für die entsprechend ausgewählte Detaillierungsebene dargestellt. OLAP wird auch als „BI im engeren Sinn“ verstanden, sodass BI-Systeme in der Regel auch OLAP-Techniken unterstützen. Somit ist es für die Anwender eines solchen Systems relativ einfach, Daten auf unterschiedliche Weise zu betrachten und zu analysieren. Ziel ist es, neue oder unbekannte Zusammenhänge zu erforschen und zu erkennen, die letztlich der Entscheidungsunterstützung dienen. Für das Auswählen von Daten werden nur Teilmengen eines OLAP-Würfels betrachtet. Beim sog. Slice kann beispielsweise nur der Umsatz eines bestimmten Zeitraumes mit den Regionen und den Produkten angezeigt werden. Grafisch entspricht das einer Scheibe des Würfels. Über einen sog. Dice wird hingegen ein mehrdimensionaler Würfel erzeugt, der einen Teilbereich des Gesamtwürfels enthält. 12 Abb.: © eBusiness-Lotse Oberschwaben-Ulm Für ein flexibleres Berichtswesen ist auch eine Kombination von Standardberichten und den Analysemöglichkeiten von OLAP-Lösungen denkbar. Ausgehend von Standardberichten können Benutzer so beispielsweise durch die Drill-Down- oder Drill-Up-Möglichkeit in detailliertere oder verdichtete Daten navigieren. Damit bietet diese Art des Berichtswesens auch den weniger technisch versierten Usern die Möglichkeit, in gewissem Rahmen eigene Analysen durchzuführen. Lorem ipsum dolor sit amet, consetetur sadipscing elitr Analyse Performance Management Performance Management geht über das normale Reporting hinaus. Ziel ist es, komplexe Zusammenhänge und Sachverhalte zu vereinfachen und diese verständlich und übersichtlich auf einen Blick darzustellen. Für diese Darstellung werden deshalb normalerweise keine klassischen Reports gewählt, sondern sog. „Dashboards“ oder „Cockpits“. Mit diesen können Daten in verdichteter Form präsentiert und visualisiert werden. Häufig werden grafische Elemente wie ein Tachometer, ein Zeitreihenschieber oder eine Ampel zur Visualisierung der Daten und Datenverläufe verwendet. Voraussetzung für ein solches Performance Management ist die Definition von Schlüsselkennzahlen. Diese werden als sogenannte Key Performance Indicators (KPIs) bezeichnet und dienen der Abbildung und Messung von Erfolgen bzw. Misserfolgen. KPIs werden in Relation zu definierten Zielwerten gesetzt und zeigen somit den Erfüllungsgrad bzw. die Abweichung zu einer bestimmten Zielsetzung an. So kann beispielsweise im Vertrieb als Ziel Abb. 3 BI-Dashboard 13 eine Umsatzsteigerung von 20% angestrebt werden. Zur Messung der Zielerreichung wird anschließend der aktuelle Umsatz in Relation zum Umsatz der Vorperiode gesetzt. Der Grad der Zielerreichung kann dem Top-Management dann als Teil eines Dashboards, beispielsweise als Messuhr, angezeigt werden. Abb. 3 veranschaulicht hierbei einen typischen Aufbau eines solchen Dashboards. So lässt sich anhand dieses Dashboards beispielsweise sofort erkennen, wie viel Umsatz in den jeweiligen Vertriebsländern gemacht wurde (Sales) und wie diesbezüglich der bisherige Verlauf war. Auch lässt sich sofort erkennen, ob sich die aktuelle Gewinnmarge in den verschiedenen Ländern im optimalen Bereich (grün), im mittelmäßigen Bereich (gelb) oder im kritischen Bereich (rot) befindet. Anhand dieser verdichteten Übersicht über die KPIs des Unternehmens kann das Management somit zeitnah auf etwaige bedrohliche Situationen reagieren und einen potenziellen Schaden für das Unternehmen dadurch bestenfalls noch abwenden. Abb. © Qlik, 2014 13 Lorem ipsum dolor sit amet, consetetur sadipscing elitr Analyse Data Mining Das Ziel von Data Mining besteht darin, aus bestehenden Daten interessante und unternehmensrelevante Informationen bzw. neues Wissen zu gewinnen. Dazu werden auf einen Datenbestand (z.B. auf ein Data Warehouse) statistische Methoden oder Verfahren des maschinellen Lernens angewandt und auf Muster, Zusammenhänge und Gesetzmäßigkeiten hin untersucht. Einige wichtige Aufgaben des Data Minings sind die Gruppierung von Objekten (Clustering), die Klassifikation von Objekten sowie die Assoziationsanalyse. Bei einer Clusteranalyse sollen Objekte mit ähnlichen Eigenschaften identifiziert und zu homogenen Gruppen zusammengefasst werden. Dabei soll keine Fokussierung auf bestimmte Merkmale stattfinden, sondern alle Aspekte neutral betrachtet werden. Die Elemente einer Gruppe sollen sich hierbei so ähnlich wie möglich sein, die Elemente unterschiedlicher Gruppe hingegen möglichst unähnlich. Abbildung 4 zeigt hierzu ein klassisches Anwendungsbeispiel, wie es häufig im Marketing zum Einsatz kommt – die Kundensegmentierung. Damit die Geldmittel eines Unternehmens nicht in zweckloses Marketing und ein unpas- Abb. 4 Clusteranalyse 14 sendes Produktdesign investiert werden, ist es zwingend notwendig, die eigenen Kunden zu kennen. Diesbezüglich bietet die Clusteranalyse die Möglichkeit, Kunden beispielsweise nach demografischen (Alter, Geschlecht, etc.), soziografischen (Einkommen, Beruf, Wohnverhältnisse, etc.) oder auch regionalen (Wohnort, Wohngegend, etc.) Gesichtspunkten zusammenzufassen. Anhand der daraus resultierenden Segmente lässt sich dann unter anderem das eigene Produktspektrum an die Bedürfnisse der jeweiligen Kundensegmente anpassen. Auch eine kundenspezifischere Ansprache im Marketing lässt sich über das erlangte Wissen über die eigenen Kundengruppen deutlich gezielter gestalten. Beim Verfahren der Klassifizierung hingegen werden die zu untersuchenden Objekte vorgegebenen Gruppen oder Klassen zugeordnet. Ziel ist es dabei, ein Objekt mit seinen Attributen der korrekten Klasse zuzuordnen. Wie beim Clustering können auch hier Kunden beispielsweise als kreditwürdig oder nicht kreditwürdig erkannt werden. Der Unterschied besteht darin, dass die Klassifizierung jedes Objekt einzeln betrachtet und Klassen zuordnet, welche bereits im Vorhinein definiert wurden. Abb.: © eBusiness-Lotse Oberschwaben-Ulm Lorem ipsum dolor sit amet, consetetur sadipscing elitr Analyse Beim Clustering werden hingegen viele Objekte anhand der Ähnlichkeit ihrer Eigenschaften zusammengefasst. Die Benennung und Interpretation der Cluster muss dann im Nachgang durch den Anwender stattfinden. Als abschließendes Verfahren sollen mithilfe die Assoziationsanalyse Zusammenhänge und Abhängigkeiten erkannt werden, woraus in der Folge Regeln abgeleitet werden können. Als Beispiel kann hier die Warenkorbanalyse (Produkt A wird oft zusammen mit Produkt B gekauft) genannt werden, wie sie bereits bei vielen einschlägigen Online-Shops eingesetzt wird. Auch bei der Erfolgsanalyse einer Webseite findet eine Assoziationsanalyse in der Regel Anwendung. So kann mithilfe dieser Technik beispielsweise die Frage beantwortet werden, welche Unterseiten der eigenen Webseite häufig zusammen in einer Sitzung aufgerufen werden. Auf Basis der resultierenden Erkenntnisse kann im Nachgang die Webseite genauer an das Surfverhalten der Webseiten-Besucher angepasst werden. Die erhöhte Benutzerfreundlichkeit kann dann schließlich zu einer längerfristigen Bindung des Benutzers führen. Abb. © tashatuvango - Fotolia.com Zweck solcher Data-Mining-Verfahren ist somit wiederum die Entscheidungsunterstützung, wobei sich die verschiedenen Techniken aufgabenspezifisch anwenden lassen. Je nach Aufgabenstellung kann ein bestimmtes Verfahren sinnvoller sein und bessere Ergebnisse liefern als ein anderes. Oftmals kann auch eine Kombination zweier Verfahren Sinn machen. So können beispielsweise über eine Clusteranalyse im ersten Schritt unterschiedliche Kundengruppen generiert werden, wohingegen im zweiten Schritt mithilfe einer Klassifikation Neukunden schließlich einem dieser Cluster zugeordnet werden. Bei der konkreten Anwendung solcher DataMining-Verfahren bietet sich der Einsatz von spezieller Data-Mining-Software an. Über diese kann der Nutzer sowohl die zu analysierenden Daten, als auch das entsprechende Analyseverfahren wählen. Auch die Darstellung der Ergebnisse in interpretierbarer Form wird letztlich von solcher Software übernommen. 15 15 Analyse Planung und Simulation Planungswerkzeuge innerhalb eines BISystems ermöglichen eine integrierte Planung. Das bedeutet, dass die Planung, das Reporting und die abschließende Analyse auf eine einheitliche Datenbasis angewendet werden können. Planung bedeutet an dieser Stelle, dass auf der Basis vorhandener historischer Daten auf Handlungen geschlossen wird, die in der Zukunft ausgeführt werden müssen. So kann beispielsweise von den Materialverbrauchszahlen der vergangenen Perioden auf den Materialverbrauch der kommenden Periode geschlossen werden, sodass die zu bestellende Materialmenge dieser Periode bereits im Vorfeld fixiert (geplant) werden kann. Gleichermaßen kann von vergangenen Absatzzahlen auf die Absatzzahlen zukünftiger Perioden geschlossen werden, sodass in jeder laufenden Periode mit geplanten Werten (Soll-Werten) gerechnet werden kann. Abb. 5 veranschaulicht diesen Sachverhalt anhand der Software „BOARD“. Solche Planungen stellen hohe Ansprüche an die Software. So ist beispielsweise ein Schreibzugriff auf die Daten notwendig, während die Ist-Daten nicht verändert werden dürfen. Da der Planungsprozess dynamisch ist und viele unterschiedliche Bereiche betrifft, sollte das Planungswerkzeug Abb. 5 BI-Planungsbericht 16 flexibel, individuell anpassbar und erweiterbar sein. Aus diesem Grund eignet sich die BIArchitektur bestens für Planungsdaten und -werkzeuge. Planungsdaten können über ETLTransaktionen in das Data Warehouse geladen oder entsprechend den Datenhierarchien direkt im Data Warehouse eingegeben werden. Die Reporting- und Analysefunktionen bieten außerdem die Möglichkeit, Daten zu konsolidieren und auszuwerten. Simulationswerkzeuge ermöglichen im Vergleich zu Planungswerkzeugen noch detailliertere Prognosen. Mit ihnen können – ebenfalls auf der Basis vorhandener Daten – Szenarien simuliert werden, die mögliche Verläufe verschiedener Planungsszenarien präsentieren. Dies ermöglicht dem Nutzer die Durchführung sog. „Was-wäre-wenn-Analysen“. So kann beispielsweise schnell erkannt werden, wie sich Veränderungen des Währungskurses auf das aktuelle Geschäft auswirken können, indem die zu erwartende Änderung des Kurses vom Nutzer eingegeben wird und das jeweilige Tool anschließend die Berechnungen auf Basis dieser Eingabe durchführt. Gleichermaßen lassen sich so verschiedene positive oder negative Geschäftsverläufe simulieren wie etwa nach der Einführung eines neuen Produkts. Abb: © BOARD Deutschland GmbH 7. Fazit BI-Architekturen umfassen sehr viele Bestandteile mit unterschiedlichen Hard- und SoftwareKomponenten. Für ein BI-Projekt müssen somit anhand fachlicher Anforderungen und technischer Rahmenbedingungen die benötigten Bausteine individuell identifiziert und zusammengestellt werden. Wissen über grundlegende Komponenten und Schichten einer BI-Architektur ist damit notwendig und wichtig. Vor allem bei der Bewertung von Architekturlösungen, bei der Auswahl von BI-Werkzeugen oder bei der Abbildung von Anwenderanforderungen auf die entsprechenden Technologien ist ein ausgeprägtes Wissen über die Bausteine einer Business Intelligence von großem Vorteil. Gerade für die Auswahl von BI-Werkzeugen bietet der eBusiness-Lotse Oberschwaben-Ulm in Form einer Marktübersicht über verschiedene Tools eine Möglichkeit, das eigene Wissen diesbezüglich zu erweitern. Allerdings muss auch berücksichtigt werden, dass BI kein reines IT-Thema ist. Ein technisch funktionierendes System alleine generiert noch keinen Mehrwert. Für ein zielorientiertes BI-System müssen neben technischen auch fachliche und organisatorische Aspekte berücksichtigt werden. Erst durch die Nutzung des BISystems und der gewonnenen Entscheidungsgrundlagen kann ein Mehrwert geschaffen werden. Somit ist im Vorfeld des BI-Einsatzes neben der Erweiterung der technischen Wissensbasis auch die Beantwortung der Frage notwendig, wie ein solches BI-System nutzbringend in die eigene Unternehmenslandschaft integriert werden kann. Abb. © Yeko Photo Studio - Fotolia.com 17 17 Glossar 7 Glossar Data Mining Eine Technik, bei der statistische Methoden und Algorithmen auf einen Datenbestand (Data Warehouse) angewandt werden, um Muster und Zusammenhänge zu erkennen. So können beispielsweise Abhängigkeiten beim Kauf von Produkten ermittelt werden, Klassifizierungen von Kunden mittels einer Bonitätsprüfung vorgenommen werden oder im Rahmen einer Abweichungsanalyse Auffälligkeiten bei der Produktion erkannt werden. plexe Zusammenhänge und Sachverhalte zu vereinfachen und diese möglichst verständlich und übersichtlich auf einen Blick darzustellen. Für die Visualisierung dieser KPIs werden Grafikelemente wie Tachographen, Thermometer oder Zeitreihenschieber verwendet und in einem Dashboards oder Cockpit zusammengefasst. Data Warehouse Planungsanwendungen unterstützen den Planungsprozess (Erfassung und Freigabe der Planungsdaten, Statusverfolgung) im Unternehmen. Durch die Integration der Planung in ein BI-System können Planung, Reporting und Analyse verbunden werden und die Analysefunktionalität auch für Plan/Ist-Vergleiche genutzt werden. Außerdem kann die umfangreiche einheitliche Datenbasis als Grundlage für Simulationen (Was-wäre-wenn-Analysen) dienen. So kann beispielsweise schnell erkannt werden, wie sich Veränderungen des Währungskurses auf das aktuelle Geschäft auswirken können. Ein Data Warehouse ist eine Datenbank, in der Daten aus unterschiedlichen Systemen in einem definierten, einheitlichen Format gespeichert werden. Dies ermöglicht einen einheitlichen Zugriff auf Daten, die für Analysen benutzt werden können. ETL (Extraktion, Transformation und Laden) Unter ETL versteht man einen Prozess, bei dem relevante Daten aus einem oder mehreren Systemen in das entsprechende Format und die Struktur einer Zieldatenbank (meist ein Data Warehouse) transformiert und geladen werden. Typische Transformationen können die Datumsformatierung oder die Umrechnung von Maßeinheiten sein. Aber auch die Anreicherung von Daten wie beispielsweise Schufa-Auskunftsdaten fallen in diesen Bereich. OLAP (Online Analytical Processing) Eine Technik, mit der flexible Analysen auf Datenbestände (typischerweise in einem Data Warehouse) durchgeführt werden können. Es bietet die Möglichkeit, Unternehmensdaten aus unterschiedlichen Sichtweisen darzustellen. Beispielsweise können Umsatzzahlen ohne großen Aufwand nach Datum, Kunde, Region, Vertriebsmitarbeiter oder Produkt dargestellt werden. Performance Management (Scorecards) Kennzahlen, die Erfolge oder Misserfolge abbilden, werden als Key Perfomance Indicators (KPIs) bezeichnet und müssen vom Unternehmen festgelegt werden. Ziel ist es, kom- 18 Planung und Simulation Reporting und Analyse Das Standard-Reporting stellt den Anwendern automatisch die Berichte oder Reports in Form von Tabellen, Listen oder Grafiken zur Verfügung. Darüber hinaus sollten Anwender aber auch die Möglichkeit haben, aktuelle Fragestellungen durch eigene Analysen ad-hoc selbst beantworten zu können. Sternschema Das Sternschema beschreibt eine besondere Form eines multidimensionalen Datenmodells. Während das Ziel einer relationalen Datenbank die Normalisierung ist, liegt das Ziel einer multidimensionalen Datenbank darin, die beinhaltenden Fakten in einfacher Art und Weise aus mehreren Dimensionen darzustellen. Wird die Datenbank dann nach dem Sternschema modelliert, so befindet sich – bildlich gesehen – die Faktentabelle in der Mitte, während die Dimensionstabellen in Sternform um die Faktentabelle herum modelliert werden. Lorem ipsum dolor sit amet, consetetur sadipscing elitr Notizen _________________________________________________________________________________ _________________________________________________________________________________ _________________________________________________________________________________ _________________________________________________________________________________ _________________________________________________________________________________ _________________________________________________________________________________ _________________________________________________________________________________ _________________________________________________________________________________ _________________________________________________________________________________ _________________________________________________________________________________ 19 Lorem ipsum dolor sit amet, consetetur sadipscing elitr Abb. © Yuri Arcurs - Fotolia.com eBusiness-Lotse Oberschwaben-Ulm Der eBusiness-Lotse Oberschwaben-Ulm ist Teil der Förderinitiative „eKompetenz-Netzwerk für Unternehmen“, die im Rahmen des Förderschwerpunkts „Mittelstand-Digital – IKT-Anwendungen in der Wirtschaft“ vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert wird. Der Förderschwerpunkt unterstützt gezielt kleine und mittlere Unternehmen (KMU) sowie das Handwerk bei der Entwicklung und Nutzung moderner Informations- und Kommunikationstechnologien (IKT). „Mittelstand-Digital“ setzt sich zusammen aus den Förderinitiativen ►► „eKompetenz-Netzwerk für Unternehmen“ mit 38 eBusiness-Lotsen, ►► „eStandards: Geschäftsprozesse standardisieren, Erfolg sichern“ mit derzeit 16 Förderprojekten, und ►► „Einfach intuitiv – Usability für den Mittelstand“ mit zurzeit 14 Förderprojekten. Für mehr Informationen besuchen Sie bitte www.mittelstand-digital.de. Weitere interessante Praxisbeispiele und Leitfäden finden Sie auf den Seiten des eBusinessLotsen Oberschwaben-Ulm unter www.eloum.net im Menü „Publikationen“.