Business-Intelligence-Architektur

Werbung
LEITFADEN
Abb. © NAN - Fotolia.com
Business-Intelligence-Architektur
Eine Basis zur erfolgreichen Datensammlung und -auswertung
Lorem ipsum dolor sit amet, consetetur sadipscing elitr
Träger
Impressum
Herausgeber
eBusiness-Lotse
Oberschwaben-Ulm
www.eloum.net
c/o Hochschule
Ravensburg-Weingarten
Doggenriedstraße
88250 Weingarten
Telefon: +49 (0) 751 501-0
Verantwortlicher Redakteur
Prof. Dr. Wolfram Höpken
Doggenriedstraße
88250 Weingarten
Telefon: +49 (0) 751 501 4917
[email protected]
Redaktionelle Bearbeitung
Thomas Menner
Autor
Bärbel Häußler
Stand
Januar 2015
2
Partner
Lorem ipsum dolor sit amet, consetetur sadipscing elitr
Inhalt
1 Einleitung.................................................................. 4
2 Architektur eines BI-Systems................................... 5
3 Quellsysteme............................................................ 7
4 Datenintegration - Extraktion, Transformation und
Laden (ETL)............................................................. 7
5 Data Warehouse...................................................... 9
6 Analyse....................................................................10
Reporting.................................................................10
OLAP (Online Analytial Processing).......................11
Performance Management.....................................13
Data Mining.............................................................14
Planung und Simulation..........................................15
7 Zusammenfassung..................................................17
8 Glossar....................................................................18
9 eBusiness-Lotse Oberschwaben-Ulm................... 20
3
3
1.Einleitung
Für Unternehmen ist die Bewältigung der täglichen Informationsflut zur Herausforderung
geworden. Ohne technische Hilfsmittel sind die
immer größer werdenden Datenmengen kaum
noch zu beherrschen. Business-IntelligenceSysteme (BI-Systeme) können dabei helfen,
die Informationsflut in den Griff zu bekommen.
Mit ihnen können Daten sinnvoll zusammengeführt, ausgewertet und zur Entscheidungsunterstützung aufbereitet werden. Damit werden sie
unverzichtbar für die Steuerung des Unternehmens und schaffen so eine Basis für Wettbewerbsvorteile.
Aus technischer Sicht umfassen BI-Systeme
die Komponenten Datenhaltung, Datenintegration, Reporting, Data Mining, tiefgreifende Analysen und Planung.
4
In diesem Leitfaden werden die technischen
Aspekte vertieft und die Architektur von BI-Systemen erläutert. Das Werk ist für erfahrene
Leser gedacht, die sich mit IT-Architekturen im
weitesten Sinne auskennen und sich speziell
mit der Architektur von BI-Systemen befassen
wollen.
Aber auch Interessierte, die mit Business Intelligence allgemein vertraut sind und mehr über
technische Details sowie die Einordnung spezieller Tools in eine BI-Architektur wissen wollen,
erhalten hier einen nützlichen Überblick. Im
Anschluss finden Sie ein Glossar mit zusammenfassenden Informationen zu wichtigen
Fachbegriffen.
Abb: © stockWERK - Fotolia.com
2. Architektur eines BI-Systems
Technisch gesehen verwenden BI-Systeme
bereits vorhandene Technologien und Werkzeuge. BI-Komponenten wie ein Data Warehouse, grafische Tools für das Reporting oder
ETL-Tools werden kombiniert und müssen
deshalb nicht zwangsweise von einem einzigen Software-Hersteller stammen. Um die
unterschiedlichen Komponenten gemäß ihren
BI-Architektur
5
Aufgaben und Funktionalitäten zu ordnen, hilft
eine BI-Architektur. Diese ist in der Regel in vier
Schichten unterteilt, wovon jede Schicht jeweils
eine bestimmte Rolle bei der Aufgabenbewältigung zugesprochen bekommt. Die Schichten
sind dabei allgemeingültig definiert, sodass eine
Realisierung auch mithilfe von Standardtechnologien ermöglicht wird.
Abb: © eBusiness-Lotse Oberschwaben-Ulm
Architektur eines BI-Systems
Business Intelligence beinhaltet viele Methoden und Werkzeuge, um Daten zu sammeln, zu speichern, zu analysieren und zu visualisieren. Diese Aufgaben spiegeln sich auch in der Architektur eines BI-Systems wieder. Das Ziel
von BI ist es, aus geschäftsrelevanten Informationen Erkenntnisse zu gewinnen und diese als Grundlage für den
betrieblichen Entscheidungsprozess zu verwenden, sodass die richtigen operativen und strategischen Entscheidungen getroffen werden können.
Die unterste Schicht, die als Quellsysteme
bezeichnet wird, gehört nicht direkt zum BISystem. Sie enthält vielmehr die operativen und transaktionalen Systeme wie z. B.
ein Enterprise Resource Planning System
(ERP-System), ein Customer Relationship
Management System (CRM-System) oder
andere Datenquellen wie Dateien, gescannte
Dokumente oder historische Daten. Aber auch
externe Datenquellen wie Adressdatenbanken
oder eine Aktienkursdatenbank zählen zu den
Quellsystemen.
Innerhalb der Datenintegration werden die
Daten aus den unterschiedlichen Vorsystemen
extrahiert und evtl. mit weiteren Informationen
angereichert. Anschließend werden sie in eine
einheitliche Form transformiert und in das Data
Warehouse geladen. Während dieses sog. ETLProzesses (Extraktion, Transformation und
Laden) findet eine Homogenisierung der Daten
aus den unterschiedlichen Systemen statt, bei
der besonders auf die Datenqualität geachtet
werden sollte.
Das Data Warehouse ist eine Datensammlung, in der Daten aus den unterschiedlichsten
Quellen integriert und gespeichert werden.
Die Integration der Daten kann durch einen
geeigneten Modellierungsansatz wie z. B. das
multidimensionale Datenmodell (Sternschema)
erreicht werden.
Die oberste Schicht der Analyse beinhaltet
unterschiedliche Tools für die Visualisierung
und Analyse der Daten wie Reporting, Planung
oder Data Mining. Ziel ist es hierbei, mithilfe
dieser Tools entscheidungsrelevante Informationen aus dem Data Warehouse heraus
bereitzustellen. Aufgrund der Komplexität von
BI-Anwendungen und der unterschiedlichen
Nutzertypen gibt es eine Vielzahl von Anwenderwerkzeugen.
Für die häufig verwendeten, parametrisierbaren
Standardberichte können die Daten auf Anforderung oder regelmäßig im Batch aufgerufen
werden. Schnelle und interaktive Zugriffe (adhoc) auf Daten können mit Hilfe des Online
Analytical Processing (OLAP) stattfinden, mit
dem relativ einfach auch durch einen multidimensionalen Datenbestand navigiert werden
kann.
Mit Data Mining hingegen sollen Datenbestände mit Hilfe von statistischen Verfahren
ausgewertet werden, um Muster, Trends,
Regeln und Beziehungen zu erkennen.
Abb: © mybaitshop - Fotolia.com
6
3.Quellsysteme
Bei den Quellsystemen kann zwischen internen
und externen Datenquellen unterschieden
werden.
Zu den internen Datenquellen gehören hauptsächlich operative Vorsysteme wie ERPSysteme, Warenwirtschaftssysteme oder CRMSysteme, die die Durchführung von Geschäftsprozessen unterstützen. Die erzeugten Daten
sind meist transaktions- orientiert und haben
den Detaillierungsgrad, der typischerweise
für die operative Tätigkeit des Unternehmens
notwendig ist. Häufig sind diese Daten nicht
historisiert, was bedeutet, dass der jeweilige
Datensatz (beispielsweise eine laufende Bestellung) immer wieder überschrieben oder auch
gelöscht wird.
Adressdatenbanken sein. Sie können an die
entsprechenden Systeme angebunden werden
und bei Bedarf die gewünschten Informationen
liefern. Aber auch CDs oder DVDs, beispielsweise mit Produkt- oder Kataloginformationen,
können als externe Datenquellen dienen.
Operative Systeme unterstützen die Unternehmen im Tagesgeschäft, indem die vorhandenen
Geschäftsabläufe als Prozesse im System abgebildet
werden. Typische operative Systeme sind ERP-Systeme, mit denen Einkäufe und Verkäufe abgewickelt
werden können oder das Rechnungs-, Finanz- und
Personalwesen unterstützt werden. CRM-Systeme
helfen den Unternehmen, das Kundenmanagement
flexibler und effizienter zu gestalten.
Externe Datenquellen können beispielsweise Online-Datenbanken für Aktienkurse,
Währungen, Geoinformationssysteme oder
4. Datenintegration – Extraktion,
Transformation und Laden (ETL)
Die Aufbereitung und Bereitstellung aller relevanten Daten in einem Data Warehouse ist ein
zentraler Prozess innerhalb eines BI-Systems
und wird als „ETL-Prozess“ bezeichnet.
Ein ETL-Prozess läuft normalerweise in drei
Schritten ab:
1. Die relevanten Daten werden ausgewählt und aus den Quellsystemen
extrahiert.
2. Die extrahierten Daten werden in das
vorher festgelegte Format transformiert.
3. Die transformierten Daten werden in
das Data Warehouse geladen.
7
Für das Extrahieren der Daten werden sog.
Konnektoren benötigt, mit denen die Quellsysteme an das ETL-Tool angebunden und die
Daten ausgelesen werden können. Die Konnektoren werden normalerweise von den ETL-Tools
bereitgestellt und unterstützen die gängigsten
Dateiformate oder Quellsysteme wie relationale
Datenbanken, XML-Formate, CSV-Dateien usw.
Datenintegration
Im nächsten Schritt ist es erforderlich, die ausgelesenen Daten in ein einheitliches Format
zu transformieren. So können unterschiedliche
Schreibweisen (z.B. amerikanische und deutsche Schreibweise eines Datums) desselben
Sachverhaltes vereinheitlicht werden, was
einerseits das Verständnis und andererseits die
einheitliche Verarbeitung der Daten erheblich
vereinfacht.
In der Folge ist auch die semantische Bereinigung von inhaltlichen Aspekten der Daten
deutlich einfacher. Beispielsweise können fehlerhafte oder leere Datensätzen schnell erkannt
und eliminiert werden. Auch die Bereinigung
von Duplikaten, die Umrechnung von Maßeinheiten, das Aggregieren von Werten und die
Anreicherung von Daten, beispielsweise durch
demografische Daten, ist im Nachgang der
Homogenisierung leichter zu handhaben.
des Data Warehouses müssen zunächst sämtliche Daten geladen werden. Je nach Datenmenge kann dies sehr zeitaufwändig werden.
Bei den anschließenden Aktualisierungen
werden meist nur die jeweiligen Änderungen in
das Data Warehouse übernommen.
Der gesamte ETL-Prozess kann periodisch
oder ereignisgesteuert stattfinden. Der periodische Anstoß des Prozesses erfolgt dabei nach
regelmäßigen Intervallen. Damit die Systeme
nicht während des laufenden Betriebs zu sehr
belastet werden, bietet sich hierbei eine Durchführung in Ruhezeiten (nachts oder an Wochenenden) an. Die ereignisgesteuerte Durchführung richtet sich hingegen nach bestimmten
eintretenden Ereignissen. So wird der ETLProzess beispielsweise angestoßen, wenn eine
bestimmte Anzahl an neuen Datensätzen in der
operativen Datenbank erreicht wurde.
Als abschließender Schritt des ETL-Prozesses
werden über das Laden die transformierten,
bereinigten und aggregierten Daten in das Data
Warehouse übertragen. Für das initiale Befüllen
ETL-Prozess
8
Abb: © eBusiness-Lotse Oberschwaben-Ulm
5. Data Warehouse
Ein Data Warehouse ist eine Sammlung von
Daten aus unterschiedlichen Quellen, die in
einer vordefinierten Struktur abgespeichert
werden und so einen einheitlichen Zugriff auf
die vorhandenen Daten erlaubt.
Für ein Data Warehouse wird hierbei in der
Regel eine relationale Datenbank verwendet.
Dazu werden die Daten meist in einem sog.
Sternschema abgespeichert. Bei diesem
Schema können zwei verschiedene Arten von
Tabellen unterschieden werden: zum einen die
Faktentabelle, die der Speicherung von Kennzahlen wie beispielsweise Umsatz oder Kosten
dient, und zum anderen die Dimensionstabellen. Diese enthalten die unternehmerische
Sichtweise auf die Fakten. So kann ein Umsatz
beispielsweise nach Produkt, Region und Zeit
analysiert werden. Dimensionen ermöglichen
somit eine multidimensionale Sichtweise auf die
vorhandenen Fakten.
Im Allgemeinen haben Controller kein Interesse
an Detaildaten, wie sie in einzelnen Geschäftsvorfällen vorkommen. Interessanter sind eher
Fragestellungen wie beispielsweise: „Wie
hat sich der Umsatz eines Produktes im Vergleich zum Vorjahr in Region A entwickelt?“
Auch die Frage nach der Entwicklung in einem
bestimmten Land ist diesbezüglich eine oft
gestellte Frage für international operierende
Unternehmen. Diese Art der Fragestellung setzt
Daten voraus, die entlang unterschiedlicher
Dimensionen verdichtet werden können.
Stern-Schema
9
Abb: © eBusiness-Lotse Oberschwaben-Ulm
Lorem ipsum dolor sit amet, consetetur sadipscing elitr
6Analyse
Reporting
Über Reportinganwendungen lassen sich individualisierte Berichte erzeugen und verbreiten.
So wird einem Nutzer die Möglichkeit gegeben,
bestehende Fragen über eine Analyse jener
Kennzahlen zu beantworten, die auch tatsächlich für die Beantwortung nötig sind.
Eine Möglichkeit stellen hierbei die Standardberichte dar. Sie werden mit den entsprechenden
BI-Reporting-Tools erstellt und den Benutzern regelmäßig (z.B. am Ende jeder Woche)
zur Verfügung gestellt. Diese Berichte können
von den Usern normalerweise nicht verändert
werden und dienen der einheitlichen Sicht auf
die Unternehmenskennzahlen. Die Berichte
können in Papier- oder elektronischer Form zur
Verfügung gestellt werden.
Für zeitkritische Entscheidungen außerhalb
des regelmäßigen Berichtsintervalls lassen
sich auch sog. Ad-Hoc-Berichte erstellen.
Ad-hoc-Berichte sind vom Benutzer interaktiv
zusammengestellte Auswertungen, die normalerweise nur für einen bestimmten Zweck und
aus einer bestimmten Situation heraus erstellt
werden. Der User kann dabei den Inhalt und
das Aussehen des Berichtes bestimmen.
Um schnell auf die Informationen zugreifen
zu können und die entsprechenden Details zu
erforschen bzw. Analysen zu starten, ist ein
Zugriff auf die Datenbasis (beispielsweise ein
Data Warehouse) notwendig. Da für diese Art
der Berichtserstellung sehr gute Kenntnisse
der Daten und auch der Tools benötigt werden,
bleibt diese Art der Berichtserstellung häufig nur
einer kleinen Anzahl von Spezialisten vorbehalten.
10
Für die Darstellung der Berichtsdaten werden
hauptsächlich Tabellen, Listen und Diagramme
verwendet, die normalerweise als Templates
zur Verfügung stehen und mit Daten aus der
Datenbasis befüllt werden. Zusätzliche Elemente wie Firmenlogo oder Anpassung der
Berichte an das Corporate Design sind grundsätzlich möglich. Die Ausgabe bzw. Verteilung
der erstellten Reports kann in unterschiedlichen Formaten wie beispielsweise PDF, HTML
oder Excel erfolgen. Auch die Integration in
ein Unternehmensportal ist bei den meisten
Lösungen möglich.
Abb. 1 auf der nächsten Seite zeigt hierzu
einen beispielhaften Bericht, welcher über
Microsoft Dynamics erstellt wurde. Abgebildet
werden hierbei die wichtigsten Zahlen zu den
vertriebenen Produktgruppen. Die Aktualisierung erfolgt wöchentlich, sodass der verantwortliche Mitarbeiter in Bezug auf die Produkte
nach jeder Woche stets auf dem aktuellsten
Stand ist.
Veröffentlicht wurde der Bericht in Form einer
HTML-Seite. Der Report kann so von den entsprechenden Mitarbeitern unkompliziert über
den Browser abgerufen werden, was die Verteilung und Aktualisierung gegenüber Berichten in
Papierform erheblich vereinfacht.
Lorem ipsum dolor sit amet, consetetur sadipscing elitr
Analyse
Abb. 1: BI-Bericht
Abb.: © Microsoft. Die Verwendung erfolgt in Übereinstimmung mit den Microsoft-Nutzungsvorgaben
OLAP (Online Analytical Processing)
Der Nachteil klassischer Berichte besteht
hauptsächlich darin, dass Diagramme und
Tabellen statisch sind. Der Nutzer kann nach
der Zusammenstellung des Berichts keine
weiteren Interaktionen mehr durchführen, der
Bericht kann quasi nur noch gelesen werden.
Mit Hilfe von OLAP-Anwendungen hingegen
können multidimensionale Datenstrukturen
(beispielsweise eines Data Warehouses) auch
interaktiv ausgewertet werden, sodass sie für
die betriebliche Entscheidungsunterstützung
herangezogen werden können. Dimensionen
und Kennzahlen, die zur Beantwortung einer
aktuellen Fragestellung notwendig sind, können
beliebig selektiert und aggregiert werden. So
11
kann beispielsweise eine Frage nach dem
Umsatz eines Produktes in einer bestimmten
Region in einem bestimmten Zeitraum relativ
einfach und zeitnah beantwortet werden.
Die Funktionsweise von OLAP lässt sich auch
mithilfe eines Würfels (dem sog. OLAP-Cube)
grafisch darstellen. In Abb. 2 (nächste Seite)
soll hierzu das oben genannte Beispiel veranschaulicht werden. Bei der Frage nach dem
Umsatz eines bestimmten Produkts in einer
bestimmten Region zu einer bestimmten Zeit
steht der Umsatz als Unternehmenskennzahl
im Mittelpunkt der Analyse. Als Fakt ist er bei
dieser Analyse deshalb auch im Mittelpunkt des
Würfels anzusiedeln.
11
Lorem ipsum dolor sit amet, consetetur sadipscing elitr
Analyse
Abb. 2: OLAP-Würfel
Fakten stehen stets im Würfelkern. Die drei
abgefragten Dimensionen „Produkt“, „Region“
und „Zeit“ stellen die unternehmerische Sichtweise dar, nach der ein Fakt (hier der Umsatz)
aufgeschlüsselt werden kann. Die Dimensionen
bilden deshalb die Achsen des Würfels. Für
die Abfrage der dahinterliegenden Daten gibt
es einige typische OLAP-Operatoren, die ein
Navigieren, Auswählen und Rotieren der Daten
ermöglichen.
Zum Rotieren der Daten kann eine Technik
verwendet werden, mit denen Kennzahlen
aus unterschiedlichen Blickwinkeln heraus
betrachtet werden können. Beispielsweise
kann von der Darstellung des Umsatzes nach
Regionen auf die Umsatzansicht im zeitlichen
Verlauf oder nach Produkten gewechselt
werden. Diese sog. Rotation beschreibt das
Drehen eines Würfels und somit das Ändern
der Perspektive auf eine Kennzahl.
Beim Navigieren kann interaktiv in eine tiefere
oder höhere Detaillierungsebene der Daten
gewechselt werden. Der sog. Drill-Down ermöglicht es beispielsweise, von der Landesebene
in eine bestimmte Region des Landes zu
navigieren. Umgekehrt ermöglicht es ein sog.
Drill-Up beispielsweise, von einem Monat auf
ein Jahr zu verdichten. In beiden Fällen wird
der Umsatz für die entsprechend ausgewählte
Detaillierungsebene dargestellt.
OLAP wird auch als „BI im engeren Sinn“ verstanden, sodass BI-Systeme in der Regel auch
OLAP-Techniken unterstützen. Somit ist es für
die Anwender eines solchen Systems relativ
einfach, Daten auf unterschiedliche Weise zu
betrachten und zu analysieren. Ziel ist es, neue
oder unbekannte Zusammenhänge zu erforschen und zu erkennen, die letztlich der Entscheidungsunterstützung dienen.
Für das Auswählen von Daten werden nur Teilmengen eines OLAP-Würfels betrachtet. Beim
sog. Slice kann beispielsweise nur der Umsatz
eines bestimmten Zeitraumes mit den Regionen
und den Produkten angezeigt werden. Grafisch
entspricht das einer Scheibe des Würfels. Über
einen sog. Dice wird hingegen ein mehrdimensionaler Würfel erzeugt, der einen Teilbereich
des Gesamtwürfels enthält.
12
Abb.: © eBusiness-Lotse Oberschwaben-Ulm
Für ein flexibleres Berichtswesen ist auch eine
Kombination von Standardberichten und den
Analysemöglichkeiten von OLAP-Lösungen
denkbar. Ausgehend von Standardberichten
können Benutzer so beispielsweise durch die
Drill-Down- oder Drill-Up-Möglichkeit in detailliertere oder verdichtete Daten navigieren.
Damit bietet diese Art des Berichtswesens auch
den weniger technisch versierten Usern die
Möglichkeit, in gewissem Rahmen eigene Analysen durchzuführen.
Lorem ipsum dolor sit amet, consetetur sadipscing elitr
Analyse
Performance Management
Performance Management geht über das normale Reporting hinaus. Ziel ist es, komplexe
Zusammenhänge und Sachverhalte zu vereinfachen und diese verständlich und übersichtlich auf einen Blick darzustellen. Für diese
Darstellung werden deshalb normalerweise
keine klassischen Reports gewählt, sondern
sog. „Dashboards“ oder „Cockpits“. Mit diesen
können Daten in verdichteter Form präsentiert
und visualisiert werden. Häufig werden grafische Elemente wie ein Tachometer, ein Zeitreihenschieber oder eine Ampel zur Visualisierung
der Daten und Datenverläufe verwendet.
Voraussetzung für ein solches Performance
Management ist die Definition von Schlüsselkennzahlen. Diese werden als sogenannte
Key Performance Indicators (KPIs) bezeichnet
und dienen der Abbildung und Messung von
Erfolgen bzw. Misserfolgen. KPIs werden in
Relation zu definierten Zielwerten gesetzt
und zeigen somit den Erfüllungsgrad bzw. die
Abweichung zu einer bestimmten Zielsetzung
an. So kann beispielsweise im Vertrieb als Ziel
Abb. 3 BI-Dashboard
13
eine Umsatzsteigerung von 20% angestrebt
werden. Zur Messung der Zielerreichung wird
anschließend der aktuelle Umsatz in Relation
zum Umsatz der Vorperiode gesetzt. Der Grad
der Zielerreichung kann dem Top-Management
dann als Teil eines Dashboards, beispielsweise
als Messuhr, angezeigt werden.
Abb. 3 veranschaulicht hierbei einen typischen
Aufbau eines solchen Dashboards. So lässt
sich anhand dieses Dashboards beispielsweise
sofort erkennen, wie viel Umsatz in den jeweiligen Vertriebsländern gemacht wurde (Sales)
und wie diesbezüglich der bisherige Verlauf
war. Auch lässt sich sofort erkennen, ob sich
die aktuelle Gewinnmarge in den verschiedenen Ländern im optimalen Bereich (grün), im
mittelmäßigen Bereich (gelb) oder im kritischen
Bereich (rot) befindet. Anhand dieser verdichteten Übersicht über die KPIs des Unternehmens kann das Management somit zeitnah
auf etwaige bedrohliche Situationen reagieren
und einen potenziellen Schaden für das Unternehmen dadurch bestenfalls noch abwenden.
Abb. © Qlik, 2014
13
Lorem ipsum dolor sit amet, consetetur sadipscing elitr
Analyse
Data Mining
Das Ziel von Data Mining besteht darin, aus
bestehenden Daten interessante und unternehmensrelevante Informationen bzw. neues
Wissen zu gewinnen. Dazu werden auf einen
Datenbestand (z.B. auf ein Data Warehouse)
statistische Methoden oder Verfahren des
maschinellen Lernens angewandt und auf
Muster, Zusammenhänge und Gesetzmäßigkeiten hin untersucht. Einige wichtige Aufgaben
des Data Minings sind die Gruppierung von
Objekten (Clustering), die Klassifikation von
Objekten sowie die Assoziationsanalyse.
Bei einer Clusteranalyse sollen Objekte
mit ähnlichen Eigenschaften identifiziert und
zu homogenen Gruppen zusammengefasst
werden. Dabei soll keine Fokussierung auf
bestimmte Merkmale stattfinden, sondern alle
Aspekte neutral betrachtet werden. Die Elemente einer Gruppe sollen sich hierbei so ähnlich wie möglich sein, die Elemente unterschiedlicher Gruppe hingegen möglichst unähnlich.
Abbildung 4 zeigt hierzu ein klassisches Anwendungsbeispiel, wie es häufig im Marketing zum
Einsatz kommt – die Kundensegmentierung.
Damit die Geldmittel eines Unternehmens
nicht in zweckloses Marketing und ein unpas-
Abb. 4 Clusteranalyse
14
sendes Produktdesign investiert werden, ist es
zwingend notwendig, die eigenen Kunden zu
kennen. Diesbezüglich bietet die Clusteranalyse die Möglichkeit, Kunden beispielsweise
nach demografischen (Alter, Geschlecht,
etc.), soziografischen (Einkommen, Beruf,
Wohnverhältnisse, etc.) oder auch regionalen
(Wohnort, Wohngegend, etc.) Gesichtspunkten
zusammenzufassen. Anhand der daraus resultierenden Segmente lässt sich dann unter
anderem das eigene Produktspektrum an die
Bedürfnisse der jeweiligen Kundensegmente
anpassen. Auch eine kundenspezifischere
Ansprache im Marketing lässt sich über das
erlangte Wissen über die eigenen Kundengruppen deutlich gezielter gestalten.
Beim Verfahren der Klassifizierung hingegen
werden die zu untersuchenden Objekte vorgegebenen Gruppen oder Klassen zugeordnet.
Ziel ist es dabei, ein Objekt mit seinen Attributen der korrekten Klasse zuzuordnen. Wie
beim Clustering können auch hier Kunden
beispielsweise als kreditwürdig oder nicht kreditwürdig erkannt werden. Der Unterschied
besteht darin, dass die Klassifizierung jedes
Objekt einzeln betrachtet und Klassen zuordnet,
welche bereits im Vorhinein definiert wurden.
Abb.: © eBusiness-Lotse Oberschwaben-Ulm
Lorem ipsum dolor sit amet, consetetur sadipscing elitr
Analyse
Beim Clustering werden hingegen viele Objekte
anhand der Ähnlichkeit ihrer Eigenschaften
zusammengefasst. Die Benennung und Interpretation der Cluster muss dann im Nachgang
durch den Anwender stattfinden.
Als abschließendes Verfahren sollen mithilfe
die Assoziationsanalyse Zusammenhänge
und Abhängigkeiten erkannt werden, woraus
in der Folge Regeln abgeleitet werden können.
Als Beispiel kann hier die Warenkorbanalyse
(Produkt A wird oft zusammen mit Produkt B
gekauft) genannt werden, wie sie bereits bei
vielen einschlägigen Online-Shops eingesetzt
wird.
Auch bei der Erfolgsanalyse einer Webseite
findet eine Assoziationsanalyse in der Regel
Anwendung. So kann mithilfe dieser Technik
beispielsweise die Frage beantwortet werden,
welche Unterseiten der eigenen Webseite
häufig zusammen in einer Sitzung aufgerufen
werden. Auf Basis der resultierenden Erkenntnisse kann im Nachgang die Webseite genauer
an das Surfverhalten der Webseiten-Besucher
angepasst werden. Die erhöhte Benutzerfreundlichkeit kann dann schließlich zu einer
längerfristigen Bindung des Benutzers führen.
Abb. © tashatuvango - Fotolia.com
Zweck solcher Data-Mining-Verfahren ist somit
wiederum die Entscheidungsunterstützung,
wobei sich die verschiedenen Techniken aufgabenspezifisch anwenden lassen. Je nach
Aufgabenstellung kann ein bestimmtes Verfahren sinnvoller sein und bessere Ergebnisse
liefern als ein anderes. Oftmals kann auch eine
Kombination zweier Verfahren Sinn machen.
So können beispielsweise über eine Clusteranalyse im ersten Schritt unterschiedliche
Kundengruppen generiert werden, wohingegen
im zweiten Schritt mithilfe einer Klassifikation
Neukunden schließlich einem dieser Cluster
zugeordnet werden.
Bei der konkreten Anwendung solcher DataMining-Verfahren bietet sich der Einsatz von
spezieller Data-Mining-Software an. Über diese
kann der Nutzer sowohl die zu analysierenden
Daten, als auch das entsprechende Analyseverfahren wählen. Auch die Darstellung der Ergebnisse in interpretierbarer Form wird letztlich von
solcher Software übernommen.
15
15
Analyse
Planung und Simulation
Planungswerkzeuge innerhalb eines BISystems ermöglichen eine integrierte Planung.
Das bedeutet, dass die Planung, das Reporting und die abschließende Analyse auf eine
einheitliche Datenbasis angewendet werden
können. Planung bedeutet an dieser Stelle,
dass auf der Basis vorhandener historischer
Daten auf Handlungen geschlossen wird, die
in der Zukunft ausgeführt werden müssen.
So kann beispielsweise von den Materialverbrauchszahlen der vergangenen Perioden auf
den Materialverbrauch der kommenden Periode
geschlossen werden, sodass die zu bestellende
Materialmenge dieser Periode bereits im Vorfeld fixiert (geplant) werden kann.
Gleichermaßen kann von vergangenen
Absatzzahlen auf die Absatzzahlen zukünftiger Perioden geschlossen werden, sodass in
jeder laufenden Periode mit geplanten Werten
(Soll-Werten) gerechnet werden kann. Abb. 5
veranschaulicht diesen Sachverhalt anhand
der Software „BOARD“. Solche Planungen
stellen hohe Ansprüche an die Software. So
ist beispielsweise ein Schreibzugriff auf die
Daten notwendig, während die Ist-Daten nicht
verändert werden dürfen. Da der Planungsprozess dynamisch ist und viele unterschiedliche
Bereiche betrifft, sollte das Planungswerkzeug
Abb. 5 BI-Planungsbericht
16
flexibel, individuell anpassbar und erweiterbar
sein. Aus diesem Grund eignet sich die BIArchitektur bestens für Planungsdaten und
-werkzeuge. Planungsdaten können über ETLTransaktionen in das Data Warehouse geladen
oder entsprechend den Datenhierarchien
direkt im Data Warehouse eingegeben werden.
Die Reporting- und Analysefunktionen bieten
außerdem die Möglichkeit, Daten zu konsolidieren und auszuwerten.
Simulationswerkzeuge ermöglichen im Vergleich zu Planungswerkzeugen noch detailliertere Prognosen. Mit ihnen können – ebenfalls
auf der Basis vorhandener Daten – Szenarien
simuliert werden, die mögliche Verläufe verschiedener Planungsszenarien präsentieren.
Dies ermöglicht dem Nutzer die Durchführung
sog. „Was-wäre-wenn-Analysen“. So kann beispielsweise schnell erkannt werden, wie sich
Veränderungen des Währungskurses auf das
aktuelle Geschäft auswirken können, indem
die zu erwartende Änderung des Kurses vom
Nutzer eingegeben wird und das jeweilige Tool
anschließend die Berechnungen auf Basis
dieser Eingabe durchführt. Gleichermaßen
lassen sich so verschiedene positive oder
negative Geschäftsverläufe simulieren wie etwa
nach der Einführung eines neuen Produkts.
Abb: © BOARD Deutschland GmbH
7. Fazit
BI-Architekturen umfassen sehr viele Bestandteile mit unterschiedlichen Hard- und SoftwareKomponenten. Für ein BI-Projekt müssen
somit anhand fachlicher Anforderungen und
technischer Rahmenbedingungen die benötigten Bausteine individuell identifiziert und
zusammengestellt werden. Wissen über grundlegende Komponenten und Schichten einer
BI-Architektur ist damit notwendig und wichtig.
Vor allem bei der Bewertung von Architekturlösungen, bei der Auswahl von BI-Werkzeugen
oder bei der Abbildung von Anwenderanforderungen auf die entsprechenden Technologien
ist ein ausgeprägtes Wissen über die Bausteine
einer Business Intelligence von großem Vorteil.
Gerade für die Auswahl von BI-Werkzeugen
bietet der eBusiness-Lotse Oberschwaben-Ulm
in Form einer Marktübersicht über verschiedene
Tools eine Möglichkeit, das eigene Wissen diesbezüglich zu erweitern.
Allerdings muss auch berücksichtigt werden,
dass BI kein reines IT-Thema ist. Ein technisch
funktionierendes System alleine generiert
noch keinen Mehrwert. Für ein zielorientiertes
BI-System müssen neben technischen auch
fachliche und organisatorische Aspekte berücksichtigt werden. Erst durch die Nutzung des BISystems und der gewonnenen Entscheidungsgrundlagen kann ein Mehrwert geschaffen
werden. Somit ist im Vorfeld des BI-Einsatzes
neben der Erweiterung der technischen Wissensbasis auch die Beantwortung der Frage
notwendig, wie ein solches BI-System nutzbringend in die eigene Unternehmenslandschaft
integriert werden kann.
Abb. © Yeko Photo Studio - Fotolia.com
17
17
Glossar
7 Glossar
Data Mining
Eine Technik, bei der statistische Methoden
und Algorithmen auf einen Datenbestand (Data
Warehouse) angewandt werden, um Muster
und Zusammenhänge zu erkennen. So können
beispielsweise Abhängigkeiten beim Kauf von
Produkten ermittelt werden, Klassifizierungen
von Kunden mittels einer Bonitätsprüfung
vorgenommen werden oder im Rahmen einer
Abweichungsanalyse Auffälligkeiten bei der
Produktion erkannt werden.
plexe Zusammenhänge und Sachverhalte zu
vereinfachen und diese möglichst verständlich
und übersichtlich auf einen Blick darzustellen.
Für die Visualisierung dieser KPIs werden Grafikelemente wie Tachographen, Thermometer
oder Zeitreihenschieber verwendet und in
einem Dashboards oder Cockpit zusammengefasst.
Data Warehouse
Planungsanwendungen unterstützen den Planungsprozess (Erfassung und Freigabe der
Planungsdaten, Statusverfolgung) im Unternehmen. Durch die Integration der Planung
in ein BI-System können Planung, Reporting
und Analyse verbunden werden und die Analysefunktionalität auch für Plan/Ist-Vergleiche
genutzt werden. Außerdem kann die umfangreiche einheitliche Datenbasis als Grundlage
für Simulationen (Was-wäre-wenn-Analysen)
dienen. So kann beispielsweise schnell erkannt
werden, wie sich Veränderungen des Währungskurses auf das aktuelle Geschäft auswirken können.
Ein Data Warehouse ist eine Datenbank, in
der Daten aus unterschiedlichen Systemen in
einem definierten, einheitlichen Format gespeichert werden. Dies ermöglicht einen einheitlichen Zugriff auf Daten, die für Analysen benutzt
werden können.
ETL (Extraktion, Transformation und Laden)
Unter ETL versteht man einen Prozess, bei
dem relevante Daten aus einem oder mehreren
Systemen in das entsprechende Format und
die Struktur einer Zieldatenbank (meist ein Data
Warehouse) transformiert und geladen werden.
Typische Transformationen können die Datumsformatierung oder die Umrechnung von Maßeinheiten sein. Aber auch die Anreicherung von
Daten wie beispielsweise Schufa-Auskunftsdaten fallen in diesen Bereich.
OLAP (Online Analytical Processing)
Eine Technik, mit der flexible Analysen auf
Datenbestände (typischerweise in einem Data
Warehouse) durchgeführt werden können. Es
bietet die Möglichkeit, Unternehmensdaten aus
unterschiedlichen Sichtweisen darzustellen.
Beispielsweise können Umsatzzahlen ohne
großen Aufwand nach Datum, Kunde, Region,
Vertriebsmitarbeiter oder Produkt dargestellt
werden.
Performance Management (Scorecards)
Kennzahlen, die Erfolge oder Misserfolge
abbilden, werden als Key Perfomance Indicators (KPIs) bezeichnet und müssen vom Unternehmen festgelegt werden. Ziel ist es, kom-
18
Planung und Simulation
Reporting und Analyse
Das Standard-Reporting stellt den Anwendern
automatisch die Berichte oder Reports in Form
von Tabellen, Listen oder Grafiken zur Verfügung. Darüber hinaus sollten Anwender aber
auch die Möglichkeit haben, aktuelle Fragestellungen durch eigene Analysen ad-hoc selbst
beantworten zu können.
Sternschema
Das Sternschema beschreibt eine besondere
Form eines multidimensionalen Datenmodells.
Während das Ziel einer relationalen Datenbank die Normalisierung ist, liegt das Ziel einer
multidimensionalen Datenbank darin, die beinhaltenden Fakten in einfacher Art und Weise
aus mehreren Dimensionen darzustellen. Wird
die Datenbank dann nach dem Sternschema
modelliert, so befindet sich – bildlich gesehen
– die Faktentabelle in der Mitte, während die
Dimensionstabellen in Sternform um die Faktentabelle herum modelliert werden.
Lorem ipsum dolor sit amet, consetetur sadipscing elitr
Notizen
_________________________________________________________________________________
_________________________________________________________________________________
_________________________________________________________________________________
_________________________________________________________________________________
_________________________________________________________________________________
_________________________________________________________________________________
_________________________________________________________________________________
_________________________________________________________________________________
_________________________________________________________________________________
_________________________________________________________________________________
19
Lorem ipsum dolor sit amet, consetetur sadipscing elitr
Abb. © Yuri Arcurs - Fotolia.com
eBusiness-Lotse Oberschwaben-Ulm
Der eBusiness-Lotse Oberschwaben-Ulm ist
Teil der Förderinitiative „eKompetenz-Netzwerk
für Unternehmen“, die im Rahmen des Förderschwerpunkts „Mittelstand-Digital – IKT-Anwendungen in der Wirtschaft“ vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert wird.
Der Förderschwerpunkt unterstützt gezielt
kleine und mittlere Unternehmen (KMU) sowie
das Handwerk bei der Entwicklung und Nutzung moderner Informations- und Kommunikationstechnologien (IKT).
„Mittelstand-Digital“ setzt sich zusammen aus
den Förderinitiativen
►►
„eKompetenz-Netzwerk für Unternehmen“
mit 38 eBusiness-Lotsen,
►►
„eStandards: Geschäftsprozesse standardisieren, Erfolg sichern“ mit derzeit 16
Förderprojekten, und
►►
„Einfach intuitiv – Usability für den Mittelstand“ mit zurzeit 14 Förderprojekten.
Für mehr Informationen besuchen Sie bitte
www.mittelstand-digital.de.
Weitere interessante Praxisbeispiele und Leitfäden finden Sie auf den Seiten des eBusinessLotsen Oberschwaben-Ulm unter
www.eloum.net im Menü „Publikationen“.
Herunterladen