Business-Intelligence-Werkzeuge

Werbung
MARKTÜBERSICHT
Abb. © Dreaming Andy - Fotolia.com
Business-Intelligence-Werkzeuge
Marktübersicht Open-Source-Werkzeuge aus
dem Bereich Business Intelligence
Träger
Impressum
Herausgeber
eBusiness-Lotse
Oberschwaben-Ulm
www.eloum.net
c/o Hochschule
Ravensburg-Weingarten
Doggenriedstraße
88250 Weingarten
Telefon: +49 (0) 751 501-0
Verantwortlicher Redakteur
Prof. Dr. Wolfram Höpken
Lazarettstr. 1
88250 Weingarten
Telefon: +49 (0) 751 4917
[email protected]
Autor
Dimitri Keil
Stand
Januar 2015
2
Partner
Inhalt
1. Einleitung................................................................... 4
2. Vorauswahl................................................................ 6
3. Überblick................................................................... 7
4. Berichtswesen........................................................... 9
4.1 BIRT................................................................11
4.2 SQL Power Wabit...........................................12
5. ETL...........................................................................14
5.1 Pentaho Data Integration (Pentaho DI)...........15
5.2 Talend Open Studio........................................16
5.3 Jaspersoft ETL...............................................16
6. OLAP........................................................................17
6.1 Mondrian.........................................................18
6.2 Jedox..............................................................19
7. Data Mining.............................................................. 20
7.1 KNIME.............................................................21
7.2 RapidMiner..................................................... 22
7.3 Weka.............................................................. 23
8. Integrierte BI-Lösungen......................................... 24
8.1 Jaspersoft...................................................... 24
8.2 Pentaho......................................................... 25
8.3 SpagoBI......................................................... 26
9. Fazit......................................................................... 27
eBusiness-Lotse Oberschwaben-Ulm........................ 28
3
1. Einleitung
Abb. © NAN - Fotolia.com
Business Intelligence (BI) ist heute ein vielfach
verwendeter Begriff in der Wirtschaft. Er fasst
die Analyse geschäftsrelevanter Daten zur Verbesserung operativer und strategischer Entscheidungen zusammen. Es geht also um das
Sammeln, Auswerten und Darstellen von entscheidungsrelevanten Daten.
Dieses Dokument soll kleinen und mittelständischen Unternehmen (KMU) dabei helfen, sich
einen Überblick über die für sie geeigneten
Werkzeuge im Bereich Business Intelligence zu
verschaffen. Schritt für Schritt werden die Werkzeuge in den folgenden Kapiteln in derselben
Reihenfolge vorgestellt, wie sie auch in einem
konkreten BI-Projekt eingesetzt werden. Abgeschlossen wird die Marktübersicht mit einer kurzen Vorstellung von Anbietern von integrierten
BI-Lösungen, welche das gesamte BI-Spektrum
abdecken.
Die einzelnen Kapitel hängen hierbei nicht
zwangsläufig voneinander ab, sondern können
auch separat gelesen werden. Sind also Vor-
4
kenntnisse vorhanden bzw. besteht beispielsweise der Wunsch, lediglich Unterstützung bei
der konkreten Auswahl einer Software-Lösung
in einer der Teildisziplinen zu erhalten, so ist
es ohne weiteres möglich, direkt in dem entsprechenden Kapitel einzusteigen. Für einen
leichteren Einstieg in das Thema BI sowie die
einzelnen Teildisziplinen wird Lesern ohne Vorkenntnisse jedoch die Orientierung entlang der
Kapitelstruktur empfohlen.
BI beginnt schon bei der Datenintegration, also
dem Zusammenführen der Daten aus allen
möglichen Quellen. Zunächst besteht die größte
Herausforderung darin, überhaupt Datenquellen
im Unternehmen zu identifizieren, deren Auswertung einen ganz konkreten Nutzen generiert. Das automatische und unternehmensweit
einheitliche Erfassen geschäftsrelevanter Daten
mittels komplexer IT-Systeme ist für kleine und
mittelständische Unternehmen nicht bezahlbar.
Einleitung
Häufig werden diese Informationen stattdessen
von mehreren Mitarbeitern separat unter Verwendung unterschiedlicher Software erfasst.
In der Folge unterscheiden sich die abgelegten Informationen in Form und Inhalt. Durch
die manuelle Erfassung sind die Informationen außerdem oft unvollständig und fehlerhaft.
Die Bereinigung und Zusammenführung solcher Datenbestände ist sehr aufwändig und
verursacht hohe Kosten. Es ist daher zwingend
erforderlich, sich im Einzelfall für jedes Unternehmen genau zu überlegen, welche Daten für
die Geschäftstätigkeit wichtig sind und in welcher Form diese in Zukunft erfasst und gespeichert werden sollen.
Hierfür sollten aber zunächst die Geschäftsprozesse sowie die unterstützenden Informationsund Kommunikationssysteme analysiert und bei
Bedarf entsprechend angepasst werden. Neben
Informationen zu internen Geschäftsprozessen wie der Produktion oder dem Vertrieb können hier auch externe Informationen wie Veränderungen von Rohstoffpreisen an der Börse
relevant sein. Neben der reinen Verfügbarkeit
der Daten ist aber auch deren Qualität eine entscheidende Voraussetzung für die erfolgreiche
Durchführung eines BI-Projekts und auch diese
muss gegebenenfalls durch Anpassungen in
den IT-Systemen sichergestellt werden.
Stehen nun die Daten in hinreichend guter Qualität zur Verfügung, können diese je nach eingesetzter BI-Software direkt für die Analyse verwendet werden. Dazu müssen diese zunächst
aus den IT-Systemen extrahiert, in ein einheitliches Format gebracht und in einen zentralen
Datenbestand, ein Data Warehouse, geladen
werden. Sogenannte ETL-Werkzeuge unterstützen den Nutzer dabei, genau diese Herausforderungen erfolgreich zu meistern.
Erst nach einer solchen Integration der Quelldaten in einen zentralen Datenbestand können Berichts- sowie kennzahlengetriebene
Planungs-, Kontroll- und Entscheidungsunterstützungssysteme auf den Daten aufsetzen und
für den entscheidenden Wissensvorsprung sorgen. Neben Übersichten der wichtigsten Kennzahlen ermöglichen BI-Werkzeuge über das
sogenannte OLAP dann auch die flexible Analyse der verfügbaren Quelldaten. So lassen sich
5
beispielsweise Umsätze gruppiert nach unterschiedlichen Merkmalen (z.B. Produktgruppen
oder Regionen) sowie über einen festgelegten
Zeitraum übersichtlich und schnell anzeigen.
Darüber hinaus bietet das sogenannte Data
Mining tiefergehende Analysemöglichkeiten auf
Basis der vorhandenen Daten. So lassen sich
beispielsweise Cross-Selling-Potenziale identifizieren oder auch Kundensegmente auf Basis
der Verkaufsvorgänge erstellen. Diese Art der
Datenauswertung ermöglicht kürzere Reaktionszeiten auf Änderungen am Markt und stellt
somit einen deutlichen Wettbewerbsvorteil dar.
Ein Data Warehouse ist eine Sammlung von Daten
aus unterschiedlichen Quellen, die in einer vordefinierten Struktur abgespeichert werden und so einen
einheitlichen Zugriff auf die vorhandenen Daten
erlaubt.
Unter ETL (Extraction, Transformation und Load)
versteht man einen Prozess, bei dem Daten aus
einem oder mehreren Quellsystemen in das entsprechende Format und die Struktur einer Zieldatenbank
(meist ein Data Warehouse) transformiert und geladen werden. Beispiele können die Datumsformatierung oder Umrechnung von Maßeinheiten sein. Auch
die Anreicherung von Daten wie etwa Schufa-Auskunftsdaten fallen in diesen Bereich.
Unter OLAP (On-Line Analytical Processing) versteht man das flexible Betrachten einer oder mehrerer Kennzahlen gruppiert nach beliebig vielen Merkmalen. Mehr Informationen zum Thema erhalten Sie
in Kapitel 5 dieser Marktübersicht.
Unter Data Mining versteht man die tiefergehende
Analyse von Daten hinsichtlich der Erkennung von
Mustern oder Trends. Mittels Methoden des Data
Mining lassen sich Wechselwirkungen und Beziehungen innerhalb der Daten ermitteln. So kann beispielsweise erklärt werden, warum Kunden einen
Vertrag kündigen oder mit einem Produkt unzufrieden sind oder welche Produkte von Kunden häufig
gemeinsam gekauft werden (Warenkorbanalyse).
2.Vorauswahl
Mittlerweile wird eine Vielzahl von Werkzeugen im Bereich BI eingesetzt. Im folgenden
Abschnitt wird deshalb eine Auswahl von Werkzeugen vorgestellt, die sich für KMU bzw. einen
ersten Einsatz besonders eignen. Ein geringer
Einarbeitungsaufwand und Komplexitätsgrad
stehen hierbei bei der Auswahl im Vordergrund.
Software im Bereich BI steht sowohl als kommerzielle als auch als Open Source-Variante zur Verfügung. Dabei gibt es Anbieter, die
von einzelnen Schwerpunktthemen bis hin zu
umfangreichen Komplettlösungen alle Bereiche abdecken. In einigen Branchen ist aber
auch der Einsatz unternehmensweiter oder gar
unternehmensübergreifender Software weit
verbreitet. Ein Beispiel für ein solches Produkt stellen die Enterprise-Ressource-Planning-Systeme (ERP) dar. Diese meist modular
aufgebauten Lösungen bieten heute zusätzliche Funktionalitäten im Bereich BI an bzw. verfügen zumindest über Schnittstellen zur Integration verschiedenster Zusatzmodule desselben
Herstellers, aber auch von Drittanbietern. Diese
Lösungen sowie kommerzielle BI-Werkzeuge
allgemein haben allerdings eine Gemeinsamkeit: die Lizenzkosten für den Betrieb sowie die
regelmäßig anfallenden Zusatzkosten in Form
von Release-Wechseln, Wartung und Support bewegen sich oft in Regionen, die für KMU
nicht bezahlbar sind.
6
über kommerzieller Software schnell zunichte.
Bei der Auswahl eines Open-Source-Werkzeugs sollte man sich deshalb immer vorab
informieren, inwieweit eine vollständige Dokumentation zur aktuell verfügbaren Version der
Software vorliegt.
Auch für den Bereich BI existiert eine Vielzahl
an Open Source Software, sowohl für einzelne
Themenbereiche wie beispielsweise die Datenintegration, das Data Warehousing oder Data
Mining als auch integrierte Gesamtlösungen.
Die Basisvarianten decken überwiegend alle
Grundfunktionalitäten im jeweiligen Themengebiet ab und sind meist um Spezialmodule für
besondere Aufgabenstellungen erweiterbar.
Zusammenfassend lässt sich festhalten, dass
etablierte kommerzielle Software im Bereich BI
zwar durchaus seine Vorzüge hat (mehr Funktionen, verlässlichere Verfügbarkeit), allerdings
durch die hohen Kosten nur für wenige KMU
infrage kommt. Open-Source-Lösungen hingegen bieten für KMU den idealen Einstieg in
das BI-Umfeld, da Basisfunktionalitäten kostenlos zur Verfügung stehen und somit die Einstiegshürden minimal ausfallen. Die vorliegende
Marktübersicht beschränkt sich daher auf gängige Open-Source-Software im Bereich BI und
wird kommerzielle Software nicht berücksichtigen.
Kommerzielle Software versus Open Source
Open-Source-Software im Bereich BI
Etablierte kommerzielle Software zeichnet sich
in der Regel durch eine hohe Beständigkeit und
Zuverlässigkeit aus, ist aber oftmals mit hohen
Kosten verbunden. Open-Source-Produkte hingegen stehen typischerweise kostenlos zur Verfügung, können jedoch jederzeit aufgekauft und
kommerzialisiert oder durch die Einstellung der
Weiterentwicklung auch komplett vom Markt
verschwinden. Unzureichende oder auch veraltete Dokumentation führt darüber hinaus beim
Einsatz von Open-Source-Software oftmals zu
Problemen und kann im Einzelfall sogar die
geplante Realisierung der eigenen Anwendung
unmöglich machen. Der in der Regel angebotene Premium-Support als „letzte Rettung“
des eigenen Projekts ist meist relativ teuer und
macht die beabsichtige Kostenersparnis gegen-
►►
Im vollen Funktionsumfang ohne zeitliche
Beschränkung kostenlos nutzbar
►►
Alle Schwerpunktthemen im Bereich BI
abgedeckt
►►
Oftmals Erweiterungen für spezielle Aufgabenstellungen vorhanden
►►
Community-Forum für Fragen und Antworten verfügbar
►►
In der Regel gut integrierbar in bestehende
IT-Infrastruktur
►►
Open Source Werkzeuge für unterschiedliche Themenbereiche können in der Regel
flexibel kombiniert werden
3. Überblick
Die Funktionsmatrix in Tabelle 1 gibt einen
Überblick über die Einsatzmöglichkeiten verschiedener BI-Werkzeuge. In den folgenden
Kapiteln werden die Open-Source-Werkzeuge
vorgestellt und weiterführende Informationen
zu den BI-Themen ETL, OLAP, DataMining und
dem Berichtswesen sowie zu integrierten BI-Lösungen gegeben.
Neben der Funktionsmatrix sollen zusätzliche,
allgemeine Hinweise den Einstieg erleichtern.
Diese umfassen neben allgemeinen Systemanforderungen auch eine Bewertung wichtiger anderer Faktoren wie unter anderem den
Umfang der Dokumentation oder auch den
Grad an Aktivität innerhalb der User-Communities einzelner Werkzeuge.
Software
OLAP
Rohdaten
extrahieren
Pentaho DI
X
Rohdaten
transformieren
X
Talend OS
X
X
X
Jasper ETL
X
X
X
Mondrian
X
X
Jedox
X
X
BIRT
X
SQL Power W
X
Data Mining
KNIME
X
X
X
X
X
RapidMiner
X
X
X
X
X
Weka
X
X
JasperSoft
X
X
X
X
Pentaho
X
X
X
X
SpagoBI
X
X
X
X
Dashboards
Berichte
X
X
Tabelle 1: Funktionsmatrix - Übersicht BI-Werkzeuge
7
Transformierte
Daten laden
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
Überblick
Bewertung
Es folgt eine Bewertung der einzelnen BI-Werkzeuge anhand wichtiger Kriterien, die neben
der reinen Funktionalität für die Auswahl eines
Werkzeugs entscheidend sein können. Als Nutzerprofil wird von einem IT-affinen Mitarbei-
Software
ter ausgegangen, der sicher im Umgang mit
gängigen Büroanwendungen ist und darüber hinaus über grundlegende Erfahrungen im
Bereich Datenbanken verfügt.
Community
Dokumentation
Installation
Usability
***
***
***
*
*
*
***
*
**
**
**
**
**
*
***
*
***
*
***
***
*
*
*
*
***
***
**
***
***
**
*
***
*
***
***
***
*
*
*
***
***
***
*
*
*
***
*
***
**
**
**
ETL
Pentaho DI
Talend OS
Jasper ETL
OLAP
Mondrian
Jedox
Berichtswesen
BIRT
SQL Power W
Data Mining
KNIME
RapidMiner
Weka
Integrierte BI-Lösungen
JasperSoft
Pentaho
SpagoBI
*)
Bewertungskriterien für
Sternevergabe in aufsteigender
Reihenfolge:
Community: Forum vorhanden,
Wiki vorhanden, Zahl der
diskutierten Beiträge im Forum,
zusätzliche Funktionalität im
Werkzeug (Marketplace etc.)
Dokumentation: Handbuch (u.a.
auf Deutsch) verfügbar, Tutorials
als Video vorhanden, Tutorials vom
Hersteller oder anderen Personen
vorhanden
Installation: Manuelle
Installation und Konfiguration
bzw. Installationsroutine
mit entsprechenden
Bildschirmanweisungen vorhanden
Usability: Hilfe- und HinweisFunktionen vorhanden, gute
Benutzerführung, für BusinessAnwender geeignet
*) Siehe Talend OS Dokumentation
Tabelle 2: Bewertungsmatrix der ausgewählten Open Source BI-Tools
Die Bewertungsmatrix zeigt deutlich, dass fast
alle aufgeführten Werkzeuge durch eine starke
und aktive Community begleitet werden. In
Wikis und Foren findet man schnell Antworten auf die häufigsten Fragen. Der Punkt Dokumentation hingegen ist bei fast allen Werkzeugen schlecht bewertet worden. Dies ist vor dem
Hintergrund wichtig, dass die Dokumentation
8
alle wichtigen Einstiegsinformationen für Nutzer
des Werkzeugs enthalten sollte. Oft sind diese
Dokumentationen nur auf Englisch verfügbar
und erhöhen somit den Einarbeitungsaufwand.
Bei der Installation und bei dem Punkt Usability schneiden die Werkzeuge meist gut bis sehr
gut ab und sind somit auch für Einsteiger in das
Thema Business Intelligence zu empfehlen.
4.Berichtswesen
Im Berichtswesen werden Daten übersichtlich
dargestellt. Neben klassischen Monats-, Quartals- und Jahresberichten schließt dieser Bereich auch das ad-hoc-Berichtswesen ein. Dabei können nicht nur relevante Informationen in
Echtzeit bereitgestellt, sondern über Filteroptionen auch tiefergehende Details dargestellt werden. Abb. 1a zeigt einen einfachen Bericht zu
Umsätzen je Produkt. In der Darstellung Abb.
1b auf der nächsten Seite ist ein Dashboard zu
sehen, das wesentliche Kennzahlen zur Unternehmenssteuerung in verschiedenen Diagrammen zusammenfasst.
Abb. 1a: Beispiele für einfache Berichte
9
ad-hoc Berichtswesen: Über ein ad-hoc Berichtswesen werden dem Nutzer nicht nur die für ihn relevanten Informationen in Echtzeit bereitgestellt, sondern er kann über Filteroptionen auch ins Detail
gehen und so Zusammenhänge zügig erschließen.
Solche Systeme erlauben oft das IT-unterstützte Verteilen der Informationen, egal ob über eine E-MailPush-Funktion, eine Exportfunktion der Daten in
andere Office-Programme oder auch in andere Formate wie PDF.
(mit freundlicher Genehmigung der Eclipse Foundation)
Berichtswesen
Abb. 1b: Beispiel eines Dashboards
In einem Dashboard werden alle Informationen, die
zur Planung, Steuerung und Kontrolle eines Unternehmens notwendig sind, in geeigneter Form zusammengefasst. Analog zur Instrumententafel von
Maschinenanlagen oder auch dem Armaturenbrett
in einem Kraftfahrzeug sollte ein Dashboard demnach neben gängigen finanzorientierten Kennzahlen
alle weiteren Schlüsselindikatoren beinhalten, um ein
Unternehmen weiter ‚auf Kurs‘ zu halten.
Wie ein solches Dashboard gestaltet ist, wem es zur
Verfügung steht und ob es lediglich statische Informationen enthält oder sich durch Nutzerinteraktion
dynamisch verändert, das hängt am Ende von den
Wünschen und Bedürfnissen der jeweiligen Unternehmensführung ab.
10
(mit freundlicher Genehmigung der Eclipse Foundation)
Berichtswesen
4.1 BIRT
Die gemeinnützige Gesellschaft Eclipse stellt
mit BIRT (Business Intelligence and Reporting Tools) ein Open-Source-Werkzeug für den
Bereich Berichtswesen bereit.
Über den „BIRT Report Designer“ lassen sich
Berichte jeder Art erstellen. Zunächst müssen
Datenquellen konfiguriert werden. Hier können
alle gängigen Datenbanksysteme oder Dateiformate wie z.B. CSV-Dateien als Datenbasis
dienen (Abb. 2/1). Das Design des Berichtes
kann beliebig auf das Unternehmen angepasst werden (Farben, Abstände, Rahmen
etc.). Der konkrete Bericht wird dann erstellt, in
dem die gewünschten Bausteine wie Tabellen
oder Grafiken (Abb. 2/2) im Arbeitsbereich wie
gewünscht angeordnet werden (Abb. 2/3).
Abb. 2: BIRT Oberfläche 11
Die Pflichtparameter für jeden Baustein des
Berichtes werden nach deren Platzierung über
eine unmittelbare Eingabeaufforderung durch
das Programm erfragt, was nur ein Beispiel für
die gute Nutzerführung in der Software darstellt.
Neben klassischen Berichten mit Firmenlogo,
Adressbereich und tabellarischer Darstellung
von Inhalten lassen sich auch ganze Dashboards mit Grafiken auf Basis von Inhalten aus
einem Data Warehouse erzeugen (vgl. Fehler!
Verweisquelle konnte nicht gefunden werden.).
Exportieren lassen sich die Berichte am Ende
natürlich auch, so zum Beispiel als Word-, Powerpoint- und PDF-Dokument oder als HTML-Dokument zur Einbettung in Webseiten (Abb. 2/4).
(mit freundlicher Genehmigung der Eclipse Foundation)
Berichtswesen
4.2. SQL Power Wabit
Das Reporting-Werkzeug SQL Power Wabit
dient primär der intuitiven Erstellung von Berichten auf Basis von Datenbankabfragen. Hierfür
sollte im besten Fall eine Verbindung zum eigenen Data Warehouse hergestellt werden. SQL
Power Wabit kommt aber auch mit OLAP-Würfeln zurecht. Voraussetzung ist, dass neben der
Datenbankverbindung eine Beschreibung der
Datenstruktur bereitgestellt wird.
Anschließend lassen sich beliebige Datenbanktabellen aus einem Auswahlbereich heraus
(Abb. 3/1) per Drag&Drop in den Arbeitsbereich
ziehen (Abb. 3/2). Dort wird dem Nutzer grafisch angezeigt, über welche Attribute die einzelnen Tabellen verfügen und wie diese miteinander verknüpft sind. Nun können genau die Attribute ausgewählt werden, welche später auch
im Bericht dargestellt werden sollen. Zusätzlich
lassen sich Filter für die Attributswerte setzen,
wahlweise wiederum innerhalb der grafischen
Darstellung oder über einen Editor. Die Syntax
innerhalb des Editors richtet sich nach dem je-
Abb. 3: SQL Power Wabit Oberfläche
12
weils vorliegenden Datenbankmanagementsystem (Beispiel MySQL).
Unter der Arbeitsfläche werden dem Nutzer die
ausgewählten Daten in Form einer Ergebnistabelle angezeigt (Abb. 3/3). Die Ergebnistabelle
reagiert dabei automatisch auf jede Änderung
durch den Nutzer. Möchte man abschließend
die Ergebnistabelle direkt in einen Bericht umwandeln bzw. daraus eine Grafik erstellen, nutzt
man eine der Schaltflächen über dem Arbeitsbereich (Abb. 3/4).
Neue Elemente wie z.B. Berichte oder Diagramme werden über einen Rechtsklick auf
den jeweiligen Ordner (Bsp. ‚Templates‘ für
Berichtsvorlagen) angelegt (Abb. 3/5). Alle
Ergebniselemente – also Datenbankabfragen
als Tabellen, daraus erzeugte Grafiken sowie
eigene Bilder – können innerhalb der Berichtserstellung per Drag&Drop in den Bericht gezogen werden.
(mit freundlicher Genehmigung der SQL Power Group Inc.)
Berichtswesen
Die Inhalte sowie eigene Grafiken können dabei
bearbeitet und angepasst werden. Neben der
Position und Größe der Inhaltselemente können
Ergebnisse aus Datenbankabfragen durch Filter
ergänzt werden. Umsatzzahlen lassen sich auf
diese Weise zusätzlich nach dem Geschäftsjahr bzw. anderen Kriterien filtern. Die entspre-
Abb. 4: SQL Power Wabit - Beispiel-Bericht in Form einer PDF-Datei
13
chende Information muss in diesem Fall natürlich über die Datenbank hinterlegt sein. Ist
man mit dem Ergebnis zufrieden, können die
Berichte gedruckt bzw. als PDF-Datei exportiert
werden.
(mit freundlicher Genehmigung der SQL Power Group Inc.)
5.ETL
Unter ETL (Extraction, Transformation und
Load) sind alle Werkzeuge für das Extrahieren, Transformieren und Laden von Roh- bzw.
Quelldaten zusammengefasst. Diese Teildisziplinen sollen kurz näher beschrieben werden,
da sie in der Übersichtsmatrix separat aufgeführt sind.
Extrahieren
Der erste Schritt des ETL-Prozesses befasst
sich mit dem Extrahieren relevanter Daten aus
unterschiedlichen Datenquellen, um diese für
weitere Schritte verfügbar zu machen. Dies
können strukturierte Datenquellen wie Datenbanken (z.B. MySQL, MS SQL Server, Oracle)
oder verschiedene Dateiformate (z.B. CSV,
Excel, XML, usw.) sein, oder auch unstrukturierte bzw. teilweise strukturierte Datenquellen
in Form von Freitexten oder HTML-Dokumenten.
Laden
Das Laden befasst sich schließlich mit der
Ablage der transformierten Quelldaten in den
Datenbankstrukturen des Data Warehouses.
Hierbei werden üblicherweise nur neue oder
geänderte Daten berücksichtigt und das Data
Warehouse entsprechend aktualisiert.
Die im Data Warehouse bereitgestellten Daten
sind die Basis für alle weiteren Schritte im
BI-Prozess. Die Qualität dieser Daten bestimmt
im wesentlichen Maße auch die Qualität der
anschließenden Auswertungen. Somit wird dem
ETL-Prozess und den entsprechenden Werkzeugen ein großer Stellenwert beigemessen.
Transformieren
Die Transformation hat zum Ziel, die zu analysierenden Daten in eine Form zu bringen, in der
sie später durch Analysewerkzeuge bestmöglich ausgewertet werden können. Dies schließt
neben der Beseitigung von Fehlern oder Ausreißern die Aufspaltung der Daten in möglichst
viele Einzelinformationen sowie deren Anpassung an den jeweils gewünschten Datentyp ein.
Abb. © deusexlupus - Fotolia.com
14
ETL
5.1 Pentaho Data Integration (Pentaho DI)
Bei Pentaho DI handelt es sich um ein reines
ETL-Werkzeug aus dem BI-Portfolio des Software-Anbieters Pentaho.
Über einen visuellen Editor können die jeweiligen ETL-Prozesse ohne Programmierkenntnisse erstellt werden (siehe Abbildung 1).
Hierzu wählt man die jeweiligen Bausteine aus
der Auswahlpalette (Abb. 5/1), platziert sie auf
der Arbeitsfläche (Abb. 5/2) und definiert das
konkrete Verhalten des Bausteins über entsprechende Einstellungen (Abb. 5/3). Ein Baustein übernimmt jeweils einen Arbeitsschritt des
ETL-Prozesses wie beispielsweise das Einlesen einer Quelldatei, das Umbenennen von
Attributen, das Löschen von Ausreißern usw.
Als Quelldaten werden neben CSV- oder
Textdateien alle gängigen Datenbanksysteme unterstützt. Zudem gibt es Schnittstellen zu Systemen wie SAS, SAP, Google Analytics, Salesforce usw. sowie die Möglichkeit,
Inhalte aus Emails zu importieren. Unterhalb
der Arbeitsfläche (Abb. 5/4) befindet sich ein
Bereich mit Informationen zum aktuellen ETLProzess. Neben der Anzeige des Ereignisprotokolls oder der Ausführungshistorie können hier
beispielsweise über einen Klick auf den jewei-
Abb. 5: Pentaho Data Integration Oberfläche
15
ligen Baustein die Daten eingesehen werden,
welche an den nächsten Baustein weitergegeben werden. So lässt sich zügig ermitteln, ob in
den einzelnen Bearbeitungsschritten alles korrekt ausgeführt worden ist.
Wenn größere Datenmengen betrachtet und
weiterverarbeitet werden sollen, ist die Analyse
des grundsätzlichen Aufbaus der Daten interessant (Data Profiling). Nach der Installation einer
kostenlosen Erweiterung können verschiedene
Informationen zu den Daten berechnet werden.
Neben dem Hinweis, wie viele Einträge innerhalb der Daten gänzlich fehlen, bekommt der
Nutzer auf diese Weise zusätzliche Informationen, die er zur Optimierung der Datenstruktur
heranziehen kann. Zudem gibt die Analyse Aufschluss über die allgemeine Datenqualität.
Mit Data Profiling ist die (meist) automatisierte Analyse grundlegender Eigenschaften von Datenbeständen gemeint. Neben der Gesamtzahl der Einträge je
Spalte (einer Tabelle) kann auch die Anzahl der leeren Einträge, Durchschnitts-, Minimum- und Maximum-Werte, das Zeitfenster (von-bis) für Datumsfelder sowie die Häufigkeit einzelner Werte angezeigt
werden.
(mit freundlicher Genehmigung von Pentaho)
ETL
5.2. Talend Open Studio
Der Anbieter Talend bietet verschiedene Werkzeuge im Bereich Datenintegration an, insbesondere das Werkezeug Talend Open Studio.
Ähnlich wie bei der Lösung von Pentaho sind
die „Jobs“ – so werden Datenintegrationsprozesse bei Talend genannt – Prozesse, die aus
bis zu 450 verschiedenen (parametrisierbaren)
Bausteinen bestehen können. Es werden Konnektoren zum Einlesen aller gängigen Datenquellen bereitgestellt sowie unzählige Bausteinen für die Datentransformation angeboten.
Über den sogenannten „Map Editor“ lassen sich
Datenelemente aus verschiedenen Datenquellen einer vorher festgelegten Zielstruktur zuordnen. Ohne jeglichen Programmieraufwand lassen sich ETL-Prozesse auf diese Weise mit
überschaubarem Aufwand umsetzen.
was als Vorlage für die spätere Implementierung des ETL-Prozesses dienen soll. So erhalten auch nicht IT-affine Personen im Unternehmen einen Überblick über die Funktionsweise
einzelner Prozesse, ohne tiefer mit der Funktionsweise des Werkzeuges vertraut zu sein.
5.3 Jaspersoft ETL
Jaspersoft ETL stellt bei der Datenintegration
keine wirklich neue Alternative dar, sondern ist
als Community-Version eine angepasste Version von Talend Open Studio. Der Einsatz dieser leicht angepassten Version macht aber nur
dann Sinn, wenn in anderen Bereichen der
BI-Landschaft ebenfalls Werkzeuge des BI-Anbieters Jaspersoft eingesetzt werden.
Abbildung 6 zeigt die Arbeitsoberfläche von Talend Open Studio. Im Arbeitsbereich ist ein vereinfachtes Modell des Datenflusses dargestellt,
Abb. 6: Talend Open Studio Oberfläche
16
(mit freundlicher Genehmigung der Public Footprint GmbH)
6.OLAP
Unter OLAP (on-line analytical processing) werden alle Werkzeuge zusammengefasst, die
bei großen Datenmengen das flexible Betrachten betriebswirtschaftlicher Kennzahlen (z.B.
die Anzahl verkaufter Produkte oder der Umsatz) gruppiert nach beliebig vielen Merkmalen (z.B. Datum/Monat, Region oder Produkt)
ermöglichen. Oft wird auch von sogenannten
OLAP-Würfeln gesprochen (siehe dazu auch
Abb. 7). Derartige Software bietet unter anderem die Möglichkeit, über verschiedene Hierarchieebenen hinweg (z.B. Jahr-Monat-Tag) sowie gefiltert nach mehreren Attributen Daten zu
betrachten.
Abb. 7: OLAP, tabellarisch und als sogenannter OLAP-Würfel
(mit freundlicher Genehmigung des Urhebers Tobias Wäschle)
Drill-Down bzw. Drill-Up sind gängige Filteroperationen in meist hierarchisch aufgebauten OLAP-Würfeln.
Drill-Down bezeichnet demnach das Betrachten der Ergebnisse auf der nächstniedrigeren Hierarchieebene.
Am Beispiel der Zeitdimension lässt sich dies einfach erklären. Werden beispielsweise Umsatzzahlen nach
Monaten dargestellt, wäre eine mögliche Drill-Down-Option die Anzeige der Umsätze nach Kalenderwochen
oder Tagen im jeweiligen Monat. Der Nutzer kann also über Drill-Down immer mehr ins Detail gehen. Drill-Up
steht im Gegensatz dazu für eine Betrachtung der Daten auf einer abstrakteren Ebene. Im Falle der Anzeige
von Umsätzen nach Monaten wäre eine mögliche Drill-Up-Option somit die Anzeige nach Geschäftsjahren.
17
OLAP
6.1 Mondrian
Mondrian ist das OLAP-Modul im BI-Portfolio
von Pentaho. Es handelt sich hierbei um eine
Sammlung verschiedener Funktionen, die in
Summe ein recht umfangreiches OLAP-Werkzeug bilden. Bevor diese Funktionen aber anwendbar sind, müssen die zugrundeliegenden
Datenelemente zuvor in Kennzahlen (sog. Fakten) und Dimensionen unterteilt werden.
Informationen zum Aufbau und zur Funktionsweise von Business Intelligence finden Sie im
Leitfaden „Business Intelligence - Architekturüberblick“. Hierzu liefert Pentaho ein zusätzliches Werkzeug, um den Nutzer bei der Erstellung dieser Metainformationen zu unterstützen.
können. Die einzelnen Funktionen von Mondrian werden über Schaltflächen aktiviert bzw.
deaktiviert (Abb. 8/1). Neben klassischen
OLAP-Funktionen findet man dort Schaltflächen
zur Anpassung bzw. Erweiterung der Ergebnisdarstellung oder auch Exportfunktionen im PDF
oder Excel-Format.
Direkt darunter findet sich die Ergebnistabelle,
die je nach Benutzerinteraktion und vorhergehender Anpassung der Darstellungs- und sonstiger Einstellungen die gewünschten Informationen anzeigt (Abb. 8/2). Die Darstellung der
Ergebnistabelle als Grafik erfolgt separat unterhalb der Ergebnistabelle (Abb. 8/3)
Abb. 8 zeigt beispielhaft, wie Daten mit Hilfe
von Mondrian im Browser angezeigt werden
Abb. 8: Mondrian als Java-Web-Applikation
18
(mit freundlicher Genehmigung von Pentaho)
OLAP
6.2 Jedox
Jedox bietet eine komplette BI-Suite an, die
alle Bereiche von ETL über OLAP bis hin zu
Dashboards (siehe Kap. 6) und Berichten umfasst. Das Steckenpferd war und ist aber das
mächtige OLAP-Modul Jedox. Durch die Integration in Excel bietet Jedox für viele KMU einen großen Mehrwert, da verschiedenste Daten oft bereits Excel-Tabellen gepflegt werden.
Jedox lässt sich in Excel integrieren und ersetzt
die Pivot-Funktion, bietet aber viele zusätzliche
Funktionen wie beispielsweise die Anzeige von
Soll-Ist-Abweichungen. Der große Vorteil der
Integration in Excel liegt vor allem in der „gewohnten“ Umgebung, denn Office-Anwendun-
Abb. 9: Jedox Beispiel Spreadsheet
19
gen sind in KMUs weit verbreitet. Dadurch fällt
der Einarbeitungsaufwand hier insgesamt relativ niedrig aus.
Abb. 9 zeigt, dass die Optik der eigenständigen
Jedox-Oberfläche starke Parallelen zu Excel
aufweist. Zu verschiedenen Produktgruppen erhält der Anwender hier die wichtigsten Kennzahlen beispielhaft für ein fiktives Unternehmen
übersichtlich dargestellt. Neben den Zahlenwerten heben zusätzliche Diagramme die derzeitige Situation wie auch die Entwicklung hervor.
(mit freundlicher Genehmigung der Jedox AG)
7. Data Mining
Unter Data Mining werden Werkzeuge zusammengefasst, die tiefergehende Analysen auf
Daten jeglicher Art ermöglichen.
Ein Beispiel hierfür ist die Kundensegmentierung (Abb. 10a). Typische Merkmale zur Marktsegmentbildung sind in Abb. 10b zu sehen.
Ein anderes Beispiel sind Entscheidungsbäume. Abb. 11 zeigt auf stark vereinfachte Weise,
ob ein Kunde kreditwürdig ist.
Derartige Verfahren nutzen mathematische Algorithmen für die Berechnung von Mustern innerhalb der Datenbasis und übernehmen damit
die Aufgabe, Trends und Zusammenhänge in
großen Datenmengen zu ermitteln.
Abb. 10a: Beispiel für eine Kundensegmentierung
Abb. 10b: Typische Merkmale zur Marktsegmentbildung
(© eBusiness-Lotse Oberschwaben-Ulm)
(© thingamajiggs - Fotolia.com)
Abb. 11: Beispiele zum Einsatz von Entscheidungsbäumen
(© eBusiness-Lotse Oberschwaben-Ulm)
20
Abschließend seien noch die Warenkorbanalysen erwähnt (Abb. 12), anhand derer ermittelt
werden kann, welche Warengruppen häufig zusammen gekauft werden.
Abb. 12: Warenkorbanalysen
(© Olivier Le Moal - Fotolia.com)
Data Mining
7.1 KNIME
Das Data-Mining-Werkzeug namens „Konstanz
Information Miner“ wurde ursprünglich an der
Universität Konstanz entwickelt. Heute bietet
die KNIME.com AG mit Sitz in Zürich zusätzlich
professionelle technische Unterstützung und
Beratungsdienstleistungen für die KNIME-Plattformen. Das in Java entwickelte Projekt wird
zudem als Plugin für das Programmierwerkzeug Eclipse angeboten.
KNIME kann alle gängigen Datenformate und
Datenbanken als Quelle für Rohdaten anbinden
und bietet zudem eine Vielzahl von Bausteinen
für die Datenmanipulation und Bereinigung. Der
Schwerpunkt liegt allerdings in der Analyse von
Datenbeständen. Hier bietet das Werkzeug neben eigenen Analysemöglichkeiten die Integration zahlreicher anderer Algorithmen aus der
Software Weka (näheres dazu in 7.3) oder auch
der Statistiksoftware „R“. Abschließend bietet
das Werkzeug neben einer integrierten Möglichkeit zur Visualisierung der Ergebnisse den Export der Daten zur Weiterverarbeitung oder Veröffentlichung.
Abb. 13: KNIME Oberfläche und Analysevarianten
21
Die einzelnen Bausteine stehen in einer sortierten Liste zur Verfügung (Abb. 13/1). Sie können
per Drag&Drop in den Arbeitsbereich gezogen
und einfach miteinander verbunden werden.
Eine Art Ampelsystem zeigt dabei dem Nutzer
an, ob ein Baustein noch konfiguriert werden
muss (Abb. 13/2).
Spezielle Bausteine zur Visualisierung der Daten können hierbei genutzt werden, um erste manuelle Analysen der Daten durchzuführen
(Abb. 13/3). Ein möglicher Baustein ist hier z.B.
der ‚Interactive Table‘, der die Daten, welche
ihm übergeben werden, in einer interaktiven Tabelle verfügbar macht. Gängige Verfahren für
tiefergehende Analysen wie Entscheidungsbäume oder auch Warenkorbanalysen können anschließend automatisch komplexe Muster in
den Daten erkennen und liefern so relevantes
Wissen zur Entscheidungsunterstützung. Analyseergebnisse können nach Abschluss der Analyse wiederum in gängige Formate exportiert
werden (Abb. 13/4).
(mit freundlicher Genehmigung von KNIME)
Data Mining
7.2 RapidMiner
RapidMiner ist ein in Java geschriebenes Werkzeug für maschinelles Lernen und Data Mining.
Alle Algorithmen aus dem Projekt der Software
Weka sowie der Statistiksoftware „R“ sind als
Erweiterung über den RapidMiner Marketplace kostenlos verfügbar. Es wurden weitere Bausteine zur Datenmanipulation und -auswertung
integriert, die RapidMiner zum derzeit wohl umfangreichsten Open-Source-Werkzeug im Bereich Data Mining machen. Über den Marketplace lässt sich die Software unter anderem um
Lösungen im Bereich Text- oder Web Mining
sowie um ein Berichts-Plugin erweitern.
Ähnlich wie die Lösungen zur Datenintegration
oder KNIME folgt auch RapidMiner dem Workflow-Prinzip. Über die Benutzeroberfläche können alle verfügbaren Bausteine aus der linken
Spalte (Abb. 14/1) über Drag&Drop in den Arbeitsbereich (Abb. 14/2) in der Mitte gezogen
werden. In der rechten Spalte werden alle Parameter für den gesamten Prozess oder aber einzelne Bausteine gesetzt (Abb. 14/3).
Abb. 14: RapidMiner Oberfläche 22
Unter dem Arbeitsbereich befindet sich noch ein
Ereignisprotokoll (Abb. 14/4), welches einzelne
Arbeitsschritte im Prozessablauf erfasst und anzeigt. Rechts daneben erhält der Nutzer zusätzliche Informationen je Baustein (Abb. 14/5). Für
den leichteren Einstieg bietet RapidMiner kostenlose Schulungsvideos an.
Text Mining fasst Algorithmen zusammen, die über
statistische und linguistische Verfahren Informationen aus unstrukturierten Texten generieren. So
lassen sich beispielsweise Texte einem konkreten
Themenbereich zuordnen oder Kundenfeedback in
positive oder negative Aussagen unterteilen.
Web Mining ist eine Teildisziplin des Data Mining,
die sich auf Inhalte aus dem Internet beschränkt.
Neben der allgemeinen Analyse von Internetinhalten
(Web Content Mining) schließt es auch das Nutzerverhalten (Web Usage Mining) sowie die Beziehung
zwischen Webseiten (Web Structure Mining) ein. So
lassen sich z.B. Stimmungen von Kunden oder der
Fachpresse zu Produkten eines Unternehmens einfangen oder die eigene Unternehmenswebseite auf
Basis des Klickverhaltens der Besucher optimieren.
(mit freundlicher Genehmigung von RapidMiner)
Data Mining
7.3 Weka
Weka ist ein Projekt der „Machine Learning
Group“ an der Universität von Waikato, Neuseeland. Die gleichnamige Software umfasst
eine Sammlung verschiedenster Algorithmen
zum maschinellen Lernen. Diese Algorithmen
können über das Werkzeug direkt auf verfügbaren Rohdaten oder aber über die Einbindung
in den Java-Code innerhalb einer eigenen Softwarelösung ausgeführt werden.
Neben klassischen Verfahren wie der Klassifikation, Regressions- und Cluster-Analyse sowie der Ermittlung von Assoziationsregeln bietet das Werkzeug zusätzlich Bausteine zur Datenvorverarbeitung wie auch zur Visualisierung
von Analyseergebnissen. Das Werkzeug wird
an der Waikato-Universität ständig weiterentwickelt und als losgelöstes, eigenständiges Produkt angeboten.
Die Oberfläche zum Workflow-Design ist bei
Weka im Vergleich zu anderen vorgestellten
Werkzeugen weniger benutzerfreundlich. So ist
beispielsweise nur wenig oder gar keine Dokumentation zu einzelnen Bausteinen sowie deren Parametern verfügbar. Auch die Regeln für
der Anordnung und Verknüpfung von einzelnen Bausteinen sind oftmals unklar. Dem Nutzer werden zudem keine Hinweise für mögliche
Fehler vor Ausführung eines Prozesses angezeigt und so bleibt das Werkzeug Experten vorbehalten, die sich damit bereits umfassend auskennen.
Alle Algorithmen aus dem Weka-Projekt können
jedoch - wie weiter oben schon erwähnt - in benutzerfreundlichere Anwendungen wie KNIME
oder RapidMiner eingebunden werden.
Abb. 15: Weka Oberfläche: KnowledgeFlow
(mit freundlicher Genehmigung der Machine Learning Group an der University of Waikato)
23
8. Integrierte BI-Lösungen
Integrierte BI-Lösungen sind meist modulare
Systeme, die das gesamte Leistungsspektrum
im Bereich BI abdecken. In der kostenlosen Variante dieser Systeme fehlt jedoch eine übergreifende Installationsroutine und die einzelnen
Module müssen separat installiert werden. Auf
Basis entsprechender Schnittstellen lassen sich
unterschiedliche Module aber im Rahmen eines
Gesamtprojekts einsetzen und die Ergebnisse eines Moduls können in der Regel ohne Probleme in den anderen Modulen weiterverarbeitet werden. In den sogenannten ‚Enterprise‘-Varianten werden die einzelnen Module oft als
Komplettpaket angeboten, sowohl in Bezug auf
die Installationsroutine als auch Bedienoberfläche. Da der Fokus dieser Marktübersicht jedoch
auf kostenlosen Produkten liegt, wird auf diese
Varianten nicht näher eingegangen.
8.1 Jaspersoft
Jaspersoft ist einer der großen Anbieter integrierter BI-Lösungen. Es werden verschiedene Module für die einzelnen Teilaufgaben ange-
Abb. 16: Beispiel-Bericht - Jaspersoft Reports Server, Community-Version
24
boten, die über Schnittstellen ohne großen Aufwand miteinander verbunden werden können.
Es folgt eine Liste der einzelnen Module:
►►
Jaspersoft ETL (siehe 4.2)
►►
JasperReports Server (Berichts-Server) mit
- JasperReports Library (Java-Bibliothek zur
Erstellung von Berichten)
- Jaspersoft OLAP (angepasste MondrianLösung, siehe 5.1)
►►
Jaspersoft Studio (Editor zum Erstellen von
Berichten)
Im Bereich ETL und OLAP setzt Jaspersoft auf
Drittanbieter, passt die Module allerdings auf
die eigene Produktlinie an. Alle Teilmodule können auch getrennt voneinander genutzt werden. Jaspersoft legt den Fokus auf die Berichtserstellung sowie -verteilung. Der Berichtsserver
stellt damit das Herzstück der Lösung dar. Beispielberichte zeigt Abb. 16.
(mit freundlicher Genehmigung der TIBCO Software Inc.)
Integrierte BI-Lösungen
8.2 Pentaho
Pentaho setzt ähnlich wie Jaspersoft auf angepasste, teils bestehende Open-Source-Projekte, die von Pentaho aufgekauft worden sind.
Die Schwerpunkte liegen in der Datenintegration sowie der Berichtsautomatisierung. Das Produktportfolio besteht aus:
►►
Business Analytics Platform
Eigenentwickelte Webapplikation zur zentralen Zusammenführung aller Informationen
auf einer Plattform. Möglichkeit zur Integration zusätzlicher Erweiterungen.
►►
Data Integration
ETL-Werkzeug (siehe 4.1).
►►
Report Designer
Weiterentwicklung des aufgekauften Projekts JFreeReport. Kann separat oder als
Erweiterung der ETL-Lösung von Pentaho
eingesetzt werden.
Abb. 17: Beispiel-Bericht - Pentaho BI Server
25
►►
Aggregation Designer & Schema Workbench
Zwei Werkzeuge zur Erstellung und Optimierung der Datenbankinhalte. Als Basis hierfür
dient Mondrian (siehe 5.1).
►►
Metadata-Editor
Mit ihm lassen sich die zugrundeliegenden
Datenstrukturen mit Hilfe einer XML-Datei detaillierter beschreiben. Diese Meta-Beschreibung dient den anderen Werkzeugen
als Input für weitergehende Auswertungen
der Daten. So lassen sich hier die Dimensionen selbst sowie die beinhaltenden Hierarchien beschreiben. Die XML-Datei dient am
Ende Mondrian (siehe 5.1) als Basis für weitere Operationen auf den Daten.
Abb. 17 zeigt ein Dashboard mit verschiedenen
Diagrammen zu einem fiktiven Unternehmen
(z.B. Umsatz nach Region). Kommen neue Daten hinzu, aktualisieren sich die Diagramme automatisch.
(mit freundlicher Genehmigung von Pentaho)
Integrierte BI-Lösungen
8.3 SpagoBI
Als einziger Anbieter integrierter BI-Lösungen bietet SpagoBI alle Module nur in einer
Open-Source-Variante an. Es gibt keine ‚Enterprise‘-Version von SpagoBI. Das Geschäftsmodell besteht darin, Dienstleistungen im Bereich
der Einrichtung und Anpassung der Module auf
kundenspezifische Anforderungen anzubieten.
Im Wesentlichen bietet SpagoBI den Vorteil,
dass alle angebotenen Software-Lösungen
über eine zentrale Plattform über den Browser verwaltet werden können. So kann eine
Lösung, die mit SpagoBI entwickelt worden ist,
in den BI-Schwerpunktthemen ETL, OLAP, Data
Mining sowie Berichtswesen unter anderem aus
den folgenden Werkzeugen zusammengesetzt
sein:
►►
ETL
- Talend (siehe 4.2)
►►
OLAP
- Jedox (siehe 5.2)
- Mondrian (siehe 5.1)
►►
Data Mining
- Weka (siehe 7.3)
- Statistiksoftware R
►►
Berichtswesen
- BIRT (siehe 6.1)
- JasperReports Library (siehe 8.1)
Darüber hinaus bietet SpagoBI noch weitere Module an. Sie dienen vor allem zur Optimierung der Darstellung von BI-Ergebnissen
auf mobilen Endgeräten oder auch zur Unterstützung der Verbindung von geographischen
Daten mit geschäftsrelevanten Daten.
Abb. © SpagoWorld Communications
26
Abb. © DOC RABE Media - Fotolia.com
9.Fazit
Die Auswahl an brauchbaren Open Source
Werkzeugen für jeden Einsatzzweckim Bereich
BI ist mittlerweile recht groß. Der Einarbeitungsaufwand ist bei den meisten Werkzeugen überschaubar. Wenn hierfür die Dokumentation des
Anbieters selbst nicht ausreichen sollte, wird
der Einstieg in nahezu jedes Software-Produkt durch zusätzliche Inhalte aus den sozialen
Medien unterstützt. Ist man auf professionelle
Hilfe angewiesen, besteht immer die Möglichkeit, kostenpflichtigen Support in Anspruch zu
nehmen bzw. auf eine ‚Enterprise‘-Version der
jeweiligen Lösung umzusteigen.
Der Einstieg in die BI-Welt wird über die vorgestellten Werkzeuge im Bereich des Berichtswesens empfohlen, da sich auf diese Weise erste
Mehrwerte durch die Zusammenführung der
bestehenden Daten erzielen lassen.
27
Anschließend können Lücken innerhalb der nun
verfügbaren Berichte durch eine Reorganisation
der Datenerfassung geschlossen werden. Hierfür kommen Werkzeuge aus dem Bereich ETL
zum Einsatz. Gleichzeitig kann das Berichtswesen um spezifische OLAP-Auswertungen auf
der Basis der vorgestellten Werkzeuge ergänzt
werden. Sollen weitergehende Analysen wie
Cluster-Analysen oder Warenkorbanalysen zur
Unterstützung von Entscheidungen beitragen,
können Data Mining Werkzeuge zum Einsatz
kommen. So kann das unternehmenseigene
BI-Portfolio sukzessive auf die jeweiligen Anforderungen angepasst werden.
© Yuri Arcurs - Fotolia.com
eBusiness-Lotse Oberschwaben-Ulm
Der eBusiness-Lotse Oberschwaben-Ulm ist
Teil der Förderinitiative „eKompetenz-Netzwerk
für Unternehmen“, die im Rahmen des Förderschwerpunkts „Mittelstand-Digital – IKT-Anwendungen in der Wirtschaft“ vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert wird.
Der Förderschwerpunkt unterstützt gezielt
kleine und mittlere Unternehmen (KMU) sowie
das Handwerk bei der Entwicklung und Nutzung moderner Informations- und Kommunikationstechnologien (IKT).
„Mittelstand-Digital“ setzt sich zusammen aus
den Förderinitiativen
►►
„eKompetenz-Netzwerk für Unternehmen“
mit 38 eBusiness-Lotsen,
►►
„eStandards: Geschäftsprozesse standardisieren, Erfolg sichern“ mit derzeit 16
Förderprojekten, und
►►
„Einfach intuitiv – Usability für den Mittelstand“ mit zurzeit 14 Förderprojekten.
Weitere Informationen finden Sie unter
www.mittelstand-digital.de.
Herunterladen