Artikel als PDF anzeigen

Werbung
ITMAGAZINE
The Future of Business Intelligence
von Urs Binder
11. Dezember 2001 - Der Trend bei Business-Intelligence-Anwendungen geht in Richtung Realtime-Analyse und
standardisierte Data-Warehouse-Modelle. Business Intelligence ist mehr als ein Softwarepaket, stellt John Kopcke fest, CTO von Hyperion Solutions, einem
der führenden Hersteller von BI-Software. Hyperion bezeichnet mit dem Begriff alle IT-basierten Anstrengungen
eines Unternehmens, die Performance zu messen, die Profitabilität zu erhöhen und Wettbewerbsvorteile zu
erzielen. Das habe, so Kopcke, im Grunde genommen schon in den siebziger Jahren begonnen, als man erstmals
gewisse Aufgaben wie den Entwurf des Budgets mit den Hilfsmitteln der Informatik statt mit Bleistift und Papier
zu erledigen pflegte.
Betrachtet man die Referenzliste von BI-Herstellern wie Hyperion, stösst man auf Namen von Citibank bis
Disney, von Coca-Cola bis Nestlé - lauter Grösstunternehmen. Auf die Frage, ob Business Intelligence denn
ausschliesslich den ganz Grossen vorbehalten sei, meint Kopcke: "Wir publizieren natürlich am liebsten die
Namen, die jeder kennt. Insgesamt arbeiten über 7000 Kunden mit unseren Lösungen." Die kleinsten
Hyperion-Kunden hätten, so Kopcke, einen Jahresumsatz von etwa 100 Millionen Dollar - der BI-Einsatz kommt
demnach zwar nicht bloss für Weltkonzerne in Frage, für die "K" der KMU scheint der Aufwand für die
Implementation und Pflege einer BI-Lösung denn aber doch zu gross.
Grundlage Daten
Die Grundlage für jede Business-Intelligence-Anwendung steht heute in jedem Unternehmen quasi als
Abfallprodukt der täglichen Arbeit zur Verfügung - Daten. Die wichtigste Datenquelle sind die ERP-Systeme, in
denen laufend Transaktionsdaten von Kunden- und Lieferantenbestellungen, Lagerverwaltung, Buchhaltung und
anderen Unternehmensbereichen anfallen. In den ERP-Datenbanken bleiben diese Daten für eine gewisse
Zeitspanne gespeichert; aus Platz- und Performance-Gründen werden nicht mehr aktuelle Transaktionen jedoch
recht schnell wieder entfernt und stehen allenfalls noch in einem Backup-Archiv zur Verfügung. Für die Analyse
und die Unternehmensplanung müssen die Daten längerfristig bereitstehen; sie werden deshalb in eine
gesonderte Ablage namens Data Warehouse ausgelagert.
Ebenfalls von Nutzen: der Beizug externer oder speziell generierter Informationen wie demografische Angaben,
Bonitätsinformationen, Kundenumfragen und Auswertungen von Werbekampangnen. In Kombination mit den
Transaktionsdaten lassen sich wertvolle Erkenntnisse von der generellen Konsumentenstimmung bis zum
Kaufverhalten im einzelnen Haushalt finden.
Daten können aber auch aus anderen unternehmensinternen IT-Anwendungen stammen, so zum Beispiel aus
CRM-Systemen und E-Commerce-Applikationen. Auch diese Quellen, die in letzter Zeit zunehmend sprudeln, sind
für eine umfassende Analyse äusserst wichtig und dürfen nicht unberücksichtigt bleiben.
All das gilt überdies nicht nur für Transaktionen mit Kunden: Neben der bisherigen, praktisch ausschliesslich
kundenseitig orientierten Business Intelligence finden die Techniken zur Informationsgewinnung aus Daten
vermehrt auch bei der Optimierung der Lieferantenbeziehungen ihr Einsatzgebiet. Man spricht dann auch von
Supply Chain Intelligence (SCI). Einer der ersten SCI-fokussierten Lösungsanbieter ist Sagetree mit der Supply
Chain Performance Suite.
Ein weiterer Trend: Über die verkaufs- und einkaufsorientierte Analyse hinaus beziehen Industrie- und
Handelsunternehmen zunehmend auch Daten aus Produktion und Logistik ein. Business Intelligence wurde seit
jeher zur strategischen Unterstützung von Fertigung und Bestellwesen eingesetzt; neu kommen BI-Techniken
zum Einsatz, um aus Produktions- und Logistiksystemen konkrete Unterstützung zum Beispiel für
Bedarfsprognose, Lagermanagement und Qualitätskontrolle zu erhalten. Die zunehmende Bedeutung des
B2B-E-Commerce heizt diesen Trend zusätzlich an. Immer wichtiger werden Just-in-Time-Manufacturing und
-Lieferung, die mit einer gründlichen Analyse von Produktions- und Logistikdaten einfacher zu planen und zu
realisieren sind.
Die unerlässliche Datenzentrale
Das Data Warehouse ist das unerlässliche Hauptinstrument für alle BI-Anwendungen. Laut seinem Erfinder steht
der Begriff für die "zentrale, integrierte Informationsablage". Sie stellt historische Daten für die analytischen
Business-Intelligence-Anwendungen, für Reporting und für Data Mining bereit.
Die Integration der unterschiedlichen Datenquellen ist extrem wichtig: Bevor Daten im Warehouse gelagert
werden können, müssen sie bereinigt und nach einem für das Gesamtunternehmen einheitlichen Datenmodell
umstrukturiert werden. Das bringt Aufwand mit sich, der mit der Anzahl beteiligter Datenquellen rasant steigt. Je
unterschiedlicher die Strukturen sind, in denen die Quellen gleichwertige Informationen anliefern, desto mehr
Umformungen finden statt. Dabei entstehen sogar zusätzliche Daten: Die sogenannten Metadaten beschreiben
beispielsweise, wie die Elemente im Data Warehouse aus welchen Feldern einer bestimmten Datenquelle
entstanden sind.
War Data Warehousing anfangs ein komplexes Unterfangen, das nicht ohne erheblichen
unternehmensindividuellen Entwicklungsaufwand über die Bühne gehen konnte, kommen heute immer mehr
fixfertige Data-Warehouse-Lösungen zum Einsatz, sogenannte Packaged Data Warehouses: Statt das
sprichwörtliche leere Blatt Papier (Datenbankserver und Entwicklungstools) bieten Packaged Data Warehouses
eine bis zu einem bestimmten Grad vorgefertigte Lösung samt generischem Datenmodell und den für die
wichtigsten Auswertungen vorkonfigurierten Analysetools. Ein Packaged Data Warehouse ist meist
branchenorientiert und enthält neben der Software selbst einiges an Know-how, vom Hersteller entweder selbst
erarbeitet oder von Consultants eingekauft und in das Produkt integriert.
Elementar: Das Framework
Auch ein "fixfertiges" Data Warehouse packt man aber nicht einfach aus und es funktioniert. Abgesehen vom
Hardwarebedarf, der unabhängig vom Implementationsmodus erheblich ist, geht es nicht ohne individuelle
Anpassung des mitgelieferten generischen Datenmodells. Dieses sollte deshalb möglichst offen und gut
dokumentiert sein - proprietäre Ansätze mögen für ganz spezifische Anwendungen genügen; sobald BI auf
andere als das ursprünglich vorgesehene Einsatzgebiet erweitert werden soll, ist eine Anpassung des
Datenmodells nötig. Man achte auch darauf, dass der Hersteller bestehende und kommende Data-Warehousingund Business-Intelligence-Standards berücksichtigt.
Auch die Gartner Group sieht eine gewisse Gefahr, die von fixfertigen BI-Paketen ausgeht:
"Packaged-BI-Anwendungen riskieren, zu einer neuen Generation von festverdrahteten Systemen zu werden.
Speziell wer proprietäre, stark denormalisierte Datenmodelle benutzt und nicht eine Vielzahl von ein- und
ausgehenden Schnittstellen anbietet, gefährdet unternehmensweites Information Sharing zu Analysezwecken."
Abhilfe könnte von den BI-Frameworks kommen: Anbieter wie Cognos und Hyperion positionieren sich als
Lieferanten einer einheitlichen BI-Gesamtlösung von Warehousing- und OLAP-Tools bis zur analytischen
Applikation. Hyperion-CTO Kopcke: "Wir offerieren mit Essbase und den zugehörigen Analysis Tools die
technologische Basis für die analytischen Applikationen, die für mich die eigentliche Business Intelligence
darstellen. Besonders stark sind wir im Finanzbereich - 86 Prozent der Fortune-100-Unternehmen nutzen unsere
Financial- und Business-Performance-Management-Lösungen."
Dadurch soll das "Alignment Gap" zumindest geschmälert werden, das IDC-Analyst Morris wie folgt beschreibt:
"Projekte mit analytischen Anwendungen werden selten koordiniert - Informationen aus verschiedenen
Applikationen können das Unternehmen in unterschiedliche Richtungen ziehen. Solange diese Applikationen
nicht einem einheitlichen Verständnis der zugrundeliegenden Performance-Messgrössen wie Kosten, Gewinn und
Wertschöpfung entsprechen, besteht ein echtes Risiko." Laut Gartner hilft "ein BI-Framework, die verschiedenen
BI-Initiativen im Unternehmen einander anzugleichen und den wirklichen Return on Investment zu bestimmen",
und weiter: "Unternehmen, die eine BI-Initiative auf Basis eines Framework implementieren, werden einen zweibis dreimal höheren Return erzielen als solche, die nicht auf ein Framework setzen."
Es geht auch kleiner: Data Mart
Der kleine Bruder des Data Warehouse nennt sich Data Mart: Für viele Unternehmen ist ein vollumfängliches
Data-Warehouse-Projekt zu teuer und zu langwierig. Beschränkt man sich beim Sammeln und Analysieren der
Daten auf einen einzelnen Unternehmensbereich, zum Beispiel eine Abteilung, oder einen einzelnen
Business-Prozess wie den Verkauf, genügt ein sogenannter Data Mart. Beim Aufbau eines Data Warehouse
können bestehende Data Marts integriert werden, so dass viele BI-Anwender zunächst mit Data Marts in
einzelnen Bereichen arbeiten und erst im Lauf der Zeit ein unternehmensweites Warehouse aufbauen.
Das Bindeglied zwischen den Datenquellen und dem Data Warehouse oder Data Mart bilden die ETL-Tools
(Extraction, Transformation, Loading). Die meisten Hersteller von BI-Anwendungen, darunter Cognos
(DecisionStream) und Hummingbird (Genio Suite) haben ihr Produktportfolio in letzter Zeit um ETL-Werkzeuge
erweitert, teilweise durch Aufkauf anderer Firmen.
Analyse auf vielfältige Art
Allein auf sich gestellt, bringt ein Data Warehouse überhaupt nichts: Die gesammelten Daten wollen verwertet
werden. Unter dem Oberbegriff "Business-Intelligence-Tools" figurieren verschiedene Varianten der Auswertung
und Analyse.
• Mit SQL-basierten Reporting-Tools generiert man mehr oder weniger komplexe Berichte, wie sie von
Datenbanken allgemein bekannt sind. Die analytische Tiefe einfacher Reports ist jedoch beschränkt; nichttriviale
Erkenntnisse lassen sich auf diese Weise aus den Daten nur schwer erhalten.
• Eine Stufe weiter geht OLAP (Online Analytical Processing): Statt wie die Tabelle einer relationalen Datenbank
nur zwei Dimensionen auf einmal zu zeigen, gestattet der Cube einer multidimensionalen OLAP-Datenbank den
Überblick über mehrere Dimensionen. Als Beispiel mögen die Verkaufsaktivitäten einer Firma dienen, die unter
Gesichtspunkten wie Verkäufer, Produktelinie, Abteilung, Verkaufsgebiet, Preiskategorie und so weiter
betrachtet werden können. Die Auswertung einer konventionellen Datenbank zeigt zum Beispiel den Umsatz
eines Verkäufers nach Produkten geordnet. Um den Umsatz aller Verkäufer mit einem bestimmten Produkt zu
prüfen, muss eine neue Abfrage formuliert und verarbeitet werden. Im Gegensatz dazu berechnet die
OLAP-Datenbank die möglichen Kombinationen zumindest teilweise im voraus; die passenden OLAP-Abfragetools
erlauben den blitzschnellen Wechsel zwischen verschiedenen Blickpunkten auf die Daten. OLAP besteht somit
aus zwei Komponenten: einer OLAP-fähigen Datenbank und OLAP-Abfragetools. Heute sind praktisch alle
Datenbanken von Haus aus oder optional mit OLAP-Features ausgestattet. Für den OLAP-Einsatz auch in
kleineren Unternehmen eignet sich der relativ preisgünstige SQL Server von Microsoft; OLAP gibt es jedoch auch
bei den Hauptkonkurrenten Oracle und IBM. Kostspieliger, aber leistungsfähiger sind spezialisierte
Datenbankprodukte wie TM1 von Applix und Essbase von Hyperion. Diese ehemals auf die Basissoftware
fokussierten Hersteller wenden sich jedoch zusehends der Entwicklung analytischer Applikationen zu; die
OLAP-Datenbanken sind heute nur ein Teil ihrer Produktepalette. "Die Datenbankhersteller betrachten wir nicht
als Konkurrenz - der DB2-OLAP-Server stammt übrigens sogar von uns. Wir gestalten vielmehr unsere
Essbase-Technologie so, dass zur eigentlichen Datenhaltung sowohl unsere eigene Engine als auch beliebige
SQL-Datenbanken wie Oracle und DB2, in Zukunft auch der MS-SQL-Server, eingesetzt werden können. Wir
betrachten uns gerne als die Schweiz der BI-Software", sagt John Kopcke und meint damit wohl, man spreche
alle Sprachen und verstehe sich bestens mit der ganzen Welt. Andere Hersteller wie Cognos, Brio, ProClarity
(ehemals Knosys) und MIS (übernahm Intellicube) konzentrieren sich ganz auf Abfrage und Analyse.
• Data Mining unterscheidet sich methodisch grundlegend von OLAP: Hier geht es nicht um Online-Abfragen
durch den Benutzer, sondern um die automatisierte Analyse historischer Daten anhand eines eigens erstellten
Modells, die vorher nicht bekannte Beziehungen und Trends ans Licht bringen soll. Data-Mining-Tools wie der
Enterprise Miner von SAS, Clementine von SPSS, der Genio Miner von Hummingbird sowie die integrierten
Data-Mining-Features von Datenbanken wie Oracle 9i eignen sich zur Analyse grosser Datenbestände und bieten
sich dann an, wenn noch keinerlei Anhaltspunkte bekannt sind, welche Erkenntnisse aus den Daten gewonnen
werden können. Neben diesen Spezialtools, die sich nur von geschulten Experten nutzbringend einsetzen lassen,
kommen Data-Mining-Techniken auch in den branchenspezifischen analytischen BI-Paketen zum Zug.
• Werkzeuge zur Datenvisualisierung waren früher die Domäne von Naturwissenschaftern und Statistikern.
Nackte Zahlenkolonnen in textorientierten Spreadsheets und Reports machen aber allgemein wenig Freude.
Zunehmend kommen Visualisierungstools auch im Management-Umfeld zum Einsatz. Der Hauptunterschied zu
herkömmlichen Businessgrafiktools: Fortgeschrittene Visualisierungen sind interaktiv manipulierbar und
kombinieren Daten aus verschiedenen Quellen, zum Beispiel Umsätze mit geografischen Angaben, und
präsentieren sie in der für den jeweiligen Zweck anschaulichsten Form, zum Beispiel auf einer Karte. Besonders
interessant sind Anwendungen wie der Cognos Visualizer, der Ergebnisse von Scorecard-Analysen auf einer
ansprechend aufbereiteten Webseite auch technisch und methodisch ungeschulten Führungskräften zugänglich
macht - etwas gewagt könnte man von "Business Intelligence für die Massen" sprechen.
• Branchen- und anwendungsspezifische Analysepakete kombinieren Reporting, OLAP, Data Mining,
Visualisierung und oft auch die Data-Warehouse-Komponente unter einem Hut. Zusätzlich zu den vor ein, zwei
Jahren üblichen vertikalen Lösungen für Telcos, Autoindustrie oder Pharmazie sind heute auch
branchenunabhängig einsetzbare Pakete auf dem Markt, darunter die Finanzlösungen von Cognos und Hyperion.
Dabei handelt es sich nicht etwa um "bessere Buchhaltungspakete", sondern um analytisch orientierte Software
zur Unterstützung der Führungsaufgaben des CFO - Business-Prozesse wie Budget, Forecasting, Abschluss,
Analyse und Reporting werden zu einer einheitlichen Gesamtsicht auf die finanziellen Aspekte des Unternehmens
zusammengefasst und unterstützen, so Hyperion, den Finanzverantwortlichen auf seinem Weg vom blossen
Buchhalter zum missionskritischen Change Agent.
Trend zur Realtime-BI
Einer der interessantesten Business-Intelligence-Trends: Der traditionelle Graben zwischen den operativen
Systemen des Unternehmens auf der einen und dem Data Warehouse und den analytischen BI-Tools auf der
anderen Seite verschwindet allmählich.
Bisher war das Data Warehouse eine ziemlich statische Sache: Mit Hilfe der ETL-Tools brachte man das
Datenlager in monatlichen, wöchentlichen oder täglichen Intervallen auf den neuesten Stand. Das Resultat: Den
unternehmensinternen Analyseteams standen zwar historische Daten in Hülle und Fülle zur Verfügung; wirklich
aktuell war die Information aber nie. Das operationelle Geschehen und die Analyse waren stets zwei Paar
Schuhe. Nun kommt immer mehr Aktualität in die BI-Daten, wobei verschiedene Entwicklungen helfen: Dank
Datenaustausch-Standards wie XML und standardisierten Metadaten-Modellen wie CWM fällt die bisherige
Barriere zwischen den proprietären Systemen.
Business wird zunehmend online gemacht - bei E-Commerce-Transaktionen fallen sekundenaktuelle Daten an,
die sich leicht direkt ins Warehouse übertragen lassen. Ähnliches gilt für die Kundeninteraktion via
CRM-Systeme: Auch diese sind für hohe Transaktionsfrequenzen ausgelegt und werden durch die zusätzliche
Weitervermittlung der Daten ans Warehouse weniger belastet als die weniger flexiblen ERP-Systeme.
Neuartige Warehousing-Techniken wie das ETL-Tool TPump von NCR erlauben das Update des Data Warehouse
nahezu in Echtzeit.
Online-Services wie Centrus Realtime von Sagem, erhältlich vorerst aber nur in den USA, bereinigen im
ASP-Modus online erhaltene Kundendaten in Echtzeit, zum Beispiel von Besuchern der Firmen-Website, vom
CRM-System oder vom Point of Sale, und reichern sie mit Zusatzangaben wie demografischen Parametern an. Copyright by Swiss IT Media 2017 Copyright by Swiss IT Media 2017 
Herunterladen