05. März 2007 - Whitepaper 03_07 Flexible Analysetechniken für kürzeren "time to market" Zeiten Intelligente Datamarts stärken Wettbewerbsvorteile. Bei maximaler Datenmenge auf schnellstem Weg zu entscheidungsrelevanten Informationen. Haben die Verantwortlichen aus den Fachabteilungen jederzeit Zugriff auf alle Daten (kontrollierte Information Democracy)? Haben die Analysten tatsächlich die Chance durch spontane Abfragen in zig Millionen Datensätzen auf Zusammenhänge zu stoßen, die den Umsatzrückgang auf eine für ältere Kunden ungeeignete Verpackungsgröße zurückführen lassen? Unter dem Begriff "time to market" (englisch, etwa: Vorlaufzeit, Produkteinführungszeit) versteht man die Zeitdauer von der Produktentwicklung bis zur Platzierung des Produkts am Markt. Produkte mit einem kurzen Produktlebenszyklus, wie in vielen Hightech Branchen der Fall, sollten idealerweise eine möglichst kurze "time to market" aufweisen. Nachahmer-Produkte bedeuten in aller Regel Preisverfall und sinkende Deckungsbeiträge. Das Unternehmen, das neue Zielgruppen und Bedürfnisse und damit Produktnutzen erkannt hat, sollte sich beeilen, diesen Informationsvorsprung bis zum Verkaufsabschluss zu halten. Eine wesentliche Voraussetzung dafür ist, dass dieser Wettlauf mit der Informationsauswertung strategisch gut vorbereitet wird. Schließlich müssen bis zur Auslieferung der Ware noch viele Managemententscheidungen hinsichtlich Sortimentspolitik, Distribution, Kommunikation etc. getroffen werden. Der zeitliche Aufwand für Planung und Aufbau von Analyseprozessen und die Auswahl von Softwarewerkzeugen und natürlich auch die Analyse von entscheidungsrelevanten Daten selbst, ist ein bestimmender Faktor für die Produkteinführungszeit. Diese Tatsache wird spätestens dann für jeden Unternehmer sichtbar, wenn es in den Fachabteilungen brennt, weil sich Umsätze und Kosten beim Produkt X in der Region Y, bei der Zielgruppe Z in einem bestimmten Zeitraums nicht halten lassen. Die besten Chancen einen kurzfristigen Wettbewerbsnachteil wieder auszubügeln haben diejenigen, die sofort mit der Ursachenforschung beginnen können und mit aktuellen Daten der untersten Granularitätsstufe nach der Wahrheit forschen können. Wer hier auf Quartals- oder Bilanzzahlen wartet, begibt sich in die Warteschleife. Abfragegeschwindigkeit hinsichtlich des Erreichens der Geschäftsziele und des Business Benefit Index. Mit einer höheren Abfragegeschwindigkeit zeigen beide Indikatoren tendenziell schlechtere Werte. Quelle: Deutschsprachige Ausgabe des OLAP Survey 2006 (BARC) Performance die Interaktivität ermöglicht, muss bei der notwendigen Datenfülle Antworten innerhalb von Sekunden bereitstellen können. Im aktuellen OLAP Survey 2006 ist die schlechte Abfragegeschwindigkeit bei weitem das häufigst genannte produktabhängige Problem seit Bestehen des Surveys. Datenknappheit ist nicht das Problem, eher die beschränkte Skalierbarkeit der Systeme oder die Datenstruktur vieler OLAP Anwendungen, die bei der Anzahl der Datensätze, Dimensionen und Kategorien 1 05. März 2007 - Whitepaper 03_07 schlichtweg Grenzen setzt. Neue Fragestellungen mit neuen oder neu strukturierten Dimensionen ziehen die Generierung immer neuer OLAP Würfel nach sich. Ein Aufwand den IT Abteilungen aus Zeitgründen und aus Sorge um Systemressourcen scheuen. Analysten werden schließlich dazu verdonnert mit Standard-Reports und grob granulären Daten zu arbeiten. Das Risiko eines verspäteten Erkenntnisgewinns steigt – schlechte Voraussetzungen für kurze Vorlaufzeiten im Marketing. Eine solide Informationsgrundlage liefert in der Regel ein Datawarehouse. Es enthält Daten hoher Qualität, die gepflegt und in sich stimmig sind. Eine schnelle Anpassung an geänderte Aufgabenstellungen gestaltet sich jedoch gerade aus diesem Grund recht aufwändig. Die Komplexität eines Datawarehouse steigt mit dem Umfang exponentiell an. Das Hinzufügen und Neuordnen von Daten wird zum zeitintensiven Faktor. Noch kritischer stellt sich die Lage für Mittelständler dar, die hier nicht in dem Maße in die Informationsgewinnung investieren können oder wollen, als dies für kürzere "time to market" Zeiten notwendig wäre. Der klassische Ansatz AnforderungenKonzeption-Realisierung nimmt hier zu viel Zeit in Anspruch und wir den gestellten Ansprüchen nicht gerecht. Ein praktischer Lösungsansatz für dieses Problem ist die Reduktion der Komplexität durch Beschränkung auf das Notwendigste. Dieser Ansatz bedeutet jedenfalls, dass mit Standardwerkzeugen wie Excel und Access schnell Ergebnisse erzielt werden können – nicht selten auf Kosten der Ergebnissicherheit und Flexibilität. Ab einer gewissen Datenmenge ist ein solches Vorgehen nicht mehr praktikabel. Die Einfachheit von Excel als Frontend in Verbindung mit hoch performanten Datenquellen mehrdimensionaler Rechenergebnisse wird in der Praxis mit Middlewarelösungen erreicht, die als Datamart zwischen operativen Datenquellen oder einem DataWarehouse und Frontends wie Excel, Access u.a. eingebunden werden. Einer der wenigen Vertreter dieser Analyse-Beschleuniger ist QueryObject vom italienischen BI Entwickler CrossZ Solutions und dem deutschen Systemhaus datamints Penzberg. GmbH aus dem bayerischen Warum sind solche Analysebeschleuniger wie QueryObject für die Industrie und Verwaltung so wichtig? Weil politische Entscheidungen beispielsweise, die auf Basis mehrdimensionaler Analysen mit 100 und mehr Millionen Datensätzen getroffen werden sollen, der IT keine Zeit geben. Hier zwei Beispiele für derartige, vornehmlich aus ROLAP Systemen stammenden Anforderungen: Fragen zur inneren Sicherheit Terrorismusbekämpfung und QueryObject Datamarts im Einsatz bei der italienischen Einwanderungsbehörde: Personendaten von Nicht-EU Bürgern können mit der QueryObject Analysetechnologie in wenigen Sekunden abgefragt und mit Daten aus weiteren Quellen verknüpft werden. Als Web-Anwendung (PHP/JSP) können Behörden landesweit auf diese Daten zugreifen, ohne dass bei jeder ad hoc Abfrage auf die zentrale "Immigration Database" zugegriffen werden muss. QueryObject Datamarts sind so konzipiert, dass Millionen Datensätze als wenige Megabyte kleine Datei abgelegt werden. Ein Security Layer garantiert die Sicherheit der read-only Dateien, die sehr einfach via EMail oder CD/DVD verteilt werden. Für die Analyse selbst ist kein OLAP Server notwendig. Diese kann jederzeit auch Offline auf dem Laptop des Analysten passieren. Die QueryObject Dateien verhalten sich gegenüber jedem Frontend mit ODBC Schnittstelle als relationale Tabelle. Selbst sehr komplexe mehrdimensionale Abfragen benötigen ausschließlich einfache SQL Befehle (keine MDX notwendig!). Die hohe Abfrageperformance erklärt sich daraus, dass jede theoretisch mögliche Berechnung mit den ins Datamart geladenen Daten bereits automatisch durchgeführt wurde. Ein sorgsames Haushalten mit Dimensionen und Ebenen und der Datenmenge wie bei OLAP Würfeln gewöhnlich der Fall, ist bei den QueryObject Datamarts nicht notwendig. Hier können die Analysten sehr großzügig vorgehen und sich somit viel 2 05. März 2007 - Whitepaper 03_07 Unabhängigkeit von Administratoren verschaffen. Wettbewerbsvorteile in der Telekommunikation Telefongesellschaften wie TIM, Wind, Telekom Italia, MCI Worldcom u.a. setzen die QueryObject Middleware nicht nur zur Analyse von Netzwerkperformance, TrafficDaten oder zur Aufdeckung offener Posten (Billing Reconciliation) ein. Analysen hinsichtlich Kundenabwanderung und Kaufverhalten sind die wichtigsten Maßnahmen, um möglichst schnell wieder zu einem bedürfnisgerechteren Tarifmodell zu kommen. Antwortzeiten bei Abfragen von zig Millionen Call Detail Records über einen Zeitraum von über einem Jahr stehen im Kundenservice von MCI im Vordergrund, die dem Anrufer damit Antworten schon nach wenigen Sekunden am Telefon liefern können. Eine kurze "time to market" setzt voraus, dass so genannte Decision Support Systeme, also OLAP-Systeme (Online Analytical Processing), den Entscheidungsträgern ein intuitives, schnelles und flexibles Manipulieren von Daten mittels vertrauter Geschäftsbegriffe ermöglichen. Dazu braucht es nicht nur schnelle, flexible Lieferanten von Rechenergebnissen sondern auch eine ebenso flexible Anwendung die den Rahmen setzt. In der Praxis erweisen sich Prozessmanagementsysteme, die als Framework aufgebaut sind, als sehr vorteilhaft. Neue Anforderungen lassen sich damit schnell zu einer betriebsfertigen Anwendung konfigurieren. Ein Beispiel eines solchen Frameworks stellt das Softwareprodukt "Der Analyzer" von der Firma DataIntelligence GmbH aus Bad Homburg dar. Der Analyzer bietet Datenanbietern (Datenbrokern) und deren Kunden aus Marketing- und Vertriebsabteilungen eine analytische Plattform auf der Daten beispielsweise aus dem Gesundheitswesen, schnell und unkompliziert für mehrdimensionale Abfragen zur Verfügung gestellt werden. Die Anwender führen diese Analysen in eigener Regie aus und werden nicht durch vorgefertigte Reports eingeschränkt. Die Browser ähnliche Oberfläche erlaubt Gelegenheitsnutzern einen schnellen Ein- stieg in die Bedienung und verlangt für tiefergehende Analysen keine Datenbankkenntnisse. Ein definiertes Datenmodell und die Verwendung von Metadaten ermöglichen es die Konfiguration des Analyzers so zu ändern, dass ohne zeitaufwändige Programmierung in kurzer Zeit eine völlig neue Anwendung entsteht. Als Beispiel dienen hier OutsourcingUnternehmen, die für regionale Energieversorger das komplette Datenmanagement übernehmen. Sie haben mit dieser Framework-Technologie die Möglichkeit auf veränderte Informationsbedürfnisse ihrer Kunden wesentlich flexibler zu reagieren. Die Kunden selbst (z.B. Stadtwerke) erhalten in kürzester Zeit einen Einblick in veränderte Verbrauchergewohnheiten ohne dazu eine eigene Business Intelligence Abteilung aufbauen zu müssen. Die Steuerung durch Metadaten bildet den Kern des Analyzer Frameworks. Metadaten sorgen dafür, dass die Struktur der Nutzdaten und die notwendigen Verarbeitungsschritte der Applikation bekannt gemacht und dem Nutzer angeboten werden. Um eine neue Applikation mit dem Analyzer zu realisieren, müssen zunächst die gewünschten Nutzdaten in eine entsprechende einladbare Form gebracht werden. Als Basis dient hier ein Sterndatenmodell, welches die einfache Auswertung von Dimensionen und Fakten nach allen möglichen Gesichtspunkten gestattet. Als nächstes werden die Meta-Daten eingerichtet, um diese Datenstruktur für die Verarbeitung je nach gewünschter Abfrage zugänglich zu machen. Das Ergebnis ist eine in wenigen Tagen erstellte Informationsanwendung für spezielle Bedürfnisse mit eigener Datenbank. Diese Datenbank lässt sich durch Zeitreihen weiter fortschreiben und wird dem Nutzer aktualisiert weitergegeben. Der Anwender stellt sich auf der Oberfläche die gewünschten Abfragen zusammen. Nach der Ausführung erhält er das Ergebnis in Form einer flexiblen Pivot-Darstellung, die dann weiter geändert oder exportiert werden kann. Um seinen individuellen Bedürfnissen nachzukommen, kann er sich die Nutzdaten durch Gruppierungen und Kom- 3 05. März 2007 - Whitepaper 03_07 binationen von Elementen selber strukturieren. Die Abfragen lassen sich abspeichern und können so an andere Anwender weitergegeben werden. Gleiches gilt auch für die Ergebnisse. Beim Analyzer handelt es sich technologisch um einen Datamart, der auf Hyperion Intelligence als Frontend und Sybase iAnywhere als relationale Datenbank für Nutz- und Metadaten basiert. Bei großen Datenmengen wird QueryObject als Basis für die vorberechneten Fakten eingesetzt. Die Kombination konfigurierbarer Einzelwerkzeuge ("best of breed") dürfte bei der Analyse von Business-Daten angesichts des hierzulande häufig kritisierten Wettbewerbnachteils langer Produkteinführungszeiten weiter an Bedeutung gewinnen. Die Autoren: Stefan Maier, Geschäftsführer der datamints GmbH, Systemhaus für Database Marketing www.datamints.com [email protected] Tel. 08856 – 80 20 435 Michael Beth, Geschäftsführer der DataIntelligence GmbH - Entwicklung von Business Intelligence Anwendungen www.dataintelligence.de [email protected] Tel. 06172 – 68118 35 Quellen: Abb. S.1 aus kostenfreie Leseprobe des OLAP Survey 6 (BARC, dt. Ausgabe) http://www.barc.de/fileadmin/barc/study/OLAP_Survey_06_Leseprobe.pdf 4