Konzepte für den Erfolg mit Big Data Erfolg für vier gängige Szenarios Copyright ©2014 Pentaho Corporation. Weitergabe erlaubt. Alle Marken sind Eigentum der jeweiligen Inhaber. Aktuelle Informationen finden Sie auf unserer Website unter pentaho.de. Inhalt Inhalt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Derzeitige Übernahme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Aufkommende Übernahme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Data Warehouse-Optimierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Um was geht es und warum investieren Unternehmen in diese Optimierung? . . . . . . . . . . . . . . . . . . . . . . . . 5 Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Kernpunkte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Optimierte Datenaufbereitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Um was geht es und warum investieren Unternehmen in diese Optimierung? . . . . . . . . . . . . . . . . . . . . . . . . 6 Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Kernpunkte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 360-Grad-Ansicht von Kunden. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Um was geht es und warum investieren Unternehmen in diese Optimierung? . . . . . . . . . . . . . . . . . . . . . . . . 7 Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Kernpunkte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Daten monetarisieren. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Um was geht es und warum investieren Unternehmen in diese Optimierung? . . . . . . . . . . . . . . . . . . . . . . . . 9 Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Kernpunkte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Konzepte für den Erfolg mit Big Data PENTAHO 2 Einführung Mittlerweile hat es sich herumgesprochen, dass Big Data eine große Verschiebung in der Landschaft der Unternehmenstechnologie darstellt. Laut Schätzungen von IDC wächst die Menge an brauchbaren Daten weltweit zwischen 2010 und 2020 um das Zwanzigfache, während 77 % der für Unternehmen relevanten Daten bis 2015 nicht strukturiert sein werden.1 Da sich der Trend in Bezug auf Volumen und Diversität fortsetzt, stellen Unternehmen mehr und mehr auf Hadoop, NoSQL und andere Tools um, um große Datenmengen in den Griff zu bekommen, die mit älteren Technologien bestehend aus relationalen Datenbanken und Data Warehouses nicht mehr effizient verwaltet werden können. Obwohl die Chancen mit dem Einsatz von Big Data rasant wachsen, zeigen Untersuchungen, dass sich Unternehmen mit zwei großen Herausforderungen konfrontiert sehen: Wertschöpfung aus Big Data und Definition einer Big Data-Strategie.2 Im Hinblick auf diese Herausforderungen werden in diesem Dokument Big Data-Anwendungsfälle erörtert, die Geschäftsergebnisse für heutige Unternehmen generieren. Zudem wird ein Blick auf zukünftig zu erwartende Anwendungsfälle geworfen. Auf den folgenden Seiten werden diese Anwendungsfälle erläutert und erklärt, warum Unternehmen in diese investieren. Es werden außerdem werden die allgemeinen Referenzarchitekturen vorgestellt. 1 IDC Digital Universe Study, 2012. 2Gartner “Big Data Adoption in 2013 Shows Substance Behind the Hype,” 2013. 360-GradAnsicht von Kunden Derzeitige Übernahme Daten monetarisieren Optimierte Datenaufbereitung Data WarehouseOptimierung Optimieren GESCHÄFTLICHE AUSWIRKUNGEN Transformation Die Grafik unten zeigt zehn wichtige Big DataAnwendungsfälle für Unternehmen, die gemäß der Auswirkungen auf die Geschäftstätigkeit (y-Achse) sowie der Komplexitätsstufe der Implementierung (x-Achse) kategorisiert sind. Auswirkungen auf die Geschäftstätigkeit reichen von der Optimierung aktueller Prozesse bis hin zur Umwandlung des gesamten Geschäftsmodells. Komplexität reicht von Einstiegsimplementierungen, die auf Standardtechnologien basieren, bis hin zu fortgeschrittenen Anwendungsfällen, die auf einer Kombination aus Technologien basieren, von denen einige nicht im großen Maßstab vermarktet sind. Die Anwendungsfälle sind entweder als „Derzeitige Übernahme“ oder „Aufkommende Übernahme“ gekennzeichnet. Erstere gibt eine breit gestreute Implementierung von Anwendungsfällen an, die einfach zu wiederholenden Richtlinien folgen, während letztere Implementierungen beinhaltet, die noch nicht allgemein etabliert sind, deren wachsender Einsatz jedoch zukünftig erwartet wird. In diesem Dokument werden die Einzelheiten der „Derzeitige Übernahme“-Anwendungsfälle erläutert. On-Demand Big Data Blending Interne Big Data als Dienst Prognostische Analysen mit Big Data Anwendungen der nächsten Generation Aufkommende Übernahme Untersuchen von Big Data Einstieg KOMPLEXITÄT VON ANWENDUNGSFÄLLEN Konzepte für den Erfolg mit Big Data PENTAHO 3 Erweitert Die einzelnen Anwendungsfälle werden im Folgenden kurz definiert: DER ZEITIGE ÜBERNAHME Data Warehouse-Optimierung – Das herkömmliche Data Warehouse (DW) stößt durch immer größere Datenvolumen an seine Grenzen und kann keine zeitgerechten Analysen mehr bieten. Die Erweiterung der DW-Kapazität kann sehr teuer sein. Unternehmen setzen daher auf Big Data, um weniger häufig genutzte Daten auszulagern und die DW-Leistung zu erhöhen. Optimierte Datenaufbereitung – In diesem Zusammenhang ist der Big Data-Speicher der Dreh- und Angelpunkt für die Verarbeitung von Daten aus vielen verschiedenen Quellen, bevor diese in Analysen mit geringer Latenzzeit (meistens in eine Analysedatenbank für schnelle Abfragen) verschoben werden. Einsparungen bei den ETL- und Datenverwaltungskosten nehmen zu und Big Data wird ein wichtiger Teil des Analyseprozesses. 360-Grad-Ansicht von Kunden – Diese Ansicht basiert auf dem Blending von verschiedenen operativen und Transaktions-Datenquellen mit Big Data-Quellen zum Erstellen von On-Demand-Analyseansichten für die wichtigsten Kunden-Touchpoints. Darin enthalten ist auch die Bereitstellung von Informationen für kundenorientierte Mitarbeiter und Partner innerhalb von Branchenanwendungen, die sie täglich verwenden. Daten monetarisieren – In diesem Fall werden angereicherte und anonymisierte Datasets Drittanbietern als Dienst bereitgestellt. Hier werden leistungsstarke Datenverarbeitung und eingebettete Analysen genutzt, um dem Unternehmen eine neue Einnahmequelle zu eröffnen. AUFKOMMENDE ÜBERNAHME Erforschen von Big Data – Unternehmen lagern enorm große Datenmengen in Big Data-Speichern aus, aber nicht immer sind sie sicher, um welche Informationen es sich überhaupt handelt (so genannte „Dark Data“) und ob diese produktiv genutzt werden können. Um „einen ersten Eindruck zu erhalten“, führen Analysten Data MiningStandardalgorithmen durch, um Muster in Daten aus anderen Quellen zu erkennen. Nutzen von Maschinen- und Sensordaten – Bis vor kurzem war es noch unerschwinglich, Analysen mit großen Datenmengen von Geräten wie Sensoren, Routern und Set-Top-Boxen durchzuführen. Mittlerweile können diese Informationen jedoch mit Big Data für Data Mining und Analysen mit geringer Latenzzeit genutzt werden – was Unternehmen in die Lage versetzt, schnell auf Betriebsstörungen und Serviceprobleme zu reagieren. Prognostische Analysen mit Big Data – Big Data bietet einen neuen Satz an Tools zur Optimierung von Algorithmen für maschinelles Lernen (für Schulungsund Evaluierungszwecke) und zu deren Nutzung zur Vorhersage oder Beeinflussung von Ausgabe (Bewertung). Die Ausführung von prognostischen Analysen im Big Data-Speicher beinhaltet Anwendungen für die Betrugserkennung, Empfehlungsmaschinen und Angebotsoptimierung. Anwendungen der nächsten Generation – Obwohl Cloud Computing und SaaS keine neuen Trends darstellen, ist ihre nächste Phase höchstwahrscheinlich eng an Big Data gekoppelt. Anwendungsanbieter setzten auf Innovation bei der Daten- und Analysearchitektur, um ihre Produkte leistungsfähiger, intelligenter und wertvoller für Kunden zu machen. Eine eingebettete Analyseschnittstelle innerhalb der Endbenutzeranwendung ermöglicht dem Verkäufer, aus dieser Innovation umfangreich Kapital zu schlagen. Blending von Big Data On-Demand – Trotz der Implementierung von Big Data-Speichern sind Teams häufig den zeitlichen Beschränkungen der vorhandenen Data Warehouse-Infrastruktur ausgesetzt. Für zeitkritische Anforderungen ist die grundsätzliche Umgehung des Data Warehouse möglicherweise erforderlich. Das „punktgenaue“ Blending ersetzt die Bereitstellung von Daten und liefert die richtigen Daten zum richtigen Zeitpunkt aus allen Quellen für die Analyse. Interne Big Data als Dienst – Unternehmen nutzen Big Data als gemeinsamen Datenbankdienst, der für einige Anwendungsentwicklungsteams zur Aufnahme von und zum Zugriff auf Daten bereitgestellt wird. Ziel ist die Erreichung von Größen- und Kosteneinsparungen im Verhältnis zu einem eher silobasierten Ansatz. ETL- und Analyselösungen sind als Komponenten im zentralen Unternehmenspaket enthalten. Konzepte für den Erfolg mit Big Data PENTAHO 4 Data Warehouse-Optimierung PDI Aus diesem Grund haben Unternehmen ihren Blick auf Big Data gerichtet, insbesondere auf Hadoop, um diesen Druck zu reduzieren. Das Modell für verteilte Datenverarbeitung von Hadoop bietet eine leistungsstarke Verarbeitung auf gebrauchsüblicher Hardware und speichert Daten in HDFS (Hadoop Distributed File System). Die Kosten für dieses Modell unterschreiten in der Regel diejenigen für die herkömmliche Data Warehouse-Speicherung erheblich. Die Hadoop-Speicherkosten betragen zirka 1.000 US-Dollar pro Terabyte (TB) im Gegensatz zu zirka 5.000 bis 10.000 US-Dollar pro TB oder mehr für ein vollständig geladenes Data Warehouse (einschließlich Hardware, Server usw.)3 IT-Organisationen übertragen daher weniger häufig genutzte Daten aus ihrem Data Warehouse nach Hadoop, um unter Einhaltung der Vereinbarung zum Servicelevel und bei rechtzeitiger Datenbereitstellung Kosten für die Datenspeicherung einzusparen. AUFBAU In diesem Beispiel geht es um ein Unternehmen, das Daten aus CRM- und ERP-Systemen sowie aus anderen Quellen nutzt. Ein Hadoop-Cluster wurde implementiert, um weniger häufig genutzte Daten aus dem vorhandenen Data Warehouse auszulagern. Dabei werden Speicherkosten eingespart und die Abfrageleistung wird erhöht, wenn Analysten vom Analyse-Data Mart auf Informationen zugreifen müssen. Analytisches Data Mart PDI al er L ay er CRM- & ERP-Systeme Re la tio n UM WAS GEHT ES UND WARUM INVESTIEREN UNTERNEHMEN IN DIESE OPTIMIERUNG? Die Data Warehouse-Optimierung ist einer der häufigsten Anwendungsfälle für Big Data, die jedoch zwei erhebliche Schwachstellen aufweist: Kosten und betriebliche Leistung. Da das Volumen von Daten, die ein Unternehmen speichern und auf das es zugreifen muss, stetig zunimmt, stößt die vorhandene Data Warehouse-Kapazität an ihre Grenzen. Dies führt zu einer verschlechterten Abfrageleistung und einem langsamen Zugriff auf Daten für IT- und Geschäftsanwender. Zudem steigt der Druck, bei führenden Anbietern mehr Data Warehouse-Speicherkapazität zu erwerben – eine sehr kostspielige Angelegenheit und möglicherweise auch nur eine vorübergehende Lösung im Hinblick auf den stetigen Datenzuwachs. Data Warehouse PDI Andere Datenquellen Aufnehmen HadoopCluster KERNPUNK TE Obwohl die Data Warehouse-Optimierung einer der häufigsten Big Data-Anwendungsfälle ist, müssen dennoch Zeit, Anstrengung und Planung zur Ausführung aufgewendet werden. Hadoop zählt nach wie vor zu den aufstrebenden Technologien. Um jedoch die in den Hadoop-Distributionen enthaltenen vorinstallierten Tools verwenden zu können, sind Java-Programmierkenntnisse erforderlich, um Routinen zu erstellen, mit denen Data WarehouseDaten nach Hadoop ausgelagert werden. Für Unternehmen ist es oft nicht einfach, genügend geeignete Entwickler und Analysten mit HadoopErfahrung zu finden, abgesehen davon, dass deren Vergütung etwa 50 % über der der Experten mit Kenntnissen in SQL und anderen herkömmlicheren Tools liegt.4 Pentaho bietet eine intuitive grafische Benutzeroberfläche (GUI) für Big Data-Integration, die die manuelle Programmierung ersetzt und den Zugriff auf Hadoop für alle Datenentwickler gewährleistet. Dies beschleunigt die Amortisierung und spart Personalkosten. Auch wenn ein Unternehmen bereits über eine implementierte Integrationslösung verfügt, bieten alte Plattformen keine Lösungen ohne Programmierung, um vorhandene Datenquellen und Datenbanken mit Hadoop zu integrieren. 3 Information Week, „How Hadoop Cuts Big Data Costs”, 2012. 4 O’Reilly, „2013 Data Science Salary Survey”, 2013. Konzepte für den Erfolg mit Big Data PENTAHO 5 Optimierte Datenaufbereitung UM WAS GEHT ES UND WARUM INVESTIEREN UNTERNEHMEN IN DIESE OPTIMIERUNG? Angesichts explodierender Volumen strukturierter Transaktions-, Kunden- und anderer Daten werden herkömmliche ETL-Systeme immer langsamer und Analysen können nicht mehr durchgeführt werden. Dank der „Datenaufbereitung“ können die meisten Datenquellen über einen skalierbaren Big Data-Verarbeitungs-Hub mit Hadoop für die Transformation optimiert werden. Die aufbereiteten Daten werden an eine Analysedatenbank für SelfService-Analysen von unterschiedlichen Daten mit einer geringen Latenzzeit weitergeleitet. Dieser Anwendungsfall ist oft eine logische Konsequenz der Kosteneinsparungen und der operativen Verbesserung der Data WarehouseOptimierung. An dieser Stelle werden mehr und komplexere Daten in Hadoop geladen – wodurch Hadoop nicht mehr nur ein Archiv ist, sondern eine Quelle mit wertvollen Geschäftsinformationen aus mehreren Quellen, die nur darauf warten abgefragt zu werden. Im Gegensatz zur Data WarehouseOptimierung ist dieser Anwendungsfall weitaus transformativer. Dank schnellerer Abfragen, schneller Einbindung und leistungsstarker Verarbeitung können Unternehmen anhand der Kombination aus Hadoop und einer Analysedatenbank (wie zum Beispiel Vertica oder Greenplum) nützliche Analysen von diversen Datenquellen mit großem Volumen durchführen. Gleichzeitig können Teams Datasets für prognostische Analysen schneller entwickeln. AUFBAU Im Beispiel unten wird eine Aufbereitungsarchitektur für einen Vermarktungsdienstleister für elektronische Medien zwecks Bereitstellung personenbezogener Angebote erstellt. Online-Kampagnen-, Registrierungs- und Transaktionsdaten werden via Hadoop aufgenommen, verarbeitet und an eine Analysedatenbank gesendet. Ein Geschäftsanalyse-Front-End bietet Berichterstellung und Ad-hoc-Analyse für Geschäftsanwender. KERNPUNK TE Die Herausforderungen an die Mitarbeiter und die Produktivität in Bezug auf die DW-Optimierung existieren nach wie vor. Darum überrascht es kaum, dass die Rendite mit Tools erhöht werden kann, die die Programmierung ersetzen und den Analyzer Transaktionen – Batch & Echtzeit PDI Registrierungen & Einlösungen PDI HadoopCluster AnalyseDatenbank Berichte Ort, E-Mail, sonstige Daten Prozess der Integration von Big Data-Speichern in verschiedene relationale Systeme vereinfachen. Auf der anderen Seite stellt dieser Anwendungsfall generell ein umfangreicheres und langwieriges Integrationsprojekt dar, für das die Konsolidierung vieler Punkt-zu-Punkt-Systemverbindungen in ein zentrales Hub-Modell erforderlich ist. Die Durchführung des Projekts wird komplexer, je vielfältiger die Datentypen und Datenquellen sind. Um so wichtiger ist es, sich für Datenintegrationsund Analyseplattformen mit einer äußerst flexiblen Verbindung zu einem breiten Spektrum an aktuellen und zukünftigen Datensystemen zu entscheiden. Aufgrund der immer wichtiger werdenden analytischen Einblicke aus Hadoop in diesem Anwendungsfall rückt auch die Zusammenarbeit zwischen Datenentwicklern und Geschäftsanalysten in den Fokus. Für Datenanbindung und Business Intelligence ist eine integrierte Plattform erforderlich. Wenn IT- und Geschäftsanwender getrennte Toolsets verwenden, ist eine effektive Zusammenarbeit weitaus schwieriger. Eine Analysedatenbank wird normalerweise als Hauptteil dieser Architektur betrachtet. Diese Datenbanken werden in der Regel durch schnellere Abfrageleistung, größere Skalierbarkeit, mehrdimensionale „Analysewürfel“ bzw. speicherinterne Funktionen für Business Intelligence optimiert. Im Vergleich dazu erreichen herkömmliche Transaktionsdatenbanken möglicherweise nicht das Niveau an Abfrageleistung und Analysefunktionen. Konzepte für den Erfolg mit Big Data PENTAHO 6 360-Grad-Ansicht von Kunden UM WAS GEHT ES UND WARUM INVESTIEREN UNTERNEHMEN IN DIESE OPTIMIERUNG? Schon lange versuchen unsere Kunden, verschiedene Datenquellen zu vereinen, um eine On-Demand-Analyseansicht für die wichtigsten Kunden-Touchpoints zu erstellen. Durch die Nutzung von Big Data und herkömmlichen Datenquellen in einem vollständig integrierten System können Unternehmen dieses Ziel erreichen und eine umfangreiche Einsicht in Kundendaten gewinnen. Im Gegensatz zur DW-Optimierung und der optimierten Datenaufbereitung, bei denen es sich primär um kosten- und effizienzgesteuerte Anwendungsfälle handelt, zielt die 360-Grad-Ansicht von Kunden klar auf die Steigerung des Customer-LifetimeValue ab, besonders in wettbewerbsintensiven Konsumentenmärkten, in denen Kundenabwanderung ein wichtiger Faktor ist (zum Beispiel Telekommunikationsunternehmen, Gastronomie und Finanzdienstleister). Die beiden wichtigsten Erfolgsfaktoren sind wachsende Cross-Selling- und Up-Selling-Einnahmen sowie die Minimierung der Kundenabwanderung. Dieser Anwendungsfall wird über das Back-End durch das Vereinen aller Daten der Kunden-Touchpoints in einem einzelnen Repository für schnelle Abfragen (höchstwahrscheinlich NoSQL oder Hadoop) ermöglicht. Das Front-End unterstützt diesen Anwendungsfall, indem die relevanten Messgrößen an einem zentralen Ort für Geschäftsanwender zusammengeführt werden. Durch das Blending von zuvor getrennten Daten können Vertriebs- und Serviceteams mit der 360-Grad-Ansicht von Kunden ein besseres Verständnis des Käufers erlangen und sich ein genaueres Bild darüber machen, wie die Produkte und Dienstleistungen einer Marke aufgenommen werden. Ausgestattet mit diesen Einblicken können die Mitarbeiter während der Interaktion mit den Kunden weitaus produktivere und profitablere Entscheidungen treffen - und das unmittelbar. CRM-System Dokumente & Bilder PDI NoSQL Call CenterAnsicht PDI ResearchAnalysten Verwaltungsinfos Ansprüche Prognostische Analyse OnlineInteraktionen AUFBAU Im Beispiel oben speichert ein Finanzdienstleistungsunternehmen Daten aus verschiedenen Quellen in einem einzelnen Big Data-Speicher, in diesem Fall NoSQL. Von dort aus werden die Daten verarbeitet und auf der Ebene einer eindeutigen Kunden-ID zusammengefasst, um eine 360-Grad-Ansicht zu erstellen. Präzise und verwaltete Kundendaten werden an die entsprechenden Analyseansichten für jede Rolle weitergeleitet, einschließlich der Call Center-Mitarbeiter, der Analysten und der Datenexperten. KERNPUNK TE Wenngleich diese Implementierung den jeweiligen Unternehmensbereichen großen Nutzen bringen kann, kann sie dennoch äußerst komplex und ressourcenintensiv sein. Zusätzlich zu den Herausforderungen bezüglich der personellen Big Data-Ressourcen und die in den vorherigen Abschnitten erläuterten Anforderungen aufgrund der Punkt-zu-Punkt-Integration setzt die 360-Grad- Die beiden Hauptfaktoren für Erfolg ist die Steigerung von Cross-Selling- und Upselling-Umsätzen und die Minimierung der Kundenabwanderung. Konzepte für den Erfolg mit Big Data PENTAHO 7 Ansicht von Kunden eine erhebliche strategische Planung aus Geschäftsperspektive dar. Zunächst sollten bestimmte die Einnahmen betreffenden Ziele mit dem Projekt verknüpft werden. Die jeweiligen Interessensgruppen müssen die potenziell treibenden Kräfte für Kundenzufriedenheit und mögliche Verkaufschancen für die Mitarbeiter mit Kundenkontakt ermitteln, die Vorteile aus diesen Daten ziehen. Parallel dazu müssen die jeweiligen Endanwender Teil des Planungsprozesses sein, damit Informationen aus den richtigen Quellen an die richtigen Personen auf die richtige Art und Weise geliefert werden. Analysen müssen den Anwendern so präsentiert werden, dass sie sicher angenommen werden. Dies bedeutet, dass der Zugriff einfach sein muss, die Inhalte einfach zu verstehen sind und die Analysen in wichtige operative Anwendungen eingebettet werden können. Aus technischer Perspektive kann eine NoSQLLösung wie MongoDB der bevorzugte Big DataSpeicher sein, wenn ein Unternehmen viele zeitkritische Kundenstromdaten in eine einzelne Sammlung weiterleiten möchte, die schnell und einfach auf die Server verteilt werden kann. Hadoop ist eher geeignet, wenn die Daten in Batches verarbeitet werden und historisch gespeichert werden müssen. Häufig werden sowohl Hadoop als auch NoSQL in derselben Architektur verwendet. Die Integration der jeweiligen Big Data-Speicher in die unterschiedlichsten Back-End-Anwendungen und Datenbanken ist entscheidend, doch aller Voraussicht nach werden auch neue Front-End-Anforderungen auftreten. Verschiedene Nutzer von Kundenanalysen erfordern unterschiedliche BI-Typen. Dazu zählen: >Intuitive und anpassbare Dashboards für Führungskräfte >Anspruchsvolle und intuitive Slicing- und DicingTools für Analysten >Verteilte Berichterstellungsfunktionen für die gemeinsame Verwendung von Informationen in Teams >Tools für Data Mining und prognostische Analysen für Datenexperten >Analysen, die in operative Software wie CRM- und Service-Anwendungen eingebettet werden können Aus Perspektive der Technologiekompatibilität und Lieferantenbeziehungen ist es sinnvoll, sich nach Daten- und Analyseanbietern umzusehen, die die meisten bzw. alle dieser Funktionen in einer integrierten Plattform bereitstellen. Gleichzeitig sollte eine Verpflichtung seitens der Anbieter bestehen, Big Data-Integrationsfunktionen bereitzustellen, die sich im Laufe der Zeit nahtlos in Technologieänderungen integrieren lassen – wodurch die Neukonfiguration einer Projektbereitstellung minimiert und die Belastbarkeit maximiert werden kann. Die Fähigkeit, sich verändernden Kundenbedürfnissen und Datenarchitekturen zu begegnen, ist in einem anspruchsvollen Projekt wie der 360-Grad-Analyse von Kunden von großer Bedeutung. Aus Perspektive der Technologiekompatibilität und Lieferantenbeziehungen ist es sinnvoll, sich nach Daten- und Analyseanbietern umzusehen, die die meisten bzw. alle dieser Funktionen in einer integrierten Plattform bereitstellen. Konzepte für den Erfolg mit Big Data PENTAHO 8 Daten monetarisieren UM WAS GEHT ES UND WARUM INVESTIEREN UNTERNEHMEN IN DIESE OPTIMIERUNG? Die Kosteneffizienz von Big Data und die Fähigkeit zur Verarbeitung unterschiedlicher Datenstrukturen eröffnet viele Möglichkeiten, das Hauptgeschäft eines Unternehmens zu erweitern. Es bietet aber auch das Potenzial zum Hinzufügen neuer strategischer Einnahmeströme, die sich in vielerlei Hinsicht vom Kerngeschäft unterscheiden. „Daten monetarisieren“ ist ein solcher Anwendungsfall – er ermöglicht den Verkauf der Daten selbst. Kunde (anonym) Analyse PDI PDI & Daten Abrechnung HadoopCluster AnalyseDatenbank Netz Standort Da Unternehmen in ihrem täglichen Geschäft immer mehr und vielseitigere Daten sammeln, steigt deren potenzieller Wert für Drittanbieter zunehmend. In diesem Anwendungsfall werden die Daten organisiert, aufbereitet und anonymisiert (zwecks Datenschutz für die Personen oder Unternehmen, von denen die Daten stammen), bevor sie verkauft werden – in der Regel an externe Auftraggeber aus dem Bereich Marketing. Ein Telekommunikationsunternehmen kann beispielsweise Standortdaten von Mobiltelefonen zu verschiedenen Tageszeiten sammeln und die erfassten Datasets an ein Handelsunternehmen verkaufen, um Geschäftsstandortentscheidungen zu unterstützen. Daraus ergibt sich eine neue Einnahmequelle für das Telekommunikationsunternehmen, da seine Daten dem Handelsunternehmen, das bisher althergebrachte Methoden verwendet hat, dabei helfen, seine Kunden auf intelligentere Art und Weise zu erreichen. AUFBAU Im Beispiel unten kombiniert ein Telekommunikationsunternehmen demografische und Mobilitätsdaten, um Drittanbietern unter Nutzung von raumbezogenen Visualisierungen einen spezialisierten Analysedienst bereitzustellen und das Kaufpotenzial für den Einzelhandel zu ermitteln. Für diesen Anwendungsfall wird eine Hadoop- und eine Analysedatenbank verwendet. KERNPUNK TE Gartner sagt voraus, dass die Datenbestände von Unternehmen im Jahr 2016 zu 30 Prozent monetarisiert sein werden5 – dies stellt eine echte Verkaufschance dar und die Nutzung der richtigen Big Data-Tools und Ansätze kann dieses Potenzial freigeben. Im Vergleich zu kostspieligeren Data Warehouse-Lösungen können im Anwendungsfall „Daten monetarisieren“ mit Hadoop als Verarbeitungsplattform Kosten reduziert und höhere Renditen erzielt werden (mindestens 5 bis 10 Mal billiger pro TB, siehe „Data Warehouse-Optimierung“). Rentabilität und Amortisierung werden mit den Funktionen für die Big Data-Integration, für die keine Programmierung erforderlich ist, und für die Geschäftsanalysen weiter verbessert. Für die Bereitstellung von Analysen als Dienst für Drittanbieter ist möglicherweise die Einbettung von Berichterstellungen und Visualisierungen in eine dem Unternehmens-Branding entsprechende Webanwendung erforderlich. Die offene Architektur und die visuelle Flexibilität von Pentaho eignen sich hervorragend für diesen Ansatz. 5Gartner, „Gartner sagt voraus, dass die Datenbestände von Unternehmen im Jahr 2016 zu 30 Prozent monetarisiert sind“, 2013. Konzepte für den Erfolg mit Big Data PENTAHO 9 Hauptsitz Citadel International - Suite 340 5950 Hazeltine National Dr. Orlando, FL 32822, USA Tel.+1 407 812 6736 Fax+1 407 517 4575 Vertrieb (USA und weltweit) 353 Sacramento Street, Suite 1500 San Francisco, CA 94111, USA Erfahren Sie mehr über Pentaho Business Analytics Tel.+1 415 525 5540 Gebührenfrei +1 866 660 7555 Vereinigtes Königreich, übriges Europa, Naher Osten, Afrika London, Großbritannien Tel.+44 7711 104854 Gebührenfrei (UK) 0 800 680 0693 FR ANKREICH Niederlassung - Paris, Frankreich Tel.+33 97 51 82 296 Gebührenfrei (Frankreich) 0800 915343 DEUTSCHL AND, ÖSTERREICH, SCHWEIZ Niederlassung - Frankfurt, Deutschland Tel.+49(0)89 / 37 41 40 81 Gebührenfrei (Deutschland) 0800 186 0332 BELGIEN, NIEDERL ANDE, LUXEMBURG Niederlassung - Antwerpen, Belgien Tel.+31 6 52 69 88 01 Gebührenfrei (Belgien) 0800 773 83 Copyright ©2014 Pentaho Corporation. Weitergabe erlaubt. Alle Marken sind Eigentum der jeweiligen Inhaber. Aktuelle Informationen finden Sie auf unserer Website unter pentaho.de. 14-033-v2 pentaho.de/contact 0800 186 0332