SZENE In-memory Computing Conference 2012, Düsseldorf SAPs In-memory-Technologie verspricht reduzierte Systemlast HANA – ein Paradigmenwechsel SAP propagiert HANA als Paradigmenwechsel und Innovation für den Schlüssel zum Erfolg. Was ist aber tatsächlich von der Aussage „Mit SAP In-memory Computing als Teil Ihrer Anwendungen heben Sie Ihr Denken, Planen und Arbeiten auf ein höheres Niveau“, zu halten? Welche SAP-Kunden profitieren von der neuen Technologie? Wir analysieren HANA in fünf Teilen. Von Hinrich Mielke, Consulting Manager bei Realtech © olly, Shutterstock.com Teil 1, die Technologie unter HANA: In-memory-Datenbanken versprechen eine exorbitante Geschwindigkeitssteigerung beim Zugriff auf Daten. Durch deren Ablage im Hauptspeicher sind Zugriffszeiten im Bereich von 100 Nanosekunden (10 -9) möglich, während ein Zugriff auf Festplatten etwa fünf Millisekunden (10 -3) benötigt. Rein theoretisch lässt sich der Datenzugriff also um den Faktor 50.000 beschleunigen. Um jedoch große Datenbanken mit mehreren Dutzend Terabyte im Hauptspeicher halten zu können, ist eine Reduktion des benötigten Speicherplatzes erforderlich. HANA ist in der Lage, Daten spaltenorientiert abzulegen. Zur Minimierung des benötigten Hauptspeichers komprimiert HANA redundante Daten, was bei einer spaltenorientierten Datenhaltung deutlich besser gelingt als bei einer zeilenorientierten. Innerhalb einer Spalte liegen stets Daten der gleichen Art (zum Beispiel Kalenderdaten von Geburtstagen), die sich aufgrund ihrer Ähnlichkeit effektiv komprimieren lassen. Die Effekte dieser Kompression sind stark von den eingesetzten Daten abhängig. Quellen Hinrich Mielke arbeitet als Consulting Manager bei Realtech und verantwortet dort die Themenbereiche IT-Operations und Managed Services. In dieser Funktion ist er auch für die Beratungsleistungen rund um SAP HANA zuständig. Zuvor war er bei Realtech als Berater in diversen Kundenprojekten tätig und sammelte reichlich Erfahrung in internationalen Einsätzen. 54 berichten von einer Kompression über die gesamte Datenbank um den Faktor 1:7, eine weitere Steigerung gegenüber den 1:5, die sich in den ersten Tests ergaben. Hier zeigt sich die dynamische Weiterentwicklung von HANA. In manchen Kundenszenarien berichten die beteiligten Fachleute sogar von einer Kompression von 1:50. Darüber hinaus kann bei dieser Technologie aufgrund der Geschwindigkeit des Datenzugriffs weitgehend auf Indizes verzichtet werden. Dies spart nicht nur Platz, sondern eliminiert auch die Programmlaufzeit zur Aktualisierung eines oder mehrerer Indizes. Aber warum stattet man eine herkömmliche Datenbank nicht mit einem großen Cache aus, um die Leistung zu steigern? Dies würde lediglich den Symptomen entgegenwirken, nicht jedoch den Ursachen. Denn so werden zwar Schreibvorgänge auf den Datenbestand optimiert, jedoch nicht eliminiert, wie es bei einer In-memory-Datenbank der Fall ist. Darüber hinaus ist der Lese-Cache weniger speichereffizient als eine In-memoryDatenbank. Das Designziel einer herkömmlichen Datenbank besteht darin, zeitraubende Zugriffe auf das Plattensubsystem zu minimieren, denn jeder Zugriff kostet rund fünf Millisekunden. Dafür setzt das System Hauptspeicher und Programmcode ein und hält manche Daten sogar mehrfach vor. Das Designziel einer In-memory-Datenbank unterscheidet sich davon jedoch maßgeblich: Da ein Zugriff auf das Plattensubsystem nicht mehr vorhanden ist, kann eine Optimierung auf effektive Speichernutzung und effiziente Nutzung der CPU abzielen. Zusammenfassend bleibt festzuhalten, dass eine Inmemory-Datenbank das Problem massiv steigender Datenmengen bei gleichzeitig nicht adäquat steigender Verarbeitungsgeschwindigkeit elegant an der Ursache löst. SAP lobt einen Wettbewerb aus, in dem Kunden angeben können, ob bestimmte Abfragen jetzt eher 10.000 Mal schneller sind oder ob sie eher 100.000 Mal schneller sind. Um das ins Verhältnis zu setzen: Der erste Mondflug hat gut acht Tage gedauert. Bei einer Beschleunigung um den Faktor 10.000 wäre diese Reise zum Mond und zurück in 70 Sekunden abgelaufen. Der potenzielle Nutzen einer In-memory-Datenbank geht jedoch weit über den technischen Aspekt einer Beschleunigung des Datenzugriffes hinaus. Teil 2, Offensive gegen Oracle: SAP behagt es seit Langem nicht, dass Oracle an mehr als 70 Prozent der SAP-Installationen durch den Verkauf von Datenbanklizenzen und -wartung mitverdient. Der Versuch, die Dominanz von Oracle mit der SAP-eigenen MaxDB zu reduzieren, hat bisher lediglich eine begrenzte Wirkung gezeigt. Da der Wechsel einer Datenbank unter einem SAP-System mit Aufwand verbunden ist, versuchen Kunden, diesen Schritt zu vermeiden. Der für die Transition notwendige Aufwand bedarf guter Argumente, die Wechselbereitschaft ohne weitere Motivation ist gering. Mit der Entwicklung von HANA haben sich die Rahmenbedingungen grundlegend geändert: Es besteht ein deutlich höherer Anreiz zum Wechsel der Datenbankplattform. Denn HANA ist nicht nur eine weitere Datenbank – HANA eröffnet durch diesen massiven Geschwindigkeitszuwachs ungeahnte Möglichkeiten. Ob Oracle diese Einschätzung ebenfalls teilt? Einige Tendenzen deuten darauf hin, dass der US-Konzern in HANA eine reale Bedrohung für das eigene Datenbankgeschäft sieht. E-3 JUNI 2012 In-memory Computing Conference 2012, Düsseldorf Systemlast vor HANA: Hohe Systembelastung durch Extraktion, Verarbeitung und Import der Daten in SAP BW. Teil 3, OLAP entfesseln: Die unterschiedlichen Anforderungen an OLTP(Online Transaction Processing) und OLAP-Systeme (Online Analytical Processing) ließen sich bisher nur durch eine technische Trennung adäquat erfüllen. OLAP-Systeme unterlagen noch stärker als OLTP-Systeme den Einschränkungen und Leistungsgrenzen der existierenden Hardware, insbesondere der Plattensubsysteme. Damit OLAP-Systeme den Anforderungen der Anwender entsprechend funktionierten, waren Kompromisse und Einschränkungen nötig. Im Vorfeld haben Business-Warehouse-Spezialisten zusammen mit der Fachabteilung die gewünschten Abfragen definiert und das OLAP-System entsprechend konfiguriert. Um die Performance des Systems zu verbessern, werden die Daten häufig aggregiert und sind damit ungenauer im Vergleich zur ursprünglichen Vorlage. Beispielsweise liegen keine tagesgenauen Vertriebsinformationen mehr vor, sondern nur noch wochen- oder monatsgenaue Vertriebsinformationen. Hier bietet sich HANA als Datenbank für ein OLAP-System an. Durch die massive Beschleunigung einer In-memory-Datenbank fallen viele der bisher vorhandenen Restriktionen und Einschränkungen ersatzlos weg. Dies wird von SAP durch die aktuelle Freigabe von HANA für BW 7.3 unterstützt. Jedoch geht der potenzielle Nutzen von HANA weit darüber hinaus. Teil 4, OLAP versus OLTP? OLAP und OLTP! Eine technische Trennung von OLTP- und OLAP-Systemen bedingt eine komplexe Anbindung des OLAP-Systems an das OLTP-System. OLAP-Systeme werden durch ETL-Prozesse (Extraction, Transformation und Load) aus OLTPSystemen mit den entsprechenden Daten befüllt. Dies erzeugt einen hohen Aufwand und verringert die Flexibilität. Das Extrahieren der Daten aus einem OLTP-System kann eine beachtliche Last auf dem OLTP-System erzeugen. Die Transformation der Daten muss sorgfältig erfolgen, um insbesondere beim Zusammenführen von Daten aus unterschiedlichen Quellen zu stimmigen E-3 JUNI 2012 SZENE Reduzierte Systemlast mit HANA. Ergebnissen zu kommen. Nach dem Load-Prozess liegen die Daten dann im OLAP-System vor, sind jedoch je nach Ausprägung des ETL-Prozesses bereits nicht mehr aktuell. Eine elegante Auflösung für diese vielfältigen Beschränkungen besteht im Einsatz von HANA: Aufgrund der Leistungsfähigkeit bietet es sich an, die traditionelle Trennung von OLTP und OLAP einfach aufzuheben. Dadurch reduziert sich der Aufwand beim Erstellen der ETL-Prozesse massiv, und Berichte sowie Auswertungen basieren auf Echtzeitdaten, es liegt keine Latenz der Daten mehr vor. Zudem sind die zugrunde liegenden Daten in keiner Weise mehr aggregiert, was beispielsweise ein detailliertes Drill-Down ermöglicht. Teil 5, Angriff auf andere ERP-Anbieter: Sobald die Vorteile des Berichtswesens in „real-realtime“ sichtbar und spürbar geworden sind und diese Verbesserungen auch zu ergebniswirksamen Beiträgen führen, wird der Druck steigen, die betriebswirtschaftlichen Anwendungen zu konsolidieren. Denn ein Punkt bleibt weiterhin bestehen: Selbst wenn ECC und BW auf einem technischen System laufen, gibt es nach wie vor Fremdanwendungen. Es existiert zum Beispiel ein Siebel-System, um die Kundendaten zu verwalten. Die darin enthaltenen Daten sind für ein zielführendes Berichtswesen wichtig und müssen daher in SAP BW integriert werden. Für jedes Fremdsystem ist nach wie vor ein ETLProzess zu erstellen und kontinuierlich zu pflegen, was die Flexibilität bei Auswertungen einschränkt. Die Daten liegen daher möglicherweise nicht in Echtzeit vor. Der Wechsel einer Business-Applikation (zum Beispiel von Siebel zu CRM) ist jedoch mit noch deutlich stärkeren Vorbehalten und Herausforderungen verbunden, als es bei Datenbanken der Fall ist. Hier muss der daraus resultierende Kundennutzen bedeutend sein: Neue Anwendungen und die bereits genannten Vorteile von HANA können und sollen Kunden dazu bewegen, Fremdsysteme aufzulösen und deren Funktionalität mit integrierten SAP-Anwendungen abzubilden. Dies ist der Kern der SAPStrategie: Um in einem weitestgehend gesättigten Marktumfeld den Marktanteil zu vergrößern, muss der Kundennutzen deutlich steigen, um das Beharrungsvermögen zu überwinden. SAP erhöht den Wert und den Nutzen der eigenen Applikationen entscheidend durch die Inmemory-Technologie von HANA. Somit lässt sich dieser Paradigmenwechsel wie folgt zusammenfassen: „Technology drives business“. Und das bei Kunden der SAP, bei SAP und bei Realtech. Fazit All diese Neuerungen und Entwicklungen muss jedes Unternehmen, das SAP-Applikationen einsetzt, in seinem IT-Masterplan berücksichtigen. Das heißt, sie berühren sämtliche SAP-Kunden. Daher sollten Unternehmen ihre bestehende Planung für neue Funktionen oder einen Releasewechsel einer detaillierten Betrachtung unter Berücksichtigung dieser neu verfügbaren Technologie unterziehen. Eine solch frühzeitige und mittel- bis langfristige Planung stellt sicher, dass die IT-Abteilung zusammen mit der Fachseite deren Anforderungen gemeinsam angehen kann. So wird das Business aktiv unterstützt. Dies ist eine große Herausforderung gerade im Umfeld neu verfügbarer und noch wenig erprobter Technologien. Hier bietet es sich an, mit externen Spezialisten zusammenzuarbeiten, die bereits über fundiertes Know-how im Technologiebereich verfügen. Ebenso muss ein sicherer, kosteneffizienter Betrieb sichergestellt sein. Um dies gewährleisten zu können, müssen Unternehmen sämtliche Betriebskonzepte und -verfahren überprüfen, da sie durch diese neue Technologie neu zu bewerten sind. Bitte beachten Sie auch den Community-Info-Eintrag ab Seite 99 55