HANA – ein Paradigmenwechsel

Werbung
SZENE
In-memory Computing Conference 2012, Düsseldorf
SAPs In-memory-Technologie verspricht reduzierte Systemlast
HANA – ein
Paradigmenwechsel
SAP propagiert HANA als Paradigmenwechsel und Innovation
für den Schlüssel zum Erfolg. Was ist aber tatsächlich von
der Aussage „Mit SAP In-memory Computing als Teil Ihrer
Anwendungen heben Sie Ihr Denken, Planen und Arbeiten auf
ein höheres Niveau“, zu halten? Welche SAP-Kunden profitieren
von der neuen Technologie? Wir analysieren HANA in fünf Teilen.
Von Hinrich Mielke, Consulting Manager bei Realtech
© olly, Shutterstock.com
Teil 1, die Technologie unter HANA:
In-memory-Datenbanken versprechen
eine exorbitante Geschwindigkeitssteigerung beim Zugriff auf Daten. Durch
deren Ablage im Hauptspeicher sind
Zugriffszeiten im Bereich von 100 Nanosekunden (10 -9) möglich, während ein
Zugriff auf Festplatten etwa fünf Millisekunden (10 -3) benötigt. Rein theoretisch
lässt sich der Datenzugriff also um den
Faktor 50.000 beschleunigen. Um jedoch große Datenbanken mit mehreren
Dutzend Terabyte im Hauptspeicher
halten zu können, ist eine Reduktion des
benötigten Speicherplatzes erforderlich.
HANA ist in der Lage, Daten spaltenorientiert abzulegen. Zur Minimierung
des benötigten Hauptspeichers komprimiert HANA redundante Daten, was bei
einer spaltenorientierten Datenhaltung
deutlich besser gelingt als bei einer zeilenorientierten. Innerhalb einer Spalte
liegen stets Daten der gleichen Art (zum
Beispiel Kalenderdaten von Geburtstagen), die sich aufgrund ihrer Ähnlichkeit
effektiv komprimieren lassen. Die Effekte
dieser Kompression sind stark von den
eingesetzten Daten abhängig. Quellen
Hinrich Mielke arbeitet als Consulting
Manager bei Realtech
und
verantwortet
dort die Themenbereiche IT-Operations
und Managed Services. In dieser Funktion ist er auch für die
Beratungsleistungen
rund um SAP HANA
zuständig. Zuvor war
er bei Realtech als
Berater in diversen Kundenprojekten tätig
und sammelte reichlich Erfahrung in internationalen Einsätzen.
54
berichten von einer Kompression über
die gesamte Datenbank um den Faktor
1:7, eine weitere Steigerung gegenüber
den 1:5, die sich in den ersten Tests ergaben. Hier zeigt sich die dynamische
Weiterentwicklung von HANA. In manchen Kundenszenarien berichten die beteiligten Fachleute sogar von einer Kompression von 1:50. Darüber hinaus kann
bei dieser Technologie aufgrund der Geschwindigkeit des Datenzugriffs weitgehend auf Indizes verzichtet werden. Dies
spart nicht nur Platz, sondern eliminiert
auch die Programmlaufzeit zur Aktualisierung eines oder mehrerer Indizes.
Aber warum stattet man eine herkömmliche Datenbank nicht mit einem großen
Cache aus, um die Leistung zu steigern?
Dies würde lediglich den Symptomen
entgegenwirken, nicht jedoch den Ursachen. Denn so werden zwar Schreibvorgänge auf den Datenbestand optimiert,
jedoch nicht eliminiert, wie es bei einer
In-memory-Datenbank der Fall ist. Darüber hinaus ist der Lese-Cache weniger
speichereffizient als eine In-memoryDatenbank.
Das Designziel einer herkömmlichen
Datenbank besteht darin, zeitraubende
Zugriffe auf das Plattensubsystem zu minimieren, denn jeder Zugriff kostet rund
fünf Millisekunden. Dafür setzt das System Hauptspeicher und Programmcode
ein und hält manche Daten sogar mehrfach vor. Das Designziel einer In-memory-Datenbank unterscheidet sich davon
jedoch maßgeblich: Da ein Zugriff auf
das Plattensubsystem nicht mehr vorhanden ist, kann eine Optimierung auf
effektive Speichernutzung und effiziente
Nutzung der CPU abzielen. Zusammenfassend bleibt festzuhalten, dass eine Inmemory-Datenbank das Problem massiv
steigender Datenmengen bei gleichzeitig
nicht adäquat steigender Verarbeitungsgeschwindigkeit elegant an der Ursache
löst. SAP lobt einen Wettbewerb aus, in
dem Kunden angeben können, ob bestimmte Abfragen jetzt eher 10.000 Mal
schneller sind oder ob sie eher 100.000
Mal schneller sind. Um das ins Verhältnis zu setzen: Der erste Mondflug hat
gut acht Tage gedauert. Bei einer Beschleunigung um den Faktor 10.000
wäre diese Reise zum Mond und zurück
in 70 Sekunden abgelaufen. Der potenzielle Nutzen einer In-memory-Datenbank geht jedoch weit über den technischen Aspekt einer Beschleunigung des
Datenzugriffes hinaus.
Teil 2, Offensive gegen Oracle: SAP
behagt es seit Langem nicht, dass Oracle
an mehr als 70 Prozent der SAP-Installationen durch den Verkauf von Datenbanklizenzen und -wartung mitverdient.
Der Versuch, die Dominanz von Oracle
mit der SAP-eigenen MaxDB zu reduzieren, hat bisher lediglich eine begrenzte
Wirkung gezeigt. Da der Wechsel einer
Datenbank unter einem SAP-System mit
Aufwand verbunden ist, versuchen Kunden, diesen Schritt zu vermeiden. Der für
die Transition notwendige Aufwand bedarf guter Argumente, die Wechselbereitschaft ohne weitere Motivation ist gering.
Mit der Entwicklung von HANA haben
sich die Rahmenbedingungen grundlegend geändert: Es besteht ein deutlich
höherer Anreiz zum Wechsel der Datenbankplattform. Denn HANA ist nicht nur
eine weitere Datenbank – HANA eröffnet
durch diesen massiven Geschwindigkeitszuwachs ungeahnte Möglichkeiten.
Ob Oracle diese Einschätzung ebenfalls
teilt? Einige Tendenzen deuten darauf
hin, dass der US-Konzern in HANA eine
reale Bedrohung für das eigene Datenbankgeschäft sieht.
E-3 JUNI 2012
In-memory Computing Conference 2012, Düsseldorf
Systemlast vor HANA: Hohe Systembelastung durch Extraktion,
Verarbeitung und Import der Daten in SAP BW.
Teil 3, OLAP entfesseln: Die unterschiedlichen Anforderungen an OLTP(Online Transaction Processing) und
OLAP-Systeme (Online Analytical Processing) ließen sich bisher nur durch eine
technische Trennung adäquat erfüllen.
OLAP-Systeme unterlagen noch stärker
als OLTP-Systeme den Einschränkungen
und Leistungsgrenzen der existierenden
Hardware, insbesondere der Plattensubsysteme. Damit OLAP-Systeme den Anforderungen der Anwender entsprechend
funktionierten, waren Kompromisse und
Einschränkungen nötig. Im Vorfeld haben Business-Warehouse-Spezialisten
zusammen mit der Fachabteilung die
gewünschten Abfragen definiert und das
OLAP-System entsprechend konfiguriert. Um die Performance des Systems
zu verbessern, werden die Daten häufig
aggregiert und sind damit ungenauer
im Vergleich zur ursprünglichen Vorlage. Beispielsweise liegen keine tagesgenauen Vertriebsinformationen mehr
vor, sondern nur noch wochen- oder
monatsgenaue Vertriebsinformationen.
Hier bietet sich HANA als Datenbank für
ein OLAP-System an. Durch die massive
Beschleunigung einer In-memory-Datenbank fallen viele der bisher vorhandenen
Restriktionen und Einschränkungen ersatzlos weg. Dies wird von SAP durch die
aktuelle Freigabe von HANA für BW 7.3
unterstützt. Jedoch geht der potenzielle
Nutzen von HANA weit darüber hinaus.
Teil 4, OLAP versus OLTP? OLAP
und OLTP! Eine technische Trennung von
OLTP- und OLAP-Systemen bedingt eine
komplexe Anbindung des OLAP-Systems
an das OLTP-System. OLAP-Systeme
werden durch ETL-Prozesse (Extraction,
Transformation und Load) aus OLTPSystemen mit den entsprechenden
Daten befüllt. Dies erzeugt einen hohen
Aufwand und verringert die Flexibilität.
Das Extrahieren der Daten aus einem
OLTP-System kann eine beachtliche Last
auf dem OLTP-System erzeugen. Die
Transformation der Daten muss sorgfältig erfolgen, um insbesondere beim
Zusammenführen von Daten aus unterschiedlichen Quellen zu stimmigen
E-3 JUNI 2012
SZENE
Reduzierte Systemlast mit HANA.
Ergebnissen zu kommen. Nach dem
Load-Prozess liegen die Daten dann im
OLAP-System vor, sind jedoch je nach
Ausprägung des ETL-Prozesses bereits
nicht mehr aktuell. Eine elegante Auflösung für diese vielfältigen Beschränkungen besteht im Einsatz von HANA:
Aufgrund der Leistungsfähigkeit bietet
es sich an, die traditionelle Trennung von
OLTP und OLAP einfach aufzuheben. Dadurch reduziert sich der Aufwand beim
Erstellen der ETL-Prozesse massiv, und
Berichte sowie Auswertungen basieren
auf Echtzeitdaten, es liegt keine Latenz
der Daten mehr vor. Zudem sind die zugrunde liegenden Daten in keiner Weise
mehr aggregiert, was beispielsweise ein
detailliertes Drill-Down ermöglicht.
Teil 5, Angriff auf andere ERP-Anbieter: Sobald die Vorteile des Berichtswesens in „real-realtime“ sichtbar und
spürbar geworden sind und diese Verbesserungen auch zu ergebniswirksamen
Beiträgen führen, wird der Druck steigen,
die betriebswirtschaftlichen Anwendungen zu konsolidieren. Denn ein Punkt
bleibt weiterhin bestehen: Selbst wenn
ECC und BW auf einem technischen System laufen, gibt es nach wie vor Fremdanwendungen. Es existiert zum Beispiel
ein Siebel-System, um die Kundendaten
zu verwalten. Die darin enthaltenen
Daten sind für ein zielführendes Berichtswesen wichtig und müssen daher
in SAP BW integriert werden. Für jedes
Fremdsystem ist nach wie vor ein ETLProzess zu erstellen und kontinuierlich
zu pflegen, was die Flexibilität bei Auswertungen einschränkt. Die Daten liegen
daher möglicherweise nicht in Echtzeit
vor. Der Wechsel einer Business-Applikation (zum Beispiel von Siebel zu CRM)
ist jedoch mit noch deutlich stärkeren
Vorbehalten und Herausforderungen
verbunden, als es bei Datenbanken der
Fall ist. Hier muss der daraus resultierende Kundennutzen bedeutend sein:
Neue Anwendungen und die bereits genannten Vorteile von HANA können und
sollen Kunden dazu bewegen, Fremdsysteme aufzulösen und deren Funktionalität mit integrierten SAP-Anwendungen
abzubilden. Dies ist der Kern der SAPStrategie: Um in einem weitestgehend
gesättigten Marktumfeld den Marktanteil
zu vergrößern, muss der Kundennutzen
deutlich steigen, um das Beharrungsvermögen zu überwinden. SAP erhöht den
Wert und den Nutzen der eigenen Applikationen entscheidend durch die Inmemory-Technologie von HANA. Somit
lässt sich dieser Paradigmenwechsel wie
folgt zusammenfassen: „Technology drives business“. Und das bei Kunden der
SAP, bei SAP und bei Realtech.
Fazit
All diese Neuerungen und Entwicklungen muss jedes Unternehmen, das
SAP-Applikationen einsetzt, in seinem
IT-Masterplan berücksichtigen. Das
heißt, sie berühren sämtliche SAP-Kunden. Daher sollten Unternehmen ihre bestehende Planung für neue Funktionen
oder einen Releasewechsel einer detaillierten Betrachtung unter Berücksichtigung dieser neu verfügbaren Technologie unterziehen. Eine solch frühzeitige
und mittel- bis langfristige Planung stellt
sicher, dass die IT-Abteilung zusammen
mit der Fachseite deren Anforderungen
gemeinsam angehen kann. So wird das
Business aktiv unterstützt. Dies ist eine
große Herausforderung gerade im Umfeld neu verfügbarer und noch wenig erprobter Technologien. Hier bietet es sich
an, mit externen Spezialisten zusammenzuarbeiten, die bereits über fundiertes Know-how im Technologiebereich
verfügen. Ebenso muss ein sicherer, kosteneffizienter Betrieb sichergestellt sein.
Um dies gewährleisten zu können, müssen Unternehmen sämtliche Betriebskonzepte und -verfahren überprüfen, da
sie durch diese neue Technologie neu zu
bewerten sind.
Bitte beachten Sie auch den
Community-Info-Eintrag ab Seite 99
55
Herunterladen