zum Interview

Werbung
ISSN 2364-3188
www.ciobriefing.de
CIOBRIEFING
Technology-Update für IT-Manager
11/2016
+++ Big Data als Schlüssel für die vorausschauende Wartung +++
Schrittweise Umsetzung der VdS-3473-Richtlinie +++ So vermeiden
Sie die 5 größten Fehler bei der Cloud-Migration +++ Hybride Netze –
MPLS, Internet VPN, SD-WAN & Co. +++ OpenStack – da kommt was
auf die Anwender zu +++ Für Anwender bringt der HDS-Lösungs-Stack
entscheidende Vorteile +++ Cloudera will Zugang zu M
­ aschinenintelligenz
erleichtern +++ Datenbanken auf Azure m
­ igrieren +++ Smartwatches
mit speziellen Business-Funktionen +++ OpenG & Shared-Spektrum
– WLAN und LTE verschmelzen +++ EMC/Dell-Fusion: Noch viele
­U nklarheiten im Detail +++ Portworx bringt Storage und Container
­zusammen +++
powered by
CIOBRIEFING
11/2016
MANAGEMENT & STRATEGIE
Big Data als Schlüssel für die vorausschauende Wartung..........................3
Schrittweise Umsetzung der VdS-3473-Richtlinie......................................7
So vermeiden Sie die 5 größten Fehler bei der Cloud-Migration............... 10
Hybride Netze – MPLS, Internet VPN, SD-WAN & Co.............................. 15
OpenStack – da kommt was auf die Anwender zu..................................20
Für Anwender bringt der HDS-Lösungs-Stack ­entscheidende Vorteile..... 24
TECHNOLOGIE & ZUKUNFT
Cloudera will Zugang zu ­Maschinenintelligenz erleichtern........................30
Datenbanken auf Azure ­migrieren...........................................................34
Smartwatches mit speziellen Business-Funktionen.................................38
OpenG & Shared-Spektrum – WLAN und LTE verschmelzen.................. 41
EMC/Dell-Fusion: Noch viele Unklarheiten im Detail.................................45
Portworx bringt Storage und Container zusammen.................................50
IMPRESSUM:
Vogel IT-Medien GmbH
August-Wessels-Str. 27
86156 Augsburg
Tel.: +49(0)821-2177-0
Fax: +49(0)821-2177-150
Email: [email protected]
Internet: www.vogel-it.de
Handelsregister Augsburg
HRB 1 19 43
Umsatzsteueridentifikationsnummer:
DE 127502716
Geschäftsführer: Werner Nieberle
Inhaltlich Verantwortliche gemäß § 55 Absatz 2 RStV:
Nico Litzel, Florian Karlstetter, Ulrike Ostler, Andreas Donner, Peter Schmitz, Rainer Gra efen (Anschrift siehe Verlag)
Vogel IT-Medien
Die Vogel IT-Medien GmbH, Augsburg, ist eine 100prozentige Tochtergesellschaft der Vogel Business Media, Würzburg. Seit 1991
gibt der Verlag Fachmedien für Entscheider heraus, die mit der Produktion, der Beschaffung oder dem Einsatz von Informationstechnologie beruflich befasst sind. Dabei bietet er neben Print- und Online-Medien auch ein breites Veranstaltungsportfolio an.
Die wichtigsten Angebote des Verlages sind IT-BUSINESS, eGovernment Computing, BigData-Insider.de, CloudComputing-Insider.de,
DataCenter-Insider.de, IP-Insider.de, Security-Insider.de, Storage-Insider.de.
Vogel Business Media
Das Fachmedienhaus Vogel Business Media ist einer der führenden deutschen Fachinformationsanbieter mit rund 100 Fachzeitschriften und 60 Webseiten sowie zahlreichen internationalen Aktivitäten. Hauptsitz ist Würzburg. Die Print- und Online-Medien bedienen
vor allem die Branchen Industrie, Automobil, Informationstechnologie und Recht/Wirtschaft/Steuern.
CIOBRIEFING
11/2016
Predictive Maintenance in der Automobilbranche
Big Data als Schlüssel für die
vorausschauende Wartung
Predictive Maintenance wird oft mit dem Blick in die
Glaskugel verglichen, dabei basieren die Vorhersagen
für drohende Ausfälle auf anspruchsvollen Analysen und
festgelegten Algorithmen. Mit einer hochwertigen Datenbasis, den richtigen Messungsgrundlagen und Herangehensweisen können mit diesem Modell Ausfallzeiten vorhergesagt, Schäden verhindert, Gewährleistungs- und
Wartungskosten gesenkt sowie die Kundenbindung gestärkt werden.
Predictive Maintenance ist und wird für Branchen, bei denen Maschinen zum Einsatz kommen, vor allem in Zukunft unumgänglich sein – insbesondere in der Automobilbranche findet dieser
Ansatz bereits großen Anklang.
Der harte Kampf der Automobilbranche
Bild: Alexander Thamm GmbH
Gerade die Automobilbranche hat immer wieder mit Rückschlägen und Imageverlusten zu kämpfen – Rückrufaktionen aufgrund
fehlerhafter Fahrzeugteile und der Abgasskandal sind nur zwei
Beispiele. Erst vor kurzem musste Toyota wieder Modelle zurückrufen, bei denen es zu Rissen in einem Aktivkohlefilter im
Tank und Airbag-Problemen gekommen war. Insgesamt muss der
japanische Autohersteller weltweit 3,4 Millionen Autos in die
Werkstatt bitten. Toyota ist dabei kein Einzelfall – neben hohen
Kosten für Wartung und Gewährleistung, leidet dadurch besonders die Beziehung zum Kunden.
Mithilfe von Predictive
Maintenance konnte ein
Automobilhersteller
­Kosten in Millionenhöhe
einsparen. Aufgrund von
Vorhersagemodellen
wurden im Rahmen des
nächsten Werkstatt­
besuches frühzeitig
­fehlerhafte Teile ausge­
tauscht.
Seite 3
CIOBRIEFING
11/2016
Doch wie lässt sich eine solche Fehlerquelle ermitteln, verhindern
oder gar vorhersehen? Die Antwort: mit Daten. Die voranschreitende Digitalisierung und neue Möglichkeiten, die durch das Internet of Things aufkommen, machen auch vor der Automobilbranche
nicht Halt, Connected Cars sind auf dem Vormarsch. Nicht nur
Kunden profitieren von der zunehmenden Vernetzung der Fahrzeuge, z. B. durch rechtzeitige Wartungsinformationen oder standortbasierte Empfehlungen, sondern auch Hersteller: Sie bekommen
ein tieferes Verständnis für Technologien, können ihre Produktentwicklung vorantreiben, die Kosten für Garantie und Gewährleistung senken und den Wert hinter den Daten besser nutzen.
In den (Echtzeit-)Fahrzeugdaten stecken wertvolle Informationen,
die es zu sammeln und analysieren gilt, denn dadurch können Vorhersagen über Ausfälle getroffen und Fehler vorhergesehen werden.
Kombiniert man diese Daten mit der Expertise der Komponentenentwickler, werden mittels Advanced Analytics neue Ansätze der
Qualitätssicherung – und Predictive Maintenance – möglich.
Datenanalyse als Basis für Predictive Maintenance
Um mögliche Fehlerquellen identifizieren bzw. vorhersagen zu
können, werden Muster definiert, um ein anfälliges Fahrzeug zuverlässig von einem „gesunden“ unterscheiden zu können. Unterscheidungs- beziehungsweise Hinweisquellen sind beispielsweise
Informationen über die Länge der zurückgelegten Strecken, die
Häufigkeit der Fahrzeugnutzung, die Durchschnittsgeschwindigkeit oder auch Witterungsverhältnisse.
Im nächsten Schritt werden die Daten für diese Parameter erhoben. Das erfolgt üblicherweise über ein Telematikmodul im
Fahrzeug. Bei älteren Generationen ohne Telematik können die
Informationen durch eine Fahrzeugauslesung in der Werkstatt
gewonnen werden. Diese Daten kann der Hersteller sowohl bei
intakten als auch defekten Fahrzeugmodellen ermitteln, um anschließend eine aussagekräftige Analyse durchführen zu können. Denn nur durch diese Gegenüberstellung läuft der Hersteller
nicht Gefahr, ein generelles Problem der Baureihe, das sowohl
bei kranken als auch bei gesunden Fahrzeugen auftritt, als eine
Anomalie anzusehen. Die Diskrepanzen zwischen beiden Fahrzeugtypen (krank und gesund) werden in einem Predictive-Analytics-Modell genau betrachtet und identifiziert.
Die präventive Wartung in der Praxis
Das Beispiel eines von der Alexander Thamm GmbH betreuten
Premiumautomobilherstellers zeigt, wie schwerwiegend Schäden
Seite 4
CIOBRIEFING
11/2016
innerhalb des Gewährleistungszeitraums sein können. In diesem
konkreten Fall drohten an einer Reihe von Fahrzeugen kapitale
Motorschäden aufgrund eines fehlerhaften Bauteils. Die potenziellen Reparaturkosten pro Fahrzeug hätten sich auf einen mittleren vierstelligen Betrag belaufen.
Der Automobilhersteller hatte nun zwei Möglichkeiten: Im Rahmen eines Rückrufs entweder bei allen betroffenen Fahrzeugen die notwendigen Teile wechseln oder einzeln prüfen, ob ein
Wechsel nötig ist. Oder keine Maßnahmen treffen und die aufgetretenen Schäden erst dann beheben, wenn sie bereits passiert
sind. Im ersten Fall lägen die Kosten pro Fahrzeug im oberen
zweistelligen Bereich. Insgesamt würde die umfassende technische Überprüfung aller Autos Kosten in Millionenhöhe verursachen und die öffentliche Rückrufaktion für einen Imageschaden
sorgen.
Die zweite Option würde zu Kosten im vierstelligen Bereich pro
Motorschaden führen. Außerdem müsste der Hersteller mit einer
hohen Kundenunzufriedenheit und einem nicht einschätzbaren
Sicherheitsrisiko rechnen.
Um die Kosten sowie den Imageverlust möglichst gering zu halten, musste eine Lösung entwickelt werden, mit der die vom Motorschaden betroffenen Fahrzeuge eindeutig von den „gesunden“
unterschieden werden konnten. Einen ersten Anhaltspunkt boten Indikatoren wie der Kilometerstand, der Verschleiß und die
Durchschnittsgeschwindigkeit, die im Zusammenspiel zu einem
Schaden führen können.
Auch hier wurden betroffene mit nicht betroffenen Fahrzeugen
verglichen. Durch die Implementierung des Algorithmus konnten
die Data Scientists der Alexander Thamm GmbH zum einen verhindern, dass „gesunde“ Modelle repariert wurden. Zum anderen
ließen sich fehlerhafte Teile aufgrund von Vorhersagemodellen
im Rahmen des nächsten Werkstattbesuches frühzeitig austauschen. Im Ergebnis konnte der Hersteller 75 Prozent aller betroffenen Fahrzeuge identifizieren und seine Gewährleistungskosten
um über 50 Prozent senken. Durch die Vermeidung möglicher
Pannen wurde zudem verhindert, dass Kunden ihr Vertrauen in
das Unternehmen verloren.
Mit Sicherheit in die Zukunft
Die Bedeutung und Verbreitung von Predictive Maintenance
in Unternehmen hat in den letzten Jahren stark zugenommen.
Seite 5
CIOBRIEFING
11/2016
Die datenbasierten Verfahren und Modelle zur vorausschauenden Wartung und Berechnung von Ausfallwahrscheinlichkeiten
schaffen nicht nur in der Automobilbranche, sondern auch in vielen weiteren Branchen einen enormen Mehrwert. Insbesondere
dort, wo der Mensch nur selten eingreift, wie bei Windkrafträdern, Flugzeugturbinen oder auch Lackierrobotern in Produktionsanlagen sind mathematische Vorhersagen über die nächste
Instandhaltung bzw. einen drohenden Ausfall wichtig.
Mit der Nutzung von Big Data und den Vorhersagemodellen können Unternehmen Kosten in Millionenhöhe verhindern und nicht
zuletzt auch die Kundenbeziehung und -zufriedenheit stärken.
Laut Statista wird der Umsatz im Bereich Predictive Maintenance bis 2020 auf 133,1 Millionen Euro steigen – aktuell liegt
der Umsatz bei ca. 24,2 Millionen Euro. Das unterstreicht die
hohe Bedeutung dieses Analytics-Anwendungsfalls.
■ Alexander Thamm
CIOBRIEFING
Technology-Update für IT-Manager
Mehr zum Thema Big Data finden Sie auf
www.bigdata-insider.de
Seite 6
CIOBRIEFING
11/2016
Vertrauen durch Sicherheit, Teil 2
Schrittweise Umsetzung der
VdS-3473-Richtlinie
Will man Security-Guidelines im Unternehmen einführen,
sind die ersten Schritte bekanntlich am schwierigsten.
Bei der Richtlinie VdS 3473 bekommt man aber ein wenig
Hilfe. In diesem Beitrag verraten wir, welche Maßnahmen
man vor der Einführung der Richtlinie ergreifen sollte und
wie sich das Rahmenwerk umsetzen lässt
Was einen bei der Umsetzung von VdS 3473 erwartet und wo Security-Nachbesserungen erforderlich sind, zeigt ein VdS-QuickCheck via Web-Fragebogen. Starte man den Check, erhält man
nach einer kurzen Bearbeitungszeit von etwa 20 Minuten eine
grobe Einstufung.
Dialog-orientiert arbeitet man sich durch einen kleinen Fragenkatalog und beantwortet dabei Schlüsselfragen zum IST-Zustand.
Die Hintergründe der Frage können dabei über ein Hilfe-Icon (?)
eingeblendet werden. Dies erlaubt es, die Anforderung besser zu
verstehen und die eigene Situation aus diesem Blickwinkel optimal zu beurteilen.
Hat man so alle Fragen beantwortet, erhält man eine tabellarische Ansicht, in der die einzelnen Themengruppen (Organisation, Technik, ...) und die Quick-Check-Schnellbeurteilung des
IST-Zustands angezeigt werden
Nach Abschluss des Quick-Checks kann man entweder selbst
eine Nachbesserung initiieren (um dann erneut einen QuickCheck durchzuführen) oder man holt sich bereits zu diesem Zeitpunkt einen VdS-Auditor ins Boot, der die Nachbearbeitung unterstützt. Dieser Auditor kann auch gleich einen kostenpflichtigen,
sogenannten Quick-Audit vornehmen und dabei ein Konformitätstestat auf Basis des VdS Quick-Checks ermitteln.
Bild: VdS
Mit dem VdS Quick
Check lässt sich der
­Ist-Zustand der CyberSicherheit im Unter­
nehmen in etwa
20 Minuten erfassen
Seite 7
CIOBRIEFING
11/2016
Die Kosten-Frage und Zertifizierungsablauf
Der Löwenanteil der Kosten wird für die Nachbesserung der aktuellen IST-Situation im eigenen IT-Umfeld anfallen. Denn die
VdS 3473 hat MUSS-Komponenten, die im Unternehmen ggf.
erstmal etabliert oder angepasst werden müssen.
Themen wie beispielsweise Funktionstrennung, Missbrauchskontrolle und Mitarbeiter-Schulung sind Zeit- und Kostenintensiv.
Dies erklärt möglicherweise auch, weshalb gegenwärtig nur drei
Unternehmen auf der VdS-Webseite aufgeführt sind, die nach
3473 zertifiziert wurden (Stand 4/2016).
Wie eine Zertifizierung im Idealfall abläuft, wird im Dokument
„Zertifizierung der Informationssicherheit in kleinen und mittleren Unternehmen (KMU)“ exemplarisch beschrieben. Hier wird
auch auf die Gebührentabelle (Modul Y) verwiesen, welche die
zu erwartenden Kosten für die Zertifizierung nennt.
Die Gebührentabelle (Stand: Januar 2016) führt diverse Einzeltätigkeiten bzw. Stundensätze auf, die additiv die Gesamtsumme ergeben. Für einen Quick-Audit, auf Basis des Quick-Checks,
können Kosten anfallen, die sich im (mittleren) vierstelligen Euro-Bereich bewegen.
Für den eigentlichen Audit inklusive der Zertifizierung kann man
mit einem hohen vierstelligen €-Betrag rechnen. Generell gilt, je
intensiver das Unternehmen seine Hausaufgaben bei der Umsetzung der Richtlinie gemacht hat und je besser diese Umsetzung verifiziert werden kann, desto preiswerter ist das gesamte Verfahren.
Letztendlich solle man aber ein Angebot einholen, dass ein VdSAuditor zu einem überschaubaren Preis ermitteln kann.
Zusammenfassung
KMUs können mit Umsetzung der VdS-Richtlinie 3473 Ihre
IT-Sicherheit auf ein stabiles Fundament stellen und das Unternehmen zukunftsorientiert ausrichten. Es ist ein Schritt in die
richtige Richtung! Es ist aber kein leichter Weg, aber wer ihn
beschreitet wird mittelfristig davon profitieren!
Wie steht es um den Aufwand, der Umsetzung der Richtlinie? Aus
der Praxis berichtet Stefan Klinger, VdS-Berater bei LivingData.
CIOBRIEFING: Herr Klinger, Sie als zertifizierter VdS-Berater
stehen an vorderster Front. Was sind die drei größten Herausforderungen, die Ihren Kunden bei der Umsetzung der VdS 34732
zu denken geben?
Seite 8
CIOBRIEFING
11/2016
Stefan Klinger: Da meine Kunden vor allem kleinere Unternehmen bis ca. 30 Mitarbeiter sind, ist das Bereitstellen der Manpower für den ISB eine große Herausforderung. Auch ist in diesem Umfeld meistens keine eigene IT-Abteilung vorhanden, die
IT wird von einem Mitarbeiter nebenbei mitgemacht, somit ist
eine Trennung zwischen den fast nicht vorhandene IT-Leiter und
den ISB wenn es überhaupt eine qualifizierte Person gibt kaum
möglich. In diesem Kundenkreis geht viel auf Zuruf, hier jetzt
strukturierte Prozesse einzuführen stößt teilweise auf großes
Misstrauen und es verlangt schon Überzeugung so ein System
durchzusetzen.
CIOBRIEFING: Für die Erstzertifizierung ist eine maximale
Laufzeit von 18 Monaten möglich. Schaffen die Anwärter dies
oder ist für die Mehrzahl der Unternehmen diese Zeitspanne zu
kurz?
Wenn die Akzeptanz vorhanden ist und die entsprechenden Mitarbeiter hinter dem Projekt stehen, dann sollte diese Zeitspanne
in der Regel ausreichend sein.
Nach Aussage auf der VdS-Webseite gilt „Mit ca. 20 % des Aufwandes im Vergleich zu ISO 27001 können KMU aus den VdSRichtlinien Maßnahmen und Prozesse ableiten, mit denen...“ ist
dieser Wert Ihre Einschätzung nach auf Dauer haltbar?
Wenn erst einmal die Einführung gemacht wurde, was den größten Zeitaufwand bedeutet, so denke ich, dass der Wert auf Dauer
schon zu halten ist.
■ Ralph Dombach
Seite 9
CIOBRIEFING
11/2016
Die Cloud im Mittelstand
So vermeiden Sie die 5 größten
Fehler bei der Cloud-Migration
Die Vorteile bei der Nutzung von Cloud-Technologien sind
hinlänglich bekannt, allen voran die damit verbundenen
Kosteneinsparungen und mögliche Wettbewerbsvorteile. Allerdings gibt es auch ein paar Stolperfallen, wenn
Unternehmen ihre Prozesse und Systeme in die Cloud
verlagern. Für diese gilt es vorzusorgen.
Bild: © vectorfusionart - Fotolia.com
Durch die Digitalisierung verändert sich auch die Erwartungshaltung der Kunden an neue und verbesserte IT-Services. Dass
durch die Nutzung der Cloud-Technologie je nach gewähltem
Cloud-Modell Hardware-, Software- und Betriebskosten eingespart werden können und so nachhaltig Wettbewerbsvorteile erzielt werden können, ist hinlänglich bekannt. Die Cloud bietet
darüber hinaus die Möglichkeit, neue Kunden-Services sehr
schnell und flexibel anzubieten. Allerdings gibt es auch ein paar
Stolperfallen, wenn Unternehmen ihre Prozesse und Systeme in
die Cloud verlagern. Für diese gilt es vorzusorgen.
Zusätzlich zu den rein technischen Überlegungen spielen auch
rechtliche und fachspezifische Aspekte eine entscheidende Rolle
bei der Migration in die Cloud. In der IT-Strategie eines Unternehmens sollte heutzutage festgeschrieben werden, wie die individuelle digitale Transformation für das eigene Unternehmen
aussieht und wie viel Cloud-Technologie zur Erreichung der langfristigen Geschäftsziele benötigt wird. Nur so lassen sich Unternehmensprozesse optimal unterstützen und eine schnelle Anpassung auf Kunden- und Marktänderungen sicherstellen. Gerade
mittelständische Unternehmen können von den Skaleneffekten
Cloud im Mittelstand:
Stolperfallen bei der
­Migration und wie man
sie vermeidet.
Seite 10
CIOBRIEFING
11/2016
der Cloud profitieren. Je mehr Services aus der Cloud bezogen
werden, desto stärker müssen sich IT-Verantwortliche als Business Service Provider verstehen, die Prozesse der Wertschöpfungskette unterstützen und ständig durch den sinnvollen Einsatz
von IT verbessern.
Viele Fehler bei der Migration in die Cloud lassen sich bereits im
Vorfeld durch eine überlegte und vielfach erprobte Vorgehensweise vermeiden.
Vorgehensweise zur erfolgreichen Migration in die Cloud
Fehler Nummer 1: Die Unternehmensziele sind nicht klar definiert und in der IT Strategie ist nicht festgehalten, wie mit dem
Thema Cloud umgegangen werden soll
Wenn in der IT-Strategie nicht klar formuliert ist, wie die CloudAusrichtung des Unternehmens für die nächsten Jahre aussehen
und welche Roadmap verfolgt werden soll, entstehen oft Insellösungen durch fachlich getriebene SaaS-Ansätze im Unternehmen.
Diese Cloud-Insellösungen verursachen an den Schnittstellen zu
anderen Systemen oder in der Interaktion mit den Mitarbeitern
oft einen hohen Aufwand. Das mindert die Produktivität und
lässt die Mitarbeiterzufriedenheit sinken.
Vermeidung: Ist in der IT-Strategie das Thema Cloud Computing verankert, so können mögliche Cloud-Szenarien abgeleitet
werden und die notwendigen organisatorischen Maßnahmen für
ihre Realisierung ergriffen werden. Eine Gesamtarchitektur, die
die Anforderungen aller Abteilungen aufgreift, kann so leichter
erstellt werden.
Fehler Nummer 2: Kaum Cloud-Erfahrungen
Die Nutzung von Cloud-Technologie erfordert, wie jede neue
technologische Entwicklung, neues Wissen und neue Erfahrungen. Beim Cloud Computing kommt verstärkt der Aspekt der
Datensicherheit zum Tragen, der beim eigenen Rechenzentrum
gerne als gegeben vorausgesetzt wird. Werden beispielsweise
Kundendokumente in die Cloud verschoben, sollte zuvor geprüft
werden, ob die Kunden einer Datenspeicherung in der Cloud zugestimmt haben. Schon vor Beginn der Migration sollte geklärt
werden, wie die Daten und Informationen bei Bedarf wieder aus
der Cloud abgezogen werden können, wenn etwa der Cloud-Anbieter gewechselt werden soll oder die Daten in ein lokales Rechenzentrum migriert werden.
Seite 11
CIOBRIEFING
11/2016
Oftmals fehlt im Unternehmen aufgrund von mangelnder Erfahrung das fachliche, rechtliche und technische Know-How, um alle
Aspekte des Cloud Computing abzudecken. Teilweise schlummert es bei Mitarbeitern in unterschiedlichen Abteilungen.
Vermeidung: Sorgen Sie im Unternehmen dafür, dass die notwendigen Cloud-Kompetenzen in einem Cloud-Team gebündelt werden. Hat das Unternehmen wenig Erfahrung mit Cloud
Computing, ist es sinnvoll, sich mit erfahrenen externen Mitarbeitern bzw. Experten zu verstärken.
Da sich nicht jedes Szenario für die Cloud eignet, bietet es sich
an, einen Prozess im Unternehmen zu etablieren, der prüft, ob
ein System oder Prozess überhaupt sinnvoll in die Cloud migriert werden kann. Die Aufgaben des mit der Umsetzung betrauten Cloud-Teams sind dabei sehr umfangreich. Das Wissen für
ein erfolgreiches Projekt sollte dabei aus den unterschiedlichsten
Abteilungen beigesteuert werden. Typischerweise setzen sich die
Cloud-Kompetenzen aus Mitarbeitern der Fach- und IT-Abteilung und dem Datenschutzbeauftragten zusammen.
Das Cloud-Team sollte idealerweise all diese Tätigkeiten abdecken:
●Aufnahme der Ist-Situation (Prozesse und Systeme)
●Nutzen für Anwender definieren
●Bewertung der Komplexität der Systeme und Festlegen der
Datensicherheitskriterien
●Erstellen einer Gesamtarchitektur (Hybride Szenarien, Schnittstellen)
●Anforderungen an die Infrastruktur (Hochverfügbarkeit)
Roadmap für die Migration (Beschreibung des Migartionspfad)
●Beurteilung, ob bestehende Applikationen für die Migration
neuentwickelt oder direkt migriert werden oder ob eine SaaS
Lösung in Frage kommt.
●Festlegen der Projektmethode
●Kommunikation innerhalb des Unternehmens und Wissensvermittlung.
Gibt es neue Anforderungen und Vorgaben, eine neue Applikation einzuführen, so beurteilt das Cloud-Team ob eine Neuentwicklung stattfinden soll oder ob es eine geeignete Cloud-Lösung
eines Anbieters gibt und mit welchem Aufwand diese in die IT
Landschaft integriert werden kann.
Seite 12
CIOBRIEFING
11/2016
Die Erfahrung hat gezeigt, dass ein solches Cloud-Team mit den
notwendigen Entscheidungskompetenzen und einem hohen Freiheitsgrad ausgestattet sein sollte. Nur so entstehen in diesem
Team kreative und innovative Ideen und eine erfolgreiche Projektierung.
Fehler Nummer 3: Cloud ist Cloud – wirklich?
Sind alle Szenarien beschrieben und die Mitarbeiter hoch motiviert, um die erste Umsetzung in der Cloud durchzuführen, stellt
sich die Frage nach dem richtigen Cloud Provider. Es muss entschieden werden, ob eine Private oder Public Cloud am besten
geeignet ist und welche Verfügbarkeit und Flexibilität am besten
zum Unternehmen passt. Danach erfolgt die Auswahl des geeigneten Cloud Providers. Der Preis darf dabei nie das einzig entscheidende Kriterium sein!
Cloud Provider unterscheiden sich sehr oft in essentiellen Bereichen, wie der regionalen Datenhaltung, der garantierten Verfügbarkeiten, den erfüllten Sicherheitsnormen und verwendeten
Zertifikaten. Auch die technischen Voraussetzungen, die beim
Kundenerfüllt sein müssen, sind oft unterschiedlich.
Vermeidung: Ein Kriterienkatalog an die Anforderungen, die
sich aus der Gesamtarchitektur ergeben, dient als gute Grundlage
für die Wahl des richtigen Cloud-Anbieters. Dem Ziel eine Abhängigkeit vom eigenen Cloud Provider unbedingt zu vermeiden,
sollte dabei oberste Priorität eingeräumt werden.
Fehler Nummer 4: Die Migration mit der komplexesten
­Applikation starten
Oft wird bei der Migration der Ansatz gewählt, die komplexeste
Anwendung zuerst zu migrieren. Die Gründe hierfür sind nachvollziehbar. Wird die umfangreichste Applikation zuerst in die
Cloud ausgelagert, dann sind die meisten Prozesse, Schnittstellen
und Daten involviert. Hat es erst einmal diese komplexe Anwendung in die Cloud geschafft, sollten die folgenden Projekte ein
Klacks sein.
Vermeidung: In der Theorie mag das stimmen, in der Praxis hat
sich allerdings gezeigt, dass es viel zielführender ist, zunächst
die einfachste Applikation zuerst zu migrieren. Hierbei kann man
im Kleinen lernen, ob die angedachten Methoden funktionieren.
Auch der zeitliche Aufwand und das Risiko zu Scheitern sind
deutlich geringer und damit die Aussicht auf den Projekterfolg
Seite 13
CIOBRIEFING
11/2016
höher. Die dabei gemachten Erfahrungen schulen Projektmitarbeiter für größere, komplexere Migrationsszenarien. Ein solches
Vorgehen sendet auch eine starke Botschaft nach innen, denn
wenn die erste erfolgreiche Migration offensiv unternehmensintern kommunizieren wird, stärkt das bei allen Mitarbeitern das
Vertrauen in die IT und die Unternehmensausrichtung.
Fehler Nummer 5: Beim Betrieb wird die IT-Abteilung nicht
mehr gebraucht, da über SLAs alles geregelt wird
Auch wenn das Unternehmen alle Services aus der Cloud bezieht, wird die IT nicht überflüssig. Im Zuge der Digitalisierung
wird IT-Wissen immer wichtiger. Die Erwartungen der Fachabteilungen an die IT-Abteilungen, neue Services immer schneller
und flexibler zur Verfügung zu stellen, steigen.
Vermeidung: Das Anforderungsprofil der IT-Mitarbeiter muss
sich verschieben: weg von der reinen Spezialisierung hin zu einem breiten IT-Know-How mit starkem Prozesswissen.
Auch die Beurteilung, ob die oft standardisierten Service Level
Agreements der Cloud Provider wirklich die gewünschte Flexibilität für das Unternehmen bieten, bedarf weitreichender ITKenntnisse und langjähriger Erfahrung. Das gleiche gilt für die
Überwachung der per SLA geschuldeten Leistungen.
Fazit
Schon am Anfang der Planung für eine Migration in die Cloud,
sollte ans Ende gedacht werden. Um eine große Abhängigkeit
vom ausgewählten Cloud Provider zu verhindern, hilft es, sich
Gedanken zu machen, welchen Aufwand es bedeutet, die Daten
zu einem anderen Provider umzuziehen. Eine gute Planung und
die richtige Vorgehensweise sind die Erfolgsfaktoren für eine erfolgreiche die Migration in die Cloud und die Erfüllung aller Erwartungen.
■ Jürgen Rother
Seite 14
CIOBRIEFING
11/2016
Im WAN bewegt sich was!
Hybride Netze – MPLS, Internet
VPN, SD-WAN & Co.
Viele globale Firmen betreiben für die Standortvernetzung bereits zwei parallele Strukturen: MPLS und Internet VPN. Dabei ist es sehr aufwändig, die beiden
Transportstrukturen miteinander zu verheiraten und das
Gesamtwerk technisch und vertraglich zu managen. Hybride Netze und SD-WAN können hier Abhilfe schaffen.
Zu Zeiten monolithischer MPLS-WAN-Infrastrukturen und zentraler Datenhaltung war es sinnvoll, sich im Bereich globaler
Netzwerke auf einen einzigen Provider festzulegen. Heute ist es
zunehmend schwierig, den geschäftlichen Anforderungen hinsichtlich Agilität und Kosteneffizienz im WAN gerecht zu werden. Bei der Ansteuerung hybrider Netzwerkverbindungen gibt
es jedoch erheblichen technischen Fortschritt. Auch sind die ersten SD-WAN Strukturen im Markt erhältlich.
Treiber für hybride Netze
Bild: MPC Service
Die heutigen Anforderungsprofile verlangen regionale Datenhaltung in mehreren Rechenzentren, lokalen Internetzugang und
Zugriff auf Cloud Services. Das klassische aber teure MPLSNetzwerk ist nach wie vor die Plattform der Wahl für kritische
Anwendungen mit CoS (Class of Service). Besonders bandbreitenintensive Anwendungen werden jedoch im Sinne eines Traffic
Offloadings zunehmend auf die günstigere Internet-VPN-Plattform ausgelagert. Die notwendige Security-Infrastruktur
(Firewalls) ist dabei aufgrund der Absicherung des lokalen Internet Access meist schon vorhanden. Und die notwendigen Internetzugänge werden für einen lokalen Internet Breakout gleich
mitbenutzt.
Nach dem LAN ist nun
der Bereich der Weit­
verkehrsvernetzung
dran, über Software-­
Defined-Architekturen
revolutioniert zu werden.
Seite 15
CIOBRIEFING
11/2016
Ein weiterer Treiber für den Betrieb einer Internet-VPN-Struktur
ist die Agilität, die das heutige Geschäft hinsichtlich des Auf baus
von neuen Anbindungen verlangt: Ein Internet Access ist global,
insbesondere von lokalen Providern, mit deutlich kürzeren Delivery-Zeiten zu bekommen als eine MPLS-Anbindung.
Potential und Fallstricke
Die Zusammenschaltung der qualitativ hochwertigen Transportplattform MPLS mit einer kostengünstigeren zweiten Transportplattform wie einem Internet-VPN zu einem hybriden Netz
ermöglicht also eine Einsparung von Kosten und bietet höhere
Flexibilität – zumindest theoretisch. In der Praxis entsteht jedoch
eine höhere Komplexität für das technische, operative und vertragliche Management des hybriden Netzes.
Die WAN-Provider können (oder wollen) meist keine Internetanschlüsse im internationalen Umfeld bereitstellen. Deshalb erfolgt
die Beauftragung von Internetzugängen insbesondere bei global
agierenden Unternehmen häufig durch die lokale Unternehmenseinheit. Dies führt dazu, dass in der Unternehmenszentrale die Transparenz über Verträge verloren geht. Im operativen Bereich können
die Anschlüsse nicht ins Monitoring und Reporting übernommen
werden und die Störungsbearbeitung wird erschwert. Ein übergreifendes Service Management und SLA-Reporting existieren nicht.
Um das Potential des hybriden Netzes technisch zu erschließen
muss der vom LAN ausgehende Traffic auf Applikationsebene
identifiziert, klassifiziert und der geeigneten Transportplattform
zugewiesen werden. Bei Ausfall einer Transportebene hat eine Umschaltung auf die jeweils andere, bereits aktiv mit Traffic belegte,
Transportebene zu erfolgen. Diese Aufgaben im Rahmen einer intelligenten, technischen Overlay-Struktur werden heute meist von
internen Kräften geleistet, weil für Plattform-übergreifende Services noch kein Vertrag mit einem WAN-Provider existiert.
Mit Einzug der neuesten Hardware-Generation in die Backbones bekommen die etablierten Provider jetzt Gelegenheit, über
einen virtualisierten Software Layer neue, integrierte Services
über unterschiedliche Transportplattformen zu entwickeln. Kleine, neu gegründete Provider bieten bereits heute unglaublich leistungsfähige Services und Produkte an.
Intelligentes Routing ist der Schlüssel
Der Ansteuerung des hybriden WAN kommt eine Schlüsselfunktion zu. Das entsprechende Routing kann wie eine intelligente
Seite 16
CIOBRIEFING
11/2016
Overlay-Struktur verstanden werden. An jedem Standort müssen
zumindest die Anwendungen identifiziert und auf den passenden
Verbindungsweg geschickt werden. Eventuell ist ein übergreifendes Backup bereits implementiert. Vorteil: Bei Ausfall der MPLSAnbindung wird direkt auf Internet-VPN umgeroutet. Ein üblicherweise passiver MPLS-Backupweg kann so eingespart werden.
Das ist aber erst der Anfang. Neuere Konzepte gehen beim Routing deutlich weiter. Dazu werden verschiedene technische Features in Kombination genutzt. Hier ein paar Beispiele für fortgeschrittene Features:
●Multi-Link: Alle vorhandenen Links werden aktiv genutzt.
So können z.B. preiswerte Breitbandanbindungen und LTE bis
hin zu hochwertigem MPLS in eine Multi-Link Anbindung
einbezogen werden. Entsprechend der unterschiedlichen Qualitäten der vorhandenen Links werden die klassifizierten Applikationen auf die Links verteilt.
●Link-State-Überwachung: Einige Controller leisten im laufenden Betrieb eine periodische, aktive Überwachung des
Link-Zustandes. Die Qualität jeder Anbindung wird in dabei
Bezug auf Jitter, Laufzeit und Paketverlust laufend geprüft
und in die Routing-Entscheidung mit einbezogen.
●Per-Packet Routing: Das Routing erfolgt nicht per Traffic
Flow, also per Anwendung, sondern per Paket. Das erlaubt unabhängig von der Transportschicht die Aufteilung eines Flows
bzw. einer Anwendung über mehrere Links. Weiterer Vorteil:
Die Umschaltung auf Backupanbindungen erfolgt ohne Abbruch der laufenden Sessions.
Meist ist für die Nutzung der fortgeschrittenen Features der Einsatz spezieller Controller erforderlich. Die Controller sind in
Form von proprietären Appliances, teils aber auch als Software
für eine virtuelle Maschine erhältlich. Natürlich unterstützen die
Controller auch Features wie CoS und VRF (Virtual Routing and
Forwarding). So können die Qualitäten bestehender MPLS-Anbindungen weiterhin genutzt werden.
Cloud Gateways und SD-WAN
Weil die modernen Unternehmensnetze nicht mehr intrinsisch
nur die eigenen Standorte verbinden, sind verschiedene Arten
von Breakouts nötig. Neben dem klassischen Internetzugang
werden heute zunehmend mehr und wichtigere Services aus der
Cloud bezogen.
Seite 17
CIOBRIEFING
11/2016
Ein Cloud Access über den Internetzugang ist jedoch ungesichert
und bietet lediglich eine Best Effort Performance. Warum also
nicht das hybride Netz für einen gesicherten und performanten
Cloud Access nutzen?
Software-Defined WAN (SD-WAN)
SD-WAN-Provider ermöglichen es dem Kunden, über eine Weboberfläche verschiedene Parameter des Netzes als Self-Service
einzustellen. Dahinter liegen automatisierte Abläufe, z.B. für
Provisionierung und Billing.
Manche SD-WAN-Provider bieten ein unternehmensweites Management der verteilten Controller über den Zugriff auf einen Orchestrator an. Dieser ermöglicht eine Richtlinien-basierte Konfiguration der Controller über eine einfache Benutzeroberfläche.
Das Rollout der Controller muss der Kunde zwar selbst vornehmen, aufgrund der simplen Plug&Play-Inbetriebnahme der Controller können jedoch teure On-Site-Technikereinsätze vermieden
werden.
Ein weiterer Vorteil von SD-WAN ist die Möglichkeit, auf ein
Echtzeit-Monitoring zuzugreifen. Insbesondere in Verbindung
mit einer Link-State-Überwachung durch die Controller können
bei der Bearbeitung von Störungen wichtige Erkenntnisse sofort
selbst gewonnen und im Nachgang die SLA-Einhaltung der Anbindungs-Provider kontrolliert werden.
Fazit
Es tut sich was im WAN-Bereich. Neue Komponenten ermöglichen die intelligente Nutzung verschiedenster Anbindungsformen. Junge Anbieter fordern die etablierten Provider mit Services heraus, die den Anforderungen der Kunden an Flexibilität
und Transparenz besser gerecht werden.
Der Weg vom hybriden WAN, mit seinen noch bestehenden technischen und organisatorischen Einschränkungen, hin zum SDWAN mit mehr Transparenz, Performance und Flexibilität, ist
vorgezeichnet. Trotz dieser Entwicklung wird das MPLS VPN
als Transportplattform innerhalb des hybriden Netzes auch weiterhin eine wichtige Rolle spielen.
Der Markt für voll gemanagte, hybride Netzwerke wie auch für
SD-WANs mit Self-Service entwickelt sich gerade erst. Es gibt
daher noch keine Standards oder Best-Practice-Ansätze. Umso
Seite 18
CIOBRIEFING
11/2016
mehr Fingerspitzengefühl und Erfahrung benötigen Unternehmen heute, um eine WAN-Lösung zu finden, die im aktuellen
Marktumfeld den zukünftigen Anforderungen entspricht.
■ Jürgen Rother
CIOBRIEFING
Technology-Update für IT-Manager
Mehr zum Thema Netzwerke finden Sie auf
www.ip-insider.de
Seite 19
CIOBRIEFING
11/2016
Interview mit Hartwig Bazzanella, Verband
­Innovatives Rechenzentrum
OpenStack – da kommt was
auf die Anwender zu
OpenStack ist ein heißes Thema, mit der Anwendung
aber zögern viele Anwender. Dafür gibt es durchaus gute
Gründe, aber trotzdem sollte man sich eingehender damit befassen. Denn es geht um mehr als Hybrides oder
Private Cloud Computing.
CIOBRIEFING: OpenStack ist das weltgrößte Open-SourceProjekt. Was hat es so wichtig gemacht?
Hartwig Bazzanella: Es ist sicher nicht das wichtigste Projekt,
aber trotzdem sehr wichtig. Im Prinzip geht es um ein schon länger bestehendes Thema, nämlich die Automatisierung der IT von
der Provisionierung bis zum Monitoring. Das Problem für alle
RZs besteht darin, dass große Wettbewerber wie Amazon und
Google in einer enormen Schnelligkeit die Anforderungen des
Marktes erfüllen können, denn sie arbeiten mit Cloud-basierenden Microservices.
Kleine, weltweit verteilte Teams programmieren mit unterschiedlichen Programmiersprachen und Datenbanken überschaubare
Services, die zusammengeführt werden. Google und Amazon
sind dadurch in der Entwicklung wesentlich schneller und können
Continuous Delivery wesentlich praktikabler nach vorne bringen
als früher. Und damit sind wir wieder bei dem, was OpenStack
möglich macht – eigentlich allen möglich macht.
Hartwig Bazzanella: Private Cloud,
Hybrid Cloud oder Public Cloud - das
ist aus Sicht von OpenStack alles das
Gleiche. Cloud Computing zielt in aller
Regel darauf ab, skalierbare Lösungen
zu schaffen. Konkret geht es darum,
den großen IT-Trend der letzten Jahre,
die Virtualisierung, mit der Automatisierung zu verbinden: Die Idealvor-
Bild: Bazzanella
CIOBRIEFING: OpenStack startete anfangs mit einer Orientierung auf Private Clouds. Das ist heute nicht mehr so eindeutig
gegeben. In welche Richtungen gehen die Entwicklungen bei
OpenStack?
Hartwig Bazzanella,
­Geschäftsführer von
NCB New Consultancy
in Business GmbH in
Gärtringen und Mitglied
im Vorstand des Vereins
Innovatives Rechen­
zentrum VIRZ e.V.
Seite 20
CIOBRIEFING
11/2016
stellung beim Bau einer Cloud ist es, Kunden die Möglichkeit
einzuräumen, sich mit IT-Dienstleistungen selbst zu versorgen...
...nämlich sich aus verschiedenen Microservices die größeren
Services zusammenzustellen, die er gerade braucht.
Genau das ist der Grund, warum Mirantis, ein reiner SoftwareAnbieter und sehr engagiert im OpenStack-Projekt, dem Beispiel
von Amazon und Google folgt. Mirantis hat kürzlich das Prager
Unternehmen TCP Cloud übernommen, das auf OpenStack-Managed-Services, OpenContrail und Kubernetes spezialisiert ist.
´Kubernetes` wird von Google entwickelt und ist ähnlich wie ´Giant Swarm` für das Betreiben von Microservice-Anwendungen
gedacht, die aus mehreren Container bestehen und über mehrere
Rechner hinweg laufen.
Kubernetes stellt unter anderem Funktionalitäten bereit, um Anwendungen auszuliefern, zu betreiben und zu skalieren. Das ist
im Prinzip der Nachfolger der Virtualisierung. Die Integration
seiner Continuous-Delivery-Technik mit Mirantis OpenStack soll
das Management der Kundeninfrastrukturen „als Code“ und kontinuierliche Upgrades vereinfachen. Mirantis dürfte damit ganz
massiv nach vorne kommen.
CIOBRIEFING: Public Clouds sind gehemmt durch den Verdacht, zu neuen Abhängigkeiten von IT-Anbietern zu führen.
Kann man sich bei OpenStack auf das Offenheitsversprechen von
Open Source verlassen?
Hartwig Bazzanella: Viele Hersteller, zum Beispiel Netapp,
HPE, Cisco und viele andere, verwenden eine kommerziell angepasste OpenStack-Version, die natürlich auf die Hardware des
jeweiligen Herstellers ausgerichtet ist. Hier ist der Open-SourceGedanke Makulatur, da eine Kompatibilität nicht mehr gewährleistet wird. Es entsteht ein gewisses Vendor Lock-in.
CIOBRIEFING: OpenStack steht im Ruf, sehr komplex zu sein,
weswegen Anwender dazu neigen könnten, sich in die Arme großer IT-Anbieter zu flüchten.
Hartwig Bazzanella: Ja, OpenStack ist komplex. Vor allem
­Hersteller, die ihre Produkte zusammen mit ihrer OpenStack-­
Lösung verkaufen, versuchen die Komplexität auf das Wichtigste
zu reduzieren. Was das ist, ist aber immer eine Auslegungssache der Hersteller. Und das läuft dann auf eine Verbindung mit
Produkten dieser Hersteller hinaus. Wenn mit diesen Produkten
eines Herstellers gearbeitet wird, kommt man da kaum mehr heraus.
Seite 21
CIOBRIEFING
11/2016
CIOBRIEFING: Ist die Nutzung von OpenStack-Appliances
eine Hilfe, oder liegen die Startschwierigkeiten auf Gebieten jenseits der Installation?
Hartwig Bazzanella: Appliances machen den Start nicht wirklich einfacher. Am Anfang gibt es eine riesengroße Hürde, die
sich fast nur mit externen Unterstützung meistern lässt. Danach
werden aber die Betriebskosten deutlich sinken, und Vorteile der
automatisierten Provisionierung usw. greifen bei der Anpassung
an die Kundenwünsche, so dass ungeahnte neue Geschäftsmodelle entstehen. Aber man begibt sich durch eine Appliance in eine
Hardware-Abhängigkeit.
CIOBRIEFING: Besteht die Lock-in-Gefahr nicht auch auf der
Softwareseite?
Hartwig Bazzanella: In jedem Fall wird man sich in eine Abhängigkeit von einem Hersteller begeben, auch, wenn es nur, wie
bei Mirantis, um Software geht. Wer garantierten Service für
eine Software haben will, ist gezwungen, dafür zu einer Firma
zu gehen, die solch einen Service anbieten. Und da fängt das Problem dann an. Aber diese Entscheidung gab es im Open-SourceBereich schon immer. Sich zum Beispiel an Suse oder Red Hat
zu halten macht nicht freier, man muss ein gewisses Maß an Abhängigkeit akzeptieren.
CIOBRIEFING: Ist OpenStack gewissermaßen der Zeit voraus?
Viele Anwender dürften froh sein, dass sie die Virtualisierung
realisiert haben, und beschäftigen sich jetzt mit ´Docker` und anderen Container-Techniken.
Hartwig Bazzanella: Auch bei Google und Amazon haben Docker-Themen Priorität, denn Container bringen weitreichende
Vorteile. So dauert die Umsetzung einer produktiven SAP-Umgebung in eine Testumgebung schon mal drei Wochen. Mit der
Docker-Technologie dauert es 15 Minuten. Schon daraus ergibt
sich ein immenser Markt.
CIOBRIEFING: Können nur große Anwenderunternehmen mit
entsprechend mehr Personal und Know-how die Komplexität
meistern?
Hartwig Bazzanella: Nein, wir arbeiten beispielsweise mit einem Partner zusammen, der die OpenStack-Technik für seinen
Mikro-RZ-Betrieb verwendet. Diese Firma hat 30 Mitarbeiter,
fast alle wurden direkt von der Hochschule übernommen und
sind fasziniert von der neuen Technik. Die denken sich immer
neue Themen und Services aus und realisieren sie.
Seite 22
CIOBRIEFING
11/2016
CIOBRIEFING: Sollten sich Anwendern für die OpenStackImplementierung an IT-Hersteller oder qualifizierte Beratungsunternehmen wenden?
Hartwig Bazzanella: Wer sich in die Abhängigkeit begeben und
in die Lock-in-Falle treten möchte, spricht einen Hersteller an.
Wer diese Abhängigkeit nicht möchte, sucht unabhängige Berater, die leider ganz rar gesät sind. Hier ist auch die Qualität ausschlaggebend, da der Lernaufwand nicht unbeträchtlich ist.
CIOBRIEFING: Das Interesse der IT-Spezialisten an OpenStack scheint groß zu sein, aber immer wieder werden Schulungen mangels Anmeldungen abgesagt. Was ist da los?
Hartwig Bazzanella: Viele Anwenderunternehmen wissen noch
gar nicht, was zum Beispiel mit Microservices auf sie zukommt.
Sie ahnen nicht, wie ihnen OpenStack helfen kann, die Herausforderungen zu meistern. Sie haben das Problem, die unerbittliche erste Hürde nehmen zu müssen – und machen deshalb nichts.
Noch ist der Druck der Kundenanforderungen nicht groß genug,
dass manche RZ-Betreiber diesen Aufwand auf sich nehmen.
CIOBRIEFING: Was kann die IT-Anbieterseite selbst tun, um
mehr Fachkräfte auszubilden?
Hartwig Bazzanella: Es gibt recht wenige Ausbildungsmöglichkeiten zu dieser modernen Art und Weise, ein RZ zu betreiben.
Ich bin Mitglied des Vorstands im Verband Innovatives Rechenzentrum e.V., VIRZ. Wir haben dieses Thema auch erkannt und
gehen es an. Zusammen mit der Technischen Hochschule Deggendorf bieten wir zusammen im zweiten Quartal 2017 ein viertägiges Seminar zum Thema DC Technology an.
Darin beleuchten wir alle Themen im RZ vom Prozess über die
IT-Strategie bis zur Festlegung der Systemarchitektur und einer
Orchestrierung über OpenStack bis hin zur Verkabelung, der
Elektro- und Kälteversorgung und dem Gebäude selbst. Darüber
hinaus planen wir für 2017 die Durchführung eines BachelorStudienganges der 2018 starten könnte. Unsere Idee ist es, diesen
Studiengang als berufsbegleitenden Studiengang anzubieten.
■ Ludger Schmitz
Seite 23
CIOBRIEFING
11/2016
Commodity muss als Plattform taugen
Für Anwender bringt der
HDS-Lösungs-Stack
­entscheidende Vorteile
Wie macht man sich als Unternehmen die Flash-Entwicklung zunutze, ohne in Sackgassen abzudriften? Ist
die Zukunft hyperkonvergent? Und sollten Anwender
alles auf die Flash-Karte setzen? Im Gespräch mit Storage-Insider zeigt Jürgen Krebs, dass sich bei HDS die
strategische Ausrichtung des Unternehmens drastisch
geändert hat.
HDS kann auf jedem IT-Level mithalten, allerdings hat man etwas
gegen die Simplifizierung, die heutzutage gerne in Ratschlägen
endet wie: „Flash löst alle Zugriffsprobleme ihrer Anwendung“
oder „So einfach wie mit Hyperkonvergenz war die IT noch nie“.
„Solche Ratschläge werden der komplexer werdenden IT leider
nicht gerecht“, behauptet Jürgen Krebs . Aus Sicht von HDS geht
es darum, dass die installierte Infrastruktur mit wenigen Handgriffen ebenso für die klassische IT wie auch für die analytischen
Echtzeitprobleme umkonfiguriert werden kann, ohne dass immense Investitionen getätigt werden müssen.
Bild: HDS
Das Lumada-Projekt soll
Kopenhagen die CO2Neutralität verschaffen
CIOBRIEFING: Alle reden von Flash. Wo stehen wir bei der
Flash-Technik?
Jürgen Krebs: Man muss zunächst einmal zwischen den reinen
Speicherchips und den fertigen Produkten unterscheiden. Bei Hitachi sprechen wir in dem Zusammenhang auch nicht von SSDs,
sondern von Flash Module Drives oder kurz FDM.
Dabei handelt es sich um NAND-Flash-Module mit von uns entwickelten Controllern – und von deren Qualität hängt letztlich
Seite 24
CIOBRIEFING
11/2016
die Performance unserer Produkte ab. Bei den Flash Chips bedienen wir uns am Markt, was uns letztlich mehr Flexibilität und
Unabhängigkeit verleiht.
Die von uns entwickelte Controllereinheit steuert jedes unserer
bis zu 14 TByte großen Module und ist optimal in unser Speicherbetriebssystem SVOS (Storage Virtualization Operating System)
integriert. Das hat zahlreiche Vorteile: Wir können unter anderem höhere Komprimierungsraten erzielen, die Lebensdauer des
NAND Flash erhöhen und die Möglichkeiten zur Fehlerkorrektur
verbessern.
CIOBRIEFING: Ist die Flash-Technik nicht schon extrem ausgereizt?
Jürgen Krebs: Wir gehen davon aus, dass in der Flash-Technik
noch einiges an Potenzial steckt, beispielsweise bei der Anzahl
der Layer in den 3D-Produktionsverfahren. Dass man zurzeit
nur wenig Fortschritte bei den NAND-Bauteilen sieht, liegt aber
nicht nur am Flash selbst, sondern auch an den IT-Umgebungen.
So wird z. B. die zur Verfügung stehende Bandbreite von Flash
derzeit von kaum einem Server und dementsprechend auch nicht
von der Software genutzt. Und auch die Rechenzentren sind bei
Infrastruktur und Bandbreite noch nicht auf dem Niveau, das
Flash schon jetzt bietet.
CIOBRIEFING: Was können HDS-Flash-Arrays besser als die
anderen?
Jürgen Krebs: Bei HDS gibt es einen eigenen Entwicklungsbereich für alles, was in unserem Konzern mit Daten zu tun hat.
Unser Mutterkonzern Hitachi beschäftigt weltweit etwa 330.000
Mitarbeiter in über 1.000 Firmenbereichen – davon arbeiten über
16.000 Kollegen bereits im IoT-Umfeld.
Im Konzern werden auch spezifische Chips für Hitachi Data Systems entwickelt, die uns in die Lage versetzen, unabhängig von
anderen Lieferanten das Design innovativer Produkte vorzugeben und nach Marktanforderungen auch ändern zu können.
Bei Industriestandards wie DRAM oder NAND-Modulen nutzen
wir das Know how der Lieferanten, die in unseren Plattformen
verwendeten Flash-Produkte sind also Eigenentwicklungen auf
Basis performanter Speicherchips von externen Zulieferern.
Unsere FMDs sind durch mehr als 60 Patente geschützt, sie sind
deutlich langlebiger und leistungsstärker als klassische SSDs.
Und kein Anbieter am Markt besitzt mehr Patente zur FlashTechnologie als HDS.
Seite 25
CIOBRIEFING
11/2016
CIOBRIEFING: Wie muss man sich das praktisch vorstellen?
HDS produziert letztlich eigene SSDs?
Jürgen Krebs: Ganz so einfach ist es nicht. Unsere FMDs sind
über anwendungsspezifische integrierte Schaltungen (ASICs) in
der Lage, jeden beliebigen NAND-Baustein zu integrieren. Wir
beschränken uns aber auf wenige, namhafte Hersteller.
Die FMDs interagieren im Prinzip mit der PCIe-Schnittstelle in
unseren Plattformen. Bei uns sind sie aber das Herzstück von
hochperformanten Storage-Modulen, die nahtlos in unsere Speicherplattformen integriert sind.
In Zukunft werden immer häufiger geswitchte PCIe-Netzwerke geteilten und blitzschnellen Zugriff auf Speicher und andere Peripherie ermöglichen. Und wir sind mit unserer Strategie in der Lage, die
Performance von FMDs vom Netzwerk zu den Servern zu bringen.
CIOBRIEFING: Ist das für einen Weltkonzern wie Hitachi nicht
ein bisschen wenig, bei Flash nur mitzuschwimmen?
Jürgen Krebs: Das sehe ich nicht als „mitschwimmen“. Wir
nutzen zugekaufte Speicherkomponenten (Festplatten, D-RAM,
NAND-Bausteine), das Design und die Produktion erledigen wir
aber in Eigenregie . Wir sind in den letzten Jahren davon abgekommen, alles selbst machen zu wollen.
Deshalb wurde auch vor einigen Jahren unsere Festplattensparte
HGST an Western Digital verkauft – und dies lange bevor sich der
Flash-/ SSD-Trend abzeichnete. Damals stieß der Verkauf auf großen
Widerstand, aus heutiger Sicht war das eine visionäre Entscheidung.
Ähnliche IT-Komponenten von mehreren Herstellern zeitgleich
und konkurrierend entwickeln zu lassen, ist wenig sinnvoll. Wir
überlegen uns daher sehr genau, welche Komponenten von uns
entwickelt werden und welche wir zukaufen können, denn auf
diese Weise können wir dem hohen Qualitätsanspruch unserer
Kunden wesentlich zeitnaher und zielgerichteter nachkommen.
Heute bieten wir ein durchgängiges Portfolio vom Server bis zur
Speicherplattform und vom Management-Softwarepaket bis zum
VMware Steuer Plug-In. Damit sehe ich uns in einer Führungsrolle und nicht als Konzern, der „nur mitschwimmt“.
CIOBRIEFING: Sind hyperconverged Plattformen nicht schon
die Erfüllung dieses Ziels?
Jürgen Krebs: HDS hat bei den Speichersystemen eine CoreEdge-Struktur etabliert und mit der Unified Compute Platform
(UCP) eine Plattform für VMware-, SAP-, Oracle-und Microsoft-
Seite 26
CIOBRIEFING
11/2016
Umgebungen geschaffen. Inzwischen haben wir daneben unser
Hyperconverged Portfolio mit der Hyper Scale-Out Platform
(HSP) etabliert.
Wir wollen aber nicht – wie andere Hersteller – immer näher
an den Prozessor rücken, sondern Storage und Compute für die
jeweiligen Anwendungsplattformen optimieren. Wir wollen im
hyperkonvergenten Bereich eine „Commodity-of-the-Shelf“Plattform entwickeln, die über unsere Offload-Karten erst mit
der benötigten Beschleunigung „beseelt“ wird.
Das kann eine Appliance sein oder auch ein modulares System.
Wichtig ist, dass ein Rechenzentrumsleiter die Plattform flexibel
und mit wenigen Handgriffen an SAP, Hyper-V oder VMware
anpassen kann, so wie das mit UCP bereits möglich ist.
CIOBRIEFING: Das heißt, HDS will auf die Lösungsschiene?
Jürgen Krebs: Selbstverständlich! In Zukunft geht es doch darum, Lösungen und vor allem konsumierbare Services zu entwickeln, die aus „Big Data“ wertvolle Informationen liefern oder
mit den Milliarden Sensoren des Internets der Dinge (IoT) etwas
Sinnvolles steuern können.
Angesichts des riesigen Innovationspotenzials wäre es ein Fehler,
wenn Hitachi zu viel Energie in Hardware stecken würde, anstatt
die größeren Teile der unternehmenseigenen Kräfte auf das neue
Ziel zu bündeln.
Etwas konkreter: Wir als HDS sind nicht mehr der reine StorageAnbieter, als den uns viele immer noch wahrnehmen. Hitachis
CTO Hubert Yoshida hat unserer SVOS (Storage Virtualization
Operating System) schon immer in eine Entwicklungsrichtung
treiben lassen, dass es auch in einer virtuellen Maschine laufen
kann. So sind wir nun jederzeit in der Lage unsere Software auch
direkt mit den Anwendungen zu verbinden.
CIOBRIEFING: Gut, das wäre jetzt die klassische IT, da fehlt
allerdings noch die Cloud IT, die den Unternehmen eine skalierfähige projektbezogene Arbeitsweise ermöglichen soll. Und
letztlich fällt bei dieser bimodalen Sichtweise die analytische IT
raus, die unserer Einschätzung nach Storage und Compute sehr
eng verzahnen müsste.
Jürgen Krebs: Aus Sicht der Digitalisierung aller Prozesse erscheint es auf den ersten Blick erstrebenswert, beispielsweise
jedes Nahrungsmittel mit einem RFID-Code auszustatten und
dann den Weg bis zum endgültigen Verzehr zu verfolgen.
Seite 27
CIOBRIEFING
11/2016
Das ist aber nicht der Weg, den Hitachi beschreiten will. In der
Hitachi Insight Group wird ein schon aktives Modell namens Lumada verfolgt. Dabei geht es um die Verbindung von IT und OT
(Betriebstechnologie) zum IOT.
Herausforderung ist die Integration jedes Bereichs über RESTAPIs, die wohl durch ihren einfachen Datenzugriff zukünftig der
Standard sein werden. Datenbanken und Anwendungen lassen
sich in diesen Stack leicht integrieren, wie unser aktuelles SmartCity-Projekt mit der Stadt Kopenhagen eindrucksvoll unter Beweis stellt.
Kopenhagen hat sich hier das Ziel gesetzt, bis 2025 CO2-neutral
zu sein. Das geht nur als gemeinschaftliches Projekt und ist eine
riesige Herausforderung an alle Teilnehmer, da diese nicht zuletzt einer gewissen Überwachung ihrer Bewegungsaktivitäten
zustimmen sollen. Eine erste Erkenntnis ist jedoch schon jetzt,
dass dazu nicht alles digitalisiert werden muss.
CIOBRIEFING: Zurück zum Storage. Gibt es die alte Speicherpyramide noch, wonach auf der höheren Stufe (Tier 1) 20 Prozent
der Daten, auf der nächst niedrigeren Stufe (Tier 2) 80 Prozent
liegen?
Jürgen Krebs: Das klassische Speichermodell existiert nicht
mehr, beim Speicher wird alles auf den Kopf gestellt. Bei unseren großen Kunden werden mittlerweile Consumption-Modelle
praktiziert, die den benötigten hohen Flexibilitätsgrad des Kunden unterstützen.
Der Lieferant vereinbart SLAs und darauf verlassen sich die Käufer wie deren Kunden. Der Preis und die Preiserosion stehen fest
und sind damit über die Laufzeit fest kalkulierbar. Als Unternehmen verlasse ich mich darauf, dass der gewählte Partner sein
Geschäft versteht.
Am Ende wird es ein dynamisches Tiering-Modell geben, so dass
meine Daten SLA-konform gespeichert sind, ich als Anwender
aber den vollen Zugriff auf alle gespeicherten Informationen in
allen Tiers habe.
CIOBRIEFING: Hört sich nett an, aber wer könnte sich so ein
Speichermodell mit ganz viel Flash-Anteil denn leisten?
Jürgen Krebs: Das ist genau der Punkt: Flash ist teuer und muss
sich verargumentieren lassen. Das geht nur unter der Voraussetzung, dass der Nutzungsgrad von Flash immer bei 100 Prozent liegen muss. Das wäre jedoch schwierig nachzuweisen, wenn man nur
mal eben ein kleineres Testsystem in sein Rechenzentrum stellt.
Seite 28
CIOBRIEFING
11/2016
Der Geschwindigkeitsvorteil von Flash wird auch nicht überall
und immer benötigt. Meistens wird es derzeit so praktiziert, dass
der teure Speicher der Performance kritischer Anwendungen auf
die Sprünge helfen soll. Sollten die Flash-Preise auf das Niveau
von Harddisks fallen, gibt es für solche Abwägungen jedoch keine Basis mehr.
Dann zählt nur noch die Erfüllung von SLAs. Unsere Kunden
nutzen unsere Hitachi Command Suite und unsere Plug-Ins zum
Managen ihrer gesamten Umgebungen, vom Hypervisor über die
Server bis zum Speicher.
Unsere Plattformen erlauben auch die gemischte Verwendung
von Flash/ FMDs, SSDs und Harddisks, damit lassen sich wesentliche Nachteile externer Flash-Speicher übergehen. Ein Kunde nutzt dann zu 100 Prozent seine Flash-Investition und unsere
Intelligenz in den Systemen ermöglicht das Verschieben von Daten in preiswertere Tiers im Millisekundenbereich.
■ Walter Schadhauser
Seite 29
CIOBRIEFING
11/2016
Nachbericht Cloudera Sessions in München
Cloudera will Zugang zu
­Maschinenintelligenz erleichtern
Das jährliche Anwendertreffen „Cloudera Sessions“, das
in diesem Jahr erneut in der Münchener Allianz-Arena
stattfand, kreiste um die zunehmende Intelligenz der
Big-Data-Algorithmen und ihre Anwendungsfelder.
„KI ist zurück!“, konstatierte Amr Awadallah, Gründer und CTO
des Hadoop-Spezialisten Cloudera, in seinem Einführungsvortrag. Diesen Trend will Cloudera gleichzeitig befeuern und für
sich nutzen. Der 2008 gegründete Herausgeber einer Open-Source-basierenden Hadoop-Umgebung stellte gleich eine ganze Serie
von Anwendungen vor, bei denen Cloudera-Produkte erfolgreich
zum Einsatz kommen. Die interne Arbeit besteht jedoch laut
Awadallah vor allem darin, die unterschiedlichen Open-SourceProdukte aus der Apache-Hadoop-Familie unternehmenstauglich
zusammenzuschweißen.
Awadallah machte vier wichtige Anwendungsfelder aus, nämlich
mehr Wissen über Kunden, bessere Produkte, weniger Risiko
und modernere Infrastruktur. Dass Analytik in Marketing und
Vertrieb immer wichtiger wird, ist inzwischen eine Binsenweisheit. Der Cloudera-CTO zitierte eine Prognose, derzufolge 42
Prozent der befragten Marketingleiter der Meinung seien, dass in
fünf Jahren Analytik zur Kernkompetenz ihres Fachgebietes
avancieren werde. „Statt der groben Segmentierung von heute,
die oft falsche Resultate bringt, geht der Trend zum Segment of
One“, meinte Awadallah, also zum komplett individualisierten
Angebot.
Bild: Rüdiger
Deutschland hinkt laut
Amr Awadallah, Gründer
und CTO von Cloudera,
bei der Big-Data-An­
wendung hinterher.
Seite 30
CIOBRIEFING
11/2016
Die Kauf hauskette Marks & Spencer beispielsweise nutzt Big
Data, um den Bedarf der Niederlassungen zu prognostizieren.
Dazu werden alle möglichen Informationen genutzt, etwa der
Clickstream der Website, Daten vom Point of Sale im Laden etc.
Die Royal Bank of Scotland schaffte es, mithilfe von Big-DataAnalysen des Sprachverkehrs, der sozialen Medien etc. die Zahl
der Beschwerden um ein Viertel zu senken.
Big Data in der Medizin
Gänzlich neue Produkte entwickelt beispielsweise Cerner Healthcare, zum Beispiel ein Verfahren zur Frühdiagnose von Sepsis
nach Operationen. Wird diese tückische Erkrankung nicht spätestens fünf Tage nach Ausbruch behandelt, endet sie zumeist
tödlich. Der neue Algorithmus prognostiziert aus Patienten- und
anderen Daten, wer wahrscheinlich eine Blutvergiftung bekommt. So konnte die Zahl der Wiederaufnahmen nach OPs stark
gesenkt werden.
Ein weiteres Einsatzfeld ist das Wohlbefinden von Frühgeburten.
Deren Gehirnentwicklung reicht oft noch nicht aus, um bei Missbehagen, etwa, wenn sie frieren, Schmerzen haben oder hungrig sind, zu schreien. Eine neue Lösung wertet nun verschiedene
Parameter wie Bewegungen, Herzschlag oder Atemfrequenz aus
und gibt Alarm, wenn es wahrscheinlich ist, dass das Baby etwas
braucht, zum Beispiel mehr Wärme.
Der indonesische Provider Telkomsel mit 300 Millionen Kunden
erschloss sich durch den Weiterverkauf der von allen Kunden erfassten Lokationsdaten zum Beispiel an staatliche Institutionen,
an Logistikfirmen oder Einzelhändler ein völlig neues Geschäftsfeld. Siemens spart durch ein auf Big Data basierendes Supply
Chain Management 10 bis 25 Millionen US-Dollar jährlich.
Parkplätze mit Sensorenanbindung
Immer wichtiger werden IoT-Anwendungen. BT UK beispielsweise baut Sensoren in die Fläche von Parkplätzen ein, die anhand des Lichteinfalls feststellen, ob ein Auto dort parkt und
freie Parkplätze denen meldet, die in der betreffenden Gegend
einen suchen. Dadurch werden pro Jahr 150 Millionen Pfund an
Logistikkosten gespart, zudem sinkt die Emissionsbelastung.
Der Logistikdienstleister konnte die Kosten pro Meile für Wartung und Support seiner Fahrzeuge von 12 bis 15 Dollar auf 30
Cent pro Meile senken. Das intelligente Smart Meter des Provi-
Seite 31
CIOBRIEFING
11/2016
ders OPower ersparte seinen Kunden, vier Millionen Haushalten,
320 Millionen US-Dollar jährlich
Interessant war der Bericht des österreichischen Mittelständlers
Runtastic, dessen Tracker-App durch Hardware und diverse Services ergänzt wird. Gegründet wurde Runtastic 2013, seine wenige Euro kostende App wird pro Tag etwa 140.000-mal heruntergeladen. Das Unternehmen bietet seinen Kunden ein Pauschalabo
für alle Dienste, zum Beispiel individualisierte Trainingspläne
etc. an. Hardware wird extra übers Web dazugekauft.
Das System speichert alle Aktivitätsdaten und stellt grob fest,
wie aktiv die Kunden sind. Das System registriert, wenn Kunden ihre Aktivitäten reduzieren oder steigern und versucht sie
durch gezielte E-Mail-Ansprache wieder zu aktivieren, wenn sie
auffällige Lücken in ihren Trainingsaktivitäten aufweisen. Die
gesammelten Daten werden genutzt, um neue Apps und Dienste
zu entwickeln.
Big Data bei Otto
Beim Otto-Versand, von dessen Aktivitäten Rupert Steffner, Chief
BI Platform Architect, berichtete, geht es vor allem um Betrugsaufdeckung, sogenannte „Last Minute Defense“ – also den Versuch,
einen Kunden, der bereits Ware im Korb hat, auf jeden Fall zum
Käufer zu machen – Retargeting und die bessere Informationsversorgung der Handelspartner. Big-Data-Applikationen werden als
sogenannte Bots realisiert. Stettner betont: „Wer Dinge macht, die
in der realen Welt stattfinden, der muss die Anwendungslogik nach
den übliche Werten richten.“ Man achte bei Otto streng darauf,
keine Mechanismen zu bauen, die einseitig dem Anbieter nutzen.
Zu den technologischen Trends des Unternehmens gehört mehr
Bedeutung für die Cloud. In München berichtete T-Systems
von seiner Eigenschaft als Daten-Treuhänder für die deutsche
Microsoft-Azure-Cloud. Sie wird durch T-Systems-Mitarbeiter betrieben und ist von den übrigen Microsoft-Rechenzentren
getrennt. „Bei dieser Konstruktion bleibt die deutsche Rechtsstrenge gewahrt, denn Klagen bezüglich dieses Service laufen
grundsätzlich nur über ein deutsches Gericht“, meinte Ralph
Kemperdick, Digital Business Architect Microsoft.
Hybride Infrastrukturen der Kunden wurden von Anfang an mit
bedacht, eine PaaS-Umgebung mit Docker-Containern und Cloudera wird ab November verfügbar sein und soll unter 1.000 Euro
monatlich kosten. Das soll laut Thomas Weber, Vice President
AppAgile bei T-Systems, der Experimentierfreude auch kleinerer
Seite 32
CIOBRIEFING
11/2016
und mittelständischer Kunden die Tür öffnen. Schon heute nutzen Unternehmen wie der Amsterdamer Flughafen Schiphol oder
die Airline Emirates Cloudera auf Microsoft Azure.
„Wachstumsschmerzen“ bei Microsoft
Insgesamt, so verkündete Kemperdick, ist Microsoft mit der
Cloud-Nachfrage mehr als zufrieden. Inzwischen habe man
„Wachstumsschmerzen“, man könne die Server nicht so schnell
auf bauen, wie sie verlangt würden. Inzwischen liefen „riesige
Projekte“, bei denen sehr große Firmen nach ihren Cloud-AppLandschaften und auch die schwerfälligeren Backend-Anwendungen geschlossen in die Cloud migrieren wollten.
Wegen der steigenden Kosten denkt Microsoft laut Kemperdick sogar
über Rechenzentren unter Wasser nach, vorzugsweise in der Nähe
von Offshore-Windenergieanlagen. „Da kostet der Grund nichts und
der Strom muss nicht weit transportiert werden.“ Teurer Strom sei in
Deutschland, wo für Elektrizität erheblich mehr bezahlt wird als in
anderen Ländern, ein wirkliches Problem der RZ-Anbieter.
Schließlich berichtete Amr Awadallah im Interview mit BigData-Insider von den aktuellen Plänen seines Unternehmens. „Wir
müssen vor allem das rasante Wachstum verwalten“, sagt er. Innerhalb eines Jahres habe sich die Mitarbeiterzahl auf nunmehr
1.400 weltweit verdreifacht, in Deutschland arbeiten statt drei
2015 nun 27 Personen für Cloudera. Nun gehe es an die Vorbereitung des Börsengangs, der eventuell 2017 stattfinden soll.
Zugang zu Maschinenintelligenz
Neben Cloud sei ein weiteres wichtiges Thema, den Zugang zu
Maschinenintelligenz zu vereinfachen. Deswegen hat Cloudera
vor einem halben Jahr das Start-up sense.io mit fünf Mitarbeitern
frisch von der Uni übernommen. Seine Spezialität: Eine Schnittstellenumgebung für Benutzer, auf der sie sich für ihr Problem
den geeigneten Big-Data-Algorithmus auswählen können und
dann nur noch dessen Feinheiten anpassen müssen. Zudem hat
Cloudera vor rund zwei Wochen die erste Version des OpenSource-Projekts Kudu veröffentlicht, das auf schnell und immer
wieder aktualisierbare Datensätze spezialisiert ist.
Für die deutschen Anwender hatte Awadallah noch eine Mahnung im Gepäck: „Deutschland hinkt bei der Big-Data-Anwendung hinterher. Hiesige Unternehmen müssen sich beeilen, in die
Technologie einzusteigen, sonst haben sie das Nachsehen!“
■ Ariane Rüdiger
Seite 33
CIOBRIEFING
11/2016
Daten weltweit verfügbar machen - ab SQL
­Server 2005
Datenbanken auf Azure
­migrieren
Bild: © Maksim Kabakou - Fotolia.com
Viele Unternehmen stehen vor der Entscheidung zu einer
neuen Microsoft SQL Server-Version zu wechseln, oder
Datenbanken in die Cloud zu migrieren, damit diese an
anderen Standorten verfügbar ist. Microsoft unterstützt
Administratoren dabei Datenbanken ab SQL Server 2005
in Azure SQL zu übernehmen, aber auch Datenbanken
anderer Hersteller.
Neben Microsoft SQL-Server- und Access-Datenbanken lassen
sich auch Oracle-, DB2-, MySQL-, Sybase-Datenbanken zu Microsoft Azure migrieren. Dazu wird der SQL Server Migration
Assistant (SSMA) verwendet. Diesen entwickelt Microsoft ständig weiter. Ab Version 7.0 unterstützt der Assistent auch SQL
Server 2016 sowie die neuste Version von Azure SQL.
Die Entwickler des SSMA geben in ihrem Blog Einblick in die
neuen Versionen und Möglichkeiten des Tools. Für Migrationen
sollte am besten immer die aktuellste Version genutzt werden.
Datenbanken lassen sich in Microsoft Azure über Azure SQL
erstellen, oder als VM im Rahmen einer virtuellen Installation
von SQL Server 2014/2016. Im SQL Server Management Studio
lassen sich Datenbanken relativ problemlos zur Microsoft Azure
migrieren. Hier steht auch die Möglichkeit zur Auswahl, die lokale Datenbank als Datenbank in Azure importiert werden soll,
oder als Datenbank in einen virtuellen SQL-Server in Microsoft
Azure. Zusätzlich lassen sich Datenbanken auch als Datenebenenanwendung in eine BACPAC-Datei exportieren und in Mi-
Assistenten helfen bei
der Datenbank-Migration
in die Microsoft Cloud.
Seite 34
CIOBRIEFING
11/2016
crosoft Azure importieren, auch hier in Azure SQL oder in einen
virtuellen SQL-Server. Dazu kann ebenfalls das SQL Server Management Studio verwendet werden.
Neben dem Assistenten im SQL Server Management Studio können Entwickler aber auch die SQL Server Data Tools mit Visual
Studio 2015 für die Migration lokaler Datenbanken in Microsoft
Azure verwenden.
Kompatibilität von Datenbanken sicherstellen
Bevor eine SQL-Datenbank in Microsoft Azure übernommen
werden kann, muss deren Kompatibilität mit der aktuellen Version 12 in Microsoft Azure sichergestellt werden. Ab dieser SQLVersion ist Microsoft Azure effizienter bei der Zusammenarbeit
mit SQL Server 2014. In Microsoft Azure erhalten Datenbanken
in Azure SQL automatisch den Kompatibilitätsgrad 130. Mehr
dazu ist in der Dokumentation zu den Neuerungen der Version 12
in Microsoft Azure SQL zu lesen.
Die Kompatibilität zu Azure-SQL und der neuen Version 12 lässt
sich über verschiedene Werkzeuge testen. Entwickler können
zum Beispiel SQL Server Data Tools für Visual Studio (SSDT)
verwenden. Der Vorteil des Tools ist, dass es nicht nur die Kompatibilität testen, sondern auch gleich Fehler beheben kann. Das
kostenlose Tool steht im MSDN zum Download zur Verfügung.
Zusätzlich stellt Microsoft für Administratoren auch das Tool
SqlPackage zur Verfügung. Dieses bietet in der Befehlszeile
skriptbasierte Möglichkeiten zur Kompatibilitätsprüfung von
Datenbanken. Allerdings können Sie mit sqlpackage.exe keine
Kompatibilitätsprobleme beheben, sondern diese nur überprüfen.
Zur Behebung von Problemen empfiehlt Microsoft die SQL Server Data Tools für Visual Studio (SSDT).
Mit dem Assistenten zum Exportieren von Datenebenenanwendungen im SQL Server Management Studio, lassen sich Fehler
in Datenbanken und Inkompatibilitäten mit Azure SQL ebenfalls
anzeigen. Der Assistent ist hilfreich für einen schnellen Überblick, und zum Sicherstellen, dass die Migration durchlaufen
kann. Tauchen hier noch Fehler auf, sollten diese mit den SQL
Server Data Tools für Visual Studio (SSDT) behoben werden.
Auch der „Microsoft SQL Server 2016 Upgrade Advisor“ hilft
bei der Überprüfung von Datenbanken auf Kompatibilität mit
Version 12. Allerdings ist das Tool nicht immer aktuell und sollte
nur als Zusatzwerkzeug verwendet werden, um eine weitere Prüfung durchzuführen.
Seite 35
CIOBRIEFING
11/2016
Durchführen der Migration
Sobald Datenbankentwickler sichergestellt haben, dass die Datenbank kompatibel mit Azure SQL ist, kann die Migration
durchgeführt werden. Hier stehen verschiedene Möglichkeiten
zur Verfügung. Zunächst kann die Datenbank in ein Visual Studio Database Project migriert, und dann mit dem SQL Azure Migration Wizard vorbereitet werden. Durch das Kopieren der Datenbank in Azure SQL lässt sich eine neue Datenbank auf Basis
der ursprünglichen Datenbank erstellen.
Für die Migration kann der SSMS-Migrations-Assistent verwendet werden, oder der Weg eine BACPAC-Datei zu exportieren
und zu importieren. Natürlich lässt sich auch eine Transaktionsreplikation durchführen. Der Assistent zum Migrieren von Datenbanken im SQL Server Management-Studio, steht im Kontextmenü der jeweiligen Datenbank zur Verfügung.
Export über BACPAC-Datei
Eine solche Migration ist allerdings nur dann sinnvoll, wenn die
Datenbank nicht zu groß, und die Verbindung zum Internet leistungsstark ist. Bei sehr großen Datenbanken, oder wenn die Internetverbindung zu gering ist, empfiehlt Microsoft die Verwendung einer BACPAC-Datei. Im Rahmen einer solchen Migration
werden Schema und Daten separat migriert. Diese Vorgehensweise ist natürlich deutlich komplizierter als die Verwendung des
Migrationsassistenten.
Mit dem Menüpunkt „Datenebenenanwendung exportieren“ im
Kontextmenü von Datenbanken im SQL Server Management
Studio steht ebenfalls eine Export-Möglichkeit in Microsoft
Azure zur Verfügung. Bei diesem Vorgang werden die Daten der
Datenbank in einen Blob-Storage in Microsoft Azure exportiert.
Sobald die Datenbank in Microsoft Azure verfügbar ist, lässt sie
sich in Azure-SQL oder in einen virtuellen SQL-Server importieren, der auf Microsoft Azure bereitsteht. Für den Import wird
die BACPAC-Datei im Blob-Storage von Microsoft Azure verwendet.
Ablauf bei der Migration über SQL Server Data Tools in
Visual Studio
Wird bei der Migration auf Azure SQL auf die SQL Server Data
Tools gesetzt, läuft die Migration etwas anders ab. Zunächst erstellen Entwickler ein neues Projekt und verbinden sich mit dem
Seite 36
CIOBRIEFING
11/2016
lokalen SQL-Server. Über das Kontextmenü einer Datenbank
lässt sich jetzt ein neues, untergeordnetes Objekt erstellen. Als
Ziel-Plattform steht hier „Microsoft Azure SQL Database V12“
bereit. Dieses wird über das Kontextmenü des Projektes als Ziel
festgelegt.
Über das Kontextmenü des Projektes lässt sich eine Überprüfung
durchführen, ob die Datenbank erfolgreich in Microsoft Azure
importiert werden kann. Nachdem alle Fehler behoben sind, lässt
sich die Migration in den SSDT durchführen. Im Rahmen der
Erstellung des Migrationsprojektes können auch Schema und andere Einstellungen der Datenbank festgelegt werden.
Fazit
Lokale SQL-Datenbanken lassen sich recht problemlos in Microsoft Azure überführen. Microsoft stellt dazu alle notwendigen
Tools kostenlos zur Verfügung. Während Entwickler vor allem
auf SQL Server Data Tools in Visual Studio setzen, können Administratoren das SQL Server Management Studio verwenden,
um die Daten zu migrieren. Es ist allerdings sehr empfehlenswert, dass die Migration nur dann durchgeführt wird, wenn die
Internetleitung zu Microsoft Azure genügend Leistung bietet.
Außerdem sollten im Rahmen der Migration möglichst wenige
Anwender mit dem Server und der Datenbank arbeiten.
Sollen externe Datenbanken migriert werden, also DB2, Oracle,
MySQL oder Sybase, dann empfiehlt Microsoft die Verwendung
des SQL Server Migrations Assistenten.
■ Thomas Joos
Seite 37
CIOBRIEFING
11/2016
Mehr Sicherheit am Handgelenk
Smartwatches mit speziellen
Business-Funktionen
Die Smartwatch ist auf dem Weg, Bestandteil der betrieblich genutzten Mobilgeräte zu werden. Neue Modelle wie
Samsung Gear S3 bieten erweiterte Security-Funktionen
und Sicherheits-Apps.
Kurz vor Beginn der IFA 2016 stellte Samsung in einem Samsung
Unpacked Event die neue Smartwatch Samsung Gear S3 vor.
Auch bei der Apple Watch gibt es Neuigkeiten. Früher waren solche Produkt-Launches für IT-Sicherheitsverantwortliche eher aus
persönlichen Gründen interessant, weil sie gerne privat eine „intelligente Uhr“ tragen wollten.
Inzwischen aber können Smartwatches zu den Business-Geräten
gezählt werden, die im Sinne von BYOD (Bring Your Own Device) betrieblich genutzt werden, oder sogar vom Unternehmen
für die Außendienstler angeschafft werden. Die zunehmend betriebliche Nutzung macht Smartwatches zu einem Security-Thema im Unternehmen.
Bild: Unsplash - Pixabay.com / CC0
Laut einer Studie des Bundesverbandes Digitale Wirtschaft
(BVDW) sind für die Nutzer die wichtigsten Smartwatch-Funktionen im Alltag Textnachrichten, Terminerinnerungen, FitnessUnterstützung und das Ablesen der Uhrzeit. Was auf den ersten
Blick eher nach privater Nutzung klingt, kann im betrieblichen
Umfeld durchaus dazu führen, dass vertrauliche Nachrichten und
Termine auf der Smartwatch landen.
Ob sich die Smartwatch
auch im geschäftlichen
Umfeld etwablieren
kann, dürfte eng an
die zu erwartenden
­Sicherheitsfunktionen
ge­koppelt sein.
Seite 38
CIOBRIEFING
11/2016
In Bezug auf Datensicherheit vertrauen die Befragten ihren
Smartwatches: Nicht einmal ein Fünftel aller Studienteilnehmer
(19 Prozent) sieht die Sicherheit der persönlichen Daten als problematisches Thema bei der Smartwatch-Nutzung. In einer Bitkom-Umfrage sind es immerhin 34 Prozent, die fürchten, dass
ihre Daten in falsche Hände geraten oder missbraucht werden
könnten. Die Mehrheit aber denkt nicht an die Sicherheitsrisiken.
Security-Funktionen für die schlaue Uhr
Wie bei der Wandlung vom Handy zum Smartphone muss auf dem
Weg von der klassischen Uhr hin zur Smartwatch mehr für die Security getan werden. Nicht ohne Grund warnen die Datenschützer
vor den Datenrisiken bei Smartwatches und anderen Wearables.
Die für den Consumer-Markt vorgesehenen Smartwatches haben
jedoch kaum Funktionen zur Steigerung der Datensicherheit. Sie
können zwar E-Mails, Messages und Daten über verschiedene
Schnittstellen austauschen und haben lokalen Speicherplatz für
Daten, doch Security-Apps oder integrierte Sicherheitsfunktionen sind meist Fehlanzeige. Bei den im Business-Bereich verbreiteten Smartwatches ist die Lage (etwas) besser.
Die Apple Watch hat bereits Funktionen wie Activation Lock an
Bord. Damit lässt sich der Zugang zur Watch schützen, indem
die Eingabe der Apple ID des legitimen Nutzers verlangt wird.
Ziel ist es, unehrliche Finder oder aber Geräte-Diebe davon abzuhalten, die Daten auf dem Gerät einzusehen, zu löschen oder
die Apple Watch anderweitig zu missbrauchen. Wenn man daran
denkt, dass Smartwatches als (zukünftiges) mobiles Bezahlsystem angesehen werden, liegt das Missbrauchspotenzial auf der
Hand bzw. es ist am Handgelenk.
Bei dem Samsung Gear S3 steht Unternehmen erstmals das
KNOX Tizen Wearable SDK (Software Developers Kit) zur Verfügung. Damit können Unternehmen eigene Apps mit Management-relevanten Funktionen in einer sicheren Umgebung entwickeln, so die Ankündigung von Samsung.
Neue Security-Funktionen bei Samsung Gear S3
Ein Blick auf das Knox Tizen Wearable SDK ist vielversprechend:
Möglich werden Funktionen zur Installation, Aktualisierung und
Deinstallation von Apps, zur Einrichtung von Black Lists und
White Lists für die Smartwatch-Apps, zum Löschen der AppDaten, zur Kontrolle und Sperrung bereits installierter Apps.
Seite 39
CIOBRIEFING
11/2016
All diese Funktionen fallen in den Bereich MDM (Mobile Device
Management). Zusätzlich können Gerätedaten abgefragt, Sprachund SMS-Funktionen reguliert, Passwörter erzwungen und Daten verschlüsselt werden. Eine Firewall ist ebenso möglich wie
die Kontrolle über die verfügbaren Schnittstellen und Netzwerke.
Weiterhin lassen sich über MDM-Systeme Geräteinformationen
einholen, mit denen der Sicherheitszustand abgeprüft und Anzeichen für verdächtiges Verhalten gesucht werden können. Neben
diesem Integritätscheck für Smartwatches lassen sich die intelligenten Uhren auch auf minimale Funktionen beschränken, nur
noch eine definierte App kann dann zum Beispiel genutzt werden
(ProKiosk Mode).
Damit kann das Samsung Gear S3 vergleichbar zu einem Smartphone in ein MDM- und Security-Konzept eingebunden werden,
ein wichtiger Schritt hin zur Business-Smartwatch. Voraussetzung ist aber, dass die MDM-Lösungen auch die Smartwatches
einbinden und dass die Security-Hersteller die Möglichkeit nutzen, Security-Apps für Smartwatches anzubieten. Der Bedarf ist
zweifellos da, und der Markt wird wachsen. Die Datenrisiken für
Smartwatches jedenfalls sind heute schon enorm.
■ Oliver Schonschek
Seite 40
CIOBRIEFING
11/2016
Netzwerkneutraler Mobilfunkempfang in
­Gebäuden
OpenG & Shared-Spektrum –
WLAN und LTE verschmelzen
Mit gemeinsam von LTE und WLAN verwendeten Funkspektren und neutralen, host-fähigen Zellen kann die Mobilfunkleistung in Innenräumen verbessert werden, ohne
dass der Anwender hierzu etwas tun muss. Die Technik
fasst unter dem Namen OpenG gerade Fuß.
Wer unterwegs mit seinem Smartphone in Innenräumen online
gehen möchte, macht häufig eine negative Erfahrung. Oft zeigt
die Mobilfunkverbindung nur einen mickrigen Balken: Beispielsweise wenn Kunden in einem Geschäft in der Schlange an
der Kasse stehen und sich die Wartezeit vertreiben wollen. Bietet
das Geschäft überhaupt WLAN an, ist das Log-in oft derart kompliziert, dass sich der Aufwand nicht lohnt. Stattdessen langweilen sich die Kunden in der Schlange, warten mit dem Surfen bis
sie draußen sind und verlassen das Geschäft mit einer negativen
Kundenerfahrung.
Bild: Thomas Reimer - Fotolia.com
Doch warum ist im Innern von Gebäuden WLAN verfügbar,
während gleichzeitig die Mobilfunkverbindung so schwach ist,
dass sich über sie kein Gespräch führen, geschweige denn ein
stabiler, schneller Internetzugang herstellen lässt?
OpenG kombiniert die
Fähigkeiten gemeinsam
verwendeter Spektren
und macht so Mobilfunk
dort möglich, wo bisher
nur WLAN vorhanden
war.
Seite 41
CIOBRIEFING
11/2016
Der Grund liegt in den Nutzungsrechten der Funkfrequenzen: In
Deutschland erwerben Telefongesellschaften die alleinigen Nutzungsrechte an bestimmten Frequenzen. Dadurch können sie allein entscheiden, wo ihre Funkwellen genutzt werden dürfen oder
wo ein Funkmast aufgestellt wird, der in der jeweiligen Frequenz
sendet und empfängt. Um also die Funkwellen innerhalb seiner
vier Wände zu nutzen, müsste ein Ladenbesitzer mit jeder einzelnen Telefongesellschaft verhandeln und sie überzeugen, einen
neuen Funkturm in der Nähe oder einen Verstärker, ähnlich einem
Mobilfunk Repeater, im Gebäude zu installieren. Vorausgesetzt
die Telefongesellschaft stimmt dem zu (was sehr unwahrscheinlich ist), würde der Prozess für die Verhandlungen und Installation Monate dauern und einige Arbeitszeit in Anspruch nehmen.
Kosteneffiziente, unkomplizierte Lösung gesucht
Während es in Geschäften und in öffentlichen Gebäuden oft noch
daran fehlt, setzen die meisten Unternehmen inzwischen Wi-Fi für
ihre Datenverbindungen innerhalb von Gebäuden ein. Allerdings
sind sie dennoch auf zusätzliche flächendeckende Mobilfunkabdeckung angewiesen, zum Beispiel um mobil zu telefonieren oder
um Downloads via LTE für Mitarbeiter und Besucher anzubieten
– ohne dass sich diese erst in ein WLAN einloggen müssen.
Bisher verlassen sich die meisten Unternehmen – und Geschäfte – auf die Mobilfunksignale von Funkmasten außerhalb des
Gebäudes, die auch im Gebäudeinneren verwendet werden. Der
Empfang ist jedoch häufig nicht befriedigend und führt zu Verbindungsabbrüchen oder Bereichen im Gebäude, in denen die
Mitarbeiter, Gäste oder Kunden gar keine Verbindung haben.
Unternehmen und Service Provider suchen nach kosteneffizienten Lösungen für Gebäude, die leicht umzusetzen sind und
gleichzeitig Leistung und Abdeckung verbessern. Die Lösung
sollte außerdem die Netze unterschiedlicher Mobilfunkanbieter
unterstützen. Zwar können Distributed Antenna Systems (DAS)
und herkömmliche Small Cells einige dieser Herausforderungen
bewältigen, doch ist die Bereitstellung meist kompliziert und mit
hohen Kosten verbunden.
Wachsender Datenhunger vs. begrenzte Spektren der Mobilfunkanbieter
Bei der Suche nach neuen Lösungen, die für Kunden aller Mobilfunknetze von Vorteil sind, ist deutlich erkennbar, dass sich
die Branche inmitten eines dramatischen Wandlungsprozesses
Seite 42
CIOBRIEFING
11/2016
befindet, in dem sich Mobilfunk- und Wi-Fi-Technologie immer
weiter aufeinander zubewegen. Die Annäherung erfolgt auf unterschiedliche Art und Weise. Während die Mobilfunktechnologie Wi-Fi-Eigenschaften (LTE Wi-Fi Aggregation, LWA und
Licensed Assisted Access, LAA) übernimmt, übernimmt die WiFi-Technologie Eigenschaften der Mobilfunktechnologie (Wi-FiAnrufe, Hotspot 2.0).
Vorangetrieben werden diese Entwicklungen durch den größer werdenden Druck auf das verfügbare Spektrum der Mobilfunkanbieter. Da dieses begrenzt ist, der Datenhunger der Nutzer
und die Anzahl vernetzter Geräte aber weiter steigt, sind Netzbetreiber auf der Suche nach immer neuen Technologien, um mehr
aus ihrem verfügbaren Frequenzen herauszuholen.
Alternativen hierfür sind das Ausweichen auf WLAN oder auf
unlizenzierte, freie Spektren. Außerdem ergeben sich neue Möglichkeiten für ein gemeinsames Frequenzspektrum außerhalb
der traditionell lizenzierten und unlizenzierten Modelle – beispielsweise das koordinierte Shared-Spektrum-3.5-GHz-Modell
namens Citizens Broadband Radio Service (CBRS), das in den
USA bereits erfolgreich zum Einsatz kommt. Darauf auf bauend
haben mehrere branchenführende Unternehmen aus dem Bereich
Wireless die OpenG-Technologie entwickelt, um sich gemeinsam
der Herausforderung von Mobilfunkabdeckung und -Leistung in
Gebäuden anzunehmen.
Gemeinsam verwendete Spektren für bessere Mobilfunkabdeckung in Gebäuden
OpenG kombiniert die Fähigkeiten gemeinsam verwendeter Spektren, beispielsweise der besagten 3,5 GHz, mit neutralen hostfähigen kleinen Zellen. Eigentümer von Gebäuden jeder Größe
können dadurch ihren Kunden oder Mitarbeitern die Möglichkeit
des stabilen Mobilfunkempfangs in Innenräumen bereitstellen –
und zwar günstig, unkompliziert und netzwerkneutral.
Citizens Broadcast Radio Service (CBRS) bezeichnet die neuen,
von der amerikanischen Kommunikationsbehörde FCC eingeführten Regularien, durch die 150 MHz des Frequenzspektrums
(3.550–3.700 MHz) im 3,5-GHz-Band für eine kommerzielle
Nutzung in den USA freigegeben wurden. Dieser Bereich überschneidet sich mit den LTE-Bändern 42 und 43.
CBRS ermöglicht es Eigentümern von Gebäuden, kleine Boxen
– ähnlich einem WLAN-Router – zu installieren, die dieselben
Seite 43
CIOBRIEFING
11/2016
Funkwellen und Technologien wie Mobiltelefone verwenden.
Kunden verschiedener Mobilfunkanbieter werden so auf demselben Frequenzband versorgt. Die entsprechende Authentifizierung
mit dem Netzbetreiber wird durch die Infrastruktur durchgeleitet.
Dadurch haben Mobilgeräte innerhalb von Gebäuden denselben
Empfang wie unter freiem Himmel, ohne dass der Nutzer ständig
nach offenen WLAN-Netzen suchen oder sich einloggen muss.
Neue Möglichkeiten für Fest- und Mobilnetzanbieter
Die OpenG-Technologie ist damit eine mobilnetzunabhängige
und kostengünstige Alternative für DAS (Distributed Antenna
Systems) und Small Cells. Sie ist besonders geeignet für Festund Mobilnetzanbieter, denn diese können ihre Reichweite damit
ohne viel Aufwand enorm ausbauen, ohne dass eine Änderung des
Kernnetzwerks des Mobilnetzbetreibers erforderlich ist. Gleichzeitig können Fest- und Mobilnetzanbieter die Nutzererfahrung
ihrer Kunden überall verbessern, sogar in Gebäudeteilen, die bisher aus technischen oder betriebswirtschaftlichen Gründen nicht
im Fokus standen.
Weltweite Standards
An der Weiterentwicklung von CBRS-Lösungen und dem Ausbau
des 3.5 GHz-Ökosystems arbeiten viele der branchenführenden
Unternehmen. Dazu beteiligen sie sich beispielsweise an den Bemühungen des Wireless Innovation Forums. Der gemeinnützige
internationale Industrieverband, in dem sich auch deutsche Organisationen wie T-Mobile oder die RWTH Aachen engagieren,
setzt sich für die Entwicklung von Funkverkehr und -systemen in
aller Welt ein.
Zusammen entwickeln Verband und Unternehmen Standards
zum Betreiben des CBRS-Frequenzbands und treiben dessen Verbreitung voran. Dazu gehört auch, ein Interface für das zentrale
Spektrumskoordinationssystem zu liefern sowie die Koexistenz
derjenigen, die das Frequenzband teilen, zu regeln. Damit wird
der Einsatz von koordiniertem Shared-Spektrum und OpenG
weltweit forciert.
■ Christopher Mendoza
Seite 44
CIOBRIEFING
11/2016
Struktur und Zuständigkeiten bei Dell Technologies
EMC/Dell-Fusion: Noch viele
Unklarheiten im Detail
Die Fusion von EMC und Dell steht, doch das Schicksal
diverser Produkte, gerade aus dem Server-Bereich und
bei konvergenten respektive hyperkonvergenten Infrastrukturen, ist noch unklar.
Rund 1.000 Besucher waren laut Mario Haas, President und
Chief Commercial Officer bei Dell EMC, zur ersten gemeinsamen Veranstaltung des Unternehmens, das nun endgültig fusionieren darf, nach Mainz gekommen. Die Fusion soll im Februar
in Kraft treten, das gemeinschaftliche Unternehmen heißt dann
Dell Technologies und wird wie eine Holding funktionieren.
Darunter befindet sich die Dell Inc. mit drei Geschäftszweigen:
1. d ie vornehmlich von Dell bestückte Client Solutions Group,
die von Dell-Mann Jeff Clark geführt wird
2. d ie Infrastructure Solutions Group unter Leitung von EMCMann David Goulden, zu der auch der Sicherheitsspezialist
RSA und der Cloud-Service-Anbieter Virtustream gehören
- Beide werden vollständig integriert.
3. Global Services, wo alle kundenbezogenen Servicebereiche
beider Firmen vereinheitlicht werden, unter Leitung von
Howard Elias - Die Gruppe übernimmt Installation, Wartung und Consulting, letzteres allerdings nur hinsichtlich
konkreter Lösungen für die Kunden. Cloud-Services-Geschäft á la IBM Global Services sei hier nicht geplant, hieß
es, dafür sei die Cloud-Akquise Virtustream zuständig.
Bild: Dell Technologies
Die Struktur von Dell
und EMC nach der
­Fusion.
Seite 45
CIOBRIEFING
11/2016
Die Primärpartner
Gleichgeordnet neben Dell Inc. stehen drei Firmen, die bisher
als Federation Partner betrachtet wurden: Pivotal, Secureworks
und VMware werden jetzt unter der Bezeichnung Strategically
Alligned Businesses geführt. Diese Firmen werden ihre jetzige
Rechtsform nach derzeitiger Planung behalten. VMware bleibt an
der Börse und Gelsinger werde das Unternehmen weiter führen,
hieß es hinsichtlich immer wieder aufflammender Gerüchte über
dessen baldigem Abschied vom Virtualisierungs-Marktführer.
Diese strategischen Partner agieren selbständiger als die voll integrierten Töchter. Sie dürfen ihr geistiges Eigentum zum Beispiel
auch in Lösungen mit Drittanbietern einbringen, selbst wenn diese mit Dell Technologies konkurrieren. Wie Matthias Zastrow
berichtet, derzeit für den strategischen Vertrieb der zukünftigen
Dell Technologies Deutschland zuständig, scheint das durchaus
den Interessen der Kunden zu entsprechen. „Es gibt große Kunden, die eine volle Integration von Pivotal nicht tolerieren würden“, sagte er im Gespräch mit Datacenter Insider.
Konvergente und hyperkonvergente Systeme
Die konvergenten Infrastrukturen in allen fünf Ausprägungen
wurden im Übrigen weltweit unter Leitung von Chad Zakac zu
einem neuen Unterbereich zusammengefasst. Volker Wenzel, in
Deutschland als Manager Presales, VCE Technology Solution
GmbH (Dell EMC | Converged Platforms and Solutions Division
(CPSD) tätig, betonte: „Wir haben jetzt fünf Delivery-Varianten
für konvergente Lösungen unter einem Dach.“
Die unter Chad Sakac neu gegründete Converged Platform &
Solution Division (CPSD) vereint die vorhandenen Angebote der
Dell, EMC und VCE im Portfolio integrierter Stacks und Systeme. Vier Säulen sind die im Markt bekannten Bundles sowie
validierte Lösungen der Dell Inc., die Referenzarchitekturen der
EMC und die konvergenten und hyperkonvergenten ‚Engineered
Systems‘ („Vblock“, „VxBlock“, „Vxack Flex“ und „Vxail“) der
VCE und Dell (XC).
Cisco bleibt weiter strategischer Technologie & Businesspartner
und ist im Portfolio für Block basierte „Engineered Systems“
als Hersteller von „UCS“ und „Compute Fabric“, sowie von ToR
Ethernet Switches. Die Option für SDN auf Basis „Cisco ACI“
besteht für das Block- und Rack-Portfolio.
Eine weitere fünfte Säule umfasst Produkte, die bisher als „EMC
Federated Solutions“ (EHC, FBDL, NHC, FEUC) verarktet wur-
Seite 46
CIOBRIEFING
11/2016
den sowie das wachsende Portfolio ‚Hybrider Cloud Plattformen‘.
Hier verschmelzen ‚Engineered Systems‘ und vorhandene ‚Federated Solutions‘ sowie die Lösungspakete der ‚Strategically Aligned Businesses‘ VMware (SDDC incl. NSX), Pivotal (CF) und
Secureworks sowie der neu formierten Dell Inc. zu Komplettlösungen mit folgenden Wertmerkmalen:
●als Komplettlösung (Hard + Software + Services + Dokumentation, Schulungspakete ..) entwickelt
●ab Werk integriert, komplett getestet, ausgeliefert und vor Ort
in Betrieb genommen und an den Kunden übergeben (Turn
Key)
●als Komplettlösung zentral administrierbar / in den Bestand
leicht integrierbar
●über den Lifecycle ganzheitlich weiterentwickelt (Software
Releases + kompatible Hardware Neuerungen) und zertifiziert
●über den Lifecycle aus ‚einer Hand‘ supported
●Der Kauftrend und somit das Marktsegment für ‚Engineered
Systems‘ und ‚Turn Key‘ Komplettlösungen wächst beständig
stark.
„Der Kauftrend und somit das Marktsegment für ‚Engineered
Systems‘ und ‚Turn Key‘-Komplettlösungen wächst beständig
stark.“, sagt Wenzel.
Besonders wichtig soll laut Eror in Zukunft VMwares Netzvirtualisierungstechnologie „NSX“ werden, daneben RSA, Pivotal
und Virtustream, also der Cloud-Service-Arm der EMC. Eror:
„Mit NSX wird man künftig Workloads mitsamt ihrer IP-Adresse
auch über die Grenzen von Clouds und Rechenzentren hinweg
verschieben können.“ Was Produktankündigungen anging, möge
man diesbezüglich auf die nahende europäische VMworld in Barcelona und die Dell/EMC-World, die demnächst in Austin/Texas
stattfindet, warten.
Immerhin aber ließ sich Eror auf der Bühne publikumswirksamen einen noch nicht auf dem Markt befindlichen superdünnen
Convertible mit einer auf den Rücken des Geräts klappbaren Tastatur überreichen. Das Gerät soll Anfang nächsten Jahres auf den
Markt kommen.
Gemeinsame Spitze
Die deutschen Geschäfte führen zukünftig gemeinsam die bisherige Dell-Deutschland-Chefin Doris Albiez und EMC-Deutschland-Chef Dinko Eror. Sie sind auch auf oberster Ebene für die
Seite 47
CIOBRIEFING
11/2016
kundenbezogenen Vertriebsaktivitäten zuständig: Jeder Kunde
wird zukünftig entweder dem Enterprise- oder dem Commercial/Public-Segment zugeschlagen. Eror führt den EnterpriseVertrieb, der sich in Deutschland auf etwa 100 Firmen beziehen
dürfte, für den „Rest“ ist Albiez zuständig.
Daneben gibt es fachlich spezialisierte Vertriebseinheiten, etwa
für konvergente Infrastrukturen, die jeweils den Kundenzuständigen zuarbeiten. Für jeden mittelständischen Kunden ist genau
ein Mitarbeiter federführend verantwortlich, und der Channel,
der ja häufig das kleinere Kundensegment betreut, berichtet an
den Commercial-Bereich. Das integrierte Channel-Programm,
das entstehen soll, wird ebenfalls im Februar fertig sein. Eventuelle Doppelbesetzungen im Vertrieb sollen nicht durch Entlassungen beantwortet werden, stattdessen wolle man die Kenntnisse der betroffenen Mitarbeiter diversifizieren, so Wenzel.
Herausforderungen und Unklarheiten
Wie oben schon angedeutet, gibt es auch bei EMC/Dell wie immer
bei Fusionsprozessen einige Unklarheiten und Herausforderungen. So seien die Prozesse der beiden Firmen nicht durchgängig
kompatibel, hier müsse man in den nächsten Monaten Lösungen
finden, berichtet Eror. Hinsichtlich der Unternehmenskulturen
gebe es dagegen kaum Probleme: „Wir stellen beide den Kunden
in den Mittelpunkt und bemühen uns um große Flexibilität“, betont Eror.
Es könnte durchaus sein, dass einige bewährte Geschäftsbeziehungen zu Kooperationspartnern in Zukunft in Frage stehen,
auch wenn das kein Manager bestätigen möchte. Die Dell-Kooperation mit Nutanix beispielsweise ist so ein Fall. Denn immerhin
hat die Dell Technologies nun mit „Vxrails“ ein eigenes Hyperkonvergenz-Produkt. Zwar bestreitet das Hyperkonvergenz-Chef
Chad Sakac vorsorglich in seinem Blog, doch darf man bei aller
Wahlfreiheit der Kunden wohl mittelfristig ausgehen, dass der
EMC/Dell-Presales lieber die eigenen Lösungen empfiehlt.
Für Cisco gilt das weniger: Auch in Zukunft dürften die Anwender gern auf Cisco setzen, die eine Cisco-Netzwerkinfrastruktur
nutzen oder SDN (Software Defined Networking) in einem CiscoFlavor verwenden. Denn Cisco integriert seine „ACI“-Technologie, die Durchgängigkeit zu den höheren Anwendungsebenen eines softwaredefinierten Netzes schafft, zwar in eigene Produkte,
nicht aber in solche anderer Firmen. Deren Hersteller müssen sie
im Zweifel lizenzieren.
Seite 48
CIOBRIEFING
11/2016
Im Übrigen bringt Dell, das vor einigen Jahren den Netzwerkspezialisten Force10 eingekauft hatte, ja durchaus auch bei Netzwerken Know-how mit, und man darf gespannt sein, wie es in
Zukunft umgesetzt wird. Dells Speicherprodukte dürften in Zukunft keine große Rolle spielen, wohl aber die Integrationsplattform „Dell Boomi“.
Das Geschäft
Über die wichtigsten Kennzahlen der vereinigten Firma gibt es
immerhin verlässliche Informationen. Sein Umsatz wird etwa
74 Milliarden Dollar betragen, es hat 140.000 sogenannte TeamMembers (vulgo: Mitarbeiter) in 180 Ländern, und über 30.000
davon kümmern sich um den Kundendienst. EMC und Dell halten zusammen genommen rund 20.000 angemeldete Patente und
haben in den vergangenen drei Jahren 12,7 Milliarden Dollar in
Forschung und Entwicklung gesteckt.
Inhaltlich fokussiert sich Dell Technologies man auf IT-Modernisierung, Workforce- und Security-Transformation, Cloud und
Analytik. Für alle diese Bereiche sollen End-to-End-Lösungen
entstehen, die dem Kunden aber die freie Wahl der Komponenten
lassen.
■ Ariane Rüdiger
Seite 49
CIOBRIEFING
11/2016
Womit sich Startups heute beschäftigen, Teil 10
Portworx bringt Storage und
Container zusammen
Bild: Portworx
Auf einer Pressetour im Silicon Valley präsentierte CEO
und Co-Founder Murli Thirumale vor kurzem sein junges
Unternehmen Portworx. Gegründet 2014 in Redwood
City, Kalifornien, wird sein Ansatz, software-defined
Storage auf der Basis von Containern anzubieten, von
den Analysten von 451 Research als „einzigartig“ für die
Speicherbranche bezeichnet.
Die drei Gründer, neben Thirumale sind dies Gou Rao und Eric
Han, verfügen alle über langjährige Erfahrung in der IT-Industrie – sie arbeiteten in leitenden Funktionen u.a. für Dell, Ocarina,
Citrix, HP, Nimble Storage, Google und Microsoft. Lead Investor
ist die renommierte Venture-Capital-Firma Mayfield, außerdem
hat sich Michael Dell beteiligt.
Portworx setzt der Legacy-Infrastruktur, wie sie von den etablierten Platzhirschen der Server- und Speicherindustrie einschließlich VMware und Red Hat verfolgt wird, eine „Thin Infrastructure“ entgegen: Die unterste Ebene wird von
x86-Standard-Servern gebildet, während darüber Portworx-Storage, ein minimales Betriebssystem, Container und eine Software-Schicht für Orchestrierung und Scheduling liegen.
Statt Thin provisioning Thin infrastructure
Portworx will die Container-Technologie als entscheidenden
Baustein seines Infrastruktur-Konzepts benützen. Dazu verweist
das Startup auf den schon bisher durchschlagenden Erfolg dieser
Im Unterschied zu dem
komplexen Aufbau von
virtuellen Maschinen,
die auf einem Hypervisor
aufsetzen, und intern
ein Betriebssystem be­
nötigen, geht der
­Container-Ansatz von
minimalen Ressourcen
aus.
Seite 50
CIOBRIEFING
11/2016
Technologie: Die Container-Software von Docker habe bisher ein
höheres Verkaufspotential gezeigt als jede andere neue Technologie, die seit 2010 eingeführt wurde, und viele große Unternehmen
arbeiten bereits damit.
Auch Cloud-Anbieter wie Amazon AWS, Microsoft Azure und
Google Cloud setzen auf Container und unterstützen seit Jahren
entsprechende Open-Source-Initiativen. Im Unterschied zu dem
komplexen Aufbau von virtuellen Maschinen, die auf einem Hypervisor aufsetzen, und intern ein Betriebssystem benötigen, um
eine oder mehrere Applikationen aufzunehmen, geht der ContainerAnsatz von minimalen Ressourcen aus: Sie brauchen keinen Hypervisor als Basis und auch keine eingebetteten Betriebssysteme.
Stattdessen sind sie über ein API (Application Programming Interface) mit einem außerhalb befindlichen Betriebssystem verbunden – in der Vergangenheit waren das meistens Unix und Linux.
Funktionale Container Software
Bestehende SAN- und NAS-Systeme sind laut Portworx-CEO Thirumale zu umständlich (und zu teuer), um für die primäre oder
sekundäre Speicherung (für Online-Backup/Restore oder für längerfristige Backups und Archivierung) geeignet zu sein. IT-Administratoren sollen sich nicht mehr, so Thirumale, mit Fibre-Channel-Switches und mit deren Herstellerbesonderheiten abplagen
müssen, sondern einfach auf Software-Ebene ihre Anwendungsund Speicher-Container mit Clustern und Netzwerk verbinden.
Thirumale führt aus: „Wir knüpfen an zwei Entwicklungen an:
zum einen an den heutigen Commodity-Servern mit hohen Kapazitäten und hyper-converged Ausstattung an Server und Storage,
zum anderen an den service-orientierten Software-Angeboten à
la Docker.
Wir bieten entweder On-premise oder für Cloud- und Hybrid-Umgebungen Speicher-Funktionen an, die für Container komplett in
Software geschrieben sind und alle gewohnten Speicherleistungen wie zum Beispiel Snapshots, Replikation oder vorausschauendes Kapazitäts-Management umfassen.“
Der Container Storage Pool
Die kostenlose PX-Developer-Software erlaubt es Devops-Anwendern, Storage-Kapazität über einen Container zur Verfügung
zu stellen, wodurch während des Entwicklungsprozesses flexibel
und schnell auf Speicherkapazität zugegriffen werden kann.
Seite 51
CIOBRIEFING
11/2016
PX-Enterprise wird mit einem Subskriptionsmodell angeboten
und bietet eine zusätzliche graphische Oberfläche (GUI) sowie
weitere Features wie zum Beispiel ein Cluster-weites Management und Visibilitätsfunktionen. PX-Lite konzentriert in einem
Container lokale Speicherressourcen wie All-Flash- und SATAArrays, so dass sie wie ein gemeinsamer Pool verwaltet werden
können.
Die Analysten von 451 Research sprechen von einem „auf Container zugeschnittenen Speicheransatz“: „Die Portworx-Software
ist in der Lage, Daten von Anwendungen in Containern über
mehrere Server und Knoten hinweg langfristig und zuverlässig
zu speichern.“ Sie unterstütze das Management von ContainerStorage sogar für eine Infrastruktur auf Multi-Cloud-Ebene.
Anwender müssen bedenken, dass die Entwicklung von Container-Standards noch keineswegs abgeschlossen ist. Vieles ist noch
im Fluss. Bei Portworx glaubt man, dass man relativ weit in der
Entwicklung von Storage-Containern ist, weiß aber auch, dass
Konkurrenten aus dem Hardware- sowie aus dem Software-Lager dabei sind, auf diesen Zug aufzuspringen. ■ Hartmut Wiehr
Seite 52
CIOBRIEFING
Technology-Update für IT-Manager
Regelmäßig
kostenlos lesen?
Die Ausgabe 12/2016 erscheint am 01.12.2016
+++ Jetzt anmelden auf +++
www.bigdata-insider.de/cio
www.ip-insider.de/cio
www.cloudcomputing-insider.de/cio
www.security-insider.de/cio
www.datacenter-insider.de/cio
www.storage-insider.de/cio
Herunterladen