ISSN 2364-3188 www.ciobriefing.de CIOBRIEFING Technology-Update für IT-Manager 11/2016 +++ Big Data als Schlüssel für die vorausschauende Wartung +++ Schrittweise Umsetzung der VdS-3473-Richtlinie +++ So vermeiden Sie die 5 größten Fehler bei der Cloud-Migration +++ Hybride Netze – MPLS, Internet VPN, SD-WAN & Co. +++ OpenStack – da kommt was auf die Anwender zu +++ Für Anwender bringt der HDS-Lösungs-Stack entscheidende Vorteile +++ Cloudera will Zugang zu M ­ aschinenintelligenz erleichtern +++ Datenbanken auf Azure m ­ igrieren +++ Smartwatches mit speziellen Business-Funktionen +++ OpenG & Shared-Spektrum – WLAN und LTE verschmelzen +++ EMC/Dell-Fusion: Noch viele ­U nklarheiten im Detail +++ Portworx bringt Storage und Container ­zusammen +++ powered by CIOBRIEFING 11/2016 MANAGEMENT & STRATEGIE Big Data als Schlüssel für die vorausschauende Wartung..........................3 Schrittweise Umsetzung der VdS-3473-Richtlinie......................................7 So vermeiden Sie die 5 größten Fehler bei der Cloud-Migration............... 10 Hybride Netze – MPLS, Internet VPN, SD-WAN & Co.............................. 15 OpenStack – da kommt was auf die Anwender zu..................................20 Für Anwender bringt der HDS-Lösungs-Stack ­entscheidende Vorteile..... 24 TECHNOLOGIE & ZUKUNFT Cloudera will Zugang zu ­Maschinenintelligenz erleichtern........................30 Datenbanken auf Azure ­migrieren...........................................................34 Smartwatches mit speziellen Business-Funktionen.................................38 OpenG & Shared-Spektrum – WLAN und LTE verschmelzen.................. 41 EMC/Dell-Fusion: Noch viele Unklarheiten im Detail.................................45 Portworx bringt Storage und Container zusammen.................................50 IMPRESSUM: Vogel IT-Medien GmbH August-Wessels-Str. 27 86156 Augsburg Tel.: +49(0)821-2177-0 Fax: +49(0)821-2177-150 Email: [email protected] Internet: www.vogel-it.de Handelsregister Augsburg HRB 1 19 43 Umsatzsteueridentifikationsnummer: DE 127502716 Geschäftsführer: Werner Nieberle Inhaltlich Verantwortliche gemäß § 55 Absatz 2 RStV: Nico Litzel, Florian Karlstetter, Ulrike Ostler, Andreas Donner, Peter Schmitz, Rainer Gra efen (Anschrift siehe Verlag) Vogel IT-Medien Die Vogel IT-Medien GmbH, Augsburg, ist eine 100prozentige Tochtergesellschaft der Vogel Business Media, Würzburg. Seit 1991 gibt der Verlag Fachmedien für Entscheider heraus, die mit der Produktion, der Beschaffung oder dem Einsatz von Informationstechnologie beruflich befasst sind. Dabei bietet er neben Print- und Online-Medien auch ein breites Veranstaltungsportfolio an. Die wichtigsten Angebote des Verlages sind IT-BUSINESS, eGovernment Computing, BigData-Insider.de, CloudComputing-Insider.de, DataCenter-Insider.de, IP-Insider.de, Security-Insider.de, Storage-Insider.de. Vogel Business Media Das Fachmedienhaus Vogel Business Media ist einer der führenden deutschen Fachinformationsanbieter mit rund 100 Fachzeitschriften und 60 Webseiten sowie zahlreichen internationalen Aktivitäten. Hauptsitz ist Würzburg. Die Print- und Online-Medien bedienen vor allem die Branchen Industrie, Automobil, Informationstechnologie und Recht/Wirtschaft/Steuern. CIOBRIEFING 11/2016 Predictive Maintenance in der Automobilbranche Big Data als Schlüssel für die vorausschauende Wartung Predictive Maintenance wird oft mit dem Blick in die Glaskugel verglichen, dabei basieren die Vorhersagen für drohende Ausfälle auf anspruchsvollen Analysen und festgelegten Algorithmen. Mit einer hochwertigen Datenbasis, den richtigen Messungsgrundlagen und Herangehensweisen können mit diesem Modell Ausfallzeiten vorhergesagt, Schäden verhindert, Gewährleistungs- und Wartungskosten gesenkt sowie die Kundenbindung gestärkt werden. Predictive Maintenance ist und wird für Branchen, bei denen Maschinen zum Einsatz kommen, vor allem in Zukunft unumgänglich sein – insbesondere in der Automobilbranche findet dieser Ansatz bereits großen Anklang. Der harte Kampf der Automobilbranche Bild: Alexander Thamm GmbH Gerade die Automobilbranche hat immer wieder mit Rückschlägen und Imageverlusten zu kämpfen – Rückrufaktionen aufgrund fehlerhafter Fahrzeugteile und der Abgasskandal sind nur zwei Beispiele. Erst vor kurzem musste Toyota wieder Modelle zurückrufen, bei denen es zu Rissen in einem Aktivkohlefilter im Tank und Airbag-Problemen gekommen war. Insgesamt muss der japanische Autohersteller weltweit 3,4 Millionen Autos in die Werkstatt bitten. Toyota ist dabei kein Einzelfall – neben hohen Kosten für Wartung und Gewährleistung, leidet dadurch besonders die Beziehung zum Kunden. Mithilfe von Predictive Maintenance konnte ein Automobilhersteller ­Kosten in Millionenhöhe einsparen. Aufgrund von Vorhersagemodellen wurden im Rahmen des nächsten Werkstatt­ besuches frühzeitig ­fehlerhafte Teile ausge­ tauscht. Seite 3 CIOBRIEFING 11/2016 Doch wie lässt sich eine solche Fehlerquelle ermitteln, verhindern oder gar vorhersehen? Die Antwort: mit Daten. Die voranschreitende Digitalisierung und neue Möglichkeiten, die durch das Internet of Things aufkommen, machen auch vor der Automobilbranche nicht Halt, Connected Cars sind auf dem Vormarsch. Nicht nur Kunden profitieren von der zunehmenden Vernetzung der Fahrzeuge, z. B. durch rechtzeitige Wartungsinformationen oder standortbasierte Empfehlungen, sondern auch Hersteller: Sie bekommen ein tieferes Verständnis für Technologien, können ihre Produktentwicklung vorantreiben, die Kosten für Garantie und Gewährleistung senken und den Wert hinter den Daten besser nutzen. In den (Echtzeit-)Fahrzeugdaten stecken wertvolle Informationen, die es zu sammeln und analysieren gilt, denn dadurch können Vorhersagen über Ausfälle getroffen und Fehler vorhergesehen werden. Kombiniert man diese Daten mit der Expertise der Komponentenentwickler, werden mittels Advanced Analytics neue Ansätze der Qualitätssicherung – und Predictive Maintenance – möglich. Datenanalyse als Basis für Predictive Maintenance Um mögliche Fehlerquellen identifizieren bzw. vorhersagen zu können, werden Muster definiert, um ein anfälliges Fahrzeug zuverlässig von einem „gesunden“ unterscheiden zu können. Unterscheidungs- beziehungsweise Hinweisquellen sind beispielsweise Informationen über die Länge der zurückgelegten Strecken, die Häufigkeit der Fahrzeugnutzung, die Durchschnittsgeschwindigkeit oder auch Witterungsverhältnisse. Im nächsten Schritt werden die Daten für diese Parameter erhoben. Das erfolgt üblicherweise über ein Telematikmodul im Fahrzeug. Bei älteren Generationen ohne Telematik können die Informationen durch eine Fahrzeugauslesung in der Werkstatt gewonnen werden. Diese Daten kann der Hersteller sowohl bei intakten als auch defekten Fahrzeugmodellen ermitteln, um anschließend eine aussagekräftige Analyse durchführen zu können. Denn nur durch diese Gegenüberstellung läuft der Hersteller nicht Gefahr, ein generelles Problem der Baureihe, das sowohl bei kranken als auch bei gesunden Fahrzeugen auftritt, als eine Anomalie anzusehen. Die Diskrepanzen zwischen beiden Fahrzeugtypen (krank und gesund) werden in einem Predictive-Analytics-Modell genau betrachtet und identifiziert. Die präventive Wartung in der Praxis Das Beispiel eines von der Alexander Thamm GmbH betreuten Premiumautomobilherstellers zeigt, wie schwerwiegend Schäden Seite 4 CIOBRIEFING 11/2016 innerhalb des Gewährleistungszeitraums sein können. In diesem konkreten Fall drohten an einer Reihe von Fahrzeugen kapitale Motorschäden aufgrund eines fehlerhaften Bauteils. Die potenziellen Reparaturkosten pro Fahrzeug hätten sich auf einen mittleren vierstelligen Betrag belaufen. Der Automobilhersteller hatte nun zwei Möglichkeiten: Im Rahmen eines Rückrufs entweder bei allen betroffenen Fahrzeugen die notwendigen Teile wechseln oder einzeln prüfen, ob ein Wechsel nötig ist. Oder keine Maßnahmen treffen und die aufgetretenen Schäden erst dann beheben, wenn sie bereits passiert sind. Im ersten Fall lägen die Kosten pro Fahrzeug im oberen zweistelligen Bereich. Insgesamt würde die umfassende technische Überprüfung aller Autos Kosten in Millionenhöhe verursachen und die öffentliche Rückrufaktion für einen Imageschaden sorgen. Die zweite Option würde zu Kosten im vierstelligen Bereich pro Motorschaden führen. Außerdem müsste der Hersteller mit einer hohen Kundenunzufriedenheit und einem nicht einschätzbaren Sicherheitsrisiko rechnen. Um die Kosten sowie den Imageverlust möglichst gering zu halten, musste eine Lösung entwickelt werden, mit der die vom Motorschaden betroffenen Fahrzeuge eindeutig von den „gesunden“ unterschieden werden konnten. Einen ersten Anhaltspunkt boten Indikatoren wie der Kilometerstand, der Verschleiß und die Durchschnittsgeschwindigkeit, die im Zusammenspiel zu einem Schaden führen können. Auch hier wurden betroffene mit nicht betroffenen Fahrzeugen verglichen. Durch die Implementierung des Algorithmus konnten die Data Scientists der Alexander Thamm GmbH zum einen verhindern, dass „gesunde“ Modelle repariert wurden. Zum anderen ließen sich fehlerhafte Teile aufgrund von Vorhersagemodellen im Rahmen des nächsten Werkstattbesuches frühzeitig austauschen. Im Ergebnis konnte der Hersteller 75 Prozent aller betroffenen Fahrzeuge identifizieren und seine Gewährleistungskosten um über 50 Prozent senken. Durch die Vermeidung möglicher Pannen wurde zudem verhindert, dass Kunden ihr Vertrauen in das Unternehmen verloren. Mit Sicherheit in die Zukunft Die Bedeutung und Verbreitung von Predictive Maintenance in Unternehmen hat in den letzten Jahren stark zugenommen. Seite 5 CIOBRIEFING 11/2016 Die datenbasierten Verfahren und Modelle zur vorausschauenden Wartung und Berechnung von Ausfallwahrscheinlichkeiten schaffen nicht nur in der Automobilbranche, sondern auch in vielen weiteren Branchen einen enormen Mehrwert. Insbesondere dort, wo der Mensch nur selten eingreift, wie bei Windkrafträdern, Flugzeugturbinen oder auch Lackierrobotern in Produktionsanlagen sind mathematische Vorhersagen über die nächste Instandhaltung bzw. einen drohenden Ausfall wichtig. Mit der Nutzung von Big Data und den Vorhersagemodellen können Unternehmen Kosten in Millionenhöhe verhindern und nicht zuletzt auch die Kundenbeziehung und -zufriedenheit stärken. Laut Statista wird der Umsatz im Bereich Predictive Maintenance bis 2020 auf 133,1 Millionen Euro steigen – aktuell liegt der Umsatz bei ca. 24,2 Millionen Euro. Das unterstreicht die hohe Bedeutung dieses Analytics-Anwendungsfalls. ■ Alexander Thamm CIOBRIEFING Technology-Update für IT-Manager Mehr zum Thema Big Data finden Sie auf www.bigdata-insider.de Seite 6 CIOBRIEFING 11/2016 Vertrauen durch Sicherheit, Teil 2 Schrittweise Umsetzung der VdS-3473-Richtlinie Will man Security-Guidelines im Unternehmen einführen, sind die ersten Schritte bekanntlich am schwierigsten. Bei der Richtlinie VdS 3473 bekommt man aber ein wenig Hilfe. In diesem Beitrag verraten wir, welche Maßnahmen man vor der Einführung der Richtlinie ergreifen sollte und wie sich das Rahmenwerk umsetzen lässt Was einen bei der Umsetzung von VdS 3473 erwartet und wo Security-Nachbesserungen erforderlich sind, zeigt ein VdS-QuickCheck via Web-Fragebogen. Starte man den Check, erhält man nach einer kurzen Bearbeitungszeit von etwa 20 Minuten eine grobe Einstufung. Dialog-orientiert arbeitet man sich durch einen kleinen Fragenkatalog und beantwortet dabei Schlüsselfragen zum IST-Zustand. Die Hintergründe der Frage können dabei über ein Hilfe-Icon (?) eingeblendet werden. Dies erlaubt es, die Anforderung besser zu verstehen und die eigene Situation aus diesem Blickwinkel optimal zu beurteilen. Hat man so alle Fragen beantwortet, erhält man eine tabellarische Ansicht, in der die einzelnen Themengruppen (Organisation, Technik, ...) und die Quick-Check-Schnellbeurteilung des IST-Zustands angezeigt werden Nach Abschluss des Quick-Checks kann man entweder selbst eine Nachbesserung initiieren (um dann erneut einen QuickCheck durchzuführen) oder man holt sich bereits zu diesem Zeitpunkt einen VdS-Auditor ins Boot, der die Nachbearbeitung unterstützt. Dieser Auditor kann auch gleich einen kostenpflichtigen, sogenannten Quick-Audit vornehmen und dabei ein Konformitätstestat auf Basis des VdS Quick-Checks ermitteln. Bild: VdS Mit dem VdS Quick Check lässt sich der ­Ist-Zustand der CyberSicherheit im Unter­ nehmen in etwa 20 Minuten erfassen Seite 7 CIOBRIEFING 11/2016 Die Kosten-Frage und Zertifizierungsablauf Der Löwenanteil der Kosten wird für die Nachbesserung der aktuellen IST-Situation im eigenen IT-Umfeld anfallen. Denn die VdS 3473 hat MUSS-Komponenten, die im Unternehmen ggf. erstmal etabliert oder angepasst werden müssen. Themen wie beispielsweise Funktionstrennung, Missbrauchskontrolle und Mitarbeiter-Schulung sind Zeit- und Kostenintensiv. Dies erklärt möglicherweise auch, weshalb gegenwärtig nur drei Unternehmen auf der VdS-Webseite aufgeführt sind, die nach 3473 zertifiziert wurden (Stand 4/2016). Wie eine Zertifizierung im Idealfall abläuft, wird im Dokument „Zertifizierung der Informationssicherheit in kleinen und mittleren Unternehmen (KMU)“ exemplarisch beschrieben. Hier wird auch auf die Gebührentabelle (Modul Y) verwiesen, welche die zu erwartenden Kosten für die Zertifizierung nennt. Die Gebührentabelle (Stand: Januar 2016) führt diverse Einzeltätigkeiten bzw. Stundensätze auf, die additiv die Gesamtsumme ergeben. Für einen Quick-Audit, auf Basis des Quick-Checks, können Kosten anfallen, die sich im (mittleren) vierstelligen Euro-Bereich bewegen. Für den eigentlichen Audit inklusive der Zertifizierung kann man mit einem hohen vierstelligen €-Betrag rechnen. Generell gilt, je intensiver das Unternehmen seine Hausaufgaben bei der Umsetzung der Richtlinie gemacht hat und je besser diese Umsetzung verifiziert werden kann, desto preiswerter ist das gesamte Verfahren. Letztendlich solle man aber ein Angebot einholen, dass ein VdSAuditor zu einem überschaubaren Preis ermitteln kann. Zusammenfassung KMUs können mit Umsetzung der VdS-Richtlinie 3473 Ihre IT-Sicherheit auf ein stabiles Fundament stellen und das Unternehmen zukunftsorientiert ausrichten. Es ist ein Schritt in die richtige Richtung! Es ist aber kein leichter Weg, aber wer ihn beschreitet wird mittelfristig davon profitieren! Wie steht es um den Aufwand, der Umsetzung der Richtlinie? Aus der Praxis berichtet Stefan Klinger, VdS-Berater bei LivingData. CIOBRIEFING: Herr Klinger, Sie als zertifizierter VdS-Berater stehen an vorderster Front. Was sind die drei größten Herausforderungen, die Ihren Kunden bei der Umsetzung der VdS 34732 zu denken geben? Seite 8 CIOBRIEFING 11/2016 Stefan Klinger: Da meine Kunden vor allem kleinere Unternehmen bis ca. 30 Mitarbeiter sind, ist das Bereitstellen der Manpower für den ISB eine große Herausforderung. Auch ist in diesem Umfeld meistens keine eigene IT-Abteilung vorhanden, die IT wird von einem Mitarbeiter nebenbei mitgemacht, somit ist eine Trennung zwischen den fast nicht vorhandene IT-Leiter und den ISB wenn es überhaupt eine qualifizierte Person gibt kaum möglich. In diesem Kundenkreis geht viel auf Zuruf, hier jetzt strukturierte Prozesse einzuführen stößt teilweise auf großes Misstrauen und es verlangt schon Überzeugung so ein System durchzusetzen. CIOBRIEFING: Für die Erstzertifizierung ist eine maximale Laufzeit von 18 Monaten möglich. Schaffen die Anwärter dies oder ist für die Mehrzahl der Unternehmen diese Zeitspanne zu kurz? Wenn die Akzeptanz vorhanden ist und die entsprechenden Mitarbeiter hinter dem Projekt stehen, dann sollte diese Zeitspanne in der Regel ausreichend sein. Nach Aussage auf der VdS-Webseite gilt „Mit ca. 20 % des Aufwandes im Vergleich zu ISO 27001 können KMU aus den VdSRichtlinien Maßnahmen und Prozesse ableiten, mit denen...“ ist dieser Wert Ihre Einschätzung nach auf Dauer haltbar? Wenn erst einmal die Einführung gemacht wurde, was den größten Zeitaufwand bedeutet, so denke ich, dass der Wert auf Dauer schon zu halten ist. ■ Ralph Dombach Seite 9 CIOBRIEFING 11/2016 Die Cloud im Mittelstand So vermeiden Sie die 5 größten Fehler bei der Cloud-Migration Die Vorteile bei der Nutzung von Cloud-Technologien sind hinlänglich bekannt, allen voran die damit verbundenen Kosteneinsparungen und mögliche Wettbewerbsvorteile. Allerdings gibt es auch ein paar Stolperfallen, wenn Unternehmen ihre Prozesse und Systeme in die Cloud verlagern. Für diese gilt es vorzusorgen. Bild: © vectorfusionart - Fotolia.com Durch die Digitalisierung verändert sich auch die Erwartungshaltung der Kunden an neue und verbesserte IT-Services. Dass durch die Nutzung der Cloud-Technologie je nach gewähltem Cloud-Modell Hardware-, Software- und Betriebskosten eingespart werden können und so nachhaltig Wettbewerbsvorteile erzielt werden können, ist hinlänglich bekannt. Die Cloud bietet darüber hinaus die Möglichkeit, neue Kunden-Services sehr schnell und flexibel anzubieten. Allerdings gibt es auch ein paar Stolperfallen, wenn Unternehmen ihre Prozesse und Systeme in die Cloud verlagern. Für diese gilt es vorzusorgen. Zusätzlich zu den rein technischen Überlegungen spielen auch rechtliche und fachspezifische Aspekte eine entscheidende Rolle bei der Migration in die Cloud. In der IT-Strategie eines Unternehmens sollte heutzutage festgeschrieben werden, wie die individuelle digitale Transformation für das eigene Unternehmen aussieht und wie viel Cloud-Technologie zur Erreichung der langfristigen Geschäftsziele benötigt wird. Nur so lassen sich Unternehmensprozesse optimal unterstützen und eine schnelle Anpassung auf Kunden- und Marktänderungen sicherstellen. Gerade mittelständische Unternehmen können von den Skaleneffekten Cloud im Mittelstand: Stolperfallen bei der ­Migration und wie man sie vermeidet. Seite 10 CIOBRIEFING 11/2016 der Cloud profitieren. Je mehr Services aus der Cloud bezogen werden, desto stärker müssen sich IT-Verantwortliche als Business Service Provider verstehen, die Prozesse der Wertschöpfungskette unterstützen und ständig durch den sinnvollen Einsatz von IT verbessern. Viele Fehler bei der Migration in die Cloud lassen sich bereits im Vorfeld durch eine überlegte und vielfach erprobte Vorgehensweise vermeiden. Vorgehensweise zur erfolgreichen Migration in die Cloud Fehler Nummer 1: Die Unternehmensziele sind nicht klar definiert und in der IT Strategie ist nicht festgehalten, wie mit dem Thema Cloud umgegangen werden soll Wenn in der IT-Strategie nicht klar formuliert ist, wie die CloudAusrichtung des Unternehmens für die nächsten Jahre aussehen und welche Roadmap verfolgt werden soll, entstehen oft Insellösungen durch fachlich getriebene SaaS-Ansätze im Unternehmen. Diese Cloud-Insellösungen verursachen an den Schnittstellen zu anderen Systemen oder in der Interaktion mit den Mitarbeitern oft einen hohen Aufwand. Das mindert die Produktivität und lässt die Mitarbeiterzufriedenheit sinken. Vermeidung: Ist in der IT-Strategie das Thema Cloud Computing verankert, so können mögliche Cloud-Szenarien abgeleitet werden und die notwendigen organisatorischen Maßnahmen für ihre Realisierung ergriffen werden. Eine Gesamtarchitektur, die die Anforderungen aller Abteilungen aufgreift, kann so leichter erstellt werden. Fehler Nummer 2: Kaum Cloud-Erfahrungen Die Nutzung von Cloud-Technologie erfordert, wie jede neue technologische Entwicklung, neues Wissen und neue Erfahrungen. Beim Cloud Computing kommt verstärkt der Aspekt der Datensicherheit zum Tragen, der beim eigenen Rechenzentrum gerne als gegeben vorausgesetzt wird. Werden beispielsweise Kundendokumente in die Cloud verschoben, sollte zuvor geprüft werden, ob die Kunden einer Datenspeicherung in der Cloud zugestimmt haben. Schon vor Beginn der Migration sollte geklärt werden, wie die Daten und Informationen bei Bedarf wieder aus der Cloud abgezogen werden können, wenn etwa der Cloud-Anbieter gewechselt werden soll oder die Daten in ein lokales Rechenzentrum migriert werden. Seite 11 CIOBRIEFING 11/2016 Oftmals fehlt im Unternehmen aufgrund von mangelnder Erfahrung das fachliche, rechtliche und technische Know-How, um alle Aspekte des Cloud Computing abzudecken. Teilweise schlummert es bei Mitarbeitern in unterschiedlichen Abteilungen. Vermeidung: Sorgen Sie im Unternehmen dafür, dass die notwendigen Cloud-Kompetenzen in einem Cloud-Team gebündelt werden. Hat das Unternehmen wenig Erfahrung mit Cloud Computing, ist es sinnvoll, sich mit erfahrenen externen Mitarbeitern bzw. Experten zu verstärken. Da sich nicht jedes Szenario für die Cloud eignet, bietet es sich an, einen Prozess im Unternehmen zu etablieren, der prüft, ob ein System oder Prozess überhaupt sinnvoll in die Cloud migriert werden kann. Die Aufgaben des mit der Umsetzung betrauten Cloud-Teams sind dabei sehr umfangreich. Das Wissen für ein erfolgreiches Projekt sollte dabei aus den unterschiedlichsten Abteilungen beigesteuert werden. Typischerweise setzen sich die Cloud-Kompetenzen aus Mitarbeitern der Fach- und IT-Abteilung und dem Datenschutzbeauftragten zusammen. Das Cloud-Team sollte idealerweise all diese Tätigkeiten abdecken: ●Aufnahme der Ist-Situation (Prozesse und Systeme) ●Nutzen für Anwender definieren ●Bewertung der Komplexität der Systeme und Festlegen der Datensicherheitskriterien ●Erstellen einer Gesamtarchitektur (Hybride Szenarien, Schnittstellen) ●Anforderungen an die Infrastruktur (Hochverfügbarkeit) Roadmap für die Migration (Beschreibung des Migartionspfad) ●Beurteilung, ob bestehende Applikationen für die Migration neuentwickelt oder direkt migriert werden oder ob eine SaaS Lösung in Frage kommt. ●Festlegen der Projektmethode ●Kommunikation innerhalb des Unternehmens und Wissensvermittlung. Gibt es neue Anforderungen und Vorgaben, eine neue Applikation einzuführen, so beurteilt das Cloud-Team ob eine Neuentwicklung stattfinden soll oder ob es eine geeignete Cloud-Lösung eines Anbieters gibt und mit welchem Aufwand diese in die IT Landschaft integriert werden kann. Seite 12 CIOBRIEFING 11/2016 Die Erfahrung hat gezeigt, dass ein solches Cloud-Team mit den notwendigen Entscheidungskompetenzen und einem hohen Freiheitsgrad ausgestattet sein sollte. Nur so entstehen in diesem Team kreative und innovative Ideen und eine erfolgreiche Projektierung. Fehler Nummer 3: Cloud ist Cloud – wirklich? Sind alle Szenarien beschrieben und die Mitarbeiter hoch motiviert, um die erste Umsetzung in der Cloud durchzuführen, stellt sich die Frage nach dem richtigen Cloud Provider. Es muss entschieden werden, ob eine Private oder Public Cloud am besten geeignet ist und welche Verfügbarkeit und Flexibilität am besten zum Unternehmen passt. Danach erfolgt die Auswahl des geeigneten Cloud Providers. Der Preis darf dabei nie das einzig entscheidende Kriterium sein! Cloud Provider unterscheiden sich sehr oft in essentiellen Bereichen, wie der regionalen Datenhaltung, der garantierten Verfügbarkeiten, den erfüllten Sicherheitsnormen und verwendeten Zertifikaten. Auch die technischen Voraussetzungen, die beim Kundenerfüllt sein müssen, sind oft unterschiedlich. Vermeidung: Ein Kriterienkatalog an die Anforderungen, die sich aus der Gesamtarchitektur ergeben, dient als gute Grundlage für die Wahl des richtigen Cloud-Anbieters. Dem Ziel eine Abhängigkeit vom eigenen Cloud Provider unbedingt zu vermeiden, sollte dabei oberste Priorität eingeräumt werden. Fehler Nummer 4: Die Migration mit der komplexesten ­Applikation starten Oft wird bei der Migration der Ansatz gewählt, die komplexeste Anwendung zuerst zu migrieren. Die Gründe hierfür sind nachvollziehbar. Wird die umfangreichste Applikation zuerst in die Cloud ausgelagert, dann sind die meisten Prozesse, Schnittstellen und Daten involviert. Hat es erst einmal diese komplexe Anwendung in die Cloud geschafft, sollten die folgenden Projekte ein Klacks sein. Vermeidung: In der Theorie mag das stimmen, in der Praxis hat sich allerdings gezeigt, dass es viel zielführender ist, zunächst die einfachste Applikation zuerst zu migrieren. Hierbei kann man im Kleinen lernen, ob die angedachten Methoden funktionieren. Auch der zeitliche Aufwand und das Risiko zu Scheitern sind deutlich geringer und damit die Aussicht auf den Projekterfolg Seite 13 CIOBRIEFING 11/2016 höher. Die dabei gemachten Erfahrungen schulen Projektmitarbeiter für größere, komplexere Migrationsszenarien. Ein solches Vorgehen sendet auch eine starke Botschaft nach innen, denn wenn die erste erfolgreiche Migration offensiv unternehmensintern kommunizieren wird, stärkt das bei allen Mitarbeitern das Vertrauen in die IT und die Unternehmensausrichtung. Fehler Nummer 5: Beim Betrieb wird die IT-Abteilung nicht mehr gebraucht, da über SLAs alles geregelt wird Auch wenn das Unternehmen alle Services aus der Cloud bezieht, wird die IT nicht überflüssig. Im Zuge der Digitalisierung wird IT-Wissen immer wichtiger. Die Erwartungen der Fachabteilungen an die IT-Abteilungen, neue Services immer schneller und flexibler zur Verfügung zu stellen, steigen. Vermeidung: Das Anforderungsprofil der IT-Mitarbeiter muss sich verschieben: weg von der reinen Spezialisierung hin zu einem breiten IT-Know-How mit starkem Prozesswissen. Auch die Beurteilung, ob die oft standardisierten Service Level Agreements der Cloud Provider wirklich die gewünschte Flexibilität für das Unternehmen bieten, bedarf weitreichender ITKenntnisse und langjähriger Erfahrung. Das gleiche gilt für die Überwachung der per SLA geschuldeten Leistungen. Fazit Schon am Anfang der Planung für eine Migration in die Cloud, sollte ans Ende gedacht werden. Um eine große Abhängigkeit vom ausgewählten Cloud Provider zu verhindern, hilft es, sich Gedanken zu machen, welchen Aufwand es bedeutet, die Daten zu einem anderen Provider umzuziehen. Eine gute Planung und die richtige Vorgehensweise sind die Erfolgsfaktoren für eine erfolgreiche die Migration in die Cloud und die Erfüllung aller Erwartungen. ■ Jürgen Rother Seite 14 CIOBRIEFING 11/2016 Im WAN bewegt sich was! Hybride Netze – MPLS, Internet VPN, SD-WAN & Co. Viele globale Firmen betreiben für die Standortvernetzung bereits zwei parallele Strukturen: MPLS und Internet VPN. Dabei ist es sehr aufwändig, die beiden Transportstrukturen miteinander zu verheiraten und das Gesamtwerk technisch und vertraglich zu managen. Hybride Netze und SD-WAN können hier Abhilfe schaffen. Zu Zeiten monolithischer MPLS-WAN-Infrastrukturen und zentraler Datenhaltung war es sinnvoll, sich im Bereich globaler Netzwerke auf einen einzigen Provider festzulegen. Heute ist es zunehmend schwierig, den geschäftlichen Anforderungen hinsichtlich Agilität und Kosteneffizienz im WAN gerecht zu werden. Bei der Ansteuerung hybrider Netzwerkverbindungen gibt es jedoch erheblichen technischen Fortschritt. Auch sind die ersten SD-WAN Strukturen im Markt erhältlich. Treiber für hybride Netze Bild: MPC Service Die heutigen Anforderungsprofile verlangen regionale Datenhaltung in mehreren Rechenzentren, lokalen Internetzugang und Zugriff auf Cloud Services. Das klassische aber teure MPLSNetzwerk ist nach wie vor die Plattform der Wahl für kritische Anwendungen mit CoS (Class of Service). Besonders bandbreitenintensive Anwendungen werden jedoch im Sinne eines Traffic Offloadings zunehmend auf die günstigere Internet-VPN-Plattform ausgelagert. Die notwendige Security-Infrastruktur (Firewalls) ist dabei aufgrund der Absicherung des lokalen Internet Access meist schon vorhanden. Und die notwendigen Internetzugänge werden für einen lokalen Internet Breakout gleich mitbenutzt. Nach dem LAN ist nun der Bereich der Weit­ verkehrsvernetzung dran, über Software-­ Defined-Architekturen revolutioniert zu werden. Seite 15 CIOBRIEFING 11/2016 Ein weiterer Treiber für den Betrieb einer Internet-VPN-Struktur ist die Agilität, die das heutige Geschäft hinsichtlich des Auf baus von neuen Anbindungen verlangt: Ein Internet Access ist global, insbesondere von lokalen Providern, mit deutlich kürzeren Delivery-Zeiten zu bekommen als eine MPLS-Anbindung. Potential und Fallstricke Die Zusammenschaltung der qualitativ hochwertigen Transportplattform MPLS mit einer kostengünstigeren zweiten Transportplattform wie einem Internet-VPN zu einem hybriden Netz ermöglicht also eine Einsparung von Kosten und bietet höhere Flexibilität – zumindest theoretisch. In der Praxis entsteht jedoch eine höhere Komplexität für das technische, operative und vertragliche Management des hybriden Netzes. Die WAN-Provider können (oder wollen) meist keine Internetanschlüsse im internationalen Umfeld bereitstellen. Deshalb erfolgt die Beauftragung von Internetzugängen insbesondere bei global agierenden Unternehmen häufig durch die lokale Unternehmenseinheit. Dies führt dazu, dass in der Unternehmenszentrale die Transparenz über Verträge verloren geht. Im operativen Bereich können die Anschlüsse nicht ins Monitoring und Reporting übernommen werden und die Störungsbearbeitung wird erschwert. Ein übergreifendes Service Management und SLA-Reporting existieren nicht. Um das Potential des hybriden Netzes technisch zu erschließen muss der vom LAN ausgehende Traffic auf Applikationsebene identifiziert, klassifiziert und der geeigneten Transportplattform zugewiesen werden. Bei Ausfall einer Transportebene hat eine Umschaltung auf die jeweils andere, bereits aktiv mit Traffic belegte, Transportebene zu erfolgen. Diese Aufgaben im Rahmen einer intelligenten, technischen Overlay-Struktur werden heute meist von internen Kräften geleistet, weil für Plattform-übergreifende Services noch kein Vertrag mit einem WAN-Provider existiert. Mit Einzug der neuesten Hardware-Generation in die Backbones bekommen die etablierten Provider jetzt Gelegenheit, über einen virtualisierten Software Layer neue, integrierte Services über unterschiedliche Transportplattformen zu entwickeln. Kleine, neu gegründete Provider bieten bereits heute unglaublich leistungsfähige Services und Produkte an. Intelligentes Routing ist der Schlüssel Der Ansteuerung des hybriden WAN kommt eine Schlüsselfunktion zu. Das entsprechende Routing kann wie eine intelligente Seite 16 CIOBRIEFING 11/2016 Overlay-Struktur verstanden werden. An jedem Standort müssen zumindest die Anwendungen identifiziert und auf den passenden Verbindungsweg geschickt werden. Eventuell ist ein übergreifendes Backup bereits implementiert. Vorteil: Bei Ausfall der MPLSAnbindung wird direkt auf Internet-VPN umgeroutet. Ein üblicherweise passiver MPLS-Backupweg kann so eingespart werden. Das ist aber erst der Anfang. Neuere Konzepte gehen beim Routing deutlich weiter. Dazu werden verschiedene technische Features in Kombination genutzt. Hier ein paar Beispiele für fortgeschrittene Features: ●Multi-Link: Alle vorhandenen Links werden aktiv genutzt. So können z.B. preiswerte Breitbandanbindungen und LTE bis hin zu hochwertigem MPLS in eine Multi-Link Anbindung einbezogen werden. Entsprechend der unterschiedlichen Qualitäten der vorhandenen Links werden die klassifizierten Applikationen auf die Links verteilt. ●Link-State-Überwachung: Einige Controller leisten im laufenden Betrieb eine periodische, aktive Überwachung des Link-Zustandes. Die Qualität jeder Anbindung wird in dabei Bezug auf Jitter, Laufzeit und Paketverlust laufend geprüft und in die Routing-Entscheidung mit einbezogen. ●Per-Packet Routing: Das Routing erfolgt nicht per Traffic Flow, also per Anwendung, sondern per Paket. Das erlaubt unabhängig von der Transportschicht die Aufteilung eines Flows bzw. einer Anwendung über mehrere Links. Weiterer Vorteil: Die Umschaltung auf Backupanbindungen erfolgt ohne Abbruch der laufenden Sessions. Meist ist für die Nutzung der fortgeschrittenen Features der Einsatz spezieller Controller erforderlich. Die Controller sind in Form von proprietären Appliances, teils aber auch als Software für eine virtuelle Maschine erhältlich. Natürlich unterstützen die Controller auch Features wie CoS und VRF (Virtual Routing and Forwarding). So können die Qualitäten bestehender MPLS-Anbindungen weiterhin genutzt werden. Cloud Gateways und SD-WAN Weil die modernen Unternehmensnetze nicht mehr intrinsisch nur die eigenen Standorte verbinden, sind verschiedene Arten von Breakouts nötig. Neben dem klassischen Internetzugang werden heute zunehmend mehr und wichtigere Services aus der Cloud bezogen. Seite 17 CIOBRIEFING 11/2016 Ein Cloud Access über den Internetzugang ist jedoch ungesichert und bietet lediglich eine Best Effort Performance. Warum also nicht das hybride Netz für einen gesicherten und performanten Cloud Access nutzen? Software-Defined WAN (SD-WAN) SD-WAN-Provider ermöglichen es dem Kunden, über eine Weboberfläche verschiedene Parameter des Netzes als Self-Service einzustellen. Dahinter liegen automatisierte Abläufe, z.B. für Provisionierung und Billing. Manche SD-WAN-Provider bieten ein unternehmensweites Management der verteilten Controller über den Zugriff auf einen Orchestrator an. Dieser ermöglicht eine Richtlinien-basierte Konfiguration der Controller über eine einfache Benutzeroberfläche. Das Rollout der Controller muss der Kunde zwar selbst vornehmen, aufgrund der simplen Plug&Play-Inbetriebnahme der Controller können jedoch teure On-Site-Technikereinsätze vermieden werden. Ein weiterer Vorteil von SD-WAN ist die Möglichkeit, auf ein Echtzeit-Monitoring zuzugreifen. Insbesondere in Verbindung mit einer Link-State-Überwachung durch die Controller können bei der Bearbeitung von Störungen wichtige Erkenntnisse sofort selbst gewonnen und im Nachgang die SLA-Einhaltung der Anbindungs-Provider kontrolliert werden. Fazit Es tut sich was im WAN-Bereich. Neue Komponenten ermöglichen die intelligente Nutzung verschiedenster Anbindungsformen. Junge Anbieter fordern die etablierten Provider mit Services heraus, die den Anforderungen der Kunden an Flexibilität und Transparenz besser gerecht werden. Der Weg vom hybriden WAN, mit seinen noch bestehenden technischen und organisatorischen Einschränkungen, hin zum SDWAN mit mehr Transparenz, Performance und Flexibilität, ist vorgezeichnet. Trotz dieser Entwicklung wird das MPLS VPN als Transportplattform innerhalb des hybriden Netzes auch weiterhin eine wichtige Rolle spielen. Der Markt für voll gemanagte, hybride Netzwerke wie auch für SD-WANs mit Self-Service entwickelt sich gerade erst. Es gibt daher noch keine Standards oder Best-Practice-Ansätze. Umso Seite 18 CIOBRIEFING 11/2016 mehr Fingerspitzengefühl und Erfahrung benötigen Unternehmen heute, um eine WAN-Lösung zu finden, die im aktuellen Marktumfeld den zukünftigen Anforderungen entspricht. ■ Jürgen Rother CIOBRIEFING Technology-Update für IT-Manager Mehr zum Thema Netzwerke finden Sie auf www.ip-insider.de Seite 19 CIOBRIEFING 11/2016 Interview mit Hartwig Bazzanella, Verband ­Innovatives Rechenzentrum OpenStack – da kommt was auf die Anwender zu OpenStack ist ein heißes Thema, mit der Anwendung aber zögern viele Anwender. Dafür gibt es durchaus gute Gründe, aber trotzdem sollte man sich eingehender damit befassen. Denn es geht um mehr als Hybrides oder Private Cloud Computing. CIOBRIEFING: OpenStack ist das weltgrößte Open-SourceProjekt. Was hat es so wichtig gemacht? Hartwig Bazzanella: Es ist sicher nicht das wichtigste Projekt, aber trotzdem sehr wichtig. Im Prinzip geht es um ein schon länger bestehendes Thema, nämlich die Automatisierung der IT von der Provisionierung bis zum Monitoring. Das Problem für alle RZs besteht darin, dass große Wettbewerber wie Amazon und Google in einer enormen Schnelligkeit die Anforderungen des Marktes erfüllen können, denn sie arbeiten mit Cloud-basierenden Microservices. Kleine, weltweit verteilte Teams programmieren mit unterschiedlichen Programmiersprachen und Datenbanken überschaubare Services, die zusammengeführt werden. Google und Amazon sind dadurch in der Entwicklung wesentlich schneller und können Continuous Delivery wesentlich praktikabler nach vorne bringen als früher. Und damit sind wir wieder bei dem, was OpenStack möglich macht – eigentlich allen möglich macht. Hartwig Bazzanella: Private Cloud, Hybrid Cloud oder Public Cloud - das ist aus Sicht von OpenStack alles das Gleiche. Cloud Computing zielt in aller Regel darauf ab, skalierbare Lösungen zu schaffen. Konkret geht es darum, den großen IT-Trend der letzten Jahre, die Virtualisierung, mit der Automatisierung zu verbinden: Die Idealvor- Bild: Bazzanella CIOBRIEFING: OpenStack startete anfangs mit einer Orientierung auf Private Clouds. Das ist heute nicht mehr so eindeutig gegeben. In welche Richtungen gehen die Entwicklungen bei OpenStack? Hartwig Bazzanella, ­Geschäftsführer von NCB New Consultancy in Business GmbH in Gärtringen und Mitglied im Vorstand des Vereins Innovatives Rechen­ zentrum VIRZ e.V. Seite 20 CIOBRIEFING 11/2016 stellung beim Bau einer Cloud ist es, Kunden die Möglichkeit einzuräumen, sich mit IT-Dienstleistungen selbst zu versorgen... ...nämlich sich aus verschiedenen Microservices die größeren Services zusammenzustellen, die er gerade braucht. Genau das ist der Grund, warum Mirantis, ein reiner SoftwareAnbieter und sehr engagiert im OpenStack-Projekt, dem Beispiel von Amazon und Google folgt. Mirantis hat kürzlich das Prager Unternehmen TCP Cloud übernommen, das auf OpenStack-Managed-Services, OpenContrail und Kubernetes spezialisiert ist. ´Kubernetes` wird von Google entwickelt und ist ähnlich wie ´Giant Swarm` für das Betreiben von Microservice-Anwendungen gedacht, die aus mehreren Container bestehen und über mehrere Rechner hinweg laufen. Kubernetes stellt unter anderem Funktionalitäten bereit, um Anwendungen auszuliefern, zu betreiben und zu skalieren. Das ist im Prinzip der Nachfolger der Virtualisierung. Die Integration seiner Continuous-Delivery-Technik mit Mirantis OpenStack soll das Management der Kundeninfrastrukturen „als Code“ und kontinuierliche Upgrades vereinfachen. Mirantis dürfte damit ganz massiv nach vorne kommen. CIOBRIEFING: Public Clouds sind gehemmt durch den Verdacht, zu neuen Abhängigkeiten von IT-Anbietern zu führen. Kann man sich bei OpenStack auf das Offenheitsversprechen von Open Source verlassen? Hartwig Bazzanella: Viele Hersteller, zum Beispiel Netapp, HPE, Cisco und viele andere, verwenden eine kommerziell angepasste OpenStack-Version, die natürlich auf die Hardware des jeweiligen Herstellers ausgerichtet ist. Hier ist der Open-SourceGedanke Makulatur, da eine Kompatibilität nicht mehr gewährleistet wird. Es entsteht ein gewisses Vendor Lock-in. CIOBRIEFING: OpenStack steht im Ruf, sehr komplex zu sein, weswegen Anwender dazu neigen könnten, sich in die Arme großer IT-Anbieter zu flüchten. Hartwig Bazzanella: Ja, OpenStack ist komplex. Vor allem ­Hersteller, die ihre Produkte zusammen mit ihrer OpenStack-­ Lösung verkaufen, versuchen die Komplexität auf das Wichtigste zu reduzieren. Was das ist, ist aber immer eine Auslegungssache der Hersteller. Und das läuft dann auf eine Verbindung mit Produkten dieser Hersteller hinaus. Wenn mit diesen Produkten eines Herstellers gearbeitet wird, kommt man da kaum mehr heraus. Seite 21 CIOBRIEFING 11/2016 CIOBRIEFING: Ist die Nutzung von OpenStack-Appliances eine Hilfe, oder liegen die Startschwierigkeiten auf Gebieten jenseits der Installation? Hartwig Bazzanella: Appliances machen den Start nicht wirklich einfacher. Am Anfang gibt es eine riesengroße Hürde, die sich fast nur mit externen Unterstützung meistern lässt. Danach werden aber die Betriebskosten deutlich sinken, und Vorteile der automatisierten Provisionierung usw. greifen bei der Anpassung an die Kundenwünsche, so dass ungeahnte neue Geschäftsmodelle entstehen. Aber man begibt sich durch eine Appliance in eine Hardware-Abhängigkeit. CIOBRIEFING: Besteht die Lock-in-Gefahr nicht auch auf der Softwareseite? Hartwig Bazzanella: In jedem Fall wird man sich in eine Abhängigkeit von einem Hersteller begeben, auch, wenn es nur, wie bei Mirantis, um Software geht. Wer garantierten Service für eine Software haben will, ist gezwungen, dafür zu einer Firma zu gehen, die solch einen Service anbieten. Und da fängt das Problem dann an. Aber diese Entscheidung gab es im Open-SourceBereich schon immer. Sich zum Beispiel an Suse oder Red Hat zu halten macht nicht freier, man muss ein gewisses Maß an Abhängigkeit akzeptieren. CIOBRIEFING: Ist OpenStack gewissermaßen der Zeit voraus? Viele Anwender dürften froh sein, dass sie die Virtualisierung realisiert haben, und beschäftigen sich jetzt mit ´Docker` und anderen Container-Techniken. Hartwig Bazzanella: Auch bei Google und Amazon haben Docker-Themen Priorität, denn Container bringen weitreichende Vorteile. So dauert die Umsetzung einer produktiven SAP-Umgebung in eine Testumgebung schon mal drei Wochen. Mit der Docker-Technologie dauert es 15 Minuten. Schon daraus ergibt sich ein immenser Markt. CIOBRIEFING: Können nur große Anwenderunternehmen mit entsprechend mehr Personal und Know-how die Komplexität meistern? Hartwig Bazzanella: Nein, wir arbeiten beispielsweise mit einem Partner zusammen, der die OpenStack-Technik für seinen Mikro-RZ-Betrieb verwendet. Diese Firma hat 30 Mitarbeiter, fast alle wurden direkt von der Hochschule übernommen und sind fasziniert von der neuen Technik. Die denken sich immer neue Themen und Services aus und realisieren sie. Seite 22 CIOBRIEFING 11/2016 CIOBRIEFING: Sollten sich Anwendern für die OpenStackImplementierung an IT-Hersteller oder qualifizierte Beratungsunternehmen wenden? Hartwig Bazzanella: Wer sich in die Abhängigkeit begeben und in die Lock-in-Falle treten möchte, spricht einen Hersteller an. Wer diese Abhängigkeit nicht möchte, sucht unabhängige Berater, die leider ganz rar gesät sind. Hier ist auch die Qualität ausschlaggebend, da der Lernaufwand nicht unbeträchtlich ist. CIOBRIEFING: Das Interesse der IT-Spezialisten an OpenStack scheint groß zu sein, aber immer wieder werden Schulungen mangels Anmeldungen abgesagt. Was ist da los? Hartwig Bazzanella: Viele Anwenderunternehmen wissen noch gar nicht, was zum Beispiel mit Microservices auf sie zukommt. Sie ahnen nicht, wie ihnen OpenStack helfen kann, die Herausforderungen zu meistern. Sie haben das Problem, die unerbittliche erste Hürde nehmen zu müssen – und machen deshalb nichts. Noch ist der Druck der Kundenanforderungen nicht groß genug, dass manche RZ-Betreiber diesen Aufwand auf sich nehmen. CIOBRIEFING: Was kann die IT-Anbieterseite selbst tun, um mehr Fachkräfte auszubilden? Hartwig Bazzanella: Es gibt recht wenige Ausbildungsmöglichkeiten zu dieser modernen Art und Weise, ein RZ zu betreiben. Ich bin Mitglied des Vorstands im Verband Innovatives Rechenzentrum e.V., VIRZ. Wir haben dieses Thema auch erkannt und gehen es an. Zusammen mit der Technischen Hochschule Deggendorf bieten wir zusammen im zweiten Quartal 2017 ein viertägiges Seminar zum Thema DC Technology an. Darin beleuchten wir alle Themen im RZ vom Prozess über die IT-Strategie bis zur Festlegung der Systemarchitektur und einer Orchestrierung über OpenStack bis hin zur Verkabelung, der Elektro- und Kälteversorgung und dem Gebäude selbst. Darüber hinaus planen wir für 2017 die Durchführung eines BachelorStudienganges der 2018 starten könnte. Unsere Idee ist es, diesen Studiengang als berufsbegleitenden Studiengang anzubieten. ■ Ludger Schmitz Seite 23 CIOBRIEFING 11/2016 Commodity muss als Plattform taugen Für Anwender bringt der HDS-Lösungs-Stack ­entscheidende Vorteile Wie macht man sich als Unternehmen die Flash-Entwicklung zunutze, ohne in Sackgassen abzudriften? Ist die Zukunft hyperkonvergent? Und sollten Anwender alles auf die Flash-Karte setzen? Im Gespräch mit Storage-Insider zeigt Jürgen Krebs, dass sich bei HDS die strategische Ausrichtung des Unternehmens drastisch geändert hat. HDS kann auf jedem IT-Level mithalten, allerdings hat man etwas gegen die Simplifizierung, die heutzutage gerne in Ratschlägen endet wie: „Flash löst alle Zugriffsprobleme ihrer Anwendung“ oder „So einfach wie mit Hyperkonvergenz war die IT noch nie“. „Solche Ratschläge werden der komplexer werdenden IT leider nicht gerecht“, behauptet Jürgen Krebs . Aus Sicht von HDS geht es darum, dass die installierte Infrastruktur mit wenigen Handgriffen ebenso für die klassische IT wie auch für die analytischen Echtzeitprobleme umkonfiguriert werden kann, ohne dass immense Investitionen getätigt werden müssen. Bild: HDS Das Lumada-Projekt soll Kopenhagen die CO2Neutralität verschaffen CIOBRIEFING: Alle reden von Flash. Wo stehen wir bei der Flash-Technik? Jürgen Krebs: Man muss zunächst einmal zwischen den reinen Speicherchips und den fertigen Produkten unterscheiden. Bei Hitachi sprechen wir in dem Zusammenhang auch nicht von SSDs, sondern von Flash Module Drives oder kurz FDM. Dabei handelt es sich um NAND-Flash-Module mit von uns entwickelten Controllern – und von deren Qualität hängt letztlich Seite 24 CIOBRIEFING 11/2016 die Performance unserer Produkte ab. Bei den Flash Chips bedienen wir uns am Markt, was uns letztlich mehr Flexibilität und Unabhängigkeit verleiht. Die von uns entwickelte Controllereinheit steuert jedes unserer bis zu 14 TByte großen Module und ist optimal in unser Speicherbetriebssystem SVOS (Storage Virtualization Operating System) integriert. Das hat zahlreiche Vorteile: Wir können unter anderem höhere Komprimierungsraten erzielen, die Lebensdauer des NAND Flash erhöhen und die Möglichkeiten zur Fehlerkorrektur verbessern. CIOBRIEFING: Ist die Flash-Technik nicht schon extrem ausgereizt? Jürgen Krebs: Wir gehen davon aus, dass in der Flash-Technik noch einiges an Potenzial steckt, beispielsweise bei der Anzahl der Layer in den 3D-Produktionsverfahren. Dass man zurzeit nur wenig Fortschritte bei den NAND-Bauteilen sieht, liegt aber nicht nur am Flash selbst, sondern auch an den IT-Umgebungen. So wird z. B. die zur Verfügung stehende Bandbreite von Flash derzeit von kaum einem Server und dementsprechend auch nicht von der Software genutzt. Und auch die Rechenzentren sind bei Infrastruktur und Bandbreite noch nicht auf dem Niveau, das Flash schon jetzt bietet. CIOBRIEFING: Was können HDS-Flash-Arrays besser als die anderen? Jürgen Krebs: Bei HDS gibt es einen eigenen Entwicklungsbereich für alles, was in unserem Konzern mit Daten zu tun hat. Unser Mutterkonzern Hitachi beschäftigt weltweit etwa 330.000 Mitarbeiter in über 1.000 Firmenbereichen – davon arbeiten über 16.000 Kollegen bereits im IoT-Umfeld. Im Konzern werden auch spezifische Chips für Hitachi Data Systems entwickelt, die uns in die Lage versetzen, unabhängig von anderen Lieferanten das Design innovativer Produkte vorzugeben und nach Marktanforderungen auch ändern zu können. Bei Industriestandards wie DRAM oder NAND-Modulen nutzen wir das Know how der Lieferanten, die in unseren Plattformen verwendeten Flash-Produkte sind also Eigenentwicklungen auf Basis performanter Speicherchips von externen Zulieferern. Unsere FMDs sind durch mehr als 60 Patente geschützt, sie sind deutlich langlebiger und leistungsstärker als klassische SSDs. Und kein Anbieter am Markt besitzt mehr Patente zur FlashTechnologie als HDS. Seite 25 CIOBRIEFING 11/2016 CIOBRIEFING: Wie muss man sich das praktisch vorstellen? HDS produziert letztlich eigene SSDs? Jürgen Krebs: Ganz so einfach ist es nicht. Unsere FMDs sind über anwendungsspezifische integrierte Schaltungen (ASICs) in der Lage, jeden beliebigen NAND-Baustein zu integrieren. Wir beschränken uns aber auf wenige, namhafte Hersteller. Die FMDs interagieren im Prinzip mit der PCIe-Schnittstelle in unseren Plattformen. Bei uns sind sie aber das Herzstück von hochperformanten Storage-Modulen, die nahtlos in unsere Speicherplattformen integriert sind. In Zukunft werden immer häufiger geswitchte PCIe-Netzwerke geteilten und blitzschnellen Zugriff auf Speicher und andere Peripherie ermöglichen. Und wir sind mit unserer Strategie in der Lage, die Performance von FMDs vom Netzwerk zu den Servern zu bringen. CIOBRIEFING: Ist das für einen Weltkonzern wie Hitachi nicht ein bisschen wenig, bei Flash nur mitzuschwimmen? Jürgen Krebs: Das sehe ich nicht als „mitschwimmen“. Wir nutzen zugekaufte Speicherkomponenten (Festplatten, D-RAM, NAND-Bausteine), das Design und die Produktion erledigen wir aber in Eigenregie . Wir sind in den letzten Jahren davon abgekommen, alles selbst machen zu wollen. Deshalb wurde auch vor einigen Jahren unsere Festplattensparte HGST an Western Digital verkauft – und dies lange bevor sich der Flash-/ SSD-Trend abzeichnete. Damals stieß der Verkauf auf großen Widerstand, aus heutiger Sicht war das eine visionäre Entscheidung. Ähnliche IT-Komponenten von mehreren Herstellern zeitgleich und konkurrierend entwickeln zu lassen, ist wenig sinnvoll. Wir überlegen uns daher sehr genau, welche Komponenten von uns entwickelt werden und welche wir zukaufen können, denn auf diese Weise können wir dem hohen Qualitätsanspruch unserer Kunden wesentlich zeitnaher und zielgerichteter nachkommen. Heute bieten wir ein durchgängiges Portfolio vom Server bis zur Speicherplattform und vom Management-Softwarepaket bis zum VMware Steuer Plug-In. Damit sehe ich uns in einer Führungsrolle und nicht als Konzern, der „nur mitschwimmt“. CIOBRIEFING: Sind hyperconverged Plattformen nicht schon die Erfüllung dieses Ziels? Jürgen Krebs: HDS hat bei den Speichersystemen eine CoreEdge-Struktur etabliert und mit der Unified Compute Platform (UCP) eine Plattform für VMware-, SAP-, Oracle-und Microsoft- Seite 26 CIOBRIEFING 11/2016 Umgebungen geschaffen. Inzwischen haben wir daneben unser Hyperconverged Portfolio mit der Hyper Scale-Out Platform (HSP) etabliert. Wir wollen aber nicht – wie andere Hersteller – immer näher an den Prozessor rücken, sondern Storage und Compute für die jeweiligen Anwendungsplattformen optimieren. Wir wollen im hyperkonvergenten Bereich eine „Commodity-of-the-Shelf“Plattform entwickeln, die über unsere Offload-Karten erst mit der benötigten Beschleunigung „beseelt“ wird. Das kann eine Appliance sein oder auch ein modulares System. Wichtig ist, dass ein Rechenzentrumsleiter die Plattform flexibel und mit wenigen Handgriffen an SAP, Hyper-V oder VMware anpassen kann, so wie das mit UCP bereits möglich ist. CIOBRIEFING: Das heißt, HDS will auf die Lösungsschiene? Jürgen Krebs: Selbstverständlich! In Zukunft geht es doch darum, Lösungen und vor allem konsumierbare Services zu entwickeln, die aus „Big Data“ wertvolle Informationen liefern oder mit den Milliarden Sensoren des Internets der Dinge (IoT) etwas Sinnvolles steuern können. Angesichts des riesigen Innovationspotenzials wäre es ein Fehler, wenn Hitachi zu viel Energie in Hardware stecken würde, anstatt die größeren Teile der unternehmenseigenen Kräfte auf das neue Ziel zu bündeln. Etwas konkreter: Wir als HDS sind nicht mehr der reine StorageAnbieter, als den uns viele immer noch wahrnehmen. Hitachis CTO Hubert Yoshida hat unserer SVOS (Storage Virtualization Operating System) schon immer in eine Entwicklungsrichtung treiben lassen, dass es auch in einer virtuellen Maschine laufen kann. So sind wir nun jederzeit in der Lage unsere Software auch direkt mit den Anwendungen zu verbinden. CIOBRIEFING: Gut, das wäre jetzt die klassische IT, da fehlt allerdings noch die Cloud IT, die den Unternehmen eine skalierfähige projektbezogene Arbeitsweise ermöglichen soll. Und letztlich fällt bei dieser bimodalen Sichtweise die analytische IT raus, die unserer Einschätzung nach Storage und Compute sehr eng verzahnen müsste. Jürgen Krebs: Aus Sicht der Digitalisierung aller Prozesse erscheint es auf den ersten Blick erstrebenswert, beispielsweise jedes Nahrungsmittel mit einem RFID-Code auszustatten und dann den Weg bis zum endgültigen Verzehr zu verfolgen. Seite 27 CIOBRIEFING 11/2016 Das ist aber nicht der Weg, den Hitachi beschreiten will. In der Hitachi Insight Group wird ein schon aktives Modell namens Lumada verfolgt. Dabei geht es um die Verbindung von IT und OT (Betriebstechnologie) zum IOT. Herausforderung ist die Integration jedes Bereichs über RESTAPIs, die wohl durch ihren einfachen Datenzugriff zukünftig der Standard sein werden. Datenbanken und Anwendungen lassen sich in diesen Stack leicht integrieren, wie unser aktuelles SmartCity-Projekt mit der Stadt Kopenhagen eindrucksvoll unter Beweis stellt. Kopenhagen hat sich hier das Ziel gesetzt, bis 2025 CO2-neutral zu sein. Das geht nur als gemeinschaftliches Projekt und ist eine riesige Herausforderung an alle Teilnehmer, da diese nicht zuletzt einer gewissen Überwachung ihrer Bewegungsaktivitäten zustimmen sollen. Eine erste Erkenntnis ist jedoch schon jetzt, dass dazu nicht alles digitalisiert werden muss. CIOBRIEFING: Zurück zum Storage. Gibt es die alte Speicherpyramide noch, wonach auf der höheren Stufe (Tier 1) 20 Prozent der Daten, auf der nächst niedrigeren Stufe (Tier 2) 80 Prozent liegen? Jürgen Krebs: Das klassische Speichermodell existiert nicht mehr, beim Speicher wird alles auf den Kopf gestellt. Bei unseren großen Kunden werden mittlerweile Consumption-Modelle praktiziert, die den benötigten hohen Flexibilitätsgrad des Kunden unterstützen. Der Lieferant vereinbart SLAs und darauf verlassen sich die Käufer wie deren Kunden. Der Preis und die Preiserosion stehen fest und sind damit über die Laufzeit fest kalkulierbar. Als Unternehmen verlasse ich mich darauf, dass der gewählte Partner sein Geschäft versteht. Am Ende wird es ein dynamisches Tiering-Modell geben, so dass meine Daten SLA-konform gespeichert sind, ich als Anwender aber den vollen Zugriff auf alle gespeicherten Informationen in allen Tiers habe. CIOBRIEFING: Hört sich nett an, aber wer könnte sich so ein Speichermodell mit ganz viel Flash-Anteil denn leisten? Jürgen Krebs: Das ist genau der Punkt: Flash ist teuer und muss sich verargumentieren lassen. Das geht nur unter der Voraussetzung, dass der Nutzungsgrad von Flash immer bei 100 Prozent liegen muss. Das wäre jedoch schwierig nachzuweisen, wenn man nur mal eben ein kleineres Testsystem in sein Rechenzentrum stellt. Seite 28 CIOBRIEFING 11/2016 Der Geschwindigkeitsvorteil von Flash wird auch nicht überall und immer benötigt. Meistens wird es derzeit so praktiziert, dass der teure Speicher der Performance kritischer Anwendungen auf die Sprünge helfen soll. Sollten die Flash-Preise auf das Niveau von Harddisks fallen, gibt es für solche Abwägungen jedoch keine Basis mehr. Dann zählt nur noch die Erfüllung von SLAs. Unsere Kunden nutzen unsere Hitachi Command Suite und unsere Plug-Ins zum Managen ihrer gesamten Umgebungen, vom Hypervisor über die Server bis zum Speicher. Unsere Plattformen erlauben auch die gemischte Verwendung von Flash/ FMDs, SSDs und Harddisks, damit lassen sich wesentliche Nachteile externer Flash-Speicher übergehen. Ein Kunde nutzt dann zu 100 Prozent seine Flash-Investition und unsere Intelligenz in den Systemen ermöglicht das Verschieben von Daten in preiswertere Tiers im Millisekundenbereich. ■ Walter Schadhauser Seite 29 CIOBRIEFING 11/2016 Nachbericht Cloudera Sessions in München Cloudera will Zugang zu ­Maschinenintelligenz erleichtern Das jährliche Anwendertreffen „Cloudera Sessions“, das in diesem Jahr erneut in der Münchener Allianz-Arena stattfand, kreiste um die zunehmende Intelligenz der Big-Data-Algorithmen und ihre Anwendungsfelder. „KI ist zurück!“, konstatierte Amr Awadallah, Gründer und CTO des Hadoop-Spezialisten Cloudera, in seinem Einführungsvortrag. Diesen Trend will Cloudera gleichzeitig befeuern und für sich nutzen. Der 2008 gegründete Herausgeber einer Open-Source-basierenden Hadoop-Umgebung stellte gleich eine ganze Serie von Anwendungen vor, bei denen Cloudera-Produkte erfolgreich zum Einsatz kommen. Die interne Arbeit besteht jedoch laut Awadallah vor allem darin, die unterschiedlichen Open-SourceProdukte aus der Apache-Hadoop-Familie unternehmenstauglich zusammenzuschweißen. Awadallah machte vier wichtige Anwendungsfelder aus, nämlich mehr Wissen über Kunden, bessere Produkte, weniger Risiko und modernere Infrastruktur. Dass Analytik in Marketing und Vertrieb immer wichtiger wird, ist inzwischen eine Binsenweisheit. Der Cloudera-CTO zitierte eine Prognose, derzufolge 42 Prozent der befragten Marketingleiter der Meinung seien, dass in fünf Jahren Analytik zur Kernkompetenz ihres Fachgebietes avancieren werde. „Statt der groben Segmentierung von heute, die oft falsche Resultate bringt, geht der Trend zum Segment of One“, meinte Awadallah, also zum komplett individualisierten Angebot. Bild: Rüdiger Deutschland hinkt laut Amr Awadallah, Gründer und CTO von Cloudera, bei der Big-Data-An­ wendung hinterher. Seite 30 CIOBRIEFING 11/2016 Die Kauf hauskette Marks & Spencer beispielsweise nutzt Big Data, um den Bedarf der Niederlassungen zu prognostizieren. Dazu werden alle möglichen Informationen genutzt, etwa der Clickstream der Website, Daten vom Point of Sale im Laden etc. Die Royal Bank of Scotland schaffte es, mithilfe von Big-DataAnalysen des Sprachverkehrs, der sozialen Medien etc. die Zahl der Beschwerden um ein Viertel zu senken. Big Data in der Medizin Gänzlich neue Produkte entwickelt beispielsweise Cerner Healthcare, zum Beispiel ein Verfahren zur Frühdiagnose von Sepsis nach Operationen. Wird diese tückische Erkrankung nicht spätestens fünf Tage nach Ausbruch behandelt, endet sie zumeist tödlich. Der neue Algorithmus prognostiziert aus Patienten- und anderen Daten, wer wahrscheinlich eine Blutvergiftung bekommt. So konnte die Zahl der Wiederaufnahmen nach OPs stark gesenkt werden. Ein weiteres Einsatzfeld ist das Wohlbefinden von Frühgeburten. Deren Gehirnentwicklung reicht oft noch nicht aus, um bei Missbehagen, etwa, wenn sie frieren, Schmerzen haben oder hungrig sind, zu schreien. Eine neue Lösung wertet nun verschiedene Parameter wie Bewegungen, Herzschlag oder Atemfrequenz aus und gibt Alarm, wenn es wahrscheinlich ist, dass das Baby etwas braucht, zum Beispiel mehr Wärme. Der indonesische Provider Telkomsel mit 300 Millionen Kunden erschloss sich durch den Weiterverkauf der von allen Kunden erfassten Lokationsdaten zum Beispiel an staatliche Institutionen, an Logistikfirmen oder Einzelhändler ein völlig neues Geschäftsfeld. Siemens spart durch ein auf Big Data basierendes Supply Chain Management 10 bis 25 Millionen US-Dollar jährlich. Parkplätze mit Sensorenanbindung Immer wichtiger werden IoT-Anwendungen. BT UK beispielsweise baut Sensoren in die Fläche von Parkplätzen ein, die anhand des Lichteinfalls feststellen, ob ein Auto dort parkt und freie Parkplätze denen meldet, die in der betreffenden Gegend einen suchen. Dadurch werden pro Jahr 150 Millionen Pfund an Logistikkosten gespart, zudem sinkt die Emissionsbelastung. Der Logistikdienstleister konnte die Kosten pro Meile für Wartung und Support seiner Fahrzeuge von 12 bis 15 Dollar auf 30 Cent pro Meile senken. Das intelligente Smart Meter des Provi- Seite 31 CIOBRIEFING 11/2016 ders OPower ersparte seinen Kunden, vier Millionen Haushalten, 320 Millionen US-Dollar jährlich Interessant war der Bericht des österreichischen Mittelständlers Runtastic, dessen Tracker-App durch Hardware und diverse Services ergänzt wird. Gegründet wurde Runtastic 2013, seine wenige Euro kostende App wird pro Tag etwa 140.000-mal heruntergeladen. Das Unternehmen bietet seinen Kunden ein Pauschalabo für alle Dienste, zum Beispiel individualisierte Trainingspläne etc. an. Hardware wird extra übers Web dazugekauft. Das System speichert alle Aktivitätsdaten und stellt grob fest, wie aktiv die Kunden sind. Das System registriert, wenn Kunden ihre Aktivitäten reduzieren oder steigern und versucht sie durch gezielte E-Mail-Ansprache wieder zu aktivieren, wenn sie auffällige Lücken in ihren Trainingsaktivitäten aufweisen. Die gesammelten Daten werden genutzt, um neue Apps und Dienste zu entwickeln. Big Data bei Otto Beim Otto-Versand, von dessen Aktivitäten Rupert Steffner, Chief BI Platform Architect, berichtete, geht es vor allem um Betrugsaufdeckung, sogenannte „Last Minute Defense“ – also den Versuch, einen Kunden, der bereits Ware im Korb hat, auf jeden Fall zum Käufer zu machen – Retargeting und die bessere Informationsversorgung der Handelspartner. Big-Data-Applikationen werden als sogenannte Bots realisiert. Stettner betont: „Wer Dinge macht, die in der realen Welt stattfinden, der muss die Anwendungslogik nach den übliche Werten richten.“ Man achte bei Otto streng darauf, keine Mechanismen zu bauen, die einseitig dem Anbieter nutzen. Zu den technologischen Trends des Unternehmens gehört mehr Bedeutung für die Cloud. In München berichtete T-Systems von seiner Eigenschaft als Daten-Treuhänder für die deutsche Microsoft-Azure-Cloud. Sie wird durch T-Systems-Mitarbeiter betrieben und ist von den übrigen Microsoft-Rechenzentren getrennt. „Bei dieser Konstruktion bleibt die deutsche Rechtsstrenge gewahrt, denn Klagen bezüglich dieses Service laufen grundsätzlich nur über ein deutsches Gericht“, meinte Ralph Kemperdick, Digital Business Architect Microsoft. Hybride Infrastrukturen der Kunden wurden von Anfang an mit bedacht, eine PaaS-Umgebung mit Docker-Containern und Cloudera wird ab November verfügbar sein und soll unter 1.000 Euro monatlich kosten. Das soll laut Thomas Weber, Vice President AppAgile bei T-Systems, der Experimentierfreude auch kleinerer Seite 32 CIOBRIEFING 11/2016 und mittelständischer Kunden die Tür öffnen. Schon heute nutzen Unternehmen wie der Amsterdamer Flughafen Schiphol oder die Airline Emirates Cloudera auf Microsoft Azure. „Wachstumsschmerzen“ bei Microsoft Insgesamt, so verkündete Kemperdick, ist Microsoft mit der Cloud-Nachfrage mehr als zufrieden. Inzwischen habe man „Wachstumsschmerzen“, man könne die Server nicht so schnell auf bauen, wie sie verlangt würden. Inzwischen liefen „riesige Projekte“, bei denen sehr große Firmen nach ihren Cloud-AppLandschaften und auch die schwerfälligeren Backend-Anwendungen geschlossen in die Cloud migrieren wollten. Wegen der steigenden Kosten denkt Microsoft laut Kemperdick sogar über Rechenzentren unter Wasser nach, vorzugsweise in der Nähe von Offshore-Windenergieanlagen. „Da kostet der Grund nichts und der Strom muss nicht weit transportiert werden.“ Teurer Strom sei in Deutschland, wo für Elektrizität erheblich mehr bezahlt wird als in anderen Ländern, ein wirkliches Problem der RZ-Anbieter. Schließlich berichtete Amr Awadallah im Interview mit BigData-Insider von den aktuellen Plänen seines Unternehmens. „Wir müssen vor allem das rasante Wachstum verwalten“, sagt er. Innerhalb eines Jahres habe sich die Mitarbeiterzahl auf nunmehr 1.400 weltweit verdreifacht, in Deutschland arbeiten statt drei 2015 nun 27 Personen für Cloudera. Nun gehe es an die Vorbereitung des Börsengangs, der eventuell 2017 stattfinden soll. Zugang zu Maschinenintelligenz Neben Cloud sei ein weiteres wichtiges Thema, den Zugang zu Maschinenintelligenz zu vereinfachen. Deswegen hat Cloudera vor einem halben Jahr das Start-up sense.io mit fünf Mitarbeitern frisch von der Uni übernommen. Seine Spezialität: Eine Schnittstellenumgebung für Benutzer, auf der sie sich für ihr Problem den geeigneten Big-Data-Algorithmus auswählen können und dann nur noch dessen Feinheiten anpassen müssen. Zudem hat Cloudera vor rund zwei Wochen die erste Version des OpenSource-Projekts Kudu veröffentlicht, das auf schnell und immer wieder aktualisierbare Datensätze spezialisiert ist. Für die deutschen Anwender hatte Awadallah noch eine Mahnung im Gepäck: „Deutschland hinkt bei der Big-Data-Anwendung hinterher. Hiesige Unternehmen müssen sich beeilen, in die Technologie einzusteigen, sonst haben sie das Nachsehen!“ ■ Ariane Rüdiger Seite 33 CIOBRIEFING 11/2016 Daten weltweit verfügbar machen - ab SQL ­Server 2005 Datenbanken auf Azure ­migrieren Bild: © Maksim Kabakou - Fotolia.com Viele Unternehmen stehen vor der Entscheidung zu einer neuen Microsoft SQL Server-Version zu wechseln, oder Datenbanken in die Cloud zu migrieren, damit diese an anderen Standorten verfügbar ist. Microsoft unterstützt Administratoren dabei Datenbanken ab SQL Server 2005 in Azure SQL zu übernehmen, aber auch Datenbanken anderer Hersteller. Neben Microsoft SQL-Server- und Access-Datenbanken lassen sich auch Oracle-, DB2-, MySQL-, Sybase-Datenbanken zu Microsoft Azure migrieren. Dazu wird der SQL Server Migration Assistant (SSMA) verwendet. Diesen entwickelt Microsoft ständig weiter. Ab Version 7.0 unterstützt der Assistent auch SQL Server 2016 sowie die neuste Version von Azure SQL. Die Entwickler des SSMA geben in ihrem Blog Einblick in die neuen Versionen und Möglichkeiten des Tools. Für Migrationen sollte am besten immer die aktuellste Version genutzt werden. Datenbanken lassen sich in Microsoft Azure über Azure SQL erstellen, oder als VM im Rahmen einer virtuellen Installation von SQL Server 2014/2016. Im SQL Server Management Studio lassen sich Datenbanken relativ problemlos zur Microsoft Azure migrieren. Hier steht auch die Möglichkeit zur Auswahl, die lokale Datenbank als Datenbank in Azure importiert werden soll, oder als Datenbank in einen virtuellen SQL-Server in Microsoft Azure. Zusätzlich lassen sich Datenbanken auch als Datenebenenanwendung in eine BACPAC-Datei exportieren und in Mi- Assistenten helfen bei der Datenbank-Migration in die Microsoft Cloud. Seite 34 CIOBRIEFING 11/2016 crosoft Azure importieren, auch hier in Azure SQL oder in einen virtuellen SQL-Server. Dazu kann ebenfalls das SQL Server Management Studio verwendet werden. Neben dem Assistenten im SQL Server Management Studio können Entwickler aber auch die SQL Server Data Tools mit Visual Studio 2015 für die Migration lokaler Datenbanken in Microsoft Azure verwenden. Kompatibilität von Datenbanken sicherstellen Bevor eine SQL-Datenbank in Microsoft Azure übernommen werden kann, muss deren Kompatibilität mit der aktuellen Version 12 in Microsoft Azure sichergestellt werden. Ab dieser SQLVersion ist Microsoft Azure effizienter bei der Zusammenarbeit mit SQL Server 2014. In Microsoft Azure erhalten Datenbanken in Azure SQL automatisch den Kompatibilitätsgrad 130. Mehr dazu ist in der Dokumentation zu den Neuerungen der Version 12 in Microsoft Azure SQL zu lesen. Die Kompatibilität zu Azure-SQL und der neuen Version 12 lässt sich über verschiedene Werkzeuge testen. Entwickler können zum Beispiel SQL Server Data Tools für Visual Studio (SSDT) verwenden. Der Vorteil des Tools ist, dass es nicht nur die Kompatibilität testen, sondern auch gleich Fehler beheben kann. Das kostenlose Tool steht im MSDN zum Download zur Verfügung. Zusätzlich stellt Microsoft für Administratoren auch das Tool SqlPackage zur Verfügung. Dieses bietet in der Befehlszeile skriptbasierte Möglichkeiten zur Kompatibilitätsprüfung von Datenbanken. Allerdings können Sie mit sqlpackage.exe keine Kompatibilitätsprobleme beheben, sondern diese nur überprüfen. Zur Behebung von Problemen empfiehlt Microsoft die SQL Server Data Tools für Visual Studio (SSDT). Mit dem Assistenten zum Exportieren von Datenebenenanwendungen im SQL Server Management Studio, lassen sich Fehler in Datenbanken und Inkompatibilitäten mit Azure SQL ebenfalls anzeigen. Der Assistent ist hilfreich für einen schnellen Überblick, und zum Sicherstellen, dass die Migration durchlaufen kann. Tauchen hier noch Fehler auf, sollten diese mit den SQL Server Data Tools für Visual Studio (SSDT) behoben werden. Auch der „Microsoft SQL Server 2016 Upgrade Advisor“ hilft bei der Überprüfung von Datenbanken auf Kompatibilität mit Version 12. Allerdings ist das Tool nicht immer aktuell und sollte nur als Zusatzwerkzeug verwendet werden, um eine weitere Prüfung durchzuführen. Seite 35 CIOBRIEFING 11/2016 Durchführen der Migration Sobald Datenbankentwickler sichergestellt haben, dass die Datenbank kompatibel mit Azure SQL ist, kann die Migration durchgeführt werden. Hier stehen verschiedene Möglichkeiten zur Verfügung. Zunächst kann die Datenbank in ein Visual Studio Database Project migriert, und dann mit dem SQL Azure Migration Wizard vorbereitet werden. Durch das Kopieren der Datenbank in Azure SQL lässt sich eine neue Datenbank auf Basis der ursprünglichen Datenbank erstellen. Für die Migration kann der SSMS-Migrations-Assistent verwendet werden, oder der Weg eine BACPAC-Datei zu exportieren und zu importieren. Natürlich lässt sich auch eine Transaktionsreplikation durchführen. Der Assistent zum Migrieren von Datenbanken im SQL Server Management-Studio, steht im Kontextmenü der jeweiligen Datenbank zur Verfügung. Export über BACPAC-Datei Eine solche Migration ist allerdings nur dann sinnvoll, wenn die Datenbank nicht zu groß, und die Verbindung zum Internet leistungsstark ist. Bei sehr großen Datenbanken, oder wenn die Internetverbindung zu gering ist, empfiehlt Microsoft die Verwendung einer BACPAC-Datei. Im Rahmen einer solchen Migration werden Schema und Daten separat migriert. Diese Vorgehensweise ist natürlich deutlich komplizierter als die Verwendung des Migrationsassistenten. Mit dem Menüpunkt „Datenebenenanwendung exportieren“ im Kontextmenü von Datenbanken im SQL Server Management Studio steht ebenfalls eine Export-Möglichkeit in Microsoft Azure zur Verfügung. Bei diesem Vorgang werden die Daten der Datenbank in einen Blob-Storage in Microsoft Azure exportiert. Sobald die Datenbank in Microsoft Azure verfügbar ist, lässt sie sich in Azure-SQL oder in einen virtuellen SQL-Server importieren, der auf Microsoft Azure bereitsteht. Für den Import wird die BACPAC-Datei im Blob-Storage von Microsoft Azure verwendet. Ablauf bei der Migration über SQL Server Data Tools in Visual Studio Wird bei der Migration auf Azure SQL auf die SQL Server Data Tools gesetzt, läuft die Migration etwas anders ab. Zunächst erstellen Entwickler ein neues Projekt und verbinden sich mit dem Seite 36 CIOBRIEFING 11/2016 lokalen SQL-Server. Über das Kontextmenü einer Datenbank lässt sich jetzt ein neues, untergeordnetes Objekt erstellen. Als Ziel-Plattform steht hier „Microsoft Azure SQL Database V12“ bereit. Dieses wird über das Kontextmenü des Projektes als Ziel festgelegt. Über das Kontextmenü des Projektes lässt sich eine Überprüfung durchführen, ob die Datenbank erfolgreich in Microsoft Azure importiert werden kann. Nachdem alle Fehler behoben sind, lässt sich die Migration in den SSDT durchführen. Im Rahmen der Erstellung des Migrationsprojektes können auch Schema und andere Einstellungen der Datenbank festgelegt werden. Fazit Lokale SQL-Datenbanken lassen sich recht problemlos in Microsoft Azure überführen. Microsoft stellt dazu alle notwendigen Tools kostenlos zur Verfügung. Während Entwickler vor allem auf SQL Server Data Tools in Visual Studio setzen, können Administratoren das SQL Server Management Studio verwenden, um die Daten zu migrieren. Es ist allerdings sehr empfehlenswert, dass die Migration nur dann durchgeführt wird, wenn die Internetleitung zu Microsoft Azure genügend Leistung bietet. Außerdem sollten im Rahmen der Migration möglichst wenige Anwender mit dem Server und der Datenbank arbeiten. Sollen externe Datenbanken migriert werden, also DB2, Oracle, MySQL oder Sybase, dann empfiehlt Microsoft die Verwendung des SQL Server Migrations Assistenten. ■ Thomas Joos Seite 37 CIOBRIEFING 11/2016 Mehr Sicherheit am Handgelenk Smartwatches mit speziellen Business-Funktionen Die Smartwatch ist auf dem Weg, Bestandteil der betrieblich genutzten Mobilgeräte zu werden. Neue Modelle wie Samsung Gear S3 bieten erweiterte Security-Funktionen und Sicherheits-Apps. Kurz vor Beginn der IFA 2016 stellte Samsung in einem Samsung Unpacked Event die neue Smartwatch Samsung Gear S3 vor. Auch bei der Apple Watch gibt es Neuigkeiten. Früher waren solche Produkt-Launches für IT-Sicherheitsverantwortliche eher aus persönlichen Gründen interessant, weil sie gerne privat eine „intelligente Uhr“ tragen wollten. Inzwischen aber können Smartwatches zu den Business-Geräten gezählt werden, die im Sinne von BYOD (Bring Your Own Device) betrieblich genutzt werden, oder sogar vom Unternehmen für die Außendienstler angeschafft werden. Die zunehmend betriebliche Nutzung macht Smartwatches zu einem Security-Thema im Unternehmen. Bild: Unsplash - Pixabay.com / CC0 Laut einer Studie des Bundesverbandes Digitale Wirtschaft (BVDW) sind für die Nutzer die wichtigsten Smartwatch-Funktionen im Alltag Textnachrichten, Terminerinnerungen, FitnessUnterstützung und das Ablesen der Uhrzeit. Was auf den ersten Blick eher nach privater Nutzung klingt, kann im betrieblichen Umfeld durchaus dazu führen, dass vertrauliche Nachrichten und Termine auf der Smartwatch landen. Ob sich die Smartwatch auch im geschäftlichen Umfeld etwablieren kann, dürfte eng an die zu erwartenden ­Sicherheitsfunktionen ge­koppelt sein. Seite 38 CIOBRIEFING 11/2016 In Bezug auf Datensicherheit vertrauen die Befragten ihren Smartwatches: Nicht einmal ein Fünftel aller Studienteilnehmer (19 Prozent) sieht die Sicherheit der persönlichen Daten als problematisches Thema bei der Smartwatch-Nutzung. In einer Bitkom-Umfrage sind es immerhin 34 Prozent, die fürchten, dass ihre Daten in falsche Hände geraten oder missbraucht werden könnten. Die Mehrheit aber denkt nicht an die Sicherheitsrisiken. Security-Funktionen für die schlaue Uhr Wie bei der Wandlung vom Handy zum Smartphone muss auf dem Weg von der klassischen Uhr hin zur Smartwatch mehr für die Security getan werden. Nicht ohne Grund warnen die Datenschützer vor den Datenrisiken bei Smartwatches und anderen Wearables. Die für den Consumer-Markt vorgesehenen Smartwatches haben jedoch kaum Funktionen zur Steigerung der Datensicherheit. Sie können zwar E-Mails, Messages und Daten über verschiedene Schnittstellen austauschen und haben lokalen Speicherplatz für Daten, doch Security-Apps oder integrierte Sicherheitsfunktionen sind meist Fehlanzeige. Bei den im Business-Bereich verbreiteten Smartwatches ist die Lage (etwas) besser. Die Apple Watch hat bereits Funktionen wie Activation Lock an Bord. Damit lässt sich der Zugang zur Watch schützen, indem die Eingabe der Apple ID des legitimen Nutzers verlangt wird. Ziel ist es, unehrliche Finder oder aber Geräte-Diebe davon abzuhalten, die Daten auf dem Gerät einzusehen, zu löschen oder die Apple Watch anderweitig zu missbrauchen. Wenn man daran denkt, dass Smartwatches als (zukünftiges) mobiles Bezahlsystem angesehen werden, liegt das Missbrauchspotenzial auf der Hand bzw. es ist am Handgelenk. Bei dem Samsung Gear S3 steht Unternehmen erstmals das KNOX Tizen Wearable SDK (Software Developers Kit) zur Verfügung. Damit können Unternehmen eigene Apps mit Management-relevanten Funktionen in einer sicheren Umgebung entwickeln, so die Ankündigung von Samsung. Neue Security-Funktionen bei Samsung Gear S3 Ein Blick auf das Knox Tizen Wearable SDK ist vielversprechend: Möglich werden Funktionen zur Installation, Aktualisierung und Deinstallation von Apps, zur Einrichtung von Black Lists und White Lists für die Smartwatch-Apps, zum Löschen der AppDaten, zur Kontrolle und Sperrung bereits installierter Apps. Seite 39 CIOBRIEFING 11/2016 All diese Funktionen fallen in den Bereich MDM (Mobile Device Management). Zusätzlich können Gerätedaten abgefragt, Sprachund SMS-Funktionen reguliert, Passwörter erzwungen und Daten verschlüsselt werden. Eine Firewall ist ebenso möglich wie die Kontrolle über die verfügbaren Schnittstellen und Netzwerke. Weiterhin lassen sich über MDM-Systeme Geräteinformationen einholen, mit denen der Sicherheitszustand abgeprüft und Anzeichen für verdächtiges Verhalten gesucht werden können. Neben diesem Integritätscheck für Smartwatches lassen sich die intelligenten Uhren auch auf minimale Funktionen beschränken, nur noch eine definierte App kann dann zum Beispiel genutzt werden (ProKiosk Mode). Damit kann das Samsung Gear S3 vergleichbar zu einem Smartphone in ein MDM- und Security-Konzept eingebunden werden, ein wichtiger Schritt hin zur Business-Smartwatch. Voraussetzung ist aber, dass die MDM-Lösungen auch die Smartwatches einbinden und dass die Security-Hersteller die Möglichkeit nutzen, Security-Apps für Smartwatches anzubieten. Der Bedarf ist zweifellos da, und der Markt wird wachsen. Die Datenrisiken für Smartwatches jedenfalls sind heute schon enorm. ■ Oliver Schonschek Seite 40 CIOBRIEFING 11/2016 Netzwerkneutraler Mobilfunkempfang in ­Gebäuden OpenG & Shared-Spektrum – WLAN und LTE verschmelzen Mit gemeinsam von LTE und WLAN verwendeten Funkspektren und neutralen, host-fähigen Zellen kann die Mobilfunkleistung in Innenräumen verbessert werden, ohne dass der Anwender hierzu etwas tun muss. Die Technik fasst unter dem Namen OpenG gerade Fuß. Wer unterwegs mit seinem Smartphone in Innenräumen online gehen möchte, macht häufig eine negative Erfahrung. Oft zeigt die Mobilfunkverbindung nur einen mickrigen Balken: Beispielsweise wenn Kunden in einem Geschäft in der Schlange an der Kasse stehen und sich die Wartezeit vertreiben wollen. Bietet das Geschäft überhaupt WLAN an, ist das Log-in oft derart kompliziert, dass sich der Aufwand nicht lohnt. Stattdessen langweilen sich die Kunden in der Schlange, warten mit dem Surfen bis sie draußen sind und verlassen das Geschäft mit einer negativen Kundenerfahrung. Bild: Thomas Reimer - Fotolia.com Doch warum ist im Innern von Gebäuden WLAN verfügbar, während gleichzeitig die Mobilfunkverbindung so schwach ist, dass sich über sie kein Gespräch führen, geschweige denn ein stabiler, schneller Internetzugang herstellen lässt? OpenG kombiniert die Fähigkeiten gemeinsam verwendeter Spektren und macht so Mobilfunk dort möglich, wo bisher nur WLAN vorhanden war. Seite 41 CIOBRIEFING 11/2016 Der Grund liegt in den Nutzungsrechten der Funkfrequenzen: In Deutschland erwerben Telefongesellschaften die alleinigen Nutzungsrechte an bestimmten Frequenzen. Dadurch können sie allein entscheiden, wo ihre Funkwellen genutzt werden dürfen oder wo ein Funkmast aufgestellt wird, der in der jeweiligen Frequenz sendet und empfängt. Um also die Funkwellen innerhalb seiner vier Wände zu nutzen, müsste ein Ladenbesitzer mit jeder einzelnen Telefongesellschaft verhandeln und sie überzeugen, einen neuen Funkturm in der Nähe oder einen Verstärker, ähnlich einem Mobilfunk Repeater, im Gebäude zu installieren. Vorausgesetzt die Telefongesellschaft stimmt dem zu (was sehr unwahrscheinlich ist), würde der Prozess für die Verhandlungen und Installation Monate dauern und einige Arbeitszeit in Anspruch nehmen. Kosteneffiziente, unkomplizierte Lösung gesucht Während es in Geschäften und in öffentlichen Gebäuden oft noch daran fehlt, setzen die meisten Unternehmen inzwischen Wi-Fi für ihre Datenverbindungen innerhalb von Gebäuden ein. Allerdings sind sie dennoch auf zusätzliche flächendeckende Mobilfunkabdeckung angewiesen, zum Beispiel um mobil zu telefonieren oder um Downloads via LTE für Mitarbeiter und Besucher anzubieten – ohne dass sich diese erst in ein WLAN einloggen müssen. Bisher verlassen sich die meisten Unternehmen – und Geschäfte – auf die Mobilfunksignale von Funkmasten außerhalb des Gebäudes, die auch im Gebäudeinneren verwendet werden. Der Empfang ist jedoch häufig nicht befriedigend und führt zu Verbindungsabbrüchen oder Bereichen im Gebäude, in denen die Mitarbeiter, Gäste oder Kunden gar keine Verbindung haben. Unternehmen und Service Provider suchen nach kosteneffizienten Lösungen für Gebäude, die leicht umzusetzen sind und gleichzeitig Leistung und Abdeckung verbessern. Die Lösung sollte außerdem die Netze unterschiedlicher Mobilfunkanbieter unterstützen. Zwar können Distributed Antenna Systems (DAS) und herkömmliche Small Cells einige dieser Herausforderungen bewältigen, doch ist die Bereitstellung meist kompliziert und mit hohen Kosten verbunden. Wachsender Datenhunger vs. begrenzte Spektren der Mobilfunkanbieter Bei der Suche nach neuen Lösungen, die für Kunden aller Mobilfunknetze von Vorteil sind, ist deutlich erkennbar, dass sich die Branche inmitten eines dramatischen Wandlungsprozesses Seite 42 CIOBRIEFING 11/2016 befindet, in dem sich Mobilfunk- und Wi-Fi-Technologie immer weiter aufeinander zubewegen. Die Annäherung erfolgt auf unterschiedliche Art und Weise. Während die Mobilfunktechnologie Wi-Fi-Eigenschaften (LTE Wi-Fi Aggregation, LWA und Licensed Assisted Access, LAA) übernimmt, übernimmt die WiFi-Technologie Eigenschaften der Mobilfunktechnologie (Wi-FiAnrufe, Hotspot 2.0). Vorangetrieben werden diese Entwicklungen durch den größer werdenden Druck auf das verfügbare Spektrum der Mobilfunkanbieter. Da dieses begrenzt ist, der Datenhunger der Nutzer und die Anzahl vernetzter Geräte aber weiter steigt, sind Netzbetreiber auf der Suche nach immer neuen Technologien, um mehr aus ihrem verfügbaren Frequenzen herauszuholen. Alternativen hierfür sind das Ausweichen auf WLAN oder auf unlizenzierte, freie Spektren. Außerdem ergeben sich neue Möglichkeiten für ein gemeinsames Frequenzspektrum außerhalb der traditionell lizenzierten und unlizenzierten Modelle – beispielsweise das koordinierte Shared-Spektrum-3.5-GHz-Modell namens Citizens Broadband Radio Service (CBRS), das in den USA bereits erfolgreich zum Einsatz kommt. Darauf auf bauend haben mehrere branchenführende Unternehmen aus dem Bereich Wireless die OpenG-Technologie entwickelt, um sich gemeinsam der Herausforderung von Mobilfunkabdeckung und -Leistung in Gebäuden anzunehmen. Gemeinsam verwendete Spektren für bessere Mobilfunkabdeckung in Gebäuden OpenG kombiniert die Fähigkeiten gemeinsam verwendeter Spektren, beispielsweise der besagten 3,5 GHz, mit neutralen hostfähigen kleinen Zellen. Eigentümer von Gebäuden jeder Größe können dadurch ihren Kunden oder Mitarbeitern die Möglichkeit des stabilen Mobilfunkempfangs in Innenräumen bereitstellen – und zwar günstig, unkompliziert und netzwerkneutral. Citizens Broadcast Radio Service (CBRS) bezeichnet die neuen, von der amerikanischen Kommunikationsbehörde FCC eingeführten Regularien, durch die 150 MHz des Frequenzspektrums (3.550–3.700 MHz) im 3,5-GHz-Band für eine kommerzielle Nutzung in den USA freigegeben wurden. Dieser Bereich überschneidet sich mit den LTE-Bändern 42 und 43. CBRS ermöglicht es Eigentümern von Gebäuden, kleine Boxen – ähnlich einem WLAN-Router – zu installieren, die dieselben Seite 43 CIOBRIEFING 11/2016 Funkwellen und Technologien wie Mobiltelefone verwenden. Kunden verschiedener Mobilfunkanbieter werden so auf demselben Frequenzband versorgt. Die entsprechende Authentifizierung mit dem Netzbetreiber wird durch die Infrastruktur durchgeleitet. Dadurch haben Mobilgeräte innerhalb von Gebäuden denselben Empfang wie unter freiem Himmel, ohne dass der Nutzer ständig nach offenen WLAN-Netzen suchen oder sich einloggen muss. Neue Möglichkeiten für Fest- und Mobilnetzanbieter Die OpenG-Technologie ist damit eine mobilnetzunabhängige und kostengünstige Alternative für DAS (Distributed Antenna Systems) und Small Cells. Sie ist besonders geeignet für Festund Mobilnetzanbieter, denn diese können ihre Reichweite damit ohne viel Aufwand enorm ausbauen, ohne dass eine Änderung des Kernnetzwerks des Mobilnetzbetreibers erforderlich ist. Gleichzeitig können Fest- und Mobilnetzanbieter die Nutzererfahrung ihrer Kunden überall verbessern, sogar in Gebäudeteilen, die bisher aus technischen oder betriebswirtschaftlichen Gründen nicht im Fokus standen. Weltweite Standards An der Weiterentwicklung von CBRS-Lösungen und dem Ausbau des 3.5 GHz-Ökosystems arbeiten viele der branchenführenden Unternehmen. Dazu beteiligen sie sich beispielsweise an den Bemühungen des Wireless Innovation Forums. Der gemeinnützige internationale Industrieverband, in dem sich auch deutsche Organisationen wie T-Mobile oder die RWTH Aachen engagieren, setzt sich für die Entwicklung von Funkverkehr und -systemen in aller Welt ein. Zusammen entwickeln Verband und Unternehmen Standards zum Betreiben des CBRS-Frequenzbands und treiben dessen Verbreitung voran. Dazu gehört auch, ein Interface für das zentrale Spektrumskoordinationssystem zu liefern sowie die Koexistenz derjenigen, die das Frequenzband teilen, zu regeln. Damit wird der Einsatz von koordiniertem Shared-Spektrum und OpenG weltweit forciert. ■ Christopher Mendoza Seite 44 CIOBRIEFING 11/2016 Struktur und Zuständigkeiten bei Dell Technologies EMC/Dell-Fusion: Noch viele Unklarheiten im Detail Die Fusion von EMC und Dell steht, doch das Schicksal diverser Produkte, gerade aus dem Server-Bereich und bei konvergenten respektive hyperkonvergenten Infrastrukturen, ist noch unklar. Rund 1.000 Besucher waren laut Mario Haas, President und Chief Commercial Officer bei Dell EMC, zur ersten gemeinsamen Veranstaltung des Unternehmens, das nun endgültig fusionieren darf, nach Mainz gekommen. Die Fusion soll im Februar in Kraft treten, das gemeinschaftliche Unternehmen heißt dann Dell Technologies und wird wie eine Holding funktionieren. Darunter befindet sich die Dell Inc. mit drei Geschäftszweigen: 1. d ie vornehmlich von Dell bestückte Client Solutions Group, die von Dell-Mann Jeff Clark geführt wird 2. d ie Infrastructure Solutions Group unter Leitung von EMCMann David Goulden, zu der auch der Sicherheitsspezialist RSA und der Cloud-Service-Anbieter Virtustream gehören - Beide werden vollständig integriert. 3. Global Services, wo alle kundenbezogenen Servicebereiche beider Firmen vereinheitlicht werden, unter Leitung von Howard Elias - Die Gruppe übernimmt Installation, Wartung und Consulting, letzteres allerdings nur hinsichtlich konkreter Lösungen für die Kunden. Cloud-Services-Geschäft á la IBM Global Services sei hier nicht geplant, hieß es, dafür sei die Cloud-Akquise Virtustream zuständig. Bild: Dell Technologies Die Struktur von Dell und EMC nach der ­Fusion. Seite 45 CIOBRIEFING 11/2016 Die Primärpartner Gleichgeordnet neben Dell Inc. stehen drei Firmen, die bisher als Federation Partner betrachtet wurden: Pivotal, Secureworks und VMware werden jetzt unter der Bezeichnung Strategically Alligned Businesses geführt. Diese Firmen werden ihre jetzige Rechtsform nach derzeitiger Planung behalten. VMware bleibt an der Börse und Gelsinger werde das Unternehmen weiter führen, hieß es hinsichtlich immer wieder aufflammender Gerüchte über dessen baldigem Abschied vom Virtualisierungs-Marktführer. Diese strategischen Partner agieren selbständiger als die voll integrierten Töchter. Sie dürfen ihr geistiges Eigentum zum Beispiel auch in Lösungen mit Drittanbietern einbringen, selbst wenn diese mit Dell Technologies konkurrieren. Wie Matthias Zastrow berichtet, derzeit für den strategischen Vertrieb der zukünftigen Dell Technologies Deutschland zuständig, scheint das durchaus den Interessen der Kunden zu entsprechen. „Es gibt große Kunden, die eine volle Integration von Pivotal nicht tolerieren würden“, sagte er im Gespräch mit Datacenter Insider. Konvergente und hyperkonvergente Systeme Die konvergenten Infrastrukturen in allen fünf Ausprägungen wurden im Übrigen weltweit unter Leitung von Chad Zakac zu einem neuen Unterbereich zusammengefasst. Volker Wenzel, in Deutschland als Manager Presales, VCE Technology Solution GmbH (Dell EMC | Converged Platforms and Solutions Division (CPSD) tätig, betonte: „Wir haben jetzt fünf Delivery-Varianten für konvergente Lösungen unter einem Dach.“ Die unter Chad Sakac neu gegründete Converged Platform & Solution Division (CPSD) vereint die vorhandenen Angebote der Dell, EMC und VCE im Portfolio integrierter Stacks und Systeme. Vier Säulen sind die im Markt bekannten Bundles sowie validierte Lösungen der Dell Inc., die Referenzarchitekturen der EMC und die konvergenten und hyperkonvergenten ‚Engineered Systems‘ („Vblock“, „VxBlock“, „Vxack Flex“ und „Vxail“) der VCE und Dell (XC). Cisco bleibt weiter strategischer Technologie & Businesspartner und ist im Portfolio für Block basierte „Engineered Systems“ als Hersteller von „UCS“ und „Compute Fabric“, sowie von ToR Ethernet Switches. Die Option für SDN auf Basis „Cisco ACI“ besteht für das Block- und Rack-Portfolio. Eine weitere fünfte Säule umfasst Produkte, die bisher als „EMC Federated Solutions“ (EHC, FBDL, NHC, FEUC) verarktet wur- Seite 46 CIOBRIEFING 11/2016 den sowie das wachsende Portfolio ‚Hybrider Cloud Plattformen‘. Hier verschmelzen ‚Engineered Systems‘ und vorhandene ‚Federated Solutions‘ sowie die Lösungspakete der ‚Strategically Aligned Businesses‘ VMware (SDDC incl. NSX), Pivotal (CF) und Secureworks sowie der neu formierten Dell Inc. zu Komplettlösungen mit folgenden Wertmerkmalen: ●als Komplettlösung (Hard + Software + Services + Dokumentation, Schulungspakete ..) entwickelt ●ab Werk integriert, komplett getestet, ausgeliefert und vor Ort in Betrieb genommen und an den Kunden übergeben (Turn Key) ●als Komplettlösung zentral administrierbar / in den Bestand leicht integrierbar ●über den Lifecycle ganzheitlich weiterentwickelt (Software Releases + kompatible Hardware Neuerungen) und zertifiziert ●über den Lifecycle aus ‚einer Hand‘ supported ●Der Kauftrend und somit das Marktsegment für ‚Engineered Systems‘ und ‚Turn Key‘ Komplettlösungen wächst beständig stark. „Der Kauftrend und somit das Marktsegment für ‚Engineered Systems‘ und ‚Turn Key‘-Komplettlösungen wächst beständig stark.“, sagt Wenzel. Besonders wichtig soll laut Eror in Zukunft VMwares Netzvirtualisierungstechnologie „NSX“ werden, daneben RSA, Pivotal und Virtustream, also der Cloud-Service-Arm der EMC. Eror: „Mit NSX wird man künftig Workloads mitsamt ihrer IP-Adresse auch über die Grenzen von Clouds und Rechenzentren hinweg verschieben können.“ Was Produktankündigungen anging, möge man diesbezüglich auf die nahende europäische VMworld in Barcelona und die Dell/EMC-World, die demnächst in Austin/Texas stattfindet, warten. Immerhin aber ließ sich Eror auf der Bühne publikumswirksamen einen noch nicht auf dem Markt befindlichen superdünnen Convertible mit einer auf den Rücken des Geräts klappbaren Tastatur überreichen. Das Gerät soll Anfang nächsten Jahres auf den Markt kommen. Gemeinsame Spitze Die deutschen Geschäfte führen zukünftig gemeinsam die bisherige Dell-Deutschland-Chefin Doris Albiez und EMC-Deutschland-Chef Dinko Eror. Sie sind auch auf oberster Ebene für die Seite 47 CIOBRIEFING 11/2016 kundenbezogenen Vertriebsaktivitäten zuständig: Jeder Kunde wird zukünftig entweder dem Enterprise- oder dem Commercial/Public-Segment zugeschlagen. Eror führt den EnterpriseVertrieb, der sich in Deutschland auf etwa 100 Firmen beziehen dürfte, für den „Rest“ ist Albiez zuständig. Daneben gibt es fachlich spezialisierte Vertriebseinheiten, etwa für konvergente Infrastrukturen, die jeweils den Kundenzuständigen zuarbeiten. Für jeden mittelständischen Kunden ist genau ein Mitarbeiter federführend verantwortlich, und der Channel, der ja häufig das kleinere Kundensegment betreut, berichtet an den Commercial-Bereich. Das integrierte Channel-Programm, das entstehen soll, wird ebenfalls im Februar fertig sein. Eventuelle Doppelbesetzungen im Vertrieb sollen nicht durch Entlassungen beantwortet werden, stattdessen wolle man die Kenntnisse der betroffenen Mitarbeiter diversifizieren, so Wenzel. Herausforderungen und Unklarheiten Wie oben schon angedeutet, gibt es auch bei EMC/Dell wie immer bei Fusionsprozessen einige Unklarheiten und Herausforderungen. So seien die Prozesse der beiden Firmen nicht durchgängig kompatibel, hier müsse man in den nächsten Monaten Lösungen finden, berichtet Eror. Hinsichtlich der Unternehmenskulturen gebe es dagegen kaum Probleme: „Wir stellen beide den Kunden in den Mittelpunkt und bemühen uns um große Flexibilität“, betont Eror. Es könnte durchaus sein, dass einige bewährte Geschäftsbeziehungen zu Kooperationspartnern in Zukunft in Frage stehen, auch wenn das kein Manager bestätigen möchte. Die Dell-Kooperation mit Nutanix beispielsweise ist so ein Fall. Denn immerhin hat die Dell Technologies nun mit „Vxrails“ ein eigenes Hyperkonvergenz-Produkt. Zwar bestreitet das Hyperkonvergenz-Chef Chad Sakac vorsorglich in seinem Blog, doch darf man bei aller Wahlfreiheit der Kunden wohl mittelfristig ausgehen, dass der EMC/Dell-Presales lieber die eigenen Lösungen empfiehlt. Für Cisco gilt das weniger: Auch in Zukunft dürften die Anwender gern auf Cisco setzen, die eine Cisco-Netzwerkinfrastruktur nutzen oder SDN (Software Defined Networking) in einem CiscoFlavor verwenden. Denn Cisco integriert seine „ACI“-Technologie, die Durchgängigkeit zu den höheren Anwendungsebenen eines softwaredefinierten Netzes schafft, zwar in eigene Produkte, nicht aber in solche anderer Firmen. Deren Hersteller müssen sie im Zweifel lizenzieren. Seite 48 CIOBRIEFING 11/2016 Im Übrigen bringt Dell, das vor einigen Jahren den Netzwerkspezialisten Force10 eingekauft hatte, ja durchaus auch bei Netzwerken Know-how mit, und man darf gespannt sein, wie es in Zukunft umgesetzt wird. Dells Speicherprodukte dürften in Zukunft keine große Rolle spielen, wohl aber die Integrationsplattform „Dell Boomi“. Das Geschäft Über die wichtigsten Kennzahlen der vereinigten Firma gibt es immerhin verlässliche Informationen. Sein Umsatz wird etwa 74 Milliarden Dollar betragen, es hat 140.000 sogenannte TeamMembers (vulgo: Mitarbeiter) in 180 Ländern, und über 30.000 davon kümmern sich um den Kundendienst. EMC und Dell halten zusammen genommen rund 20.000 angemeldete Patente und haben in den vergangenen drei Jahren 12,7 Milliarden Dollar in Forschung und Entwicklung gesteckt. Inhaltlich fokussiert sich Dell Technologies man auf IT-Modernisierung, Workforce- und Security-Transformation, Cloud und Analytik. Für alle diese Bereiche sollen End-to-End-Lösungen entstehen, die dem Kunden aber die freie Wahl der Komponenten lassen. ■ Ariane Rüdiger Seite 49 CIOBRIEFING 11/2016 Womit sich Startups heute beschäftigen, Teil 10 Portworx bringt Storage und Container zusammen Bild: Portworx Auf einer Pressetour im Silicon Valley präsentierte CEO und Co-Founder Murli Thirumale vor kurzem sein junges Unternehmen Portworx. Gegründet 2014 in Redwood City, Kalifornien, wird sein Ansatz, software-defined Storage auf der Basis von Containern anzubieten, von den Analysten von 451 Research als „einzigartig“ für die Speicherbranche bezeichnet. Die drei Gründer, neben Thirumale sind dies Gou Rao und Eric Han, verfügen alle über langjährige Erfahrung in der IT-Industrie – sie arbeiteten in leitenden Funktionen u.a. für Dell, Ocarina, Citrix, HP, Nimble Storage, Google und Microsoft. Lead Investor ist die renommierte Venture-Capital-Firma Mayfield, außerdem hat sich Michael Dell beteiligt. Portworx setzt der Legacy-Infrastruktur, wie sie von den etablierten Platzhirschen der Server- und Speicherindustrie einschließlich VMware und Red Hat verfolgt wird, eine „Thin Infrastructure“ entgegen: Die unterste Ebene wird von x86-Standard-Servern gebildet, während darüber Portworx-Storage, ein minimales Betriebssystem, Container und eine Software-Schicht für Orchestrierung und Scheduling liegen. Statt Thin provisioning Thin infrastructure Portworx will die Container-Technologie als entscheidenden Baustein seines Infrastruktur-Konzepts benützen. Dazu verweist das Startup auf den schon bisher durchschlagenden Erfolg dieser Im Unterschied zu dem komplexen Aufbau von virtuellen Maschinen, die auf einem Hypervisor aufsetzen, und intern ein Betriebssystem be­ nötigen, geht der ­Container-Ansatz von minimalen Ressourcen aus. Seite 50 CIOBRIEFING 11/2016 Technologie: Die Container-Software von Docker habe bisher ein höheres Verkaufspotential gezeigt als jede andere neue Technologie, die seit 2010 eingeführt wurde, und viele große Unternehmen arbeiten bereits damit. Auch Cloud-Anbieter wie Amazon AWS, Microsoft Azure und Google Cloud setzen auf Container und unterstützen seit Jahren entsprechende Open-Source-Initiativen. Im Unterschied zu dem komplexen Aufbau von virtuellen Maschinen, die auf einem Hypervisor aufsetzen, und intern ein Betriebssystem benötigen, um eine oder mehrere Applikationen aufzunehmen, geht der ContainerAnsatz von minimalen Ressourcen aus: Sie brauchen keinen Hypervisor als Basis und auch keine eingebetteten Betriebssysteme. Stattdessen sind sie über ein API (Application Programming Interface) mit einem außerhalb befindlichen Betriebssystem verbunden – in der Vergangenheit waren das meistens Unix und Linux. Funktionale Container Software Bestehende SAN- und NAS-Systeme sind laut Portworx-CEO Thirumale zu umständlich (und zu teuer), um für die primäre oder sekundäre Speicherung (für Online-Backup/Restore oder für längerfristige Backups und Archivierung) geeignet zu sein. IT-Administratoren sollen sich nicht mehr, so Thirumale, mit Fibre-Channel-Switches und mit deren Herstellerbesonderheiten abplagen müssen, sondern einfach auf Software-Ebene ihre Anwendungsund Speicher-Container mit Clustern und Netzwerk verbinden. Thirumale führt aus: „Wir knüpfen an zwei Entwicklungen an: zum einen an den heutigen Commodity-Servern mit hohen Kapazitäten und hyper-converged Ausstattung an Server und Storage, zum anderen an den service-orientierten Software-Angeboten à la Docker. Wir bieten entweder On-premise oder für Cloud- und Hybrid-Umgebungen Speicher-Funktionen an, die für Container komplett in Software geschrieben sind und alle gewohnten Speicherleistungen wie zum Beispiel Snapshots, Replikation oder vorausschauendes Kapazitäts-Management umfassen.“ Der Container Storage Pool Die kostenlose PX-Developer-Software erlaubt es Devops-Anwendern, Storage-Kapazität über einen Container zur Verfügung zu stellen, wodurch während des Entwicklungsprozesses flexibel und schnell auf Speicherkapazität zugegriffen werden kann. Seite 51 CIOBRIEFING 11/2016 PX-Enterprise wird mit einem Subskriptionsmodell angeboten und bietet eine zusätzliche graphische Oberfläche (GUI) sowie weitere Features wie zum Beispiel ein Cluster-weites Management und Visibilitätsfunktionen. PX-Lite konzentriert in einem Container lokale Speicherressourcen wie All-Flash- und SATAArrays, so dass sie wie ein gemeinsamer Pool verwaltet werden können. Die Analysten von 451 Research sprechen von einem „auf Container zugeschnittenen Speicheransatz“: „Die Portworx-Software ist in der Lage, Daten von Anwendungen in Containern über mehrere Server und Knoten hinweg langfristig und zuverlässig zu speichern.“ Sie unterstütze das Management von ContainerStorage sogar für eine Infrastruktur auf Multi-Cloud-Ebene. Anwender müssen bedenken, dass die Entwicklung von Container-Standards noch keineswegs abgeschlossen ist. Vieles ist noch im Fluss. Bei Portworx glaubt man, dass man relativ weit in der Entwicklung von Storage-Containern ist, weiß aber auch, dass Konkurrenten aus dem Hardware- sowie aus dem Software-Lager dabei sind, auf diesen Zug aufzuspringen. ■ Hartmut Wiehr Seite 52 CIOBRIEFING Technology-Update für IT-Manager Regelmäßig kostenlos lesen? Die Ausgabe 12/2016 erscheint am 01.12.2016 +++ Jetzt anmelden auf +++ www.bigdata-insider.de/cio www.ip-insider.de/cio www.cloudcomputing-insider.de/cio www.security-insider.de/cio www.datacenter-insider.de/cio www.storage-insider.de/cio