EUROPA | NAHER OSTEN | AFRIKA WHITEPAPER VERBESSERN SIE IHRE ANWENDUNGSPERFORMANCE MIT DER OPTIMALEN CLOUDANBINDUNG EUROPA | NAHER OSTEN | AFRIKA KURZDARSTELLUNG Immer häufiger nutzen Unternehmen Cloud-basierte Anwendungen, die in externen Rechenzentren gehostet werden. Ein entscheidendes Kriterium sind hierbei die richtigen Netzwerkverbindungen. Die Leistungsunterschiede dieser Netzwerkverbindungen zwischen den Cloudanbietern und den tatsächlichen Nutzern sind oft erheblich – mit teilweise gravierenden Folgen für die Anwendungsperformance. Angesichts der zunehmenden Verbreitung von Cloudlösungen kommt somit der Wahl eines geeigneten Carriers zentrale Bedeutung zu. Im Mittelpunkt der Überlegungen sollte die zu erwartende Leistungsfähigkeit des Netzwerks stehen: Latenz, Paketverluste, Peering-Vereinbarungen, Sicherheit und die Eignung von SLAs für Cloudanwendungen sind Kriterien, die bei einer eingehenden Bewertung berücksichtigt werden müssen. Die Cloudrevolution hat wesentliche strukturelle Unterschiede zwischen den einzelnen Carrier-Netzen sichtbar gemacht. SLAs, die über Jahre ausreichend waren, sind den neuen Anforderungen nicht mehr gewachsen. Kunden benötigen einen Carrier mit globaler Reichweite, der über viele Metronetzverbindungen verfügt und minimale Latenzen mit einer maximalen Dichte an Edge-Routern vereint. Netzwerkmanagern stehen viele Möglichkeiten zur Verbesserung der Netzwerkperformance zur Verfügung – und damit auch der Anwendungsperformance in der Cloud. Wichtig ist die Entscheidung für einen Carrier, dessen Lösungen die Netzwerkperformance spürbar steigern. In enger Absprache mit Ihren Serviceprovidern können Sie zudem Strategien entwickeln, um nachteilige Auswirkungen des Netzwerks auf die Anwendungen zu minimieren. Die Verbreitung von Clouddiensten und -anwendungen bringt ein zentrales Problem mit sich: Die Qualität der Netzwerkkonnektivität zwischen Ressourcen und Endanwendern unterliegt starken Schwankungen. EINLEITUNG Die Cloud ist inzwischen fester Bestandteil der heutigen Kommunikationsinfrastruktur – und aus den europäischen und globalen Geschäftsumgebungen nicht mehr wegzudenken. Die zunehmende Verbreitung von Clouddiensten und -anwendungen birgt jedoch ein zentrales Problem: Die Qualität der Netzwerkkonnektivität DATENNETZE zwischen Ressourcen und Endanwendern unterliegt starken Schwankungen. Dieser Effekt wird zusätzlich verstärkt, da Unternehmen immer mehr geschäftskritische Anwendungen in die Cloud verlagern, die einer Vielzahl von Endanwendern über große Entfernungen hinweg zur Verfügung stehen sollen. Die Bereitstellung von Cloud Services kann ver­schie­ dene Formen annehmen. Das gängigste Modell ist die Public Cloud, bei der eine theoretisch unbegrenzte Zahl an Kunden über das öffentlich zugängliche Internet auf die Ressourcen von Drittanbietern zugreift. Zu den weiteren Modellen zählen Private Clouds, deren Nutzung auf einzelne Organisationen beschränkt ist; Hybrid Clouds – eine Mischform aus Public und Private Clouds – und Community Clouds, bei denen Organisationen mit ähnlichen Anforderungen eine gemeinsame Nutzung der vorhandenen Infra­struktur anstreben. ANBINDUNGEN UND PERFORMANCESCHWANKUNGEN Die Leistungsfähigkeit eines Netzwerks ist abhängig von der Art der Verbindung zwischen Anwendern und Cloudressourcen. Bei der Nutzung von Public Clouds führt am Internet kein Weg vorbei. Bei Private Clouds bestehen folgende Verbindungsalternativen: -- Virtuelles Layer-3 MPLS Netzwerk -- Virtuelles Layer-2 Ethernet Netzwerk -- Punkt-zu-Punkt-Verbindung (meist über optische Leitungen) Hinsichtlich der Netzwerkperformance bestehen zwischen und innerhalb der einzelnen Vernetzungsoptionen erhebliche Unterschiede. Die richtige Wahl hängt in hohem Maße von den Anwendungsanforderungen und ihrer Relevanz für das Unternehmen ab. ANBINDUNG PER PUBLIC CLOUD Das Internet stellt den einfachsten und kostengünstigsten Zugang dar. Entsprechend gering ist allerdings die zugesicherte Qualität, die als „Best Effort“ bezeichnet wird. Netzwerklatenz und Paketverluste sind großen Schwankungen unterworfen. Wer Standard-Internet­verbindungen als Cloudmodell wählt, muss mit einer unzuverlässigen Servicebereitstellung rechnen. IT-Manager wissen, dass sie für Anwendungen mit hohen Bandbreitenanforderungen zuverlässigere Netzwerkoptionen benötigen. Hierzu zählen etwa dedizierte Datenverbindungen, die aus dem unternehmenseigenen Rechenzentrum direkt zum Provider führen. | SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC EUROPA | NAHER OSTEN | AFRIKA ANBINDUNG PER PRIVATE CLOUD Virtual Private Network (VPN): Eine zuverlässigere Option als das Internet bilden Verbindungen über Virtual Private Networks (VPN). Kunden können dabei zwischen MPLS-basierten IP VPNs oder Ethernet-basierten VPLS Services wählen. Ein Vorteil dieser Lösung ist, dass über das VPN übertragene Daten das Netzwerk nicht verlassen. Die meisten führenden Carrier bieten Leistungsgarantien in Form von Service Level Agreements (SLAs), in denen die maximal zulässige Latenz und der maximal tolerierte Verlust von Datenpaketen zwischen Netzwerkknoten definiert werden. Dank der zugesicherten Performance können Kunden Cloudangebote auf zuverlässige Weise nutzen. (Optische) Punkt-zu-Punkt-Verbindung: Dedizierte optische Punkt-zu-Punkt-Verbindungen weisen die geringsten Latenzwerte und die höchste Zuverlässigkeit auf. Paketverluste können bei Bedarf vollständig eliminiert werden. Diese Servicekategorie beinhaltet Standleitungen, Ethernet Privates Lines (EPLs) und optische Wellenlängenmultiplexverfahren wie DWDM. Die Bereitstellung erfolgt über Ethernet, SONET, Fiber Channel oder andere Schnittstellen. ANBINDUNGEN: DIE RICHTIGE ENTSCHEIDUNG TREFFEN Zwei Faktoren sind bei der Wahl der richtigen Anbindungen abzuwägen: Kosten und Qualität. Public Clouds eignen sich für Anwendungen, in denen die Latenz von unter­ geordneter Bedeutung ist (etwa bei E-Mail-Diensten) oder Sicherheitsaspekte nicht im Vordergrund stehen. Virtuelle Netzwerke eignen sich hingegen für Anwendungen mit höheren Ansprüchen an die Latenzzeit. Hierzu zählen beispielsweise Netzwerkverbindungen zwischen Kundenrechenzentren und Cloudanbietern. Da die Services über das private MPLS-Netzwerk des Netzwerkanbieters bereitgestellt werden, ist zudem ein höheres Maß an Sicherheit gewährleistet. Geht es um geschäftskritische Anwendungen, sind dedizierte optische Punkt-zu-PunktVerbindungen meistens die beste Wahl – oft jedoch auch die teuerste. On-Net-Verbindungen bilden die direkteste Schnittstelle zwischen Kundennetzwerken und der Carrier-Infrastruktur. DATENNETZE Die nachfolgende Tabelle illustriert die Netzwerk­ anforderungen unterschiedlicher Formen von Anwendungen. Leistungsmerkmale gängiger Geschäftsanwendungen Anwendung LatenzFehler­ Benötigte Empfind­ Bandbreite sensibilität lichkeit E-Mail-Dienst JitterLast­ Empfind­ schwankungen lichkeit Sehr gering Gering Gering Gering Mittel Voice (TDM) Gering Gering Gering Hoch Gering Voice over IP (VoIP) Gering Mittel Gering Hoch Gering Webbrowser (nicht kritisch) Mittel Mittel Mittel Mittel Mittel Webbrowser (SaaS) Hoch Mittel Hoch Mittel Mittel Videokonferenzen Hoch Mittel Mittel Hoch Hoch Sehr hoch Hoch Hoch Hoch Hoch Mittel Mittel Hoch Mittel Hoch Telepräsenz Telearbeit Hoch Hoch Mittel Hoch Hoch Sehr hoch Hoch Hoch Hoch Hoch Servervirtualisierung (WAN) Hoch Hoch Hoch Hoch Hoch Unified Communications Mittel Mittel Mittel Mittel Hoch Medien-Streaming Storage Area Networks Quelle: Level 3 CLOUDVERBINDUNGEN UND ANWENDUNGSPERFORMANCE Unabhängig davon, auf welche Art von Private Cloud die Wahl letztendlich fällt – die Qualitätsunterschiede zwischen einzelnen Carrier-Netzwerken und deren Einfluss auf die Cloud Performance sind erheblich. Angesichts der Zunahme von externen Rechen­zentren sind Unternehmen auf zuverlässige WAN-Verbindungen angewiesen, die als Bindeglied zwischen geschäfts­ kritischen Anwendungen und Endanwendern fungieren. Geringe Unterschiede in der Netz­w erk­p erformance können sich dramatisch auf Anwendungen auswirken. Netzwerke müssen eine Vielzahl verschiedener Kriterien erfüllen: hohe Band­breiten­anforderungen, geringe Latenz, minimale Paket­verluste und die Nutzung durch viele Endanwender. Oft müssen große Datenmengen quasi in Echtzeit über große Distanzen hinweg an mehrere Rechenzentren übermittelt werden. Die benötigte Reichweite umfasst dabei mehrere Datenspeichersysteme und eine stetig wachsende Anzahl an Standorten. | SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC EUROPA | NAHER OSTEN | AFRIKA Im Zuge der Server-Virtualisierung ergibt sich ein weiteres Problem: die Mobilität virtueller Maschinen, die wiederum stark von Latenz, Paketverlusten und Bandbreitendurchsatz beeinflusst wird. In derartigen Umgebungen steigt zwangs­ läufig die Komplexität von BCDR-Strategien (Business Continuity and Disaster Recovery Planning). Oft müssen auch dynamische Bandbreiten­a nfor­ derungen wie starke Lastschwankungen oder kurz- und langfristige Planungskriterien berücksichtigt werden. So wird beispielsweise für die nächtliche Daten­repli­ ka­tion zwischen Rechenzentren mehr Bandbreite als für die tägliche Interaktion zwischen Benutzern und Anwendungen benötigt. Ebenso kann die Migration einer virtuellen Maschine einmalig eine extrem hohe Spitzenlast erzeugen, da die Rechenressourcen neu verteilt werden. Bandbreitenschwankungen sind insbesondere bei cloudspezifischen Vorgängen wie der Migration von Datenspeichern und virtuellen Maschinen, DatenspeicherUpdates und dem Anwendungsdatenverkehr zwischen virtuellen Maschinen zu erwarten. Die Migration einer virtuellen Maschine kann einmalig eine extrem hohe Spitzenlast erzeugen, da die Rechenressourcen neu verteilt werden. Quelle: Level 3 Datenverkehr ­zwischen Rechenzentren Über­ tragungs­ dauer Bandbreite pro Über­ tragung QoSRelevanz Migration Datenspeicher Mittel Sehr hoch Mittel/hoch Migration virtuelle Maschine Kurz Hoch Mittel/hoch Datenspeicher Update (aktiv-aktiv) Lang Mittel Sehr hoch Verteilter vAppDatenverkehr zw. VMs Variiert Gering Variiert Carrier Core 1 2 3 Carrier Edge 1 4 Carrier Edge NETZWERKELEMENTE UND LATENZ Backhaul-Distanzen: Wie bereits erwähnt, wird die Interaktionszeit zwischen Endanwender und Anwendung von der Länge der betreffenden Verbindungsstrecke beeinflusst. Diese setzt sich aus der Entfernung zwischen dem Kundenstandort und dem Rand des Carrier-Netz­ werks (auch „Carrier Edge“ genannt) sowie der innerhalb dieses Netzwerks (oder der Netzwerke anderer Carrier) zurückgelegten Strecke zusammen. Dabei muss es sich nicht um die kürzeste Strecke handeln, da Carrier aus Kostengründen mitunter einen günstigeren, aber längeren Weg wählen („Hairpinning“-Methode). Außerdem gilt: Je mehr Carrier-Edge-Switches verfügbar sind, desto geringer ist die Backhaul-Distanz. Switching-Latenz: Ein weiterer wichtiger Faktor ist das Routing zwischen den einzelnen Netzwerkswitches. Für eine optimale Netzwerkperformance muss die Entfernung zwischen Switching-Punkten möglichst gering gehalten werden. Manche Carrier-Netzwerke verfügen über eine Architektur, die gezielt kürzere Switching-Pfade nutzt. Carrier Switching Architektur und -Hierarchie: Das Netzwerkdesign, das unter anderem die Zahl und Positionierung der vorhandenen Edge-Switches umfasst, wirkt sich spürbar auf die Netzwerkperformance aus. Die Latenzzeiten innerhalb des Netzwerks sinken mit zunehmender Anzahl der Edge-Switches. Alternative Übertragungsrouten: Die Übertragungsqualität wird dann am wenigsten beeinträchtigt, wenn mehrere Pfade zwischen Endanwendern und Anwendungen vorhanden sind. Diese weisen jedoch unter Umständen unterschiedliche Latenzzeiten auf, was zu Problemen führen kann, wenn Anwendungen Schwankungen ausgleichen möchten. Beim Aufbau des Netzwerks für die Benutzer muss der Provider deshalb unterschiedliche Übertragungsrouten bereitstellen und mögliche Latenz­ schwankungen berücksichtigen. Hinweis: Diese Konzepte werden im weiteren Verlauf dieses Whitepapers noch ausführlicher erläutert. DATENNETZE | SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC EUROPA | NAHER OSTEN | AFRIKA Abbildung 1. Die zunehmende Nutzung der Cloud verschärft das Thema Netzwerkperformance in einem Maß, auf das Netzwerkmanager möglicherweise nicht vorbereitet sind. DER EINFLUSS DER CLOUD: DIE AUSNAHME WIRD ZUR REGEL Carrier-Netze weisen hinsichtlich ihres Designs beträchtliche Unterschiede auf. Diese werden angesichts der Verbreitung von Cloudtechnologien weiter verstärkt. Die gängigen SLAs berücksichtigen diesen Umstand jedoch nicht immer. Verbindungsprobleme, die sich auf die Performance von Backbones und folglich auf die von Anwendungen auswirken, nehmen an Dringlichkeit und Komplexität zu. Diese Herausforderungen werden nachfolgend im Detail erörtert. STEIGENDE LATENZZEITEN Die Latenzzeit steigt mit der zurückgelegten Verbindungs­ strecke und mit dem Netzwerk-Equipment. Bereits kleinste Unterschiede – bei Carrier-Standorten, Netzwerkumfang und Latenz der Backbone-Netzwerke – können in der Summe zu erheblichen Leistungs­schwankungen führen. Wenn mehrere Standorte beispielsweise über ein VPN miteinander verbunden sind, wird der Datenverkehr üblicherweise mithilfe optischer Multiplexverfahren abgewickelt, wobei eine Switching-Architektur für das Routing der Pakete sorgt. Die damit verbundenen Verarbeitungszeiten und Rückübertragungsprozesse sorgen für mehrere, geringe Anstiege in der Latenz, die sich potenzieren und im Netzwerk ausbreiten. DATENNETZE Abbildung 2. Verlusteffekt bei VM-Migration Dauer VM-Migration (Sek.) NETZWERKGRUNDLAGEN Quelle: Level 3 32 % Anstieg 10 ms RTT-Latenz 20 ms RTT-Latenz 24 % Anstieg Verlust % Latenzeffekt bei VM-Migration Dauer VM-Migration (Sek.) Die Cloud bringt neue Herausforderungen für Netzwerke mit sich, die schon zuvor starkem Wandel, hoher Komplexität und großem Facettenreichtum unterworfen waren. Das Datenaufkommen in Netzwerken steigt rapide an – und mit ihm die Prozesskomplexität und Distanz zu den benötigten Anwendungen. Je mehr Daten in einem Netzwerk bewegt werden, desto wichtiger sind Latenzzeiten und eine zuverlässige Paketübermittlung. Anstatt Software auf lokalen Fest­platten zu installieren oder in lokalen Netzwerken ver­fügbar zu machen, wird diese an externen, oft ent­­­ legenen Standorten gehostet. Natürlich möchten Kunden auch weiterhin auf breiter Basis auf diese Services praktisch in Echtzeit zugreifen. Die zunehmende Nutzung der Cloud verschärft die Frage der Netzwerkperformance in einem Maß, auf das Netzwerkmanager möglicherweise nicht vorbereitet sind. RTT-Latenz (Millisek.) Quelle: Level 3 | SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC EUROPA | NAHER OSTEN | AFRIKA Wenn Benutzer Kapazitäten in der Cloud erwerben und große Datenmengen transportieren müssen, können Probleme auftreten. LATENZ + PAKETVERLUST = GERINGERER DURCHSATZ Hohe Latenzzeiten und Paketverlustraten können den tatsächlichen Datendurchsatz zwischen Kunden­ rechenzentren und Cloudanbietern erheblich verringern. Bei geringen Datenströmen mag dies vernachlässigbar sein, bei bandbreitenintensiven Anwendungen ist es jedoch gravierend. Wenn Benutzer Rechenkapazität in der Cloud erwerben und große Datenmengen transportieren müssen, können Probleme auftreten. Selbstverständlich können weitaus mehr Daten übertragen werden, wenn die Reaktionszeit des Netzwerks (Round Trip Time, kurz RTT) 10 statt 30 Millisekunden beträgt, und SwitchingSysteme Datenpakete nicht verwerfen, um den Durchsatz zu maximieren. JITTER UND DURCHSATZ Um Latenzschwankungen (auch Jitter genannt) aus­­zugleichen, wendet das TCP-Protokoll bei der Durch­satz­­rate das Prinzip des kleinsten gemeinsamen Nenners an. So werden zwar stabile Verbindungen erzielt, die jedoch bei geschäftskritischen Anwendungen schnell an ihre Grenzen stoßen. Wenn die Latenzzeit einer Verbindung zu einem gegebenen Zeitpunkt 15 Millisekunden beträgt und wenig später auf 30 Millisekunden ansteigt, wäre es logisch anzunehmen, dass der Durchsatz bei einem erneuten Sinken der Latenz wieder zum vorherigen Leistungsniveau zurückkehrt. TCP gleicht Jitter (Latenzschwankungen) jedoch aus, indem die Datenübertragung durchgängig auf Grundlage der höheren Latenzzeit erfolgt. Diese wird sozusagen als verlässliche Bezugsgröße verwendet, was sich negativ auf die verfügbare Bandbreite auswirkt. Das verschärft die vorhandenen Probleme, wenn das Internet als Verbindung in die Cloud verwendet wird (siehe Abbildung 1). DATENNETZE GERINGE LATENZSCHWANKUNGEN = ERHEBLICHE NETZWERKBEEINTRÄCHTIGUNG Die Auswirkungen geringfügiger Latenzschwankungen werden häufig unterschätzt. Ein Anstieg der Paketlaufzeit zwischen zwei Netzwerkknoten um 10 Millisekunden kann beispielsweise den Gesamtdurchsatz eines Netzwerks um 25 bis 50 % senken. Die Latenzschwankungen zwischen Carrier-Netzen – insbesondere auf Long-HaulRouten – sind oft wesentlich größer. Dieses Problem wird unten anhand der Auswirkungen der Latenz auf die Migration virtueller Maschinen verdeutlicht, da dieser grundlegende Cloudvorgang höchst latenz­ empfindlich ist. LATENZ UND CARRIER EDGE Eine größere Nähe zwischen dem Perimeter eines VPN (der sogenannten Edge) und dem Standort des End­anwenders ermöglicht deutlich bessere Latenzwerte. Je größer die Zahl der Edge Switches eines Carriers ist, desto dichter können diese in Metroregionen verteilt werden. Wenn Unternehmen an das Metronetz des Providers angebunden werden, sinkt somit die BackhaulDistanz zwischen dem VPN des Kunden und der Switching-Infrastruktur des Carriers. ROUTING ZWISCHEN VERSCHIEDENEN ANBIETERN Netzbetreiber schließen Peering-Vereinbarungen, um ihren Datenverkehr über die Backbones anderer Carrier leiten zu können. Neben einer verminderten Netzwerkleistung muss dabei nicht selten mit Übertragungsengpässen gerechnet werden. Besonders hoch ist das Risiko bei Low-CostProvidern, die aus Kostengründen zu hohe Auslastungen in Kauf nehmen. Unternehmen sind sich dieser Tatsache häufig nicht bewusst, wenn sie preisgünstige Internet­ dienste in Anspruch nehmen, deren Betrieb sich in Wahrheit über drei, vier oder gar fünf separate SwitchingSysteme erstreckt. Ein weiterer kritischer Punkt ist die Schwierigkeit, Netzwerkprobleme unverzüglich zu lokalisieren, zu diagnostizieren und zu beheben. Entsprechend groß sind die Vorzüge eines Carriers, dessen eigenes Netzwerk über eine hohe geographische Reichweite verfügt. Das verringert die Zahl der Netz­werk-Hops und vermeidet bei Problemen gegenseitige Schuld­zuweisungen zwischen Netzbetreibern. | SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC EUROPA | NAHER OSTEN | AFRIKA Die aktuellen Standards sind nicht optimal für Kunden, die Netzwerke für den Betrieb geschäftskritischer Cloudanwendungen benötigen. SLA UND NETZWERKPERFORMANCE Im Laufe der Zeit haben sich feste Branchenstandards für SLAs etabliert, die üblicherweise die maximal zulässige Paketverlustrate und Latenz festlegen. Solange sich Provider eindeutig innerhalb der SLA-Vorgaben bewegen, nehmen sie häufig aus Kostengründen Leistungseinbußen in Kauf. Ein standardmäßiges IP VPN, für das im Inland innerhalb eines Carrier-Netzes eine Edge-toEdge-Paketumlaufzeit von 40 Millisekunden garantiert wird, könnte diesen Mindeststandard zum De-factoStandard machen – zum Nachteil von Anwendungen, die eigentlich bessere Leistungswerte benötigen. Bereits 10 Millisekunden weniger Latenz können für die Performance von Cloudanwendungen einen beträchtlichen Unterschied ausmachen. Die existierenden SLAs sind nicht optimal für Kunden, die Netzwerke für den Betrieb geschäftskritischer Cloudanwendungen benötigen. STRATEGIEN ZUR VERBESSERUNG DER NETZWERK- UND ANWENDUNGSPERFORMANCE Wie können Netzwerkmanager sicherstellen, dass Unternehmensnetzwerke optimal auf die Anforderungen von Cloudanwendungen ausgelegt sind? Als erster Schritt sollten die verfügbaren BackboneOptionen zu den Anwendungsanforderungen und Gesamt­kosten in Relation gesetzt werden. Überlegen Sie, ob eine Public-, Private- oder Hybrid-Cloud-Lösung in Ihrem Fall am besten geeignet ist, und vergleichen Sie die damit verbundenen Verbindungs­möglich­keiten. Prüfen Sie, welche anwendungsspezifischen Vorgaben hinsichtlich Paketverlusten, Latenz und Jitter eingehalten werden müssen. Gleichzeitig sollten Sie auch die Vor- und Nachteile einer dedizierten oder gemeinsam genutzten Infrastruktur im Hinblick auf Rentabilität, Sicherheit und andere Faktoren abwägen. Front-End Optimierung: Reduzierung der Anzahl und Größe gesendeter Dateien (Videos, Grafiken, Text usw.) sowie TCP-Optimierung und Vorrichtungen zur Verhinderung häufiger Zurücksetzungen von TCP-Fenstern. TCP-Pooling: Bereitstellung mehrerer Kommunikations­ ströme zur Nutzung gemeinsamer Pfade. Persistente TCP-Verbindungen: Nach Abschluss einer TCP-Session wird die Verbindung nicht getrennt. Wenn zwei Endpunkte die Kommunikation erneut aufnehmen, wird dieselbe Verbindung verwendet. Hierdurch kann die wiederholte, kurzfristige Verkleinerung von TCP-Fenstern reduziert oder ganz vermieden werden. Optimierung von TCP-Übertragungsmechanismen: Bessere Anpassung von Host-Puffern (auf dem Empfänger­ system) an die TCP-Konfiguration. Auch die manuelle Anpassung von TCP-Fenstergrößen ist unter Umständen sinnvoll: Bei älteren Betriebssystemen sind standardmäßig Fenstergrößen von 64 Kilobyte eingestellt – zu wenig für bandbreitenintensive Long-Haul-Übertragungen. Anwendungsmodifizierung: Vorhandene Software sollte überarbeitet werden, um die Performance zu verbessern. Application Performance Management: Bereitstellung von Services und Tools zur Überwachung des Kunden­ datenverkehrs sowie zum Hochladen von Leistungs­ statistiken auf einen zentralen Server. Dank umfangreicher Analysefunktionen erhalten Kunden eine Übersicht über den Netzwerkverkehr und ihre Anwendungen. WAN-Beschleunigung: Reduzierung und Komprimierung von Daten, QoS-Anpassungen sowie anwendungs­ spezifische Beschleunigung zur Priorisierung von Anwendungen. Auf dem Markt ist hierfür eine Vielzahl von Tools und Services erhältlich. Wenn diese Punkte geklärt sind, stehen Ihnen verschiedene Möglichkeiten zur Verbesserung der Netzwerk- und Anwendungsperformance zur Auswahl: DATENNETZE | SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC EUROPA | NAHER OSTEN | AFRIKA Kunden sollten gemeinsam mit ihrem Provider überlegen, wie die Netzwerke optimal auf ihre Anwendungsanforderungen abgestimmt werden können. DIE WAHL GEEIGNETER CARRIER-NETZWERKSERVICES Nach der Wahl des richtigen Backbone-Netzwerks sollten Kunden gemeinsam mit ihrem Provider überlegen, wie die Netzwerke optimal auf ihre Anwendungsanforderungen abgestimmt werden können. Netzwerkmanager sollten beim Design und der Optimierung von Netzwerken mit erfahrenen Experten zusammenarbeiten, um die Produktivität nachhaltig zu verbessern und geschäftliche Anforderungen in vollem Umfang zu berücksichtigen. AUSWAHLKRITERIEN FÜR CARRIER-NETZE Die Cloudrevolution hat wesentliche Unterschiede zwischen Carrier-Netzen sichtbar gemacht. Latenz ist wichtiger als je zuvor: Die zulässige Toleranz liegt inzwischen im einstelligen Millisekundenbereich. Paketverluste müssen nahezu komplett vermieden werden, womit das Internet als Bereitstellungsweg für professionelle Public-CloudServices ausscheidet. Einige wichtige Aspekte, die Kunden beim Vergleich von Carrier-Netzen beachten sollten, sind nachfolgend aufgeführt. Globale Reichweite: Rechnerressourcen und Inhalte müssen heute immer häufiger global bereitgestellt werden, um die Ansprüche internationaler Kunden zu erfüllen. Intercity-Latenz: Kunden sollten Carrier mit den niedrigsten durchschnittlichen Latenzwerten für strategisch wichtige Städteverbindungen bevorzugen. Hohe Abdeckung in Metroregionen Direkte Glas­faser­ verbindungen zu wichtigen Rechenzentren innerhalb von Metronetzen sind für das Kundenerlebnis und transparente Performance von entscheidender Bedeutung. FAZIT Moderne Unternehmen verlagern immer mehr Geschäfts­ prozesse in die Cloud. Die Anwendungs­performance hängt dabei in hohem Maße von der WAN-Konnektivität der Rechenzentren ab. Die Qualität variiert teilweise erheblich. Ohne geeignete Lösungen und Tools zur Überwachung und Verwaltung des Datenaufkommens gelingt es meist nicht, die Anwendungsperformance nachhaltig zu verbessern. Leistungsschwankungen von Netzwerken beeinträchtigen die Anwendungsleistung erheblich. Grund hierfür sind unter anderem höhere Latenzzeiten aufgrund zahlreicher Netzwerk-Hops und großer Routing-Distanzen, Paket­­ verluste, Bandbreitenschwankungen und Peering-Verein­ barungen. Durch die Cloud hat die Komplexität heutiger Netzwerke spürbar zugenommen. Netzwerkmanager sehen sich ständig mit neuen Cloud-Anwendungen konfrontiert. Gleichzeitig müssen sie quasi einen Echtzeitzugriff für eine große Zahl von Endanwendern an unterschiedlichen Standorten über große Entfernungen hinweg ermöglichen. Ohne geeignete Lösungen und Tools zur Überwachung und Verwaltung des Datenaufkommens gelingt es meist nicht, die Anwendungsperformance nachhaltig zu verbessern. Deshalb sollten Netzwerkmanager eine Vielzahl von Maßnahmen ergreifen und bei der Wahl des geeigneten Carriers und Netzwerks äußerst sorgfältig vorgehen. Die Services und das Know-how des Netzbetreibers sollten gezielt eingesetzt werden, um die Netzwerkperformance zu optimieren. Kunden benötigen einen Carrier mit globaler Reichweite, der eine hohe Abdeckung in Metropolregionen vorweisen kann, minimale Intercity-Latenz mit einer hohen Dichte an Edge Routern vereint und umfassende Managed und Professional Services anbietet. Dichte der Edge Router: Die Anzahl der eingesetzten Edge Switches (sowie ihre Verteilung und Entfernung zu Kundenstandorten) ist ein maßgeblicher Faktor für effizientes Routing und somit auch für optimale Netz­werk­ performance. Transparente Leistung: Auch wenn Cloudverbindungen ein höchst komplexes Thema sind, sollte der Provider seine Lösung einschließlich der zugrunde liegenden Infrastruktur nachvollziehbar darlegen können. DATENNETZE | SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC EUROPA | NAHER OSTEN | AFRIKA DAS SERVICEVERSPRECHEN VON LEVEL 3 Die Cloudrevolution hat deutliche Unterschiede zwischen Carrier-Netzen sichtbar gemacht. Level 3 bietet branchen­ weit führende Verbindungslösungen an. Neben dem leistungsstarken Level 3 Netzwerk profitieren Kunden von einem durchdachten Angebot an Professional Services und Managementlösungen. Dabei hat sich Level 3 zu einem überzeugenden Kundenerlebnis verpflichtet. Transparenz hinsichtlich des Designs, des Betriebs und der Optimierung des Netzwerks haben für uns oberste Priorität. Mit seiner Netzwerkumgebung ist es Level 3 möglich, Kunden vor dem Vertrag über die zu erwartenden Latenzzeiten auf bestimmten Routen zu informieren und ihnen geeignete SLAs anzubieten. Die Latenz wird bei der Inbetriebnahme der Leitung gemessen und im Bereitstellungssystem von Level 3 gespeichert. Die Verbindung wird gekennzeichnet, damit Betriebsteams den Vorrang der Latenzzeit kennen und die Verbindung nicht ohne Genehmigung des Kunden verschoben, modifiziert oder neu eingerichtet werden kann. Dieses System wurde ursprünglich für Trading-Anwendungen im Finanzsektor entwickelt, wo äußerst niedrige Latenzzeiten entscheidend werden. Angesichts der Zunahme von Cloud-Technologien hat Level 3 dieses Angebot auf die schnell wachsende Zahl internationaler Unternehmenskunden zugeschnitten, die hohe Anforderungen an die Latenz stellen. Level 3 bedient weltweit mehr als 500 Märkte in über 60 Ländern auf 5 Kontinenten. Unser Netzwerk umfasst insgesamt über 289.000 Streckenkilometer, davon ca. 53.000 km Seekabelstrecken und ca. 60.000 Strecken­ kilometer in Ballungs­räumen. So gewährleisten wir, dass Ihr Daten­verkehr unser Netzwerk nicht verlässt und die Netz­werk­performance durchgängig kontrolliert wird. ÜBER LEVEL 3 Wir erstellen, betreiben und gewährleisten umfassende Netzwerklösungen, die Sie mit der Welt verbinden. Kunden stehen bei uns an erster Stelle – wie auch die Zuverlässigkeit und Sicherheit unseres umfassenden Serviceangebots. DATENNETZE Telefon: +49 69 5060 8114 E-Mail:[email protected] Internet:www.level3.eu.com/de | SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC © 2014 Level 3 Communications, LLC. Alle Rechte vorbehalten. L3DE1379