whitepaper - Level 3 Communications

Werbung
EUROPA | NAHER OSTEN | AFRIKA
WHITEPAPER
VERBESSERN SIE IHRE
ANWENDUNGSPERFORMANCE MIT DER
OPTIMALEN CLOUDANBINDUNG
EUROPA | NAHER OSTEN | AFRIKA
KURZDARSTELLUNG
Immer häufiger nutzen Unternehmen Cloud-basierte
Anwendungen, die in externen Rechenzentren gehostet
werden. Ein entscheidendes Kriterium sind hierbei die
richtigen Netzwerkverbindungen. Die Leistungsunterschiede dieser Netzwerkverbindungen zwischen den
Cloudanbietern und den tatsächlichen Nutzern sind oft
erheblich – mit teilweise gravierenden Folgen für die
Anwendungsperformance. Angesichts der zunehmenden
Verbreitung von Cloudlösungen kommt somit der Wahl
eines geeigneten Carriers zentrale Bedeutung zu.
Im Mittelpunkt der Überlegungen sollte die zu
erwartende Leistungsfähigkeit des Netzwerks stehen:
Latenz, Paketverluste, Peering-Vereinbarungen, Sicherheit
und die Eignung von SLAs für Cloudanwendungen
sind Kriterien, die bei einer eingehenden Bewertung
berücksichtigt werden müssen.
Die Cloudrevolution hat wesentliche strukturelle
Unterschiede zwischen den einzelnen Carrier-Netzen
sichtbar gemacht. SLAs, die über Jahre ausreichend
waren, sind den neuen Anforderungen nicht mehr
gewachsen. Kunden benötigen einen Carrier mit globaler
Reichweite, der über viele Metronetzverbindungen verfügt
und minimale Latenzen mit einer maximalen Dichte an
Edge-Routern vereint.
Netzwerkmanagern stehen viele Möglichkeiten zur
Verbesserung der Netzwerkperformance zur Verfügung –
und damit auch der Anwendungsperformance in der
Cloud. Wichtig ist die Entscheidung für einen Carrier,
dessen Lösungen die Netzwerkperformance spürbar
steigern. In enger Absprache mit Ihren Serviceprovidern
können Sie zudem Strategien entwickeln, um nachteilige
Auswirkungen des Netzwerks auf die Anwendungen zu
minimieren.
Die Verbreitung von Clouddiensten und
-anwendungen bringt ein zentrales Problem
mit sich: Die Qualität der Netzwerkkonnektivität
zwischen Ressourcen und Endanwendern
unterliegt starken Schwankungen.
EINLEITUNG
Die Cloud ist inzwischen fester Bestandteil der
heutigen Kommunikationsinfrastruktur – und aus den
europäischen und globalen Geschäftsumgebungen
nicht mehr wegzudenken. Die zunehmende Verbreitung
von Clouddiensten und -anwendungen birgt jedoch ein
zentrales Problem: Die Qualität der Netzwerkkonnektivität
DATENNETZE
zwischen Ressourcen und Endanwendern unterliegt
starken Schwankungen. Dieser Effekt wird zusätzlich
verstärkt, da Unternehmen immer mehr geschäftskritische
Anwendungen in die Cloud verlagern, die einer Vielzahl
von Endanwendern über große Entfernungen hinweg zur
Verfügung stehen sollen.
Die Bereitstellung von Cloud Services kann ver­schie­
dene Formen annehmen. Das gängigste Modell ist die
Public Cloud, bei der eine theoretisch unbegrenzte Zahl
an Kunden über das öffentlich zugängliche Internet auf die
Ressourcen von Drittanbietern zugreift. Zu den weiteren
Modellen zählen Private Clouds, deren Nutzung auf einzelne Organisationen beschränkt ist; Hybrid Clouds – eine
Mischform aus Public und Private Clouds – und Community Clouds, bei denen Organisationen mit ähnlichen Anforderungen eine gemeinsame Nutzung der vorhandenen
Infra­struktur anstreben.
ANBINDUNGEN UND
PERFORMANCESCHWANKUNGEN
Die Leistungsfähigkeit eines Netzwerks ist abhängig
von der Art der Verbindung zwischen Anwendern und
Cloudressourcen. Bei der Nutzung von Public Clouds führt
am Internet kein Weg vorbei. Bei Private Clouds bestehen
folgende Verbindungsalternativen:
-- Virtuelles Layer-3 MPLS Netzwerk
-- Virtuelles Layer-2 Ethernet Netzwerk
-- Punkt-zu-Punkt-Verbindung
(meist über optische Leitungen)
Hinsichtlich der Netzwerkperformance bestehen zwischen
und innerhalb der einzelnen Vernetzungsoptionen
erhebliche Unterschiede. Die richtige Wahl hängt in hohem
Maße von den Anwendungsanforderungen und ihrer
Relevanz für das Unternehmen ab.
ANBINDUNG PER PUBLIC CLOUD
Das Internet stellt den einfachsten und kostengünstigsten
Zugang dar. Entsprechend gering ist allerdings die zugesicherte Qualität, die als „Best Effort“ bezeichnet wird.
Netzwerklatenz und Paketverluste sind großen Schwankungen unterworfen. Wer Standard-Internet­verbindungen
als Cloudmodell wählt, muss mit einer unzuverlässigen
Servicebereitstellung rechnen. IT-Manager wissen, dass
sie für Anwendungen mit hohen Bandbreitenanforderungen zuverlässigere Netzwerkoptionen benötigen.
Hierzu zählen etwa dedizierte Datenverbindungen, die aus
dem unternehmenseigenen Rechenzentrum direkt zum
Provider führen.
| SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC
EUROPA | NAHER OSTEN | AFRIKA
ANBINDUNG PER PRIVATE CLOUD
Virtual Private Network (VPN): Eine zuverlässigere
Option als das Internet bilden Verbindungen über Virtual
Private Networks (VPN). Kunden können dabei zwischen
MPLS-basierten IP VPNs oder Ethernet-basierten VPLS
Services wählen. Ein Vorteil dieser Lösung ist, dass über
das VPN übertragene Daten das Netzwerk nicht verlassen.
Die meisten führenden Carrier bieten Leistungsgarantien
in Form von Service Level Agreements (SLAs), in denen
die maximal zulässige Latenz und der maximal tolerierte
Verlust von Datenpaketen zwischen Netzwerkknoten
definiert werden. Dank der zugesicherten Performance
können Kunden Cloudangebote auf zuverlässige Weise
nutzen.
(Optische) Punkt-zu-Punkt-Verbindung: Dedizierte
optische Punkt-zu-Punkt-Verbindungen weisen die
geringsten Latenzwerte und die höchste Zuverlässigkeit
auf. Paketverluste können bei Bedarf vollständig
eliminiert werden. Diese Servicekategorie beinhaltet
Standleitungen, Ethernet Privates Lines (EPLs) und
optische Wellenlängenmultiplexverfahren wie DWDM. Die
Bereitstellung erfolgt über Ethernet, SONET, Fiber Channel
oder andere Schnittstellen.
ANBINDUNGEN: DIE RICHTIGE ENTSCHEIDUNG TREFFEN
Zwei Faktoren sind bei der Wahl der richtigen Anbindungen
abzuwägen: Kosten und Qualität. Public Clouds eignen
sich für Anwendungen, in denen die Latenz von unter­
geordneter Bedeutung ist (etwa bei E-Mail-Diensten) oder
Sicherheitsaspekte nicht im Vordergrund stehen. Virtuelle
Netzwerke eignen sich hingegen für Anwendungen
mit höheren Ansprüchen an die Latenzzeit. Hierzu
zählen beispielsweise Netzwerkverbindungen zwischen
Kundenrechenzentren und Cloudanbietern. Da die Services
über das private MPLS-Netzwerk des Netzwerkanbieters
bereitgestellt werden, ist zudem ein höheres Maß an
Sicherheit gewährleistet. Geht es um geschäftskritische
Anwendungen, sind dedizierte optische Punkt-zu-PunktVerbindungen meistens die beste Wahl – oft jedoch auch
die teuerste.
On-Net-Verbindungen bilden die direkteste
Schnittstelle zwischen Kundennetzwerken
und der Carrier-Infrastruktur.
DATENNETZE
Die nachfolgende Tabelle illustriert die Netzwerk­
anforderungen unterschiedlicher Formen von
Anwendungen.
Leistungsmerkmale gängiger Geschäftsanwendungen
Anwendung
LatenzFehler­
Benötigte
Empfind­
Bandbreite sensibilität
lichkeit
E-Mail-Dienst
JitterLast­
Empfind­
schwankungen
lichkeit
Sehr gering
Gering
Gering
Gering
Mittel
Voice (TDM)
Gering
Gering
Gering
Hoch
Gering
Voice over IP (VoIP)
Gering
Mittel
Gering
Hoch
Gering
Webbrowser (nicht kritisch)
Mittel
Mittel
Mittel
Mittel
Mittel
Webbrowser (SaaS)
Hoch
Mittel
Hoch
Mittel
Mittel
Videokonferenzen
Hoch
Mittel
Mittel
Hoch
Hoch
Sehr hoch
Hoch
Hoch
Hoch
Hoch
Mittel
Mittel
Hoch
Mittel
Hoch
Telepräsenz
Telearbeit
Hoch
Hoch
Mittel
Hoch
Hoch
Sehr hoch
Hoch
Hoch
Hoch
Hoch
Servervirtualisierung (WAN)
Hoch
Hoch
Hoch
Hoch
Hoch
Unified Communications
Mittel
Mittel
Mittel
Mittel
Hoch
Medien-Streaming
Storage Area Networks
Quelle: Level 3
CLOUDVERBINDUNGEN UND
ANWENDUNGSPERFORMANCE
Unabhängig davon, auf welche Art von Private Cloud die
Wahl letztendlich fällt – die Qualitätsunterschiede zwischen
einzelnen Carrier-Netzwerken und deren Einfluss auf die
Cloud Performance sind erheblich.
Angesichts der Zunahme von externen Rechen­zentren
sind Unternehmen auf zuverlässige WAN-Verbindungen
angewiesen, die als Bindeglied zwischen geschäfts­
kritischen Anwendungen und Endanwendern fungieren.
Geringe Unterschiede in der Netz­w erk­p erformance
können sich dramatisch auf Anwendungen auswirken.
Netzwerke müssen eine Vielzahl verschiedener Kriterien
erfüllen: hohe Band­breiten­anforderungen, geringe Latenz,
minimale Paket­verluste und die Nutzung durch viele
Endanwender.
Oft müssen große Datenmengen quasi in Echtzeit
über große Distanzen hinweg an mehrere Rechenzentren
übermittelt werden. Die benötigte Reichweite umfasst
dabei mehrere Datenspeichersysteme und eine stetig
wachsende Anzahl an Standorten.
| SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC
EUROPA | NAHER OSTEN | AFRIKA
Im Zuge der Server-Virtualisierung ergibt sich ein weiteres
Problem: die Mobilität virtueller Maschinen, die wiederum
stark von Latenz, Paketverlusten und Bandbreitendurchsatz
beeinflusst wird. In derartigen Umgebungen steigt zwangs­
läufig die Komplexität von BCDR-Strategien (Business
Continuity and Disaster Recovery Planning).
Oft müssen auch dynamische Bandbreiten­a nfor­
derungen wie starke Lastschwankungen oder kurz- und
langfristige Planungskriterien berücksichtigt werden.
So wird beispielsweise für die nächtliche Daten­repli­
ka­tion zwischen Rechenzentren mehr Bandbreite als
für die tägliche Interaktion zwischen Benutzern und
Anwendungen benötigt. Ebenso kann die Migration einer
virtuellen Maschine einmalig eine extrem hohe Spitzenlast
erzeugen, da die Rechenressourcen neu verteilt werden.
Bandbreitenschwankungen sind insbesondere bei
cloudspezifischen Vorgängen wie der Migration von
Datenspeichern und virtuellen Maschinen, DatenspeicherUpdates und dem Anwendungsdatenverkehr zwischen
virtuellen Maschinen zu erwarten.
Die Migration einer virtuellen Maschine kann
einmalig eine extrem hohe Spitzenlast erzeugen,
da die Rechenressourcen neu verteilt werden.
Quelle: Level 3
Datenverkehr
­zwischen
Rechenzentren
Über­
tragungs­
dauer
Bandbreite
pro Über­
tragung
QoSRelevanz
Migration
Datenspeicher
Mittel
Sehr hoch
Mittel/hoch
Migration virtuelle
Maschine
Kurz
Hoch
Mittel/hoch
Datenspeicher
Update (aktiv-aktiv)
Lang
Mittel
Sehr hoch
Verteilter vAppDatenverkehr
zw. VMs
Variiert
Gering
Variiert
Carrier Core
1
2
3
Carrier
Edge
1
4
Carrier
Edge
NETZWERKELEMENTE UND LATENZ
Backhaul-Distanzen: Wie bereits erwähnt, wird die
Interaktionszeit zwischen Endanwender und Anwendung
von der Länge der betreffenden Verbindungsstrecke
beeinflusst. Diese setzt sich aus der Entfernung zwischen
dem Kundenstandort und dem Rand des Carrier-Netz­
werks (auch „Carrier Edge“ genannt) sowie der innerhalb
dieses Netzwerks (oder der Netzwerke anderer Carrier)
zurückgelegten Strecke zusammen. Dabei muss es sich
nicht um die kürzeste Strecke handeln, da Carrier aus
Kostengründen mitunter einen günstigeren, aber längeren
Weg wählen („Hairpinning“-Methode). Außerdem gilt: Je
mehr Carrier-Edge-Switches verfügbar sind, desto geringer
ist die Backhaul-Distanz.
Switching-Latenz: Ein weiterer wichtiger Faktor ist das
Routing zwischen den einzelnen Netzwerkswitches. Für
eine optimale Netzwerkperformance muss die Entfernung
zwischen Switching-Punkten möglichst gering gehalten
werden. Manche Carrier-Netzwerke verfügen über eine
Architektur, die gezielt kürzere Switching-Pfade nutzt.
Carrier Switching Architektur und -Hierarchie: Das
Netzwerkdesign, das unter anderem die Zahl und
Positionierung der vorhandenen Edge-Switches umfasst,
wirkt sich spürbar auf die Netzwerkperformance aus.
Die Latenzzeiten innerhalb des Netzwerks sinken mit
zunehmender Anzahl der Edge-Switches.
Alternative Übertragungsrouten: Die Übertragungsqualität
wird dann am wenigsten beeinträchtigt, wenn mehrere
Pfade zwischen Endanwendern und Anwendungen
vorhanden sind. Diese weisen jedoch unter Umständen
unterschiedliche Latenzzeiten auf, was zu Problemen
führen kann, wenn Anwendungen Schwankungen
ausgleichen möchten. Beim Aufbau des Netzwerks für
die Benutzer muss der Provider deshalb unterschiedliche
Übertragungsrouten bereitstellen und mögliche Latenz­
schwankungen berücksichtigen.
Hinweis: Diese Konzepte werden im weiteren Verlauf dieses
Whitepapers noch ausführlicher erläutert.
DATENNETZE
| SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC
EUROPA | NAHER OSTEN | AFRIKA
Abbildung 1.
Die zunehmende Nutzung der Cloud
verschärft das Thema Netzwerkperformance
in einem Maß, auf das Netzwerkmanager
möglicherweise nicht vorbereitet sind.
DER EINFLUSS DER CLOUD:
DIE AUSNAHME WIRD ZUR REGEL
Carrier-Netze weisen hinsichtlich ihres Designs
beträchtliche Unterschiede auf. Diese werden angesichts
der Verbreitung von Cloudtechnologien weiter verstärkt.
Die gängigen SLAs berücksichtigen diesen Umstand
jedoch nicht immer. Verbindungsprobleme, die sich auf
die Performance von Backbones und folglich auf die
von Anwendungen auswirken, nehmen an Dringlichkeit
und Komplexität zu. Diese Herausforderungen werden
nachfolgend im Detail erörtert.
STEIGENDE LATENZZEITEN
Die Latenzzeit steigt mit der zurückgelegten Verbindungs­
strecke und mit dem Netzwerk-Equipment. Bereits kleinste
Unterschiede – bei Carrier-Standorten, Netzwerkumfang
und Latenz der Backbone-Netzwerke – können in der
Summe zu erheblichen Leistungs­schwankungen führen.
Wenn mehrere Standorte beispielsweise über ein VPN
miteinander verbunden sind, wird der Datenverkehr
üblicherweise mithilfe optischer Multiplexverfahren
abgewickelt, wobei eine Switching-Architektur für
das Routing der Pakete sorgt. Die damit verbundenen
Verarbeitungszeiten und Rückübertragungsprozesse
sorgen für mehrere, geringe Anstiege in der Latenz, die
sich potenzieren und im Netzwerk ausbreiten.
DATENNETZE
Abbildung 2.
Verlusteffekt bei VM-Migration
Dauer VM-Migration (Sek.)
NETZWERKGRUNDLAGEN
Quelle: Level 3
32 %
Anstieg
10 ms RTT-Latenz
20 ms RTT-Latenz
24 %
Anstieg
Verlust %
Latenzeffekt bei VM-Migration
Dauer VM-Migration (Sek.)
Die Cloud bringt neue Herausforderungen für Netzwerke
mit sich, die schon zuvor starkem Wandel, hoher
Komplexität und großem Facettenreichtum unterworfen
waren. Das Datenaufkommen in Netzwerken steigt rapide
an – und mit ihm die Prozesskomplexität und Distanz zu
den benötigten Anwendungen.
Je mehr Daten in einem Netzwerk bewegt werden,
desto wichtiger sind Latenzzeiten und eine zuverlässige Paketübermittlung. Anstatt Software auf lokalen
Fest­platten zu installieren oder in lokalen Netzwerken
ver­fügbar zu machen, wird diese an externen, oft ent­­­
legenen Standorten gehostet. Natürlich möchten Kunden
auch weiterhin auf breiter Basis auf diese Services
praktisch in Echtzeit zugreifen. Die zunehmende Nutzung
der Cloud verschärft die Frage der Netzwerkperformance
in einem Maß, auf das Netzwerkmanager möglicherweise
nicht vorbereitet sind.
RTT-Latenz (Millisek.)
Quelle: Level 3
| SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC
EUROPA | NAHER OSTEN | AFRIKA
Wenn Benutzer Kapazitäten in der Cloud
erwerben und große Datenmengen transportieren
müssen, können Probleme auftreten.
LATENZ + PAKETVERLUST = GERINGERER DURCHSATZ
Hohe Latenzzeiten und Paketverlustraten können
den tatsächlichen Datendurchsatz zwischen Kunden­
rechenzentren und Cloudanbietern erheblich verringern.
Bei geringen Datenströmen mag dies vernachlässigbar
sein, bei bandbreitenintensiven Anwendungen ist es
jedoch gravierend. Wenn Benutzer Rechenkapazität in der
Cloud erwerben und große Datenmengen transportieren
müssen, können Probleme auftreten. Selbstverständlich
können weitaus mehr Daten übertragen werden, wenn
die Reaktionszeit des Netzwerks (Round Trip Time, kurz
RTT) 10 statt 30 Millisekunden beträgt, und SwitchingSysteme Datenpakete nicht verwerfen, um den Durchsatz
zu maximieren.
JITTER UND DURCHSATZ
Um Latenzschwankungen (auch Jitter genannt) aus­­zugleichen, wendet das TCP-Protokoll bei der Durch­satz­­rate
das Prinzip des kleinsten gemeinsamen Nenners an. So
werden zwar stabile Verbindungen erzielt, die jedoch bei
geschäftskritischen Anwendungen schnell an ihre Grenzen
stoßen.
Wenn die Latenzzeit einer Verbindung zu einem
gegebenen Zeitpunkt 15 Millisekunden beträgt und wenig
später auf 30 Millisekunden ansteigt, wäre es logisch
anzunehmen, dass der Durchsatz bei einem erneuten
Sinken der Latenz wieder zum vorherigen Leistungsniveau
zurückkehrt. TCP gleicht Jitter (Latenzschwankungen)
jedoch aus, indem die Datenübertragung durchgängig
auf Grundlage der höheren Latenzzeit erfolgt. Diese wird
sozusagen als verlässliche Bezugsgröße verwendet,
was sich negativ auf die verfügbare Bandbreite auswirkt.
Das verschärft die vorhandenen Probleme, wenn das
Internet als Verbindung in die Cloud verwendet wird (siehe
Abbildung 1).
DATENNETZE
GERINGE LATENZSCHWANKUNGEN
= ERHEBLICHE NETZWERKBEEINTRÄCHTIGUNG
Die Auswirkungen geringfügiger Latenzschwankungen
werden häufig unterschätzt. Ein Anstieg der Paketlaufzeit
zwischen zwei Netzwerkknoten um 10 Millisekunden kann
beispielsweise den Gesamtdurchsatz eines Netzwerks
um 25 bis 50 % senken. Die Latenzschwankungen
zwischen Carrier-Netzen – insbesondere auf Long-HaulRouten – sind oft wesentlich größer. Dieses Problem
wird unten anhand der Auswirkungen der Latenz
auf die Migration virtueller Maschinen verdeutlicht,
da dieser grundlegende Cloudvorgang höchst latenz­
empfindlich ist.
LATENZ UND CARRIER EDGE
Eine größere Nähe zwischen dem Perimeter eines VPN
(der sogenannten Edge) und dem Standort des
End­anwenders ermöglicht deutlich bessere Latenzwerte.
Je größer die Zahl der Edge Switches eines Carriers
ist, desto dichter können diese in Metroregionen verteilt
werden. Wenn Unternehmen an das Metronetz des
Providers angebunden werden, sinkt somit die BackhaulDistanz zwischen dem VPN des Kunden und der
Switching-Infrastruktur des Carriers.
ROUTING ZWISCHEN VERSCHIEDENEN ANBIETERN
Netzbetreiber schließen Peering-Vereinbarungen, um ihren
Datenverkehr über die Backbones anderer Carrier leiten zu
können. Neben einer verminderten Netzwerkleistung muss
dabei nicht selten mit Übertragungsengpässen gerechnet
werden. Besonders hoch ist das Risiko bei Low-CostProvidern, die aus Kostengründen zu hohe Auslastungen
in Kauf nehmen. Unternehmen sind sich dieser Tatsache
häufig nicht bewusst, wenn sie preisgünstige Internet­
dienste in Anspruch nehmen, deren Betrieb sich in
Wahrheit über drei, vier oder gar fünf separate SwitchingSysteme erstreckt. Ein weiterer kritischer Punkt ist
die Schwierigkeit, Netzwerkprobleme unverzüglich zu
lokalisieren, zu diagnostizieren und zu beheben.
Entsprechend groß sind die Vorzüge eines Carriers,
dessen eigenes Netzwerk über eine hohe geographische Reichweite verfügt. Das verringert die Zahl der
Netz­werk-Hops und vermeidet bei Problemen gegenseitige
Schuld­zuweisungen zwischen Netzbetreibern.
| SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC
EUROPA | NAHER OSTEN | AFRIKA
Die aktuellen Standards sind nicht optimal
für Kunden, die Netzwerke für den Betrieb
geschäftskritischer Cloudanwendungen benötigen.
SLA UND NETZWERKPERFORMANCE
Im Laufe der Zeit haben sich feste Branchenstandards für
SLAs etabliert, die üblicherweise die maximal zulässige
Paketverlustrate und Latenz festlegen. Solange sich
Provider eindeutig innerhalb der SLA-Vorgaben bewegen,
nehmen sie häufig aus Kostengründen Leistungseinbußen
in Kauf. Ein standardmäßiges IP VPN, für das im
Inland innerhalb eines Carrier-Netzes eine Edge-toEdge-Paketumlaufzeit von 40 Millisekunden garantiert
wird, könnte diesen Mindeststandard zum De-factoStandard machen – zum Nachteil von Anwendungen,
die eigentlich bessere Leistungswerte benötigen.
Bereits 10 Millisekunden weniger Latenz können für die
Performance von Cloudanwendungen einen beträchtlichen
Unterschied ausmachen. Die existierenden SLAs sind
nicht optimal für Kunden, die Netzwerke für den Betrieb
geschäftskritischer Cloudanwendungen benötigen.
STRATEGIEN ZUR VERBESSERUNG
DER NETZWERK- UND
ANWENDUNGSPERFORMANCE
Wie können Netzwerkmanager sicherstellen, dass
Unternehmensnetzwerke optimal auf die Anforderungen
von Cloudanwendungen ausgelegt sind?
Als erster Schritt sollten die verfügbaren BackboneOptionen zu den Anwendungsanforderungen und
Gesamt­kosten in Relation gesetzt werden. Überlegen
Sie, ob eine Public-, Private- oder Hybrid-Cloud-Lösung
in Ihrem Fall am besten geeignet ist, und vergleichen
Sie die damit verbundenen Verbindungs­möglich­keiten.
Prüfen Sie, welche anwendungsspezifischen Vorgaben
hinsichtlich Paketverlusten, Latenz und Jitter eingehalten
werden müssen. Gleichzeitig sollten Sie auch die Vor- und
Nachteile einer dedizierten oder gemeinsam genutzten
Infrastruktur im Hinblick auf Rentabilität, Sicherheit und
andere Faktoren abwägen.
Front-End Optimierung: Reduzierung der Anzahl und Größe
gesendeter Dateien (Videos, Grafiken, Text usw.) sowie
TCP-Optimierung und Vorrichtungen zur Verhinderung
häufiger Zurücksetzungen von TCP-Fenstern.
TCP-Pooling: Bereitstellung mehrerer Kommunikations­
ströme zur Nutzung gemeinsamer Pfade.
Persistente TCP-Verbindungen: Nach Abschluss einer
TCP-Session wird die Verbindung nicht getrennt. Wenn
zwei Endpunkte die Kommunikation erneut aufnehmen,
wird dieselbe Verbindung verwendet. Hierdurch kann die
wiederholte, kurzfristige Verkleinerung von TCP-Fenstern
reduziert oder ganz vermieden werden.
Optimierung von TCP-Übertragungsmechanismen:
Bessere Anpassung von Host-Puffern (auf dem Empfänger­
system) an die TCP-Konfiguration. Auch die manuelle
Anpassung von TCP-Fenstergrößen ist unter Umständen
sinnvoll: Bei älteren Betriebssystemen sind standardmäßig
Fenstergrößen von 64 Kilobyte eingestellt – zu wenig für
bandbreitenintensive Long-Haul-Übertragungen.
Anwendungsmodifizierung: Vorhandene Software sollte
überarbeitet werden, um die Performance zu verbessern.
Application Performance Management: Bereitstellung
von Services und Tools zur Überwachung des Kunden­
datenverkehrs sowie zum Hochladen von Leistungs­
statistiken auf einen zentralen Server. Dank umfangreicher
Analysefunktionen erhalten Kunden eine Übersicht über
den Netzwerkverkehr und ihre Anwendungen.
WAN-Beschleunigung: Reduzierung und Komprimierung
von Daten, QoS-Anpassungen sowie anwendungs­
spezifische Beschleunigung zur Priorisierung von
Anwendungen. Auf dem Markt ist hierfür eine Vielzahl
von Tools und Services erhältlich.
Wenn diese Punkte geklärt sind, stehen Ihnen verschiedene
Möglichkeiten zur Verbesserung der Netzwerk- und
Anwendungsperformance zur Auswahl:
DATENNETZE
| SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC
EUROPA | NAHER OSTEN | AFRIKA
Kunden sollten gemeinsam mit ihrem
Provider überlegen, wie die Netzwerke
optimal auf ihre Anwendungsanforderungen
abgestimmt werden können.
DIE WAHL GEEIGNETER CARRIER-NETZWERKSERVICES
Nach der Wahl des richtigen Backbone-Netzwerks sollten
Kunden gemeinsam mit ihrem Provider überlegen, wie die
Netzwerke optimal auf ihre Anwendungsanforderungen
abgestimmt werden können. Netzwerkmanager sollten
beim Design und der Optimierung von Netzwerken
mit erfahrenen Experten zusammenarbeiten, um die
Produktivität nachhaltig zu verbessern und geschäftliche
Anforderungen in vollem Umfang zu berücksichtigen.
AUSWAHLKRITERIEN FÜR
CARRIER-NETZE
Die Cloudrevolution hat wesentliche Unterschiede zwischen
Carrier-Netzen sichtbar gemacht. Latenz ist wichtiger
als je zuvor: Die zulässige Toleranz liegt inzwischen im
einstelligen Millisekundenbereich. Paketverluste müssen
nahezu komplett vermieden werden, womit das Internet
als Bereitstellungsweg für professionelle Public-CloudServices ausscheidet. Einige wichtige Aspekte, die Kunden
beim Vergleich von Carrier-Netzen beachten sollten, sind
nachfolgend aufgeführt.
Globale Reichweite: Rechnerressourcen und Inhalte
müssen heute immer häufiger global bereitgestellt werden,
um die Ansprüche internationaler Kunden zu erfüllen.
Intercity-Latenz: Kunden sollten Carrier mit den niedrigsten
durchschnittlichen Latenzwerten für strategisch wichtige
Städteverbindungen bevorzugen.
Hohe Abdeckung in Metroregionen Direkte Glas­faser­
verbindungen zu wichtigen Rechenzentren innerhalb von
Metronetzen sind für das Kundenerlebnis und transparente
Performance von entscheidender Bedeutung.
FAZIT
Moderne Unternehmen verlagern immer mehr Geschäfts­
prozesse in die Cloud. Die Anwendungs­performance hängt
dabei in hohem Maße von der WAN-Konnektivität der
Rechenzentren ab. Die Qualität variiert teilweise erheblich.
Ohne geeignete Lösungen und Tools
zur Überwachung und Verwaltung des
Datenaufkommens gelingt es meist
nicht, die Anwendungsperformance
nachhaltig zu verbessern.
Leistungsschwankungen von Netzwerken beeinträchtigen
die Anwendungsleistung erheblich. Grund hierfür sind
unter anderem höhere Latenzzeiten aufgrund zahlreicher
Netzwerk-Hops und großer Routing-Distanzen, Paket­­
verluste, Bandbreitenschwankungen und Peering-Verein­
barungen.
Durch die Cloud hat die Komplexität heutiger Netzwerke
spürbar zugenommen. Netzwerkmanager sehen sich
ständig mit neuen Cloud-Anwendungen konfrontiert.
Gleichzeitig müssen sie quasi einen Echtzeitzugriff für
eine große Zahl von Endanwendern an unterschiedlichen
Standorten über große Entfernungen hinweg ermöglichen.
Ohne geeignete Lösungen und Tools zur Überwachung und
Verwaltung des Datenaufkommens gelingt es meist nicht,
die Anwendungsperformance nachhaltig zu verbessern.
Deshalb sollten Netzwerkmanager eine Vielzahl von
Maßnahmen ergreifen und bei der Wahl des geeigneten
Carriers und Netzwerks äußerst sorgfältig vorgehen. Die
Services und das Know-how des Netzbetreibers sollten
gezielt eingesetzt werden, um die Netzwerkperformance zu
optimieren. Kunden benötigen einen Carrier mit globaler
Reichweite, der eine hohe Abdeckung in Metropolregionen
vorweisen kann, minimale Intercity-Latenz mit einer hohen
Dichte an Edge Routern vereint und umfassende Managed
und Professional Services anbietet.
Dichte der Edge Router: Die Anzahl der eingesetzten
Edge Switches (sowie ihre Verteilung und Entfernung
zu Kundenstandorten) ist ein maßgeblicher Faktor für
effizientes Routing und somit auch für optimale Netz­werk­
performance.
Transparente Leistung: Auch wenn Cloudverbindungen
ein höchst komplexes Thema sind, sollte der Provider
seine Lösung einschließlich der zugrunde liegenden
Infrastruktur nachvollziehbar darlegen können.
DATENNETZE
| SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC
EUROPA | NAHER OSTEN | AFRIKA
DAS SERVICEVERSPRECHEN
VON LEVEL 3
Die Cloudrevolution hat deutliche Unterschiede zwischen
Carrier-Netzen sichtbar gemacht. Level 3 bietet branchen­
weit führende Verbindungslösungen an. Neben dem leistungsstarken Level 3 Netzwerk profitieren Kunden von
einem durchdachten Angebot an Professional Services und
Managementlösungen. Dabei hat sich Level 3 zu einem
überzeugenden Kundenerlebnis verpflichtet. Transparenz
hinsichtlich des Designs, des Betriebs und der Optimierung des Netzwerks haben für uns oberste Priorität.
Mit seiner Netzwerkumgebung ist es Level 3 möglich,
Kunden vor dem Vertrag über die zu erwartenden
Latenzzeiten auf bestimmten Routen zu informieren
und ihnen geeignete SLAs anzubieten. Die Latenz wird
bei der Inbetriebnahme der Leitung gemessen und
im Bereitstellungssystem von Level 3 gespeichert. Die
Verbindung wird gekennzeichnet, damit Betriebsteams den
Vorrang der Latenzzeit kennen und die Verbindung nicht
ohne Genehmigung des Kunden verschoben, modifiziert
oder neu eingerichtet werden kann. Dieses System wurde
ursprünglich für Trading-Anwendungen im Finanzsektor
entwickelt, wo äußerst niedrige Latenzzeiten entscheidend
werden. Angesichts der Zunahme von Cloud-Technologien
hat Level 3 dieses Angebot auf die schnell wachsende Zahl
internationaler Unternehmenskunden zugeschnitten, die
hohe Anforderungen an die Latenz stellen.
Level 3 bedient weltweit mehr als 500 Märkte in über
60 Ländern auf 5 Kontinenten. Unser Netzwerk umfasst
insgesamt über 289.000 Streckenkilometer, davon
ca. 53.000 km Seekabelstrecken und ca. 60.000 Strecken­
kilometer in Ballungs­räumen. So gewährleisten wir, dass
Ihr Daten­verkehr unser Netzwerk nicht verlässt und die
Netz­werk­performance durchgängig kontrolliert wird.
ÜBER LEVEL 3
Wir erstellen, betreiben und gewährleisten
umfassende Netzwerklösungen, die Sie mit der
Welt verbinden. Kunden stehen bei uns an
erster Stelle – wie auch die Zuverlässigkeit und
Sicherheit unseres umfassenden Serviceangebots.
DATENNETZE
Telefon:
+49 69 5060 8114
E-Mail:[email protected]
Internet:www.level3.eu.com/de
| SICHERHEIT | CONTENT DISTRIBUTION | DATENZENTREN | ANWENDUNGS-PERFORMANCE | VOICE | UCC
© 2014 Level 3 Communications, LLC. Alle Rechte vorbehalten. L3DE1379
Herunterladen