Hauptseminar am Fachgebiet Kommunikationsnetze Thema der Hauptseminararbeit QoS für VoIP vorgelegt von: Steven Simon Matrikel: Studiengang: Ingenieurinformatik vorgelegt am: 31.01.2008 verantwortlicher Professor: Prof. Dr. Jochen Seitz verantwortlicher Betreuer: Dipl.-Ing. Yevgeniy Yeryomin Inhaltsverzeichnis 1 Einleitung 2 Definition der Quality of Service für Telefon- und VoIP-Systeme 3 Resultierende Quality of Service Anforderungen an VoIP-Systeme 4 Quality of Service Einsatz in traditionellen Transportnetzen 4.1 TCP/IP 4.1.1 IntServ 4.1.2 DiffServ 4.2 ATM 4.3 MPLS 4.4 WLAN 5 Portierung auf VoIP 5.1 Aktuelle Möglichkeiten 5.2 Call Admission Control 5.3 Quality of Service Unterstützung der Internet Service Provider 5.4 Fazit 6 Ausblick 7 Zusammenfassung 8 Abbildungsverzeichnis 9 Abkürzungsverzeichnis 10 Literaturverzeichnis 1. Einleitung Voice over Internet Protocol (VoIP) steht für die Übertragung von Sprache über das Internet mit Hilfe des paketvermittelten Internet Protokolls (IP). Diese Technologie besteht schon seit ca. Mitte der 1990er Jahre [1] und hat sich auf dem rasant wachsendem Markt der Telekommunikationsbranche etabliert und gefestigt. Wie Abbildung 1 zeigt, setzen, laut Expertenmeinungen, derzeit ca. 42% aller mittleren und größeren Unternehmen VoIP ein. Für das Jahr 2011 wird nahezu mit einer Verdopplung auf 83% gerechnet. Hier wird deutlich, dass die digitalisierte Sprachkommunikation über das Internet auf lange Sicht die Telefonsysteme, wie sie bisher bestehen, ablösen wird. Abbildung 1: Erwartetes Datum der vollständigen Migration zu VoIP in Europa [13] Dabei ist zu beachten, dass der Endverbraucher hohe Erwartungen an den neuen Dienst stellt, da er als Referenz das "gute alte Telefonsystem" kennt. Dieses zeichnet sich sowohl durch die vom Anbieter erklärte hohe Verfügbarkeitsgarantie, die angebotenen Zusatzdienste wie Klopfen, Halten, Konferenzschaltung etc. und vor allem durch die gering gehaltenen Verzögerungen in der Übertragung der Sprache aus. Um die Wünsche der Kunden zu befriedigen, werden mittels gezielter Quality of Service (QoS) oder auch DienstgüteStrategien genannt, besondere Anforderungen an das im Hintergrund liegende Datennetz gestellt. Erst durch die Berücksichtigung von QoS-Richtlinien ist ein zufriedenstellender VoIP Dienst, sowohl für große Internet Provider als auch für Drittanwendungen, möglich. Ziel dieser Arbeit ist es, die modernen Informationsnetze und Techniken wie TCP/IP, MPLS, ATM bezüglich QoS zu untersuchen, einen Überblick über die derzeit eingesetzten Anforderungen und Festlegungen für VoIP zu geben und am Ende ein Fazit über QoS für VoIP zu ziehen. 2. Definition der Quality of Service für Telefon- und VoIPSysteme Das Internet ist bekanntlich ein Netzwerk, das sich aus vielen verschiedenen autonomen Netzwerken zusammen setzt. Um innerhalb dieser Technologievielfalt ein gleich bleibendes, nach Möglichkeit hohes Maß an Dienstgüte zu garantieren, hat das internationale Standardisierungsorgan ITU-T in der Recommendation E.800 Quality of Service folgendermaßen definiert: "The collective effect of service performance which determine the degree of satisfaction of a user of the service."[2] Welche Faktoren für den Nutzer von Bedeutung sind, um Zufriedenheit mit der Dienstgüte des Netzwerkes zu erlangen, wird in der Recommendation E.600 der ITU-T beschrieben. "Any performance variable (such as congestion, delay, etc.) which is perceivable by a user."[3] Das bedeutet also, dass unter QoS die erreichte Dienstgüte verstanden wird, die je nach einzelner Session über mehrere bestimmte Messwerte (garantierte Bandbreite, Verzögerung, Jitter, Bandbreitenschwankungen, Prioritäten) definiert wird. Daneben werden zur QoS auch noch Verfügbarkeit, Sicherheit, Fehlertoleranz, Effizienz und Redundanz hinzugezogen. [4; S. 32] Die Formulierungen der Rec. E.600 und der Rec. E.800 werden so jedoch zumeist nicht im Netzwerk umgesetzt bzw. sind nicht umsetzbar. So hat die ITU-T in der Recommendation Y.1541 (siehe Tabelle 1) eine Klasseneinteilung eingeführt, die in diverser Literatur auch unter dem Begriff Class of Service (CoS) gebräuchlich ist. [5; S. 3 & S. 24] Die CoS beschreibt das Zusammenfassen von "irgendwie" gleichartiger Datenströme zu einer gemeinsamen Klasse, die dann eine gemeinsame Dienstgüte erhält. [4; S. 32] Es muss also eine Unterscheidung zwischen Quality of Service und Class of Service erfolgen. Network Performance Quality of Service Klasseneinteilung nach ITU-T Rec. Y.1541 Class 0 Class 1 Class 2 Class 3 Class 4 Class 5 Parameter IPTV 100 ms 400 ms 100 ms 400 ms 1s U IPDV 50 ms 50 ms U U U U IPLR U IPER U mögliche Einsatzgebiete Real-time, jitter sensitive, high interaction (z.B. für VoIP, VTC) Real-time, Low loss jitter only Transaction sensitive, data, highly Transaction interactive (short interactive data, transactions, interactive bulk data, (z.B. für (Signalling) VoIP, video VTC) streaming) Traditional applications of default IP networks (BestEffort) Tabelle 1: Class of Service nach ITU-T Rec. Y.1541 Ersichtlich wird, dass die Beurteilung der Dienstgüte nicht nur auf empirischen Daten beruht, sondern auch sehr stark von den subjektiven Eindrücken der Benutzer abhängt. Abbildung 2: Modell der Benutzerzufriedenheit nach ITU-T Rec. G114 [15] Aus diesem Grund beschreibt die von der ITU-T herausgebende Recommendation G.114 ein Modell, mit dessen Hilfe die Zufriedenheit der Benutzer in Abhängigkeit des Ende-zu-Ende Delays bei der Benutzung von VoIP Diensten ermittelt werden kann. Dabei gibt die Ordinate nach dem E-Modell definiert in der Recommendation G.107 die Transmission Rating (R) und die Abszisse das vom Benutzer empfundene Delay der Sprache vom Mund des Einen zum Ohr des Anderen an. R kann dabei in verschiedene Bewertungsfunktionen umgerechnet werden, wie die häufig auch verwendete Mean Opinion Score (MOS). 3. Resultierende Quality of Service Anforderungen an VoIP-Systeme Wie bereits im Kapitel 1 angesprochen, ist der Endverbraucher von dem heutigen digitalisierten Festnetz ein hohes Maß an Qualität gewöhnt, sodass diese gestellten Anforderungen auf das VoIP-Netz umgelegt werden müssen, um eine möglichst hohe Marktakzeptanz zu erzielen. Drei Größen spielen dabei eine bedeutende Rolle und können sich auf die Sprachqualität schädigend auswirken: Mittlere Ende-zu-Ende Delay: beschreibt die Zeit, die Daten brauchen, um von einem Punkt des Übertragungskanals zum anderen zu gelangen. Die Laufzeit ist abhängig vom verwendeten Medium und der eingesetzten Technologie, die die Daten passieren müssen. Jitter: Schwankt die Laufzeit der übertragenen Datenpakete, so spricht man von Jitter. Paketverlust: Aufgrund von Netzauslastungen, daraus resultierenden Warteschlangen innerhalb der Netzknoten oder Störeinflüssen auf das Medium, kann es dazu kommen, dass Pakete verworfen werden. [6; S. 163] Abbildung 3: Schematische Darstellung der Abhängigkeit der QoS Parameter zu den Verkehrflüssen nach [17] und [18] Diese drei Parameter sind untereinander streng korreliert und unter Berücksichtigung vorhandener Kapazitäten auch nur begrenzt variierbar. Abbildung 3 verdeutlicht, dass bei ansteigender Netzlast zunächst Auswirkungen auf das Delay festzustellen sind und bei weiterem Anstieg ein Verlust von Datenpaketen die Folge ist. Ähnlich verhält es sich bei TCP-Diensten, wo Paketverlust die Neuübertragung derer hervorruft und somit die Netzlast steigt. Mit einer zeitlichen Verzögerung sinkt diese aber wieder, zum einen durch erfolgreiche Neuübertragungen und zum anderen durch den TCP basierten Slow-Start Algorithmus. Das Internet basiert auf dem Design von TCP/IP. Dieses Modell wurde ursprünglich nur für die reine Datenübertragung entwickelt. QoS Anforderungen wurden nur nebenläufig behandelt. Doch durch die wachsende Zahl an Internetnutzern oder Plattformen, wie Youtube, steigt der Bandbreitenbedarf ins Unermessliche. Die US-Analysten Nemertes schreiben dazu in einer aktuellen Studie: "...we believe there’s reasonably compelling evidence that the intersection will happen within the next five years, possibly as early as 2010" [14]. War vor einigen Jahren ein Gespräch über das globale Netz noch mit annehmbaren Qualitätseinschränkungen verbunden, müssen heute spezielle Algorithmen gefunden werden, die die Sprachpakete intelligent routen und prioritisieren. Das menschliche Gehör empfindet bereits ab einer Verzögerung von 25ms Qualitätsunterschiede. [4; S. 39] Für VoIP verdeutlicht die Abbildung 2, dass die Zufriedenheit des Benutzers zwar in hohem Maße von der Ende-zu-Ende Verzögerung der Sprachnachricht abhängt, jedoch auch Faktoren, die in R berücksichtigt werden, wie der Signal-Rausch Abstand, Qualitätseinbußen durch den verwendeten Codec verschuldet oder Echos. Steigt dabei das Delay an, hat dies Auswirkungen auf die Berechnung von R, was in dem Graphen verdeutlicht wird. An der rechten Seite sind dabei die von der ITU-T in der Recommendation G.109 festgelegten Klassen der Zufriedenheit abgetragen. Aus dem Graphen ist ablesbar, dass bei einem Delay von bis zu 150ms volle Zufriedenheit unter den Benutzern herrscht, jedoch bei Überschreitung dieser Grenze ein kontinuierlicher Übergang zur Unzufriedenheit erfolgt. Als Grenze sollte für Provider von VoIP-Diensten ein maximales Ende-zu-Ende Delay von 300ms angesetzt werden. Als weitere Eckdaten beschreibt die ITU-T, dass eine maximale Paketverlustrate von 5% geduldet wird. Darunter liegende Werte müssen von den Telefoneinrichtungen mit Hilfe von Glättungsalgorithmen kompensiert werden. Inwieweit Varianzen der Paketabstände (Jitter) hingenommen werden, hängt davon ab, wie hoch das Ende-zu-Ende Delay ist und wie gut die verwendeten Jitter-Ausgleichpuffer arbeiten, da eine Korrelation zwischen Jitter und Delay besteht (ist das Delay niedrig, können noch relativ hohe Jitter Werte ausgeglichen werden, steigt hingegen das Delay, muss der Jitter niedrige Werte umfassen). [15], [16] 4. Quality of Service Einsatz in traditionellen Transportnetzen Da der Übertragungskanal beim Versand der Datenpakete begrenzend wirkt, spielt er eine entscheidende Rolle. Somit setzen alle QoS Strategien bei ihm an. Ziel ist es, dass von vielen Benutzern gleichzeitig verwendete Medium optimal in seiner Bandbreite auszunutzen und gleichzeitig zeitkritischen Paketen den Vorrang zu geben. Die Überdimensionierung des Netzes wäre eine Möglichkeit. Da dies nicht immer einfach so möglich ist, setzen die meisten Verfahren beim Verkehrsmanagement, der Verkehrsprioritisierung oder der Bandbreitenreservierung an. Neben TCP/IP gibt es noch eine Reihe anderer Verfahren der Datenübertragung, die es zu betrachten gilt, wenn man über Dienstgüte reden will. Dieses Kapitel soll daher einen Überblick verschaffen, welche QoS-Mechanismen sowohl im angesprochenen TCP/IP, als auch bei ATM, MPLS und in WLAN-Netzen eingesetzt werden können. 4.1 TCP/IP Bei der Untersuchung der Kommunikationsprotokolle muss TCP/IP eine gesonderte Betrachtung zugrunde gelegt werden. Es ist das populärste im Einsatz befindliche Protokoll für Datenübertragungen. Das Internet an sich ist ein reiner "best-effort" Dienst. Das heißt, es werden keinerlei Aussagen darüber getroffen, ob und wann die Datenpakete beim Empfänger ankommen. Es wird ersichtlich, dass hier keine Dienstgüte existiert. Durch die wachsenden Anforderungen an das im Hintergrund liegende Netzwerk des Internets durch Multimedia-Anwendungen, wie Online-Gaming, Video Streaming und in zunehmenden Maße auch VoIP, mussten entsprechende QoS-Ansätze entwickelt werden. Solche Ansätze sind die Integrated Services (IntServ) und Differentiated Services (DiffServ). [6; S 192-197], [7] 4.1.1 IntServ Integrated Services (IntServ) bedient sich der Resource Reservation Protocol (RSVP) Signalisierung und dem dahinter liegenden Konzept des Flusses. Dabei kann der Vorgang der Reservierung betrachtet werden ähnlich einem mit Blaulicht fahrenden Polizeiwagen, der in jedem passierenden Netzelement (z.B. Router) die Kreuzung für prioritisierten Verkehr freimacht. Die Signalisierung verläuft vom Sender über die beteiligten Netzelemente zum Empfänger. Abbildung 2 zeigt den RSVP-Reservierungsalgorithmus. Abbildung 2: RSVP Reservierungsvorgang [6; S. 194] Dabei schickt der Sender eine PATH-Nachricht, die eine Flow Specification (Flowspec) Nachricht enthält, an den Empfänger. Vereinfacht dargestellt besteht die Flowspec aus der Traffic Specification (TSpec) und der Request Specification (RSpec). Die TSpec-Nachricht legt die vom Sender gewünschten Anforderungen, die innerhalb der Router gesetzt werden sollen, wie Bandbreite und maximale Burstrate, fest. Sie orientiert sich an dem "LeakyBucket Model". Die RSpec definiert die Dienstgüte innerhalb der IntServ Serviceklassen, wie zum Beispiel das maximale Delay. Ist die PATH-Nachricht beim Empfänger angekommen, sendet dieser eine Reservation Request (RESV) Bestätigung mit der darin enthaltenen TSpec-Nachricht an den Sender zurück. Wird die Reservierungsanforderung von jedem Router akzeptiert, leiten diese die RESV Bestätigung weiter an den Sender. Der entstehende Datenfluss ist vergleichbar mit einem verbindungsorientierten virtuellen Pfad bei ATM. Lehnt der Router die RSVP-Anfrage ab, sendet er auf die RESV Bestätigung eine Fehlermeldung an den Absender zurück. IntServ erweitert die RSVP Signalisierung durch eine Zugangskontrolle (Admission Control), um die Annahme bzw. die Ablehnung anhand der Netzressourcen innerhalb der Router zu gewähren, eine Paketklassifizierung (Packet Classifier) zur Einsortierung der Pakete in die entsprechende Warteschlange und eine Steuerung der Warteschlange (Scheduler) für die Zuordnung der Pakete in die von IntServ eingeführten folgenden Dienstklassen: Controlled Load (CL): Diese Klasse ist vergleichbar dem "best-effort" Dienst, lässt jedoch in geringem Maße Ansprüche an Delay und Verfügbarkeit zu. Dadurch ist diese Klasse geeignet für Anwendungen, die "soft-QoS" Anforderungen besitzen. Das Netz soll sich dabei so verhalten, als wäre es "unbelastet". Guaranteed Services (GS): Die Dienstklasse ist für kontinuierlichen Verkehr geeignet. Sie garantiert jedem Teilnehmer eine maximale Bandbreite und Verzögerung sowie einen geringen Paketverlust, sodass diese Klassenbehandlung optimal für Anwendungen mit harten Grenzen ist. Daraus folgend sollte diese Klasse sparsam eingesetzt werden, sodass das Netzwerk die GS-Anfragen bedienen kann und sich die einzelnen Teilnehmer nicht gegenseitig blockieren. Der Integrated Services Ansatz wird in dieser Form nur bedingt eingesetzt, da er für größere Netzwerke nicht skaliert. RSVP stellt an das Innere der Netzarchitektur zu hohe Ansprüche, da die Router sich von tausenden Anfragen tausende Zustände merken müssten. Weiterhin erhöht der RSVP Algorithmus die Netzlast, da ein Auffrischen der RSVP-Anforderungen alle 30 Sekunden erforderlich ist. Aufgrund der inneren Komplexität des Netzes wird ersichtlich, dass ein neuer Ansatz gefunden werden muss. Er wird beschrieben durch Differentiated Services, der alles Komplexe nach außen an die Netzzugänge verschiebt. [6; S 192-197], [7] 4.1.2 DiffServ Der DiffServ-Ansatz wurde von der IETF entwickelt, um eine einfache, skalierbare QoSLösung für unterschiedlichen Dienstklassen zu realisieren. Dazu bedient man sich den IPHeadern des IPv4 und IPv6 Protokolls. Bei IPv4 werden die entsprechenden 8 Bit als "Type of Service" (TOS) bzw. bei IPv6 als "Traffic-Class" Feld bezeichnet. Laut Standardisierung besteht dieses Byte aus den Differentiated-Service-Codepoint (DSCP)-Feld, der die ersten 6 Bit umfasst und einem 2 Bit langem Currently Unused (CU)-Feld. Daraus folgt eine mögliche QoS Behandlung in 64 unterschiedlichen Klassen. Der große Vorteil von DiffServ liegt darin, dass es keine Signalisierung wie bei IntServ und dem genutzten RSVP benötigt. Das heißt, dass eine Zustandsspeicherung innerhalb der Netzelemente entfällt. DiffServ definiert zur qualitätsgesicherten Klassenbehandlung die "Per-Hop-Behaviours" (PHB). Sie beschreiben eine Art Regelmenge, die der QoSBehandlung dienen und erweitern die "best-effort" Unterstützung des Internets durch folgende Klassen: Expedited Forwarding (EF): wird für Datenverkehr mit strikten Prioritäten gegenüber allen anderen verwendet. Es existiert ein geringer Paketverlust, geringes Jitter und eine geringe Verzögerung. Jeder Router reserviert einen bestimmten Prozentsatz seiner Kapazität für diesen Verkehr. Daher ist er besonders gut geeignet für VoIP. Assured Forwarding (AF): unterteilt sich in 4 weitere Qualitätsklassen, die wiederum in 3 verschiedene Klassen des Paketverwurfs unterteilt werden. Der Vorteil besteht darin, dass Verkehr mit höherer Priorität vollkommen unberührt bleibt von Verkehr niederer Priorität. Hier ergibt sich jedoch ein Nachteil: Ist die Queue einer Klasse voll, werden die Pakete verworfen und nicht in eine Queue niederer Klasse einsortiert, obwohl freie Kapazitäten existieren. DiffServ besitzt gegenüber IntServ aufgrund seiner Einfachheit klare Vorteile, sowohl in der Skalierbarkeit für größere Netze als auch Interoperabilität mit anderen Netzarchitekturen, wie MPLS, ATM oder eine Mischung mit IntServ. Von Nachteil ist, dass alle Router DiffServ verstehen müssen und Datenverkehr sich nur relativ bevorzugen lässt. Ist der Verkehr einer Dienstklasse zu hoch, fällt DiffServ zurück in die "best-effort"-Behandlung. Eine Zugangskontrolle (Admission Control), die den prioritisierten Verkehr limitiert, ist daher unumgänglich. [6; S 192-197], [7] 4.2 ATM Der Asynchronous Transfer Mode (ATM) ist ein skalierbares Hochgeschwindigkeitsnetzwerk und wird aus diesem Grund vor allem in Backbone-Anbindungen von Telekommunikationsanbietern eingesetzt. Es ist ein paketvermitteltes Verfahren, wobei jedes Paket (bei ATM Zelle genannt) 53 Byte umfasst und die Übertragung nicht an einen festen Zeittakt gebunden ist. Bevor die Datenübertragung beginnt, stellt ATM mittels virtueller Kanäle eine Ende-zu-Ende Verbindung her. ATM ist aus den oben genannten Gründen bestens geeignet zur Übertragung von Sprachdaten und anderer Echtzeitanwendungen. Die Ursachen liegen darin, dass das ATM durch die Eigenschaft der Verbindungsorientiertheit geringe Verzögerungen bereitstellen kann. Hinzu kommt durch die feste Größe der ATM Zellen, dass die im Netz befindlichen Switch- und Routingeinheiten im Gegensatz zu TCP/IP keine komplizierte Auswertung der Zellen vornehmen müssen. Da Daten- und Sprachpakete dieselbe geringe Zellgröße besitzen, verringert sich das Jitter zwischen den Zellen, was allgemein in einer verkürzten Übertragung der Sprachpakete resultiert. Wird eine Verbindung im ATM Netz hergestellt, handeln Teilnehmer und ATM-Switch eine Art Vertrag aus, welche Bedingungen während der Verbindungsdauer bestehen sollen. Sie beschreiben das Verkehrsprofil, maximale Zeitverzögerung, zulässige Zellenverlustrate und die Dienstgüte. Hier hat das ATM-Forum fünf Serviceklassen definiert: Constant Bit Rate (CBR): überträgt die Daten mit konstanter Bitrate. Diese Serviceklasse ist vergleichbar mit einer Telefonverbindung, bei dem den Teilnehmern exklusiv ein Kanal mit fester Bandbreite zur Verfügung steht. Daher ist sie neben der Eignung für Sprachverkehr auch für Anwendungen mit harten Echtzeitanforderungen einsetzbar, die strenge Bedingungen an die maximale Zellverzögerung und die gesamte Übertragungsverzögerung haben. Available Bit Rate (ABR): erlaubt es, eine dynamische Anpassung der zur Verfügung stehenden Netzkapazitäten dem Endsystem mitzuteilen und darauf einzustellen. Zu Beginn eines Datentransfers werden Vereinbarungen der minimalen und maximalen Zellrate getroffen. Durch Austausch von Ressource-Management Zellen an die Endsysteme können die Sender ihre Zellrate dem unter Last stehenden System anpassen und bekommen im Gegenzug einen fairen Anteil an Bandbreite, sowie eine geringe Verlustrate an Zellen zugesichert. Diese Art der Serviceklasse ist gänzlich ungeeignet für Echtzeitanwendungen, da hier starke zeitliche Schwankungen der Zellübertragung stattfinden. Real-Time Variable Bit Rate (RT-VBR): wurde speziell für Echtzeitanwendungen konzipiert. Es wird eine Schwankung in der Zellrate erlaubt, jedoch werden Zellen, die einen bestimmten, vorher festgelegten Verzögerungsgrenzwert überschreiten vom Netz entfernt. Diese Art der Datenbehandlung kommt der von Sprache am nächsten, da hier Schwankungen auftreten können, wenn ein oder mehrere Gesprächsteilnehmer telefonieren. Non-Real-Time Variable Bit Rate (NRT-VBR): wird für Anwendungen eingesetzt, die variable Datenraten benötigen mit gleichzeitigen Bedingungen an eine geringe Zellverlustrate. Zeitliche Parameter sind nicht relevant. Daher ist die Klasse nicht geeignet für Echtzeitapplikationen. Unspecified Bit Rate (UBR): entspricht im Wesentlichen der "best-effort" Dienstgüte. Für Anwendungen mit harten Zeitgrenzen ist sie ungeeignet, da hier die Gefahr des Datenverlusts bei Überlast des Netzes besteht. Im Vergleich zu allen anderen Klassen ist sie jedoch die günstigste. [4; S.119 & S. 124], [6; S. 348 & S. 353] Abbildung 3: ATM-Dienstklassen [4; S. 121] 4.3 MPLS Das Multi Protocol Label Switching (MPLS) Verfahren wurde entworfen, um den aufwendigen Routing Mechanismus mittels Longest Prefix Match, wie er in klassischen IPNetzen eingesetzt wird, abzulösen. Bisher analysiert jeder Router den IP Header eines Paketes, trifft eine Wegewahl und leitet es dann an den nächsten weiter. Dies geht so lange, bis das Datenpaket bei dem Empfänger angelangt ist, was zu hohen Bearbeitungszeiten und unnötigem Ressourcenbedarf innerhalb der Router führt. Der Grundgedanke bei MPLS ist es, jedem Datenpaket ein einfach auszuwertendes Label zu verpassen. Da MPLS Schicht 3 Header nicht auswertet, wird ein MPLS Shim Header eingeführt, der neben der Label Informationen auch 3 Experimental Bits (Exp-Bits) enthält. Dieser Header wird zwischen Schicht 2 und Schicht 3 gelegt. Aufgrund der begrenzten Anzahl von Labels werden die Pakete vorher in Forwarding Equivalence Classes (FEC) gepackt. Eigenschaften wie Ziel oder Metrik beeinflussen die FEC, in der das Paket landet. Anschließend wird ein Label einer FEC zugewiesen. Wenn die Pakete die Label Switched Domain (LS-Domain) betreten, übernehmen Label Switched Router (LSR) die Weiterleitung. Mit Hilfe derer ist es den Administratoren eines Netzwerkes möglich, Label Switched Path (LSP) sowie alternative LSPs einzurichten. Dabei verhält sich ein LSP wie eine virtuelle Verbindung von einem Ingress zu einem Egress Router und aus dem verbindungslosen Netz ist ein verbindungsorientiertes geschaffen worden. Dadurch ist es möglich, einen schnellen und effektiven Transport von Daten bereit zu stellen, auf den Echtzeitanwendungen wie VoIP oder Online-Games aufsetzen können. Anstatt der manuellen Einrichtung von LSPs können diese auch automatisch mit Hilfe von IPRouting-Protokollen, wie OSPF, erstellt werden. Genutzt wird diese Möglichkeit vor allem in großen Netzen, in denen eine manuelle Konfiguration zu kostenintensiv wäre. Hier besteht das Problem, dass ein Hop-by-Hop Routing stattfindet und keine Aussagen über QoS gemacht werden können. Es herrscht also das "best-effort" Prinzip wieder vor. Da MPLS dem Routing mittels IP ähnelt, sind die QoS-Mechanismen IntServ und DiffServ mit einigen Änderungen adaptiv einsetzbar: Abbildung 4: RSVP-TE Signalisierung [4; S. 264] Ressource Reservation Protocol & Traffic Engineering (RSVP-TE): wurde entwickelt, um die Unterstützung des IntServ Modells, welches auf RSVP aufsetzt, zu realisieren. Da MPLS mit Labels arbeitet, wurden neue RSVP-Objekte definiert. Die Reservierung verläuft, wie bereits vorgestellt, der von RSVP bekannten ab. Der Sender schickt eine PATH Nachricht an den Empfänger, der seinerseits mit einer RESV-Nachricht antwortet. Diese RESV-Nachricht transportiert nun zusätzlich ein Label Object, das den Flow entlang der LSRs kennzeichnet, der in gewisser Weise eine neue FEC darstellt. Durch das Label Object wurde es den LSRs möglich, den Flow kenntlich zu machen und über die reservierten Ressourcen zu routen. Differentiated Services (DiffServ): wurde bereits im Kapitel 4.1.3 näher erläutert. Jedoch liest MPLS nicht den Schicht 3 Header aus, womit eine Anpassung nötig ist. Bei der Standardisierung des MPLS Shim Headers wurden 3 Exp-Bits definiert, die genutzt werden können, um Pakete in 8 Qualitätsklassen zu unterteilen. Die dieses Verfahren unterstützenden LSPs werden E-LSP genannt. Das zweite Verfahren benutzt den Labelwert, um mit Hilfe dessen eine Assoziation der PHB und der FEC zu erhalten. Dazu ist eine Modifikation in der Label Distributen (LD) erforderlich. Unterstützende LSPs werden als L-LSP bezeichnet. Der Vorteil der E-LSP liegt darin, dass eine (maximal) achtfache Reduzierung der LSPs erreicht werden kann und keine Anpassung des LD-Protocols erforderlich ist. Hingegen bietet L-LSP die Möglichkeit, in mehr als 8 Qualitätsklassen zu unterscheiden und für jede PHB separate Routen zum Ziel zu definieren (zum Beispiel nur Verwendung von Low-Delay Strecken). [4; S. 224 & S. 265], [8] 4.4 WLAN Die bisher betrachteten Verfahren der Dienstgüte haben sich auf drahtgebundene Netze konzentriert. Drahtlose Netze bekommen eine immer stärker werdende Bedeutung, da dies für den Kunden Flexibilität bedeutet. Die in aktuellen WLAN-Routern zum Einsatz kommenden Standards der IEEE 802.11a/b/g unterstützen kaum Quality of Service. Daher wurde Ende 2005 von der IEEE der Standard 802.11e fertiggestellt. 802.11e baut auf seinen Vorgängern auf. Jedoch wurden entscheidende Veränderungen vorgenommen, sodass unter seinem Einsatz Dienstgüte, die speziell auf Steigerung der Bandbreite und Minimierung der Latenzen abzielt, gesichert werden kann. Das ursprüngliche Medium Access Control (MAC) des 802.11 nutzt die Distributed Coordination Function (DCF) und greift dabei auf CSMA/CA bzw. RTS/CTS zurück. Dies hat den Nachteil, dass zwischen den Teilnehmern (und ihren Daten) ein Wettbewerb auf den Zugriff zum Medium stattfindet. Durch die Benutzung des nichtdeterministischen Zugriffsverfahrens CSMA/CA werden die Daten gleich behandelt. Wenn jedoch QoS gefordert wird, darf das Prinzip der Fairness nicht immer angewandt werden, da hier Daten nach Wichtigkeit geordnet und gegebenenfalls prioritisiert werden müssen bzw. eine strikte Einhaltung von Richtlinien gefordert wird. Als weitere Möglichkeit des Medienzugriffs im klassischen 802.11 soll die Point Coordination Function (PCF) erwähnt sein, die die vorübergehende Kontrolle des Medienzugriffs von einem Access Point (AP) aus gestattet und CSMA/CA vorübergehend außer Kraft setzt. Dieses Verfahren findet aber weitestgehend keinen Einsatz. Mit 802.11e wurde eine neue Zugriffskoordinierungsfunktion eingeführt, die Hybrid Coordination Function (HCF). Diese ist aufgeteilt in zwei Möglichkeiten des Kanalzugriffs: Enhanced Distributed Channel Access (EDCA): ist ein wettbewerbsorientiertes Verfahren und baut auf DCF auf. Die Idee bei DCF ist, dass Stationen, die etwas zu senden haben, auf den Kanal lauschen. Sofern dieser unbenutzt ist, müssen sie eine gewisse Zeit ("backoff time") warten, bevor sie den Zugriff auf das Medium erlangen und mit dem Senden beginnen dürfen. Die backoff time wird dabei zufällig bestimmt, mit Hilfe des contention windows (cw). Aufgrund der Fairness besitzen bei DCF alle Stationen dasselbe cw. EDCA erweitert DCF, sodass das cw variabel ist und Dienstgütebehandlung erreicht wird. Stationen mit höherer Priorität erhalten dabei ein cw mit einer kleineren maximalen Größe, sodass sie im Mittel den Wettbewerb um das Senderecht öfter gewinnen. Hinzu kommt die Möglichkeit, dass Stationen mit höherer Priorität eine längere Transmit Opportunity (TXOP) erhalten können, um ihre Daten zu senden. Damit eine Station nicht die ganze Zeit mit der selben Priorität arbeitet, zum Beispiel zur Bereitstellung verschiedener Dienste, wird in den Stationen eine Unterteilung in mehrere access categories vorgenommen. Die zu versendenden Pakete werden in Warteschlangen eingeteilt. Abhängig vom Datenpaket wird das cw gewählt und die Station bewirbt sich um die TXOP. Da sich jede Station ihre Priorität selbst zuweisen kann, funktioniert dieses Verfahren auch in ad-hoc Netzen. HCF Controlled Channel Access (HCCA): hingegen ist ein wettbewerbsfreies Zugriffsverfahren und funktioniert ähnlich der PCF. Am Datenaustausch beteiligte Stationen bewerben sich mit ihren Anforderungen, die in der traffic specification (TSPEC) transportiert werden, bei dem Hybrid Coordinator (HC). Dieser kann die TSPECs annehmen oder ablehnen und hat somit die Kontrolle über den Datenverkehr. Der HC erstellt nach Maßgabe der TSPECs einen Ablaufplan und weist so jeder Station die TXOP zu. Aufgrund der Notwendigkeit eines zentralen APs funktioniert dieses Verfahren ausschließlich in Infrastruktur Netzwerken. HCCA bietet als einzige Funktion echte Quality of Service, da mit der Annahme und Bestätigung der TSPEC von dem HC die Dienstgüteanforderungen für die Station bereit gestellt werden. EDCA ist nichtdeterministisch, daher kann es keine Aussagen über Zusicherung bestimmter Parameter machen. Weiterhin wird das Medium nicht effizient genug ausgenutzt, da es aufgrund seiner Konzeption Wartezeiten zulässt. HCCA hingegen kann einen nahezu beständige Nutzung des Mediums garantieren. EDCA zeichnet sich dadurch aus, dass es relativ unkompliziert ist und in ad-hoc Netzen Verwendung finden kann. 802.11e unterstützt die Möglichkeit, Pakete mit dem Wert "QoSNoAck" zu kennzeichnen und verhindert dadurch das wiederholte Senden zeitkritischer Daten. Weiterhin wurde das Direct Link Setup (DLS) eingeführt, um ein Datenaustausch zwischen zwei Stationen ohne Zuhilfenahme des AP zu ermöglichen, wenn diese einen geringen Abstand zueinander besitzen. Somit wird eine erhöhte Datenrate ermöglicht. Für VoIP Endgeräte ist der Dienst der Automatic Power Save Delivery (APSD) interessant, da durch ihn ermöglicht wird, Geräte in den idle-Zustand zu schicken, um so Strom zu sparen. Dabei puffert der AP die Daten zwischen und sendet sie entweder auf Anfrage der Station (unscheduled APSD) oder in festgelegten, zwischen AP und Station ausgemachten Intervallen (scheduled APSD). [9], [10], [11] 5. Portierung auf VoIP Kapitel 4 diskutierte Quality of Service Verfahren vor allem für das traditionelle Transportnetz. Einige QoS-Mechanismen sind VoIP geeignet, da sie die Anforderungen unterstützen, die harte Echtzeitapplikationen mitbringen. 5.1 Aktuelle Möglichkeiten Internet Service Provider (ISP) haben somit die Möglichkeit drei Verkehrsmanagementverfahren zu unterscheiden, um Dienstgüte innerhalb ihrer Netze zu unterstützen: 1.Überdimensionierung der Netzinfrastruktur 2.Priorisierung von Datenpaketen 3.Reservierung von Kapazitäten im Netzinneren Derzeit setzen die meisten ISPs auf die Überdimensionierung ihrer Netze, da dies die derzeit einfachste und qualitativ sicherste Lösung ist, um QoS zu garantieren. Nach [18] nutzen die Provider ohnehin nur ca. 75% ihrer Kapazitäten aus, um das schnelle und schwer vorherzusehende Verkehrswachstum aus den Internetdiensten, wie im Kapitel 3 erwähnt, aufzufangen. Die Menge der Daten, die durch Echtzeitsysteme hervorgerufen werden, bildet derzeit nur einen geringen Bruchteil des gesamten Best-Effort Datenverkehrs. Überdimensionierung birgt aber auch Nachteile, da durch die reine Zuschaltung von redundanten Kapazitäten keine Identifikation nach QoS-Dienstklassen möglich ist. Somit kommt auch der Best-Effort Verkehr in den Genuss der Überdimensionierung, was sich wiederum weniger positiv als erhofft auf eine Verbesserung der Delayzeiten der VoIP-Daten auswirkt. Damit dieses Verfahren Wirkung zeigt, muss ein sinnvoller Einsatz der Hardware dort geschehen, wo aufgrund von Überlastsituationen häufig lange Wartezeiten oder hohe Paketverlustraten entstehen. Da auf lange Sicht gesehen die reine Überdimensionierung des Netzes nicht ausreichen wird, setzen einige ISPs bereits auf die Möglichkeit Pakete in Klassen einzuteilen und dementsprechend nach Prioritäten zu behandeln. Wenn eine Klasseneinteilung nach Tabelle 1 erfolgt, besteht jedoch das Problem, dass Verkehr mit höherer Priorität Verkehr niederer verdrängt, was bis zur vollständigen Verdrängung führen kann. Um dies zu verhindern, kann im einfachsten Fall die Länge der einzelnen Warteschlangen für die Dienstklassen und damit das Drop-Verhalten der Router variieren, so dass sichergestellt ist auch den niederen Klassen ein Mindestmaß an Bandbreite zur Verfügung zu stellen. Bei der Klassenbehandlung von Paketen werden die mit höherer Priorität doppelt begünstigt, da sie zum einen von den hohen Datenraten der Best-Effort Dienste profitieren und zum anderen aufgrund der prioritätsgesteuerten Warteschlangen geringere Wartezeiten (im Überlastfall) auf Kosten der Best-Effort Dienste haben, was insgesamt zu einer schnelleren Übertragung der VoIP-Pakete führt. Drahtgebundene Verfahren, die auf Basis von Prioritäten arbeiten, sind, wie bereits im Kapitel 4 vorgestellt: TCP/IP mit der DiffServ Erweiterung, ATM mit der Möglichkeit der Aushandlung von Bit-Raten und MPLS zum einen durch die FEC und zum anderen durch die hier auch integrierbare DiffServ Erweiterung. Im drahtlosen Bereich unterstützt 802.11e mit der EDCA access categories und mit der HCCA aufgrund der Bildung eines Schedules die Möglichkeit Daten klassenorientiert zu behandeln. Die letzte Art des Verkehrsmanagements im Rahmen von QoS-Behandlungen durchzuführen ist die Reservierung von Kapazitäten innerhalb des Netzes bzw. die Einordnung der differenzierten Verkehrsströme in Tunneln. Dabei beschreibt der in Kapitel 4.1.1 vorgestellte IntServ-Ansatz eine Möglichkeit. Eine weitere wäre es, den Verkehr in Tunnel zu packen, wie dies durch das Weighted-Fair-Queuing (WFQ) Verfahren beschrieben wird. WFQ ist eine abgeänderte Form des Fair-Queuing (FQ), in der das Verkehrsaufkommen nach den Quellen in Warteschlangen einsortiert und im Round-Robin-Verfahren abgearbeitet wird. FQ erlaubt dabei eine, wie der Name sagt, faire Behandlung der Verkehrsströme, unterscheidet aber nicht nach QoS-Klassen. Dies wurde im WFQ erweitert, da manche Datenströme mehr Bandbreite benötigen als andere. Verkehrsseparierung grenzt die Dienstklassen gegenüber den anderen am sichersten ab und erlaubt somit eine gezielte QoS-Betrachtung. Jedoch gestattet die Trennung der Dienstklassen keine kurzfristige Nutzung von Bandbreite anderer Klassen bei Überlastsituationen, was zu erheblichen Kosten und hoher Unflexibilität führt. 5.2 Call Admission Control Neben den in 5.1 vorgestellten Konzepten der Umsetzung der Dienstgüterealisierung haben die ISPs die Möglichkeit administrativ auf den Datenverkehr einzuwirken - vor dem eigentlichen Eintritt in das Netzinnere. Call Admission Control (CAC) wird dabei mit Hilfe von Session Border Controllern (SBC) realisiert und zwar an den Zugängen und Ausgängen zum eigentlichen Netz. Dabei schützt eine Behandlung mit CAC bereits existierenden Sprachverkehr vor den negativen Auswirkungen neuer Sprachflüsse und erweitert die üblichen QoS-Mechanismen. CAC ist eine präventive Maßnahme, um vorhandene Gespräche vor Überlastsituationen zu schützen. [19] Eine neue Verbindung wird nur dann zugelassen, wenn die erforderlichen Kapazitäten (z.B. Bandbreite, CPU Auslastung der Router) vorhanden sind. Die SBCs bieten dabei eine Art „Rund-um-glücklich-Paket“ an, denn sie vereinen neben der CAC auch Queuing, Marking, Traffic Shaping und Policing der Daten. Eine Form dieser Anwendung findet sich im Subnet Bandwidth Management (SBM) Verfahren wieder. Es stellt dabei eine Art Vorschaltung zum RSVP dar. Der Bandwidth Allocater (BA) übernimmt dabei die Aufsicht über das Netzwerk und kann aufgrund der TSPECs den Zugang, der vom Requestor Module (RM) gestellt wurde, gestatten oder zurückweisen, je nachdem wie die derzeitige Belastung der Infrastruktur es zulässt. Das RM bildet dabei die „QoS-Anfragen“ der Applikationen ab auf implementierte Layer 2 Prioritätslevel. 5.3 Quality of Service Unterstützung der Internet Service Provider Die Bundesnetzagentur hat 2006 [18] eine Studie in Auftrag gegeben, in der sie einen Fragenkatalog an 26 Telekommunikationsdienstleister und ISPs gerichtet hat und darin Themen rund um VoIP und wie deren Integration in das bestehende IP-Netz zu realisieren sei, behandelten. Ein Fragenkomplex beschäftigte sich dabei mit der derzeitigen Umsetzung der Dienstgüte innerhalb der Netzinfrastruktur. Auf Basis der Studie und der frei zugänglichen (nicht geschwärzten) Antworten und Präsentationen der ISPs, wird hier ein kurzer Überblick dargestellt. [18] fasst zusammen, dass „...die Mehrheit der Netzbetreiber...“ Maßnahmen ergreift „...um QoS-Parameterwerte auf ihren Verbindungen einzuhalten. Nur ein Betreiber gibt an, keine solche Maßnahmen zu implementieren.“ Dabei kann folgendermaßen unterteilt werden: Verkehrspriorisierung: 4 Betreiber Überdimensionierung: 3 Betreiber Verkehrsseparierung: 3 Betreiber Weiterhin haben zwei Anbieter angegeben eine Kontrolle der Verbindungsannahme mittels Call Admission Control Verfahren zu vollziehen. Die Arcor AG & Co KG schreibt dazu: „...der Ansatz der Überdimensionierung [stellt] kein adäquates Mittel dar. [...] Bei reiner Überdimensionierung von Kapazitäten binden bandbreitenintensive Anwendungen Kapazitäten, so dass insbesondere bei gleichzeitiger Dienstebenutzung keine gesicherte Quality of Service für den Sprachtelefoniedienst mehr gewährleistet werden kann. In IP-basierten NGN–Netzen werden daher durch feste Kapazitäten je Dienst oder durch Priorisierung PSTN vergleichbare Qualitäten garantiert dauerhaft sichergestellt.“ [20] Die Téléfonica Deutschland GmbH setzt auf SBC und somit neben einer Call Admission Control, auf eine Priorisierung der Pakete und auf ein Policing, d.h. bei der Aushandlung der Verbindung wird anhand des verwendeten Codecs eine Datenrate bestimmt, die einzuhalten ist. Wird dieser „Vertrag“ verletzt, werden Pakete verworfen. [21] Die Deutsche Telekom AG - Abteilung T-COM und QSC AG favorisieren die Lösung der Téléfonica Deutschland GmbH. [22] 5.4 Fazit Es wird ersichtlich, dass Überdimensionierung nur eine kurzfristig Lösung darstellt, um die Sprachdienste in das bestehende Transportnetz zu integrieren. Auf längere Sicht gesehen ist dieses Verfahren nicht umsetzbar, da neben den hohen Kosten für die Provider auch keine zukünftige Aussage getroffen werden kann, inwieweit Dienstgüte sichergestellt ist. Deswegen befindet sich das Internet derzeit in einer Art „Umbau- und Anpassungsphase“ für die neuen Dienste, die neben VoIP zum Beispiel auch IP-TV heißen. Es folgt, dass die Einteilung der Datenpakete in verschiedene Dienstgüteklassen und somit die Priorisierung derer der logische Schluss ist, in dessen Richtung sich die ISPs orientieren werden. Eine Separierung in Tunneln und Reservierung der Kapazitäten skaliert für größere Netze nicht und ist daher nicht als sinnvolle Alternative anzusehen. Aufgrund der großen Anzahl verschiedener Provider auf dem deutschen und internationalen Markt ist eine Abstimmung untereinander unerlässlich, um so auch dem Kunden bei der netzübergreifenden Verbindung eine Aufrechterhaltung der QoS-Dienstleitungen zu garantieren. 6. Ausblick Aufgrund der Sensibilität der Daten, die aus Echtzeitanwendungen stammen, wie VoIP oder Streamen multimedialer Inhalte, wächst die Notwendigkeit, dass bereits an den Eingängen zu den Kommunikationsnetzen eine Zugangskontrolle (Call Admission Control (CAC)) stattfinden muss. In den vergangen Jahren hat sich der relativ junge Zweig der neuronalen Forschung etabliert und die hier kurz vorgestellte Arbeit nutzt die entwickelten Konzepte, um Dienstgüte zu gewährleisten. Dazu bedienten sich die Autoren diverser frei verfügbarer Bibliotheken und Applikationen, um mit Hilfe eines Multilayer Perceptron (MLP)-Netzes bzw. mittels NeuroFuzzy eine Schätzung der Dienstgüte zu erhalten. Das zur Messung entwickelte Modell umfasst mehrere Clients, die Datenströme mit VoIP, Streaming und Bulk-Daten aufgebaut haben. Dadurch ist es möglich, Eingangsvektoren aus diversen statistische Messungen, die im weiterem Verlauf durch Principal Component Analysis (PCA) drastisch reduziert wurden, an den Netzwerkkomponenten abzugreifen und in das Neuronale Netzwerk zu geben. Das Ergebnis umfasst eine Schätzung der Verkehrsentwicklung und erlaubt somit einen Rückschluss auf Auswirkungen der Quality of Service. Diese Ergebnisse dienen als Grundlage für eine weitere Bearbeitung durch Self-Organizing Maps (SOM), die den aktuellen Status des Netzes darstellen und administrative Bewertungen erlauben. Somit ist eine CAC realisierbar. [12] 7. Zusammenfassung Die hier vorgestellten Mechanismen der Quality of Service Sicherung entwickelten sich zumeist aus der Notwendigkeit heraus, neue Applikationen mit harten Echtzeitanforderungen auf vorhandener Technologie zu unterstützen. Aus diesem Grund stellen sie kein Optimum dar. Die Übertragung von Sprachdaten über das Internet stellt für die Anbieter eines VoIPServices eine besondere Herausforderung dar, da der Verbraucher gleich bleibende Qualität erwartet. Diese Zielstellung kann im besten Fall durch Reservierungen von Ressourcen gewährleistet werden. Jedoch ist dies eine der kostenintensivsten Möglichkeiten, sodass versucht werden kann, den wichtigen Datenverkehr von weniger wichtigen zu trennen und eine prioritätsbasierte Behandlung vorzunehmen. MPLS, als eines der flexibelsten Verfahren, bietet sich an, um drahtgebundene Dienstgüte zu garantieren. Es kommt ohne die Auswertung des Schicht 3 Protokollkopfes aus, somit wird ein schnelles Weiterleiten und durch Traffic Engeneering ein gezieltes Eingreifen in die Routenwahl möglich. Mit der Einführung des IEEE 802.11e Standards Ende 2005 wurde auch im Bereich der drahtlosen Kommunikation nachgebessert. Es entstand ein von Grund auf eigens entwickeltes Protokoll, das die Einhaltung von Qualitätsrichtlinien erlaubt. Da das Internet aus einer Vielzahl von autonomen Systemen besteht, die sich ständig vergrößern, ist es fraglich, ob es eine Lösung gibt, mit deren Hilfe immer und überall gezielte QoS für VoIP betrieben werden kann. Eine partikuläre Betrachtung der Dienstgüte ist somit notwendigerweise vorzunehmen. 8. Abbildungsverzeichnis Abbildung 1: Erwartetes Datum der vollständigen Migration zu VoIP in Europa Abbildung 2: Modell der Benutzerzufriedenheit nach ITU-T Rec. G114 Abbildung 3: Schematische Darstellung der Abhängigkeit der QoS Parameter zu den Verkehrflüssen nach [17] und [18] Abbildung 4: RSVP Reservierungsvorgang Abbildung 5: ATM-Dienstklassen Abbildung 6: RSVP-TE Signalisierung 8. Abkürzungsverzeichnis ABR Available Bit Rate AF Assured Forwarding ASPD Automatic Power Save Delivery ATM Asynchronous Transfer Mode CAC Call Admission Control CBR Contant Bit Rate CoS Class of Service CSMA/CA Carrier Sense Multiple Access/Collision Avoidance DCF Distributed Coordination Function DLS Direct Link Setup DSCP Differentiated-Service-Codepoint EDCA Enhanced Distributed Channel Access EF Expedited Forwarding FEC Forwarding Equivalence Class FQ Fair Queuing HCCA HCF Controlled Channel Access HCF Hybrid Coordination Function IETF Internet Engineering Task Force IPDV IP delay variation - beschreibt die Variation im Delay fortlaufender Pakete innerhalb einer unidirektionalen IP Verbindung. Sie wird auch als Jitter bezeichnet IPER IP packet error ratio - gibt das Verhältnis von fehlerhaften Paketen zu erfolgreich und fehlerhaft übertragenen Paketen an IPLR IP packet loss ratio - ist das Verhältnis von verloren gegangen Paketen zu übertragenen Paketen. Ursachen für den Verlust können sein: abgelaufenes TTL-Feld, conquestion control an der Router usw. IPTD IP packet transfer delay - bezeichnet das Endezu-Ende Delay einer Verbindung ISDN Integrated Services Digital Network ITU-T International Telecommunication Union Telecommunication LSP Label Switched Path LSR Label Switched Router MAC Medium Access Control MAC Medium Access Control MLP Multilayer Perceptron MPLS Multiprotocol Label Switching NGN Next Generation Networks OSPF Open Shortest Path First PCA Principal Component Analysis PCF Point Coordination Function PCR Peak Cell Rate PHB Per-Hop-Behaviour PSTN Public Switched Telephone Network QoS Quality of Service RESV Reservation Request RSPEC Request Specification RSVP Ressource Reservation Protocol RTS/CTS Request To Send/Clear To Send SBC Session Border Control SOM Self-Organizing Maps TCP/IP Transmission Control Protocol/Internet Protocol TOS Type of Service TSPEC Traffic Specification TXOP Transmit Opportunity VBR Variable Bit Rate VoIP Voice over Internet Protocol VoIP Voice over Internet Protocol VTC Video Telefone Conference WFQ Weighted Fair Queuing WLAN Wireless Local Area Network 9. Literaturverzeichnis [1] T-Systems Enterprise Services GmbH. White Paper Voice over Internet Protocol (VoIP). Stand: Novem [2] ITU-T. Recommendation E.800. 8/94. [3] ITU-T. Recommendation E.600. 3/93. [4] K.O. Detken. Echtzeitplatformen für das Internet: Grundlagen, Lösungsansätze der sicheren Kommuni München : Addison-Wesley, 2002. - ISBN 3-8273-1914-5 [5] P. Ferguson, G. Huston. Quality of Service: delivering QoS on the Internet and in corporate networks. ISBN 0-471-24358-2 [6] M. Hein, M. Reisner, A. Voß. Voice over IP: Sprach-Daten-Konvergenz richtig nutzen. Poing : Franzis 4 [7] G. Schäfer. Telematics 2 - Chapter 3. TU-Ilmenau, WS06/07. [8] G. Schäfer. Telematics 2 - Chapter 4. TU-Ilmenau, WS06/07. [9] T. Senner. QoS Support in 802.11 Wireless LANs. BTU Cottbus, Stand: Dezember 2007. [10] A. M. Thiel. Wireless Internet - IEEE 802.11. TU-Ilmenau, SS07. [11] Wikipedia. IEEE 802.11e. URL http://de.wikipedia.org/wiki/IEEE_802.11e, Stand: Dezember 2007 [12] R. del-Hoyo-Alonso, P. F. -de-Alarcon, J. J. Navamuel-Castillo, u.a. Neural Networks for QoS Network (Spain), 2007 [13] Forrester, Enterprise IP Telephone Plans in 2006. 2006 [14] Nemertes. The Internet Singularity, Delayed: Why Limits in Internet Capacity Will Stifle Innovation on http://www.nemertes.com/internet_singularity_delayed_why_limits_internet_capacity_will_stifle_inno Stand: November 2007 [15] ITU-T. Recommendation G.114. 5/03 [16] ITU-T. Recommendation G.107. 3/05. [17] Quality of Service: An Operational View, www.pnsol.com [18] K.D. Hackbarth, G. Kulenkampff, Studie der Bundesnetzagentur: Technische Aspakte der Zusammenschaltung in IP-basierten Netzen unter besonderer Berücksichtigung von VoIP. Santander/Bad Honnef, 26.07.2006 [19] Intertex, Call Admission Control. URL http://www.bytbredbandsdelare.nu/cac.pdf, Stand: 2004 [20] Arcor AG & Co KG, Stellungnahme zu: Abschlussbericht der Projektgruppe „Rahmenbedingungen der Zusammenschaltung IP-basierter Netze“. Eschborn, 21.02.2007 [21] Dr. A. Mahler, Vortrag: Interconnection Tarifierung – Konzeptionelle Überlegungen aus dem Blickwin Leitungserstellung. Bonn, 15.12.2005 [22] A. Berg, Vortrag: Bill&Keep – ein optimales Regime für die Zusammenschaktung IP-basierter Sprachn