Switch & Router

Werbung
Switche
Intelligente Vermittlungsgeräte im LAN
Bernd Ebert
IAV2
Übersicht


Ethernet
Switch allgemein
–
–
–



High Speed-Bus
Crossbar
Zwischenspeicher

Switching-Verfahren

–
–
–
–
Latenz
spezielle Features
–
–
–
–
–
Hardware-Architektur
–
–
–

Segmentierung von LANs
Funktion
Forwarding Tabelle
Flow-Control
Content Switching
VLANs
Class of Service
Link Aggregation
Spanning-Tree
Quellen
Cut-Through
Store & Forward
Adaptive Cut-Through
Fragment Free
2
Ethernet
Vor gut dreißig Jahren hätte es wohl kaum jemand für möglich gehalten, dass Ethernet irgendwann
einmal mit der mehrtausendfachen Geschwindigkeit aufwarten würde. Denn im Geburtsjahr 1973
erblickte es mit gerade mal 2,94 MBit/s das Licht der Netzwerkwelt. Es zeichnete sich damals durch
das Zugriffsverfahren CSMA/CD (Carrier Sense Multiple Access with Collision Detection) aus, das
die Datenübertragung zwischen mehreren Rechnern auf einem gemeinsam genutzten
Übertragungsmedium (Shared Medium) regelt, wobei ein gerechter Zugriff größtenteils
gewährleistet ist. In den Anfängen der Ethernet-Ära verwendete man als Übertragungsmedium
ausschließlich Koaxialkabel, das allerdings in der Verlegung, Konfektionierung und
Fehlerbeständigkeit nicht gerade das Nonplusultra darstellte. Anfang der achtziger Jahre bildete das
amerikanische Normungsinstitut IEEE (Institute of Electrical and Electronical Engineers,
www.ieee.org) eine Arbeitsgruppe mit der Bezeichnung 802.3, die das Ziel hatte, Ethernet als einen
international anerkannten Standard durchzusetzen.
Im Jahre 1982 erlangte Ethernet mit der Verabschiedung des IEEE-802.3-Standards den Status
einer standardisierten Netzwerktechnik. Zwar bot Ethernet damals schon eine Datenrate von 10
MBit/s, doch war es noch ein weiter und holpriger Weg zu den heutigen 10 000 MBit/s (IEEE
802.3ae) über Fast Ethernet (IEEE 802.3u) 1995, Gigabit Ethernet über Glasfaser (IEEE 802.3z)
1998 und Gigabit Ethernet über Cat5 (IEEE 802.3ab) 1999. Wesentlich zum Erfolg hat beigetragen,
dass Ethernet ständig weiterentwickelt wurde, immer neue Übertragungsmedien unterstützte und
die Datenrate steigerte. So kamen 1985 Twisted-Pair-Kabel (TP) und Glasfaser als Medien hinzu.
TP veränderte die physische Verkabelung, die damit sternförmig von einem aktiven Verteiler
(Repeater oder Hub) und nicht mehr kettenartig von Rechner zu Rechner erfolgt. Mit Hilfe von
Glasfaser können zudem große Distanzen bis über 2000 Meter überbrückt werden.
3
Segmentierung von LANs
Switches stellen wie Hubs Sternverteiler
dar, die im Vollduplexbetrieb Punkt-zuPunkt-Verbindungen zwischen den
angeschlossenen Geräten herstellen.
Dabei steht aber im Idealfall jeder
Station die volle Bandbreite des
Mediums (10, 100 oder 1000 MBit/s)
zur Verfügung. Außerdem können
Switches je nach Ausführung
unterschiedliche Datenraten zwischen
den verschiedenen Anschlüssen
ausgleichen. Bei einem EthernetNetzwerk, das ausschließlich Switches
enthält, kann man die herkömmliche
Betrachtungsweise bezüglich SharedMedium über Bord werfen, weil hierbei
ausschließlich vollduplex gearbeitet
wird. Kollisionen können gar nicht erst
entstehen.
4
Funktion von Switches
Während ein Hub auf der ersten Schicht (Physical Layer) des OSI-Modells
arbeitet, so agiert ein Switch funktionell auf der zweiten (Layer-2-Switch, MACLayer) und eventuell zusätzlich auf einer der höheren Schichten (Layer-3...nSwitch, IP-/TCP-Switching). Seine grundsätzliche Aufgabe ist es, Datenpakete
(Ethernet-Frames) über interne Verbindungen von einem Port (Anschluss) zu
einem oder mehreren anderen Ports weiterzuleiten. Dabei können auch mehrere
virtuelle Verbindungen parallel laufen.
Eine gewöhnliche Bridge besitzt zwei Ports, über die sie zwei Segmente
miteinander verbinden kann. Sie arbeitet im Unterschied zum Hub nicht
transparent, leitet also nicht alle Daten weiter, sondern entscheidet anhand der
Zieladresse, ob ein Frame durchkommt. Damit kann eine Bridge für eine
Lasttrennung zwischen den Segmenten eines Netzwerks sorgen. Multicast- und
Broadcast-Frames, die an mehrere oder alle Stationen gehen, werden dabei auf
jeden Fall weitergeleitet. Über eine Bridge können sich Kollisionen nicht
ausbreiten, Kollisionsdomänen werden in kleinere Einheiten unterteilt.
Dieses grundsätzliche Funktionsprinzip hat man für Switches übernommen, sie
sind quasi eine Multiport-Bridge.
5
Forwarding-Tabelle
Layer-2-Switches treffen ihre Wegwahl anhand der MAC-Adressen, sie
arbeiten demzufolge protokollunabhängig. Die Weiterleitung von UnicastFrames - Pakete, die an genau eine Station gehen - erfolgt größtenteils
zielgerichtet. Empfängt ein Switch ein Unicast-Frame, vergleicht er dessen
Zieladresse mit den Einträgen in seiner Forwarding-Tabelle. Dort sind alle
bisher gelernten MAC-Adressen mit ihrem zugehörigen Ausgangsport
gespeichert. Findet der Switch die Zieladresse, kann er das Paket direkt am
angegebenen Anschluss ausgeben. Andernfalls leitet er das Frame an alle
Ausgänge, ausgenommen den empfangenden Port, weiter. Dabei kommt
momentan die gleiche Netzlast wie bei einem Hub auf. Die Station, an die das
Frame gerichtet war, schickt über kurz oder lang selbst ein Paket ab, wobei der
Switch aus der Quelladresse des Frames eine neue Zieladresse für die
Forwarding-Tabelle lernt. Nach und nach kann der Switch immer mehr Pakete
zielgerichtet weiterleiten und so das Netz entlasten. Das Ausgeben eines
Frames mit bislang unbekannter Zieladresse ist aber trotz gleicher Netzlast
kein Broadcast: Letzterer hat ein anderes Adressformat, woran der Switch
erkennt, dass er Broadcasts generell an alle Ports weiterreichen muss.
6
Forwarding-Tabelle
Damit die ForwardingTabelle nicht überläuft,
unterliegen ihre Daten
einem Alterungsprozess.
Kommt ein Eintrag eine
gewisse Zeit - typisch
sind 300 Sekunden nicht mehr zum Zug,
fliegt er wieder raus. Das
soll sicherstellen, dass
beispielsweise
abgeschaltete LANStationen automatisch
aus der ForwardingTabelle entfernt werden.
7
Bus-Architektur
Die grobe Architektur eines Switches ähnelt der von Verbindungsnetzen. Eines ihrer entscheidenden
Kriterien ist die Permutationsfähigkeit. Darunter versteht man die gleichzeitige Kommunikation zwischen
allen Ein- und Ausgängen. Bei einer internen Busarchitektur ist - was zunächst erstaunt - keine
Permutationsfähigkeit gegeben, denn ein Bus ist ein Transportsystem, bei dem die Teilnehmer das
vorhandene Transportmedium nur nacheinander nutzen können (Zeitmultiplex-Betrieb). Besitzt der
Switch-interne Bus jedoch eine Bandbreite, die mindestens so groß wie die Bandbreite aller Eingänge
zusammen ist, dann kompensiert er die fehlende Permutationsfähigkeit über die Zeit.
Einfache Switches basieren in der Regel auf einer Busarchitektur mit hoher Bandbreite, da diese vom
Schaltungsaufwand geringer ist. Dabei fließen die Pakete von den Eingängen über den ersten Bus an
einen zentralen Puffer und von dort über einen zweiten Bus zu den Ausgängen. So arbeitet
beispielsweise Realteks Low-Cost-Controller RTL 8308, der acht Ports mit 100 MBit/s enthält und mit
einer Busbreite von zwei Bit pro Port und einer Taktrate von 50 MHz arbeitet. Für High-End-Switches
kommen häufig Crossbars mit zentraler oder verteilter Pufferung zum Einsatz, die in der Regel mittels
speziell konstruierter Chips (Application Specific Integrated Circuits, ASICs) aufgebaut werden.
Wie viele Verbindungen ein Switch simultan schalten muss, hängt von seiner Port-Anzahl ab. Im
schlimmsten Fall empfangen alle Anschlüsse mit voller Geschwindigkeit. Dabei muss die interne
Bandbreite für Non-Blocking so groß sein wie die Bandbreite aller Ports zusammen. Bei einem FastEthernet-Switch mit acht Anschlüssen ergeben sich beispielsweise 800 MBit/s.
8
Crossbar-Architektur
Die bestmögliche Performance erzielt man mit der Crossbar-Architektur, die jedoch eine hohe
Hardwarekomplexität erzwingt. Sie gestattet ohne Rekonfiguration blockierungsfreie Permutation sowie
beliebig viele Multicast- wie auch Broadcast-Verbindungen. Der Verteiler besteht dabei aus vertikalen
und horizontalen Bussen, die an jedem Kreuzungspunkt über Schalter verbunden sind.
Wenn auch bei einer Crossbar keine internen Konflikte auftreten können, muss man doch mögliche
Ausgangskonflikte berücksichtigen. Die minimiert man durch Pufferung. Sie speichert Daten
gegebenenfalls zwischen, falls der Zielausgang gerade belegt sein sollte und schickt ein Signal an die
Steuerlogik. Die wiederum entscheidet, welches Paket als nächstes an den Ausgang weitergeleitet wird.
Dabei bestimmt letztendlich die Organisation des Puffers die Leistungsfähigkeit eines CrossbarSwitches.
9
Pufferung von Daten
Die Zwischenspeicherung kann man auf vier Weisen organisieren: an den Eingängen, den Ausgängen, verteilt
oder zentral. Schaltungstechnisch ist die Eingangspufferung die einfachste Form. Sie hat allerdings den
Nachteil, dass Frames nicht direkt weitergeleitet werden können, wenn in verschiedenen Eingangspuffern
Frames für den Ausgang X vorliegen. Dann blockieren sich die Puffer gegenseitig: Pakete für andere Ziele
können so lange nicht weiterlaufen, bis die Frames für Ausgang X herausgegangen sind.
Arbeitet man hingegen mit Ausgangspuffern, die nur Frames speichern, die zum gleichen Zielport gehören, kann
eingangsseitige Head-of-Line-Blockierung nicht auftreten. Das stellt jedoch an das Verteilsystem erhöhte
Anforderungen, weil an den Eingängen möglicherweise Frames für denselben Zielport anstehen. In diesem Fall
muss das Verteilungssystem die Pakete schnell genug zum Ausgangspuffer weiterleiten können.
Bei einem Crossbar-Switch kann man beide Probleme mit einer verteilten Pufferarchitektur vermeiden, bei der
jeder Kreuzungspunkt einen eigenen Speicher besitzt. Dadurch steigt aber der Hardware-Aufwand immens.
Effizienter ist ein zentraler Speicher. Er nimmt hereinkommende Frames über einen Multiplexer entgegen und
gibt sie über einen Demultiplexer an den Zielausgang weiter. Dieses Vorgehen eignet sich besonders für SingleChip-Lösungen, sie kommen bei einem 8-Port-Switch typischerweise mit zwei MBit Gesamtspeicher aus.
Ungünstig ist die Zentralpufferung jedoch, wenn ein Ausgang Y - beispielsweise einer, an dem ein Server hängt häufiger Frames erhält als die anderen. Dabei kann der Zentralpuffer mit Paketen voll laufen, weil Ausgang Y sie
nicht schnell genug abnehmen kann. Das kann soweit führen, dass der Zentralpuffer keinen Platz mehr für
Frames an andere Ausgänge hat. Um dies zu vermeiden, begrenzt man üblicherweise die Speichermenge, die
ein Ausgang belegen darf.
10
Cut-Through
Beim Cut-Through beginnt der Switch mit der Ausgabe des Datenstroms auf den Zielport, sobald er
diesen über die Zieladresse identifiziert hat, also schon nachdem die ersten Bytes eines Pakets
hereingekommen sind. Das macht Cut-Through zum schnellsten Verfahren. Ein Nachteil liegt jedoch
darin, dass fehlerhafte oder beschädigte Frames ungehindert durchlaufen und auch auf der
Ausgabeseite eine an sich unnötige Belastung des LAN darstellen.
11
Store & Forward
Hier liest der Switch erst das vollständige Frame ein, speichert es und testet die Richtigkeit anhand
der Prüfsumme (CRC). Ist das Frame fehlerfrei, gibt der Switch es auf den Zielport aus, wenn nicht,
verwirft er es. Wegen der Zwischenspeicherung ist Store-and-Forward grundsätzlich langsamer als
Cut-Through, dafür minimiert es die Netzbelastung mit fehlerhaften Paketen. Außerdem kann ein
Store-and-Forward-Switch Frames zwischen unterschiedlich schnellen Netzsegmenten beispielsweise von 10 auf 100 MBit/s - vermitteln.
12
Adaptive Cut-Trough
Das Adaptive-Cut-Through-Verfahren vereint die Vorteile der anderen Methoden. Nach
der Startphase setzt der Switch zunächst das schnellere Cut-Through ein, prüft jedoch
auch dabei anhand der CRC die Fehlerfreiheit. Bei Überschreiten einer festgelegten
Fehlerschwelle schaltet er auf Store-and-Forward um. Geht die Fehlerrate später
wieder zurück, dann kommt erneut Cut-Through zum Zug. So erreicht man ein
Optimum zwischen Performance und Fehlerfreiheit. Adaptive-Cut-Through kommt
derzeit nur bei High-End-Switches zur Anwendung, die eine einzige Datenrate
unterstützen.
Ferner gibt es Implementierungen, bei denen das Switching-Verfahren von der
Paketlänge abhängt, falls keine Anpassung der Datenrate notwendig ist. Längere
Frames leitet der Switch nach dem Empfang der ersten 512 Bytes per Cut-Through
weiter. Kürzere Pakete behandelt er mittels Store-and-Forward. Damit optimiert man
dynamisch die Latenz, die sich vor allem bei längeren Frames negativ auswirkt.
13
Fragment Free
Ein weiterer Ansatz ist
FragmentFree-CutThrough, das Cisco
eingeführt hat. Es geht
davon aus, dass
Übertragungsfehler in
der Regel innerhalb der
ersten 64 Byte
auftreten (Kollision).
Dabei liest ein Switch
zunächst 64 Bytes ein,
bevor er sie per CutThrough weiterreicht.
14
Latenz
Verzögerungen, die Frames bei der Weiterleitung erfahren, erfasst man mit der Latenz. Das ist bei Store-andForward-Switches die Zeit, die zwischen dem letzten Bit beim Empfang und dem ersten Bit beim Ausgeben
verstreicht (LIFO Latency, Last In First Out). Anders dagegen beim Cut-Through: Hier misst man die Latenz
zwischen dem ersten empfangenen Bit und dem ersten ausgesendeten Bit (FIFO Latency, First In First Out). Diese
unterschiedlichen Definitionen erschweren auf den ersten Blick einen direkten Vergleich.
In den Datenblättern der Hersteller hat ein
Store-and-Forward-Switch bei 100 MBit/s
typischerweise eine Latenz von 10 bis 18
µs, ein Cut-Through-Gerät jedoch zirka 35
µs. Das erscheint zunächst als
Widerspruch zur Aussage, dass CutThrough schneller als Store-and-Forward
ist. Berücksichtigt man aber die
unterschiedliche Messmethode, dann
stimmt das Bild wieder: Ein 512 Byte
langes Fast-Ethernet-Paket braucht rund
41 µs. Es ist per Cut-Through nach etwa 76
µs (Latenz plus Frame-Dauer) beim
Empfänger, per Store-and-Forward
dagegen erst nach 92 bis 100 µs (Latenz
plus zweifache Frame-Dauer, vollständiges
Empfangen und Wiederaussenden).
15
Flow-Control
Um einen Speicherüberlauf und daraus folgendes Verwerfen von
Frames zu vermeiden, wurde die so genannte Flow-Control im
Standard IEEE 802.3x eingeführt: Droht ein Puffer überzulaufen,
kann ein Switch ein angeschlossenes Gerät mittels PauseFrames auffordern, vorübergehend keine weiteren Frames zu
senden. Pause-Frames sind spezielle MAC-Control-Pakete, die
als Multicast an die festgelegte Adresse 01-80-C2-00-00-01
gehen und im Length/Typ-Feld den Wert 88-08 enthalten. Ob bei
einer Verbindung Flow-Control angewendet wird, entscheiden die
Kommunikationspartner während des Link-Aufbaus über die
Auto-Negotiation-Funktion. Üblicherweise beherrschen alle
Gigabit-Ethernet- und eine Vielzahl von Fast-EthernetKomponenten das Verfahren.
Flow-Control funktioniert grundsätzlich nur im Vollduplexmodus.
Bei Ports, die halbduplex arbeiten, können Switches stattdessen
Back-Pressure verwenden, das auf der Simulation von
Kollisionen beruht. Der Switch sendet bei drohendem Überlauf
ein JAM-Signal aus, was die angeschlossene Komponente
veranlasst, ihren Sendevorgang abzubrechen und ihre Daten
nach einer bestimmten Wartezeit erneut zu schicken.
16
Content Switching
Neben reinen Layer-2-Geräten gibt es auch zunehmend Layer-3-Switches, die Adressinformationen der nächst
höheren Protokollebene auswerten und für die Wegwahl nutzen können. Der Name Switch ist für solch ein
Gerät leicht irreführend, da es sich auf der dritten OSI-Ebene um Routing handelt. In der Regel unterstützen
Layer-3-Switches IP-basiertes Routing, wobei sie Protokolle wie RIP (Routing Information Protocol), RIPv2 und
OSPF (Open Shortest Path First) nutzen. Außerdem gibt es Produkte, die beispielsweise Routing für NovellProtokolle wie IPX/SPX unterstützen. Herkömmliche Router haben gegenüber Switches eine höhere Latenz.
Leistungsfähige Layer-3-Switches erledigen hingegen das Routing mit Wire-Speed, weshalb sie traditionellen
Routern inzwischen den Rang ablaufen.
Die nächste Steigerung sind Layer-4- bis Layer-7-Switches, die für die Wegwahl Informationen der höheren
OSI-Schichten nutzen (Content-Switching). So werten Layer-4-Switches beispielsweise fest definierte Ports wie
Port 80 (HTTP-Verkehr) aus und leiten Daten dafür an einen Webserver weiter. Layer-7-Switches gehen noch
einen Schritt weiter und werten Anwenderinformationen aus, indem sie nach Schlüsselinformationen, zum
Beispiel spezielle Cookies, in den Nutzdaten suchen.
Generell geht es beim Content Switching um eine inhaltsbezogene Optimierung des Datenverkehrs. Ein
Content-Switch würde Datenverkehr zu Servern, Firewalls und Massenspeichern erkennen und gegenüber dem
Anwender als virtueller Server erscheinen, hinter dem sich mehrere Server oder ein Cluster verbirgt. Solches
Vorgehen ermöglicht neben der Optimierung der Reaktionszeiten auch eine höhere Ausfallsicherheit, indem
Last und Daten auf mehrere Server verteilt wird. Da Wegwahl und Ausführungsentscheidung in
Leistungsgeschwindigkeit eine hohe Rechenleistung erfordern, setzen Content-Switches auf einen oder
mehrere RISC-Prozessoren, gekoppelt mit einem großen Speicher. Derartige High-End-Lösungen sind
besonders für Web-Hosting-Infrastrukturen und E-Commerce-Transaktionen interessant.
17
VLANs
Die meisten managebaren Switches bieten Virtual Bridged Local Area Networks,
kurz VLANs, an. Diese stellen, auf der MAC-Ebene implementiert, eine
Gruppierung von bestimmten Stationen innerhalb des gesamten LANs dar. Der
Vorteil: Das Netzwerk wird in mehrere Broadcast-Domänen aufgeteilt. Außerdem
kann man die Datensicherheit verbessern, da nur die Teilnehmer eines VLAN beispielsweise die Mitarbeiter der einzelnen Abteilungen eines großen
Unternehmens - untereinander Daten austauschen können.
18
VLANs
Für die Umsetzung gibt es zwei Ansätze: Die einfachste
Variante sind port-basierte VLANs, bei denen der Switch
bestimmte Ports einem VLAN zuordnet. Er sendet BroadcastFrames nur noch an die Ports aus, die zu dem VLAN
gehören, aus dem sie stammen.
Für Switch-übergreifende VLANs
existiert ein IEEE-Standard (802.1p/Q).
Hierbei verlängert man den EthernetFrame um vier Bytes und packt
zusätzliche Informationen in den
Header, die den Datenaustausch
innerhalb der VLANs regeln (VLANTagging). Damit kann man VLANs über
mehrere Switches hinweg ausdehnen,
vorausgesetzt, alle beteiligten Switches
können die VLAN-Informationen
interpretieren und die Treiber auf den
vernetzten Rechnern setzen die VLANInformation in die Frames.
19
Class of Service
High-End-Switches bieten häufig auch Quality-of-Service-Funktionen (QoS), mit denen man den
weiterzuleitenden Frames unterschiedliche Prioritäten einräumen kann. Dieses Feature wird mit dem
Aufkommen von Voice-over-IP (VoIP, LAN- beziehungsweise Internet-Telefonie) und Videostreams immer
wichtiger, weil vor allem Sprache gegenüber zu hohen Latenzen sehr empfindlich ist. Mittels QoS kann
man für solche Anwendungen Bandbreite reservieren und bestimmte Frames priorisieren, was jedoch
garantierte Verbindungseigenschaften erfordert. Da dies jedoch beim paketvermittelten Ethernet nicht
hundertprozentig umsetzbar ist, spricht man eher von Class of Service, kurz CoS, das bei Ethernet bereits
auf der MAC-Schicht realisierbar ist: Innerhalb des zwei Byte langen VLAN-Tags sind drei Bits für acht
unterschiedliche Prioritäten vorgesehen.
Damit ein Switch unterschiedliche Prioritäten realisieren kann, muss er intern verschiedene Queues
(Pufferschlangen) bereitstellen, für jede Priorität eine eigene. Stehen in der Queue mit der höchsten
Priorität Daten an, so leitet der Switch diese bevorzugt weiter. Nachdem alle mit der höchsten Priorität
abgearbeitet sind, kommt die nächst niedrigere Queue dran. Dabei muss man freilich darauf achten, dass
Queues mit niedrigerer Priorität nicht zu stark unterdrückt werden. Dazu ordnet man jeder Queue einen
Bandbreitenanteil zu und sorgt dafür, dass auch für die am wenigsten dringende Queue eine gewisse
Restbandbreite übrig bleibt.
20
Link Aggregation
Bei Link Aggregation (IEEE 802.3ad) bündelt man im Punkt-zu-Punkt-Betrieb - also beispielsweise
zwischen zwei Switches oder Switch und Server - mehrere Leitungen, um die Bandbreite zu erhöhen
oder Redundanz zu schaffen. Das funktioniert grundsätzlich nur bei Ports mit derselben Datenrate und
im Vollduplexbetrieb. Die zusammengefassten Anschlüsse bilden logisch betrachtet einen einzelnen Port
mit vervielfachter Bandbreite. Fällt nun eine der Strecken aus, kann der Datenverkehr über die restlichen
Leitungen weiterlaufen. Anfangs wurde diese Parallelschaltung auch als Trunking oder Channel Bundling
bezeichnet, wobei die Hersteller unterschiedliche Lösungsansätze implementierten, die zueinander
inkompatibel waren. Mit der Verabschiedung des IEEE-Standards entstand eine einheitliche Lösung
unter dem Begriff Link Aggregation.
Link Aggregation kann man entweder für Verbindungen zwischen Switches einsetzen oder für
Verbindungen zwischen einem Switch und einem Server, der mehrere Netzwerkkarten enthält. Letzteres
ist derzeit allenfalls bei Fast-Ethernet (100 MBit/s) sinnvoll, denn schon eine Gigabit-Ethernet-Karte reizt
den verbreiteten PCI-Bus bis zum Anschlag aus. Außerdem braucht man mit heute üblichen
Betriebssystemen schon eine CPU der 2-GHz-Klasse, um nur einen Gigabit-Ethernet-Kanal auszulasten.
Bei Verbindungen zwischen größeren Switches kann dagegen die Bündelung mehrerer Gigabit-Strecken
Engpässe aufweiten. Bei einfachen Geräten lassen sich bis zu vier Ports zusammenfassen, bei HighEnd-Switches gar 36 oder mehr.
21
Spanning-Tree
Bei größeren LANs steht neben der Durchsatzoptimierung auch die Ausfallsicherheit auf der Agenda.
Letztere kann man durch Redundanzschaffung verbessern. Dabei verbindet man alle Switches in
einem Firmen-LAN über einen oder mehrere Ringe auf unterschiedlichen physischen Wegen, was
eigentlich verboten ist. Damit in solchen Schleifen keine Frames endlos kreisen, kommt das
Spanning-Tree-Verfahren zum Einsatz. Es ist im IEEE-802.1d-Standard für die MAC-Ebene
spezifiziert und basiert auf dem Austausch von Konfigurationspaketen (Bridge Protocol Data Units,
BPDU), die über Multicast Frames an eine bestimmte Adresse (01-80-C2-00-00-10) gehen.
22
Spanning-Tree
Über BPDUs nehmen die beteiligten Switches eine Topologiekontrolle vor, die
redundante Strecken erkennt und zwischen diesen die optimale Route ermittelt, wobei
sie unter anderem die möglichen Datenraten und Entfernungen berücksichtigen. Diese
Parameter - wie auch Prioritäten und Wegekosten - sind normalerweise konfigurierbar,
sodass der Netz-Admin bevorzugte Routen festlegen kann. Die Ports der redundanten
Strecken werden zunächst abgeschaltet und erst beim Ausfall der Hauptroute
reaktiviert. Jeder Spanning-Tree-fähige Switch muss dazu über eine eigene Bridge-ID
und MAC-Adresse verfügen.
23
Spanning-Tree
BPDUs enthalten genügend Informationen, damit Bridges folgendes machen können:
1.
Auswählen einer einzelnen Bridge unter allen Bridgesauf allen LAN-Segmenten als RootBridge
2.
Berechnendes kürzesten Pfads von sich selbst zur Root-Bridge
3.
Für jedes LAN-Segment Auswählen einer designierten Bridge unter den Bidges, die sich auf
diesem Segment befinden. Die designierte Bridge ist die, die der Root-Bridge am nächsten
ist. Sie leitet die Pakete von diesem Segment zur Root Bridge
4.
Auswählen eines Ports (den Root Port), der den besten Pfad von den Bridges selbst zur
Root-Bridge bietet
5.
Auswählen von Ports, die in den Spanning-Tree eingebunden werden. Die ausgewählten
Ports sind der Root-Port und alle Ports, auf denen die Bridge als designierte Bridge
ausgewählt wurde
24
Spanning-Tree-Port-Stadien
Um ein schleifenfreies Netzwerk zu bauen, zwingt Spanning Tree die Ports dazu, folgende
Stadien zu durchlaufen:
Blocked – Alle Ports beginnen im Blocked-Modus, um Bridging-Schleifen zu verhindern. Der
Port bleibt im Blocked-Modus, wenn Spanning Tree bestimmt, dass es zur Root Bridge einen
besseren Weg durch einen anderen Port gibt
Listen – Der Port kommt aus dem Blocked-Stadium in das Listen-Stadium. in dieser Zeit
versucht er zu lernen, ob es noch andere Wege zur Root Bridge gibt. Im Listen-Stadium kann ein
Port nur hören, aber keine Daten verschicken oder empfangen. Der Port darf auch keine der
Informationen, die er hört in seine Adress-Liste eintragen. Im Listen-Stadium hört der Port nur
zu, um sicherzustellen, dass es keine Bridging-Schleifen gibt.
Learn – Das Learn-Stadium ist dem Listen-Stadium sehr ähnlich. Der einzige Unterschied
besteht darin,dass der Pprt das, was er hört, in seine Tabelle eintragen darf. Er darf aber immer
noch nicht Daten empfangen oder verschicken.
Forward – In diesem Stadium kann der Port Daten senden und empfangen. Ein Port wird nicht
in das Forwarding-Stadium gesetzt, wenn es noch überflüssige Links gibt oder wenn noch nicht
feststeht, dass es keinen besseren Weg gibt.
Disabled – Der Switch kann einen Port aus einer Vielzahl von Gründen abstellen . Fehler wie
Hardware-Probleme und Löschen des nativen VLANs sowie administrative Gründe können
hierzu führen.
25
Quellen:
Cisco Semester 3
 Multilayer Switched Netzwerke
 diverse c‘t Artikel
 Bridges, Router, Switches

(CISCO PRESS)
Die Autorin Radia Perlman gehört zu den 25 einflussreichsten Netzwerkentwicklern
aller Zeiten (Communication Magazine) und hat unter anderen den wichtigen
Spanning-Tree-Algorithmus erfunden. Sie hält über 50 Patente im Bereich Netzwerke.
26
Noch Fragen???
27
Herunterladen