Switche Intelligente Vermittlungsgeräte im LAN Bernd Ebert IAV2 Übersicht Ethernet Switch allgemein – – – High Speed-Bus Crossbar Zwischenspeicher Switching-Verfahren – – – – Latenz spezielle Features – – – – – Hardware-Architektur – – – Segmentierung von LANs Funktion Forwarding Tabelle Flow-Control Content Switching VLANs Class of Service Link Aggregation Spanning-Tree Quellen Cut-Through Store & Forward Adaptive Cut-Through Fragment Free 2 Ethernet Vor gut dreißig Jahren hätte es wohl kaum jemand für möglich gehalten, dass Ethernet irgendwann einmal mit der mehrtausendfachen Geschwindigkeit aufwarten würde. Denn im Geburtsjahr 1973 erblickte es mit gerade mal 2,94 MBit/s das Licht der Netzwerkwelt. Es zeichnete sich damals durch das Zugriffsverfahren CSMA/CD (Carrier Sense Multiple Access with Collision Detection) aus, das die Datenübertragung zwischen mehreren Rechnern auf einem gemeinsam genutzten Übertragungsmedium (Shared Medium) regelt, wobei ein gerechter Zugriff größtenteils gewährleistet ist. In den Anfängen der Ethernet-Ära verwendete man als Übertragungsmedium ausschließlich Koaxialkabel, das allerdings in der Verlegung, Konfektionierung und Fehlerbeständigkeit nicht gerade das Nonplusultra darstellte. Anfang der achtziger Jahre bildete das amerikanische Normungsinstitut IEEE (Institute of Electrical and Electronical Engineers, www.ieee.org) eine Arbeitsgruppe mit der Bezeichnung 802.3, die das Ziel hatte, Ethernet als einen international anerkannten Standard durchzusetzen. Im Jahre 1982 erlangte Ethernet mit der Verabschiedung des IEEE-802.3-Standards den Status einer standardisierten Netzwerktechnik. Zwar bot Ethernet damals schon eine Datenrate von 10 MBit/s, doch war es noch ein weiter und holpriger Weg zu den heutigen 10 000 MBit/s (IEEE 802.3ae) über Fast Ethernet (IEEE 802.3u) 1995, Gigabit Ethernet über Glasfaser (IEEE 802.3z) 1998 und Gigabit Ethernet über Cat5 (IEEE 802.3ab) 1999. Wesentlich zum Erfolg hat beigetragen, dass Ethernet ständig weiterentwickelt wurde, immer neue Übertragungsmedien unterstützte und die Datenrate steigerte. So kamen 1985 Twisted-Pair-Kabel (TP) und Glasfaser als Medien hinzu. TP veränderte die physische Verkabelung, die damit sternförmig von einem aktiven Verteiler (Repeater oder Hub) und nicht mehr kettenartig von Rechner zu Rechner erfolgt. Mit Hilfe von Glasfaser können zudem große Distanzen bis über 2000 Meter überbrückt werden. 3 Segmentierung von LANs Switches stellen wie Hubs Sternverteiler dar, die im Vollduplexbetrieb Punkt-zuPunkt-Verbindungen zwischen den angeschlossenen Geräten herstellen. Dabei steht aber im Idealfall jeder Station die volle Bandbreite des Mediums (10, 100 oder 1000 MBit/s) zur Verfügung. Außerdem können Switches je nach Ausführung unterschiedliche Datenraten zwischen den verschiedenen Anschlüssen ausgleichen. Bei einem EthernetNetzwerk, das ausschließlich Switches enthält, kann man die herkömmliche Betrachtungsweise bezüglich SharedMedium über Bord werfen, weil hierbei ausschließlich vollduplex gearbeitet wird. Kollisionen können gar nicht erst entstehen. 4 Funktion von Switches Während ein Hub auf der ersten Schicht (Physical Layer) des OSI-Modells arbeitet, so agiert ein Switch funktionell auf der zweiten (Layer-2-Switch, MACLayer) und eventuell zusätzlich auf einer der höheren Schichten (Layer-3...nSwitch, IP-/TCP-Switching). Seine grundsätzliche Aufgabe ist es, Datenpakete (Ethernet-Frames) über interne Verbindungen von einem Port (Anschluss) zu einem oder mehreren anderen Ports weiterzuleiten. Dabei können auch mehrere virtuelle Verbindungen parallel laufen. Eine gewöhnliche Bridge besitzt zwei Ports, über die sie zwei Segmente miteinander verbinden kann. Sie arbeitet im Unterschied zum Hub nicht transparent, leitet also nicht alle Daten weiter, sondern entscheidet anhand der Zieladresse, ob ein Frame durchkommt. Damit kann eine Bridge für eine Lasttrennung zwischen den Segmenten eines Netzwerks sorgen. Multicast- und Broadcast-Frames, die an mehrere oder alle Stationen gehen, werden dabei auf jeden Fall weitergeleitet. Über eine Bridge können sich Kollisionen nicht ausbreiten, Kollisionsdomänen werden in kleinere Einheiten unterteilt. Dieses grundsätzliche Funktionsprinzip hat man für Switches übernommen, sie sind quasi eine Multiport-Bridge. 5 Forwarding-Tabelle Layer-2-Switches treffen ihre Wegwahl anhand der MAC-Adressen, sie arbeiten demzufolge protokollunabhängig. Die Weiterleitung von UnicastFrames - Pakete, die an genau eine Station gehen - erfolgt größtenteils zielgerichtet. Empfängt ein Switch ein Unicast-Frame, vergleicht er dessen Zieladresse mit den Einträgen in seiner Forwarding-Tabelle. Dort sind alle bisher gelernten MAC-Adressen mit ihrem zugehörigen Ausgangsport gespeichert. Findet der Switch die Zieladresse, kann er das Paket direkt am angegebenen Anschluss ausgeben. Andernfalls leitet er das Frame an alle Ausgänge, ausgenommen den empfangenden Port, weiter. Dabei kommt momentan die gleiche Netzlast wie bei einem Hub auf. Die Station, an die das Frame gerichtet war, schickt über kurz oder lang selbst ein Paket ab, wobei der Switch aus der Quelladresse des Frames eine neue Zieladresse für die Forwarding-Tabelle lernt. Nach und nach kann der Switch immer mehr Pakete zielgerichtet weiterleiten und so das Netz entlasten. Das Ausgeben eines Frames mit bislang unbekannter Zieladresse ist aber trotz gleicher Netzlast kein Broadcast: Letzterer hat ein anderes Adressformat, woran der Switch erkennt, dass er Broadcasts generell an alle Ports weiterreichen muss. 6 Forwarding-Tabelle Damit die ForwardingTabelle nicht überläuft, unterliegen ihre Daten einem Alterungsprozess. Kommt ein Eintrag eine gewisse Zeit - typisch sind 300 Sekunden nicht mehr zum Zug, fliegt er wieder raus. Das soll sicherstellen, dass beispielsweise abgeschaltete LANStationen automatisch aus der ForwardingTabelle entfernt werden. 7 Bus-Architektur Die grobe Architektur eines Switches ähnelt der von Verbindungsnetzen. Eines ihrer entscheidenden Kriterien ist die Permutationsfähigkeit. Darunter versteht man die gleichzeitige Kommunikation zwischen allen Ein- und Ausgängen. Bei einer internen Busarchitektur ist - was zunächst erstaunt - keine Permutationsfähigkeit gegeben, denn ein Bus ist ein Transportsystem, bei dem die Teilnehmer das vorhandene Transportmedium nur nacheinander nutzen können (Zeitmultiplex-Betrieb). Besitzt der Switch-interne Bus jedoch eine Bandbreite, die mindestens so groß wie die Bandbreite aller Eingänge zusammen ist, dann kompensiert er die fehlende Permutationsfähigkeit über die Zeit. Einfache Switches basieren in der Regel auf einer Busarchitektur mit hoher Bandbreite, da diese vom Schaltungsaufwand geringer ist. Dabei fließen die Pakete von den Eingängen über den ersten Bus an einen zentralen Puffer und von dort über einen zweiten Bus zu den Ausgängen. So arbeitet beispielsweise Realteks Low-Cost-Controller RTL 8308, der acht Ports mit 100 MBit/s enthält und mit einer Busbreite von zwei Bit pro Port und einer Taktrate von 50 MHz arbeitet. Für High-End-Switches kommen häufig Crossbars mit zentraler oder verteilter Pufferung zum Einsatz, die in der Regel mittels speziell konstruierter Chips (Application Specific Integrated Circuits, ASICs) aufgebaut werden. Wie viele Verbindungen ein Switch simultan schalten muss, hängt von seiner Port-Anzahl ab. Im schlimmsten Fall empfangen alle Anschlüsse mit voller Geschwindigkeit. Dabei muss die interne Bandbreite für Non-Blocking so groß sein wie die Bandbreite aller Ports zusammen. Bei einem FastEthernet-Switch mit acht Anschlüssen ergeben sich beispielsweise 800 MBit/s. 8 Crossbar-Architektur Die bestmögliche Performance erzielt man mit der Crossbar-Architektur, die jedoch eine hohe Hardwarekomplexität erzwingt. Sie gestattet ohne Rekonfiguration blockierungsfreie Permutation sowie beliebig viele Multicast- wie auch Broadcast-Verbindungen. Der Verteiler besteht dabei aus vertikalen und horizontalen Bussen, die an jedem Kreuzungspunkt über Schalter verbunden sind. Wenn auch bei einer Crossbar keine internen Konflikte auftreten können, muss man doch mögliche Ausgangskonflikte berücksichtigen. Die minimiert man durch Pufferung. Sie speichert Daten gegebenenfalls zwischen, falls der Zielausgang gerade belegt sein sollte und schickt ein Signal an die Steuerlogik. Die wiederum entscheidet, welches Paket als nächstes an den Ausgang weitergeleitet wird. Dabei bestimmt letztendlich die Organisation des Puffers die Leistungsfähigkeit eines CrossbarSwitches. 9 Pufferung von Daten Die Zwischenspeicherung kann man auf vier Weisen organisieren: an den Eingängen, den Ausgängen, verteilt oder zentral. Schaltungstechnisch ist die Eingangspufferung die einfachste Form. Sie hat allerdings den Nachteil, dass Frames nicht direkt weitergeleitet werden können, wenn in verschiedenen Eingangspuffern Frames für den Ausgang X vorliegen. Dann blockieren sich die Puffer gegenseitig: Pakete für andere Ziele können so lange nicht weiterlaufen, bis die Frames für Ausgang X herausgegangen sind. Arbeitet man hingegen mit Ausgangspuffern, die nur Frames speichern, die zum gleichen Zielport gehören, kann eingangsseitige Head-of-Line-Blockierung nicht auftreten. Das stellt jedoch an das Verteilsystem erhöhte Anforderungen, weil an den Eingängen möglicherweise Frames für denselben Zielport anstehen. In diesem Fall muss das Verteilungssystem die Pakete schnell genug zum Ausgangspuffer weiterleiten können. Bei einem Crossbar-Switch kann man beide Probleme mit einer verteilten Pufferarchitektur vermeiden, bei der jeder Kreuzungspunkt einen eigenen Speicher besitzt. Dadurch steigt aber der Hardware-Aufwand immens. Effizienter ist ein zentraler Speicher. Er nimmt hereinkommende Frames über einen Multiplexer entgegen und gibt sie über einen Demultiplexer an den Zielausgang weiter. Dieses Vorgehen eignet sich besonders für SingleChip-Lösungen, sie kommen bei einem 8-Port-Switch typischerweise mit zwei MBit Gesamtspeicher aus. Ungünstig ist die Zentralpufferung jedoch, wenn ein Ausgang Y - beispielsweise einer, an dem ein Server hängt häufiger Frames erhält als die anderen. Dabei kann der Zentralpuffer mit Paketen voll laufen, weil Ausgang Y sie nicht schnell genug abnehmen kann. Das kann soweit führen, dass der Zentralpuffer keinen Platz mehr für Frames an andere Ausgänge hat. Um dies zu vermeiden, begrenzt man üblicherweise die Speichermenge, die ein Ausgang belegen darf. 10 Cut-Through Beim Cut-Through beginnt der Switch mit der Ausgabe des Datenstroms auf den Zielport, sobald er diesen über die Zieladresse identifiziert hat, also schon nachdem die ersten Bytes eines Pakets hereingekommen sind. Das macht Cut-Through zum schnellsten Verfahren. Ein Nachteil liegt jedoch darin, dass fehlerhafte oder beschädigte Frames ungehindert durchlaufen und auch auf der Ausgabeseite eine an sich unnötige Belastung des LAN darstellen. 11 Store & Forward Hier liest der Switch erst das vollständige Frame ein, speichert es und testet die Richtigkeit anhand der Prüfsumme (CRC). Ist das Frame fehlerfrei, gibt der Switch es auf den Zielport aus, wenn nicht, verwirft er es. Wegen der Zwischenspeicherung ist Store-and-Forward grundsätzlich langsamer als Cut-Through, dafür minimiert es die Netzbelastung mit fehlerhaften Paketen. Außerdem kann ein Store-and-Forward-Switch Frames zwischen unterschiedlich schnellen Netzsegmenten beispielsweise von 10 auf 100 MBit/s - vermitteln. 12 Adaptive Cut-Trough Das Adaptive-Cut-Through-Verfahren vereint die Vorteile der anderen Methoden. Nach der Startphase setzt der Switch zunächst das schnellere Cut-Through ein, prüft jedoch auch dabei anhand der CRC die Fehlerfreiheit. Bei Überschreiten einer festgelegten Fehlerschwelle schaltet er auf Store-and-Forward um. Geht die Fehlerrate später wieder zurück, dann kommt erneut Cut-Through zum Zug. So erreicht man ein Optimum zwischen Performance und Fehlerfreiheit. Adaptive-Cut-Through kommt derzeit nur bei High-End-Switches zur Anwendung, die eine einzige Datenrate unterstützen. Ferner gibt es Implementierungen, bei denen das Switching-Verfahren von der Paketlänge abhängt, falls keine Anpassung der Datenrate notwendig ist. Längere Frames leitet der Switch nach dem Empfang der ersten 512 Bytes per Cut-Through weiter. Kürzere Pakete behandelt er mittels Store-and-Forward. Damit optimiert man dynamisch die Latenz, die sich vor allem bei längeren Frames negativ auswirkt. 13 Fragment Free Ein weiterer Ansatz ist FragmentFree-CutThrough, das Cisco eingeführt hat. Es geht davon aus, dass Übertragungsfehler in der Regel innerhalb der ersten 64 Byte auftreten (Kollision). Dabei liest ein Switch zunächst 64 Bytes ein, bevor er sie per CutThrough weiterreicht. 14 Latenz Verzögerungen, die Frames bei der Weiterleitung erfahren, erfasst man mit der Latenz. Das ist bei Store-andForward-Switches die Zeit, die zwischen dem letzten Bit beim Empfang und dem ersten Bit beim Ausgeben verstreicht (LIFO Latency, Last In First Out). Anders dagegen beim Cut-Through: Hier misst man die Latenz zwischen dem ersten empfangenen Bit und dem ersten ausgesendeten Bit (FIFO Latency, First In First Out). Diese unterschiedlichen Definitionen erschweren auf den ersten Blick einen direkten Vergleich. In den Datenblättern der Hersteller hat ein Store-and-Forward-Switch bei 100 MBit/s typischerweise eine Latenz von 10 bis 18 µs, ein Cut-Through-Gerät jedoch zirka 35 µs. Das erscheint zunächst als Widerspruch zur Aussage, dass CutThrough schneller als Store-and-Forward ist. Berücksichtigt man aber die unterschiedliche Messmethode, dann stimmt das Bild wieder: Ein 512 Byte langes Fast-Ethernet-Paket braucht rund 41 µs. Es ist per Cut-Through nach etwa 76 µs (Latenz plus Frame-Dauer) beim Empfänger, per Store-and-Forward dagegen erst nach 92 bis 100 µs (Latenz plus zweifache Frame-Dauer, vollständiges Empfangen und Wiederaussenden). 15 Flow-Control Um einen Speicherüberlauf und daraus folgendes Verwerfen von Frames zu vermeiden, wurde die so genannte Flow-Control im Standard IEEE 802.3x eingeführt: Droht ein Puffer überzulaufen, kann ein Switch ein angeschlossenes Gerät mittels PauseFrames auffordern, vorübergehend keine weiteren Frames zu senden. Pause-Frames sind spezielle MAC-Control-Pakete, die als Multicast an die festgelegte Adresse 01-80-C2-00-00-01 gehen und im Length/Typ-Feld den Wert 88-08 enthalten. Ob bei einer Verbindung Flow-Control angewendet wird, entscheiden die Kommunikationspartner während des Link-Aufbaus über die Auto-Negotiation-Funktion. Üblicherweise beherrschen alle Gigabit-Ethernet- und eine Vielzahl von Fast-EthernetKomponenten das Verfahren. Flow-Control funktioniert grundsätzlich nur im Vollduplexmodus. Bei Ports, die halbduplex arbeiten, können Switches stattdessen Back-Pressure verwenden, das auf der Simulation von Kollisionen beruht. Der Switch sendet bei drohendem Überlauf ein JAM-Signal aus, was die angeschlossene Komponente veranlasst, ihren Sendevorgang abzubrechen und ihre Daten nach einer bestimmten Wartezeit erneut zu schicken. 16 Content Switching Neben reinen Layer-2-Geräten gibt es auch zunehmend Layer-3-Switches, die Adressinformationen der nächst höheren Protokollebene auswerten und für die Wegwahl nutzen können. Der Name Switch ist für solch ein Gerät leicht irreführend, da es sich auf der dritten OSI-Ebene um Routing handelt. In der Regel unterstützen Layer-3-Switches IP-basiertes Routing, wobei sie Protokolle wie RIP (Routing Information Protocol), RIPv2 und OSPF (Open Shortest Path First) nutzen. Außerdem gibt es Produkte, die beispielsweise Routing für NovellProtokolle wie IPX/SPX unterstützen. Herkömmliche Router haben gegenüber Switches eine höhere Latenz. Leistungsfähige Layer-3-Switches erledigen hingegen das Routing mit Wire-Speed, weshalb sie traditionellen Routern inzwischen den Rang ablaufen. Die nächste Steigerung sind Layer-4- bis Layer-7-Switches, die für die Wegwahl Informationen der höheren OSI-Schichten nutzen (Content-Switching). So werten Layer-4-Switches beispielsweise fest definierte Ports wie Port 80 (HTTP-Verkehr) aus und leiten Daten dafür an einen Webserver weiter. Layer-7-Switches gehen noch einen Schritt weiter und werten Anwenderinformationen aus, indem sie nach Schlüsselinformationen, zum Beispiel spezielle Cookies, in den Nutzdaten suchen. Generell geht es beim Content Switching um eine inhaltsbezogene Optimierung des Datenverkehrs. Ein Content-Switch würde Datenverkehr zu Servern, Firewalls und Massenspeichern erkennen und gegenüber dem Anwender als virtueller Server erscheinen, hinter dem sich mehrere Server oder ein Cluster verbirgt. Solches Vorgehen ermöglicht neben der Optimierung der Reaktionszeiten auch eine höhere Ausfallsicherheit, indem Last und Daten auf mehrere Server verteilt wird. Da Wegwahl und Ausführungsentscheidung in Leistungsgeschwindigkeit eine hohe Rechenleistung erfordern, setzen Content-Switches auf einen oder mehrere RISC-Prozessoren, gekoppelt mit einem großen Speicher. Derartige High-End-Lösungen sind besonders für Web-Hosting-Infrastrukturen und E-Commerce-Transaktionen interessant. 17 VLANs Die meisten managebaren Switches bieten Virtual Bridged Local Area Networks, kurz VLANs, an. Diese stellen, auf der MAC-Ebene implementiert, eine Gruppierung von bestimmten Stationen innerhalb des gesamten LANs dar. Der Vorteil: Das Netzwerk wird in mehrere Broadcast-Domänen aufgeteilt. Außerdem kann man die Datensicherheit verbessern, da nur die Teilnehmer eines VLAN beispielsweise die Mitarbeiter der einzelnen Abteilungen eines großen Unternehmens - untereinander Daten austauschen können. 18 VLANs Für die Umsetzung gibt es zwei Ansätze: Die einfachste Variante sind port-basierte VLANs, bei denen der Switch bestimmte Ports einem VLAN zuordnet. Er sendet BroadcastFrames nur noch an die Ports aus, die zu dem VLAN gehören, aus dem sie stammen. Für Switch-übergreifende VLANs existiert ein IEEE-Standard (802.1p/Q). Hierbei verlängert man den EthernetFrame um vier Bytes und packt zusätzliche Informationen in den Header, die den Datenaustausch innerhalb der VLANs regeln (VLANTagging). Damit kann man VLANs über mehrere Switches hinweg ausdehnen, vorausgesetzt, alle beteiligten Switches können die VLAN-Informationen interpretieren und die Treiber auf den vernetzten Rechnern setzen die VLANInformation in die Frames. 19 Class of Service High-End-Switches bieten häufig auch Quality-of-Service-Funktionen (QoS), mit denen man den weiterzuleitenden Frames unterschiedliche Prioritäten einräumen kann. Dieses Feature wird mit dem Aufkommen von Voice-over-IP (VoIP, LAN- beziehungsweise Internet-Telefonie) und Videostreams immer wichtiger, weil vor allem Sprache gegenüber zu hohen Latenzen sehr empfindlich ist. Mittels QoS kann man für solche Anwendungen Bandbreite reservieren und bestimmte Frames priorisieren, was jedoch garantierte Verbindungseigenschaften erfordert. Da dies jedoch beim paketvermittelten Ethernet nicht hundertprozentig umsetzbar ist, spricht man eher von Class of Service, kurz CoS, das bei Ethernet bereits auf der MAC-Schicht realisierbar ist: Innerhalb des zwei Byte langen VLAN-Tags sind drei Bits für acht unterschiedliche Prioritäten vorgesehen. Damit ein Switch unterschiedliche Prioritäten realisieren kann, muss er intern verschiedene Queues (Pufferschlangen) bereitstellen, für jede Priorität eine eigene. Stehen in der Queue mit der höchsten Priorität Daten an, so leitet der Switch diese bevorzugt weiter. Nachdem alle mit der höchsten Priorität abgearbeitet sind, kommt die nächst niedrigere Queue dran. Dabei muss man freilich darauf achten, dass Queues mit niedrigerer Priorität nicht zu stark unterdrückt werden. Dazu ordnet man jeder Queue einen Bandbreitenanteil zu und sorgt dafür, dass auch für die am wenigsten dringende Queue eine gewisse Restbandbreite übrig bleibt. 20 Link Aggregation Bei Link Aggregation (IEEE 802.3ad) bündelt man im Punkt-zu-Punkt-Betrieb - also beispielsweise zwischen zwei Switches oder Switch und Server - mehrere Leitungen, um die Bandbreite zu erhöhen oder Redundanz zu schaffen. Das funktioniert grundsätzlich nur bei Ports mit derselben Datenrate und im Vollduplexbetrieb. Die zusammengefassten Anschlüsse bilden logisch betrachtet einen einzelnen Port mit vervielfachter Bandbreite. Fällt nun eine der Strecken aus, kann der Datenverkehr über die restlichen Leitungen weiterlaufen. Anfangs wurde diese Parallelschaltung auch als Trunking oder Channel Bundling bezeichnet, wobei die Hersteller unterschiedliche Lösungsansätze implementierten, die zueinander inkompatibel waren. Mit der Verabschiedung des IEEE-Standards entstand eine einheitliche Lösung unter dem Begriff Link Aggregation. Link Aggregation kann man entweder für Verbindungen zwischen Switches einsetzen oder für Verbindungen zwischen einem Switch und einem Server, der mehrere Netzwerkkarten enthält. Letzteres ist derzeit allenfalls bei Fast-Ethernet (100 MBit/s) sinnvoll, denn schon eine Gigabit-Ethernet-Karte reizt den verbreiteten PCI-Bus bis zum Anschlag aus. Außerdem braucht man mit heute üblichen Betriebssystemen schon eine CPU der 2-GHz-Klasse, um nur einen Gigabit-Ethernet-Kanal auszulasten. Bei Verbindungen zwischen größeren Switches kann dagegen die Bündelung mehrerer Gigabit-Strecken Engpässe aufweiten. Bei einfachen Geräten lassen sich bis zu vier Ports zusammenfassen, bei HighEnd-Switches gar 36 oder mehr. 21 Spanning-Tree Bei größeren LANs steht neben der Durchsatzoptimierung auch die Ausfallsicherheit auf der Agenda. Letztere kann man durch Redundanzschaffung verbessern. Dabei verbindet man alle Switches in einem Firmen-LAN über einen oder mehrere Ringe auf unterschiedlichen physischen Wegen, was eigentlich verboten ist. Damit in solchen Schleifen keine Frames endlos kreisen, kommt das Spanning-Tree-Verfahren zum Einsatz. Es ist im IEEE-802.1d-Standard für die MAC-Ebene spezifiziert und basiert auf dem Austausch von Konfigurationspaketen (Bridge Protocol Data Units, BPDU), die über Multicast Frames an eine bestimmte Adresse (01-80-C2-00-00-10) gehen. 22 Spanning-Tree Über BPDUs nehmen die beteiligten Switches eine Topologiekontrolle vor, die redundante Strecken erkennt und zwischen diesen die optimale Route ermittelt, wobei sie unter anderem die möglichen Datenraten und Entfernungen berücksichtigen. Diese Parameter - wie auch Prioritäten und Wegekosten - sind normalerweise konfigurierbar, sodass der Netz-Admin bevorzugte Routen festlegen kann. Die Ports der redundanten Strecken werden zunächst abgeschaltet und erst beim Ausfall der Hauptroute reaktiviert. Jeder Spanning-Tree-fähige Switch muss dazu über eine eigene Bridge-ID und MAC-Adresse verfügen. 23 Spanning-Tree BPDUs enthalten genügend Informationen, damit Bridges folgendes machen können: 1. Auswählen einer einzelnen Bridge unter allen Bridgesauf allen LAN-Segmenten als RootBridge 2. Berechnendes kürzesten Pfads von sich selbst zur Root-Bridge 3. Für jedes LAN-Segment Auswählen einer designierten Bridge unter den Bidges, die sich auf diesem Segment befinden. Die designierte Bridge ist die, die der Root-Bridge am nächsten ist. Sie leitet die Pakete von diesem Segment zur Root Bridge 4. Auswählen eines Ports (den Root Port), der den besten Pfad von den Bridges selbst zur Root-Bridge bietet 5. Auswählen von Ports, die in den Spanning-Tree eingebunden werden. Die ausgewählten Ports sind der Root-Port und alle Ports, auf denen die Bridge als designierte Bridge ausgewählt wurde 24 Spanning-Tree-Port-Stadien Um ein schleifenfreies Netzwerk zu bauen, zwingt Spanning Tree die Ports dazu, folgende Stadien zu durchlaufen: Blocked – Alle Ports beginnen im Blocked-Modus, um Bridging-Schleifen zu verhindern. Der Port bleibt im Blocked-Modus, wenn Spanning Tree bestimmt, dass es zur Root Bridge einen besseren Weg durch einen anderen Port gibt Listen – Der Port kommt aus dem Blocked-Stadium in das Listen-Stadium. in dieser Zeit versucht er zu lernen, ob es noch andere Wege zur Root Bridge gibt. Im Listen-Stadium kann ein Port nur hören, aber keine Daten verschicken oder empfangen. Der Port darf auch keine der Informationen, die er hört in seine Adress-Liste eintragen. Im Listen-Stadium hört der Port nur zu, um sicherzustellen, dass es keine Bridging-Schleifen gibt. Learn – Das Learn-Stadium ist dem Listen-Stadium sehr ähnlich. Der einzige Unterschied besteht darin,dass der Pprt das, was er hört, in seine Tabelle eintragen darf. Er darf aber immer noch nicht Daten empfangen oder verschicken. Forward – In diesem Stadium kann der Port Daten senden und empfangen. Ein Port wird nicht in das Forwarding-Stadium gesetzt, wenn es noch überflüssige Links gibt oder wenn noch nicht feststeht, dass es keinen besseren Weg gibt. Disabled – Der Switch kann einen Port aus einer Vielzahl von Gründen abstellen . Fehler wie Hardware-Probleme und Löschen des nativen VLANs sowie administrative Gründe können hierzu führen. 25 Quellen: Cisco Semester 3 Multilayer Switched Netzwerke diverse c‘t Artikel Bridges, Router, Switches (CISCO PRESS) Die Autorin Radia Perlman gehört zu den 25 einflussreichsten Netzwerkentwicklern aller Zeiten (Communication Magazine) und hat unter anderen den wichtigen Spanning-Tree-Algorithmus erfunden. Sie hält über 50 Patente im Bereich Netzwerke. 26 Noch Fragen??? 27