Grundsätzliche technische Merkmale von LANs am Beispiel eines Lehrstuhl-Netzes 4 Physikalische und logische Merkmale von lokalen Computernetzen (LAN) 4.1 Grundsätzliche technische Merkmale von LANs am Beispiel eines Lehrstuhl-Netzes Die Verkabelung ist der augenfälligste physikalische Aspekt eines Computernetzes. Dabei hat die örtliche Anordnung (Topologie) der Computer, die durch das Netz verbunden werden, einen maßgeblichen Einfluss. Ein lokales Netz mit Koaxialkabel und Bus-Topologie Das kann man am Beispiel eines Netzes verdeutlichen, das die Computer eines Lehrstuhls der Ruhruniversität lokal vernetzt (LAN, local area network). Der Hauptzweck des Netzes ist, die Computer der Organisationseinheit Lehrstuhl auf einer Ebene eines Gebäudes untereinander und - über einen speziellen Computer, der als „Schleuse“ dient - mit den Computern anderer lokaler Netze des Gebäudes bzw. der Universität bzw. mit den Computern außeruniversitärer Netze zu verbinden. Bild 4.1: Beispielhaftes Netz mit Bus-Topologie und Koaxialkabel Lehrstuhl für Datenverarbeitung der RUB (bis 2000): mit Koaxialkabel verbundene TVerbinder (rote Linien) und Repeater zur Signalregenerierung (rote Rechtecke) Wenn die Arbeitsräume nebeneinander angeordnet sind, ergibt die Verlegung eines Kabels von Anschlussstelle zu Anschlussstelle die kürzeste Gesamtlänge. Ein geeignetes Übertragungsmedium ist ein Koaxialkabel, das mit Hilfe von sog. TVerbindern die Weiterleitung und die Ein/Auskopplung des elektrischen Signales ermöglicht. Man bezeichnet eine linienhafte Topologie auch als Bus-Topologie. Die Eignung eines Übertragungsmediums für die Datenübertragung wird daran gemessen, wie viele Daten pro Sekunde (konkret: wieviel Bit pro sec) darüber fließen können. Ein Kabel eines bestimmten Typs lässt mit einer gegebenen Länge und einer gegebenen Zahl von Anschlüssen eine bestimmte maximale Übertragungsgeschwindigkeit zu. Darüber hinaus ist die Übertragung wegen Verzerrungen des elektrischen Signales nicht mehr sicher. Man kann also nicht beliebig die Kabelstrecken verlängern bzw. die Anzahl der Anschlüsse vergrößern. Sobald man die zulässigen Maximalwerte überschreitet, muss man eine Einheit zur Regenerierung des elektrischen Signales einfügen. In Netzen, die als Übertragungsmedium Koaxialkabel und den Ethernet-Standard verwenden, nennt man diese Einheiten Repeater. Computertechnik 100 Jacob Grundsätzliche technische Merkmale von LANs am Beispiel eines Lehrstuhl-Netzes Die Zusammenfassung der physikalischen Funktionen in einer Funktionsebene: physikalische Schicht (physical layer) Die Verkabelung ist der augenfälligste Aspekt der physikalischen Eigenschaften einer Computervernetzung. Die elektrischen Eigenschaften sind zwar nicht unmittelbar sichtbar, aber genauso wichtig. Die Gesamtheit der elektrischen Übertragungstechnik (Kabel, Repeater, Anschaltungen in den Teilnehmern) kann man in einem Schichtenbzw. Ebenenmodell als die unterste operative Dienstleistungsebene ansehen, die sog. physikalische Schicht bzw. Ebene (physical layer, layer 1). Darüber liegen hierarchisch gegliederte, auftraggebende Schichten (Ebenen). Die Zusammenfassung der Funktionen zur gesicherten Datenübertragung in einer Funktionsebene (data link layer) Am Bild 4.1 kann man ein grundsätzliches Problem erkennen, das den Zugriff zum Übertragungsmedium (medium access control, MAC) betrifft. Im Vollausbau ist an jedem T-Stück ein Computer angeschlossen, der unabhängig von jedem anderen betrieben wird. Damit ist es möglich, dass gleichzeitig mehrere Computer eine Übertragung auf dem Medium wünschen. Aber nur ein einziger darf – aus physikalischen Gründen – ein elektrisches Signal auf dem Medium einprägen. Die Steuerung der Belegung des Übertragungsmediums ist der eigentlichen physikalischen Übertragung übergeordnet, weil diese wie eine Dienstleistungsinstanz der Zugriffskontrolle behandelt werden kann. Diese Auftragsebene stellt nicht nur den Zugriff zum Medium her, sondern überwacht danach die Datenübertragung von Teilnehmer zu Teilnehmer (data link). Die Funktionen dieser Ebene werden unter dem Begriff Datensicherungs-Ebene (data link layer, layer2) zusammengefasst. Ein lokales Netz mit Twisted-Pair-Kabeln und Stern-Topologie Das Netz mit der Verkabelungsstruktur von Bild 4.1 hat den Vorteil einer preisgünstigen Realisierung. Aber es hat den Nachteil, dass die maximale Übertragungsgeschwindigkeit 10 Megabit/sec war. Als die 100 Megabit/sec-LANs aufkamen, entsprach es nicht mehr dem Stand der Technik und wurde ersetzt. Das neu installierte Netz hat eine Stern-Topologie (Bild 4.2). Diese ergibt sich dadurch, dass man eine zentrale Verteilereinheit einzeln mit den ortsfesten Steckdosen in den Arbeitsräumen verbindet (Punkt zu Punkt Verbindungen). Die Kabel sind keine Koaxialkabel, sondern Twisted Pair Kabel. Bild 4.2: Beispielhaftes Netz mit Stern-Topologie und Twisted-Pair-Kabel Lehrstuhl für Datenverarbeitung der RUB (nach 2000): Punkt-zu-Punkt-Verbindungen mit Twisted-Pair-Kabeln (rote Linien), zentrale Verteilereinheit (großes rotes Rechteck) und ortsfeste Steckdosen (rote kleine Quadrate) Computertechnik 101 Jacob Grundsätzliche technische Merkmale von LANs am Beispiel eines Lehrstuhl-Netzes Jeder Teilnehmer hat eine eigene Punkt-zu-Punkt-Verbindung zur zentralen Verteilereinheit. Das bedeutet, dass die Teilnehmer diese Verbindungen unabhängig voneinander und gleichzeitig für Übertragungen benutzen können, wenn die zentrale Verteilereinheit das zulässt. Die Verteilereinheit: Switch Eine solche Verteilereinheit ist für den Datenverkehr einer genau definierten Menge von Teilnehmern zuständig. D.h. auf der physikalischen Ebene, dass es eine genau definierte Anzahl von Anschlussstellen (Ports) gibt, die über Einzelkabel mit einer genau definierten Menge von Anschlussdosen und dort mit einer genau definierten Menge von angeschlossenen Computern verbunden ist. Jeder Computer hat seine eigene Übertragungstrecke (Strang) zur Verteilereinheit. In der Verteilereinheit muss das Problem der „Wegschaltung von Port zu Port“ gelöst werden; denn jeder Teilnehmer kann zu jedem frei wählbaren anderen in der Gruppe Daten übertragen. Die freie Wählbarkeit setzt eine eindeutige Unterscheidbarkeit, also Identifikation voraus. Als Identifikatoren verwendet man eindeutige Adressen aus einer genau vorgegebenen Menge von Adressen (address space, Adressraum bzw. MAC-Adressraum). Die Verteilereinheit kann die Wegschaltung auf der Basis der Angabe von Quell- und Zieladresse eindeutig ausführen. Eine Verteilereinheit, die gleichzeitig Datenübertragungen für mehrere Paare einer durch ihren Adressraum genau umgrenzten Gruppe von Teilnehmern ausführen kann, wird Switch genannt. Elementar-Netze Die Bildung von Gruppen von Netzteilnehmern mit ihren individuellen Adressräumen ist die elementarste Stufe der Gruppenbildung. Wenn alle Mitglieder der Gruppe zusammen angesprochen werden, spricht man von Broadcast. Die Gruppe wird auch als Broadcast-Domäne bezeichnet. Ein Netz einer solchen Gruppe wird hier Elementar-Netz genannt. Im Bild 4.2 wird der Plan einer Etage angegeben, in der es mehrere (nicht gezeigte) Organisationseinheiten gibt, die jede für sich einen eigenen Broadcast-Bereich beanspruchen, d.h. ein eigenes Elementar-Netz haben. Alle Kabel dieser Bereiche sollen am Ort der symbolisch dargestellten zentralen Verteilung zusammenlaufen. Jedes Elementar-Netz erhält seine eigene Switch-Funktion. Das muss nicht bedeuten, dass jede Switch-Funktion ein eigenes Switch-Gerät bekommt. Es gibt auch Switch-Geräte, die für die individuellen Switch-Funktionen mehrerer ElementarNetze konfigurierbar sind. Die physikalische Funktionsebene zur Datenübertragung zwischen ElementarNetzen (network layer) Damit wird das Problem deutlich, wie man Datenübertragung von Elementar-Netz zu Elementar-Netz ausführen soll. Auf der Ebene der Steuerung der Datenübertragung innerhalb eines Elementar-Netzes kann dieses Wegfindungsproblem nicht gelöst werden. Der Datenübertragungsweg oder die Route zwischen den Elementar-Netzen muss auf einer Auftragsebene darüber bestimmt werden. Computertechnik 102 Jacob Grundsätzliche technische Merkmale von LANs am Beispiel eines Lehrstuhl-Netzes Die Erreichbarkeit von Elementar-Netzen: Router Die Einheiten zur Bestimmung der Route zwischen den Elementar-Netzen wird als Router bezeichnet. Man kann die Funktionen des „Switchens“ und „Routens“ auf einem einzigen konfigurierbaren Gerät realisieren. Ein solches Gerät bezeichnet man auch als Layer3-Switch. Man kann sie aber auch auf getrennten Geräten realisieren. Dann kann man je eine Verbindung zwischen einer Switch-Funktion und dem Gerät mit der Router-Funktion vorsehen. In Bild 4.2 erkennt man an der Verteilereinheit (Switch) das Symbol einer offenen Datenverbindung. Das ist die Darstellung einer möglichen Verbindung zu einem Router. Bild 4.3 zeigt, wie die Switches der Elementar-Netze mit dem Router verbunden werden. Im konkreten Fall werden Lichtfaser-Kabel zu einem zentral gelegenen Router verwendet. Der zentrale Router stellt die Verbindung der Elementarnetze untereinander her. Router stellen universitätsweit die Verbindung zwischen den Elementarnetzen der einzelnen Organisationseinheiten her. Die wichtigste für den Datenverkehr nach außen ist das Rechenzentrum. Dort stehen die „Schleusen“ zu den Netzen außerhalb der RUB zur Verfügung. LAN i-1 Switch i-1 LAN i Switch i LAN i+1 Switch i+1 Router Bild 4.3: Die Erreichbarkeit von Elementar-Netzen über Router Aus der Sicht eines Routers ist die Frage der Erreichbakeit eines Endteilnehmers einfach zu lösen, wenn eine streng baumartige Struktur (Baum-Topologie) gewählt wird, wie sie in Bild 4.3 und Bild 4.2 zusammen angenommen wird. Dabei gibt es nur eine einzige mögliche Route. - Mehrere alternative Routen zwischen ElementarNetzen sind wichtig, wenn man die Erreichbarkeit im Falle von Geräteausfällen oder Überlastungssituationen weiterhin gewährleisten möchte. Router beobachten den Betriebszustand der Routen mit Hilfe eines speziellen Meldesystemes und wählt die „beste“ Route. Erweiterung von Elementar-Netzen durch Hubs Das Beispiel in Bild 4.4 zeigt den Fall einer Erweiterung: in einem Hörsaal soll kurzfristig eine preisgünstige Lösung realisiert werden, die sechs netzfähige Computer-Arbeitsplätze anbietet. Computertechnik 103 Jacob 10MBit/sec Ethernet-Netze Dazu stehen Verteilereinheiten zur Verfügung, die genau so wie Switch-Einheiten eine sternförmige Verkabelung mit Twisted-Pair-Kabeln anbieten. Im Unterschied zum Switch lässt diese Verteilereinheit aber zu einem beliebigen Zeitpunkt nur ein einziges Sender/Empfänger-Paar zu. Ihre Betriebsweise entspricht also der eines Koaxialkabels. Sie ist dementsprechend langsamer als ein Switch, hat aber den günstigeren Preis. Die Verteilereinheit wird Hub genannt. Hub Bild 4.4: Elementar-Netz mit Hub-Erweiterung Im folgenden sollen einige technische Einzelheiten zu den grundsätzlichen Netzmerkmalen untersucht werden. Der Schwerpunkt liegt auf hardwarenahen Merkmalen. Die vollständige Behandlung erfolgt in einschlägigen Vorlesungen, z.B. Tüchelmann/Computernetze. 10 MBit/sec Ethernet-Netze mit Koaxialkabel oder Twisted Pair sind heute gegenüber den 100 MBit/sec mit Twisted-Pair-Kabeln nicht mehr konkurrenzfähig. Sie sind aber immer noch die preisgünstigste Verkabelungsalternative. 4.2 10MBit/sec Ethernet-Netze Netze mit Koaxial-Kabeln Die Netze dieses Typs werden in (linienhafter) Busstruktur aufgebaut. Sobald die zulässige Länge eines Stranges (Segmentes) überschritten wird, setzt man zur Signalregeneration Zwei-Port- oder Multi-Port-Repeater (Bild 4.5). Bild 4.5: Beispiel-Topologie eines 10Base2-Ethernets In einer solchen Anordnung kann eine beliebige Nutzer-Einheit (Station) mit einer beliebigen anderen in Beziehung treten und über die Kommunikationseinrichtung Koaxialkabel-Repeater Daten übertragen. - Die Übertragungseinrichtung ist als Ganzes ein „shared medium“, ein allen Stationen gemeinsames Betriebsmittel, dessen sich die Sendewilligen nur zeitlich nacheinander bedienen können. Computertechnik 104 Jacob 10MBit/sec Ethernet-Netze Signalübertragung zwischen den Network-Interface-Controllern der Stationen Die Einheit für das Senden/Empfangen in einer Station ist der Network-InterfaceController (NIC). Eine Sender/Empfänger-Schaltung kann Spannungspegel auf die Koaxialleitung einprägen (line driver, Transmitter) und ankommende Spannungspegel empfangen (Receiver). Die Kombination heißt auch Transceiver (Bild 4.6). Bild 4.6: Koax-Transceiver als Sender/Empfängerschaltungen Bild 4.7 macht plausibel, dass alle NICs (inklusiv dem Sendenden selbst) „mithören“, was einer von ihnen sendet. Anpassung Datenpfad in der Verteilereinheit (Repeater) Anpassung NIC NIC NIC Computer Computer Computer NIC NIC NIC Computer Computer Computer Bild 4.7: Beispielhafte Stromkreise in einem Ethernet-Netz Der Treiber am einen äußersten Strangende prägt das Signal ein, messbar am Spannungspegel (rot) gegen ein Bezugspotential (blau). Das Signal läuft als Spannungsdifferenzsignal zwischen dem Innenleiter und dem (konzentrisch darum liegenden) Außenleiter bis zu beiden Leitungsenden. An den Empfängerschaltungen der NICs und schließlich auch an der des Repeaters bildet sich die gleiche Spannungsdifferenz, da das „heiße“ Signal auf die gleiche Weise auf das Bezugspotential bezogen wird wie beim Sender. Der Empfang des Spannungsdifferenzsignales darf das ursprünglich gesendete Signal nur wenig verfälschen. Genauer am Beispiel der Repeater-Schnittstelle: Dort kann man die beiden AnschlussPole erkennen. Prägt man an diesen Polen einen bestimmten Spannungsverlauf ein, so ergibt sich als Reaktion ein bestimmter Stromverlauf. Diese Spannung-zu-Strom-Wirkung bezeichnet man als Eingangswiderstand der Schaltung. Computertechnik 105 Jacob 10MBit/sec Ethernet-Netze Er ist maßgeblich für die Wirkung der Parallel-Schaltung der Empfänger- und der Senderschaltung auf die Signalübertragung und repräsentiert die gesamte Schaltung für die elektrische Analyse. In diesem Zusammenhang spricht man auch von Ersatzwiderstand. Der Eingangswiderstand muss sehr groß sein, um möglichst wenig Verfälschung zu bewirken. Das Signal läuft also möglichst unverfälscht bis zum Ende der Leitung, wo der Abschluss mit einem besonders angepassten Widerstand (Wellenwiderstand) dafür sorgt, dass das Signal nicht reflektiert wird, d.h. auf der Leitung in Gegenrichtung zurückläuft. Das ist der Sinn der Symbole an den Leitungsenden im Bild 4.7. Der Repeater schaltet ein (an einem beliebigen Port) empfangenes Signal auf einen internen „Verteilerknoten“, der es an alle anderen verteilt. Auf dem Strang, über den der empfangene Datenstrom ankommt, wird nichts zurückgesendet. Der entsprechende Treiber ist nicht aktiv, während die Treiber der anderen Stränge aktiv sind. Galvanische Trennung: eine grundsätzliche Maßnahme gegen Störungen Es ist noch ein gründliche Diskussion zur Sicherung gegen Störungen notwendig. In vielen elektronischen Geräten, auch in Computern, sind der Bezugsleiter der Schaltungen und das Gehäuse leitend miteinander verbunden. Man sagt auch: der Bezugsleiter und das (elektrisch leitende) Gehäuse sind nicht galvanisch getrennt. Nun ist ein (elektrisch leitendes) Gehäuse aber immer über den Schutzleiter mit dem Erdleiter verbunden, d.h. er liegt auf Erdpotential. Das aber heißt, dass in diesen Geräten der Bezugsleiter „auf Erdpotential liegt“. Die leitende Verbindung zwischen dem Bezugspotential und dem Gehäuse eines Computers hat bei einer Vernetzung ungute Konsequenzen, wenn man keine angemessenen Maßnahmen ergreift. Da der Außenleiter des Koaxialkabels die Bezugsleiter der Stationen untereinander leitend verbindet, entstehen sogenannte Masseschleifen (Bild 4.8). Anpassung Datenpfad in der Verteilereinheit (Repeater) Anpassung NIC NIC NIC Computer Computer Computer NIC NIC NIC Computer Computer Computer StörspannungsQuelle - + Ausgleichsstrom Bild 4.8: Beispiele für Masseschleifen, ein Phänomen bei fehlender galvanischer Trennung Computertechnik 106 Jacob 10MBit/sec Ethernet-Netze Störungen entstehen dadurch, • dass die Erdpotentiale der Gebäude (in denen die Stationen betrieben werden) unterschiedlich sein können und • dass in solchen Schleifen Störspannungen durch Induktion entstehen. Man stelle sich die Wirkung eines Blitzschlages im Bereich der Gebäude vor, wo die Stationen stehen. Die entstehenden Ausgleichsströme in den Schleifen bewirken nichts Gutes. Durch Induktion entstehen zwar deutlich kleinere Spannungen. Diese treiben aber ebenfalls Ströme durch die Schleifen, die dann stören, wenn sie im Innen- und Außenleiter ungleich sind. Das ist eigentlich immer der Fall ist, weil die Widerstände in den entsprechenden Strompfaden ungleich sind. Je kleiner die Pegel der empfangenen Signale sind (Nutzsignale), umso verfälschender wirkt ein Störsignal. Die Lösung heißt: galvanische Trennung. Das heißt: der gesamte Transceiver soll keine leitende Verbindung mit der übrigen Schaltung haben. Ein Mittel, die galvanische Trennung zu realisieren, sind Übertrager. Die entsprechenden Symbole sind im Bild 4.9 deutlich erkennbar. Das Signal auf der einen Seite eines Übertragers wird mit Hilfe der magnetischen Induktion auf die andere Seite übertragen, wobei die beiden Stromkreise keinen leitenden Kontakt haben. Die Übertragung geschieht meistens im Verhältnis 1:1. Anpassung Datenpfad in der Verteilereinheit (Repeater) Anpassung NIC NIC NIC Computer Computer Computer NIC NIC NIC Computer Computer Computer Bild 4.9: Galvanische Trennung im beispielhaften 10Base2-Ethernet Übertrager Der Magnetisierungskern ist in der Regel ein ringförmiger Ferrit-Toroid. Um ihn sind zwei Spulen gewickelt. Das Ganze ist in einem ICGehäuse normaler Größe vergossen. Die Mittenanzapfungen und die beiden Wicklungsenden der beiden Spulen werden mit je einem Pin des IC-Gehäuses verbunden. Computertechnik 107 Jacob 10MBit/sec Ethernet-Netze Die Mittenanzapfung teilt in zwei gleiPositive Positive Spannung Spannung che Wicklungshälften mit gleicher Windungsanzahl. Legt man an die eine Wicklungshälfte eine positive Einzelspannung gegen den Bezugspunkt Bezugsund an die andere eine gleich große potential negative Einzelspannung, so wirkt 0 Volt zwischen den beiden Endpunkten die Summe der beiden Einzel-spanNegative Negative nungen. Es fließt ein entspre-chender Spannung Spannung Gesamtstrom. Man erzeugt die gleiche Wirkung, wenn man nur die beiden zueinander invertierten Signale an die beiden Enden der Gesamtwicklung anlegt. Der Gesamtstrom erzeugt ein magnetisches Feld, das in dem ferromagnetischen Ring einen magnetischen Fluss erzeugt. Dieser Fluss durchsetzt die beiden Hälften der zweiten (sekundären) Wicklung. Maßgeblich für die Erzeugung einer Spannung in der sekundären Wicklung ist nach dem Induktionsgesetz die Änderung (!) des Flusses. Da der Strom der eigentliche Verursacher des Flusses ist, heißt das: Die Änderung des primären Stromes nach der Zeit ist maßgeblich für die Spannung, die auf der sekundären Seite erzeugt wird. Die Treiber, die den Strom für die primäre Wicklung liefern, stellen die notwendigen Stromänderungen geregelt ein, damit sie nicht unzulässig groß werden. Netze mit Twisted Pair Kabeln Ethernet-Netze mit Koaxial-Verkabelung waren und sind mit ihrer preisgünstigen Verkabelung immer noch gefragt. Der Kostenvorteil der Koaxialverkabelung ergibt sich durch die Sammelleitungsstruktur, also den Bus. Bei Twisted-Pair-Netzen ist eine sternförmige Verkabelung notwendig, die etwas aufwendiger ist. Diese hat aber den großen Vorteil, dass die Entflechtung von Datenströmen strukturell vorbereitet ist, d.h. dass sie dadurch für hohe Übertragungsraten besser geeignet ist. Bild 4.10: Beispielhafte Topologie eines 10BaseT Ethernets Hubs haben hier die gleiche Funktion wie die Multiport-Repeater im Koaxial-Netz: sie sind zentrale Verteilereinheiten, an deren Anschlussschnittstellen (Ports) die Verbindungskabel von/zu den Stationen sternförmig zusammenlaufen. Der Begriff Sternkoppler gibt das sehr anschaulich wider. Computertechnik 108 Jacob 10MBit/sec Ethernet-Netze Die Zuordnung zwischen Leitungen und Kontaktfahnen kann man im Bild 4.11 erkennen. Ein Ethernet-Twisted-Pair-Kabel nützt 4 verdrillte Doppeladern. Sind die Paare nicht einzeln geschirmt, dann spricht man von UTP-Kabeln (unshielded twisted pair). Sind die Paare einzeln geschirmt, dann spricht man von STP-Kabeln (shielded twisted pair). UTP-Kabel haben meistens einen Folienschirm, der die verdrillten Paare insgesamt ummantelt. Dann spricht man auch von FTPKabeln (foil shielded twisted pair). Die Paare sind farbkodiert und numeriert. Der Grund liegt darin, dass dieser Kabeltyp nicht nur für die Anwendung im Twisted Pair Ethernet vorgesehen ist, sondern auch für den Token Ring sowie für ATM- und ISDN-Netze. Jede Anwendung benutzt ihre eigenen funktionalen Zuordnungen. Im Ethernet gilt die folgende Zuordnung, wobei nur die Hälfte der Paare genutzt wird: orange/weiß für Transmit-positiv auf Pin 1, orange für die Transmit-negativ auf Pin 2, grün/weiß für Receive-positiv auf Pin 3, grün für Receive-negativ auf Pin 6. Die Zuordnung der übrigen Leitungen ist irrelevant, weil sie nicht genutzt werden. Das ist in gewisser Weise Verschwendung, aber es ist so. Man beachte: Die Begriffe Transmit und Receive sind aus der Sicht des Nutzer-Computers, nicht aus der Sicht des Hub oder Switch definiert! Bild 4.11: RJ45-Sockel und Stecker/Kabel für Twisted Pair-Verkabelung Elementare elektrische Codierung der Signale am Network-Interface-Controller eines Ethernet Die elektrische Codierung der Transmit- bzw. Receive-Signale erfolgt mit dem Manchester-Code: eine log. 1 wird als Signalpegel-Übergang von niedrigen Pegel zum hohen und eine log. 0 durch den umgekehrten Übergang codiert (Bild 4.12). Die Tatsache, dass man auch den Pausenzustand codieren muss, schließt nun aus, dass man den niedrigen Pegel mit 0 Volt festlegt. Man kann zwar die beiden logischen Zustände durch die festgelegten Übergänge eindeutig realisieren, nicht aber einen dritten Zustand. Das gelingt dadurch, dass man die Pegel symmetrisch ober- und unterhalb der 0 Volt definiert. Computertechnik 109 Jacob 10MBit/sec Ethernet-Netze Bild 4.12: Beispiel für eine Manchester-codierte Bitfolge an der Schnittstelle eines Ethernet-Controllers Quelle (sehr zu empfehlen): http://www.networkworld.de/service/lexikon/main.cfm Der Ethernet-Controller bildet zwei Signale: das Signal mit der originalen Manchester-Codierung und das invertierte, d.h. das am 0 Volt Pegel gespiegelte (Bild 4.13). Pos. Signal Neg. Signal Bild 4.13: Originales (positives) und invertiertes (negatives) Signal In Transmit-Richtung erzeugt ein NIC beide Signale. Die Signale werden an die Anschlüsse der Wicklungsenden des Übertragers angeschlossen (und evt. das 0Volt-Signal an die Mittenanzapfung des Übertragers). Dadurch erhält der Übertrager das symmetrische Signalpaar, das für seine vorgesehene Funktion notwendig ist. Der Übertrager erzeugt daraus auf seiner Sekundärseite das Signal, das auf die Leitung geht. Umgekehrt erzeugt der Übertrager für die Receive-Richtung aus dem empfangenen Signal das symmetrische Signalpaar für den NIC. Ein beispielhafter Network-Interface-Controller Network-Interface-Controller enthalten als Kernschaltung ein grossintegriertes IC, das alle wesentlichen Funktionen ausführt und meistens auch mit NIC bezeichnet wird. Dieses IC wird ergänzt durch die Interface-Schaltungen für die einzelnen Anwendungen, also für die Koaxialkabel- und die Twisted-Pair-Anwendung (Bild 4.14). Die sog. AUI-Anwendung ist historisch. Die Schaltung zeigt die Transmit- bzw. Receive-Signalpfade für die drei Anwendungen. Dies ist ein Beispiel für eine Bautechnik ohne getrenntes Bezugspotential an den Übertragern. Für die Koaxial-Anwendung wird ein besonderer Transceiver eingesetzt, der das „unsymmetrische“ Übertragungssignal erzeugt. Man beachte, dass die Stromversorgung dieses Transceivers galvanisch vom Bezugspotential der übrigen Schaltung getrennt sein muss. Computertechnik 110 Jacob 10MBit/sec Ethernet-Netze Bild 4.14: Beispielhafter Ethernet-Controller für drei alternative Anwendungen: die AUI Anwendung (attachement unit interface) mit 15 poligem Stecker (veraltet), die 10Base2 Anwendung mit einem Koaxialkabel, 10BaseT Anwendung mit Twisted Pair Kabel die Ethernet-NICs, die man nur für den Twisted-Pair-Einsatz entwirft, sind entsprechend einfach aufgebaut (Bild 4.15). Bild 4.15: Beispielhafte Ethernet-Netzkarten Computertechnik 111 Jacob Datenübertragung im Ethernet Elektromagnetische Verträglichkeit Beim Senden erzeugt das NIC-IC die notwendigen Übergänge des elektrischen Stromes an der NIC-nahen Wicklung des Übertragers für die Transmit-Richtung. Jeder Übergang erzeugt auf der leitungsnahen Wicklung einen Spannungspuls. Beim Empfang kommt ein Spannungspuls an der leitungsnahen Wicklung des Übertragers in Receive-Richtung an. Er wird in einen entsprechenden Spannungspuls an der NIC-nahen Wicklung gewandelt. Der Strom, der beim Senden eingeprägt wird, darf sich nicht zu schnell ändern. Eine Stromänderung stört andere elektronische Schaltungen um so mehr, je schneller sie ist. Das Induktionsgesetz, das oben für die Übertragerwirkung genutzt wurde, ist hier ein Grund für Störungen. Die Sende-Treiber sind current-slope-controlled, d.h. die Stromeinprägungen haben geregelte und begrenzte Übergangsgradienten. 4.3 Datenübertragung im Ethernet Zugriff auf das gemeinsame Übertragungsmedium in LANs mit Busstruktur Nur ein einziger Sender darf Spannungspulse auf der Koaxialleitung erzeugen. Wenn das mehr als einer tut, dann sind die (durch Überlagerung entstehenden) Spannungswerte nicht mehr eindeutig. Es entsteht „jam“. Umgekehrt muss man auch eine Sendepause erkennen können, was man durch eine entsprechende Festlegung der Spannungspulse für die 1en und 0en des Bitstromes erreicht. Im Ethernet ist die Festlegung so, dass die 1en und 0en als Übergänge zwischen zwei Spannungspegeln kodiert sind. Wenn kein Sender mehr Übergänge erzeugt, dann ist das ein Zeichen für eine Pause, also die Belegbarkeit des Mediums. Die sendewilligen NICs müssen sich dann über die Benutzung des Übertragungsmediums einigen. Kein NIC weiß etwas von dem anderen. Im Grunde können alle Sendewilligen nur beginnen und warten, was passiert. So beginnt eine Phase der „Unsicherheit“ bei der Benutzung des gemeinsamen Mediums. Durch die endliche Ausdehnung der Leitungen und die Laufzeit der Signale wird das Problem noch etwas komplizierter (Bild 4.16). Zum Zeitpunkt t0 ist Pause auf dem Koaxialkabel. NIC A hat einen Übertragungswunsch und startet seine Sendung. Das eingeprägte Signal läuft mit beinahe Lichtgeschwindigkeit nach rechts und links von dem T-Verbinder. Noch bevor das Signal bei NIC C angekommen ist, beginnt C zum Zeitpunkt t1 zu senden. Er bemerkt den Konflikt, sobald die Signalfront des anderen Senders bei ihm angekommen ist (Zeitpunkt t2). Er sendet weiter, weil seine Signalfront beim anderen angekommen sein muss, damit auch dieser den Konflikt feststellen kann (Zeitpunkt t3). Computertechnik 112 Jacob Datenübertragung im Ethernet Man bezeichnet einen eingeprägten Pulsstrom als Träger (carrier). Eine neue Belegung ist nur möglich, wenn kein carrier mehr beobachtet wird (carrier sense). Es können dann mehrere Sendewillige beginnen (carrier sense multiple access). Der Übertragungszustand der Leitung muss beobachtet werden, damit eine Kollision entdeckt wird (collision detect). Das gab dem Verfahren den Namen: CSMA/CD. Bild 4.16: Beispiel für eine Kollision in einem Ethernet mit Busstruktur Der Ethernet-Standard legt nun bestimmte Merkmale fest, um das Verfahren so anwenden zu können, dass ein fehlerfreier Betrieb gesichert bleibt. In einem Netz kann man die beiden Stationen (NICs) feststellen, die am weitesten voneinander entfernt sind. Sendet eine von ihnen, dann bemerkt die andere das von allen Stationen am spätesten, weil das Signal die längste Strecke zurücklegen muss und damit die längste Laufzeit hat. Die andere Station kann also bis zu dem Moment, wenn das Signal bei ihr ankommt, davon ausgehen, dass das Netz frei ist, und kann selbst senden. Das wiederum wird die Station, die zuerst zu senden begonnen hat, erst nach einer weiteren Laufzeit über die gesamte Distanz erkennen können (Bild 4.17). Daraus lässt sich ein Kriterium für die Mindestzeit ermitteln. Keine Sendung darf abgeschlossen sein, bevor nicht eindeutig festgestellt ist, dass es keine Kollision gab. Wäre das nicht so, gäbe es Sendungen, die als abgeschlossen gelten, die aber keine ordnungsgemäßen Übertragungsbedingungen angetroffen hätten. Um alle möglichen Kollisionsfälle eindeutig zu erkennen, muss eine Sendung mindestens so lange wie die doppelte Laufzeit zwischen den beiden am weitesten entfernten Stationen sein. Man muss noch eine zusätzliche Sicherungszeit berücksichtigen. Computertechnik 113 Jacob Datenübertragung im Ethernet Angenommen, die zuletzt erreichbare Station hätte unmittelbar vor Ankunft des zuerst gesendeten Signals noch zu senden begonnen und würde ihre Sendung sofort abbrechen, wenn sie die Kollision erkannt hat; dann würde das letzte mögliche Kollisionsereignis für die anderen nicht sicher erkennbar sein. Es entstünde ein zu kurzes Abbruchereignis. Die Station muss noch für eine gewisse Zeit weitersenden, um das Kollisionsereignis während einer Mindestzeit auch für die anderen erkennbar zu machen. Daher kommt die Vereinbarung, dass jede sendende Station, die eine Kollision erkennt, zwar ihre Nutzsendung abbricht, aber anstelle dessen 16 1-0-Folgen sendet. Diese Folge nennt man auch Jam-Signal, die Sendezeit wird hier Jam-Zeit genannt. Die Sendezeit für das Ersatzsignal wird in die Mindestsendezeit mit einbezogen. Bild 4.17 zeigt das in einem Diagramm. Die Linien zeigen die Ausbreitung eines Sendeereignisses in Abhängigkeit von Zeit und Ort. Bild 4.17: Der kritische Fall beim Senden der beiden entferntesten Stationen (NICs) in einem Koaxial-Ethernet: Beginn und Ende der Sendung des Jam-Signales nach Erkennung der Kollision Der Ethernet-Standard stimmt die Übertragungsrate, den Kabeltyp, die größte Distanz zwischen den am weitesten entfernten Stationen (NICs) und die Zahl der Repeater sowie der Stationen aufeinander ab. Dabei ergibt sich für ein 10 MBit/sec-Netz, dass mindestens 512 Bit gesendet werden müssen. Die Mindestzeit nennt man auch Slotzeit. Computertechnik 114 Jacob Datenübertragung im Ethernet Im Fall einer frühen Kollision wird das Koax-Ethernet entsprechend früher frei (Bild 4.18) Bild 4.18: Beispiel für eine frühe Kollision im Koax-Ethernet Gab es bis zum Ablauf der Mindestzeit keine Kollision, dann war der aktuelle Sender entweder der einzige Sender oder er hat die anderen rechtzeitig erreicht, so dass diese Belegung erkennen konnten, bevor sie senden wollten. In allen Fällen, die zu einem Rückzug wegen Konfliktes geführt haben, starten alle Sendewilligen einen neuen Versuch. Dabei kommt ein statistisches Verfahren zum Einsatz, das man sehr gut mit einem Würfelspiel vergleichen kann. Alle Stationen beginnen mit einem zweiseitigen Würfel mit den Seiten 0 und 1. Nach dem Würfeln hat jede Station eine Zahl gewürfelt, entweder eine 0 oder eine 1. Die Zahl wird mit der Slotzeit multipliziert. Bei der 0,1- bzw. der 1,0-Kombination ergibt sich eine klare Reihenfolge, bei der 0,0- bzw. 1,1-Kombination nicht. Die Chancen, dass eine 0,1/1,0 - oder eine 0,0/1,1- Kombination entsteht, sind gleich groß. Es wird gemäß dem Würfelergebnis ein Belegungsversuch gestartet, der bei einem der ungünstigen Würfelergebnisse natürlich wieder zu einem Jam führt. Das erzwingt einen erneuten Rückzug und neues Würfelspiel. Computertechnik 115 Jacob Datenübertragung im Ethernet Jetzt nehmen die NICs einen 4seitigen Würfel. Die Chancen für eine Kombination mit einer einzigen 0 sind also größer. Führt auch das nicht zum Erfolg, so erhöht man exponentiell die Würfelseiten weiter, bis das Zufallsergebnis (hoffentlich) einen eindeutigen einzigen ersten ermittelt hat. (Es gibt ein Abbruchkriterium und es ist nicht ausgeschlossen, dass dies auch erreicht wird.) Was hier als Würfelspiel erklärt wurde, ist tatsächlich eine elektronische Entscheidungsfunktion im NIC auf der Basis eines entsprechenden Algorithmus. Zugriff auf das gemeinsame Übertragungsmedium bei Hub-Struktur Die sternförmige Verkabelung hebt die Eigenschaft auf, dass die Kabel als ein gemeinsames Betriebsmittel wirken. Das gemeinsame Betriebsmittel liegt im Hub selbst. (Bild 4.19) Bild 4.19: Interne Signalpfad-Struktur eines Twisted-Pair-Hub Die Übertrager zur galvanischen Entkopplung bilden das unmittelbare Interface zu den verdrillten Leitungen. Das Verfahren, das für den Zugriff zum Medium Koaxialkabel gilt, ist auch hier anwendbar. Man hat aber die Möglichkeit, das Netz schneller frei zu bekommen. Wenn eine Station zu senden beginnt, muss das Signal zuerst den Hub erreichen, bevor es von ihm verteilt werden kann. Das verteilte Signal erreicht dann die anderen Stationen gemäß ihrem Abstand vom Hub. Man kann die anderen Stationen aus der Sicht der sendenden Stationen entsprechend ordnen (Bild 4.20). Bild 4.20: Beispielhaftes Ethernet mit Hub-Struktur, entsprechender Distanzgraph Computertechnik 116 Jacob Datenübertragung im Ethernet Der kritische Fall ist wieder derjenige, dass eine der beiden Stationen zu senden beginnt und die andere mit ihrer Sendung beginnt, gerade bevor das zuerst gesendete Signal bei ihm ankommt (Bild 4.21). Bild 4.21: Der kritische Fall beim Senden der beiden entferntesten Stationen (NICs) in einem Twisted-Pair-Ethernet mit Hub Wenn A sendet (rot), läuft das Sendesignal nur bis zum Hub und wird von ihm (gelb) zu den anderen Stationen gesendet. Das sinngemäß Gleiche gilt für B (grün). Die Ausbreitung der Sendung führt zuerst zum Hub. Dieser gibt die Sendung auf allen Leitungen zu den übrigen Stationen weiter. In der Reihenfolge ihrer Distanz zum Hub erreicht die Sendung die einzelnen Stationen. Der Distanzgraph legt de Reihenfolge fest. Alle Stationen, die vom Zeitpunkt des Beginns der ersten Sendung bis zum Zeitpunkt, wenn dieses Ereignis an der Station erkennbar wird, zu senden beginnen, erzeugen eine Kollision. Die späteste Kollisionsmöglichkeit ist der Zeitpunkt, unmittelbar bevor das Ereignis in der Station erkenn bar wird, die am weitesten entfernt liegt. In diesem Fall erreicht der Beginn der Sendung, die gerade noch eine Kollision erzeugen kann, den Hub etwas früher als der unmittelbar danach folgende Abbruch der Sendung des Nutzsignales, der gleichzeitig den Beginn der Sendung des JamSignales bedeutet. Computertechnik 117 Jacob Datenübertragung im Ethernet Der Hub erkennt den Kollisionsfall, sobald der Beginn der letzten möglichen Sendung dort eingetroffen ist. Er kann dann die Verteilung des zuerst gesendeten Signales abbrechen und ein selbst erzeugtes Jam-Signal verteilen. Das erreicht die Station, die zuerst gesendet hat, nach einer entsprechenden Laufzeit. Die Station kann damit den Kollisionsfall auch erkennen, ihre Sendung abbrechen und das Jam-Signal senden (das ins Leere läuft, weil der Hub schon sein eigenes verteilt). Damit ist deutlich, dass die Mindest-Sendezeit 2xMax.-Laufzeit + Jam-Sendezeit ist, wie im Fall des Ethernet mit Koaxial-Struktur. Das Verfahren gibt aber das Netz mit Hub-Struktur schneller frei als das Netz mit Koaxial-Struktur, weil das Abbruchereignis früher im Netz verteilt werden kann. Einen frühen Kollisionsfall und den entsprechenden Abbruch zeigt Bild 4.22. Bild 4.22: Beispiel für eine frühe Kollision mit Hub-Struktur Nach der Erkennung des Jam-Zustandes wird die Würfel-Phase initiiert, die wie oben geschildert abläuft und zu einer Belegung führt, wenn das Netz als frei erkannt ist. Die Würfel-Phasen wiederholen sich mit größer werdender Würfelseitenzahl, bis entweder eine Station eindeutig der einzige Nutzer des Netzes ist oder das Abbruchkriterium erreicht ist. Die wiederholten Versuche enden, wenn die maximale Würfelseitenzahl von 1024 und dabei eine maximale Zahl von 10 wiederholten Versuchen erreicht ist. Computertechnik 118 Jacob Datenübertragung im Ethernet Die Datenübertragung mit Datenpaketen (frames) Die eigentliche Datenübertragung findet in der Phase nach der eindeutigen Zuordnung des Übertragungsmediums zu einer Station statt. Dann wird ein Datenpaket in einem genau festgelegten Format übertragen (Bild 4.23). Bild 4.23: Datenpaket-Format (Frame) im Ethernet • • • • • • Die ersten 7 Präambel-Bytes dienen der Anpassung der Takterkennung in den Empfänger-Schaltungen auf den Sende-Takt, also der Bitsynchronisation. Das Start-Byte des Datenpaketes (start of frame delimiter) dient der ByteSynchronisation. Sobald es vollständig empfangen ist, hat man den StartZeitpunkt des folgenden Bytes und damit die Startzeitpunkte aller folgenden Bytes, da man auf Grund der Bitsynchronisation exakt mitzählen kann. Wenn das gesendete Datenpaket dann als erstes die Zieladresse (destination address) enthält, kann die Empfangselektronik aller empfangenden NICs sofort mit dem Empfang und der Analyse der Zieladresse beginnen. Damit wird eine eindeutige Auswahl derjenigen NICs getroffen, die das Datenpaket erreichen soll. Derjenige bzw. diejenigen NICs, die nicht adressiert sind, brauchen sich nicht mehr mit den weiteren empfangenen Bytes zu beschäftigen. Im Empfänger kann es wichtig sein, den Verursacher des empfangenen Datenpaketes zu kennen, z.B. um ihm eine bestätigende Rückmeldung zu geben. Deshalb sieht das Format als nächstes die Quelladresse (source address) vor. Da die Anzahl der übertragenen Daten frei wählbar ist, muss zuerst angegeben werden, wie viele Daten übertragen werden, bevor sie gesendet werden (length). Die Übertragung der Daten wird von einem Feld von Sicherungsbits abgeschlossen. Diese dienen dem Test der fehlerfreien Übertragung in den Empfängern. Die Bildung der Ethernet-Adressen Für die Bildung der Ethernet-Adressen gelten bestimmte Format-Festlegungen, die am Anfang der technischen Entwicklung des Ethernets entstanden. Die Festlegung der Ethernet-Adressen verfolgt ein Ziel, das aus der Sicht der Internet-Vernetzung etwas eigenartig erscheint: es dient der Unterscheidung der einzelnen NICs nach Hersteller und nach einem erkennbaren Einzelprodukt des Herstellers. Hierfür enthalten die ersten drei Bytes (vom Paket-Anfang her gezählt) ein Bitmuster, das als Hersteller-Kennung dient. Die folgenden drei Bytes dienen der Unterscheidung der NICs. Die Hersteller sorgen dafür, dass es sehr unwahrscheinlich ist, in einem lokalen Netz NICs mit gleichen Adressmerkmalen zu verwenden. Man nennt die so festgelegte Adresse auch MAC-Adresse (medium access control). Im Internet-Protokoll dient die Festlegung der Adressformate der eindeutigen weltweiten Identifizierung eines Computers im Internet. Dabei interessiert überhaupt nicht, wer den NIC des Computers hergestellt hat. Computertechnik 119 Jacob Token-basierte LANs Das bedeutet, dass es zwischen den Formaten der Internet- und der MAC-Adressen grundsätzliche Unterschiede gibt. Die Internet-Adressen sind „logische“ Adressen, die unabhängig von dem Standard sind, der für die physikalische Übertragung gilt. Wenn ein lokales Netz dafür den Ethernet-Standard verwendet, müssen die InternetAdressen in die eindeutig zugeordneten Ethernet-Adressen umgesetzt werden. Das übliche Verfahren der Adressumsetzung hat folgende Prinzipien: In jedem Computer gibt es eine Datenstruktur zur Speicherung gesammelter Zuordnungen von Internet-Adressen mit den zugehörigen Ethernet-Adressen. Sobald ein Datenpaket an einen Teilnehmer mit einer Internetadresse gehen soll, deren zugeordnete Ethernet-Adresse noch nicht bekannt ist, wird ein spezieller Datenverkehr zur Offenbarung der zugeordneten Ethernet-Adresse abgewickelt. Das Ergebnis ist die Aktualisierung der Datenstruktur in allen Teilnehmern des lokalen Netzes, die noch nicht über die Zuordnung verfügen. Damit kann die Zieladresse im aktuell zu versendenden Datenpaket eingesetzt werden, und alle Teilnehmer verfügen über die Zuordnung bei künftigem Bedarf. Die Quelladresse braucht nicht durch ein besonderes Verfahren bestimmt zu werden, weil sie im Sender sowieso bekannt ist. 4.4 Token-basierte LANs Das nicht-deterministische Auswahlverfahren ist typisch für den EthernetStandard (IEEE 802.3). Es bringt solange wenig Zeitverlust für Belegungsentscheidungen, wie durch wenig Nachfrage wenig Konfliktpotential erzeugt wird. Je mehr Datenverkehr aber von den Stationen nachgefragt wird, umso häufiger wird es längere Entscheidungsphasen geben, bis sich schließlich die NICs überwiegend mit Entscheidungen und nicht mehr mit Datenverkehr beschäftigen. Im Gegensatz zum Ethernet steht das deterministische Verfahren mit Hilfe von speziellen Frames zur Vergabe der Übertragungseinrichtung, sog. Token. Die beiden wichtigsten Standards für Token-basierte LANs sind: der FDDI-Standard (fiber distributed data interface) und der (IBM) Token-Ring Standard (IEEE 802.5). Die Ring-Topologie Das Übertragungsprinzip bei Ring-Topologie unterscheidet sich grundsätzlich von dem bei Bus- oder Stern-Topologie. Dort kann man feststellen, dass ein Sender immer mehrere Empfänger gleichzeitig hat. Beim Ring sendet immer ein Sender an nur einen Empfänger. Die Teilnehmer eines lokalen Netzes werden durch die ringförmige Hintereinanderschaltung von mehreren Übertragungsstrecken erreicht, die jeweils von einem Sender zu einem Empfänger übertragen (Bild 4.24). NIC1 NIC2 NICn Bild 4.24: Kettung der Übertragungsstrecken bei Ring-Topologie Im IBM-Token-Ring ergeben sich die Sender/Empfänger-Schaltungen dadurch, dass man über ein geschirmtes Twisted-Pair-Kabel überträgt, im FDDI-Netz dadurch, dass man über Glasfaser überträgt. Computertechnik 120 Jacob Token-basierte LANs Im Bild 4.24 erkennt man deutlich einen Nachteil der Struktur: wenn auch nur eine Einheit im Ring ausfällt, ist die Übertragungskette unterbrochen, damit ist die Erreichbarkeit der „stromabwärts liegenden Einheiten und damit ist die gesamte Übertragungsfunktion im Ring nicht mehr gewährleistet. Rekonfigurierung im IBM-Token-Ring Die Strategie, dieses Problem im IBM-Token-Ring zu lösen, zeigt Bild 4.25. Es beruht darauf, alle Maßnahmen, die mit der Rekonfigurierung im Falle eines Ausfalles zu tun haben, in einer Einheit zu konzentrieren, die Ringleitungsverteiler genannt wird. Diese Einheit enthält eine genau vorgegebene maximale Anzahl von Anschlussports. An jeden Port kann man mit Hilfe einer Stichleitung einen Computer anschließen. Der NIC im Computer sorgt für den Empfang des Signales auf der ankommenden Übertragungsstrecke und für das Senden des Signales auf die nachfolgende Übertragungsstrecke im Ring. Solange kein Computer an einem Verteiler-Port angeschlossen ist bzw. ein angeschlossener ausgeschaltet ist, sorgt der Kontakt eines stromlosen Halterelais für eine direkte Weiterleitung des Signales im Ring. Sobald man den angeschlossenen Computer einschaltet, wird das Halterelais von Strom durchflossen und der Kontakt wird angezogen. Das bedeutet, dass die direkte Weiterleitung unterbrochen wird. Das ankommende Signal wird zum NIC geleitet bzw. das vom NIC kommende Signal wird weitergeleitet (Einfügen eines Endgerätes). Wird ein Computer ausgeschaltet (und wird damit der NIC stromlos) oder entsteht eine Unterbrechung in der Anschlussleitung, dann wird das Halterelais stromlos gemacht, was wieder die direkte Weiterleitung im entsprechenden Port der Verteilereinheit aktiviert (Kurzschließen eine Endgeräteanschlusses). Bild 4.25: Strukturprinzip des IBM-Token-Ring mit Rekonfiguriermerkmalen Übertragungstechnisch liegt ein Ring vor. Verdrahtungstechnisch ergibt sich ein Ring von Verteilereinheiten, an die sternförmig die Computer angeschlossen werden. Als weiteres Merkmal erkennt man, dass eine Ersatzleitung für die Hauptleitung vorgesehen werden kann. Computertechnik 121 Jacob Token-basierte LANs Rekonfigurierung im FDDI-Ring Glasfaser-Übertragungstrecken werden immer in einer einzigen Übertragungsrichtung betrieben, die durch die Lage des Licht-emittierenden Senders (Tx) und des Licht-empfangenden Empfängers (Rx) festgelegt ist. Man kettet die Übertragungsstrecken hintereinander und erreicht durch die Ringbildung alle Knoten (nodes) (Bild 4.26). Bild 4.26: Redundantes Ringsystem eines FDDI-Netzes Die Netz-Teilnehmer bzw. Stationen heißen hier Knoten. Das Verfahren, ein Port mit Hilfe eines Relais mit wenig Aufwand kurzschließen zu können, lässt sich bei Glasfaser-Übertragung nicht so einfach realisieren. D.h., dass es keine Einheiten geben kann, die den Verteilereinheiten des IBM-Token-Ringes vergleichbar wären. Hier ist man ganz auf einen redundanten Glasfaser-Ring angewiesen, um einen Ausfall einer Einheit in einem primären Ring zu „überleben“. Der Zugriff zum Übertragungsmedium eines Token-Ringes Auch hier unterscheidet man zwischen der Phase der Zuordnung des Übertragungsmediums und der Phase der eigentlichen Datenübertragung. Dabei sind die Details der Verfahren auf dem IBM-Token-Ring und dem FDDI-Ring unterschiedlich. Das Prinzip ist aber gleich. Das Prinzip wird an einem Beispiel im IBM-Token-Ring gezeigt. In Netzen mit Koaxial- oder Twisted-Pair-Kabeln als Übertragungsmedium muss man berücksichtigen, dass die Signale sich nicht mit Lichtgeschwindigkeit ausbreiten. Wenn die Übertragungsstrecke in einem Ring kurz ist, kommt das Signal, das von einer Station gesendet wird, über den Ring nach (vernachlässigbar) kurzer Zeit wieder am Empfänger der Station an. Je länger aber die Strecke im Ring wird, um so länger wird diese Zeit. Diese Zeit kann also ein Vielfaches der Taktzeit betragen, die man für das Senden jedes Bits vorsieht. Würde man in diesem Fall eine Momentaufnahme des Signalverlaufes entlang dem Ring machen, dann umfasst dieser Verlauf zwischen dem Sender und dem Empfänger einer Station mehrere gesendete Bits, und zwar um so mehr, je höher die Taktfrequenz und je länger der Ring ist. Token-Verfahren gehen immer davon aus, dass der aktuelle Sender am Ende seiner Sendung eine Bitfolge sendet, die von den in Stromrichtung liegenden Stationen als „Gutschein“ für die Benutzung des Ringes verwendet wird. Die Station, die in Stromrichtung als erste einen Belegungswunsch hat und ein Token erhält, gibt es nicht mehr im Ring weiter, sondern sendet an dessen Stelle seine Daten. Computertechnik 122 Jacob Token-basierte LANs Die Frage ist nun, wann eine Station, die gerade mit einer Datensendung fertig ist, das Token sendet. Sie kann z.B. warten, bis die gesendeten Daten wieder vollständig von ihr empfangen wurden. Das würde bei langen Ringen und kurzer Taktzeit dazu führen, dass es zu Wartezeiten kommt. Um zu große Wartezeiten zu vermeiden, wäre es besser, das Token schon früher zu senden (early token release). Ein solches Verfahren ist standardisiert. Bild 4.27 zeigt an einem Beispiel markante Merkmale des Verfahrens. B Sendung Empfang in C in C Sendung Empfang in B in B Empfang Sendung in A in A Empfang Sendung in D in D A Bild 4.27: Beispiel für umlaufende formatierte Bitfolgen in einem Token-Ring Mit dem Fortschritt der Zeit laufen die Bits gegen den Uhrzeigersinn im Ring weiter. Momentaufnahme: in Station A läuft gerade der Beginn der Sendung ein, die sie vor einer Umlaufzeit zu senden begonnen hat; A nimmt diese Sendung beim Empfang vom Ring; Station B hat gerade die Sendung eines Token beendet. Wenn eine Station ein Token empfängt und einen Sendewunsch hat, beginnt sie sofort zu senden: sie beginnt mit dem Senden eines Vorspannes (header HDR), dann folgen die Daten (DATA) und dann ein Abspann (trailer TRLR). Danach sendet sie Bitfolgen, die eine Pause (IDLE) markieren. Sie bestimmt das Ende der Pause und sendet dann das Token (TOKEN). Danach markiert sie solange eine Pause, bis im Ring ankommende Bits weitergereicht werden müssen. Das Szenario im Bild 4.27 gibt folgendes wider: Station A hat vor einer Umlaufzeit mit dem Senden begonnen und die rot markierte Sendung erzeugt. Station B hat das Token der Station A erkannt und es sofort benutzt, um seine eigene Sendung zu erzeugen (grün und rot markierter Bereich). Die Idle-Phase, die Station A bis zur Sendung ihres Token erzeugt hat, war so groß, dass die Sendung des Token von B gerade abgeschlossen ist, wenn der Beginn der Sendung von A wieder bei A ankommt. Das Verfahren soll nämlich gewährleisten, dass immer nur ein Token im Ring kreist. Das Verfahren stellt den aktuellen Endstand der Entwicklung der (IBM) Token-RingTechnologie dar. Sie wurde durch die rasante Weiterentwicklung der EthernetTechnologie deutlich überholt. Diese brauchte aber eine lange Zeit, bis sie die Taktrate erreichte, die schon lange für die FDDI-Ringe gilt, nämlich 100 MBit/sec. Computertechnik 123 Jacob 100 MBit/sec Ethernet-Netze mit Twisted Pair (Fast Ethernet) Vergleich des Netzverhaltens im Ethernet und im Token Ring Bild 4.28 vergleicht grundsätzlich zwei Leistungsmerkmale des nicht-deterministischen Ethernet-Standards mit denen des deterministischen Token-Ring-Standards. Die Netzlast gibt den Bruchteil der Bits an der maximalen Datenrate an, die pro Sekunde von den Stationen zusammen angefordert werden. Der Durchsatz gibt den Bruchteil der Bits an der maximalen Datenrate an, die pro Sekunde tatsächlich übertragen werden. Die mittlere Verzögerung gibt an, wie lange die Anforderungen der Stationen im Mittel auf Bedienung warten. Bild 4.28: Vergleich des Netzverhaltens von Ethernet und Token-Ring Ein Token-Ring-Netz behandelt die Anforderungen bei größer werdenden Netzlasten fairer als das Ethernet-Netz. Das Ethernet-Netz bricht sogar zusammen, weil es sich immer mehr mit der Entscheidung auf Zuteilung des Übertragungsmediums beschäftigt als mit der eigentlichen Datenübertragung. Bei Niedriglast bringt der Zeitaufwand zum Weiterreichen des Token eine größere mittlere Verzögerung als beim Ethernet. 4.5 100 MBit/sec Ethernet-Netze mit Twisted Pair (Fast Ethernet) Typische Twisted-Pair-Verkabelung Zunächst ein Blick auf das Verkabelungsschema eines Signalpfades und das Kabel selbst (Bild 4.29). Bild 4.29: Typisches Verkabelungs- und Steckerschema eines Twisted Pair Netzes links unten: elektronische Verteilereinheit (z.B. Switch oder Router), links oben: Verteilereinheit mit Hilfe steckbarer Kabel (Patch-Panel), Mitte: beispielhafte Wand-Steckdose mit fest verlegter Leitung zum Patch-Panel, alle übrigen Verbindungen sind frei steckbare Patch-Kabel Für den Nutzer bzw. seinen Computer steht eine Netzsteckdose an einer Wand seines Arbeitszimmers zur Verfügung. Die Verbindung zwischen der Steckdose und der Netzkarte des Computers erfolgt mit einem flexiblen Twisted Pair Kabel, das an beiden Enden mit einem RJ45-Stecker mit 8 Kontaktfahnen abgeschlossen ist (der umgangssprachlich auch als Westernstecker bezeichnet wird). Computertechnik 124 Jacob Aufbau der Switches (Router) Das leicht steck/lösbare Kabel wird auch als Patch-Kabel (patch cable, patch cord) bezeichnet. Über fest montierte Kabelkanäle werden die Kabel der einzelnen Nutzer gebündelt und in einen zentralen Raum mit einem sog. Patchpanel geführt (Bild 4.30). Bild 4.30: Patchpanel-Rahmen mit zwei Zeilen für RJ45-Sockets: weitere Patchpanel-Rahmen und die Switches würden darunter montiert. Man geht davon aus, das die Verlegung der Kabelbündel in den Kabelkanälen einmalig ist. Im Patchpanel ist für jedes Einzelkabel eines Nutzer-Computers ein „Socket“ vorgesehen. An der Rückseite jedes „Socket“ werden die 8 einzelnen Leitungen des fest verlegten Kabels an 8 einzelne Pins des Sockets angeschlossen. Diese Pins haben eine leitende Verbindung zu Kontaktfahnen an der Oberseite des Stecker-Aufnehmers, der an der Vorderseite Patchpanels frei zugänglich ist. Zwischen einem Stecker-Aufnehmer am Patchpanel und dem Switch als zentraler Verteiler-Einheit kann man nun mit einem weiteren Patch-Kabel eine leicht steckbare/lösbare Verbindung herstellen. Der Sinn dieser Flexibilität liegt in leichten Austausch des Switch und in der flexiblen Bündelung der einzelnen Anschlüsse zu geeigneten Arbeitsgruppen. 4.6 Aufbau der Switches (Router) Prinzipielle Funktionen in einem Switch Verteilereinheiten mit Switch- bzw. Router-Funktion werden im Folgenden vereinfachend mit Switch bezeichnet. Eines der maßgeblichen Strukturmerkmale von Switches ist die Teilnehmerbezogene Zwischenspeicherung der Datenpakete. Dadurch können die Computer der Teilnehmer, die über je eine eigene Leitung mit dem Switch verbunden sind, unabhängig voneinander Datenpakete von/zum Switch übertragen. Ist der Teilnehmer-Computer die Datenquelle, dann ist der Zwischenspeicher (Puffer) die Datensenke. Der Zwischenspeicher ist umgekehrt die Datenquelle, wenn eine Übertragung zu einem Teilnehmer-Computer hin erfolgen soll. Im Switch selbst wird dafür gesorgt, dass die Datenpakete, die gemäß der Zieladresse (im Datenpaket) zu einem bestimmten Zielteilnehmer gelangen müssen, in den entsprechenden Zwischenspeicher gelangen, der dann als Datenquelle dient (Bild 4.31). Computertechnik 125 Jacob Aufbau der Switches (Router) Zentrale unterstützende Funktionen, z.B. Bestimmung der Benutzungsreihenfolge des internen Leitungssystems Prozessor zum Management der adreßgerechten Weiterleitung der Pakete internes Leitungssystem zur Verteilung der Pakete von Teilnehmer zu Teilnehmer PaketZwischenspeicher Sender/EmpfängerFunktionen mit Zwischenspeicherung der Pakete für den angeschlossenen Teilnehmer Leitung zum Teilnehmer 1 PaketZwischenspeicher Leitung zum Teilnehmer i Leitung zum Teilnehmer n Momentaufnahme einer Verbindung zwischen Teilnehmer 1 und Teilnehmer n Bild 4.31: Prinzipielle Aufteilung der Funktionen in einem Switch Die Momentaufnahme in Bild 4.31 veranschaulicht eine Verbindung, während der mehrere Datenpakete nacheinander zwischen Teilnehmer 1 und Teilnehmer n fließen. Im Gegensatz zu einer (herkömmlichen analogen) Telephonverbindung, die während des gesamten Gespräches unterbrechungsfrei aufrecht erhalten werden muss, wird das interne Leitungssystem nicht dauernd belegt, sondern nur für eine sehr kurze Zeit für die Übertragung eines Datenpaketes oder einer kurzen Aneinanderreihung von mehreren aufeinander folgenden Datenpaketen. Dann entsteht eine Pause, bis das nächste Datenpaket/folge dieser Verbindung zur Übertragung bereit steht; denn die Übertragung eines Datenpaketes/folge auf der Leitung zum Teilnehmer-Computer dauert wesentlich länger als auf dem internen Leitungssystem. In dieser Pause können nun die Datenpakete/folgen anderer Verbindungen auf dem internen Leitungssystem übertragen werden. Die verschränkte Nutzung des internen Leitungssystems bewirkt, dass mehrere Verbindungen „gleichzeitig“ bedient werden können. Die entscheidende Maßnahme, die das ermöglicht, ist die Einführung von Zwischenspeichern (Puffern), die es ermöglichen, den Übertragungspfad in drei Punkt-zuPunkt-Abschnitte „aufzubrechen“, die zeitlich unabhängig voneinander ablaufen können. Beispiel für die Gerätetechnik von Switches der mittleren Leistungsklasse Die prinzipiellen Merkmale sollen am Beispiel des Switches CISCO Catalyst 2900 verdeutlicht werden (Bild 4.32, Bild 4.33). Bild 4.32: Beispielhafter Switch (CISCO Catalyst 2900) Computertechnik 126 Jacob Aufbau der Switches (Router) Bild 4.33: Struktur des beispielhaften Switch (Catalyst 2900) Modul bedeutet eine Baueinheit als gedruckte Karte. Man erkennt also, wie die Funktionseinheiten als Baueinheiten realisiert werden. Das interne Leitungssystem wird in zwei Funktionsgruppen aufgeteilt, die jeweils als Bus ausgeführt sind. Die Datenpakete selbst werden über den sog. Switching Bus übertragen. Die Benutzungsreihenfolge für den Switching-Bus wird durch den Busarbiter festgelegt. Der Management-Bus sorgt dafür, dass der Network-Prozessor die Teilnehmerbezogenen Schaltungen (mit ASICs realisiert) im Sinne der Anforderungen der Datenpakete steuern kann. • • • • • • Datenpakete können an mehrere Ziel-Teilnehmer gleichzeitig verschickt werden (broadcast) oder gezielt an einen (explizite Zieladresse im entsprechenden Adressfeld). Entsprechend den Adressen müssen die Ziel-Ports bestimmt werden. Die Bestimmung der Zielports aus den kodierten Adressinformationen in den Datenpaketen wird in der EARL-Funktionseinheit ausgeführt. Das kostet Zeit. Um den Fortschritt der Übertragung nicht darauf warten zu lassen, überträgt man vom Puffer des Sender-Teilnehmers in die Puffer der möglichen Ziele, also alle anderen. Gleichzeitig erfolgt die Bestimmung der tatsächlichen Ziele. Der Network-Prozessor wertet das Ergebnis der EARL-Funktion zu Steuermaßnahmen aus, die über den Management-Bus zu den Port-Schaltungen gelangen. Bei gezielter Adressierung im Datenpaket fordert er alle nicht betroffenen PortSchaltungen auf, die Puffer zu ignorieren (flush). Dann bleibt praktisch verzögerungsfrei nur der richtige übrig. Bei Broadcast sind alle schon im richtigen Zustand. Der Switch verfügt über eine RS232-Schnittstelle, um ein StandardPeripheriegerät anzuschließen. Computertechnik 127 Jacob Aufbau der Switches (Router) Beispiel für die Gerätetechnik von Switches der oberen Leistungsklasse In dieser Klasse wird besonders auf die hohe Verfügbarkeit der Geräte geachtet. Als Beispiel wird die Switch-Familie Catalyst 6000 von CISCO genommen. Bild 4.34: Basiskonfiguration mit Switching Bus (Catalyst 6000) Die Bezeichnung fabric verdeckt etwas die Eigenschaft, dass es sich um eine Busstruktur handelt. Am besten übersetzt man den Begriff fabric durch Werk, z.B. im Sinne von Leitwerk, hier also Werk zum Schalten der Verbindungen. Man erkennt die prinzipielle Übereinstimmung mit der Struktur in Bild 4.32. Damit man auch einen Eindruck von der bautechnischen Lösung bekommt, wird in Bild 4.35 die Backplane-Struktur der Grundkonfiguration gezeigt. Bild 4.35: Backplane-Struktur (Catalyst 6000) Man erkennt die Vorbereitung für den Aufbau einer redundanten Konfiguration: zwei Steckplätze für zwei Clock-Module, zwei Steckplätze (Slot 1 und 2) für zwei SupervisorKarten. In der einfachen Konfiguration sind die Slots 2 bis 9 mit Linecards bestückt, die die Ports für die Anschlüsse der Teilnehmer-Computer bereitstellen. Die Bus-Steckplätze (bus connectors) sind untereinander durch den Daten-, Control- und Results-Bus verbunden. Diese entsprechen dem Switching- und Management-Bus in Bild 4.33. Computertechnik 128 Jacob Aufbau der Switches (Router) Wenn man die Übertragungszeit eines Datenpaketes auf einem Bus sehr kurz macht und die Übertragungszeit des Paketes auf dem Teilnehmeranschluss um ein mehrfaches größer ist, dann entstehen auf dem Bus genügend große Belegungspausen, in denen Pakete von anderen aktuellen Verbindungen übertragen werden können. Es können – wie oben schon gesagt – mehrere Verbindungen „gleichzeitig“ bedient werden. Es sind um so mehr, je größer das Verhältnis der Übertragungszeit auf dem Anschluss zur Übertragungszeit auf dem internen Bus ist. Der technische Fortschritt macht nun die Übertragungszeit auf dem Anschluss immer kürzer (Fast-Ethernet, Gigabit Ethernet). Damit wird der Effekt der „Gleichzeitigkeit“ auf dem internen Bus immer unbedeutender und man braucht eine Alternative. Das ist die sogenannte Crossbar-Technik. Ein Crossbar-Switch ist eine Einheit, die je einen von n Anschlusspunkten mit je einem frei wählbaren von m anderen Anschlusspunkten verbinden kann, ohne dass die Signalpfade sich gegenseitig beeinflussen. Ist n<m, dann kann man n Verbindungen gleichzeitig wirken lassen. Switches für Hochleistungsnetze sollten über eine Crossbar-Switch-Einheit verfügen und die Linecards sollten über eine Schnittstelle zu einer solchen Einheit verfügen. Um das bautechnisch zu realisieren, sieht man eine weitere Schnittstelle auf dem Backplane bzw. auf den Linecards vor. Bild 4.36: Erweiterung der Backplane-Steckplätze für eine Crossbar-Switch-Einheit Diese Einheit wird hier Switching Fabric Module genannt. Es werden zwei Steckplätze für eine redundante Struktur vorgesehen (Slot 5 und 6). Die Verbindung zwischen den Linecards und den Switching Fabric Modules wird über die Leitungen zwischen den CrossbarConnectors hergestellt. Um die Leistungsfähigkeit einer Crossbar-Switch-Einheit einschätzen zu können, werden einige Merkmale der Lösung im Catalyst 6500 angegeben (Bild 4.37). Jedes Port hat einen Signalpfad in die Crossbar-Switch-Einheit hinein (Eingang) und einen davon unabhängigen, der aus der Switch-Einheit in den Port führt (Ausgang). Jeder Pfad ist mit 8 Gbit/sec getaktet. Computertechnik 129 Jacob Aufbau der Switches (Router) Eine Verbindung verbindet immer einen Eingang von einem Port mit mindestens einem Ausgang, der zu einem wahlfrei wählbaren anderen Port gehört. Es können also 16 Signalpfade gleichzeitig in die Switch-Einheit hineingehen. Sobald mehr als ein Pfad auf den gleichen Ausgang wirken, muss eine zeitliche Hintereinanderreihung erfolgen. Nimmt man den Fall, in dem 16 Signalpfade gleichzeitig übertragen, kann man einen Summendatenstrom definieren, indem man alle Datenströme addiert, die in die und aus der Switch-Einheit strömen. Das ergibt im vorliegenden Fall 32 x 8 = 256 Gbit/sec. Dieser Wert ist kein gutes Maß für die Gleichzeitigkeit. Er verdeckt den Wert der tatsächlich gleichzeitigen Datenströme. Es sind gleichzeitig 16 Datenströme mit je 8 Gbit/sec wirksam, insgesamt also 128 Gbit/sec. Bild 4.37: Crossbar-Switch-Einheit (Catalyst 6500) In den Crossbar-Steckplätzen der Linecards gibt es je eine Verbindung zu einem CrossbarSwitch-Port-Paar. Geeignete Linecards heißen fabric enabled. Die Details kann man den einschlägigen Datenblättern entnehmen. Zum Abschluss soll auf der Basis der erläuterten prinzipiellen Merkmale der vollständige Grad der Redundanz deutlich gemacht werden (Bild 4.38). Bild 4.38: Redundanter Catalyst 6500-Switch mit Crossbar-Switch Computertechnik 130 Jacob Man kann an der Struktur in Bild 4.38 erkennen, dass die Linecards immer noch erreichbar sind, wenn eine beliebige Kombination von einem der Supervisor-Module und einem der Crossbar-Switch-Fabric-Module ausgefallen ist. Man erkennt auch einen beispielhaften Fall von gleichzeitiger Übertragung. Die Verbindung zwischen den Ports, die nicht auf einer Linecard erreichbar sind, geschieht über die Crossbar-Switch-Einheit. Betrifft die Verbindung zwei Ports auf der gleichen Linecard, so kann sie über den Bus ausgeführt werden, der auf der Linecard selbst realisiert ist. Die Gesamtsteuerung durch den Supervisor muss dafür sorgen, dass in jedem Betriebszustand ein Maximum an Gleichzeitigkeit, also ein Maximum an Durchsatz von Datenpaketen gewährleistet ist. 4.7 Fastethernet-Controller für NICs Hier sollen nur die Funktionen für die Signalübertragung interessieren (Bild 4.39). Quelle:http://developer.intel.com/design/network/datashts/666252.htm Bild 4.39: Transmitter/Receiver-Funktionen in einem Fastethernet-Controller Abkürzungen zur Beschreibung der Signalformen: NRZ = non return to zero, NRZI = inverted non return to zero MLT3 = multi level transfer, 3 levels Bild 4.40: Signalkodierung NRZ – NRZI – MLT3 Alle drei Signale sind symmetrisch um das Bezugspotential 0 Volt definiert. Offensichtlich kodiert man auch im NRZI-Signal die log. 1 mit einem Pegelübergang, wie das auch im Manchestercode gilt, aber nicht immer den gleichen Pegelübergang. Computertechnik 131 Jacob Hier codiert man eine log. 1 dadurch, dass man den Pegel, der durch die letzte log. 1 entstanden ist, invertiert. Eine log. 0 verändert den Pegel nicht. Was ist der Grund für diese Festlegung? Offensichtlich ist der kleinste Abstand zwischen zwei Signalflanken genau eine Taktperiode, während er beim Manchestercode eine halbe Taktperiode ist. Das bedeutet, dass die kleinste Pulsbreite beim NRZI-Code doppelt so groß ist wie die beim Manchestercode. Die maximale Taktrate für NRZI-Signale ist also doppelt so groß wie die für Manchester-Signale. Die Umsetzung des NRZI-Signales in die Signalform gemäß MLT3-Code ist einfach: bei jedem Flankenwechsel des NRZI-Signales kommt es auch zu einem Flankenwechsel im MLT3-Signal, und zwar gemäß dem zyklischen Reihenfolge-Schema: 0 zu – zu 0 zu + zu 0 ... Man erkennt aus den Codierungsregeln, dass lange 0- oder 1-Folgen keine Pulse erzeugen. Das wird beim Empfang zu einem Problem, weil es schwer wird, sich auf den Takt einzustellen, der vom Sender eingeprägt wird. Man muss irgendwie dafür sorgen, dass keine längeren 0- oder 1-Folgen entstehen. Die Lösung liegt in einer geeigneten Wortcodierung. Man fasst 4 Bit zu einem Wort zusammen und ordnet diesem ein 5Bit-Wort mit einer gewünschten Eigenschaft zu. Mit 4 Bit kann man 2^4 Wörter bilden, mit 5 Bit 2^5. Dadurch, dass man das weitere Bit hinzufügt, bekommt man die Möglichkeit zur Auswahl geeigneter Bitmuster. Natürlich ergeben sich auch dann nicht verwendete Bitmuster. Diese redundanten Muster können bei richtiger Übertragung nicht empfangen werden. Werden sie trotzdem empfangen, kann man auf einen Übertragungsfehler schließen. Die beschriebene Codierung ergibt also auch eine Möglichkeit zur Erkennung von Übertragungsfehlern (Tabelle 4.1.). Tabelle 4.1: Zuordnungstabelle für die 4B/5B-Kodierung Beim Scrambling wird ein Datenstrom nach einem festgelegten mathematischen Polynom verwürfelt. Computertechnik 132 Jacob Die Verwürfelung wird im Prinzip durch einen Pseudozufallsgenerator mit der Länge 2^n - 1 mit n-Rückkopplungsstufen ausgeführt. Diese Technik dient der Vermeidung gleichbleibender Signalmuster und sorgt für eine gleichmäßigere Verteilung der Signalenergie über den gesamten Frequenzbereich . Durch das Scrambling wird eine Konzentration der Signalenergie auf ein schmales Frequenzband mit hoher Amplitude verhindert, wie es bei langen, sich wiederholenden Bitmustern, wie beispielweise beim Idle -Signal , ohne Scrambling auftreten würde. Das Descrambling macht das Ganze wieder eindeutig rückgängig. Damit hat man ein genaueres Bild davon, was sich hinter den Ports der EthernetNetzkarten, der Hubs und Switches verbirgt. Sie müssen in der harwarenahen Ebene alle nach den Festlegungen des Fast Ethernet Protokolles arbeiten. Das sollte verständlich gemacht werden. Netze sind heute ein wichtiger Teil der Computerarchitektur. Im Grunde haben sie (zusammen mit der Entwicklung von Hochleistungs-Workstations) den Bedarf an zentralen Höchstleistungs-Computern auf wenige Anwendungen im technischwissenschaftlichen Bereich reduziert. Sie sind damit ein wesentliches Merkmal für die grundsätzliche Umwälzung in der Welt der Computer. Um die Struktur des Computertyps, der wohl am häufigsten eingesetzt wird, den Personal Computer, geht es im Folgenden. Computertechnik 133 Jacob