Netzwerkdokumentation von Felix: Ethernet "Ja, aber ich würde lieber den Bus nehmen. Es gibt nichts schöneres auf der Welt als einen Bus." Charles, Prince of Wales, als er gefragt wurde, ob er die Reise mit der königlichen Segelyacht nach Tobruk genossen habe. Der zur Zeit am weitesten verbreitete Standard für lokale Netze ist Ethernet. Er geht auf gemeinsame Spezifikationen von Intel, DEC und Xerox zurück. Der Name (Ether = Äther) weist noch auf die ersten Funknetze (ALOHA) hin. Die Datenübertragung erfolgt mit dem CSMA/CD-Verfahren. Auf dem Ethernet können verschiedene Protokolle laufen, z. B. TCP/IP, DECnet, IPX/SPX (Novell), etc. Das Ethernet besteht physikalisch aus verschiedenen Typen von 50-Ohm-Koaxkabeln oder paarweise verdrillten Leitungen (Twisted-Pair), Glasfasern, oder anderen Medien (siehe nächsten Abschnitt). Die Datenrate beträgt typisch 100 MBit/s (früher 10 MBit/s, 1000 MBit/s läuft an). Die wichtigsten Eigenschaften nach der ursprünglichen Spezifikation sind: Datenrate: 10 MBit/s Maximale Länge des gesamten Netzes: 2500 m Maximale Zahl der Knoten: 1024 Medium: Koaxkabel, Basisbandübertragung Zugriffsverfahren: CSMA/CD Datenprotokoll: Frames variabler Größe Die Daten werden in Paketen gesendet und mit Verwaltungsinfo zu Beginn und CRC-Prüfinfo am Ende versehen (Ethernet-Frame). Ethernet basiert, wie andere Netze auch, auf einer Sammlung von Medium- und Protokollspezifikationen. Zuunterst liegt die physische Ebene; sie umfaßt neben der Verkabelung auch die Signalerzeugung und -kodierung. Als Ethernet von DEC, Intel und Xerox aus der Taufe gehoben wurde, gab es nur eine Verkabelungsart, der heutige Ethernet-Standard kennt eine Vielfalt von Topologien. Ethernet-Anwender müssen bei der Vernetzung nicht nur zwischen den Protokollen auf den höheren Schichten wie TCP/lP und IPX/SPX unterscheiden, sondern auch noch den richtigen Ethernet-Frame wählen. 'Server not found' oder ähnliche Fehlermeldungen stellen sich manchmal selbst dann ein, wenn alle Ethernet-Treiber auf Workstation und Server korrekt geladen sind und keine Kabelprobleme bestehen. Der Grund liegt nicht selten darin, daß Ethernet nicht gleich Ethernet ist. Gleich vier verschiedene Dialekte sind heute in Gebrauch, die erschwerenderweise ziemlich inkonsistent benannt sind. Kein anderes lokales Netz weist diese Eigentümlichkeit auf. Groß sind die Unterschiede nicht; sie beschränken sich auf ein paar Bytes in den übertragenen Datenpaketen (Frames) und lassen sich in der Regel durch einfache Konfigurationsänderungen der Netztreiber regulieren. Die elektrischen Anschlußbedingungen im weitesten Sinne sind für die verschiedenen LAN-Typen standardisiert. Es handelt sich dabei um die Standards des IEEE (Institute of Electrical and Electronic Engineers, USA). Das IEEE ist eine internationale Vereinigung, die sich mit allen wesentlichen Aspekten der Elektrotechnik beschäftigt. Verbindlich für lokale Netze sind die Empfehlungen des Subkomitees mit der Kurzbezeichnung 802. Eine relativ neu gegründete Runde beschäftigt sich mit drahtlosen LANS (802.11). Physikalisch handelt es sich bei Ethernet immer um einen Bus, an den die Stationen elektrisch parallel angeschlossen sind. Das klassische Ethernet benutzt als Medium das yellow cable, ein dickes, vierfach abgeschirmtes Koaxkabel. Die beiden Enden des Kabels sind mit an den Wellenwiderstand des Kabels (50 Ohm) angepaßten Widerständen abgeschlossen, um Reflexionen zu vermeiden. Wenn eine Station nun Daten an eine andere senden will, schickt sie digitale Signale auf Reisen. Diese Signale breiten sich vom Anschlußpunkt der Station nach beiden Seiten hin gleichmäßig aus. Irgendwo auf dem Weg liegt dann der Empfänger, der die Signale am Kabel abgreifen kann und für die weitere Nutzung aufbereitet. Unabhängig davon wandern die Signale jedoch weiter, bis sie die Leitungsenden des Ethernet-Kabels erreicht hat. Dort wird ihre Energie vollständig von den Abschlußwiderständen aufgenommen, so daß es nicht zu Reflexionen kommt. Nach einer gewissen Zeit, die aus der Ausbreitungsgeschwindigkeit der Signale und der Entfernung der sendenden Station zu den beiden Kabelenden resultiert, sind die Signale 'verschwunden' und das Kabel wieder frei. Dieses Prinzip liegt allen Ethernet-Varianten zugrunde. Es gibt jedoch Unterschiede in der Topologie des Netzes und beim verwendeten Kabel. Die Daten werden in Paketen, sogenannten 'Frames' zusammengefaßt. Jedes Paket trägt zu Beginn Verwaltungsinformationen (z. B. Absender- und Empfängerstation, Länge, etc.) und nach den Nutzdaten schließt sich eine Prüfinformation an. Leider gibt es keinen einheitlichen Frame, sondern entwicklungsgeschichtlich bedingt Frames mit unterschiedlichem Aufbau. Es gab bereits Ethernet-Installationen, lange bevor dieses Netz unter der Nummer 802.3 vom IEEE (Institute of Electrical and Electronics Engineers) standardisiert wurde. Was Novell eigenmächtig als 'Ethernet 802.3' bezeichnet, ist jedoch etwas anderes. Ethernet II Eine der ältesten Framestrukturen ist Ethernet II. Charakteristisches Merkmal von Ethernet II ist das Typfeld, das aus zwei Bytes im Anschluß an die Start- und Zieladressen besteht und der Unterscheidung verschiedener höherer Protokolle dient. Alle anderen Formate enthalten hier eine Längeninformation. Die Unterscheidung der anderen Frames von einem Ethernet-IIFrame kommt dadurch zustande, daß dessen Typ-Nummer immer größer ist als die maximale Paketgröße von 1518 Bytes (Z.B. 0800h für IP, 8137h für IPX, 0600h für XNS oder 809Bh für AppleTalk). Ein Datenpaket besteht aus 576 bis 12208 Bits und hat folgenden Aufbau: Frame Ethernet Version 2.0 Bitfolge Bitfolge 1010101010... 10101011 Preamble SFD Ethernet-Frame, min. 64 Bytes, max. 1518 Bytes 6 Byte 6 Byte 2 Dest.- Source- Byte Addr. Addr. Type min. 46 Bytes, max. 1500 Bytes Daten Inter Frame 4 Gap Byte 9,6μs FCS Die Präambel dient zur Synchronisation, sie besteht aus einer Folge von '10101010'-Bytes. Der SFD hat an der letzten Stelle eine '1' (10101011). Die Längen der einzelnen Teile (in Byte) sind in der Grafik eingetragen. Sind weniger als 46 Datenbytes zu übertragen, muß mit Füllbits ergänzt werden, um die minimale Slot-Time zu erreichen. 802.3 raw (Novell) Als Novell Netware und das IPX/SPX-Protokoll auf den Markt brachte, war Ethernet noch nicht endgültig standardisiert. Die Netware-Entwickler warteten aber weder die Standardisierung ab, noch benutzten sie das gängige Ethernet-II-Format. Nein, Novell dachte sich für IPX einen eigenen Rahmentyp aus. Dieser Pakettyp enthält keine Protokollkennung wie Ethernet II, kann also allein IPX transportieren. Zu allem Überfluß benannte Novell diese proprietäre Lösung auch noch nach einer IEEE-Arbeitsgruppe '802.3'. Wie kann ein Rechner oder Router ein solches Novell-Paket aus anderen herausfiltern, die ebenfalls nach Start- und Zieladresse eine Längeninformation tragen? Gegenüber 'Ethernet II' werden die beiden Bytes der Protokoll-ID für die Rahmenlänge genutzt. Der einzige weitere Unterschied besteht darin, daß allein im 'Novell-802.3'-Paket zwei Bytes folgen, die nur aus Einsen bestehen (FF, FF). Prinzipiell ist das Gespann IPX-'802.3' also auch in heterogenen Umgebungen mit vielen Routern einsetzbar, erfordert aber immer einen gewissen ExtraAufwand. Novell geht die Sache inzwischen etwas vorsichtiger an und nennt sein IPXSpezial-Ethernet offiziell '802.3 raw'. Wir empfehlen, dem Rat von Novell neueren NetwareInstallationsprogrammen und -Handbüchern zu folgen und das standardisierte 'Ethernet 802.2'-Format zu verwenden. Hinter Novells Bezeichnung 'Ethernet 802.2' verbirgt sich das eigentlich waschechte 802.3-Format. Aber '802.3' hatte Novell bereits vergeben, und die Verwechslungsgefahr mit dem 'raw'-Format wäre zu groß geworden. Man übernahm daher einfach die Bezeichnung des IEEE-802.2-Protokollheaders, den die IEEE-802.3-Spezifikation vorschreibt und der den Unterschied zu Novells Alleingang ausmacht. Frame Ethernet 802.3 raw Bitfolge Bitfolge 1010101010... 10101011 Preamble SFD Ethernet-Frame, min. 64 Bytes, max. 1518 Bytes 6 Byte 6 Byte 2 Byte 2 Byte Dest.- SourceLength 0xFFFF Addr. Addr. min. 44 Bytes, max. 1498 Bytes Daten Inter Frame 4 Gap Byte 9,6μs FCS Frame IEEE 802.3 Bitfolge Bitfolge 1010101010... 10101011 Preamble SFD Ethernet-Frame, min. 64 Byte, max. 1518 Byte Inter Frame 6 Byte 6 Byte 1 1 min. 42 Bytes, max. 1497 4 Gap 2 Byte 1 Byte Dest.- SourceByte Byte Bytes Byte 9,6μs Length Control Addr. Addr. DSAP SSAP Daten FCS IEEE 802.2 und SNAP Bis zu Novells Entscheidung für die Verwendung von '802.2' als Default-Typ gab es kaum Anwendungen dieser Ethernet-Variante - abgesehen von der weiter unten beschriebenen SNAP-Erweiterung. Das IEEE-Gremium ersetzte das Typ-Feld von Ethernet II durch eine Längenangabe und ergänzte das Paket durch einen 802.2-Header von drei weiteren Bytes. Als Ersatz für das alte Typfeld mit der Protokoll-ID fungieren der 'Destination-' und der 'Source Service Access Point' (DSAP und SSAP); hinzu kommt ein 'Control Field', das manche Protokolle für Verwaltungszwecke benötigen. Ein offensichtlicher Nachteil der 802.2Definition gegenüber Ethernet II war die Limitierung der Typ-Codes auf ein Byte, zumal die Hälfte der möglichen 256 Werte von Anfang an reserviert war(z. B. 04 für IBM SNA oder 06 für IP). Frame IEEE 802.3 SNAP Bitfolge Bitfolge 1010101010... 10101011 Preamble SFD Ethernet-Frame, min. 64 Byte, max. 1518 Byte Inter Frame 6 Byte 6 Byte 1 1 5 min. 38 Bytes, 4 Gap 2 Byte 1 Byte Dest.- SourceByte Byte Byte max. 1492 Bytes Byte 9,6μs Length Control Addr. Addr. DSAP SSAP SNAP Daten FCS Daher folgte beinahe unweigerlich eine baldige Erweiterung: Das 'Sub Network Access Protocol' (SNAP) sorgte für Abhilfe. Diese 802.2-Erweiterung mit der eigenen Protokoll-ID AAh stellt weitere fünf Bytes für die Protokoll-Identifikation des darüberliegenden Protokolls bereit, davon drei für eine Herstellerkennung. Der bekannteste Nutznießer hiervon ist AppleTalk. Auch die Millionenschar der TCP/IP-Anwender könnte ihre Ethernet-II-Pakete mit der zwei Byte langen Protokoll-ID dank SNAP in ein IEEE-konformes Format bringen doch TCP/lP funktioniert auch ohne Standard und den zusätzlichen Protokoll-Overhead. Da TCP/lP eine von anderen Transportprotokollen unerreichte Bedeutung gewonnen hat (man denke allein an das Internet), empfiehlt es sich, wenn irgend möglich, durchgehend den Frame-Typ Ethernet II einzurichten. Häufig erzwingen die Gegebenheiten auch die weitere Berücksichtigung von Ethernet 802.3: Einige ältere, auf NetWare spezialisierte IPXPrintserver zum Beispiel mögen keinen anderen Rahmentyp. Der von Novell zur Zeit als Default-Typ verwendete 802.2 hat nur dann Berechtigung, wenn statt TCP/lP und IPX andere OSI-Protokolle zum Einsatz kommen sollen. Erweiterungen für VLANS Im Abschnitt über virtuelle LANS wird noch eine weitere Expansion des Datenrahmens zur Anwendung kommen, das sogenannte "tagged" Format. Der Vollständigkeit halber sollen auch dieser Frames hier aufgeführt werden, näheres dann im VLAN-Abschnitt. Frame Ethernet Version 2.0 tagged (VLAN) Bitfolge Bitfolge 1010101010... 10101011 Preamble SFD Ethernet-Frame, min. 68 Byte, max. 1522 Byte 6 Byte 6 Byte 4 2 Dest.- Source- Byte Byte Addr. Addr. Tag Type min. 46 Bytes, max. 1500 Bytes Daten Inter Frame 4 Gap Byte 9,6μs FCS Frame IEEE 802.3 tagged (VLAN) Bitfolge Bitfolge 1010101010... 10101011 Preamble SFD Ethernet Frame tagged min. 68 Byte, max. 1522 Byte Inter Frame 6 Byte 6 Byte 4 1 1 min. 42 Bytes, max. 4 Gap 2 Byte 1 Byte Dest.- Source- Byte Byte Byte 1497 Bytes Byte 9,6μs Length Control Addr. Addr. Tag DSAP SSAP Daten FCS MTU Die Abkürzung MTU steht für "Maximum Transmission Unit" und beschreibt die maximale Größe der Nutzdaten die in einem Datenpaket übertragen werden können. Ein StandardEthernetframe hat eine Maximalgröße von 1518 Bytes. Davon beanspruchen Header und Prüfsumme 18 Bytes. Somit verbleiben genau 1500 Byte für Nutzdaten (s. oben). Die MTU beträgt also 1500 Byte. Beim Internetzugang via DSL kommt auf der Verbindung zum DSL-Modem häufig das Protokoll PPPoE (Point-to-Point-Protocol over Ethernet) zum Einsatz. PPPoE beansprucht in jedem Frame zusätzlich 8 Bytes zur Übertragung von Verbindungsinformationen. Die MTU reduziert sich daher bei der Verwendung von PPPoE von 1500 auf 1492 Bytes. Durch den Einsatz weiterer Protokolle bei einigen Providern, kann sich die MTU noch weiter verringern. Je nach Provider schwankt die MTU zwischen 1400 und 1492. Normalerweise wird die richtige MTU bei der Verbindung zum Provider automatisch eingestellt. Eine manuelle Einstellung einer zu größen MTU führt zu Verbindungsproblemen. Unter Linux kann die MTU für ein Interface mit dem Kommando ifconfig eth0 mtu <wert> eingestellt werden. Identifizierung des Ethernet-Interfaces Jeder Ethernet-Adapter kann über seine in der Hardware verankerte Adresse eindeutig identifiziert werden. Diese Adresse besteht aus einem 3-Byte-Herstellercode und einer ebenfalls 3 Byte (24 Bit) langen laufenden Seriennummer. Auf diese Weise ist eine eindeutige Adressierung möglich - was aber auch bedeutet, daß die logische Adresse durch die Netzwerksoftware in eine Hardwareadresse umgesetzt werden muß. Die Angabe der Adresse erfolgt normalerweise sedezimal (hexadezimal), wobei zur besseren Lesbarkeit die einzelnen Bytes durch '.' oder ':' getrennt werden, z. B. 20:08:AA:10:00:CF. Diese Adresse wird auch gerne MAC-Adresse genannt. Bei einigen Interfaces, insbesondere bei vielen WLAN-Karten, kann die Adresse auch per Software konfiguriert werden (Speicherung im EEPROM). Signallaufzeiten, Slot Time Bei jedem Kabel gibt es eine Konstante, welche die Ausbreitungsgeschwindigkeit der elektrischen Signale in dem Kabel angibt. Die Maximalgeschwindigkeit, die Lichtgeschwindigkeit c, wird jedoch nie erreicht. Die Ausbreitungszeit für elektromagnetische Wellen ist abhängig vom Medium: AusbreitungsMedium faktor 1.00 Vakuum 0.77 Koax-Kabel 0.60 Twisted-pair-Kabel Aber wozu ist dieser Wert bei Netzen interessant? Nehmen wir als Beispiel für die folgenden Berechnungen das 10Base2-Ethernet-Kabel. Nehmen wir nun an, daß zwei Stationen A und B, die sich an gegenüberliegenden Enden des Kabelsegments befinden. Die Station A sendet zum Zeitpunkt t ein Datenpaket ab. Die Station B sendet ihrerseits zum Zeitpunkt t + (T - dt), also kurz bevor das Signal von A bei B ankommt. Damit A die Kollision erkennen kann, vergeht nochmals die Zeit (T - dt), also insgesamt t + 2*(T - dt). Für den Grenzfall können wir dt gegen 0 gehen lassen, woraus folgt, daß die Dauer der Übertragung eines Datenblocks mindestens 2*T betragen muß, damit eine Kollision bei CSMA/CD sicher erkannt wird. Ein Datenblock muß also mindestens diese Zeit 2*T zur Übertragung benötigen. Die kleinste erlaubte Packetgrösse von 64 Byte benötigt bei 10Base2 51.2 µs, um komplett gesendet zu werden. Ein Signal, das 51.2 µs dauert, legt im Coax-Medium folgende Strecke zurück: 0.77 * 3 * 108 = 231 * 106 m/s 231*106 * 51.2*10-6 = 11827.20 m = 11.82 km Das 64-Byte-Ethernetpacket benötigt also für die Strecke von 2 * 2,5 = 5 km im idealen Fall nur etwa die Hälfte der minimalen Übertragungsdauer von 51.2 µs. - die LAN-Sepzifikation beinhaltet somit eine Sicherheitsreserve um dem CSMA/CD-Protokoll des Ethernet auch im realen Fall zu genügen. Das ideale Beispiel ist sehr weit von der Realität entfernt. Es liefert jedoch ein Gefühl für die Zeiträume, mit denen beim Ethernetverkehr gerechnet wird. Für jeden Planer eines Netzes ist es wichtig, möglichst genau den "worst case" seines Netzes zu kennen, damit sicher gestellt ist, daß die Kollisionsbehandlung korrekt arbeitet. Dazu werden die jeweils am weitesten entfernten Netzwerkdevices einer Kollisionsdomäne betrachtet. Hierbei ist sowohl die Entfernung, als auch die zwischen Ihnen liegende Netzhardware zu beachten. Entsprechend jedem physikalischen Element auf der Strecke zwischen den Netzwerk-Devices (Hin- und Rückweg) werden bestimmte Werte addiert. Dies sind die sogenannten "Bitzeiten", die spezifisch für jede Hardware sind. Diese Bitzeiten sind entweder aus der Literatur oder der jeweiligen Herstellerbeschreibung zu entnehmen. Aber nicht immer findet man alle Werte; dann muß man allgemeingültige Werte benutzen, z. B. 8 Bitzeiten für einen Repeater. Diese Zahl soll das Zeitintervall repräsentieren, die ein Repeater benötigt um das Ethernetpaket weiterzuleiten. Ist jede auf der Strecke befindliche Hardware in die Rechnung eingeflossen, so erhält man den Round Trip Delay (RTD). Der RTD muß unter einem definierten Schwellwert liegen. Dieser Schwellwert von 51,2 µs entspricht 512 Bitzeiten. Zur Erinnerung: das kleineste Paket hat 64 Byte = 512 Bit Länge. Dieser Wert wird auch als "Slot-Time" bezeichnet. Das Kabel zwischen AUI (Attachment Unit Interface) und MAU (Media Attachment Unit) hat abweichende Spezifikationen (Twisted-Pair, jeweils für Senden und Empfangen getrennt, abgeschirmt), seine Maximallänge beträgt 50 m, die Mindestsignalausbreitungsgeschwindigkeit beträgt 0,65*c = 195000 km/s. Daraus folgt eine maximale Laufzeit von 0,05/195000 s = 0,256 Mikrosekunden. Da sich maximal drei 10Base2-Netzsegmente über Verstärker (Repeater) verbinden lassen, ergibt sich eine Maximallänge von 1500 m, und so eine Laufzeit von 13 Mikrosekunden. Dabei ist noch zu berücksichtigen, daß bis zu sechs Transceiverkabel beteiligt sein können (je eines an den Stationen und je zwei an den beiden Repeatern). Die maximale Verzögerung ist hier also 3,08 Mikrosekunden. Wenn man noch die Zeiten für die Collisionserkennung im Ethernet-Interface und weitere Hardwareparameter berücksichtigt, kommt man auf die im Ursprungsdokument von 1980 angegebene maximale Laufzeit von 45 Mikrosekunden. Zu lange Kabel, zuviele hintereinandergeschaltete Repeater, aber auch das Ausreizen der im Standard angegebenen Parameter kann durchaus im Zusammenspiel mit Komponenten, die am Rande der Toleranzgrenze liegen, zu Fehlfunktionen führen. Daher sollte man die angegebenen Längen immer unterschreiten. Auch bei der Planung von Netzen ist zu berücksichtigen, daß Kabel niemals in "Luftlinie" verlegt werden und die Kurven und Schleifen in den Kabelkanälen sich schnell addieren. Nicht verkleinern läßt sich jedoch der Overhead, der durch die Verwaltungsinformation im Ethernet-Frame (Adressen, Control-Info) entsteht. Der Overhead wird umso kleiner, je größer der Nutzdatenanteil ist. Die folgende Tabelle zeigt die Abhängigkeit von Overhead und Nutzdaten (berechnet): Im folgenden Diagramm ist der prozentuale Overhead gegen die Nutzdaten-Bytes aufgetragen. Einordnung Ethernet ins OSI-7-Schichten-Referenzmodell Layer Aufgabe 7 Application Später weitere Erläuterungen bis Presentation 4 Session Transport 3 Network Wegewahl, Vermittlung 2 Data Link Zusammenfassung der Bits in Blöcke (Bytes, Frames), Flußsteuerung, Reihenfolgesicherung Fehlererkennung in Blöcken und Korrektur 1 Physical mechanische Charakteristika (z.B. Pin-Belegung, etc.), elektrische, elektromagnetische, akustische, optische Charakteristika, Übertragungsart (z.B. analog/digital, synchron/asynchron, Modulation etc.) Ethernet und IEEE 802.3 sind im OSI-7-Schichten-Modell in der zweiten Schicht angesiedelt, wobei man diese Schicht beim IEEE802.3 zusätzlich einmal unterteilt in die Schichten 2a: Media Access Control (MAC) und 2b: Logical Link Control (LLC). Der Ethernet-Standard umfaßt Schicht 1 des OSI-Modells (Physikalische Schicht) und den unteren Teil von Schicht 2, der Verbindungsschicht. Dieser Teil wird MAC (Media Access Control) genannt. MAC und LLC (Logical Link Control) füllen zusammen Schicht 2 aus. Der Standard ist in drei Unterebenen eingeteilt. Von oben sind dies die eben genannte MAC und in Schicht 1 "PLS" (Physical Signaling) sowie "PMA" (Physical Medium Attachment). Die Schnittstelle zwischen ihnen ist auch im Standard definiert. Die Verbindung zwischen Medium und PMA wird "MDI" (Medium Dependent Interface) genannt. Die Einheit zwischen PMA und PLS wird mit "AUI" (Attachment Unit Interface) bezeichnet. "MDI" ist der Anschluß zum Netzkabel. MAC (Media Access Control) Die MAC-Ebene hat zwei Funktionen. Die eine ist die Datenhandhabung und umfaßt die Paketverwaltung (Datenaufbereitung, Adressierung und Fehlerkontrolle). Die andere ist die Zugangskontrolle, die dafür sorgt, daß die Pakete ohne Kollisionen ins Netz gelangen. Zudem handhabt die Zugangskontrolle die Kollisionen, die trotzdem entstehen. Die Datenhandhabung auf der MAC-Ebene arbeitet mit zwei Dienstprimitiven zur LLC: "Request" und "Indication". Request wird von der LLC generiert und ist die Anforderung nach Übertragung von Daten der eigenen LLC zur LLC in einer anderen Station. Parameter sind Zieladresse, Dateneinheit und Dienstklasse. Indication ist ein Hinweis an die LLC, daß MAC ein ankommendes Paket entgegengenommen hat. Hier sind die Parameter Zieladresse, Quelladresse, Dateneinheit und Empfangsstatus. Die Kollisionshandhabung benutzt mehrere Mechanismen. Beim Senden arbeitet ein Prozeß, der "Deference" (defer: nachgeben) genannt wird. Dieser kontrolliert, ob eine Aktivität im Kabel stattfindet (Carrier Sense). In diesem Fall beginnt ein Deferring-Zustand. Wenn das Kabel frei ist, wird eine Verzögerung von einem "inter frame spacing" initiiert und ein eventuell wartendes Paket losgeschickt. Wenn eine Kollision eintritt, wird ein Störungssignal gesandt, wonach die Sendung abgebrochen wird und der Backoff-Prozeß startet (siehe vorhergehendes Kapitel). Die Aufgaben der MACEbene können wie folgt zusammengefaßt werden: 1. Sendet Frames, indem sie: a. Daten von der LLC entgegennimmt, b. kontrolliert, ob ein PAD-Feld notwendig ist, und wenn ja, dieses erzeugt und es am Ende anfügt, c. kontrolliert, daß das Frame ganze Bytes enthält (daß die Anzahl der Bits ein ganzzahliges Vielfaches von 8 ist), die CRC berechnet (CRC = Cyclic Redundancy Check = Polynomprüfsumme) und am Ende als FCS (Frame Check Sum) ablegt, d. Preamble, Start Frame Delimiter und Adreßfeld am Anfang hinzufügt, e. das ganze Frame in serieller Bitform an die PLS schickt. 2. Empfängt Frames, indem sie: a. ein Frame nach dem anderen in serieller Bitform von der PLS akzeptiert, b. untersucht, ob die Zieladresse mit der lokalen Station übereinstimmt (individuelle Adresse, Gruppenadresse oder Broadcast), c. kontrolliert, daß das Frame ausreichend lang ist, daß er ganze Bytes enthält und daß die CRC stimmt, d. Preamble, SFD (Starting Frame Delimiter) und Adreßfeld abschneidet, das Längenfeld liest und eventuelle PAD-Bytes abschneidet, e. Daten an die LLC schickt. 3. Vermeidet Kollisionen und hält einen ausreichenden Abstand zwischen Frames im Medium aufrecht indem sie: a. vom Senden absieht, wenn das Medium belegt ist, b. wenn das Medium frei wird, einen festgesetzten Zeitraum (Inter Frame Gap) abwartet, ehe mit der Sendung begonnen wird. 4. Handhabt Kollisionen, indem sie, wenn die Station während des Sendens eine solche feststellt: a. ein Störsignal in Form eines zufälligen Bitmusters von einer bestimmten Länge (Jam Size) sendet, damit die Betroffenen Stationen die Kollision entdecken können, b. eine Zufallzahl generiert und in dem Zeitraum nicht sendet (Backoff), der von der Zufallszahl vorgegeben wird, c. wenn das Medium frei ist, nach dieser Zeit sendet, d. wenn eine neue Kollision stattfindet den Versuch mehrmals bis zu einer vorgegebenen Höchstgrenze wiederholt (Attempt Limit) und dann gegebenenfalls eine Fehlernachricht generiert. MAC-Adressen als physikalische Adressen Die Aufgabe der MAC-Adresse liegt darin, die miteinander kommunizierenden Stationen eindeutig zu identifizieren. MAC-Adressen haben eine feste Länge von 48 bit. Mit einer MAC-Adresse wird der physikalische Netzanschluß oder Netz-Zugriffspunkt einer Station adressiert. Sie heißt daher auch physikalische Adresse. Eine Station kann durchaus mehrere MAC-Adressen haben, wenn es über mehrere Netzanschlüsse verfügt. In manchen Dokumentationen ist zu lesen, dass es für Ethernet ganz spezielle, sogenannte Ethernet-Adressen gäbe. Dies ist absolut falsch. Alle bekannten Zugriffsverfahren der MACSchicht (wie z.B. CSMA/CD bzw. Ethernet, Token Bus, Token Ring, FDDI) verwenden einheitlich das im folgenden beschriebene MAC-Adressformat mit 48 bit langen MACAdressen. I/G U/L OUI OUA 1 bit 1 bit 22 bit 24 bit I/G = 0: Individual-Adresse (Unicast Address), die genau ein Interface identifiziert. I/G = 1: Gruppen-Adresse (Multicast Address), die eine Gruppe von Interfaces identifiziert (nur als Ziel-Adresse, nicht als Quell-Adresse möglich). U/L = 0: universelle Adresse (weltweit eindeutig und unveränderbar). U/L = 1: lokale Adresse (lokal veränderbar). Für die Festlegung von universellen Individual-Adressen werden von IEEE für die Bits 3 bis 24 weltweit eindeutige Werte vergeben und den Herstellern zugewiesen. Man bezeichnet eine solche Bitfolge daher als Organizationally Unique Identifier (OUI). Da bei universellen Individual-Adressen stets I/G = 0 und U/L = 0 gilt, werden diese beiden Bits häufig in den OUI mit einbezogen, so dass der OUI die ersten beiden Oktette der MAC-Adresse darstellt. Die Werte für die restlichen Bits 25 bis 48 werden von den Herstellern vergeben. Eine solche Bitfolge heißt daher Organizationally Unique Address (OUA). Die MAC-Schicht einer Station, das einen MAC-Rahmen empfängt, vergleicht die MAC-Zieladresse des Rahmens mit seiner eigenen MAC-Adresse und gibt den Inhalt des Rahmens nur dann an die höherliegenden Schichten weiter (LLC oder Schicht 3), wenn beide Adressen übereinstimmen. Ansonsten wird der Rahmen verworfen. Die MAC-Schicht beinhaltet also eine Filterfunktion für MAC-Adressen. Für die Darstellung von MAC-Adressen verwendet man am besten die kanonische Form: Die 48 Bits werden zu Bytes bzw. Oktetten derart zusammengefaßt, daß 6 Oktette entstehen, wobei die Bitreihenfolge nicht verändert wird und das I/G-Bit im 1. Oktett links steht und als Least-Significant-Bit (LSB) interpretiert wird. Unter der Festlegung, daß in jedem der 6 Oktette das LSB links steht, wird dann jedes Oktett durch zwei hexadezimale Ziffern dargestellt und die Ziffernpaare werden durch Bindestriche getrennt. Ein Beispiel mag dies veranschaulichen. Bitmuster: 00110101 01111011 00010010 00000000 00000000 00000001 Kanonische Form: AC-DE-48-00-00-80 Wenn ein MAC-Rahmen an mehrere bzw. an alle Stationen eines Netzes verschickt werden soll, spricht man von einem Multicast bzw. einem Broadcast. Entsprechende Multicast- bzw. Broadcast-Adressen gibt es verständlicherweise nur als Ziel-Adressen. Bei einem Broadcast lautet die MAC-(Ziel-)Adresse FF-FF-FF-FF-FF-FF. Einige standardisierte MulticastAdressen sind: 01-80-C2-00-00-00: 01-80-C2-00-00-10: 01-00-5E-00-00-00: CF-00-00-00-00-00: Spanning Tree Protocol Brücken-Management Internet Protocol (IP) Multicast Ethernet Configuration Test Protocol (Loopback) PLS (Physical Level Signaling) PLS kommuniziert teils mit der eigenen MAC, teils mit MACs in anderen Stationen. Die Service Primitive, die für die Datenübertragung benutzt wird, ist "DATA.request" von der MAC, die über "DATA.indication" auf Bitebene Daten an alle MACs im Netz sendet. Damit erhält auch die eigene MAC ihre ausgehenden Bits als Echo von PLS. Zur MAC gibt es auch die zwei Primitive, "CARRIER.indication" und "SIGNAL.indication". Diese werden benutzt, um der MAC die Zugangskontrolle zu ermöglichen. CARRIER hat zwei Stellungen ("on" und "off") und wird durch die PMA generiert, wenn diese feststellt, daß ein Bitstrom im Netzkabel eingeleitet oder beendet wird. Es wird benutzt, um anzuzeigen, ob das Medium frei ist oder nicht. SIGNAL zeigt die Qualität des Signals an und wird unter anderem dazu benutzt, Kollisionen anzuzeigen. MAU (Medium Attachment Unit) Von der PLS definiert der Standard eine Schnittstelle (Attachment Unit Interface oder AUI) zum Physical Medium Attachment (PMA) und von diesem eine weitere Schnittstelle (Medium Dependent Interface oder MDI) zum Medium. Zusammen bilden diese die MAU (Medium Attachment Unit), die auch als "Transceiver" bezeichnet wird. Bei 10Base5 hängt der MAU fest angekoppelt am Kabelstrang und versorgt den Rechner über Twisted-PairStichleitungen (AUI-Kabel). Der Hauptstrang ist damit von den Benutzern entkoppelt. Bei 10Base2 verzichtet man darauf. Historisches 1972 1976 1980 1981 1982 Entwicklung begann bei Xerox erste Vorstellung (3 Mbit/s Datenrate) Standard "Ethernet V1.0" (DEC, Intel, Xerox) Standard IEEE 802 Standard "Ethernet V2.0" Zitat aus The Ethernet Sourcebook, ed. Robyn E. Shotwell (New York: North-Holland, 1985): ``The diagram ... was drawn by Dr. Robert M. Metcalfe in 1976 to present Ethernet ... to the National Computer Conference in June of that year. On the drawing are the original terms for describing Ethernet. Since then other terms have come into usage among Ethernet enthusiasts.'' Die erste Skizze ist auch noch überliefert: For a report on the experimental Ethernet system by two of the inventors see: Ein Bericht der Erfinder über das Experimental-Ethernet findet man in dem Zeitschriftenartikel: Robert M. Metcalfe and David R. Boggs.``Ethernet: Distributed Packet Switching for Local Computer Networks,'' Association for Computing Machinery, Vol 19/No 7, July 1976. Entwicklung der Übertragungsmedien (IEEE 802.3) 10Base5 (Thick-Ethernet, Yellow-Cable) Ethernet mit einer Bandbreite von 10 Mbit/s Über Yellow-Cable. Die maximale Kabellänge eines Segments beträgt 500 Meter. Die beiden Kabelenden müssen mit Abschlußwiderständen abgeschlossen werden. Pro Segment dürfen 100 Endgeräte angeschlossen werden. Der Abstand zwischen zwei Stichleitungen muß ein Vielfaches von 2,5m betragen. Die Stichleitungen dürfen nicht länger als 50 Meter sein. 10Base-T Übertragung von 10 Mbit/s über Twisted-Pair-Kabel Hub notwendig Maximale Entfernung 100m Es werden zwei Adernpaare benötigt Kabel ab Kategorie drei Mit Switch Full-Duplex-Betrieb möglich Verbindung von 2 Stationen ohne Hub 10Base2 (Thin-Ethernet, Cheapernet) Ethernet über RG58 50-Ohm-KoaxKabel Nur für 10Mbit/s BNC-Stecker und T-Stücke zur Verbindung An beiden Enden ein 50-OhmAbschlußwiderstand Maximale Segmentlänge: 185m Mindest Stationsabstand: 0,5m Maximale Anzahl Stationen: 30 Keine Stichleitungen erlaubt 100Base-T Übertragung von 100 Mbit/s über Twisted Pair Kabel Hub notwendig Maximale Entfernung 100m Es werden zwei Adernpaare benötigt Kabel ab Kategorie fünf Mit Switch Full-Duplex-Betrieb möglich Verbindung von 2 Stationen ohne Hub mit Cross-Over-Kabel möglich 10BaseFB "B" für Backbone Übertragung von 10 Mbit/s Über LWL Maximal 15 Repeater Maximale Segmentlänge 2000m Signalisierung ist synchron mit Fehlererkennung 100BaseFX Übertragung von 100 Mbit/s über LWL Maximale Segmentlänge von 400m Max. Distanz zwischen zwei 100BaseFX Switches 2000m 1000BaseLX Übertragung von 1000 Mbit/s über LWL "L" für Long Wavelength von 1300nm Max. Distanz mit Multimodefasern 550m Max. Distanz mit Monomodefaser 3000m Full-Duplex 1000BaseCX "C" für Copper. Übertragung von 1000 Mbit/s über STP-Kabel 150 Ohm Wellenwiderstand Max. Distanz 25m Full-Duplex 10GBaseLX4 Übertragung von 10000 Mbit/s Über LWL "L" für Long Wavelength "X" für WWDW (Wide Wave Division Multiplexing) 8B/10BEncoding "4" für die vier Bereiche: mit Cross-Over-Kabel möglich 10BaseFL Übertragung von 10 Mbit/s über LWL Maximal 5 Repeater Maximale Segmentlänge 2000m. 100BaseT4 Übertragung von 100 Mbit/s über Cat5-Kabel Es werden alle 4 Adernpaare benutzt 1000BaseSX Übertragung von 1000 Mbit/s über LWL "S" für Short Wavelength 850nm Max. Distanz mit 62,5μm Multimodefasern 270m Max. Distanz mit 50μm Multimodefasern 550m Full-Duplex 1000BaseT Übertragung von 1000 Mbit/s über CAT-5-Kabel "T" für Twisted Pair Max. Distanz 100m. Alle vier Paare sind notwendig Full-Duplex 10GBaseSX4 Übertragung von 10000 Mbit/s über LWL "S" für Short Wavelength "X" für CWDW (Coarse Wave Division Multiplexing) "4" für die vier Bereiche: o 773,5nm - 786,5nm o o o o 1269,0nm - 1282,4nm 1293,5nm - 1306,9nm 1318,0nm - 1331,4nm 1342,5nm - 1355,9nm Max. Distanz mit 10μm Monomodefasern 10km Max. Distanz mit 50μm Multimodefasern 300m nur Full-Duplex 10GBaseSR Übertragung von 10000 Mbit/s über LWL "S" für Short Wavelength von 850nm "R" für Serial 64B/66B Encoding Max. Distanz mit 50μmMultimodefasern 65m nur Full-Duplex, nur Fiber o o o 10GBaseSW 10GBaseLW Übertragung von 10000 Mbit/s über LWL "L" für Long Wavelength von 1310nm "W" für Serial WIS (WAN Interface Sublayer) Encoding Ethernet in SONET STS192c Max. Distanz mit 10μmMonomodefasern 10km nur Full-Duplex, nur Fiber 10GBaseER Übertragung von 10000 Mbit/s über LWL "E" für Long Wavelength von 1550nm "R" für Serial 64B/66B Encoding Max. Distanz mit 10μmMonomodefasern 40km nur Full-Duplex, nur Fiber Übertragung von 10000 Mbit/s über LWL "S" für Short Wavelength von 850nm "W" für Serial WIS (WAN Interface Sublayer) Encoding Ethernet in SONET STS192c Max. Distanz mit 50μmMultimodefasern 65m nur Full-Duplex, nur Fiber 10GBaseLR Übertragung von 10000 Mbit/s über LWL "L" für Long Wavelength von 1310nm "R" für Serial 64B/66B Encoding Max. Distanz mit 10μmMonomodefasern 10km nur Full-Duplex, nur Fiber 10GBaseEW Promiscous Mode 789,5nm - 811,5nm 823,5nm - 836,5nm 848,5nm -861,5nm Max. Distanz mit 62μm Multimodefasern 100m Max. Distanz mit 50μm Multimodefasern 300m nur Full-Duplex, nur Multimodefasern kein Standard Übertragung von 10000 Mbit/s über LWL "E" für Long Wavelength von 1550nm "W" für Serial WIS (WAN Interface Sublayer) Encoding Ethernet in SONET STS192c Max. Distanz mit 10μmMonomodefasern 40km nur Full-Duplex, nur Fiber Normalerweise nimmt ein Netzwerkinterface nur Datenpakete an, die an seine Hardwareadresse gerichtet sind und leitet diese an die höheren Schichten weiter. Manche Interfaces lassen sich aber in den sogenannten "promiscous mode" schalten. In diesem Modus werden alle Frames an die höheren Schichten weitergeleitet. Dieser Modus wird beispielsweise von Netzwerk-Überwachungstools oder transparenten Bridges verwendet. Power over Ethernet Die Stromversorung von Endgeräten in der Netzwerktechnik wurde bisher den Herstellern der Endgeräte selber überlassen. Die lösten die Stromversorgung mit geringen Leistungen meist über Steckernetzteile. Dazu ist neben jeder Netzwerkdose auch eine Steckdose des 230VNetzes erforderlich. Mit dem IEEE-Standard Power-over-Ethernet (PoE) bzw. IEEE 802.3af wurde dieses Problem gelöst. Laut Spezifikation wird eine Leistung von 12,95 Watt zu Verfügung gestellt. Damit eignet sich diese Technik hervorragend um Webcams, Print-Server, IP-Telefone (Voice-over-IP), Wireless LAN Access Points, Handheld-Computer und sparsame Notebooks mit Strom zu versorgen. Die Stromversorgung über die Signalleitungen wirkt sich bei 10BaseT (10 Mbit/s) und 100BaseTX (100 Mbit/s) nicht allzu störend auf das Ethernet-Signal aus. Auf 1000BaseT Gigabit-Ethernet ist PoE zwar möglich, wird aber nicht empfohlen, da 1000BaseT alle 8 Adern im Kabel belegt und man deshalb in jedem Fall auf das ohnehin empfindliche GigabitEthernet-Signal einwirken würde. Bis alle eingesetzten Switches und Hubs über PoE verfügen muss man noch auf eine Bastellösung zurückgreifen. Bei einzelnen Komponenten, die über Power-over-Ethernet mit Strom versorgt werden können, tut es ein einfacher Power Injektor, der im Leitungsnetz zwischen Hub/Switch und Endgerät geschaltet wird. Gibt es in einem Netzwerk mehrere Power-over-Ethernet-Endgeräte, dann ist ein Power Hub nötig, der dann beim Hub/Switch installiert sein sollte. Die Technologie von Power over Ethernet erlaubt es kleinere Netzwerkgeräte, wie z.B. IPTelefone, Accesspoints, Netzwerkameras etc., ohne eine externe Stromquelle zu betreiben. Die Idee der Stromversorgung über die Netzwerkleitung ist jedoch schon älter, nur gab es bislang keinen gültigen Standard, so daß verschiedene Hersteller eigene Lösungen entwickelten. Dadurch war die Gefahr groß, daß man aus Versehen inkompatible Komponenten durch das Anschließen beschädigt. Im IEEE 802.3af wird zwischen 2 Kernkomponenten unterschieden. Power Sourcing Equipment (PSE). Diese Komponenten speisen das Netz mit Strom. Es sind meistens aktive Netzkomponenten oder Patchfelder mit PoE-Support. Powered Devices (PD). Dies sind die Energieverbraucher. Sie müssen PoE unterstützen. Bei den Stromeinspeisungen unterscheidet man zwischen Endspan und Midspan Insertion. Die Endspan-Systeme sind aktive Komponenten (hauptsächlich Switches), die die angeschlossenen Geräte direkt über die Ethernetports mit Strom versorgen. Der Nachteil dieser Geräte ist die hohe Leistungsaufnahme und eine hohe Abwärme. Die Midspan-Systeme nehmen die Daten der aktiven Komponente entgegen und leiten sie gemeinsam mit der Versorgungsspannung an die Endgeräte weiter. Die Übertragung der 48-V-Gleichspannung ist für maximal 100 Meter ausgelegt, was auf das Ethernet abgestimmt wurde. Die angeschlossenen Geräte dürfen 350 mA Strom abnehmen und die maximale Speiseleistung beträgt 15,4 W. Die Versorgung der Endgeräte erfolgt über Cat.5 Kabel mit RJ-45 Steckern. Das PoE-Verfahren macht sich die Tatsache zu nutze, dass von den 4 vorhandenen Adernpaaren lediglich 2 zur Datenübertragung benutzt werden. Schutzmechanismen Da man in einem LAN natürlich nicht nur PoE-Geräte betreiben will, hat das IEEE ein Verfahren erarbeitet, das Endgeräte vor möglichen Schäden schützt. Dieses Verfahren wird Resistive Power Discovery genannt. Hierbei prüft der PSE das PD auf Kompatibilität, indem es in zyklischen Abständen einen minimalen Strom einspeist und daran erkennt, ob das PD einen 25-Kiloohm-Abschlusswiderstand besitzt. Wenn nicht ist das Endgerät nicht PoE-fähig. Wenn ja kann der PSE das PD mit Energie versorgen. Jetzt wird das PD mit einer geringen Leistung versorgt. Das PD signalisiert nun dem PSE welcher der 5 Leistungsklassen es angehört. Die Erkennung erfolgt innerhalb einer Sekunde. Einen weiteren Schutz bietet der Disconnect-Schutzmechanismus. Wenn ein PD entfernt wird, deaktiviert der PSE automatisch die Stromversorgung des entsprechenden Ports. Dieser Mechanismus soll das Vertauschen von PoE-fähigen mit Standardgeräten verhindern. Es werden folgende Leistungsklassen unterschieden: Klasse Verwendung Max. Einspeiseleistung (PSE) Max. Entnahmeleistung (PD) 0 default 15,4 W 0,44 bis 12,95 W 1 optional 4,0 W 0,44 bis 3,84 W 2 optional 7,0 W 3,84 bis 6,49 W 3 optional 15,4 W 6,49 bis 12,95 W 1 reserviert 15,4 W Reserviert Belegung des RJ45-Steckers bei Power-over-Ethernet Für die Übertragung der Stromversorgung wird das Adernpaar 4/5 für den Pluspol und das Adernpaar 7/8 für den Minuspol verwendet. Pin Leitung Pin Leitung 1 TX+ 5 PoE/G 2 TX- 6 RX- 3 RX+ 7 PoE/-48V 4 PoE/G 8 PoE/-48V Wird die Netzwerkverkabelung auch für andere Anwendungen, z. B. für Telefonie, genutzt, dann ist Vorsicht beim Einsatz von Power-over-Ethernet-Netzwerk-Komponenten geboten. Mit einem Mechanismus sollten die Power-over-Ethernet-Netzwerkkomponenten vor dem Einschalten der PoE-Stromversorgung alle angeschlossenen Endgeräte auf PoE-Unterstützung überprüfen. Auf einen Anschluss sollte nur dann Spannung geschaltet werden, wenn dort auch ein Endgerät mit PoE-Unterstützung angeschlossen ist. Neues Kapitel Netzverkabelung und Netzplanung Grundlegendes Derzeit rüsten viele Unternehmen ihr Ethernet um. Der erste und meist teuerste Schritt auf diesem Weg ist die Neuverkabelung mit Twisted-Pair-Leitungen. Danach können weitere Maßnahmen ergriffen werden. Die klassische Maßnahme, das 'Bridging', wurde in KoaxNetzen häufig eingesetzt und lebt heute in den 'Switches' weiter. Das Aufteilen eines Netzes in mehrere Teilnetze, auch 'Collision Domains' genannt, läßt nicht mehr jedes Datenpaket zu jeder Station gelangen; es können so viele Transaktionen gleichzeitig stattfinden, wie Collision Domains im Netz vorhanden sind - im Extremfall (Switch) ist jeder Hub-Anschluß einer eigenen Collision Domain zugeordnet. An die Switch-Anschlüsse können in der Regel wieder gewöhnliche Repeating Hubs angeschlossen werden; Switching kann so nach und nach im Netz eingeführt werden, um die Collision Domains immer weiter zu verkleinern - bis im Idealfall jedem Rechner ein privates Segment zur Verfügung steht. Switches sind heute nicht teuerer als Hubs, daher spricht alles für eine Strukturierung des Netzes mit Switches. In einem Peer-to-Peer-Netz (z. B. Unix oder auch Windows ab 95) ohne zentrale Server genügt meistens ein reiner 10BaseT-Switch. Gibt es einige, wenige Server, so kann der Server über mehrere Ethernet-Segmente parallel mit dem Switch verbunden werden, so daß der Datenverkehr zwischen Server und Netz gebündelt wird. Es gibt auch Switches mit einem oder mehreren 100-MBit-Anschlüssen. Diese können an den oder die Server angeschlossen werden, um alle Anwender im Netz deutlich schneller mit Daten zu versorgen ohne daß deren LAN-Adapter auch nur berührt werden müßten. Die Server und zentralen Switches werden am besten in einem 19"-Schrank untergebracht, der zusätzlich noch Belüftung und eine USV (unterbrechungsfrei Stromversorgung) aufnehmen kann. Die Schränke besitzen Einschübe für die Server und sind so gestaltet, daß man von vorne und hinten guten Zugang zu den Rechnern hat. Das Bild rechts zeigt den Blick von hinten auf die Server im Schrank. Die Verschliessbarkeit des Schranks sorgt auch für einen Schutz der Server vor unberechtigtem Zugriff. Da Twisted-Pair-Kabel heutzutage den Standard darstellen, sollte man auf jeden Fall bei der Neuverkabelung gleich Cat-5-Kabel oder bessere verwenden, um für die Datenrate von 100 MHz gerüstet zu sein. Leider ist der verwendete RJ45-Stecker relativ filigran. Neben der Zerbrechlichkeit der Stecker kommt es bei Hochgeschwindigkeitsnetzen zu Problemen: Die Drähte und Kontakte werden über eine kleine Strecke parallel geführt, wodurch die Wirkung der Twisted-Pair-Kabel aufgehoben wird. Ein weiterer Kritikpunkt an der RJ45-Technik ist die Einheitlichkeit der Dosen. Der Anwender am Arbeitsplatz kann nicht erkennen, welchem Dienst die Dose zugeordnet ist (Netz, analogens Telefon, ISDN, etc.). Selbst Farbkennzeichnung oder Beschriftung hindert viele Leute nicht daran, 'es mal an der anderen Dose zu versuchen'. Und da kann die Rufspannung analoger Telefone schon einmal einen Netzwerkadapter 'killen'. 10 MBit/s (IEEE 802.3) und 100 MBit/s (IEEE 802.3u) verwenden eine HalbduplexÜbertragung über zwei Aderpaare. Bei einer Migration von 10 auf 100 MBit/s bleibt zumindest die Infrastruktur des Kabelnetzes bestehen. Demgegenüber setzt Gigabit-Ethernet (IEEE 802.3ab) auf eine Vollduplex-Übertragung über alle vier Paare. Zwar ermöglicht diese Technik die Verwendung der eigentlich nur bis 100 MHz spezifizierten CAT-5-Kabel, dazu müssen die Komponenten allerdings anders beschaltet werden. Strukturen der Gebäudeverkabelung Früher war eine "Bedarfsverkabelung" üblich. Die Netztechnik bestimmte die Art der Verkabelung (Ethernet: busförmige Koaxverkabelung, FDDI: ringförmig mit Lichtwellenleitern). Die Standorte der Rechner und Terminals bestimmte die Netzausdehnung. Heute gilt ganz klar die Prämisse: strukturierte Verkabelung. Die Netztechnik hat sich an eine genormte Verkabelung anzupassen. Jeder Arbeitsplatz bekommt automatisch eine Datennetzdose. Das bringt anfangs zwar höhere Investitionskosten, ist aber zukunftssicher. Fehler wirken sich nur lokal aus, denn jeder Anschluß hat sein eigenes Kabel. Basis der heutigen Gebäudeverkabelung von Netzen sind die in den letzten Jahren erarbeiteten Normen auf diesem Gebiet. Dabei gibt es im wesentlichen drei grundlegende Normen, die für bestimmte geographische Regionen von Bedeutung sind: EN 50173 (1995): Informationstechnik: Anwendungsneutrale Verkabelungssysteme ISO/IEC 11801 (1995): Generic cabling for customer premises EIA/TIA 568 A/B (1994): Commercial building telecommunications cabling standard Die EN 50173 und die ISO/IEC 11801 haben im wesentlichen den gleichen Inhalt und enthalten auch die gleichen Anforderungen an die Kabel und Komponenten. Die EN 50173 ist eine europäische Norm, während die ISO/IEC 11801 weltweit verwendet wird. Die EIA/TIA568 A/B wurde speziell für den nordamerikanischen Markt von der dortigen Telekommunikationsindustrie entwickelt. Sie ist eigentliche keine Norm, sondern lediglich eine Industrie-Spezifikation. Sie enthält auch geringere Anforderungen bezüglich der übertragungseigenschaften der Kabel als die anderen Bestimmungen. In der EN 50173 wird ebenso wie in der ISO/IEC 11801 die Gebäudeverkabelung in vier Bereiche eingeteilt. den Primär- oder Campusbereich für die Verbindung der Gebäude eines Standortes untereinander, den Sekundär- oder Steigbereich für die Verbindung der einzelnen Etagen eines Gebäudes, den Tertiär- oder Horizontalbereich für die Verbindung der Anschlußeinheiten wie die Wanddose mit dem Etagenverteiler und den Arbeitsplatzbereich für den Anschluß der Endgeräte an die Anschlußeinheiten. In allen drei Bereichen der Inhouse-Verkabelung (oft auch Ebenen genannt) können sowohl Verkabelungen mit symmetrischen Kupferkabel (Twisted Pair) und -komponenten als auch mit Lichtwellenleiterkabel und -komponenten verwendet werden. Im Campusbereich werden ausschließlich LWL-Kabel und -Komponenten verwendet. Campusverkabelung und Steigbereich Auf Grund der größeren übertragungsstrecken und dem steigenden Datenaufkommen hat sich sowohl für den Campus- als auch für den Steigbereich die Lichtwellenleiterverkabelung durchgesetzt. Im Außenbereich werden LWL-Außenkabel mit Multimodefasern verwendet. Sollten Kabellängen von größer 2000 m notwendig sein oder extrem hohe Datenraten anfallen, können ebenso Kabel mit Singlemodefasern verwendet werden. Die Faseranzahl sollte in jedem Fall so bemessen sein, daß zukünftiges Wachstum der Netzanforderungen erfüllt werden kann. Als Faustregel sollte man 50% Reserve zum derzeitigen Bedarf addieren. Werden also derzeit acht Fasern benötigt, sollte ein Kabel mit zwölf Fasern verwendet werden. Im Steigbereich werden meist LWL-Innenkabel, ebenfalls mit Multimodefasern, eingesetzt. Dabei empfiehlt die EN 50173 die Verwendung von 62,5-Mikrometer-Multimodefasern. Multimodefasern mit 50 Mikrometern sind aber ebenfalls zugelassen. Sind die Entfernungen klein (< 100 m) und die zu erwartenden Datenraten pro Teilnehmer gering (< 10 Mb/s), so kann im Steigbereich auch eine Verkabelung mit symmetrischen Kupferkabeln vorkommen. Dabei sollte aber ein qualitativ hochwertiges System eingesetzt werden, da ein Ausfall oder eine überlastung in diesem Bereich schwerwiegende Konsequenzen für das ganze Netz hat. Horizontalverkabelung und Arbeitsplatzbereich Im Horizontalbereich und für die Arbeitsplatzverkabelung werden zumeist hochwertige, geschirmte symmetrische Kupferkabel und -komponenten eingesetzt, da hier der Anschluß an viele einzelne Schnittstellen vorgenommen wird. Wird auch im Horizontal- und Arbeitsplatzbereich mit Lichtwellenleitern (LWL) verkabelt, stehen damit höhere Bandbreiten zur Verfügung und es lassen sich längere Strecken realisieren. LWL-Verkabelung kann auch dann sinnvoll sein, wenn man einfach die EMV-Immunität und die übertragungssicherheit ausnutzen will. Die Einführung von "Fiber-to-the-desk", der LWL-Verkabelung bis zum Arbeitsplatz, ist wohl bald Realität. Es ist auch möglich, beispielsweise den Steig- und den Horizontalbereich durchgehend mit LWL zu verkabeln, um damit Etagenverteiler einzusparen. Man spricht dann von einer zentralisierten Verkabelung. Netzstrukturen Die heutige Verkabelung wird im allgemeinen hierarchisch in einem physikalischen Stern aufgebaut. Der Standortverteiler (auch: Hauptverteiler) als zentrale Schaltstelle ist mit den Gebäudeverteilern in den einzelnen Gebäuden sternförmig verkabelt. In den Gebäuden werden die Etagen- verteiler ebenfalls sternförmig mit dem Gebäudeverteiler verkabelt. In der Horizontalebene schließlich findet eine ebenfalls sternförmige Verkabelung der Anschlußeinheiten wie der Wanddose mit dem Etagenverteiler statt. Als Verteiler zum Abschluß der Kabel werden Schränke und Gestelle in 19"-Technik eingesetzt. 19"-Einschübe übernehmen in diesen Schränken die Kabelbefestigung, die Speicherung einer Reservelänge, die Unterbringung von Spleißkassetten (falls verwendet) und das Montieren der Stecker und Kupplungen bzw. Buchsen auf den Verteilerfeldern. Werden nur kleinere Faserzahlen benötigt, so können statt der 19"-Schränke die kompakteren Wandverteiler eingesetzt werden. Im Tertiärbereich werden zum Kabelabschluß Wand- und Bodentankdosen verwendet. Diese Anschlußeinheiten übernehmen hier die Kabelbefestigung, die Speicherung der Reservelänge und das Montieren der Buchsen bzw. Stecker und Kupplungen. Sie bilden den Abschluß der diensteunabhängigen Verkabelung. Das Endgerät (der PC, die Workstation, der Drucker, das Telefon, etc.) wird mit konfektionierten Kabeln an die Wanddose oder den Bodentank angeschlossen. Die Verteilung der Switch- oder Routerports auf die Endgerätedosen erfolgt über ein Patchfeld. Es handelt sich dabei um ein Feld mit Netzwerk-Steckdosen (z. B. RJ-45Dosen), an welche die Kabel zu den Anschlußdosen in den einzelnen Rämen angeschlossen sind. Die Verbindung zu den aktiven Komponenten erfolgt dann über kurze Patchkabel. Die logische Netzstruktur der Verkabelung hängt davon ab, wie die einzelnen Netzwerkknoten miteinander kommunizieren. Darunter sind die Protokolle, Zugriffsverfahren und Konventionen auf der elektronischen Ebene zu verstehen. Die heute am weitest verbreiteten Standards für solche logischen Netzstrukturen sind: ISDN nach DIN EN 50098 für bis zu 2 Mbit/s in einer sternförmigen Verkabelung Ethernet nach IEEE 802.3 für 10 und 100 MHz übertragungsbandbreite als logischer Bus Token Ring nach IEEE 802.5 für 4 und 16 Mbit/s als logischer Ring FDDI bzw. TPDDI (PMD) nach ANSI X3T12 für bis zu 100 Mb/s als logischer (Doppel-)Ring ATM definiert im ATM-Forum für bis zu 622 Mbit/s Für die Umsetzung von der logischen in die physikalische Netzstruktur haben sich Netzwerkkonzentratoren etabliert. Hier werden alle wichtigen Netzwerkaktivitäten zusammengefaßt, was auch die Verkabelung und die Fehlersuche wesentlich erleichtert. Dadurch ist es möglich, beispielsweise das Ethernet 10/100BaseT-Verfahren als logisches Bussystem in einer sternförmigen Verkabelung zu realisieren. Netzplanung Aufgaben der Netzplanung Festlegen der Netzstruktur, die den gewünschten Funktionen des EDV-Systems gerecht wird. Umsetzen organisatorischer und topologischer Strukturen in die Netzstruktur Berücksichtigung von Datenschutz, Betriebs- und Einbruchssicherheit Koordination mit Provider, Registrierungs- und Ressourcenvergabestellen Netzwerkkomponenten, die zu berücksichtigen sind: o Hubs, Bridges, Router, Gateways o Paketfilter, Application Gateways o Accounting- und Diagnosetools Anforderungen an eine Netzwerkverkabelung o offen für verschiedene LAN-Techniken (heutige und zukünftige) o herstellerunabhängig o o o o o o genügend übertragungskapazität auch für die Zukunft zuverlässig, unempfindlich gegen Störeinflüsse wartungsarm wirtschaftlich gerechtfertigte Lösung Integration bestehender Installationen vorhandene Komponenten sollen einbindbar sein Ein grosses oder mehrere kleine Netze? Vorteile eines (grossen) zusammenhängenden Netzes: einheitliche Administration einfacher bei geringer Netzlast höchste Kommunikationsgeschwindigkeit zwischen allen Rechnern Manche Protokolle funktionieren nur auf einem (logischen) Netzwerkstrang, z. B. o bootp: Booten von Rechnern über ein Netzwerk o X-query: dynamisches Verbinden eines X-Terminals mit einer Workstation o Anschluß von Diskless Clients Nachteile eines zusammenhängenden Netzes: Bei Ethernet kommt jedes Paket an jedem Rechner vorbei. Die Netzlast addiert sich also und Datenpakete können an allen Stellen des Netzes gelesen werden. Eine einzelne fehlerhafte Komponente stört das ganze Netz. Vorteile kleinerer Teilnetze: Administrationsverantwortung leicht delegierbar Bessere Lastverteilung überwindung grösserer Entfernungen möglich Nachteile kleiner Teilnetze: Höherer Administrationsaufwand: Vergabe von Netznummern, Aufsetzen von Bridges/Routern und Routingtabellen Bei ungeschickter Vernetzung bilden Bridges/Router einen Flaschenhals. Man sollte Netze nicht aufteilen, solange sie überschaubar sind und keine Lastprobleme haben. Die Netze müssen aufgeteilt werden, wenn Last, Sicherheit oder Topologie es erfordern. Beim Aufteilen ist auf möglichst kurze Kommunikationswege zu achten. Die maximale Kabellänge und die Begrenzung der hintereinander schaltbarer Komponenten spielt eine Rolle (max. 4 Hubs hintereinander, max. 7 Bridges/Switches hintereinander). Auch bei kleinen Netzen sollte ein eigener Serverraum eingeplant werden. Der Serverraum sollte so plaziert sein, daß bei Netzerweiterungen die Verkabelung unproblematisch bleibt. Vom Serverraum zu den Verteilern (Switches) sollte aus Gründen der zukunftssicheren Verkabelung redundant ausgelegtes Cat-5-Kabel (optional Glasfaserkabel) verlegt werden. Das folgende Bild zeigt den Schnappschuß eines typischen Schaltschrank, der mit Switches bestückt ist. Ein KVM-Switch (Keyboard, Video, Mouse) erlaubt es, die Server über einen einzigen Monitor mit Tastatur und Maus zu bedienen. Viele KVM-Switches lassen sich per Netzwerkkabel expandieren, der Bedienmonitor kann dann sogar im Nebenzimmer stehen. Auswahl der Verbindungskomponenten Kabelarten: * Primärbereich: Glasfaserverbindungen * Sekundärbereich: Glasfaser- oder Twisted Pair-Verbindungen * Tertiärbereich: Twisted Pair-Verbindungen Repeater: + einfache Verbindung zweier Kabelsegmente gleicher Technologie - keine Lasttrennung, nur Durchreichen von Paketen Bridges: + Kopplung von Netzen verschiedener Technologie - keine Lasttrennung bei Diensten, die auf Broadcasts basieren Switches: + intelligente Kopplung, dadurch Lasttrennung - keine Lasttrennung bei Diensten, die auf Broadcasts basieren Router: + logische Trennung der Netze, getrennte Administration leichter möglich + Gesicherter übergang durch Paketfilterung - höherer Konfigurationsaufwand Vergabe von IP-Nummern Soll das Netz (evtl. später) an das Internet angeschlossen werden und die IP-Nummern nach aussen sichtbar sein? Dann müssen global eindeutige IP-Nummern beim Internet-Provider angefordert werden. Ansonsten verwendet man IP-Nummern für ausschließlich interne Verwendung (gem. RFC 1918): 10.0.0.0 - 10.255.255.255 172.16.0.0 - 172.31.255.255 192.168.0.0 - 192.168.255.255 (ein Class-A-Netz) (16 Class-B-Netze) (256 Class-C-Netze) Zum Anschluss dieser Netze an das Internet ist ein Router mit NAT und IP-Maskierung nötig. Die interne Adressenverteilung erfolgt in jedem Fall bevorzugt per DHCP-Protokoll (siehe unten), da in diesem Fall alle Clients gleich konfiguriert werden können und nur soviel Adressen gebraucht werden wie Rechner aktiv sind. Vergabe von Domainnamen Beantragt wird normalerweise eine Second-Level-Domain unterhalb von .de .com. net .org. Die Vergabe erfolgt in der Regel durch den Provider - sofern die Wunschdomain noch frei ist. Vergabe von Rechnernamen Sei netzmafia.de der benutzte Domainname. Dann sind gängige Aliase: gate.netzmafia.de mail.netzmafia.de news.netzmafia.de www.netzmafia.de ftp.netzmafia.de ns.netzmafia.de Die Zuordnung der Rechnernamen kann erfolgen als: Flacher Namensraum, z. B.: alpha.netzmafia.de beta.netzmafia.de gamma.netzmafia.de delta.netzmafia.de ... Hierarchischer Namensraum, z. B.: alpha.direktion.netzmafia.de beta.direktion.netzmafia.de ... alpha.vertrieb.netzmafia.de ... alpha.entwicklung.netzmafia.de ... Die Rechnernamen werden von mindestens zwei Nameservern verwaltet (Ausfallsicherheit). Beispiel einer Vorgabe zur Netzplanung Beispiel-Szenario: Die Firma Netzmafia, Hard- und Softwareentwicklungen, möchte Internet-Anschluß. Das Unternehmen sitzt in zwei Gebäuden: o Gebäude 1: Geschäftsführung, Vertrieb, Verwaltung, Personalbüro o Gebäude 2: Hardware-Entwicklung, Software-Entwicklung, Technik Alle Mitarbeiter sollen per E-Mail erreichbar sein und auf das WWW zugreifen können. Die Firma betreibt einen WWW-Server, auf dem die Entwicklungsabteilungen und der Vertrieb Informationen zur Verfügung stellen. Die Entwicklungsabteilungen stellen Patches und Treiber per FTP zur Verfügung. Die Hardware-Entwicklungsabteilung experimentiert gelegentlich mit instabilen Netzwerkkomponenten, während die übrigen Abteilungen auf ein zuverlässiges Netz angewiesen sind. Von sämtlichen Rechnern sollen regelmässig Backups angefertigt werden. Lösung (e pluribus unum): Reservierung des Domainnamens netzmafia.de Anforderung eines kleinen Netzes, z. B. eine Class-C-Netzes (254 Knoten) oder eines Class-C-Subnetzes (126, 62, 30 Knoten) Zuordnung der Namen: gate.netzmafia.de srv1.netzmafia.de srv2.netzmafia.de srv3.netzmafia.de 141.39.253.253 141.39.253.1 141.39.253.2 141.39.253.3 Dazu kommen noch Alias-Einträge: ns.netzmafia.de mail.netzmafia.de www.netzmafia.de ftp.netzmafia.de gate.netzmafia.de srv3.netzmafia.de srv3.netzmafia.de srv2.netzmafia.de Die übrigen Rechner erhalten interne IP-Nummer und können nur über Proxies auf gate.netzmafia.de auf das Internet zugreifen. Eingehende Mail gelangt über einen Mail-Proxy an den Mailserver. Von dort aus erfolgt die Verteilung per IMAP oder POP3. Ausgehende Mail wird direkt über den Mail-Proxy ins Internet verschickt. Der primäre Nameserver steht in Gebäude 2, der Secondary NS beim Provider. In Gebäude 2 ist zur Entlastung der Standleitung jeweils ein DNS- und WWWCache installiert. Das Testnetz der Hardwareabteilung ist abgetrennt, aber bei Bedarf manuell zuschaltbar. An diesem Beispiel lassen sich einige Aufgaben des Netzwerk-Managements feststellen: Planung der Protokoll-Konfiguration (Bezug der IP-Adresse über DHCP, Festlegung des Gateways und DNS-Servers) Bei Windows-basierten Systemen muß noch für jeden Client festgelegt werden, an welchem Fileserver er sich anmeldet und zu welcher Arbeitsgruppe er gehört. Der Anschluß von Druckern und anderen Peripheriegeräten wurde im Beispiel nicht berücksichtigt. Auch hier muß festgelegt werden, unter welchem Pfad die Drucker angesprochen werden können. ähnlich dem Internet Domain Name System (DNS) sind auch andere hierarchische Namensräume verfügbar, z. B. die Directory Services von Novell (NDS) oder die Directory Services und Domänen von Windows 2000/XP. Nach der Grundinstallation ist dann noch die Vergabe von Benutzer- und Zugriffsrechten nötig. Insbesondere die Zugriffsrechte auf bestimmte Geräte sind oft Restriktionen im Dienste des Benutzers. Man denke z. B. an einen freigegeben Drucker, der im Nachbargebäude steht. Die Benutzer würden in der Regel vergeblich am lokalen Drucker nach ihren Ausdrucken suchen und sich beschweren. Auf den Servern muß ggf. Backup-Software installiert und getestet werden. Administrative Clients werden mit Software zur Netzwerküberwachung eingerichtet. Zusammen mit der Planung wird das Netz dokumentiert. Neben Angaben über die Topologie sind auch alle Kabelwege, Standorte von Netzkomponenten (Hub, Switches, Router, usw.), Server und Peripheriegeräten zu dokumentieren. übersichtsgrafiken lassen sich recht schnell mit speziellen Tools wie Visio (Microsoft) oder Acrix (Autodesk) erstellen, für die Grafikbibliotheken mit speziellen Symbolen für die Netzkomponenten erhältlich sind. Unter UNIX gibt es ein Tool namens 'tkinetd', das die Rechner im Netz sucht und automatisch eine Grafik erzeugt. Die Standorte der Komponenten und Dosen trägt man am besten auf der Kopie des Bauplans ein. Netz-Dokumentation Bei vielen Administratoren gehört die Dokumentation des Netzwerkes zu den "unangenehmen" und vernachlässigten Aufgaben. Das Verkabelungspläne und Konfigurations-Beschreibungen sehr wichtig sind fällt den meisten erst dann auf, wenn die bestehende Leitungsführung verändert werden soll oder ein Fehler auftritt. Ohne ausreichende Dokumentation wird die Erweiterung und Fehlersuche zu einer sehr kostenintensiven und langwierigen Angelegenheit. Aber die Bedeutung einer kompletten und aktuellen Dokumentation für die schnelle Wiederherstellung des lokalen Netzes nach einem Unglück kann nicht hoch genug bewertet werden.Sie ermöglicht zudem den täglichen Überblick und bietet Hilfen bei der Fehlersuche. Zusammen mit der Planung wird das Netz dokumentiert. Neben Angaben über die Topologie sind auch alle Kabelwege, Standorte von Netzkomponenten (Hub, Switches, Router, usw.), Server und Peripheriegeräten zu dokumentieren. Die Praxis zeigt leider, daß die Dokumentation bei einer Neuistallation grade noch eben so klappt, nachträgliche Änderungen werden aber meist nicht mehr dokumentiert. Für kleine Netze genügt ein Gebäude- oder Raumplan, in den mit Bleistift und Lineal die Datenleitungen eingezeichnet werden. Dokumentiert werden Kabelführungen, Lage der Anschlußdosen, Standort der Stationen und Komponenten (Hubs, Switches, usw.). Für jedes eingezeichnete Element sollte eine sinnvolle Kurzbezeichnung vergeben werden, die die eindeutige Zuordnung erlaubt. Die Art der Bezeichnung sollte Raum für spätere Erweiterungen bieten. Soll ein bestehendes Netz in naher Zukunft in größerem Umfang erweitert werden, dann sollte der Lageplan mit Hilfe eines einfachen Zeichen-Programmes erstellt werden. Diese Lösung benötigt zunächst mehr Zeit als das einfache Einzeichnen in den Gebäudeplan, ist aber durch die vielfältigen Editiermöglichkeiten flexibler. Übersichtsgrafiken lassen sich recht schnell mit speziellen Tools wie Visio (Microsoft) oder Acrix (Autodesk) erstellen, für die Grafikbibliotheken mit speziellen Symbolen für die Netzkomponenten erhältlich sind. Unter UNIX gibt es ein Tool namen 'tkinetd', das die Rechner im Netz sucht und automatisch eine Grafik erzeugt. Die Kurzbezeichnungen der Elemente in den oben genannten Netzwerkplänen sind natürlich nur sinnvoll, wenn sie sich auf den entsprechenden Geräten und Anschlußpunkten wiederfinden. Dies wird über selbstklebene Etiketten erreicht. Alle Dosen, Hubs, Switches, Router und andere Geräte erhalten einen solchen Aufkleber. An den Stationen sollte das Etikett neben der Kurzbezeichnung auch den Netzwerk-Namen des Rechners, die Ethernet(MAC-Adresse) und gegebenenfalls die IP-Adresse aufführen. Für Kabel benötigt man mindestens zwei Beschriftungs-Fahnen: Eine am Anfang und eine am Ende der Leitung. Die Standorte der Komponenten und Dosen trägt man am besten auf der Kopie des Bauplans ein. Zeichnen Sie auch den Kabelzug ein. Erstellen sie eine schematische Zeichnung über alle Kabelsegmente, und zeichnen Sie alle Verbindungspunkte, Verbindungsausrüstungen und angeschlossenen Einheiten ein. Entwickeln Sie mit Hilfe dieser Zeichnung ein logisches System für die Benennung (Ziffern, Buchstaben) der Kabelsegmente und Ausrüstungen. Denken Sie daran, daß das Netz in Zukunft expandieren kann. Tragen Sie die Namen in die Zeichnungen ein. Erstellen Sie eine Liste über alle Kabelsegmente. Notieren Sie für jedes Segment dessen Name, Länge und Kabeltyp. Managebare Komponenten des Netzes (Switches, Router) werden oft wie Stecker und Kabel angesehen und vor dem Austausch einer Komponente nicht daran gedacht, die Konfiguration zu speichern oder zu dokumentieren. Bei Patch-Feldern kann abgelesen werden, welche logischen Zuordnungen durch Umstecken der Patch-Kabel möglich sind. Es ist daher sinnvoll, eine Kopie des Planes in der Nähe jeder "Patch-Einheit" aufzubewahren. Es versteht sich von selbst, daß jedes Kabel eindeutig identifizierbar sein muß. Es gibt im Handel genügend Systeme zur Kabelidentifizierung, z. B. kleine Plastikringe mit eingeprägten Nummern, die sich um das Kabel legen und verschließen lassen oder Kabelbinder mit Beschriftungsfahne. Damit ist eine Numerierung mit beliebig vielen Stellen möglich. Man kann aber auch Schlüsselanhänger aus Plastik nehmen, das Schildchen beschriften und den Anhänger mittels eines Kabelbinders am Kabel befestigen. Notfalls kann das Kabel auch mit einem wasserfesten Filzstift markiert werden. Die Kabelsegmente müssen an mindestens zwei Punkten (nämlich an jedem Ende) gekennzeichnet werden. Das Bild links zeigt einen Ausschnitt, bei dem man die weißen Markierungen gut erkennen kann. Genauso wie die Kabel müssen auch alle Ports von Patchfeldern beschriftet werden. Wenn sich Portzuordnungen häufig ändern, kann man die Ports auch durchnumerieren und in einer Liste die Zuordnung handschriftlich festhalten. Die Liste kommt in eine Prospekthülle, die im oder am Netzwerkschrank befestigt wird. Wenn man dann noch einen Stift an einer Schnur hängt, gibt es auch keine Ausreden mehr für fehlende Einträge. Zusätzlich zu Plänen und Beschriftungen sind, je nach Netzgröße, Aufstellungen in tabellarischer Form nützlich: Kabel-Tabelle: Hier wird jedes verlegte Kabel mit seiner Kurzbezeichnung und der aktuellen (gemessenen!) Länge aufgeführt. Es hat sich in der Praxis bewährt, die Längen bei Bus-Netzen von Zeit zu Zeit nachzumessen. So werden Leitungen entdeckt, deren Verlängerung nicht dokumentiert wurde, zum Beispiel weil sie nicht durch den Administrator, sondern durch die Anwender ausgeführt wurde. Patch-Tabelle: Diese Tabelle wird neben dem Patch-Feld ausgelegt und dokumentiert die aktuelle Zuordnung der einzelnen Leitungen. Stations-Konfiguration: In dieser Aufstellung wird die aktuelle NetzwerkKonfiguration jeder Station festgehalten. Je nach Anzahl der Rechner im Netz kann sie entweder per Hand (zum Beispiel auf Kartei-Karten) oder mit einem DatenbankProgramm erzeugt werden. Die Dokumentation des lokalen Netzes legt am besten in Form eines Betriebshandbuches an. Das Betriebshandbuch muß in mehreren Exemplaren vorhanden und dem Systemverwalter, Superusern und dem Benutzerservice sowie deren nächsten Vorgesetzten zugänglich sein. Das Betriebshandbuch sollte enthalten: Die LAN-Policy Ein kurzer Abriß der LAN-Politik des Unternehmens kann Informationen über Benutzergruppen, Paßwortpolitik und Möglichkeiten des externen Zugangs (remote login) enthalten. Das Kapitel kann außerdem Regelungen für die Ausleihe von PCAusrüstung nach Hause und Maßnahmen gegen PC-Viren, Hacker und das Kopieren von Software festlegen. Schlüsselpersonen Der Systemverwalter ist die absolute Schlüsselperson des lokalen Netzes. Außer diesem sind etwaige Benutzerservice-Mitarbeiter und Superuser wichtige Personen. Arbeitsgänge für Benutzerservice und -support Dieser Abschnitt beschreibt die Vorgehensweise beim Auftreten von Fehlern, die Aufgaben des Benutzerservices und Richtlinien für den Einkauf von Hardware und Software. Verwaltung von Hardware und Software Ein Hauptziel des Betriebshandbuches ist es, sicherzustellen, daß alle Standardkonfigurationsparameter dokumentiert sind, damit es möglich ist, Fehler und Unzweckmäßigkeiten zu berichtigen. Dieses Register ist auch für die Steuerung des Unternehmensbestandes an PCs und Zubehör sowie den Bestand an in Form von Originaldisketten oder -CDs von Bedeutung. Tägliche und wöchentliche Routinen des lokalen Netzes Das Betriebshandbuch kann Schulungs- und Anleitungsressourcen einsparen, indem es der Ort ist, wo alle administrativen Aufgaben beschrieben sind. Die wichtigsten Tätigkeiten sind das routinemäßige Backup und Restore, die Angaben der Verantwortlichen, Regeln für das Einrichten neuer Benutzer und die Erweiterung von Berechtigungen Sowie andere regelmäßige Tätigkeiten. Beschreibung der physischen Struktur des lokalen Netzes Die Dokumentation der Konfiguration von Servern und anderer zentraler Ausrüstung ist obligatorisch. Es ist besonders wichtig, daß Platten- und Volumenstrukturen des Fileservers sorgfältig dokumentiert werden, da diese Informationen entscheidend für ein problemloses Restore von Backups nach einem Systemausfall sind. Außer Fileservern umfaßt die zentrale Ausrüstung auch eventuell vorhandene Kommunikationsserver, E-Mail-Server, Testmaschinen und Netzdrucker.Die Kabelführung im lokalen Netz einschließlich der LAN-Struktur in Hauptzügen und eine etwaige Segmentierung muß ebenfalls gründlich dokumentiert sein. Beschreibung der logischen Struktur des lokalen Netzes Die Dokumentation der logischen Struktur des lokalen Netzes umfaßt die Zusammensetzung der Benutzergruppen, die Platten-, Verzeichnis- und Dateistruktur im Netz. Software des lokalen Netzes Für Programme auf dem Server kann es eine Hilfe sein, genau dokumentiert zu haben, was konfiguriert werden muß, wenn ein neuer Benutzer Zugang dazu haben soll. In vielen Fällen müssen außerdem Drucker, die Lage von Dateien und anderes konfiguriert werden. Es kann Zeit gespart werden, wenn diese Dinge in Form von Checklisten beschrieben sind. Gleichzeitig erhalten die verschiedenen Benutzer ein einheitliches Setup. Scheinbar unwichtig ist die Dokumentation von aufgetretenen Fehlern und die Maßnahmen, die zur Fehlerbehebung getroffen wurden. Gerade diese Informationen sich jedoch oft äußerst wertvoll. Einerseits kann man später beim Auftreten desselben Fehlers zu einem späteren Zeitpunkt die zu treffenden Maßnahmen nachlesen. Zum anderen kann durch Protokollierung der Fehler das sporadische Auftreten des gleichen Fehlers präventiv gearbeitet werden. Zeigt z. B. ein Fileserver alle paar Wochen defekte Sektoren, dann geht so etwas als Einzelereignis oft im Tagesgeschäft unter. Bei regelmäßiger Dokumentation kann gegebenenfalls rechtzeitig die Festplatte ausgetauscht werden. Kostenlose Software zur Netzplanung (für Windows) gibt es von Reichle & De-Massari: R&M Netplanner Fehlersuche/Belastungstest Fehlersuche Wenn man davon ausgeht, dass die reinen Harwaretest (Kabelanschlüsse, übersprechen, Dämpfung, usw.) erfolgreich verlaufen sind (siehe Fehlerquellen und Fehlersuche bei der Verkabelung), kann man u. a. folgende Massnahmen durchführen um die Funktionsfähigkeit des Netzes zu testen, wobei ich hauptsächlich Möglichkeiten anführe, die ohne besonderes Testequipment durchführbar sind. Entsprechende Test-Hardware leistet ähnliches: 1. Test aller aktiven Komponenten (Switches, Router, Glasfaser-Modems) auf Funktion (geht - geht nicht). Sind alle Ports eines Switches erreichbar usw. 2. Überprüfen der Konfiguration managebarer Komponenten (Übertragungsmodus, VLAN-Zuordnung, Aktivierung der Ports etc.). 3. Die Erreichbarkeit aller Endpunkte auf TCP/IP-Ebene lässt sich mit den Programmen "ping" und "traceroute" (bei Windows "tracert") testen. Hier lassen sich auch grobe Anhaltspunkte für Transferzeiten ermitteln. 4. Bei managebaren Komponenten lassen sich statistische Daten (Datendurchsatz, Kollisionen etc.) über die Managementfunktion (Webinterface, SNMP) abrufen. Verdächtig ist auf jeden Fall das Auftreten von Kollisionen. 5. Das Programm "iptraf" ist ein Linux-Programm, das umfassende Netzwerkstatistiken liefert, darunter transferierte Paket und Bytes, Interface-Statistik von IP, TCP, UDP, ICMP. IP checksum errors usw. Dazu gibt es einen Service-Monitor für TCP und UDP, der eine Port-Statistik liefert. Weitherhin liefert das Programm eine Statistik der Aktivitäten der verschiedenen Hosts. Filterfunktionen erlauben das Eingrenzen der Daten. Zu beziehen unter http://iptraf.seul.org/. 6. Das Programm "netio" ( http://freshmeat.net/projects/netio/) gibt es als Windows- und Linux-Version. Es misst den Netto-Durchsatz auf der Verbindung, also ohne den Overhead, der durch Applikationen wie FTP oder dem für das Filesharing erzeugt wird. Auch hat die Geschwindigkeit der Festplatte keinerlei Einfluss auf die übertragungsraten. Daher liegen die Werte von netio-Messungen immer über den Werten, die in der Praxis erreicht werden, dafür sind sie miteinander vergleichbar. Ein ähnliches Programm ist "iperf". Auch das Microsoft Tool "ttcp" kann verwendet werden (auf der Windows XP CD oder Service Pack CD unter \VALUEADD\MSFT\NET\TOOLS). Weitere Test sollten im Probebetrieb des Netzes erfolgen (Server sind online, zumindest einige Clients sind vorhanden). Dann können folgende Tools eingesetzt werden. 1. NTOP ist ein Tool zur Beobachtung und statistischen Auswertung des Netzwerkverkehrs. Interessant ist das Einlesen und Auswerten von gespeicherten Tracefiles mit der Option „-f“. Dann liest NTOP keine Daten von der Netzwerkkarte, sondern erzeugt lediglich Auswertungen für den vorhanden Trace. NTOP arbeitet auch mit NetFlow von Cisco zusammen. Der Zugriff auf NTOP erfolgt über einen Webbroser. NTOP ist auch in Kombination mit Hardware als nBox erhältlich. (http://www.ntop.org) 2. "Etherape" kann seine Daten sowohl direkt vom Netz als auch aus einem gespeicherten Trace beziehen. Aus diesen Daten erstellt es eine Reihe von grafischen Auswertungen zu Kommunikationsbeziehungen und Protokollverteilung. Etherape befindet sich noch in der Entwicklung und läuft momentan nur unter Linux mit Gnome-Desktop. 3. SmokePing ist spezialisiert auf die Messung der Round-Trip-Time. Es gibt Probes für eine Reihe von Protokollen (ICMP, TCP, HTTP, etc.). Die Zeiten werden in einer Datenbank festgehalten und können über ein Browserinterface visualisiert werden. SmokePing ist wie MRTG ein Tool zum Baselining eines Netzwerkes. In Problemfällen kann man mit diesen Tools sehr schnell Veränderungen und deren Auslöser erkennen. (http://oss.oetiker.ch/smokeping/) 4. Für WLAN eignet sich der "network stumbler" ( http://www.netstumbler.com). Mit diesem Windows-Programm kann die Reichweite und die Abdeckung der WLANs abgeschätzt werden. Belastungstest Schwieriger sind Sicherheitstests bei den Servern und eine Vorhersage über das Lastverhalten, wenn nicht nur ein paar Clients aktiv sind, sondern das Netz unter Vollast fährt. Ein Beispiel aus der Praxis ist die Notenbekanntgabe am Semesterende, wenn kurz nach Freigabe der Informationen das Netz bzw. die Webserver unter der Last der Anfragen zusammenbrechen. Das Belastungstest-Tool "Hammerhead" kann mehrere Verbindungen gleichzeitig öffnen und dabei auch Anfragen von verschiedenen IP-Aliasen und bis zu 256 verschiedenen Usern generieren. Nach der voreingestellten Testzeit liefert das Tool einen aussagekräftigen Report. Neben Anzahl der Threads, Timeout-Schwellen, Test-Zeit, Usern lassen sich noch viele weitere Parameter einstellen. Man kann sogar Erwartungswerte für Ergebnisse eingeben, die dann mit den realen Resultaten verglichen werden. Hammerhead wartet bei jedem Request auf Antwort vom Server. Ist der Server schlecht angebunden, kann es vorkommen, daß die voreingestellte Request-Rate unterschritten wird. Auch kann das Programm nur so schnell arbeiten, wie der Computer, auf dem es läuft. (http://hammerhead.sourceforge.net) Einfacher Hardware-Netzwerktester Bei größeren Netzen muss man oft prüfen, welche Dose oder welches Kabel mit einem Switch verbunden ist. Dazu genügt eine Netzwerkkarte für wenige Euro, die sich für die Wake-on-LANFunktion nicht nur aus dem PCI-Bus, sondern auch über einen dreipoligen Stecker mit Strom versorgen kann. Wenn an den richtigen Pins 5 Volt anliegen, genügt das der Karte, um eine Ethernet-Verbindung aufzubauen und dies mit ihren LEDs "Link-Status" und "10/100 MBit" anzuzeigen. Nur wenn am anderen Ende des Kabels keine aktive Komponente hängt, bleiben die LEDs dunkel. Man kann an den Wake-on-LAN-Stecker einfach Batterien anschließen. Vier Akkus zu je 1,2 Volt liefern 4,8 V, was dem meisten Karten genügt. Oder man nimmt einfach vier Zink-Kohle-Batterien (4 x 1,5 V = 6 V) und schaltet eine Diode zwischen Karte und Batteriebox, dann wird die Karte mit ca. 5,4 V versorgt, was den meisten Karten auch nichts ausmacht. Die ganz edle Variante ist ein 5-V-Low-Drop-Spannungsregler zwischen 6Volt-Batteriepack und Karte. Der so entstandene Ethernetport-Tester zeigt zuverlässig an, ob eine Dose oder ein Kabel mit einer Ethernet-Gegenstelle verbunden ist und wie schnell die Verbindung ist. Man darf ihn jedoch nicht mit einem Kabeltester verwechseln, denn ein Link kann durchaus zustande kommen, wenn nicht alle Adernpaare korrekt verbunden sind. Das Bild zeigt die Pins des Steckers auf der Netzwerkkarte: An Pin 1 müssen 5 Volt anliegen, an Pin 2 Masse. Pin 3 bleibt unverbunden, denn hier meldet die Karte, dass ein Wake-onLAN-Paket eingegangen ist. Universal-Netzkabel Neues Kapitel Protokolle In diesem Abschnitt werden beispielhaft einige höhere Protokolle für Internet-Dienste skizziert. Bemerkenswert ist, daß viele dieser Protokolle aus wenigen Anweisungen in lesbarem Klartext bestehen. Der Grund hierfür ist unter anderem, daß man diese Protokolle zum Testen einer Verbindung durch eine Telnet-Verbindung auf einem bestimmten Port (z. B. 80 für HTTP) von Hand nachvollziehen kann. Durch den Klartext ist auch die Fehlersuche bei einer Verbindung ohne großen Aufwand und ohne spezielle Tools möglich. Die vorgestellten Protokolle werden hier nicht bis ins Detail ausgebreitet, es soll Ihnen nur eine Vorstellung über die Arbeitsweise der Internet-Protokolle vermittelt werden. DHCP und RADIUS DHCP Um in einem IP-basierten Netzwerk Kontakt mit anderen Rechnern aufnehmen zu können, benötigt jeder Computer eine eigene, eindeutige IP-Nummer. Je größer das Netzwerk wird und je mehr verschiedene Rechnerplattformen darin vereint sind, desto höher ist der Aufwand für den Administrator: Wann immer ein neuer Rechner in das Netzwerk integriert wird, muß er zuerst konfiguriert werden. Ändert einer der zentralen Server seine Adresse oder wird er auf eine andere Maschine verlegt, müssen alle Netzwerk-Client umkonfiguriert werden. Einen zweiter Aspekt bringen sogenannte "nomadische" Systeme, z. B. Laptops, die irgendwo ins Netz eingebunden werden sollen. Dabei bieten sich verschiedene Zugangsmöglichkeiten für Rechner in das Intranet: Anschluß über einen Ethernet-Hub oder -Switch Zugang durch drahtlose Netze (und evtl. einen Router zum drahtlosen Subnetz) Zugang vom Internet über eine Firewall Modemzugang über einen Modemserver Günstig wäre es, wenn der Zugang eines Rechners zum Netz folgenden Anforderungen genügen würde: automatisiert, d. h. ohne manuellen Eingriff authentifiziert, d. h. nur zugelassene Systeme erhalten Zugriff vollständig (Netz-, System- und Anwendungskonfiguration) standardisiert, d. h. für alle Systeme in einheitlicher Form Eine Lösung für dieses Problem bietet DHCP (Dynamic Host Configuration Protocol). Dieser Dienst ermöglicht es, einem Client dynamisch eine IP-Nummer und andere Netzwerkparameter, wie den Netzwerknamen, die Gatewayadresse, etc., zuzuweisen, ohne daß der Administrator den Rechner überhaupt zu Gesicht bekommt. DHCP ist dabei völlig unabhängig von der eingesetzten Plattform. Das heißt, es kann sowohl Windows-Maschinen wie auch zum Beispiel Unix-Rechner mit den Netzwerkeinstellungen versorgen. Um ein Mindestmaß an Verfügbarkeitsanforderungen zu erfüllen, sollte natürlich mehr als nur ein DHCP-Server vorhanden sein, da sonst dessen Ausfall die Funktion sämtlicher Clienten beeinträchtigt. Das in RFC 2131 definierte Protokoll DHCP arbeitet nach dem Client-Server-Modell. Als Server wird ein Programm bezeichnet, das den Pool der zu vergebenden Nummern verwaltet und sich darum kümmert, daß eine Nummer nicht zweimal vergeben wird. Der Client ist ein Programm auf dem lokalen Rechner, das zunächst den Server selbsttätig im Netz suchen muß und ihn anschließend darum bittet, eine IP-Nummer zuzuteilen. Die Grundfunktion des Servers ist recht einfach aufgebaut: über eine Konfigurationsdatei teilt der Administrator ihm mit, welche Adreßbereiche er für die Weitergabe an Client zur Verfügung hat. Fragt ein Client nach einer IP-Adresse, dann muß der Server zunächst nachsehen, ob noch eine Adresse frei ist. Diese freie IP-Nummer liefert er an den Client aus. Gleichzeitig muß er eine Datei (Leases-File) führen, in der er protokolliert, welche Adresse bereits an wen vergeben ist. Bei der Adreßvergabe sind drei verschiedene Modi einstellbar: Automatic Allocation: Fordert ein Client eine IP-Nummer an, wird sie ihm auf unbegrenzte Zeit zugeteilt, solange noch Adressen zur Verfügung stehen. Sind alle Adressen verbraucht, kann kein neuer Client mehr konfiguriert werden, auch wenn ein Teil der zuvor bedienten Rechner im Moment gar nicht eingeschaltet ist. Manual Allocation: In dieser Betriebsart geht es nur darum, Verwaltungsaufwand zu minimieren. In der Konfigurationsdatei ist für jeden Client im Netzwerk eine IPNummer fest zugeordnet. Der Server ist lediglich für die Auslieferung der Adresse an den Client verantwortlich. Dynamic Allocation: Jeder Client bekommt auf Anfrage eine IP-Nummer, solange im definierten Pool noch Einträge frei sind. Der Unterschied gegenüber der Automatic Allocation besteht darin, daß die IP-Nummer nur für eine bestimmte, maximale Zeitspanne (Lease-Time) gültig ist und vom Client innerhalb dieser Zeit zurückgegeben werden kann, wenn sie nicht mehr benötigt wird. Als einzige der drei Betriebsarten erlaubt Dynamic Allocation, kleine IP-Nummern-Pools mit einer großen Anzahl von Rechnern zu teilen. Einzige Voraussetzung: nicht alle Maschinen dürfen gleichzeitg laufen. Damit lassen sich auch Computer, die eher selten ins Netzwerk integriert werden, wie Laptops, zuverlässig mit einer IP-Nummer versorgen. Wird der Rechner vom Netz getrennt, kann die Adresse für eine andere Station verwendet werden. In dieser Betriebsart werden die meisten DHCP-Server betrieben. DHCP ist eine Erweiterung des BOOTP-Protokolls und konkurriert in seiner Basisfunktionalität mit RARP. Gegenüber BOOTP zeichnet es sich vor allem durch die Flexibilität bezüglich der abfragbaren Konfigurationsparameter und durch das Konzept der Lease aus, d. h. die Möglichkeit eine Information dem Client gegenüber als nur begrenzt gültig zu markieren. Damit wird die Flexibilität bei Veränderungen der Netztopologie und weiterer Konfigurationsparameter gewahrt. Ferner ist die Unterstützung von großen Netzen, in denen nichts stets alle Systeme zugleich aktiv sind, mit limitierten Pools von Adressen möglich. Durch die Rückwärtskompatibilität zum PDU-Format von BOOTP ist die Verwendung existierender BOOTP-Relay-Agents in Subnetzen ohne DHCP-Server gewahrt. Beim Start des Systems schickt der Client ein DHCPDISCOVER-Paket in Form eines Broadcasts an 255.255.255.255 (Phase 1). Anhand der Identifikation des Client im Paket können sich einige (oder ein einzelner) DHCP-Server entscheiden, dem Client die gewünschte IP-Adresse sowie andere Konfigurationsinformation in Form eines DHCPOFFER-Pakets zuzuteilen. (Vor der Vergabe können und sollten die Server die Konfliktfreiheit bzgl. der Adresse mittels ICMP-Ping oder ARP prüfen.) Der Client kann sich in Phase 2 aus den Antworten eine für ihn geeignete aussuchen und bestätigt dies gegenüber dem Server durch ein DHCPREQUEST-Paket (Phase 3). Entscheidungsparameter können z.B. die Leasedauer (tl) oder die Menge der angebotenen Konfigurationsinformation. Bei korrekter Information im DHCPREQUEST bestätigt der Server die Lease durch ein DHCPACK-Paket, womit die Konfiguration abgeschlossen ist Bevor die IP-Adresse verwendet wird, sollte der Client ihre Einzigartigkeit durch ein Gratuitious ARP prüfen. Sollte der Client die angebotene Adresse ablehnen wollen, teilt er dies durch DHCPDECLINE-Paket dem Server und beginnt nach einer kurzen Wartefrist erneut mit Phase 1. Sobald der Client die Bestätigung durch DHCPACK erhalten hat, ist er für die Überwachung der Lease-Dauer selbst verantwortlich. Insbesondere kennt das Protokoll auch keine Methode, einem Client die Lease zu entziehen. Vor Ablauf der Lease-Dauer (meist nach der Hälfte der Zeit = 0,5 * tl) sollte der Client durch einen erneuten Durchgang durch Phase 3 versuchen, die Lease vom selben DHCP-Server verlängert zu bekommen. Gelingt ihm das nicht, kann er vor endgültigem Ablauf der LeaseDauer (meist nach ca. 0,8 * tl) die Phase 1 nochmals durchlaufen, um eine Verlängerung bzw. Neuausstellung der Lease (eventuell von einem anderen Server) zu erhalten. Die vorzeitige Aufgabe einer Lease sollte der Client dem Server durch ein DHCPRELEASE mitteilen, um den Pool freier Adressen möglichst groß und den Vergabestand im Server möglichst akkurat zu halten. Alle Zustandsübergänge im Client sind in folgender Abbildung zusammengefaßt. Die Komplexität hat in der Vergangenheit zu einigen Fehlimplementierungen mancher ClientSoftware geführt, die jedoch aufgrund der großen "Toleranz" im Protokoll meist keine kritischen Auswirkungen hatten. Der Vorgang "Lease erneuen" kann beliebig oft wiederholt werden, solange der Client die Adresse noch braucht und der Server nichts dagegen hat. Unter Umständen verweigert der DHCP-Server die Erneuerung. Falls die gewünschte Adresse für den DHCP-Server inakzeptabel ist, schickt er dem Client ein ablehnendes DHCPNAK. Der Client beginnt dann von Neuem. Was passiert, wenn der Client den DHCP-Server nicht mehr erreichen kann, der ihm seine IP-Adresse zugeteilt hat? Bevor sein Lease verfällt, soll der Client den DHCPREQUEST nicht mehr direkt an den DHCP-Server schicken, sondern es broadcasten. Somit hören alle DHCP-Server wieder mit. Wenn Failover richtig funktioniert, wird der Backup-Server jetzt das Lease erneuen. Kommt hingegen keine Antwort oder nur ein DHCPNAK, muß der Client wieder von vorne beginnen, und ein DHCPDISCOVER broadcasten usw. Das ist insofern schlecht, als er nun höchstwahrscheinlich eine ganz andere IP-Adresse bekommt. Bestehende Verbindungen, die noch die alte IP-Adresse verwenden, müssen abgebaut werden. Es darf natürlich nicht jeder beliebige Rechner Zugang zum LAN erhalten. Deshalb kann der DHCP-Server auch eingeschränkt werden - bis hin zu einer Liste von "erlaubten" MACAdressen. Man kann auch eine gemischte Versorgung der Rechner im Netz vorsehen, teils mit festen IP-Adresse (z. B. Server mit "Außenwirkung"), teils mit dynamisch zugewiesenen Adressen. Remote-Zugang mit RADIUS Der Zugang zum Netz über Wählleitungen (analoges Telefon, ISDN, xDSL) erfolgt normalerweise über einen oder mehrere Remote Access Server (RAS), in Einzelfällen auch über einen Rechner mit angeschlossenem Modem, ISDN-Karte oder xDSL-Anschluß. Deren Aufgabe ist es, ankommende digitale oder analoge Anrufe entgegenzunehmen, eine Benutzerauthorisierung durchzuführen und, falls diese erfolgreich war, die Verbindung des anrufenden Rechners mit dem internen Datennetz freizugeben. Der ferne Rechner verhält sich dann so, als ob er direkt am Datennetz angeschlossen wäre. Als Übertragungsprotokoll wird in der Regel PPP (Point to Point Protokoll, erlaubt IP- und IPX-Verbindungen), SLIP (Serial Line Internet Protokoll, veraltet, nur für IP-Verbindungen) und ggf. ARAv2 (Apple Remote Access Version 2) angeboten. Ein spezieller Terminalserver-Modus gestattet es, sich mit einem normalen Terminalprogramm (z.B. Hyperterminal, Kermit, usw.) auf dem Access-Server anzumelden und von dort aus Telnetverbindungen aufzubauen. IP-Adressen werden normalerweise aus einem IP-Adresspool vergeben. Oft werden auch "virtuelle Verbindungen" unterstützt. Diese erlauben den physikalischen Abbau von Verbindungen, wenn gerade keine Daten übertragen werden, ohne daß die logische Verbindung verloren geht. Die Verbindung wird automatisch mit den gleichen Parametern wie vorher wieder aufgebaut, wenn Daten wieder übertragen werden müssen. Für die standardisierte Authentifizierung am Modem- und Internetzugang setzt sich zunehmend das RADIUS-Protokoll (Remote Authentication and Dial-In User Service) durch. Seine Client-Proxy-Server-Architektur erlaubt die flexible Positionierung an Netzzugangspunkten und wird von fast allen Herstellern von Modemservern unterstützt. In Kombination mit DHCP und PPP ist die Aufgabe der Konfiguration der anwählenden Endsysteme in automatisierter Weise gelöst. Der Radius-Server ist ein zentraler Authentifizierungs-Server, an den sich alle RA-Server wenden. Auf diese Weise lassen sich unabhängig von der Netz-Infrastruktur alle Remote-User zentral verwalten und Benutzerprofile mit Zugangsrestriktionen definieren, aber auch zusätzliche Sicherheitsverfahren vorsehen. Beispielsweise kann festgelegt werden, dass der Nutzer nur nach einem Rückruf durch den Einwahlknoten an eine zuvor vereinbarte Rufnummer Zugriff auf das Unternehmensnetzwerk bekommen darf. Diese Informationen übergibt der RadiusServer an den RA-Server, der das weitere Login entsprechend koordiniert. Der Vorteil dieses Verfahrens liegt in den einmalig generierten Zugangsdaten der Nutzer, die auch in verteilten Netzwerken jederzeit aktuell verfügbar sind und mit einfachen administrativen Eingriffen an zentraler Stelle definiert und verändert werden können. Darüber hinaus ist die innerbetriebliche Abrechnung der Nutzung des Systems durch ein entsprechendes Accounting möglich. Das Radius-Protokoll setzt auf UDP auf. Die Struktur eines Radius-Pakets ist ausgesprochen einfach. Es besteht aus fünf grundlegenden Elementen: einem Radius-Code, einem Identifier, einer Angabe zur Paketlänge, einem Authenticator und gegebenenfalls aus einer Reihe von Attributen. Der Radius-Code beschreibt die Aufgabe des Datenpakets. Aufbau des Radius-Pakets Die Codes 1, 2 und 3 verwalten den reinen Access vom Request bis zur Bestätigung oder Abweisung. Die Codes 4 und 5 dienen dem Accounting. Der Identifier ist acht Bit lang und dient der Zuordnung von Anfragen und Antworten. Das sicherheitstechnisch wichtigste Feld eines Radius-Rahmens ist der Authenticator, der eine Länge von 16 Oktetts beziehungsweise vier 32-Bit-Worten hat. Dabei wird zwischen dem Request Authenticator und dem Response Authenticator unterschieden. Inhalt des Request Authenticators ist eine Zufallszahl, die das gesamte Feld ausfüllt. Die Länge dieser Zufallszahl gewährleistet mit einer sehr hohen Wahrscheinlichkeit die Einmaligkeit dieses Wertes. Damit bietet das System einen gewissen Schutz vor Hackerattacken. Mit dem Versand des Request Authenticators werden die Zugangsdaten des Nutzers, der sich im gesicherten Netzwerk anmelden möchte, als Attribute übergeben. Der Radius-Server wird diese Anfrage entweder mit einer Access-Accept-, Access-Reject- oder Access-Challenge-Nachricht beantworten, die ihrerseits mit einem 16 Oktett langen Response Authenticator versehen ist. Dieser ist ein MD5-Hash-Fingerprint setzt sich zusammen aus dem empfangenen Radius-Paket einschließlich der Attribute sowie den geheimen Zugangsdaten, die auf dem Server abgelegt sind, zusammensetzt. Die Attribute eines Radius-Pakets beinhalten alle wichtigen Informationen, die zwischen dem RAS und dem Radius-Server ausgetauscht werden müssen. Attribute sind sehr einfach aufgebaut Attribute werden in einer Liste mit variabler Länge im Anschluss an den Authenticator übertragen. In den Attributen können natürlich Nutzernamen und Passwörter, aber auch IPAdresse, Service-Typen, Status-Meldungen, Filter-IDs und - wichtig beim CHAP - ein entsprechender Challenge-Wert übergeben werden. Attribute werden in Datensätzen variabler Länge übertragen, die jeweils aus drei Feldern bestehen. Das erste aus acht Bit bestehende Feld benennt die Art des Attributes. Da nicht nur die Liste aller Attribute, sondern auch jeder einzelne Datensatz selbst in der Länge variabel ist, gibt das zweite Oktett die Länge des Attributes an. Erst ab dem dritten Oktett werden die eigentlichen Informationen übertragen. Im einfachsten Fall wird ein Radius-Request mit einer Legitimierung des Nutzers oder dessen Abweisung beantwortet. Dazu folgt auf dem Access-Request eine Access-Accept- oder eine Access-Reject-Nachricht vom Radius-Server. Die Art der Antwort wird mit dem Radius-Code angezeigt. Das Verfahren harmonisiert mit PAP und CHAP. SMTP - Simple Mail Transfer Protocol Der urspüngliche Standard für SMTP - niedergelegt im RFC 821 - stammt aus dem Jahr 1982 und gilt, abgesehen von einigen Erweiterungen, nach wie vor. Dieser RFC 821 legte ein Minimum an Schlüsselworten fest, die jede Implementation von SMTP (d. h. die Verkörperung von SMTP in einem Programm) beherrschen muß. Dies sind: Kommando Argument Beschreibung HELO Systemname Beginn, Name des sendenden Systems MAIL From: Absenderadresse Beginn der Übermittlung RCPT To: Empfängeradresse Adressat der E-Mail DATA Brieftext, Ende durch eine Zeile mit "." HELP Topic Hilfestellung VRFY Mailadresse Mailadresse verifizieren EXPN Mailadresse Mailadresse expandieren (z. B. Liste) RSET Senden abbrechen, Zurücksetzen NOOP nichts tun QUIT Verbindung beenden Die Verbindung eines MTA zu einem anderen läßt sich nachstellen: telnet lx-lbs.e-technik.fh-muenchen.de smtp Trying 129.187.106.196... Connected to lx-lbs.e-technik.fh-muenchen.de. Escape character is '^]'. 220 lx-lbs.e-technik.fh-muenchen.de Smail3.1.28.1 #1 ready at Sun, 25 Feb 96 23:15 MET helo www.netzmafia.de 250 lx-lbs.e-technik.fh-muenchen.de Hello www.netzmafia.de mail from: [email protected] 250 ... Sender Okay rcpt to: [email protected] 250 ... Recipient Okay data 354 Enter mail, end with "." on a line by itself Hallo Holm, zu Deiner Frage bezeglich der Reinigung von Morgensternen wollte ich Dir nur den Tip geben, dazu reine Kernseife zu verwenden. Damit ist die Drecksarbeit im Handumdrehen erledigt. Beste Gruesse, Paulsen . 250 Mail accepted quit 221 lx-lbs.e-technik.fh-muenchen.de closing connection Connection closed by foreign host. Beim Verbindungsaufbau meldet sich der lokale MTA mit einer "Begrüßungszeile". Der lokale empfangende MTA wird mit "HELO" angesprochen und als sendender MTA der des Systems www.netzmafia.de angegeben. Der lokale MTA antwortet mit einem Zahlencode, der dem Sender-MTA signalisiert, daß seine geforderte Aktion in Ordnung geht. Die Klarschrift nach dem Zahlencode dient nur der besseren Lesbarkeit für den Menschen (z. B. für den, der Fehler suchen muß). Auf "MAIL FROM:" folgt die Adresse des Absenders, und auf "RCPT TO:" die des Empfängers. Auf das Schlüsselwort "DATA" folgt schließlich der ganze Brief, also sowohl die Kopfzeilen, als auch der Text. Der Empfänger-MTA wird solange Text erwarten, bis ihm der Sender-MTA über eine Zeile, die nur einen Punkt enthält, signalisiert, daß der Brief zu Ende ist. Nach der letzten Bestätigung des Empfänger-MTAs könnte der Sender den nächsten Brief übermitteln, wiederum beginnend mit "MAIL FROM:". Nach dem Empfang des Briefes kopiert der lokale MTA den Brief in die Postfach-Datei des Empfängers. Der RFC 821 legte noch einige weitere Schlüsselworte fest, z. B. "EXPN" für expand, welches eine Unterstützung von Mailing-Listen erlaubt, oder "VRFY" für verify, mittels dessen eine Bestätigung der Empfänger-Adresse gefordert werden kann. Eine ganze Reihe von RFCs haben den Standard für SMTP erweitert. Die erweiterte Version heißt nun offiziell ESMTP (für Extended SMTP). Hinzugekommen sind beispielsweise Schlüsselworte für die Unterstützung von 8bit-Briefen (z. B. solche mit Umlauten), und die Möglichkeit eine maximale Größe für Briefe, die empfangen werden, festzulegen. Auf Arbeitsplatzrechnern, die normalerweise nicht ständig eingeschaltet sind, erfordert EMail spezielle Betriebsweisen. Falls der Rechner in ein lokales Netz integriert ist, bietet sich eine Lösung über den Netzwerkserver oder einen speziellen Mail-Server an. Es gibt auch die Möglichkeit, direkt vom PC-Kompatiblen oder Macintosh auf eine Unix-Mailbox zuzugreifen. Voraussetzung dafür ist, daß der Arbeitsplatzrechner direkt mit TCP/IP am Ethernet angeschlossen ist oder über eine Modem-Verbindung per PPP-Protokoll angebunden ist. Die Mailer sind lokale Programme am PC oder Mac. Der Vorteil ist, daß man in der PCUmgebung bleibt, und Dateien direkt aus dem PC-Directory-System versandt werden können. Die Mailbox des Benutzers liegt dabei selbst auf einem Mail-Server (Postfach). Der Zugriff vom PC auf das Mailsystem des Servers wird über den Client/Server-Mechanismus realisiert. Protokolle, die dieses erlaubt, sind POP ('Post Office Protocol') und IMAP ('Internet Message Access Protocol'). POP POP, genauer POP 3, ist die bisher noch gebräuchlichste Methode, um E-Mails von einem Provider zu empfangen, wenn der eigene Rechner nicht ständig mit dem Internet verbunden ist. Das Prinzip und der Funktionsumfang von POP sind einfach: Die für den Empfänger bestimmten E-Mails landen beim Provider im SpoolVerzeichnis und müssen dort vom Empfänger abgeholt werden. Der Provider stellt einen POP-Server zur Verfügung, welcher die Schnittstelle des POP-Clients auf dem Empfänger-Rechner darstellt. Der lokale POP-Client kommuniziert mit dem POP-Server beim Provider. Über ihn werden die vorhandenen E-Mails angeboten. Eine Kommunikation zwischen dem POP-Client und dem POP-Server beim Provider kann schematisch beispielsweise so aussehen : Client: Hast Du neue E-Mails für mich? Server: Ja, insgesamt fünf Stück! Client: Liste mir die Absender auf! Server: Meier, Mueller, Huber, Schulze Client: Zeige die E-Mails an! Server: ((Zeigt E-Mails an)) Client: ((Speichert E-Mails ab)) Client: Lösche alle angezeigten E-Mails Server: ((Löscht alle angezeigten E-Mails)) Wenn ein Client über POP3 Nachrichten abrufen möchte, baut er eine TCP-Verbindung über Port 110 auf. Ist die Verbindung zustande gekommen, sendet der Server eine Begrüßungsmeldung. Die weitere Kommunikation zwischen beiden Rechnern erfolgt über Kommandos, die aus drei oder vier Zeichen langen Wörtern (mit einem oder mehreren Argumenten mit bis zu je 40 Zeichen) bestehen. Antworten enthalten einen Status-Indikator und ein Statuswort sowie optionale Informationen. Es gibt zwei Status-Indikatoren: Positiv: +OK Negativ: -ERR Eine POP3-Verbindung durchläuft mehrere Stufen. Nach der Server-Begrüßung beginnt der "Authorization State". Der Client muß sich gegenüber dem Server identifizieren. Nach erfolgreicher Authorisierung beginnt der "Transaction State". Es werden alle Operationen zum Bearbeiten von Mails ausgeführt. Sendet der Client das Kommando QUIT, beginnt der "Update State". Der Server beendet die TCP-Verbindung und führt die vom Client im "Transaction State" angeforderten Änderungen durch. Viele POP3-Server haben zusätzlich einen Inaktivitäts-Timer. Laut Spezifikation muß dieser auf mindestens zehn Minuten eingestellt sein. Jedes Kommando des Clients setzt den Timer zurück. Ist der Timer abgelaufen, wird die TCP-Verbindung beendet, ohne in den "Update State" zu wechseln - eventuelle Änderungen werden auf dem Server nicht gespeichert. Nachdem der POP3-Client eine Verbindung zum Server aufgebaut hat, sendet dieser eine einzeilige Begrüßungsmeldung beliebigenInhalts, z. B.: Server: +OK POPEL-3 server ready Dabei handelt es sich bereits um eine Antwort des Servers, daher beginnt die Meldung immer mit einer positiven Bestätigung (+OK). Die Verbindung befindet sich nun im Zustand "Authorization". Der Client muß sich jetzt gegenüber dem Server identifizieren. Dies erfolgt über die beiden Kommandos USER und PASS. Kommandos im "Authorization State" Kommando Argument Beschreibung USER Name Das Argument identifiziert eine Mailbox. PASS String Der String enthält ein Mailbox-spezifisches Passwort. QUIT - Beendet die Verbindung. Die Kombination aus den Kommandos USER und PASS ist am gebräuchlichsten. Dabei werden die jeweiligen Parameter im Klartext an den Server gesendet. Ein Beispiel: Der Username für das Postfach soll "plate", das Passwort "XYZ1230" heißen. In diesem Fall wird folgender Authentifizierungsdialog ablaufen: Client: Server: Client: Server: USER plate +OK name is a valid mailbox PASS YXZ1230 +OK plates's maildrop has 9 messages (1600 octets) Bei falschen Angaben verweigert der Server den Zugang und gibt eine Fehlermeldung aus. Mögliche Dialoge bei falschem Usernamen: Client: USER plato Server: -ERR sorry, no mailbox for plato here Oder bei einem falschen Passwort: Client: Server: Client: Server: USER plate +OK name is a valid mailbox PASS tralala -ERR invalid password Die Tatsache, daß alle Dialoge im Klartext über das Netz abgewickelt werden, birgt ein hohes Sicherheitsrisiko. Mit dem Kommando APOP sieht die aktuelle POP3-Definition eine wesentlich sicherere Option zur Authentifizierung vor. Diese beschreibt in einem Kommando den User und identifiziert ihn mit einer Einweg-Hash-Funktion. Hat sich der Client beim Server identifiziert, wechselt die Verbindung in den "Transaction State". Dem Client stehen nun eine Reihe von Kommandos zur Behandlung der Mails zur Verfügung: Kommandos im "Transaction State" Kommando Argument Beschreibung STAT - Liefert die Anzahl der gespeicherten Mails und die Größe der Mailbox zurück (in Byte). LIST Nummer Liefert die Nummer und Größe (in Bytes) aller Mails zurück. Wird als Argument eine MailNummer angegeben, wird nur die Größe dieser Mail ausgegeben. RETR Nummer Gibt die Mail mit der als Argument übergebenen Nummer aus. DELE Nummer Löscht die Mail mit der übergebenen Nummer. NOOP - Bewirkt die Antwort "+OK". Dient zur Aufrechterhaltung der Verbindung, ohne daß ein Time-Out auftritt. RSET - Setzt die aktive Verbindung zurück. Noch nicht ausgeführte Änderungen werden verworfen. QUIT - Beendet die Verbindung und führt alle gespeicherten Änderungen aus. Der Server führt das Kommando DELE nicht unmittelbar aus. Die entsprechenden E-Mails werden als gelöscht markiert und erst bei Beenden der Verbindung endgültig vom Server gelöscht. Hat man eine Nachricht zum Löschen gekennzeichnet, möchte dies jedoch rückgängig machen, führt man das Kommando RSET aus. Der Server verwirft alle noch nicht ausgeführten Operationen. Sendet der Client das QUIT-Kommando, wechselt die Verbindung in den "Update State". Der Server trennt die TCP-Verbindung und führt alle gespeicherten Änderungen aus. Neben den hier vorgestellten, für eine minimale Implementation ausreichenden Kommandos gibt es noch weitere, die von den meisten Clients und Servern unterstützt werden. Details hierzu finden Sie in RFC1725. Im folgenden Beispiel sehen Sie den Ablauf einer POP3-Verbindung. Der Client identifiziert sich gegenüber dem Server und ruft eine Liste der gespeicherten E-Mails ab. Danach werden die Nachrichten einzeln heruntergeladen, auf dem Server zum Löschen gekennzeichnet, und die Verbindung wird beendet. Server: Client: Server: Client: Server: Client: Server: Server: Server: Server: Server: Client: Server: Server: Server: Client: Server: Client: Server: Server: Server: Client: Server: Client: Server: Client: Server: +OK POP3 server ready user plate +OK pass xyz1230 +OK LIST +OK 3 messages (520 octets) 1 120 2 190 3 210 . RETR 1 +OK 120 octets <... sendet Nachricht 1> . DELE 1 +OK message 1 deleted RETR 2 +OK 190 octets <... sendet Nachricht 2> . DELE 2 +OK message 2 deleted RETR 4 -ERR no such message QUIT +OK IMAP: Internet Message Access Protocol IMAP (genauer: IMAP, Version 4) löst das POP-Verfahren zunehmend ab und wird zum neuen Standard. Der Unterschied liegt unter anderem in der Funktionalität des IMAPVerfahrens. Das Prinzip ist dem POP-Verfahren jedoch sehr ähnlich. Die E-Mails werden wie beim POP-Verfahren beim Provider zwischengespeichert und können mit einem IMAP-Client auf den eigenen Rechner kopiert werden. IMAP bietet jedoch zusätzliche Funktionalitäten, die von POP noch nicht angeboten werden, z. B. kann der Mail-Body getrennt geladen werden, und auch die Attachments lassen sich getrennt abrufen. E-Mail-Client und Server tauschen bei IMAP ihre Daten über den TCP-Port 143 aus. Im Gegensatz zu den Protokollen SMTP und POP muß der Client bei IMAP nicht nach jedem gesendeten Kommando auf die unmittelbare Antwort des Servers warten. Es können mehrere Befehle hintereinander versendet werden, die jeweilige Rückmeldung vom Server kann später erfolgen. Dazu wird jedem Kommando seitens des Client eine Kennung vorangestellt, auch "Tag" genannt, zum Beispiel "X001" für den ersten Befehl und "X002" für den zweiten. Der Server kann dem Client auf mehrere Arten antworten: Mit einem Plus-Zeichen am Anfang der Zeile antwortet der Server, wenn er weitere Informationen zu dem vorangegangenen Kommando erwartet. Er signalisiert dem Client gleichzeitig seine Empfangsbereitschaft. Steht dagegen ein Sternchen am Anfang der Zeile, sendet der Server weitere Informationen an den Client zurück. Die Antwort eines Servers kennzeichnet den Erfolg oder Fehler eines Kommandos: OK (Kommando erfolgreich ausgeführt), NO (Fehler beim Ausführen) oder BAD (Protokoll-Fehler: Kommando unbekannt oder Syntax-Fehler). Die Antwort enthält denselben Tag wie das zugehörige Kommando, damit der Client erkennt, welcher Response welchem Befehl gilt. Wie bei POP durchläuft eine IMAP-Verbindung mehrere Sitzungsstufen: Non-Authenticated State: Unmittelbar nach dem Aufbau der Verbindung. Der User muß sich gegenüber dem Server identifizieren. Authenticated State: Der User hat sich erfolgreich identifiziert und muß nun eine Mailbox auswählen. Selected State: Eine Mailbox wurde ausgewählt. Mailbox und Mails lassen sich bearbeiten. Logout State: Die Verbindung wird beendet; der Server führt noch anstehende Tätigkeiten aus. Der "Non-Authenticated State" stellt mehrere Möglichkeiten zur Identifizierung des Anwenders zur Verfügung. Es gibt in diesem Zusatand folgende Kommandos: Kommandos im "Non-Authenticated State" Kommando Argument AUTHENTICATE AuthentifizierungsMechanismus Beschreibung Das Kommando bestimmt den AuthentifizierungsMechanismus, zum Beispiel "Kerberos" oder "S/Key". Details zu den Authentifizierungs- Mechanismen finden Sie in RFC1731. LOGIN Name/Passwort Identifiziert den Anwender über Benutzername und Passwort. Beispiel für eine Authentifizierung mit dem LOGIN-Kommando: Client: X001 LOGIN PLATE XYZ1230 Server: X001 OK LOGIN completed Im "Authenticated State" hat sich der User authentifiziert und muß nun eine Mailbox auswählen, welche in dieser Sitzung bearbeitet werden soll. Dazu stehen unter anderem folgende Kommandos zur Verfügung: Wichtige Kommandos im "Authenticated State" Kommando Argument Beschreibung SELECT Mailbox-Name Wählt eine Mailbox zur weiteren Bearbeitung aus. Als erfolgreiche Antwort sendet der Client Informationen zur gewählten Mailbox, wie beispielweise die Anzahl der gespeicherten Nachrichten. EXAMINE Mailbox-Name Identisch mit dem Kommando SELECT. Jedoch wird die Mailbox als "read-only" ausgewählt, es sind keine dauerhaften Änderungen möglich. CREATE Mailbox-Name Erstellt eine Mailbox mit dem als Argument übergebenen Namen. DELETE Mailbox-Name Löscht die als Argument übergebene Mailbox. RENAME Bestehender Mailbox-Name / Neuer MailboxName Ändert den Namen einer Mailbox. Beispiel: Löschen einer Mailbox: Client: X324 DELETE TRALALA Server: X234 OK DELETE completed Im "Selected State" gibt es viele Kommandos zum Bearbeiten einer Mailbox: Wichtige Kommandos im "Selected State" Kommando Argument Beschreibung CLOSE Entfernt alle zum Löschen - gekennzeichneten Mails und setzt die Verbindung in den Authenticated State zurück. EXPUNGE - Entfernt alle zum Löschen gekennzeichneten Mails, die Verbindung bleibt im Selected State. SEARCH ein oder mehrere Suchkriterien Erlaubt die Suche nach bestimmten Nachrichten in der aktuellen Mailbox. Das Kommando unterstützt logische Verknüpfungen. FETCH Gewünschte Daten einer Nachricht Bewirkt das Senden von Daten einer Nachricht vom Server zum Client. Beispiel: Suchen einer Nachricht. Ergebnis sind die Nummern der entsprechenden Mails: Client: X246 SEARCH SINCE 1-NOV-2001 FROM "ADAM" Server: * SEARCH 2 84 882 Server: X246 OK SEARCH completed Beendet der Client mit dem Kommando LOGOUT die Verbindung, wechselt der Server in den "Update State" und führt noch anstehende Arbeiten aus. Es gibt eine Reihe weiterer Befehle im "Authenticated State" und "Selected State", die in RFC2060 nachzulesen sind. Im abschließenden Beispiel sehen Sie den Ablauf einer IMAP4-Verbindung. Der Client identifiziert sich gegenüber dem Server, wählt eine Mailbox aus und lädt den Header einer Nachricht herunter. Server: Client: Server: Client: Server: Server: Server: Server: Server: Server: Client: Server: Server: Server: Server: Server: Server: Server: Server: Server: Server: Client: Server: Server: * OK IMAP4 Service Ready X001 login plate XYZ1230 X001 OK LOGIN completed X002 select inbox * 12 EXISTS * FLAGS (\Answered \Flagged \Deleted \Seen \Draft) * 2 RECENT * OK [UNSEEN 11] Message 11 is first new message * OK [UIDVALIDITY 2905753845] is first new message X002 OK [READ-WRITE] SELECT completed X003 fetch 9 rfc822.header * 9 FETCH (RFC822.HEADER {346} Date: mon, 11 Mar 2002 09:23:25 -0100 (MET) From: plate <[email protected]> Subject: Schulung Netzwerke am Donnerstag To: <[email protected]> Message-Id: <[email protected]> Mime-Version: 1.0 Content-Type: TEXT/PLAIN; CHARSET=iso-8859-1 ) X003 OK FETCH completed X004 LOGOUT * BYE IMAP4 server terminating connection X004 OK LOGOUT completed Nachdem der Mail-Client über TCP eine Verbindung zum SMTP-Server aufgebaut hat, wartet er auf einen Begrüßungstext des Servers. Im nächsten Schritt identifiziert sich der Client mit dem Kommando LOGIN, als Argument übergibt er den Benutzernamen und das Passwort. Nach dem Auswählen der Mailbox sendet der Server einige Informationen, z. B. die Anzahl der ungelesenen Nachrichten. Mit dem Kommando FETCH fordert der Client den Header der Nachricht 9 an. LOGOUT beendet die Verbindung. Bei Inbetriebnahme eines POP- bzw. IMAP-Clients (Outlook, Pegasus Mail, Netscape) muß dieser zunächst konfiguriert werden. Wichtige Angaben sind: Domainname des POP- bzw. IMAP-Servers, d.h. Systems, auf dem die eigentliche Mailbox liegt. Benutzernummer auf diesem System Paßwort für diese Benutzernummer für den Versand: Angabe des SMTP-Mail-Relayhosts POP/IMAP dient nur zum Abholen der Post vom Mail-Server. Der Versand von E-Mail vom PC oder Mac aus geschieht ganz normal mit SMTP (Simple Mail Transfer Protocol). FTP Ein weiterer zentraler Dienst in einem Intranet, der besonders dem Transport von Dateien auf andere Systeme dient, ist das File-Transfer-Protokoll. Die Besonderheit des Protokolls liegt in den getrennten Kanälen für die Daten und die Steuerung. Im RFC 959 ist für FTP TCP-Port 20 als Steuerungskanal und TCP-Port 21 als Datenkanal festgelegt. FTP verwendet als Transportprotokoll immer TCP, da dieses bereits einen sicheren Datentransfer garantiert und die FTP-Software sich nicht darum zu kümmern braucht. FTP besitzt eine eigene Kommandooberfläche, die interaktiv bedient wird. Der Aufruf dieses Filetransferprogrammes erfolgt durch das Kommando ftp. Die Vorteile von FTP liegen in den effizienten Verfahren zur Übertragung von Dateien beliebigen Formats und der Tatsache, daß der Zugriff seitens beliebiger Internet-Teilnehmern möglich ist. Andererseits kann bei größeren Archiven schnell die übersicht verlorengehen, wenn die Datenbestände nicht vernünftig sortiert sind. Bei umfangreichen Dateibäumen ist hingegen die Navigation durch die Verzeichnisse eine zeitraubende Angelegenheit. Es werden weiterhin zwei Betriebsmodi unterschieden: Benutzerspezifisches FTP Anonymous-FTP In beiden Fällen ist es möglich, Verzeichnisse einzusehen und zu wechseln, sowie Dateien zu empfangen und zu senden. Der Unterschied liegt in den Privilegien, die ein Benutzer besitzt. Während im ersten Fall der User eine Zugangsberechtigung zum System benötigt, so verfügt ein Gastzugang nur über eine eingeschränkte Sicht auf den Datenbereich des Servers, was als einfacher Sicherheitsmechanismus anzusehen ist. Der Kommandoaufruf des FTP-Kommandos lautet ftp [ -v ] [ -d ] [ -i ] [ -n ] [ -g ] [ host ] Wird beim Programmaufruf der gewünschte Kommunikationspartner (host) mit angegeben, so wird sofort versucht, eine Verbindung zu diesem Rechensystem aufzubauen. Ist der Versuch erfolglos, so wird in den Kommandomodus umgeschaltet. Der Prompt "ftp>" erscheint immer auf dem Bildschirm, wenn ftp-Kommandos eingegeben werden können. ftp verfügt über einen help-Mechanismus, über den sämtliche auf dem jeweiligen System verfügbare Kommandos mit Kurzerklärungen abfragbar sind. Nachfolgend werden wesentliche Kommandos nach Funktionalität gruppiert vorgestellt. Kommandos können soweit verkürzt eingegeben werden, als sie noch eindeutig erkennbar sind. Enthalten Kommandoargumente "Blanks", so sind die Argumente beidseitig mit Hochkommas eingeschlossen einzugeben. Nicht alle ftp-Implementierungen unterstützen alle ftp-Kommandos. help [ kommando ] zeigt kurze Informationen zu dem angegebenen Kommando. Wird das Kommando weggelassen, zeigt dieser Aufruf eine Liste der zulässigen Kommandos. open host Öffne einer Verbindung zu einem fernen Host. Je nach angewähltem System werden Benutzerkennung und Passwort abgefragt. user user-name [ password ] Eingabe von Benutzerkennung und Passwort. ! Aufruf einer (eingeschränkten) Shell auf dem lokalen System. Für Dateiübertragung relevante Kommandos wie mkdir, mv, cp, etc sind absetzbar. Verlassen wird diese Shell mit "exit". lcd pwd Anzeige des aktuellen Directories auf dem entfernten System. cd remote-directory Wahl des aktuellen Directories auf dem entfernten System. cdup [directory ] Wahl des lokalen Directories für die Dateiübertragung. Wechsel in das nächsthöhere Directory auf dem entfernten System. dir [ remote-directory [ local-file ] ] ls [ remote-directory [ local-file ] ] Ohne Optionen erfolgt eine Anzeige der Einträge des entfernten aktuellen Directories. Dabei liefert dir ausführliche und ls eine knappe Information bezüglich des Directory-Inhalts. Bei Angabe des remote-directory erfolgt die Anzeige der Einträge des entfernten Directories. Wird local-file angegeben, erfolgt eine Umlenkung der DirectoryAnzeige in die Datei local-file auf dem lokalen System. mdir remote-files [ local-file ] mls remote-files [ local-file ] Anzeige von Dateien aus dem entfernten aktuellen Directory und Abspeicherung in eine lokale Datei. mkdir directory-name Einrichten eines neuen Directories directory-name auf dem entfernten System. rmdir directory-name löscht das Directory directory-name auf dem entfernten System. rename [ from ] [ to ] Umbenennen einer Datei auf dem entfernten System von from nach to. delete remote-file Löschen der Datei remote-file auf dem entfernten System. mdelete remote-files Löschen mehrerer Dateien remote-files auf dem entfernten System. put local-file [ remote-file ] send local-file [ remote-file ] Dateiübertragung der Datei local-file vom lokalen zum entfernten System. Wird remote-file nicht angegeben, so wird auch auf dem Zielsystem der Dateiname local-file verwendet. append local-file [ remote-file ] überträgt die Datei local-file vom lokalen System an das entfernte System und hängt diese am Ende der Datei remote-file an. Wurde remote-file nicht angegeben, wird die Datei ans Ende der Datei local-file auf dem entfernten System angehängt. mput local-files Dateiübertragung einer Dateigruppe namensgleich vom lokalen zum entfernten System. get remote-file [ local-file ] recv remote-file [ local-file ] Dateiübertragung einer Datei remote-file vom entfernten System zum lokalen System. Wird local-file nicht mitangegeben, so erhält die Datei auch auf dem lokalen System den Dateiname remote-file. mget ascii type ascii remote-files Dateiübertragung einer Dateigruppe namensgleich vom entfernten zum lokalen System. Die Dateiübertragung findet im ASCII-Code statt. Gegebenfalls werden bei Binärdateien Zeichen verändert (z. B. die Zeilenendedarstellung ans Zielsystem angepaßt) oder Zeichen verfälscht. binary type image type binary Die Dateiübertragung findet transparent statt. case Mit diesem Schalter läßt sich einstellen, ob Dateinamen beim Empfangen (get, recv, mget) von Großbuchstaben nach Kleinbuchstaben übersetzt werden sollen. glob Mit diesem Schalter läßt sich einstellen, ob bei den Kommandos mdelete, mget und mput bei Dateinamen, die Metazeichen (*?[]~{}) enthalten, diese Metazeichen übertragen werden oder nicht. ("off" = keine Metazeichenbehandlung). ntrans [ inchars [ outchars ] ] Definition und Aktivierung einer Übersetzungstabelle für Dateinamen, wenn beim Dateiübertragungsauftrag (Senden und Empfangen) keine Zieldateinamen angegeben werden. Zeichen eines Dateinamens, die in inchars zu finden sind, werden durch das positionsgleiche Zeichen in outchars übersetzt. Ist inchars länger als outchars, so werden die korrespondenzlosen Zeichen von inchars aus dem Zieldateinamen entfernt. prompt Mit diesem Zeichen wird bei Mehrdateienübertragung gesteuert, ob jede zu übertragende Datei extra quittiert werden muß oder nicht. verbose Wenn der "verbose"-Modus eingeschaltet ist, erhält man für jede übertragene Datei den Dateinamen auf dem lokalen und entfernten Rechner, sowie die Datenmenge und die dafür benötigte Übertragungszeit angezeigt. bell Dieser Schalter bewirkt, daß je nach Stellung am Ende jedes Dateiübertragungsauftrages ein akustisches Signal ertönt oder nicht. status Anzeige der aktuellen logischen Schalterstellungen sowie des Verbindungszustandes. close disconnect Beendigung einer aktiven Verbindung. quit Beendigung des Programmes ftp. bye Beendigung einer aktiven Sitzung und des Programmes ftp. Die optionalen Parameter beim ftp-Kommando setzen logische Schalter für den ftpProgrammlauf. Im Kommandomodus sind die Einstellungen jederzeit wieder änderbar. -v -d -i verbose-Schalter einschalten. debug-Schalter einschalten. interactive-Modus für Mehrdateiübertragung einschalten. -n -g verhindert, daß FTP zum Beginn der Sitzung einen Login-Versuch unternimmt. glob-Schalter einschalten. Die Datei-Übertragung wird durch die Terminal "interrupt"-Taste (üblicherweise Ctrl-C) abgebrochen, was einen sofortigen Abbruch zur Folge haben soll. Nicht alle Kommunikationspartner verstehen die Abbruchaufforderung, wodurch dennoch die gesamte Datei übertragen wird. Dateinamen, die als Argumente von FTP-Kommandos Verwendung finden, werden wie folgt bearbeitet: Ist "file globbing" eingeschaltet, werden bei den Kommandos mget, mput und mdelete die Namen lokaler Dateien folgendermaß behandelt: Der * steht für eine beliebige Anzahl (auch Null) von Zeichen. Das ?steht für ein einziges beliebiges Zeichen. Wird im Dateinamen eine Zeichenfolge angetroffen, die zwischen eckigen Klammern oder zwischen geschweiften Klammern steht, so sind alle Dateinamen zutreffend, die an dieser Stelle ein einziges beliebiges Zeichen aus der Zeichenfolge innerhalb der Klammern enthalten. Steht die Zeichenfolge ~/ (Tilde, Schrägstrich) am Beginn des Dateinamens, so wird sie durch den Home-Directory-Pfad ersetzt. Das Zeichen ~, dem eine Benutzerkennung folgt, wird durch den Home-Directory-Pfad dieser Benutzerkennung ersetzt. Kommandos und Protokoll-Anweisungen: ftp-Client FTP-Protokoll Aufgabe login USER username anmelden PASS password help help command HELP Hilfe HELP command SYST Server-Identifikation STAT Transfer-Status STAT path wie LIST, über control-Verbindung dir path LIST path Kataloginhalt zeigen, ausführlich ls path NLST path Dateinamen zeigen delete path DELE path Datei löschen rename from to RNFR from-path Datei umbenennen RNTO to-path pwd PWD Arbeitskatalog zeigen cd path CWD path Katalog wechseln mkdir path MKD path Katalog erzeugen rmdir path RMD path Katalog löschen ascii TYPE A N Textübertragung (Voreinstellung) status binary TYPE I Datenübertragung PORT h,h,h,h,p,p Port des Klienten für dataVerbindung get remote-path RETR path Datei zum Klienten übertragen put local-path STOR path Datei zum Server übertragen append localpath APPE path an Datei auf Server anfügen interrupt ABOR _bertragung abbrechen quit QUIT Verbindung beenden Beispiel Benutzereingaben sind fett gedruckt. ftp multimedia.ee.fhm.edu Verbindung mit multimedia.ee.fhm.edu. 220 ProFTPD 1.2.2rc2 Server [multimedia.e-technik.fh-muenchen.de] Benutzer (multimedia.ee.fhm.edu:(none)): plate 331 Password required for plate. Kennwort: 230 User plate logged in. Ftp> ls 200 PORT command successful. 150 Opening ASCII mode data connection for file list. tmp Mail bin 226 Transfer complete. Ftp: 36 Bytes empfangen in 0.00Sekunden 36000.00KB/Sek. Ftp> cd tmp 250 CWD command successful. Ftp> lcd E:\www-netzmafia\skripten\perl Lokales Verzeichnis jetzt E:\www-netzmafia\skripten\perl. Ftp> cd /opt/www/skripten/perl 250 CWD command successful. Ftp> put perl3.html 200 PORT command successful. 150 Opening ASCII mode data connection for perl3.html. 226 Transfer complete. Ftp: 77604 Bytes gesendet in 9.17Sekunden 8.46KB/Sek. Ftp> put perl4.html 200 PORT command successful. 150 Opening ASCII mode data connection for perl4.html. 226 Transfer complete. Ftp: 30930 Bytes gesendet in 3.24Sekunden 9.55KB/Sek. Ftp> quit Active und Passive FTP Beim FTP-Zugriff werden zwei Modi unterschieden, active und passive FTP. Beim active mode FTP öffnet der Client eine Verbindung von einem unprivilegierten Port (Portnummer N > 1023) zum Kommandoport 21 des FTP-Servers. Dann spezifiziert der Client den Port N+1 als Datenport (PORT-Kommando). Der Server schickt seine Daten an den spezifizierten Port des Client von seinem Port 20 aus. Aus Sicht eines vorgeschalteten Firewall-Systems müssen demnach folgende Ports offen sein: FTP Serverport 21 von allen Ports ausserhalb (Client initiert die Verbindung) FTP Serverport 21 an Ports > 1023 (Server-Antwort auf Kommandos) FTP Serverport 20 an Ports > 1023 (Datenverbindung, Aufbau von Serverseite) FTP Serverport 20 von Ports > 1023 (Datenverbindung, Bestätigung vom Client) Sperrt ein Firewall im Netz des Client den Verbindungsaufbau von außen, ist keine Datenübertragung möglich (wohl aber die Kommandoverbindung). Zur Lösung dieses Problems kann der FTP-Client mit dem Befehl PASV in das passive mode FTP umgeschaltet werden. Der Client initiert nun Kommando- und Datenverbindung. Nach dem Umschalten in den passiven Modus, bietet der Server einen unprivilegierten Port > 1023 an, den der Client dann für den Datentransfer ansprechen kann. Aus Sicht eines vorgeschalteten Firewall-Systems müssen demnach folgende Ports offen sein: FTP Serverport 21 von allen Ports ausserhalb (Client initiert die Verbindung) FTP Serverport 21 an Ports > 1023 (Server-Antwort auf Kommandos) FTP Serverport > 1023 von überall (Datenverbindung, Aufbau von Clientseite) FTP Serverport > 1023 an Ports > 1023 (Datenverbindung, Bestätigung vom Server) Wenn auch nun die Probleme auf der Cleintseite gelöst sind, sind sie nun auf der Serverseite vorhanden. Der FTP-Server muß im Passivmodus alle Verbindungen von anderen Systemen auf Ports > 1023 zulassen. Um hier die Sicherheit zu verbessern, kann man bei etlichen Serverprogrammen den Portbereich per Konfiguration einschränken. Manche FTP-Clients können nicht in den Passivmodus schalten, es bleibt dann nur die Wahl eines anderen Programms. Dagegen können die Webbrowser im Passivmodus arbeiten (und tun dies meist per Default). HTTP - Hypertext Transfer Protocol HTTP ist ein Protokoll der Applikationsschicht, das alle Möglichkeiten der Übertragung von Hypermedia-Informationen bietet. HTTP ist nicht Hardware- oder Betriebssystemabhängig. Seit 1990 ist dieses Protokoll im Einsatz und wird derzeit meist in der Version 'HTTP/1.1' (seltener 1.0) verwendet. Heutige Informationssysteme benötigen weit mehr Funktionen als das einfache Senden und Empfangen von Nachrichten. Die Entwicklung von HTTP ist nicht abgeschlossen. Es bietet die Möglichkeit, weitere Funktionalität zu entwickeln. Die Adressierung von Ressourcen erfolgt dabei mittels URls, die zum einen Orte (URL) oder Bezeichner (URN) sein können. Diese zeigen gleichzeitig den gewünschten Übertragungsmechanismus an. Nachrichten werden in der gleichen Form übertragen, wie sie auch bei normalem Mail-Transport verwandt werden. Dabei kommt oft MIME zum Einsatz. HTTP/1.1 ist auch für den Zugriff auf Server mit anderen Protokollen geeignet. Hauptfunktionen des HTTP Die grundlegende Funktionsweise des HTTP folgt dem alten Frage-Antwort-Spiel. Ein fragendes Programm (WWW-Browser) öffnet eine Verbindung zu einem Programm, welches auf Fragen wartet (WWW-Server) und sendet ihm die Anfrage zu. Die Anfrage enthält, die Fragemethode, die URL, die Protokollversion, Informationen über den Dienst und möglicherweise etwas Inhalt in Form einer Nachricht. Der Server antwortet auf diese Frage mit einer Statusmeldung, auf die eine MIME-artige Nachricht folgt, die Informationen über den Server und eventuell schon das gefragte Dokument enthält. Direkt nach Beantwortung der Frage wird die Verbindung wieder abgebaut. So soll erreicht werden, daß die Leitungskapazitäten geschont werden. Derzeit finden HTTP-Verbindungen meist per TCP/IP statt. Das soll aber nicht heißen, daß HTTP nicht auch auf anderen Netzwerkprotokollen aufsetzen kann. Beide Seiten müssen auch dazu in der Lage sein, auf den vorzeitigen Abbruch der Kommunikation durch die andere Seite zu reagieren. Vorzeitiger Abbruch kann durch Aktionen von Benutzern, Programmfehler oder Überschreiten der Antwortzeiten ausgelöst werden. Durch den Abbruch der Verbindung durch eine der beiden Seiten wird der gesamte Vorgang abgebrochen. Struktur der HTTP-Botschaften Jede Kommunikation zwischen zwei WWW-Programmen besteht aus HTTP-Botschaften, die in Form von Anfragen und Antworten zwischen Client und Server ausgetauscht werden. Eine HTTP-Botschaft (HTTP-Message) kann entweder ein Simple-Request, eine Simple-Response, ein Full-Request oder eine Full-Response sein. Die beiden zuerst genannten Botschaftstypen gehören zum HTTP/0.9-Standard. Die beiden letzten Typen gehören schon zum HTTP/1.0. Allgemeinfelder des Botschaftskopfes Jedes der Felder eines HTTP-Botschaftenkopfes weist die gleiche Struktur auf. Im RFC 822 wurde definiert, daß jedes Feld mit einem Feldnamen und dem Feldinhalt erscheint. Auf den Feldnamen muß unbedingt ein Doppelpunkt folgen. Der Feldname kann alle Zeichen außer dem Doppelpunkt und der Escape-Sequenzen enthalten. Allgemeinfelder enthalten Informationen wie das Datum, die Message-ID, die verwendete MIME-Version und ein 'forwarded'-Feld, das angibt, ob das Dokument eigentlich von einer anderen Adresse stammt. Anfragen Bei Anfragen wird zwischen einfachen und komplexen Anfragen unterschieden. Eine einfache Anfrage besteht nur aus einer Zeile, die angibt, welche Information gewünscht wird. Ein Beispiel: GET http://www.netzmafia.de/index.html Dabei wird nur die Methode (GET) und die URL des Dokumentes angegeben. Es werden keine weiteren Felder erwartet und vom adressierten Server wird auch nur ein ganz einfacher Antwortkopf zurückgesendet. Es kann aber auch eine komplexere Anfrage erzeugt werden. Dabei muß die Zeile aus dem obigen Beispiel noch die Version des HTT-Protokolls angehängt werden. In einem Beispiel würde das folgendermaßen aussehen: GET http://www.netzmafia.de/index.html HTTP/1.0 Die Anfügung der HTTP-Version ist also der ganze Unterschied zwischen einer einfachen und einer komplexen HTTP-Anfrage. Der Unterschied zwischen einfacher und komplexer Anfrage wird aus Gründen der Kompatibilität gemacht. Ein Browser, der noch das alte HTTP/0.9 implementiert hat, wird nur eine einfache Anfrage losschicken können. Ein neuer Server muß dann eine Antwort, auch im Format des HTTP/0.9 zurücksenden. Felder einer komplexen Anfrage Um die Anfrage näher zu spezifizieren, wurden weitere Felder eingeführt. In den Anfragefeldern stellen z. B. Informationen über den Server und den benutzten Browser. Weiterhin kann man dort Informationen über den Gegenstand der Übertragung bekommen. In der folgenden kurzen Übersicht sind alle möglichen Felder einer Anfrage aufgeführt. Anfragezeile (Request-Line) Informationsanfrage wie oben geschildert. Die zugehörigen Methoden folgen im nächsten Abschnitt. Allgemeiner Kopf (General-Header) Im allgemeinen Kopf werden allgemeine Informationen über die Nachricht übermittelt. Anfragekopf (Request-Header) In diesen Feldern kann der Browser weitere Informationen über die Anfrage und über den Browser selbst absetzen. Diese Felder sind optional und müssen nicht erscheinen. Gegenstandskopf (Entity-Header) In diesem Feld werden Einträge übermittelt, welche den Inhalt der Nachricht näher beschreiben. Gegenstand der Nachricht (Entity-Body) Vor dem eigentlichen Inhalt muß definitionsgemäß eine Leerzeile stehen. Der Inhalt ist dann in dem Format codiert, das in den Gegenstandsfeldern definiert wurde (meist HTML). Fragemethoden Das an erster Stelle in einer Anfragezeile (Request-Line) stehende Wort beschreibt die Methode, die mit der nachfolgenden URL angewendet werden soll. Die Methodennamen müssen dabei immer groß geschrieben werden. Der Entwurf des HTTP-Standards erlaubt leicht eine Erweiterung. Kommen wir nun zur Bedeutung der einzelnen Methoden. GET Diese Methode gibt an, daß alle Informationen, die mit der nachfolgenden URL beschrieben werden, zum rufenden Client geholt werden sollen. Zeigt die URL auf ein Programm (CGI-Script), dann soll dieses Programm gestartet werden und die produzierten Daten liefern. Handelt es sich bei dem referenzierten Datum um eine Datei, dann soll diese übertragen werden. Beispiel: GET http://www.netzmafia.de/index.html HEAD Diese Methode ist identisch zur Methode GET. Die Antworten unterscheiden sich nur darin, daß bei der Methode GET ein komplettes Dokument übertragen wird und bei HEAD nur die Meta-Informationen gesendet werden. Dies ist nützlich, um Links auszuprobieren oder um die Erreichbarkeit von Dokumenten zu testen. Bei Anwendung der Methode HEAD wird der Kopf des referenzierten HTML-Dokuments nach 'link' und 'meta' Elementen durchsucht. POST Diese Methode wird hauptsächlich für größere Datenmengen verwandt. Man stelle sich vor, ein HTML-Dokument enthält ein komplexes Formular. Per POST wird dem Server angezeigt, daß er auch die Daten im Körper der Botschaft bearbeiten soll. Verwendet, wird es hauptsächlich bei Datenblöcken, die zu einem verarbeitenden Programm übertragen werden. Die wirkliche Funktion, die durch POST auf dem adressierten Rechner angestoßen wird, wird durch die URL bestimmt. Meist, sind es CGI-Scripte, die den Inhalt der Nachricht verarbeiten. PUT Die mit der Methode PUT übertragenen Daten sollen unter der angegeben URL gespeichert werden. Das soll ermöglichen, daß WWW-Seiten auch ohne direkten Zugriff auf den anbietenden Rechner erstellt und angeboten werden können. Wird ein Dokument mit der Methode PUT übertragen, dann wird unter dieser Adresse ein Dokument mit dem übertragenen Inhalt angelegt. War die Aktion erfolgreich, wird die Meldung '200 created' zurückgegeben. Existiert unter dieser Adresse schon ein Dokument, dann wird dieses überschrieben. War auch diese Aktion erfolgreich, dann wird nur '200 OK' zurückgemeldet. Der Hauptunterschied zwischen POST und PUT besteht darin, daß bei POST die URL eine Adresse eines Programmes referenziert, das mit den Daten umgehen kann. Bei PUT hingegen wird die URL als neue Adresse des Dokumentes gesehen, das gerade übertragen wurde. Meist jedoch ist die Methode PUT ausgeschaltet, weil ServerBetreiber befürchten, daß die Sicherheit, des Systems dadurch nicht mehr gewährleistet ist. DELETE Mit dieser Methode kann der Inhalt einer URI (Unified Resource Identifier) gelöscht werden. Diese Methode ist neben der Methode PUT eine der gefährlichsten. Wenn Server nicht richtig konfiguriert wurden, dann kann es mitunter vorkommen, daß alle Welt die Berechtigung zum Löschen von Ressourcen hat. LINK Mit dieser Methode können eine oder mehrere Verbindungen zwischen verschiedenen Dokumenten erzeugt werden. Es werden dabei keine Dokumente erstellt, sondern nur schon bestehende miteinander verbunden. UNLINK entfernt Verbindungen zwischen verschieden Ressourcen. Dabei wird nur die Verbindung gelöscht. Die Dokumente existieren trotzdem weiter. Mit diesen Methoden kann man alle möglichen Ressourcen erreichen, welche die verschiedenen Server zur Verfügung stellen. Die folgenden Felder beschreiben nun die Fragen etwas genauer. Es kann zum Beispiel verhindert werden, daß ungewollt umfangreiche Bilder übermittelt werden, wenn dies nicht gewünscht wird. Beispiel einer Konversation Benutzereingaben werden kursiv geschrieben. Das lokale System ist eine Windows-Kiste. plate@lx3-lbs:~ > telnet www.netzmafia.de 80 Trying 141.39.253.210... Connected to www.netzmafia.de. Escape character is '^]'. GET /index.html HTTP/1.0 HTTP/1.1 200 OK Date: Mon, 18 Sep 2000 13:59:58 GMT Server: Apache/1.3.6 (Unix) (SuSE/Linux) Last-Modified: Tue, 29 Aug 2000 08:08:58 GMT ETag: "134015-8e8-39ab6f9a" Accept-Ranges: bytes Content-Length: 2280 Connection: close Content-Type: text/html <HTML> <HEAD> <TITLE>Netzmafia</TITLE> </HEAD> <body bgcolor="#000000" text="#FFFFCC" link="#FFCC00" alink="#FF0000" vlink="#FF9900"> ... </BODY> </HTML> Connection closed by foreign host. Neues Kapitel Grundlagen Computernetze Einführung Der Zusammenschluß von diversen Computern und Peripheriegeräten zu Netzen gewinnt immer stärkere Bedeutung. Netze (Netzwerke) sind Verbindungssysteme, an die mehrere Teilnehmer zum Zweck der Datenkommunikation angeschlossen sind. Lokale Netze (LAN, Local Area Network) sind Netze in einem örtlich begrenzten Bereich (Raum, Gebäude, Gelände), der sich im Besitz einer einzigen Organisation (z. B. Firma) befindet. Die Verbindung mehrerer LAN-Segmente erfolgt über Koppelelemente (Hubs, Switches, Bridges, Router, etc.). Weitverkehrsnetze (WAN, Wide Area Network) sind Netze, die über weitere Entfernungen reichen (Stadt, Land, Welt). Die einzelnen Netze können über Router oder Gateways miteinander gekoppelt werden und dabei auch öffentliche Kommunikationsnetze nutzen. Jegliche Kommunikation zwischen zwei Partnern ist an bestimmte Voraussetzungen gebunden. Zum einen muß die Hardware der Partner und der Datenübertragungseinrichtungen über kompatible Schnittstellen verfügen und zum anderen müssen Vereinbarungen über die Art und Weise des Informationsaustausch getroffen werden (Protokolle). Zur Festlegung von Schnittstellen und Protokollen gibt es zahlreiche Standards (nationale und internationale Normen, Firmenstandards). Wie definiert die ISO (International Standardisation Organisation) ein LAN? "Ein lokales Netz (LAN) ist ein Netz für bitserielle Übertragung von Informationen zwischen untereinander verbundenenen unabhängigen Geräten. Das Netz unterliegt vollständig der Zuständigkeit des Anwenders und ist auf ein Grundstück begrenzt." Es werden also nicht nur Computer miteinander vernetzt, sondern auch andere Geräte wie Drucker, Monitore, Massenspeicher, Kontrollgeräte, Steuerungen, Fernkopierer und anderes. Der Unterschied eines LAN zu anderen Netzen wird von der ISO durch folgende Eigenschaften festgelegt: begrenzte Ausdehnung, hohe Datenübertragungsrate, geringe Fehlerrate, dezentrale Steuerung, wahlfreier Zugriff und die Übertragung von Datenblöcken. Kern der Datenkommunikation ist der Transport der Daten, also die Datenübertragung von einem Sender mittels eines Übertragungskanals zu einem Empfänger. Die zu übertragenden Daten werden im Rhythmus eines Sendetaktes auf das Übertragungsmedium gegeben. Damit die Information korrekt wiedergewonnen werden kann, muß am Empfangsort eine Abtastung der Signale zum richtigen Zeitpunkt erfolgen. Normalerweise verwendet man dazu eine Codierung, die eine Rückgewinnung des Taktes aus dem Signal erlaubt. Auf diese Weise kann sich der Empfänger jederzeit auf den Takt des Senders synchronisieren. ISO-Referenzmodell für die Datenkommunikation Eine wesentliche Forderung in der Datenfernverarbeitung ist das Zusammenschalten unterschiedlicher Stationen (verschiedener Hersteller). Dazu ist eine Schematisierung und Gliederung des Kommunikationsprozesses in wohldefinierte, hierarchische Ebenen (Schichten, Layers) notwendig. Es erfolgt eine Zuordnung der einzelnen Kommunikationsfunktionen zu bestimmten logischen Schichten. Wird in einer Schicht eine Anpassung (Änderung, Erweiterung) vorgenommen, bleiben die anderen Ebenen davon unberührt. ISO (International Standards Organisation) hat für offene Netze ein 7-Schicht-Modell, das OSI-Modell (OSI = Open Systems Interconnection), geschaffen. Dieses Modell liegt nahezu allen Kommunikationsgeräten und -Verfahren zugrunde (zur Not werden vorhandene Protokolle in das Schema von ISO/OSI gepreßt). Im OSI-Modell werden die grundsätzlichen Funktionen der einzelnen Ebenen und die Schnittstellen zwischen den Ebenen festgelegt. So ergibt sich eine universell anwendbare logische Struktur für alle Anforderungen der Datenkommunikation verschiedener Systeme. Das OSI-Model liefert Eine Basis für die Interpretation existierender Systeme und Protokolle in der Schichten-Perspektive (wichtig bei Änderungen). Eine Referenz für die Entwicklung neuer Kommunikationsverfahren und für die Definition neuer Protokolle, also eine Grundlage für kompatible Protokolle. Wesensmerkmale der hierarchischen Schichtenstruktur bei Rechnernetzen sind: Das Gesamtsystem wird in eine geordnete Menge von Teilsystemen gegliedert. Teilsysteme des gleichen Ranges bilden eine Schicht (engl. Layer). Die einzelnen Schichten liegen entsprechend ihrer hierarchischen Rangordnung übereinander. Eine hierarchisch tieferliegende Schicht dient der Erfüllung der Kommunikationsfunktion der jeweils übergeordneten Schicht. Jede Schicht stellt definierte Dienste bereit. Diese Dienste realisieren bestimmte Kommunikations- und Steuerungsaufgaben. Die einzelnen Schichten stellen somit definierte Schnittstellen zu ihren Nachbarn bereit (Schicht 4 hat z. B. Schnittstellen zu den Schichten 3 und 5). Die Kommunikation findet nur über diese Schnittstellen statt (in der Grafik senkrecht). Die rein logische Kommunikation zwischen den beteiligten Stationen A und B erfolgt jedoch auf der Basis gleicher Schichten (in der Grafik waagrecht, mit '.' gekennzeichnet). Lediglich bei Schicht 1 handelt es sich um eine physikalische Verbindung. Aufgabe der einzelnen Schichten: Die Schichten 1 - 4 werden der Transportfunktion zugeordnet Die Schichten 5 - 7 werden den Anwenderfunktionen zugeordnet Zunächst eine kurze Beschreibung der einzelnen Schichten. Dabei ist auch der zur Schicht gehörende Datenblock gezeigt. Jede Schicht kann (muß aber nicht) die Daten mit einem eigenen Header (bzw. Datenrahmen) versehen, der zur Kommunikationssteuerung auf dieser Schicht dient. Der Datenblock einer Schicht (mit Rahmen) wird von der Schicht als reine Nutzdaten betrachtet, sie kann so auch an dem Header der übergeorneten Schicht nichts ändern. 7. Anwendungs-Schicht (Application) Verbindung zum Anwenderprogramm und Dialog mit den Programmen. Eine Standardisierung ist hier noch in weiter Ferne. Es gibt aber eine Reihe von grundsätzlichen Diensten, die angeboten werden müssen: o Austausch von Dateien, d. h. Dateizugriffsdienste über das Netz. Für das eigentliche Anwenderprogramm ist nicht erkennbar, ob auf eine Datei lokal oder über das Netz zugegriffen wird. o Verwaltungsprotokolle für Benutzerzugang, Dateizugriffsrechte, elektronische Post, usw. o Remote Job Entry, d. h. absetzen von Rechenaufträgen an entfernte Systeme o o Virtuelle Terminals, d. h. Umleitung der Ein-/Ausgabe eines Programms auf dem fernen Rechner an den lokalen Bildschirm und die lokale Tastatur. Message-Handling-Systeme: Austausch und Verwaltung von Mitteilungen an Benutzer anderer Systeme. Die Schicht 7 besteht also trotz ihres Namens nicht aus den eigentlichen Anwenderprogrammen - diese setzen auf dieser Schicht auf. Das kann einerseits direkt geschehen, z. B. beim Zugriff auf Dateien eines anderen Rechners (Datei-Server) andererseits auch nur durch (lokale) Übergabe von Dateien an das Message-HandlingSystem. 6. Darstellungs-Schicht (Presentation) Hier werden für die Anwendung die Daten interpretiert. Überwachung des Informationsaustausches und Codierung/Decodierung (z. B. EBCDIC in ASCII) der Daten sowie Festlegung der Formate und Steuerzeichen. Diese Schicht bildet oft eine Einheit mit der Anwendungsschicht oder sie fehlt ganz, falls sie nicht benötigt wird. Hier können z. B. "virtuelle Terminals" eingebunden werden. Wie wir früher schon besprochen haben, besitzen Terminals ganz unterschiedliche Codes für die Tastatur und die Steuerung der Darstellung auf dem Bildschirm. In Schicht 6 können diese Codes in einen einheitlichen Code übersetzt werden. 5. Kommunikationssteuerung (Session) Diese Ebene steuert die Aufbau, Durchführung und Beendigung der Verbindung. Überwachung der Betriebsparameter, Datenfluß-Steuerung (bei Bedarf mit Zwischenspeicherung der Daten), Wiederaufbau der Verbindung im Fehlerfall und Synchronisation. Der Verbindungsaufbau ist ein bestätigter Dienst, d. h. beide Partner tauschen Parameterübergabe und Bestätigung im Wechselspiel aus. Danach befinden sich beide Partner in einem definierten Zustand. Das trifft nicht für die nächste Phase, den Datentransfer zu. Es ist aus Zeitgründen z. B. nicht sinnvoll nach dem Senden eines Datenblocks auf die Bestätigung zu warten. Es wird gleich der nächste Block geschickt und die Bestätigungen laufen zeitversetzt ein (immerhin muß alles die Schichten 4 - 1 durchlaufen). Durch sogenannte "Synchronisation Points" wird die Datentransferphase in Abschnitte unterteilt. Bei einer Störung oder Unterbrechung kann der Transfer an einen definierten Punkt wieder aufgenommen werden. Beide Partner können den Verbindungsaufbau beenden. Das kann ordnungsgemäß nach Beendigung aller Transfers geschehen (Ende mit Synchronisation) oder durch Unterbrechen der Verbindung (Ende ohne Synchronisation). In diese Ebene fallen auch das Ein- und Ausgliedern von Stationen beim Token-Ring und die Adressierung eines bestimmten Partners. 4. Transport (Transport) Reine Transportfunktion. Diese Schicht stellt sicher, daß alle Datenpakete den richtigen Empfänger erreichen. Aufbau der Datenverbindung zwischen zwei Partnern, Datentransport, Flußkontrolle, Fehlererkennung und korrektur. Diese Schicht verbirgt die Charakteristika des Netzes (LAN, WAN, ...) vor den darüberliegenden Schichten. Die Transportschicht kann z. B. auch bei einer Forderung nach höherem Datendurchsatz mehrere Verbindungen zum Parner aufbauen und die Daten in Teilströmen leiten (splitting/combining). Auch das Aufteilen der Daten in passende Blöcke und die Flußkontrolle obliegen dieser Schicht. Die Dienste der Transportschicht werden in fünf Klassen unterschieden: o Klasse 0 ist die einfachste. Es findet gegenüber der Schicht 3 keine Fehlerkontrolle statt und einer Transportverbindung enspricht genau eine Netzverbindung. o In der Klasse 1 kommt zwar keine Fehlerbehandlung hinzu, es wird jedoch versucht, von der Schicht 3 gemeldete Fehler zu beheben und nicht an die Schicht 5 weiterzuleiten. Z. B. kann bei Unterbrechung der Transportverbindung versucht werden, diese wieder aufzubauen, ohne daß dies oberhalb der Schicht 4 bemerkt wird. o Klasse 2 kann mehrere Transportverbindungen aufbauen (Multiplexverbindung). In diesem Fall darf die Netzverbindung erst dann getrennt werden, wenn die letzte Transportverbindung abgebaut ist. o Klasse 3 deckt die Leistungen der Klassen 1 und 2 ab, d. h. einfache Fehlerbehandlung und Multiplexen. o Klasse 4 enthält neben den Funktionen der Klasse 3 zusätzliche Mechanismen zur Fehlererkennung und -behandlung. Speziell bei Datagramm-orientieren Netzen (LAN) kann so ein verbindungsorientierter Dienst bereitgestellt werden (Sicherstellen von Vollständigkeit, Eindeutigkeit und Reihenfolge der Datenblöcke). 3. Vermittlung-/Paket-Schicht (Network) Diese Ebene dient hauptsächlich der Datenpaket-Übertragung. Sie ist zusändig für die Wahl der Datenwege (routing), für das Multiplexen mehrerer Verbindungen über einzelne Teilstrecken, für Fehlerbehandlung und Flußkontrolle zwischen den Endpunkten einer Verbindung (nicht zwischen den Anwenderprozessen). Die Flußkontrolle auf dieser Ebene schützt den Endpunkt einer virtuellen Verbindung für Überlastung. Die Fehlerbehandlung in dieser Schicht bezieht sich nicht auf Übertragungsfehler (dafür ist Schicht 2 ausreichend), sondern auf Fehler, die bei der virtuellen Verbindung auftreten: Erkennen und Beseitigen von Duplikaten, Beseitigen permanent kreisender Blöcke, wiederherstellen der richtigen Datenpaket-Reihenfolge, usw. Bei WANs behandelt diese Schicht die Umsetzung eines Protokolls in ein anderes (internetworking). Man kann daher die Schicht 3 in drei Teilschichten unterteilen: o 3a (Subnetwork Access): Abwickeln der Protokolle des jeweiligen Teilnetzes. o 3b (Subnet Enhancement): Funktionen der Teilnetze so ergänzen, daß die Anforderungen von 3c erfüllt werden. o 3c (Internetworking): Teilnetzunabhängige Protokolle abwickeln (Routing, globale Adressierung) 2. Sicherungs-Schicht (Data Link) Sicherstellen einer funktionierenden Verbindung zwischen zwei direkt benachbarten Stationen. Diese Schicht stellt einen definierten Rahmen für den Datentransport, die Fehlererkennung und die Synchronisierung der Daten zur Verfügung. Typische Protokolle: BSC, HDLC, usw. Die Information wird in Blöcke geeigneter Länge unterteilt, die als Datenrahmen (frames) bezeichnet werden und mit Prüfinfo für die Fehlererkennung und -korrektur versehen werden. Auf dieser Ebene erfolgt auch die Flußkontrolle für die Binärdaten. Es muß nicht jeder einzelne Rahmen bestätigt werden, sondern es kann auch eine vorgegebene Maximalzahl von Frames gesendet werden, bevor die Bestätigung abgewartet werden muß. Über die Bestätigung der Gegenstation wird der Datenfluß gesteuert. Datenrahmen und Bestätigungen müssen also nur innerhalb eines Bereichs ("Fenster") liegen. Bei lokalen Netzen wird diese Schicht nochmals unterteilt: o 2a (Media Access Control, MAC): Regelt den Zugriff auf das Übertragungsmedium o 2b (Logical Link Control, LLC): Vom übertragungsmedium abhängige Funktionen der Schicht 2 1. Bitübertragung (Physical) Hier erfolgt die physikalische Übertragung der Daten. Diese Ebene legt die elektrischen, mechanischen, funktionalen und prozeduralen Parameter für die physikalische Verbindung zweier Einheiten fest (z. B. Pegel, Modulation, Kabel, Stecker, Übertragungsrate, etc.) Veranschaulichung des Schichtenmodells mit einem Beispiel Das Beispiel arbeitet nur mit drei Schichten. Die Ausgangssituation besteht in zwei Wissenschaftlern in Arabien und China, die ein Problem diskutieren wollen. Nun sprechen beide nur Ihre Landessprache und auch Dolmetscher, die Arabisch und Chinesisch können, sind nicht aufzutreiben. Beide suchen sich nun Dolmetscher, die Englisch können. Der Weg der Nachrichten: Paketvermittlung vs. Leitungsvermittlung Hier soll kurz erklärt werden, wie die zu übertragenden Informationen in den meisten Netzen von einem auf den anderen Rechner kommen. Die Daten werden paketweise übertragen. Man spricht daher von einem paketvermittelten Netz. Zur Veranschaulichung ein Gegenbeispiel und ein Beispiel: Im Telefonnetz wird für jedes Gespräch eine Leitung zwischen zwei Gesprächspartnern benötigt. Diese Leitung bleibt auch belegt, wenn keine Information übertragen wird, also keiner spricht. Hier handelt es sich um ein leitungsvermitteltes Netz. Im Briefverkehr wird dagegen ganz anders vorgegangen. Wenn Informationsübertragung ansteht, wird ein Brief geschrieben und dieser mit einer Adresse versehen. Sodann wird dieses Informationspaket dem Netz überlassen, indem man es in einen Briefkasten wirft. Das örtliche Postamt entscheidet dann aufgrund der Empfängeradresse, ob der Brief direkt an den Empfänger (wenn dieser also im Versorgungsbereich dieses Postamtes wohnt) auszuliefern ist, oder durch Einschalten von mehr oder weniger Zwischenstationen. In der Regel findet der Brief dann ein Postamt, das die Auslieferung des Briefes an den Empfänger aufgrund der Adresse vornehmen kann. Schwierigkeiten bei der Auslieferung können dem Absender aufgrund der Absendeadresse mitgeteilt werden. Leistungsparameter Bandbreite (Übertragungsrate) o o o Übertragenes Datenvolumen pro Zeiteinheit Maßeinheit: Bits pro Sekunde (bps) Unterscheidung in Bandbreite der Leitung und Ende-zu-Ende Bandbreite (zwischen zwei Anwendungen) Durchsatz tatsächlich erreichte Bandbreite, also Datenmenge/Transferzeit Latenzzeit (Transferzeit) Zeit vom Beginn des Absendens einer Nachricht bis zu ihrem vollständigem Empfang. Die Transferzeit setzt sich zusammen aus: Signallaufzeit + Übertragungsdauer + Zeit für Pufferung in Zwischenknoten Signallaufzeit = Entfernung / Ausbreitungsgeschwindigkeit Übertragungsdauer = Nachrichtenmenge / Bandbreite Round-Trip-Time (RTT) Zeit, die benötigt wird, um eine Nachricht von A nach B und wieder zurück zu schicken Bandbreite und Signallaufzeit - Kurze Nachrichten: Signallaufzeit dominiert - Lange Nachrichten: Bandbreite dominiert Neues Kapitel Repeater, Bridge, Router Um die Längenbeschränkung eines EthernetSegmentes aufzuheben, verwendet man Repeater. Ein klassischer Repeater verbindet zwei EthernetSegmente (10Base5 oder 10Base2), er ist mit je einem Transceiver an jedes Segment angeschlossen. Ein Remote-Repeater ist ein Repeater-Paar, das durch einen max. 1000 m langen Lichtwellenleiter verbunden ist. In jedem Netz dürfen höchstens vier Repeater vorhanden sein, man erreicht so eine Gesamtlänge von 2500 m. Ein Remote RepeaterPaar zählt dabei wie ein lokaler Repeater. An den Lichtwellenleiter können keine Ethernet-Stationen angeschlossen werden. Der Repeater ist als reines Verstärkerelement in der untersten Schicht des OSI-Modells angesiedelt. Multiport-Repeater Der Multiport-Repeater bietet die Möglichkeit, mehrere (typischerweise bis zu acht) Cheapernet-Segmente zusammenzuführen und über einen Transceiveranschluß mit dem Standard-Ethernet zu verbinden. Bei zwei oder mehr anzuschließenden CheapernetSegmenten ist die Lösung kostengünstiger als der Einsatz von Standard-Repeatern. Hub Analog dem Multiport-Repeater besteht die Funktion eines Hub darin, mehrere Twisted-PairKabelsegmente über einen Transceiveranschluß mit dem Ethernet zu verbinden. Das englische Wort "Hub" bezeichnet die Nabe eines Speichenrades - wie die Speichen des Rades verteilen sich die Leitungen sternförmig vom Hub aus. Der Begriff "Hub" steht also für fast alle Verstärkerkomponenten, die eine sternförmige Vernetzung ermöglichen. Hubs haben immer mehrere Ports zum Anschluß von mehreren Rechnern. Bei Twisted-Pair-Verkabelung ist meist einer der Ports als "Uplink" schaltbar, d. h. es werden wie im 4. Kapitel beschrieben die Leitungen gekreuzt. Auf diese Weise lassen sich die Hubs kaskadieren. Typisch sind Hubs mit 4, 8, 12, 16, 24 und 32 Ports. Manche Repeater/Hubs lassen sich über spezielle Busports und in der Regel sehr kurze Buskabel verbinden. Vorteil dieser herstellerspezifischen Kaskadierung ist, daß alle so verbundenen Repeater/Hubs als ein Repeater bezüglich der Repeaterregel zählen. Repeaterregel (5-4-3-Regel) Die Anzahl der hintereinanderschaltbaren Repeater bei 10Base5 und 10Base2 ist jedoch limitiert (Addition von Laufzeiten, Phasenverschiebungen, usw.). Ein Remote-Repeater-Paar (10Base5, 10Base2) mit einer Punkt-zu-Punkt-Verbindung zwischen beiden Hälften wird als ein Repeater betrachtet. Weiterhin gilt: Es dürfen nicht mehr als fünf (5) Kabelsegmente verbunden werden. Zur Verbindung werden vier (4) Repeater benötigt und nur drei (3) der Segmente dürfen Rechner angeschlossen haben. Bei Ethernet (10Base5) können so 5 Segmente zu je 500 m verbunden werden, das gesamte Netz darf damit eine Ausdehnung von 2,5 km haben. Man kann diese Regel auch auf Twisted-Pair-Hubs anwenden - auch hier kann man nicht beliebig viele Hubs kaskadieren. Hier ist die Leitungslänge sogar auf ca. 100 m je Segment begrenzt. Eine Erweiterung ist durch aktive Elemente möglich (Switch, Router). Lichtwellenleiter (10BaseF, FOIRL) und Sternkoppler Zur Verbindung von Gebäuden werden oft Lichtwellenleiter (LWL) verwendet. Außerdem können mit ihnen in Gebäuden längere Entfernungen als mit Koaxkabeln überbrückt werden. Lichtleiter können wie TwistedPair auch im Ethernet-Verkehr nur für Punkt-zu-PunktVerbindungen eingesetzt werden. Lichtleiter werden zwischen Bridges, Switches und/oder Repeatern, einem Repeater und einer einzelnen Station mit Transceiver oder zwischen zwei Stationen mit Transceivern verwendet. Als Industriestandard für Lichtleiterprodukte hatte sich ursprünglich FOIRL (Fiber Optic InterrepeaterLink) durchgesetzt. Inzwischen wurde FOIRL vom offiziellen IEEE 802.3 10BASE-FL-Standard abgelöst, daher sollte man heute nur noch 10BASE-FL konforme Geräte einsetzen. An einem FOIRL-Segment kann ein FOIRL-kompatibles Gerät mit einem 10BASE-FL-Transceiver gemischt werden. In diesem Fall gelten jedoch die strengeren FOIRL-Regeln. Normalerweise ist das eingesetzte LWL-Kabel ein Multimode- (MMF-) Kabel mit ST- oder SC-Steckern. Die maximale Länge des Kabels ist 2000 m beim Einsatz von 10BASE-FL-Komponenten, 1000 m bei FOIRL. Sternkoppler können als Verstärker betrachtet werden, jedes Datenpaket, das von einem angeschlossenen Segment stammt, wird in alle anderen Segmente verbreitet, einschließlich Kollisionen und fehlerhafter Pakete. An einen Sternkoppler können Koax- oder Cheapernet-Segmente angeschlossen werden. Zudem gibt es direkte Transceiver-Anschlüsse und mittlerweile auch Anschlüsse für TwistedPair-Kabelsegmente. Bridge Eine Bridge trennt zwei Ethernet-LANs physikalisch, Störungen wie z. B. Kollisionen und fehlerhafte Pakete gelangen nicht über die Bridge hinaus. Die Bridge ist protokolltransparent, d. h. sie überträgt alle auf dem Ethernet laufenden Protokolle. Die beiden beteiligten Netze erscheinen also für eine Station wie ein einziges Netz. Durch den Einsatz einer Bridge können die Längenbeschränkungen des Ethernets überwunden werden, den sie verstärkt die Signale nicht nur, sondern generiert senderseitig einen neuen Bitstrom. Die Bridge arbeitet mit derselben Übertragungsrate, wie die beteiligten Netze. Die Anzahl der hintereinandergeschalteten Bridges ist auf sieben begrenzt (IEEE 802.1). Normalerweise wird man aber nicht mehr als vier Bridges hintereinanderschalten. Jede lokale Bridge ist über Transceiver an zwei Ethernet-LANs angeschlossen. Die Bridge empfängt von beiden Netzsegmenten, mit denen sie wie jede normale Station verbunden ist, alle Blöcke und analysiert die Absender- und Empfängeradressen. Steht die Absenderadresse nicht in der brückeninternen Adreßtabelle, so wird sie vermerkt. Die Bridge lernt und speichert so die Information, auf welcher Seite der Bridge der Rechner mit dieser Adresse angeschlossen ist. Ist die Empfängeradresse bekannt und der Empfänger auf derselben Seite wie der Absender, so vewirft die Bridge das Paket (filtert es). Ist der Empfänger auf der anderen Seite oder nicht in der Tabelle, wird das Paket weitergeschickt. Die intelligente Bridge lernt so selbständig, welche Pakete weitergeschickt werden müssen und welche nicht. Bei managebaren Bridges können zusätzliche Adreß-Filter gesetzt werden, die regeln an welche Adressen die Bridge Informationen immer weiterschicken muß oder nie weiterschicken darf. Eine Bridge arbeitet auf der Ebene 2 des OSI-Schichtenmodells. Bridges können Ethernet-Segmente auch über synchrone Standleitungen, Satellitenverbindungen, Funkverbindungen, öffentliche Paketvermittlungsnetze und schnelle Lichtleiternetze (z.B. FDDI) verbinden. In der Regel müssen solche Bridges immer paarweise eingesetzt werden. Bridges sind komplette, relativ leistungsfähige Rechner mit Speicher und mindestens zwei Netzwerkanschlüssen. Sie sind unabhängig von höheren Protokollen (funktionieren also z.B. mit TCP/IP, DECnet, IPX, LAT, MOP etc. gleichzeitig) und erfordern bei normalem Einsatz keine zusätzliche Software oder Programmierung. Nach Außen bildet ein mittels Bridge erweitertes LAN weiterhin eine Einheit, welches eine eindeutige Adressierung bedingt. Eine Bridge interpretiert die MAC-Adressen der Datenpakete. Weitere Features einer Bridge sind: Ausfallsicherheit Störungen gelangen von der einen Seite einer Bridge nicht auf die andere Seite. Sie werden auch in diesem Sinne zum Trennen von sog. Kollisions-Domänen (collision domain) eingesetzt. Datensicherheit Informationen, die zwischen Knoten auf einer Seite der Bridge ausgetauscht werden, können nicht auf der anderen Seite der Bridge abgehört werden. Durchsatzsteigerung In den durch Bridges getrennten Netzsegmenten können jeweils unterschiedliche Daten-Blöcke gleichzeitig transferiert werden. Hierdurch wird die Netzperformance erhöht. Allerdings erzeugen Brücken dadurch, daß sie die Blöcke zwischenspeichern eine zusätzliche Verzögerung und können deswegen bei kaum ausgelasteten Netzen die Performance sogar verschlechtern. Vermeidung von Netzwerkschleifen Eine Bridge unterstützt den sog. "Spanning-Tree-Algorithmus", wodurch es möglich ist, auch Schleifen- oder Ring-Konfigurationen (= redundante Verbindungen) im Netz zu erlauben. Die Bridges im Netz kommunizieren miteinander, im Gegensatz zu "dummen" Repeatern oder Hubs, und stellen über den Algorithmus sicher, daß bei mehreren redundanten Verbindungen immer nur eine gerade aktiv ist. Weitere Kenndaten einer Bridge sind die Größe der Adreßtabelle, die Filterrate, und die Transferrate. Die Größe der Adreßtabelle gibt an, wieviele Adressen (Knoten) insgesamt in der Bridge gespeichert werden können. Die Filterrate gibt an, wieviele Pakete pro Sekunde (packets per second, pps) eine Bridge maximal empfangen kann. Bei voller Last und minimaler Paketlänge können in einem Ethernet-Segment theoretisch bis zu 14.880 Pakete pro Sekunde auftreten. Auf beiden Ports hat eine 2-Port-Bridge also insgesamt maximal 29.760 Pakete pro Sekunde zu filtern. Alle modernen Bridges erreichen diese theoretisch möglichen Maximalwerte. Die Transferrate gibt an, wieviel Pakete pro Sekunde die Bridge auf die andere Seite weiterleiten kann. Der Maximalwert ist hier 14.880 pps, da bei dieser Transferrate beide Segmente voll ausgelastet sind. Switch Der Switch ist wie die Bridge ein Gerät des OSI-Layers 2, d. h. er kann LANs mit verschiedenen physikalischen Eigenschaften verbinden, z. B. Koax- und Twisted-PairNetzwerke. Allerdings müssen, ebenso wie bei der Bridge, alle Protokolle höherer Ebenen 3 bis 7 identisch sein! Ein Switch ist somit protokolltransparent. Er wird oft auch als MultiPort-Bridge bezeichnet, da dieser ähnliche Eigenschaften wie eine Bridge aufweist. Jeder Port eines Switch bildet ein eigenes Netzsegment. Jedem dieser Segmente steht die gesamte Netzwerk-Bandbreite zu Verfügung. Dadurch erhöht ein Switch nicht nur - wie die Bridge die Netzwerk-Performance im Gesamtnetz, sondern auch in jedem einzelnen Segment. Der Switch untersucht jedes durchlaufende Paket auf die MAC-Adresse des Zielsegmentes und kann es direkt dorthin weiterleiten. Der große Vorteil eines Switches liegt nun in der Fähigkeit seine Ports direkt miteinander verschalten zu können, d. h. dedizierte Verbindungen aufzubauen. Was ist nun der Unterschied zwischen einem Switch und einer Multiport-Bridge? Bei den Produkten der meisten Hersteller gibt es keinen. "Switch" klingt nach Tempo und Leistung, deswegen haben viele Hersteller ihre Multiport-Bridges Switches genannt. Der Begriff Switch für Multiport-Bridges wurde von der Firma Kalpana (inzwischen von Cisco aufgekauft) kreiert, da deren Produkte nicht der IEEE-Spezifikation einer Bridge entsprachen, konnte Kalpana die Produkte nicht Bridges nennen und hat den Namen Switch gewählt. Kalpana war nun sehr erfolgreich mit dem Marketing ihrer Switches. Deswegen haben andere Hersteller ihre Bridges auch Switch, Switch mit Bridge-Eigenschaften oder "Bridging Switch" genannt. Switches brechen die Ethernet-Busstruktur in eine Bus-/Sternstruktur auf. Teilsegmente mit Busstruktur werden sternförmig über je einen Port des Switch gekoppelt. Zwischen den einzelnen Ports können Pakete mit maximaler Ethernet-Geschwindigkeit übertragen werden. Wesentlich ist die Fähigkeit von Switches, mehrere Übertragungen zwischen unterschiedlichen Segmenten gleichzeitig durchzuführen. Dadurch erhöht sich die Bandbreite des gesamten Netzes entsprechend. Die volle Leistungsfähigkeit von Switches kann nur dann genutzt werden, wenn eine geeignete Netzwerktopologie vorhanden ist bzw. geschaffen werden kann. Die Datenlast sollte nach Möglichkeit gleichmäßig über die Ports verteilt werden. Systeme, die viele Daten übertragen, müssen unter Umständen an einen eigenen Switch-Port angeschlossen werden. Dies bezeichnet man dann als Private Ethernet. Außerdem sollte man versuchen, Systeme die viel miteinander kommunizieren, an einen gemeinsamen Port des Switches anzuschließen, um so die Datenmengen, die mehr als ein Segment durchlaufen müssen, zu reduzieren. Es haben sich drei grundlegende Realisierungsformen für Switches etabliert: Shared Memory: Alle Schnittstellen kommunizieren über einen zentralen Speicher. Bei dieser meist recht preisgünstigen Realisierung steht oft nur ein einfacher interner Rechnerbus zur Verfügung. Common Bus: Die Schnittstellen verfügen über einen lokalen Speicher und werden über einen gemeinsamen Bus mit den anderen Schnittstellen verbunden. Der interne Bus ist in der Regel schneller getaktet als die externen Schnittstellen (Zeitmultiplex) oder erlaubt als so genannte Backplane mehrere parallele Verbindungen (Raummultiplex). Crosspoint Matrix: Die Schnittstellen verfügen über einen lokalen Speicher und werden über eine flexible und leistungsfähige Schaltmatrix mit den anderen Schnittstellen verbunden. Diese Realisierungsform erlaubt in der Regel die höchste Leistungsfähigkeit, bedingt aber den größten Hardwareaufwand. Allgemein haben sich in der Switch-Technologie zwei Methoden der Weiterleitung herauskristallisiert: Cut-Through bzw. On The Fly Der Ethernet Switch wartet im Gegensatz zu normalen Bridges nicht, bis er das vollständige Paket gelesen hat, sondern er überträgt das ankommende Paket nach Empfang der 6-Byte-Destination-Adresse. Da nicht das gesamte Paket bearbeitet werden muß, tritt eine Zeitverzögerung von nur etwa 40 Mikrosekunden ein. Sollte das Zielsegment bei der Übertragung gerade belegt sein, speichert der Ethernet Switch das Paket entsprechend zwischen. Bei den Switches werden, im Gegensatz zu Bridges, mit Ausnahme von short frames (Pakete, die kleiner als die minimal zulässigen 64 Bytes sind), fehlerhafte Pakete auch auf das andere Segment übertragen. Grund hierfür ist, daß die CRC-Prüfung (Cyclic Redundancy Check) erst bei einem vollständig gelesenen Paket durchgeführt werden kann. Solange der Prozentsatz von fehlerhaften Paketen im Netz gering ist, entstehen keine Probleme. Sobald aber (z.B. aufgrund eines Konfigurationsfehlers, fehlerhafter Hardware oder extrem hoher Netzlast bei gleichzeitig langen Segmenten mit mehreren Repeatern) der Prozentsatz der Kollisionen steigt, können Switches auch dazu führen, daß die Leistung des Gesamtnetzes deutlich sinkt. Cut-Through-Switching bietet dann einen Vorteil, wenn man sehr geringe Verzögerungen bei der Übertragung zwischen einzelnen Knoten benötigt. Diese Technologie sollte also eingesetzt werden, wenn es darum geht, in relativ kleinen Netzen eine große Anzahl Daten zwischen wenigen Knoten zu übertragen. Store-and-Forward Die Switches dieser Kategorie untersuchen im Gegensatz zu den vorher erwähnten das gesamte Datenpaket. Dazu werden die Pakete kurz zwischengespeichert, auf ihre Korrektheit und Gültigkeit überprüft und anschließend verworfen oder weitergeleitet. Einerseits hat dies den Nachteil der größeren Verzögerung beim Weiterschicken des Paketes, andererseits werden keinerlei fehlerhafte Pakete auf das andere Segment übertragen. Diese Lösung ist bei größeren Netzen mit vielen Knoten und Kommunikationsbeziehungen besser, weil nicht einzelne fehlerhafte Segmente durch Kollisionen das ganze Netz belasten können. Bei diesen Anwendungen ist die Gesamttransferrate entscheidend, die Verzögerung wirkt sich hier kaum aus. Inzwischen sind Switching-Produkte (z.B. von 3Com, Cisco oder Allied Telesyn) am Markt, die beide Technologien unterstützen. Dies geschieht entweder per Konfiguration (Software) oder automatisch anhand der CRC-Fehler-Häufigkeit. Wird eine vorgegebene Anzahl von fehlerhaften Paketen überschritten, schaltet der Switch automatisch von "Cut Through" auf "Store and Forward" um. Die Performance eines Netzes kann man auf Basis vorhandener Standalone-Switches erhöhen, indem zusätzliche Switches über die Ethernetports kaskadiert werden. Alle Switches erlauben die Kaskadierung über einen einzelnen Ethernet-Port mit einer maximalen Transferrate von 10 Mbit/s (bzw. 100 Mbit/s bei Fast Ethernet Switches). Kann man das Netz in Teilnetze unterteilen, zwischen denen diese Transferrate ausreicht, ist dies eine sinnvolle Lösung. Doch meistens ist das nicht der Fall. Die nächste und wohl beste Möglichkeit der Kopplung von Switches ist der Einsatz von Produkten, die den Anschluß an einen High Speed Backbone erlauben. Im Gegensatz zu kaskadierten Standalone-Switches können weitere Geräte an den Backbone gehängt werden, ohne daß Ports für die Switch-zu-Switch-Verbindung verlorengehen. Eine Backbone-Lösung ist nicht nur schneller und flexibler sondern für große Netze auch kostengünstiger. Man muß unterscheiden zwischen Lösungen, die eine herstellereigene Verbindung benutzen (proprietär) und solchen, die auf einen Standard wie Fast Ethernet, Gigabit Ethernet, FDDI oder ATM setzen. Unterschiede Hub - Switch: Hub Switch Es kann immer nur ein Datenpaket nach dem anderen den Hub passieren Geschwindigkeit 10 oder 10/100 Mbps bei Dual Speed Hubs Hubs wissen nicht, an welchem Port welche Station angeschlossen ist, sie können es auch nicht lernen. Hubs müssen nicht konfiguriert werden. Mehrere Datenpakete können den Switch gleichzeitig passieren Die Gesamtbandbreite (der Datendurchsatz) ist wesentlich höher als bei einem Hub Switches lernen nach und nach, welche Stationen mit welchen Ports verbunden sind, somit werden bei weiteren Datenübertragungen keine anderen Ports unnötig belastet, sondern nur der Port, an dem die Zielstation angeschlossen ist Geschwindigkeiten sind heute 10, 10/100 oder 1000 MBit/s (Gigabit Ethernet) Switches müssen nicht konfiguriert werden inzwischen preisgünstiger als Hubs Latenzzeiten von Ethernet Switches Aufgrund der Arbeitsweise unterscheiden sich das Cut-Through-Verfahren und Store-andForeward-Verfahren in ihren Latenzzeiten. Der Cut-Through-Switch benutzt die Zieladresse als ein Entscheidungskriterium, um einen Zielport aus einer Adresstabelle zu erhalten. Nach der Bestimmung des Zielports wird eine Querverbindung durch den Switch geschaltet, und der Frame wird zum Zielport geleitet Da diese Switching-Methode nur die Speicherung eines kleinen Teils des Frames erfordert, bis der Switch fähig ist, die Zieladresse zu erkennen und den Switching-Vorgang einzuleiten, ist die Latenzzeit in diesem Fall nur minimal. Die Latenzzeit für einen 10-Mbps-Ethernet-Frame berechnet sich wie folgt: Der Switch muss zunächst 14 Bytes einlesen (8 Bytes für die Präambel und 6 Bytes für die Zieladresse). Für die Latenzzeit TL eines Cut-Through Ethernet-Switches ergibt sich TL = TIG + 14*8*TBK [µs] Mit einem Interframe-Gap von TIG = 9,6 µs und einer Bitdauer von TBK = 0,1 µs: TL = 9,6 + 14*8*0,1 = 9,6 + 11,2 = 20,8 µs Ein Store-and-Forward-Switch speichert erst den gesamten Frame, bevor die Verarbeitung der Datenfelder des Frames beginnt. Wenn der gesamte Frame im Zwischenspeicher angekommen ist, wird ein CRC-Check durchgeführt, optional auch weitere Filteraktionen. Ist der Frame fehlerfrei, wird er von Zwischenspeicher zum Zielport geleitet, anderenfalls verworfen. Für die Latenzzeit TL eines Ethernet Store-and-Foreward Switches gilt also theoretisch mit der Framegröße FG: TL = TIG + FG*8*TBK [µs] Da die minimale Größe eines 10-Mbps-Ethernet-Frames 72 Bytes beträgt, gilt für die minimale Latenzzeit TLmin eines Store-and-Foreward Ethernet-Switches: TL = TIG + 72*8*TBK [µs] Mit einem Interframe-Gap von TIG = 9,6 µs und einer Bitdauer von TBK = 0,1 µs ergibt sich: TL = 9,6 + 72*8*0,1 = 67,2 µs Aufgrund der Speicherung des gesamten Frames ist die Latenzzeit beim Store-and-Foreward Switching abhängig von der Framegröße, so daß für Frames maximaler Größe (1526 Bytes) gilt: TL = 9,6 + 1526*8*0,1 = 1,23 ms Router Große Netzwerke wie das Internet bestehen aus vielen kleineren Teilnetzwerken. Die Verbindung der verschiedenen Netze wird durch spezielle Rechner hergestellt. Das sind, neben Bridges, Switches und Gateways, im Internet vor allem Router. Diese haben die Aufgabe, Daten zwischen Rechnern in verschiedenen Netzen auf möglichst günstigen Wegen weiterzuleiten. Zum Beispiel wenn Rechner 1 im Netz B Daten an Rechner 2 im Netz C schicken möchte. Router verbinden, im Gegensatz zu Bridges, in OSI-Schicht 3 auch Netze unterschiedlicher Topologien. Sie sind Dreh- und Angelpunkt in strukturiert aufgebauten LAN- und WANNetzen. Mit der Fähigkeit, unterschiedliche Netztypen sowie unterschiedliche Protokolle zu routen, ist eine optimale Verkehrslenkung und Netzauslastung möglich. Routing wird erst dann erforderlich, wenn Kommunikation zwischen Stationen in unterschiedlichen Subnetzen erfolgen soll. Sie sind nicht protokolltransparent, sondern müssen in der Lage sein, alle verwendeten Protokolle zu erkennen, da sie Informationsblöcke protokollspezifisch umsetzen. Klassische Beispiele in Heim- und KMU-Netzen sind die ISDN- oder DSL-Router, welche die Verbindung zum Provider herstellen. Router operieren in der Ebene 3 des OSI-Referenzmodells. Sie verbinden Netzwerke über die entsprechenden Netzwerkprotokolle. Sie ermöglichen die Zerlegung großer Netzwerke in kleinere Verwaltungseinheiten. Sie leiten Datenpakete der Netzwerkschicht weiter (forwarding) und treffen Entscheidungen über Wegewahl und Erreichbarkeit zu anderen Netzwerken (routing). Der Router muß dafür die Adressierungsstruktur in der Netzwerkschicht kennen. Bevor ein Router ein Paket mit einer bestimmten IP-Adresse weiterleiten kann, muß er für diese Adresse zunächst den Weg durch das Netz zum Zielrechner bestimmen. Das geschieht mit Hilfe spezieller Protokolle wie ARP, RIP, OSPF, EGP/BGP. Er ist jedoch von der Schicht 2 unabhängig und kann deswegen verschiedene Schicht-2-Welten (zum Beispiel Ethernet und Token Ring) miteinander verbinden. Ein Router unterscheidet sich u.a. von einer Bridge darin, dass die Bridge für die Netzwerkteilnehmer völlig transparent ist, während die Adresse eines Routers jedem Host im Netzwerk explizit bekannt sein muß, wenn er dessen Dienste nutzen will. Ein Router kann einen von mehreren potentiellen Wegen zur Weiterleitung der Daten aussuchen, wobei er seine Entscheidung mit Hilfe von Parametern, wie zum Beispiel Übertragungszeiten, Knotenlast oder auch nur einfach Knotenanzahl, trifft. Wie Router die Wegeentscheidung treffen, hängt wesentlich vom konkreten Protokoll der Schicht 3 ab. In der Routingtabelle ist aber nicht der gesamte Weg zu einem Rechner mit einer bestimmten IP-Adresse gespeichert. Vielmehr kennt der einzelne Router nur die nächste Zwischenstation (engl. next hop) auf dem Weg zum Ziel. Das kann ein weiterer Router oder der Zielrechner sein. Grundlegende Komponenten von Routern Der Router besteht, wie ein Computer auch, aus CPU und Speicher. Dazu kommen mehrere Netzwerkadapter, die eine Verbindung zu jenen Netzen herstellen, die mit dem Router verbunden sind. Die Adapter sind meist über einen Systembus mit der CPU des Routers verbunden. Die CPU wiederum hält im Hauptspeicher des Rechners die Routingtabelle vor. LAN Interfaces: Die meisten Router haben ein oder mehrere LAN-Interfaces, je nach Topologie für TokenRing, Ethernet, 100BASE-T Fast Ethernet, FDDI oder auch ATM. Für den Anschluß entsprechender Medien sind entweder alternativ nutzbare Ports (z.B. Ethernet AUI, BNC, RJ45) vorhanden oder der Anschluß ist als Einschub realisiert und kann daher den Erfordernissen angepaßt werden. WAN Interfaces: WAN-Leitungen werden von unterschiedlichen Anbietern mit unterschiedlichen Geschwindigkeiten angeboten. Entsprechend variieren die Kosten und die Schnittstellen. Für kleinere Anbindungen (z.B. Workgroups) werden Verbindungen mit einer Übertragungsgeschwindigkeit von 64 Kbit/s empfohlen. Es gibt natürlich Applikationen, wo eine geringere Übertragungsrate ausreicht. Werden höhere Übertragungsraten benötigt, so bietet sich die in Europa übliche E1-Verbindung (im Prinzip ein ISDN Primärmultiplexanschluß) mit einer Übertragungsrate von 2048 kbit/s an. Router haben einen oder mehrere WAN-Ports, die entweder fest eingebaut sind oder bei modularen Modellen mit entsprechenden Schnittstellenmodulen aufgerüstet werden können. Übliche physikalische Schnittstellen für Synchronbetrieb sind RS449, V.35 und X.21, für asynchronen Betrieb das RS232-Interface. Für den Anschluß an ISDN wird die S0-Schnittstelle verwendet. Routing Da, wie gesagt, Routing auf Schicht 3 stattfindet, wird in diesem Abschnitt auf das InternetProtocol vorgegriffen (siehe Kapitel 10: 10 TCP/IP). Wenn einer der Netzwerkadapter ein Datenpaket erhält, so verarbeitet er zunächst die Schicht2-Protokolldaten, extrahiert dann das IP-Paket und reicht es zur weiteren Verarbeitung an die CPU weiter. Diese entnimmt dem Paketkopf die IP-Adresse des Zielrechners. Wenn nicht der Router selber adressiert ist, muß das Paket weitergeleitet werden. Dazu sucht die CPU in der Routingtabelle nach der passenden Next-Hop-Information. Die Next-Hop-Information beinhaltet zum einen die Nummer des Netzwerkadapters über den das Paket ausgegeben werden soll und zweitens die IP-Adresse des Next-Hop. Diese Adresse übergibt die CPU des Routers nun zusammen mit dem IP-Paket an den entsprechenden Netzwerkadapter. Dieser generiert daraus ein Schicht-2-Paket und sendet es ab. Werden auch Informationen im Kopf des Datagramms vor dem Weiterleiten geändert? Zunächst einmal wird bei Eintreffen eines IP-Datagrammes überprüft, ob die Prüfsumme mit den Daten des Paketes zusammenpasst. Wenn dies nicht der Fall ist, muß der Router eine Fehlermeldung an den Absender schicken. Anschließend wird der Zähler "time-to-live" im Kopf des Paketes dekrementiert. Erreicht er den Wert 0, wird das Paket verworfen. Auf diese Weise können Endlosschleifen vermieden werden. Da sich der Inhalt des Paketes deswegen verändert hat, muß eine neue Prüfsumme berechnet werden. Das neue Datagramm wird nun weitergeleitet. Ist eine lokale Auslieferung möglich, ist die physikalische Zieladresse die MAC-Adresse des IP-Zieles. Im Falle einer indirekten Auslieferung ist die physikalische Zieladresse die MAC-Adresse des Routers. Also ist die Information über den Router nicht im Kopf eines IP-Paketes vermerkt. Der Weg eines Datagrammes kann also nicht verfolgt werden. Bevor ein Router ein Paket mit einer bestimmten IP-Adresse weiterleiten kann, muß er ggf. für diese Adresse zunächst den Weg durch das Netz zum Zielrechner bestimmen. Das geschieht mit Hilfe spezieller Protokolle wie ARP, RIP, OSPF, EGP/BGP. Betrachten wir dazu ein stark vereinfachendes Beispiel. Dabei werden lokale Netze im folgenden nur noch als gelbe Ovale dargestellt. Innerhalb eines lokalen Netzes hat jeder Rechner eine eigene IPAdresse. Zwei Netze werden miteinander über Router (rotes Rechteck) gekoppelt. Bei der Verbindung von mehr als zwei Netzen existieren Knotenpunkte, an denen eine Richtungsentscheidung getroffen werden muß. Router mit mehreren Interfaces legen den Weg eines Paketes durch das Netz fest. Es ginge im Prinzip auch nur mit einem Interface - aber auf Kosten der Performance. Das Konzept wird rasch an vielen Stellen umgesetzt. Es entstehen miteinander gekoppelte Netze. Aber noch haben nicht alle Netze miteinander eine Verbindung. Durch weitere Verbindungen haben nun alle Netze Kontakt. Jeder Rechner kann mit jedem anderen Rechner kommunizieren, auch wenn sie nicht in zwei benachbarten Netzen liegen. Durch Querverbindungen entsteht ein vermaschtes System. Auch wenn eine der Verbindungen ausfällt, kann die Kommunikation weiterlaufen. Durch die für das Routen notwendige Untersuchung des Datenpakets, erhöht sich die Verweilzeit der Daten im Router selbst (Latenzzeit). Die eigentliche Stärke von Routern liegt in ihrer Fähigkeit mittels bestimmter Algorithmen den bestmöglichen Weg für ein Datenpaket zum Empfänger aus seiner Routing-Tabelle zu wählen. Um die Daten "routen" zu können, ist es notwendig, daß der Router alle angeschlossenen Netzwerkprotokolle versteht und diese auch die Fähigkeit des Routens unterstützen. Der Vorteil des Routers gegenüber der Bridge ist die logische Trennung und die Bildung von (Sub-)Netzen bei TCP/IP bzw. von Areas bei DECNET. Weitere Features von Routern sind ihre Netzwerk-Management- und die Filter-Funktionen. Durch geeignet gewählte Routing-Einstellungen ist es möglich, die Netwerk-Performance je nach Anforderungen ans Netz zu verbessern. Die Filterfunktionen auf NetzwerkProtokollebene sind ähnlich wie bei der Bridge. Router bieten aber eine generell höhere Isolation da sie z. B. Broadcasts in der Regel nicht weiterleiten. Außerdem können sie zusätzlich als "screening Router" verwendet werden, indem z. B. bestimmten IP-Adressen der Zugriff auf bestimmte Netzteile verwehrt wird. Aus den erwähnten Gründen sind Router in der Regel per Software konfigurierbar. Bei Hochgeschwindigkeitsnetzen im Gigabitbereich ist die oben beschriebene Struktur eines Routers nicht mehr ausreichend. Die CPU und der Systembus müßten dabei die Summe der Übertragungsraten aller angeschlossenen Netzwerke verarbeiten können. Bei 2 GBit/s Datenübertragungsgeschwindigkeit entspricht das bei einer angenommenen Paketgröße von 1000 Bits bis zu zwei Millionen IP-Paketen pro Sekunde und Netzwerkanschluß. Bei solchen Hochleistungsroutern geht man dazu über, die Aufgabe des Weiterleitens von IP-Paketen den einzelnen Netzwerkadaptern zu übertragen. Die Netzwerkadapter erhalten zu diesem Zweck eine eigene CPU und Speicher, in dem sich eine Kopie der zentralen Routingtabelle des Routers befindet. Trifft bei diesem Routermodell ein IP-Paket bei einem der Adapter ein, bestimmt dieser den Next-Hop und gibt das Paket direkt an den entsprechenden Ausgangsadapter weiter. Die CPU des Routers ist nur noch für die Ausführung der Routingprotokolle und die Verwaltung der zentralen Routingtabelle sowie anderer administrativer Aufgaben zuständig. Die zentrale Routingtabelle wird im Fall einer Änderung anschließend in die Speicher der einzelnen Netzwerkadapter kopiert. Die Routingtabelle Eine einfache Tabelle über alle 232 (bei IPv4) bzw. 2128 (bei IPv6) möglichen IP-Adressen wäre kaum machbar. Schließlich kann ein Router über die direkt mit ihm verbundenen Netze nur maximal einige tausend Rechner erreichen. In der Regel sind es sogar weniger als hundert. In der Routingtabelle ist auch nicht der gesamte Weg zu einem Rechner mit einer bestimmten IP-Adresse gespeichert. Vielmehr kennt der einzelne Router nur die nächste Zwischenstation (engl. next hop) auf dem Weg zum Ziel. Das kann ein weiterer Router oder der Zielrechner sein. Die IP-Adressen sind nicht einzeln wahllos auf Rechner in der ganzen Welt verstreut worden. Bei IPv4 ist der Adreßraum in fünf verschiedene Klassen A-E unterteilt worden, wobei hier nur die Klassen A - C interessieren. Jede IPv4-Adresse besteht aus einer Klassenkennung, einer Netzadresse, einer möglichen Subnetzadresse und einer Rechneradresse. Jede Organisation im Internet bekommt eine Netzadresse aus einer bestimmten Klasse zugewiesen. Mit den Netzadressen der verschiedenen Klassen sind unterschiedliche Kontingente von Rechneradressen verbunden, je nachdem wie viele Adressen von einer Organisation benötigt werden. So sind die Netzadressen der Klasse B 16 Bit lang, und für die Adreßverteilung innerhalb einer Organisation stehen 16 Bit zur Verfügung. Für die mögliche Aufteilung in Subnetze und die Verteilung der Adressen an einzelne Rechner innerhalb der Organisationen sind diese selber zuständig. Class A-Netz: 1 Byte Netzadresse, 3 Byte Rechneradresse. Class B-Netz: 2 Byte Netzadresse, 2 Byte Rechneradresse, Class C-Netz: 3 Byte Netzadresse, 1 Byte Rechneradresse, Class D-Netz: für Multicast-Anwendungen Class E-Netz: für Experimente Beispiel für drei IP-Netze mit Routern Das folgende Netz besteht aus drei IP-Netzen, die über Router verbunden sind. Jeder Router hat zwei Netzwerk-Interfaces, die jeweils in zwei der Netze hängen. Es ist nicht unbedingt erforderlich, für jedes Netz ein eigenes Interface zu verwenden; über sogenannte 'virtuelle Interfaces' kann man mehrere Netze auf ein Hardwareinterface legen. Die Routing-Tabellen dazu sehen so aus: Router 1 Router 2 Empfänger im Netzwerk Zustellung über Empfänger im Netzwerk Zustellung über 192.168.0.0 direkt 192.168.0.0 192.168.1.1 192.168.1.0 direkt 192.168.1.0 direkt 192.168.2.0 192.168.1.2 192.168.2.0 direkt Routingverfahren Das Routing (Wegewahl, Pfadsteuerung) hat die Aufgabe, Pfade für die Übertragung durch ein Netz festzulegen. Jeder Vermittlungsknoten fällt dabei eine Entscheidung auf welcher Übertragungsleitung ein eingelaufenes Paket weitergeleitet werden soll. Im Prinzip läuft die Entscheidung innerhalb des Routers folgendermaßen ab: Beim Routing werden diverse Ziele verfolgt: Geringe Paketverzögerung Hoher Durchsatz Geringe Kosten Fehlertoleranz Es gibt eine Reihe von Routingverfahren, die sich hinsichtlich Zentralisierung und Dynamik unterscheiden: Zentralisierung: Wo werden Wegewahlen getroffen? o Zentral, in einem Netzkontrollzentrum. o Dezentral, verteilt über die Vermittlungsknoten. Dynamik: Welche Größen beeinflussen die Wegewahlen? o Nicht-adaptive Verfahren. Wegewahl sind fest vorgegeben oder lange Zeit konstant. Der Zustand eines Netzes hat keinen Einfluß auf die Wegewahl. o Adaptive Verfahren. Wegewahlen hängen vom Zustand des Netzes ab (Topologie, Lastveränderungen usw.). Routing-Algorithmen benutzen zwei grundlegende Verfahrensweisen: Teile der Welt mit, wer deine Nachbarn sind: Link-State-Routing-Protokolle (z. B. OSPF) sorgen dafür, daß nach einiger Zeit jeder Router die vollständige Topologie des Netzwerkes kennt und sich die kürzesten Wege darin selbst ausrechnen kann. Teile deinen Nachbarn mit, wie für sie die Welt aussieht: Bei DistanzvektorProtokollen (z. B. RIP) teilen sich die Router untereinander nur mit, wie "gut" sie an verschiedene Zielknoten angebunden sind. Durch Auswahl des für ein bestimmtes Ziel optimalen Nachbarn wird die Suche nach dem kürzesten Weg auf mehrere Router verteilt. Eine etwas verallgemeinerte Form der Distanzvektorprotokolle mit einer verbesserten Form der Schleifenerkennung sind die Pfadvektor-Protokolle (z. B. das Border Gateway Protocol (BGP)). Weiterhin werden Routing-Algorithmen nach Ihrer Zentralisierung und Dynamik beurteilt: Zentralisierung: Wo ist der Algorithmus lokalisiert? Zentral in einem Netzkontrollzentrum oder dezentral verteilt auf die Vermittlungsknoten? Dynamik: Bei nicht adaptiven Verfahren bleibt die Routingtabelle im Vermittlungsknoten, verglichen mit der Verkehrsänderung, über längere Zeit konstant. Ist das Verfahren adaptiv, hängen die Routingentscheidungen vom Zustand des Netzes ab (Topologie, Lastverhältnisse). Aus diesen Punkten ergibt sich ein Zielkonflikt, da zentrale, nicht adaptive Verfahren das Netz weniger mit Routingnachrichten belasten, aber möglicherweise veraltete und unvollständige Informationen über den Zustand des Netzes benutzen. Je adaptiver und verteilter die Routingverfahren sind, desto besser sind die Informationen über das Netz verteilt. Durch den Austausch von häufigen Nachrichten mit Routinginformationen wird das Netz jedoch stärker belastet. Die Routingverfahren suchen hier einen möglichst idealen Mittelweg. Routingverfahren lassen sich auf dieser Basis in folgende Teile aufteilen: Paketweiterleitung: o Verbindungslose Vermittlung (Datagramme) Für jedes Datagramm wird die Wegewahl neu getroffen. o Verbindungsorientierte Vermittlung (Session-Routing) Die Wegewahl wird bei der Verbindungserstellung getroffen. Alle Pakete einer (virtuellen) Verbindung verwenden denselben Weg. Wegewahl (Routing): o Routing-Protokoll (Protokoll zum Austausch von Informationen, die für die Wegewahl benötigt werden). o Routing-Algorithmen (Verfahren zur Bestimmung von Wegen). o Routing-Tabellen (Datenstrukturen, die die Wegeinformationen speichern). Statisches Routing Statisches Routing (Static Routing, Directory Routing) ist nicht adaptiv und einfach aber sehr häufig benutzt. Die Eigenschaften sind: Jeder Knoten unterhält eine Routing-Tabelle, in der jeder mögliche Zielknoten durch eine Zeile gekennzeichnet ist. Jede Zeile enthält ein oder mehrere Einträge für die zu verwendende Übertragungsleitung in Richtung des Zieles. Jeder Eintrag enthält auch eine relative Gewichtung. Zum Weiterleiten eines Paketes wird sein Ziel bestimmt, die entsprechende Zeile aus der Tabelle gesucht und aus ihr die "beste" Übertragungsleitung ausgewählt. Auf dieser wird das Paket weitergesendet. Zentralisiertes Routing Zentralisiertes Routing arbeitet auf einem zentralen Knoten (Routing Control Center RCC). Es handelt sich um ein adaptives Verfahren: Jeder Knoten sendet periodisch Zustandsinformationen an das RCC (wie den Leitungszustand, Auslastung, Verkehr usw.). Das RCC sammelt diese Informationen und berechnet optimale Wege durch das gesamte Netz. Das RCC übermittelt Routingtabellen zu jedem Knoten. In großen Netzen dauert die Berechnung sehr lange. Durch Ausfall des RCC kann das gesamte Netz inoperabel werden. Isoliertes Routing Beim isolierten Routing wird die Wegewahl von jedem Knoten nur aufgrund von Informationen, die er selber sammelt, getroffen. Eine Anpassung an den globalen Zustand eines Netzes ist nur mit Hilfe beschränkter Informationen möglich. Verteiltes adaptives Routing Diese Verfahren sind gekennzeichnet durch: Jeder Knoten tauscht periodisch Informationen für die Routing-Entscheidungen mit seinen Nachbarn aus. Routingtabellen werden anhand der Informationen von den Nachbarn bestimmt. Routing-Informationen werden entweder in bestimmten Intervallen synchron ausgetauscht. Routing-Informationen werden asynchron bei lokalen Änderungen an die Nachbarn weitergegeben. Hierarchisches Routing Bei großen Netzen ist die Speicherung und Übermittlung von Routing-Tabellen kaum noch möglich (Speicherplatz, Netzbelastung). Desweiteren verlangsamt das Durchsuchen langer Tabellen die Weiterleitung der Pakete erheblich. Daher verfährt man wie folgt: Aufteilung des Netzes in Regionen. Die Knoten in den Regionen haben nur Routing-Informationen über die eigene Region. Mindestens ein Knoten dient als Schnittstelle zu anderen Regionen. Eine Hierarchisierung in Regionen, Zonen usw. ist möglich. Routing im Internet Prinzipiell unterscheidet man im Internet je nach Zweck zwei verschiedene Arten von Routing: Intradomain-Routing findet innerhalb eines autonomen Systems statt (Intranet). Es verwendet sogenannte Interior Gateway-Protokolle (IGP). Es geht in den meisten Fällen um eine technisch effizienten Nutzung des Netzwerkes. Typisch ist eine Wegewahl entlang kürzester Pfade. Der Administrator versucht, durch geschicktes Konfigurieren des Routings das durch das Netzwerk übertragene Datenvolumen zu maximieren (Traffic Engineering). Interdomain-Routing bezeichnet das Routing zwischen autonomen Systemen. Es verwendet sogenannte Exterior Gateway-Protokolle (EGP), meist das Border Gateway Protocol (BGP). Da Interdomain-Routing das Routing zwischen verschiedenen Providern regelt, liegt der Fokus beim Interdomain-Routing normalerweise auf einer finanziell effizienten Nutzung des Netzes. Dem zugrunde liegt die Idee, daß ein autonomes System nicht allen seinen Nachbarn die gleichen Informationen (Routen) zukommen lässt. Welche Informationen ausgetauscht werden, wird vertraglich geregelt und dementsprechend die Router konfiguriert. Man spricht in diesem Zusammenhang auch von "policy-basiertem Routing". (Der Namensbestandteil "domain" bezieht sich auf das autonome System, er hat nichts mit den "DNS-Domains" zu tun.) Zusammenwirken von Protokollen Abhängig davon, ob ein Router Teil eines autonomen Systems ist oder dessen Grenze bildet, verwendet er oftmals gleichzeitig Routing-Protokolle aus verschiedenen Klassen: Interior Gateway Protocols (IGPs) tauschen Routing-Informationen in einem einzelnen autonomen System aus. Häufig verwendet werden: o IGRP/EIGRP (Interior Gateway Routing Protocol/ Enhanced IGRP) o OSPF (Open Shortest Path First) o IS-IS (Intermediate System to Intermediate System) o RIP (Routing Information Protocol) o MPLS (Multi-Protocol Label Switching) Exterior Gateway Protocols (EGPs) regeln das Routing zwischen verschiedenen autonomen Systemen. Dazu gehören: o BGP (Border Gateway Protocol) ist heute weltweit der de-facto-Standard (BGP4). o EGP (Exterior Gateway Protocol) verband früher die Internet-Backbones. Es ist inzwischen veraltet. Ad hoc Routing-Protokolle werden in Netzen mit wenig oder keiner Infrastruktur verwendet. o OLSR (Optimized_Link_State_Routing) findet meist Verwendung im mobilen Bereich. o AODV (Ad-hoc On-demand Distance Vector-Routing) findet in kleineren Netzen mit hauptsächlich statischem Traffic Verwendung. Layer-3-Switching Layer-3-Switching ist eine neue Technologie. Sie kombiniert leistungsfähiges Switching (Layer 2) mit skalierbarem Routing (Layer 3). Herkömmliche Switches verwenden die MACAdresse der Ethernet-Frames zur Entscheidung, wohin die Frames transportiert werden sollen, während Router Datenpakete anhand von Routingtabellen und Accesslisten auf Layer-3weitervermitteln. Router sind in vielen Installationen als reine LAN-to-LAN-Router im Einsatz, um Subnetze zu verbinden und die Nebeneffekte von rein geswitchten Netzen, wie z. B. Broadcast-Stürme, fehlendes Subnetting etc. zu verhindern. Router, die auf der Transportebene arbeiten, müssen jedes IP-Paket aus den Ethernet-Frames zusammenbauen und vielfältige Operationen an IP-Paketen durchführen. Dies führt zu einer Verzögerungszeit und, im Vergleich zu Switches, geringerem Datendurchsatz. In reinen IP-Netzen kann das Layer-3-Switching, auch "Fast IP" genannt, diese LAN-to-LAN-Router ersetzen. Der Layer3-Switch liest beim ersten IP-Paket sämtliche Frames dieses Paketes, analysiert die Absenderund Empfänger-IP-Adressen und leitet das IP-Paket weiter. Alle nachfolgenden Frames dieses Stationspaars können daraufhin anhand der MAC-Adresse weitergeleitet werden. Der Layer3-Switch behandelt IP-Pakete beim ersten Mal wie ein Router, nachfolgende Daten können auf Frame-Ebene geswitcht werden. Nicht-IP-Daten, wie z. B. IPX-Pakete, werden vom Layer-3-Switch auf Layer 2 geswitcht. Das Konzept des Layer-3-Switching bedingt eine Erweiterung des Ethernet-Frameformats und ist bisher nur proprietär implementiert. Die Erweiterung des Layer-3-Switching auf andere Layer-3-Protokolle wie z.B. IPX ist geplant. Es ist anzunehmen, daß die herstellerspezifischen Implementationen in einen gemeinsamen Standard münden. Terminalserver Ein Terminal-Server dient dazu, einem beliebigen Endgerät, sofern es eine serielle, asynchrone V.24 (RS 232 C)-Schnittstelle besitzt, die Verbindung zu einem Rechner herzustellen. Der Terminal-Server ist über einen Transceiver an das Ethernet angeschlossen und stellt dem Terminal-Benutzer eine Kommandoschnittstelle zur Verfügung, so daß er Verbindungen aufbauen, abbauen und Parameter (z.B. Echo) setzen kann. Ein Terminal kann meist mehrere Verbindungen haben und zwischen ihnen wechseln. Es gibt Terminal-Server für verschiedene Protokolle, z. B. für TCP/IP (Telnet) und DECnet (LAT) oder auch beides zugleich. Die meisten Terminal-Server haben acht Ports zum Anschluß von Endgeräten, sie können auch kaskadiert werden. Der Einsatz eines Terminal-Servers ist immer nötig, wenn es für das Endgerät keine Möglichkeit gibt, eine Ethernet-Karte einzubauen. Gateway Gateways können völlig unterschiedliche (heterogene) Netze miteinander koppeln. Sie stellen einen gemeinsamen (virtuellen) Knoten dar, der zu beiden Netzen gehört und den netzübergreifenden Datenverkehr abwickelt. Gateways werden einerseits für die LAN-WANKopplung (oder die LAN-WAN-LAN-Kopplung) andererseits für den Übergang zwischen unterschiedlichen Diensten verwendet (z. B. das Absetzen von Fax-Nachrichten aus einem LAN). Ein Gateway ist ein aktiver Netzknoten, der von beiden Seiten aus adressiert werden kann. Er kann auch mehr als zwei Netze miteinander koppeln. Gateways behandeln auf beiden Seiten unterschiedliche Protokolle bis hinauf zur Schicht 7. Insbesondere ist das Routing über Netzgrenzen (korrekte Adressierung!) hinweg eine wichtige Aufgabe des Gateways. Man unterscheidet im wesentlichen zwei Typen: Medienkonvertierende Gateways (Translatoren), die bei gleichem Übertragungsverfahren die Verbindung zwischen unterschiedlichen Protokollen der unteren beiden Ebenen (bei unterschiedlichem Transportmedium) herstellen - also dort, wo ein Router nicht mehr ausreichen würde. Protokollkonvertierende Gateways, die unterschiedliche Protokolle der Ebenen 3 und 4 abwickeln und ineinander überführen. Der Gateway unterstützt hauptsächlich zwei wichtige Dienste: Die Übermittlung aufeinanderfolgender Nachrichten zwischen Quelle und Ziel als unabhängige Einheit und das Etablieren einer logischen Verbindung zwischen Quelle und Ziel. Um auf die unterschiedlichen Anforderungen der Flußkontrolle der zu verbindenen Netze eingehen zu können, muß der Gateway gegebenfalls Daten zwischenspeichern. Ist eines der beteiligten Netze leistungsfähiger als das andere, muß der Gateway dies erkennen und das "schnellere" Netz bremsen. Arbeiten beide Netze mit unterschiedlichen Paketgrößen, müssen Datenpakete "umgepackt" werden. Dies kann ganz einfach dadurch geschehen, daß zu große Pakete in kleinere Pakete aufgespalten und am Ziel gegebenenfalls wieder zusammengesetzt werden. Firewall-Rechner Als Schutz vor Einbruchsversuchen in lokale Netze, die über einen Anschluß an öffentliche Netze verfügen (z. B. Internet, aber auch ISDN), haben sich Firewall-Rechner, kurz 'Firewalls' bewährt. Ähnlich der Zugbrücke einer Burg erlauben sie den Zugang nur an einer definierten Stelle. Damit läßt sich der Datenverkehr von und nach außen kontrollieren. Normalerweise sind zahlreiche Rechner des Unternehmens, die unter diversen Betriebssystemen laufen, direkt aus dem öffentlichen Netz erreichbar. Eine Firewall kanalisiert die Kommunikation, indem alle Daten von und nach außen über dieses System laufen müssen. Die Kanalisierung erhöht zudem die Chancen, einen Einbruchversuch anhand ausführlicher Protokoll-Dateien zu erkennen, da der Eindringling erst die Firewall passieren muß. Eine Firewall kann aus einer einzelnen Maschine oder aus einer mehrstufigen Anordnung bestehen. Eine mehrstufige Anordnung ist vor allem dann sinnvoll, wenn man bestimmte Dienste der Öffentlichkeit zur Verfügung stellen will, etwa einen WWW- oder FTP-Server. Die entsprechenden Hosts können dann in einem Zwischennetz isoliert werden. Architektur mit Dualhomed-Host Eine Architektur mit Dualhomed-Host wird um einen Rechner herum aufgebaut, der über mindestens zwei Netzwerkschnittstellen verfügt. Ein solcher Host ist als Router zwischen den Netzen einsetzbar, die an die Schnittstellen angeschlossen sind. Er kann dann IP-Pakete von Netz zu Netz routen. Für diese Firewall-Architektur muß diese Routingfunktion jedoch deaktiviert werden. IP-Pakete werden somit nicht direkt von dem einen Netz (dem Internet) in das andere Netz (das interne, geschützte Netz) geroutet. Systeme innerhalb der Firewall und Systeme außerhalb (im Internet) können jeweils mit dem Dualhomed-Host, aber nicht direkt miteinander kommunizieren. Der IP-Verkehr zwischen ihnen wird vollständig blockiert. Die Netzarchitektur für eine Firewall mit Dualhomed-Host ist denkbar einfach: der DualhomedHost sitzt in der Mitte, wobei er mit dem Internet und dem internen Netz verbunden ist. Ein Dualhomed-Host kann Dienste nur anbieten, indem er entsprechende Proxies (Stellvertreter) oder Gateways einsetzt. Es ist jedoch auch möglich, direkte Nutzerzugriffe zu gestatten (Sicherheitsrisiko). Architektur mit überwachtem Host Die "screened host architecture" bietet Dienste von einem Rechner an, der nur an das interne Netz direkt angeschlossen ist, wobei ein getrennter Router verwendet wird. Der Bastion-Host befindet sich im inneren Netz. Auf diesem Router verhindern Paketfilter das Umgehen des Bastion-Host. Die Paketfilterung auf dem Sicherheitsrouter muß so konfiguriert werden, daß der Bastion-Host das einzige System im internen Netz darstellt, zu dem Rechner aus dem Internet Verbindungen aufbauen können (das einzige "nach außen sichtbare" System). Zusätzlich sind nur gewisse Dienste zugelassen. Alle externen Systeme, die auf interne Systeme zugreifen wollen, und auch alle internen Systeme, die externe Dienste wahrnehmen wollen, müssen sich mit diesem Rechner verbinden. Daraus ergibt sich ein besonderes Schutzbedürfnis für diesen Bastion-Host. Der Vorteil bei dieser Konstruktion ist die Tatsache, daß ein Router leichter zu verteidigen ist. Dies liegt u. a. daran, daß auf ihm keine Dienste angeboten werden. Nachteilig wirkt sich aus, daß bei einer eventuellen Erstürmung des Bastion-Host das interne Netz vollkommen schutzlos ist. Architektur mit überwachtem Teilnetz Die "screened subnet architecture" erweitert die Architektur mit überwachtem Host um eine Art Pufferzone, die als Grenznetz das interne Netz vom Internet isoliert. Diese Isolierzone wird auch "Demilitarisierte Zone" (DMZ) genannt. Bastion-Hosts sind von ihrer Art her die gefährdetsten Rechner in einer Firewallkonstruktion. Auch wenn sie in der Regel mit allen Mitteln geschützt sind, werden sie doch am häufigsten angegriffen. Die Ursache liegt darin, daß ein Bastion-Host als einziges System Kontakt zur Außenwelt unterhält. Zur Software-Konfiguration einer Firewall existieren zwei Grundstrategien: 'Es ist alles erlaubt, was nicht verboten ist' Dieser Ansatz schließt die Nutzung bestimmter Dienste (z. B. tftp, nfs) generell aus. Er ist benutzerfreundlich, da neue Dienste automatisch erlaubt sind, aber auch gefährlich, da der Administrator das Verhalten der Nutzer ständig beobachten und rechtzeitig Gegenmaßnahmen treffen muß. 'Es ist alles verboten, was nicht erlaubt ist' Diese Strategie könnte von den Nutzern als hinderlich angesehen werden, da diese neue Dienste erst umständlich beantragen müssen. Sie schützt aber auch vor Sicherheitslücken im Betriebssystem und in Anwendungsprogrammen, da sie den Zugriff auf unbekannte Ports unterbindet. Es gibt drei Arten von Firewall-Softwaresystemen: Paketfilter überprüfen die Quell- und Zieladresse (IP-Adresse und TCP/UDP-Port) eines Pakets und entscheiden, ob es passieren darf oder nicht. Der Vorteil besteht in der Transparenz für den Anwender. Diese Transparenz ist aber zugleich von Nachteil: Paketfilter können nicht zwischen Nutzern und deren Rechten unterscheiden. Paketfilter sind im allgemeinen auf Routern angesiedelt und werden heute von den meisten Herstellern mitgeliefert. Intelligente Paketfilter analysieren zusätzlich den Inhalt der Pakete und erkennen auch die Zulässigkeit von Verbindungen, die einfache Paketfilter nicht erlauben würden (z. B. Datenverbindung bei ftp). Circuit Level Gateways sind mit Paketfiltern vergleichbar, arbeiten jedoch auf einer anderen Ebene des Protokollstacks. Verbindungen durch solch ein Gateway erscheinen einer entfernten Maschine, als bestünden sie mit dem Firewall-Host. Somit lassen sich Infomationen über geschützte Netzwerke verbergen. Application Gateways, auch 'Proxy' (Stellvertreter) genannt, stellen ein anderes Firewall-Konzept dar. Hierbei wird auf dem Firewall-Host für jede zulässige Anwendung ein eigenes Gateway-Programm installiert. Der Client muß sich dabei oftmals gegenüber dem Proxy-Programm authentifizieren. Dieser Proxy führt dann alle Aktionen im LAN stellvertretend für den Client aus. Damit lassen sich zum einen benutzerspezifische Zugangsprofile (welche Zeiten, welche Dienste, welche Rechner) erstellen, zum anderen kann man die Festlegung der zulässigen Verbindungen anwendungsbezogen vornehmen. Die daraus resultierenden separaten kleinen Regelsätze bleiben besser überschaubar als der komplexe Regelsatz eines Paketfilters. Application Gateways sind typische Vertreter der 'Verboten-was-nicht-erlaubt'Strategie und als die sicherste, aber auch aufwendigste Lösung einzuschätzen. Da beim Proxy alle Zugriffe nach außen über eine Instanz laufen, kann man den Proxy gleichzeitig als Cache (Pufferspeicher) benutzen. Der Proxy speichert alle erhaltenen WWW-Seiten zwischen, so daß er bei einem erneuten Zugriff darauf - egal, ob vom selben oder einem anderen Anwender - keine Verbindung nach außen aufbauen muß. Der Einsatz von Firewalls bietet sich auch innerhalb einer Organisation an, um Bereiche unterschiedlicher Sensitivität von einander abzugrenzen. Firewalls bieten jedoch niemals hundertprozentige Sicherheit! Sie schützen nicht vor dem Fehlverhalten eines authorisierten Anwenders und können, etwa durch eine zusätzliche Modem-Verbindung, umgangen werden. Mehr zu diesem Thema finden Sie im Firewall-Kapitel des Sicherheits-Skripts. VLAN - virtuelle lokale Netzwerke Was ist ein VLAN? Die Abkürzung VLAN steht für "virtuelles LAN", also eine Netzstruktur mit allen Eigenschaften eines gewöhnlichen LAN, jedoch ohne räumliche Bindung. Während die Stationen eines LAN nicht beliebig weit auseinander liegen können, ermöglicht es ein VLAN hingegen, weiter entfernte Knoten zu einem virtuellen lokalen Netzwerk zu verbinden. VLANs sind geswitchte Netze, die logisch segmentiert werden können. Ohne Beschränkung durch die räumliche Position ist möglich, Server und Workstations nach ihrer Funktion zu dynamischen Arbeitsgruppen zusammenzufassen. VLANs können transparent und ohne physikalische Veränderungen des Netzes eingerichtet werden. Eine Umgliederung ist ohne Umpatchen oder Verlegen von Rechnern möglich, im Idealfall kann sie über Software erfolgen. Ein VLAN ist weiters eine Broadcast- und Kollisionsdomäne, die sich auch über mehrere Switches erstrecken kann. Der Broadcastverkehr ist nur in dem VLAN sichtbar. Diese Möglichkeit, VLANs komplett voneinander zu isolieren, erhöht die Sicherheit. Der Verkehr zwischen VLANs muß geroutet werden, hier gibt es Lösungen, die die Geschwindigkeit von Switches erreichen. Innerhalb des VLAN ist hingegen kein Routing nötig. Beliebige Netzteilnehmer aus verschiedenen Segmenten können nach unterschiedlichen Kriterien (Switch-Port, MAC-Adresse, Protokoll der Netzwerkschicht, logische Netzwerkadresse, Applikation) zu einem virtuellen Netz vereint werden, ohne daß das Netz physikalisch umstrukturiert werden muß. Warum virtuelle Netze? Broadcasts werden nicht über das gesamte Netzsegment verbreitet Einfache Abbildung der Organisationsstruktur auf die Netzwerkstruktur Unterstützung dynamischer Workgroups Räumliche Entfernung der Mitarbeiter spielt keine Rolle bei der Aufgabenverteilung Jeder Mitarbeiter zieht etwa alle paar Jahre innerhalb des Unternehmens um, verbleibt aber in seiner logischen Arbeitsgruppe Server in zentralen Technikräumen werden entfernten Arbeitsgruppen zugeordnet Teilweise kein Routing mehr nötig Bisher wurden Netze mit Hilfe von Routern segmentiert. Router sind teuer, es entstehen viele Subnetze, die Router beanspruchen viel Rechenzeit und der IP-Adressraum wird schnell zu klein. VLANs vereinigen die Vorteile von Bridges und Routern: Eine Station kann leicht hinzugefügt, entfernt oder geändert werden und das Netz kann strukturiert werden. Es können beispielsweise virtuelle Benutzergruppen gebildet werden und es ist nicht mehr erforderlich, Benutzer nur deshalb verschiedenen Subnetzen zuzuordnen, weil ihre räumliche Entfernung zu groß ist. Server, die in zentralen Räumen untergebracht sind, können räumlich entfernten Workgroups zugeordnet werden. VLANs können helfen, Geld zu sparen, denn Switches sind billiger als Router und leichter zu administrieren. Gerade das Ändern von Subnetzadressen, das mit VLANs vermieden wird, ist in großen Netzen sehr aufwändig und damit teuer. Der Broadcast-Traffic wird nicht auf alle Ports übertragen, sondern bleibt im entsprechenden VLAN. Broadcasts in fremden VLANs sind nicht sichtbar. Realisierung von VLANs VLANs werden mittels Switches gebildet. Diese unterstützen an jedem Port die volle Bandbreite und transportieren die Daten schneller als Router. Netzteilnehmer können nach verschiedenen Kriterien zu virtuellen Netzen vereinigt werden, und eine ManagementSoftware ermöglicht ggf. eine komfortable Verwaltung und Konfiguration der VLANs. Zur Inter-VLAN-Kommunikation muß Routing eingesetzt werden. Entweder ist ein Router über mehrere physische Ports als Teil mehrerer VLANs eingerichtet, oder es wird VLANTrunking eingesetzt. In diesem Fall muß der Router VLAN-Tags erkennen und verändern können. Abbilden von Ports auf VLANs Ausgangsbasis sind ein Switch oder mehrere miteinander verbundene Switches, bei denen die Ports unterschiedlichen VLANs zugeordnet werden. Die einfachste Form wäre ein Switch, bei dem die Hälfte der Ports dem VLAN A und die andere Hälfte dem VLAN B zugeordnet ist. Um den Geltungsbereich eines VLANs festzulegen, gibt es mehrere Strategien: 1. VLAN A belegt die Ports 1 bis k, VLAN B die Ports k+1 bis n. 2. Der Switch kann mit einer VLAN/Port-Zuordnung konfiguriert werden. 3. Der Switch kann mit einer VLAN/MAC-Adressen-Zuordnung konfiguriert werden. Er bestimmt dann dynamisch die VLAN/Port-Zuordnung aufgrund der MAC-Adresse. 4. Der Switch kann mit einer VLAN/IP-Präfix-Zuordnung konfiguriert werden. Er bestimmt dann dynamisch die VLAN/Port-Zuordnung aufgrund der Quell-IP-Adresse. 5. Der Switch kann mit einer VLAN/Protokoll-Zuordnung konfiguriert werden. Er bestimmt dann dynamisch die VLAN/Port-Zuordnung aufgrund des Protokolltyps. Bei den ersten beiden Punkten spricht man von "Port-basierenden VLANs", bei Punkt drei von "Level-2-VLANs" und den letzten Punkten von "Protokoll-basierenden VLANs". Port-basierende VLANs Die Ports eines Switches werden unterschiedlichen VLANs zugeordnet. An einem Port können immer nur Angehörige desselben VLANs angeschlossen sein. Die starre Zuordnung zwischen Port und VLAN vereinfacht die Fehlersuche. Soll eine Station zu mehreren VLANs gehören, so sind aber mehrere Netzwerk-Adapter nötig. Bei Broadcasts ist eine hohe Sicherheit gewährleistet. Die Flexibilität bei Umzügen ist nicht groß, denn ein Umzug einer Station muß durch den Administrator im VLAN-Manager nachgeführt werden. Im Gegensatz zu der Gruppierung nach MAC-Adressen oder IP-Adressen kann das Engerät nicht einfach den Umzug bekannt geben und das VLAN automatisch umgestaltet werden. Dieses Verfahren ist weit verbreitet, es ist durch IEEE 802.1Q standardisiert und wird von vielen Herstellern unterstützt. Level-2-VLANs Die Zugehörigkeit zu einem VLAN richtet sich nach der MAC-Adresse. Der Switch muß bei jedem empfangenen Datenpaket entscheiden, zu welchem VLAN es gehört. So können an einem Port auch Stationen verschiedener VLANs angeschlossen sein, aber es kann in diesem Fall auch zu Performance-Verlusten kommen. Der Umzug von Stationen ist leicht möglich, da die Zuordnung zum VLAN ja erhalten bleibt. Problematisch ist die Initialisierung, da die MAC-Adressen aller Endgeräte erfasst werden müssen. Gerade in großen Netzen, wo häufig VLANs eingerichtet werden müssen, ist dann aber die VLAN-Konfiguration der einzelnen Arbeitsplätze wieder sehr zeitaufwendig. Schema eines Netzwerkes aus zwei Layer-2 Switches und einem Router. Der Layer-2-Switch interpretiert wie eine Bridge nur die MAC-Adresse der Pakete. Es kann aber im Unterschied zu dieser parallel arbeiten und mehrere Pakete gleichzeitig weiterleiten, etwa von Port A nach C und von B nach D. Sobald jedoch mehrere Switches vernetzt sind, muß sichergestellt werden, daß die Adreßtabellen in allen Switches konsistent sind. Dazu müssen regelmäßig Informationen über das Netz übertragen werden. Genau dies ist aber das Hauptproblem der VLANs. Jeder Hersteller verwendet für diesen Informationsabgleich eigene Verfahren. Deshalb verstehen sich die Switches verschiedener Produzenten oft nicht. U. a. gibt es: den regelmäßigen Austausch der Adreßtabellen mit MAC-Adressen und VLANNummer. Die Tabellen werden etwa einmal pro Minute ausgetauscht. das Frame Tagging, bei dem die VLAN-Nummer als Tag vor das MAC-Paket gesetzt. Die zulässige Paketlänge kann dabei überschritten werden. das Zeitmultiplexverfahren, bei dem der Backbone zwischen den Switches in ZeitSlots aufgeteilt wird, die fest den einzelnen VLANs zugeordnet sind. Protokoll-basierende VLANs Layer-3-Switches bieten zusätzliche Möglichkeiten durch Basis-Routing-Funktionalität wie z.B. ARP. Der externe Router wird somit oft überflüssig. Diese Variante ist langsamer, da auch Layer-3-Informationen ausgewertet werden müssen. Die Zuordnung einzelner Datenpakete zu verschiedenen virtuellen LANs geschieht durch Auswertung der Subnetzadressen oder portbasiert. Innerhalb eines VLAN wird auf Layer 2 geswitcht. Bei der Verwendung nicht routingfähiger Protokolle treten Schwierigkeiten auf und dynamische Adresszuordnungsverfahren können nicht eingesetzt werden. Layer-3-Switches verwenden Routerfunktionen zur Definition virtueller Netze. Um effizient arbeiten zu können, wird innerhalb eines VLAN nur gebridged. Regelbasierende VLANs Hier werden logische Zuordnungen eingesetzt und die VLAN-Zugehörigkeit wird anhand des Ports, der MAC-Adresse, des Protokolls oder der Netzadresse bestimmt. Das System ist besonders flexibel, der Administrator kann selbst eine Balance zwischen Sicherheit, Verkehrsoptimierung und Kontrolle erreichen, aber dafür ist die Einrichtung aufwendig. Durch die Abarbeitung der einzelnen Regeln ergibt sich eine hohe Latenzzeit. Layer-2-Switches Layer-2-Switches arbeiten unabhängig von darüber liegenden Protokollen auf der Data-LinkLayer und garantieren eine transparente Verbindung der Endgeräte. Während des Betriebs lernt ein Switch alle MAC-Adressen und ordnet sie in einer MAC-Tabelle den Anschlussports zu. In dieser Tabelle sucht der Switch nach der Zieladresse und dem zugeordneten Zielport. Die Adresstabellen der Switches müssen um die Adressen der VLANs ergänzt und immer am aktuellen Stand gehalten werden. Dafür stehen hauptsächlich folgende Verfahren zur Verfügung: Austausch der MAC-Adresstabellen Wie beim Routing tauschen auch die Switches Informationen aus um ihre Adresstabellen abzugleichen. Wird eine neue Station an das Netz angeschlossen, so erkennt der lokale Switch am Port, zu welchem VLAN die Station gehört und ergänzt seine Adresstabelle. Dann sendet er die MAC-Adresse und die Adresse des VLANs an die anderen Switches. Wenn alle Switches die neue Endstation kennen, können deren Daten übertragen werden. Time Division Multiplexing (TDM) Beim Zeitmultiplexverfahren wird der Backbone, der die Switches verbindet, in Zeitslots aufgeteilt und jedes VLAN erhält exklusiv einen oder mehrere Slots zur Datenübertragung. Die Switches müssen nur wissen, welcher Zeitslot welchem VLAN zugeordnet ist. Es entfällt zwar der Overhead durch den Austausch von Adresstabellen oder aufgrund von Tags, aber Bandbreite, die von einem VLAN nicht genutzt wird, steht nicht für andere VLANs zur Verfügung. Für den sinnvollen Einsatz dieses Verfahrens ist eine an das tatsächliche Netzverhalten angepasste Zuordnung der Zeitslots nötig. Frame Tagging Das Frame Tagging wird am häufigsten eingesetzt. Beim impliziten Tagging werden keine zusätzlichen Informationen in das Datenpaket eingefügt, sondern die TaggingInformation wird aus der vorhandenen Header-Information hergeleitet und vom Switch in Tabellen gespeichert. Dadurch werden vorhandene Standards nicht verletzt. Beim expliziten Tagging wird in den Ethernet-Frame ein Marker (Tag) eingesetzt (VLAN-ID), der angibt, zu welchem VLAN das Datenpaket gehört. Dadurch ist kein Austausch von Adresstabellen nötig. Der erste Switch, der ein bestimmtes Datenpaket erhält, analysiert es auf seine VLAN-Zugehörigkeit und fügt die Kennung des VLANs als Tag an. Das Paket wird am Backbone von Switch zu Switch weitergeleitet, der letzte Switch entfernt das Tag und übergibt das Paket der Endstation. Die Switches müssen sehr leistungsfähig sein, um möglichst mit Wirespeed die Paketinformationen auswerten und mit den Tabellen vergleichen zu können. Das Einfügen von zusätzlicher Information in das Paket ist problematisch, wenn die Datenpakete schon die maximal zulässige Länge erreicht haben. Durch das Hinzufügen eines weiteren Tags würden dann die Vorgaben des MAC-Protokolls verletzt, das Paket als fehlerhaft erkannt und vernichtet. Daher setzen die Hersteller spezifische Techniken zur Vermeidung dieses Problems ein (Kapselung Encapsulation) - siehe unten. Layer-2-Systeme sind leichter zu konfigurieren als Ebene-3-VLANs, benötigen weniger Software und sind meist preisgünstiger und schneller. Außerdem sind sie protokollunabhängig und können auch nicht routbare Protokolle bedienen. Layer-3-Switches Layer-3-Switches arbeiten auf der Netzwerkebene (Layer 3 des ISO/OSI-Modells). Sie integrieren Routing-Funktionalität in die VLANs und machen externe Router zur Verbindung der VLANs überflüssig. Daher werden sie auch als "Switched Router" bezeichnet. Layer-3-Switches können Ebene-3-Informationen auswerten und deshalb VLANs auch abhängig vom verwendeten Protokolltyp definieren. So kann man z.B. alle IP-Stationen oder alle Netware-Stationen ortsunabhängig zu einem VLAN zusammenfassen. In Schicht-3-VLANs werden eigentlich nicht Endgeräte, sondern Datenpakete den VLANs zugeordnet. Diese Zuordnung geschieht durch Auswerten der Subnetzadressen und es ist kein Informationsaustausch zwischen den Switches wie bei den Layer-2-Systemen nötig. Obwohl auch die Ebene-3-Informationen ausgewertet werden, muß die RoutingFunktionalität nur zwischen den VLANs eingesetzt werden. Layer-3-Switches müssen auch Routing-Protokolle beherrschen. Unbekannte Datenpakete werden innerhalb des VLANs an alle Stationen geschickt (Broadcast). Der Broadcast-Traffic kann aber durch Bildung von Subnetzen eingedämmt werden. Im Vergleich zu klassischen Routern erlauben Layer-3-Switches einen sehr schnellen Durchsatz auf Ebene 3, da die Zuweisung der Daten über spezielle Hardware erfolgt. "Wirespeed Switched Router" sind in der Lage, Pakete ohne Verzögerung, also mit Leitungsgeschwindigkeit, weiterzuleiten. Für den Umzug von Mitarbeitern ist keine manuelle Rekonfiguration des Netzwerks nötig, sondern der Switch lernt automatisch die neuen Verbindungen und baut daraus Routing- bzw. Switching-Tabellen auf. Layer-3-Systeme sind für komplexe Netzwerke besser geeignet, der Overhead zur Synchronisation fällt weg. Broadcast kann gezielter übertragen werden und es stehen Filtermöglichkeiten zur Sicherung der VLANs zur Verfügung. Dynamische VLAN-Bindung, Switch-Switch Sehen wir uns nun den Fall an, wenn ein Switch an einen anderen Switch angeschlossen ist: Auf der Verbindung zwischen den beiden Switches können Pakete entweder zu VLAN 1 oder VLAN 2 gehören. Das Schema zum Hinzufügen von zusatzlichen Informationen zu einem Paket ist vom IEEE standardisiert. Es handelt sich um die "VLAN-Marke", damit Switches wissen, für welches VLAN ein Paket bestimmt ist. Ein Endgerät wäre jedoch verwirrt, wenn es ein Paket mit einer VLAN-Marke erhalten würde. Folglich müssen die Switches wissen, an welche Ports Switches und an welche Ports Endgeräte angeschlossen sind. Ein Switch entfernt die VLAN-Marke vom Paket, bevor er es zu einem Nicht-Nachbarswitch-Port weiterleitet. Die VLAN-Marke ist eine 2-Byte-Zahl, die drei Bits für die Prioriät, zwölf Bits für eine VLAN-ID und ein Bit enthält, das anzeigt, ob die Adressen im kanonischen Format vorliegen. Durch den Ethernet-Typ 81-00 wird angezeigt, daß eine VLANMarke vorhanden ist. Beispielsweise ist ein Ethernet-Paket folgendermaßen aufgebaut: Dasselbe Paket mit VLAN-Marke sieht dann folgendermaßen aus: Ein Paket im 802.3-Format wird in ein Format mit einer VLAN-Marke umgesetzt, indem dieselben vier Bytes (81-00 für Ethertype und die 2-Byte-VLAN-Marke) wie im EthernetPaket hinzugefügt wurden. Die Längenangabe und weitere Felder werden analog nach hinten verschoben. Auf anderen LANs als 802.3 ist es nicht möglich, das Ethernet-Format zu verwenden. In diesem Fall wird eine andere Kodierung verwendet, um die VLAN-Marke einzufügen. Ein Switch kann alle VLANs "lernen", die auf dem Port verügbar sind, der ihn mit einem anderen Switch verbindet. Er tut dies auf der Grundlage der VLAN-Marken in den Paketen, die auf diesem Port empfangen werden. Da die Endgeräte die VLAN-Marke nicht verstehen, muß der Switch so konfiguriert sein, daß er niemals ein Paket mit einer VLAN-Marke zu einem Port sendet, auf dem sich ein Endgerät befinden könnte. Einige Switch-Anbieter haben einen anbieterspezifischen Mechanismus zum Informationsaustausch darüber, welche VLANs auf dem Switch-zu-Switch-Port erreichbar sind. Auf diese Art lernt der Switch die VLANs über explizite Protokollnachrichten. Bisher existiert jedoch kein Standard dafür. Neues Kapitel Störquellen Auf die Verkabelung eines Netzes wirken die mannigfachsten elektromagnetischen Störquellen ein, z. B. elektrisch angetriebene Maschinen, Leuchtstofflampen, die Computer, Kopierer, und vieles andere. Aber auch die Kabel selbst verändern das Signal durch ihren ohmschen Widerstand und die Teifpaßcharakteristik. Alle Einflüsse ändern das eingespeiste digitale Signal - unter Umständen bis hin zu Fehlern auf Empfängerseite. Das Bild zeigt die wichtigsten Störeinflüsse und deren Auswirkungen. Dämpfung Wie schon erwähnt, wirkt die Leitung wie ein Tiefpaßfilter: sie läßt nur niedrige Frequenzen durch, hohe werden herausgefiltert. Diese Tiefpaßeigenschaft der Leitung zwingt dazu, nach einer gewissen Leitungslänge Verstärker (Repeater) einzubauen, um das Signal wieder zu regenerieren. Das Verhältnis von Aus- zu Eingangsspannung wird Dämpfung genannt und in Dezibel (dB) angegeben. Dabei gilt: 1 dB = 20 * log(Eingangsspannung/Ausgangsspannung) Ideal ist natürlich ein Verhältnis von 1:1 zwischen Ein- und Ausgangsspannung, also eine Dämpfung von 0 dB. Das bleibt aber ein Ideal, da jede Leitung einen gewissen Widerstand hat. Die naheliegendste Abhilfe liegt im Einsatz der Zwischenverstärker. Doch auch diesen sind prinzipielle Grenzen gesetzt. Auch mit Verstärkerelementen, sogenannten Repeatern, sind nicht beliebig lange Leitungen realisierbar. Auf jede Leitung wirken Störungen ein. Diese elektrischen Signale weisen meist ein zufällig verteiltes Frequenzspektrum auf. Alle möglichen Nutzfrequenzen werden also mehr oder weniger stark gestört. Wichtig ist dabei,daß das Nutzsignal noch eindeutig erkennbar bleibt. Das Amplitudenverhältnis von Nutz- und Rauschsignal (in dB) nennt man Störabstand oder auch Signal-Rausch-Abstand. Repeater können aber in der Regel nicht zwischen Nutz- und Störsignal unterscheiden, sondern verstärken das gesamte Eingangssignal. Damit hat zwar das Ausgangssignal einen hohen Pegel, aber der SignalRausch-Abstand hat sich dabei nicht verbessert. Auf der nächsten Leitungsstrecke kommt zwangsläufig wieder Rauschen dazu, so daß mit wachsender Leitungslänge das Nutzsignal von immer mehr Rauschen überlagert wird. Wenn der Rauschpegel genauso groß ist wie der Nutzpegel, kann kein Empfänger mehr Nutzund Störsignal voneinander unterscheiden. Einige Tricks gibt es doch, der einfachste ist natürlich eine möglichst undurchlässige Abschirmung der Leitung, um das Eindringen des Rauschens zu verringern. Sonst wäre das weltumspannende Telefonnetz überhaupt nicht funktionsfähig. Bei der Verlegung von Datenleitungen kommt es aber nicht allein auf eine gute Abschirmung an. Immer dann, wenn es um die elektrische Anpassung der Leitung an ein Gerät oder eine andere Leitung geht, kommt es auch auf die Beachtung des Eingangswiderstands oder der Impedanz der Leitung an. Anpassung ist immer dann gegeben, wenn der Ausgangswiderstand der einen Leitung genauso groß ist wie der Eingangswiderstand der anderen. Denn nur in diesem Fall kommt es nicht zu Reflexionen an den Übergangsstellen. Sonst geht eine ankommende Welle nicht vollständig in das neue Medium über, sondern wird teilweise an der Nahtstelle reflektiert und damit zum Störsignal. Begrenzung der Bandbreite Man kann sich ein typisches Digitalsignal auch zusammengesetzt aus einer größeren Anzahl von Sinussignalen unterschiedlicher Freqenzen vorstellen. Je höher die Frequenz ist, desto geringer ist die Amplitude des jeweiligen Signals. Von diesen Frequenzen gelangen nur die Anteile zum Empfänger, die innerhalb der Bandbreite der Übertragungsstrecke liegen. Je geringer die Bandbreite des Mediums ist, desto mehr wird das Rechtecksignal "verschliffen". Am Empfangsort muß dann die Rechteckform wieder regeneriert werden. Nyquist hat eine Formel abgeleitet, mit der sich die maximale Datenübertragungsrate bei gegebener Bandbreite ermitteln läßt. Bei einem Digitalsignal (also zwei unterschiedliche Signalpegel) können bei einer Bandbreite von B (in Hertz) 2*B Bit pro Sekunde Übertragen werden. Allgemein lautet die Formel für die Übertragungsrate C (in Bit/s) bei einer Bandbreite B und einer Anzahl der Signalpegel M: C = 2*B*ld(M) In der Praxis wird dieser Idealwert natürlich nicht erreicht, weil andere Störgrößen (z. B. Rauschen) dies verhindern. Eine Begrenzung der Bandbreite kann durch zu hohe Dämpfungswerte oder falsche Kabeltypen hervorgerufen werden. Insbesondere sollte man bei der Twisted-Pair-Verkabelung die geringe Mehrausgabe nicht scheuen und gleich Typ-5Kabel für 100 MBit/s verwenden, auch wenn man noch mit 10 MBit/s arbeitet. Bei einer späteren Aufrüstung ist das Neuverlegen wesentlich teuerer. Meist tritt jedoch die Bandbreitenbegrenzung bei WAN-Verbindungen über Modem in Erscheinung. Die derzeit erreichbaren Raten von 33600 bps und mehr sind bei normalen Telefonverbindungen schon am Rande des technisch möglichen. Verzerrungen durch Laufzeit Die Geschwindigkeit, mit der ein sinusförmiges Signal in einem Medium transportiert wird, variiert mit der Freqenz. Wenn also ein Rechtecksignal übertragen wird, das wir uns als Gemisch von Sinussignalen unterschiedlicher Frequenz vorstellen, dann kommen die einzelnen Frequenzanteile zu verschiedenen Zeiten beim Empfänger an (Laufzeitverzerrungen). Die Verzerrungen nehmen mit steigender Datenrate noch zu, weil das Signalgemisch nicht homogen wie bei einem stetigen 0-1-Wechsel ist. Die Signalanteile, die durch die Flanken des Digitalsignals hervorgerufen werden, kommen häufiger vor und interferieren zusätzlich mit anderen Signalanteilen. Man spricht deshalb auch von 'Intersymbol-Interferenzen'. Diese können dazu führen, daß bei der Abtastung des Signals beim Empfänger in der nominellen Bitmitte Fehler auftreten können. Bei manchen Empfängerschaltungen versucht man diesen Fehler zu umgehen, indem der Abtastzeitpunkt adaptiv geändert wird. Die Laufzeitverzerrungen sind auch der Grund dafür, daß nicht beliebig viele Repeater hintereinandergeschaltet werden können. Rauschen In einem idealen Übertragungskanal sind in Übertragungspausen außer dem Ruhepegel keinerlei elektrische Signale festzustellen. In der Praxis stahlen jedoch mannigfache elektromagnetische Wellen auf das Kabel ein. Quellen solcher Störsignale sind alle elektrischen Geräte und Maschinen in der Umgebung der Leitung und nicht zuletzt auch die natürliche Strahlung von Erde und Atmosphäre. Die Freqenzen und Feldstärken sind von zufälligen Faktoren abhängig. Alle diese auf das Übertragungsmedium einwirkenden zufälligen Signale nennt man 'Rauschen'. Dieses Rauschen läßt sich durch keinerlei Maßnahmen vollständig beseitigen, sondern nur mildern, z. B. durch abgeschirmte Kabel. Aber auch innerhalb der Übertragungsstrecke, etwa durch die Bewegung der Elektronen im Leiter wird ein, wenn auch sehr schwaches, zusätzliches Signal erzeugt. In den Übertragungsweg geschaltete Verstärker, z. B. Repeater, verstärken natürlich nicht nur das Nutzsignal, sondern auch den Rauschanteil. Wenn das Rauschen einen gewissen Pegel übersteigt, kann dies zu empfängerseitigen Fehlern führen. Von besonderem Interesse ist das Verhältnis von Nutzsignal zum Störsignal, da dieses 'Signal-Rauschverhältnis' wie schon die vorher erwähnte Bandbreite die maximale Übertragungsrate beeinflußt. Speziell bei der modulierten Übertragung spielt dieser Faktor eine wichtige Rolle. Das Signal-Rauschverhältnis wird meist in Dezibel angegeben: SR = 10 * log(Signalpegel/Rauschpegel) dB Ein hoher Wert für SR impliziert einen weiten Abstand zwischen Signalpegel und Rauschpegel. Ein niedriger Wert steht für 'schlechte' Leitungen. Ein schlechter Wert läßt sich immer auf zwei Wegen verbessern; entweder durch Anheben des Signalpegels oder durch reduzieren des Rauschpegels. Das theoretische Maximum der Datenübertragungsrate C abhängig von SR und der Bandbreite B wird durch das Gesetz von Shannon-Hartley definiert: C = B * ld(1 + SR) bps Maßnahmen zur Senkung des Rauschpegels sind einerseits Abschirmung (beim Koaxkabel), im Einstreuung von Störsignalen zu verhindern, und andererseits Differenzsignale (bei Twisted Pair), bei denen sich die eingestreuten Störungen auf den beiden Leitungen kompensieren. Reflexionen, Rückflußdämpfung, Nebensprechen Die meisten Netzverkabelungen setzen mittlerweile auf einer einheitlichen physischen Infrastruktur auf die bestimmten Anforderungen genügen muß. Die international wichtigsten Normen für Netzwerkverkabelungen sind: TIA 56813, ISO/IEC 11801 und DIN/EN 50173. Die Normen unterscheiden verschiedene Leistungsklassen der Netzwerkverkabelung: die TIA, die bekannten Kategorien Cat 3, Cat 5, Cat 5E, Cat 6 und Cat 7, und die ISO/IEC und EN die Klassen C, D, E und F. Category Type Spectral Length LAN Applications Notes B/W Cat3 UTP 16 MHz 100m 10Base-T, 4Mbps Now mainly for telephone cables Cat4 UTP 20 MHz 100m 16Mbps Rarely seen Cat5 UTP 100MHz 100m 100Base-Tx,ATM, Common for current LANs CDDI Cat5e UTP 100MHz 100m 1000Base-T Common for current LANs Cat6 UTP 250MHz 100m Emerging Cat7 ScTP 600MHz 100m Die Normen definieren verschiedene Verbindungsarten, englisch "Link". Die Basic Link Definition schließt die Messkabel mit ein. Inzwischen wird aber normkonform nur noch nach Permanent Link oder Channel gemessen. Bei der Permanent-Link-Messung (PL) darf der Einfluss der Messkabel nicht in die Messwerte eingehen. Damit belegt der Installateur seinem Auftraggeber die Funktion genau der Strecke, die er installiert hat, üblicherweise das fest verlegte Kabel inklusive der Dosen an beiden Enden. Die dritte Link-Definition, der Channel, schließt die Patchkabel mit ein, mit der die Endgeräte an die fest installierte Strecke angeschlossen werden. Bei dieser Messung wird der gesamte Übertragungsweg, über den die Netzkommunikation läuft, erfasst. Nicht in den Messwerten niederschlagen dürfen sich nach der normgemäßen Channel-Definition die Anteile der letzten Steckverbinder, mit denen die Patchkabel an die Messgeräte angeschlossen werden. Ein automatischer Test an einer Netzverkabelungs-Strecke schließt nach Norm die folgenden Messungen und Prüfungen ein: Verdrahtungsplan (Wiremap): Überprüft werden alle vier Aderpaare und Schirme auf Durchgang, Schluss und Vertauschung, wobei der Fehler "Split" besonders tückisch ist: Laufzeit, Laufzeitunterschied und Längen (Delay, Delay Skew und Length): Das Messgerät ermittelt die Signallaufzeiten auf allen Aderpaaren. Aus der Laufzeit errechnet der Kabelscanner unter Verwendung des NVP-Werts die Kabellänge. Auf Grund der unterschiedlichen Verdrillung sind die Laufzeiten auf den vier Aderpaaren leicht unterschiedlich. Damit Übertragungen, die Daten parallel über mehrere Aderpaare versenden, zuverlässig funktionieren, muß gewährleistet sein, daß die parallel gesendeten Daten auch gleichzeitig ankommen. Gleichstrom-Schleifenwiderstand (DC Loop Resistance): Den GleichstromSchleifenwiderstand sollte man nicht mit der Kabelimpedanz (komplexe Kabeleigenschaft) verwechseln, deren Ermittlung im Rahmen einer normalen Abnahmemessung einer installierten LAN-Verkabelung von keiner aktuellen Norm verlangt wird. Dämpfung bzw. Einfügedämpfung (Attenuation/Insertion Loss): Es wird die Dämpfung im Frequenzbereich der zu Grunde gelegten Norm für jedes Aderpaar erfasst und bewertet. Nahnebensprechen (Near End Crosstalk, NEXT): Da dieser Effekt frequenzabhängig ist, wobbelt der Tester alle Frequenzen durch (daher der Name Cable-Scanner, Wobbel-Messtechnik), die die Norm für die betreffende Kategorie bzw. Klasse fordert, für Cat 6/Klasse E also von 1,0 bis 250 MHz. Im NEXT-Test sendet das Messgerät jeweils auf einem Paar ein Signal und misst, wie viel davon in die verschiedenen benachbarten Paare eingekoppelt wird. Bei einem 4-Paar-Kabel ergeben sich so sechs Aderpaar-Kombinationen, nämlich 12-36, 12-45, 12-78, 36-45, 36-78 und 45-78, Entsprechend ergeben sich sechs Frequenzgangkurven. Da das NEXT von beiden Seiten der Leitung gemessen werden muß, erhält man insgesamt 12 Kurven. Starkes Übersprechen (niedriger Zahlenwert!) ist eine der häufigsten Ausfallursachen bei Abnahmemessungen. Gute Kabelscanner zeigen das NEXT im Abstand vom Messpunkt so, daß man Aufschluß darüber erhält, wie viel NEXT an den Steckverbindungen oder auf der eigentlichen Kabelstrecke auftritt. Attenuation to Crosstalk Ratio, ACR: Dies ist die Differenz von Dämpfung und NEXT und gibt Auskunft über den Störabstand zwischen dem (gedämpften) Nutzsignal und dem Störsignal NEXT. Der ACR wird nicht direkt gemessen, sondern auf Grundlage der gemessenen Dämpfungs- und NEXT-Werte vom Tester errechnet. Rückflussdämpfung (Return Loss, RL): Impedanzvariationen entlang der Verbindung führen zu Signalreflexionen, die einerseits das zum anderen Ende gelangende Signal schwächen (Anteile die reflektiert werden dringen nicht bis zur anderen Seite durch), andererseits aber auch vom anderen Ende ankommende, entsprechend gedämpfte Signale stören könnten. Speziell die Steckverbindungen sind, ähnlich wie beim NEXT, für RL kritisch. Allerdings können auch schlechte oder bei der Installation beschädigte Kabel RL-Probleme verursachen. Ein häufig unterschätztes Problem sind außerdem Impedanzsprünge zwischen Installations- und Patchkabel. Auch RL wird von beiden Seiten gemessen und in dB angegeben. Je größer der Zahlenwert, umso besser. Ausnahmeregel: Liegt die Dämpfung der gemessenen Strecke unter 3dB, wird das RL nicht bewertet, sondern nur informativ angegeben. Bei kurzen Strecken "sieht" der Kabelscanner nämlich nicht nur die Reflexion vom Anfang der Strecke, sondern teilweise auch vom anderen Ende (auf längeren Kabeln wird das vom fernen Ende reflektierte Signal auf dem Rückweg zum Scanner so stark gedämpft, daß es keine nennenswerte Rolle mehr spielt). Diese dann fast doppelt so starken Reflexionen können bei Messgeräten, die diese normgemäße Ausnahmeregel nicht berücksichtigen, zu Fehlbewertungen führen. FEXT/ELFEXT (Far End CrossTalk/Equal Level Far End CrossTalk): Hierbei wird, im Gegensatz zu NEXT, das Übersprechen von einem Aderpaar auf die anderen am fernen Ende gemessen. Da für den Signalempfang natürlich der Störabstand entscheidend ist und das Signal am anderen Ende gedämpft ankommt, bezieht man den gemessenen FEXT-Wert nicht auf das Sendesignal in seiner Originalstärke, sondern auf den Empfangspegel. ELFEXT ist also ein errechneter Wert, der aus der Subtraktion der Dämpfung vom gemessenen FEXT entsteht und in dB angegeben wird. Anders als NEXT kann FEXT richtungsabhängig sein, darum gibt es für jedes Ende der gemessenen Verbindung 12 Messwerte (Paarkombinationen), insgesamt also 24. Power Sum NEXT, ACR und ELFEXT (PSNEXT, PSACR, PSELFEXT): Bei Gigabit-Ethernet-Übertragungen über Klasse D Verkabelungen wird auf allen vier Aderpaaren gleichzeitig in beide Richtungen gesendet und empfangen. Das auf jedem einzelnen Paar empfangene Signal kann also von den Signalen gestört werden, die gleichzeitig auf drei anderen Paaren übertragen werden. Das heißt, die Störungen, die von den drei anderen Paaren im Kabel verursacht werden, addieren sich. Genauso werden auch die Power-Sum-Werte pro Paar durch Addition der auf jedes Paar einwirkenden Störgrößen ermittelt. Es handelt sich also nicht um Messungen, sondern um eine rechnerische Auswertung der zuvor mit den Messungen von Dämpfung, NEXT und ELFEXT ermittelten Werte. Ein genereller Problempunkt bei Messungen von Cat 6/Klasse E-Verkabelungen ist die elektrische Kompatibilität von Stecker und Buchse. Natürlich paßt jeder RJ-45-Stecker mechanisch in jede RJ-45 Dose, aber harmonieren Stecker und Dose auch elektrisch? Die Hersteller müssen spezielle Maßnahmen ergreifen, um die für Cat 6/Klasse E festgelegten Grenzwerte der Steckverbinder zu garantieren. Meist sind das kleine Leiterplatten mit Kondensatoren, die durch geeignete Verschaltung das in der gesteckten Verbindung (RJ-45 Stecker in Dose eingesteckt) entstandene Übersprechen kompensieren. Der Kompensationsschaltkreis kann dabei in Stecker oder Dose eingebaut sein. Wichtig für die Übertragungseigenschaften ist nur das hochfrequenztechnische Gesamtergebnis von Dose und Stecker. Die Erfüllung der Cat 6/Klasse E-Leistungsdaten von Steckern und Dosen verschiedener Hersteller miteinander ist nicht garantiert. Das betrifft leider auch die Stecker an den Permanent-Link-Adaptern der Kabeltester! Für den Installateur bringt eine Channel-Messung Vorteile. Bei Messungen nach Permanent Link werden ja die Permanent-Link-Adapter für jede Strecke einmal ein- und ausgesteckt. Die Stecker unterliegen also ständigem Verschleiß. Da sie Teil des Messaufbaus sind, kann man die Stecker an den Permanent-Link-Adaptern nicht einfach ersetzen, denn damit verändern sich die elektrischen Eigenschaften des Messaufbaus, was zu Verfälschungen der Messwerte führt. Der Permanent-Link-Adapter ist also ein Verschleißteil, das normalerweise nach einigen tausend Messungen ersetzt werden muß. Im Gegensatz dazu werden Messungen mit dem Channel-Adapter und einem Patchkabel durchgeführt. Das zum Zertifizieren verwendete Patchkabel kann dabei am Channel-Adapter eingesteckt bleiben, hier gibt es also kaum Verschleiß am Adapter. Nur der Stecker am anderen Ende des Patchkabels verschleißt, so daß nur dieses Kabel ersetzt werden muß. CAT5, CAT5e, and CAT6 UTP Solid Cable Specifications Comparison Category 5 Category 5e Category 6 Frequency 100 MHz 100 MHz 250 MHz Attenuation (Min. at 100 MHz) 22 dB 22 dB 19.8 dB Characteristic Impedance 100 ohms ± 15% 100 ohms ± 15% 100 ohms ± 15% NEXT (Min. at 100 MHz) 32.3 dB 35.3 dB 44.3 dB PS-NEXT (Min. at 100 MHz) no specification 32.3 dB 42.3 dB ELFEXT (Min. at 100 MHz) no specification 23.8 dB 27.8 dB PS-ELFEXT (Min. at 100 MHz) no specification 20.8 dB 24.8 dB Return Loss (Min. at 100 MHz) 16.0 dB 20.1 dB 20.1 dB Delay Skew (Max. per 100 m) 45 ns 45 ns no specification Erdschleifen (Ground Loops) entstehen durch einen Potentialunterschied zwischen Sender und Empfänger. Durch Erdschleifen werden u. U. sehr große Ströme auf der Abschirmung oder den Masseleitungen hervorgerufen, wodurch auch Störungen auf die Signalleitungen gelangen (Induktion). Durch das nur einseitige Erden der Abschirmung (meist im Verteiler oder am Patchfeld) lassen sich Erdschleifen vermeiden. Eine aufwendigere Methode ist der Einsatz von Optokopplern, die Sender und Empfänger galvanisch trennen. Eine Erdung von Datenkabeln erfolgt eigentlich nur im Bereich explosionsgefährdeter Industrieanlagen. Bei unsachgemäßer Verkabelung richtet die Erdung mehr Schaden als Nutzen an. Neues Kapitel Logische Struktur von Netzen In diesem Abschnitt wird ganz knapp die logische Struktur von Netzen behandelt, also die Art und Weise, wie die einzelnen Stationen miteinander verbunden werden. Bei der Verkabelung von LANs muß man aber zwischen logischer Stuktur und Verkabelungsstruktur unterscheiden, z. B. kann ein Netz mit logischer Busstruktur bei der Verkabelung mit 'Twisted Pair'-Kabeln wie ein Sternnetz aussehen. Sternstruktur Alle Teilnehmer werden an einen zentralen Knoten angeschlossen (früher z. B. häufig Anschluß von Sichtgeräten an einen Zentralrechner). Eine direkte Kommunikation der Teilnehmer untereinander ist nicht möglich, jegliche Kommunikation läuft über den zentralen Knoten (Punkt-zu-Punkt-Verbindung, Leitungsvermittlung). Die Steuerung der Kommunikation vom Knoten aus ist sehr einfach: Polling (regelmäßige Abfrage aller Stationen) oder Steuerung über Interrupt. Bei Ausfall der Zentrale sind sämtliche Kommunikationswege unterbrochen. Ringstruktur Es gibt keine Zentrale, alle Stationen sind gleichberechtigt. Jeder Teilnehmer verfügt über einen eigenen Netzanschluß (Knoten) und ist über diesen mit seinem linken und rechten Partner verbunden. Die Übertragung der Info erfolgt in einer Richtung von Knoten zu Knoten. Bei Ausfall eines Knotens sind sämtliche Kommunikationswege unterbrochen. Busstruktur Es gibt keine Zentrale und keine Knoten. Die Verbindung aller Teilnehmer erfolgt über einen gemeinsamen Übertragungsweg. Zu einem Zeitpunkt kann immer nur eine Nachricht über den Bus transportiert werden. Bei Ausfall einer Station bleibt die Kommunikation der anderen Stationen erhalten. Bei den Bussystemen kann man noch unterscheiden in BasisbandBussysteme und Breitband-Bussysteme. Bei Basisband-Bussystemen werden die elektrischen Pegel direkt übertragen; bei den für uns interessanten digitalen Informationen also 0- und 1Pegel. Bei Breitband-Bussystemen werden über das Kabel mehrere unabhängige Kanäle geleitet (modulierte Übertragung). Busnetze müssen auf beiden Seiten mit der Leitungsimpedanz abgeschlossen werden, damit keine Echos auftreten, die zu Empfangsfehlern führen. vermaschte Struktur Jeder Teilnehmer ist mit mehreren anderen verbunden. Es gibt keine Zentrale und es existieren mehrere, unabhängige Übertragungswege zwischen zwei Stationen. Manchmal gibt es keine direkte Verbindung zwischen zwei Stationen. Dann führt der Weg über eine oder mehrere andere Stationen. Je nach Bedarf können die o. g. Topologien auch miteinander kombiniert werden, z. B. Bus mit angeschlossenen Sternen oder Bus mit angeschlossenen Bussen, was zu einer Baumstruktur führt. Insbesondere bei Weitverkehrsnetzen (WAN) treten vermaschte Strukturen auf. Teilweise ergeben sich dabei redundante Leitungswege, die auch bei Unterbrechung eines Wegs den Datentransport sicherstellen. Neues Kapitel TCP/IP Die Protokolle der TCP/IP-Familie wurden in den 70-er Jahren für den Datenaustausch in heterogenen Rechnernetzen (d. h. Rechner verschiedener Hersteller mit unterschiedlichen Betriebssystemen) entwickelt. TCP steht für 'Transmission Control Protocol' (Schicht 4) und IP für 'Internet Protocol' (Schicht 3). Die Protokollspezifikationen sind in sogenannten RFCDokumenten (RFC - Request for Comment) festgeschrieben und veröffentlicht. Aufgrund ihrer Durchsetzung stellen sie Quasi-Standards dar. Die Schichten 5 - 7 des OSI-Standards werden hier in einer Anwendungsschicht zusammengefaßt, da die Anwendungsprogramme alle direkt mit der Transportschicht kommunizieren. In Schicht 4 befindet sich außer TCP, welches gesicherten Datentransport (verbindungsorientiert, mit Flußkontrolle (d. h. Empfangsbestätigung, etc.) durch Windowing ermöglicht, auch UDP (User Datagram Protocol), in welchem verbindungsloser und ungesicherter Transport festgelegt ist. Beide Protokolle erlauben durch die Einführung von sogenannten Ports den Zugriff mehrerer Anwendungsprogramme gleichzeitig auf einund dieselbe Maschine. In Schicht 3 ist das verbindungslose Internet-Protokoll (IP) angesiedelt. Datenpakete werden auf den Weg geschickt, ohne daß auf eine Empfangsbestätigung gewartet werden muß. IPPakete dürfen unter bestimmten Bedingungen (TTL=0, siehe unten) sogar vernichtet werden. In Schicht 3 werden damit auch die IP-Adressen festgelegt. Hier findet auch das Routing, das heißt die Wegsteuerung eines Paketes von einem Netz ins andere statt. Ebenfalls in diese Ebene integriert sind die ARP-Protokolle (ARP - Address Resolution Protocol), die zur Auflösung (= Umwandlung) einer logischen IP-Adresse in eine physikalische (z. B. Ethernet) Adresse dienen und dazu sogenannte Broadcasts (Datenpakete, durch die alle angeschloßenen Stationen angesprochen werden) verwenden. ICMP, ein Protokoll, welches den Austausch von Kontroll- und Fehlerpaketen im Netz ermöglicht, ist ebenfalls in dieser Schicht realisiert. Die Schichten 1 und 2 sind gegenüber Schicht 3 protokolltransparent. Sie können durch standardisierte Protokolle (z. B. Ethernet (CSMA/CD), FDDI, SLIP (Serial Line IP), PPP (Point-to-Point Protocol)) oder andere Übertragungsverfahren realisiert werden. Zur TCP/IP-Familie gehören mehrere Dienstprogramme der höheren OSI-Schichten (5 - 7), z. B.: Telnet (RFC 854) Ein virtuelles Terminal-Protokoll, um vom eigenen Rechensystem einen interaktiven Zugang zu einem anderen System zu realisieren. FTP (RFC 959) Dieses (File-Transfer-) Protokoll ermöglicht, die Dateidienste eines Fremdsystems interaktiv zu benutzen sowie die Dateien zwischen den Systemen hin und her zu kopieren. NFS (RFC 1094) Das Network File System ermöglicht den Zugriff auf Dateien an einem entfernten System so, als wären sie auf dem eigenen. Man nennt dies auch einen transparenten Dateizugriff. NFS basiert auf den zur TCP/IP-Familie gehörenden UDP- (UserDatagramm-) Protokollen (ebenfalls Schicht 4), RFC 768. Im Unterschied zu TCP baut UDP keine gesicherten virtuellen Verbindungen zwischen kommunizierenden Hosts auf. Aufgrund dieser Eigenschaft ist es für den Einsatz in lokalen Netzen vorgesehen. NNTP (RFC 977) Das Network News Transfer Protocol spezifiziert Verteilung, Abfrage, Wiederauffinden und das Absetzen von News-Artikeln innerhalb eines Teils oder der gesamten Internet-Gemeinschaft. Die Artikel werden in regional zentralen Datenbasen gehalten. Einem Benutzer ist es möglich, aus dem gesamten Angebot nur einzelne Themen zu abonnieren. SMTP (RFC 821/822) Das Simple-Mail-Transfer-Protokoll (RFC 821) ist ein auf der IP-Adressierung sowie auf der durch den RFC 822 festgelegten Namensstruktur basierendes Mail-Protokoll. DNS (RFC 920) Der Domain Name Service unterstützt die Zuordnung von Netz- und Host-Adressen zu Rechnernamen. Dieser Service ist z. B. erforderlich für die Anwendung von SMTP sowie in zunehmendem Maße auch für Telnet und FTP. Aus Sicherheitsgründen wendet sich der fremde Host an den DNS, um zu prüfen, ob der IP-Adresse des ihn rufenden Rechners auch ein (Domain-)Name zugeordnet werden kann. Falls nicht, wird der Verbindungsaufbau abgelehnt. Die TCP/IP-Protokolle Der große Vorteil der TCP/IP-Protokollfamilie ist die einfache Realisierung von Netzwerkverbunden. Einzelne Lokale Netze werden über Router oder Gateways verbunden. Einzelne Hosts können daher über mehrere Teilnetze hinweg miteinander kommunizieren. IP als Protokoll der Ebene 3 ist die unterste Ebene, die darunter liegenden Netzebenen können sehr unterschiedlich sein: LANs (Ethernet, Token-Ring, usw.) WANs (X.25, usw.) Punkt-zu-Punkt-Verbindungen (SLIP, PPP) Internet-Protokolle OSI-Schicht 7 Anwendung 6 Darstellung 5 4 Sitzung Internet Protokoll Suite File Transfer Electronic Mail File Transfer Protocol (FTP) RFC 959 Simple Mail Transfer Protocol (SMTP) RFC 821 Netzwerk 2 Sicherung Telnet Protocol (Telnet) RFC 854 Usenet News World Wide Web Usenet Hypertext News Transfer Transfer Protocol Protocol (HTTP) (NNTP) RFC RFC 2616 977 Address Resolution Protocol (ARP) RFC 826 Ethernet Internet Protocol (IP) RFC 791 Token Ring DQDB Domain Name Service Art der Kommunikation Domain Name Service (DNS) RFC 1034 Applikation User Datagram Host to Host Protocol Kommunikation (UDP) RFC 768 Transmission Control Protocol (TCP) RFC 793 Transport 3 Terminal Emulation DOD Schicht FDDI Internet Control Messsage Protocol RFC 792 Internet ATM lokales Netzwerk 1 Physikalische Übertragung Twisted Pair Lichtwellenleiter Coaxkabel Funk Laser Netzzugriff Es ist offensichtlich, daß die Gateways neben dem Routing weitere nichttriviale Funktionen haben, wenn sie zwischen den unterschiedlichsten Teilnetzen vermitteln (z. B. unterschiedliche Protokolle auf Ebene 2, unterschiedliche Datenpaketgröße, usw.). Aus diesem Grund existieren in einem Internet drei unabhängige Namens- bzw. Adressierungsebenen: Physikalische Adressen (z. B. Ethernet-Adresse) Internet-Adressen (Internet-Nummer, IP-Adresse) Domain-Namen Die Ethernet-Adresse wurde bereits behandelt, auf die anderen beiden Ebenen wird in den folgenden Abschnitten eingegangen. Die Umsetzung der höchsten Ebene (Domain-Namen) in IP-Adressen erfolgt durch das oben erwähnte DNS, worauf die Dienstprogramme der Schichten 5-7 zurückgreifen. ARP Die Umsetzung einer IP-Adresse in eine Hardware-Adresse erfolgt durch Tabellen und auf Hardware-Ebene (z. B. Ethernet) automatisch über ARP (Adress Resolution Protocol). Dazu ein Beispiel: Die Station A will Daten an eine Station B mit der Internetadresse I(B) senden, deren physikalische Adresse P(B) sie noch nicht kennt. Sie sendet einem ARP-Request an alle Stationen im Netz, der die eigene physikalische Adresse und die IP-Adresse von B enthält. Alle Stationen erhalten und überprüfen den ARP-Request und die angesprochene Station B antwortet, indem sie einen ARP-Reply mit ihrer eigenen physikalischen Adresse an die Station A sendet. Letztere speichert die Zuordnung in einer Tabelle (Address Resolution Cache). Auch für die Umkehrfunktion gibt es eine standardisierte Vorgehensweise, den RARP (Reverse ARP). Hier sendet die Station A unter Angabe ihrer physikalischen Adresse P(A) einen RARP-Request. Wenn im Netz nur eine Station als RARP-Server eingerichtet ist (eine Station, die alle Zuordnungen von P(x) <--> I(x) "kennt"), antwortet diese mit einem RARPReply an die anfragende Station, der I(A) enthält. Diese Funktion ist z. B. für sogenannte "Diskless Workstations" wichtig, die ihre gesamte Software von einem Server laden. IP - Internet Protocol Auf der Netzwerkschicht aufbauend liegt die Internet-Schicht, die die erste Abstraktionsschicht vom Transportmechanismus darstellt. Auf dieser Schicht 3 stellt das Internet-Protokoll (IP) den grundlegenden Netzdienst zur Verfügung, den Versand von Datenpaketen, sogenannten Datagrammen, über verschiedene Netze hinweg. Die Netzwerkschicht hat keine Information darüber, von welcher Art die Daten sind, die sie befördert. Nehmen wir als Beispiel das Ethernet: Von der Ethernet-Karte werden die vom Netz kommenden Daten an die Treibersoftware für die Karte weitergereicht. Diese interpretiert einen Teil dieser Daten als IP-Header und den Rest als Datenteil eines IPPaketes. Auf diese Weise ist der IP-Header innerhalb eines Ethernet-Paketes eingekapselt. Aber auch das IP-Paket selbst enthält wieder ein Datenpaket für eine höhere Protokollebene (TCP), dessen Header auf der IP-Ebene als Bestandteil der Daten erscheint. Man kann sich das so vorstellen, wie die russischen Puppen, die ineinandergeschachtelt sind. Die kleinste Puppe ganz innen repräsentiert die Nutzdaten, alle außen herum geschachtelten Puppen sind 'Protokoll-Verpackung'. IP ist ein verbindungsloses Protokoll. Es ist also nicht notwendig, eine IP-Verbindung zu einem Rechner zu 'öffnen', bevor man Daten zu diesem Rechner senden kann, sondern es genügt, das IP-Paket einfach abzusenden und darauf zu vertrauen, daß es schon ankommen wird. Bei einem verbindungsorientierten Protokoll wird beim Öffnen einer Verbindung getestet, ob der Zielrechner überhaupt erreichbar ist. Ein verbindungsloses Protokoll macht das nicht und kann demnach auch nicht garantieren, daß ein Datenpaket überhaupt beim Empfänger ankommt. IP garantiert auch nicht, daß von einem einmal abgeschickten Datenpaket nur eine Kopie beim Empfänger ankommt oder daß in einer bestimmten Reihenfolge abgeschickte Datenpakete auch wieder in dieser Reihenfolge empfangen werden. Normalerweise laufen die IP-Pakete über mehrere Zwischenstationen, bis sie am Zielrechner ankommen. Bricht irgendwann während der Übertragung ein Übertragungsweg zusammen, so wird ein neuer Weg zum Ziel gesucht und benutzt. Da der neue Weg zeitlich länger oder kürzer sein kann als der alte, kann man keine allgemeingültigen Aussagen darüber machen, in welcher Reihenfolge IP-Pakete beim Empfänger eintreffen. Es kann auch sein, daß bei dieser Umschalterei IP-Pakete verlorengehen oder sich verdoppeln. Das Beheben der so entstehenden Probleme überläßt das IP-Protokoll anderen, höherliegenden Schichten. Das Internet-Protokoll ist somit ein verbindungsloser Dienst mit einem 'Unreliable Datagram Service', d. h. es wird auf der IP-Ebene weder die Richtigkeit der der Daten noch die Einhaltung von Sequenz, Vollständigkeit und Eindeutigkeit der Datagramme überprüft. Ein zuverlässiger verbindungsorientierter Dienst wird in der darüberliegenden TCP-Ebene realisiert. Ein IP-Datagramm besteht aus einem Header und einem nachfolgenden Datenblock, der seinerseits dann z. B. in einem Ethernet-Frame "verpackt" wird. Die maximale Datenlänge wird auf die maximale Rahmenlänge des physikalischen Netzes abgestimmt. Da nicht ausgeschlossen werden kann, daß ein Datagramm auf seinem Weg ein Teilnetz passieren muß, dessen Rahmenlänge niedriger ist, müssen zum Weitertransport mehrere (Teil)Datagramme erzeugt werden. Dazu wird der Header im Wesentlichen repliziert und die Daten in kleinere Blöcke unterteilt. Jedes Teil-Datagramm hat also wieder einen Header. Diesen Vorgang nennt man Fragmentierung. Es handelt sich um eine rein netztechnische Maßnahme, von der Quell- und Zielknoten nichts wissen müssen. Es gibt natürlich auch eine umgekehrte Funktion, "Reassembly", die kleine Datagramme wieder zu einem größeren packt. Geht auf dem Übertragungsweg nur ein Fragment verloren, muß das gesamte Datagramm wiederholt werden. Es gilt die Empfehlung, daß Datagramme bis zu einer Länge von 576 Bytes unfragmentiert übertragen werden sollten. Format des IP-Headers Version Kennzeichnet die IP-Protokollversion IHL (Internet Header Length) Die Angabe der Länge des IP-Headers erfolgt in 32-Bit-Worten (normalerweise 5). Da die Optionen nicht unbedingt auf Wortlänge enden, wird der Header gegebenenfalls aufgefüllt. Type of Service Alle Bits haben nur "empfehlenden" Charakter. 'Precedence' bietet die Möglichkeit, Steuerinformationen vorrangig zu befördern. Total Length Gesamtlänge des Datagramms in Bytes (max. 64 KByte). Identification Dieses und die beiden folgenden Felder steuern die Reassembly. Eindeutige Kennung eines Datagramms. Anhand dieses Feldes und der 'Source Address' ist die Zusammengehörigkeit von Fragmenten zu detektieren. Flags Die beiden niederwertigen Bits haben folgende Bedeutung: Don't fragment: Für Hosts, die keine Fragmentierung unterstützen More fragments: Zum Erkennen, ob alle Fragmente eines Datagramms empfangen wurden Fragment Offset Die Daten-Bytes eines Datagramms werden numeriert und auf die Fragmente verteilt. Das erst Fragment hat Offset 0, für alle weiteren erhöht sich der Wert um die Länge des Datenfeldes eines Fragments. Anhand dieses Wertes kann der Empfänger feststellen, ob Fragmente fehlen. Beispiel siehe unten. Time-to-live (TTL) Jedes Datagramm hat eine vorgegebene maximale Lebensdauer, die hier angegeben wird. Auch bei Routing-Fehlern (z. B. Schleifen) wird das Datagramm irgendwann aus dem Netz entfernt. Da Zeitmessung im Netz problematisch ist, und keine Startzeit im Header vermerkt ist, decrementiert jeder Gateway dieses Feld --> de-facto ein 'Hop Count'. Protocol Da sich unterschiedliche Protokolle auf IP stützen, muß das übergeordnete Protokoll (ULP, Upper Layer Protocol) angegeben werden. Wichtige ULPs sind 1: ICMP Internet Control Message P. 3: GGP Gateway-to-Gateway P. 6: TCP Transmission Control P. 8: EGP Exterior Gateway P. 17: UDP User Datagram P. Header Checksum 16-Bit-Längsparität über den IP-Header (nicht die Daten) Source Address Internet-Adresse der Quellstation Destinantion Address Internet-Adresse der Zielstation Options Optionales Feld für weitere Informationen (deshalb gibt es auch die Header-Länge). Viele Codes sind für zukünftige Erweiterungen vorgesehen. Die Optionen dienen vor allem der Netzsteuerung, der Fehlersuche und für Messungen. Die wichtigsten sind: Record Route: Weg des Datagramms mitprotokollieren Loose Source Routing: Die sendende Station schreibt einige Zwischenstationen vor (aber nicht alle) Strict Source Routing: Die sendende Station schreibt alle Zwischenstationen vor. Timestamp Option: Statt seiner IP-Adresse (wie bei Record Route) trägt jeder Gateway den Bearbeitungszeitpunkt ein (Universal Time). Padding Füllbits Die Hauptaufgabe von IP ist es also, die Unterschiede zwischen den verschiedenen, darunterliegenden Netzwerkschichten zu verbergen und eine einheitliche Sicht auf die verschiedensten Netztechniken zu präsentieren. So gibt es IP nicht nur in Netzen, sondern auch als SLIP (Serial Line IP) oder PPP (Point to Point Protocol) für Modem- oder ISDNVerbindungen. Zur Vereinheitlichung gehören auch die Einführung eines einheitlichen Adressierungsschemas und eines Fragmentierungsmechanismus, der es ermöglicht, große Datenpakete durch Netze mit kleiner maximaler Paketgröße zu senden: Normalerweise existiert bei allen Netzwerken eine maximale Größe für ein Datenpaket. Im IP-Jargon nennt man diese Grenze die 'Maximum Transmisson Unit' (MTU). Natürlich ist diese Obergrenze je nach verwendeter Hardware bzw. Übertragungstechnik unterschiedlich. Die Internet-Schicht teilt IP-Pakete, die größer als die MTU des verwendeten Netzwerks sind, in kleinere Stücke, sogenannte Fragmente, auf. Der Zielrechner setzt diese Fragmente dann wieder zu vollständigen IP-Paketen zusammen, bevor er sie an die darüberliegenden Schichten weitergibt. Der Fragement Offset gibt an, an welcher Stelle in Bezug auf den IP-DatagrammAnfang das Paket in das Datagramm einzuordnen ist. Aufgrund des Offset werden die Pakete in die richtige Reihenfolge gebracht. Dazu ein Beispiel: Es soll ein TCP-Paket mit einer Länge von 250 Byte über IP versandt werden. Es wird angenommen, daß ein IP-Header eine Länge von 20 Byte hat und eine maximale Länge von 128 Byte pro Paket nicht überschritten werden darf Der Identifikator des Datagramms beträgt 43 und der Fragmentabstand wird in 8-Byte-Schritten gezählt. Das Datenfragment muß also durch 8 dividierbar sein. Da alle Fragmente demselben Datagramm angehören, wird der Identifikator für alle Fragmente beibehalten. Im ersten Fragment ist das Fragment Offset natürlich noch Null, das MF-Bit jedoch auf 1 gesetzt, um zu zeigen, daß noch Fragmente folgen. Im IP-Header des zweiten Fragments beträgt das Fragment Offset 13 (104/8 = 13) und zeigt die Position des Fragments im Datagramm an. Das MF-Bit ist noch immer 1, da noch ein Datenpaket folgt. Der Header des dritten Fragments enthält dann ein MF-Bit mit dem Wert 0, denn es handelt sich um das letzte Datenpaket zum Datagramm 43. Das Fragment Offset ist auf 26 gesetzt, da vorher schon 208 Daten-Bytes (8 * 26 = 208) übertragen wurden. Sobald das erste Fragment (gleich welches) im Empfänger ankommt, wird ein Timer gesetzt. Sind innerhalb der dort gesetzten Zeit nicht alle Pakete zu einem Datagramm eingetroffen, wird angenommen, daß Fragmente verlorengingen. Der Empfänger verwirft dann alle Datenpakete mit diesem Identifikator. Was geschieht aber, wenn der Kommunikationspartner nicht erreichbar ist? Wie schon erwähnt, durchläuft ein Datagramm mehrere Stationen. Diese Stationen sind in der Regel Router oder Rechner, die gleichzeitig als Router arbeiten. Ohne Gegenmaßnahme würde das Datenpaket für alle Zeiten durch das Netze der Netze irren. Dazu gibt es im IP-Header neben anderer Verwaltungsinfo auch ein Feld mit dem Namen TTL (Time To Live). Der Wert von TTL kann zwischen 0 und 255 liegen. Jeder Router, der das Datagramm transportiert, vermindert den Wert dieses Feldes um 1. Ist der Wert von TTL bei Null angelangt, wird das Datagramm vernichtet. Die Adressen, die im Internet verwendet werden, bestehen aus einer 32 Bit langen Zahl. Damit sich die Zahl leichter darstellen läßt, unterteilt man sie in 4 Bytes (zu je 8 Bit). Diese Bytes werden dezimal notiert und durch Punkte getrennt (a.b.c.d). Zum Beispiel: 141.84.101.2 129.187.10.25 Bei dieser Adresse werden zwei Teile unterscheiden, die Netzwerkadresse und die Rechneradresse, wobei unterschiedlich viele Bytes für beide Adressen verwendet werden: Die Bereiche für die Netzwerkadresse ergeben sich durch die Zuordnung der ersten Bits der ersten Zahl (a), die eine Erkennung der Netz-Klassen möglich machen. Netzklassen Klasse A - Netz Klasse B - Netz Klasse C - Netz Netz-ID 8 Bit = 1 Byte 16 Bit = 2 Byte 24 Bit = 3 Byte Host-ID 24 Bit = 3 Byte 16 Bit = 2 Byte 8 Bit = 1 Byte Netzmaske 255.0.0.0 255.255.0.0 255.255.255.0 Adressklassen- 0 ID (= Feste Bits im 1. Byte, 1. Quad) 10 110 Wertebereich (theoretisch) 0.0.0.0 bis 127.255.255.255 128.0.0.0 bis 191.255.255.255 192.0.0.0 bis 223.255.255.255 Anzahl der Netze 128 (= 27) 16384 (= 26*256 = 64*256) 2097152 (= 25*256*256 = 32*256*256) Anzahl der Rechner im Netz 16777216 (= 2563) 65536 (= 2562) 256 (= 2561) Besondere Adreßklassen Klasse D Klasse E Adressklassen-ID 4 Bit = "1110" 5 Bit = "11110" keine Netz-ID, sondern: 28 Bit-Identifikator 27 Bit-Identifikator Wertebereich 224.0.0.0 bis 240.0.0.0 bis Anwendungen 239.255.255.255 247.255.255.255 für Multicast-Gruppen reservierte Adressen für Zukünftiges Grundsätzlich gilt: Alle Rechner mit der gleichen Netzwerkadresse gehören zu einem Netz und sind untereinander erreichbar. Zur Koppelung von Netzen unterschiedlicher Adresse wird eine spezielle Hardwareoder Softwarekomponente, ein sogenannter Router, benötigt. Je nach Zahl der zu koppelnden Rechner wird die Netzwerkklasse gewählt. In einem Netz der Klasse C können z. B. 254 verschiedene Rechner gekoppelt werden (Rechneradresse 1 bis 254). Die Hostadresse 0 wird für die Identifikation des Netzes benötigt und die Adresse 255 für Broadcast-(Rundruf-)Meldungen. Die Netzwerkadresse 127.0.0.1 bezeichnet jeweils den lokalen Rechner (loopback address). Sie dient der Konsistenz der Netzwerksoftware (jeder Rechner ist über seine Adresse ansprechbar) und dem Test. Damit man nun lokale Netze ohne Internetanbindung mit TCP/IP betreiben kann, ohne IPNummern beantragen zu müssen und um auch einzelne Rechnerverbindungen testen zu können, gibt es einen ausgesuchten Nummernkreis, der von keinem Router nach außen gegeben wird. Diese "privaten" Adressen sind im RFC 1597 festgelegt. Es gibt ein Class-ANetz, 16 Class-B-Netze und 255 Class-C-Netze: Class-A-Netz: 10.0.0.0 - 10.255.255.255 Class-B-Netze: 172.16.0.0 - 172.31.255.255 Class-C-Netze: 192.168.0.0 - 192.168.255.255 Zusätzlich hat die IANA auch das folgende Class-B-Netz für private Netze reserviert, das schon von Apple- und Microsoft-Clients verwendet wird, sofern kein DHCP-Server zur Verfügung steht. Das Verfahren heißt APIPA (Automatic Private IP Addressing): 169.254.0.0 - 169.254.255.255 Der für IP reservierte Adressraum reicht nicht mehr aus, um alle Endgeräte anzusteuern. Mögliche Abhilfen: Dynamische Vergabe von IP-Adressen: Dieses Verfahren wird beim Dial-In beim Provider verwendet. Es eignet sich auch im lokalen Netz, wenn davon auszugehen ist, daß immer nur ein Teil der Rechner in Betrieb ist. Der Benutzer bekommt für die Dauer einer Verbindung eine IP-Adresse zugeteilt. Das bekannteste Verfahren heißt DHCP (dynamic host configuration protocol). Weiterentwicklung des IP-Protokolls: Mit IP Version 6 wird ein auf 128 Bit erweiterter Adressraum geschaffen. Damit stehen genügend Adressen zur Vefügung. Network Address Translation (NAT): Über ein Gateway wird im Internet eine andere IP-Adresse verwendet als im lokalen Netz (private Adressräume). Die Umsetzung erlaubt sogar, ein komplettes privates Netz (siehe oben) mit einer einzigen externen IP-Adresse zu betreiben. Network Address Translation (NAT) und IP-Masquerading Die begrenzte Verfügbarkeit von IP-Adressen hat dazu geführt, daß man sich Gedanken über verschiedene Möglichkeiten machen mußte, wie man mit den existierenden Adressen ein größeres Umfeld abdecken kann. Eine Möglichkeit, um private Netze (und dazu gehört letztendlich auch ein privater Anschluß mit mehr als einem PC) unter Verwendung möglichst weniger Adressen an das Internet anzukoppeln stellen NAT, PAT und IP Masquerading. Alle Verfahren bilden private Adressen gemäß RFC 1918 oder einen proprietären (nicht registrierten) Adreßraum eines Netzes auf öffentliche registrierte IP-Adressen ab. NAT (Network Address Translation) Beim NAT (Network Address Translation) werden die Adressen eines privaten Netzes über Tabellen öffentlich registrierten IP-Adressen zugeordnet. Der Vorteil besteht darin, daß Rechner, die in einem privaten Netz miteinander kommunizieren, keine öffentlichen IP-Adressen benötigen. IP-Adressen interner Rechner, die eine Kommunikation mit Zielen im Internet aufbauen, erhalten in dem Router, der zwischen dem Internet Service Provider (ISP) und dem privaten Netzwerk steht, einen Tabelleneintrag. Durch diese Eins-zu-Eins-Zuordnung sind diese Rechner nicht nur in der Lage, eine Verbindung zu Zielen im Internet aufzubauen, sondern sie sind auch aus dem Internet erreichbar. Die interne Struktur des Firmennetzwerkes bleibt jedoch nach außen verborgen. IP Masquerading IP Masquerading, das manchmal auch als PAT (Port and Address Translation) bezeichnet wird, bildet alle Adressen eines privaten Netzwerkes auf eine einzelne öffentliche IP-Adresse ab. Dies geschieht dadurch, daß bei einer existierenden Verbindung zusätzlich zu den Adressen auch die Portnummern ausgetauscht werden. Auf diese Weise benötigt ein gesamtes privates Netz nur eine einzige registrierte öffentliche IP-Adresse. Der Nachteil dieser Lösung besteht darin, daß die Rechner im privaten Netzwerk nicht aus dem Internet angewählt werden können. Diese Methode eignet sich daher hervorragend, um zwei und mehr Rechner eines privaten Anschlusses per DFÜ-Netzwerk oder ISDN-Router an das Internet zu koppeln. IP Masquerading rückt mit dieser Funktionalität sehr nahe an Proxy- und FirewallLösungen heran, wobei ein Proxy explizit für ein Protokoll (z. B. HTTP) existieren und aufgerufen werden muß. Subnetze Nachdem nun klar ist, was ein Netz der Klasse A oder B ist, soll auf die Bildung von Subnetzen hingewiesen werden. Diese dienen dazu, ein bestehendes Netz in weitere, kleinere Netze zu unterteilen. Subnetze sind Strukturierungsmöglichkeit für Netze, ohne daß man zusätzliche Klasse-A-, Klasse-B- oder Klasse-C-IP-Adressen braucht. Die Standardprozedur, um ein Netz in Unternetze (Subnetze) zu teilen, nennt man "Subnetting". Die Hostadresse des A-, B- oder C-Netzes teilt sich in die Bereiche Subnetzadresse (Subnet-ID, Teilnetz-ID) und Hostadresse (verbleibende, verkürzte Host-ID). Ein Teil des Hostadressbereiches wird also genutzt, um die Subnetze zu unterscheiden. Die Netzadresse und den Subnetzanteil des Hostadressraumes bezeichnet man als "erweiterte Netzadresse" (extended network prefix). Die interne Subnetz-Struktur von A-, B- oder C-Netzen ist nach außen hin unsichtbar. Damit Router in der Lage sind, Datagramme in das richtige Netz zuzustellen, müssen sie bei der IP-Adresse den Netz- und Hostanteil unterscheiden können. Dies geschieht traditionell durch die Netzmaske bzw. Subnetzmaske (subnet mask). Die Subnetzmaske dient dem Rechner dazu, die Zuordnung von Netzwerk-Teil und Host-Teil vorzunehmen. Sie hat denselben Aufbau wie eine IP-Adresse (32 Bit bzw. 4 Byte). Per Definition sind alle Bit des "Netzwerk-Teils" auf 1 zu setzen, alle Bit des "Host-Teils" auf 0. Für die o.a. Adreßklassen hat die Subnetzmaske demnach folgendes Aussehen: Adreß- Subnetzmaske (binär) Subnetzmaske Klasse (dezimal) Class A 11111111.00000000.00000000.00000000 255.0.0.0 Class B 11111111.11111111.00000000.00000000 255.255.0.0 Class C 11111111.11111111.11111111.00000000 255.255.255.0 Diese Subnetzmaske (auch "Default Subnetzmaske" genannt) kann manuell überschrieben werden. Eine Subnet-Maske für ein Netz der Klasse C lautet daher 255.255.255.0. Das bedeutet, daß die ersten drei Bytes die Netzadresse angeben und das vierte Byte die Rechner adressiert. Eine Subnetz-Maske mit dem Wert 255.255.0.0 würde folglich ein Netz der Klasse B angeben und für ein C-Netz steht die Maske 255.255.255.0. Aufteilung in Subnetze Netzwerkanteil in Bit Hostanteil Subnetz- Hostanzahl in Bit anzahl **) *) Subnetzmaske 8 24 1 16777216 255.0.0.0 9 23 2 128*65536 255.128.0.0 10 22 4 64*65536 255.192.0.0 11 21 8 32*65536 255.224.0.0 12 20 16 16*65536 255.240.0.0 13 19 32 8*65536 255.248.0.0 14 18 64 4*65536 255.252.0.0 15 17 128 2*65536 255.254.0.0 16 16 1 65536 255.255.0.0 B 17 15 2 128*256 255.255.128.0 18 14 4 64*256 255.255.192.0 19 13 8 32*256 255.255.224.0 20 12 16 16*256 255.255.240.0 21 11 32 8*256 255.255.248.0 22 10 64 4*256 255.255.252.0 23 9 128 2*256 255.255.254.0 Klasse A Klasse 24 8 1 256 255.255.255.0 Klasse C 25 7 2 128 255.255.255.128 26 6 4 64 255.255.255.192 27 5 8 32 255.255.255.224 28 4 16 16 255.255.255.240 29 3 32 8 255.255.255.248 30 2 64 4 255.255.255.252 Anmerkungen: *) Die erste und letzte bei der Unterteilung entstehenden Adressen dürfen nicht verwendet werden (Verwechslung mit Netz- und Broadcast-Adresse des übergeordneten Netzes). Die Anzahl der Subnetze verringert sich somit jeweils um zwei: Ist der Netzwerkanteil der IP-Adresse n Bits, dann erhält man (2n) - 2 Subnetze. **) Die Rechneranzahl verringert sich ebenfalls um zwei wegen Subnetz-Adresse (alle Rechnerbits auf 0) und Broadcast-Adresse (alle Rechnerbits auf 1): Ist der Hostanteil der IP-Adresse m Bits, dann erhält man (2m) - 2 Hosts pro Subnetz. Besitzt breispielsweise ein Unternehmen ein Netz der Klasse C, möchte man dieses vielleicht in zwei Segmente unterteilen, die voneinander getrennt sind. Der Broadcastverkehr des ersten Segments kann so das andere nicht beeinträchtigen. In diesem Fall kommt die Subnetz-Maske zum Einsatz, welche die Rechneradressen in zwei Bereiche gliedert. Sollen die Rechner in vier gleich große Subnetze mit je 64 Knoten eingeteilt werden, lautet die Subnetz-Maske 255.255.255.192. Es gilt die folgende Formel für das Maskier-Byte: Bytewert = 256 - (Anzahl der Knoten in einem Segment) Als das Subnetting erstmals standardisiert wurde, war es verboten die Subnetze zu nutzen, in denen alle Subnetzbits den Wert 0 oder 1 hatten (siehe Anmerkungen oben). Damit ergeben sich im Beispiel nur zwei Subnetze mit je 62 Hosts. Inzwischen beherrschen fast alle Systeme korrektes Subnetting ("classless" routing). Beispiel: Aufteilung in 4 Subnetze Ein Netz der Klasse C soll in vier gleich große Subnetze geteilt werden. Die Netzadresse beträgt 192.168.98.0. Der Administrator wählt daher zur Unterteilung die Subnetz-Maske 255.255.255.192. Die vier Rechner mit den IP-Adressen 192.168.98.3, 192.168.98.73. 192.168.98.156 und 192.168.98.197 befinden sich daher in vier Subnetzen zwischen denen geroutet werden muß. Broadcasts in Subnetz 1 werden somit nicht in die anderen Subnetze übertragen. Es ist nun zum Beispiel für das Unternehmen möglich, die Rechner des Vertriebs in Subnetz 1, die des Einkaufs in Subnetz 2, jene der Entwicklung in Subnetz 3 und ein Netz aus Demorechnern in Subnetz 4 zu organisieren. Damit ist gesichert, daß Störungen in einzelnen Subnetzen auch lokal auf diese beschränkt bleiben. Sie schlagen nicht auf die Datenstruktur des ganzen Unternehmens durch. Allgemein ergibt sich für ein C-Netz folgende Aufstellung: Subnetze eines C-Netzes In Klammern die reduzierte Anzahl der Subnetze (Anzahl - 2). Die rot unterlegten Möglichkeiten sind dann in der Praxis nicht einsetzbar. Subnetzbits Hostbits mögliche Subnetze Hostadressen Subnetzmaske 1 7 2 (0) 126 (0) 255.255.255.128 2 6 4 (2) 62 255.255.255.192 3 5 8 (6) 30 255.255.255.224 4 4 16 (14) 14 255.255.255.240 5 3 32 (30) 6 255.255.255.248 6 2 64 (62) 2 255.255.255.252 7 1 128 0 255.255.255.254 Beispiel: Aufteilung in 8 (6) Subnetze Von den acht variabel verwendbaren Bits nutzt er also die drei höchstwertigen Bits für das Subnetz und die fünf letzten Bits für die Hostadresse. Die erste Adresse jedes Subnetz ist die Adresse in der alle Hostbits den Wert 0 haben. Subnetzbits Hostbits Dezimale Wertigkeit des Bit 128 64 32 16 8 4 2 1 erstes Subnetz 0 0 0 0 dezimal 0 0 0 0 0 zweites Subnetz 0 0 1 0 0 0 0 0 32 drittes Subnetz 0 1 0 0 0 0 0 0 64 viertes Subnetz 0 1 1 0 0 0 0 0 96 fünftes Subnetz 1 0 0 0 0 0 0 0 128 sechstes Subnetz 1 0 1 0 0 0 0 0 160 siebtes Subnetz 1 1 0 0 0 0 0 0 192 achtes Subnetz 1 1 1 0 0 0 0 0 224 Damit sind die acht zur Verfügung stehenden Subnetze bekannt: 192.168.0.0/27 192.168.0.32/27 192.168.0.64/27 192.168.0.96/27 192.168.0.128/27 192.168.0.160/27 192.168.0.192/27 192.168.0.224/27 Anmerkung: Die Zahl hinter dem Schrägstrich (oben ist das die 27) gibt an, wieviele Bits der 32 Bit langen IP-Adresse als Netzanteil verwendet werden. Diese Subnetze können jetzt einzelnen Netzen zugeordnet werden. Die folgende Tabelle zeigt die Netz- und Broadcastadressen von jedem einzelnen Subnetz und die Rechneradressen. Subnetz IP-Adressen (letztes Oktett) Netz Hosts Broadcast erstes Subnetz 0 1-30 31 zweites Subnetz 32 33-62 63 drittes Subnetz 64 65-94 95 viertes Subnetz 96 97-126 127 fünftes Subnetz 128 129-158 159 sechstes Subnetz 160 161-190 191 siebtes Subnetz 192 193-222 223 achtes Subnetz 224 225-254 255 Als kleine Hilfe gibt es hier noch einen Subnetz-Rechner als Javascript-Programm. Eingegeben wird eine IP-Netzadresse in CIDR-Form (Classless Inter-Domain Routing, z.B. 10.1.2.0/24). Nach dem Klick auf "Berechnen" erscheinen im unteren Feld die Werte der Netzadresse, der Subnet-Maske und der Bereich der zugehörigen IP-Adressen, wobei die erste Adresse des angebenen Bereichs die Netzadresse darstellt und die letzte Adresse die Broadcast-Adresse. CIDR: 192.168.1.0/24 IP-Bereich: ICMP - Internet Control Message Protocol ICMP erlaubt den Austauch von Fehlermeldungen und Kontrollnachrichten auf IP-Ebene. ICMP benutzt das IP wie ein ULP, ist aber integraler Bestandteil der IP-Implementierung. Es macht IP nicht zu einem 'Reliable Service', ist aber die einzige Möglichkeit Hosts und Gateways über den Zustand des Netzes zu informieren (z. B. wenn ein Host temporär nicht erreichbar ist --> Timeout). Die ICMP-Nachricht ist im Datenteil des IP-Datagramms untergebracht, sie enthält ggf. den IP-Header und die ersten 64 Bytes des die Nachricht auslösenden Datagramms (z. B. bei Timeout). Die fünf Felder der ICMP-Message haben folgende Bedeutung: Type Identifiziert die ICMP-Nachricht 0 Echo reply 3 Destination unreachable 4 Source quench 5 Redirect (Change a Route) 8 Echo request 11 Time exceeded for a datagram 12 Parameter Problem on a datagram 13 Timestamp request 14 Timestamp reply 15 Information request 16 Information reply 17 Address mask request 18 Address mask reply Code Detailinformation zum Nachrichten-Typ Checksum Prüfsumme der ICMP-Nachricht (Datenteil des IP-Datagramms) Identifier und Sequence-Nummer dienen der Zuordnung eintreffender Antworten zu den jeweiligen Anfragen, da eine Station mehrere Anfragen aussenden kann oder auf eine Anfrage mehrere Antworten eintreffen können. Wenden wir uns nun den einzelnen Nachrichtentypen zu: Echo request/reply Überprüfen der Erreichbarkeit eines Zielknotens. Es können Testdaten mitgeschickt werden, die dann unverändert zurückgeschickt werden (--> Ping-Kommando unter UNIX). Destination unreachable Im Codefeld wird die Ursache näher beschrieben: 0 Network unreachable 1 Host unreachable 2 Protocol unreachable 3 Port unreachable 4 Fragmentation needed 5 Source route failed Source quench Wenn mehr Datagramme kommen als eine Station verarbeiten kann, sendet sie diese Nachricht an die sendende Station. Redirect wird vom ersten Gateway an Hosts im gleichen Teilnetz gesendet, wenn es eine bessere Route-Verbindung über einen anderen Gateway gibt. In der Nachricht wird die IP-Adresse des anderen Gateways angegeben. Time exceeded Für diese Nachricht an den Quellknoten gibt es zwei Ursachen: Time-to-live exceeded (Code 0): Wenn ein Gateway ein Datagramm eliminiert, dessen TTL-Zähler abgelaufen ist. Fragment reassembly time exceeded (Code 1): Wenn ein Timer abläuft, bevor alle Fragmente des Datagramms eingetroffen sind. Parameter problem on a Datagramm Probleme bei der Interpretation des IP-Headers. Es wird ein Verweis auf die Fehlerstelle und der fragliche IP-Header zurückgeschickt. Timestamp request/reply Erlaubt Zeitmessungen und -synchronisation im Netz. Drei Zeiten werden gesendet (in ms seit Mitternacht, Universal Time): Originate T.: Sendezeitpunkt des Requests (vom Absender) Receive T.: Ankunftszeit (beim Empfänger) Transmit T.: Sendezeitpunkt des Reply (vom Empfänger) Information request/reply Mit dieser Nachricht kann ein Host die Netid seines Netzes erfragen, indem er seine Netid auf Null setzt. Address mask request/reply Bei Subnetting (siehe unten) kann ein Host die Subnet-Mask erfragen. Für den User nutzbar ist ICMP vor allem für die Kommandos ping und traceroute (bei Windows "tracert"). Diese Kommandos senden ICMP-Echo-Requests aus und warten auf den ICMP-Echo-Reply. So kann man die Erreichbarkeit eines Knotens feststellen. Will man alle Knoten im lokalen Netz erkennen genügt ein ping auf die Broadcast-Adresse, z. B.: ping 192.168.33.255 Zum Anzeigen der Arp-Tabelle gibt es unter Windows wie unter Linux das arp-Kommando, mit arp -a erhält man eine Liste der aktuell gespeicherten MAC-Adressen und deren Zuordnung zu IP-Adressen. Führt man das obige ping-Kommando und das arp-Kommando nacheinander aus, erhält man eine liste der IP- umd MAC-Adressen der aktiven lokalen Knoten, z.B.: ping -b -c1 192.168.33.255 arp -a UDP - User Datagram Protocol UDP ist ein einfaches Schicht-4-Protokoll, das einen nicht zuverlässigen, verbindungslosen Transportdienst ohne Flußkontrolle zur Verfügung stellt. UDP ermöglicht zwischen zwei Stationen mehrere unabhängige Kommunikationsbeziehungen (Multiplex-Verbindung): Die Identifikation der beiden Prozesse einer Kommuninkationsbeziehung geschieht (wie auch bei TCP, siehe unten) durch Port-Nummern (kurz "Ports"), die allgemein bekannten Anwendungen fest zugeordnet sind. Es lassen sich aber auch Ports dynamisch vergeben oder bei einer Anwendung durch verschiedene Ports deren Verhalten steuern. Die Transporteinheiten werden 'UDP-Datagramme' oder 'User Datagramme' genannt. Sie haben folgenden Aufbau: Source Port Identifiziert den sendenden Prozeß (falls nicht benötigt, wird der Wert auf Null gesetzt). Destination Port Identifiziert den Prozeß des Zielknotens. Length Länge des UDP-Datagramms in Bytes (mindestens 8 = Headerlänge) UDP-Checksum Optionale Angabe (falls nicht verwendet auf Null gesetzt) einer Prüfsumme. Zu deren Ermittlung wird dem UDP-Datagramm ein Pseudoheader von 12 Byte vorangestellt (aber nicht mit übertragen), der u. a. IP-Source-Address, IP-Destination-Address und Protokoll-Nummer (UDP = 17) enthält. TCP - Transmission Control Protocol Welches übergeordnete Protokoll der Transportschicht das Datenpaket erhält, steht im 'Protokoll'-Feld eines jeden IP-Paketes. Jedes Protokoll der Transportschicht bekommt eine eindeutige Identifikationsnummer zugewiesen, anhand der die IP-Schicht entscheiden kann, wie weiter mit dem Paket zu verfahren ist. Eines der wichtigsten Protokolle der Transportschicht ist TCP. Die Aufgabe von TCP ist es, die oben geschilderten Defizite von IP zu verbergen. Für den TCP-Benutzer soll es nicht mehr sichtbar sein, daß die darunterliegenden Protokollschichten Datenpakete versenden, sondern es soll der Benutzer mit einem Byte-Strom wie bei einer normalen Datei (oder einem Terminal) arbeiten können. TCP garantiert vor allen Dingen den korrekten Transport der Daten - jedes Paket kommt nur einmal, fehlerfrei und in der richtigen Reihenfolge an. Zusätzlich können bei TCP mehrere Programme die Verbindung zwischen zwei Rechnern quasi-gleichzeitig nutzen. TCP teilt die Verbindung in viele virtuelle Kanäle ("Ports") auf, die zeitmultiplex mit Daten versorgt werden. Nur so ist es möglich, daß beispielsweise mehrere Benutzer eines Rechners zur selben Zeit das Netz in Anspruch nehmen können oder daß man mit einer einzigen Wählverbindung zum Provider gleichzeitig E-Mail empfangen und Dateien per FTP übertragen kann. Dieses Protokoll implementiert also einen verbindungsorientierten, sicheren Transportdienst als Schicht-4-Protokoll. Die Sicherheit wird durch positive Rückmeldungen (acknowledgements) und Wiederholung fehlerhafter Blöcke erreicht. Fast alle Standardanwendungen vieler Betriebssysteme nutzen TCP und das darunterliegende IP als Transportprotokoll, weshalb man die gesamte Protokollfamilie allgemein unter 'TCP/IP' zusammenfaßt. TCP läßt sich in lokalen und weltweiten Netzen einsetzen, da IP und die darunterliegenden Schichten mit den unterschiedlichsten Netzwerk- und Übertragungssystemen arbeiten können (Ethernet, Funk, serielle Leitungen, ...). Zur Realisierung der Flußkontrolle wird ein Fenstermechanismus (sliding windows) verwendet (variable Fenstergröße). TCP-Verbindungen sind vollduplex. Wie bei allen verbindungsorientierten Diensten muß zunächst eine virtuelle Verbindung aufgebaut und bei Beendigung der Kommunikation wieder abgebaut werden. "Verbindungsaufbau" bedeutet hier eine Vereinbarung beider Stationen über die Modalitäten der Übertragung (z. B. Fenstergröße, Akzeptieren eines bestimmten Dienstes, usw.). Ausgangs- und Endpunkte einer virtuellen Verbindung werden wie bei UDP durch Ports identifiziert. Allgemein verfügbare Dienste werden über 'well known' Ports (--> feste zugeordnete Portnummer) erreichbar. Andere Portnummern werden beim Verbindungsaufbau vereinbart. Damit die ständige Bestätigung jedes Datensegments den Transport nicht über Gebühr hemmt, werden zwei Tricks verwendet. Zum einen kann die Empfangsbetätigung einem Segment in Gegenrichtung mitgegeben werden - das spart ein separates Quittungssegment. Zweitens muß nicht jedes Byte sofort bestätigt werden, sondern es gibt ein sogenanntes 'Fenster'. Die Fenstergröße gibt an, wieviele Bytes gesendet werden dürfen, bis die Übertragung quittiert werden muß. Erfolgt keine Quittung, werden die Daten nochmals gesendet. Die empfangene Quittung enthält die Nummer des Bytess, das als nächstes vom Empfänger erwartet wird - womit auch alle vorhergehenden Bytes quittiert sind. Die Fenstergröße kann dynamisch mit der Quittung des Empfängers geändert werden. Werden die Ressourcen knapp, wird die Fenstergröße verringert. Beim Extremfall Null wird die Übertragung unterbrochen, bis der Empfänger erneut quittiert. Neben einem verläßlichen Datentransport ist so auch die Flußkontrolle gewährleistet. Das Prinzip des Fenstermechanismus ist eigentlich ganz einfach. Wenn man das Bild betrachtet, ergibt sich folgende Sachverhalt: Die Fenster größe im Beispiel beträgt drei Bytes. Byte 1 wurde von der Datenquelle gesendet und vom Empfänger quittiert. Die Quelle hat die Bytes 2, 3 und 4 gesendet, sie wurden aber vom Empfänger noch nicht quittiert (Quittung eventuell noch unterwegs). Byte 5 wurde von der Quelle noch nicht gesendet. Er geht erst dann auf die Reise, wenn die Quittung für Byte 2 (oder höher) eingetroffen ist. Das TCP-Paket wird oft auch als 'Segment' bezeichnet. Jedem TCP-Block ist ein Header vorangestellt, der aber wesentlich umfangreicher als die bisherigen ist: Source Port Identifiziert den sendenden Prozeß. Destination Port Identifiziert den Prozeß des Zielknotens. Sequence Number TCP betrachtet die zu übertragenden Daten als numerierten Bytestrom, wobei die Nummer des ersten Bytes beim Verbindungsaufbau festgelegt wird. Dieser Bytestrom wird bei der Übertragung in Blöcke (TCP-Segmente) aufgeteilt. Die 'Sequence Number' ist die Nummer des ersten Datenbytes im jeweiligen Segment (--> richtige Reihenfolge über verschiedene Verbindungen eintreffender Segmente wiederherstellbar). Acknowledgement Number Hiermit werden Daten von der Empfängerstation bestätigt, wobei gleichzeitig Daten in Gegenrichtung gesendet werden. Die Bestätigung wird also den Daten "aufgesattelt" (Piggyback). Die Nummer bezieht sich auf eine Sequence-Nummer der empfangenen Daten; alle Daten bis zu dieser Nummer (ausschließlich) sind damit bestätigt --> Nummer des nächsten erwarteten Bytes. Die Gültigkeit der Nummer wird durch das ACK-Feld (--> Code) bestätigt. Data Offset Da der Segment-Header ähnlich dem IP-Header Optionen enthalten kann, wird hier die Länge des Headers in 32-Bit-Worten angegeben. Res. Reserviert für spätere Nutzung Code Angabe der Funktion des Segments: URG Urgent-Pointer (siehe unten) ACK Quittungs-Segment (Acknowledgement-Nummer gültig) PSH Auf Senderseite sofortiges Senden der Daten (bevor Sendepuffer gefüllt ist) und auf Empfangsseite sofortige Weitergabe an die Applikation (bevor Empfangspuffer gefüllt ist) z. B. für interaktive Programme. RST Reset, Verbindung abbauen SYN Das 'Sequence Number'-Feld enthält die initiale Byte-Nummer (ISN) --> Numerierung beginnt mit ISN + 1. In der Bestätigung übergibt die Zielstation ihre ISN (Verbindungsaufbau). FIN Verbindung abbauen (Sender hat alle Daten gesendet), sobald der Empfänger alles korrekt empfangen hat und selbst keine Daten mehr loswerden will. Window Spezifiziert die Fenstergröße, die der Empfänger bereit ist anzunehmen - kann dynamisch geändert werden. Checksum 16-Bit Längsparität über Header und Daten. Urgent Pointer Markierung eines Teils des Datenteils als dringend. Dieser wird unabhängig von der Reihenfolge im Datenstrom sofort an das Anwenderprogramm weitergegeben (URGCode muß gesetzt sein). Der Wert des Urgent-Pointers markiert das letzte abzuliefernde Byte; es hat die Nummer <Sequence Number> + <Urgent Pointer>. Options Dieses Feld dient dem Informationsaustausch zwischen beiden Stationen auf der TCPEbene, z. B. die Segmentgröße (die Ihrerseits von der Größe des IP-Datagramms abhängen sollte, um den Durchsatz im Netz optimal zu gestalten). Ablauf einer TCP-Session Im Gegensatz zu IP ist TCP verbindungsorientiert. Das muß so sein, denn TCPVerbindungen sollen ja für den Benutzer prinzipiell wie Dateien zu handhaben sein. Das bedeutet, eine TCP-Verbindung wird wie eine Datei geöffnet und geschlossen, und man kann ihre Position innerhalb des Datenstroms bestimmen, genau wie man bei einer Datei die Position der Lese- oder Schreibposition angeben kann. TCP sendet die Daten auch in größeren Einheiten, um den Verwaltungsaufwand durch Header- und Kontrollinformationen klein zu halten. Im Gegensatz zu den IP-Paketen bezeichnet man die Einheiten der Transportschicht als "Segmente". Jedes gesendete TCP-Segment hat eine eindeutige Folgenummer, welche die Position seines ersten Bytes im Byte-Strom der Verbindung angibt. Anhand dieser Nummer kann die Reihenfolge der Segmente korrigiert und doppelt angekommene Segmente können aussortiert werden. Da die Länge des Segments aus dem IPHeader bekannt ist, können auch Lücken im Datenstrom entdeckt werden, und der Empfänger kann verlorengegangene Segmente neu anfordern. Beim Öffnen einer TCP-Verbindung tauschen beide Kommunikationspartner Kontrollinformationen aus, die sicherstellen, daß der jeweilige Partner existiert und Daten annehmen kann. Dazu schickt die Station A ein Segment mit der Aufforderung, die Folgenummern zu synchronisieren. Das einleitende Paket mit gesetztem SYN-Bit ("Synchronise-" oder "Open"-Request) gibt die Anfangs-"Sequence Number" des Client bekannt. Diese Anfangs-"Sequence Number wird zufällig bestimmt. Bei allen nachfolgenden Paketen ist das ACK-Bit ("Acknowledge", "Quittung") gesetzt. Der Server antwortet mit ACK, SYN und der Client bestätigt mit ACK. Das sieht dann so aus: Die Station B weiß jetzt, daß der Sender eine Verbindung öffnen möchte und an welcher Position im Datenstrom der Sender anfangen wird zu zählen. Sie bestätigt den Empfang der Nachricht und legt ihrerseits eine Folgenummer für Übertragungen in Gegenrichtung fest. Station A bestätigt nun den Empfang der Folgenummer von B und beginnt dann mit der Übertragung von Daten. Diese Art des Austausches von Kontrollinformationen, bei der jede Seite die Aktionen der Gegenseite bestätigen muß, ehe sie wirksam werden können, heißt "Dreiwege-Handshake". Auch beim Abbau einer Verbindung wird auf diese Weise sichergestellt, daß beide Seiten alle Daten korrekt und vollständig empfangen haben. Im zeitlichen Zusammenhang stellt sich eine TCP/IP-Verbindung folgendermaßen dar: Das folgende Beispiel zeigt die Arbeitsweise des TCP/IP - Protokolls. Es wird eine Nachricht von einem Rechner im grünen Netz zu einem Rechner im orangen Netz gesendet. Die Nachricht wird in mehrere Pakete aufgeteilt und auf der besten Route auf die Reise geschickt. Das verbindungslose IPProtokoll sorgt zusammen mit den Routern für den Weg. Da eine Strecke überlastet ist, werden die Pakete 3, 4 und 5 auf einer anderen Strecke weiter transportiert. Dieser Transport erfolgt zufälligerweise schneller als jener der Pakete 1 und 2. Die Pakete wandern ihrem Bestimmungsnetz entgegen. Das erste Paket ist bereits angekommen. Paket 3 kommt vor Paket 2 am Ziel an. Die Pakete 1, 2 und 3 sind - in falscher Reihenfolge - am Zielrechner angekommen. Auf der Strecke, auf der Pakete 4 und 5 transportiert werden, tritt eine Störung auf. Paket 4 ist bei der Störung verloren gegangen. Paket 5 wird auf einer anderen Route zum Zielnetz geschickt (wären die Routen statisch am Router eingetragen, ginge auch Paket 5 verloren). Alle überlebenden Pakete sind am Zielrechner angekommen. Das TCP-Protokoll setzt die Pakete wieder in der richtigen Reihenfolge zusammen und fordert das fehlende Paket 4 nochmals beim Sender an. Für den Empfänger ergibt sich ein kontinuierlicher Datenstrom. TCP-Zustandsübergangsdiagramm Den gesamte Lebenszyklus einer TCP-Verbindung beschreibt die folgende Grafik in einer relativ groben Darstellung. Erklärung der Zustände: LISTEN: Warten auf ein Connection Request. SYN-SENT: Warten auf ein passendes Connection Request, nachdem ein SYN gesendet wurde. SYN-RECEIVED: Warten auf Bestätigung des Connection Request Acknowledgement, nachdem beide Teilnehmer ein Connection Request empfangen und gesendet haben. ESTABLISHED: Offene Verbindung. FIN-WAIT-1: Warten auf ein Connection Termination Request des Kommunikationspartners oder auf eine Bestätigung des Connection Termination, das vorher gesendet wurde. FIN-WAIT-2: Warten auf ein Connection Termination Request des Kommunikationspartners. CLOSE-WAIT: Warten auf ein Connection Termination Request (CLOSE) der darüberliegenden Schicht. CLOSING: Warten auf ein Connection Termination Request des Kommunikationspartners. LAST-ACK: Warten auf die Bestätigung des Connection Termination Request, das zuvor an den Kommunikationspartner gesendet wurde. Zeitüberwachung In allen Protokollimplementierungen spielt die Zeit eine wichtige Rolle. So werden alle Abläufe zeitlich überwacht. Dazu werden in der Protokollimplementierung sogenannte "Timer" gestartet, deren Timeout zur Fehlerbehandlung führt. Paketwiederholungs-Wecker oder Retransmission Timeout In Weitverkehrsnetzen mit unterschiedlichsten Verbindungsarten, die noch dazu zeitlichen Schwankungen unterworfen sind, ist die Wahl der Wartezeit auf Bestätigungen schwierig. Der Retransmission Timeout (RTO) läuft ab, wenn der vorgegebene Zeitraum zwischen dem Aussenden eines TCP-Pakets bis zum Eintreffen der dazugehörigen Quittung überschritten wird. In diesem Fall muß das Paket noch einmal gesendet werden. Allerdings darf der Zeitraum nicht fest definiert sein, da man sonst TCP nicht über Netzwerke mit unterschiedlichen Laufzeiten betreiben könnte - wenn man z.B. Ethernet und eine serielle Verbindung über mehrere Gateways miteinander vergleicht, ergibt sich ein tausendfacher Unterschied in der Übertragungsrate. Daher wird in TCP bei jedem Paket die Zeit gemessen, die zwischen Senden und Empfangen einer Quittung vergeht, die sogenannte Round Trip Time (RTT). Die so gemessene Zeit wird über eine Formel umgerechnet, die Spitzen nach oben und unten herausfiltert, sich aber auch allmählich an eine verlängerte oder verkürzte Laufzeit anpaßt. Das Ergebnis ist die Smoothed Round Trip Time (SRTT), d.h. die mittlere Zeit, die für einen Paketaustausch verstreicht. Diese Zeit wird nochmals skaliert, um weiteren Spielraum für unvorhergesehene Verzögerungen zu schaffen. SRTT: RTO: S = aS + (1 - a)R T = min[U, max[L,ßS]] (L < T < U) S Smoothed Round Trip Time R Round Trip Time T Retransmission Timeout (z.B. 30 Sekunden) U Zeitobergrenze (z.B. 1 Sekunde) L Zeituntergrenze (z.B. 1 Minute) a Smoothing Factor (z.B. 0.9) ß Scaling Factor (z.B. 2.0) Die beiden Formeln werden durch den RFC 793 spezifiziert: zunächst den SRTT-Filter, danach die Ermittlung des RTO. Falls nach der Wiederholung des Pakets der Wiederholungstimer ein weiteres Mal abläuft, wird der RTO in der Regel bis zu zwölfmal exponentiell erhöht. Erst wenn auch diese Erhöhung keinen Effekt zeigt, gilt die Verbindung als unterbrochen. Persistance Timer Beim Austausch von Daten über TCP ist es im Prinzip möglich, daß das Empfangsfenster gerade auf 0 steht - und genau in diesem Moment ein Paket verlorengeht, das das Fenster wieder öffnen sollte. Als Ergebnis warten dann beide TCPs bis in alle Ewigkeit aufeinander. Ein Gegenmittel dazu ist der Persistenz-Timer, der in bestimmten Zeitabschnitten kleine TCPPakete (1 Byte) abschickt und damit überprüft, ob die Empfängerseite wieder bereit ist. Ist das Empfangsfenster nach wie vor 0, kommt eine negative Quittung zurück; ist es größer, können nach der positiven Quittung weitere Daten gesendet werden. Stillhaltezeit oder Quiet Time Jede Möglichkeit der Verwechslung von Verbindungen durch im Netz herumirrende überholte TCP-Pakete sollte verhindert werden. Daher werden nach dem Abbau von TCP- Verbindungen Portnummern erst wieder freigegeben, wenn eine bestimmte Zeitspanne, die zweimal die "Maximum Segment Lifetime" (MSL) beträgt, vergangen ist. Die MSL entspricht der Zeit, in UNIX die im TTL-Feld von IP eingetragen wird. Der UNIX-Anwender bemerkt diese Wartezeit, wenn er eine Verbindung zwischen gleichen Partnern (d.h. gleichen Portnummern) sofort nach dem Abbruch wieder eröffnen will. Das System teilt ihm dann mit, daß die verwendete Portnummer noch belegt ist. Erst nach Ablauf von ca. 30 Sekunden ist ein erneuter Verbindungsaufbau möglich. Keep Alive Timer und Idle Timer Dabei handelt es sich um zwei nicht in der TCP-Spezifikation vorgesehene Wecker, die aber in UNIX-Systemen implementiert sind. Beide stehen miteinander in Verbindung. Der Keep Alive Timer bewirkt, daß in regelmäßigen Zeitabständen ein leeres Paket abgeschickt wird, um das Bestehen der Verbindung zum Partner zu überprüfen. Antwortet der Partnerrechner nicht, wird die Verbindung nach Ablauf des Idle Timers abgebrochen. Eine Applikation aktiviert diese Timer mit der KEEP_ALIVE-Option über die Socket-Schnittstelle. In der folgenden Tabelle sind die Werte für die oben genannten Timer angegeben. Dazu ist zu bemerken, daß die Dauer der Timer implementationsabhängig ist und nicht immer auf die unten angegebenen Werte eingestellt sein muß. Einstellungen der TCP-Timer (implementationsabhängig) Timer Dauer [s] Retransmission Timeout dynamisch Persistance Timer 5 Quiet Timer 30 Keep Alive Timer 45 Idle Timer 360 Algorithmen zur Steigerung der Effizienz Zwischen einer TCP-Implementierung nach Spezifikation und einem optimierten TCPSubsystem, wie man es in UNIX-Systemen vorfindet, liegt ein weiter Weg. Zahllose Verbesserungen sind in den Jahren in die UNIX-TCP-Implementierungen eingeflossen und neue Algorithmen in Nachfolgeversionen integriert worden: Acknowledgement Delay Normalerweise sendet der Empfänger nach Erhalt eines Pakets ein Antwortpaket, in dem die Größe des Empfangsfensters verkleinert und die Daten quittiert werden. Nach Übergabe der Daten an den empfangenden Prozeß werden die Datenpuffer im System frei, was ein Absenden eines Pakets mit einer Vergrößerung des Empfangsfensters zur Folge hat. Hat das Programm die Daten verarbeitet, folgt in der Regel kurz danach eine Antwort, es sind also für eine Transaktion in der Regel drei Pakete notwendig. Man hat aber festgestellt, daß in manchen Fällen, z.B. beim Telnet- oder SSH-Betrieb, ein Verzögern des Quittungspakets um 0,2 Sekunden Vorteile bringt: nach dieser kurzen Wartezeit können alle drei Informationen Empfangsfenster, Quittung und Antwort - in einem einzigen Paket versendet werden. Damit Datentransfers, die hohen Durchsatz benötigen, nicht gebremst werden, unterbleibt die Verzögerung, wenn das Empfangsfenster um mindestens 35% oder zwei maximale Pakete verändert wurde. Silly Window Syndrome Avoidance In bestimmten Situationen werden Empfangsfensterangaben versendet, die derart klein sind, daß das Netzwerk und Rechner von den vielen Quittungspaketen über Gebühr belastet werden. Um das zu verhindern, wird das Empfangsfenster nur dann wieder vergrößert, wenn ausreichend Platz (mehr als 1/4 des Datenpuffers oder ein maximales Paket) zur Verfügung steht. Desgleichen verhält sich auch der Sender konservativ und sendet nur, wenn das angebotene Fenster ausreichend groß ist. Nagle Algorithm oder Small Packet Avoidance Benannt nach seinem Erfinder John Nagle, versucht dieser Algorithmus eben- falls, das Versenden von kleinen TCP-Paketen zu verhindern. do, In diesem Fall geht es aber darum, auf der Senderseite zu verhin- es dern, daß in kleinen Einheiten von der Applikation an TCP über- Ari gebene Daten auch in dieser Form weiterversendet werden. Ein Co erstes Paket wird sofort ausgesendet, weitere Daten auf der ge,~ Senderseite aber so lange gepuffert, bis ein volles maximales Seg- un ment geschickt werden kann oder eine Quittung für das erste gn Paket eingetroffen ist. Probleme ergeben sich mit diesem bis Algorithmus aber bei Anwendungen, die viele kleine Nachrich- un ten abschicken, ohne eine Antwort zurückzuerhalten, z.B. dem X In Window System. In diesem Fall kann der NagleAlgorithmus En verbindungsspezifisch abgeschaltet werden. pal Slow Start with Congestion Avoidance Diese miteinander verbundenen Algorithmen, manchmal auch als Jacobson-Algorithmen bezeichnet, sind erst in jüngster Zeit bekannt geworden und in erster Linie für langsame Netzwerke und den Betrieb von Netzen mit Gateways von Bedeutung. Man hatte in den letzten Jahren beobachtet, daß das Internet mit steigender Belastung immer weniger Datendurchsatz lieferte und zum Teil sogar nahezu zusammenbrach. Als man die Vorgänge näher betrachtete, wurde festgestellt, daß mehr als die Hälfte der Daten Wiederholungen verlorengegangener TCP-Pakete waren. Was war geschehen? Ein Netzwerkpfad Datenpuffer vom Sender über mögliche Gateways bis hin zum Empfänger - kann nur eine endliche Datenmenge aufnehmen. Wenn ein Gateway oder ein Host sehr durch Verkehr belastet sind, kann es vorkommen, daß nicht genügend Pufferplatz zur Aufnahme von Paketen vorhanden ist. In diesem Fall werden die Pakete vom Gateway verworfen, woraufhin der Absender des Pakets nach Ablauf des Retransmission Timeouts eine Wiederholung vornimmt und dadurch insgesamt die Belastung des Netzes weiter unnötig steigert. Der Slow StartAlgorithmus versucht nun zu ermitteln, wieviele Daten zu einem Zeitpunkt in Richtung Empfänger unterwegs sein können, ohne daß es dabei zu Verlusten kommt. Erreicht wird das über eine allmähliche Steigerung der ausgesendeten Datenmenge bis zu einem Punkt, an dem sich ein gleichmässiger Datenfluß ohne Wiederholungen ergibt. Wo früher die Menge der auszusendenden Daten durch die Größe bestimmt wurde, ist jetzt die Aufnahmekapazität des Netzwerkpfads, das sogenannte "Congestion Window", die bestimmende Größe, wobei das Congestion Window immer kleiner oder gleich dem Empfangsfenster (Receive Window) ist. Hat sich das Congestion Window eingependelt, wird es erst wieder verändert, wenn auftretende Wiederholungen ein Ansteigen der Netzwerklast signalisieren: in diesem Fall tritt die "Congestion Avoidance" in Kraft. Gleichzeitig wird durch ständiges vorsichtiges Vergrößern des Congestion Windows versucht, unter Umständen freiwerdende Ressourcen zu benutzen. Aufgrund des konservativen Verhaltens läßt sich der Durchsatz um bis zu 30% steigern und die Anzahl der wiederholten Pakete um über 50% senken. In Verbindung mit diesen beiden Algorithmen wurde auch die Ermittlung des Retransmission Timeouts verbessert. Dieser Wert paßt sich jetzt schneller an Veränderungen in der RTT an und verhindert zusätzliche Paketwiederholungen. Ports für jeden Dienst Server-Prozesse lauschen bei UDP und TCP auf bestimmten Portnummern. Per Übereinkunft werden dazu Ports niedriger Nummern verwendet. Für die Standarddienste sind diese Portnummern in den RFCs festgeschrieben. Ein Port im "listen"-Modus ist gewissermaßen eine halboffene Verbindung. Nur Quell-IP und Quellport sind bekannt. Der Serverprozeß kann vom Betriebssystem dupliziert werden, so daß weitere Anfragen auf diesem Port behandelt werden können. Die Portnummern werden auf dem Host-System konfiguriert und haben zwei Funktionen: o Allgemein verfügbare Dienste werden über 'well known' Ports (--> feste, per RFC zugeordnete Portnummer) erreichbar. Sie stehen also für ein Protokoll, das über die Nummer direkt angesprochen wird o oder sie werden beim Verbindungsaufbau vereinbart und einem ServerProgramm zugewiesen Die Portangabe ist nötig, wenn mehrere Serverprogramme auf dem adressierten Rechner laufen. Die Portnummer steht im TCP-Header und ist 16 Bit groß. Theoretisch können also bis zu 65535 TCP-Verbindungen auf einem Rechner mit einer einzigen IP-Adresse aufgebaut werden. Portnummern werden oft auch bei der Konfiguration von Internet-Clients als Parameter gefordert. Die Client-Prozesse verwenden normalerweise freie Portnummern, die vom lokalen Betriebssystem zugewiesen werden (Portnummer > 1024). Die "well known" Portnummern (0 bis 1023), die weltweit eindeutig adressiert werden müssen, werden durch die IANA (Internet Assigned Numbers Authority) vergeben. Einige Beispiele für TCP-Ports (UDP verwendet eine andere Zuordnung): Portnummer Protokoll 20 FTP (Daten) 21 FTP (Befehle) 22 Secure Shell 23 Telnet 25 SMTP 53 DNS-Server 80 HTTP (Proxy-Server) 110 POP3 143 IMAP Eine vollständige Portliste erhält man bei http://www.isi.edu/in-notes/iana/assignments/portnumbers. Well Known Ports 1 – 1023 Diese Ports sind fest einer Anwendung oder einem Protokoll zugeordnet. Die feste Zuordnung ermöglicht eine einfachere Konfiguration. Die Verwaltung dieser Ports übernimmt die Internet Assigned Numbers Authority (IANA). Registered Ports 1024 – 49151 Dynamically Allocated Ports 49152 – Diese Ports werden dynamisch zugewiesen. 65535 Jeder Client kann diese Ports nutzen. Wenn ein Prozess einen Port benötigt, fordert er diesen bei seinem Host an. Diese Ports sind für diverse Dienste vorgesehen. IP-Adresse und Portnummer definieren einen Kommunikationsendpunkt, der in der TCP/IPWelt "Socket" genannt wird. Die Grenze zwischen der Anwendungsschicht und der Transportschicht ist in den meisten Implementierungen zugleich die Grenze zwischen dem Betriebssystem und den Anwendungsprogrammen. Im OSI-Modell ist diese Grenze in etwa die Grenze zwischen den Schichten 4 und 5. Daher ordnet man IP meist ungefähr in die Ebene 3 und TCP ungefähr in Ebene 4 des OSI-Modells ein. Da TCP/IP jedoch älter und einfacher als das OSI-Modell ist, kann diese Einordnung nicht genau passen. Port-Scans Beim Scanning wird versucht, offene Ports eines Rechners zu ermitteln. Das ist meist auch der erste Schritt eines Angreifers, der in einem Rechner eindringen will. Deshalb dient ein Portscan auch dazu, die Sicherheit des eigenen Systems zu überprüfen. Bei den ScanningMethoden wurden Verfahren entwickelt, bei denen versucht wird, den Scanvorgang auf dem gescannten Rechern unentdeckt zu lassen. TCP-Connect-Scan Bei dieser Methode wird versucht, eine Verbindung zu einem Port auf dem Zielrechner aufzubauen. Der Scanner läßt einen vollständigen Dreiwege-Handshake zu, bevor er die Verbindung wieder unterbricht. Diese Art der Scans ist allerdings sehr leicht zu entdecken und kann auch leicht mit Hilfe von Firewalls abgeblockt werden. TCP-SYN-Scan Diese Methode wird oft als "Half-Open-Scan" bezeichnet. Der Scanner sendet ein SYN-Packet an den Zielrechner, wie bei einem ganz normalen Verbindungsaufbau. Wenn der Zielrechner mit einem RST antwortet, weiß der Scanner, daß dieser Port geschlossen ist. Antwortet der Zielrechner jedoch mit einem SYN/ACK, handelt es sich um einem offenen Port. In diesem Falle wird die Verbindung vom Scanner sofort mit einem RST beendet. Diese Art des Scannens ist nicht ganz so leicht auf dem Zielrechner zu entdecken wie der Connect Scan. Stealth FIN-Scan Stealth Scans sollen vom Zielrechner nicht entdeckt werden. Allerdings gibt es Programme, die genau solche Scans entdecken. Beim "Stealth FIN Scan" wird nur ein Packet mit einem FIN-Flag, ohne begleitendes ACK-Flag gesendet. Diese Art von Paket ist unzulässig. Wenn der Port offen ist, wird das Paket des Scanners vom Zielrechner ignoriert. Wenn der Port geschlossen ist, antwortet der Zielrechner mit einem RST-Paket. Stealth Xmastree-Scan Bei diesem Scan sind die FIN-, URG-, und PUSH-Flags alle gemeinsam gesetzt. Auch dieses Paket ist unzulässig. Wenn der Port offen ist, wird das Paket des Scanners vom Zielrechner ignoriert. Wenn der Port geschlossen ist, antwortet der Zielrechner mit einem RST-Paket. Stealth Null-Scan Bei diesem Scan sind alle Flags auf Null gesetzt. Alles Weitere wie oben. ACK-Scan Dieser Scan wird verwendet, um Firewalls zu testen ob sie mit "stateful inspection" arbeiten (z.B. Firewall 1) oder ob es sich nur um einfache Packetfilter handelt, die eingehende SYN Packete verwerfen. Der ACK-Scan sendet ein Packet mit gesetztem ACK-Flag und zufälliger Sequenznummer an die Ports. Wenn das Paket von der Firewall durchgelassen wird, sendet der Server ein RST, da das Paket nicht zuzuordnen ist. In diesem Fall wird der Port als "ungefiltert" klassifiziert. Wenn die Firewall den Status einer Verbindung überwacht, wird das Paket ohne eine Antwort vom Zielrechner abgewiesen oder es wird dem Scanner mit einer ICMP Destination unreachable Nachricht geantwortet. PPP Das Point to Point Protocol (PPP) findet gegenwärtig vielfachen Einsatz. Es arbeitet mit drei Teilprotokollen: Das Data Link Layer Protocol ermöglicht die Übertragung (Encapsulation) von Datagrammen über serielle Verbindungen mit Hilfe von HDLC. Das Link Control Protocol (LCP) steuert Aufbau, Konfiguration und Test der Verbindung. Das Network Control Protocol (NCP) ermöglicht die Übertragung von Konfigurationsdaten für verschiedene Protokolle der Vermittlungsschicht. PPP ist geeignet für den simultanen Einsatz verschiedener Protokolle der Vermittlungsschicht, es ist also ein so genanntes "Multi-Protokoll-Protokoll". Es ist ein zustandsorientiertes Protokoll: PPP ist ein verbindungsorientiertes Protokoll und unterscheidet drei Phasen Verbindungsaufbau, Datenübertragung und Verbindungsabbau. Die Realisierung dieser Phasen unter Berücksichtigung der Teilprotokolle von PPP zeigt das Bild unten. 1. Der anrufende PPP-Knoten sendet LCP-Rahmen zum Aufbau und zur Konfiguration der Verbindung (Data Link). Die LCP-Pakete verfügen über ein Feld mit Konfigurations-Optionen. Zu diesen Optionen zählen beispielsweise die Maximum Transmission Unit (MTU). Hierbei handelt es sich um die Angabe, ob bestimmte PPPFelder komprimiert werden, oder das Link Authentication Protocol (LAP). 2. In einer optionalen Phase wird überprüft, ob die Qualität der Verbindung für den Aufbau einer Übertragung der Pakete der Vermittlungsschicht ausreicht. 3. Es folgt eine Authentifizierungsphase. 4. Der anrufende PPP-Knoten sendet NCP-Rahmen zur Auswahl und Konfiguration des zu übertragenden Protokolls der Vermittlungsschicht. 5. Nun können die Daten übertragen werden. 6. Die Verbindung bleibt bis zur Beendigung durch LCP- oder NCP-Rahmen bestehen oder bis ein externes Ereignis auftritt. Zu diesen kann eine Unterbrechung durch den Anwender, der Abbruch der Übertragung oder der Ablauf eines "Inactivity Timers" zählen. PPP unterstützt verschiedene Protokolle zur Authentifizierung. Dabei realisieren alle Protokolle nur eine einseitige Authentifizierung. Dies bedeutet, dass sich der anrufende Knoten bzw. dessen Anwender authentifizieren und der angerufene Knoten diese Authentifizierung überprüfen muss. Der angerufene Knoten authentifiziert sich durch seine Verfügbarkeit unter dieser physischen Verbindung. Die wichtigsten Authentifizierungsprotokolle sind: das Password Authentication Protocol (PAP), das Shiva Password Authentication Protocol(SPAP), das Challenge Handshake Authentication Protocol (CHAP) sowie eine Variante des CHAP, das Microsoft-CHAP (MS-CHAP), das in zwei Versionen vorliegt. Die Authentifzierungsprotokolle mit der größten Verbreitung sind PAP und CHAP. Auch MS-CHAPv2 ist recht häufig anzutreffen. Die meisten ISPs fragen beim einwählenden Host zunächst CHAP an. PAP unterstützt ein so genanntes Zwei-Wege-Handshake. Die Kombination "Username/Password" wird vom anrufenden Knoten so lange übertragen, bis die Authentifizierung bestätigt oder abgelehnt wird. Im Falle der Ablehnung wird die Verbindung abgebrochen. Dieses Vorgehen bietet allerdings nur eine geringe Sicherheit: Das Passwort wird unverschlüsselt übertragen. Es ist eine beliebige Anzahl von Wiederholungen möglich. Und schließlich werden Häufigkeit und Geschwindigkeit der Versuche vom anrufenden Knoten bestimmt, so dass ein Brute-Force-Angriff möglich wird. CHAP bietet ein erhöhtes Sicherheitsniveau im Rahmen eines so genannten Drei-WegeHandshakes. Der anrufende Knoten darf erst die Authentifizierung beginnen, wenn er vom angerufenen Knoten dazu aufgefordert wurde. Auf diese Weise werden Häufigkeit und Geschwindigkeit der Versuche vom angerufenen Knoten bestimmt. Zusätzlich wird die Kombination "Username/Password" nur im Rahmen einer Ein-Wege-Hash-Funktion (Message Digest 5, MD5) übertragen. Die Überprüfung kann also nicht nur beim Verbindungsaufbau, sondern auch periodisch während der Verbindung stattfinden. IP Next Generation Das rasche (exponentielle Wachstum) des Internet zwingt dazu, das Internet Protokoll in der Version 4 (IPv4) durch ein Nachfolgeprotokoll (IPv6 Internet Protocol Version 6) zu ersetzen. Vinton Cerf (der 'Vater' des Internet) bezeichnet in einem Interview mit der Zeitschrift c't das Internet "(...) als die wichtigste Infrastruktur für alle Arten von Kommunikation.". Auf die Frage, wie man sich die neuen Kommunikationsdienste des Internet vorstellen könne, antwortete Cerf: "Am spannendsten finde ich es, die ganzen Haushaltsgeräte ans Netz anzuschließen. Ich denke dabei nicht nur daran, daß der Kühlschrank sich in Zukunft mit der Heizung austauscht, ob es in der Küche zu warm ist. Stromgesellschaften könnten beispielsweise Geräte wie Geschirrspülmaschinen kontrollieren und ihnen Strom genau dann zur Verfügung stellen, wenn gerade keine Spitzennachfrage herrscht. Derartige Anwendungen hängen allerdings davon ab, daß sie zu einem erschwinglichen Preis angeboten werden. Das ist nicht unbedingt ferne Zukunftsmusik; die Programmierer müßten eigentlich nur damit anfangen, endlich Software für intelligente Netzwerkanwendungen zu schreiben. Und natürlich muß die Sicherheit derartiger Systeme garantiert sein. Schließlich möchte ich nicht, daß die Nachbarkinder mein Haus programmieren!" Auf die Internet Protokolle kommen in der nächsten Zeit also völlig neue Anforderungen zu. Classless InterDomain Routing - CIDR Der Verknappung der Internet-Adressen durch die ständig steigende Benutzerzahl wird zunächst versucht, mit dem Classless Inter-Domain Routing (CIDR) entgegen zu wirken. Durch die Vergabe von Internet-Adressen in Klassen (A,B,C,...) wird eine große Anzahl von Adressen verschwendet. Hierbei stellt sich vor allem die Klasse B als Problem dar. Viele Firmen nehmen ein Netz der Klasse B für sich in Anspruch, da ein Klasse A Netz mit bis zu 16 Mio. Hosts selbst für eine sehr große Firma überdimensioniert scheint, ein Netz der Klasse C mit 254 Hosts aber zu klein. Ein größerer Host-Bereich für Netze der Klasse C (z. B. 10 Bit, 1022 Hosts pro Netz) hätte das Problem der knapper werdenden IP-Adressen vermutlich gemildert. Ein anderes Problem wäre dadurch allerdings entstanden: die Einträge der Routing-Tabellen hätten sich um ein Vielfaches vermehrt. Ein anderes Konzept ist das Classless Inter-Domain Routing (RFC 1519): die verbleibenden Netze der Klasse C werden in Blöcken variabler Größe zugewiesen. Werden beispielsweise 2000 Adressen benötigt, so können einfach acht aufeinanderfolgende Netze der Klasse C vergeben werden. Zusätzlich werden die verbliebenen Klasse-C-Adressen restriktiver und strukturierter vergeben (RFC 1519). Die Welt ist dabei in vier Zonen aufgeteilt, von denen jede einen Teil des verbliebenen Klasse C Adreßraums erhält: 194.0.0.0 - 195.255.255.255 Europa 198.0.0.0 - 199.255.255.255 Nordamerika 200.0.0.0 - 201.255.255.255 Mittel- und Südamerika 202.0.0.0 - 203.255.255.255 Asien und pazifischer Raum 204.0.0.0 - 223.255.255.255 Reserviert für zukünftige Nutzung Jede der Zonen erhält dadurch in etwa 32 Millionen Adressen zugewiesen. Vorteil bei diesem Vorgehen ist, daß die Adressen einer Region im Prinzip zu einem Eintrag in den RoutingTabellen komprimiert worden sind und jeder Router, der eine Adresse außerhalb seiner Region zugesandt bekommt diese getrost ignorieren darf. Internet Protokoll Version 6 - IPv6 (IP Next Generation, IPnG) Der vorrangige Grund für eine Änderung des IP-Protokolls ist auf den begrenzten Adreßraum und das Anwachsen der Routing-Tabellen zurückzuführen. CIDR schafft hier zwar wieder etwas Luft, dennoch ist klar absehbar, daß auch diese Maßnahme nicht ausreicht, um die Verknappung der Adressen für eine längere Zeit in den Griff zu bekommen. Weitere Gründe für eine Änderung des IP-Protokolls sind die neuen Anforderungen an das Internet, denen IPv4 nicht gewachsen ist. Streaming-Verfahren wie Real-Audio oder Video-on-Demand erfordern das Festlegen eines Mindestdurchsatzes, der nicht unterschritten werden darf. Bei IPv4 kann so ein "Quality of Service" jedoch nicht definiert - und damit auch nicht sichergestellt - werden. Die IETF (Internet Engineering Task Force) begann deshalb 1990 mit der Arbeit an einer neuen Version von IP. Die wesentlichen Ziele des Projekts sind: Unterstützung von Milliarden von Hosts, auch bei ineffizienter Nutzung des Adreßraums Reduzierung des Umfangs der Routing-Tabellen Vereinfachung des Protokolls, damit die Router Pakete schneller abwickeln können Höhere Sicherheit (Authentifikation und Datenschutz) als das heutige IP Mehr Gewicht auf Dienstarten, insbesondere für Echtzeitanwendungen Unterstützung von Multicasting durch die Möglichkeit, den Umfang zu definieren Möglichkeit für Hosts, ohne Adreßänderung auf Reise zu gehen (Laptop) Möglichkeit für das Protokoll, sich zukünftig weiterzuentwickeln Unterstützung der alten und neuen Protokolle in Koexistenz für Jahre Im Dezember 1993 forderte die IETF mit RFC 1550 die Internet-Gemeinde dazu auf, Vorschläge für ein neues Internet Protokoll zu machen. Auf die Anfrage wurde eine Vielzahl von Vorschlägen eingereicht. Diese reichten von nur geringfügigen Änderungen am bestehenden IPv4 bis zur vollständigen Ablösung durch ein neues Protokoll. Aus diesen Vorschlägen wurde von der IETF das Simple Internet Protocol Plus (SIPP) als Grundlage für die neue IP-Version ausgewählt. Als die Entwickler mit den Arbeiten an der neuen Version des Internet Protokolls begannen, wurde ein Name für das Projekt bzw. das neue Protokoll benötigt. Angeregt durch die Fernsehserie "Star Trek - Next Generation", wurde als Arbeitsname IP - Next Generation (IPnG) gewählt. Schließlich bekam das neue IP eine offizielle Versionsnummer zugewiesen: IP Version 6 oder kurz IPv6. Die Protokollnummer 5 (IPv5) wurde bereits für ein experimentelles Protokoll verwendet. Die Merkmale von IPv6 Viele der Merkmale von IPv4 bleiben in IPv6 erhalten. Trotzdem ist IPv6 im allgemeinen nicht mit IPv4 kompatibel, wohl aber zu den darüberliegenden Internet-Protokollen, insbesondere den Protokollen der Transportschicht (TCP, UDP). Die wesentlichen Merkmale von IPv6 sind: Adreßgröße: Statt bisher 32 Bit stehen nun 128 Bit für die Adressen bereit. Theoretisch lassen sich damit 2128 = 3.4*1038 Adressen vergeben. Header-Format: Der IPv6-Header wurde vollständig geändert. Der Header enthält nur sieben statt bisher 13 Felder. Diese Änderung ermöglicht die schneller Verarbeitung der Pakete im Router. Im Gegensatz zu IPv4 gibt es bei IPv6 nicht mehr nur einen Header, sondern mehrere Header. Ein Datengramm besteht aus einem BasisHeader, sowie einem oder mehreren Zusatz-Headern, gefolgt von den Nutzdaten. Erweiterte Unterstützung von Optionen und Erweiterungen: Die Erweiterung der Optionen ist notwendig geworden, da einige der bei IPv4 notwendige Felder nun optional sind. Darüber hinaus unterscheidet sich auch die Art, wie die Optionen dargestellt werden. Für Router wird es damit einfacher, Optionen, die nicht für sie bestimmt sind, zu überspringen. Dienstarten: IPv6 legt mehr Gewicht auf die Unterstützung von Dienstarten. Damit kommt IPv6 den Forderungen nach einer verbesserten Unterstützung der Übertragung von Video- und Audiodaten entgegen, z. B. durch eine Option zur Echtzeitübertragung. Sicherheit: IPv6 beinhaltet nun im Protokoll selbst Mechanismen zur sicheren Datenübertragung. Wichtige neue Merkmale von IPv6 sind hier Authentifikation, Datenintegrität und Datenverlässlichkeit. Erweiterbarkeit: IPv6 ist ein erweiterbares Protokoll. Bei der Spezifikation des Protokolls wurde nicht versucht, alle möglichen Einsatzfelder für das Protokoll in die Spezifikation zu integrieren. Über Erweiterungs-Header kann das Protokoll erweitert werden. Aufbau des IPv6-Basis-Headers Im IPv6 wird im Vergleich zum IPv4 auf eine Checksumme verzichtet, um den Routern die aufwendige Überprüfung - und damit Rechenzeit - zu ersparen. Ein Übertragungsfehler muss deshalb in den höheren Schichten erkannt werden. Der Paketkopf ist durch die Verschlankung nur doppelt so groß, wie ein IPv4-Header. Version: Mit dem Feld Version können Router überprüfen, um welche Version des Protokolls es sich handelt. Für ein IPv6-Datengramm ist dieses Feld immer 6 und für ein IPv4Datengramm dementsprechend immer 4. Mit diesem Feld ist es möglich für eine lange Zeit die unterschiedlichen Protokollversionen IPv4 und IPv6 nebeneinander zu verwenden. Über die Prüfung des Feldes Version können die Daten an das jeweils richtige "Verarbeitungsprogramm" weitergeleitet werden. Priority: Durch das Feld Priority (oder Traffic Class) kann angegeben werden, ob ein Paket bevorzugt behandelt werden muß. Dies ist für die Anpassung des Protokolls an die neuen Real Time Anwendungen nötig geworden. Damit können zum Beispiel Videodaten den E-Maildaten vorgezogen werden. Bei einem Router unter Last besteht damit die Möglichkeit der Flusskontrolle. Pakete mit kleinerer Priorität werden verworfen und müssen wiederholt werden.Mit den vier Bit lassen sich 16 Prioritäten angeben, wovon 1 bis 7 für "Non Real Time"- und 8 bis 15 für "Real Time"Anwendungen reserviert sind. Die Zahl Null gibt an, dass die Priorität des Verkehrs nicht charakterisiert ist. Flow Label Mit Hilfe des Feldes Flow Label können Eigenschaften des Datenflusses zwischen Sender und Empfänger definiert werden. Das Flow Label selbst ist nur eine Zufallszahl. Die Eigenschaften müssen durch spezielle Protokolle oder durch den Hop-by-Hop-Header in den Routern eingestellt werden. Eine Anwendung ist zum Beispiel, daß die Pakete eines Flusses immer den gleichen Weg im Netz nehmen. Durch Speichern der Informationen für das jeweilige Flow-Label, muß der Router bestimmte Berechnungen nur für das erste Paket ausführen, und kann danach für alle Folgepakete die Resultate verwenden. Erst die Einführung des Flow Labels ermöglicht die Einführung von Quality-of-Service-Parametern im IP-Verkehr. Payload Length Das Feld Payload Length (Nutzdatenlänge) gibt an, wie viele Bytes dem IPv6-BasisHeader folgen, der IPv6-Basis-Header ist ausgeschlossen. Die Erweiterungs-Header werden bei der Berechnung der Nutzdatenlänge mit einbezogen. Das entsprechende Feld wird in der Protokollversion 4 mit Total Length bezeichnet. Allerdings bezieht IPv4 den 20 Byte großen Header auch in die Berechnung ein, wodurch die Bezeichnung "total length" gerechtfertigt ist. Next Header Das Feld Next Header gibt an, welcher Erweiterungs-Header dem IPv6-Basis-Header folgt. Jeder folgende Erweiterungs-Header beinhaltet ebenfalls ein Feld Next Header, das auf den nachfolgenden Header verweist. Beim letzten IPv6-Header, gibt das Feld an, welches Transportprotokoll (z.B. TCP oder UDP) folgt. Hop Limit Im Feld Hop Limit wird festgelegt, wie lange ein Paket überleben darf. Der Wert des Feldes wird von jedem Router vermindert. Ein Datengramm wird verworfen, wenn das Feld den Wert Null hat. IPv4 verwendete hierzu das Feld Time to Live. Die Bezeichnung bringt mehr Klarheit, da schon in IPv4 die Anzahl Hops gezählt und nicht die Zeit gemessen wurde. Source Address, Destination Address Die beiden Felder für Quell- und Zieladresse dienen zur Identifizierung des Senders und Empfängers eines IP-Datengramms. Bei IPv6 sind die Adressen vier mal so groß wie IPv4: 128 Bit statt 32 Bit. Das Feld Length (Internet Header Length - IHL) von IPv4 ist nicht mehr vorhanden, da der IPv6-Basis-Header eine feste Länge von 40 Byte hat. Das Feld Protocol wird durch das Feld Next Header ersetzt. Alle Felder die bisher zur Fragmentierung eines IP-Datengramms benötigt wurden (Identification, Flags, Fragment Offset), sind im IPv6-Basis-Header nicht mehr vorhanden, da die Fragmentierung in IPv6 gegenüber IPv4 anders gehandhabt wird. Alle IPv6-kompatiblen Hosts und Router müssen Pakete mit einer Größe von 1280 Byte unterstützen. Empfängt ein Router ein zu großes Paket, so führt er keine Fragmentierung mehr durch, sondern sendet eine Nachricht an den Absender des Pakets zurück, in der er den sendenden Host anweist, alle weiteren Pakete zu diesem Ziel aufzuteilen. Es wird also vom Hosts erwartet, daß er von vornherein eine passende Paketgröße wählt. Die Steuerung der Fragmentierung erfolgt bei IPv6 über den Fragment Header. Das Feld Checksum ist nicht mehr vorhanden. Erweiterungs-Header im IPv6 Bei IPv6 muß nicht mehr der ganze optionale Teil des Headers von allen Routern verarbeitet werden, womit wiederum Rechenzeit eingespart werden kann. Diese optionalen Header werden miteinander verkettet. Jeder optionale Header beinhaltet die Identifikation des folgenden Header. Es besteht auch die Möglichkeit selber Optionen zu definieren. Derzeit sind sechs Erweiterungs-Header definiert. Alle Erweiterungs-Header sind optional. Werden mehrere Erweiterungs-Header verwendet, so ist es erforderlich, sie in einer festen Reihenfolge anzugeben. Header Beschreibung IPv6-Basis-Header Zwingend erforderlicher IPv6-Basis-Header Optionen für Teilstrecken (Hop-by-Hop Options Header) Dies ist der einzige optionale Header, der von jedem Router bearbeitet werden muß. Bis jetzt ist nur die "Jumbo Payload Option" definiert, in der die Länge eines Paketes angegeben werden kann, das länger als 64 KByte ist. Optionen für Ziele (Destination Options Header) Zusätzliche Informationen für das Ziel Routing (Routing Header) Definition einer vollständigen oder teilweisen Route. Er wird für das Source-Routing in IPv6 verwendet. Fragmentierung (Fragment Header) In IPv6 wird, wie oben beschrieben, die Fragmentierung nur noch End to End gemacht. Die Fragmentierinformationen werden in diesem optionalen Header abgelegt. Authentifikation (Authentication Header) Er dient der digitalen Signatur von Paketen, um die Quelle eindeutig feststellen zu können. Verschlüsselte Sicherheitsdaten (Encapsulating Security Payload Header) Informationen über den verschlüsselten Inhalt. Optionen für Ziele (Destination Options Header) Zusätzliche Informationen für das Ziel (für Optionen, die nur vom endgültigen Ziel des Paketes verarbeitet werden müssen). Header der höheren Header der höheren Protokollschichten (TCP, UDP, Schichten ...) (Upper Layer Header) IPv6-Adressen Die IPv6-Adressen sind zwar von 32 Bit auf 128 Bit angewachsen, trotzdem sind die grundsätzlichen Konzepte gleich geblieben. Die Adresse wird normalerweise Sedezimal (Hexadezimal, Basis 16) notiert und hat die allgemeine Form xxxx:xxxx:xxxx:xxxx:xxxx:xxxx:xxxx:xxxx Sie ist damit recht länglich. Um die Schreibweise zu vereinfachen, wurden einige Regeln eingeführt: Führende Nullen Die führenden Nullen können mit Nullen oder Doppelpunkten zusammengefasst werden. 1234:0000:0000:0000:0000:0000:0000:1234 --> 1234:0:0:0:0:0:0:1234 --> 1234::1234 IPv4 kompatible Adressen haben die Form: 0:0:0:0:0:0:C206:AFFE oder ::C206:AFFE Um die Lesbarkeit zu erhöhen kann man auch eine gemischt Form verwenden: ::194.6.161.126 IPv4 gemappte IPv6 Adressen haben die Form: ::FFFF:C206:A17E Die Loopback Adresse ist neu (anstelle 127.0.0.1): ::1 In IPv4 wurden die Adressen anfänglich in die bekannten Klassen eingeteilt. Ein weiteres Problem bei den IPv4 Adressen ist, daß die Router keine Hierarchie in den Adressen erkennen können. Auch IPv6 ist in der allgemeinen Form unstrukturiert, es kann aber durch definierte Präfixe strukturiert werden. Die allgemein strukturiert Adresse sieht danach wie folgt aus: Die Strukturierung erlaubt die Einteilung der Adresse in Adresstypen. Jeder Präfix identifiziert somit einen Adresstyp. Die bereits definierten Adresstypen und die zugehörigen Präfixe sind: Adresstyp Reserviert für IPv4 und Loopback Präfix (binär) 0000 0000 NSAP-Adressen 0000 001 IPX-Adressen 0000 010 Anbieterbasierte Unicast-Adresse 010 Reserviert für geografische Unicast-Adresse 100 Zusammenfassbare globale Adressen 001 Standortlokale Adresse Multicast-Adresse 1111 1110 11 1111 1111 Wie man in der Tabelle erkennen kann, werden die Adressen grob in die Typen Unicast, Multicast und Anycast eingeteilt, deren Eigenschaften nachfolgend kurz erklärt werden sollen. Unicast Als Unicast-Adressen bezeichnet man die Adressen, die für Punkt-zu-PunktVerbindungen verwendet werden. Sie werden in verschiedene Gruppen eingeteilt: o Geographisch basierte Unicast-Adresse Für diese Adressen wurde erst der Adressbereich und der Präfix reserviert. Die Idee ist, dass ein hierarchisches Routing aufgrund der geographischen Lage ähnlich wie beim Telefon - möglich sein soll. o Anbieterbasierte Unicast-Adressen Dieser Adresstyp erlaubt ein hierarchisches Routing aufgrund der Adressräume der Anbieter. Diese Adressen werden von einem Register über ein großes Gebiet verwaltet. Diese Register geben die Adressen an die Anbieter weiter, welche ihrerseits Adressen weitergeben können. Somit ergibt sich eine AdressStruktur, die wie folgt aussieht: Die Einführung von nationalen Registern ergibt eine Aufteilung der Anbieterund Subscriber-ID in National-Register-, Anbieter- und Subscriber-ID. Linklokale und standortlokale Adressen Diese Adressen werden für die TCP/IP-Dienste innerhalb eines Unternehmens genutzt. Die Linklokalen Adressen werden nicht in das Internet geroutet und haben den folgenden Aufbau: Im Gegensatz dazu stehen die standortlokalen Adressen, die nur innerhalb eines Subnetzes gültig sind und deshalb von keinem Router behandelt werden. Multicast-Adressen In IPv4 wird das Rundsenden eines Paketes an mehrere Stationen durch das IGMP (Internet Group Management Protokoll) realisiert. In IPv6 ist das Prinzip übernommen, aber ein eigener Adresstyp definiert worden. IGMP entfällt somit gänzlich. Das Paket für Multicast-Meldungen sieht wie folgt aus: Das Flag gibt an, ob die Gruppen ID temporär, oder von der IANA zugewiesen ist. Der Scope gibt den Gültigkeitsbereich der Multicast Adresse an. Dieser reicht vom nodelokalen bis zum globalen Bereich. Anycast Adressen Diese Adressen sind neu definiert worden. es können mehrere Rechner zu einer Gruppe zusammengefasst werden und sie sind dann unter einer einzigen Adresse erreichbar. Damit ist beispielsweise eine Lastverteilung möglich: der Rechner, der am wenigsten belastet ist, behandelt das Paket. Die Adresse hat die folgende Struktur: Sicherheit Der Bedarf an digitalen Unterschriften oder elektronischen Zahlungsmöglichkeiten steigt ständig. Deshalb stand bei der Spezifikation von IPv6 die Sicherheit von Anfang an im Mittelpunkt. Für die Sicherheitsfunktionen von IPv6 ist eine spezielle Arbeitsgruppe "IPSec" zuständig. In IPv6 wurden Sicherheitsmechanismen für die Authentisierung und Verschlüsselung auf IP Ebene spezifiziert. Die Verschlüsselungsfunktionen definieren Verfahren, die das Mitlesen durch Unbefugte verhindern. Es gibt zwei unterschiedliche Ansätze. Bei der ersten Variante werden alle Nutzdaten (Payload) verschlüsselt. Der Header bleibt normal lesbar. Bei der anderen Variante ist es möglich, den Header ebenfalls zu verschlüsseln. Das codierte Paket wird in ein anderes IPv6-Packet verpackt und zu einem fixen Ziel befördert ("IP-Tunnel"). Am Ziel wird das Paket wieder entschlüsselt und über das sichere interne Netz übertragen. Authentisierungsmechanismen liefern den Beweis auf Unverfälschtheit der Nachricht und identifiziert den Absender (Digitale Unterschrift). Hier werden verschiedene kryptographische Verfahren eingesetzt. Die Verfahren für die Verschlüsselung und die Authentisierung können auch getrennt angewandt werden. Verwaltung und Verteilung der Schlüssel wird nicht von IPv6 gelöst. Das Standardverfahren für den IPv6-Authentisierungsmechanismus ist MD5 mit 128 Bit langen Schlüsseln. IPv6 schreibt keinen Verschlüsselungsmechanismus vor, jedes System im Internet muß jedoch den DES mit CBD (Cipher Block Chaining) unterstützen. Domain Name System (DNS) Es hat sich ziemlich früh herausgestellt, daß menschliche Benutzer die numerischen IPAdressen nicht benutzen wollen, sondern aussagekräftige und vor allem merkbare Namen bevorzugen. Außerdem ist es ein großer Nachteil der IP- Adressen, daß aus ihnen keinerlei geographische Information zu entnehmen ist. Man sieht einer Zieladresse nicht an, ob sie in Australien oder im Nebenzimmer lokalisiert ist, außer man kennt zufällig die gewählten Zahlen. Es wurde daher das Domain Name System entwickelt, das den Aufbau von Rechnernamen regelt. Es ordnet jedem (weltweit eindeutigen) Namen eine IP-Adresse zu. Dabei gibt es einige Varianten. Eine Maschine mit einer IP-Adresse kann mehrere Funktionen haben und daher auch mehrere Namen, die auf diese Funktionen hinweisen. Genauso kann eine Maschine (z. B. ein Router) viele IP-Adressen haben aber nur einen Namen. Beim "Domain-Name-System" (oder kurz: DNS) handelt es sich um einen Dienst, der zu einem Rechnernamen die zugehörige IP-Nummer liefert und umgekehrt. Das ist in etwa mit der Funktionsweise einer Telefonauskunft vergleichbar: Der Kunde ruft bei einer bestimmten Telefonnummer an und fragt nach der Rufnummer eines Teilnehmers. Nachdem er Name und Wohnort der gesuchten Person durchgegeben hat, erhält er als Antwort die gewünschte Nummer aus einem Verzeichnis. Genauso läuft eine DNS-Abfrage ab. Gibt ein Benutzer in seinem Webbrowser zum Beispiel die Adresse http://www.VereinGegenZuLangeDomainnamenEV.de ein, dann sorgt ein Teil der Netzwerk-Software auf seinem lokalen Rechner dafür, daß ein Name-Server nach der IP-Adresse des Rechners www.vereingegenzulangedomainnamenev.de gefragt wird. Dieser Softwareteil wird als Resolver bezeichnet und entspricht in obigem Beispiel dem Kunden, der die Auskunft anruft. Welche IP-Adresse dieser Server hat, muß dem Klientenrechner natürlich bekannt sein, genauso wie der Kunde eine einzige Telefonnummer wissen muß, nämlich die der Auskunft selbst. Auf der Serverseite arbeitet eine Software, die als "Domain-Name-Server" oder kurz "Name-Server" bezeichnet wird und anhand einer Datenbank ("Zone-File") die passende IPNummer zum Rechnernamen liefert, oder einen anderen Name-Server fragt, wenn die Adresse unbekannt ist. DNS ist ein typisches Beispiel für einen Verzeichnisdienst. Seine Aufgaben sind: Strukturierung der Namen. (Domänen-Konzept) Zuteilung und Verwaltung von Namen. Auflösen von Namen (="Nachschlagen") in beide Richtungen (Name zu Adresse und Adresse zu Name) Zwischenspeichern von Adressen (Caching) Einteilung der Daten in hierarchische Ebenen Verteilung der Daten auf verschiedene Knoten Bereitstellung von Redundanz (Secondary-DNS, Caching-Only-Server) Damit das DNS funktioniert muß es Instanzen geben, die Namen in IP-Adressen und IPAdressen in Namen umwandeln ('auflösen') können. Diese Instanzen sind durch Programme realisiert, die an größeren Maschinen ständig (meist im Hintergrund) im Betrieb sind und 'Nameserver' heißen. Jeder Rechner, der an das Internet angeschlossen wird, muß die Adresse eines oder mehrerer Nameserver wissen, damit die Anwendungen auf diesem Rechner mit Namen benutzt werden können. Die Nameserver sind für bestimmte Bereiche, sogenannte 'domains' oder 'Zonen', zuständig (Institute, Organisationen, Regionen) und haben Kontakt zu anderen Nameservern, so daß jeder Name aufgelöst werden kann. Domänen-Konzept In den Anfängen des ARPA-Nets, aus dem das Internet entstand, wurde die Namensauflösung über eine einzige Datei erledigt. Jeder Rechner kopierte sich Nachts per FTP diese Datei von einem Master-Server auf die lokale Platte. Dieses Konzept funktioniert natürlich nur, solange die Anzahl der Namen nicht groß ist. Die benötigte Bandbreite ist proportinal zum Quadrat der beteiligten Rechner. B ~ N2 Als Relikt aus dieser Zeit kennt fast jedes Betriebssystem auch heute noch eine Hosts-Datei, in der für kleine Netze Rechner/Nummern-Zuordnungen abgelegt werden könen. (Bei Windows im Verzeichnis \WINDOWS\HOSTS, bei Unix unter /etc/hosts, bei Novell unter SYS:SYSTEM/ETC/HOSTS, etc.) Die Syntax aller dieser Hosts-Dateien ist einfach. Für jeden Rechner gibt es eine eigene Zeile mit dem Inhalt: IP-Nummer Hostname Alias Alias .... Zum Beispiel: 192.168.112.1 192.168.112.2 192.168.112.3 192.168.112.4 192.168.112.5 192.168.112.6 192.168.112.7 192.168.112.7 192.168.112.8 chef dumpfbacke Snow-White Doc Happy Bashful Sneezy Sleepy Grumpy Dopey Der Begriff Alias läßt sich dabei am besten durch "Spitzname" (oder englisch Nickname) ersetzen; also ein weiterer Name für ein und den selben Rechner. Bei einer kleinen Menge von Rechnern ist die Namensverwaltung mit einer Datei noch möglich; für einen so großen und ständig wechselnden Verbund wie das Internet ist sie aber nicht geeignet. Hier ist eine dezentrale Verwaltung mit einem eigens darauf abgestimmten Namensraum nötig. Der Namensraum des DNS ist in sogenannte Domänen eingeteilt. Die Domänen sind hierarchisch als Baum angeordnet, Ausgehend von der Wurzel (=Root) des Baumes ist der Namensraum in sogenannte "Toplevel-Domains" eingeteilt. Man unterscheidet dabei zwischen zwei verschiedenen Klassen von Toplevel-Domänen: Den generischen und den länderspezifischen. Toplevel-Domänen generisch com Kommerzielle Organisationen edu (education) Schulen und Hochschulen gov (government) Regierungsinstitutionen mil militärische Einrichtungen net Netzwerk betreffende Organisationen org Nichtkommerzielle Organisationen int Internationale Organisationen arpa und das alte ARPA-Net bzw. RückwärtsAuflösung von Adressen Ende 2000 sind neue TLDs von der ICANN genehmigt worden: aero Luftfahrtindustrie coop Firmen-Kooperationen museum Museen pro Ärzte, Rechtsanwälte und andere Freiberufler biz Business (frei für alle) info Informationsanbieter (frei für alle) name Private Homepages (frei für alle, aber nur dreistufige Domains der Form <Vorname>.<Name>.name) länderspezifisch Jeweils ein Länderkürzel für jedes Land, z.B.: by Weissrussland de Deutschland at Östereich fr Frankreich to Tonga tv Tuvalu Unterhalb der Toplevel-Domänen folgen Subdomänen, die wiederum Domänen enthalten könen und schliesslich, als Blatt des Baumes, ein einzelner Rechner. Der Name www.netzmafia.de ist also so zu verstehen. In der Toplevel-Domäne ".de" ist die Subdomain "Netzmafia" bekannt. Innerhalb der Subdomain "netzmafia" gibt es einen Rechner namens "www". Analog zu unserem Beispiel mit der Telefonauskunft, ist mit "de" das Land, mit "netzmafia" der Ort und die Straße und mit "www" der Name eines Teilnehmers bestimmt. Die komplette Adresse eines Rechners in der beschriebenen Notation, z.B. bezeichnet man (www.netzmafia.de) als FQDN (Full-Qualified-Domain-Name). Für die Aufnahme einer Verbindung zwischen zwei Rechnern muß in jedem Fall der Rechnername in eine zugehörige IP- Adresse umgewandelt werden. Aus Sicherheitsaspekten ist es manchmal wünschenswert, auch den umgekehrten Weg zu gehen, nämlich zu einer sich meldenden Adresse den Namen und damit die organisatorische Zugehörigkeit offenzulegen. Komponenten des DNS Insgesamt sind es drei Hauptkomponenten, aus denen sich das DNS zusammensetzt: 1. Der Domain Name Space, ein baumartig, hierarchisch strukturierter Namensraum und die Resource Records. Das sind Datensätze, die den Knoten zugeordnet sind. 2. Name Server sind Programme bzw. Rechner, die die Informationen über die Struktur des Domain Name Space verwalten und aktualisieren. EinNameserver hat normalerweise nur eine Teilsicht des Domain Name Space zu verwalten. Oft wird auch der Rechner, auf dem das Nameserverprogramm läuft, als 'Nameserver' oder 'DNS-Server' bezeichnet. 3. Resolver sind die Programme, die für den Client Anfragen an den Nameserver stellen. Resolver sind einemNameserver zugeordnet; bei Anfragen, die er nicht beantworten kann (anderer Teilbereich des Domain Name Space). kann er aufgrund von Referenzen andere Nameserver kontakten, um die Information zu erhalten. Der Nameserver des DNS verwaltet also einzelne Zonen, die einen Knoten im DNS-Baum und alle darunterliegenden Zweige beinhalten. Auf jeder Ebene des DNS-Baums kann es Namesever geben, wobei jeder Nameserver seinen nächsthöheren und nächstniedrigeren Nachbarn kennt. Aus Sicherheitsgründen gibt es für jede Zone in der Regel mindestens zwei Nameserver (primary und secondary), wobei beide die gleiche Information halten. Nameservereinträge können nicht nur die Zuordnung Rechnername - IP-Adresse enthalten, sondern (neben anderem) auch weitere Namenseinträge für einen einzigen Rechner und Angaben für Postverwaltungsrechner einer Domain (MX, mail exchange). Basis des Nameservice bilden die "Root-Nameserver", die für die Top-Level-Domains zuständig sind. Federführende Organistation ist hier die ICANN (=Internet Corporation for Assigned Names and Numbers , Adresse: http://www.icann.org). Gründung 1998. ICANN beauftragt die Verwalter der Zone "." (Wurzel des DNS-Baumes) mit 13 Servern. Bis auf die Server I (Stockholm), K (London) und M (Tokio) stehen alle Server in den USA. Name Typ Betreiber URL a com InterNic http://www.internic.org b edu ISI http://www.isi.edu c com PSINet http://www.psi.net d edu UMD http://www.umd.edu e usg NASA http://www.nasa.gov f com ISC http://www.isc.org g usg DISA http://nic.mil h usg ARL http://www.arl.mil i int NordUnet http://www.nordu.net j ( ) (TBD) http://www.iana.org k int RIPE http://www.ripe.net l ( ) (TBD) http://www.iana.org m int WIDE http://www.wide.ad.jp Der Server A ist der primäre Server, alle anderen sind seine Secondaries. Eine Liste dieser Root-Server muss jeder DNS-Server haben (Ausnahme: Cache-Only-Server). Erzeugung der Liste mit dem Kommando: dig @rs.internic.net . ns > root.servers Die Namen, die im Internet verwendet werden müssen dabei einige Spezifikationen erfüllen: Die Länge eines Namensteiles (Domänen- oder Rechnername) darf maximal 63 Zeichen betragen. Die Gesamtlänge des Full-Qualified-Domain-Names darf 255 Zeichen nicht überschreiten. Nur Buchstaben, Ziffern und "-" sind in den Namen zugelassen. Dabei muss jeder Name mit einem Buchstaben oder einer Ziffer beginnen und enden. ("3bla-fasel" ist zulässig, "3bla-" aber nicht.) Zwischen Groß- und Kleinschreibung wird nicht unterschieden. Bei der Registrierung einer Domain unterhalb von ".de" gelten zusätzlich noch folgende Regeln: Der Domainname muß mindestens 3 Zeichen haben. Insgesamt gibt es in ".de" noch 4 Domains mit nur 2 Buchstaben, die aus Besitzstands-Gründen beibehalten werden. Wegen eines weit verbreiteten Fehlers in der Named-Server-Software sind Domains mit den gleichen Namen wie Toplevel-Einträge verboten. (Also z.B.: "at.de") Das ist in RFC 1535 näher beschrieben. KFZ-Kennzeichen können nicht registriert werden. Ein wichtiger Bestandteil des DNS-Konzeptes ist die Aufteilung der benötigten Datenbank auf viele verschiedene Rechner. Da das Gesamtsystem voll funktionsfähig bleiben muß, auch wenn ein Server ausgefallen ist, wird die Datenhaltung mit Hilfe von Zuständigkeiten gelöst: Zu jeder Domain gibt es mindestens einen zugehörigen Server, der verantwortlich die darin enthaltenen Subdomains oder Rechner verwaltet, oder die Verwaltung an einen weiteren Server weiterdelegiert. Am Stamm des DNS-Baumes sitzen dazu die "Root-Server", die alle Einträge ihrer jeweiligen Domain kennen. Das heißt, daß der Root-Nameserver der Domäne ".de" einen Eintrag für den Named-Server der Domain "netzmafia.de" besitzt. Dieser Server hat wieder eine Liste der in "netzmafia.de" enthaltenen Rechner und Subdomains. Die Frage eines Clients nach der IP-Nummern eines Rechners wird wie folgt abgewickelt: 1. Der Client-Rechner "grumpy.zwerge.org" stellt die DNS-Anfrage nach "www.netzmafia.de" an seinen zuständigen DNS-Server. Dessen IP-Nummer muss dem Client bekannt sein. 2. Kennt der Nameserver der Domain "zwerge.org" die Antwort nicht, so erkundigt er sich beim Root-Nameserver nach der Adresse des Nameservers von ".de" 3. Der Root-Nameserver antwortet dem zuständigen DNS-Server der Domain "zwerge.org" mit der Adresse des Nameservers von ".de" 4. Der Nameserver der Domain "zwerge.org" erkundigt sich beim Nameserver von ".de" nach der Adresse des Nameservers von "netzmafia.de". 5. Der Nameserver von ".de" antwortet dem zuständigen DNS-Server der Domain "zwerge.org" mit der Adresse des Nameservers von "netzmafia.de" 6. Der Nameserver der Domain "zwerge.org" erkundigt sich beim Nameserver von "netzmafia.de" nach der Adresse des Rechners "www.netzmafia.de". 7. Der Nameserver von "netzmafia.de" antwortet dem zuständigen DNS-Server der Domain "zwerge.org" mit der Adresse des Rechners von "www.netzmafia.de". 8. Der DNS-Server von "zwerge.org" liefert die IP-Nummer an den anfragenden Client. Damit ist die DNS-Abfrage abgehandelt. DNS-Typen Man unterscheidet folgende DNS-Typen Cache-Only o Besitzt keine eigenen Tabellen mit Rechnernamen (Zone-Files). o Alle Anfragen werden an einen übergeordneten Server weitergegeben. o Adressen werden zwischengespeichert. o Zweck: Z.B. Entlastung einer Providerleitung o Sehr einfach einzurichten. Secondary-DNS o Besitzt eigene Tabellen, die er vom Primary-DNS kopiert. o Die Tabellen können aber nicht verändert werden. o Zweck: Lastteilung, Backup o Einfach einzurichten. Primary-DNS o Besitzt eigene Tabellen für eine oder mehrere Zonen. o Tabellen können lokal verändert werden. o Server ist "authoritative" für seine Zone. o Relativ hoher Aufwand für Einrichtung und Pflege. DNS Resource Records Im Standardfall generiert ein DNS-Server seine interne Datenbank aus einer Textdatei, der sogenannten "Zonen-Datei". Damit er funktioniert, müssen bestimmte Einträge korrekt eingetragen worden sein. An dieser Stelle sollen nur ein paar grundlegende Eigenschaften der wichtigsten Typen von Resource Records betrachtet werden. Es gibt verschiedene RecordTypen: SOA-Records (Source of Authority) enthalten die technischen Angaben für die gesamte Zone sowie einige Steuerdaten für die Zusammenarbeit der Nameserver untereinander. SOA-Records sind weiter unten genauer erklärt. NS-Records (Name Server) verweisen auf die Nameserver, die für eine Zone authoritativ sind. Auf den eigenen Namen zeigende NS-Records dienen der Plausibilitätsprüfung; NS-Records für eine Subdomain weisen darauf hin, dass die Informationen für die Subdomain auf einem anderen Nameserver zu finden sind (Delegation). A-Records (Address) verknüpfen einen Domainnamen mit einer IP-Adresse. Um IPv4- und IPv6-Adressen zu unterscheiden, wird seit einiger Zeit für IPv4 der ARecord und für IPv6 der AAAA-Record verwendet. PTR-Records (Pointer) verknüpfen eine IP-Adresse "rückwärts" mit einem Domainnamen. CNAME-Records Canonical Name) definieren einen Domainnamen als Alias für einen anderen. Es gibt also für jedes System einen A-Record und ggf. noch beliebig viele CNAME-Records. MX-Records (Mail Exchanger) definieren, bei welchen Rechnern Mail für eine Domain eingeliefert werden soll. Auf diese Weise sind geneische Mailadressen wie z.B. "[email protected]" möglich. TXT-Records (Text) enthalten beliebige alphanumerische Informationen zu einem Domainnamen. Aufbau der Zonendatei Beispiel des Primary DNS "aella.serverzwerge.de": ; Zonendatei fuer die Domaene serverzwerge.de ; $TTL 1D @ in SOA aella.serverzwerge.de. dnsadmin.aella.serverzwerge.de. ( 2002051505 ; Seriennummer 10800 ; Refresh : 3 Stunden 3600 ; Retry : 1 Stunde 604800 ; Expire : 1 Woche 86400) ; Min. TTL: 1 Tag NS aella.serverzwerge.de. MX 10 aella.serverzwerge.de. MX 50 mail.irgendeinprovider.de. aella snowwhite doc happy bashful sneezy sleepy grumpy dopey A A A A A A A A A HINFO 10.23.200.100 10.23.200.17 10.23.200.18 10.23.200.19 10.23.200.20 10.23.200.21 10.23.200.22 10.23.200.23 10.23.200.24 "Hexium 7.5" "Linux" beispiel CNAME aella Der SOA-Record Jede Zone muss einen SOA-Record (Start of Authority) enthalten. Dort sind wichtige Informationen über die Zone abgelegt. Hier ein Beispiel: $TTL 1D @ in SOA aella.serverzwerge.de. dnsadmin.aella.serverzwerge.de. ( 2002051505 ; Seriennummer 10800 ; Refresh : 3 Stunden 3600 ; Retry : 1 Stunde 604800 ; Expire : 1 Woche 86400) ; Min. TTL: 1 Tag Das Semikolon leitet Kommentare ein, die natürlich nicht vorhanden sein müssen. Das erste Feld im SOA-Record benennt den primary master server. Dies ist der Server, der die endgültige Autorität über den Inhalt der Zone ist. Dort ist das Zonefile selbst abgelegt. Das zweite Feld des SOA-Records nennt die Mailbox der für die Zone verantwortlichen Person. Das @-Zeichen der E-Mail-Adresse wird hier durch einen Punkt ersetzt. Links vom @ stehende Punkte müssen als \. notiert werden, um eine eindeutige Zuordnung für den Punkt zu erreichen, der für den @ steht. Die Seriennummer spielt eine wichtige Rolle im Zusammenspiel zwischen MasterDNS und Slave-DNS: Slaves führen nur dann einen Zonentransfer durch, wenn die vom Master übermittelte Seriennummer größer ist als die der lokal gehaltenen Zone. Sie wird meist nach dem Schema yyyymmddnn gebildet: yyyy = Jahr (4-stellig), mm = Monat (2-stellig), dd = Tag (2-stellig) und nn die Viertelstunde (2-stellig) des aktuellen Tags. Der Refresh-Wert legt fest, wie häufig ein Slave beim Master nachfragt, ob sich die Zone verändert hat. Der Retry-Wert legt fest, wie häufig ein Slave einen fehlgeschlagenen Zonentransfer wiederholt, bis er aufgibt. Der Expire-Wert legt fest, wie lange ein Slave seine Kopie einer Zone noch als gültig ansieht, wenn er den Master nicht erreichen kann. Der Minimum-TTL-Wert legt fest, wie lange eine negative Antwort vom Client zwischengespeichert werden darf. Er ist einer der beiden wichtigsten Timer in einer Zonendatei (TTL = Time To Live). Der Eintrag in der $TTL-Zeile oberhalb des SOA-Records legt fest, welche Lebensdauer die Resource Records des Zonefiles in den Caches nicht authoritativer Nameserver haben sollen. Um die Last auf den für eine Zone authoritativen Nameservern zu verringern, speichern die von den Internetbenutzern verwendeten Forwarder die Auskünfte, die sie von den authoritativen Nameservern erhalten haben, für eine bestimmte Zeit zwischen. Der für die Zone zuständige Administrator kann das Caching der Forwarder in manchen Grenzen beeinflussen. Wird eine Nameserver-Anfrage positiv beantwortet, übermittelt der authoritative Nameserver zusammen mit dem angefragten Resource Record die gewünschte Lebenszeit des Eintrags in Form der TTL. Ist im Zonefile für den Resource Record keine TTL angegeben, so übermittelt der authoritative Nameserver den mit $TTL im Zonefile gesetzten Defaultwert. Der Forwarder übermittelt die Antwort weiter an die Quelle der Anfrage und speichert die Antwort für die übermittelte Zeitdauer zwischen, so dass weitere Anfragen nach dem gleichen Resource Record innerhalb dieser Zeitdauer ohne erneuten Zugriff auf den authoritativen Server beantwortet werden können. Bevor man zeitkritische Änderungen an einer Zone vornimmt (z.B. Umzug eines Web- oder Mailservers auf eine andere IP-Adresse), ist zu empfehlen, zuerst einen oder beide TTLWerte herunterzusetzen. Dies sollte mindestens einen TTL-Zeitraum vor der eigentlichen Änderung geschehen, damit die kürzere TTL sich herumgesprochen hat. Nachdem die Änderung erfolgreich durchgeführt wurde, kann die TTL wieder heraufgesetzt werden. Der MX-Record Nimmt eine Domain am E-Mailverkehr teil, so wird einer oder mehrere MX-Records in die Zone eingetragen. MX-Records haben zusätzlich zu ihrem Ziel eine Prioritätsangabe. soll eine E-Mail an die Domain zugestellt werden, versucht der absendende Mailserver zuerst den MXRecord niedrigster Priorität. Kann er die E-Mail dort nicht ausliefern, versucht er der Reihe nach die MX-Records höherer Priorität. Gibt es für einen Domainnamen keinen MX-Record, sondern nur einen A-Record, wird die Mail an diesen zugestellt. Dieses Verhalten ist historisch bedingt und nicht mehr sinnvoll. Trotzdem wird es immer noch so gehandhabt. Soll eine Domain nicht am E-Mailverkehr teilnehmen, so ist es sinnvoll, einen MX-Record auf ein System zu setzen, das für den Domainnamen eingehende E-Mail mit einem permanenten Fehler ablehnt. Netzwerkkonfiguration am Beispiel Linux Eigentlich ist es egal, welches Betriebssysem als Beispiel genommen wird - die Netzkonfiguration ist in etwa immer gleich. Auch viele der unten erwähnten Dateien finden sich z. B. bei Windows. Linux dient deshalb als Beispiel, weil man hier nicht nur irgendwelche Fenster anklickt, sondern sehen kann, wie mit ein paar Kommandos das Netzwerkinterface eingebunden wird und welche Effekte auf welche Art und Weise erzielt werden. Die wichtigsten Dateien, Bezeichnungen und Anwendungen: /etc/HOSTNAME oder /etc/hostname /etc/hosts /etc/networks /etc/host.conf /etc/resolv.conf /etc/nsswitch.conf ifconfig route netstat ping traceroute Netzwerkkonfiguration läuft im Normalbetrieb immer automatisch beim Systemstart ab. InitScripts übernehmen die Konfiguration der Schnittstellen, das Anlegen der Routen und vieles mehr. Trotzdem ist das Wissen um die manuelle Konfiguration wichtig, erstens für Problemlösungen und zweitens, weil damit auf die Schnelle auch eine Umkonfiguration von Netzwerkkarten oder ein experimenteller Aufbau möglich ist. Auf den (Hardware-)Treiber des Netzwerk-Interface wird aus diesem Grund nicht eingegangen. Um festzustellen, ob überhaupt ein Treiber geladen wurde, genügt das Kommando dmesg | more das alle Boot-Meldungen auflistet. Darin findet man auch die Meldungen zur Netzwerkkarte, z.B.: ... 8139cp 10/100 PCI Ethernet driver v0.0.6 (Nov 19, 2001) 8139cp: pci dev 00:0f.0 (id 10ec:8139 rev 10) is not an 8139C+ compatible chip 8139cp: Try the "8139too" driver instead. 8139too Fast Ethernet driver 0.9.24 PCI: Found IRQ 9 for device 00:0f.0 eth0: RealTek RTL8139 Fast Ethernet at 0xe081af00, 00:00:e8:76:2f:ea, IRQ 9 eth0: Identified 8139 chip type 'RTL-8139A' ... Aus dieser Meldung ist auch die MAC-Adresse des Netzwerk-Interface ablesbar (im Beispiel: 00:00:e8:76:2f:ea). Im Folgenden werden die wichtigsten Konfigurationsdateien für das Netz besprochen, wobei viele der Dateien - eventuell leicht modifiziert oder mit ähnlichem Nanen - auch bei Windows zu finden sind. Bei Linux findet man diese Daten traditionsgemäß im Verzeichnis /etc. Setzen des Hostnamens Die Netzwerksoftware verläßen sich darauf, daß der Name der Maschine einen sinnvollen Wert hat. Er wird im Normalfall während des Boot-Vorgangs mit dem Befehl hostname gesetzt. Um den Hostnamen auf name zu setzen, geben Sie folgendes ein: hostname name Es ist üblich, nur den Host-Namen ohne jede Domain-Angabe zu verwenden. /etc/hosts In dieser Datei werden die Systeme des Netzwerks mit ihrem Systemnamen und die dazu gehörenden Internet-Adressen aufgelistet. Auch, wenn man im normalen Betrieb DNS einsetzt, sollte man einen Teil der Rechnernamen in /etc/hosts eintragen. Oft möchte man nämlich auch während des Bootens, wenn noch keine Netzwerkschnittstellen aktiv sind, symbolische Namen verwenden. Um sicherzustellen, daß alle Programme ausschließlich /etc/hosts verwenden, um die Adresse eines Systems zu suchen, müssen Sie ggf. die Datei /etc/nsswitch.conf editieren. Interessant ist die Zeile, die mit "hosts:" beginnt. Dort sollte "files dns" stehen, was bedeutet, daß erst in der lokalen Datei /etc/hosts nachgesehen und dann erst ein Nameserver kontaktiert wird. Typischerweise sieht die Datei im Ausschnitt so aus: # /etc/nsswitch.conf # ... hosts: files dns networks: files ... Auf diese Datei wird weiter unten noch genauer eingegangen. Die Datei hosts enthält einen Eintrag pro Zeile, bestehend aus der IP-Adresse, dem Hostnamen und einer optionalen Liste von Aliasen für den Hostnamen. Die Felder sind durch Leerzeichen oder Tabulatoren voneinander getrennt, und das Adreßfeld muß in Spalte eins beginnen. Ein Doppelkreuz (#) leitet immer einen Kommentar ein. Namen können entweder mit voller Domainangabe (Full Qualified Domain Name, FQDN) oder relativ zur lokalen Domain sein. So ist das System sowohl unter seinem offiziellen als auch unter dem kürzeren lokalen Namen bekannt. Man kann in der Datei auch die Namen und IP-Adressen beliebiger anderer Rechner eintragen. Immer notwendig ist der Eintrag für den Rechner selbst, "127.0.0.1 localhost", denn sonst funktionieren gewisse Dienste (z.B. lpd) nicht. Für alle folgenden Beispiele werden für die Rechnernamen Schneewittchen und die sieben Zwerge (in der englischen Fassung von Walt Disney) verwendet. Damit keine Kollision mit real existierenden Internet-Domains auftreten, kann man als Domainnamen beispielsweise "zwerge.local" nehmen. Als Netz verwenden wir das private B-Netz 172.20.y.x - und davon sogar nur ein C-Subnetz, 172.20.20.x. Das folgende Beispiel zeigt, wie die Datei /etc/hosts im Zwergenwald aussehen könnte. # # Hostdatei fuer Snowwhite and Friends # # IP FQDN 127.0.0.1 localhost # die Zwerge 10.27.210.17 10.27.210.18 snowwhite.zwerge.local doc.zwerge.local Aliase snowwhite doc 10.27.210.19 10.27.210.20 10.27.210.21 10.27.210.22 10.27.210.23 10.27.210.24 ... happy.zwerge.local bashful.zwerge.local sneezy.zwerge.local sleepy.zwerge.local grumpy.zwerge.local dopey.zwerge.local happy bashful sneezy sleepy grumpy dopey Nach der Internet-Adresse wird der "offizielle" Name des Systems angegeben, gefolgt von Alias-Namen für dieses System. Wird als Argument für ein Netzwerk-Kommando ein Name angegeben, so wird in dieser Datei die zugehörige Internet-Adresse ermittelt. Erst über die Adresse wird eine Verbindung zum Zielsystem aufgebaut. Die Datei /etc/hosts wird jedoch auch für den umgekehrten Vorgang benutzt. Mit einem IP-Datagram wird nur die InternetAdresse des sendenden Systems mitgeschickt. Soll nun der zugehörige Name ermittelt werden, so geschieht dies ebenfalls mittels dieser Datei. Das Resultat ist jedoch immer der "offizielle" Name des Systems. Deshalb ist darauf zu achten, daß stets dieser Name verwendet werden muß, wenn ein Rechnername in weiteren Konfigurationsdateien eingetragen wird. Jetzt wissen Sie auch, daß der Eintrag "127.0.0.1 www.microsoft.com" in der /etc/hosts beispielsweise zu komischen Effekten führen würde (welchen?). /etc/networks Genau wie für IP-Adressen möchte man manchmal auch symbolische Namen für Netzwerknummern verwenden. Aus diesem Grunde gibt es parallel zu /etc/hosts die Datei /etc/networks, die Netzwerknamen auf Netzwerknummern abbildet. Diese Datei wird nicht unbedingt benötigt. Im Zwergenwald würden z.B. folgende networks-Datei installiert: # /etc/networks zwergenwald 172.20.20.0 Beachten Sie, daß die Namen in networks nicht mit den Hostnamen in der Datei hosts übereinstimmen und kollidieren, da manche Programme ansonsten seltsame Resultate produzieren. /etc/protocols In dieser Datei sind die Protokollnamen und Protokollnummern der Transportprotokolle eingetragen, die das System unterstützt. Dank dieser Datei kann man in vielen Programmen den symbolischen Namen eines Protokolls anstelle der Nummer angeben. Jede Zeile der Datei enthält den Namen des Transportprotokolls, die Protokollnummer und den Aliasnamen des Protokolls, zum Beispiel: ip icmp igmp ggp ipencap tcp egp udp ... 0 1 2 3 4 6 8 17 IP ICMP IGMP GGP IP-ENCAP TCP EGP UDP # # # # # # # # internet protocol, pseudo protocol number internet control message protocol Internet Group Management gateway-gateway protocol IP encapsulated in IP transmission control protocol exterior gateway protocol user datagram protocol /etc/services In dieser Datei werden die Namen von Netzwerkdiensten sowie die zugehörigen Portnummern und Protokollnamen gespeichert Dank dieser Datei kann man in vielen Programmen den symbolischen Namen eines Dienstes anstelle der Nummer angeben. Beispiel: ... ftp ssh telnet smtp whois domain gopher finger www www ... 21 22 23 25 43 53 70 79 80 80 tcp tcp tcp tcp tcp tcp tcp tcp tcp udp /etc/nsswitch.conf Diese Datei wird auch als "Resolver-Bibliothek" bezeichnet. Der Begriff Resolver bezieht sich nicht auf ein spezielles Programm, sondern auf eine Sammlung von Funktionen, die bei Linux zur Standard-C-Bibliothek gehören. Ihre wichtigsten Routinen sind gethostbyname(2) und gethostbyaddr(2), die alle zu einem Namen gehörenden IP-Adressen zurückliefern und umgekehrt. über die Datei /etc/nsswitch.conf können Sie einstellen, ob Sie die gewünschten Informationen in /etc/hosts nachschlagen, DNS-Server befragen oder die hosts-Datenbank des Network Information Service (NIS) benutzen wollen. In der Datei /etc/nsswitch.conf kann der Systemadministrator eine Vielzahl verschiedener Datenbanken konfigurieren. Wir besprechen hier nur diejenigen Optionen, die sich auf die Auflösung von Host- und Netzwerk-IP-Adressen beziehen. Optionen in /etc/nsswitch.conf müssen in getrennten Zeilen erscheinen, wobei die Argumente durch Leerzeichen oder Tabulatorzeichen voneinander getrennt sein müssen. Ein Doppelkreuz (#) leitet einen Kommentar ein, der sich bis zum Zeilenende erstreckt. Jede Zeile beschreibt einen bestimmten Dienst, z.B. die Auflösung von Hostnamen. Das erste Feld jeder Zeile gibt den Namen der Datenbank an und endet mit einem Doppelpunkt. Der Rest jeder Zeile enthält Optionen, die die Art des Zugriffs auf die betreffende Datenbank regeln. Die folgenden Optionen sind verfügbar: dns Verwendet das Domain Name System (DNS) zur Auflösung der Adresse. Das macht allerdings nur Sinn bei der Auflösung von Hostadressen, nicht von Netzadressen. Der Mechanismus benutzt die Datei /etc/resolv.conf. files Durchsucht eine lokale Datei nach den Host- oder Netznamen und ihren zugehörigen IP-Adressen. Diese Option verwendet die traditionellen Dateien /etc/hosts und /etc/networks. nis oder nisplus Verwendet das Network Information System (NIS) zur Auflösung einer Host- oder Netzadresse. In der Reihenfolge, in der die Dienste angegeben sind, werden sie auch abgefragt, wenn ein Name aufgelöst werden soll. Anspruch genommen, in der sie aufgelistet sind. Diese Liste befindet sich in der Datei /etc/nsswitch.conf in dem Abschnitt, in dem die Beschreibung der Dienste erfolgt. Die Dienste werden von links nach rechts abgefragt, und die Suche wird standardmäßig beendet, wenn ein Wert (oder Name) erfolgreich aufgelöst wurde. Zum Beispiel: # /etc/nsswitch.conf # hosts: dns files networks: files Dieses Beispiel veranlaßt das System, Hosts zuerst im DNS zu suchen und wenn dort nichts gefunden wird, die Suche in der Datei /etc/hosts fortzusetzen. Um Netzwerknamen aufzulösen, wird ausschließlich die Datei /etc/networks benutzt. Sie können das Suchverhalten noch genauer kontrollieren, indem Sie zusätzlich Aktionen (action items) angeben, die festlegen, welche Aktion nach dem jeweils letzten Namensauflösungsversuch durchgeführt werden soll. Auf diese Erweiterungen wird an dieser Stelle nicht weiter eingegangen. /etc/resolv.conf Wenn Sie die Resolver-Bibliothek für die Verwendung von DNS konfigurieren, müssen Sie ihr auch mitteilen, welche Server sie benutzen soll. Dafür gibt es eine separate Datei namens /etc/resolv.conf. Fehlt diese Datei oder ist sie leer, nimmt der Resolver an, daß sich der NameServer auf Ihrem lokalen Host befindet. Um einen Name-Server auf Ihrem lokalen Host laufen zu lassen, müssen Sie ihn separat einrichten. Normalerweise verwendet man einen bereits vorhandenen Name-Server. Bei einer Dialup-Verbindung ins Internet wird für gewöhnlich der Name-Server des Providers in der Datei /etc/resolv.conf eintragen. Die wichtigste Option in /etc/resolv.conf ist daher nameserver, welche die Adresse eines Name-Servers angibt. Wenn Sie die Option mehrmals angeben, werden die Server in der angegebenen Reihenfolge verwendet. Deshalb sollten Sie unbedingt den zuverlässigsten Server an erster Stelle eintragen. Wenn Sie keinen Name-Server eintragen, nimmt der Resolver an, daß einer auf der lokalen Maschine läuft. Gegenwärtig werden bis zu drei nameserver-Einträge in /etc/resolv.conf unterstützt. Zwei weitere Befehle, domain und search, geben Domainnamen an, die der Resolver an einen Namen anhängt, wenn die zugehörige Adresse beim ersten Versuch nicht gefunden wird. Mit domain können Sie eine Default-Domain angeben, die immer dann angehängt werden soll, wenn ein Name nicht aufgelöst werden konnte. Wird dem Resolver z.B. der Name "sleepy" übergeben, findet dieser den Namen "sleepy." nicht im DNS, da es eine solche Top-LevelDomain nicht gibt. Wird "zwerge.local" als Standarddomäne angegeben, wiederholt der Resolver seine Anfrage und hängt diese Standarddomäne an den Hostnamen an. Die Abfrage nach "sleepy.zwerge.local" ist nun erfolgreich (natürlich nur, wenn es einen Nameserver gibt). Mit der Option search kann eine Suchliste angegeben werden, gewissermaßen eine Verallgemeinerung der domain-Anweisung. Während bei domain nur eine einzelne Domain angeben werden darf, akzeptiert search eine ganze Liste davon, deren Einträge alle der Reihe nach durchprobiert werden, bis ein gültiger DNS-Eintrag gefunden wird. Die einzelnen Namen der Liste müssen durch Leerzeichen oder Tabulatoren voneinander getrennt werden. Die Befehle search und domain schließen einander aus und dürfen höchstens einmal auftauchen. Wenn keiner der beiden Befehle angegeben ist, versucht der Resolver, die Default-Domain mit Hilfe der Systemfunktion getdomainname(2) aus dem lokalen Hostnamen zu raten. Hat der Hostname keinen Domain-Teil, wird als Default-Domain die Root-Domain (.) angenommen. Werfen Sie einen Blick auf die Datei resolv.conf des Zwergenwaldes: # /etc/resolv.conf # Unsere Domain domain zwerge.local # # Wir benutzen "doc" als zentralen Name-Server: nameserver 172.20.20.1 Wenn Sie in dieser Konfiguration die Adresse von "dopey" suchen, wird der Resolver erst versuchen, "dopey." nachzuschlagen, und wenn das fehlschlägt, "dopey.zwerge.local". Netzwerk-Konfiguration für IP Zur Konfiguration der Ethernet-Schnittstellen und Initialisierung der Routing-Tabelle sind zwei Befehle von besonderer Bedeutung, nämlich ifconfig (Interface-Konfiguration) und route. Schnittstellenkonfiguration mit dem ifconfig-Kommando Das Starten von TCP/IP erfolgt (unter Unix) durch Shell-Skripte, die je nach Unix-Derivat anders heißen und sich an ganz unterschiedlichen Stellen des jeweiligen Dateisystems befinden können (Bei Linux beispielsweise im Verzeichnis /etc/init.d. So unterschiedlich die Shell-Skripte auch sein mögen, die Initialisierung der Netzwerksoftware erfolgt in jedem Falle durch das ifconfig-Kommando. Hier wird auch die Initialisierung der Netzwerkschnittstellen vorgenommen. Dabei gibt es folgende Arten von Schnittstellen: das Loopback-Interface, Broadcast-Interfaces und Point-to-Point-Interfaces. Das Loopback-Interface ist eine spezielle Schnittstelle, die zum lokalen System zurückgeführt. Dies bedeutet, daß alle Daten, die durch das Loopback-Interface geschickt werden, wieder im lokalen System empfangen werden, Dieser Mechanismus erlaubt eine Kommunikation von lokalen Prozessen über TCP/IP und wird insbesondere von TCP/IPVerwaltungsprozessen, aber auch von anderen Diensten genutzt (so z.B. bei Datenbanken). Die Standard-Internet-Adresse der Loopback-Schnittstelle ist 127.0.0.1 und sollte, obwohl es theoretisch möglich ist, nicht verändert werden. ifconfig dient dazu, eine Schnittstelle für die Netzwerkschicht des Kernels sichtbar zu machen. Das beinhaltet die Zuweisung einer IP-Adresse und verschiedener anderer Parameter sowie die Aktivierung des Interface, damit der Kernel die IP-Pakete über diese Schnittstelle senden und empfangen kann. Die einfachste Art, es aufzurufen, ist: ifconfig <interface> <ip-addresse> netmask <maske> Der Befehl weist "interface" die Adresse "ip-adresse" zu und aktiviert es. Alle anderen Parameter werden auf Standardwerte gesetzt. Fehlt die Netzmaske (netmask <maske>), wird sie aus der Netzwerkklasse der Adresse abgeleitet; für ein Klasse-B-Netz wäre das 255.255.0.0. Oftmals besteht das Kommando aber zumindest auf der Netzmaske als Parameter. Später dazu mehr. Initialisiert wird das Loopback-Interface durch das Kommando: ifconfig lo 127.0.0.1 Sogenannte "Broadcast-Interfaces" sind die üblichen Schnittstellen zu lokalen Netzwerken, über die mehrere Systeme erreichbar sind, und über die Broadcasts, also Nachrichten an alle, verschickt werden. Es handelt sich dabei um Schnittstellen zu Ethernet und TokenRing. Neben der Internet-Adresse werden bei der Initiatisierung des Broadcast-Interfaces auch die Netzmaske und die Broadcast-Adresse angegeben: ifconfig eth0 192.168.0.1 netmask 255.255.255.0 broadcast 192.168.0.255 Neben den Broadcast-Schnittstellen gibt es noch die sogenannten Point-to-PointSchnittstellen. Sie sind dadurch gekennzeichnet, daß man nur über sie ein anderes System erreichen kann. Beispiele sind SLIP (Serial Line IP) und das Point-to-Point-Protokoll PPP, die Verbindungen über die serielle Schnittstelle oder per Modem/ISDN-Adapter WANVerbindungen zulassen. Die Initialisierung einer Point-to-Point-Schnittstelle hat z.B. die folgende Form: ifconfig ppp0 192.168.1.1 192.168.1.2 netmask 255.255.255.240 So eine PPP-Verbindung bildet ein eigenständiges Netzwerk. Sollen mehrere Verbindungen kombiniert werden, so muß eine Unterteilung in Subnetze erfolgen. Das heißt, daß eine entsprechende Netzmaske gewählt werden muß. ifconfig kennt eine ganze Reihe von Optionen. Der allgemeine Programmaufruf lautet: ifconfig interface [address [parameters]] interface ist der Name der zu konfigurierenden Schnittstelle, und address ist die IP-Adresse, die ihr zugewiesen werden soll. Sie kann entweder als dotted quad angegeben werden oder als Name, den ifconfig in /etc/hosts nachschlägt. Ein Aufruf nur mit dem Interface-Namen gibt die Konfiguration des Interface aus. Wird es ganz ohne Parameter aufgerufen, zeigt es alle bisher konfigurierten Schnittstellen an; die Option -a erzwingt zusätzlich die Anzeige der inaktiven. Beispiel: # ifconfig eth0 eth0 Link encap 10Mbps Ethernet HWaddr 00:00:C0:90:B3:42 inet addr 172.20.20.2 Bcast 172.20.20.255 Mask 255.255.255.0 UP BROADCAST RUNNING MTU 1500 Metric 0 RX packets 3136 errors 217 dropped 7 overrun 26 TX packets 1752 errors 25 dropped 0 overrun 0 MTU gibt die maximale Blockgröße an. Die Metrik wird von einigen Betriebssystemen verwendet, um die Kosten einer Route zu berechnen. Linux benutzt diesen Wert bisher nicht, definiert ihn aber trotzdem aus Gründen der Kompatibilität. Die Zeilen RX und TX zeigen an, wie viele Pakete empfangen (RX - receive) bzw. gesendet wurden (TX - transmit), wie viele Fehler dabei auftraten, wie viele Pakete verworfen wurden (dropped) und wie viele wegen eines überlaufs (overrun) verlorengingen. Ein überlauf beim Empfänger tritt dann auf, wenn Pakete schneller hereinkommen, als der Kernel die Interrupts bedienen kann. Die folgende Liste zeigt die Parameter, die ifconfig versteht; die Namen der zugehörigen Flags stehen in Klammern. Optionen, die eine bestimmte Eigenschaft des Interface aktivieren, können mit vorangestelltem Minuszeichen (-) auch benutzt werden, um ihn wieder auszuschalten. up Aktiviert ein Interface für die IP-Schicht des Kernels. Sie wird impliziert, wenn auf der Kommandozeile eine Adresse angegeben ist. Sie kann auch dazu benutzt werden, ein Interface zu reaktivieren, wenn es mit der down-Option temporär deaktiviert wurde. Entspricht den Flags UP und RUNNING. down Markiert eine Schnittstelle als inaktiv, d.h. unzugänglich für die Netzwerkschicht. Dadurch wird jeglicher IP-Transport durch die Schnittstelle unterbunden. Beachten Sie, daß dadurch automatisch alle Routing-Einträge gelöscht werden, die diese Schnittstelle verwenden. netmask Weist des Interface eine Subnetzmaske zu. Sie kann entweder als eine 32-Bit-Hexadezimalzahl (mit führender 0x) oder als dotted quad (Beispiel: 255.255.255.0) angegeben werden. Maske Wird für Punkt-zu-Punkt-Verbindungen benutzt, die nur zwei Hosts miteinander verbinden. Sie wird beispielsweise für die Konfiguration von SLIP- und PLIP-Schnittstellen pointopoint Adresse benötigt und teilt dem Kernel die IP-Adresse des anderen Systems mit. Falls eine Punkt-zu-Punkt-Adresse gesetzt wurde, zeigt ifconfig das POINTOPOINT-Flag an ("pointopoint" wird wirklich so geschrieben). broadcast metric mtu arp Adresse Wert Bytes Die Broadcast-Adresse wird normalerweise aus der Netzwerknummer gebildet, indem alle Bits des Hostanteils auf eins gesetzt werden. Einige IP-Implementierungen verwenden dagegen eine Broadcast-Adresse, bei der die Bits des Hostteils auf null gesetzt sind. Die Option broadcast dient dazu, Ihre Konfiguration an eine derartige Umgebung anzupassen. Wenn dem Interface eine Broadcast-Adresse zugeordnet wurde, gibt ifconfig das Flag BROADCAST aus. Dem Routing-Tabellen-Eintrag des Interface einen Metrikwert zuordnen. Dieser Wert wird beispielsweise vom Routing Information Protocol (RIP) berücksichtigt, wenn es Routing-Tabellen für Ihr Netz erstellt. Die Default-Metrik, die ifconfig einem Interface zuweist, ist 0. Wenn Sie das Routing in Ihrem Netz nicht mit RIP regeln, benötigen Sie diese Option nicht; aber auch sonst wird die Option selten benutzt. Setzen der Maximum Transmission Unit (MTU), d.h. die maximale Anzahl von Bytes, die das Interface in einer Transaktion behandeln kann. Für Ethernets liegt der Defaultwert bei 1500; für SLIP beträgt er 296. Kann nur für Broadcast-fähige Netz wie Ethernet verwendet werden. Ermöglicht die Benutzung von ARP zur Zuordnung von IP-Adressen zu physikalischen Adressen. Für Broadcast-Netze wird sie per Voreinstellung eingeschaltet. Ist ARP abgeschaltet, zeigt ifconfig das NOARP-Flag an. - arp schaltet ARP explizit aus. promisc Versetzt die Schnittstelle in den promiscous mode. Auf Broadcast-Netzen hat das zur Folge, daß die Schnittstelle alle Pakete unabhängig davon empfängt, ob sie für einen anderen Host bestimmt sind oder nicht. Dadurch kann man den Netzwerkverkehr mit Paketfiltern wie tcpdump analysieren. -promisc schaltet den Modus ab. allmulti Multicast-Adressen sind wie Ethernet-Broadcast-Adressen, mit der Einschränkung, daß sie nicht automatisch jeden möglichen Adressaten berücksichtigen, sondern nur solche, die ausdrücklich zum Empfang vorgesehen (programmiert) sind. Sie eignen sich besonders für Anwendungen wie Ethernet-basierte Videokonferenzen oder Audioübertragungen übers Netz, die nur an Interessierte gerichtet sind. -allmulti schaltet Multicast-Adressen ab. Das route-Kommmando route erlaubt es Ihnen, Routen in die Routing-Tabelle des Kernels einzutragen oder aus ihr zu entfernen. Es kann aufgerufen werden als: route [add|del] [-net|-host] <target> [dev <if>] Dabei bestimmen die Argumente add bzw. del, ob die Route zu target eingetragen bzw. aus target entfernt wird. Die Optionen -net und -host teilen dem route-Kommando mit, ob target ein Netzwerk oder ein Hostrechner ist (letzteres wird angenommen, wenn Sie hier nichts angeben). Das Argument dev if ist optional und erlaubt Ihnen die Angabe einer Netzwerkschnittstelle, an die die Route gerichtet werden soll. Wenn Sie dem Kernel keine Informationen darüber geben, versucht er selbst, ein sinnvolles Argument herauszufinden. Den Rechner konfigurieren Das allererste Interface, die aktiviert werden muß, ist das Loopback-Interface: ifconfig lo 127.0.0.1 Manchmal wird anstelle der IP-Adresse auch der Name localhost verwendet. Der Befehl ifconfig sucht diesen Namen in der Datei /etc/hosts, wo er als Hostname für 127.0.0.1 definiert sein muß. Zur Anzeige der Konfiguration eines Interface rufen Sie ifconfig mit dem Namen des Interface auf. Ganz ohne Parameter wird die Konfiguration aller Interfaces gezeigt: ifconfig lo lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 UP LOOPBACK RUNNING MTU:3924 Metric:1 RX packets:0 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 Collisions:0 Nun fehlt noch ein Eintrag in der Routing-Tabelle, der festlegt, daß dieses Interface als Route für das Zielsystem 127.0.0.1 dient. Dazu geben Sie folgendes ein: route add 127.0.0.1 Es kann auch hier wieder anstelle der IP-Adresse der Namen localhost verwendet werden (sofern er in /etc/hosts eingetragen ist). Es wäre auch möglich, das Netz von localhost einzutragen: route add -net 127.0.0.0 Als nächstes wird mit dem Programm ping getestet, ob alles einwandfrei funktioniert: ping localhost PING localhost (127.0.0.1): 56 data 64 bytes from 127.0.0.1: icmp_seq=0 64 bytes from 127.0.0.1: icmp_seq=1 64 bytes from 127.0.0.1: icmp_seq=2 ^C --- localhost ping statistics --- bytes ttl=255 time=0.4 ms ttl=255 time=0.4 ms ttl=255 time=0.4 ms 3 packets transmitted, 3 packets received, 0% packet loss round-trip min/avg/max = 0.4/0.4/0.4 ms Pakete an 127.0.0.1 werden also korrekt ausgeliefert und es erfolgt sofort eine Antwort. Das beweist, daß die erste Netzwerkschnittstelle erfolgreich konfiguriert wurde. Die bisher beschriebenen Schritte reichen aus, um Netzwerk-Programme auf einem alleinstehenden Rechner zu benutzen. Die oben angegebenen Zeilen müssen in das NetzwerkInitialisierungsskript eingetragen werden, damit sie beim Systemstart ausgeführt werden. In der Regel wird zumindest die Konfiguration von "lo" beim Installieren des Systems bereits erledigt. Zur Einstimmung war das obige aber keine schlechte Übung. Nun sollte zum Beispiel telnet localhost eine telnet-Verbindung aufbauen und Ihnen den Login-Prompt Ihres Systems geben. Die Konfiguration von Ethernet-Schnittstellen geht fast genauso vonstatten wie eben. Man braucht nur ein paar Parameter mehr, um auch Subnetze verwenden zu können. Im Zwergenwald wird vom Klasse-B-Netz nur ein C-Subnetz verwendet. Um dies dem Interface mitzuteilen, sieht der ifconfig-Aufruf so aus: ifconfig eth0 172.20.20.2 netmask 255.255.255.0 oder unter Verwendung des Namens aus /etc/hosts: ifconfig eth0 doc netmask 255.255.255.0 Dies weist des Interface eth0 die IP-Adresse von doc (172.20.20.2) zu. Hätte man die Netzmaske weggelassen, wäre sie von ifconfig aus der Netzklasse der Adresse abgeleitet worden, was den inkorrekten Wert von 255.255.0.0 ergeben hätte. Ein schneller Test ergibt jetzt: ifconfig eth0 eth0 Link encap 10Mps Ethernet HWaddr 00:00:C0:90:B3:42 inet addr 172.20.20.2 Bcast 172.20.20.255 Mask 255.255.255.0 UP BROADCAST RUNNING MTU 1500 Metric 1 RX packets 0 errors 0 dropped 0 overrun 0 TX packets 0 errors 0 dropped 0 overrun 0 ifconfig hat die Broadcast-Adresse (im Bcast-Feld angezeigt) automatisch auf den passenden Wert gesetzt, nämlich die Netzwerknummer mit einem Hostteil, bei dem alle Bits auf eins gesetzt sind. Außerdem wurde die maximale übertragungseinheit (MTU = Maximum Transmission Unit, die maximale Größe der IP-Pakete) auf das Ethernet-spezifische Maximum von 1.500 Bytes eingestellt. Wie bereits bei der Loopback-Schnittstelle muß noch eine Route eingetragen werden. Für den Zwergenwald gilt: route add -net 172.20.20.0 Damit ist eine Route definiert, die alle Pakete, die ans Netz 172.20.20.0 gerichtet sind an die Ethernetkarte schickt. Das weiß das System, weil die Ethernetkarte ja die Adresse 172.20.20.2 hat, also die gleiche Netzadresse. Dieser Befehl ist bei modernen Versionen von ifconfig unnötig geworden, weil diese Route eben automatisch bei der Konfiguration angelegt wird. Vielleicht haben Sie bemerkt, daß die Angabe des Interface fehlt. Der Kernel prüft alle bisher konfigurierten Interfaces und vergleicht das Zielnetz (in unserem Fall 172.20.20.0) mit der Netznummer der Interface-Adresse, d.h. dem bitweisen UND der Interface-Adresse und der Netzmaske. Die einzige Schnittstelle, bei der diese beiden Werte übereinstimmen, ist eth0. Die Option -net ist nötig, da route sowohl Routen zu Netzwerken als auch zu einzelnen Hosts einrichten kann. Wenn man route eine IP-Adresse übergibt, versucht das Kommando festzustellen, ob es sich dabei um eine Host- oder Netzadresse handelt, indem es den Hostteil betrachtet. Ist der Hostteil null, wird angenommen, daß es sich um eine Netz-Adresse handelt, andernfalls ist es eine Hostadresse. Deshalb würde route in unserem Beispiel davon ausgehen, daß 172.20.20.0 eine Hostadresse ist (Netz: 172.20.0.0, Host: ...20.0). Da ein Subnetz verwendet wird, braucht das route-Kommando den Parameter "-net". Unter Verwendung des Eintrags in /etc/networks wird das Kommando einfacher: route add zwergenwald Nun sollte man überprüfen, ob das Ethernet tatsächlich arbeitet. Wählen Sie irgendeine bereits konfigurierte Maschine auf Ihrem lokalen Ethernet, z.B. grumpy, und geben Sie folgenden Befehl ein: # ping grumpy PING grumpy: 64 byte packets 64 bytes from 172.20.20.1: icmp_seq=0. time=10. ms 64 bytes from 172.20.20.1: icmp_seq=1. time=7. ms 64 bytes from 172.20.20.1: icmp_seq=2. time=8. ms ^C ----doc.zwerge.local PING Statistics---4 packets transmitted, 4 packets received, 0 packets lost Wenn ping keinerlei Antwort bekommt, sollten Sie die Schnittstellenkonfiguration mit netstat überprüfen. Die Paketstatistiken, die ifconfig ausgibt, geben an, ob überhaupt Pakete über das Interface übertragen wurden. Zusätzlich sollten Sie auf beiden Maschinen mit route die Routing-Informationen überprüfen. Wenn Sie route ohne weitere Parameter aufrufen, gibt es die Routing-Tabellen aus. Die Option -n sorgt dafür, daß es Adressen numerisch anstelle der symbolischen Hostnamen darstellt: route -n Kernel routing table Destination Gateway 127.0.0.1 * 172.20.20.0 * Genmask Flags Metric Ref Use 255.255.255.255 UH 1 0 112 255.255.255.0 U 1 0 10 Iface lo eth0 Die Spalte "Flags" enthält eine Liste von Flags für jedes Interface. U ist für aktive Schnittstellen immer gesetzt. Ein Flag H in dieser Spalte besagt, daß die Zieladresse einen einzelnen Host bezeichnet. Wenn eine eingetragene Route benutzt wird, ändert sich der Wert im Use-Feld ständig. Bisher wurde eine Maschine auf einem isolierten Ethernet eingerichtet (z.B. in einem Heimnetz). Der Regelfall ist allerdings, daß mehrere Netze durch Gateways miteinander verbunden sind (man will ja auch "nach draußen"). Diese Gateways verbinden zwei oder mehrere Ethernets miteinander, oder sie stellen das Tor zum Internet bereit. Um einen Gateway zu nutzen, muß der Netzwerkschicht zusätzliche Routing-Informationen zur Verfügung stehen. Zum Beispiel sind die Ethernets des Zwergenwaldes und des Feenreichs durch solch ein Gateway miteinander verbunden, nämlich doc, der bereits konfiguriert sei. Auf allen Maschinen des Zwergenwaldes muß nur noch eine weitere Route eingetragen werden, die angibt, daß alle Maschinen im Netzwerk der Feen über doc erreichbar sind. Der entsprechende Aufruf von route sieht so aus (sofern feenreich in /etc/networks eingetragen wurde): route add feenreich gw doc Dabei gibt gw an, daß das folgende Argument ein Gateway bezeichnet. Natürlich muß jedes System im Feen-Netz, zu dem Sie Verbindung aufnehmen wollen, einen analogen RoutingEintrag für das Zwergen-Netz haben. Sonst könnten Sie nur Daten vom Zwergen-Netz an das Feen-Netz senden, die Rechner im Feen-Netz wären aber zu keiner Antwort fähig. Das war nun ein Gateway, das Pakete zwischen zwei isolierten Netzen befördert. Nehmen Sie nun an, daß doc außerdem eine Verbindung ins Internet hat. Dann wäre es wünschenswert, daß Pakete für beliebige Zieladressen, die nicht im Zwergen-Netz liegen, an doc weitergereicht werden. Das erreicht man, indem doc zum Default-Gateway wird: route add default gw doc route add default gw 172.20.20.1 oder bei Angabe der IP-Adresse Die Netzwerkadresse default ist eine Abkürzung für 0.0.0.0, die Default-Route. Sie paßt zu jeder Zieladresse und wird immer dann benutzt, wenn keine andere eingetragene Route paßt. Es ist ziemlich einfach, eine Maschine als Gateway einzurichten. Nehmen wir an, wir befänden uns wieder auf doc, der mit zwei Ethernet-Karten ausgestattet ist, die jeweils mit einem der beiden Netze verbunden sind. Man muß nur beide Schnittstellen getrennt konfigurieren und ihnen eine Adresse auf dem jeweiligen Subnetz zuzuweisen. Dabei ist es recht nützlich, zusätzlich zum offiziellen Hostnamen doc zwei Namen für die beiden Schnittstellen in /etc/hosts zu definieren: 172.20.20.1 172.20.21.1 doc.zwerge.local doc-if2 doc doc-if1 Mit diesen Einträgen lautet die Befehlsreihenfolge für die Einrichtung der beiden Interfaces: ifconfig eth0 doc-if1 ... route add zwergenwald ifconfig eth1 doc-if2 ... route add feenreich Damit Pakete überhaupt zwischen den verschiedenen Netzwerkschnittstellen vermittelt werden, bedarf es in neueren Kerneln des Kommandos echo '1' > /proc/sys/net/ipv4/ip_forward Wenn es dann nicht funktioniert, überprüfen Sie, ob Ihr Kernel mit Unterstützung für IPForwarding übersetzt wurde. Sie brauchen nicht einmal eine zweite Netzwerkkarte, denn es gibt sogenannte "DeviceAliase". Dies sind virtuelle Geräte, die mit der gleichen physischen Hardware verbunden sind, jedoch gleichzeitig aktiviert werden können, um unterschiedliche IP-Adressen zu haben. Sie werden normalerweise mit dem Gerätennahmen gefolgt von einem Doppelpunkt und einer Zahl dargestellt (zum Beispiel eth0:1). Wenn Sie einen Alias verwenden, können weder das Interface noch der Alias zur Verwendung von DHCP konfiguriert werden. eth0:1 ist der erste Alias für eth0. Der zweite Alias hätte den Namen eth0:2, usw. Die Befehle um beide Netze über eine Netzwerkkarte zu routen, würden lauten: ifconfig eth0 doc-if1 ... route add zwergenwald ifconfig eth0:1 doc-if2 ... route add feenreich Die Fehlermeldungen des route-Kommandos sind relativ kryptisch. Bei Linux kann - im Gegensatz zu anderen Unixen - die Metrik-Angabe entfallen. Man kann mehrere Routen zu einem Ziel (mit identischer Netzmaske) eingeben, sofern jeweils ein anderer Gateway angegeben wird. Fehlermeldungen des route-Kommandos: SIODELRT ist eine Fehlermeldung beim Löschen einer Route (DELeting a RouTe) SIOADDRT ist eine Fehlermeldung beim Anlegen einer Route (ADDing a RouTe) SIOCADDRT: Network is unreachable route add default gw 1.2.3.4 Die angebene Adresse gehört nicht zum eigenen Netzwerk und so kann der Rechner keine Pakete dorthin weiterleiten. SIOCADDRT: File exists Die angegebene Route existiert bereits. SIOCADDRT: No such device Es wurde das Schlüsselwort gw vor der Default-Gateway-Adresse vergessen; also nicht: route add -net 10.2.2.76/24 10.1.1.22 sondern: route add -net 10.2.2.76/24 gw 10.1.1.22 SIOCDELRT No such process Versuch, eine Route zu löschen, die nicht existiert. SIOCADDRT: Operation not supported by device Es wurde das Schlüsselwort gw oder die Gateway-Adresse vergessen; also nicht: route add -net 10.0.0.0/8 10.1.1.254 oder route add -net 172.23.24.128/25 sondern: route add -net 10.0.0.0/8 gw 10.1.1.254 oder route add -net 172.23.24.128/25 gw 10.1.1.22 SIOCADDRT: Operation not permitted Sie arbeiten nicht mit root-Berechtigung. SIOCADDRT: Invalid argument Falsche Kommandosyntax (z.B. vergessene Netzmaske); also nicht: route add -net 10.2.2.0 gw 10.1.1.254 oder route del -net 172.23.0.0 sondern: route route route route add add del del -net -net -net -net 10.2.2.0 netmask 255.255.255.0 gw 10.1.1.254 10.2.2.0/24 gw 10.1.1.254 bzw. 172.23.0.0/16 oder 172.23.0.0 netmask 255.255.0.0 oder route: netmask doesn't match route address Die Netzmaske passt nicht zur Host- und Gateway-Adresse. route: netmask 00ffffff doesn't make sense with host route Meist wurde der Parameter -net vergessen. Das Kommando nimmt dann an, dass man eine Host-Route angeben will. Oder man hat bei einer Host-Route eine Netzmaske angegeben. addr: Unknown host Meist wurde eine falsche Netzmaske angegebn, die das Kommando falsch interpretiert. route: bogus netmask 255.255.255.25 Die Netzmaske ist falsch angegeben worden (z.B. '25' oder '2555' statt '255'). Anmerkung: Die Syntax des route-Kommandos variiert von System zu System. Offene Ports und Anwendungen finden mit netstat Ein offener Port im Status "Listen" ist ein potientielles Einfallstor für Eindringlinge. Auch Trojaner installieren gerne "Backdoors" und öffnen dazu einen freien Port. Daher ist es sehr zu empfehlen, sich von Zeit zu Zeit die offenen Ports seiner Systeme anzusehen. Für eine Kontrolle der offenen Ports ruft man "netstat -nlp" auf. netstat -npl Proto Recv-Q Send-Q PID/Program name tcp 0 0 25671/apache tcp 0 0 16417/ftpd tcp 0 0 1345/sshd tcp 0 0 26007/exim4 tcp 0 0 1022/apache-ssl Local Address Foreign Address State 72.139.238.24:80 0.0.0.0:* LISTEN 72.139.238.24:21 0.0.0.0:* LISTEN 72.139.238.24:22 0.0.0.0:* LISTEN 72.139.238.24:25 0.0.0.0:* LISTEN 72.139.238.24:443 0.0.0.0:* LISTEN Das System zeigt mit diesen Parameter nur Ports im Status "Listen" an. Zusätzlich wird in der letzten Spalte die Prozessnummer und der Name des zuständigen Dämons angezeigt. Alternativ kann unter Linux auch das Kommando "lsof" benutzt werden. Mit dem Aufruf lsof -i | grep -e LISTEN wird ebenfalls eine Liste der Ports im Status "Listen" angezeigt. Einsatz von nmap Zur Kontrolle der offenen Ports eines Host über das Netzwerk benötigt man einen Portscanner, z.B. nmap von Fyodor. Der Portscanner nmap kennt eine Unmenge von Optionen. Für einen ersten Scan nach offenen TCP-Ports wird lediglich der Parameter "-sT" und die IP-Adresse des Zielsystems benötigt. Damit scannt nmap alle well know TCP-Ports (1-1024) und alle Ports aus der Datei etc/services. nmap -sT 192.168.1.1 Starting nmap 3.20 ( www.insecure.org/nmap/ ) at 2004-10-16 23:17 CEST Interesting ports on Router (192.168.1.1): (The 1610 ports scanned but not shown below are in state: closed) Port State Service 80/tcp open http Nmap run completed -- 1 IP address (1 host up) scanned in 6.533 seconds Der hier untersuchte IP-Host bietet einen Dienst an: HTTP auf TCP-Port 80. Auf der Maschine läuft also höchstwarscheinlich ein Webserver. Um alle TCP-Ports von 1 bis 65535 zu untersuchen ruft man nmap mit den Optionen "-sT -p 1-65535" auf. Mit der Option "-sU" sucht nmap nach offenen UDP-Ports. UDP-Scanning ist allerdings oftmals sehr langsam. Ursache hierfür ist eine Begrenzung der Anzahl der ICMP-Meldungen die ein Host pro Zeiteinheit versendet. Viele Systeme begrenzen die ICMP-Meldungen nach RFC 1812. nmap erkennt dieses Verhalten und arbeitet entsprechen langsamer um keine Meldungen zu verlieren. tcpdump Wenn Probleme in einem Netz auftauchen, so kann mit Hilfe des Programms "tcpdump" jedes einzelne Paket des Netzes protokolliert und analysiert werden. Dazu wird die Netzwerkkarte in den promisquous-mode geschaltet. "tcpdump" zeigt jetzt die empfangenen Paket-Header an und ermöglicht so eine Diagnose der aufgetretenen Fehler. Die Anwendung ist ziemlich kompliziert und würde den Rahmen dieses Kapitels sprengen. Es genügt, zu wissen, daß es dieses Programm gibt und daß es folgendermaßen aufgerufen wird. tcpdump -i Interface Damit werden alle Pakete des genannten Interfaces abgehört. Das Interface wird mit seinem symbolischen Namen angegeben, also beispielsweise eth0. tcpdump hat eine eigene Art Abfragesprache, die Befehle ermöglicht wie tcpdump host blackhole Zeigt nur Pakete an den oder vom Rechner blackhole. tcpdump host doc and grumpy Zeigt nur Pakete, die zwischen den Rechnern doc und grumpy ausgetauscht werden. Die ARP-Tabelle Bei einigen Netzproblemen kann es aufschlußreich sein, einen Blick auf die ARP-Tabelle des Kernels zu werfen oder sie sogar zu verändern. Die Kommandozeilenoptionen von ARP lauten: arp [-v] [-t hwtype] -a [hostname] arp [-v] [-t hwtype] -s hostname hwaddr Alle hostname-Argumente können als symbolische Hostnamen oder als IP-Adressen angegeben werden. Der erste Aufruf gibt den ARP-Eintrag für die angegebene IP-Adresse bzw. Hostnamen aus. Fehlt hostname, werden Informationen über alle bekannten Hosts ausgegeben. Zum Beispiel ergibt die Ausgabe von arp auf www.netzmafia.de etwa folgendes: arp Address 129.187.206.254 ns.e-technik.fh-muenche proxy1.e-technik.fh-mue web1.e-technik.fh-muenc HWtype ether ether ether ether HWaddress 00:04:DE:FE:78:00 00:07:E9:24:EC:15 00:07:E9:24:EC:15 00:07:E9:24:EB:F5 Flags Mask C C C C Iface eth0 eth0 eth0 eth0 Die Ausgabe kann mit der -t-Option auch auf bestimmte Hardwaretypen beschränkt werden. Als Argument geben Sie ether, ax25 oder pronet an, was für 10 Mbps Ethernet, AMPR AX.25 und IEEE 802.5 Token Ring steht. Die Option -s dient dazu, die Hardwareadresse von hostname manuell in die ARP-Tabelle einzutragen. Das Argument hwaddr spezifiziert die Hardwareadresse, die normalerweise als Ethernet-Adresse aus sechs Byte in hexadezimaler Notation angegeben ist. Sie können solche Adressen auch bei anderen Hardwaretypen verwenden, wenn Sie zusätzlich die Option -t angeben. Die Festverdrahtung von Hardwareadressen im ARP-Cache ist eine drastische Maßnahme, um Maschinen aus Ihrem Ethernet daran zu hindern, sich als jemand anderes auszugeben. Wenn Sie arp mit der Option -d aufrufen, entfernt es alle Einträge für einen bestimmten Host. Es kann dazu benutzt werden, das Interface anzuweisen, eine bereits angeforderte Hardwareadresse einer IP-Adresse nochmals anzufordern, und ist besonders dann nützlich, wenn ein fehlerhaft konfiguriertes System falsche ARP-Informationen sendet (natürlich muß zuerst das fehlerhafte System erneut konfiguriert werden). Neues Kapitel Twisted-Pair-Verkabelung Stecker und Buchsen RJ45-Stecker zum Aufpressen der Kabeladern (Twisted-Pair-Stecker) RJ45Einbaudose (Aufputz) RJ45-Buchse zum Einlöten Steckerbelegung und Adernfarben Der Standard DIN EN 50173 regelt die Kabelbelegung zumindest bei Kupferkabeln in Netzen. Es gibt vier Kabelpaare: Blick in die Buchse Paar Paar Paar Paar 1 2 3 4 Pins Pins Pins Pins 4, 1, 3, 7, 5 2 6 8 Token Ring verwendet die Paare 1 und 3 10BaseT verwendet die Paare 2 und 3 (ebenso 100BaseTX) 100BaseT4 und VG-Anylan verwenden alle Paare ISDN verwendet die Paare 1 und 3 ATM verwendet die Paare 2 und 4 TP-PMD verwendet die Paare 2 und 4 AS 400 verwendet das Paar 1 IBM 3270 verwendet das Paar 2 Pin-Numerierung von Stecker und Kabel Für den IP65/67-Bereich in der Industrie kommen keine RJ-45-Stecker zum Einsatz, sondern es werden 4-polige M12-Steckverbinder mit D-Codierung verwendet. An diese Stecker kann die Profinet-AWG22-Leitung angeschlossen werden. Der Stecker ist abgeschirmt und für den rauhen Insustrieeinsatz ausgelegt. Adernfarben Hier gibt es zwei Belegungen (die aber bis auf die Farben zum gleichen Ergebnis führen). Man muß sich nur an einen der beiden Standards halten, damit man nicht durcheinander gerät. Normales 100BaseT- und 10BaseT-Kabel kommt mit den Adern an den Pins 1, 2, 3 und 6 aus. Die Pins 4, 5, 7 und 8 werden für 100BaseT4+ benötigt. Standard EIA/TIA-T568ABelegung: Pin 1 2 3 4 5 6 Farbe Weiß/Grün Grün Weiß/Orange Blau Weiß/Blau Orange Standard EIA/TIA-T568BBelegung: (Diese scheint die verbreitetste zu sein.) Pin Farbe 1 Weiß/Orange 2 Orange 3 Weiß/Grün 4 Blau 5 Weiß/Blau M12-Belegung: (ProfinetKabelfarben) Pin Farbe 1 (TD+) Gelb 2 (TD-) Orange 3 (RD+) Weiß 4 (RD-) Blau 7 8 Weiß/Braun Braun 6 7 8 Grün Weiß/Braun Braun Die Belegung ist grundsätzlich eins zu eins an beiden Steckern. Auf Dosen ist die Belegung aufgedruckt (bzw. die LSA-Klemmen sind einfach in der entsprechenden Farbe markiert). Die Kabelfarben kennzeichnen die verdrillten Adernpaare, die Paare müssen eingehalten werden. Crossoverkabel Crossoverkabel dienen zur Verbindung zweier Hubs. Auf diese Weise kann man die Zahl der verfügbaren Rechneranschlüsse erhöhen. Beachten Sie aber, daß sich nur eine begrenzte Zahl von Hubs kaskadieren lassen. Anschlußbelegung der Twisted-Pair-Unterputz-Kanaleinbaudose In der Regel wird das Fabrikat Telegärtner MJ45 LFS 8/8 verwendet. Die Darstellung zeigt die Draufsicht (anschlusseitig) der Dose. Die obere Klemmenreihe ist für die linke Dose, die untere Klemmenreihe für die rechte Dose. Beim Standardnetz sind nur vier Kabeladern pro Dose anzuschliessen (Pins 1,2, 3 und 6, siehe oben). Anschlußbelegung der Twisted-Pair-Stecker für Hub und Computer Cable-Sharing, Y-Kabel Y-Kabel sind spezielle Kabel, mit denen man ein voll ausgebautes RJ-45-Kabel, bei dem alle 4 Paare des Kabels angeschlossen sind, als Verbindungsleitung für zwei Endgeräte benutzen kann. Sinn des Ganzen ist, daß man nur ein Twisted-Pair-Kabel mit 8 Adern verlegen muß, um zwei Computer (oder andere Geräte) anschließen zu können (jedenfalls bei niedrigeren Übertagungsraten). An Ihrem Hub belegen Sie zwei Ports, die dann per Y-Kabel auf ein Kabel geleitet werden, das zu einem Verteilungspunkt (Dose im Büro) verlegt ist. Von dort wird mit einem weiteren Y-Kabel zu Ihren Endgeräten verteilen. Schema der Verbindung: Für die verschiedenen Sprach- und Datendienste sind in den internationalen Richtlinien unterschiedliche Buchsenkontaktbelegungen festgelegt worden. Damit die Signalleitungen an den richtigen Kontakten der Endgeräte angelegt sind, wurden für Y-Kabel (Cable Sharing Adapter) verschiedene Ausführungen entwickelt: mit Kontaktbelegung 1, 2, 3, 6 (Ethernet usw.) mit Kontaktbelegung 3, 6, 4, 5 (Token Ring, Telefonanschluss, ISDN) Es gibt auch fertige Adapter im Handel zu kaufen: Der Cable-Sharing-Adapter wird immer paarweise eingesetzt. Auf der einen Seite am Verteiler, um die beiden Dienste auf die Installationsleitung aufzuschalten und auf der anderen Seite (z. B. an der Dose), um die Dienste vom 8-adrigen Anschluss wieder abzugreifen. Durch die flexible Anschlußschnur wird eine gute Verteilung der Zugkräfte erreicht, die von der Anschlußschnur der Endgeräte bzw. von den Patchkabeln auf den Adapter einwirken. Verdrahtung des Kabels: Verteiler für 2 Ethernet-Anschlüsse Verteiler für Ethernet- und Telefon-Anschluß Verteiler für 2 Telefon-Anschlüsse 100Base-T4 und 1000BaseT 100Base-T4 und 1000BaseT nutzen im Gegensatz zu 10BaseT alle 4 Adernpaare. Die Steckerbelegung ist dann: und das Crossover-Kabel wird folgendermaßen verdrahtet: RJ-45-Stecker crimpen Zuerst sollten Sie alles Benötigte bereitlegen. Für eine TP-Verbindung braucht man das Kabel, zwei Knickschutzhüllen, zwei Crimpstecker, eine Crimpzange, ein scharfes Messer, einen Schraubenzieher und eine Kabelschere oder einen Seitenschneider. Schieben Sie die Knickschutzhülle auf das Kabel. Dann entfernen Sie ca. 2 cm der Isolierung. Oft ist an der Crimpzange ein entsprechendes Werkzeug vorhanden. Achten Sie darauf, die Abschirmung und die Adern nicht zu verletzen. Dazu noch ein Tipp von Thomas Schmieder: Die Knickschutzhülle wird ja gerne vergessen. Aber manchmal (oder eigentlich meistens) klappt das Aufschieben nicht, da das Material des Kabels und das der Hülle so aneinander kleben, dass man eher einen Kopfstand auf der Wasseroberfläche hinbekommt, als die Tülle aufzuschieben. Ein winziges Tröpfchen Speiseöl hat mir schon oft die Show gerettet. Natürlich tut's auch etwas Vaseline oder ein anderes Gleitmittel... Nun öffnen Sie vorsichtig die Abschirmfolie und klappen Sie diese nach hinten. Danach ordnet man die Kabelpaare parallel entsprechend der Adernbelegung nebeneinander an. Halten Sie die Kabel etwa 10 mm von der Isolierung entfernt parallel fest und schneiden Sie alle Adern ca. 4 mm vor den Fingern ab. Ab da sollten Sie die Adern weiter festhalten. Die Länge der freiliegenden isolierten Adern muß zwischen 10 mm und 14 mm liegen. Manche Steckertypen haben einen kleinen, rechteckigen Plastikschlitten als Montagehilfe beiliegen. In diesem Fall werden die Kabel zuerst in den Schlitten eingeschoben und danach abgeschnitten. Der Schlitten hat einen Nachteil: Manchmal kann man nicht erkennen, ob er tief genug im Stecker sitzt (dann gibt es keinen Kontakt beim abschließenden Crimpen). Wenn man den Plastikschlitten mit schwarzem Filzer am Rand einfärbt, kann man seine Lage leichter erkennen und sie gegebenenfalls korrigieren, indem man ihn mit Pinzette oder Schraubendreher tiefer in den Stecker schiebt. Schieben Sie die Kabel in den RJ45-Stecker (das Steckersichtfenster zeigt nach oben), und zwar solange, bis die Kabel bündig am Steckerabschluß sitzen. Sollte sich beim hineinschieben eine Ader verkanten, alles nochmal herausziehen und neu versuchen. Bei der Schlittenvariante führen Sie den Schlitten mit den Adern in den Stecker ein und stellen Sie sicher, daß alle Adern bis nach ganz vorne durchgeschoben werden. Beim nicht abgeschirmten Stecker: Während Sie Kabel und Stecker mit der einen Hand festhalten, schieben Sie mit dem Schraubenzieher die Abschirmung vorsichtig rechts und links neben die Adern in den Stecker (nicht zu tief). Damit wird ein stabilerer Sitz des Steckers und eine optimale Verbindung zwischen der Stecker- und Kabelmasse erreicht. Die einzelnen Adern müssen erkennbar sein, wenn man von vorne auf den Stecker schaut. Der Stecker wird vorsichtig in die Crimpzange eingeführt (er paßt nur in einer Richtung) und bis zum Anschlag hineingeschoben. Jetzt pressen Sie die Crimpzange einmal kräftig zusammen (soweit es geht), lösen sie wieder und ziehen den Stecker heraus. Beim nicht-abgeschirmten Stecker schieben Sie noch die Knickschutzhülle auf den Stecker. Nun sind die Litzen des Kabels fest mit dem Stecker verpreßt und gleichzeitig die Isolierung aufgetrennt worden - wie die folgende Schemazeichnung zeigt. Beim abgeschirmten Stecker werden die beiden Metallzungen der Abschirmung mit einer Flachzange vorsichtig um das Kabel herumgebogen und festgedrückt. Achten Sie auf guten Kontakt mit der Abschirmung des Kabels. Dann kann auch hier die Knickschutzhülle aufgeschoben werden. Das Kabel sollte jetzt fertig sein und man kann es testen. Das fertige Kabel wird mit einem Kabeltester überprüft, indem auf die eine Seite der entsprechende Adapter aufgesteckt und das andere Kabelende in den Tester gesteckt wird. Zur Not reicht auch ein Durchgangsprüfer. Auflegen der Kabel am Patchfeld/an der Dose In der Regel werden bei den Dosen zwei Varianten verwendet, entweder mit herkömmlichen Schraubklemmen oder mit LSA-Klemmen. Zur Schraubklemmen-Variante ist nicht viel zu sagen. Die Kabel werden abisoliert und die Abschirmung zurückgeschlagen. Anschließend wird auch die Isolierung der einzelnen Adern auf ca. 5 mm Länge entfernt und jede Ader einzeln in die Klemme eingeführt und verschraubt. "LSA" steht für "löt-, schraub- und abisolierfrei". Bei diesem Verbindungsverfahren wird zum Auflegen ein spezielles Werkzeug verwendet. Mit dem LSA-Auflegewerkzeug werden die einzelnen Adern an der Dose oder am Patchpanel aufgelegt. Damit wird jede Ader in einen Schlitz gequetscht und das überstehende Ende abgeschnitten. So kann eine Dose zuverlässig in wenigen Minuten angeschlossen werden. Zur Demonstation wird hier ein Stecker-Patchfeld verwendet, bei einer Dose ist die Vorgehensweise aber dieselbe. Meist sind die entsprechenden Leisten auch farbig markiert oder zumindest beschriftet, so daß man beim Auflegen der Kabel eigentlich nichts falsch machen kann. Das Kabel wird zuerst abisoliert. Hier sehen Sie eine Kabelvariante, bei der die Adernpaare nochmals einzeln abgeschirmt sind. Die Abschirmung des Kabels und die der Adern wird nur soweit wie nötig zurückgeschlagen. Dann werden die Adern entsprechend der Farbmarkierung in die Schlitze der Leiste eingelegt. Man kann entweder erst alle Kabel auflegen und dann die Verbindung herstellen oder man bearbeitet Paar für Paar. Liegt die Kabelader im Schlitz der Leiste wird das Auflegewerkzeug aufgesetzt und nach unten gedrückt. Mit diesem Vorgang wird die Kabelader abisoliert und die Kuferlitze in einen V-förmigen Schlitz aus Metall gepreßt, wo eine innige Verbindung zwischen Litzte und Metallkontakt hergestellt wird. Gleichzeitig schneidet das Werkzeug das überstehende Ende der Litze ab. Die rechte Abbildung zeigt die Situation bei einer EinzelSteckdose. Sind alle Adern korrekt aufgelegt, wird das Abschirmnetz zurückgezogen, zusammen mit dem Kabel unter die Zugentlastungs-Schelle gelegt und festgeklemmt. Die Schellen sind jeweils für ein Kabelpaar, so daß man normalerweise erst noch das zweite Kabel auflegt, bevor die Schraube der Schelle festgezogen wird. Zum Schluß wird als zweite Zugund Biegeentlastung das Kabel noch mit einem Kabelbinder etwas weiter hinten am Patchfeld befestigt. Bei einer Doseninstallation entfällt dieser Schritt. Dafür wird bei einer Dose noch der Abschirmdeckel zugeschraubt. Abschließend erfolgt auch hier der Test der Verbindung mit einem Kabeltester. Fehlerquellen und Fehlersuche Kabel beschädigt Beschädigungen an Netzwerkkabeln können viele Ursachen haben: Anwender rollen achtlos mit Bürostühlen über Leitungen, treten auf Kabel oder stellen Schränke darauf ab. Welche Folgen sich daraus ergeben hängt neben dem Grad der Beschädigung (Quetschung, Kurzschluß, Unterbrechung) von der verwendeten Netzwerkstruktur ab. Die schlimmsten Folgen ergaben sich bei den alten Bus-Netzen. Hier waren immer alle Rechner im Segment von der Störung betroffen. Bei den heutigen Sternstrukturen sieht die Situation günstiger aus. Nur die angeschlossene Station wird durch das beschädigte Kabel beeinflußt. Aber auch hier gibt es Ausnahmen: Handelt es sich bei der defekten Leitung um ein Link-Kabel zwischen zwei Hubs/Switches, können die Auswirkungen auch ganze Rechnerverbünde treffen. "Mechanische" Beschädigung einer Leitung führt immer zu einer Änderung der elektrischen Parameter. Der für Netzwerke wichtigste ist die Impedanz. Mit der Impedanz in direktem Zusammenhang steht der im Kabel auftretende Reflexionsfaktor (siehe Kapitel 7). An der Störstelle wird ein Teil (Quetschung) oder das komplette Signal reflektiert (Leerlauf und Kurzschluß). Die typischen Symptome von beschädigten Leitungen sind Verlangsamung oder Teilausfall des Datenverkehrs bei Quetschung des Kabels und Totalausfall des betroffenen Segmentes bei Leerlauf oder Kurzschluß. Schwieriger wird es mit Quetschungen. Weder ein einfaches Multimeter noch der Längenmesser helfen hier weiter. Bei sehr kleinen Netzen und ohne spezielle Meßgeräte hilft hier wieder nur die Sichtkontrolle. Wer über einen KabelScanner verfügt, kann die Impedanz oder den Reflexionsfaktor der Leitung nachmessen. Wichtig ist im Zusammenhang mit Quetschungen folgende Tatsache: Die Auswirkungen müssen sich nicht "sofort" zeigen. Hängen nur wenige Stationen im Netz oder herrscht nur geringer Datenverkehr, dann treten zwar mehr Kollisionen auf als in einem unbeschädigten Segment, sie sind aber nicht als Verlangsamung des Netzes spürbar. Erst wenn sich der Datenverkehr erhöht oder die Anzahl der Stationen vergrößert wird, macht sich die Störung bemerkbar. Solche "schleichenden" Fehler lassen sich mit künstlicher Erhöhung der Netzwerkauslastung durch Dumb-Loads finden. Fehlerhafte Stecker Egal ob selbst "gekrimpte" oder fertig konfektionierte Kabel verwendet werden: Fehler an den Steckern gehören in der "Netzwerkwelt" häufig zu den Störungsursachen. Im Gegensatz zur Beschädigung der Leitung sind sie allerdings meist nicht durch eine kurze Sichtkontrolle zu finden. Bei der Beschreibung der Fehlerquellen muß man zwischen der Herstellung und der Verwendung der Verbindungskabel unterscheiden. Zunächst zur Herstellung: Stecker/Leitungsverbindungen werden meist mit Hilfe vom Krimp-Werkzeugen hergestellt. Bei Twisted-Pair-Leitungen ist besonders auf den guten Sitz der einzelnen Kabel in den Kontaktklemmen zu achten. Immerhin gilt es, bis zu acht Leitungen im Stecker unterzubringen. Häufig werden beim Zusammenquetschen der Stecker falsch verlegte Adern gegeneinander kurzgeschlossen. Ein neu gekrimptes Kabel sollte auf jeden Fall einem Verdrahtungstest unterzogen werden. Die Verdrillung der einzelnen Adrenpaare sollte erst möglichst kurz vor dem Stecker aufgehoben werden, um die Auswirkung von Nahnebensprechen (NEXT) klein zu halten. Generell gilt für das Anfertigen von Steckverbindungen: Vorher üben! Um die Bedienung der Krimpzange zu erlernen, sollte man auf jeden Fall einige "Probeverbindungen" anfertigen. Die so gewonnene Routine zahlt sich in der Praxis aus. Bei Twisted-Pair-Leitungen fällt die Sichtprüfung leicht aus, da die meisten Stecker ein Klarsichgehäuse haben. In der Praxis werden oft einzelne Adern durch Zugbelastung abgetrennt. Auch die dünnen Rastnasen der Stecker werden häufig auf diese Weise abgebrochen. Ohne sie sitzen Steckverbindungen unter Umständen nur locker in der zugehörigen Buchse (Wanddose, Netzwerkadapter oder ähnliches). Wackelkontakte sind die Folge. Abgetrennte Adern findet man am leichtesten mit einem Verdrahtungsprüfer. Kabel mit abgebrochenen Rastnasen sollten grundsätzlich ausgetauscht werden. Maximallänge des Segmentes überschritten Zu den häufigsten Fehlern bei der Installation und Erweiterung von Netzen gehört die unzulässige Überschreitung der Segment-Maximallänge. Netze entstehen in aller Regel schrittweise. Gerade in kleineren Unternehmen werden zu Anfang oft nur einige wenige Rechner vernetzt. Hat sich die Netzwerktechnik mit ihren vielen Vorteilen erst einmal etabliert, beginnt der Ausbau der Verkabelungsstruktur. Nach und nach werden immer mehr Rechner an den Strang angeschlossen. Die wenigsten Administratoren machen sich in einem solchen Stadium des Netzausbaus Gedanken über die Kabellänge. Erst wenn das Netz beginnt, langsamer als gewöhlich zu werden, wird mit der Fehlersuche begonnen. Oftmals wird dann ein leistungsfähigerer Server gekauft, der aber keinerlei Verbesserung bringt. In anderen Fällen überschreiten Netzwerkverantwortliche wissentlich die zugelassene Länge, mit dem Argument: "Das Netz geht doch noch!" Tatsächlich mag das Netz noch ohne erkennbare Probleme funktionieren, allerdings nur bei der aktuelle Auslastung. Wird die Netzlast größer, bricht plötzlich die Kommunikation zusammen. Die Funktion von CSMA/CD-Netzen beruht auf der Einhaltung von Maximallaufzeiten. Wird ein Segment über seine zugelassene Länge hinaus erweitert, dann können Kollisionen nicht mehr zuverlässig erkannt werden. Das Auftreten einer Kollision ist abhängig von der aktuellen Netzlast. Will nur eine Station im ganzen Segment senden, kann kein Zusammenstoß von Paketen entstehen. Wollen aber viele Stationen im gleichen Zeitraum Daten verschicken, dann ist eine Kollision sehr wahrscheinlich. Die Aussage: "Das Netz geht zum Zeitpunkt X." sagt also nichts über den Zustand zur Zeit Y. Für die Bestimmung der Länge des Segmentes ist ein spezialisiertes Längenmeßgerät notwendig. Es ist ratsam, jedes verlegte Kabel-Segment zu vermessen und an wenigstens einer Seite mit einer Beschriftungsfahne zu versehen. Das Etikett sollte neben der Bestimmung des Stranges (zum Beispiel: "1. OG/West") auch die gemessene Kabellänge ausweisen. So kann bei einer anstehenden Erweiterung sofort entschieden werden, ob das Segment noch verlängert werden darf. Reicht die zur Verfügung stehende Länge nicht mehr aus, dann muß das Segment zum Bespiel über einen Switch in zwei Teilstücke getrennt werden. In der Praxis sollte man die geforderte Maximallänge um einen gewissen Prozentsatz unterschreiten. Dies gilt insbesondere, wenn Netzwerkkarten verschiedener Hersteller eingesetzt werden. Verschiedene Kabelkategorien gemischt Bei Twisted-Pair-Verkabelungen ist die Gefahr recht groß, verschiedene Kabelkategorien (zum Beispiel 3 und 5) versehentlich zu mischen. Solange das Netz nur mit 10 MBit/s lief, bereitete diese Situation keine Probleme. Erst wenn auf schnellere Technologien umgestiegen wurde, treten Fehler auf. Eines oder mehrere der verwendeten Kabel sind für die gewählte Geschwindigkeit nicht geeignet, obwohl die restlichen die Spezifikation einhalten. Liegen die Leitungen teilweise in Kabelkanälen, fällt die Ortung des falschen Kabels schwer. Mit einem "Cable-Scanner", der die TSB67 erfüllt, kann der komplette Link vor dem Umstieg auf eine schnellere Technologie geprüft werden. Routereinträge Ist ein IP-Netz in Subnetze unterteilt (zum Beispiel Class-C-Netze) dann kommmunizieren sie über Router miteinander. Jeder Rechner im Netz muß dazu einen Eintrag in einer Konfigurationsdatei besitzen, der ihm mitteilt, welche Adresse der Router-Rechner hat. Insbesondere bei PC-Software herrscht allerdings eine gewisse "Namensverwirrung". Hier werden Routereinträge oft als "Gateway" oder "Default-Gateway" angegeben. Fehlende oder falsche Routereinträge findet man relativ leicht mit folgender Methode: Zuerst wird ein einfacher Verbindungstest zu einem Rechner im eigenen Subnetz durchgeführt. Wenn dies erfolgreich war, wird der Test mit einem Rechner außerhalb des eigenen Netzes wiederholt. Funktioniert das nicht sollte man einen Blick auf die Router-KonfigurationsEinträge des aktuellen Rechners werfen. Falsche IP-Nummer Oft tritt nach der Verlegung von Rechnern in andere Gebäude folgender Fehler auf: Obwohl an der Konfigurations des Rechners nichts verändert wurde, kann über IP keine andere Maschine mehr angesprochen werden. Ähnlich verhält es sich mit Notebooks oder Laptops, die an verschiedenen Orten mit dem Netz verbunden werden. Die Lösung ist meist recht einfach: Beide Gebäude liegen innerhalb verschiedener IP-Subnetze. Dazu ein Beispiel: Das Notebook wichtel mit der IP-Nummer 129.177.206.99 ist für das Class-C-Netz 129.177.206.0 konfiguriert. Sein "Default-Router-Eintrag" lautet 129.177.206.254. Dieser Computer wird nun im Subnetz 129.177.106.0 (ebenfalls Class-C) an eine Netzwerkdose angeschlossen und nichts an der Konfiguration geändert. Sendet wichtel nun Pakete an Rechner mit der IP-Nummer 129.177.206.x dann werden sie von der Netzwerksoftware mit der Netzmaske (129.177.206.0) oder der Broadcastmaske (129.177.206.255) verglichen. Ergebnis des Vergleichs: es muß sich um einen lokalen Rechner handeln (gleiches Subnetz). Folglich schickt wichtel das Paket direkt, ohne den Standard-Router anzusprechen. Da sich der Rechner aber nicht mehr im Netz 129.177.206.0) befindet, kann der Empfänger nicht erreicht werden. Ähnlich verhält es sich, wenn wichtel versuchen würde mit einem Computer außerhalb von 129.177.206.0 zu kommunizieren. Dieses Paket würde zur Weiterleitung an den Standard-Router geschickt werden, den wichtel unter der Adresse 129.177.206.254 anspricht. Auch dieses Paket wird als "lokal" verschickt und kann damit den Empfänger nicht erreichen. Gegen das Problem "falsche IP-Nummer durch Standortwechsel" läßt sich bereits im Vorfeld einiges unternehmen: Sind alle Rechner mit einem Aufkleber ausgestattet, der den Namen, die IP-Nummer und eventuell auch die Ethernet-Adresse ausweist, dann läßt sich mit einem Blick klären, ob der Rechner nach einem Umzug neu konfiguriert werden muß. Anwender sollten auf alle Fälle darüber aufgeklärt werden, daß man nicht einen Rechner, der für Gebäude A konfiguriert ist, mit in Gebäude B nehmen kann, ohne etwas an der Konfiguration zu ändern. Insbesondere bei Laptops und Notebooks, deren Hauptzweck der Einsatz an verschiedenen Orten ist, ist die Einrichtung einer dynamischen IP-Konfiguration in jedem Subnetz sinnvoll (DHCP).Die Rechner erhalten dann keine feste IP-Nummer mehr, sondern holen sich die Nummer und die Konfiguration (Netzmaske, Broadcast und Router-Adresse) erst beim Start der Netzwerksoftware von einem DHCP-Server. Fehlersuchstrategien Neben den o. g. Fehlern können natürlich noch diverse andere Probleme auftreten angefangen beim Putzdienst, der den Netzstecker vom Server abzieht bis hin zum TelekomMitarbeiter, der bein Einziehen einer neuen Glasfaser die vorhandenen anderen Verbindungen schrottet. Es können eben auch in einem korrekt geplanten und installierten Netzwerk Fehler auftreten. Viele Administratoren neigen dazu, bei einer Störung relativ unkoordiniert einzelne Konfigurationen zu überprüfen. Oft werden dabei völlig ungeeignete Suchstrategien angewendet, wodurch die Zeit bis zur Lösung des Problems unnötig verlängert wird. Eine effiziente und schnelle Fehlersuche ist nur möglich, wenn geeignete Testverfahren verwendet werden. Nachdem die Anzahl der Fehler, die in Netzwerken auftreten können, unüberschaubar hoch ist, kann hier nicht auf Details bestimmter Konfigurationen eingegangen werden. Der nachfolgende Abschnitt beschreibt daher allgemein ein sinnvolles Vorgehen bei Netzwerkproblemen. Den Ausgangspunkt bilden Fehler, die sich direkt an den Stationen auswirken (Fehlermeldungen der Treiber, usw.). Im Netzwerkalltag ist das die sicherlich häufigste Ausgangs-Situation: Ein Anwender stellt fest, daß eine bestimmte Netzwerkfunktion nicht zur Verfügung steht und benachrichtigt den Netzwerkverwalter. Fehler an Koppelelementen wie Bridges und Routern werden ausgehend von den Fehlermeldungen der Stationen im Lauf der beschriebenen Tests ermittelt. Die wohl wichtigste Regel bei der Fehlersuche ist: "Ruhig bleiben!". Auch wenn der betroffene Rechner noch so wichtig ist, eine hektische Suchaktion führt nur selten zum Erfolg. Wird man als Netzverwalter von einem Anwender angerufen und muß am Telefon Hilfestellung leisten, dann sollte man sich die entsprechenden Fehler-Meldungen "Wort für Wort" vorlesen lassen. Durch die teilweise recht ungenauen Beschreibungen der Benutzer ("Das Internet geht nicht!", "Es druckt nicht!" oder "Ich komme nicht ans Netz!") gerät man sonst oft auf eine völlig falsche "Fährte". Der Administrator muß zunächst mit der Abgrenzung des Fehlerumfanges beginnen. Dazu gehört die Feststellung, ob nur eine Station oder mehrere Stationen betroffen sind. Client-Fehler Die Suche nach Client-Fehlern beginnt sinnvollerweise zunächst mit einer Befragung des Anwenders der Station. Oft verändern Benutzer unabsichtlich Konfigurationsdateien oder löschen für die Netzwerkfunktionen wichtige Dateien. Ein der Standardfragen sollte also lauten: "Ist an diesem Rechner irgend etwas geändert worden?". Auch wenn die Antwort ein "nein" ist, lohnt sich meist ein genaueres "Nachhaken" mit Fragen wie "Haben Sie ein neues Programm installiert?". Oft gelangt man mit dieser Methode schneller zum Ziel, als mit diversen Testprogrammen. Bei allen Antworten sollte allerdings ein wichtiger psychologischer Faktor nicht außer Acht gelassen werden: Viele Anwender verschweigen ihre Änderungen an der Rechnerkonfiguration aus Angst, für den Fehler verantwortlich gemacht zu werden. Die meisten erfahrenen Netzwerkverwalter haben schon einmal Situationen erlebt, in denen Benutzer beteuerten nichts am Rechner verändert zu haben, obwohl auf der Station zum Beispiel ein neues, völlig anderes Betriebssystem installiert wurde. Diesem Phänomen kann man nur begegnen, indem man alle "Netz-Nutzer" darüber aufklärt, daß das Interesse eines Administrators ausschließlich in der Funktionsfähigkeit des Netzwerkes und nicht in der Bestrafung von "Schuldigen" besteht. Vor dem Einsatz von Software für den Stationstest sollte man einen Blick auf das Netzwerkkabel des Rechners werfen. Werden bei Twisted-Pair-Verkabelungen Hubs mit je einer "Online-LED" pro Port verwendet, genügt für eine grobe Überprüfung zunächst das Betrachten dieser Anzeige. Leuchtet die Diode, dann ist das Kabel zumindest nicht kurzgeschlossen oder aufgetrennt. Leuchtet die LED nicht, dann kommt als Ursache das Kabel oder das Netzwerkinterface der Station in Frage. Ersteres läßt sich durch den Austausch der Leitung gegen eine andere ausschließen. Ist trotz aktiver LED kein Netzwerkzugriff möglich, dann muß die Überprüfung der Station mit dem Einsatz von Software fortgesetzt werden. Die einfachste Testmöglichkeit ergibt sich auf PCs. Man bootet den Rechner mit einer vorbereiteten Boot-CD/DVD (z. B. mit "Knoppix", einem Linux-Derivat).Hier kann das Netz schnell passend von Hand konfiguriert werden. Ist auch unter diesen "MinimalBedingungen" kein Netzwerkbetrieb möglich, ist ein Hardwarefehler zu vermuten. Server-Fehler Für die Suche nach einem Serverfehler ist zunächst einmal interessant, ob der entsprechende Rechner in einem lokalen, nahen (gleiches Gebäude wie die zugreifenden Stationen) oder in einem unzugänglichen, weit entfernten Segment steht (zum Beispiel in einem anderen Gebäude oder einer anderen Stadt). Lokale Server sollten vom Administrator direkt inspiziert werden. Meist erweist sich ein "ausgeschalteter" oder vom Netzkabel getrennter Server als Ursache. Kann bei dieser Überprüfung kein Fehler gefunden werden, dann sollte die einwandfreie Funktion des Netzwerkinterfaces im Server getestet werden. Dies ist bei fast allen Betriebssystemen durch die Ausgaben diverser Hilfs-Programme möglich. Um die zwischen der zugreifenden Station und dem Server-Rechner liegende Verkabelungsstruktur als Fehlerquelle auszuschließen, führt man sinnvollerweise einen erweiterten Verbindungstest zwischen beiden durch. Auf diese Weise erhält man detailierte Informationen über den Weg jedes Datenpaketes. Im Falle eines weit entfernten Rechners ist das oft die einzige Testmöglichkeit. Konfigurations-Fehler Konfigurations-Fehler treten in Netzen hauptsächlich nach der Neuinstallation an Stationen oder Servern auf. Hierbei handelt es sich um grundsätzliche Fehler in den Soft- oder Hardware-Einstellungen der Rechner. In einigen Fällen bleiben die Netzwerkprobleme vorerst unentdeckt, weil die betroffenen Netzwerkdienste zunächst nicht genutzt werden. Da die Bandbreite der möglichen Fehler sehr groß ist und natürlich vom jeweiligen Betriebs- und Netzwerksystem abhängt, kann hier keine allgemeingültige Fehler-Strategie angegeben werden. In der Praxis kommt der Administrator dabei nicht um eine genaue Überprüfung der einzelnen Konfigurations-Dateien der Rechner herum. Netzwerk-Fehler Wie bereits oben beschrieben, können in Netzwerken eine ganze Reihe von "HardwareFehlern" auftreten. Eine schnelle Bestimmung der Ursache ist nur mit dem Einsatz von Meßgeräten möglich. Vor dem Einsatz von Cable-Scannern oder ähnlichem sollte zunächst die Anzahl der betroffenen Segmente bestimmt werden. Über den Vergleich mit dem Netzwerkplan, den jeder Verwalter angelegt haben sollte, können sinnvolle Meßpunkte ausgewählt werden. In kleinen Netzen, bei denen der Administrator oft ohne entsprechende Meßgeräte auskommen muß, kann folgende Strategie angewendet werden, um den Fehler zumindest grob einzukreisen: Die Fehlersuche beginnt mit dem Betrachten der Status-, Activity und Collision-Anzeigen der eingesetzten Koppelelemente (Hubs, Repeater, Switches, usw.). In den meisten Fällen läßt sich damit das betroffene Netz-Teilstück ermitteln. Bei Bus-Netzen kann der Fehler über ein "Trial-and-Error-"Verfahren bestimmt werden. Dazu wird der Bus aufgetrennt und damit in Teilnetze zerlegt. Jeder Teil wird mit Hilfe eines zusätzlichen Widerstandes elektrisch abgeschlossen. In den beiden so entstandenen Einzel-Segmenten können Verbindungstests ausgeführt werden. Zum dem fehlerfreien Teilstück wird nun schrittweise ein Abschnitt des anderen Segmentes hinzugefügt und der Verbindungstest erneut ausgeführt, bis der Fehler auftritt. Auch wenn dieses Verfahren nicht bei allen möglichen Hardwarefehlern zum Erfolg führt, können damit zumindest die häufigsten Probleme ermittelt werden. Aktives Netzwerkmanagement Der hohe Hardware-Anteil an der Gesamtfehler-Häufigkeit von Netzwerken entsteht nicht etwa, weil die eingesetzten Komponenten unzuverlässig sind, sondern vielmehr durch prinzipielle Fehler bei Planung und Erweiterung der Kommunikationsstrukturen. Auch heute noch bestehen viele Netze bei der Erstinstallation aus nur wenigen Stationen. In dem Glauben, ein Netzwerk sei wirtschaftlich, wenn die Erstinvestition möglichst gering ausfällt, werden Komponenten nach dem Motto "Je billiger desto besser" eingekauft. Die Verdrahtung der Rechner untereinander wird "frei", das heißt ohne Kabelschächte und Verteilerelemente, vorgenommen. In aller Regel gibt es keinen Netzwerkadministrator, sondern die Verwaltungsarbeit wird von einem oder mehreren Mitarbeitern "nebenher" erledigt. Typischerweise werden allen Benutzern Rechte auf allen Dateisystemen vergeben. Fehler in der Verkabelung fallen zunächst nicht auf, da das Datenaufkommen und die verlegte Kabellänge gering sind. Mit zunehmendem Kommunikationsbedarf wachsen die Netze jedoch stetig. Aus relativ kleinen Strukturen entstehen damit schnell größere Installationen. Erst in diesem Stadium des Ausbaues werden die ersten Fehler sichtbar und die Teil- oder Totalausfälle häufen sich. Die Suche nach der Störung nimmt meist relativ viel Zeit in Anspruch, weil weder Pläne der Verkabelung noch Testgeräte zur Verfügung stehen. Neben den Kosten für die Unterbrechnung des Datenaustausches wächst auch der Unmut der Anwender. Mit den oben dargestellten Zusammenhängen dürfte klar werden, worauf die hohe Prozentzahl der Hardwarefehler zurückzuführen ist. Sie läßt sich auf einen sehr geringen Prozentsatz senken, wenn man bei Planung, Erweiterung und Betrieb von Netzen nach gewissen Regeln vorgeht. Die in diesem Abschnitt beschriebenen Maßnahmen werden als "aktives Netzwerkmanagement" bezeichnet. Um zu verstehen, was dazu nötig ist, muß man sich zunächst Gedanken über die heutigen Anforderungen an Netzstrukturen machen: Wirtschaftlichkeit: Die laufenden Betriebskosten sollten zum einen möglichst gering ausfallen, zum anderen kalkulierbar sein. Flexibilität: Die Kommunikationsstruktur soll leicht umkonfigurierbar sein. Zukunftssicherheit und Investitionsschutz: Die installierte Netzwerktechnik muß auch zukünftigen Anforderungen genügen. Vorhandene Komponenten sollten sich problemlos erweitern lassen. Auch mit der Auswahl der Komponenten (Interfaces, Hubs, Switches, etc.) können die laufenden Kosten für das Netzwerk erheblich beeinflußt werden. Werden im Netz PCs eingesetzt, dann beginnt ein Administrator normalerweise den Netzwerkaufbau mit dem Kauf der Steckkarten. Vielen ist allerdings unklar, daß damit über den später entstehenden Verwaltungs-Aufwand entschieden wird. Genauso wie bei der Anschaffung von Computern ist hier nicht der günstigste Kauf auch gleichzeitig der beste. Vielmehr sollte man bei der Anschaffung der Netzwerkkarten auf folgende Punkte achten: Kaufen Sie konservativ! Bei neu auf dem Markt erschienenen Karten sind die Treiberprogramme oft eher "Beta-Versionen". Die instabile Software kann eine ganze Reihe von Fehlern wie "Abstürze" der Stationen oder Übertragungsfehler auslösen. Oft findet der Administrator erst nach stundenlanger Suche heraus, daß der Treiber die Ursache ist. Support ist wichtig! Markenhersteller bieten in aller Regel einen Treibersupport per Mailbox oder FTP-Server an. Ist die Software für ein neues Betriebssystem nicht auf der zum Interface mitgelieferten Diskette enthalten oder ist das Programm fehlerhaft, dann kann der Kunde sich dort kostenlos ein Update besorgen. Die Hersteller von "No-Name-Hardware" bieten diesen Service nicht. Markentreue zahlt sich aus! Mit der Anzahl der verschiedenen Karten-Typen wachsen auch die Betriebskosten des Netzes. Der Administrator muß für alle vorhandenen Adapter Treiber für die unterschiedlichen eingesetzten Betriebssysteme auf Vorrat halten und aktualisieren. Besitzt man nur einige wenige oder nur einen Kartentyp, dann kennt der Systemverwalter dessen besondere Einrichtungsoptionen und findet einen Fehler in den Einstellungen schneller. Bei anderen Komponenten (Hubs, Switches, usw.) sollte nach folgenden Kriterien vorgegangen werden: Selbst bei kleinen Netzwerkstrukturen sind Anzeige-Elemente (LEDs, etc.) für Zustände wie zum Beispiel Aktivität (activity) und Kollision (collision) wichtig. Mit ihrer Hilfe läßt sich ein eventueller Fehler meist schon grob einkreisen. Diese Möglichkeit ist insbesondere dann wichtig, wenn keine oder nur wenige Meßgeräte zur Verfügung stehen. Ist etwa ein Stations-Kabel vom Hub getrennt, dann läßt sich das mit einem kurzen Blick auf die entsprechende "Online-Anzeige" feststellen. Je größer das Netz ist, desto wichtiger wird der Punkt "Remote-Monitoring". Mit dem Einsatz von Komponenten, die über SNMP-Funktionen verfügen, ist der Administrator in der Lage, von seinem Arbeitsplatz aus einzelne Geräte zu überprüfen. An der "Management-Konsole" kann ein Fehler oder eine drohende Überlastung einzelner Elemente meist frühzeitig erkannt werden. Mit Hilfe von Steuerfunktionen kann das unter Umständen sehr weit entfernte Gerät konfiguriert werden, ohne daß der Weg dorthin zurückgelegt werden muß. Vernünftiges und optimiertes Management kann daher die Betriebskosten des Netzwerkes erheblich senken. Wie bei den Netzwerkkarten ist der Support des Herstellers ein wichtiger Faktor beim Kauf anderer Komponenten. Die Router von Markenherstellern lassen zum Beispiel meist das Einspielen neuer Betriebssystem-Versionen zu. Die dazu benötigte Software und oft auch eine ganze Reihe nützlicher Tools können von den einzelnen Firmen über deren FTP-Server oder eine "Support-Mailbox" bezogen werden. Wie wichtig ein solcher Support ist, merken viele Systemverwalter erst, wenn sie den ersten Fehler in der Software ihres Routers finden der eine dringend benötigte Betriebsart nicht erlaubt. Neues Kapitel Übertragungsmedien Egal wie das Kabel letztendlich aussieht, gibt es bei allen Kabeln ein paar grundlegende Eigenschaften. Jeder Leiter hat einen gewissen Gleichstromwiderstand, der abhängt vom spezifischen Widerstand des Materials (r), vom Querschnitt des Leiters (A) und von seiner Länge (l): R = r * l/A Für die Anwendung im Netz wesentlich wichtiger ist der Wechselstromwiderstand des Kabels. Wenn wir ein kurzes Leitungsstück betrachten, bildet die Leitung eine Induktivität L, die in Serie zum ohmschen Widerstand liegt. Die nebeneinanderliegenden Leiter und der Rückleiter bilden eine Kapazität C. Schließlich gibt es zwischen beiden Leitern noch einen sehr hohen Isolationswiderstand G. Man kann das Leiterstück also durch eine Ersatzschaltung wie im Bild annähern. Das Kabel setzt sich dann aus vielen dieser kleinen Schaltungen zusammen, die hintereinandergeschaltet sind. Die Leitungs-Induktivität besitzt bei einer Frequenz f den induktiven Widerstand XL = 2 * Pi * f * L Daraus ergibt sich eine proportionale Steigerung des induktiven Widerstandes mit der Erhöhung der Frequenz auf der Leitung. Je länger die Leitung ist und umso höher damit die Leitungsinduktivität wird, desto höher ist die Dämpfung durch die Längsinduktivität. Die Leitungsinduktivität ist als eine eigene Materialkonstante zu verstehen, die in der Einheit mH/km angegeben wird. Neben der Längsinduktivität gibt es noch eine weitere und bedeutend einflußreichere frequenzabhängige Größe einer Leitung: die Parallelkapazität. Auch diese stellt für die hochfrequenten Signalströme ein Problem dar. Der Scheinwiderstand des Kondensators errechnet sich wie folgt: XC = 1/(2 * Pi * f * C) Auch dabei ist wieder der klare Zusammenhang mit der Frequenz zu erkennen, wobei jedoch der kapazitive Widerstand mit zunehmender Frequenz kleiner wird. Das Problem liegt jedoch darin, daß es sich um eine Parallelkapazität handelt, deren immer kleiner werdende Widerstand für die hochfrequente Signalspannung nahezu einem Kurzschluß gleichkommt. Durch Einsatz kapazitätsarmer Leitungen kann die Dämpfung infolge der Kabelkapazitäten erheblich reduziert werden. Anders ausgedrückt: Mit gutem kapazitätsarmem Kabel lassen sich bei ansonsten gleichen Qualitäts- und Leistungseigenschaften erheblich längere Reichweiten erzielen, als es mit Standardkabeln möglich ist. Jedes Kabel bildet also ein Tiefpaßfilter, d. h. bei höheren Frequenzen wird das Signal immer weiter abgeschwächt. Der Wellenwiderstand eines Kabels ist der Widerstand, den es der Ausbreitung einer elektromagnetischen Welle entgegenbringt. Er ist die Kenngröße eines Kabels, die angibt, mit welchem Ohmschen Widerstand eine Leitung abgeschlossen werden muss, damit Anpassung erfolgt (keine Reflexionen). Zur Berechnung des Wellenwiderstandes werden die physischen Eigenschaften einer Leitung benötigt, also konstante Größen, die von Leitungsmaterial und der Leitungsgeometrie abhängen. Der Wellenwiderstand wird in Ohm angegeben. Er ist ein Wechselstromwiderstand. In der Informations- und Kommunikationstechnik werden üblicherweise Kabel und Leitungen mit einem Widerstand abgeschlossen, um Reflexionen der Signale an den Kabelenden zu vermeiden. Mißt man den Wechselstromwiderstand eines Kabels indem man ein Wechselspannungssignal einspeist, erhält man den spezifischen Wellenwiderstand des Kabels. Dazu misst man den Strom bei offenen und kurzgeschlossenen Leitungsenden. Nach den Strommessungen berechnet man aus der Generatorspannung UG und gemessenem Strom den Kurzschluss- und Leerlaufwiderstand, RK und RL: RK = UG/IK (= ZK) RL = UG/IL (= ZL) Der Wellenwiderstand ZW der Leitung, ergibt sich aus Kurzschluss- und Leerlaufwiderstand: Beim Ethernet ist der Wellenwiderstand auf 50 Ohm festgelegt. Die Grenzfrequenz ist erreicht, wenn die Ausgangsspannung 70% der Eingangsspannung erreicht hat. Die digitalen Signale, die auf das Netzwerkkabel geleitet werden, bilden auch eine (sehr oberwellenreiche) Wechselspannung. Zu Beginn hat man sich beim Ethernet für Koaxialkabel entschieden. Sie bestehen aus einem äußeren Leiter, der einen innenliegenden Leiter vollständig umschließt und dadurch abschirmt. Die beiden Leiter sind durch einen Isolator elektrisch getrennt. Koaxkabel gibt es in verschiedenen Ausführungen, für das Ethernet werden Typen mit einem Wellenwiderstand von 50 Ohm verwendet. Die Konstruktion dieses Kabels ist aber nicht nur wegen der Abschirmung des inneren Leiters günstig, da sie noch einen anderes Phänomen der Hochfrequenztechnik ausnutzt: den Skineffekt. Bei sehr hohen Frequenzen fließt der Strom fast nur noch in einer dünnen Schicht an der Leiteroberfläche, während tiefer im Leiterinneren fast kein Strom mehr fließt. Durch dieses Verhalten wirkt allein der Außenleiter des Koaxkabels genauso wie ein massiver Leiter gleichen Durchmessers. Deshalb ist die 'Füllung' des Leiters verzichtbar und ein 'Rohr' zu verwenden. Im Inneren dieses Rohres ist Platz für den zweiten Leiter. Da der Skineffekt auf Innen- und Außenleiter wirkt, läßt sich die Leitfähigkeit des Kabels durch eine dünne Silberbeschichtung auf dem Innenleiter weiter erhöhen. Seit einigen Jahren werden auch verdrillte Zweidrahtleitungen (10BaseT) oder Glasfaserleitungen verwendet. Die Definition des physikalischen Kanals ist aber nur ein Teil der IEEE 802.3-Spezifikation. Der Standard beschreibt physikalische Übertragung, die auch unser Thema ist, und Zugriffsverfahren, die sogenannten Protokolle. Auf der physikalischen Ebene sind Bezeichnungen wie 10Base5, 10Base2 und 10BaseT von Belang. Entscheidend sind dabei drei Parameter: die Übertragungsrate, das Übertragungsverfahren (Basis- oder Breitband; 'Base' oder 'Broad') sowie Aussagen zur räumlichen Ausdehnung. Zur Unterscheidung und Charakterisierung der einzelnen Übertragungsmedien wurde folgende Systematik für die Kabelbezeichnung entwickelt: <Datenrate in MBit/s><Übertragungsverfahren><Max. Länge/100 m> Auch der Kabeltyp kann unterschiedlich sein. Vom Koaxkabel über Glasfasern bis zu verdrillten Zweidrahtleitungen ist alles vertreten. Standard-Ethernet, 10Base5 Im weiteren wollen wir aber nur auf die Ethernet-Verkabelung eingehen. Das StandardEthernet besteht aus dem, meistens gelb isoliertem, 50-Ohm-Koaxialkabel mit ca. 10 mm Durchmesser (10,3 mm bei PVC-Isolierung, 9,5 mm bei PEP). Ein Kabelsegment darf maximal 500 m lang sein. Im Mindestabstand von 2,50 m können Media Attachment Units (MAUs) gesetzt werden. Zu diesem Zweck sind auf dem Kabel Markierungen angebracht. Die Ursache für den vorgeschriebenen Mindestabstand liegt darin, daß man eine Beeinflussung der MAUs untereinander ausschließen wollte. Das Bild zeigt schematisch den Anschluß an das Kabel. An einen MAU kann über ein maximal 50 m langes Transceiverkabel eine Ethernet-Station angeschlossen werden. Maximal 100 Stationen können an einem Kabelsegment hängen. Der Biegeradius darf 20 cm nicht unterschreiten. Das Kabel muß zur Vermeidung von Reflexionen an beiden Enden mit einem 50-Ohm-Widerstand (1 Watt) terminiert werden. Der Transceiver im MAU wird über einen TAP angeschlossen, bei dem Mittelleiter und Schirm kontaktiert werden, ohne das Kabel - und damit den Datenfluß auf dem Netz - zu unterbrechen. Bei einem Defekt im Transceiverkabel wird das Netz nicht beeinflußt; lediglich die betroffene Station ist von der Kommunikation getrennt. Die paarweise verdrillten Leitungen im Transceiverkabel werden über Differenztreiber angesteuert, auf Empfangsseite sitzen Differenzverstärker. Störungen können sich so nur gering bemerkbar machen. Anbindung der Arbeitsplätze direkt an das Yellow-Cable Zum Anschluß der einzelnen Arbeitsplätze an das Netzwerk benötigt man pro Arbeitsplatz den oben erwähnten MAU. Er stellt die Verbindung von Rechner über den AUI-Port mit dem Netzwerk her. Diese Vorgehensweise birgt allerdings einige Probleme (z. B. Netzlast, usw.). Es existieren strenge Verlegevorschriften bezüglich Biegeradius, Anschlußmöglichkeiten der einzelnen Stationen usw. Das Yellow Cable ist heute veraltet und sollte für Neuinstallationen nicht mehr eingesetzt werden. Es ist aber noch relativ häufig anzutreffen. Bei Anschlußfehlern werden die benachbarten Teile des Netzes betroffen. Außerdem wird für den Anschluß des MAU ein Spezialwerkzeug benötigt. AUI-Kabel (Attachment Unit Interface, TransceiverKabel) An einen MAU kann über ein maximal 50 m langes AUI-Kabel (Impedanz 100 Ohm) eine Ethernet-Station angeschlossen werden, z. B. eine Workstation, ein Terminalserver oder ein PC mit Ethernet-Einschubkarte. Das Kabel bietet die nötige Bewegungsfreiheit bei dem doch recht sperrigen "yellow cable". Im Transceiver-Anschlußkabel existieren zwei Leitungspaare für die beiden Senderichtungen. Der eigentliche Sender ist im wesentlichen eine Stromschleife, die zirka 65 mA treibt. Der Empfänger realisiert einen hochohmigen Abgriff des Signals vom Kabel, damit das Signal auf der Leitung nicht zu stark gedämpft wird. Weitere Leitungen liefern Informationen über Kollisionen. Zusätzlich erfolgt über das Kabel auch noch die Stromversorgung des Transceivers. Die Verbindung zum Transceiver bzw. zum Ethernet-Contoller erfolgt über 15polige SUB-D-Stecker. Das Kabel trägt die Stecker an den Netzkomponenten sind die Buchsen angebracht. Die Belegung der Stecker ist so gehalten, daß übereinanderliegende Pins jeweils die zueinander inversen Signale leiten: Pin Signal Pin Signal 1 Schirm für Kollisionserkennung 2 Kollisionserkennung + 9 Kollisionserkennung - 3 Sendedaten + 10 Sendedaten - 4 Schirm für Empfangsdaten 11 Schirm für Sendedaten 5 Empfangsdaten + 12 Empfangsdaten - 6 Masse 13 + 12 bis 15 V DC 7 Control Out + 14 Schirm für Stromversorgung 8 Schirm für Control Out 15 Control Out - Thinwire-Ethernet (Cheapernet), 10Base2 Eine weitere Abweichung vom ursprünglichen Standard besteht im Einsatz dünnerer Koaxialkabel. Diese haben zwar eine höhere Dämpfung und geringere Störfestigkeit als das Yellow Cable, sind aber für kleinere Netze vollkommen ausreichend. Sie sind nicht nur billiger (daher auch der Spitzname 'Cheapernet'), sondern auch besser zu verlegen. Bei diesem Netz entfallen auch die externen Transceiver und die Anschlußkabel. Das Kabel wird unmittelbar an der Netzwerkkarte des Rechners vorbeigeschleift und mittels eines BNC-TStücks angeschlossen. Dazu muß das Koaxkabel durchtrennt und mit zwei BNC-Steckern versehen werden - das Netz wird also kurzzeitig unterbrochen. Der Transceiver ist mit auf dem Netzwerkinterface integriert. Es handelt sich um ein 50-Ohm-Kabel RG58A/U oder RG58C/U mit einem Durchmesser von 4,7 - 4,9 mm Durchmesser. Die maximale Länge eines Segmentes beträgt 185 m (nicht etwa 200 m, wie die "2" bei 10Base2 vermuten läßt) und es können bis zu 30 Stationen angeschlossen werden, deren Minimalabstand 0,5 m betragen muß. Beim Verlegen des Kabels darf der Biegeradius 5 cm nicht unterschreiten. Durch geeignete Repeater können Standard-Ethernet-Segmente mit dem Cheapernet verbunden werden. Die 50-Ohm-Abschlußwiderstände sind in BNC-Stecker integriert und werden bei den beiden äußeren Stationen direkt auf das T-Stück gesetzt. Ein Defekt im Kabel, das ja an allen Stationen über die T-Stücke angeschlossen ist, betrifft somit auch alle Stationen. Das direkte Vorbeischleifen des Kabels am Interface ist für das 10Base2-Interface zwingend notwendig, ein Verlängern des T-Stückes mit einer 'Stichleitung' ist aufgrund der Funktionsweise des Transceivers nicht möglich. Wenn man versuchen würde, einen 10Base2Anschluß durch eine Stichleitung zu verlängem, wäre die saubere Ausbreitung der Welle nicht mehr gewährleistet und Reflexionen am Anfang und Ende der Stichleitung die Folge. Den Nachteil des Vorbeischleifens macht das 10Base2-Kabel dadurch wett, daß es bei deutlich geringerem Preis einfacher zu verlegen ist als das herkömmliche Ethernet. Moderne Netzwerkkarten bieten übrigens Anschlußmöglichkeiten für Transceiver-Kabel (also konventionelles Ethernet), für BNC-T-Stücke (10Base2) und für 10BaseT-Kabel (siehe unten) und sind standardmäßig mit einem OnBoard-Transceiver ausgestattet. Damit ist eine große Flexibilität in der Installation gegeben, es muß lediglich auf der Netzwerkkarte die gewünschte Konfiguration eingestellt werden. Anschluß der Arbeitsplätze an einen BNC-Strang Die Ausführung eines Netzwerksegmentes mit BNC-Kabeln ist wesentlich kostengünstiger als mit Yellow-Cable. Das BNC-Kabel wird an einen BNC-Hub o. ä. angeschlossen welcher selbst beispielsweise am Yellow-Cable angeschlossen ist. Das oben erwähnte T-Stück wird direkt an der Netzwerkkarte angeschlossen, die im Rechner eingebaut ist. Sollte es sich um den ersten bzw. letzten Rechner im Segment handeln, so wird dieser auch mit einem T-Stück angeschlossen. Jedoch wird hier der freibleibende Anschluß durch einen 50 Ohm-Abschlußwiderstand bestückt. Der Kabelanfang und das Kabelende müssen jeweils mit einem 50 Ohm Abschlußwiderstand abgeschlossen werden. Die Verlängerung der einzelnen Segmente erfolgt mit Repeatern. Sie werden als Signalverstärker zwischen die einzelnen Segmente geschaltet. Mittels Multiportrepeatern kann man das Netzwerk an diesen Stellen auch aufsplitten und in verschiedene Einzelsegmente aufteilen. Allerdings sollte immer darauf geachtet werden, daß bei einer solchen Installation nicht zu viele Arbeitsplätze angeschlossen werden. Jede Arbeitsstation bedeutet zusätzliche Netzlast. Je geringer die Netzlast ist, desto höher ist die Arbeitsgeschwindigkeit des Netzwerkes. BNC-Netz mit eigenem Server Bei den beiden vorgenannten Versionen sind die Installationen abhängig von einem abgesetzten File-Server. Er liefert die notwendige Netzwerksoftware und evtl. die benötigten Programme. Soll nun aber ein bestimmter Bereich des Netzes unabhängig vom File-Server betrieben werden, so ist es unerläßlich, einen Server nur für diesen Bereich zu beschaffen. Allerdings ist die BNC-Verkabelung - wie das Yellow Cable - ein aussterbender Standard, da man mit dieser Technik bereits an die Grenzen des technisch Möglichen angelangt ist. Die Übertragungsgeschwindigkeit von 10 Mbit/s kann hier nicht überschritten werden kann. Für "Wohngemeinschaftsnetze" wird es wegen seiner Preisgünstigkeit aber immer noch verwendet. Twisted-Pair, 10BaseT Twisted-Pair ist ein vieradriges, paarweise verdrilltes Kupferkabel, bei dem zwischen Sender und Empfänger für jede Übertragungsrichtung zwei Kupferadern genutzt werden. Die typische Dicke der Adern beträgt 0,5 oder 0,6 mm. Die maximale Übertragungslänge variiert mit der Dämpfung und ist abhängig davon, ob die Drähte abgeschirmt sind oder nicht. Das Twisted-Pair-Kabel eignet sich für verschiedene Uebertragungsmethoden wie Token Ring und Ethernet. Bei einer Datenrate von 10 - 100 MBit/s kann ein Twisted-Pair-Kabel bis zu 100 m lang sein. Die Mindestlänge des Kabels beträgt 0,6 m. Das Kabel verbindet genau zwei Stationen miteinander. Zum Anschluß mehrerer Stationen müssen sogenannte Hubs (engl. "Hub" = Nabe eines Speichenrades) eingesetzt werden, es lassen sich dann bis zu 1024 Stationen miteinander koppeln. Als Verbinder kommen normalerweise RJ-45-Stecker (Western-Stecker) und -Dosen zum Einsatz. Auch hier werden wieder Differenztreiber und -empfangsverstärker eingesetzt. Der Pegel wechselt zwischen -2,5 V und +2,5 V. Mit der Twisted-Pair-Verkabelung hielt auch eine kaum überschaubare Anzahl unterschiedlicher Kabelvarianten Einzug in die Datentechnik. UTP, FTP, S/UTP, S/STP oder ITP beschreiben den Kabelaufbau, CAT 3, 5 oder 7 beschreiben die Kategorie hinsichtlich der Anforderung der Kabel und Steckverbinder. Die Kabelklasse (A - 100 kHz, B - 1 MHz, C - 16 MHz, D - 100 MHz, E - 300 MHz, F - 600 MHz) definiert die Anforderungen hinsichtlich der Übertragungsbandbreite. CAT-1 für Alarmsysteme und analoge Sprachübertragung CAT-2 für Sprache und RS232-Schnittstellen CAT-3 Datenübertragung bis 16 MHz CAT-4 Datenübertragung bis 20 MHz (IBM Token-Ring 16 MHz) CAT-5 Datenübertragung bis 100 MHz Kategorie 1 2 3 4 5 4 10 16 100 Dämpfun NEX g T (dB/100 (dB) m) Dämpfun NEX g T (dB/100 (dB) m) Dämpfun NEX g T (dB/100 (dB) m) Dämpfun NEX g T (dB/100 (dB) m) 2,6 2,6 41 2,1 56 2,1 62 4 5,6 32 4,3 47 4,3 53 8 8,5 28 6,2 42 5,9 48 10 9,9 26 7,2 41 6,6 47 16 13,1 23 8,9 38 8,2 44 10,2 36 9,2 42 25 10,5 41 31,25 11,8 40 Übertragungs geschwindigk eit (Mbit/s) Frequenz (MHz) 1 20 Dämpfun NEX g T (dB/100 (dB) m) 62,5 17,1 35 100 22 32 Bemerkung : Bei Kategorie 1 liegt die Impedanz im Bereich von 84 bis 113 Ohm Bei Kategorie 2 - 5 beträgt die Impedanz 100 Ohm ± 15% Die Bauart der Kabel hat einen ganz wesentlichen Einfluß auf die Störleistungsunterdrückung und damit die Störsicherheit der Kabel. Während UTP-Kabel eine typische Störteistungsunterdrückung von 40 dB haben, erreichen S/STP-Kabel Werte bis zu 90 dB. UTP-Kabel (Unshielded Twisted Pair, nicht abgeschirmte verdrillte Leitungen) gehörten früher typischerweise der Kategorie 3 an. Inzwischen gibt es sie auch als CAT-5-Kabel. UTP-Kabel haben im industriellen Bereich oder in der Datentechnik mit hohen Datenraten nichts verloren. S/UTP-Kabel (Screened/Unshielded Twisted Pair) haben einen Gesamtschirm aus einem Kupfergeflecht zur Reduktion der äußeren Störeinflüsse. FTP-Kabel (Foileshielded Twisted Pair) besitzen zur Abschirmung einen Gesamtschirm, zumeist aus einer alukaschierten Kunststoff-Folie. S/FTP-Kabel (Screened/Foileshielded Twisted Pair) sind heute Stand der Technik bei der Verkabelung sogenannter UTP-Dosen. Der Aufbau besteht aus einem Gesamtschirm aus alukaschierter Polyesterfolie und einem darüberliegenden Kupfergeflecht. Gute Kabel erreichen eine Störleistungsunterdrückung über 70 dB. STP (Shielded Twisted Pair) bezeichnt eine Kabelgattung mit Gesamtschirmung ohne weitere Spezifikation. S/STP-Kabel (Screened/Shielded Twisted Pair) besitzen eine Abschirmung für jedes Kabelpaar sowie eine Gesamtschirmung. Hierdurch kann eine optimale Störleistungsunterdrückung erreicht werden. Auch das Übersprechen zwischen den einzelnen Adernpaaren kann so wirksam unterdrückt werden. ITP (Industrial Twisted Pair) ist die industrielle Variante von S/STP. Während typische Netzwerkadern jedoch vier Adernpaare besitzen, beschränkt sich ITP auf zwei Paare. Die Preisunterschiede zwischen Cat-3-Kabeln und Cat-5-Kabeln ist so gering, daß es sich bei Neuinstallation auf jeden Fall empfiehlt, Cat-5-Kabel einzusetzen - schon, um mit 100 MBit/s arbeiten zu können. Elektrische Eigenschaften für installierte 100-Ohm-Kabel gemäß DIN EN 50173 bzw. ISO/IEC 11801, Kategorie 5 Größter Schleifenwiderstand 300 Ohm/km Größter Widerstandsunterschied 3% Isolationswiderstand 150 MOhm x km Impedanz Zo bei 0,064 MHz 125 Ohm +/- 25% Impedanz Zo bei 1 - 100 MHz 100 Ohm +/- 15% Kopplungswiderstand bei 10 MHz < 100 Ohm/km Rückflußdämpfung an 100 m Länge: 1..20 MHz >23 dB Rückflußdämpfung an 100 m Länge: >20 MHz 23 dB - 10 log (f/20) Erdunsymmetriedämpfung dB/BZL = 1000 m bei 64 kHz > 43 dB Größte Erdkopplung bei 0,001 MHz 1600 pF/km Kleinste Ausbreitungsgeschwindigkeit bei 1 MHz 0,60 c Kleinste Ausbreitungsgeschwindigkeit bei 10 MHz 0,65 c Kleinste Ausbreitungsgeschwindigkeit bei 100 MHz 0,65 c Die konventionelle Twisted-Pair-Ethernet-Verkabelung verwendet RJ-45-Steckverbinder. Auch hier gibt es die unterschiedlichsten geschirmten und ungeschirmten Ausführungen. Sie sind für den industriellen Einsatz nur teilweise geeignet. Von den acht Leitungen des RJ45Steckers werden nur vier verwendet: Pin Signal 1 Sendesignal + 2 Sendesignal 3 Empfangssignal + 6 Empfangssignal - Zwischen Rechner und Hub verbindet das Kabel die beiden Stecker 1:1. Bei speziellen Kabeln für die direkte Verbindung zweier Computer oder für das Kaskadieren von Hubs müssen die Leitungen gekreuzt werden. Die Verbindung ist dann: Pin (Signal) Pin (Signal) 1 (TX+) - 3 (RX+) 2 (TX-) - 6 (RX-) 3 (RX+) - 1 (TX+) 6 (RX-) - 2 (TX-) Die RJ-45-Buchsen sind inzwischen auch keine profanen Steckkontakte mehr, sondern in ihnen sind auch gleich Übertrager, Drosseln und Widerstände integriert. Damit wird nicht nur Leiterplattenplatz eingespart, sondern auch bessere EMV-Eigenschaften erzielt und Layoutfehler vermieden. Das folgende Bild zeigt die elektrische Beschaltung einer solchen Buchse: Die Übertrager sorgen gleichzeitig für eine Potentialtrennung zwischen der Buchse und der restlichen Schaltung und für die Ausblendung von Störungen. Im folgenden Bild ist eine typische Buchse für die Platinenmontage abgebildet und darunter sind die Abmessungen (Vorder- und Seitenansicht) gezeigt. Oft sind in die Buchsen noch ein oder zwei LEDs integriert. Twisted-Pair-Verkabelung Wie gesagt, verlegt man pro Rechner ein eigenes Kabel. Während BNC-Netze eine BusStruktur haben, zeichnen sich Twisted-Pair-Netze durch eine Baumstruktur aus. Die einzelne Kabellänge zu einem Rechner darf 100 m nicht überschreiten. Die Anzahl der im Netz verfügbaren Rechner ist abhängig von den eingesetzten Repeatern, die hier "Hub" heißen (4Port, 8-Port; usw.). Mehr dazu steht im Kapitel über Twisted-Pair-Verkabelung. Lichtwellenleiter Seit einiger Zeit werden Netzwerkleitungen teilweise als Lichtwellenleiter verlegt. Der zusätzliche Aufwand zum Konvertieren von Strom in Licht und zurück lohnt sich. Der Hauptvorteil liegt in der sehr hohen Übertragungskapazität der durchsichtigen Faser, die bis in den Bereich von GBit/s reicht. Die Datenübertragung via Lichtsignal läßt sich außerdem durch elektrische und elektromagnetische Störungen kaum beeinträchtigen. Dadurch ist das Glasfaserkabel besonders für die Datenübertragung in elektrisch verseuchten Räumen wie zum Beispiel einer Maschinenhalle geeignet. Auch spielt die schon beschriebene Problematik des sich unweigerlich immer weiter verschlechternden Rauschabstandes keine Rolle mehr. Lichtwellenleiter bieten gegenüber dem Kupferkabel entscheidende Vorteile: Lichtwellenleiter können beliebig mit anderen Versorgungsleitungen parallel verlegt werden. Es gibt keine elektromagnetische Störeinflüsse. Wegen der optischen Übertragung gibt es keine Störstrahlungen, Kontakt- oder Masseprobleme. Entfernungsbedingte Verluste des Signals aufgrund der Leitungs-Induktivitäten, Kapaziäten und -Widerständen treten nicht auf. Weitgehend frequenzunabhängige Leitungsdämpfung der zu übertragenen Signale. Übertragungsraten sind durch mehrere Trägerwellen mit unterschiedlichen Wellenlängen (Farbspektrum) erweiterbar. Allerdings sind Lichtwellenleiter teurer als Kupferleitungen. Dies betrifft nicht nur die Materialkosten sondern auch den Aufwand für die Verlegung. Und ganz so einfach ist die Datenübertrag via Lichtwellenleiter (LWL) auch nicht. Die Eigenschaften des Leiters hängen vom geometrischen Aufbau und den physikalischen Eigenschaften des verwendeten Materials ab. Physikalische Grundlage des LWL ist das Prinzip von Brechung und Reflexion. Allgemein bekannt ist das Brechungsgesetz: Licht wird, wie das Bild zeigt, beim Übergang von einem optisch dichteren in ein optisch dünneres Medium vom Einfallslot weg gebrochen. Die Ursache dafür liegt in der sich ändernden Ausbreitungsgeschwindigkeit. Diese hat in jedem Medium einen anderen Wert. In einem optisch dichteren Medium bewegt sich Licht langsamer fort als in einem optisch dünneren. Das Verhältnis der Lichtgeschwindigkeit c in Vakuum zur Lichtgeschwindigkeit v in einem anderen Medium ergibt die Brechzahl: n = c/v Typische Werte für die Brechzahl sind: für Glas etwa 1,5, für Wasser 1,33 und für das Vakuum 1. Bei jedem Medienübergang wird ein Teil des Lichts reflektiert je stumpfer der Einfallswinkel, desto stärker die Reflexion. Der Reflexionsgrad hängt vom Unterschied der beiden optischen Dichten und vom Einfallswinkel ab. Erreicht der Einfallswinkel einen kritischen Wert, gelangt überhaupt kein Licht aus dem Medium mit der höheren Brechzahl heraus. Auf dieser Totalreflexion beruht das Prinzip des Lichtwellenleiters. Die Aufgabe des Leiters besteht ja darin, das Licht verlustlos und ohne Impulsverformung über lange Strecken zu transportieren. Da sich Licht aber nach allen Seiten ausbreitet, muß man einen Käfig bauen, der das Licht im Leiter hält. Denn bei jeder Biegung des Kabels würde sonst nur ein Bruchteil des ursprünglichen Lichts im Kabel verbleiben und eine längere Übertragungsstrecke wäre völlig unmöglich. Deshalb konstruiert man den Lichtwellenleiter als optische Röhre. Im Innern der Röhre kann sich das Licht ungehindert fortpflanzen und an den Wänden wird es total reflektiert. So wird der Lichtstrahl gezwungen, sich innerhalb der Faser fortzubewegen. Der LWL mit dem einfachsten Aufbau besteht aus einem konzentrischen optischen Kern mit einer hohen Brechzahl n1, der mit einem optischen Mantel kleinerer Brechzahl n2 versehen ist. Licht, das in einem gewissen Winkelbereich in den LWL eintritt, wird durch fortlaufende Totalreflexion an der Grenze Kern/Mantel weiterbefördert. Neben dem reinen Transport ist die Verformung, die die Lichtimpulse während der Leitung erleiden, von Bedeutung. Sehen Sie sich dazu das Einspeisen des Lichts in den LWL etwas genauer an: Trifft das Licht in einem Winkel nahe dem maximalen Einfallswinkel für den Lichtleiter auf, wird es sehr oft im LWL reflektiert. Es heißt dann Licht hohen Modes. Entsprechend heißt Licht, welches in relativ guter Übereinstimmung mit der optischen Achse des LWL eintrifft, Licht niedrigen Modes. Licht hohen Modes legt insgesamt einen längeren Weg im Kabel zurück und benötigt dadurch mehr Zeit für den Durchlauf. Fällt nun Licht mit nicht genau definiertem Winkel in den LWL ein, kommt es bis zum Ausgang wegen der unterschiedlichen Laufzeiten für jeden Einfallswinkel zu einer Dehnung des Lichtimpulses. Dieser unschöne Effekt, die Dispersion, verbreitert die Signalimpulse und beschränkt damit die erreichbare Übertragungsrate. Unter Dispersion versteht man die Verbreitung eines Lichtimpulses durch Laufzeitunterschiede (Gruppenlaufzeit) der Moden (Eigenwellen), was eine Begrenzung der Übertragungsbandbreite von LWLs zur Folge hat. Man unterscheidet die Modendispersion und die chromatische Dispersion, die sich aus Materialdispersion und Wellenleiterdispersion zusammensetzt. Die Modendispersion ist ein Effekt der unterschiedlichen Signallaufzeiten der Moden, was zu einer Signalverzerrung führt. Die Materialdispersion, auch Manteldispersion bezeichnet, ist die Wellenlängenabhängigkeit der Brechzahl eines Materials. Die Wellenleiterdispersion (Waveguide Dispersion) ist gerade bei Singlemode-LWL von Bedeutung und bezieht sich auf die Wellenlängenabhängigkeit der Lichtverteilung zwischen Kern und Mantel. Die nutzbare Übertragungsbandbreite ist umgekehrt proportional zur Dispersion. Die Dispersion wird in einer Zeit- zu Längeneinheit (ns/km) angegeben und ist der reziproke Wert des Bandbreitenlängenproduktes. Beispiel: Dispersion 5ns/km <-> Bandbreite 200 MHz * km. Abhilfe schafft ein nach außen hin stetig abnehmender Brechungsindex. Dadurch gleichen sich die Geschwindigkeiten und Laufzeiten für die verschiedenen Einfallswinkel bei genügender Kabellänge wieder aus. Wegen des stetigen Übergangs von Kern zu Mantel werden diese Leiter Gradientenprofilfasern genannt. Es ergibt sich beim Einfall der unterschiedlichen Lichtwellen trotz unterschiedlich langer Wege in der Faser eine nahezu gleiche Laufzeit aller Wellen. Eine noch geringere Dispersion liefern die Monomode-Fasern. Im Gegensatz zu den Multimode-Fasern leiten sie nur Licht einer bestimmten Wellenlänge. Ihr Kerndurchmesser ist so klein, daß sich das Licht fast nur noch entlang der Längsachse ausbreiten kann. Mit diesen Monomode-Fasern sind also die steilsten Flanken und damit die größten Übertragungsraten zu erzielen. Wellenlängen Mit zunehmender Wellenlänge nimmt der Streuverlust eines LWL ab. Verunreinigung, z.B. Sauerstoffionen oder OH-Ionen, die bei der Herstellung in die Faser gelangen, absorbieren das Licht bei verschiedenen Wellenlängen. Bedingt durch die Absorptionsspitzen gibt es Dämpfungsspitzen bei ca. 950, 1.200 und 1.400 nm und günstige Wellenlängenbereiche, die auch "Fenster" oder "Arbeitswellenlängenbereiche" genannt werden. Heute werden bei LWLSystemen drei Fenster bei 850 nm, 1300 nm und 1550 nm genutzt. Typische LWL haben folgende Daten. MultimodeStufenindexFaser Multimodefase rn mit Stufenprofil haben einen Durchmesser von 200 µm. Durch sie werden mehrere Lichtwellen gleichzeitig geschickt. An den Wänden der Faser wird das Signal hart reflektiert. Das Ausgangssignal wird dadurch verbreitert (je nach Einfallswinkel dauert das Signal unterschiedlich lang, weil der Weg mal länger und mal kürzer ist) und bedämpft. Sie werden z.B. als Verbindungska bel beim Patchfeld verwendet. MultimodeGradientenFaser Multimodefase rn mit Gradientenprof il haben einen Durchmesser von 50 µm. Durch sie werden mehrere Lichtwellen gleichzeitig geschickt. An den Wänden der Faser wird das Signal weich reflektiert. Das Ausgangssignal wird zwar auch verbreitert, aber nicht so stark bedämpft. Sie werden für Verbindungen von Gebäuden oder Etagen eingesetzt. MonomodeStufenindexFaser MonomodeFasern (SinglemodeFasern) haben einen Durchmesser von 10 µm. Durch sie werden die Lichtwellen gerade hindurchgeleite t. Das Signal wird wenig bedämpft und auch nicht verbreitert. So ist eine hohe Bandbreite möglich. Sie werden für weite Strecken eingesetzt. Als Sender für die LWL-Übertragung stehen Leuchtdioden (LEDs) und Laserdioden (LD) zur Verfügung. dabei werden LEDs am besten im Bereich von 850/860 nm eingesetzt und LDs im Bereich von 1300 nm. LED LD Licht-Typ inkohärent kohärent Wellenlänge 850/860 nm und 1300 nm 1300 nm Spektralbreite 30 - 40 nm 1 - 3 nm Abstrahlwinkel mittel bis hoch gering einkoppelbare Leistung gering hoch Lebensdauer 106 Stunden 105 Stunden Die unten stehende Abbildung zeigt die Zusammenhänge von Faserart und Sendertyp im Hinblick auf das Einsatzgebiet bezüglich Übertragungsstrecke und Übertragungsrate. Die optischen Sender und Empfänger (meist Laserdioden) müssen genau auf die Faser abgestimmt sein, um verlustarm und reflexionsfrei übertragen zu können. Ein großes technisches Problem beim Verlegen von LWL ist immer noch der Übergang von einem Leiterstück auf ein anderes, das sogenannte 'Spleißen'. Im Gegensatz zum elektrischen Leiter, bei dem eine Klemm- oder Lötverbindung ohne große Sorgfalt genügt, müssen die Glasfasern genau in der optischen Achse plan miteinander verschweißt werden. Unter Laborbedingungen stellt das natürlich längst kein Problem mehr dar, aber im mobilen Einsatz sieht das schon etwas anders aus. Beim sogenannten 'Spleißen' von Glasfaserkabeln gibt es zahlreiche Fehlermöglichkeiten. Das beginnt nach dem Entfernen des Sekundärschutzes mit mangelhaftem Reinigen der Faser. Weitere Fehlermöglichkeiten sind zu sparsame Verwendung des Leims zum Verkleben der Faser im Kontaktkörper oder zu wenig Sorgfalt beim anschließenden Schleifen der Kontaktfläche. Das beste 'Meßinstrument' ist hier eine Lupe mit mindestens 10-facher Vergrößerung. Man leitet sichtbares Licht in die Faser und prüft die Fläche auf Verunreinigungen oder Kratzer. Zum Reinigen der Kontaktfläche verwendet man nichtdenaturierten reinen Alkohol. Dämpfung Bei Lichtwellenleitern ist die Dämpfung der Energieverlust des Lichtstrahls, der beim Durchlaufen der Faser in Form von Streuung und Absorption auftritt. Sie wird in dB angegeben und meistens auf eine Länge von einem Kilometer (dB/km) bezogen. Die Dämpfung ist abhängig von der verwendeten Wellenlänge. Günstige Wellenlängen für Quarzglas liegen bei 850 nm, 1.300 nm und 1.550 nm. Die Dämpfung sollte so niedrig wie möglich sein, um die Signalverluste bei der Übertragung so gering wie möglich zu halten. Typische Dämpfungswerte liegen bei ca. 3 dB/km für 850 nm Wellenlänge. Zum Vergleich haben Koaxialkabel eine Dämpfung von ca. 17 dB/km. 10Base-F Ethernet Schon früh wurden Glasfasern als Link-Segmente für die Verbindung zweier RepeaterKomponenten standardisiert (Fiber Optic Inter Repeater Link - FOIRL). Unter Beachtung der Repeaterregel und des Laufzeitverhaltens lassen sich so entfernte Segmente untereinander verbinden. Dieser Standard wurde mittlerweile so erweitert (10Base-F), daß sich auch Stationen über Glasfasern an Glasfaserrepeater anschließen lassen. Die Konfiguration entspricht etwa der von 10Base-T. Für die Verbindung werden sogenannte ST-Stecker vorgeschrieben. Link-Segmente mit FOIRL-Geräten können bis zu 1000 m lang sein und Segmente mit 10Base-F Geräten bis zu 2000 m. Maximale Länge von Glasfaserkabeln ohne Verstärkung: Typ Dämpfung Stufenindex Gradientenindex Monomode 20dB/km bei 900nm 3dB/km bei 850nm 0,1dB/km bei 1300nm Bitratenlängen5 MHz * km produkt 1,5 GHz * km 250 GHz * km max. Länge 1 km (ohne Repeater) 10 km 60 km/100 km Gigabit-Ethernet Während die Normierung der neuen Verkabelungsklassen bzw. Kategorien E/6 (250 MHz) und für die Bewertung von Verkabelungsanlagen F/7 (600 MHz) im Jahr 2001 zum Endspurt ansetzte, ist mit Gigabit-Ethernet eine Anwendung nachgerückt, die deutlich mehr Bandbreite als bisherige Übertragungsprotokolle beansprucht. Hierdurch sind Klasse C/Kategorie-3- und -4-Verkabelungen endgültig überholt. Aber auch Klasse D/Kategorie-5-Verkabelungen sind "Auslaufmodelle", insbesondere dann, wenn zukunftssichere Konzepte für Neuinstallationen gefragt sind. Gigabit Ethernet (IEEE 802.3z, 802.3ab) Gigabit Ethernet kann sowohl über Kupferkabel als auch über Glasfaser laufen: 1000Base-T Cat 5 UTP 1000Base-CX STP/Twinax 1000Base-SX Multimode Fiber (850nm) 1000Base-LX Monomode Fiber oder Multimode (1300nm) STP- und Fiber-Standards sind verabschiedet, zur Festlegung des UTP-Standards wurde ein eigenes IEEE-802.3ab-Subkommitee gebildet. Dieses hat das Ziel, einen Standard für eine Reichweite von 100m auf UTP Cat. 5 Kabeln zu erzielen. Gigabit Ethernet: 1000Base-T über Kupfer Auf Grund der schwachen+-+ Auslegung von Klasse D/Kategorie-5-Verkabelungen sind bei 2-paariger Übertragung und Schwerpunktfrequenzen bis etwa 60 MHz Übertragungsraten bis 155 MBit/s (ATM) möglich. Der Bandbreitenengpaß bei Kategorie-5-Verkabelungen (bis 100 MHz) erfordert deshalb die Verwendung von 4 Paaren, um die Übertragung von Gigabit Ethernet zu ermöglichen. 1000Base-T verwendet eine Symbolrate von 125 Mbaud und eine 5Level-Codierung (PAM 5). Da bei 1000Base-T auf allen 4 Paaren gleichzeitig in beiden Richtungen gesendet und empfangen wird, übernimmt jedes Paar 250 MBit/s und in Summe (alle Paare) 1 GBit/s. Bei der Voll-Duplex-Übertragung über 4 Paare wechseln die Sende- und Empfangszustände der GigaBit-Ethernet-Bausteine ständig einander ab. Die gleichzeitige Übertragung in zwei Richtungen und die wechselnden Sende- und Empfangszustände haben neue Übertragungsparameter für die Bewertung von Verkabelungen generiert: 1. Leistungssumme des Nahnebensprechens(PSNEXT) Power Sum NEXT (PSNEXT) beschreibt die Summe aller Störleistungen, die durch Nahnebensprechen in ein Paar eingekoppelt werden. Das kommt dem tatsächlichen Einsatzfall, d.h. wenn alle Paare in Betrieb sind, nahe. Maßgeblich ist immer der stärkste Störer. Nur bei hohen Paarzahlen gibt es deutliche Unterschiede zwischen NEXT und Power Sum NEXT. 2. Fernnebensprechen (FEXT) Mit FEXT (Far End Cross Talk) wird das Nebensprechen am fernen (empfängerseitigen) Ende bezeichnet, das im Allgemeinen geringere Störungen verursacht als das Nahnebensprechen.Man unterscheidet beim FEXT zwischen: o Input-Output-FEXT (l/O-FEXT) und o Equal-Level-FEXT (EL-FEXT). Beide Größen sind durch die Gleichung EL-FEXT = I/O - FEXT - Dämpfung verbunden, wobei das ELTEXT in etwa dem ACR beim NEXT entspricht. 3. Leistungssumme des Fernnebensprechens (PSFEXT) Power Sum FEXT (PSFEXT) beschreibt die Summe aller Störleistungen, die durch Fernnebensprechen in ein Paar eingekoppelt werden. Das kommt dem tatsächlichen Einsatzfall, alle Paare in Betrieb, nahe. 4. Delay und Skew Propagation Delay (Verzögerung der Ausbreitung) bezeichnet die Verzögerungszeit/Laufzeit der Signalübertragung über ein Paar. Sind die Signalverzögerungen frequenzabhängig, führt das zu Signalverzerrungen, auch "Dispersion" genannt. Der Wert "Delay Skew" gibt die Differenz der Verzögerungszeiten/Laufzeiten zwischen zwei Paaren an. 5. Rückflußdämpfung (RL) Die Rückflußdämpfung, auch "Return Loss" genannt, beschreibt die Inhomogenitäten/Fehlanpassungen entlang des Übertragungskanals anhand des Verhältnißes von rücklaufender zu hinlaufender elektromagnetischer Welle. 6. Störleistungsunterdrückung Die Störleistungsunterdrückung ist ein Maß für die Fähigkeit eines Kabels, elektrische externe Störungen zu bedämpfen. Je höher die Störleistungsunterdrückung ist, umso besser ist die elektromagnetische Verträglichkeit. Gigabit Ethernet: konkurrierende Eigenschaften Die untereinander konkurrierenden Parameter für die Übertragung von Gigabit Ethernet haben Einfluß auf die konstruktive Gestaltung der Kabel. Die Problematik läßt sich anhand der unterschiedlichen Übertragungsparameter in Abhängigkeit der bekannten Kabelbauarten mit verseilten Paaren aufzeigen. Je nach Anforderung werden dem Datenkabel möglichst kleine und unterschiedliche (für NEXT und FEXT) oder möglichst lange und gleiche Paarschlaglängen) (für Dämpfung, Return Loss, propagation delay und delay skew) abverlangt. Ein Kompromiß bei UTP und S/UTP-Kabeln ist äußerst diffizil und führt zu Einbußen bei dem einen oder anderen Parameter. Eine Ausnahme stellen die S/STP-Kabel dar. Hier werden die NEXT-, FEXT- und ACR-Anforderungen wesentlich durch Einzelschirmung der Paare (PiMF) sichergestellt. Dies erlaubt erhebliche Freiheitsgrade bei der Gestaltung der Paarschlaglängen. S/STP-Kabel stehen deshalb für sicheres Einhalten aller Eigenschaften bis 600 MHz und darüber hinaus (1200 MHz). Zudem verfügen sie auf Grund der doppelten Abschirmung über hervorragende EMV-Eigenschaften. Anmerkung: Die "Schlaglänge" ist die Länge (z. B. in Millimetern), bei der sich eine Ader vom Anfangspunkt A bis zum Endpunkt B einmal um 360 Grad gedreht hat. Zusammenfassung: 1000Base-T auf UTP Kabeln Verwendung einer 5 Level Codierung gleichzeitig Verwendung von 4 Adernpaaren Vollduplex Betrieb auf allen 4 Paaren Trellis Codierung (nicht 8B10B) Gegenüberstellung Ethernet - fast Ethergent - Gigabit-Ethernet Ethernet Standard Datenrate Fast Ethernet Gigabit Ethernet IEEE 802.3 IEEE 802.3u IEEE 802.3z 10 Mbit/s 100 Mbit/s 1000 Mbit/s Zeitdauer eines Bits 100 ns 10 ns 1 ns Kollisionsfenster 51,2 µs 5,12 µs 0,512 µs Größtes Datenpaket 1518 Byte 512 Byte Kleinstes Datenpaket 64 Byte (kleinere Datenpakete mit Carrier Extension) Zugriffsverfahren: CSMA/CD Bei Erhöhung der Übertragungsrate auf 1 Gbit/s möchte man auf die vorhandenen Verkabelungsstrukturen aufsetzen, d. h. die Leitungslängen sollen gleich sein wie bei 100Base-T (Da die Dauer des Kollisionsfensters nur noch 0,512 µs beträgt, dürften rein rechnerisch die Kabel nur noch maximal 10 m lang sein - nicht praktikapel). Daher muß bei gleicher Leitungslänge die minimale Paketgröße vergrößert werden. Es gilt daher beim Gigabit-Ethernet eine minimale Paketlänge von 512 Byte. Mit Hilfe eines "Kunstgriffs" wird diese Festsetzung ohne Änderung im Datenframe-Format gewährleistet: der Carrier Extension. Bei Gigabit Ethernet-Frames mit weniger als 493 Datenbytes (46 bis 492) werden die fehlenden Datenbytes durch das Aufrechthalten des Trägers nach dem Ende des eigentlichen Datenpakets überbrückt. Der Ethernet-Frame wird dabei nicht verändert, so dass es für die Kommunikationssoftware keinen Unterschied gibt. Muss Carrier Extension eingesetzt werden, steigt auch der Overhead des Ethernet-Protokolls. Um dieses Anwachsen möglichst zu kompensieren, führt Gigabit Ethernet das Frame Bursting ein, das ebenfalls auf dem Physical Layer integriert wird. Dabei wird im Physical Layer versucht, mehrere kurze Datenblöcke in einen Ethernet-Frame zu packen, um so die erforderliche Mindestlänge von 512 Byte ohne den Einsatz von Carrier Extension zu erreichen. Im Gegensatz zu Ethernet und Fast Ethernet werden bei Gigabit Ethernet alle vier Paare eines Twisted Pair-Kabels verwendet. Damit können im Vollduplex-Betrieb die Daten Ober jeweils zwei Paare gleichzeitig gesendet und empfangen werden. Für die Optik-Version bestehen folgende Randbedingungen: Bezeichnung Medium mm Max. Länge (m) 1000Base-SX Multimode Fiber (850nm) 62,5 260 1000Base-SX Multimode Fiber (850nm) 50 550 1000Base-LX Multimode Fiber (850nm) 62,5 440 1000Base-LX Multimode Fiber (850nm) 50 550 1000Base-LX Monomode Fiber 3000 8,3 Fibre Channel Ursprünglich entwickelt von HP, IBM und Sun als Möglichkeit einer Hochgeschwindigkeitsanbindung von Rechnern zu Peripheriegeräten. Fibre Channel (ANSIT11) ist allerdings auch als LAN-Technologie denkbar. Fibre Channel definiert die Schichten 1 und 2 des OSI-Modells. Übertragungsraten von 1 Gbit/s sind heute verfügbar (2 Gbit/s als Dual Channel), 4 Gbit/s ist in Entwicklung und 8 Gbit/s geplant. Vorteilhaft sind die Ausfallsicherheit bei Verwendung eines Dual Channel, der geringe Protokoll-Overhead und gesicherte Übertragung (keine Zellverluste wie bei ATM). Es ist eine Kabellänge bis 10 km möglich. Der Adreßraum umfaßt 16'000'000 Adressen im lokalen Fibre-Channel-Netz und ist so mit klassischen LAN-Technologien vergleichbar. Fibre Channel bildet die Grundlage für andere Technologien, z. B. ATM over Fibre Channel oder Gigabit Ethernet auf Fibre Channel. Die folgende Tabelle fasst nochmals knapp alle Medien zusammen: Datenrate [MBit/s] Bezeichnung Übertragungsmedium IEEENorm 10Base5 10 RG 8 Koaxialkabel 50 Ohm, 500 m Segmentlänge 802.3 10Base2 10 RG 58 Koaxialkabel 50 Ohm, 200 m Segmentlänge 802.3a 10Broad36 10 Koaxialkabel 75 Ohm, max.Ausdehnung 3600 Meter 802.3b 10BaseT 10 Twisted Pair Kabel, Kat.3, 100 m Segmentlänge 802.3i 10BaseFL 10 MMF-Lichtwellenleiter, 850 nm, 2000 m Segmentlänge 10BaseFB 10 MMF-Lichtwellenleiter, 850 nm, 2000 m Segmentlänge 100Base-TX 100 Twisted Pair Kabel, Kat.5, 100 m Segmentlänge 100Base-T2 100 Twisted Pair Kabel, Kat.3, 100 m Segmentlänge, 2x2 Adern 100Base-T4 100 Twisted Pair Kabel, Kat.3, 100 m Segmentlänge, 4x2 Adern 100Base-FX 100 MMF-Lichtwellenleiter, 1300 nm, 2000 m Segmentlänge 1000Base-T 1000 Twisted Pair Kabel, Kat.5, 100 m Segmentlänge 802.3ab 1000Base-SX 1000 MMF-Lichtwellenleiter, 830 nm, 550 m Segmentlänge 802.3z 1000Base-LX 1000 MMF-Lichtwellenleiter, 1270 nm, 5000 m Segmentlänge 802.3z 1000BaseCX Twinax-Kupferkabel, 150 Ohm, 25 m Segmentlänge 802.3z 1000 10GBase-SR 10 seriell, Lichtwellenleiter, 850 nm, 2-300 m, ohne WAN-Anpassung 10GBase-SW 10 seriell, Lichtwellenleiter, 850 nm, 2-300 m, mit WAN-Anpassung 10GBase-LR 10 seriell, Lichtwellenleiter, 1310 nm, 2-10.000 m, ohne WAN-Anpassung 10GBase-LW 10 seriell, Lichtwellenleiter, 1310 nm, 2-10.000 m, mit WAN-Anpassung 10GBase-ER 10 seriell, Lichtwellenleiter, 1550 nm, 2-40.000 m, ohne WAN-Anpassung 10GBase-EW 10 seriell, Lichtwellenleiter, 1550 nm, 2-40.000 m, mit WAN-Anpassung 10GBaseLX4 Lichtwellenleiter, 1310 nm, 2-10.000 m, WWDM-Technik m. 4 Kanälen 10 10 Gigabit Ethernet 10 Gigabit Ethernet ist die (zur Zeit) schnellste Übertragungsvariante für Ethernet. In der IEEE 802.3ae werden die Produktspezifikationen für die entsprechenden Geräte standardisiert. Anzeige-LEDs In den Slotblechen von Netzwerkkarten finden Sie in den meisten Fällen einige Leuchtdioden, welche die gleiche Aufgabe wie bei den Hubs haben. Typische Bezeichnungen und die damit verbundenen Funktionen sind in der Tabelle angegeben, wobei - je nach Typ - auch nur eine Teilmenge davon vorhanden sein kann. Bezeichnung Bedeutung 10 LNK Diese LED signalisiert, dass die Karte im 10 MBit/s-Mode (Standard-Ethernet) arbeitet. 100 LNK Diese LED signalisiert, dass die Karte im 100 MBit/s-Mode (Fast-Ethernet) arbeitet. ACT Action Es werden Daten gesendet oder empfangen, wenn diese LED aktiv ist. COL Collision Die LED blinkt bei auftretenden Datenkollisionen (CSMA/CD). FDX Full Duplex Diese LED signalisiert, dass eine Voll-Duplex-Verbindung besteht, also gleichzeitiges Senden und Empfangen möglich ist. Link (Beat) Link Die LED leuchtet, wenn eine Netzwerkverbindung besteht (Kabel angeschlossen, Datenverbindung möglich, usw.). LNK Link Die LED leuchtet, wenn eine Netzwerkverbindung besteht (Kabel angeschlossen, Datenverbindung möglich, usw.). NML Normal Der Hub arbeitet in der normalen Betriebsart und kann zum Test per Schalter in einen Testmodus geschaltet werden, woraufhin diese Diode dann nicht leuchtet. POL Polarity Diese LED ist eher selten zu finden und ist normalerweise aus. Sie leuchtet nur dann, wenn die Polarität der Datenempfangsleitungen vertauscht ist. In der Regel können Netzwerkkarten mit einer derartigen Anzeige automatisch die richtige Polarität herstellen, und dann leuchtet auch die LED. PWR Power Die Spannungsversorgung des Hubs ist vorhanden, wenn diese LED leuchtet. REC Receive Die LED blinkt, wenn gerade Daten von der Einheit empfangen werden. RX (DATA) Receive Data Die LED blinkt, wenn gerade Daten von der Einheit empfangen werden. T/R Die LED blinkt, wenn gerade Daten von der Einheit gesendet Transceive/Receive oder empfangen werden. TX (DATA) Transmit Data Die LED blinkt, wenn gerade Daten von der Einheit gesendet werden. Die Receive- und Transmit-Leuchtdioden sind nützlich, um den augenblicklichen Status einer Netzwerkkarte ablesen zu können. Falls keine LED leuchten will, ist der Treiber für die Karte wahrscheinlich (noch) nicht korrekt installiert worden oder die Karte wurde nicht korrekt mit dem Netz verbunden. Die Anzeige LNK (Link) oder ACT (Activity) sollte auf jeden Fall dann leuchten, wenn das Netzwerk aktiv ist. Außerdern sollte an einer Netzwerkkarte auch die Receive-Anzeige leuchten oder blinken, wenn Pakete im Netz übertragen werden. Ethernetkarten konfigurieren unter Linux Um die Parameter eines Netzwerk-Interfaces anzusehen oder um eine optimale Performance zu erzielen, braucht man ein Programm, das die Konfiguration des Interfaces gestattet. Unter Linux gibt es dafür "ethtool". Leider arbeiten nicht alle Treiber mit dem Programm zusammen. In der Regel funktioniert eine Verbindung im Ethernet auch ohne weitere Konfiguration. Um die verfügbare Bandbreite optimal auszunutzen, gilt es einige Grundregeln: Die Duplexeinstellung mussebei beiden Linkpartnern gleich sein. Also entweder beide Seiten eines Link auf Autonegotiation oder beide Seiten fest auf die selben Parameter einstellen. Viele preiswerte Switches bieten keine Einstellmöglichkeiten und arbeiten immer mit Autonegotiation. Die Netzwerkkarten der angeschlossenen Clients müssen also auch auf "Auto" stehen. Zur Anzeige der aktuellen Parameter wird "ethtool" mit dem entsprechenden Interface als Parameter aufgerufen. Hier die Ausgabe für das Interface eth0: netzmafia:~# ethtool eth0 Settings for eth0: Supported ports: [ TP MII ] Supported link modes: 10baseT/Half 10baseT/Full 100baseT/Half 100baseT/Full Supports auto-negotiation: Yes Speed: 10Mb/s Duplex: Half Port: MII PHYAD: 0 Transceiver: internal Auto-negotiation: off Supports Wake-on: d Wake-on: d Mit ethtool ist es auch möglich, Einstellungen der Netzwerkkarte zu verändern. Das folgende Kommando stellt das Interface eth0 auf 100 MBit/s und Halbduplex ein. ethtool -s eth0 speed 100 duplex half Für "speed" sind die Parameter 10, 100 und 1000 erlaubt. Der Duplexmode kann auf "half" oder "full" eingestellt werden. Autonegotiation wird mit dem Paramter "autoneg on" eingeschaltet und mit "autoneg off" abgeschaltet. ethtool -s eth0 autoneg on Für Netzwerkinterfaces die WakeOnLAN (WOL) beherrschen (siehe oben), bietet ethtool auch einige Konfigurationsoptionen. Der Benutzer kann festlegen welche Art von Frame ein Aufwachen auslösen soll und ein Kennwort für Wake-on-LAN festlegen. Nicht alle Interfaces unterstützen diese Option. ethtool -s eth0 wol <argument> Das Argument von "wol" ist eine Kombination aus folgenden Buchstaben: p u m b a g s d Wake on phy activity Wake on unicast messages Wake on multicast messages Wake on broadcast messages Wake on ARP Wake on MagicPacket(tm) Enable SecureOn(tm) password for MagicPacket(tm) Disable (wake on nothing). Die Option "d" löscht auch alle anderen Optionen. ethtool -s eth0 sopass xx:yy:zz:aa:bb:cc Setzt das Wake-on-LAN-Passwort. Das Passwort wird als Folge von 6 Hexzahlen angegeben, die durch Doppelpunkte getrennt sind. Neuere Netzwerkkarten haben mitunter die Möglichkeit, eine LED manuell blinken zu lassen. Das ist zum Identifizieren einer Karte in komplexen Umgebungen sehr hilfreich. Dazu dient der Parameter "-p": ethtool -p eth1 Tabellen Normen Abkürzung, Begriff Erläuterung ISO International Standard Organization, internationale Normungsorganisation. www.iso.ch IEC International Electrotechnical Commission , Internationale Elektrotechnische Kommission, erstellt und veröffentlicht internationale Normen für Elektrotechnik, Elektronik und verwandtze Gebiete. www.iec.ch IEC 11801 Die internationale Entsprechung der TIA568B: Norm zur Definition strukturierter Gebäudeverkabelungen. Legt auch die bekannten ISO-Klassen D, E, und F fest. Klasse D Leistungsklasse für strukturierte Gebäudeverkabelung nach ISO/IEC 11801 bis 100MHz Klasse E Leistungsklasse für strukturierte Gebäudeverkabelung nach ISO/IEC 11801 bis 250MHz (Entwurf) Klasse F Leistungsklasse für strukturierte Gebäudeverkabelung nach ISO/IEC 11801 bis 600MHz (Entwurf) OSI Open Systems Interconnection, globaler Rahmen für die Standardisierung "Offener Kommunikation" zwischen kooperierenden Systemen. Die 7 Schichten des OSIReferenzmodells zerlegen, losgelöst von speziellen Implementierungen, den Funktionskomplex Kommunikation in sieben schichtdiskrete hierarchische Teilprozesse. TIA Telecommunications Industry Association, US-amerikanische Normungsorganisation für (u.a.) Netzwerkstandards. http://www.tiaonline.org TIA 568A Commercial Building Telecommunications Cabling Standard, US-Norm zur Definition strukturierter Gebäudeverkabelungen. Legt auch die bekannten Cat 5, Cat 5e, Cat 6 etc. fest. TIA 568B Heute (seit April 2001) gültige Version der US-Norm Cat 5 Engl. Abk. für Category 5 (Kategorie 5), Leistungsklasse für strukturierte Gebäudeverkabelung nach TIA568 bis 100MHz, legt (unter anderem) die bei der Endabnahme (Zertifizierung) anzuwendenden Grenzwerte für die zu messenden Parameter fest. Cat 5e "verbesserte" (engl. enhanced) Cat 5 mit etwas verschärften Grenzwerten bis 100MHz, die ausreichende Reserven zur Übertragung von Gigabit Ethernet (1000BaseT), für die Cat 5 ursprünglich nicht vorgesehen war, sicherstellen soll. Entspricht ISO 11801 Klasse D. Cat 6 Leistungsklasse für strukturierte Gebäudeverkabelung nach TIA568 bis 250MHz (Entwurf) Cat 7 Leistungsklasse für strukturierte Gebäudeverkabelung nach TIA568 bis 600MHz (Entwurf) EN European Norm, dt. Europäische Norm. Oberbegriff für die vom CEN (Comité Européenne de Normalisation) und CENELEC (Comité Européenne de Normalisation Electrotechnique) erarbeiteten Normen. EN 50173 "Europäisierte" Entsprechung der IEC 11801: Norm zur Definition strukturierter Gebäudeverkabelungen. Schnittstellendefinitionen/Steckernormen Abkürzung, Begriff Erläuterung RJ-45 Registered Jack, 8-Poliger Stecker BNC Bayonet Neill Concelman, für Koax-Verkabelungen üblicher Bayonet-Steckverbindertyp RS-232, RS232C Recommended Standard 232, serielle Schnittstelle, an PCs heutzutage meist mit DB-9 Steckergesicht DB-9, DB-9M, DB-9F In der Computer- und Telekommunikationstechnik verbreiteter 9-poliger Standard-Steckerverbinder. Einsatzbeispiele: TokenRing- und FDDI-Netze (STP), serielles Interface DB-9M (IBM AT Standard) eines Personalcomputers. 10 Base T Standard: IEEE 802.3, steht für Ethernet mit 10 Mbit/s Übertragungsgeschwindigkeit, Basisbandübertragung und TPVerkabelung (Twisted Pair) 100 Base TX "Fast Ethernet" mit 100 Mbit/s Twinax Twinaxialkabel, elektrisches Nachrichtenkabel, dessen Aufbau dem Koaxialkabel ähnelt, das jedoch zwei Innenleiter aufweist Siemon Tera "CAT 7" Steckverbinder, bei dem bis zu 4 Aderpaare einzeln geschirmt durch die Steckverbindung geführt werden. Weist gegenüber RJ-45 Steckverbinder weit bessere Leistungsdaten auf und kann daher bis zu weit höheren Frequenzen eingesetzt werden. www.siemon.com Kerpen E-Line 600 Weiterer "CAT 7" Steckverbinder, bei dem bis zu 4 Aderpaare einzeln geschirmt durch die Steckverbindung geführt werden. Weist gegenüber RJ-45 Steckverbinder weit bessere Leistungsdaten auf und kann daher bis zu weit höheren Frequenzen eingesetzt werden. www.kerpen.com Weitere Infos zur Verkabelungspraxis finden Sie im Kapitel Twisted-Pair-Verkabelung und Netzplanung. Neues Kapitel Übertragungsverfahren Bei der Übertragung von Daten in lokalen Netzen verwendet man generell Basisbandübertragung. Die Übertragungsleitung nimmt zwei (manchmal auch drei) Zustände (Pegel) abhängig von den zu übertragenden Binärwerten an. Bei Weitverkehrsnetzen wird teilweise auch modulierte Übertragung verwendet, wobei die Binärwerte einem höherfrequenten Signal (Sinusträger) aufmoduliert werden. Modulierte Übertragung findet man beispielsweise beim Datentransfer über die Telefonleitung, bei Satellitenverbindungen oder bei Breitband-Kabelnetzen. In diesem Text betrachten wir nur Netze mit Basisband-Übertragung. Die Leitungscodierung erfolgt grundsäzlich auch zwei Arten: Entweder werden die einzelnen Bits codiert (z. B. 0 V für "0" und 5 V für "1") oder es erfolgt die Codierung der Bit-Übergänge (z. B. bei NRZI, wo das Signal für eine "0" konstant bleibt und sich bei einer "1" ändert). Im Netzwerkbereich wird eine Codierung verwendet, die eine Rückgewinnung des Taktes aus dem Signal erlaubt. Bei lokalen Netzen kommen hauptsächlich drei Codes zur Abbildung der Binärwerte auf die Leitungszustände zum Einsatz: Ethernet: Manchester-Code "1": 0->1-Übergang in Bitmitte "0": 1->0-Übergang in Bitmitte Abhängig vom Wechsel der Zustände ist noch ein zusätzlicher Übergang am Anfang jedes Bits nötig. Über die Zeit gemittelt hat das Signal keinen Gleichstromanteil. Eine Rückgewinnung des Taktes aus dem Signal ist möglich. FDDI (Glasfaser, Fiber Distributed Data Interface): NRZI (non return to zero inverted)Code "0": Zu Beginn der Bitperiode Zustandswechsel (0->1 oder 1->0) "1": keine Änderung des Pegels. Der NRZI-Code erlaubt keine Taktrückgewinnung, da bei ungünstigen Bit-Folgen unter Umständen lange Zeit kein Zustandswechsel eintritt. Um trotzdem auch hier den Takt zu halten, erfolgt eine Codewandlung. Dies leistet zum Beispiel bei FDDI die 4B/5B-Umwandlung (4 binary 5 binary), bei der jeweils ein 4-BitBlock (Nibble) in einen 5-Bit-Block derart umgewandelt wird, daß in jedem 5-Bit-Block maximal zwei aufeinanderfolgende Nullen vorkommen. Das Bild zeigt Kodierung eines Signals mit verschiedenen Ethernet-Normen: Bei 10 Base T: Manchester-Code, bei Fast Ethernet: zuerst 4B5B-Code (siehe unten), dann Umwandlung auf dreiwertigen Code (–/0/+) mit fünf Schritten, was zur Reduzierung der oberen Grenzfrequenz führt. Ursprüngliche Umgewandelte Bitfolge Bitfolge (4-Bit-Block) (5-Bit-Block) 0000 11110 0001 01001 0010 10100 0011 10101 0100 01010 0101 01011 0110 01110 0111 01111 1000 10010 1001 10011 1010 10110 1011 10111 1100 11010 1101 11011 1110 11100 1111 11101 Die 8B/10B-Umwandlung (8 binary 10 binary) sieht ähnlich aus wie die 4B/5BUmwandlung. Hier werden jedoch 8-Bit-Blöcke in 10-Bit-Blöcke umgewandelt. Die 8B/10BUmwandlung wird bei Gigabit-Ethernet 1000Base-CX, -SX, -LX und beim Fibre-Channel eingesetzt. Alle für die Übertragung gültigen Kombinationen sind derart aufgebaut, dass 5 mal die "0" und 5 mal die "1" vorkommt, um Gleichstromfreiheit zu garantieren. Außerdem weisen diese Kombinationen mindestens 3 Zustandswechsel auf (von "0" nach "1" oder umgekehrt), um auf Empfängerseite die Taktrückgewinnung zu gewährleisten. Bei der 8B/6T-Kodierung (8 binary 6 ternary) wird ein 8-Bit-Block in einen 6T-Code umgewandelt. Jeder 6T-Code besteht aus 6 sogenannten"Tri-State-Symbolen", die als "-", "0" und "+" notiert werden. Übertragungstechnisch verbirgt sich hinter jedem der drei Symbole ein entsprechender elektrischer Pegel. Die Kodierung wird anhand einer Tabelle durchgeführt, die sämtliche 256 möglichen 8-Bit-Kombinationen enthält. Während 4B/5B nur eine BitUmwandlung darstellt, die noch eine anschließende Kodierung (NRZI oder MLT-3) erforderlich macht, beinhaltet 8B/6T bereits die komplette Kodierungsvorschrift. Die folgende Tabelle zeigt einen kleinen Ausschnitt der 8B/6T-Codes. Bitfolge 8B6T-Code 0 0 0 0 0 0 0 0 + - 0 0 + - 0 0 0 0 0 0 0 1 0 + - + - 0 . . . . . . . . . . . . . . 0 0 0 0 1 1 1 0 - + 0 - 0 + . . . . . . . . . . . . . . 1 1 1 1 1 1 1 0 - + 0 + 0 0 1 1 1 1 1 1 1 1 + 0 - + 0 0 Derzeit ist Fast-Ethernet 100BASE-T4 das einzige Verfahren, bei dem die 8B/6T-Kodierung eingesetzt wird. Beim Kodierungsverfahren 5-Level Pulse Amplitude Modulation (PAM5) wird pro Takt ein Symbol übermittelt, das einen von fünf verschiedenen Zuständen (-2, -1, 0, +1, +2) darstellt. Mit jedem Symbol werden zwei Bits übertragen. Da es vier verschiedene 2-BitGrupen ("00", "01", "10" und "11") gibt, bleibt noch ein Symbol übrig, das für Fehlerbehandlung eingesetzt werden kann. Die PAM5-Kodierung wird bei Fast-Ethernet 100Base-T2 und bei Gigabit-Ethernet 1000Base-T verwendet. Neues Kapitel Weitverkehrsnetze, Voice-over-IP, Poweline Communication, Funknetze Übertragungsmedien für Weitverkehrsnetze Datex-Netz (veraltet) DATEX-L DATEX ist eine Abkürzung für "Data Exchange" (Datenaustausch). Das L sagt aus, daß es sich um ein leitungsvermitteltes Netz handelt, d. h. es wird ein Leitungsweg zwischen zwei Kommunikationspartnern zur Verfügung gestellt. Beide Partnerstationen müssen in Datenrate, Code und Protokoll übereinstimmen. Der Vorteil gegenüber dem Telefonnetz liegt im schnellen Verbindungsaufbau (0.4 - 1 Sekunde). Da heute Datex-L keine Vorteile mehr gegenüber ISDN hat, ist Datex-L ein auslaufendes Modell. DATEX-P Das P steht für "Paket-Vermittlung". Die Daten werden in Form genormter und mit Adressinformation versehener Datenblöcke (Datenpakete) übertragen. Stationen, die nicht zur Paketübertragung in der Lage sind, werden über einen Umsetzer (PAD = Packet Assembly Disassembly) versorgt. Die angeschlossenen Stationen können mit unterschiedlichen Datenraten arbeiten. Die Paketübertragung selbst erfolgt im Netz mit 64 KBit/s, wobei derzeit das Netz auf 1,92 MBit/s ausgebaut wird. Jedes Datenpaket wird auf dem günstigsten Weg ohne Rücksicht auf die logische Reihenfolge übertragen. Zwischen zwei über DATEX-P verbundenen Partnern können u. U. mehrere Übertragungswege existieren. Beim Empfänger wird die korrekte Reihenfolge der Pakete wiederhergestellt. Inzwischen ist aber der Bedarf an schnellerer Datenübertragung erheblich gestiegen, so dass als Nachfolgetechnik nun vorzugsweise Frame Relay verwendet wird. Fernsprechnetze und ISDN/DSL Das Fernsprechnetz ist das mit Abstand am weitesten ausgebaute Weitverkehrsnetz. Es dient vor allem zur Übertragung von Telefongesprächen, aber auch für die Datenkommunikation. Das Telefonnetz ist ein Beispiel für ein Leitungsvermitteltes Netz. Jedem Verbindungskanal steht eine Bandbreite von 64 kBit/s zur Verfügung. Auf analogen Leitungen (Modem) wird diese Grenze allerdings nicht erreicht. Die Datenrate kann hier bei bester Leitungsqualität bis zu 56 kBit/s betragen. Bei einem Zugang über eine Mobilfunkstrecke ist die Bandbreite allerdings noch geringer. ISDN steht für "Integrated Services Digital Network" = diensteintegrierendes Netz (Siehe auch Näheres im Modem-Skript). Der ISDN-Basisanschluß bietet zwei Kanäle mit einer Bandbreite 64 kBit/s pro Kanal. Aufgrund der digitalen Übertragungsweise steht diese durchgehend zur Verfügung. Neben den beiden Basiskanälen steht noch der Signalisierungskanal (D-Kanal) mit 16 kBit/s zur Verfügung. Dieser wird nur für die Signalisierung genutzt, während die beiden B-Kanäle der eingentlichen Datenübertragung dienen. Neben dem Standardanschluß mit 64 kBit/s wird noch der ISDNPrimärmultiplexanschluß (PMxA) PMxA angeboten, der eine Bandbreite von 2 MBit/s bietet. Der PMxA hat 30 B-Kanäle mit einer Datenrate von jeweils 64 kBit/s. Dazu kommt noch ein D-Kanal, der hier im Unterschied zum ISDN-Ba auch eine Datenrate von 64 kBit/s hat, sowie ein weiterer Kanal für Rahmenbildung und Rahmenerkennung mit einer Rate von ebenfalls 64 kBit/s. Die Bandbreite für Modems ist selbst bei gutem Signal/Rausch-Abstand auf analogen Telefonleitungen ausgereitzt. Jedoch stellen die geringen Übertragungsraten kein Problem der Kupferadern des Telefonanschlusses bis zur Vermittlungsstelle dar. Das Problem liegt im Zusammenspiel aller beteiligten Komponenten des Netzes: Der Weg vom Anschluß zur Vermittlungsstelle, die Übertragungstechnik der Vermittlungsstellen untereinander und der Weg zu dem Anschluß der angewählt wurde. Ende der 80er Jahre hat man SDSL (Single Line Digital Subscriber Line) und HDSL (High Data Rate Digital Subscriber Line) entwickelt. So war es nun endlich möglich kostengünstige 2-MBit-Systeme anzubieten. HDSL hat einige Vorteile gegenüber SDSL: Drei- bis vierfache Leitungslänge ohne Regeneratoren durch Verwendugn eines andern Leitungsprotokolls und einer leistungsstarken Echokompensation. Außerdem verursacht HDSL relativ geringe Störungen der benachbarten Adern, diese können bei SDSL wegen der starken Einstrahlung kaum für andere Anwendungen (Telefonie) verwendet werden. ADSL (Asymetric Digital Subscriber Line) und VDSL (Very High Data Rate Digital Subscriber Line) wurden ebenfalls Anfang der 90er Jahre entwickelt, hierdurch wird noch mehr Bandbreite zur Verfügung gestellt. Mehr dazu im Modem-Skript. Frame Relay Aufgrund des immer breiteren Einsatzes von Glasfaserleitungen ist die Fehleranfälligkeit der Datenübertragung zurückgegangen. Die Rechenleistung der Endgeräte ist zudem mittlerweile genügend hoch, um auch Aufgaben der Flußsteuerung und Verbindungsüberwachung zu übernehmen. Aus diesem Grunde kann hier das Prinzip des "Fast Packet Switching" (schnelle Paketvermittlung) zum Einsatz kommen. Das Verfahren ist als "Frame Relay" standardisiert worden. Das Frame-Relay-Verfahren arbeitet mit Datenpaketen variabler Länge, die allerdings ohne Fehlerkorrektur vermittelt werden. Beim Frame-Relay-Verfahren findet die Datenübertragung über virtuelle Verbindungen statt. Die zugehörigkeit eines Datenpaketes zu einer virtuellen Verbindung wird im Paketheader codiert. Hierfür ist das DLCI (Data Link Connection Identifier) Feld vorgesehen, das insgesamt 10 Bit breit ist. Insgesamt sind maximal 1024 virtuelle Verbindungen gleichzeitig möglich. Die Zahl der virtuellen Verbindungen wird durch die Anzahl der Bits im Paketheader, die zur Codierung einer Verbindung dienen begrenzt. Mit 10 Bit können demnach 210 = 1024 virtuelle Verbindungen dargestellt werden. Effektiv nutzbar sind allerdings nur 976 virtuelle Verbindungen, da einige DLCI für Sonderaufgaben reserviert sind. Eine virtuelle Verbindung kann dauerhaft eingerichtete werden oder erst bei Bedarf aufgebaut und nachher abgebaut werden. Im Falle der dauerhaften Verbindung spricht man von einer "Permanent Virtual Circuit", abgekürzt PVC, anderenfalls von einer "Switched Virtual Circuit" (SVC). Die SVCs werden beispielsweise dann eingesetzt, wenn die Verbindung nur selten punktuell genutzt wird. Eine dauerhafte Verbindung würde in einem solchen Falle nur unnötige Kosten verursachen. Ein Beispiel hierfür ist z.B. die Anbindung von Telearbeitsplätzen an das Rechnernetz des Betriebes. Das Frame-Relay-Verfahren ermöglicht zwar einen schnellen Datenaustausch in paktetvermittelten Datennetzen, doch die Übertragung von Sprache und anderen echtzeitkritischen Datenströmen kann hiermit nicht erfolgen. Bei der Übertragung eines Datenpaktes ist die Leitung für die Zeit der Übertragung blockiert; eine begonnene Übertragung eines Paketes kann nicht mehr unterbrochen werden. Aufgrund der variablen Größe der Datenpaktete bei Frame Relay kann die Übertragung daher eine längere Zeit inanspruch nehmen. Ein Weg dieses Problem zu lösen wäre es, die Datenpaketgröße drastisch zu reduzieren, wie es z.B. beim ATM-Verfahren festgelegt wurde. Während das Datex-Netz bis zur Schicht 3 hinauf definiert ist, umfaßt der Standard von Frame-Relay nur noch die Schichten 1 und 2. Die Eigenschaften in Stichpunkten: Paketorientiertes Protokoll mit variabler Paketlänge Frames werden in derselben Reihenfolge Empfangen wie sie abgeschickt wurden, es ist also keine Zwischenspeicherung und Sortierung nötig. Keine Empfangsbestätigung, keine Flußkontrolle (bleibt höheren Protokollen vorbehalten). Fehlererkennung, aber keine Fehlerkorrektur. Nur fehlerfreie Frames werden weitergeleitet. Transparente Verbindung FPS FPS (fast packet switching) ist ein schneller Paketvermittlungsdienst, bei dem Rahmen fester Länge vermittelt werden. Die Rahmen werden auch als Zellen bezeichnet, man spricht von Zellenvermittlung (cell switching). ATM basiert auf FPS. FPS zeichnet sich durch eine variable Bandbreitenzuordnung aus. Nur die Informationen im Informationsteil (Header) der Zellen sind mit einer Fehlererkennung ausgestattet. Die Zellen werden wie bei ATM über virtuelle Verbindungen durch das Netz übertragen (zu virtuellen Verbindungen siehe 'ATM'). Zellen werden ununterbrochen generiert und übertragen, nicht belegte Zellen werden im Header als 'leer' gekennzeichnet. ATM ATM steht für asynchronous transfer mode = asynchrone Übertragungsart. Diese Hochgeschwindigkeits-Paketvermittlung wurde für Breitband-ISDN (B-ISDN) als Vermittlungstechnik entwickelt und ist für Daten, Sprache, Text und Bilder gleichermaßen geeignet. Es gilt als die Technologie der Zukunft. ATM basiert auf FPS (fast packet switching). Dabei werden die Daten zu Paketen zusammengefaßt und zum Ziel geroutet. Das zuständige Normungs- und Standardisierungsgremium ist nicht das IEEE, sondern das ATMForum. Im folgenden soll die Funktion von ATM vereinfacht dargestellt werden. ATM arbeitet verbindungsorientiert, d. h. vor der Übertragung muß eine Verbindung erst geschaltet werden. Wie bei der klassischen Telefontechnik wird die Verbindung "irgendwie" geschaltet; wenn der kürzeste Weg bereits ausgelastet ist, wird ein Ausweichweg verwendet (salopp gesagt: Wenn die Strecke Nürnberg-München ausgelastet ist, wird eben der Weg NürnbergFlensburg-München gewählt). Im Kontrollfeld (Header) werden auch keine expliziten Quell- und Zieladressen angegeben, sondern ein virtueller Pfad und ein virtueller Kanal. Ein virtueller Pfad (virtual path, VP) ist eine für kurze Zeit geschaltete Verbindung, die während ihrer Existenz so aussieht wie eine richtige Festverbindung (Standleitung). Dieser geschaltete Weg durch das Netz wird als virtuell bezeichnet, weil er nicht permanent fest geschaltet ist, sondern nur für die kurze Zeit der Datenübertragung. Zur Kennzeichnung wird ihr ein VPI (virtual path identifier) als Bezeichnung zugeordnet. Ein virtueller Kanal (virtual channel, VC) ist ein Übertragungskanal, der genau wie der virtuelle Pfad nur während der Datenübertragung existiert. Zur Kennzeichnung wird ihm ein VCI (virtual channel identifier) als Bezeichnung zugeordnet. Ein virtueller Pfad besteht aus mehreren virtuellen Kanälen, komplexe Anwendungen können mehrere virtuelle Kanäle gleichzeitig belegen. Die klassischen Standleitungen enthalten ebenfalls mehrere Übertragungskanäle, doch können die virtuellen Kanäle bei ATM die virtuellen Pfade (Leitungen) wechseln. Wenn beispielsweise zwei virtuelle Kanäle auf Pfad 1 ankommen, kann Kanal 1 durchaus auf Pfad 2 und Kanal 2 auf Pfad 1 zum selben Zielnetz geschaltet werden. Bei VP-Switches bleiben die Kanäle den virtuellen Pfaden fest zugeordnet, die Pfade werden durch das Netz geschaltet. Bei VC-Switches werden die Kanäle über verschiedene Pfade geschaltet. Bei den geschalteten Verbindungen gibt es zwei wichtige Arten: o Eine PVC (permanent virtual circuit = permanente virtuelle Verbindung) bleibt auch im unbenutzten Fall so lange geschaltet, bis sie wieder gewollt abgebaut wird. o Eine SVC (switched virtual circuit = geschaltete vinuelle Verbindung) bleibt nur für die Dauer der Übertragung geschaltet und wird nach Übertragungsende automatisch wieder abgebaut. Bei der Wegewahl wird eine einfache Art des Routings verwendet, um die Datenpakete durch das Netz zu senden. Der Weg, den das Datenpaket durch das ATM-Netz zurücklegt, besteht dabei aus drei Hauptabschnitten: 1. Vom Absender zum Switch, an dem der Absender angeschlossen ist. 2. Vermittlung innerhalb des ATM-Netzes von Switch zu Switch. 3. Vom Switch, an dem der Empfänger angeschlossen ist, zum Empfänger. Als Übertragungsverfahren wird bei ATM das Paketvermittlungsverfahren Cell Relay ("Zellenvermittlung") verwendet. Bei diesen Zellen handelt es sich um Rahmen fester Länge mit 5 Byte Header für Adressierung und Steueranweisungen sowie 48 Byte Nutzdaten, insgesamt also 53 Byte. Dabei wird zwischen zwei unterschiedlichen Zelltypen unterschieden. Die UNI-Zellen (user network interface) werden an der Schnittstelle zwischen Anwender und ATM-Netz verwendet und besitzen im Header 8 Bit für die Angabe des virtuellen Pfades und 4 Bit für die Flußkontrolle. Die NNI-Zellen (network node interface) werden zwischen den Netzwerkknoten (ATM-Switches) verwendet und besitzen 12 Bit für die Angabe des virtuellen Pfades, jedoch keine Flußkontrolle. Die Zellen werden von den Switches an den entsprechenden Trennstellen im ATM-Netz automatisch umgewandelt. Durch die sogenannte 'cell loss priority', die Verlustpriorität, wird festgelegt, welche Zellen auch bei sehr hoher Auslastung des Netzes noch unbedingt übertragen werden müssen (z. B. kritische Daten oder Synchronisationsanweisungen) und welche gegebenenfalls auch verloren gehen können (z. B. Bildinformation bei Bildtelefonie). Die Fehlerkontrolle bezieht sich nur auf den 5 Byte großen Header, nicht jedoch auf die Daten. Es ist ATM völlig egal, was übertragen wird, wichtig ist nur wohin und wie. Das ist auch ein Grund für die Schnelligkeit. Die wichtigsten Übertragungsraten sind 622 MBit/s (Lichtwellenleiter), 155 MBit/s (LWL und Kupferleitungen), 100 MBit/s (LWL und FDDI) und 26 MBit/s (Kupferleitungen). ATM kann Datenströme unterschiedlicher Bitraten flexibel übertragen und vermitteln. Die Übertragungsrate ist skalierbar, d. h. Übertragungsbandbreite wird flexibel bereitgestellt. Jedem Endgerät kann statisch (also vorab) oder dynamisch (also bei konkretem Bedarf) Bandbreite zugewiesen werden, die Netzleistung wächst also mit. Durch die transparente Übertragung in den Zellen werden bei den Netzübergängen keine Gateways benötigt, um von LAN- auf WAN-Protokolle umzusetzen. ATM ist gleichermaßen für LANs, schnelle Backbones und WANs geeignet. ATM ist verbindungsorientiert und baut immer eine Punkt-zu-Punkt-Verbindung auf. Für eine Übertragung muß also immer eine Verbindung zwischen zwei Stationen geschaltet werden (ATM basiert auf der Vermittlungstechnik). Klassische LANS sind verbindungslos, jede Station ist zu jeder Zeit mit allen anderen Stationen fest verbunden, alle teilen sich dasselbe Übertragungsmedium. ATM als LAN (lokales ATM, L-ATM) benötigt eine LAN-Emulation. So entsteht ein virtuelles Netz, bei dem das ATM-Netz mehreren Teilnehmern (Geräte/Software) ein nichtexistierendes LAN vorspiegeln muß. Dabei sind verschiedene Ansätze allerdings noch in Diskussion. Diese LAN-Emulationen arbeiten alle auf Schicht 2 des ISO-Schichtenmodells, dadurch eignen sie sich für routebare und nicht routebare Protokolle gleichermaßen. Für die Übertragung von IP-Paketen über ATM haben sich die nachfolgend beschriebenen 3 Verfahren heute etabliert. CLIP Dies ist die Abkürzung für "Classical IP". Hier werden die Datenpakete aus unterschiedlichen Netzen über ATM transportiert. Die Datenpakete aus verschiedenen Netzformen (wie Ethernet, Token-Ring) können in einem Fall nach der "Logical Link Control Encapsulation"-Methode alle über eine virtuelle Verbindung übertragen werden. Die ATM-Zellen werden mit Header-Informationen über den Protokolltyp des transportierten Datenpaketes versehen. Zur effizienten Gestaltung des Datentransportes kann auch je Protokolltyp eine virtuelle Verbindung aufgebaut werden. Das Feld mit der Typangabe für die transportierten Pakete kann enfallen, so das mehr Raum für Nutzinformationen zur Verfügung steht. Die mittels CLIP transportierten Datenpakete können allerdings hinsichtlich der IP-Adressen nur immer innerhalb eines IP-Subnetzes transportiert werden, da hier keine Möglichkeit des Routings über ATM besteht. LANE Das LAN-Emulationsverfahren (LANE) simuliert die Abläufe und Funktionen eines herkömmlichen LAN. Hierdurch kann eine existierendes LAN auf ATM abgebildet werden. Das emulierte LAN (ELAN) hat eine Client/Serverarchitektur, bei der jedes Endgerät einen softwareseitigen "LAN Emulation Client" (LEC) besitzt. Dieser unterhält Steuerverbindungen zu den einzelnen LANE-Servern. Eine Nutzdatenverbindung kann direkt zu den anderen LEC aufgebaut werden. Daneben kann auch eine Broadcastsendung verschickt werden, indem einen Nachricht an den "Broadcast and Unknown Server" (BUS) geschickt wird, der diese Nachricht dann an alle Clients verteilt. Das ELAN wird von einem "LAN Emulation Configuration Server" konfiguriert. Daneben ist noch ein LAN-Emulations-Server installiert, der zur Registrierung einzelner Clients und zur Ermittlung von Adressen dient. Die Teilnehmer des emulierten LAN gehören alle zu einem Subnetz. Es besteht mittels LANE keine Möglichkeit, Datenpakete zwischen einzelnen LANE-Netzen zu routen. Auch die Garantie einer Dienstgüte ist bei LANE nicht möglich. MPoA Das "Multiprotocol Encapsulation over ATM"-Verfahren beseitigt die Nachteile der anderen beiden Verfahren hinsichtlich des Routings zwischen den Subnetzen. Zudem kann hier die Dienstegüte für einzelne Dienste garantiert werden. Das Netz besteht aus MPoA-Servern und MPoA-Clients. Die MPoA-Server dienen als virtelle Router, welche die Aufgabe haben, die Route zum Zielnetz zu ermitteln. Im Gegensatz zu den herkömmlichen Routern, die auch den Transport der Daten übernehmen, sind die Router hier allerdings nur für die Wegewahl zuständig. Die MPoA-Clients bauen mit den Informationen der MPoA-Server die gewünschte Verbindung auf, und übernehmen den eigentlichen Datentransport. Gegenüberstellung der Technologien Telefonnetz Paketnetz (Datex, X.25) Frame-Relay ATM schnelle Vermittlungsprin Leitungsvermittlu Paketvermittlu Zellvermittlu Paketvermittlu zip ng ng ng ng Fehlerkorrektur im Netz nein ja nein nein Paketgröße keine Pakete variabel variabel fest (53 Byte) mehrere Verbindungen gleichzeitig nein ja ja ja Durchsatz der Netzknoten sehr hoch mittel hoch sehr hoch Punkt-zu-Punkt-Verbindungen Bei größeren Entfernungen zwischen zwei Punkten kommen fast ausschließlich Glasfaserleitungen zum Einsatz. Sie bieten theoretisch mögliche Kapazitäten im TBit/sBereich. In der Boom-Phase des Internet um die Jahrteusendwende vergruben die Telekommunikationsunternehmen zehntausende Kilometer teures Glasfaserkabel in ganz Europa. Einige Energieversorger sind ins Geschäft mit den Lichtwellenstrecken eingestiegen und machen sich dabei ihre bestehende Infrastruktur zunutze. Der Bedarf blieb jedoch hinter den Erwartungen zurück. Quelle: TeleGeography Research, PriMetrica Inc, www.telegeography.com Angemietet wurden die Lichtwellenleiter von den Providern meist "dunkel" (Dark Fiber), also unbeschaltet. Wenn ein IP-Carrier neue Punkt-zu-Punkt-Strecken benötigt, kann er bei den Dark-Fiber-Versorgern Faser(n) anmieten. Der Dark-Fiber-Anbieter verlegt Kabel verschiedener Hersteller. In einem LEAF-Kabel (Large Effective Area Fiber) beispielsweise stehen 144 Fasern zur Verfügung. Mit welcher Kapazität der Carrier die Fasern beschaltet, liegt in seinem Ermessen. Die technische Ausstattung dafür richtet er selbst ein. Um eine flächendeckende Versorgung mit seinem Backbone-Netz zu gewährleisten, muss ein IP-Carrier zumindest in mehreren Großstädten vertreten sein. Dazu betreibt er dann "Points of Presence" (PoPs), die über Punkt-zu-Punkt-Glasfasertrassen verbunden sind. Von dort aus führen sie außerdem IP-Leitungen zu ihren Kunden. Außerdem arbeiten die IP-Carrier oft auch als Internet Service Provider. In den PoPs finden überdies noch Router von kleineren lokalen Carriern Platz, die mit dem großen Nachbarn IP-Daten austauschen. Die PoPs dienen innerhalb des Carrier_netzes als Datendrehscheibe. Um mehr Bandbreite aus einer Faser herhauszuholen, hat sich das "Dense Wavelength Division Multiplexing" (DWDM) durchgesetzt. Dabei werden mehrere Signale multiplex in den Lichtwellenleiter eingespeist. Pro Wellenlänge und Faser lassen sich heutzutage Bitraten von 1 GBit/s bis 40 GBit/s erreichen. Auf dem Weg durch den Lichtwellenleiter wird das Signal gedäpft. Etwa alle hundert Kilometer müssen Repeaterstationen stehen, die mit optischen Faserverstärkern ausgestattet sind. Je nach Bedarf wird bei dieser Gelegenheit auch noch eine Abzweigung eingerichtet, um regionale Kunden zu versorgen. In nahezu jedem modernen Weitverkehrsnetz kommt als Transporttechnik in Europa die "Synchrone Digitale Hierarchie" (SDH) und in den USA der fast deckungsgleiche "Standard Synchronous Optical Network" (SONET) zum Einsatz. Mit einem Zeitmultiplexverfahren werden Nutzdaten in Transport-Container ("Synchrone Transport-Module", STM) verpackt und mit einem Header versehen. Jedes Paket hat je nach Streckenbandbreite eine bestimmte "Byte-Breite", dauert aber stets 125 Nanosekunden. SDH gestattet den Verkauf von Kapazitäten je nach Bandbreite. Im Angebot stehen beispielsweise STM-1 (155 MBit/s), STM-4 (622 MBit/s), STM-16 (2,5 GBit/s) und STM-64 (10 GBit/s). In den USA bietet der SONET-Standard die gleichen Geschwindigkeitsstufen unter anderen Bezeichnungen: Eine STM-4-Leitung entspricht in SONET einer OC-12Verbindung ("OC = Optical Carrier"), STM-16 entspricht OC-48, usw. Diese Klassifizierung ist für die Provider wichtig. Inoffiziell teilen sich die Unternehmen in "Tier"-Klassen ein (englisch "tier" = Stufe, Rang). "Tier 1" bedeutet über weite Strecken mindestens STM-16, ein autonomes System mit nationaler oder globaler Ausdehnung und rege Beziehungen zu anderen Carriern. "Tier-2"-Anbieter sind deutlich kleiner, und "Tier-3"-Provider verfügen über ein lokal beschränktes Glasfasernetz. Der Betrieb von Austauschknoten oder Transitpunkten benötigt Hardware und Wartung. Daher haben sich weltweit einige große öffentliche Knoten etabliert. Europas größter Knoten ist der "London Internet Exchange"(LINX). An den Knoten können die Provider ihre Daten kostenneutral von einem Netz ins andere leiten ("Commercial Internet Exchange", CIX). Sie sorgen dabei selbst für die Zuführung zum CIX und die Kosten. National existieren kleinere Knoten, in Deutschland beispielsweise der INXS in München, der BCIX in Berlin und der HHCIX in Hamburg sowie der internationam bedeutende DeCIX in Frankfurt (betrieben vom Provider-Verband eco). 141 Carrier und Provider sind dort derzeit angebunden. IP-Routen zwischen London, Paris und Frankfurt Statistiken über die Datenmenge, die durch den DeCIX rauscht erhalten Sie unter http://www.decix.com/info/traffic.html. Weiterführende Informationen zu diesem Thema: Roland Kiefer, Peter Winterling: Optische Netze, Technik, Trends und Perspektiven, c't 2/03, S. 152 Holger Bleich, Jürgen Kuri, Petra Vogt: Zwischen Boom und Baustopp, Schweinezyklus beim Ausbau der Internet-Backbones, c't 21/03, S. 184 Irene Heinen: Daten-Disponenten, Neue Internet-Knoten verkürzen Wegstrecken auf dem Daten-Highway, c't 25/03, S. 92 Holger Bleich: Bosse der Fasern, Die Infrastruktur des Internet, c't 07/05, S. 88 Voice over IP Der klassische Telefondienst wird heute im Fernbereich, Mobilkommunikation sogar generell über digitale Paketvermittlungsnetzwerke abgewickelt. Die Konvergenz von Internet und Telekommunikation ist ein Trend von erheblicher Bedeutung für die gesamte Informatik. Unternehmen mit eigenen Computernetzen und/oder festen Internet-Anschlüssen gehen deshalb dazu über, diese Netzwerke auch zur internen bzw. externen Sprachkommunikation zu nutzen. Das verwendete Protokoll in der Anwendungsschicht heißt "Voice-over-IP" (VoIP). Durch "Internet-Telefon-Gateways" läßt sich das klassische Telefonnetz mit dem IPNetz verbinden, so daß von Telefon zu Telefon über das Internet telefoniert werden kann. Bekanntester, aber wenig populärer Ableger ist die Internet-Telefonie. Zwar läßt sich damit billig mit Gesprächspartnern in der ganzen Welt telefonieren, dies müssen lediglich ebenfalls über ein Internet-Telefon oder die entsprechende Software verfügen. Aber da der Datenstrom im Internet unberechenbar ist und es keine Zustellgarantie für Datenpakete gibt, leidet die Sprachqualität. Im eigenen Firmennetz hingegen lassen sich Netzlast, Traffic, Laufzeiten und Verbindungswege kontrollieren. Das ändert zwar nichts daran, daß IP an sich ausschließlich zur Datenübertragung entwickelt wurde. Das IP-Protokoll ist aber wesentlich flexibler, als es ihm viele zutrauen. Firmen können Ihren gesamten internen Telefonverkehr über ihr Intranet kostenlos abwickeln. Privatanwendern und Firmen erschließen sich Kostenersparnisse bei Telefonaten ins Ausland oder zum Mobilfunknetz. Voice over IP stellt die erste Stufe der Konvergenz von Daten und Sprache dar. Die Sprachintegration auf der flexibleren EDV-Infrastruktur auf der Basis von IP bietet sich an. Die Schritte zur integrierten Telefonie bzw. der vollständigen Vereinigung der Kommunikationsplattformen sind: 1. Gemeinsame Infrastruktur In die Telefonapparate werden Netzwerk-Schnittstellen eingebaut. Das Telefon ist somit in die gleichen Services- bzw. Netzumgebung eingebunden wie der PC 2. Gemeinsames Management Die Funktionen der Telefonzentrale werden auf einem PC-Server integriert. Die Verbindung ins öffentliche Telefonnetz erfolgt via Router. Die Sprache wird auf dem Firmennetz gegenüber dem Datenverkehr privilegiert. 3. Gemeinsame Anwendungen Die Interaktion zwischen Daten und Sprache ist nun möglich: Eine Telefonnummer kann mit einer Produkt- oder Kunden-Nummer oder einer Homepage verknüpft werden etc. 4. Mehrwertdienste Die Internet-Telefonie bietet zusätzliche Leistungsmerkmale bei PC-Nutzung z. B. Videoübertragung, Whiteboard oder gemeinsames Bearbeiten von Dokumenten. Bei geringeren Kosten bietet die integrierte Telefonie bessere Leistung und ist bereits sehr stark auf die kommenden Geschäftsanwendungen ausgerichtet. Die Vorteile sind u. a.: Mit dem Zusammenlegen der Infrastruktur und dem Management verringern sich nicht nur die Investitionskosten (nur eine Verkabelung, nur ein Kommunikationsanschluss pro Arbeitsplatz), sondern insbesondere auch die Betriebskosten. Der Unterhalt und Betrieb eines einzigen Service für Sprache und Daten auf einer einzigen Kommunikationsinfrastruktur schlägt gegenüber zwei getrennten Systemen positiv zu Buche. Die lokale Telefonie innerhalb eines Netzwerkes ist gratis. Die Infrastruktur stellt einen lokalen Telefonanbieter dar; es fallen für lokale Gespräche keine Kosten bei einem externen Carrier an. Die Auslastung des bestehenden Netzwerkes wird optimiert. Die LAN-Architektur bietet grösstmögliche Flexibilität für Anpassungen an die Unternehmensstruktur. Zu einem kompletten Voice-over-IP-System gehört zunächst einmal eine TK-Anlage auf Softwarebasis. Als Kommunikationszentrale verwaltet sie die Berechtigungen und Profile der Nutzer. Sie stellt Verbindungen her und sorgt für die richtige Zuordnung, ohne daß die eigentliche Kommunikation über sie läuft. Der IP-Gateway ist der Mittler zwischen IPTelefonie und der bisher genutzten Telefontechnologie wie etwa ISDN. Am Ende der Leitung im VoIP-Netz steht entweder ein IP-Telefon oder ein Computer mit Sound-Karte und IPTelefonie-Software. Für die Sprachein- und -ausgabe wird ein Headset verwendet. Herkömmliche Telefone lassen sich aber mit einer Adapterkarte ebenso computertauglich anschließen. Bei Datenpaketen kommt es nicht so sehr darauf an, in welcher Reihenfolge und mit welcher Verzögerung sie übertragen werden. Der Empfänger speichert die eingehenden Pakete und setzt sie wieder in der richtigen Reihenfolge zusammen. Wird ein Paket beschädigt oder geht verloren, wird es erneut gesendet. Das funktioniert nicht bei zeitsynchronen Daten wie Sprache oder Video. Deshalb wurden im neuen IP-Standard, IPv6, zwei neue Sub-Standards implementiert: das Reservation Protocol (RSVP) und das Realtime Transport Protocol (RTP). RSVP erlaubt zwei Endpunkten einer Verbindung, bestimmte Parameter auszuhandeln, darunter eine maximale Verzögerung (Delay) und einen minimalen Durchsatz. Das IP-Netz garantiert mittels verschiedener Verfahren, daß diese als "Flowspec" bezeichneten Quality of Service (QoS) eingehalten werden. Am sichersten funktioniert das unter Verwendung des "Guaranteed-Service"-Verfahrens. Hierbei wird anderer Traffic im Netz unterbunden, sobald dieser die Flowspec gefährden könnte. Diesem starren, aber effizienten Verfahren steht "Controlled Load" gegenüber. Hierbei dürfen auch andere Stationen IP-Pakete solange senden, wie eine mittels Flowspec ausgehandelte Verbindung keine Beeinträchtigung in den vorgegebenen Parametern feststellt. "Controlled Load" bietet also mehr Dynamik und lastet das IP-Netz insgesamt besser aus. Ein Vorurteil ist, daß für Voice over IP Anwendungen bestimmte IP-Pakete mit Sprachdaten mittels RSVP priorisiert werden. Das stimmt nicht. RSVP dient nur zum Aushandeln und Überwachen der Verbindungsparameter. IP-Sprachpakete werden zwar in den meisten IPNetzen von Routern und Switches vorrangig behandelt, allerdings ist diese Priorisierung meist herstellerabhängig und somit proprietär. Das birgt Probleme, wenn Netzkomponenten unterschiedlicher Hersteller im IP-LAN Voice-Daten transportieren soll. Dem soll RTP entgegenwirken. Jedes IP-Paket erhält seit IP 6 zusätzlich einen Zeitstempel (Time Stamp) mit der Entstehungszeit sowie eine Folgenummer (Sequence Information). Dies erlaubt es dem Empfänger, Pakete nicht nur in richtiger Reihenfolge, sondern auch zeitsynchron zusammenzusetzen. Das Real Time Control Protocol (RTCP) koordiniert zudem Sender- und Empfängerprotokolle und sorgt für Monitoring und Management von Echtzeitverbindungen. Außerdem definiert RTP die Kodierung von Audiosignalen nach G.711 sowie G.723. Hierbei handelt es sich um Codecs (Coding/Decoding), die von der ITU zur analogen und digitalen Verschlüsselung von Sprache in Telefonnetzen definiert wurden. G.711 entspricht in etwa dem ISDN-Standard, Sprachdaten werden mit einem Datenstrom von 64 kbit pro Sekunde übertragen. Für Voice over IP kommt G.711 jedoch nicht zum Einsatz, da sich die Datenlast durch zusätzliche Komprimierung und bessere Abtastverfahren auf bis zu 9,6 kbps drücken läßt (dies entspricht dem GSM-Standard). Verbreitet ist vor allem das CELP-Verfahren (Codebook Excited Linear Predictive Coding), das mit einem komplizierten mathematischen Modell der menschlichen Sprache arbeitet. Als Ergebnis entsteht ein Datenstrom von 16 kbit pro Sekunde, der Telefonate in ISDN-Sprachqualität überträgt. Kombiniert mit Dualrate Speech Coding, definiert im G.723-Standard, genügt sogar ein Datenstrom von nur 5,3 kbps. Außer der geringeren Netzlast bringt dies den Vorteil, daß sich mehr Pakete puffern lassen, ohne die Echtzeitbedingung zu gefährden. Die Qualität der Sprachübertragung im IP-Netz gewinnt also, je kleiner die Datenrate für einen Sprachkanal ist. Ein weiterer wichtiger Standard für Voice over IP kommt vom Videoconferencing. H.323 umfaßt sowohl eine Codec-Technologie (wie G.723) wie auch die Signalisierung und Verbindungssteuerung für Videokonferenzsysteme. Für IP-Telefonie wurden Teile des H.323Standards übernommen. Über eine TCP-Verbindung wird zwischen Sender und Empfänger das Signalisierungsprotokoll H.245 ausgehandelt. Dies zeigt eingehende Rufe an und übermittelt Statusinformationen. Die Datenübertragung selbst erfolgt über UDP. TCP-Pakete werden dadurch bei jedem Hop auf Fehler kontrolliert und gegebenenfalls korrigiert beziehungsweise zurückgewiesen. UDP läßt diese Kontrolle aus, UDP-Pakete erreichen den Empfänger also schneller. Dafür muß der sich selbst um Fehlerkorrektur bemühen. Voice over IP kodiert hierzu entweder im selben Paket oder im Folgepaket Redundanz, aus der sich ein beschädigtes Paket beim Empfänger reparieren läßt, womit ein erneutes Senden defekter IP-Pakete vermieden wird. Zusätzlich erfolgt die Verbindungssteuerung einer Sprachübertragung im IP-Netz gemäß H.323 mit einem Q.931-konformen Signalisierungskanal. Dieser steuert die Sprachverbindung und ist für Funktionen wie etwa Makeln oder Rufnummernübermittlung zuständig. Um Voice over IP im LAN einzuführen, müssen sämtliche Switches und Router die entsprechenden Protokolle von IPv6 auf dem ISO/OSI-Level 3 unterstützen. Wichtig sind vor allem die Verarbeitung von RTP sowie die Unterstützung von RSVP. Für Konferenzen und Videodaten (die mittels der selben Verfahren wie Sprache übertragen werden), wird außerdem das relativ neue IP-Multicast genutzt. Dabei kopiert eine Netzkomponente einen eingehenden Datenstrom eigenständig und sendet ihn an alle Empfänger weiter. Dies vermeidet zusätzliche Datenkanäle zwischen dem Ursprung der Übertragung und jedem Empfänger. Statt dessen wird der Datenfluß an beliebiger Stelle im Netz dupliziert. Mittlerweile gibt es erste Ethernet-Telefone. Diese werden statt an eine Telefondose an eine RJ-45-Buchse eines Ethernet-Hubs angeschlossen. Alternative hierzu bieten sich CTI oder Wandlerkarten an. Auch etliche DSL-Router ermöglichen den Anschluß von herkömmlichen Analogtelefonen oder dienen sogar als Telefonanlage. Aber auch die Telefonie direkt am PC mit einem Headset und passender Software ist möglich (sogenanntes Softphone). VoIP läuft so zuverlässig wie die Internetverbindung selbst. Generell besteht damit kein Unterschied zur Festnetzanschluss. Auch können Gespräche in die Fest- und Mobilfunknetz geführt und entgegengenommen werden. Dazu erhalten Nutzer beim VoIP-Provider kostenlos ihre Ortsrufnummer, der auch die Notrufe 110 und 112 bereitstellt. Bei Voice-over-IP (VoIP) bestehen Sicherheitsmängel, die sich aus der Internetnutzung ergeben. Telefonate von VoIP-Nutzern lassen sich innerhalb lokaler Netze mit Hilfe von Software-Tools (Paket Sniffern) abhören und Rufnummern ausspionieren. VoIP-Adapter und -Telefone sind empfindlich gegenüber Hacker-Attacken, insbesindere Denial-of-ServiceAngriffen. Generell sollte auch die Konfigurationsoberfläche der VoIP-Hardware durch ein Passwort geschützt werden. Eindringlinge könnten sonst bestehende Guthaben abtelefonieren und eingehende Anrufe entgegennehmen. Im Gegensatz zur SPAM-Problematik bei E-Mail ist unerwünschte Werbung über VoIP, sogenannter SPIT, derzeit noch kein Problem. Gegenüber E-Mail ist der VoIP-Bereich nicht offen zugänglich, sondern abgeschottet. Realisiert wird dies durch die genaue Zuordnung der VoIP-Rufnummern. Jeder Nutzer ist damit dem VoIP-Provider bekannt. Anrufe, die außerhalb dieser vertrauenswürdigen Netze initiiert werden, sind nicht kostenlos und deshalb uninteressant für SPITTER. Ein Problem stellt die Signalisierung zwischen den einzelnen Telefonanbietern dar, die gewissermaßen "auf Vertrauensbasis" abläft. Überwindet ein Hacker die Signalisierungsprotokolle, kann er so ziemlich alles machen was er will. Powerline Communications die Stromleitung ist das Netzwerk Powerline Communications erlaubt die Obertragung von Daten mit Geschwindigkeiten von mehr als einem Mbit/s bis zum Endbenutzer über das Niederspannungs-Energieverteilnetz. Mit dieser Übertragungstechnik wird eine echte Alternative für die sogenannte "Letzte Meile" geschaffen. Mit der Powerline Communications Systemlösung von Siemens können Energieversorgungsunternehmen (EVU) und Stadtwerke vor allem den privaten Stromkunden neue Dienste wie beispielsweise "Internet aus der Steckdose" sowie Energie- und Mehrwertdienste auf eigener Infrastruktur anbieten. Das Stromverteilnetz ist die weltweit größte flächendeckende Kabelinfrastruktur bis in jeden Haushalt. Die bisher ausschließlich für die Energieversorgung genutzte Verkabelung ist im deregulierten Telekommunikationsmarkt der Schlüssel für den direkten Zugang zum privaten Kunden. Die EVUs können ihr existierendes Stromnetz für neue Dienstangebote nutzen und sich dadurch neue Einnahmequellen erschließen. Auf Basis der PLC Kommunikationsinfrastruktur werden EVUs weitere Anwendungen zur Effizienzsteigerung (z.B. Lastmanagement) und zusätzliche Dienste (z.B. Security, Fernüberwachung) entwickeln und so ihre Wettbewerbsposition in deregulierten Energiemärkten verbessern. Im Unterschied zu anderen Lösungsansätzen ermöglicht die Powerline Communications Lösung von Siemens die Nutzung des Niederspannungsnetzes bis zur Steckdose im Haushalt. Über das Stromnetz können zusätzlich zur Energie gleichzeitig Daten und Sprache übertragen werden. Bitraten von mehr als einem Mbit/s machen aus jeder Steckdose einen leistungsfähigen Kommunikationsanschluß. In die Lösung ist ein intelligentes Bandbreitenmanagement implementiert, das ermöglicht, den Benutzern je nach Bedarf Bandbreite zur Verfügung zu stellen. Siemens entwickelte für Powerline Communications ein neues, für das besondere Übertragungsverhalten des Stromnetzes optimiertes Übertragungsverfahren. Das Verfahren (Orthogonal Frequency Division Multiplexing, OFDM) ermöglicht hohe Datenraten selbst bei starken Störungen auf dem Energienetz. Die Siemens AG, Bereich Information and Communication Networks und der Schweizer Hersteller von Telekommunikationsausrüstung Ascom wollen die Entwicklung der breitbandigen Powerline Communications (PLC)-Technik für den Einsatz auf dem Niederspannungsnetz gemeinsam weiter vorantreiben. Beide Unternehmen führen Gespräche, um offene Fragen für die Regulierung zu klären und Spezifikationen für gemeinsame Schnittstellen zu erstellen. Heute gibt es bereits erste Feldversuche und Labormuster für die neue Technik. Aus Kundensicht sind die derzeit auf dem Markt angebotenen proprietären Lösungen jedoch nicht zufriedenstellend. Denn ein breiter Einsatz dieser PLC-Technik wird heute weniger durch den noch frühen Entwicklungsstand, als durch die nicht vorhandene Kompatibilität der Lösungen behindert. HomePlug: PC-Vernetzung über die Stromleitung "Power-Line-Communications" ist dezeit relativ tot, aber seit 2002 gibt es etwas Neues, die "Home-Plug-Technologie" wieder. Mit der Powerline-Technologie hat Home-Plug wenig zu tun. Jedoch haben die technischen Grundprinzipien eine neue und sinnvole Anwendung gefunden: Rechner über existierende 230-V-Leitungen im Haus miteinander zu vernetzen. Etliche Unternehmen bieten entsprechende Adapter an, die alle ähnlich arbeiten. Bei der Develo AG heißt das Teil "Micro-Link-DLAN" und sieht aus wie ein Steckernetzteil. Die Home-Plug-Technologie nutzt die bestehenden 230-V-Leitungen im Haus für die Datenübertragung. Mit einer maximalen Datenübertragungsrate von 14 Mbit/s und synchronem Up- und Download ist Home-Plug auch recht flott. In der Praxis lassen sich - je nach Leitungsqualität Bandbreiten zwischen 5 Mbit/s und 7 Mbit/s gewährleisten, was z. B.für die Verlängerung des DSL-Anschlusses in jedes Zimmer eines Hauses völlig ausreicht. Je nach Dämpfungsfaktor der Elektroinstallation lassen sich mit MicrolinkDLAN (Direct-LAN) Entfernungen bis 200 m überbrücken und beliebig viele Computer anschließen. Zusätzliche Geräte sind nicht notwendig, da die Phasenkopplung durch ein "Übersprechen" stattfindet. Die Installation der DLAN-Komponenten gestaltet sich einfach: Über den DLAN-Adapter verbindet man eine Netzkomponente an die nächstgelegene Steckdose, und sofort lässt sich jede andere beliebige Stromsteckdose im Haus als Netzwerkzugang verwenden. Ein Ethernet- oder ein USB-Kabel - je nach Modell - koppelt den PC an einen weiteren Micro-Link-DLAN-Adapter, dessen Stecker die Verbindung zum Heimnetz herstellt. Auf Grund automatischen Frequenzwechsels unterdrückt das System Einflüsse in der Datenübertragung durch aktive und Störungen ins Stromnetz sendende Haushaltsgeräte wie Waschmaschinen oder Kühlschränke. Im Unterschied zu drahtlosen Funknetzen wirkt bei HomePlug der Stromzähler im Haus als Sperre gegen unerwünschten Zugriff von außen (Signal wird stark gedäpft). Zusätzliche Sicherheit bietet eine leistungsfähige DES-Verschlüsselung (Datenverschlüsselung in Übertragungssystemen). Die Geräte sind kompatibel zum Home-Plug-Standard 1.0. Im vergangenen Jahr verabschiedete die Home-Plug-Powerline-Alliance diesen Standard, zu deren weltweit über 100 Mitgliedern unter anderem Compaq, Intel, Motorola, AMD, Cisco Systems, 3Com, Panasonic und Texas Instruments gehören. Die von der DLAN-Technik verwendeten Frequenzen liegen im Bereich von 4 MHz bis 21 MHz, somit werden die Rundfunkbänder nicht gestört (520 kHz bis 1605 kHz = Mittelwelle; 150 kHz bis 285 kHz = Langwelle; 87,20 MHz bis 108,00 MHz = UKW). Die Technik basiert auf dem Home-Plug-Standard, in dem die Sendepegel speziell in einigen Amateurfunkbändern abgesenkt sind. "Abgesenkt" heiß aber, daß das Signal ist in der Nähe durchaus noch feststellbar ist, teilweise sogar in störender Stärke. Übrigens betrifft die Absenkung nur die klassischen KW-Amateurfunk-Bänder 40m, 20m und 15m. Die seit einigen Jahren im Bereich 4 bis 21 MHz zusätzlich erlaubten Blöcke (30m und 17m) sehen keine Absenkung. Wenn sich DRM (www.drm.org) weiter ausbreitet, dürften sich auch die neuen Kurzwellendigitalrundfunkhörer über PLC ärgern - ebenso die Minderheit der Fernempfangsfreaks. Obwohl Home-Plug von der Leistungsfähigkeit herkömmlicher Ethernet-Verbindungen noch ein gutes Stück entfernt ist, stellt es für viele Gebiete eine interessante Alternative dar. Auch gegenüber Wireless-LAN bietet diese Technologie einige Vorteile. In der Praxis hängt die erreichbare Übertragungsgeschwindigkeit allerdings vom Zustand der Elektroinstallation im Haus und der Ausstattung der Steckdosen ab. Hier ist dann das Know-how des Elektroinstallateurs gefragt. Funk-LAN-Technologie Die Möglichkeit, Computer drahtlos zu vernetzen, ist auf den ersten Blick verlockend, konnte sich aber im Vergleich zu kabelgebundenen Lösungen bisher nur für einige Spezialaufgaben durchsetzen. Das hat vor allem folgende Gründe: Drahtlose Netzwerk-Adapter sind erheblich langsamer als herkömmliche Netzwerkkarten. Selten wird eine Geschwindigkeit von mehr als 22 MBit/s erreicht, meist erheblich weniger. Innerhalb der Reichweite (je nach Gebäudestruktur etwa 10...50 m) teilen sich die drahtlos vernetzten Computer die Übertragungsleistung. Die Netto-Geschwindigkeit sinkt dadurch weiter. Die Kosten für drahtlose Adapter liegen über jenen für konventionelle 10-MBit/sNetzwerkkarten. Bei den meisten Lösungen sind zusätzliche teure "Access Points" nötig, die die Schnittstelle zwischen einem Kabel-Netzwerk und drahtlosen Workstations darstellen. Die ersten "Radio LANs" arbeiteten überwiegend mit dem gegenüber Störungen relativ unempfindlichen Spread-Spectrum-Verfahren, bei dem die Daten auf viele Trägerfrequenzen verteilt werden, typisch auf einen Bereich von 20 MHz bei einer Datenrate von 2 MBit/s. Das Spreizen des Signals erfolgte entweder mit dem Zufallssystem Direct Sequence Spread Spectrum (DSSS) oder durch das zyklische Springen zwischen mehreren Frequenzbändern (FHSS, Frequency Hopping Spread Spectrum). Sicherheitshalber werden die Daten verschlüsselt. Technisch entsprechen diese Netze einem Bus-System ohne Kabel oder die SchnurlosStationen bilden zusammen eine Bridge. Seit 1997 werden Funk-LANs mit 1 oder 2 MBit/s im 2,4-GHz-Bereich mit der Norm IEEE 802.11 standardisiert. Als Sendeleistung ist maximal 1 Watt vorgesehen. Die Reichweite innerhalb von Gebäuden beträgt etwa 50 m, außerhalb davon einige hundert Meter. Neuere Entwicklungen erreichen bei 19 GHz bis zu 10 MBit/s, allerdings bei deutlich kleinerer Reichweite. Mit IEEE 802.11 (Teil der Standardisierungsbemühungen des IEEE-802-Komitees, zuständig für lokale Netzwerktechnologien) ist 1997 ein erster Standard für Funk-LAN-Produkte geschaffen worden. Mitte 1997 wurde der erste IEEE-802.11-Standard (2 Mbit/s Funk-LANTechnologie) veröffentlicht, welcher dann, im Oktober 1999, mit IEEE 802.11b (High Rate) um einen Standard für 11-Mbit/s-Technologie erweitert wurde. Der IEEE-802.11-Standard beschreibt die Übertragungsprotokolle bzw. Verfahren für zwei unterschiedliche Arten, FunkNetzwerke zu betreiben. Der 802.11-Standard basiert auf CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance). Der WLAN Standard ist ähnlich aufgebaut wie der Ethernet-Standard 802.3 (CSMA/CD), versucht aber, Kollisionen zu minimieren. Der Grund liegt darin, daß z.B. zwei mobile Einheiten zwar von einem Access Point erreicht werden, sich aber gegenseitig nicht "hören". Damit kann die wirkliche Verfügbarkeit des Access Points nicht in jedem Fall erkannt werden. Wie bei CSMA/CD hören alle teilnehmenden Stationen den Verkehr auf dem Funkkanal mit. Wenn eine Station übertragen will, wartet sie, bis das Medium frei ist. Danach wartet sie noch eine vorbestimmte Zeitperiode (DIFS) plus einer zufällig gewählten Zeitspanne, bevor sie ihren Frame übertragen will. Auch in dieser Zeitspanne (Wettbewerbsfenster) wird der Funkkanal weiter überwacht. Wenn keine andere Station innerhalb des Wettbewerbsfensters vor dem gewählten Zeitpunkt mit der Übertragung beginnt, sendet die Station ihren Frame. Hat aber eine andere Station innerhalb der Wartezeit mit der Übertragung begonnen, wird der Zeitzähler angehalten und nach der Übertragung der anderen Station weiter benutzt. Auf diese Weise gewinnen Stationen, die nicht übertragen durften, an Priorität und kommen mit einer erhöhten Wahrscheinlichkeit in den nächsten Wettbewerbsfenstern zum Zug. Eine Kollision kann nur entstehen, wenn zwei oder mehrere Stationen den gleichen Zeitslot auswählen. Diese Stationen müssen die Wettbewerbsprozedur erneut durchlaufen. Funknetz-Szenarien Das erste Funk-Netz-Szenario beschreibt die Kommunikation in einfachen "Ad-hoc"Netzwerken. Hierbei sind mehrere Arbeitsrechner in einem begrenzten Sendebereich miteinander verbunden. Zentrale Übermittlungs- bzw. Kontrollsysteme, sogenannte "AccessPoints" sind bei diesem Anwendungsfall nicht vorgesehen. Ein derartiges "Ad-hoc" Netzwerk könnte zum Beispiel zwischen den tragbaren Computersystemen während einer Besprechung in einem Konferenzraum aufgebaut werden. Im zweiten Anwendungsfall, dem sogenannten "Infratruktur-Modus", kommen "AccessPoints" zum Einsatz. Bei diesen Geräten handelt es sich um Netzwerkkomponenten, welche die Kommunikation innerhalb eines Funk-LANs, zwischen einzelnen Funk-LAN-Zellen und die Verbindung zwischen Funk-LANs und herkömmlichen LANs (Kabel basierend) ermöglichen und kontrollieren. Access-Points regeln die "gerechte" Verteilung der zur Verfügung stehenden Übertragungszeit im Funk-Netzwerk. Des Weiteren ermöglichen diese Komponenten mobilen Arbeitsstationen das unterbrechungsfreie Wechseln (Roaming) von einer Funk-LAN-Zelle in die Nächste. Verschiedene Systeme können mittels einer speziellen Frequenzwahl bis zu acht unterschiedliche Kanäle im Frequenzband alternativ oder teilweise auch gleichzeitig nutzen. Durch dieses Verfahren können in bestimmten Fällen z. B. auch durch Störungen belastete Frequenzen umgangen werden, um so die Übertragung zu sichern. Des weiteren können durch den Einsatz mehrere Accesspoints parallele Funkzellen auf unterschiedlichen Frequenzen aufgebaut werden und so die Gesamtübertragungskapazität eines WLANs erweitern. Die dadurch entstehende Möglichkeit unterschiedliche Frequenzen zur Datenübertragung mit getrennten Benutzergruppen zu nutzen, kann den Datendurchsatz in einem solchen Funknetz vervielfachen, da die einzelnen Frequenzsegmente jeweils die volle Bandbreite für den Datenstrom zur Verfügung stellen. Eine wichtige Frage, die sich im Hinblick auf den Einsatz von Funk-Technologie immer wieder stellt, ist die mögliche gegenseitige Störung von elektronischen Geräten (nicht nur von Funk-Sendern und Empfängern). Oftmals werden sogar Bedenken zu einem möglichen Gesundheitsrisiko durch die Nutzung von auf Funk basierenden Produkten geäußert. Auf Funk basierende Geräte müssen einer Vielzahl von Standards und strengen gesetzlichen Richtlinien entsprechen, die sicherstellen, daß die Beeinflussung zwischen verschiedenen auf Funk basierenden Geräten und auch anderen elektronischen Geräten entweder unmöglich ist, oder die festgelegten Grenzwerte nicht überschreiten, welche die internationalen und nationalen bzw. europäischen Standardisierungs-Gremien festlegen. Alle in Deutschland zugelassenen WLAN Systeme benutzen ein offiziell für industrielle und andere Zwecke reserviertes ISM-Frequenzband (Industrial Scientific Media) zwischen 2,400 und 2,483 GHz und übertragen durch Nutzung eines Teils der darin verfügbaren Frequenzen mit Datenraten von bis zu 11 Mbps (802.11b) oder 22 Mbps (802.11g). Der Standard 802.11a beschreibt Systeme, die im 5-GHz-Band betrieben werden und Brutto-Datenraten bis zu 54 Mbps ermöglichen. Im 5-GHz-Band steht ein größeres Frequenzband zur Verfügung - und damit mehr Kanäle. Wichtig ist auch, daß dieses Band ausschließlich für WLAN reserviert ist. Die Kanäle von 802.11b und ihre Frequenzen. Kanal o o o o o Mittenfrequenz (GHz) Kanal Mittenfrequenz (GHz) 1 2.412 8 2.447 2 2.417 9 2.452 3 2.422 10 2.457 4 2.427 11 2.462 5 2.432 12 2.467 6 2.437 13 2.472 7 2.442 14 2.484 Die Abstufung erfolgt in 5 MHz Schritten (ausgenommen Kanal 14). In den USA sind die Kanäle 1 - 11 verfügbar. In Europa sind die Kanäle 1 - 13 verfügbar. In Frankreich sind die Kanäle 10 - 13 verfügbar. In Japan ist Kanal 14 verfügbar. Da Funk-LAN-Produkte speziell für den Einsatz in Büros und anderen Arbeitsumgebungen entwickelt wurden, senden sie auch mit einer entsprechend niedrigen, gesundheitlich unbedenklichen Leistung. Diese Leistung liegt unter einem maximalen Wert von 100 mW und damit z. B. signifikant unter der Sendeleistung von gebräuchlichen GSM Telefonen (ca. 2 W bei Geräten GSM Klasse 4, d. h. Frequenzbereich 880-960 MHz). Erhöhte Gesundheitsrisiken konnten deshalb beim Umgang mit Funk-LANs im 2.4 GHz Frequenzband nicht festgestellt werden. Die größten Bedenken gelten üblicherweise der Technologie Funk selbst. Aber unberechtigtes "Mithören" erweist sich in der Praxis sogar als wesentlich schwieriger und aufwendiger als bei herkömmlichen auf Kupferkabeln basierenden Netzwerken. Sogenannte "Walls" sichern den Datenverkehr mittels eines Verfahrens zur Bandspreizung (Spread-Spectrum, SS) gegen Abhören und Störungen, dieses Verfahren entspricht einer komplexen Kodierung, die ein Abhören schon durch die eingesetzten technischen Prinzipien sehr schwer macht. Alle z. Zt. bekannten zugelassenen WLAN Systeme setzen zwei verschiedene Techniken ein, das sogenannte Direct Sequence SS (DSSS) und das Frequency Hopping SS (FHSS) Prinzip. Direct Sequence SS verschlüsselt jedes Bit in eine Bitfolge, den Chip, und sendet diesen auf das Frequenzband aufgespreizt. Für unbefugte Lauscher verschwindet das Signal dadurch im Hintergrundrauschen, erst der autorisierte Empfänger kann es wieder ausfiltern. Das DSSS System ist unempfindlicher gegen Störungen und hat sich als Lösung mit den meisten installierten Geräten in diesem Markt durchgesetzt. Beim Frequence Hopping vereinbaren Sender und Empfänger während des Verbindungsaufbaus eine Folge, nach der einige Male pro Sekunde die Sendefrequenz umgeschaltet wird. Ein nicht autorisierter Zuhörer kann diesen Sprüngen nicht folgen, die Synchronisation zwischen Sender und Empfänger bedeutet jedoch zusätzlichen Ballast (Overhead) in der Datenübertragung. Um das komplette Signal erfolgreich empfangen und interpretieren zu können, muß der Empfänger den korrekten Entschlüsselungsalgorithmus kennen. Daten während der Übertragung abzufangen und zu entschlüsseln wird dadurch recht schwierig. Die Sicherheit von Funk-LAN-Produkten beschränkt sich selbstverständlich nicht nur auf die Wahl von DSSS als Übertragungsverfahren. So sieht der IEEE-802.11-Standard optional auch verschiedene Methoden für Authentisierung und Verschlüsselung vor. Unter Authentisierung versteht man dabei all jene Mechanismen mit denen überprüft bzw. kontrolliert wird, welche Verbindungen im Funk-LAN zulässig sind. Mit der zusätzlichen Verschlüsselungstechnik WEP (Wired Equivalent Privacy), welche auf dem RC4-Verschlüsselungsalgorithmus basiert, wird ein Sicherheitsniveau erreicht, welches dem herkömmlicher LAN-Technologien mehr als entspricht. Als weitere sehr flexible Sicherheitsfunktion, erweisen sich auch Filter auf MAC-Adress-Ebene, die im Access-Point konfiguriert werden können. Über diese Filter kann die Kommunikation über den Access-Point sehr wirkungsvoll gesteuert werden. Funk-LAN-Technologie und -Produkte ergänzen in idealer Weise die "klassischen" LANLösungen. Die Bandbreite wird jedoch dann zu einem entscheidenden Faktor beim Einsatz von Funk-LAN-Installationen, wenn eine große Anzahl von Arbeitsstationen angebunden werden soll und der Einsatz sehr "bandbreitenintensiver" Multimedia-Anwendungen geplant ist. Man sollte nicht übersehen, daß Funk-LAN-Technologie sich wie jedes andere "SharedMedium" verhält und damit sehr ähnlich zu Ethernet-Lösungen ist. Ein weiterer wichtiger, zu beachtender Aspekt bei Planung und Einsatz von Funk-LANLösungen, liegt in den oftmals schwer einschätzbaren Umgebungseinflüssen, welche die Übertragungsqualität und Übertragungsreichweite vermindern können. So können Reichweite und Qualität der Übertragung nicht nur durch die Positionierung und Anordnung der Arbeitsstationen und Access-Points beeinflusst werden, sondern es entsteht auch eine, zum Teil gravierende, Beeinträchtigung durch die zu durchdringenden Hindernisse (Ziegelwände, Stahlbeton, etc.). Für die Realisierung eines Funk-Lan stehen zwei Betriebsarten zur Verfügung: Im Infrastructure Mode hingegen vermittelt eine spezielle Basisstation, Access Point genannt, zwischen den Clients. Er dient zum einen als Bridge zum drahtgebundenen Netz, vermittelt also Pakete zwischen den Netzen hin und her. Zum anderen arbeitet ein Access Point als Repeater, das heißt er empfängt die Pakete der Stationen und leitet sie an andere weiter - dabei sinkt natürlich der Durchsatz. Letztlich kann ein Access Point die Reichweite verdoppeln, wenn er zentral aufgestellt ist: Er lässt zwei Stationen miteinander kommunizieren, die so weit voneinander entfernt stehen, daß sie sich im Ad-hoc-Modus nicht "sehen" könnten. Bei der Raumabdeckung ist mit einem Radius von rund 50 Metern zu rechnen, innerhalb dessen sich die mobilen Stationen um einen Access-Point bewegen können. Im Ad-hoc-Modus kommunizieren die Stationen direkt miteinander. Im Grunde genommen handelt es sich um Punkt-zu-Punkt-Verbindungen, da aber jeder Rechner mehrere dieser Verbindungen unterhalten kann, spielt das praktisch keine Rolle. Mit einer Ausnahme: Es ist möglich, daß weit voneinander entfernte Stationen einander nicht "sehen" können, beide sehr wohl aber eine dritte Station dazwischen. Der Adhoc-Modus ist letztlich am besten geeignet, wenn man gar kein großes Funknetz aufbauen will, sondern nur zwei Netze oder Systeme verbinden will. Der Ad-hoc-Modus hat aber Haken: Viele Hersteller haben dieser Betriebsart anfangs wenig Aufmerksamkeit gewidmet und statt der verabschiedeten Standards proprietäre Verfahren implementiert. So kann es sein, daß die Karten zweier Hersteller im Adhoc-Modus nicht zueinander finden. Zur Inbetriebnahme eines Ad-hoc-Netzes muß man auf allen Clients einen einheitlichen Namen für das Funknetz einstellen. Bei einem Netz mit Access Point reicht es hingegen, dort den gewünschten Namen einzutragen; bei der Einstellung "any" auf den Clients erhalten diese automatisch den Namen übermittelt. Unter Umständen kann es im Ad-hoc-Netz Sinn machen, den Kanal vorzugeben, auf dem die Stationen funken sollen; im Normalfall finden sie aber selbstständig einen gemeinsamen Kanal. Eine gute Hilfestellung bietet die Software, die viele Hersteller ihren Funkkarten beilegen. WLAN-MIni-PCI-Karte und Adapter für den PCI-Bus im PC. Die Funk-LAN-Standards Ein gravierender Nachteil der ersten WLAN-Standards ist die geringe Datenrate von 11 MBit/s. Selbst bei guten Empfangsbedingungen ist nur etwa die Hälfte für Nutzdaten einsetzbar. Abhilfe versprach zunächst die Verdoppelung auf 22 MBit/s. Diese Erweiterung war aber proprietär. IEEE 802.11a ist mit nominell 54 MBit/s noch schneller, die Geräte arbeiten jedoch im 5-GHz-Bereich - bei einem Wechsel muß die gesamte Infrastruktur ausgetauscht werden. Zudem verschlechtert sich mit der doppelten Frequenz die Reichweite. Dagegen haben sich die Standards der Reihe IEEE 802.11 etabliert. Geräte nach dem Standard IEEE 802.11g sind abwärtskompatibel zu 802.11b und senden ebenfalls im 2,4GHz-Bereich, verwenden gegenüber der 11-MBit/s-Technik jedoch mehrere Kanäle und kommen so auf eine Bruttodatenrate von 54 MBit/s. So lassen sich auf den 13 WLANKanälen aber nur vier 802.11g-Netze am gleichen Ort nebeneinander betreiben. Fremde Netze nach 802.11b im Empfangsbereich können die 54-Bit/s-Technik jedoch ausbremsen: Im ungünstigsten Fall verteilen sich die langsamen Netze quer über die Kanäle, sodass keine Bündelung für die Breitbandtechnik mehr möglich ist. Weitere Störfaktoren sind BluetoothGeräte, auch sie arbeiten im 2,4-GHz-Bereich. An exponierten Standorten im Stadtgebiet können Access Points nach IEEE 802.11g wohl kaum ihre Leistung ausspielen, es gibt einfach zu viele langsame WLAN-Netze. Für den Betrieb in Gebäuden ist die Technik aber durchaus interessant: Störungen von außen gibt es hier kaum. Eigene Access Points nach 802.11b werden bei Kanalüberschneidungen umkonfiguriert oder kurzerhand ersetzt, die Workstations merken wegen der Abwärtskompatibilität von IEEE 802.11g zu 802.11b nichts davon. Die bisherigen Standards zeigt folgende Tabelle: Im einzelnen besitzen die Standards folgende Eigenschaften: IEEE 802.11 und IEEE 802.11 b Die erste Version des WLAN-Standards wurde 1997 unter der Nummer IEEE 802.11 verabschiedet und erlaubt Datentransferraten von 1 Mbit/s und 2 Mbit/s im lizenzfreien 2,4GHz-ISM-Band (Industrial, Scientific, Medical). Im Jahr 1999 folgte die Erweiterung IEEE 802.11 b, die Datenübertragungsraten bis 11 Mbit/s im 2,4-GHz-ISM-Band ermöglichte. IEEE 802.11 a Ebenfalls im Jahr 1999 wurde der im 5-GHzBand arbeitende Standard IEEE 802.11 a verabschiedet. Dieser Standard nutzt als Modulationsverfahren OFDM (Orthogonal Frequency Division Multiplex). Der genutzte Frequenzbereich ist grundsätzlich für den WLAN-Bereich reserviert, jedoch nutzen Militär und Flugsicherung ebenfalls diesen Bereich. Daher kann dieser Standard in Europa nur innerhalb von Gebäuden und mit verringerter Sendeleistung eingeschränkt eingesetzt werden. Auf Grund des Modulations verfahrens sind aber Übertragungsraten von bis zu 54 Mbit/s möglich. IEEE 802.11 e Dieser Standard beschreibt einen erweiterten Kanalzugriff, der eine Priorisierung verschiedener Verkehrsklassen und eine durch den Access-Point gesteuerte Kanalvergabe erlaubt. Mit dem Standard IEEE 802.11 e wird das Konzept des "Quality-of-Service", also die Dienstgüte, unterstützt. Besonders interessant ist dieser Standard für Echtzeitanwendungen wie beispielsweise Voice over IP. IEEE 802.11 g Beim Standard IEEE 802.11 g handelt es sich um die Nutzung des OFDMModulationsverfahrens im Frequenzbereich von 2,4 Ghlz. Da der IEEE 802.11 g-Standard abwärtskompatibel zum älteren IEEE-802,11 b-Standard ist, hat sich der neue Standard sehr schnell verbreitet und wird in den nächsten Jahren den Standard IEEE 802.11 b ablösen. Eine Datentransferrate von 54 Mbit/s wird erreicht, jedoch ist die Anzahl der benötigten Antennen relativ hoch, damit ein voller Datendurchsatz gewährleistet werden kann. IEEE 802.11 h Der Standard IEEE 802.11 h bietet 54 Mbit/s Datenübertragungsrate und arbeitet im 5-GHz Bereich. Dieser Standard ergänzt den Standard IEEE 802.11 a um die Funktionalitäten DFS (Dynamic Frequency Selection) und TPC (Transmit Power Control). Damit fallen die Einschränkungen des Standards IEEE 802.11 a fort, und das 5-GHz-Band kann so mit auch im Außenbereich genutzt werden. IEEE 802.11 i Die Arbeitsgruppe für WLAN-Sicherheit hat im Jahr 2004 den Standard IEEE 802.11 i verabschiedet. Bereits seit dem Jahr 2002 gab es mit WPA (WiFi Protected Access) übergangsweise einen Standard, der als sicher galt und die wichtigsten Sicherheitslücken von WEP (Wired Equivalent Privacy) schloss. Der WPA-Standard bietet gegenüber WEP besseren Schutz durch dynamische Schlüssel, die auf dem TKIP (Temporal Key Integrity Protocol) beruhen und abwärtskompatibel sind. Weiterhin wird durch die NutzerAuthentifizierung mittels PSK (Pre-Shared Key) oder EAP (Extensible Authentication Protocol) die Sicherheit erhöht. Der Standard IEEE 802.11 i ist bereits in allen neueren WLAN-Produkten integriert. Darüber hinaus ermöglicht der Standard IEEE 802.11 i die Verwendung von AES (Advanced Encryption Standard) zur Verschlüsselung der übertragenen Daten. IEEE 802.11 n Drahtlose Netzwerke auf Basis des neuen Standards IEEE 802.11 n versprechen erheblich höhere Datenübertragungsraten von bis zu 600 Mbit/s. Um diese Werte zu erreichen, wird zur Modulation das MCS (Modulation Coding Scheme) genutzt. Hierbei berücksichtigen die beteiligten Geräte möglichst viele Parameter, wie beispielsweise Interferenzen, Bewegung des Senders oder Abschwächung des Signals und optimieren so die Datenübertragung. In WLANs nach IEEE 802.11 n werden zwei bis vier Antennen genutzt. Dadurch kann ein Funkkanal im selben Frequenzbereich räumlich mehrfach eingesetzt werden und ermöglicht somit eine parallele Datenübertragung. Hierdurch wird nicht nur die Geschwindigkeit, sondern auch die Reichweite erhöht. Dieser Mechanismus wird als MIMO (Multiple Input, Multiple Output) bezeichnet. Auch für die Zukunft sind bereits neue Spezifikationen innerhalb des Standards IEEE 802.11 angekündigt, beispielsweise der Standard IEEE 802.11 p für den Einsatz in Fahrzeug-zuFahrzeug-Netzen. Modulationsverfahren Bei CCK wird nur eine Trägerfrequenz moduiert Die Komplementäre Code-Umtastung CCK dient als Basismodulation gegenwärtiger WiFiSysteme nach IEEE 802.11b und moduliert nur einen Träger. Bei der komplementären Code-Umtastung werden sowohl Präambel/Header als auch die Nutzinformation in CCK-Moduation ausgesendet. Parallele Datenübertragung im Frequenzmultiplex, kurz OFDM, ist eine Technologie, die gerade in den Markt drahtloser lANs eingeführt wird und sich in Geräten nach IEEE 802.11a für das 5-GHz-Band findet. Bis vor Kurzem verhinderten FCC-Vorschriften nämlich den Einsatz von OFDM im 2,4-GHz-Band. Dies änderte sich im Mai 2001: Seitdem ist OFDM auch für das 2,4-GHz-Band zugelassen, so daß jetzt beide Bänder (2,4 und 5 GHz) mit einem einzigen Modulationsformat abgedeckt werden können. OFDM ist ein MehrträgerModulationsverfahren, bei dem die Daten auf mehrere, eng beieinander liegende Unterträger aufgeteilt werden. Eine andere entscheidende Eigenschaft von OFDM ist die kürzere Präambel: Nur 16 ms gegenüber 72 ms bei CCK. Eine kürzere Präambel ist vorteilhaft, da sie weniger Grundaufwand für das Netzwerk bedeutet. Auch wenn die Präambel ein unverzichtbarer Teil des Datenpaketes ist, stört doch die von ihr beanspruchte Zeit, die für eine Nutzdatenübertragung nicht mehr verfügbar ist. Mit der kurzen Präambel bei OFDM steigt also die Nutzdatenrate - eine gute Sache! Reine OFDM-Systeme setzen OFDM sowohl für Präambel/Header als auch für die Nutzdaten ein. Wie der Name schon andeutet, handelt es sich bei CCK/OFDM um ein hybrides Verfahren, das als Option im Standardentwurf IEEE 802.11g enthalten ist. Wie in Bild 5 verdeutlicht, setzt CCK/OFDM die CCK-Modulation für Präambel/Header und OFDM für die Nutzdaten ein. Dabei bleiben die Modulationsarten mit dem Übergang zwischen Präambel/Header und Nutzdatenstrom separat und zeitlich getrennt. Dies wirft sofort eine naheliegende Frage auf: Wozu diese Trennung? Wie sich zeigen wird, gibt es gute Gründe dafür, die optionalen Hybridverfahren in den Standardentwurf aufzunehmen. Wenn nämlich ein Betrieb in Anwesenheit existierender WiFi-Geräte stattfindet, sorgt der ausgesendete CCK-Header dafür, daß alle WiFi-Geräte den Beginn einer Sendung mitbekommen, und vor allem, wie lange (in ms) diese Sendung dauern wird. Daraufhin folgt die Nutzinformation in OFDM. Auch wenn existierende WiFi-Geräte nicht in der lage sind, diese Nutzinformation aufzunehmen, wissen sie doch, wie lange die Sendung dauern wird, und starten in dieser Zeit keine Sendeversuche: Dies vermeidet Kollisionen und sorgt für friedliche Koexistenz mit neueren Geräten nach IEEE 802.11g mit CCK/OFDMModulation. Da hier die Präambel länger ist als bei reinem OFDM, steigt der Grundaufwand. Allerdings kann dies leicht in Kauf genommen werden, da CCK/OFDM höhere Datenraten zulässt (über 20 Mbit/s), was diesen Zeitverlust mehr als wettmacht, gleichzeitig aber Rückwärtskompatibilität mit existierenden CCK-Systemen sicherstellt. Es ist immer daran zu denken, daß CCK/OFDM lediglich als Option im angenommenen Standardentwurf IEEE 802.11g enthalten ist. Die verbindlich festgelegte OFDM-Modulation kann ebenfalls neben vorhandenen WiFi-Geräten existieren und mit ihnen zusammenarbeiten. Allerdings ist dafür eine andere Methode notwendig, die unter RTS/CTS bekannt ist. Diese wird im letzten Abschnitt des Artikels näher betrachtet. Das Modulationsverfahren PBCC (Packet Binary Convolutional Coding) basiert auf einem Träger, unterscheidet sich aber wesentlich von CCK. Es nutzt eine komplexere Signalkonstellation (8-PSK für PBCC statt BPSK/QPSK für CCK) und einen KonvolutionsCode statt des Block-Codes bei CCK. Damit unterscheidet sich der Decodier-Mechanismus sehr von den bisher besprochenen Verfahren. Wie bei CCK/ OFDM handelt es sich bei PBCC auch um ein hybrides Verfahren: CCK für Präambel/Header und PBCC für die Nutzdaten. Dies ermöglicht höhere Datenraten bei gewahrter Rückwärtskompatibilität mit existierenden WiFi-Systemen in gleicher Weise, wie oben für CCK/OFDM beschrieben wurde. Als maximale Datenrate für PBCC sind im Standardentwurf IEEE 802.11g 33 Mbit/s festgelegt. Dieser Wert liegt unter den Spitzenwerten für das vorgeschriebene OFDM und auch des optional möglichen CCK/OFDM. Hier ist festzustellen, daß PBCC als optionales Element auch im ursprünglichen Standard IEEE 802.11b enthalten ist, wobei aber noch keine Geräte auf den Markt gebracht wurden, die nach diesem Verfahren arbeiten. Verborgene Teilnehmer und RTS/CTS Unter üblichen Betriebsbedingungen können sich alle Teilnehmer in einem gemeinsamen Kanal auch gegenseitig hören. Es gibt aber Situationen, in denen die Partner Kontakt zur Basisstation haben, sich aber untereinander nicht hören können. Hier nützt der Grundsatz "Erst hören, dann sprechen" nichts: Wenn ein Teilnehmer einen vermeintlich freien Kanal feststellt und zur Basisstation zu senden beginnt, während diese gerade der Sendung eines anderen Teilnehmers lauscht, dann gibt es ein Problem, das auch als das Hidden-NodeProblem bekannt ist. Zur Lösung dieses Problems hält der Standard 802.11 einen bekannten Mechanismus bereit: RTS/ CTS (Request-To-Send/Clear-To-Send). Dazu muß jeder Teilnehmer eine Sendeanforderung RTS an die Basisstation senden und eine CTS-Antwort von der Basisstation abwarten, bevor er seine Sendung starten kann. Die Situation von CCK- und OFDM-Partnern, die im gleichen Kanal arbeiten, ähnelt sehr dem Hidden-Node-Problem, da die CCK-Partner keine OFDM-Sendungen hören können. Mit dem RTS/CTS-Mechanismus ist es also möglich, daß OFDM-Teilnehmer ohne Kollision im gleichen Kanal wie WiFiGeräte arbeiten können. Für den RTS/CTS-Ablauf ist eine zusätzliche Verkehrssteuerung im Netz notwendig. Sicherheit von Funknetzen Der größte Vorteil des Mediums Funk ist auch gleichzeitig sein größter Nachteil: Die Funkwellen gehen überall hin, auch dorthin, wo sie nicht hin sollen. Drahtlose Netze bestehen in der Regel aus einem Access-Point und einer Anzahl Clients mit drahtlosen Netzwerkkarten. Immer häufiger sind die notwendigen Zugangspunkte zum Internet, so genannte "Hotspots", an Flughäfen, in Cafes oder Hotels der Großstädte zu finden. Auch zuhause können sich Notebook-Nutzer recht einfach mit entsprechendem Zubehör einen Hotspot installieren und die Vorteile des kabellosen Surfens genießen. Bei vielen handelsüblichen Geräten ist der AP in einen DSL-Router integriert. Im Lieferzustand sind die Geräte nach dem Auspacken betriebsbereit, nach dem Einschalten können sich drahtlose Geräte bereits mit dem Accesspoint verbinden. In diesem Betriebsmodus besteht aber keinerlei Schutz des Netzwerks gegenüber der unerwünschten Mitbenutzung durch andere Teilnehmer, es ist auf jeden Fall eine Konfiguration seitens des Netzwerkbetreibers erforderlich. Ein großes Sicherheitsrisiko, das Nutzer von kabellosen Netzwerken haben, ist der Vertraulichkeitsverlust durch einen "Lauschangriff". Mittels Notebook und einer WLANKarte ist es für Dritte nicht allzu schwer, von außen in ein solches Netzwerk zu gelangen. Dabei "schmuggelt" sich der Eindringling in die Verbindung zwischen dem HotSpot und dem Notebook ein, quasi als "Man-in-the-Middle". Ohne Probleme gelangt er so an persönliche Daten oder kann sogar auf Kosten des Besitzers im Internet surfen, was viele noch mehr "schmerzen" dürfte. Inzwischen ist allein durch das Erlauschen des Datenverkehrs ein passiver Angriff auf WEP mit handelsübliche Hardware und frei erhältliche Software gelungen. Er beruht auf der Tatsache, daß WEP einen berechneten und nicht einen zufälligen Initialisierungsvektor im Klartext überträgt. So kann aus den erlauschten Daten der bei WEP verwendeten Schlüssel errechnet werden. Nach Schätzungen dauert das Berechnen eines 40-Bit-WEP-Schlüssels eine Viertelstunde, die bessere 128-Bit-Variante mit 104 Bit langem Schlüssel würde nur rund 40 Minuten dauern. Adresse für den Access-Point (SSID) setzen Der Service Set Identifier (SSID) stellt quasi den Namen des Funknetzes dar. Sie wird vom Hersteller des AP auf einen Standardnamen gesetzt. Mit dem SSID bestimmt der Administrator, auf welche Access-Points Notebooks oder PCs zugreifen können. Der SSID benennt einen oder eine Gruppe von Access Points (AP). Damit der Anwender drahtlos auf das Netz zugreifen kann, müssen auf den Notebooks die entsprechenden SSIDs hinterlegt sein. Der SSID funktioniert wie ein einfaches Passwort, wobei der Name des Access-Points vom Endgerät übermittelt wird. Jeder AP ist über seinen mit einem konkreten Wireless LAN verknüpft. Sendet das Notebook nicht die korrekte Adresse des Access Points, so erhält der Anwender keinen Zugriff auf die Daten. Eine Sicherheitslücke entsteht, wenn der Access-Point so konfiguriert ist, dass er seine SSIDs denjenigen Notebooks, die sich anmelden wollen, per Broadcastverfahren mitteilt.Ein weiteres Risiko besteht darin, dass die Anwender ihre Systeme selbst konfigurieren und anderen Personen die SSIDs möglicherweise mitteilen. Nach der Einrichtung von WEP/WPA und MAC-Filtern sollte das SSID-Broadcasting abgeschaltet werden, da die Clients fest eingerichtet sind und eine zyklische Bekanntgabe des Netzwerknamen (SSID-Broadcasting) nur noch ein Sicherheitsrisiko darstellt. Es versteht sich von selbst, daß alle voreingestellten Passwörter (z.B. beim AP) geändert werden. MAC-Adresse des Endgeräts speichern Anhand der MAC-Adresse kann der Administrator des AP festlegen, welche Endgeräte Daten über einen Access Point senden oder empfangen können. Die MAC-Adresse benennt das Laptop oder den Handheld-Computer. Um die Sicherheit in einem drahtlosen Netz zu erhöhen, lässt sich das System mit einer Liste von MAC-Adressen derjenigen Notebooks programmieren, denen Zugriff aufs LAN gestattet ist. Clienten,deren Adresse nicht in der Liste enthalten ist, erhalten keinen Zugang zum Access Point. Nachteile: Die Liste der Adressen muß vom Administrator in jeden Access Point manuell eingegeben und aktualisiert werden. Viele Netzwerkinterfaces erlauben die Konfiguration einer beliebigen MAC-Adresse, wodurch die Sperre unterlaufen werden kann. Erst in Kombination mit einer Verschlüsselung stellt diese Maßnahme eine weitere Steigerung der Sicherheit dar. Die MAC-Adresse eines Windows-Clients können Sie übrigens durch die kommandos ipconfig /all bzw. winipcfg ermitteln. Verschlüsselung der Datenpakete Die WEP-Verschlüsselung (Wired Equivalent Privacy) soll die Kommunikation innerhalb eines WLANs (Wireless Local Area Network) vor Lauschangriffen schützen. Damit Access Point und Notebook miteinander Daten ver- und entschlüsseln können, benutzen sie einen identischen Code. Das Verschlüsselungssystem codiert Datenpakete mit 128 Bit. Die Codierung dient als Zugangskontrolle: Einem Notebook wird der Zugriff auf einen AP verweigert, wenn die Schlüssel der beiden Komponenten nicht übereinstimmen. Der 802.11-WLAN-Standard sieht kein Protokoll für das Key-Management vor, so dass alle Schlüssel in einem Netz manuell administriert werden müssen. Die WEP-Sicherheit ist in Ad-hoc-Netzen, die keinen Access-Point benötigen, nicht verfügbar. Die WEP-Verschlüsselung ist mit relativ geringem Aufwand zu knacken. Im Ernstfall ist die Aufzeichnung und die Analyse von ca. 25 GB Datenverkehr ausreichend, um eine WEPbasierende Verschlüsselung zu knacken und erfolgreich über ein drahtloses Netzwerk in die Gesamtstruktur eines Unternehmensnetzweks einzudringen. Bei Verlust eines Notebooks muß der Administrator bei allen anderen Geräten und APs den Schlüssel ändern. Im Rahmen der Einrichtung ist es zweckmäßig, einen drahtgebundenen Zugang zum AP zu haben, um unbeabsichtigte Selbstaussperrungen zu vermeiden. Viele Geräte gestatten die Eingabe eines Schlüsseltextes (im Regelfall 13 Buchstaben oder Ziffern) zur Erzeugung eines Schlüsselcodes. Dieses Verfahren ist jedoch zwischen den verschiedenen Geräten nicht kompatibel, bei Problemen sollte hier ein 26-stelliger Hexadezimalcode verwendet werden (Schlüssellänge von 128 Bit). VPN im WLAN Ursprünglich bietet das VPN (Virtual Private Network) einen sicheren "Tunnel" durch das weltweite öffentliche Netz, seine Sicherheitsverfahren lassen sich aber auch auf ein lokales drahtloses Netzwerk anwenden. In Verbindung mit zentralisierten Authentifizierungslösungen wie RADIUS-Servern kommen dabei verschiedene Tunneling-Protokolle zum Einsatz. Die bereits vorhandene VPN-Infrastruktur im Unternehmen lässt sich leicht auf das Wireless LAN erweitern. Der Administrationsaufwand ist klein, da sich der VPN-Server zentral verwalten lässt.Es gibt noch Schwächen beim Roaming: Bewegen sich die Anwender von einem zum anderen drahtlosen Netz, werden sie zu einem erneuten Log-In aufgefordert. Für die Absicherung von Funknetzen bleiben damit nur Techniken, wie sie in Virtual Private Networks (VPNs) gebräuchlich sind - also Verfahren, die auf höheren Netzwerkebenen greifen. Das erfordert allerdings einige Umstellungen: Anstatt die Access Points schlicht in die bestehende LAN-Infrastruktur zu integrieren, muss man ein separates Netz für sie aufbauen. An einem Übergabepunkt zwischen WLAN und LAN muss dann die Zugriffsberechtigung überprüft werden. Man sollte dabei nicht nur von der normalen Benutzerverwaltung getrennte Passwörter verwenden, sondern diese möglichst lang machen. Deutlich sicherer geht es mit IPsec. Physische Sicherheit Man sollte gegebenenfalls die physischen Bedingungen in das Sicherheitskonzept mit einbeziehen. Bei der Abdeckung eines Geländes oder eines Gebäudes ist durch Auswahl der AP-Standorte, der Antennen und der Sendeleistung eine Einschränkung der Abdeckung auf den erwünschten Bereich möglich. So kann beispielsweise die Installation der APs in den Kellerräumen eine Abdeckung des Gebäudes und des naheliegenden Bereiches bieten, jedoch eine Absrahlung auf angrenzende Grundstücke wirkungsvoll vermieden werden. Die Verwendung von Antennen mit bestimmter Abstrahlungscharakteristik kann bei komplexen Umgebungen einen deutlichen Sicherheitsgewinn bringen. Warchalking Unter Warchalking versteht man die öffentliche Kennzeichnung offener drahtloser Netzwerke (Wireless LAN Hotspots) etwa durch Kreidezeichen an Hauswänden und auf Bürgersteigen. Genau wie die Reisenden früherer Zeiten sich durch Graffiti über die Qualität der lokalen Infrastruktur austauschten tun dies auch moderne Informationsnomaden. Um überall mit dem Internet verbunden zu sein nutzen sie oft auch die (unzureichend gesicherten oder absichtlich offen gelassenen) Wireless LANs von Institutionen und Privatpersonen, um über diese Netzwerke Verbindung mit dem Netz der Netze aufzunehmen. Welche WLAN-Hotspots in Deutschland frei zugäglich sind erfährt man unter www.hotspots-in-deutschland.de Technische Probleme WLANs benutzen sehr hohe Frequenzen 2,4 bis 2,5 GHz. In diesem Frequenzbereich ändern sich die Ausbreitungsbedingungen im Nahfeld schon mit kleinsten Veränderungen der Antennenposition und des Umfeldes der Antenne. So stören metallische Gegenstände in der Nähe der Antenne teilweise gewaltig. Um die starken Beeinflussungen der Ausbreitung zu verstehen, muß man die verwendete Wellenlänge berücksichtigen: 2,4 GHz entsprechen etwa 12,7 cm Wellenlänge. Jeder Gegenstand, der ungefähr so groß ist wie die Wellenlänge, kann die Abstrahlung der Antenne beeinflussen. Also nehmen Wasser, Pflanzen, Gebäude die Sendeenergie auf und setzen diese in Wärme um. Diese Energie steht dann nicht mehr für weitere Ausbreitung zur Verfügung. Ein weiterer Störfaktor sind Reflektionen. HF Energie wird von manchen Oberflächen hervorragend reflektiert oder abgelenkt. Dabei kann es zur Überlagerung des Originalsignals mit dem abgelenkten Signal kommen, was zu völliger Auslöschung aber auch zu einer Verstärkung führen kann. Durch Reflexionen verändert sich oft auch die Polarisation der Welle. Idealerweise sollten Sende- und Empfangsantenne die gleiche Polarisation haben, also beide vertikal oder beide horizontal. Ein konkrete, zuverlässige Vorhersage welche Antennen welche Reichweiten bringen ist ohne genaue Betrachtung der Umgebung nicht möglich. Wünschenswert sind dünne Kabel wegen ihrer größeren Flexibilität, Aber gerade die dünnen Kabel sogen für eine starke KabelDämpfung, die in in dB/100 m angegeben wird. Verringern lässt sich die Kabeldämpfung nur durch dickere Kabel, das liegt an der Physik. Das Problem ist, daß man zwar mit dicken Kabel im Aussenbereich und an einer festmontierten Antenne gut arbeiten kann, ein Notebook oder ein leichter Accesspoint aber vom dicken Kabel einfach weggehoben werden würde. Dadurch wird die Mobilität des WLANs wieder eingeschränkt. Um dieses Problem zu umgehen, wird mit sogenannten "Pigtails" gearbeitet. Dies sind kurze, hochflexible Kabelstücke mit den entsprechenden Steckern, die vom Notebook oder AP auf das dicke Kabel adaptieren. Dadurch kommt zwar wieder ein etwas stärker dämpfendes Kabel ins Spiel, aber das System bleibt flexibel. Dazu kommt noch das die üblichen Winzigstecker der Accesspoints oder PCMCIA-Karten gar nicht an ein dickes Kabel montiert werden können. Die folgende Tabelle zeigt typische Dämpfungswerte von HF-Kabeln: Kabeltyp Dämpfung bei 2.4 Ghz db/100m RG58 107 RG213 46 Aircom Plus 21,5 Aircell 7 39 WLAN-Stecker Lucent Sehr kleiner Stecker, der nur bei (Orinoco) PCMCIA-Karten verwendet wird. Passt nur an RG-316- oder RG174-Kabel. MMCX Sehr kleiner Stecker der nur bei PCMCIA Karte Verwendung findet. Passt nur an RG-316 und RG-174 Kabel.z.b. bei Cisco Aironet 350. SMA Kleiner Stecker für Access-Points, PCI-Karten o.ä. Kann an RG-316-, RG-58- und RG213-Kabel angeschlagen werden. SMA-Stecker: Innengewinde und innen Stift. SMA-Buchse: Aussengewinde und innen Kelch. ReverseSMA Wird sehr oft im WLAN-Bereich verwendet. z.B. D-Link ReverseSMA. Reverse-SMA-Stecker: Innengewinde und innen Kelch. Reverse-SMA-Buchse: Aussengewinde und innen einen Stift. TNC Etwas größerer Stecker, wird gelegentlich an WLANAccesspoints und -Clients gefunden. Passt an RG-316-, RG58- und RG213-Kabel. Achtung: Es gibt dieses System umgekehrt: Buchse (Kelch) anstelle des Stiftes für den Innenleiter, es nennt sich dann "Reverse-TNC". Wird häufiger im WLAN-Bereich verwendet. z.B. von Cisco. N Der Stecker für professionelle Montage und praktisch alle Kabeltypen. Dicke Kabel zur Antenne sollte man immer mit NStecker ausrüsten. Die Verbindung zum Notebook/AP wird dann mit einem Pigtail mit N-Buchse adaptiert. Weitere drahtlose Verfahren Das Nebeneinander verschiedener kabelloser Vernetzungstechniken ist nicht leicht zu durchschauen. Hier ein Überblick über Technik und Anwendung gängiger Systeme, die für den Heimbereich geeignet sind. WiMAX Die Wireless-Technologie Worldwide Interer operability for Microwave Access (WiMAX) hat nicht zuletzt aufgrund ihrer vielfältigen Anwendungsmöglichkeiten eine beachtliche Zukunft vor sich. Vor allem die breitbandige High-Speed-Übertragung zu mobilen Endgeräten nach dem Standard IEEE 802.16e verspricht eine weitergehende Verbreitung. Das Spektrum der WiMAX-Anwendungen reicht von der "Richtfunk-Anbindung" von Wohngebieten oder Industriekomplexen über die Versorgung mobiler Laptops bis hin zur Datenversorgung in Städten oder auch in größeren Gebieten, in denen sich wegen der dünnen Besiedelung das Verlegen von Kabeln nicht lohnt (Gebiete also, die niemals in den Genuss von DSL kommen werden). Die Funkzellendurchmesser betragen bis zu 20 km (typisch 10 km oder weniger). Auch die Installationskosten sind relativ niedrig, sie betragen etwa ein Drittel der Kosten für das Universal-Mobile-Telecommunications-System (UMTS). Die (Mobil-)Übertragungsraten liegen in der Praxis zwischen 5 Mbit/s und etwa 25 Mbit/s. Die heute bereits in vielen Ländern zur drahtlosen Breitband-Versorgung eingesetzte WiMAXTechnik beruht auf dem Standard IEEE 802.16. Bei der aktuellen Version ist der Wechsel der Funkzelle noch nicht möglich, die Anwendung ist also auf echte Festverbindungen ausgerichtet. Ende 2005 hat das IEEE-Gremium dann die Version 802.1 6e verabschiedet, womit auch der Wechsel der Funkzelle mit mobilen Endgeräten möglich sein wird. Die notwendigen Frequenzbereiche bei 2,5 GHz und 3,5 GHz sind verfügbar. Es wurde auch ein Quality of Service festgelegt, der auch Sprachübertragung erlaubt. IrDA Der IrDA (Infrared Data Association) - Standard für den Kurzstreckenbereich (wenige Meter) gehört schon fast zu den Veteranen der drahtlosen Technologien. Entsprechende Hardware ist sehr preisgünstig und heute Grundausstattung in Notebooks, Palm-, Handspring- und CEPlattformen sowie Handys. Mobile Telefone mit Infrarotschnittstelle gibt es beispielsweise von Siemens, Nokia, Qualcomm, Motorola und Ericsson. Seit einigen Monaten wird die Infrarot-Technologie mit 16 MBit/s-Transceiver ausgeliefert. Ein schwerwiegendes Handikap hat die IrDA-Technik, denn Sender und Empfänger benötigen eine direkte Sichtverbindung. Dieses Manko hat sich in der Praxis als so drastisch erwiesen, daß die Akzeptanz von IrDA sehr nachgelassen hat. Die Hersteller haben bereits reagiert - in vielen Fällen wird wohl IrDA demnächst von Bluetooth ersetzt, obwohl IrDA mit seinem Licht-Übertragungsmedium keine Rangeleien um Funkfrequenzen kennt und natürlich auch keinerlei möglicherweise gesundheitsschädliche Mikrowellen-Strahlung emittiert. Eine weitere Einschränkung der IrDA-Anwendung: Es sind nur Punkt-zu-Punkt-Verbindungen möglich. Bluetooth Über 200 Hersteller ziehen an einem Strang und entwickeln ein Verfahren zur drahtlosen Integration mobiler Geräte. Aus dem Projekt mit Codenamen "Bluetooth" ging bis zur CeBIT 1999 die erste Version einer Spezifikation hervor. Wer oder was ist "Bluetooth"? Der Held, um den es hier geht, regierte vor 1000 Jahren Dänemark und hieß Harald Blaatand, zu deutsch Blauzahn. Eines der wenigen Zeugnisse für die Existenz des Königs legt ein jütländischer Runenstein ab, auf dem steht: "... Harald, der ganz Dänemark und Norwegen gewann und die Dänen christianisierte." Was dieser Herrscher vergangener Tage mit drahtlosem Datenaustausch zu tun hat, versucht eine Powerpoint-Präsentation der "Bluetooth Special Interest Group" zu deuten: "Harald glaubt, daß mobile PCs und Handys kabellos miteinander kommunizieren sollten." Im Frühjahr 1998 beschlossen die Hersteller Ericsson, IBM, Intel, Nokia und Toshiba, gemeinsam eine Technik für die kurzreichweitige Funkverbindung von PCs, digitalen Kameras, Mobiltelefonen und anderen tragbaren Geräten zu entwickeln. Als Forum für den Austausch von Ideen gründeten sie die "Bluetooth Special Interest Group", eine Arbeitsgruppe, die zunächst Rahmenbedingungen formulierte und nach und nach einen Standard festlegen sollte. Die Initiatoren hatten ein Verfahren im Visier, das Anwendern von Notebooks das Leben erleichtert. Dementsprechend sollte die drahtlose Technik Stimme und Daten übertragen, überall funktionieren, automatisch Verbindungen aufbauen, Störeinflüssen von Mikrowellenherden widerstehen, mit kleinen Chips arbeiten, die auch in Handys passen, wenig Strom verbrauchen, auf offenen Standards beruhen und sehr billig sein. Am 20. Mai 1998 gab die Special Interest Group Einzelheiten zur Technik bekannt und begrüßte neue Mitglieder: 3Com, Axis, Cetecom, Compaq, Dell, Lucent, Motorola, Puma, Qualcomm, Symbionics TDK, VLSI und Xircom. Fünf Monate später wurde von bis dahin mehr als 200 Mitgliedern auf einer Entwicklerkonferenz in Atlanta die Version 0.7 der Bluetooth-Spezifikation aus der Taufe gehoben. Heute zählt die Teilnehmerliste rund 520 Einträge. Nun steht die Herausgabe der endgültigen Fassung 1.0 des Reglements kurz bevor. Nach dem Kalender der Bluetooth-Gruppe sollte das Dokument im 1. Quartal 1999 erscheinen, nach Möglichkeit bis zur CeBIT. Bis dahin blieben Detailinformationen in den Händen der Mitglieder. Kurz nach der Veröffentlichung, so lauten die Pläne, werden Entwicklungswerkzeuge für Bluetooth-Anwendungen erhältlich sein. Die ersten Produkte schließlich, welche die Technik umsetzen, könnten dann in der zweiten Jahreshälfte auf den Markt gehen. Auch wenn es bislang nocht keine Bluetooth-Chips zu kaufen gibt, können wir schon davon träumen; die Web-Site der Arbeitsgruppe (http://www.bluetooth.org) versorgt uns mit genügend Stoff: Handys schalten am Arbeitsplatz automatisch auf den kostenlosen Betrieb im firmeninternen Telefonnetz um und funktionieren zu Hause als Schnurlosapparate im Festnetz. Die Teilnehmer einer Konferenz brauchen ihre Notebooks nur einzuschalten, um sie miteinander zu verbinden. Auch der Referent braucht kein Kabel, wenn er den Projektor an einen PC anschließt. E-Mail, die der Anwender im Flugzeug auf seinem Notebook verfaßt, wird abgeschickt, sobald er nach der Landung sein Handy auf Stand-by schaltet. Der PDA des Außendienstmitarbeiters tauscht selbständig mit dem PC im Büro Informationen aus und aktualisiert seine Daten. Das Verfahren, nach dem Bluetooth-Geräte arbeiten, gründet zum Teil auf dem Standard 802.11 des Institute of Electrical and Electronics Engineers (IEEE). Eine 9 mal 9 Zentimeter große Chipkarte sendet im Mikrowellenbereich von 2,4 GHz bis 2,48 GHz. Dieser Abschnitt des gebührenfreien ISM-Bands (ISM = Industrial, Scientific and Medical) liegt sehr nahe an der Arbeitsfrequenz eines Mikrowellenherds, dessen Magnetron in der Regel mit 2,450 GHz schwingt. Daß der Funkverkehr trotzdem störungsfrei verläuft und auch neben anderen Wireless-Netzen funktioniert, soll eine Technik garantieren, die sich in dem sogenannten Baseband-Protokoll manifestiert. Hierin ist festgelegt, daß die Trägerfrequenz nicht konstant bleibt, sondern in einer zeitlichen Abfolge verschiedene Werte aus einer festen Menge von Frequenzen annimmt. Der Sender springt bis zu 1600 mal in der Sekunde zwischen 79 Stufen einer Frequenztreppe, die mit 1 MHz großen Abständen den Bereich von 2402 MHz bis 2480 MHz abdecken. Ein Gerät, das die Nachricht empfangen will, muß mit dem Sender synchronisiert sein und genau die gleiche Sprungfolge für die Trägerfrequenz verwenden. Nur Nachrichten, die diesen Fingerabdruck tragen, landen bei den Teilnehmern eines BluetoothNetzes, Signale anderer Quellen werden herausgefiltert. Die Daten schließlich werden der Sprungfolge durch eine binäre Frequenzmodulation angehängt. Bluetooth kann in einem asynchronen Modus Pakete übertragen, wobei in der Regel auf einen Slot, das heißt pro Element der Sprungfolge, ein Paket zu liegen kommt. Der Austausch erfolgt entweder symmetrisch mit einer Datenrate von 432 KBit/s oder asymmetrisch mit 721 KBit/s in einer Richtung und 57,6 KBit/s in der anderen. Reservierte Zeitfenster ermöglichen dabei einen Full-Duplex-Betrieb, bei dem Kommunikationspartner zur selben Zeit senden und empfangen dürfen. Alternativ zur Datenleitung kann eine Verbindung auch gleichzeitig drei Sprachkanäle mit jeweils 64 KBit/s Bandbreite unterbringen. Zum Umwandeln von Sprache in ein digitales Signal dient "Continuous Variable Slope Delta Modulation", ein Verfahren, das gegenüber Bitfehlern als vergleichsweise unempfindlich eingeschätzt wird. Ein Bluetooth-Netz ist aus einzelnen Blasen, sogenannten Piconets, aufgebaut, die jeweils maximal acht Geräte aufnehmen. Damit auch mehrere Teilnehmer drahtlos kommunizieren können, treten bis zu zehn Piconets eines Empfangsbereichs miteinander in Kontakt. Der Gründer eines Teilnetzes, nämlich das Gerät, welches die erste Verbindung herstellt, nimmt unter den übrigen Mitgliedern eine primäre Stellung ein und gibt die innerhalb des Piconet gebräuchliche Sprungfolge vor. Damit die anderen Geräte Schritt halten, schickt der Master Synchronisationssignale. Außerdem führt er Buch über die drei Bit langen Mac-Adressen der Piconet-Teilnehmer und versetzt diese nach Bedarf in eingeschränkte Betriebszustände. Den Aufbau einer Verbindung übernimmt das Software-Modul "Link-Manager". Dieses entdeckt andere Link-Manager in einem Empfangsbereich, mit denen es über ein eigenes Protokoll, das Link-Manager-Protokoll, Daten austauscht. Das Modul authentifiziert Geräte, behandelt Adreßanfragen, verfügt über eine einfache Namensauflösung und sendet und empfängt Anwendungsdaten. Darüber hinaus handelt es mit dem Kommunikationspartner den Verbindungstyp aus, der bestimmt, ob Sprache oder Daten über den Äther gehen. Auch an die Sicherheit haben die Entwickler gedacht. Bluetooth-Geräte weisen sich gegenseitig mit einem Challenge/Response-Mechanismus aus und kodieren Datenströme mit Schlüsseln von bis zu 64 Bit Länge. Abgesehen davon haben es Mithörer wegen der großen Zahl möglicher Sprungfolgen schwer, sich in ein Piconet einzuklinken. Eine Mitgliedschaft in der Special Interest Group ist für Unternehmen der EDV-Branche aus zweierlei Hinsicht interessant. Zum einen erhalten Entwickler die Gelegenheit, die Spezifikation nach ihren Vorstellungen mitzugestalten. So ist von den Gründern der Gruppe die Firma Ericsson für weite Teile des Baseband-Protokolls verantwortlich, während die Module für die PC-Integration von Toshiba und IBM stammen, Intel Wissen über integrierte Schaltungen einbringt und Nokia Software für Mobiltelefone liefert. Zum anderen bekommen Teilnehmer Zutritt zu den Vorabversionen des Standards und können frühzeitig mit der Entwicklung von Bluetooth-konformen Geräten und Programmen beginnen. Wer sich in die Gruppe aufnehmen lassen will, besucht die Bluetooth-Web-Site und schickt unter dem Link "Members" eine E-Mail mit verschiedenen Angaben an eines der fünf Gründungsmitglieder. Kurz darauf erhält der Bewerber in elektronischer Form zwei Vertragsformulare, die er unterschrieben per Post zurückschickt. Das eine, genannt "Adopters Agreement", sichert dem Teilnehmer die gebührenfreie Benutzung der Spezifikation für eigene Produkte, die ein Bluetooth-Label tragen dürfen. Wie das lauten wird, heißt es dort - denn Bluetooth ist lediglich ein vorläufiger Codename des Projekts -, entscheidet Ericsson. Die Vertragsanlage "Early Adopter Amendment" verpflichtet jene, die vor der Veröffentlichung des Standards beitreten, die Dokumente vertraulich zu behandeln. Damit Produkte das Bluetooth-Label erhalten, müssen sie nicht nur das Baseband-Protokoll unterstützen. Je nach ihrem Einsatzgebiet müssen sie auch mit Protokollen der Anwendungsebene arbeiten und verschiedene Datenobjekte integrieren. Mobiltelefone zum Beispiel sollten mit PCs oder PDAs elektronische Visitenkarten des V-Card-Standards austauschen, wohingegen ein Kopfhörer weniger Aufgaben zu erledigen hat. BluetoothGeräte bauen dabei nicht nur selbständig Verbindung zu ihren Kollegen auf, sie erkennen auch, mit welchen Fähigkeiten diese ausgestattet sind. Die Datenrate eignet sich eher für Anwendungen mit seltenem Datenaustausch in meist kleinem Umfang. So bildet Bluetooth keine Konkurrenz zu Wireless-LANs (WLANs), da dort inzwischen Bandbreiten von 11 MBit/s eingeführt wurden. Die wesentlichen BluetoothApplikationen, die in Betrieben von Mitarbeitern angenommen werden, bestehen aus unternehmenseigen Anwendungen wie Messaging, Knowledge Management (Unwired Portal), Datenbankabfragen usw. sowie dem Zugang zum Internet. Neues Kapitel Zugriffsverfahren Bei jedem Netz gibt es die physikalischen Verbindungswege (Kanäle), über welche die einzelnen Stationen miteinander kommunizieren. Die Art und Weise, wie die einzelnen Stationen diese Kanäle nutzen und belegen, hängt vom jeweiligen System des Zugriffs, dem Zugriffsverfahren, ab. In diesem Abschnitt werden die unterschiedlichen Zugriffsverfahren im Überblick besprochen, wobei nicht auf die Protokolle eingegangen wird. Das Zugriffsverfahren ist nicht von einer bestimmten logischen Netzwerkstruktur abhängig. Lassen Sie uns zu Beginn ein historisch interessantes Verfahren mit ein paar Sätzen würdigen, das Ausgangspunkt für die Entwicklung der heute üblichen Zugriffsverfahren war. ALOHA Dieses Verfahren ist eines der ältesten Zugriffsverfahren und wurde 1970 an der Universität von Hawaii entwickelt ("Aloha" = "Hallo"). Da man die Inseln nicht über Kabel verbinden konnte, hat man ein Funknetz aufgebaut. Die Grundidee ist recht einfach: Jede Station darf jederzeit senden. Danach wartet die sendende Station auf eine Bestätigung auf einem separaten Rückkanal. Senden zwei Stationen zur gleichen Zeit, treten Kollisionen auf - die Datenblöcke sind defekt und es erfolgt keine Bestätigung. Wurde eine Bestätigung empfangen, kann bei Bedarf weitergesendet werden. Im anderen Fall wartet jede Sendestation eine Zeitspanne, deren Länge zufällig bestimmt wird. Danach wird der Datenblock nochmals gesendet. Da die Wartezeit von einem Zufallsgenerator bestimmt wird, löst sich der Datenstau auf. Solange das Verhältnis von aktiver Sendezeit zu Leerlaufzeit hoch genug ist, arbeitet das System sehr gut. Sobald die "Netzlast" steigt, häufen sich Kollisionen, bis schließlich kein Datenblock mehr durchkommt. Der höchste Durchsatz ergibt sich, wenn die Sendeblöcke 18% der Gesamtzeit belegen. Zwei Jahre später wurde eine Verbesserung eingeführt: Slotted ALOHA. Jeder darf nun nur noch zu Beginn eines festgelegten Zeitintervalls mit dem Senden beginnen ("time slot"). Um nun alle Stationen zu synchronisieren, gibt es eine ausgezeichnete Station, die "Zeitmarken" senden darf. Die anderen Stationen synchronisieren sich mit diesem Markengeber. Der maximale Durchsatz wird hier bei einem Sendeanteil von knapp 36% erreicht. ALOHA wird immer noch bei manchen Formen der Kommunikation über Satelliten verwendet. CSMA/CD Die Abkürzung "CSMA/CD" steht für "Carrier Sense Multiple Access/Collision Detect". Dieses Verfahren findet häufig bei logischen Busnetzen Anwendung (z. B. Ethernet), kann aber prinzipiell bei allen Topologien eingesetzt werden. Bevor eine Station sendet, hört sie zunächst die Leitung ab, um festzustellen, ob nicht schon ein Datenverkehr zwischen anderen Stationen stattfindet. Erst bei freier Leitung wird gesendet und auch während der Sendung wird mitgehört, um festzustellen, ob eine Kollision mit einer Station auftritt, die zufällig zum gleichen Zeitpunkt mit dem Senden begonnen hat (Collision Detect). Bei allen Leitungen ist eine gewisse Laufzeit (siehe später) zu berücksichtigen, so daß auch dann eine Kollision auftritt, wenn zwei Stationen um eine geringe Zeitspanne versetzt mit dem Senden beginnen. In einem solchen Fall produzieren alle sendenden Stationen ein JAM-Singal auf der Leitung, damit auf jeden Fall alle beteiligten Sende- und Empfangsknoten die Bearbeitung des aktuellen Datenpakets abbrechen. Das JAM-Signal besteht aus einer 32 Bit langen Folge von 1010101010101010... Danach warten alle sendewilligen Stationen eine zufallsbestimmte Zeit und versuchen es dann nochmals. Alle Stationen im Netz überprüfen die empfangenen Datenpakete und übernehmen diejenigen, die an sie selbst adressiert sind. Wichtigster Vertreter für CSMA/CD ist das Ethernet, dem deshalb ein eigener Abschnitt gewidmet ist. Normalerweise tritt eine Kollision innerhalb der ersten 64 Bytes auf (Weiteres in Kapitel 4, "Slot Time"). Konfliktparameter k: k>1: Sender könnte eine ganze Nachricht an den Kanal übergeben, bevor ein Konflikt entsteht. Beim CSMA/CD-Verfahren inpraktikabel. k<1: CSMA/CD-Verfahren praktikabel Spezifikation: Bei größter zulässiger Netzlänge und kleinster zulässiger Paketlänge ergibt sich k~0,21. Wartezeit Die Wartezeit, die nach einer Kollision bis zum nächsten Sendeversuch vergeht, wird im Standard durch ein Backoff-Verfahren festgelegt (Truncated Binary Expotential Backoff). Es wird wie folgt definiert: Wartezeit = ZZ * T ZZ = Zufallszahl aus [0 < ZZ < 2n] n = Anzahl Wiederholungen des gleichen Blocks, jedoch maximal 10 T = Slot Time Die Slot Time entspricht der doppelten maximalen Signallaufzeit des Übertragungsmediums. Die Wartezeit steigt im statistischen Mittel nach 10 Versuchen nicht mehr an. Nach 16 Versuchen wird abgebrochen und eine Fehlermeldung erzeugt. Damit eine sendende Station eine Kollision sicher erkennen kann, muß die Dauer der Blockübertragung mindestens das Doppelte der Signallaufzeit zwischen den beiden beteiligten Stationen betragen. Somit ist die minimale Blocklänge abhängig von Signallaufzeit und Übertragungsrate. Das Rahmenformat von CSMA/CD ist nach IEEE 802.3 festgelegt. Neben Verkabelungsproblemen gibt es bei CSMA/CD-Netzen einige typische Fehlerquellen. Einige davon sollen hier kurz vorgestellt werden. 'Late Collisions' sind Kollisionen, die außerhalb des Kollisionsfensters von 512 Bit, also später, auftreten. Dafür gibt es generell drei Ursachen: Entweder eine Station mit Hardwaredefekt (Netzwerkinterface, Transceiver, etc.), ein Fehler in der Software (Treiber), wodurch sich die Station nicht an die CSMA/CD-Konventionen hält (Senden ohne Abhören), oder die Konfigurationsregeln für die Kabellänge sind nicht eingehalten worden (zu lange Signallaufzeit). Sendet eine Station ohne Unterbrechung längere Zeit, also Frames mit mehr als die maximal zugelassenen 1518 Bytes, dann bezeichnet man dies als 'Jabber' (zu deutsch 'Geplapper'). Hauptursache sind hier defekte Netzwerkkarten oder -Treiber. 'Short Frames' sind Frames, die kleiner als die minimal zugelassenen 64 Bytes sind. Grund hierfür sind auch Defekte beim Netzwerkinterface oder im Treiber. 'Ghost Frames' sind in Ihrer Erscheinung ähnlich einem Datenframe, haben jedoch Fehler schon im Start-Delimiter. Potentialausgleichsströme und Störungen, die auf das Kabel einwirken, können einem Repeater ein ankommendes Datenpaket vorspiegeln. Der Repeater sendet das Geisterpaket dann weiter ins Netz. Token-Ring Dieses Netz wurde von IBM entwickelt. Alle Rechner sind hintereinandergeschaltet und somit ringförmig verbunden. Im "Ruhezustand" (keine Station will senden) zirkuliert eine spezielle Nachricht im Netz, das sogenannte "Token" (genauer "Frei-Token", "free token"). Diese Nachricht wird von einem Rechner an den nächsten weitergegeben. Der Rechner, der im Besitz des Frei-Tokens ist, kann senden, indem er an dieses die Nachricht anhängt ("busy token"). Dieser Datenblock wird von Station zu Station weitergereicht, bis sie beim Empfänger angekommen ist. Der Empfänger bestätigt die Nachricht durch eine Acknowledge-Meldung, die mit dem Token weiter auf den Ring geschickt wird und schließlich wieder beim Absender eintrifft. Dieser schickt nun wieder ein Frei-Token auf die Reise. In der Regel berechtigt der Besitz des Tokens nur zur Sendung eines Blocks (non exhaustive), im anderen Extremfall könnte auch definiert werden, daß die Station soviele Datenblöcke senden kann, wie sie möchte (exhaustive). Damit könnte aber eine Station, die den Token besitzt, alle anderen dominieren. Normalerweise wird deshalb nur ein Block gesendet. Außerdem wird die Dauer der Sendeberechtigung befristet (Token Holding Time, z. B. 10 ms). Solange das Netz fehlerfrei funktioniert, stellt Token-Ring ein sehr einfach handzuhabendes Verfahren dar. Komplexer sind die Aufgaben beim Initieren des Netzes und beim Ein- oder Auskoppeln von Stationen. Token-Ring ist das einzige Netz mit aktiven Stationen, die aus Eingabe- und Ausgabeeinheit bestehen. Grundsätzlich sind alle Stationen gleichberechtigt, jedoch übernimmt eine von ihnen als "aktiver Monitor" besondere Überwachungsaufgaben im Netz. Eine andere Station überwacht als "passiver Monitor" den aktiven Monitor und kann gegebenenfalls dessen Aufgaben übernehmen. Die Aufgaben des aktiven Monitors sind: Erzeugen des Ringtaktes Überwachen des Tokens (Neuen Token erzeugen, falls er verloren geht, Verhindern mehrerer Tokens) Unterbinden permanent kreisender Blöcke oder Tokens erhöhter Priorität. (Generell: Ring säubern durch Senden eines "Purge Ring Frame" an alle Stationen und Erzeugen eines neuen Frei-Tokens). Verhindern, daß mehrere Monitore aktiv sind. Verzögerung des Token-Rahmens um 24 Bit-Zeiten (die Länge des Token-Rahmens beträgt 24 Bit). Auch bei extrem kleinem Ring wird so sichergestellt, daß eine Station den Token-Rahmen vollständig senden kann, bevor sie ihn wieder empfängt. In regelmäßigen Abständen sendet der aktive Monitor einen "Active Monitor Present Frame" an alle Stationen im Ring. Gleichzeitig wird dadurch eine Prozedur in Gang gesetzt, die allen Stationen die Adresse des jeweiligen Vorgängers im Ring liefert (NAUN = Nearest Active Upstream Neighbour) - eine Information, die nur im Fehlerfall wichtig ist. Ein Fehler auf Empfangsseite bedeutet, daß der eigene Empfänger oder der Sender des NAUN defekt ist. Die Auswahl des aktiven Monitors geschieht per "Claim-Token Process" durch: den derzeit aktiven Monitor, wenn dieser Probleme bei der Durchführung seiner Aufgaben hat, einen passiven Monitor, wenn der aktive Monitor nicht korrekt arbeitet (z. B. Timeout auftritt). eine neu eingegliederte Station, wenn diese das Fehlen des aktiven Monitors feststellt. Token-Ring-Netze werden normalerweise als Stern-Ring-Verbindungen mit passiven Ringleitungsverteilern aufgebaut. In den Ringleitungsverteilern befinden sich Relais (die von den Stationen gesteuert werden) zur Eingliederung von Stationen und zur Schaltung von Ersatzringen bei Defekten. Die Eingliederung einer Station erfolgt in fünf Schritten: 1. Ist ein Adapter vom Ring getrennt, sind gleichzeitig Eingangs- und Ausgangsleitung kurzgeschlossen. Es erfolgt zunächst ein Adaptertest. Nach dem Test versorgt der Adapter die Relais mit Strom und wird in den Ring eingegliedert. 2. Die Station hört nun den Ring ab. Wenn sie innerhalb einer festgelegten Zeit keine Aktivität des aktiven Monitors wahrnimmt, startet sie den Prozeß zur Auswahl des aktiven Monitors. 3. Durch Aussenden eines "Duplicate Address Test Frame" prüft die Station die Eindeutigkeit ihrer Adresse. Ist sie nicht eindeutig, koppelt sich die Station wieder ab. 4. Durch den NAUN-Prozeß erfährt die Station die Adresse ihres Vorgängers und ist nun ins Netz eingegliedert. 5. Von den Voreinstellungen abweichende Parameter können nun bei einer ServerStation abgefragt werden, sofern dies nötig ist. Die Funktionen von Monitor und der eingegliederten Stationen müssen nicht nur einmalig initiiert, sondern auch ständig überwacht werden. In vielen Fällen sind dies zahlreiche Aktionen, die auch viele Blöcke auf dem Netz zur Folge haben und in deren Verlauf auch Fehler- und Ausnahmebedingungen auftreten können. Der Nachteil von Token-Ring liegt darin, daß beim Ausfall einer Station oder bei Kabeldefekten das Netz unterbrochen wird. Wird die defekte Station hingegen abgeschaltet, schalten die Relais im Ringleitungsverteiler die Leitung durch. Token Ring ist genormt nach IEEE 802.5. Token-Bus Auch beim Token-Bus wird der Zugriff über Token-Passing geregelt, nur besitzt das Netz Bus- oder Baumstruktur. Hier haben wir also den Fall, daß eine logische Ringstruktur auf eine physikalische Busstruktur aufsetzt. Das Verfahren wird z. B. beim ARCNET und in der industriellen Automatisierung (MAP = Manufacturing Automation Protocol) verwendet. Anders als beim Token-Ring empfangen alle Stationen auf dem Bus die Daten. Daher wird die Reihenfolge der Stationen nicht durch die hardwaremäßige Verbindung, sondern rein logisch durch die Adreßzuordung erledigt. Die Tokens werden von der Station mit der höchsten Adresse an diejenige mit der nächstniedrigeren weitergereicht. Die Station mit der niedrigsten Adresse schließt den logischen Ring durch Adressierung auf die höchste Adresse Token Bus ist genormt nach IEEE 802.4. Neues Kapitel