Netzwerk Komponenten: Netzwerkkarte / Netzwerkadapter (NIC) Eine Netzwerkkarte wird auch als Netzwerkadapter bezeichnet. Die englische Bezeichnung ist Network Interface Card (NIC). Eine Netzwerkkarte ermöglicht es, auf ein Netzwerk zuzugreifen und arbeitet auf der Bitübertragungsschicht (Schicht 1) des OSI-Modells. Jede Netzwerkkarte hat eine HardwareAdresse (Format: XX-XX-XX-XX-XX-XX), die es auf der Welt nur einmal gibt. Anhand dieser Adresse lässt sich eine Station auf der Bitübertragungsschicht identifizieren. Bauformen von Netzwerkkarten Netzwerkkarten gibt es in verschiedenen Bauformen. Die klassische Netzwerkkarte für den ISA-, PCI- oder PCIe-Bus ist eine Steckkarte für den Einbau in das Computergehäuse. Eine andere Variante des Netzwerkadapters bzw. -controllers ist onboard auf dem Motherboard untergebracht. Der Anschluss wird als RJ45-Buchse von der Platine herausgeführt. Es gibt auch Netzwerkkarten, die in einer Box eingebaut sind und über den USB am Computer angeschlossen werden. Allerdings sind sie eher unüblich, da jedes noch so billige Motherboard einen Onboard-LAN-Adapter hat. alte Netzwerkkarte mit BNC und RJ45 USB-NetzwerkAdapter Onboard-LANAdapter LEDs an der RJ45-Buchse An einer Netzwerkkarte ist nicht nur die RJ45-Buchse herausgeführt, sondern meist auch zwei LEDs, die den Status der Verbindung anzeigen. Üblich sind RJ45-Buchsen, die zwei integrierte Status-LEDs in den Farben Grün und Orange haben. Die grüne LED zeigt an, dass eine hardwareseitige Verbindung besteht. Dazu muss der Computer nicht eingeschaltet sein (bei Formfaktor ATX). Die orangene LED zeigt den Status der Übertragung an. Wenn diese LED blinkt oder flackert, dann werden gerade Daten übertragen. Bei manchen Netzwerkkarten sind diese Funktionen etwas anders. Wenn die grüne LED flackert, dann werden gerade Daten übertragen. Ansonsten ist sie ständig grün, wenn eine Verbindung besteht. Leuchtet die orangene (manchmal ist sie auch gelb) LED, dann besteht eine 100 MBit-Verbindung. IP-Konfiguration Der Screenshot stammt vom Betriebssystem Windows 2000. Das dargestellte Eigenschaftsfenster sieht bei den Betriebssystemen Windows XP und Vista ähnlich aus. Jede vollständige IP-Konfiguration enthält die eigene IP-Adresse, die es im lokalen Netzwerk nur einmal gibt. Meistens wird diese Adresse auch automatisch/dynamisch per DHCP geliefert. Dann muss die Einstellung auf "IP-Adresse automatisch beziehen" stehen. Weiterhin ist eine Subnet-Mask notwendig, die die Netzwerk-Adresse und Stations-adresse voneinander trennt. Als drittes, aber nicht zwingend erforderlich, beinhaltet die IP-Konfiguration die IP-Adresse des Standard-Gateways. Dort werden alle Datenpakete geschickt, die sich nicht im selben Netz befinden oder über die keine Route bekannt sind. Damit das Standard-Gateway angesprochen werden kann, muss es im selben Netz liegen. Ist kein Standardgateway konfiguriert gibt es für die Datenpakete keinen Weg aus dem Netz heraus. Die vierte Einstellung ist die Adresse des DNS-Servers. Er ist in der Lage DNS-Adressen (z. B. www.elektronik-kompendium.de) in eine IP-Adresse aufzulösen. Auch diese Adresse kann automatisch per DHCP bezogen werden. IP-Konfiguration über Windows-Kommandozeile Microsoft Windows XP [Version 5.1.2600] (C) Copyright 1985-2001 Microsoft Corp. C:\>ipconfig Windows-IP-Konfiguration Ethernetadapter LAN-Verbindung: Verbindungsspezifisches IP-Adresse. . . . . . . Subnetzmaske. . . . . . Standardgateway . . . . DNS-Suffix: . . . . . : . . . . . : . . . . . : t-online.de 192.168.168.11 255.255.255.0 192.168.168.8 Einen schnellen Überblick über die IP-Konfiguration erhält man in der Kommandozeile bzw. MS-DOS-Eingabeaufforderung mit dem Befehl ipconfig. Mehr Informationen zum Befehl ipconfig unter Windows Automatische IP-Konfiguration über DHCP Standardmäßig werden IP-Adresse, Subnetz-Mask, Standardgateway und DNS-Server über einen DHCP-Server bezogen. Der Anwender muss sich dann um nichts kümmern. Allerdings setzt das einen DHCP-Server im Netzwerk voraus. DHCP - Dynamic Host Configuration Protocol Was hat es sich mit der Einstellung Vollduplex auf sich? In den Netzwerkkarten-Einstellungen findet sich unter Connection Type die Bezeichnung Vollduplex (engl. Full duplex). Konkret bedeutet das, dass die Bandbreite der Verbindung zwischen Switch und Netzwerkkarte 200 MBit/s statt nur 100 MBit/s beträgt. Allerdings hat die Sache einen Haken. Es handelt sich dabei um keine Verdoppelung der Bandbreite, sondern nur um die Möglichkeit, gleichzeitig in beide Richtungen mit 100 MBit/s zu arbeiten. Theoretisch ergibt das eine Bandbreite von 200 MBit/s. Doch nur selten tritt eine Situation auf, wo von einem Rechner mehrere hundert MByte heruntergeladen und gleichzeitig wieder hinaufgeladen werden muss. Bei der normalen Nutzung bringt der Vollduplex-Modus nichts. Wenn er einstellbar ist, dann sollte er auch genutzt werden. Es hat durchaus Geschwindigkeitsvorteile. Treten jedoch vermehrt Probleme in einem Netzwerk auf, kann es hilfreich sein, die Einstellung "Connection Type" auf AutoSense oder fest auf Halbduplex einzustellen. Repeater Ein Repeater ist ein Kopplungselement, um die Übertragungsstrecke innerhalb von Netzwerken, zum Beispiel Ethernet, zu verlängern. Ein Repeater empfängt ein Signal und bereitet es neu auf. Danach sendet er es weiter. Auf diese Weise verlängert der Router die Übertragungsstrecke und räumliche Ausdehnung des Netzwerks. Im einfachsten Fall hat der Router zwei Ports, die wechselweise als Ein- und Ausgang funktionieren (bidirektional). Repeater versteht man in der Regel als Verstärker von Übertragungsstrecken. Die weitere Beschreibung bezieht sich auf Repeater in kabelgebundenen Netzwerken, speziell in EthernetNetzwerken. Ein Repeater arbeitet auf der Schicht 1, der Bitübertragungsschicht des OSISchichtenmodells. Damit übernimmt er keinerlei regulierende Funktion in einem Netzwerk. Er kann nur Signale empfangen und weiterleiten. Für angeschlossene Geräte ist nicht erkennbar, ob sie an einem Repeater angeschlossen sind. Er verhält sich völlig transparent. Ein Repeater mit mehreren Ports wird auch als Hub (Multiport-Repeater) bezeichnet. Er kann mehrere Netzwerk-Segmente miteinander verbinden. Die Repeater-Regel (5-4-3) Um ein großes Netzwerk mit einer möglichst großen Reichweite aufzubauen, können mehrere Repeater hintereinandergeschaltet werden. Allerdings, nicht in beliebiger Anzahl. Der Grund liegt im Laufzeitverhalten und der Phasenverschiebung zwischen den Signalen an den Enden des Netzwerks. Deshalb gilt folgende Repeater-Regel: Es dürfen nicht mehr als fünf (5) Kabelsegmente verbunden werden. Dafür werden vier (4) Repeater eingesetzt. An nur drei (3) Segmenten dürfen Endstationen angeschlossen werden. Diese Repeater-Regel hat nur in den Ethernet-Netzwerken 10Base2 und 10BASE5 eine Bedeutung. In Netzwerken, die mit Switches und Router aufgebaut sind, hat diese RepeaterRegel keine Bedeutung. Um die Nachteile von Repeatern in Ethernet-Netzwerken zu umgehen, werden generell Switches zur Kopplung der Stationen eingesetzt. In großen Netzwerken, insbesondere über unterschiedliche Übertragungssysteme hinweg, werden zusätzlich Router eingesetzt. Hub Ein Hub ist ein Kopplungselement, das mehrere Stationen in einem Netzwerk miteinander verbindet. In einem Ethernet-Netzwerk, das auf der Stern-Topologie basiert dient ein Hub als Verteiler für die Datenpakete. Hubs arbeiten auf der Bitübertragungsschicht (Schicht 1) des OSI-Schichtenmodells und sind damit auf die reine Verteilfunktion beschränkt. Ein Hub nimmt ein Datenpaket entgegen und sendet es an alle anderen Ports weiter. Das bedeutet, er broadcastet. Dadurch sind nicht nur alle Ports belegt, sondern auch alle Stationen. Sie bekommen alle Datenpakete zugeschickt, auch wenn sie nicht die Empfänger sind. Für die Stationen bedeutet das auch, dass sie nur dann senden können, wenn der Hub gerade keine Datenpakete sendet. Sonst kommt es zu Kollisionen Wenn die Anzahl der Anschlüsse an einem Hub für die Anzahl der Netzwerk-Stationen nicht ausreicht, dann benötigt man noch einen zweiten Hub. Zwei Hubs werden über einen UplinkPort eines der beiden Hubs oder mit einem Crossover-Kabel (Sende- und Empfangsleitungen sind gekreuzt) verbunden. Es gibt auch spezielle "stackable" Hubs, die sich herstellerspezifisch mit Buskabeln kaskadieren lassen. Durch die Verbindung mehrerer Hubs lässt sich die Anzahl der möglichen Stationen erhöhen. Allerdings ist die Anzahl der anschließbaren Stationen begrenzt. Auch hier gilt die Repeater-Regel. Alle Stationen die an einem Hub angeschlossen sind, teilen sich die gesamte Bandbreite, die durch den Hub zur Verfügung steht (z. B. 10 MBit/s oder 100 MBit/s). Die Verbindung vom Computer zum Hub verfügt nur kurzzeitig über diese Bandbreite. Die Versendung der Datenpakete an alle Stationen ist nicht besonders effektiv. Es hat aber den Vorteil, dass ein Hub einfach und kostengünstig herzustellen ist. Wegen der prinzipiellen Nachteile von Hubs, verwendet man eher Switches, die die Aufgabe der Verteilfunktion wesentlich besser erfüllen, da sie direkte Verbindungen zwischen den Ports schalten. Medienkonverter Mit einem Medienkonverter können alte Netzwerkinstallationen mit einer neuen Verkabelung zusammengeführt werden oder Längenbeschränkungen von Netzwerkkabeln überwunden werden. Eine Umsetzung zwischen verschiedenen Ethernet-Varianten (z. B. 10 MBit und 100 MBit) ist nicht möglich. Die Umsetzung erfolgt nur zwischen unterschiedlichen Kabeltypen. Z. B. von 10Base2 (Koaxialkabel) auf 10BaseT (Twisted-Pair) oder von 100BaseTx (Twisted-Pair) auf 100BaseFx bzw. 100BaseSx (Glasfaserkabel). Ein Medienkonverter ist im Prinzip eine Black Box, die intern die Signale direkt zwischen den Kabelstandards, wie Kupfer- und Glasfaserkabel oder verschiedenen Kupfer- bzw. Glasfaserkabeltypen austauschen kann. Der Medienkonverter ist dabei transparent. Er ist jedoch kein Repeater. Die im Standard festgelegten maximal erlaubten Signallaufzeiten und die maximale Kabellänge gelten weiterhin. Für die Umsetzung verschiedener LAN-Typen, z. B. 10 MBit auf 100 MBit gibt es DualSpeed-Hubs oder Switches, die auch zwei Teilnetze mit unterschiedlicher Bandbreite miteinander verbinden können. Bridge Eine Bridge ist ein Kopplungselement, das ein lokales Netzwerk in zwei Segmente aufteilt. Dabei werden die Nachteile von Ethernet, die besonders bei großen Netzwerken auftreten ausgeglichen. Als Kopplungselement ist die Bridge eher untypisch. Man vermeidet die Einschränkungen durch Ethernet heute eher durch Switches. Warum ist eine Bridge notwendig (gewesen)? Das CSMA/CD-Verfahren in einem Ethernet (Netzwerk) führt zu mehreren Einschränkungen: Alle Stationen teilen sich die verfügbare Bandbreite (z. B. 10 MBit oder 100 MBit). Mit zunehmenden Stationen steigt der Datenverkehr und somit die Anzahl der Kollisionen. Die Effizienz des Datenverkehrs leidet darunter. Die räumliche Ausdehnung ist auf die maximale Verzögerungszeit (Bitzeit) und die maximale Kabellänge beschränkt. In einer Collision Domain dürfen maximal 1024 Stationen angeschlossen werden. Alle diese Probleme lassen sich mit einer Bridge lösen. Eine Bridge arbeitet auf der Sicherungsschicht (Schicht 2) des OSI-Schichtenmodells und ist protokollunabhängig. Sie überträgt alle auf dem Ethernet laufende Protokolle. Für die beteiligten Stationen arbeitet die Bridge absolut transparent. Durch eine Bridge kann ein überlastetes Netzwerk physikalisch in Segmente aufgeteilt und logisch wieder zusammengeführt werden. Dabei bleiben alle Störungen, Kollisionen, fehlerhafte Pakete und der Datenverkehr innerhalb des Segments und belasten das andere Segment nicht. Nur der Datenverkehr, der in das andere Segment muss, wird von der Bridge über die logische Verbindung durchgelassen. Eine Bridge legt sich eine Datenbank aller Stationsadressen (MAC-Adressen) an. Anhand dieser Daten entscheidet die Bridge, ob die empfangenen Datenpakete in ein anderes Netzwerksegment weitergeleitet werden oder nicht. Mit der Zeit kann dann die Bridge immer besser entscheiden, in welches Segment die ankommenden Daten gehören. Eine Bridge arbeitet aber nur dann sinnvoll, wenn zwei Netzwerk-Segmente verbunden werden sollen, aber der meiste Datenverkehr innerhalb der beiden Segmente stattfindet. Multicasts und Broadcasts werden immer weitergeleitet. Anstatt einer Bridge verwendet man heute einen Switch. Dieser ist wesentlich billiger und erfüllt die selben Funktionen. Die Längenbeschränkungen des Ethernet-Standards werden durch mehrere hintereinandergeschaltete Bridges aufgehoben. Nach IEEE 802.1 lassen sich 7 Bridges hintereinanderschalten. In der Regel werden nicht mehr als 4 hintereinander geschaltet. Lokale Netzwerke, die eine längere Strecke überbrücken müssen, werden gerne mit unterschiedlichen Übertragungsmedien gekoppelt. Der Einsatz von zwei Bridges kann eine andere Übertragungsstrecke, z. B. Satellit, Funk oder Glasfaser, zwischenschalten und so als Konverter zwischen zwei Übertragungsmedien dienen. Switch Ein Switch ist ein Kopplungselement, das mehrere Stationen in einem Netzwerk miteinander verbindet. In einem Ethernet-Netzwerk, das auf der Stern-Topologie basiert dient ein Switch als Verteiler für die Datenpakete. Die Funktion ist ähnlich einem Hub, mit dem Unterschied, das ein Switch direkte Verbindungen zwischen den angeschlossenen Geräten schalten kann, sofern ihm die Ports der Datenpaket-Empfänger bekannt sind. Wenn nicht, dann broadcastet der Switch die Datenpakete an alle Ports. Wenn die Antwortpakete von den Empfängern zurück kommen, dann merkt sich der Switch die MAC-Adressen der Datenpakete und den dazugehörigen Port und sendet die Datenpakete dann nur noch dorthin. Während ein Hub die Bandbreite des Netzwerks limitiert, steht der Verbindung zwischen zwei Stationen, die volle Bandbreite der Ende-zu-Ende-Netzwerk-Verbindung zur Verfügung. Ein Switch arbeitet auf der Sicherungsschicht (Schicht 2) des OSI-Modells und arbeitet ähnlich wie eine Bridge. Daher haben sich bei den Herstellern auch solche Begriffe durchgesetzt, wie z. B. Bridging Switch oder Switching Bridge. Die verwendet man heute allerdings nicht mehr. Switches unterscheidet man hinsichtlich ihrer Leistungsfähigkeit mit folgenden Eigenschaften: Anzahl der speicherbaren MAC-Adressen für die Quell- und Zielports Verfahren, wann ein empfangenes Datenpaket weitervermittelt wird (SwitchingVerfahren) Latenz (Verzögerungszeit) der vermittelten Datenpakete Ein Switch ist im Prinzip nichts anderes als ein intelligenter Hub, der sich merkt, über welchen Port welche Station erreichbar ist. Auf diese Weise erzeugt jeder Switch-Port eine eigene Collision Domain (Kollisionsdomäne). Teure Switches können zusätzlich auf der Schicht 3, der Vermittlungsschicht, des OSISchichtenmodells arbeiten (Layer-3-Switch oder Schicht-3-Switch). Sie sind in der Lage, die Datenpakete anhand der IP-Adresse an die Ziel-Ports weiterzuleiten. Im Gegensatz zu normalen Switches lassen sich auch ohne Router logische Abgrenzungen erreichen. Switching-Verfahren SwitchingVerfahren Beschreibung Vorteile Nachteile Cut-Through Der Switch leitet das Datenpaket sofort weiter, wenn er die Adresse des Ziels erhalten hat. Die Latenz, die Verzögerungszeit, zwischen Empfangen und Weiterleiten ist äußerst gering. Fehlerhafte Datenpakete werden nicht erkannt und trotzdem an den Empfänger weitergeleitet. Store-andForward Der Switch nimmt das gesamte Datenpaket in Empfang und speichert es Fehlerhafte Datenpakete können so im voraus Die Speicherung und Prüfung der Datenpakete in einem Puffer. Dort wird aussortiert werden. dann das Paket mit verschiedenen Filtern geprüft und bearbeitet. Erst danach wird das Paket an den Ziel-Port weitergeleitet. verursacht eine Verzögerung, abhängig von der Größe des Datenpaketes. Kombination aus CutThrough und Store-andForward Viele Switches arbeiten mit beiden Verfahren. Solange nur wenige Kollisionen auftreten wird Cut-Through verwendet. Häufen sich die Fehler schaltet der Switch auf Store-and-Forward um. Fragment-Free Der Switch empfängt die ersten 64 Byte des Daten-Paketes. Ist dieser Teil fehlerlos werden die Daten weitergeleitet. Die meisten Fehler und Kollisionen treten während den ersten 64 Byte auf. Dieses Verfahren wird trotz seiner effektiven Arbeitsweise selten genutzt. Weitere Informationen zu Switching Kollisionsdomäne (Collision Domain) Durch das CSMA/CD-Verfahren entstehen Kollisionen, wenn mehrere Stationen an einer Kollisionsdomäne angeschlossen sind. Das wiederum reduziert den Netzwerk-Verkehr, der durch wiederholte Übertragungen verursacht wird. Die Einrichtung mehrerer Kollisionsdomänen reduziert die Anzahl der Kollisionen von Datenpaketen. Switches bilden an jedem ihrer Ports eine Kollisionsdomäne, indem sie den Datenverkehr nur an den Port weiterleiten an dem sich die Ziel-MAC-Adresse befindet. Innerhalb einer Kollisionsdomäne (Switch-Port) befindet sich dann in der Regel eine einzelne Station, ein weiterer Switch oder ein Router in ein anderes Netz. MAC-Adressen-Verwaltung / MAC-Tabelle Switches haben den Vorteil, im Gegensatz zu Hubs, dass sie Datenpakete nur an den Port weiterleiten, an dem die Station mit der Ziel-Adresse angeschlossen ist. Als Adresse dient die MAC-Adresse, also die Hardware-Adresse einer Netzwerkkarte. Diese Adresse speichert der Switch in einer internen Tabelle. Empfängt ein Switch ein Datenpaket, so sucht er in seinem Speicher unter der Zieladresse (MAC) nach dem Port und schickt dann das Datenpaket nur an diesen Port. Die Zuteilung der MAC-Adressen lernt ein Switch mit der Zeit kennen. Die Anzahl der Adressen, die ein Switch aufnehmen kann, hängt ab von seinem internen Speicher. Ein Qualitätsmerkmal eines Switch ist, wie viele Adresse er insgesamt und pro Port speichern kann. An einem Switch, der nur eine Handvoll Computer verbindet, spielt es keine Rolle wie viele Adressen er verwalten kann. Wenn der Switch aber in einem großen Netzwerk steht und an seinen Ports noch andere Switches und Hubs angeschlossen sind, dann muss er evt. mehrere tausend MAC-Adressen speichern und den Ports zuordnen können. Je größer ein Netzwerk ist, desto wichtiger ist es darauf zu achten, dass die Switches genügend Kapazität bei der Verwaltung von MAC-Adressen haben. Zusätzliche Leistungsmerkmale von Switches IEEE 802.1q / VLAN IEEE 802.1x LACP GVRP SNMP - Simple Network Management Protocol Bandbreite Die Daten in einem Switch werden über die sogenannte Backplane übertragen. Über die Backplane werden alle Ports miteinander verbunden, die Daten miteinander austauschen müssen. Die Bandbreite muss also groß genug sein, um alle angeschlossenen Stationen mit der Netzwerk-Geschwindigkeit bedienen zu können. Es gilt die Faustformel: Die Bandbreite der Backplane muss dem Doppelten der höchstmöglichen Bandbreite aller verfügbaren Ports entsprechen. Vereinfacht gilt folgende Formel: Das Ergebnis muss nochmals verdoppelt werden (x2), wenn die Daten mit Vollduplex übertragen werden. Ein Switch mit 5 Fast-Ethernet-Anschlüssen (100 MBit/s) benötigt also eine BackplaneBandbreite von 1 GBit/s (1000 MBit/s). Bei kleinen Netzwerkinstallationen spielt die Backplane-Bandbreite in der Regel keine Rolle. Schon billige Switches haben eine ausreichend große Backplane-Bandbreite. Dient der Switch aber als Verteiler zwischen Stationen mit Datenbankabfragen und File-Transfers, dann spielt die Bandbreite ein größere Rolle. Einfachere Switches basieren in der Regel auf einer Bus-Architektur mit hoher Bandbreite, da der Schaltungsaufwand geringer ist und sich das Gerät billiger herstellen lässt. Problemfall: Switch Fließt der Datenverkehr in einem Netzwerk ständig nur zu einer einzigen Station, dann hat der Switch wenig Einfluss auf die Performance. Eine geringe Anzahl an Datenpaketen kann ein Switch zwischenspeichern. Irgendwann verwirft er die eingehenden Datenpakete oder erzeugt Kollisionen. Verworfene Datenpakete werden von höheren Protokollen, wie TCP oder IPX, erneut gesendet. Bei ungesicherten Protokollen, wie z. B. UDP oder NetBIOS kann das jedoch zu Verbindungsabbrüchen führen. Kollisionen werden auf der Schicht 2 erkannt und erneut angefordert. In jedem Fall entstehen spürbare Verzögerungen im Netzwerkverkehr. Bauformen 5-Port-Switch 24-Port-Switch Switches gibt es in den unterschiedlichsten Bauformen und Ausbaustufen. Generell gilt, je größer und besser ein Switch ausgestattet ist, desto teurer ist er. Ein einfacher Switch hat 4 oder 5 Ports. Mit ein paar Status-LEDs sind sie in Kästchen in der Größe einer Zigarettenschachtel eingebaut. Etwas bessere Switches haben ein Metallgehäuse, sind stabiler und für den Dauereinsatz besser geeignet. Neben den kleinen 4- und 5-Port Switches gibt es Ausbaustufen mit 8, 16, 24 und 32 Ports. Wer mehr Ports benötigt, braucht stackable Switches, die sich über separate Kabel miteinander verbinden und übereinander stapeln lassen. Wer Switches in 19"-Schränken installieren will, der sollte auf 16-, 24- und 32-Port Switches achten. Diese verfügen über Halterungen für 19"-Einbauschienen. Die kleinen Geräte haben manchmal Halterungen an der Unterseite und lassen sich an der Wand montieren. Wer kleine Switches mit geringer Portanzahl kauft und nicht in einen 19"-Schrank einbaut, der sollte auf die Anordnung von RJ45-Buchsen und Status-LEDs achten. Es gibt Geräte, bei denen die LEDs auf der Vorderseite und die Anschlüsse auf der Rückseite angeordnet sind. In billigen Geräten sind die Status-LEDs in die RJ45-Buchsen integriert. Das ist nicht immer praktisch. Z. B. wenn die Kabel nicht aus der Richtung kommen, wo man die Status-LEDs gut sichtbar haben will. In der Regel werden kleine Switches von einem Steckernetzteil mit Strom versorgt und haben keinen Aus- und Ein-Schalter. Geräte mit größerer Port-Anzahl haben das Netzteil integriert und einen Lüfter zur Kühlung. Vorsicht dann bei Gebrauch im privaten Bereich. Der Lüfterlärm ist nicht zu unterschätzen. Layer-3-Switch Ein Layer-3-Switch ist eine Kombination aus Router und Switch. Er beherrscht nicht nur Switching, sondern auch Routing. Da Router und Switches sehr ähnlich funktionieren - sie empfangen, speichern und leiten Datenpakete weiter - ist es nur logisch beide Geräte miteinander zu kombinieren, um daraus ein Multifunktionsgerät zu machen. In der Praxis sieht das so aus, dass die Entscheidung zur Weiterleitung von Datenpaketen anhand der MAC-Adressen oder der IP-Adressen erfolgen kann. Ein Layer-3-Switch kann einzelnen Ports verschiedenen Subnetzen zuordnen und innerhalb dieser Subnetze als Switch arbeiten. Außerdem beherrscht er auch das Routing zwischen diesen Subnetzen. Vereinfacht kann man sagen, dass ein Layer-3-Switch ein Router mit Switching-Funktion oder umgekehrt ein Switch mit Routing-Funktion ist. Router mit Switching-Funktion Switch mit Routing-Funktion Im Kern ist solch ein Gerät ein Router, dessen Routing-Funktionen durch den Einsatz spezifischer Hardware (ASICs) beschleunigt werden. Im Kern ist solch ein Gerät ein Switch, der um die Funktionen eines Routers erweitert wurde. Wegen der höheren Geschwindigkeit und aus finanziellen Gründen, werden Layer-3-Switches gegenüber reinen Routern bevorzugt. Zumindest in großen Netzen. Layer-3-Switches lassen sich als Router, Switch oder als Mischform betreiben. Im Vergleich zu Routern haben Layer3-Switches eine geringere Verzögerungszeit und einen höheren Datendurchsatz. Funktionell ist es so, dass das erste Datenpaket einer Verbindung wie bei einem Router behandelt wird. Alle weiteren Datenpakete werden geswitcht, da die Route bereits bekannt ist. Das bringt einen Geschwindigkeitsvorteil. Vorteile Layer-3-Switch (gegenüber Router) geringere Gerätekosten geringere Verzögerungszeit höherer Durchsatz einfachere Administration hohe Flexibilität mehr Ports Nachteile Layer-3-Switch (gegenüber Router) weniger Features Auf IP-Ebene lassen sich durch RoutingFunktionen deutlich mehr Möglichkeiten zur Steuerung von Netzwerkverkehr realisieren. Gateway Gateways behandeln die Schichten 1 bis 7 des OSI-Modells und koppeln die unterschiedlichsten Protokolle und Übertragungsverfahren miteinander. Grundsätzlich geht man von zwei verschiedene Ansätzen aus. Einmal von medienkonvertierenden Gateways, die bei gleichen Übertragungsverfahren zwischen zwei verschiedenen Protokollen der OSI-Schichten 1 und 2 verbinden. Dann gibt es noch die protokollkonvertierenden Gateways, die unterschiedliche Protokolle auf den OSI-Schichten 3 und 4 miteinander verbinden. Gateways haben die Aufgabe eine logische Verbindung herzustellen einen Datenstrom zwischen Quelle und Ziel zu übermitteln. Beim Übergang zwischen zwei Netzen berücksichtigt das Gateway folgendes: Protokolle Adressierung Übertragungsgeschwindigkeit physikalische Bedingungen (Übertragungsmedium) Beispiel für ein Gateway Ein Gateway ist ein aktiver Netzknoten, der zwei Netze miteinander verbinden kann, die physikalisch zueinander inkompatibel sind und/oder eine unterschiedliche Adressierung verwenden. Klassisches Beispiel ist der ISDN-Router, der zwischen dem LAN und dem öffentlichen Telefonnetz (ISDN) verbinden kann. Dazu gehören auch Fax-Server und Voiceover-IP-Gateways. Proxy / Proxy-Server Ein Proxy ist ein Dienst, der als Zwischenspeicher innerhalb eines Netzwerks dient, um die Zugriffe auf immer die gleichen Daten und Dateien aus dem Speicher zu bedienen. Der Begriff Proxy bezieht sich auf einen Server oder einen Dienst, der auf einem Server läuft. Der Proxy-Dienst ist ein Programm, dass im Hintergrund auf einem Server arbeitet. Proxy bedeutet Stellvertreter. Er ist im einfachsten Fall eine Art Cache für Webseiten. Er nimmt Anfragen von Clients entgegen und wertet sie aus. Stellvertretend leitet er die Anfrage ins Internet weiter. Die zurückgelieferten Daten werden vom Proxy vor dem Weiterleiten gespeichert. Bei einer erneuten Anfrage auf das gleiche Ziel werden die Daten nicht aus dem Internet geladen, sondern direkt aus dem Proxy-Speicher zum Empfänger geschickt. Auf diese Weise wird Datenverkehr ins Internet eingespart. Das senkt die Kosten und erhöht die Bandbreite für andere Anwendungen. Standard-Proxy Die Clients schicken Ihre Zugriffe nicht direkt ins Internet, sondern zum Proxy. Dieser Server übernimmt als Mittler die Verbindung zum Webserver. Häufige Internet-Seiten oder Downloads müssen dann nicht mehr erneut über das Internet übertragen werden, sondern können vom Proxy-Server direkt an die Clients geschickt werden. Das reduziert das Datenaufkommen in das Internet und liefert den Clients die Daten schneller zurück. Reverse-Proxy Der Reverse-Proxy funktioniert anders herum und ist mit Load Balancing vergleichbar. Die Clients greifen zum Beispiel ohne Proxy auf das Internet zu. Ein Gruppe von Webservern ist hinter einem Proxy versteckt. Die Webserver sind also nicht direkt erreichbar. Der Proxy leitet häufige identische Zugriffe aus dem Internet nicht an die Webserver weiter, sondern arbeitet sie selber ab, sofern er die Daten zwischengespeichert hat. So ist eine einfache Lastverteilung möglich, ohne teures oder kompliziertes Load Balancing einrichten zu müssen. Reverse-Proxys können auch unberechtigte Zugriffe verhindern. In einem anderen Anwendungsfall wird die Zugriffsberechtigung für mehrere Server zentral von einem Proxy abgewickelt. Vorteile schnellerer Zugriff auf immer die gleichen Daten Kosteneinsparungen beim Internet-Datenverkehr Integration von Viren- und Spamfilter möglich Ein Proxy bietet mehr Schutz für die Systeme, die über einen Proxy, anstatt direkt mit dem Internet kommunizieren. Unverlangte Pakete von externen Rechnern gelangen nicht mehr ins lokale Netz, weil der Proxy die Zugriffe aus dem Internet nur dann weiterleiten kann, wenn vorher eine ausgehende Verbindung bestanden hat. Zusätzlich kann ein Virenfilter auf dem Proxy installiert werden. Damit der wirkungsvoll arbeiten kann, muss jeder Internet-Zugriff über den Proxy erfolgen. Das erreicht man dadurch, dass das Standard-Gateway nicht der Router zum Internet ist, sondern ein vorgeschalteter Proxy. Nachteile Cache-Kohärenz durch veraltete Inhalte im Cache nicht jede Anwendung unterstützt Proxys nicht für jedes Internet-Protokoll gibt es Proxys Der Nachteil von Proxys ist, dass für jedes Internet-Protokoll ein Proxy installiert werden muss, wenn der ganze Datenverkehr über den Proxy-Server abgewickelt werden soll. Das bedeutet, das Proxy-Programm muss alle möglichen Protokolle beherrschen, die das Internet zu bieten hat. Da reicht es nicht aus, nur HTTP für den Zugriff auf Webserver zu unterstützen. Auch POP und SMTP für die E-Mail-Kommunikation müssen beherrscht werden. In der Regel müssen die Programme auf den Clients den Datenverkehr über einen Proxy unterstützen. Bei einfachen Internet-Diensten, wie WWW und E-Mail ist das kein Problem. Doch bei Online-Spielen und P2P-Tauschbörsen wird es schwierig oder funktioniert überhaupt nicht. Fazit Proxys sind in der Anfangszeit des kommerziellen Internets ein Mittel für Internet-Provider gewesen, um Datenverkehr einzusparen. Damals waren die Internet-Anbindungen noch langsamer und teurer. Außerdem waren noch viele Internet-User mit Modem oder ISDNKarte unterwegs. Um die Daten schneller ausliefern zu können, wurden Proxys eingerichtet, um die Kunden schneller beliefern zu können und Datenverkehr einzusparen. Inzwischen ist der Netzausbau des Internets sehr großzügig ausgelegt, so dass ein Proxy keine Vorteile mehr bietet. Eine Ausnahme bilden Übergänge von lokalen Netzwerken ins Internet, wo ein Proxy aus Sicherheitsgründen eingesetzt wird. Zum Einen, um die Möglichkeiten der Nutzer einzuschränken. Und zum Zweiten, um den Datenverkehr auf schädliche Inhalte, wie Viren und Würmern prüfen zu können. In der Regel geht es darum, das lokale Netzwerk zu schützen.