Die Telekommunikation im 21. Jahrhundert Thomas Schneider www.fh-telekom-leipzig.de/fhlinfo/home/schneider/schneider.html Deutsche Telekom Fachhochschule Leipzig, Gustav-Freytag-Str. 43-45, 04277 Leipzig I. Einführung Als das Telefon vor über 100 Jahren Einzug in das Leben der Menschen hielt, konnte sich niemand vorstellen, welche rasante Entwicklung ihm in einer recht kurzen Zeit bevorstand. Heute gehört es zu den wichtigsten und unverzichtbaren Bestandteilen der zwischenmenschlichen Kommunikation. In den letzten Jahren kamen zwei grundsätzlich neue Komponenten in die bis dahin fast ausschließliche Welt der Sprachkommunikation unter Festnetzanschlüssen: die Datenflut des Internet und der Wunsch, überall und immer erreichbar zu sein. Diese beiden Aspekte hatten ein derart starkes Wachstum zur Folge, dass es keiner großen Visionen bedarf um vorherzusagen, dass sie zu den wichtigsten Bestandteilen in der Zukunft der Telekommunikation gehören werden. Wie die weltweite Krise der Informationstechnik insgesamt und die Umsatzeinbußen der großen Mobiltelefonhersteller zeigen, ist der klassische Markt so gut wie gesättigt. Starke Zuwächse lassen sich in Zukunft nur über neue innovative Produkte und Dienste erzielen. Diese neuen Dienste werden wahrscheinlich mit einem drastisch erhöhten Bandbreitenbedarf einhergehen. Damit es zu einer breiten Akzeptanz dieser neuen Dienste kommt, muss dem Teilnehmer die Bandbreite aber zu geringen Kosten zur Verfügung stehen. Bei den heutigen Systemen ist vor allem der Mobilfunkbereich weit von dieser Forderung entfernt. Dabei ist es gerade die mobile breitbandige Kommunikation, die der natürlichen Kommunikation zwischen Menschen am nächsten kommt. Diese Tatsache verlangt nach fundamental neuen Ansätzen für Endgeräte und Netze. Der vorliegende Artikel geht auf mögliche Szenarien der Entwicklung in den nächsten Jahren ein. Dabei stehen vor allem die grundsätzlich neuen Technologien, welche derzeit in den Forschungszentren rund um die Welt diskutiert werden, im Mittelpunkt. Der Komplexität des Themas entsprechend können weder alle Entwicklungen berücksichtigt, noch die beschriebenen in ausreichender Tiefe behandelt werden, somit handelt es sich eher um einen subjektiv geprägten Überblick. II. Grundsätzliche Überlegungen zum zukünftigen Netz Telekommunikation beschreibt – dem Namen nach – eine Kommunikation zwischen Menschen, Maschinen oder Menschen und Maschinen über weite Entfernungen hinweg. Betrachtet man die heutige Umsetzung dieses Begriffs, so ist man noch relativ weit vom Idealzustand entfernt. Bei einer echten zwischenmenschlichen Kommunikation ist man nicht an Orte oder Geräte gebunden, außerdem beinhaltet sie neben den Audioinformationen auch visuelle Informationen über Mimik und Gestik des Gesprächspartners. Angenommen die weitere Entwicklung bewegt sich in die Richtung des Idealzustandes, so lassen sich zwei Schlüsse ziehen. Erstens: Endgeräte werden in Zukunft fast ausschließlich mobil sein. Zweitens: Die zusätzliche Übermittlung visueller Informationen wird zunehmend an Bedeutung gewinnen, wobei auch räumliche Eindrücke eine Rolle spielen können. Gleichzeitig wird auch die Datenkommunikation zwischen Maschinen und die zwischen Menschen und Maschinen weiter stark zunehmen. Zur mobilen Übermittlung von großen Datenmengen und bewegten Bildern benötigt man vor allem sehr viel Bandbreite. Wie die Versteigerung der UMTS-Lizenzen gezeigt hat, ist Bandbreite eine sehr knappe und teure Ressource, vor allem in den Frequenzbereichen, die heute für den Mobilfunk genutzt werden. Eine Alternative besteht darin, in den MillimeterWellenbereich auszuweichen, allerdings gibt es hier eine ganze Reihe zu lösender Probleme. Das größte ist die starke Dämpfung auf Grund von Schwingungs-Rotationsübergängen des Wassers und anderer Moleküle in der Atmosphäre. Da die Wellen sich nur über eine relativ kurze Distanz ausbreiten, kann man in diesen Frequenzbereichen nur Mikro- oder Pikozellen bedienen. Daher wird man solche Netze mit hoher Wahrscheinlichkeit nicht flächendeckend ausbauen. Gleichzeitig bedeutet die geringe Reichweite aber auch, dass die Frequenzen einer Zelle relativ häufig wiederverwendet werden können, so dass sich an Orten mit hohem Verkehrsaufkommen – wie Flughäfen oder Einkaufszentren – sehr breitbandige, kleinzellige Systeme realisieren lassen. Vor allem in der Fläche werden die zellulären Mobilfunksysteme (UMTS und zunächst auch GSM) weiter parallel existieren. Nicht zu vergessen sind natürlich auch die Festnetzanschlüsse zu Hause oder im Büro, auf die man nach Möglichkeit ebenfalls drahtlos zugreifen will. Als Folge stellt sich die zukünftige Netzstruktur sehr heterogen dar. Zum einen existieren Hot-Spots, die in ihrem Bereich sehr breitbandige Dienste bei relativ geringer Mobilität des Teilnehmers bieten können; zum anderen gibt es die zellulären Systeme mit geringerer Bandbreite aber einem flächendeckenden Ausbau. An bestimmten, rentablen Stellen – wie z.B. Autobahnen – wird man durch Sonderlösungen hohe Bandbreite bei hoher Mobilität ermöglichen wollen. Alle parallel existierenden Subnetze können sich in der verfügbaren Bandbreite, dem Frequenzbereich, in Kompressions- und Modulationsverfahren usw. usf. voneinander unterscheiden. In welchem Subnetz sich der Teilnehmer gerade befindet, sollte ihm nach Möglichkeit nur durch unterschiedliche verfügbare Bandbreiten und damit Dienste bewusst werden. Gleichzeitig sollte er über eine einzige Telefonnummer oder seinen Namen, in dem jeweiligen Subnetz erreichbar sein. Für das Netz ergibt sich daraus die Notwendigkeit zu einem für den Teilnehmer vollständig transparenten Handover oder Roaming zwischen den einzelnen Subnetzen im Hintergrund. Als Vermittlungsprotokoll für den dem Netz zugrunde liegenden Backbone bietet sich hier das aus der Internet-Welt bekannte IP-Protokoll an, welches extra dafür geschaffen wurde, zwischen unterschiedlichen Endgeräten und Netzen zu vermitteln; allerdings für den Verkehr von Datenpaketen. Sprache oder Videos sind hingegen zeitkritisch und benötigen eine feste Dienstqualität. Ob das IP-Protokoll tatsächlich zu all dem in der Lage ist was von ihm verlangt wird, und wenn ja, welche Verbesserungen man hinzufügen muss, wird sich erst noch herausstellen. III. Endgeräte Aus der Heterogenität des Netzes ergibt sich ein Problem für zukünftige Endgeräte. Je nach verfügbarer Bandbreite lassen sich in den Teilnetzen unterschiedliche Dienste mit unterschiedlicher Qualität nutzen. Bei den heutigen Netzen stehen dem Teilnehmer eine Vielzahl von Endgeräten zur Verfügung (Festnetztelefon, mobiles Telefon, PC, Laptop ...). Alle sind über unterschiedliche Nummern oder Adressen erreichbar und zusätzlich bedienen alle auch noch unterschiedliche Dienste. Bei einem idealen Endgerät sollten all diese Beschränkungen wegfallen; das heißt, der Teilnehmer sollte nur noch auf ein einziges Endgerät zurückgreifen müssen und über dieses überall erreichbar sein. Um diese Bedingung zu erfüllen, muss das Endgerät in allen oben beschriebenen Netzen funktionieren und viele unterschiedliche Dienste anbieten können. Wie zukünftige Endgeräte aussehen werden, ist natürlich reine Spekulation. Aber dem vorhin angesprochenen Trend zu natürlicher Kommunikation kommt ein einfacher Stöpsel im Ohr, für die Sprache, und eine Brille für die visuelle Information (unter Umständen auch dreidimensional) am nächsten [1]. Das Sende- und Empfangsteil befindet sich irgendwo in der Tasche des Teilnehmers und ist drahtlos, z.B. über Bluetooth, mit Ohrhörer und Brille verbunden. Gesteuert wird das Gerät über eine Spracheingabe. Neben der zwischenmenschlichen Kommunikation lässt sich die Abfrage von Videos und Daten mit einem solchen Gerät bewerkstelligen, nicht aber das Bearbeiten größerer Texte oder Bilder. Dafür werden wahrscheinlich auch in Zukunft Geräte von der Form eines Laptops oder Pocket-PC herhalten müssen. Das Endgerät sollte in allen Subnetzen funktionieren und eine Vielzahl unterschiedlicher Dienste anbieten können. Nach der heutigen Herangehensweise müsste man daher mehrere Endgeräte in einem einzigen integrieren, dies wird bei einem weiteren Wachstum der Heterogenität der Netze jedoch nicht mehr möglich sein. Als Ausweg wird das sogenannte Software-Radio-Konzept [2] diskutiert: Der Kern dieses Vorschlages ist, dass sich das Endgerät alle Informationen, die es zu einem Funktionieren in dem jeweiligen Netz benötigt, aus dem Netz selbst holt, und zwar mittels eines Software-Downloads. Für das Endgerät bedeutet dies, dass es fast vollständig in Software konfigurierbar sein muss. Damit ergibt sich auch die Möglichkeit, das Endgerät an den jeweils gewünschten Dienst anzupassen, nur als Telefon oder als Abspielgerät für Videos beispielsweise. In der Internetwelt ist diese Herangehensweise völlig normal. Sind im Browser bestimmte Komponenten nicht installiert, so werden sie mit dem jeweiligen Dienst, der sie benötigt, über das Internet heruntergeladen. Will man beispielsweise eine Videosequenz aus dem Internet abspielen, so kann man vorher aus demselben Netz beispielsweise QuickTime laden. Die für den Dienst benötigte Software kann sich auch im Header des Datenstroms befinden. Für den Software-Download sind mehrere Varianten im Gespräch. Die für den Anwender einfachste, aber gleichzeitig technisch auch anspruchsvollste ist die, dass der Download der benötigten Komponenten bei der Anmeldung bzw. beim Handover in das jeweilige Subnetz erfolgt. Neben allen Vorteilen bringt das Verfahren auch einige Nachteile mit sich. Zum einen sind erhöhte Anforderungen an die Sicherheit im Netz die Folge, zum anderen wird man sich daran gewöhnen müssen, dass auf Grund der „Quick and Durty“-Philosophie mancher SoftwareHäuser die heute aus der Computerwelt allseits bekannten und beliebten Software-Abstürze in Zukunft beim Telefon zur Tagesordnung gehören werden. Das Software-Radio-Konzept basiert auf einer schnellen Signalverarbeitung. Wenn es funktionieren soll, benötigt man vor allem schnelle Prozessoren. Dies setzt immer kleinere Strukturen auf den Prozessorchips voraus. Da die Herstellung der Prozessoren bislang auf Belichtungs- und Ätzverfahren beruht, ist die Strukturgröße durch Beugungserscheinungen des Lichtes physikalisch begrenzt. Man kann höchstens Strukturen auflösen, die der Größenordnung der Wellenlänge entsprechen. Deshalb werden große Anstrengungen unternommen, Lithografieverfahren mit immer kleineren Wellenlängen bis hinab in den UVund vielleicht Röntgen-Bereich zu entwickeln. Auch wenn in Zukunft mehr Bandbreite zur Verfügung stehen wird, so werden Kompressionsalgorithmen wie JPEG2000 oder MPEG-XX zur Eindämmung der Datenflut weiterhin an Bedeutung gewinnen. Ausgefeilte Kompressionsalgorithmen und schnelle Prozessoren benötigen viel Energie. Die heute üblichen Akkus haben im Wesentlichen zwei Nachteile. Die in ihnen speicherbare Energiemenge ist den zukünftigen Anforderungen nicht gewachsen und die Aufladezeiten sind viel zu lang. Als Alternative bieten sich hier unter anderem Brennstoffzellen auf der Basis von Wasserstoff oder Methan an [3]. Ein Liter Wasserstoff (0,09 g) enthält ~3 Wattstunden Energie, außerdem lassen sich Brennstoffzellen – im Gegensatz zur umständlichen Aufladeprozedur bei Akkus – einfach betanken. Die derzeitigen Probleme bei Brennstoffzellen liegen in der Speicherung des Brennstoffes und in dem damit verbundenen Gewicht und der Größe. IV. Subnetze und zugrundeliegende Technologien Wie werden die einzelnen speziellen Netze aussehen, aus denen sich das heterogene Gesamtnetz der Zukunft zusammensetzt? Zum einen werden sich die heutigen mobilen Netze wie Wireless-LAN und zellulärer Mobilfunk weiterentwickeln und aufeinander zu bewegen. Zum anderen werden die heutigen Festnetzanschlüsse in Wohnungen und Büros ebenfalls über einen drahtlosen Zugang in das mobile Netz integriert. Neben diesen gibt es aber noch einige sehr interessante Vorschläge für weitere – zum Teil spezielle – Subnetze auf die im Folgenden eingegangen wird. 1. HAPS Im Zusammenhang mit dem weiteren Ausbau der zellulären Systeme (z.B. UMTS) ist man auf sehr hohe Nutzerzahlen angewiesen, damit sich die getätigten Investitionen amortisieren. Nach der heute gültigen Logik bedeuten hohe Nutzerzahlen das Verkleinern der einzelnen Zellen und damit das Vergrößern der Basisstationsdichte. Gleichzeitig gewinnt die Elektrosmog-Diskussion immer mehr an Bedeutung. Für die Mobilfunkanbieter wird die Standortsuche für die benötigten neuen Basisstationen zunehmend zum Problem. Daher rücken auch scheinbar utopische Lösungsvorschläge in den Mittelpunkt des Interesses. Eine solche Lösung bieten unter anderem High-Altitude-Stratospheric-Platform-Station (HAPS). Bei diesen Systemen handelt es sich um Stationen, die in einer festen Höhe von ~20 km schweben und den darunter liegenden Ballungsraum breitbandig wie eine Basisstation bedienen, wie Abbildung 1 zeigt. Abb. 1 High-Altitude-Platform-Station-(HAPS)-Luftschiffe in der Stratosphäre dienen als Basisstationen zur Versorgung eines Ballungsgebietes. Die Luftschiffe sind untereinander durch optische Links verbunden. Die einzelnen Stationen sind durch optische Links miteinander verbunden und können so ein eigenes Netz im Himmel bilden. Als Stationen kommen Luftschiffe oder auch Flugzeuge in Frage. Die NASA entwickelt in diesem Zusammenhang ein Nur-Flügel-Flugzeug, welches auf der gesamten Tragfläche mit Solarzellen ausgestattet ist. Am Tage treibt der Solarstrom direkt die Elektromotoren an, in der Nacht wird die Energie von – während des Tages aufgeladenen – Akkus entnommen. Bei HAPS sollen möglichst wenige solcher Stationen in großer Höhe ein ganzes Ballungsgebiet breitbandig versorgen. Ist eine hochbitratige Versorgung vieler Teilnehmer mit wenigen Stationen überhaupt möglich? Die maximale Kapazität eines drahtlosen Kanals lässt sich mit einer dem speziellen Problem angepaßten Variante der bekannten Gleichung von Shannon zur Berechnung der maximalen fehlerfreien Übertragungsrate eines in der Bandbreite begrenzten rauschenden Kanals bestimmen [4]: CM = P B log 2 1 + M AM N S SN S kTB (1) mit CM als der maximalen Bitrate, welche dem einzelnen Teilnehmer zur Verfügung gestellt werden kann; B, der Bandbreite des Funkkanals; S, der Ausleuchtzone des Funkstrahls; NS, der Teilnehmerdichte am Boden; k, der Boltzmann-Konstante (1,38 x10-23 Ws/K); T, der äquivalenten Rauschtemperatur; PM, der Leistung jedes Terminals und AM, der effektiven Antennenfläche eines Terminals. Wie Glng.1 zeigt, gibt es vier Wege, große Kapazitäten und damit Übertragungsraten zu erzielen. Der erste wäre eine Vergrößerung der effektiven Antennenfläche AM, für tragbare Geräte sicher keine sonderlich praktische Lösung. Der zweite besteht in einer schlichten Erhöhung der abgestrahlten Leistung PM. Abgesehen von gesundheitlichen Überlegungen zeigt Glng.1, dass die Leistung logarithmisch eingeht, daher kommt es zu Sättigungseffekten. Ab einer bestimmten Leistung treten nur noch geringe Zuwächse der Bitrate auf. Im Gegensatz zur Leistung geht die Bandbreite des Funkkanals linear in Glng.1 ein, eine Erhöhung der Bandbreite führt daher zu einem direkten Anstieg der Bitrate. Wie bereits erwähnt, ist die Bandbreite ein knappes und recht teures Gut, so dass dieser Weg ebenfalls entfällt. Der einzige Weg, die maximale Bitrate in einem Funkkanal zu vergrößern, besteht daher in einer Verkleinerung der Ausleuchtzone des Funkstrahls S. Die Ausleuchtzone ist umgekehrt proportional zu CM; umso kleiner der Strahldurchmesser, umso größer die maximale Bandbreite, welche jeder Teilnehmer erhalten kann. Abbildung 2 zeigt die maximale Bitrate in Abhängigkeit vom Strahldurchmesser für die in der Abbildung angegebenen Werte. Wie Abbildung 2 zeigt, sind Datenraten von mehreren 10 Mbit/s pro Teilnehmer theoretisch möglich, dazu muss die Ausleuchtzone des Funkstrahls kleiner als 0,1 km² sein. Teilnehmerdichten und benötigte Datenraten können sich in einem Ballungsgebiet relativ häufig örtlich verändern; man muss die schmalen Strahlen daher nach Möglichkeit nachführen oder schalten. Diese Forderungen erfüllen adaptive Antennen. Maximale Bitrate des Teilnehmers [Mbit/s] 100 Leistung Basisstation: 1 mW Wellenlänge: 10 cm Bandbreite: 100 MHz Teilnehmerdichte: 10 -2 1000 km 1 0.1 0.01 0.1 1 10 2 Ausleuchtzone [km ] Abb. 2 Maximale Bitrate eines Teilnehmers in Abhängigkeit von der Ausleuchtzone des Funkstrahls nach Glng.1. Äquivalente Rauschtemperatur 300 K, effektive Antennenfläche λ²/20. 2. Adaptive Antennen Adaptive Antennen bestehen in ihrer einfachsten Form aus einem Array von äquidistant in einer Reihe angebrachten Dipolen wie Abbildung 3 zeigt, aber auch andere Dimensionen und Anordnungen sind möglich. Die von den einzelnen Antennenelementen abgestrahlten Wellen überlagern sich – entsprechend des Superpositionsprinzips – abhängig von ihren Phasen und Amplituden. d Abb. 3 Eindimensionales adaptives Antennenarray aus äquidistant angeordneten Dipolen. Der Strahldurchmesser ist von der Anzahl der Antennenelemente abhängig: Umso mehr Elemente die Antenne hat, umso dünner ist der Strahl. Abbildung 4 zeigt die Abstrahlcharakteristik eines Arrays aus 8 und 16 Elementen. 1.0 0.8 Array Factor 16 Elemente 0.6 8 Elemente 0.4 0.2 0.0 0 50 100 150 Winkel [°] Abb. 4 Array-Faktor eines eindimensionalen äquidistanten Antennenarrays mit 8 und 16 Antennenelementen. Das Antennenelement n wird mit der Phase kndsinβ des komplexen Stroms angesteuert, der Betrag des Stroms ist für alle Elemente gleich. Steuerbare Strahlen lassen sich über eine Veränderung der Phasen des Ansteuerstroms jedes Antennenelementes erzielen. Bei einem eindimensionalen äquidistanten Array mit einem Abstand d zwischen den Elementen muss die Phase jedes einzelnen Elementes ein Vielfaches von kdsinβ sein, wobei β den Winkel von der Normalen charakterisiert, in den das Array strahlen soll und k den Wellenzahlvektor. Eine einfache Veränderung der Phase des Ansteuerstroms bewirkt dementsprechend eine Veränderung der Abstrahlrichtung. Der Strahl läßt sich daher dem jeweiligen Teilnehmer nachführen. Wenn man in der Lage ist, Phase und Amplitude des Stroms jedes einzelnen Elementes unabhängig zu steuern, so lässt sich jede beliebige Abstrahl- und Empfangscharakteristik des Arrays einstellen. Abbildung 5 geht von einem Fall aus, bei dem sich das Signal von einem Teilnehmer auf drei unterschiedlichen Wegen zur Basisstation ausbreitet. Ein RAKEReceiver ist in der Lage, die Mehrwegeausbreitung durch eine Kombination der zu unterschiedlichen Zeitpunkten eintreffenden Wellen zu einer Verbesserung der Signalqualität zu nutzen. Daher soll die Antenne Signale aus den drei Richtungen empfangen können. Gleichzeitig kommen aus vier weiteren Richtungen Störsignale; zwei von anderen mobilen Teilnehmern und zwei von benachbarten Basisstationen. Wie man der Abbildung entnehmen kann, wurden Phase und Amplitude für jedes Element genau so eingestellt, dass das Array aus diesen Richtungen nichts empfangen kann. Theoretisch lassen sich mit M Antennenelementen genau M-1 Störer unterdrücken. Die Abschätzung der Teilnehmer- und Störerrichtung und die daraus folgenden Parameter zur Steuerung des Arrays sind vor allem ein Problem der Signalverarbeitung. 90 120 150 180 60 30 0 Abb. 5 Array-Faktor bei beliebiger Einstellung von Phase und Betrag des Stroms für jedes Antennenelement. Die Antenne soll das Signal aus drei Richtungen empfangen und gleichzeitig vier Richtungen stumm schalten. Wenn man sowohl am Ort der Basisstation als auch am Ort des mobilen Endgerätes mehrere Antennenelemente einsetzt, so kann man durch entsprechende Signalverarbeitungsalgorithmen erreichen, dass bei einer Mehrwegeausbreitung jeder einzelne dieser Wege zur Übermittlung unterschiedlicher Daten genutzt werden kann, so als ob jedes einzelne Antennenelement des Senders mit jedem einzelnen Antennenelement des Empfängers kommuniziert. Ist das Signal, welches die Antenne abstrahlt, breitbandig, bzw. soll ein Array mehrere Trägerfrequenzen abstrahlen, so beginnt es zu schielen, wie Abbildung 6 zeigt. Das heißt, die Hauptstrahlkeule zeigt für unterschiedliche Frequenzen in unterschiedliche Richtungen. Gleichzeitig gibt es Probleme der Signalverarbeitung und damit Antennensteuerung bei Millimeter-Wellen. 8 Squint Error fT=2.4 GHz B=200 MHz Array Faktor 6 4 2 0 0 50 100 150 200 Winkel [°] Abb. 6 Squint Error; für ein Signal mit einer Bandbreite von 200 MHz zeigt die Hauptstrahlkeule des Arrays in unterschiedliche Richtungen. Abhilfe bei beiden Problemen bietet die optische Steuerung adaptiver Antennen, hierbei wird nicht die Phase, sondern die Zeit für jedes Element variiert. Dazu wird das RF-Signal in ein optisches gewandelt und beispielsweise auf ein Verzögerungsnetz aus unterschiedlich langen Glasfasern geleitet. Ein optischer Schalter wählt aus dem Netz die der gewünschten Verzögerung entsprechende Länge der Faser aus. Am eigentlichen Antennenelement wird das Signal durch eine Photodiode wieder zurück in den RF-Bereich gewandelt und abgestrahlt. 3. Breitbandige Netze an Autobahnen Neben den Ballungszentren gibt es vor allem auf Autobahnen eine Vielzahl potentieller Teilnehmer an einem breitbandigen Netz. Als potentielle Dienste kommen z.B. Off-BoardNavigationssysteme in Frage, welche immer über das aktuelle Verkehrsaufkommen in Fahrtrichtung informiert sind und gegebenenfalls eine Umleitung in das Fahrzeug übermitteln. Aber auch Verbindungen zum Internet, zu Videoservern oder zum digitalen terrestrischen Fernsehen oder Radio für Mitreisende sind denkbar. Erste Ansätze in dieser Richtung gibt es bereits heute. Bei den meisten Automobilherstellern konnten auf der letzten Automobilausstellung Prototypen von Fahrzeugen mit Internetanschluss begutachtet werden. Die Verbindung läuft zunächst über das GSM- und GPRS-Netz, später dann über UMTS. Bei den heute üblichen Kosten für eine mobile Internetanwendung wird nur eine relativ kleine Gruppe – die es sich zum einen leisten kann und die zum anderen darauf angewiesen ist – diese Angebote nutzen. Breite Akzeptanz werden solche Systeme erst erfahren, wenn breitbandige Verbindungen zu geringen Kosten verfügbar sind. Wie bereits ausgeführt wurde, bedingen individuelle breitbandige Verbindungen zu jedem einzelnen mobilen Teilnehmer relativ kleine Zell- oder Strahldurchmesser. Bei der Kommunikation mit sich relativ schnell bewegenden mobilen Stationen, kommt noch das Problem der Geschwindigkeit hinzu. Während sich Effekte wie die Dopplerverschiebung und Interferenzen durch eine gleichzeitige Übertragung auf mehreren orthogonalen Frequenzen (OFDM Orthogonal Frequency Division Multiplex oder Multi Carrier CDMA) lösen lassen, bekommen konventionell aufgebaute kleinzellige Netze bei hohen Geschwindigkeiten und Datenraten vor allem Schwierigkeiten mit dem ständigen Handover zwischen den einzelnen Basisstationen. Ein U.S.-Patent aus dem Jahre 1998 [5] propagiert zur Lösung des Problems ein Netz von Basisstationen, die sich parallel zur Autobahn in der jeweiligen Fahrtrichtung bewegen, so dass die Relativbewegung zwischen Basisstation und Fahrzeug entsprechend verringert wird. Eine einfachere Lösung des Problems wären feststehende Basisstationen mit beweglichen Funkstrahlen. Eine Verfolgung des Teilnehmers ist mit dem Strahl einer adaptiven Antenne, entweder aus einer großen Höhe mit HAPS oder mit Basisstationen die in einer gewissen Entfernung zur Autobahn stehen, möglich. Eine weitere Möglichkeit bietet das sogenannte Radio-over-Fiber-Verfahren. 4. Radio over Fiber Bei Radio over Fiber macht man sich die geringen Verluste, die hohe Bandbreite und den hohen Stand der Technologie der optischen Übertragungstechnik zu Nutze. Das Signal wird durch interne oder externe Modulation eines Lasers oder durch die heterodyne Überlagerung zweier Laserwellen einem optischen Träger aufmoduliert und über eine Glasfaser zur Basisstation übertragen. Das Netz ist dabei sternförmig aufgebaut, eine Kontrollstation bedient eine Vielzahl von Basisstationen. Es gibt im Prinzip drei unterschiedliche Herangehensweisen, die sich durch den Grad an Komplexität in der Basisstation unterscheiden. Bei der einfachsten Methode wird das Signal im Basisband von der Kontrollzur Basisstation übertragen, diese wandelt das Signal in den RF-Bereich um und strahlt es ab. Dabei behält die Basisstation die volle – heute übliche – Komplexität. Interessanter ist eine Methode, bei der das RF-Signal vollständig in der Kontrollstation erzeugt wird. Danach wird es einem optischen Träger aufmoduliert und mit Hilfe einer Glasfaser zur Basisstation übertragen. Hier wird es wieder in den RF-Bereich zurückgewandelt, verstärkt und abgestrahlt. Für Pikozellen, mit Zellradien unter 100 m entfällt sogar die Notwendigkeit einer Verstärkung, wenn man Elektroabsorptionsmodulatoren1 benutzt. Der große Vorteil dieser Methode liegt darin, dass der größte Teil der Komplexität konventioneller Basisstationen an die Kontrollstation übertragen wurde. Die Basisstation ist im Prinzip nur noch eine Antenne. Da eine Kontrollstation eine Vielzahl von Basisstationen bedient, ergibt sich daraus ein großes Einsparpotential in den Investitionskosten. Für das Handover zwischen Basisstationen folgt daraus aber noch eine andere Konsequenz: Nicht mehr die Basis-, sondern die Kontrollstation stellt die Trägerfrequenz (bzw. Code oder Zeitschlitz) zur Verfügung. Verläßt ein Teilnehmer den Bereich einer Basisstation und wechselt zu einer benachbarten, die aber noch im Bereich der Kontrollstation liegt, so kann die Kontrollstation die Trägerfrequenz von der ursprünglichen Basisstation abziehen und der nächsten zuweisen, ohne umständliche Handover-Prozeduren abarbeiten zu müssen. Für eine Autobahn ergäbe sich damit die Möglichkeit, den mobilen Teilnehmer bei seiner Fahrt entlang der Straße mit einer Frequenz (Code oder Zeitschlitz) zu versorgen, die von Basisstation zu Basisstation weitergereicht wird. 1 Ein Elektroabsorptionsmodulator (EAM) nutzt den Franz-Keldysch-Effekt, dieser äußert sich im Wesentlichen dadurch, dass ein Halbleiter in einem elektrischen Feld seine Bandlücke verändert. Wird die Bandlücke kleiner so beginnt ein ehemals transparenter Halbleiter zu absorbieren (deshalb Elektroabsorption). Man kann durch ein äußeres elektrisches Feld ein optisches Signal modulieren. Ein moduliertes optisches Signal hat wiederum ein elektrisches Feld zur Folge welches über eine Antenne in den Raum abgestrahlt werden kann. 5. Terminode Alle bisher beschriebenen Methoden gingen von zellulären Systemen aus, bei denen eine – wie auch immer beschaffene – Basisstation für die Verbindung zwischen einem mobilen Endgerät und einem darunterliegenden Netz sorgt. Dieses ist verantwortlich für die Verbindung zwischen den Teilnehmern und übernimmt die Funktionen des Roaming und Handover. Für die Zukunft werden aber auch Methoden diskutiert, die völlig unabhängig von einem solchen festen Netz funktionieren sollen. Die mobilen Endgeräte stellen in diesen Systemen selbst das Netz dar. Da man dabei von einem mobilen, örtlich veränderlichen, aber relativ große Gebiete umspannenden Netz ausgeht, welches sich den jeweiligen Bedürfnissen entsprechend selbst organisiert, spricht man von „Self Organized Mobile ad-hoc Wide Area Networks“. Da jedes Endgerät sowohl Telefon (Terminal) als auch Netzknoten (Node) sein kann, ist auch der Name Terminode üblich. Terminode ist auch die Bezeichnung eines 10 Jahre währenden Forschungsprojektes (2000-2010), welches diese Systeme untersuchen soll [6]. Die Verbindung zwischen Quelle und Ziel beruht auf einer Paketübertragung zwischen mehreren Terminodes. Alle Netzfunktionen, die zu einer Übermittlung der Pakete nötig sind, werden durch die dazwischen liegenden Terminodes selbst übernommen. Dazu wird jedem Terminode eine bestimmte Nummer zugewiesen, über die es identifiziert werden kann (EndSystem Unique Identifier EUI). Hinzu kommt eine temporäre Adresse, welche den Ort bestimmt, an dem sich das Terminode gerade aufhält (Location Dependent Address LDA, z.B. durch GPS ermittelt). Jedes einzelne Terminode bildet seine Umgebung ab und hat Informationen über benachbarte Terminodes. Jedes Paket, welches gesendet wird, enthält LDA und EUI des Ziel-Terminodes. Erhält ein Terminode im Netz ein Paket, welches nicht an ihn gerichtet ist, so überprüft er die LDA des Paketes und reicht das Paket an einen Nachbarn weiter, der sich in Richtung der Zieladresse befindet. Diese Prozedur wird solange wiederholt, bis das Paket am Ziel ist. In vielen Fällen kann die oben beschriebene Vorgehensweise nicht funktionieren, z.B. wenn das Ziel seinen Aufenthaltsort ändert oder in der Richtung zum Ziel keine Nachbarn vorhanden sind, an die das Terminode die Pakete weiterleiten kann. Eine Erläuterung der Konzepte, die in diesen Fällen zum Tragen kommen, übersteigt jedoch den Rahmen dieses Überblicks. V. Backbone 1. Maximale Kapazität einer Glasfaser Wenn alle Teilnehmer mehr Bandbreite für neue Dienste zu geringen Kosten erhalten sollen, steigt der Bandbreitenbedarf des Netzes im Hintergrund um ein Vielfaches. Insbesondere auf die Übertragungsstrecken zwischen den Kontinenten kommen große Anforderungen zu, wie sich mit einer einfachen Abschätzung zeigen läßt: Die Bevölkerungszahl der vier größten europäischen Staaten beträgt ~237 Millionen. Angenommen davon wollen 1% gleichzeitig in die USA telefonieren. Bei einer Datenrate pro Gespräch von 64 kbit/s fließt in diesem Fall über die kontinentalen Verbindungen – zumeist Unterseekabel – eine Gesamtrate von ~152 Gbit/s. Dabei sind sowohl alle zu einer Übertragung nötigen Signalisierungsinformationen als auch der gesamte Datenverkehr außer Acht gelassen worden. Steht jedem dieser Teilnehmer hingegen eine Datenrate von 30 Mbit/s zur Verfügung, so steigt die Gesamtrate auf ~71 Tbit/s. Da das Verlegen neuer Glasfaserstrecken mit hohen Kosten verbunden ist, müssen die bereits verlegten Glasfasern des Backbone einen möglichst großen Teil dieser Datenflut aufnehmen können. Eine Möglichkeit besteht im DWDM (Dense Wavelength Division Multiplexing)Verfahren, bei dem die Linearität der Faser für kleine Intensitäten ausgenutzt wird. Ähnlich wie auf einer Autobahn, bei der die Kapazität dadurch erhöht wird, dass man zusätzliche Fahrspuren zur Verfügung stellt, werden beim DWDM-Verfahren zusätzliche optische Träger mit unterschiedlicher Wellenlänge übertragen. Alternativ dazu – oder auch gleichzeitig – kann man die zeitliche Packungsdichte der Kanäle vergrößern. Nach der Heisenbergschen Unschärferelation bzw. der Fourier-Transformation gibt es einen fundamentalen Zusammenhang zwischen der spektralen und zeitlichen Breite eines Signals: Je kürzer ein Signal im Zeitbereich, umso mehr Bandbreite beansprucht es oder umgekehrt. Daher ist es egal, ob die Signale dichter im Zeit- oder Frequenzbereich gepackt werden, oder ob man eine Mischform zwischen beiden wählt; es gibt eine grundsätzliche Grenze der Übertragungskapazität von Glasfasern, die durch den Transparenzbereich und die Nichtlinearitäten in der Faser bestimmt wird. Der Bereich der Transparenz ist durch physikalische Verluste in der Faser gegeben. Bis vor kurzem gab es in Fasern starke Dämpfungsverluste bei Wellenlängen um 1,39 und 1,24 µm. Dies war auf Harmonische des Schwingungsübergangs von Hydroxyl-Ionen und deren Mischung mit Resonanzen des Grundmaterials zurückzuführen. Die Ursache lag in herstellungsbedingten Resten von OHMolekülen. Durch neue Technologien konnten die Wasserreste beseitigt und daher die Absorptionen ausgelöscht werden, so dass sich heute der Transparenzbereich einer Faser zwischen ~1,2 und 1,6 µm erstreckt. Daraus ergibt sich ein nutzbarer Wellenlängenbereich von ~400 nm bzw. eine Bandbreite B von 50 THz. Wie in dem bereits erwähnten Beispiel für die Freiraumübertragung (Glng.1), so müßte sich auch die Kapazität einer Glasfaser durch die klassische Formel von Shannon zur Berechnung der fehlerfreien Übertragungsrate eines rauschenden Kanals bestimmen lassen: C=B log2(1+S/N) (2) Bei einem Signal-Rausch-Abstand (S/N) von 20 dB folgt damit eine theoretische Kanalkapazität von 330 Tbit/s. Shannon ging jedoch von linearen Übertragungsstrecken mit additivem Rauschen aus. Erhöht man in Glng.(2) den Signal-Rausch-Abstand bzw. die Leistung, so steigt die Kapazität logarithmisch an. Eine Glasfaser ist hingegen nichtlinear. Der Hauptunterschied zu linearen Übertragungsstrecken ist, dass die Kapazität nicht mehr zwangsläufig mit der Leistung steigt. Erhöht man in Glasfasern die Leistung in einem (z.B. Wellenlängen-) Kanal, tritt ein zusätzliches Rauschsignal in einem anderen Kanal und umgekehrt auf. Dementsprechend muss es ein Maximum der Kanalkapazität bei einer bestimmten Leistung geben. Dieses Verhalten verhinderte bislang die Abschätzung der theoretischen Kapazität einer Glasfaser. Mitra und Stark [7] gelang es kürzlich, die maximale Kanalkapazität von Glasfasern zu berechnen, indem sie den nichtlinearen Kanal auf einen linearen mit multiplikativem Rauschen zurückführten. Das einzige nichtlineare Phänomen, welches in ihrem Modell erhalten blieb, war die Kreuzphasenmodulation (Cross Phase Modulation XPM). Mitra und Stark konnten mit ihrem Modell das Maximum der Kanalkapazität zu ~150 Tbit/s2 bestimmen. Diese Datenrate entspricht immerhin 2,3 Mrd. gleichzeitig geführten konventionellen Telefongesprächen (64 kbit/s) über eine einzelne Faser. 2. Photonische Fasern Wenn die maximale Übertragungsrate in konventionellen Glasfasern nicht reichen sollte, bieten sich photonische Fasern als Ausweg an. Bei diesen handelt es sich im Wesentlichen um einen zweidimensionalen photonischen Kristall. Photonische Kristalle zeichnen sich durch 2 Das Maximum ist abhängig von den physikalischen Gegebenheiten der konkreten Faser. Sie ermittelten eine maximale spektrale Effizienz von 3 bis 4 bit/s/Hz. Bei 50 THz Bandbreite ergibt dies eine Kapazität von 150 bis 200 Tbit/s. eine periodische Änderung ihres Brechungsindexes aus. Technisch wird diese Änderung heute meist durch das Bohren dünner Kanäle in ein Dielektrikum oder das dreidimensionale periodische Stapeln kleiner dielektrischer Stäbe realisiert. Solche Kristalle weisen – analog zur Bandstruktur bei Halbleitern – eine photonische Bandstruktur auf. Daraus ergeben sich spezielle Ausbreitungsbedingungen für Licht bestimmter Wellenlängen, die sich auch für die optische Telekommunikation ausnutzen lassen. Bei photonischen Fasern dient die periodische Struktur als Mantel, während in der Mitte einer solchen Faser ein oder mehrere Löcher fehlen. Daher beschränkt sich – in Folge der Bandstruktur – die Lichtleitung größtenteils auf den Bereich der unterbrochenen Periodizität. Photonische Fasern weisen eine Vielzahl von Eigenschaften auf, die bei konventionellen Glasfasern undenkbar währen. Während normale Einmoden-Fasern in Wirklichkeit nur für Wellenlängen oberhalb einer bestimmten Größe wirklich einmodig sind, konnte für photonische Fasern dieser Bereich bis hinunter zu 337 nm ausgedehnt werden [8]. In einem anderen Experiment wurde gezeigt, dass sich in photonischen Fasern die anomale Dispersion bis in den sichtbaren Bereich erstrecken kann. Diese Tatsache wurde ausgenutzt, um eine ganze Reihe nichtlinearer Effekte im sichtbaren Bereich zu erzielen, unter anderem SolitonAusbreitung, Pulskompression und Erzeugung eines Weißlichtkontinuums mit einer Breite von 550 THz (von Violett bis Infrarot) [9]. VI. Optische Sender und Optisches Schalten Die durch die hohen Bandbreiten für jeden Teilnehmer bedingten hohen Bitraten müssen vor der Übertragung in Glasfasern (oder photonischen Fasern) zunächst mit einem Laser erzeugt werden. Beschränkt man sich auf den Zeitbereich, so benötigt man für eine Übertragungsrate von 10 Tbit/s ultrakurze Pulse mit einer zeitlichen Dauer von 100 Femtosekunden (1 fs = 10-15 s). Eine Femtosekunde ist im Verhältnis zu einer Sekunde dasselbe wie eine Sekunde im Vergleich zu 31,7 Millionen Jahren. Durch Fortschritte bei der Entwicklung sättigbarer Absorber und bei der Pulskompression stehen bereits heute relativ kleine kompakte Femtosekunden-Lasersysteme mit hohen Repetitionsraten bei TelekommunikationsWellenlängen zur Verfügung [10]. Ihre Eignung für die Telekommunikation wird weltweit erforscht. Auch für die Übertragung auf mehreren Wellenlängen eignen sich Femtosekundenpulse. Während man heute für das DWDM-Verfahren eine Vielzahl unterschiedlicher Laser (für jede Wellenlänge einen) zur Verfügung stellen muss, lassen sich mit fs-Pulsen aus einem einzigen Laser alle benötigten Wellenlängen zur Verfügung stellen. Die Verbreiterung des Spektrums des Pulses erzielt man mit Mitteln der nichtlinearen Optik. Der Brechungsindex einer Faser ist von der Intensität der optischen Pulse abhängig. Der Brechungsindex wiederum bestimmt die Phase einer Welle in der Faser. Die Frequenz ist die zeitliche Änderung der Phase und somit eine Funktion der zeitlichen Änderung der Intensität. Sehr kurze Pulse haben sehr große Intensitätsänderungen entlang ihres zeitlichen Verlaufs. Die Folge ist, es treten neue Frequenzen symmetrisch um die ursprünglichen Frequenzen auf, der Puls wird spektral verbreitert. Bei genügend hohen Intensitäten des Eingangspulses kann man mit dieser sogenannten Selbstphasenmodulation (SPM) ein extrem breites Kontinuum an Wellenlängen zur Verfügung stellen, welche sich als optische Träger für das DWDMVerfahren anbieten. Die einzelnen Wellenlängen lassen sich mit dispersiven Elementen wie Prisma oder Gitter räumlich trennen und modulieren. Eine andere Möglichkeit bietet der Chirp in Glasfasern. Die einzelnen spektralen Bestandteile bewegen sich mit unterschiedlichen Geschwindigkeiten in der Glasfaser, so dass die (zukünftigen) Wellenlängenkanäle nacheinander am Ausgang einer Faser eintreffen. Ein schneller Modulator ist nun in der Lage, jedem einzelnen Kanal die zu übertragende Information aufzuprägen [11]. Das Verfahren hat zusätzlich den Vorteil, dass die Wellenlängen zeitlich versetzte Informationen tragen , so dass Vierwellenmischeffekte verringert werden. Der Chirp hat jedoch auch einen gravierenden Nachteil für zeitlich kurze Pulse: Die Ursache des Chirp liegt in der Dispersion. Der Brechungsindex ist nicht nur von der Intensität, sondern auch der Frequenz abhängig. Gleichzeitig ist die Ausbreitungsgeschwindigkeit eine Funktion des Brechungsindexes. Die unterschiedlichen spektralen Anteile des Pulses bewegen sich somit mit unterschiedlichen Geschwindigkeiten und der Puls wird zeitlich breiter. Für Pulse, die eine starke Änderung der Intensität entlang ihres zeitlichen Verlaufs aufweisen, kommt es auf Grund der nichtlinearen SPM in Verbindung mit dem linearen Effekt der Dispersion zu einer extremen zeitlichen Verbreiterung der Pulse in der Faser. Daher blieben, ohne zusätzliche Maßnahmen, extrem kurze Pulse in einer Faser nicht sehr lange extrem kurz. Die SPM läßt sich durch geringere Eingangsintensitäten verhindern, der Dispersion lässt sich ein anderer nichtlinearer Effekt entgegenstellen: die Phasenkonjugation auf der Mitte der Übertragungsstrecke (Mid Span Phaseconjugation). Eine heute übliche Form der Dispersionsunterdrückung besteht im sogenannten Dispersionsmanagement. Nach einer bestimmten Strecke auf einer Faser mit positiver Gruppengeschwindigkeitsdispersion wird das Signal auf eine äquivalente Faserstrecke mit negativer Gruppengeschwindigkeitsdispersion geleitet, so dass sich die Dispersion in der Summe ausgleicht. Während auf der einen Strecke die roten Anteile des Pulses schneller laufen als die blauen, laufen auf der anderen die blauen schneller als die roten. Als Folge schiebt sich der Puls wieder zusammen. Ganz ähnlich funktioniert auch die Mid Span Phaseconjugation, nur dass hier auf der Mitte der Übertragungsstrecke eine Welle erzeugt wird, deren ortsabhängiger Anteil konjugiert komplex zur ursprünglichen Welle ist. Die physikalischen Zusammenhänge sind etwas kompliziert [12]. Im Prinzip ist das Ergebnis aber ähnlich wie beim Dispersionsmanagement. Im Gegensatz dazu ist die Mid Span Phaseconjugation jedoch völlig unabhängig vom konkreten Brechungsindexverlauf, der Anzahl der WDM-Kanäle, der Modulation oder der Bitrate. Aus den einzelnen WDMKanälen werden phasenkonjugierte WDM-Kanäle. Bei der Ausbreitung durch den zweiten Teil der Strecke werden alle Pulse in allen Kanälen wieder komprimiert. Gleichzeitig werden auch alle anderen Verzerrungen, welche die Pulse auf dem ersten Teil der Strecke erfahren haben, wieder ausgeglichen. Mit diesem Verfahren konnte die Ausbreitung von Pulsen mit der zeitlichen Dauer von 600 fs über eine Strecke von 144 km gezeigt werden [13]. VII. Ultraschnelles optisches Schalten Die hohen Bitraten im zukünftigen Backbone verlangen auch nach völlig neuen Herangehensweisen beim Verarbeiten und Multiplexen der Signale. Wird der optische Datenstrom eines Kanals in einem Vermittlungsknoten auf unterschiedliche Kanäle aufgeteilt, oder aus unterschiedlichen Kanälen zusammengesetzt, so geschieht das heute indem das Signal aus dem optischen in den elektrischen Bereich gewandelt, elektrisch verarbeitet und dann zur optischen Weiterleitung wieder zurück in den optischen Bereich transformiert wird. Aus physikalischen Gründen sind elektronische Schalter auf Schaltgeschwindigkeiten von 40 Gbit/s begrenzt, so dass man – im Gegensatz zur verfügbaren Bandbreite in Fasern – in diesem Punkt bereits heute an die Grenzen stößt. Der einzige Ausweg ergibt sich hier durch die rein optische Verarbeitung des Signals im Netz. Ein Ansatz ist die Verwendung so genannter mikroelektromechanischer Schalter (MEMS). Dies sind kleine Spiegel auf einem Siliziumsubstrat, die sich unabhängig voneinander in zwei Raumrichtungen drehen lassen. Das Schaltprinzip beruht auf einer einfachen Ablenkung des Strahls durch die Reflexion am Spiegel. Da die einzelnen Spiegel unabhängig steuerbar sind, lassen sich Signale aus einer beliebigen Eingangsfaser in eine beliebige Ausgangsfaser schalten. Bei dem inzwischen kommerziell erhältlichen Lambda Router handelt es sich um eine Matrix aus 256 Spiegeln auf einem Siliziumsubstrat mit einer Fläche von weniger als 6 cm². Da die Schaltgeschwindigkeit der Spiegel im Millisekundenbereich liegt, lassen sich mit diesem System zwar hochbitratige Datenströme umlenken, aber keine einzelnen Kanäle schalten. Dazu benötigt man ultraschnelle optische Schalter. Fast alle rein optischen Schalter beruhen auf nichtlinearen Effekten. Bei interferenzbasierten Schaltmechanismen, wie im Mach-Zehnder-Modulator wird beispielsweise durch nichtlineare Effekte die Phase einer Teilwelle verändert, diese wird dann der anderen Teilwelle überlagert. Ist der Phasenunterschied zwischen beiden π/2, löschen sie sich gegenseitig aus. Eine andere Möglichkeit bieten Schaltmechanismen, die auf der Beugung des Lichts beruhen. Bei einem von uns [14] durchgeführten Experiment wurden beispielsweise zwei Femtosekundenpulse in einem transparenten Material so überlagert, dass sich eine räumliche Intensitätsmodulation ergab. Wie erwähnt, ist der Brechungsindex eines Materials intensitätsabhängig, daher kann eine solche Intensitätsmodulation bei genügend hohen Feldstärken in eine Brechungsindexmodulation übersetzt werden. Diese Brechungsindexmodulation stellt ein optisches Gitter dar, an dem Wellen entsprechend ihrer Wellenlänge in unterschiedliche Raumrichtungen gebeugt werden. Da das von uns verwendete transparente Material eine große Bandlücke aufweist, beruhen die Nichtlinearität und damit das Gitter auf nichtresonanten Effekten welche sich durch eine ultraschnelle Dynamik auszeichnen. Konkret liegt die Antwortzeit des Materials im Bereich einer optischen Periode (2,7 fs). Das Gitter ist daher nur während der Dauer der Pulse im Material präsent, in unserem Fall 80...100 fs. Dementsprechend werden die Wellen eines Datenstroms auch nur in diesem ultrakurzen Zeitbereich vom Gitter gebeugt, außerhalb dieser Zeit verhält sich das Material wie ein dünnes Stück Glas. Mit unserem Lasersystem ist somit die Manipulation bzw. das Schalten eines Datenstroms im Zeitbereich von 80...100 fs möglich. Dies stellt die bislang schnellste Methode des optischen Schaltens dar. Aus physikalischer Sicht müssten Schaltzeiten, die im Bereich der Antwortzeit des Materials liegen, möglich sein. Den möglichen Aufbau eines ultraschnellen Schalters, welcher auf der soeben beschriebenen Methode beruht, zeigt Abbildung 7. 1 2 n 2 3 n 1 Abb. 7 Ultraschnelles optisches Schalten mit transientem Brechungsindexgitter. Aus dem ankommenden OTDM-Signal soll Kanal 1 herausgeschaltet werden. Da die Wellen – entsprechend ihrer Wellenlänge – in unterschiedliche Richtungen gebeugt werden, kann man mit oben beschriebener Methode auch Demultiplexer für das DWDM Verfahren aufbauen [15]. VIII. Schlusswort In diesem Artikel sollten mögliche Szenarien einer Entwicklung der Telekommunikation in der Zukunft behandelt werden. Man kann davon ausgehen, dass der bislang zu beobachtende Trend zu immer mehr Bandbreite ungebrochen anhalten wird. Daher standen vor allem physikalische Effekte und technologische Ansätze im Vordergrund, die zu einer drastischen Erhöhung der für jeden einzelnen Teilnehmer verfügbaren Bitrate führen können. Wie sich mit ziemlicher Sicherheit sagen läßt, werden nicht alle der hier vorgestellten Verfahren in Zukunft tatsächlich angewandt werden, wahrscheinlich sogar nur ein geringer Bruchteil davon. Gleichzeitig werden vielleicht andere Methoden, die heute noch als utopisch und praktisch undurchführbar gelten, zu einer Revolution in der Telekommunikation führen Literatur [1] [2] [3] [4] [5] [6] N. Nakajima, Y. Yamao, Wirel. Commun. Mob. Comput. 1, 3 (2001) J. Mitola III „Software Radio Architecture“ Wiley, New York, 2000 F. Büchi, Spektrum der Wissenschaft, 48, Juli (2001) O. Nilsson, IEEE Commun. Mag., 164, May (2001) „Mobile Communication System with Moving Base Station“ U.S. Patent No. 5,729,826 Mar. 17, 1998 J. P. Hubaux et. al. IEEE WCNC`2000 conference, Chicago (2000) [7] [8] [9] [10] [11] [12] [13] [14] [15] L. Blazevic et. al. IEEE Commun. Mag., 166, June (2001) P.P. Mitra, J. B. Stark, Nature 411, 1027 (2001) T. A. Birks, J. C. Knight and P. St. J. Russel, Optics Letters 22, 961 (1997) J. K. Ranka, R. S. Windeler and A. J. Stentz, Optics Letters 25, 25 (2000) M. D. Pelusi et. al. Electron. Lett. 35, 734 (1999) M. C. Nuss, W. H. Knox, U. Koren, El. Lett. 32, 1311 (1996) Th. Schneider, Deutsche Telekom Unterrichtsblätter 3, 198 (2001) D. Kunimatsu, M. D. Pelusi, X.Wang, A. Suzuki, ECOC2000, 3, 99 (2000) Th. Schneider, D. Wolfframm, R. Mitzner and J. Reif, Appl. Phys. B 68, 749 (1999) R. P. Schmid, Th. Schneider, J. Reif, „Femtosecond All-optical Wavelength- and Time- Demultiplexer for OTDM/WDM Systems“ submitted to Appl. Phys. B