Die Telekommunikation im 21. Jahrhundert - NET-im-web

Werbung
Die Telekommunikation im 21. Jahrhundert
Thomas Schneider
www.fh-telekom-leipzig.de/fhlinfo/home/schneider/schneider.html
Deutsche Telekom Fachhochschule Leipzig, Gustav-Freytag-Str. 43-45, 04277 Leipzig
I. Einführung
Als das Telefon vor über 100 Jahren Einzug in das Leben der Menschen hielt, konnte sich
niemand vorstellen, welche rasante Entwicklung ihm in einer recht kurzen Zeit bevorstand.
Heute gehört es zu den wichtigsten und unverzichtbaren Bestandteilen der
zwischenmenschlichen Kommunikation.
In den letzten Jahren kamen zwei grundsätzlich neue Komponenten in die bis dahin fast
ausschließliche Welt der Sprachkommunikation unter Festnetzanschlüssen: die Datenflut des
Internet und der Wunsch, überall und immer erreichbar zu sein. Diese beiden Aspekte hatten
ein derart starkes Wachstum zur Folge, dass es keiner großen Visionen bedarf um
vorherzusagen, dass sie zu den wichtigsten Bestandteilen in der Zukunft der
Telekommunikation gehören werden.
Wie die weltweite Krise der Informationstechnik insgesamt und die Umsatzeinbußen der
großen Mobiltelefonhersteller zeigen, ist der klassische Markt so gut wie gesättigt. Starke
Zuwächse lassen sich in Zukunft nur über neue innovative Produkte und Dienste erzielen.
Diese neuen Dienste werden wahrscheinlich mit einem drastisch erhöhten Bandbreitenbedarf
einhergehen. Damit es zu einer breiten Akzeptanz dieser neuen Dienste kommt, muss dem
Teilnehmer die Bandbreite aber zu geringen Kosten zur Verfügung stehen. Bei den heutigen
Systemen ist vor allem der Mobilfunkbereich weit von dieser Forderung entfernt. Dabei ist es
gerade die mobile breitbandige Kommunikation, die der natürlichen Kommunikation
zwischen Menschen am nächsten kommt. Diese Tatsache verlangt nach fundamental neuen
Ansätzen für Endgeräte und Netze.
Der vorliegende Artikel geht auf mögliche Szenarien der Entwicklung in den nächsten Jahren
ein. Dabei stehen vor allem die grundsätzlich neuen Technologien, welche derzeit in den
Forschungszentren rund um die Welt diskutiert werden, im Mittelpunkt. Der Komplexität des
Themas entsprechend können weder alle Entwicklungen berücksichtigt, noch die
beschriebenen in ausreichender Tiefe behandelt werden, somit handelt es sich eher um einen
subjektiv geprägten Überblick.
II. Grundsätzliche Überlegungen zum zukünftigen Netz
Telekommunikation beschreibt – dem Namen nach – eine Kommunikation zwischen
Menschen, Maschinen oder Menschen und Maschinen über weite Entfernungen hinweg.
Betrachtet man die heutige Umsetzung dieses Begriffs, so ist man noch relativ weit vom
Idealzustand entfernt. Bei einer echten zwischenmenschlichen Kommunikation ist man nicht
an Orte oder Geräte gebunden, außerdem beinhaltet sie neben den Audioinformationen auch
visuelle Informationen über Mimik und Gestik des Gesprächspartners. Angenommen die
weitere Entwicklung bewegt sich in die Richtung des Idealzustandes, so lassen sich zwei
Schlüsse ziehen. Erstens: Endgeräte werden in Zukunft fast ausschließlich mobil sein.
Zweitens: Die zusätzliche Übermittlung visueller Informationen wird zunehmend an
Bedeutung gewinnen, wobei auch räumliche Eindrücke eine Rolle spielen können.
Gleichzeitig wird auch die Datenkommunikation zwischen Maschinen und die zwischen
Menschen und Maschinen weiter stark zunehmen.
Zur mobilen Übermittlung von großen Datenmengen und bewegten Bildern benötigt man vor
allem sehr viel Bandbreite. Wie die Versteigerung der UMTS-Lizenzen gezeigt hat, ist
Bandbreite eine sehr knappe und teure Ressource, vor allem in den Frequenzbereichen, die
heute für den Mobilfunk genutzt werden. Eine Alternative besteht darin, in den MillimeterWellenbereich auszuweichen, allerdings gibt es hier eine ganze Reihe zu lösender Probleme.
Das größte ist die starke Dämpfung auf Grund von Schwingungs-Rotationsübergängen des
Wassers und anderer Moleküle in der Atmosphäre. Da die Wellen sich nur über eine relativ
kurze Distanz ausbreiten, kann man in diesen Frequenzbereichen nur Mikro- oder Pikozellen
bedienen. Daher wird man solche Netze mit hoher Wahrscheinlichkeit nicht flächendeckend
ausbauen. Gleichzeitig bedeutet die geringe Reichweite aber auch, dass die Frequenzen einer
Zelle relativ häufig wiederverwendet werden können, so dass sich an Orten mit hohem
Verkehrsaufkommen – wie Flughäfen oder Einkaufszentren – sehr breitbandige, kleinzellige
Systeme realisieren lassen. Vor allem in der Fläche werden die zellulären Mobilfunksysteme
(UMTS und zunächst auch GSM) weiter parallel existieren. Nicht zu vergessen sind natürlich
auch die Festnetzanschlüsse zu Hause oder im Büro, auf die man nach Möglichkeit ebenfalls
drahtlos zugreifen will.
Als Folge stellt sich die zukünftige Netzstruktur sehr heterogen dar. Zum einen existieren
Hot-Spots, die in ihrem Bereich sehr breitbandige Dienste bei relativ geringer Mobilität des
Teilnehmers bieten können; zum anderen gibt es die zellulären Systeme mit geringerer
Bandbreite aber einem flächendeckenden Ausbau. An bestimmten, rentablen Stellen – wie
z.B. Autobahnen – wird man durch Sonderlösungen hohe Bandbreite bei hoher Mobilität
ermöglichen wollen.
Alle parallel existierenden Subnetze können sich in der verfügbaren Bandbreite, dem
Frequenzbereich, in Kompressions- und Modulationsverfahren usw. usf. voneinander
unterscheiden. In welchem Subnetz sich der Teilnehmer gerade befindet, sollte ihm nach
Möglichkeit nur durch unterschiedliche verfügbare Bandbreiten und damit Dienste bewusst
werden. Gleichzeitig sollte er über eine einzige Telefonnummer oder seinen Namen, in dem
jeweiligen Subnetz erreichbar sein. Für das Netz ergibt sich daraus die Notwendigkeit zu
einem für den Teilnehmer vollständig transparenten Handover oder Roaming zwischen den
einzelnen Subnetzen im Hintergrund. Als Vermittlungsprotokoll für den dem Netz zugrunde
liegenden Backbone bietet sich hier das aus der Internet-Welt bekannte IP-Protokoll an,
welches extra dafür geschaffen wurde, zwischen unterschiedlichen Endgeräten und Netzen zu
vermitteln; allerdings für den Verkehr von Datenpaketen. Sprache oder Videos sind hingegen
zeitkritisch und benötigen eine feste Dienstqualität. Ob das IP-Protokoll tatsächlich zu all dem
in der Lage ist was von ihm verlangt wird, und wenn ja, welche Verbesserungen man
hinzufügen muss, wird sich erst noch herausstellen.
III. Endgeräte
Aus der Heterogenität des Netzes ergibt sich ein Problem für zukünftige Endgeräte. Je nach
verfügbarer Bandbreite lassen sich in den Teilnetzen unterschiedliche Dienste mit
unterschiedlicher Qualität nutzen. Bei den heutigen Netzen stehen dem Teilnehmer eine
Vielzahl von Endgeräten zur Verfügung (Festnetztelefon, mobiles Telefon, PC, Laptop ...).
Alle sind über unterschiedliche Nummern oder Adressen erreichbar und zusätzlich bedienen
alle auch noch unterschiedliche Dienste. Bei einem idealen Endgerät sollten all diese
Beschränkungen wegfallen; das heißt, der Teilnehmer sollte nur noch auf ein einziges
Endgerät zurückgreifen müssen und über dieses überall erreichbar sein. Um diese Bedingung
zu erfüllen, muss das Endgerät in allen oben beschriebenen Netzen funktionieren und viele
unterschiedliche Dienste anbieten können.
Wie zukünftige Endgeräte aussehen werden, ist natürlich reine Spekulation. Aber dem vorhin
angesprochenen Trend zu natürlicher Kommunikation kommt ein einfacher Stöpsel im Ohr,
für die Sprache, und eine Brille für die visuelle Information (unter Umständen auch
dreidimensional) am nächsten [1]. Das Sende- und Empfangsteil befindet sich irgendwo in der
Tasche des Teilnehmers und ist drahtlos, z.B. über Bluetooth, mit Ohrhörer und Brille
verbunden. Gesteuert wird das Gerät über eine Spracheingabe.
Neben der zwischenmenschlichen Kommunikation lässt sich die Abfrage von Videos und
Daten mit einem solchen Gerät bewerkstelligen, nicht aber das Bearbeiten größerer Texte
oder Bilder. Dafür werden wahrscheinlich auch in Zukunft Geräte von der Form eines
Laptops oder Pocket-PC herhalten müssen.
Das Endgerät sollte in allen Subnetzen funktionieren und eine Vielzahl unterschiedlicher
Dienste anbieten können. Nach der heutigen Herangehensweise müsste man daher mehrere
Endgeräte in einem einzigen integrieren, dies wird bei einem weiteren Wachstum der
Heterogenität der Netze jedoch nicht mehr möglich sein. Als Ausweg wird das sogenannte
Software-Radio-Konzept [2] diskutiert: Der Kern dieses Vorschlages ist, dass sich das
Endgerät alle Informationen, die es zu einem Funktionieren in dem jeweiligen Netz benötigt,
aus dem Netz selbst holt, und zwar mittels eines Software-Downloads. Für das Endgerät
bedeutet dies, dass es fast vollständig in Software konfigurierbar sein muss. Damit ergibt sich
auch die Möglichkeit, das Endgerät an den jeweils gewünschten Dienst anzupassen, nur als
Telefon oder als Abspielgerät für Videos beispielsweise. In der Internetwelt ist diese
Herangehensweise völlig normal. Sind im Browser bestimmte Komponenten nicht installiert,
so werden sie mit dem jeweiligen Dienst, der sie benötigt, über das Internet heruntergeladen.
Will man beispielsweise eine Videosequenz aus dem Internet abspielen, so kann man vorher
aus demselben Netz beispielsweise QuickTime laden. Die für den Dienst benötigte Software
kann sich auch im Header des Datenstroms befinden. Für den Software-Download sind
mehrere Varianten im Gespräch. Die für den Anwender einfachste, aber gleichzeitig technisch
auch anspruchsvollste ist die, dass der Download der benötigten Komponenten bei der
Anmeldung bzw. beim Handover in das jeweilige Subnetz erfolgt.
Neben allen Vorteilen bringt das Verfahren auch einige Nachteile mit sich. Zum einen sind
erhöhte Anforderungen an die Sicherheit im Netz die Folge, zum anderen wird man sich daran
gewöhnen müssen, dass auf Grund der „Quick and Durty“-Philosophie mancher SoftwareHäuser die heute aus der Computerwelt allseits bekannten und beliebten Software-Abstürze in
Zukunft beim Telefon zur Tagesordnung gehören werden.
Das Software-Radio-Konzept basiert auf einer schnellen Signalverarbeitung. Wenn es
funktionieren soll, benötigt man vor allem schnelle Prozessoren. Dies setzt immer kleinere
Strukturen auf den Prozessorchips voraus. Da die Herstellung der Prozessoren bislang auf
Belichtungs- und Ätzverfahren beruht, ist die Strukturgröße durch Beugungserscheinungen
des Lichtes physikalisch begrenzt. Man kann höchstens Strukturen auflösen, die der
Größenordnung der Wellenlänge entsprechen. Deshalb werden große Anstrengungen
unternommen, Lithografieverfahren mit immer kleineren Wellenlängen bis hinab in den UVund vielleicht Röntgen-Bereich zu entwickeln.
Auch wenn in Zukunft mehr Bandbreite zur Verfügung stehen wird, so werden
Kompressionsalgorithmen wie JPEG2000 oder MPEG-XX zur Eindämmung der Datenflut
weiterhin an Bedeutung gewinnen.
Ausgefeilte Kompressionsalgorithmen und schnelle Prozessoren benötigen viel Energie. Die
heute üblichen Akkus haben im Wesentlichen zwei Nachteile. Die in ihnen speicherbare
Energiemenge ist den zukünftigen Anforderungen nicht gewachsen und die Aufladezeiten
sind viel zu lang. Als Alternative bieten sich hier unter anderem Brennstoffzellen auf der
Basis von Wasserstoff oder Methan an [3]. Ein Liter Wasserstoff (0,09 g) enthält
~3 Wattstunden Energie, außerdem lassen sich Brennstoffzellen – im Gegensatz zur
umständlichen Aufladeprozedur bei Akkus – einfach betanken. Die derzeitigen Probleme bei
Brennstoffzellen liegen in der Speicherung des Brennstoffes und in dem damit verbundenen
Gewicht und der Größe.
IV. Subnetze und zugrundeliegende Technologien
Wie werden die einzelnen speziellen Netze aussehen, aus denen sich das heterogene
Gesamtnetz der Zukunft zusammensetzt? Zum einen werden sich die heutigen mobilen Netze
wie Wireless-LAN und zellulärer Mobilfunk weiterentwickeln und aufeinander zu bewegen.
Zum anderen werden die heutigen Festnetzanschlüsse in Wohnungen und Büros ebenfalls
über einen drahtlosen Zugang in das mobile Netz integriert. Neben diesen gibt es aber noch
einige sehr interessante Vorschläge für weitere – zum Teil spezielle – Subnetze auf die im
Folgenden eingegangen wird.
1. HAPS
Im Zusammenhang mit dem weiteren Ausbau der zellulären Systeme (z.B. UMTS) ist man
auf sehr hohe Nutzerzahlen angewiesen, damit sich die getätigten Investitionen amortisieren.
Nach der heute gültigen Logik bedeuten hohe Nutzerzahlen das Verkleinern der einzelnen
Zellen und damit das Vergrößern der Basisstationsdichte. Gleichzeitig gewinnt die
Elektrosmog-Diskussion immer mehr an Bedeutung. Für die Mobilfunkanbieter wird die
Standortsuche für die benötigten neuen Basisstationen zunehmend zum Problem. Daher
rücken auch scheinbar utopische Lösungsvorschläge in den Mittelpunkt des Interesses. Eine
solche Lösung bieten unter anderem High-Altitude-Stratospheric-Platform-Station (HAPS).
Bei diesen Systemen handelt es sich um Stationen, die in einer festen Höhe von ~20 km
schweben und den darunter liegenden Ballungsraum breitbandig wie eine Basisstation
bedienen, wie Abbildung 1 zeigt.
Abb. 1 High-Altitude-Platform-Station-(HAPS)-Luftschiffe in der Stratosphäre dienen als Basisstationen zur
Versorgung eines Ballungsgebietes. Die Luftschiffe sind untereinander durch optische Links verbunden.
Die einzelnen Stationen sind durch optische Links miteinander verbunden und können so ein
eigenes Netz im Himmel bilden. Als Stationen kommen Luftschiffe oder auch Flugzeuge in
Frage. Die NASA entwickelt in diesem Zusammenhang ein Nur-Flügel-Flugzeug, welches
auf der gesamten Tragfläche mit Solarzellen ausgestattet ist. Am Tage treibt der Solarstrom
direkt die Elektromotoren an, in der Nacht wird die Energie von – während des Tages
aufgeladenen – Akkus entnommen.
Bei HAPS sollen möglichst wenige solcher Stationen in großer Höhe ein ganzes
Ballungsgebiet breitbandig versorgen. Ist eine hochbitratige Versorgung vieler Teilnehmer
mit wenigen Stationen überhaupt möglich? Die maximale Kapazität eines drahtlosen Kanals
lässt sich mit einer dem speziellen Problem angepaßten Variante der bekannten Gleichung
von Shannon zur Berechnung der maximalen fehlerfreien Übertragungsrate eines in der
Bandbreite begrenzten rauschenden Kanals bestimmen [4]:
CM =
P
B


log 2 1 + M AM N S 
SN S
kTB


(1)
mit CM als der maximalen Bitrate, welche dem einzelnen Teilnehmer zur Verfügung gestellt
werden kann; B, der Bandbreite des Funkkanals; S, der Ausleuchtzone des Funkstrahls; NS,
der Teilnehmerdichte am Boden; k, der Boltzmann-Konstante (1,38 x10-23 Ws/K); T, der
äquivalenten Rauschtemperatur; PM, der Leistung jedes Terminals und AM, der effektiven
Antennenfläche eines Terminals. Wie Glng.1 zeigt, gibt es vier Wege, große Kapazitäten und
damit Übertragungsraten zu erzielen. Der erste wäre eine Vergrößerung der effektiven
Antennenfläche AM, für tragbare Geräte sicher keine sonderlich praktische Lösung. Der
zweite besteht in einer schlichten Erhöhung der abgestrahlten Leistung PM. Abgesehen von
gesundheitlichen Überlegungen zeigt Glng.1, dass die Leistung logarithmisch eingeht, daher
kommt es zu Sättigungseffekten. Ab einer bestimmten Leistung treten nur noch geringe
Zuwächse der Bitrate auf.
Im Gegensatz zur Leistung geht die Bandbreite des Funkkanals linear in Glng.1 ein, eine
Erhöhung der Bandbreite führt daher zu einem direkten Anstieg der Bitrate. Wie bereits
erwähnt, ist die Bandbreite ein knappes und recht teures Gut, so dass dieser Weg ebenfalls
entfällt. Der einzige Weg, die maximale Bitrate in einem Funkkanal zu vergrößern, besteht
daher in einer Verkleinerung der Ausleuchtzone des Funkstrahls S. Die Ausleuchtzone ist
umgekehrt proportional zu CM; umso kleiner der Strahldurchmesser, umso größer die
maximale Bandbreite, welche jeder Teilnehmer erhalten kann. Abbildung 2 zeigt die
maximale Bitrate in Abhängigkeit vom Strahldurchmesser für die in der Abbildung
angegebenen Werte. Wie Abbildung 2 zeigt, sind Datenraten von mehreren 10 Mbit/s pro
Teilnehmer theoretisch möglich, dazu muss die Ausleuchtzone des Funkstrahls kleiner als 0,1
km² sein.
Teilnehmerdichten und benötigte Datenraten können sich in einem Ballungsgebiet relativ
häufig örtlich verändern; man muss die schmalen Strahlen daher nach Möglichkeit nachführen
oder schalten. Diese Forderungen erfüllen adaptive Antennen.
Maximale Bitrate des Teilnehmers [Mbit/s]
100
Leistung Basisstation: 1 mW
Wellenlänge:
10 cm
Bandbreite:
100 MHz
Teilnehmerdichte:
10
-2
1000 km
1
0.1
0.01
0.1
1
10
2
Ausleuchtzone [km ]
Abb. 2 Maximale Bitrate eines Teilnehmers in Abhängigkeit von der Ausleuchtzone des Funkstrahls nach
Glng.1. Äquivalente Rauschtemperatur 300 K, effektive Antennenfläche λ²/20.
2. Adaptive Antennen
Adaptive Antennen bestehen in ihrer einfachsten Form aus einem Array von äquidistant in
einer Reihe angebrachten Dipolen wie Abbildung 3 zeigt, aber auch andere Dimensionen und
Anordnungen sind möglich. Die von den einzelnen Antennenelementen abgestrahlten Wellen
überlagern sich – entsprechend des Superpositionsprinzips – abhängig von ihren Phasen und
Amplituden.
d
Abb. 3 Eindimensionales adaptives Antennenarray aus äquidistant angeordneten Dipolen.
Der Strahldurchmesser ist von der Anzahl der Antennenelemente abhängig: Umso mehr
Elemente die Antenne hat, umso dünner ist der Strahl. Abbildung 4 zeigt die
Abstrahlcharakteristik eines Arrays aus 8 und 16 Elementen.
1.0
0.8
Array Factor
16 Elemente
0.6
8 Elemente
0.4
0.2
0.0
0
50
100
150
Winkel [°]
Abb. 4 Array-Faktor eines eindimensionalen äquidistanten Antennenarrays mit 8 und 16 Antennenelementen.
Das Antennenelement n wird mit der Phase kndsinβ des komplexen Stroms angesteuert, der Betrag des
Stroms ist für alle Elemente gleich.
Steuerbare Strahlen lassen sich über eine Veränderung der Phasen des Ansteuerstroms jedes
Antennenelementes erzielen. Bei einem eindimensionalen äquidistanten Array mit einem
Abstand d zwischen den Elementen muss die Phase jedes einzelnen Elementes ein Vielfaches
von kdsinβ sein, wobei β den Winkel von der Normalen charakterisiert, in den das Array
strahlen soll und k den Wellenzahlvektor. Eine einfache Veränderung der Phase des
Ansteuerstroms bewirkt dementsprechend eine Veränderung der Abstrahlrichtung. Der Strahl
läßt sich daher dem jeweiligen Teilnehmer nachführen.
Wenn man in der Lage ist, Phase und Amplitude des Stroms jedes einzelnen Elementes
unabhängig zu steuern, so lässt sich jede beliebige Abstrahl- und Empfangscharakteristik des
Arrays einstellen. Abbildung 5 geht von einem Fall aus, bei dem sich das Signal von einem
Teilnehmer auf drei unterschiedlichen Wegen zur Basisstation ausbreitet. Ein RAKEReceiver ist in der Lage, die Mehrwegeausbreitung durch eine Kombination der zu
unterschiedlichen Zeitpunkten eintreffenden Wellen zu einer Verbesserung der Signalqualität
zu nutzen. Daher soll die Antenne Signale aus den drei Richtungen empfangen können.
Gleichzeitig kommen aus vier weiteren Richtungen Störsignale; zwei von anderen mobilen
Teilnehmern und zwei von benachbarten Basisstationen. Wie man der Abbildung entnehmen
kann, wurden Phase und Amplitude für jedes Element genau so eingestellt, dass das Array aus
diesen Richtungen nichts empfangen kann. Theoretisch lassen sich mit M Antennenelementen
genau M-1 Störer unterdrücken. Die Abschätzung der Teilnehmer- und Störerrichtung und die
daraus folgenden Parameter zur Steuerung des Arrays sind vor allem ein Problem der
Signalverarbeitung.
90
120
150
180
60
30
0
Abb. 5 Array-Faktor bei beliebiger Einstellung von Phase und Betrag des Stroms für jedes Antennenelement.
Die Antenne soll das Signal aus drei Richtungen empfangen und gleichzeitig vier Richtungen stumm
schalten.
Wenn man sowohl am Ort der Basisstation als auch am Ort des mobilen Endgerätes mehrere
Antennenelemente einsetzt, so kann man durch entsprechende Signalverarbeitungsalgorithmen erreichen, dass bei einer Mehrwegeausbreitung jeder einzelne dieser Wege zur
Übermittlung unterschiedlicher Daten genutzt werden kann, so als ob jedes einzelne
Antennenelement des Senders mit jedem einzelnen Antennenelement des Empfängers
kommuniziert.
Ist das Signal, welches die Antenne abstrahlt, breitbandig, bzw. soll ein Array mehrere
Trägerfrequenzen abstrahlen, so beginnt es zu schielen, wie Abbildung 6 zeigt. Das heißt, die
Hauptstrahlkeule zeigt für unterschiedliche Frequenzen in unterschiedliche Richtungen.
Gleichzeitig gibt es Probleme der Signalverarbeitung und damit Antennensteuerung bei
Millimeter-Wellen.
8
Squint Error
fT=2.4 GHz
B=200 MHz
Array Faktor
6
4
2
0
0
50
100
150
200
Winkel [°]
Abb. 6 Squint Error; für ein Signal mit einer Bandbreite von 200 MHz zeigt die Hauptstrahlkeule des Arrays in
unterschiedliche Richtungen.
Abhilfe bei beiden Problemen bietet die optische Steuerung adaptiver Antennen, hierbei wird
nicht die Phase, sondern die Zeit für jedes Element variiert. Dazu wird das RF-Signal in ein
optisches gewandelt und beispielsweise auf ein Verzögerungsnetz aus unterschiedlich langen
Glasfasern geleitet. Ein optischer Schalter wählt aus dem Netz die der gewünschten
Verzögerung entsprechende Länge der Faser aus. Am eigentlichen Antennenelement wird das
Signal durch eine Photodiode wieder zurück in den RF-Bereich gewandelt und abgestrahlt.
3. Breitbandige Netze an Autobahnen
Neben den Ballungszentren gibt es vor allem auf Autobahnen eine Vielzahl potentieller
Teilnehmer an einem breitbandigen Netz. Als potentielle Dienste kommen z.B. Off-BoardNavigationssysteme in Frage, welche immer über das aktuelle Verkehrsaufkommen in
Fahrtrichtung informiert sind und gegebenenfalls eine Umleitung in das Fahrzeug übermitteln.
Aber auch Verbindungen zum Internet, zu Videoservern oder zum digitalen terrestrischen
Fernsehen oder Radio für Mitreisende sind denkbar. Erste Ansätze in dieser Richtung gibt es
bereits heute. Bei den meisten Automobilherstellern konnten auf der letzten
Automobilausstellung Prototypen von Fahrzeugen mit Internetanschluss begutachtet werden.
Die Verbindung läuft zunächst über das GSM- und GPRS-Netz, später dann über UMTS. Bei
den heute üblichen Kosten für eine mobile Internetanwendung wird nur eine relativ kleine
Gruppe – die es sich zum einen leisten kann und die zum anderen darauf angewiesen ist –
diese Angebote nutzen. Breite Akzeptanz werden solche Systeme erst erfahren, wenn
breitbandige Verbindungen zu geringen Kosten verfügbar sind.
Wie bereits ausgeführt wurde, bedingen individuelle breitbandige Verbindungen zu jedem
einzelnen mobilen Teilnehmer relativ kleine Zell- oder Strahldurchmesser. Bei der
Kommunikation mit sich relativ schnell bewegenden mobilen Stationen, kommt noch das
Problem der Geschwindigkeit hinzu. Während sich Effekte wie die Dopplerverschiebung und
Interferenzen durch eine gleichzeitige Übertragung auf mehreren orthogonalen Frequenzen
(OFDM Orthogonal Frequency Division Multiplex oder Multi Carrier CDMA) lösen lassen,
bekommen konventionell aufgebaute kleinzellige Netze bei hohen Geschwindigkeiten und
Datenraten vor allem Schwierigkeiten mit dem ständigen Handover zwischen den einzelnen
Basisstationen. Ein U.S.-Patent aus dem Jahre 1998 [5] propagiert zur Lösung des Problems
ein Netz von Basisstationen, die sich parallel zur Autobahn in der jeweiligen Fahrtrichtung
bewegen, so dass die Relativbewegung zwischen Basisstation und Fahrzeug entsprechend
verringert wird. Eine einfachere Lösung des Problems wären feststehende Basisstationen mit
beweglichen Funkstrahlen. Eine Verfolgung des Teilnehmers ist mit dem Strahl einer
adaptiven Antenne, entweder aus einer großen Höhe mit HAPS oder mit Basisstationen die in
einer gewissen Entfernung zur Autobahn stehen, möglich. Eine weitere Möglichkeit bietet das
sogenannte Radio-over-Fiber-Verfahren.
4. Radio over Fiber
Bei Radio over Fiber macht man sich die geringen Verluste, die hohe Bandbreite und den
hohen Stand der Technologie der optischen Übertragungstechnik zu Nutze. Das Signal wird
durch interne oder externe Modulation eines Lasers oder durch die heterodyne Überlagerung
zweier Laserwellen einem optischen Träger aufmoduliert und über eine Glasfaser zur
Basisstation übertragen. Das Netz ist dabei sternförmig aufgebaut, eine Kontrollstation
bedient eine Vielzahl von Basisstationen. Es gibt im Prinzip drei unterschiedliche
Herangehensweisen, die sich durch den Grad an Komplexität in der Basisstation
unterscheiden. Bei der einfachsten Methode wird das Signal im Basisband von der Kontrollzur Basisstation übertragen, diese wandelt das Signal in den RF-Bereich um und strahlt es ab.
Dabei behält die Basisstation die volle – heute übliche – Komplexität.
Interessanter ist eine Methode, bei der das RF-Signal vollständig in der Kontrollstation
erzeugt wird. Danach wird es einem optischen Träger aufmoduliert und mit Hilfe einer
Glasfaser zur Basisstation übertragen. Hier wird es wieder in den RF-Bereich
zurückgewandelt, verstärkt und abgestrahlt. Für Pikozellen, mit Zellradien unter 100 m
entfällt sogar die Notwendigkeit einer Verstärkung, wenn man Elektroabsorptionsmodulatoren1 benutzt. Der große Vorteil dieser Methode liegt darin, dass der größte Teil der
Komplexität konventioneller Basisstationen an die Kontrollstation übertragen wurde. Die
Basisstation ist im Prinzip nur noch eine Antenne. Da eine Kontrollstation eine Vielzahl von
Basisstationen bedient, ergibt sich daraus ein großes Einsparpotential in den
Investitionskosten.
Für das Handover zwischen Basisstationen folgt daraus aber noch eine andere Konsequenz:
Nicht mehr die Basis-, sondern die Kontrollstation stellt die Trägerfrequenz (bzw. Code oder
Zeitschlitz) zur Verfügung. Verläßt ein Teilnehmer den Bereich einer Basisstation und
wechselt zu einer benachbarten, die aber noch im Bereich der Kontrollstation liegt, so kann
die Kontrollstation die Trägerfrequenz von der ursprünglichen Basisstation abziehen und der
nächsten zuweisen, ohne umständliche Handover-Prozeduren abarbeiten zu müssen. Für eine
Autobahn ergäbe sich damit die Möglichkeit, den mobilen Teilnehmer bei seiner Fahrt
entlang der Straße mit einer Frequenz (Code oder Zeitschlitz) zu versorgen, die von
Basisstation zu Basisstation weitergereicht wird.
1
Ein Elektroabsorptionsmodulator (EAM) nutzt den Franz-Keldysch-Effekt, dieser äußert sich im Wesentlichen
dadurch, dass ein Halbleiter in einem elektrischen Feld seine Bandlücke verändert. Wird die Bandlücke kleiner
so beginnt ein ehemals transparenter Halbleiter zu absorbieren (deshalb Elektroabsorption). Man kann durch ein
äußeres elektrisches Feld ein optisches Signal modulieren. Ein moduliertes optisches Signal hat wiederum ein
elektrisches Feld zur Folge welches über eine Antenne in den Raum abgestrahlt werden kann.
5. Terminode
Alle bisher beschriebenen Methoden gingen von zellulären Systemen aus, bei denen eine –
wie auch immer beschaffene – Basisstation für die Verbindung zwischen einem mobilen
Endgerät und einem darunterliegenden Netz sorgt. Dieses ist verantwortlich für die
Verbindung zwischen den Teilnehmern und übernimmt die Funktionen des Roaming und
Handover. Für die Zukunft werden aber auch Methoden diskutiert, die völlig unabhängig von
einem solchen festen Netz funktionieren sollen. Die mobilen Endgeräte stellen in diesen
Systemen selbst das Netz dar. Da man dabei von einem mobilen, örtlich veränderlichen, aber
relativ große Gebiete umspannenden Netz ausgeht, welches sich den jeweiligen Bedürfnissen
entsprechend selbst organisiert, spricht man von „Self Organized Mobile ad-hoc Wide Area
Networks“. Da jedes Endgerät sowohl Telefon (Terminal) als auch Netzknoten (Node) sein
kann, ist auch der Name Terminode üblich. Terminode ist auch die Bezeichnung eines 10
Jahre währenden Forschungsprojektes (2000-2010), welches diese Systeme untersuchen soll
[6]. Die Verbindung zwischen Quelle und Ziel beruht auf einer Paketübertragung zwischen
mehreren Terminodes. Alle Netzfunktionen, die zu einer Übermittlung der Pakete nötig sind,
werden durch die dazwischen liegenden Terminodes selbst übernommen. Dazu wird jedem
Terminode eine bestimmte Nummer zugewiesen, über die es identifiziert werden kann (EndSystem Unique Identifier EUI). Hinzu kommt eine temporäre Adresse, welche den Ort
bestimmt, an dem sich das Terminode gerade aufhält (Location Dependent Address LDA,
z.B. durch GPS ermittelt). Jedes einzelne Terminode bildet seine Umgebung ab und hat
Informationen über benachbarte Terminodes. Jedes Paket, welches gesendet wird, enthält
LDA und EUI des Ziel-Terminodes. Erhält ein Terminode im Netz ein Paket, welches nicht
an ihn gerichtet ist, so überprüft er die LDA des Paketes und reicht das Paket an einen
Nachbarn weiter, der sich in Richtung der Zieladresse befindet. Diese Prozedur wird solange
wiederholt, bis das Paket am Ziel ist. In vielen Fällen kann die oben beschriebene
Vorgehensweise nicht funktionieren, z.B. wenn das Ziel seinen Aufenthaltsort ändert oder in
der Richtung zum Ziel keine Nachbarn vorhanden sind, an die das Terminode die Pakete
weiterleiten kann. Eine Erläuterung der Konzepte, die in diesen Fällen zum Tragen kommen,
übersteigt jedoch den Rahmen dieses Überblicks.
V. Backbone
1. Maximale Kapazität einer Glasfaser
Wenn alle Teilnehmer mehr Bandbreite für neue Dienste zu geringen Kosten erhalten sollen,
steigt der Bandbreitenbedarf des Netzes im Hintergrund um ein Vielfaches. Insbesondere auf
die Übertragungsstrecken zwischen den Kontinenten kommen große Anforderungen zu, wie
sich mit einer einfachen Abschätzung zeigen läßt: Die Bevölkerungszahl der vier größten
europäischen Staaten beträgt ~237 Millionen. Angenommen davon wollen 1% gleichzeitig in
die USA telefonieren. Bei einer Datenrate pro Gespräch von 64 kbit/s fließt in diesem Fall
über die kontinentalen Verbindungen – zumeist Unterseekabel – eine Gesamtrate von
~152 Gbit/s. Dabei sind sowohl alle zu einer Übertragung nötigen Signalisierungsinformationen als auch der gesamte Datenverkehr außer Acht gelassen worden. Steht jedem
dieser Teilnehmer hingegen eine Datenrate von 30 Mbit/s zur Verfügung, so steigt die
Gesamtrate auf ~71 Tbit/s.
Da das Verlegen neuer Glasfaserstrecken mit hohen Kosten verbunden ist, müssen die bereits
verlegten Glasfasern des Backbone einen möglichst großen Teil dieser Datenflut aufnehmen
können. Eine Möglichkeit besteht im DWDM (Dense Wavelength Division Multiplexing)Verfahren, bei dem die Linearität der Faser für kleine Intensitäten ausgenutzt wird. Ähnlich
wie auf einer Autobahn, bei der die Kapazität dadurch erhöht wird, dass man zusätzliche
Fahrspuren zur Verfügung stellt, werden beim DWDM-Verfahren zusätzliche optische Träger
mit unterschiedlicher Wellenlänge übertragen. Alternativ dazu – oder auch gleichzeitig – kann
man die zeitliche Packungsdichte der Kanäle vergrößern. Nach der Heisenbergschen
Unschärferelation bzw. der Fourier-Transformation gibt es einen fundamentalen
Zusammenhang zwischen der spektralen und zeitlichen Breite eines Signals: Je kürzer ein
Signal im Zeitbereich, umso mehr Bandbreite beansprucht es oder umgekehrt. Daher ist es
egal, ob die Signale dichter im Zeit- oder Frequenzbereich gepackt werden, oder ob man eine
Mischform zwischen beiden wählt; es gibt eine grundsätzliche Grenze der
Übertragungskapazität von Glasfasern, die durch den Transparenzbereich und die
Nichtlinearitäten in der Faser bestimmt wird. Der Bereich der Transparenz ist durch
physikalische Verluste in der Faser gegeben. Bis vor kurzem gab es in Fasern starke
Dämpfungsverluste bei Wellenlängen um 1,39 und 1,24 µm. Dies war auf Harmonische des
Schwingungsübergangs von Hydroxyl-Ionen und deren Mischung mit Resonanzen des
Grundmaterials zurückzuführen. Die Ursache lag in herstellungsbedingten Resten von OHMolekülen. Durch neue Technologien konnten die Wasserreste beseitigt und daher die
Absorptionen ausgelöscht werden, so dass sich heute der Transparenzbereich einer Faser
zwischen ~1,2 und 1,6 µm erstreckt. Daraus ergibt sich ein nutzbarer Wellenlängenbereich
von ~400 nm bzw. eine Bandbreite B von 50 THz. Wie in dem bereits erwähnten Beispiel für
die Freiraumübertragung (Glng.1), so müßte sich auch die Kapazität einer Glasfaser durch die
klassische Formel von Shannon zur Berechnung der fehlerfreien Übertragungsrate eines
rauschenden Kanals bestimmen lassen:
C=B log2(1+S/N)
(2)
Bei einem Signal-Rausch-Abstand (S/N) von 20 dB folgt damit eine theoretische
Kanalkapazität von 330 Tbit/s. Shannon ging jedoch von linearen Übertragungsstrecken mit
additivem Rauschen aus. Erhöht man in Glng.(2) den Signal-Rausch-Abstand bzw. die
Leistung, so steigt die Kapazität logarithmisch an. Eine Glasfaser ist hingegen nichtlinear. Der
Hauptunterschied zu linearen Übertragungsstrecken ist, dass die Kapazität nicht mehr
zwangsläufig mit der Leistung steigt. Erhöht man in Glasfasern die Leistung in einem (z.B.
Wellenlängen-) Kanal, tritt ein zusätzliches Rauschsignal in einem anderen Kanal und
umgekehrt auf. Dementsprechend muss es ein Maximum der Kanalkapazität bei einer
bestimmten Leistung geben. Dieses Verhalten verhinderte bislang die Abschätzung der
theoretischen Kapazität einer Glasfaser.
Mitra und Stark [7] gelang es kürzlich, die maximale Kanalkapazität von Glasfasern zu
berechnen, indem sie den nichtlinearen Kanal auf einen linearen mit multiplikativem
Rauschen zurückführten. Das einzige nichtlineare Phänomen, welches in ihrem Modell
erhalten blieb, war die Kreuzphasenmodulation (Cross Phase Modulation XPM). Mitra und
Stark konnten mit ihrem Modell das Maximum der Kanalkapazität zu ~150 Tbit/s2
bestimmen. Diese Datenrate entspricht immerhin 2,3 Mrd. gleichzeitig geführten
konventionellen Telefongesprächen (64 kbit/s) über eine einzelne Faser.
2. Photonische Fasern
Wenn die maximale Übertragungsrate in konventionellen Glasfasern nicht reichen sollte,
bieten sich photonische Fasern als Ausweg an. Bei diesen handelt es sich im Wesentlichen um
einen zweidimensionalen photonischen Kristall. Photonische Kristalle zeichnen sich durch
2
Das Maximum ist abhängig von den physikalischen Gegebenheiten der konkreten Faser. Sie ermittelten eine
maximale spektrale Effizienz von 3 bis 4 bit/s/Hz. Bei 50 THz Bandbreite ergibt dies eine Kapazität von 150 bis
200 Tbit/s.
eine periodische Änderung ihres Brechungsindexes aus. Technisch wird diese Änderung heute
meist durch das Bohren dünner Kanäle in ein Dielektrikum oder das dreidimensionale
periodische Stapeln kleiner dielektrischer Stäbe realisiert. Solche Kristalle weisen – analog
zur Bandstruktur bei Halbleitern – eine photonische Bandstruktur auf. Daraus ergeben sich
spezielle Ausbreitungsbedingungen für Licht bestimmter Wellenlängen, die sich auch für die
optische Telekommunikation ausnutzen lassen.
Bei photonischen Fasern dient die periodische Struktur als Mantel, während in der Mitte einer
solchen Faser ein oder mehrere Löcher fehlen. Daher beschränkt sich – in Folge der
Bandstruktur – die Lichtleitung größtenteils auf den Bereich der unterbrochenen Periodizität.
Photonische Fasern weisen eine Vielzahl von Eigenschaften auf, die bei konventionellen
Glasfasern undenkbar währen. Während normale Einmoden-Fasern in Wirklichkeit nur für
Wellenlängen oberhalb einer bestimmten Größe wirklich einmodig sind, konnte für
photonische Fasern dieser Bereich bis hinunter zu 337 nm ausgedehnt werden [8]. In einem
anderen Experiment wurde gezeigt, dass sich in photonischen Fasern die anomale Dispersion
bis in den sichtbaren Bereich erstrecken kann. Diese Tatsache wurde ausgenutzt, um eine
ganze Reihe nichtlinearer Effekte im sichtbaren Bereich zu erzielen, unter anderem SolitonAusbreitung, Pulskompression und Erzeugung eines Weißlichtkontinuums mit einer Breite
von 550 THz (von Violett bis Infrarot) [9].
VI. Optische Sender und Optisches Schalten
Die durch die hohen Bandbreiten für jeden Teilnehmer bedingten hohen Bitraten müssen vor
der Übertragung in Glasfasern (oder photonischen Fasern) zunächst mit einem Laser erzeugt
werden. Beschränkt man sich auf den Zeitbereich, so benötigt man für eine Übertragungsrate
von 10 Tbit/s ultrakurze Pulse mit einer zeitlichen Dauer von 100 Femtosekunden (1 fs =
10-15 s). Eine Femtosekunde ist im Verhältnis zu einer Sekunde dasselbe wie eine Sekunde im
Vergleich zu 31,7 Millionen Jahren. Durch Fortschritte bei der Entwicklung sättigbarer
Absorber und bei der Pulskompression stehen bereits heute relativ kleine kompakte
Femtosekunden-Lasersysteme mit hohen Repetitionsraten bei TelekommunikationsWellenlängen zur Verfügung [10]. Ihre Eignung für die Telekommunikation wird weltweit
erforscht.
Auch für die Übertragung auf mehreren Wellenlängen eignen sich Femtosekundenpulse.
Während man heute für das DWDM-Verfahren eine Vielzahl unterschiedlicher Laser (für jede
Wellenlänge einen) zur Verfügung stellen muss, lassen sich mit fs-Pulsen aus einem einzigen
Laser alle benötigten Wellenlängen zur Verfügung stellen. Die Verbreiterung des Spektrums
des Pulses erzielt man mit Mitteln der nichtlinearen Optik.
Der Brechungsindex einer Faser ist von der Intensität der optischen Pulse abhängig. Der
Brechungsindex wiederum bestimmt die Phase einer Welle in der Faser. Die Frequenz ist die
zeitliche Änderung der Phase und somit eine Funktion der zeitlichen Änderung der Intensität.
Sehr kurze Pulse haben sehr große Intensitätsänderungen entlang ihres zeitlichen Verlaufs.
Die Folge ist, es treten neue Frequenzen symmetrisch um die ursprünglichen Frequenzen auf,
der Puls wird spektral verbreitert. Bei genügend hohen Intensitäten des Eingangspulses kann
man mit dieser sogenannten Selbstphasenmodulation (SPM) ein extrem breites Kontinuum an
Wellenlängen zur Verfügung stellen, welche sich als optische Träger für das DWDMVerfahren anbieten. Die einzelnen Wellenlängen lassen sich mit dispersiven Elementen wie
Prisma oder Gitter räumlich trennen und modulieren. Eine andere Möglichkeit bietet der
Chirp in Glasfasern. Die einzelnen spektralen Bestandteile bewegen sich mit
unterschiedlichen Geschwindigkeiten in der Glasfaser, so dass die (zukünftigen)
Wellenlängenkanäle nacheinander am Ausgang einer Faser eintreffen. Ein schneller
Modulator ist nun in der Lage, jedem einzelnen Kanal die zu übertragende Information
aufzuprägen [11]. Das Verfahren hat zusätzlich den Vorteil, dass die Wellenlängen zeitlich
versetzte Informationen tragen , so dass Vierwellenmischeffekte verringert werden.
Der Chirp hat jedoch auch einen gravierenden Nachteil für zeitlich kurze Pulse:
Die Ursache des Chirp liegt in der Dispersion. Der Brechungsindex ist nicht nur von der
Intensität, sondern auch der Frequenz abhängig. Gleichzeitig ist die Ausbreitungsgeschwindigkeit eine Funktion des Brechungsindexes. Die unterschiedlichen spektralen
Anteile des Pulses bewegen sich somit mit unterschiedlichen Geschwindigkeiten und der Puls
wird zeitlich breiter. Für Pulse, die eine starke Änderung der Intensität entlang ihres zeitlichen
Verlaufs aufweisen, kommt es auf Grund der nichtlinearen SPM in Verbindung mit dem
linearen Effekt der Dispersion zu einer extremen zeitlichen Verbreiterung der Pulse in der
Faser. Daher blieben, ohne zusätzliche Maßnahmen, extrem kurze Pulse in einer Faser nicht
sehr lange extrem kurz. Die SPM läßt sich durch geringere Eingangsintensitäten verhindern,
der Dispersion lässt sich ein anderer nichtlinearer Effekt entgegenstellen: die
Phasenkonjugation auf der Mitte der Übertragungsstrecke (Mid Span Phaseconjugation).
Eine heute übliche Form der Dispersionsunterdrückung besteht im sogenannten
Dispersionsmanagement. Nach einer bestimmten Strecke auf einer Faser mit positiver
Gruppengeschwindigkeitsdispersion wird das Signal auf eine äquivalente Faserstrecke mit
negativer Gruppengeschwindigkeitsdispersion geleitet, so dass sich die Dispersion in der
Summe ausgleicht. Während auf der einen Strecke die roten Anteile des Pulses schneller
laufen als die blauen, laufen auf der anderen die blauen schneller als die roten. Als Folge
schiebt sich der Puls wieder zusammen. Ganz ähnlich funktioniert auch die Mid Span
Phaseconjugation, nur dass hier auf der Mitte der Übertragungsstrecke eine Welle erzeugt
wird, deren ortsabhängiger Anteil konjugiert komplex zur ursprünglichen Welle ist. Die
physikalischen Zusammenhänge sind etwas kompliziert [12]. Im Prinzip ist das Ergebnis aber
ähnlich wie beim Dispersionsmanagement. Im Gegensatz dazu ist die Mid Span
Phaseconjugation jedoch völlig unabhängig vom konkreten Brechungsindexverlauf, der
Anzahl der WDM-Kanäle, der Modulation oder der Bitrate. Aus den einzelnen WDMKanälen werden phasenkonjugierte WDM-Kanäle. Bei der Ausbreitung durch den zweiten
Teil der Strecke werden alle Pulse in allen Kanälen wieder komprimiert. Gleichzeitig werden
auch alle anderen Verzerrungen, welche die Pulse auf dem ersten Teil der Strecke erfahren
haben, wieder ausgeglichen. Mit diesem Verfahren konnte die Ausbreitung von Pulsen mit
der zeitlichen Dauer von 600 fs über eine Strecke von 144 km gezeigt werden [13].
VII. Ultraschnelles optisches Schalten
Die hohen Bitraten im zukünftigen Backbone verlangen auch nach völlig neuen
Herangehensweisen beim Verarbeiten und Multiplexen der Signale. Wird der optische
Datenstrom eines Kanals in einem Vermittlungsknoten auf unterschiedliche Kanäle aufgeteilt,
oder aus unterschiedlichen Kanälen zusammengesetzt, so geschieht das heute indem das
Signal aus dem optischen in den elektrischen Bereich gewandelt, elektrisch verarbeitet und
dann zur optischen Weiterleitung wieder zurück in den optischen Bereich transformiert wird.
Aus physikalischen Gründen sind elektronische Schalter auf Schaltgeschwindigkeiten von 40
Gbit/s begrenzt, so dass man – im Gegensatz zur verfügbaren Bandbreite in Fasern – in
diesem Punkt bereits heute an die Grenzen stößt. Der einzige Ausweg ergibt sich hier durch
die rein optische Verarbeitung des Signals im Netz. Ein Ansatz ist die Verwendung so
genannter mikroelektromechanischer Schalter (MEMS). Dies sind kleine Spiegel auf einem
Siliziumsubstrat, die sich unabhängig voneinander in zwei Raumrichtungen drehen lassen.
Das Schaltprinzip beruht auf einer einfachen Ablenkung des Strahls durch die Reflexion am
Spiegel. Da die einzelnen Spiegel unabhängig steuerbar sind, lassen sich Signale aus einer
beliebigen Eingangsfaser in eine beliebige Ausgangsfaser schalten. Bei dem inzwischen
kommerziell erhältlichen Lambda Router handelt es sich um eine Matrix aus 256 Spiegeln auf
einem Siliziumsubstrat mit einer Fläche von weniger als 6 cm². Da die Schaltgeschwindigkeit
der Spiegel im Millisekundenbereich liegt, lassen sich mit diesem System zwar hochbitratige
Datenströme umlenken, aber keine einzelnen Kanäle schalten. Dazu benötigt man
ultraschnelle optische Schalter.
Fast alle rein optischen Schalter beruhen auf nichtlinearen Effekten. Bei interferenzbasierten
Schaltmechanismen, wie im Mach-Zehnder-Modulator wird beispielsweise durch nichtlineare
Effekte die Phase einer Teilwelle verändert, diese wird dann der anderen Teilwelle überlagert.
Ist der Phasenunterschied zwischen beiden π/2, löschen sie sich gegenseitig aus.
Eine andere Möglichkeit bieten Schaltmechanismen, die auf der Beugung des Lichts beruhen.
Bei einem von uns [14] durchgeführten Experiment wurden beispielsweise zwei Femtosekundenpulse in einem transparenten Material so überlagert, dass sich eine räumliche
Intensitätsmodulation ergab. Wie erwähnt, ist der Brechungsindex eines Materials
intensitätsabhängig, daher kann eine solche Intensitätsmodulation bei genügend hohen
Feldstärken in eine Brechungsindexmodulation übersetzt werden. Diese Brechungsindexmodulation stellt ein optisches Gitter dar, an dem Wellen entsprechend ihrer Wellenlänge in
unterschiedliche Raumrichtungen gebeugt werden. Da das von uns verwendete transparente
Material eine große Bandlücke aufweist, beruhen die Nichtlinearität und damit das Gitter auf
nichtresonanten Effekten welche sich durch eine ultraschnelle Dynamik auszeichnen. Konkret
liegt die Antwortzeit des Materials im Bereich einer optischen Periode (2,7 fs). Das Gitter ist
daher nur während der Dauer der Pulse im Material präsent, in unserem Fall 80...100 fs.
Dementsprechend werden die Wellen eines Datenstroms auch nur in diesem ultrakurzen
Zeitbereich vom Gitter gebeugt, außerhalb dieser Zeit verhält sich das Material wie ein
dünnes Stück Glas. Mit unserem Lasersystem ist somit die Manipulation bzw. das Schalten
eines Datenstroms im Zeitbereich von 80...100 fs möglich. Dies stellt die bislang schnellste
Methode des optischen Schaltens dar. Aus physikalischer Sicht müssten Schaltzeiten, die im
Bereich der Antwortzeit des Materials liegen, möglich sein. Den möglichen Aufbau eines
ultraschnellen Schalters, welcher auf der soeben beschriebenen Methode beruht, zeigt
Abbildung 7.
1
2
n
2
3
n
1
Abb. 7 Ultraschnelles optisches Schalten mit transientem Brechungsindexgitter. Aus dem ankommenden
OTDM-Signal soll Kanal 1 herausgeschaltet werden.
Da die Wellen – entsprechend ihrer Wellenlänge – in unterschiedliche Richtungen gebeugt
werden, kann man mit oben beschriebener Methode auch Demultiplexer für das DWDM
Verfahren aufbauen [15].
VIII. Schlusswort
In diesem Artikel sollten mögliche Szenarien einer Entwicklung der Telekommunikation in
der Zukunft behandelt werden. Man kann davon ausgehen, dass der bislang zu beobachtende
Trend zu immer mehr Bandbreite ungebrochen anhalten wird. Daher standen vor allem
physikalische Effekte und technologische Ansätze im Vordergrund, die zu einer drastischen
Erhöhung der für jeden einzelnen Teilnehmer verfügbaren Bitrate führen können. Wie sich
mit ziemlicher Sicherheit sagen läßt, werden nicht alle der hier vorgestellten Verfahren in
Zukunft tatsächlich angewandt werden, wahrscheinlich sogar nur ein geringer Bruchteil
davon. Gleichzeitig werden vielleicht andere Methoden, die heute noch als utopisch und
praktisch undurchführbar gelten, zu einer Revolution in der Telekommunikation führen
Literatur
[1]
[2]
[3]
[4]
[5]
[6]
N. Nakajima, Y. Yamao, Wirel. Commun. Mob. Comput. 1, 3 (2001)
J. Mitola III „Software Radio Architecture“ Wiley, New York, 2000
F. Büchi, Spektrum der Wissenschaft, 48, Juli (2001)
O. Nilsson, IEEE Commun. Mag., 164, May (2001)
„Mobile Communication System with Moving Base Station“
U.S. Patent No. 5,729,826 Mar. 17, 1998
J. P. Hubaux et. al. IEEE WCNC`2000 conference, Chicago (2000)
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
L. Blazevic et. al. IEEE Commun. Mag., 166, June (2001)
P.P. Mitra, J. B. Stark, Nature 411, 1027 (2001)
T. A. Birks, J. C. Knight and P. St. J. Russel, Optics Letters 22, 961 (1997)
J. K. Ranka, R. S. Windeler and A. J. Stentz, Optics Letters 25, 25 (2000)
M. D. Pelusi et. al. Electron. Lett. 35, 734 (1999)
M. C. Nuss, W. H. Knox, U. Koren, El. Lett. 32, 1311 (1996)
Th. Schneider, Deutsche Telekom Unterrichtsblätter 3, 198 (2001)
D. Kunimatsu, M. D. Pelusi, X.Wang, A. Suzuki, ECOC2000, 3, 99 (2000)
Th. Schneider, D. Wolfframm, R. Mitzner and J. Reif, Appl. Phys. B 68, 749 (1999)
R. P. Schmid, Th. Schneider, J. Reif, „Femtosecond All-optical Wavelength- and
Time- Demultiplexer for OTDM/WDM Systems“ submitted to Appl. Phys. B
Herunterladen