Signale und Systeme Teil 1 Sommersemester 2007 - FH

Werbung
Signale und Systeme
Teil 1
Sommersemester 2007
Henrik Schulze
Campus Meschede
Skript zur Vorlesung. Zuletzt überarbeitet am 31. März 2007
Inhaltsverzeichnis
1 Signale
1.1
1.2
1.3
1.4
4
Grundbegriffe und Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.1.1
Harmonische Schwingungen . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.1.2
Leistung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.1.3
Energie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
1.1.4
Spezielle Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
1.1.5
Elementare Operationen mit Signalen . . . . . . . . . . . . . . . . . . . .
12
Komplexe Signale
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
1.2.1
Harmonische Schwingungen . . . . . . . . . . . . . . . . . . . . . . . . . .
14
1.2.2
Wechselstromrechnung
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
1.2.3
Modulation einer Trägerschwingung . . . . . . . . . . . . . . . . . . . . .
21
1.2.4
Analoge Trägermodulation . . . . . . . . . . . . . . . . . . . . . . . . . .
23
1.2.5
Digitale Trägermodulation . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
1.2.6
Basisband-Darstellung von Bandpasssignalen . . . . . . . . . . . . . . . .
30
1.2.7
Frequenzumsetzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
Zeitdiskrete Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
1.3.1
Grundlegende Begriffe und Definitionen . . . . . . . . . . . . . . . . . . .
35
1.3.2
Harmonische Schwingungen . . . . . . . . . . . . . . . . . . . . . . . . . .
36
1.3.3
Energie und Leistung . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
1.3.4
Spezielle zeitdiskrete Signale und elementare Operationen . . . . . . . . .
38
Die Diskrete Fouriertransformation (DFT) . . . . . . . . . . . . . . . . . . . . . .
42
1.4.1
Definition und Umkehrformel . . . . . . . . . . . . . . . . . . . . . . . . .
42
1.4.2
Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
1.4.3
Eigenschaften der DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
1
INHALTSVERZEICHNIS
2 Zeitdiskrete LTI-Systeme
2.1
2.2
2.3
2
49
Grundbegriffe und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
2.1.1
Die Definition des LTI-Systems . . . . . . . . . . . . . . . . . . . . . . . .
49
2.1.2
Beschreibung durch die Impulsantwort . . . . . . . . . . . . . . . . . . . .
51
2.1.3
Einfache Beispiele für digitale Filter . . . . . . . . . . . . . . . . . . . . .
53
2.1.4
Beschreibung durch die Sprungantwort . . . . . . . . . . . . . . . . . . . .
55
2.1.5
Beschreibung durch die Übertragungsfunktion . . . . . . . . . . . . . . . .
56
Strukturen digitaler Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
2.2.1
Vorwärtsgekoppelte Filter . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
2.2.2
Rückwärtsgekoppelte Filter . . . . . . . . . . . . . . . . . . . . . . . . . .
61
2.2.3
Allgemeine IIR-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
Die Zeitdiskrete Fouriertransformation (ZFT) . . . . . . . . . . . . . . . . . . . .
64
A Das Griechische Alphabet
69
B Dezibel-Rechnung
71
C Die Fourier-Transformation
73
D Der δ−Impuls und verallgemeinerte Funktionen
76
D.1 Konstruktion des δ-Impulses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
76
D.2 Die Theorie verallgemeinerter Funktionen . . . . . . . . . . . . . . . . . . . . . .
79
D.3 Die Ableitung der Sprungfunktion . . . . . . . . . . . . . . . . . . . . . . . . . .
79
D.4 Die Fouriertransformation der δ-Funktion . . . . . . . . . . . . . . . . . . . . . .
80
D.5 Spektrallinien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
E Komplexe Zahlen
84
E.1 Schreibweise und Addition komplexer Zahlen . . . . . . . . . . . . . . . . . . . .
84
E.2 Multiplikation von komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . .
86
E.3 Einige algebraische Rechenmethoden . . . . . . . . . . . . . . . . . . . . . . . . .
88
E.4 Zusammenhang mit der Exponentialfunktion . . . . . . . . . . . . . . . . . . . .
88
E.5 Wurzeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
89
Vorbemerkungen
Die Vorlesung Signale und Systeme (SuSy) besteht aus zwei Teilen.
Teil 1 ist ein Pflichtfach für das 4. Fachsemester im Studiengang IKT. Im Hauptstudium spielt
dieses Fach eine zentrale Rolle, indem es die Grundlagen für mehrere Kernfächer der Kommunikationtechnik vermittelt, u.a. für die Digitale Signalverarbeitung, die Digitale Kommunikationstechnik und zum Teil auch für die Hochfrequenztechnik. SuSy1 baut wesentlich auf den
Mathematik-Vorlesungen auf und führt die Angewandte Mathematik hin zu ihren Anwendungen
in der Kommunikationstechnik. Benötigt werden besonders die Fourierreihe und die Fouriertransformation sowie die Faltung. Sicherheit im Umgang mit komplexen Zahlen, Folgen und
Reihen, Grenzwerten, der Differential- und Integralrechnung usw. werden vorausgesetzt.
Teil 1 besteht aus zwei Kapiteln. Eines behandelt Signale, das andere Systeme. Bei den Signalen werden sowohl die zeitkontinuierlichen als auch die zeitdiskreten behandelt. Nach der
Einführung von elementaren Begriffen und einer Wiederholung von Fourierreihen und komplexer Wechselstromrechnung werden die Grundlagen der Modulationstechnik und die komplexe
Basisbanddarstellung behandelt. Danach betrachten wir die zeitdiskreten Signale und führen
die diskrete Fouriertransfornation ein. In der Systemtherie geht es bei SuSy 1 zunächst nur um
die zeitdiskreten Systeme. Weil diese mathematisch einfacher zu behandeln sind als die zeitkontinuierlichen, beschränken wir uns zunächst auf diese. In der heutigen Zeit sind so viele Dinge
digitalisiert, dass dem technisch interessierten Menschen die Vorstellung zeitdiskreter Signale
hinreichend vertraut sein dürfte. Um ein Gefühl für den Umgang mit zeitdiskreten Signalen zu
bekommen, hilft MATLAB sehr. Wir weisen an gegebener Stelle öfter mal auf die entsprechenden
MATLAB-Funktionen hin. Viele Plots in diesem Skript sind mit MATLAB erstellt.
Die Vorlesung SuSy 1 ist eine Voraussetzung zum Verständnis der Vorlesungen Digitale Kommunikationstechnik und Digitale Signalverarbeitung, die im 5. Fachsemester auf dem Programm
stehen.
Als Literatur empfehle ich vor allem das Buch von Werner [1], weil es mir gut gefällt und weil
es am besten zur Vorlesung passt. Ergänzend empfehle ich die Klassiker [2, 3].
Teil 2 ist ein Wahlpflichtfach und wird für das 5. Semester empfohlen. Es ergänzt die Digitale
Kommunikationstechnik und die Digitale Signalverarbeitung und ist zu empfehlen als Voraussetzung für Mobilfunk-Übertragungstechnik. Es wird die Systemtheorie vertieft und auf den kontinuierlichen Fall übertragen. Außerdem kommt die Statistik hinein, d.h. es werden Zufallssignale
und stochastische Prozesse behandelt.
3
1. Vorlesung am
5. April 2007
Kapitel 1
Signale
1.1
Grundbegriffe und Definitionen
Wenn Informationen übertragen oder Messdaten erfasst werden, so benötigt man Signale. Mit
Signalen übertragen wir Daten vom Handy oder vom Computer, der Experimentator betrachtet
Signale am Oszilloskop oder einem anderen Messgerät. Solche Signale sind in der Regel physikalische Größen wie z.B. Strom, Spannung, elektrische oder magnetische Feldstärke, Schalldruck
usw. und als solche dimensionsbehaftet. Diese physikalischen Größen sind Funktionen der Zeit.
Uns interessiert der Verlauf und damit der Informationsgehalt der Signale mehr als ihre physikalische Natur, und wir werden deshalb meist mit dimensionslosen Signalen arbeiten. Es ist
aber sinnvoll, der Variablen Zeit ihre Dimension zu lassen. Schließlich interessiert es uns, ob wir
ein Bit in einer Millisekunde oder in einer Sekunde übertragen können.
Wir fassen zu einer Definition zusammen:
Definition 1 (Signal) Unter einem Signal s(t) verstehen wir eine Funktion, die eine zeitveränderliche physikalische Größe repräsentiert.
Physikalische Größen sind immer reell. Wir werden es aber sehr bald mit komplexen Signalen
zu tun bekommen, weil man mit denen einfacher rechen kann. Man muss sich dann natürlich
immer darüber im klaren sein, was die komplexen Signal mit den physikalischen Messgrößen zu
tun haben.
Bemerkung 1 (Zweidimensonale Signale) Wir beschränken uns hier auf eindimensionale
Signale einer Zeitvariablen. In der Bildverarbeitung arbeitet man mit zweidimensionalen Signalen mit zwei Ortsvariablen. Das ist interessant, aber nicht Gegenstand unserer Vorlesung.
1.1.1
Harmonische Schwingungen
Besonders wichtig in Technik und Naturwissenschaft sind harmonische Schwingungen, d.h.
Kosinus- und Sinusschwingungen. Eine beliebige reelle harmonische Schwingung kann man
schreiben als
s (t) = ŝ · cos (2πf t + ϕ) .
(1.1)
Dabei ist
4
5
KAPITEL 1. SIGNALE
s(t) = a cos(2πf t) + b sin(2πf t)
−b
IV: (−,−)
I: (+,−)
ϕ
a
III: (−,+)
IV: (+,+)
s(t) = cos(2πf t) + sin(2πf t)
Abbildung 1.1: Zeigerdarstellung eines Signals.
• ŝ > 0 die Amplitude der Schwingung, auch Spitzenwert genannt (daher das Symbol ˆ·).
• f die Frequenz der Schwingung. Die Dimension ist Hz. Oft arbeitet man auch mit der
Kreisfrequenz ω = 2πf .
• ϕ ist die Phase der Schwingung. Dies ist ein Winkel, den man meist im Bogenmaß angibt.
Mit Gleichung (1.1) hat man auch eine Sinus-Komponente bei der selben Frequenz mit erfasst.
Wir erinnern uns aus der Trigonometrie an das Additionstheorem
cos (α + β) = cos (α) cos (β) − sin (α) sin (β)
(1.2)
und können deshalb Gleichung (1.1) auch schreiben als
s (t) = a · cos (2πf t) + b · sin (2πf t)
(1.3)
mit
a = ŝ · cos (ϕ) ,
b = −ŝ · sin (ϕ) .
(1.4)
Bitte beachten Sie das negative Vorzeichen! Anschaulich wird das Ganze, wenn man sich zu dem
Signal einen Vektor
s1
ŝ · cos (ϕ)
a
(1.5)
=
s=
=
ŝ · sin (ϕ)
−b
s2
in der Ebene vorstellt, der die Länge ŝ hat und den Richtungswinkel ϕ zur x-Achse , siehe
Abbildung 1.1. Später werden wir diesen Vektor als komplexen Zeiger interpretieren.
6
KAPITEL 1. SIGNALE
Tabelle 1.1: Quadranten-Tabelle
Quadrant des Winkel ϕ
I
II
III
IV
sign (a)
+
+
sign (b)
+
+
Zurück zu Amplitude und Phase kommt man mit der Umkehrformel
ŝ =
p
a2 + b 2 ,
b
ϕ = − arctan .
a
(1.6)
Bemerkung 2 (Vorsicht Mehrdeutigkeiten!) Diese Umkehrformel für den Winkel gilt nur
für Winkel aus den Quadranten I und IV. Beachten Sie hierzu auch die Übungsaufgaben und
die Tabelle 1.1.
Das Problem kommt daher, dass die Funktion tan (ϕ) nur für den Winkelbereich −π/2 < ϕ <
π/2 eine eindeutige Umkehrfunktion besitzt. Man muss die Vorzeigen von a und b beachten, um
ϕ korrekt zu bestimmen. Am einfachsten sieht man es aus Abbildung 1.1. Oder man schaut in
Tabelle 1.1 nach.
Merke: Es sind immer zwei Größen, die eine harmonische Schwingung einer festen Frequenz
f0 charakterisieren: Entweder Amplitude und Phase der Kosinus-Schwingung in Gleichung (1.1)
oder die Amplituden a und b der Kosinus- und Sinusschwingung in Gleichung (1.3). Man nennt
Gleichung (1.1) die Polardastellung und Gleichung (1.3) die kartesische Darstellung. Man muss
oft zwischen beiden Darstellungen wechseln, deshalb muss man dieses Thema sicher beherrschen! Zwar sind Additionstheoreme zunächst unanschaulich und nicht leicht zu merken. Wir
werden bald sehen, dass im Komplexen alles einfacher und anschaulicher wird. Wir werden den
Signalvektor dann als komplexen Zeiger auffassen und mit komplexen Schwingungen sehr elegant
rechnen.
Harmonische Schwingungen sind deshalb so wichtig, weil man jedes periodische Signal in harmonische Schwingungen zerlegen kann.
Definition 2 (Periodisches Signal) Ein Signal s(t) heißt periodisch, wenn es eine Zeitdauer
T gibt, für die
s(t) = s(t + T )
(1.7)
gilt. Die Zeitdauer T nennt man Periode. Die kleinste mögliche Periode heißt Grundperiode.
Die Zerlegung eines Signals mit Periode T in harmonische Schwingungen nennt man die Fourierreihe des Signals. Sie kann man so schreiben:
X
∞
∞
a0 X
k
k
s (t) =
+
ak · cos 2π t +
bk · sin 2π t
(1.8)
2
T
T
k=1
k=1
Die Fourierkoeffizienten ak und bk berechnen sich nach folgenden Formeln:
Z
Z
k
k
2 T
2 T
s (t) cos 2π t dt, bk =
s (t) sin 2π t dt
ak =
T 0
T
T 0
T
(1.9)
7
KAPITEL 1. SIGNALE
für k = 0, 1, 2, .... Der Einfachheit halber haben wir b0 = 0 definiert. Der Koeffizient a0 /2 kann als
Gleich(spannungs)anteil aufgefasst werden. Entsprechend den obigen Ausführungen kann man
die Fourierreihe natürlich auch als Überlagerung von Kosinusschwingungen mit Amplituden und
Phasen schreiben:
∞
X
k
s (t) = ŝ0 +
ŝk · cos 2π t + ϕk
(1.10)
T
k=1
Es gilt die Beziehung
ŝ0 =
a0
2
für k = 0 und
ŝk =
q
a2k + b2k ,
ϕk = − arctan
ak = ŝk cos ϕk
(1.11)
bk
ak
bk = −ŝk sin ϕk
(1.12)
(1.13)
für k > 0. Auf die komplexe Darstellung der Fourierreihe, die Sie schon aus der Mathematik
kennen, kommen wir bald zu sprechen.
1.1.2
Leistung
Wir wissen, dass die elektrische Leistung gegeben ist als
P = U · I.
Im Allgemeinen hat man es mit zeitabhängigen Größen zu tun, und man verwendet dann meist
i = i(t) für den Strom und u = u(t) für die Spannung. Die Leistung ist dann auch eine
zeitabhängige Größe. Man spricht von der Augenblicksleistung. Wir schreiben dafür p(t). An
einem Ohmschen Widerstand R beträgt die Augenblicksleistung
p(t) =
u2 (t)
= i2 (t) · R.
R
Fassen man u(t) oder i(t) als Signal auf, so stellen wir fest, dass die Leistung proportional zu
dem Quadrat des Signals ist. Dies ist auch bei anderen physikalischen Größen so1 : Z.B. ist die
Leistung beim Schall proportional dem Quadrat des Schalldrucks. Da wir hier dimensionslose
Signale betrachten, definieren wir:
Definition 3 (Augenblicksleistung) Die Augenblicksleistung eines Signals s(t) ist gegeben
durch s2 (t).
Wichtiger ist die mittlere Leistung:
Definition 4 (Mittlere Leistung) Die Mittlere Leistung P s eines Signals s(t) ist gegeben
durch den zeitlichen Mittelwert von s2 (t).
Für periodische Signale mit Periode T gilt
1
Ps =
T
Z
T
s2 (t) dt.
(1.14)
0
1 Jedenfalls wenn im Mittel Arbeit geleistet wird. Die sog. “Blindleistung” bei elektrischen Schaltungen ist in
diesem Sinne keine Leistung.
8
KAPITEL 1. SIGNALE
Für nichtperiodische Signale müssen wir das Zeitmittel als einen Grenzwert schreiben:
1
P s = lim
T →∞ T
Z
T /2
s2 (t) dt.
(1.15)
−T /2
Natürlich gibt es eine Reihe von Signalen, für dieser Grenzwert Null ist (z.B. für alle Signale
endlicher Dauer). Signale mit 0 < P s < ∞, für die der mittlere Leistung eine brauchbare Größe
ist, nennt man Leistungssignale.
Wir werden später mit komplexen Signalen arbeiten. Bei komplexen Signalen s (t) definieren
wir die Leistung so:
Z
1 T /2
2
P s = lim
|s (t)| dt.
(1.16)
T →∞ T −T /2
Natürlich müssen wir an passender Stelle begründen, was das mit der der physikalischen Leistung
zu tun hat.
Eine harmonische Schwingung der Gestalt (1.1) hat die Leistung
1
Ps =
T
Z
0
T
ŝ2 · cos2 (2πf t + ϕ) dt =
1 2
ŝ .
2
(1.17)
Merke: Der Faktor 1/2 ist wichtig! Wie kann man ihn geometrisch erklären, ohne das Integral
auszurechnen? Dieser Faktor führt auf den
Effektivwert Weil der Faktor 1/2 immer wieder auftaucht, hat man in der Elektrotechnik
den Effektivwert eingeführt. Eine Spannung
u (t) = û · cos (2πf0 t + ϕ)
führt am Ohmeschen Widerstand R zu der mittleren Leistung
Ps =
1 û2
.
2R
(1.18)
Damit man den Faktor 1/2 nicht vergisst und einfach
Ps =
2
Uef
f
R
schreiben kann, hat man den Effektivwert
1
Uef f = √ û
2
(1.19)
eingeführt. Leider führt dass dazu, dass viele Studenten vergessen, wie man die Leistung durch
den Spitzenwert ausdrückt...
1.1.3
Energie
Für Signale, die zeitlich konzentriert sind, ist die mittlere Leistung nicht sinnvoll erklärt. Ein
Impuls endlicher Dauer überträgt während dieser Dauer Energie, aber wenn man diese endliche
Energie über einen unendlichen Zeitraum mittelt, kommt Null heraus. Wenn Sie mit Ihrem
9
KAPITEL 1. SIGNALE
|S(f )|2
R f2
f1
f1
f2
|S(f )|2df
f
Abbildung 1.2: Energiedichte.
Handy eine SMS verschicken, so dauert es eine endliche Zeit in der Größenordnung von wenigen
Sekunden, in der das Signal aktiv ist. Eine SMS besteht z.B. aus 160 Bytes bzw. 1280 bits, und
es ist sicher vernünftig, danach zu fragen, wieviel Energie zum Verschicken dieser Datenmenge
benötigt wird. Leistung ist Arbeit (Energieverbrauch) pro Zeit, und die Energie ist das Integral
über die Leistung. Wir definieren daher:
Definition 5 (Energie) Die Energie Es eines Signals s(t) ist gegeben durch das Integral über
s2 (t).
Als Formel:
Es =
Z
∞
s2 (t) dt.
(1.20)
−∞
Wir werden später mit komplexen Signalen arbeiten. Bei komplexen Signalen definieren wir die
Energie so:
Z
∞
Es =
−∞
|s (t)|2 dt.
(1.21)
Natürlich müssen wir an passender Stelle begründen, was diese Größe mit der physikalischen
Energie zu tun hat.
Wegen der Parsevalschen Gleichung (C.4) der Fouriertransformation kann man die Energie auch
durch die Fouriertransformierte S (f ) von s (t) ausdrücken. Es gilt
Z ∞
Z ∞
2
2
Es =
|s (t)| dt =
|S (f )| df.
(1.22)
−∞
−∞
2
Man kann die Funktion |S (f )| daher als die (zweiseitige) spektrale Energiedichte des Signals
auffassen, siehe 1.2.
Z f2
2
|S (f )| df
f1
ist dann die Energie zwischen den Frequenzen f1 und f2 . Wie ist das zu verstehen, wenn f1
und f2 negativ sind? An dieser Stelle hilft vielleicht folgende Erläuterung, um eine häufige
Verwirrung zu vermeiden:
10
KAPITEL 1. SIGNALE
Negative Frequenzen In der Kommunikationstechnik spricht man oft von negativen Frequenzanteilen eines Signals. Natürlich gibt es physikalisch nur positive Frequenzen. Bei der
Darstellung eines Signal als Fourier-Integral2
Z ∞
s (t) =
ej2πf t S (f ) df
(1.23)
−∞
wird auch über die negative Frequenzachse integriert, d.h. es gibt scheinbar negative Frequenzanteile. Das hängt aber nur mit der bequemen Darstellung im Komplexen zusammen. Wenn s (t)
reell ist, gilt
S (−f ) = S ∗ (f ) ,
(1.24)
und kann das Integral umformen zu
s (t) = 2<
∞
Z
ej2πf t S (f ) df
0
.
(1.25)
Hierbei bezeichnet < {z} den Realteil der komplexen Zahl z. In dem Integationsgebiet tauchen
keine negativen Frequenzen mehr auf. Entsprechend kann man auch Gleichung (1.22) umformen
zu
Z ∞
Z ∞
2
Es =
−∞
|s (t)| dt = 2
2
0
|S (f )| df.
(1.26)
Die physikalisch richtige Energiedichte ist also die sogenannte einseitige spektrale Energiedichte
2 |S (f )|2 .
1.1.4
Spezielle Signale
Einheitsimpuls und Sprungfunktion
In der Vorlesung zur Angewandten Mathematik sind Sie wahrscheinlich schon dem Einheitsimpuls (oder Dirac-Impuls 3 oder δ−Impuls) begegnet. Häufig definiert man ihn durch die Eigenschaften
∞ : t=0
δ (t) =
0 : t 6= 0
und
Z
∞
δ (t) dt = 1.
−∞
Wir wollen nicht verschweigen, dass es eine derartige Funktion (in dem Sinne, wie Sie Funktionen
kennen gelernt haben) eigentlich gar nicht geben kann. Trotzdem ist dieses scheinbar “kranke”
Signal sehr wichtig für die Anwendung. Im Sinne verallgemeinerter Funktionen kann man alles
sauber definieren. Uns geht es mehr um die Anwendung und eine geeignete intuitive Vorstellung
davon. In Anhang D wird hierzu etwas mehr erklärt. Aber erst einmal rechnen wir einfach damit.
Wichtig ist die Ausblend-Eigenschaft (auch: Sieb-Eingenschaft ) des Dirac-Impulses. Für ein
beliebiges Signal s (t) gilt
Z
∞
δ (t) s (t) dt = s (0) .
(1.27)
−∞
Das Signal
(t) =
2 d.h.
1
0
: t≥0
: t<0
als Fourier-Rücktransformation
nach dem Physik-Nobelpreisträger P.A.M. Dirac (1902-1984), einem der Pioniere der Quantentheorie. Studiert hat er aber nicht Physik, sondern erst Elektrotechnik und dann Mathematik.
3 Benannt
11
KAPITEL 1. SIGNALE
(t)
1
t
0
1
δ(t)
t
0
Abbildung 1.3: Einheitspuls und Einheitsprung.
nennt man den (kontinuierlichen) Einheitssprung oder auch die Heavisidesche Sprungfunktion.
Man braucht diese Sprungfunktion z.B. um Einschaltvorgänge folgender Art zu beschreiben:
“Die angelegte Spannung ist Null für negative Zeiten und nimmt dann einen konstanten Wert
an.” Mathematisch ist die Sprungfunktion bei t = 0 nicht differenzierbar (die Steigung ist
unendlich!). Im Sinne von verallgemeinerten Funktionen existiert die Ableitung jedoch (siehe
Anhang D) und es gilt
d
(t) = δ (t)
(1.28)
dt
Abbildung1.3 zeigt den Einheitssprung und die symbolische Darstellung des Einheitspulses. Der
Einheitspuls wird symbolisiert durch einen Pfeil mit ausgefüllter Spitze. Die Höhe des Pfeiles
stellt den Vorfaktor vor dem Puls dar.
Rechteck und si-Funktion
Wir schreiben
rect (x) =
1 :
0 :
|x| < 1/2
|x| ≥ 1/2
(1.29)
für die Rechteckfunktion der Breite Eins. Wenn wir es mit einem rechteckigen Zeitsignal der
Breite T zu tun haben, schreiben wir
t
1 : |t| < T /2
=
.
(1.30)
rect
0 : |t| ≥ T /2
T
Wir definieren die si-Funktion als4
si (x) =
4 Wir
1
sin(x)
x
:
:
x=0
x 6= 0
erinnern an die stetige Ergänzung von Definitionslücken, die wir aus der Mathematik kennen.
(1.31)
12
KAPITEL 1. SIGNALE
bzw.
(
t
=
si π
T
1
sin(πt/T )
πt/T
: t=0
: t=
6 0
(1.32)
Diese Funktion wird in der Physik auch als Spaltfunktion bezeichnet, weil sie bei der Beugung
am Spalt auftritt.
1.1.5
Elementare Operationen mit Signalen
Verzögerungen und Spiegelungen
Wenn s (t) ein Signal ist, so ist
sT (t) = s (t − T )
das um die Zeitdauer T verzögerte (d.h. zeitlich verschobene) Signal. Wenn man es zeichnet, so
ist es um T nach rechts verschoben. Z.B. lautet der Rechteckpuls zwischen 0 und T
1
t
1 : 0<t<T
=
−
rect
.
0 :
sonst
T
2
Wenn s (t) ein Signal ist, so ist
s̃ (t) = s (−t)
das zeitlich gespiegelte Signal.
Wenn man ein Signal spiegelt und verzögert, so kommt es auf die Reihenfolge an.
Wenn zuerst gespiegelt und dann verzögert wird, ergibt sich
(s̃)T (t) = s (− (t − T )) = s (T − t) .
(1.33)
Wenn dagegen das verzögerte Signal gespiegelt wird, ergibt sich
s˜T (t) = s (−t − T ) .
(1.34)
Abbildung 1.4 zeigt die verschiedenen Signale.
Die Faltung
Wichtig ist dies zum Verständnis der Faltungsoperation
Z ∞
r (t) =
h (τ ) s (t − τ ) dτ.
−∞
Hier wird aus zwei Signalen s (t) und h (t) ein neues Signal r (t) auf folgende Weise erzeugt:
Das Signal s (τ ) wird gespiegelt und dann um eine feste Zeit t verschoben. Dieses gespiegelte
und verschobene Signal (s̃)t (τ ) = s (− (τ − t)) = s (t − τ ) wird dann mit dem Signal h (τ )
multipliziert (gewichtet) und über die Variable τ integriert. Das Ergebnis ist die Faltung an
der Stelle (dem Zeitpunkt) t. Beachten Sie, dass man unterschiedliche Buchstaben als Variablen
nehmen darf. Man muss nur aufpassen, dass man den Überblick behält!
Das Operation der Faltung ist eine Verknüpfung zweier Signale. Als Verknüpfungsoperator
schreibt man einen ∗, d.h. man schreibt die Faltung als
Z ∞
h (t) ∗ s (t) =
h (τ ) s (t − τ ) dτ.
(1.35)
−∞
13
KAPITEL 1. SIGNALE
(a)
s(−t)
s(t)
t
0
(b)
s(T − t)
0
s(t − T )
T
t
(c)
s(−t − T )
−T
s(t − T )
0
T
Abbildung 1.4: Verschiebungen und Spiegelungen eines Signals
t
14
KAPITEL 1. SIGNALE
Mit einer einfachen Substitution kann man dies umformen in
Z ∞
h (t) ∗ s (t) =
h (t − τ ) s (τ ) dτ.
(1.36)
−∞
Damit ist die Faltung kommutativ, d.h. es gilt
h (t) ∗ s (t) = s (t) ∗ h (t) .
(1.37)
Die Faltung ist auch assoziativ, d.h. man darf Klammern weglassen und es gilt
g (t) ∗ (h (t) ∗ s (t)) = (g (t) ∗ h (t)) ∗ s (t) = g (t) ∗ h (t) ∗ s (t) .
(1.38)
Außerdem ist die Faltung distributiv, d.h. man darf ausklammern:
g (t) ∗ (h (t) + s (t)) = g (t) ∗ h (t) + g (t) ∗ s (t) .
(1.39)
Die Faltung verhält sich also wie eine Multiplikation. Man spricht daher auch vom Faltungsprodukt.
Die Gleichung (1.35) erlaubt folgende Interpretation: Das Signal r (t) = h (t) ∗ s (t) ist eine
Überlagerung von verzögerten Versionen des Signals s (t) um Verögerungszeiten τ , jeweils gewichtet mit einem Vorfaktor h (τ ).
Der δ-Impuls ist die Eins bezüglich des Faltungsproduktes, denn es gilt
δ (t) ∗ h (t) = h (t) ∗ δ (t) = h (t) .
Man kann deshalb jedes Signal schreiben als
Z ∞
s (t) =
s (τ ) δ (t − τ ) dτ.
(1.40)
(1.41)
−∞
1.2
1.2.1
Komplexe Signale
Harmonische Schwingungen
Der Umgang mit harmonischen Schwingungen wird einfacher, wenn man zu komplexen Signalen
und der Zeigerdarstellung wechselt. Wir schreiben dazu den Kosinus in Gleichung (1.1) als
Realteil einer komplexen Exponentialfunktion, d.h. als1.42
s (t) = < ŝ · ejϕ ej2πf t .
(1.42)
Hierbei bezeichnet < {z} den Realteil der komplexen Zahl z. Das komplexe Signal
s (t) = ŝ · ejϕ ej2πf t
bezeichnet man als komplexe harmonische Schwingung der Frequenz f0 . Es ist in der Elektrotechnik gebräuchlich, komplexe Größen zu unterstreichen 5 . Die nicht unterstrichenen Zeitfunktionen
sind dann automatisch als die Realteile der unterstrichenen zu verstehen, z.B. s (t) = < {s (t)}.
Diese Notation ist mathematisch nicht schön6 , aber in einer DIN-Norm zur komplexen Wechselstromrechnung vorgeschrieben. Wir werden uns deshalb mit dieser Notation auseinandersetzen
und sie erläutern, uns aber auf die Dauer nicht daran gebunden fühlen.
5 Ein
Mathematiker tut dies normalerweise nicht.
wenn man dann auch noch die Zeitvariable weglässt und s = < {s} schreibt.
6 Besonders,
15
KAPITEL 1. SIGNALE
Imaginaerteil
ŝ
−b
ŝ
ϕ
Realteil
a
Abbildung 1.5: Zeigerdarstellung einer komplexen Schwingung
Wir können jetzt den komplexen Zeiger1.43
ŝ = ŝ · ejϕ
(1.43)
einführen. Achtung: Hier ist die nicht unterstrichene Größe der Betrag der unterstrichenen!
An dieser Stelle sollen kurz noch einmal die Eulerschen Gleichungen wiederholt werden, die man
auswendig wissen muss:
e±jφ = cos (φ) ± j sin (φ)
(1.44)
1 jφ
e + e−jφ
(1.45)
cos (φ) =
2
1 jφ
sin (φ) =
e − e−jφ
(1.46)
2j
Man kann den Zeiger (1.43) geometrisch und anschaulich in der komplexen Ebene darstellen,
siehe Abbildung 1.5 (vgl. auch Abbildung 1.1). Zerlegt man den Zeiger ŝ in Real- und Imaginärteil und setzt in Gleichung (1.42) ein, so erhält man mit den Eulerschen Gleichungen und
Vergleich mit Gleichung (1.3) sofort
a = < {ŝ} = < ŝ · ejϕ
und
−b = = {ŝ} = = ŝ · ejϕ ,
16
KAPITEL 1. SIGNALE
wobei = {·} für den Imaginärteil steht.
Mit Hilfe der Eulerschen Gleichungen kann man die Fourier-Reihe (1.8) folgendermaßen umschreiben:
s (t) =
∞
∞
X
k
k
a0 X ak j2π k t
bk j2π k t
e T + e−j2π T t +
e T − e−j2π T t
+
2
2
2j
(1.47)
k=1
k=1
Wir ordnen die Summen nach positiven und negativen Exponenten und schreiben
s (t) =
∞
∞
k=1
k=1
X1
k
k
a0 X 1
+
(ak − jbk ) ej2π T t +
(ak + jbk ) e−j2π T t
2
2
2
(1.48)
Mit der Definition
1
(ak − jbk ) , c−k = c∗k , (k ≥ 0)
2
ergibt sich jetzt die komplexe Darstellung der Fourierreihe
ck =
s (t) =
∞
X
k
ck ej2π T t
(1.49)
(1.50)
k=−∞
mit der Formel für die komplexen Fourierkoeffizienten
Z
1 T −j2π k t
T s (t) dt.
e
ck =
T 0
(1.51)
Diese Darstellung ist natürlich viel einfacher und kompakter als die Darstellung mit Kosinus und
Sinus. Das Signal wird jetzt aufgefasst als eine Überlagerung komplexer harmonischer Schwingungen ej2πfk t mit den Frequenzen
k
fk = .
(1.52)
T
Dass bei dieser komplexen Darstellung hier auch negative Frequenzen auftreten, sollte jetzt
nicht mehr verwirren. In den physikalischen Kosinus- und Sinusschwingungen sind die Frequenzen reell. Jede dieser Schwingungen mit positiver Frequenz fk lässt sich darstellen als eine
Überlagerung von einer Exponentialschwingung der Frequenz fk und einer der Frequenz fk . Es
gilt ja nach den Eulerschen Formeln
k
k
1 j2π k t
cos 2π t =
e T + e−j2π T t
T
2
und
k
k
1 j2π Tk t
sin 2π t =
e
− e−j2π T t .
T
2j
Die Fourierkoeffizienten zu den negativen Frequenzen enthalten die selbe Information wie die zu
den positiven. Die Amplituden sind identisch, und die Phasen sind gespiegelt.
Man kann auch beliebige komplexe periodische Signale in eine Fourierreihe entwickeln. Die
Koeffizienten berechnen sich nach der selben Formel (1.51). Es gilt nicht mehr die Symmetrieeigenschaft zwischen negativen und positiven Frequenzen, d.h. i.A. gilt ck 6= c∗k .
Es gilt die Parsevalsche Gleichung für Fourierreihen:
Ps =
1
T
Z
0
T
2
|s| (t) dt =
∞
X
k=−∞
2
|ck | .
(1.53)
17
KAPITEL 1. SIGNALE
Auf der rechten Seite ist die Leistung im Frequenzbereich ausgedrückt. Sie setzt sich zusammen
aus den Beiträgen für die Leistungen für alle harmonischen Schwingungen bei den Frequenzen
fk wobei immer ein Paar zu positivem und negativem Index zusammen gehört. Für relle Signale
gilt c−k = c∗k , und man kann schreiben:
P s = c20 + 2
∞
X
k=0
2
|ck | .
(1.54)
Wenn man dies durch die Koeffizienten der reellen Fourierreihe ausdrückt, so erhält man
∞
Ps =
a20
1X 2
+
ak + b2k
4
2
(1.55)
k=0
Die Gesamtleistung lässt sich also zerlegen in die Leistung der einzelnen Schwingungen, wobei
a2k /2 die Leistung der k-ten Kosinus und b2k /2 die Leistung der k-ten Sinusschwingung ist. a20 /4
ist die Leistung des Gleichanteils.
2
Definition 6 (Diskretes Spektrum) Die Zahlen |ck | nennt man das diskrete Spektrum des
periodischen Signals s(t).
Fourieranalyse und Frequenzdetektion
Wir betrachten (nur) Signale der Periode T . Wenn man ein solches periodisches Signal als
Fourierreihe
∞
X
k
(1.56)
s (t) =
ck ej2π T t
k=−∞
7
darstellen kann , ergibt sich die Formel
1
ck =
T
Z
T
k
e−j2π T t s (t) dt
(1.57)
0
für die Koeffizienten sofort aus der Gleichung
Z
1 T −j2πfk t j2πfl t
e
e
dt = δkl .
T 0
(1.58)
Man kann deshalb die Integral-Operation
Dk {(·)} =
1
T
Z
T
e−j2πfk t (·) dt
(1.59)
0
als einen Detektor für die Schwingung bei der Frequenz fk auffassen: Schickt man eine Schwingung dieser Frequenz in den Detektor, so liefert dieser die Amplitude und Phase dieser Schwingung. Schickt man eine andere Schwingung hinein, so zeigt er “Null” an
Bild: FourierReihe
als
Man kann das auch reell darstellen. Es gilt
Detektor-Bank.
Z
2 T
cos (2πfk t) cos (2πfl t) dt = δkl
T 0
Z
2 T
sin (2πfk t) sin (2πfl t) dt = δkl
T 0
7 Wir
nehmen an, dass die mathematischen Voraussetzungen dafür erfüllt sind.
18
KAPITEL 1. SIGNALE
2
T
Z
T
cos (2πfk t) sin (2πfl t) dt = 0
0
Statt einen komplexen Detektors haben wir nun zwei reelle: Einen für die Sinus-Schwingung und
einen für die Kosinus-Schwingung.
1.2.2
T
Dkcos {(·)} =
2
T
Z
Dksin {(·)} =
2
T
Z
cos (2πfk t) (·) dt
0
T
sin (2πfk t) (·) dt
0
Wechselstromrechnung
Die komplexe Wechselstromrechnung ist eine Methode, die Differentialgleichungen für bestimmte Schaltkreise mit harmonischer Anregung nach immer dem gleichen Schema zu lösen. Die
Schaltung wird durch eine lineare, inhomogene Differentialgleichung mit konstanten reellen Koeffizienten beschrieben. Die Inhomogenität (oder Störung) sei eine harmonische Schwingung der
Gestalt (1.1). Uns interessiert nur der eingeschwungene Zustand. Physikalisch heißt das, dass
man nach dem Einschaltvorgang eine hinreichend lange Zeit abwartet, bis die exponentiellen
abfallenden Lösungsanteile abgeklungen sind8 . Dies bedeutet also, dass man nur eine spezielle
(partikuläre) Lösung der inhomogenen Lösung sucht. Die Methode funktioniert folgendermaßen:
Diese Inhomogenität wird durch eine komplexe harmonische Schwingung ersetzt. Aus der Theorie der Differentialgleichungen weiß man, dass der Realteil der komplexen Lösung dieser komplexen Differentialgleichung eine Lösung der ursprünglichen reellen Differentialgleichung ist. Für
die komplexe Differentialgleichung findet man sehr einfach eine Lösung: Man setzt einfach eine
komplexe Schwingung mit der selben Frequenz wie die der Inhomogenität an. Die Ableitungen
dieser Schwingung sind leicht zu berechnen, und man erhält eine algebraische Gleichung, die
man leicht lösen kann.
Wir betrachten als Beispiel die Differentialgleichung
aẍ + bẋ + cx = cos (ωt) ,
(1.60)
mit reellen Koeffizienten a, b und c, wobei der Punkt für die zeitliche Ableitung steht. Wir
verwenden hier die Abkürzung ω = 2πf . Wenn nun z (t) = x (t) + jy (t) eine Lösung der
komplexen Differentialgleichung
az̈ + bż + cz = ejωt
(1.61)
ist, dann ist x (t) Lösung der Differentialgleichung (1.60). Eine Lösung von (1.61) bekommt man
durch den Ansatz
(1.62)
z (t) = ẑ ejωt ,
wobei ẑ = ẑ(ω) ein noch zu bestimmender komplexer Vorfaktor ist. Wir setzen diesen Ansatz
in die Dgl. (1.61) ein und erhalten
2
(jω) aẑ ejωt + jωbẑ ejωt + cẑ ejωt = ejωt .
(1.63)
Die Exponentialschwingung kürzt sich heraus und wir erhalten die algebraische Gleichung
−ω 2 aẑ + jωbẑ + cẑ = 1,
8 Diese
gehören mathematisch zu der Lösung der homogenen Gleichung.
(1.64)
19
KAPITEL 1. SIGNALE
die wir einfach nach dem unbestimmte Vorfaktor ẑ auflösen können. Das Ergebnis ist
1
.
−ω 2 a + jωb + c
ẑ =
(1.65)
Diese Größe wird in der Elektrotechnik und in der Systemtheorie als Übertragungsfunktion bezeichnet. Eine Lösung der inhomogenen komplexen Dgl. (1.61) ergibt sich dann als
z (t) =
ejωt
.
−aω 2 + jωb + c
(1.66)
Eine Lösung der zugehörigen reellen Dgl. (1.60) ist dann
ejωt
x (t) = <
.
−aω 2 + jbω + c
Falls die Inhomogenität mit einer Amplitude und Phase behaftet ist, d.h.
aẍ + bẋ + cx = ŝ cos (ωt + ϕ) = < ŝejϕ ejωt ,
(1.67)
(1.68)
so setzten wir
ŝ = ŝejϕ
und erhalten nach der selben Methode
z (t) =
bzw.
x (t) = <
Insbesondere gilt
ẑ =
ŝejωt
−aω 2 + jbω + c
ŝ ejωt
2
−aω + jωb + c
−aω 2
(1.69)
.
(1.70)
1
ŝ
+ jωb + c
Der Vorfaktor ist wieder die Übertragungsfunktion des Systems.
Zusammenfassung Allgemein gilt: Für eine lineare, inhomogene Differentialgleichung mit
konstanten rellen Koeffizienten und der komplexen Inhomogenität exp (j2πf t) führt der Ansatz
z (t) = H (f ) ej2πf t
(1.71)
immer auf eine Lösung. Die Größe H (f ) ist zunächst eine unbestimmte Größe, die man durch
Einsetzen in die Differentialgleichung erhält.
Definition 7 (Übertragungsfunktion) Die Größe H(f ) in Gleichung (1.71) bezeichnet man
als die Übertragungsfunktion.
Der Begriff der Übertragungsfunktion ist von zentraler Bedeutung in der Systemtheorie, die
aber erst etwas später kommt.
20
KAPITEL 1. SIGNALE
Notation und Konventionen in der Elektrotechnik
Nach dem oben geschilderten Prinzip werden in der Elektrotechnik routinemäßig Schaltungen
aus Kapazitäten, Induktivitäten und Widerständen berechnet. Die Methode ist so zur Gewohnheit geworden, dass das zugrundeliegenden Prinzip leider oft vergessen wird. Wir wollen hier
noch einmal den Bezug zu den vertrauten Größen der Elektrotechnik hinschreiben. Hier verwendet man eine strenge, sehr kompakte Notation, bei der man aufpassen muss, dass man keinen
Unterstrich und kein “Dach” vergisst.
Wir haben es physikalisch mit zeitabhängigen Strömen und Spannungen zu tun, die über Vorfaktoren und Ableitungen zusammen hängen und daher durch Differentialgleichungen beschrieben
werden. In der Notation schreibt man beim Strom
i = i (t)
und der Spannung
u = u (t)
die Zeitabhängigkeit in der Regel nicht explizit mit. Wir betrachten den eingeschwungenen
Zustand, d.h. wir haben es immer mit harmonischen Schwingungen der Gestalt (1.1) zu tun.
Wir schreiben diese als Realteil einer komplexen Schwingung, d.h.
i = < {i} ,
u = < {u}
(1.72)
i = î ejωt ,
u = û ejωt .
(1.73)
mit
Mit den komplexen Zeigern î und û werden die Amplituden und Phasen der jeweiligen Schwingungen charakterisiert. Die Amplituden schreibt man auch als
î = |î|,
û = |û|
und nennt dies die Spitzenwerte (im Unterschied zu den schon erwähnten Effektivwerten).
Die komplexe partikuläre Lösung der Differentialgleichung, die die Schaltung beschreibt, bekommt jetzt, indem die zeitabhängigen Größen durch die zeitunabhängigen ausdrückt und die
komplexe Schwingung herauskürzt:
1. An einem Ohmschen Widerstand R ist der Strom proportial zur Spannung, d.h. es gilt
das Ohmsche Gesetz
uR = Ri ⇒ ûR = R î.
(1.74)
2. An einer Induktivität L ist die induzierte Spannung proportional zur Ableitung des Stromes, d.h. es folgt aus dem Induktionsgesetz
d
i ⇒ ûL = jωL î.
dt
Man bezeichnet jωL als den komplexen Widerstand der Induktivität.
uL = L
(1.75)
3. An einer Kapazität C ist der Strom (als Ableitung der Ladung) proportional zur Ableitung
der Spannung
d
i = C uC ⇒ î = jωC ûC .
(1.76)
dt
Man kann den Zusammenhang auch so ausdrücken:
Z
1
1
uC =
i dt ⇒ ûC =
î.
(1.77)
C
jωC
Man bezeichnet
1
jωC
als den komplexen Widerstand der Kapazität.
21
KAPITEL 1. SIGNALE
Setzt man dies entsprechend ein, kann man die resultierende algebraische Gleichung nach dem
komplexen Zeiger der interessierenden Größe (z.B. dem Strom) auflösen und erhält die Übertragungsfunktion
als Vorfaktor vor der Inhomogenität (dies ist meist die angelegt Spannung).
In der Elektrotechnik schreibt man meist gar nicht erst die Differentialgleichung hin, sondern
beschreibt die Schaltung direkt mit den obigen komplexen Widerständen unter Anwendung der
Knoten- und Maschenregel.
1.2.3
Modulation einer Trägerschwingung
Harmonische Schwingungen kann man zur Informationsübertragung verwenden, indem man eine
Zeitabhängigkeit in die Amplitude und/oder die Phase bringt. Man nennt dies Modulation. Wir
werden ab jetzt komplexe Signale nicht mehr unterstreichen, weil dies in der Kommunikationstechnik nicht gebräuchlich ist. Eine harmonische Schwingung schreiben wir als
√
s̃ (t) = 2 a · cos (2πf0 t + ϕ)
(1.78)
und nennen sie Trägerschwingung. Die Frequenz f0 nennen wir Trägerfrequenz. Mit der Bezeichnung s̃ (t) für das
√ Signal deuten wir an, dass es sich um eine hochfrequente Schwingung
handelt. Den Faktor 2 haben wir eingeführt, damit bei der Leistungsberechnung kein Faktor
1/2 auftaucht (aus dem gleichen Grund wie bei der Einführung vom Effektivwert). Die mittlere
Leistung ist also einfach a2 .
Wir modulieren diese Trägerschwingung, indem wir Amplitude und Phase als Signale auffassen,
d.h. zeitabhängig werden lassen. Wir schreiben also
√
s̃ (t) = 2 a (t) · cos (2πf0 t + ϕ (t))
(1.79)
Das Signal a (t) bezeichnen wir als Amplitudenmodulation (AM), das Signal ϕ (t) als Phasenmodulation (PM). Beide Signale sind relativ zur Trägerfrequenz f0 nur langsam zeitveränderlich.
Bei Rundfunk-Signalen z.B. liegen die auftretenden Frequenzen im Audio-Bereich (einige kHz),
während die Trägerfrequenz im MHz-Bereich liegt.
Es ist wieder sinnvoll, mit komplexen Signalen zu arbeiten. Dann kann man nämlich den Signalanteil abspalten, der die eigentliche Information enthält. Dazu schreiben wir
o
n√
2 a (t) ejϕ(t) · ej2πf0 t ,
(1.80)
s̃ (t) = <
wobei wir den komplexen Signalanteil, der die Information trägt, nämlich
s (t) = a (t) ejϕ(t) ,
(1.81)
von der komplexen harmonischen Schwingung abgespalten haben.
Definition 8 (Komplexes Basisband) Wir nennen s(t) das komplexe Basisband zu s̃(t).
Man sagt auch hierzu auch äquivalentes komplexes Tiefpasssignal, weil dieses niederfrequente
Signal s (t) bei gegebener Trägerfrequenz dieselbe Information enthält wie das hochfrequente
Bandpasssignal
n√
o
2 s (t) · ej2πf0 t .
s̃ (t) = <
(1.82)
Der Vollständigkeit halber sollen noch folgende Begriffe eingeführt werden:
Definition
9 (Einhüllende) Wir nennen
√
und 2a(t) die Einhüllende (Hüllkurve)
√
2s(t) die komplexe Einhüllende (Hüllkurve) zu s̃(t)
22
KAPITEL 1. SIGNALE
1
Bandpasssignal
Einhuellende
0.8
0.6
0.4
0.2
0
−0.2
−0.4
−0.6
−0.8
−1
−1
−0.5
0
t [s]
0.5
1
Abbildung 1.6: Bandpasssignal und Einhüllende.
Der Begriff Einhüllende wird in Abbildung 1.6 veranschaulicht.
Das komplexe Tiefpasssignal kann man durch seine komplexe Ortskurve darstellen.
Definition 10 (Komplexe Ortskurve) Die Ortskurve eines komplexen Signals s(t) ist seine
Punktmenge in der komplexen Ebene.
Wir können die Ortskurve von s (t) mathematisch schreiben als
O {s (t)} = { z ∈ C| z = s (t) , t ∈ R} .
(1.83)
Anschaulich ist die Ortskurve einfach die Kurve, die der Zeiger in der Ebene beschreibt.
Man kann zeigen, dass s̃ (t) und das zugehörige komplexe Basisbandsignal s (t) die selbe Energie
besitzen9 , sofern es sich um Energiesignale handelt und die selbe Leistung besitzten, wenn es
sich um Leistungssignale handelt. D.h. es gilt
Es̃ = Es
für
Es̃ =
Z
(1.84)
∞
s̃2 (t) dt
(1.85)
−∞
und
Es =
Z
∞
−∞
9 Hierzu
ist es wesentlich, dass wir den Faktor
gezogen haben.
√
2
|s (t)| dt.
(1.86)
2 in Gleichung (1.82) aus den komplexen Basisband heraus
23
KAPITEL 1. SIGNALE
x(t)
√
2 cos(2πf0 t)
s(t) =
√
√
− 2 sin(2πf0 t)
2 cos(2πf0 t)x(t) −
√
2 sin(2πf0 t)y(t)
y(t)
Abbildung 1.7: Quadraturmodulator
Für Leistungssignale gilt entsprechend
P s̃ = Ps .
(1.87)
Genau genommen gilt das nur für strikt bandbegrenzte Signale, aber auch sonst gilt das in guter
Näherung. Der Beweis kommt später.
Das komplexe Basisbandsignal kann man als einen zeitveränderlichen Zeiger auffassen. Neben
der Polardarstellung (1.81) kann man ihn natürlich auch kartesisch durch seinen Realteil x (t)
und seinen Imaginärteil y (t) darstellen:
s (t) = x (t) + jy (t)
(1.88)
Man nennt x (t) die Inphase-Komponente des Signals und schreibt dafür oft I (t). Man nennt y (t)
die Quadratur-Komponente des Signals und schreibt dafür oft Q (t). Beide zusammen bezeichnet
man auch als die Quadraturkomponenten von s (t). Man kann dann das Signal in Quadraturdarstellung (auch: I-Q-Darstellung) schreiben als:
√
√
s̃ (t) = 2 x (t) cos (2πf0 t) − 2 y (t) sin (2πf0 t)
(1.89)
Beachten Sie bitte das Vorzeichen vor der Sinus-Schwingung!
Ein Gerät, das aus den Signalen x (t) und y (t) das Signal (1.89) erzeugt, nennt man Quadraturmodulator, siehe Abbildung 1.7. Ein Quadraturmodulator kommt in jedem Handy vor und
in jeder WLAN-Karte.
Zwischen der Polardarstellung und der Quadraturdarstellung kann man leicht umrechnen. Es
gilt
x (t) = a (t) cos (ϕ (t)) , y (t) = a (t) sin (ϕ (t))
(1.90)
und
a (t) =
p
x2 (t) + y 2 (t),
ϕ (t) = arctan
y (t)
x (t)
.
(1.91)
Welche der beiden Darstellungen günstiger ist, hängt vom jeweiligen Verfahren ab.
1.2.4
Analoge Trägermodulation
Analoge Modulation (oder auch Aufzeichnung) bedeutet, dass das analoge (d.h. kontinuierliche)
Nutzsignal direkt in ein analoges (d.h. kontinuierliches) Signal zur Übertragung (oder auch
24
KAPITEL 1. SIGNALE
Speicherung) umgewandelt wird, ohne dass dazwischen in irgendeiner Form digitalisiert, d.h. in
Zahlen umgewandelt wird. Die traditionellen Verfahren zur Modulation oder Speicherung sind
analog, werden aber immer mehr von digitalen verdrängt. Es gibt sie noch, und man sollte etwas
darüber wissen, um sinnvoll diskutieren zu können.
Analoge Aufzeichnung:
Schallplatte, Tonband, Musik-Cassette, VHS-Video, Film
Digitale Aufzeichnung:
CD, DVD, Mini-Disk, Festplatte, Diskette, (Daten-Cassette)
Analoge Übertragung:
Sat), Analoges Telefon
Digitale Übertragung
Telefon, GPS, Galileo
UKW-Radio (FM), AM-Radio, Analoges Fernsehen (Terrestrisch,
Mobilfunk (GSM, UMTS), DAB, DVB-C(S,T), DRM, WLAN, ISDN-
Amplitudenmodulation
Bei einer reinen Amplitudenmodulation ist die Phase zeitlich konstant. Wir können ohne Einschränkung der Allgemeinheit ϕ = 0 annehmen. Das Signal hat dann die Gestalt
√
s̃ (t) = 2 a (t) cos (2πf0 t) .
(1.92)
Die Sinus-Schwingung bleibt unmoduliert, und wegen a (t) ≥ 0 liegt der Zeiger auf der positiven
reellen Achse. Wenn man ein analoges Nutzsignal m (t) übertragen will, so muss man eine
Konstante (“Gleichspannung”) hinzu addieren, damit keine Werte im negativen Bereich liegen.
Sei z.B. −1 ≤ m (t) ≤ 1, dann ist
a (t) = 1 + m (t)
(1.93)
eine nicht negative Größe. Der AM-Modulator sieht dann so aus, wie in Teil (a) von Abbildung
1.8 gezeigt.
Modulationsgrad Die maximale Amplitude des Nutzsignales m(t) relativ zur Amplitude der
Gleichspannung (die hier auf Eins normiert wurde) bezeichnet man als den Modulationsgrad α.
Es gilt 0 ≤ α ≤ 1. Bei einer Modulation durch eine reine Kosinus-Schwingung mit einem Ton
der Frequenz f1 gilt
a (t) = 1 + α cos (2πf1 t) .
(1.94)
Die Gesamtleistung dieses Signals beträgt
PAM = 1 +
α2
,
2
(1.95)
die Nutzleistung ist
α2
.
(1.96)
2
Im günstigsten Fall (α = 1) werden also 2/3 der Gesamtleistung durch den Gleichanteil verbraucht, der keine Information überträgt.
PAM−N utz =
Teil (b) zeigt den einfachsten Demodulator für AM, den Hüllkurvendemodulator. Er extrahiert
aus dem Signal die Hüllkurve, indem zunächst durch Zweiwege-Gleichrichtung
der Betrag |s̃ (t)|
√
gebildet wird. Durch Tiefpassfilterung erhält man daraus die Hüllkurve 2 a (t). Anschließend
25
KAPITEL 1. SIGNALE
(a)
m(t)
s̃(t)
1
√
2 cos(2πf0 t)
b)
Tiefpass
Abbildung 1.8: Amplitudenmodulation: (a) Modulator (b) Demodulator
wird durch einen Kondensator (Hochpass) der Gleichanteil entfernt. In dem Bild weggelassen
ist ein Bandpassfilter (Schwingkreis) an Anfang, der zum Abstimmen benötigt wird.
Diese extrem einfache Implementierung der AM erkauft man sich durch gravierende Nachteile:
Durch das sogenannte untere Seitenband wird die Hälfte des Spektrums verschwendet. Und
mindestens zwei Drittel der Leistung stecken in dem Gleichanteil, der keine Information enthält
.
Frequenzmodulation
Bei analoger Übertragung ist es für die Implementation ungünstig, die Information direkt in
der Phase ϕ (t) zu übertragen. Günstiger lässt sich aus dem Signal die Augenblicksfrequenz
(=Momentanfrequenz ) extrahieren. Für ein Signal der Gestalt
√
(1.97)
s̃ (t) = 2 a (t) · cos (φ (t))
ist diese definiert über die zeitliche Ableitung des momentanen Phasenwinkels φ (t) als
fm (t) =
1 d
φ (t) .
2π dt
Für
φ (t) = 2πf0 t + ϕ (t)
gilt
(1.98)
Einschub:
Analogie
zur
Winkelge(1.99)
schwindigkeit
bei einer Kreis(1.100) bewegung.
1
ϕ̇ (t) .
2π
Die Momentanfrequenz fluktuiert also um die Trägerfrequenz f0 mit der relativen Momentanfrequenz
1
ϕ̇ (t)
(1.101)
∆fm (t) =
2π
fm (t) = f0 +
26
KAPITEL 1. SIGNALE
Begrenzer
d
dt
Bandpass
Huell−
kurven−
demod.
Abbildung 1.9: FM-Demodulator.
Die betragsmäßig größte relative Momentanfrequenz nennt man FM-Hub:
∆fmax = max |∆fm (t)|
(1.102)
Dies ist eine wichtige Kenngröße zur Charakterisierung der Modulation.
Die Phase ergibt sich als Integral über die Momentanfrequenz als
Z t
ϕ (t) = 2π
∆fm (τ ) dτ + ϕ0 .
(1.103)
0
Das Signal selbst ist dann
s̃ (t) =
√
Z t
∆fm (τ ) dτ + ϕ0 .
2 a · cos 2πf0 t + 2π
(1.104)
0
Hierbei haben wir eine konstante Amplitude angenommen.
Wir betrachten als einfaches Beispiel das Signal
√
s̃ (t) = 2 · cos (2πf0 t + µ sin (2πf1 t)) ,
Hier
könnte
noch ein Bild
vom VCO hin.
(1.105)
wobei f1 die Frequenz eines Nutzsignals sein soll (z.B. ein Ton bei 1 kHz). Den Parameter µ nennt
man Modulationsindex. Die Momentanfrequenz ist eine Kosinusschwingung bei der Frequenz f1 ,
denn:
1
∆fm (t) =
ϕ̇ (t) = µf1 sin (2πf1 t)
(1.106)
2π
Der Hub ist
∆fmax = µf1 .
(1.107)
Der (klassische) FM-Demodulator sieht folgendermaßen aus: Wir betrachten ein Signal
√
s̃ (t) = 2 a · cos (2πf0 t + ϕ (t)) .
(1.108)
Die zeitliche Ableitung davon lautet
√
d
s̃ (t) = −2π (f0 + ∆fm (t)) 2 a · cos (2πf0 t + ϕ (t))
dt
(1.109)
Die Modulation erscheint jetzt in der Hüllkurve und kann durch einen Hüllkurvendemodulator
extrahiert werden. Für die Implementation wichtig ist es, dass die Amplitude wirklich konstant ist. Dies erreicht man durch einen Begrenzer-Verstärker. Abbildung 1.9 zeigt diesem FMDemodulator.
Folgende Formel ist noch sehr nützlich für die Frequenzdemodulation:
ṡ (t)
,
ϕ̇ (t) = =
s (t)
wobei
s (t) =
√
2 a (t) ejϕ(t) .
Das rechnen wir
in der Übung!
(1.110)
(1.111)
27
KAPITEL 1. SIGNALE
√
2 cos(2πf0 t)
√
− 2 sin(2πf0 t)
Abbildung 1.10: QPSK-Modulator.
1.2.5
Digitale Trägermodulation
In diesem Abschnitt sollen einige wichtige digitale Modulationsverfahren vorgestellt werden.
Dabei wird einiges vereinfacht dargestellt. Ausführlich wird dieses Thema in der Vorlesung
Digitale Kommunikationstechnik behandelt.
Digital bedeutet, dass wir die im obigen Unterabschnitt beschriebenen Signale verwenden, um
Datenbits zu übertragen. Am einfachsten geschieht das, indem wir das komplexe Basisbandsignal
als stückweise konstant während einer Symboldauer TS annehmen, d.h.
1
s (t) = √ sl
TS
(1.112)
für den Takt Nummer l mit lTS ≤ t < (l + 1) TS . Die komplexe Zahl
sl = xl + jyl
(1.113)
√
nennt man das (Daten-) Symbol, das die Information trägt. Der Faktor 1/ TS dient der Normierung.
In der Praxis verwendet man meist nicht diese rechteckigen Pulse für die einzelnen Symbole,
sondert filtert in geeigneter Weise, um günstigere spektrale Eigenschaften zu erhalten. Wir wollen
darauf an dieser Stelle nicht eingehen.
QPSK
Im einfachsten Fall wechseln die Quadraturkomponenten von s (t) = x (t) + jy (t) einfach nur ihr
Vorzeichen, siehe Abbildung 1.10 . Man nennt dieses Verfahren QPSK (Quaternary Phase-Shift
Keying). Das Symbol sl kann dann 4 verschiedene Punkte in der komplexen Ebene mit den
Phasenwinkeln 45◦ , 135◦ , 225◦ und 315◦ annehmen, siehe Abbildung 1.11. Die Amplitude ist
konstant. Man nennt dieses Bild auch den Phasenstern. Die Energie eines Symbols ES ist bei
diesem Verfahren unabhängig vom Symbolindex l. Sie berechnet sich als
Z (l+1)TS
|s (t)|2 dt = |sl |2 .
(1.114)
ES =
lTS
Man kann die Symbole also schreiben als
sl =
p
ES (±1 ± j) .
(1.115)
28
KAPITEL 1. SIGNALE
Q
10
00
I
11
01
Abbildung 1.11: Phasenstern für QPSK
Man kann zwei Bits mit einem Symbol übertragen. Eins davon bestimmt das Vorzeichen des
Realteils, das andere den Vorzeichen des Imaginärteils.
Man kann QPSK als das Standardverfahren bei der digitalen Übertraugung ansehen. Es wird
sehr häufig eingesetzt. Ein Beispiel ist das digitale Satellitenfernsehen.
BPSK
Man kann natürlich auch einfach nur den Realteil des Signals modulieren und den Imaginärteil
ungenutzt lassen. Vorteile bringt dies nicht, und man lässt einen Teil der Übertragungskapazität
ungenutzt. Die Implementation ist natürlich etwas einfacher, aber das spielt heute keine Rolle
mehr. Man nennt dieses Verfahren BPSK (Binary Phase-Shift Keying). In einem Symboltakt
wird nur ein Bit übertragen. Das Datensymbol besitzt die Werte
p
sl = ± ES .
(1.116)
Dies entspricht den Phasenwinkeln 0◦ ,180◦ .
M -PSK
Hier werden mit einem Symbol M Phasenwinkel übertragen. M ist eine
√ Zweierpotenz. Zwei
Punkte im Phasenstern haben den Winkelabstand 2π
ES . Die Fälle M = 2
M , die Amplitude ist
und M = 4 haben wir gerade behandelt. Der Phasenstern für 8-PSK ist in Abbildung Abbildung
1.12 dargestellt. PSK-Konstellationen mit 16 oder mehr Punkten sind in der Praxis äußerst
selten.
M -QAM
QAM steht für Quadratur-Amplituden-Modulation. Diese Bezeichnung ist eigentlich etwas irreführend, weil eine Amplitude nach Definition immer eine positive Größe ist. Bei QAM nehmen
beide Quadraturkomponenten verschiedene “Amplituden-” Werte an, die aber auch negativ sein
dürfen. Die Zahl M ist die Zahl der Punkte in der komplexen Ebene, die das Symbol sl annehmen kann. Man nennt diese Zahl die Stufigkeit. Die Stufigkeit ist immer eine Zweierpotenz. Mit
29
KAPITEL 1. SIGNALE
Q
011
010
001
110
000
I
111
100
101
Abbildung 1.12: Phasenstern für 8-PSK.
einem Symbol kann man log2 (M ) Bits übertragen. Wir beschränken uns auf den Fall, dass M
eine Quadratzahl ist10 , d.h. M = 4, 16, 64, 256, .. Dann nehmen xl und yl jeweils die selben
Werte an, und zwar
4-QAM:
xl , yl ∈ {±δ}
(1.117)
xl , yl ∈ {±δ, ±3δ}
(1.118)
xl , yl ∈ {±δ, ±3δ, ±5δ, ±7δ} .
(1.119)
16-QAM:
64-QAM:
Hierbei ist die Distanz δ eingeführt worden. 2δ ist immer der Abstand zweier benachbarter Punkte. 4-QAM ist offenbar nur ein anderer Name für QPSK. Abbildung 1.13 zeigt die Konstellation
für 64-QAM.
Die Energie eines QAM-Symboles ist unterschiedlich, je nachdem welches der M möglichen
Symbole gesendet worden ist. Man definiert ES als die mittlere Symbolenergie, d.h. als den
statistischen Mittelwert (Erwartungswert)
n
o
2
ES = E |sl |
(1.120)
über alle M möglichen Punkte der Signalkonstellation. Wenn man annimmt, dass diese alle
gleich häufig vorkommen, erhält man
ES4−QAM = 2δ 2
(1.121)
ES16−QAM = 10δ 2
(1.122)
ES64−QAM = 42δ 2 .
(1.123)
Oft benötigt man zur Bewertung der Verfahren die benötigte mittlere Energie pro Bit. Sie lautet
Eb =
10 Andere
ES
log2 (M )
als quadratische Konstellationen sind möglich, aber selten.
(1.124)
30
KAPITEL 1. SIGNALE
Q
I
Abbildung 1.13: Phasenstern für 64-QAM.
FSK
Digitale Frequenzmodulation bezeichnet man als FSK (Frequency-Shift Keying). Bei M -FSK
wird zwischen M verschiedenen Frequenzen umgeschaltet. Wir beschränken uns hier auf M = 2.
Die modulierte Trägerschwingung lautet
r
s̃ (t) =
2Eb
cos (2πf0 t + ϕ (t))
Tb
und das zugehörige komplexe Basisbandsignal
r
s (t) =
Eb jϕ(t)
e
Tb
(1.125)
(1.126)
mit der Bitenergie Eb und der Bitdauer Tb . Die Phase ϕ (t) ist während der Dauer eines Bits
linear, d.h. die Augenblicksfrequenz für lTb ≤ t < (l + 1) Tb konstant:
∆fm (t) = ±
h
2Tb
(1.127)
Die Zahl h nennt man den Modulationsindex11 . Gebräuchlich sind z.B. h = 1/2 und h = 1. Es
werden also die Frequenzen
h
f± = f0 ±
(1.128)
2Tb
übertragen, je nachdem, ob das Datenbit eine Null oder eine Eins ist.
1.2.6
Basisband-Darstellung von Bandpasssignalen
In diesem Unterabschnitt schauen wir uns die Signale im Frequenzbereich an. Hierzu benötigen
wir die Fouriertransformation. Eine kleine Zusammenstellung wichtiger Eigenschaften findet sich
im Anhang C.
11 Der
hier etwas anders definiert ist als für analoge FM.
31
KAPITEL 1. SIGNALE
Zwischen einem komplexen Basisband-Signal s (t) und dem zuhörigen trägermodulierten hochfrequenten Bandpass-Signal s̃ (t) besteht nach Gleichung (1.82) die Beziehung
s̃ (t) = <
o
n√
2 s (t) · ej2πf0 t .
(1.129)
Wir haben diese Zuordnung bisher nur in der einen Richtung vom Basisband zum Bandpass betrachtet, also von der Seite des Modulators. Die Umkehrung muss aber möglich sein, schließlich
wollen wir das Signal auch demodulieren. Wir werden sogar sehen, dass man zu jedem beliebigen Bandpasssignal ein äquivalentes komplexes Tiefpasssignal finden kann, so dass die obige
Beziehung gilt.
Die durch Gleichung (1.129) beschriebene Zuordnung lässt sich in zwei Schritte zerlegen. Zunächst
einmal wird mit
s (t) 7→ s+ (t) = s (t) · ej2πf0 t
(1.130)
das Basisbandsignal im Frequenzbereich um f0 nach rechts verschoben. Wegen des Verschiebungssatzes der Fouriertransformation (siehe Anhang C) liest sich die obere Gleichung als
S (f ) 7→ S+ (f ) = S (f − f0 ) .
(1.131)
Wir nehmen an, dass das Basisbandsignal streng bandbegrenzt mit Bandbreite B/2 ist und dass
die Trägerfrequenz f0 gegenüber der Bandbreite des Basisbandsignals hinreichend groß ist, dass
S+ (f ) nur Spektralanteile im positiven Frequenzbereich hat (daher die Bezeichnung S+ (f ))12 .
Der zweite Schritt ist die Bildung des Realteils von s+ (t). Wir können hierfür auch schreiben
< {s+ (t)} =
1
s+ (t) + s∗+ (t) .
2
(1.132)
Das komplex konjugierte Zeitsignal s∗+ (t) korrespondiert im Frequenzbereich zu der gespiegelt
∗
konjugiert komplexen Spektralfunktion S+
(−f ). Die Spektralfunktion von
s̃ (t) =
lautet also
√
2 < {s+ (t)}
1
∗
(−f ) .
S̃ (f ) = √ S+ (f ) + S+
2
(1.133)
(1.134)
Mit Gleichung (1.131) kann man dies auch schreiben als
1
S̃ (f ) = √ (S (f − f0 ) + S ∗ (−f − f0 )) .
2
(1.135)
2
Bild 1.14 zeigt den Zusammenhang für die spektralen Energiedichten S̃ (f ) bzw. |S (f )|2 . Aus
dem Bild wird deutlich, dass beides äquivalente Darstellungen des selben Signals sind: So, wie
man aus der komplexen Basisbanddarstellung durch spektrale Verschiebung und Spiegelung zur
Bandpassdarstellung kommt, kann man durch spektrale Verschiebung und Abschneiden wieder
zum Basisband zurück kommen. Beide Signale tragen die selbe Information. Wir haben die
Normierung so gewählt, dass dabei auch die Signalenergie dieselbe bleibt. Aus Bild 1.14 und
Gleichung (1.135) sieht man, dass
Z ∞
Z ∞
2
2
S̃
(f
)
df
=
|S (f )| df
(1.136)
−∞
12 Man
−∞
nennt s+ (t) auch analytisches Signal, aber dies hat mit mathematischen Eigenschaften zu tun, die hier
den Rahmen sprengen würden.
32
KAPITEL 1. SIGNALE
6|S̃(f )|
a)
2
HHH
@
@
−f0
A
A
A -
0
-
B
f0
-
f
B
6|S(f )|
b)
C
0
C
C
C
C
C
-
2
-
f
B
Abbildung 1.14: Äquivalenz von (a) Bandpass und (b) komplexer Basisband-Darstellung für das
selbe Signal.
33
KAPITEL 1. SIGNALE
s̃(t)
√
TP
x(t)
TP
y(t)
2 cos(2πf0 t)
√
− 2 sin(2πf0 t)
Abbildung 1.15: Quadraturdemodulator
gilt. Mit der Parsevalschen Gleichung folgt daraus
Z ∞
Z ∞
|s (t)|2 dt
s̃2 (t) dt =
(1.137)
−∞
−∞
und damit
Es̃ = Es .
(1.138)
Beachte, dass die Bandbreite B des Bandpasssignals doppelt so groß ist wie die Bandbreite B/2
des Basisbandsignals.
Von dem Bandpasssignal kommt man zum Basisbandsignal,
indem man das die Spektralfunktion
√
S̃ (f ) um f0 nach links verschiebt, mit dem Faktor 2 multipliziert und anschließend mit einem
idealen Tiefpass auf die Bandbreite B/2 abschneidet, d.h.
√
f
S (f ) = 2 S̃ (f + f0 ) · rect
.
(1.139)
B
Im Zeitbereich kann man Gleichung (1.139) schreiben als
i
h√
s (t) = si (πBt) ∗
2 e−j2πf0 t s̃ (t) .
(1.140)
Das Gerät, das diese Operation durchführt, nennt man den Quadraturdemodulator. Er kommt in
jedem Handy, jeder WLAN-Karte und jedem digitalen Fernsehempfänger vor. Um die Schaltung
deutlicher zu erkennen schreiben wir Gleichung (1.140) als
h√
i
√
s (t) = si (πBt) ∗
2 cos (2πf0 t) s̃ (t) − j 2 sin (2πf0 t) s̃ (t) ,
(1.141)
d.h.
x(t) = si (πBt) ∗
und
h√
i
2 cos (2πf0 t) s̃ (t)
y(t) = −si (πBt) ∗
i
h√
2 sin (2πf0 t) s̃ (t)
(1.142)
(1.143)
Daraus ergibt sich das in Abbildung 1.15 dargestellte Blockschaltbild für den Quadraturdemodulator.
34
KAPITEL 1. SIGNALE
(a)
−fu
0
fu
f
−fu
0
fu
f
(b)
Abbildung 1.16: Frequenzumsetzung. Aufgetragen sind die Energiedichten.
1.2.7
Frequenzumsetzung
In der Praxis wird nicht nur die Umsetzung von einem Basisbandsignal zu einem Bandpasssignal
und umgekehrt benötigt, sondern auch von einem Bandpasssignal zu einem anderen auf einer
anderen Frequenz. Weil es sich dabei um Zwischenstufen der Modulation/Demodulation handelt,
spricht man auch von einem Zwischenfrequenz (ZF) -Signal (engl. IF=intermediate frequency).
Um ein Signal s (t) im Spektralbereich um eine Frequenz fu zu verschieben, muss man im
Zeitbereich mit der Exponentialschwingung exp (j2πfu t) multiplizieren:
s (t) 7→ ej2πfu t s (t)
(1.144)
Eine komplexe Exponentialschwingung gibt es in der Praxis nicht. Praktisch kann die Umsetzung
so aussehen:
s (t) 7→
√
1
2 cos (j2πfu t) s (t) = √ ej2πfu t s (t) + e−j2πfu t s (t)
2
(1.145)
Für die zugehörige Spektralfunktion S (f ) bedeutet dies
1
S (f ) 7→ √ (S (f − fu ) + S (f + fu )) ,
2
(1.146)
d.h. die ursprüngliche Spektralfunktion erscheint wieder um fu nach links und um fu nach rechts
verschoben.
Sei nun
1
S̃ (f ) = √ (S (f − f0 ) + S ∗ (−f − f0 ))
2
(1.147)
KAPITEL 1. SIGNALE
35
ein reelles Bandpasssignal wie in Gleichung (1.135) beschrieben. Es hat zueinander symmetrische
Spektralanteile bei positiven und negativen Frequenzen. Durch die Umsetzung (1.146) entsteht
das Signal
1 √ S̃ (f − fu ) + S̃ (f + fu ) =
(1.148)
2
1
(S (f − f0 − fu ) + S (f − f0 + fu ) + S ∗ (−f − f0 + fu ) + S ∗ (−f − f0 − fu ))
2
Von diesen vier Spektralfunktionen auf der rechten Seite liegen die ersten beiden im positiven
Frequenzbereich, falls das Band oberhalb von fu liegt. Die beiden anderen liegen entsprechend
gespiegelt im negativen Bereich, siehe Teil (a) vom Abbildung1.16. Falls das Band unterhalb
von fu liegt, liegen die erste und dritte im positiven Bereich, die anderen beiden im Negativen.
Die Situation ist in Teil (b) des Bildes dargestellt. Zu beachten ist, dass hier ein umgesetztes
Signal in Kehrlage (d.h. spiegelverkehrt) bei fu − f0 auftaucht. Außerdem wird durch das Bild
das Spiegelfrequenzproblem deutlich: Sowohl Signale bei fu + f1 als auch Signale bei fu − f1
tauchen nach der Umsetzung bei f1 auf und stören sich gegenseitig. Man muss sie daher vor der
Umsetzung durch geeignete Filterung entfernen.
1.3
1.3.1
Zeitdiskrete Signale
Grundlegende Begriffe und Definitionen
In der digitalen Signalverarbeitung arbeitet man mit zeitdiskreten Signalen. Das ist für uns
heute, wo alles zunehmend digitalisiert wird, keine so ungewohnte Vorstellung mehr wie in der
Zeit, als man seine Musikkonserven von der Schallplatte oder dem Tonband abspielte. Dass
ein Musikstück durch seine Samples (auf Deutsch: Abtastwerte) repräsentiert wird, ist jedem
geläufig, der sich dafür interressiert. Auf einer CD oder in einer WAV-Datei sind solche Folgen
von Abtastwerten gespeichert. Wir nennen eine solche Folge ein zeitdiskretes Signal.
Definition 11 (Zeitdiskretes Signal) Unter einem zeitdiskreten Signal s[n] verstehen wir eine Zahlenfolge, die mit einem Index n durchnumeriert ist. Diesen Index fassen wir als Zeitindex
auf.
Die Werte s [n] sind dimensionslos, der Index n ebenfalls. Die Beziehung zu physikalischen Größe
wie etwa der Zeit muss gesondert hergestellt werden. Z.B. muss zum Abspielen einer WAV-Datei
den zeitlichen Abstand tA zweier Samples s [n] und s [n + 1] wissen. Dazu wird die Abtastfrequenz
fA = t−1
A im Header der Datei gespeichert. Eine gebräuchliche Zahl für Audio ist fA = 44.1kHz,
für Telefonqualität reicht fA = 8 kHz.
Wenn unser zeitdiskretes Signal s [n] durch Abtastung aus einem kontinuierlichen Signal s (t)
entstanden ist, gilt
s [n] = s (ntA ) .
(1.149)
Dies muss aber keinesweges immer der Fall sein. Wir können mit beliebigen zeitdiskreten Signalen operieren, ohne dabei einen direkten Bezug zu einem kontinuierlichen zu haben.
In der Praxis (d.h. in der digitalen Signalverarbeitung) muss man die Zahldarstellung für die s [n]
berücksichtigen. Bei der CD sind dies 16 bit (pro Kanal), es gibt also 216 = 65536 verschiedene
Werte. Beim Telefon sind es nur 28 = 256. Wir kümmern uns hier erst einmal nicht um die
Effekte, die mit dieser Quantisierung zusammenhängen.
Bei einer Zahlenfolge, wie wir sie aus der Mathematik gewöhnt sind, läuft der Index n meist von
0 (oder 1) bis ∞. Für manche Signale ist es auch sinnvoll, den Index von −∞ bis +∞ laufen
36
KAPITEL 1. SIGNALE
s[n]
s[0]
s[1]
s[2]
−5
−4
−3
−2
−1
0
1
2
3
4
5
6
n
Abbildung 1.17: Darstellung eines Zeitdiskreten Signals.
zu lassen, wie man es ja bei kontinuierlichen Signalen s (t) für die Zeitvariable t auch tut. Bei
einer realen Datei ist die Menge der Daten natürlich endlich, sodass man z.B. nur eine endlich
Indexmenge hat, z.B. n = 0, 1, 2, ..., N − 1 oder n = 1, 2, 3, ..., N. Wir wollen uns hier nicht
festlegen. Es ist aber bemerkenswert, dass wir bei einer endlichen Indexmenge der Größe N das
Signal s [n] als einen Vektor


s [1]
 s [2] 




s =  s [3] 
(1.150)
 .. 
 . 
s [N ]
im N -dimensionalen Raum auffassen kann. Man muss sich jetzt nicht N räumliche Dimensionen
vorstellen, aber sollte sich daran erinnern, dass dies sehr gut zu der Bezeichnungsweise Vektor
für ein Feld in der Datenverarbeitung passt.
Zeitdiskrete Signale stellen wir graphisch dar wie in Abbildung1.17 gezeigt.
Abschließend wollen wir noch anmerken, dass wir natürlich auch mit komplexwertigen zeitdiskreten Signalen zu tun haben werden. Wir werden aber auf das Unterstreichen komplexer
Größen verzichten.
Definition 12 (Zeitdiskretes periodisches Signal) Ein zeitdiskretes Signal s[n] heißt periodisch, wenn es eine natürliche Zahl N gibt, für die
s[t] = s[t + N ]
(1.151)
gilt. Die Zahl N nennt man Periode. Die kleinste mögliche Periode heißt Grundperiode.
1.3.2
Harmonische Schwingungen
Wenn man eine kontinuierliche komplexe harmonische Schwingung
s (t) = exp (j2πf t)
mit der Abtastfrequenz
fA =
1
tA
abtastet, so erhält man ein zeitdiskretes Signal
f
s [n] = exp j2π n .
fA
(1.152)
(1.153)
(1.154)
37
KAPITEL 1. SIGNALE
ω = π/2
ω
ω=π
ω=0
ω = 3π/2
Abbildung 1.18: ω.
Wir definieren
ω = 2π
f
fA
(1.155)
und schreiben
s [n] = ejωn .
(1.156)
Dies ist eine zeitdiskrete harmonische Schwingung. ω ist eine auf die Abtastfrequenz normierte
Kreisfrequenz und hat die Dimension eines Winkels im Bogenmaß, siehe Abbildung 1.18. ejω ist
ein Zeiger auf dem Einheitskreis.
Achtung: Verwechseln Sie das bitte nicht mit der Kreisfrequenz, die meist mit dem selben
Buchstaben bezeichnet wird und die Dimension Winkel pro Sekunde [rad/s] hat.
Wir schreiben auch
sω [n] = ejωn .
(1.157)
sω+2π [n] = sω [n] ,
(1.158)
Offenbar gilt
und auch ω + 4π, ω + 6π, ... führen immer auf dieselbe Schwingung. Deshalb gilt:
Satz 1 (Alias-Frequenzen) Wenn man die Signale exp (j2πf t) und exp (j2π (f + fA ) t) mit
der Abtastfrequenz fA abtastet, führt dies auf das selbe zeitdiskrete Signal.
Die Signale, die sich um ein Vielfaches der Abtastfrequenz unterscheiden, sind also nach der
Abtastung nicht mehr voneinander zu unterscheiden! Normalerweise geht man davon aus, dass
sich die Signale innerhalb der spektralen Grundperiode zwischen −fA /2 und fA /2 befinden.
Werden dann Signale außerhalb dieser Grundperiode mit erfasst, so tauchen sie scheinbar in
der Grundperiode auf. Man spricht dann von Alias-Frequenzen. Beim Abspielen z.B. mit einer
Soundkarte werden sie innerhalb der Grundperiode wiedergegeben.
38
KAPITEL 1. SIGNALE
1.3.3
Energie und Leistung
Wir definieren die Energie eines zeitdiskreten Signales s [n] als
∞
X
Es =
2
n=−∞
|s [n]| .
(1.159)
Diese Größe ist dimensionslos. Wenn man den Zusammenhang mit der physikalischen Energie
herstellen will, die über ein Integral über eine Zeitfunktion gegeben ist, muss man mit einer
Konstanten der Dimension Zeit multiplizieren.
Die mittlere Leistung eines zeitdiskreten Signals s [n] ist definiert als
N
X
1
2
|s [n]| .
N →∞ 2N + 1
P s = lim
(1.160)
n=−N
Für periodische Signal der Periode N gilt:
Ps =
N
1 X
2
|s [n]| .
N n=0
Wir unterscheiden wieder zwischen Energiesignalen und Leistungssignalen.
1.3.4
Spezielle zeitdiskrete Signale und elementare Operationen
Einheitsimpuls und Sprungfunktion
Das Signal
δ [n] =
1
0
: n=0
: n=
6 0
(1.161)
bezeichnet man als (diskreten) δ- Impuls oder auch als Einheitsimpuls.
Das Symbol
δnm = δ [n − m]
(1.162)
nennt man Kronecker-δ.
Das Signal
[n] =
1 : n≥0
0 : n<0
(1.163)
nennt man den (diskreten) Einheitssprung. Abbildung1.19 zeigt den Einheitpuls und den Einheitssprung.
Verzögerungen und Spiegelungen
Diese Operationen sind genauso definiert wie bei kontinuierlichen Signalen. Vieles wird sogar
einfacher. Man muss nur manchmal aufpassen, was der Index ist.
Wenn s [n] ein zeitdiskretes Signal ist, so ist
s1 [n] = s [n − 1]
39
KAPITEL 1. SIGNALE
δ[n]
1
−5
−4
−3
−2
[n]
−1
0
1
2
3
4
5
6
n
0
1
2
3
4
5
6
n
1
−5
−4
−3
−2
−1
Abbildung 1.19: Einheitspuls und Einheitsprung.
(a)
s[n]
s[n − 1]
D
(b)
s[n]
D
s[n − 1]
D
s[n − 2]
D
s[n − 3]
Abbildung 1.20: Verzögerung eines zeitdiskreten Signals durch ein Schieberegisterelement.
40
KAPITEL 1. SIGNALE
das um einen Takt verzögerte (d.h. zeitlich verschobene) Signal. Wenn man es zeichnet, so ist
es um einen Takt nach rechts verschoben. Wir skizzieren das mit dem Blockschaltbild (a) in
Abbildung1.20. Die Verzögerung um einen Takt entspricht einem Schieberegisterelement.
Dies beliebige Verzögerungen lassen sich durch wiederholte Anwendung solcher Verzögerungen
um einen Takt erreichen:
sm [n] = s [n − m]
ist das um m Takte verzögerte Signal, siehe Teil (b) von Abbildung 1.20. Man muss bei dem
Ausdruck auf der rechten Seite etwas aufpassen: m ist eine feste Zahl (z.B. m = 7), und n ist
die Variable, also der Zeitindex. Man könnte das auch durch die Schreibweise
sm [•] = s [• − m]
deutlich machen.
Wenn s [n] ein Signal ist, so ist
s̃ [n] = s [−n]
das zeitlich gespiegelte Signal.
Wenn man ein Signal spiegelt und verzögert, so kommt es auch hier auf die Reihenfolge an.
Wenn zuerst gespiegelt und dann verzögert wird, ergibt sich
(s̃)1 [n] = s [− (n − 1)] = s [1 − n] .
Wenn dagegen das verzögerte Signal gespiegelt wird, ergibt sich
s˜1 [n] = s [−n − 1] .
Die diskrete Faltung
Auch für zeitdiskrete Signale gibt es eine Faltung. Sie geht genauso wie im kontinuierlichen
Fall, nur muss man bei diskreten Signalen natürlich statt des Integrals eine Summe schreiben.
Die diskrete Faltung ist eigentlich einfacher zu verstehen als die kontinuierliche, weil man hier
einfache Beispiele mit kurzen Vektoren einfach verständlich machen kann.
Die Faltung zweier zeitdiskreter Signale s [n] und h [n] ist definiert als
r [n] =
∞
X
m=−∞
h [m] s [n − m] .
(1.164)
Auch hier wird aus zwei Signalen s [n] und h [n] ein neues Signal r [n] auf folgende Weise erzeugt:
Das Signal s [m] wird gespiegelt und dann um eine feste Anzahl von Takten n verschoben. Dieses
gespiegelte und verschobene Signal (s̃)n [m] = s [− (m − n)] = s [n − m] wird dann mit dem
Signal h [m] multipliziert (gewichtet) und über die Variable m summiert. Das Ergebnis ist die
Faltung an der Stelle (dem Zeitpunkt) n.
Man schreibt
h [n] ∗ s [n] =
∞
X
m=−∞
h [m] s [n − m] .
(1.165)
Auch die diskrete Faltung ist kommutativ, assoziativ und distributiv. Sie verhält sich wie eine
Multiplikationsoperation (nur nicht zwischen Zahlen, sondern zwischen Folgen). Man spricht
daher auch vom Faltungsprodukt.
41
KAPITEL 1. SIGNALE
s[n]
s[n − 1]
D
h[0]
s[n − 2]
D
h[1]
D
h[2]
s[n − 3]
h[3]
r[n]
Abbildung 1.21: Implementation der Faltung durch Schieberegister.
Hat einer der beiden Signalvektoren (oder beide) im Faltungsprodukt nur eine endliche Länge,
so ist natürlich nur über die Indizes zu summieren, die tatsächlich auftreten.
Hat das Signal s [n] die Länge N und das Signal h [n] die Länge M , so hat das Signal h [n] ∗ s [n]
die Länge N + M + 1. Dann kann man die Faltung nach folgendem Rechenschema berechnen:
Es soll z.B. das Faltungsprodukt aus zwei Zeilenvektoren
1 2 3 ∗ 7 2 3 1
berechnet werden. Einen der beiden Vektoren
rechnen
7 2 3
1
2 1
3 2 1
3 2
3
muss man spiegeln. Wir spiegeln den ersten und
1
7
16
7 → 28
−
1
14
2
11
3
3
(1.166)
Das heißt:
1
2 3
∗
7
2 3
1
=
7
16 28 14 11 3
Wenn h [m] nur eine endliche Länge M hat, kann man die Faltung h [n] ∗ s [n] über eine Schieberegisterschaltung wie in Bild 1.21 implementieren. Hier ist M = 3 und
r [n] = h [0] s [n] + h [1] s [n − 1] + h [2] s [n − 2] + h [3] s [n − 3] .
(1.167)
Diese Schaltung vermittelt eine anschauliche Vorstellung von der Faltung: Die Faltung ist die
Überlagerung des Signals s [n] mit seinen verzögerten Versionen s [n − 1], s [n − 2],..., s [n − M ]
und den multiplikativen Vorfaktoren h [0] , h [1] , h [2] , ..., h [M ].
Bei MATLAB gibt es den Befehl conv (convolution=Faltung), mit dem man eine Faltung
durchführen kann.
Sind beide Signalvektoren gleich lang, z.B.


s [1]
 s [2] 




s =  s [3]  ,
 .. 
 . 
s [N ]




h=


h [1]
h [2]
h [3]
..
.
h [N ]







(1.168)
42
KAPITEL 1. SIGNALE
und faltet man h [n] mit dem gespiegelten Signal s [−n] und wertet das Ergebnis-Signal an der
Stelle n = 0 aus, so erhält man folgenden Ausdruck
[h [n] ∗ s [−n]]n=0 =
N
X
m=1
h [m] s [m − 0] .
(1.169)
Dies ist offenbar das Skalarprodukt der beiden Vektoren, wie wir es in der Vektorrechnung
kennengelernt haben, d.h. es gilt:
s·h=
N
X
m=1
s [m] h [m] = [h [n] ∗ s [−n]]n=0
(1.170)
Der Einheitsimpuls ist das multiplikative Einselement bezüglich der Faltung. Es gilt nämlich
δ [n] ∗ s [n] = s [n] ∗ δ [n] = s [n] .
(1.171)
Schreibt man das noch mal ausführlich hin als
s [n] =
∞
X
m=−∞
s [m] δ [n − m] ,
(1.172)
so sieht man, dass sich jedes Signal s [n] als Überlagerung von verzögerten Einsheitsimpulsen darstellen lässt, wobei die Vorfaktoren gerade die Werte des Signals an den jeweiligen Verzögerungen
sind. Aus Abbildung 1.17 wird dies noch einmal deutlich.
1.4
1.4.1
Die Diskrete Fouriertransformation (DFT)
Definition und Umkehrformel
Wir betrachten zunächst eine zeitdiskrete harmonische Schwingung
sω [n] = ejωn .
(1.173)
Im Gegensatz zu zeitkontinuierlichen harmonischen Schwingungen sind die zeitdiskreten in der
Regel nicht periodisch. Denn wäre sω [n] periodisch, so müsste es eine natürliche Zahl N geben,
sodass sω [0] = 1 = sω [N ]. Das kann aber nur dann gelten, ω · N ein Vielfaches von 2π ist, also
wenn es eine natürliche Zahl k gibt, sodass
ωN = k · 2π.
(1.174)
Ein beliebiges reelles ω steht aber in keinem derartigen rationalen Verhältnis zu 2π. Ist diese
Bedingung (1.173) dagegen erfüllt, so ist das Signal (1.174) periodisch.
In Folgenden betrachten wir nur solche periodischen Schwingugen. Für diese Schwingungen der
Gestalt (1.173) mit Periode N muss gelten
ω = ωk = 2π
k
,
N
k ∈ Z.
(1.175)
Für das Signal mit ω = ω1 ist N die Grundperiode, für ω = ω2 ist dies z.B. nicht mehr der Fall,
wenn N eine gerade Zahl ist. Dann ist die Grundperiode N/2. Entsprechendes gilt für ω3 usw.
43
KAPITEL 1. SIGNALE
Wir wollen uns die Bedingung (1.174) veranschaulichen, indem wir annehmen, dass das Signal
(1.173) durch Abtastung mit der Abstastfrequenz fA = t−1
A aus einer kontinuierlichen harmonischen Schwingung
s (t) = ej2πf t
(1.176)
hervorgegangen ist. Damit die Grundperiode N der Schwingung mit ω1 zu der Grundperiode T
zu der Frequenz f1 = 1/T passt, muss
T = N · tA
(1.177)
gelten, d.h. die Grundperiode mit ein Vielfaches der Abstastperiode sein. Im Frequenzbereich
kann man dies als
fA
f1 =
(1.178)
N
schreiben, d.h. die Grundschwingung muss ganzer Bruchteil der Abtastfrequenz sein. Diese beiden äquivalenten Bedingungen wollen wir als Rasterbedingungen bezeichen. Sie legen ein Zeitbzw. Frequenzraster fest, in dem zeitdiskret und periodisch kompatibel sind.
Für eine feste Zahl N ∈ N gibt es genau N verschiedene Schwingungen (1.175) mit ω = ωk
gemäß (1.173). Es ist nämlich
ωk+N = ωk + 2π,
(1.179)
was derselben Schwingung einspricht. Wir beschränken den Index deshalb auf
k ∈ {0, 1, 2, ..., N − 1} .
(1.180)
Ebenso können wir die N verschiedenen Schwingungen
sωk [n] = ejωk n
(1.181)
auf die Grundperiode der Länge N beschränken13 . D.h. wir beschränken uns auf die Zeitindizes
n = 0, 1, 2, ..., N − 1. Wir betrachten nun ein beliebiges zeitdiskretes Signal s [n] mit dieser Periode. Auch hier reicht es natürlich, nur eine Periode zu betrachten, d.h. wir betrachten den Vektor
s [0] , s [1] , s [2],...,s [N − 1]. Für dieses Signal definieren wir die Diskrete Fouriertransformation
(DFT).
Definition 13 (DFT) Die diskrete Fouriertransformation eines Vektors s[n] mit n = 0, 1, ..., N −
1 ist definiert als der Vektor
S [k] =
N
−1
X
s [n] exp (−j2πkn/N )
(1.182)
n=0
mit k = 0, 1, ..., N − 1. Die Zahl N nennt man die Länge der DFT.
Dies ist zunächst einmal nur eine Definition. Die DFT exisitiert immer, da die Summe endlich
ist.
Wir möchten gerne - wie bei der vertrauten Fourierreihe in Gleichung (1.50) - auch im zeitdiskreten Fall periodische Signale als eine Überlagerung von harmonischen Schwingungen schreiben
können. Diese Interpretation der DFT ergibt sich auch der Umkehrungformel, d.h. der inversen
DFT (IDFT).
13 Wenn
wir hier von Grundperiode sprechen, meinen wir die Grundperiode zu der Schwingung mit ω = ω1 .
44
KAPITEL 1. SIGNALE
Satz 2 (IDFT) Sei der Vektor S[k] gegeben durch die diskrete Fouriertransformation eines
Vektors s[n] nach Gleichung (1.182). Dann gilt
N −1
1 X
s [n] =
S [k] exp (j2πkn/N )
N
(1.183)
k=0
mit n = 0, 1, ..., N − 1.
Wir schreiben
s [n]
(1.184)
←DF
−−−T→ S [k] .
Die Umkehrformel heißt gerade: Wir können jedes zeitdiskrete Signal der Periode N als eine
Überlagerung der N verschiedenen harmonischen Schwingungen
sωk [n] = ejωk n ,
ωk = 2πk/N
(1.185)
ausdrücken. Die Vorfaktoren sind gegeben durch die Zahlen
1
S [k] ,
N
(1.186)
d.h. bis auf den Vorfaktor 1/N durch die Werte der DFT14 . Diese Zahlen entsprechen in ihrer
Bedeutung den Zahlen ck der Fourierreihe.
Die FFT mit MATLAB FFT (Fast Fourier Transform) heißt ein bestimmter schneler Algorithmus für die DFT. Mit S=fft(s) wird unter MATLAB die FFT durchgeführt. Die Umkehrtransformation erhält man mit s=fft(S). Hierbei ist s der Vektor im Zeitbereich und S
der Vektor im Frequenzbereich.
1.4.2
Aliasing
Um die IDFT mit der Fourierreihe zu vergleichen, schreiben wir beide Summen-Ausdrücke noch
einmal hin. Die Fourierreihe lautet
s (t) =
∞
X
k
ck ej2π T t
(1.187)
k=−∞
und die IDFT lautet
s [n] =
N −1
1 X
S [k] ej2πkn/N .
N
(1.188)
k=0
Wir tasten das kontinuierliche Signal ab und nehmen dabei an, dass die Rasterbedingungen
(1.177,1.178) erfüllt sind. Offenbar gilt dann
k
ej2π T t = ej2πkn/N
(1.189)
für alle Abtastzeitpunkte t = ntA . Allerdings tauchen in der Fourierreihe (1.187) unendlich viele
kontinuierliche Schwingungen mit den Frequenzen fk = k/T auf, aber es gibt nur N verschiedene diskrete harmonische Schwingungen. Also führen alle kontinuierlichen Schwingungen der
Frequenzen
fk , fk ± fA , fk ± 2fA , ...
(1.190)
14 Den
Vorfaktor 1/N mag man an dieser Stelle etwas störend finden. Man hätte ihn vermieden, wenn man
die DFT mit diesem Faktor und die IDFT ohne diesen Faktor definiert√hätte. Aber viele finden das auch nicht
schön. Man kann auch die DFT und die IDFT beide mit dem Faktor 1/ N definieren. Dann sehen die Hin- und
die Rücktransformation ähnlicher aus.
45
KAPITEL 1. SIGNALE
nach der Abtastung auf die selbe diskrete harmonische Schwingung, so dass nur N geschiedenen
übrigbleiben. Wir haben uns entschieden, den Frequenzindex von 0 bis N − 1 laufen zu lassen.
Vergleicht man dann die IDFT (1.188) mit der abgetasteten Fourierreihe
s [n] =
∞
X
ck ej2πkn/N ,
(1.191)
k=−∞
so erhält man
∞
X
1
ck+m .
S [k] =
N
m=−∞
(1.192)
D.h. nach einer Abtastung einer periodischen Funktion mit anschließender DFT-Analyse tauchen auch noch alle anderen Frequenz-Anteile der ursprünglichen Fourier-Reihe mit auf. Diese
anderen Frequenzen nennt man Alias-Frequenzen (lat.: die anderen), und der Effekt heißt Aliasing.
Damit gewährleistet ist, dass kein Aliasing auftritt, muss für alle Frequenzen fk , die in der
Fourierreihe nicht verschwindende Koeffizienten ck 6= 0 haben, die Bedingung
|fk | < fA /2
(1.193)
gelten15 . Es können also nur endlich viele Frequenzen in der Fouriereihe auftreten. Wenn die
Rasterbedingung fA = N · f1 erfüllt ist, muss man bei geradzahligem16 N wegen Gleichung
(1.193) die Randfrequenzen ±fN/2 ausschließen. Für geradzahliges N lautet dan) die Randfrequenzen ±fN/2 ausschließen. Für geradzahliges N lautet dann die endliche Fourierreihe für ein
periodisches Tiefpasssignal
N/2−1
X
k
ck ej2π T t .
(1.194)
s (t) =
k=−N/2+1
Das zugehörige abgetastete Signal lautet
N/2−1
s [n] =
X
ck ej2πkn/N .
(1.195)
k=−N/2+1
Wir vergleichen dies mit der IDFT (1.188) und lesen ab:
1
ck
: 0 ≤ k < N/2
S [k] =
ck−N : N/2 < k < N
N
(1.196)
Der Sonderfall k = N/2 entspricht genau der halben Abtastfrequenz. Die darüber liegenden
Indizes mit k > N/2 entsprechen den negativen Frequenzen.
1.4.3
Eigenschaften der DFT
Für die DFT gelten im Prinzip entsprechenden Eigenschaften wie für die Fourierreihe und die
kontinuierliche Fouriertransformation. Man muss jetzt nur beachten, dass wir es mit endlichen
Vektoren zu tun haben. Diese Vektoren muss man sich zyklisch vorstellen. Bei der “normierten
Kreisfrequenz” ω haben wir dies schon diskutiert. Hier ist es genauso, nur dass die Frequenzen
diskret sind. Und es gilt auch im Zeitbereich, schließlich haben wir es mit periodischen Signalen
zu tun.
15 |f | =
k
16 In der
fA /2 dürfen wir nicht erlauben. Es lassen sich Beispiele finden, warum das nicht geht.
Praxis ist N in der Regel geradzahlig.
46
KAPITEL 1. SIGNALE
Vereinbarung über zyklische Signale
Für die Signale s [n] und S [k] und die DFT-Länge N gilt folgende Vereinbarung: Wenn der
Index n bzw. k außerhalb seines natürlichen Definitionsbereiches n, k ∈ {0, 1, ...N − 1} liegt, so
ist so oft N zu addieren oder zu subtrahieren, bis der Index in diesem Bereich liegt. Für N = 8
ist zum Beispiel s [9] und s [17] und s [−7] gleichbedeutend mit s [1].
Diese Vereinbarung dient dazu, die Notation zu entlasten.
Interpretation als Spektrum
2
Wenn kein Aliasing vorliegt, können wir die Zahlen |S [k] /N | als Spetrum des abgetasteten
Signals interpretieren.
Energiedichte
Für die DFT lässt sich die Parsevalsche Gleichung (1.53) der Fourierreihe entsprechend übertragen.
Man erhält für die mittlere Leistung
N −1
N
−1 X
S [k] 2
1 X
2
Ps =
|s [n]| =
(1.197)
N N n=0
k=0
Auf der rechten Seite steht der Ausdruck für die Leistung im Frequenzbereich. Wir können die
Gleichung natürlich auch schreiben als
N
−1
X
n=0
2
|s [n]| =
N −1
1 X
2
|S [k]| ,
N
(1.198)
k=0
aber in der ersten Version kann ich sie mir besser merken.
Der Faltungssatz für die zyklische Faltung
Wenn wir zwei gleich lange Vektoren h [n] und s [n] der Länge N mit einander zyklisch falten,
so bedeutet dies, dass wir in der Formel für die Faltung
h [n] ∗cycl s [n] =
N
−1
X
m=0
h [m] s [n − m]
(1.199)
die obige Vereinbarung über zyklische Signale beachten müssen.
Beispiel zyklische Faltung;
Rechenschema;
Veranschaulichung
über
zwei Räder
Das Ergebnis der zyklischen Faltung ist wieder ein Vektor der Länge N .
Dann kann man die zyklische Faltung nach folgendem Rechenschema berechnen:
Es soll z.B. das Faltungsprodukt aus zwei Zeilenvektoren
1 2 3 4 ∗cycl 7 2 3
berechnet werden. Einen der beiden Vektoren
rechnen
7 2 3
1 4 3
2 1 4
3 2 1
4 3 2
1
muss man spiegeln. Wir spiegeln den ersten und
1
2
3
7−→
4
1
26
31
32
41
(1.200)
47
KAPITEL 1. SIGNALE
Das heißt:
1
2 3
4
7
∗cycl
2
3 1
26 31 32
=
41
Satz 3 (Faltungssatz DFT) Der zyklischen Faltung der diskreten Signale im Zeitbereich entspricht eine Multiplikation der DFTs im Frequenzbereich: Die DFT des Signals h[n] ∗ s[n] ist
gegeben durch H [k] · S [k].
In Kurzschreibweise lautet der Satz
h [n] ∗cycl s [n]
←DF
−−−T→
H [k] · S [k]
(1.201)
Da die IDFT fast genau das Gleiche ist wie die DFT, gilt der Faltungssatz “rückwärts” auch.
Man muss nur etwas aufpassen mit den Faktor 1/N .
h [n] · s [n]
DF
←
−−−T→
1
H [k] ∗cycl S [k]
N
(1.202)
Verschiebungssätze
Hier ist die obige Vereinbarung über zyklische Signale von zentraler Bedeutung. Wenn s [n] ein
zyklisches Signal ist der Länge N , so ist s [n − 1] das um einen Takt zyklisch verschobene.
Schreiben wir das Signal s [n] als einen Vektor


s [0]


s [1]




s [2]
(1.203)
s=
,


..


.
s [N − 1]
so schreiben wir das um einen Takt verschobenen Signal s [n − 1] als Vektor


s [N − 1]


s [0]




s [1]
s1 = 
.


..


.
(1.204)
s [N − 2]
Am besten stellt man sich das auf einem Kreis vor!
Die Verschiebungssätze der DFT lauten nun
s [n − 1]
und
−j2πk/N
DF
· S [k]
←
−−−T→ e
ej2πn/N · s [n]
DF T
S [k − 1]
←−−−→
Man erhält hier hier zwei praktisch wichtige Folgerungen. Für geradzahlige N gilt:
n
(−1) · s [n]
s [n − N/2]
DF
←
−−−T→ S [k − N/2] .
←DF
−−−T→
k
(−1) · S [k] .
(1.205)
(1.206)
(1.207)
(1.208)
48
KAPITEL 1. SIGNALE
Tabelle 1.2: DFT-Tabelle
s [n]
δ [n]
1
δ [n − n0 ]
exp (j2πk0 n/N )
cos (2πk0 n/N )
sin (2πk0 n/N )
N
2
N
2j
S [k]
1
N · δ [k]
exp (−j2πkn0 /N )
N · δ [k − k0 ]
· (δ [k − k0 ] + δ [k + k0 − N ])
· (δ [k − k0 ] − δ [k + k0 − N ])
Symmetriesätze
Wir schreiben
s∗ [n] = (s [n])∗
und
S ∗ [k] = (S [k])∗
für konjugiert komplexe Größen. Für verschobene und für gespiegelte müssen wir wieder die
Vereinbarung über zyklische Signale beachten. Bei der Spiegelung müssen wir beachten, dass wir
s [−n] durch s [N − n] ersetzen müssen.
Dann gilt
s∗ [n]
∗
DF
(1.209)
←
−−−T→ S [N − k] ,
d.h. das komplex konjugierte Zeitsignal entspricht der gespiegelten komplex konjugierten Spektralfunktion.
Folgerung 1 Bei einem reellen Zeitsignal s[n] hat die Spektralfunktion die Eigenschaft S [k] =
S ∗ [N − k].
Diese Eigenschaft kennen wir in entsprechender Form schon von der kontinuierlichen Fouriertransformation, der ZFT und von der Fourierreihe.
Umgekehrt gilt:
s∗ [N − n]
DF T
S ∗ [k] ,
(1.210)
←−−−→
d.h. die komplex konjugierte Spektralfunktion entspricht dem gespiegelten komplex konjugierten
Zeitsignal.
Außerdem gilt
s [N − n]
(1.211)
←DF
−−−T→ S [N − k] ,
d.h. Spiegeln im Zeitbereich entspricht Spiegeln im Frequenzbereich. Insbersondere gilt: Eine im
Zeitbereich symmetrische Funktion ist auch im Frequenzbereich symmetrisch.
Folgerung 2 Bei einem reellen und symmetrischen Zeitsignal ist auch die DFT reell und symmetrisch.
Einige spezielle DFTs sind in Tabelle 1.2 aufgeführt.
Kapitel 2
Zeitdiskrete LTI-Systeme
2.1
Grundbegriffe und Beispiele
2.1.1
Die Definition des LTI-Systems
Definition 14 (System) Unter einem System versteht man Gerät, das einen Eingang und
einen Ausgang hat und einem Signal, das am Eingang anliegt, eindeutig ein Signal am Ausgang
zuordnet.
Mathematisch ist ein System also einfach eine Zuordnung1 zwischen zwei Signalen. Man kann
das schreiben:
System : s 7→ r,
wobei s das Inputsignal am Eingang und r das Outputsignal am Ausgang ist. Im Deutschen
sagt man Systemanregung und Systemantwort.
Was innerhalb des Systems genau passiert, ist für die Systemtheorie uninteressant. Wir betrachten es als eine Black Box und stellen diese symbolisch wie in Abbildung 2.1 dar. In der Praxis
kann es durch eine elektrische (analoge oder digitale) Schaltung realisiert sein oder z.B. durch
den Übertragungskanal beim Mobilfunk. Auch das Pohlsche Drehpendel, das Sie aus dem physikalischen Praktikum kennen, ist ein System. Es verhält sich systemtheoretisch übrigens genauso
(stellt also dasselbe System dar) wie ein elektrischer Schwingkreis mit Spule, Kondensator und
Widerstand. Das Wetter und die Wirtschaft sind in diesem Sinne auch System, aber ziemlich
komplizierte.
1 Der
Mathematiker würde sagen: Abbildung.
s
-
System
Anregung
(Input)
r
-
Antwort
(Output)
Abbildung 2.1: Darstellung eines Systems.
49
50
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
s1
r1
s2
r2
α1 s1 + α2 s2
-
System
Anregung
(Input)
α r1 + α2 r2
-1
Antwort
(Output)
Abbildung 2.2: Lineares System.
Bei zeitkontinuierlichen Systemen schreibt man s (t) und r (t) für Input und Output2 , bei zeitdiskreten s [n] und r [n]3 . Wir betrachten zunächst die zeitdiskreten, weil sie mathematisch etwas
einfacher sind.
Wir beschränken uns in dieser Vorlesung auf lineare Systeme:
Definition 15 (Lineare Systeme) Ein System heißt linear, wenn es dem Superpositionsprinzip (Überlagerungsprinzip) gehorcht: Die Überlagerung zweier Input-Signale resuliert am Ausgang zin der Überlagerung der beiden zugehörigen Output-Signale.
Wir können das mathematisch so schreiben: Wenn
s1 7→ r1
und
dann gilt
s2 7→ r2 ,
α1 s1 + α2 s2 7→ α1 r1 + α2 r2 ,
(2.1)
wobei α1 und α2 beliebige (reelle oder komplexe) Koeffizienten sind, siehe auch Abbildung 2.2.
Das Superpositionsprinzip ist Ihnen aus der Physik vertraut, wo es u.a. für Wellen gilt. Linear Differentialgleichungen führen auf lineare Systeme. Es gibt durchaus sehr viele wichtige
Phänomene, die durch nichtlineare Differentialgleichungen beschrieben werden. Die nichtlineare Systemtheorie ist ungleich schwieriger als die lineare. Man hat hier in den letzten Jahrzehnten (auch mit Hilfe schnellerer Rechner) große Fortschritte gemacht und viele interessante
Phänomene entdeckt, die unter dem Stichwort Chaostheorie populär geworden sind.
Wir wollen die Klasse der betrachteten Systeme noch weiter einschränken und nur zeitinvariante
Systeme betachten. Zeitinvariante Systeme sind solche, deren Eigenschaften sich zeitlich nicht
verändern.
Definition 16 (Zeitinvariante Systeme) Ein System heißt zeitinvariant, wenn ein zeitlich
verzögertes Input-Signal dasselbe Output-Signal mit der entsprechenden Verzögerung erzeugt.
Das heißt also, wenn
s 7→ r
ein zeitdiskretes System beschreibt und s1 [n] = s [n − 1] das um einen Takt verzögerte Inputsignal ist, dann gilt auch
s1 7→ r1 ,
2 oder
3 oder
auch s (•) und r (•)
auch s [•] und r [•]
51
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
wobei r1 [n] = r [n − 1] das um einen Takt verzögerte Outputsignal ist.
Systeme, die diese Bedingung nicht erfüllen, heißen zeitvariant. Sie spielen durchaus eine wichtige
Rolle, z.B. im Mobilfunk.
Definition 17 (LTI-Systeme) Lineare, zeitinvariante Systeme nennt man LTI-Systeme (linear time-invariant).
2.1.2
Beschreibung durch die Impulsantwort
Im Folgenden wollen wir LTI-Systeme charakterisieren. Dazu benötigen wir die
Definition 18 (Impulsantwort) Die Antwort eines LTI-Systems auf den Einheitsimpuls δ[n]
bezeichnet man als die Impulsantwort des Systems.
Es gilt nun der folgende
Satz 4 (Charakterisierung durch Impulsantwort) Jedes LTI-System lässt sich eindeutig
durch seine Impulsantwort h[n] charakterisieren. Zwischen Input s[n] und Output r[n] besteht
der Zusammenhang:
r[n] = h[n] ∗ s[n].
(2.2)
Zum Beweis:
Die Antwort des Systems auf den Einheitsimpuls ist nach Definition die Impulsantwort, d.h.
δ [n] 7→ h [n] .
Wegen der Zeitinvarianz ist die Antwort auf den verögerten Einheitsimpuls die entsprechend
verzögerte Impulsantwort:
δ [n − 1] 7→ h [n − 1] ,
δ [n − 2] 7→ h [n − 2] ,
δ [n − 3] 7→ h [n − 3] ,
usw. Wegen der Linearität ist der Output zu einer Superposition der verzögerten Einheitspulse
gerade die Superposition der entsprechend verzögerten Impulsantworten:
a0 δ [n] + a1 δ [n − 1] + a2 δ [n − 2] + ... 7→ a0 h [n] + a1 h [n − 1] + a2 h [n − 2] + ...
Etwas allgmeiner:
∞
X
m=−∞
d.h.
s [m] δ [n − m] 7→
∞
X
m=−∞
s [m] h [n − m] ,
s [n] ∗ δ [n] = s [n] 7→ s [n] ∗ h [n] .
Bezeichnet man mit r [n] die Systemantwort auf s [n], so gilt also
r [n] = s [n] ∗ h [n] = h [n] ∗ s [n] ,
was zu beweisen war. Eine wichtige Folgerungs aus dem obigen Satz ist die
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
52
Folgerung 3 (Reihenfolge von LTI-Systemen) Bei zwei LTI-Systemen kommt es nicht darauf an, in welcher Reihenfolge ein Signal sie durchläuft.
Denn: Wenn wir zwei LTI-Systeme haben, die durch die Impulsantworten g [n] h [n] beschrieben
werden, so ist die Anwort des zusammengesetzten Systems auf die Anregung s [n] in dem einen
Fall gegeben durch
r [n] = g [n] ∗ h [n] ∗ s [n]
und in dem anderen Fall gegeben durch
r [n] = h [n] ∗ g [n] ∗ s [n] .
Wegen der Kommutativität der Faltung
g [n] ∗ h [n] = h [n] ∗ g [n]
ist beides gleich.
Bild:
Vertauschbarkeit
Wir haben hier stillschweigend auch die Assoziätivität der Faltung verwendet: Es kommt bei
einem wiederholten Faltungsprodukt nicht darauf an, welches zuerst ausgerechnet wird. Deshalb der Reihenfolge
kann man auf eine Klammerung verzichten. Um die Bedeutung besser zu versthen, schreiben
wir etwas ausführlicher:
r [n] = g [n] ∗ (h [n] ∗ s [n]) = g [n] ∗ h [n] ∗ s [n]
Es wird also zunächst mit der Impulsantwort h [n] des ersten Systems gefaltet und dann mit der
Impulsantwort des zweiten Systems g [n]. Man arbeitet also die Faltungen von rechts nach links
ab, die Reihenfolge ist also anders als üblicherweise im Blockschaltbild.
Für linear-zeitvariante System ist die Reihenfolge übrigens wichtig!
Jetzt wollen wir noch zwei wichtige Eigenschaften definieren, die alle anständigen, praktisch
realisierbaren LTI-Systeme haben sollten:
Kausalität und Stabilität
Bei in Echtzeit realisierbaren LTI-Systeme kann die Impulsantwort nicht vor dem Impuls kommen.
Definition 19 (Kausalität) Ein LTI-System heißt kausal, wenn für seine Impulsantwort für
negative Zeiten Null ist:
h [n] = 0 (n < 0).
(2.3)
Solche Systeme nennt man kausal. Man kann dann schreiben:
r [n] =
∞
X
m=0
h [m] s [n − m] .
(2.4)
Systeme, die sich anständig verhalten und nicht bei einer begrenzten Anregung unbegrenzte
Antworten ergeben (also sozusagen eine Explosion auslösen), nennt man stabil. Die folgende
Definition der Stabilität liefert eine hinreichende Bedingung für diese Eigenschaft:
Definition 20 (Stabilität) Ein LTI-System heißt stabil, wenn für seine Impulsantwort h[n]
gilt:
∞
X
|h[n]| < ∞.
(2.5)
n=−∞
53
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
s[n]
-r[n]
6
ar[n − 1]
?
a
D
6
r[n − 1]
Abbildung 2.3: Das einfachste rekursive Filter.
Der ideale Integrator (Akkumulator)
Ein in diesem Sinne nicht anständiges (aber trotzdem wichtiges System) ist der Akkumulator,
den man als eine diskrete Version des idealen Integrators ansehen kann. Er summiert einfach
alle Werte des Input-Signals s [n] auf. Der Output ist also
r [n] =
n
X
s [n] .
(2.6)
m=−∞
Die Impulsantwort lautet (Übung!)
h [n] = [n] .
2.1.3
(2.7)
Einfache Beispiele für digitale Filter
Bevor wir die Systeme weiter charakterisieren, bringen wir ein paar einfache Beispiele, die sich
durch Schieberegisterschaltungen realisieren lassen.
Ein einfaches FIR-Filter
Das einfachste System haben wir bei der Einführung der diskreten Faltung kennen gelernt. Es
ist beschrieben durch
r [n] = h [0] s [n] + h [1] s [n − 1] + h [2] s [n − 2] + ... + h [M ] s [n − M ]
(2.8)
und wurde bereits in Abbildung 1.21 für M = 3 dargestellt. Man spricht von einem finite impulse response (FIR) - Filter der Ordnung M . Kausale FIR-Filter sind durch vorwärtsgekoppelte
Schieberegisterschaltungen beschrieben und haben eine endlich lange Impulsantwort. Solche Systeme sind immer stabil.
Ein einfaches IIR-Filter
Abbildung 2.3 zeigt das einfachste rekursive Filter. Es ist beschrieben durch die rekursive Gleichung
r [n] = s [n] + a r [n − 1] , a ∈ R.
(2.9)
54
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
1
0.9
0.8
Amplitude
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
5
10
15
20
n (samples)
25
30
35
Abbildung 2.4: Impulsantwort des einfachsten rekursiven Filters.
Man nennt die Struktur rekursiv, weil der aktuelle Output r [n] nicht nur vom Input, sondern
auch vom vorherigen Output r [n − 1]. Anstatt diese Rekursionsgleichung nun für einen beliebigen Input s [n] zu lösen (was für diese einfache Rekursion gar nicht so schwer ist), reicht es,
s [n] = δ [n] zu betrachten. Wir wissen ja das lineare Systeme eindeutig durch ihre Impulsantwort beschrieben sind. Für n < 0 ist die Impulsantwort offenbar Null. Wir beginnen also bei Verständnisfrage:
n = 0 und setzen in die Rekursionsgleichung (2.9) ein:
Können Sie beweisen,
dass
h [0] = 1
das
System
linear ist?
h [1] = a h [0] = a
h [2] = a h [2] = a2
h [3] = a h [2] = a3
...
h [n] = a h [n − 1] = an
Die Impulsantwort lautet also
h [n] = an [n]
(2.10)
und fällt offensichtlich exponentiell ab. Sie ist für a = 0.9 in Abbildung 2.4 dargestellt. Für
a < 0 alterniert das Vorzeichen.
Das durch Gleichung (2.9) bzw. (2.10) beschriebene System bezeichnet man als infinite impulse
response (IIR) - Filter. IIR-Filter können instabil sein.
55
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
Differenzengleichungen und digitale Filter
Wir betrachten ein FIR-Filter der Ordnung M mit Filterkoeffizienten b[m], das beschrieben ist
durch die vorwärtsgekoppelte Gleichung
u [n] = b[0]s[n] + b[1]s[n − 1] + b[2]s[n − 2] + ... + b[M ]s[n − M ]
bzw.
u[n] =
M
X
m=0
b[m]s[n − m].
(2.11)
(2.12)
Hier ist u[n] der Ouput, und die Impulsantwort ist der Vektor der Filterkoeffizienten.
Jetzt betrachten wir ein nachgeschaltetes rekursives Filter mit Output r[n], für das u[n] der
Input ist und das durch die rekursive Gleichung
r[n] = u[n] − a[1]r[n − 1] − a[2]s[n − 2] − ... − a[M ]s[n − M ]
(2.13)
beschrieben ist. Die Zahlen a[m] nennt man wieder Filterkoeffiezienten, die Ordnung des Filters
ist wieder M . Wir definieren
a[0] = 1
(2.14)
und schreiben
a[0]r[n] + a[1]r[n − 1] + a[2]s[n − 2] + ... + a[M ]s[n − M ] = u[n]
bzw.
M
X
m=0
a[m]r[n − m] = u[n].
(2.15)
(2.16)
Die Gleichungen (2.12,2.16) ergeben zusammen
M
X
m=0
a[m]r[n − m] =
M
X
m=0
b[m]s[n − m].
(2.17)
Eine solche Gleichung nennt man Differenzengleichung. Sie beschreibt ein sehr allgemeines digitales Filter. Die Bezeichnung kommt daher, dass in der Gleichung Zeitdifferenzen auftreten.
Differenzengleichungen sind das diskrete Analogon zu den Differentialgleichungen, mit denen
bekanntlich analoge Filter beschrieben werden. Wie bei den analogen Filtern vermeidet man es
jedoch meist, die Gleichungen im Zeitbereich zu lösen und geht statt dessen zu einer Darstellung
im Frequenzbereich über. Wie das geht, wollen wir im Folgenden zeigen.
2.1.4
Beschreibung durch die Sprungantwort
Sei ein LTI-System gegeben durch seine Impulsantwort h [n]. Die Anwort auf ein Input-Signal
s [n] ist dann gegeben durch
r [n] = h [n] ∗ s [n] =
∞
X
m=−∞
h [m] s [n − m]
(2.18)
Wir betrachten als speziellen Input das Signal s [n] = [n] und definieren
Definition 21 (Sprungantwort) Die Anwort eines LTI-Systems auf die Anregung durch den
Einheitssprung [n] nennt man die Sprungantwort des Systems.
56
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
e−jω
Abbildung 2.5: Die Übertragungsfunktion für ein zeitdiskretes Verzögerungsglied.
Wir bezeichnen die Sprungantwort mit g [n] und erhalten
g [n] =
∞
X
m=−∞
h [m] [n − m] =
n
X
h [m] .
(2.19)
m=−∞
Die Sprungantwort ist also die kumulierte Summe 4 der Impulsantwort. Umgekehrt bekommt
man aus der Sprungantwort die Impulsantwort durch diskretes Differenzieren:
h [n] = g [n] − g [n − 1] .
(2.20)
Wenn man die Sprungantwort kennt, kann man daraus leicht die Impulsantwort berechen. Also
liefert auch die Sprungantwort eine eindeutige Charakterisierung des LTI-Systems. Eine dritte
Möglichkeit werden wir im nächsten Unterabschnitt kennen lernen.
Als Beispiel wollen wir die Sprungantwort für das rekursive LTI-System aus Gl. (2.9) berechnen,
dessen Impulsantwort gegeben ist durch Gl. (2.10). Aus der Summenformel für die endliche
geometrische Reihe
n
X
1 − q n+1
qn =
(2.21)
1−q
i=0
erhalten wir
g[n] =
2.1.5
1 − an+1
.
1−a
(2.22)
Beschreibung durch die Übertragungsfunktion
Wir betrachten eine zeitdiskrete harmonische Schwingung der Gestalt
sω [n] = ejωn .
(2.23)
Wir verzögern dieses Signal um einen Takt und erhalten
sω [n − 1] = ejω(n−1)
(2.24)
sω [n − 1] = e−jω sω [n] .
(2.25)
d.h.
Die Verzögerung um eines Takt bewirkt bei einer harmonischen Schwingung einfach nur die
Multiplikation mit dem Faktor e−jω . Diesen Faktor nennen wir die Übertragungsfunktion der
Verzögerung (bzw. des Verzögerungsgliedes im Schieberegister), siehe Abbildung 2.5.
Für Verzögerungen um mehrere Takte gilt entsprechend
sω [n − 2] = e−j2ω sω [n]
4 Die
kumulierte Summe ist das diskrete Analogon zum Integral g(t) =
(2.26)
Rt
−∞
h(τ )dτ .
57
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
sω [n − 3] = e−j3ω sω [n]
(2.27)
...
sω [n − m] = e−jωm sω [n]
(2.28)
Bei der letzten Gleichung muss man etwas aufpassen: n ist der Laufindex (die diskrete Zeitvariable), und m ist eine feste Zahl, z.B. m = 7. Etwas deutlicher wird das, wenn man schreibt
sω [· − m] = e−jωm sω [·] .
(2.29)
Wir betrachten nun ein kausales LTI-System, wie es durch Gleichung (2.4) beschrieben ist und
regen es mit der zeitdiskreten harmonschen Schwingung sω [n] an. Für die Antwort rω [n] gilt
dann
∞
X
rω [n] =
h [m] sω [n − m] .
(2.30)
m=0
Wir verwenden die Eigenschaft (2.28) und können dafür schreiben
!
∞
X
−jωm
rω [n] =
h [m] e
sω [n] .
(2.31)
m=0
Wir haben hier (eigentlich unnötige) Klammern gesetzt, um damit deutlich zu machen, dass
auf der rechten Seite nur noch ein Produkt steht und wir das Signal sω [n] aus der Summer
herausgezogen haben. Auf eine Anregung mit der harmonischen Schwingung reagiert das System
durch Multiplikation mit der Übertragungsfunktion
H e
jω
=
∞
X
h [m] e−jωm .
(2.32)
m=0
Die Antwort
rω [n] = H ejω sω [n]
(2.33)
ist wieder eine harmonische Schwingung derselben Frequenz.
Definition 22 (Übertragungsfunktion) Ein LTI-System sei gegeben durch seine Impulsantwort h[n]. Die Größe
∞
X
jω
H e
=
h[n] exp (−jωn)
(2.34)
n=−∞
nennt man die Übertragungsfunktion des Systems.
Diese Definition beinhaltet auch nichtkausale Systeme, für die die Beschreibung (2.33) ebenfalls
gültig ist. Nur kann man diese nicht so schön durch Schieberegisterschaltungen beschreiben.
Da der Output rω [n] wieder eine harmonische Schwingung ist, gilt auch für diese
rω [n − m] = e−jωm rω [n]
(2.35)
Dadurch kann man für eine harmonische Anregung die Differenzengleichung, die das System beschreibt, sehr einfach in eine algebraische Gleichung transformieren, aus der sich die Übertragungsfunktion
ergibt. Wir zeigen das zunächst an zwei Beispielen:
58
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
s[n]
r[n]
e−jω
e−jω
b
−a
Abbildung 2.6: Beispiel 2.
1. Beispiel: Das Filter in Abbildung 2.3 wird beschrieben durch
rω [n] = sω [n] + ae−jω rω [n]
(2.36)
und hat die damit die Übertragungsfunktion
H ejω =
1
.
1 − ae−jω
(2.37)
2. Beispiel: Das Filter in Abbildung 2.6 wird beschrieben durch
sω [n] + be−jω sω [n] = rω [n] + ae−jω rω [n]
(2.38)
und hat die damit die Übertragungsfunktion
1 + b e−jω
H ejω =
.
1 + a e−jω
(2.39)
Die Reihenfolge ist bei LTI-Systemen gleichgültig. Dies spiegelt sich darin wieder, dass die
Übertragungsfunktion das Produkt der einzelnen Übertragungsfunktionen ist, wobei es bei einem
gewöhnlichen Produkt von Funktionen ja auch nicht auf die Reihenfolge ankommt.
Veranschaulichung der Übertragungsfunktion
Wir interpretieren die Übertragungsfunktion
H ejω = A ejω exp jΦ ejω
(2.40)
als Frequenzgang eines, den man in Amplitudengang und Phasengang zerlegen kann: Bei der
normierten Kreisfrequenz ω dämpft das System die Amplitude
einer harmonischen Schwingung
um A ejω und dreht die Phase mit den Zeiger exp jΦ ejω .
Die Übertragungsfunktion H ejω ist eine zyklische Funktion. Dies bedeutet, dass ihr Definitionsbereich der Einheitskreis ist. Ein Punkt des Einheitskreises lässt sich eindeutig durch seinen
Winkel ω beschreiben. Es ist Geschmackssache, ob man diesen Winkel von 0 bis 2π laufen lässt
oder von −π bis π. Die erstere Sichtweise wird in der Signalverarbeitung bevorzugt. Ein Kreis
hat keinen Anfang und kein Ende, anders als z.B. das Intervall [0, 2π). Wenn man die Spektralfunktion zeichnen will, wäre dazu eine Litfaßsäule am besten geeignet. Um die Zeichnung an die
59
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
|H(ejω )|2
−π
0
ω
π
|H(ejω )|2
0
ω
π
2π
Abbildung 2.7: Verschiedene Sichtweisen der selben zyklischen Übertragungsfunktion für ein
Tiefpassfilter.
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
60
Tafel zu bringen, muss man das Plakat an irgend einer Stelle auftrennen. Man kann das z.B.
bei ω = 0 tun oder auch bei ω = π, siehe Abbildung 2.7, wo ein Tiefpassfilter gezeigt ist. In
beiden Fällen bekommt man an der Tafel unterschiedliche Bilder, die aber zu dem selben Bild
an der Litfaßsäule gehören. Die negativen Frequenzen korrespondieren zu dem unteren Teil des
Einheitskreises. Diese liegen also links von der Mitte im oberen Bild und rechts von der Mitte
im unteren Bild.
Wegen der zylischen Natur der Übertragungsfunktion schreibt man auch H ejω und nicht etwa
H (ω). So ist H wirklich eine Funktion, die auf dem Kreis lebt.
Reelle Impulsantwort
Symmetrieeigenschaft
Wenn h [n] reell ist, gilt für die Übertragungsfunktion immer die
∗
H ejω = H e−jω
.
Dann ist der Amplitudengang eine gerade Funktion und der Phasengang eine ungerade Funktion.
Berechnung der Impulsantwort aus der Übertragungsfunktion Aus einer gegebenen
Übertragungsfunktion möchte man die Impulsantwort ermitteln. Mathematisch geht das zwar
theoretisch durch Umkehrung der Gleichung (2.32). Da in der Praxis H i.A. eine rationale
Funktion in der Variablen e−jω ist, kann man auch so vorgehen: Man führt eine Patialbruchzerlegung durch und entwickelt die Brüche dann in eine geometrische Reihe. Dann erhält man die
Impulsantwort durch Koeffizientenvergleich.
61
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
2.2
2.2.1
Strukturen digitaler Filter
Vorwärtsgekoppelte Filter
Ein vorwärtsgekoppeltes (auch: FIR wie finite impulse response) Filter ist in Abbildung 2.8
gezeigt. Zwischen dem Input-Signal s[n] und dem Output r[n] gilt folgende Differenzengleichung:
r[n] = b[0]s[n] + b[1]s[n − 1] + b[2]s[n − 2] + ... + b[M ]s[n − M ]
bzw.
r[n] =
M
X
m=0
b[m]s[n − m].
(2.41)
(2.42)
Die Ordnung des Filters ist M , und die M + 1 Filterkoeffizienten lauten b[0], ..., b[M ]. Im Frequenzbereich ist dieses Filter gegeben durch seine Übertragungsfunktion
M
X
b[m]e−jωm .
Hb ejω =
(2.43)
m=0
s[n]
-
-
r[n]
6
-
-
-
-
-
?
D
?
D
?
b[0]
b[1]
b[2]
?
D
6
6
6
- b[M]
Abbildung 2.8: FIR- Filter
2.2.2
Rückwärtsgekoppelte Filter
Ein rückwärtsgekoppeltes (auch: rekursives) Filter ist in Abbildung 2.9 gezeigt. Zwischen dem
Input-Signal s[n] und dem Output r[n] gilt folgende Differenzengleichung:
r[n] = s[n] − a[1]r[n − 1] − a[2]s[n − 2] − ... − a[M ]s[n − M ].
(2.44)
62
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
Wir definieren einen weiteren Filterkoeffizienten
a[0] = 1
und bekommen
M
X
m=0
(2.45)
a[m]r[n − m] = s[n].
(2.46)
Die Ordnung des Filters ist M , und die M + 1 Filterkoeffizienten lauten a[0], ..., a[M ]. Im Frequenzbereich ist dieses Filter gegeben durch seine Übertragungsfunktion
Ha ejω = PM
1
−jωm
m=0 a[m]e
s[n]
-
(2.47)
r[n]
-
6
?
6
−a[1] 6
−a[2] 6
.
D
?
D
?
?
−a[M]
D
Abbildung 2.9: Rekursives Filter
2.2.3
Allgemeine IIR-Filter
Ein allgemeines Filter mit unendlich langer Impulsantwort (IIR-Filter wie infinite impulse response) erhält man, indem man ein FIR-Filter und ein rekursives Filter hinter einander schaltet. Hierbei kommt es nicht auf die Reihenfolge an. In der Schaltung in Abbildung 2.10 kommt
zunächst das FIR-Filter und dann das rekursive Filter, in der Schaltung in Abbildung 2.11 ist
die Reihenfolge andersherum. Beide Schaltungen bewirken das selbe, aber der Implementationsaufwand ist unterschiedlich. Im ersten Fall wird mehr Speicherplatz benötigt, im zweiten mehr
Rechenoperationen.
63
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
s[n]
?
D
?
D
?
- b[0]
-
- b[1]
-
- b[2]
-
-
-
?
D
- b[M]
r[n]
6
-
?
6
−a[1] 6
−a[2]
6
D
?
D
.?
?
D
−a[M]
Abbildung 2.10: Allgemeines digitales Filter Struktur I
Die Übertragungsfunktion lautet
PM
−jωm
m=0 b[m]e
H ejω = PM
.
−jωm
m=0 a[m]e
(2.48)
Die Differenzengleichung lässt sich am besten aus der Struktur von Abbildung 2.10 erkennen.
Bezeichnet man den Input mit s[n] und den Output des ersten (FIR) Filters mit u[n], so gilt
u[n] =
M
X
m=0
b[m]s[n − m].
(2.49)
Dies ist der Input für das dahinter geschaltete rekursive Filter, d.h. zwischen den Input u[n] und
dem Output r[n] des rekursiven Filters gilt die Beziehung
M
X
m=0
a[m]r[n − m] = u[n].
(2.50)
Damit folgt die Differenzengleichung
M
X
m=0
a[m]r[n − m] =
M
X
m=0
b[m]s[n − m].
(2.51)
Digitale Filter mit MATLAB Mit r=filter(b,a,s) wird digital gefiltert. Hierbei ist s
der Vektor mit dem Input-Signal s[n], r der Vektor mit dem Output-Signal s[n] und b,a die
Vektoren mit den Filter-Koeffizienten b[n], a[n]. Es muss a[0] = 1gelten.
64
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
s[n]
-
6
-
r[n]
-
-
-
-
-
?
6
−a[1]
6
−a[2]
6
-
D
?
D
?
b[0]
b[1]
b[2]
?
−a[M]
D
6
-
6
6
6
- b[M]
Abbildung 2.11: Allgemeines digitales Filter Struktur II
2.3
Die Zeitdiskrete Fouriertransformation (ZFT)
Wir haben die Übertragungsfunktion
H ejω = A ejω exp jΦ ejω
(2.52)
als Frequenzgang eines Systems interpretiert, den man in Amplitudengang und Phasengang
zerlegen kann: Bei der normierten Kreisfrequenz
ω dämpft das System die Amplitude
einer
harmonischen Schwingung um A ejω und dreht die Phase mit den Zeiger exp jΦ ejω .
Jede Impulsantwort h [n] kann man natürlich als ein zeitdiskretes Signal auffassen. Man kann
dieses ganz einfach dadurch generieren, indem man das System mit dem Einheitsimpuls δ [n]
anregt. Deshalb kann man die Übertragungsfunktion auch so interpretieren, dass sie die Spektralanteile dieses zeitdiskreten Signals h [n] darstellt. Wir möchten diese Interpretation einer
Spektralfunktion ganz allgemein für zeitdiskrete Signale haben und definieren für ein beliebiges
zeitdiskretes Signal:
Definition 23 (Zeitdiskrete Fouriertransformation) Für ein zeitdiskretes Signal s[n] definieren wir die zeitdiskrete Fouriertransformation (ZFT) als
∞
X
S ejω =
s[n] exp (−jωn)
(2.53)
n=−∞
Offenbar ist also für ein LTI-System die Übertragungsfunktion gerade die ZFT der Impulsantwort. Die ZFT existiert nicht für alle zeitdiskreten Signale. Man muss sicherstellen, dass die
65
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
Reihe konvergiert. Eine hinreichende Bedingung ist offenbar
∞
X
n=−∞
|s [n]| < ∞,
(2.54)
d.h. für absolut summierbare Signale ist die ZFT für alle ω definiert.
Aus der Spektralfunktion S ejω kann man das zugehörige zeitdiskrete Signal s [n] mit der
Umkehrformel
Z 2π
1
S ejω ejωn dω.
(2.55)
s [n] =
2π 0
zurückgewinnen.
Zum Beweis: Wir sehen einmal von mathematischen Feinheiten ab und nehmen an, dass alle Summen und Integrale exisieren und man Summation und Integration vertauschen darf.
Dann sehen wir, dass die Zahlen s [−n]
nach Gleichung (2.55) gerade die Fourierkoeffizenten
der 2π-periodischen Funktion S ejω sind, wobei wir Zeit- und Frequenzbereich gegenüber der
gewohnten Darstellung vertauscht haben. Die ZFT
S e
jω
=
∞
X
s [n] e−jωn
(2.56)
n=−∞
ist also nichts anderes als eine Fourier-Reihe mit vertauschten Variablen!
Im Folgenden verwenden wir oft für ein Fourier-Paar die Kurzschreibweise
ZF T
S ejω .
←−−−→
s [n]
Bei einem System, das durch das Fourierpaar aus Impulsantwort und Übertragungsfunktion
jω
h [n] ←
ZF
T
H
e
−−−→
gegeben ist, ergibt sich dann für den Output
r [n] = h [n] ∗ s [n]
ZF T
R ejω = H ejω S ejω .
←−−−→
(2.57)
Eigenschaften der ZFT
Interpretation als Spektrale Dichte
Aus der Gleichung (2.55) ergibt sich folgende Interpretation: Das zeitdiskrete Signal setzt sich
ω
zusammen aus Schwingungsanteilen bei verschiedenen (normierten) Frequenzen 2π
, wobei ω
über alle Kreiswinkel läuft. Den Integranden
dω
S ejω ejωn
2π
ω
ω
kann man dann auffassen als den Schwingungsanteil zwischen den Frequenzen 2π
und 2π
+ dω
2π .
Die Spektralfunktion S ejω ist eine zyklische Funktion. Dies bedeutet, dass ihr Definitionsbereich der Einheitskreis ist. Ein Punkt des Einheitskreises lässt sich eindeutig durch seinen
Winkel ω beschreiben. Es ist Geschmackssache, ob man diesen Winkel von 0 bis 2π laufen lässt
oder von −π bis π. Die erstere Sichtweise wird in der Signalverarbeitung bevorzugt. Ein Kreis
66
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
|S(ejω )|2
0
−π
ω
π
|S(ejω )|2
0
ω
π
2π
Abbildung 2.12: Verschiedene Sichtweisen der selben zyklischen Spektralfunktion.
67
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
hat keinen Anfang und kein Ende, anders als z.B. das Intervall [0, 2π). Wenn man die Spektralfunktion zeichnen will, wäre dazu eine Litfaßsäule am besten geeignet. Um die Zeichnung an die
Tafel zu bringen, muss man das Plakat an irgend einer Stelle auftrennen. Man kann das z.B.
bei ω = 0 tun oder auch bei ω = π, siehe Abbildung 2.12. In beiden Fällen bekommt man an
der Tafel unterschiedliche Bilder, die aber zu dem selben Bild an der Litfaßsäule gehören. Die
negativen Frequenzen korrespondieren zu dem unteren Teil des Einheitskreises. Diese liegen also
links von der Mitte im oberen Bild und rechts von der Mitte im unteren Bild.
Wegen der zylischen Natur der Spektralfunktion schreibt man auch S ejω und nicht etwa S (ω).
So ist S wirklich eine Funktion, die auf dem Kreis lebt.
Energiedichte
Für die ZFT lässt sich die Parsevalsche Gleichung (1.53) der Fourierreihe entsprechend übertragen.
Man erhält
Z 2π
∞
X
1
2
S ejω 2 dω
(2.58)
Es =
|s [n]| =
2π 0
n=−∞
Auf der rechten Seite steht ein Ausdruck für die Energie im Frequenzbereich. Dies erlaubt eine
2
Interpretation von S ejω als spektrale Energiedichte: Den Integranden
S ejω 2 dω
2π
kann man auffassen als den Energieanteil zwischen den (normierten) Frequenzen
(2.59)
ω
2π
und
ω
dω
2π + 2π .
Der Faltungssatz
Satz 5 Faltungssatz ZFT Der Faltung der diskreten Signale im Zeitbereich entspricht eine Multiplikation
im Frequenzbereich: Die ZFT des Signals h[n] ∗ s[n] ist gegeben durch
der ZFTs
H ejω · S ejω .
In Kurzschreibweise lautet der Satz
h [n] ∗ s [n]
jω
jω
ZF
T
H
e
·
S
e
←−−−→
(2.60)
Eigentlich brauchen wir diesen Satz nicht mehr zu beweisen. Überlegen Sie, was passiert, wenn
man zwei LTI-Systeme kaskadiert.
Die Interpretation ist entsprechend: Im Frequenzbereich multipliziert man die Spektralfunktion
des Signals mit der Übertragungsfunktion des Systems.
Verschiebungssätze
Sei
∞
X
S ejω =
s [n] e−jωn ,
(2.61)
n=−∞
d.h.
s [n]
ZF
T→ S ejω .
←
−−−
(2.62)
KAPITEL 2. ZEITDISKRETE LTI-SYSTEME
68
Dann gilt
ZF T
e−jω · S ejω .
←−−−→
Der Beweis ergibt sich sofort durch Einsetzen in die Definition.
s [n − 1]
(2.63)
Dies ist uns an anderer Stelle schon begegnet: Die Übertragungsfunktion der Verzögerung ist
e−jω .
Eine Verschiebung um einen festen Parameter ω0 im Frequenzbereich lässt auch sich im Zeitbereich darstellen:
e+jω0 n · s [n]
ZF T
S ej(ω−ω0 ) .
(2.64)
←−−−→
Hierbei ist S ej(ω−ω0 ) die um einen festen Winkel ω0 verschobene Spektralfunktion. Sie ist also
um ω0 gegen den Uhrzeigersinn über dem Einheitskreis gedreht.
Dieser Verschiebungssatz hat eine wichtige Konsequenz: Die in der Praxis wichtige Verschiebung
um den Halbkreis lässt sich im Zeitbereich durch ein alternierendes Vorzeichen implementieren:
n
(2.65)
(−1) · s [n] ←
ZF
T→ S ej(ω−π) .
−−−
Symmetriesätze
Wir schreiben
und
für konjugiert komplexe Größen.
s∗ [n] = (s [n])∗
∗
S ∗ ejω = S ejω
Dann gilt
s∗ [n]
ZF
T→ S ∗ e−jω ,
(2.66)
←
−−−
d.h. das komplex konjugierte Zeitsignal entspricht der gespiegelten komplex konjugierten Spektralfunktion.
Folgerung
4 Bei einem reellen Zeitsignal s[n] hat die Spektralfunktion die Eigenschaft S ejω =
S ∗ e−jω .
Diese Eigenschaft kennen wir in entsprechender Form schon von der kontinuierlichen Fouriertransformation und von der Fourierreihe.
Umgekehrt gilt:
∗
jω
ZF
T
S
e
,
(2.67)
←−−−→
d.h. die komplex konjugierte Spektralfunktion entspricht dem gespiegelten komplex konjugierten
Zeitsignal.
s∗ [−n]
Außerdem gilt
−jω
ZF
T
S
e
,
(2.68)
←−−−→
d.h. Spiegeln im Zeitbereich entspricht Spiegeln im Frequenzbereich. Insbersondere gilt: Eine im
Zeitbereich symmetrische Funktion ist auch im Frequenzbereich symmetrisch.
s [−n]
Folgerung 5 Bei einem reellen und symmetrischen Zeitsignal ist auch die Spektralfunktion reell
und symmetrisch.
Anhang A
Das Griechische Alphabet
In Tabelle A.1 sind alle griechischen Buchstaben aufgeführt. Die Tabelle wurde mit der Textverarbeitung LATEX erstellt, die ein gebräuchlicher Standard für die mathematisch-naturwissenschaftlichtechnische Literatur ist und mit der viele Bücher geschrieben sind. Man kann sich daher auf diese
Schreibweise berufen.
Einige griechische Buchstaben werden in mathematischen Formeln nicht oder nur selten verwendet, weil sie aussehen wie die entsprechenden Lateinischen (z.B. A,B,E,..) oder wie ein anderer
Lateinischen Buchstabe (z.B. H,P,X,..).
Bei manchen Buchstaben gibt es Varianten. Handschriftlich nimmt man z.B. lieber die Variante
ϕ statt φ oder ϑ statt θ, weil die Unterscheidung vom Großbuchstaben Φ bzw. Θ leichter ist. In
Druckschriften kann man beides nehmen und hat dadurch mehr Auswahl.
69
ANHANG A. DAS GRIECHISCHE ALPHABET
Tabelle A.1: Griechische Buchstaben
Groß
A
B
Γ
∆
E
Z
H
Θ
I
K
Λ
M
N
Ξ
O
Π
P
Σ
T
Υ
Φ
X
Ψ
Ω
klein
α
β
γ
δ
ε
ζ
η
θϑ
ι
κ
λ
µ
ν
ξ
o
π$
ρ%
σς
τ
υ
φϕ
χ
ψ
ω
Bezeichnung
Alpha
Beta
Gamma
Delta
Epsilon
Zeta
Eta
Theta
Iota
Kappa
Lambda
My (sprich: Mü)
Ny (sprich: Nü)
Xi
Omikron
Pi
Rho
Sigma
Tau
Ypsilon
Phi
Chi
Psi
Omega
70
Anhang B
Dezibel-Rechnung
In der Kommunikationstechnik kommen häufig sehr unterschiedliche Größenordnungen von
Signal-Leistungen vor. Zum Beispiel kann die Empfangsleistung an einem Handy um den Faktor 1010 oder mehr unter der Sendeleistung an der Basisstation liegen. Auch Filter senken die
Signalleistung in der Regel um mehrere Zehnerpotenzen ab. Es leuchtet sofort ein, dass man in
solchen Fällen meist nicht die genauen Zahlenwerte benötigt, sondern ein Maß, das auf einfache
Weise die Größenordnung beschreibt. Hierzu ist der Zehner-Logarithmus besonders geeignet.
Das Zahlenverhältnis P1 /P2 zweier Leistungen drückt man logarithmisch aus und spricht von
P1
Bel
lg
P2
in Erinnerung an den Telefon-Pionier Alexander Graham Bell. Da man es bei Quotienten zwischen 1 und 10 mit Logarithmen unter dem Wert 1 zu tun hat, hat man aus Bequemlichkeit
diese Zahl mit 10 multiplziert und spricht von
P1
10 lg
deziBel.
P2
Man kürzt dies mit dB ab. Auch wenn man oft damit umgeht, als sei dezibel eine Maßeinheit,
ist sie eigentlich eine Funktion, ähnlich wie das Prozentmaß. Wenn man z.B. sagt
0.45 = 45%
oder
40 kg + 40% = 56 kg,
so weiß jeder Kaufmann, was gemeint ist, obwohl man es eigentlich sorgfältiger hinschreiben
müsste. Genauso weiß jeder Ingenieur, dass (näherungsweise)
2 = 3 dB
und
100 W + 3 dB = 200 W
gilt. Das Schöne an der Dezibel-Rechnung ist, dass man nur ein paar Zahlenwerte im Kopf haben
muss und damit schnell einfache Überschlagsrechunungen machen kann. Z.B. sieht man sofort,
dass
16π 2 ≈ 22 dB
sind (Übung!). Man sollte sich merken:
71
72
ANHANG B. DEZIBEL-RECHNUNG
Tabelle B.1: Dezibel-Tabelle
dB
1
2
3
4
5
6
7
8
9
.0
0.00
3.01
4.77
6.02
6.99
7.78
8.45
9.03
9.54
.1
0.41
3.22
4.91
6.13
7.08
7.85
8.51
9.08
9.59
.2
0.79
3.42
5.05
6.23
7.16
7.92
8.57
9.14
9.64
.3
1.14
3.62
5.19
6.33
7.24
7.99
8.63
9.19
9.68
.4
1.46
3.80
5.31
6.43
7.32
8.06
8.69
9.24
9.73
.5
1.76
3.98
5.44
6.53
7.40
8.13
8.75
9.29
9.78
.6
2.04
4.15
5.56
6.63
7.48
8.20
8.81
9.34
9.82
.7
2.30
4.31
5.68
6.72
7.56
8.26
8.86
9.40
9.87
.8.
2.55
4.47
5.80
6.81
7.63
8.33
8.92
9.44
9.91
.9
2.79
4.62
5.91
6.90
7.71
8.39
8.98
9.49
9.96
1. 1 = 0 dB
2. 10 = 10 dB
3. 2 ≈ 3 dB
4. π ≈ 5 dB
Folgern lassen sich daraus leicht z.B. folgende Werte
1. 2.5 ≈ 4 dB
2. 5 ≈ 7 dB
3. 8 ≈ 9 dB
4. 20 ≈ 13 dB
Wenn man damit nicht weiter kommt, hilft Tabelle B.1. Den Taschenrechner sollte man nur in
den seltensten Fällen verwenden. Man erweckt damit leicht den Eindruck, dass man ein Anfänger
ist..
In der Nachrichtentechnik wird die Leistung gerne auf die Grundgröße 1 mW (Milliwatt) bezogen. Sei P0 =1 mW. Dann ist gibt man die Leistung in dBm(W) an, in dem man
P
10 lg
P0
hinschreibt. Z.B. gilt
1. 1 mW = 0 dBm
2. 10 mW = 10 dBm
3. 100 mW = 20 dBm
4. 20 W ≈ 43 dBm (Leistung einer GSM-Basisstation)
5. 0.5 pW ≈ −93 dBm (typischer Pegel an einem Handy)
Die so angegebene Leistung nennt man of auch den Pegel (engl. Level ).
Anhang C
Die Fourier-Transformation
Die Fourier-Transformation (FT) eines (kontinuierlichen) Signals s (t) ist definiert als
Z ∞
e−j2πf t s (t) dt.
S (f ) =
(C.1)
−∞
Die Fouriertransformierte S (f ) interpretieren wir als Spektralfunktion und die Variable f als
Frequenz. Diese Interpretation wird deutlich aus der Fourier-Rücktransformation, die wir auch
als Fourier-Integral bezeichnen wollen. Es gilt die Umkehrformel
Z ∞
s (t) =
ej2πf t S (f ) df.
(C.2)
−∞
Wir verwenden die Kurzschreibweise
s (t)
T→ S (f ) .
←F
−−
(C.3)
Interpretation als Spektrale Dichte
Aus der Gleichung (C.2) ergibt sich folgende Interpretation: Das Signal setzt sich zusammen
aus Schwingungsanteilen bei verschiedenen (normierten) Frequenzen f , wobei f über die ganze
reelle Achse läuft. Den Integranden
S (f ) e−j2πf t df
kann man dann auffassen als den Schwingungsanteil zwischen den Frequenzen f und f + df .
Energiedichte
Für die Fouriertransformation lässt sich die Parsevalsche Gleichung (1.53) der Fourierreihe entsprechend übertragen. Es gilt
Z ∞
Z ∞
2
2
Es =
|s (t)| dt =
|S (f )| df
(C.4)
−∞
−∞
Auf der rechten Seite steht ein Ausdruck für die Energie im Frequenzbereich. Dies erlaubt eine
2
Interpretation von |S (f )| als spektrale Energiedichte: Den Integranden
2
|S (f )| df
kann man auffassen als den Energieanteil zwischen den Frequenzen f und f + df.
73
ANHANG C. DIE FOURIER-TRANSFORMATION
74
Mathematische Voraussetzungen zur Exisitenz der Fouriertransformation
In der Mathematik setzt man für die Exisitenz der Fouriertransformation (C.1) gerne voraus,
dass das Signal s (t) absolut integrierbar ist, d.h. man verlangt
Z ∞
|s (t)| dt < ∞.
−∞
Das ist zwar mathematisch die einfachste Bedingung, aber aus verschiedenen physikalischen
Gründen unschön. Physikalisch sinnvoller ist die Forderung endlicher Energie, die dann auch
zu einer Symmetrie bezüglich Veraussettzujngen für die Hin- und Rücktransformation führen.
Man muss dann allerdings die Fouriertransformation als uneigentliches Integral definieren, und
es können an einzelnen Punkten mathematisch merkwürdige Dinge passieren, die uns aber nicht
weiter zu stören brauchen. Wir setzen für die Existenz der Fouriertransformation voraus:
Z ∞
2
|s (t)| dt.
−∞
Dann gilt automatisch auch für die Spektralfunktion
Z ∞
2
|S (f )| df < ∞.
−∞
Funktionen mit dieser Eigenschaft nennt man quadratintegrabel.
Der Faltungssatz
Satz 6 Faltungssatz FT Der Faltung der Signale im Zeitbereich entspricht eine Multiplikation
der Fouriertransformation im Frequenzbereich: Die FT des Signals h(t) ∗ s(t) ist gegeben durch
H (f ) · S (f ).
In Kurzschreibweise lautet der Satz
h (t) ∗ s (t)
T→ H (f ) · S (f )
←F
−−
(C.5)
Der Beweis ist sehr einfach, wenn man die Integrale hinschreibt.
Verschiebungssätze
Sei τ eine konstante Zeitverzögerung und
s (t)
T→ S (f ) .
←F
−−
Dann gilt für das verzögerte Signal
s (t − τ )
FT
e−j2πf τ · S (f ) .
←−−→
(C.6)
Der Beweis ergibt sich sofort durch Einsetzen in die Definition.
Eine Verschiebung um eine feste Frequenz f0 der Spektralfunktion lässt auch sich im Zeitbereich
darstellen:
e+j2πf0 t · s (t) ←
F
T→ S (f − f0 ) .
(C.7)
−−
ANHANG C. DIE FOURIER-TRANSFORMATION
75
Symmetriesätze
Wir schreiben
s∗ (t) = (s (t))∗
und
S ∗ (f ) = (S (f ))∗
für konjugiert komplexe Größen.
Dann gilt
s∗ (t)
F
T→ S ∗ (−f ) ,
(C.8)
←
−−
d.h. das komplex konjugierte Zeitsignal entspricht der gespiegelten komplex konjugierten Spektralfunktion.
Folgerung 6 Bei einem reellen Zeitsignal s(t) hat die Spektralfunktion die Eigenschaft S (f ) =
S ∗ (−f ).
Umgekehrt gilt:
s∗ (−t)
T→ S ∗ (f ) ,
(C.9)
←F
−−
d.h. die komplex konjugierte Spektralfunktion entspricht dem gespiegelten komplex konjugierten
Zeitsignal.
Außerdem gilt
s (−t)
FT
S (−f ) ,
(C.10)
←−−→
d.h. Spiegeln im Zeitbereich entspricht Spiegeln im Frequenzbereich. Insbersondere gilt: Eine im
Zeitbereich symmetrische Funktion ist auch im Frequenzbereich symmetrisch.
Folgerung 7 Bei einem reellen und symmetrischen Zeitsignal ist auch die Spektralfunktion reell
und symmetrisch.
Einige spezielle Fouriertransformationen
s(t)
δ(t)
1
δ(t − τ )
exp (j2πf0 t)
cos (2πf0 t)
sin (2πf0 t)
exp(−t/T )(t)
S(f )
1
δ(f )
exp (−j2πf τ )
δ(f − f0 )
1
(δ(f
−
f0 ) + δ(f + f0 ))
2
1
(δ(f
−
f0 ) − δ(f + f0 ))
2j
1
1+j2πf T
Anhang D
Der δ−Impuls und
verallgemeinerte Funktionen
D.1
Konstruktion des δ-Impulses
Der δ−Impuls1 ist eine mathematische Idealisierung, um Stoßvorgänge oder Impulse zu beschreiben. Damit sind Vorgänge oder Signale gemeint, die praktisch in einem “Zeitpunkt” auftreten,
das heißt nur während einer so kurzen Zeit vorhanden sind, dass man ihren Verlauf und ihre
Dauer praktisch nicht messen kann. Man möchte die Auswirkungen eines solchen Stoßvorgangs
beschreiben, ohne dass man sich mit dem genauen Verlauf beschäftigt. Die Überlegung, wie man
so etwas sinnvoll idealisiert, führen auf die Konstruktion des δ−Impulses. Zuerst eingeführt wurde er von P.A.M. Dirac2 in der Quantenphysik in den 20er-Jahren des letzten Jahrhunderts. Dirac
wusste sicher, dass seine Konstruktruktion mathematisch in sich wiedersprüchlich war, aber er
hatte die richtige physikalische Vorstellung dabei und wusste, wie man richtig damit rechnet.
Erst um 1950 herum hat der französische Mathematiker Laurent Schwartz (1915-2002) eine
in seiner Theorie der Distributionen (verallgemeinerte Funktionen) eine mathematisch saubere
Konstruktion geliefert. Wir wollen hier einen physikalisch intuitiven Zugang zu der δ-Funktion
finden.
Wir stellen uns hierzu einen kurzen Stromstoß i (t) wie in Abbildung D.1 vor. Den genauen
Verlauf von i (t) können wir wegen der begrenzten zeitlichen Auflösung unseres Messgerätes nicht
messen, wohl aber, dass eine Ladung q0 geflossen ist (mit der z.B. ein Kondensator aufgeladen
wurde). Der Strom i (t) ist die zeitliche Ableitung der geflossenen Ladung q (t)
i (t) =
d
q (t) ,
dt
und die geflossene Ladung ist das Integral über den Strom
Z t
q (t) =
i (τ ) dτ.
−∞
1 auch:
δ-Funktion, Dirac-Impuls, Dirac-Stoß, Diracsche δ-Funktion o.ä.
Adrien Maurice Dirac (1902-1984, Nobelpreis für Physik 1933) war einer der Pioniere der Quantenphysik. Berühmt wurde er durch die Dirac-Gleichung (1928), die ein relativistisches Elektron bzw. Positron beschreibt. Er hat damit als erster die Existenz von Antimaterie vorhergesagt. Dirac hat zunächst Elektrotechnik
studiert, fand aber keine Anstellung und studierte dann Mathematik.
2 Paul
76
ANHANG D. DER δ−IMPULS UND VERALLGEMEINERTE FUNKTIONEN
77
i(t)
q0
t1
t2
0
t
Abbildung D.1: Ein Stromstoß
Zu jeder beliebigen Zeit t1 < 0 kurz vor dem Stoß messen wir nichts, d.h.
Z t1
i (τ ) dτ = 0,
q (t1 ) =
−∞
und zu jeder beliebigen Zeit t2 > 0 nach dem Stoß messen wir, dass die Ladung geflossen ist,
d.h.
Z t2
q (t2 ) =
i (τ ) dτ = q0 .
−∞
Was genau bei t = 0 passiert ist, wissen wir nicht, und es ist auch nicht wichtig. Wir können
uns vorstellen, dass der Strom von der Gestalt
i (t) = q0 δ (t)
ist, wobei wir eine “Funktion” δ (t) eingeführt haben, die folgende Eigenschaft haben muss:
Z t
0 : t<0
.
δ (τ ) dτ =
1
: t>0
−∞
Daraus ergibt sich die Eigenschaft
δ (t) = 0
(t 6= 0).
Was bei t = 0 ist, wissen wir nicht. Man könnte meinen: Wenn dieser Puls δ (t) unendlich
schmal ist, aber die Fläche darunter Eins sein soll, muss er unendlich hoch sein. Wir wissen
aber, dass “0 · ∞” ein unbestimmter Ausdruck ist und vermeiden es daher lieber, etwas zu
definieren, was mathematisch gesehen Unfug darstellt und was es physikalisch auch nicht geben
kann (nämlich einen unendlich großen Strom). Die ursprüngliche physikalische Vorstellung ist ja
vernünftig, und wir basteln uns jetzt ein Modell, mit dem wir diese merkwürdige Konstruktion
ANHANG D. DER δ−IMPULS UND VERALLGEMEINERTE FUNKTIONEN
78
näherungsweise beschreiben können. Hierzu bietet sich die Rechteckfunktion an. Wir definieren
dazu einen angenäherten Impuls
t
1
δT (t) = rect
.
T
T
Für eine hinreichend kleine Pulsbreite T hat dieser Impuls praktisch die gewünschten Eigenschaften: Es gilt
Z t
0 : t < T /2
δT (τ ) dτ =
,
1 : t > −T /2
−∞
d.h. die Fläche unter dem Puls ist Eins, und für |t| > T /2 ist der Puls Null. Man kann sich
eine Folge von Pulsen Rechteckpulsen vorstellen, die immer schamler und höher werden wie in
Teils (a) von Abbildung D.2 gezeigt. Man nennt solche Folgen δ-Folgen. Für hinreichend kleines
T wird die physikalische Situation von jedem der Repräsentanten δT (t) dieser Folge zutreffend
beschrieben. Dass wir eine Folge von Rechteckten gewählt haben, ist willkürlich und bequem.
Man könnte ebenso gut mit einer δ−Folge arbeiten, wie sie in Teil (b) der Abbildung gezeigt
ist.
Die Abbildung legt nahe, den δ−Impuls als Grenzwert einer δ−Folge aufzufassen, d.h.
δ (t) = lim δT (t)
T →0
(D.1)
zu definieren. Im herkömmlichen Sinne existiert dieser Limes aber nicht, wie wir oben diskutiert
haben. Trotzdem beschreibt δT (t) für kleine T den physikalischen Sachverhalt richtig.
Wir können das Problem lösen, indem wir den Messvorgang mathematisch beschreiben und
lineare Detektoren einführen. Dies sind Messgeräte, die wir durch eine Gewichtsfunktion g (t)
beschreiben. Trifft ein Signal s (t) auf das Messgerät, so liefert es den Wert
Z ∞
Dg {s (t)} =
g (t) s (t) dt,
(D.2)
−∞
siehe Abbildung D.3. In unserem obigen Beispiel mit dem Stromstoß i (t) wird die Ladung durch
q0 =
Z
t2
i (t) dt,
(D.3)
t1 −∞
gemessen. Dies ist offenbar ein Spezialfall für einen Detektor. Wenn man nun einen Puls einer
δ-Folge detektiert, so gilt
Z ∞
g (t) δT (t) dt ≈ g (0)
−∞
für hinreichend kleines T . Man zeigt (auch formal) leicht
Z ∞
lim
g (t) δT (t) dt = g (0) .
T →0
(D.4)
−∞
Der δ-Impuls ist als der Grenzfall aufzufassen und hat die Eigenschaft
Z ∞
g (t) δ (t) dt = g (0) .
(D.5)
−∞
Dies ist nur eine formale Schreibweise für Gleichung (D.4). Wenn man sich dies immer wieder
klar macht, kann man mit der δ-Funktion richtig rechen.
ANHANG D. DER δ−IMPULS UND VERALLGEMEINERTE FUNKTIONEN
79
Wie schon erwähnt, brauchen δ-Folgen keine Rechtecke zu sein. Wir können δ-Folgen aus irgendwelchen Signale (Impulsen) als
t
1
δT (t) = φ
T
T
konstruieren, wobei die folgenden Eigenschaften gegeben sein müssen:
1.
1
T
2.
∞
t
φ
dt = 1
T
−∞
Z
1
lim φ
T →0 T
t
= 0 (t 6= 0)
T
Die Repräsentanten einer δ-Folge brauchen also gar nicht außerhalb eines Intervalles zu verschwinden, sie müssen nur immer kleiner werden. Neben der oben beschriebenen Rechteckfolge
werden z.B. diese δ-Folgen oft verwendet:
1
t
δT (t) = si π
(D.6)
T
T
1
1
(D.7)
δT (t) = √
exp − 2 t2
2T
2π T
Dimension des δ-Impulses
Wegen der Eigenschaft
Z
∞
δ (t) dt = 1
−∞
ist die Dimension des δ-Impulses 1/Zeit. Hilfreich ist es, sich dies am Beispiel mit dem Stromstoß
zu überlegen: Strom ist Ladungfluss pro Zeit.
D.2
Die Theorie verallgemeinerter Funktionen
Der Vollständigkeit halber soll hier der Begriff der verallgemeinerten Funktion mathematisch
präzisiert werden. Dieser Abschnitt richtet sich nur an den, der es genauer wissen will.
(der Rest kommt später)
D.3
Die Ableitung der Sprungfunktion
Um die Ableitung des Einheitssprungs zu berechnen, approximieren wir ihn durch eine stetige
Funktion T (t) wie in Teil (a) von Abbildung D.4 gezeigt. Es gilt offenbar
lim T (t) = (t) .
T →0
ANHANG D. DER δ−IMPULS UND VERALLGEMEINERTE FUNKTIONEN
80
Die Ableitung dieser Funktion ist in Teil (b) gezeigt. Offenbar handelt es sich dabei um eine
δ-Folge, d.h.
lim δT (t) = δ (t) .
T →0
Es gilt
d
T (t) = δT (t) .
dt
Wir führen den Grenzwert T → 0 durch und erhalten
d
(t) = δ (t) .
dt
Derartige Grenzwertbetrachtung sind mit unserem intuitiven Zugang zu der mathematischen
Idealisierung verträglich. Sie lassen sich im Rahmen der Theorie verallgemeinerter Funktionen
sauber begründen.
D.4
Die Fouriertransformation der δ-Funktion
Die Fouriertransformation des δ-Pulses ergibt sich formal ganz einfach aus der Ausblendeigenschaft (D.5). Die Fouriertransformierte
Z ∞
e−j2πf t δ (t) dt = 1
−∞
ist einfach die Eins. Allerdings ist δ (t) nicht quadratintegrabel und seine Fouriertransformierte
natürlich auch nicht. Man bekommt deshalb Schwierigkeiten mit der Fourier-Rücktranformation.
Formal lautet sie
Z ∞
−∞
ej2πf t · 1 df = δ (t) .
Nach allem, was wir bisher über Integralrechnung gelernt haben exisistiert dieses Integral nicht.
Im Sinne verallgemeinerter Funktionen kann man sich aber wieder mit einer Grenzwertbetrachtung helfen. Wir schreiben
f
1 = lim rect
B→∞
B
und berechnen die Rücktransformation dieses Signals endlicher Bandbreite:
Z ∞
f
ej2πf t · rect
df = B si (πtB) .
B
−∞
Wegen Gleichung (D.6) folgt
lim
B→∞
Z
Für einen verschobenen Puls gilt
Z ∞
∞
e
−∞
−∞
j2πf t
· rect
f
B
df = δ (t) .
e−j2πf t δ (t − t0 ) dt = e−j2πf t0
ANHANG D. DER δ−IMPULS UND VERALLGEMEINERTE FUNKTIONEN
D.5
81
Spektrallinien
Die δ-Funktion hat nicht nur als Puls im Zeitbereich eine wichtige Bedeutung, sondern auch als
Spektralfunktion im Frequenzbereich. Vertauscht man Zeit und Frequenz, so erhält man nach
dem eben Gesagten
1 ←F
T→ δ (f ) .
−−
Mit dem Verschiebungssatz erhält man
e+j2πf0 t
FT
δ (f − f0 ) .
←−−→
Eine harmonische Schwingung der Frequenz f0 entspricht einer δ-Funktion bei f0 , die wir als
Spektrallinie auffassen. Für eine periodische Funktion mit Periode T bekommen wir wegen der
Darstellung durch die Fourierreihe ein diskretes Spektrum
∞
X
k=−∞
ck e+j2πkt/T
F
T→
←
−−
∞
X
k=−∞
ck δ (f − k/T )
aus unendlich vielen, äquidistanten Spektrallinien an den Frequenzen fk = k/T,
Abbildung D.5 .
k ∈ Z, siehe
ANHANG D. DER δ−IMPULS UND VERALLGEMEINERTE FUNKTIONEN
(a)
82
δT (t)
1
T
−T /2
0
(b)
t
T /2
δT (t)
t
0
Abbildung D.2: Deltafolgen
s(t)
-
Dg
Abbildung D.3: Linearer Detektor
Dg {s(t)}
-
ANHANG D. DER δ−IMPULS UND VERALLGEMEINERTE FUNKTIONEN
(a)
T (t)
1
−T /2
83
0
T /2
t
(b)
1
T
δT (t)
−T /2
0
T /2
t
Abbildung D.4: Die Ableitung des Einheitssprungs.
6
6
6
6
6
6
6
6
6
6
6
−f3 −f2 −f1
0
f1
f2
f3
f4
Abbildung D.5: Diskretes Spektrum aus Spektrallinien.
···
-
f
Anhang E
Komplexe Zahlen
Die Vorlesung setzt Sicherheit im Umgang mit komplexen Zahlen voraus. Dieser Anhang dient
der Wiederholung und Vertiefung und zum Nachschlagen. Letzteres sollte aber nur äußerst selten
vorkommen, weil man das auswendig wissen muss.
E.1
Schreibweise und Addition komplexer Zahlen
Wir wollen die komplexen Zahlen C geometrisch als Zeiger einführen. Diese Zeiger sind zunächst
einmal nichts anderes als zweidimensionale Vektoren, die wir nur etwas anders schreiben: Statt
eines Spaltenvektors
x
z = ~z =
∈ R2
(E.1)
y
mit einem Pfeil über dem Symbol schreiben wir einen Zeilenvektor
z = (x, y) ∈ C
(E.2)
mit einem Strich unter dem Symbol. Man nennt x den Realteil von z und schreibt
x = < {z} = Re {z}
(E.3)
y = = {z} = Im {z}
(E.4)
und entsprechend
für den Imaginärteil y. Komplexe Zeiger addieren wir genau wie Vektoren komponentenweise
(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) ,
(E.5)
und wir multiplizieren mit einer reellen Zahl a (einem Skalar ), indem wir die beiden Komponenten damit multiplizieren:
a (x, y) = (ax, ay)
(E.6)
Merke: Komplexe Zeiger haben bezüglich der Addition ganz genau die selben Eigenschaften
wie Vektoren in der Ebene R2 .
Bevor wir nun für die komplexen Zahlen die Multiplikation als zusätzliche Operation definieren,
wollen wir zur Vorbereitung eine Schreibweise einführen, die beim Rechnen mit komplexen
Zahlen gebräuchlich ist:
84
85
ANHANG E. KOMPLEXE ZAHLEN
z = (x, y) = x + jy
y
|z|
(0, 1) = j
ϕ
(1, 0) = 1
x
Abbildung E.1: Zeigerdarstellung eines Signals.
Die x-Achse ist ja nichts anderes als der Zahlenstrahl der reellen Achse: Rein eindimensionale
Vektoren sind einfach nur Zahlen, und wir schreiben x statt (x, 0) und 1 statt (1, 0). In diesem
Sinne fassen wir die reellen Zahlen als eine Teilmenge der komplexen auf, d.h.
R2 ⊂ C.
Für die y-Achse führen wir die Bezeichnung j für den Basisvektor (0, 1) ein und schreiben jy
für einen Vektor (0, y), der in Richtung der y-Achse zeigt. Man nennt j die Imaginäre Einheit 1 .
Einen komplexen Zeiger
z = (x, y) = x (1, 0) + y (0, 1)
(E.7)
kann man dann also schreiben als
z = x · 1 + y · j = x + jy.
(E.8)
Dies nennt man die kartesische Darstellung der komplexen Zahl. Abbildung E.1 zeigt einen
Zeiger und die beiden Basisvektoren 1 und j.
Zeiger haben wie Vektoren Längen und Richtungen. Wir übernehmen aus der Vektorrechnung
die Definition des Betrages. Ein komplexer Zeiger
z = x + jy
hat den Betrag
|z| =
p
x2 + y 2 .
Nach dem Satz des Pythagoras ist der Betrag gerade die Länge des Zeigers. Den Winkel ϕ
mit 0 ≤ ϕ < 2π zwischen dem komplexen Zeiger z und der x-Achse bezeichnet man als den
Phasenwinkel. Offenbar gilt
x = |z| cos (ϕ)
1 Den Buchstaben j verwenden nur die Elektrotechniker, weil das sonst übliche i für den Strom gebraucht
wird.
86
ANHANG E. KOMPLEXE ZAHLEN
und
y = |z| sin (ϕ) ,
siehe Abbildung E.1. Deshalb kann man eine komplexe Zahl auch schreiben als
z = |z| (cos (ϕ) + j sin (ϕ))
(E.9)
Man nennt dies die Polardarstellung der komplexen Zahl.
Der Phasenwinkel ergibt sich aus
zu
y
|z| sin (ϕ)
=
= tan (ϕ)
x
|z| cos (ϕ)
y
(E.10)
ϕ = arctan .
x
Dies ist aber nur für die Quadranten I und IV richtig, da die Funktion tan (ϕ) nur für den
Winkelbereich −π/2 < ϕ < π/2 eine eindeutige Umkehrfunktion besitzt. Für andere Winkel
muss man etwas nachdenken..
E.2
Multiplikation von komplexen Zahlen
Anstatt die Multiplikation von komplexen Zahlen formal einzuführen, bevorzugen wir einen
geometrischen Zugang.
Das Produkt zweier komplexer Zahlen soll wieder eine komplexe Zahl sein. Für die reellen Zahlen
soll sich das bekannte Produkt ergeben. Das führt auf die
Forderung 1: Bei der Multiplikation zweier komplexer Zahlen multiplizieren sich die Beträge.
D.h. für z 1 , z 2 ∈ C gilt
|z 1 · z 2 | = |z 1 | · |z 1 | .
(E.11)
Jetzt müssen wir erklären, was mit den Phasenwinkeln bei der Multiplikation passiert. Die
geniale Konstruktion erhält man mit der
Forderung 2: Bei der Multiplikation zweier komplexer Zahlen addieren sich die Phasenwinkel. D.h. für z 1 , z 2 ∈ C mit Phasenwinkeln ϕ1 , ϕ2 hat das Produkt z = z 1 · z 2 den Phasenwinkel
ϕ = (ϕ1 + ϕ2 )
mod (2π) .
(E.12)
Das Resultat ist modulo 2π zu nehmen, um im Definitionsbereich [0, 2π) für Winkel zu bleiben.
Multiplikation mit einem Zeiger kann man sich also als eine Drehstreckung vorstellen: Man dreht
um den Winkel des Zeigers und streckt um den Betrag, siehe Abbildung E.2 für zwei Zeiger mit
gleichem Betrag.
Von einer Multiplikation erwartet man gewisse Eigenschaft: Sie muss assoziativ, kommutativ
und distributiv sein. Man kann sich durch geometrische Überlegungen davon überzeugen, dass
diese Eigenschaften erfüllt sind. Auf formale Beweise verzichten wir.
Es muss eine Eins bezüglich der Multplikation geben, d.h. eine Zahl, mit deren Multiplikation
sich der Wert der nicht ändert. Offenbar ist das Element
1 = (1, 0)
87
ANHANG E. KOMPLEXE ZAHLEN
z = z1 · z2
ϕ = ϕ1 + ϕ2
ϕ2
ϕ1
Abbildung E.2: Multiplikation von Zeigern.
die gesuchte Eins.
Außerdem muss man dividieren können. D.h. es muss für alle komplexen Zahlen z ∈ C, z 6= 0
einen Kehrwert (ein multiplikatives Inverses) z −1 geben, so dass
z −1 · z = 1
gilt. Das Inverse von |z| findet man leicht: Es hat den Betrag |z|−1 und den Phasenwinkel −ϕ.
Man kann daher schreiben
−1
z −1 = |z| (cos (ϕ) − j sin (ϕ))
(E.13)
Jetzt können wir anfangen zu multiplizieren. Zuerst wollen wir j · j = j 2 berechnen. Weil j den
Betrag 1 und den Phasenwinkel π/2 , hat j 2 den selben Betrag 1 und den Phasenwinkel π. Also
gilt
j 2 = −1.
(E.14)
Man kann also die Imaginäre Einheit schreiben als
√
j = −1,
(E.15)
was zunächst etwas gewöhnungsbedürftig ist.
Seien nun
z 1 = x1 + jy1
und
z 2 = x2 + jy2
zwei komplexe Zahlen. Wir berechen das Produkt:
z 1 · z 2 = (x1 + jy1 ) · (x2 + jy2 ) = x1 x2 + j 2 y1 y2 + j (x1 y2 + y2 x1 )
Hier haben wir das Distributivgesetz benutzt und ausmultipliziert. Mit j 2 = −1 erhalten wir
z 1 · z 2 = x1 x2 − y1 y2 + j (x1 y2 + y1 x2 )
(E.16)
88
ANHANG E. KOMPLEXE ZAHLEN
z
x
2x
z∗
Abbildung E.3: Komplex konjugierte Zahl und der Realteil.
E.3
Einige algebraische Rechenmethoden
Für eine Zahl
nennt man
z = x + jy ∈ C
z ∗ = x − jy ∈ C
die konjugiert komplexe Zahl oder auch das komplex Konjugierte von z. Die Operation “komplex
konjuguieren” bedeutet einfach nur Spiegeln an der x-Achse. Offenbar gilt
1
(E.17)
(z + z ∗ ) ,
2
was man sich auch geometrisch durch Vektoraddition am Zeigerdiagramm E.3 sehr leicht klar
macht. Ebenso leicht sieht man den Zusammenhang
< {z} =
1
(z − z ∗ ) .
(E.18)
2j
Für das Betragsquadrat erhält man folgende nützliche Formel, die die Rechnungen manchmal
vereinfacht
2
|z| = z · z ∗ .
(E.19)
= {z} =
Um einen Quotienten von komplexen Zahlen in der kartesichen Darstellung zu schreiben, erweitert man mit dem konjugiert komplexen Nenner (damit der Nenner reell wird)
z1
z · z∗
z z∗
= 1 · 2∗ = 1 2 2
z2
z2 z2
|z|
(E.20)
und muss dann den Zähler nur noch ausmultiplizieren.
E.4
Zusammenhang mit der Exponentialfunktion
Wir haben die Multiplikation anschaulich über die Polardarstellung
z = |z| (cos (ϕ) + j sin (ϕ))
(E.21)
89
ANHANG E. KOMPLEXE ZAHLEN
der komplexen Zahl mit Betrag und Phasenwinkel erklärt, aber bisher mit der kartesischen Darstellung gerechnet. Nach unserer geometrischen Vorstellung muss Folgendes gelten: Das Produkt
der beiden komplexen Zahlen
z 1 = |z 1 | (cos (ϕ1 ) + j sin (ϕ1 ))
(E.22)
z 2 = |z 2 | (cos (ϕ2 ) + j sin (ϕ2 ))
(E.23)
z 1 · z 2 = |z 1 | |z 2 | (cos (ϕ1 + ϕ2 ) + j sin (ϕ1 + ϕ2 ))
(E.24)
und
muss die Polardarstellung
besitzen. Wenn man ausmultipliziert und die Additionstheoreme verwendet, kommt das tatsächlich
heraus. Viel übersichtlicher wird es durch folgende Definition
exp (jϕ) = cos (ϕ) + j sin (ϕ)
(E.25)
exp (jϕ1 ) · exp (jϕ2 ) = exp (j (ϕ1 + ϕ2 )) .
(E.26)
Es gilt dann
Für das Produkt der komplexen Zahlen
z 1 = |z 1 | exp (jϕ1 )
(E.27)
z 2 = |z 2 | exp (jϕ2 )
(E.28)
und
erhält man dann in der Polardarstellung
z 1 · z 2 = |z 1 | |z 2 | exp (j (ϕ1 + ϕ2 ))
(E.29)
Anmerkung Die so definierte Funktion exp (jϕ) ist tatsächlich die komplexe Erweiterung
der bekannten e-Funktion, wie man aus den Rechenregeln vermuten sollte. Man schreibt auch
exp (jϕ) = ejϕ
(E.30)
Wir wollen hier aber nicht tiefer in diese Zusammenhänge eindringen. Wichtig sind außerdem
folgende Darstellungen der Winkelfunktionen
cos (ϕ) =
und
sin (ϕ) =
E.5
1 jϕ
e + e−jϕ
2
1 jϕ
e − e−jϕ
2j
(E.31)
(E.32)
Wurzeln
Sei c ∈ C eine gegebene Zahl. Wir suchen nach Lösungen der Gleichung
zn = c
und nennen diese n-te Wurzeln aus c. Mit der Polardarstellung
c = r ejϕ
(E.33)
90
ANHANG E. KOMPLEXE ZAHLEN
sieht man sofort, dass
z0 =
√
n
r ejϕ/n
(E.34)
eine Wurzel ist. D.h. man erhält die “Hauptwurzel” einer komplexen Zahl, in dem man die reelle
Wurzel aus dem Betrag bildet und dann den Phasenwinkel durch n teilt. Alle weiteren Wurzeln
erhält man als
z k = z 0 · ej2πk/n , k = 0, 1, ..., n − 1.
Es gibt genau n Wurzeln.
Literaturverzeichnis
[1] M. Werner, Signale und Systeme. Vieweg, 2005 (zweite Aufl.).
[2] H. Lüke, Signalübertragung. Springer, 1985.
[3] A. Oppenheim, R. Schafer, and J. Buck, Zeitdiskrete Signalverarbeitung. Pearson, 2004.
91
Zugehörige Unterlagen
Herunterladen