Stochastische Prozesse

Werbung
Formeln und Notizen
Stochastische Prozesse
Florian Franzmann∗
7. April 2009, 23:55 Uhr
Abbildungsverzeichnis
1.
2.
3.
4.
5.
6.
7.
Das komplementäre gauß’sche Fehlerintegral . . . . . . . .
Korrelationsfunktionen und Leistungsdichtespektren . . .
Typisches Szenario zur Wiener Filterung . . . . . . . . . .
Trigonometrische Funktionen . . . . . . . . . . . . . . . .
Konvergenzbereich kausaler kontinuierlicher LTI-Systeme
rect- und sinc-Funktion . . . . . . . . . . . . . . . . . . .
Konvergenzbereich diskreter LTI-Systeme . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
22
31
36
43
49
51
. . . . .
. . . . .
Winkel
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
33
34
36
40
42
44
45
46
47
48
50
52
54
Tabellenverzeichnis
1.
2.
3.
4.
5.
6.
7.
8.
8.
8.
9.
10.
12.
∗
Teile von Einheiten . . . . . . . . . . . . . . . . . . . . . .
Vielfache von Einheiten . . . . . . . . . . . . . . . . . . .
Trigonometrische Funktionen – Funktionswerte besonderer
Potenzen der imaginären Einheit . . . . . . . . . . . . . .
Bekannte Reihen . . . . . . . . . . . . . . . . . . . . . . .
Korrespondenzen der zweiseitigen Laplace-Transformation
Sätze der zweiseitigen Laplace-Transformation . . . . . . .
Korrespondenzen der Fourier-Transformation . . . . . . .
Korrespondenzen der Fourier-Transformation . . . . . . .
Korrespondenzen der Fourier-Transformation . . . . . . .
Sätze der Fourier-Transformation . . . . . . . . . . . . . .
Korrespondenzen der zweiseitigen z-Transformation . . . .
Korrespondenzen der DTFT . . . . . . . . . . . . . . . . .
[email protected]
1
Inhaltsverzeichnis
12.
13.
14.
15.
Korrespondenzen der
Sätze der DTFT . .
Sätze der DFT . . .
Korrespondenzen der
DTFT . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
Hilbert-Transformation
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
55
56
57
59
Inhaltsverzeichnis
1. Kombinatorik
6
2. Bernoulli-Experimente
7
3. Zufallsvariablen
3.1. Statistische Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . .
3.1.1. Statistische Unabhängigkeit . . . . . . . . . . . . . . . . . .
3.1.2. Unkorreliertheit . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.3. Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . .
3.2. Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . .
3.2.0.1. Satz von Bayes . . . . . . . . . . . . . . . . . . . .
3.3. Abbildungen von Zufallsvariablen . . . . . . . . . . . . . . . . . . .
3.3.1. Eindimensionaler Fall . . . . . . . . . . . . . . . . . . . . .
3.3.2. Mehrdimensionaler Fall . . . . . . . . . . . . . . . . . . . .
3.4. Wichtige Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.1. Komplementäres gauß’sches Fehlerintegral . . . . . . . . . .
3.5. Verteilung und Dichte . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.1. Eigenschaften einer Dichte . . . . . . . . . . . . . . . . . . .
3.5.2. Eigenschaften einer Verteilung . . . . . . . . . . . . . . . .
3.5.3. Randdichte und Randverteilung . . . . . . . . . . . . . . . .
3.5.3.1. Randdichte . . . . . . . . . . . . . . . . . . . . . .
3.5.3.2. Randverteilung . . . . . . . . . . . . . . . . . . . .
3.5.4. Bedingte Verteilungen . . . . . . . . . . . . . . . . . . . . .
3.5.5. Spezielle Verteilungen . . . . . . . . . . . . . . . . . . . . .
3.5.5.1. Gleichverteilung . . . . . . . . . . . . . . . . . . .
3.5.5.2. Binomialverteilung (Bernoulli-Experiment) . . . .
3.5.5.3. Geometrische Verteilung . . . . . . . . . . . . . .
3.5.5.4. Poisson-Verteilung . . . . . . . . . . . . . . . . . .
3.5.5.5. Gauß-Verteilung (Normal-Verteilung) N (mX , σX )
3.5.5.6. Cauchy-Verteilung . . . . . . . . . . . . . . . . . .
3.5.5.7. Lognormal-Verteilung . . . . . . . . . . . . . . . .
3.5.5.8. Laplace-Verteilung . . . . . . . . . . . . . . . . . .
3.5.5.9. Γ-Verteilung . . . . . . . . . . . . . . . . . . . . .
3.6. Perzentil und Median . . . . . . . . . . . . . . . . . . . . . . . . .
3.7. Erzeugende Funktionen . . . . . . . . . . . . . . . . . . . . . . . .
3.7.1. Momentenerzeugende Funktion ΦX (s) . . . . . . . . . . . .
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
7
7
7
8
8
8
8
8
8
8
9
9
9
9
9
10
10
10
10
11
11
11
12
12
12
13
13
14
14
14
Inhaltsverzeichnis
3.7.2. Charakteristische Funktion ΦX (jω) . . . . . . . . . . . . . . . . . . 15
3.7.3. Kumulantenerzeugende Funktion ΨX (s) . . . . . . . . . . . . . . . 15
4. Zufallsprozesse
4.1. Stationarität . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1. Strenge Stationarität . . . . . . . . . . . . . . . . . . . . .
4.1.2. Gemeinsame strenge Stationarität . . . . . . . . . . . . .
4.1.3. Schwache Stationarität . . . . . . . . . . . . . . . . . . . .
4.1.3.1. Eigenschaften (schwach) stationärer Prozesse . .
4.1.4. Zyklostationäre Prozesse . . . . . . . . . . . . . . . . . . .
4.1.5. Schwach zyklostationäre Prozesse . . . . . . . . . . . . . .
4.1.6. Ergodizität . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Mittelwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1. Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2. Momente n-ter Ordnung . . . . . . . . . . . . . . . . . . .
4.2.2.1. kontinuierlich . . . . . . . . . . . . . . . . . . . .
4.2.2.2. diskret . . . . . . . . . . . . . . . . . . . . . . .
4.2.3. Zentrale Momente n-ter Ordnung . . . . . . . . . . . . . .
4.2.3.1. kontinuierlich . . . . . . . . . . . . . . . . . . . .
4.2.3.2. diskret . . . . . . . . . . . . . . . . . . . . . . .
4.2.4. Wichtige Momente . . . . . . . . . . . . . . . . . . . . . .
4.2.4.1. Linearer Mittelwert . . . . . . . . . . . . . . . .
4.2.4.2. Quadratischer Mittelwert . . . . . . . . . . . . .
4.2.4.3. Varianz . . . . . . . . . . . . . . . . . . . . . . .
4.2.4.4. Normierte Momentanleistung . . . . . . . . . . .
4.2.5. Zentrale Verbundmomente . . . . . . . . . . . . . . . . . .
4.2.5.1. kontinuierlich . . . . . . . . . . . . . . . . . . . .
4.2.5.2. diskret . . . . . . . . . . . . . . . . . . . . . . .
4.2.5.3. Kovarianz . . . . . . . . . . . . . . . . . . . . . .
4.2.5.4. Korrelationskoeffizient . . . . . . . . . . . . . . .
4.2.5.5. Bedingte Erwartungswerte . . . . . . . . . . . .
4.3. LTI-Systeme und schwach stationäre Prozesse . . . . . . . . . . .
4.3.1. Mittelwerte . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.1.1. Linearer Mittelwert . . . . . . . . . . . . . . . .
4.3.1.2. Quadratischer Mittelwert . . . . . . . . . . . . .
4.3.2. Korrelationsfunktionen . . . . . . . . . . . . . . . . . . . .
4.3.2.1. Autokorrelationsfunktion . . . . . . . . . . . . .
4.3.2.2. Autokovarianz . . . . . . . . . . . . . . . . . . .
4.3.2.3. Kreuzkorrelation . . . . . . . . . . . . . . . . . .
4.3.2.4. Kreuzkovarianz . . . . . . . . . . . . . . . . . . .
4.3.2.5. Eigenschaften von AKF, AKV, KKF und KKV .
4.3.2.6. Autoleistungsdichtespektrum . . . . . . . . . . .
4.3.2.7. Kreuzleistungsdichtespektrum . . . . . . . . . .
4.3.2.8. KKF und LDS . . . . . . . . . . . . . . . . . .
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
15
15
15
16
17
17
17
18
18
18
18
18
18
18
18
18
18
19
19
19
20
20
20
20
20
20
20
20
20
21
21
21
21
21
22
22
22
23
23
Inhaltsverzeichnis
4.3.3.
Autokorrelationsfunktion und Autoleistungsdichtespektrum . .
4.3.3.1. kontinuierlich . . . . . . . . . . . . . . . . . . . . . . . .
4.3.3.2. diskret . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.4. Kohärenzfunktion . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.5. Weißes Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.5.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.5.2. Leistungsdichtespektrum . . . . . . . . . . . . . . . . .
4.3.5.3. Autokorrelationsfunktion . . . . . . . . . . . . . . . . .
4.3.5.4. Störleistung . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.5.5. Bandbegrenztes ECB-Rauschen . . . . . . . . . . . . .
4.3.5.6. Streng weißes Rauschen . . . . . . . . . . . . . . . . . .
4.4. Schätztheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.1. Prädiktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.1.1. Parameterschätzung . . . . . . . . . . . . . . . . . . . .
4.4.1.2. Intervallschätzung . . . . . . . . . . . . . . . . . . . . .
4.4.2. Prädiktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.2.1. Punktprädiktion . . . . . . . . . . . . . . . . . . . . . .
4.4.2.2. Intervallprädiktion . . . . . . . . . . . . . . . . . . . . .
4.4.3. Gütekriterien für Parameterschätzer . . . . . . . . . . . . . . . .
4.4.3.1. Erwartungstreuer Schätzer . . . . . . . . . . . . . . . .
4.4.3.2. Effizienter Schätzer . . . . . . . . . . . . . . . . . . . .
4.4.3.3. Konsistenter Schätzer . . . . . . . . . . . . . . . . . . .
4.4.3.4. Hinreichende Statistik . . . . . . . . . . . . . . . . . . .
4.4.4. Mittelwertschätzer . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.4.1. Arithmetisches Mittel . . . . . . . . . . . . . . . . . . .
4.4.4.2. Varianzschätzer bei bekanntem Mittelwert . . . . . . .
4.4.4.3. Varianzschätzer bei unbekanntem Mittelwert . . . . . .
4.4.4.4. Mittelwertschätzung bei bekannter Varianz . . . . . . .
4.4.4.5. Mittelwertschätzung bei unbekannter Varianz . . . . .
4.4.4.6. Mittelwertschätzung bei unbekannter Verteilung . . . .
4.4.4.7. Parameterschätzung bei bestimmten Verteilungen . . .
4.4.4.8. Wahrscheinlichkeitsschätzung . . . . . . . . . . . . . . .
4.4.4.9. Varianzschätzung bei normalverteilten Zufallsvariablen
4.4.5. MMSE- und LSE-Schätzung . . . . . . . . . . . . . . . . . . . . .
4.4.5.1. MMSE-Schätzung . . . . . . . . . . . . . . . . . . . . .
4.4.5.2. MSE-Schätzung . . . . . . . . . . . . . . . . . . . . . .
4.4.5.3. Maximum-Likelihood-Schätzer . . . . . . . . . . . . . .
4.4.5.4. Log-Likelihood-Funktion . . . . . . . . . . . . . . . . .
4.4.5.5. Bayes’sche Schätzung . . . . . . . . . . . . . . . . . . .
4.4.5.6. Maximum a posteriori-Schätzer (MAP) . . . . . . . . .
4.4.6. Cramer-Rao-Schranke . . . . . . . . . . . . . . . . . . . . . . . .
4.5. Lineare Optimalfilterung . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5.1. Wiener Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5.1.1. Zeitkontinuierlich . . . . . . . . . . . . . . . . . . . . .
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
23
24
24
24
24
24
24
25
25
25
25
25
25
26
26
26
26
27
27
27
27
27
27
27
28
28
28
28
28
28
29
29
29
29
29
30
30
30
30
31
31
31
31
Inhaltsverzeichnis
A. Mathematische Grundlagen
A.1. Frequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.1.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.1.2. Kreisfrequenz . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.1.3. Normierte Kreisfrequenz . . . . . . . . . . . . . . . . . . . . .
A.1.4. Die z-Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.2. Lösungsformel für quadratische Gleichungen . . . . . . . . . . . . . .
A.3. Geradengleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.3.1. Gerade durch einen Punkt P (x0 , y0 ) mit Steigung m . . . . .
A.3.2. Gerade durch die Punkte P (x0 , y0 ) und A(x1 , y1 ) . . . . . . .
A.3.3. Parameterform . . . . . . . . . . . . . . . . . . . . . . . . . .
A.3.4. Allgemeine Form der Geradengleichung . . . . . . . . . . . .
A.4. Additionstheoreme . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.5. Rechenregeln des Logarithmus . . . . . . . . . . . . . . . . . . . . .
A.6. Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.6.1. Regeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.6.1.1. Quotientenregel . . . . . . . . . . . . . . . . . . . .
A.6.1.2. Kettenregel . . . . . . . . . . . . . . . . . . . . . . .
A.6.1.3. Produktregel . . . . . . . . . . . . . . . . . . . . . .
A.6.1.4. Logarithmische Differentiation . . . . . . . . . . . .
A.6.1.5. Differentiation eines parameterabhängigen Integrals
A.6.1.6. l’Hospital’sche Regel . . . . . . . . . . . . . . . . . .
A.6.2. Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.6.2.1. Laplace-Operator ∆ . . . . . . . . . . . . . . . . . .
A.6.2.2. Divergenz-Operator div . . . . . . . . . . . . . . . .
A.6.2.3. Gradient-Operator ∇ . . . . . . . . . . . . . . . . .
A.6.2.4. Rotations-Operator . . . . . . . . . . . . . . . . . .
A.6.2.5. Jacobi-Matrix (Funktionalmatrix) . . . . . . . . . .
A.6.2.6. Hesse-Matrix . . . . . . . . . . . . . . . . . . . . . .
A.6.2.7. Zusammengesetzte Operationen . . . . . . . . . . .
A.7. Integrationsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.7.1. Partielle Integration . . . . . . . . . . . . . . . . . . . . . . .
A.7.2. Substitutionsregel . . . . . . . . . . . . . . . . . . . . . . . .
A.7.3. Logarithmische Integration . . . . . . . . . . . . . . . . . . .
A.7.4. Integration der Umkehrfunktion . . . . . . . . . . . . . . . .
A.8. Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.8.1. Komplexe Wurzel . . . . . . . . . . . . . . . . . . . . . . . . .
A.9. Binomialkoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.9.1. Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.10.Abschätzung mittels Union-Bound . . . . . . . . . . . . . . . . . . .
A.11.Bessel-Funktion erster Art . . . . . . . . . . . . . . . . . . . . . . . .
A.11.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.11.2. Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
32
32
32
32
32
32
35
35
35
35
35
35
35
37
37
37
37
37
37
37
37
37
38
38
38
38
38
39
39
39
39
39
40
40
40
40
41
41
41
41
43
43
43
1. Kombinatorik
B. Transformationen
B.1. Laplace-Transformation . . . . . . . . . . . . . .
B.1.1. Definition . . . . . . . . . . . . . . . . . .
B.1.2. Inverse Laplace-Transformation . . . . . .
B.2. Fourier-Transformation . . . . . . . . . . . . . . .
B.2.1. Definition . . . . . . . . . . . . . . . . . .
B.2.2. Inverse Fourier-Transformation . . . . . .
B.2.3. rect- und sinc-Funktion . . . . . . . . . .
B.2.4. Hinreichende Bedingung für die Existenz
B.3. z-Transformation . . . . . . . . . . . . . . . . . .
B.3.1. Definition . . . . . . . . . . . . . . . . . .
B.3.2. Konvergenzbereich . . . . . . . . . . . . .
B.3.3. Inverse z-Transformation . . . . . . . . .
B.4. Zeitdiskrete Fouriertransformation (DTFT) . . .
B.4.1. DTFT . . . . . . . . . . . . . . . . . . . .
B.4.2. IDTFT . . . . . . . . . . . . . . . . . . .
B.5. Diskrete Fourier-Transformation (DFT) . . . . .
B.5.1. DFT . . . . . . . . . . . . . . . . . . . . .
B.5.2. IDFT . . . . . . . . . . . . . . . . . . . .
B.5.3. Zyklische Faltung . . . . . . . . . . . . . .
B.5.4. Lineare Faltung . . . . . . . . . . . . . . .
B.6. Symmetrien im Spektrum . . . . . . . . . . . . .
B.7. Hilbert-Transformation . . . . . . . . . . . . . . .
B.7.1. Definition . . . . . . . . . . . . . . . . . .
B.7.2. Besonderheiten . . . . . . . . . . . . . . .
B.8. ECB-Transformation . . . . . . . . . . . . . . . .
B.8.1. Definition . . . . . . . . . . . . . . . . . .
B.8.2. Inverse Transformation . . . . . . . . . .
B.8.3. Theorem von Grettenberg . . . . . . . . .
B.8.4. Inphasekomponente . . . . . . . . . . . .
B.8.5. Quadraturkomponente . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
43
43
43
43
46
46
46
46
48
48
48
51
52
53
53
54
55
55
55
55
55
58
58
58
58
59
59
60
60
60
60
1. Kombinatorik
1. N verschiedene Objekte kann man auf N ! verschiedene Arten anordnen.
!
2. Für k ≤ N Objekte aus einer Menge von N Objekten gibt es (NN−k)!
verschiedene
Anordnungen, wenn die k Objekte unterschieden werden oder ihre Reihenfolge
beachtet wird.
3. Wenn Identität bzw. Reihenfolge nicht beachtet werden gibt es Nk verschiedene
Anordnungen.
6
2. Bernoulli-Experimente
2. Bernoulli-Experimente
Die Wahrscheinlichkeit, daß ein Ereignis bei einem bestimmten Versuch eintritt beträgt
p · (1 − p)N −1
(1)
Die Wahrscheinlichkeit, daß ein Ereignis bei einem beliebigen Versuch eintritt beträgt
N · p · (1 − p)N −1
(2)
Die Wahrscheinlichkeit, daß ein Ereignis bei genau k bestimmten Versuchen eintritt
beträgt
pk · (1 − p)N −k
(3)
Die Wahrscheinlichkeit, daß ein Ereignis genau k mal bei beliebigen Versuchen eintritt
beträgt
N
· pk · (1 − p)N −k
(4)
k
3. Zufallsvariablen
3.1. Statistische Unabhängigkeit
3.1.1. Statistische Unabhängigkeit
fXY (x, y) = fX (x) · fY (y)
(5)
E {XY } = E {X} · E {Y }
(6)
3.1.2. Unkorreliertheit
Aus statistischer Unabhängigkeit folgt Unkorreliertheit – ausschließlich bei GaußVerteilung folgt aus Unkorreliertheit statistische Unabhängigkeit.
Für unkorrelierte Zufallsprozesse gilt
SXY (jω) = 2π · mX · m∗Y · δ(ω)
∞
X
SXY (ejΩ ) = 2π · mX · m∗Y ·
δ(Ω − 2πk)
(7)
(8)
k=−∞
3.1.3. Orthogonalität
Zwei Zufallsvariablen X und Y heißen orthogonal, wenn E {XY } = 0.
Aus Unkorreliertheit und E {X} = 0 ∪ E {Y } = 0 folgt Orthogonalität.
Für orthogonale Zufallsprozesse gilt
RXY = 0 ∧ SXY = 0
7
(9)
3. Zufallsvariablen
3.2. Bedingte Wahrscheinlichkeit
P (B ∩ A)
P (A)
(10)
P (B|A) · P (A)
P (B)
(11)
P (B|A) =
3.2.0.1. Satz von Bayes
P (A|B) =
Bei statistischer Unabhängigkeit gilt
∧
P (A|B) = P (A)
P (B|A) = P (B)
(12)
P (A ∪ C|B) = P (A|B) + P (C|B)
(13)
1. P (B|B) = 1
2. P (∅|B) = 0
3. Falls A ∩ B = ∅, so gilt
3.3. Abbildungen von Zufallsvariablen
3.3.1. Eindimensionaler Fall
fY (y) = fX (x) ·
|dx|
fX (x)
= 0
dy
|g (x)|
(14)
3.3.2. Mehrdimensionaler Fall

fY (~y ) =



mit J(~x) = 



(g −1 (~y ))
fX (~x)
fX
=
−1
|det J(g (~y ))|
|det J(~x)|
fU W (u, w) =

∂g1
∂x1
···
∂g1
∂xK
..
.
..
..
.
∂gK
∂x1
···
fXY (x, y)
| det J(x, y)|
.
∂gK
∂xK







(15)
(16)
3.4. Wichtige Funktionen
3.4.1. Komplementäres gauß’sches Fehlerintegral
Z∞
Q(x) :=
x
1 −y2
√ e 2 dy
2π
√
Tip: Bei Q( 2 · . . .) hebt sich die Wurzel mit 20 log(. . . ) weg.
8
(17)
3. Zufallsvariablen
1
0.01
Q(x) −→
0.0001
1e − 06
1e − 08
1e − 10
1e − 12
1e − 14
1e − 16
2
4
6
8
10
12
14
16
18
20 log10 (x) −→
(a) logarithmische Darstellung
Abbildung 1: Das komplementäre gauß’sche Fehlerintegral
3.5. Verteilung und Dichte
3.5.1. Eigenschaften einer Dichte
Z∞
fX (x) ≥ 0 ∧
fX (x) dx = 1
(18)
−∞
3.5.2. Eigenschaften einer Verteilung
Eine Wahrscheinlichkeitsverteilung ist immer monoton steigend. Außerdem gilt
0 ≤ FX (x) ≤ 1
(19)
3.5.3. Randdichte und Randverteilung
3.5.3.1. Randdichte
Z∞
fX (x) =
fXY (x, η) dη
(20)
fXY (ξ, y) dξ
(21)
−∞
Z∞
fY (y) =
−∞
9
3. Zufallsvariablen
3.5.3.2. Randverteilung
Zx Z∞
FX (x) =
Zx
fXY (ξ, η) dη dξ =
−∞ −∞
Zy Z∞
FY (y) =
fX (ξ)dξ
(22)
−∞
Zy
fXY (ξ, η) dξ, dη =
−∞ −∞
fY (η) dη
(23)
−∞
3.5.4. Bedingte Verteilungen
Rx
−t fX (ξ)
FX|X>t (x) =
dξ
1 − FX (t)
fXY (x, y)
fY (y|X = x) =
fX (x)
fXY (x,y)
fY |X (y) =
fX (x)
(24)
(25)
(26)
3.5.5. Spezielle Verteilungen
Skript ab Seite 131.
3.5.5.1. Gleichverteilung
Diskreter Fall
fX (x) =
N
1 X
·
δ(x − xi )
N
(27)
i=1
mX
N
1 X
=
·
xi
N
2
σX
=
1
·
N
i=1
N
X
(xi − mX )2
(28)
(29)
i=1
Kontinuierlicher Fall
(
fX (x) =
1
xmax −xmin
für xmin ≤ x ≤ xmax
0
sonst
xmax + xmin
2
x3max − x3min
(xmax + xmin )2
=
−
3(xmax − xmin )
4
mX =
2
σX
Der Spitzenwertfaktor eines Zufallsprozesses mit gleichverteilter Amplitude ist ζq0 =
10
(30)
(31)
(32)
√
3.
3. Zufallsvariablen
3.5.5.2. Binomialverteilung (Bernoulli-Experiment)
fX (x) =
FX (x) =
N X
N
k=0
N X
k=0
pk · (1 − p)N −k · δ(x − k) mit 0 < p < 1
(33)
N k
p · (1 − p)N −k · ε(x − k) mit 0 < p < 1
k
(34)
k
mX = N · p
(35)
(2)
mX = N · p(1 + N p − p)
(36)
2
σX
= N · p(1 − p)
(37)
Die Binomialverteilung nähert sich für N · p · (1 − p) 1 der Normalverteilung an.
3.5.5.3. Geometrische Verteilung Beschreibt die Zahl der Fehlversuche bis zum
ersten Treffer.
fX (x) =
FX (x) =
∞
X
k=0
∞
X
p · (1 − p)k · δ(x − k) mit 0 < p < 1
(38)
p · (1 − p)k · ε(x − k)
(39)
k=0
ΦX (s) =
p
1 − (1 − p) · es
(40)
1−p
p
mX =
(2)
(1 − p)(2 − p)
p2
1−p
=
p2
mX =
2
σX
(41)
(42)
(43)
3.5.5.4. Poisson-Verteilung Wahrscheinlichkeit, daß bei einem wiederholten BernoulliExperiment k Ergebnisse im Intervall ∆ liegen.
fX (x) = e
−a
·
FX (x) = e−a ·
∞
X
ak
k=0
∞
X
k=0
11
· δ(x − k)
(44)
ak
· ε(x − k)
k!
(45)
k!
3. Zufallsvariablen
ΦX (s) = ea(e
s −1)
(46)
mX = a
(47)
(2)
mX = a + a2
(48)
2
σX
=a
(49)
Wobei a = λ∆.
3.5.5.5. Gauß-Verteilung (Normal-Verteilung) N (mX , σX )
Definition
1
2
2
· e−(x−mX ) /2σX
2π · σX
2
1
x − mX
2
mit erf(x) = √ R x e−ξ dξ
FX (x) = · 1 + erf √
2
π
2σX
0
fX (x) = √
ΦX (s) = es
2 σ 2 /2+sm
X
X
(50)
(51)
(52)
Nur bei normalverteilten Zufallsvariablen gilt:
Xi unkorreliert ⇒ Xi statistisch unabhängig. Der Spitzenwertfaktor eines Zufallsprozesses mit gaußverteilter Amplitude geht gegen Unendlich.
Zwei gemeinsam normalverteilte Zufallsvariablen
„
1
q
·e
fXY (x, y) =
2πσX σY 1 − c2XY
−
1
·
)
2(1−c2
XY
„
(x−mX )2
(x−mX )(y−mY )
(y−mY )2
−2cXY ·
+
σX σY
σ2
σ2
X
Y
««
(53)
N gemeinsam normalverteilte Zufallsvariablen N Zufallsvariablen X1 , . . . , XN
werden als gemeinsam normalverteilt bezeichnet, wenn jede Linearkombination y =
~ eine normalverteilte Zufallsvariable erzeugt.
a1 X1 + · · · + aN YN = ~aX
3.5.5.6. Cauchy-Verteilung
fX (x) =
π(b2
b
+ (x − a)2 )
(54)
x0,5 = a = mX
(55)
3.5.5.7. Lognormal-Verteilung
−
1
fX (x) = √
·e
2πσU x
12
(ln x−mU )2
2σ 2
U
· ε(x)
(56)
3. Zufallsvariablen
3.5.5.8. Laplace-Verteilung
fX (x) = √
√
1
· e− 2|x−mX |/σX
2σX
2
smX
2 s2 · e
2 − σX
ΦX (s) =
(57)
(58)
3.5.5.9. Γ-Verteilung
λa · xa−1 eλx
ε(x)
Γ(a)
Z∞ a a−1 −λξ
λ ξ e
dξ · ε(x)
FX (x) =
Γ(a)
fX (x) =
(59)
(60)
0
Z∞
Γ(x) =
tx−1 · e−t dt
x>0
(61)
0
= (x − 1)!
(62)
ΦX (s) =
λ
λ−s
a
(63)
a
λ
a(a + 1)
=
λ2
a
= 2
λ
(64)
mX =
(2)
mX
2
σX
(65)
(66)
Erlang-Verteilung
fX (x) =
λn xn−1 e−λx
· ε(x)
(n − 1)!
χ2 -Verteilung Spezialfall der Γ-Verteilung für λ =
fX (x) =
1
2
und a = 2b , b ∈ N.
xb/2−1 e−x/2
· ε(x)
2b/2 · Γ(b/2)
ΦX (s) =
1
1 − 2s
(67)
(68)
b
2
(69)
χ-Verteilung
fX (x) =
2xN −1 e−
N
x2
2
2 2 Γ( N2 )
13
· ε(x)
(70)
3. Zufallsvariablen
Rayleigh-Verteilung (für N = 2)
z=
p
x2 + y 2
(71)
x2
z
· e− 2σ2 wobei z ≥ 0
2
σ
r
π
·σ
mZ =
2
π 2
σZ2 = 2 −
·σ
2
fZ (z) =
(72)
(73)
(74)
Maxwell-Verteilung (für N = 3)
r
fX (x) =
2 2 − x2
· x · e 2 · ε(x)
π
(75)
Exponential-Verteilung
FX (x) = 1 − e−λx · ε(x)
fX (x) = λe−λx · ε(x)
(76)
(77)
λ
λ−s
1
=
λ
2
= 2
λ
1
= 2
λ
ΦX (s) =
(78)
mX
(79)
(2)
mX
2
σX
(80)
(81)
3.6. Perzentil und Median
Das u-Perzentil einer Zufallsvariable X ist der kleinste Wert, für den gilt
ZxU
u = P (X ≤ xU ) = FX (xU ) =
fX (ξ) dξ
(82)
−∞
Das 0,5-Perzentil wird auch Median genannt.
3.7. Erzeugende Funktionen
3.7.1. Momentenerzeugende Funktion ΦX (s)
ΦX (s) = E e
sX
Z∞
=
fX (x)esx dx = L {fX (−x)}
−∞
(n)
Das Moment n-ter Ordnung entspricht der n-ten Ableitung von ΦX (0) bei s = 0.
14
(83)
4. Zufallsprozesse
3.7.2. Charakteristische Funktion ΦX (jω)
ΦX (jω) = E e
jωX
Z∞
=
fX (x)e
jωx
Z∞
dx =
−∞
fX (−x)e−jωx dx = F {fX (−x)}
(84)
−∞
3.7.3. Kumulantenerzeugende Funktion ΨX (s)
ΨX (s) = ln ΦX (s) =
∞
(n)
X
Ψ (0)
X
n=0
(n)
n!
sn
(85)
(n)
Kumulanten: λX = ΨX (0)
4. Zufallsprozesse
4.1. Stationarität
4.1.1. Strenge Stationarität
Ein Prozeß heißt streng stationär, wenn gilt
fX(t1 )···X(tN ) (x1 , . . . , xN ) = fX(t1 +∆)···X(tN +∆) (x1 , . . . , xN ) ∀N ∈ N, ∆ ∈ R
(86)
4.1.2. Gemeinsame strenge Stationarität
fX(t1 )···X(tM )Y (t1 )···Y (tN ) (x1 , . . . , xN , y1 , . . . , yN )
= fX(t1 +∆)···X(tN +∆)Y (t1 +∆)···Y (tN +∆) (x1 , . . . , xN , y1 , . . . , yN ) ∀M, N ∈ N, ∆ ∈ R
4.1.3. Schwache Stationarität
1.
mX (t) = mX
(87)
2.
RXX (t1 , t2 ) = E {X(t1 )X ∗ (t2 )}
(88)
∗
= RXX (t + τ, t) = E {X(t + τ )X (t)}
RXX (τ ) mit τ := t1 − t2
(89)
RXY (t + τ, t) := RXY (τ )
(91)
(90)
3.
speziell SXY = RXY (0) Kreuzleistung.
4. Für komplexe Zufallsprozesse gilt
Re{x(η, t)} = xI (η, t) Inphasekomponente
(92)
Im{x(η, t)} = xQ (η, t) Quadraturkomponente
(93)
15
4. Zufallsprozesse
a)
RxI xI (τ ) = RxQ xQ (τ )
(94)
Real- und Imaginärteil besitzen gleiche AKF.
b)
RxI xQ (τ ) = −RxI xQ (−τ )
(95)
Punktsymmetrische KKF zwischen Real- und Imaginärteil. Schwach stationäre Prozesse sind somit rotationsinvariant, d. h. x(η, t) und x(η, t)·ejϕ haben
die gleiche AKF.
Ein als komplex definierter Zufallsprozeß, dessen Imaginärteil 0 ist kann niemals
stationär sein.
∗ (−τ ), speziell beim reellen Zufallsprozeß
5. Symmetrieeigenschaft: RXX (τ ) = RXX
RXX (τ ) = RXX (−τ ) und RXY (τ ) = RY X (−τ ).
Bei normalverteilten Prozessen gilt:
Schwache Stationarität ⇒ Stationarität.
4.1.3.1. Eigenschaften (schwach) stationärer Prozesse
AKF und AKV
∗
(τ )
RXX (−τ ) = RXX
(96)
∗
CXX
(τ )
(97)
CXX (−τ ) =
RXX (τ ) = E {X(t + τ )X ∗ (t)}
(98)
∗
= E {X(t + τ + t0 )X (t)}
= RXX (τ + t0 )
(99)
(100)
AKF und AKV haben ein Maximum in τ = 0.
KKF und KKV
RXY (−τ ) = RY∗ X (τ )
(101)
CY∗ X (τ )
(102)
CXY (−τ ) =
CXY (t1 , t2 ) = RXY (t1 , t2 ) − mX (t1 )mY (t2 )
= RXY (t + τ, t) − mX (t +
RXY (τ ) −
16
mX m∗Y
τ )m∗Y (t)
(103)
(104)
(105)
4. Zufallsprozesse
Auto- und Kreuz-LDS
Grundsätzlich gilt:
SXX (jω) ≥ 0
(106)
∗
SXX (jω) = SXX
(jω)
(107)
∗
SXY
(jω)
(108)
Komplexer Fall
SXY (jω) =
Reeller Fall
SXX (jω) = SXX (−jω)
(109)
SXY (jω) = SY X (−jω)
(110)
4.1.4. Zyklostationäre Prozesse
fX···X (x1 , . . . , xN , t1 , . . . , tN ) = fX···X (x1 , . . . , xN , t1 + kT, . . . , tN + kT ) ∀k ∈ Z
(111)
Die zeitlich gemittelte AKF eines zyklostationären Prozesses hat die gleichen Eigenschaften wie die AKF eines stationären Prozesses (siehe Abschnitt 4.1.3.1).
4.1.5. Schwach zyklostationäre Prozesse
mX (t + kT ) = mX (t)
(112)
RXX (t + τ + kT, t + kT ) = RXX (t + τ, t)
(113)
4.1.6. Ergodizität
Ein Prozeß heißt ergodisch, wenn jeder zeitliche Mittelwert einer beliebigen Musterfunktion mit dem entsprechenden Scharmittelwert identisch ist.
Nachweis: Aus




mX konstant
schwache Stationarität
(114)


CXX (t0 , t1 ) = CXX (τ ) 
und
1
lim
T →∞ 2T
Z2T |τ |
1−
2T
−2T
folgt Ergodizität.
17
CXX (τ ) dτ = 0
(115)
4. Zufallsprozesse
4.2. Mittelwerte
4.2.1. Erwartungswert
Erwartungswertoperator für eine Funktion g und eine reelle Zufallsvariable X(η):
Z∞
E {g(X)} =
n
o
~
E g(X)
=
g(x)fX (x) dx
−∞
Z∞
(116)
Z∞
···
−∞
g(~x)fX~ (~x) d~x
(117)
−∞
Der Erwartungswertoperator ist linear:
E {a1 g1 (X) + a2 g2 (X)} = a1 E {g1 (x)} + a2 E {g2 (x)}
(118)
Das Signal-Störleistungs-Verhältnis berechnet sich aus den Mittelwerten zweiter Ordnung folgendermaßen:
!
(2)
mX
SNR = 10 log10
dB
(119)
(2)
mN
4.2.2. Momente n-ter Ordnung
4.2.2.1. kontinuierlich
(n)
mX
Z∞
n
= E {X } =
xn fX (x) dx
n ∈ N0
(120)
−∞
4.2.2.2. diskret
(n)
mX = E {X n } =
∞
X
xni · P (xi )
n ∈ N0
(121)
i=0
4.2.3. Zentrale Momente n-ter Ordnung
4.2.3.1. kontinuierlich
(n)
µX
Z∞ n
o
(1) n
(1) n
= E X − mX
=
x − mX
fX (x) dx
n ∈ N0
(122)
n ∈ N0
(123)
−∞
4.2.3.2. diskret
(n)
µX = E
∞ n
o
X
(1) n
(1) n
x − mX
· P (xi )
X − mX
=
i=−∞
4.2.4. Wichtige Momente
4.2.4.1. Linearer Mittelwert
18
4. Zufallsprozesse
kontinuierlich
(1)
mX
Z∞
= mX = E {X} =
xfX (x) dx
(124)
−∞
diskret
(1)
mX mX = E {X} =
X
xi · P (xi )
(125)
x2 fX (x) dx
(126)
i
4.2.4.2. Quadratischer Mittelwert
kontinuierlich
(2)
mX
=E X
2
Z∞
=
−∞
=
Z∞
1
2π
SXX (jω) dω
(127)
−∞
(2)
mX
1
=
2π
Z∞
SXX (jω) dω = RXX (0) = E |X(t)|2
(128)
−∞
diskret
(2)
mX =
X
x2i · P (xi )
(129)
i
4.2.4.3. Varianz
kontinuierlich
2
σX
=
(2)
µX
2
= E (X − mX )
Z∞
=
(x − mX )2 fX (x) dx
(130)
−∞
2
σX
= RXX (0) − m2X
(131)
diskret
(2)
2
σX
= mX − m2X
(132)
4.2.4.4. Normierte Momentanleistung
2
Sx (t1 ) = E |x(η, t1 )|
Z∞
=
−∞
19
|x|2 fx (x, t1 ) dx
(133)
4. Zufallsprozesse
4.2.5. Zentrale Verbundmomente
4.2.5.1. kontinuierlich
(m,n)
µXY
= E {(X − mX )m (X − mY )n }
Z∞
=
(x − mX )m (y − mY )n fXY (x, y) dx dy
(134)
(135)
−∞
4.2.5.2. diskret
(m,n)
µXY
= E {(X − mX )m (X − mY )n }
XX
=
(xi − mX )m (yj − mY )n · P (xi ∩ yj )
i
(136)
(137)
j
4.2.5.3. Kovarianz
kontinuierlich
(1,1)
CXY = µXY = E {(X − mX )(Y − mY )}
= E {XY } − E {X} E {Y }
Z∞ Z∞
=
(x − mX )(y − mY )fXY (x, y) dx dy
(138)
(139)
(140)
−∞ −∞
diskret
(1,1)
CXY = µXY = E {(X − mX )(Y − mY )}
XX
=
(xi − mX )(yj − mY ) · P (xi ∩ yj )
i
(141)
(142)
j
CXY = 0 ⇒ X und Y sind unkorreliert ⇒ E {XY } = E {X} E {Y }
4.2.5.4. Korrelationskoeffizient
cXY =
CXY
σX σY
(143)
4.2.5.5. Bedingte Erwartungswerte
Z∞
Z∞
n
o
~
E g(X|A)
=
···
g(~x)fX|A
x) d~x
~ (~
−∞
−∞
4.3. LTI-Systeme und schwach stationäre Prozesse
4.3.1. Mittelwerte
4.3.1.1. Linearer Mittelwert
20
(144)
4. Zufallsprozesse
kontinuierlich
Z∞
mY = mX ·
h(t) dt = mX · H(0)
(145)
−∞
diskret
mY = mX · H(1)
(146)
4.3.1.2. Quadratischer Mittelwert
kontinuierlich
(2)
mY
1
= RY Y (0) =
2π
Z∞
|H(jω)|2 · SXX (jω) dω
(147)
−∞
diskret
(2)
mY
1
= RY Y [0] =
2π
Z2π
SY Y e
jΩ
1
dΩ =
2π
0
Z2π
|H ejΩ |2 · SXX ejΩ dΩ
(148)
0
4.3.2. Korrelationsfunktionen
4.3.2.1. Autokorrelationsfunktion
Rxx (t1 , t2 ) = E {x(η, t1 ) · x∗ (η, t2 )}
Z∞ Z∞
im Reellen
=
x1 x2 fx1 x2 (x1 , x2 , t1 , t2 ) dx1 dx2
−∞ −∞
Z∞ Z∞
im Komplexen
(149)
(150)
Z∞ Z∞
((ac + bd) + j(bc − ad))fabcd (a, b, c, d) da db dc dd
=
−∞ −∞ −∞ −∞
(151)
wobei a = Re{x(η, t1 )}, b = Im{x(η, t1 )}, c = Re{x(η, t2 )} und d = Im{x(η, t2 )}.
Laplaceverteilter Zufallsprozeß
λ2
Raa [λ] = σa2 e− α2
(152)
4.3.2.2. Autokovarianz
CXX (t1 , t2 ) = E {[X(t1 ) − mX (t1 )] · [X(t2 ) − mX (t2 )]∗ }
∗
= RXX (t1 , t2 ) − mX (t1 )mX (t2 )
4.3.2.3. Kreuzkorrelation
21
(153)
(154)
4. Zufallsprozesse
RXX (τ )
SXX (jω)
RXY (τ )
h∗ (−τ )
H ∗ (jω)
RY Y (τ )
h(τ )
H(jω)
SXY (jω)
SY Y (jω)
(a) Im Kontinuierlichen
RXX [κ]
h∗ [−κ]
RXY [κ]
SXX (ejΩ )
H ∗ (ejΩ )
SXY (ejΩ )
RY Y [κ]
h[κ]
H(ejΩ )
SY Y (ejΩ )
(b) Im Diskreten
Abbildung 2: Korrelationsfunktionen und Leistungsdichtespektren
Definition
RXY (t1 , t2 ) = E {X(t1 )Y ∗ (t2 )}
(155)
Sxy = φxy (t1 , t1 )
(156)
Kreuzleistung
4.3.2.4. Kreuzkovarianz
CXY (t1 , t2 ) = E {[X(t1 ) − mX (t1 )] · [Y (t2 ) − mY (t2 )]∗ }
∗
= RXY (t1 , t2 ) − mX (t1 )mY (t2 )
4.3.2.5. Eigenschaften von AKF, AKV, KKF und KKV
gerade Funktionen:
(157)
(158)
AKF und AKV sind
∗
RXX (−τ ) = RXX
(τ )
(159)
∗
CXX
(τ )
(160)
CXX (−τ ) =
AKF und AKV eines periodischen Zufallsprozesses sind periodisch:
RXX (τ ) = RXX (τ + t0 )
(161)
Wegen CXX (τ ) = RXX (τ ) − |mX |2 folgt CXX (τ ) = CXX (τ + t0 ).
AKF und AKV haben ihr Maximum in τ = 0:
RXX (0) ≥ |RXX (τ )|
∀τ
(162)
4.3.2.6. Autoleistungsdichtespektrum
kontinuierlich
Z∞
SXX (jω) = F {RXX (τ )} =
−∞
22
RXX (τ )e−jωτ dτ
(163)
4. Zufallsprozesse
diskret
SXX (ejΩ ) = F∗ {RXX [κ]} =
∞
X
RXY [κ]e−jΩκ
(164)
RXY (τ )e−jωτ dτ
(165)
κ=−∞
4.3.2.7. Kreuzleistungsdichtespektrum
kontinuierlich
Z∞
SXY (jω) = F {RXY (τ )} =
−∞
diskret
SXY (ejΩ ) = F∗ {RXY [κ]} =
∞
X
RXY [κ]e−jΩκ
(166)
κ=−∞
4.3.2.8. Kreuzkorrelationsfunktion und Kreuzleistungsdichtespektrum zwischen Ein- und Ausgang
kontinuierlich
RXY (τ ) = RXX (τ ) ∗ h∗ (−τ )
(167)
RY X (τ ) = RXX (τ ) ∗ h(τ )
(168)
SXY (jω) = H ∗ (jω) · SXX (jω)
(169)
SY X (jω) = H(jω) · SXX (jω)
(170)
RXY [κ] = RXX [κ] ∗ h∗ [−κ]
(171)
RY X [κ] = RXX [κ] ∗ h[κ]
(172)
diskret
SXY ejΩ = H ∗ ejΩ · SXX ejΩ
SY X ejΩ = H ejΩ · SXX ejΩ
(173)
(174)
4.3.3. Autokorrelationsfunktion und Autoleistungsdichtespektrum am
Ausgang
4.3.3.1. kontinuierlich
RY Y (jω) = h(jω) ∗ RXY (jω)
∗
= h(jω) ∗ h (−jω) ∗ RXX (jω)
=
ρ(jω) ∗RXX (jω)
| {z }
Filter-AKF
23
(175)
(176)
(177)
4. Zufallsprozesse
SY Y (jω) = H(jω) · SXY (jω)
(178)
∗
= H (jω) · SY X (jω)
(179)
= |H(jω)|2 · SXX (jω)
(180)
4.3.3.2. diskret
RY Y [κ] = h[κ] ∗ RXY [κ]
(181)
∗
= h[κ] ∗ h [−κ] ∗ RXX [κ]
(182)
∗RXX [κ]
(183)
SY Y ejΩ = H(jω) · SXY (jω)
(184)
=
ρ[κ]
|{z}
Filter-AKF
∗
= H (jω) · SY X (jω)
= |H ejΩ |2 · SXX ejΩ
(185)
(186)
4.3.4. Kohärenzfunktion
CXY (jω)
GXY (jω) = p
SXX (jω) · SY Y (jω)
SXY ejΩ
jω
GXY (e ) = p
SXX (ejΩ ) · SY Y (ejΩ )
(187)
(188)
4.3.5. Weißes Rauschen
4.3.5.1. Definition Ein Prozeß heißt genau dann „weiß“, wenn er ein konstantes
Spektrum hat. Die Autokorrelationsfunktion ist dann ein Dirac-Impuls in 0.
kontinuierlich
CXX (t1 , t2 ) = RXX (t1 , t2 ) − mX (t1 ) · m∗X (t2 ) = 0
∀t1 6= t2
(189)
CXX (t1 , t2 ) = RXX (t1 , t2 ) = C0 (t1 )δ(t1 − t2 )
(190)
CXX [k1 , k2 ] = RXX [k1 , k2 ] = C0 [k1 ]δ[k1 − k2 ]
(191)
diskret
4.3.5.2. Leistungsdichtespektrum
N0
2
(192)
N0
· δ(τ )
2
(193)
SnHF nHF (jω) =
4.3.5.3. Autokorrelationsfunktion
RnHF nHF (τ ) =
24
4. Zufallsprozesse
4.3.5.4. Störleistung
Nl → ∞
(194)
4.3.5.5. Bandbegrenztes ECB-Rauschen
Snn (jω) = N0 ∀ω ∈ R
(195)
4.3.5.6. Streng weißes Rauschen Ein weißer Rauschprozeß heißt streng weiß genau
dann, wenn die Zufallsvariablen X(t1 ) und X(t2 ) statistisch unabhängig für beliebige
t1 6= t2 sind.
4.4. Schätztheorie
4.4.1. Prädiktion
Prädiktion macht Aussagen über nicht beobachtbare oder nicht beobachtete Ereignisse
auf Basis eines Wahrscheinlichkeitsmodells. Zu prädizierende Signale werden als Musterfunktionen eines Zufallsprozesses angesehen.
Wichtige Größen bei der Prädiktion:
~ oder Φ
~
• Parametervektor φ
~ Vektor von deterministischen aber unbekannten Parametern.
– φ:
~ Zufällige Parameter.
– Φ:
~
• Beobachtungsvektor ~x oder X
– ~x: Vektor von tatsächlich beobachtbaren Werten.
~ Vektor von als Zufallsvariablen modellierten Beobachtungen.
– X:
~ für die ein statistisches Modell bekannt ist durch ~x̂ oder
Ziel: Prädiktion von ~x oder X,
~
X̂.
Voraussetzung: Kenntnis der Parameter des Wahrscheinlichkeitsmodells (z. B. Verbunddichte zwischen Parametern und Beobachtungen oder Erwartungswerte).
4.4.1.1. Parameterschätzung Ein oder mehrere unbekannte Parameterwerte eines
Wahrscheinlichkeitsmodells sollen geschätzt werden. Wichtige Variablen:
~ oder Φ.
~
• Parametervektor φ
~
• Beobachtungsvektor ~x oder X.
~ her. (z. B. bedingte
• Unbekanntes System/Kanal: Stellt die Beziehung zwischen ~x/X
Wahrscheinlichkeiten, Verbundwahrscheinlichkeiten, Funktion & Rauschterm).
~ Erzeugt Schätzwerte als Funktionen der Beobachtung. Entwurf heuri• Schätzer Θ:
~
stisch oder per Modell der Beobachtungen X.
25
4. Zufallsprozesse
~
~
~
~ x), Φ̂
~ X):
~ Mustervektor φ̂
• Schätzwerte φ̂ = Θ(~
am Ausgang des Schätzers
= Θ(
~
~ abgeleitet aus Beobachtungen ~x oder Ausgangsvektor Φ̂
~ X),
~ wenn die
Θ
= Θ(
Beobachtungen als Zufallsvariablen betrachtet werden.
~ bzw. Φ
~ aus ~x bzw. X.
~
Ziel: Schätze φ
Voraussetzung: Kenntnis der Beobachtung bzw. Struktur eines statistischen Modells
der Beobachtung (der Parameter bei Bayes).
Klassische Parameterschätzung Parameter φ werden als Konstanten angesehen.
Schätzung ausschließlich auf Basis von tatsächlichen Beobachtungen.
~ aufgefaßt,
Bayes’sche Schätzung Parameter werden als echte Zufallsvariablen Φ
Schätzung einer Realisierung mittels eines Wahrscheinlichkeitsmodells ⇒ Prädiktion von
Parametern.
~ zwei
4.4.1.2. Intervallschätzung Es werden für eine zu schätzende Zufallsvariable X
Konstanten c1 , c2 als Schranken der Wahrscheinlichkeitsverteilung bestimmt, so daß
~ ≤ c2 ) =
P (c1 < X
γ
|{z}
=1−
Konfidenzmaß
∆c = c2 − c1
δ
|{z}
(196)
Konfidenzniveau
Vertrauensintervall
(197)
4.4.2. Prädiktion
Schätzung des Wertes einer Zufallsvariable.
4.4.2.1. Punktprädiktion Genau ein Wert einer (noch) nicht beobachteten Zufallsvariable soll möglichst gut vorhergesagt werden. Optimierungskriterium ist z. B. der
mittlere quadratische Fehler (MQF) ⇒ Optimierungsziel ist der minimale quadratische
Fehler (MMSE). Kostenfunktion ist
J(x̂) = E (X − x̂)2 = min
(198)
4.4.2.2. Intervallprädiktion Für ein bestimmtes Konfidenzmaß γ soll ein möglichst
kleines Vertrauensintervall ∆c festgelegt werden. Je nach Beschaffenheit der Wahrscheinlichkeitsdichtefunktion
1. Fall – Ein Maximum und und gerade Symmetrie:
fX (c1 ) = fX (c2 ) mit c1 ≤ mX ≤ c2
(199)
c1 = xδ/2 ∧ c2 = x1−δ/2
(200)
2. Fall – Ein Maximum: Startlösung nach Fall 1. Anschließend c1 und c2 so entlang
der x-Achse verschieben, daß die Wahrscheinlichkeits erhöht wird. Dann ∆c so weit
verkleinern, daß P (c1 < X ≤ c2 ) = γ gilt.
3. Fall – Mehrere Maxima: Lösung nach Fall 2, allerdings müssen alle Verschiebungen
abgesucht werden.
26
4. Zufallsprozesse
4.4.3. Gütekriterien für Parameterschätzer
4.4.3.1. Erwartungstreuer Schätzer
n
o
n o
φ̂bias = E Φ̂ − φ = E Φ̂ − φ
(201)
Ein erwartungstreuer Schätzer erfüllt φ̂bias = 0. Ein asymptotisch erwartungstreuer
Schätzer erfüllt limN →∞ φ̂bias = 0.
4.4.3.2. Effizienter Schätzer Ein erwartungstreuer Schätzer ist effizient genau dann,
wenn die Kovarianzmatrix
n oT n o
CΦ̂Φ̂ = E
Φ̂ − E Φ̂
Φ̂ − E Φ̂
(202)
minimal
CΦ̂Φ̂,effizient = min CΦ̂Φ̂
(203)
φ̂
ist, wobei als Norm der größte Eigenwert dienen kann.
4.4.3.3. Konsistenter Schätzer Ein erwartungstreuer Schätzer ist konsistent, wenn
er bezüglich der Wahrscheinlichkeit konvergiert
lim P Φ̂ − φ ≥ ε = 0
(204)
N →∞
wofür
lim CΦ̂Φ̂ = 0
N →∞
(205)
hinreichend ist.
Beispiele ab Seite 334.
~ X
~ heißt hinreichende Statistik
Ein Schätzer Θ
~
~ wenn Φ̂
~
~ X
~ alle Informationen über φ
für die Schätzung des Parametervektors φ,
=Θ
~ enthalten sind, d. h.
enthält, die in X
fX Φ̂ ~x, φ, φ̂
fX|Φ ~x, φ, φ̂ =
(206)
~ (~x)
fΦ̂ φ̂ = Θ
4.4.3.4. Hinreichende Statistik
hängt nicht von φ ab.
4.4.4. Mittelwertschätzer
4.4.4.1. Arithmetisches Mittel
φ̂ = mX
N
1 X
xi
=
·
N
i=1
27
(207)
4. Zufallsprozesse
4.4.4.2. Varianzschätzer bei bekanntem Mittelwert
Φ̂ = Σ̂2X =
N
1 X
(Xi − mX )2
N
(208)
i=1
4.4.4.3. Varianzschätzer bei unbekanntem Mittelwert
N
Σˆ2X =
2
1 X
Xi − M̂X
N −1
(209)
i=1
4.4.4.4. Mittelwertschätzung bei bekannter Varianz Z. B. für den Fall, daß N
zu klein ist um mit dem zentralen Grenzwertsatz zu argumentieren.
1. Nimm N Beobachtungen xi der Zufallsvariablen X und bilde das arithmetische
Mittel.
2. Bestimme für das gewünschte Konfidenzmaß γ = 1−δ das Perzentil zu für u = 1− 2δ
für die normierte Gauß-Verteilung.
3. Bestimme die Intervallgrenzen durch Entnormierung
m̂X ± z1 −
δ σX
·√
2
N
(210)
4.4.4.5. Mittelwertschätzung bei unbekannter Varianz
N
2
σ̂X
1 X
(xi − m̂X )2
=
N −1
(211)
i=1
2 = σ̂ 2 . Anschließend kann nach dem in Abschnitt 4.4.4.4 aufgezeigFür große N gilt σX
X
ten Schema verfahren werden.
4.4.4.6. Mittelwertschätzung bei unbekannter Verteilung Z. B. für den Fall,
daß N zu klein ist um mit dem zentralen Grenzwertsatz zu argumentieren.
σX
σX
P M̂X − √
< mX < M̂X + √
>1−δ
(212)
Nδ
Nδ
4.4.4.7. Parameterschätzung bei bestimmten Verteilungen
Exponentialverteilung Für M̂X > 0

P
δ
1 − z1 −
M̂X
√2
N
δ
<λ<
1 + z1 −
M̂X
28
√2
N

=1−δ =γ
(213)
4. Zufallsprozesse
Poissonverteilung
a1,2 = M̂X + z 2
δ
2
1− 2N
v
2
u
2
u
z1−
δ
u
2 
2
− M̂X
± tM̂X +
2N
4.4.4.8. Wahrscheinlichkeitsschätzung
!
r
p(1 − p)
P M̂X − p < z1− δ ·
=1−δ =γ
2
N
r
z2
2N
M̂X +
±
M̂X ·
p1,2 =
z2
N
1+
· 1 − M̂X +
z2
2N
(214)
(215)
2
(216)
z2
2N
Für N > 100 gilt
s
p1,2 = M̂X ± z ·
M̂X · (1 − M̂X )
N
(217)
4.4.4.9. Varianzschätzung bei normalverteilten Zufallsvariablen
Varianzschätzung bei bekanntem Mittelwert mX
N Σ̂2X
N Σ̂2X
2
<
<
σ
X
χ21− δ (N )
χ2δ (N )
2
(218)
2
Varianzschätzung bei unbekanntem Mittelwert mX
(N − 1)Σ̂2X
(N − 1)Σ̂2X
2
< σX
<
2
χ1− δ (N − 1)
χ2δ (N −1)
2
(219)
2
4.4.5. MMSE- und LSE-Schätzung
~ so, daß eine quadratische AbweiZiel: Schätze einen Vektor determinierter Parameter φ
~
~ φ̂
chung Ŷ = g X,
von einer beobachtbaren Zufallsvariable Y minimiert wird.
~
4.4.5.1. MMSE-Schätzung
Bestimme die Parameter φ̂ einer Funktion g so, daß die
~ φ̂ den mittleren quadratischen Fehler minimiert (Minimum
Zufallsvariable Ŷ = g X,
Mean Square Error).
n
o
~ φ̂ = φ̂MMSE = argmin E Y − g X,
~ φ̂
(220)
ΘMMSE Y, X,
φ̂
4.4.5.2. MSE-Schätzung
N X
~
~
~
~
~
Φ̂MSE = ΘMSE Y, X, Φ̂ = argmin~
Yi − g Xi , Φ̂
Φ̂
29
i=1
(221)
4. Zufallsprozesse
~ und
4.4.5.3. Maximum-Likelihood-Schätzer Gegeben: Ein Beobachtungsvektor X
ein parametrisches Modell der Wahrscheinlichkeitsdichtefunktion fX|Φ (~u|~v ) (LikelihoodFunktion).
Ziel: Finde den Maximum-Likelihood-Schätzer
~ φ = argmax~v f ~ ~ (~x, ~v )
Φ̂ML = ΘML X,
(222)
X|Φ
4.4.5.4. Log-Likelihood-Funktion
~ φ = argmax~v log f ~ (~x|~v )
Φ̂ML = ΘML X,
X|φ
(223)
~ unabhängig sind:
günstig, wenn die N Elemente Xi des Beobachtungsvektors X
u|~v ) = log
log fX|φ
~ (~
N
Y
fXi |φ (xi |~v ) =
i=1
N
X
log fXi |φ (xi |~v )
(224)
i=1
Um die Log-Likelihood-Funktion bezüglich der K Elemente vk des Parametervektors ~v
zu maximieren, setzt man die partiellen Ableitungen zu 0 und löst ein System mit K
Gleichungen:
N
N
X
∂ X
∂
log fXi |φ (xi , ~v ) =
log fXi |φ (xi |~v ) = 0
∂vk
∂~vk
i=1
∀k = 1, . . . , K
(225)
i=1
4.4.5.5. Bayes’sche Schätzung
~ Bayes (~x) = argmin R φ̂|~x
φ̂Bayes = Θ
φ̂


Z
v |~x) d~v 
= argminφ̂  C φ̂, ~v fΦ|
~ X
~ (~
(226)
(227)
V


Z
v ) d~v 
x|~v ) fΦ
C φ̂, ~v fX|
~ (~
~ Φ
~ (~
= argminφ̂ 
(228)
V
4.4.5.6. Maximum a posteriori-Schätzer (MAP)
φ̂MAP = argmaxφ̂ fΦ|
x
~ X
~ φ̂|~
= argmax~v fX|
x|~v ) · fΦ
v)
~ Φ
~ (~
~ (~
(229)
(230)
In logarithmischer Darstellung
~
Φ̂ = argmax~v log fX|
x, ~v ) + log fΦ
v)
~ Φ
~ (~
~ (~
30
(231)
4. Zufallsprozesse
g(t)
D(η, t)
U (η, t)
X(η, t)
Y (η, t)
+
E(η, t)
+
h(t)
N (η, t)
Abbildung 3: Typisches Szenario zur Wiener Filterung
4.4.6. Cramer-Rao-Schranke
~ und
Untere Schranke für die Varianz eines geschätzten Parametervektors Φ̂ gegeben X
~v .
∂ φ̂bias,i 2
(1 + ∂v
)
2
i
σΦ̂ ≥ (232)
i
∂ ln fX|
x|~v )
~ Φ
~ (~
E
∂vi
Für zufällige Parameter
2
σΦ̂
≥
(
i
E
1+
∂ φ̂bias,i
∂vi
∂ ln fX|
x,~v )
~ Φ
~ (~
∂vi
2
+
2
∂ ln fΦ
v)
~ (~
∂vi
)
(233)
4.5. Lineare Optimalfilterung
4.5.1. Wiener Filter
4.5.1.1. Zeitkontinuierlich
Schwach stationäres weißes Rauschen am Eingang
hopt (τ ) =
1
· RDX (τ )
R0
(234)
SDX (jω)
SXX (jω)
(235)
Allgemeine nichtkausale Filter
Hopt (jω) =
31
A. Mathematische Grundlagen
Restfehler
E
2
Emin
(t)
Z∞
1
=
2π
SEE (jω) dω
(236)
SDX (jω) · SXD(jω)
SXX (jω)
(237)
−∞
mit
SEE (jω) = SDD (jω) −
Für D(t) = g(t) ∗ U (t) und X(t) = U (t) + N (t) gilt
Hopt (jω) = G(jω) ·
SU U (jω) + SU N (jω)
SU U (jω) + SU N (jω) + SN U (jω) + SN N (jω)
(238)
Falls U (t) und N (t) orthogonal sind gilt
Hopt (jω) = G(jω) ·
SEE (jω) = |G(jω)|2 ·
SU U (jω)
SU U (jω) + SN N (jω)
SU U (jω) · SN N (jω) − SU U (jω) · SN U (jω)
SU U (jω) + SU N (jω) + SN U (jω) + SN N (jω)
(239)
(240)
A. Mathematische Grundlagen
A.1. Frequenz
A.1.1. Definition
f :=
1
T
(241)
T ist die Periode der Schwingung.
A.1.2. Kreisfrequenz
ω := 2πf
(242)
ω
fa
(243)
z := ejΩ
(244)
A.1.3. Normierte Kreisfrequenz
Ω :=
fa ist die Abtastfrequenz.
A.1.4. Die z-Ebene
32
A. Mathematische Grundlagen
Tabelle 1: Teile von Einheiten
Bezeichnung
Präfix
Faktor
Faktor2
Faktor3
yotto
y
10−24
10−48
10−72
zepto
z
10−21
10−42
10−63
atto
a
10−18
10−36
10−54
femto
f
10−15
10−30
10−45
pico
p
10−12
10−24
10−36
nano
n
10−9
10−18
10−27
micro
µ
10−6
10−12
10−18
milli
m
10−3
10−6
10−12
centi
c
10−2
10−4
10−8
deci
d
10−1
10−2
10−4
33
A. Mathematische Grundlagen
Tabelle 2: Vielfache von Einheiten
Faktor
Faktor2
Faktor3
da
101
102
103
Hekto
h
102
104
106
Kilo
k
103
106
1012
Mega
M
106
1012
1018
Giga
G
109
1018
1027
Tera
T
1012
1024
1036
Peta
P
1015
1030
1045
Exa
E
1018
1036
1054
Zeta
Z
1021
1042
1063
Yotta
Y
1024
1048
1072
Bezeichnung
Präfix
Deka
34
A. Mathematische Grundlagen
A.2. Lösungsformel für quadratische Gleichungen
ax2 + bx + c = 0
√

−b
±
b2 − 4ac


2a
p
⇒ x1,2 =
2

 −b ± j −(b − 4ac)
2a
(245)
falls b2 − 4ac ≥ 0
(246)
falls
b2
− 4ac < 0
A.3. Geradengleichung
A.3.1. Gerade durch einen Punkt P (x0 , y0 ) mit Steigung m
y = m(x − x0 ) + y0
(247)
A.3.2. Gerade durch die Punkte P (x0 , y0 ) und A(x1 , y1 )
y = y0 +
y1 − y0
· (x − x0 ) mit x1 6= x0
x1 − x0
(248)
A.3.3. Parameterform
x = x0 + t cos α
(249)
y = y0 + t sin α
(250)
mit t ∈ ]−∞, ∞[.
A.3.4. Allgemeine Form der Geradengleichung
Ax + By + C = 0
(251)
A.4. Additionstheoreme
1
sin α · sin β = (cos(α − β) − cos(α + β))
2
1
cos α · cos β = (cos(α − β) + cos(α + β))
2
1
sin α · cos β = (sin(α − β) + sin(α + β))
2
1
sin2 α = (1 − cos 2α)
2
1
2
cos α = (1 + cos 2α)
2
2
(254)
(256)
2
cos 2α = cos α − sin α = 1 − sin α
35
(253)
(255)
sin 2α = 2 sin α cos α = 1 − cos2 α
2
(252)
(257)
(258)
A. Mathematische Grundlagen
cot
tan
sin
cos
Abbildung 4: Trigonometrische Funktionen
Tabelle 3: Trigonometrische Funktionen – Funktionswerte besonderer Winkel
0
π
6
π
4
π
3
π
2
π
3
2π
ϕ
0◦
30◦
45◦
60◦
90◦
180◦
270◦
I
II
III
IV
sin ϕ
0
1
2
1
0
−1
+
+
−
−
cos ϕ
1
1
2
0
−1
0
+
−
−
+
tan ϕ
0
1
3
nicht
definiert
0
nicht
definiert
+
−
+
−
cot ϕ
nicht
definiert
0
nicht
definiert
0
+
−
+
−
√
√
√
1
2
3
3
3
1
2
√
√
1
1
2
1
2
√
3
1
2
2
√
1
3
3
√
3
36
Quadrant
A. Mathematische Grundlagen
ejα − e−jα
2j
ejα + e−jα
cos α =
2
(259)
sin α =
(260)
ejα = cos α + j sin α
(261)
e−jα = cos α − j sin α
(262)
A.5. Rechenregeln des Logarithmus
logb (u · v) = logb u + logb v
logb
logb uz = z · logb u
logb
u
√
n
v
u=
= logb u − logb v
(263)
1
· logb u
n
(264)
A.6. Differentiation
A.6.1. Regeln
A.6.1.1. Quotientenregel
u 0
v
=
u0 v − uv 0
v2
(265)
A.6.1.2. Kettenregel
(u(v(x)))0 = u0 (v(x)) · v 0 (x)
(266)
(u(x) · v(x))0 = u(x) · v 0 (x) + u0 (x) · v(x)
(267)
A.6.1.3. Produktregel
A.6.1.4. Logarithmische Differentiation
y = u(x)v(x) mit u(x) > 0
v(x) · u0 (x)
0
v(x)
0
⇒ y = u(x)
v (x) · ln u(x) +
u(x)
(268)
(269)
A.6.1.5. Differentiation eines parameterabhängigen Integrals
∂
∂x
b(x)
b(x)
Z
Z
∂
f (t, x) dt + f (b(x), x) · b0 (x) − f (a(x), x) · a0 (x)
f (t, x) dt =
∂x
a(x)
(270)
a(x)
A.6.1.6. l’Hospital’sche Regel
u(x)
u0 (x)
= lim 0
x→a v(x)
x→a v (x)
lim
37
(271)
A. Mathematische Grundlagen
A.6.2. Operatoren
A.6.2.1. Laplace-Operator ∆
∆f :=
n
X
∂2f
i=1
(272)
∂x2i
= Sp (Hessf (~x))
(273)
= ∇ · ∇f
(274)
A.6.2.2. Divergenz-Operator div
Definition
n
X
∂fi
divf :=
= Sp(J~v ) = ∇ · f
∂xi
(275)
∇ · (φ~v ) = (∇φ) · ~v + φ(∇~v )
(276)
i=1
Rechenregeln
∇ · (~v × w)
~ =w
~ · (∇ × ~v ) − ~v · (∇ × w)
~
(277)
A.6.2.3. Gradient-Operator ∇
Definition
gradf := ∇f = (fx1 , · · · , fxn )T
(278)
∇(A + B) = ∇A + ∇B
(279)
Rechenregeln
∇(A ◦ B) = ∇A ◦ B + ∇A ◦ B
(280)
Hierbei bedeutet „◦“ eines der Produkte „·“, „ד oder „⊗“ und „A“ bedeutet, daß ∇
nur auf A angewandt wird. Damit folgt:
∇(φψ) = φ(∇ψ) + (∇φ)ψ
(281)
∇(φ~v ) = ~v ⊗ (∇φ) + φ(∇~v )
(282)
∇(~v · w)
~ = (∇~v )T w
~ + (∇w)
~ T ~v
(283)
∇ · (φf ) = (∇φ) · f + φ∇ · f
(284)
A.6.2.4. Rotations-Operator
38
A. Mathematische Grundlagen
Definition




~ := 
rotV




∂v3
∂x2
−
∂v2
∂x3
∂v1
∂x3
−
∂v3
∂x1
∂v2
∂x1
−
∂v1
∂x2



~
=∇×V



(285)
Rechenregeln
∇ × (φ~v ) = (∇φ) × ~v + φ(∇ × ~v )
∂~v
∂w
~
∇ × (~v × w)
~ = (∇ · w)~
~ v+
− (∇ · ~v )w
~−
∂w
~
∂~v
Hierbei ist
∂~v
∂w
~
die Richtungsableitung von ~v in Richtung von w,
~ d. h.
A.6.2.5. Jacobi-Matrix (Funktionalmatrix)



~

∂f
~
~
∇f =
= Jf = 

∂~x


(287)
∂
∂w
~
=w
~ · ∇.

∂f1
∂x1
···
∂f1
∂xn
..
.
..
..
.
∂fm
∂x1
···
.
(286)
∂fm
∂xn



 = f~ ⊗ ∇



(288)
A.6.2.6. Hesse-Matrix




Hessφ (~x) =
=

2
∂x


∂2φ
∂2φ
∂x21
∂2φ
∂x1 ∂x2
∂2φ
∂x1 ∂x3
∂2φ
∂x2 x1
∂2φ
∂x22
∂2φ
∂x2 ∂x3
∂2φ
∂x3 x1
∂2φ
∂x3 x2
∂2φ
∂x23








= grad(gradφ) = ∇ ⊗ ∇φ
(289)
(290)
A.6.2.7. Zusammengesetzte Operationen
∇ · (∇ × ~v ) = 0
(291)
∇ × (∇φ) = 0
(292)
∇ × (∇ × ~v ) = ∇(∇ · ~v ) − ∆~v
(293)
A.7. Integrationsregeln
A.7.1. Partielle Integration
Z
Z
0
u(x)v (x) dx = u(x)v(x) − u0 (x)v(x) dx
39
(294)
A. Mathematische Grundlagen
Tabelle 4: Potenzen der imaginären Einheit
j(n
n
0
1
2
3
mod 4)
1
j
−1
−j
A.7.2. Substitutionsregel
x = u(t) bzw. t = v(x). u und v seien zueinander Umkehrfunktionen.
Z
Z
f (x) dx = f (u(t))u0 (t) dt bzw.
Z
Z
f (u(t))
dt
f (x) dx =
v 0 (u(t))
A.7.3. Logarithmische Integration
Z 0
f (x)
dx = ln |f (x)| + c
f (x)
Z
1
f 0 (x) · f (x) dx = · f 2 (x) + c
2
(295)
(296)
(297)
(298)
A.7.4. Integration der Umkehrfunktion
u und v seien zueinander Umkehrfunktionen. Dann ist
Z
u(x) dx = xu(x) − F (u(x)) + c1
mit
(299)
Z
F (x) =
v(x) dx + c2
(300)
A.8. Komplexe Zahlen
z = a + jb
= ρ(cos ϕ + j sin ϕ)
arg z = ϕ + 2kπ
(−π < ϕ ≤ +π ∧ k ∈ Z)
(301)
(302)
(303)
a = ρ cos ϕ
(304)
b = ρ sin ϕ
p
ρ = a2 + b2
(305)
40
(306)
A. Mathematische Grundlagen

a
für b ≥ 0 ∧ ρ > 0

arccos ρ
a
ϕ = − arccos ρ
für b < 0 ∧ ρ > 0


unbestimmt für ρ = 0


für a > 0
arctan ab



π


für a = 0 ∧ b > 0
+ 2
π
ϕ = −2
für a = 0 ∧ b < 0


b

arctan a + π für a < 0 ∧ b ≥ 0




arctan ab − π für a < 0 ∧ b < 0
(307)
(308)
z = ρ · ejϕ
(309)
ejϕ = cos ϕ + j sin ϕ
(310)
ea+jb = ea · cos b + jea · sin b
(311)
A.8.1. Komplexe Wurzel
p
√
ψ + 2πk
ψ + 2πk
n
n
+ j sin
z = |z| · cos
n
n
(312)
mit k = 0, . . . , n − 1 und ψ = arg(z).
A.9. Binomialkoeffizient
n
n
n!
=
=
k
n−k
k!(n − k)!
(313)
A.9.1. Reihen
Für konvergente Reihen gilt
∞
X
(αan + βbn ) = α
n=1
∞
X
an + β
n=1
∞
X
bn
(314)
n=1
A.10. Abschätzung mittels Union-Bound
P (A ∪ B) = P (A) + P (B) − P (A ∩ B) ≤ P (A) + P (B)
1
2
Harmonische Reihe
Geometrische Reihe
41
(315)
A. Mathematische Grundlagen
Tabelle 5: Bekannte Reihen
Formel
1
2
∞
X
1
n
n=1
∞
X
divergiert
qk
1
falls |q| < 1
1−q
qk
q k0 − q k1 +1
1−q
k=0
k1
X
k=k0
n
X
(−1)n
∞
X
1
n2
n=1
∞
X
Anmerkung
1
ln
2
π
6
1
nα
konvergiert für α > 1
n
m · (m + 1)
2
n2
m · (m + 1) · (2n + 1)
6
n=1
m
X
n=1
m
X
n=1
42
B. Transformationen
jω
σ
Abbildung 5: Konvergenzbereich kausaler kontinuierlicher LTI-Systeme
A.11. Bessel-Funktion erster Art
A.11.1. Definition
1
Jν (η) =
2π
Zπ
ej(η sin x−νx) dx
(316)
−π
x n+1
1 x n
1
≈
·
·
−
falls x 1
n!
2
(n + 1)!
2
(317)
A.11.2. Eigenschaften
• n gerade ⇒ Jn (x) = Jn (−x) = J−n (x) = J−n (−x)
• n ungerade ⇒ Jn (x) = −Jn (−x) = −J−n (x) = J−n (x)
B. Transformationen
B.1. Laplace-Transformation
B.1.1. Definition
Z∞
L{x(t)} = X(s) =
x(t)e−st dt
(318)
−∞
B.1.2. Inverse Laplace-Transformation
1
x(t) = L−1 {X(s)} =
2π
σ+j∞
Z
X(s)est ds
σ−j∞
43
(319)
B. Transformationen
Tabelle 6: Korrespondenzen der zweiseitigen Laplace-Transformation
x(t)
X(s) = L{x(t)}
δ(t)
1
s∈C
ε(t)
1
s
Re{s} > 0
Kb
e−at ε(t)
1
s+a
Re{s} > Re{−a}
−e−at ε(−t)
1
s+a
Re{s} < Re{−a}
tε(t)
tn ε(t)
te−at ε(t)
tn e−at ε(t)
1
s2
Re{s} > 0
n!
sn+1
Re{s} > 0
1
(s+a)2
Re{s} > Re{−a}
n!
(s+a)n+1
Re{s} > Re{−a}
sin(ω0 t)ε(t)
ω0
s2 +ω02
Re{s} > 0
cos(ω0 t)ε(t)
s
s2 +ω02
Re{s} > 0
e−at cos(ω0 t)ε(t)
s+a
(s+a)2 +ω02
Re{s} > Re{−a}
e−at sin(ω0 t)ε(t)
ω0
(s+a)2 +ω02
Re{s} > Re{−a}
t cos(ω0 t)ε(t)
s2 −ω02
(s2 +ω02 )2
Re{s} > 0
t sin(ω0 t)ε(t)
2ω0 s
(s2 +ω02 )2
Re{s} > 0
44
B. Transformationen
Tabelle 7: Sätze der zweiseitigen Laplace-Transformation
x(t)
Linearität
Ax1 (t) + Bx2 (t)
X(s) = L{x(t)}
Kb
AX1 (s) + BX2 (s)
Kb
Kb{X1 }
Kb{X2 }
⊇
∩
Verschiebung
x(t − τ )
e−sτ X(s)
unverändert
Modulation
e−at x(t)
X(s − a)
um Re{a} nach
rechts verschoben
tx(t)
d
− ds
X(s)
unverändert
d
dt x(t)
sX(s)
Kb ⊇ Kb{X}
−∞ x(τ )dτ
1
s X(s)
Kb ⊇ Kb{X} ∩
{s : Re{s} > 0}
„Multiplikation
mit t“, Differentiation
im
Frequenzbereich
Differentiation
im Zeitbereich
Integration
Achsenskalierung
Rt
x(at)
1
|a| X
45
s
a
Kb mit Faktor
a skalieren
B. Transformationen
B.2. Fourier-Transformation
B.2.1. Definition
Z∞
X(jω) = F{x(t)} =
x(t)e−jωt dt = L{x(t)}
s=jω
(320)
−∞
X(jω) = |X(jω)| · ejϕ(jω)
(321)
B.2.2. Inverse Fourier-Transformation
Z∞
1
X(jω)ejωt dω
x(t) =
2π
(322)
−∞
B.2.3. rect- und sinc-Funktion
(
1 für |t| ≤
rect(at) :=
0 sonst
1
2a
(323)
(324)
(
sinc(ω) :=
sin ω
ω
1
für ν 6= 0
für ν = 0
(325)
Bemerkung zur Implementierung von Systemen, die auf der rect- bzw. sinc basieren:
• Der Spitzenwertfaktor ζ0 geht gegen ∞.
• Das System ist schwach stationär, nicht zyklostationär. Dadurch wird eine eventuell
nötige Symboltaktsynchronisation extrem schwierig.
• Die horizontale Augenöffnung im Augendiagramm geht gegen Null.
• Das System ist nur mit einem sehr hohen Systemgrad implementierbar und nie
exakt. Die Grundlaufzeit ist sehr hoch.
Tabelle 8: Korrespondenzen der Fourier-Transformation
x(t)
X(jω) = F{x(t)}
Bemerkung
δ(t)
1
DiracImpuls
δ̇(t)
jω
46
B. Transformationen
Tabelle 8: Korrespondenzen der Fourier-Transformation
x(t)
δ n (t)
1
tn
ε(t)
tn · ε(t)
X(jω) = F{x(t)}
(jω)n
2πδ(ω)
Gleichgröße
2πjn δ n (ω) n ∈ N
πδ(ω) +
n!
(jω)n+1
sign(t)
2
jω
1
1+(at)2
π
a
1
jω
Sprungfunktion
+ πjn δ n (ω) n ∈ N
Signumfunktion
· e−
|ω|
a
1
t2 +a2
π −a|ω|
ae
t
t2 +a2
−jπ · e−a|ω| · signω
1
πt
Bemerkung
−jsign(ω)
HilbertTransformator
1−cos(ωg )
πt
jsign(ω) · rect( ωωg )
bandbegr.
Hilberttr.
cos(ω0 t)
π[δ(ω + ω0 ) + δ(ω − ω0 )]
Cosinusschwingung
sin(ω0 t)
jπ[δ(ω + ω0 ) − δ(ω − ω0 )]
Sinusschwingung
2πδ(ω − ω0 )
komplexe
Exp.Schw.
ejω0 t
sign(cos(ω0 t))
π
P∞
1
ν=1 2ν−1
[δ(ω − (2ν − 1)ω0 )
+δ(ω + (2ν − 1)ω0 )]
47
Rechteckschwingung
B. Transformationen
Tabelle 8: Korrespondenzen der Fourier-Transformation
x(t)
P∞
k=−∞ δ(t
1
T
− kT )
⊥⊥⊥
1
T
X(jω) = F{x(t)}
2π
T
P∞
k=−∞ δ
⊥⊥⊥
ωT
2π
ω−
Bemerkung
2π
T
·k
DiracKamm
rect(at)
1
|a| sinc
ω
2a
Rechteckimpuls
tri(at)
1
2
a sinc
ω
2a
Dreieckimpuls
sinc(at)
π
|a| rect
ω
2a
sincImpuls
ε(t) · e−at
e−a|t|
e−a
2 t2
1
a+jω
Einseitiger
Exp.Impuls
2a
a2 +ω 2
√
a>0
Zweiseitiger
Exp.Impuls
2
π − ω2
4a
a e
Gaußimpuls
B.2.4. Hinreichende Bedingung für die Existenz der
Fourier-Transformierten
Z∞
|x(t)|dt < ∞
(326)
−∞
B.3. z-Transformation
B.3.1. Definition
Z {x[k]} = X(z) =
∞
X
k=−∞
48
x[k]z −k
(327)
B. Transformationen
1.5
f (t) −→
1
0.5
0
−0.5
−1
−0.5
0.5
0
t
a
1
−→
(a) f (t) = rect(at)
1.2
1
−→
0.6
F (jω)
a
0.8
0.4
0.2
0
−0.2
−10
−8
−6
−4
−2
0
2
4
ω · π · a −→
(b) F (jω) =
1
ω
sinc( 2a
)
|a|
Abbildung 6: rect- und sinc-Funktion
49
6
8
10
B. Transformationen
Tabelle 9: Sätze der Fourier-Transformation
x(t)
Lineariät
Ax1 (t) + Bx2 (t)
X(jω) = F{x(t)}
AX1 (jω) + BX2 (jω)
Verschiebung
x(t − τ )
e−jωτ X(jω)
Modulation
ejω0 t x(t)
X(j(ω − ω0 ))
tx(t)
− dX(jω)
d(jω)
dx(t)
dt
jωX(jω)
−∞ x(τ )dτ
1
jω X(jω)
Differentiation im
Frequenzbereich
Differentiation
Zeitbereich
Integration
im
Rt
Ähnlichkeit
x(at)
Faltung
x1 (t) ∗ x2 (t)
Multiplikation
x1 (t) · x2 (t)
Dualität
Symmetrien
Parsevalsches
Theorem
+ πX(0)δ(ω)
jω
1
X
a ; a ∈ R \ {0}
|a|
X1 (jω) · X2 (jω)
1
2π X1 (jω)
∗ X2 (jω)
x1 (t)
x2 (jt)
x2 (jω)
2πx1 (−ω)
x(−t)
x∗ (t)
∗
x (−t)
X(−jω)
X ∗ (−jω)
X ∗ (jω)
R∞
2
−∞ |x(t)| dt
50
1
2π
R∞
2
−∞ |X(jω)| dω
B. Transformationen
Im{z}
Im{z}
Re{z}
(a) kausal
Re{z}
(b) antikausal
Abbildung 7: Konvergenzbereich diskreter LTI-Systeme
mit
z := ejΩ
(328)
B.3.2. Konvergenzbereich
1. Der Konvergenzbereich ist ein Ring um den Ursprung der z-Ebene.
2. Der Konvergenzbereich enthält keine Pole.
3. Ist x[k] von endlicher Dauer, so besteht der Konvergenzbereich aus der gesamten
z-Ebene außer evt. z = 0 und/oder z = ∞.
4. Bei kausalen Folgen: Liegt der Kreis |z| = r0 im Konvergenzbereich, dann auch
alle endlichen Werte von z, für die |z| > r0 gilt.
5. Bei antikausalen Folgen: Liegt der Kreis |z| = r0 im Konvergenzbereich, dann auch
alle Werte von z, für die 0 < |z| < r0 gilt.
6. Bei zweiseitigen Folgen: Liegt |z| = r0 im Konvergenzbereich, so ist der Konvergenzbereich ein Ring in der z-Ebene, der |z| = r0 enthält.
51
B. Transformationen
Tabelle 10: Korrespondenzen der zweiseitigen z-Transformation
x[k]
X(z) = Z{x[k]}
Kb
δ[k]
1
z∈C
ε[k]
z
z−1
|z| > 1
ak ε[k]
z
z−a
|z| > |a| (kausal)
−ak ε[−k − 1]
z
z−a
|z| < |a| (antikausal)
kε[k]
z
(z−1)2
|z| > 1
kak ε[k]
az
(z−a)2
|z| > |a|
1
k
1
a
ε[k − 1] ·
· ak−1
ln
z
z−a
|z| > |a|
sin(Ω0 k)ε[k]
z sin Ω0
z 2 −2z cos Ω0 +1
|z| > 1
cos(Ω0 k)ε[k]
z(z−cos Ω0 )
z 2 −2z cos Ω0 +1
|z| > 1
B.3.3. Inverse z-Transformation
x[k] =
1
·
2πj
I
X(z)z k−1 dz
(329)
C
=
1
2π
=
X
Z2π
X(|z|ejΩ |z|k ejΩk dΩ
(330)
0
Res
X(z)z
ν
=
X
ν
1
(m − 1)!
k−1 z=z∞,ν
dm−1
m
k−1 (z
−
z
)
X(z)z
∞,ν
dz m−1
z=z∞,ν
m ist die Vielfachheit der betrachteten Singularität.
52
(331)
(332)
B. Transformationen
Lineariät
Verschiebung
Modulation
ax1 [k] + bx2 [k]
x[k − κ]
ak x[k]
⊇
∩
aX1 (z) + bX2 (z)
Kb
Kb{X1 }
Kb{X2 }
z −κ X(z)
Kb{x}; z = 0
und z → ∞
gesondert
betrachten
z
a
Kb
=
z
z a ∈ Kb{x}
X
Multiplikation
mit k
kx[k]
−z dX(z)
dz
Kb{x}; z =
0 gesondert betrachten
Zeitumkehr
x[−k]
X(z −1 )
Kb = {z z −1 ∈
Kb{x}}
X1 (z) · X2 (z)
Kb ⊇ Kb{x1 } ∩
Kb{x2 }
Faltung
x1 [k] ∗ x2 [k]
Multiplikation
x1 [k] · x2 [k]
1
2πj
H
X1 (ζ)X2
z
ζ
1
ζ dζ
Grenzen
der
Konvergenzbereiche multiplizieren
B.4. Zeitdiskrete Fouriertransformation (DTFT)
B.4.1. DTFT
Die Zeitdiskrete Fouriertransformation ist gegeben durch
X(ejΩ ) = F∗ {x[k]} =
∞
X
x[k]e−jΩk
(333)
k=−∞
Sie entspricht der zweiseitigen z-Transformation für den Fall z = ejΩ , falls z = 1 ∈ Kb.
53
B. Transformationen
B.4.2. IDTFT
Die inverse DTFT braucht keinen Kb.
x[k] =
F∗−1
Z2π
1
X(e ) =
2π
jΩ
X(ejΩ )ejΩk dΩ
0
Tabelle 12: Korrespondenzen der DTFT
x[k]
X(ejΩ ) = F∗ {x[k]}
δ[k]
1
ε[k]
π
P∞
ε[k]ejΩ0 k
π
P∞
1
n=−∞ δ(Ω − 2πn) + 1−e−jΩ
n=∞ δ(Ω
1
− Ω0 − 2πn) +
1−e−j(Ω−Ω0 )
1
ejΩ0 k
cos Ω0 k
ε[k] · cos Ω0 k
P∞
µ=−∞ δ
2π
Ω
2π
−µ
P∞
n=−∞ δ(Ω
− Ω0 − 2πn)
P
π ∞
n=−∞ δ(Ω − Ω0 − 2πn) +
δ(Ω + Ω0 − 2πn)
π
2
P∞
n=−∞ δ(Ω − Ω0 − 2πn) +
δ(Ω + Ω0 − 2πn)
jΩ
e −cos Ω0
+ 2 cos
Ω−2 cos Ω0
π
2j
ε[k] · sin Ω0 k
P∞
n=−∞ δ(Ω − Ω0
− 2πn) −
δ(Ω + Ω0 − 2πn)
sin Ω0
+ 2 cos Ω−2
cos Ω0
sin Ω0 k
(
1
rect[k] =
0
für 0 ≤ k ≤ N
sonst
P
−jπ ∞
n=−∞ δ(Ω−Ω0 −2πn)−
δ(Ω + Ω0 − 2πn)
e−jΩ
54
N −1
2
·
sin( N2Ω )
sin( Ω
2)
(334)
B. Transformationen
Tabelle 12: Korrespondenzen der DTFT
x[k]
X(ejΩ ) = F∗ {x[k]}


für k > 0
1
sign[k] = 0
für k = 0


−1 für k < 0
1+e−jΩ
1−e−jΩ
1
= −j tan(Ω/2)
1
1−ae−jΩ
ak ε[k]
B.5. Diskrete Fourier-Transformation (DFT)
B.5.1. DFT
Die DFT einer Folge x[k] der Länge M ist gegeben durch
X[µ] =
M
−1
X
µk
x[k] · wM
= DFTM {x[k]} mit µ = 0(1)M − 1
(335)
k=0
mit dem Drehfaktor
2π
wM = e−j M
(336)
B.5.2. IDFT
Die Inverse DFT einer Folge X[µ] der Länge M ist definiert
x[k] =
M −1
1 X
−µk
X[µ]wM
= DFT−1
M {X[µ]} mit k = 0(1)M − 1
M
(337)
µ=0
B.5.3. Zyklische Faltung
Eine zyklische Faltung der Länge M ist definiert als
x1 [k] M x2 [k] = x2 [k] M x1 [k]
⇔
M
−1
X
x̃1 [k − κ] · x2 [κ] =
κ=0
M
−1
X
x̃2 [k − κ] · x1 [κ]
(338)
(339)
κ=0
mit x̃[k] = x[k] für k = 0(1)M − 1.
B.5.4. Lineare Faltung
Die minimale DFT-Länge für aliasingfreies lineares Falten beträgt M = Mx + Mh − 1.
55
B. Transformationen
Tabelle 13: Sätze der DTFT
Eigenschaft
Linearität
x[k]
ax1 [k] + bx2 [k]
x[k − κ]
Verschiebungssatz
Zeitumkehr
x[−k]
ejΩ0 k x[k]
Modulationssatz
X(ejΩ ) = F∗ {x[k]}
aX1 (ejΩ ) + bX2 (ejΩ )
e−jΩκ X(ejΩ ); κ ∈ Z
X(e−jΩ )
X(ej(Ω−Ω0 ) ); Ω0 ∈ R
jΩ )
Differentiation
kx[k]
j dX(e
dΩ
Konjugation
x∗ [k]
X ∗ (e−jΩ )
Realteil
Re{x[k]}
xg [k]
Imaginärteil
Im{x[k]}
xu [k]
Faltungssatz
x1 [k] ∗ x2 [k]
Multiplikationssatz
x1 [k] · x2 [k]
Parsevalsches Theorem
P∞
2
k=−∞ |x[k]|
56
Xg (ejΩ )
Re{X(ejΩ )}
Xu (ejΩ )
jIm{X(ejΩ )}
X1 (ejΩ )X2 (ejΩ )
1
2π
R 2π
=
1
jΩ
2π X1 (e )
1
2π
Rπ
0
−π
Y (ejΩ )X(ej(Ω−η) )dη
~ X2 (ejΩ )
|X(ejΩ )|dΩ
B. Transformationen
Tabelle 14: Sätze der DFT
x[k]
Linearität
P
ai ∈ C
i ai xi [k]
Zyklische Verschiebung
im Zeitbereich
x̃[k + κ]
Zyklische Verschiebung
im Frequenzbereich
kλ
x[k] · wM
Zeitumkehrung
x̃[−k] = x[M − k]
x∗ [k]
Komplexe Konjugation
DFT der zyklischen Faltung im Zeitbereich
x1 [k] M x2 [k]
DFT der Multiplikation
im Zeitbereich
x1 [k] · x2 [k]
57
X[µ]
P
i ai Xi [µ]
−µκ
X[µ] · wM
X[µ + λ]
X[−µ]
X ∗ [−µ]
X1 [µ] · X2 [µ]
1
M
PM −1
κ=0
X1 [µ − κ] · X2 [κ]
B. Transformationen
B.6. Symmetrien im Spektrum
(340)
⇐⇒
x(t)reell
(341)
∗
X(jω) = X (−jω)
(342)
Re {X(jω)} = Re {X(−jω)}
(343)
Im {X(jω)} = −Im {X(−jω)}
(344)
|X(jω)| = |X(−jω)|
(345)
arg {X(jω)} = − arg {X(−jω)}
x(t) =
Re {xg (t)}
Re {xu (t)}
+
+
jIm {xg (t)}
(346)
+
jIm {xu (t)}
X(jω) = Re {Xg (jω)} + jIm {Xu (jω)} + jIm {Xg (jω)} + Re {Xu (jω)}
(347)
B.7. Hilbert-Transformation
B.7.1. Definition
HH (ejΩ ) = −jsign(Ω)
(348)
(349)
hh [k] =
1
π
Zπ
(
sin(Ωk)dΩ =
2
πk
0
für k gerade
für k ungerade
(350)
0
B.7.2. Besonderheiten
(∞
)
∞
X
X
H
ai cos(it) + bi sin(it) =
ai · sin(it) − b · cos(it)
i=1
(351)
i=1
Die Hilbert-Transformation liefert zu einer geraden Funktion eine ungerade Funktion
mit demselben Betragsspektrum (nur Phase gedreht) und umgekehrt.
|X(f )| = |XH (f )|∀f 6= 0
(352)
Ein Signal und seine Hilbert-Transformierte sind zueinander orthogonal
Z∞
x(t) · H {x(t)}∗ dt = 0
−∞
58
(353)
B. Transformationen
Tabelle 15: Korrespondenzen der Hilbert-Transformation[3].
x(t)
H {x(t)}
Voraussetzung
cos(ω0 t)
sin(ω0 t)
ω0 > 0
sin(ω0 t)
− cos(ω0 t)
ω0 > 0
δ0 (t)
sin(ωg t)
ωg t
s(t) · cos(ω0 t)
1
πt
–
1−cos(ωg t)
ωg t
–
s(t) · sin(ω0 t)
S(jω) = 0 für |ω| ≥ ω0
Läßt sich eine Funktion x(t) in einen geraden Anteil xg (t) und einen ungeraden Anteil
xu zerlegen, so gilt
H {x(t)} = H {xg (t)} + H {xu (t)}
(354)
Achtung: Bei Signaltransformationen zur Gewinnung des ECB-Signals
jH {xHF (t)} = jxHF (t) ∗
1
πt
XHF (f ) · sign(f )
(355)
B.8. ECB-Transformation
Anmerkung: Der Faktor √12 wird verwendet, damit HF- und ECB-Signal die gleiche
Energie haben. An f0 werden keinerlei Anforderungen gestellt.
B.8.1. Definition
1
s(t) = √ · (sHF (t) + jH {sHF (t)}) · e−j·2π·f0 ·t
2
1
−j2πf0 t
= √ s+
HF (t) · e
2
(356)
(357)
(358)
1 +
S(f ) = √ SHF
(f + f0 )
2
1
= √ (1 + sign(f + f0 )) · SHF (f + f0 )
2
59
(359)
(360)
Literatur
B.8.2. Inverse Transformation
√
2 · Res(t) · ej2πf0 t
√ 2
j2πf0 t
∗
−j2πf0 t
s(t) · e
=
+ s (t) · e
2
sHF (t) =
(362)
(363)
√
SHF (f ) =
(361)
2
(S(f − f0 ) + S ∗ (−(f + f0 )))
2
(364)
B.8.3. Theorem von Grettenberg
Ein reeller, physikalischer, schwach stationärer Zufallsprozeß besitzt einen äquivalenten ECB-Prozeß mit den Eigenschaften stationär, mittelwertfrei, rotationssymmetrisch
(siehe 4.1.3).
B.8.4. Inphasekomponente
hI (t) = Re {hK (t)}
(365)
(366)
1
1
HI (t) = Re {HK (f ) + HK (−f )} +j Im {HK (f ) − HK (−f )}
{z
} |2
{z
}
|2
gerader Anteil
(367)
ungerader Anteil
B.8.5. Quadraturkomponente
hQ (t) = Im {hK (t)}
(368)
(369)
1
1
HQ (t) = Im {HK (f ) + HK (−f )} − j Re {HK (f ) − HK (−f )}
2
2
(370)
Literatur
[1] Furlan, Peter: Das Gelbe Rechenbuch 1. Lineare Algebra, Differentialrechnung für
Ingenieure, Naturwissenschaftler und Mathematiker. Dortmund : Verlag Martina
Furlan, 1995. – ISBN 3–9316–4500–2
[2] Huber, Johannes: Nachrichtenübertragung. Erlangen : Vorlesungsskript zur gleichnamigen Veranstaltung, 2006
60
Literatur
[3] Kammeyer, Karl-Dirk: Nachrichtenübertragung. Stuttgart : Teubner, 2004. – ISBN
3–519–26142–1
[4] Kellermann, Walter: Digitale Signalverarbeitung. Erlangen : Vorlesungsskript zur
gleichnamigen Veranstaltung, 2005
[5] Kellermann, Walter: Stochastische Prozesse. Erlangen : Vorlesungsskript zur
gleichnamigen Veranstaltung, 2005
[6] Konstantin Adolfowitsch Semendjajew, Ilja Nikolajewitsch B.: Taschenbuch
der Mathematik. Thun und Frankfurt am Main : Verlag Harri Deutsch, 2001. – ISBN
3–8171–2005–2
[7] Paul Mühlbauer, Friedrich B.: Mathematische Formeln und Definitionen. München : Bayerischer Schulbuchverlag, 1998. – ISBN 3–7627–3261–X
[8] Rudolf Rabenstein, Bernd G.: Einführung in die Systemtheorie. Stuttgart :
Teubner, 2005. – ISBN 3–5192–6194–4
61
Index
Symbole
Differentialoperator, siehe Ableitungsoperator
Differentiation, 37
Kettenregel, 37
logarithmische, 37
parameterabhängiges Integral, 37
Produktregel, 37
Quotientenregel, 37
Divergenz, 38
Q(x), 8
∆, 38
H {.}, 58
j, 40
∇, 38
A
Abbildung
von Zufallsvariablen, 8
Ableitungsoperator
Nabla, 38
Divergenz, 38
Gradient, 38
Laplace, 38
Rotation, 38
zusammengesetzte Operationen, 39
Additionstheoreme, 35
atto, 33
Autokorrelationsfunktion, 21
weißes Rauschen, 24
E
ECB-Transformation, 59
Ergodizität, 17
Erwartungswert, 18
bedingter, 20
Exa, 34
F
Faltung
lineare, 55
zyklische, 55
femto, 33
Filter
Wiener, 31
nichtkausal, 31
Funktion
charakteristische, 15
Filterautokorrelations-, 23, 24
Kohärenz-, 24
Korrelations-, 21
Auto-, 16, 21, 23
Kreuz-, 16, 21, 23
KovarianzAuto-, 16, 21
Kreuz-, 16, 22
kumulantenerzeugende, 15
Log-Likelihood, 30
momentenerzeugende, 14
Q, 8
rect-, 46
sinc-, 46
B
Bayes’sche Regel, 8
Bernoulli, 7
Bessel-Funktion, 43
Binomialkoeffizient
n
k
, 41
C
centi, 33
cos-, 35
Covarianz, 20
Cramer-Rao-Schranke, 31
D
deci, 33
Deka, 34
Dichte
Eigenschaften, 9
Rand-, 9
62
Index
Leistungsdichtespektrum
Auto-, 17, 22, 23
Kreuz-, 17, 23
weißes Rauschen, 24
l’Hospitalsche Regel, 37
Logarithmus
Rechenregeln, 37
trigonometrische, 35, 36
von Zufallsvariablen, 8
Wahrscheinlichkeitsdichte-, 9
Funktionalmatrix, 39
G
Geradengleichung
allgemeine Form, 35
durch Punkt und Steigung, 35
durch zwei Punkte, 35
Parameterform, 35
Giga, 34
Gradiend, 38
M
Matrix
Funktional, 39
Hesse, 39
Jakobi, 39
Median, 14
Mega, 34
micro, 33
milli, 33
Mittelwert, 18
linearer, 18, 20
quadratischer, 19, 21
Moment, 18
zentrales, 18
zentrales Verbund-, 20
H
Hekto, 34
I
Inphasekomponente, 60
Integration
logarithmische, 40
partielle, 39
Substitutionsregel, 40
Umkehrfunktion, 40
N
J
nano, 33
O
Jakobimatrix, 39
K
Optimalfilterung, 31
Orthogonalität, 7
Kettenregel, 37
Kilo, 34
Kombinatorik, 6
Komplexe Zahlen, 40
Korrelationskoeffizient, 20
Kovarianz, 20
Kreuzkorrelierte, 21, 23
Kreuzleistung, 15, 22
P
Perzentil, 14
Peta, 34
pico, 33
Prädiktion, 25, 26
Intervall-, 26
Punkt-, 26
Produktregel, 37
L
Q
Laplace-Operator, 38
Laplaceverteilung
Autokorrelation, 21
Q-Funktion, 8
Quadratische Gleichung, 35
63
Index
Quadraturkomponente, 60
Quotientenregel, 37
Parameter-, 25
Bayes, 26
klassische, 26
sin-, 35
Spitzenwertfaktor, 10, 12
Stationarität
schwache, 15
strenge, 15
gemeinsame, 15
Zyklo-, 17
schwache, 17
Statistik
hinreichende, 27
Symmetrie
Rotation, 16
R
Rauschen
streng weißes, 25
weißes, 24
Reihe
geometrische, 42
harmonische, 42
Reihen, 41
Rotation rot, 38
Rotationssymmetrie, 16
S
Schätzer
Bayes, 30
effizienter, 27
erwartungstreuer, 27
Intervall
normalverteilte Zufallsvariable mit
bekanntem mX , 29
normalverteilte Zufallsvariable mit
unbekanntem mX , 29
konsistenter, 27
MAP, 30
Maximum-Likelihood, 30
Mittelwert
arithmetischer, 27
bei bekannter Varianz, 28
bei unbekannter Varianz, 28
bei unbekannter Verteilung, 28
MMSE, 29
MSE, 29
Parameter
Exponentialverteilung, 28
Poissonverteilung, 29
Wahrscheinlichkeit, 29
Varianz
bei bekanntem Mittelwert, 28
bei unbekanntem Mittelwert, 28
Schätzung
Intervall-, 26
T
Tera, 34
Transformation
DFT-, 55
Diskrete Fourier-, 55
DTFT-, 53
ECB, 59
Fourier-, 46–48
zeitdiskret, 53–55
Hilbert-, 58
inverse z-, 52
Laplace-, 43
Symmetrien, 58
z-, 48–53
U
Unabhängigkeit
statistische, 7–8
Union-Bound, 41
Unkorreliertheit, 7
V
Varianz, 19
Verbundmoment
Zentrales, 20
Verteilung
bedingte, 10
64
Index
mehrdimensional, 8
Binomial-, 11
Cauchy-, 12
χ-, 13
χ2 -, 13
Eigenschaften, 9
Erlang-, 13
Exponential-, 14
Gamma-, 13
Γ-, 13
Gauß-, 12
geometrische, 11
Gleich-, 10
Laplace-, 13
Lognormal-, 12
Maxwell-, 14
Normal-, 12
gemeinsame, 12
Poisson-, 11
Rand-, 10
Rayleigh-, 14
W
Wahrscheinlichkeit
bedingte, 8
Verbund-, 8–10, 12
Weißes Rauschen, 24
Wurzel
komplexe, 41
Y
Yotta, 34
yotto, 33
Z
Zahl
komplexe, 40
Wurzel, 41
zepto, 33
Zeta, 34
Zufallsprozeß, 10, 12
Zufallsvariable
Abbildung
eindimensional, 8
65
Herunterladen