Kleine Formelsammlung zu Stochastische Prozesse

Werbung
Kleine Formelsammlung zu Stochastische
Prozesse
Florian Franzmann∗
Kompiliert am 4. September 2005 um 18:39 Uhr
∗
[email protected]
1
Index
A
sin-, 11
sinc-, 10
trigonometrische, 11
von Zufallsvariablen, 23
Wahrscheinlichkeitsdichte-, 24
Abbildung
von Zufallsvariablen, 23
Additionstheoreme, 11
B
Bernoulli, 20
Binomialkoeffizient, 12
G
Covarianz, 34
Cramer-Rao-Schranke, 44
Geradengleichung
allgemeine Form, 11
durch Punkt und Steigung, 10
durch zwei Punkte, 11
Parameterform, 11
D
I
C
Dichte
Eigenschaften, 24
Rand-, 24
E
Ergodizität, 31
Erwartungswert, 31
bedingter, 34
F
Filter
Wiener, 45
nichtkausal, 45
Funktion
charakteristische, 29
cos-, 11
Filterautokorrelations-, 37
Kohärenz-, 37
Korrelations-, 35
Auto-, 30, 35, 37
Kreuz-, 30, 35, 36
KovarianzAuto-, 30, 35
Kreuz-, 30, 35
kumulantenerzeugende, 29
Log-Likelihood, 43
momentenerzeugende, 29
rect-, 10
2
Integration, 12
partielle, 12
Substitutionsregel, 12
K
Kombinatorik, 20
Komplexe Zahlen, 12
Korrelationskoeffizient, 34
Kovarianz, 34
Kreuzkorrelierte, 35, 36
L
Leistungsdichtespektrum
Auto-, 30, 36, 37
Kreuz-, 30, 36
M
Median, 29
Mittelwert, 31
linearer, 32, 34
quadratischer, 33, 34
Moment, 32
zentrales, 32
zentrales Verbund-, 33
O
Optimalfilterung, 45
Orthogonalität, 23
Index
P
Perzentil, 29
Prädiktion, 38, 39
Intervall-, 40
Punkt-, 40
Q
Quadratische Gleichung
Lösungsformel, 11
R
Rauschen
streng weißes, 38
weißes, 38
S
Schätzer
Bayes, 44
effizienter, 40
erwartungstreuer, 40
Intervall
normalverteilte Zufallsvariable mit
bekanntem mX, 43
normalverteilte Zufallsvariable mit
unbekanntem mX, 43
konsistenter, 41
MAP, 44
Maximum-Likelihood, 43
Mittelwert
arithmetischer, 41
bei bekannter Varianz, 41
bei unbekannter Varianz, 42
bei unbekannter Verteilung, 42
MMSE, 43
MSE, 43
Parameter
Exponentialverteilung, 42
Poissonverteilung, 42
Wahrscheinlichkeit, 42
Varianz
bei bekanntem Mittelwert, 41
bei unbekanntem Mittelwert, 41
Schätzung
Intervall-, 39
Parameter-, 39
Bayes, 39
klassische, 39
Stationarität
schwache, 30
strenge, 29
gemeinsame, 29
Zyklo-, 31
schwache, 31
Statistik
hinreichende, 41
T
Transformation
DTFT, 13
Fourier, 13
zeitdiskret, 13–20
Laplace, 13
z, 13
U
Unabhängigkeit
statistische, 20, 23
Unkorreliertheit, 23
V
Varianz, 33
Verbundmoment
Zentrales, 33
Verteilung
bedingte, 24
Binomial-, 25
Cauchy-, 27
χ-, 28
χ2-, 28
Eigenschaften, 24
Erlang-, 28
Exponential-, 28
Gamma-, 27
Γ -, 27
Gauß-, 26
geometrische, 25
Gleich-, 25
Laplace-, 27
3
Index
Lognormal-, 27
Maxwell-, 28
Normal-, 26
gemeinsame, 26–27
Poisson-, 26
Rand-, 24
Rayleigh-, 28
W
Wahrscheinlichkeit
bedingte, 20
Verbund-, 23–24, 26–27
Weißes Rauschen, 38
Z
Zahl
komplexe, 12
Zufallsvariable
Abbildung
eindimensional, 23
mehrdimensional, 23
4
Abbildungsverzeichnis
Abbildungsverzeichnis
1
2
3
Rechteck- und sinc-Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Korrelationsfunktionen und Leistungsdichtespektren . . . . . . . . . . . . 35
Typisches Szenario zur Wiener Filterung . . . . . . . . . . . . . . . . . . . 45
Tabellenverzeichnis
1
2
3
4
5
6
7
8
Korrespondenzen der zweiseitigen Laplace-Transformation
Sätze der zweiseitigen Laplace-Transformation . . . . . . .
Korrespondenzen der Fourier-Transformation . . . . . . .
Sätze der Fourier-Transformation . . . . . . . . . . . . . .
Korrespondenzen der zweiseitigen z-Transformation . . . .
Sätze der zweiseitigen z-Transformation . . . . . . . . . .
Korrespondenzen der DTFT . . . . . . . . . . . . . . . . .
Sätze der DTFT . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
15
16
17
18
19
21
22
Inhaltsverzeichnis
1 Mathematische Grundlagen
10
1.1 Wichtige Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.1 rect-Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.2 sinc-Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2 Geradengleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Gerade durch einen Punkt P(x0, y0) mit Steigung m . . . . . . . . 10
1.2.2 Gerade durch die Punkte P(x0, y0) und A(x1, y1) . . . . . . . . . . 11
1.2.3 Parameterform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.4 Allgemeine Form der Geradengleichung . . . . . . . . . . . . . . . 11
1.3 Lösungsformel für quadratische Gleichungen . . . . . . . . . . . . . . . . . 11
1.4 Additionstheoreme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 Integrationsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5.1 Partielle Integration . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5.2 Substitutionsregel . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6 Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7 Binomialkoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.8 Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.8.1 Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . 13
1.8.1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.8.1.2 Inverse Laplace-Transformation . . . . . . . . . . . . . . 13
1.8.2 Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . 13
1.8.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.8.2.2 Inverse Fourier-Transformation . . . . . . . . . . . . . . . 13
1.8.2.3 Hinreichende Bedingung für die Existenz der Fourier-Transformierten 13
5
Inhaltsverzeichnis
1.8.3
1.8.4
z-Transformation . . . . . . . . . . . . . . .
1.8.3.1 Definition . . . . . . . . . . . . . .
Zeitdiskrete Fouriertransformation (DTFT)
1.8.4.1 DTFT . . . . . . . . . . . . . . . .
1.8.4.2 IDTFT . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
13
13
13
20
2 Kombinatorik
20
3 Bedingte Wahrscheinlichkeit
20
4 Bernoulli-Experimente
20
5 Statistische Unabhängigkeit
23
5.1 Statistische Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.2 Unkorreliertheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.3 Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6 Abbildungen von Zufallsvariablen
23
6.1 Eindimensionaler Fall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.2 Mehrdimensionaler Fall . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
7 Verteilung und Dichte
7.1 Eigenschaften einer Dichte . . . . . . . . . . . . . . . . . . . . . .
7.2 Eigenschaften einer Verteilung . . . . . . . . . . . . . . . . . . . .
7.3 Randdichte und Randverteilung . . . . . . . . . . . . . . . . . . .
7.3.1 Randdichte . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3.2 Randverteilung . . . . . . . . . . . . . . . . . . . . . . . .
7.4 Bedingte Verteilungen . . . . . . . . . . . . . . . . . . . . . . . .
7.5 Spezielle Verteilungen . . . . . . . . . . . . . . . . . . . . . . . .
7.5.1 Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . .
7.5.1.1 Diskreter Fall . . . . . . . . . . . . . . . . . . . .
7.5.1.2 Kontinuierlicher Fall . . . . . . . . . . . . . . . .
7.5.2 Binomialverteilung (Bernoulli-Experiment) . . . . . . . .
7.5.3 Geometrische Verteilung . . . . . . . . . . . . . . . . . . .
7.5.4 Poisson-Verteilung . . . . . . . . . . . . . . . . . . . . . .
7.5.5 Normal-Verteilung (Gauß-Verteilung) N (mX, σX) . . . . .
7.5.5.1 Definition . . . . . . . . . . . . . . . . . . . . . .
7.5.5.2 Zwei gemeinsam normalverteilte Zufallsvariablen
7.5.5.3 N gemeinsam normalverteilte Zufallsvariablen .
7.5.6 Cauchy-Verteilung . . . . . . . . . . . . . . . . . . . . . .
7.5.7 Lognormal-Verteilung . . . . . . . . . . . . . . . . . . . .
7.5.8 Laplace-Verteilung . . . . . . . . . . . . . . . . . . . . . .
7.5.9 Γ -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . .
7.5.9.1 Erlang-Verteilung . . . . . . . . . . . . . . . . .
7.5.9.2 χ2-Verteilung . . . . . . . . . . . . . . . . . . . .
6
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
24
24
24
24
24
24
24
24
25
25
25
25
25
26
26
26
26
27
27
27
27
27
28
28
Inhaltsverzeichnis
7.5.9.3
χ-Verteilung . . . . . . . . . . . . . . . .
7.5.9.3.1 Rayleigh-Verteilung (für N = 2)
7.5.9.3.2 Maxwell-Verteilung (für N = 3)
7.5.9.4 Exponential-Verteilung . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8 Perzentil und Median
28
28
28
28
29
9 Erzeugende Funktionen
29
9.1 Momentenerzeugende Funktion ΦX(s) . . . . . . . . . . . . . . . . . . . . 29
9.2 Charakteristische Funktion ΦX(jω) . . . . . . . . . . . . . . . . . . . . . . 29
9.3 Kumulantenerzeugende Funktion ΨX(s) . . . . . . . . . . . . . . . . . . . 29
10 Stationarität
10.1 Strenge Stationarität . . . . . . . . . . . . . . . . . .
10.2 Gemeinsame strenge Stationarität . . . . . . . . . .
10.3 Schwache Stationarität . . . . . . . . . . . . . . . . .
10.3.1 Eigenschaften (schwach) stationärer Prozesse
10.3.1.1 AKF und AKV . . . . . . . . . . .
10.3.1.2 KKF und KKV . . . . . . . . . . .
10.3.1.3 Auto- und Kreuz-LDS . . . . . . . .
10.3.1.3.1 Komplexer Fall . . . . . . .
10.3.1.3.2 Reeller Fall . . . . . . . . .
10.4 Zyklostationäre Prozesse . . . . . . . . . . . . . . . .
10.5 Schwach zyklostationäre Prozesse . . . . . . . . . . .
10.6 Ergodizität . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
29
30
30
30
30
30
30
31
31
31
31
11 Mittelwerte
11.1 Erwartungswert . . . . . . . . . .
11.2 Momente n-ter Ordnung . . . . .
11.2.1 kontinuierlich . . . . . . .
11.2.2 diskret . . . . . . . . . . .
11.3 Zentrale Momente n-ter Ordnung
11.3.1 kontinuierlich . . . . . . .
11.3.2 diskret . . . . . . . . . . .
11.4 Wichtige Momente . . . . . . . .
11.4.1 Linearer Mittelwert . . .
11.4.1.1 kontinuierlich . .
11.4.1.2 diskret . . . . .
11.4.2 Quadratischer Mittelwert
11.4.2.1 kontinuierlich . .
11.4.2.2 diskret . . . . .
11.4.3 Varianz . . . . . . . . . .
11.4.3.1 kontinuierlich . .
11.4.3.2 diskret . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
31
31
32
32
32
32
32
32
32
32
32
32
33
33
33
33
33
33
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
Inhaltsverzeichnis
11.5 Zentrale Verbundmomente . . . . .
11.5.1 kontinuierlich . . . . . . . .
11.5.2 diskret . . . . . . . . . . . .
11.5.3 Kovarianz . . . . . . . . . .
11.5.3.1 kontinuierlich . . .
11.5.3.2 diskret . . . . . .
11.5.4 Korrelationskoeffizient . . .
11.5.5 Bedingte Erwartungswerte .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
33
33
33
34
34
34
34
34
12 LTI-Systeme und schwach stationäre Prozesse
34
12.1 Mittelwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
12.1.1 Linearer Mittelwert . . . . . . . . . . . . . . . . . . . . . . . . . . 34
12.1.1.1 kontinuierlich . . . . . . . . . . . . . . . . . . . . . . . . . 34
12.1.1.2 diskret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
12.1.2 Quadratischer Mittelwert . . . . . . . . . . . . . . . . . . . . . . . 34
12.1.2.1 kontinuierlich . . . . . . . . . . . . . . . . . . . . . . . . . 34
12.1.2.2 diskret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
12.2 Korrelationsfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
12.2.1 Autokorrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
12.2.2 Autokovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
12.2.3 Kreuzkorrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
12.2.4 Kreuzkovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
12.2.5 Eigenschaften von AKF, AKV, KKF und KKV . . . . . . . . . . . 35
12.2.6 Autoleistungsdichtespektrum . . . . . . . . . . . . . . . . . . . . . 36
12.2.6.1 kontinuierlich . . . . . . . . . . . . . . . . . . . . . . . . . 36
12.2.6.2 diskret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
12.2.7 Kreuzleistungsdichtespektrum . . . . . . . . . . . . . . . . . . . . . 36
12.2.7.1 kontinuierlich . . . . . . . . . . . . . . . . . . . . . . . . . 36
12.2.7.2 diskret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
12.2.8 Kreuzkorrelationsfunktion und Kreuzleistungsdichtespektrum zwischen Ein- und Ausga
12.2.8.1 kontinuierlich . . . . . . . . . . . . . . . . . . . . . . . . . 36
12.2.8.2 diskret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
12.3 Autokorrelationsfunktion und Autoleistungsdichtespektrum am Ausgang . 37
12.3.1 kontinuierlich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
12.3.2 diskret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
12.4 Kohärenzfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
12.5 Weißes Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
12.5.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
12.5.1.1 kontinuierlich . . . . . . . . . . . . . . . . . . . . . . . . . 38
12.5.1.2 diskret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
12.5.2 Streng weißes Rauschen . . . . . . . . . . . . . . . . . . . . . . . . 38
8
Inhaltsverzeichnis
13 Schätztheorie
13.1 Prädiktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.1.1 Parameterschätzung . . . . . . . . . . . . . . . . . . . . . .
13.1.1.1 Klassische Parameterschätzung . . . . . . . . . . .
13.1.1.2 Bayes’sche Schätzung . . . . . . . . . . . . . . . .
13.1.2 Intervallschätzung . . . . . . . . . . . . . . . . . . . . . . .
13.2 Prädiktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.2.1 Punktprädiktion . . . . . . . . . . . . . . . . . . . . . . . .
13.2.2 Intervallprädiktion . . . . . . . . . . . . . . . . . . . . . . .
13.3 Gütekriterien für Parameterschätzer . . . . . . . . . . . . . . . . .
13.3.1 Erwartungstreuer Schätzer . . . . . . . . . . . . . . . . . .
13.3.2 Effizienter Schätzer . . . . . . . . . . . . . . . . . . . . . . .
13.3.3 Konsistenter Schätzer . . . . . . . . . . . . . . . . . . . . .
13.3.4 Hinreichende Statistik . . . . . . . . . . . . . . . . . . . . .
13.4 Mittelwertschätzer . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.4.1 Arithmetisches Mittel . . . . . . . . . . . . . . . . . . . . .
13.4.2 Varianzschätzer bei bekanntem Mittelwert . . . . . . . . . .
13.4.3 Varianzschätzer bei unbekanntem Mittelwert . . . . . . . .
13.4.4 Mittelwertschätzung bei bekannter Varianz . . . . . . . . .
13.4.5 Mittelwertschätzung bei unbekannter Varianz . . . . . . . .
13.4.6 Mittelwertschätzung bei unbekannter Verteilung . . . . . .
13.4.7 Parameterschätzung bei bestimmten Verteilungen . . . . .
13.4.7.1 Exponentialverteilung . . . . . . . . . . . . . . . .
13.4.7.2 Poissonverteilung . . . . . . . . . . . . . . . . . .
13.4.8 Wahrscheinlichkeitsschätzung . . . . . . . . . . . . . . . . .
13.4.9 Varianzschätzung bei normalverteilten Zufallsvariablen . . .
13.4.9.1 Varianzschätzung bei bekanntem Mittelwert mX .
13.4.9.2 Varianzschätzung bei unbekanntem Mittelwert mX
13.5 MMSE- und LSE-Schätzung . . . . . . . . . . . . . . . . . . . . . .
13.5.1 MMSE-Schätzung . . . . . . . . . . . . . . . . . . . . . . .
13.5.2 MSE-Schätzung . . . . . . . . . . . . . . . . . . . . . . . . .
13.5.3 Maximum-Likelihood-Schätzer . . . . . . . . . . . . . . . .
13.5.4 Log-Likelihood-Funktion . . . . . . . . . . . . . . . . . . . .
13.5.5 Bayes’sche Schätzung . . . . . . . . . . . . . . . . . . . . .
13.5.6 Maximum a posteriori-Schätzer (MAP) . . . . . . . . . . .
13.6 Cramer-Rao-Schranke . . . . . . . . . . . . . . . . . . . . . . . . .
14 Lineare Optimalfilterung
14.1 Wiener Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.1.1 Zeitkontinuierlich . . . . . . . . . . . . . . . . . . . . . . . .
14.1.1.1 Schwach stationäres weißes Rauschen am Eingang
14.1.1.2 Allgemeine nichtkausale Filter . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
38
38
39
39
39
39
39
40
40
40
40
40
41
41
41
41
41
41
41
42
42
42
42
42
42
43
43
43
43
43
43
43
43
44
44
44
.
.
.
.
45
45
45
45
45
9
1 Mathematische Grundlagen
1
1
− 2a
1
2a
(a) rect(at)
1
a
−2πa
(b)
2πa
1
ω
sinc( 2a
)
|a|
Abbildung 1: Rechteck- und sinc-Funktion
1 Mathematische Grundlagen
1.1 Wichtige Funktionen
1.1.1 rect-Funktion
1
rect(at) =
0
für |t| ≤
sonst
1
2a
1.1.2 sinc-Funktion
sinc(ν) =
sin ν
ν
1
für ν 6= 0
für ν = 0
1.2 Geradengleichung
1.2.1 Gerade durch einen Punkt P(x0, y0) mit Steigung m
y = m(x − x0) + y0
10
1.3 Lösungsformel für quadratische Gleichungen
1.2.2 Gerade durch die Punkte P(x0, y0) und A(x1, y1)
y = y0 +
y1 − y0
· (x − x0) mit x1 6= x0
x1 − x0
1.2.3 Parameterform
x = x0 + t cos α
y = y0 + t sin α
mit t ∈ ]−∞, ∞[.
1.2.4 Allgemeine Form der Geradengleichung
Ax + By + C = 0
1.3 Lösungsformel für quadratische Gleichungen
ax2 + bx + c = 0
√
−b ± b2 − 4ac
x1,2 =
falls b2 − 4ac ≥ 0
2a
p
−b ± j −(b2 − 4ac)
falls b2 − 4ac < 0
x1,2 =
2a
1.4 Additionstheoreme
sin α · sin β =
cos α · cos β =
1
(cos(α − β) − cos(α + β))
2
1
(cos(α − β) + cos(α + β))
2
sin2 α =
cos2 α =
1
(1 − cos 2α)
2
1
(1 + cos 2α)
2
sin 2α = 2 sin α cos α = 1 − cos2 α
cos 2α = cos2 α − sin2 α = 1 − sin2 α
sin α =
cos α =
ejα − e−jα
2j
jα
e + e−jα
2j
ejα = cos α + j sin α
e−jα = cos α − j sin α
11
1 Mathematische Grundlagen
1.5 Integrationsregeln
1.5.1 Partielle Integration
Z
Z
u(x)v ′ (x)dx = u(x)v(x) − u ′ (x)v(x)dx
1.5.2 Substitutionsregel
x = u(t) bzw. t = v(x). u und v seien zueinander Umkehrfunktionen.
Z
Z
f(x)dx =
f(u(t))u ′ (t)dt bzw.
Z
Z
f(u(t))
f(x)dx =
dt
v ′ (u(t))
1.6 Komplexe Zahlen
z = a + jb
z = ρ(cos ϕ + j sin ϕ)
arg z = ϕ + 2kπ (−π < ϕ ≤ +π ∧ k ∈ Z)
a = ρ cos ϕ
b = ρ sin ϕ
p
ρ =
a2 + b2

a

arccos ρ
ϕ = − arccos a
ρ


unbestimmt

b

arctan a



π


+ 2
ϕ = −π
2


b

arctan


a+π


b
arctan a
−π
für b ≥ 0 ∧ ρ > 0
für b < 0 ∧ ρ > 0
für ρ = 0
für
für
für
für
für
a>0
a =0∧b >0
a =0∧b <0
a <0∧b ≥0
a <0∧b <0
z = ρ · ejϕ
ejϕ = cos ϕ + j sin ϕ
1.7 Binomialkoeffizient
n
n
n!
=
=
k
n−k
k!(n − k)!
12
1.8 Transformationen
1.8 Transformationen
1.8.1 Laplace-Transformation
1.8.1.1 Definition
L{x(t)} = X(s) =
Z∞
x(t)e−stdt
−∞
1.8.1.2 Inverse Laplace-Transformation
x(t) = L−1{X(s)} =
1
2π
Z σ+j∞
X(s)estds
σ−j∞
1.8.2 Fourier-Transformation
1.8.2.1 Definition
X(jω) = F{x(t)} =
Z∞
−∞
x(t)e−jωtdt = L{x(t)}
s=jω
X(jω) = |X(jω)| · ejϕ(jω)
1.8.2.2 Inverse Fourier-Transformation
Z
1 ∞
X(jω)ejωtdω
x(t) =
2π −∞
1.8.2.3 Hinreichende Bedingung für die Existenz der Fourier-Transformierten
Z∞
|x(t)|dt < ∞
−∞
1.8.3 z-Transformation
1.8.3.1 Definition
Z {x[k]} = X(z) =
∞
X
x[k]z−k
k=−∞
1.8.4 Zeitdiskrete Fouriertransformation (DTFT)
1.8.4.1 DTFT Die Zeitdiskrete Fouriertransformation ist gegeben durch
X(ejΩ) = F∗ {x[k]} =
∞
X
x[k]e−jΩk
k=−∞
Sie entspricht der zweiseitigen z-Transformation für den Fall z = ejΩ, falls z = 1 ∈ Kb.
13
1 Mathematische Grundlagen
Tabelle 1: Korrespondenzen der zweiseitigen Laplace-Transformation
x(t)
X(s) = L{x(t)}
δ(t)
1
s∈C
ε(t)
1
s
Re{s} > 0
e−atε(t)
1
s+a
Re{s} > Re{−a}
−e−atε(−t)
1
s+a
Re{s} < Re{−a}
tε(t)
tnε(t)
te−atε(t)
tne−atε(t)
14
Kb
1
s2
Re{s} > 0
n!
sn+1
Re{s} > 0
1
(s+a)2
Re{s} > Re{−a}
n!
(s+a)n+1
Re{s} > Re{−a}
sin(ω0t)ε(t)
ω0
s2 +ω20
Re{s} > 0
cos(ω0t)ε(t)
s
s2 +ω20
Re{s} > 0
e−at cos(ω0t)ε(t)
s+a
(s+a)2 +ω20
Re{s} > Re{−a}
e−at sin(ω0t)ε(t)
ω0
(s+a)2 +ω20
Re{s} > Re{−a}
t cos(ω0t)ε(t)
s2 −ω20
(s2 +ω20 )2
Re{s} > 0
t sin(ω0t)ε(t)
2ω0 s
(s2 +ω20 )2
Re{s} > 0
1.8 Transformationen
Tabelle 2: Sätze der zweiseitigen Laplace-Transformation
x(t)
Linearität
Ax1(t) + Bx2(t)
X(s) = L{x(t)}
Kb
AX1(s) + BX2(s)
Kb ⊇ Kb{X1} ∩
Kb{X2}
Verschiebung
x(t − τ)
e−sτX(s)
unverändert
Modulation
e−atx(t)
X(s − a)
um Re{a} nach
rechts verschoben
Multiplikation mit t“,
”
Differentiation im Frequenzbereich
tx(t)
d
X(s)
− ds
unverändert
Differentiation im Zeitbereich
d
dt x(t)
sX(s)
Kb ⊇ Kb{X}
x(τ)dτ
1
s X(s)
Kb ⊇ Kb{X} ∩ {s :
Re{s} > 0}
Integration
Achsenskalierung
Rt
−∞
x(at)
1
|a| X
s
a
Kb mit Faktor a
skalieren
15
1 Mathematische Grundlagen
Tabelle 3: Korrespondenzen der Fourier-Transformation
x(t)
X(jω) = F{x(t)}
δ(t)
1
1
δ̇(t)
P∞
k=−∞
δ(t − kT ) =
1
T
1
T
⊥⊥⊥
ε(t)
jω
⊥⊥⊥
ωT
2π
πδ(ω) +
ω
1
|a| sinc 2a
sinc(at)
π
|a| rect
sign(t)
ejω0 t
=
1
jω
rect(at)
1
t
ω
2a
P∞
k=−∞
δ ω−
−jπsign(ω)
2
jω
2πδ(ω − ω0)
cos(ω0t)
π[δ(ω + ω0) + δ(ω − ω0)]
sin(ω0t)
jπ[δ(ω + ω0) − δ(ω − ω0)]
e−α|t|; α > 0
2 t2
e−a
16
2πδ(ω)
2α
α2 +ω2
√
ω2
π − 4a
2
e
a
2π
T
·k
1.8 Transformationen
Tabelle 4: Sätze der Fourier-Transformation
x(t)
Lineariät
Ax1(t) + Bx2(t)
Verschiebung
x(t − τ)
ejω0 tx(t)
Modulation
X(jω) = F{x(t)}
AX1(jω) + BX2(jω)
e−jωτX(jω)
X(j(ω − ω0))
Differentiation im Frequenzbereich
tx(t)
− dX(jω)
d(jω)
Differentiation im Zeitbereich
dx(t)
dt
jωX(jω)
x(τ)dτ
1
jω X(jω)
Integration
Ähnlichkeit
Rt
−∞
x(at)
Faltung
x1(t) ∗ x2(t)
Multiplikation
x1(t) · x2(t)
x1(t)
x2(jt)
Dualität
x(−t)
x∗ (t)
x∗ (−t)
Symmetrien
Parsevalsches Theorem
R∞
−∞
|x(t)|2dt
+ πX(0)δ(ω)
jω
1
X
a ; a ∈ R \ {0}
|a|
X1(jω) · X2(jω)
1
2π X1(jω)
∗ X2(jω)
x2(jω)
2πx1(−ω)
X(−jω)
X∗ (−jω)
X∗ (jω)
R
1 ∞
2π −∞
|X(jω)|2dω
17
1 Mathematische Grundlagen
Tabelle 5: Korrespondenzen der zweiseitigen z-Transformation
x[k]
X(z) = Z{x[k]}
Kb
δ[k]
1
z∈C
ε[k]
z
z−1
|z| > 1
akε[k]
z
z−a
|z| > |a| (kausal)
−akε[−k − 1]
z
z−a
|z| < |a| (antikausal)
kε[k]
z
(z−1)2
|z| > 1
kakε[k]
az
(z−a)2
|z| > |a|
1
k
1
a ln
ε[k − 1] ·
18
· ak−1
z
z−a
|z| > |a|
sin(Ω0k)ε[k]
zsin Ω0
z2 −2zcos Ω0 +1
|z| > 1
cos(Ω0k)ε[k]
z(z−cos Ω0 )
z2 −2zcos Ω0 +1
|z| > 1
1.8 Transformationen
Tabelle 6: Sätze der zweiseitigen z-Transformation
Eigenschaft
Lineariät
Verschiebung
Modulation
x[k]
ax1[k] + bx2[k]
x[k − κ]
akx[k]
X(z)
Kb
aX1(z) + bX2(z)
Kb ⊇ Kb{X1} ∩ Kb{X2}
z−κX(z)
Kb{x}; z = 0 und z →
∞ gesondert betrachten
X
z
a
Multiplikation mit k
kx[k]
−z dX(z)
dz
Zeitumkehr
x[−k]
X(z−1)
Faltung
x1[k] ∗ x2[k]
Multiplikation
x1[k] · x2[k]
Kb = z az ∈ Kb{x}
Kb{x}; z = 0 gesondert
betrachten
Kb = {zz−1 ∈ Kb{x}}
X1(z) · X2(z)
1
2πj
H
X1(ζ)X2
Kb ⊇ Kb{x1} ∩ Kb{x2}
z
ζ
1
ζ dζ
Grenzen der Konvergenzbereiche multiplizieren
19
4 Bernoulli-Experimente
1.8.4.2 IDTFT Die inverse DTFT braucht keinen Kb.
Z
1 2π
x[k] = F∗−1 X(ejΩ) =
X(ejΩ)ejΩkdΩ
2π 0
2 Kombinatorik
1. N verschiedene Objekte kann man auf N! verschiedene Arten anordnen.
N!
2. Für k ≤ N Objekte aus einer Menge von N Objekten gibt es (N−k)!
verschiedene
Anordnungen, wenn die k Objekte unterschieden werden oder ihre Reihenfolge
beachtet wird.
3. Wenn Identität bzw. Reihenfolge nicht beachtet werden gibt es N
k verschiedene
Anordnungen.
3 Bedingte Wahrscheinlichkeit
P(B|A) =
P(B ∩ A)
P(A)
Bei statistischer Unabhängigkeit gilt
P(A|B) = P(A)
∧
P(B|A) = P(B)
4 Bernoulli-Experimente
Die Wahrscheinlichkeit, daß ein Ereignis bei einem bestimmten Versuch eintritt beträgt
p · (1 − p)N−1
Die Wahrscheinlichkeit, daß ein Ereignis bei einem beliebigen Versuch eintritt beträgt
N · p · (1 − p)N−1
Die Wahrscheinlichkeit, daß ein Ereignis bei genau k bestimmten Versuchen eintritt
beträgt
pk · (1 − p)N−k
Die Wahrscheinlichkeit, daß ein Ereignis genau k mal bei beliebigen Versuchen eintritt
beträgt
N
· pk · (1 − p)N−k
k
20
Tabelle 7: Korrespondenzen der DTFT
x[k]
X(ejΩ) = F∗ {x[k]}
δ[k]
1
ε[k]
π
ε[k]ejΩ0 k
π
1
ejΩ0 k
cos Ω0k
ε[k] · cos Ω0k
P∞
n=−∞
P∞
n=∞
P∞
µ=−∞
2π
π
δ(Ω − 2πn) +
1
1−e−jΩ
δ(Ω − Ω0 − 2πn) +
Ω
2π
δ
P∞
n=−∞
P∞
n=−∞
π P∞
n=−∞
2
1
1−e−j(Ω−Ω 0 )
−µ
δ(Ω − Ω0 − 2πn)
δ(Ω − Ω0 − 2πn) + δ(Ω + Ω0 − 2πn)
δ(Ω − Ω0 − 2πn) + δ(Ω + Ω0 − 2πn)
jΩ
e −cos Ω0
+ 2cos
Ω−2cos Ω0
ε[k] · sin Ω0k
π
2j
P∞
n=−∞
δ(Ω − Ω0 − 2πn) − δ(Ω + Ω0 − 2πn)
sin Ω0
+ 2cos Ω−2cos
Ω0
sin Ω0k
1 für 0 ≤ k ≤ N
rect[k] =
0 sonst


für k > 0
1
sign[k] = 0
für k = 0


−1 für k < 0
akε[k]
−jπ
P∞
e−jΩ
n=−∞
N−1
2
1+e−jΩ
1−e−jΩ
·
δ(Ω − Ω0 − 2πn) − δ(Ω + Ω0 − 2πn)
sin( NΩ
2 )
sin( Ω
2 )
1
= −j tan(Ω/2)
1
1−ae−jΩ
21
4 Bernoulli-Experimente
Tabelle 8: Sätze der DTFT
Eigenschaft
Linearität
x[k]
ax1[k] + bx2[k]
Verschiebungssatz
x[k − κ]
Zeitumkehr
x[−k]
ejΩ0 kx[k]
Modulationssatz
X(ejΩ) = F∗ {x[k]}
aX1(ejΩ) + bX2(ejΩ)
e−jΩκX(ejΩ); κ ∈ Z
X(e−jΩ)
X(ej(Ω−Ω0 )); Ω0 ∈ R
jΩ )
Differentiation
kx[k]
j dX(e
dΩ
Konjugation
x∗ [k]
X∗ (e−jΩ)
Realteil
Re{x[k]}
xg[k]
Imaginärteil
Im{x[k]}
xu[k]
Faltungssatz
x1[k] ∗ x2[k]
Multiplikationssatz
x1[k] · x2[k]
Xg(ejΩ)
Re{X(ejΩ)}
Xu(ejΩ)
jIm{X(ejΩ)}
X1(ejΩ)X2(ejΩ)
1
2π
=
Parsevalsches Theorem
22
P∞
k=−∞
|x[k]|2
1
2π
R 2π
0
Y(ejΩ)X(ej(Ω−η))dη
1
jΩ
2π X1(e ) ⊛
Rπ
X2(ejΩ)
jΩ
−π |X(e )|dΩ
5 Statistische Unabhängigkeit
5.1 Statistische Unabhängigkeit
fXY(x, y) = fX(x) · fY(y)
5.2 Unkorreliertheit
E {XY} = E {X} · E {Y}
Aus statistischer Unabhängigkeit folgt Unkorreliertheit – bei Gauß-Verteilung folgt
aus Unkorreliertheit statistische Unabhängigkeit.
Für unkorrelierte Zufallsprozesse gilt
SXY(jω) = 2π · mX · m∗Y · δ(ω)
∞
X
δ(Ω − 2πk)
SXY(ejΩ) = 2π · mX · m∗Y ·
k=−∞
5.3 Orthogonalität
Zwei Zufallsvariablen X und Y heißen orthogonal, wenn E {XY} = 0.
Aus Unkorreliertheit und E {X} = 0 ∪ E {Y} = 0 folgt Orthogonalität.
Für orthogonale Zufallsprozesse gilt
RXY = 0 ∧ SXY = 0
6 Abbildungen von Zufallsvariablen
6.1 Eindimensionaler Fall
fY(y) = fX(x) ·
fX(x)
|dx|
= ′
dy
|g (x)|
6.2 Mehrdimensionaler Fall
fY (~y) =
fX(g−1(~y))
|det J(g−1(~y))|
=
fX(~x)
|det J(~x)|
fUW(u, w) =




mit J(~x) = 



fXY(x, y)
| det J(x, y)|
∂g1
∂x1
···
∂g1
∂xK
..
.
..
..
.
∂gK
∂x1
···
.
∂gK
∂xK








23
7 Verteilung und Dichte
7 Verteilung und Dichte
7.1 Eigenschaften einer Dichte
fX(x) ≥ 0 ∧
Z∞
fX(x)dx = 1
−∞
7.2 Eigenschaften einer Verteilung
Eine Wahrscheinlichkeitsverteilung ist immer monoton steigend. Außerdem gilt
0 ≤ FX(x) ≤ 1
7.3 Randdichte und Randverteilung
7.3.1 Randdichte
fX(x) =
fY(y) =
Z∞
fXY(x, η)dη
Z−∞
∞
fXY(ξ, y)dξ
−∞
7.3.2 Randverteilung
FX(x) =
FY(y) =
Zx Z∞
−∞
Z−∞
y Z∞
fXY(ξ, η)dηdξ =
Zx
fXY(ξ, η)dξ, dη =
−∞ −∞
−∞
Zy
fX(ξ)dξ
fY(η)dη
−∞
7.4 Bedingte Verteilungen
FX|X>t(x) = P(X ≤ x|X > t) =
fY (y|X = x) =
fY|X(y) =
7.5 Spezielle Verteilungen
Skript ab Seite 131.
24
P(X ≤ x ∩ X > t)
P(X > t)
fXY(x, y)
fX(x)
fXY(x,y)
fX(x)
7.5 Spezielle Verteilungen
7.5.1 Gleichverteilung
7.5.1.1 Diskreter Fall
fX(x) =
N
1 X
·
δ(x − xi)
N
i=1
mX =
σ2X =
7.5.1.2 Kontinuierlicher Fall
fX(x) =
N
1 X
·
xi
N
1
·
N
1
xmax −xmin
0
i=1
N
X
(xi − mX)2
i=1
für xmin ≤ x ≤ xmax
sonst
xmax + xmin
2
x3max − x3min
(xmax + xmin )2
−
3(xmax − xmin )
4
mX =
σ2X =
7.5.2 Binomialverteilung (Bernoulli-Experiment)
fX(x) =
FX(x) =
N X
N
k=0
N X
k=0
k
pk · (1 − p)N−k · δ(x − k) mit 0 < p < 1
N k
p · (1 − p)N−k · ε(x − k) mit 0 < p < 1
k
mX = N · p
(2)
mX
σ2X
= N · p(1 + Np − p)
= N · p(1 − p)
Die Binomialverteilung nähert sich für N · p · (1 − p) ≫ 1 der Normalverteilung an.
7.5.3 Geometrische Verteilung
Beschreibt die Zahl der Fehlversuche bis zum ersten Treffer.
∞
X
fX(x) =
p · (1 − p)k · δ(x − k) mit 0 < p < 1
FX(x) =
k=0
∞
X
k=0
p · (1 − p)k · ε(x − k)
25
7 Verteilung und Dichte
ΦX(s) =
mX =
(2)
=
mX
σ2X =
p
1 − (1 − p) · es
1−p
p
(1 − p)(2 − p)
p2
1−p
p2
7.5.4 Poisson-Verteilung
Wahrscheinlichkeit, daß bei einem wiederholten Bernoulli-Experiment k Ergebnisse im
Intervall ∆ liegen.
fX(x) = e−a ·
FX(x) = e−a ·
∞
X
ak
k=0
∞
X
k=0
k!
· δ(x − k)
ak
· ε(x − k)
k!
s −1)
ΦX(s) = ea(e
mX = a
(2)
mX
= a + a2
σ2X = a
Wobei a = λ∆.
7.5.5 Normal-Verteilung (Gauß-Verteilung) N (mX, σX)
7.5.5.1 Definition
fX(x) =
FX(x) =
1
2
2
· e−(x−mX ) /2σX
2π · σX
2
1
x − mX
2
mit erf(x) = √ R x e−ξ dξ
· 1 + erf √
2
π
2σX
0
√
2 σ2 /2+sm
X
X
ΦX(s) = es
Nur bei normalverteilten Zufallsvariablen gilt:
Xi unkorreliert ⇒ Xi statistisch unabhängig.
7.5.5.2 Zwei gemeinsam normalverteilte Zufallsvariablen
fXY(x, y) =
2πσXσY
26
1
q
„
1 − c2XY
·e
−
1
·
2(1−c 2 )
XY
„
(x−m X ) 2
σ2
X
−2cXY ·
(y−m Y ) 2
(x−m X )(y−m Y )
+
σX σY
σ2
Y
««
7.5 Spezielle Verteilungen
7.5.5.3 N gemeinsam normalverteilte Zufallsvariablen N Zufallsvariablen X1, . . . , XN
werden als gemeinsam normalverteilt bezeichnet, wenn jede Linearkombination y =
~ eine normalverteilte Zufallsvariable erzeugt.
a1X1 + · · · + aNYN = ~
aX
7.5.6 Cauchy-Verteilung
fX(x) =
π(b2 +
b
(x − a)2)
x0,5 = a = mX
7.5.7 Lognormal-Verteilung
1
−
fX(x) = √
·e
2πσUx
(ln x−m U ) 2
2σ 2
U
· ε(x)
7.5.8 Laplace-Verteilung
fX(x) = √
√
1
· e− 2|x−mX |/σX
2σX
ΦX(s) =
2
· esmX
2 − σ2Xs2
7.5.9 Γ -Verteilung
λa · xa−1eλx
ε(x)
Γ (a)
Z ∞ a a−1 −λξ
λ ξ e
dξ · ε(x)
FX(x) =
Γ (a)
0
fX(x) =
Γ (x) =
Z∞
0
tx−1 · e−tdt
x>0
= (x − 1)!
ΦX(s) =
mX =
(2)
mX
=
σ2X =
λ
λ−s
a
a
λ
a(a + 1)
λ2
a
λ2
27
7 Verteilung und Dichte
7.5.9.1 Erlang-Verteilung
λnxn−1e−λx
· ε(x)
(n − 1)!
fX(x) =
7.5.9.2 χ2-Verteilung
Spezialfall der Γ -Verteilung für λ =
xb/2−1e−x/2
· ε(x)
2b/2 · Γ (b/2)
b
2
1
ΦX(s) =
1 − 2s
fX(x) =
7.5.9.3 χ-Verteilung
x2
2xN−1e− 2
fX(x) =
N
2 2 Γ(N
2)
· ε(x)
7.5.9.3.1 Rayleigh-Verteilung (für N = 2)
p
z = x 2 + y2
2
z
−x2
2σ
·
e
wobei z ≥ 0
σ2
r
π
mZ =
·σ
2
π 2
·σ
σ2Z =
2−
2
fZ(z) =
7.5.9.3.2 Maxwell-Verteilung (für N = 3)
r
2 2 − x2
fX(x) =
· x · e 2 · ε(x)
π
7.5.9.4 Exponential-Verteilung
1 − e−λx · ε(x)
fX(x) =
λe−λx · ε(x)
FX(x) =
ΦX(s) =
mX =
(2)
mX
=
σ2X =
28
λ
λ−s
1
λ
2
λ2
1
λ2
1
2
und a = b2 , b ∈ N.
8 Perzentil und Median
Das u-Perzentil einer Zufallsvariable X ist der kleinste Wert, für den gilt
Z xU
fX(ξ)dξ
u = P(X ≤ xU) = FX(xU) =
−∞
Das 0, 5-Perzentil wird auch Median genannt.
9 Erzeugende Funktionen
9.1 Momentenerzeugende Funktion ΦX(s)
sX
ΦX(s) = E e
=
Z∞
−∞
fX(x)esxdx = L {fX(−x)}
(n)
Das Moment n-ter Ordnung entspricht der n-ten Ableitung von ΦX (0) bei s = 0.
9.2 Charakteristische Funktion ΦX(jω)
jωX
ΦX(jω) = E e
=
Z∞
jωx
fX(x)e
dx =
Z∞
−∞
−∞
fX(−x)e−jωxdx = F {fX(−x)}
9.3 Kumulantenerzeugende Funktion ΨX(s)
ΨX(s) = ln ΦX(s) =
∞
(n)
X
ΨX (0) n
s
n!
n=0
(n)
(n)
Kumulanten: λX = ΨX (0)
10 Stationarität
10.1 Strenge Stationarität
Ein Prozeß heißt streng stationär, wenn gilt
fX(t1 )···X(tN )(x1, . . . , xN) = fX(t1 +∆)···X(tN +∆)(x1, . . . , xN) ∀N ∈ N, ∆ ∈ R
10.2 Gemeinsame strenge Stationarität
fX(t1 )···X(tM )Y(t1 )···Y(tN )(x1, . . . , xN, y1, . . . , yN)
= fX(t1 +∆)···X(tN +∆)Y(t1 +∆)···Y(tN +∆)(x1, . . . , xN, y1, . . . , yN) ∀M, N ∈ N, ∆ ∈ R9
29
10 Stationarität
10.3 Schwache Stationarität
mX(t) = mX
RXX(t1, t2)
=
E {X(t1)X(t2)∗ }
=
RXX(t + τ, t) = E {X(t + τ)X∗ (t)}
RXX(τ) mit τ := t1 − t2
Bei normalverteilten Prozessen gilt:
Schwache Stationarität ⇒ Stationarität.
10.3.1 Eigenschaften (schwach) stationärer Prozesse
10.3.1.1 AKF und AKV
RXX(−τ) = R∗XX(τ)
CXX(−τ) = C∗XX(τ)
RXX(τ) = E {X(t + τ)X∗ (t)}
= E {X(t + τ + t0)X∗ (t)}
= RXX(τ + t0)
AKF und AKV haben ein Maximum in τ = 0.
10.3.1.2 KKF und KKV
RXY(−τ) = R∗YX(τ)
CXY(−τ) = C∗YX(τ)
CXY(t1, t2)
=
RXY (t1, t2) − mX(t1)mY (t2)
=
RXY (t + τ, t) − mX(t + τ)m∗Y(t)
RXY (τ) − mXm∗Y
10.3.1.3 Auto- und Kreuz-LDS
Grundsätzlich gilt:
SXX(jω) ≥ 0
10.3.1.3.1 Komplexer Fall
SXX(jω) = S∗XX(jω)
SXY(jω) = S∗XY(jω)
30
10.4 Zyklostationäre Prozesse
10.3.1.3.2 Reeller Fall
SXX(jω) = SXX(−jω)
SXY(jω) = SYX(−jω)
10.4 Zyklostationäre Prozesse
fX···X(x1, . . . , xN, t1, . . . , tN) = fX···X(x1, . . . , xN, t1 + kT, . . . , tN + kT ) ∀k ∈ Z
Die zeitlich gemittelte AKF eines zyklostationären Prozesses hat die gleichen Eigenschaften wie die AKF eines stationären Prozesses (siehe Abschnitt 10.3.1.1).
10.5 Schwach zyklostationäre Prozesse
mX(t + kT ) = mX(t)
RXX(t + τ + kT, t + kT ) = RXX(t + τ, t)
10.6 Ergodizität
Ein Prozeß heißt ergodisch, wenn jeder zeitliche Mittelwert einer beliebigen Musterfunktion mit dem entsprechenden Scharmittelwert identisch ist.
Nachweis: Aus




mX konstant
schwache Stationarität



CXX(t0, t1) = CXX(τ)
und
1
lim
T→∞ 2T
Z 2T −2T
|τ|
1−
2T
CXX(τ)dτ = 0
folgt Ergodizität.
11 Mittelwerte
11.1 Erwartungswert
Erwartungswertoperator für eine Funktion g und eine reelle Zufallsvariable X(η):
Z∞
g(x)fX(x)dx
E {g(X)} =
−∞
Z∞
Z
∞
~
x)d~x
g(~x)fX
···
E g(X)
=
~ (~
−∞
−∞
31
11 Mittelwerte
Der Erwartungswertoperator ist linear:
E {a1g1(X) + a2g2(X)} = a1E {g1(x)} + a2E {g2(x)}
Das Signal-Störleistungs-Verhältnis berechnet sich aus den Mittelwerten zweiter Ordnung folgendermaßen:
!
(2)
mX
SNR = 10 log 10
dB
(2)
mN
11.2 Momente n-ter Ordnung
11.2.1 kontinuierlich
(n)
mX
n
= E {X } =
Z∞
xnfX(x)dx
−∞
n ∈ N0
11.2.2 diskret
(n)
mX = E {Xn} =
∞
X
i=0
xn
i · P(xi)
n ∈ N0
11.3 Zentrale Momente n-ter Ordnung
11.3.1 kontinuierlich
Z∞ (1) n
(n)
(1) n
x − mX
fX(x)dx
µX = E X − mX
=
−∞
n ∈ N0
11.3.2 diskret
(n)
µX = E
∞ X
(1) n
(1) n
=
· P(xi)
X − mX
x − mX
i=−∞
11.4 Wichtige Momente
11.4.1 Linearer Mittelwert
11.4.1.1 kontinuierlich
(1)
mX
= mX = E {X} =
11.4.1.2 diskret
(1)
mX mX = E {X} =
Z∞
X
i
32
xfX(x)dx
−∞
xi · P(xi)
n ∈ N0
11.5 Zentrale Verbundmomente
11.4.2 Quadratischer Mittelwert
11.4.2.1 kontinuierlich
Z∞
x2fX(x)dx
= E X2 =
−∞
Z
1 ∞
=
SXX(jω)dω
2π −∞
(2)
mX
1
=
2π
(2)
mX
Z∞
−∞
SXX(jω)dω = RXX(0) = E |X(t)|2
11.4.2.2 diskret
(2)
mX =
X
i
x2i · P(xi)
11.4.3 Varianz
11.4.3.1 kontinuierlich
σ2X
=
(2)
µX
2
= E (X − mX)
=
Z∞
(x − mX)2fX(x)dx
−∞
σ2X = RXX(0) − m2X
11.4.3.2 diskret
(2)
σ2X = mX − m2X
11.5 Zentrale Verbundmomente
11.5.1 kontinuierlich
(m,n)
µXY
= E {(X − mX)m(X − mY )n}
Z∞
(x − mX)m(y − mY)nfXY(x, y)dxdy
=
−∞
11.5.2 diskret
(m,n)
µXY
= E {(X − mX)m(X − mY )n}
XX
=
(xi − mX)m(yj − mY)n · P(xi ∩ yj)
i
j
33
12 LTI-Systeme und schwach stationäre Prozesse
11.5.3 Kovarianz
11.5.3.1 kontinuierlich
(1,1)
CXY = µXY = E {(X − mX)(Y − mY)}
= E {XY} − E {X} E {Y}
Z∞ Z∞
(x − mX)(y − mY)fXY (x, y)dxdy
=
−∞ −∞
11.5.3.2 diskret
(1,1)
CXY = µXY = E {(X − mX)(Y − mY)}
XX
=
(xi − mX)(yj − mY ) · P(xi ∩ yj)
i
j
CXY = 0 ⇒ X und Y sind unkorreliert ⇒ E {XY} = E {X} E {Y}
11.5.4 Korrelationskoeffizient
cXY =
CXY
σXσY
11.5.5 Bedingte Erwartungswerte
Z∞
Z∞
~
E g(X|A) =
···
g(~x)fX|A
x)d~x
~ (~
−∞
−∞
12 LTI-Systeme und schwach stationäre Prozesse
12.1 Mittelwerte
12.1.1 Linearer Mittelwert
12.1.1.1 kontinuierlich
mY = mX ·
Z∞
−∞
h(t)dt = mX · H(0)
12.1.1.2 diskret
mY = mX · H(1)
12.1.2 Quadratischer Mittelwert
12.1.2.1 kontinuierlich
(2)
mY
34
1
= RYY(0) =
2π
Z∞
−∞
|H(jω)|2 · SXX(jω)dω
12.2 Korrelationsfunktionen
RXX(τ)
SXX(jω)
h∗ (−τ)
H∗ (jω)
RXY(τ)
SXY(jω)
h(τ)
H(jω)
RYY(τ)
SYY(jω)
(a) Im Kontinuierlichen
RXX[κ]
h∗ [−κ]
RXY[κ]
SXX(ejΩ)
H∗ (ejΩ)
SXY(ejΩ)
h[κ]
H(ejΩ)
RYY[κ]
SYY(ejΩ)
(b) Im Diskreten
Abbildung 2: Korrelationsfunktionen und Leistungsdichtespektren
12.1.2.2 diskret
(2)
mY
1
= RYY [0] =
2π
Z 2π
0
Z
1 2π jΩ 2
jΩ
dΩ =
| · SXX ejΩ dΩ
SYY e
|H e
2π 0
12.2 Korrelationsfunktionen
12.2.1 Autokorrelation
RXX(t1, t2) = E {X(t1)X∗ (t2)}
12.2.2 Autokovarianz
CXX(t1, t2) = E {[X(t1) − mX(t1)] · [X(t2) − mX(t2)]∗ }
= RXX(t1, t2) − mX(t1)mX(t2)∗
12.2.3 Kreuzkorrelation
RXY(t1, t2) = E {X(t1)Y ∗ (t2)}
12.2.4 Kreuzkovarianz
CXY(t1, t2) = E {[X(t1) − mX(t1)] · [Y(t2) − mY(t2)]∗ }
= RXY(t1, t2) − mX(t1)mY(t2)∗
12.2.5 Eigenschaften von AKF, AKV, KKF und KKV
AKF und AKV sind gerade Funktionen:
RXX(−τ) = R∗XX(τ)
CXX(−τ) = C∗XX(τ)
35
12 LTI-Systeme und schwach stationäre Prozesse
AKF und AKV eines periodischen Zufallsprozesses sind periodisch:
RXX(τ) = RXX(τ + t0)
Wegen CXX(τ) = RXX(τ) − |mX|2 folgt CXX(τ) = CXX(τ + t0).
AKF und AKV haben ihr Maximum in τ = 0:
RXX(0) ≥ |RXX(τ)|
∀τ
12.2.6 Autoleistungsdichtespektrum
12.2.6.1 kontinuierlich
SXX(jω) = F {RXX(τ)} =
Z∞
RXX(τ)e−jωτdτ
−∞
12.2.6.2 diskret
jΩ
SXX(e ) = F∗ {RXX[κ]} =
∞
X
RXY[κ]e−jΩκ
κ=−∞
12.2.7 Kreuzleistungsdichtespektrum
12.2.7.1 kontinuierlich
SXY(jω) = F {RXY(τ)} =
Z∞
RXY(τ)e−jωτdτ
−∞
12.2.7.2 diskret
jΩ
SXY(e ) = F∗ {RXY[κ]} =
∞
X
RXY[κ]e−jΩκ
κ=−∞
12.2.8 Kreuzkorrelationsfunktion und Kreuzleistungsdichtespektrum zwischen Einund Ausgang
12.2.8.1 kontinuierlich
RXY (τ) = RXX(τ) ∗ h∗ (−τ)
RYX(τ) = RXX(τ) ∗ h(τ)
SXY(jω) = H∗ (jω) · SXX(jω)
SYX(jω) = H(jω) · SXX(jω)
36
12.3 Autokorrelationsfunktion und Autoleistungsdichtespektrum am Ausgang
12.2.8.2 diskret
RXY[κ] = RXX[κ] ∗ h∗ [−κ]
RYX[κ] = RXX[κ] ∗ h[κ]
SXY ejΩ = H∗ ejΩ · SXX ejΩ
SYX ejΩ = H ejΩ · SXX ejΩ
12.3 Autokorrelationsfunktion und Autoleistungsdichtespektrum am
Ausgang
12.3.1 kontinuierlich
RYY(jω) = h(jω) ∗ RXY(jω)
= h(jω) ∗ h∗ (−jω) ∗ RXX(jω)
ρ(jω) ∗RXX(jω)
| {z }
=
Filter-AKF
SYY(jω) = H(jω) · SXY(jω)
= H∗ (jω) · SYX(jω)
= |H(jω)|2 · SXX(jω)
12.3.2 diskret
RYY [κ] = h[κ] ∗ RXY[κ]
= h[κ] ∗ h∗ [−κ] ∗ RXX[κ]
=
ρ[κ]
|{z}
∗RXX[κ]
Filter-AKF
SYY ejΩ = H(jω) · SXY(jω)
= H∗ (jω) · SYX(jω)
= |H ejΩ |2 · SXX ejΩ
12.4 Kohärenzfunktion
GXY(jω) =
GXY(ejω) =
p
p
CXY(jω)
SXX(jω) · SYY(jω)
SXY ejΩ
SXX (ejΩ) · SYY (ejΩ)
37
13 Schätztheorie
12.5 Weißes Rauschen
12.5.1 Definition
Ein Prozeß heißt genau dann weiß“, wenn gilt
”
12.5.1.1 kontinuierlich
CXX(t1, t2) = RXX(t1, t2) − mX(t1) · m∗X(t2) = 0 ∀t1 6= t2
CXX(t1, t2) = RXX(t1, t2) = C0(t1)δ(t1 − t2)
12.5.1.2 diskret
CXX[k1, k2] = RXX[k1, k2] = C0[k1]δ[k1 − k2]
12.5.2 Streng weißes Rauschen
Ein weißer Rauschprozeß heißt streng weiß genau dann, wenn die Zufallsvariablen X(t1)
und X(t2) statistisch unabhängig für beliebige t1 6= t2 sind.
13 Schätztheorie
13.1 Prädiktion
Prädiktion macht Aussagen über nicht beobachtbare oder nicht beobachtete Ereignisse
auf Basis eines Wahrscheinlichkeitsmodells. Zu prädizierende Signale werden als Musterfunktionen eines Zufallsprozesses angesehen.
Wichtige Größen bei der Prädiktion:
~ oder Φ
~
• Parametervektor φ
~ Vektor von deterministischen aber unbekannten Parametern.
– φ:
~ Zufällige Parameter.
– Φ:
~
• Beobachtungsvektor ~x oder X
– ~x: Vektor von tatsächlich beobachtbaren Werten.
~ Vektor von als Zufallsvariablen modellierten Beobachtungen.
– X:
~ für die ein statistisches Modell bekannt ist durch ~x
Ziel: Prädiktion von ~x oder X,
^ oder
~
^
X.
Voraussetzung: Kenntnis der Parameter des Wahrscheinlichkeitsmodells (z. B. Verbunddichte zwischen Parametern und Beobachtungen oder Erwartungswerte).
38
13.2 Prädiktion
13.1.1 Parameterschätzung
Ein oder mehrere unbekannte Parameterwerte eines Wahrscheinlichkeitsmodells sollen
geschätzt werden. Wichtige Variablen:
~ oder Φ.
~
• Parametervektor φ
~
• Beobachtungsvektor ~x oder X.
~ her. (z. B. bedingte
• Unbekanntes System/Kanal: Stellt die Beziehung zwischen ~x/X
Wahrscheinlichkeiten, Verbundwahrscheinlichkeiten, Funktion & Rauschterm).
~ Erzeugt Schätzwerte als Funktionen der Beobachtung. Entwurf heuri• Schätzer Θ:
~
stisch oder per Modell der Beobachtungen X.
~^ = Θ(~
~^ = Θ(
~^ am Ausgang des Schätzers Θ
~ x), Φ
~ X):
~ Mustervektor φ
~
• Schätzwerte φ
~
~ X),
~ wenn die Beob^ = Θ(
abgeleitet aus Beobachtungen ~x oder Ausgangsvektor Φ
achtungen als Zufallsvariablen betrachtet werden.
~ bzw. Φ
~ aus ~x bzw. X.
~
Ziel: Schätze φ
Voraussetzung: Kenntnis der Beobachtung bzw. Struktur eines statistischen Modells
der Beobachtung (der Parameter bei Bayes).
13.1.1.1 Klassische Parameterschätzung Parameter φ werden als Konstanten angesehen. Schätzung ausschließlich auf Basis von tatsächlichen Beobachtungen.
~ aufge13.1.1.2 Bayes’sche Schätzung Parameter werden als echte Zufallsvariablen Φ
faßt, Schätzung einer Realisierung mittels eines Wahrscheinlichkeitsmodells ⇒ Prädiktion von Parametern.
13.1.2 Intervallschätzung
~ zwei Konstanten c1, c2 als Schranken
Es werden für eine zu schätzende Zufallsvariable X
der Wahrscheinlichkeitsverteilung bestimmt, so daß
~ ≤ c2) =
P(c1 < X
γ
|{z}
Konfidenzmaß
=1−
δ
|{z}
Konfidenzniveau
∆c = c2 − c1 Vertrauensintervall
13.2 Prädiktion
Schätzung des Wertes einer Zufallsvariable.
39
13 Schätztheorie
13.2.1 Punktprädiktion
Genau ein Wert einer (noch) nicht beobachteten Zufallsvariable soll möglichst gut vorhergesagt werden. Optimierungskriterium ist z. B. der mittlere quadratische Fehler (MQF)
⇒ Optimierungsziel ist der minimale quadratische Fehler (MMSE). Kostenfunktion ist
J(^
x) = E (X − x
^)2 = min
13.2.2 Intervallprädiktion
Für ein bestimmtes Konfidenzmaß γ soll ein möglichst kleines Vertrauensintervall ∆c
festgelegt werden. Je nach Beschaffenheit der Wahrscheinlichkeitsdichtefunktion
1. Fall – Ein Maximum und und gerade Symmetrie:
fX(c1) = fX(c2) mit c1 ≤ mX ≤ c2
c1 = xδ/2 ∧ c2 = x1−δ/2
2. Fall – Ein Maximum: Startlösung nach Fall 1. Anschließend c1 und c2 so entlang
der x-Achse verschieben, daß die Wahrscheinlichkeits erhöht wird. Dann ∆c so weit
verkleinern, daß P(c1 < X ≤ c2) = γ gilt.
3. Fall – Mehrere Maxima: Lösung nach Fall 2, allerdings müssen alle Verschiebungen
abgesucht werden.
13.3 Gütekriterien für Parameterschätzer
13.3.1 Erwartungstreuer Schätzer
^ −φ
^ −φ =E Φ
^ bias = E Φ
φ
^ bias = 0. Ein asymptotisch erwartungstreuer
Ein erwartungstreuer Schätzer erfüllt φ
^ bias = 0.
Schätzer erfüllt limN→∞ φ
13.3.2 Effizienter Schätzer
Ein erwartungstreuer Schätzer ist effizient genau dann, wenn die Kovarianzmatrix
CΦ
^Φ
^ =E
minimal
T
^ −E Φ
^
^ −E Φ
^
Φ
Φ
= min CΦ
CΦ
^ Φ,effizient
^
^Φ
^
^
φ
ist, wobei als Norm der größte Eigenwert dienen kann.
40
13.4 Mittelwertschätzer
13.3.3 Konsistenter Schätzer
Ein erwartungstreuer Schätzer ist konsistent, wenn er bezüglich der Wahrscheinlichkeit
konvergiert
^ − φ ≥ ε = 0
lim P Φ
N→∞
wofür
lim CΦ
^Φ
^ =0
N→∞
hinreichend ist.
Beispiele ab Seite 334.
13.3.4 Hinreichende Statistik
~ X
~ heißt hinreichende Statistik für die Schätzung des Parametervektors
Ein Schätzer Θ
~^ = Θ
~ wenn Φ
~ X
~ alle Informationen über φ
~ enthält, die in X
~ enthalten sind, d. h.
φ,
fX|Φ
hängt nicht von φ ab.
^
~x, φ, φ
fXΦ
^
^ =
~x, φ, φ
~ (~x)
^ =Θ
f^ φ
Φ
13.4 Mittelwertschätzer
13.4.1 Arithmetisches Mittel
N
X
^ = mX = 1 ·
xi
φ
N
i=1
13.4.2 Varianzschätzer bei bekanntem Mittelwert
N
X
^ =Σ
^ 2X = 1
(Xi − mX)2
Φ
N
i=1
13.4.3 Varianzschätzer bei unbekanntem Mittelwert
Σ^2X =
N
1 X
^X 2
Xi − M
N−1
i=1
13.4.4 Mittelwertschätzung bei bekannter Varianz
Z. B. für den Fall, daß N zu klein ist um mit dem zentralen Grenzwertsatz zu argumentieren.
1. Nimm N Beobachtungen xi der Zufallsvariablen X und bilde das arithmetische
Mittel.
41
13 Schätztheorie
2. Bestimme für das gewünschte Konfidenzmaß γ = 1−δ das Perzentil zu für u = 1− δ2
für die normierte Gauß-Verteilung.
3. Bestimme die Intervallgrenzen durch Entnormierung
δ σX
m
^ X ± z1 − · √
2
N
13.4.5 Mittelwertschätzung bei unbekannter Varianz
N
σ
^ 2X
1 X
(xi − m
^ X)2
=
N−1
i=1
σ2X
σ
^ 2X.
Anschließend kann nach dem in Abschnitt 13.4.4 aufgezeigten
=
Für große N gilt
Schema verfahren werden.
13.4.6 Mittelwertschätzung bei unbekannter Verteilung
Z. B. für den Fall, daß N zu klein ist um mit dem zentralen Grenzwertsatz zu argumentieren.
σ
σ
X
X
^ X+ √
^ X− √
< mX < M
P M
>1−δ
Nδ
Nδ
13.4.7 Parameterschätzung bei bestimmten Verteilungen
^X>0
13.4.7.1 Exponentialverteilung Für M

δ
1 + z1 −
1 − z1 − √2
N
<λ<
P
^X
^X
M
M
δ

√2
N
=1−δ =γ
13.4.7.2 Poissonverteilung
^ X + z2
a1,2 = M
δ
2
1− 2N
v
2
u
u
z21− δ
u
2 
^ X+
^2
± tM
−M
X
2N
13.4.8 Wahrscheinlichkeitsschätzung
^ X − p < z δ ·
P M
1−
2
^ X+
M
p1,2 =
z2
2N ±
r
r
p(1 − p)
N
^ X·
M
z2
N
1+
!
=1−δ=γ
2
^ X + z2
· 1−M
2N
z2
2N
Für N > 100 gilt
^ X±z·
p1,2 = M
42
s
^ X · (1 − M
^ X)
M
N
13.5 MMSE- und LSE-Schätzung
13.4.9 Varianzschätzung bei normalverteilten Zufallsvariablen
13.4.9.1 Varianzschätzung bei bekanntem Mittelwert mX
^2
^2
NΣ
NΣ
2
X
X
<
<
σ
X
χ21− δ (N)
χ2δ (N)
2
2
13.4.9.2 Varianzschätzung bei unbekanntem Mittelwert mX
^2
^2
(N − 1)Σ
(N − 1)Σ
2
X
X
<
σ
<
X
χ21− δ (N − 1)
χ2δ (N−1)
2
2
13.5 MMSE- und LSE-Schätzung
~ so, daß eine quadratische AbweiZiel: Schätze einenVektor determinierter Parameter φ
~
~ φ
^ von einer beobachtbaren Zufallsvariable Y minimiert wird.
chung Y^ = g X,
13.5.1 MMSE-Schätzung
~^ einer Funktion g so, daß die Zufallsvariable Y^ = g X,
~ φ
^
Bestimme die Parameter φ
den mittleren quadratischen Fehler minimiert (Minimum Mean Square Error).
~ φ
~ φ
^ =φ
^ MMSE = argmin ^ E Y − g X,
^
ΘMMSE Y, X,
φ
13.5.2 MSE-Schätzung
N ~^ = argmin X Y − g X , Φ
~^
~^
~
~
Y,
X,
Φ
Φ
=
Θ
MSE
MSE
i
i
~^
Φ
i=1
13.5.3 Maximum-Likelihood-Schätzer
~ und ein parametrisches Modell der WahrscheinlichGegeben: Ein Beobachtungsvektor X
keitsdichtefunktion fX|Φ (~
u|~v) (Likelihood-Funktion).
Ziel: Finde den Maximum-Likelihood-Schätzer
~ φ = argmax~vf ~ ~ (~x,~v)
^ ML = ΘML X,
Φ
X|Φ
13.5.4 Log-Likelihood-Funktion
~ φ = argmax~ log f ~ (~x|~v)
^ ML = ΘML X,
Φ
v
X|φ
~ unabhängig sind:
günstig, wenn die N Elemente Xi des Beobachtungsvektors X
u|~v) = log
log fX|φ
~ (~
N
Y
i=1
fXi |φ (xi|~v) =
N
X
log fXi |φ (xi|~v)
i=1
43
13 Schätztheorie
Um die Log-Likelihood-Funktion bezüglich der K Elemente vk des Parametervektors ~v
zu maximieren, setzt man die partiellen Ableitungen zu 0 und löst ein System mit K
Gleichungen:
N
N
i=1
i=1
X ∂
∂ X
log fXi |φ (xi|~v) = 0 ∀k = 1, . . . , K
log fXi |φ (xi,~v) =
∂vk
∂~vk
13.5.5 Bayes’sche Schätzung
~ Bayes (~x) = argmin ^ R φ|~
^ Bayes = Θ
^x
φ
φ
Z
= argminφ
C
^
V
Z
C
= argminφ
^
V
^
φ,~v fΦ|
v|~x) d~v
~ X
~ (~
^
φ,~v fX|
x|~v) fΦ
v) d~v
~Φ
~ (~
~ (~
13.5.6 Maximum a posteriori-Schätzer (MAP)
^x
^ MAP = argmax ^ f ~ ~ φ|~
φ
φ Φ|X
= argmax~vfX|
x|~v) · fΦ
v)
~Φ
~ (~
~ (~
In logarithmischer Darstellung
~^ = argmax log f
(~
x
,~
v
)
+
log
f
(~
v
)
Φ
~Φ
~
~
~v
X|
Φ
13.6 Cramer-Rao-Schranke
~ und
^ gegeben X
Untere Schranke für die Varianz eines geschätzten Parametervektors Φ
~v.
σ2Φ
^i
≥
E
(1 +
^ bias,i 2
∂φ
∂vi )
∂ln fX|
x|~v)
~ Φ
~ (~
∂vi
Für zufällige Parameter
σ2Φ
^ ≥
i
44
E
1+
^ bias,i
∂φ
∂vi
∂ln fX|
x,~v)
~ Φ
~ (~
∂vi
2
+
2
∂ln fΦ
v)
~ (~
∂vi
g(t)
D(η, t)
U(η, t)
X(η, t)
Y(η, t)
+
E(η, t)
+
h(t)
N(η, t)
Abbildung 3: Typisches Szenario zur Wiener Filterung
14 Lineare Optimalfilterung
14.1 Wiener Filter
14.1.1 Zeitkontinuierlich
14.1.1.1 Schwach stationäres weißes Rauschen am Eingang
hopt (τ) =
1
· RDX(τ)
R0
14.1.1.2 Allgemeine nichtkausale Filter
SDX(jω)
SXX(jω)
Hopt (jω) =
Restfehler
E
mit
E2min (t)
1
=
2π
Z∞
SEE(jω) = SDD(jω) −
SEE(jω)dω
−∞
SDX(jω) · SXD(jω)
SXX(jω)
Für D(t) = g(t) ∗ U(t) und X(t) = U(t) + N(t) gilt
Hopt (jω) = G(jω) ·
SUU(jω) + SUN(jω)
SUU(jω) + SUN(jω) + SNU(jω) + SNN(jω)
Falls U(t) und N(t) orthogonal sind gilt
Hopt (jω) = G(jω) ·
SUU(jω)
SUU(jω) + SNN(jω)
45
14 Lineare Optimalfilterung
SEE(jω) = |G(jω)|2 ·
46
SUU(jω) · SNN(jω) − SUU(jω) · SNU(jω)
SUU(jω) + SUN(jω) + SNU(jω) + SNN(jω)
Herunterladen