Formelsammlung Statistik

Werbung
Formelsammlung Statistik
Enrico Jörns
18. Juli 2010
Inhaltsverzeichnis
1 Grundlagen der Wahrscheinlichkeitstheorie
1.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Zufallsvariablen
2.1 Eine Zufallsvariable, Kennwerte .
2.2 Charakteristische Funktion . . .
2.3 Bedingte Wahrscheinlichkeit . . .
2.4 Zwei Zufallsvariablen, Kennwerte
2.5 Komplexe Zufallsvariable . . . .
2.6 n Zufallsvariablen . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
3
5
6
6
9
10
11
12
13
3 Spezielle Wahrscheinlichkeitsdichtefunktionen
14
4 Funktionen von Zufallsvariablen
4.1 Transformation einer Zufallsvariable über eine Kennlinie . . . . . . . . . . . . .
4.2 Funktion einer Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Funktionen zweier Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . .
17
17
18
18
5 Zufallsprozesse
5.1 Leistung und Energie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Spezielle Zufallsprozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Transformation von Zufallsprozessen . . . . . . . . . . . . . . . . . . . . . . . . .
20
25
26
28
A Anhang
A.1 Integralrechennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.2 Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.3 Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
30
30
30
Sachregister
31
2
1 Grundlagen der Wahrscheinlichkeitstheorie
1.1 Mengen
Distributivgesetz
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
de Morgansches Gesetz
A∪B =A∩B
A∩B =A∪B
1.2 Kombinatorik
n-Tupel
• (geordnete) Zusammenstellung von n Objekten
• feste Reihenfolge
• Elemente können mehrfach vorkommen
Permutation
ohne Wiederholung:
• Anordnung“
”
• Vertauschen von Elementen fester Menge
• n-Elemente → p(n) = n! mögliche Permutationen
• bijektive Abbildung
mit Wiederholung:
• Elemente können mehrfach vorkommen
• n-Tupel mit k verschiedenen Elementen
• Auftreten mit Häufigkeiten n1 , n2 , . . . , nk
• Anzahl Möglichkeiten:
p(n; n1 , n2 , . . . , nk ) =
3
n!
n1 !n2 ! . . . nk !
Variation
ohne Wiederholung:
• Bildung eines k-Tupels aus n-elementiger Menge (k ≤ n), bzw.
• Ziehung von k Elementen aus n Elementen (ohne Zurücklegen)
• Anzahl Möglichkeiten:
v(n, k) =
n!
(n − k)!
mit Wiederholung:
• Bildung eines k-Tupels aus n-elementiger Menge
• Elemente mehrfach verwendbar (mit Zurücklegen)
• Anzahl Möglichkeiten:
v ∗ (n, k) = nk
Kombination
ohne Wiederholung:
• keine Beachtung der Reihenfolge!
• k-elementige Teilmenge aus n-elementiger Menge
• Lotto
• Anzahl Möglichkeiten:
c(n, k) =
n
n!
=
k
k!(n − k)!
mit Wiederholung:
• Anzahl Möglichkeiten:
c∗ (n, k) =
4
n+k−1
k
1.3 Wahrscheinlichkeitstheorie
Bedingte Wahrscheinlichkeit
Wahrscheinlichkeit des Ereignisses A unter der Bedingung, dass das Ereignis B aufgetreten ist
P (A|B) =
P (A ∩ B)
P (B)
• P (A|B) ≥ 0
• P (H|B) = 1
• P (A1 ∪ A2 |B) = P (A1 |B) + P (A2 |B), wenn A1 und A2 disjunkt
• A ∪ B = ∅ ⇒ P (A|B) =
P (A ∩ B)
=0
P (B)
Bayes-Theorem
(für P (A) > 0 bzw. P (B) > 0)
P (B|A) =
P (A|B) · P (B)
P (A)
P (A|B) =
P (B|A) · P (A)
P (B)
Statistische Unabhängigkeit
Zwei Variablen: Eintreteten von Ereignis A hat keinen Einfluss auf Eintreten von Ereignis B
A und B heißen statistisch unabhänig, wenn gilt:
P (A ∩ B) = P (A) · P (B)
Allgemein: n Ereignisse A1 , . . . , An heißen statistisch unabhängig, wenn für alle Gruppen von
Ereignissen statistische Unabhängigkeit vorliegt und:
P (A1 ∩ · · · ∩ An ) = P (A1 ) · · · · · P (An )
Totale Wahrscheinlichkeit
• n disjunkte Ereignisse A1 , . . . , An
• Ereignis B ⊂ A1 ∪ · · · ∪ A2
P (B) =
n
X
P (B|Ai ) · P (Ai )
i=1
5
2 Zufallsvariablen
2.1 Eine Zufallsvariable, Kennwerte
Wahrscheinlichkeits-Verteilungsfunktion
Allgemein: Wahrscheinlichkeit mit der die Zufallsvariable einen Wert kleiner oder gleich x annimmt (kumulativ )
F : R → [0 : 1]
Fx (x) = P ({η | x(η) ≤ x})
• monoton wachsend
• Fx (−∞) = 0, Fx (∞) = 1
Für wertdiskrete Zufallsvariable:
bis zu Wert x
Summe Einzelwahrscheinlichkeiten e. diskr. Zufallsvariable
Fx (x) =
X
i|x(ηi )≤x
Fx (x) =
N
X
pi · s(x − xi )
i=1
mit xi = x(ηi ), pi = P (ηi ), N = Anzahl d. Elementarereignisse
Für wertkontinuierliche Zufallsvariablen
Integral über die Dichtefunktion
Z
Fx (x) =
P (η) dη
η|(x(η)≤x)
Zx
=
fx (u) du
−∞
Wahrscheinlichkeits-Dichtefunktion
Allgemein: Ableitung der Wahrscheinlichkeits-Verteilungsfunktion
fx (x) =
• fx (−∞) = fx (+∞) = 0
• fx (x) ≥ 0
•
R∞
fx (x) dx = 1
−∞
6
dFx (x)
dx
P (X1 ≤ x ≤ x2 ) :
Zx2
P (X1 ≤ x ≤ x2 ) =
fx (x) dx
x1
= Fx (x2 ) − Fx (x1 )
Diskret:
d
Fx (x)
dx
N
d X
=
pi · s(x − xi )
dx
fx (x) =
i=1
=
N
X
pi · δ(x − xi )
i=1
Sprung-Funktion
(Heaviside-Funktion)
(
0
s(x) =
1
für x ≤ 0
sonst
Dirac’sche Delta-Funktion
Ableitung der Sprung-Funktion
(
∞ für x = 0
δ(x) =
0
sonst
mit
R∞
δ(x) dx = 1
−∞
Erwartungswert
Mittelwert der Ergebnisse
Z∞
x · fx (x) dx
E{x(η)} =
−∞
Linearität:
E{ax(η) + by(η)} = aE{x(η)} + bE{y(η)}
Diskret:
E{x(η)} =
N
X
i=1
7
xi p i
von Funktion von Zufallsvariablen
Z∞
g(x) · fx (x) dx
E{g(x(η))} =
−∞
E{g(x(η))} =
6 g{E(x(η))}
Moment (n-tes)
(n)
mx
Z∞
n
= E{x (η)} =
xn · fx (x) dx
−∞
Spezialfälle
n=1: linearer Mittelwert:
(1)
mx = E{x(η)}
n=2: quadratischer Mittelwert:
(2)
mx = E{x2 (η)}
zentrales Moment (n-tes)
Moment in Bezug auf den Mittelwert
(n)
(1)
µx = E{(x(η) − mx )n }
Spezialfall n = 2:
Varianz
Varianz
Zentriertes Moment 2. Ordnung.
Quadrat der Standardabweichung σ.
Streuungsmaß
(2)
(1)
σx2 = µx = E{(x(η) − mx )2 }
(1) 2
σx2 = m(2)
x − (mx )
Für Y = b0 + b1 X1 + b2 X2 gilt:
VarY = b21 VarX1 +b22 VarX2 +2b1 b2 · CovX1 X2
Standardabweichung
Quadratwurzel der Varianz. Streuungsmaß
Gleiche Einheit wie Messwerte
p
p
σx := Var(x) = E ((x − E (x))2 ) ,
8
2.2 Charakteristische Funktion
Allgemein:
Fourier-Transformierte der Wahrscheinlichkeitsdichte
φx (ω) = E{e
+jωx
Z∞
}=
fx (x) · e+jωx
−∞
• reell für symmetrische Wahrscheinlichkeitsdichten
• φx (0) = 1, |φx(ω)| ≤ 1
Diskret:
φx (ω) =
N
X
pi · e+jωxi
i=1
Rücktransformation:
1
fz (z) =
2π
+∞
Z
φz (ω)e−jωz dω
−∞
Faltungssatz
Z∞
f (s) · g(t − s) ds
(f ∗ g)(t) =
−∞
Wahrscheinlichkeits-Dichtefunktion 2er statistich unabhängiger Zufallsvariablen
fz (z) der Summe Z = X + Y erhält man durch Faltung von fx (x) und fy (y)
fz (z) = fx (x) ∗ fy (y)
bzw. ihre charakteristische Funktion durch Multiplikation der zugeh. charakteristischen Funktionen
φz (ω) = φx (ω)φy (ω)
Moment-Berechnung
mit Hilfe der charakt. Fkt.
dn φx (ω) (n)
= j n mx
dω n ω=0
9
2.3 Bedingte Wahrscheinlichkeit
Bedingte Wahrscheinlichkeitsverteilung
Fx|A (x|A) = P {x ≤ x|A} =
P {(x ≤ x) ∩ A}
P {A}
• Eigenschaften wie normale Verteilung
• Fx|A (∞|A) = 1, Fx|A (−∞|A) = 0
• P (x1 < x ≤ x2 |A)
= Fx|A (x2 |A) − Fx|A (x1 |A)
Bedingte Wahrscheinlichkeitsdichte
Ableitung der bedingten Wahrscheinlichkeitsverteilung
fx|A (x|A) =
fx (x|y) =
dFx|A (x|A)
dx
fxy (x, y)
fy (y)
• Eigenschaften wie normale Dichte
• fx|A (x|A) ≥ 0
•
R∞
fx|A (x|A) dx = 1
−∞
10
2.4 Zwei Zufallsvariablen, Kennwerte
Gemeinsame Wahrscheinlichkeitsverteilung
Wahrscheinlichkeitsverteilung für 2 Zufallsvariablen
Fxy (x, y) = P ({η | x(η) ≤ x} ∩ {η | y(η) ≤ y})
Zx Zy
fxy (u, v) du dv
Fxy (x, y) =
−∞ −∞
Eigenschaften
• Fxy (−∞, −∞) = Fxy (x, −∞)
= Fxy (−∞, y) = 0
• Fxy (x, +∞) = Fx (x),
Fxy (+∞, x) = Fy (y),
• Fxy (+∞, +∞) = 1
Gemeinsame Wahrscheinlichkeitsdichte
Ableitung der gemeinsamen Wahrscheinlichkeitsverteilung
fxy (x, y) =
d2 Fxy (x, y)
dx dy
Z∞ Z∞
fxy (u, v) du dv = 1
−∞−∞
Randdichte
Dichte einer Zufallsvariable einer gemeinsamer Wahrscheinlichkeitsdichte durch Vernachlässigung
der anderen Zufallsvariablen (Integrieren über die zu vernachlässigende Variable).
dF x(x)
fx (x) =
=
dx
Z∞
fxy (x, y) dy
−∞
Statistische Unabhängigkeit
Zwei Zufallsvariablen x und y sind statistisch unabhängig, wenn gilt:
fxy (x, y) = fx (x) · fy (y)
11
Gemeinsames Moment
(k,m)
mxy
= E{xk ym }
Z∞ Z∞
=
xk y m fxy (x, y) dx dy
−∞ −∞
Gemeinsames zentrales Moment
(k,m)
µxy
(1)
(1)
= E{(x − mx )k (y − my )m }
Z∞ Z∞
(1)
(1)
=
(x − mx )k (y − my )m
−∞ −∞
· fxy (x, y) dx dy
Kovarianz
(1,1)
(1)
(1)
µxy = E{(x − mx )(y − my )}
(1,1)
(1)
(1)
= mxy − mx · my
Unkorrelierte Zufallsvariablen
E{x · y} = E{x} · E{y}
Orthogonale Zufallsvariablen
E{x · y} = 0
Korrelationskoeffizient
Entsteht aus Kovarianz durch Normierung
(1)
(1,1)
ρxy =
(1)
E{(x − mx )(y − my )}
µxy
=q
σx σy
(1)
(1)
E{(x − mx )2 (y − my )2 }
Wertebereich: −1 ≤ ρxy ≤ 1
2.5 Komplexe Zufallsvariable
Komplexe Zufallsvariable
Funktion zweier reeller Zufallsvariablen
z = x + jy
Linearer Mittelwert
(1)
mz = E{z} = E{x} + jE{y}
12
Quadratischer Mittelwert
(2)
mz = E{|z|2 } = E{z · z∗ } = E{x2 + y2 }
Varianz
(1)
σz2 = E{|z − mz |2 } = σx2 + σy2
2.6 n Zufallsvariablen
Gemeinsame Wahrscheinlichkeitsverteilung/
Wahrscheinlichkeitsdichte
Fx1 ,x2 ,...,xN (x1 , x2 , . . . , xN )
= P ({x1 ≤ x1 } ∩ {x2 ≤ x2 } ∩ · · · ∩ {xN ≤ xN })
fx1 ,x2 ,...,xN (x1 , x2 , . . . , xN )
=
dN Fx1 ,x2 ,...,xN (x1 , x2 , . . . , xN )
dx1 dx2 dx3 . . . dxN
statistische Unabhängigkeit
fx1 ,x2 ,...,xN (x1 , x2 , . . . , xN )
= fx 1 (x1 ) · fx 2 (x2 ) · · · · · fx N (xN )·
Fx1 ,x2 ,...,xN (x1 , x2 , . . . , xN )
= Fx1 (x1 ) · Fx2 (x2 ) · · · · · FxN (xN )·
Zentraler Grenzwertsatz
Die (normierte und zentrierte) Summe einer großen Zahl von unabhängigen, identisch verteilten
Zufallsvariablen ist annähernd (standard)normalverteilt
Annahmen:
E{x2i } = σi2
E{xi } = 0,
Gauß-Dichte
(normiert)
Dichtefunktion der Normal-/Gauß-Verteilung
x2
1
lim fx (x) = √ e− 2
N →∞
2π
13
3 Spezielle Wahrscheinlichkeitsdichtefunktionen
Gauß-/Normalverteilung
Wahrscheinlichkeitsdichtefunktion Eine Zufallsvariable x folgt einer Normalverteilung mit
(1)
den Parametern mx und σx , falls für die Wahrscheinlichkeitsdichtefunktion gilt:
fx (x) =
1 x−µ
σ
·e 2
!2
−
1
√
σx 2π
Wahrscheinlichkeitsverteilung
Fx (x) =
1
√
Zx
σx 2π
1 u−µ
−
σ
e 2
!2
du.
−∞
statistische Unabhängigkeit Für zwei Gauß-verteilte Zufallsvariablen x und y folg aus deren
Unkorreliertheit aus deren statistische Unabhängigkeit
Linearkombination Eine Linearkombination Gauß-verteilter Zufallsvariablen ist Gauß-verteilt.
xi Gauß verteilte Variable
⇒
y=
n
X
ci xi
ebenfalls Gauß-verteilt
i=1
(statistische Unabhängigkeit ist nicht notwendig!)
Gaußsches Fehlerintegral
Integral von −∞ bis z über die Normalverteilung
Zz
1 2
1
Φ(z) = √
e− 2 t dt
2π
−∞
z
1
=
1 + erf √
2
2
(Gaußverteilung mit µ = 0 und σ = 1)
Werte müssen in Tabelle nachgeschlagen werden!
Fehlerfunktion
2
erf(x) = √
π
Zx
2
e−t dt = 2Φ
0
−1 ≤ erf(x) ≤ 1
14
√
2x − 1
Korrelation
Beschreibt die Beziehung zwischen statistischen Variablen ohne zwingend
Ursache-Wirkungs-Beziehungen darzustellen (nicht kausal)
Kovarianzmatrix
Matrix aller paarweisen Kovarianzen der Elemente eines Zufallsvektors
(1)
(1)
CXX = E{(X − MX )(X − Mx )T }


Cov(X1 , X1 ) · · · Cov(X1 , Xn )


..
..
..


.
.
.
Cov(Xn , X1 ) · · ·
Cov(Xn , Xn )
Binomialverteilung
n k
P (x = k) =
p (1 − p)n−k
k
Kennwerte:
(1)
• µ = mx = np
• σx2 = np(1 − p)
Hypergeometrische Verteilung
Die hypergeometrische Verteilung ist abhängig von drei Parametern:
• der Anzahl N der Elemente einer Grundgesamtheit.
• der Anzahl M ≤ N der Elemente mit einer bestimmten Eigenschaft in dieser Grundmenge
(die Anzahl möglicher Erfolge).
• der Anzahl n ≤ N der Elemente in einer Stichprobe.
Die Verteilung gibt Auskunft darüber, wie wahrscheinlich es ist, dass sich k Elemente mit der
zu prüfenden Eigenschaft in der Stichprobe befinden
M
N −M
k
n−k
h(k|N ; M ; n) := P (X = k) =
N
n
Exponentialverteilung
Dichtefunktion:
(
λe−λx
fx (x) =
0
für x ≥ 0
sonst
Der Parameter λ besitzt den Charakter einer Ausfallrate und 1/λ den einer Lebensdauer
15
Verteilungsfunktion:
F (x) =
x
R

 fλ (t) dt = 1 − e−λx


x≥0



0
x<0
0
Erwartungswert
E(X) =
16
1
λ
4 Funktionen von Zufallsvariablen
4.1 Transformation einer Zufallsvariable über eine Kennlinie
Die Zufallsvariable x wird über die zeitinvariante Kennlinie y = g(x) auf die Zufallsvariable y
abgebildet
• Transformation der Wahrscheinlichkeitsverteilung fx (x) auf fy (y)
• Transformation der Wahrscheinlichkeitsdichte Fx (x) auf Fy (y)
Abbildungsbereich der Zufallsvariablen Transformierte Zufallsvariable kann nur Werte im
Bereich des Maximums (ymax ) und Minimums (ymin ) der Kennlinie annehmen Daraus folgt:
fy (y) = 0 für y ≤ ymin und y ≥ ymax
Der Verlauf von y = g(x) ist darüber hinaus nur für x mit fx (x) 6= 0 interessant!
Konstante Abschnitte in der Kennlinie ⇒ diskrete Anteile in fy (y) Ist die Kennlinie im
Bereich [xa , xb ] konstant, so werden sämtliche x-Werte in diesem Bereich auf den Wert y = c
abgebildet.
Die Wahrscheinlichkeitsdichte fy (y) besitzt also bei y = c eine Delta-Funktion mit dem Gewicht
Rxb
P (x ∈ [xa, xb]) = fx (x) dx
xa
Streng monoton wachsende Kennlinien-Funktion Dann gilt:
Fy (g(x)) = Fx (x)
(, da aus x2 > x1 folgt, dass g(x2 ) > g(x1 ))
Transformation der Wahrscheinlichkeitsdichte
n
X
fx (x0i )
fy (y0 ) =
|g 0 (x0i )|
i=1
17
4.2 Funktion einer Zufallsvariablen
Eigenschaften
Erwartungswert:
Z∞
g(x) · fx (x) dx
E{g(x)} =
−∞
Erwartungswertbildung und nichtlineare Operation i.A. nicht vertauschbar
(E{g(x)} =
6 g(E{x}))
Statistische Unabhängigkeit:
z = g(x) und w = h(y)
Wenn x und y statistisch unabhängig sind, dann sind es auch
4.3 Funktionen zweier Zufallsvariablen
Grundlegendes
• x, y: zwei Zufallsvariablen
• fxy (x, y): gemeinsame Wahrscheinlichkeitsdichte
• z = g(x, y): (Kennlinien-/)Transformations-Funtkion
• Dz : Gebiet der Werte von {z ≤ z}
• ∆Dz : Randgebiet der Werte von {z ≤ z ≤ z + dz}
Transformation der Wahrscheinlichkeitsverteilung
z = g(x, y)
Fz (z) = P {z ≤ z} = P {x, y ∈ Dz }
ZZ
=
fxy (x, y) dx dy
Dz
Dz = Gebiet, in dem g(x, y) < z ist.
Transformation der Wahrscheinlichkeitsdichte
z = g(x, y)
fz (z) dz = P {z ≤ z ≤ z + dz}
ZZ
=
fxy (x, y) dx dy
∆Dz
∆Dz = Gebiet, in dem z < g(x, y) < z + dz ist.
18
Trafo-Sonderfall: z = g(x, y) = x + y
Verteilung:
z−y
Z∞ Z
fyy (x, y) dx dy
Fz (z) =
−∞ −∞
Dichte:
d
fz (z) =
Fz (z) =
dz
Z∞
fxy (z − y, y) dy
−∞
Trafo-Sonderfall: Summe statistisch unabhängiger Zufallsvariablen Bei unabhängigen
Zufallsvariablen ergibt sich die Dichte fz (z) durch Faltung von fx (x) und fy (y). Aus
fxy = fx (x) · fy (y) folgt:
fz (z) = fx (x) ∗ fy (y)
19
5 Zufallsprozesse
Reeller Zufallsprozess
Eindeutige Abbildung der Ergebnismenge (H) eines Zufallsexperiments auf die Menge der
reellwertigen Funktionen
• zeitabhängig (stochastich)
• Wiederholtes Auftreten von gleichem Ereignis η führt zu identischen Ergebnissen (über
die Zeit)!
Komplexer Zufallsprozess
z(η, t) = x(η, t) + jy(η, t)
Klassifizierung von Zufallsprozessen
Amplitude:
• kontinuierlich
• diskret
Zeit:
• kontinuierlich: Tx = {t | − ∞ < t < ∞}
• diskret: Tx = {t | t = iT, i ∈ Z}
Musterfunktion
Realisierung des Zufallsprozesses
x(η = ηi , t) = xi (t)
Einfluss der Parameter in x(η, t)
n0 fest
n variabel
t0 fest
Variable
Zufallsvar.
t variabel
Musterfunktion
Zufallsprozess
Wahrscheinlichkeitsverteilung eines Zufallsprozesses
Fx (x, t) = P ({η | x(η, t) ≤ x})
(zeitabhängig)
20
Wahrscheinlichkeitsdichte eines Zufallsprozesses
fx (x, t) =
d
Fx (x, t)
dx
(zeitabhängig)
Gemeinsame Wahrscheinlichkeitsverteilung/-dichte eines Zufallsprozesses
(an festen Zeitpunkten t1 , t2 ) Rechnung etc. wie bei normalen Gemeinsamen!
Fxx (x1 , x2 , t1 , t2 )
= P ({η | x(η, t1 ) ≤ x1 } ∩ {η | x(η, t2 ) ≤ x2 })
fxx (x1 , x2 , t1 , t2 )
=
d2
Fxx (x1 , x2 , t1 , t2 )
dx1 dx2
Gemeinsame Wahrscheinlichkeitsverteilung/-dichte zweier Zufallsprozesses
(an festen Zeitpunkten t1 , t2 ) Rechnung etc. wie bei normalen Gemeinsamen!
Fxx (x, y, t1 , t2 )
= P ({η | x(η, t1 ) ≤ x} ∩ {η | x(η, t2 )} ≤ y)
fxx (x, y, t1 , t2 )
=
d2
Fxx (x, y, t1 , t2 )
dx dy
Statistisch unabhängige Zufallsprozesse
Zwei Zufallsprozesse x(η, t) und y(η, t) sind statistisch unabhängig, wenn sie für beliebige
Zeitpunke jeweils zueinander statistisch unabhängig sind. Aus der Unabhängigkeit folgt wieder:
fxx (x, y, t1 , t2 ) = fx (x, t1 ) · fy (y, t2 )
Fxx (x, y, t1 , t2 ) = Fx (x, t1 ) · Fy (y, t2 )
Scharmittelwert
Mittelwert über alle Ergebnisse η (alle Musterfunktionen) bei festem Parameter t
E{x(η, t) = f (t)}
Zeitmittelwert
Mittelwert über die Zeit t bei festem Ergebnis η (einzelne Musterfunktion)
x(η, t) = f (η)
21
Scharmittelwerte
Linearer-/Quadratischer Mittelwert, Varianz
(1)
mx
Z∞
= E{x(η, t)} =
xn · fx (x, t) dx
−∞
(2)
mx
Z∞
2
= E{x (η, t)} =
xn · fx (x, t) dx
−∞
(1)
σx2 (t) = E{(x(η, t) − mx (t))2 }
Z∞
(1)
=
(x − mx (t))2 · fx (x, t) dx)
−∞
Autokorrelationsfunktion
Definition:
Rxx (τ ) = E{x(η, t) · x(η, t + τ )}
reell: Korrelation einer Funktion mit sich selbst (Zeitpunkt t1 ,t2 )
Rxx = E{x(η, t1 ) · x(η, t2 )}
Z∞ Z∞
x1 · x2 · fxx (x1 , x2 , t1 , t2 ) dx1 dx2
=
−∞−∞
(1,1)
Rxx = mxx
• Symmetrie: Rxx (t1 , t2 ) = Rxx (t2 , t1 )
(2)
• zweites Moment: Rxx (t, t) = mx (t)
komplex:
Rzz = E{z(η, t1 ) · x∗ (η, t2 )}
zweites Moment:
(2)
mz (t) = E{|z(η, t)|2 } = E{z(η, t) · z∗ (η, t)}
Mittelwertfreiheit
Mittelwert der Werte ist 0.
N
1 X
xi = 0
N
i=1
22
Autovarianzfunktion
Kovarianz zwischen 2 Realisierungen eines Zufallsprozesses (Zeitpunkt t1 ,t2 )
Cxx (t1 , t2 )
(1)
(1)
= E{[x(η, t1 ) − mx (t1 )] · [x(η, t2 ) − mx (t2 )]}
Z∞ Z∞
(1)
(1)
=
[x1 − mx (t1 )] · [x2 − mx (t2 )]
−∞−∞
· fxx (x1 , x2 , t1 , t2 ) dx1 dx2
Kreuzkorrelationsfunktion
reell: Korrelation zweier Zufallsprozesse x, y zu unterschiedlichen Zeitpunkten t1 , t2
Rxy (t1 , t2 ) = E{x(η, t1 ) · y(η, t1 )}
(1,1)
Rxy = mxy
• Symmetrie: Rxy (t2 , t1 ) = Ryx (t1 , t2 )
komplex:
Rxy (t1 , t2 ) = E{x(η, t1 ) · y∗ (η, t2 )}
Kreuz(ko)varianz(funktion)
Kovarianz zu verschiedenen Zeitpunkten t1 , t2
Cxy (t1 , t2 )
(1)
(1)
= E{[x(η, t1 ) − mx (t1 )] · [x(η, t2 ) − mx (t2 )]}
Unkorrelierte Zufallsprozesse
Zwei Zufallsprozesse x(η, t) und y(η, t) sind unkorreliert, wenn für alle t1 und t2 gilt:
E{x(η, t1 ) · y(η, t2 )} = E{x(η, t1 )} · E{y(η, t2 )}
Orthogonale Zufallsprozesse
Zwei Zufallsprozesse x(η, t) und y(η, t) sind orthogonal, wenn für alle t1 und t2 gilt:
E{x(η, t1 ) · y(η, t2 )} = 0
statistisch unabhängige Zufallsprozesse
Statistisch unabhängige Zufallsprozesse sind unkorreliert
Stationärer Zufallsprozess
Ein Zufallsprozess x(η, t) heißt stationär, wenn seine statistischen Eigenschaften invariant
gegenüber der Zeit sind.
23
strenge Stationärität: Momente beliebig hoher Ordnung bzw. die Wahrscheinlichkeitsdichten
selbst sind invariant gegenüber zeitlichen Verschiebungen Sehr schwer einzuhaltende Bedingung,
die nur von wenigen physikalischen Prozessen erfüllt wird.
schwache Stationärität: Nur Erwartungswerte 1. und 2. Ordnung sind invariant gegenüber
zeitlichen Verschiebungen
(1)
• E{x(η, t)} = mx 6= f (t)
(2)
• E{x2 (η, t)} = mx 6= f (t)
• E{x(η, t) · x(η, t + τ )} = Rxx (τ ) 6= f (t)
• E{x(η, t) · y(η, t + τ )} = Rxy (τ ) 6= f (t)
Verbunden stationäre Zufallsprozesse
Zwei Zufallsprozesse x(η, t) und y(η, t) heißen verbunden stationär, wenn beide stationär und
ihre gemeinsamen statistischen Eigenschaften invariant gegenüber Verschiebungen der Zeit sind.
Auswirkungen auf Dichte, gemeinsame Dichte
fx (x, t) = fx (x, t + t0 ) = fx (x)
fxx (x1 , x2 , t1 , t2 ) = fxx (x1 , x2 , t1 + t0 , t2 + t0 )
= fxx (x1 , x2 , t2 − t1 )
fxy (x, y, t1 , t2 ) = fxy (x, y, t1 + t0 , t2 + t0 )
= fxy (x, y, t2 − t1 )
Ergodizität
Ein Zufallsprozess x(η, t) heißt ergodisch, wenn die Zeitmittelwerte der einzelnen
Musterfunktionen mit den entsprechenden Scharmittelwerten übereinstimmen Ein ergodischer
Prozess ist stets stationär.
24
5.1 Leistung und Energie
Leistungsdichtespektrum
Fourier-Transformierte der Autokorrelationsfunktion eines stationären Zufallsprozesses.
Energie eines Signals in einem infinitesimal kleinen Frequenzband
Z∞
Sxx (ω) =
Rxx (τ )e−jωτ dτ
−∞
gerade, reelle, nicht-negative Funktion
Rücktransformation:
1
Rxx (τ ) =
2π
Z∞
Sxx (ω)ejωτ dω
−∞
Kreuzleistungsdichtespektrum
Fourier-Transormierte der Kreuzkorrelationsfunktion zweier gemeinsam stationärer
Zufallsprozesse
Z∞
Sxy (ω) =
Rxy (τ )e−jωτ dτ
−∞
Im Allgemeinen weder reell noch gerade!
Rücktransformation:
1
Rxy (τ ) =
2π
Z∞
Sxy (ω)ejωτ dω
−∞
Mittlere Leistung eines stochasitschen Signals
Die Leistung eines stochastischen Signals erhält man, wenn man das Leistungsdichtespektrum
von −∞ bis +∞ integriert
(2)
mx
1
= Rxx (0) =
2π
Z∞
−∞
25
Sxx (ω) dω
5.2 Spezielle Zufallsprozesse
Weißes Rauschen
Physikalisches Rauschen mit konstanter Amplitude im Leistungsdichtespektrum S(ω) = H
• Sxx (ω) = S0
• Rxx (τ ) = S0 λ(t) (kein Abhängigkeit zwischen 2 Zeitpunkten)
(1)
• Mittelwert mx = 0
(2)
• Energie undendlich mx = Rxx → ∞
bei Zeitdiskreten Zufallsprozessen
• Sxx (ω) = S0
(
S0
• Rxx (m) =
0
fürm = 0
sonst
(1)
• mx = 0
(2)
• mx = Rxx = S0
Gauß-Prozess
Zufallsprozess, bei dem alle ein- oder mehrdimensionalen Dichten Gauß-Dichten sind.
• werden volllständig durch 1. und 2. Momente beschrieben
• bleibt nach Trafo durch lineares System Gauß-Prozess
• schwache und starke Stationärität sind äquivalent
Weißer Gauß-Prozess
Zufallsprozess mit sowohl spektralen Eigenschaften eines weißen Rauschens als auch eine
Gauß-verteilte Wahrscheinlichkeitsdichte
Random-Walk-Prozess
Zu den Abtastzeitpunkten nT (n = 1, 2, 3, ...) wird gleichwahr- scheinlich und stat. unabhängig
ein Schritt der Länge s nach oben oder unten getan.
Prozess x(η, t) startet mit x(0T ) = 0 und gibt die momentane Position an.
Wiener Prozess
Grenzfall des Random-Walk-Prozesses für n → ∞ (T → 0), Integral des weißen Rauschens
w(t) = lim x(t)
t→0
• E{w}(t) = 0
• E{w2 }(t) = 0
• Rww = α min(t1 , t2 )
26
mit
s2 = αT
Poisson-Punkte
Markieren Zeitpunkte ti auf der kontinuierlichen Zeitachse
• Wahrscheinlichkeit, dass ein Zeitpunkt im Intervall t . . . t + dt auftritt: λ · dt
• Anzahl von Zeitpunkten in nicht überlappenden Zeitintervallen ist statistisch unabhängig
voneinander
Poisson-Verteilung
Wahrscheinlichkeit im Intervall {t1 . . . t1 + t} n(t1 , t2 ) Punkte(/Ereignisse) vorzufinden
P (n) = e−n ·
(λt)n
nn
= e−λt ·
n!
n!
mit n = λt, λ = mittlere Dichte der Punkte (bzw. Ankunftsrate)
P
• E{n} = ∞
n=0 nP (n) = n = λt
P
2
2
• E{n2 } = ∞
n=0 n P (n) = λt + (λt)
Abstände zwischen 2 Punkten
Wahrscheinlichkeitsverteilung/-dichte, Erwartungswert
F∆t (∆t) = P (∆t < t) = 1 − e−λ∆t
f∆t (∆t) =
d
F∆t (∆t) = λe−λ∆t
d∆t
Z∞
∆t · f∆ t(∆t) d∆t =
E{∆t} =
1
λ
0
Poisson-Prozess
x(t) = Anzahl von Ereignissen im Zeitintervall {0...t}
(
∞
n(0, t) fürt ≤ 0 X
x(t) =
=
s(t − ti )
0
fürt < 0
i=0
Das zeitliche Eintreffen eines bestimmten Ergeignisses erfolgt statistisch
(Ereignisse müssen unabhängig sein)
27
5.3 Transformation von Zufallsprozessen
Transformation durch nichtlineares gedächtnisloses zeitinvariantes System
y(t) kann jeweils direkt durch Trafo-Funktion g(x(t)) ersetzt werden
• y(t) = g(x(t))
• E{y(t)} = E{g(x(t))}
• E{y2 (t)} = E{[g(x(t))]2 }
• E{y(t1 ) · y(t2 )} = E{g(x(t1 ) · g(x(t2 ))}
Transformation durch lineare gedächtnisbehaftete zeitinvariante Systeme
Berechnung durch Faltung von y(t) mit Trafo-Funktion h(t)
y(t) = x(t) ∗ h(t) = h(t) ∗ x(t)
Z∞
Z∞
x(t − u)h(u) du =
=
−∞
x(u)h(t − u) du
−∞
Mittelwert
bei zumindest schwach stationärem Eingangsprozess Produkt aus Mittelwert der
Ausgangsfkt. und Stammfkt. der Trafo-Funktion
(1)
my = E{y(t)}
Z∞
(1)
h(u) du
= mx ·
−∞
=
(1)
mx
· H(ω = 0)
Kreuzkorrelation zwischen Eingang und Ausgang
bei zumindest schwach stationärem Eingangsprozess x(t)
Rxy (τ ) = Rxx (τ ) ∗ h(τ )
= E{x(t) · y(t + τ )}
Z∞
=
Rxx (τ − u)h(u) du
−∞
Autokorrelation am Ausgang
bei zumindest schwach stationärem Eingangsprozess x(t)
Ryy (τ ) = Rxx (τ ) ∗ h(τ ) ∗ h(−τ )
Z∞ Z∞
Rxx (τ − u − v)h(−u)h(v) du dv
=
−∞−∞
28
(Kreuz-)Leistungsdichtespektrum
Leistungsdichtespektrum
Syy (ω) = Sxx (ω) · |H(ω)|2
Kreuzleistungsdichtespektrum
Sxy (ω) = Sxx (ω) · H(ω)
Syx (ω) = Sxx (ω) · H ∗ (ω)
29
A Anhang
A.1 Integralrechennung
Partielle Integration
Z
b
0
f (x) · g (x) dx = [f (x) ·
g(x)]ba
Z
−
b
f 0 (x) · g(x) dx
a
a
Stammfunktionen
Funktion
Stammfunktion
1
x
ln|x|
A.2 Fourier-Transformation
Rechenregeln
F(f + αg) = F(f ) + αF(g)
A.3 Faltung
f ∗g =g∗f
f ∗ (g + h) = (f ∗ g) + (f ∗ h)
f ∗ (g ∗ h) = (f ∗ g) ∗ h = f ∗ g ∗ h
30
Sachregister
Gauß-Dichte, 13
Gauß-Prozess, 26
weißer, 26
Gauß-Verteilung, siehe Normalverteilung
Gaußsches Fehlerintegral, 14
??, 11
Autokorrelationsfunktion
Fourier-Transformation, 25
komplex, 22
reell, 22
Transformation, 28
Autovarianzfunktion, 23
Heaviside-Funktion, 7
Hypergeometrische Verteilung, 15
Bayes-Theorem, 5
Bedingte Wahrscheinlichkeit, 5
Binomialverteilung, 15
Integralrechnung, 30
Integration
partielle, 30
Charakteristische Funktion
allgemein, 9
diskret, 9
Moment, 9
Rücktransformation, 9
Kombination
mit Wiederholung, 4
ohne Wiederholung, 4
Korrelation, 15
Korrelationskoeffizient, 12
Kovarianz, 12
Kovarianzmatrix, 15
Kreuzkorrelation, 28
Kreuzkorrelationsfunktion
Fourier-Transformation, 25
komplex, 23
reell, 23
Kreuzkovarianzfunktion, 23
Kreuzleistungsdichtespektrum, 25
Rücktransformation, 25
Transformation, 29
de Morgan, Gesetz von, 3
Dichtefunktion, siehe
Wahrscheinlichkeitsdichte
Dirac’sche Delta-Funktion, 7
Distributivgesetz, 3
Ergodizität, 24
Erwartungswert, 7
diskret, 7
Funktion von Zufallsvariablen, 8
gemeinsamer, 12
unkorrelierte Zufallsvariablen, 12
Exponentialverteilung, 15
Dichtefunktion, 15
Erwartungswert, 16
Verteilungsfunktion, 16
Leistung, 25
mittlere, 25
Leistungsdichtespektrum, 25
Rücktransformation, 25
Transformation, 29
Faltung, 30
Faltungssatz, 9
Fehlerfunktion, 14
Fehlerintegral, Gaußsches, 14
Funktion
Zufallsvariable, 17
Mittelwert
linearer, 8
quadratischer, 8
Transformation, 28
Mittelwertfreiheit, 22
31
ohne Wiederholung, 4
Verteilungsfunktion, siehe
Wahrscheinlichkeitsverteilung
Moment, 8
gemeinsames, 12
zentrales, 8
gemeinsames, 12
Musterfunktion, 20
Wahrscheinlichkeit
bedingte, 5
Wahrscheinlichkeit, totale, 5
Wahrscheinlichkeitsdichte
2 unabhängige Zufallsvariablen, 9
allgemein, 6
bedingte, 10
diskret, 7
Fourier-transformiert, 9
gemeinsame, 11
Wahrscheinlichkeitsverteilung
allgemein, 6
bedingte, 10
diskret, 6
gemeinsame, 11
wertkontinuierlich, 6
Weißes Rauschen, 26
Zeitdiskrete Zufallsprozesse, 26
Wiener Prozess, 26
Wiener-Kintchine-Theorem, siehe
Leistungsdichtespektrum
Normalverteilung, 14
Dichtefunktion, 14
Linearkombination, 14
Statistische Unabhängigkeit, 14
Verteilung, 14
partielle Integration, 30
Permutation
mit Wiederholung, 3
ohne Wiederholung, 3
Poisson
-Prozess, 27
-Punkte, 27
-Verteilung, 27
Prozess, siehe Zufallsprozess
Randdichte, 11
Random-Walk-Prozess, 26
Rauschen, weißes, siehe Weißes Rauschen
Scharmittelwert, 21
Sprung-Funktion, 7
Standardabweichung, 8
Stationärität, 23
schwache, 24
strenge, 24
Statistische Unabhängigkeit, 5
allgemein, 5
zwei Variablen, 5
Zeitmittelwert, 21
Zentrales Moment, siehe Moment
Zufallsprozess
komplex, 20
orthogonal, 23
reell, 20
stationär, 23
statistisch unabhängig, 23
Transformation, 28
unkorreliert, 23
verbunden stationär, 24
Zufallsvariable
komplex, 12
Linearer Mittelwert, 12
Quadratischer Mittelwert, 13
Varianz, 13
Zufallsvariablen
orthogonale, 12
unkorrelierte, 12
Totale Wahrscheinlichkeit, 5
Transformation
Dichte, 17, 18
Kennlinie, 17
Verteilung, 18
Zufallsprozesse, 28
Zufallsvariable, 17
Tupel, 3
Unabhängigkeit, statistische, 5
Varianz, 8
Variation
mit Wiederholung, 4
32
Herunterladen