Stochastische Signale

Werbung
Stochastische Signale
2.1.1
Formelsammlung
Version 2012-02-09 (Sebastian Krösche),
Originalversion 2011-07-02 (Tobias Grabmeier)
Teil I
Wahrscheinlichkeitstheorie
1
Bi , i ∈ I sei eine Zerlegung von Ω, dann gilt für alle A ∈ F mit
P (A) > 0 das Gesetz der totalen Wahrscheinlichkeit
X
P (A) =
P (A | Bi )P (Bi )
i∈I
und der Satz von Bayes
Wahrscheinlichkeitsräume
P (Bj | A) = P
Ein Wahrscheinlichkeitsraum besteht aus einem Tripel
(Ω, F, P ).
1.1
2.1.2
Multiplikationssatz
2.2
Stochastische Unabhängigkeit
Zwei Ereignisse A und B sind dann von einander unabhängig,
wenn gilt:
P (A ∩ B) = P (A)P (B)
Ereignisalgebra F
Das Mengensystem F ⊆ P(Ω) (Potenzmenge von Ω) wird als Ergebnisalgebra bezeichnet, wenn es folgende Bedigungen erfüllt:
i) Ω ∈ F
Sk
i=1
Dann gilt auch:
P (B | A) = P (B)
Eine Familie von Ereignissen Ai , i ∈ I heißt stochastisch unabhängig, wenn für jede endliche Teilmenge ∅ 6= J ⊂ I gilt:
\
Y
P(
Ai ) =
P (Ai )
ii) A ∈ F ⇒ Ac ∈ F
iii) A1 , . . . , Ak ∈ F ⇒
Ai ∈ F
i∈I
Daraus folgt weiterhin:
i) ∅ ∈ F
3
ii) Ai \Aj ∈ F
Tk
iii)
i=1 Ai ∈ F
i) Ω ∈ F
i=1
Ai ∈ F
Das Tupel (Ω, F) heißt Messraum oder Messbarer Raum.
1.3
Zufallsvariablen
Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum, (Ω0 , F0 ) ein Messraum,
dann heißt X : Ω → Ω0 Zufallsvariable, wenn für jedes A0 ∈ F0 ein
A ∈ F existiert, so dass A = {ω ∈ Ω | X(ω) ∈ A0 } ∈ F.
a) Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum und (R, B) ein
Messraum, dann heißt X : Ω → R Reelle Zufallsvariable,
wenn {ω ∈ Ω | X(ω) ≤ x} = {X ≤ x} ∈ F ∀ x ∈ R.
ii) A ∈ F ⇒ Ac ∈ F
S∞
i∈I
Zufallsvariablen und Wahrscheinlichkeitsverteilung
3.1
Das Mengensystem F wird als σ-Algebra bezeichnet, wenn es
folgende Bedigungen erfüllt:
iii) A1 , A2 , · · · ∈ F ⇒
P (A | Bj )P (Bj )
i∈I P (A | Bi )P (Bi )
P (A ∩ B) = P (A | B)P (B) = P (B | A)P (A)
Ergebnismenge Ω
Die nichtleere Menge Ω aller relevanten Ergebnisse eines Experiments heißt Ergebnismenge.
1.2
Gesetz der totalen Wahrscheinlichkeit und Satz von
Bayes
Wahrscheinlichkeitsmaß P
Die Funktion P : F → [0, 1], das Wahrscheinlichkeitsmaß, ordnet jedem Ereignis A ∈ F ein Maß P (A), die Wahrscheinlichkeit
von A zu. Sie erfüllt folgende Axiome:
i) P (A) ≥ 0
ii) P (Ω) = 1
S
P∞
iii) P ( ∞
i=1 Ai ) =
i=1 P (Ai ), wenn Ai ∩ Aj = ∅, ∀i 6= j
Weitere Eigenschaften von P :
b) Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum und (Rn , Bn ), n ∈
~ : Ω → Rn , n ∈ N
N ein Messraum, dann heißt X
~ =
Mehrdimensionale (reelle) Zufallsvariable, wenn X
[X1 , . . . , Xn ]T ein n-dimensionaler Vektor mit den reellen Zufallsvariablen, Xi : Ω → R, i ∈ {1, . . . , n}, die alle auf demselben Ergenisraum Ω definiert sind.
c) Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum und (C, B2 ) ein
Messraum, dann heißt X : Ω → C Komplexe Zufallsvariable, wenn Re(X) und Im(X) reelle Zufallsvariablen sind.
d) Zufallsvariablen X : Ω → Ω0 , die Ω auf endliche oder
abzählbare Mengen Ω0 abbilden, heißten Diskrete Zufallsvariablen.
i) P (Ac ) = 1 − P (A)
3.2
ii) P (∅) = 0
Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum, (Ω0 , F0 ) ein
Messraum,X : Ω → Ω0 eine Zufallsvariable, dann heißt das Bildmaß PX (A0 ) , P ({ω ∈ Ω | X(ω) ∈ A0 }) = P ({X ∈ A0 }) ∀ A0 ∈ F0
die Verteilung von X.
iii) P (A\B) = P (A ∩ B c ) = P (A) − P (A ∩ B)
iv) P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
v) A ⊂ B ⇒ P (A) ≤ P (B)
S
P
vi) P ( ki=1 Ai ) ≤ ki=1 P (Ai )
2
3.2.1
Bedingte Wahrscheinlichkeit und Unabhängigkeit
Verteilung einer Zufallsvariable
Kumulative Verteilungsfunktion (KVF)
Sei X eine reelle Zufallsvariable, dann heißt die Funktion
FX (x) = P ({X ≤ x})
2.1
Bedingte Wahrscheinlichkeit
Ist P (A) > 0 für ein A ∈ F, ist die Bedingte Wahrscheinlichkeit für B unter der Bedigung A definiert als:
Kumulative Verteilungsfunktion (KVF) von X. Sie hat folgende Eigenschaften:
i) FX (x) ist monoten wachsend.
P (B | A) , PA (B) =
P (A ∩ B)
P (A)
Es gilt:
ii) FX (x) ist rechsseitig stetig, d.h. ∀ h > 0 gilt limh→0 FX (x +
h) = FX (x), ∀ x ∈ R
iii) limx→−∞ FX (x) = 0, limx→∞ FX (x) = 1
i) P (A | A) = 1
iv) P ({a < X ≤ b}) = FX (b) − FX (a)
ii) P (B | A) = cA ∗ P (B), cA ≤ 1, für B ⊆ A ∈ F
v) P ({X > c}) = 1 − FX (c)
3.2.2
Zähldichte
3.3.4
Sei X : Ω → Ω0 ⊂ R eine reelle diskrete Zufallsvariable, dann heißt
die Funktion pX : R → [0, 1] mit
pX (x) = P ({X = x})
Zähldichte von X Der Zusammenhang zwischen Zähldichte und
KVF lautet
X
FX (x) =
pX (ξ)
FX1 ,...,Xm (x1 , . . . , xm )
= limxm+1 ,...,xn →∞ FX1 ,...,Xn (x1 , . . . , xn )
ξ∈Ω0 :ξ≤x
3.2.3
, FX1 ,...,Xn (x1 , . . . , xm , ∞, . . . , ∞)
Wahrscheinlichkeitsdichtefunktion (WDF)
X heißt stetig, wenn ihre KVF FX dargestellt werden kann als
Z x
fX (ξ)dξ
FX (x) =
−∞
fX : R → [0, ∞[ heißt Wahrscheinlichkeitsdichtefunktion
(WDF) von X. Sie hat folgende Eigenschaften:
Für eine Marginaliserung auf eine einzige Zufallsvariable gilt:
a) Eine durch Marginalisierung auf eine einzige Zufallsvariable
entstehende KVF wird auch als Randverteilung bezeichnet. Die Randverteilung der Zufallsvariable X1 ergibt sich
zu
FX1 (x1 ) = limx2 ,...,xn →∞ FX1 ,...,Xn (x1 , . . . , xn )
dFX (x)
,
dx
i) fX (x) =
wenn FX (x) stetig und bis auf endlich viele
Stellen differenzierbar
R
ii) P ({X ∈ A0 }) = A0 fX (x)dx
Rx
iii) P ({X = x}) = x fX (ξ)dξ = 0
R∞
fX (ξ)dξ = 1
iv) P (Ω0 ) = −∞
3.3
3.3.1
Randverteilungen
Gegeben sei die gemeinsame KVF FX1 ,...,Xn der n-dimensionalen
~ n ) = [X1 , . . . , Xn ]T . Für m < n und die
reellen Zufallsvariable X(
~ m ) = [X1 , . . . , Xm ]T geht die
m-dimensionale Zufallsvariable X(
gemeinsame KVF FX1 ,...,Xm durch Marginalisierung wie folgt
aus FX1 ,...,Xn hervor:
, FX1 ,...,Xn (x1 , ∞, . . . , ∞)
b) Für n diskrete Zufallsvariablen ergibt sich die zur Randverteilung der Zufallsvariable X1 gehörende Zähldichte pX1 aus
der Verbund-Zähldichte wie folgt
X
pX1 ,...,Xn (x1 , . . . , xn )
pX1 (x1 ) =
x2 ,...,xn
Mehrdimensionale Verteilungen
Gemeinsame Kumulative Verteilungsfunktion
~ = [X1 , . . . , Xn ]T eine n-dimensionale reelle Zufallsvariable
Sei X
auf dem Wahrscheinlichkeitsraum (Ω, F, P ), dann heißt FX1 ,...,Xn :
Rn → [0, 1] mit
~ ≤~
FX1 ,...,Xn (x1 , . . . , xn ) = F~X (~
x) = P ({X
x})
, P ({X1 ≤ x1 , . . . , Xn ≤ xn })
~
die Gemeinsame Kumulative Verteilungsfunktion von X.
Sie hat folgende Eigenschaften:
c) Für n gemeinsam stetig Zufallsvariablen ergibt sich die zur
Randverteilung der Zufallsvariable X1 gehörende Wahrscheinlichkeitsdichtefunktion fX1 , die auch als Randdichte bezeichnet wird, wie folgt aus fX1 ,...,Xn :
Z ∞
Z ∞
fX1 (x1 ) =
...
fX1 ,...,Xn (x1 , . . . , xn )dxn . . . dx2
−∞
3.4
−∞
Unabhängigkeit von Zufallsvariablen
X1 , . . . , Xn reelle Zufallsvariablen sind genau dann stochastisch
unabhängig wenn für jedes ~
x = [x1 , . . . , xn ]T ∈ Rn gilt:
i) FX1 ,...,Xn ist in jeder Koordinate monoton wachsend.
ii) FX1 ,...,Xn ist im folgenden Sinn rechtsseitig stetig:
∀ h > 0 gilt limh→0 FX1 ,...,Xn (x1 + h, . . . , xn + h) =
FX1 ,...,Xn (x1 , . . . , xn ), ∀ (x1 , . . . , xn ) ∈ Rn
iii) Für jedes 1 ≤ u ≤ n gilt:
limxi →−∞ FX1 ,...,Xn (x1 , . . . , xn ) = 0
limxi →∞ FX1 ,...,Xn (x1 , . . . , xn ) = 1
3.3.2
P ({X1 ≤ x1 , . . . , Xn ≤ xn }) =
n
Y
Analog folgt die stochastische Unabhängigkeit
a) für reelle Zufallsvariablen aus
FX1 ,...,Xn (x1 , . . . , xn ) =
FXi (xi )
b) für reelle und diskrete Zufallsvariablen aus
pX1 ,...,Xn (x1 , . . . , xn ) =
n
Y
pXi (xi )
i=1
~ =~
pX1 ,...,Xn (x1 , . . . , xn ) = p~X (~
x) = P ({X
x})
, P ({X1 = x1 , . . . , Xn = xn })
n
Y
i=1
Verbund-Zähldichte
~ = [X1 , . . . , Xn ]T eine n-dimensionale reelle diskrete ZufallsSei X
variable auf dem Wahrscheinlichkeitsraum (Ω, F, P ), dann heißt
pX1 ,...,Xn : Rn → [0, 1] mit
P ({Xi ≤ xi })
i=1
c) für reelle und stetige Zufallsvariablen au
~
die Verbund-Zähldichte von X.
fX1 ,...,Xn (x1 , . . . , xn ) =
n
Y
fXi (xi )
i=1
3.3.3
Verbund-Wahrscheinlichkeitsdichtefunktion
X1 , . . . , Xn heißen gemeinsam stetig, wenn ihre Gemeinsame Kumulative Verteilungsfunktion FX1 ,...,Xn dargestellt werden
kann als
FX1 ,...,Xn (x1 , . . . , xn )
Z
x1
=
Z
xn
...
−∞
−∞
fX1 ,...,Xn (ξ1 , . . . , ξn )dξn . . . dξ1
3.5
3.5.1
Bedingte Zufallsvariablen
Bedingte Kumulative Verteilungsfunktion
Die Funktion FX : R → [0, 1] mit
FX|A (x | A) = PA ({X ≤ x}) = P ({X ≤ x} | A)
heißt Bedingte Kumulative Verteilungsfunktion
Zufallsvariablen X unter der Bedigung A.
der
Rn
fX1 ,...,Xn
:
→
[0, ∞[
heißt
Verbund~ Es gilt
Wahrscheinlichkeitsdichtefunktion von X.
∂ n FX1 ,...,Xn (x1 , . . . , xn )
fX1 ,...,Xn (x1 , . . . , xn ) =
∂x1 . . . ∂xn
wenn FX1 ,...,Xn (x1 , . . . , xn ) in jeder Komponente stetig und bis
auf endlich viele Stellen differenzierbar ist.
Seien X und Y gemeinsam verteilte reelle Zufallsvariablen, dann
heißt die Funktion FX|Y : R → [0, 1] mit
FX|Y (x | y) = P ({X ≤ x} | {Y = y})
die Bedingte Kumulative Verteilungsfunktion der Zufallsvariablen X unter der Bedingung {Y = y}.
3.5.2
5.1.4
Bedingte Zähldichte
Seien X und Y gemeinsam verteilte reelle diskrete Zufallsvariablen.
Für ein gegebenes y mit pY (y) > 0 heißt die Funktion pX|Y : R →
[0, 1] mit
pX,Y (x, y)
pX|Y (x | y) =
pY (y)
Poisson-Verteilung
pX (k) = lim Bn, λ (k) = E−λ
n→∞
n
λk
, k ∈ N0
k!
Ergibt sich als asymptotischer Grenzfall aus der Binomialverteilung, wenn n → ∞ und p → 0, sodass np → λ.
die Bedingte Zähldichte der Zufallsvariablen X unter der Bedingung {Y = y}.
5.1.5
3.5.3
Besitzt die Eigenschaft der Gedächtnislosigkeit, d.h.
Bedingte Wahrscheinlichkeitsdichtefunktion
Seien X und Y gemeinsam verteilte reelle diskrete Zufallsvariablen.
Für ein gegebenes y mit fY (y) > 0 heißt die Funktion fX|Y : R →
[0, ∞[ mit
fX|Y (x | y) =
dFX|Y (x | y)
dx
=
fX,Y (x, y)
fY (y)
pX (k) = (1 − p)k−1 p, k ∈ N
P ({X > n + k} | {X > n}) = P ({X > k}), n, k ∈ N0
5.2
5.2.1
5.2.2
1
b−a
wenn x ∈ [a, b]
0
sonst
Exponentialverteilung
fX (x) = λE−λx , x ≥ 0
Sei X : Ω → R eine reelle Zufallsvariable und g : R → R eine
reellwertige deterministische Funktion. Dann ist auch Y = g(X)
eine reellwertige Zufallsvariable, die gegeben ist durch Y(ω) =
g(X(ω)).
Besitzt die Eigenschaft der Gedächtnislosigkeit, d.h.
P ({X > x + ξ} | {X > ξ}) = P ({X > x}), x, ξ ≥ 0
5.2.3
Normalverteilung
Transformation von Zufallsvariablen (univariater Fall)
Die allgemeine Transformationsvorschrift zur Bestimmung der
WDF fY der Zufallsvariablen Y = g(X) aus der gegebenen WDF
fX der Zufallsvariablen X für differenzierbare und streng monotone
Funktionen g lautet
#−1
"
dy
fY (y) = fX (g −1 (y)) (x)
dx
x=g −1 (y)
fX (x) = √
fZ=X+Y (z) = (fX ∗ fY )(z)
(x−µ)2
2σ 2
,x ∈ R
x2
1
fX (x) = φ(x) = √ E− 2
2π
Z
x
FX (x) = Φ(x) =
y − g(xi ) = 0, i ∈ {1, . . . , N }
Seien X und Y stochastisch unabhängige stetige Zufallsvariablen
und fX und fY ihre WDF, dann gilt für ihre Summe Z = X + Y
−
Für den Spezialfall X ∼ N (0, 1) spricht man von Standardnormalverteilung, für WDF und KVF gilt
"
#−1
dy
fX (xi ) (x)
fY (y) =
dx
x=xi
i=1
Summe unabhängiger Zufallsvariablen
2πσ 2
E
X ∼ N (µ, σ 2 )
N
X
4.2
1
µ ∈ R bezeichnet den Erwartungswert E[X], σ 2 > 0 die Varianz
V ar[X]. Für eine mit dem Erwartungswert µ und der Varianz σ 2
normalverteilte Zufallsvariable X schreibt man auch
dx
= fX (g −1 (y)) (y)
dy
Für die Transformation von Zufallsvariablen mit beliebigen differenzierbaren Funktionen g gilt
5
Gleichverteilung
(
Funktionen von Zufallsvariablen
4.1
Stetige Verteilungen
fX (x) =
die Bedingte Wahrscheinlichkeitsdichtefunktion der Zufallsvariablen X unter der Bedingung {Y = y}.
4
Geometrische Gleichverteilung
φ(ξ)dξ
−∞
Sie hat folgende Eigenschaften:
i) Y ∼ N (µ, σ 2 ) ⇒ X =
1
(Y
σ
− µ) ∼ N (0, 1)
ii) X ∼ N (0, 1) ⇒ Y = σX + µ ∼ N (µ, σ 2 )
5.2.4
Multivariate Normalverteilung
Stochastische Standardmodelle
fX1 ,...,Xn (x1 , . . . , xn )
5.1
5.1.1
Diskrete Verteilungen
1
1
= √ np
exp(− (~
x−µ
~ )T C−1 (~
x−µ
~ ))
2
2π
det(C)
Diskrete Gleichverteilung
pX (ω) =
1
,ω ∈ Ω
|Ω|
, wobei µ
~ den Erwartungswertvektor

 
µ1
X1
 . 
 . 
~
µ
~ =  .  = E  .  = E[X]
.
.
µn
Xn

5.1.2
Bernoulli-Verteilung


p
pX (k) = 1 − p


0
wenn k = 1
wenn k = 0
sonst
und C die Kovarianzmatrix
~ −µ
~ −µ
C = E[(X
~ )(X
~ )T ] = CT
5.1.3
Binomialverteilung
(
pX (k) = Bn,p (k) =
n k
p (1
k
0
− p)n−k
wenn k ∈ {0, . . . , n}
sonst
bezeichnet. Analog zum univariaten Fall schreibt man auch
~ ∼ N (~
X
µ, C)T
6
Erwartungswert und Varianz
6.1
Erwartungswert diskreter reeller Zufallsvariablen
viii) SindP
Xi , i ∈ {1, P
. . . , n} paarweise unkorreliert, so gilt
n
Var[ n
i=1 X] =
i=1 Var[Xi ]
ix) Sind E[X2 ] < ∞, E[Y2 ] < ∞, dann heißt
X : Ω → Ω ⊂ R sei reelle, diskrete Zufallsvariable, dann heißt
E[X] =
X
xP ({X = x}) =
X
cX,Y
Cov[X, Y]
p
ρX,Y = p
=
σX σY
Var[X] Var[Y]
xpX (x)
x∈Ω0
x∈Ω0
Korrelationskoeffizient von X und Y.
Erwartungswert von X. Sei g : R → R eine reellwertige Fkt.
dann gilt für Y = f (X)
X
E[g(X)] =
g(x)pX (x)
x∈Ω0
6.2
6.6
Multivariate reelle Zufallsvariablen
~ Y
~ reeller Zufallsvektor, dann heißt
Sei X,
Erwartungswert stetiger Zufallsvariablen
 

E[X1 ]
X1
.   . 
n
~ = E
E[X]
 ..  =  ..  ∈ R
E[Xn ]
Xn

X : Ω → R sei stetige Zufallsvariable, dann heißt
Z
∞
xfX (x)dx
E[X] =
−∞
Erwartungswert von X. Sei g : R → R eine reellwertige Fkt.
dann gilt für Y = f (X)
Z
~
der Erwartungswertvektor von X,
~ Y]
~ = E[(X
~ − E[X])(~
~ y − E[Y])
~ T]
Cov[X,


Cov[X1 , Y1 ] . . . Cov[X1 , Ym ]


..
..
n×m
..
=
∈R
.
.
.
Cov[Xn , Y1 ] . . . Cov[Xn , Ym ]
∞
E[g(X)] =
g(x)fX (x)dx
−∞
6.3
Eigenschaften des Erwartungswerts
Seien X, Y reelle Zufallsvariablen, α, β ∈ R
~ und Y,
~ kurz CX,Y ,
die Kovarianzmatrix von X
i) E[αX + βY] = αE[X] + βE[Y]

ii) X ≤ Y ⇒ E[X] ≤ E[Y]
~Y
~T] = 
E[X

iii) Sind X und Y stochastisch unabhängig, so gilt:
E[XY] = E[X]E[Y] (Die Umkehrung gilt nicht zwigend!)
iv) Für den Fall, dass X R: Ω → R+ nur nichtnegative Werte
annimmt, gilt: E[X] = 0∞ P (X > t)dt
...
..
.
...

E[X1 Ym ]

..
n×m
∈R
.
E[Xn Ym ]
~ und Y,
~ kurz RX,Y ,
die Korrelationsmatrix von X
v) Für den Fall, dass X : ΩP→ Ω0 ⊂ R+ nur nichtnegative Werte
annimmt, gilt: E[X] = ∞
0 P (X > t)
6.4
E[X1 Y1 ]
..
.
E[Xn Y1 ]
~ und Y
~ heißen unkorreliert, wenn gilt
i) X
~ Y]
~ = 0 ⇔ E[X
~Y
~ T ] = E[X]E[
~ Y
~T]
Cov[X,
Varianz und Kovarianz reeller Zufallsvariablen
~ und Y
~ heißen orthogonal, wenn gilt
ii) X
~Y
~T] = 0
E[X
X : Ω → R sei reelle Zufallsvariable, dann heißt
Var[X] = E (X − E[X])2
= E[X2 ] − E[X]2
7
Erzeugende und charakteristische Funktionen
die Varianz von X.
7.1
X : Ω → R, Y : Ω → R seien reelle Zufallsvariablen, dann heißt
Sei X : Ω 7→ N0 diskrete, nichtnegative Zufallsvariable, dann heißt
Wahrscheinlichkeitserzeugende Funktion
Cov[X, Y] = E [(X − E[X])(Y − E[Y])]
= E[XY] − E[X]E[Y]
GX (z) = E[z X ] =
∞
X
pX (k)z k ,
|z| ≤ 1
k=0
= Cov[Y, X]
die Kovarianz von X und Y.
wahrscheinlichkeitserzeugende Funktion von X bzw. der
Zähldichte pX (k).
6.5
Eigenschaften:
Eigenschaften von Varianz und Kovarianz
Seien X, Y, U, V reelle Zufallsvariablen, α, β, γ, δ ∈ R
i) P ({X = n}) =
i) Var[X] = Cov[X, X]
ii) Cov[αX + β, γY + δ] = αγCov[X, Y]
iii) Cov[X + U, Y + V]
= Cov[X, Y] + Cov[X, V] + Cov[U, Y] + Cov[U, V]
α2 Var[X]
iv) Var[αX + β] =
P
Pn
P
v) Var[ n
i=1 X] =
i=1 Var[Xi ] +
i6=j Cov[Xi , Xj ]
vi) X und Y heißen unkorreliert, wenn
Cov[X, Y] = 0 ⇔ E[XY] = E[X]E[Y]
vii) X und Y heißen orthogonal, wenn
E[XY] = 0
1
n!
h
i
d
ii) E[X] = dz
GX (z)
dn
G (z)
dz n X
z=0
i
,
∀n ∈ N0
h
iii) Var[X] =
h
z=1
d2
G (z)
dz 2 X
z=1
i
− E[X]2 + E[X]
Sind Xi : Ω 7→ N0 , i ∈ {1, . . . , n} stochastisch
P unabhängige
diskrete nichtnegative Zufallsvariablen und Z = n
i=1 Xi , so gilt:
GZ (z) =
n
Y
i=1
GXi (z)
7.2
Momenterzeugende Funktionen
8.1
Sei X : Ω 7→ R eine reelle Zufallsvariable. Dann heißt
MX (s) = E[esX ]
=
Sn = Xn (ωn ) + Xn−1 (ωn−1 ) + · · · + X1 (ω1 ),
{s ∈ R | E[esX ] < ∞}
∞
X
sk
E[Xk ]
k!
k=0
s ∈ (−a, a)
Ensemble und Pfad
Seien Xi , i ∈ {1, . . . , n} reelle Zufallsvariablen und
n∈N
eine nichtdeterministische Zufallsfolge. Dann kann (Sn : n ∈ N)
dargestellt werden in der
i) Ensemble-Darstellung (Sn : Ωn × Ωn−1 × · · · × Ω1 7→ R):
die momenterzeugende Funktion von X.
(ωn , ωn−1 , . . . ω1 ) 7→ sn (ωn , ωn−1 , . . . ω1 ),
n∈N
Eigenschaften:
i)
E[Xn ]
=
h
dn
MX (s)
dsn
s=0
i
ii) Pfad-Darstellung (Sn = (Sn , Sn−1 , . . . , S1 ) : Ω(n) 7→ Rn ):
∀n ∈ N0
ωn 7→ sn (ωn ) = (sn (ωn ), sn−1 (ωn ), . . . , s1 (ωn )),
Sind Xi : Ω 7→ N0 , i ∈ {1, . . . ,P
n} stochastisch unabhängige
reelle Zufallsvariablen und Z = n
i=1 Xi , so gilt:
MZ (s) =
n
Y
i=1
7.3
mit Ω(n) = Ωn × Ωn−1 × · · · × Ω1
8.2
MXi (s)
Verteilungen und Momente von Zufallsfolgen
Reelle Zufallsfolge (Xi : i ∈ N) als Folge reeller Zufallsvariablen
eindeutig beschrieben durch Menge aller gemeinsamen kumulativen Verteilungsfunktionen
Charakteristische Funktion
FXi 1 ,...,Xi n (xi1 , . . . , xin ) = P ({Xi1 ≤ xi1 , . . . , Xin ≤ xin })
Sei X : Ω 7→ R eine reelle Zufallsvariable. Dann heißt
ϕX (ω) = E[e
jωX
]
Für den Erwartungswert und die Varianz (als Spezialfall der
Kovarianz) des n-ten Element der reellen Zufallsfolge (Xn : n ∈ N)
gilt:
die charakteristische Funktion von X.
µX (n) = E[Xn ]
Eigenschaften:
σX2 (n) = Var[Xn ] = E[X2n ] − E[Xn ]2
i) E[Xn ] =
1
jn
h
Für die Autokorrelations- sowie die Autokovarianzfolge gilt:
dn
ϕ (ω)
dω n X
ω=0
i
∀n ∈ N0
rX (k, l) = E[Xk Xl ]
cX (k, l) = Cov[Xk , Xl ] = rX (k, l) − µX (k)µX (l)
Sind Xi : Ω 7→ N0 , i ∈ {1, . . . ,P
n} stochastisch unabhängige
reelle Zufallsvariablen und Z = n
i=1 Xi , so gilt:
8.3
ϕZ (ω) =
n
Y
ϕXi (ω)
i=1
7.4
Der zentrale Grenzwertsatz
n
X
(Xi − µ)
Zn =
√
σ n
i=1
Random Walk
Mathematische Modellierung des Vorgangs, dass Teilchen bei jedem Schritt (Schrittweite δ) mit Wahrscheinlichkeit p bzw. 1 − p
Schritt nach rechts oder links macht (Richtung der einzelnen
Schritte unabhängig voneinander).
Betrachtung von
Seien Xi , i ∈ 1, . . . , n stochastisch unabhängige und identisch verteilte reelle Zufallsvariablen, sowie E[Xi ] = µ und Var[Xi ] = σ 2 <
∞. Dann konvergiert die Verteilung der standardisierten Summe
Sn =
n
X
Xi mit P ({Xi = +δ}) = p, P ({Xi = −δ}) = 1 − p
i=1
Dann gilt
E[Xi ] = δp − δ(1 − p) = (2p − 1)δ
Var[Xi ] = E[X2i ] − E[Xi ]2 = 4p(1 − p)δ 2
" n
#
n
X
X
E[Sn ] = E
Xi =
E[Xi ] = n(2p − 1)δ
(E[Zn ] = 0 und Var[Zn ] = 1) für n → ∞ gegen die Standardnormalverteilung. Daraus folgt, dass:
i=1
" n
X
lim P({Zn ≤ z}) = Φ(z)
n→∞
Var[Sn ] = Var
i=1
Teil II
Stochastische Prozesse
8
#
i=1
n
X
Xi =
Var[Xi ] = 4np(1 − p)δ 2
(1)
i=1
Symmetrischer Random Walk liegt vor, wenn E[Sn ] = 0 und
Var[Sn ] = nδ 2 . Dies gilt für p = 12 .
8.4
Reelle Zufallsfolgen
Eine Folge (Xn : n ∈ N) von Zufallsvariablen ist gegebenen durch
Wahrscheinlichkeitsraum (Ω, F, P), Messraum (Ω0 , F0 ) und messbare Abbildungen Xn : Ω 7→ Ω0 , n ∈ N. Für reelle Zufallsfolgen
gilt (Ω0 , F0 ) = (R, B). Damit ist
Xn : Ω 7→ R,
n∈N
n∈N
eine Folge von reellen Zufallsvariablen.
Stationarität von Zufallsfolgen
Folgenelemente sind invariant gegenüber Verschiebung der Indizes. Für Praxis viel wichtiger ist Stationarität im weiteren
Sinne (WSS, wide sense stationary):
µX (i) = µX (i + k)
rX (i1 , i2 ) = rX (i1 − i2 ) = rX (i1 + k, i2 + k)
∀i, k ∈ N
∀i1 , i2 , k ∈ N
Jede stationäre Folge ist auch im weiteren Sinne stationär, die
Umkehrung gilt nicht!
8.5
Konvergenz reeller Zufallsfolgen
8.8
Das starke Gesetz der großen Zahlen
Sei (Xi : i ∈ N) eine Folge reeller, paarweise unkorrelierter Zufallsvariablen mit beschränkter Varianz, d.h. es sei v =
maxi∈N Var[Xi ] < ∞. Dann gilt:
Konzepte von Konvergenz (in absteigender Stärke):
i) Fast sichere (almost surely) Konvergenz:
n
1X
a.s.
(Xi − E[Xi ]) → 0
n i=1
a.s.
P ({ω : lim Xn (ω) = X(ω)}) = 1, Xn → X
n→∞
ii) Konvergenz in Wahrscheinlichkeit (in probability):
9
Markowketten und bedingte Unabhängigkeit
p.
∀ > 0, Xn → X
lim P ({ω : |Xn (ω) − X(ω)| > }) = 0
n→∞
iii) Konvergenz im quadratischen Mittel (in the mean square
sense):
9.1
Bedingte Unabhängigkeit
Sind drei Ereignisse A, B, C auf einem Wahrscheinlichkeitsraum
(Ω, F, P ) mit P (B) > 0 gegeben. A und C heißen dann bedingt
unabhängig gegeben B, wenn
m.s.
E[X2n ] < ∞ und lim E[(Xn (ω) − X(ω))2 ] = 0, Xn → X
P (A ∩ C | B) = P (A | B)P (C | B)
n→∞
für P (B ∩C) > 0 sind A und C bedingt unabhängig gegeben
B, wenn
P (A | B ∩ C) = P (A | B)
iv) Konvergenz in Verteilung (in distribution):
d.
lim FXn (x) = FX (x), Xn → X
n→∞
Sind drei gemeinsam verteilte, reelle diskrete/stetige Zufallsvariablen X, Y, Z gegeben. Man bezeichnet X und Z als bedingt
unabhängig gegeben Y, falls für alle(x, y, z) ∈ Ω0 /R3 mit
pY,X (y, x) > 0/fY,X (y, x) > 0 gilt:
Nützliche Folgerungen:
p.
a.s.
a) Xn → X ⇒ Xn → X
p.
m.s.
b) Xn → X ⇒ Xn → X
p.
m.s.
c) P ({Xn ≤ Y}) = 1 ∀n, E[Y2 ] < ∞, Xn → X ⇒ Xn → X
p.
a.s./p./m.s.
e) Xn
→
X und Xn
→
(Eindeutigkeit des Grenzwerts!)
d.
Y ⇒ P ({X = Y}) = 1
d.
f) Xn → X und Xn → Y ⇒ X und Y haben gleiche Verteilung.
8.6
9.2
(2)
stetig:
fZ|Y,X (z | y, x) = fZ|Y (z | y)
(3)
Markow-Ungleichung: Sei X : Ω 7→ R eine reelle Zufallsvariable mit E[|X|] < ∞ und a > 0 eine reellwertige Konstante.
Dann gilt:
E[|X|]
P ({|X| ≥ a}) ≤
a
Tschebyschow-Ungleichung: Sei X : Ω 7→ R eine reelle Zufallsvariable mit endlicher Varianz und a eine positive reellwertige
Konstante. Dann gilt:
P ({|X − E[X]| ≥ a}) ≤
Var[X]
a2
Das schwache Gesetz der großen Zahlen
Sei (Xi : i ∈ N) eine Folge reeller, paarweise unkorrelierter Zufallsvariablen mit beschränkter Varianz, d.h. es sei v =
maxi∈N Var[Xi ] < ∞. Dann gilt:
n
1X
p.
(Xi − E[Xi ]) → 0
n i=1
Für stochastisch unabhängige und identisch verteilte Folgenelemente mit E[Xi ] = E[X] und Var[Xi ] = Var[X] < ∞ gilt insbesondere:
n
1X
p.
Xi → E[X]
n i=1
Markowketten
Eine Zufallsfolge (Xn : n ∈ N) mit den Zustandsraum X heißt
Markowkette, falls ∀ ni ∈ N, i ∈ 1, . . . k mit n1 < · · · < nk gilt:
(Xn1 , Xn2 , . . . Xnk−2 ) → Xnk−1 → Xnk
Markow- und Tschebyschow-Ungleichung
Geben in allgemeinerer bzw. speziellerer Form obere Schranke
für Wahrscheinlichkeit, dass nichtnegative Zufallsvariable Wert
größer als positive Konstante annimmt, an.
8.7
pZ|Y,X (z | y, x) = pZ|Y (z | y)
Die Kurzschreibweise hierfür lautet: X → Y → Z
d.
d) Xn → X ⇒ Xn → X
a.s./p./m.s.
diskret:
Schreibt man dies nach (2) oder (3) um, so nennt man die resultierende Gleichung Markoweigenschaft einer Zufallsfolge
9.2.1
Zustandsübergänge
Sei (Xn : n ∈ N) eine Zufallsfolge mit Zustandsraum X. Dann ist
die Zustandsübergangswahrscheinlichkeit:
pXn |Xn−1 (xn | xn−1 )
und die Zustandsübergangsdichte:
fXn |Xn−1 (xn | xn−1 )
sowie
die
m-Schritt-Übergangswahrscheinlichkeit/Übergangsdichte:
pXn+m |Xn (xn+m | xn )
fXn+m |Xn (xn+m | xn )
Eine
Markowkette
heißt
homogen,
wenn
die
Übergangswahrscheinlichkeiten bzw. -dichten ∀(xn , xn+1 ) ∈ X2
mit pXn (xn ) > 0/fXn (xn ) > 0 unabhängig vom Index n sind:
pXn+1 |Xn (xn+1 | xn ) = pXn+1+k |Xn+k (xn+1 | xn )
n ∈ N, n + k ∈ N
fXn+1 |Xn (xn+1 | xn ) = fXn+1+k |Xn+k (xn+1 | xn )
n ∈ N, n + k ∈ N
Häufige kompakte Schreibweise für homogene Markowketten:
pij , pXn+1 |Xn (ξi | ξj )
n ∈ N, ξi , ξj ∈ X
9.2.2
10.3.1
Markowketten mit endlichem Zustandsraum
Endlicher Zustandsrausraum: X enthält endlich viele Elemente:
X = {x1 , x2 , . . . xN } N ∈ N
Eigenschaften des Wiener-Prozesses
Sei (Wt : t ∈ R+ ) mit σ > 0 ein Wiener-Prozess, dann gilt:
a) P ({W0 = 0}) = 1 (Wiener-Prozess startet stets im Koordinatenursprung)
Darstellung einer Markowkette mit N -elementigem X als N komponentiger Vektor:


pXn (x1 )
 pXn (x2 ) 


p
~n , 
 ∈ [0, 1]N
..


.
pXn (xN )
d) Wt (ω) ist stetige Musterfunktion mit Wahrscheinlichkeit 1
mit [~
pn ]i = pXn (xi )
f) Autokorrelationsfunktion
Übergangsmatrix:

p11

Π =  ..
.
pN 1
b) (Wt : t ∈ R+ ) hat unabhängige Inkremente
c) Wt − Ws ∼ N (0, σ 2 (t − s)) ∀0 ≤ s ≤ t
e) Erwartungswertfunktion
µW (t) = E[Wt ] = E[Wt − W0 ] = 0
rW (s, t) = cW (s, t) = σ 2 min{s, t}
···
..
.
p1N

Zählprozess (Addition von 1 nach zufälligem Zeitintervall)
mit exponentialverteilten Wartezeiten, also sind hier Abstände
zwischen Inkrementen Zufallsvariablen.
pN N
Spaltensumme muss immer 1 ergeben!
p
~n+1 = Π~
pn
p
~n+m = Πm p
~n
Poisson-Prozess (Nt : t ∈ R+ )
10.4
∈ [0, 1]N ×N


n, m ∈ N
Konstruktion
n, m ∈ N
Nt =
Beispiel: Skript S. 135
∞
X
u(t − Ti ),
Ti =
i=1
Darstellung von Markowketten für endliche Zustandsräume
und konstante Übergangswahrscheinlichkeiten mit Hilfe von
Übergangsgraphen mit:
i
X
Xj
j=1
Wahrscheinlichkeitsdichtefunktion
fTi (t) =
λi
ti−1 e−λt ,
(i − 1)!
t≥0
i) Zuständen als Knoten
ii) Übergangen mit Wahrscheinlichkeit pji > 0 als gerichteten
Kanten von si nach sj
10
P ({Nt = n}) =
Zufallsprozesse
Reeller Zufallsprozess: Xt : Ω 7→ R, t ∈ R ⇒ Zufallsfolge ist
ein diskreter Zufallsprozess
10.1
Wahrscheinlichkeit, dass bis zum Zeitpunkt t genau n
zufällige Inkrementierungen stattgefunden haben
10.4.1
n ∈ N, t ∈ R+
Eigenschaften des Poisson-Prozesses
a) Erwartungswertfunktion
µN (t) = E[Nt ] = E[Nt − N0 ] = λt
Ensemble und Musterfunktion
Möglichkeiten der Interpretation eines Zufallsprozesses:
b) Autokorrelationsfunktion
a) als Ensemble einer nicht abzählbaren Menge von Zufallsvariablen Xt mit t ∈ R
b) Schar von Musterfunktionen Xt (ω) : R 7→ R, t 7→ Xt (ω)
als deterministische Funktion von t mit einem gegebenen Ereignis ω ∈ Ω
10.2
(λt)n −λt
e
n!
Verteilungen und Momente von Zufallsprozessen
rN (s, t) = λ min{s, t} + λ2 st
c) Autokovarianzfolge
cN (s, t) = rN (s, t) − µN (s)µN (t) = λ min{s, t}
d) Musterfunktion des ∼ ist Zählfunktion (f (0) = 0, f monoton
steigend ⇒ Nt2 ≥ Nt1 gilt immer!)
a) Erwartungswertfunktion
10.5
µX (t) = E[Xt ]
Eigenschaften eines einzelnen Zufallsprozesses
b) Autokorrelationsfunktion
i) Stationarität eines ZP
rX (s, t) = E[Xs Xt ]
c) Autokovarianzfunktion
cX (s, t) = Cov(Xs , Xt ) = rX (s, t) − µX (s)µX (t)
10.3
Addition/Subtraktion eines zufälligen Wertes je infinitesimalem
Zeitintervall
Der Zufallsprozess (St : t ∈ R+ ) mit St ∼ N (0, σ 2 t) heißt
Wiener-Prozess.
[E[St ]]t=nT = E[Sn ] = 0
t
T
δ 2 mit δ =
FXt1 ,...,Xtn (x1 , . . . xn ) = FXt +s ,...,Xtn +s (x1 , . . . xn )
1
T
T
∀ x1 , . . . , xn
∈ Rn , t1 , . . . , tn
∈ Rn , s ∈ R, n ∈ R
ii) Stationarität im weiteren Sinne (WSS)
Wiener-Prozess (ist kein Zählprozess!)
[Var[St ]]t=nT = Var[Sn ] = nδ 2 =
Klassifikation reeller Zufallsprozesse
√
σ2 T
Die Varianz der Normalverteilung ist hier also zeitabhängig:
1
s2
fSt (s) = √
exp − 2
, t ∈ R+
2σ t
2πσ 2 t
µX (t) = µX (t + s)
rX (t1 , t2 ) = rX (t1 + s, t2 + s)
∀t, s ∈ R
∀t1 , t2 , s ∈ R
Stationarität ⇒ Stationarität im weiteren Sinne (Umkehrung gilt nicht!). Ist ein ZP nicht WSS, kann er auch nicht
stationär sein!
iii) Zyklische WSS Für periodische µX (t) und rX (t1 , t2 ) mit
T > 0 gilt:
µX (t) = µX (t + T )
rX (t1 , t2 ) = rX (t1 + T, t2 + T )
aus WSS ⇒ zyklische WSS
∀t ∈ R
∀t1 , t2 ∈ R
Eigenschaften von zwei Zufallsprozessen
Seien (Xt : t ∈ R) und (Yt : t ∈ R) zwei ZP auf demselben
Wahrscheinlichkeitsraum
Äquivalente Beschreibung eines LTI-Systems durch die Impulsantwort möglich:
Z
∞
a(t, τ )x(τ ) dτ
y(t) = (Ax)(t) =
−∞
i) Gemeinsame Stationarität
Xt und Yt sind zwei reelle jeweils selbst stationäre ZP und
ihre gemeinsamen Verteilungen verschiebungsinvariant (siehe Formel (11.18) auf S.156)
LTI
∞
Z
Z
∞
a(t − τ )x(τ ) dτ =
=
a(τ )x(t − τ ) dτ
−∞
−∞
= (a ∗ x)(t)
ii) Kreuzkorrelationsfunktion
Im Frequenzraum gilt dann folglich:
rX,Y (s, t) = E[Xs Xt ] = rY,X (t, s)
Y (f ) = A(f )X(f )
iii) Kreuzkovarianzfunktion
11.2
cX,Y (s, t) = rX,Y (s, t) − µX (s)µY (t) = cY,X (t, s)
iv) Gemeinsame Stationarität im weiteren Sinne
Xt und Yt sind zwei reelle jeweils selbst im weiteren Sinne
stationäre ZP und es gilt
rX,Y (t1 , t2 ) = rX,Y (t1 + s, t2 + s)
Z
Ys =
LTI
∀t1 , t2 , s ∈ R
v) Stochastische Unabhängigkeit
Siehe Formel (11.22) auf S. 157
Erwartungswert- und Korrelationsfunktionen
Ausgang eines mit dem Zufallsprozess Xt beaufschlagten linearen
Systems ist wieder ein Zufallsprozess:
∞
a(s, t)Xt dt
−∞
Z ∞
Z
cX,Y (s, t) = 0 ⇔ rX,Y (s, t) = µX (s)µY (t)
∀s, t ∈ R
i) Erwartungswertfunktion
∞
Z
µY = µX
vii) Stochastische Orthogonalität
10.6
a(t)Xs−t dt
−∞
−∞
Bei Filterung eines WSS Zufallsprozesses Xt mit einem LTISystem sind Xt und der gefilterte Zufallsprozess Yt gemeinsam
WSS. Dann gilt:
vi) Stochastische Unkorreliertheit
rX,Y (s, t) = 0
∞
a(s − t)Xt dt =
=
a(t) dt
−∞
∀s, t ∈ R
ii) Kreuzkorrelationsfunktion
Eigenschaften der Auto- und Kreuzkorrelationsfunktion von gemeinsam WSS Zufallsprozessen
rY,X (τ ) = (a ∗ rX )(τ )
mit ã(τ ) = a(−τ )
iii) Autokorrelationsfunktion
rX (τ ) ≤ rX (0)
p
|rX,Y (τ )| ≤ rX (0)rY (0)
rY (τ ) = (ã ∗ a ∗ rX )(τ )
rX (τ ) = rX (−τ ) (AKF gerade, achsensymm.)
T
a RX a ≥ 0
[RX ]k,l = rX (tk − tl )
10.7
∀tk , tl ∈ R, a ∈ Rn
Leistungsdichtespektrum reeller WSS Zufallsprozesse
SY,X (f )
ii) Kreuzkorrelationsfunktion
SX (f ) = SX∗ (f )
∀f ∈ R
SX (f ) = SX (−f )
∀f ∈ R
SX (f ) df = rX (0) = σX2 + µ2X
−∞
SX (f ) ≥ 0
11.1
SY (f )
SY (f ) = |A(f )|2 SX (f )
Eigenschaften
11
rY
i) Autokorrelationsfunktion
rX (τ ) e−j2πf τ dτ
−∞
Z∞
Leistungsdichtespektrum ist die Fourier-Transformierte der entsprechenden Korrelationsfunktion, folglich gilt:
Leistungsdichtespektrum der
Wiener-Chintschin-Theorem
Z∞
Leistungsdichtespektren
rY,X
∼ existiert nur für WSS Zufallsprozesse!
SX (f ) =
11.3
mit ã(τ ) = a(−τ )
∀f ∈ R
Zufallsprozesse und lineare Systeme
Lineare zeitinvariante Systeme
Ein linearer Operator A : X 7→ Y mit y = Ax erfüllt folgende
Bedingungen:
A(αx) = αAx
A(x1 + x2 ) = Ax1 + Ax2
∀α ∈ R, x ∈ X
∀x1 , x2 ∈ X
SY,X (f ) = A(f )SX (f )
SX,Y (f ) = A∗ (f )SX (f )
Herunterladen