Reelle Zufallsvariablen

Werbung
Kapitel 3
Reelle Zufallsvariablen
Gegeben sei ein W-Raum (Ω, C, P); der Messraum (R, B1 ) ist hier von besonderer Wichtigkeit: Eine
reelle Zufallsvariable (auf Ω) ist eine Funktion X : Ω −→ R , die messbar bezüglich der SigmaAlgebren C und B 1 ist. Mit M(Ω, C) sei die Menge aller reellen Zufallsvariablen auf Ω bezeichnet.
Lemma 3.1 (Messbarkeit erhaltende Operationen)
(a) Seien X, Y ∈ M(Ω, C). Dann:
(i) aX + bY ∈ M(Ω, C) für alle a, b ∈ R.
(ii) max{X, Y } , min{X, Y } , X · Y ∈ M(Ω, C) , und im Fall Y (ω) 6= 0 ∀ ω ∈ Ω ist auch
X/Y ∈ M(Ω, C) .
(b) Seien Xn ∈ M(Ω, C) ∀ n ∈ N .
(i) Wenn für jedes ω ∈ Ω die Zahlenfolge Xn (ω) , n ∈ N, nach oben beschränkt ist, dann :
sup Xn ∈ M(Ω, C) .
n∈N
(ii) Wenn für jedes ω ∈ Ω die Zahlenfolge Xn (ω) , n ∈ N, nach unten beschränkt ist, dann :
inf Xn ∈ M(Ω, C) .
n∈N
(iii) Wenn für jedes ω ∈ Ω die Zahlenfolge Xn (ω) , n ∈ N, konvergiert (in R), dann :
lim Xn ∈ M(Ω, C) .
n→∞
3.1
Erwartungswert
Definition 3.2 (Elementare Zufallsvariable: P-Integral / Erwartungswert)
Eine elementare Zufallsvariable (auf Ω) ist eine reelle Zufallsvariable X : Ω −→ R mit endlichem
Bild X(Ω) . Die Menge aller elementaren Zufallsvariablen auf Ω werde mit Me (Ω, C) bezeichnet.
Für X ∈ Me (Ω, C) ist das P-Integral oder der Erwartungswert von X definiert durch:
Z
X
X dP := E(X) :=
x · P(X = x)
(eine reelle Zahl).
Ω
x∈X(Ω)
Anmerkung: Statt E(X) schreiben wir bisweilen auch EP (X), wenn die zu Grunde liegende
W-Verteilung P hervorgehoben werden soll.
Beispiel: Indikatorvariable
¡ ¢
Sei X = 1 A mit einer Menge A ∈ C. Offensichtlich: 1 A ∈ Me (Ω, C) und E 11A = P(A) .
23
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13
Kapitel 3: Reelle Zufallsvariablen
24
Beispiel: Binomialverteilte Zufallsvariable
Sei X : Ω −→ {0, 1, . . . , n} eine Zufallsvariable mit X ∼ Bi(n, p) , (d.h. PX = Bi(n, p) ), mit
gegebenen n ∈ N und p ∈ [ 0 , 1 ] . Dann ist X ∈ Me (Ω, C) und
E(X) =
n
X
k=0
µ ¶
n
X
n k
k P(X = k) =
k
p (1 − p)n−k = n p ,
k
k=0
wobei die letzte Gleichheit Resultat einiger Umformungen ist.
Lemma 3.3 (Lineare Struktur)
Me (Ω, C) =
und für X =
r
X
i=1
r
nX
o
αi 1 Ai : αi ∈ R , Ai ∈ C (i = 1, . . . .r) , r ∈ N ,
i=1
αi 1 Ai , wobei αi ∈ R , Ai ∈ C (i = 1, . . . .r) und r ∈ N , gilt:
r
X
E(X) =
αi P(Ai ) .
i=1
Me (Ω, C) ein linearer Raum, d.h. aX + bY ∈ Me (Ω, C) für alle X, Y ∈ Me (Ω, C) und alle a, b ∈ R,
und das P-Integral (Erwartungswert) ist ein lineares und monotones Funktional, d.h. :
E(aX + bY ) = aE(X) + bE(Y ) für alle X, Y ∈ Me (Ω, C) und alle a, b ∈ R;
wenn X, Y ∈ Me (Ω, C) und X ≤ Y , dann
E(X) ≤ E(Y ) .
Anmerkung: Wie man leicht sieht gilt für alle X, Y ∈ Me (Ω, C) auch:
max{X, Y } , min{X, Y } , X · Y ∈ Me (Ω, C) ,
sowie im Fall Y (ω) 6= 0 ∀ ω ∈ Ω : X/Y ∈ Me (Ω, C) .
Wir betrachten jetzt nicht-negative reelle Zufallsvariablen auf Ω , also Zufallsvariablen X ∈ M(Ω, C)
mit X ≥ 0. Die Menge aller nicht-negativen Zufallsvariablen auf Ω werde mit M+ (Ω, C) bezeichnet.
Analog bezeichne M+
e (Ω, C) die Menge aller nicht-negativen elementaren Zufallsvariablen auf Ω.
Lemma 3.4 (Approximation durch elementare Zufallsvariablen)
Zu jedem X ∈ M+ (Ω, C) existiert eine isotone Folge Xn ∈ M+
e (Ω, C) , n ∈ N, also Xn ≤ Xn+1
∀ n ∈ N , mit lim Xn = X .
n→∞
Anmerkung: Die Xn , n ∈ N, können überdies messbar bezgl. der kleineren Sigma-Algebra
©
ª
σ(X) := X −1 (B) : B ∈ B 1 ⊆ C
¡
¢
gewählt werden, also Xn ∈ M+
∀ n ∈ N.
e Ω, σ(X)
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13
Kapitel 3: Reelle Zufallsvariablen
25
Theorem 3.5 (P-Integral / Erwartungswert nicht-negativer Zufallsvariablen)
+
e
Sei X ∈ M+ (Ω, C) . Seien Xn ∈ M+
e (Ω, C) , n ∈ N, und Xn ∈ Me (Ω, C) , n ∈ N, zwei isotone Folgen
en = X . Dann gilt:
mit lim Xn = X und lim X
n→∞
n→∞
en )
lim E(Xn ) = lim E(X
n→∞
n→∞
in [ 0 , ∞] .
Daher können wir definieren:
Z
Ω
X dP := E(X) := lim E(Xn ) ∈ [ 0 , ∞] .
n→∞
Beispiel: Poisson-verteilte Zufallsvariable
Sei X : Ω −→ N0 eine Zufallsvariable mit X ∼ Poi(λ) , mit einem λ ∈ ( 0 , ∞) . Dann ist
X ∈ M+ (Ω, C) , und durch
Xn := X 1 {X≤n} =
n
X
i 1 {X=i} ,
n ∈ N,
i=1
ist eine isotone Folge in
M+
e (Ω, C)
E(Xn ) =
n
X
i e−λ
i=1
mit lim Xn = X gegeben. Wir erhalten:
n→∞
λi
i!
∀ n , folglich:
E(X) =
∞
X
i=1
i e−λ
λi
= λ.
i!
Lemma 3.6 (Linearität und Monotonie des Erwartungswerts für nicht-negative ZV’en)
Seien X, Y ∈ M+ (Ω, C) . Es gilt:
½
E(aX + bY ) = aE(X) + bE(Y ) ∀ a, b ∈ [ 0 , ∞) ;
wenn X ≤ Y , dann
Konvention: c · ∞ :=
∞ , falla c > 0
;
0 , falls c = 0
E(X) ≤ E(Y ).
Sei nun X ∈ M(Ω, C) beliebig. Wir zerlegen die Zufallsvariable X in ihren Positivteil und ihren
Negativteil :
X + := max{X , 0} und X − := min{−X , 0} ; dann: X + , X − ∈ M+ (Ω, C) und X = X + − X − .
Definition 3.7 (P-integrierbare Zufallsvariable)
Sei X ∈ M(Ω, C) .
Die Zufallsvariable X heißt quasi-P-integrierbar, wenn E(X + ) < ∞ oder E(X − ) < ∞ , und in
diesem Fall:
Z
X dP := E(X) := E(X + ) − E(X − ) ∈ [−∞ , ∞]
Ω
Konvention:
c − ∞ := −∞ , ∞ − c := ∞ ,
∀ c ∈ R.
Wenn E(X + ) < ∞ und E(X − ) < ∞ , dann heißt die Zufallsvariable X P-integrierbar.
Mit L1 (P) = L1 (Ω, C, P) sei die Menge aller P-integrierbaren Zufallsvariablen auf Ω bezeichnet.
¡ ¢
Anmerkung: Für X ∈ M(Ω, C) gilt die Äquivalenz: X ∈ L1 (P) ⇐⇒ E |X| < ∞ .
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13
Kapitel 3: Reelle Zufallsvariablen
26
Lemma 3.8 (Linearität und Monotonie des Erwartungswerts auf L1 (P))
Seien X, Y ∈ L1 (P) . Es gilt:
∀ a, b ∈ R :
aX + bY ∈ L1 (P) und E(aX + bY ) = aE(X) + bE(Y ) ;
wenn X ≤ Y , dann
E(X) ≤ E(Y ).
Theorem 3.9 (Konvergenzsätze für P-Integrale / Erwartungswerte)
(1) Monotone Konvergenz
Seien Xn , n ∈ N , eine isotone Folge in M+ (Ω, C) , X ∈ M+ (Ω, C) und lim Xn = X .
Dann:
n→∞
lim E(Xn ) = E(X) .
n→∞
(2) Majorisierte Konvergenz
Seien Xn , n ∈ N , eine Folge in M(Ω, C) , X ∈ M(Ω, C) , lim Xn = X , und es existiere
n→∞
ein Y ∈ L1 (P) mit |Xn | ≤ Y ∀ n ∈ N . Dann:
¡
¢
Xn ∈ L1 (P) ∀ n , X ∈ L1 (P) und lim E |Xn − X| = 0 , insbes.:
n→∞
lim E(Xn ) = E(X) .
n→∞
Theorem 3.10 (Transformationsformel für Integrale / Erwartungswerte)
Seien noch (M, A) ein Messraum und T : Ω −→ M eine messbare (bezgl. C und A) Abbildung.
Neben dem W-Raum (Ω, C, P)) betrachten wir auch den W-Raum (M, A, PT ) .
Für jedes g ∈ M(M, A) gilt die Äquivalenz:
g ◦ T ist quasi-P-integrierbar ⇐⇒ g ist quasi-PT -integrierbar.
Im Fall der Quasi–Integrierbarkeit gilt:
Z
Z
g ◦ T dP =
Ω
M
g dPT , also EP (g ◦ T ) = EPT (g) .
Korollar 3.11 (Erwartungswerte sind durch die Verteilung der ZV bestimmt)
Seien X ∈ M(Ω, C) und g : R −→ R eine messbare (bezgl. B 1 und B 1 ) Funktion.
Dann gilt die Äquivalenz:
g ◦ X ist quasi-P-integrierbar ⇐⇒ g ist quasi-PX -integrierbar.
Im Fall der Quasi–Integrierbarkeit gilt:
EP (g ◦ X) = EPX (g) .
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13
Kapitel 3: Reelle Zufallsvariablen
27
Theorem 3.12 (P -Integrale / Erwartungswerte für Lebesgue-stetige W-Verteilung P )
Sei P eine W-Verteilung auf (Rk , B k ) , die eine Lebesgue-Dichte f besitzt. Wir betrachten den
W-Raum (Rk , Bk , P ) . Für jedes g ∈ M(Rk , Bk ) gilt die Äquivalenz:
g ∈ L1 (P ) ⇐⇒ g · f ist Lebesgue-integrierbar (über Rk ) .
Z
1
Im Fall g ∈ L (P ) gilt:
EP (g) =
g f dµ .
Rk
Wir schließen diesen Abschnitt mit Berechnungsformeln für Erwartungswerte (a) diskreter und
(b) Lebesgue-stetig verteilter reeller Zufallsvariablen. Wir formulieren die Formeln allgemeiner für
Transformationen der reellen Zufallsvariablen (wie in Korollar 3.11 oben).
Lemma 3.13 (Diskrete reelle ZV und Lebesgue-stetig verteilte reelle ZV)
Seien X ∈ M(Ω, C) und g : R −→ R eine messbare (bezgl. B 1 und B 1 ) Funktion.
(a) X sei diskret, d.h. es existiert eine abzählbare Teilmenge M ⊆ R mit X(ω) ∈ M ∀ ω ∈ Ω.
X
Dann gilt die Äquivalenz:
g ◦ X ∈ L1 (P) ⇐⇒
|g(x)| P(X = x) < ∞ .
Im Fall g ◦ X ∈ L1 (P) gilt:
E(g ◦ X) =
X
x∈M
g(x) P(X = x) .
x∈M
(b) X sei Lebesgue-stetig verteilt, d.h. die Verteilung von X besitzt eine Lebesgue-Dichte f .
Dann gilt die Äquivalenz:
g ◦ X ∈ L1 (P) ⇐⇒ g · f ist Lebesgue-integrierbar (über R) .
Z
1
Im Fall g ◦ X ∈ L (P) gilt:
E(g ◦ X) =
g(x) f (x) dx .
R
3.2
Varianz und Standardabweichung
Sei ein W-Raum (Ω, C, P) gegeben.
Definition 3.14 (Varianz und Standardabweichung einer P-integrierbaren ZV)
Wenn X ∈ L1 (P) , dann heißt
³£
¤2 ´
Var(X) := E X − E(X)
∈ [ 0 , ∞]
die Varianz der Zufallsvariablen X, und
√
(Konvention:
∞ := ∞) .
p
Var(X) heißt die Standardabweichung von X .
Unter dem zweiten Moment einer reellen Zufallsvariablen X versteht man E(X 2 ) .
Eine simple Beziehung zwischen dem zweiten Moment und der Varianz einer P-integrierbaren Zufallsvariablen X ist:
Lemma 3.15 (Varianz, Erwartungswert und zweites Moment)
Für X ∈ L1 (P) gilt:
Var(X) = E(X 2 ) −
¡
E(X)
¢2
.
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13
Kapitel 3: Reelle Zufallsvariablen
28
Eine reelle Zufallsvariable X auf Ω heißt quadrat-P-integrierbar, wenn E(X 2 ) < ∞ .
Lemma 3.16 (Der Raum der quadrat-P-integrierbaren Zufallsvariablen)
Bezeichne L2 (P) = L2 (Ω, C, P) die Menge aller quadrat-P-integrierbaren reellen Zufallsvariablen
auf Ω . Es gilt:
(i) Wenn X, Y ∈ L2 (P) und a, b ∈ R , dann aX + bY ∈ L2 (P) .
(ii) L2 (P) ⊆ L1 (P) .
(iii) Für eine reelle Zufallsvariable X auf Ω haben wir die Äquivalenz:
X ∈ L2 (P) ⇐⇒ X ∈ L1 (P) und Var(X) < ∞ .
¡
¢2
≤ E(X 2 ) E(Y 2 ) .
(iv) Wenn X.Y ∈ L2 (P) , dann X · Y ∈ L1 (P) und
E(X Y )
Für die in Kapitel 1 (Abschnitte 1.3 und 1.4) eingeführten Verteilungen sind die Erwartungswerte und
Varianzen in nachfolgender Tabelle angegeben.
PX
U(M ) , M = {x1 , . . . , xm } ⊆ R
E(X)
x=
1
m
m
P
i=1
Var(X)
1
m
xi
m
P
(xi − x)2
i=1
Bi(n, p)
np
Hyp(N, s, n)
ns
N
Poi(λ)
λ
λ
NegBi(r, p)
r
p
r(1−p)
p2
N(β, σ 2 )
β
σ2
1
2 (a
R( a , b )
1
12
+ b)
1
λ
Exp(λ)
Wei(c, λ)
np(1 − p)
¡
N −n
s
N −1 n N 1 −
1
λ
Γ
¡1
c
s
N
¢
(b − a)2
1
λ2
¢
+1
Ga(c, λ)
c
λ
LogN(β, σ 2 )
¢
¡
exp β + 12 σ 2
1
λ2
h ¡
¢ ³ ¡
¢´2 i
Γ 2c + 1 − Γ 1c + 1
c
λ2
´
¡
¢³
¡ ¢
exp 2β + σ 2 exp σ 2 − 1
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13
Kapitel 3: Reelle Zufallsvariablen
3.3
29
Kovarianz und Korrelation
Sei ein W-Raum (Ω, C, P) gegeben.
Definition 3.17 (Kovarianz zweier reeller Zufallsvariablen)
Seien X, Y ∈ L1 (P) , und es gelte X · Y ∈ L1 (P) . Dann heißt die reelle Zahl
³£
¤£
¤´
Cov(X, Y ) := E X − E(X) Y − E(Y )
die Kovarianz der beiden Zufallsvariablen X und Y .
Bemerkungen:
1. Wenn die beiden Zufallsvariablen identisch sind, X = Y und X ∈ L2 (P), dann:
Cov(X, X) = Var(X) .
2. Eine optisch andere Formel für die Kovarianz ist (analog zur Varianzformel von Lemma 3.15 ), für
X, Y ∈ L1 (P) mit X · Y ∈ L1 (P) :
Cov(X, Y ) = E(X Y ) − E(X) E(Y ) .
Lemma 3.18 (Varianz einer Linearkombination)
Wenn X, Y ∈ L2 (P) und a, b ∈ R, dann:
Var(aX + bY ) = Var(X) + Var(Y ) + 2 Cov(X, Y ) .
Allgemeiner: Wenn n ∈ N, n ≥ 2 , X1 , . . . , Xn ∈ L2 (P) und a1 , . . . , an ∈ R , dann:
n
n
³X
´
X
Var
ai Xi =
a2i Var(Xi ) + 2
i=1
i=1
X
ai aj Cov(Xi , Xj ) .
1≤i<j≤n
Lemma 3.19 (Kovarianz zweier Linearkombinationen)
Seien m, n ∈ N , X1 , . . . , Xm , Y1 , . . . , Yn ∈ L2 (P) und a1 , . . . , am , b1 , . . . , bn ∈ R . Dann:
Cov
m
³X
ai Xi ,
i=1
n
X
j=1
´
bj Yj
=
m X
n
X
ai bj Cov(Xi , Yj ) .
i=1 j=1
Definition 3.20 (Unkorreliertheit)
Seien X, Y ∈ L1 (P) , mit X · Y ∈ L1 (P) .
Die beiden Zufallsvariablen X und Y heißen unkorreliert, wenn Cov(X, Y ) = 0 , bzw. äquivalent
damit: E(X Y ) = E(X) E(Y ) .
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13
Kapitel 3: Reelle Zufallsvariablen
30
Theorem 3.21 (Stochastische Unabhängigkeit impliziert Unkorreliertheit)
(a) Seien X, Y ∈ L1 (P) , und X, Y seien stochastisch unabhängig. Dann:
X · Y ∈ L1 (P) und E(X Y ) = E(X) E(Y ) , d.h. X und Y sind unkorreliert.
(b) Allgemeiner: Seien X1 , . . . , Xn ∈ L1 (P) , und X1 , . . . , Xn seien stochastisch unabhängig. Dann:
n
n
n
³Y
´
Y
Y
¡ ¢
Xi ∈ L1 (P) und
E
Xi =
E Xi .
i=1
i=1
i=1
Definition 3.22 (Korrelationskoeffizient)
Seien X, Y ∈ L2 (P) mit Var(X) > 0 und Var(Y ) > 0 . Dann heißt
ρ(X, Y ) := p
Cov(X, Y )
p
Var(X) Var(Y )
∈ [ −1 , 1 ]
der Korrelationskoeffizient oder die Korrelation der Zufallsvariablen X und Y .
Interpretation:
Der Korrelationskoeffizient ρ = ρ(X, Y ) ist eine Maßzahl für die Stärke der linearen Abhängigkeit der beiden
Zufallsvariablen X und Y . Die extremen Fälle ρ = ±1 liegen genau dann vor, wenn Y = bX + c P-f.s. mit
gewissen reellen Konstanten b 6= 0 und c (im Fall b > 0 ist ρ = 1, im Fall b < 0 ist ρ = −1). Der Fall ρ = 0 ist
die Unkorreliertheit der beiden Zufallsvariablen.
3.4
Charakteristische Funktionen
Vorbemerkungen: Komplexe Zufallsvariable
Die Menge C der komplexen Zahlen,
C =
©
z = x + iy : x, y ∈ R
ª
,
ist zunächst – bis auf die Schreibweise – identisch mit der euklidischen Ebene R2 und ist daher
insbesondere mit der Borel’schen Sigma-Algebra B 2 versehen. Hinzu kommt natürlich die algebraische
Körperstruktur. Eine Funktion Z : Ω −→ C lässt sich durch zwei reelle Funktionen X, Y : Ω −→ R
beschreiben gemäß
Z(ω) = X(ω) + i Y (ω) ∀ ω ∈ Ω ,
kurz: Z = X + i Y .
Sei (Ω, C, P) ein W-Raum. Eine komplexe Zufallsvariable auf Ω ist eine messbare (bezgl. C und B2 )
Funktion Z : Ω −→ C , und das ist gleichbedeutend mit Z = X + iY und X, Y ∈ M(Ω, C). Die
komplexe Zufallsvariable Z = X + iY heißt P-integrierbar, wenn X und Y P-integrierbar sind, und
in diesem Fall heißt
Z
Z dP := E(Z) := E(X) + i E(Y ) ∈ C
Ω
das P-Integral bzw. der Erwartungswert von Z. Bezeichne L1 (P, C) die Menge aller P-integrierbaren
komplexen Zufallsvariablen auf Ω. Man sieht leicht:
¡ ¢
(i) Für eine kompleze Zufallsvariable Z auf Ω :
Z ∈ L1 (P, C) ⇐⇒ E |Z| < ∞ ;
¯
¯
¡ ¢
¡ ¢
(ii) für Z ∈ L1 (P, C) : ¯ E(Z) ¯ ≤ E |Z| , und E Z = E(Z) ;
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13
Kapitel 3: Reelle Zufallsvariablen
31
(iii) für Z1 , Z2 ∈ L1 (P, C) und a, b ∈ C :
aZ1 + bZ2 ∈ L1 (P, C) und
E(aZ1 + bZ2 ) = a E(Z1 ) + b E(Z2 ) .
Betrachten wir nun speziell den W-Raum (R, B1 , P ) für ein P ∈ W(R, B1 ) und für irgend ein gegebenes
t ∈ R die kompleze Zufallsvariable auf R,
R 3 x 7−→ eitx ∈ C ,
wobei bekanntlich
eia = cos(a) + i sin(a) ∀ a ∈ R .
¯ itx ¯
Wegen ¯ e ¯ = 1, ist diese Funktion nach Punkt (i) der Vorbemerkung P -integrierbar, und wir haben
daher
Z
eitx dP (x) ∈ C .
R
Lesen wir dieses Integral als Funktion der reellen Variablen t, so ist damit jedem P ∈ W(R, B1 ) eine
komplexwertige Funktion zugeordnet.
Definition 3.23 (Charakteristische Funktion)
Für jedes P ∈ W(R, B1 ) heißt die Funktion
Z
ϕP : R −→ C ,
ϕP (t) =
eitx dP (x) ∀ t ∈ R ,
R
die charakteristische Funktion (oder die Fourier-Transformierte) von P .
Wenn (Ω, C, P) ein W-Raum und X eine reelle Zufallsvariable auf Ω sind, dann heißt ϕX = ϕPX
die charakteristische Funktion der Zufallsvariablen X; mit der Transformationsformel (Theorem 3.10)
können wir auch schreiben:
³
´
ϕX (t) = E eitX
∀ t ∈ R.
Bemerkungen:
1. Für eine charakteristische Funktion ϕ = ϕP bzw. ϕ = ϕX sieht man leicht:
¯
¯
¯ ϕ(t) ¯ ≤ 1 ∀ t ∈ R , sowie ϕ(0) = 1 .
Desweiteren ist nicht sehr schwer zu zeigen: ϕ ist gleichmäßig stetig.
2. Aus Definition 3.23 sehen wir, wie sich die charakteristische Funktion bei einer linearen Transformation der Zufallsvariablen X zu bX + c (mit reellen Konstanten b und c) ändert:
ϕbX+c (t) = eict ϕX (bt) ∀ t ∈ R .
Beispiel: Normalverteilte reelle Zufallsvariable
Für X ∼ N(β, σ 2 ) erhalten wir mit Resultaten der Funktionentheorie (Kurvenintegrale holomorpher
Funktionen) :
¡
¢
ϕX (t) = exp iβt − 12 σ 2 t2
∀ t ∈ R.
Beispiel: Binomialverteilte Zufallsvariable
Sei X ∼ Bi(n, p) . Mit elementarer Berechnung erhält man:
ϕX (t)
=
=
n
X
j=0
n
X
eitj
j
¡n¢ ¡
j
j=0
¡n¢
pj (1 − p)n−j
p eit
¢j ¡
¡
¢n
1 − p)n−j = p eit + 1 − p
∀ t ∈ R.
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13
Kapitel 3: Reelle Zufallsvariablen
32
Theorem 3.24 (Eindeutigkeitssatz für charakteristische Funktionen)
Wenn P , Q ∈ W(R, B1 ) und ϕP = ϕQ , d.h. ϕP (t) = ϕQ (t) ∀ t ∈ R , dann: P = Q .
Bemerkung: Inversionsformel
Der Eindeutigkeitssatz lässt sich durch die Herleitung der Inversionsformel beweisen, die für sich
genommen interessant ist:
Für P ∈ W(R, B1 ) mit charakteristischer Funktion ϕP gilt:
¡
P (a , b )
¢
+
1
2
¡
P {a, b}
¢
1
= lim
T →∞ 2π
Z
T
−T
e−iat − e−ibt
ϕP (t) dt
it
für alle a, b ∈ R , a < b .
Theorem 3.25 ( Summe stochastisch unabhängiger reeller Zufallsvariablen)
Seien X1 , . . . , Xn stochastisch unabhängige reelle Zufallsvariablen auf Ω. Wir betrachten die Summenn
P
variable S =
Xi . Dann gilt:
i=1
ϕS (t) =
n
Y
ϕXi (t) ∀ t ∈ R .
i=1
Korollar 3.26 (Summe stochastisch unabhängiger normalverteilter ZV’en)
Seien X1 , . . . , Xn stochastisch unabhängige reelle Zufallsvariablen auf Ω mit Xi ∼ N(βi , σi2 ) ,
wobei βi ∈ R und σi ∈ ( 0 , ∞) , für alle i = 1, . . . , n . Dann:
n
X
i=1
³P
´
n
n
P
Xi ∼ N
βi ,
σi2 .
i=1
i=1
Herunterladen