Prof. Dr. Holger Dette Musterlösungen Wintersemester 2009/2010

Werbung
Prof. Dr. Holger Dette
Dr. Melanie Birke
Musterlösungen
Wahrscheinlichkeitstheorie I
Wintersemester 2009/2010
Blatt 8
Aufgabe 1:
(4 Punkte)
1. Es sei ϕ die charakteristische Funktion einer reellen Zufallsvariablen X. Man zeige, dass für alle
a ∈ IR gilt
Z n
1
exp(−iat)ϕ(t)dt.
P(X = a) = lim
n→∞ 2n −n
2. Man zeige: Die Zufallsvariablen X und Y sind genau dann unabhängig, wenn für die charakteristischen Funktionen gilt ϕ(X,Y ) (s, t) = ϕX (s)ϕY (t) für alle s, t ∈ IR.
3. Es sei ϕ die charakteristische Funktion einer absolut stetigen d-dimensionalen Zufallsvariablen X.
Zeige, dass ϕ nichtnegativ definit ist, d.h., dass gilt
n
X
λk λ̄j ϕ(tk − tj ) ≥ 0 für alle m ∈ IN, λ1 , . . . , λm ∈ C,
I t1 , . . . , tm ∈ IRd .
k,j=1
Lösung: 1. Es ist
Z n
1
exp(−iat)ϕX (t)dt
2n −n
1
2n
=
Z
n
Z
exp(itx)PX (dx)dt =
exp(−iat)
−n
IR
1
2n
Z
n
Z
−n
exp(it(x − a)) PX (dx)dt
{z
}
|
IR
|...|≤1
Fubini
=
Z
IR
1
2n
Z
n
exp(it(x − a))dtPX (dx) =
−n
Z
IR
n 1 −i
exp(it(x − a))
PX (dx)
2n x − a
−n
Z
=
=
=
i
(exp(in(xa)) − exp(−in(x − a))) PX (dx)PX (dx)
−
2n(x
− a)
IR
Z
sin(n(x − a)) X
P (dx)
n(x − a)
IR
Z
Z
sin(n(x − a)) X
sin(n(x − a)) X
P (dx) +
P (dx).
n(x
−
a)
n(x − a)
IR\{a}
{a}
|
{z
}
PX ({a}) da sinx x =1 für x=0
Es folgt mit majorisierter Konvergenz ( sin(n(x−a))
≤
n(x−a)
1
n→∞ 2n
Z
1
x−a )
n
lim
Z
exp(−iat)ϕX (t)dt =
P(X = a) + lim
n→∞
−n
IR\{a}
Z
=
P(X = a) +
lim
IR\{a} n→∞
|
sin(n(x − a)) X
P (dx)
n(x − a)
sin(n(x − a)) X
P (dx) = P(X = a).
n(x − a)
{z
}
=0
2. Es seien X, Y unabhänigig. Dann folgt
Z
Z Z
Fubini
ϕ(X,Y ) (s, t) =
exp(i(sx + ty))P( X, Y )(d(x, y)) =
exp(isx) exp(ity)PX (dx)PY (dy)
Z
Z
X
Y
=
exp(isx)P (dx)
exp(ity)P (dy) = ϕX (s)ϕY (t).
Nun sei ϕ(X,Y ) (s, t) = ϕX (s)ϕY (t). Dann wenden wir Satz 7.10 an. Dafür sei X = (X1 , . . . , Xd1 ), Y =
×d
1
×d
2
(Y1 , . . . , Yd2 ), d1 + d2 = d, B1 =
j=1 [aj , bj ], B2 =
j=1 [ej , fj ], B = B1 × B2 . (Die Borel σ-Algebren
B d1 , B d2 und B d werden von den Mengen B1 , B2 bzw. B erzeugt.) Dann gilt
P(X,Y ) (B) = P((X, Y ) ∈ B)
Z
d1
d2
Y
1
exp(−isk ak ) − exp(isk bk ) Y
exp(−itk ek ) − exp(itk fk )
ϕ
(s,
t)
d(s, t)
(X,Y )
T →∞ (2π)d
isk
itk
[−T,T ]d
k=1
k=1
"
Z
d1
Y
exp(−isk ak ) − exp(isk bk )
1
ϕ
(s)
ds
lim
X
d
1
T →∞
(2π)
isk
[−T,T ]d1
k=1
#
Z
d2
Y
1
exp(−itk ek ) − exp(itk fk )
×
ϕY (t)
dt
(2π)d2
itk
[−T,T ]d2
k=1
"
#
Z
d1
Y
exp(−isk ak ) − exp(isk bk )
1
ϕX (s)
lim
ds
T →∞ (2π)d1
isk
[−T,T ]d1
k=1
"
#
Z
d2
Y
1
exp(−itk ek ) − exp(itk fk )
7.10
× lim
ϕY (t)
dt = P(B1 )P(B2 ).
T →∞ (2π)d2
d
it
k
[−T,T ] 2
7.10
=
lim
Fubini
=
=
k=1
Wegen der Unabhängigkeit auf dem durchschnittsstabilen Erzeuger folgt die Unabhängigkeit von X und
Y.
3. Es ist
Z
n
n
X
X
λk λ̄j ϕ(tk − tj ) =
λk λ̄j exp(i(tk − tj )T x)f (x)dx
k,j=1
=
k,j=1
Z X
n
λi λ̄j exp(itTk x) exp(−tTj x)f (x)dx
k,j=1
Z
=

n
X


¯ T x) f (x)dx ≥ 0
(λi exp(itTk x))λj exp(t
j
k,j=1
|
{z
P
2
T
=| n
k (λi exp(itk x))| ≥0
}
Aufgabe 2:
(4 Punkte)
X
Eine Zufallsvariable besitzt eine Gitterverteilung falls für Konstanten a, b > 0 P ({a + nb|n ∈ ZZ}) = 1
gilt. Es sei ϕX die charakteristische Funktion von X. Man zeige
(a) Besitzt X eine Gitterverteilung, so existiert ein t 6= 0 mit |ϕX (t)| = 1.
(b) Existiert ein t 6= 0 mit |ϕX (t)| = 1, so besitzt X eine Gitterverteilung.
(c) Existieren s, t ∈ IR \ {0} mit s/t ∈
/ Q,
I so gilt P(X = c) = 1 für eine Konstante c.
Lösung: (a) Besitzt X eine Gitterverteilung, so gilt
ϕX (t) =
∞
X
exp(it(a + bn))PX ({a + nb}) = exp(ita)
n=−∞
für t =
2π
b
∞
X
exp(itnb)PX ({a + nb})
n=−∞
gilt nun
∞
X
|ϕX (t)| = n=−∞
exp(itnb)
| {z }
PX ({a + nb}) = 1.
=exp(i(2πn))=1
(b) Ist |ϕX (t)| = 1 für ein t 6= 0, so gilt für dieses t ϕX (t) = exp(ita) für ein a ∈ IR. Wir erhalten
Z
Z
X
0 = exp(ita) − ϕX (t) = (exp(ita) − exp(itx))P (dx) = exp(ita) (1 − exp(it(x − a)))PX (dx).
| {z }
>0
Es muss also gelten PX ({x ∈ IR|1 − exp(it(x − a)) = 0}) = 1 und es ist exp(it(x − a)) = 1 für x = a + 2π
t n,
n ∈ ZZ. Also handelt es sich hier um eine Gitterverteilung.
(c) Wenn |ϕX (s)| = 1 und |ϕX (t)| = 1, dann liegt mit (b) eine Gitterverteilung in den Punkten a + 2π
s n
X
2π
2π
und b + t m, n, m ∈ ZZ vor. Wegen P ({a + s n|n ∈ IN }) = 1 muss nun gelten, dass ein Punkt
2π
2π
Z und
b + 2π
t m auch in der Menge {a + s n|n ∈ IN } liegt. Insbesodere also b = a + s n0 für ein n0 ∈ Z
2π
2π
2π
2π
b + 2π
m
=
a
+
n
für
ein
n
∈
Z
Z.
Daraus
folgt
a
+
n
+
m
=
a
+
n,
was
äquivalent
ist zu
t
s
s 0
t
s
n−n0
s
=
∈
Q.
I
Das
ist
aber
ein
Widerspruch.
Also
gilt
mit
c
=
a
=
b
P(X
=
c)
=
1.
t
m
Aufgabe 3:
(4 Punkte)
Es sei (Xn )n∈IN eine Folge reeller Zufallsvariablen und X eine reelle Zufallsvariable. Man zeige:
(a) Konvergiert Xn fast sicher gegen X, so konvergiert Xn in Wahrscheinlichkeit gegen X
(b) Konvergiert Xn in Wahrscheinlichkeit gegen X und gilt
∞
X
P(|Xn − X| > ε) < ∞,
n=1
so konvergiert Xn fast sicher gegen X.
(c) Es seien X1 , X2 , . . . paarweise unkorrelierte und identisch verteilte Zufallsvariablen mit endlicher
Varianz. Man zeige
n2
1 X
Xi → E[X1 ] fast sicher.
n2 j=1
Lösung: (a) Mit 8.2,3. gilt für alle ε > 0, dass
0
=
lim P(sup |Xk − X| > ε) ≥ lim P(|Xn − X| > ε) ≥ 0,
n→∞
k≥n
n→∞
also die Konvergenz in Wahrscheinlichkeit von Xn gegen X.
(b) Wir definieren {|Xn − X| > Sε} =: An . Dann folgt mit dem Lemma von Borel-Cantelli, dass 0 =
∞
P(lim supn→∞ An ) = limn→∞ P ( k=n An ) = limn→∞ P(supk≥n |Xk − X| > ε). Mit 8.2,3. folgt nun die
fast sichere Konvergenz.
h P 2
i
n
(c) Es ist E n12 i=1 Xi = E[X1 ] und daher mit der Unkorreliertheit


n2
∞
n2
∞
Tschebyschev 1 X
1 X
1 X
V(X1 ) X 1


P 2
Xi − E[X1 ] > ε
≤
V(Xj ) =
< ∞.
ε2 n=1 n4 j=1
ε2 n=1 n2
n i=1
n=1
∞
X
Mit Teil (b) folgt die Behauptung.
Aufgabe 4:
(4 Punkte)
Es seien Xn und Yn Folgen von d-dimensionalen Zufallsvariablen, die stochastisch gegen X bzw. Y
konvergieren. Man zeige:
(a) Für jede stetige Funktion h : IRd → IRk konvergiert h(Xn ) gegen h(X).
(b) Für jede konvergente Folge (an )n∈IN von d-dimensionalen Vektoren mit Grenzwert a konvergiert
aTn Xn gegen aT X.
(c) Es konvergiert Xn + Yn stochastisch gegen X + Y und XnT Yn stochastisch gegen X T Y .
Lösung: (a) Wir verwenden das Teilfolgenkriterium 8.5. Da Xn stochastisch gegen X konvergiert, existiert für alle Teilfolgen (Xnk )k∈IN eine Teilfolge (Xnkl )l∈IN , so dass Xnkl fast sicher gegen X konvergiert.
Das ist mit 8.2,3. äquivalent dazu dass für L = {ω ∈ Ω| liml→∞ Xnkl (ω) = X(ω)} gilt P(L) = 1. Weiter
definieren wir M = {ω ∈ Ω| liml→∞ h(Xnkl (ω)) = h(X(ω))}. Mit der Stetigkeit von h folgt L ⊂ M und
daher 1 = P(L) ≤ P(M ) ≤ 1. Also konvergiert h(Xnkl ) fast sicher gegen h(X). Wir haben gezeigt, dass
für alle Teilfolgen h(Xnk ) eine Teilfolge h(Xnkl ) existiert, die fast sicher konvergiert. Mit 8.5 erhalten wir
die stochastische Konvergenz von h(Xn ) gegen h(X).
(b) Wir verwenden wieder das Teilfolgenkriterium und definieren L wie in (a) und
M = {ω ∈ Ω| lim aTnk Xnkl (ω) = aT X(ω)}.
l→∞
l
Ist ω ∈ L, so gilt liml→∞ aTnk Xnkl (ω) = liml→∞ aTnk liml→∞ Xnkl (ω) = aT X. Also gilt L ⊂ M und mit
l
l
der gleichen Argumentation wie in (a) folgt jetzt die Behauptung.
(c) Auch diese Behauptungen kann man mit dem Teilfolgenkriterium zeigen. Dazu definiere hier
L1
= {ω ∈ Ω| lim Xnkl (ω) = X(ω)}
L2
= {ω ∈ Ω| lim Ynkl (ω) = Y (ω)}
M+
M·
l→∞
l→∞
= {ω ∈ Ω| lim (Xnkl (ω) + Ynkl (ω)) = X(ω) + Y (ω)}
l→∞
= {ω ∈ Ω| lim (XnTk (ω)Ynkl (ω)) = X T (ω)Y (ω)}.
l→∞
l
Es ist nach 8.5 P(L1 ) = P(L2 ) = 1 und man zeigt leicht, dass auch gilt 1 ≥ P(L1 ∩ L2 ) = 1 − P(Lc1 ∪ Lc2 ) ≥
1 − P(Lc1 ) − P(Lc2 ) = 1. Für ω ∈ L1 ∩ L2 gilt aber
lim (Xnkl (ω) + Ynkl (ω))
l→∞
lim (XnTk (ω)Ynkl (ω))
l→∞
l
= X(ω) + Y (ω)
= X T (ω)Y (ω),
also L1 ∩ L2 ⊂ M+ und L1 ∩ L2 ⊂ M· . Es folgt abermals P(M+ ) = 1 und P(M· ) = 1, also mit 8.5 die
Behauptung.
Herunterladen