1. ¨Ubungsblatt - Math.Uni

Werbung
Markus Reiß
Vorlesung
Wahrscheinlichkeitstheorie
Wintersemester 2005/06
1. Übungsblatt
1. Zeige, dass folgende Mengensysteme M ebenfalls die Borel-σ-Algebra BRn des
Rn erzeugen:
(a) M := {A ⊆ Rn | A abgeschlossen}
(b) M := {K ⊆ Rn | K kompakt}
Q
(c) M := { nk=1 [ai , bi ] | ai , bi ∈ R}
Q
(d) M := { nk=1 [ai , bi ] | ai , bi ∈ Q}
2. Beweise folgenden Satz:
Eine Funktion f = (f1 , . . . , fn ) : F → Rn ist genau dann (F, BRn )-messbar,
wenn alle Koordinatenfunktionen fi , 1 6 i 6 n, (F, BR )-messbar sind.
Hinweis: Benutze für eine Richtung den Erzeuger aus 1(c).
3. Algebren und Prämaße:
(a) Bestimme die kleinste Algebra A über R, die folgendes Mengensystem
umfasst:
I := {(a, b] | a, b ∈ R ∪{−∞}}.
Bemerkung: I besitzt die Struktur eines sogenannten Halbrings.
(b) Konstruiere ein Prämaß µ auf A, so dass µ((a, b]) = b − a für a < b gilt.
Ist µ eindeutig bestimmt?
4. Es seien (Xn )n>1 unabhängige {0, 1}-wertige Zufallsvariablen auf einem Wahrscheinlichkeitsraum (Ω, F, P) mit P(X = 0) = P(X = 1) = 1/2. Setze
Y :=
∞
X
Xk 2−k .
k=1
(a) Begründe, weshalb Y eine Zufallsvariable ist.
(b) Bestimme P(Y 6 m2−n ) für beliebige n ∈ N und m = 0, 1, . . . , 2n .
(c) Schließe, dass die Verteilungsfunktion von Y mit der Verteilungsfunktion
der gleichmäßigen Verteilung auf [0, 1] übereinstimmt (d.h. Y ist U [0, 1]verteilt).
Abgabe in der Vorlesung am Donnerstag, dem 27.10.05.
Markus Reiß
Vorlesung
Wahrscheinlichkeitstheorie
Wintersemester 2005/06
2. Übungsblatt
1. Es sei F eine σ-Algebra über X. Jede σ-additive Funktion µ : F → R heißt
endliches signiertes Maß. Zeige:
(a) Für jedes endliche signierte Maß µ gilt kµkT V := supA∈F |µ(A)| < ∞.
(b) Die endlichen signierten Maße bilden einen Vektorraum M und die Wahrscheinlichkeitsmaße eine konvexe Teilmenge von M . k•kT V ist eine Norm
(Total-Variationsnorm) auf diesem Raum.
(c) Sind P und Q Wahrscheinlichkeitsmaße auf (R, BR ) mit Dichten f bzw.
g, so gilt mit B = {x : f (x) > g(x)}
Z
1 ∞
kP − QkT V = P(B) − Q(B) = Q(B C ) − P(B C ) =
|f (x) − g(x)| dx.
2 −∞
2. Der Messraum (Ω, F) eines zweifachen Münzwurfs sei durch Ω = {0, 1}2 , F =
P(Ω) modelliert. M bestehe aus allen Ereignissen, die von höchstens einem
der Münzwürfe abhängen:
M = ∅, {(0, 0), (0, 1)}, {(1, 0), (1, 1)}, {(0, 0), (1, 0)}, {(0, 1), (1, 1)}, Ω .
(a) Zeige, dass M die σ-Algebra F erzeugt, jedoch nicht ∩-stabil ist.
(b) Finde zwei Wahrscheinlichkeitsmaße, die auf M übereinstimmen, jedoch
nicht auf F.
Tipp: Betrachte unabhängige bzw. identische Münzwürfe.
3. Es sei P ein Wahrscheinlichkeitsmaß auf (R2 , BR2 ). Zeige folgende Eigenschaften der zugehörigen Verteilungsfunktion F (x, y) := P((−∞, x] × (−∞, y]):
(a) Durch die Angabe von F ist P eindeutig bestimmt.
(b) Es gilt für alle a1 6 b1 , a2 6 b2 (Skizze!)
F (b1 , b2 ) − F (a1 , b2 ) − F (b1 , a2 ) + F (a1 , a2 ) = P (a1 , b1 ] × (a2 , b2 ] > 0.
(k)
(c) Für x(k) ∈ R2 mit xi
↓ xi , i = 1, 2, für k → ∞ folgt F (x(k) ) ↓ F (x).
(d) limk→∞ F (k, k) = 1, limk→−∞ F (k, k) = 0.
Bemerkung: Wie im eindimensionalen Fall kann man umgekehrt zeigen, dass
jede Funktion F mit den Eigenschaften (b)-(d) ein zugehöriges Wahrscheinlichkeitsmaß P auf BR2 generiert.
4. Aus der Vorlesung ist bekannt, dass auf der Menge Ω = {0, 1}N der 0-1-Folgen
das System der Zylindermengen A = {Tn × {0, 1}N | n > 1, Tn ⊆ {0, 1}n } eine
Algebra bildet. Zu gegebenem p ∈ [0, 1] setze für jedes Tn ⊆ {0, 1}n
X
p i ai (1 − p)n− i ai .
µ(Tn × {0, 1}N ) :=
P
P
(a1 ,...,an )∈Tn
(a) Zeige, dass µ : A → [0, 1] additiv ist, d.h. µ(A ∪ B) = µ(A) + µ(B) für
A ∩ B = ∅ gilt.
(b) Weise nach, dass µ sogar σ-additiv ist, und schließe, dass sich µ eindeutig
zu einem Wahrscheinlichkeitsmaß P auf (Ω, σ(A)) fortsetzen lässt.
(c) Zeige: die Projektionen Xn : Ω → R mit Xn (ω) = ωn sind unabhängige
Zufallsvariablen mit P(Xn = 1) = p, P(Xn = 0) = 1 − p.
Abgabe in der Vorlesung am Donnerstag, dem 3.11.05.
Markus Reiß
Vorlesung
Wahrscheinlichkeitstheorie
Wintersemester 2005/06
3. Übungsblatt
1. Es sei F : R → [0, 1] gegeben durch
F (x) =
∞
X
2−n 1[1/n,∞) (x).
n=1
Zeige, dass es sich um die Verteilungsfunktion eines Wahrscheinlichkeitsmaßes
P auf BR handelt, und berechne folgende Wahrscheinlichkeiten
P([1, ∞)), P([1/10, ∞), P({0}), P((−5, 1/2)), P(Q).
2. Zufallsvariablen X1 , . . . , Xn auf
Qn (Ω, F, P) heißen bekanntlich unabhängig, falls
P(X1 ∈ A1 , . . . , Xn ∈ An ) = i=1 P(Xi ∈ Ai ) für alle Ai ∈ BR gilt. Zeige:
(a) X
Q1n, . . . , Xn sind bereits unabhängig, falls P(X1 6 x1 , . . . , Xn 6 xn ) =
i=1 P(Xi 6 xi ) für alle xi ∈ R gilt.
Tipp: Betrachte P(X1 ,...,Xn ) und einen ∩-stabilen Erzeuger von BRn .
(b) Besitzen X und Y Dichten f X bzw. f Y und sind X und Y unabhängig,
so hat (X, Y ) eine Dichte f (X,Y ) , die durch f (X,Y ) (x, y) = f X (x)f Y (y)
gegeben ist.
(c) Gilt allgemein, dass (X, Y ) eine zweidimensionale Dichte besitzt, sofern
X und Y jeweils eine eindimensionale Dichte besitzen?
R
3. Zeige, dass die Definition des Integrals f dµ für Treppenfunktionen f ∈ T +
unabhängig von der Zerlegung ist, also aus
m
X
k=1
bk 1Bk (x) =
n
X
c` 1C` (x) ∀ x ∈ X
`=1
Pm
Pn
b
µ(B
)
=
k
k
k=1
`=1 c` µ(C` ) folgt. Was kann man auf Grund der Eigenschaft
R
f dµ = 0 über die Menge {f > 0} aussagen?
4. Für M ⊆ N setze µ(M ) := |M | (Kardinalität von M ). Beweise:
(a) µ ist ein σ-endliches Maß auf (N, P(N)) (Zählmaß ).
(b) Jede Funktion a : N → [0, ∞) ist messbar, und es gilt
Z
X
a dµ =
a(n).
n∈N
Abgabe in der Vorlesung am Donnerstag, dem 10.11.05.
Markus Reiß
Vorlesung
Wahrscheinlichkeitstheorie
Wintersemester 2005/06
4. Übungsblatt
1. Beweise: Ist f : [a, b] → R eine Borel-messbare und Riemann-integrierbare
Funktion, so ist f Lebesgue-integrierbar, und Riemann- und Lebesgue-Integral
stimmen überein. Beweisschritte:
(a) Für jede Zerlegung a = x0 < x1 < · · · < xn = b lassen
R sich OberU
O
und
R Untersummen schreiben als Lebesgue-Integrale Sn = On dλ, Sn =
Un dλ mit
On =
n X
i=1
sup
x∈[xi−1 ,xi ]
f (x) 1[xi−1 ,xi ] ,
Un =
n X
i=1
inf
x∈[xi−1 ,xi ]
f (x) 1[xi−1 ,xi ] .
(n)
(b) Für jede Folge von feiner werdenden Zerlegungen (xi )06i6n gilt (On −
Un ) ↓ g mit einer Funktion g ∈ M+ .
(c) Mit dem Lemma von Fatou folgt
Z
0 6 g dλ 6 lim (SnO − SnU ) = 0,
n→∞
so dass g = 0 λ-fast überall und Un ↑ f λ-fast überall gilt.
(d) Unter Benutzung einer unteren
Schranke für (Un )n>1 folgt mittels monoR
toner Konvergenz SnU ↑ f dλ und damit die Behauptung.
2. REs seien (Ω, F, µ) ein beliebiger Maßraum, f : R Ω → [0, ∞] messbar mit
f dµ = 1 (f ist Dichtefunktion) sowie P(A) := A f dµ das erzeugte Wahrscheinlichkeitsmaß auf F. Beweise, dass für alle X ∈ L1 (Ω, F, P) gilt
Z
Z
Z
E[X] := X d P = Xf dµ := X(ω)f (ω) µ(dω).
Tipp: Betrachte zunächst X ∈ T + und X ∈ M+ .
3. Gilt E[|X|p ] < ∞ für eine Zufallsvariable X, so schreibt man X ∈ Lp , p > 0,
und setzt kXkLp = E[|X|p ]1/p . Beweise, dass für Zufallsvariablen Xn aus kXn −
XkLp → 0 folgt Xn → X in Wahrscheinlichkeit (Tipp: Markov-Ungleichung),
aber im Allgemeinen nicht die Umkehrung.
Bemerkung: Es gilt Lp ⊆ Lq für p > q, und für p > 1 ist k•kLp eine Seminorm
auf dem Vektorraum Lp .
4. Es sei (Xn )n>1 eine Folge nicht-negativer Zufallsvariablen. Beweise:
E
∞
hX
n=1
∞
i X
Xn =
E[Xn ].
n=1
Zeige anhand eines Gegenbeispiels, dass im Falle allgemeiner Zufallsvariablen
diese Identität nicht erfüllt sein muss.
Abgabe in der Vorlesung am Donnerstag, dem 17.11.05.
Markus Reiß
Vorlesung
Wahrscheinlichkeitstheorie
Wintersemester 2005/06
5. Übungsblatt
1. Beweise folgendes Lemma von Scheffé:
Es seien (X, F, µ) ein beliebiger Massraum sowie f und fn , n > 1, Wahrscheinlichkeitsdichten auf X bezüglich µ. Dann folgt aus limn→∞ fn (x) = f (x) für
alle x ∈ X die Konvergenz limn→∞ kfn − f kL1 = 0.
Schließe, dass für σn → σ > 0 und µn → µ ∈ R die Normalverteilungen
N (µn , σn2 ) in Totalvariationsnorm (vgl. Übung 2.1) gegen N (µ, σ 2 ) konvergieren.
R
R
Hinweis: Benutze (fn − f )− 6 f , dominierte Konvergenz und fn dµ = f dµ.
2. Es seien X eine Menge, (Si , Si ) Messräume und gi : X → Si beliebige Funktionen für i ∈ I. Dann wird mit σ(gi , i ∈ I) die kleinste σ-Algebra über X
bezeichnet, bezüglich der alle Funktion gi messbar sind. Zeige:
(a) σ(gi , i ∈ I) ist wohldefiniert.
(b) Im Fall I = {1, . . . , n} und (Si , Si ) = (R, BR ) gilt unter Verwendung von
g = (g1 , . . . , gn ) : X → Rn
σ(g1 , . . . , gn ) = {g −1 (B) | B ∈ BRn }.
(c) Es bezeichne G die Menge aller Borel-messbaren Funktionen g : R → R
mit g(−x) = g(x) für alle x ∈ R. Dann erzeugt G die σ-Algebra der
symmetrischen Borelmengen auf R:
σ(g ∈ G) = {B ∈ BR | {−x | x ∈ B} = B}.
3. Auf den Messräumen (Xi , Fi ) sei jeweils Ei ein Erzeuger von Fi , i ∈ I. Weise
nach, dass dann
n
o
[
Y
πi−1 (Ei ) = Ei ×
Xj i ∈ I, Ei ∈ Ei
i∈I
ein Erzeuger der Produkt-σ-Algebra
BRn = BRm+n ?
j6=i
N
i∈I
Fi ist. Wieso impliziert dies BRm ⊗
4. Es seien X und U unabhängige Zufallsvariablen und U möge gleichmäßig auf
[0, 2π] verteilt sein. Zeige mit
PNHilfe des Satzes von Fubini, dass E[sin(X +U )] =
0 gilt. Berechne ebenso E[ k=1 Xk ] für eine N-wertige Zufallsvariable N , die
unabhängig von (Xk )k>1 ist, wobei E[N ] = µN < ∞ und E[Xk ] = µX ∈ R für
alle k gelten möge.
Abgabe in der Vorlesung am Donnerstag, dem 24.11.05.
Markus Reiß
Vorlesung
Wahrscheinlichkeitstheorie
Wintersemester 2005/06
6. Übungsblatt
1. Ein Affe, der rein zufällig auf einer Computertastatur tippt, wird irgendwann
”
einmal auch Goethes Faust schreiben“. Formalisiere diese Weisheit und gib eine
exakte mathematische Begründung mittels des Lemmas von Borell-Cantelli
dafür, dass er dies mit Wahrscheinlichkeit Eins sogar unendlich oft tun wird
(so er unendlich lange lebt).
2. Beweise oder widerlege für Ereignisse (An ) die Relationen lim inf n An ⊆
lim supn An , (lim supn An )C = lim inf n (AC
n ), P(lim supn An ) > lim supn P(An ).
3. Durch P
(Sn )n>1 sei eine zufällige Irrfahrt auf Z gegeben, d.h. S0 := 0,
n
Sn :=
k=1 Xk mit unabhängigen {−1, +1}-wertigen Zufallsvariablen (Xk )
mit P(Xk = +1) = p ∈ [0, 1]. Beweise mit Begründung für jeden einzelnen
Schritt:
(a) Für p 6= 1/2 folgt unter Verwendung der Stirling-Formel
(siehe z.B. BauP
P(S
=
0) < ∞ sowie
er) und des Lemmas von Borel-Cantelli
2n
n>1
P(lim supn→∞ {Sn = 0}) = 0.
(b) Nun sei p = 1/2. Setzt man Ac := {lim inf n n−1/2 Sn < −c}, Bc :=
{lim supn n−1/2 Sn > c} für c > 0, so ergibt sich mittels zentralem Grenzwertsatz und der Formel lim supn P(Yn > α) 6 P(lim supn Yn > α)
P(Ac ) = P(Bc ) > lim sup P n−1/2 Sn > c > 0.
n→∞
Weil Ac und Bc terminale Ereignisse bezüglich (Xn ) sind, folgt
Sn
Sn
P lim inf √ = −∞, lim sup √ = ∞ = lim P(Ac ∩ Bc ) = 1,
n→∞
c→∞
n
n
n→∞
also insbesondere P(lim supn→∞ {Sn = 0}) = 1.
Beachte: lim supn→∞ {Sn = 0} ist i.A. kein terminales Ereignis bezüglich (Xn ).
4. Es sei (Ω, P(Ω), P) ein diskreter Wahrscheinlichkeitsraum. Weise nach, dass
für Zufallsvariablen auf diesem Raum P-fast sichere und P-stochastische Konvergenz übereinstimmen.
Abgabe in der Vorlesung am Donnerstag, dem 1.12.05.
Markus Reiß
Vorlesung
Wahrscheinlichkeitstheorie
Wintersemester 2005/06
7. Übungsblatt
P
1. Betrachte Tn = nk=1 ηk k1 , wobei (ηk )k>1 eine Folge unabhängiger Zufallsvariablen mit P(ηk = +1) = P(ηk = −1) = 21 ist.
(a) Zeige, dass (Tn )n>1 eine Cauchyfolge in L2 ist.
(b) Schliesse, dass Tn P-stochastisch gegen eine Zufallsvariable T∞ in L2 konvergiert.
(c) Bestimme Erwartungswert und Varianz von T∞ .
2. Folgere aus dem in der Vorlesung bewiesenen Satz der dominierten Konvergenz
folgende Verallgemeinerungen:
(a) Konvergieren Zufallsvariablen (Xn )n>1 P-fast sicher gegen eine Zufallsvariable X und gilt P(|Xn | 6 Y ) = 1 für ein Y ∈ L1 , so folgt
limn→∞ E[|Xn − X|] = 0.
(b) Konvergieren Zufallsvariablen (Xn )n>1 P-stochastisch gegen eine Zufallsvariable X und gilt P(|Xn | 6 Y ) = 1 für ein Y ∈ L1 , so folgt ebenfalls
limn→∞ E[|Xn − X|] = 0.
Tipp: Benutze für (b) das Teilteilfolgenkriterium.
3. Untersuche, ob für n → ∞ die Wahrscheinlichkeitsmaße Pn mit folgenden
Lebesguedichten fn auf R in Totalvariation, schwach oder in keinem der beiden
Sinne konvergieren, und bestimme gegebenenfalls den Grenzwert:
fn (x) = ne−nx 1[0,∞) (x),
fn (x) =
n+1 1/n
1[0,1] (x),
n x
fn (x) = n1 1[0,n] (x).
4. Es seien a ∈ R, (Xn )n>1 und X Zufallsvariablen auf einem Wahrscheinlichd
P
keitsraum sowie P(X = a) = 1. Beweise: Xn −
→ X ⇐⇒ Xn −
→ X.
Abgabe in der Vorlesung am Donnerstag, dem 8.12.05.
Markus Reiß
Vorlesung
Wahrscheinlichkeitstheorie
Wintersemester 2005/06
8. Übungsblatt
d
→ X sowie
1. Es seien Xn , n > 1, und X reellwertige Zufallsvariablen mit Xn −
mit stetigen, streng monoton wachsenden Verteilungsfunktionen Fn bzw. F .
Zeige:
(a) Für die Umkehrfunktionen gilt limn→∞ Fn−1 (u) = F −1 (u) für alle u ∈
(0, 1).
(b) Ist U eine gleichmäßig auf (0, 1) verteilte Zufallsvariable, so sind Xn
und Fn−1 (U ) sowie X und F −1 (U ) jeweils identisch verteilt, und es gilt
Fn−1 (U ) → F −1 (U ) P-fast sicher.
d
Bemerkung: Dies ist ein Spezialfall der Skorokhod-Darstellung: Gilt Xn −
→X
für Zufallsvariablen mit Werten in einem separablen metrischen Raum, so kann
man einen Wahrscheinlichkeitsraum (Ω0 , F 0 , P0 ) und Zufallsvariablen Yn , Y auf
d
d
P0 -f.s.
diesem Raum so konstruieren, dass Yn = Xn , Y = X und Yn −−−→ Y gilt.
2. Es sei (Xn )n>1 eine Folge unabhängiger identisch verteilter Zufallsvariablen in
L4 . Zeige:
P
(a) X̄n := n1 ni=1 Xi ist eine konsistente Schätzung für µ := E[Xn ].
1 Pn
2
2
(b) Sn2 := n−1
i=1 (Xi − X̄n ) ist eine konsistente Schätzung für σ :=
Var(Xn ).
√
(c) Schließe mit dem zentralen Grenzwertsatz, dass n(X¯n − µ)/Sn in Verteilung gegen die Standardnormalverteilung konvergiert.
(d) Das Konfidenzintervall In = [X̄n − n−1/2 Sn zα , X̄n + n−1/2 Sn zα ] für µ mit
1−Φ(zα ) = α (Verteilungsfunktion Φ von N (0, 1)) hat das asymptotische
Niveau 1 − 2α:
lim P(µ ∈ In ) = 1 − 2α.
n→∞
(e) freiwillig: Führe jeweils 1000 Simulationen für N (0, 1)- und Exp(1)verteilte Zufallsvariablen Xi , 1 6 i 6 n, durch, um P(µ ∈ In ) in (d)
mit α = 0, 025 für n = 10, 20, 50, 100 approximativ zu bestimmen.
3. Beweise mittels Markov-Ungleichung: Ist (Xi )i∈I eine Familie reellwertiger Zufallsvariablen, so impliziert supi E[|Xi |p ] < ∞ für ein p > 0, dass die Verteilungen (PXi )i∈I straff sind. [kurz: Lp -Beschränktheit ⇒ Straffheit]
4. Eine Folge (Xn )n>1 von Zufallsvariablen, deren Verteilungen straff sind, heißt
beschränkt in Wahrscheinlichkeit, in Zeichen: Xn = OP (1). Man schreibt Xn =
oP (1), falls Xn = Rn Yn gilt mit Zufallsvariablen Yn = OP (1) und Rn → 0 Pstochastisch. Weise folgende Regeln nach:
P
→0
(a) Xn = oP (1) ⇐⇒ Xn −
(b) oP (1) + oP (1) = oP (1)
(c) oP (1) + OP (1) = OP (1)
(d) oP (1)OP (1) = oP (1)
Die Regeln sind symbolisch zu verstehen, unter Verwendung von (a) bedeutet
P
P
P
→ 0.
→ 0 ⇒ Xn + Yn −
→ 0, Yn −
z.B. (b): Xn −
Abgabe in der Vorlesung am Donnerstag, dem 15.12.05.
Markus Reiß
Vorlesung
Wahrscheinlichkeitstheorie
Wintersemester 2005/06
9. Übungsblatt
1. Beweise den Poissonschen Grenzwertsatz mit Hilfe charakteristischer Funktionen in folgenden Schritten:
(a) Zeige, dass die charakteristischen Funktionen der Binomialverteilung
Binn,pn mit npn → λ > 0 für n → ∞ gegen die charakteristische Funktion
der Poissonverteilung mit Parameter λ konvergiert.
(b) Weise nach, dass die Folge (Binn,pn )n>1 straff ist, falls npn → λ gilt,
und folgere die schwache Konvergenz der Verteilungen Binn,pn gegen die
Poissonverteilung mit Parameter λ.
(c) Zeige, dass bei Verteilungen auf N0 schwache Konvergenz die Konvergenz
der Zähldichten impliziert. [Es gilt sogar Äquivalenz]
2. Mit Γ(α, λ) wird die Gamma-Verteilung auf R+ mit Lebesguedichte
fα,λ (x) =
λα α−1 −λx
x
e
,
Γ(α)
x > 0, (Γ: Gamma-Funktion)
und Parametern α, λ > 0 bezeichnet.
(a) Begründe, weshalb fα,λ eine Wahrscheinlichkeitsdichte bezüglich dem Lebesguemaß ist, und zeige (z. B. durch Potenzreihenentwicklung von eiux ),
dass die charakteristische Funktion gegeben ist durch
ϕα,λ (u) =
λα
,
(λ − iu)α
u ∈ R.
(b) Bestimme Erwartungswert und Varianz einer Γ(α, λ)-verteilten Zufallsvariablen.
(c) Weise Γ(α1 , λ) ∗ Γ(α2 , λ) = Γ(α1 + α2 , λ) nach.
(d) Mit χ2 (p) wird die Verteilung von |X|2 für einen p-dimensionalen standardnormalverteilten Zufallsvektor X bezeichnet. Zeige, dass χ2 (p) =
Γ(p/2, 1/2) gilt.
3. (freiwillig) Es sei X eine Zufallsvariable mit Werten in N0 . Dann ist ihre erzeugende Funktion definiert als GX (z) = E[z X ]. Für welche komplexen Werte z ist
GX stets wohldefiniert? Leite für die erzeugende Funktion analoge Resultate
wie für charakteristische Funktionen her (Momente, Faltung, Eindeutigkeit,
Grenzwertsatz).
4. (freiwillig) Betrachte die Menge Ωn aller n! Permutationen von {1, . . . , n} mit
der Laplaceverteilung Pn . Für jedes j = 1, . . . , n definiere die Zufallsvariable
Xn,j (ω) := |{k | 1 6 k 6 j − 1, ω(k) > ω(j)}|,
ω ∈ Ωn ,
d.h. Xn,j zählt die durch j implizierten Inversionen in der Permutation ω.
Zeige:
(a) Xn,1 , . . . , Xn,n sind unabhängige Zufallsvariablen mit Pn (Xn,j = m) =
1/j, m = 0, . . . , j − 1.
(b) Xn,j hat Erwartungswert (j − 1)/2 und Varianz (j 2 − 1)/12.
P
(c) Ist Sn = nj=1 Xn,j die Gesamtzahl der Inversionen, so gilt asymptotisch
Sn − n2 /4 d
−
→ N (0, 1).
n3/2 /6
Abgabe in der Vorlesung am Donnerstag, dem 12.1.06.
Markus Reiß
Vorlesung
Wahrscheinlichkeitstheorie
Wintersemester 2005/06
10. Übungsblatt
1. Es sei (X, Y ) ein zweidimensionaler Zufallsvektor mit Lebesguedichte f X,Y .
(a) REs sei B ⊆ R eine Borelmenge und x ∈ R mit f X (x) > 0 (f X (x) =
f X,Y (x, η) dη). Unter welcher Voraussetzung an f X,Y gilt
Z
Z
f X,Y (x, y)
Y |X=x
lim P(Y ∈ B | X ∈ [x, x + h]) =
f
(y) dy :=
dy ?
h↓0
f X (x)
B
B
(b) Zeige, dass für Y ∈ L2 und jede Lebesguedichte f X,Y gilt, dass
Z
ϕy (x) = yf Y |X=x (y) dy1{f X (x)>0}
den Ausdruck E[(Y − ϕ(X))2 ] minimiert, d.h. ϕy (X) = E[Y | X] gilt.
S
2. Es sei Ω = n∈N Bn eine messbare, abzählbare Partition der Grundmenge in
(Ω, F, P). Setze B := σ(Bn , n ∈ N). Zeige:
P
(a) Jede B-messbare Zufallsvariable X läßt sich schreiben als X = n αn 1Bn
mit geeigneten αn ∈ R.
R
P
(b) Für X ∈ L1 gilt E[X | B] = n: P(Bn )>0 P(B1 n ) Bn X d P 1Bn .
(c) Nun sei Ω = [0, 1) mit der Borel-σ-Algebra, P die gleichmäßige Verteilung (also Lebesguemaß auf [0, 1)) und X(ω) := ω, ω ∈ [0, 1). Bestimme
E[X | σ([(k − 1)/n, k/n), k = 1, . . . , n)] für n = 1, 3, 5, 10 und zeichne die
bedingten Erwartungen zusammen mit X in ein Koordinatensystem ein.
3. Es seien X und Y gemeinsam normalverteilte Zufallsvariablen.
2 =
(a) Für welche α ∈ R sind X und Y − αX unkorreliert? (Verwende σX
Var(X), σY2 = Var(Y ), ρ = Cor(X, Y ))
(b) Schließe, dass X und Y − (αX + β), für diese Werte α sowie β ∈ R beliebig, unabhängig sind und daher αX + β mit geeignetem β eine bedingte
Erwartung E[Y |X] ist.
Bemerkung: in diesem Fall ist die bedingte Erwartung also linear!
4. Beweise den Satz von der monotonen Konvergenz für bedingte Erwartungen:
Xn > 0, Xn ↑ X ⇒ E[Xn | G] ↑ E[X | G] P −f.s.
Abgabe in der Vorlesung am Donnerstag, dem 19.1.06.
Markus Reiß
Vorlesung
Wahrscheinlichkeitstheorie
Wintersemester 2005/06
11. Übungsblatt
1. Die Funktion ϕ : R → R sei konvex, d.h. ϕ(ax+(1−a)y) 6 aϕ(x)+(1−a)ϕ(y)
gilt für alle x, y ∈ R, a ∈ [0, 1]. Zeige:
(a) D(x, y) := ϕ(y)−ϕ(x)
, x 6= y, ist monoton wachsend in x und y, woraus
y−x
folgt, dass ϕ rechtsseitig und linksseitig differenzierbar sowie stetig ist.
(b) Mit der rechtsseitigen Ableitung ϕ0+ gilt:
∀ x, y ∈ R :
ϕ(y) > ϕ(x) + ϕ0+ (x)(y − x),
∀x ∈ R :
ϕ(y) = sup ϕ(x) + ϕ0+ (x)(y − x) .
x∈Q
(c) Sind Y, ϕ(Y ) ∈ L1 , so gilt E[ϕ(Y ) | G] > ϕ(x) + ϕ0+ (x)(E[Y | G] − x) für
alle x ∈ R.
(d) Es gilt die Jensensche Ungleichung für bedingte Erwartungen.
2. Für Y ∈ L2 definiert man die bedingte Varianz von Y gegeben X als
Var(Y |X) := E[(Y − E[Y | X])2 | X].
(a) Begründe, weshalb Var(Y |X) wohldefiniert ist.
(b) Zeige: Var(E[Y | X]) = Var(Y ) − E[Var(Y |X)] 6 Var(Y ).
(c) Begründe mittels (b) für unabhängige Zufallsvariablen (Zk )k und N in
L2 mit (Zk ) identisch verteilt und N N-wertig:
Y (ω) :=
PN (ω)
k=1
Zk (ω) ⇒ Var(Y ) = E[Z1 ] Var(N ) + E[N ] Var(Z1 ).
3. Verdopplungsstrategie: In jeder Runde wird eine faire Münze geworfen, bei
Kopf erhält der Spieler seinen doppelten Einsatz zurück, bei Zahl verliert er
seinen Einsatz. Der Spieler startet mit dem Anfangskapital K0 = 0. In Runde
n > 1 verfährt er wie folgt: Ist bereits einmal Kopf erschienen, so setzt er
nichts mehr; verliert er aber, so setzt er 2n+1 Euro für die (n + 1)-te Runde.
(a) Begründe, weshalb sich das Kapital Kn nach der n-ten Runde modellieren
lässt mit (Xi ) unabhängig, P(Xi = 1) = P(Xi = −1) = 1/2, als
(
−(2n − 1), X1 = · · · = Xn = −1,
Kn =
1,
sonst.
(b) Stelle Kn äquivalent als diskretes stochastisches Integral dar und schließe,
dass (Kn ) ein Martingal (bzgl. kanonischer Filtration) ist.
(c) Beweise, dass limn→∞ Kn = 1 P-fast sicher gilt.
4. Es sei T eine N0 -wertige Zufallsvariable und Sn := 1{n>T } , n > 0. Zeige:
(a) Die kanonische Filtration erfüllt FnS = σ({T = k}, k = 0, . . . , n).
(b) (Sn ) ist ein Submartingal bezüglich (FnS )n mit
E[Sn+1 | FnS ] = 1{Sn =1} + P(T = n + 1 | T > n + 1)1{Sn =0} P-f.s.
(c) Bestimme die Doobzerlegung von (Sn ). Skizziere für den Fall, dass T
geometrisch verteilt ist (P(T = k) = (1−p)pk ), (Sn ), seinen Kompensator
und ihre Differenz als Funktion von n.
Abgabe in der Vorlesung am Donnerstag, dem 26.1.06.
Markus Reiß
Vorlesung
Wahrscheinlichkeitstheorie
Wintersemester 2005/06
12. Übungsblatt
1. Beweise:
(a) Für jedes n ∈ N ist die Funktion τ (ω) = n, ω ∈ Ω, eine Stoppzeit.
(b) Sind σ und τ Stoppzeiten, so sind auch σ ∧ τ , σ ∨ τ und σ + τ Stoppzeiten.
Was ist mit σ − τ falls σ > τ ?
2. Es sei (FnX )n>0 die kanonische Filtration eines Prozesses (Xn )n>0 . Zeige für
eine endliche Stoppzeit τ bezüglich (FnX ), dass gilt
Fτ = σ(τ, Xτ ∧n , n > 0).
Hinweis: ’⊇’: zeige Fτ ∧n ⊆ Fτ . ’⊆’: schreibe A ∈ Fτ als A =
Freiwillig: Zeige sogar Fτ = σ(Xτ ∧n , n > 0).
S
nA
∩ {τ = n}.
3. Beweise die Höffding-Ungleichung: Für ein Martingal (Mn ) mit M0 = 0 und
|Mn (ω) − Mn−1 (ω)| 6 Kn , ω ∈ Ω, n > 1, gilt
x2
P(|Mn | > x) 6 2 exp − Pn
,
2 i=1 Ki2
x > 0.
Anleitung:
(a) Ist E[Z] = 0 und |Z| 6 1, so gilt eηZ 6 cosh(η) + Z sinh(η) und damit
2
E[eηZ ] 6 cosh(η) 6 eη /2 für alle η ∈ R.
(b) Es folgt E[exp(ηMn ) | Fn−1 ] 6 exp(ηMn−1 + η 2 Kn2 /2).
P
(c) Daraus ergibt sich induktiv E[exp(ηMn )] 6 exp(η 2 ni=1 Ki2 /2).
(d) Die verallgemeinerte Markov-Ungleichung und Optimierung über η liefern
das Ergebnis.
4. Es sei (Xk )k>1 eine Folge unabhängiger, identisch verteilter und {−1, +1}wertiger Zufallsvariablen. Unter der Hypothese H0 gelte P0 (Xk = +1) = p0
mit p0 ∈ (0, 1), unter der Alternative H1 gelte P1 (Xk = +1) = p1 mit p1 6= p0 .
(a) Begründe, weshalb der Likelihoodquotient nach n Beobachtungen
X1 , . . . , Xn gegeben ist durch
(n+Sn )/2
Ln =
(1−p1 )(n−Sn )/2
(n+Sn )/2
(1−p0 )(n−Sn )/2
p0
p1
mit Sn =
Pn
k=1 Xk .
(b) Zeige, dass der Likelihood-Prozess (Ln )n>0 (setze L0 := 1) ein nichtnegatives Martingal bezüglich der kanonischen Filtration unter der Hypothese
H0 (d.h. unter P0 ) ist.
(c) Ein sequentieller Likelihood-Quotiententest, basierend auf der Wahl von
0 < A < 1 < B und auf der Stoppzeit
τA,B := inf{n > 1 | Ln > B oder Ln 6 A},
lehnt H0 ab, falls LτA,B > B, und akzeptiert H0 , falls LτA,B 6 A. Bestimme die Fehler erster und zweiter Art dieses Tests für p0 = 0.4, p1 = 0.6,
A = (2/3)5 , B = (3/2)5 und berechne die im Mittel benötigte Zahl von
Beobachtungen E[τA,B ].
Abgabe in der Vorlesung am Donnerstag, dem 2.2.06.
Markus Reiß
Vorlesung
Wahrscheinlichkeitstheorie
Wintersemester 2005/06
13. Übungsblatt
1. Beweise: Zufallsvariablen (Xi )i∈I in L1 sind genau dann gleichgradig integrierbar, wenn gilt: supi∈I kXi kL1 < ∞ und
∀ ε > 0 ∃ δ > 0 : P(A) < δ ⇒ sup E[|Xi |1A ] < ε.
i∈I
P
2. Es sei fn (x) = (3/2)n k∈{0,2}n 1I(k,n) (x), x ∈ [0, 1], mit den Intervallen
P
P
I(k, n) := [ ni=1 ki 3−i , ni=1 ki 3−i + 3−n ]. Zeige:
(a) (fn )n>1 ist ein Martingal auf ([0, 1], B[0,1] , λ, (Fn )) mit Lebesguemaß λ
auf [0, 1] und Fn := σ(I(k, n), k ∈ {0, 1, 2}n ).
(b) (fn ) konvergiert λ-fast sicher, aber nicht in L1 ([0, 1], B[0,1] , λ) (Skizze!).
(c) Jedes fn ist die Dichte eines Wahrscheinlichkeitsmaßes Pn . Es gibt ein
w
Wahrscheinlichkeitsmaß P∞ , so dass Pn −
→ P∞ (P∞ heißt Cantormaß).
Es gibt eine Borelmenge C ⊆ [0, 1] mit P∞ (C) = 1, λ(C) = 0.
3. Es seien (T, T ) ein Messraum, E ein Erzeuger von T und f : S → T eine
beliebige Abbildung. Beweise mit dem Prinzip der guten Mengen, dass dann
die Urbilder aus dem Erzeuger f −1 (E) die Urbild-σ-Algebra f −1 (T ) erzeugen.
4. Es seien X und Y unabhängige reellwertige Zufallsvariablen mit Lebesguedichten f X und f Y . Berechne E[(Y − X)+ | X]. Was ergibt sich im Fall
X, Y ∼ N (0, 1)?
5. Es sei Exp(λ) die Exponentialverteilung zum Parameter λ > 0. Diese hat
charakteristische Funktion ϕλ (u) = λ/(λ − iu).
w
(a) Schließe für λn → λ > 0 auf die schwache Konvergenz Exp(λn ) −
→
Exp(λ).
(b) Konvergiert Exp(λn ) ebenfalls schwach für λn → 0 bzw. λn → ∞?
(c) Untersuche, wann in (a) und (b) sogar Konvergenz in Totalvariationsnorm
vorliegt.
6. Hat das Wahrscheinlichkeitsmaß Q eine Dichte fQ,P bezüglich dem Wahrscheinlichkeitsmaß P, so wird die Kullback-Leibler-Divergenz definiert als
Z
KL(Q | P) = log(fQ,P (x)) Q(dx).
(a) Zeige, dass x 7→ x log(x) konvex ist, und schließe für den Fall
log(fQ,P )fQ,P ∈ L1 (P):
Z
log(fQ,P (x))fQ,P (x) P(dx) > 0.
KL(Q | P) =
Rd
(b) Beweise unter der Voraussetzung in (a) für Produktmaße:
KL(Q⊗n | P⊗n ) = n KL(Q | P).
Aufgaben 1 und 2 sind Pflicht, Aufgaben 3 bis 6 dienen der Klausurvorbereitung.
Abgabe von maximal 4 Aufgaben in der Vorlesung am Donnerstag, dem 9.2.06.
Herunterladen