Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu

Werbung
TUM, Zentrum Mathematik
Lehrstuhl für Mathematische Physik
WS 2013/14
Prof. Dr. Silke Rolles
Thomas Höfelsauer
Felizitas Weidner
Einführung in die Wahrscheinlichkeitstheorie
Lösungsvorschläge zu Übungsblatt 5
Tutoraufgaben:
Aufgabe T5.1
Bestimmen Sie die Erwartungswerte der Zufallsvariablen X, Y und Z, falls
(i) X Bernoulli(p)-verteilt zum Parameter p ∈ (0, 1),
(ii) Y Binomial(n, p)-verteilt zu den Parametern p ∈ (0, 1) und n ∈ N und
k
(iii) Z Poisson(λ)-verteilt zum Parameter λ > 0, d. h. P(Z = k) = e−λ λk! für k ∈ N0 ,
ist. Berechnen Sie außerdem die Erwartungswerte von V := etY für t ∈ R und W := Z 2 .
Lösung:
Die Erwartungswerte von X, Y und Z berechnen sich nach Definition wie folgt:
E(X) = 1 · P(X = 1) + 0 · P(X = 0) = 1 · p + 0 · (1 − p) = p
n
n
X
X
n k
E(Y ) =
kP(Y = k) =
k
p (1 − p)n−k
k
k=0
k=1
n
X
(n − 1)!
pk−1 (1 − p)n−k
(k
−
1)!(n
−
k)!
k=1
n X
n − 1 k−1
= np
p (1 − p)n−k
k−1
k=1
= np
= np(p + (1 − p))n−1 = np
∞
∞
∞
k
X
X
X
λk−1
−λ λ
−λ
E(Z) =
kP(Z = k) =
ke
= λe
= λe−λ eλ = λ
k!
(k
−
1)!
k=0
k=1
k=1
Den Erwartungswert von Y erhält man mit einem Trick auch mit weniger Rechnerei.
Dazu erinnern wir uns daran, wie die Binomialverteilung in der Vorlesung eingeführt
wurde:
Wir führen n mal hintereinander und unabhängig voneinander ein Zufallsexperiment
durch, das mit Wahrscheinlichkeit p gelingt und mit Wahrscheinlichkeit 1 − p misslingt.
Die Zufallsvariable, die die Anzahl der Erfolge zählt, ist laut Vorlesung Binomial(n, p)verteilt, genauso wie Y . Für i ∈ {1, . . . , n} sei nun Xi eine Zufallsvariable, die den
Wert 1 annimmt, wenn das i-te Experiment gelingt, und den Wert 0, falls es misslingt.
Die Zufallsvariablen Xi sind jeweils Bernoulli(p)-verteilt und (in Verteilung) gilt die
P
Gleichung X = ni=1 Xi . Da der Erwartungswert linear ist, ergibt sich daraus mit dem
Ergebnis von (i)
E(Y ) = E
n
X
Xi =
i=1
n
X
E Xi =
i=1
n
X
p = np.
i=1
Zum Schluss berechnen wir die Erwartungswerte von V und W . Nach Vorlesung, siehe
Satz 4.4, gilt
n
X
tk
∞
X
2
n
X
n X
k
n k
n
n−k
E(V ) =
e P(Y = k) =
p (1 − p)
=
pet (1 − p)n−k
e
k
k
k=0
k=0
k=0
k
= pet + 1 − p
tk
und
E(W ) =
=
k P(Z = k) =
k=0
∞
X
2 −λ
=λ e
k
2 −λ λ
k e
k=1
(k − 1)e−λ
k=1
∞
X
k!
∞
X
=
(k − 1 + 1)e−λ
k=1
λk
(k − 1)!
∞
X
λk
λ
+
e−λ
(k − 1)! k=1
(k − 1)!
k
∞
∞
X
X
λk−2
λk−1
−λ
+ λe
(k − 2)!
(k − 1)!
k=2
k=1
= λ2 e−λ eλ + e−λ eλ = λ2 + λ
Aufgabe T5.2
Wir betrachten folgendes Zufallsexperiment, das uns bereits in Aufgabe H2.2 begegnet ist: Zum Wichteln bringen n Kinder je ein Geschenk mit. Die n Geschenke werden
gesammelt, gemischt und völlig zufällig wieder ausgegeben, sodass jeder genau ein Geschenk erhält. Sei X die Anzahl der Kinder, die das Geschenk bekommen, das sie selbst
mitgebracht haben. Bestimmen Sie den Erwartungswert von X.
Lösung:
Wir verwenden wieder den Wahrscheinlichkeitsraum (Ω, F, P) mit dem Ergebnisraum
Ω = {σ : {1, . . . , n} → {1, . . . , n} : σ bijektiv}, der σ-Algebra F = P(Ω) und der
Gleichverteilung als Wahrscheinlichkeitsmaß P. Dabei gibt σ(i) an, welches Geschenk
Kind i bekommt. Definieren wir für jedes i ∈ {1, . . . , n} die Zufallsvariable
(
1 falls σ(i) = i
Xi : Ω → {0, 1}, σ 7→
0 sonst
P
dann gibt X = ni=1 Xi die Anzahl der Kinder an, die ihr eigenes Geschenk
zurückbeP
kommen. Aufgrund der Linearität des Erwartungswertes gilt E(X) = ni=1 E(Xi ). Wir
müssen also die Erwartungswerte der Xi bestimmen. Offenbar ist Xi Bernoulli-verteilt
= (n−1)!
= n1 . Nach Aufgabe T5.1 ist also
zum Parameter P(X = 1) = |{σ∈Ω:σ(i)=i}|
|Ω|
n!
E(Xi ) = n1 für jedes i ∈ {1, . . . , n} und wir erhalten E(X) = n · n1 = 1.
Hausaufgaben:
Aufgabe H5.1
(i) Beweisen Sie den folgenden Transformationssatz für Dichten: Sei X eine Zufallsvariable mit Werten im offenen Intervall I ⊆ R und Dichtefunktion fX . Sei J ⊆ R
ein weiteres offenes Intervall und g : I → J ein Diffeomorphismus, d. h., g sei
bijektiv und g sowie g −1 seien stetig differenzierbar. Dann hat die Zufallsvariable
Y := g(X) die Dichtefunktion
d
−1
−1
fY (y) = fX (g (y)) g (y)
dy
für y ∈ J und fY (y) = 0 für y ∈ J c .
(ii) Sei X auf√eine auf (0, 1] gleichverteilte Zufallsvariable. Bestimmen Sie die Dichten
von X 2 , X und − log X
Lösung:
(i) Ein Diffeomorphismus g ist entweder strikt monoton steigend oder fallend. Wir
betrachten hier den ersten Fall, der Beweis im zweiten ist analog. Falls g strikt
monoton ist, gilt für a, b ∈ J mit a ≤ b
PY ([a, b]) = P(a ≤ Y ≤ b) = P g −1 (a) ≤ X ≤ g −1 (b)
Z g−1 (b)
Z b
d
−1
−1
=
fX (x) dx =
fX (g (y)) g (y) dy.
dy
g −1 (a)
a
Im letzten Schritt haben wir die aus der Analysis bekannte Substitutionsregel mit
y = g(x) verwendet. Da die Mengen der Form [a, b] mit a, b ∈ J, a ≤ b einen
durchschnittsstabilen Erzeuger der Borel-σ-Algebra auf J bilden, folgt nun aus
dem Eindeutigkeitssatz, dass Y auf J die Dichtefunktion
d
fY (y) = fX (g −1 (y)) g −1 (y)
dy
besitzt. Außerhalb von J ist die Dichtefunktion von Y gleich 0, da Y dort keine
Werte annimmt.
(ii) Die Dichtefunktion von X ist die Funktion fX : R → [0, ∞), x 7→ 1(0,1] (x). Wir
verwenden die Transformationsformel mit I = (0, 1] und
√
(a) J = (0, 1] sowie g : I → J, x 7→ x2 . Hier ist g −1 (y) = y und folglich
d −1
g (y) = 2√1 y . Wir erhalten als Dichtefunktion von X 2 = g(X)
dy
1
1
√
fX 2 (y) = 1(0,1] ( y) √ = 1(0,1] (y) √ .
2 y
2 y
√
(b) J = (0, 1] sowie g : I → J, x 7→ x. Hier ist g −1
(y) = y 2 und folglich
√
d −1
g (y) = 2y. Wir erhalten als Dichtefunktion von X = g(X)
dy
f√X (y) = 1(0,1] y 2 2y = 1(0,1] (y)2y.
(c) J = [0, ∞) sowie g : I → J, x 7→ − log(x). Hier ist g −1 (y) = e−y und folglich
d −1
g (y) = −e−y . Wir erhalten als Dichtefunktion von − log X = g(X)
dy
f− log X (y) = 1(0,1] (e−y )−e−y = 1[0,∞) (y)e−y .
Aufgabe H5.2
(i) Sei X eine (0, ∞)-wertige Zufallsvariable mit der Eigenschaft P(X > t) > 0 für
alle t > 0. Zeigen Sie, dass die folgenden beiden Aussagen äquivalent sind:
(a) X ist exponential-verteilt zu einem Parameter λ > 0.
(b) Es gilt P(X > x + t|X > x) = P(X > t) für alle x, t > 0, d. h. die Verteilung
von X ist gedächtnislos.
Hinweis: Um zu zeigen, dass (b) Aussage (a) impliziert, setzen Sie zunächst die
Voraussetzung der Gedächtnislosigkeit in eine Gleichung für G(x) = 1 − F (x),
wobei F die Verteilungsfunktion von X ist, um. Lösen Sie diese, indem Sie zunächst
G(1) und G(x) für rationale x in Verbindung bringen und wenden Sie geeignete
Stetigkeitseigenschaften der Verteilungsfunktion an.
(ii) Berechnen Sie Erwartungswert und Varianz der Exponentialverteilung mit Parameter λ > 0.
Lösung: Anmerkung: Die Dichtefunktion einer Exponential(λ)-verteilten Zufallsvariable X ist f : R → [0, ∞), x 7→ λe−λx 1[0,∞) (x).
(i) Wir zeigen zuerst, dass (a) Aussage (b) impliziert: Ist X zum Parameter λ exponentialverteilt, so gilt für x > 0
Z ∞
h
i∞
P(X > x) =
λe−λx dx = −e−λx
= e−λx .
x
0
Daher folgt für x, t > 0
P(X > x + t|X > x) =
=
P(X > x + t)
P({X > x + t} ∩ {X > x})
=
P(X > x)
P(X > x)
e−λ(x+t)
= e−λt = P(X > t).
−λx
e
Nun nehmen wir umgekehrt an, dass X gedächtnislos ist und betrachten die Funktion G : R → [0, ∞), x 7→ P(X > x). Aus der Gleichung, die die Gedächtnislosigkeit definiert, folgt G(x + t) = G(x)G(t) für alle t, x > 0. Für n ∈ N gilt also
n
1
n−1
1
G(1) = G
G
= ... = G
.
n
n
n
Somit erhalten wir für m ∈ N
m m
m
1
m
1
m−1
1
=G
G
= ... = G
= G(1) n
= G(1) n .
G
n
n
n
n
Für jede positive rationale Zahl q gilt also G(q) = G(1)q . Da G eine rechtsseitig
stetige Funktions ist (Verteilungsfunktionen sind rechtsseitig stetig) und sich jede positive reelle Zahl x von rechts durch rationale Zahlen approximieren lässt,
erhalten wir G(x) = G(1)x für alle x ∈ R+ .
Definiere λ als λ := − log G(1). Dann ist λ eine positive reelle Zahl (beachte:
G(1) ∈ (0, 1) nach Voraussetzung) und es gilt G(x) = e−λx . X ist also exponentialverteilt.
(ii) Nach der Definition des Erwartungswertes für stetige Zufallsvariablen ist der Erwartungswert einer Exponential(λ)-verteilten Zufallsvariable X
Z ∞
h
i∞ Z ∞
−λx
−λx
xλe
dx = −xe
−e−λx dx
E(X) =
−
0
0
0
i∞ 1
h1
−λx
= .
=0− e
λ
λ
0
Im zweiten Schritt wurde partiell integriert. Analog berechnen wir
Z ∞
h
i∞ Z ∞
2 −λx
2
−λx
2
x λe
dx = −x e
−
−2xe−λx dx
E(X ) =
0
0
0
2
2
= 0 + E(X) = 2 .
λ
λ
Die Varianz von X ist daher
Var(X) = E(X 2 ) − E(X)2 =
2
1
1
− 2 = 2.
2
λ
λ
λ
Aufgabe H5.3
(i) Es sei X eine Zufallsvariable mit Werten in N0 . Zeigen Sie:
X
E[X] =
P(X ≥ k)
k≥1
(ii) Gegeben sei ein fairer Würfel mit n Seiten und der Beschriftung {1, . . . , n}. Die Zufallsvariable M bezeichne die größte gewürfelte Augenzahl bei m-maligem Würfeln
(m ∈ N fest). Bestimmen Sie den Erwartungswert von M .
Lösung:
(i) Es ist
X
P(X ≥ k) =
k≥1
XX
k≥1 i≥k
=
X
P(X = i) =
XX
i≥1 k≤i
P(X = i) =
X
i · P(X = i)
i≥1
i · P(X = i) = E(X).
i≥0
Im zweiten Schritt haben wir die Summationsreihenfolge geändert, was aufgrund
der Nichtnegativität der Summanden möglich ist.
(ii) Mit (i) und T4.2 erhalten wir
E(M ) =
X
P(M ≥ k) =
k≥1
n
X
(1 − P(M < k)) = n −
k=1
m
n X
k−1
k=1
n
.
Aufgabe H5.4
Für eine reellwertige Zufallsvariable X ist ein Median eine reelle Zahl m, für die sowohl
P(X ≤ m) ≥ 21 als auch P(X ≥ m) ≥ 21 gilt.
(i) Zeigen Sie, dass
E |X − m| = inf E |X − a|
a∈R
gilt, falls m ein Median der Zufallsvariable X ist.
Hinweis: Nehmen Sie ohne Einschränkung an, dass a > m und zeigen Sie zunächst
h
i
1
E |X − a| − |X − m| = 2 (a − m) P(X ≤ m) −
+ E (a − X)1(m,a) (X) .
2
(ii) Für n ∈ N sei X eine auf {1, . . . , n} gleichverteilte Zufallsvariable. Bestimmen Sie
einen Median m ∈ N von X in Abhängigkeit davon, ob n gerade oder ungerade
ist.
Lösung:
(i) Wir zeigen zuerst den Hinweis. Sei a > m. Dann erhalten wir mit der Linearität
des Erwartungswertes
E |X − a| − |X − m|
= E (|X − a| − |X − m|) · (1(−∞,m] (X) + 1(m,a) (X) + 1[a,∞) (X))
= E (−X + a + X − m)1(−∞,m] (X) + E (−X + a − X + m)1(m,a) (X)
+ E (X − a − X + m)1[a,∞) (X)
= E (a − m)1(−∞,m] (X) + E 2(a − X)1(m,a) (X)
+ E (m − a)1(m,a) (X) + E (m − a)1[a,∞) (X)
= (m − a) · E 1(−∞,m] (X) + 1(m,a) (X) + 1[a,∞) (X)
+ 2(a − m)E 1(−∞,m] (X) + 2E (a − X)1(m,a) (X)
= (m − a) + 2(a − m)P 1(−∞,m] (X) = 1 + 2E (a − X)1(m,a) (X)
h
i
1
= 2 (a − m) P(X ≤ m) −
+ E (a − X)1(m,a) (X) .
2
Da m ein Median ist und a > m, gilt
h
i
1
2 (a − m) P(X ≤ m) −
+ E (a − X)1(m,a) (X) > 0,
2
also ist für alle a > m
E |X − a| > E |X − m| .
(1)
Analog gilt diese Ungleichung auch für die Zufallsvariable −X mit Median −m:
Für alle −a > −m ist
E | − X − (−a)| > E | − X − (−m)| ,
also gilt, äquivalent dazu, Ungleichung (1) auch für alle a < m, woraus die Behauptung folgt.
(ii) Sei n gerade. Dann ist m =
n
2
ein Median, denn
|{1, . . . , n2 }|
1
=
P(X ≤ m) =
n
2
und
|{ n2 , . . . , n}|
P(X ≥ m) =
=
n
Sei n ungerade. Dann ist m =
n+1
2
P(X ≤ m) =
n
2
+1
1
≥ .
n
2
ein Median, denn
n+1
|{1, . . . , n+1
}|
1
2
= 2 ≥
n
n
2
und
n − n+1
|{ n+1
, . . . , n}|
+1
1
2
2
=
≥ .
P(X ≥ m) =
n
n
2
Herunterladen