Einführung in die Wahrscheinlichkeitstheorie

Werbung
TUM, Zentrum Mathematik
Lehrstuhl für Mathematische Physik
WS 2013/14
Prof. Dr. Silke Rolles
Thomas Höfelsauer
Felizitas Weidner
Einführung in die Wahrscheinlichkeitstheorie
Lösungsvorschläge zu Übungsblatt 6
Tutoraufgaben:
Aufgabe T6.1
Bestimmen Sie die Varianzen der Zufallsvariablen Xi mit i ∈ {1, . . . , 5}, falls
(i) X1 Bernoulli(p)-verteilt zum Parameter p ∈ (0, 1),
(ii) X2 Binomial(n, p)-verteilt zu den Parametern p ∈ (0, 1) und n ∈ N,
(iii) X3 Geometrisch(p)-verteilt zu einem Parameter p ∈ (0, 1),
(iv) X4 Poisson(λ)-verteilt zum Parameter λ > 0 und
(v) X5 Exponential(λ)-verteilt zum Parameter λ > 0 ist.
Lösung:
Aus der Vorlesung wissen wir, dass sich die Varianz einer Zufallsvariable X mittels
Var(X) = E(X 2 ) − E(X)2 berechnen lässt. Dies werden wir nun nutzen, um die gesuchten Varianzen zu bestimmen.
(i) Aus der Aufgabe T5.1 kennen wir bereits E(X1 ) = p. Wir bestimmen nun das
sogenannte 2. Moment E(X12 ):
E(X12 ) = 12 · P(X = 1) + 02 · P(X = 0) = p
Damit folgt:
Var(X1 ) = p − p2 = p(1 − p)
(ii) Aus der Aufgabe T5.1 kennen wir bereits E(X2 ) = np. Weiter gilt:
n
n
X
X
2
2
2 n
E(X2 ) =
k P(X2 = k) =
k
pk (1 − p)n−k
k
k=0
k=1
n
X
(k − 1)
n
X
n!
n!
pk (1 − p)n−k +
pk (1 − p)n−k
(k
−
1)!(n
−
k)!
(k
−
1)!(n
−
k)!
k=1
k=1
n
n X
X
n − 1 k−1
n − 1 k−1
n−k
= np
(k − 1)
p (1 − p)
+ np
p (1 − p)n−k
k
−
1
k
−
1
k=1
k=1
n−1 n−1 X
X
n−1 j
n−1 j
n−1−j
= np
j
p (1 − p)
+ np
p (1 − p)n−1−j
j
j
j=0
j=0
=
= np · (n − 1)p + np(1 − (1 − p))n−1 = n2 p2 + np(1 − p)
Hier wurde in der letzten Gleichung verwendet, dass die Summe im ersten Summanden der Erwartungswert einer Binomial(n − 1,p)-verteilten Zufallsvariable ist
und daher den Wert (n − 1)p ergibt. Wir erhalten nun:
Var(X2 ) = n2 p2 + np(1 − p) − n2 p2 = np(1 − p)
P
k−1
(iii) Wir berechnen zunächst den Erwartungswert E(X3 ) = ∞
p. Dazu
k=1 k(1 − p)
nutzen wir
∞
∞
∞
X
X
d X k
1
1
d k
d
k−1
x =
−1 =
kx
=
x =
dx
dx k=1
dx 1 − x
(1 − x)2
k=1
k=1
mit x = 1 − p und bekommen
E(X3 ) = p ·
1
1
= .
2
(1 − (1 − p))
p
P
k−1
Für die Varianz berechnen wir zunächst E(X3 (X3 +1)) = ∞
p.
k=1 k(k+1)(1−p)
Dazu nutzen wir
∞
∞
∞
X
X
d2 k+1
1
2
d2 X k+1
d2
k−1
k(k + 1)x
=
−x−1 =
x
= 2
x
= 2
2
dx
dx k=1
dx 1 − x
(1 − x)3
k=1
k=1
mit x = 1 − p und bekommen
E(X3 (X3 + 1)) = p ·
2
2
= 2.
3
(1 − (1 − p))
p
Die Varianz ist folglich
Var(X3 ) = E(X32 ) − E(X3 )2 = E(X3 (X3 + 1)) − E(X3 ) − E(X3 )2
1
1
1−p
2
.
= 2− − 2 =
p
p p
p2
Alternativer Lösungsweg:
Wir erhalten den Erwartungswert auch aus folgender Gleichung:
∞
∞
X
X
k−1
E(X3 ) =
k(1 − p) p =
(k + 1)(1 − p)k p
k=1
=
∞
X
k=0
∞
X
k
(1 − p)k p
k(1 − p) p +
k=0
k=0
= (1 − p)E(X3 ) +
p
= (1 − p)E(X3 ) + 1
1 − (1 − p)
Analog kann man das 2. Moment E(X32 ) bestimmen:
∞
∞
X
X
2
2
k−1
E(X3 ) =
k (1 − p) p =
(k + 1)2 (1 − p)k p
=
k=1
∞
X
k 2 (1 − p)k p +
k=0
= (1 −
k=0
∞
X
2k(1 − p)k p +
k=0
p)E(X32 )
+ 2(1 − p)E(X3 ) +
= (1 − p)E(X32 ) +
∞
X
(1 − p)k p
k=0
p
1 − (1 − p)
2(1 − p)
2−p
+ 1 = (1 − p)E(X32 ) +
p
p
Die Lösung E(X32 ) =
2−p
p2
dieser Gleichung liefert Var(X3 ) =
2−p
p2
−
1
p2
=
1−p
.
p2
(iv) Aus der Aufgabe T5.1 kennen wir bereits E(X4 ) = λ sowie E(X42 ) = λ2 + λ.
Folglich ist
Var(X4 ) = λ2 + λ − λ2 = λ
(v) Mithilfe der Wahrscheinlichkeitsdichte f (x) = λe−λx und partieller Integration
erhalten wir
Z
Z
Z ∞
−λx
E(X5 ) =
xf (x) dx =
xλe 1[0,∞) (x) dx =
xλe−λx dx
R
0
∞
Z R∞
1
1 −λx
−λx
−λx ∞
=
+
e
dx = 0 + − e
= −xe
0
λ
λ
0
0
sowie
Z
E(X5 ) =
∞
Z
2
2
x f (x) dx =
−λx
x λe
0
R
∞
dx = −x2 e−λx 0 +
Z
∞
2xe−λx dx
0
2
2
= 0 + E(X5 ) = 2
λ
λ
und somit
Var(X5 ) =
2
1
1
−
=
.
λ2 λ2
λ2
Aufgabe T6.2
Sei (X, Y ) eine Zufallsvariable mit Zähldichte ρ, die wie folgt gegeben ist:
ρ(x, y)
y = −1
y=0
y=1
x = −1
0
1
4
1
8
x=0
1
8
0
1
8
x=1
1
8
0
1
4
Bestimmen Sie die Randverteilungen von X und Y sowie die Verteilung des Produkts
Z = X · Y . Sind die Zufallsvariablen X und Y unabhängig?
Lösung:
Da sich die Wahrscheinlichkeiten zu 1 aufsummieren, nehmen X und Y nur die Werte
−1, 0, 1 an und alle nicht angegebenen Kombinationen haben Wahrscheinlichkeit 0. Die
Verteilung von X errechnet sich durch
P(X = i) = P(X = i, Y = −1) + P(X = i, Y = 0) + P(X = i, Y = 1).
Wir erhalten P(X = −1) = 0 + 14 +
die Verteilung von Y :
1
8
= 38 , P(X = 0) = 14 , P(X = 1) =
3
8
und analog für
P(Y = i) = P(X = −1, Y = i) + P(X = 0, Y = i) + P(X = 1, Y = i),
so dass sich P(Y = −1) = 41 , P(Y = 0) = 14 , P(Y = 1) = 12 ergibt. Die beiden Zufallsvariablen sind nicht unabhängig, denn es ist beispielsweise
P(X = 0, Y = 0) = 0 6=
1
16
= P(X = 0)P(Y = 0).
Die Zufallsvariable Z nimmt ebenfalls die Werte −1, 0, 1 an mit jeweiligen Wahrscheinlichkeiten
P(Z = −1) = P(X = −1, Y = 1) + P(X = 1, Y = −1) = 81 + 18 = 14 ,
P(Z = 1) = P(X = −1, Y = −1) + P(X = 1, Y = 1) = 0 + 14 = 14 ,
P(Z = 0) = P({X = 0} ∪ {Y = 0}) = P(X = 0) + P(Y = 0) − P(X = Y = 0)
= 14 + 14 − 0 = 21 .
Aufgabe T6.3* (Zusatzaufgabe)
Seien X und Y unabhängige, auf dem Intervall [0, 1] gleichverteilte Zufallsvariablen.
Zeigen Sie, dass dann P(X = Y ) = 0 gilt.
Lösung:
Sei n ∈ N beliebig. Es gilt
[ n
h k − 1 k io
X = Y, Y ∈
P(X = Y ) = P
,
n
n
1≤k≤n
[ n
h k − 1 k io
X, Y ∈
≤P
,
n n
1≤k≤n
h k − 1 k i
X ≤
P X, Y ∈
,
n
n
1≤k≤n
h k − 1 k i
h k − 1 k i X ,
P Y ∈
,
=
P X∈
n n
n n
1≤k≤n
X 1 1
1
=
· = ,
n n
n
1≤k≤n
wobei wir im vierten Schritt die Unabhängigkeit von X und Y verwendet haben. Betrachtet man nun den Limes n → ∞, so folgt die Behauptung.
Hausaufgaben:
Aufgabe H6.1
(i) Seien X und Y unabhängige Zufallsvariablen mit Werten in Z und Verteilungen
PX und PY . Zeigen Sie, dass die Zufallsvariable X + Y die Verteilung
X
PX+Y ({k}) =
PX ({n})PY ({k − n}), k ∈ Z
n∈Z
besitzt.
(ii) Bestimmen Sie die Verteilung von X + Y , falls X und Y unabhängig und Poissonverteilt zu den Parametern λ und µ sind.
(iii) Seien X und Y unabhängige Zufallsvariablen mit Wahrscheinlichkeitsdichten f
und g. Zeigen Sie, dass auch X + Y eine Wahrscheinlichkeitsdichte besitzt und
geben Sie eine solche an.
Lösung:
(i) Mit der Unabhängigkeit von X und Y erhalten wir für alle k ∈ Z
X
X
P(X = n, Y = k − n)
P(X = n, X + Y = k) =
PX+Y ({k}) =
n∈Z
n∈Z
=
X
PX ({n})PY ({k − n}).
n∈Z
besitzt.
(ii) Mit Aufgabenteil (i) erhalten wir für alle k ∈ N
PX+Y ({k}) =
X
PX ({n})PY ({k − n}) =
k
X
n=0
n∈Z
= e−(λ+µ)
1
k!
e−λ
λn −µ λk−n
e
n!
(k − n)!
k X
n=0
k n k−n
(λ + µ)k
,
λ µ
= e−(λ+µ)
n
k!
X + Y ist also Poisson-verteilt zum Parameter λ + µ.
(iii) Da X und Y unabhängig sind, ist die gemeinsame Dichte von (X, Y ) gegeben
durch f · g. Somit gilt für alle c ∈ R
Z Z
P(X + Y ≤ c) =
f (x)g(y)1{(x,y)∈R2 :x+y≤c} (x, y) dx dy
R
Z
R
Zc−y
=
f (x)g(y) dx dy.
R −∞
Mit der Substitution z = x + y und dem Satz vom Fubini erhalten wir
Zc Z
Z Zc−y
Z Zc
f (z − y)g(y) dy dz.
f (z − y)g(y) dz dy =
f (x)g(y) dx dy =
R −∞
R −∞
−∞ R
|
{z
:=h(z)
}
X + Y besitzt also die Wahrscheinlichkeitsdichte h.
Aufgabe H6.2
Bei einer Entenjagd schießen k Jäger gleichzeitig je einmal auf einen Schwarm aus m
Enten. Sie suchen sich unabhängig voneinander eine Ente aus, auf die sie zielen, und
treffen diese Ente unabhängig voneinander mit Wahrscheinlichkeit p ∈ [0, 1]. Geben
Sie ein Wahrscheinlichkeitsmodell an, das die Situation beschreibt. Bestimmen Sie den
Erwartungswert der Anzahl der unverletzten Enten.
Lösung:
Gegeben sei ein Wahrscheinlichkeitsraum (Ω, F, P). Außerdem seien (Xi )1≤i≤k eine Folge
von Zufallsvariablen auf Ω mit Werten in {1, . . . , m}, wobei alle Xi auf {1, . . . , m}
gleichverteilt sind. Diese Zufallsvariablen formalisieren das Aussuchen der Ente durch
die Jäger.
P
Definiere nun für jedes 1 ≤ l ≤ m die Zufallsvariable Yl = ki=1 1{Xi =l} . Folglich gilt
Yl : Ω → {0, . . . , k} für 1 ≤ l ≤ m. Die Zufallvariablen (Yl )1≤l≤m sind nicht unabhängig
und formalisieren, wieviele Jäger auf die l-te Ente schießen. Es folgt außerdem, dass Yl
Binomial(k, m1 )-verteilt sind, d. h. es gilt für x ∈ {0, . . . , k}
k
1 x
1 k−x
P(Yl = x) =
· 1−
.
x m
m
Wir definieren als nächstes für 1 ≤ l ≤ m die Zufallsvariable Zl : Ω → {0, 1} mit
P(Zl = 1 | Yl = x) = (1 − p)x . Die Zufallsvariable Zl nimmt den Wert 1 an, wenn die l-te
Ente überlebt, und den Wert 0 sonst. Aus Symmetriegründen sind die Zufallsvariablen
(Zl )1≤l≤m identisch verteilt, d.h. P (Z1 = 1) = P (Zl = 1) für alle 1 ≤ l ≤ m und es gilt
P (Z1 = 1) =
k
X
x=0
k
X
P(Z1 = 1 | Y1 = x) · P (Y1 = x)
1 k−x
k
1 x
· 1−
=
(1 − p)
m
x m
x=0
1 − p
1 k p k
=
+1−
= 1−
.
m
m
m
P
Für den Erwartungswert der Anzahl Z = m
l=1 Zl der unverletzten Enten folgt:
E(Z) = E
X
m
l=1
Zl
=
m
X
l=1
x
p k
.
E(Zl ) = m · E(Z1 ) = m · P (Z1 = 1) = m · 1 −
m
Aufgabe H6.3
Betrachten Sie die Abbildung f : R2 → R, (x, y) 7→ 2e−(x+2y) 1[0,∞)2 (x, y).
(i) Zeigen Sie, dass f eine Dichtefunktion ist.
(ii) Sei (X, Y ) eine Zufallsvariable mit Wahrscheinlichkeitsdichte f . Berechnen Sie die
Randverteilungen von X und Y . Sind X und Y unabhängig?
(iii) Berechnen Sie die Kovarianz von X und Y .
(iv) Berechnen Sie P(X > Y ).
Lösung:
(i) Es ist f (x, y) ≥ 0 für alle (x, y) ∈ R2 . Außerdem gilt
Z∞
Z Z
f (x, y) dx dy =
R
2e
0
R
−2y
Z∞
e
Z∞
−x
dx dy =
0
2e−2y dy = 1
0
(ii) Als Randverteilung fX von X erhalten wir
Z
fX (x) =
f (x, y) dy = e−x 1[0,∞) (x)
Z∞
2e−2y dy = e−x 1[0,∞) (x).
0
R
Die Randverteilung fy von Y ist
Z
fY (y) =
f (x, y) dx = 2e−2y 1[0,∞) (y)
Z∞
e−x dx = 2e−2y 1[0,∞) (y).
0
R
X und Y sind unabhängig, da f (x, y) = fX (x) · fY (y) für alle (x, y) ∈ R2 .
Bemerkung: X ist Exponential(1)-verteilt und Y ist Exponential(2)-verteilt.
(iii) Da X und Y unabhängig sind, gilt Cov(X, Y ) = 0.
(iv) Es ist
Z∞
Z Z
P(X > Y ) =
f (x, y)1{(x,y)∈R2 :x>y} (x, y) dx dy =
R R
Z∞
2e−2y e−y dy =
=
0
0
2
3
2e−2y
Z∞
y
e−x dx dy
Aufgabe H6.4
Seien X, Y ∈ L2 mit Var(X), Var(Y ) > 0. Dann ist der Korrelationskoeffizient von X
und Y definiert durch
Cov(X, Y )
p
.
κX,Y := p
Var(X) Var(Y )
Zeigen Sie, dass
min E (Y − βX − α)2 = (1 − κ2X,Y ) min E (Y − γ)2
γ∈R
α,β∈R
gilt.
Lösung:
p
p
Sie µX := E(X), µY := E(Y ), σX := Var(X), σY := Var(Y ).
Für γ ∈ R gilt
E[(Y − γ)2 ] = Var(Y − γ) + E[(Y − γ)]2
= Var(Y ) + (µY − γ)2
= σY2 + (µY − γ)2 .
Der Ausdruck ist minimal für γ = µY mit Wert σY2 . Somit ergibt sich für die rechte Seite
(1 − κ2X,Y )σY2
Für α, β ∈ R gilt
E[(Y − βX − α)2 ] = Var(Y − βX − α) + (µY − βµX − α)2 .
Wir berechnen die Varianz:
Var(Y − βX − α) = Var(Y − βX)
= Var(Y ) + Var(−βX) + 2 Cov(Y, −βX)
= Var(Y ) + (−β)2 Var(X) − 2β Cov(Y, X)
2
= σY2 + β 2 σX
− 2βσX σY κX,Y
= (βσX − κX,Y σY )2 + (1 − κ2X,Y )σY2
Zusammen ergibt sich
E[(Y − βX − α)2 ] = (βσX − κX,Y σY )2 + (1 − κ2X,Y )σY2 + (µY − βµX − α)2 .
Der Term wird minimal, wenn das erste und das letzte Quadrat verschwinden. Somit
muss β = σσXY κX,Y sowie α = µY − βµX = µY − σσXY κX,Y µX gelten. Als Wert der linken
Seite ergibt sich (1 − κ2X,Y )σY2 .
Herunterladen