Aufgabe 1 (4 Punkte) 1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum

Werbung
Aufgabe 1 (4 Punkte)
1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Wann heißen die Ereignisse A1 , . . . , An ∈ F paarweise
unabhängig, wann heißen sie (vollständig) unabhängig ?
2. Man werfe n-mal eine faire Münze, n ≥ 3. Dabei sei Ai,j , 1 ≤ i < j ≤ n, das Ereignis, dass im i-ten
und j-ten Wurf die Münze dasselbe zeigt. Geben Sie einen geeigneten Wahrscheinlichkeitsraum an
und zeigen Sie, dass die Ereignisse {Ai,j : 1 ≤ i < j ≤ n} paarweise unabhängig aber nicht vollständig
unabhängig sind.
1. Die Ereignisse A1 , . . . , An ∈ F heißen paarweise unabhängig, falls für alle i, j = 1, . . . , n, i 6= j gilt
P(Ai ∩ Aj ) = P(Ai )P(Aj ).
Die Ereignisse A1 , . . . , An ∈ F heißen vollständig unabhängig, falls für alle I ⊆ {1, . . . , n} gilt
\
Y
P( Ai ) =
P(Ai )
i∈I
i∈I
n
2. Für n ≥ 3 sei Ω = Ωn = {K, Z} = {(ω1 , . . . , ωn ) : ωi ∈ {K, Z} , i = 1, . . . , n}.
Dann gilt |Ω| = 2n . Setze A = P(Ω) und P : A → [0, 1] als
P(A) =
|A|
.
|Ω|
Dann ist (Ω, A, P) ein geeigneter Wahrscheinlichkeitsraum.
Für 1 ≤ i < j ≤ n gilt
Ai,j = {ω ∈ Ω : ωi = ωj } = {ω ∈ Ω : ωi = ωj = K} ∪ {ω ∈ Ω : ωi = ωj = Z} ,
1
|Ai,j | = 2n−1 ⇒ P(Ai,j ) = .
2
Für die paarweise Unabhängigkeit unterscheiden wir verschiedene Fälle. Betrachte i < j, k < l paarweise verschiedene Indizes, dann gilt
Ai,j ∩ Ak,l = {ω ∈ Ω : ωi = ωj , ωk = ωl }
= {ω ∈ Ω : ωi = ωj = ωk = ωl = K} ∪ {ω ∈ Ω : ωi = ωj = ωk = ωl = Z}
|Ai,j
∪ {ω ∈ Ω : ωi = ωj = K, ωk = ωl = Z} ∪ {ω ∈ Ω : ωi = ωj = Z, ωk = ωl = K} ,
1
∩ Ak,l | =4 · 2n−4 = 2n−2 ⇒ P(Ai,j ∩ Ak,l ) = = P(Ai,j )P(Ak,l ).
4
Betrachte nun den Fall, dass zwei Indizes übereinstimmen o.E sei i < j = k < l:
Ai,j ∩ Aj,l = {ω ∈ Ω : ωi = ωj = ωl }
|Ai,j
= {ω ∈ Ω : ωi = ωj = ωl = K} ∪ {ω ∈ Ω : ωi = ωj = ωl = Z} ,
1
∩ Aj,l | =2 · 2n−3 = 2n−2 ⇒ P(Ai,j ∩ Aj,l ) = = P(Ai,j )P(Aj,l ).
4
Es gilt also im Allgemeinen
P(Ai,j ∩ Ak,l ) = P(Ai,j )P(Ak,l )
Die Ai,j sind paarweise unabhängig.
für (i, j) 6= (k, l).
Als Gegenbeispiel für die vollständige Unabhängigkeit betrachte
A1,2 ∩ A1,3 ∩ A2,3 = A1,2 ∩ A1,3
1
1
⇒ P(A1,2 ∩ A1,3 ∩ A2,3 ) = 6= = P(A1,2 )P(A1,3 )P(A2,3 ).
4
8
Die Ai,j sind nicht vollständig unabhängig.
Alternativ: Ein weiteres Gegenbeispiel wäre
\
B:=
Ai,j = {(K, K, . . . , K) , (Z, Z, . . . , Z)} ,
1≤i<j≤n
|B| = 2 ⇒ P(B) =
1
.
2n−1
Andererseits gilt
Y
1≤i<j≤n
P(Ai,j ) =
1
2
n·(n−1)
2
<
1
2n−1
= P(B)
für n ≥ 3.
Aufgabe 2 (3 Punkte)
1. Es seien X und Y zwei unabhängige, Geom(p)-verteilte Zufallsvariablen zum Parameter p ∈ (0, 1).
Bestimmen Sie die Verteilung der Summe Z := X + Y .
2. Die Messergebnisse eines Werkstücks seien gemäß N (µ, σ 2 ) verteilt, µ ∈ R, σ > 0. Wie groß ist
die Wahrscheinlichkeit, bei n unabhängigen Messungen genau k-mal einen Messwert größer als µ zu
beobachten, wobei n ∈ N und 0 ≤ k ≤ n.
1. Offensichtlich gilt für n < 2, dass P(Z = n) = 0.
Sei also n ∈ N, n ≥ 2. Da X und Y unabhängig sind, nutzen wir die Faltungsformel für diskrete ZV:
P(Z = n) =
∞
X
P(X = k)P(Y = n − k)
k=−∞
Für k < 1 ist P(X = k) = 0 und für k > n − 1 ist P(Y = n − k) = 0. Daher gilt
P(Z = n) =
n−1
X
P(X = k)P(Y = n − k)
k=1
=
n−1
X
p(1 − p)k−1 p(1 − p)n−k−1
k=1
=
n−1
X
p2 (1 − p)n−2
k=1
= (n − 1)p2 (1 − p)n−2 .
2. Aufgrund der Symmetrie der Normalverteilung um den Erwartungswert ist die Wahrscheinlichkeit,
dass ein Messwert größer als µ ist, genau 21 . Sei X die Anzahl der Messergebnisse größer als µ. Dann
gilt X ∼ Bin(n, 12 ) und daher gilt
P(X = k) =
n
n
1
.
k
2
Aufgabe 3 (3 Punkte)
Es sei X ∼ N (0, 1). Bestimmen Sie die Verteilungsdichte von Y = |X| − 1 und den Erwartungswert EY .
Wir berechnen erst die Verteilungsfunktion von Y : Offensichtlich gilt für t < −1, dass P(Y ≤ t) = 0. Sei
also t ≥ −1. Dann gilt
FY (t) = P(|X| − 1 ≤ t) = P(|X| ≤ t + 1) = P(−t − 1 ≤ X ≤ t + 1) = Φ(t + 1) − Φ(−t − 1) = 2Φ(t + 1) − 1.
Daher folgt für die Verteilungsdichte:
(
fY (t) = 2ϕ(t + 1)I[−1,∞) (t) =
√2
2π
2
,
exp − (t+1)
2
0,
t ≥ −1
sonst.
Für den Erwartungswert gilt:
EY = E|X| − 1.
Um E|X| zu berechnen nutzen wir, dass X eine symmetrische Dichte hat.
r Z ∞
r 2
2
2 ∞ r
Z ∞
x
x
2
d x2
2
2
x
x
√ exp
E|X| = 2
dx =
exp −
dx =
− exp −
=
.
2
π
dx
2
2
π
2
π
2π
0
0
0
q
Es gilt also EY = π2 − 1.
Aufgabe 4 (5 Punkte)
Es sei ρ ∈ [0, 1) und X und Y Zufallsvariablen mit gemeinsamer Dichtefunktion
1
1
2
2
p
exp −
x − 2ρxy + y
,
f(X,Y ) (x, y) =
2 (1 − ρ2 )
2π 1 − ρ2
x, y ∈ R.
1. Zeigen Sie, dass (X, Y )T zweidimensional normalverteilt ist und bestimmen Sie Mittelwertvektor und
Kovarianzmatrix.
√−ρX)
2. Zeigen Sie, dass X und Z := (Y
unabhängige N (0, 1)–verteilte Zufallsvariablen sind.
2
1−ρ
1. Betrachte
1
1
x
x2 − 2ρxy + y 2 =
2
1−ρ
1 − ρ2
y
1 −ρ
−ρ 1
x
= x
y
y
1
1−ρ2
ρ
− 1−ρ
2
ρ
− 1−ρ
2
1
1−ρ2
x
.
y
Wir invertieren die Matrix
1
1−ρ2
ρ
− 1−ρ
2
ρ
− 1−ρ
2
−1
=
1
1−ρ2
1 ρ
ρ 1
=: Σ
det Σ = 1 − ρ2
Nach Hurwitz-Kriterium
(Hauptminoren-Kriterium) ist Σ positiv defninit, da ρ ∈ [0, 1).
0
Definiere nun µ :=
, dann gilt
0
1
x − µ1
f(X,Y ) (x, y) =
1 exp −
2
2π |det Σ| 2
1
y − µ2 Σ
−1
x − µ1
.
y − µ2
Damit gilt tatsächlich (X, Y )T ∼ N2 (µ, Σ).
2. Wir betrachten die lineare Transformation
! 1
0
X
X
1
= −√ ρ
√
Y
Z
1−ρ2
1−ρ2
|
{z
}
=:A
Aus der Vorlesung wissen wir, dass dann (X, Z)T ∼ N2 (Aµ, AΣAT ).
Offenbar ist Aµ = (0, 0)T . Bleibt noch zu berechnen


!
1 −√ ρ
1
0
1 ρ 
1−ρ2 
AΣAT = − √ ρ
1
√1 2
√
ρ
1
0
2
1−ρ
1−ρ
2
1−ρ

1
p ρ

0
1 − ρ2
1 0
=
0 1
=
1
0

−√ ρ 2
1−ρ 
√1 2
1−ρ
Damit folgt: X, Z sind unabhängige standardnormalverteilte Zufallsvariablen.
Alternativ: wir wissen aus dem ersten Teil, dass X, Y ∼ N (0, 1) und Kov(X, Y ) = ρ. Außerdem ist der
Vektor (X, Z)T eine lineare Transformation des Vektors (X, Y )T und somit ebenfalls zweidimensional
normalverteilt. Damit ist Z ebenfalls normalverteilt. Wir berechnen also
1
ρ
Y − ρX
=p
EY − p
EX = 0
EZ = E p
1 − ρ2
1 − ρ2
1 − ρ2
!
Y − ρX
1
Var(Z) = Var p
Var(Y − ρX)
=
2
1
−
ρ2
1−ρ
=
1 1
Var(Y ) + ρ2 Var(X) − 2ρ Kov(X, Y ) =
1 + ρ2 − 2ρ2 = 1.
2
2
1−ρ
1−ρ
damit ist Z ∼ N (0, 1). Die Unabhängigkeit ist äquivalent zur Unkorreliertheit, da (X, Z)T zweidimensional normalverteilt ist.
!
1
ρ
ρ
Y − ρX
ρ
=p
Kov(X, Y ) − p
Kov(X, X) = p
−p
= 0.
Kov(X, Z) = Kov X, p
2
2
2
2
|
{z
}
1−ρ
1−ρ
1−ρ
1−ρ
1 − ρ2
=Var(X)
Damit sind X, Z unabhängig.
Anmerkung: Da häufig Fehler beim Invertieren aufgetreten sind, welche sich dann auf spätere Teile ausgewirkt
haben, sei nochmal darauf hingewiesen, dass es sinnvoll ist ΣΣ−1 = Id zu prüfen.
Aufgabe 5 (5 Punkte)
1. Formulieren Sie den integralen Satz von Moivre-Laplace.
2. Wie oft muss ein fairer Würfel geworfen werden, damit mit einer Wahrscheinlichkeit von mindestens
95% die Häufigkeit, mit der die Zahl 6 geworfen wird, um höchstens 0.1 von 1/6 abweicht? Approximieren Sie die Lösung
a) mit Hilfe des Satzes von Moivre-Laplace und
b) mit Hilfe der Tschebyscheff-Ungleichung.
1. Sei p ∈ (0, 1). Für n ∈ N sei Sn,p ∼ Bin(n, p), dann gilt
!
Sn,p − np
n→∞
≤ b −→ Φ(b) − Φ(a),
P a≤ p
np(1 − p)
gleichmäßig für alle −∞ ≤ a ≤ b ≤ ∞, wobei Φ die Verteilungsfunktion der Standardnormalverteilung
ist.
2. Sei Sn die Anzahl an 6-en bei n Würfen. Dann ist Sn ∼ Bin(n, 61 ). Setze α = 0.95, ε = 0.1, p = 16 .
a) Es gilt
!
√
√
Sn
1
S
−
np
nε
S
−
np
nε
n
n
− ≤ ε = P −ε ≤
≤ ε = P −p
α ≤ P ≤p
≤p
n
6
n
p(1 − p)
np(1 − p)
p(1 − p)
!
!
!
√
√
√
nε
nε
nε
− Φ −p
= 2Φ p
− 1.
≈Φ p
p(1 − p)
p(1 − p)
p(1 − p)
Wir wollen also
!
√
nε
α+1
α ≤ 2Φ p
−1⇔
= 0.975 ≤ Φ
2
p(1 − p)
√
nε
!
p
p(1 − p)
√
nε
1.962 p(1 − p)
5
Tabelle nachschauen
p
⇔n≥
⇔
1.96 ≤
= 19.62 ·
2
ε
36
p(1 − p)
b) Mit Hilfe der Tschebyscheff-Ungleichung erhalten wir
Sn
Sn
Var(Sn )
1
p(1 − p)
P − ≤ ε = 1 − P − p > ε ≥ 1 −
=1−
n
6
n
n2 ε2
nε2
Um sicher zu gehen, dass P( Snn − 61 ≤ ε) ≥ α, ist es hinreichend, dass
1−
p(1 − p)
p(1 − p)
p(1 − p)
5
≥α⇔1−α≥
⇔n≥
= 2000 · .
2
2
2
nε
nε
(1 − α)ε
36
Aufgabe 6 (4 Punkte)
Sei X1 , . . . , Xn eine Stichprobe für eine Zufallsvariable X mit Dichtefunktion
(
θxθ−1 0 ≤ x ≤ 1,
f (x; θ) =
0
sonst,
für ein θ > 0.
1. Bestimmen Sie den Schätzer θn∗ nach der Momentenmethode für den unbekannten Parameter θ.
2. Bestimmen Sie den Schätzer θ̂n nach der Maximum-Likelihood-Methode für den unbekannten Parameter θ.
1. Berechne
Z1
m(θ) := Eθ X =
θxθ dx =
1
θ
θ
1
xθ+1 0 =
=1−
.
θ+1
θ+1
θ+1
0
Für den Momentenschätzer
θn∗
gilt
X n = m(θn∗ ) = 1 −
1
1
Xn
⇔ θn∗ =
−1=
.
θn∗ + 1
1 − Xn
1 − Xn
2. Betrachte die Likelihoodfunktion
n
Y
L(x1 , . . . , xn , θ) =
k=1
f (xk , θ) =
n
Y
θxθ−1
1[0,1] (xk ).
k
k=1
Falls ein k ∈ {1, . . . , n} existiert mit xk ∈
/ (0, 1], dann ist L(x1 , . . . , xn , θ) = 0 für alle θ > 0. Daher
betrachte den Fall xk ∈ (0, 1] für alle k.
L(x1 , . . . , xn , θ) = θn
n
Y
xθ−1
k
k=1
l(x1 , . . . , xn , θ) := log(L(x1 , . . . , xn , θ)) = n log(θ) + (θ − 1)
n
X
log(xk )
k=1
n
n X
n
∂
l(x1 , . . . , xn , θ) = +
log(xk ) = 0 ⇔ θ = − P
> 0.
n
∂θ
θ
k=1
log(xk )
k=1
Um ein Maximum nachzuweisen berechne die zweite Ableitung
∂2
n
l(x1 , . . . , xn , θ) = − 2 < 0 für alle θ.
∂θ2
θ
Daher ist der Maximum-Likelihood-Schätzer gegeben durch
n
θ̂n = − Pn
.
log(X
k)
k=1
Anmerkung:
• Es wurden keine Punkte abgezogen, wenn man die Indikatorvariablen nicht betrachtet hat, da diese hier
unabhängig von θ waren. Man sollte sich jedoch im Klaren sein, dass es wichtig ist sie zu betrachten,
falls sie von θ abhängen.
• Um Fehler zu vermeiden, sollte man sich klar machen, ob die berechneten Schätzer logisch erscheinen,
insbesondere sollten sie bei der gegeben Aufgabe positiv sein, aber auch tatsächlich in Abhängigkeit
von der Stichprobe jede positive Zahl annehmen können.
Herunterladen