Stochastik I, HU Berlin, SS 2013

Werbung
Humboldt-Universität zu Berlin
Institut für Mathematik
Prof. Dr. U. Horst
Stochastik I SS 2013
Übungsblatt 9 - Musterlösungen
1.
[Gemeinsame Verteilung unabhängiger Zufallsvariablen] Nach Definition sind X1 , . . . , Xn genau dann unabhängig, wenn gilt:
"
#
\
Y
P
{Xi ∈ Ai } =
P [Xi ∈ Ai ]
i∈J
i∈J
für alle endlichen Teilmengen J ⊆ {1, . . . , n} und Ai ∈ B(R), i ∈ J.
Hinrichtung: Seien X1 , . . . , Xn unabhängig, dann können wir insbesondere J = {1, . . . , n}
wählen und erhalten:
"n
#
n
n
Y
Y
\
P [Xi ∈ Ai ] =
µi (Ai )
µ̄(A1 × · · · × An ) = P
{Xi ∈ Ai } =
i=1
i=1
i=1
für alle A1 , . . . , An ∈ B(R).
Q
Rückrichtung: Es gelte µ̄(A1 × · · · × An ) = ni=1 µi (Ai ) für alle A1 , . . . , An ∈ B(R). Dann
gilt auch für beliebiges J ⊆ {1, . . . , n} und Ai ∈ B(R), i ∈ J:
"
#
n
Y
\
Y
P
{Xi ∈ Ai } = µ̄(Ã1 × · · · × Ãn ) =
µi (Ãi ) =
P [Xi ∈ Ai ] ,
i=1
i∈J
i∈J
mit
(
Ai
Ãi =
R
falls i ∈ J,
falls i ∈
/ J.
1. Diese Aussage folgt unmittelbar aus Satz 11.5, da die Zylindermengen A1 × · · · × An
mit A1 , . . . , An ∈ B(R) einen ∩-stabilen Erzeuger der σ-Algebra B(Rn ) bilden.
2. Diese Aussage folgt aus dem Satz von Fubini.
3. Sei A ∈ B(Rn ), wegen Satz 11.5 können wir annehmen,
Q dass A = A1 × · · · × An mit
A1 , . . . , An ∈ B(R). Dann gilt nach 2. für ϕ = 1A f¯ = ni=1 1Ai fi :
µ̄(A) =
=
=
n
Y
µi (Ai )
i=1
n Z
Y
fi (xi ) dxi
i=1 Ai
n Z
Y
1Ai fi (xi ) dxi
R
i=1
Z
Z
···
=
R
Z
=
Rn
R
n
Y
!
1Ai (xi )fi (xi )
dx1 · · · dxn
i=1
1A (x1 , . . . , xn )f¯((x1 , . . . , xn )) d(x1 , . . . , xn ).
Da
Z
f¯((x1 , . . . , xn )) d(x1 , . . . , xn ) =
Rn
n Z
Y
i=1
fi (xi ) dxi = 1,
R
R
ist µ̄(A) = A f¯((x1 , . . . , xn ))d(x1 , . . . , xn ), A ∈ B(Rn ), ein Wahrscheinlichkeitsmaß auf
(Rn , B(Rn )). Mit dem Eindeutigkeitssatz für Maße (Satz 11.5) ist µ̄ eindeutig festgelegt.
2.
[2-dimensionale Normalverteilung] Seien X, Y gemeinsam normalverteilt mit Dichtefunktion
fX,Y und unkorreliert. Um Unabhängigkeit zu zeigen, genügt es wegen Aufgabe 1 zu zeigen,
dass gilt:
fX,Y (x, y) = fX (x)fY (y)
für alle x, y ∈ R. Da Cov(X, Y ) = 0, gilt:
2
σX 0
Σ=
,
0 σY2
Σ
−1
=
2
1/σX
0
0
1/σY2
,
und damit:
T
!
1 x − µX
−1 x − µX
exp −
Σ
fX,Y (x, y) = p
y − µY
2 y − µY
2π det(Σ)
1 (x − µX )2 (y − µY )2
1
exp −
= q
+
2
2
σX
σY2
2 σ2
2π σX
Y
(x − µX )2
(y − µY )2
1
1
q
q
exp −
exp −
=
·
2
2σX
2σY2
2
2πσX
2πσY2
1
= fX (x)fY (y).
3.
[Exponentialverteilung] Sei (Ω, A, P) derart gegeben, dass die Zufallsvariable X exponentialverteilt mit Parameter α > 0 ist. Sei Fα die zugehörige Verteilungsfunktion, also:
Fα (x) = 1 − exp(−αx).
(a) Es gilt nach Definition der bedingten Wahrscheinlichkeit von Übungsblatt 3 gilt allgemein für 0 ≤ s ≤ t:
P[X > t | X > s] =
=
=
=
=
P[{X > t} ∩ {X > s}]
P[X > s]
P[X > t]
P[X > s]
1 − Fα (t)
1 − Fα (s)
exp(−tα)
exp(−sα)
exp(−(t − s)α).
D.h. also, die Exponentialverteilung hat kein Gedächtnis. Die Wahrscheinlichkeit, dass
der Laptop mind. t Jahre funktioniert, wenn es schon s Jahre funktioniert hat, ist also
genau so groß wie die Wahrscheinlichkeit, dass das Radio beim Kauf noch mind. t − s
Jahre funktioniert.
Konkret gilt nun:
P[{X > 5} ∩ {X > 3}]
P[X > 3]
exp(−5α)
=
exp(−3α)
= exp(−2α).
P[X > 5 | X > 3] =
(b) Es gilt für z ∈ N0 :
P[bXc = z] = P[X ∈ [z, z + 1)]
= Fα (z + 1) − Fα (z)
= exp(−αz) − exp(−α(z + 1))
= exp(−α)z · (1 − exp(−α))
= (1 − p)z · p
mit p := 1 − exp(−α). bXc ist also geometrisch verteilt zum Parameter p.
4.
[Warteproblem] Wir betrachten zwei unabhängige und exponentialverteilte Zufallsvariablen
X, Y mit Parametern α > 0 bzw. β > 0 auf einem entsprechenden Wahrscheinlichkeitsraum
(Ω, A, P). Dann gilt für die Zufallsvariable Z := min(X, Y ):
P[Z ≤ z] = P[min(X, Y ) ≤ z]
= P[X ≤ z, Y ≤ z] + P[X ≤ z, Y > z] + P[X > z, Y ≤ z]
= P[X ≤ z]P[Y ≤ z] + P[X ≤ z]P[Y > z] + P[X > z]P[Y ≤ z]
= (1 − exp (−αz)) · (1 − exp (−βz))
+ (1 − exp (−αz)) · exp (−βz)
+ exp (−αz) · (1 − exp (−βz))
= 1 − exp (−αz) − exp (−βz) + exp (−αz) · exp (−βz)
+ exp (−βz) − exp (−αz) · exp (−βz)
+ exp (−αz) − exp (−αz) · exp (−βz)
= 1 − exp (−αz) · exp (−βz)
= 1 − exp (−(α + β)z) .
Damit ist Z wieder exponentialverteilt mit Parameter γ := α + β > 0.
Seien nun in unserem Fall die Zufallsvariablen X und Y , die Zeiten bis zum Eintreffen der S8
bzw. S9, exponentialverteilt. Da die Exponentialverteilung gedächtnislos ist (siehe Aufgabe
3), können wir annehmen, dass die Zeiten bis zum Eintreffen der nächsten S8 bzw. S9 bei
unserer Ankunft zu laufen beginnen. Die Wartezeit auf die erste Bahn nach Adlershof ist
gegeben durch Z := min(X, Y ). Der Erwartungswert einer zum Paramter α exponentialver1
bzw.
teilen Zufallsvariable ist α1 , d.h. X und Y sind exponentialverteilt zum Parameter 10
1
.
Wegen
Unabhängigkeit
von
X
und
Y
gilt
für
z
∈
[0,
∞):
15
P[Z ≤ z] = P[min(X, Y ) ≤ z]
z
z
= 1 − exp − 10
· 1 − exp − 15
z
z
+ 1 − exp − 10
· exp − 15
z
z
+ exp − 10
· 1 − exp − 15
z
z
− 15
= 1 − exp − 10
= 1 − exp − z6 .
Folglich ist die Wartezeit exponentialverteilt mit Parameter 16 , der Erwartungswert ist demnach 6 Minuten.
Herunterladen