Lösung 11

Werbung
MAE4 – Mathematik: Analysis für Ingenieure 4
Dr. Christoph Kirsch
Frühlingssemester 2015
ZHAW Winterthur
Lösung 11
Aufgabe 1 :
Siehe Lösung 10.
Aufgabe 2 :
a) Aus der Tabelle lesen wir die Bilder der diskreten Zufallsvariablen X1 und X2
ab:
im(X1 ) = {−2, 0, 1, 2}, im(X2 ) = {4, 5, 6},
(1)
und damit
im(X) = im(X1 ) × im(X2 ) = {−2, 0, 1, 2} × {4, 5, 6} ⊆ R2 .
(2)
Wir berechnen die Randwahrscheinlichkeitsfunktionen fX1 , fX2 durch Summation über die Zeilen und Spalten der Tabelle:
x1
x2
fX
4
5
6
fX1
−2
0.12
0.04
0.08
0.24
0
0.11
0.14
0.15
0.40
1
0.09
0.03
0.02
0.14
2
0.04
0.13
0.05
0.22
fX2
0.36
0.34
0.30
1
Damit berechnen wir die Erwartungswerte von X1 , X2 (Def. 8 der Vorlesung):
X
E[X1 ] =
xi fX1 (xi ) = −2 · 0.24 + 0 · 0.40 + 1 · 0.14 + 2 · 0.22 (3)
xi ∈im(X1 )
= 0.10,
X
E[X2 ] =
(4)
xi fX2 (xi ) = 4 · 0.36 + 5 · 0.34 + 6 · 0.30 = 4.94.
(5)
xi ∈im(X2 )
Die Varianzen von X1 , X2 (das sind die Diagonalelemente der Kovarianzmatrix)
berechnen wir mit Def. 9, 2., sowie mit der Formel (14) der Vorlesung:
X
V [X1 ] = E[(X1 − E[X1 ])2 ] =
(xi − 0.10)2 fX1 (xi )
(6)
xi ∈im(X1 )
= 4.41 · 0.24 + 0.01 · 0.40 + 0.81 · 0.14 + 3.61 · 0.22 = 1.97,
X
V [X2 ] = E[(X2 − E[X2 ])2 ] =
(xi − 4.94)2 fX2 (xi )
(7)
(8)
xi ∈im(X2 )
' 0.88 · 0.36 + 0.0036 · 0.34 + 1.12 · 0.30 ' 0.66.
1
(9)
Schliesslich verwenden wir die Def. 17 sowie den Satz 5 der Vorlesung, um die
Kovarianz von X1 und X2 zu berechnen: Cov(X1 , X2 ) =
E[(X1 − E[X1 ])(X2 − E[X2 ])]
X
X
=
(x1 − 0.10)(x2 − 4.94)fX (x1 , x2 )
(10)
(11)
x1 ∈im(X1 ) x2 ∈im(X2 )
=
X
x1 ∈im(X1 )
=
X
(x1 − 0.10)
X
(x2 − 4.94)fX (x1 , x2 )
(12)
x2 ∈im(X2 )
(x1 − 0.10) (−0.94 · fX (x1 , 4) + 0.06 · fX (x1 , 5) + 1.06 · fX (x1 , 6))
x1 ∈im(X1 )
= −2.1 (−0.94 · fX (−2, 4) + 0.06 · fX (−2, 5) + 1.06 · fX (−2, 6)) +
−0.1 (−0.94 · fX (0, 4) + 0.06 · fX (0, 5) + 1.06 · fX (0, 6)) +
+0.9 (−0.94 · fX (1, 4) + 0.06 · fX (1, 5) + 1.06 · fX (1, 6)) +
+1.9 (−0.94 · fX (2, 4) + 0.06 · fX (2, 5) + 1.06 · fX (2, 6))
' 0.036.
Wir erhalten also die Kovarianzmatrix
1.97 0.036
.
ΣX '
0.036 0.66
(13)
(14)
(15)
b) Gemäss Satz 8, 4., impliziert die stochastische Unabhängigkeit von X1 und X2 :
Cov(X1 , X2 ) = 0. Da wir aber Cov(X1 , X2 ) ' 0.036 6= 0 berechnet haben,
können X1 und X2 nicht stochastisch unabhängig sein.
Mit diesem Argument brauchen wir nicht die 12 Produkte fX1 (x1 )fX2 (x2 ) mit
fX (x1 , x2 ), (x1 , x2 ) ∈ im (X), zu vergleichen (Satz 4 der Vorlesung).
c) Für den Korrelationskoeffizienten berechnen wir mit Def. 18 der Vorlesung:
0.036
σX1 X2
√
' 0.032.
(16)
'√
rX1 X2 =
σX1 σX2
1.97 0.66
(x ,x )
0.4
2
0.2
1
0.1
2
(X ,X )
1
0.2
f
f
X
2
2
(x )
0.3
0.1
0
6
5
0
4
5
x
1
,X
2
4
2
0
-2
2
1
x1
2
(x 1 ,x 2 )
)
0.2
0.4
0.15
0.3
5
0.2
X
1
0.1
f
x
2
1
6
x
(x )
f (X
6
0.05
4
0
0
-2
0
x
1
0.1
2
-2
0
x
1
2
1
1
2
Aufgabe 3 :
a) Bei jeder einzelnen Durchführung des Zufallsexperiments handelt es sich um
eine Serie von 10 gleichartigen und unabhängigen Bernoulli-Experimenten
mit
3
3
6
Erfolgswahrscheinlichkeit 20 = 10 . Daher gilt Xi ∼ B 10, 10 , i = 1, 2, . . . , 100.
Weil die 100 Durchführungen des Zufallsexperiments unabhängig voneinander
sind, so gilt gemäss Kap. 1.6.3 der Vorlesung:
!
100
100
X
X
3
3
Y =
Xi ∼ B
10,
= B 1000,
.
(17)
10
10
i=1
i=1
Dieselbe Wahrscheinlichkeitsverteilung erhalten wir auch, wenn wir 1000 Kugeln
mit Zurücklegen aus der Urne ziehen, und die Zufallsvariable Y als die Anzahl
der gezogenen roten Kugeln definieren.
100 unabhängige Durchführungen mit Ziehung von je 10 Kugeln ergeben also
dieselbe Wahrscheinlichkeitsverteilung für die Gesamtzahl der gezogenen roten
Kugeln wie eine einzige Durchführung mit Ziehung von 1000 Kugeln.
b) Die Zufallsvariable Xi beschreibt die Anzahl der Misserfolge in einer Serie
von unabhängigen und gleichartigen Bernoulli-Experimenten mit Erfolgswahr
3
3
, bis 5 Erfolge erzielt wurden. Es gilt also Xi ∼ N B 5, 10
,
scheinlichkeit 10
i = 1, 2, . . . , 10. Weil die 10 Durchführungen des Zufallsexperiments unabhängig
voneinander sind, so gilt gemäss Kap. 1.6.3 der Vorlesung:
!
10
10
X
X
3
3
= N B 50,
.
(18)
Y =
Xi ∼ N B
5,
10
10
i=1
i=1
Dieselbe Wahrscheinlichkeitsverteilung erhalten wir auch, wenn wir so lange Kugeln mit Zurücklegen aus der Urne ziehen, bis genau 50 rote Kugeln gezogen
wurden, und die Zufallsvariable Y als die Anzahl der gezogenen nicht-roten Kugeln definieren.
10 unabhängige Durchführungen mit Ziehung von Kugeln, bis jeweils genau
5 rote Kugeln gezogen wurden, ergeben also dieselbe Wahrscheinlichkeitsverteilung für die Gesamtzahl der gezogenen nicht-roten Kugeln wie eine einzige
Durchführung mit Ziehung von Kugeln, bis genau 50 rote Kugeln gezogen wurden.
Aufgabe 4 :
a) Gemäss Kap. 1.6.3 der Vorlesung gilt
Y =
100
X
Xi ∼ N
i=1
100
X
i=1
µi ,
100
X
!
σi2
.
(19)
i=1
b) Die linearen Transformationen sind von der Form Zi = ai +bi Xi , mit ai := − µσii ∈
R und bi := σ1i > 0. Daher gelten
µi
1
1 2
2 2
Zi ∼ N (ai + bi µi , bi σi ) = N − + µi , 2 σi = N (0, 1), i = 1, 2, . . . , 100.
σi σi
σi
(20)
3
Wie erwartet sind also die standardisierten Zufallsvariablen Zi standardnormalverteilt.
c) Gemäss Kap. 1.6.3 der Vorlesung sind die Summen der Quadrate von standardnormalverteilten Zufallsvariablen χ2 -verteilt:
S1 =
20
X
Zi2 ∼ χ220 ,
S2 =
100
X
Zi2 ∼ χ280 .
(21)
i=21
i=1
d) Gemäss Kap. 1.6.3 der Vorlesung gilt, mit n1 := 20 und n2 := 80:
S1 /20
∼ F20,80 .
S2 /80
1
(22)
1
N(0,1)
F20,80
0.8
0.8
F(x)
0.6
F(x)
0.6
0.4
0.4
0.2
0.2
χ 220
χ 280
0
0
-3
-2
-1
0
1
2
3
0
20
x
40
60
80
100
x
Aufgabe 5 :
8
8
a) Die Erfolgswahrscheinlichkeit bei jeder Ziehung beträgt p = 8+12
= 20
= 25 ,
also gilt X ∼ B 200, 25 . Die gesuchte Wahrscheinlichkeit ist gegeben durch die
Summe
k 200−k
90 X
200
2
3
.
(23)
“P (20 ≤ X ≤ 90)” =
k
5
5
k=20
Zur Auswertung in MATLAB können wir z. B. die Befehle
sum(binopdf(20:90,200,2/5))
oder
auch
binocdf(90,200,2/5) binocdf(19,200,2/5) verwenden. Wir erhalten
“P (20 ≤ X ≤ 90)” ' 93 %.
(24)
b) Aus Kap. 1.6.4 der Vorlesung wissen wir, dass die (kumulative) Verteilungsfunktion von X näherungsweise gegeben ist durch


√
√ !
2
x − 200 · 5
x
−
80
x
−
80
3
20
3
=Φ √
√
FX (x) ' Φ  q
=Φ
=Φ
x−
,
12
3
48
4 3
200 · 2 3
55
(25)
4
für x ∈ R, wobei Φ die (kumulative) Verteilungsfunktion einer standardnormalverteilten Zufallsvariablen (N (0, 1)) bezeichnet. Die gesuchte Wahrscheinlichkeit
lässt sich daher auch näherungsweise berechnen als
√ !
√ !
61 3
5 3
−Φ −
. (26)
“P (20 ≤ X ≤ 90)” = FX (90) − FX (19) ' Φ
6
12
√
√
Mit 5 6 3 ' 1.44 und − 6112 3 ' −8.80 erhalten wir mit der Tabelle in der Formelsammlung von Papula (S. 508):
√ !
√ !
5 3
61 3
Φ
' 0.9251, Φ −
' Φ(−8.80) = 1 − Φ(8.80) ' 1 − 1 = 0,
6
12
(27)
also “P (20 ≤ X ≤ 90)” ' 93 %. Die Näherung ist sehr gut, wenn man bedenkt,
dass man sich das Auswerten einer Summe mit 71 Summanden, von denen jeder
noch einen grossen Binomialkoeffizienten enthält, erspart!
c) die “Faustregel” aus der Vorlesung verlangt np(1 − p) ≥ 9, damit die Näherung
hinreichend gut ist. Hier haben wir
np(1 − p) = 200 ·
23
= 48 > 9,
55
(28)
also ist die Faustregel erfüllt.
1
0.9
0.8
0.7
FX (x)
0.6
0.5
0.4
0.3
0.2
B(200,2/5)
Normalapproximation
0.1
0
60
65
70
75
80
x
Vorlesungswebseite: http://home.zhaw.ch/~kirs/MAE4
5
85
90
95
100
Zugehörige Unterlagen
Herunterladen