MAE4 – Mathematik: Analysis für Ingenieure 4 Dr. Christoph Kirsch Frühlingssemester 2015 ZHAW Winterthur Lösung 11 Aufgabe 1 : Siehe Lösung 10. Aufgabe 2 : a) Aus der Tabelle lesen wir die Bilder der diskreten Zufallsvariablen X1 und X2 ab: im(X1 ) = {−2, 0, 1, 2}, im(X2 ) = {4, 5, 6}, (1) und damit im(X) = im(X1 ) × im(X2 ) = {−2, 0, 1, 2} × {4, 5, 6} ⊆ R2 . (2) Wir berechnen die Randwahrscheinlichkeitsfunktionen fX1 , fX2 durch Summation über die Zeilen und Spalten der Tabelle: x1 x2 fX 4 5 6 fX1 −2 0.12 0.04 0.08 0.24 0 0.11 0.14 0.15 0.40 1 0.09 0.03 0.02 0.14 2 0.04 0.13 0.05 0.22 fX2 0.36 0.34 0.30 1 Damit berechnen wir die Erwartungswerte von X1 , X2 (Def. 8 der Vorlesung): X E[X1 ] = xi fX1 (xi ) = −2 · 0.24 + 0 · 0.40 + 1 · 0.14 + 2 · 0.22 (3) xi ∈im(X1 ) = 0.10, X E[X2 ] = (4) xi fX2 (xi ) = 4 · 0.36 + 5 · 0.34 + 6 · 0.30 = 4.94. (5) xi ∈im(X2 ) Die Varianzen von X1 , X2 (das sind die Diagonalelemente der Kovarianzmatrix) berechnen wir mit Def. 9, 2., sowie mit der Formel (14) der Vorlesung: X V [X1 ] = E[(X1 − E[X1 ])2 ] = (xi − 0.10)2 fX1 (xi ) (6) xi ∈im(X1 ) = 4.41 · 0.24 + 0.01 · 0.40 + 0.81 · 0.14 + 3.61 · 0.22 = 1.97, X V [X2 ] = E[(X2 − E[X2 ])2 ] = (xi − 4.94)2 fX2 (xi ) (7) (8) xi ∈im(X2 ) ' 0.88 · 0.36 + 0.0036 · 0.34 + 1.12 · 0.30 ' 0.66. 1 (9) Schliesslich verwenden wir die Def. 17 sowie den Satz 5 der Vorlesung, um die Kovarianz von X1 und X2 zu berechnen: Cov(X1 , X2 ) = E[(X1 − E[X1 ])(X2 − E[X2 ])] X X = (x1 − 0.10)(x2 − 4.94)fX (x1 , x2 ) (10) (11) x1 ∈im(X1 ) x2 ∈im(X2 ) = X x1 ∈im(X1 ) = X (x1 − 0.10) X (x2 − 4.94)fX (x1 , x2 ) (12) x2 ∈im(X2 ) (x1 − 0.10) (−0.94 · fX (x1 , 4) + 0.06 · fX (x1 , 5) + 1.06 · fX (x1 , 6)) x1 ∈im(X1 ) = −2.1 (−0.94 · fX (−2, 4) + 0.06 · fX (−2, 5) + 1.06 · fX (−2, 6)) + −0.1 (−0.94 · fX (0, 4) + 0.06 · fX (0, 5) + 1.06 · fX (0, 6)) + +0.9 (−0.94 · fX (1, 4) + 0.06 · fX (1, 5) + 1.06 · fX (1, 6)) + +1.9 (−0.94 · fX (2, 4) + 0.06 · fX (2, 5) + 1.06 · fX (2, 6)) ' 0.036. Wir erhalten also die Kovarianzmatrix 1.97 0.036 . ΣX ' 0.036 0.66 (13) (14) (15) b) Gemäss Satz 8, 4., impliziert die stochastische Unabhängigkeit von X1 und X2 : Cov(X1 , X2 ) = 0. Da wir aber Cov(X1 , X2 ) ' 0.036 6= 0 berechnet haben, können X1 und X2 nicht stochastisch unabhängig sein. Mit diesem Argument brauchen wir nicht die 12 Produkte fX1 (x1 )fX2 (x2 ) mit fX (x1 , x2 ), (x1 , x2 ) ∈ im (X), zu vergleichen (Satz 4 der Vorlesung). c) Für den Korrelationskoeffizienten berechnen wir mit Def. 18 der Vorlesung: 0.036 σX1 X2 √ ' 0.032. (16) '√ rX1 X2 = σX1 σX2 1.97 0.66 (x ,x ) 0.4 2 0.2 1 0.1 2 (X ,X ) 1 0.2 f f X 2 2 (x ) 0.3 0.1 0 6 5 0 4 5 x 1 ,X 2 4 2 0 -2 2 1 x1 2 (x 1 ,x 2 ) ) 0.2 0.4 0.15 0.3 5 0.2 X 1 0.1 f x 2 1 6 x (x ) f (X 6 0.05 4 0 0 -2 0 x 1 0.1 2 -2 0 x 1 2 1 1 2 Aufgabe 3 : a) Bei jeder einzelnen Durchführung des Zufallsexperiments handelt es sich um eine Serie von 10 gleichartigen und unabhängigen Bernoulli-Experimenten mit 3 3 6 Erfolgswahrscheinlichkeit 20 = 10 . Daher gilt Xi ∼ B 10, 10 , i = 1, 2, . . . , 100. Weil die 100 Durchführungen des Zufallsexperiments unabhängig voneinander sind, so gilt gemäss Kap. 1.6.3 der Vorlesung: ! 100 100 X X 3 3 Y = Xi ∼ B 10, = B 1000, . (17) 10 10 i=1 i=1 Dieselbe Wahrscheinlichkeitsverteilung erhalten wir auch, wenn wir 1000 Kugeln mit Zurücklegen aus der Urne ziehen, und die Zufallsvariable Y als die Anzahl der gezogenen roten Kugeln definieren. 100 unabhängige Durchführungen mit Ziehung von je 10 Kugeln ergeben also dieselbe Wahrscheinlichkeitsverteilung für die Gesamtzahl der gezogenen roten Kugeln wie eine einzige Durchführung mit Ziehung von 1000 Kugeln. b) Die Zufallsvariable Xi beschreibt die Anzahl der Misserfolge in einer Serie von unabhängigen und gleichartigen Bernoulli-Experimenten mit Erfolgswahr 3 3 , bis 5 Erfolge erzielt wurden. Es gilt also Xi ∼ N B 5, 10 , scheinlichkeit 10 i = 1, 2, . . . , 10. Weil die 10 Durchführungen des Zufallsexperiments unabhängig voneinander sind, so gilt gemäss Kap. 1.6.3 der Vorlesung: ! 10 10 X X 3 3 = N B 50, . (18) Y = Xi ∼ N B 5, 10 10 i=1 i=1 Dieselbe Wahrscheinlichkeitsverteilung erhalten wir auch, wenn wir so lange Kugeln mit Zurücklegen aus der Urne ziehen, bis genau 50 rote Kugeln gezogen wurden, und die Zufallsvariable Y als die Anzahl der gezogenen nicht-roten Kugeln definieren. 10 unabhängige Durchführungen mit Ziehung von Kugeln, bis jeweils genau 5 rote Kugeln gezogen wurden, ergeben also dieselbe Wahrscheinlichkeitsverteilung für die Gesamtzahl der gezogenen nicht-roten Kugeln wie eine einzige Durchführung mit Ziehung von Kugeln, bis genau 50 rote Kugeln gezogen wurden. Aufgabe 4 : a) Gemäss Kap. 1.6.3 der Vorlesung gilt Y = 100 X Xi ∼ N i=1 100 X i=1 µi , 100 X ! σi2 . (19) i=1 b) Die linearen Transformationen sind von der Form Zi = ai +bi Xi , mit ai := − µσii ∈ R und bi := σ1i > 0. Daher gelten µi 1 1 2 2 2 Zi ∼ N (ai + bi µi , bi σi ) = N − + µi , 2 σi = N (0, 1), i = 1, 2, . . . , 100. σi σi σi (20) 3 Wie erwartet sind also die standardisierten Zufallsvariablen Zi standardnormalverteilt. c) Gemäss Kap. 1.6.3 der Vorlesung sind die Summen der Quadrate von standardnormalverteilten Zufallsvariablen χ2 -verteilt: S1 = 20 X Zi2 ∼ χ220 , S2 = 100 X Zi2 ∼ χ280 . (21) i=21 i=1 d) Gemäss Kap. 1.6.3 der Vorlesung gilt, mit n1 := 20 und n2 := 80: S1 /20 ∼ F20,80 . S2 /80 1 (22) 1 N(0,1) F20,80 0.8 0.8 F(x) 0.6 F(x) 0.6 0.4 0.4 0.2 0.2 χ 220 χ 280 0 0 -3 -2 -1 0 1 2 3 0 20 x 40 60 80 100 x Aufgabe 5 : 8 8 a) Die Erfolgswahrscheinlichkeit bei jeder Ziehung beträgt p = 8+12 = 20 = 25 , also gilt X ∼ B 200, 25 . Die gesuchte Wahrscheinlichkeit ist gegeben durch die Summe k 200−k 90 X 200 2 3 . (23) “P (20 ≤ X ≤ 90)” = k 5 5 k=20 Zur Auswertung in MATLAB können wir z. B. die Befehle sum(binopdf(20:90,200,2/5)) oder auch binocdf(90,200,2/5) binocdf(19,200,2/5) verwenden. Wir erhalten “P (20 ≤ X ≤ 90)” ' 93 %. (24) b) Aus Kap. 1.6.4 der Vorlesung wissen wir, dass die (kumulative) Verteilungsfunktion von X näherungsweise gegeben ist durch √ √ ! 2 x − 200 · 5 x − 80 x − 80 3 20 3 =Φ √ √ FX (x) ' Φ q =Φ =Φ x− , 12 3 48 4 3 200 · 2 3 55 (25) 4 für x ∈ R, wobei Φ die (kumulative) Verteilungsfunktion einer standardnormalverteilten Zufallsvariablen (N (0, 1)) bezeichnet. Die gesuchte Wahrscheinlichkeit lässt sich daher auch näherungsweise berechnen als √ ! √ ! 61 3 5 3 −Φ − . (26) “P (20 ≤ X ≤ 90)” = FX (90) − FX (19) ' Φ 6 12 √ √ Mit 5 6 3 ' 1.44 und − 6112 3 ' −8.80 erhalten wir mit der Tabelle in der Formelsammlung von Papula (S. 508): √ ! √ ! 5 3 61 3 Φ ' 0.9251, Φ − ' Φ(−8.80) = 1 − Φ(8.80) ' 1 − 1 = 0, 6 12 (27) also “P (20 ≤ X ≤ 90)” ' 93 %. Die Näherung ist sehr gut, wenn man bedenkt, dass man sich das Auswerten einer Summe mit 71 Summanden, von denen jeder noch einen grossen Binomialkoeffizienten enthält, erspart! c) die “Faustregel” aus der Vorlesung verlangt np(1 − p) ≥ 9, damit die Näherung hinreichend gut ist. Hier haben wir np(1 − p) = 200 · 23 = 48 > 9, 55 (28) also ist die Faustregel erfüllt. 1 0.9 0.8 0.7 FX (x) 0.6 0.5 0.4 0.3 0.2 B(200,2/5) Normalapproximation 0.1 0 60 65 70 75 80 x Vorlesungswebseite: http://home.zhaw.ch/~kirs/MAE4 5 85 90 95 100