Lösungsvorschläge zu Blatt 3 22) Vorbemerkung: Es werden in dieser Aufgabe zwei erst in Kap. 8 behandelte Aussagen verwendet: Satz 8.4.1: a) Eine Summe von normalverteilten, unabhängigen ZV ist wieder normalverteilt. b) X ist normalverteilt ⇒ (αX + β) mit α, β ∈ R, α 6= 0, ist normalverteilt. Beide wurden in der Aufgabenstellung genannt. a) X ist N(µ1 , σ1 )-verteilt, Y ist N(µ2 , σ2 )-verteilt, und X und Y sind unabhängig. Damit ist (X + Y ) N(µ, σ)-verteilt, wobei µ und σ noch bestimmt werden müssen: (7.8.1) µ = E(X + Y ) = E(X) + E(Y ) = µ1 + µ2 σ 2 = V (X + Y ) X, Y unabh. = V (X) + V (Y ) = σ12 + σ22 b) Xi sind alle N(µ, σ)-verteilt, und X1 , . . . , Xn sind unabhängig. n n 1X Satz 8.4.1b) X Satz 8.4.1b) Xi ist N(µ′ , σ ′ )⇒ Xi ist normalverteilt ⇒ Xn := n i=1 i=1 verteilt, wobei µ′ und σ ′ =? noch bestimmt werden müssen: ! n n X 1 nµ (7.8.1) 1 X µ′ = E = Xi E(Xi ) = =µ n i=1 n i=1 n ! ! n n n X X X 1 1 Xi unabh. 1 Satz 7.5.2 Xi = σ2 V X = σ ′2 = V i 2 n i=1 n2 n i=1 i=1 1 σ2 2 n · σ = n2 n σ ′ ⇒ σ =√ n σ ⇒ Xn ist N µ, √ -verteilt. n = 23) a) X1 , . . . , Xn sind N(µ, σ)-verteilt und unabhängig, µ ist unbekannt, σ = 2, n = 10. 1 Die ZV Xn ist nach Aufgabe 22 b) N µ, √σn -verteilt. Damit gilt nach Satz 7.6.6 c)v): P Xn − µ ≤ ε′ = P Xn − µ ≤ ε′ σ √ √ σ/ n n ′√ ε n = 2Φ −1 = 2Φ σ b) Bestimme ε′ so, dass P Xn − µ 6 ε′ > 0.9. ⇔ Φ √ ! ! ε′ 10 − 1 > 0.9 2 ! √ √ ′ 1.9 10 ε′ 10 Φ streng↑ ε Tabelle > = 0.95 = Φ(1.645) ⇔ > 1.645 2 2 2 a) P Xn − µ 6 ε′ = 2Φ ⇔ ε′ > 1.040 . 24) Randverteilungen ↓ X| Y → −1 −1 0 1 0 2 0.5 0.5 1 5 0 0.1 0.4 0 0 0 0.4 0.1 0.1 0.4 0.5 1.0 Beispiele: P (X = 1 ∧ Y = 1) = 0.4 P (X = 1) = 0.4 P (Y = 5) = 0.1 Erwartungswerte und Varianzen: E(X) = (−1) · 0.1 + 1 · 0.4 + 2 · 0.5 = 1.3 E(X 2 ) = (−1)2 · 0.1 + 12 · 0.4 + 22 · 0.5 = 2.5 V (X) = 2.5 − 1.32 = 0.81 E(Y ) = (−1) · 0.5 + 1 · 0.4 + 5 · 0.1 = 0.4 E(Y 2 ) = (−1)2 · 0.5 + 12 · 0.4 + 52 · 0.1 = 3.4 V (Y ) = 3.4 − 0.42 = 3.24 Die Lösung dieser Aufgabe ist damit abgeschlossen. Zur Vorbereitung der Lösung von Aufgabe 29 sind noch einige Berechnungen durchzuführen. Zunächst bestimmen wir E(X · Y ). Dies ist die Summe aller Produkte aus den möglichen Werten 2 √ ! ε′ 10 −1 2 von X und Y und den zugehörigen Wahrscheinlichkeiten. Die Produkte, bei denen mindestens ein Faktor = 0 ist, sind gleich weggelassen worden: E(X · Y ) = 2 · (−1) · 0.5 + 1 · 1 · 0.4 + (−1) · 5 · 0.1 = −1.1 Cov(X, Y ) := E(X · Y ) − E(X) · E(Y ) = −1.1 − 1.3 · 0.4 = −1.62 σ(X) = 0.9, σ(Y ) = 1.8 25) a) Sind X und Y aus 24) unabhängig? Da X und Y diskrete ZV sind, ist dies gleichbedeutend mit pi,j = pi,∗ · p∗,j für alle i, j. Da schon P (X = −1 ∧ Y = −1) = 0 6= P (X = −1) · P (Y = −1) = 0.1 · 0.5 ist, sind X und Y nicht unabhängig. b) ↓ X| Y → 0 1 2 0 0.18 0.30 0.12 1 0.12 0.20 0.08 0.30 0.50 0.20 0.60 0.40 1.00 Wir prüfen, ob jedes Produkt von Randverteilungswahrscheinlichkeiten gleich der zugehörigen Wahrscheinlichkeit der gemeinsamen Verteilung ist: 0.30 · 0.60 = 0.18, 0.50 · 0.60 = 0.30, 0.20 · 0.60 = 0.12, 0.30 · 0.40 = 0.12, 0.50 · 0.40 = 0.20, 0.20 · 0.40 = 0.08. Es gilt also tatsächlich pi,j = pi,∗ ·p∗,j für alle i, j. Damit sind X und Y unabhängig. 26) Bei dieser Aufgabe sind die Wahrscheinlichkeiten P (X = xi ), P (Y = yj ) vorgegeben, also die Wahrscheinlichkeiten der Randverteilung. Wegen der Unabhängigkeit der ZV kann man daraus leicht die Wahrscheinlichkeiten der gemeinsamen Verteilung ermitteln: pi,j := P (X = xi ∧ Y = yj ) = P (X = xi ) · P (Y = yj ) für alle i, j. Ausrechnungsbeispiel: P (X = 1.5 ∧ Y = 2.5) = 0.5 · 0.1 = 0.05 ↓ X| Y → 0 1.5 2 3 1 0.03 0.15 0.06 0.06 0.3 2 0.04 0.20 0.08 0.08 0.4 2.5 0.01 0.05 0.02 0.02 0.1 4 0.01 0.05 0.02 0.02 0.1 5 0.01 0.05 0.02 0.02 0.1 0.1 0.5 0.2 0.2 1.0 27) Es sei Xi = 1 mit Wahrscheinlichkeit p, (Erfolg) 0 mit Wahrscheinlichkeit q := 1 − p, (Fehlschlag) 3 Sn := X1 + X2 + . . . + Xn a) Nach Satz 7.8.4 a) gilt: E(Sn ) = E(X1 ) + E(X2) + . . . + E(Xn ) = np. | {z } | {z } | {z } =p =p =p Aus der Unabhängigkeit der ZV X1 , X2 , . . . , Xn folgt nach Satz 7.8.4 b) V (Sn ) = V (X1 ) + V (X2 ) + . . . + V (Xn ) = npq | {z } | {z } | {z } =pq =pq =pq b) Bei der Bestimmung der Verteilung von Sn verwenden wir, dass Xi einem Zufallsexperiment mit 2 Ausgängen (Erfolg oder Fehlschlag) entspricht. Sn := X1 + X2 + . . . + Xn ist also die Anzahl der Erfolge bei n Versuchen. Erläuterung: 3 Beispiele für Realisierungen von X1 , . . . , Xn : 1. Beispiel: x1 = . . . = xn = 1 : sn = n · 1 = n 2. Beispiel: x1 = . . . = xn = 0 : sn = n · 0 = 0 3. Beispiel: x1 = x3 = 1, übrige xi = 0 : sn = 1 + 0 + 1 + 0 + . . . + 0 = 2 Nach den Erläuterungen bei der Einführung der Binomialverteilung ist Sn damit binomialverteilt mit der Parametern p und n. Die Aufgabe ist damit gelöst. Um aber insbesondere die (bisher nur erläuterte aber nicht bewiesene) Formel für den Binomialkoeffizienten herzuleiten, beweisen wir für die Darstellung der Wahrscheinlichkeitsverteilung mit vollständiger Induktion: Behauptung: n k n−k p q für alle k = 0, 1, . . . , n P (Sn = k) = k (1) gilt für alle n ∈ N Beweis durch Induktion: Induktionsanfang: (1) gilt für n = 1: P (S1 = k) = P (X1 = k) = Induktionsschluss: Fall 1: 1 6 k 6 n q= p= 1 0 1 1 · p0 q 1−0 · p1 q 1−1 für k = 0 für k = 1 n l n−l pq für alle l = 0, 1, . . . , n P (Sn = l) = l 4 (2) ⇒ P (Sn+1 = k) = Unahängigkeit = (2) = = = Fall 2: k = 0 P (Sn = k ∧ Xn+1 = 0) ∨ (Sn = k − 1 ∧ Xn+1 = 1) P (Sn = k) · P (Xn+1 = 0) + P (Sn = k − 1) · P (Xn+1 = 1) n n k n−k pk−1 q n−k+1 · p p q ·q+ k−1 k n n k n−k+1 pk q n−k+1 p q + k−1 k n + 1 k n+1−k n n k n+1−k p q p q = + k k−1 k n 0 n−0 pq P (Sn = 0) = 0 (3) Unahängigkeit ⇒ P (Sn+1 = 0) = P Sn = 0 ∧ Xn+1 = 0 = P (Sn = 0) · P (Xn+1 = 0) n + 1 0 n+1−0 n 0 n−0 (3) pq pq ·q = = 0 0 Fall 3: k = n + 1 n n n−n p q P (Sn = n) = n (4) Unahängigkeit ⇒ P (Sn+1 = n + 1) = P Sn = n ∧ Xn+1 = 1 = P (Sn = n) · P (Xn+1 = 1) n + 1 n+1 (n+1)−(n+1) n n n−n (4) p q p q ·p= = n+1 n 28) Wir nutzen, dass die Summe der Wahrscheinlichkeiten der gemeinsamen Verteilung gleich der passenden Wahrscheinlichkeit der Randverteilungen ist und dass die Summe der Randverteilungen zu Y gleich 1 ist. 1. Rechengang: ↓ X| Y → −1 0 2 3 4 6 0 1/8 2/8 ∗ 0 ∗ ∗ 0 1/8 2/8 1/8 5/8 3/8 ∗ ∗ 1 ↓ X| Y → −1 0 2 3 4 6 0 1/8 2/8 ∗ 0 2/8 ∗ 0 1/8 2/8 1/8 5/8 3/8 ∗ ∗ 1 2. Rechengang: 5 Jetzt brauchen wir die zusätzliche Angabe über den Erwartungswert: 3 6 3 3 ! = E(X) = (−1) · + 2 · P (X = 2) ⇒ 2 · P (X = 2) = ⇒ P (X = 2) = 8 8 8 8 4. Rechengang: ↓ X| Y → 3 4 6 −1 0 1/8 2/8 0 ∗ 0 2/8 2 2/8 0 1/8 2/8 1/8 5/8 3/8 ∗ 3/8 1 ↓ X| Y → 3 4 6 −1 0 1/8 2/8 0 0 0 2/8 2 2/8 0 1/8 2/8 1/8 5/8 3/8 2/8 3/8 1 5. Rechengang: 29) a) Cov(X, Y ) = 0 Jede der ZV X, Y nimmt mehr als einen Wert mit Wahrscheinlichkeit > 0 an ⇒ V (X), V (Y ) > 0 Die ZVX,Yin Aufg. 26 sind unabhängig ⇒ Satz 7.8.3 ⇒ ρ(X, Y ) = 0, d.h. X und Y sind unkorreliert. In Aufg. 24 wurden bereits folgende Werte ermittelt: Cov(X, Y ) = −1.62, σ(X) = 0.9, σ(Y ) = 1.8. Damit erhalten wir: ρ(X, Y ) := −1.62 Cov(X, Y ) = = −1 σ(X) · σ(Y ) 0.9 · 1.8 Es besteht also ein extremer linearer Zusammenhang zwischen X un Y und damit gilt Y = a + bX für geeignete Zahlen a ∈ R, b < 0 (f.s.). Um die Werte für a und b zu bestimmen, setzen wir mögliche Werte für die ZV X und Y ein und betrachten dabei nur Kombinationen mit Wahrscheinlichkeit > 0 nach der in Aufgabe 24 vorgegebenen Tabelle: ↓ X Y → −1 1 5 −1 0 0 0.1 1 0 0.4 0 2 0.5 0 0 6 Die möglichen Wertekombinationen notieren wir in Tabellenform: X -1 1 Y 5 1 Y = a + bX 5 = a + (−1) · b 1=a+1·b Die Addition der beiden Gleichungen liefert 2a = 6, d.h. a = 3. b = a − 5 = 3 − 5 = −2 Kontrolle (die aber nicht durchgeführt zu werden braucht): X = 2, Y = −1: −1 = 3 + (−2) · 2 Bem.: Wenn hier (−2) statt (−1) ein möglicher Wert für Y wäre, so würde man keinen extremen linearen Zusammenhang erhalten; denn für X = 2, Y = −1 müsste −2 = 3+(−2)·2 gelten, was aber offensichtlich nicht richtig ist. Es würde dann aber auch |ρ(X, Y )| < 1 herauskommen. b) (i ) ↓ X Y → 0 1 2 0 0.08 0.07 0.20 0.35 1 0.08 0.10 0.15 0.33 2 0.09 0.08 0.15 0.32 0.25 0.25 0.50 1.00 E(X) = 1 · 0.25 + 2 · 0.50 = 1.25 E(Y ) = 1 · 0.33 + 2 · 0.32 = 0.97 2 2 2 E(X ) = 1 · 0.25 + 2 · 0.50 = 2.25 E(Y 2 ) = 12 · 0.33 + 22 · 0.32 = 1.61 V (X) = 2.25 − 1.252 = 0.6875 V (Y ) = 1.61 − 0.972 = 0.6691 Cov(X, Y ) := E(X · Y ) − E(X) · E(Y ) = (1 · 1 · 0.10 + 1 · 2 · 0.08 · +2 · 1 · 0.15 + 2 · 2 · 0.15) − 1.25 · 0.97 = −0.0525, ρ(X, Y ) = √ −0.0525 = −0.0774. 0.6875 · 0.6691 X und Y sind also schwach negativ korreliert. (ii ) ↓ X Y → 0 1 2 0 1 2 0.01 0 0.39 0 0.30 0 0.28 0.02 0 0.29 0.32 0.39 7 0.40 0.30 0.30 1.00 E(X) = 1 · 0.30 + 2 · 0.30 = 0.90 E(Y ) = 1 · 0.32 + 2 · 0.39 = 1.10 2 2 2 E(X ) = 1 · 0.30 + 2 · 0.30 = 1.50 E(Y 2 ) = 12 · 0.32 + 22 · 0.39 = 1.88 V (X) = 1.50 − 0.902 = 0.6900 V (Y ) = 1.88 − 1.102 = 0.6700 Cov(X, Y ) = (1 · 1 · 0.30 + 2 · 1 · 0.02) − 0.90 · 1.10 = −0.6500, ρ(X, Y ) = √ −0.6500 = −0.9560. 0.6900 · 0.6700 X und Y sind also stark negativ korreliert. 30) Aus der Verteilung für X und aus der Beziehung Y = X 2 erhalten wir sofort folgende Einträge für die gemeinsame Verteilung und die Randverteilungen: ↓ X| Y → 1 4 −2 0 * −1 * 0 1 * 0 2 0 * * * 1/4 1/4 1/4 1/4 Daraus ergeben sich nach Satz 7.7.1 b) (Summe der Einträge der gemeinsamen Verteilung in einer Zeile = Eintrag der Randverteilung in dieser Zeile, Summe der Einträge der gemeinsamen Verteilung in einer Spalte = Eintrag der Randverteilung in dieser Spalte) sofort die übrigen Einträge der gemeinsamen Verteilung und der Randverteilungen: 4 ↓ X| Y → 1 −2 0 1/4 −1 1/4 0 1 1/4 0 2 0 1/4 1/2 1/2 1/4 1/4 1/4 1/4 X, Y sind nicht unabhängig aus zwei Gründen: 1.) Y ist sogar Funktion von X und V (X), V (Y ) > 0. 2.) P (X = −2 ∧ Y = 1) = 0 6= 18 = P (X = −2) · P (Y = 1) (zum Beispiel) 1 E(X) = · (−2 − 1 + 1 + 2) = 0 4 ⇒ Cov(X, Y ) = E(X·Y )−E(X)E(Y ) = 0 1 E(X · Y ) = E(X 3 ) = · (−8 − 1 + 1 + 8) = 0 4 Ergebnis: X und Y sind unkorreliert, aber nicht unabhängig. 8