D-ITET Prof. P. Nolin Wahrscheinlichkeitstheorie und Statistik FS 2017 Musterlösung 8 1. a) Es muss 1= ∞ X n=1 ∞ ∞ X X λn λn P [X = n] = c = c −1 + n! n! n=1 ! = c(eλ − 1) n=0 gelten, also c= eλ 1 . −1 b) Es ist E[X] = ∞ X nP [X = n] = n=1 ∞ X n=1 ∞ X λn λn λeλ = cλ = cλeλ = λ c (n − 1)! n! e −1 n=0 und 2 E[X ] = ∞ X 2 n P [X = n] = n=1 ∞ X = c n=2 ∞ X n=1 λn (n − 2)! ∞ λn X λn n(n − 1)c + nc n! n! n=1 + E[X] = cλ2 = cλ2 eλ + cλeλ = ∞ X λn n=0 n! + E[X] eλ λ(λ + 1) . eλ − 1 Also gilt Var[X] = E[X 2 ] − (E[X])2 = eλ λ(eλ − λ − 1) . (eλ − 1)2 Bitte wenden! c) P [X = n, Y = n] P [X = Y = n] = P [Y = n] P [Y = n] (A) P [X = Y | Y = n] = (B) P [X = n] · P [Y = n] = P [X = n], P [Y = n] λn P [0 6= Y = n] = P [Y = n] = e−λ 6= P [X = n], n! P [Y = n] P [0 6= Y = n] = P [Y = n | Y 6= 0] = P [Y 6= 0] 1 − P [Y = 0] unabh. = (C) (da c 6= e−λ ) λn λn = c = P [X = n], n! n!(1 − e−λ ) P [0 6= Y = n] P [Y = n] P [Y 6= 0 | Y = n] = = = 1 6= P [X = n], P [Y = n] P [Y = n] P [X = n, Y = 0] unabh. P [X = n] · P [Y = 0] P [X = n | Y = 0] = = = P [X = n]. P [Y = 0] P [Y = 0] = e−λ (D) (E) Also sind (A),(C) und (E) gleich P [X = n], (B) und (D) hingegen nicht. 2. a) Xn kann nur Werte in {0, 1} annehmen. Die Wahrscheinlichkeit, dass die n-te Ente vom `-ten Jäger nicht getroffen wird, ist 1−p/m. Da die Jäger unabhängig voneinander schiessen, beträgt für die n-te, und deswegen für jede Ente die Chance, unverletzt davonzukommen, p k P [Xn = 1] = 1 − . (1) m Also sind alle Xn Binomial-verteilt mit Parametern ñ = 1 und p̃ = (1 − p/m)k , also Bernoulli verteilt mit Parameter p̃. b) Die Gesamtzahl X aller nicht verletzten Enten ist gleich X = X1 + X2 + . . . + Xm . Aufgrund der Linearität des Erwartungswertes gilt E[X] = E[X1 ] + E[X2 ] + . . . + E[Xm ]. (2) Da die Xn Indikatorvariablen sind, gilt E[Xn ] = P [Xn = 1] = (1 − p/m)k für alle n = 1, . . . , m und somit p k E[X] = m 1 − . m c) Wir betrachten nur den Fall k < m, also weniger Jäger als Enten. Dann sind X1 , . . . , Xm nicht unabhängig, weil m p k m Y = P [Xn = 0]. P [X1 = . . . = Xm = 0] = 0 < 1 − 1 − m n=1 Bemerkung: Die Zufallsvariablen X1 , . . . , Xm sind auch nicht unabhängig, wenn k ≥ m und m > 1. Insbesondere ist X nicht Binomial-verteilt. Siehe nächstes Blatt! 3. Sei X die Anzahl gezogener weisser Kugeln. a) Für 0 ≤ k ≤ N, 0 ≤ n − k ≤ M gilt N M k n−k N +M n P [X = k] = . Für alle übrigen k ist P [X = k] = 0. b) Wir nummerieren die weissen Kugeln von 1 bis N . Dann können wir X als Summe von Indikatorfunktionen schreiben: X = X1 + . . . + XN , wobei Xi = 1, die weisse Kugel Nr. i wird gezogen, 0, sonst. Es gilt E[Xi ] = P [Xi = 1] = 1· M +N −1 n−1 M +N n Es folgt E[X] = Nn . M +N = n . M +N