Prof. Dr. A.-S. Sznitman ETH Zürich Sommer 2016 Musterlösung Wahrscheinlichkeitstheorie und Statistik (BSc D-ITET) 1. Seien UA das Ereignis, dass Urne A gewählt wird, und UB das Ereignis, dass Urne B gewählt wird. Es gilt P [UA ] = P [UB ] = 1/2. a) Gesucht ist P [UA | X = 1]. Laut Aufgabenstellung gilt k 3−k 3 2 3 k = 0, 1, 2, 3; k 5 5 l 3−l 4 3 1 l = 0, 1, 2, 3. P [X = l| UB ] = 5 5 l P [X = k| UA ] = Nach der Formel von Bayes gilt P [UA | X = 1] = = P [X = 1| UA ]P [UA ] P [X = 1| UA ]P [UA ] + P [X = 1| UB ]P [UB ] 2 3 25 53 2·9 18 9 = = . 3 2 4 2 = 2 1 2 · 9 + 16 34 17 3 +3 5 5 5 5 b) Wir suchen die Wahrscheinlichkeit vom Ereignis E = {X = 0 oder X = 3} = {X = 0}∪ {X = 3}. Nach der Formel der totalen Wahrscheinlichkeit gilt P [E] = P [X = 0] + P [X = 3] = P [X = 0|UA ]P [UA ] + P [X = 3|UA ]P [UA ] + P [X = 0|UB ]P [UB ] + P [X = 3|UB ]P [UB ] 3 3 3 3 ! 3 2 4 1 + + + 5 5 5 5 = 1 2 = 1 100 2 1 27 + 8 + 64 + 1 · = · = . 2 125 2 125 5 c) Es gilt E[X] = = 3 X kP [X = k] k=1 3 X 1 2 k=1 1 k(P [X = k|UA ] + P [X = k|UB ]) = 2 E[Y ] = E[3 − X] = 3 − E[X] = 21 . 10 1 2 3 +3 5 5 = 9 . 10 Wegen 3 = X + Y gilt Bitte wenden! Weiter gilt E[XY ] = E 3X − X 2 = 3E [X] − E X 2 3 27 1 X 2 − k (P [X = k|UA ] + P [X = k|UB ]) 10 2 = k=1 12 27 3 − = . 10 2 10 = 2. a) Es ist S = X + 3Y + 2Z. Aus der Unabhängigkeit folgt Var(S) = Var(X) + Var(3Y ) + Var(2Z) = Var(X) + 9Var(Y ) + 4Var(Z) = 22λ. Wir haben ϕD (t) = unabh. = i h E eitD = E eit(X−Y ) = E eitX e−itY E eitX E e−itY = ϕX (t)ϕY (−t). Es gilt (diese Formel muss hergeleitet werden) ∞ ∞ X X λk eitk−λ eitk P [X = k] = ϕX (t) = E eitX = k! k=0 k=0 k ∞ X eit λ it it −λ = e−λ ee λ = eλ(e −1) . = e k! k=0 Schliesslich erhalten wir ϕD (t) = eλ(e ) eλ(e−it −1) = eλ(eit +e−it −2) = e2λ(cos(t)−1) . it −1 b) Aus der Unabhängigkeit von X und Y + Z folgt P [X = k|T = n] = = P [T = n|X = k]P [X = k] P [T = n] P [Y + Z = n − k]P [X = k] . P [T = n] Wegen der Unabhängigkeit der Poisson-verteilten Zufallsvariablen folgt, dass Y + Z eine Poisson(4λ) und T eine Poisson(5λ) Verteilung haben. Also e−4λ (4λ)n−k e−λ λk n! (n − k)!k!e−5λ (5λ)n k n−k n n 4 1 1 n−k = . = 1− k 5 5 k 5n P [X = k|T = n] = c) Es gilt Var(T ) = E[T ] = 5λ. Mit der Ungleichung von Chebyshev folgt P [T < λ] = P [T − 5λ < −4λ] ≤ P [|T − 5λ| ≥ 4λ] ≤ Var(T ) 5 = . 2 16λ 16λ Mit λ ≥ 1 folgt P [T < λ] ≤ 5 1 5 ≤ < . 16λ 16 3 Also kann P [T < λ] > 1/3 nicht gelten. Siehe nächstes Blatt! 3. a) Wir haben E V X2 + 1 X X = E Y 2 = E [Y ] E X +1 X2 + 1 Z 1 1 x 1 log(2) dx = log(x2 + 1)0 = . = 2 2 2 0 x +1 b) Wegen der Unabhängigkeit gilt für die gemeinsame Dichte von (X, Y ) fX,Y (x, y) = 1{0≤x≤1} e−y 1{y>0} . Es gilt P [U ≤ 0.5] = = Z Z Z 0 = Z 1Z ∞ 0 1 0 = Z fX,Y (x, y)1{x+y≤0.5} dxdy 1{x≤0.5} 1 − e−(0.5−x) dx 0.5 0 e−y 1{y≤0.5−x} 1{y>0} dydx 1 − ex−0.5 dx = 0.5 − e−0.5 e0.5 − 1 = e−0.5 − 0.5. Es gilt P [U < u] = 0 für u < 0. Für u ≥ 0 gilt Z Z P [U ≤ u] = fX,Y (x, y)1{x+y≤u} dxdy Z 1Z ∞ e−y 1{y≤u−x} 1{y>0} dydx = 0 0 Z 1 1{u−x≥0} 1 − e−(u−x) dx = 0 Z 1 1{x≤u} 1 − ex e−u dx. = 0 Für u > 1 gilt P [U ≤ u] = Z 1 1 − ex e−u dx = 1 − e−u (e − 1). 0 Für 0 ≤ u ≤ 1 gilt P [U ≤ u] = Also haben wir Z u 1 − ex e−u dx = u − e−u (eu − 1) . 0 falls u < 0, 0, P [U ≤ u] = u + e−u − 1, falls 0 ≤ u < 1, 1 − e−u (e − 1), sonst. Für die Dichte fU gilt dann falls u < 0, 0, d −u P [U ≤ u] = fU (u) = 1−e , falls 0 ≤ u < 1, −u du e (e − 1), sonst. c) Die beste lineare Prognose von V durch U ist gegeben durch Z = = = cov(V, U ) (U − E[U ]) + E[V ] Var(U ) cov(V, U ) (U − E[X + Y ]) + E[XY ] Var(X + Y ) cov(V, U ) (U − E[X] − E[Y ]) + E[X]E[Y ]. Var(X) + Var(Y ) Bitte wenden! Es gilt E[X] = 1/2, Var(X) = 1/12 und E[Y ] = Var(Y ) = 1. Es gilt cov(V, U ) = E[V U ] − E[V ]E[U ] = E X 2 Y + XY 2 − E[XY ]E[X + Y ] = E X 2 Y + E XY 2 − E[XY ]E[X] − E[XY ]E[Y ] = E X 2 E[Y ] + E[X]E Y 2 − E[Y ]E[X]2 − E[X]E[Y ]2 = E[Y ] Var(X) + E[X] Var(Y ). Also Z = = = E[Y ] Var(X) + E[X] Var(Y ) (U − E[X] − E[Y ]) + E[X]E[Y ] Var(X) + Var(Y ) 1/12 + 1/2 3 1 U− + 1/12 + 1 2 2 7 7 4 3 1 = U− . U− + 13 2 2 13 13