TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/14 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 6 Tutoraufgaben: Aufgabe T6.1 Bestimmen Sie die Varianzen der Zufallsvariablen Xi mit i ∈ {1, . . . , 5}, falls (i) X1 Bernoulli(p)-verteilt zum Parameter p ∈ (0, 1), (ii) X2 Binomial(n, p)-verteilt zu den Parametern p ∈ (0, 1) und n ∈ N, (iii) X3 Geometrisch(p)-verteilt zu einem Parameter p ∈ (0, 1), (iv) X4 Poisson(λ)-verteilt zum Parameter λ > 0 und (v) X5 Exponential(λ)-verteilt zum Parameter λ > 0 ist. Lösung: Aus der Vorlesung wissen wir, dass sich die Varianz einer Zufallsvariable X mittels Var(X) = E(X 2 ) − E(X)2 berechnen lässt. Dies werden wir nun nutzen, um die gesuchten Varianzen zu bestimmen. (i) Aus der Aufgabe T5.1 kennen wir bereits E(X1 ) = p. Wir bestimmen nun das sogenannte 2. Moment E(X12 ): E(X12 ) = 12 · P(X = 1) + 02 · P(X = 0) = p Damit folgt: Var(X1 ) = p − p2 = p(1 − p) (ii) Aus der Aufgabe T5.1 kennen wir bereits E(X2 ) = np. Weiter gilt: n n X X 2 2 2 n E(X2 ) = k P(X2 = k) = k pk (1 − p)n−k k k=0 k=1 n X (k − 1) n X n! n! pk (1 − p)n−k + pk (1 − p)n−k (k − 1)!(n − k)! (k − 1)!(n − k)! k=1 k=1 n n X X n − 1 k−1 n − 1 k−1 n−k = np (k − 1) p (1 − p) + np p (1 − p)n−k k − 1 k − 1 k=1 k=1 n−1 n−1 X X n−1 j n−1 j n−1−j = np j p (1 − p) + np p (1 − p)n−1−j j j j=0 j=0 = = np · (n − 1)p + np(1 − (1 − p))n−1 = n2 p2 + np(1 − p) Hier wurde in der letzten Gleichung verwendet, dass die Summe im ersten Summanden der Erwartungswert einer Binomial(n − 1,p)-verteilten Zufallsvariable ist und daher den Wert (n − 1)p ergibt. Wir erhalten nun: Var(X2 ) = n2 p2 + np(1 − p) − n2 p2 = np(1 − p) P k−1 (iii) Wir berechnen zunächst den Erwartungswert E(X3 ) = ∞ p. Dazu k=1 k(1 − p) nutzen wir ∞ ∞ ∞ X X d X k 1 1 d k d k−1 x = −1 = kx = x = dx dx k=1 dx 1 − x (1 − x)2 k=1 k=1 mit x = 1 − p und bekommen E(X3 ) = p · 1 1 = . 2 (1 − (1 − p)) p P k−1 Für die Varianz berechnen wir zunächst E(X3 (X3 +1)) = ∞ p. k=1 k(k+1)(1−p) Dazu nutzen wir ∞ ∞ ∞ X X d2 k+1 1 2 d2 X k+1 d2 k−1 k(k + 1)x = −x−1 = x = 2 x = 2 2 dx dx k=1 dx 1 − x (1 − x)3 k=1 k=1 mit x = 1 − p und bekommen E(X3 (X3 + 1)) = p · 2 2 = 2. 3 (1 − (1 − p)) p Die Varianz ist folglich Var(X3 ) = E(X32 ) − E(X3 )2 = E(X3 (X3 + 1)) − E(X3 ) − E(X3 )2 1 1 1−p 2 . = 2− − 2 = p p p p2 Alternativer Lösungsweg: Wir erhalten den Erwartungswert auch aus folgender Gleichung: ∞ ∞ X X k−1 E(X3 ) = k(1 − p) p = (k + 1)(1 − p)k p k=1 = ∞ X k=0 ∞ X k (1 − p)k p k(1 − p) p + k=0 k=0 = (1 − p)E(X3 ) + p = (1 − p)E(X3 ) + 1 1 − (1 − p) Analog kann man das 2. Moment E(X32 ) bestimmen: ∞ ∞ X X 2 2 k−1 E(X3 ) = k (1 − p) p = (k + 1)2 (1 − p)k p = k=1 ∞ X k 2 (1 − p)k p + k=0 = (1 − k=0 ∞ X 2k(1 − p)k p + k=0 p)E(X32 ) + 2(1 − p)E(X3 ) + = (1 − p)E(X32 ) + ∞ X (1 − p)k p k=0 p 1 − (1 − p) 2(1 − p) 2−p + 1 = (1 − p)E(X32 ) + p p Die Lösung E(X32 ) = 2−p p2 dieser Gleichung liefert Var(X3 ) = 2−p p2 − 1 p2 = 1−p . p2 (iv) Aus der Aufgabe T5.1 kennen wir bereits E(X4 ) = λ sowie E(X42 ) = λ2 + λ. Folglich ist Var(X4 ) = λ2 + λ − λ2 = λ (v) Mithilfe der Wahrscheinlichkeitsdichte f (x) = λe−λx und partieller Integration erhalten wir Z Z Z ∞ −λx E(X5 ) = xf (x) dx = xλe 1[0,∞) (x) dx = xλe−λx dx R 0 ∞ Z R∞ 1 1 −λx −λx −λx ∞ = + e dx = 0 + − e = −xe 0 λ λ 0 0 sowie Z E(X5 ) = ∞ Z 2 2 x f (x) dx = −λx x λe 0 R ∞ dx = −x2 e−λx 0 + Z ∞ 2xe−λx dx 0 2 2 = 0 + E(X5 ) = 2 λ λ und somit Var(X5 ) = 2 1 1 − = . λ2 λ2 λ2 Aufgabe T6.2 Sei (X, Y ) eine Zufallsvariable mit Zähldichte ρ, die wie folgt gegeben ist: ρ(x, y) y = −1 y=0 y=1 x = −1 0 1 4 1 8 x=0 1 8 0 1 8 x=1 1 8 0 1 4 Bestimmen Sie die Randverteilungen von X und Y sowie die Verteilung des Produkts Z = X · Y . Sind die Zufallsvariablen X und Y unabhängig? Lösung: Da sich die Wahrscheinlichkeiten zu 1 aufsummieren, nehmen X und Y nur die Werte −1, 0, 1 an und alle nicht angegebenen Kombinationen haben Wahrscheinlichkeit 0. Die Verteilung von X errechnet sich durch P(X = i) = P(X = i, Y = −1) + P(X = i, Y = 0) + P(X = i, Y = 1). Wir erhalten P(X = −1) = 0 + 14 + die Verteilung von Y : 1 8 = 38 , P(X = 0) = 14 , P(X = 1) = 3 8 und analog für P(Y = i) = P(X = −1, Y = i) + P(X = 0, Y = i) + P(X = 1, Y = i), so dass sich P(Y = −1) = 41 , P(Y = 0) = 14 , P(Y = 1) = 12 ergibt. Die beiden Zufallsvariablen sind nicht unabhängig, denn es ist beispielsweise P(X = 0, Y = 0) = 0 6= 1 16 = P(X = 0)P(Y = 0). Die Zufallsvariable Z nimmt ebenfalls die Werte −1, 0, 1 an mit jeweiligen Wahrscheinlichkeiten P(Z = −1) = P(X = −1, Y = 1) + P(X = 1, Y = −1) = 81 + 18 = 14 , P(Z = 1) = P(X = −1, Y = −1) + P(X = 1, Y = 1) = 0 + 14 = 14 , P(Z = 0) = P({X = 0} ∪ {Y = 0}) = P(X = 0) + P(Y = 0) − P(X = Y = 0) = 14 + 14 − 0 = 21 . Aufgabe T6.3* (Zusatzaufgabe) Seien X und Y unabhängige, auf dem Intervall [0, 1] gleichverteilte Zufallsvariablen. Zeigen Sie, dass dann P(X = Y ) = 0 gilt. Lösung: Sei n ∈ N beliebig. Es gilt [ n h k − 1 k io X = Y, Y ∈ P(X = Y ) = P , n n 1≤k≤n [ n h k − 1 k io X, Y ∈ ≤P , n n 1≤k≤n h k − 1 k i X ≤ P X, Y ∈ , n n 1≤k≤n h k − 1 k i h k − 1 k i X , P Y ∈ , = P X∈ n n n n 1≤k≤n X 1 1 1 = · = , n n n 1≤k≤n wobei wir im vierten Schritt die Unabhängigkeit von X und Y verwendet haben. Betrachtet man nun den Limes n → ∞, so folgt die Behauptung. Hausaufgaben: Aufgabe H6.1 (i) Seien X und Y unabhängige Zufallsvariablen mit Werten in Z und Verteilungen PX und PY . Zeigen Sie, dass die Zufallsvariable X + Y die Verteilung X PX+Y ({k}) = PX ({n})PY ({k − n}), k ∈ Z n∈Z besitzt. (ii) Bestimmen Sie die Verteilung von X + Y , falls X und Y unabhängig und Poissonverteilt zu den Parametern λ und µ sind. (iii) Seien X und Y unabhängige Zufallsvariablen mit Wahrscheinlichkeitsdichten f und g. Zeigen Sie, dass auch X + Y eine Wahrscheinlichkeitsdichte besitzt und geben Sie eine solche an. Lösung: (i) Mit der Unabhängigkeit von X und Y erhalten wir für alle k ∈ Z X X P(X = n, Y = k − n) P(X = n, X + Y = k) = PX+Y ({k}) = n∈Z n∈Z = X PX ({n})PY ({k − n}). n∈Z besitzt. (ii) Mit Aufgabenteil (i) erhalten wir für alle k ∈ N PX+Y ({k}) = X PX ({n})PY ({k − n}) = k X n=0 n∈Z = e−(λ+µ) 1 k! e−λ λn −µ λk−n e n! (k − n)! k X n=0 k n k−n (λ + µ)k , λ µ = e−(λ+µ) n k! X + Y ist also Poisson-verteilt zum Parameter λ + µ. (iii) Da X und Y unabhängig sind, ist die gemeinsame Dichte von (X, Y ) gegeben durch f · g. Somit gilt für alle c ∈ R Z Z P(X + Y ≤ c) = f (x)g(y)1{(x,y)∈R2 :x+y≤c} (x, y) dx dy R Z R Zc−y = f (x)g(y) dx dy. R −∞ Mit der Substitution z = x + y und dem Satz vom Fubini erhalten wir Zc Z Z Zc−y Z Zc f (z − y)g(y) dy dz. f (z − y)g(y) dz dy = f (x)g(y) dx dy = R −∞ R −∞ −∞ R | {z :=h(z) } X + Y besitzt also die Wahrscheinlichkeitsdichte h. Aufgabe H6.2 Bei einer Entenjagd schießen k Jäger gleichzeitig je einmal auf einen Schwarm aus m Enten. Sie suchen sich unabhängig voneinander eine Ente aus, auf die sie zielen, und treffen diese Ente unabhängig voneinander mit Wahrscheinlichkeit p ∈ [0, 1]. Geben Sie ein Wahrscheinlichkeitsmodell an, das die Situation beschreibt. Bestimmen Sie den Erwartungswert der Anzahl der unverletzten Enten. Lösung: Gegeben sei ein Wahrscheinlichkeitsraum (Ω, F, P). Außerdem seien (Xi )1≤i≤k eine Folge von Zufallsvariablen auf Ω mit Werten in {1, . . . , m}, wobei alle Xi auf {1, . . . , m} gleichverteilt sind. Diese Zufallsvariablen formalisieren das Aussuchen der Ente durch die Jäger. P Definiere nun für jedes 1 ≤ l ≤ m die Zufallsvariable Yl = ki=1 1{Xi =l} . Folglich gilt Yl : Ω → {0, . . . , k} für 1 ≤ l ≤ m. Die Zufallvariablen (Yl )1≤l≤m sind nicht unabhängig und formalisieren, wieviele Jäger auf die l-te Ente schießen. Es folgt außerdem, dass Yl Binomial(k, m1 )-verteilt sind, d. h. es gilt für x ∈ {0, . . . , k} k 1 x 1 k−x P(Yl = x) = · 1− . x m m Wir definieren als nächstes für 1 ≤ l ≤ m die Zufallsvariable Zl : Ω → {0, 1} mit P(Zl = 1 | Yl = x) = (1 − p)x . Die Zufallsvariable Zl nimmt den Wert 1 an, wenn die l-te Ente überlebt, und den Wert 0 sonst. Aus Symmetriegründen sind die Zufallsvariablen (Zl )1≤l≤m identisch verteilt, d.h. P (Z1 = 1) = P (Zl = 1) für alle 1 ≤ l ≤ m und es gilt P (Z1 = 1) = k X x=0 k X P(Z1 = 1 | Y1 = x) · P (Y1 = x) 1 k−x k 1 x · 1− = (1 − p) m x m x=0 1 − p 1 k p k = +1− = 1− . m m m P Für den Erwartungswert der Anzahl Z = m l=1 Zl der unverletzten Enten folgt: E(Z) = E X m l=1 Zl = m X l=1 x p k . E(Zl ) = m · E(Z1 ) = m · P (Z1 = 1) = m · 1 − m Aufgabe H6.3 Betrachten Sie die Abbildung f : R2 → R, (x, y) 7→ 2e−(x+2y) 1[0,∞)2 (x, y). (i) Zeigen Sie, dass f eine Dichtefunktion ist. (ii) Sei (X, Y ) eine Zufallsvariable mit Wahrscheinlichkeitsdichte f . Berechnen Sie die Randverteilungen von X und Y . Sind X und Y unabhängig? (iii) Berechnen Sie die Kovarianz von X und Y . (iv) Berechnen Sie P(X > Y ). Lösung: (i) Es ist f (x, y) ≥ 0 für alle (x, y) ∈ R2 . Außerdem gilt Z∞ Z Z f (x, y) dx dy = R 2e 0 R −2y Z∞ e Z∞ −x dx dy = 0 2e−2y dy = 1 0 (ii) Als Randverteilung fX von X erhalten wir Z fX (x) = f (x, y) dy = e−x 1[0,∞) (x) Z∞ 2e−2y dy = e−x 1[0,∞) (x). 0 R Die Randverteilung fy von Y ist Z fY (y) = f (x, y) dx = 2e−2y 1[0,∞) (y) Z∞ e−x dx = 2e−2y 1[0,∞) (y). 0 R X und Y sind unabhängig, da f (x, y) = fX (x) · fY (y) für alle (x, y) ∈ R2 . Bemerkung: X ist Exponential(1)-verteilt und Y ist Exponential(2)-verteilt. (iii) Da X und Y unabhängig sind, gilt Cov(X, Y ) = 0. (iv) Es ist Z∞ Z Z P(X > Y ) = f (x, y)1{(x,y)∈R2 :x>y} (x, y) dx dy = R R Z∞ 2e−2y e−y dy = = 0 0 2 3 2e−2y Z∞ y e−x dx dy Aufgabe H6.4 Seien X, Y ∈ L2 mit Var(X), Var(Y ) > 0. Dann ist der Korrelationskoeffizient von X und Y definiert durch Cov(X, Y ) p . κX,Y := p Var(X) Var(Y ) Zeigen Sie, dass min E (Y − βX − α)2 = (1 − κ2X,Y ) min E (Y − γ)2 γ∈R α,β∈R gilt. Lösung: p p Sie µX := E(X), µY := E(Y ), σX := Var(X), σY := Var(Y ). Für γ ∈ R gilt E[(Y − γ)2 ] = Var(Y − γ) + E[(Y − γ)]2 = Var(Y ) + (µY − γ)2 = σY2 + (µY − γ)2 . Der Ausdruck ist minimal für γ = µY mit Wert σY2 . Somit ergibt sich für die rechte Seite (1 − κ2X,Y )σY2 Für α, β ∈ R gilt E[(Y − βX − α)2 ] = Var(Y − βX − α) + (µY − βµX − α)2 . Wir berechnen die Varianz: Var(Y − βX − α) = Var(Y − βX) = Var(Y ) + Var(−βX) + 2 Cov(Y, −βX) = Var(Y ) + (−β)2 Var(X) − 2β Cov(Y, X) 2 = σY2 + β 2 σX − 2βσX σY κX,Y = (βσX − κX,Y σY )2 + (1 − κ2X,Y )σY2 Zusammen ergibt sich E[(Y − βX − α)2 ] = (βσX − κX,Y σY )2 + (1 − κ2X,Y )σY2 + (µY − βµX − α)2 . Der Term wird minimal, wenn das erste und das letzte Quadrat verschwinden. Somit muss β = σσXY κX,Y sowie α = µY − βµX = µY − σσXY κX,Y µX gelten. Als Wert der linken Seite ergibt sich (1 − κ2X,Y )σY2 .