Stochastik für Informatiker, Physiker, Chemiker und Wirtschaftswissenschaftler Tutorium zu Übungsblatt 11 Aufgabe 1 Gegeben sei eine nicht-leere Urne mit weißen und schwarzen Kugeln, wobei uns weder die Anzahl an weißen Kugeln, noch die Gesamtzahl an Kugeln bekannt ist. Uns sei lediglich bekannt, dass sich Kugeln beider Farben in der Urne befinden. Es werden nun Kugeln mit Zurücklegen und ohne Beachtung der Reihenfolge aus der Urne gezogen. Die Wahrscheinlichkeit, dass bei einem solchen Zug eine weiße Kugel gezogen wird sei mit p bezeichnet. Sei nun X eine Zufallsvariable, die angibt, ob bei einem Zug aus der Urne eine weiße oder eine schwarze Kugel gezogen wurde. (a) Gib die Verteilung von X in Abhängigkeit von p an. (b) Bestimme - in Abhängigkeit von p - die Wahrscheinlichkeit, dass bei n Ziehungen, w weiße und n − w schwarze Kugeln gezogen werden. (c) Du wirst als Statistiker um Rat gefragt, einen Schätzer für p zu konstruieren. Tue dies mit Hilfe der Maximum-Likelihood-Methode. Wie lässt sich der Schätzer interpretieren? (d) Es werden nun genau vier Kugeln aus der Urne gezogen, wobei genau drei davon weiß sind. Berechne die konkrete Schätzung für p basierend auf dem in (c) konstruierten Maximum-Likelihood-Schätzer. Lösung (a) Die Zufallsvariable X beschreibt, ob beim einmaligen Zug aus der Urne (mit Zurücklegen und ohne Beachtung der Reihenfolge) ein gewisses Ereignis eintritt (gezogene Kugel ist weiß; X nehme in diesem Fall den Wert 1 an) oder nicht (gezogene Kugel ist nicht-weiß; X nehme in diesem Fall den Wert 0 an). Damit gilt: X ∼ B(1, p). (b) Es gilt: P(“bei genau n Ziehungen werden genau w weiße Kugeln gezogen”) n w = p (1 − p)n−w . w (c) Sei (X1 , . . . , Xn ) eine Zufallsstichprobe zum Merkmal X. Die Likelihood-Funktion basierend auf der Zufallsstichprobe (X1 , . . . , Xn ) mit Realisierung (x1 , . . . , xn ) ist damit gegeben durch n P xi n− L(x1 , . . . , xn , p) = p i=1 (1 − p) n P i=1 xi , P wobei ni=1 xi die Anzahl w an gezogenen weißen Kugeln angibt. In diesem Fall ist es günstig, statt der Likelihood-Funktion die Log-Likelihood-Funktion zu betrachten (w = P n i=1 xi ): log(L(x1 , . . . , xn , p)) = w log(p) + (n − w) log(1 − p) Damit folgt w n−w ∂ log L(x1 , . . . , xn , p) = − ∂p p 1−p und ∂2 w n−w log L(x1 , . . . , xn , p) = − 2 − . 2 ∂p p (1 − p)2 Durch Auflösen von ∂ ∂p log(L(x1 , . . . , xn , p)) = w n2 n in (∗∗) erhalten wir − w (∗∗) 0 (nach p) ergibt sich p = n2 n−w w n. Durch Einsetzen von p = − < 0 und damit ist p̂ = 1 Pn i=1 xi = x̄ ein Maximum-Likelihood-Schätzer für p. n w n = Interpretation: Der Maximum-Likelihood-Schätzer p̂ für p ist der relative Anteil der weißen Kugeln in der Urne. (d) Mit n = 4 und w = 3 folgt aus (c): p̂ = 34 . Aufgabe 2 Gegeben sei eine Zufallsstichprobe (X1 , . . . , Xn ) zum Merkmal X, wobei E(X) = µ ∈ R. Zeige, dass der Schätzer Tn (X1 , . . . , Xn ) = n X ci Xi mit ci ∈ R ∀ i ∈ {1, . . . , n} i=1 genau dann erwartungstreu für µ ist, wenn n P ci = 1. i=1 Lösung E Tn (X1 , . . . , Xn ) = E Damit folgt, dass n P i=1 ci Xi = n P E(ci Xi ) = i=1 n P i=1 E Tn (X1 , . . . , Xn ) = µ ⇔ n n P P ci E(Xi ) = ci µ = µ ci . n X i=1 i=1 ci = 1. i=1 Aufgabe 3 Gegeben sei eine Zufallsstichprobe (X1 , . . . , Xn ) zum Merkmal X mit σ 2 = Var(X) ∈ R. Zeige, dass n Tn (X1 , . . . , Xn ) = 1X (Xi − X̄)2 n i=1 kein erwartungstreuer Schätzer für σ 2 ist und bestimme eine Konstante c (in Abhängigkeit von n), so dass cTn erwartungstreu für σ 2 ist. Lösung Es ist n 1X E(Tn ) = E(Xi − X̄)2 n i=1 n 1X E(Xi2 − 2Xi X̄ + X̄ 2 ) = n i=1 n 2 1 X 2 = + E(X̄ 2 ) E(X 2 ) + (n − 1) E(X) E(X 2 ) − n n i=1 2 2 + E(X̄ 2 ). E(X 2 ) + (n − 1) E(X) = E(X 2 ) − n Mit n n X X 1 E(X̄ 2 ) = 2 E Xj Xi n j=1 i=1 n X X 1 = 2E Xi2 + 2 Xi Xj n i=1 1≤i<j≤n n X X 1 E(Xi2 ) + 2 E(Xi )E(Xj ) = 2 n i=1 1≤i<j≤n 2 1 n(n − 1) 2 = 2 nE(X ) + 2 E(X) n 2 2 1 , E(X 2 ) + (n − 1) E(X) = n folgt E(Tn ) = n−1 2 n−1 σ . E(X 2 ) − E(X)2 = n n Hierbei wurde mehrfach benutzt, dass (X1 , . . . , Xn ) eine Zufallsstichprobe zum Merkmal X ist, d.h. X1 , . . . , Xn sind iid-Kopien von X. P Man sieht, dass c n1 ni=1 (Xi − X̄)2 genau dann ein erwartungstreuer Schätzer für Var(X) n gewählt wird. ist, wenn c = n−1 Aufgabe 4 Ein Würfel wird n mal geworfen. Sei Yn die größte der geworfenen Augenzahlen, d.h. Yn = max{X1 , . . . , Xn }. (a) Bestimme die Zähldichte von Yn . (b) Zeige, dass lim E(Yn ) = 6. n→∞ Lösung (a) Sei k ∈ {1, . . . , 6}. Dann gilt: P(Yn = k) = P(Yn ≤ k) − P(Yn ≤ k − 1). Mit X ∼ U{1,...,6} (d.h. X ist eine auf der Menge {1, . . . , 6} gleichverteilte Zufallsvariable), folgt n P(Yn ≤ k) = P(X1 ≤ k, . . . , Xn ≤ k) = P(X ≤ k) n k = 6 n n ∀ k ∈ {1, . . . , 6}. und damit: P(Yn = k) = k6 − k−1 6 P (b) Es ist E(Yn ) = 6k=1 k · P(Yn = k). Damit könnte man die unter (a) berechnete Zähldichte P(Yn = k) verwenden, um den Erwartungswert von Yn zu bestimmen. P6 Es geht allerdings auch einfacher, nämlich mit folgender Abschätzung: E(Yn ) ≤ 6 k=1P(Y n = n k) = 6. Andererseits ist E(Yn ) ≥ 6·P(Yn = 6) = 6· 1−P(Yn ≤ 5) = 6· 1− 56 →6 (n → ∞) und damit folgt die Behauptung. Hinweis: In der Aufgabe 4)b) auf Blatt 11 kann dieselbe Überlegung wie in Teilaufgabe (b) verwendet werden und in der Aufgabe 4c) auf Blatt 11 brauchen wir auch die Zähldichte des Maximums von n Zufallsvariablen...