Prof. M. Schweizer Wahrscheinlichkeit und Statistik WS 2005/06 Lösungsskizze Übungsserie 11 1. a) Wir schätzen λ durch den Mittelwert λ̂ = X̄3 . Als Schätzwert ergibt sich: λ̂(ω) = X̄3 (ω) = 19 1 4+6+9 = = 6 = 6.33 . 3 3 3 b) Wir nehmen an, dass die drei Werte von den drei Zuvallsvariablen X 1 , X2 und X3 erzeugt wurden, Xi ∼ Pois (λ). Betrachte nun die Zufallsvariable X1 + X 2 + X 3 3 Gemäss dem Zentralen Grenzwertsatz ist nun X̄3 = X̄3 − µ approx ∼ N (0, 1) σX̄3 2 mit µ = E X̄3 , σX̄ = Var X̄ 3 3 Für ein approximatives (1 − α) · 100%-Vertrauensintervall gilt folgendes: X̄3 − µ ≤ z1− α2 ≈ 1 − α. P z α2 ≤ σX̄3 Durch Umformen bekommen wir i h ⇔ P X̄3 − σX̄3 z1− α2 ≤ µ ≤ X̄3 − σX̄3 z α2 ≈ 1 − α h i ⇔ P X̄3 − σX̄3 z1− α2 ≤ µ ≤ X̄3 + σX̄3 z1− α2 ≈ 1 − α, denn −z α2 = z1− α2 . 2 = Var X̄ Nun: µ = E X̄3 = λ, σX̄ = 3 3 2 = 1 λ̂ = Also bilden wir den Schätzer σ̂X̄ 3 3 " P λ̂ − z1− α2 r 1 1 3 Var (X1 ) = 3 λ. 1 3 X̄3 . Dies führt auf: 1 λ̂ ≤ λ ≤ λ̂ + z1− α2 3 r # 1 λ̂ ≈ 1 − α 3 Da α = 0.05 folgt aus der Tabelle der Normalverteilungsquantile dass z 1− α2 = 1.96. Damit bekommt man für unsere Realisierung ω: r 1 1 λ̂(ω) ± 1.96 λ̂(ω) = 6 ± 2.848 = (3.486, 9.181). 3 3 Anmerkung: Die Anzahl n = 3 ist für den Zentralen Grenzwertsatz noch sehr klein. Alternativ hätte man auch verwenden können, dass die Summe von Poisson(λ P i )-verteilten Zufallsvariablen auch Poisson-verteilt ist, und zwar mit dem Parameter i λi . 2 c) 10 liegt nicht im approximativen 95% Vertrauensintervall. Diese Tatsache sagt aber nur wenig über die Wahrscheinlichkeit aus, dass ein einzelnes X i (ω) gleich 10 ist. Man bedenke, dass uns das Vertrauenintervall nur einen wahrscheinlichen Bereich für den wahren Parameter (hier λ) angibt. Es kann also durchaus so sein, dass der Wert 10 für eine Realisierung unserer Zufallsvariablen sehr hohe Wahrscheinlichkeit hat. Ist etwa der 910 −9 ≈ 0.118. Die Wahrscheinlichkeit wahre Parameter λ = 9, so gilt P [Xi = 10] = 10 ! ·e 10 Fasern zu beobachten, ist beinahe 12% (sic!). 2. a) fθ (x) = Fθ0 (x) √ √ −θ exp(−θ x) · θ √ = − exp(−θ x) √ = 2 x 2 x b) Sei X eine Zufallsvariable mit X ∼ F . Z ∞ Z √ θ ∞√ E [X] = x exp(−θ x) dx xfθ (x) dx = 2 0 0 Z ∞ Z √ θ ∞ 4t t= x θ exp(−θt) dt = t exp(−θt)2t dt = 2 0 2 0 θ Z ∞ θ 4 θ (−4) 2 θ ∞ 4 exp(−θt) dt = exp(−θt) = 2. = = 2 0 θ2 2 θ3 2 θ3 θ 0 c) Der Momentenschätzer beruht auf dem Gesetz der grossen Zahlen: s r 2 2 2 . = E [X] ≈ X̄n ⇒ θ̂M M = = Pn 1 2 θ X̄n i=1 Xi n d) Für Maximum-Likelihood brauchen wir die log-Likelihood-Funktion: √ ! n n n X X Y √ √ θ exp(−θ xi ) log( xi ). xi − `(x1 , . . . , xn , θ) = log = n log(θ)−n log(2)−θ √ 2 xi i=1 i=1 i=1 Zufallsvariablen einsetzen, Ableiten und Nullsetzen ergibt: n Xp n d ! − `(X1 , . . . , Xn , θ̂M L ) = Xi = 0 dθ θ̂M L i=1 n √ = i=1 Xi ⇒ θ̂M L = Pn 1 1 n Pn i=1 √ . Xi 3. a) Sei X der Zufallsvektor X = (X1 , . . . , Xn ) Wir beginnen mit dem Aufstellen der LogLikelihood-Funktion: `(x1 , . . . , xn , θ) = log n 1 1 Y (1 + xi )−(1+ θ ) n θ i=1 n ! 1 X = −n log(θ) − (1 + ) log(1 + xi ) θ i=1 Zufallsvariablen einsetzen, Ableiten und Nullsetzen: 3 n n 1 X d ! `(X1 , . . . , Xn , θ̂M L ) = − log(1 + Xi ) = 0. + 2 dθ θ̂M L θ̂M L i=1 Auflösen nach θ̂M L ergibt den Maximum-Likelihood-Schätzer: n θ̂M L = 1X log(1 + Xi ) = tn (X) = Tn , n i=1 was zu zeigen war. b) Nein. Dafür gibt es keinen Grund: θ ∈ (0, ∞). c) Man sieht leicht: " n # n 1X 1X E [tn (X)] = E log(1 + Xi ) = E [log(1 + Xi )] = E [log(1 + X1 )] . n n i=1 i=1 Sei Y eine Zufallsvariable mit Y ∼ Exp( 1θ ). Dann gilt für Y bekanntlich: E [Y ] = θ und Var (Y ) = θ 2 . Mit dem Hinweis und obiger Rechnung sehen wir nun, dass E [t n (X)] = E [Y ] = 11 = θ. θ Ähnlich kann man für die Varianz schliessen: n Var (tn (X)) = Var 1X log(1 + Xi ) n i=1 = ! = 1 1 1 1 = θ2 . Var (Y ) = n n θ12 n n 1 X 1 Var (log(1 + Xi )) = Var (log(1 + X1 )) n2 n i=1 Bemerkung 1: Man kann selbstverständlich die gesuchten Grössen E [tn (X)] und Var (tn (X)) auch direkt durch Integrieren finden. Bemerkung 2: Beweis des Hinweises: F (y) = P [Y ≤ y] = P [log(1 + X) ≤ y] = P [X ≤ e y − 1] Z y Z ey −1 1 s −(1+ 1 ) s 1 s=log(t+1) −(1+ 1θ ) θ · e ds dt = = (1 + t) (e ) θ 0 θ Z0 y 1 s −1 = (e ) θ ds. 0 θ Folglich ist die Dichte von Y: f (y) = d 1 1 F (y) = e− θ y . dy θ d) Aus c) folgt, dass E [tn (X)] = θ, und dies ist die Erwartungstreue. e) Die Chebychev-Ungleichung auf dem Aufgabenblatt liefert: P [|tn (X) − θ| > ] ≤ Dies beweist die Konsistenz. 1 1 1 n→∞ Var (tn (X)) = 2 θ 2 −→ 0, ∀ > 0. 2 n