Statistik II Sommersemester 2005 PD Dr. Michael Krapp Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg Klausur und Unterlagen Universität Augsburg Klausur: ➢ „Spielregeln“: Wie Statistik I ➢ Nachholklausur im WS 2005 / 2006 Hilfreiche Unterlagen: ➢ Foliensatz∗ ➢ Übungsaufgabensammlung ➢ Klausuraufgabensammlung ➢ Klausur Statistik II vom Wintersemester 2004 / 2005∗ ∗ ) Download: www.wiwi.uni-augsburg.de/ibo, Rubrik „Downloads“ Literatur: ➢ Bamberg/Baur: Statistik, Oldenbourg, 12. Aufl. 2002 ➢ Bamberg/Baur: Arbeitsbuch Statistik, Oldenbourg, 7. Aufl. 2004 (optional) Statistik II 138 Zusätzliche Veranstaltungen Universität Augsburg Übung zu Statistik II Mittwoch 8:30 –10:00 HW 1001 Paul Mittwoch 8:30 –10:00 FW 2101 Papatrifon Mittwoch 10:15 –11:45 HW 1003 Krapp Mittwoch 10:15 –11:45 FW 1109 Klein Mittwoch 12:30 –14:00 HW 1003 Baur Mittwoch 12:30 –14:00 FW 1106 Bamberg Mittwoch 12:30 –14:00 FW 1109 Klein Mittwoch 14:15 –15:45 HW 1004 Baur Statistik II mit Excel – Grundkurs Mittwoch 14:15 –15:45 FW 2113 Paul Mittwoch 16:00 –17:30 FW 2113 Paul Statistik II mit Excel – Vertiefungskurs Mittwoch 17:45 –19:15 FW 2113 Paul Übung zu Statistik I Mittwoch 17:45 –19:15 FW 1106 Klein/Papatrifon Statistik II 139 Gliederung Universität Augsburg 10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 11. Grundlagen der induktiven Statistik 12. Punkt-Schätzung 13. Intervall-Schätzung 14. Signifikanztests 18. Stichprobenplanung Statistik II 140 Gesetz der großen Zahlen und zentraler Grenzwertsatz Universität Augsburg ➢ Gegeben: Zufallsvariablen X1, . . . , Xn • unabhängig und identisch verteilt (‚iid‘) • E(Xi) = µ • Var(Xi) = σ2 ➢ Gesucht: Verhalten von n X n bzw. Xi i=1 1X X̄n = Xi n i=1 wenn n laufend erhöht wird. ➢ Beachte (vgl. Folie 125): • E(X̄n) = µ • Var(X̄n) = σ2 n 141 10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 10.1 Gesetz der großen Zahlen Universität Augsburg ➢ Tschebyscheff-Ungleichung P(|X − E(X)| = c) 5 ➢ angewandt auf X̄n = 1 n n P Var(X) c2 (93) Xi ergibt i=1 σ2 P(|X̄n − µ| = c) 5 n · c2 ➢ Nun: n → ∞ ⇒ Gesetz der großen Zahlen: lim P(|X̄n − µ| = c) = 0 n→∞ bzw. 10. Gesetz der großen Zahlen und zentraler Grenzwertsatz lim P(|X̄n − µ| 5 c) = 1 n→∞ (95) 142 10.1 Gesetz der großen Zahlen Universität Augsburg x̄n 0.4 0.2 0.0 −0.2 −0.4 −0.6 n 0 50 100 150 200 250 143 10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 10.2 Zentraler Grenzwertsatz Universität Augsburg ➢ BB S. 130: Wahrscheinlichkeiten von Ereignissen, die mithilfe der Summe von iid Zufallsvariablen gebildet werden, lassen sich für großes n mittels der Normalverteilung hinreichend genau berechnen. ➢ Beispiel (Übungsaufgabe 47): X1, X2, X3 in [0; 1] gleichverteilt; Z1 = X1, Z2 = X1 +X2, Z3 = X1 +X2 +X3 f(z1) f(z2) 1 f(z3) 1 3 4 1 z1 1 10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 2 z2 1 2 3 z3 144 10.2 Zentraler Grenzwertsatz Universität Augsburg ➢ Approximativ gilt: n X √ Xi ∼ N(nµ; σ n) (96) i=1 ➢ Standardisierung: Yn = n P i=1 Xi − nµ X̄n − µ X̄n − µ √ √ = = n ∼ N(0; 1) σ σ n σ · √1n ➢ Zentraler Grenzwertsatz: P(Yn 5 x) −−−→ Φ(x) n→∞ (97) 145 10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 10.2 Zentraler Grenzwertsatz Universität Augsburg Beispiel (BB-Beispiel 61): n P Xi ∼ B(1; p) ⇒ X = Xi ∼ B(n; p) (Folie 93) i=1 E(X) = np; Var(X) = np(1 − p) (Fig. 36) ⇒ P √X−np np(1−p) 5 x ≈ Φ(x) (Brauchbar, falls np = 5 und n(1 − p) = 5.) 10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 146 10.2 Zentraler Grenzwertsatz Universität Augsburg Beispiel (BB-Aufgabe 76): X1, . . . , X12 gleichverteilt in [0; 1] ⇒ E(Xi) = 12 ; Var(Xi) = Y= 12 X 1 12 (Fig. 36) Xi − 6 i=1 Mit (87), (88), (91), (92) folgt: E(Y) = Var(Y) = 12 P E(Xi) − 6 = 12 · 12 − 6 = 0 i=1 1 Var(Xi) = 12 · 12 =1 i=1 12 P ⇒ Y ∼ N(0; 1) (approximativ) 147 10. Gesetz der großen Zahlen und zentraler Grenzwertsatz Grundlagen der induktiven Statistik Universität Augsburg ➢ Vollerhebung of unmöglich, deshalb: Beobachte Teilgesamtheit → schließe auf Grundgesamtheit ➢ Beispiel: Warensendung von 1000 Stück; darunter M Stück Ausschuss. M ist unbekannt. → Zufällige Entnahme von n = 30 Stück („Stichprobe“). Darunter 2 Stück Ausschuss. Denkbare Zielsetzungen: • Schätze M durch eine Zahl (z.B. • Schätze ein Intervall für M 2 30 · 1000 = 66,67) (z.B. M ∈ [58; 84]) • Teste die Hypothese, dass M > 50 ist. 11. Grundlagen der induktiven Statistik 148 11.1–11.2.2 Grundbegriffe Universität Augsburg ➢ Grundgesamtheit (G): Menge aller relevanten Merkmalsträger. ➢ Verteilung von G: F(x) = P(X 5 x) = W’keit, dass ein Merkmalsträger ausgewählt wird, der beim untersuchten Merkmal maximal die Ausprägung x aufweist. ➢ Uneingeschränkte (reine) Zufallsauswahl: Jedes Element von G hat die selbe Chance, ausgewählt zu werden. ➢ Stichprobenumfang (n): Anzahl der Merkmalsträger in der Stichprobe. ➢ Einfache Stichprobe: Uneingeschränkte Zufallsauswahl und unabhängige Ziehung. → Alle Stichprobenvariablen X1, . . . , Xn sind iid. 149 11. Grundlagen der induktiven Statistik 11.1–11.2.2 Grundbegriffe Universität Augsburg ➢ Stichprobenergebnis: n-Tupel der Realisationen der Stichprobenvariablen, (x1, . . . , xn). ➢ Stichprobenraum: Menge aller möglichen Stichprobenergebnisse. ➢ Likelihoodfunktion: • Verteilgungsklasse, der F (Vtlg. von G) angehört, ist bekannt; Verteilungsparameter ϑ aber unbekannt (z.B. N(µ; σ)). • Einfache Stichprobe X1, . . . , Xn. → Die gemeinsame Dichte / Wahrscheinlichkeitsfunktion von X1, . . . , Xn in Abhängigkeit von ϑ, f(x1, . . . , xn|ϑ), heißt Likelihoodfunktion. 11. Grundlagen der induktiven Statistik 150 11.1–11.2.2 Grundbegriffe Universität Augsburg Beispiel: G ist B(1; p)-verteilt, p unbekannt; zu xi: fi(x) = px(1 − p)1−x (BB S. 99) Einfache Stichprobe mit n = 2 ⇒ Likelihoodfunktion f(x1, x2|p) = f1(x1) · f2(x2) (wegen Unabhängigkeit) = px1 (1 − p)1−x1 · px2 (1 − p)1−x2 = px1+x2 (1 − p)2−x1−x2 Stichprobenergebnis (0, 1) ⇒ f(0, 1|p) = p(1 − p) = p − p2 (Welcher Wert p passt „am besten“ zu (0, 1)?) ➢ Stichprobenfunktion: Zufallsvariable V, die sich als Funktion der Stichprobenvariablen ergibt: n P 1 V = g(X1, . . . , Xn), z.B. V = n Xi = X̄ (vgl. Folie 141) i=1 151 11. Grundlagen der induktiven Statistik Wichtige Stichprobenfunktionen (Fig. 38) 11. Grundlagen der induktiven Statistik ... ➢ Besonders wichtige Zusammenhänge ➢ Herleitungen: BB S. 140 ➠ Wichtige Stichprobenfunktionen: • mit E(Xi) = µ, Var(Xi) = σ2 • Beliebige Verteilung • Einfache Stichprobe X1, . . . , Xn ➢ Gegeben: Universität Augsburg 152 Wichtige Stichprobenfunktionen (Fig. 38) Universität Augsburg ➢E P n 1 n (Xi − X̄) i=1 2 = n−1 n σ2, aber: E(S2) = σ2 ➢ Auf Grund der jensenschen Ungleichung (Folie 120) gilt E(S) 5 σ. Grund: √ √ p E(S) = E( S2) 5 E(S2) = σ2 = σ, da g(x) = √ x konkav ist. ➢ Verschiebungssatz für S2: " n # " n # X X 1 1 n n S2 = (Xi − X̄)2 = X2i − X̄2 n−1 n n−1 n i=1 # " n i=1 n X X 1 1 n · X̄2 = X2i − nX̄2 = X2i − n−1 n−1 n−1 i=1 i=1 153 11. Grundlagen der induktiven Statistik 11.2.3 Testverteilungen Universität Augsburg ➀ Chi-Quadrat-Verteilung: ➢ Sind X1, . . . , Xn iid N(0; 1)-verteilte ZV, so wird die Verteilung von Z= n X X2i i=1 als Chi-Quadrat-Verteilung mit n Freiheitsgraden bezeichnet. ➢ Kurzschreibweise: Z ∼ χ2(n) ➢ Es gilt: E(Z) = n und Var(Z) = 2n ➢ Fraktile: Bis n 5 30 in Tabelle 5 (BB S. 322 ff.); ab n > 30 Näherung: xα = 12 (x̃α + √ 2n − 1)2 wobei x̃α das α-Fraktil der N(0; 1)-Verteilung ist. 11. Grundlagen der induktiven Statistik 154 11.2.3 Testverteilungen Universität Augsburg Beispiel: x0,975 aus . . . • χ2(30): x0,975 = 46,98 • χ2(50): x̃0,975 = 1,96 ⇒ x0,975 = 12 (1,96 + 11. Grundlagen der induktiven Statistik √ 2 99) = 70,92 155 χ2-Verteilung (BB Tab. 5, S. 324) Universität Augsburg 11. Grundlagen der induktiven Statistik 156 Standardnormalverteilung (BB Tab. 3, S. 319) Universität Augsburg 157 11. Grundlagen der induktiven Statistik 11.2.3 Testverteilungen Universität Augsburg ➁ t-Verteilung: ➢ Ist X ∼ N(0; 1), Z ∼ χ2(n), X, Z unabhängig, so wird die Verteilung von X T=q 1 n Z als t-Verteilung mit n Freiheitsgraden bezeichnet. ➢ Kurzschreibweise: T ∼ t(n) ➢ Es gilt: E(T ) = 0 und Var(T ) = n n−2 ➢ Fraktile: • n > 30: verwende N(0; 1)-Fraktile; bis n 5 30: Tabelle 4 (BB S. 320 f.) • Achtung: Nur α = 0,6 vertafelt. Ggfs. Symmetrie ausnutzen: xα = −x1−α für α < 0,5 11. Grundlagen der induktiven Statistik 158 11.2.3 Testverteilungen Universität Augsburg Beispiel: Bestimme folgende Fraktile für t(10) . . . • x0,6 = 0,260 • x0,5 = 0 • x0,1 = −x0,9 = −1,372 11. Grundlagen der induktiven Statistik 159 t-Verteilung (BB Tab. 4, S. 320) Universität Augsburg 11. Grundlagen der induktiven Statistik 160 11.2.3 Testverteilungen Universität Augsburg ➂ F-Verteilung: ➢ Ist X ∼ χ2(m), Y ∼ χ2(n), X, Y unabhängig, so wird die Verteilung von Z= 1 mX 1 Y n als F-Verteilung mit den Freiheitsgraden m und n bezeichnet. ➢ Kurzschreibweise: Z ∼ F(m, n) ➢ Es gilt: E(Z) = n n−2 und Var(Z) = 2 n2 (n+m−2) m(n−4)(n−2)2 ➢ Fraktile: • 0,95- und 0,99-Fraktile: Tabelle 6 (BB S. 325 f.); ggfs. interpolieren. • Für 0,01- und 0,05-Fraktile: 1 xα = x̃1−α mit x̃1−α aus F(n, m) 11. Grundlagen der induktiven Statistik (98) 161 11.2.3 Testverteilungen Universität Augsburg Beispiel: Bestimme x0,05 für F(2, 5): F(5, 2): x̃1−0,05 = x̃0,95 = 19,30 ⇒ 1 1 = 19,30 F(2, 5): x0,05 = x̃0,95 = 0,052 11. Grundlagen der induktiven Statistik 162 F-Verteilung (BB Tab. 6, S. 325) Universität Augsburg 163 11. Grundlagen der induktiven Statistik 11.2.4 Verteilungen von Stichprobenfunktionen Universität Augsburg Gegeben: Einfache Stichprobe X1, . . . , Xn aus N(µ; σ)-Verteilung: Stichprobenfunktion n P Xi Verteilung √ N(nµ; σ n) X̄ N(µ; √σn ) i=1 √ n n P (Xi − µ)2 X̄−µ σ N(0; 1) 1 σ2 χ2(n) 1 σ2 i=1 n P (Xi − X̄)2 = i=1 X̄−µ √ n S Bei bel. Verteilung von G sind 11. Grundlagen der induktiven Statistik X̄−µ σ n−1 σ2 √ S2 χ2(n − 1) t(n − 1) n und X̄−µ S √ n approx. N(0; 1)-verteilt. 164 Punkt-Schätzung Universität Augsburg ➢ Ein unbekannter Parameter ϑ der Verteilung von G (z.B. σ von N(10; σ)) soll auf Basis einer Stichprobe geschätzt werden. ➢ Schätzwert: ϑ̂ ➢ Vorgehen: Verwendung einer Schätzfunktion Θ̂ = g(X1, . . . , Xn) Beachte: Der Schätzwert ϑ̂ ist die Realisierung der ZV (!) Θ̂. ➢ Frage: Welche Stichprobenfunktion ist zur Schätzung geeignet? ➠ Kriterien für die Beurteilung/Konstruktion von Schätzfunktionen! ➢ Im Folgenden: Vorliegen einer einfachen Stichprobe, d.h. X1, . . . , Xn iid. 165 12. Punkt-Schätzung 12.1 Erwartungstreue und wirksamste Schätzfunktionen Universität Augsburg ➢ Eine Schätzfunktion Θ̂ = g(X1, . . . , Xn) heißt erwartungstreu oder unverzerrt für ϑ, wenn unabhängig vom numerischen Wert von ϑ gilt: E(Θ̂) = ϑ (99) Gilt lim E(Θ̂n) = ϑ n→∞ so heißt Θ̂n asymptotisch erwartungstreu für ϑ. 12. Punkt-Schätzung 166 12.1 Erwartungstreue und wirksamste Schätzfunktionen Universität Augsburg ➢ Beispiel: Sind Θ̂ = X̄, Θ̂ 0 = a) Θ̂: X1 +Xn , 2 Θ̂ 00 = 1 n−1 n P Xi erwartungstreu für µ? i=1 E(X̄) = µ (Fig. 38) ist erwartungstreu. (87),(88) 1 n b) Θ̂ 0: E X1+X = 2 [E(X1) + E(Xn)] = 12 (µ + µ) = µ 2 ⇒ Θ̂ ⇒ Θ̂ 0 ist erwartungstreu. (87),(88) n n P P 1 1 00 c) Θ̂ : E n−1 Xi = n−1 E(Xi) = i=1 i=1 1 n−1 n P i=1 µ= n n−1 µ 6= µ ⇒ Θ̂ 00 ist nicht erwartungstreu, aber wegen n lim n−1 µ = µ asymptotisch erwartungstreu. n→∞ ➢ Welche der erwartungstreuen Schätzfunktionen Θ̂, Θ̂ 0 ist ‚besser‘? 167 12. Punkt-Schätzung 12.1 Erwartungstreue und wirksamste Schätzfunktionen Universität Augsburg ➢ Von zwei erwartungstreuen Schätzfunktionen Θ̂, Θ̂ 0 für ϑ heißt Θ̂ wirksamer als Θ̂ 0, wenn unabhängig vom numerischen Wert von ϑ gilt: Var(Θ̂) < Var(Θ̂ 0) ➢ Beispiel: Wegen Var(Θ̂) = Var(X̄) = σ2 n < Var(Θ̂ 0) = Var (falls n > 2) ist Θ̂ wirksamer als Θ̂ 0. 12. Punkt-Schätzung X1 +X2 2 (91),(92) 1 2 = 4 (σ + σ2) = σ2 2 168 12.1 Erwartungstreue und wirksamste Schätzfunktionen Universität Augsburg Allgemein: Diejenige Schätzfunktion, die die gerinste Varianz aller im Rah- men eines bestimmten Schätzproblems erwartungstreuer Schätzfunktionen besitzt, heißt die wirksamste Schätzfunktion. Die Bestimmung der wirksamsten Schätzfunktion ist relativ schwierig. 169 12. Punkt-Schätzung 12.1 Erwartungstreue und wirksamste Schätzfunktionen Universität Augsburg Verteilung von G ϑ wirksamste e.treue Schätzfkt. unbekannt µ X̄ B(1; p) p (= µ) X̄ Gleichverteilung in [0; 2a] a (= µ) N(µ; σ) (σ bekannt oder unbekannt) N(µ; σ), µ bekannt N(µ; σ), µ unbekannt 12. Punkt-Schätzung µ σ2 2 σ n+1 2n · max{X1, . . . , Xn} X̄ 1 n n P (Xi − µ)2 i=1 S2 170 12.2 Konsistente Schätzfunktionen Universität Augsburg ➢ Eine Folge von Schätzfunktionen Θ̂n gemäß Θ̂1 = g1(X1) Θ̂2 = g2(X1, X2) . Θ̂n = gn(X1, . . . , Xn) heißt konsistent für ϑ, wenn für alle c > 0 gilt: P(|Θ̂n − ϑ| = c) −−−→ 0 (100) n→∞ (Die Wahrscheinlichkeit, ϑ deutlich zu verfehlen, geht gegen 0.) 171 12. Punkt-Schätzung 12.2 Konsistente Schätzfunktionen Universität Augsburg ➢ Aus der Tschebyscheff-Ungleichung P(|X − E(X)| = c) 5 Var(X) c2 (93) resultiert folgende hinreichende (nicht notwendige) Konsistenzbedingung: lim E(Θ̂n) = ϑ n→∞ ➢ Beispiel: und lim Var(Θ̂n) = 0 n→∞ Ist X̄n konsistent für µ? Aus Fig. 38 folgt . . . • E(X̄n) = µ, • Var(X̄n) = d.h. X̄n ist erwartungstreu für µ. σ2 −−→ n − n→∞ 0, d.h. die Varianzen bilden eine Nullfolge. ⇒ X̄n ist konsistent für µ. 12. Punkt-Schätzung 172 12.4 Das Maximum-Likelihood-Prinzip (ML-Prinzip) Universität Augsburg ➢ Gegeben: • Ergebnis einer einfachen Stichprobe (x1, . . . , xn) • Likelihoodfunktion (vgl. Folie 150) f(x1, . . . , xn|ϑ) ➢ Beispiel: G ist B(1; p)-verteilt, p unbekannt; zu xi: fi(x) = px(1 − p)1−x (BB S. 99) Einfache Stichprobe mit n = 2 ⇒ Likelihoodfunktion f(x1, x2|p) = f1(x1) · f2(x2) (wegen Unabhängigkeit) = px1 (1 − p)1−x1 · px2 (1 − p)1−x2 = px1+x2 (1 − p)2−x1−x2 Stichprobenergebnis (0, 1) ⇒ f(0, 1|p) = p(1 − p) = p − p2 ➢ Gesucht: Schätzwert ϑ̂, der ‚am besten zu (x1, . . . , xn) passt‘ 173 12. Punkt-Schätzung 12.4 Das Maximum-Likelihood-Prinzip (ML-Prinzip) Universität Augsburg ➠ ML-Prinzip: Wähle ϑ̂ so, dass für alle möglichen ϑ-Werte gilt: f(x1, . . . , xn|ϑ̂) = f(x1, . . . , xn|ϑ) ➢ Maximierung meist durch Nullsetzen der 1. Ableitung (2. Abl. < 0 prüfen!) ➢ Maximierung für . . . • konkretes Stichprobenergebnis (z.B. (0, 1)) → ML-Schätzwert • allgemeines Stichprobenergebnis (z.B. (x1, x2)) → ML-Schätzfunktion ➢ Die Maximierung der logarithmierten Likelihoodfunktion liefert dasselbe Ergebnis, ist aber meist einfacher: ln f(x1, . . . , xn|ϑ̂) = ln f(x1, . . . , xn|ϑ) Grund: ln(x) wächst streng monoton mit x. 12. Punkt-Schätzung 174 Typische Vorgehensweise bei ML-Schätzung Universität Augsburg 1. Likelihoodfunktion aufstellen: f(x1, . . . , xn|ϑ) 2. Likelihoodfunktion logarithmieren (optional): ln f(x1, . . . , xn|ϑ) ! ∂ ∂ϑ [ln]f(x1 , . . . , xn |ϑ) = 0 ? ∂2 [ln]f(x , . . . , x | ϑ̂) < 0 1 n 2 ∂ϑ 3. Erste Ableitung nullsetzen: 4. Vorzeichen der zweiten Ableitung prüfen: Im Beispiel auf Folie 173: f(x1, x2|p) = px1+x2 (1 − p)2−x1−x2 f(0, 1|p) = p − p2 bzw. a) Konkreter Schätzwert: ∂ ∂p ∂2 ∂p2 ! f(0, 1|p) = 1 − 2p = 0 ⇒ p̂ = f(0, 1|p) = −2 < 0 ⇒ p̂ = 1 2 1 2 ist ML-Schätzwert 175 12. Punkt-Schätzung Typische Vorgehensweise bei ML-Schätzung Universität Augsburg b) Schätzfunktion: Logarithmieren sinnvoll (um Produktregel usw. zu vermeiden)! ln f(x1, x2|p) = (x1 + x2) ln(p) + (2 − x1 − x2) ln(1 − p) ∂ ∂p ln f(x1, x2|p) = x1 +x2 p ! 1 −x2 − 2−x1−p =0 ⇐⇒ (x1 + x2)(1 − p) = (2 − x1 − x2) p ∂2 ∂p2 ⇐⇒ x1 + x2 = 2 p ⇒ p̂ = x1 +x2 2 1 −x2 2 ln f(x1, x2|p) = − x1p+x − 2−x <0 2 (1−p)2 ⇒ p̂ = 12 (x1 + x2) (= x̄) ist ML-Schätzfunktion (passt auch zu a). Achtung: Lösung meist per Ableitung; es gibt aber Ausnahmen! 12. Punkt-Schätzung 176 Klausuraufgabe 156 (gekürzt) Universität Augsburg Ein bestimmtes Produkt wird von genau zwei Firmen A, B hergestellt. Jedes der produzierten Stücke kann auf Grund äußerer Merkmale eindeutig einer von zwei möglichen Güteklassen I, II zugeordnet werden. Bekannt ist, dass die von Firma A (bzw. Firma B) erzeugten Stücke zu 35 % (bzw. zu 50 %) der Güteklasse I entsprechen. Aus der Produktion einer der beiden Firmen wurde eine einfache Stichprobe vom Umfang 9 entnommen; alle 9 Stücke stammen also von ein und derselben Firma, wobei nicht erkennbar sei, von welcher. In der Stichprobe gehören 4 der 9 Stücke zu Güteklasse I. Zu welcher Antwort auf die Frage nach der Herkunft der Stichprobe kommt man nach dem Maximum-Likelihood-Prinzip? 177 12. Punkt-Schätzung Maximum-Likelihood-Schätzfunktionen Universität Augsburg Verteilung von G ϑ ML-Schätzfunktion B(1; p) p (= µ) X̄ Exp(λ) µ X̄ Exp(λ) σ2 X̄2 λ (= µ = σ2) X̄ P(λ) N(µ; σ) (σ bekannt oder unbekannt) N(µ; σ), µ bekannt N(µ; σ), µ unbekannt 12. Punkt-Schätzung µ σ2 σ2 X̄ 1 n 1 n n P (Xi − µ)2 i=1 n P (Xi − X̄)2 i=1 178 Maximum-Likelihood-Schätzfunktionen Universität Augsburg Für die ML-Schätzung von σ (und anderem) ist folgender Satz hilfreich: Ist h eine streng monotone Funktion (gleichgültig ob wachsend oder fallend) und ist Θ̂ eine Maximum-Likelihood-Schätzfunktion für den Parameter ϑ, so ist die Stichprobenfunktion h(Θ̂) eine Maximum-Likelihood-Schätzfunktion für den transformierten Parameter h(ϑ). Beispiel: √ • Ist Θ̂ ML-Schätzfunktion für σ , so ist Θ̂ ML-Schätzfunktion für σ. 2 • Ist G ∼ Exp(λ), so ist (λ = 1 µ 1 X̄ ML-Schätzfunktion für λ. = h(µ) mit h str. mon. fallend; ML-Schätzfkt. für µ: X̄ ⇒ h(X̄) = X̄1 ) 179 12. Punkt-Schätzung 12.5 Bayes-Schätzfunktionen Universität Augsburg ➢ Gegeben: • Ergebnis einer einfachen Stichprobe • Likelihoodfunktion (vgl. Folie 150) (x1, . . . , xn) f(x1, . . . , xn|ϑ) • Vorinformation über ϑ (Einschätzung eines Sachkundigen) in Form einer a priori Dichte / Wahrscheinlichkeitsfunktion ϕ(ϑ) Vorinformation Bayes-Schätzung Stichprobe ➠ a posteriori Dichte / Wahrscheinlichkeitsfunktion ψ(ϑ|x1, . . . , xn) 12. Punkt-Schätzung 180 12.5 Bayes-Schätzfunktionen Universität Augsburg ➢ Hilfsmittel: Formel von Bayes: P(B|Aj) P(Aj) P(Aj|B) = P P(B|Ai) P(Ai) (65) i wobei nun P(Aj|B) ersetzt wird durch ψ(ϑ|x1, . . . , xn) P(B|Aj) ersetzt wird durch f(x1, . . . , xn|ϑ) ersetzt wird durch ϕ(ϑ) P(Aj) f(x , . . . , xn|ϑi) ϕ(ϑi) P 1 im diskreten Fall f(x , . . . , x |ϑ ) ϕ(ϑ ) 1 n j j j ⇒ ψ(ϑ|x1, . . . , xn) = f(x1, . . . , xn|ϑ) ϕ(ϑ) im stetigen Fall ∞ R f(x1, . . . , xn|ϑ) ϕ(ϑ) dϑ −∞ 12. Punkt-Schätzung 181 Vorgehensweise bei Bayes-Schätzung Universität Augsburg 1. Likelihoodfunktion aufstellen: f(x1, . . . , xn|ϑ) 2. a priori Dichte / Wahrscheinlichkeitsfunktion (ist bekannt): ϕ(ϑ) 3. a posteriori Dichte / Wahrscheinlichkeitsfunktion ermitteln: ψ(ϑ|x1, . . . , xn) 4. Lageparameter der a posteriori Verteilung berechnen, z.B. • Modus • Median • Erwartungswert 12. Punkt-Schätzung 182 Klausuraufgabe 131 Universität Augsburg In A-Stadt wird über den Bau einer neuen Straße durch eine Volksabstimmung abgestimmt. Ein Fachmann schätzt den Anteil der Stimmen für den Bau der Straße folgendermaßen ein: Stimmenanteil für den Bau a priori Wahrscheinlichkeit für diesen Anteil 35 % 0,4 45 % 0,3 55 % 0,3 a) Geben Sie den a priori Erwartungswert des Stimmenanteils für den Bau der Straße an. Eine Wahlumfrage bei 120 (zufällig ausgewählten) wahlberechtigten Einwohnern ergab 70 Stimmen für den Bau der Straße. 12. Punkt-Schätzung 183 Klausuraufgabe 131 Universität Augsburg b) Ermitteln Sie das Maximum-Likelihood-Schätzergebnis für den Stimmenanteil der Wähler, die für den Bau stimmen. c) Ermitteln Sie die a posteriori Wahrscheinlichkeitsfunktion für den Anteil der Wählerstimmen für den Bau der Straße. d) Geben Sie den a posteriori Erwartungswert des Stimmenanteils für den Bau der Straße an. 12. Punkt-Schätzung 184 Intervall-Schätzung Universität Augsburg ➢ Für einen unbekannten Verteilungsparameter ϑ soll auf Basis einer Stichprobe ein Intervall geschätzt werden. ➢ Verwendung der Stichprobenfunktionen Vu, Vo, so dass Vu 5 Vo und P(Vu 5 ϑ 5 Vo) = 1 − α (102) stets gelten. [Vu; Vo] heißt Konfidenzintervall (KI) für ϑ zum Konfidenzniveau 1 − α. ➢ Beachte: Das Schätzintervall [vu; vo] ist Realisierung der ZV (!) Vu, Vo. ➠ Irrtumswahrscheinlichkeit α (klein, i.d.R. α 5 0,1) ➢ Frage: Welche Konfidenzintervalle sind zur Schätzung geeignet? ➠ Hängt von Verteilung von G sowie vom unbekannten Parameter (µ, σ2) ab! ➢ Im Folgenden: Einfache Stichprobe X1, . . . , Xn mit E(Xi) = µ, Var(Xi) = σ2 185 13. Intervall-Schätzung Intervall-Schätzung Universität Augsburg ➢ Wichtiger Spezialfall: Symmetrische Konfidenzintervalle • Symmetrisch heißt nicht, dass die Dichte symmetrisch ist, sondern • übereinstimmende W’keiten für Über-/Unterschreiten des KI, d.h. P(Vu > ϑ) = P(Vo < ϑ) = α 2 (103) ➢ Wichtig: Eine Verkleinerung von α bewirkt eine Vergrößerung des KI. 13. Intervall-Schätzung 186 Überblick Intervallschätzung (BB S. 172) Universität Augsburg 13. Intervall-Schätzung 187 13.1.1 KI für µ bei Normalverteilung mit bekanntem σ2 Universität Augsburg ➢ Vorgehensweise: ➢ Grund für N(0; 1)-Verteilung: Betrachte z.B. Vu = X̄ − √σcn : √ Vu > µ ⇐⇒ X̄ − √σcn > µ ⇐⇒ X̄−µ n>c σ X̄−µ √ n ∼ N(0; 1) (vgl. Folie 164) σ 13. Intervall-Schätzung 188 13.1.1 KI für µ bei Normalverteilung mit bekanntem σ2 Universität Augsburg 189 13. Intervall-Schätzung 13.1.1 KI für µ bei Normalverteilung mit bekanntem σ2 Universität Augsburg Beispiel (BB-Beispiel 73): Normalverteilung mit σ = 2,4 (x1, . . . , x9) = (184,2; 182,6; 185,3; 184,5; 186,2; 183,9; 185,0; 187,1; 184,4) Gesucht: KI für µ zum Konfidenzniveau 1 − α = 0,99 1. 1 − α = 0,99 2. N(0; 1): c = x1− α2 = x1− 0,01 = x0,995 = 2,576 (Tab. 3; Interpolation) 2 1 9 3. x̄ = (184,2 + · · · + 184,4) = 184,8 4. σc √ n = 2,4·2,576 √ 9 = 2,06 5. KI = [184,8 − 2,06; 184,8 + 2,06] = [182,74; 186,86] Interpretation: Mit 99 % Wahrscheinlichkeit ist µ ∈ [182,74; 186,86]. 13. Intervall-Schätzung 190 Wichtige Fraktilswerte Universität Augsburg Wichtige N(0; 1)-Fraktilswerte: xα α 0,9 1,281552 0,95 1,644854 0,975 1,959964 0,99 2,326348 0,995 2,575829 (I.d.R. genügen drei Nachkommastellen.) 191 13. Intervall-Schätzung Intervalllänge Universität Augsburg ➢ Im Fall 13.1.1 gilt offenkundig 2σc L = Vo − Vu = √ n (106) ➢ Welcher Stichprobenumfang n sichert eine vorgegebene (Maximal-)Länge L? (106) nach n auflösen! ⇒ n= 2σc L 2 (107) ➢ Eine Halbierung von L erfordert eine Vervierfachung von n! ➢ Im BB-Beispiel 73: L = 4 ⇒ n= 13. Intervall-Schätzung 2·2,4·2,576 2 4 = 9,556 ⇒ n = 10 192 13.1.2 KI für µ bei Normalverteilung mit unbekanntem σ2 Universität Augsburg ➢ Vorgehensweise: ➢ Zu Schritt 2: Falls n − 1 > 30 wird die N(0; 1)-Verteilung verwendet. 193 13. Intervall-Schätzung 13.1.2 KI für µ bei Normalverteilung mit unbekanntem σ2 Universität Augsburg Beispiel (BB-Aufgabe 92): Wie BB-Beispiel 73 (vgl. Folie 190), jedoch σ unbekannt. 1. 1 − α = 0,99 2. t(8): c = x1− α2 = x1− 0,01 = x0,995 = 3,355 (Tab. 4) 2 3. 4. 1 x̄ = q 9 (184,2 + · · · + 184,4) = 184,8 s = 18 [(184,22 + · · · + 184,42) − 9 sc √ √ = 1,31·3,355 = 1,47 n 9 · 184,82] = 1,31 5. KI = [184,8 − 1,47; 184,8 + 1,47] = [183,33; 186,27] Interpretation: Mit 99 % Wahrscheinlichkeit ist µ ∈ [183,33; 186,27]. 13. Intervall-Schätzung 194 13.1.3 KI für µ bei beliebiger, insb. dichotomer Verteilung Universität Augsburg ➢ Voraussetzung: n > 30, bzw. falls G dichotom: 5 5 n P xi 5 n − 5 i=1 ➢ Vorgehensweise: ➢ Zu Schritt 3: Manchmal kann ein anderer Schätzwert σ̂ sinnvoller sein. 195 13. Intervall-Schätzung 13.1.3 KI für µ bei beliebiger, insb. dichotomer Verteilung Universität Augsburg Beispiel (BB-Beispiel 74): Poisson-Verteilung mit λ (= µ = σ2) unbekannt. (x1, . . . , x40) = (3; 8; . . . ; 6) Gesucht: KI für λ zum Konfidenzniveau 1 − α = 0,9 1. 1 − α = 0,9 2. N(0; 1) : c = x1− α2 = x1− 0,1 = x0,95 = 1,645 (Folie 191) 3. x̄ = σ̂ = 4. σ̂c √ n 1 40 √ = 2 (3 + 8 + · · · + 6) = 6,5 √ x̄ = 6,5 = 2,55 (da σ2 = λ) 2,55·1,645 √ 40 = 0,66 5. KI = [6,5 − 0,66; 6,5 + 0,66] = [5,84; 7,16] 13. Intervall-Schätzung 196 Intervalllänge Universität Augsburg ➢ Falls σ bekannt ➠ verwende (107). ➢ Sonst hängt L = 2√σ̂c n (wegen σ̂) vom Stichprobenergebnis ab. ➠ n kann i.A. nicht ermittelt werden. ➢ Ausnahme: Obere Schranke d für σ̂ ist bekannt, d.h. σ̂ 5 d gilt immer. 2 2dc 2dc L 5 √ ⇐⇒ n = L n ➢ Beispiel: p √ x̄ − x̄2 G ∼ B(1; p) ⇒ σ̂ = x̄(1 − x̄) = x̄ − x̄2 x̄ ∈ [0; 1] ⇒ x̄ − x̄2 maximal bei x̄ = 2 2 ⇒ x̄ − x̄q 5 12 − 12 = 14 ⇒ σ̂ 5 14 = 12 = d 2 ⇒ n = Lc 1 2 1 4 • 0,5 x̄ 197 13. Intervall-Schätzung 13.2 KI für σ2 bei Normalverteilung Universität Augsburg ➢ Vorgehensweise, falls µ unbekannt: ➢ Falls µ bekannt: • Schritt 2: Ersetze χ2(n − 1) durch χ2(n). n P • Schritte 3 und 4: Ersetze (n − 1) s2 durch (xi − µ)2. i=1 13. Intervall-Schätzung 198 13.2 KI für σ2 bei Normalverteilung Universität Augsburg Beispiel: G ∼ N(2; σ); (x1, . . . , x5) = (1; 1,5; 2,5; 3; 2) Gesucht: KI für σ2 zum Konfidenzniveau 1 − α = 0,99 1. 1 − α = 0,99 2. χ2(5) : c1 = x α2 = x0,005 = 0,41; c2 = x1− α2 = x0,995 = 16,75 5 P 3. (xi − µ)2 = (1 − 2)2 + (1,5 − 2)2 + (2,5 − 2)2 + (3 − 2)2 + (2 − 2)2 = 2,5 i=1 4. vu = 2,5 16,75 = 0,15; vo = 2,5 0,41 = 6,10 5. KI = [0,15; 6,10] (Extrem groß, da n klein.) 199 13. Intervall-Schätzung Unsymmetrisches KI bei Binomialverteilung Universität Augsburg Voraussetzung: G ∼ B(1; p) mit 5 5 n P xi 5 n − 5 i=1 a) Überschätzung vermeiden (z.B. kleine Partei nahe 5 %-Hürde): 1. Ein Konfidenzniveau 1 − α wird festgelegt. 2. Das (1 − α)-Fraktil c der N(0; 1)-Verteilung wird bestimmt. p 3. Das Stichprobenmittel x̄ und σ̂ = x̄(1 − x̄) werden errechnet. 4. Der Wert vo = x̄ + √σ̂cn wird berechnet. 5. Als Ergebnis der Intervall-Schätzung wird [0; vo] angegeben. b) Unterschätzung vermeiden (z.B. Anteil militanter Demonstranten): Wie oben, aber . . . 4. Der Wert vu = x̄ − √σ̂cn wird berechnet. 5. Als Ergebnis der Intervall-Schätzung wird [vu; 1] angegeben. 13. Intervall-Schätzung 200 Unsymmetrisches KI bei Binomialverteilung Universität Augsburg Beispiel: Eine Umfrage unter 200 Erstwählern hat einen mittleren Stimmenanteil von 4,5 % für eine bestimmte Partei ergeben. Bestimmen Sie ein unsymmetrisches Konfidenzintervall für den erwarteten Stimmenanteil dieser Partei zum Konfidenzniveau 95 %. n = 200; x̄ = 0,045 ⇒ 200 P i=1 xi = 200 · 0,045 = 9 ∈ [5; 200 − 5] ⇒ Vorauss. erfüllt 1. 1 − α = 0,95 2. N(0; 1) : c = x1−α = x0,95 = 1,645 (Folie 191) p 3. x̄ = 0,045; σ̂ = 0,045 · (1 − 0,045) = 0,21 √ = 0,07 4. vo = 0,045 + 0,21·1,645 200 5. KI = [0; 0,07] 13. Intervall-Schätzung 201