Spiel Körpergröße 9.1 Zahl: Anzahl weiblich 9.0 2 Einführung in die induktive Statistik 4 8.8 Tafelgruppe 8.9 1 1 8.6 1 8.5 Institut für Statistik Ludwig-Maximilians-Universität München 0 3 8.7 Friedrich Leisch 5 SS 2009 8.4 8.5 8.6 8.7 8.8 8.9 9.0 Eigene.Gruppe Friedrich Leisch, Induktive Statistik 2009 1 Inferenzstatistik Methoden, um mit Informationen aus Stichproben auf Charakteristika der Gesamtpopulation schließen zu können. Konfidenzintervalle Nach Modellierung und Parameterschätzung ist man meist an der Überprüfung konkreter Fragestellungen interessiert (ja/neinEntscheidungen statt lange Beschreibungen der Daten). Mögliche Frageformen: 1. Paßt eine Hypothese zu meinem Modell? 2. Widerspricht mein Modell einer gewissen Hypothese? In der klassischen Inferenzstatistik werden vor allem Fragen der zweiten Form behandelt. Friedrich Leisch, Induktive Statistik 2009 3 Beispiel: Sonntagsfrage Vier Wochen vor der österreichischen Nationalratswahl 1999 wurde 499 Haushalten die Sonntagsfrage“ gestellt: Falls nächsten Sonntag Wahlen ” wären, welche Partei würden Sie wählen? Grüne 6% 7.4% LIF 4% 3.65% Sonst 3% 1.98% 0.3 FPÖ 25% 26.91% 0.2 ÖVP 24% 26.91% Frage 1: War das Ergebnis für die SPÖ überraschend? Frage 2: Mit welcher Wahrscheinlichkeit mußte das LIF damit rechnen, den Wiedereinzug ins Parlament nicht zu schaffen? Mit welcher Wahrscheinlichkeit die Grünen? 0.1 SPÖ 38% 33.15% 0.0 Umfrage Wahl Umfrage Wahl 0.4 Beispiel: Sonntagsfrage SP VP FP G LIF sonst Frage 3: War das Gesamtergebnis überraschend? Friedrich Leisch, Induktive Statistik 2009 4 Friedrich Leisch, Induktive Statistik 2009 5 Konfidenzintervall für Mittelwert Konfidenzintervall für Mittelwert Schätzung des Mittelwerts: √ Mit c = 1.96σ/ n haben wir 2 Ungleichungen µ̂ = X̄ = n 1 X xi n i=1 µ − c ≤ µ̂ µ̂ ≤ µ + c Kommt die Stichprobe aus einer Population mit Mittelwert µ und Varianz σ 2, dann gilt für n → ∞ und wollen eigentlich Aussagen über µ treffen. Bringen wir die Konstante jeweils auf die andere Seite so erhalten wir µ ≤ µ̂ + c µ̂ ∼ N (µ, σ 2/n) µ̂ − c ≤ µ und mit 95% Wahrscheinlichkeit liegt µ̂ innerhalb des Intervalls oder kürzer in einer Zeile 1.96σ 1.96σ ≤ µ̂ ≤ µ + √ µ− √ n n Friedrich Leisch, Induktive Statistik 2009 µ̂ − c ≤ µ ≤ µ̂ + c 6 Friedrich Leisch, Induktive Statistik 2009 7 Konfidenzintervall für Mittelwert Beispiel: Sonntagsfrage √ Setzen wir für c wieder 1.96σ/ n ein, so erhalten wir, daß mit 95% Wahrscheinlichkeit 1.96σ 1.96σ µ̂ − √ ≤ µ ≤ µ̂ + √ n n Beginnen wir mit dem Ergebnis der SPÖ (Frage 1): Die Stimmen für jede einzelne Partei können wir als binomialverteilt ansehen (jeweils gegen den Rest). gilt, falls die Stichprobe wirklich aus einer Population mit Mittelwert µ und Varianz σ 2 stammt. Die obere und untere Intervallgrenze hängen aber nicht von µ ab → die Aussage trifft für alle µ aus diesem Intervall gleichermaßen zu. Wir schließen also: Mit 95% Wahrscheinlichkeit liegt der wahre Mittelwert irgendwo in dem gegebenen Intervall. Friedrich Leisch, Induktive Statistik 2009 8 Beispiel: Sonntagsfrage Wir haben also einen geschätzten Erwartungswert von p̂s = 0.38 und eine zugehörige Varianz von 2 = p̂ (1 − p̂ ) = 0.2356 σ̂S S S somit erhalten wir s c = 1.96 0.2356 = 0.04259 499 und es war zu erwarten, daß das Ergebnis der SPÖ mit 95% Wahrscheinlichkeit im Intervall [33.7, 42.3] liegen würde. Das 99% Intervall ist [32.4, 43.6]. Friedrich Leisch, Induktive Statistik 2009 9 Beispiel: Sonntagsfrage Frage 2 betreffend den Verbleib der Grünen und des LIF können wir auch so formulieren: Wie groß ist die Wahrscheinlichkeit, daß pG ≥ 0.04 bzw. pL ≥ 0.04. 0.3 0.4 Umfrage Wahl P{p ≥ 0.04} = P{p̂ − p ≤ p̂ − 0.04} 0.2 Es gilt p̂ ∼ N (p, σ 2/n) 0.0 0.1 p̂ − p ∼ N (0, σ 2/n) √ (p̂ − p) n ∼ N (0, 1) σ √ (p̂ − p) n q ∼ N (0, 1) p̂(1 − p̂) SP VP Friedrich Leisch, Induktive Statistik 2009 FP G LIF sonst 10 Friedrich Leisch, Induktive Statistik 2009 11 Beispiel: Sonntagsfrage Beispiel: Sonntagsfrage q p̂(1 − p̂) 0.3 √ (p̂ − 0.04) n √ (0.06 − 0.04) 499 = q ≈ 1.881225 0.06(1 − 0.06) 0.2 Grüne: Umfrage Wahl 0.4 √ (p̂ − p)√n (p̂ − 0.04) n P{p ≥ 0.04} = P q ≤ q p̂(1 − p̂) p̂(1 − p̂) 0.1 Φ(1.881225) ≈ 97% √ (p̂ − 0.04) n q p̂(1 − p̂) √ (0.04 − 0.04) 499 = q 0.06(1 − 0.06) =0 0.0 LIF: SP VP FP G LIF sonst Φ(0) = 50% Friedrich Leisch, Induktive Statistik 2009 12 Beispiel: Sonntagsfrage Friedrich Leisch, Induktive Statistik 2009 13 Beispiel: Sonntagsfrage 0.4 Die Beantwortung der Frage 3, ob das Gesamtergebnis überraschend war, ist nicht ganz so einfach: 0.0 0.1 0.2 0.3 • Dürfen wir einfach 95% Konfidenzintervalle für alle Parteien bilden und das Gesamtergebnis als nicht überraschend“ klassifizieren, wenn ” alle innerhalb der Konfidenzintervalle liegen? • Was passiert, wenn 20 Parteien antreten? • Sollen wir dann einen Ausreißer“ akzeptieren? Oder vielleicht gar ” 2? • Sind die Ergebnisse der Parteien voneinander unabhängig? SP VP Friedrich Leisch, Induktive Statistik 2009 FP G LIF → darauf kommen wir später nochmal zurück. sonst 14 Friedrich Leisch, Induktive Statistik 2009 15 (1 − α) Konfidenzintervall Symmetrisches KI Das von den Schätzstatistiken Gu = gu(X1, . . . , Xn) ≤ Go = go(X1, . . . , Xn) definierte Intervall [Gu, Go] heißt (1 − α) Konfidenzintervall für θ, falls für jede vorgegebener Irrtumswahrscheinlichkeit α ∈ [0, 1] P{Gu ≤ θ ≤ Go} = 1 − α gilt. Achtung: Gu und Go sind Statistiken der Stichprobe, und damit Zufallsvariablen. Von einem symmetrischen Konfidenzintervall spricht man, falls θ mit gleicher Wahrscheinlichkeit links oder rechts außerhalb des Intervalles liegt: α P{θ < Gu} = P{θ > Go} = 2 Falls die Verteilung von θ bekannt ist, liefern die Quantile zu den Werten α/2 und 1 − α/2 die Intervallgrenzen. Realisiertes Konfidenzintervall: [gu, go]; gu = gu(x1, . . . , xn), go = go(x1, . . . , xn) Friedrich Leisch, Induktive Statistik 2009 16 Friedrich Leisch, Induktive Statistik 2009 17 Einseitige KI KI für Mittelwert Falls nur eine untere oder obere Schranke für θ von Interesse ist, wird Go oder Gu auf ∞ gesetzt: Gegeben sei eine normalverteilte Stichprobe mit bekannter Varianz σ 2. Dann ist X̄ − µ z= √ ∼ N (0, 1) σ/ n P{θ ≤ Go} = P{∞ ≤ θ ≤ Go} = 1 − α P{Gu ≤ θ} = P{Gu ≤ θ ≤ ∞} = 1 − α Bei bekannter Verteilung von θ liefern die Quantile zu den Werten 1 − α bzw. α die Schranken. standardnormalverteilt, die Schranken des Konfidenzintervalls sind σ Gu = X̄ − z1−α/2 √ n σ Go = X̄ + z1−α/2 √ n wobei zα das α-Quantil der N (0, 1) ist. Friedrich Leisch, Induktive Statistik 2009 18 Friedrich Leisch, Induktive Statistik 2009 19 KI für Mittelwert KI für Mittelwert Gegeben sei eine normalverteilte Stichprobe mit unbekannter Varianz σ 2. Dann ist X̄ − µ t= √ ∼ tn−1 σ̂/ n t-verteilt mit n−1 Freiheitsgraden, die Schranken des Konfidenzintervalls sind σ̂ Gu = X̄ − t1−α/2(n − 1) √ n σ̂ Go = X̄ + t1−α/2(n − 1) √ n Gegeben sei eine beliebig verteilte Stichprobe mit bekannter Varianz σ 2. Dann ist X̄ − µ z= √ ∼ N (0, 1) σ/ n approximativ standardnormalverteilt, die Schranken des entsprechenden approximativen Konfidenzintervalls sind σ Gu = X̄ − z1−α/2 √ n σ Go = X̄ + z1−α/2 √ n wobei tα(n − 1) das α-Quantil der t-Verteilung mit n − 1 Freiheitsgraden ist. wobei zα das α-Quantil der N (0, 1) ist. Bei unbekannter Varianz wird diese wieder durch σ̂ 2 ersetzt, das KI sollte dann aber erst für größere n verwendet werden (und damit in jedem Fall die Normalverteilungsquantile). Friedrich Leisch, Induktive Statistik 2009 Friedrich Leisch, Induktive Statistik 2009 20 KI für Varianz 21 KI für Anteilswert Gegeben sei eine normalverteilte Stichprobe mit unbekannter Varianz σ 2. Dann ist n−1 2 q= σ̂ ∼ χ2 n−1 σ2 χ2-verteilt mit n − 1 Freiheitsgraden, die Schranken des Konfidenzintervalls für die Varianz sind n X i=1 Xi ∼ B(n, π) q X̄ − π π(1 − π)/n ∼ N (0, 1) Die Schranken des Konfidenzintervalls für π sind s n−1 2 Gu = σ̂ q1−α/2 n−1 2 Go = σ̂ qα/2 π̂(1 − π̂) 2 n s π̂(1 − π̂) Go = π̂ + z1− α 2 n Gu = π̂ − z1− α wobei qα das α-Quantil der χ2-Verteilung mit n − 1 Freiheitsgraden ist. Friedrich Leisch, Induktive Statistik 2009 Gegeben sein eine dichotome Stichprobe mit den Ausprägungen 0 und 1 und P(X = 1) = π. Dann ist 22 Friedrich Leisch, Induktive Statistik 2009 23 Breite von Konfidenzintervallen Beispiel Konfidenzintervall für µ: σ Gu = X̄ − z1−α/2 √ n σ Go = X̄ + z1−α/2 √ n Breite b: Überprüfung von Verteilungsannahmen σ b = 2 · z1− α √ 2 n • 1 − α größer (kleiner) ⇒ z1− α größer (kleiner) 2 ⇒ KI breiter (schmaler) • n größer (kleiner) ⇒ KI schmaler (breiter) • n → nc ⇒ Breite verändert sich um Faktor √ c Friedrich Leisch, Induktive Statistik 2009 24 Beispiel GBÖ: Ausgaben Beispiel GBÖ: Ausgaben Histogram of KOPFAUSG 1200 50000 40000 30000 800 60 ALTER1 Friedrich Leisch, Induktive Statistik 2009 80 0 20 40 60 80 100 20000 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0 0 ALTER2 ● ● ● 10000 400 40 0 200 200 0 100 0 20 ● ● 600 Frequency 600 400 Frequency Median & IQR Mean & StdDev 1000 800 500 400 300 Frequency 200 60000 Histogram of ALTER2 1000 Histogram of ALTER1 10000 20000 30000 40000 50000 60000 KOPFAUSG 26 Friedrich Leisch, Induktive Statistik 2009 27 Beispiel GBÖ: log2(Ausgaben) Beispiel GBÖ: Welche Verteilung? 14 500 400 12 300 13 • Optisch nach Histogramm scheinbar recht gut, aber was ist gut? 200 Frequency • Wie gut passen eine Normalverteilung zum Alter bzw. eine LogNormalverteilung zu den Augaben? ● ● ● ● ● ● ● 15 600 16 Histogram of log2(KOPFAUSG) 0 10 100 11 • Stichprobe extrem groß, daher sollte es hier eigentlich sehr leicht sein. 10 11 12 13 14 15 ● ● ● ● ● ● ● ● 16 log2(KOPFAUSG) Friedrich Leisch, Induktive Statistik 2009 28 Empirische Dichte und Verteilung Friedrich Leisch, Induktive Statistik 2009 29 Empirische Dichte und Verteilung Friedrich Leisch, Induktive Statistik 2009 30 1.0 0.8 0.0 0.2 0.4 Fn(x) 0.6 0.8 Density 0.4 0.6 0.2 0.0 F (x) = P{X ≤ x} {#i : xi ≤ x} günstige F̂n(x) = = n mögliche ist unverzerrter Schätzer für die unbekannte wahre Verteilung • Echte Dichteschätzung sehr komplexes Thema, es gibt Bücher die sich ausschließlich mit diesem Problem befassen, naive Schätzer wie Histogramm sind meist nicht glatt genug (in Abhängigkeit von Breite der Klassen). ecdf(x) 1.0 Histogram, N=100 • Als einfache Visualisierung der Wahrscheinlichkeiten einer diskreten Verteilung bzw. Dichte einer stetigen Verteilung verwenden wir Balkendiagramme und Histogramme. • Verteilung F und empirische Verteilung F̂n: −1.0 −0.5 0.0 0.5 1.0 −1.0 −0.5 0.0 0.5 1.0 x → Verteilungsschätzer viel glatter“ (für echten Dichteschätzer muß ” Histogramm geglättet werden). Friedrich Leisch, Induktive Statistik 2009 31 Empirische Dichte und Verteilung Empirische Dichte und Verteilung Vergleich Gleichverteilung mit Normalverteilung: Wenn Verteilungsschätzer viel einfacher sind, warum beschäftigt man sich dann überhaupt mit dem Problem der Dichteschätzung? 0.8 0.2 0.0 0.0 • Nützlich zum Vergleich von Verteilungen. 0.6 emp.vt(z) Fn(x) 0.2 0.4 Warum machen Verteilungsschätzer dennoch Sinn? 0.4 0.6 0.8 • Dichte ist für Menschen viel intuitiver zu lesen. 1.0 Normal P−P Plot 1.0 ecdf(x) −1.0 −0.5 0.0 0.5 1.0 0.0 0.2 x 32 1.0 Quantile Eine duale Sichtweise: statt der Verteilungsfunktion F (x) verwenden wir die Quantilsfunktion F −1(α) → QQ (Quantil-Quantil) Diagramme. 1.0 ● Sample Quantiles ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ●●● ●●● ●● ●●●● ● ● ●● −2 −1 0 ●●● ● ●●● ●● ●●● 0.5 0.5 ●●● ●●● ● ● ● ● ● ● ● ●● ●●● ● ●●●● ●●●● ● ●● ●● ●● ●●●● ●● ● ● ●● ●● ● ● 0.0 1.0 ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0.0 −1.0 lebt“ für alle Verteilungen auf dem Intervall [0, 1]. ” Uniform Q−Q Plot ● ●● ●●●●●● ● −0.5 Vorteile: Normal Q−Q Plot Sample Quantiles Verwendung sowohl zum Vergleich zweier Stichproben als auch zum Vergleich einer Stichprobe mit den theoretischen Quantilen einer Verteilung. Ersetzt die antiquierte Methode der Wahrscheinlichkeitspapiere“. ” • F −1 0.8 33 ●●●● ●●● ●●● ●●●● ●● ●● ●● ●●● ●● ● ● ● ●●● ●●● ●● ●● ● ●●● ●● ●●●● −0.5 Quantile 0.6 Friedrich Leisch, Induktive Statistik 2009 −1.0 Friedrich Leisch, Induktive Statistik 2009 0.4 pnorm(z, sd = sd(x)) 1 2 Theoretical Quantiles ●●● ● ● 0.0 0.2 0.4 0.6 0.8 1.0 Theoretical Quantiles • Für mehrere Familien von Verteilungen, inkl. Gleichverteilung und Normalverteilung gilt, daß QQ Diagramme gerade Linien ergeben, auch wenn man falsche Parameter wählt. Friedrich Leisch, Induktive Statistik 2009 34 Friedrich Leisch, Induktive Statistik 2009 35 Quantile QQ-Plot: ALTER1 und ALTER2 Vergleich der QQ Diagramme einer N(0,1) mit einer N(3,0.25): 4 2 0 Sample Quantiles −6 −4 −2 2 0 −2 −6 −4 Sample Quantiles 4 6 Normal Q−Q Plot 6 Normal Q−Q Plot −4 −2 0 2 4 Theoretical Quantiles −4 −2 0 2 4 Theoretical Quantiles Gerade wird durch 1. und 3. Quartil der Stichprobe gelegt. Achsenabschnitt entspricht Mittelwert, Steigung der Standardabweichung. Friedrich Leisch, Induktive Statistik 2009 36 QQ-Plot: KOPFAUSG Friedrich Leisch, Induktive Statistik 2009 38 Ab ca. 30 Jahren greift die Normalapproximation recht gut. Friedrich Leisch, Induktive Statistik 2009 37