Kapitel 8 Parameterschätzung 8.1 Schätzfunktionen Def. 8.1.1: Es seien X1 , X2 , . . . , Xn unabhängige ZV, die alle die gleiche Verteilung besitzen. θ sei ein unbekannter Parameter dieser Verteilung. X1 , X2 , . . . , Xn ist als eine (Beobachtungsoder) Messreihe zur Bestimmung von θ mit n Einzelmessungen aufzufassen. Xi entspricht also der i–ten Messung. Deren Messergebnis xi ist eine Realisierung von Xi . Aus dem Satz x1 , x2 , . . . , xn von Messwerten, den man als Stichprobe vom Umfang n bezeichnet, bestimmt man einen Schätzwert θ̂ für θ, von dem man ”normalerweise” annimmt, dass er ”nahe bei” θ liegt. Die Zuordnung von x1 , x2 , . . . , xn zu θ̂ bezeichnet man als Schätzfunktion: θ̂ = g(x1 , x2 , . . . , xn ). Drei Annahmen: a) Messergebnis ist bei jeder Messung unbeinflusst von den vorherigen Messergebnissen =⇒ Die Zufallsvariablen X1 , X2 , . . . , Xn sind unabhängig. b) Es gibt keine Veränderung der beeinflussbaren Versuchsbedingungen =⇒ Die Zufallsvariablen X1 , X2 , . . . , Xn haben alle die gleiche Verteilung, häufig Normalverteilung. c) Es gibt keinen systematischen Fehler Beispiel 8.1.1: Wir führen eine Messreihe von n Messungen (z.B. das elektrische Widerstandes eines Gerätes) durch. Der i-te Messung entspricht eine Zufallsvariable Xi Das Messergebnis xi ist eine Realisierung der Zufallsvariable Xi wahrer Wert = gemeinsamer Erwartungswert µ := E(Xi ) der Zufallsvariablen Xi Ziel der Messungen ist es nun, Informationen über µ zu bekommen. Es werden dazu n Messungen tatsächlich durchgeführt, z.B. vier Widerstandsmessungen mit den Messergebnissen (in Ω): 10.1 =: x1 , 10.2 =: x2 , 10.0 =: x3 , 10.1 =: x4 100 Dies ist Stichprobe vom Umfang 4 (allgemein: vom Umfang n). 10.1 + 10.2 + 10.0 · · · + 10.1 x1 + x2 + · · · + xn = 10.1 im Zahlenbeispiel = x := xn := n 4 Die Interpretation ist nicht µ = x und auch nicht µ ist sicher nahe bei x, sondern nur die Vermutung, dass x nahe bei µ liegt. µ̂ (Schätzwert für µ) = x := x1 + · · · + xn (=: g(x1 , . . . , xn ) bei diesem Beispiel). n Aus Satz 7.9.3 folgt X := X n := X1 + X2 + · · · + Xn −→ µ für n → ∞ (fast sicher) n Dies rechtfertigt die obige Vermutung. 8.2 Maximum–Likelihood–Methode Bestimme θ̂ so, dass P (X1 = x1 ∧ X2 = x2 ∧ · · · ∧ Xn = xn ) (bzw. die gemeinsame Verteilungsdichte von X1 , X2 , . . . , Xn an der Stelle (x1 , x2 , . . . , xn ) im Falle einer stetigen ZV X) maximal wäre, wenn θ = θ̂ wäre. Beispiel 8.2.1: Eine Beobachtungsgröße sei Poisson-verteilt, wobei der Parameter λ unbekannt sei (λ > 0). Um Informationen über λ zu erhalten, machen wir drei Beobachtungen, d.h. wir ziehen eine Stichprobe vom Unfang 3. Die Beobachtungergebnisse seien die Werte 4, 1, 6 . Dies sind Realisierungen von Zufallsvariablen X1 , X2 , X3 , die unabhängig und Poisson-verteilt sind mit dem gleichem λ. P (X1 = 4 ∧ X2 = 1 ∧ X3 = 6) = P (X1 = 4) · P (X2 = 1) · P (X3 = 6) λ4 −λ λ1 −λ λ6 λ4+1+6 λ4+1+6 e e = e−3λ =: e−3λ =: h(λ) 4! 1! 6! 4!1!6! a Diese Wahrscheinlichkeit nennt man auch Likelihood–Funktion h(λ). = e−λ Anwendung des Maximum-Likelihood Prinzips: Die Wahrscheinlichkeit für das eingetretene Ereignis, also h(λ), sei maximal, wenn λ = λ̂ wäre. h′ (λ) = (−3)e−3λ λ4+1+6−1 λ4+1+6 + e−3λ (4 + 1 + 6) a a λ4+1+6−1 ! =0 a 4+1+6 λ>0 ⇐⇒ (−3)λ + (4 + 1 + 6) = 0 ∨ λ = 0 ⇐⇒ λ = 3 Ausserdem gilt h(λ) → 0 für λ → 0+ und für λ → ∞ und h(λ) > 0 für alle λ > 0. Damit ist h(λ̂) das Maximum von h(λ). Der Maximum-Likelihood-Schätzwert (Abk.: M-L-Schätzwert) ist also: = [(−3) · λ + (4 + 1 + 6)] · e−3λ λ̂ = 4+1+6 3 101 Ergebnisse bei einigen Verteilungen: Tabelle 8-1 Verteilung Schätzfkten (nach der M-L-Meth.) Eigenschaften aus 8.3 p p̂ = x konsistent, erwart.treu – λ konsistent, erwart.treu Exponentialverteilung – λ N (µ, σ) σ2 µ N (µ, σ) µ σ2 N (µ, σ) – µ, σ 2 λ̂ = x 1 λ̂ = x µ̂ = x n 1X c 2 (xi − µ)2 σ = n i=1 µ̂ = x n X c2 = 1 σ (xi − x)2 n bekannte Param. unbek. Param. – 1 m.Wahrsch. p 0 m. W.(1-p) (nX ist binomialverteilt) Poissonverteilung Xi = konsistent, nicht erw.treu konsistent, erwart.treu konsistent, erwart.treu konsistent, erwart.treu konsistent, nicht erw.treu i=1 Zu der 1. Verteilung: Die einzelne Zufallsvariable Xi kann nur 2 Werte annehmen und die ZV X1 , X2 , . . . , Xn unabhängig. Wir haben also ein Bernoulli-Experiment: 1 ”Erfolg” mit Wahrscheinlichkeit p Xi := 0 ”Fehlschlag” mit Wahrscheinlichkeit 1 − p Aufg. 79 = Anzahl der Erfolge bei n Versuchen. X1 + X2 + X3 + · · · + Xn = nXn Bei der statistischen Qualitätskontrolle m.Z. ist p der Anteil der defekten Stücke in der Lieferung. n · xn ist die Anzahl der Ziehungen von defekten Stücken. xn ist damit der Anteil der defekten Stücke in der Stichprobe. p c2 . Sie ist aber weder für Bem.: Die Schätzfunktion (nach der M–L–Meth.) für σ ist σ̂ = σ bekanntes noch für unbekanntes µ erwartungstreu. 8.3 Eigenschaften von Schätzfunktionen g(X1 , X2 , . . . , Xn ) (z.B. X (genauer:X n ) := (X1 + X2 + · · · + Xn ) · 1 ) ist ZV. n Def. 8.3.1: Eine Schätzfunktion g für θ heißt erwartungstreu, wenn gilt: E(g(X1 , . . . , Xn )) = θ. Beispiel: X n ist erwartungstreu: n E(X n ) = E 1X Xi n i=1 ! = n n i=1 i=1 1X 1X n E(Xi ) = µ = µ = E(Xi ) n n n 102 Def. 8.3.2: n sei variabel. Dann heißt eine Schätzfunktion g (genauer: Folge von Schätzfunktionen) für θ konsistent, wenn gilt: P (|g(X1 , . . . , Xn ) − θ| ≤ q) → 1 für n → ∞ für alle q > 0. Beispiel: X n ist konsistent; denn es gilt nach Satz 7.9.3: Xn −→ µ = E(Xi ) für n → ∞ (f.s.) Satz 8.3.1: Es seien X1 , X2 , . . . , Xn unabhängige ZV, die alle die gleiche Verteilung besitzen und für die der Erwartungswert und die Varianz existieren. a) x ist eine konsistente, erwartungstreue Schätzfunktion für E(Xi ) =: µ. n 1 X b) (xi − x)2 ist eine konsistente, erwartungstreue Schätzfunktion für V (Xi ) =: σ 2 . n−1 i=1 E(Xi ) und V (Xi ) werden dabei als unbekannte Verteilungsparameter bei den ZV Xi aufgefasst. 8.4 Konfidenzintervalle Bei der Aufstellung von Konfidenzintervallen braucht man die Verteilung der ZV g(X1 , X2 , . . . , Xn ), die also über die Schätzfuktion von den ZV X1 , X2 , . . . , Xn abhängt. Bei der Schätzung des Erwartungswertes µ einer NV ist das eine Summe der ZV X1 , X2 , . . . , Xn die noch durch n dividiert wird. Wir brauchen also die Verteilung einer Summe von unabhägigen normalverteilten ZV, und dafür gilt der folgende Satz 8.4.1: a) Eine Summe von normalverteilten, unabhängigen ZV ist wieder normalverteilt. b) X ist normalverteilt ⇒ (αX + β) mit α, β ∈ IR, α 6= 0, ist normalverteilt. Allgemeine Voraussetzung für 8.4 mit Ausnahme von Satz 8.4.10: X1 , . . . , Xn sind unabhängige, N (µ, σ)–verteilte ZV. σ Satz 8.4.2: X n hat die Verteilung: N (µ, √ ). n Die Aussage dieses Satzes ergibt sich direkt aus Satz 7.8.4. Wir nehmen nun an, dass bei einer NV die Varianz σ 2 bekannt und der Erwartungswert µ unbekannt ist. Wir werden also versuchen, µ mit Hilfe einer Stichprobe zu schätzen. Schätzung: µ̂ = x x1 , x2 , · · · , xn Ergebnis von Stichprobe vom Umfang n Das Konfidenzintervall gibt nun den Bereich um µ̂ = x an, für den wir mit ausreichender Sicherheit sagen können, dass der wahre Wert von µ darin liegt. 103 Def. 8.4.1: Seien n, 0 < γ < 1 beliebig vorgegeben. (γ o. ä.). x ist eine Realisierung von X. Gilt dann (8.4.1) P X − q′ ≤ µ ≤ X + q′ = P so bezeichnet man das Intervall meist nahe bei 1, z. B. γ = 0.9, 0.95, 0.99 X − µ ≤ q ′ = γ, [x − q ′ , x + q ′ ] als γ–Konfidenzintervall für µ. γ heißt Vertrauenswahrscheinlichkeit (häufig in % angegeben) und sollte zusammen mit dem Stichprobenumfang n vor der Untersuchung festgelegt werden. Korrekte Intepretation: µ liegt mit Wahrscheinlichkeit γ in dem Intervall [X − q ′ , X + q ′ ]. Satz 8.4.3: a) Die folgende ZV ist standard-normalverteilt: √ (X − µ) n Y := σ b) Aus der Eigenschaft P (|Y | ≤ q) = 2Φ(q) − 1 kann man Konfidenzintervalle für µ bei bekanntem σ bestimmen. Beispiel 8.4.1: Eine Messgröße (oder Beobachtungsgröße) sei N (µ, σ)-verteilt, wobei µ unbekannt und σ = 1.8 bekannt sei. Bestimme 0.95(oder 95%) Konfidenzintervall für µ, wähle also γ = 0.95. Lege fest: n = 9 (d.h. 9 Messungen ) ! P (|Y | ≤ q) = 2Φ(q) − 1 = γ = 0.95 (vergl. Satz 8.4.3), d.h. ! Φ(q) = 1+γ 1.95 = = 0.975 2 2 1+γ q heißt Quantil zu 2 Aus Normalverteilungstabelle lesen wir ab q = 1.96. Damit erhalten wir √ (X − µ) n ≤ 1.96 = 0.95 . P σ Aus den 9 Messungen erhalten wir x = 3.5 und damit das Konfidenzintervall: 1.96 · 1.8 1.96σ √ |µ − 3.5| = |x − µ| ≤ √ = = 1.176 =: q ′ n 9 oder in expliziter Form: (µ ∈ [x − q ′ , x + q ′ ] = [3.5 − 1.176, 3.5 + 1.176] =) [2.324, 4.676] Def. 8.4.2: Z sei eine beliebige ZV mit der Verteilungsfunktion F und c eine beliebige reelle Zahl mit 0 < c < 1. Dann heißt q das c–Quantil der Verteilung, wenn F (q) = c gilt. Insbesondere bezeichnen wir das c–Quantil der Standard–Normalverteilung mit qΦ (c). 104 Bestimmung eines γ–Konfidenzintervalles für µ bei bekanntem σ: Schritt 1: Lege die Vertrauenswahrscheinlichkeit γ und den Stichprobenumfang n fest. Schritt 2: Bestimme q > 0 aus ! 1+γ , Φ(q) = 2 also das (1 + γ)/2–Quantil der Standard–Normalverteilung. Schritt 3: Ziehe eine Stichprobe vom Umfang n. x1 , x2 , . . . , xn seien die dabei gewonnenen Realisierungen (Mess– oder Beobachtungsergebnisse) der N (µ, σ)–verteilten ZV X1 , X2 , . . . , Xn . Das Konfindenzintervall ist dann durch √ (x − µ) n ≤q σ oder in expliziter Form durch q·σ q·σ x− √ ≤µ≤x+ √ n n gegeben. Satz 8.4.4: X sei N (0, 1)− vert. Dann hat Y := X 2 die Verteilungsdichte: f (y) := 0 für y ≤ 0 und := (2π)−1/2 y −1/2 e−y/2 für y > 0. Satz 8.4.5: a) Die folgende ZV ist χ2 -verteilt mit n Freiheitsgraden: Y := σ −2 n X i=1 (Xi − µ)2 Dabei ist die χ2 -Verteilung mit r Freiheitsgraden definiert durch die folgende Verteilungsdichte: fχ2 (y) := 0 für y ≤ 0 und := Kr e−y/2 y (r−2)/2 für y > 0, wobei die Konstante Kr so bestimmt ist, dass das Integral über die Verteilungsdichte von −∞ bis ∞ den Wert 1 hat. Fχ2 sei die zugehörige Verteilungsfunktion. b) Aus der Eigenschaft P (a ≤ Y ≤ b) = Fχ2 (b)−Fχ2 (a) (a ≤ b, n Freiheitsgrade) kann man Konfidenzintervalle für σ 2 bei bekanntem µ bestimmen. Satz 8.4.6: a) Die folgende ZV ist χ2 -verteilt mit (n − 1) Freiheitsgraden: Y := σ −2 n X i=1 2 (Xi − X) b) Aus der Eigenschaft P (a ≤ Y ≤ b) = Fχ2 (b)− Fχ2 (a) (a ≤ b, (n − 1) Freiheitsgrade) kann man Konfidenzintervalle für σ 2 bei unbekanntem µ bestimmen. 105 Beispiel 8.4.2: X1 , X2 seien unabhängig und N (µ, 1)−verteilt (X1 −µ)2 +(X2 −µ)2 ist Summe von 2 unabhängigen ZV und χ2 − verteilt mit 2 Freiheitsgraden. X1 + X2 2 X1 + X2 2 2 2 + X2 − (X1 − X) + (X2 − X) = X1 − 2 2 2 2 2 X1 − X2 X2 − X1 X1 − X2 √ = + = 2 2 2 Dies ist das Quadrat von nur einer standardnormalverteilten ZV und daher χ2 − verteilt mit einem Freiheitsgrad. Beispiel 8.4.3: Y sei ZV aus Satz 8.4.5 (häufig mit χ2 bezeichnet) Sei r = 9 = = Zahl der unabhängigen Summanden Zahl der Freiheitsgrade ! P (Y ≤ q) =: Fχ2 (q) = 0.950 ! P (Y ≤ q) =: Fχ2 (q) = 0.100 ⇔ q = 16.92 ⇔ q = 4.168 Die Bestimmung von Konfidenzintervallen für σ 2 wird in der Vorlesung und in der Übung nicht behandelt oder mindestens zurückgestellt. Bei späteren Anwendungen der χ2 -Verteilung werden Quantile ermittelt, für die eine Tabelle (chiˆ2tab.pdf) bereitgestellt ist. Für große r, etwa ab r = 100, kann man das c–Quantil q näherungsweise durch die im Buch von Bamberg/Baur angegebene Formel √ (qΦ (c) + 2r − 1)2 q≈ 2 bestimmen. Dabei sind die Werte von qΦ (c) für einige Werte von c aus der letzten Zeile der Tabelle der Quantile der t–Verteilung (tverttab.pdf), für einige weitere Werte aus der For! ! mel Φ(qΦ (c)) = 1 − Φ(−qΦ (c)) = c, d.h. aus Φ(−qΦ (c)) = 1 − c zu ermitteln. Es ist z.B. Φ(−(−2.326)) = Φ(2.326)) ≈ 0.990 = 1 − 0.010 und damit gilt qΦ (0.010) = (−2.326). Schließlich wird noch qΦ (0.750) = 0.6745, qΦ (0.500) = 0 und qΦ (0.250) = −0.6745 benötigt. Bestimmung eines Konfidenzintervalls für µ bei unbekanntem σ: √ (X − µ) n in Satz 8.4.3 wird ersetzt durch Y := v Y := u σ u t Satz 8.4.7: X und n P i=1 Satz 8.4.8: √ (X − µ) n n X 1 (Xi − X)2 (n − 1) i=1 2 (Xi − X) sind unabhängig. a) Die folgende ZV ist t -verteilt mit (n − 1) Freiheitsgraden: p (X − µ) n(n − 1) Y := s n P 2 (Xi − X) i=1 106 Dabei ist die t -Verteilung mit r Freiheitsgraden definiert durch die folgende Verteilungsdichte: − r + 1 2 y 2 ft (y) := Cr 1 + r wobei die Konstannten Cr so bestimmt ist, dass das Integral über die Verteilungsdichte von −∞ bis ∞ den Wert 1 hat. Ft sei die zugehörige Verteilungsfunktion. b) Aus der Eigenschaft P (|Y | ≤ q) = 2Ft (q) − 1 ((n − 1) Freiheitsgrade) kann man Konfidenzintervalle für µ bei unbekanntem σ bestimmen. Beispiel 8.4.4: Eine Messgröße (oder Beobachtungsgröße) sei N (µ, σ)-verteilt, wobei µ und σ unbekannt seien. Bestimme 90% Konfidenzintervall für µ, also γ = 0.95. Lege fest: n = 11 (d.h. 11 Messungen ) Eine Stichprobe vom Umfang 11 ergebe n 11 X X 2 (xi − x) = (xi − 3)2 = 20 µ̂ = x = 3 und i=1 i=1 ! (X − µ)√11 · 10 P 11 ≤q P 2 (Xi − X) i=1 ! = 2Ft (q) − 1 = 0.90, ↑ Satz 8.4.8 wobei Ft die Verteilungfunktion einer t-Verteilung mit (n − 1) = 10 Freiheitsgraden ist. Suche dann q mit 1.90 ! 1+γ = = 0.95 Ft (q) = 2 2 Die Zahl der Freiheitsgrade ist r = n − 1 = 10 Aus Tabelle der Quantile der t− Verteilung lesen wir ab: q = 1.81. Damit erhalten wir als Konfidenzintervall: v u 11 √ √ uX (x − µ) 11 · 10 20 1 1.81 · t s ≤ 1.81, also|µ−x| = |x−µ| ≤ 1.81· √ (xi − x)2 = √ = 0.772 =: q ′ 11 110 i=1 110 P 2 i=1(xi − x) In expliziter Form erhalten wir also als 90%–Konfidenzintervall für µ: (µ ∈ [x − q ′ , x + q ′ ] = [3 − 0.772, 3 − 0.772] =) [2.228, 3.772]. Bestimmung eines γ–Konfidenzintervalles für µ bei unbekanntem σ: Schritt 1: Lege die Vertrauenswahrscheinlichkeit γ und den Stichprobenumfang n fest. Schritt 2: Bestimme q > 0 aus ! 1+γ , Ft (q) = 2 also ein (1 + γ)/2–Quantil der t–Verteilung mit (n − 1) Freiheitsgraden. Schritt 3: Ziehe eine Stichprobe vom Umfang n. x1 , x2 , . . . , xn seien die dabei gewonnenen Realisierungen (Mess– oder Beobachtungsergebnise) der N (µ, σ)–verteilten ZV X1 , X2 , . . . , Xn . Das 107 Konfindenzintervall ist dann durch oder in expliziter Form durch s x− gegeben. q· p (x − µ) n(n − 1) ≤q s n P 2 (x − x) i i=1 n P i=1 p (xi − x)2 n(n − 1) ≤µ≤x+ q· s n P i=1 p (xi − x)2 n(n − 1) Satz 8.4.9: Ft,r sei die Verteilungsfunktion der t–Verteilung mit r Freiheitsgraden; dann gilt: Ft,r → Φ für r → ∞. t–Verteilung mit ∞ vielen Freiheitsgraden = N (0, 1)–Verteilung N (0, 1)–Verteilung = t–Verteilung mit ”r = ∞“ Anwendung: Bei Stichproben mit großem Umfang (etwa ≥ 50) kann näherungsweise die N (0, 1)–Verteilung statt der t–Verteilung benutzt werden. Satz 8.4.10: X sei eine binomialverteilte ZV mit den Parametern n, p, die die folgenden Bedingungen erfüllen sollten: n ≥ 50, np, n(1 − p) ≥ 5 (vergl. Satz 7.6.7). X − np a) Die ZV Y := √ ist näherungsweise N (0, 1)–verteilt. npq (vergl.Satz 7.10.1 u.(7.6.4) statt (7.6.5) aus Satz 7.6.7) b) Aus P (|Y | ≤ q) ≈ 2Φ(q) − 1 kann man – wie unten beschrieben – unter gewissen Bedingungen Näherungen für Konfidenzintervalle für p bestimmen. p sei unbekannt, und wir suchen ein γ–Konfidenzintervall für p. Nach Satz 8.4.10 verwenden wir dazu die Beziehung ! X − np √ ! γ = 2Φ(q) − 1 ≈ P (|Y | ≤ q) = P p ≤ q = P (|X − np| ≤ q npq) np(1 − p) 0 ≤ p ≤ 1 ⇒ p · (1 − p) ≤ 1/4 (Beweis in einer Übungsaufgabe) p γ = 2Φ(q)−1 ≈ P |X − np| ≤ q np(1 − p) ≤ P ! |X − np| ≤ q r 1 n· 4 ! q √ = P |X − np| ≤ · n 2 Die Wahrscheinlichkeit dafür, dass die Abweichung von np von der Schätz–ZV X höchstens √ q · n/2 beträgt, ist also näherungsweise ≥ γ. Wenn nun x eine Realisierung von X, also z.B. 108 die tatsächlich beobachtete Anzahl der Ziehungen von defekten Stücken ist, erhalten wir als Konfidenzintervallnäherung: q √ q √ q √ |x − np| (= |np − x|) ≤ · n ⇔ x − · n ≤ np ≤ x + · n ⇔ 2 2 2 √ √ x + q · n/2 x − q · n/2 ≤p≤ =: p2 p1 := n n [p1 , p2 ] kann nun als Näherung für ein γ–Konfidenzintervallnäherung für p genommen werden, wenn die Voraussetzungen von Satz 8.4.10 mindestens dann erfüllt sind, wenn np ≥ 5 und n(1 − p) ≥ 5 für alle p ∈ [p1 , p2 ] gilt. Daraus ergibt sich die Bedingung ! ! (np ≥)np1 ≥ 5 und (n(1 − p) ≥)n(1 − p2 ) ≥ 5 ! Bestimmung eines Konfidenzintervalles für p: Bestimme q > 0 aus 2Φ(q) − 1 = γ, also aus Φ(q) = (1 + γ)/2. Bestimme dann ein√Intervall p1 ≤ p ≤ p2√mit n n (x + q ) ) (x − q 2 2 , p2 = (8.4.2) p1 = n n [p1 , p2 ] ist als Näherung für ein γ–Konfidenzintervall zu akzeptieren, wenn gilt: n ≥ 50, np1 ≥ 5 und n(1 − p2 ) ≥ 5. Anderenfalls muss eine andere Methode als über Satz 8.4.10 gewählt werden. Beispiel 8.4.4: Vor einer Wahl in einer Stadt mit 60000 wahlberechigten Einwohnern soll eine Meinungsumfrage durchgeführt werden. p := Anteil der Wähler der Partei A. (1 − p)= Anteil der Wähler der anderen Partei, Nichtwähler u.s.w. p sei unbekannt. Konstruiere 95%− Konfidenzintervall für p. Es wird eine (zufällige) Stichprobe von Umfang 100 ”o. Z.” gezogen, d.h. ein Wahlberechtigter wird nicht zweimal befragt. Umfrageergebnis: 40 davon sind für Patei A. Die ZV X := Anzahl der Wähler von A in der Stichprobe, deren Realisierung 40 ist, ist wegen ”o.Z.“ hypergeometrisch verteilt. Die Bedingungen in Satz 7.6.8 für die Näherung durch die Binomialverteilung sind aber deutlich erfüllt: N = 60000 ≥ 1000 und n = 100 ≤ 0.1 · N X ist also näherungsweise binomialverteilt mit n, p als Parameter. Konstruktion des Konfidenzintervalles: Bestimme q > 0 aus ! Tab. 2Φ(q) − 1 = γ = 0.95 ⇔ Φ(q) = 0.975 ⇔ q = 1.96 x = 40 = Realisierung von X bei der Durchführung der Umfrage. Die erste Bedingung für die Näherung der Binomialverteilung durch die Normalverteilung ist erfüllt: n = 100 ≥ 50 Wir bestimmen dann die Grenzen √ √ 1.96 100 q n 40 ∓ x∓ 2 = 2 = 0.400 ∓ 0.098 p1,2 = n 100 und erhalten so das Intervall [p1 , p2 ] = [0.302, 0.498] 109 Ist dieses Intervall als Konfidenzintervall zu akzeptieren? Dazu müssen wir die weiteren Näherungsbedingungen prüfen: n · p1 = 100 · 0.302 = 30.2 ≥ 5, n(1 − p2 ) = 100 · 0.502 = 50.2 ≥ 5, n ≥ 50 Damit ist [0.302, 0.498] näherungsweise ein Konfidenzintervall für p. Man kann also mit 95– prozentiger Sicherheit schließen, dass näherungsweise zwischen 30.2% und 49.8% für Patei A sind. In dem Buch ”Elementare Einführung in die angewandte Statistik” von K. Bosch ist eine Formel für die Grenzen für p angegeben und hergeleitet, die eine kleinere und damit bessere Konfidenzintervallnäherung liefert: ! r 1 q2 x(n − x) q 2 ′ (8.4.2’) p1,2 = ∓q + x+ n + q2 2 n 4 [p′1 , p′2 ] ist als Näherung für ein γ–Konfidenzintervall zu akzeptieren, wenn gilt: n ≥ 50, (np ≥)np′1 ≥ 5 und (nq ≥)n(1 − p′2 ) ≥ 5. Anderenfalls muss eine andere Methode als über Satz 8.4.10 gewählt werden. Begründung für (8.4.2’): x − np |y| ≤ q ⇔ ⇔ (x − np)2 ≤ q 2 np(1 − p) p ≤q np(1 − p) ⇔ x2 − 2npx + n2 p2 ≤ q 2 np − q 2 np2 ⇔ p2 (n + q 2 ) − 2p(x + q 2 /2) ≤ −x2 /n 2 ⇔ p (n + q 2 ) − (x + q 2 /2) ≤ (x + q 2 /2)2 − x2 (n + q 2 )/n p p ⇔ p (n + q 2 ) − (x + q 2 /2) ≤ x2 + xq 2 + q 4 /4 − x2 − x2 q 2 /n = q x + q 2 /4 − x2 /n p p ⇔ (x + q 2 /2) − q x + q 2 /4 − x2 /n ≤ p (n + q 2 ) ≤ (x + q 2 /2) + q x + q 2 /4 − x2 /n ⇔ p′1 ≤ p ≤ p′2 110