Parameterschätzung

Werbung
Kapitel 8
Parameterschätzung
8.1
Schätzfunktionen
Def. 8.1.1: Es seien X1 , X2 , . . . , Xn unabhängige ZV, die alle die gleiche Verteilung besitzen.
θ sei ein unbekannter Parameter dieser Verteilung. X1 , X2 , . . . , Xn ist als eine (Beobachtungsoder) Messreihe zur Bestimmung von θ mit n Einzelmessungen aufzufassen. Xi entspricht also der i–ten Messung. Deren Messergebnis xi ist eine Realisierung von Xi . Aus dem Satz
x1 , x2 , . . . , xn von Messwerten, den man als Stichprobe vom Umfang n bezeichnet, bestimmt man einen Schätzwert θ̂ für θ, von dem man ”normalerweise” annimmt, dass er ”nahe bei” θ liegt. Die Zuordnung von x1 , x2 , . . . , xn zu θ̂ bezeichnet man als Schätzfunktion:
θ̂ = g(x1 , x2 , . . . , xn ).
Drei Annahmen:
a) Messergebnis ist bei jeder Messung unbeinflusst von den vorherigen Messergebnissen
=⇒
Die Zufallsvariablen X1 , X2 , . . . , Xn sind unabhängig.
b) Es gibt keine Veränderung der beeinflussbaren Versuchsbedingungen
=⇒
Die Zufallsvariablen X1 , X2 , . . . , Xn haben alle die gleiche Verteilung, häufig Normalverteilung.
c) Es gibt keinen systematischen Fehler
Beispiel 8.1.1:
Wir führen eine Messreihe von n Messungen (z.B. das elektrische Widerstandes eines Gerätes)
durch.
Der i-te Messung entspricht eine Zufallsvariable Xi
Das Messergebnis xi ist eine Realisierung der Zufallsvariable Xi
wahrer Wert = gemeinsamer Erwartungswert µ := E(Xi ) der Zufallsvariablen Xi
Ziel der Messungen ist es nun, Informationen über µ zu bekommen.
Es werden dazu n Messungen tatsächlich durchgeführt, z.B. vier Widerstandsmessungen mit
den Messergebnissen (in Ω):
10.1 =: x1 , 10.2 =: x2 , 10.0 =: x3 , 10.1 =: x4
100
Dies ist Stichprobe vom Umfang 4 (allgemein: vom Umfang n).
10.1 + 10.2 + 10.0 · · · + 10.1
x1 + x2 + · · · + xn
= 10.1 im Zahlenbeispiel
=
x := xn :=
n
4
Die Interpretation ist nicht µ = x und auch nicht µ ist sicher nahe bei x,
sondern nur die Vermutung, dass x nahe bei µ liegt.
µ̂ (Schätzwert für µ) = x :=
x1 + · · · + xn
(=: g(x1 , . . . , xn ) bei diesem Beispiel).
n
Aus Satz 7.9.3 folgt
X := X n :=
X1 + X2 + · · · + Xn
−→ µ für n → ∞ (fast sicher)
n
Dies rechtfertigt die obige Vermutung.
8.2
Maximum–Likelihood–Methode
Bestimme θ̂ so, dass P (X1 = x1 ∧ X2 = x2 ∧ · · · ∧ Xn = xn ) (bzw. die gemeinsame Verteilungsdichte von X1 , X2 , . . . , Xn an der Stelle (x1 , x2 , . . . , xn ) im Falle einer stetigen ZV X) maximal
wäre, wenn θ = θ̂ wäre.
Beispiel 8.2.1: Eine Beobachtungsgröße sei Poisson-verteilt, wobei der Parameter λ unbekannt
sei (λ > 0). Um Informationen über λ zu erhalten, machen wir drei Beobachtungen, d.h. wir
ziehen eine Stichprobe vom Unfang 3. Die Beobachtungergebnisse seien die Werte 4, 1, 6 .
Dies sind Realisierungen von Zufallsvariablen X1 , X2 , X3 , die unabhängig und Poisson-verteilt
sind mit dem gleichem λ.
P (X1 = 4 ∧ X2 = 1 ∧ X3 = 6) = P (X1 = 4) · P (X2 = 1) · P (X3 = 6)
λ4 −λ λ1 −λ λ6
λ4+1+6
λ4+1+6
e
e
= e−3λ
=: e−3λ
=: h(λ)
4!
1!
6!
4!1!6!
a
Diese Wahrscheinlichkeit nennt man auch Likelihood–Funktion h(λ).
= e−λ
Anwendung des Maximum-Likelihood Prinzips:
Die Wahrscheinlichkeit für das eingetretene Ereignis, also h(λ), sei maximal, wenn λ = λ̂ wäre.
h′ (λ) = (−3)e−3λ
λ4+1+6−1
λ4+1+6
+ e−3λ (4 + 1 + 6)
a
a
λ4+1+6−1 !
=0
a
4+1+6
λ>0
⇐⇒ (−3)λ + (4 + 1 + 6) = 0 ∨ λ = 0 ⇐⇒ λ =
3
Ausserdem gilt h(λ) → 0 für λ → 0+ und für λ → ∞ und h(λ) > 0 für alle λ > 0.
Damit ist h(λ̂) das Maximum von h(λ).
Der Maximum-Likelihood-Schätzwert (Abk.: M-L-Schätzwert) ist also:
= [(−3) · λ + (4 + 1 + 6)] · e−3λ
λ̂ =
4+1+6
3
101
Ergebnisse bei einigen Verteilungen:
Tabelle 8-1
Verteilung
Schätzfkten (nach
der M-L-Meth.)
Eigenschaften
aus 8.3
p
p̂ = x
konsistent, erwart.treu
–
λ
konsistent, erwart.treu
Exponentialverteilung
–
λ
N (µ, σ)
σ2
µ
N (µ, σ)
µ
σ2
N (µ, σ)
–
µ, σ 2
λ̂ = x
1
λ̂ =
x
µ̂ = x
n
1X
c
2
(xi − µ)2
σ =
n
i=1
µ̂ = x
n
X
c2 = 1
σ
(xi − x)2
n
bekannte
Param.
unbek.
Param.
–
1 m.Wahrsch. p
0 m. W.(1-p)
(nX ist binomialverteilt)
Poissonverteilung
Xi =
konsistent, nicht erw.treu
konsistent, erwart.treu
konsistent, erwart.treu
konsistent, erwart.treu
konsistent, nicht erw.treu
i=1
Zu der 1. Verteilung: Die einzelne Zufallsvariable Xi kann nur 2 Werte annehmen und die ZV
X1 , X2 , . . . , Xn unabhängig. Wir haben also ein Bernoulli-Experiment:
1
”Erfolg” mit Wahrscheinlichkeit p
Xi :=
0
”Fehlschlag” mit Wahrscheinlichkeit 1 − p
Aufg. 79
=
Anzahl der Erfolge bei n Versuchen.
X1 + X2 + X3 + · · · + Xn = nXn
Bei der statistischen Qualitätskontrolle m.Z. ist p der Anteil der defekten Stücke in der Lieferung.
n · xn ist die Anzahl der Ziehungen von defekten Stücken.
xn ist damit der Anteil der defekten Stücke in der Stichprobe.
p
c2 . Sie ist aber weder für
Bem.: Die Schätzfunktion (nach der M–L–Meth.) für σ ist σ̂ = σ
bekanntes noch für unbekanntes µ erwartungstreu.
8.3
Eigenschaften von Schätzfunktionen
g(X1 , X2 , . . . , Xn ) (z.B. X (genauer:X n ) := (X1 + X2 + · · · + Xn ) ·
1
) ist ZV.
n
Def. 8.3.1: Eine Schätzfunktion g für θ heißt erwartungstreu, wenn gilt:
E(g(X1 , . . . , Xn )) = θ.
Beispiel: X n ist erwartungstreu:
n
E(X n ) = E
1X
Xi
n
i=1
!
=
n
n
i=1
i=1
1X
1X
n
E(Xi ) =
µ = µ = E(Xi )
n
n
n
102
Def. 8.3.2: n sei variabel. Dann heißt eine Schätzfunktion g (genauer: Folge von Schätzfunktionen) für θ konsistent, wenn gilt:
P (|g(X1 , . . . , Xn ) − θ| ≤ q) → 1 für n → ∞ für alle q > 0.
Beispiel: X n ist konsistent; denn es gilt nach Satz 7.9.3:
Xn −→ µ = E(Xi )
für n → ∞
(f.s.)
Satz 8.3.1: Es seien X1 , X2 , . . . , Xn unabhängige ZV, die alle die gleiche Verteilung besitzen
und für die der Erwartungswert und die Varianz existieren.
a) x ist eine konsistente, erwartungstreue Schätzfunktion für E(Xi ) =: µ.
n
1 X
b)
(xi − x)2 ist eine konsistente, erwartungstreue Schätzfunktion für V (Xi ) =: σ 2 .
n−1
i=1
E(Xi ) und V (Xi ) werden dabei als unbekannte Verteilungsparameter bei den ZV Xi aufgefasst.
8.4
Konfidenzintervalle
Bei der Aufstellung von Konfidenzintervallen braucht man die Verteilung der ZV
g(X1 , X2 , . . . , Xn ),
die also über die Schätzfuktion von den ZV X1 , X2 , . . . , Xn abhängt. Bei der Schätzung des
Erwartungswertes µ einer NV ist das eine Summe der ZV X1 , X2 , . . . , Xn die noch durch n
dividiert wird. Wir brauchen also die Verteilung einer Summe von unabhägigen normalverteilten
ZV, und dafür gilt der folgende
Satz 8.4.1:
a) Eine Summe von normalverteilten, unabhängigen ZV ist wieder normalverteilt.
b) X ist normalverteilt
⇒ (αX + β) mit α, β ∈ IR, α 6= 0, ist normalverteilt.
Allgemeine Voraussetzung für 8.4 mit Ausnahme von Satz 8.4.10:
X1 , . . . , Xn sind unabhängige, N (µ, σ)–verteilte ZV.
σ
Satz 8.4.2: X n hat die Verteilung: N (µ, √ ).
n
Die Aussage dieses Satzes ergibt sich direkt aus Satz 7.8.4.
Wir nehmen nun an, dass bei einer NV die Varianz σ 2 bekannt und der Erwartungswert µ unbekannt ist. Wir werden also versuchen, µ mit Hilfe einer Stichprobe zu schätzen.
Schätzung: µ̂ = x
x1 , x2 , · · · , xn Ergebnis von Stichprobe vom Umfang n
Das Konfidenzintervall gibt nun den Bereich um µ̂ = x an, für den wir mit ausreichender Sicherheit sagen können, dass der wahre Wert von µ darin liegt.
103
Def. 8.4.1: Seien n, 0 < γ < 1 beliebig vorgegeben. (γ
o. ä.). x ist eine Realisierung von X. Gilt dann
(8.4.1)
P X − q′ ≤ µ ≤ X + q′ = P
so bezeichnet man das Intervall
meist nahe bei 1, z. B. γ = 0.9, 0.95, 0.99
X − µ ≤ q ′ = γ,
[x − q ′ , x + q ′ ]
als γ–Konfidenzintervall für µ. γ heißt Vertrauenswahrscheinlichkeit (häufig in % angegeben) und sollte zusammen mit dem Stichprobenumfang n vor der Untersuchung festgelegt
werden.
Korrekte Intepretation: µ liegt mit Wahrscheinlichkeit γ in dem Intervall [X − q ′ , X + q ′ ].
Satz 8.4.3:
a) Die folgende ZV ist standard-normalverteilt:
√
(X − µ) n
Y :=
σ
b) Aus der Eigenschaft P (|Y | ≤ q) = 2Φ(q) − 1 kann man Konfidenzintervalle für
µ bei bekanntem σ bestimmen.
Beispiel 8.4.1: Eine Messgröße (oder Beobachtungsgröße) sei N (µ, σ)-verteilt, wobei µ unbekannt und σ = 1.8 bekannt sei.
Bestimme 0.95(oder 95%) Konfidenzintervall für µ, wähle also γ = 0.95.
Lege fest: n = 9 (d.h. 9 Messungen )
!
P (|Y | ≤ q) = 2Φ(q) − 1 = γ = 0.95
(vergl. Satz 8.4.3), d.h.
!
Φ(q) =
1+γ
1.95
=
= 0.975
2
2
1+γ
q heißt Quantil zu
2
Aus Normalverteilungstabelle lesen wir ab q = 1.96. Damit erhalten wir
√ (X − µ) n ≤ 1.96 = 0.95 .
P σ
Aus den 9 Messungen erhalten wir x = 3.5 und damit das Konfidenzintervall:
1.96 · 1.8
1.96σ
√
|µ − 3.5| = |x − µ| ≤ √ =
= 1.176 =: q ′
n
9
oder in expliziter Form:
(µ ∈ [x − q ′ , x + q ′ ] = [3.5 − 1.176, 3.5 + 1.176] =) [2.324, 4.676]
Def. 8.4.2: Z sei eine beliebige ZV mit der Verteilungsfunktion F und c eine beliebige reelle
Zahl mit 0 < c < 1. Dann heißt q das c–Quantil der Verteilung, wenn F (q) = c gilt. Insbesondere bezeichnen wir das c–Quantil der Standard–Normalverteilung mit qΦ (c).
104
Bestimmung eines γ–Konfidenzintervalles für µ bei bekanntem σ:
Schritt 1: Lege die Vertrauenswahrscheinlichkeit γ und den Stichprobenumfang n fest.
Schritt 2: Bestimme q > 0 aus
! 1+γ
,
Φ(q) =
2
also das (1 + γ)/2–Quantil der Standard–Normalverteilung.
Schritt 3: Ziehe eine Stichprobe vom Umfang n. x1 , x2 , . . . , xn seien die dabei gewonnenen Realisierungen (Mess– oder Beobachtungsergebnisse) der N (µ, σ)–verteilten ZV X1 , X2 , . . . , Xn . Das
Konfindenzintervall ist dann durch
√ (x − µ) n ≤q
σ
oder in expliziter Form durch
q·σ
q·σ
x− √ ≤µ≤x+ √
n
n
gegeben.
Satz 8.4.4: X sei N (0, 1)− vert. Dann hat Y := X 2 die Verteilungsdichte:
f (y) := 0 für y ≤ 0 und := (2π)−1/2 y −1/2 e−y/2 für y > 0.
Satz 8.4.5:
a) Die folgende ZV ist χ2 -verteilt mit n Freiheitsgraden:
Y := σ
−2
n
X
i=1
(Xi − µ)2
Dabei ist die χ2 -Verteilung mit r Freiheitsgraden definiert durch die folgende Verteilungsdichte:
fχ2 (y) := 0 für y ≤ 0 und := Kr e−y/2 y (r−2)/2 für y > 0,
wobei die Konstante Kr so bestimmt ist, dass das Integral über die Verteilungsdichte von −∞ bis ∞ den Wert 1 hat. Fχ2 sei die zugehörige Verteilungsfunktion.
b) Aus der Eigenschaft P (a ≤ Y ≤ b) = Fχ2 (b)−Fχ2 (a) (a ≤ b, n Freiheitsgrade)
kann man Konfidenzintervalle für σ 2 bei bekanntem µ bestimmen.
Satz 8.4.6:
a) Die folgende ZV ist χ2 -verteilt mit (n − 1) Freiheitsgraden:
Y := σ −2
n
X
i=1
2
(Xi − X)
b) Aus der Eigenschaft P (a ≤ Y ≤ b) = Fχ2 (b)− Fχ2 (a) (a ≤ b, (n − 1) Freiheitsgrade) kann man Konfidenzintervalle für σ 2 bei unbekanntem µ bestimmen.
105
Beispiel 8.4.2: X1 , X2 seien unabhängig und N (µ, 1)−verteilt
(X1 −µ)2 +(X2 −µ)2 ist Summe von 2 unabhängigen ZV und χ2 − verteilt mit 2 Freiheitsgraden.
X1 + X2 2
X1 + X2 2
2
2
+ X2 −
(X1 − X) + (X2 − X) = X1 −
2
2
2
2 2 X1 − X2
X2 − X1
X1 − X2
√
=
+
=
2
2
2
Dies ist das Quadrat von nur einer standardnormalverteilten ZV und daher χ2 − verteilt mit
einem Freiheitsgrad.
Beispiel 8.4.3:
Y sei ZV aus Satz 8.4.5 (häufig mit χ2 bezeichnet)
Sei r = 9
=
=
Zahl der unabhängigen Summanden
Zahl der Freiheitsgrade
!
P (Y ≤ q) =: Fχ2 (q) = 0.950
!
P (Y ≤ q) =: Fχ2 (q) = 0.100
⇔
q = 16.92
⇔
q = 4.168
Die Bestimmung von Konfidenzintervallen für σ 2 wird in der Vorlesung und in der Übung nicht
behandelt oder mindestens zurückgestellt. Bei späteren Anwendungen der χ2 -Verteilung werden
Quantile ermittelt, für die eine Tabelle (chiˆ2tab.pdf) bereitgestellt ist. Für große r, etwa ab
r = 100, kann man das c–Quantil q näherungsweise durch die im Buch von Bamberg/Baur
angegebene Formel
√
(qΦ (c) + 2r − 1)2
q≈
2
bestimmen. Dabei sind die Werte von qΦ (c) für einige Werte von c aus der letzten Zeile der
Tabelle der Quantile der t–Verteilung (tverttab.pdf), für einige weitere Werte aus der For!
!
mel Φ(qΦ (c)) = 1 − Φ(−qΦ (c)) = c, d.h. aus Φ(−qΦ (c)) = 1 − c zu ermitteln. Es ist z.B.
Φ(−(−2.326)) = Φ(2.326)) ≈ 0.990 = 1 − 0.010 und damit gilt qΦ (0.010) = (−2.326). Schließlich
wird noch qΦ (0.750) = 0.6745, qΦ (0.500) = 0 und qΦ (0.250) = −0.6745 benötigt.
Bestimmung eines Konfidenzintervalls für µ bei unbekanntem σ:
√
(X − µ) n
in Satz 8.4.3 wird ersetzt durch Y := v
Y :=
u
σ
u
t
Satz 8.4.7: X und
n
P
i=1
Satz 8.4.8:
√
(X − µ) n
n
X
1
(Xi − X)2
(n − 1)
i=1
2
(Xi − X) sind unabhängig.
a) Die folgende ZV ist t -verteilt mit (n − 1) Freiheitsgraden:
p
(X − µ) n(n − 1)
Y := s
n
P
2
(Xi − X)
i=1
106
Dabei ist die t -Verteilung mit r Freiheitsgraden definiert durch die folgende Verteilungsdichte:
− r + 1
2
y
2
ft (y) := Cr 1 +
r
wobei die Konstannten Cr so bestimmt ist, dass das Integral über die Verteilungsdichte von −∞ bis ∞ den Wert 1 hat. Ft sei die zugehörige Verteilungsfunktion.
b) Aus der Eigenschaft P (|Y | ≤ q) = 2Ft (q) − 1 ((n − 1) Freiheitsgrade) kann
man Konfidenzintervalle für µ bei unbekanntem σ bestimmen.
Beispiel 8.4.4: Eine Messgröße (oder Beobachtungsgröße) sei N (µ, σ)-verteilt, wobei µ und σ
unbekannt seien. Bestimme 90% Konfidenzintervall für µ, also γ = 0.95.
Lege fest: n = 11 (d.h. 11 Messungen )
Eine Stichprobe vom Umfang 11 ergebe
n
11
X
X
2
(xi − x) =
(xi − 3)2 = 20
µ̂ = x = 3 und
i=1
i=1
!
(X − µ)√11 · 10 P 11
≤q
P
2
(Xi − X)
i=1
!
=
2Ft (q) − 1 = 0.90,
↑
Satz 8.4.8
wobei Ft die Verteilungfunktion einer t-Verteilung mit (n − 1) = 10 Freiheitsgraden ist.
Suche dann q mit
1.90
! 1+γ
=
= 0.95
Ft (q) =
2
2
Die Zahl der Freiheitsgrade ist r = n − 1 = 10
Aus Tabelle der Quantile der t− Verteilung lesen wir ab: q = 1.81.
Damit erhalten wir als Konfidenzintervall:
v
u 11
√
√
uX
(x − µ) 11 · 10 20
1
1.81
·
t
s
≤ 1.81, also|µ−x| = |x−µ| ≤ 1.81· √
(xi − x)2 = √
= 0.772 =: q ′
11
110 i=1
110
P
2 i=1(xi − x) In expliziter Form erhalten wir also als 90%–Konfidenzintervall für µ:
(µ ∈ [x − q ′ , x + q ′ ] = [3 − 0.772, 3 − 0.772] =) [2.228, 3.772].
Bestimmung eines γ–Konfidenzintervalles für µ bei unbekanntem σ:
Schritt 1: Lege die Vertrauenswahrscheinlichkeit γ und den Stichprobenumfang n fest.
Schritt 2: Bestimme q > 0 aus
! 1+γ
,
Ft (q) =
2
also ein (1 + γ)/2–Quantil der t–Verteilung mit (n − 1) Freiheitsgraden.
Schritt 3: Ziehe eine Stichprobe vom Umfang n. x1 , x2 , . . . , xn seien die dabei gewonnenen Realisierungen (Mess– oder Beobachtungsergebnise) der N (µ, σ)–verteilten ZV X1 , X2 , . . . , Xn . Das
107
Konfindenzintervall ist dann durch
oder in expliziter Form durch
s
x−
gegeben.
q·
p
(x − µ) n(n − 1) ≤q
s
n
P
2 (x
−
x)
i
i=1
n
P
i=1
p
(xi − x)2
n(n − 1)
≤µ≤x+
q·
s
n
P
i=1
p
(xi − x)2
n(n − 1)
Satz 8.4.9: Ft,r sei die Verteilungsfunktion der t–Verteilung mit r Freiheitsgraden; dann gilt:
Ft,r → Φ für r → ∞.
t–Verteilung mit ∞ vielen Freiheitsgraden = N (0, 1)–Verteilung
N (0, 1)–Verteilung = t–Verteilung mit ”r = ∞“
Anwendung: Bei Stichproben mit großem Umfang (etwa ≥ 50) kann näherungsweise die
N (0, 1)–Verteilung statt der t–Verteilung benutzt werden.
Satz 8.4.10: X sei eine binomialverteilte ZV mit den Parametern n, p, die die folgenden Bedingungen erfüllen sollten: n ≥ 50, np, n(1 − p) ≥ 5 (vergl. Satz 7.6.7).
X − np
a) Die ZV Y := √
ist näherungsweise N (0, 1)–verteilt.
npq
(vergl.Satz 7.10.1 u.(7.6.4) statt (7.6.5) aus Satz 7.6.7)
b) Aus P (|Y | ≤ q) ≈ 2Φ(q) − 1 kann man – wie unten beschrieben – unter gewissen Bedingungen Näherungen für Konfidenzintervalle für p bestimmen.
p sei unbekannt, und wir suchen ein γ–Konfidenzintervall für p. Nach Satz 8.4.10 verwenden wir
dazu die Beziehung
!
X − np √
!
γ = 2Φ(q) − 1 ≈ P (|Y | ≤ q) = P p
≤ q = P (|X − np| ≤ q npq)
np(1 − p) 0 ≤ p ≤ 1 ⇒ p · (1 − p) ≤ 1/4 (Beweis in einer Übungsaufgabe)
p
γ = 2Φ(q)−1 ≈ P |X − np| ≤ q np(1 − p) ≤ P
!
|X − np| ≤ q
r
1
n·
4
!
q √ = P |X − np| ≤ · n
2
Die Wahrscheinlichkeit dafür, dass die Abweichung von np von der Schätz–ZV X höchstens
√
q · n/2 beträgt, ist also näherungsweise ≥ γ. Wenn nun x eine Realisierung von X, also z.B.
108
die tatsächlich beobachtete Anzahl der Ziehungen von defekten Stücken ist, erhalten wir als
Konfidenzintervallnäherung:
q √
q √
q √
|x − np| (= |np − x|) ≤ · n ⇔ x − · n ≤ np ≤ x + · n ⇔
2
2
2
√
√
x + q · n/2
x − q · n/2
≤p≤
=: p2
p1 :=
n
n
[p1 , p2 ] kann nun als Näherung für ein γ–Konfidenzintervallnäherung für p genommen werden,
wenn die Voraussetzungen von Satz 8.4.10 mindestens dann erfüllt sind, wenn np ≥ 5 und
n(1 − p) ≥ 5 für alle p ∈ [p1 , p2 ] gilt. Daraus ergibt sich die Bedingung
!
!
(np ≥)np1 ≥ 5 und (n(1 − p) ≥)n(1 − p2 ) ≥ 5
!
Bestimmung eines Konfidenzintervalles für p: Bestimme q > 0 aus 2Φ(q) − 1 = γ, also
aus Φ(q) = (1 + γ)/2. Bestimme dann ein√Intervall p1 ≤ p ≤ p2√mit
n
n
(x + q
)
)
(x − q
2
2
,
p2 =
(8.4.2)
p1 =
n
n
[p1 , p2 ] ist als Näherung für ein γ–Konfidenzintervall zu akzeptieren, wenn gilt:
n ≥ 50, np1 ≥ 5 und n(1 − p2 ) ≥ 5. Anderenfalls muss eine andere Methode als über Satz 8.4.10
gewählt werden.
Beispiel 8.4.4: Vor einer Wahl in einer Stadt mit 60000 wahlberechigten Einwohnern soll eine
Meinungsumfrage durchgeführt werden.
p := Anteil der Wähler der Partei A.
(1 − p)= Anteil der Wähler der anderen Partei, Nichtwähler u.s.w.
p sei unbekannt.
Konstruiere 95%− Konfidenzintervall für p. Es wird eine (zufällige) Stichprobe von Umfang 100
”o. Z.” gezogen, d.h. ein Wahlberechtigter wird nicht zweimal befragt.
Umfrageergebnis: 40 davon sind für Patei A.
Die ZV X := Anzahl der Wähler von A in der Stichprobe, deren Realisierung 40 ist, ist wegen
”o.Z.“ hypergeometrisch verteilt. Die Bedingungen in Satz 7.6.8 für die Näherung durch die
Binomialverteilung sind aber deutlich erfüllt:
N = 60000 ≥ 1000 und n = 100 ≤ 0.1 · N
X ist also näherungsweise binomialverteilt mit n, p als Parameter.
Konstruktion des Konfidenzintervalles:
Bestimme q > 0 aus
!
Tab.
2Φ(q) − 1 = γ = 0.95 ⇔ Φ(q) = 0.975 ⇔ q = 1.96
x = 40 = Realisierung von X bei der Durchführung der Umfrage.
Die erste Bedingung für die Näherung der Binomialverteilung durch die Normalverteilung ist
erfüllt: n = 100 ≥ 50
Wir bestimmen dann die Grenzen
√
√
1.96 100
q n
40 ∓
x∓
2 =
2
= 0.400 ∓ 0.098
p1,2 =
n
100
und erhalten so das Intervall
[p1 , p2 ] = [0.302, 0.498]
109
Ist dieses Intervall als Konfidenzintervall zu akzeptieren? Dazu müssen wir die weiteren Näherungsbedingungen prüfen:
n · p1 = 100 · 0.302 = 30.2 ≥ 5,
n(1 − p2 ) = 100 · 0.502 = 50.2 ≥ 5,
n ≥ 50
Damit ist [0.302, 0.498] näherungsweise ein Konfidenzintervall für p. Man kann also mit 95–
prozentiger Sicherheit schließen, dass näherungsweise zwischen 30.2% und 49.8% für Patei A
sind.
In dem Buch ”Elementare Einführung in die angewandte Statistik” von K. Bosch ist eine Formel
für die Grenzen für p angegeben und hergeleitet, die eine kleinere und damit bessere Konfidenzintervallnäherung liefert:
!
r
1
q2
x(n − x) q 2
′
(8.4.2’)
p1,2 =
∓q
+
x+
n + q2
2
n
4
[p′1 , p′2 ] ist als Näherung für ein γ–Konfidenzintervall zu akzeptieren, wenn gilt:
n ≥ 50, (np ≥)np′1 ≥ 5 und (nq ≥)n(1 − p′2 ) ≥ 5. Anderenfalls muss eine andere Methode als
über Satz 8.4.10 gewählt werden.
Begründung für (8.4.2’):
x − np |y| ≤ q
⇔
⇔
(x − np)2 ≤ q 2 np(1 − p)
p
≤q
np(1 − p) ⇔ x2 − 2npx + n2 p2 ≤ q 2 np − q 2 np2
⇔
p2 (n + q 2 ) − 2p(x + q 2 /2) ≤ −x2 /n
2
⇔ p (n + q 2 ) − (x + q 2 /2) ≤ (x + q 2 /2)2 − x2 (n + q 2 )/n
p
p
⇔ p (n + q 2 ) − (x + q 2 /2) ≤ x2 + xq 2 + q 4 /4 − x2 − x2 q 2 /n = q x + q 2 /4 − x2 /n
p
p
⇔ (x + q 2 /2) − q x + q 2 /4 − x2 /n ≤ p (n + q 2 ) ≤ (x + q 2 /2) + q x + q 2 /4 − x2 /n
⇔ p′1 ≤ p ≤ p′2
110
Herunterladen