Statistik II - wiwi.uni-augsburg

Werbung
Statistik II
Sommersemester 2005
PD Dr. Michael Krapp
Institut für Statistik und Mathematische Wirtschaftstheorie
Universität Augsburg
Klausur und Unterlagen
Universität Augsburg
Klausur:
➢ „Spielregeln“: Wie Statistik I
➢ Nachholklausur im WS 2005 / 2006
Hilfreiche Unterlagen:
➢ Foliensatz∗
➢ Übungsaufgabensammlung
➢ Klausuraufgabensammlung
➢ Klausur Statistik II vom Wintersemester 2004 / 2005∗
∗
) Download: www.wiwi.uni-augsburg.de/ibo, Rubrik „Downloads“
Literatur:
➢ Bamberg/Baur: Statistik, Oldenbourg, 12. Aufl. 2002
➢ Bamberg/Baur: Arbeitsbuch Statistik, Oldenbourg, 7. Aufl. 2004 (optional)
Statistik II
138
Zusätzliche Veranstaltungen
Universität Augsburg
Übung zu Statistik II
Mittwoch
8:30 –10:00 HW 1001 Paul
Mittwoch
8:30 –10:00 FW 2101 Papatrifon
Mittwoch 10:15 –11:45 HW 1003 Krapp
Mittwoch 10:15 –11:45 FW 1109 Klein
Mittwoch 12:30 –14:00 HW 1003 Baur
Mittwoch 12:30 –14:00 FW 1106 Bamberg
Mittwoch 12:30 –14:00 FW 1109 Klein
Mittwoch 14:15 –15:45 HW 1004 Baur
Statistik II mit Excel – Grundkurs
Mittwoch 14:15 –15:45 FW 2113 Paul
Mittwoch 16:00 –17:30 FW 2113 Paul
Statistik II mit Excel – Vertiefungskurs Mittwoch 17:45 –19:15 FW 2113 Paul
Übung zu Statistik I
Mittwoch 17:45 –19:15 FW 1106 Klein/Papatrifon
Statistik II
139
Gliederung
Universität Augsburg
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz
11. Grundlagen der induktiven Statistik
12. Punkt-Schätzung
13. Intervall-Schätzung
14. Signifikanztests
18. Stichprobenplanung
Statistik II
140
Gesetz der großen Zahlen und zentraler Grenzwertsatz
Universität Augsburg
➢ Gegeben: Zufallsvariablen X1, . . . , Xn
• unabhängig und identisch verteilt (‚iid‘)
• E(Xi) = µ
• Var(Xi) = σ2
➢ Gesucht: Verhalten von
n
X
n
bzw.
Xi
i=1
1X
X̄n =
Xi
n
i=1
wenn n laufend erhöht wird.
➢ Beachte (vgl. Folie 125):
• E(X̄n) = µ
• Var(X̄n) =
σ2
n
141
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz
10.1 Gesetz der großen Zahlen
Universität Augsburg
➢ Tschebyscheff-Ungleichung
P(|X − E(X)| = c) 5
➢ angewandt auf X̄n =
1
n
n
P
Var(X)
c2
(93)
Xi ergibt
i=1
σ2
P(|X̄n − µ| = c) 5
n · c2
➢ Nun: n → ∞ ⇒ Gesetz der großen Zahlen:
lim P(|X̄n − µ| = c) = 0
n→∞
bzw.
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz
lim P(|X̄n − µ| 5 c) = 1
n→∞
(95)
142
10.1 Gesetz der großen Zahlen
Universität Augsburg
x̄n
0.4
0.2
0.0
−0.2
−0.4
−0.6
n
0
50
100
150
200
250
143
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz
10.2 Zentraler Grenzwertsatz
Universität Augsburg
➢ BB S. 130: Wahrscheinlichkeiten von Ereignissen, die mithilfe der Summe
von iid Zufallsvariablen gebildet werden, lassen sich für großes n mittels
der Normalverteilung hinreichend genau berechnen.
➢ Beispiel (Übungsaufgabe 47):
X1, X2, X3 in [0; 1] gleichverteilt; Z1 = X1, Z2 = X1 +X2, Z3 = X1 +X2 +X3
f(z1)
f(z2)
1
f(z3)
1
3
4
1
z1
1
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz
2
z2
1
2
3
z3
144
10.2 Zentraler Grenzwertsatz
Universität Augsburg
➢ Approximativ gilt:
n
X
√
Xi ∼ N(nµ; σ n)
(96)
i=1
➢ Standardisierung:
Yn =
n
P
i=1
Xi − nµ
X̄n − µ X̄n − µ √
√
=
=
n ∼ N(0; 1)
σ
σ n
σ · √1n
➢ Zentraler Grenzwertsatz:
P(Yn 5 x) −−−→ Φ(x)
n→∞
(97)
145
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz
10.2 Zentraler Grenzwertsatz
Universität Augsburg
Beispiel (BB-Beispiel 61):
n
P
Xi ∼ B(1; p) ⇒ X =
Xi ∼ B(n; p) (Folie 93)
i=1
E(X) = np; Var(X) = np(1 − p)
(Fig. 36)
⇒ P √X−np
np(1−p)
5 x ≈ Φ(x)
(Brauchbar, falls np = 5 und n(1 − p) = 5.)
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz
146
10.2 Zentraler Grenzwertsatz
Universität Augsburg
Beispiel (BB-Aufgabe 76):
X1, . . . , X12 gleichverteilt in [0; 1] ⇒ E(Xi) = 12 ; Var(Xi) =
Y=
12
X
1
12
(Fig. 36)
Xi − 6
i=1
Mit (87), (88), (91), (92) folgt:
E(Y) =
Var(Y) =
12
P
E(Xi) − 6 = 12 · 12 − 6 = 0
i=1
1
Var(Xi) = 12 · 12
=1
i=1
12
P
⇒ Y ∼ N(0; 1)
(approximativ)
147
10. Gesetz der großen Zahlen und zentraler Grenzwertsatz
Grundlagen der induktiven Statistik
Universität Augsburg
➢ Vollerhebung of unmöglich, deshalb:
Beobachte Teilgesamtheit → schließe auf Grundgesamtheit
➢ Beispiel:
Warensendung von 1000 Stück; darunter M Stück Ausschuss.
M ist unbekannt.
→ Zufällige Entnahme von n = 30 Stück („Stichprobe“).
Darunter 2 Stück Ausschuss.
Denkbare Zielsetzungen:
• Schätze M durch eine Zahl (z.B.
• Schätze ein Intervall für M
2
30
· 1000 = 66,67)
(z.B. M ∈ [58; 84])
• Teste die Hypothese, dass M > 50 ist.
11. Grundlagen der induktiven Statistik
148
11.1–11.2.2 Grundbegriffe
Universität Augsburg
➢ Grundgesamtheit (G):
Menge aller relevanten Merkmalsträger.
➢ Verteilung von G:
F(x) = P(X 5 x) = W’keit, dass ein Merkmalsträger ausgewählt wird, der
beim untersuchten Merkmal maximal die Ausprägung x aufweist.
➢ Uneingeschränkte (reine) Zufallsauswahl:
Jedes Element von G hat die selbe Chance, ausgewählt zu werden.
➢ Stichprobenumfang (n):
Anzahl der Merkmalsträger in der Stichprobe.
➢ Einfache Stichprobe:
Uneingeschränkte Zufallsauswahl und unabhängige Ziehung.
→ Alle Stichprobenvariablen X1, . . . , Xn sind iid.
149
11. Grundlagen der induktiven Statistik
11.1–11.2.2 Grundbegriffe
Universität Augsburg
➢ Stichprobenergebnis:
n-Tupel der Realisationen der Stichprobenvariablen, (x1, . . . , xn).
➢ Stichprobenraum:
Menge aller möglichen Stichprobenergebnisse.
➢ Likelihoodfunktion:
• Verteilgungsklasse, der F (Vtlg. von G) angehört, ist bekannt; Verteilungsparameter ϑ aber unbekannt (z.B. N(µ; σ)).
• Einfache Stichprobe X1, . . . , Xn.
→ Die gemeinsame Dichte / Wahrscheinlichkeitsfunktion von X1, . . . , Xn in
Abhängigkeit von ϑ, f(x1, . . . , xn|ϑ), heißt Likelihoodfunktion.
11. Grundlagen der induktiven Statistik
150
11.1–11.2.2 Grundbegriffe
Universität Augsburg
Beispiel:
G ist B(1; p)-verteilt, p unbekannt; zu xi: fi(x) = px(1 − p)1−x (BB S. 99)
Einfache Stichprobe mit n = 2 ⇒ Likelihoodfunktion
f(x1, x2|p) = f1(x1) · f2(x2) (wegen Unabhängigkeit)
= px1 (1 − p)1−x1 · px2 (1 − p)1−x2 = px1+x2 (1 − p)2−x1−x2
Stichprobenergebnis (0, 1) ⇒ f(0, 1|p) = p(1 − p) = p − p2
(Welcher Wert p passt „am besten“ zu (0, 1)?)
➢ Stichprobenfunktion:
Zufallsvariable V, die sich als Funktion der Stichprobenvariablen ergibt:
n
P
1
V = g(X1, . . . , Xn), z.B. V = n
Xi = X̄ (vgl. Folie 141)
i=1
151
11. Grundlagen der induktiven Statistik
Wichtige Stichprobenfunktionen (Fig. 38)
11. Grundlagen der induktiven Statistik
...
➢ Besonders wichtige Zusammenhänge
➢ Herleitungen: BB S. 140
➠ Wichtige Stichprobenfunktionen:
• mit E(Xi) = µ, Var(Xi) = σ2
• Beliebige Verteilung
• Einfache Stichprobe X1, . . . , Xn
➢ Gegeben:
Universität Augsburg
152
Wichtige Stichprobenfunktionen (Fig. 38)
Universität Augsburg
➢E
P
n
1
n
(Xi − X̄)
i=1
2
=
n−1
n
σ2, aber: E(S2) = σ2
➢ Auf Grund der jensenschen Ungleichung (Folie 120) gilt E(S) 5 σ. Grund:
√
√
p
E(S) = E( S2) 5 E(S2) = σ2 = σ,
da g(x) =
√
x konkav ist.
➢ Verschiebungssatz für S2:
" n
#
" n
#
X
X
1
1
n
n
S2 =
(Xi − X̄)2 =
X2i − X̄2
n−1 n
n−1 n
i=1
#
" n i=1
n
X
X
1
1
n
· X̄2
=
X2i − nX̄2
=
X2i −
n−1
n−1
n−1
i=1
i=1
153
11. Grundlagen der induktiven Statistik
11.2.3 Testverteilungen
Universität Augsburg
➀ Chi-Quadrat-Verteilung:
➢ Sind X1, . . . , Xn iid N(0; 1)-verteilte ZV, so wird die Verteilung von
Z=
n
X
X2i
i=1
als Chi-Quadrat-Verteilung mit n Freiheitsgraden bezeichnet.
➢ Kurzschreibweise: Z ∼ χ2(n)
➢ Es gilt: E(Z) = n
und
Var(Z) = 2n
➢ Fraktile: Bis n 5 30 in Tabelle 5 (BB S. 322 ff.); ab n > 30 Näherung:
xα = 12 (x̃α +
√
2n − 1)2
wobei x̃α das α-Fraktil der N(0; 1)-Verteilung ist.
11. Grundlagen der induktiven Statistik
154
11.2.3 Testverteilungen
Universität Augsburg
Beispiel:
x0,975 aus . . .
• χ2(30): x0,975 = 46,98
• χ2(50): x̃0,975 = 1,96 ⇒ x0,975 = 12 (1,96 +
11. Grundlagen der induktiven Statistik
√ 2
99) = 70,92
155
χ2-Verteilung (BB Tab. 5, S. 324)
Universität Augsburg
11. Grundlagen der induktiven Statistik
156
Standardnormalverteilung (BB Tab. 3, S. 319)
Universität Augsburg
157
11. Grundlagen der induktiven Statistik
11.2.3 Testverteilungen
Universität Augsburg
➁ t-Verteilung:
➢ Ist X ∼ N(0; 1), Z ∼ χ2(n), X, Z unabhängig, so wird die Verteilung von
X
T=q
1
n
Z
als t-Verteilung mit n Freiheitsgraden bezeichnet.
➢ Kurzschreibweise: T ∼ t(n)
➢ Es gilt: E(T ) = 0
und
Var(T ) =
n
n−2
➢ Fraktile:
• n > 30: verwende N(0; 1)-Fraktile; bis n 5 30: Tabelle 4 (BB S. 320 f.)
• Achtung: Nur α = 0,6 vertafelt. Ggfs. Symmetrie ausnutzen:
xα = −x1−α für α < 0,5
11. Grundlagen der induktiven Statistik
158
11.2.3 Testverteilungen
Universität Augsburg
Beispiel:
Bestimme folgende Fraktile für t(10) . . .
• x0,6 = 0,260
• x0,5 = 0
• x0,1 = −x0,9 = −1,372
11. Grundlagen der induktiven Statistik
159
t-Verteilung (BB Tab. 4, S. 320)
Universität Augsburg
11. Grundlagen der induktiven Statistik
160
11.2.3 Testverteilungen
Universität Augsburg
➂ F-Verteilung:
➢ Ist X ∼ χ2(m), Y ∼ χ2(n), X, Y unabhängig, so wird die Verteilung von
Z=
1
mX
1
Y
n
als F-Verteilung mit den Freiheitsgraden m und n bezeichnet.
➢ Kurzschreibweise: Z ∼ F(m, n)
➢ Es gilt: E(Z) =
n
n−2
und
Var(Z) =
2 n2 (n+m−2)
m(n−4)(n−2)2
➢ Fraktile:
• 0,95- und 0,99-Fraktile: Tabelle 6 (BB S. 325 f.); ggfs. interpolieren.
• Für 0,01- und 0,05-Fraktile:
1
xα = x̃1−α
mit x̃1−α aus F(n, m)
11. Grundlagen der induktiven Statistik
(98)
161
11.2.3 Testverteilungen
Universität Augsburg
Beispiel: Bestimme x0,05 für F(2, 5):
F(5, 2): x̃1−0,05 = x̃0,95 = 19,30 ⇒
1
1
= 19,30
F(2, 5): x0,05 = x̃0,95
= 0,052
11. Grundlagen der induktiven Statistik
162
F-Verteilung (BB Tab. 6, S. 325)
Universität Augsburg
163
11. Grundlagen der induktiven Statistik
11.2.4 Verteilungen von Stichprobenfunktionen
Universität Augsburg
Gegeben: Einfache Stichprobe X1, . . . , Xn aus N(µ; σ)-Verteilung:
Stichprobenfunktion
n
P
Xi
Verteilung
√
N(nµ; σ n)
X̄
N(µ; √σn )
i=1
√
n
n
P
(Xi − µ)2
X̄−µ
σ
N(0; 1)
1
σ2
χ2(n)
1
σ2
i=1
n
P
(Xi − X̄)2 =
i=1
X̄−µ √
n
S
Bei bel. Verteilung von G sind
11. Grundlagen der induktiven Statistik
X̄−µ
σ
n−1
σ2
√
S2
χ2(n − 1)
t(n − 1)
n und
X̄−µ
S
√
n approx. N(0; 1)-verteilt.
164
Punkt-Schätzung
Universität Augsburg
➢ Ein unbekannter Parameter ϑ der Verteilung von G (z.B. σ von N(10; σ))
soll auf Basis einer Stichprobe geschätzt werden.
➢ Schätzwert: ϑ̂
➢ Vorgehen: Verwendung einer Schätzfunktion
Θ̂ = g(X1, . . . , Xn)
Beachte: Der Schätzwert ϑ̂ ist die Realisierung der ZV (!) Θ̂.
➢ Frage: Welche Stichprobenfunktion ist zur Schätzung geeignet?
➠ Kriterien für die Beurteilung/Konstruktion von Schätzfunktionen!
➢ Im Folgenden: Vorliegen einer einfachen Stichprobe, d.h. X1, . . . , Xn iid.
165
12. Punkt-Schätzung
12.1 Erwartungstreue und wirksamste Schätzfunktionen
Universität Augsburg
➢ Eine Schätzfunktion Θ̂ = g(X1, . . . , Xn) heißt erwartungstreu oder unverzerrt für ϑ, wenn unabhängig vom numerischen Wert von ϑ gilt:
E(Θ̂) = ϑ
(99)
Gilt
lim E(Θ̂n) = ϑ
n→∞
so heißt Θ̂n asymptotisch erwartungstreu für ϑ.
12. Punkt-Schätzung
166
12.1 Erwartungstreue und wirksamste Schätzfunktionen
Universität Augsburg
➢ Beispiel:
Sind Θ̂ = X̄, Θ̂ 0 =
a) Θ̂:
X1 +Xn
,
2
Θ̂ 00 =
1
n−1
n
P
Xi erwartungstreu für µ?
i=1
E(X̄) = µ (Fig. 38)
ist erwartungstreu.
(87),(88) 1
n
b) Θ̂ 0: E X1+X
= 2 [E(X1) + E(Xn)] = 12 (µ + µ) = µ
2
⇒ Θ̂
⇒ Θ̂ 0 ist erwartungstreu.
(87),(88)
n
n
P
P
1
1
00
c) Θ̂ : E n−1
Xi
= n−1
E(Xi) =
i=1
i=1
1
n−1
n
P
i=1
µ=
n
n−1
µ 6= µ
⇒ Θ̂ 00 ist nicht erwartungstreu, aber wegen
n
lim n−1
µ = µ asymptotisch erwartungstreu.
n→∞
➢ Welche der erwartungstreuen Schätzfunktionen Θ̂, Θ̂ 0 ist ‚besser‘?
167
12. Punkt-Schätzung
12.1 Erwartungstreue und wirksamste Schätzfunktionen
Universität Augsburg
➢ Von zwei erwartungstreuen Schätzfunktionen Θ̂, Θ̂ 0 für ϑ heißt Θ̂ wirksamer als Θ̂ 0, wenn unabhängig vom numerischen Wert von ϑ gilt:
Var(Θ̂) < Var(Θ̂ 0)
➢ Beispiel:
Wegen
Var(Θ̂) = Var(X̄) =
σ2
n
< Var(Θ̂ 0) = Var
(falls n > 2) ist Θ̂ wirksamer als Θ̂ 0.
12. Punkt-Schätzung
X1 +X2
2
(91),(92) 1 2
= 4 (σ + σ2) =
σ2
2
168
12.1 Erwartungstreue und wirksamste Schätzfunktionen
Universität Augsburg
Allgemein:
Diejenige Schätzfunktion, die die gerinste Varianz aller im Rah-
men eines bestimmten Schätzproblems erwartungstreuer Schätzfunktionen
besitzt, heißt die wirksamste Schätzfunktion.
Die Bestimmung der wirksamsten Schätzfunktion ist relativ schwierig.
169
12. Punkt-Schätzung
12.1 Erwartungstreue und wirksamste Schätzfunktionen
Universität Augsburg
Verteilung von G
ϑ
wirksamste e.treue Schätzfkt.
unbekannt
µ
X̄
B(1; p)
p (= µ)
X̄
Gleichverteilung in [0; 2a]
a (= µ)
N(µ; σ) (σ bekannt oder unbekannt)
N(µ; σ), µ bekannt
N(µ; σ), µ unbekannt
12. Punkt-Schätzung
µ
σ2
2
σ
n+1
2n
· max{X1, . . . , Xn}
X̄
1
n
n
P
(Xi − µ)2
i=1
S2
170
12.2 Konsistente Schätzfunktionen
Universität Augsburg
➢ Eine Folge von Schätzfunktionen Θ̂n gemäß
Θ̂1 = g1(X1)
Θ̂2 = g2(X1, X2)
.
Θ̂n = gn(X1, . . . , Xn)
heißt konsistent für ϑ, wenn für alle c > 0 gilt:
P(|Θ̂n − ϑ| = c) −−−→ 0
(100)
n→∞
(Die Wahrscheinlichkeit, ϑ deutlich zu verfehlen, geht gegen 0.)
171
12. Punkt-Schätzung
12.2 Konsistente Schätzfunktionen
Universität Augsburg
➢ Aus der Tschebyscheff-Ungleichung
P(|X − E(X)| = c) 5
Var(X)
c2
(93)
resultiert folgende hinreichende (nicht notwendige) Konsistenzbedingung:
lim E(Θ̂n) = ϑ
n→∞
➢ Beispiel:
und
lim Var(Θ̂n) = 0
n→∞
Ist X̄n konsistent für µ?
Aus Fig. 38 folgt . . .
• E(X̄n) = µ,
• Var(X̄n) =
d.h. X̄n ist erwartungstreu für µ.
σ2
−−→
n −
n→∞
0, d.h. die Varianzen bilden eine Nullfolge.
⇒ X̄n ist konsistent für µ.
12. Punkt-Schätzung
172
12.4 Das Maximum-Likelihood-Prinzip (ML-Prinzip)
Universität Augsburg
➢ Gegeben:
• Ergebnis einer einfachen Stichprobe (x1, . . . , xn)
• Likelihoodfunktion (vgl. Folie 150) f(x1, . . . , xn|ϑ)
➢ Beispiel:
G ist B(1; p)-verteilt, p unbekannt; zu xi: fi(x) = px(1 − p)1−x (BB S. 99)
Einfache Stichprobe mit n = 2 ⇒ Likelihoodfunktion
f(x1, x2|p) = f1(x1) · f2(x2) (wegen Unabhängigkeit)
= px1 (1 − p)1−x1 · px2 (1 − p)1−x2 = px1+x2 (1 − p)2−x1−x2
Stichprobenergebnis (0, 1) ⇒ f(0, 1|p) = p(1 − p) = p − p2
➢ Gesucht: Schätzwert ϑ̂, der ‚am besten zu (x1, . . . , xn) passt‘
173
12. Punkt-Schätzung
12.4 Das Maximum-Likelihood-Prinzip (ML-Prinzip)
Universität Augsburg
➠ ML-Prinzip: Wähle ϑ̂ so, dass für alle möglichen ϑ-Werte gilt:
f(x1, . . . , xn|ϑ̂) = f(x1, . . . , xn|ϑ)
➢ Maximierung meist durch Nullsetzen der 1. Ableitung (2. Abl. < 0 prüfen!)
➢ Maximierung für . . .
• konkretes
Stichprobenergebnis (z.B. (0, 1))
→ ML-Schätzwert
• allgemeines Stichprobenergebnis (z.B. (x1, x2)) → ML-Schätzfunktion
➢ Die Maximierung der logarithmierten Likelihoodfunktion liefert dasselbe
Ergebnis, ist aber meist einfacher:
ln f(x1, . . . , xn|ϑ̂) = ln f(x1, . . . , xn|ϑ)
Grund: ln(x) wächst streng monoton mit x.
12. Punkt-Schätzung
174
Typische Vorgehensweise bei ML-Schätzung
Universität Augsburg
1. Likelihoodfunktion aufstellen:
f(x1, . . . , xn|ϑ)
2. Likelihoodfunktion logarithmieren (optional): ln f(x1, . . . , xn|ϑ)
!
∂
∂ϑ [ln]f(x1 , . . . , xn |ϑ) = 0
?
∂2
[ln]f(x
,
.
.
.
,
x
|
ϑ̂)
<
0
1
n
2
∂ϑ
3. Erste Ableitung nullsetzen:
4. Vorzeichen der zweiten Ableitung prüfen:
Im Beispiel auf Folie 173:
f(x1, x2|p) = px1+x2 (1 − p)2−x1−x2
f(0, 1|p) = p − p2
bzw.
a) Konkreter Schätzwert:
∂
∂p
∂2
∂p2
!
f(0, 1|p) = 1 − 2p = 0 ⇒ p̂ =
f(0, 1|p) = −2 < 0 ⇒ p̂ =
1
2
1
2
ist ML-Schätzwert
175
12. Punkt-Schätzung
Typische Vorgehensweise bei ML-Schätzung
Universität Augsburg
b) Schätzfunktion:
Logarithmieren sinnvoll (um Produktregel usw. zu vermeiden)!
ln f(x1, x2|p) = (x1 + x2) ln(p) + (2 − x1 − x2) ln(1 − p)
∂
∂p
ln f(x1, x2|p) =
x1 +x2
p
!
1 −x2
− 2−x1−p
=0
⇐⇒ (x1 + x2)(1 − p) = (2 − x1 − x2) p
∂2
∂p2
⇐⇒ x1 + x2 = 2 p ⇒ p̂ =
x1 +x2
2
1 −x2
2
ln f(x1, x2|p) = − x1p+x
− 2−x
<0
2
(1−p)2
⇒ p̂ = 12 (x1 + x2) (= x̄) ist ML-Schätzfunktion (passt auch zu a).
Achtung: Lösung meist per Ableitung; es gibt aber Ausnahmen!
12. Punkt-Schätzung
176
Klausuraufgabe 156 (gekürzt)
Universität Augsburg
Ein bestimmtes Produkt wird von genau zwei Firmen A, B hergestellt. Jedes
der produzierten Stücke kann auf Grund äußerer Merkmale eindeutig einer
von zwei möglichen Güteklassen I, II zugeordnet werden. Bekannt ist, dass
die von Firma A (bzw. Firma B) erzeugten Stücke zu 35 % (bzw. zu 50 %) der
Güteklasse I entsprechen.
Aus der Produktion einer der beiden Firmen wurde eine einfache Stichprobe
vom Umfang 9 entnommen; alle 9 Stücke stammen also von ein und derselben Firma, wobei nicht erkennbar sei, von welcher. In der Stichprobe gehören
4 der 9 Stücke zu Güteklasse I.
Zu welcher Antwort auf die Frage nach der Herkunft der Stichprobe kommt
man nach dem Maximum-Likelihood-Prinzip?
177
12. Punkt-Schätzung
Maximum-Likelihood-Schätzfunktionen
Universität Augsburg
Verteilung von G
ϑ
ML-Schätzfunktion
B(1; p)
p (= µ)
X̄
Exp(λ)
µ
X̄
Exp(λ)
σ2
X̄2
λ (= µ = σ2)
X̄
P(λ)
N(µ; σ) (σ bekannt oder unbekannt)
N(µ; σ), µ bekannt
N(µ; σ), µ unbekannt
12. Punkt-Schätzung
µ
σ2
σ2
X̄
1
n
1
n
n
P
(Xi − µ)2
i=1
n
P
(Xi − X̄)2
i=1
178
Maximum-Likelihood-Schätzfunktionen
Universität Augsburg
Für die ML-Schätzung von σ (und anderem) ist folgender Satz hilfreich:
Ist h eine streng monotone Funktion (gleichgültig ob wachsend
oder fallend) und ist Θ̂ eine Maximum-Likelihood-Schätzfunktion
für den Parameter ϑ, so ist die Stichprobenfunktion h(Θ̂) eine Maximum-Likelihood-Schätzfunktion für den transformierten
Parameter h(ϑ).
Beispiel:
√
• Ist Θ̂ ML-Schätzfunktion für σ , so ist Θ̂ ML-Schätzfunktion für σ.
2
• Ist G ∼ Exp(λ), so ist
(λ =
1
µ
1
X̄
ML-Schätzfunktion für λ.
= h(µ) mit h str. mon. fallend; ML-Schätzfkt. für µ: X̄ ⇒ h(X̄) = X̄1 )
179
12. Punkt-Schätzung
12.5 Bayes-Schätzfunktionen
Universität Augsburg
➢ Gegeben:
• Ergebnis einer einfachen Stichprobe
• Likelihoodfunktion (vgl. Folie 150)
(x1, . . . , xn)
f(x1, . . . , xn|ϑ)
• Vorinformation über ϑ (Einschätzung eines Sachkundigen) in Form einer
a priori Dichte / Wahrscheinlichkeitsfunktion ϕ(ϑ)
Vorinformation
Bayes-Schätzung
Stichprobe
➠ a posteriori Dichte / Wahrscheinlichkeitsfunktion ψ(ϑ|x1, . . . , xn)
12. Punkt-Schätzung
180
12.5 Bayes-Schätzfunktionen
Universität Augsburg
➢ Hilfsmittel: Formel von Bayes:
P(B|Aj) P(Aj)
P(Aj|B) = P
P(B|Ai) P(Ai)
(65)
i
wobei nun
P(Aj|B) ersetzt wird durch ψ(ϑ|x1, . . . , xn)
P(B|Aj) ersetzt wird durch f(x1, . . . , xn|ϑ)
ersetzt wird durch ϕ(ϑ)
P(Aj)

f(x , . . . , xn|ϑi) ϕ(ϑi)


P 1

im diskreten Fall


f(x
,
.
.
.
,
x
|ϑ
)
ϕ(ϑ
)
1
n
j
j

 j
⇒ ψ(ϑ|x1, . . . , xn) =
f(x1, . . . , xn|ϑ) ϕ(ϑ)

im stetigen Fall

∞

R



 f(x1, . . . , xn|ϑ) ϕ(ϑ) dϑ
−∞
12. Punkt-Schätzung
181
Vorgehensweise bei Bayes-Schätzung
Universität Augsburg
1. Likelihoodfunktion aufstellen:
f(x1, . . . , xn|ϑ)
2. a priori Dichte / Wahrscheinlichkeitsfunktion (ist bekannt): ϕ(ϑ)
3. a posteriori Dichte / Wahrscheinlichkeitsfunktion ermitteln: ψ(ϑ|x1, . . . , xn)
4. Lageparameter der a posteriori Verteilung berechnen, z.B.
• Modus
• Median
• Erwartungswert
12. Punkt-Schätzung
182
Klausuraufgabe 131
Universität Augsburg
In A-Stadt wird über den Bau einer neuen Straße durch eine Volksabstimmung
abgestimmt. Ein Fachmann schätzt den Anteil der Stimmen für den Bau der
Straße folgendermaßen ein:
Stimmenanteil für den Bau a priori Wahrscheinlichkeit für diesen Anteil
35 %
0,4
45 %
0,3
55 %
0,3
a) Geben Sie den a priori Erwartungswert des Stimmenanteils für den Bau der
Straße an.
Eine Wahlumfrage bei 120 (zufällig ausgewählten) wahlberechtigten Einwohnern ergab 70 Stimmen für den Bau der Straße.
12. Punkt-Schätzung
183
Klausuraufgabe 131
Universität Augsburg
b) Ermitteln Sie das Maximum-Likelihood-Schätzergebnis für den Stimmenanteil der Wähler, die für den Bau stimmen.
c) Ermitteln Sie die a posteriori Wahrscheinlichkeitsfunktion für den Anteil der
Wählerstimmen für den Bau der Straße.
d) Geben Sie den a posteriori Erwartungswert des Stimmenanteils für den Bau
der Straße an.
12. Punkt-Schätzung
184
Intervall-Schätzung
Universität Augsburg
➢ Für einen unbekannten Verteilungsparameter ϑ soll auf Basis einer Stichprobe ein Intervall geschätzt werden.
➢ Verwendung der Stichprobenfunktionen Vu, Vo, so dass Vu 5 Vo und
P(Vu 5 ϑ 5 Vo) = 1 − α
(102)
stets gelten.
[Vu; Vo] heißt Konfidenzintervall (KI) für ϑ zum Konfidenzniveau 1 − α.
➢ Beachte: Das Schätzintervall [vu; vo] ist Realisierung der ZV (!) Vu, Vo.
➠ Irrtumswahrscheinlichkeit α (klein, i.d.R. α 5 0,1)
➢ Frage: Welche Konfidenzintervalle sind zur Schätzung geeignet?
➠ Hängt von Verteilung von G sowie vom unbekannten Parameter (µ, σ2) ab!
➢ Im Folgenden: Einfache Stichprobe X1, . . . , Xn mit E(Xi) = µ, Var(Xi) = σ2
185
13. Intervall-Schätzung
Intervall-Schätzung
Universität Augsburg
➢ Wichtiger Spezialfall: Symmetrische Konfidenzintervalle
• Symmetrisch heißt nicht, dass die Dichte symmetrisch ist, sondern
• übereinstimmende W’keiten für Über-/Unterschreiten des KI, d.h.
P(Vu > ϑ) = P(Vo < ϑ) =
α
2
(103)
➢ Wichtig: Eine Verkleinerung von α bewirkt eine Vergrößerung des KI.
13. Intervall-Schätzung
186
Überblick Intervallschätzung (BB S. 172)
Universität Augsburg
13. Intervall-Schätzung
187
13.1.1 KI für µ bei Normalverteilung mit bekanntem σ2
Universität Augsburg
➢ Vorgehensweise:
➢ Grund für N(0; 1)-Verteilung: Betrachte z.B. Vu = X̄ − √σcn :
√
Vu > µ ⇐⇒ X̄ − √σcn > µ ⇐⇒ X̄−µ
n>c
σ
X̄−µ √
n ∼ N(0; 1) (vgl. Folie 164)
σ
13. Intervall-Schätzung
188
13.1.1 KI für µ bei Normalverteilung mit bekanntem σ2
Universität Augsburg
189
13. Intervall-Schätzung
13.1.1 KI für µ bei Normalverteilung mit bekanntem σ2
Universität Augsburg
Beispiel (BB-Beispiel 73):
Normalverteilung mit σ = 2,4
(x1, . . . , x9) = (184,2; 182,6; 185,3; 184,5; 186,2; 183,9; 185,0; 187,1; 184,4)
Gesucht: KI für µ zum Konfidenzniveau 1 − α = 0,99
1. 1 − α = 0,99
2. N(0; 1): c = x1− α2 = x1− 0,01 = x0,995 = 2,576 (Tab. 3; Interpolation)
2
1
9
3. x̄ = (184,2 + · · · + 184,4) = 184,8
4.
σc
√
n
=
2,4·2,576
√
9
= 2,06
5. KI = [184,8 − 2,06; 184,8 + 2,06] = [182,74; 186,86]
Interpretation: Mit 99 % Wahrscheinlichkeit ist µ ∈ [182,74; 186,86].
13. Intervall-Schätzung
190
Wichtige Fraktilswerte
Universität Augsburg
Wichtige N(0; 1)-Fraktilswerte:
xα
α
0,9
1,281552
0,95
1,644854
0,975 1,959964
0,99
2,326348
0,995 2,575829
(I.d.R. genügen drei Nachkommastellen.)
191
13. Intervall-Schätzung
Intervalllänge
Universität Augsburg
➢ Im Fall 13.1.1 gilt offenkundig
2σc
L = Vo − Vu = √
n
(106)
➢ Welcher Stichprobenumfang n sichert eine vorgegebene (Maximal-)Länge L?
(106) nach n auflösen! ⇒
n=
2σc
L
2
(107)
➢ Eine Halbierung von L erfordert eine Vervierfachung von n!
➢ Im BB-Beispiel 73: L = 4 ⇒
n=
13. Intervall-Schätzung
2·2,4·2,576 2
4
= 9,556 ⇒ n = 10
192
13.1.2 KI für µ bei Normalverteilung mit unbekanntem σ2
Universität Augsburg
➢ Vorgehensweise:
➢ Zu Schritt 2: Falls n − 1 > 30 wird die N(0; 1)-Verteilung verwendet.
193
13. Intervall-Schätzung
13.1.2 KI für µ bei Normalverteilung mit unbekanntem σ2
Universität Augsburg
Beispiel (BB-Aufgabe 92):
Wie BB-Beispiel 73 (vgl. Folie 190), jedoch σ unbekannt.
1. 1 − α = 0,99
2. t(8): c = x1− α2 = x1− 0,01 = x0,995 = 3,355 (Tab. 4)
2
3.
4.
1
x̄ = q
9 (184,2 + · · · + 184,4) = 184,8
s = 18 [(184,22 + · · · + 184,42) − 9
sc
√
√
= 1,31·3,355
= 1,47
n
9
· 184,82] = 1,31
5. KI = [184,8 − 1,47; 184,8 + 1,47] = [183,33; 186,27]
Interpretation: Mit 99 % Wahrscheinlichkeit ist µ ∈ [183,33; 186,27].
13. Intervall-Schätzung
194
13.1.3 KI für µ bei beliebiger, insb. dichotomer Verteilung
Universität Augsburg
➢ Voraussetzung: n > 30, bzw. falls G dichotom: 5 5
n
P
xi 5 n − 5
i=1
➢ Vorgehensweise:
➢ Zu Schritt 3: Manchmal kann ein anderer Schätzwert σ̂ sinnvoller sein.
195
13. Intervall-Schätzung
13.1.3 KI für µ bei beliebiger, insb. dichotomer Verteilung
Universität Augsburg
Beispiel (BB-Beispiel 74):
Poisson-Verteilung mit λ (= µ = σ2) unbekannt.
(x1, . . . , x40) = (3; 8; . . . ; 6)
Gesucht: KI für λ zum Konfidenzniveau 1 − α = 0,9
1. 1 − α = 0,9
2. N(0; 1) : c = x1− α2 = x1− 0,1 = x0,95 = 1,645 (Folie 191)
3. x̄ =
σ̂ =
4.
σ̂c
√
n
1
40
√
=
2
(3 + 8 + · · · + 6) = 6,5
√
x̄ = 6,5 = 2,55 (da σ2 = λ)
2,55·1,645
√
40
= 0,66
5. KI = [6,5 − 0,66; 6,5 + 0,66] = [5,84; 7,16]
13. Intervall-Schätzung
196
Intervalllänge
Universität Augsburg
➢ Falls σ bekannt ➠ verwende (107).
➢ Sonst hängt L =
2√σ̂c
n
(wegen σ̂) vom Stichprobenergebnis ab.
➠ n kann i.A. nicht ermittelt werden.
➢ Ausnahme: Obere Schranke d für σ̂ ist bekannt, d.h. σ̂ 5 d gilt immer.
2
2dc
2dc
L 5 √ ⇐⇒ n =
L
n
➢ Beispiel:
p
√
x̄ − x̄2
G ∼ B(1; p) ⇒ σ̂ = x̄(1 − x̄) = x̄ − x̄2
x̄ ∈ [0; 1]
⇒ x̄ − x̄2 maximal bei x̄ =
2
2
⇒ x̄ − x̄q
5 12 − 12 = 14
⇒ σ̂ 5 14 = 12 = d
2
⇒ n = Lc
1
2
1
4
•
0,5
x̄
197
13. Intervall-Schätzung
13.2 KI für σ2 bei Normalverteilung
Universität Augsburg
➢ Vorgehensweise, falls µ unbekannt:
➢ Falls µ bekannt:
• Schritt 2:
Ersetze χ2(n − 1) durch χ2(n).
n
P
• Schritte 3 und 4: Ersetze (n − 1) s2 durch
(xi − µ)2.
i=1
13. Intervall-Schätzung
198
13.2 KI für σ2 bei Normalverteilung
Universität Augsburg
Beispiel:
G ∼ N(2; σ); (x1, . . . , x5) = (1; 1,5; 2,5; 3; 2)
Gesucht: KI für σ2 zum Konfidenzniveau 1 − α = 0,99
1. 1 − α = 0,99
2. χ2(5) : c1 = x α2 = x0,005 = 0,41; c2 = x1− α2 = x0,995 = 16,75
5
P
3. (xi − µ)2 = (1 − 2)2 + (1,5 − 2)2 + (2,5 − 2)2 + (3 − 2)2 + (2 − 2)2 = 2,5
i=1
4. vu =
2,5
16,75
= 0,15; vo =
2,5
0,41
= 6,10
5. KI = [0,15; 6,10]
(Extrem groß, da n klein.)
199
13. Intervall-Schätzung
Unsymmetrisches KI bei Binomialverteilung
Universität Augsburg
Voraussetzung: G ∼ B(1; p) mit 5 5
n
P
xi 5 n − 5
i=1
a) Überschätzung vermeiden (z.B. kleine Partei nahe 5 %-Hürde):
1. Ein Konfidenzniveau 1 − α wird festgelegt.
2. Das (1 − α)-Fraktil c der N(0; 1)-Verteilung wird bestimmt.
p
3. Das Stichprobenmittel x̄ und σ̂ = x̄(1 − x̄) werden errechnet.
4. Der Wert vo = x̄ + √σ̂cn wird berechnet.
5. Als Ergebnis der Intervall-Schätzung wird [0; vo] angegeben.
b) Unterschätzung vermeiden (z.B. Anteil militanter Demonstranten):
Wie oben, aber . . .
4. Der Wert vu = x̄ − √σ̂cn wird berechnet.
5. Als Ergebnis der Intervall-Schätzung wird [vu; 1] angegeben.
13. Intervall-Schätzung
200
Unsymmetrisches KI bei Binomialverteilung
Universität Augsburg
Beispiel:
Eine Umfrage unter 200 Erstwählern hat einen mittleren Stimmenanteil von
4,5 % für eine bestimmte Partei ergeben. Bestimmen Sie ein unsymmetrisches
Konfidenzintervall für den erwarteten Stimmenanteil dieser Partei zum Konfidenzniveau 95 %.
n = 200; x̄ = 0,045 ⇒
200
P
i=1
xi = 200 · 0,045 = 9 ∈ [5; 200 − 5] ⇒ Vorauss. erfüllt
1. 1 − α = 0,95
2. N(0; 1) : c = x1−α = x0,95 = 1,645 (Folie 191)
p
3. x̄ = 0,045; σ̂ = 0,045 · (1 − 0,045) = 0,21
√
= 0,07
4. vo = 0,045 + 0,21·1,645
200
5. KI = [0; 0,07]
13. Intervall-Schätzung
201
Herunterladen