Mathematische Statistik

Werbung
Mathematische Statistik
Josef G. Steinebach
Köln, SS 2011
I Grundbegriffe der Statistik
1 Statistische Entscheidungsfunktionen
Aufgabe der Wahrscheinlichkeitstheorie (W-Theorie) ist die Modellbeschreibung von
Zufallsexperimenten“ oder die Diskussion bestimmter Größen, die von den zufälli”
”
gen“ Ergebnissen des Experiments abhängen. Die formale Beschreibung erfolgt durch
die Angabe eines W-Raumes (Ω, A, P ) für das Experiment bzw. durch Zufallsvariablen
(ZV.) X : (Ω, A) −→ (X , B) und deren Verteilungen PX .
In der Statistik sind die beschriebenen W-Modelle (Ω, A, P ) bzw. (X , B, PX ) i.A. nicht
vollständig bekannt, d.h., sie enthalten typischerweise unbekannte Parameter ϑ ∈ Θ .
Der Parameterraum Θ kann hierbei sehr allgemein sein (vgl. Beispiel 1.1) . Aufgabe der
Statistik ist es dann etwa, aufgrund von Realisationen x = X(ω) der beobachteten ZV.
X eine Entscheidung“ über den unbekannten Parameter ϑ zu treffen. Diese Entschei”
dung basiert häufig auf einer (so genannten) Stichprobenfunktion (Statistik) , d.h. einer
Abbildung T : (X , B) −→ (T , D) , die i.A. eine Reduktion des Datenmaterials bewirkt.
Beispiel 1.1.
a) Bei n unabhängig durchgeführten Heilbehandlungen werde jeweils Erfolg“ oder
”
Misserfolg“ registriert. Die Erfolgswahrscheinlichkeit p ist i.A. unbekannt.
”
W-Modell :
X = (X1 , X2 , . . . , Xn ) , Xi i.i.d. , PXi = B(1, p) , i = 1, . . . , n ;
X = {0, 1}n , B = P(X ) , PX = B(1, p) ⊗ · · · ⊗ B(1, p) ;
ϑ := p ∈ (0, 1) =: Θ .
1
b) Eine physikalische Messung werde n-mal unabhängig durchgeführt. Die Messergebnisse seien Realisationen einer reellen ZV. mit Verteilungsfunktion (VF.) F .
W-Modell :
X = (X1 , X2 , . . . , Xn ) , Xi i.i.d. , P {Xi ≤ x} = F (x) (x ∈ IR) , i = 1, . . . , n ;
X = Rn , B = B n , FX1 ,...,Xn = F ⊗ · · · ⊗ F ;
ϑ := F ∈ {F : R → [0, 1] | F ist VF. } =: Θ .
Bei einer spezielleren Verteilungsannahme PXi = N (a, σ 2 ) ergibt sich :
n
O
X = Rn , B = B n , P X =
N (a, σ 2 ) ;
i=1
2
ϑ := (a, σ ) ∈ R ×
R∗+
=: Θ .
Ausgangspunkt der statistischen Überlegungen wird im Folgenden immer ein so genanntes
statistisches Modell (X , B, PϑX ) , ϑ ∈ Θ , sein, in dem PϑX als Verteilung einer beobachteten Zufallsvariablen X ( i.A. mehrdimensional ) aufgefasst wird, die von einem
unbekannten Parameter ϑ abhängt. Die Annahme
PϑX ∈ P X := {PϑX : ϑ ∈ Θ}
heißt Verteilungsannahme für das statistische Modell (X , B, PϑX ) , ϑ ∈ Θ .
Beispiel 1.1 (Fortsetzung)
n
N
a) P X = { B(1, p) : p ∈ (0, 1)} ;
i=1
b) P X = {µ ⊗ · · · ⊗ µ : µ W-Maß auf B 1 mit VF. F } ; speziell :
n
N
P X = { N (a, σ 2 ) : (a, σ 2 ) ∈ R × R∗+ } .
i=1
Die folgenden statistischen Entscheidungsfunktionen sind von Bedeutung :
Test : Unter einem Test ϕ zum Niveau α ∈ (0, 1) für die Hypothesen
H : ϑ ∈ Θ0 gegen K : ϑ ∈ Θc0 := Θ \ Θ0 versteht man eine (messbare )
Abbildung
ϕ : (X , B) −→ [0, 1], [0, 1] ∩ B 1
mit
Eϑ ϕ(X) ≤ α
∀ ϑ ∈ Θ0
[Fehler 1. Art ].
2
Interpretation : Bei beobachtetem x gibt ϕ(x) die Wahrscheinlichkeit an, mit der eine
Entscheidung für K“ getroffen wird. Für ϑ ∈ Θ0 – also bei Gültigkeit von H – ist
”
somit Eϑ ϕ(X) die mittlere Wahrscheinlichkeit für eine Fehlentscheidung (Entscheidung
für K statt für H, Fehler 1. Art) . Bei einem Test zum Niveau α ( klein“ , z.B.
”
α = 0.01, 0.05, 0.10 o.ä.) beträgt der Fehler 1. Art“ höchstens α .
”
Darüber hinaus sollte der Fehler 2. Art (Entscheidung für H, obwohl K gilt ) ebenfalls
möglichst klein“ sein, d.h.
”
!
Eϑ [1 − ϕ(X)] = min
∀ ϑ ∈ Θc0
[Fehler 2. Art ]
⇐⇒
!
Eϑ ϕ(X) = max
∀ ϑ ∈ Θc0
[Güte des Tests ].
Punktschätzung : Sei γ(ϑ) ein (so genannter ) abgeleiteter Parameter. Eine
(messbare ) Abbildung d : X −→ γ(Θ) [ mit geeigneten σ-Algebren ] heißt
Punktschätzung . Bei beobachtetem x heißt d(x) Schätzwert (Schätzung , Punktschätzung ) für γ(ϑ) .
Bereichsschätzung : Eine Abbildung C : X −→ P γ(Θ) heißt Bereichsschätzung (Konfidenzschätzung ) für γ(ϑ) zum (Konfidenz-) Niveau 1 − α
(α klein“ ), falls
”
Pϑ C(X) 3 γ(ϑ) ≥ 1 − α ∀ ϑ ∈ Θ .
C(x) heißt Konfidenzbereich für γ(ϑ) zum Niveau 1 − α .
Beispiel 1.1 b) (Fortsetzung) X1 , . . . , Xn i.i.d. , PX1 = N (a, σ 2 ) , (a, σ 2 ) ∈ R × R∗+ .
1) Test zum Niveau α für H : a = a0 , K : a 6= a0 ( a0 bekannt ) :

√ |x̄ − a0 |


n
> tn−1,1− α2 ,
 1 :
s
ϕ(x) = ϕ(x1 , . . . , xn ) =
√ |x̄ − a0 |


 0 :
n
≤ tn−1,1− α2 ,
s
wobei x̄ =
1
n
n
P
i=1
xi , s2 =
1
n−1
n
P
i=1
(xi − x̄)2 und tn−1;1− α2 das (1 − α2 )-Quantil der
tn−1 -Verteilung bezeichnet.
3
2) Punktschätzungen :
d1 (x) = x̄
für
γ1 (ϑ) = a ,
d2 (x) = s2
für
γ2 (ϑ) = σ 2 .
3) Bereichsschätzung zum Niveau 1 − α für a :
n
o
s
α
C(x) = C(x1 , . . . , xn ) =
a ∈ R : |a − x̄| ≤ √ tn−1;1− 2
n
i
h
s
s
= x̄ − √ tn−1;1− α2 , x̄ + √ tn−1;1− α2
n
n
( Konfidenzintervall ! )
Für ein statistisches Entscheidungsproblem lassen sich i.A. immer mehrere sinnvolle“
”
Entscheidungsfunktionen angeben. Aus einer solchen Klasse zulässiger Entscheidungsfunktionen ist dann unter bestimmten Gütekriterien möglichst ein optimales Element
auszuwählen, z.B. bei
Tests :
Für ein vorgegebenes Testproblem
H : ϑ ∈ Θ0 , K : ϑ ∈ Θc0 ,
sei
Φ = Φα := { ϕ : X −→ [0, 1] (messbar ) | Eϑ ϕ(X) ≤ α ∀ ϑ ∈ H } ,
die Klasse aller Tests zum Niveau α . Dann heißt ϕ∗ ∈ Φ gleichmäßig
bester Test zum Niveau α (Uniformly Most Powerful Test, UMP-Test ), falls
Eϑ ϕ∗ (X) ≥ Eϑ ϕ(X)
∀ϑ∈K
∀ ϕ ∈ Φ.
Hier und im Folgenden identifizieren wir H ←→ Θ0 , K ←→ Θc0 .
Häufig findet man optimale Elemente nur in der (eingeschränkten) Klasse
e = Φ
e α = { ϕ ∈ Φα | Eϑ ϕ(X) ≥ α ∀ ϑ ∈ K } ,
Φ
der unverfälschten Tests zum Niveau α für H , K .
4
e heißt gleichmäßig bester unverfälschter Test (UMPU-Test ) zum Niveau α
ϕ
e∗ ∈ Φ
für H gegen K , falls
Eϑ ϕ
e∗ (X) ≥ Eϑ ϕ(X)
∀ϑ∈K
e.
∀ϕ∈Φ
Punktschätzungen : Für ein vorgegebenes Schätzproblem sei
E = { d : X −→ γ(Θ) (messbar ) | Eϑ d(X) = γ(ϑ) ∀ ϑ ∈ Θ } ,
die Klasse der erwartungstreuen (unverzerrten , “ unbiased“ ) Schätzer für γ(ϑ) .
Dann heißt d∗ ∈ E Minimum-Varianz-Schätzer (Uniformly Minimum Variance
Unbiased Estimate , UMVU-Schätzer ) , falls
V arϑ d∗ (X) ≤ V arϑ d(X)
∀ϑ∈Θ
∀ d∈E.
Bereichsschätzungen : Für ein vorgegebenes Schätzproblem sei
C = { C : X −→ P γ(Θ) | Pϑ C(X) 3 γ(ϑ) ≥ 1 − α ∀ ϑ ∈ Θ } ,
die Klasse der Bereichsschätzungen zum Niveau 1 − α , und für ϑ ∈ Θ (fest )
sei Dϑ die Menge der ( bei Vorliegen von ϑ ) falschen“ Parameterwerte z.B.
”
Dϑ = {γ(ϑ0 ) : γ(ϑ0 ) 6= γ(ϑ)} .
Dann heißt C ∗ ∈ C gleichmäßig bester Konfidenzbereich für γ(ϑ) (mit Dϑ als
Menge der falschen Parameterwerte ) , falls ∀ ϑ ∈ Θ gilt :
Pϑ C ∗ (X) 3 γ(ϑ0 ) ≤ Pϑ C(X) 3 γ(ϑ0 ) ∀ γ(ϑ0 ) ∈ Dϑ ∀ C ∈ C .
Ähnlich wie bei Tests erhält man optimale Elemente häufig nur in der Klasse
Ce = { C ∈ C | ∀ ϑ ∈ Θ : Pϑ C(X) 3 γ(ϑ0 ) ≤ 1 − α ∀ γ(ϑ0 ) ∈ Dϑ } ,
der unverfälschten Bereichsschätzungen zum Niveau 1 − α .
Der folgende Satz liefert eine wichtige Dualität zwischen UMP(U)-Tests und gleichmäßig
besten (unverfälschten) Bereichsschätzungen :
5
Satz 1.1. Für jedes ϑ0 ∈ Θ sei A∗ (ϑ0 ) der Annahmebereich eines nicht
randomisierten UMP(U)-Tests ϕ∗ϑ0 für Hϑ0 : γ(ϑ) = γ(ϑ0 ) gegen Kϑ0
zum Niveau α , d.h.
(
1 : x∈
/ A∗ (ϑ0 ) ,
∗
ϕϑ0 (x) =
0 : x ∈ A∗ (ϑ0 ) ,
und
Eϑ ϕ∗ϑ0 (X) = Pϑ X ∈
/ A∗ (ϑ0 ) ≤ α
∀ ϑ ∈ Hϑ0 .
Ferner gelte A∗ (ϑ0 ) = A∗ (ϑ1 ) , falls γ(ϑ0 ) = γ(ϑ1 ) . Dann ist
C ∗ (x) = { γ(ϑ0 ) ∈ γ(Θ) | A∗ (ϑ0 ) 3 x }
ein gleichmäßig bester (unverfälschter) Konfidenzbereich zum Niveau 1 − α bei
e ϑ als Menge der falschen Parameterwerte , wobei
D
e ϑ := { γ(ϑ0 ) : Kϑ0 3 γ(ϑ) }
D
z.B.
e ϑ = { γ(ϑ0 ) : γ(ϑ0 ) 6= γ(ϑ) }
Kϑ0 = { γ(ϑ) : γ(ϑ) 6= γ(ϑ0 ) } =⇒ D
bzw. Kϑ0 = {γ(ϑ) : γ(ϑ) > γ(ϑ0 ) }
e ϑ = { γ(ϑ0 ) : γ(ϑ0 ) < γ(ϑ) } .
=⇒ D
6
Herunterladen