1 Tests

Werbung
1
Tests
Sei im Folgenden immer zugrundegelegt eine einparametrige W’keitsfamilie (Pθ )θ∈Θ
mit Θ ⊂ R. Die Abbildung T : Y → R bezeichne immer eine minimal suffiziente
Statistik.
Ein (randomisierter) Test ist eine Abbildung φ : Y → {0, 1} (bzw. φ : Y → [0, 1]).
Die wichtigste Kenngrösse eines Tests ist seine Machtfunktion
mφ (θ) := Eθ φ(Y )
für alle θ ∈ Θ .
Diese Funktion gibt an, wie wahrscheinlich die Nullhypothese verworfen wird zugunsten der Alternativhypothese unter θ. Es ist klar, dass unter Θ0 mφ (θ) möglichst
klein und unter Θ1 möglichst gross sein soll. Die Namensgebung ist etwas unpräzis,
gibt die Machtfunktion auf Θ1 zwar die Macht des Testes an, auf Θ0 jedoch seine
Grösse.
Definition 1. Die Grösse eines Tests φ ist
sup mφ (θ) ,
θ∈Θ0
d.h. die grösste Wahrscheinlichkeit, unter Θ0 die Nullhypothese zu verwerfen zugunsten der Alternative.
1.1
Einfache Tests
Hypothese A:
(wobei θ0 < θ1 )
H0 : θ = θ0 vs. H1 : θ = θ1
Satz 1 (Neymann-Pearson, Satz 2a). Sei α ∈ [0, 1]. Dann gibt es k ∈ R ∪{±∞}
und γ ∈ [0, 1] so dass für den Test der Form


 
> 

 1 
p(y, θ1 )
=
γ
φNP (y) :=
k
(1.1)
falls

 
p(y, θ1 ) 
<
0
gilt
mφNP (θ0 ) = α ,
p(Y,θ1 )
1)
= Pθ0 [φNP (Y ) = 1] = Pθ0 [ p(Y,θ
>
k]
+
γP
[
=
k]
θ0 p(Y,θ1 )
p(Y,θ1 )
d.h. die Grösse des Tests φNP gleich α ist. Dieser Test ist dann der mächtigste Test
unter allen Tests der Hypothese A zur Grösse ≤ α, d.h. für jeden weiteren Test φ
mit Grösse ≤ α gilt
mφ (θ1 ) ≤ mφNP (θ1 ) .
1
1.2
Einseitige Tests mit einfacher Nullhypothese
Hypothese B:
H0 : θ = θ0 vs. H1 : θ > θ0
Definition 2 (Monotoner Likelihoodquotient). Sei T eine suffiziente Statistik
für θ. Dann ist der Likelihoodquotient eine Funktion von der suffizienten Statistik,
Λθ,θ0 (T (y)) =
g(T (y), θ0 )
p(y, θ0 )
=
.
p(y, θ)
g(T (y), θ)
Wir sagen, für die Familie (Pθ ) gelte die MLQ-Eigenschaft steigend, wenn Λθ,θ0 (t)
für alle θ < θ0 eine monoton steigende Funktion in t ist.
Lemma 1. Sei X eine beliebige (R-wertige) ZV und sei u ∈ [0, 1]. Dann gibt es
k ∈ [−∞, +∞] und γ ∈ [0, 1] so, dass
P[X > k] + γ P[X = k] = u .
(1.2)
Beweis. Sei F (x) = P[X ≤ x] die Verteilungsfunktion (rechtsstetig). Wenn es ein k
gibt so, dass F (k) = 1 − u gilt, setzen wir γ = 0 und wir sind fertig. Es gebe also
kein solches k. Wir definieren
k := inf{t : F (t) > 1 − u} .
Dieses Infimum wird angenommen, da F rechtsstetig ist. Es gilt somit aber F (k) >
1−u (da ansonsten der erste Fall eintreten würde). Ausserdem muss gelten F (k−) :=
limx%k F (x) ≤ 1 − u. Wir wählen jetzt
γ :=
F (k) − (1 − u)
=
F (k) − F (k−)
P[X ≤ k] − (1 − u)
P [X = k]
.
Es ist leicht zu überprüfen, dass γ ∈ [0, 1] und dass die Gleichung (1.2) erfüllt ist.
Satz 2 (Satz 2b). Sei (Pθ )θ∈Θ⊂R eine W’familie mit suffizienter Statistik T : Y →
R. Diese Familie genüge der MLQ Eigenschaft steigend. Sei θ0 ∈ Θ beliebig. Sei
α ∈ [0, 1] beliebig. Seien k und γ so, dass
Pθ0 [T > k] + γPθ0 [T = k] = α
(gibt es wegen obigem Lemma). Dann ist der Test der Form
 


 1 
 > 
γ
=
φ∗ (y) :=
falls T (y)
k
 


0
<
(1.3)
der UMP (uniform most powerfull) Test unter allen Tests der Hypothese B zur
Grösse ≤ α, d.h. für jeden weiteren Test φ mit Grösse ≤ α gilt
mφ (θ) ≤ mφ∗ (θ)
für alle θ > θ0 .
2
Beweis. Dass φ∗ die Grösse α hat ist gemäss Konstruktion klar. Wir müssen also
nur noch zeigen, dass unser Test bei jedem θ > θ0 mindestens gleich gut wie der
entsprechende Neymann-Pearson-Test ist, also
mφ∗ (θ) ≥ mφNP
für alle θ > θ0 ,
θ
(1.4)
wobei mφNP der Neymann-Pearson-Test aus Satz 2a ist mit Nullhypothese θ0 und
θ
Alternative θ (wenn die Ungleichung gilt, so gilt natürlich automatisch die Gleichheit, da der Neymann-Pearson-Test ja der beste Test ist; die Ungleichung ist jedoch
leichter zu zeigen). Sei also θ > θ0 fest, und sei k 0 = Λθ0 ,θ (k) (im Folgenden schreiben
wir zur Vereinfachung einfach Λ statt Λθ0 ,θ ). Wir unterscheiden zwei Fälle:
(a) Λ−1 (k 0 ) = {k}: Es gilt wegen der MLQ Eigenschaft steigend, dass




> 
 > 
p(y, θ) 
=
=
Λ(T (y)) =
k 0 ⇔ T (y)
k.



p(y, θ0 ) 
<
<
0
Wir wählen also für den Test φNP
θ (y) die Konstanten γ und k , und es gilt somit
∗
NP
φ (y) = φθ (y) für alle y ∈ Y und daraus folgt in (1.4) offensichtlich Gleichheit.
0
(b) Λ−1 (k 0 ) = K % {k}: Wir nehmen für den Test φNP
θ (y) wieder die Konstante k ,
müssen jedoch neu randomisieren, d.h. wir definieren

0
 α − Pθ0 [Λ(T (Y )) > k ]
wenn Pθ0 [T ∈ K]
Pθ0 [T ∈ K]
γ 0 :=

0
sonst .
Wir müssen nun folgende Dinge überprüfen:
i) Wohldefiniertheit, d.h. γ ∈ [0, 1]: falls Pθ0 [T ∈ K] = 0 ist γ 0 = 0, somit ok.
Ansonsten rechnen wir:
α − Pθ0 [Λ(T ) > k 0 ] = α − (Pθ0 [T > k] − Pθ0 [T > k, Λ(T ) = k 0 ])
= α − (α − γPθ0 [T = k]) + Pθ0 [T > k, Λ(T ) = k 0 ]
≤ Pθ0 [T = k] + Pθ0 [T > k, Λ(T ) = k 0 ] ≤ Pθ0 [Λ(T ) = k 0 ] = Pθ0 [T ∈ K] .
ii) Grösse: durch einfaches Einsetzen in Eθ0 φNP
θ (Y ).
iii) Macht: man kann (durch etwas längliches Rechnen) in der Tat zeigen, dass
mφ∗ (θ) ≥ mφNP (θ) gilt.
θ
1.3
Einseitige Tests
Hypothese C:
H0 : θ ≤ θ0 vs. H1 : θ > θ0
Satz 3 (FKG-Ungleichung). Seien f, g : R → R monoton steigende Funktionen
und X eine beliebige ZV. Dann gilt
E{f (X)g(X)} ≥ Ef (X)Eg(X) ,
falls alle Erwartungswerte existieren.
3
Beweis. Für jedes c ∈ R gilt:
E{f (X)g(X)} − Eg(X)Ef (X) = E{f (X)g(X) − g(X)Ef (X)}
= E{g(X)(f (X) − Ef (X))} = E{(g(X) − c)(f (X) − Ef (X))} .
Wähle c so, dass
g(x) > c ⇒ f (x) ≥ Ef (x) ,
g(x) < c ⇒ f (x) ≤ Ef (x) ,
womit die rechte Seite obiger Gleichung immer positiv ist und die Behauptung folgt.
Lemma 2 (Lemma 2c). Es habe (Pθ )θ∈Θ die MLQ-Eigenschaft steigend. Dann ist
h(θ) := Pθ [T > k] + γPθ [T = k]
eine monoton steigende Funktion für jedes k ∈ [−∞, +∞], γ ∈ [0, 1] und T suffizient.
Beweis. Die Funktion f (t) := 1{t>k} + γ 1{t=k} ist monoton steigend in t. Es gilt
somit für θ0 > θ
Z
Z
0
Eθ0 f (T ) = f (T (y))p(y, θ ) dµ(y) = f (T (y))Λθ,θ0 (T (y))p(y, θ) dµ(y)
= Eθ {f (T )Λθ,θ0 (T )} ≥ Eθ Λθ,θ0 (T )Eθ f (T ) = Eθ f (T ) ,
wobei die Ungleichung wegen der FKG-Ungleichung zustande kommt. Mit h(θ) =
Eθ f (T ) folgt die Behauptung.
Satz 4 (Satz 2d). Es seien die Voraussetzungen wie in Satz 2b. Dann ist der Test
φ∗ aus Satz 2b sogar der UMP Test unter allen Tests der Hypothese C zur Grösse
≤ α.
Beweis. Da mφ∗ (θ0 ) = α und wegen Lemma 2c hat dieser Test in der Tat Grösse
α. Jeder weitere Test φ der Grösse ≤ α erfüllt insbesondere mφ (θ0 ) ≤ α. Durch
Anwendung von Satz 2b folgt nun die Behauptung.
4
Herunterladen