Beweis: Sei ϑ ′ ∈ Θ1, d.h. ϑ1 betrachten das

Werbung
Beweis: Sei ϑ′ ∈ Θ1 , d.h. ϑ1 < ϑ′ < ϑ2 . Wir betrachten das Hilfsproblem

 E ′ ϕ = max
ϑ
(HP)
 Eϑ ϕ = α, i = 1, 2.
i
Da |S(µ⊤ )| > 2 und Q streng isoton, folgt {Pϑ1 , Pϑ2 } sind linear unabhängig und daher nach
◦
Lemma 3.3.7 (α, α) ∈ Q2 .
Nach Proposition 3.3.6 existiert eine Lösung von (HP) von der Form


<
1
∗
ϕ (x) =
e
c1 fϑ1 (x) + e
c2 fϑ2 (x)
fϑ′ (x)

0
>


<
1
b
T
(x)
b
T
(x)
1
2
=
a1 e
+ a2 e
1

0
>
1)
2)
mit b1 := Q(ϑ1 ) − Q(ϑ′ ) < 0, b2 := Q(ϑ2 ) − Q(ϑ′ ) > 0 und a1 := e
c1 C(ϑ
c2 C(ϑ
C(ϑ′ ) , a2 := e
C(ϑ′ ) .
Es gilt: a1 > 0, a2 > 0. Denn angenommen a1 ≤ 0, a2 ≤ 0, dann folgt ϕ ≡ 1, also α = 1
ein Widerspruch.
Falls: a1 > 0, a2 ≤ 0 oder a1 ≤ 0, a2 > 0, dann ist der Dichtequotient
a1 eb1 T (x) + a2 eb2 T (x)
streng monoton in T (x) (einmal isoton, einmal antiton). Daraus folgt aber Eϑ1 ϕ < Eϑ2 ϕ oder
Eϑ1 ϕ > Eϑ2 ϕ im Widerspruch zur Annahme Eϑi ϕ = α, i = 1, 2.
Die Funktion f (y) := a1 eb1 y + a2 eb2 y ist konvex und f (y) → ∞ für y → ±∞, also ist
{y; f (y) < 1} ein Intervall (c1 , c2 ) und damit (vgl. Abbildung 3.2)

 1, c < T (x) < c
1
2
ϕ∗ (x) =
0
T (x) < c1 oder T (x) > c2 .
Weiter existiert γi so daß Eϑi ϕ∗ = α, i = 1, 2 und ci , γi lassen sich aus dieser Bedingung
umgekehrt auch ermitteln.
Der so konstruierte Test ϕ∗ ist unabhängig von ϑ′ ∈ Θ1 , also ist ϕ∗ glm. bester Test für
({ϑ1 , ϑ2 }, Θ1 ) in Φ[(α, α)]. Wegen a1 > 0, a2 > 0 sind auch e
c1 > 0, e
c2 > 0 und daher ist ϕ∗ auch
optimaler Test in Φ((α, α)) = Φα ({ϑ0 , ϑ1 }).
Behauptung: ϕ∗ ∈ Φα (Θ0 ). Denn sei ϑ′ < ϑ1 oder ϑ′ > ϑ2 und betrachte das Testproblem

 E ′ ϕ = inf
ϑ
(P)
 Eϑ ϕ = Eϑ ϕ = α.
1
2
(P) hat als Lösung denselben Test ϕ∗ wie in Teil a). Daher ist ϕ∗ besser als der Test ϕα ≡ α,
d.h. ϕ∗ ∈ Φα (Θ0 ) und ϕ∗ minimiert auch den Fehler zweiter Art.
✷
81
a1
b
a2
c1
c2
Abbildung 3.2
Bemerkung:
a) Testprobleme der Form ({ϑ ∈ Θ|ϑ 6= ϑ0 }, {ϑ0 }) bei einparametrigen Exponentialfamilien
sind bedeutungslos, denn ist
)
ϕ ∈ Φα , d.h. Eϑ ϕ ≤ α für alle ϑ 6= ϑ0
⇒ Eϑ0 ϕ = α
ϑ 7→ Eϑ ϕ ist stetig
Infolgedessen ist φ ≡ α gleichmäßig bester α-Niveau-Test.
b) Die Aussage von Satz 3.3.8 überträgt sich direkt auf den Fall, daß der Parameterraum Θ
total geordnet ist und die Parameterfunktion Q streng isoton ist.
Wenn kein gleichmäßig bester Test z.N. α existiert, dann kann man als Alternative lokal
optimale Tests betrachten. Wir behandeln zunächst das einseitige Testproblem in Dimension
d = 1. Wir treffen die folgende
R ∂ fϑ ϑ0 dµ.
Annahme: ∀ϕ ∈ Φ ist βϕ (ϑ) = Eϑ ϕ in ϑ0 differenzierbar und βϕ′ (ϑ0 ) = ϕ ∂ϑ
Definition 3.3.9 (Lokale Optimalität, d = 1)
ϕ ∈ Φα heißt lokal optimal in ϑ0 z.N. α wenn
1.) Eϑ0 ϕ∗ = α
2.) ∀ϕ ∈ Φα mit Eϑ0 ϕ = α gilt: βϕ′ ∗ (ϑ0 ) ≥ βϕ′ (ϑ0 )
Dann erhalten wir die folgende Aussage:
Proposition 3.3.10
Unter der obigen Differenzierbarkeits-Annahme gilt:


>
1
∗
∂
Sei ϕ (x) := γ ∂ϑ ln fϑ (x) |ϑ0 = k mit Eϑ0 ϕ∗ = α und es sei ϕ ∈ Φα .


0
<
Dann ist ϕ∗ lokal optimal in ϑ0 z.N. α.
82
Beweis: Aus Proposition 3.3.6 folgt:
ϕ∗ ist Lösung von
∗
⇔ ϕ (x) =
Dieses impliziert die Behauptung.


1


(R
R
∂
ϕ ∂ϑ
fϑ |ϑ0 dµ = sup
ϕfϑ dµ = α
>
∂
∂ϑ fϑ|ϑ0 (x)
fϑ0 (x)
0
<
✷
Bemerkung: lokal optimale Tests
Für zweiseitige Tests für das Testproblem ({ϑ0 }, Θ \ {ϑ0 }) in Dimension d = 1 definiert man
analog lokale Optimalität durch

βϕ′′ (ϑ0 ) = sup,

βϕ (ϑ0 ) = α,

 ′
βϕ (ϑ0 ) = 0,
d.h. die Krümmung der Gütefunktion wird maximal in ϑ0 . Wieder läßt sich mit Proposition
3.3.6 die Lösung ‘explizit’ konstruieren.
a
d
c
b
In Dimension d ≥ 2 betrachtet man analog das Problem, die Gauß’sche Krümmung der Gütefunktion in ϑ0 zu maximieren.
d
b
3.4
Unverfälschte, ähnliche und bedingte Tests
Die Klasse der unverfälschten Tests ist die Klasse der Tests, die besser sind als der triviale Test
ϕα ≡ α.
83
Definition 3.4.1
a) ϕ ∈ Φ heißt unverfälscht z.N. α, wenn ϕ ∈ Φα und Eϑ ϕ ≥ α, ∀ϑ ∈ Θ1 .
Uα := {ϕ ∈ Φ; ϕ unverfälscht z.N. α}
b) Sei J ⊂ Θ. Ein Test ϕ ∈ Φ heißt α-ähnlich auf J , wenn Eϑ ϕ = α, ∀ϑ ∈ J.
Sei ΦJ,α := {ϕ ∈ Φ | Eϑ ϕ = α
ϑ ∈ J} die Menge der auf J α-ähnlichen Test.
a
b
d
c
Für J wird typischerweise der gemeinsame Rand von Hypothese und Alternative gewählt.
Dann lassen sich unverfälschte Tests auf α-ähnliche Tests reduzieren.
Proposition 3.4.2
Sei (Θ, 0) ein topologischer Raum und für alle ϕ ∈ Φ sei βϕ : Θ → [0, 1], βϕ (ϑ) = Eϑ ϕ stetig.
Dann gilt:
Uα ⊂ ΦJ,α mit J := Θ0 ∩ Θ1 (falls J 6= Θ.).
Bemerkung:
ϕ∈Φ
Ist speziell P = Θ versehen mit der Totalvariationsmetrik, dann ist für alle
βγ : P → [0, 1], P → EP ϕ stetig
und falls J = P 0 ∩ P 1 6= Ø, dann ist Uα ⊂ ΦJ,α .
Korollar 3.4.3
Unter der Voraussetzung von Proposition 3.4.2 sei ϕ∗ ∈ Φα glm. bester α-ähnlicher Test für
(Θ0 , Θ1 ). Dann ist ϕ∗ auch glm. bester unverfälschter Test z.N. α.
Die Bestimmung bester unverfälschter Tests läßt sich mit Korollar 3.4.3 auf die Bestimmung glm. bester α-ähnlicher Tests auf J zurückführen. Sei PJ := {Pϑ ; ϑ ∈ J}.
Satz 3.4.4 (Neymann-Struktur)
Sei V : (X , A) → (Y, B) beschränkt vollständig und suffizient für PJ und ϕ ∈ Φ. Dann gilt
ϕ ∈ ΦJ,α ⇔ E· (ϕ | V ) = α [PJ ].
Man sagt auch: ϕ hat Neymann-Struktur bzgl. V .
84
Beweis:
α = EP ϕ = EP E· (ϕ | V ),
⇔
∀P ∈ PJ
EP ( α − E· (ϕ | V ) ) = 0,
|
{z
}
∀P ∈ P.
=:Ψ(V )
Da Ψ eine beschränkte Funktion ist, ist diese Bedingung wegen der beschränkten Vollständigkeit
von V äquivalent mit der Neymann-Strukturbedingung
E· (ϕ | V ) = α [PJ ]
✷
Die Idee zur Konstruktion eines besten α-ähnlichen Tests für (PJ , {Pϑ1 }) ist es nun, aus
den besten Tests ϕv für die bedingten Verteilungen auf den Fasern {V = v} von V einen Test
für (PJ , {Pϑ1 }) zusammenzusetzen.
V
Für die Durchführung dieser Idee benötigt man einige Regularitätsannahmen:
A1) Sei V eine beschränkt vollständige, suffiziente Statistik für PJ .
A2) Es ex. reg. bedingte Verteilungen
π|V =v
Pϑ 1
π|V =v
, P·
für alle P ∈ PJ
π|V =v
für alle v ∈ V (X ) mit π = idX , so daß P·
π|V =v
Pϑ 1
({V = v}) = 1 [PϑV1 ]
Bemerkung:
({V
= v}) = 1 [P V ] und
Bedingung A2) gilt, wenn (X , A) ein Borelscher Raum ist.
Sei nun ϕ∗v ∈ Φ bester Test z.N. α für das reduzierte Testproblem für die bedingten Verteilungen
auf den Fasern, d.h. für
π|V =v
π|V =v
({P·
}, {Pϑ1
}), v ∈ V (X ).
A3) Es gelte die Inklusion der Nullmengen
N P V ⊂ NP V .
J
ϑ1
A4) ∃ ϕ∗ ∈ Φ, so daß ϕ∗ (x) = ϕ∗V (x) (x)[PJ ].
Bedingung A3) erlaubt es, Tests auf PJV Nullmengen abzuändern ohne die Güte unter PϑV1
zu verändern.
85
Satz 3.4.5 (bedingte Tests)
Unter den Voraussetzungen A1)–A4) ist der bedingte Test ϕ∗ aus A4) bester α-ähnlicher Test
für (PJ , {Pϑ1 }).
Beweis: Nach Satz 3.4.4 ist
ΦJ,α = {Ψ ∈ Φ; E· (Ψ | V = v) = α [PJV ]}.
Also ist mit Hilfe von A3) ϕ bester α-ähnlicher Test, wenn ϕ das Testproblem (PI) löst:

 E ϕ = E E (Ψ | V = v) = sup
ϑ1
ϑ1 ϑ1
(PI) :
 E· (Ψ | V = v) = α [P V ].
J
Wir betrachten nun zwei Varianten von (PI):

 E (Ψ | V = v) = sup [P V ]
ϑ1
ϑ1
(PII) :
 E· (Ψ | V = v) = α [P V ].
J
und
R
 ΨdP π|V =v = sup [P V ]
ϑ1
ϑ1
 R ΨdP π|V =v = α [P V ].
J
·
(PIII) :
Wegen A2) sind (PII) und (PIII) äquivalent. Aus (PII) folgt offensichtlich (PI).
Wir zeigen nun, daß ϕ∗ eine Lösung von (PIII) ist. Nach A4) und A3) ex. N ∈ PJV ⊂ NP V
ϑ1
so daß für alle v ∈ N c und für alle x mit V (x) = v gilt:
ϕ∗ (x) = ϕ∗v (x) = ϕ∗V (x) (x).
Daraus folgt mit Hilfe von A2)
Z
Z
π|V =v
π|V =v
ϕ∗ dP·
=
ϕ∗V (x) (x)dP·
(x)
Z
π|V =v
=
ϕ∗v dP·
= α [PJV ],
π|V =v
da P·
({V = v}) = 1 [P V ] für alle P ∈ PJ . Da PϑV1 (N ) = 0 ist, folgt:
Z
π|V =v
ϕ∗ dPϑ1
=
Z
π|V =v
ϕ∗v dPϑ1
= sup
d.h. ϕ∗ löst (PIII). Damit ist ϕ∗ bester α-ähnlicher Test.
[PϑV1 ],
✷
Beispiel 3.4.1 (Studentscher t-Test)
Sei Peϑ := ⊗ni=1 N (µ, σ 2 ), ϑ = (µ, σ 2 ) ∈ R × R+ = Θ, Θ0 = {µ ≤ µ0 }, Θ1 = {µ > µ0 }, σ ein
nuisance Parameter.
86
Satz 3.4.6
Für das einseitige Testproblem (Θ0 , Θ1 ) ist der Studentsche t-Test


>
1
∗
ϕ∗ (x) =
T (x)
tn−1,α

0
≤
glm. bester unverfälschter Test z.N. α. Dabei ist T ∗ (x) :=
√
nq
α-Fraktil der tn−1 -Verteilung.
xn −µ0
P
(xi −xn )2
1
n−1
und tn−1,α das
Beweis:
1) Die Dichte von Peϑ ist
P
1
P
feϑ = Ce− 2σ2
Pn
2
i=1 (xi −2µxi )
h(x).
e Mit Reduktion durch Suffizienz betrachten
Daher ist T (x) = ( xi , x2i ) suffizient für P.
wir daher das reduzierte Testproblem für Pϑ := PeϑT = fϑ (λ\1 ⊗ λ\1+ ) und
µ
1
fϑ (t1 , t2 ) = C(ϑ)e σ2 t1− 2σ2 t2 e
h(t1 , t2 ), t1 ∈ R1 , t2 ≥ 0.
Die Klasse P = {Pϑ ; ϑ ∈ Θ} ist zweiparametrische Exponentialfamilie mit Q1 (ϑ) =
Q2 (ϑ) = − 2σ1 2 und π(t1 , t2 ) = (t1 , t2 ).
µ
,
σ2
2) O.E. sei µ0 = 0. Die Abbildung Θ → P, ϑ → Pϑ ist stetig und daher Uα ⊂ ΦJ,α mit J =
Θ0 ∩ Θ1 = {(0, σ 2 ); σ 2 > 0}. PJ ist einparametrische Exponentialfamilie und V (t1 , t2 ) = t2
ist vollständig und suffizient für PJ . Die bedingte Verteilung von π unter V = t2 hat die
Gestalt
µ
π|V =t2
Pϑ
= e
ct2 (ϑ)e σ2 t1 vt2 ⊗ ε{t2 }
mit einem σ-endlichen Maß vt2 auf R1 . Die Voraussetzungen A1)–A3) aus Satz 3.4.5 gelten
für (PJ , {Pϑ1 }) mit ϑ1 = (µ, σ 2 ) ∈ Θ1 , d.h. µ > 0 und


>
1
ϕt2 (t1 , t2 ) = γ ∗ (t2 ), t1 = c(t2 )

0
<
π|V =t2
mit γ ∗ (t2 ), c(t2 ) so gewählt, daß EP π|V =t2 ϕt2 = α, ist bester Test z.N. α für ({P·
π|V =t
·
},
2
{Pϑ1
}). Diese Form des bedingten Tests kann durch eine geeignete Transformation wesentlich vereinfacht werden.
√
3) Transformation auf nichtbedingte Tests Sei ht2 (t1 ) := n − 1 √ t1 2 , dann gilt:
nt2 −t1
a) ht2 ist strikt isoton auf {t1 ; nt2 > t21 }
b) {(t1 , t2 ); nt2 ≤ t21 } ist eine P-Nullmenge, denn
X
X
(xi − xn )2 ≤ 0}
Pϑ ({(t1 , t2 ); nt2 − t21 ≤ 0}) = Peϑ ({x; n
x2i − n2 x2n = n
= Peϑ ({x : x1 = · · · = xn }) = 0.
87
Also gilt:



1
ϕt2 (t1 , t2 ) = γ ∗ (t2 )


0
√
n − 1√
t1
nt2 −t21
>
=
e
c(t2 )
<
mit e
c(t2 ) := ht2 (c(t2 )) und so daß EP π|V =t2 ϕt2 = α.
·
V (t1 , t2 ) = t2 ist vollständig, suffizient für PJ und S(t1 , t2 ) :=
√
n − 1√
t1
nt2 −t21
ist vertei-
lungsfrei für PJ . Nach dem Basu’schen Satz sind V, S stochastisch unabhänig und daher
gilt
∗
S|V =t2
Pϑ
= PϑS = PeϑT = tn−1
ist unabhängig von t2 . Daher folgt, daß e
c(t2 ) = tn−1,α und γ ∗ (t2 ) = 0 (o.E.) sind un∗
abhängig von t2 und ϕt2 (t1 , t2 ) = ϕ (t1 , t2 ) ist meßbar – es gilt also auch A4). Nach Satz
3.4.5 ist ϕ∗ glm. bester α-ähnlicher Test für ({(0, σ 2 ); σ 2 > 0}, {(µ, σ 2 ); σ 2 > 0, µ > 0}).
4) Es bleibt zu zeigen, daß ϕ∗ ∈ Θα (Θ0 ), dann folgt die Behauptung nach Korollar 3.4.3.
Für µ ≤ 0 gilt aber
Pµ,σ2 ({T ∗ > tn−1,α })


√
√


n(xn − µ)
nµ

q
>
t
−
= Pµ,σ2  q
n−1,α


1 P
1 P
2
2
(xi − µ − (xn − µ))
(xi − xn )
n−1
n−1


√


nµ
∗
 ≤ α.
= P0,σ2  T > tn−1,α − q

1 P
(x − x )2 
n−1
i
✷
n
Bedingte Tests in Exponentialfamilien
Der Beweis aus Beispiel 3.4.1 überträgt sich direkt auf folgende allgemeinere Situation. Sei
◦
Θ ⊂ Rk , ϑ = (η, ζ), η ∈ I ⊂ R1 , ζ ∈ U ⊂ Rk−1 mit einem Intervall I und U 6= Ø. Sei
fϑ (x) = C(ϑ) exp{ηU (x) + hζ, V (x)i}, ϑ = (η, ζ)
ν-Dichte und T (x) = (U (x), V (x)) suffiziente Statistik. Übergang zu den Bildmaßen unter T
führt zu den ν T -Dichten
T
f(η,ζ)
(u, v) = C(η, ζ) exp{ηu + hζ, vi}.
Für das einseitige Testproblem mit η0 ∈ I,
Θ0 := {η ≤ η0 },
Θ1 := {η > η0 } =
6 Ø
gilt dann: J = {η0 } = {(η0 , ζ); ζ ∈ Rk−1 } und τ (u, v) := v ist vollständig und suffizient für PJ .
Satz 3.4.7
Es existiert ein Test der Form ϕ∗ = Ψ∗ (U, V ) mit Ψ∗ (u, v) = 1(c(v),∞) (u) + γ(v)1{c(v)} (u) und
c(v), γ(v) so, daß
Z
π|V =v
Ψ∗ dP·
= α, ∀v ∈ V (X ).
Es gilt: ϕ∗ ist glm. bester auf J = {η = η0 } α-ähnlicher Test und glm. bester unverfälschter Test
z.N. α für (Θ0 , Θ1 ).
88
Beispiel 3.4.2 (Exakter Test von Fischer für das Zweistichprobenproblem)
Zum Vergleich zweier Stichproben sei X = {0, 1}n , n = n1 + n2 , z = (x1 , . . . , xn1 , y1 , . . . , yn2 )
und
Pϑ := B(1, ϑ1 )(n1 ) ⊗ B(1, ϑ2 )(n2 ) , ϑ = (ϑ1 , ϑ2 ) ∈ Θ := (0, 1)2 .
Wir betrachten das Testproblem: Θ0 = {ϑ1 ≤ ϑ2 }, Θ1 := {ϑ1 > ϑ2 }. Dann gilt:
P
xi
(1 − ϑ1 )n1 −
P
P
yi
P
(1 − ϑ2 )n2 − yi
X
X
ϑ2
ϑ1
n1
n2
.
+
yi log
= (1 − ϑ1 ) (1 − ϑ2 ) exp
xi log
1 − ϑ1
1 − ϑ2
Pϑ ({z}) = ϑ1
xi
ϑ2
P ist zweiparametrische Exponentialfamilie mit
X
X ϑ1
ϑ2
Q(ϑ) = (Q1 (ϑ), Q2 (ϑ)) = log
und T (x) =
xj ,
yj .
, log
1 − ϑ1
1 − ϑ2
Das Testproblem (Θ0 , Θ1 ) hat noch nicht die Form aus Satz 3.4.7. Sei daher
η(ϑ) := Q1 (ϑ) − Q2 (ϑ) = log
ϑ1 1 − ϑ2
,
1 − ϑ1 ϑ2
ζ(ϑ) := Q2 (ϑ).
In der neuen Parametrisierung
P
P
P(η, ζ) gilt dann: Θ0 = {η ≤ 0}, Θ1 = {η > 0} und mit
(U (z), V (z)) := ( xj , xj + yj ) gilt
Pϑ (z) = e
c(ϑ) exp{η(ϑ)U (z) + ζ(ϑ)V (z)}.
Es gilt: J = Θ0 ∩ Θ1 = {η = 0} und V ist vollständig und suffizient für PJ . Die bedingte
Verteilung unter V = v ist die hypergeometrische Verteilung
U |V =v
P·
({u}) = hn,n1 ,v (u),
denn wir haben in
n = n1 + n2 , n1 Experimente vom Typ I (n1 rote
Pder Gesamtstichprobe
P
Kugeln) und v =
xj + yj erfolgreiche Experiment. Wir interessieren uns für die Anzahl u
der Erfolge vom Typ I unter allen v Erfolgen – das wird aber gerade durch die hypergeometrische
Verteilung beschrieben.
Nach Satz 3.4.7 ist der Test
X X xj
xj + γ(v)✶{c(v)}
Ψ∗ (x, y) := ✶(c(v),∞)
P
P
mit v =
xj + yj und c(v) als α-Fraktil von hn,n1 ,v , gleichmäßig, bester unverfälschter Test
für (Θ0 , Θ1 ).
Zur Durchführung des Tests stelle man die zugehörige 2 × 2 Feldertafel auf, die ein derartiges Zweistichprobenexperiment beschreibt bei gegebenen Parametern n1 , n2 , v, n in der Form:
I
II
+
P
xj
P
yj
v
−
P
n1 − x j
P
n2 − yj
n1
2 × 2 Feldertafel
n2
n−v
89
Das Versuchsergebnis (bzw. die zugehörige 2 × 2 Feldertafel) ist mit dem kritischen Wert
c(v) zu vergleichen.
Beispiel: Sei n1 = 8, n2 = 11 und u = 7, v = 11, d.h. in der ersten Versuchsreihe 7 Erfolge bei 8
Versuchen, in der zweiten Versuchsreihe 4 Erfolge bei 11 Versuchen.
7 1 8
4 7 11
11 8
Dann ist für α = 0, 05 das α-Fraktil h19,8,11,α = 6 = c(v) und γ(v) = 0, 076. Dazu betrachte 2 × 2
Feldertafeln mit gleichen Randhäufigkeiten

h19,8,11 (n):

8 0
 
3 8

  
7 1
6 2
   
4 7
5 6
0,0022
|
0,0349
{z
0,037
|
{z


0,1712
}
0 8


11 0
13·10−6
}
0,2083
P
Folglich gilt Ψ∗ (x, y) = 1, da u =
xj = 7 > c(v) = 6, d.h. Methode I ist signifikant besser als
Methode II beim Fehlerniveau α = 0, 05. Also ist c(v) = 6 und γ(11) = 0, 076. Bei nur 6 Erfolgen von 8
Versuchen ist keine eindeutige Entscheidung möglich.
Der Fischertest Ψ∗ läßt sich approximativ auf einen nichtbedingten Test transformieren.
e (x, y) = y − y, d.h.
Bei gegebenem v = V (x) ist eine äquivalente Prüfgröße U
∗
Ψ (x, y) =



1
γ(v)


0
e (x, y)
U
>
=
<
e
c(v).
e approximativ normalverteilt, so daß das α-Fraktil
Für große Stichprobenumfänge n1 , n2 ist U
e
c(v) approximativ durch das (nichtbedingte) α-Fraktil der Normalverteilung ersetzt werden
kann.
Beispiel 3.4.3 (nichtparametrisches Zweistichprobenproblem: Permutationstest)
Wir betrachten folgendes nichtparametrische Zweistichprobenproblem zu zwei reellen Versuchsreihen
X = R n × Rm ,
(n)
(m)
P0 = {PF1 ⊗ PF2 ;
Fi ∈ Fc , F1 = F2 }
P1 =
Fi ∈ Fc , F1 ≤ F2 , F1 6= F2 };
(n)
{PF1
⊗
(m)
PF 2 ;
dabei ist Fc die Klasse der stetigen Verteilungsfunktionen auf R, P = P0 + P1 . Unter der Alternative stammt in der Beobachtung z = (x, y) die zweite Komponente y aus einer stochastisch
kleineren Gesamtheit als die erste Komponente x.
90
V (z) = z( ) , der Ordnungsvektor, ist vollständig und suffizient für P0 = PJ . Als Parametrisierung von P können wir Θ = {(F1 , F2 ); Fi ∈ Fc , F1 ≤ F2 } = Θ0 + Θ1 wählen. Sei
ϑ = (F1 , F2 ) ∈ Θ, PFi = hi µ, dann gilt:
Y
Y
dPϑ
(x,
y)
=
h
(x
)
h2 (yi ) =: hϑ (x, y)
1
i
dµ(n+m)
und
π|V =v
Pϑ
(B)
mit hVϑ (v) :=
P
=
P
π∈γn+m
hVϑ (v)
π|V =v
π∈γn+m
hϑ (π −1 (v)) · Pϑ
π|V =v
ist auf {V = v} konzentriert.
1
n!m! ,
Für ϑ = (F, F ) ∈ Θ0 ist P·
({z}) =
{V = v}. Sei ϑ1 = (F1 , F2 ) ∈ Θ1 , dann ist
ϕ∗v (z)
mit c(v), γ ∗ (v), so daß
=


1

1B (π −1 v)hϑ (π −1 v)
falls V (z) = v, die Gleichverteilung auf
>
γ ∗ (v)



0
hϑ1 (z)
e
c(v), z ∈ {V = v}.
=
<
1
1
# {z ∈ {V = v}; hϑ1 (z) > c(v)} + γ ∗ (v)
# {z ∈ {V = v}; hϑ1 (z) = c(v)} = α
n!m!
n!m!
π|V =v
π|V =v
bester Test z.N. α für ({P·
}, {Pϑ1
}).
∗
Der zugehörige Test ϕ heißt Permutationstest, da er auf dem Vergleich der Dichten auf
den Permutationen der Stichprobe z basiert. Die Durchführung solcher Test ist rechenintensiv.
Wir betrachten nun eine einparametrische Klasse von normal-verteilten Translationsalternativen
P△ = N (a + △, σ 2 )(n) ⊗ N (a, σ 2 )(m) , Φ1 = {P△ ; △ > 0} ⊂ Θ1 . Dann gilt
1
h△ (x, y) = Ce− 2σ2 (
Es folgt



1


∗
ϕv (z) = γ ∗ (v),



0
P
x2j +
P
yi2 )+
>
x
= c(v) =
<
mit γ ∗ (v), c(v) so, daß
P
a P
( xj + yj )+ △2
σ2
σ



1


γ ∗ (v),



0
P
xj
.
>
x−y
= c∗ (v)
<
1
1
# {z : V (z) = v; S(x) > c∗ (v)} + γ ∗ (v)
# {z : V (z) = v; S(x) = c∗ (v)} = α
n!m!
n!m!
mit S(x) = x − y. Der Test ϕ∗ = ϕ∗V ist glm. bester unverfälschter Test z.N. α für (Θ0 , Θ1 ).
ϕ∗ heißt Pitman-Zweistichprobentest. Das α-Fraktil kann wieder approximativ aus der Normalverteilung bestimmt werden.
91
Herunterladen