Signifikanztests in Normalverteilungsmodellen

Werbung
Kapitel 3
Signifikanztests in
Normalverteilungsmodellen
3.1
χ2 -, t- und F-Verteilungen
• Chi-Quadrat-Verteilungen
¡
¢
Lebesgue-Dichte (λ
λ 1 -Dichte) der χ2n = Ga n2 , 12 - Verteilung (wobei n ∈ N) :
(
n
1
C x 2 −1 e− 2 x , falls x > 0
f (x) =
(x ∈ R) ,
0
, falls x ≤ 0
wobei C =
1
¡ ¢ .
2n/2 Γ n2
Lemma 3.1 (Generierung χ2 -verteilter ZV’en)
Seien X1 , . . . , Xn stochastisch unabhängige und identisch standard-normalverteilte reelle Zufallsvariablen (auf einem W-Raum (Ω, A, P) ). Dann gilt:
n
X
Xi2 ∼ χ2n .
i=1
• t-Verteilungen Lebesgue-Dichte (λ
λ 1 -Dichte) der tn - Verteilung (wobei n ∈ N) :
¡
¢
³
Γ n+1
x2 ´−(n+1)/2
2¡ ¢
f (x) = C 1 +
, (x ∈ R) , wobei C = √
.
n
nπ Γ n2
Lemma 3.2 (Generierung t-verteilter ZV’en)
Seien X ∼ N(0, 1) und Y ∼ χ2n stochastisch unabhängige reelle Zufallsvariablen (auf einem W-Raum
(Ω, A, P)). Dann gilt:
X
Z := q
∼ tn .
1
Y
n
Anmerkung: Es gilt P ( Y > 0 ) = 1; die Zufallsvariable Z ist hier nur auf der Menge {Y > 0} formuliert, und
man sollte sich irgend eine (messbare, reelle) Fortsetzung von Z auf ganz Ω denken. Wie diese Fortsetzung auch
immer gewählt wird, berührt nicht die Verteilung der Zufallsvariablen Z.
16
Norbert Gaffke: Vorlesung “Mathematische Statistik”, Wintersemester 2010/11
Kapitel 3: Signifikanztests in Normalverteilungsmodellen
17
Zum Beweis von Lemma 3.2 ist das folgende Hilfsresultat nützlich.
Lemma 3.3 (Hilfsresultat)
Seien X und Y zwei stochastisch unabhängige Zufallsvariablen auf einem W-Raum (Ω, A, P),
X : (Ω, A) −→ (M1 , A1 ) ,
Y : (Ω, A) −→ (M2 , A2 ) ,
und sei G : (M1 × M2 , A1 ⊗ A2 ) −→ (M, A) eine (messbare) Abbildung,
wobei (Mi , Ai ), i = 1, 2, und (M, A) Messräume sind.
Betrachte die (neue) Zufallsvariable Z := G ◦ (X, Y ) : (Ω, A) −→ (M, A) .
Sei µ ein sigma-endliches Maß auf (M, A), und es gelte:
¡
¢
Für jedes y ∈ M2 ist die Verteilung der Zufallsvariablen Ω 3 ω 7−→ G X(ω), y ∈ M gegeben
durch gy · µ , und die Familie der µ-Dichten (gy )y∈M2 ist produkt-messbar, (d.h. die Funktion
M × M2 3 (z, y) 7−→ gy (z) ist messbar bezgl. A ⊗ A2 und B1 ) .
Z
Dann gilt:
Z ∼ f · µ mit f (z) :=
gy (z) dPY (y) , z ∈ M .
M2
Zum Beweis: Verifiziere:
R
A
f (z) dµ(z) = PG◦(X,Y ) (A) ∀ A ∈ A .
• F-Verteilungen Lebesgue-Dichte (λ
λ 1 -Dichte) der Fm,n -Verteilung (wobei m, n ∈ N) :
¡
f (x) = C · x(m/2)−1 1 +
¢−(m+n)/2
m
nx
∀ x ≤ 0,
¡ m ¢m/2 ± ¡ m
B 2 ,
wobei C := n
∀ x > 0,
f (x) = 0
n
2
¢
.
Wiederum mit dem Hilfsresultat (Lemma 3.3) lässt sich zeigen:
Lemma 3.4 (Generierung F-verteilter ZV’en)
Seien X und Y stochastische unabhängige reelle Zufallsvariablen (auf einem W-Raum (Ω, A, P) ) mit
X ∼ χ2m und Y ∼ χ2n . Dann gilt:
Z :=
1
m
1
n
X
n X
=
∼ Fm,n
m Y
Y
Anmerkung: Es gilt P ( Y > 0 ) = 1; die Bemerkung in Lemma 3.2 überträgt sich sinngemäß.
Norbert Gaffke: Vorlesung “Mathematische Statistik”, Wintersemester 2010/11
Kapitel 3: Signifikanztests in Normalverteilungsmodellen
3.2
Lineare und quadratische Statistiken normalverteilter Zufallsvariablen
In diesem Abschnitt bezeichne X eine Rn -wertige normalverteilte Zufallsvariable:
X ∼ N(b, V ) ,
mit b ∈ Rn und V n × n p.d.
Die Vektoren seien hier als Spaltenvektoren geschrieben, (da etwas Matrizenrechnung verwendet wird).
Lemma 3.5 (Stoch. Unabhängigkeit linearer Statistiken in X)
Seien Ai reelle mi × n Matrizen, i = 1, . . . , r. Die folgenden beiden Bedingungen (i) und (ii) sind
äquivalent.
(i) Die Zufallsvariablen A1 X , . . . , Ar X sind stochastisch unabhängig.
(ii) Ai V Atj = 0 ∀ i 6= j (i, j = 1, . . . , r) .
Korollar 3.6 (Stoch. Unabhängigkeit quadratischer Statistiken in X)
Seien C 1 , . . . , C r positiv semi-definite n × n Matrizen mit C i V C j = 0 ∀ i 6= j (i, j = 1, . . . , r) .
Dann sind die (reellen) Zufallsvariablen X t C 1 X , . . . , X t C r X stochastisch unabhängig.
Lemma 3.7 (χ2 -verteilte quadratische Statistik in X)
Sei C eine positiv semi-definite n × n Matrix mit
m := Rang(C) ≥ 1 ,
Cb = 0 und CV C = C .
Dann gilt: X t CX ∼ χ2m .
Beispiel: (Interessant für lineares Normalverteilungsmodell)
Betrachte den Spezialfall: b = Bβ , V = σ 2 I n , also
X ∼ N(Bβ, σ 2 I n ) ,
wobei B eine n × k Matrix mit Rang(B) = k , β ∈ Rk und σ 2 > 0 gegeben seien, und es sei n > k .
Bezeichne: Q = B(B t B)−1 B t , (symmetrische n × n Matrix ; orthogonaler Projektor auf Bild(B) ).
Mit Lemma 3.5 und Lemma 3.7 erhält man:
Die beiden Zufallsvariablen B t X und (I n − Q)X sind stoch. unabhängig.
Die beiden Zufallsvariablen B t X und RSS := X t (I n − Q)X sind stoch. unabhängig.
1
RSS ∼ χ2n−k .
σ2
18
Norbert Gaffke: Vorlesung “Mathematische Statistik”, Wintersemester 2010/11
Kapitel 3: Signifikanztests in Normalverteilungsmodellen
3.3
19
Lineares Normalverteilungsmodell
In diesem Abschnitt sei ein lineares Normalverteilungsmodell zu Grunde gelegt:
³
´
¡
¢
Rn , B n , N(Bβ , σ 2 I n ) (β,σ)∈Rk ×(0 , ∞) ,
wobei B eine gegebene n × k Matrix mit Rang(B) = k , und n > k .
3.3.1
Einseitige und zweiseitige t-Tests
Seien noch c ∈ Rk , c 6= 0 und c0 ∈ R gegeben. Wir betrachten die folgenden Testprobleme:
(TP1)
H0 : ct β ≤ c0
gegen H1 : ct β > c0 ;
(TP2)
H0 : ct β ≥ c0
gegen H1 : ct β < c0 ;
(TP3)
H0 : ct β = c0
gegen H1 : ct β 6= c0 .
Die Testprobleme (TP1) und (TP2) nennt man einseitige Testprobleme (über die Linearkombination ct β =
Pk
t
j=1 cj βj ), das Testproblem (TP3) ein zweiseitiges Testproblem (über die Linearkombination c β). Diese
Sprechweisen wie auch die etwas laxe Formulierung der Hypothesen der Testprobleme sollte aber nicht darüber
hinwegtäuschen, dass auch der Varianzparameter σ 2 im Parameterbereich Θ und in den jeweiligen Teilmengen
Θ0 und Θ1 der Testprobleme präsent ist. Z.B. für Testproblem (TP1) :
©
ª
©
ª
Θ0 = (β, σ 2 ) ∈ Rk ×(0 , ∞) : ct β ≤ c0 , Θ1 = (β, σ 2 ) ∈ Rk ×(0 , ∞) : ct β > c0 .
Die standardmäßig verwendeten α-Signifikanztests für die drei Testprobleme (sog. t-Tests, s. unten) lassen sich durch das folgende Resultat erklären (zumindest ihre Eigenschaft, tatsächlich αSignifikanztests zu sein).
Lemma 3.8
Bezeichne
wobei
q
1
b
β(x)
= (B t B)−1 B t x und s(x) =
(x ∈ Rn ) ,
n−k RSS(x) ,
¡
¢
RSS(x) = xt I n − Q x (Residual Sum of Squares) mit Q := B(B t B)−1 B t .
Definiere die Statistik T : (Rn , B n ) −→ (R, B1 ) durch
T (x) :=
b
ct β(x)
− c0
p
,
t
s(x) c (B t B)−1 c
Dann gilt, für jedes β ∈ Rk und jedes σ > 0 :
 st


 ≤
£
¤
T
2
=
N(Bβ , σ I n )


 st
≥
tn−k ,
x ∈ Rn .
≤
falls c β = c0 ,
≥
t
(dabei steht tn−k für die tn−k -Verteilung).
Anmerkung: Streng genommen haben wir T nur auf der Menge {s > 0} definiert. Man wähle irgend eine
messbare (reelle) Fortsetzung auf ganz Rn . Wie diese gewählt wird berührt nicht die Verteilungen von T , da
{s = 0} = Bild(B) eine λλn -Nullmenge ist.
Norbert Gaffke: Vorlesung “Mathematische Statistik”, Wintersemester 2010/11
Kapitel 3: Signifikanztests in Normalverteilungsmodellen
Theorem 3.9 (t-Tests)
Mit der in Lemma 3.8 definierten Statistik T sind α-Signifikanztests für die Testprobleme (TP1),
(TP2) und (TP3) gegeben durch:
½
1
>
(TP1) H0 : ct β ≤ c0 gg. H1 : ct β > c0
ϕ∗1 (x) :=
, falls T (x)
F −1 (1 − α) ;
0
≤ tn−k
½
1
<
∗
t
t
(TP2) H0 : c β ≥ c0 gg. H1 : c β < c0
ϕ2 (x) :=
(1 − α) ;
, falls T (x)
− Ft−1
n−k
0
≥
½
¯
¯ >
1
∗
t
t
(TP3) H0 : c β = c0 gg. H1 : c β 6= c0
ϕ3 (x) :=
, falls ¯T (x)¯
F −1 (1 − α2 ) .
0
≤ tn−k
Dabei bezeichnet Ftn−k die Verteilungsfunktion der tn−k -Verteilung und Ft−1
ihre Umkehrfunktion.
n−k
Bemerkung: P-Value-Darstellungen der t-Tests
Die P-Value-Darstellungen der Tests von Theorem 3.9 lauten:
½
¡
¢ <
1
∗
, falls 1 − Ftn−k T (x)
α;
ϕ1 (x) =
0
≥
½
¡
¢ <
1
ϕ∗2 (x) =
, falls Ftn−k T (x)
α;
0
≥
½
£
¡
¢¤ <
1
∗
ϕ3 (x) =
, falls 2 1 − Ftn−k |T (x)|
α.
0
≥
Bemerkung: Optimalität der t-Tests
Die drei genannten t-Tests lassen sich in einer etwas kleineren Menge als der Menge aller α-Signifikanztests
(zum jeweiligen Testproblem) als gleichmäßig optimal nachweisen, nämlich in der Menge aller unverfälschten
(engl.
unbiased) α-Signifikanztests
(zum jeweiligen Testproblem). Allgemein, für irgend ein statistisches Modell
³
´
¡ ¢
M, A, Pϑ ϑ∈Θ und irgend ein Testproblem,
H0 : ϑ ∈ Θ 0
gegen H1 : ϑ ∈ Θ1 ,
nennt man einen α-Signifikanztest ϕ unverfälscht, wenn gilt:
¡ ¢
Eϑ ϕ ≥ α ∀ ϑ ∈ Θ1 .
Ein gleichmäßig optimaler unverfälschter α-Signifikanztests ϕ∗ , (engl. Uniformly Most Powerful Unbiased levelα test, abgekürzt: UMPU level-α test), ist ein unverfälschter α-Signifikanztest mit der Eigenschaft, dass für
jeden anderen unverfälschten α-Signifikanztest ϕ gilt:
¡ ¢
¡ ¢
Eϑ ϕ∗ ≥ Eϑ ϕ ∀ ϑ ∈ Θ1 .
Die t-Tests von Theorem 3.9 sind gleichmäßig optimale unverfälschte α-Signifikanztests für das jeweilige Testproblem (TP1), (TP2) oder (TP3).
Spezialfälle:
(1) t-Tests für eine einzelne Komponente von β.
Betrachte im linearen Normalverteilungsmodell spezieller die folgenden Testprobleme über die Komponente βj0 , (für ein gegebenes j0 ∈ {1, . . . , k}), des Parametervektors β = (β1 , . . . , βk )t .
(TP1-j0 )
H0 : βj0 ≤ 0 gegen H1 : βj0 > 0 ;
(TP2-j0 )
H0 : βj0 ≥ 0 gegen H1 : βj0 < 0 ;
(TP3-j0 )
H0 : βj0 = 0
gegen H1 : βj0 6= 0 .
20
Norbert Gaffke: Vorlesung “Mathematische Statistik”, Wintersemester 2010/11
Kapitel 3: Signifikanztests in Normalverteilungsmodellen
21
Diese sind offensichtlich Testprobleme (TP1), (TP2), (TP3) von oben mit
c = ej0 ( = j0 -ter Einheitsvektor in Rk )
und c0 = 0 .
Die Statistik T der t-Tests gemäß Theorem 3.9 :
T (x) =
βbj0 (x)
,
√
s(x) wj0 j0
wobei
¡
¢−1
b
βbj0 (x) = j0 -te Komponente von β(x)
, wj0 j0 = Diagonaleintrag Nr. (j0 , j0 ) von B t B
.
(2) Regressionsgerade und t-Tests für den Steigungsparameter
Im Regressionsmodell y(t) = c + at , (t eine reelle Einflussgröße, y eine reelle Zielgröße), werden
zu gegebenen t-Werten t1 , . . ¡. , tn die ¢Werte y1 , . . . , yn der Zielgröße beobachtet, die als Werte von
stochastisch unabhängigen, N y(ti ), σ 2 -verteilten Zufallsvariablen Y1 , . . . , Yn aufgefasst werden. Dabei
sei n > 2, und die Werte t1 , . . . , tn seien nicht alle identisch. Die Parameter sind c, a ∈ R und σ > 0.
Das statistische Modell ist das spezielle lineare Normalverteilungsmodell mit


1 t1
 1 t2 


k=2, B =  . .  .
 .. .. 
1 tn
Interessant sind die folgenden Testprobleme über den Steigungsparameter a:
(TP1-slope)
H0 : a ≤ 0 gegen H1 : a > 0 ;
(TP2-slope)
H0 : a ≥ 0 gegen H1 : a < 0 ;
(TP3-slope)
H0 : a = 0
gegen H1 : a 6= 0 .
Mit Bezeichnung y = (y1 , . . . , yn )t anstatt x und den Abkürzungen
v
u n
n
q
X
u1 X
2
1
1
t
(t
−
(t
−
t)
,
s
=
t)(y
−
y)
,
s(y)
=
st =
i
ty
i
i
n
n
n−2 RSS(y) ,
i=1
i=1
lautet die Teststatistik T von Theorem 3.9
T (y) =
√
n
sty
.
s(y) st
(3) Modell mit u.i.v. normalverteilten reellen ZV’en
Dies ist der Spezialfall des linearen Normalverteilungsmodells mit k = 1 und B = 1n×1 . Interessant
sind hier die Testprobleme über den Erwartungswert β :
(TP1-mean)
H0 : β ≤ β0
gegen H1 : β > β0 ;
(TP2-mean)
H0 : β ≥ β0
gegen H1 : β < β0 ;
(TP3-mean)
H0 : β = β0
gegen H1 : β 6= β0 .
Dabei ist β0 ∈ R ein gegebener Wert. Diese Testprobleme sind Testprobleme (TP1), (TP2) und (TP3)
mit k = 1, c = 1, c0 = β0 . Die Teststatistik T von Theorem 3.9:
s
n
n
√ x − β0
1 P
1 P
T (x) = n
,
mit x = n
xi , s(x) = n−1
(xi − x)2 .
s(x)
i=1
i=1
Norbert Gaffke: Vorlesung “Mathematische Statistik”, Wintersemester 2010/11
Kapitel 3: Signifikanztests in Normalverteilungsmodellen
22
(4) Zwei-Stichproben-Modell: Vergleich der Erwartungswerte
Modell: Stochastisch unabhängige reelle ZV’en X1 , . . . , Xn1 , Y1 , . . . , Yn2 mit
Xi ∼ N(β1 , σ 2 ) , (1 ≤ i ≤ n1 ) ,
Yj ∼ N(β2 , σ 2 ) , (1 ≤ j ≤ n2 ) ,
Parameter (β1 , β2 , σ) ∈ R2 × ( 0 , ∞).
Andere Modellformulierung:
³
´
¡
¢
Rn1 +n2 , B n1 +n2 , Pβ1 ,β2 ,σ (β1 ,β2 ,σ)∈R2 ×(0 , ∞) ,
n1
n2
wobei Pβ1 ,β2 ,σ = ⊗ N(β1 , σ 2 ) ⊗ ⊗ N(β2 , σ 2 ) = N(Bβ, σ 2 I n ) ,
·
B =
i=1
1n1 ×1 0n1 ×1
0n2 ×1 1n2 ×1
j=1
¸
,
µ
β =
β1
β2
¶
.
Interessant sind die Testprobleme H0 : β1 ≤ β2 gg. H1 : β1 > β2 (“einseitiges” TP) und H0 : β1 = β2
gg. H1 : β1 6= β2 (“zweiseitiges” TP). Das sind Testprobleme (TP1) und (TP3) mit c = ( 1, −1 )t
und c0 = 0 . Für die Teststatistik T gemäß Theorem 3.9 ergibt sich:
q
x−y
n1 n2
T (x, y) =
x = (x1 , . . . , xn1 ) , y = (y1 , . . . , yn2 ) , wobei
n1 +n2 s(x, y) ,
³P
´
n1
n2
n1
n2
P
P
P
x =
xi , y =
yj , s2 (x, y) = n1 +n1 2 −2
(xi − x)2 +
(yj − y)2 .
i=1
3.3.2
j=1
i=1
j=1
F-Tests für lineare Hypothesen
Sei C eine gegebene k × r Matrix mit Rang(C) = r und c0 ∈ Rr ein gegebener Vektor. Wir betrachten
das Testproblem, (“Testen einer linearen Nullhypothese”),
H0 : C t β = c0
(TP-lin)
gegen H1 : C t β 6= c0 .
Betrachte die quadratische Statistik auf Rn :
¢
¢t ¡
¢−1 ¡ t
¡
b
b
C β(x)
− c0 ,
q(x) := C t β(x)
− c0 C t (B t B)−1 C
b
wobei wie üblich β(x)
= (B t B)−1 B t x , sowie
RSS(x)
=
xt (I n − Q)x
s2 (x)
=
1
n−k RSS(x)
mit Q = B(B t B)−1 B t ,
.
Lemma 3.10 (Verteilungseigenschaften von RSS und q)
Sei (β, σ) irgendein Parameterpunkt. Dann gilt unter der Verteilung N(Bβ, σ 2 I n ) :
RSS und q sind stochastisch unabhängig;
(
∼
=
2
1
1
RSS
∼
χ
und
q
χ2r , falls C t β
c0 ;
st
2
2
n−k
σ
σ
6=
≥
1 q
r s2
(
∼
st
≥
Fr,n−k , falls C t β
=
c0 .
6
=
Norbert Gaffke: Vorlesung “Mathematische Statistik”, Wintersemester 2010/11
Kapitel 3: Signifikanztests in Normalverteilungsmodellen
23
Theorem 3.11 (F-Test für eine lineare Hypothese)
Ein unverfälschter α-Signifikanztest für das Testproblem
H0 : C t β = c0
(TP-lin)
ist gegeben durch:
(
ϕ(x) =
1
0
, falls
1
r
gegen H1 : C t β 6= c0
±
>
q(x) s2 (x)
fr,n−k, 1−α ,
≤
wobei fr,n−k, 1−α das (1 − α)-Quantil der Fr,n−k -Verteilung bezeichnet.
Beispiel k-Stichproben-Modell: Vergleich der Erwartungswerte
k-Stichproben-Normalverteilungsmodell:
Stoch. unabhängige reelle ZV’en Xi,j ∼ N(βi , σ 2 ) , j = 1, . . . , ni , i = 1, . . . , k ;
P
Parameter sind β1 , . . . , βk und σ ; k ≥ 2 und n1 , . . . , nk ∈ N gegeben, n := ki=1 ni .
Das Modell ist ein lineares Normalverteilungsmodell mit:



et1 

..



.  n1 -mal 





et1







t


β1
e2 





 β2 
..



.  n2 -mal 
B = 
,
β
=

 ..  ,

t




.
e2




..
βk


.



 et 



k 


..
n
-mal


k
. 

t
ek
(e1 , e2 , . . . , ek die elementaren Einheitsvektoren in Rk ) .
Interessant ist das Testproblem
H0 : β1 = β2 = . . . = βk
gegen H1 : ∃ i1 6= i2 mit βi1 6= βi2 .
Dies ist ein (TP-lin) , H0 : C t β = 0 gegen H1 : C t β 6= 0 , wenn C eine k × (k − 1) Matrix ist,
deren Spalten eine Basis des Orthogonalraums zu {1k } bilden. Mathematisch vorteilhaft ist die Wahl
von C so, dass die Spalten von C eine Orthonormalbasis von {1k }⊥ bilden. Dann gilt:
und CC t = E k := I k − k1 1k 1tk .
C t C = I k−1
¡
¢t
Man erhält, wobei x = x1,1 , x1,2 , . . . , . . . , xk,nk ∈ Rn (die Beobachtung) :
B t B = diag(ν) ,
¢t
¡
b
β(x)
= x1· , x2· , . . . , xk·
¡
¢t
wobei ν := n1 , n2 , . . . , nk ;
mit xi· :=
ni
1 X
xi,j (i = 1, . . . , k);
ni
j=1
RSS(x) =
ni
k X
X
(xi,j − xi· )2 ,
i=1 j=1
s2 (x) =
1
n−k
RSS(x) ;
Norbert Gaffke: Vorlesung “Mathematische Statistik”, Wintersemester 2010/11
Kapitel 3: Signifikanztests in Normalverteilungsmodellen
¡ t t −1 ¢−1
¡
¢
C (B B) C
= C t diag(ν) − n1 νν t C ,
q(x) =
k
X
24
¡
¢−1 t
C C t (B t B)−1 C
C = diag(ν) − n1 νν t ;
k
ni (xi· − x·· )2 ,
wobei x·· :=
i=1
n
i
1 XX
xi,j .
n
i=1 j=1
Die F-Statistik gemäß Theorem 3.11 für obiges Testproblem also:
k
P
ni (xi· − x·· )2
n−k
i=1
.
· k n
k−1 P
Pi
2
(xi,j − xi· )
i=1 j=1
3.3.3
Chi-Quadrat-Tests für den Varianzparameter
Wir betrachten die folgenden ein- und zweiseitigen Testprobleme über den Varianzparameter σ 2 des
linearen Normalverteilungsmodells X ∼ N(Bβ, σ 2 I n ) :
(TP1)
H0 : σ 2 ≤ σ02
gegen H1 : σ 2 > σ02 ;
(TP2)
H0 : σ 2 ≥ σ02
gegen H1 : σ 2 < σ02 ;
(TP3)
H0 : σ 2 = σ02
gegen H1 : σ 2 6= σ02 .
Dabei ist σ0 > 0 ein gegebener Wert.
Wiederum sollten die etwas laxen (aber griffigen) Formulierungen der Testprobleme nicht darüber hinwegtäuschen,
dass der Parameterbereich (k + 1) dimensional ist, Θ = Rk × ( 0 , ∞) , und die Teilmengen Θ0 und Θ1 des jeweiligen Testproblems aus Punkten (β, σ) bestehen, z.B. für (TP3):
©
ª
©
ª
Θ0 = (β, σ0 ) : β ∈ Rk
und Θ1 = (β, σ) : β ∈ Rk , σ ∈ ( 0 , ∞) \ {σ0 } .
Als Teststatistik betrachten wir
1
RSS(x) ,
σ02
x ∈ Rn .
Für die Verteilung dieser Statistik unter N(Bβ, σ 2 ) gilt nach Lemma 3.10 :
 st


≤
 ≤
1
2
2
∼ χn−k , falls σ = σ02 .
RSS

σ02

 st
≥
≥
Theorem 3.12 (Ein- und zweiseitige χ2 -Tests)
α-Signifikanztests für die Testprobleme
½
1
(TP1)
ϕ∗1 (x) :=
0
½
1
(TP2)
ϕ∗2 (x) :=
0
½
1
(TP3)
ϕ∗3 (x) :=
0
Dabei bezeichnet Fχ2
n−k
(TP1), (TP2) und (TP3) sind gegeben durch:
, falls
1
>
RSS(x)
F −1 (1 − α) ;
≤ χ2n−k
σ02
, falls
1
<
RSS(x)
F −1 (α);
≥ χ2n−k
σ02
, falls
1
RSS(x)
σ02
6∈
∈
£
¤
(1 − α2 ) .
Fχ−1
( α2 ) , Fχ−1
2
2
n−k
n−k
die Verteilungsfunktion der χ2n−k -Verteilung und Fχ−1
2
n−k
ihre Umkehrfunktion.
Norbert Gaffke: Vorlesung “Mathematische Statistik”, Wintersemester 2010/11
Kapitel 3: Signifikanztests in Normalverteilungsmodellen
25
Bemerkung: Optimalität der χ2 -Tests
Die Tests ϕ∗1 und ϕ∗2 sind gleichmäßig optimale unverfälschte α-Signifikanztests für (TP1) bzw. (TP2). Für (TP3)
existiert ein gleichmäßig optimaler unverfälschter α-Signifikanztest, aber der in Theorem 3.12 angegebene αSignifikanztest ϕ∗3 weicht von diesem etwas ab. Der UMPU level-α Test für (TP3) verwendet nicht die α2 - und
(1 − α2 )-Quantile der χ2n−k -Verteilung als Intervallgrenzen (kritische Werte) für die Teststatistik, sondern etwas
andere Werte c1 und c2 , 0 < c1 < c2 , nämlich die Lösungen des Gleichungssystems
Z c2
Fχ2n−k (c2 ) − Fχ2n−k (c1 ) = 1 − α ,
z fχ2n−k (z) dz = (n − k) (1 − α) ,
c1
wobei fχ2n−k die Lebesgue-Dichte der χ2n−k -Verteilung bezeichnet.
3.4
F-Tests zum Vergleich zweier Varianzparameter
Wir betrachten das Zwei-Stichproben-Normalverteilungsmodell mit evtl. verschiedenen Varianzen in
den beiden Stichproben:
X1 , . . . , Xn1 , Y1 , . . . , Yn2 , stoch. unabhängig, n1 ≥ 2, n2 ≥ 2, n := n1 + n2 ,
Xi ∼ N(β1 , σ12 ) , (1 ≤ i ≤ n1 ) ,
(β1 , β2 , σ1 , σ2 ) ∈ R2 ×(0 , ∞)2
Yj ∼ N(β2 , σ22 ) , (1 ≤ j ≤ n2 ) ,
der Parameter.
n1
n2
i=1
j=1
Die Verteilungen des Modells sind: Pϑ = ⊗ N(β1 , σ12 ) ⊗ ⊗ N(β2 , σ22 ) , ϑ = (β1 , β2 , σ1 , σ2 ).
Wir betrachten die folgenden beiden Testprobleme:
(TP1)
H0 : σ12 ≤ σ22
gegen H1 : σ12 > σ22 ;
(TP3)
H0 : σ12 = σ22
gegen H1 : σ12 6= σ22 .
Eine naheliegende Teststatistik ist der Quotient der empirischen Varianzen :
T (x, y) =
s21 (x)
,
s22 (y)
wobei s21 (x) :=
x = (x1 , . . . , xn1 ) ∈ Rn1 , y = (y1 , . . . , yn2 ) ∈ Rn2 ,
1
n1 −1
n1
X
(xi − x)2
und s22 (y) :=
1
n2 −1
i=1
n2
X
(yj − y)2 .
j=1
Lemma 3.13
Für die Verteilung der Statistik T unter Pϑ für einen Parameterpunkt ϑ = (β1 , β2 , σ12 , σ2 ), gilt:
(σ22 /σ12 ) · T ∼ Fn1 −1,n2 −1
und folglich:
 st


 ≤
∼
T


 st
≥
(F-Verteilung mit Freiheitsgraden n1 − 1, n2 − 1) ,
Fn1 −1,n2 −1 , falls
σ12
≤
= σ22 .
≥
Norbert Gaffke: Vorlesung “Mathematische Statistik”, Wintersemester 2010/11
Kapitel 3: Signifikanztests in Normalverteilungsmodellen
26
Theorem 3.14 (Ein- und zweiseitige F-Tests)
Mit obiger Statistik T (x, y) = s21 (x)/s22 (y) , (x, y) ∈ Rn1 × Rn2 , sind α-Signifikanztests für die Testprobleme (TP1) und (TP3) gegeben durch:
½
1
>
(TP1) H0 : σ12 ≤ σ22 gg. H1 : σ12 > σ22
ϕ∗1 (x, y) :=
, falls T (x, y)
f
;
0
≤ n1 −1,n2 −1,1−α
(TP3) H0 : σ12 = σ22 gg. H1 : σ12 6= σ22
½
ϕ∗3 (x, y)
:=
1
0
, falls T (x, y)
¤
6∈ £
fn1 −1,n2 −1, α2 , fn1 −1,n2 −1,1− α2 .
∈
Dabei bezeichnet fn1 −1,n2 −1, p das p-Quantil der Fn1 −1,n2 −1 -Verteilung.
Bemerkung: Optimalität der F-Tests
Der Test ϕ∗1 ist ein gleichmäßig optimaler unverfälschter α-Signifikanztests für (TP1). Für (TP3) existiert ein
gleichmäßig optimaler unverfälschter α-Signifikanztest, aber der in Theorem 3.14 angegebene α-Signifikanztest
ϕ∗3 weicht von diesem etwas ab. Der UMPU level-α Test für (TP3) verwendet nicht die α2 - und (1 − α2 )-Quantile
von Fn1 −1,n2 −1 als Intervallgrenzen (kritische Werte) für die Statistik T , sondern etwas andere Werte c1 und
c2 , 0 < c1 < c2 , nämlich die Lösungen des folgenden Gleichungssystems:
Z c2
Z ∞
Fn1 −1,n2 −1 (c2 ) − Fn1 −1,n2 −1 (c1 ) = 1 − α ,
z fn1 −1,n2 −1 (z) dz = (1 − α)
z fn1 −1,n2 −1 (z) dz ,
c1
0
wobei Fn1 −1,n2 −1 und fn1 −1,n2 −1 die Verteilungsfunktion und die Lebesgue-Dichte der Fn1 −1,n2 −1 -Verteilung
bezeichnen.
3.5
t-Tests für die Korrelation im bivariaten Normalverteilungsmodell
Wir betrachten das Modell mit n ≥ 3 u.i.v. R2 -wertigen, normal-verteilten Zufallsvariablen, wobei der
(zwei-dim.) Erwartungswert und die (positiv definite 2 × 2) Kovarianzmatrix die Parameter sind:
µ
¶
Xi
∼ N(β, V ) (1 ≤ i ≤ n) u.i.v. ,
Yi
· 2
¸
³
´
σ1 κ
β1
2
∈ PD(2) .
β = β
∈R , V =
2
κ σ22
Wir haben den fünf-dimensionalen Parameter ϑ = (β1 , β2 , σ1 , σ2 , κ), und den Parameterbereich
©
ª
Θ = ϑ = (β1 , β2 , σ1 , σ2 , κ) : β1 , β2 ∈ R , σ1 , σ2 ∈ ( 0 , ∞) , κ ∈ R , σ12 σ22 − κ2 > 0 .
Im Folgenden fassen wir die (insgesamt 2n) reellen ZV’en so zusammen:
X = (X1 , . . . , Xn )t
Das Modell schreibt sich dann so:
µ
¶
µµ
¶ µ 2
σ1 I n
X
β1 1n
∼ N
,
Y
β 1
2 n
κI n
und Y = (Y1 , . . . , Yn )t .
κI n
σ22 I n
¶¶
=: Pϑ , ϑ = (β1 , β2 , σ1 , σ2 , κ).
Wir betrachten den Korrelationskoeffizienten
ρ = ρ(ϑ) =
κ
.
σ1 σ2
Norbert Gaffke: Vorlesung “Mathematische Statistik”, Wintersemester 2010/11
Kapitel 3: Signifikanztests in Normalverteilungsmodellen
27
und die Testprobleme:
(TP1)
H0 : ρ ≤ 0 gegen H1 : ρ > 0 ;
(TP2)
H0 : ρ ≥ 0 gegen H1 : ρ < 0 ;
(TP3)
H0 : ρ = 0
gegen H1 : ρ 6= 0 .
Bei diesen Formulierungen darf wiederum nicht vergessen werden, dass der Parameterbereich Θ fünf-dimensional
ist, und die Hypothesen des jeweiligen Testproblems natürlich Teilmengen von Θ beinhalten (eine disjunkte
Zerlegung von Θ), z.B. für (TP1):
©
ª
Θ0 = ϑ = (β1 , β2 , σ1 , σ2 , κ) ∈ Θ : ρ(ϑ) ≤ 0
und Θ1 = Θ \ Θ0 .
Eine naheliegende Teststatistik ist der der empirische Korrelationskoeffizient:
n
X
κ
b(x, y)
, wobei κ
b(x, y) = n1
(xi − x)(yi − y)
σ
b1 (x) σ
b2 (y)
i=1
v
v
u
u
n
n
u1 X
u1 X
2
t
t
(xi − x) , σ
(yi − y)2 .
und σ
b1 (x) =
b2 (y) =
n
n
ρb(x, y) =
i=1
i=1
Traditionell nimmt man als Teststatistik aber eine gewisse monotone Transformation der empirischen
Korrelation (um Formulierungen der Tests als t-Tests zu erhalten). Definiere
hn : ( −1 , 1 ) −→ R ,
hn (u) =
√
u
n−2√
.
1 − u2
und als Teststatistik:
√
√
¡
¢
ρb(x, y)
κ
b(x, y)
T (x, y) := hn ρb(x, y) = n − 2 p
= n−2p 2
.
2
1 − ρb (x, y)
σ
b1 (x) σ
b22 (y) − κ
b2 (x, y)
Lemma 3.15
Für die Verteilung der Statistik T unter Pϑ für einen Parameterpunkt ϑ = (β1 , β2 , σ1 , σ2 , κ) , gilt:
 st


≤
 ≤
∼ tn−2 , falls ρ(ϑ) = 0 ,
T


 st
≥
≥
wobei tn−2 die t-verteilung mit n − 2 Freiheitsgraden bezeichnet.
Norbert Gaffke: Vorlesung “Mathematische Statistik”, Wintersemester 2010/11
Kapitel 3: Signifikanztests in Normalverteilungsmodellen
28
Theorem 3.16 (Ein- und zweiseitige t-Tests für die Korrelation)
Mit der Statistik
T (x, y) =
√
n−2 p
κ
b(x, y)
b22 (y) − κ
b2 (x, y)
σ
b12 (x) σ
sind unverfälschte α-Signifikanztests für die Testprobleme
½
1
∗
(TP1) H0 : ρ ≤ 0 gg. H1 : ρ > 0
ϕ1 (x, y) =
0
½
1
(TP2) H0 : ρ ≥ 0 gg. H1 : ρ < 0
ϕ∗2 (x, y) =
0
½
1
(TP3) H0 : ρ = 0 gg. H1 : ρ 6= 0
ϕ∗3 (x, y) =
0
,
x, y ∈ Rn ,
(TP1), (TP2) und (TP3) gegeben durch:
, falls T (x, y)
>
F −1 (1 − α) ;
≤ tn−2
, falls T (x, y)
<
≥
− Ft−1
(1 − α) ;
n−2
¯
¯ >
, falls ¯ T (x, y) ¯
F −1 (1 − α2 ) .
≤ tn−2
Dabei bezeichnet Ftn−2 die Verteilungsfunktion der tn−2 -Verteilung und Ft−1
ihre Umkehrfunktion.
n−2
Bemerkung: Optimalität der t-Tests
Die Tests ϕ∗1 , ϕ∗2 und ϕ∗3 sind gleichmäßig optimale unverfälschte α-Signifikanztests für (TP1), (TP2) und (TP3).
Bemerkung: Formale Übereinstimmung der t-Tests von Theorem 3.16
mit den t-Tests von Abschnitt 3.3.1 für die Steigung einer Regressionsgeraden
Für das Normalverteilungsmodell der Regressionsgeraden wurden in Abschnitt 3.3.1 t-Tests für drei Testprobleme über den Steigungsparameter angegeben; die kritische Werte waren dieselben Quantile der tn−2 -Verteilung
wie in Theorem 3.16, und die Teststatistik war gegeben durch
T (y) =
sty
√
n
sty
,
s(y) st
wobei
n
X
= n1
(ti − t) (yi − y),
v
u n
u X
st = t n1
(ti − t)2 ,
i=1
q
s(y) =
1
n−2
RSS(y) .
i=1
Durch längliche Rechnung verifiziert man:
T (y) =
√
n−2 q
sty
s2t σ
b22 (y) − s2ty
,
v
u n
u1 X
(yi − y)2 .
wobei σ
b2 (y) := t
n i=1
Wenn wir also statt t = (t1 , . . . , tn ) schreiben x = (x1 , . . . , xn )t , dann ist T (y) formal identisch mit T (x, y)
von Theorem 3.16. Mit anderen Worten: Die t-Tests von Abschnitt 3.3.1 (Regressionsgerade) sind formal dieselben wie die von Theorem 3.16, obwohl zwei unterschiedliche Normalverteilungsmodelle (und unterschiedliche
Testprobleme) zu Grunde liegen.
Herunterladen