Weitere Testverfahren statistischer Hypothesen

Werbung
Kapitel 11
Weitere Testverfahren statistischer
Hypothesen
11.1
Varianzanalyse
Mit Hilfe der Varianzanalyse soll untersucht werden, ob man aus vorliegendem Datenmaterial
über k Mess– oder Beobachtungsgrößen mit ausreichender Sicherheit schließen kann, dass sie
unterschiedliche Erwartungswerte haben. Bei jeder Größe seien n0 Messungen oder Beobachtungen gemacht worden:
xj,1 , . . . , xj,n0
seien die Ergebnisse bei der j–ten Größe. Wir nehmen nun an, dass jedes dieser Messergebnisse
xj,i (j = 1, 2, . . . , k; i = 1, 2, . . . , n0 ) eine Realisierung einer normalverteilten ZV Xj,i ist, wobei
alle diese ZV unabhängig sind. Die Standardabweichung sei bei allen ZV gleich, aber unbekannt.
Die Erwartungswerte sind bei den ZV Xj,i für jedes feste j unabhängig von i, da diese ZV mit
je einer Messgröße zusammenhängen. Unter diesen Annahmen ist Xj,i also N (µj , σ)–verteilt. Es
soll getestet werden, ob die Erwartungswerte µ1 , µ2 , . . . , µk unterschiedlich sind. Trifft das zu,
so wird die Summe
!
k
k
P
P
1
µj
(11.1.1)
(µj − µ)2 > 0
µ := k
j=1
j=1
sein. Je mehr sich die Werte µ1 , . . . , µk unterscheiden, desto größer wird diese Summe. Setzen
wir für µj und µ geeignte Schätzungen ein, so erhalten wir folgenden Ausdruck:
(11.1.2)
k
P
(xj − x)2 mit xj :=
j=1
1
n0
n0
P
xj,i und x :=
i=1
1
k
k
P
xj
j=1
Um die o. g. Hypothese zu prüfen, stellen wir die gegenteilige Hypothese, nämlich
(11.1.3)
H0 : µ1 = µ2 = · · · = µk =: µ
als Nullhypothese auf und prüfen, ob wir aus den Ergebnissen xj,i der Untersuchung H0 mit ausreichender Sicherheit verwerfen können. Das hängt offenbar davon ab, wie groß der Ausdruck in
(11.1.2) ist. Um aber Wahrscheinlichkeitsaussagen machen zu können, müssten wir die Vertei√
lung der zu (11.1.2) gehörenden ZV kennen. Nun ist E(X j ) = µj = µ = µ und σ(X j ) = σ/ n0 .
131
Außerdem sind die ZV X 1 , . . . , X k unabhängig. Damit ist nach Satz 8.4.6 die ZV
2
k
k
P
P
X j −X
√
(11.1.4)
Z :=
= nσ20
(X j − X)2
σ/ n0
j=1
j=1
χ2 –verteilt mit(k − 1) Freiheitsgraden. Da wir aber die Varianz σ 2 nicht kennen, müssen wir
eine geeignete Schätzung verwenden:
(11.1.5)
c2 =
σ
1
k
k
P
[ n01−1
j=1
n0
P
i=1
(xj,i − xj )2 ]
Dabei ist der Ausdruck in der eckigen Klammer die erwartungstreue (vergl. Satz 8.3.1b) Schätzung
für σ 2 , bei der nur die Daten der j–ten Messgröße verwendet werden. Zur Verbesserung der
Schätzung wurde dann noch über diese Ausdrücke gemittelt. Wegen der Unabhängigkeit der den
Ausdrücken in der eckigen Klammer zugeordneten ZV ist auch die Schätzfunktion in (11.1.5)
c2 gehörende ZV, so erhalten
insgesamt erwartungstreu. Ersetzen wir in (11.1.4) σ 2 durch die zu σ
wir unter Einführung eines geeigneten Normierungsfaktors, nämlich 1/(k − 1), die ZV
n0
k−1
(11.1.6)
Y :=
1
no k−k
k
P
(X j −X)2
j=1
n0
k P
P
.
(Xj,i −X j )2
j=1 i=1
Diese ZV besitzt unter der Hypothese H0 eine Verteilung, die in den statistischen Tabellen mit
F–Verteilung mit (k − 1,n0 k − k)–Freiheitsgraden bezeichnet wird. Mit Hilfe der Tabellen
zu dieser Verteilung lässt sich dann der Test in folgender Weise durchführen:
Lege n0 und das Signifikanzniveau α vor der Untersuchung der Stichprobe fest.
Bestimme d > 0 aus
(11.1.7)
!
P (Y ≥ d|H0 ) = α
(Y vergl.(11.1.6))
(Dieser Wert d ist direkt aus den Tabellen für die F–Verteilung zu bestimmen.)
Untersuche für jede der k Messgrößen eine Stichprobe vom Umfang n0 und berechne aus deren
Daten xj,i die Zahl y als Realisierung von Y aus (11.1.6).
Ist y ≥ d, so ist H0 abzulehnen.
Ist y < d, so kann man aus dem Datenmaterial nicht mit ausreichender Sicherheit (hier: Wahrsch.
(1-α)) schließen, dass H0 falsch ist.
Bem.: Statt einer festen Zahl n0 nimmt man häufig auch verschiedene Zahlen nj (j = 1, 2, . . . , k),
wobei die Formeln entsprechend zu verändern sind (vergl. z.B. J.Pfanzagl: Allgemeine Methodenlehre der Statistik II, Abschn. 9.10). In diesem Fall ist also die Anzahl der Messungen bei
den einzelnen Messgrößen u. U. verschieden, und zwar = nj bei der j–ten Messgröße.
11.2
Kontingenztafeln
Problemstellung: X und Y seien zwei ZV, die zwei Merkmale beschreiben, z. B. Kinderzahl
und Familieneinkommen. Kann man auf Grund von vorliegenden Daten auf die Abhängigkeit
bzw. Unabhängigkeit schließen ?
Fall 1: X und Y seien ZV, die nur endlich viele Werte annehmen können. Die möglichen Werte
von X seien x1 , x2 , . . . , xr , die möglichen Werte von Y seien y1 , y2 , . . . , ys .
Für X und Y wird dann eine Stichprobe vom Umfang n gezogen. Dabei ist zu beachten, dass
132
die Werte xi und yj hier die gleiche Bedeutung wie im Abschnitt 7.7 und damit eine andere
Bedeutung als xi und yj in den Abschnitten 8.1 bis 11.1 haben.
Unter einer Kontingenztafel versteht man nun das folgende, der gemeinsamen Verteilung (vergl.
7.7) analoge Schema:
↓ X| Y →
x1
x2
..
.
y1
f1,1
f2,1
..
.
y2
f1,2
f2,2
..
.
y3
f1,3
f2,3
..
.
...
...
...
ys
f1,s
f2,s
..
.
xr
fr,1
f∗,1
fr,2
f∗,2
fr,3
f∗,3
...
...
fr,s
f∗,s
Es gilt:
f1,∗
f2,∗
..
.
fr,∗
n
Dabei bedeuten:
fi,j
:=
absolute
Häufigkeit
des gemeinsamen Auftretens von xi und
yj in der Stichprobe,
s
r
P
P
fi,∗ :=
fi,j ,
f∗,j :=
fi,j .
j=1
i=1
s
r
s
r X
X
X
X
f∗,j = n(Stichprobenumfang)
fi,∗ =
fi,j ) =
(
j=1
i=1
i=1 j=1
f
f
f
∗,j
Die relativen Häufigkeiten ni,j , i,∗
n bzw. n sind als Schätzwerte für pi,j , pi,∗ bzw. p∗,j zu
verwenden.
Es werden dann die ZV Ni,j , Ni,∗ bzw. N∗,j eingeführt, deren Realisierungen fi,j , fi,∗ bzw. f∗,j
sind. Dann gilt:


r
s
2
X
X
(n · Ni,j − Ni,∗ N∗,j ) 

W :=
nNi,∗ N∗,j
i=1
j=1
ist unter der Hypothese H0 (vergl. u.) und unter den u.g. Näherungsbedingungen näherungsweise χ2 –verteilt mit (r − 1) · (s − 1) Freiheitsgraden.
f
·f
i,∗ ∗,j
Näherungsbedingungen: n ≥ 50,
≥ 5 ( für alle i = 1, . . . , r; j = 1, . . . , s) (Dien
se Bedingung lässt sich noch etwas abschwächen (vergl. J.Pfanzagl: Allgemeine Methodenlehre
der Statistik II, Abschn. 8.3). Der Stichprobenumfang n sollte also nicht zu klein gewählt werden.
Test auf Unabhängigkeit zum Niveau α (α und n vor der Untersuchung festlegen):
Hypothese H0 : X, Y sind unabhängig.
!
!
Bestimme d > 0 so, dass P (W ≥ d) ≈ 1 − Fχ2 (d) = α , d.h. Fχ2 (d) = 1 − αist ((r − 1) · (s − 1)
Freiheitsgrade).
Eine Stichprobe vom Umfang n liefert dann die Häufigkeiten fi,j , aus denen dann – wie oben
beschrieben – die Häufigkeiten fi,∗ und f∗,j zu bestimmen sind. Dann sind die o.g. Näherungsbedingungen zu prüfen. Sind sie nicht beide erfüllt, kann der Test nicht durchgeführt werden.
Ist


r
s
2
X
X
(n · fi,j − fi,∗ · f∗,j ) 

≥ d,
w=
n · fi,∗ · f∗,j
i=1
j=1
so ist H0 abzulehnen, d. h. es besteht ein Zusammenhang zwischen X und Y . Die Irrtumswahrscheinlichkeit ist ≤ α. Ist w < d, so kann H0 auf Grund des Testes nicht mit ausreichender
Sicherheit abgelehnt werden.
Beispiel 11.2.1 :
X kann nur die Werte 1 und 2 annehmen
133
Y kann nur die Werte 1 und 2 annehmen
H0 :
X, Y sind unabhängig
Wahrscheinlichkeit für eine irrtümliche Ablehnung von H0 sei ≤ α = 0.05
Eine Stichprobe vom Umfang 100 liefere die folgende Häufigkeitstabelle (nicht Wahrscheinlichkeitstabelle):
↓ X| Y → 1
2
fi,∗
1
10 20
30
2
30 40
70
f∗,j
40 60 100
Interpretationsbeispiele:
f1,2 := Häufigkeit für ” X = 1 ∧ Y = 2 ” = 20
f1,∗ :=
2
X
f1,j = 20,
j=1
f∗,2 :=
2
X
f1,2 = 60
i=1
f1,2
20
=
= 0.2 ist Schätzwert für die Wahrscheinlichkeit p1,2 := P (X = 1 ∧ Y = 2)
n
100
f1,∗
30
=
= 0.3
ist Schätzwert für die Wahrscheinlichkeit p1,∗ := P (X = 1)
n
100
f∗,2
60
=
= 0.6
ist Schätzwert für die Wahrscheinlichkeit p∗,2 := P (Y = 2)
n
100
X, Y unabhängig ⇐⇒ pi,j = pi,∗ · p∗,j für alle i, j
Ni,j sei die Zufallsvariable, deren Realisierung fi,j ist
Ni,∗ sei die Zufallsvariable, deren Realisierung fi,∗ ist
N∗,j sei die Zufallsvariable, deren Realisierung f∗,j ist


r
s
2
X
X
(n · Ni,j − Ni,∗ · N∗,j ) 

W :=
nNi,∗ · N∗,j
i=1
j=1
(im Beispiel: r = s = 2, n = 100)
ist nährerungsweise χ2 -verteilt mit (r −1)·(s−1) (im Beispiel (2−1)·(2−1) = 1) Freiheitsgrade,
falls H0 richtig ist, da die Näherungsbedingungen sind erfüllt sind:
30 · 40
fi,∗ · f∗,j
≥
= 12 ≥ 5 für alle i und j, da 30 · 40 offensichtlich das
n = 100 ≥ 50 und
n
100
kleinste der Produkte fi,∗ · f∗,j im Zähler ist.
!
Bestimme d > 0 so, dass d.h. Fχ2 (d) = 1 − α = 0.95 ist. Da die Zahl der Freiheitsgrade = 1
ist, lesen wir aus der Tabelle der Quantile der χ2 –Verteilung ab: d = 3.841. Die in der obigen
Tabelle gesammelten Daten aus der Stichprobe ergibt:


2
2
2
X
X
(n · fi,j − fi,∗ · f∗,j ) 

w=
n · fi,∗ · f∗,j
i=1
j=1
134
=
(100 · 10 − 30 · 40)2
(100 · 20 − 30 · 60)2
(100 · 30 − 70 · 40)2 (100 · 40 − 70 · 60)2
+
+
+
100 · 30 · 40
100 · 30 · 60
100 · 70 · 40
100 · 70 · 60
= 0.79 < 3.841 .
H0 kann nicht mit ausreichender Sicherheit abgelehnt werden.
Fall 2: Vergleich zweier qualitativer Merkmale (nicht häufbar):
Ersetze xi bzw. yj durch die Merkmalsausprägungen des 1. bzw. 2. Merkmals. fi,j bezeichnet
dann die Häufigkeit des gemeinsamen Auftretens der i–ten Merkmalsausprägung beim 1. und
der j–ten Merkmalsausprägung beim 2. Merkmal.
fi,∗ , f∗,j und w sind dann genau wie im Fall 1 zu bilden, und der Test ist ebenfalls wie im
Fall 1 durchzuführen. Ablehnung von H0 bedeutet: Es kann (mit ausreichender Sicherheit) ein
Zusammenhang zwischen den beiden Merkmalen angenommen werden.
Beispiel 11.2.2 :
↓ Merkm. 1, Ausprägungen| Merkm. 2, Ausprägungen →
A
B
a
(f1,1 =)10 (f1,2 =)20
b
(f2,1 =)30 (f2,2 =)40
f∗,j
40
60
Interpretationsbeispiel:
f1,2 = 20 bedeutet: 20–mal beobachten wir “a” bei Merkmal 1 und “B” bei Merkmal
H0 : Die beiden Merkmale sind unabhängig
Wahrscheinlichkeit für eine irrtümliche Ablehnung von H0 sei ≤ α = 0.05
fi,∗
30
70
100
2.
Ni,j sei die Zufallsvariable, deren Realisierung fi,j ist
Ni,∗ sei die Zufallsvariable, deren Realisierung fi,∗ ist
N∗,j sei die Zufallsvariable, deren Realisierung f∗,j ist


r
s
2
X
X
(n · Ni,j − Ni,∗ · N∗,j ) 

W :=
nNi,∗ · N∗,j
i=1
j=1
(im Beispiel: r = s = 2, n = 100)
ist nährerungsweise χ2 -verteilt mit (r −1)·(s−1) (im Beispiel (2−1)·(2−1) = 1) Freiheitsgrade,
falls H0 richtig ist, da die Näherungsbedingungen sind erfüllt sind:
fi,∗ · f∗,j
30 · 40
≥
= 12 ≥ 5 für alle i und j, da 30 · 40 offensichtlich das
n = 100 ≥ 50 und
n
100
kleinste der Produkte fi,∗ · f∗,j im Zähler ist.
!
Bestimme d > 0 so, dass d.h. Fχ2 (d) = 1 − α = 0.95 ist. Da die Zahl der Freiheitsgrade = 1
ist, lesen wir aus der Tabelle der Quantile der χ2 –Verteilung ab: d = 3.841. Die in der obigen
Tabelle gesammelten Daten aus der Stichprobe ergibt:


2
2
2
X
X
(n
·
f
−
f
·
f
)
i,j
i,∗
∗,j 

w=
n · fi,∗ · f∗,j
i=1
=
j=1
(100 · 10 − 30 · 40)2
(100 · 20 − 30 · 60)2
(100 · 30 − 70 · 40)2 (100 · 40 − 70 · 60)2
+
+
+
100 · 30 · 40
100 · 30 · 60
100 · 70 · 40
100 · 70 · 60
= 0.79 < 3.841 .
135
H0 kann nicht mit ausreichender Sicherheit abgelehnt werden.
Fall 3: X und Y nicht–diskrete ZV (u. a.):
Ersetze xi und yj in der Kontingenztafel durch geeignete Intervalle. Die absolute Häufigkeiten
in der Tafel sind dann wie folgt zu bilden:
fi,j := Anzahl der Messwertpaare (x, y) in der Stichprobe mit xi−1 < x ≤ xi und yj−1 < y ≤ yj .
fi,∗ , f∗,j und w sind dann genau wie in Fall 1 zu bilden, und der Test ist ebenfalls wie in Fall 1
durchzuführen.
Beispiel 11.2.3 :
X und Y seien beliebige ZV.
H0 :
X, Y sind unabhängig
Wahrscheinlichkeit für eine irrtümliche Ablehnung von H0 sei ≤ α = 0.05
Eine Stichprobe vom Umfang 100 liefere die folgende Häufigkeitstabelle (nicht Wahrscheinlichkeitstabelle):
↓ X| Y →
Wert in (−∞, 1] Wert in (1, ∞) fi,∗
Wert in (−∞, 0]
(f1,1 =)10
(f1,2 =)20
30
Wert in (0, ∞)
(f2,1 =)30
(f2,2 =)40
70
f∗,j
40
60
100
Interpretationsbeispiel:
f1,2 := Häufigkeit für das Eintreten des Ereignisses ” X ∈ (−∞, 0] ∧ Y ∈ (1, ∞) ” ist = 20, d.h.
20–mal beobachtet man, dass X einen Wert im Intervall (0, ∞) und Y einen Wert im Intervall
(1, ∞) annimmt.
Ni,j sei die Zufallsvariable, deren Realisierung fi,j ist
Ni,∗ sei die Zufallsvariable, deren Realisierung fi,∗ ist
N∗,j sei die Zufallsvariable, deren Realisierung f∗,j ist


r
s
2
X
X
(n · Ni,j − Ni,∗ · N∗,j ) 

W :=
nNi,∗ · N∗,j
i=1
j=1
(im Beispiel: r = s = 2, n = 100)
ist nährerungsweise χ2 -verteilt mit (r −1)·(s−1) (im Beispiel (2−1)·(2−1) = 1) Freiheitsgrade,
falls H0 richtig ist, da die Näherungsbedingungen sind erfüllt sind:
30 · 40
fi,∗ · f∗,j
≥
= 12 ≥ 5 für alle i und j, da 30 · 40 offensichtlich das
n = 100 ≥ 50 und
n
100
kleinste der Produkte fi,∗ · f∗,j im Zähler ist.
!
Bestimme d > 0 so, dass d.h. Fχ2 (d) = 1 − α = 0.95 ist. Da die Zahl der Freiheitsgrade = 1
ist, lesen wir aus der Tabelle der Quantile der χ2 –Verteilung ab: d = 3.841. Die in der obigen
Tabelle gesammelten Daten aus der Stichprobe ergibt:


2
2
2
X
X
(n
·
f
−
f
·
f
)
i,j
i,∗
∗,j 

w=
n · fi,∗ · f∗,j
i=1
j=1
136
=
(100 · 10 − 30 · 40)2
(100 · 20 − 30 · 60)2
(100 · 30 − 70 · 40)2 (100 · 40 − 70 · 60)2
+
+
+
100 · 30 · 40
100 · 30 · 60
100 · 70 · 40
100 · 70 · 60
= 0.79 < 3.841 .
H0 kann nicht mit ausreichender Sicherheit abgelehnt werden.
Bemerkung: Die zweite o.g. Näherungsbedingung ist in Fall 3 bei der Wahl der Intervalle zu
berücksichtigen. In Fall 2 sind dazu mehrere Merkmalsausprägungen zusammenzufassen, wenn
die zweite o.g. Näherungbedingung zunächst nicht erfüllt war. Ähnlich ist im Fall 1 vorzugehen,
d.h. man nimmt dann nicht z.B. die Ereignisse “X = x1 ” und “X = x2 ”, sondern das Ereignis
”X ∈ {x1 , x2 }”.
11.3
χ2 –Test für allgemeine Verteilungen
Wir sind bei den bisherigen stat. Untersuchungen mit Ausnahme von Abschn. 11.2 davon ausgegangen, dass wir den Typ der Verteilung kennen, etwa Binomialvert., Normalvert. o. ä.. Konfidenzintervalle und Tests bezogen sich auf die jeweiligen Verteilungsparameter. Sie ergeben keine
Aussage darüber, ob der angenommene Verteilungstyp gerechtfertigt ist oder nicht, ob also z. B.
eine ZV überhaupt normalverteilt ist oder eine andere Art von Verteilung besitzt. In diesem
Abschnitt sollen Fragen dieser Art behandelt werden.
Wie in den Kapiteln 7 und 8 gehen wir von einem Satz von n unabhängigen ZV X1 , . . . , Xn aus,
die alle die gleiche Verteilung besitzen. Dieser Satz ist wie bisher als Mess– oder Beobachtungsreihe aufzufassen.
Fall 1: Die ZV Xi können nur die Werte k = 1, . . . , m annehmen. Über die Verteilung der Xi
wird dann folg. Hypothese aufgestellt:
(11.3.1)
H0 : P (Xi = k) = pk ,
k = 1, . . . , m (i = 1, . . . , n) ,
wobei die pk vorgegebene (hypothetische) Wahrscheinlichkeiten sind und damit die Bedingungen
m
P
pk = 1 erfüllen müssen. Diese Hypothese H0 soll geprüft werden.
0 ≤ pk ≤ 1 f. a. k und
k=1
Dazu wird eine Stichprobe vom Umfang n gezogen mit den Mess– oder Beobachtungsergebnissen x1 , . . . , xn als Realisierungen der unabhängigen ZV X1 , . . . , Xn : Die Häufigkeit des Wertes
k bezeichnen wir dann wie bisher mit fk , d. h.
(11.3.2)
fk := Anzahl der i mit xi = k .
Um die Hypothese H0 testen zu können, müssen wir aus den Häufigkeiten fk eine geeignete
Testgröße bestimmen. Nun ist die relative Häufigkeit fk /n ein Schätzwert für pk , und damit
kommt es offenbar wesentlich auf die Differenzen zwischen den relativen Häufigkeiten und den
Wahrscheinlichkeiten pk an. Ist Nk wie in 11.2 die ZV, deren Realisierung fk ist, so sind offenbar
die ZV
(11.3.3)
Zk :=
N
√k −npk
npk qk
(qk := 1 − pk , k = 1, . . . , m)
von entscheidender Bedeutung. Nk ist nämlich eine binomialvert. ZV mit den Parametern n, pk
und qk . Die ZV Zk hat damit den Erwartungswert 0 und die Standardabweichung 1 und ist also
näherungsweise N (0, 1)–verteilt, wobei die Bedingungen n ≥ 50 und npk ,nqk ≥ 5 erfüllt sein
sollten.
Es ist nun naheliegend, analog zu Satz 8.4.5 oder besser noch zu Satz 8.4.6 die ZV
137
m
X
Zk2
=
m
X
(Nk − npk )2
npk qk
k=1
k=1
als Test–ZV zu verwenden und von ihr anzunehmen, dass sie näherungsweise χ2 –verteilt ist. Eine genauere Untersuchung, für die in dieser Vorlesung aber die Hilfsmittel fehlen, zeigt jedoch,
dass stattdessen die entsprechende ZV ohne die qk , nämlich
(11.3.4)
Y :=
m
P
k=1
(Nk −npk )2
npk
,
näherungsweise χ2 –verteilt ist mit (m − 1) Freiheitsgraden. Das liegt u. a. an der besonderen
Art der Abhängigkeit von N1 , . . . , Nm . Der Test ist dann in folgender Weise durchzuführen:
χ2 –Test für die Hypothese H0 (vergl. (11.3.1))
Schritt 1: Lege ein Signifikanzniveau α und einen Stichprobenumfang n fest.
Schritt 2: Bestimme eine kritische Größe d > 0 mit
!
P (Y ≥ d) ≈ 1 − Fχ2 (d) = α ,
χ2 –Vert. mit (m-1) Freiheitsgraden.
Schritt 3: Werte eine Stichprobe vom Umfang n aus, bestimme aus den Ergebnissen die Häufigkeiten fk (vergl. (11.3.2)) und daraus eine Realisierung der ZV Y aus (11.3.4):
(11.3.5)
y :=
m
P
k=1
y ≥ d ⇒ Ablehnung von H0 .
y < d ⇒ Annahme von H0 mit Vorbehalt.
(fk −npk )2
npk
Hier ist der Vorbehalt in noch viel stärkerem Maße als in 9.1 gerechtfertigt; denn die Negation
von H0 aus (11.3.1) ist noch viel weiter gefasst als die Negation von H0 aus 9.1, nämlich µ 6= µ0 .
Beispiel 11.3.1: Test eines Würfels.
Hypothese H0 : Alle Seiten haben die gleiche Wahrscheinlichkeit 1/6.
Wir würfeln n–mal.
Die ZV Xi beschreibe die Augenzahl des i–ten Wurfes. Die ZV X1 , X2 , . . . , Xn sind unabhängig
und haben alle die gleiche Verteilung.
H0 bedeutet dann: P (Xi = k) =: pk = 1/6 für alle k = 1, 2, . . . , 6 (und wegen der obigen
Voraussetzung auch für alle i = 1, 2, . . . , n)
Die Wahrscheinlichkeit für eine irrtümliche Ablehnung von H0 sei α = 0.10. Als Stichprobenumfang wählen wir n = 50.
Die Häufigkeit fk von der Augenzahl “k” bei n Würfen ist als Schätzwert für (pk · n) aufzufassen
und ist die Realisierung einer ZV, die wir wie in Abschnitt 11.2 mit Nk bezeichnen. Die ZV
Y :=
6
X
(Nk − npk )2
npk
k=1
ist näherungsweise χ2 –verteilt mit (6 − 1) = 5 Freiheitsgraden, wenn H0 richtig ist, weil auch
die Näherungsbedingungen
n = 50 ≥ 50 und n · pk = 50/6 ≥ 5 für alle k = 1, 2, . . . , 6
erfüllt sind.
Wir bestimmen nun die kritische Testgröße d > 0 aus
138
!
P (Y ≥ d|H0 ) ≈ 1 − Fχ2 (d) = α = 0.10, d.h. aus Fχ2 (d) = 0.9.
Da die Zahl der Freiheitsgrade = 5 ist, lesen wir aus der Tabelle der Quantile der χ2 –Verteilung
ab: d = 9.24.
Wir haben nun 50–mal gewürfelt mit folgenden Ergebnissen:P
k
1
2
3
4
5
6
fk
10
9
5
8
12
6
50
n · pk 50/6 50/6 50/6 50/6 50/6 50/6(≈ 8.33)
1
Für die Realisierung y der ZV Y gilt also
6
P
(fk −npk )2
y :=
npk
k=1
=
(10 − 8.33)2 (9 − 8.33)2 (5 − 8.33)2 (8 − 8.33)2 (12 − 8.33)2 (6 − 8.33)2
+
+
+
+
+
= 4.00 < d = 9.24
8.33
8.33
8.33
8.33
8.33
8.33
H0 ist also nicht mit ausreichend kleiner Irrtumswahrscheinlichkeit abzulehnen.
Fall 2: Über die ZV Xi wird als Hypothese H0 aufgestellt, dass sie eine bestimmte Vert. fkt.
F besitzen (z. B. F = Φ). Der Test soll analog zu Fall 1 durchgeführt werden. Dazu wird die
Menge überhaupt möglicher Werte (z. B. IR =] − ∞, ∞[ oder [0, ∞[) in Intervalle mit folgenden
Randstellen aufgeteilt:
(11.3.6)
a0 := −∞ < a1 < · · · < am−1 < am := +∞ (Aufteil. v. IR)
Für diese Intervalle erhalten wir folg. hypothetische Wahrscheinlichkeiten:
(11.3.7)

=: p1
für k = 1
 F (a1 ) − 0
F (ak ) − F (ak−1 ) =: pk
für k = 2, . . . , m − 1
H0 =⇒ P (ak−1 < Xi ≤ ak ) =

1 − F (am−1 )
=: pm für k = m
Diesen Wahrscheinlichkeiten werden die Häufigkeiten für die Intervalle gegenübergestellt:
(11.3.8)
fk := Anzahl der i mit xi ∈]ak−1 , ak ]
Mit diesen Größen ist dann der Test genauso durchzuführen wie in Fall 1.
Bem.: In beiden Fällen sollten folgende Bedingungen beobachtet werden, damit die verwendeten Näherungen gerechtfertigt sind (vergl. Erläuterung zu (11.3.3)):
(11.3.9)
n ≥ 50,
n · pk ≥ 5 für alle k = 1, . . . , m (⇒ n · qk ≥ 5)
Ist die 2. Bedingung im Fall 2 nicht erfüllt, so ist die Intervallaufteilung geeignet zu verändern, indem man die betroffenen Intervalle vergrößert oder evtl. (zwei oder mehr) benachbarte Intervalle
zusammenfasst. Ist die 2. Bedingung im Fall 1 verletzt, sollte man u. U. mehrere benachbarte
Werte von k zusammenfassen. Bei Fall 2 ist noch zu beachten, dass verschiedene Verteilungsfunktionen und damit verschiedene Ausgangshypothesen auf die gleichen Wahrscheinlichkeiten
pk führen können. Deshalb ist eine Annahme von H0 im Fall 2 noch problematischer als im
Fall 1. Beispiel 11.3.2: X sei eine beliebige ZV. Wir wollen prüfen, ob X eine bestimmte vorgegebene Verteilungfunktion F besitzt. Bei Anwendung des χ2 –Testes ist es dazu nötig, dass wir
die reelle Achse in Intervalle aufteilen, die sich gegenseitig ausschließen und ganz IR erfassen.
Wir treffen folgende Wahl, wobei wir später klären, ob die Wahl mit den Näherungsbedingungen
des χ2 –Testes vertäglich ist:
139
I1 := (−∞, −10], I: = (−10, −5], I: = (−5, 0], I: = (0, 5], I: = (5, 10], I: = (10, ∞],
Hypothese H0 : X besitzt eine Verteilungsfunktion F , von der wir nur die Werte an endlich vielen
Stellen kennen müssen:
F (−10) = 1/6, F (−5) = 2/6, F (0) = 3/6, F (5) = 4/6, F (10) = 5/6 .
Dies impliziert folgende Wahrscheinlichkeiten, die wir für den Test brauchen:
p1 := P (X ∈ I1 ) = P (−∞ < X ≤ −10) = F (−10) − 0 = 1/6
p2 := P (X ∈ I2 ) = P (−10 < X ≤ −5) = F (−5) − F (−10) = 2/6 − 1/6 = 1/6
p3 := P (X ∈ I3 ) = P (−5 < X ≤ 0) = F (0) − F (−5) = 3/6 − 2/6 = 1/6
p4 := P (X ∈ I4 ) = P (0 < X ≤ 5) = F (5) − F (0) = 4/6 − 3/6 = 1/6
p5 := P (X ∈ I5 ) = P (5 < X ≤ 10) = F (10) − F (5) = 5/6 − 4/6 = 1/6
p6 := P (X ∈ I6 ) = P (10 < X < ∞) = 1 − F (10) = 1 − 5/6 = 1/6
Die Hypothese H0 impliziert also pk := P (X ∈ Ik ) = 1/6 für alle k = 1, 2, . . . , 6.
Die Wahrscheinlichkeit für eine irrtümliche Ablehnung von H0 sei α = 0.10. Als Stichprobenumfang wählen wir n = 50. Wir führen also n = 50 Messungen durch. Deren Ergebnisse
x1 , x2 , . . . , x50 fassen wir als Realisierungen von unabhängigen ZV X1 , X2 , . . . , X50 auf die alle
die gleiche Verteilung wie X besitzen.
Nk := {j|Xj = Ik } ist die Häufigkeits-ZV für das Intervall Ik und damit ist ihre Realsierung
fk := {j|xj = Ik } die Anzahl der Messergebnisse, die in das Intervall Ik fallen. Die ZV
Y :=
6
X
(Nk − npk )2
npk
k=1
ist näherungsweise χ2 –verteilt mit (6 − 1) = 5 Freiheitsgraden, wenn H0 richtig ist, weil auch
die Näherungsbedingungen
n = 50 ≥ 50 und n · pk = 50/6 ≥ 5 für alle k = 1, 2, . . . , 6
erfüllt sind.
Wir bestimmen nun die kritische Testgröße d > 0 aus
!
P (Y ≥ d|H0 ) ≈ 1 − Fχ2 (d) = α = 0.10, d.h. aus Fχ2 (d) = 0.9.
Da die Zahl der Freiheitsgrade = 5 ist, lesen wir aus der Tabelle der Quantile der χ2 –Verteilung
ab: d = 9.24.
Wir haben nun 50 Messungen durchgeführt und werten die Messergebnisse in der folgenden
Tabelle aus:
P
k
1
2
3
4
5
6
fk
10
9
5
8
12
6
50
n · pk 50/6 50/6 50/6 50/6 50/6 50/6(≈ 8.33)
1
Die Realisierung y der ZV
Y :=
6
X
(Nk − npk )2
npk
k=1
gilt also
6
P
y :=
k=1
=
(fk −npk )2
npk
(10 − 8.33)2 (9 − 8.33)2 (5 − 8.33)2 (8 − 8.33)2 (12 − 8.33)2 (6 − 8.33)2
+
+
+
+
+
= 4.00 < d = 9.24
8.33
8.33
8.33
8.33
8.33
8.33
H0 ist also nicht mit ausreichend kleiner Irrtumswahrscheinlichkeit abzulehnen.
140
11.4
Vorzeichentest
Die Ergebnisse einer Beobachtungsreihe, die durch einen Satz X1 , . . . , Xn unabh. ZV mit der
gleichen Verteilung gekennzeichnet ist, soll mit der Ergebnissen einer zweiten Beobachtungsreihe, die in gleicher Weise durch Y1 , . . . , Yn gekennzeichnet ist, verglichen werden. xi kann z.B.
der Ertrag der Hälfte des i-ten Versuchsfeldes sein, die mit einem konventionellen Düngemittel
behandelt wurde, während yi der Ertrag der anderen Hälfte ist, die mit einem neu entwickelten
Düngemittel behandelt wurde. Mit Hilfe der Beobachtungsergebnissen soll überprüft werden, ob
die Erträge des neuen Düngemittels besser sind als die des alten. Allgemein läuft das auf die
Fragestellung hinaus, ob folgendes gilt:
(11.4.1)
p+ := P (Xi < Yi ) > p− := P (Xi > Yi )
Wegen der Gleichheit der Verteilungen der Xi untereinander und der Yi untereinander sind p+
und p− von i unabhängig. Zum Test der Hypothese (11.4.1) gehen wir von der gegenteiligen
Hypothese aus und haben also folg. Gegenüberstellung:
(11.4.2)
H0 : p+ ≤ p− gegen H1 : p+ > p−
Der Test selbst ist recht einfach : Man überprüft, bei wievielen Wertepaaren xi < yi gilt, wie oft
also yi − xi > 0 ist, d.h. positives Vorzeichen hat. Man prüft dann nach, ob das Ergebnis gegen
H0 oder gegen H1 spricht, wobei die Fehler 1. bzw. 2. Art höchstens die Wahrscheinlichkeiten
α bzw. β haben sollen. Bei einer Beobachtungsreihe der oben beschriebenen Art erhielt man
folgende Differenzen ( yi − xi ) ( i = 1, . . . , 10 ), wobei α = β = 0.05 vorher festgelegt wurde:
(yi − xi )
: 2.4, 1.0, 0.7, 0.0, 1.1, 1.6, 1.1, −0.4, 0.1, 0.7
(11.4.3) Vorzeichen : +
+
+
+
+
+
−
+
+
Dieses Ergebnis scheint klar gegen H0 zu sprechen. Zur genaueren Untersuchung berücksichtigt
man nur die Differenzen 6= 0, also 9 statt 10 Differenzen. Man erhält dann :
(11.4.4)
P ( Mindestens 8-mal (Yi − Xi ) > 0|H0 ∧ genau 9-mal (Yi − Xi ) 6= 0)
k 9−k 9 X
p−
9
p+
=
“
⊗
p+
p+ + p−
p+ + p−
k
p+ ≤p− ⇔ p
k=8
9 X
9 k 9−k
9 (vergl. 9.2.2) X
9
1
1
1
9
≤
=
k
2
2
2
k
=
k=8
−9
2
+ +p−
≤ 21
k=8
(9 + 1) = 0.0195 < α = 0.05
Dabei ist ⊗ so zu erklären (kein vollständiger Beweis!):
P ((Yi − Xi ) > 0|(Yi − Xi ) 6= 0) = P (Xi < Yi |Xi 6= Yi )
:=
P (Xi < Yi )
p+
P (Xi < Yi ∧ Xi 6= Yi )
=
=
P (Xi 6= Yi )
P (Xi < Yi ) + P (Xi > Yi )
p+ + p−
P (Xi > Yi |Xi 6= Yi ) =
p−
p+ + p−
141
”
Auf Grund von (11.4.3) (8-mal ( yi −xi ) > 0) kann man H0 mit einer Irrtumswahrsch. von höchstens α = 0.05 ablehnen, was durch (11.4.4) teilweise, aber noch nicht vollständig begründet wird.
Zuvor aber soll des Test allgemein beschrieben werden:
Vorzeichentest von H0 gegen H1 (vergl. (11.4.2) und (11.4.1)):
Schritt 1: Lege die Wahrscheinlichkeiten α, β für den Fehler 1. bzw. 2. Art und den Stichprobennumfang n fest.
Schritt 2: Ziehe zwei Stichproben vom Umfang n . Bei diesen Stichproben sei ( yi − xi ) genau
m-mal 6= 0 und genau km -mal > 0 (positives Vorzeichen) (0 ≤ km ≤ m ≤ n). Dann sind folgende
Entscheidungen zu treffen:
km ≥
(11.4.5a)
m X
m
m
und 2−m
≤ α ⇒ Ablehnung v.H0
2
k
k=km
( wie etwa im ob. Bsp. )
(11.4.5b)
km
km X
m
m
−m
und 2
≤ β ⇒ Ablehnung v.H1
≤
2
k
k=0
In allen übrigen Fällen ist keine Entscheidung mit ausreichender Sicherheit möglich.
Begründung der Entscheidungsvorschrift (11.4.5a):
′ der kleinste der Werte k , die die Voraussetzungen in (11.4.5a) erfüllen. Dann gilt analog
Sei km
m
zu (11.4.4) :
P (Ablehn.v.H0 |H0 ∧ genau m-mal(Yi − Xi ) 6= 0)
=
=
=
(vergl.(11.4.4))
≤
P (Km := (Anzahl der i mit(Yi − Xi ) > 0) erfüllt d. Voraussetzungen
in (11.4.5a)|H0 ∧ genau m-mal(Yi − Xi ) 6= 0)
′
|H0 ∧ genau m-mal(Yi − Xi ) 6= 0)
P (Km ≥ km
′
P (Mindestens km
-mal(Yi − Xi ) > 0|H0 ∧ genau m-mal(Yi − Xi ) 6= 0)
m
X m
2−m
≤α
k
′
k=km
=⇒
(11.4.6)

P(Ablehn. v H0 |H0 )
(Wahrsch. f. e. irrtümliche Ablehn. v. H0 )



n

P


=
P(Ablehn. v. H0 ∧ genau m-mal (Yi − Xi ) 6= 0|H0 )



m=m0
n
P
=
P(Ablehn. v. H0 |H0 ∧ genau m-mal (Yi − Xi ) 6= 0) P(genau m-mal (Yi − Xi ) 6= 0)



m=m0


n

P


P(genau m-mal (Yi − Xi ) 6= 0) ≤ α · 1
 ≤α
m=m0
142
m0 ist dabei die kleinste Zahl m, für die überhaupt ein km existiert, das die Voraussetzungen in
(11.4.5a) erfüllt. Ist m < m0 , so ist damit die Zahl der für den Test tatsächlich verwendbaren
Wertepaare ( xi , yi ) zu klein, um Entscheidungen treffen zu können. Deshalb werden in (11.4.6)
nur Summanden m ≥ m0 berücksichtigt. Damit es überhaupt ein m0 ≤ n gibt, sollte
2−n
(11.4.7a)
n
P
k=n
und möglichst auch
2−n
(11.4.7b)
0
P
k=0
= 2−n ≤ α
n
k
= 2−n ≤ β
n
k
gelten. Sonst kommen wir beim Stichprobenumfang n nie zu einer Entscheidung gegen H0 bzw.
gegen H1 mit ausreichender Sicherheit.
Die Entsch.regel (11.4.5b) ist analog zu begründen.
Bem.:
a) Bei der Durchführung des Tests werden keine Voraussetzungen über die Art der Vert. der
Xi bzw. der Yi gemacht wie etwa in Kap.8 od.Abschn. 11.1 ; daher ist der Vorzeichentest
ein Bsp. für einem verteilungsfreien oder nicht-parametrischen Test. Kennt man
den Verteilungstyp der Xi und der Yi , etwa Normalverteilung, so sind u.U. andere Tests
anzuwenden.
b) Ähnlich wie in 9.2.2 wäre manchmal folg. Gegenüberstellung zweckmäßiger:
H0 : p+ ≤ p− d.h.
p+
p+ +p−
≤
1
2
gegen H1 :
p+
p+ +p−
≥ p1 >
1
2
Dann ist (11.4.5b) durch folg. Entsch.regel zu ersetzen:
(11.4.8)
km ≤ q1 · m und
km
P
k=0
m k m−k
(q1
k p1 q 1
:= 1 − p1 ) ⇒ Ablehn.v.H1
c) Bei einem Signifikanztest über die Hypothese H0 : p+ = p− gibt es folgende Entscheidungsregel:
, falls km < m − km ist ( weniger ”+” als ”−” )
km
Sei lm :=
sonst
m − km


m
lm
X
X
−m 
 m ≤ α ⇒ Ablehn. v.H0
2
+
k
k=0
k=m−lm
Eine Entsch. gegen p+ 6= p− kann nicht mit ausr. Sicherheit getroffen werden. H0 trifft zu,
wenn die Vert. der Xi mit der Vert. der Yi übereinstimmt. Eine Ablehn. v. H0 bedeutet
dann auch, dass die Vert. der Xi mit ausreichender Sicherheit als verschieden von der Vert.
der Yi angenommen werden kann. Es gilt aber nicht, dass aus p+ = p− auch die Gleichheit
d. Verteilungen der Xi und Yi folgt.
143
Herunterladen