Internetsupplement

Werbung
Statistik
Testverfahren
Internetsupplement
Heinz Holling & Günther Gediga
Inhaltsverzeichnis
1
Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1
1.2
1.3
1.4
1.5
1.5.1
1.5.2
1.5.3
1.6
1.7
1.8
1.9
Einseitige und zweiseitige p-Werte (2 / S. 38) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Gütefunktion bei zweiseitigen Tests (2 / S. 57) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Gauß-Test: UMP (einseitig) und nicht UMP (zweiseitig) (2 / S. 58) . . . . . . 7
Beispiele zur Güte statistischer Tests (2 / S. 58) . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Weitere Einstichprobentests (3 / S. 68) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Test der Schiefe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Test der Kurtosis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Gemeinsamer Test von Schiefe und Kurtosis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Zur Anwendbarkeit des zentralen Grenzwertsatzes (3 / S. 69) . . . . . . . . . . . 10
Zusammenhang von Intervallschätzung und Testverfahren (3 / S. 70) . . 12
Der randomisierte Binomialtest (3 / S. 81) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Varianz der Teststatistik des Wilcoxon-Vorzeichen-Rangtests bei Rangbindungen (3 / S. 88) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Vergleich von Testgütefunktionen bei Einstichprobentests (3 / S. 91) . . . . 14
Überprüfung der bivariaten Normalverteilung (5 / S. 125) . . . . . . . . . . . . . . . . 15
Monte-Carlo-Verfahren bei Randomisierungstests (5 / S. 130) . . . . . . . . . . . 15
Normalverteilungsapproximation der Testverteilung von Kendall’s τ
bei Rangbindungen (5 / S. 134) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Post-hoc-Tests in der Kontingenztafelanalyse (5 / S. 140) . . . . . . . . . . . . . . . . 16
Der Fisher-Yates-Test und die hypergeometrische Verteilung (5 / S. 142) 17
Exakte Tests bei k × m-Tabellen (5 / S. 143) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Normalverteilungsapproximation der Testverteilung des Log-Odds-Ratios
(5 / S. 144) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Ausreißer und große Schiefe und der zentrale Grenzwertsatz (6 / S.
160) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Die Deffizienz im Zweistichprobenfall (6 / S. 166) . . . . . . . . . . . . . . . . . . . . . . . . . 21
Die White-Korrektur im linearen Modell (6 / S. 175 und 9 / S. 361) . . . . . . 21
Asymptotische Konsistenz des thom -Tests bei Heteroskedastizität (6 /
S. 176) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Beispiel für einen Lokationsunterschied bei undefinierten Erwartungswerten (6 / S. 183) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Berechnung der Verteilung des Wilcoxon-Rangsummentests (6 / S. 183) 24
Teststatistik des Wilcoxon-Rangsummentests (6 / S. 184) . . . . . . . . . . . . . . . 25
Der Fligner-Policello-Test (6 / S. 190) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Normalverteilungsapproximation der Teststatistik für den WilcoxonVorzeichen-Rangtest für abhängige Stichproben (6 / S. 197) . . . . . . . . . . . . 29
1.10
1.11
1.12
1.13
1.14
1.15
1.16
1.17
1.18
1.19
1.20
1.21
1.22
1.23
1.24
1.25
1.26
6
4
1.27
1.28
1.29
1.30
1.31
1.32
1.33
1.34
1.35
1.36
1.37
1.38
1.39
1.40
1.41
1.42
1.43
1.44
1.45
1.46
1.47
1.48
1.49
1.50
1.51
1.52
Kapitel 0
Symmetrie-Tests (6 / S. 198) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Der Fligner-Policello-Test (6 / S. 213) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Berechnung der Mittelwerte im Fall gleich großer Gruppen in der einfaktoriellen Varianzanalyse (7 / S. 230) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
χ 2 -Verteilung von SSBG /σ 2 in der einfaktoriellen Varianzanalyse (7 /
S. 231) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Die Deffizienz in der einfaktoriellen Varianzanalyse (7 / S. 235) Beispiele für notwendige Stichprobenumfänge bei ungleich besetzten Zellen in der einfaktoriellen Varianzanalyse (7 / S. 235) . . . . . . . . . . . . . . . . . . . . . .
Verteilung eines Kontrastes unter der Nullhypothese (7 / S. 238) . . . . . . . .
Zur Schätzung des Standardfehlers bei homogenen Varianzen (7 / S.
243) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Beispiel zum REGWQ-Verfahren (7 / S. 247) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Äquivalenz des zweiseitigen Wilcoxon-Rangsummen-Tests und des
Kruskal-Wallis-Tests bei zwei Stichproben (7 / S. 249) . . . . . . . . . . . . . . . . . . .
Schätzer der mehrfaktoriellen Varianzanalyse bei gleichen Zellenbesetzungen (7 / S. 259) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Mehrfaktorielle Varianzanalyse bei ungleichen Zellenbesetzungen im
allgemeinen linearen Modell (7 / S. 260) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Verteilung der Quadratsummen in der zweifaktoriellen Varianzanalyse
(7 / S. 263) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Varianzanteile in der zweifaktoriellen Varianzanalyse (7 / S. 265) . . . . . . .
Einzelvergleiche in der Varianzanalyse mit Messwiederholung (8 / S.
286) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Test für zufällige Personeneffekte in der einfaktoriellen Varianzanalyse mit Messwiederholung (8 / S. 288) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Feste vs. zufällige Effekte in der Varianzanalyse (8 / S. 288); (8 / S. 289)
Der Tukey-Test auf Linearität (8 / S. 289) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Zur Sphärizitätsannahme (8 / S. 292) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Der Mauchly-Test (8 / S. 293) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Zur Greenhouse-Geisser-Korrektur (8 / S. 293) . . . . . . . . . . . . . . . . . . . . . . . . . . .
Dreifachinteraktion (παβ )i jk in der zweifaktoriellen Varianzanalyse
mit Messwiederholung (8 / S. 297) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Notwendige Kovarianzstruktur in der zweifaktoriellen Varianzanalyse
mit Messwiederholung (8 / S. 299) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Testverteilung der Effekte in der zweifaktoriellen Varianzanalyse mit
Messwiederholung (8 / S. 304) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Zu den Voraussetzungen der Varianzanalyse mit Messwiederholung
(8 / S. 307) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Interaktion bei nur einer Beobachtung pro Zelle und Fehlervarianz im
Split-Plot-Design (8 / S. 309) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Notwendige Kovarianzstruktur im Split-Plot-Design (8 / S. 310) . . . . . . . . .
29
30
30
30
31
32
33
33
36
37
38
39
42
43
43
44
46
47
51
52
52
54
54
54
54
54
Inhaltsverzeichnis
1.53
5
1.69
1.70
1.71
1.72
Berechnung der Freiheitsgrade für die Fehlerquadratsummen im SplitPlot-Design (8 / S. 313) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Fehlerterme im Split-Plot-Design (8 / S. 314) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Der Box-Test (8 / S. 316) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Zu den Voraussetzungen der Varianzanalyse mit einem Between- und
einem Within-Subjects-Faktor (8 / S. 316) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Lineare Abhängigkeit und lineare Unabhängigkeit (9 / S. 328) . . . . . . . . . . .
Varianz von β̂0 (9 / S. 329) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Erwartungswerte und χ 2 -Verteilungen in der mehrfaktoriellen Varianzanalyse (9 / S. 331) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Matrizenschreibweise zur Beschreibung von linearen Hypothesen (9
/ S. 334) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
F -Test beim Vergleich linearer Modelle (9 / S. 335) . . . . . . . . . . . . . . . . . . . . . . .
Regressionskoeffizienten und Kodiervariablen (9 / S. 337), (9, S. 341) .
R2 bei der Regression ohne Interzept und Bezug zu η 2 (9 / S. 346) . . . .
Kodierungen für das Split-Plot-Design im linearen Modell (9 / S. 347) . .
Quadratsummen der kodierten Variablen einer zweifaktoriellen Varianzanalyse (9 / S. 350) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Weitere Typen der Variationszerlegung (9 / S. 350) . . . . . . . . . . . . . . . . . . . . . . .
Effekt der Kovariaten auf das Ergebnis der Kovarianzanalyse (9 / S.
358) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tests zur Überprüfung von Abhängigkeiten in der linearen Regression
(9 / S. 360) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
White-Korrektur (9 / S. 361) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Transformationen zur Stabilisierung und Normalisierung (9 / S. 361) . . . .
Der Breusch-Pagan-Test (9 / S. 362) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.1
2.2
2.3
2.4
2.5
2.6
Normalverteilungstabelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Quantile der χ 2 -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Quantile der t -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Quantile der F -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Binomialtest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Wilcoxon-Rangsummentest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.54
1.55
1.56
1.57
1.58
1.59
1.60
1.61
1.62
1.63
1.64
1.65
1.66
1.67
1.68
55
55
56
56
56
56
57
57
58
58
60
61
63
63
64
65
66
66
66
67
70
73
77
79
90
92
Kapitel 1
Ableitungen
1.1 Einseitige und zweiseitige p-Werte (2 / S. 38)
Ist die Prüfverteilung für eine Teststatistik V symmetrisch wie im Falle von Normalverteilung oder t-Verteilung, ist die Umrechnung von einseitigen zu zweiseitigen
p-Werten möglich. Wir betrachten hier eine solche Prüfverteilung mit E(V ) = 0, die
immer erzeugt werden kann, indem von den Werten der ursprünglichen Prüfverteilung der ursprüngliche Erwartungswert abgezogen wird.
Im Fall einer zweiseitigen Hypothese wird H0 abgelehnt, wenn gilt: |v| > v1−α/2 .
Hier gilt: pz = P(|T | > v0 ). Im Fall einer einseitigen „noch oben gerichteten“ Hypothese, wird H0 abgelehnt, wenn gilt: v > v1−α . Hier gilt: pe = P(T > v0 ). Betrachten
wir zwei Fälle. Im ersten Fall geht die Teststatistik unter der einseitigen H0 in die
erwartete Richtung, d. h. v0 > 0, und im zweiten Fall geht sie nicht in die erwartete
Richtung, d. h. v0 ≤ 0.
Im ersten Fall mit p0 > 0 gilt: pz = P(|T | < v0 ) = P(T < v0 ) + P(T > v0 ). Wegen
der Symmetrie gilt: P(T > v0 ) = P(T < v0 ). Hier ist pe = P(T > v0 ) und damit folgt:
pe = P(T ) > v0 = pz /2.
Im zweiten Fall mit p0 ≤ 0 gilt: pz = P(|T | < v0 ) = P(T > v0 ) + P(T < v0 ) und
ebenso: P(T > v0 ) = P(T < v0 ). Hier ist pe = P(T > −v0 ) und damit folgt: pe =
1 − (P(T ) > v0 ) = 1 − (P(T > v0 ) + P(T < v0 ))/2 = 1 − pz /2.
Der Fall einer einseitigen „noch unten gerichteten“ Hypothese kann völlig analog
gezeigt werden.
1.2 Gütefunktion bei zweiseitigen Tests (2 / S. 57)
Zunächst einmal ist bei einem zweiseitigen Test zu beachten, dass zfwar die Hypothese zweiseitig aufgestellt werden kann – und somit mit zwei kritischen Werten links
Kapitel 1 Ableitungen
7
und rechts vom Erwartungswertwert der Teststatistik versehen ist – aber ein Effekt
immer nur eine Größe haben kann.
In der im Buch benutzten Beispielanwendung (Gauß-Test) ist der Effekt durch die
√
Größe δ n auf die Verteilung der Teststatistik abzubilden. Alle Werte von Y , die
unter H0 kleiner sind als zα/2 haben unter Gültigkeit der H1 die Wahrscheinlichkeit
√ √ P Y < zα/2 − δ n = φ zα/2 − δ n
Alle Werte von Y , die größer sind als z1−α/2 haben unter Gültigkeit der H1 die Wahrscheinlichkeit
√ √ P Y > z1−α/2 − δ n = 1 − φ z1−α/2 − δ n
Wegen der Symmetrie der Normalverteilung gilt
φ (x) = 1 − φ (−x)
sowie
z p = −z1−p
Damit gilt:
√ √ P Y > z1−α/2 − δ n = 1 − φ z1−α/2 − δ n
√ = 1 − 1 − φ −zα/2 + δ n
√ = φ zα/2 + δ n
Die Gütefunktion für den zweiseitigen Test ergibt sich damit wie folgt:
√ √ g(δ ) = P Y < zα/2 − δ n + P Y > z1−α/2 − δ n
√ √ = φ zα/2 − δ n + φ zα/2 + δ n
√ √ = φ −z1−α/2 − δ n + φ −z1−α/2 + δ n
Die Nutzung von z1−α/2 in der endgültigen Formel liegt darin begründet, dass diese
Werte größer als Null sind und in der Regel vertafelt vorliegen.
1.3 Gauß-Test: UMP (einseitig) und nicht UMP (zweiseitig) (2 / S. 58)
Wir zeigen hier, dass der zweiseitige Gauß-Test kein UMP-Test ist. Die beiden einseitigen Gauß-Tests sind UMP-Tests (vgl. z. B. Shao, 2003). Wir stellen hier nochmals zusammenfassend den zweiseitigen Gauß-Test dar sowie die beiden einseitigen
Gauß-Tests, hier jedoch mit der Nullhypothese als einfache Hypothese.
8
Kapitel 1
Gauß-Test
Annahmen:
Y1 , ...,Yn i.i.d. N(µ, σ )-verteilt, Standardabweichung σ bekannt
Testprobleme
Teststatistik
1. H0 : µ = µ0 gegen H1 : µ 6=
µ0
Z=
2. H0 : µ = µ0 gegen H1 : µ >
µ0
3. H0 : µ = µ0 gegen H1 : µ <
Y −µ
√0
σ/ n
Ablehnung der H0
1. |z| > z1−α/2
2. z > z1−α
3. z < −z1−α
µ0
Nehmen wir an, es gäbe einen UMP-Test für das zweiseitige Testproblem, wie es
beim einseitigen Gauß-Test der Fall ist. Ein solcher UMP-Test wäre zugleich auch ein
UMP-Test für die beiden oben dargestellten einseitigen Testprobleme. Daher müsste die Testfunktion eines UMP-Test für das zweiseitige Testproblem mit den Testfunktionen der beiden einseitigen Gauß-Tests übereinstimmen, wenn diese jeweils
zu einer Annahme bzw. Ablehnung der Nullhypothese führen.
Nehmen wir an, dass die Teststatistik kleiner als −z1−α ausfällt. Dann muss die Nullhypothese für das zweiseitige Problem H0 : µ = µ0 gegen H1 : µ 6= µ0 abgelehnt werden und für das einseitige Problem H0 : µ = µ0 gegen H1 : µ ≤ µ0 angenommen werden. Ausgehend von solchen Daten könnte aber die Testfunktion eines UMP-Tests für
das zweiseitige Testproblem nicht mit beiden Testfunktionen der einseitigen GaußTests übereinstimmen. Dieser Widerspruch zeigt, dass es keinen UMP-Test für das
obige zweiseitige Testproblem geben kann.
1.4 Beispiele zur Güte statistischer Tests (2 / S. 58)
Wir verweisen hier auf Kap. 5.3, in dem die Testgüte von Einstichprobentests vergleichend diskutiert wird.
Kapitel 1 Ableitungen
9
1.5 Weitere Einstichprobentests (3 / S. 68)
1.5.1 Test der Schiefe
Zur numerischen Erfassung der Schiefe metrischer Daten wurde in Band 1 (Holling
& Gediga, 2011) der Schiefekoeffizient gm definiert:
gm =
n2
∑ni=1 (yi − y)3
(n − 1)(n − 2)
nsY3
Aufgrund der Definition der Schiefe gilt:
gm = 0
für symmetrische Verteilungen
gm > 0
für rechtsschiefe Verteilungen
gm < 0
für linksschiefe Verteilungen
Will man testen, ob eine Verteilung symmetrisch ist oder schief, testet man:
H0 : gm = 0 gegen H1 : gm 6= 0
Für normalverteilte Zufallsvariablen ist
g2m
6
χ 2 -verteilt mit einem Freiheitsgrad (Jarque & Bera, 1980). Bei Ablehnung der Nullhypothese ist somit die empirisch festgestellte Schiefe nicht plausibel durch zufällige
Abweichungen von der Normalverteilung zu erklären.
1.5.2 Test der Kurtosis
Der für metrische Daten einschlägige Kurtosiskoeffizient γ ist wie folgt definiert (Holling & Gediga, 2011):
n
γ =
n2 (n + 1)
(n − 1)(n − 2)(n − 3)
∑ (yi − ȳ)4
i=1
nsY4
−3
(n − 1)2
(n − 2)(n − 3)
Es gilt:
γ = 0 ⇒ mesokurtische Verteilung (annähernd normalverteilt)
γ > 0 ⇒ leptokurtische Verteilung
γ < 0 ⇒ platykurtische Verteilung
10
Kapitel 1
Will man testen, ob eine Verteilung mesokurtisch ist oder nicht, testet man:
H0 : γ = 0 gegen H1 : γ 6= 0
Für normalverteilte Zufallsvariablen ist
γ2
24
χ 2 -verteilt mit einem Freiheitsgrad (Jarque & Bera, 1980). Bei Ablehung der Nullhypothese ist somit die empirisch festgestellte Kurtosis nicht plausibel durch zufällige
Abweichungen von der Normalverteilung zu erklären.
1.5.3 Gemeinsamer Test von Schiefe und Kurtosis
Jarque und Bera (1980) fassen die beiden Tests auf symmetrische und mesokurtische
Verteilung zusammen mit der Teststatik
JB =
g2m γ 2
+
6
24
Unter der Annahme der Normalverteilung ist BJ χ 2 -verteilt mit 2 Freiheitsgraden.
Nach Simulationsstudien von Bera and Jarque (1981) ist dieser Test gut geeignet
Abweichungen von der Normalverteilung zu entdecken.
Dieser Test findet sich beispielsweise im SPSS-System unter dem Menüpunkt explorative Datenanalysen oder im R-Paket lawstat mit der Funktion rjb.test. Im
Paket lawstat ist neben der klassischen Variante, die hier vorgestellt wurde, auch
eine Variante mit robusten (ausreißerresistenten) Schätzern implementiert, die für eine erste Analyse von Daten vorzuziehen ist. Details hierzu findet man in Gel und
Gastwirth (2008).
1.6 Zur Anwendbarkeit des zentralen Grenzwertsatzes (3 / S. 69)
Die zur Anwendbarkeit des zentralen Grenzwertsatzes dargestellten Empfehlungen
sind sehr allgemein gehalten. Klare allgemeingültige Regeln lassen sich jedoch hier
nicht aufstellen. Der Grund dafür liegt darin, dass der zentrale Grenzwertsatz für beliebige Wahrscheinlichkeitsverteilungen (mit Erwartungswert und Varianz) gilt, wobei die in Holling und Gediga (2013, S. 189) genannten Voraussetzungen noch abgeschwächt werden.
Eine entscheidende Frage ist, ab welchem Stichprobenumfang die Approximation der
Verteilung der Mittelwerte duch die Normalverteilung hinreichend gut ist, bzw. anders ausgedrückt, wie hoch die Konvergenzgeschwindigkeit für bestimmte zu Grunde
Kapitel 1 Ableitungen
11
liegende Verteilungen ist. Bei einigen Verteilungen ist die Approximation schon bei
einem sehr geringen Stichprobenumfang, z. B. N = 10, hinreichend gut, bei anderen
Wahrscheinlichkeitsverteilungen, wie z.B. der Gamma-Verteilung mit einem sehr geringen Shape-Parameter ist ein Stichprobenumfang von N = 300 nicht ausreichend.
Die Regel, dass der Stichprobenumfang größer/gleich 30 sein sollte, ist aber für viele
in der Praxis auftretende Fälle eine gute Daumenregel. Nichtsdestotrotz sollte man
sich darüber im Klaren sein, dass ein Stichprobenumfang von N = 30 in bestimmten
Fällen zu gering sein kann. Die Konvergenzgeschwindigkeit hängt sehr stark von der
Schiefe und auch von der Kurtosis der zu Grunde liegenden Verteilung ab. Ist die
Verteilung der Stichprobendaten sehr schief oder zeichnet sie sich durch eine hohe
Kurtosis aus, sind viele Ausreißer zu erwarten (vgl. Boos & Hughes-Oliver, 2000).
Dann werden höhere Stichprobenumfänge erforderlich, um eine genügend gute Approximation zu erzielen.
Neben der Konvergenzgeschwindigkeit ist jedoch ein zweiter Aspekt zu beachten.
Selbst wenn die Verteilung der Mittelwerte eine gute Approximation an die Normalverteilung darstellt, kann die Anwendung des zentralen Grenzwertsatzes bei der Berechnung von Konfidenzintervallen und der Durchführung von Tests zu fehlerhaften
Ergebnissen führen, wenn der Stichprobenumfang zu gering ist. In der Regel ist die
Standardabweichung der zu Grunde liegenden Verteilung nicht bekannt und muss anhand der Stichprobendaten geschätzt werden. Dann sind die Mittelwerte t-verteilt.
Führt nun die zu Grunde liegende Verteilung mit einer hohen Wahrscheinlichkeit zu
Ausreißern, wird die Standardabweichung ungenau geschätzt und die Approximation der Mittelwertsverteilung durch eine t-Verteilung ist dann unzureichend. Eine
ausführliche Diskussion dieser Thematik findet sich in Wilcox (2012). Fassen wir
einige wesentliche Aussagen dieses Autors hier kurz zusammen.
Wilcox (2012) unterscheidet vier Arten von Verteilungen: (1) symmetrische Verteilungen mit relativ wenig Wahrscheinlichkeitsmasse an den Rändern (light-tailed), (2)
symmetrische Verteilungen mit relativ viel Wahrscheinlichkeitsmasse an den Rändern (heavy-tailed), (3) schiefe Verteilungen mit relativ wenig Wahrscheinlichkeitsmasse an den Rändern und (4) schiefe Verteilungen mit relativ viel Wahrscheinlichkeitsmasse an den Rändern.
Bei Verteilungen der Klasse (1), die sich durch eine eher geringe Kurtosis auszeichnen, liegen Ausreißer selten vor, in diesem Fall ist eine gute Approximation durch
die t-Verteilung zu erwarten. Damit liegen relativ genaue Konfidenzintervalle bzw. –
äquivalent dazu – Tests mit weitgehend adäquaten Fehlerraten vor.
Symmetrische Verteilungen mit relativ viel Wahrscheinlichkeitsmasse an den Rändern, wie z. B. bei der t-Verteilung mit zwei Freiheitsgraden, führen eher zu großen
Varianzen bei den Stichprobendaten und damit zu übermäßig breiten Konfidenzintervallen, wenn nicht hinreichend große Stichprobenumfänge vorliegen.
12
Kapitel 1
Schiefe Verteilungen mit relativ wenig Wahrscheinlichkeitsmasse an den Rändern,
wie z. B. lognormale Verteilungen, können bei einem zu geringen Stichprobenumfang
dazu führen, dass der Erwartungswert der Mittelwertsverteilung ungleich 0 ist und
insofern auch keine adäquate Konfidenzintervalle resultieren.
Schiefe Verteilungen mit relativ viel Wahrscheinlichkeitsmasse an den Rändern führen in der Regel zu relativ vielen Ausreißern, weshalb hier besonders große Stichprobenumfänge erforderlich sind, um eine hinreichend gute Approximation der Mittelwertsverteilung durch die t-Verteilung zu erzielen.
1.7 Zusammenhang von Intervallschätzung und Testverfahren (3 / S.
70)
Wir betrachten hier den Zusammenhang zwischen dem einseitigen Gauß-Test H0 :
µ ≤ µ0 gegen H1 : µ > µ0 und dem entsprechenden einseitigen Konfidenzintervall.
Der Annahmebereich des obigen einseitigen Gauß-Tests lässt sich wie folgt umformen:
Y − µ0 √
n ≤ +z1−α
σ
σ
−∞ ≤ Y − µ0 ≤ +z1−α √
n
−∞
≤ −µ0
σ
Y − z1−α √
n
≤
≤
σ
−Y + z1−α/2 √
n
µ0
≤
∞
Die Grenzen dieses Intervalls sind bekannt als die Grenzen des
(1−α)-Konfidenzintervalls für µ bei einem normalverteilten Merkmal mit bekannter
Varianz:
√
n
Y − z1−α
,∞
σ
1.8 Der randomisierte Binomialtest (3 / S. 81)
Randomisierte Tests wurden entwickelt, um das Signifikanzniveau voll auszuschöpfen. Sie stellen eine Erweiterung der Signifikanztestes dar und beinhalten diese als
Spezialfälle und sind insbesondere bei diskreten Testfunktionen indiziert.
Kapitel 1 Ableitungen
13
Wir betrachten nun einen randomisierten Binomialtest, der auf dem in Band 3 (S. 81)
dargestellten Signifikanztest beruht. Hier wurde der kritische Wert für einen einseitigen Test
H0 : π ≤ π0 = .25 gegen H1 : π > π0 = .25
zum Signifikanzniveau α = .05 bestimmt. Für U ∼ B(10, .25) sind die entsprechende
diskrete Dichte und Verteilungsfunktion in der Tabelle auf S. 81 dargestellt.
Für das einseitige Testproblem
H0 : π ≥ .25
gegen
H1 : π < .25
zu einem Signifikanzniveau α = .10 wurde der kritische Wert bu,.10 (10, .25) so festgelegt, dass gilt:
P(U < bu,.10 (10, .25)) < α und P(U < bu,.10 (10, .25) + 1) ≥ α
So wurde im vorliegenden Signifikanztest als kritischer Wert 1 bestimmt. Damit wird
jedoch die Nullhypothese lediglich mit einer Wahrscheinlichkeit von .0563 und nicht
wie vorgegeben mit .10 abgelehnt.
Die Randomisierung erlaubt es nun, die Nullhypothese exakt mit der vorgegebenen
Wahrscheinlichheit von .10 abzulehnen. Dazu muss die Nullhypothese zusätzlich zur
Wahrscheinlichkeit von .0563 mit einer Wahrscheinlichkeit von .100-.0563 = .0437
abgelehnt werden. Wir ermitteln daher die bedingte Wahrscheinlichkeit, die Nullhypothese abzulehnen, gegeben die Testfunktion nimmt den Wert 1 an, sodass die
Nullhypothese insgesamt mit einer Wahrscheinlichkeit von .10 abgelehnt wird.
Die Testfunktionen nimmt eine 1 mit einer Wahrscheinlichkeit von .2440 - .0563 =
.1887 an. Somit ist die bedingte Wahrscheinlichkeit, die Nullhypothese abzulehnen,
wenn eine 1 aufgetreten ist, .0437/.1887 = .2316.
Die Entscheidungsvorschrift beim Randomisierungstest lautet nun wie folgt: Tritt
bei einem Test eine 0 auf, wird die Nullhypothese abgelehnt. Tritt ein Wert von größergleich 2 auf, wird die Nullhypothese beibehalten. Im Fall einer 1 wird ein weiterer künstlicher Test, ein einseitiger Binomialtest mit der Verteilung B(1, .2316),
durchzuführt, sodass in 23% aller Fälle, wenn eine 1 bei der Testfunktion auftritt, die
Nullhypothese verworfen wird. In der Praxis wird dazu häufig eine gleichverteilte
Zufallszahl zwischen 0 und 1 gezogen. Fällt diese Zufallszahl kleiner als .2316 aus,
wird die Nullhypothese abgelehnt, ansonsten beibehalten.
Der Randomisierungstest ist insgesamt ein zweistufiges Verfahren, bei dem man in
der ersten Phase analog zum Signifkanztest verfährt. Im Unterschied zum Signifkanztest bestimmt man für die erste Phase neben dem Annahme- und Ablehnungsbereich
einen dritten Bereich, den sogenannten Randomisierungs- bzw. Indifferenzbereich.
Nimmt die Testfunktion einen Wert aus dem Indifferenzbereich an, ist ein weiterer
Binomialtest analog zu dem oben dargestellten Beispiel durchzuführen, sodass das
Signifikanzniveau exakt eingehalten wird.
14
Kapitel 1
1.9 Varianz der Teststatistik des Wilcoxon-Vorzeichen-Rangtests bei
Rangbindungen (3 / S. 88)
Im Falle von Rangbindungen werden für identische Werte mittlere Ränge vergeben.
Jede Beobachtung i erhält eine „Bindungsbewertung“, die auf der Anzahl der Beobachtungen basiert, die den gleichen Wert aufweisen. Ist ti diese Anzahl, so ist die
Bindungsbewertung durch
t2 − 1
bi = i
48
zu bestimmen. Ist ti = 1 (gibt es also keine weitere Beobachtung mit identischem
Wert), ist bi = 0, ansonsten ist bi > 0.
Die Varianz der Teststatistik W ist unter Gültigkeit der Nullhypothese:
Var(W ) =
n
n 2
n(n + 1)(2n + 1)
n(n + 1)(2n + 1)
t −1
− ∑ bi =
−∑ i
24
24
i=1
i=1 48
Da bei Rangbindungen ∑ni=1 bi > 0 ist, wird die Varianz von W bei Berücksichtigung
der Rangbindungen kleiner.
Fasst man die K Fälle mit Rangbindungen zusammen, so hat jeder Fall die Häufigkeit
tk und die Bestimmung der Varianz beschleunigt sich etwas durch die Berechnung
Var(W ) =
K t3 − t
n(n + 1)(2n + 1)
k
−∑ k
24
k=1 48
Es gilt damit
W − 41 n(n + 1)
q
n(n+1)(2n+1)
24
t 3 −t
− ∑Kk=1 k48 k
∼ N(0, 1).
Wird die Rangbindungskorrektur der Varianz nicht genutzt, entscheidet der Test konservativ, d. h. zu häufig zugunsten der Nullhypothese.
1.10 Vergleich von Testgütefunktionen bei Einstichprobentests (3 / S.
91)
Die in Abbildung 3.4 (Bd 3, S. 91) dargestellten Testgütekurven zeigen, dass die Testgüte umso höher ist, je mehr Voraussetzungen die Tests machen. Wie im Zusammenhang mit dem zentralen Grenzwertsatz ausgeführt wurde, mag die Anwendung des tTest insbesondere, wenn Ausreißer vorliegen, erst bei höheren Stichprobenumfängen
gerechtfertigt sein. Insofern ist dementsprechend bei geringeren Stichprobenumfängen auch die Testgüte mit Vorsicht zu betrachten. Schiefe Stichprobenverteilungen
Kapitel 1 Ableitungen
15
mögen aus schiefen Populationsverteilungen stammen. Sprechen theoretische Gründe oder bisherige empirische Untersuchungen gegen symmetrische Verteilungen, ist
man auf alle Fälle auf der sicheren Seite, wenn man die Poweranalysen ausgehend
vom Vorzeichentest durchführt.
1.11 Überprüfung der bivariaten Normalverteilung (5 / S. 125)
Ein Test auf Gültigkeit der bivariaten Normalverteilung kann als Spezialfall eines
Tests auf Gültigkeit der multivariaten Normalverteilung durchgeführt werden. Bekannte Tests dafür sind die Tests von Mardia, Henze-Zirkler oder Royston (s. Korkmaz, Goksuluk & Zararsiz, 2016). Die Durchführung dieser Tests kann z. B. anhand
des R-Programms MVN von Korkmaz, Goksuluk und Zararsiz (2016) erfolgen.
1.12 Monte-Carlo-Verfahren bei Randomisierungstests (5 / S. 130)
Exakte Randomisierungstests verlangen oft auch schon bei kleinen Stichproben viel
Computerzeit. Eine Möglichkeit diese Tests (dann wiederum aber nur approximativ)
durchzuführen, ist die Simulation der Teststatistik unter der zu testenden Hypothesen.
Will man etwa eine Korrelation überprüfen, erzeugt man eine Kollektion von „zufällig“ erzeugten Permutationen der Messwerte der Variable Y , die wir mit perm(Y1 ), ...,
perm(YK ) bezeichnen. Die Korrelationen r1 = r(X, perm(Y1 )), ..., rK = r(X, perm(YK ))
sowie r0 = r(X,Y ) erzeugen eine simulierte Verteilung der Korrelationskoeffizienten
unter Gültigkeit der Nullhypothese.
Zählt man nun die Anzahl der Korrelationen, die größer-gleich der beobachteten Korrelation r0 in dieser simulierten Verteilung (inklusive r0 ) sind und relativiert diese
Anzahl mit möglicher Maximalzahl K + 1, so erhält man eine Abschätzung für den
p-Wert unter Gültigkeit der Nullhypothese.
In der Regel wird K = 999 oder mehr genutzt, um eine stabile Schätzung für den
p-Wert zu erhalten.
In R kann man mithilfe der Bibliothek boot sehr einfach und sehr flexibel derartige
Simulationen für frei wählbare Statistiken erzeugen.
16
Kapitel 1
1.13 Normalverteilungsapproximation der Testverteilung von
Kendall’s τ bei Rangbindungen (5 / S. 134)
Der Erwartungswert von Kendalls τ ist bei Gültigkeit der Nullhypothese immer 0.
Die Ableitung der Varianz ist hingegen sehr aufwändig. Mit Sillito (1947) kann die
Berechnung nachvollzogen werden. Die Konvergenz der Testverteilung gegen die
Normalverteilung ist auch hier früh (n > 10) gegeben, wenn die Anzahl der Rangbindungen nicht extrem hoch ist.
1.14 Post-hoc-Tests in der Kontingenztafelanalyse (5 / S. 140)
Fällt eine Kontingenztafelanalyse signifikant aus, stellt sich die Frage, welche Häufigkeiten in den Zellenkombinationen „weit“ von ihren Erwartungswerten entfernt
sind. Hierfür werden sog. standardisierte adjustierte Residuen für interessante (oder
alle) Zellenkombinationen berechnet. Ist ni j die Zellenhäufigkeit, ni. und n. j die Randsummen sowie N die Gesamtzahl aller Beobachtungen, so ist
ni j − ni. n. j /N
RESi j = p
ni. n. j /N(1 − ni. /N)(1 − n. j /N)
die Berechnungsformel für das standardisierte adjustierte Residuum.
Der Erwartungswert ei j ist durch ni. n. j /N bestimmt. Deshalb gilt ebenfalls
ni j − ei j
RESi j = p
ei j (1 − ni. /N)(1 − n. j /N)
Unter Gültigkeit der Nullhypothese ist jedes RESi j näherungsweise N(0, 1)-verteilt
(Haberman, 1978, S. 121).
Will man nun nur eine Zelle überprüfen, kann man anhand der Normalverteilung entscheiden, ob die Häufigkeit für diese Zelle signifikant vom Erwartungswert entfernt
ist.
Will man mehrere (oder alle) Zellen überprüfen, sollte eine Bonferroni-Adjustierung
(oder Bonferroni-Holm-Adjustierung) genutzt werden, um die kritischen Zellen zu
identifizieren.
Bei diesem Test muss man die Anzahl der Freiheitsgrade mit berücksichtigen. So
erübrigt sich das Verfahren für 2 × 2-Tabellen, da alle Residuen (bis auf das Vorzeichen) identisch sind. Bei einer J × 2-Tabelle ist eine der beiden Spalten zu betrachten,
da die Residuen in den Zeilen jeweils vom Betrag her identisch sind. Analog sind in
2 × K-Tabellen nur eine der beiden Zeilen zu betrachten, da die Residuen in den
Spalten jeweils vom Betrag her identisch sind.
Kapitel 1 Ableitungen
17
1.15 Der Fisher-Yates-Test und die hypergeometrische Verteilung (5 /
S. 142)
Wird bei einer 2 × 2-Tabelle
A=1
A=2
Spaltensumme
B=1
n11
n21
n.1
B=2
n12
n22
n.2
Zeilensumme
n1.
n2.
n
ein hypergeometrisches Sampling angenommen, d.h. wird angenommen, dass die
Randsummen n1. , n2. , n.1 , n.2 feste Werte sind, dann ist bei fehlender Assoziation
zwischen A und B (Nullhypothese), die Wahrscheinlichkeit P(h11 = n11 ) durch die
hypergeometrische Verteilung zu bestimmen.
Hierfür sei an die Einführung der hypergeometrischen Verteilung (Holling & Gediga,
2013) erinnert: Zieht man ohne zurücklegen n1. Kugeln aus einer Urne mit n Kugeln,
von denen n.1 Kugeln schwarz und n.2 Kugeln eine andere Farbe haben, so ist die
Wahrscheinlichkeit genau n11 schwarze Kugeln bei n1. Ziehungen zu erhalten durch
die hypergeometrische Verteilung, also
P(h11 = n11 ) =
n1. !n2. !n.1 !n.2
n!n11 !n12 !n21 !n22 !
zu berechnen.
Das Urnenmodell beschreibt damit exakt die Annahmen bei fehlender Assoziation
in einer 2 × 2-Tabelle und die hypergeometrische Verteilung ist damit die adäquate
Verteilung der Teststatistik n11 für diesen Fall.
1.16 Exakte Tests bei k × m-Tabellen (5 / S. 143)
Die Logik exakter Tests für allgemeine k × m-Tabellen ist ähnlich wie die bei Fisher’s exaktem Test. Zunächst wird auch in diesem Fall mit dem hypergeometrischen
Testmodell gerechnet, d.h. ein bedingter Test bei Annahme gleicher Randsummen
durchgeführt.
Als Teststatistik wird der χ 2 -Wert mit den Ausgangsdaten berechnet:
χ2 = ∑
i, j
(oi, j − ei, j )2
ei, j
18
Kapitel 1
Hierbei sind oi, j die beobachteten Häufigkeiten und ei, j die erwarteten Häufigkeiten.
Um die Wahrscheinlichkeit
P χ 2 ≤ χ 2 (H0 )
auszurechnen (also den p-Wert der χ 2 -Statistik), bestimmt man alle möglichen Tabellen T , die die gleichen Randsummen aufweisen wie die beobachteten Randsummen. Für diese Tabellen sind die Erwartungswerte pro Zelle ebenfalls ei, j und für die
Berechnung des p-Werts nutzen wir alle die Tabellen T , für die gilt
χ 2 (T ) = ∑
i, j
(ti, j − ei, j )2
≥ χ2
ei, j
Die Wahrscheinlichkeit P χ 2 ≤ χ 2 (H0 ) lässt sich dann im Prinzip einfach ausrechnen. Sie ist:
P χ 2 ≤ χ 2 (H0 ) =
∑ P(T )
T mitχ 2 ≤χ 2 (T )
Die Wahrscheinlichkeit P(T ) lässt sich mit einer verallgemeinerten hypergeometrischen Verteilung berechnen und die Erzeugung aller Tabellen T zu festen Randsummen ist möglich – wenngleich algorithmische Schwerstarbeit.
Für SPSS ist das Model Exact tests entwickelt worden, dass die exakte Berechnung des p-Wertes vornimmt. Die Berechnung ist allerdings auf N ≤ 30 begrenzt, da
die Anzahl der möglichen Tabellen sehr schnell sehr groß wird.
Eine einfache (approximative) Lösung bieten Simulationsansätze (ähnlich denen bei
Randomisierungstests). Hier wird eine feste Menge von Tabellen T per Zufall generiert (z.B. kT Tabellen) und der p-Wert wird nun approximativ bestimmt mittels
!
kT
1
1 + ∑ Ind χ 2 ≤ χ 2 (kT )
1 + kT
i=1
Ind() ist hier wieder die Indikatorfunktion, die den Wert 1 liefert, wenn die Bedingung erfüllt ist, und 0 sonst. In SPSS ist diese Simulation für Kreuztabellen abrufbar.
Für R kann das Paket coin genutzt werden.
1.17 Normalverteilungsapproximation der Testverteilung des
Log-Odds-Ratios (5 / S. 144)
Viele Testverteilungen von Funktionen von Zufallsvariablen werden durch einen Linearisierungansatz erzeugt, der Delta-Methode genannt wird. Im Falle multinomialverteilter Zufallsvariablen erhält man für eine Funktion f , die von den Wahrschein-
Kapitel 1 Ableitungen
19
lichkeiten f (π1 , ...πk ) abhängt, folgende Approximation für die Funktion basierend
auf den Schätzern der Wahrscheinlichkeiten:
k
∂f
(πb1 , . . . , πbk ) · (πbi − πbi ),
i=1 ∂ πi
i
h
Var( f (πb1 , . . . , πbk )) ≈ E ( f (πb1 , . . . , πbk ) − f (πb1 , . . . , πbk ))2
"
#
k
∂f
≈ E (∑
(πb1 , . . . , πbk ) · (πbi − πbi ))2 .
i=1 ∂ πi
f (πb1 , . . . , πbk ) ≈ f (πb1 , . . . , πbk ) + ∑
Die Terme ∂∂πfi (πb1 , . . . , πbk ) sind konstant, da hier keine Zufallseinflüsse eingehen. Mit
dieser Linearisierung erfolgt die Approximation der Varianz von f (πb1 , . . . , πbk ):
Var[∑ Yi ] = ∑ Var[Yi ] + 2 ∑ COV[Yi ,Y j ],
i> j
i
i
2
Var[cY ] = c Y,
COV[cYi , dY j ] = c · d COV[Yi ,Y j ],
und damit:
∂f 2
∂f ∂f
Var( f (πb1 , . . . , πbk )) ≈ ∑ Var(πbi ) ·
+ 2 ∑ COV(πbi , πbj ) ·
·
∂ πi
∂ πi ∂ π j
i> j
i=1
k
∂f ∂f
∂f 2
2
+ 2 ∑ COV(πbi , πbj ) ·
·
.
= ∑ SE(πbi ) ·
∂ πi
∂ πi ∂ π j
i> j
i=1
k
Damit folgt
k
πi (1 − πi )
Var( fˆ) ≈ ∑
n
i=1
∂f
∂ πi
2
πi π j ∂ f ∂ f
·
·
.
∂ πi ∂ π j
i> j n
−2∑
d fˆ) zu berechnen, ersetzen wir πbi für die unbekannten Terme πi .
Um nun Var(
Allgemein gilt, dass für Maximum-Likelihood-Schätzer eines Parameters θ nicht nur
θ̂ approximativ normalverteilt ist, sondern auch f (θ̂ ), wenn f eine stetige und differenzierbare Funktion ist. Damit gilt aber auch, dass g( f (θ̂ )) approximativ normalverteilt ist. Man hat also die Freiheit mittels g eine Funktion zu finden, für die die
Approximation auch für kleines n schon sehr gut ist. Im Fall von
f = OR =
π11 π22
π12 π21
ist die Logarithmus-Funktion ein guter Kandidat.
20
Kapitel 1
Wir nutzen also die Delta-Methode für die Funktion
π11 π22
log( f ) = log
π12 π21
= log(π11 ) + log(π22 ) − log(π12 ) − log(π22 )
Die für die Delta-Methode notwendigen Ableitungen von f sind nun:
∂f
∂ π11
∂f
∂ π22
∂f
∂ π12
∂f
∂ π21
1
π11
1
=
π22
1
=−
π12
1
=−
π21
=
Damit folgt
π11 (1 − π11 ) 1
π22 (1 − π22 ) 1
+
2
2
n
n
π11
π22
π12 (1 − π12 ) 1
π21 (1 − π21 ) 1
+
+
2
2
n
n
π12
π21
π11 π12 1 −1
π11 π22 1 1
−2
−2
n π11 π22
n π11 π12
π11 π21 1 −1
π22 π12 1 −1
−2
−2
n π11 π21
n π22 π12
π22 π21 1 −1
π12 π21 −1 −1
−2
−2
n π22 π21
n π12 π21
(1 − π11 ) (1 − π22 ) (1 − π12 ) (1 − π21 ) 4
=
+
+
+
+
n · π11
n · π22
n · π12
n · π21
n
1
1
1
1
=
+
+
+
n · π11 n · π22 n · π12 n · π21
1 1
1
1
1
=
+
+
+
n π11 π22 π12 π21
Var( fˆ) ≈
Damit ist die Schätzung
\ =1
d ln(OR))
Var(
n
1
1
1
1
+
+
+
π̂11 π̂22 π̂12 π̂21
gegeben, die wir im Buch genutzt haben.
Kapitel 1 Ableitungen
21
1.18 Ausreißer und große Schiefe und der zentrale Grenzwertsatz (6 /
S. 160)
Wir verweisen hier auf die obigen Ausführungen zur Anwendbarkeit des zentralen
Grenzwertsatzes (3 / S. 69).
1.19 Die Deffizienz im Zweistichprobenfall (6 / S. 166)
Für den t-Test für heterogene Varianzen ist es nicht optimal, für beide Gruppen einen
gleich großen Stichprobenumfang zu verwenden. Unter der Voraussetzung normalverteilter Daten sollte hier der Stichprobenumfang für die Gruppe mit der größeren
Standardabweichung proportional größer sein. Es gilt: nn21 = σσ12 (vgl. z. B. Dette &
O´Brien, 2004).
1.20 Die White-Korrektur im linearen Modell (6 / S. 175 und 9 / S. 361)
Ein lineares Modell lässt sich mithilfe der Matrizenschreibweise kompakt wie folgt
darstellen:
y = Xβ + ε
Hierbei wird angenommen, dass E(ε) = 0 ist und dass die Matrix E(εε 0 ) = Ψ positiv
definit ist.
In diesem Fall ist
β̂ = (X 0 X)−1 X 0 y
der beste lineare unverzerrte Schätzer für β mit der Varianz-Kovarianz-Matrix
Var(β̂ ) = (X 0 X)−1 X 0 ΨX(X 0 X)−1
Im homoskedastischen Fall ist Ψ = σ 2 I und wir erhalten
Var(β̂ ) = σ 2 (X 0 X)−1
Üblicherweise wird σ 2 durch das mittlere Fehlerquadrat MSE geschätzt.
Mit der Schätzung
\
Var(β̂ ) = MSE · (X 0 X)−1
lassen sich dann die Konfidenzbänder für die β -Gewichte oder der F-Test für die
Regression berechnen.
\
Im heteroskedastischen Fall wird Var(β̂ ) folgendermaßen besser geschätzt.
22
Kapitel 1
Nach White (1980) ist
HC0 = (X 0 X)−1 X 0 diag(ε̂i2 )X(X 0 X)−1
\
ein asymptotisch konsistenter Schätzer für Var(β̂ ). Dieser Schätzer hat jedoch den
Nachteil, dass die Asymptotik erst spät einsetzt, d. h. dass er große Stichproben benötigt, um brauchbare Schätzungen zu produzieren.
Es wurden in der Folge weitere Schätzer vorgeschlagen, die auch für kleinere Stichproben bereits gute Ergebnisse erzielen. Wir diskutieren hier zwei weitere (beide
vorgeschlagen von MacKinnon und White, 1985):
2 ε̂i
0
−1 0
HC2 = (X X) X diag
X(X 0 X)−1
1 − hii
und
ε̂i2
X(X 0 X)−1
HC3 = (X X) X diag
(1 − hii )2
Hierbei ist hii ein Diagonalelement der sog. Hat-Matrix, das durch
0
−1
0
hii = xi (X 0 X)−1 xi0
berechnet werden kann.
Das lineare Modell mittels HC2 und der t − Test für homogene Stichproben sind bei
gleichen Stichprobengrößen äquivalent. Da dies auch für den heteroskedastischen
Fall gilt, kann der Test mithilfe des HC2-Schätzers den t-Test in diesem Fall ersetzen
(s. Holling & Gediga, Bd 3, S. 175 ff. und den nächsten Abschnitt). Dies gilt nicht für
den HC3-Schätzer, der in diesem Fall konservativ testet, d.h. im homoskedastischen
Fall unter Gültigkeit der Nullhypothese weniger signifikante Ergebnisse anzeigt, als
vorgegeben. Liegen nominalsaklierte Prädiktoren vor, scheint somit HC2 der günstigste Schätzer zu sein. Für den allgemeinen Fall zeigen jedoch die Simulationen von
Long und Ervin (2000), dass HC3 den anderen Schätzern überlegen ist.
Im dem hier zugrunde liegenden Buch wurde die Software zur Berechnung der HCSchätzer für das Programmpaket R ausgiebig dargestellt. Für SPSS liegen Makros
vor (Hayes & Cai, 2007), die man unter
http://afhayes.com/spss-sas-and-mplus-macros-and-code.html
finden kann.
1.21 Asymptotische Konsistenz des thom -Tests bei Heteroskedastizität
(6 / S. 176)
Die Hat-Matrix H berechnet sich durch
h = X(X 0 X)−1 X 0
Kapitel 1 Ableitungen
23
Nutzt man die Effektkodierung für den t-Test mit gleich großen Stichproben – also
n/2 Einträge mit der 1 für Gruppe a und n/2 Einträge mit der −1 für Gruppe b – so
ergibt sich für die Diagonalelemente der Wert
hi,i = 2/n
Damit ist
HC2 =
1
1−2/n
und
HC0 =
=
=
=
1
(X 0 X)−1 X 0 diag(ε̂i2 )X(X 0 X)−1
1 − 2/n
n n
n − 2 n2
n/2
∑ (yi − ȳa )2 + ∑
i=1
!
n
(yi − ȳb )2
i=n/2+1
1
(n/2 − 1)s2a + (n/2 − 1)s2b
n−2
(na − 1)s2a + (nb − 1)s2b
na + nb − 2
HC2 entspricht damit exakt dem Quadrat des Standardfehlers im t-Test für homogene
Varianzen.
Ist Varianzhomogenität gegeben, dann ist HC2 für ein 2-Gruppen-Design die beste
Korrektur unter allen HC-Korrekturen, so fällt die Testvarianz bei Verwendung von
HC3 um den Faktor 1/(1 − 2/n) zu gross aus – der Test ist dann folglich konservativ.
Andererseits sieht man, dass der t-Test für homogene Varianzen bei gleich großen
Stichproben auch dann genutzt werden darf, wenn die Varianzen in der Population
unterschiedlich sind. Der t-Test ist asymptotisch konsistent, da er mit der asymptotisch konsistenten HC2-Korrektur zusammenfällt.
1.22 Beispiel für einen Lokationsunterschied bei undefinierten
Erwartungswerten (6 / S. 183)
Die Verteilung mit der Dichte
f (y) =
1
bπ 1 +
y−a 2
b
24
Kapitel 1
wird als Cauchy-Verteilung bezeichnet. Die Verteilung ist symmetrisch um den Parameter a und die Breite der Verteilung wird mit dem Parameter b eingestellt.
Die t-Verteilung mit einem Freiheitsgrad ist eine Cauchy-Verteilung mit a = 0 und
b = 1.
Will man den Erwartungswert dieser Verteilung berechnen, so stellt man fest, dass
dies nicht möglich ist, da das Ergebnis der Integration „∞ − ∞“ ist. Die Verteilung
besitzt damit keinen berechenbaren Erwartungswert. Der Median ist wegen der Symmetrie um a mit dem Wert a gegeben.
Hat man nun zwei Populationen vorliegen, in denen eine Variable mit einer CauchyVerteilung gemessen wird, so können die Mediane dieser beiden Variablen eine Differenz aufweisen, was man etwa mit einem Wilcoxon-Rangsummentest überprüfen
kann (wenn in beiden Populationen die Breite der Verteilungen identisch ist). Offensichtlich ist hier ein t-Test nicht angemessen, da der Populationsparameter µ nicht
existiert.
Da der Erwartungswert nicht bestimmt werden kann, ist im übrigen auch die Varianz
der Verteilung nicht bestimmbar. Dennoch kann die Breite der Cauchy-Verteilung
mit dem Parameter b verändert werden – d.h. b ist ein Variationsparameter (nur eben
keine Varianz).
1.23 Berechnung der Verteilung des Wilcoxon-Rangsummentests (6 /
S. 183)
Insgesamt erhalten für die zwei Gruppen n + m Beobachtungen. Es gibt damit
n+m
n
unterschiedliche Rangvergaben für Gruppen mit n Beobachtungen (wir wählen praktischerweise hier die kleinere Gruppe für die Berechungen). Unter Gültigkeit der
Nullhypothese sind alle diese Möglichkeiten gleich wahrscheinlich.
Die Wahrscheinlichkeit einen bestimmten Rangsummenwert w zu erhalten ist somit
anzahl(w)
P(W = w|H0 ) =
n+m
n
Beispiel: Ist n = 2 und m = 3, gibt es insgesamt 2+3
= 10 unterschiedliche Rang2
vergaben. Die Auszählung der Möglichkeiten ergibt:
Kapitel 1 Ableitungen
w
3
4
5
6
7
8
9
Rangwerte
(1,2)
(1,3)
(1,4), (2,3)
(1,5), (2,4)
(1,6), (3,4)
(3,5)
(4,5)
25
P(W = w)
.1
.1
.2
.2
.2
.1
.1
Wie bereits im Buch betont, hängt die Berechnung der Verteilung der Teststatistik
nicht von den Daten ab.
Für das Beispiel kann die obige Tabelle wie folgt ausgewertet werden:
P(W ≤ 3|H0 ) = .1 oder P(W ≥ 9|H0 ) = .1.
1.24 Teststatistik des Wilcoxon-Rangsummentests (6 / S. 184)
Die Rangsummenstatistik W ist durch
n+m
W=
∑ i · Zi
i=1
gegeben. Hierbei ist Zi = 1, wenn der entsprechende Rang der kleineren Gruppe (mit
n Beobachtungen) zugeordnet wurde und Zi = 0 sonst. Um es etwas übersichtlicher
zu gestalten, definieren wir mit N := n + m die Größe der Gesamtstichprobe.
Es gilt
E(Zi ) =
Var(Zi ) =
Cov(Zi , Z j ) =
n
N
n·m
N2
−n · m
2
N (N − 1)
für (i 6= j)
Der Erwartungswert ist damit
N
E(W ) = ∑ iE(Zi ) =
i=1
n N
n N(N + 1) n(N + 1)
i=
=
∑
N i=1
N
2
2
26
Kapitel 1
Für die Varianz gilt
n+m
Var(W ) = Var
!
∑ i · Zi
i=1
N
=
N
N
∑ i2Var(Zi ) + ∑ ∑
i=1
i · j ·COV (Zi , Z j )
i=1 j=1;i6=i
n·m
n·m N N
− ∑ ∑ i· j 2
2
N
N
(N
− 1)
i=1 j=1;i6=i
i=1
!
n·m N 2
1 N N
∑i − N −1 ∑ ∑ i· j
N 2 i=1
i=1 j=1;i6=i

!2 
N
N
N
1
n·m 
1
i2 +
i2 −
∑
∑
∑i 
2
N
N
−
1
N
−
1
i=1
i=1
i=1

!2 
N
N
1
n·m 
1
1+
i2 −
∑
∑i 
2
N
N − 1 i=1
N − 1 i=1

!2 
N
N
n·m  N
1
∑ i2 − N − 1 ∑ i 
N2
N − 1 i=1
i=1

!2 
N
N
n·m 
N ∑ i2 − ∑ i 
N 2 (N − 1)
i=1
i=1
N
=
=
=
=
=
=
=
=
=
=
=
=
=
=
∑ i2
!
N(N + 1)(2N + 1)
N(N + 1) 2
N
−
6
2
2
N (N + 1)(2N + 1) N 2 (N + 1)2
n·m
−
N 2 (N − 1)
6
4
n · m(N + 1) 2N + 1 N + 1
−
N −1
6
4
n · m(N + 1) 2(2N + 1) 3(N + 1)
−
N −1
12
12
n · m(N + 1) 4N + 2 − 3N − 3
N −1
12
n · m(N + 1) N − 1
N −1
12
n · m(N + 1)
12
n · m(n + m + 1)
12
n·m
N 2 (N − 1)
Kapitel 1 Ableitungen
27
Im Falle von Rangbindungen ändert sich der Erwartungswert der Teststatistik bei
Gültigkeit der Nullhypothese nicht. Wie im Fall der Rangvorzeichentests ist die Varianz allerdings kleiner. Zur Korrektur werden wieder die unterschiedlichen K gebundenen Ränge gezählt (unabhängig von der Zuordnung zu der Stichprobe) und mit der
t 3 −t
Wertung bk = Nk3 −Nk die Varianz mittels
Var(W )korr =
Var(W )
t 3 −t
1 − ∑Kk=1 Nk3 −Nk
korrigiert.
Alternativ kann man auch für n > 25 und m > 25 den asymptotischen t-Test nutzen.
1.25 Der Fligner-Policello-Test (6 / S. 190)
Liegt bei dem Vergleich von zwei Gruppen Varianzheterogenität vor bzw. – allgemeiner – unterscheiden sich die beiden Verteilungen, dann ist der Wilcoxon-Rangsummentest
(bzw. der U-Test) nicht zulässig, wobei dieser dieselben Probleme aufweist wie der
thom -Test.
Als Alternative haben Fligner und Policello (1981) einen Test entwickelt, der neben
der Annahme symmetrischer Verteilungen um den Gruppenmedian keine weiteren
Annahmen braucht, also für stark unterschiedliche Verteilungen in den Gruppen anwendbar ist.
Für die Messwerte der x1 , ..., xnX der ersten Gruppe und y1 , ..., ynY werden sogenannte
Plazierungssummen gebildet:
nY
PS(xi ) =
1
∑ IND(y j < xi ) + 2 IND(y j = xi )
j=1
nX
PS(y j ) =
1
∑ IND(xi < y j ) + 2 IND(xi = y j )
i=1
Hierbei ist IND(·) die Indikatorfunktion, die den Wert 1 aufweist, wenn die Bedingung zutrifft, und 0 sonst. Unter Gültigkeit der Nullhypothese (gleiche Mediane)
ist
nX
FP =
nY
∑ PS(xi ) − ∑ PS(y j )
i=1
j=1
approximativ normalverteilt mit Erwartungswert 0 und einer Varianz, die durch
Var(FP) = 4 (VX +VY + PSX PSY )
28
Kapitel 1
geschätzt werden kann, mit
PSX
PSY
=
=
1
nX
1
nY
nX
∑ PS(xi )
i=1
nY
∑ PS(y j )
j=1
nX
VX
=
∑ (PS(xi ) − PSX )2
i=1
nY
VY
=
∑ (PS(y j ) − PSY )2
j=1
Die folgende R-Funktion kann zur Berechnung des Fligner-Policello-Tests genutzt
werden:
fligner.policello.test <- function(x,y)
{ nx<-length(x); ny<-length(y)
px<-x; py<-y
meanpx <- 0
for (i in 1:nx)
{ px[i]<-0
for (j in 1:ny)
{ if (y[j]< x[i]) px[i] <- px[i]+1
if (y[j]==x[i]) px[i] <- px[i]+0.5
}
meanpx<-meanpx + px[i]/nx
}
meanpy<-0
for (j in 1:ny)
{ py[j]<-0
for (i in 1:nx)
{ if (x[i]< y[j]) py[j] <- py[j]+1
if (y[j]==x[i]) py[j] <- py[j]+0.5
}
meanpy<-meanpy + py[j]/ny
}
Vx<-0
for (i in 1:nx)
{ Vx <- Vx + (px[i] - meanpx)*(px[i] - meanpx)
}
Vy<-0
Kapitel 1 Ableitungen
29
for (j in 1:ny)
{ Vy <- Vy + (py[j] - meanpy)*(py[j] - meanpy)
}
z <- (ny*meanpy-nx*meanpx)/
(2*sqrt(Vx+Vy+meanpx*meanpy))
p <- pnorm(z); if (p>0.5) p<-(1-p); p<-2*p
retval<-list(p,z,meanpx,meanpy,Vx,Vy)
names(retval)<-c("p","z","meanpx","meanpy","Vx","Vy")
return (retval)
}
1.26 Normalverteilungsapproximation der Teststatistik für den
Wilcoxon-Vorzeichen-Rangtest für abhängige Stichproben (6 / S.
197)
Diese Thematik wurde bereits im Zusammenhang mit (3 / S. 88) behandelt.
1.27 Symmetrie-Tests (6 / S. 198)
Wie in Holling und Gediga (2011) gezeigt, kann anhand des Abstands Ȳ − Ymed abgelesen werden, ob eine Verteilung schief ist.
Cabilio und Masaro (1996) nutzen als Teststatistik
C=
Ȳ −Ymed
S
wobei S die Standardabweichung der Daten schätzt. C ist hierbei (bei normalverteilten Daten) N(0, 0.5708)-verteilt.
Da ein Symmetrie-Test zu Beginn des Datenanalyseprozesses genutzt wird, können
noch Ausreißer in den Daten vorliegen. Man ersetzt dann besser (Miao, Gel & Gastwirth, 2006) S durch die robuste Schätzung J mit
r
π ∑ j |Yi −Ymed |
J=
·
.
2
n
Hierbei schätzt J in normalverteilten Populationen wieder die Standardabweichung
und
Ȳ −Ymed
CJ =
J
ist bei Normalverteilung wieder N(0, 0.5708)-verteilt.
30
Kapitel 1
1.28 Der Fligner-Policello-Test (6 / S. 213)
Diese Thematik wurde schon unter den Ausführungen zum Fligner-Policello-Test (6
/ S. 190) behandelt.
1.29 Berechnung der Mittelwerte im Fall gleich großer Gruppen in der
einfaktoriellen Varianzanalyse (7 / S. 230)
Y •• =
Bei gleich großen Gruppen gilt:
Damit resultiert:
1
n
=
Y •• =
=
=
nj
J
1
n
∑ ∑ Yi j
j=1 i=1
1
J×n j .
1
J ×nj
1
J
J
nj
∑ ∑ Yi j
j=1 i=1
nj
J
∑i=1 Yi j
∑
nj
j=1
1 J
∑Y•j
J i=1
1.30 χ 2 -Verteilung von SSBG /σ 2 in der einfaktoriellen Varianzanalyse
(7 / S. 231)
Ausgangspunkt bildet die Zerlegung der Abweichungsquadrate der Gruppenmittelwerte vom Populationsmittelwert µ:
J
I ∑ Y•j − µ
2
j=1
J
= I ∑ Y • j −Y ••
j=1
2
J
= I ∑ Y • j −Y •• +Y •• − µ
j=1
J
+ I ∑ Y •• − µ
j=1
J
= I ∑ Y • j −Y ••
j=1
2
2
2
J
+ 2I ∑ Y • j −Y •• )(Y •• − µ
j=1
+ IJ Y •• − µ
2
Kapitel 1 Ableitungen
31
Der letzte Term in der vorletzten Gleichung fällt weg, weil die Summe der Abweichungen der Gruppenmittelwerte vom Gesamtmittelwert 0 ist. Der zweite Term in
der letzten Gleichung ergibt sich dadurch, dass J mal über eine Konstante summiert
wird.
J
I ∑ Y • j −Y ••
2
+ IJ Y •• − µ
2
= SSBG + IJ Y •• − µ
2
j=1
Der erste Term wird nun durch SSBG ersetzt. Anschließend wird auf beiden Seiten
der Gleichung durch σ 2 geteilt.
I ∑Jj=1 Y • j − µ
σ2
2
SSBG IJ Y •• − µ
= 2 +
σ
σ2
2
Y •• − µ
SSBG
= 2 +
σ
σ 2 /IJ
∑Jj=1 Y • j − µ
σ 2 /I
2
2
√
Da alle Y • j unter der Nullhypothese i.i.d. N( µ,σ / I) verteilt sind, ist der Term auf
der linken Seite der Gleichung χ 2 -verteilt mit J Freiheitsgraden. Der zweite Term
auf der rechten Seite der Gleichung ist χ 2 -verteilt mit einem Freiheitsgrad. Weil die
beiden Terme auf der rechten Seite der Gleichung statistisch unabhängig sind und
aufgrund der Additivität der χ 2 -Verteilung folgt, dass SSBG /σ 2 unter der Nullhypothese χ 2 -verteilt ist mit J-1 Freiheitsgraden.
1.31 Die Deffizienz in der einfaktoriellen Varianzanalyse (7 / S. 235)
Beispiele für notwendige Stichprobenumfänge bei ungleich
besetzten Zellen in der einfaktoriellen Varianzanalyse (7 / S.
235)
Betrachtet man die Power für die generelle Nullhypothese in der einfaktoriellen wie
auch mehrfaktoriellen Varianzanalyse in Abhängigkeit von den Stichprobenumfängen der Gruppen, so ergibt sich eine maximale Power, wenn gleich große Stichprobenumfänge für die Gruppen, d. h. ein balanciertes Design, gewählt werden. Das
gleiche Resultat gilt für die D-Optimalität, d. h. der Minimierung des Volumens der
Konfidenzellipsoide für die Parameterschätzungen bzw. die Miminierung der korrespondierenden Deffizienz. Gezeigt wurde dieses Resultat bereits für den t-Test für
homogene Varianzen, der ein Spezialfall der Varianzanalyse ist. Formal ist für die
32
Kapitel 1
Erzielung der D-Optimalität das Produkt der Stichprobenumfänge ∏Jj=1 n j zu minimieren. Diese Produkt wird im Falle gleich großer Stichprobenumfänge n j minimal
(vgl. Silvey, 1980).
Beim t-Test für homogene Varianzen konnte der Verlust der Power bzw. Deffizienz
einfach als Funktion des prozentualen Stichprobenumfangs einer der beiden Gruppen
dargestellt werden. Bei der Varianzanalyse ist aber das Verhältnis des Stichprobenumfangs mehrerer Gruppen zu berücksichtigen. Hier kann man für bestimmte Fälle
die Deffizienz anhand bestimmter EDV-Programme zur Berechnung der Power für
unbalancierte (und damit natürlich auch für balancierte) Fälle bestimmen, wie z. B.
anhand des Moduls zur Powerberechnung des Programmpakets STATA.
Wir zeigen als Beispiel die Deffizienz anhand eines 2 x 4-Designs. In der folgenden
Tabelle sind unterschiedliche Designs dargestellt, wobei das Design 1 balanciert ist,
d. h. gleich große Stichprobenumfänge besitzt. Für die übrigen unbalancierten Designs ist jeweils die Deffizienz angegeben.
1
Factor B
2
3
4
Deffizienz
Factor A
Design 1
1
2
0.125
0.125
0.125
0.125
0.125
0.125
0.125
0.125
Design 2
1
2
0.175
0.075
0.175
0.075
0.175
0.075
0.175
0.075
1.092
Design 3
1
2
0.200
0.200
0.150
0.150
0.100
0.100
0.050
0.050
1.130
Design 4
1
2
0.250
0.125
0.200
0.100
0.150
0.050
0.100
0.025
1.225
1.32 Verteilung eines Kontrastes unter der Nullhypothese (7 / S. 238)
Wie bereits ausgeführt wurde, sind die Schätzer Y • j statistisch unabhängig. Weiterhin
√
gilt Y • j ∼ N(µ, σ / n j ). Da es sich bei dem Schätzer L̂ = ∑Jj=1 c jY • j somit um
eine Linearkombination unabhängig normalverteilter Zufallsvariablen handelt, ist er
ebenfalls normalverteilt (Sahai & Ageel, 2000, S. 67). Daher gilt:
Kapitel 1 Ableitungen
33
√(L̂−L)
√(L̂−L)
(L̂ − L)
z
Var(L̂)
Var(L̂)
q
=q
=q
= t(J − 1)
=q
q
2
d
χ (n−J)
(n−J)Var(L̂)/Var(L̂)
d L̂)
d L̂)/ Var(L̂)
Var(
Var(
n−J
n−J
d L̂) ein Schätzer für Var(L̂) mit n − J Freiheitsgraden ist.
Dies folgt, weil Var(
Vgl. hierzu auch Kirk (1995, S. 124 – 125, S. 129 – 131).
1.33 Zur Schätzung des Standardfehlers bei homogenen Varianzen (7 /
S. 243)
MSW , ein erwartungstreuer und konsistenter Schätzer für σ , schöpft die gesamte Information aus und nicht nur die Information, die auf zwei Gruppen beruht.
1.34 Beispiel zum REGWQ-Verfahren (7 / S. 247)
Das REGWQ-Verfahren bezeichnet eine top-down Testprozedur für alle paarweisen
Vergleiche einer Gruppe von Mittelwerten. Die Stärke des Verfahrens liegt in der Verwendung adjustierter α-Niveaus für verschiedene Stufen des Testverfahrens. Für die
Adjustierung des α-Niveaus werden zunächst die m Mittelwerte der Größe nach geordnet. Das α-Niveau variiert dann als eine Funktion der Schritte, durch die zwei Mittelwerte voneinander getrennt sind. Die Differenz der beiden Mittelwerte, die durch
r = m Schritte getrennt sind, (also der größte und der kleinste Mittelwert) wird zum
Signifikanzniveau α getestet. Anschließend werden alle Mittelwerte, die durch r = m
- 1 Schritte getrennt sind, ebenfalls zum Signifikanzniveau α getestet. Mittelwerte,
die durch r = m - 2, m - 3, . . . , 2 Schritte getrennt sind, werden zum adjustierten Signifikanzniveau ar = 1 − (1 − a)r/m getestet. Fällt ein Vergleich zweier Mittelwerte
nicht signifikant aus, so sind durch Implikation alle paarweisen Vergleiche, die durch
diese Mittelwerte eingeschlossen werden, nicht signifikant.
Die Teststatistik des REGWQ-Verfahrens bildet die studentisierte Range-Statistik:
• j−Y • k
Q = Yq
MS
W
I
34
Kapitel 1
Der kritische Wert, mit dem diese Teststatistik verglichen wird, ist qar (r, v). Dabei
bezeichnet qar das ar Quantil der stundentisierten Range Verteilung, r die Anzahl der
Schritte zwischen Y • j und Y • k und v bezeichnet die Anzahl der Freiheitsgrade, die
mit MSW assoziiert sind, d.h. v = n − J. Die Nullhypothese H0 : µ j − µk = 0 wird
abgelehnt, wenn Q betragsmäßig größer ist als qar (r, v) und der Paarvergleich nicht
durch Implikation eines Paarvergleichs auf höherer Stufe nicht signifikant ist.
Ein Beispiel soll die Durchführung des REGWQ-Verfahrens verdeutlichen. Die folgenden Mittelwerte seien in einem einfaktoriellen Experiment mit fünf Faktorstufen
beobachtet worden.
Y • 1 = 36.7
Y • 2 = 48.7
Y • 3 = 43.4
Y • 4 = 47.2
Y • 5 = 40.3
In dem Experiment wurden 45 Versuchspersonen zufällig den einzelnen Faktorstufen zugewiesen. Für jede der Faktorstufen kann Normalverteilung angenommen werden. Weiterhin sind die Varianzen der Faktorstufen homogen. MSW ergibt sich zu
29.0322.
Zunächst müssen die Mittelwerte nach ihrer Größe geordnet werden. Der Einfachheit
halber, werden die Indizes der Mittelwerte so geändert, dass Y • 1 den kleinsten Mittelwert bezeichnet und Y • 5 den größten.
Y • 1 = 36.7
Y • 2 = 40.3
Y • 3 = 43.4
Y • 4 = 47.2
Y • 5 = 48.7
Die folgende Tabelle zeigt die Differenzen der Mittelwerte für alle möglichen Paarvergleiche.
Y • 1 = 36.7
Y • 2 = 40.3
Y • 3 = 43.4
Y • 4 = 47.2
Y • 5 = 48.7
Y • 1 = 36.7
-
Y • 2 = 40.3
3.6
-
Y • 3 = 43.4
6.7
3.1
-
Y • 4 = 47.2
10.5
6.9
3.8
-
Y • 5 = 48.7
12.0
8.4
5.3
1.5
-
Es wird deutlich, dass keine weiteren signifikanten Ergebnisse zu erwarten sind, wenn
der Vergleich von Y • 1 und Y • 5 nicht signifikant ausfällt. Indem über spätere Vergleiche durch Implikation früherer Vergleiche entschieden wird, wird ein kohärentes
Kapitel 1 Ableitungen
35
Vorgehen gesichert. Außerdem kann sich der Rechenaufwand z.T. erheblich reduzieren.
Die sequenzielle Testprozedur wird durch die folgende Tabelle verdeutlicht. Die kritischen Werte der studentisierten Range Verteilung lassen sich dabei z.B. mit der
Funktion qtukey im Programmpaket R berechnen. In der Tabelle lässt sich erkennen,
dass die Hypothesen µ1 − µ5 = 0, µ1 − µ4 = 0, µ2 − µ5 = 0 und µ2 − µ4 = 0 abgelehnt
werden können. Da die Hypothesen µ1 − µ3 = 0 und µ3 − µ5 = 0 beibehalten werden
müssen, werden auch die übrigen Hypothesen durch Implikation beibehalten. Denn
wenn z.B. die Differenz von Y • 1 und Y • 3 nicht signifikant ist, kann die Differenz von
Y • 1 und Y • 2 nicht signifikant sein.
Anzahl
der
Schritte
zwischen
den
Mittelwerten
Hypothese
|Q|
5
µ1 − µ5 = 0
6.68
4
4
µ1 − µ4 = 0
µ2 − µ5 = 0
5.85
4.68
3
3
3
µ1 − µ3 = 0
µ2 − µ4 = 0
µ3 − µ5 = 0
3.73
3.84
2.95
2
2
2
2
µ1 − µ2 = 0
µ2 − µ3 = 0
µ3 − µ4 = 0
µ4 − µ5 = 0
2.00
1.73
2.12
0.84
REGWQ kritischer Wert und
Testentscheidung
q.05 (5, 40) = 4.04
S
q.05 (4, 40) = 3.79
S
S
q.0303 (3, 40) =
3.75
NS
S
NS
q.0203 (2, 40) =
3.42
NSI
NSI
NSI
NSI
Anmerkung: S = signifikant, NS = nicht signifikant, NSI = nicht signifikant durch
Implikation
Die Ausführungen in diesem Abschnitt sind an Kirk (1995, S. 150 – 154) angelehnt.
Dort werden auch das REGWF- und das REGWFQ-Verfahren vorgestellt. Die Abweichungen in der letzten Tabelle ergeben sich dabei durch eine genauere Berechnung der α-Werte.
36
Kapitel 1
1.35 Äquivalenz des zweiseitigen Wilcoxon-Rangsummen-Tests und
des Kruskal-Wallis-Tests bei zwei Stichproben (7 / S. 249)
H=
12
n(n + 1)
R2j
∑ − 3(n + 1)
j=1 n j
J
Hierbei waren mit R j die Summen der Ränge in den Gruppen 1, . . . , J bezeichnet.
Die Teststatistik des Wilcoxon-Rangsummen-Tests ist
n1
W = ∑ rg(xi ) = R1
i=1
Um den zweiseitigen Wilcoxon-Rangsummen-Test kompakt zu beschreiben, betrachten wir den Abstand der Rangsumme vom Erwartungswert der Rangsumme
W ∗ = R1 −
n1 (n + 1)
2
Für den zweiseitigen Test ist das Quadrat von W ∗ die adäquate Teststatistik. Für zwei
Gruppen gilt

H=
12  R21
 +
n(n + 1) n1
n(n+1)
2
− R1
2 
n2

 − 3(n + 1)
Wir setzen zunächst alle Konstanten, die einen monotonen Zusammenhang nicht verändern, auf leicht zu bearbeitende Werte und erhalten eine modifizierte Statistik
h=
R21
n1
+
n(n+1)
2
− R1
n2
2
Kapitel 1 Ableitungen
37
einsetzen von W ∗ ergibt
h =
=
=
=
=
=
=
=
2
W ∗ + n1 (n+1)
2
n1
2
W ∗ + n1 (n+1)
2
n1
n21
+
+
n+1 2
n(n+1)
2
−W ∗ − n1 (n+1)
2
2
n2
n2 (n+1)
2
−W ∗
2
n2
2
n+1
∗
2
2 −W /n2
+ n2
n2
2
2
n+1
n+1
∗
+ n2
−W /n2
W ∗ /n1 + 2
n1
n1 W ∗ /n1 +
2
2
2
(n + 1)
(n + 1)2
∗
2
∗
∗
∗
2
n1 (W /n1 ) +
+ (n + 1)W /n1 + n2
− (n + 1)W /n2 + (W /n2 )
4
4
n2 (n + 1)2
n1 (n + 1)2
+ (n + 1)W ∗ +
− (n + 1)W ∗ +W ∗2 /n2
W ∗2 /n1 +
4
4
n1 (n + 1)2 n2 (n + 1)2
W ∗2 /n1 +
+
+W ∗2 /n2
4
4
1
1
n(n + 1)2
∗2
W
+
+
n1 n2
4
Da h und W ∗2 positiv linear miteinander verknüpft sind, sind H und W (im zweiseitigen Testfall) äquivalente Statistiken.
1.36 Schätzer der mehrfaktoriellen Varianzanalyse bei gleichen
Zellenbesetzungen (7 / S. 259)
Da bei gleicher Zellenbesetzung n = I × J × K gilt (Kutner, Nachtsheim, Neter & Li,
2005, S. 830), ergibt sich
Y ••• =
=
=
1 I J K
∑ ∑ ∑ Yi jk
n i=1
j=1 k=1
I J K
1
∑ ∑ ∑ Yi jk
I × J × K i=1
j=1 k=1
1
J ×K
∑Ii=1 Yi jk
I
j=1 k=1
J
K
∑∑
38
Kapitel 1
=
=
J
1
J ×K
1
J ×K
K
∑ ∑ Y • jk
j=1 k=1
J
K
∑ ∑ µ̂ jk = µ̂
j=1 k=1
Entsprechend ergeben sich
Y • j• =
=
1 K ∑Ii=1 Yi jk
∑ I
K k=1
=
=
1 I K
∑ ∑ Yi jk
I × K i=1
k=1
1 K
∑ Y • jk
K k=1
1 K
∑ µ̂ jk = µ̂ j•
K k=1
und
Y ••k =
=
=
1 I J
∑ ∑ Yi jk
I × J i=1
j=1
1
J
∑Ii=1 Yi jk
I
j=1
=
1
J
1
J
J
∑
J
∑ Y • jk
j=1
J
∑ µ̂ jk = µ̂•k
j=1
1.37 Mehrfaktorielle Varianzanalyse bei ungleichen Zellenbesetzungen
im allgemeinen linearen Modell (7 / S. 260)
Wir verweisen hier auf Kutner, Nachtsheim, Neter und Li (2005, S. 953 – 964).
Kapitel 1 Ableitungen
39
1.38 Verteilung der Quadratsummen in der zweifaktoriellen
Varianzanalyse (7 / S. 263)
SST /σ 2 folgt einer χ 2 -Verteilung mit IJK − 1 Freiheitsgraden, da gilt:
2
2
2
∑Ii=1 ∑Jj=1 ∑Kk=1 (Y i jk −Y ••• )
∑Ii=1 ∑Jj=1 ∑Kk=1 (Y i jk − µ)
(Y ••• − µ)
=
+
σ2
σ2
σ 2 /IJK
SSA /σ 2 folgt einer χ 2 -Verteilung mit J − 1 Freiheitsgraden, da gilt:
J
IK ∑ Y • j• − µ
2
j=1
J
= IK ∑ Y • j• −Y •••
j=1
2
J
= IK ∑ Y • j• −Y ••• +Y ••• − µ
2
j=1
J
+ IK ∑ Y ••• − µ
2
j=1
J
= IK ∑ Y • j• −Y •••
2
J
+ 2IK ∑ (Y • j• −Y ••• ) Y ••• − µ
j=1
+ IJK Y ••• − µ
2
j=1
Der Kreuzterm fällt weg, weil die Summe der Abweichungen der Gruppenmittelwerte vom Gesamtmittelwert 0 ist. Nun wird der erste Term auf der rechten Seite der
Gleichung durch SSA ersetzt.
J
IK ∑ Y • j• −Y •••
2
+ IJK Y ••• − µ
2
= SSA + IJK Y ••• − µ
2
j=1
Anschließend werden beide Seiten der Gleichung durch σ 2 geteilt.
IK ∑Jj=1 Y • j• − µ
σ2
2
SSA IJK Y ••• − µ
= 2 +
σ
σ2
2
2
Y ••• − µ
∑Jj=1 Y • j• − µ
SSA
= 2 +
σ 2 /IK
σ
σ 2 /IJK
2
√
Da alle Y • j• unter der Nullhypothese i.i.d. N(µ, σ / IK) verteilt sind, entspricht die
linke Seite der Gleichung einer χ 2 -Verteilung mit J Freiheitsgraden. Der zweite Term
auf der rechten Seite der Gleichung folgt einer χ 2 -Verteilung. Aus der Additivität der
χ 2 -Verteilung folgt, dass SSA /σ 2 χ 2 -verteilt ist mit J − 1 Freiheitsgraden.
40
Kapitel 1
Analog lässt sich zeigen, dass SSB einer χ 2 -Verteilung mit K − 1 Freiheitsgraden
folgt.
SSAB /σ 2 folgt einer χ 2 -Verteilung mit (I − 1)(J − 1) Freiheitsgraden, da gilt:
J
K
I∑
∑
Y • jk − µ
2
J
K
K
2
Y
+
â
−
â
+
β̂
−
β̂
+Y
−Y
−
µ
∑ • jk j j k k ••• •••
j=1 k=1
j=1 k=1
=I∑
J
=I ∑
2
∑ (Y • jk +2Y • jk â j −2Y • jk â j +2Y • jk β̂k −2Y • jk β̂k +2Y jkY ••• −2Y • jkY ••• −2Y • jk µ
j=1 k=1
+2â2j − 2â2j + 4â j β̂k − 4â j β̂k + 4â jY ••• − 4â jY ••• − 2â j µ
+2â j µ + 2β̂k2 + 4β̂kY ••• − 4β̂kY ••• − 2β̂k µ − 2β̂k2
2
2
+2β̂k µ + 2Y ••• − 2Y ••• − 2Y ••• µ + 2Y ••• µ + µ 2 )
J
= I∑
K
2
∑ ((Y • jk − 2Y • jk â j − 2Y • jk β̂k − 2Y • jkY ••• +â2j + β̂k2
j=1 k=1
2
2
+Y ••• ) + â2j + β̂k2 + Y ••• − 2Y ••• µ + µ 2 + (2Y • jk â j
2
−2â2j + 2Y • jk β̂k − 2β̂k2 + 2Y • jkY ••• − 2Y ••• − 2Y • jk µ + 2Y ••• µ))
Der Term in der letzten Klammer auf der rechten Seite der Gleichung ist 0, denn:
J
K
I∑
∑ (2Y • jk β̂k − 2β̂k2 ) = 0
j=1 k=1
J
I∑
K
J
2
∑ (2Y • jkY ••• − 2Y ••• ) = 2Y ••• I ∑
J
∑ (Y • jk −Y ••• ) = 2Y ••• I · 0 = 0
j=1 k=1
j=1 k=1
I∑
K
K
J
K
∑ (−2Y • jk µ + 2Y ••• µ) = − 2µI ∑ ∑
j=1 k=1
j=1 k=1
Der Rest der obigen Gleichung ergibt sich zu:
Y • jk −Y ••• = −2µI · 0 = 0
Kapitel 1 Ableitungen
J
K
41
2
∑ ((Y • jk − 2Y • jk â j − 2Y • jk β̂k − 2Y • jkY ••• +â2j + β̂k2
I∑
j=1 k=1
2
2
+Y ••• ) + â2j + β̂k2 + (Y ••• − 2Y ••• µ + µ 2 ))
J
=I∑
K
2
2
Y • jk − â j − β̂k −Y ••• + â2j + β̂k2 + Y ••• − µ )
∑(
j=1 k=1
J
=I∑
K
∑ ( Y • jk −Y • j • −Y • • k +Y •••
2
2
+ â2j + β̂k2 + Y ••• − µ )
j=1 k=1
J
=I∑
K
2
∑ (SSAB + SSA + SSB + IJK(Y ••• − µ) )
j=1 k=1
Nun werden beide Seiten der Gleichung durch σ 2 geteilt:
∑Jj=1 ∑Kk=1 Y • jk − µ
σ 2 /I
2
2
=
SSAB SSA SSB (Y ••• − µ)
+ 2 + 2 +
σ2
σ
σ
σ 2 /IJK
SSW /σ 2 folgt einer χ 2 -Verteilung mit JxKx(I − 1) Freiheitsgraden, da gilt:
Ausgehend von der Quadratsummenzerlegung (s. a. nächsten Abschnitt dieses Internetsupplements)
SST = SSA + SSB + SSAB + SSW
teilt man beide Seiten der Gleichung durch σ 2 :
SSA SSB SSAB SSW
SST
= 2 + 2 + 2 + 2
2
σ
σ
σ
σ
σ
Es wurde gezeigt, dass SSA /σ 2 , SSB /σ 2 und SSAB /σ 2 jeweils χ 2 -verteilt sind mit J −
1, K − 1 und (J − 1) × (K − 1) Freiheitsgraden. Aus der Additivität der χ 2 -Verteilung
und der Unabhängigkeit der Terme auf der rechten Seite der Gleichung folgt daher,
dass SSW /σ 2 χ 2 -verteilt ist mit J × K × (I − 1) Freiheitsgraden (vgl. hierzu auch
Khuri, 2009, S. 132 ff. oder Scheffé, 1959, S. 106ff.).
42
Kapitel 1
1.39 Varianzanteile in der zweifaktoriellen Varianzanalyse (7 / S. 265)
J
SSBG = I ∑
K
2
∑ (Y • jk −Y ••• )
j=1 k=1
J
K
2
∑ (Y • jk + â j − â j + β̂k − β̂k −Y ••• )
=I∑
j=1 k=1
J
K
=I∑
2
∑ (â j + β̂k + (Y • jk − â j − β̂k −Y ••• ))
j=1 k=1
J
=I∑
K
2
∑ (â j + β̂k + (Y • jk −Y • j• −Y ••k +Y ••• ))
j=1 k=1
J
K
=I∑
2
c) )
∑ (â j + β̂k + (aβ
jk
j=1 k=1
J
=I∑
K
2
2
2
c
c
c) )
(
â
+
β̂
+
aβ
+
2
â
β̂
+
2
â
aβ
+ 2β̂k (aβ
j
j
k
∑ j k
jk
jk
j=1 k=1
J
jk
K
2
2
2
c )
(
â
+
β̂
+
∑ j k aβ
=I∑
jk
j=1 k=1
Denn:
J
(1)
K
I∑
J
j=1 k=1
J
(2)
J
j=1
j=1
k=1
K
I∑
J
K J
c
c
2
â
aβ
=
2I
â
aβ
=2I
∑ j
∑ j∑
∑ â j · 0 = 0
jk
j=1 k=1
J
K
∑ 2â j β̂k = 2I ∑ â j ∑ β̂k =2I ∑ â j · 0 = 0
j=1
jk
k=1
j=1
K
(3) I ∑
K
J K
c
c
2
β̂
aβ
=
2I
β̂
aβ
=2I
∑ k
∑ k∑
∑ β̂k · 0 = 0
jk
j=1 k=1
k=1
jk
j=1
k=1
Weiterhin ergibt sich:
J
K
J
SSBG = IK ∑ â2j + IJ ∑ β̂k2 + I ∑
j=1
k=1
K
2
c
∑ aβ
j=1 k=1
SSBG = SSA + SSB + SSAB
jk
Kapitel 1 Ableitungen
43
1.40 Einzelvergleiche in der Varianzanalyse mit Messwiederholung (8 /
S. 286)
Die Einzelvergleiche in der Varianzanalyse mit Messwiederholung verlaufen analog
zu den Einzelvergleichen in der Varianzanalyse ohne Messwiederholung, wie in Holling und Gediga (Bd 3, S. 237 ff.) dargestellt. Eine ausführlichere Darstellung dieser
Thematik findet sich z. B. in Keppel und Wickens (2004, S. 408 ff.).
1.41 Test für zufällige Personeneffekte in der einfaktoriellen
Varianzanalyse mit Messwiederholung (8 / S. 288)
Warum lassen sich mit dem Ausdruck FBS =
zufällige Personeneffekt testen?
SSBS /(I−1)
SSE /((I−1)(J−1))
sowohl feste als auch
In der Varianzanalyse ist ein F-Bruch das Verhältnis aus zwei Variablen, die dieselbe
Populationsvarianz schätzen. Der adäquate F-Bruch, um einen spezifischen Effekt
zu testen folgt daher einer bestimmten Form: Im Nenner steht ein Term, welcher die
Fehlervarianz schätzt. Im Zähler steht ein Term, welcher die Fehlervarianz schätzt
und zusätzlich diejenige Varianz, die auf den zu testenden Effekt zurückgeht, falls
dieser existiert. Da unter der Nullhypothese angenommen wird, dass es keinen Effekt
gibt, schätzen Zähler und Nenner unter der Nullhypothese dieselbe Varianz.
Die folgende Tabelle zeigt, welche Varianzen in der einfaktoriellen Varianzanalyse
mit Messwiederholung nach Kirk (1995) durch die mittleren Abweichungsquadrate
geschätzt werden.
Mittlere Abweichungsquadrate
MSBG
MSBS
MSE
Feste Personeneffekte
σe2 + I ∑Jj=1 a2j /(J − 1)
σe2 + J ∑Ii=1 p2j /(I − 1)
σe2
Zufällige Personeneffekte
σe2 + I ∑Jj=1 a2j /(J − 1)
σe2 + σπ2
σe2
Daraus wird ersichtlich, dass MSBS einmal einen Ausdruck für die Effekte der Personen, die von ausschließlichem Interesse sind (feste Personeneffekte), und einmal
einen Ausdruck für die Varianz aller Personen in einer Population von Interesse
schätzt (zufällige Personeneffekte). In beiden Fällen aber, wird auch die Fehlervarianz σe2 geschätzt. Somit sind in beiden Fällen die Anforderungen an einen adäquaten
F-Bruch erfüllt: Unter der Nullhypothese
44
Kapitel 1
H0 : πi = 0 für alle i = 1, . . . , I
schätzt MSBS die Fehlervarianz σe2 und ebenso unter der Nullhypothese
H0 : sπ = 0.
Vgl. hierzu Kirk (1995, S. 201 – 202, S. 259 – 261)
1.42 Feste vs. zufällige Effekte in der Varianzanalyse (8 / S. 288); (8 / S.
289)
Der zentrale Unterschied zwischen festen und zufälligen Effekten in der Varianzanalyse betrifft die Festlegung, ob man feste Ausprägungen der Faktoren oder die Stufen
der Faktoren zufällig aus einer Verteilung zieht. In diesem Fall ist eine Verteiungsannahme für den Faktor erforderlich. Bei festen Effekten interessieren gewöhnlich
nur die Faktorstufen, die in das Experiment aufgenommen werden. Hat z. B eine
Firma eine feste Anzahl möglicher Designs für die Verpackung eines neuen Produkts entworfen, dürfte sie daran interessiert sein, ob diese Designs zu unterschiedlichem Kaufverhalten bei den Kunden führen. Diese Fragestellung korrespondiert
mit der Hypothesenstellung der einfaktoriellen Varianzanalyse mit festen TreatmentEffekten:
H0 : α j = 0 für alle j = 1, . . . , J gegen H1 : α j 6= 0 für mindestens ein j
Wird die Nullhypothese abgelehnt, kann die Firma annehmen, dass es Unterschiede
im Kaufverhalten gibt, die sich auf das unterschiedliche Produktdesign zurückführen
lassen. Oder genauer: Mindestens zwei der Subpopulationsmittelwerte µ j unterscheiden sich. Aussagen über andere Produktdesigns als diejenigen, die in die Untersuchung einbezogen wurden, können aber nicht gemacht werden. Schließlich kommen
in der Hypothese auch nur die interessierenden Produktdesigns vor.
Bei zufälligen Effekten verhält sich dies anders. Angenommen, dieselbe Firma befände sich an einer früheren Stufe der Produktforschung. Von Interesse sei nun nicht,
ob es Unterschiede zwischen bestimmten Designs gibt, sondern ob es sich überhaupt
lohnt, über verschiedene Designs nachzudenken. Das heißt, ob es für die Population
möglicher Designs Unterschiede im Kaufverhalten gibt.
Zur Beantwortung dieser Fragestellung wird für die Treatment-Effekte eine Wahrscheinlichkeitserteilung angenommen, im Allgmeinen, dass die Treatment-Effekte
Kapitel 1 Ableitungen
45
i.i.d. normalverteilt, d. h. N(0, σα ). Wenn verschiedene Produktdesigns zu unterschiedlichem Kaufverhalten führen, gilt offenbar σα ) > 0. Die Hypothesen für die einfaktorielle Varianzanalyse mit zufälligen Effekten lassen sich somit formulieren als:
H0 : σα = 0 gegen H1 : σα > 0
Durch die Modellannahme, wonach die einzelnen Effekte zufällig aus einer normalverteilten Population möglicher Effekte gezogen werden, ändert sich die grundsätzliche Fragestellung bzw. der Fokus der statistischen Inferenz. Wenn die Nullhypothese
abgelehnt wird, kann nun auf die hypothetische Population unendlich vieler möglicher Produktdesigns geschlossen werden: Die möglichen Effekte α j unterscheiden
sich mehr oder weniger stark. Das Ausmaß der Unterschiede lässt sich anhand der
Varianz σα beurteilen.
Wie bei dem Personeneffekt in der einfaktoriellen Varianzanalyse mit Messwiederholung werden die Nullhypothese bei Modell mit festen wie beim Modell mit zufälligen
Effekten mit demselben F-Bruch getestet (Kirk, 1995):
F=
MSBG
MSW
Daher wird auch bei dem Personeneffekt in der einfaktoriellen Varianzanalyse mit
Messwiederholung die Nullhypothese beim Modell mit festen wie beim Modell mit
zufälligen Effekten mit demselben F-Bruch getestet:
F=
MSBG
MSW
Im Allgemeinen lässt sich festhalten, dass eine Modellierung mit festen Effekten
dann angemessen ist, wenn die verwendeten Faktorstufen die einzigen Faktorstufen
von Interesse sind. Dann bezieht sich die statistische Inferenz auf die Unterschiedlichkeit genau dieser Faktorstufen. Wenn aber auch andere Faktorstufen von Interesse
sind und die Annahme adäquat ist, dass die Faktorstufen zufällig aus einer größeren Population möglicher Faktorstufen mit einer bestimmteen Verteilung ausgewählt
46
Kapitel 1
wurden, ist ein Modell mit zufälligen Effekten adäquat. Dann richtet sich die statistische Inferenz auf die Varianz aller möglichen Stufen eines Faktors, wobei aber nur
eine zufällige Auswahl in die Studie einbezogen wurde.
In mehrfaktoriellen Studien können alle Faktoren oder Teilmengen der Faktoren zufällig sein. Dann sind die F-Brüche im Allgemeinen nicht identisch mit denen aus
mehrfaktoriellen Studien mit lediglich festen Faktoren. Für solche komplexeren Analysen verweisen wir auf die einschlägige Literatur, wei z. B. Kirk (1995).
1.43 Der Tukey-Test auf Linearität (8 / S. 289)
Wie bereits ausgeführt wurde, lässt sich die Interaktion in der einfaktoriellen Varianzanalyse nicht unabhängig vom Fehler schätzen. Allerdings konnte Tukey (1949)
zeigen, dass sich aus dem Ausdruck für die Personen-Treatment-Interaktion ein Term
für die Nicht-Additivität mit einem Freiheitsgrad extrahieren lässt. Dieser lässt sich
dann mit einem F-Test auf Signifikanz testen. Die Quadratsumme berechnet sich wie
folgt (vgl. Kirk, 1995):
2
SSNicht−Additivit ät
(∑Ii=1 ∑Jj=1 (Y • i −Y •• )(Y • j −Y •• )Yi j )
=
(SSBG )(SSBS )
Der adäquate Fehlerterm ist nach Tukey (1949) SSAP −SSNicht−Additivit ät = SSRest , wobei
I
SSAP =
J
2
∑ ∑ (Yi j −Y i• −Y • j +Y •• )
i=1 j=1
SSRest besitzt (I − 1) (J − 1) − 1 Freiheitsgrade. Der F-Bruch für den Test auf Linearität ist somit gegeben durch:
F=
SSNicht−Additivit ät
SSRest /((I − 1) (J − 1) − 1)
Kapitel 1 Ableitungen
47
Er folgt einer F(1, (I − 1) (J − 1) − 1)-Verteilung. Der kritische Wert zum Signifikanzniveau α ist gegeben durch Fa (1, (I − 1) (J − 1) − 1). Um einen Fehler zweiter
Art zu vermeiden ist dabei zu empfehlen, die Wahrscheinlichkeit für einen Fehler
erster Art auf a = .10 oder höher zu setzen (Kirk, 1995).
Fällt der Test nicht signifikant aus, kann davon ausgegangen werden, dass die Modellgleichung ohne Interaktionseffekt adäquat ist. Andernfalls kann in Erwägung gezogen werden, die vorliegenden Daten so zu transformieren, dass Linearität gegeben
ist (Tukey, 1949; Kirk, 1995).
1.44 Zur Sphärizitätsannahme (8 / S. 292)
Wie bereits ausgeführt wurde, ist die Sphärizitätsannahme der einfaktoriellen Varianzanalyse mit Messwiederholung erfüllt, wenn die Varianzen der Differenzen aller
möglichen Paare von Faktorstufen auf Populationsebene gleich sind. Das bedeutet
(Winer, Brown & Michels, 1991)
σY2j −Y j0 = 2λ für alle j und j0 , wobei j 6= j0 und λ eine beliebige Konstante.
Erfüllt eine Kovarianzmatrix ∑x diese Bedingung, ist sie zirkulär. Aber weshalb
spricht man dann von Sphärizität? Um dies nachzuvollziehen, muss die obige Bedingung etwas anders notiert werden:
0
M∗ ∑ M∗ = λ I
x
Hierbei handelt es sich um eine orthonormale Transformation der Kovarianzmatrix
∑x . Im Folgenden soll auf die einzelnen Komponenten dieser Gleichung etwas genauer eingegangen werden.
M ∗ bezeichnet eine orthonormale Matrix, welche die Omnibusnullhypothese repräsentiert. Eine Matrix heißt orthonormal, wenn ihre Zeilenvektoren orthogonal zueinander stehen und jeweils eine Norm von 1 haben. Es wurde bereits früher erwähnt,
dass die Omnibusnullhypothese bei J Faktorstufen in J − 1 orthogonale Kontraste
zerlegt werden kann. So lässt sich die Hypothese µ1 = µ2 = µ3 für J = 3 in zwei
orthogonale Kontraste zerlegen, wie z.B.:
1µ1 − 1µ2 + 0µ3 = 0
und
48
Kapitel 1
1µ1 + 1µ2 − 2µ3 = 0.
Die beiden Kontraste sind orthogonal, denn 1 · 1 − 1 · 1 − 0 · 2 = 0. In Matrixschreibweise lässt sich dafür auch schreiben:


µ1
1µ1 − 1µ2 + 0µ3
0
1 −1 0


=
× µ2 =
1µ1 + 1µ2 − 2µ3
0
1 1 −2
µ3
Weiterhin von Interesse ist hier die Matrix
1 −1 0
C=
.
1 1 −2
Es wurde gezeigt, dass diese Matrix orthogonal ist. Werden nun die einzelnen Zeilen
normalisiert, ergibt sich eine orthonormale Matrix, in der alle Zeilen unabhängig sind
und die Länge 1 besitzen :
c01 = 1 −1 0
√
0 1
1
c1 = ∑ c01 j 2 2 = (1 + 1) 2 = 2
1 0 h
c∗1 0 = c0 c1 =
1
√1
2
−1
√
2
0
i
Nach entsprechender Berechnung für c02 kommt man zu:
" 1 −1
#
√
√
0
M ∗ = √12 √12 √
−2
6
6
6
Die hier vorgestellte orthonormale Matrix ist nur eine mögliche von unendlich vielen möglichen Matrizen. So würden etwa die folgenden Kontraste ebenfalls zu einer
Matrix mit den oben beschriebenen Eigenschaften führen:
1 0 −1
C2 =
1 −2 1
Durch welche beiden Kontraste die Nullhypothese spezifiziert wird, ist letztlich irrelevant. Jede dieser Spezifikationen führt nachher zum selben Ergebnis. Ebenso, wie
für den hier vorgestellten Fall von J = 3 Faktorstufen, lässt sich eine Matrix M ∗ für
jede beliebige Anzahl von J > 1 Faktorstufen bilden.
Die übrigen Terme der Gleichung brauchen weniger Erklärung. ∑x ist eine zirkuläre Kovarianzmatrix. M ∗ 0 ist die Transponierte von M ∗ und die Konstante λ =
Kapitel 1 Ableitungen
49
σY2j −Y j0 /2. Der Ausdruck I bezeichnet eine Identitätsmatrix. Eine Matrix der Form
λ I heißt im Englischen spherical (Winer, Brown & Michels, 1991). Aus dem bisher
Gesagten ergibt sich, dass
∑ = M∗ ∑ M∗0 = λ I
y
x
eine sphärische Matrix ist, wenn ∑x zirkulär ist. Daher spricht man von der Sphärizitätsannahme. Der Grund dafür, eine zirkuläre Matrix in eine sphärische umzuwandeln, liegt in der Möglichkeit, die Sphärizität auf Populationsebene zu testen (vgl. die
Ausführungen zum Mauchly-Test im Internetsupplement).
Für das additive Modell der einfaktoriellen Varianzanalyse mit Messwiederholung
lässt sich zeigen, dass die Sphärizitätsannahme immer erfüllt ist (vgl. Kirk, 1995, S.
272 f.). Wie im Buch auf Seite 286 beschrieben wird, ist das additive Modell gegeben
durch:
Yi j = µ + α j + πi + εi j
Zunächst soll gezeigt werden, dass für die Varianz innerhalb jeder Faktorstufe α j
gilt:
σY2j = σπ2 + σε2
Dies ist auch intuitiv nachvollziehbar, wenn man sich noch einmal vor Augen führt,
dass µ und α j Konstanten für jede Beobachtung innerhalb der Faktorstufe α j sind.
Die beiden Ausdrücke πi und εi j werden jeweils als i.i.d. normalverteilt angenommen mit πi ∼ N(0, σπ2 ) und εi j ∼ N(0, σε2 ). Die gesamte Varianz in Yi j kann daher
nur auf πi und εi j zurückgehen. Da der Beobachtungsfehler als von dem Personeneffekt unabhängig angenommen wird, können die entsprechenden Varianzen zu einer
Gesamtvarianz addiert werden.
Formal kann auf die Definition der Varianz von Zufallsvariablen (Holling & Gediga,
2013, S. 99) zurückgegriffen werden:
Var (Y ) = E[Y − E (Y )]2
= E Y 2 − [E(Y )]2
Setzt man in die rechte Seite der Gleichung für Y die Modellgleichung ein, ergibt
sich (Kirk, 1995):
σY2j = E(µ + α j + πi + εi j )2 − [E (µ + α j + πi + εi j )]2
= µ 2 + α 2j + πi2 + εi2j + 2µα j − (µ 2 + α 2j + 2µα j )
Bei dem linken Term fallen die Kreuzprodukte weg, in die πi und εi j eingehen, weil
beide einen Erwartungswert von 0 haben. Aus demselben Grund fallen πi und εi j im
rechten Term weg. Löst man die Gleichung weiter auf, kommt man zu:
σY2j = µ 2 + α 2j + πi2 + εi2j + 2µα j − (µ 2 + α 2j + 2µα j )
50
Kapitel 1
= σπ2 + σε2
Weiterhin lässt sich zeigen, dass für die Kovarianz aller möglichen Paare von Faktorstufen α j und α j0 mit j 6= j0 gilt:
σY jY j0 = σπ2
Dies folgt aus der Definition für die Kovarianz zweier Zufallsvariablen (Holling &
Gediga, S. 116):
Cov (X,Y ) = E [(X − E (X)) (Y − E (Y ))]
= E (XY ) − E (X) E(Y )
Um die Kovarianz σY jY j0 zu erhalten, ersetzt man X auf der rechten Seite der Gleichung durch µ + α j + πi + εi j und Y durch µ + α j0 + πi + εi j0 (Kirk, 1995, S. 273):
σY jY j0 = E (µ + α j + πi + εi j ) µ + α j0 + πi + εi j0
−E (µ + α j + πi + εi j ) E(µ + α j0 + πi + εi j0 )
= µ 2 + α j α j0 + σπ2 + µα j + µα j0 − µ 2 + α j α j0 + µα j + µα j0
Bei dem ersten Term fallen alle Produkte (außer σπ2 ) weg, die πi , εi j oder εi j0 enthalten, da E (πi ) = 0, E (εi j ) = 0 und E εi j0 = 0. Aus demselben Grund fallen πi , εi j
und εi j0 auch bei dem zweiten Term weg. Löst man die Gleichung weiter auf, kommt
man zu:
σY jY j0 = µ 2 + α j α j0 + σπ2 + µα j + µα j0 − µ 2 + α j α j0 + µα j + µα j0
σY jY j0 = σπ2
Bisher konnte gezeigt werden, dass für das additive Modell der einfaktoriellen Varianzanalyse mit Messwiederholung für alle Varianzen der Faktorstufen σY2j = σπ2 + σε2
gilt und für die Kovarianzen aller möglichen Paare von Faktorstufen σY jY j0 = σπ2 .
In diesem Modell besitzen die Faktorstufen also stets eine bestimmte Kovarianzmatrix:
 2

. . . σπ2
σπ + σε2
σπ2


. . . σπ2
σπ2
σπ2 + σε2



..
..
..
∑=
..


.
.
.
.
x
σπ2
σπ2
...
σπ2 + σε2
Man erkennt leicht, dass diese Kovarianzmatrix die Eigenschaft der Compound-Symmetry
(vgl. Holling & Gediga, 2016, S. 292 f.) besitzt. Somit ist auch die Sphärizitätsannahme für das additive Modell der einfaktoriellen Varianzanalyse mit Messwiederholung
immer erfüllt. Vgl. hierzu Kirk (1995, S. 274 – 279) und Winer, Brown und Michels
(1991, S. 240 – 255).
Kapitel 1 Ableitungen
51
1.45 Der Mauchly-Test (8 / S. 293)
Mauchly (1940) hat einen Test entwickelt, mit dem eine Kovarianzmatrix SX auf
Sphärizität getestet werden kann. Die Teststatistik lautet (Winer, Brown & Michels,
1991):
∗
M SX M ∗ 0 W=
[tr (M ∗ SX M ∗ 0 )/J − 1]J−1
Dabei bezeichnet M ∗ eine orthonormale
Matrix, durch die die∗ Omnibusnullhypothese
0
∗
∗
ausgedrückt wird, und tr M SX M die Spur der Matrix M SX M ∗ 0 . Es gilt:
0≤W ≤1
Ist die Matrix SX zirkulär und M ∗ SX M ∗ 0 somit sphärisch, nimmt W den Wert 1 an.
Bei maximaler Abweichung der Matrix SX von Zirkularität ist W = 0.
Die Hypothesen lassen sich formulieren als:
H0 : σY2j −Y j0 = σY2j −Y j00 für alle j 6= j0 6= j00
H1 : σY2j −Y j0 6= σY2j −Y j00 für mindestens ein j 6= j0 6= j00
Durch diese Notation wird deutlich, dass der Test nur für J ≥ 3 Faktorstufen sinnvoll
anzuwenden ist. Bei zwei Faktorstufen ist die Gleichheit der Varianzen der Differenzen immer gegeben (vgl. Holling & Gediga, 2016, S. 292).
H0 wird abgelehnt, wenn die Teststatistik W den kritischen Wert von W1−α (J − 1, n)
unterschreitet. Für die exakte Verteilung von W1−α (J − 1, n) liegen die Werte in tabellierter Form vor. Außerdem wird die Statistik standardmäßig von der Funktion
ezANOVA im Programmpaket R ausgegeben.
Im Folgenden soll die Berechnung der Teststatistik an einem Beispiel verdeutlicht
werden. Gegeben sei die Kovarianzmatrix:


10 4 6
SX =  4 12 3 
5 5 8
Die Matrix M ∗ sei gegeben durch:
"
M∗ =
√1
2
√1
6
−1
√
2
√1
6
0
−2
√
6
#
52
Kapitel 1
0
Zunächst soll daraus die Matrix Sy = M ∗ SX M ∗ berechnet werden:
"
∗
∗0
Sy = M SX M =
√1
2
√1
6
−1
√
2
√1
6
 1
#  10 4 6 
√
2
0

−1
√


4
12
3
·
·
 2
−2
√
6
5 5 8
0
√1
6
√1
6
−2
√
6


=
7
−2.3
−0.6
4
Somit gilt:
7
−2.3
= 7 · 4 − (−2.3) · (−0.6) = 26.62
|Sy | = −0.6
4 Und:
tr (Sy ) = tr
Daher:
W=
7
−2.3
−0.6
4
|Sy |
J−1
[tr (Sy )/J − 1]
=
26.62
[11/2]2
= 11
= 0.88
Angenommen, der Kovarianzmatrix SX lägen Beobachtungen aus einem Experiment
mit einem 1 x 3 within subjects design zugrunde. Die Stichprobengröße für dieses Experiment sei n = 11. Der kritische Wert für die Teststatistik W beträgt dann
W.95 (2, 11) = .514 (Winer, Brown & Michels, 1991). Da W > W.95 (2, 11) kann die
Alternativhypothese nicht bestätigt werden. An der Sphärizitätsannahme kann im
vorliegenden Fall somit festgehalten werden. In diesem Beispiel ist die Sphärizitätsannahme selbst dann haltbar, wenn man das Signifikanzniveau α = .25 wählt. Der
Test erhält dadurch eine deutlich größere Power, wie auch an dem kritischen Wert
W.75 (2, 11) = .735 (Winer, Brown & Michels 1991) zu erkennen ist.
1.46 Zur Greenhouse-Geisser-Korrektur (8 / S. 293)
Diese Formel wird in Maxwell und Delaney (2004, S. 543) erläutert.
1.47 Dreifachinteraktion (παβ )i jk in der zweifaktoriellen
Varianzanalyse mit Messwiederholung (8 / S. 297)
Wie bereits im Zusammenhang mit zufälligen Personeneffekten in der einfaktoriellen
Varianzanalyse ausgeführt worden ist, ist ein F-Bruch in der Varianzanalyse adäquat,
wenn er folgende Form besitzt: Der Term im Nenner schätzt eine Fehlervarianz. Der
Term im Zähler schätzt dieselbe Fehlervarianz und zusätzlich diejenige Varianz, welche auf den zu testenden Effekt zurückgeht.
Kapitel 1 Ableitungen
53
Auf dieser Grundlage soll nun gezeigt werden, dass die in Holling und Gediga (2016,
S. 302) aufgeführten Fehlerterme auch dann adäquat sind, wenn man das Modell mit
Dreifachinteraktion (παβ )i jk zugrunde legt. Die Modellgleichung für die Beobachtungen Yi jk lautet dann:
Yi jk = µ + α j + βk + πi + (αβ ) jk + (πα)i j + (πβ )ik + (παβ )i jk + εi jk
wobei α j , βk und (αβ ) jk feste Effekte darstellen und πi , (πα)i j , (πβ )ik und (παβ )i jk
zufällige Effekte.
Die folgende Tabelle zeigt die Erwartungswerte der Mittleren Abweichungsquadrate
bei festen Treatment-Effekten und zufälligen Personeneffekten jeweils für die Modelle mit und ohne Dreifachinteraktion (παβ )i jk (vgl. Kirk, 1995, S. 462).
Mittlere
Abweichungsquadrate MS
MSA
MSB
MSAπ
MSBπ
MSAB
MSE MSABπ
Erwartungswert
ohne (παβ )i jk
σ 2ε
+
Kσ 2απ
2
IK ∑ α j /(J − 1)
σ 2ε
+
Jσ 2β π
E(MS)
+
+
IJ ∑ β 2k /(K − 1)
σ 2ε + Kσ 2απ
σ 2ε + Jσ 2β π
σ 2ε
+
2
I ∑ ∑ (αβ ) jk /(J − 1) (K − 1)
σ 2ε
Erwartungswert E(MS)
mit (παβ )i jk
σ 2ε
+
Kσ 2απ
2
IK ∑ α j /(J − 1)
σ 2ε
+
Jσ 2β π
+
+
IJ ∑ β 2k /(K − 1)
σ 2ε + Kσ 2απ
σ 2ε + Jσ 2β π
σ 2ε
+
σ 2παβ
+
2
I ∑ ∑ (αβ ) jk /(J − 1) (K − 1)
σ 2ε + σ 2παβ
MSA
MSB
Aus der Tabelle wird ersichtlich, dass die F-Brüche F = MS
, F = MS
und F =
Bπ
Aπ
MSAB
MSE unter Annahme beider Modelle für die Testung der Effekte von A, B und der
Interaktion AB adäquat sind. Beispielsweise gilt für die Testung des Interaktionseffektes im Modell ohne Dreifachinteraktion:
2
2
E(MSAB ) σε + I ∑ ∑ (αβ ) jk /(J − 1) (K − 1)
=
E(MSE )
σε2
Und in dem Modell mit Dreifachinteraktion gilt:
2
2
2
E(MSAB ) σε + σπαβ + I ∑ ∑ (αβ ) jk /(J − 1) (K − 1)
=
2
E(MSE )
σε2 + σπαβ
Der Term im Nenner schätzt also jeweils eine Fehlervarianz, während der Term im
Zähler dieselbe Fehlervarianz und zusätzlich die Varianz, welche auf den zu testenden
Effekt zurückgeht, schätzt. Etwas anders ausgedrückt, gilt für beide F-Brüche, dass
Zähler und Nenner unter der Nullhypothese
54
Kapitel 1
H0 : (αβ ) jk = 0 für alle j, k
jeweils dieselbe Fehlervarianz schätzen (s. a. Kirk, 1995, S. 461 – 464).
1.48 Notwendige Kovarianzstruktur in der zweifaktoriellen
Varianzanalyse mit Messwiederholung (8 / S. 299)
Eine ausführliche Darstellung der Annahmen der zweifaktoriellen Varianzanalyse
mit Messwiederholung einschließlich der Kovarianzstruktur findet sich in Kutner,
Nachtsheim, Neter und Li (2004, S. 1154 f.).
1.49 Testverteilung der Effekte in der zweifaktoriellen Varianzanalyse
mit Messwiederholung (8 / S. 304)
Diese Formel wird in Maxwell und Delaney (2004, S. 543) erläutert.
1.50 Zu den Voraussetzungen der Varianzanalyse mit
Messwiederholung (8 / S. 307)
Diese Theamtik wird in Maxwell und Delaney (2004, S. 573ff) erläutert.
1.51 Interaktion bei nur einer Beobachtung pro Zelle und
Fehlervarianz im Split-Plot-Design (8 / S. 309)
Diese Thematik wird in Maxwell und Delaney (2004, S. 594) dargestellt.
1.52 Notwendige Kovarianzstruktur im Split-Plot-Design (8 / S. 310)
Eine ausführliche Darstellung der Annahmen der zweifaktoriellen Varianzanalyse mit
einem Between- und einem Within-Faktor einschließlich der Kovarianzstruktur findet
sich in Kutner, Nachtsheim, Neter und Li (2004, S. 1141 f.).
Kapitel 1 Ableitungen
55
1.53 Berechnung der Freiheitsgrade für die Fehlerquadratsummen im
Split-Plot-Design (8 / S. 313)
I
J
Die Fehlerquadratsumme SSwG = K ∑ ∑ π̂i(2 j) besitzt J(I − 1) Freiheitsgrade, da
i=1 j=1
dieser Term aus J(I − 1) unabhängigen Effekten (Abweichungsquadraten) besteht.
Für jede der J Stufen des Faktors A gibt es I Effekte πbi( j) . Dabei gilt für jedes j:
∑i=1 I πbi( j) = 0. Somit gibt es I − 1 unabhängige Effekte für jede Stufe j, also insgesamt J(I − 1).
Die Fehlerquadratsumme
I
J
SSB:wG = ∑ ∑
K
∑ ε̂i2jk
i=1 j=1 k=1
besitzt J(K − 1)(I − 1) Freiheitsgrade, da sie aus J(K − 1)(I − 1) unabhängigen Effekten (Fehlertermen) besteht. Für jede der J Stufen des Faktors A gibt es I · K Effekte
ε̂i jk . Dabei gilt für jede Kombination von j und k: ∑i=1 I ε̂i jk = 0 sowie für jede Kombination von j und i: ∑k=1 K ε̂i jk = 0. Somit liegen (I −1)(K −1) unabhängige Effekte
für jede Stufe j vor, also insgesamt J(I − 1)(K − 1).
1.54 Fehlerterme im Split-Plot-Design (8 / S. 314)
Im Folgenden soll gezeigt werden, dass der Fehlerterm
Yi jk − µ + α j + βk + πi( j) + (αβ ) jk
im Split-Plot Design der Summe (πβ )ik( j) + εi jk entspricht, falls eine Interaktion
(πβ )ik( j) vorliegt. Die entsprechende Modellgleichung lautet dann:
Yi jk = µ + α j + βk + πi( j) + (αβ ) jk + (πβ )ik( j) + εi jk
Substituiert man nun Yi jk im Fehlerterm durch diese Modellgleichung ergibt sich:
Yi jk − µ + α j + βk + πi( j) + (αβ ) jk
= µ + α j + βk + πi( j) + (αβ ) jk + (πβ )ik( j) + εi jk − µ + α j + βk + πi( j) + (αβ ) jk
= (πβ )ik( j) + εi jk
56
Kapitel 1
1.55 Der Box-Test (8 / S. 316)
Der Box-Test ist eine Verallgemeinerung des Bartlett-Tests für die Homogenität von
Varianzen. Er wird in Kirk (1995, S. 500 ff.) dargestellt.
1.56 Zu den Voraussetzungen der Varianzanalyse mit einem Betweenund einem Within-Subjects-Faktor (8 / S. 316)
Die Voraussetzungen der Varianzanalyse mit einem Between- und einem WithinSubjects-Faktor werden in Kirk (1995, S. 500 ff.) dargestellt.
1.57 Lineare Abhängigkeit und lineare Unabhängigkeit (9 / S. 328)
Eine Menge von Vektoren a1 , a2 , . . . , an ist linear abhängig, wenn Konstanten c1 , c2 , . . . , cn ,
von denen wenigstens eine Konstante ungleich Null ist, existieren, sodass gilt:
c1 a1 + c2 a2 + · · · + cn an = 0
Existieren keine Konstanten c1 , c2 , . . . , cn , die die obige Gleichung erfüllen können,
heißt die Menge von Vektoren linear unabhängig.
Im Falle linearer Abhängigkeit kann wenigstens einer der Vektoren ai als Linearkombination der anderen Vektoren dieser Menge bestimmt werden. Lineare Abhängigkeit
impliziert also redundante Information der Vektoren. Ist lineare Unabhängigkeit innerhalb einer Menge von Vektoren gegeben, ist kein Vektor innerhalb dieser Menge
überflüssig.
1.58 Varianz von β̂0 (9 / S. 329)
Wie bereits oben bei der White-Korrektur im linearen Modell ausgeführt, gilt
Var(β̂ ) = σ 2 (X 0 X)−1
σ 2 wird durch das mittlere Fehlerquadrat MSE geschätzt. Damit resultiert als geschätzte Kovarianzmatrix für die Regressionskoeffizienten:
\
Var(β̂ ) = MSE · (X 0 X)−1
\
Das erste Element der Hauptdiagonalen dieser Matrix gibt Var(β̂0 ) wieder.
Kapitel 1 Ableitungen
57
1.59 Erwartungswerte und χ 2 -Verteilungen in der mehrfaktoriellen
Varianzanalyse (9 / S. 331)
Für die Beweise zu E(MSE = σ 2 , E(MSR = σ 2 ,
1) verweisen wir auf Khuri (2009, S. 132 ff.).
MSE
σ2
∼ χ 2 (k) und
MSR
σ2
∼ χ 2 (n − k −
1.60 Matrizenschreibweise zur Beschreibung von linearen
Hypothesen (9 / S. 334)
In Matrixschreibweise lässt sich die lineare Hypothese für r Parameterrestriktionen
und p Prädiktoren wie folgt darstellen:
H0 : Cβ = d
bzw.
Cβ − d = 0
H1 : Cβ 6= d
bzw.
Cβ − d 6= 0,
mit
• C: r × (p + 1)-Matrix
• β : p + 1-Vektor mit den Regressionsgewichten β0 , . . . , β p
• d: r-dimensionaler Vektor mit hypothetischen Werten für die
Linearkombination der Einflussparameter
(oft wird für d der Nullvektor gewählt)
• 0: r-dimensionaler Nullvektor
Ausführlicher dargestellt sieht die lineare Hypothese (hier nur für die Nullhypothese)
in Matrixform folgendermaßen aus:

c10
 ..
H0 :  .
cr0

   
β0
· · · c1p  
d1
0
..  β1  −  ..  =  .. 
.   .  .
. 
 .. 
· · · crp
dr
0
βp


58
Kapitel 1
1.61 F -Test beim Vergleich linearer Modelle (9 / S. 335)
Für die Fehlerquadratsummen als Zufallsvariablen (ohne Änderung der Notation)
gilt:
SSE = (y − Xβ̂ )0 (y − Xβ̂ ) = ε̂ 0 ε̂
Daraus folgt (vgl. Holling & Gediga, 2013):
SSE
∼ χ 2 (n − Anzahl geschätzter Parameter)
σ2
Für das unrestringierte Modell, das wir unter H1 annehmen, gilt:
SSE
∼ χ 2 (n − p − 1)
σ2
Für das restringierte Modell mit r Restriktionen, das wir unter H0 annehmen und bei
dem wir SSE mit SSE (R) bezeichnen, gilt:
SSE (R)
∼ χ 2 (n − p − 1 + r)
σ2
Weiterhin folgt:
SSE (R) − SSE
SSM
=
∼ χ 2 (r)
σ2
σ2
SSE
∼ χ 2 (n − p − 1)
σ2
Daraus resultiert der folgende F-Test:
SSM /σ 2
r
SSE /σ 2
(n−p−1)
=
SSM /r
∼ F(r, n − p − 1)
SSE /(n − p − 1)
1.62 Regressionskoeffizienten und Kodiervariablen (9 / S. 337), (9, S.
341)
Zellenmittelwert-Kodierung
• Modell: Yi = β1 x1 + . . . + βi xi + . . . + βk xk + εi
• Erwartungswert: µi = E(Yi ) = β1 x1 + . . . + βi xi + . . . + βk xk
Kapitel 1 Ableitungen
• Regressionskoeffizienten bei der Zellenmittelwert-Kodierung
µ1 = E(Y |x1 = 1, x2 = 0, . . . , xk = 0) = β1
µ2 = E(Y |x1 = 0, x2 = 1, . . . , xk = 0) = β2
..
.
. = ..
µk = E(Y |x1 = 0, x2 = 0, . . . , xk = 1) = βk
Dummy-Kodierung
• Modell: Yi = β0 + β1 x1 + . . . + βi xi + . . . + βk−1 xk−1 + εi
• Erwartungswert: µi = E(Yi ) = β0 + β1 x1 + . . . + βi xi + . . . + βk−1 xk−1
• Regressionskoeffizienten bei der Dummy-Kodierung
– Gruppe k als Referenzgruppe
µk = E(Y |x1 = 0, x2 = 0, . . . , xk−1 = 0) = β0
µ1 = E(Y |x1 = 1, x2 = 0, . . . , xk−1 = 0) = β0 + β1
..
.
. = ..
µk−1 = E(Y |x1 = 0, x2 = 0, . . . , xk−1 = 1) = β0 + βk−1
⇒
βi = µi − µk
1 ≤ i ≤ k−1
Effekt-Kodierung
• Modell: Yi = β0 + β1 x1 + . . . + βi xi + . . . + βk−1 xk−1 + εi
• Erwartungswert: µi = E(Yi ) = β0 + β1 x1 + . . . + βi xi + . . . + βk−1 xk−1
• Regressionskoeffizienten bei der Effekt-Kodierung
– Gruppe k ohne Regressionskoeffizient
µk = E(Y |x1 = −1, x2 = −1, . . . , xk−1 = −1) = β0 − (β1 + . . . + βk−1 )
µ1 = E(Y |x1 = 1, x2 = 0, . . . , xk−1 = 0) = β0 + β1
.. ..
.=.
µk−1 = E(Y |x1 = 0, x2 = 0, . . . , xk−1 = 1) = β0 + βk−1
⇒
µ1 + . . . + µk = kβ0 + (β1 − β1 ) + . . . + (βk−1 − βk−1 )
⇒
β0 =
µ1 +...+µk
k
59
60
Kapitel 1
1.63 R2 bei der Regression ohne Interzept und Bezug zu η 2 (9 / S.
346)
Für eine Regression mit Interzept werden die vorhergesagten Werte Ybi anhand der
Regressionsgleichung
Ybi = βb0 + βb1 X1 + ... + βbk Xk
bestimmt. Dann gilt:
R2 =
∑(Ybi −Y )2
∑(Yi −Y )2
bzw.
R2 = 1 −
∑(Yi − Ybi )2
∑(Yi −Y )2
Für eine Regression ohne Interzept werden die vorhergesagten Werte Ybi anhand der
Regressionsgleichung
Ybi = βb1 X1 + ... + βbk Xk
bestimmt.
Dann wird das R2 folgendermaßen bestimmt:
R2 =
R2 = 1 −
∑ Ybi2
∑ Yi2
∑(Yi − Ybi )2
∑ Yi2
Wie ersichtlich sind die beiden Versionen des R2 unterschiedlich definiert und ergeben in der Regel unterschiedliche Werte. Dabei fällt das R2 für eine Regression ohne
Interzept zumeist höher aus. η 2 stimmt mit der Version des R2 für eine Regression
mit Interzept überein und damit im Allgemeinen nicht mit der Version des R2 für eine
Regression ohne Interzept. (Weitere Ausführungen zu den beiden Versionen des R2
finden sich in dem Internetsupplement zu Holling und Gediga (2011).)
Kapitel 1 Ableitungen
61
1.64 Kodierungen für das Split-Plot-Design im linearen Modell (9 / S.
347)
Effektkodierung der Varianzanalyse mit einem Between-Subjects-Faktor (Instruktion) und einem Within-Subjects-Faktor (Dauer):
X0 : Interzept, X1 : Instruktion; X2 , X3 : Dauer; X4 , X5 : Instruktion · Dauer
X6 ,...,X9 : Person mit der Instruktion = memorize
X10 ,...,X13 : Person mit der Instruktion = imagine
ID
1
2
1
3
4
5
1
2
m
2
3
4
5
1
2
3
3
4
5
6
7
1 min 8
9
10
6
7
i 2 min 8
9
10
6
7
3 min 8
9
10
A
B
AV X0
5 1
5 1
8 1
8 1
9 1
11 1
9 1
11 1
10 1
14 1
11 1
10 1
11 1
15 1
13 1
8 1
7 1
10 1
8 1
12 1
11 1
12 1
14 1
12 1
16 1
19 1
18 1
19 1
22 1
22 1
X1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
X2
1
1
1
1
1
0
0
0
0
0
−1
−1
−1
−1
−1
1
1
1
1
1
0
0
0
0
0
−1
−1
−1
−1
−1
X3
0
0
0
0
0
1
1
1
1
1
−1
−1
−1
−1
−1
0
0
0
0
0
1
1
1
1
1
−1
−1
−1
−1
−1
X4
1
1
1
1
1
0
0
0
0
0
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
0
0
0
0
0
1
1
1
1
1
X5
0
0
0
0
0
1
1
1
1
1
−1
−1
−1
−1
−1
0
0
0
0
0
−1
−1
−1
−1
−1
1
1
1
1
1
X6
1
0
0
0
−1
1
0
0
0
−1
1
0
0
0
−1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
X7
0
1
0
0
−1
0
1
0
0
−1
0
1
0
0
−1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
X8
0
0
1
0
−1
0
0
1
0
−1
0
0
1
0
−1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
X9
0
0
0
1
−1
0
0
0
1
−1
0
0
0
1
−1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
X10
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
1
0
0
0
−1
1
0
0
0
−1
1
0
0
0
−1
X11
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
1
0
0
−1
0
1
0
0
−1
0
1
0
0
−1
X12
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
1
0
−1
0
0
1
0
−1
0
0
1
0
−1
X13
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
1
−1
0
0
0
1
−1
0
0
0
1
−1
62
Kapitel 1
Effektkodierung der Varianzanalyse mit zwei Within-Subjects-Faktoren.
X0 : Interzept
X1 : Instruktion
X2 , X3 : Dauer
X4 , X5 : Instruktion · Dauer
X6 , ..., X9 : Person
X10 , ..., X13 : Instruktion · Person
X14 , ..., X21 : Dauer · Person
A
B
1
m
2
3
1
i
2
3
ID
1
2
3
4
5
1
2
3
4
5
1
2
3
4
5
1
2
3
4
5
1
2
3
4
5
1
2
3
4
5
AV
5
5
8
8
9
11
9
11
10
14
11
10
11
15
13
8
7
10
8
12
11
12
14
12
16
19
18
19
22
22
X0
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
X1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
X2
1
1
1
1
1
0
0
0
0
0
−1
−1
−1
−1
−1
1
1
1
1
1
0
0
0
0
0
−1
−1
−1
−1
−1
X3
0
0
0
0
0
1
1
1
1
1
−1
−1
−1
−1
−1
0
0
0
0
0
1
1
1
1
1
−1
−1
−1
−1
−1
X4
1
1
1
1
1
0
0
0
0
0
−1
−1
−1
−1
−1
−1
−1
−1
−1
−1
0
0
0
0
0
1
1
1
1
1
X5
0
0
0
0
0
1
1
1
1
1
−1
−1
−1
−1
−1
0
0
0
0
0
−1
−1
−1
−1
−1
1
1
1
1
1
X6
1
0
0
0
−1
1
0
0
0
−1
1
0
0
0
−1
1
0
0
0
−1
1
0
0
0
−1
1
0
0
0
−1
X7
0
1
0
0
−1
0
1
0
0
−1
0
1
0
0
−1
0
1
0
0
−1
0
1
0
0
−1
0
1
0
0
−1
X8
0
0
1
0
−1
0
0
1
0
−1
0
0
1
0
−1
0
0
1
0
−1
0
0
1
0
−1
0
0
1
0
−1
X9
0
0
0
1
−1
0
0
0
1
−1
0
0
0
1
−1
0
0
0
1
−1
0
0
0
1
−1
0
0
0
1
−1
X10
1
0
0
0
−1
1
0
0
0
−1
1
0
0
0
−1
−1
0
0
0
1
−1
0
0
0
1
−1
0
0
0
1
X11
0
1
1
0
−1
0
1
0
0
−1
0
1
0
0
−1
0
−1
0
0
1
0
−1
0
0
1
0
−1
0
0
1
X12
0
0
0
0
−1
0
0
1
0
−1
0
0
1
0
−1
0
0
−1
0
1
0
0
−1
0
1
0
0
−1
0
1
X13
0
0
0
1
−1
0
0
0
1
−1
0
0
0
1
−1
0
0
0
−1
1
0
0
0
−1
1
0
0
0
−1
1
X14
1
0
0
0
−1
0
0
0
0
0
−1
0
0
0
1
1
0
0
0
−1
0
0
0
0
0
−1
0
0
0
1
X15
0
1
0
0
−1
0
0
0
0
0
0
−1
0
0
1
0
1
0
0
−1
0
0
0
0
0
0
−1
0
0
1
X16
0
0
1
0
−1
0
0
0
0
0
0
0
−1
0
1
0
0
1
0
−1
0
0
0
0
0
0
0
−1
0
1
X17
0
0
0
1
−1
0
0
0
0
0
0
0
0
−1
1
0
0
0
1
−1
0
0
0
0
0
0
0
0
−1
1
X18
0
0
0
0
0
1
0
0
0
−1
−1
0
0
0
1
0
0
0
0
0
1
0
0
0
−1
−1
0
0
0
1
X19
0
0
0
0
0
0
1
0
0
−1
0
−1
0
0
1
0
0
0
0
0
0
1
0
0
−1
0
−1
0
0
1
X20
0
0
0
0
0
0
0
1
0
−1
0
0
−1
0
1
0
0
0
0
0
0
0
1
0
−1
0
0
−1
0
1
X21
0
0
0
0
0
0
0
0
1
−1
0
0
0
−1
1
0
0
0
0
0
0
0
0
1
−1
0
0
0
−1
1
Kapitel 1 Ableitungen
63
1.65 Quadratsummen der kodierten Variablen einer zweifaktoriellen
Varianzanalyse (9 / S. 350)
Die Variablenmengen {X1 }, {X2 , X3 } und {X4 , X5 } sind jeweils wechselseitig voneinander unabhängig. Daher sind die ihnen entsprechenden erklärten Quadratsummen, hier mit SSX1 , SSX2 ,X3 bzw. SSX4 ,X5 bezeichnet, im vollen Modell sowie in den
reduzierten Modellen, soweit sie dort auftreten, identisch. Ebenso sind die Regressionskoeffizienten dieser Variablen im vollen sowie in den reduzierten Modellen identisch (vgl. Holling & Gediga, 2011). Betrachten wir hier stellvertretend für die Differenz der Fehlerquadratsumme eines reduzierten Modells und der Fehlerquadratsumme des vollen Modells die Differenz der Fehlerquadratsumme des reduzierten
Modells Mr (A) und der Fehlerquadratsumme des vollen Modells. Die Differenz dieser beiden Fehlerquadratsummen entspricht der erklärten Quadratsumme SSA aus der
zweifaktoriellen Varianzanalyse und der erklärten Quadratsumme SSX1 , da die entsprechenden Terme α j und β1 X1 identisch sind und somit die vorhergesagten Werte
und entsprechenden erklärten Quadratsummen für das varianz- und regressionsanalytische Modell. Dass die Differenzen zwischen den Fehlerquadratsummen der anderen reduzierten Modelle und der Fehlerquadratsumme des vollen Modells mit den
entsprechenden erklärten Quadratsummen übereinstimmen, kann in analoger Weise
gezeigt werden. Im Fall ungleicher Zellenbesetzungen der zweifaktoriellen Varianzanalysen sind die Variablenmengen {X1 }, {X2 , X3 } und {X4 , X5 } jeweils nicht wechselseitig voneinander unabhängig. Hierzu verweisen wir auf den folgenden Abschnitt
zu den weiteren Typen der Variationszerlegung.
1.66 Weitere Typen der Variationszerlegung (9 / S. 350)
In mehrfaktoriellen Between-Subjects-Designs ergibt sich ein Problem, wenn das Design nicht orthogonal ist, d.h. die Zellen nicht gleich besetzt sind und die Zellenbesetzungen nicht proportional ausfallen. In diesem Fall lassen sich unterschiedliche
Schätzungen für den Einfluss der Effekte angeben.
Die – in der Psychologie – übliche Vorgehensweise ist die Nutzung der Typ-IIIZerlegung. Hier wird die inkrementelle aufgeklärte Variation pro Faktor genutzt.
Hiermit bekommt man eine untere Grenze für den Einfluss der Faktoren und damit
einen konservativen Test für die Effekte. Die Variation, die durch die Abhängigkeiten erklärt wird, taucht in keiner der inkrementellen Effektschätzungen auf. Das hat
zur Konsequenz, dass die Summe der Abweichungsquadrate der Effekte in der Regel
kleiner ist als durch das Modelle aufgeklärte Variation. Es „fehlt“ also aufgeklärte
Variation. (Liegen sogenannte Suppressorvariablen vor, kann jedoch auch der umgekehrte Fall auftreten (vgl. Holling, 1983).)
64
Kapitel 1
Eine einfache Vorgehensweise das Problem zu beheben, bieten Typ-I-Zerlegungen
bzw. sequentielle Zerlegungen. Hier müssen die Effekte in der Reihenfolge ihrer
Wichtigkeit vorgegeben werden. Die jeweils in der Wichtigkeit nachrangigen Effekte werden inkrementell zu den vorhergehenden Effekten bestimmt. Auf diese Weise
wird die Gesamtvariation voll ausgeschöpft und die konfundierende Variation jeweils
dem wichtigsten Effekt zugeschlagen. Das Problem liegt hier darin, dass eine Rangreihenfolge der Wichtigkeit der Effekte nicht immer angegeben werden kann.
Gewissermaßen ein Kompromiss zwischen Typ I- und Typ III-Zerlegungen sind TypII-Zerlegungen bzw. teilweise sequentielle Zerlegungen: Hier werden zunächst die
Haupteffekte durch ihre jeweilige inkrementelle Variation (bzgl. der jeweils anderen Haupteffekte) bestimmt. Danach werden die Effekte aller Zweifachinteraktionen
unter Auspartialisierung aller Haupteffekte und der jeweils anderen Zweifachinteraktionen bestimmt. Wenn vorhanden werden dann die Dreifach-, Vierfach-, etc. Interaktionen nach dem gleichen Muster behandelt. Die Wichtigkeit wird hier also
durch den Grad des Effekts festgelegt. Haupteffekte werden wichtiger als ZweifachInteraktionen erachtet, diese wiederum wichtiger als Dreifach-Interaktionen, etc. Auf
diese Weise werden konfundierende Effekte (soweit möglich) einem Effekt mit möglichst geringer Komplexität zugewiesen.
Weiterhin wurden noch Zerlegungen von Typ 4, 5 oder 6 entwickelt, die allerdings
für sehr spezielle Fälle gelten und daher hier nicht weiter vorgestellt werden.
1.67 Effekt der Kovariaten auf das Ergebnis der Kovarianzanalyse (9 /
S. 358)
Die Auswirkungen der Kovariaten sollten unabhängig von der Variation der Faktoren
bzw. Interaktionen sein. Ist dies nicht der Fall, wird ein „empirischer Kompromiss“
für die b-Gewichte der Kovariaten gebildet. Dies bedeutet, dass die geschätzten Einflüsse in den Residualwerten der Kovariaten durch die Faktoren auch abhängig von
der Interaktion aller Faktoren mit den Kovariaten sind. Es können so signifikante Effekte „entstehen“ oder auch „verschwinden“. Offensichtlich sind die Ergebnisse in
diesem Fall kaum noch vernünftig zu interpretieren.
Allerdings bietet das ALM genügend Möglichkeiten diese Situation zu überprüfen,
da Interaktionen der Kovariaten mit Faktoren (oder deren Interaktion) durch die Aufnahme zusätzliche Variablen modelliert und überprüft werden können. Die zusätzlichen Variablen entstehen durch Multiplikation der Kovariaten mit den Kodiervariablen. Diese Methode hat allerdings den Nachteil, dass nicht-lineare Zusammenhänge
zwischen Kovariaten und Faktoren nicht kontrolliert werden.
Kapitel 1 Ableitungen
65
Will man auch noch nichtlineare Zusammenhänge kontrollieren, ist es am Einfachsten, die Kovariablen als zusätzliche Faktoren zu rekodieren und die Interaktion dieser
zusätzlichen Faktoren mit den eigentlich zu untersuchenden Faktoren zu testen. Dieses Vorgehen ist allerdings nur nutzbar, wenn es sich um einige wenige Kovariate
handelt.
Insgesamt sollte die Anzahl der Kovariaten nicht zu groß sein. Als Daumenregel
gilt:
n
maxAnz =
− AnzZellen
10
Untersucht man also einen 3 × 3-Versuchplan an n = 3 × 3 × 15 = 135 Personen, so
ist die maximale Zahl von Kovariaten durch
maxAnz =
135
− 3 × 3 = 13.5 − 9 = 4.5
10
begrenzt. Man sollte also in dieser Situation auf keinen Fall mehr als 4 Kovariaten
einsetzen.
1.68 Tests zur Überprüfung von Abhängigkeiten in der linearen
Regression (9 / S. 360)
Wir gehen hier auf Abhängigkeiten zwischen den Beobachtungen ein, die aufgrund
zeitlicher Einflüsse zustandekommen. Werden mehrere Daten pro Beobachtungseinheit über einen gewissen Zeitbereich erhoben, kann man die Messwerte anhand gemäß ihres zeitlichen Auftretens ordnen. Dann erhalten wir für die abhängige Variable Y die Messwerte y1 , ..., yn , die zeitlich sortiert sind. Kann man nun die jeweils
nachfolgenden Messwerte yi+1 durch vorhergehende Messwerte y1 , ..., yi vorhersagen, liegen sogenannte Autokorrelationen zwischen den Werten der abhängigen Variablen vor. Diese Varianzquelle führt zu einer Verletzung der Voraussetzungen des
allgemeinen linearen Modells, der Unabhängigkeit der Residuen und kann damit die
inferenzstatistischen Ergebnisse bedeutend verzerren.
Es gibt verschiedene Tests zur Überprüfung von Autokorrelationen, als Beispiel sei
hier der Durbin-Watson-Test (Durbin & Watson, 1951)angeführt. Hier wird anhand
der Residuen e1 , ..., en die Teststatistik
DW =
∑ni=2 (ei − ei−1 )2
∑ni=1 e2i
berechnet. Man kann zeigen, dass die geschätzte Autokorrelation ρ̂1 linear mit der
Teststatistik DW zusammenhängt: ρ̂1 = 1 − DW
4 . Kritische Werte für die Statistik DW
findet man in folgender Internetressource:
http://web.stanford.edu/ clint/bench/dwcrit.htm
66
Kapitel 1
Weitere Tests zur Überprüfung solcher Abhängigkeiten liefern Modelle zur Zeitreihenanalyse. Für die Besprechung solcher Modelle sei hier z. B. auf Lütkepohl (2005)
verwiesen.
1.69 White-Korrektur (9 / S. 361)
Wir verweisen hier auf die Asuführungen zur White-Korrektur (6, S. 175)
1.70 Transformationen zur Stabilisierung und Normalisierung (9 / S.
361)
Sollte eine Verteilung nicht wie gefordert normal sein, kann man zu alternativen
Testverfahren greifen oder auch zu Datentransformationen, die die Daten „normalisieren“. Es gibt dazu eine Vielzahl von Möglichkeiten, so z.B. die Familie der BoxCox-Transformationen (Box & Cox, 1964). Bei den häufig auftretenden positiv schiefen Daten kommen folgende Datentransformationen in Frage (Tabachnick & Fidell,
2007):
√
• Eine Wurzeltransformation t(y) = y, wenn die Daten eine moderate positive Schiefe aufweisen.
• Eine Logarithmustransformation t(y) = log(y), wenn die Daten eine starke positive
Schiefe aufweisen.
• Die inverse Transformation t(y) = 1/y, wenn die Daten eine extreme posiitve Schiefe aufweisen.
Bei Reaktionszeitdaten wird zuweilen die Logarithmustransformation genutzt. Bei
diesen nichtlinearen Transformationen ist allerdings zu bedenken, dass die Ergebnisse von Datenanalysen basierend auf den transformierten Werten oftmals schwieriger zu interpretieren sind. So entspricht z. B. der Mittelwert einer logarithmierten
Variablen dem Logarithmus des geometrischen Mittelwerts und nicht dem üblichen
arithmetischen Mittelwert.
1.71 Der Breusch-Pagan-Test (9 / S. 362)
Der Breusch-Pagan-Test (Breusch & Pagan, 1979) beruht auf einer ähnlichen Idee
wie der Levene-Test. Hat man für eine multiple Regression der Form Ŷ = b0 +b1 X1 +
... + bk Xk die Koeffizienten b0 , ..., bk berechnet, lässt sich das Residuum
ε̂i = Yi − Ŷi
Kapitel 1 Ableitungen
67
berechnen. Nimmt man nun W = ε̂ 2 als neue abhängige Variable, kann der Einfluss
der Variablen X1 , ..., Xk auf den Fehler durch die lineare Regression
Ŵ = c0 + c1 X1 + ... + ck Xk
bestimmt werden. Ist diese lineare Regression nicht signifikant, kann davon ausgegangen werden, dass der lineare Einfluss der Variablen X1 , ..., Xk auf den Fehler nicht
substantiell ist und man hat einen Hinweise darauf, dass keine Heteroskedastizität
vorliegt.
Nach White (1980) kann man die Idee des Breusch-Pagan-Tests dahingehend ausbauen, dass man auch Interaktionen erster Ordnung der Variablen berücksichtigt. Dies
wäre ein Modell der Form
Ŵ = c0 +c1 X1 +...+ck Xk +d1 X12 +...+dk Xk2 +d12 X1 X2 +d13 X1 X3 +...d(k−1),k Xk−1 Xk .
Andere Erweiterungen des Tests sind denkbar (z.B. auch die Hinzunahme weiterer
Variablen und deren Interaktionen mit den Modellvariablen), werden aber in der Literatur nicht weiter systematisch diskutiert.
Für die Signifikanztestung kann der F-Test der multiplen Regression genutzt werden.
In der (ökonometrischen) Literatur zu diesen Testverfahren findet sich meist ein χ 2 Test. Dieser Test ist asymptotisch äquivalent zum F-Test und für große Stichproben
(n > 300) deshalb nutzbar.
1.72 Literatur
Bera, A. K. & Jarque, C. M. (1981). Efficient tests for normality, homoskedasticity
and serial independence of regression residuals: Monte Carlo evidence. Economics Letters, 7, 313–318.
Boos, D. D. & Hughes-Oliver, J. M. (2000). ’How Large Does n Have to Be for Z
and t Intervals?’ The American Statistician, 54, 121–128.
Box, G. E. P. & Cox, D. r. (1964). An analysis of transformations. Journal of the
Royal Statistical Society Series B, 26, 211–252.
Breusch, T. S. & Pagan, A. R. (1979). A Simple Test for Heteroskedasticity and
Random Coefficient Variation. Econometrica, 47, 1287–1294.
Cabilio P. & Masaro J (1996). A simple test of symmetry about an unknown median.
Canadian Journal of Statistics, 24, 349–361.
Dette, H. & Timothy E O’Brien (2004). Efficient Experimental Design for the BehrensFisher Problem With Application to Bioassay. The American Statistician, 58,
138 –143.
68
Kapitel 1
Durbin, J. & Watson, G.S. (1951). Testing for serial correlation in least-squares regression II. Biometrika, 38, 159–178.
Fligner, M. A., & Policello, G. E. (1981). Robust rank procedures for the BehrensFisher problem. Journal of the American Statistical Association, 76(373), 162–
168.
Ford, I., & Silvey, S. D. (1980). A sequentially constructed design for estimating a
nonlinear parametric function. Biometrika, 67(2), 381–388.
Gel, Y. R. & Gastwirth, J. L. (2008). A robust modification of the Jarque-Bera test of
normality. Economics Letters, 99, 30–32.
Haberman, S. J. (1978). Analysis of qualitative data. Volume 1. New York: Academic
Press.
Hayes, A. F. & Cai, L. (2007). Using heteroscedasticity-consistent standard error
estimators in OLS regression: An introduction and software implementation.
Behavior Research Methods, 39, 709–722.
Holling, H. (1983). Suppressor structures in the general linear model. Educational
and Psychological Measurement, 43, 1-9.
Holling, H. & Gediga, G. (2011). Statistik – Deskriptive Statistik. Göttingen: Hogrefe.
Holling, H. & Gediga, G. (2013). Statistik – Wahrscheinlichkeitstheorie und Schätzverfahren. Göttingen: Hogrefe.
Holling, H. & Gediga, G. (2016). Statistik – Testverfahren. Göttingen: Hogrefe.
Jarque, C. M. & Bera, A. K. (1980). Efficient tests for normality, homoskedasticity
and serial independence of regression residuals. Economics Letters, 6, 255–
259.
Keppel, G. & Wickens, T. D. (2004). Design and Analysis: A Researcher’s Handbook
(4th ed.). Pearson Education.
Khuri, A.I. (2009). Linear model methodology. Chapman & Hall/CRC, London.
Kirk, R. E. (1995). Experimental design: Procedures for the behavioral sciences (3rd
ed.). Pacific Grove, CA: Brooks/Cole.
Korkmaz, S., Goksuluk, D. & Zararsiz, G. (2016). MVN: An R Package for Assessing
Multivariate Normality. https://cran.r-project.org/web/packages/MVN /vignettes/MVN.pdf
Kutner, M.H., Nachtsheim, C.J., Neter, J. & Li, W. (2005). Applied Linear Statistical
Models (5th ed.). New York: McGraw-Hill.
Kapitel 1 Ableitungen
69
Long, J.S & Ervin, L.H. (2000). Using Heteroscedasticity Consistent Standard Errors
in the Linear Regression Model. The American Statistician, 54, 217–224.
Lütkepohl, H. (2005). New Introduction to Multiple Time Series Analysis. Berlin:
Springer.
MacKinnon, J.G. & White, H. (1985). Some heteroskedastic consistent covariance
estimators with improved finite sample properties. Journal of Econometrics,
29, 53–57.
Mauchly, J. W. (1940). Significance test for sphericity of a normal n-variate distribution. The Annals of Mathematical Statistics, 11(2), 204–209.
Maxwell, S. E., & Delaney, H. D. (2004). Designing experiments and analyzing data:
A model comparison perspective (2nd ed.). Psychology Press.
Miao W., Gel Y.R. & Gastwirth J.L. (2006). A new test of symmetry about an unknown median. In: A. Hsiung, C.-H. Zhang & Z.Ying (ed.). Random Walk,
Sequential Analysis and Related Topics. A Festschrift in Honor of Yuan-Shih
Chow. Singapore: World Scientific, 199–214.
Sahai, H., & Ageel, M. I. (2000). The analysis of variance: fixed, random and mixed
models. New York: Springer Science & Business Media.
Scheffé, H. (1959). The Analysis of Variance. New York: Wiley.
Shao, J. (2003). Mathematical Statistics (2nd ed.). New York: Springer.
Sillito, G. P. (1947). The distribution of Kendall’s τ coefficient or rank correlation in
rankings containing ties. Biometrika, 34, 36–40.
Silvey, S. D. (1980). Optimal Design. London: Chapman & Hall.
Tabachnick, B. G. & Fidell, L. S. (2007). Using multivariate statistics (6th ed.). Boston: Pearson/Allyn & Bacon.
Tukey, J. W. (1949). Comparing individual means in the analysis of variance. Biometrics, 5(2), 99–114.
White, H. (1980). A heteroskedastic-consistent covariance matrix and a direct test for
heteroskedasticity. Econometrica, 48, 817–838.
Wilcox, R. R. (2012). Introduction to robust estimation and hypothesis testing (3rd
ed.). Academic Press.
Winer, B.J., Brown, D.R. & Michels, K.M. (1991). Statistical principles in experimental design (3rd ed.). New York: McGraw-Hill.
Kapitel 2
Tabellen
2.1 Normalverteilungstabelle
Auf den nächsten beiden Seiten ist eine Tabelle der Standardnormalverteilung abgedruckt. In der Tabelle werden z-Werte dem Integral der Standardnormalverteilung
Φ(z) zugeordnet. Inhaltlich ist das der Prozentsatz der Personen in der Population,
die einen z-Wert aufweisen, der kleiner ist als der vorgebene z-Wert.
Ablesebeispiel: p(Z < 1.07) = 0.85769
Negative z-Werte sind wegen der Symmetrie der Normalverteilung nicht dargestellt.
Generell gilt wegen der Symmetrie:
p(Z < z) = 1 − p(Z < −z)
Ablesebeispiel: p(Z < −1.07) = 1 − 0.85769 = 0.14231
Die Tabelle kann mit R oder Excel oder auch OpenOffice leicht selbst erstellt werden.
Die R-Funktion ist pnorm(z).
So ergibt z. B. pnorm(-1.07) den Wert 0.14231.
Die Funktion für die Berechung des Integrals der Normalverteilung ist in Excel und
OpenOffice identisch. Sie lautet
=NORMVERT(z-Wert;0;1;1).
Der zweite Parameter (0) gibt den Mittelwert der Normalverteilung an. Der dritte Parameter (1) spezifiziert die Standardabweichung. Der vierte Parameter (1) bedeutet,
dass von −∞ bis zum z-Wert summiert werden soll. Damit ergibt die Formel
=NORMVERT(-1,07;0;1;1)
in der Zelle wiederum den Wert 0.14231.
z
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
1.10
1.20
1.30
1.40
1.50
1.60
1.70
1.80
1.90
2.00
2.10
0
0.50000
0.53983
0.57926
0.61791
0.65542
0.69146
0.72575
0.75804
0.78814
0.81594
0.84134
0.86433
0.88493
0.90320
0.91924
0.93319
0.94520
0.95543
0.96407
0.97128
0.97725
0.98214
1
0.50399
0.54380
0.58317
0.62172
0.65910
0.69497
0.72907
0.76115
0.79103
0.81859
0.84375
0.86650
0.88686
0.90490
0.92073
0.93448
0.94630
0.95637
0.96485
0.97193
0.97778
0.98257
2
0.50798
0.54776
0.58706
0.62552
0.66276
0.69847
0.73237
0.76424
0.79389
0.82121
0.84614
0.86864
0.88877
0.90658
0.92220
0.93574
0.94738
0.95728
0.96562
0.97257
0.97831
0.98300
3
0.51197
0.55172
0.59095
0.62930
0.66640
0.70194
0.73565
0.76730
0.79673
0.82381
0.84849
0.87076
0.89065
0.90824
0.92364
0.93699
0.94845
0.95818
0.96638
0.97320
0.97882
0.98341
4
0.51595
0.55567
0.59483
0.63307
0.67003
0.70540
0.73891
0.77035
0.79955
0.82639
0.85083
0.87286
0.89251
0.90988
0.92507
0.93822
0.94950
0.95907
0.96712
0.97381
0.97932
0.98382
5
0.51994
0.55962
0.59871
0.63683
0.67364
0.70884
0.74215
0.77337
0.80234
0.82894
0.85314
0.87493
0.89435
0.91149
0.92647
0.93943
0.95053
0.95994
0.96784
0.97441
0.97982
0.98422
6
0.52392
0.56356
0.60257
0.64058
0.67724
0.71226
0.74537
0.77637
0.80511
0.83147
0.85543
0.87698
0.89617
0.91309
0.92785
0.94062
0.95154
0.96080
0.96856
0.97500
0.98030
0.98461
7
0.52790
0.56749
0.60642
0.64431
0.68082
0.71566
0.74857
0.77935
0.80785
0.83398
0.85769
0.87900
0.89796
0.91466
0.92922
0.94179
0.95254
0.96164
0.96926
0.97558
0.98077
0.98500
8
0.53188
0.57142
0.61026
0.64803
0.68439
0.71904
0.75175
0.78230
0.81057
0.83646
0.85993
0.88100
0.89973
0.91621
0.93056
0.94295
0.95352
0.96246
0.96995
0.97615
0.98124
0.98537
9
0.53586
0.57535
0.61409
0.65173
0.68793
0.72240
0.75490
0.78524
0.81327
0.83891
0.86214
0.88298
0.90147
0.91774
0.93189
0.94408
0.95449
0.96327
0.97062
0.97670
0.98169
0.98574
Kapitel 2 Tabellen
71
z
2.20
2.30
2.40
2.50
2.60
2.70
2.80
2.90
3.00
3.10
3.20
3.30
3.40
3.50
3.60
3.70
3.80
3.90
4.00
4.10
4.20
4.30
0
0.98610
0.98928
0.99180
0.99379
0.99534
0.99653
0.99744
0.99813
0.99865
0.99903
0.99931
0.99952
0.99966
0.99977
0.99984
0.99989
0.99993
0.99995
0.99997
0.99998
0.99999
0.99999
1
0.98645
0.98956
0.99202
0.99396
0.99547
0.99664
0.99752
0.99819
0.99869
0.99906
0.99934
0.99953
0.99968
0.99978
0.99985
0.99990
0.99993
0.99995
0.99997
0.99998
0.99999
0.99999
2
0.98679
0.98983
0.99224
0.99413
0.99560
0.99674
0.99760
0.99825
0.99874
0.99910
0.99936
0.99955
0.99969
0.99978
0.99985
0.99990
0.99993
0.99996
0.99997
0.99998
0.99999
0.99999
3
0.98713
0.99010
0.99245
0.99430
0.99573
0.99683
0.99767
0.99831
0.99878
0.99913
0.99938
0.99957
0.99970
0.99979
0.99986
0.99990
0.99994
0.99996
0.99997
0.99998
0.99999
0.99999
4
0.98745
0.99036
0.99266
0.99446
0.99585
0.99693
0.99774
0.99836
0.99882
0.99916
0.99940
0.99958
0.99971
0.99980
0.99986
0.99991
0.99994
0.99996
0.99997
0.99998
0.99999
0.99999
5
0.98778
0.99061
0.99286
0.99461
0.99598
0.99702
0.99781
0.99841
0.99886
0.99918
0.99942
0.99960
0.99972
0.99981
0.99987
0.99991
0.99994
0.99996
0.99997
0.99998
0.99999
0.99999
6
0.98809
0.99086
0.99305
0.99477
0.99609
0.99711
0.99788
0.99846
0.99889
0.99921
0.99944
0.99961
0.99973
0.99981
0.99987
0.99992
0.99994
0.99996
0.99998
0.99998
0.99999
0.99999
7
0.98840
0.99111
0.99324
0.99492
0.99621
0.99720
0.99795
0.99851
0.99893
0.99924
0.99946
0.99962
0.99974
0.99982
0.99988
0.99992
0.99995
0.99996
0.99998
0.99998
0.99999
0.99999
8
0.98870
0.99134
0.99343
0.99506
0.99632
0.99728
0.99801
0.99856
0.99896
0.99926
0.99948
0.99964
0.99975
0.99983
0.99988
0.99992
0.99995
0.99997
0.99998
0.99999
0.99999
0.99999
9
0.98899
0.99158
0.99361
0.99520
0.99643
0.99736
0.99807
0.99861
0.99900
0.99929
0.99950
0.99965
0.99976
0.99983
0.99989
0.99992
0.99995
0.99997
0.99998
0.99999
0.99999
0.99999
72
Kapitel 2
Quantile der χ 2 -Verteilung
73
2.2 Quantile der χ 2 -Verteilung
Auf den folgenden Seiten ist eine Tabelle der χ 2 -Verteilung dargestellt. In der Tabelle für wichtige Quanteile der Verteilung die zugehörigen χ 2 -Werte. Auf diese Weise
lassen sich kritische Werte für die üblichen Irrtumswahrscheinlichkeiten leicht ablesen.
2 (14) = 26.119
Ablesebeispiel: χ.975
Die Tabelle endet bei 100 Freiheitsgraden. Sollten mehr als 100 Freiheitsgrade vorliegen, kann die Normalverteilungsapproximation mit µ = ν und σ 2 = 2ν genutzt
werden.
Die Tabelle kann mit R oder Excel oder auch OpenOffice leicht selbst erstellt werden.
Die R-Funktion ist qchisq(p, Freiheitsgrade).
So ergibt z. B. qchisq(.05, 22) den Wert 12.338.
Die entsprechende Funktion ist in Excel und OpenOffice identisch. Sie lautet
=CHIINV(1-p; df).
Der erste Parameter (1 − p) gibt den Prozentwert an, der bei vielen Chi-Quadrattests
als Irrtumswahrscheinlichkeit genutzt werden kann. Dies ist anders als in der RFunktion: Hier wird der gewünschte Wert der kumulierten Verteilung p angegeben,
während hier der Wert 1 − p eingegeben werden muss.
Der zweite Parameter (df) gibt die Freiheitsgrade an.
Die Formel
=CHIINV(,95;22)
in einer Zelle ergibt deshalb den Wert 12.338.
74
Kapitel 2
Quantile der χ 2 -Verteilung
ν
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
0.01
0.0002
0.0201
0.1148
0.2971
0.5543
0.8721
1.2390
1.6465
2.0879
2.5582
3.0535
3.5706
4.1069
4.6604
5.2294
5.8122
6.4077
7.0149
7.6327
8.2604
8.8972
9.5425
10.196
10.856
11.524
12.198
12.878
13.565
14.256
14.953
15.655
16.362
17.073
17.789
18.509
19.233
19.960
20.691
21.426
22.164
22.906
23.650
24.398
0.025
0.0010
0.0506
0.2158
0.4844
0.8312
1.2373
1.6899
2.1797
2.7004
3.2470
3.8157
4.4038
5.0087
5.6287
6.2621
6.9077
7.5642
8.2307
8.9065
9.5908
10.283
10.982
11.689
12.401
13.120
13.844
14.573
15.308
16.047
16.791
17.539
18.291
19.047
19.806
20.569
21.336
22.106
22.878
23.654
24.433
25.215
25.999
26.785
0.05
0.0039
0.1026
0.3518
0.7107
1.1455
1.6354
2.1673
2.7326
3.3251
3.9403
4.5748
5.2260
5.8919
6.5706
7.2609
7.9616
8.6718
9.3904
10.117
10.851
11.591
12.338
13.091
13.848
14.611
15.379
16.151
16.928
17.708
18.493
19.281
20.072
20.867
21.664
22.465
23.269
24.075
24.884
25.695
26.509
27.326
28.144
28.965
0.1
0.0158
0.2107
0.5844
1.0636
1.6103
2.2041
2.8331
3.4895
4.1682
4.8652
5.5778
6.3038
7.0415
7.7895
8.5468
9.3122
10.085
10.865
11.651
12.443
13.240
14.041
14.848
15.659
16.473
17.292
18.114
18.939
19.768
20.599
21.434
22.271
23.110
23.952
24.797
25.643
26.492
27.343
28.196
29.051
29.907
30.765
31.625
1−α
0.5
0.4549
1.3863
2.3660
3.3567
4.3515
5.3481
6.3458
7.3441
8.3428
9.3418
10.341
11.340
12.340
13.339
14.339
15.338
16.338
17.338
18.338
19.337
20.337
21.337
22.337
23.337
24.337
25.336
26.336
27.336
28.336
29.336
30.336
31.336
32.336
33.336
34.336
35.336
36.336
37.335
38.335
39.335
40.335
41.335
42.335
0.9
2.7055
4.6052
6.2514
7.7794
9.2363
10.645
12.017
13.362
14.684
15.987
17.275
18.549
19.812
21.064
22.307
23.542
24.769
25.989
27.204
28.412
29.615
30.813
32.007
33.196
34.382
35.563
36.741
37.916
39.087
40.256
41.422
42.585
43.745
44.903
46.059
47.212
48.363
49.513
50.660
51.805
52.949
54.090
55.230
0.95
3.8415
5.9915
7.8147
9.4877
11.070
12.592
14.067
15.507
16.919
18.307
19.675
21.026
22.362
23.685
24.996
26.296
27.587
28.869
30.144
31.410
32.671
33.924
35.172
36.415
37.652
38.885
40.113
41.337
42.557
43.773
44.985
46.194
47.400
48.602
49.802
50.998
52.192
53.384
54.572
55.758
56.942
58.124
59.304
0.975
5.0239
7.3778
9.3484
11.143
12.832
14.449
16.013
17.535
19.023
20.483
21.920
23.337
24.736
26.119
27.488
28.845
30.191
31.526
32.852
34.170
35.479
36.781
38.076
39.364
40.646
41.923
43.195
44.461
45.722
46.979
48.232
49.480
50.725
51.966
53.203
54.437
55.668
56.895
58.120
59.342
60.561
61.777
62.990
0.99
6.6349
9.2104
11.345
13.277
15.086
16.812
18.475
20.090
21.666
23.209
24.725
26.217
27.688
29.141
30.578
32.000
33.409
34.805
36.191
37.566
38.932
40.289
41.638
42.980
44.314
45.642
46.963
48.278
49.588
50.892
52.191
53.486
54.775
56.061
57.342
58.619
59.893
61.162
62.428
63.691
64.950
66.206
67.459
Quantile der χ 2 -Verteilung
75
Quantile der χ 2 -Verteilung (Fortsetzung)
ν
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
0.01
25.148
25.901
26.657
27.416
28.177
28.941
29.707
30.475
31.246
32.019
32.793
33.571
34.350
35.131
35.914
36.698
37.485
38.273
39.063
39.855
40.649
41.444
42.240
43.038
43.838
44.639
45.442
46.246
47.051
47.858
48.666
49.475
50.286
51.097
51.910
52.725
53.540
54.357
55.174
55.993
56.813
57.634
58.456
0.025
27.575
28.366
29.160
29.956
30.754
31.555
32.357
33.162
33.968
34.776
35.586
36.398
37.212
38.027
38.844
39.662
40.482
41.303
42.126
42.950
43.776
44.603
45.431
46.261
47.092
47.924
48.758
49.592
50.428
51.265
52.103
52.942
53.782
54.623
55.466
56.309
57.153
57.998
58.845
59.692
60.540
61.389
62.239
0.05
29.787
30.612
31.439
32.268
33.098
33.930
34.764
35.600
36.437
37.276
38.116
38.958
39.801
40.646
41.492
42.339
43.188
44.038
44.889
45.741
46.595
47.450
48.305
49.162
50.020
50.879
51.739
52.600
53.462
54.325
55.189
56.054
56.920
57.786
58.654
59.522
60.391
61.262
62.132
63.004
63.876
64.749
65.623
0.1
32.487
33.350
34.215
35.081
35.949
36.818
37.689
38.560
39.433
40.308
41.183
42.060
42.937
43.816
44.696
45.577
46.459
47.342
48.226
49.111
49.996
50.883
51.770
52.659
53.548
54.438
55.329
56.221
57.113
58.006
58.900
59.795
60.690
61.586
62.483
63.380
64.278
65.176
66.076
66.976
67.876
68.777
69.679
1−α
0.5
43.335
44.335
45.335
46.335
47.335
48.335
49.335
50.335
51.335
52.335
53.335
54.335
55.335
56.335
57.335
58.335
59.335
60.335
61.335
62.335
63.335
64.335
65.335
66.335
67.335
68.334
69.334
70.334
71.334
72.334
73.334
74.334
75.334
76.334
77.334
78.334
79.334
80.334
81.334
82.334
83.334
84.334
85.334
0.9
56.369
57.505
58.641
59.774
60.907
62.038
63.167
64.295
65.422
66.548
67.673
68.796
69.919
71.040
72.160
73.279
74.397
75.514
76.630
77.745
78.860
79.973
81.085
82.197
83.308
84.418
85.527
86.635
87.743
88.850
89.956
91.061
92.166
93.270
94.374
95.476
96.578
97.680
98.780
99.880
100.98
102.08
103.18
0.95
60.481
61.656
62.830
64.001
65.171
66.339
67.505
68.669
69.832
70.993
72.153
73.311
74.468
75.624
76.778
77.930
79.082
80.232
81.381
82.529
83.675
84.821
85.965
87.108
88.250
89.391
90.531
91.670
92.808
93.945
95.081
96.217
97.351
98.484
99.617
100.75
101.88
103.01
104.14
105.27
106.39
107.52
108.65
0.975
64.201
65.410
66.616
67.821
69.023
70.222
71.420
72.616
73.810
75.002
76.192
77.380
78.567
79.752
80.936
82.117
83.298
84.476
85.654
86.830
88.004
89.177
90.349
91.519
92.688
93.856
95.023
96.189
97.353
98.516
99.678
100.84
102.00
103.16
104.32
105.47
106.63
107.78
108.94
110.09
111.24
112.39
113.54
0.99
68.710
69.957
71.201
72.443
73.683
74.919
76.154
77.386
78.616
79.843
81.069
82.292
83.514
84.733
85.950
87.166
88.379
89.591
90.802
92.010
93.217
94.422
95.626
96.828
98.028
99.227
100.43
101.62
102.82
104.01
105.20
106.39
107.58
108.77
109.96
111.14
112.33
113.51
114.69
115.88
117.06
118.24
119.41
76
Kapitel 2
Quantile der χ 2 -Verteilung (Fortsetzung)
ν
87
88
89
90
91
92
93
94
95
96
97
98
99
100
0.01
59.279
60.103
60.928
61.754
62.581
63.409
64.238
65.068
65.898
66.730
67.562
68.396
69.230
70.065
0.025
63.089
63.941
64.793
65.647
66.501
67.356
68.211
69.068
69.925
70.783
71.642
72.501
73.361
74.222
0.05
66.498
67.373
68.249
69.126
70.003
70.882
71.760
72.640
73.520
74.401
75.282
76.164
77.046
77.929
0.1
70.581
71.484
72.387
73.291
74.196
75.100
76.006
76.912
77.818
78.725
79.633
80.541
81.449
82.358
1−α
0.5
86.334
87.334
88.334
89.334
90.334
91.334
92.334
93.334
94.334
95.334
96.334
97.334
98.334
99.334
0.9
104.28
105.37
106.47
107.57
108.66
109.76
110.85
111.94
113.04
114.13
115.22
116.32
117.41
118.50
0.95
109.77
110.90
112.02
113.15
114.27
115.39
116.51
117.63
118.75
119.87
120.99
122.11
123.23
124.34
0.975
114.69
115.84
116.99
118.14
119.28
120.43
121.57
122.72
123.86
125.00
126.14
127.28
128.42
129.56
0.99
120.59
121.77
122.94
124.12
125.29
126.46
127.63
128.80
129.97
131.14
132.31
133.48
134.64
135.81
Quantile der t -Verteilung
77
2.3 Quantile der t -Verteilung
Auf der folgende Seite ist eine Tabelle der t-Verteilung dargestellt. In der Tabelle werden für wichtige Quantile der t-Verteilung die zugehörigen t-Werte ausgegeben.
Wegen der Klappsymmetrie der t-Verteilung t1−α (d f ) = −tα (d f ), werden nur Werte
für 1 − α > 0.5 dargestellt.
Ablesebeispiel: t0.975 (8) = 2.306
Die Tabelle endet bei 40 Freiheitsgraden. Sollten mehr als 40 Freiheitsgrade vorliegen, kann die Standardnormverteilungsapproximation für t-Werte genutzt werden.
Die Tabelle kann mit R oder Excel oder auch OpenOffice leicht selbst erstellt werden.
Die R-Funktion ist qt(p, Freiheitsgrade).
So ergibt z. B. qt(.975, 12) den Wert 2.1788. Dies ist der kritische Wert für
α = .05 bei einem zweiseitigen t-Test.
Die entsprechende Funktion ist in Excel und OpenOffice identisch. Sie lautet
=TINV(alpha; df).
Der erste Parameter (al pha) gibt die Irrtumswahrscheinlichkeit eines zweiseitigen
Tests an. Anders als in der R-Funktion wird also nicht das gewünschte Prozentwert
p der t-Verteilung, sondern der Wert (1 − p) × 2. Der Vorteil ist, dass hier für einen
zweiseitigen Test direkt α eingegeben werden kann (und nicht wie in R der Wert
1 − α/2).
Der zweite Parameter (df) gibt die Freiheitsgrade an.
Die Formel
=TINV(,05;12)
in einer Zelle ergibt deshalb den Wert 2.1788.
78
Kapitel 2
Quantile der t-Verteilung
ν
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
∞
0.7
0.7265
0.6172
0.5844
0.5686
0.5594
0.5534
0.5491
0.5459
0.5435
0.5415
0.5399
0.5386
0.5375
0.5366
0.5357
0.5350
0.5344
0.5338
0.5333
0.5329
0.5325
0.5321
0.5317
0.5314
0.5312
0.5309
0.5306
0.5304
0.5302
0.5300
0.5298
0.5297
0.5295
0.5294
0.5292
0.5291
0.5289
0.5288
0.5287
0.5286
0.5244
0.8
1.3764
1.0607
0.9785
0.9410
0.9195
0.9057
0.8960
0.8889
0.8834
0.8791
0.8755
0.8726
0.8702
0.8681
0.8662
0.8647
0.8633
0.8620
0.8610
0.8600
0.8591
0.8583
0.8575
0.8569
0.8562
0.8557
0.8551
0.8546
0.8542
0.8538
0.8534
0.8530
0.8526
0.8523
0.8520
0.8517
0.8514
0.8512
0.8509
0.8507
0.8416
0.9
3.0777
1.8856
1.6377
1.5332
1.4759
1.4398
1.4149
1.3968
1.3830
1.3722
1.3634
1.3562
1.3502
1.3450
1.3406
1.3368
1.3334
1.3304
1.3277
1.3253
1.3232
1.3212
1.3195
1.3178
1.3163
1.3150
1.3137
1.3125
1.3114
1.3104
1.3095
1.3086
1.3077
1.3070
1.3062
1.3055
1.3049
1.3042
1.3036
1.3031
1.2816
0.95
6.3137
2.9200
2.3534
2.1318
2.0150
1.9432
1.8946
1.8595
1.8331
1.8125
1.7959
1.7823
1.7709
1.7613
1.7531
1.7459
1.7396
1.7341
1.7291
1.7247
1.7207
1.7171
1.7139
1.7109
1.7081
1.7056
1.7033
1.7011
1.6991
1.6973
1.6955
1.6939
1.6924
1.6909
1.6896
1.6883
1.6871
1.6860
1.6849
1.6839
1.6449
1−α
0.975
12.706
4.3027
3.1824
2.7765
2.5706
2.4469
2.3646
2.3060
2.2622
2.2281
2.2010
2.1788
2.1604
2.1448
2.1315
2.1199
2.1098
2.1009
2.0930
2.0860
2.0796
2.0739
2.0687
2.0639
2.0595
2.0555
2.0518
2.0484
2.0452
2.0423
2.0395
2.0369
2.0345
2.0322
2.0301
2.0281
2.0262
2.0244
2.0227
2.0211
1.9600
0.99
31.821
6.9645
4.5407
3.7469
3.3649
3.1427
2.9979
2.8965
2.8214
2.7638
2.7181
2.6810
2.6503
2.6245
2.6025
2.5835
2.5669
2.5524
2.5395
2.5280
2.5176
2.5083
2.4999
2.4922
2.4851
2.4786
2.4727
2.4671
2.4620
2.4573
2.4528
2.4487
2.4448
2.4411
2.4377
2.4345
2.4314
2.4286
2.4258
2.4233
2.3263
0.995
63.656
9.9250
5.8408
4.6041
4.0321
3.7074
3.4995
3.3554
3.2498
3.1693
3.1058
3.0545
3.0123
2.9768
2.9467
2.9208
2.8982
2.8784
2.8609
2.8453
2.8314
2.8188
2.8073
2.7970
2.7874
2.7787
2.7707
2.7633
2.7564
2.7500
2.7440
2.7385
2.7333
2.7284
2.7238
2.7195
2.7154
2.7116
2.7079
2.7045
2.5758
0.999
318.29
22.328
10.214
7.1729
5.8935
5.2075
4.7853
4.5008
4.2969
4.1437
4.0248
3.9296
3.8520
3.7874
3.7329
3.6861
3.6458
3.6105
3.5793
3.5518
3.5271
3.5050
3.4850
3.4668
3.4502
3.4350
3.4210
3.4082
3.3963
3.3852
3.3749
3.3653
3.3563
3.3480
3.3400
3.3326
3.3256
3.3190
3.3127
3.3069
3.0902
0.9995
636.58
31.600
12.924
8.6101
6.8685
5.9587
5.4081
5.0414
4.7809
4.5868
4.4369
4.3178
4.2209
4.1403
4.0728
4.0149
3.9651
3.9217
3.8833
3.8496
3.8193
3.7922
3.7676
3.7454
3.7251
3.7067
3.6895
3.6739
3.6595
3.6460
3.6335
3.6218
3.6109
3.6007
3.5911
3.5821
3.5737
3.5657
3.5581
3.5510
3.2905
Quantile der F -Verteilung
79
2.4 Quantile der F -Verteilung
Auf den folgenden Seiten ist eine Tabelle der F-Verteilung dargestellt. In der Tabelle
werden für wichtige Quantile der F-Verteilung die zugehörigen F-Werte ausgegeben.
Ablesebeispiel: f0.95 (8, 15) = 2.641
Zur Berechnung der Quantile für „kleine“ Werte von p (.1, .05, .025 oder .01) kann
die Formel
f p (ν1 , ν2 ) = 1/ f1−p (ν2 , ν1 )
verwendet werden.
Ablesebeispiel: f0.05 (8, 15) = 1/ f0.95 (15, 8) = 1/3.218 = 0.311
Die Tabelle kann mit R oder Excel oder auch OpenOffice leicht selbst erstellt werden.
Die R-Funktion ist qf(p, Zaehlerdf, Nennerdf).
So ergibt z. B. qf(.95, 1, 9) den Wert 5.1174. Dies ist der kritische Wert für
α = .05 bei einem F-Test.
Die entsprechende Funktion ist in Excel und OpenOffice identisch. Sie lautet
=FINV(alpha; df1; df2).
Der erste Parameter (al pha) gibt die Irrtumswahrscheinlichkeit eines zweiseitigen
Tests an. Anders als in der R-Funktion wird also nicht der gewünschte Prozentwert
p der F-Verteilung, sondern der Wert (1 − p) angegeben. Der Vorteil ist, dass hier
für einen F-Test Test direkt α eingegeben werden kann (und nicht wie in R der Wert
1 − α).
Der zweite Parameter (df1) gibt die Zählerfreiheitsgrade an.
Der zweite Parameter (df2) gibt die Nennerfreiheitsgrade an.
Die Formel
=FINV(,05;1;9)
in einer Zelle ergibt deshalb den Wert 5.1174.
80
Kapitel 2
Quantile der F-Verteilung
ν2
ν1
1
1
1
1
2
2
2
2
3
3
3
3
4
4
4
4
5
5
5
5
6
6
6
6
7
7
7
7
8
8
8
8
9
9
9
9
10
10
10
10
1−α
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
1
39.864
161.45
647.79
4052.2
49.500
199.50
799.48
4999.3
53.593
215.71
864.15
5403.5
55.833
224.58
899.60
5624.3
57.240
230.16
921.83
5764.0
58.204
233.99
937.11
5859.0
58.906
236.77
948.20
5928.3
59.439
238.88
956.64
5981.0
59.857
240.54
963.28
6022.4
60.195
241.88
968.63
6055.9
2
8.5263
18.513
38.506
98.502
9.0000
19.000
39.000
99.000
9.1618
19.164
39.166
99.164
9.2434
19.247
39.248
99.251
9.2926
19.296
39.298
99.302
9.3255
19.329
39.331
99.331
9.3491
19.353
39.356
99.357
9.3668
19.371
39.373
99.375
9.3805
19.385
39.387
99.390
9.3916
19.396
39.398
99.397
3
5.5383
10.128
17.443
34.116
5.4624
9.5521
16.044
30.816
5.3908
9.2766
15.439
29.457
5.3427
9.1172
15.101
28.710
5.3091
9.0134
14.885
28.237
5.2847
8.9407
14.735
27.911
5.2662
8.8867
14.624
27.671
5.2517
8.8452
14.540
27.489
5.2400
8.8123
14.473
27.345
5.2304
8.7855
14.419
27.228
4
4.5448
7.7086
12.218
21.198
4.3246
6.9443
10.649
18.000
4.1909
6.5914
9.9792
16.694
4.1072
6.3882
9.6045
15.977
4.0506
6.2561
9.3645
15.522
4.0097
6.1631
9.1973
15.207
3.9790
6.0942
9.0741
14.976
3.9549
6.0410
8.9796
14.799
3.9357
5.9988
8.9046
14.659
3.9199
5.9644
8.8439
14.546
5
4.0604
6.6079
10.007
16.258
3.7797
5.7861
8.4336
13.274
3.6195
5.4094
7.7636
12.060
3.5202
5.1922
7.3879
11.392
3.4530
5.0503
7.1464
10.967
3.4045
4.9503
6.9777
10.672
3.3679
4.8759
6.8530
10.456
3.3393
4.8183
6.7572
10.289
3.3163
4.7725
6.6810
10.158
3.2974
4.7351
6.6192
10.051
6
3.7760
5.9874
8.8131
13.745
3.4633
5.1432
7.2599
10.925
3.2888
4.7571
6.5988
9.7796
3.1808
4.5337
6.2271
9.1484
3.1075
4.3874
5.9875
8.7459
3.0546
4.2839
5.8197
8.4660
3.0145
4.2067
5.6955
8.2600
2.9830
4.1468
5.5996
8.1017
2.9577
4.0990
5.5234
7.9760
2.9369
4.0600
5.4613
7.8742
7
3.5894
5.5915
8.0727
12.246
3.2574
4.7374
6.5415
9.5465
3.0741
4.3468
5.8898
8.4513
2.9605
4.1203
5.5226
7.8467
2.8833
3.9715
5.2852
7.4604
2.8274
3.8660
5.1186
7.1914
2.7849
3.7871
4.9949
6.9929
2.7516
3.7257
4.8993
6.8401
2.7247
3.6767
4.8232
6.7188
2.7025
3.6365
4.7611
6.6201
8
3.4579
5.3176
7.5709
11.259
3.1131
4.4590
6.0595
8.6491
2.9238
4.0662
5.4160
7.5910
2.8064
3.8379
5.0526
7.0061
2.7264
3.6875
4.8173
6.6318
2.6683
3.5806
4.6517
6.3707
2.6241
3.5005
4.5285
6.1776
2.5893
3.4381
4.4333
6.0288
2.5612
3.3881
4.3572
5.9106
2.5380
3.3472
4.2951
5.8143
Quantile der F -Verteilung
81
Quantile der F-Verteilung
ν2
ν1
11
11
11
11
12
12
12
12
13
13
13
13
14
14
14
14
15
15
15
15
16
16
16
16
17
17
17
17
18
18
18
18
19
19
19
19
20
20
20
20
1−α
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
1
60.473
242.98
973.03
6083.4
60.705
243.90
976.72
6106.7
60.902
244.69
979.84
6125.8
61.073
245.36
982.55
6143.0
61.220
245.95
984.87
6157.0
61.350
246.47
986.91
6170.0
61.465
246.92
988.72
6181.2
61.566
247.32
990.35
6191.4
61.658
247.69
991.80
6200.7
61.740
248.02
993.08
6208.7
2
9.4006
19.405
39.407
99.408
9.4082
19.412
39.415
99.419
9.4145
19.419
39.421
99.422
9.4200
19.424
39.427
99.426
9.4247
19.429
39.431
99.433
9.4288
19.433
39.436
99.437
9.4325
19.437
39.439
99.441
9.4358
19.440
39.442
99.444
9.4387
19.443
39.446
99.448
9.4413
19.446
39.448
99.448
3
5.2224
8.7633
14.374
27.132
5.2156
8.7447
14.337
27.052
5.2098
8.7286
14.305
26.983
5.2047
8.7149
14.277
26.924
5.2003
8.7028
14.253
26.872
5.1964
8.6923
14.232
26.826
5.1929
8.6829
14.213
26.786
5.1898
8.6745
14.196
26.751
5.1870
8.6670
14.181
26.719
5.1845
8.6602
14.167
26.690
4
3.9067
5.9358
8.7936
14.452
3.8955
5.9117
8.7512
14.374
3.8859
5.8911
8.7150
14.306
3.8776
5.8733
8.6837
14.249
3.8704
5.8578
8.6566
14.198
3.8639
5.8441
8.6326
14.154
3.8582
5.8320
8.6113
14.114
3.8531
5.8211
8.5923
14.079
3.8485
5.8114
8.5753
14.048
3.8443
5.8025
8.5599
14.019
5
3.2816
4.7040
6.5678
9.9626
3.2682
4.6777
6.5245
9.8883
3.2567
4.6552
6.4876
9.8248
3.2468
4.6358
6.4556
9.7700
3.2380
4.6188
6.4277
9.7223
3.2303
4.6038
6.4032
9.6802
3.2234
4.5904
6.3814
9.6429
3.2172
4.5785
6.3619
9.6095
3.2117
4.5678
6.3444
9.5797
3.2067
4.5581
6.3285
9.5527
6
2.9195
4.0274
5.4098
7.7896
2.9047
3.9999
5.3662
7.7183
2.8920
3.9764
5.3290
7.6575
2.8809
3.9559
5.2968
7.6050
2.8712
3.9381
5.2686
7.5590
2.8626
3.9223
5.2439
7.5186
2.8550
3.9083
5.2218
7.4826
2.8481
3.8957
5.2021
7.4506
2.8419
3.8844
5.1844
7.4219
2.8363
3.8742
5.1684
7.3958
7
2.6839
3.6030
4.7095
6.5381
2.6681
3.5747
4.6658
6.4691
2.6545
3.5503
4.6285
6.4100
2.6426
3.5292
4.5961
6.3590
2.6322
3.5107
4.5678
6.3144
2.6230
3.4944
4.5428
6.2751
2.6148
3.4799
4.5206
6.2400
2.6074
3.4669
4.5008
6.2089
2.6008
3.4551
4.4829
6.1808
2.5947
3.4445
4.4668
6.1555
8
2.5186
3.3129
4.2434
5.7343
2.5020
3.2839
4.1997
5.6667
2.4876
3.2590
4.1622
5.6089
2.4752
3.2374
4.1297
5.5588
2.4642
3.2184
4.1012
5.5152
2.4545
3.2016
4.0761
5.4765
2.4458
3.1867
4.0538
5.4423
2.4380
3.1733
4.0338
5.4116
2.4310
3.1612
4.0158
5.3841
2.4246
3.1503
3.9994
5.3591
82
Kapitel 2
Quantile der F-Verteilung (Fortsetzung)
ν2
ν1
1
1
1
1
2
2
2
2
3
3
3
3
4
4
4
4
5
5
5
5
6
6
6
6
7
7
7
7
8
8
8
8
9
9
9
9
10
10
10
10
1−α
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
9
3.3603
5.1174
7.2093
10.562
3.0064
4.2565
5.7147
8.0215
2.8129
3.8625
5.0781
6.9920
2.6927
3.6331
4.7181
6.4221
2.6106
3.4817
4.4844
6.0569
2.5509
3.3738
4.3197
5.8018
2.5053
3.2927
4.1970
5.6128
2.4694
3.2296
4.1020
5.4671
2.4403
3.1789
4.0260
5.3511
2.4163
3.1373
3.9639
5.2565
10
3.2850
4.9646
6.9367
10.044
2.9245
4.1028
5.4564
7.5595
2.7277
3.7083
4.8256
6.5523
2.6053
3.4780
4.4683
5.9944
2.5216
3.3258
4.2361
5.6364
2.4606
3.2172
4.0721
5.3858
2.4140
3.1355
3.9498
5.2001
2.3771
3.0717
3.8549
5.0567
2.3473
3.0204
3.7790
4.9424
2.3226
2.9782
3.7168
4.8491
11
3.2252
4.8443
6.7241
9.646
2.8595
3.9823
5.2559
7.2057
2.6602
3.5874
4.6300
6.2167
2.5362
3.3567
4.2751
5.6683
2.4512
3.2039
4.0440
5.3160
2.3891
3.0946
3.8806
5.0692
2.3416
3.0123
3.7586
4.8860
2.3040
2.9480
3.6638
4.7445
2.2735
2.8962
3.5879
4.6315
2.2482
2.8536
3.5257
4.5393
12
3.1766
4.7472
6.5538
9.3303
2.8068
3.8853
5.0959
6.9266
2.6055
3.4903
4.4742
5.9525
2.4801
3.2592
4.1212
5.4119
2.3940
3.1059
3.8911
5.0644
2.3310
2.9961
3.7283
4.8205
2.2828
2.9134
3.6065
4.6395
2.2446
2.8486
3.5118
4.4994
2.2135
2.7964
3.4358
4.3875
2.1878
2.7534
3.3735
4.2961
13
3.1362
4.6672
6.4143
9.0738
2.7632
3.8056
4.9653
6.7009
2.5603
3.4105
4.3472
5.7394
2.4337
3.1791
3.9959
5.2053
2.3467
3.0254
3.7667
4.8616
2.2830
2.9153
3.6043
4.6203
2.2341
2.8321
3.4827
4.4410
2.1953
2.7669
3.3880
4.3021
2.1638
2.7144
3.3120
4.1911
2.1376
2.6710
3.2497
4.1003
14
3.1022
4.6001
6.2979
8.8617
2.7265
3.7389
4.8567
6.5149
2.5222
3.3439
4.2417
5.5639
2.3947
3.1122
3.8919
5.0354
2.3069
2.9582
3.6634
4.6950
2.2426
2.8477
3.5014
4.4558
2.1931
2.7642
3.3799
4.2779
2.1539
2.6987
3.2853
4.1400
2.1220
2.6458
3.2093
4.0297
2.0954
2.6022
3.1469
3.9394
15
3.0732
4.5431
6.1995
8.6832
2.6952
3.6823
4.7650
6.3588
2.4898
3.2874
4.1528
5.4170
2.3614
3.0556
3.8043
4.8932
2.2730
2.9013
3.5764
4.5556
2.2081
2.7905
3.4147
4.3183
2.1582
2.7066
3.2934
4.1416
2.1185
2.6408
3.1987
4.0044
2.0862
2.5876
3.1227
3.8948
2.0593
2.5437
3.0602
3.8049
16
3.0481
4.4940
6.1151
8.5309
2.6682
3.6337
4.6867
6.2263
2.4618
3.2389
4.0768
5.2922
2.3327
3.0069
3.7294
4.7726
2.2438
2.8524
3.5021
4.4374
2.1783
2.7413
3.3406
4.2016
2.1280
2.6572
3.2194
4.0259
2.0880
2.5911
3.1248
3.8896
2.0553
2.5377
3.0488
3.7804
2.0281
2.4935
2.9862
3.6909
Quantile der F -Verteilung
83
Quantile der F-Verteilung (Fortsetzung)
ν2
ν1
11
11
11
11
12
12
12
12
13
13
13
13
14
14
14
14
15
15
15
15
16
16
16
16
17
17
17
17
18
18
18
18
19
19
19
19
20
20
20
20
1−α
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
9
2.3961
3.1025
3.9121
5.1779
2.3789
3.0729
3.8682
5.1115
2.3640
3.0475
3.8306
5.0545
2.3510
3.0255
3.7980
5.0052
2.3396
3.0061
3.7693
4.9621
2.3295
2.9890
3.7441
4.9240
2.3205
2.9737
3.7216
4.8902
2.3123
2.9600
3.7015
4.8599
2.3050
2.9477
3.6833
4.8327
2.2983
2.9365
3.6669
4.8080
10
2.3018
2.9430
3.6649
4.7716
2.2841
2.9130
3.6210
4.7058
2.2687
2.8872
3.5832
4.6496
2.2553
2.8647
3.5504
4.6008
2.2435
2.8450
3.5217
4.5582
2.2330
2.8276
3.4963
4.5204
2.2237
2.8120
3.4736
4.4869
2.2153
2.7980
3.4534
4.4569
2.2077
2.7854
3.4351
4.4299
2.2007
2.7740
3.4185
4.4054
11
2.2269
2.8179
3.4737
4.4624
2.2087
2.7876
3.4296
4.3974
2.1930
2.7614
3.3917
4.3416
2.1792
2.7386
3.3588
4.2933
2.1671
2.7186
3.3299
4.2509
2.1563
2.7009
3.3044
4.2135
2.1467
2.6851
3.2816
4.1802
2.1380
2.6709
3.2612
4.1503
2.1302
2.6581
3.2428
4.1234
2.1230
2.6464
3.2261
4.0990
12
2.1660
2.7173
3.3215
4.2198
2.1474
2.6866
3.2773
4.1553
2.1313
2.6602
3.2393
4.0998
2.1173
2.6371
3.2062
4.0517
2.1049
2.6169
3.1772
4.0096
2.0938
2.5989
3.1515
3.9724
2.0839
2.5828
3.1286
3.9392
2.0750
2.5684
3.1081
3.9095
2.0670
2.5554
3.0896
3.8827
2.0597
2.5436
3.0728
3.8584
13
2.1155
2.6346
3.1975
4.0245
2.0966
2.6037
3.1532
3.9603
2.0802
2.5769
3.1150
3.9052
2.0658
2.5536
3.0819
3.8573
2.0532
2.5331
3.0527
3.8154
2.0419
2.5149
3.0269
3.7783
2.0318
2.4987
3.0039
3.7452
2.0227
2.4841
2.9832
3.7156
2.0145
2.4709
2.9646
3.6889
2.0070
2.4589
2.9477
3.6646
14
2.0730
2.5655
3.0946
3.8640
2.0537
2.5342
3.0502
3.8002
2.0370
2.5073
3.0119
3.7452
2.0224
2.4837
2.9786
3.6976
2.0095
2.4630
2.9493
3.6557
1.9981
2.4446
2.9234
3.6187
1.9878
2.4282
2.9003
3.5857
1.9785
2.4134
2.8795
3.5561
1.9701
2.4000
2.8607
3.5294
1.9625
2.3879
2.8437
3.5052
15
2.0366
2.5068
3.0078
3.7299
2.0171
2.4753
2.9633
3.6662
2.0001
2.4481
2.9249
3.6115
1.9853
2.4244
2.8915
3.5639
1.9722
2.4034
2.8621
3.5222
1.9605
2.3849
2.8360
3.4852
1.9501
2.3683
2.8128
3.4523
1.9407
2.3533
2.7919
3.4228
1.9321
2.3398
2.7730
3.3961
1.9243
2.3275
2.7559
3.3719
16
2.0051
2.4564
2.9337
3.6162
1.9854
2.4247
2.8891
3.5527
1.9682
2.3973
2.8506
3.4981
1.9532
2.3733
2.8170
3.4506
1.9399
2.3522
2.7875
3.4090
1.9281
2.3335
2.7614
3.3721
1.9175
2.3167
2.7380
3.3392
1.9079
2.3016
2.7170
3.3096
1.8992
2.2880
2.6980
3.2829
1.8913
2.2756
2.6808
3.2587
84
Kapitel 2
Quantile der F-Verteilung (Fortsetzung)
ν2
ν1
1
1
1
1
2
2
2
2
3
3
3
3
4
4
4
4
5
5
5
5
6
6
6
6
7
7
7
7
8
8
8
8
9
9
9
9
10
10
10
10
1−α
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
17
3.0262
4.4513
6.0420
8.3998
2.6446
3.5915
4.6189
6.1121
2.4374
3.1968
4.0112
5.1850
2.3077
2.9647
3.6648
4.6689
2.2183
2.8100
3.4379
4.3360
2.1524
2.6987
3.2767
4.1015
2.1017
2.6143
3.1556
3.9267
2.0613
2.5480
3.0610
3.7909
2.0284
2.4943
2.9849
3.6823
2.0009
2.4499
2.9222
3.5931
18
3.0070
4.4139
5.9781
8.2855
2.6239
3.5546
4.5597
6.0129
2.4160
3.1599
3.9539
5.0919
2.2858
2.9277
3.6083
4.5790
2.1958
2.7729
3.3820
4.2479
2.1296
2.6613
3.2209
4.0146
2.0785
2.5767
3.0999
3.8406
2.0379
2.5102
3.0053
3.7054
2.0047
2.4563
2.9291
3.5971
1.9770
2.4117
2.8664
3.5081
19
2.9899
4.3808
5.9216
8.1850
2.6056
3.5219
4.5075
5.9259
2.3970
3.1274
3.9034
5.0103
2.2663
2.8951
3.5587
4.5002
2.1760
2.7401
3.3327
4.1708
2.1094
2.6283
3.1718
3.9386
2.0580
2.5435
3.0509
3.7653
2.0171
2.4768
2.9563
3.6305
1.9836
2.4227
2.8801
3.5225
1.9557
2.3779
2.8172
3.4338
20
2.9747
4.3513
5.8715
8.0960
2.5893
3.4928
4.4612
5.8490
2.3801
3.0984
3.8587
4.9382
2.2489
2.8661
3.5147
4.4307
2.1582
2.7109
3.2891
4.1027
2.0913
2.5990
3.1283
3.8714
2.0397
2.5140
3.0074
3.6987
1.9985
2.4471
2.9128
3.5644
1.9649
2.3928
2.8365
3.4567
1.9367
2.3479
2.7737
3.3682
21
2.9610
4.3248
5.8266
8.0166
2.5746
3.4668
4.4199
5.7804
2.3649
3.0725
3.8188
4.8740
2.2333
2.8401
3.4754
4.3688
2.1423
2.6848
3.2501
4.0421
2.0751
2.5727
3.0895
3.8117
2.0233
2.4876
2.9686
3.6396
1.9819
2.4205
2.8740
3.5056
1.9480
2.3661
2.7977
3.3982
1.9197
2.3210
2.7348
3.3098
22
2.9486
4.3009
5.7863
7.9453
2.5613
3.4434
4.3828
5.7190
2.3512
3.0491
3.7829
4.8166
2.2193
2.8167
3.4401
4.3134
2.1279
2.6613
3.2151
3.9880
2.0605
2.5491
3.0546
3.7583
2.0084
2.4638
2.9338
3.5866
1.9668
2.3965
2.8392
3.4530
1.9327
2.3419
2.7628
3.3458
1.9043
2.2967
2.6998
3.2576
23
2.9374
4.2793
5.7498
7.8811
2.5493
3.4221
4.3492
5.6637
2.3387
3.0280
3.7505
4.7648
2.2065
2.7955
3.4083
4.2635
2.1149
2.6400
3.1835
3.9392
2.0472
2.5277
3.0232
3.7102
1.9949
2.4422
2.9023
3.5390
1.9531
2.3748
2.8077
3.4057
1.9189
2.3201
2.7313
3.2986
1.8903
2.2747
2.6682
3.2106
24
2.9271
4.2597
5.7166
7.8229
2.5383
3.4028
4.3187
5.6136
2.3274
3.0088
3.7211
4.7181
2.1949
2.7763
3.3794
4.2185
2.1030
2.6207
3.1548
3.8951
2.0351
2.5082
2.9946
3.6667
1.9826
2.4226
2.8738
3.4959
1.9407
2.3551
2.7791
3.3629
1.9063
2.3002
2.7027
3.2560
1.8775
2.2547
2.6396
3.1681
Quantile der F -Verteilung
85
Quantile der F-Verteilung (Fortsetzung)
ν2
ν1
11
11
11
11
12
12
12
12
13
13
13
13
14
14
14
14
15
15
15
15
16
16
16
16
17
17
17
17
18
18
18
18
19
19
19
19
20
20
20
20
1−α
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
17
1.9777
2.4126
2.8696
3.5185
1.9577
2.3807
2.8249
3.4552
1.9404
2.3531
2.7863
3.4007
1.9252
2.3290
2.7526
3.3533
1.9117
2.3077
2.7230
3.3117
1.8997
2.2888
2.6968
3.2748
1.8889
2.2719
2.6733
3.2419
1.8792
2.2567
2.6522
3.2124
1.8704
2.2429
2.6331
3.1857
1.8624
2.2304
2.6158
3.1615
18
1.9535
2.3742
2.8137
3.4338
1.9333
2.3421
2.7689
3.3706
1.9158
2.3143
2.7302
3.3162
1.9004
2.2900
2.6964
3.2689
1.8868
2.2686
2.6667
3.2273
1.8747
2.2496
2.6403
3.1905
1.8638
2.2325
2.6168
3.1575
1.8539
2.2172
2.5956
3.1280
1.8450
2.2033
2.5764
3.1013
1.8368
2.1906
2.5590
3.0771
19
1.9321
2.3402
2.7645
3.3596
1.9117
2.3080
2.7196
3.2965
1.8940
2.2800
2.6808
3.2422
1.8785
2.2556
2.6469
3.1949
1.8647
2.2341
2.6171
3.1533
1.8524
2.2149
2.5907
3.1165
1.8414
2.1977
2.5670
3.0836
1.8314
2.1823
2.5457
3.0541
1.8224
2.1682
2.5264
3.0274
1.8142
2.1555
2.5089
3.0031
20
1.9129
2.3100
2.7209
3.2941
1.8924
2.2776
2.6758
3.2311
1.8745
2.2495
2.6369
3.1769
1.8588
2.2250
2.6030
3.1296
1.8449
2.2033
2.5731
3.0880
1.8325
2.1840
2.5465
3.0512
1.8214
2.1667
2.5228
3.0183
1.8113
2.1511
2.5014
2.9887
1.8022
2.1370
2.4821
2.9620
1.7938
2.1242
2.4645
2.9377
21
1.8956
2.2829
2.6819
3.2359
1.8750
2.2504
2.6368
3.1729
1.8570
2.2222
2.5978
3.1187
1.8412
2.1975
2.5638
3.0715
1.8271
2.1757
2.5338
3.0300
1.8146
2.1563
2.5071
2.9931
1.8034
2.1389
2.4833
2.9602
1.7932
2.1232
2.4618
2.9306
1.7840
2.1090
2.4424
2.9038
1.7756
2.0960
2.4247
2.8795
22
1.8801
2.2585
2.6469
3.1837
1.8593
2.2258
2.6017
3.1209
1.8411
2.1975
2.5626
3.0667
1.8252
2.1727
2.5285
3.0195
1.8111
2.1508
2.4984
2.9779
1.7984
2.1313
2.4717
2.9411
1.7871
2.1138
2.4478
2.9082
1.7768
2.0980
2.4262
2.8786
1.7675
2.0837
2.4067
2.8518
1.7590
2.0707
2.3890
2.8274
23
1.8659
2.2364
2.6152
3.1368
1.8450
2.2036
2.5699
3.0740
1.8267
2.1752
2.5308
3.0199
1.8107
2.1502
2.4966
2.9727
1.7964
2.1282
2.4665
2.9311
1.7837
2.1086
2.4396
2.8942
1.7723
2.0910
2.4156
2.8613
1.7619
2.0751
2.3940
2.8317
1.7525
2.0608
2.3745
2.8049
1.7439
2.0476
2.3566
2.7805
24
1.8530
2.2163
2.5865
3.0944
1.8319
2.1834
2.5411
3.0316
1.8136
2.1548
2.5019
2.9775
1.7974
2.1298
2.4677
2.9303
1.7831
2.1077
2.4374
2.8887
1.7703
2.0880
2.4105
2.8519
1.7587
2.0703
2.3865
2.8189
1.7483
2.0543
2.3648
2.7892
1.7388
2.0399
2.3452
2.7624
1.7302
2.0267
2.3273
2.7380
86
Kapitel 2
Quantile der F-Verteilung (Fortsetzung)
ν2
ν1
1
1
1
1
2
2
2
2
3
3
3
3
4
4
4
4
5
5
5
5
6
6
6
6
7
7
7
7
8
8
8
8
9
9
9
9
10
10
10
10
1−α
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
25
2.9177
4.2417
5.6864
7.7698
2.5283
3.3852
4.2909
5.5680
2.3170
2.9912
3.6943
4.6755
2.1842
2.7587
3.3530
4.1774
2.0922
2.6030
3.1287
3.8550
2.0241
2.4904
2.9685
3.6272
1.9714
2.4047
2.8478
3.4568
1.9292
2.3371
2.7531
3.3239
1.8947
2.2821
2.6766
3.2172
1.8658
2.2365
2.6135
3.1294
26
2.9091
4.2252
5.6586
7.7213
2.5191
3.3690
4.2655
5.5263
2.3075
2.9752
3.6697
4.6365
2.1745
2.7426
3.3289
4.1400
2.0822
2.5868
3.1048
3.8183
2.0139
2.4741
2.9447
3.5911
1.9610
2.3883
2.8240
3.4210
1.9188
2.3205
2.7293
3.2884
1.8841
2.2655
2.6528
3.1818
1.8550
2.2197
2.5896
3.0941
27
2.9012
4.2100
5.6331
7.6767
2.5106
3.3541
4.2421
5.4881
2.2987
2.9603
3.6472
4.6009
2.1655
2.7278
3.3067
4.1056
2.0730
2.5719
3.0828
3.7847
2.0045
2.4591
2.9228
3.5580
1.9515
2.3732
2.8021
3.3882
1.9091
2.3053
2.7074
3.2558
1.8743
2.2501
2.6309
3.1494
1.8451
2.2043
2.5676
3.0618
28
2.8938
4.1960
5.6096
7.6357
2.5028
3.3404
4.2205
5.4529
2.2906
2.9467
3.6264
4.5681
2.1571
2.7141
3.2863
4.0740
2.0645
2.5581
3.0626
3.7539
1.9959
2.4453
2.9027
3.5276
1.9427
2.3593
2.7820
3.3581
1.9001
2.2913
2.6872
3.2259
1.8652
2.2360
2.6106
3.1195
1.8359
2.1900
2.5473
3.0320
29
2.8870
4.1830
5.5878
7.5977
2.4955
3.3277
4.2006
5.4205
2.2831
2.9340
3.6072
4.5378
2.1494
2.7014
3.2674
4.0449
2.0566
2.5454
3.0438
3.7254
1.9878
2.4324
2.8840
3.4995
1.9345
2.3463
2.7633
3.3303
1.8918
2.2782
2.6686
3.1982
1.8568
2.2229
2.5919
3.0920
1.8274
2.1768
2.5286
3.0045
30
2.8807
4.1709
5.5675
7.5624
2.4887
3.3158
4.1821
5.3903
2.2761
2.9223
3.5893
4.5097
2.1422
2.6896
3.2499
4.0179
2.0492
2.5336
3.0265
3.6990
1.9803
2.4205
2.8667
3.4735
1.9269
2.3343
2.7460
3.3045
1.8841
2.2662
2.6513
3.1726
1.8490
2.2107
2.5746
3.0665
1.8195
2.1646
2.5112
2.9791
31
2.8748
4.1596
5.5487
7.5297
2.4824
3.3048
4.1648
5.3624
2.2695
2.9113
3.5728
4.4837
2.1355
2.6787
3.2336
3.9928
2.0424
2.5225
3.0103
3.6745
1.9734
2.4094
2.8506
3.4493
1.9198
2.3232
2.7299
3.2806
1.8769
2.2549
2.6352
3.1489
1.8417
2.1994
2.5585
3.0429
1.8121
2.1532
2.4950
2.9555
32
2.8693
4.1491
5.5311
7.4992
2.4765
3.2945
4.1488
5.3363
2.2635
2.9011
3.5573
4.4594
2.1293
2.6684
3.2185
3.9695
2.0360
2.5123
2.9953
3.6517
1.9668
2.3991
2.8356
3.4269
1.9132
2.3127
2.7150
3.2583
1.8702
2.2444
2.6202
3.1267
1.8348
2.1888
2.5434
3.0208
1.8052
2.1425
2.4799
2.9335
Quantile der F -Verteilung
87
Quantile der F-Verteilung (Fortsetzung)
ν2
ν1
11
11
11
11
12
12
12
12
13
13
13
13
14
14
14
14
15
15
15
15
16
16
16
16
17
17
17
17
18
18
18
18
19
19
19
19
20
20
20
20
1−α
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
25
1.8412
2.1979
2.5603
3.0558
1.8200
2.1649
2.5149
2.9931
1.8015
2.1362
2.4756
2.9389
1.7853
2.1111
2.4413
2.8917
1.7708
2.0889
2.4110
2.8502
1.7579
2.0691
2.3840
2.8133
1.7463
2.0513
2.3599
2.7803
1.7358
2.0353
2.3381
2.7506
1.7263
2.0207
2.3184
2.7238
1.7175
2.0075
2.3005
2.6993
26
1.8303
2.1811
2.5363
3.0205
1.8090
2.1479
2.4909
2.9578
1.7904
2.1192
2.4515
2.9038
1.7741
2.0939
2.4171
2.8566
1.7596
2.0716
2.3867
2.8150
1.7466
2.0518
2.3597
2.7781
1.7349
2.0339
2.3355
2.7451
1.7243
2.0178
2.3137
2.7154
1.7147
2.0032
2.2939
2.6885
1.7059
1.9898
2.2759
2.6640
27
1.8203
2.1655
2.5143
2.9882
1.7989
2.1323
2.4688
2.9256
1.7802
2.1034
2.4293
2.8715
1.7638
2.0781
2.3949
2.8243
1.7492
2.0558
2.3644
2.7827
1.7361
2.0358
2.3373
2.7458
1.7243
2.0179
2.3131
2.7127
1.7137
2.0017
2.2912
2.6830
1.7040
1.9870
2.2713
2.6561
1.6951
1.9736
2.2533
2.6316
28
1.8110
2.1512
2.4940
2.9585
1.7895
2.1179
2.4484
2.8959
1.7708
2.0889
2.4089
2.8418
1.7542
2.0635
2.3743
2.7946
1.7395
2.0411
2.3438
2.7530
1.7264
2.0210
2.3167
2.7160
1.7146
2.0030
2.2924
2.6830
1.7039
1.9868
2.2704
2.6532
1.6941
1.9720
2.2505
2.6263
1.6852
1.9586
2.2324
2.6018
29
1.8024
2.1379
2.4752
2.9311
1.7808
2.1045
2.4295
2.8685
1.7620
2.0755
2.3900
2.8144
1.7454
2.0500
2.3554
2.7672
1.7306
2.0275
2.3248
2.7256
1.7174
2.0073
2.2976
2.6886
1.7055
1.9893
2.2732
2.6555
1.6947
1.9730
2.2512
2.6257
1.6849
1.9581
2.2313
2.5987
1.6759
1.9446
2.2131
2.5742
30
1.7944
2.1256
2.4578
2.9057
1.7727
2.0921
2.4120
2.8431
1.7538
2.0630
2.3724
2.7890
1.7371
2.0374
2.3378
2.7418
1.7223
2.0148
2.3072
2.7002
1.7090
1.9946
2.2799
2.6632
1.6970
1.9765
2.2554
2.6301
1.6862
1.9601
2.2334
2.6002
1.6763
1.9452
2.2134
2.5732
1.6673
1.9317
2.1952
2.5487
31
1.7869
2.1141
2.4415
2.8821
1.7651
2.0805
2.3958
2.8195
1.7461
2.0513
2.3561
2.7655
1.7294
2.0257
2.3214
2.7182
1.7145
2.0030
2.2907
2.6766
1.7012
1.9828
2.2634
2.6396
1.6891
1.9646
2.2389
2.6064
1.6783
1.9481
2.2168
2.5766
1.6683
1.9332
2.1967
2.5496
1.6593
1.9196
2.1785
2.5249
32
1.7799
2.1033
2.4264
2.8602
1.7581
2.0697
2.3806
2.7976
1.7390
2.0404
2.3409
2.7435
1.7222
2.0147
2.3061
2.6963
1.7072
1.9920
2.2754
2.6546
1.6938
1.9717
2.2480
2.6176
1.6818
1.9534
2.2235
2.5844
1.6708
1.9369
2.2013
2.5546
1.6608
1.9219
2.1812
2.5275
1.6517
1.9083
2.1629
2.5028
88
Kapitel 2
Quantile der F-Verteilung (Fortsetzung)
ν2
ν1
1
1
1
1
2
2
2
2
3
3
3
3
4
4
4
4
5
5
5
5
6
6
6
6
7
7
7
7
8
8
8
8
9
9
9
9
10
10
10
10
1−α
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
33
2.8641
4.1393
5.5147
7.4708
2.4710
3.2849
4.1338
5.3120
2.2577
2.8916
3.5429
4.4368
2.1234
2.6589
3.2043
3.9477
2.0300
2.5026
2.9812
3.6305
1.9607
2.3894
2.8216
3.4059
1.9070
2.3030
2.7009
3.2376
1.8639
2.2346
2.6061
3.1061
1.8284
2.1789
2.5294
3.0003
1.7987
2.1325
2.4659
2.9130
34
2.8592
4.1300
5.4993
7.4441
2.4658
3.2759
4.1197
5.2893
2.2524
2.8826
3.5293
4.4156
2.1179
2.6499
3.1910
3.9273
2.0244
2.4936
2.9680
3.6106
1.9550
2.3803
2.8085
3.3863
1.9012
2.2938
2.6878
3.2182
1.8580
2.2253
2.5930
3.0868
1.8224
2.1696
2.5162
2.9810
1.7926
2.1231
2.4526
2.8938
35
2.8547
4.1213
5.4848
7.4191
2.4609
3.2674
4.1065
5.2679
2.2474
2.8742
3.5166
4.3958
2.1128
2.6415
3.1785
3.9082
2.0191
2.4851
2.9557
3.5919
1.9496
2.3718
2.7961
3.3679
1.8957
2.2852
2.6755
3.1999
1.8524
2.2167
2.5807
3.0687
1.8168
2.1608
2.5039
2.9630
1.7869
2.1143
2.4402
2.8758
36
2.8503
4.1132
5.4712
7.3956
2.4563
3.2594
4.0941
5.2479
2.2426
2.8663
3.5047
4.3771
2.1079
2.6335
3.1668
3.8903
2.0141
2.4772
2.9440
3.5744
1.9445
2.3637
2.7845
3.3507
1.8905
2.2771
2.6639
3.1829
1.8471
2.2085
2.5691
3.0517
1.8115
2.1526
2.4922
2.9461
1.7815
2.1061
2.4286
2.8589
37
2.8463
4.1055
5.4584
7.3735
2.4520
3.2519
4.0824
5.2290
2.2381
2.8588
3.4934
4.3595
2.1033
2.6261
3.1557
3.8734
2.0095
2.4696
2.9331
3.5579
1.9398
2.3562
2.7736
3.3344
1.8856
2.2695
2.6530
3.1668
1.8422
2.2008
2.5581
3.0357
1.8064
2.1449
2.4813
2.9302
1.7764
2.0982
2.4176
2.8431
38
2.8424
4.0982
5.4463
7.3526
2.4479
3.2448
4.0713
5.2112
2.2339
2.8517
3.4828
4.3430
2.0990
2.6190
3.1453
3.8575
2.0050
2.4625
2.9227
3.5424
1.9352
2.3490
2.7633
3.3191
1.8810
2.2623
2.6427
3.1516
1.8375
2.1936
2.5478
3.0207
1.8017
2.1375
2.4710
2.9152
1.7716
2.0909
2.4072
2.8281
39
2.8388
4.0913
5.4348
7.3328
2.4440
3.2381
4.0609
5.1944
2.2299
2.8451
3.4728
4.3274
2.0948
2.6123
3.1354
3.8425
2.0008
2.4558
2.9130
3.5277
1.9309
2.3423
2.7536
3.3047
1.8767
2.2555
2.6330
3.1373
1.8331
2.1867
2.5381
3.0064
1.7972
2.1306
2.4612
2.9010
1.7670
2.0839
2.3974
2.8139
40
2.8353
4.0847
5.4239
7.3142
2.4404
3.2317
4.0510
5.1785
2.2261
2.8387
3.4633
4.3126
2.0909
2.6060
3.1261
3.8283
1.9968
2.4495
2.9037
3.5138
1.9269
2.3359
2.7444
3.2910
1.8725
2.2490
2.6238
3.1238
1.8289
2.1802
2.5289
2.9930
1.7929
2.1240
2.4519
2.8876
1.7627
2.0773
2.3882
2.8005
Quantile der F -Verteilung
89
Quantile der F-Verteilung (Fortsetzung)
ν2
ν1
11
11
11
11
12
12
12
12
13
13
13
13
14
14
14
14
15
15
15
15
16
16
16
16
17
17
17
17
18
18
18
18
19
19
19
19
20
20
20
20
1−α
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
0.9
0.95
0.975
0.99
33
1.7733
2.0933
2.4123
2.8397
1.7514
2.0595
2.3664
2.7771
1.7323
2.0302
2.3266
2.7231
1.7154
2.0045
2.2918
2.6758
1.7004
1.9817
2.2610
2.6341
1.6869
1.9613
2.2336
2.5971
1.6748
1.9430
2.2090
2.5639
1.6638
1.9264
2.1868
2.5340
1.6538
1.9114
2.1667
2.5069
1.6446
1.8977
2.1483
2.4822
34
1.7672
2.0838
2.3990
2.8205
1.7452
2.0500
2.3531
2.7580
1.7260
2.0207
2.3133
2.7039
1.7091
1.9949
2.2784
2.6566
1.6940
1.9720
2.2476
2.6150
1.6805
1.9516
2.2201
2.5779
1.6683
1.9332
2.1955
2.5447
1.6573
1.9166
2.1732
2.5148
1.6472
1.9015
2.1531
2.4876
1.6380
1.8877
2.1346
2.4629
35
1.7614
2.0750
2.3866
2.8026
1.7394
2.0411
2.3406
2.7400
1.7201
2.0117
2.3008
2.6859
1.7031
1.9858
2.2659
2.6387
1.6880
1.9629
2.2350
2.5970
1.6744
1.9424
2.2075
2.5599
1.6622
1.9240
2.1828
2.5266
1.6511
1.9073
2.1605
2.4967
1.6410
1.8922
2.1403
2.4695
1.6317
1.8784
2.1218
2.4448
36
1.7559
2.0666
2.3749
2.7857
1.7338
2.0327
2.3289
2.7232
1.7145
2.0032
2.2890
2.6691
1.6974
1.9773
2.2540
2.6218
1.6823
1.9543
2.2231
2.5801
1.6687
1.9338
2.1956
2.5430
1.6564
1.9153
2.1708
2.5097
1.6453
1.8986
2.1485
2.4797
1.6351
1.8834
2.1282
2.4526
1.6258
1.8696
2.1097
2.4278
37
1.7508
2.0587
2.3639
2.7698
1.7286
2.0248
2.3178
2.7073
1.7092
1.9952
2.2779
2.6532
1.6921
1.9692
2.2429
2.6059
1.6769
1.9462
2.2119
2.5642
1.6632
1.9256
2.1843
2.5270
1.6509
1.9071
2.1595
2.4938
1.6397
1.8904
2.1372
2.4638
1.6296
1.8752
2.1168
2.4366
1.6202
1.8612
2.0983
2.4118
38
1.7459
2.0513
2.3535
2.7549
1.7237
2.0173
2.3074
2.6923
1.7042
1.9877
2.2674
2.6382
1.6871
1.9616
2.2324
2.5909
1.6718
1.9386
2.2014
2.5492
1.6581
1.9179
2.1737
2.5120
1.6457
1.8994
2.1489
2.4787
1.6345
1.8826
2.1265
2.4487
1.6243
1.8673
2.1061
2.4215
1.6149
1.8534
2.0875
2.3967
39
1.7413
2.0443
2.3436
2.7407
1.7190
2.0102
2.2975
2.6782
1.6995
1.9805
2.2575
2.6241
1.6823
1.9545
2.2224
2.5768
1.6670
1.9313
2.1914
2.5350
1.6532
1.9107
2.1637
2.4978
1.6408
1.8921
2.1388
2.4645
1.6296
1.8752
2.1164
2.4345
1.6193
1.8599
2.0960
2.4072
1.6099
1.8459
2.0774
2.3824
40
1.7369
2.0376
2.3343
2.7273
1.7146
2.0035
2.2882
2.6648
1.6950
1.9738
2.2481
2.6107
1.6778
1.9476
2.2130
2.5634
1.6624
1.9245
2.1819
2.5216
1.6486
1.9038
2.1542
2.4844
1.6362
1.8851
2.1293
2.4511
1.6249
1.8682
2.1068
2.4210
1.6146
1.8529
2.0864
2.3937
1.6052
1.8389
2.0677
2.3689
90
Kapitel 2
2.5 Binomialtest
Die nachfolgenden Tabellen für den Binomialtest wurden mit folgender R-Funktion
erstellt:
alpha<-.05
for (i in 5:25) { print (qbinom(alpha, i, .5) ) }
Tabelle der kritischen Werte für die Binomialverteilung mit p = .5.
Einseitig α = .005 und α = .01, bzw. zweiseitig mit α = .01 und α = .02.
n
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
α = .005
p(X < x) < α
α = .005
p(X > x) < α
1
1
1
1
2
2
2
3
3
3
4
4
4
5
5
5
6
6
7
8
9
10
10
11
12
12
13
14
14
15
16
16
17
18
18
19
α = .01
p(X < x) < α
1
1
1
1
2
2
2
3
3
3
4
4
5
5
5
6
6
6
7
α = .01
p(X > x) < α
6
7
8
9
9
10
11
11
12
13
13
14
14
15
16
16
17
18
18
Binomialtest
Tabelle der kritischen Werte für die Binomialverteilung mit p = .5.
Einseitig α = .025 und α = .05, bzw. zweiseitig mit α = .05 und α = .10.
p = 0.5
n
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
α = .025
p(X < x) < α
α = .025
p(X > x) < α
1
1
1
2
2
2
3
3
3
4
4
5
5
5
6
6
6
7
7
8
5
6
7
7
8
9
9
10
11
11
12
12
13
14
14
15
16
16
17
17
α = .05
p(X < x) < α
1
1
1
2
2
2
3
3
4
4
4
5
5
6
6
6
7
7
8
8
8
α = .05
p(X > x) < α
4
5
6
6
7
8
8
9
9
10
11
11
12
12
13
14
14
15
15
16
17
Für n>25 kann die Normalverteilungsapproximation genutzt werden.
91
92
Kapitel 2
2.6 Wilcoxon-Rangsummentest
Die nachfolgenden Tabellen für den Wilcoxon-Rangsummen-Test wurden mit folgender R-Funktion erstellt.
wilcox_table <- function(alpha)
{ q <- matrix(rep(0,900), nrow=30)
for (i in 3:30)
{ minj <- 4
if (i>minj) minj <- i
for (j in minj:30)
{ val <- qwilcox(alpha, i, j)
if (val>0)
{ q[i,j] <- val + i*(i+1)/2 - 1
}
}
}
q
}
Vorgehen: Die Rangsumme R der kleineren Gruppe wird gebildet. Ist R kleiner oder
gleich dem in der Tabelle angegeben Wert, ist der einseitige Rangsummentest (nach
unten) signifikant.
Für den Tests nach oben ist der kritische Wert umzurechen. Ist qkrit der Tabellenwert
und ist n die Größe der größeren, sowie m die Gruppengröße der kleineren Gruppe,
so ist m(m + n + 1) − qkrit der erste Wert, der für den einseitigen Test nach oben
signifikant ausfällt.
Für den zweiseitigen Test sind die Tabellen mit α = .025, 0.005 dargestellt.
Wilcoxon-Rangsummentest
Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .05)
4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
3 6 7 8 8 9 9 10 11 11 12 13 13 14 15 15 16
4 11 12 13 14 15 16 17 18 19 20 21 22 24 25 26 27
5
19 20 21 23 24 26 27 28 30 31 33 34 35 37 38
6
28 29 31 33 35 37 38 40 42 44 46 47 49 51
7
39 41 43 45 47 49 52 54 56 58 61 63 65
8
51 54 56 59 62 64 67 69 72 75 77 80
9
66 69 72 75 78 81 84 87 90 93 96
10
82 86 89 92 96 99 103 106 110 113
11
100 104 108 112 116 120 123 127 131
12
120 125 129 133 138 142 146 150
13
142 147 152 156 161 166 171
14
166 171 176 182 187 192
15
192 197 203 208 214
16
219 225 231 237
17
249 255 262
18
280 287
19
313
93
94
Kapitel 2
Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .05;
Fortsetzung)
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
20
17
28
40
53
67
83
99
117
135
155
175
197
220
243
268
294
320
348
21
17
29
41
55
69
85
102
120
139
159
180
202
225
249
274
301
328
356
385
22
18
30
43
57
72
88
105
123
143
163
185
207
231
255
281
307
335
364
393
424
23
19
31
44
58
74
90
108
127
147
168
189
212
236
261
287
314
342
371
401
432
465
24
19
32
45
60
76
93
111
130
151
172
194
218
242
267
294
321
350
379
410
441
474
507
25
20
33
47
62
78
96
114
134
155
176
199
223
248
273
300
328
357
387
418
450
483
517
552
26
21
34
48
64
81
98
117
137
158
181
204
228
253
279
307
335
364
395
426
458
492
526
562
598
27
21
35
50
66
83
101
120
141
162
185
208
233
259
285
313
342
372
402
434
467
501
536
572
608
646
28
22
36
51
67
85
104
123
144
166
189
213
238
264
292
320
349
379
410
443
476
510
545
582
619
657
697
29
23
37
53
69
87
106
127
148
170
194
218
243
270
298
326
356
386
418
451
484
519
555
592
629
668
708
749
30
23
38
54
71
89
109
130
151
174
198
223
249
276
304
333
363
394
426
459
493
528
564
602
640
679
719
760
803
Wilcoxon-Rangsummentest
Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .025)
4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
3
6 7 7 8 8 9 9 10 10 11 11 12 12 13 13
4 10 11 12 13 14 14 15 16 17 18 19 20 21 21 22 23
5
17 18 20 21 22 23 24 26 27 28 29 30 32 33 34
6
26 27 29 31 32 34 35 37 38 40 42 43 45 46
7
36 38 40 42 44 46 48 50 52 54 56 58 60
8
49 51 53 55 58 60 62 65 67 70 72 74
9
62 65 68 71 73 76 79 82 84 87 90
10
78 81 84 88 91 94 97 100 103 107
11
96 99 103 106 110 113 117 121 124
12
115 119 123 127 131 135 139 143
13
136 141 145 150 154 158 163
14
160 164 169 174 179 183
15
184 190 195 200 205
16
211 217 222 228
17
240 246 252
18
270 277
19
303
95
96
Kapitel 2
Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .025;
Fortsetzung)
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
20
14
24
35
48
62
77
93
110
128
147
167
188
210
234
258
283
309
337
21
14
25
37
50
64
79
95
113
131
151
171
193
216
239
264
290
316
344
373
22
15
26
38
51
66
81
98
116
135
155
176
198
221
245
270
296
323
351
381
411
23
15
27
39
53
68
84
101
119
139
159
180
203
226
251
276
303
330
359
388
419
451
24
16
27
40
54
70
86
104
122
142
163
185
207
231
256
282
309
337
366
396
427
459
492
25
16
28
42
56
72
89
107
126
146
167
189
212
237
262
288
316
344
373
404
435
468
501
536
26
17
29
43
58
74
91
109
129
149
171
193
217
242
268
294
322
351
381
412
444
476
510
545
581
27
17
30
44
59
76
93
112
132
153
175
198
222
247
273
300
329
358
388
419
452
485
519
555
591
628
28
18
31
45
61
78
96
115
135
156
179
202
227
252
279
307
335
365
396
427
460
494
528
564
601
639
678
29
19
32
47
63
80
98
118
138
160
183
207
232
258
285
313
342
372
403
435
468
502
538
574
611
649
688
729
30
19
33
48
64
82
101
121
142
164
187
211
236
263
290
319
348
379
410
443
476
511
547
583
621
660
699
740
782
Wilcoxon-Rangsummentest
Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .01)
4
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
5
6
7
6
10 11 11
16 17 18
24 25
34
8
6
12
19
27
35
45
9
7
13
20
28
37
47
59
10
7
13
21
29
39
49
61
74
11
7
14
22
30
40
51
63
77
91
12 13 14 15 16
8
8
8
9
9
15 15 16 17 17
23 24 25 26 27
32 33 34 36 37
42 44 45 47 49
53 56 58 60 62
66 68 71 73 76
79 82 85 88 91
94 97 100 103 107
109 113 116 120 124
130 134 138 142
152 156 161
176 181
202
17
10
18
28
39
51
64
78
93
110
127
146
165
186
207
230
18
10
19
29
40
52
66
81
96
113
131
150
170
190
212
235
259
19
10
19
30
41
54
68
83
99
116
134
154
174
195
218
241
265
291
97
98
Kapitel 2
Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .01;
Fortsetzung)
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
20
11
20
31
43
56
70
85
102
119
138
158
178
200
223
246
271
297
324
21
11
21
32
44
58
72
88
105
123
142
162
183
205
228
252
277
303
331
359
22
11
21
33
45
59
74
90
108
126
145
166
187
210
233
258
283
310
337
366
396
23
12
22
34
47
61
76
93
110
129
149
170
192
214
238
263
289
316
344
373
403
434
24
12
23
35
48
63
78
95
113
132
153
174
196
219
244
269
295
323
351
381
411
443
475
25
13
23
36
50
64
81
98
116
136
156
178
200
224
249
275
301
329
358
388
419
451
484
517
26
13
24
37
51
66
83
100
119
139
160
182
205
229
254
280
307
336
365
395
426
459
492
526
562
27
13
25
38
52
68
85
103
122
142
163
186
209
234
259
286
313
342
372
402
434
467
501
535
571
608
28
14
26
39
54
70
87
105
125
145
167
190
214
239
265
292
320
349
379
410
442
475
509
544
581
618
656
29
14
26
40
55
71
89
108
128
149
171
194
218
243
270
297
326
355
386
417
450
483
518
553
590
628
666
706
30
15
27
41
56
73
91
110
131
152
174
198
223
248
275
303
332
362
392
424
457
491
526
562
599
637
676
717
758
Wilcoxon-Rangsummentest
Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .005)
4
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
5
6
7
8
10 10 11
15 16 16 17
23 24 25
32 34
43
9
6
11
18
26
35
45
56
10
6
12
19
27
37
47
58
71
11
6
12
20
28
38
49
61
73
87
12 13 14 15
7
7
7
8
13 13 14 15
21 22 22 23
30 31 32 33
40 41 43 44
51 53 54 56
63 65 67 69
76 79 81 84
90 93 96 99
105 109 112 115
125 129 133
147 151
171
16
8
15
24
34
46
58
72
86
102
119
136
155
175
196
17
8
16
25
36
47
60
74
89
105
122
140
159
180
201
223
18
8
16
26
37
49
62
76
92
108
125
144
163
184
206
228
252
19
9
17
27
38
50
64
78
94
111
129
148
168
189
210
234
258
283
99
100
Kapitel 2
Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .005;
Fortsetzung)
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
20
9
18
28
39
52
66
81
97
114
132
151
172
193
215
239
263
289
315
21
9
18
29
40
53
68
83
99
117
136
155
176
198
220
244
269
295
322
349
22
10
19
29
42
55
70
85
102
120
139
159
180
202
225
249
275
301
328
356
386
23
10
19
30
43
57
71
88
105
123
142
163
184
207
230
255
280
307
335
363
393
424
24
10
20
31
44
58
73
90
107
126
146
166
188
211
235
260
286
313
341
370
400
431
464
25
11
20
32
45
60
75
92
110
129
149
170
192
216
240
265
292
319
348
377
408
439
472
505
26
11
21
33
46
61
77
94
113
132
152
174
197
220
245
271
298
325
354
384
415
447
480
514
549
27
11
22
34
48
63
79
97
115
135
156
178
201
225
250
276
303
332
361
391
422
455
488
522
558
594
28
11
22
35
49
64
81
99
118
138
159
182
205
229
255
281
309
338
367
398
430
462
496
531
567
604
641
29
12
23
36
50
66
83
101
121
141
163
185
209
234
260
287
315
344
374
405
437
470
504
540
576
613
651
690
30
12
23
37
51
68
85
103
123
144
166
189
213
239
265
292
321
350
380
412
444
478
513
548
585
622
661
701
741
Herunterladen