Statistik Testverfahren Internetsupplement Heinz Holling & Günther Gediga Inhaltsverzeichnis 1 Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 1.2 1.3 1.4 1.5 1.5.1 1.5.2 1.5.3 1.6 1.7 1.8 1.9 Einseitige und zweiseitige p-Werte (2 / S. 38) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Gütefunktion bei zweiseitigen Tests (2 / S. 57) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Gauß-Test: UMP (einseitig) und nicht UMP (zweiseitig) (2 / S. 58) . . . . . . 7 Beispiele zur Güte statistischer Tests (2 / S. 58) . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Weitere Einstichprobentests (3 / S. 68) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Test der Schiefe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Test der Kurtosis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Gemeinsamer Test von Schiefe und Kurtosis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Zur Anwendbarkeit des zentralen Grenzwertsatzes (3 / S. 69) . . . . . . . . . . . 10 Zusammenhang von Intervallschätzung und Testverfahren (3 / S. 70) . . 12 Der randomisierte Binomialtest (3 / S. 81) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Varianz der Teststatistik des Wilcoxon-Vorzeichen-Rangtests bei Rangbindungen (3 / S. 88) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 Vergleich von Testgütefunktionen bei Einstichprobentests (3 / S. 91) . . . . 14 Überprüfung der bivariaten Normalverteilung (5 / S. 125) . . . . . . . . . . . . . . . . 15 Monte-Carlo-Verfahren bei Randomisierungstests (5 / S. 130) . . . . . . . . . . . 15 Normalverteilungsapproximation der Testverteilung von Kendall’s τ bei Rangbindungen (5 / S. 134) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 Post-hoc-Tests in der Kontingenztafelanalyse (5 / S. 140) . . . . . . . . . . . . . . . . 16 Der Fisher-Yates-Test und die hypergeometrische Verteilung (5 / S. 142) 17 Exakte Tests bei k × m-Tabellen (5 / S. 143) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Normalverteilungsapproximation der Testverteilung des Log-Odds-Ratios (5 / S. 144) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 Ausreißer und große Schiefe und der zentrale Grenzwertsatz (6 / S. 160) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Die Deffizienz im Zweistichprobenfall (6 / S. 166) . . . . . . . . . . . . . . . . . . . . . . . . . 21 Die White-Korrektur im linearen Modell (6 / S. 175 und 9 / S. 361) . . . . . . 21 Asymptotische Konsistenz des thom -Tests bei Heteroskedastizität (6 / S. 176) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Beispiel für einen Lokationsunterschied bei undefinierten Erwartungswerten (6 / S. 183) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 Berechnung der Verteilung des Wilcoxon-Rangsummentests (6 / S. 183) 24 Teststatistik des Wilcoxon-Rangsummentests (6 / S. 184) . . . . . . . . . . . . . . . 25 Der Fligner-Policello-Test (6 / S. 190) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 Normalverteilungsapproximation der Teststatistik für den WilcoxonVorzeichen-Rangtest für abhängige Stichproben (6 / S. 197) . . . . . . . . . . . . 29 1.10 1.11 1.12 1.13 1.14 1.15 1.16 1.17 1.18 1.19 1.20 1.21 1.22 1.23 1.24 1.25 1.26 6 4 1.27 1.28 1.29 1.30 1.31 1.32 1.33 1.34 1.35 1.36 1.37 1.38 1.39 1.40 1.41 1.42 1.43 1.44 1.45 1.46 1.47 1.48 1.49 1.50 1.51 1.52 Kapitel 0 Symmetrie-Tests (6 / S. 198) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Der Fligner-Policello-Test (6 / S. 213) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Berechnung der Mittelwerte im Fall gleich großer Gruppen in der einfaktoriellen Varianzanalyse (7 / S. 230) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . χ 2 -Verteilung von SSBG /σ 2 in der einfaktoriellen Varianzanalyse (7 / S. 231) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Deffizienz in der einfaktoriellen Varianzanalyse (7 / S. 235) Beispiele für notwendige Stichprobenumfänge bei ungleich besetzten Zellen in der einfaktoriellen Varianzanalyse (7 / S. 235) . . . . . . . . . . . . . . . . . . . . . . Verteilung eines Kontrastes unter der Nullhypothese (7 / S. 238) . . . . . . . . Zur Schätzung des Standardfehlers bei homogenen Varianzen (7 / S. 243) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Beispiel zum REGWQ-Verfahren (7 / S. 247) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Äquivalenz des zweiseitigen Wilcoxon-Rangsummen-Tests und des Kruskal-Wallis-Tests bei zwei Stichproben (7 / S. 249) . . . . . . . . . . . . . . . . . . . Schätzer der mehrfaktoriellen Varianzanalyse bei gleichen Zellenbesetzungen (7 / S. 259) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mehrfaktorielle Varianzanalyse bei ungleichen Zellenbesetzungen im allgemeinen linearen Modell (7 / S. 260) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verteilung der Quadratsummen in der zweifaktoriellen Varianzanalyse (7 / S. 263) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Varianzanteile in der zweifaktoriellen Varianzanalyse (7 / S. 265) . . . . . . . Einzelvergleiche in der Varianzanalyse mit Messwiederholung (8 / S. 286) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Test für zufällige Personeneffekte in der einfaktoriellen Varianzanalyse mit Messwiederholung (8 / S. 288) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Feste vs. zufällige Effekte in der Varianzanalyse (8 / S. 288); (8 / S. 289) Der Tukey-Test auf Linearität (8 / S. 289) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zur Sphärizitätsannahme (8 / S. 292) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Der Mauchly-Test (8 / S. 293) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zur Greenhouse-Geisser-Korrektur (8 / S. 293) . . . . . . . . . . . . . . . . . . . . . . . . . . . Dreifachinteraktion (παβ )i jk in der zweifaktoriellen Varianzanalyse mit Messwiederholung (8 / S. 297) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Notwendige Kovarianzstruktur in der zweifaktoriellen Varianzanalyse mit Messwiederholung (8 / S. 299) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Testverteilung der Effekte in der zweifaktoriellen Varianzanalyse mit Messwiederholung (8 / S. 304) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zu den Voraussetzungen der Varianzanalyse mit Messwiederholung (8 / S. 307) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Interaktion bei nur einer Beobachtung pro Zelle und Fehlervarianz im Split-Plot-Design (8 / S. 309) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Notwendige Kovarianzstruktur im Split-Plot-Design (8 / S. 310) . . . . . . . . . 29 30 30 30 31 32 33 33 36 37 38 39 42 43 43 44 46 47 51 52 52 54 54 54 54 54 Inhaltsverzeichnis 1.53 5 1.69 1.70 1.71 1.72 Berechnung der Freiheitsgrade für die Fehlerquadratsummen im SplitPlot-Design (8 / S. 313) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fehlerterme im Split-Plot-Design (8 / S. 314) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Der Box-Test (8 / S. 316) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zu den Voraussetzungen der Varianzanalyse mit einem Between- und einem Within-Subjects-Faktor (8 / S. 316) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lineare Abhängigkeit und lineare Unabhängigkeit (9 / S. 328) . . . . . . . . . . . Varianz von β̂0 (9 / S. 329) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Erwartungswerte und χ 2 -Verteilungen in der mehrfaktoriellen Varianzanalyse (9 / S. 331) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Matrizenschreibweise zur Beschreibung von linearen Hypothesen (9 / S. 334) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . F -Test beim Vergleich linearer Modelle (9 / S. 335) . . . . . . . . . . . . . . . . . . . . . . . Regressionskoeffizienten und Kodiervariablen (9 / S. 337), (9, S. 341) . R2 bei der Regression ohne Interzept und Bezug zu η 2 (9 / S. 346) . . . . Kodierungen für das Split-Plot-Design im linearen Modell (9 / S. 347) . . Quadratsummen der kodierten Variablen einer zweifaktoriellen Varianzanalyse (9 / S. 350) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Weitere Typen der Variationszerlegung (9 / S. 350) . . . . . . . . . . . . . . . . . . . . . . . Effekt der Kovariaten auf das Ergebnis der Kovarianzanalyse (9 / S. 358) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tests zur Überprüfung von Abhängigkeiten in der linearen Regression (9 / S. 360) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . White-Korrektur (9 / S. 361) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Transformationen zur Stabilisierung und Normalisierung (9 / S. 361) . . . . Der Breusch-Pagan-Test (9 / S. 362) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 2.1 2.2 2.3 2.4 2.5 2.6 Normalverteilungstabelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Quantile der χ 2 -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Quantile der t -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Quantile der F -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Binomialtest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wilcoxon-Rangsummentest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.54 1.55 1.56 1.57 1.58 1.59 1.60 1.61 1.62 1.63 1.64 1.65 1.66 1.67 1.68 55 55 56 56 56 56 57 57 58 58 60 61 63 63 64 65 66 66 66 67 70 73 77 79 90 92 Kapitel 1 Ableitungen 1.1 Einseitige und zweiseitige p-Werte (2 / S. 38) Ist die Prüfverteilung für eine Teststatistik V symmetrisch wie im Falle von Normalverteilung oder t-Verteilung, ist die Umrechnung von einseitigen zu zweiseitigen p-Werten möglich. Wir betrachten hier eine solche Prüfverteilung mit E(V ) = 0, die immer erzeugt werden kann, indem von den Werten der ursprünglichen Prüfverteilung der ursprüngliche Erwartungswert abgezogen wird. Im Fall einer zweiseitigen Hypothese wird H0 abgelehnt, wenn gilt: |v| > v1−α/2 . Hier gilt: pz = P(|T | > v0 ). Im Fall einer einseitigen „noch oben gerichteten“ Hypothese, wird H0 abgelehnt, wenn gilt: v > v1−α . Hier gilt: pe = P(T > v0 ). Betrachten wir zwei Fälle. Im ersten Fall geht die Teststatistik unter der einseitigen H0 in die erwartete Richtung, d. h. v0 > 0, und im zweiten Fall geht sie nicht in die erwartete Richtung, d. h. v0 ≤ 0. Im ersten Fall mit p0 > 0 gilt: pz = P(|T | < v0 ) = P(T < v0 ) + P(T > v0 ). Wegen der Symmetrie gilt: P(T > v0 ) = P(T < v0 ). Hier ist pe = P(T > v0 ) und damit folgt: pe = P(T ) > v0 = pz /2. Im zweiten Fall mit p0 ≤ 0 gilt: pz = P(|T | < v0 ) = P(T > v0 ) + P(T < v0 ) und ebenso: P(T > v0 ) = P(T < v0 ). Hier ist pe = P(T > −v0 ) und damit folgt: pe = 1 − (P(T ) > v0 ) = 1 − (P(T > v0 ) + P(T < v0 ))/2 = 1 − pz /2. Der Fall einer einseitigen „noch unten gerichteten“ Hypothese kann völlig analog gezeigt werden. 1.2 Gütefunktion bei zweiseitigen Tests (2 / S. 57) Zunächst einmal ist bei einem zweiseitigen Test zu beachten, dass zfwar die Hypothese zweiseitig aufgestellt werden kann – und somit mit zwei kritischen Werten links Kapitel 1 Ableitungen 7 und rechts vom Erwartungswertwert der Teststatistik versehen ist – aber ein Effekt immer nur eine Größe haben kann. In der im Buch benutzten Beispielanwendung (Gauß-Test) ist der Effekt durch die √ Größe δ n auf die Verteilung der Teststatistik abzubilden. Alle Werte von Y , die unter H0 kleiner sind als zα/2 haben unter Gültigkeit der H1 die Wahrscheinlichkeit √ √ P Y < zα/2 − δ n = φ zα/2 − δ n Alle Werte von Y , die größer sind als z1−α/2 haben unter Gültigkeit der H1 die Wahrscheinlichkeit √ √ P Y > z1−α/2 − δ n = 1 − φ z1−α/2 − δ n Wegen der Symmetrie der Normalverteilung gilt φ (x) = 1 − φ (−x) sowie z p = −z1−p Damit gilt: √ √ P Y > z1−α/2 − δ n = 1 − φ z1−α/2 − δ n √ = 1 − 1 − φ −zα/2 + δ n √ = φ zα/2 + δ n Die Gütefunktion für den zweiseitigen Test ergibt sich damit wie folgt: √ √ g(δ ) = P Y < zα/2 − δ n + P Y > z1−α/2 − δ n √ √ = φ zα/2 − δ n + φ zα/2 + δ n √ √ = φ −z1−α/2 − δ n + φ −z1−α/2 + δ n Die Nutzung von z1−α/2 in der endgültigen Formel liegt darin begründet, dass diese Werte größer als Null sind und in der Regel vertafelt vorliegen. 1.3 Gauß-Test: UMP (einseitig) und nicht UMP (zweiseitig) (2 / S. 58) Wir zeigen hier, dass der zweiseitige Gauß-Test kein UMP-Test ist. Die beiden einseitigen Gauß-Tests sind UMP-Tests (vgl. z. B. Shao, 2003). Wir stellen hier nochmals zusammenfassend den zweiseitigen Gauß-Test dar sowie die beiden einseitigen Gauß-Tests, hier jedoch mit der Nullhypothese als einfache Hypothese. 8 Kapitel 1 Gauß-Test Annahmen: Y1 , ...,Yn i.i.d. N(µ, σ )-verteilt, Standardabweichung σ bekannt Testprobleme Teststatistik 1. H0 : µ = µ0 gegen H1 : µ 6= µ0 Z= 2. H0 : µ = µ0 gegen H1 : µ > µ0 3. H0 : µ = µ0 gegen H1 : µ < Y −µ √0 σ/ n Ablehnung der H0 1. |z| > z1−α/2 2. z > z1−α 3. z < −z1−α µ0 Nehmen wir an, es gäbe einen UMP-Test für das zweiseitige Testproblem, wie es beim einseitigen Gauß-Test der Fall ist. Ein solcher UMP-Test wäre zugleich auch ein UMP-Test für die beiden oben dargestellten einseitigen Testprobleme. Daher müsste die Testfunktion eines UMP-Test für das zweiseitige Testproblem mit den Testfunktionen der beiden einseitigen Gauß-Tests übereinstimmen, wenn diese jeweils zu einer Annahme bzw. Ablehnung der Nullhypothese führen. Nehmen wir an, dass die Teststatistik kleiner als −z1−α ausfällt. Dann muss die Nullhypothese für das zweiseitige Problem H0 : µ = µ0 gegen H1 : µ 6= µ0 abgelehnt werden und für das einseitige Problem H0 : µ = µ0 gegen H1 : µ ≤ µ0 angenommen werden. Ausgehend von solchen Daten könnte aber die Testfunktion eines UMP-Tests für das zweiseitige Testproblem nicht mit beiden Testfunktionen der einseitigen GaußTests übereinstimmen. Dieser Widerspruch zeigt, dass es keinen UMP-Test für das obige zweiseitige Testproblem geben kann. 1.4 Beispiele zur Güte statistischer Tests (2 / S. 58) Wir verweisen hier auf Kap. 5.3, in dem die Testgüte von Einstichprobentests vergleichend diskutiert wird. Kapitel 1 Ableitungen 9 1.5 Weitere Einstichprobentests (3 / S. 68) 1.5.1 Test der Schiefe Zur numerischen Erfassung der Schiefe metrischer Daten wurde in Band 1 (Holling & Gediga, 2011) der Schiefekoeffizient gm definiert: gm = n2 ∑ni=1 (yi − y)3 (n − 1)(n − 2) nsY3 Aufgrund der Definition der Schiefe gilt: gm = 0 für symmetrische Verteilungen gm > 0 für rechtsschiefe Verteilungen gm < 0 für linksschiefe Verteilungen Will man testen, ob eine Verteilung symmetrisch ist oder schief, testet man: H0 : gm = 0 gegen H1 : gm 6= 0 Für normalverteilte Zufallsvariablen ist g2m 6 χ 2 -verteilt mit einem Freiheitsgrad (Jarque & Bera, 1980). Bei Ablehnung der Nullhypothese ist somit die empirisch festgestellte Schiefe nicht plausibel durch zufällige Abweichungen von der Normalverteilung zu erklären. 1.5.2 Test der Kurtosis Der für metrische Daten einschlägige Kurtosiskoeffizient γ ist wie folgt definiert (Holling & Gediga, 2011): n γ = n2 (n + 1) (n − 1)(n − 2)(n − 3) ∑ (yi − ȳ)4 i=1 nsY4 −3 (n − 1)2 (n − 2)(n − 3) Es gilt: γ = 0 ⇒ mesokurtische Verteilung (annähernd normalverteilt) γ > 0 ⇒ leptokurtische Verteilung γ < 0 ⇒ platykurtische Verteilung 10 Kapitel 1 Will man testen, ob eine Verteilung mesokurtisch ist oder nicht, testet man: H0 : γ = 0 gegen H1 : γ 6= 0 Für normalverteilte Zufallsvariablen ist γ2 24 χ 2 -verteilt mit einem Freiheitsgrad (Jarque & Bera, 1980). Bei Ablehung der Nullhypothese ist somit die empirisch festgestellte Kurtosis nicht plausibel durch zufällige Abweichungen von der Normalverteilung zu erklären. 1.5.3 Gemeinsamer Test von Schiefe und Kurtosis Jarque und Bera (1980) fassen die beiden Tests auf symmetrische und mesokurtische Verteilung zusammen mit der Teststatik JB = g2m γ 2 + 6 24 Unter der Annahme der Normalverteilung ist BJ χ 2 -verteilt mit 2 Freiheitsgraden. Nach Simulationsstudien von Bera and Jarque (1981) ist dieser Test gut geeignet Abweichungen von der Normalverteilung zu entdecken. Dieser Test findet sich beispielsweise im SPSS-System unter dem Menüpunkt explorative Datenanalysen oder im R-Paket lawstat mit der Funktion rjb.test. Im Paket lawstat ist neben der klassischen Variante, die hier vorgestellt wurde, auch eine Variante mit robusten (ausreißerresistenten) Schätzern implementiert, die für eine erste Analyse von Daten vorzuziehen ist. Details hierzu findet man in Gel und Gastwirth (2008). 1.6 Zur Anwendbarkeit des zentralen Grenzwertsatzes (3 / S. 69) Die zur Anwendbarkeit des zentralen Grenzwertsatzes dargestellten Empfehlungen sind sehr allgemein gehalten. Klare allgemeingültige Regeln lassen sich jedoch hier nicht aufstellen. Der Grund dafür liegt darin, dass der zentrale Grenzwertsatz für beliebige Wahrscheinlichkeitsverteilungen (mit Erwartungswert und Varianz) gilt, wobei die in Holling und Gediga (2013, S. 189) genannten Voraussetzungen noch abgeschwächt werden. Eine entscheidende Frage ist, ab welchem Stichprobenumfang die Approximation der Verteilung der Mittelwerte duch die Normalverteilung hinreichend gut ist, bzw. anders ausgedrückt, wie hoch die Konvergenzgeschwindigkeit für bestimmte zu Grunde Kapitel 1 Ableitungen 11 liegende Verteilungen ist. Bei einigen Verteilungen ist die Approximation schon bei einem sehr geringen Stichprobenumfang, z. B. N = 10, hinreichend gut, bei anderen Wahrscheinlichkeitsverteilungen, wie z.B. der Gamma-Verteilung mit einem sehr geringen Shape-Parameter ist ein Stichprobenumfang von N = 300 nicht ausreichend. Die Regel, dass der Stichprobenumfang größer/gleich 30 sein sollte, ist aber für viele in der Praxis auftretende Fälle eine gute Daumenregel. Nichtsdestotrotz sollte man sich darüber im Klaren sein, dass ein Stichprobenumfang von N = 30 in bestimmten Fällen zu gering sein kann. Die Konvergenzgeschwindigkeit hängt sehr stark von der Schiefe und auch von der Kurtosis der zu Grunde liegenden Verteilung ab. Ist die Verteilung der Stichprobendaten sehr schief oder zeichnet sie sich durch eine hohe Kurtosis aus, sind viele Ausreißer zu erwarten (vgl. Boos & Hughes-Oliver, 2000). Dann werden höhere Stichprobenumfänge erforderlich, um eine genügend gute Approximation zu erzielen. Neben der Konvergenzgeschwindigkeit ist jedoch ein zweiter Aspekt zu beachten. Selbst wenn die Verteilung der Mittelwerte eine gute Approximation an die Normalverteilung darstellt, kann die Anwendung des zentralen Grenzwertsatzes bei der Berechnung von Konfidenzintervallen und der Durchführung von Tests zu fehlerhaften Ergebnissen führen, wenn der Stichprobenumfang zu gering ist. In der Regel ist die Standardabweichung der zu Grunde liegenden Verteilung nicht bekannt und muss anhand der Stichprobendaten geschätzt werden. Dann sind die Mittelwerte t-verteilt. Führt nun die zu Grunde liegende Verteilung mit einer hohen Wahrscheinlichkeit zu Ausreißern, wird die Standardabweichung ungenau geschätzt und die Approximation der Mittelwertsverteilung durch eine t-Verteilung ist dann unzureichend. Eine ausführliche Diskussion dieser Thematik findet sich in Wilcox (2012). Fassen wir einige wesentliche Aussagen dieses Autors hier kurz zusammen. Wilcox (2012) unterscheidet vier Arten von Verteilungen: (1) symmetrische Verteilungen mit relativ wenig Wahrscheinlichkeitsmasse an den Rändern (light-tailed), (2) symmetrische Verteilungen mit relativ viel Wahrscheinlichkeitsmasse an den Rändern (heavy-tailed), (3) schiefe Verteilungen mit relativ wenig Wahrscheinlichkeitsmasse an den Rändern und (4) schiefe Verteilungen mit relativ viel Wahrscheinlichkeitsmasse an den Rändern. Bei Verteilungen der Klasse (1), die sich durch eine eher geringe Kurtosis auszeichnen, liegen Ausreißer selten vor, in diesem Fall ist eine gute Approximation durch die t-Verteilung zu erwarten. Damit liegen relativ genaue Konfidenzintervalle bzw. – äquivalent dazu – Tests mit weitgehend adäquaten Fehlerraten vor. Symmetrische Verteilungen mit relativ viel Wahrscheinlichkeitsmasse an den Rändern, wie z. B. bei der t-Verteilung mit zwei Freiheitsgraden, führen eher zu großen Varianzen bei den Stichprobendaten und damit zu übermäßig breiten Konfidenzintervallen, wenn nicht hinreichend große Stichprobenumfänge vorliegen. 12 Kapitel 1 Schiefe Verteilungen mit relativ wenig Wahrscheinlichkeitsmasse an den Rändern, wie z. B. lognormale Verteilungen, können bei einem zu geringen Stichprobenumfang dazu führen, dass der Erwartungswert der Mittelwertsverteilung ungleich 0 ist und insofern auch keine adäquate Konfidenzintervalle resultieren. Schiefe Verteilungen mit relativ viel Wahrscheinlichkeitsmasse an den Rändern führen in der Regel zu relativ vielen Ausreißern, weshalb hier besonders große Stichprobenumfänge erforderlich sind, um eine hinreichend gute Approximation der Mittelwertsverteilung durch die t-Verteilung zu erzielen. 1.7 Zusammenhang von Intervallschätzung und Testverfahren (3 / S. 70) Wir betrachten hier den Zusammenhang zwischen dem einseitigen Gauß-Test H0 : µ ≤ µ0 gegen H1 : µ > µ0 und dem entsprechenden einseitigen Konfidenzintervall. Der Annahmebereich des obigen einseitigen Gauß-Tests lässt sich wie folgt umformen: Y − µ0 √ n ≤ +z1−α σ σ −∞ ≤ Y − µ0 ≤ +z1−α √ n −∞ ≤ −µ0 σ Y − z1−α √ n ≤ ≤ σ −Y + z1−α/2 √ n µ0 ≤ ∞ Die Grenzen dieses Intervalls sind bekannt als die Grenzen des (1−α)-Konfidenzintervalls für µ bei einem normalverteilten Merkmal mit bekannter Varianz: √ n Y − z1−α ,∞ σ 1.8 Der randomisierte Binomialtest (3 / S. 81) Randomisierte Tests wurden entwickelt, um das Signifikanzniveau voll auszuschöpfen. Sie stellen eine Erweiterung der Signifikanztestes dar und beinhalten diese als Spezialfälle und sind insbesondere bei diskreten Testfunktionen indiziert. Kapitel 1 Ableitungen 13 Wir betrachten nun einen randomisierten Binomialtest, der auf dem in Band 3 (S. 81) dargestellten Signifikanztest beruht. Hier wurde der kritische Wert für einen einseitigen Test H0 : π ≤ π0 = .25 gegen H1 : π > π0 = .25 zum Signifikanzniveau α = .05 bestimmt. Für U ∼ B(10, .25) sind die entsprechende diskrete Dichte und Verteilungsfunktion in der Tabelle auf S. 81 dargestellt. Für das einseitige Testproblem H0 : π ≥ .25 gegen H1 : π < .25 zu einem Signifikanzniveau α = .10 wurde der kritische Wert bu,.10 (10, .25) so festgelegt, dass gilt: P(U < bu,.10 (10, .25)) < α und P(U < bu,.10 (10, .25) + 1) ≥ α So wurde im vorliegenden Signifikanztest als kritischer Wert 1 bestimmt. Damit wird jedoch die Nullhypothese lediglich mit einer Wahrscheinlichkeit von .0563 und nicht wie vorgegeben mit .10 abgelehnt. Die Randomisierung erlaubt es nun, die Nullhypothese exakt mit der vorgegebenen Wahrscheinlichheit von .10 abzulehnen. Dazu muss die Nullhypothese zusätzlich zur Wahrscheinlichkeit von .0563 mit einer Wahrscheinlichkeit von .100-.0563 = .0437 abgelehnt werden. Wir ermitteln daher die bedingte Wahrscheinlichkeit, die Nullhypothese abzulehnen, gegeben die Testfunktion nimmt den Wert 1 an, sodass die Nullhypothese insgesamt mit einer Wahrscheinlichkeit von .10 abgelehnt wird. Die Testfunktionen nimmt eine 1 mit einer Wahrscheinlichkeit von .2440 - .0563 = .1887 an. Somit ist die bedingte Wahrscheinlichkeit, die Nullhypothese abzulehnen, wenn eine 1 aufgetreten ist, .0437/.1887 = .2316. Die Entscheidungsvorschrift beim Randomisierungstest lautet nun wie folgt: Tritt bei einem Test eine 0 auf, wird die Nullhypothese abgelehnt. Tritt ein Wert von größergleich 2 auf, wird die Nullhypothese beibehalten. Im Fall einer 1 wird ein weiterer künstlicher Test, ein einseitiger Binomialtest mit der Verteilung B(1, .2316), durchzuführt, sodass in 23% aller Fälle, wenn eine 1 bei der Testfunktion auftritt, die Nullhypothese verworfen wird. In der Praxis wird dazu häufig eine gleichverteilte Zufallszahl zwischen 0 und 1 gezogen. Fällt diese Zufallszahl kleiner als .2316 aus, wird die Nullhypothese abgelehnt, ansonsten beibehalten. Der Randomisierungstest ist insgesamt ein zweistufiges Verfahren, bei dem man in der ersten Phase analog zum Signifkanztest verfährt. Im Unterschied zum Signifkanztest bestimmt man für die erste Phase neben dem Annahme- und Ablehnungsbereich einen dritten Bereich, den sogenannten Randomisierungs- bzw. Indifferenzbereich. Nimmt die Testfunktion einen Wert aus dem Indifferenzbereich an, ist ein weiterer Binomialtest analog zu dem oben dargestellten Beispiel durchzuführen, sodass das Signifikanzniveau exakt eingehalten wird. 14 Kapitel 1 1.9 Varianz der Teststatistik des Wilcoxon-Vorzeichen-Rangtests bei Rangbindungen (3 / S. 88) Im Falle von Rangbindungen werden für identische Werte mittlere Ränge vergeben. Jede Beobachtung i erhält eine „Bindungsbewertung“, die auf der Anzahl der Beobachtungen basiert, die den gleichen Wert aufweisen. Ist ti diese Anzahl, so ist die Bindungsbewertung durch t2 − 1 bi = i 48 zu bestimmen. Ist ti = 1 (gibt es also keine weitere Beobachtung mit identischem Wert), ist bi = 0, ansonsten ist bi > 0. Die Varianz der Teststatistik W ist unter Gültigkeit der Nullhypothese: Var(W ) = n n 2 n(n + 1)(2n + 1) n(n + 1)(2n + 1) t −1 − ∑ bi = −∑ i 24 24 i=1 i=1 48 Da bei Rangbindungen ∑ni=1 bi > 0 ist, wird die Varianz von W bei Berücksichtigung der Rangbindungen kleiner. Fasst man die K Fälle mit Rangbindungen zusammen, so hat jeder Fall die Häufigkeit tk und die Bestimmung der Varianz beschleunigt sich etwas durch die Berechnung Var(W ) = K t3 − t n(n + 1)(2n + 1) k −∑ k 24 k=1 48 Es gilt damit W − 41 n(n + 1) q n(n+1)(2n+1) 24 t 3 −t − ∑Kk=1 k48 k ∼ N(0, 1). Wird die Rangbindungskorrektur der Varianz nicht genutzt, entscheidet der Test konservativ, d. h. zu häufig zugunsten der Nullhypothese. 1.10 Vergleich von Testgütefunktionen bei Einstichprobentests (3 / S. 91) Die in Abbildung 3.4 (Bd 3, S. 91) dargestellten Testgütekurven zeigen, dass die Testgüte umso höher ist, je mehr Voraussetzungen die Tests machen. Wie im Zusammenhang mit dem zentralen Grenzwertsatz ausgeführt wurde, mag die Anwendung des tTest insbesondere, wenn Ausreißer vorliegen, erst bei höheren Stichprobenumfängen gerechtfertigt sein. Insofern ist dementsprechend bei geringeren Stichprobenumfängen auch die Testgüte mit Vorsicht zu betrachten. Schiefe Stichprobenverteilungen Kapitel 1 Ableitungen 15 mögen aus schiefen Populationsverteilungen stammen. Sprechen theoretische Gründe oder bisherige empirische Untersuchungen gegen symmetrische Verteilungen, ist man auf alle Fälle auf der sicheren Seite, wenn man die Poweranalysen ausgehend vom Vorzeichentest durchführt. 1.11 Überprüfung der bivariaten Normalverteilung (5 / S. 125) Ein Test auf Gültigkeit der bivariaten Normalverteilung kann als Spezialfall eines Tests auf Gültigkeit der multivariaten Normalverteilung durchgeführt werden. Bekannte Tests dafür sind die Tests von Mardia, Henze-Zirkler oder Royston (s. Korkmaz, Goksuluk & Zararsiz, 2016). Die Durchführung dieser Tests kann z. B. anhand des R-Programms MVN von Korkmaz, Goksuluk und Zararsiz (2016) erfolgen. 1.12 Monte-Carlo-Verfahren bei Randomisierungstests (5 / S. 130) Exakte Randomisierungstests verlangen oft auch schon bei kleinen Stichproben viel Computerzeit. Eine Möglichkeit diese Tests (dann wiederum aber nur approximativ) durchzuführen, ist die Simulation der Teststatistik unter der zu testenden Hypothesen. Will man etwa eine Korrelation überprüfen, erzeugt man eine Kollektion von „zufällig“ erzeugten Permutationen der Messwerte der Variable Y , die wir mit perm(Y1 ), ..., perm(YK ) bezeichnen. Die Korrelationen r1 = r(X, perm(Y1 )), ..., rK = r(X, perm(YK )) sowie r0 = r(X,Y ) erzeugen eine simulierte Verteilung der Korrelationskoeffizienten unter Gültigkeit der Nullhypothese. Zählt man nun die Anzahl der Korrelationen, die größer-gleich der beobachteten Korrelation r0 in dieser simulierten Verteilung (inklusive r0 ) sind und relativiert diese Anzahl mit möglicher Maximalzahl K + 1, so erhält man eine Abschätzung für den p-Wert unter Gültigkeit der Nullhypothese. In der Regel wird K = 999 oder mehr genutzt, um eine stabile Schätzung für den p-Wert zu erhalten. In R kann man mithilfe der Bibliothek boot sehr einfach und sehr flexibel derartige Simulationen für frei wählbare Statistiken erzeugen. 16 Kapitel 1 1.13 Normalverteilungsapproximation der Testverteilung von Kendall’s τ bei Rangbindungen (5 / S. 134) Der Erwartungswert von Kendalls τ ist bei Gültigkeit der Nullhypothese immer 0. Die Ableitung der Varianz ist hingegen sehr aufwändig. Mit Sillito (1947) kann die Berechnung nachvollzogen werden. Die Konvergenz der Testverteilung gegen die Normalverteilung ist auch hier früh (n > 10) gegeben, wenn die Anzahl der Rangbindungen nicht extrem hoch ist. 1.14 Post-hoc-Tests in der Kontingenztafelanalyse (5 / S. 140) Fällt eine Kontingenztafelanalyse signifikant aus, stellt sich die Frage, welche Häufigkeiten in den Zellenkombinationen „weit“ von ihren Erwartungswerten entfernt sind. Hierfür werden sog. standardisierte adjustierte Residuen für interessante (oder alle) Zellenkombinationen berechnet. Ist ni j die Zellenhäufigkeit, ni. und n. j die Randsummen sowie N die Gesamtzahl aller Beobachtungen, so ist ni j − ni. n. j /N RESi j = p ni. n. j /N(1 − ni. /N)(1 − n. j /N) die Berechnungsformel für das standardisierte adjustierte Residuum. Der Erwartungswert ei j ist durch ni. n. j /N bestimmt. Deshalb gilt ebenfalls ni j − ei j RESi j = p ei j (1 − ni. /N)(1 − n. j /N) Unter Gültigkeit der Nullhypothese ist jedes RESi j näherungsweise N(0, 1)-verteilt (Haberman, 1978, S. 121). Will man nun nur eine Zelle überprüfen, kann man anhand der Normalverteilung entscheiden, ob die Häufigkeit für diese Zelle signifikant vom Erwartungswert entfernt ist. Will man mehrere (oder alle) Zellen überprüfen, sollte eine Bonferroni-Adjustierung (oder Bonferroni-Holm-Adjustierung) genutzt werden, um die kritischen Zellen zu identifizieren. Bei diesem Test muss man die Anzahl der Freiheitsgrade mit berücksichtigen. So erübrigt sich das Verfahren für 2 × 2-Tabellen, da alle Residuen (bis auf das Vorzeichen) identisch sind. Bei einer J × 2-Tabelle ist eine der beiden Spalten zu betrachten, da die Residuen in den Zeilen jeweils vom Betrag her identisch sind. Analog sind in 2 × K-Tabellen nur eine der beiden Zeilen zu betrachten, da die Residuen in den Spalten jeweils vom Betrag her identisch sind. Kapitel 1 Ableitungen 17 1.15 Der Fisher-Yates-Test und die hypergeometrische Verteilung (5 / S. 142) Wird bei einer 2 × 2-Tabelle A=1 A=2 Spaltensumme B=1 n11 n21 n.1 B=2 n12 n22 n.2 Zeilensumme n1. n2. n ein hypergeometrisches Sampling angenommen, d.h. wird angenommen, dass die Randsummen n1. , n2. , n.1 , n.2 feste Werte sind, dann ist bei fehlender Assoziation zwischen A und B (Nullhypothese), die Wahrscheinlichkeit P(h11 = n11 ) durch die hypergeometrische Verteilung zu bestimmen. Hierfür sei an die Einführung der hypergeometrischen Verteilung (Holling & Gediga, 2013) erinnert: Zieht man ohne zurücklegen n1. Kugeln aus einer Urne mit n Kugeln, von denen n.1 Kugeln schwarz und n.2 Kugeln eine andere Farbe haben, so ist die Wahrscheinlichkeit genau n11 schwarze Kugeln bei n1. Ziehungen zu erhalten durch die hypergeometrische Verteilung, also P(h11 = n11 ) = n1. !n2. !n.1 !n.2 n!n11 !n12 !n21 !n22 ! zu berechnen. Das Urnenmodell beschreibt damit exakt die Annahmen bei fehlender Assoziation in einer 2 × 2-Tabelle und die hypergeometrische Verteilung ist damit die adäquate Verteilung der Teststatistik n11 für diesen Fall. 1.16 Exakte Tests bei k × m-Tabellen (5 / S. 143) Die Logik exakter Tests für allgemeine k × m-Tabellen ist ähnlich wie die bei Fisher’s exaktem Test. Zunächst wird auch in diesem Fall mit dem hypergeometrischen Testmodell gerechnet, d.h. ein bedingter Test bei Annahme gleicher Randsummen durchgeführt. Als Teststatistik wird der χ 2 -Wert mit den Ausgangsdaten berechnet: χ2 = ∑ i, j (oi, j − ei, j )2 ei, j 18 Kapitel 1 Hierbei sind oi, j die beobachteten Häufigkeiten und ei, j die erwarteten Häufigkeiten. Um die Wahrscheinlichkeit P χ 2 ≤ χ 2 (H0 ) auszurechnen (also den p-Wert der χ 2 -Statistik), bestimmt man alle möglichen Tabellen T , die die gleichen Randsummen aufweisen wie die beobachteten Randsummen. Für diese Tabellen sind die Erwartungswerte pro Zelle ebenfalls ei, j und für die Berechnung des p-Werts nutzen wir alle die Tabellen T , für die gilt χ 2 (T ) = ∑ i, j (ti, j − ei, j )2 ≥ χ2 ei, j Die Wahrscheinlichkeit P χ 2 ≤ χ 2 (H0 ) lässt sich dann im Prinzip einfach ausrechnen. Sie ist: P χ 2 ≤ χ 2 (H0 ) = ∑ P(T ) T mitχ 2 ≤χ 2 (T ) Die Wahrscheinlichkeit P(T ) lässt sich mit einer verallgemeinerten hypergeometrischen Verteilung berechnen und die Erzeugung aller Tabellen T zu festen Randsummen ist möglich – wenngleich algorithmische Schwerstarbeit. Für SPSS ist das Model Exact tests entwickelt worden, dass die exakte Berechnung des p-Wertes vornimmt. Die Berechnung ist allerdings auf N ≤ 30 begrenzt, da die Anzahl der möglichen Tabellen sehr schnell sehr groß wird. Eine einfache (approximative) Lösung bieten Simulationsansätze (ähnlich denen bei Randomisierungstests). Hier wird eine feste Menge von Tabellen T per Zufall generiert (z.B. kT Tabellen) und der p-Wert wird nun approximativ bestimmt mittels ! kT 1 1 + ∑ Ind χ 2 ≤ χ 2 (kT ) 1 + kT i=1 Ind() ist hier wieder die Indikatorfunktion, die den Wert 1 liefert, wenn die Bedingung erfüllt ist, und 0 sonst. In SPSS ist diese Simulation für Kreuztabellen abrufbar. Für R kann das Paket coin genutzt werden. 1.17 Normalverteilungsapproximation der Testverteilung des Log-Odds-Ratios (5 / S. 144) Viele Testverteilungen von Funktionen von Zufallsvariablen werden durch einen Linearisierungansatz erzeugt, der Delta-Methode genannt wird. Im Falle multinomialverteilter Zufallsvariablen erhält man für eine Funktion f , die von den Wahrschein- Kapitel 1 Ableitungen 19 lichkeiten f (π1 , ...πk ) abhängt, folgende Approximation für die Funktion basierend auf den Schätzern der Wahrscheinlichkeiten: k ∂f (πb1 , . . . , πbk ) · (πbi − πbi ), i=1 ∂ πi i h Var( f (πb1 , . . . , πbk )) ≈ E ( f (πb1 , . . . , πbk ) − f (πb1 , . . . , πbk ))2 " # k ∂f ≈ E (∑ (πb1 , . . . , πbk ) · (πbi − πbi ))2 . i=1 ∂ πi f (πb1 , . . . , πbk ) ≈ f (πb1 , . . . , πbk ) + ∑ Die Terme ∂∂πfi (πb1 , . . . , πbk ) sind konstant, da hier keine Zufallseinflüsse eingehen. Mit dieser Linearisierung erfolgt die Approximation der Varianz von f (πb1 , . . . , πbk ): Var[∑ Yi ] = ∑ Var[Yi ] + 2 ∑ COV[Yi ,Y j ], i> j i i 2 Var[cY ] = c Y, COV[cYi , dY j ] = c · d COV[Yi ,Y j ], und damit: ∂f 2 ∂f ∂f Var( f (πb1 , . . . , πbk )) ≈ ∑ Var(πbi ) · + 2 ∑ COV(πbi , πbj ) · · ∂ πi ∂ πi ∂ π j i> j i=1 k ∂f ∂f ∂f 2 2 + 2 ∑ COV(πbi , πbj ) · · . = ∑ SE(πbi ) · ∂ πi ∂ πi ∂ π j i> j i=1 k Damit folgt k πi (1 − πi ) Var( fˆ) ≈ ∑ n i=1 ∂f ∂ πi 2 πi π j ∂ f ∂ f · · . ∂ πi ∂ π j i> j n −2∑ d fˆ) zu berechnen, ersetzen wir πbi für die unbekannten Terme πi . Um nun Var( Allgemein gilt, dass für Maximum-Likelihood-Schätzer eines Parameters θ nicht nur θ̂ approximativ normalverteilt ist, sondern auch f (θ̂ ), wenn f eine stetige und differenzierbare Funktion ist. Damit gilt aber auch, dass g( f (θ̂ )) approximativ normalverteilt ist. Man hat also die Freiheit mittels g eine Funktion zu finden, für die die Approximation auch für kleines n schon sehr gut ist. Im Fall von f = OR = π11 π22 π12 π21 ist die Logarithmus-Funktion ein guter Kandidat. 20 Kapitel 1 Wir nutzen also die Delta-Methode für die Funktion π11 π22 log( f ) = log π12 π21 = log(π11 ) + log(π22 ) − log(π12 ) − log(π22 ) Die für die Delta-Methode notwendigen Ableitungen von f sind nun: ∂f ∂ π11 ∂f ∂ π22 ∂f ∂ π12 ∂f ∂ π21 1 π11 1 = π22 1 =− π12 1 =− π21 = Damit folgt π11 (1 − π11 ) 1 π22 (1 − π22 ) 1 + 2 2 n n π11 π22 π12 (1 − π12 ) 1 π21 (1 − π21 ) 1 + + 2 2 n n π12 π21 π11 π12 1 −1 π11 π22 1 1 −2 −2 n π11 π22 n π11 π12 π11 π21 1 −1 π22 π12 1 −1 −2 −2 n π11 π21 n π22 π12 π22 π21 1 −1 π12 π21 −1 −1 −2 −2 n π22 π21 n π12 π21 (1 − π11 ) (1 − π22 ) (1 − π12 ) (1 − π21 ) 4 = + + + + n · π11 n · π22 n · π12 n · π21 n 1 1 1 1 = + + + n · π11 n · π22 n · π12 n · π21 1 1 1 1 1 = + + + n π11 π22 π12 π21 Var( fˆ) ≈ Damit ist die Schätzung \ =1 d ln(OR)) Var( n 1 1 1 1 + + + π̂11 π̂22 π̂12 π̂21 gegeben, die wir im Buch genutzt haben. Kapitel 1 Ableitungen 21 1.18 Ausreißer und große Schiefe und der zentrale Grenzwertsatz (6 / S. 160) Wir verweisen hier auf die obigen Ausführungen zur Anwendbarkeit des zentralen Grenzwertsatzes (3 / S. 69). 1.19 Die Deffizienz im Zweistichprobenfall (6 / S. 166) Für den t-Test für heterogene Varianzen ist es nicht optimal, für beide Gruppen einen gleich großen Stichprobenumfang zu verwenden. Unter der Voraussetzung normalverteilter Daten sollte hier der Stichprobenumfang für die Gruppe mit der größeren Standardabweichung proportional größer sein. Es gilt: nn21 = σσ12 (vgl. z. B. Dette & O´Brien, 2004). 1.20 Die White-Korrektur im linearen Modell (6 / S. 175 und 9 / S. 361) Ein lineares Modell lässt sich mithilfe der Matrizenschreibweise kompakt wie folgt darstellen: y = Xβ + ε Hierbei wird angenommen, dass E(ε) = 0 ist und dass die Matrix E(εε 0 ) = Ψ positiv definit ist. In diesem Fall ist β̂ = (X 0 X)−1 X 0 y der beste lineare unverzerrte Schätzer für β mit der Varianz-Kovarianz-Matrix Var(β̂ ) = (X 0 X)−1 X 0 ΨX(X 0 X)−1 Im homoskedastischen Fall ist Ψ = σ 2 I und wir erhalten Var(β̂ ) = σ 2 (X 0 X)−1 Üblicherweise wird σ 2 durch das mittlere Fehlerquadrat MSE geschätzt. Mit der Schätzung \ Var(β̂ ) = MSE · (X 0 X)−1 lassen sich dann die Konfidenzbänder für die β -Gewichte oder der F-Test für die Regression berechnen. \ Im heteroskedastischen Fall wird Var(β̂ ) folgendermaßen besser geschätzt. 22 Kapitel 1 Nach White (1980) ist HC0 = (X 0 X)−1 X 0 diag(ε̂i2 )X(X 0 X)−1 \ ein asymptotisch konsistenter Schätzer für Var(β̂ ). Dieser Schätzer hat jedoch den Nachteil, dass die Asymptotik erst spät einsetzt, d. h. dass er große Stichproben benötigt, um brauchbare Schätzungen zu produzieren. Es wurden in der Folge weitere Schätzer vorgeschlagen, die auch für kleinere Stichproben bereits gute Ergebnisse erzielen. Wir diskutieren hier zwei weitere (beide vorgeschlagen von MacKinnon und White, 1985): 2 ε̂i 0 −1 0 HC2 = (X X) X diag X(X 0 X)−1 1 − hii und ε̂i2 X(X 0 X)−1 HC3 = (X X) X diag (1 − hii )2 Hierbei ist hii ein Diagonalelement der sog. Hat-Matrix, das durch 0 −1 0 hii = xi (X 0 X)−1 xi0 berechnet werden kann. Das lineare Modell mittels HC2 und der t − Test für homogene Stichproben sind bei gleichen Stichprobengrößen äquivalent. Da dies auch für den heteroskedastischen Fall gilt, kann der Test mithilfe des HC2-Schätzers den t-Test in diesem Fall ersetzen (s. Holling & Gediga, Bd 3, S. 175 ff. und den nächsten Abschnitt). Dies gilt nicht für den HC3-Schätzer, der in diesem Fall konservativ testet, d.h. im homoskedastischen Fall unter Gültigkeit der Nullhypothese weniger signifikante Ergebnisse anzeigt, als vorgegeben. Liegen nominalsaklierte Prädiktoren vor, scheint somit HC2 der günstigste Schätzer zu sein. Für den allgemeinen Fall zeigen jedoch die Simulationen von Long und Ervin (2000), dass HC3 den anderen Schätzern überlegen ist. Im dem hier zugrunde liegenden Buch wurde die Software zur Berechnung der HCSchätzer für das Programmpaket R ausgiebig dargestellt. Für SPSS liegen Makros vor (Hayes & Cai, 2007), die man unter http://afhayes.com/spss-sas-and-mplus-macros-and-code.html finden kann. 1.21 Asymptotische Konsistenz des thom -Tests bei Heteroskedastizität (6 / S. 176) Die Hat-Matrix H berechnet sich durch h = X(X 0 X)−1 X 0 Kapitel 1 Ableitungen 23 Nutzt man die Effektkodierung für den t-Test mit gleich großen Stichproben – also n/2 Einträge mit der 1 für Gruppe a und n/2 Einträge mit der −1 für Gruppe b – so ergibt sich für die Diagonalelemente der Wert hi,i = 2/n Damit ist HC2 = 1 1−2/n und HC0 = = = = 1 (X 0 X)−1 X 0 diag(ε̂i2 )X(X 0 X)−1 1 − 2/n n n n − 2 n2 n/2 ∑ (yi − ȳa )2 + ∑ i=1 ! n (yi − ȳb )2 i=n/2+1 1 (n/2 − 1)s2a + (n/2 − 1)s2b n−2 (na − 1)s2a + (nb − 1)s2b na + nb − 2 HC2 entspricht damit exakt dem Quadrat des Standardfehlers im t-Test für homogene Varianzen. Ist Varianzhomogenität gegeben, dann ist HC2 für ein 2-Gruppen-Design die beste Korrektur unter allen HC-Korrekturen, so fällt die Testvarianz bei Verwendung von HC3 um den Faktor 1/(1 − 2/n) zu gross aus – der Test ist dann folglich konservativ. Andererseits sieht man, dass der t-Test für homogene Varianzen bei gleich großen Stichproben auch dann genutzt werden darf, wenn die Varianzen in der Population unterschiedlich sind. Der t-Test ist asymptotisch konsistent, da er mit der asymptotisch konsistenten HC2-Korrektur zusammenfällt. 1.22 Beispiel für einen Lokationsunterschied bei undefinierten Erwartungswerten (6 / S. 183) Die Verteilung mit der Dichte f (y) = 1 bπ 1 + y−a 2 b 24 Kapitel 1 wird als Cauchy-Verteilung bezeichnet. Die Verteilung ist symmetrisch um den Parameter a und die Breite der Verteilung wird mit dem Parameter b eingestellt. Die t-Verteilung mit einem Freiheitsgrad ist eine Cauchy-Verteilung mit a = 0 und b = 1. Will man den Erwartungswert dieser Verteilung berechnen, so stellt man fest, dass dies nicht möglich ist, da das Ergebnis der Integration „∞ − ∞“ ist. Die Verteilung besitzt damit keinen berechenbaren Erwartungswert. Der Median ist wegen der Symmetrie um a mit dem Wert a gegeben. Hat man nun zwei Populationen vorliegen, in denen eine Variable mit einer CauchyVerteilung gemessen wird, so können die Mediane dieser beiden Variablen eine Differenz aufweisen, was man etwa mit einem Wilcoxon-Rangsummentest überprüfen kann (wenn in beiden Populationen die Breite der Verteilungen identisch ist). Offensichtlich ist hier ein t-Test nicht angemessen, da der Populationsparameter µ nicht existiert. Da der Erwartungswert nicht bestimmt werden kann, ist im übrigen auch die Varianz der Verteilung nicht bestimmbar. Dennoch kann die Breite der Cauchy-Verteilung mit dem Parameter b verändert werden – d.h. b ist ein Variationsparameter (nur eben keine Varianz). 1.23 Berechnung der Verteilung des Wilcoxon-Rangsummentests (6 / S. 183) Insgesamt erhalten für die zwei Gruppen n + m Beobachtungen. Es gibt damit n+m n unterschiedliche Rangvergaben für Gruppen mit n Beobachtungen (wir wählen praktischerweise hier die kleinere Gruppe für die Berechungen). Unter Gültigkeit der Nullhypothese sind alle diese Möglichkeiten gleich wahrscheinlich. Die Wahrscheinlichkeit einen bestimmten Rangsummenwert w zu erhalten ist somit anzahl(w) P(W = w|H0 ) = n+m n Beispiel: Ist n = 2 und m = 3, gibt es insgesamt 2+3 = 10 unterschiedliche Rang2 vergaben. Die Auszählung der Möglichkeiten ergibt: Kapitel 1 Ableitungen w 3 4 5 6 7 8 9 Rangwerte (1,2) (1,3) (1,4), (2,3) (1,5), (2,4) (1,6), (3,4) (3,5) (4,5) 25 P(W = w) .1 .1 .2 .2 .2 .1 .1 Wie bereits im Buch betont, hängt die Berechnung der Verteilung der Teststatistik nicht von den Daten ab. Für das Beispiel kann die obige Tabelle wie folgt ausgewertet werden: P(W ≤ 3|H0 ) = .1 oder P(W ≥ 9|H0 ) = .1. 1.24 Teststatistik des Wilcoxon-Rangsummentests (6 / S. 184) Die Rangsummenstatistik W ist durch n+m W= ∑ i · Zi i=1 gegeben. Hierbei ist Zi = 1, wenn der entsprechende Rang der kleineren Gruppe (mit n Beobachtungen) zugeordnet wurde und Zi = 0 sonst. Um es etwas übersichtlicher zu gestalten, definieren wir mit N := n + m die Größe der Gesamtstichprobe. Es gilt E(Zi ) = Var(Zi ) = Cov(Zi , Z j ) = n N n·m N2 −n · m 2 N (N − 1) für (i 6= j) Der Erwartungswert ist damit N E(W ) = ∑ iE(Zi ) = i=1 n N n N(N + 1) n(N + 1) i= = ∑ N i=1 N 2 2 26 Kapitel 1 Für die Varianz gilt n+m Var(W ) = Var ! ∑ i · Zi i=1 N = N N ∑ i2Var(Zi ) + ∑ ∑ i=1 i · j ·COV (Zi , Z j ) i=1 j=1;i6=i n·m n·m N N − ∑ ∑ i· j 2 2 N N (N − 1) i=1 j=1;i6=i i=1 ! n·m N 2 1 N N ∑i − N −1 ∑ ∑ i· j N 2 i=1 i=1 j=1;i6=i !2 N N N 1 n·m 1 i2 + i2 − ∑ ∑ ∑i 2 N N − 1 N − 1 i=1 i=1 i=1 !2 N N 1 n·m 1 1+ i2 − ∑ ∑i 2 N N − 1 i=1 N − 1 i=1 !2 N N n·m N 1 ∑ i2 − N − 1 ∑ i N2 N − 1 i=1 i=1 !2 N N n·m N ∑ i2 − ∑ i N 2 (N − 1) i=1 i=1 N = = = = = = = = = = = = = = ∑ i2 ! N(N + 1)(2N + 1) N(N + 1) 2 N − 6 2 2 N (N + 1)(2N + 1) N 2 (N + 1)2 n·m − N 2 (N − 1) 6 4 n · m(N + 1) 2N + 1 N + 1 − N −1 6 4 n · m(N + 1) 2(2N + 1) 3(N + 1) − N −1 12 12 n · m(N + 1) 4N + 2 − 3N − 3 N −1 12 n · m(N + 1) N − 1 N −1 12 n · m(N + 1) 12 n · m(n + m + 1) 12 n·m N 2 (N − 1) Kapitel 1 Ableitungen 27 Im Falle von Rangbindungen ändert sich der Erwartungswert der Teststatistik bei Gültigkeit der Nullhypothese nicht. Wie im Fall der Rangvorzeichentests ist die Varianz allerdings kleiner. Zur Korrektur werden wieder die unterschiedlichen K gebundenen Ränge gezählt (unabhängig von der Zuordnung zu der Stichprobe) und mit der t 3 −t Wertung bk = Nk3 −Nk die Varianz mittels Var(W )korr = Var(W ) t 3 −t 1 − ∑Kk=1 Nk3 −Nk korrigiert. Alternativ kann man auch für n > 25 und m > 25 den asymptotischen t-Test nutzen. 1.25 Der Fligner-Policello-Test (6 / S. 190) Liegt bei dem Vergleich von zwei Gruppen Varianzheterogenität vor bzw. – allgemeiner – unterscheiden sich die beiden Verteilungen, dann ist der Wilcoxon-Rangsummentest (bzw. der U-Test) nicht zulässig, wobei dieser dieselben Probleme aufweist wie der thom -Test. Als Alternative haben Fligner und Policello (1981) einen Test entwickelt, der neben der Annahme symmetrischer Verteilungen um den Gruppenmedian keine weiteren Annahmen braucht, also für stark unterschiedliche Verteilungen in den Gruppen anwendbar ist. Für die Messwerte der x1 , ..., xnX der ersten Gruppe und y1 , ..., ynY werden sogenannte Plazierungssummen gebildet: nY PS(xi ) = 1 ∑ IND(y j < xi ) + 2 IND(y j = xi ) j=1 nX PS(y j ) = 1 ∑ IND(xi < y j ) + 2 IND(xi = y j ) i=1 Hierbei ist IND(·) die Indikatorfunktion, die den Wert 1 aufweist, wenn die Bedingung zutrifft, und 0 sonst. Unter Gültigkeit der Nullhypothese (gleiche Mediane) ist nX FP = nY ∑ PS(xi ) − ∑ PS(y j ) i=1 j=1 approximativ normalverteilt mit Erwartungswert 0 und einer Varianz, die durch Var(FP) = 4 (VX +VY + PSX PSY ) 28 Kapitel 1 geschätzt werden kann, mit PSX PSY = = 1 nX 1 nY nX ∑ PS(xi ) i=1 nY ∑ PS(y j ) j=1 nX VX = ∑ (PS(xi ) − PSX )2 i=1 nY VY = ∑ (PS(y j ) − PSY )2 j=1 Die folgende R-Funktion kann zur Berechnung des Fligner-Policello-Tests genutzt werden: fligner.policello.test <- function(x,y) { nx<-length(x); ny<-length(y) px<-x; py<-y meanpx <- 0 for (i in 1:nx) { px[i]<-0 for (j in 1:ny) { if (y[j]< x[i]) px[i] <- px[i]+1 if (y[j]==x[i]) px[i] <- px[i]+0.5 } meanpx<-meanpx + px[i]/nx } meanpy<-0 for (j in 1:ny) { py[j]<-0 for (i in 1:nx) { if (x[i]< y[j]) py[j] <- py[j]+1 if (y[j]==x[i]) py[j] <- py[j]+0.5 } meanpy<-meanpy + py[j]/ny } Vx<-0 for (i in 1:nx) { Vx <- Vx + (px[i] - meanpx)*(px[i] - meanpx) } Vy<-0 Kapitel 1 Ableitungen 29 for (j in 1:ny) { Vy <- Vy + (py[j] - meanpy)*(py[j] - meanpy) } z <- (ny*meanpy-nx*meanpx)/ (2*sqrt(Vx+Vy+meanpx*meanpy)) p <- pnorm(z); if (p>0.5) p<-(1-p); p<-2*p retval<-list(p,z,meanpx,meanpy,Vx,Vy) names(retval)<-c("p","z","meanpx","meanpy","Vx","Vy") return (retval) } 1.26 Normalverteilungsapproximation der Teststatistik für den Wilcoxon-Vorzeichen-Rangtest für abhängige Stichproben (6 / S. 197) Diese Thematik wurde bereits im Zusammenhang mit (3 / S. 88) behandelt. 1.27 Symmetrie-Tests (6 / S. 198) Wie in Holling und Gediga (2011) gezeigt, kann anhand des Abstands Ȳ − Ymed abgelesen werden, ob eine Verteilung schief ist. Cabilio und Masaro (1996) nutzen als Teststatistik C= Ȳ −Ymed S wobei S die Standardabweichung der Daten schätzt. C ist hierbei (bei normalverteilten Daten) N(0, 0.5708)-verteilt. Da ein Symmetrie-Test zu Beginn des Datenanalyseprozesses genutzt wird, können noch Ausreißer in den Daten vorliegen. Man ersetzt dann besser (Miao, Gel & Gastwirth, 2006) S durch die robuste Schätzung J mit r π ∑ j |Yi −Ymed | J= · . 2 n Hierbei schätzt J in normalverteilten Populationen wieder die Standardabweichung und Ȳ −Ymed CJ = J ist bei Normalverteilung wieder N(0, 0.5708)-verteilt. 30 Kapitel 1 1.28 Der Fligner-Policello-Test (6 / S. 213) Diese Thematik wurde schon unter den Ausführungen zum Fligner-Policello-Test (6 / S. 190) behandelt. 1.29 Berechnung der Mittelwerte im Fall gleich großer Gruppen in der einfaktoriellen Varianzanalyse (7 / S. 230) Y •• = Bei gleich großen Gruppen gilt: Damit resultiert: 1 n = Y •• = = = nj J 1 n ∑ ∑ Yi j j=1 i=1 1 J×n j . 1 J ×nj 1 J J nj ∑ ∑ Yi j j=1 i=1 nj J ∑i=1 Yi j ∑ nj j=1 1 J ∑Y•j J i=1 1.30 χ 2 -Verteilung von SSBG /σ 2 in der einfaktoriellen Varianzanalyse (7 / S. 231) Ausgangspunkt bildet die Zerlegung der Abweichungsquadrate der Gruppenmittelwerte vom Populationsmittelwert µ: J I ∑ Y•j − µ 2 j=1 J = I ∑ Y • j −Y •• j=1 2 J = I ∑ Y • j −Y •• +Y •• − µ j=1 J + I ∑ Y •• − µ j=1 J = I ∑ Y • j −Y •• j=1 2 2 2 J + 2I ∑ Y • j −Y •• )(Y •• − µ j=1 + IJ Y •• − µ 2 Kapitel 1 Ableitungen 31 Der letzte Term in der vorletzten Gleichung fällt weg, weil die Summe der Abweichungen der Gruppenmittelwerte vom Gesamtmittelwert 0 ist. Der zweite Term in der letzten Gleichung ergibt sich dadurch, dass J mal über eine Konstante summiert wird. J I ∑ Y • j −Y •• 2 + IJ Y •• − µ 2 = SSBG + IJ Y •• − µ 2 j=1 Der erste Term wird nun durch SSBG ersetzt. Anschließend wird auf beiden Seiten der Gleichung durch σ 2 geteilt. I ∑Jj=1 Y • j − µ σ2 2 SSBG IJ Y •• − µ = 2 + σ σ2 2 Y •• − µ SSBG = 2 + σ σ 2 /IJ ∑Jj=1 Y • j − µ σ 2 /I 2 2 √ Da alle Y • j unter der Nullhypothese i.i.d. N( µ,σ / I) verteilt sind, ist der Term auf der linken Seite der Gleichung χ 2 -verteilt mit J Freiheitsgraden. Der zweite Term auf der rechten Seite der Gleichung ist χ 2 -verteilt mit einem Freiheitsgrad. Weil die beiden Terme auf der rechten Seite der Gleichung statistisch unabhängig sind und aufgrund der Additivität der χ 2 -Verteilung folgt, dass SSBG /σ 2 unter der Nullhypothese χ 2 -verteilt ist mit J-1 Freiheitsgraden. 1.31 Die Deffizienz in der einfaktoriellen Varianzanalyse (7 / S. 235) Beispiele für notwendige Stichprobenumfänge bei ungleich besetzten Zellen in der einfaktoriellen Varianzanalyse (7 / S. 235) Betrachtet man die Power für die generelle Nullhypothese in der einfaktoriellen wie auch mehrfaktoriellen Varianzanalyse in Abhängigkeit von den Stichprobenumfängen der Gruppen, so ergibt sich eine maximale Power, wenn gleich große Stichprobenumfänge für die Gruppen, d. h. ein balanciertes Design, gewählt werden. Das gleiche Resultat gilt für die D-Optimalität, d. h. der Minimierung des Volumens der Konfidenzellipsoide für die Parameterschätzungen bzw. die Miminierung der korrespondierenden Deffizienz. Gezeigt wurde dieses Resultat bereits für den t-Test für homogene Varianzen, der ein Spezialfall der Varianzanalyse ist. Formal ist für die 32 Kapitel 1 Erzielung der D-Optimalität das Produkt der Stichprobenumfänge ∏Jj=1 n j zu minimieren. Diese Produkt wird im Falle gleich großer Stichprobenumfänge n j minimal (vgl. Silvey, 1980). Beim t-Test für homogene Varianzen konnte der Verlust der Power bzw. Deffizienz einfach als Funktion des prozentualen Stichprobenumfangs einer der beiden Gruppen dargestellt werden. Bei der Varianzanalyse ist aber das Verhältnis des Stichprobenumfangs mehrerer Gruppen zu berücksichtigen. Hier kann man für bestimmte Fälle die Deffizienz anhand bestimmter EDV-Programme zur Berechnung der Power für unbalancierte (und damit natürlich auch für balancierte) Fälle bestimmen, wie z. B. anhand des Moduls zur Powerberechnung des Programmpakets STATA. Wir zeigen als Beispiel die Deffizienz anhand eines 2 x 4-Designs. In der folgenden Tabelle sind unterschiedliche Designs dargestellt, wobei das Design 1 balanciert ist, d. h. gleich große Stichprobenumfänge besitzt. Für die übrigen unbalancierten Designs ist jeweils die Deffizienz angegeben. 1 Factor B 2 3 4 Deffizienz Factor A Design 1 1 2 0.125 0.125 0.125 0.125 0.125 0.125 0.125 0.125 Design 2 1 2 0.175 0.075 0.175 0.075 0.175 0.075 0.175 0.075 1.092 Design 3 1 2 0.200 0.200 0.150 0.150 0.100 0.100 0.050 0.050 1.130 Design 4 1 2 0.250 0.125 0.200 0.100 0.150 0.050 0.100 0.025 1.225 1.32 Verteilung eines Kontrastes unter der Nullhypothese (7 / S. 238) Wie bereits ausgeführt wurde, sind die Schätzer Y • j statistisch unabhängig. Weiterhin √ gilt Y • j ∼ N(µ, σ / n j ). Da es sich bei dem Schätzer L̂ = ∑Jj=1 c jY • j somit um eine Linearkombination unabhängig normalverteilter Zufallsvariablen handelt, ist er ebenfalls normalverteilt (Sahai & Ageel, 2000, S. 67). Daher gilt: Kapitel 1 Ableitungen 33 √(L̂−L) √(L̂−L) (L̂ − L) z Var(L̂) Var(L̂) q =q =q = t(J − 1) =q q 2 d χ (n−J) (n−J)Var(L̂)/Var(L̂) d L̂) d L̂)/ Var(L̂) Var( Var( n−J n−J d L̂) ein Schätzer für Var(L̂) mit n − J Freiheitsgraden ist. Dies folgt, weil Var( Vgl. hierzu auch Kirk (1995, S. 124 – 125, S. 129 – 131). 1.33 Zur Schätzung des Standardfehlers bei homogenen Varianzen (7 / S. 243) MSW , ein erwartungstreuer und konsistenter Schätzer für σ , schöpft die gesamte Information aus und nicht nur die Information, die auf zwei Gruppen beruht. 1.34 Beispiel zum REGWQ-Verfahren (7 / S. 247) Das REGWQ-Verfahren bezeichnet eine top-down Testprozedur für alle paarweisen Vergleiche einer Gruppe von Mittelwerten. Die Stärke des Verfahrens liegt in der Verwendung adjustierter α-Niveaus für verschiedene Stufen des Testverfahrens. Für die Adjustierung des α-Niveaus werden zunächst die m Mittelwerte der Größe nach geordnet. Das α-Niveau variiert dann als eine Funktion der Schritte, durch die zwei Mittelwerte voneinander getrennt sind. Die Differenz der beiden Mittelwerte, die durch r = m Schritte getrennt sind, (also der größte und der kleinste Mittelwert) wird zum Signifikanzniveau α getestet. Anschließend werden alle Mittelwerte, die durch r = m - 1 Schritte getrennt sind, ebenfalls zum Signifikanzniveau α getestet. Mittelwerte, die durch r = m - 2, m - 3, . . . , 2 Schritte getrennt sind, werden zum adjustierten Signifikanzniveau ar = 1 − (1 − a)r/m getestet. Fällt ein Vergleich zweier Mittelwerte nicht signifikant aus, so sind durch Implikation alle paarweisen Vergleiche, die durch diese Mittelwerte eingeschlossen werden, nicht signifikant. Die Teststatistik des REGWQ-Verfahrens bildet die studentisierte Range-Statistik: • j−Y • k Q = Yq MS W I 34 Kapitel 1 Der kritische Wert, mit dem diese Teststatistik verglichen wird, ist qar (r, v). Dabei bezeichnet qar das ar Quantil der stundentisierten Range Verteilung, r die Anzahl der Schritte zwischen Y • j und Y • k und v bezeichnet die Anzahl der Freiheitsgrade, die mit MSW assoziiert sind, d.h. v = n − J. Die Nullhypothese H0 : µ j − µk = 0 wird abgelehnt, wenn Q betragsmäßig größer ist als qar (r, v) und der Paarvergleich nicht durch Implikation eines Paarvergleichs auf höherer Stufe nicht signifikant ist. Ein Beispiel soll die Durchführung des REGWQ-Verfahrens verdeutlichen. Die folgenden Mittelwerte seien in einem einfaktoriellen Experiment mit fünf Faktorstufen beobachtet worden. Y • 1 = 36.7 Y • 2 = 48.7 Y • 3 = 43.4 Y • 4 = 47.2 Y • 5 = 40.3 In dem Experiment wurden 45 Versuchspersonen zufällig den einzelnen Faktorstufen zugewiesen. Für jede der Faktorstufen kann Normalverteilung angenommen werden. Weiterhin sind die Varianzen der Faktorstufen homogen. MSW ergibt sich zu 29.0322. Zunächst müssen die Mittelwerte nach ihrer Größe geordnet werden. Der Einfachheit halber, werden die Indizes der Mittelwerte so geändert, dass Y • 1 den kleinsten Mittelwert bezeichnet und Y • 5 den größten. Y • 1 = 36.7 Y • 2 = 40.3 Y • 3 = 43.4 Y • 4 = 47.2 Y • 5 = 48.7 Die folgende Tabelle zeigt die Differenzen der Mittelwerte für alle möglichen Paarvergleiche. Y • 1 = 36.7 Y • 2 = 40.3 Y • 3 = 43.4 Y • 4 = 47.2 Y • 5 = 48.7 Y • 1 = 36.7 - Y • 2 = 40.3 3.6 - Y • 3 = 43.4 6.7 3.1 - Y • 4 = 47.2 10.5 6.9 3.8 - Y • 5 = 48.7 12.0 8.4 5.3 1.5 - Es wird deutlich, dass keine weiteren signifikanten Ergebnisse zu erwarten sind, wenn der Vergleich von Y • 1 und Y • 5 nicht signifikant ausfällt. Indem über spätere Vergleiche durch Implikation früherer Vergleiche entschieden wird, wird ein kohärentes Kapitel 1 Ableitungen 35 Vorgehen gesichert. Außerdem kann sich der Rechenaufwand z.T. erheblich reduzieren. Die sequenzielle Testprozedur wird durch die folgende Tabelle verdeutlicht. Die kritischen Werte der studentisierten Range Verteilung lassen sich dabei z.B. mit der Funktion qtukey im Programmpaket R berechnen. In der Tabelle lässt sich erkennen, dass die Hypothesen µ1 − µ5 = 0, µ1 − µ4 = 0, µ2 − µ5 = 0 und µ2 − µ4 = 0 abgelehnt werden können. Da die Hypothesen µ1 − µ3 = 0 und µ3 − µ5 = 0 beibehalten werden müssen, werden auch die übrigen Hypothesen durch Implikation beibehalten. Denn wenn z.B. die Differenz von Y • 1 und Y • 3 nicht signifikant ist, kann die Differenz von Y • 1 und Y • 2 nicht signifikant sein. Anzahl der Schritte zwischen den Mittelwerten Hypothese |Q| 5 µ1 − µ5 = 0 6.68 4 4 µ1 − µ4 = 0 µ2 − µ5 = 0 5.85 4.68 3 3 3 µ1 − µ3 = 0 µ2 − µ4 = 0 µ3 − µ5 = 0 3.73 3.84 2.95 2 2 2 2 µ1 − µ2 = 0 µ2 − µ3 = 0 µ3 − µ4 = 0 µ4 − µ5 = 0 2.00 1.73 2.12 0.84 REGWQ kritischer Wert und Testentscheidung q.05 (5, 40) = 4.04 S q.05 (4, 40) = 3.79 S S q.0303 (3, 40) = 3.75 NS S NS q.0203 (2, 40) = 3.42 NSI NSI NSI NSI Anmerkung: S = signifikant, NS = nicht signifikant, NSI = nicht signifikant durch Implikation Die Ausführungen in diesem Abschnitt sind an Kirk (1995, S. 150 – 154) angelehnt. Dort werden auch das REGWF- und das REGWFQ-Verfahren vorgestellt. Die Abweichungen in der letzten Tabelle ergeben sich dabei durch eine genauere Berechnung der α-Werte. 36 Kapitel 1 1.35 Äquivalenz des zweiseitigen Wilcoxon-Rangsummen-Tests und des Kruskal-Wallis-Tests bei zwei Stichproben (7 / S. 249) H= 12 n(n + 1) R2j ∑ − 3(n + 1) j=1 n j J Hierbei waren mit R j die Summen der Ränge in den Gruppen 1, . . . , J bezeichnet. Die Teststatistik des Wilcoxon-Rangsummen-Tests ist n1 W = ∑ rg(xi ) = R1 i=1 Um den zweiseitigen Wilcoxon-Rangsummen-Test kompakt zu beschreiben, betrachten wir den Abstand der Rangsumme vom Erwartungswert der Rangsumme W ∗ = R1 − n1 (n + 1) 2 Für den zweiseitigen Test ist das Quadrat von W ∗ die adäquate Teststatistik. Für zwei Gruppen gilt H= 12 R21 + n(n + 1) n1 n(n+1) 2 − R1 2 n2 − 3(n + 1) Wir setzen zunächst alle Konstanten, die einen monotonen Zusammenhang nicht verändern, auf leicht zu bearbeitende Werte und erhalten eine modifizierte Statistik h= R21 n1 + n(n+1) 2 − R1 n2 2 Kapitel 1 Ableitungen 37 einsetzen von W ∗ ergibt h = = = = = = = = 2 W ∗ + n1 (n+1) 2 n1 2 W ∗ + n1 (n+1) 2 n1 n21 + + n+1 2 n(n+1) 2 −W ∗ − n1 (n+1) 2 2 n2 n2 (n+1) 2 −W ∗ 2 n2 2 n+1 ∗ 2 2 −W /n2 + n2 n2 2 2 n+1 n+1 ∗ + n2 −W /n2 W ∗ /n1 + 2 n1 n1 W ∗ /n1 + 2 2 2 (n + 1) (n + 1)2 ∗ 2 ∗ ∗ ∗ 2 n1 (W /n1 ) + + (n + 1)W /n1 + n2 − (n + 1)W /n2 + (W /n2 ) 4 4 n2 (n + 1)2 n1 (n + 1)2 + (n + 1)W ∗ + − (n + 1)W ∗ +W ∗2 /n2 W ∗2 /n1 + 4 4 n1 (n + 1)2 n2 (n + 1)2 W ∗2 /n1 + + +W ∗2 /n2 4 4 1 1 n(n + 1)2 ∗2 W + + n1 n2 4 Da h und W ∗2 positiv linear miteinander verknüpft sind, sind H und W (im zweiseitigen Testfall) äquivalente Statistiken. 1.36 Schätzer der mehrfaktoriellen Varianzanalyse bei gleichen Zellenbesetzungen (7 / S. 259) Da bei gleicher Zellenbesetzung n = I × J × K gilt (Kutner, Nachtsheim, Neter & Li, 2005, S. 830), ergibt sich Y ••• = = = 1 I J K ∑ ∑ ∑ Yi jk n i=1 j=1 k=1 I J K 1 ∑ ∑ ∑ Yi jk I × J × K i=1 j=1 k=1 1 J ×K ∑Ii=1 Yi jk I j=1 k=1 J K ∑∑ 38 Kapitel 1 = = J 1 J ×K 1 J ×K K ∑ ∑ Y • jk j=1 k=1 J K ∑ ∑ µ̂ jk = µ̂ j=1 k=1 Entsprechend ergeben sich Y • j• = = 1 K ∑Ii=1 Yi jk ∑ I K k=1 = = 1 I K ∑ ∑ Yi jk I × K i=1 k=1 1 K ∑ Y • jk K k=1 1 K ∑ µ̂ jk = µ̂ j• K k=1 und Y ••k = = = 1 I J ∑ ∑ Yi jk I × J i=1 j=1 1 J ∑Ii=1 Yi jk I j=1 = 1 J 1 J J ∑ J ∑ Y • jk j=1 J ∑ µ̂ jk = µ̂•k j=1 1.37 Mehrfaktorielle Varianzanalyse bei ungleichen Zellenbesetzungen im allgemeinen linearen Modell (7 / S. 260) Wir verweisen hier auf Kutner, Nachtsheim, Neter und Li (2005, S. 953 – 964). Kapitel 1 Ableitungen 39 1.38 Verteilung der Quadratsummen in der zweifaktoriellen Varianzanalyse (7 / S. 263) SST /σ 2 folgt einer χ 2 -Verteilung mit IJK − 1 Freiheitsgraden, da gilt: 2 2 2 ∑Ii=1 ∑Jj=1 ∑Kk=1 (Y i jk −Y ••• ) ∑Ii=1 ∑Jj=1 ∑Kk=1 (Y i jk − µ) (Y ••• − µ) = + σ2 σ2 σ 2 /IJK SSA /σ 2 folgt einer χ 2 -Verteilung mit J − 1 Freiheitsgraden, da gilt: J IK ∑ Y • j• − µ 2 j=1 J = IK ∑ Y • j• −Y ••• j=1 2 J = IK ∑ Y • j• −Y ••• +Y ••• − µ 2 j=1 J + IK ∑ Y ••• − µ 2 j=1 J = IK ∑ Y • j• −Y ••• 2 J + 2IK ∑ (Y • j• −Y ••• ) Y ••• − µ j=1 + IJK Y ••• − µ 2 j=1 Der Kreuzterm fällt weg, weil die Summe der Abweichungen der Gruppenmittelwerte vom Gesamtmittelwert 0 ist. Nun wird der erste Term auf der rechten Seite der Gleichung durch SSA ersetzt. J IK ∑ Y • j• −Y ••• 2 + IJK Y ••• − µ 2 = SSA + IJK Y ••• − µ 2 j=1 Anschließend werden beide Seiten der Gleichung durch σ 2 geteilt. IK ∑Jj=1 Y • j• − µ σ2 2 SSA IJK Y ••• − µ = 2 + σ σ2 2 2 Y ••• − µ ∑Jj=1 Y • j• − µ SSA = 2 + σ 2 /IK σ σ 2 /IJK 2 √ Da alle Y • j• unter der Nullhypothese i.i.d. N(µ, σ / IK) verteilt sind, entspricht die linke Seite der Gleichung einer χ 2 -Verteilung mit J Freiheitsgraden. Der zweite Term auf der rechten Seite der Gleichung folgt einer χ 2 -Verteilung. Aus der Additivität der χ 2 -Verteilung folgt, dass SSA /σ 2 χ 2 -verteilt ist mit J − 1 Freiheitsgraden. 40 Kapitel 1 Analog lässt sich zeigen, dass SSB einer χ 2 -Verteilung mit K − 1 Freiheitsgraden folgt. SSAB /σ 2 folgt einer χ 2 -Verteilung mit (I − 1)(J − 1) Freiheitsgraden, da gilt: J K I∑ ∑ Y • jk − µ 2 J K K 2 Y + â − â + β̂ − β̂ +Y −Y − µ ∑ • jk j j k k ••• ••• j=1 k=1 j=1 k=1 =I∑ J =I ∑ 2 ∑ (Y • jk +2Y • jk â j −2Y • jk â j +2Y • jk β̂k −2Y • jk β̂k +2Y jkY ••• −2Y • jkY ••• −2Y • jk µ j=1 k=1 +2â2j − 2â2j + 4â j β̂k − 4â j β̂k + 4â jY ••• − 4â jY ••• − 2â j µ +2â j µ + 2β̂k2 + 4β̂kY ••• − 4β̂kY ••• − 2β̂k µ − 2β̂k2 2 2 +2β̂k µ + 2Y ••• − 2Y ••• − 2Y ••• µ + 2Y ••• µ + µ 2 ) J = I∑ K 2 ∑ ((Y • jk − 2Y • jk â j − 2Y • jk β̂k − 2Y • jkY ••• +â2j + β̂k2 j=1 k=1 2 2 +Y ••• ) + â2j + β̂k2 + Y ••• − 2Y ••• µ + µ 2 + (2Y • jk â j 2 −2â2j + 2Y • jk β̂k − 2β̂k2 + 2Y • jkY ••• − 2Y ••• − 2Y • jk µ + 2Y ••• µ)) Der Term in der letzten Klammer auf der rechten Seite der Gleichung ist 0, denn: J K I∑ ∑ (2Y • jk β̂k − 2β̂k2 ) = 0 j=1 k=1 J I∑ K J 2 ∑ (2Y • jkY ••• − 2Y ••• ) = 2Y ••• I ∑ J ∑ (Y • jk −Y ••• ) = 2Y ••• I · 0 = 0 j=1 k=1 j=1 k=1 I∑ K K J K ∑ (−2Y • jk µ + 2Y ••• µ) = − 2µI ∑ ∑ j=1 k=1 j=1 k=1 Der Rest der obigen Gleichung ergibt sich zu: Y • jk −Y ••• = −2µI · 0 = 0 Kapitel 1 Ableitungen J K 41 2 ∑ ((Y • jk − 2Y • jk â j − 2Y • jk β̂k − 2Y • jkY ••• +â2j + β̂k2 I∑ j=1 k=1 2 2 +Y ••• ) + â2j + β̂k2 + (Y ••• − 2Y ••• µ + µ 2 )) J =I∑ K 2 2 Y • jk − â j − β̂k −Y ••• + â2j + β̂k2 + Y ••• − µ ) ∑( j=1 k=1 J =I∑ K ∑ ( Y • jk −Y • j • −Y • • k +Y ••• 2 2 + â2j + β̂k2 + Y ••• − µ ) j=1 k=1 J =I∑ K 2 ∑ (SSAB + SSA + SSB + IJK(Y ••• − µ) ) j=1 k=1 Nun werden beide Seiten der Gleichung durch σ 2 geteilt: ∑Jj=1 ∑Kk=1 Y • jk − µ σ 2 /I 2 2 = SSAB SSA SSB (Y ••• − µ) + 2 + 2 + σ2 σ σ σ 2 /IJK SSW /σ 2 folgt einer χ 2 -Verteilung mit JxKx(I − 1) Freiheitsgraden, da gilt: Ausgehend von der Quadratsummenzerlegung (s. a. nächsten Abschnitt dieses Internetsupplements) SST = SSA + SSB + SSAB + SSW teilt man beide Seiten der Gleichung durch σ 2 : SSA SSB SSAB SSW SST = 2 + 2 + 2 + 2 2 σ σ σ σ σ Es wurde gezeigt, dass SSA /σ 2 , SSB /σ 2 und SSAB /σ 2 jeweils χ 2 -verteilt sind mit J − 1, K − 1 und (J − 1) × (K − 1) Freiheitsgraden. Aus der Additivität der χ 2 -Verteilung und der Unabhängigkeit der Terme auf der rechten Seite der Gleichung folgt daher, dass SSW /σ 2 χ 2 -verteilt ist mit J × K × (I − 1) Freiheitsgraden (vgl. hierzu auch Khuri, 2009, S. 132 ff. oder Scheffé, 1959, S. 106ff.). 42 Kapitel 1 1.39 Varianzanteile in der zweifaktoriellen Varianzanalyse (7 / S. 265) J SSBG = I ∑ K 2 ∑ (Y • jk −Y ••• ) j=1 k=1 J K 2 ∑ (Y • jk + â j − â j + β̂k − β̂k −Y ••• ) =I∑ j=1 k=1 J K =I∑ 2 ∑ (â j + β̂k + (Y • jk − â j − β̂k −Y ••• )) j=1 k=1 J =I∑ K 2 ∑ (â j + β̂k + (Y • jk −Y • j• −Y ••k +Y ••• )) j=1 k=1 J K =I∑ 2 c) ) ∑ (â j + β̂k + (aβ jk j=1 k=1 J =I∑ K 2 2 2 c c c) ) ( â + β̂ + aβ + 2 â β̂ + 2 â aβ + 2β̂k (aβ j j k ∑ j k jk jk j=1 k=1 J jk K 2 2 2 c ) ( â + β̂ + ∑ j k aβ =I∑ jk j=1 k=1 Denn: J (1) K I∑ J j=1 k=1 J (2) J j=1 j=1 k=1 K I∑ J K J c c 2 â aβ = 2I â aβ =2I ∑ j ∑ j∑ ∑ â j · 0 = 0 jk j=1 k=1 J K ∑ 2â j β̂k = 2I ∑ â j ∑ β̂k =2I ∑ â j · 0 = 0 j=1 jk k=1 j=1 K (3) I ∑ K J K c c 2 β̂ aβ = 2I β̂ aβ =2I ∑ k ∑ k∑ ∑ β̂k · 0 = 0 jk j=1 k=1 k=1 jk j=1 k=1 Weiterhin ergibt sich: J K J SSBG = IK ∑ â2j + IJ ∑ β̂k2 + I ∑ j=1 k=1 K 2 c ∑ aβ j=1 k=1 SSBG = SSA + SSB + SSAB jk Kapitel 1 Ableitungen 43 1.40 Einzelvergleiche in der Varianzanalyse mit Messwiederholung (8 / S. 286) Die Einzelvergleiche in der Varianzanalyse mit Messwiederholung verlaufen analog zu den Einzelvergleichen in der Varianzanalyse ohne Messwiederholung, wie in Holling und Gediga (Bd 3, S. 237 ff.) dargestellt. Eine ausführlichere Darstellung dieser Thematik findet sich z. B. in Keppel und Wickens (2004, S. 408 ff.). 1.41 Test für zufällige Personeneffekte in der einfaktoriellen Varianzanalyse mit Messwiederholung (8 / S. 288) Warum lassen sich mit dem Ausdruck FBS = zufällige Personeneffekt testen? SSBS /(I−1) SSE /((I−1)(J−1)) sowohl feste als auch In der Varianzanalyse ist ein F-Bruch das Verhältnis aus zwei Variablen, die dieselbe Populationsvarianz schätzen. Der adäquate F-Bruch, um einen spezifischen Effekt zu testen folgt daher einer bestimmten Form: Im Nenner steht ein Term, welcher die Fehlervarianz schätzt. Im Zähler steht ein Term, welcher die Fehlervarianz schätzt und zusätzlich diejenige Varianz, die auf den zu testenden Effekt zurückgeht, falls dieser existiert. Da unter der Nullhypothese angenommen wird, dass es keinen Effekt gibt, schätzen Zähler und Nenner unter der Nullhypothese dieselbe Varianz. Die folgende Tabelle zeigt, welche Varianzen in der einfaktoriellen Varianzanalyse mit Messwiederholung nach Kirk (1995) durch die mittleren Abweichungsquadrate geschätzt werden. Mittlere Abweichungsquadrate MSBG MSBS MSE Feste Personeneffekte σe2 + I ∑Jj=1 a2j /(J − 1) σe2 + J ∑Ii=1 p2j /(I − 1) σe2 Zufällige Personeneffekte σe2 + I ∑Jj=1 a2j /(J − 1) σe2 + σπ2 σe2 Daraus wird ersichtlich, dass MSBS einmal einen Ausdruck für die Effekte der Personen, die von ausschließlichem Interesse sind (feste Personeneffekte), und einmal einen Ausdruck für die Varianz aller Personen in einer Population von Interesse schätzt (zufällige Personeneffekte). In beiden Fällen aber, wird auch die Fehlervarianz σe2 geschätzt. Somit sind in beiden Fällen die Anforderungen an einen adäquaten F-Bruch erfüllt: Unter der Nullhypothese 44 Kapitel 1 H0 : πi = 0 für alle i = 1, . . . , I schätzt MSBS die Fehlervarianz σe2 und ebenso unter der Nullhypothese H0 : sπ = 0. Vgl. hierzu Kirk (1995, S. 201 – 202, S. 259 – 261) 1.42 Feste vs. zufällige Effekte in der Varianzanalyse (8 / S. 288); (8 / S. 289) Der zentrale Unterschied zwischen festen und zufälligen Effekten in der Varianzanalyse betrifft die Festlegung, ob man feste Ausprägungen der Faktoren oder die Stufen der Faktoren zufällig aus einer Verteilung zieht. In diesem Fall ist eine Verteiungsannahme für den Faktor erforderlich. Bei festen Effekten interessieren gewöhnlich nur die Faktorstufen, die in das Experiment aufgenommen werden. Hat z. B eine Firma eine feste Anzahl möglicher Designs für die Verpackung eines neuen Produkts entworfen, dürfte sie daran interessiert sein, ob diese Designs zu unterschiedlichem Kaufverhalten bei den Kunden führen. Diese Fragestellung korrespondiert mit der Hypothesenstellung der einfaktoriellen Varianzanalyse mit festen TreatmentEffekten: H0 : α j = 0 für alle j = 1, . . . , J gegen H1 : α j 6= 0 für mindestens ein j Wird die Nullhypothese abgelehnt, kann die Firma annehmen, dass es Unterschiede im Kaufverhalten gibt, die sich auf das unterschiedliche Produktdesign zurückführen lassen. Oder genauer: Mindestens zwei der Subpopulationsmittelwerte µ j unterscheiden sich. Aussagen über andere Produktdesigns als diejenigen, die in die Untersuchung einbezogen wurden, können aber nicht gemacht werden. Schließlich kommen in der Hypothese auch nur die interessierenden Produktdesigns vor. Bei zufälligen Effekten verhält sich dies anders. Angenommen, dieselbe Firma befände sich an einer früheren Stufe der Produktforschung. Von Interesse sei nun nicht, ob es Unterschiede zwischen bestimmten Designs gibt, sondern ob es sich überhaupt lohnt, über verschiedene Designs nachzudenken. Das heißt, ob es für die Population möglicher Designs Unterschiede im Kaufverhalten gibt. Zur Beantwortung dieser Fragestellung wird für die Treatment-Effekte eine Wahrscheinlichkeitserteilung angenommen, im Allgmeinen, dass die Treatment-Effekte Kapitel 1 Ableitungen 45 i.i.d. normalverteilt, d. h. N(0, σα ). Wenn verschiedene Produktdesigns zu unterschiedlichem Kaufverhalten führen, gilt offenbar σα ) > 0. Die Hypothesen für die einfaktorielle Varianzanalyse mit zufälligen Effekten lassen sich somit formulieren als: H0 : σα = 0 gegen H1 : σα > 0 Durch die Modellannahme, wonach die einzelnen Effekte zufällig aus einer normalverteilten Population möglicher Effekte gezogen werden, ändert sich die grundsätzliche Fragestellung bzw. der Fokus der statistischen Inferenz. Wenn die Nullhypothese abgelehnt wird, kann nun auf die hypothetische Population unendlich vieler möglicher Produktdesigns geschlossen werden: Die möglichen Effekte α j unterscheiden sich mehr oder weniger stark. Das Ausmaß der Unterschiede lässt sich anhand der Varianz σα beurteilen. Wie bei dem Personeneffekt in der einfaktoriellen Varianzanalyse mit Messwiederholung werden die Nullhypothese bei Modell mit festen wie beim Modell mit zufälligen Effekten mit demselben F-Bruch getestet (Kirk, 1995): F= MSBG MSW Daher wird auch bei dem Personeneffekt in der einfaktoriellen Varianzanalyse mit Messwiederholung die Nullhypothese beim Modell mit festen wie beim Modell mit zufälligen Effekten mit demselben F-Bruch getestet: F= MSBG MSW Im Allgemeinen lässt sich festhalten, dass eine Modellierung mit festen Effekten dann angemessen ist, wenn die verwendeten Faktorstufen die einzigen Faktorstufen von Interesse sind. Dann bezieht sich die statistische Inferenz auf die Unterschiedlichkeit genau dieser Faktorstufen. Wenn aber auch andere Faktorstufen von Interesse sind und die Annahme adäquat ist, dass die Faktorstufen zufällig aus einer größeren Population möglicher Faktorstufen mit einer bestimmteen Verteilung ausgewählt 46 Kapitel 1 wurden, ist ein Modell mit zufälligen Effekten adäquat. Dann richtet sich die statistische Inferenz auf die Varianz aller möglichen Stufen eines Faktors, wobei aber nur eine zufällige Auswahl in die Studie einbezogen wurde. In mehrfaktoriellen Studien können alle Faktoren oder Teilmengen der Faktoren zufällig sein. Dann sind die F-Brüche im Allgemeinen nicht identisch mit denen aus mehrfaktoriellen Studien mit lediglich festen Faktoren. Für solche komplexeren Analysen verweisen wir auf die einschlägige Literatur, wei z. B. Kirk (1995). 1.43 Der Tukey-Test auf Linearität (8 / S. 289) Wie bereits ausgeführt wurde, lässt sich die Interaktion in der einfaktoriellen Varianzanalyse nicht unabhängig vom Fehler schätzen. Allerdings konnte Tukey (1949) zeigen, dass sich aus dem Ausdruck für die Personen-Treatment-Interaktion ein Term für die Nicht-Additivität mit einem Freiheitsgrad extrahieren lässt. Dieser lässt sich dann mit einem F-Test auf Signifikanz testen. Die Quadratsumme berechnet sich wie folgt (vgl. Kirk, 1995): 2 SSNicht−Additivit ät (∑Ii=1 ∑Jj=1 (Y • i −Y •• )(Y • j −Y •• )Yi j ) = (SSBG )(SSBS ) Der adäquate Fehlerterm ist nach Tukey (1949) SSAP −SSNicht−Additivit ät = SSRest , wobei I SSAP = J 2 ∑ ∑ (Yi j −Y i• −Y • j +Y •• ) i=1 j=1 SSRest besitzt (I − 1) (J − 1) − 1 Freiheitsgrade. Der F-Bruch für den Test auf Linearität ist somit gegeben durch: F= SSNicht−Additivit ät SSRest /((I − 1) (J − 1) − 1) Kapitel 1 Ableitungen 47 Er folgt einer F(1, (I − 1) (J − 1) − 1)-Verteilung. Der kritische Wert zum Signifikanzniveau α ist gegeben durch Fa (1, (I − 1) (J − 1) − 1). Um einen Fehler zweiter Art zu vermeiden ist dabei zu empfehlen, die Wahrscheinlichkeit für einen Fehler erster Art auf a = .10 oder höher zu setzen (Kirk, 1995). Fällt der Test nicht signifikant aus, kann davon ausgegangen werden, dass die Modellgleichung ohne Interaktionseffekt adäquat ist. Andernfalls kann in Erwägung gezogen werden, die vorliegenden Daten so zu transformieren, dass Linearität gegeben ist (Tukey, 1949; Kirk, 1995). 1.44 Zur Sphärizitätsannahme (8 / S. 292) Wie bereits ausgeführt wurde, ist die Sphärizitätsannahme der einfaktoriellen Varianzanalyse mit Messwiederholung erfüllt, wenn die Varianzen der Differenzen aller möglichen Paare von Faktorstufen auf Populationsebene gleich sind. Das bedeutet (Winer, Brown & Michels, 1991) σY2j −Y j0 = 2λ für alle j und j0 , wobei j 6= j0 und λ eine beliebige Konstante. Erfüllt eine Kovarianzmatrix ∑x diese Bedingung, ist sie zirkulär. Aber weshalb spricht man dann von Sphärizität? Um dies nachzuvollziehen, muss die obige Bedingung etwas anders notiert werden: 0 M∗ ∑ M∗ = λ I x Hierbei handelt es sich um eine orthonormale Transformation der Kovarianzmatrix ∑x . Im Folgenden soll auf die einzelnen Komponenten dieser Gleichung etwas genauer eingegangen werden. M ∗ bezeichnet eine orthonormale Matrix, welche die Omnibusnullhypothese repräsentiert. Eine Matrix heißt orthonormal, wenn ihre Zeilenvektoren orthogonal zueinander stehen und jeweils eine Norm von 1 haben. Es wurde bereits früher erwähnt, dass die Omnibusnullhypothese bei J Faktorstufen in J − 1 orthogonale Kontraste zerlegt werden kann. So lässt sich die Hypothese µ1 = µ2 = µ3 für J = 3 in zwei orthogonale Kontraste zerlegen, wie z.B.: 1µ1 − 1µ2 + 0µ3 = 0 und 48 Kapitel 1 1µ1 + 1µ2 − 2µ3 = 0. Die beiden Kontraste sind orthogonal, denn 1 · 1 − 1 · 1 − 0 · 2 = 0. In Matrixschreibweise lässt sich dafür auch schreiben: µ1 1µ1 − 1µ2 + 0µ3 0 1 −1 0 = × µ2 = 1µ1 + 1µ2 − 2µ3 0 1 1 −2 µ3 Weiterhin von Interesse ist hier die Matrix 1 −1 0 C= . 1 1 −2 Es wurde gezeigt, dass diese Matrix orthogonal ist. Werden nun die einzelnen Zeilen normalisiert, ergibt sich eine orthonormale Matrix, in der alle Zeilen unabhängig sind und die Länge 1 besitzen : c01 = 1 −1 0 √ 0 1 1 c1 = ∑ c01 j 2 2 = (1 + 1) 2 = 2 1 0 h c∗1 0 = c0 c1 = 1 √1 2 −1 √ 2 0 i Nach entsprechender Berechnung für c02 kommt man zu: " 1 −1 # √ √ 0 M ∗ = √12 √12 √ −2 6 6 6 Die hier vorgestellte orthonormale Matrix ist nur eine mögliche von unendlich vielen möglichen Matrizen. So würden etwa die folgenden Kontraste ebenfalls zu einer Matrix mit den oben beschriebenen Eigenschaften führen: 1 0 −1 C2 = 1 −2 1 Durch welche beiden Kontraste die Nullhypothese spezifiziert wird, ist letztlich irrelevant. Jede dieser Spezifikationen führt nachher zum selben Ergebnis. Ebenso, wie für den hier vorgestellten Fall von J = 3 Faktorstufen, lässt sich eine Matrix M ∗ für jede beliebige Anzahl von J > 1 Faktorstufen bilden. Die übrigen Terme der Gleichung brauchen weniger Erklärung. ∑x ist eine zirkuläre Kovarianzmatrix. M ∗ 0 ist die Transponierte von M ∗ und die Konstante λ = Kapitel 1 Ableitungen 49 σY2j −Y j0 /2. Der Ausdruck I bezeichnet eine Identitätsmatrix. Eine Matrix der Form λ I heißt im Englischen spherical (Winer, Brown & Michels, 1991). Aus dem bisher Gesagten ergibt sich, dass ∑ = M∗ ∑ M∗0 = λ I y x eine sphärische Matrix ist, wenn ∑x zirkulär ist. Daher spricht man von der Sphärizitätsannahme. Der Grund dafür, eine zirkuläre Matrix in eine sphärische umzuwandeln, liegt in der Möglichkeit, die Sphärizität auf Populationsebene zu testen (vgl. die Ausführungen zum Mauchly-Test im Internetsupplement). Für das additive Modell der einfaktoriellen Varianzanalyse mit Messwiederholung lässt sich zeigen, dass die Sphärizitätsannahme immer erfüllt ist (vgl. Kirk, 1995, S. 272 f.). Wie im Buch auf Seite 286 beschrieben wird, ist das additive Modell gegeben durch: Yi j = µ + α j + πi + εi j Zunächst soll gezeigt werden, dass für die Varianz innerhalb jeder Faktorstufe α j gilt: σY2j = σπ2 + σε2 Dies ist auch intuitiv nachvollziehbar, wenn man sich noch einmal vor Augen führt, dass µ und α j Konstanten für jede Beobachtung innerhalb der Faktorstufe α j sind. Die beiden Ausdrücke πi und εi j werden jeweils als i.i.d. normalverteilt angenommen mit πi ∼ N(0, σπ2 ) und εi j ∼ N(0, σε2 ). Die gesamte Varianz in Yi j kann daher nur auf πi und εi j zurückgehen. Da der Beobachtungsfehler als von dem Personeneffekt unabhängig angenommen wird, können die entsprechenden Varianzen zu einer Gesamtvarianz addiert werden. Formal kann auf die Definition der Varianz von Zufallsvariablen (Holling & Gediga, 2013, S. 99) zurückgegriffen werden: Var (Y ) = E[Y − E (Y )]2 = E Y 2 − [E(Y )]2 Setzt man in die rechte Seite der Gleichung für Y die Modellgleichung ein, ergibt sich (Kirk, 1995): σY2j = E(µ + α j + πi + εi j )2 − [E (µ + α j + πi + εi j )]2 = µ 2 + α 2j + πi2 + εi2j + 2µα j − (µ 2 + α 2j + 2µα j ) Bei dem linken Term fallen die Kreuzprodukte weg, in die πi und εi j eingehen, weil beide einen Erwartungswert von 0 haben. Aus demselben Grund fallen πi und εi j im rechten Term weg. Löst man die Gleichung weiter auf, kommt man zu: σY2j = µ 2 + α 2j + πi2 + εi2j + 2µα j − (µ 2 + α 2j + 2µα j ) 50 Kapitel 1 = σπ2 + σε2 Weiterhin lässt sich zeigen, dass für die Kovarianz aller möglichen Paare von Faktorstufen α j und α j0 mit j 6= j0 gilt: σY jY j0 = σπ2 Dies folgt aus der Definition für die Kovarianz zweier Zufallsvariablen (Holling & Gediga, S. 116): Cov (X,Y ) = E [(X − E (X)) (Y − E (Y ))] = E (XY ) − E (X) E(Y ) Um die Kovarianz σY jY j0 zu erhalten, ersetzt man X auf der rechten Seite der Gleichung durch µ + α j + πi + εi j und Y durch µ + α j0 + πi + εi j0 (Kirk, 1995, S. 273): σY jY j0 = E (µ + α j + πi + εi j ) µ + α j0 + πi + εi j0 −E (µ + α j + πi + εi j ) E(µ + α j0 + πi + εi j0 ) = µ 2 + α j α j0 + σπ2 + µα j + µα j0 − µ 2 + α j α j0 + µα j + µα j0 Bei dem ersten Term fallen alle Produkte (außer σπ2 ) weg, die πi , εi j oder εi j0 enthalten, da E (πi ) = 0, E (εi j ) = 0 und E εi j0 = 0. Aus demselben Grund fallen πi , εi j und εi j0 auch bei dem zweiten Term weg. Löst man die Gleichung weiter auf, kommt man zu: σY jY j0 = µ 2 + α j α j0 + σπ2 + µα j + µα j0 − µ 2 + α j α j0 + µα j + µα j0 σY jY j0 = σπ2 Bisher konnte gezeigt werden, dass für das additive Modell der einfaktoriellen Varianzanalyse mit Messwiederholung für alle Varianzen der Faktorstufen σY2j = σπ2 + σε2 gilt und für die Kovarianzen aller möglichen Paare von Faktorstufen σY jY j0 = σπ2 . In diesem Modell besitzen die Faktorstufen also stets eine bestimmte Kovarianzmatrix: 2 . . . σπ2 σπ + σε2 σπ2 . . . σπ2 σπ2 σπ2 + σε2 .. .. .. ∑= .. . . . . x σπ2 σπ2 ... σπ2 + σε2 Man erkennt leicht, dass diese Kovarianzmatrix die Eigenschaft der Compound-Symmetry (vgl. Holling & Gediga, 2016, S. 292 f.) besitzt. Somit ist auch die Sphärizitätsannahme für das additive Modell der einfaktoriellen Varianzanalyse mit Messwiederholung immer erfüllt. Vgl. hierzu Kirk (1995, S. 274 – 279) und Winer, Brown und Michels (1991, S. 240 – 255). Kapitel 1 Ableitungen 51 1.45 Der Mauchly-Test (8 / S. 293) Mauchly (1940) hat einen Test entwickelt, mit dem eine Kovarianzmatrix SX auf Sphärizität getestet werden kann. Die Teststatistik lautet (Winer, Brown & Michels, 1991): ∗ M SX M ∗ 0 W= [tr (M ∗ SX M ∗ 0 )/J − 1]J−1 Dabei bezeichnet M ∗ eine orthonormale Matrix, durch die die∗ Omnibusnullhypothese 0 ∗ ∗ ausgedrückt wird, und tr M SX M die Spur der Matrix M SX M ∗ 0 . Es gilt: 0≤W ≤1 Ist die Matrix SX zirkulär und M ∗ SX M ∗ 0 somit sphärisch, nimmt W den Wert 1 an. Bei maximaler Abweichung der Matrix SX von Zirkularität ist W = 0. Die Hypothesen lassen sich formulieren als: H0 : σY2j −Y j0 = σY2j −Y j00 für alle j 6= j0 6= j00 H1 : σY2j −Y j0 6= σY2j −Y j00 für mindestens ein j 6= j0 6= j00 Durch diese Notation wird deutlich, dass der Test nur für J ≥ 3 Faktorstufen sinnvoll anzuwenden ist. Bei zwei Faktorstufen ist die Gleichheit der Varianzen der Differenzen immer gegeben (vgl. Holling & Gediga, 2016, S. 292). H0 wird abgelehnt, wenn die Teststatistik W den kritischen Wert von W1−α (J − 1, n) unterschreitet. Für die exakte Verteilung von W1−α (J − 1, n) liegen die Werte in tabellierter Form vor. Außerdem wird die Statistik standardmäßig von der Funktion ezANOVA im Programmpaket R ausgegeben. Im Folgenden soll die Berechnung der Teststatistik an einem Beispiel verdeutlicht werden. Gegeben sei die Kovarianzmatrix: 10 4 6 SX = 4 12 3 5 5 8 Die Matrix M ∗ sei gegeben durch: " M∗ = √1 2 √1 6 −1 √ 2 √1 6 0 −2 √ 6 # 52 Kapitel 1 0 Zunächst soll daraus die Matrix Sy = M ∗ SX M ∗ berechnet werden: " ∗ ∗0 Sy = M SX M = √1 2 √1 6 −1 √ 2 √1 6 1 # 10 4 6 √ 2 0 −1 √ 4 12 3 · · 2 −2 √ 6 5 5 8 0 √1 6 √1 6 −2 √ 6 = 7 −2.3 −0.6 4 Somit gilt: 7 −2.3 = 7 · 4 − (−2.3) · (−0.6) = 26.62 |Sy | = −0.6 4 Und: tr (Sy ) = tr Daher: W= 7 −2.3 −0.6 4 |Sy | J−1 [tr (Sy )/J − 1] = 26.62 [11/2]2 = 11 = 0.88 Angenommen, der Kovarianzmatrix SX lägen Beobachtungen aus einem Experiment mit einem 1 x 3 within subjects design zugrunde. Die Stichprobengröße für dieses Experiment sei n = 11. Der kritische Wert für die Teststatistik W beträgt dann W.95 (2, 11) = .514 (Winer, Brown & Michels, 1991). Da W > W.95 (2, 11) kann die Alternativhypothese nicht bestätigt werden. An der Sphärizitätsannahme kann im vorliegenden Fall somit festgehalten werden. In diesem Beispiel ist die Sphärizitätsannahme selbst dann haltbar, wenn man das Signifikanzniveau α = .25 wählt. Der Test erhält dadurch eine deutlich größere Power, wie auch an dem kritischen Wert W.75 (2, 11) = .735 (Winer, Brown & Michels 1991) zu erkennen ist. 1.46 Zur Greenhouse-Geisser-Korrektur (8 / S. 293) Diese Formel wird in Maxwell und Delaney (2004, S. 543) erläutert. 1.47 Dreifachinteraktion (παβ )i jk in der zweifaktoriellen Varianzanalyse mit Messwiederholung (8 / S. 297) Wie bereits im Zusammenhang mit zufälligen Personeneffekten in der einfaktoriellen Varianzanalyse ausgeführt worden ist, ist ein F-Bruch in der Varianzanalyse adäquat, wenn er folgende Form besitzt: Der Term im Nenner schätzt eine Fehlervarianz. Der Term im Zähler schätzt dieselbe Fehlervarianz und zusätzlich diejenige Varianz, welche auf den zu testenden Effekt zurückgeht. Kapitel 1 Ableitungen 53 Auf dieser Grundlage soll nun gezeigt werden, dass die in Holling und Gediga (2016, S. 302) aufgeführten Fehlerterme auch dann adäquat sind, wenn man das Modell mit Dreifachinteraktion (παβ )i jk zugrunde legt. Die Modellgleichung für die Beobachtungen Yi jk lautet dann: Yi jk = µ + α j + βk + πi + (αβ ) jk + (πα)i j + (πβ )ik + (παβ )i jk + εi jk wobei α j , βk und (αβ ) jk feste Effekte darstellen und πi , (πα)i j , (πβ )ik und (παβ )i jk zufällige Effekte. Die folgende Tabelle zeigt die Erwartungswerte der Mittleren Abweichungsquadrate bei festen Treatment-Effekten und zufälligen Personeneffekten jeweils für die Modelle mit und ohne Dreifachinteraktion (παβ )i jk (vgl. Kirk, 1995, S. 462). Mittlere Abweichungsquadrate MS MSA MSB MSAπ MSBπ MSAB MSE MSABπ Erwartungswert ohne (παβ )i jk σ 2ε + Kσ 2απ 2 IK ∑ α j /(J − 1) σ 2ε + Jσ 2β π E(MS) + + IJ ∑ β 2k /(K − 1) σ 2ε + Kσ 2απ σ 2ε + Jσ 2β π σ 2ε + 2 I ∑ ∑ (αβ ) jk /(J − 1) (K − 1) σ 2ε Erwartungswert E(MS) mit (παβ )i jk σ 2ε + Kσ 2απ 2 IK ∑ α j /(J − 1) σ 2ε + Jσ 2β π + + IJ ∑ β 2k /(K − 1) σ 2ε + Kσ 2απ σ 2ε + Jσ 2β π σ 2ε + σ 2παβ + 2 I ∑ ∑ (αβ ) jk /(J − 1) (K − 1) σ 2ε + σ 2παβ MSA MSB Aus der Tabelle wird ersichtlich, dass die F-Brüche F = MS , F = MS und F = Bπ Aπ MSAB MSE unter Annahme beider Modelle für die Testung der Effekte von A, B und der Interaktion AB adäquat sind. Beispielsweise gilt für die Testung des Interaktionseffektes im Modell ohne Dreifachinteraktion: 2 2 E(MSAB ) σε + I ∑ ∑ (αβ ) jk /(J − 1) (K − 1) = E(MSE ) σε2 Und in dem Modell mit Dreifachinteraktion gilt: 2 2 2 E(MSAB ) σε + σπαβ + I ∑ ∑ (αβ ) jk /(J − 1) (K − 1) = 2 E(MSE ) σε2 + σπαβ Der Term im Nenner schätzt also jeweils eine Fehlervarianz, während der Term im Zähler dieselbe Fehlervarianz und zusätzlich die Varianz, welche auf den zu testenden Effekt zurückgeht, schätzt. Etwas anders ausgedrückt, gilt für beide F-Brüche, dass Zähler und Nenner unter der Nullhypothese 54 Kapitel 1 H0 : (αβ ) jk = 0 für alle j, k jeweils dieselbe Fehlervarianz schätzen (s. a. Kirk, 1995, S. 461 – 464). 1.48 Notwendige Kovarianzstruktur in der zweifaktoriellen Varianzanalyse mit Messwiederholung (8 / S. 299) Eine ausführliche Darstellung der Annahmen der zweifaktoriellen Varianzanalyse mit Messwiederholung einschließlich der Kovarianzstruktur findet sich in Kutner, Nachtsheim, Neter und Li (2004, S. 1154 f.). 1.49 Testverteilung der Effekte in der zweifaktoriellen Varianzanalyse mit Messwiederholung (8 / S. 304) Diese Formel wird in Maxwell und Delaney (2004, S. 543) erläutert. 1.50 Zu den Voraussetzungen der Varianzanalyse mit Messwiederholung (8 / S. 307) Diese Theamtik wird in Maxwell und Delaney (2004, S. 573ff) erläutert. 1.51 Interaktion bei nur einer Beobachtung pro Zelle und Fehlervarianz im Split-Plot-Design (8 / S. 309) Diese Thematik wird in Maxwell und Delaney (2004, S. 594) dargestellt. 1.52 Notwendige Kovarianzstruktur im Split-Plot-Design (8 / S. 310) Eine ausführliche Darstellung der Annahmen der zweifaktoriellen Varianzanalyse mit einem Between- und einem Within-Faktor einschließlich der Kovarianzstruktur findet sich in Kutner, Nachtsheim, Neter und Li (2004, S. 1141 f.). Kapitel 1 Ableitungen 55 1.53 Berechnung der Freiheitsgrade für die Fehlerquadratsummen im Split-Plot-Design (8 / S. 313) I J Die Fehlerquadratsumme SSwG = K ∑ ∑ π̂i(2 j) besitzt J(I − 1) Freiheitsgrade, da i=1 j=1 dieser Term aus J(I − 1) unabhängigen Effekten (Abweichungsquadraten) besteht. Für jede der J Stufen des Faktors A gibt es I Effekte πbi( j) . Dabei gilt für jedes j: ∑i=1 I πbi( j) = 0. Somit gibt es I − 1 unabhängige Effekte für jede Stufe j, also insgesamt J(I − 1). Die Fehlerquadratsumme I J SSB:wG = ∑ ∑ K ∑ ε̂i2jk i=1 j=1 k=1 besitzt J(K − 1)(I − 1) Freiheitsgrade, da sie aus J(K − 1)(I − 1) unabhängigen Effekten (Fehlertermen) besteht. Für jede der J Stufen des Faktors A gibt es I · K Effekte ε̂i jk . Dabei gilt für jede Kombination von j und k: ∑i=1 I ε̂i jk = 0 sowie für jede Kombination von j und i: ∑k=1 K ε̂i jk = 0. Somit liegen (I −1)(K −1) unabhängige Effekte für jede Stufe j vor, also insgesamt J(I − 1)(K − 1). 1.54 Fehlerterme im Split-Plot-Design (8 / S. 314) Im Folgenden soll gezeigt werden, dass der Fehlerterm Yi jk − µ + α j + βk + πi( j) + (αβ ) jk im Split-Plot Design der Summe (πβ )ik( j) + εi jk entspricht, falls eine Interaktion (πβ )ik( j) vorliegt. Die entsprechende Modellgleichung lautet dann: Yi jk = µ + α j + βk + πi( j) + (αβ ) jk + (πβ )ik( j) + εi jk Substituiert man nun Yi jk im Fehlerterm durch diese Modellgleichung ergibt sich: Yi jk − µ + α j + βk + πi( j) + (αβ ) jk = µ + α j + βk + πi( j) + (αβ ) jk + (πβ )ik( j) + εi jk − µ + α j + βk + πi( j) + (αβ ) jk = (πβ )ik( j) + εi jk 56 Kapitel 1 1.55 Der Box-Test (8 / S. 316) Der Box-Test ist eine Verallgemeinerung des Bartlett-Tests für die Homogenität von Varianzen. Er wird in Kirk (1995, S. 500 ff.) dargestellt. 1.56 Zu den Voraussetzungen der Varianzanalyse mit einem Betweenund einem Within-Subjects-Faktor (8 / S. 316) Die Voraussetzungen der Varianzanalyse mit einem Between- und einem WithinSubjects-Faktor werden in Kirk (1995, S. 500 ff.) dargestellt. 1.57 Lineare Abhängigkeit und lineare Unabhängigkeit (9 / S. 328) Eine Menge von Vektoren a1 , a2 , . . . , an ist linear abhängig, wenn Konstanten c1 , c2 , . . . , cn , von denen wenigstens eine Konstante ungleich Null ist, existieren, sodass gilt: c1 a1 + c2 a2 + · · · + cn an = 0 Existieren keine Konstanten c1 , c2 , . . . , cn , die die obige Gleichung erfüllen können, heißt die Menge von Vektoren linear unabhängig. Im Falle linearer Abhängigkeit kann wenigstens einer der Vektoren ai als Linearkombination der anderen Vektoren dieser Menge bestimmt werden. Lineare Abhängigkeit impliziert also redundante Information der Vektoren. Ist lineare Unabhängigkeit innerhalb einer Menge von Vektoren gegeben, ist kein Vektor innerhalb dieser Menge überflüssig. 1.58 Varianz von β̂0 (9 / S. 329) Wie bereits oben bei der White-Korrektur im linearen Modell ausgeführt, gilt Var(β̂ ) = σ 2 (X 0 X)−1 σ 2 wird durch das mittlere Fehlerquadrat MSE geschätzt. Damit resultiert als geschätzte Kovarianzmatrix für die Regressionskoeffizienten: \ Var(β̂ ) = MSE · (X 0 X)−1 \ Das erste Element der Hauptdiagonalen dieser Matrix gibt Var(β̂0 ) wieder. Kapitel 1 Ableitungen 57 1.59 Erwartungswerte und χ 2 -Verteilungen in der mehrfaktoriellen Varianzanalyse (9 / S. 331) Für die Beweise zu E(MSE = σ 2 , E(MSR = σ 2 , 1) verweisen wir auf Khuri (2009, S. 132 ff.). MSE σ2 ∼ χ 2 (k) und MSR σ2 ∼ χ 2 (n − k − 1.60 Matrizenschreibweise zur Beschreibung von linearen Hypothesen (9 / S. 334) In Matrixschreibweise lässt sich die lineare Hypothese für r Parameterrestriktionen und p Prädiktoren wie folgt darstellen: H0 : Cβ = d bzw. Cβ − d = 0 H1 : Cβ 6= d bzw. Cβ − d 6= 0, mit • C: r × (p + 1)-Matrix • β : p + 1-Vektor mit den Regressionsgewichten β0 , . . . , β p • d: r-dimensionaler Vektor mit hypothetischen Werten für die Linearkombination der Einflussparameter (oft wird für d der Nullvektor gewählt) • 0: r-dimensionaler Nullvektor Ausführlicher dargestellt sieht die lineare Hypothese (hier nur für die Nullhypothese) in Matrixform folgendermaßen aus: c10 .. H0 : . cr0 β0 · · · c1p d1 0 .. β1 − .. = .. . . . . .. · · · crp dr 0 βp 58 Kapitel 1 1.61 F -Test beim Vergleich linearer Modelle (9 / S. 335) Für die Fehlerquadratsummen als Zufallsvariablen (ohne Änderung der Notation) gilt: SSE = (y − Xβ̂ )0 (y − Xβ̂ ) = ε̂ 0 ε̂ Daraus folgt (vgl. Holling & Gediga, 2013): SSE ∼ χ 2 (n − Anzahl geschätzter Parameter) σ2 Für das unrestringierte Modell, das wir unter H1 annehmen, gilt: SSE ∼ χ 2 (n − p − 1) σ2 Für das restringierte Modell mit r Restriktionen, das wir unter H0 annehmen und bei dem wir SSE mit SSE (R) bezeichnen, gilt: SSE (R) ∼ χ 2 (n − p − 1 + r) σ2 Weiterhin folgt: SSE (R) − SSE SSM = ∼ χ 2 (r) σ2 σ2 SSE ∼ χ 2 (n − p − 1) σ2 Daraus resultiert der folgende F-Test: SSM /σ 2 r SSE /σ 2 (n−p−1) = SSM /r ∼ F(r, n − p − 1) SSE /(n − p − 1) 1.62 Regressionskoeffizienten und Kodiervariablen (9 / S. 337), (9, S. 341) Zellenmittelwert-Kodierung • Modell: Yi = β1 x1 + . . . + βi xi + . . . + βk xk + εi • Erwartungswert: µi = E(Yi ) = β1 x1 + . . . + βi xi + . . . + βk xk Kapitel 1 Ableitungen • Regressionskoeffizienten bei der Zellenmittelwert-Kodierung µ1 = E(Y |x1 = 1, x2 = 0, . . . , xk = 0) = β1 µ2 = E(Y |x1 = 0, x2 = 1, . . . , xk = 0) = β2 .. . . = .. µk = E(Y |x1 = 0, x2 = 0, . . . , xk = 1) = βk Dummy-Kodierung • Modell: Yi = β0 + β1 x1 + . . . + βi xi + . . . + βk−1 xk−1 + εi • Erwartungswert: µi = E(Yi ) = β0 + β1 x1 + . . . + βi xi + . . . + βk−1 xk−1 • Regressionskoeffizienten bei der Dummy-Kodierung – Gruppe k als Referenzgruppe µk = E(Y |x1 = 0, x2 = 0, . . . , xk−1 = 0) = β0 µ1 = E(Y |x1 = 1, x2 = 0, . . . , xk−1 = 0) = β0 + β1 .. . . = .. µk−1 = E(Y |x1 = 0, x2 = 0, . . . , xk−1 = 1) = β0 + βk−1 ⇒ βi = µi − µk 1 ≤ i ≤ k−1 Effekt-Kodierung • Modell: Yi = β0 + β1 x1 + . . . + βi xi + . . . + βk−1 xk−1 + εi • Erwartungswert: µi = E(Yi ) = β0 + β1 x1 + . . . + βi xi + . . . + βk−1 xk−1 • Regressionskoeffizienten bei der Effekt-Kodierung – Gruppe k ohne Regressionskoeffizient µk = E(Y |x1 = −1, x2 = −1, . . . , xk−1 = −1) = β0 − (β1 + . . . + βk−1 ) µ1 = E(Y |x1 = 1, x2 = 0, . . . , xk−1 = 0) = β0 + β1 .. .. .=. µk−1 = E(Y |x1 = 0, x2 = 0, . . . , xk−1 = 1) = β0 + βk−1 ⇒ µ1 + . . . + µk = kβ0 + (β1 − β1 ) + . . . + (βk−1 − βk−1 ) ⇒ β0 = µ1 +...+µk k 59 60 Kapitel 1 1.63 R2 bei der Regression ohne Interzept und Bezug zu η 2 (9 / S. 346) Für eine Regression mit Interzept werden die vorhergesagten Werte Ybi anhand der Regressionsgleichung Ybi = βb0 + βb1 X1 + ... + βbk Xk bestimmt. Dann gilt: R2 = ∑(Ybi −Y )2 ∑(Yi −Y )2 bzw. R2 = 1 − ∑(Yi − Ybi )2 ∑(Yi −Y )2 Für eine Regression ohne Interzept werden die vorhergesagten Werte Ybi anhand der Regressionsgleichung Ybi = βb1 X1 + ... + βbk Xk bestimmt. Dann wird das R2 folgendermaßen bestimmt: R2 = R2 = 1 − ∑ Ybi2 ∑ Yi2 ∑(Yi − Ybi )2 ∑ Yi2 Wie ersichtlich sind die beiden Versionen des R2 unterschiedlich definiert und ergeben in der Regel unterschiedliche Werte. Dabei fällt das R2 für eine Regression ohne Interzept zumeist höher aus. η 2 stimmt mit der Version des R2 für eine Regression mit Interzept überein und damit im Allgemeinen nicht mit der Version des R2 für eine Regression ohne Interzept. (Weitere Ausführungen zu den beiden Versionen des R2 finden sich in dem Internetsupplement zu Holling und Gediga (2011).) Kapitel 1 Ableitungen 61 1.64 Kodierungen für das Split-Plot-Design im linearen Modell (9 / S. 347) Effektkodierung der Varianzanalyse mit einem Between-Subjects-Faktor (Instruktion) und einem Within-Subjects-Faktor (Dauer): X0 : Interzept, X1 : Instruktion; X2 , X3 : Dauer; X4 , X5 : Instruktion · Dauer X6 ,...,X9 : Person mit der Instruktion = memorize X10 ,...,X13 : Person mit der Instruktion = imagine ID 1 2 1 3 4 5 1 2 m 2 3 4 5 1 2 3 3 4 5 6 7 1 min 8 9 10 6 7 i 2 min 8 9 10 6 7 3 min 8 9 10 A B AV X0 5 1 5 1 8 1 8 1 9 1 11 1 9 1 11 1 10 1 14 1 11 1 10 1 11 1 15 1 13 1 8 1 7 1 10 1 8 1 12 1 11 1 12 1 14 1 12 1 16 1 19 1 18 1 19 1 22 1 22 1 X1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 X2 1 1 1 1 1 0 0 0 0 0 −1 −1 −1 −1 −1 1 1 1 1 1 0 0 0 0 0 −1 −1 −1 −1 −1 X3 0 0 0 0 0 1 1 1 1 1 −1 −1 −1 −1 −1 0 0 0 0 0 1 1 1 1 1 −1 −1 −1 −1 −1 X4 1 1 1 1 1 0 0 0 0 0 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 0 0 0 0 0 1 1 1 1 1 X5 0 0 0 0 0 1 1 1 1 1 −1 −1 −1 −1 −1 0 0 0 0 0 −1 −1 −1 −1 −1 1 1 1 1 1 X6 1 0 0 0 −1 1 0 0 0 −1 1 0 0 0 −1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 X7 0 1 0 0 −1 0 1 0 0 −1 0 1 0 0 −1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 X8 0 0 1 0 −1 0 0 1 0 −1 0 0 1 0 −1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 X9 0 0 0 1 −1 0 0 0 1 −1 0 0 0 1 −1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 X10 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 −1 1 0 0 0 −1 1 0 0 0 −1 X11 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1 0 0 −1 0 1 0 0 −1 0 1 0 0 −1 X12 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1 0 −1 0 0 1 0 −1 0 0 1 0 −1 X13 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1 −1 0 0 0 1 −1 0 0 0 1 −1 62 Kapitel 1 Effektkodierung der Varianzanalyse mit zwei Within-Subjects-Faktoren. X0 : Interzept X1 : Instruktion X2 , X3 : Dauer X4 , X5 : Instruktion · Dauer X6 , ..., X9 : Person X10 , ..., X13 : Instruktion · Person X14 , ..., X21 : Dauer · Person A B 1 m 2 3 1 i 2 3 ID 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 AV 5 5 8 8 9 11 9 11 10 14 11 10 11 15 13 8 7 10 8 12 11 12 14 12 16 19 18 19 22 22 X0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 X1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 X2 1 1 1 1 1 0 0 0 0 0 −1 −1 −1 −1 −1 1 1 1 1 1 0 0 0 0 0 −1 −1 −1 −1 −1 X3 0 0 0 0 0 1 1 1 1 1 −1 −1 −1 −1 −1 0 0 0 0 0 1 1 1 1 1 −1 −1 −1 −1 −1 X4 1 1 1 1 1 0 0 0 0 0 −1 −1 −1 −1 −1 −1 −1 −1 −1 −1 0 0 0 0 0 1 1 1 1 1 X5 0 0 0 0 0 1 1 1 1 1 −1 −1 −1 −1 −1 0 0 0 0 0 −1 −1 −1 −1 −1 1 1 1 1 1 X6 1 0 0 0 −1 1 0 0 0 −1 1 0 0 0 −1 1 0 0 0 −1 1 0 0 0 −1 1 0 0 0 −1 X7 0 1 0 0 −1 0 1 0 0 −1 0 1 0 0 −1 0 1 0 0 −1 0 1 0 0 −1 0 1 0 0 −1 X8 0 0 1 0 −1 0 0 1 0 −1 0 0 1 0 −1 0 0 1 0 −1 0 0 1 0 −1 0 0 1 0 −1 X9 0 0 0 1 −1 0 0 0 1 −1 0 0 0 1 −1 0 0 0 1 −1 0 0 0 1 −1 0 0 0 1 −1 X10 1 0 0 0 −1 1 0 0 0 −1 1 0 0 0 −1 −1 0 0 0 1 −1 0 0 0 1 −1 0 0 0 1 X11 0 1 1 0 −1 0 1 0 0 −1 0 1 0 0 −1 0 −1 0 0 1 0 −1 0 0 1 0 −1 0 0 1 X12 0 0 0 0 −1 0 0 1 0 −1 0 0 1 0 −1 0 0 −1 0 1 0 0 −1 0 1 0 0 −1 0 1 X13 0 0 0 1 −1 0 0 0 1 −1 0 0 0 1 −1 0 0 0 −1 1 0 0 0 −1 1 0 0 0 −1 1 X14 1 0 0 0 −1 0 0 0 0 0 −1 0 0 0 1 1 0 0 0 −1 0 0 0 0 0 −1 0 0 0 1 X15 0 1 0 0 −1 0 0 0 0 0 0 −1 0 0 1 0 1 0 0 −1 0 0 0 0 0 0 −1 0 0 1 X16 0 0 1 0 −1 0 0 0 0 0 0 0 −1 0 1 0 0 1 0 −1 0 0 0 0 0 0 0 −1 0 1 X17 0 0 0 1 −1 0 0 0 0 0 0 0 0 −1 1 0 0 0 1 −1 0 0 0 0 0 0 0 0 −1 1 X18 0 0 0 0 0 1 0 0 0 −1 −1 0 0 0 1 0 0 0 0 0 1 0 0 0 −1 −1 0 0 0 1 X19 0 0 0 0 0 0 1 0 0 −1 0 −1 0 0 1 0 0 0 0 0 0 1 0 0 −1 0 −1 0 0 1 X20 0 0 0 0 0 0 0 1 0 −1 0 0 −1 0 1 0 0 0 0 0 0 0 1 0 −1 0 0 −1 0 1 X21 0 0 0 0 0 0 0 0 1 −1 0 0 0 −1 1 0 0 0 0 0 0 0 0 1 −1 0 0 0 −1 1 Kapitel 1 Ableitungen 63 1.65 Quadratsummen der kodierten Variablen einer zweifaktoriellen Varianzanalyse (9 / S. 350) Die Variablenmengen {X1 }, {X2 , X3 } und {X4 , X5 } sind jeweils wechselseitig voneinander unabhängig. Daher sind die ihnen entsprechenden erklärten Quadratsummen, hier mit SSX1 , SSX2 ,X3 bzw. SSX4 ,X5 bezeichnet, im vollen Modell sowie in den reduzierten Modellen, soweit sie dort auftreten, identisch. Ebenso sind die Regressionskoeffizienten dieser Variablen im vollen sowie in den reduzierten Modellen identisch (vgl. Holling & Gediga, 2011). Betrachten wir hier stellvertretend für die Differenz der Fehlerquadratsumme eines reduzierten Modells und der Fehlerquadratsumme des vollen Modells die Differenz der Fehlerquadratsumme des reduzierten Modells Mr (A) und der Fehlerquadratsumme des vollen Modells. Die Differenz dieser beiden Fehlerquadratsummen entspricht der erklärten Quadratsumme SSA aus der zweifaktoriellen Varianzanalyse und der erklärten Quadratsumme SSX1 , da die entsprechenden Terme α j und β1 X1 identisch sind und somit die vorhergesagten Werte und entsprechenden erklärten Quadratsummen für das varianz- und regressionsanalytische Modell. Dass die Differenzen zwischen den Fehlerquadratsummen der anderen reduzierten Modelle und der Fehlerquadratsumme des vollen Modells mit den entsprechenden erklärten Quadratsummen übereinstimmen, kann in analoger Weise gezeigt werden. Im Fall ungleicher Zellenbesetzungen der zweifaktoriellen Varianzanalysen sind die Variablenmengen {X1 }, {X2 , X3 } und {X4 , X5 } jeweils nicht wechselseitig voneinander unabhängig. Hierzu verweisen wir auf den folgenden Abschnitt zu den weiteren Typen der Variationszerlegung. 1.66 Weitere Typen der Variationszerlegung (9 / S. 350) In mehrfaktoriellen Between-Subjects-Designs ergibt sich ein Problem, wenn das Design nicht orthogonal ist, d.h. die Zellen nicht gleich besetzt sind und die Zellenbesetzungen nicht proportional ausfallen. In diesem Fall lassen sich unterschiedliche Schätzungen für den Einfluss der Effekte angeben. Die – in der Psychologie – übliche Vorgehensweise ist die Nutzung der Typ-IIIZerlegung. Hier wird die inkrementelle aufgeklärte Variation pro Faktor genutzt. Hiermit bekommt man eine untere Grenze für den Einfluss der Faktoren und damit einen konservativen Test für die Effekte. Die Variation, die durch die Abhängigkeiten erklärt wird, taucht in keiner der inkrementellen Effektschätzungen auf. Das hat zur Konsequenz, dass die Summe der Abweichungsquadrate der Effekte in der Regel kleiner ist als durch das Modelle aufgeklärte Variation. Es „fehlt“ also aufgeklärte Variation. (Liegen sogenannte Suppressorvariablen vor, kann jedoch auch der umgekehrte Fall auftreten (vgl. Holling, 1983).) 64 Kapitel 1 Eine einfache Vorgehensweise das Problem zu beheben, bieten Typ-I-Zerlegungen bzw. sequentielle Zerlegungen. Hier müssen die Effekte in der Reihenfolge ihrer Wichtigkeit vorgegeben werden. Die jeweils in der Wichtigkeit nachrangigen Effekte werden inkrementell zu den vorhergehenden Effekten bestimmt. Auf diese Weise wird die Gesamtvariation voll ausgeschöpft und die konfundierende Variation jeweils dem wichtigsten Effekt zugeschlagen. Das Problem liegt hier darin, dass eine Rangreihenfolge der Wichtigkeit der Effekte nicht immer angegeben werden kann. Gewissermaßen ein Kompromiss zwischen Typ I- und Typ III-Zerlegungen sind TypII-Zerlegungen bzw. teilweise sequentielle Zerlegungen: Hier werden zunächst die Haupteffekte durch ihre jeweilige inkrementelle Variation (bzgl. der jeweils anderen Haupteffekte) bestimmt. Danach werden die Effekte aller Zweifachinteraktionen unter Auspartialisierung aller Haupteffekte und der jeweils anderen Zweifachinteraktionen bestimmt. Wenn vorhanden werden dann die Dreifach-, Vierfach-, etc. Interaktionen nach dem gleichen Muster behandelt. Die Wichtigkeit wird hier also durch den Grad des Effekts festgelegt. Haupteffekte werden wichtiger als ZweifachInteraktionen erachtet, diese wiederum wichtiger als Dreifach-Interaktionen, etc. Auf diese Weise werden konfundierende Effekte (soweit möglich) einem Effekt mit möglichst geringer Komplexität zugewiesen. Weiterhin wurden noch Zerlegungen von Typ 4, 5 oder 6 entwickelt, die allerdings für sehr spezielle Fälle gelten und daher hier nicht weiter vorgestellt werden. 1.67 Effekt der Kovariaten auf das Ergebnis der Kovarianzanalyse (9 / S. 358) Die Auswirkungen der Kovariaten sollten unabhängig von der Variation der Faktoren bzw. Interaktionen sein. Ist dies nicht der Fall, wird ein „empirischer Kompromiss“ für die b-Gewichte der Kovariaten gebildet. Dies bedeutet, dass die geschätzten Einflüsse in den Residualwerten der Kovariaten durch die Faktoren auch abhängig von der Interaktion aller Faktoren mit den Kovariaten sind. Es können so signifikante Effekte „entstehen“ oder auch „verschwinden“. Offensichtlich sind die Ergebnisse in diesem Fall kaum noch vernünftig zu interpretieren. Allerdings bietet das ALM genügend Möglichkeiten diese Situation zu überprüfen, da Interaktionen der Kovariaten mit Faktoren (oder deren Interaktion) durch die Aufnahme zusätzliche Variablen modelliert und überprüft werden können. Die zusätzlichen Variablen entstehen durch Multiplikation der Kovariaten mit den Kodiervariablen. Diese Methode hat allerdings den Nachteil, dass nicht-lineare Zusammenhänge zwischen Kovariaten und Faktoren nicht kontrolliert werden. Kapitel 1 Ableitungen 65 Will man auch noch nichtlineare Zusammenhänge kontrollieren, ist es am Einfachsten, die Kovariablen als zusätzliche Faktoren zu rekodieren und die Interaktion dieser zusätzlichen Faktoren mit den eigentlich zu untersuchenden Faktoren zu testen. Dieses Vorgehen ist allerdings nur nutzbar, wenn es sich um einige wenige Kovariate handelt. Insgesamt sollte die Anzahl der Kovariaten nicht zu groß sein. Als Daumenregel gilt: n maxAnz = − AnzZellen 10 Untersucht man also einen 3 × 3-Versuchplan an n = 3 × 3 × 15 = 135 Personen, so ist die maximale Zahl von Kovariaten durch maxAnz = 135 − 3 × 3 = 13.5 − 9 = 4.5 10 begrenzt. Man sollte also in dieser Situation auf keinen Fall mehr als 4 Kovariaten einsetzen. 1.68 Tests zur Überprüfung von Abhängigkeiten in der linearen Regression (9 / S. 360) Wir gehen hier auf Abhängigkeiten zwischen den Beobachtungen ein, die aufgrund zeitlicher Einflüsse zustandekommen. Werden mehrere Daten pro Beobachtungseinheit über einen gewissen Zeitbereich erhoben, kann man die Messwerte anhand gemäß ihres zeitlichen Auftretens ordnen. Dann erhalten wir für die abhängige Variable Y die Messwerte y1 , ..., yn , die zeitlich sortiert sind. Kann man nun die jeweils nachfolgenden Messwerte yi+1 durch vorhergehende Messwerte y1 , ..., yi vorhersagen, liegen sogenannte Autokorrelationen zwischen den Werten der abhängigen Variablen vor. Diese Varianzquelle führt zu einer Verletzung der Voraussetzungen des allgemeinen linearen Modells, der Unabhängigkeit der Residuen und kann damit die inferenzstatistischen Ergebnisse bedeutend verzerren. Es gibt verschiedene Tests zur Überprüfung von Autokorrelationen, als Beispiel sei hier der Durbin-Watson-Test (Durbin & Watson, 1951)angeführt. Hier wird anhand der Residuen e1 , ..., en die Teststatistik DW = ∑ni=2 (ei − ei−1 )2 ∑ni=1 e2i berechnet. Man kann zeigen, dass die geschätzte Autokorrelation ρ̂1 linear mit der Teststatistik DW zusammenhängt: ρ̂1 = 1 − DW 4 . Kritische Werte für die Statistik DW findet man in folgender Internetressource: http://web.stanford.edu/ clint/bench/dwcrit.htm 66 Kapitel 1 Weitere Tests zur Überprüfung solcher Abhängigkeiten liefern Modelle zur Zeitreihenanalyse. Für die Besprechung solcher Modelle sei hier z. B. auf Lütkepohl (2005) verwiesen. 1.69 White-Korrektur (9 / S. 361) Wir verweisen hier auf die Asuführungen zur White-Korrektur (6, S. 175) 1.70 Transformationen zur Stabilisierung und Normalisierung (9 / S. 361) Sollte eine Verteilung nicht wie gefordert normal sein, kann man zu alternativen Testverfahren greifen oder auch zu Datentransformationen, die die Daten „normalisieren“. Es gibt dazu eine Vielzahl von Möglichkeiten, so z.B. die Familie der BoxCox-Transformationen (Box & Cox, 1964). Bei den häufig auftretenden positiv schiefen Daten kommen folgende Datentransformationen in Frage (Tabachnick & Fidell, 2007): √ • Eine Wurzeltransformation t(y) = y, wenn die Daten eine moderate positive Schiefe aufweisen. • Eine Logarithmustransformation t(y) = log(y), wenn die Daten eine starke positive Schiefe aufweisen. • Die inverse Transformation t(y) = 1/y, wenn die Daten eine extreme posiitve Schiefe aufweisen. Bei Reaktionszeitdaten wird zuweilen die Logarithmustransformation genutzt. Bei diesen nichtlinearen Transformationen ist allerdings zu bedenken, dass die Ergebnisse von Datenanalysen basierend auf den transformierten Werten oftmals schwieriger zu interpretieren sind. So entspricht z. B. der Mittelwert einer logarithmierten Variablen dem Logarithmus des geometrischen Mittelwerts und nicht dem üblichen arithmetischen Mittelwert. 1.71 Der Breusch-Pagan-Test (9 / S. 362) Der Breusch-Pagan-Test (Breusch & Pagan, 1979) beruht auf einer ähnlichen Idee wie der Levene-Test. Hat man für eine multiple Regression der Form Ŷ = b0 +b1 X1 + ... + bk Xk die Koeffizienten b0 , ..., bk berechnet, lässt sich das Residuum ε̂i = Yi − Ŷi Kapitel 1 Ableitungen 67 berechnen. Nimmt man nun W = ε̂ 2 als neue abhängige Variable, kann der Einfluss der Variablen X1 , ..., Xk auf den Fehler durch die lineare Regression Ŵ = c0 + c1 X1 + ... + ck Xk bestimmt werden. Ist diese lineare Regression nicht signifikant, kann davon ausgegangen werden, dass der lineare Einfluss der Variablen X1 , ..., Xk auf den Fehler nicht substantiell ist und man hat einen Hinweise darauf, dass keine Heteroskedastizität vorliegt. Nach White (1980) kann man die Idee des Breusch-Pagan-Tests dahingehend ausbauen, dass man auch Interaktionen erster Ordnung der Variablen berücksichtigt. Dies wäre ein Modell der Form Ŵ = c0 +c1 X1 +...+ck Xk +d1 X12 +...+dk Xk2 +d12 X1 X2 +d13 X1 X3 +...d(k−1),k Xk−1 Xk . Andere Erweiterungen des Tests sind denkbar (z.B. auch die Hinzunahme weiterer Variablen und deren Interaktionen mit den Modellvariablen), werden aber in der Literatur nicht weiter systematisch diskutiert. Für die Signifikanztestung kann der F-Test der multiplen Regression genutzt werden. In der (ökonometrischen) Literatur zu diesen Testverfahren findet sich meist ein χ 2 Test. Dieser Test ist asymptotisch äquivalent zum F-Test und für große Stichproben (n > 300) deshalb nutzbar. 1.72 Literatur Bera, A. K. & Jarque, C. M. (1981). Efficient tests for normality, homoskedasticity and serial independence of regression residuals: Monte Carlo evidence. Economics Letters, 7, 313–318. Boos, D. D. & Hughes-Oliver, J. M. (2000). ’How Large Does n Have to Be for Z and t Intervals?’ The American Statistician, 54, 121–128. Box, G. E. P. & Cox, D. r. (1964). An analysis of transformations. Journal of the Royal Statistical Society Series B, 26, 211–252. Breusch, T. S. & Pagan, A. R. (1979). A Simple Test for Heteroskedasticity and Random Coefficient Variation. Econometrica, 47, 1287–1294. Cabilio P. & Masaro J (1996). A simple test of symmetry about an unknown median. Canadian Journal of Statistics, 24, 349–361. Dette, H. & Timothy E O’Brien (2004). Efficient Experimental Design for the BehrensFisher Problem With Application to Bioassay. The American Statistician, 58, 138 –143. 68 Kapitel 1 Durbin, J. & Watson, G.S. (1951). Testing for serial correlation in least-squares regression II. Biometrika, 38, 159–178. Fligner, M. A., & Policello, G. E. (1981). Robust rank procedures for the BehrensFisher problem. Journal of the American Statistical Association, 76(373), 162– 168. Ford, I., & Silvey, S. D. (1980). A sequentially constructed design for estimating a nonlinear parametric function. Biometrika, 67(2), 381–388. Gel, Y. R. & Gastwirth, J. L. (2008). A robust modification of the Jarque-Bera test of normality. Economics Letters, 99, 30–32. Haberman, S. J. (1978). Analysis of qualitative data. Volume 1. New York: Academic Press. Hayes, A. F. & Cai, L. (2007). Using heteroscedasticity-consistent standard error estimators in OLS regression: An introduction and software implementation. Behavior Research Methods, 39, 709–722. Holling, H. (1983). Suppressor structures in the general linear model. Educational and Psychological Measurement, 43, 1-9. Holling, H. & Gediga, G. (2011). Statistik – Deskriptive Statistik. Göttingen: Hogrefe. Holling, H. & Gediga, G. (2013). Statistik – Wahrscheinlichkeitstheorie und Schätzverfahren. Göttingen: Hogrefe. Holling, H. & Gediga, G. (2016). Statistik – Testverfahren. Göttingen: Hogrefe. Jarque, C. M. & Bera, A. K. (1980). Efficient tests for normality, homoskedasticity and serial independence of regression residuals. Economics Letters, 6, 255– 259. Keppel, G. & Wickens, T. D. (2004). Design and Analysis: A Researcher’s Handbook (4th ed.). Pearson Education. Khuri, A.I. (2009). Linear model methodology. Chapman & Hall/CRC, London. Kirk, R. E. (1995). Experimental design: Procedures for the behavioral sciences (3rd ed.). Pacific Grove, CA: Brooks/Cole. Korkmaz, S., Goksuluk, D. & Zararsiz, G. (2016). MVN: An R Package for Assessing Multivariate Normality. https://cran.r-project.org/web/packages/MVN /vignettes/MVN.pdf Kutner, M.H., Nachtsheim, C.J., Neter, J. & Li, W. (2005). Applied Linear Statistical Models (5th ed.). New York: McGraw-Hill. Kapitel 1 Ableitungen 69 Long, J.S & Ervin, L.H. (2000). Using Heteroscedasticity Consistent Standard Errors in the Linear Regression Model. The American Statistician, 54, 217–224. Lütkepohl, H. (2005). New Introduction to Multiple Time Series Analysis. Berlin: Springer. MacKinnon, J.G. & White, H. (1985). Some heteroskedastic consistent covariance estimators with improved finite sample properties. Journal of Econometrics, 29, 53–57. Mauchly, J. W. (1940). Significance test for sphericity of a normal n-variate distribution. The Annals of Mathematical Statistics, 11(2), 204–209. Maxwell, S. E., & Delaney, H. D. (2004). Designing experiments and analyzing data: A model comparison perspective (2nd ed.). Psychology Press. Miao W., Gel Y.R. & Gastwirth J.L. (2006). A new test of symmetry about an unknown median. In: A. Hsiung, C.-H. Zhang & Z.Ying (ed.). Random Walk, Sequential Analysis and Related Topics. A Festschrift in Honor of Yuan-Shih Chow. Singapore: World Scientific, 199–214. Sahai, H., & Ageel, M. I. (2000). The analysis of variance: fixed, random and mixed models. New York: Springer Science & Business Media. Scheffé, H. (1959). The Analysis of Variance. New York: Wiley. Shao, J. (2003). Mathematical Statistics (2nd ed.). New York: Springer. Sillito, G. P. (1947). The distribution of Kendall’s τ coefficient or rank correlation in rankings containing ties. Biometrika, 34, 36–40. Silvey, S. D. (1980). Optimal Design. London: Chapman & Hall. Tabachnick, B. G. & Fidell, L. S. (2007). Using multivariate statistics (6th ed.). Boston: Pearson/Allyn & Bacon. Tukey, J. W. (1949). Comparing individual means in the analysis of variance. Biometrics, 5(2), 99–114. White, H. (1980). A heteroskedastic-consistent covariance matrix and a direct test for heteroskedasticity. Econometrica, 48, 817–838. Wilcox, R. R. (2012). Introduction to robust estimation and hypothesis testing (3rd ed.). Academic Press. Winer, B.J., Brown, D.R. & Michels, K.M. (1991). Statistical principles in experimental design (3rd ed.). New York: McGraw-Hill. Kapitel 2 Tabellen 2.1 Normalverteilungstabelle Auf den nächsten beiden Seiten ist eine Tabelle der Standardnormalverteilung abgedruckt. In der Tabelle werden z-Werte dem Integral der Standardnormalverteilung Φ(z) zugeordnet. Inhaltlich ist das der Prozentsatz der Personen in der Population, die einen z-Wert aufweisen, der kleiner ist als der vorgebene z-Wert. Ablesebeispiel: p(Z < 1.07) = 0.85769 Negative z-Werte sind wegen der Symmetrie der Normalverteilung nicht dargestellt. Generell gilt wegen der Symmetrie: p(Z < z) = 1 − p(Z < −z) Ablesebeispiel: p(Z < −1.07) = 1 − 0.85769 = 0.14231 Die Tabelle kann mit R oder Excel oder auch OpenOffice leicht selbst erstellt werden. Die R-Funktion ist pnorm(z). So ergibt z. B. pnorm(-1.07) den Wert 0.14231. Die Funktion für die Berechung des Integrals der Normalverteilung ist in Excel und OpenOffice identisch. Sie lautet =NORMVERT(z-Wert;0;1;1). Der zweite Parameter (0) gibt den Mittelwert der Normalverteilung an. Der dritte Parameter (1) spezifiziert die Standardabweichung. Der vierte Parameter (1) bedeutet, dass von −∞ bis zum z-Wert summiert werden soll. Damit ergibt die Formel =NORMVERT(-1,07;0;1;1) in der Zelle wiederum den Wert 0.14231. z 0.00 0.10 0.20 0.30 0.40 0.50 0.60 0.70 0.80 0.90 1.00 1.10 1.20 1.30 1.40 1.50 1.60 1.70 1.80 1.90 2.00 2.10 0 0.50000 0.53983 0.57926 0.61791 0.65542 0.69146 0.72575 0.75804 0.78814 0.81594 0.84134 0.86433 0.88493 0.90320 0.91924 0.93319 0.94520 0.95543 0.96407 0.97128 0.97725 0.98214 1 0.50399 0.54380 0.58317 0.62172 0.65910 0.69497 0.72907 0.76115 0.79103 0.81859 0.84375 0.86650 0.88686 0.90490 0.92073 0.93448 0.94630 0.95637 0.96485 0.97193 0.97778 0.98257 2 0.50798 0.54776 0.58706 0.62552 0.66276 0.69847 0.73237 0.76424 0.79389 0.82121 0.84614 0.86864 0.88877 0.90658 0.92220 0.93574 0.94738 0.95728 0.96562 0.97257 0.97831 0.98300 3 0.51197 0.55172 0.59095 0.62930 0.66640 0.70194 0.73565 0.76730 0.79673 0.82381 0.84849 0.87076 0.89065 0.90824 0.92364 0.93699 0.94845 0.95818 0.96638 0.97320 0.97882 0.98341 4 0.51595 0.55567 0.59483 0.63307 0.67003 0.70540 0.73891 0.77035 0.79955 0.82639 0.85083 0.87286 0.89251 0.90988 0.92507 0.93822 0.94950 0.95907 0.96712 0.97381 0.97932 0.98382 5 0.51994 0.55962 0.59871 0.63683 0.67364 0.70884 0.74215 0.77337 0.80234 0.82894 0.85314 0.87493 0.89435 0.91149 0.92647 0.93943 0.95053 0.95994 0.96784 0.97441 0.97982 0.98422 6 0.52392 0.56356 0.60257 0.64058 0.67724 0.71226 0.74537 0.77637 0.80511 0.83147 0.85543 0.87698 0.89617 0.91309 0.92785 0.94062 0.95154 0.96080 0.96856 0.97500 0.98030 0.98461 7 0.52790 0.56749 0.60642 0.64431 0.68082 0.71566 0.74857 0.77935 0.80785 0.83398 0.85769 0.87900 0.89796 0.91466 0.92922 0.94179 0.95254 0.96164 0.96926 0.97558 0.98077 0.98500 8 0.53188 0.57142 0.61026 0.64803 0.68439 0.71904 0.75175 0.78230 0.81057 0.83646 0.85993 0.88100 0.89973 0.91621 0.93056 0.94295 0.95352 0.96246 0.96995 0.97615 0.98124 0.98537 9 0.53586 0.57535 0.61409 0.65173 0.68793 0.72240 0.75490 0.78524 0.81327 0.83891 0.86214 0.88298 0.90147 0.91774 0.93189 0.94408 0.95449 0.96327 0.97062 0.97670 0.98169 0.98574 Kapitel 2 Tabellen 71 z 2.20 2.30 2.40 2.50 2.60 2.70 2.80 2.90 3.00 3.10 3.20 3.30 3.40 3.50 3.60 3.70 3.80 3.90 4.00 4.10 4.20 4.30 0 0.98610 0.98928 0.99180 0.99379 0.99534 0.99653 0.99744 0.99813 0.99865 0.99903 0.99931 0.99952 0.99966 0.99977 0.99984 0.99989 0.99993 0.99995 0.99997 0.99998 0.99999 0.99999 1 0.98645 0.98956 0.99202 0.99396 0.99547 0.99664 0.99752 0.99819 0.99869 0.99906 0.99934 0.99953 0.99968 0.99978 0.99985 0.99990 0.99993 0.99995 0.99997 0.99998 0.99999 0.99999 2 0.98679 0.98983 0.99224 0.99413 0.99560 0.99674 0.99760 0.99825 0.99874 0.99910 0.99936 0.99955 0.99969 0.99978 0.99985 0.99990 0.99993 0.99996 0.99997 0.99998 0.99999 0.99999 3 0.98713 0.99010 0.99245 0.99430 0.99573 0.99683 0.99767 0.99831 0.99878 0.99913 0.99938 0.99957 0.99970 0.99979 0.99986 0.99990 0.99994 0.99996 0.99997 0.99998 0.99999 0.99999 4 0.98745 0.99036 0.99266 0.99446 0.99585 0.99693 0.99774 0.99836 0.99882 0.99916 0.99940 0.99958 0.99971 0.99980 0.99986 0.99991 0.99994 0.99996 0.99997 0.99998 0.99999 0.99999 5 0.98778 0.99061 0.99286 0.99461 0.99598 0.99702 0.99781 0.99841 0.99886 0.99918 0.99942 0.99960 0.99972 0.99981 0.99987 0.99991 0.99994 0.99996 0.99997 0.99998 0.99999 0.99999 6 0.98809 0.99086 0.99305 0.99477 0.99609 0.99711 0.99788 0.99846 0.99889 0.99921 0.99944 0.99961 0.99973 0.99981 0.99987 0.99992 0.99994 0.99996 0.99998 0.99998 0.99999 0.99999 7 0.98840 0.99111 0.99324 0.99492 0.99621 0.99720 0.99795 0.99851 0.99893 0.99924 0.99946 0.99962 0.99974 0.99982 0.99988 0.99992 0.99995 0.99996 0.99998 0.99998 0.99999 0.99999 8 0.98870 0.99134 0.99343 0.99506 0.99632 0.99728 0.99801 0.99856 0.99896 0.99926 0.99948 0.99964 0.99975 0.99983 0.99988 0.99992 0.99995 0.99997 0.99998 0.99999 0.99999 0.99999 9 0.98899 0.99158 0.99361 0.99520 0.99643 0.99736 0.99807 0.99861 0.99900 0.99929 0.99950 0.99965 0.99976 0.99983 0.99989 0.99992 0.99995 0.99997 0.99998 0.99999 0.99999 0.99999 72 Kapitel 2 Quantile der χ 2 -Verteilung 73 2.2 Quantile der χ 2 -Verteilung Auf den folgenden Seiten ist eine Tabelle der χ 2 -Verteilung dargestellt. In der Tabelle für wichtige Quanteile der Verteilung die zugehörigen χ 2 -Werte. Auf diese Weise lassen sich kritische Werte für die üblichen Irrtumswahrscheinlichkeiten leicht ablesen. 2 (14) = 26.119 Ablesebeispiel: χ.975 Die Tabelle endet bei 100 Freiheitsgraden. Sollten mehr als 100 Freiheitsgrade vorliegen, kann die Normalverteilungsapproximation mit µ = ν und σ 2 = 2ν genutzt werden. Die Tabelle kann mit R oder Excel oder auch OpenOffice leicht selbst erstellt werden. Die R-Funktion ist qchisq(p, Freiheitsgrade). So ergibt z. B. qchisq(.05, 22) den Wert 12.338. Die entsprechende Funktion ist in Excel und OpenOffice identisch. Sie lautet =CHIINV(1-p; df). Der erste Parameter (1 − p) gibt den Prozentwert an, der bei vielen Chi-Quadrattests als Irrtumswahrscheinlichkeit genutzt werden kann. Dies ist anders als in der RFunktion: Hier wird der gewünschte Wert der kumulierten Verteilung p angegeben, während hier der Wert 1 − p eingegeben werden muss. Der zweite Parameter (df) gibt die Freiheitsgrade an. Die Formel =CHIINV(,95;22) in einer Zelle ergibt deshalb den Wert 12.338. 74 Kapitel 2 Quantile der χ 2 -Verteilung ν 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 0.01 0.0002 0.0201 0.1148 0.2971 0.5543 0.8721 1.2390 1.6465 2.0879 2.5582 3.0535 3.5706 4.1069 4.6604 5.2294 5.8122 6.4077 7.0149 7.6327 8.2604 8.8972 9.5425 10.196 10.856 11.524 12.198 12.878 13.565 14.256 14.953 15.655 16.362 17.073 17.789 18.509 19.233 19.960 20.691 21.426 22.164 22.906 23.650 24.398 0.025 0.0010 0.0506 0.2158 0.4844 0.8312 1.2373 1.6899 2.1797 2.7004 3.2470 3.8157 4.4038 5.0087 5.6287 6.2621 6.9077 7.5642 8.2307 8.9065 9.5908 10.283 10.982 11.689 12.401 13.120 13.844 14.573 15.308 16.047 16.791 17.539 18.291 19.047 19.806 20.569 21.336 22.106 22.878 23.654 24.433 25.215 25.999 26.785 0.05 0.0039 0.1026 0.3518 0.7107 1.1455 1.6354 2.1673 2.7326 3.3251 3.9403 4.5748 5.2260 5.8919 6.5706 7.2609 7.9616 8.6718 9.3904 10.117 10.851 11.591 12.338 13.091 13.848 14.611 15.379 16.151 16.928 17.708 18.493 19.281 20.072 20.867 21.664 22.465 23.269 24.075 24.884 25.695 26.509 27.326 28.144 28.965 0.1 0.0158 0.2107 0.5844 1.0636 1.6103 2.2041 2.8331 3.4895 4.1682 4.8652 5.5778 6.3038 7.0415 7.7895 8.5468 9.3122 10.085 10.865 11.651 12.443 13.240 14.041 14.848 15.659 16.473 17.292 18.114 18.939 19.768 20.599 21.434 22.271 23.110 23.952 24.797 25.643 26.492 27.343 28.196 29.051 29.907 30.765 31.625 1−α 0.5 0.4549 1.3863 2.3660 3.3567 4.3515 5.3481 6.3458 7.3441 8.3428 9.3418 10.341 11.340 12.340 13.339 14.339 15.338 16.338 17.338 18.338 19.337 20.337 21.337 22.337 23.337 24.337 25.336 26.336 27.336 28.336 29.336 30.336 31.336 32.336 33.336 34.336 35.336 36.336 37.335 38.335 39.335 40.335 41.335 42.335 0.9 2.7055 4.6052 6.2514 7.7794 9.2363 10.645 12.017 13.362 14.684 15.987 17.275 18.549 19.812 21.064 22.307 23.542 24.769 25.989 27.204 28.412 29.615 30.813 32.007 33.196 34.382 35.563 36.741 37.916 39.087 40.256 41.422 42.585 43.745 44.903 46.059 47.212 48.363 49.513 50.660 51.805 52.949 54.090 55.230 0.95 3.8415 5.9915 7.8147 9.4877 11.070 12.592 14.067 15.507 16.919 18.307 19.675 21.026 22.362 23.685 24.996 26.296 27.587 28.869 30.144 31.410 32.671 33.924 35.172 36.415 37.652 38.885 40.113 41.337 42.557 43.773 44.985 46.194 47.400 48.602 49.802 50.998 52.192 53.384 54.572 55.758 56.942 58.124 59.304 0.975 5.0239 7.3778 9.3484 11.143 12.832 14.449 16.013 17.535 19.023 20.483 21.920 23.337 24.736 26.119 27.488 28.845 30.191 31.526 32.852 34.170 35.479 36.781 38.076 39.364 40.646 41.923 43.195 44.461 45.722 46.979 48.232 49.480 50.725 51.966 53.203 54.437 55.668 56.895 58.120 59.342 60.561 61.777 62.990 0.99 6.6349 9.2104 11.345 13.277 15.086 16.812 18.475 20.090 21.666 23.209 24.725 26.217 27.688 29.141 30.578 32.000 33.409 34.805 36.191 37.566 38.932 40.289 41.638 42.980 44.314 45.642 46.963 48.278 49.588 50.892 52.191 53.486 54.775 56.061 57.342 58.619 59.893 61.162 62.428 63.691 64.950 66.206 67.459 Quantile der χ 2 -Verteilung 75 Quantile der χ 2 -Verteilung (Fortsetzung) ν 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 0.01 25.148 25.901 26.657 27.416 28.177 28.941 29.707 30.475 31.246 32.019 32.793 33.571 34.350 35.131 35.914 36.698 37.485 38.273 39.063 39.855 40.649 41.444 42.240 43.038 43.838 44.639 45.442 46.246 47.051 47.858 48.666 49.475 50.286 51.097 51.910 52.725 53.540 54.357 55.174 55.993 56.813 57.634 58.456 0.025 27.575 28.366 29.160 29.956 30.754 31.555 32.357 33.162 33.968 34.776 35.586 36.398 37.212 38.027 38.844 39.662 40.482 41.303 42.126 42.950 43.776 44.603 45.431 46.261 47.092 47.924 48.758 49.592 50.428 51.265 52.103 52.942 53.782 54.623 55.466 56.309 57.153 57.998 58.845 59.692 60.540 61.389 62.239 0.05 29.787 30.612 31.439 32.268 33.098 33.930 34.764 35.600 36.437 37.276 38.116 38.958 39.801 40.646 41.492 42.339 43.188 44.038 44.889 45.741 46.595 47.450 48.305 49.162 50.020 50.879 51.739 52.600 53.462 54.325 55.189 56.054 56.920 57.786 58.654 59.522 60.391 61.262 62.132 63.004 63.876 64.749 65.623 0.1 32.487 33.350 34.215 35.081 35.949 36.818 37.689 38.560 39.433 40.308 41.183 42.060 42.937 43.816 44.696 45.577 46.459 47.342 48.226 49.111 49.996 50.883 51.770 52.659 53.548 54.438 55.329 56.221 57.113 58.006 58.900 59.795 60.690 61.586 62.483 63.380 64.278 65.176 66.076 66.976 67.876 68.777 69.679 1−α 0.5 43.335 44.335 45.335 46.335 47.335 48.335 49.335 50.335 51.335 52.335 53.335 54.335 55.335 56.335 57.335 58.335 59.335 60.335 61.335 62.335 63.335 64.335 65.335 66.335 67.335 68.334 69.334 70.334 71.334 72.334 73.334 74.334 75.334 76.334 77.334 78.334 79.334 80.334 81.334 82.334 83.334 84.334 85.334 0.9 56.369 57.505 58.641 59.774 60.907 62.038 63.167 64.295 65.422 66.548 67.673 68.796 69.919 71.040 72.160 73.279 74.397 75.514 76.630 77.745 78.860 79.973 81.085 82.197 83.308 84.418 85.527 86.635 87.743 88.850 89.956 91.061 92.166 93.270 94.374 95.476 96.578 97.680 98.780 99.880 100.98 102.08 103.18 0.95 60.481 61.656 62.830 64.001 65.171 66.339 67.505 68.669 69.832 70.993 72.153 73.311 74.468 75.624 76.778 77.930 79.082 80.232 81.381 82.529 83.675 84.821 85.965 87.108 88.250 89.391 90.531 91.670 92.808 93.945 95.081 96.217 97.351 98.484 99.617 100.75 101.88 103.01 104.14 105.27 106.39 107.52 108.65 0.975 64.201 65.410 66.616 67.821 69.023 70.222 71.420 72.616 73.810 75.002 76.192 77.380 78.567 79.752 80.936 82.117 83.298 84.476 85.654 86.830 88.004 89.177 90.349 91.519 92.688 93.856 95.023 96.189 97.353 98.516 99.678 100.84 102.00 103.16 104.32 105.47 106.63 107.78 108.94 110.09 111.24 112.39 113.54 0.99 68.710 69.957 71.201 72.443 73.683 74.919 76.154 77.386 78.616 79.843 81.069 82.292 83.514 84.733 85.950 87.166 88.379 89.591 90.802 92.010 93.217 94.422 95.626 96.828 98.028 99.227 100.43 101.62 102.82 104.01 105.20 106.39 107.58 108.77 109.96 111.14 112.33 113.51 114.69 115.88 117.06 118.24 119.41 76 Kapitel 2 Quantile der χ 2 -Verteilung (Fortsetzung) ν 87 88 89 90 91 92 93 94 95 96 97 98 99 100 0.01 59.279 60.103 60.928 61.754 62.581 63.409 64.238 65.068 65.898 66.730 67.562 68.396 69.230 70.065 0.025 63.089 63.941 64.793 65.647 66.501 67.356 68.211 69.068 69.925 70.783 71.642 72.501 73.361 74.222 0.05 66.498 67.373 68.249 69.126 70.003 70.882 71.760 72.640 73.520 74.401 75.282 76.164 77.046 77.929 0.1 70.581 71.484 72.387 73.291 74.196 75.100 76.006 76.912 77.818 78.725 79.633 80.541 81.449 82.358 1−α 0.5 86.334 87.334 88.334 89.334 90.334 91.334 92.334 93.334 94.334 95.334 96.334 97.334 98.334 99.334 0.9 104.28 105.37 106.47 107.57 108.66 109.76 110.85 111.94 113.04 114.13 115.22 116.32 117.41 118.50 0.95 109.77 110.90 112.02 113.15 114.27 115.39 116.51 117.63 118.75 119.87 120.99 122.11 123.23 124.34 0.975 114.69 115.84 116.99 118.14 119.28 120.43 121.57 122.72 123.86 125.00 126.14 127.28 128.42 129.56 0.99 120.59 121.77 122.94 124.12 125.29 126.46 127.63 128.80 129.97 131.14 132.31 133.48 134.64 135.81 Quantile der t -Verteilung 77 2.3 Quantile der t -Verteilung Auf der folgende Seite ist eine Tabelle der t-Verteilung dargestellt. In der Tabelle werden für wichtige Quantile der t-Verteilung die zugehörigen t-Werte ausgegeben. Wegen der Klappsymmetrie der t-Verteilung t1−α (d f ) = −tα (d f ), werden nur Werte für 1 − α > 0.5 dargestellt. Ablesebeispiel: t0.975 (8) = 2.306 Die Tabelle endet bei 40 Freiheitsgraden. Sollten mehr als 40 Freiheitsgrade vorliegen, kann die Standardnormverteilungsapproximation für t-Werte genutzt werden. Die Tabelle kann mit R oder Excel oder auch OpenOffice leicht selbst erstellt werden. Die R-Funktion ist qt(p, Freiheitsgrade). So ergibt z. B. qt(.975, 12) den Wert 2.1788. Dies ist der kritische Wert für α = .05 bei einem zweiseitigen t-Test. Die entsprechende Funktion ist in Excel und OpenOffice identisch. Sie lautet =TINV(alpha; df). Der erste Parameter (al pha) gibt die Irrtumswahrscheinlichkeit eines zweiseitigen Tests an. Anders als in der R-Funktion wird also nicht das gewünschte Prozentwert p der t-Verteilung, sondern der Wert (1 − p) × 2. Der Vorteil ist, dass hier für einen zweiseitigen Test direkt α eingegeben werden kann (und nicht wie in R der Wert 1 − α/2). Der zweite Parameter (df) gibt die Freiheitsgrade an. Die Formel =TINV(,05;12) in einer Zelle ergibt deshalb den Wert 2.1788. 78 Kapitel 2 Quantile der t-Verteilung ν 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 ∞ 0.7 0.7265 0.6172 0.5844 0.5686 0.5594 0.5534 0.5491 0.5459 0.5435 0.5415 0.5399 0.5386 0.5375 0.5366 0.5357 0.5350 0.5344 0.5338 0.5333 0.5329 0.5325 0.5321 0.5317 0.5314 0.5312 0.5309 0.5306 0.5304 0.5302 0.5300 0.5298 0.5297 0.5295 0.5294 0.5292 0.5291 0.5289 0.5288 0.5287 0.5286 0.5244 0.8 1.3764 1.0607 0.9785 0.9410 0.9195 0.9057 0.8960 0.8889 0.8834 0.8791 0.8755 0.8726 0.8702 0.8681 0.8662 0.8647 0.8633 0.8620 0.8610 0.8600 0.8591 0.8583 0.8575 0.8569 0.8562 0.8557 0.8551 0.8546 0.8542 0.8538 0.8534 0.8530 0.8526 0.8523 0.8520 0.8517 0.8514 0.8512 0.8509 0.8507 0.8416 0.9 3.0777 1.8856 1.6377 1.5332 1.4759 1.4398 1.4149 1.3968 1.3830 1.3722 1.3634 1.3562 1.3502 1.3450 1.3406 1.3368 1.3334 1.3304 1.3277 1.3253 1.3232 1.3212 1.3195 1.3178 1.3163 1.3150 1.3137 1.3125 1.3114 1.3104 1.3095 1.3086 1.3077 1.3070 1.3062 1.3055 1.3049 1.3042 1.3036 1.3031 1.2816 0.95 6.3137 2.9200 2.3534 2.1318 2.0150 1.9432 1.8946 1.8595 1.8331 1.8125 1.7959 1.7823 1.7709 1.7613 1.7531 1.7459 1.7396 1.7341 1.7291 1.7247 1.7207 1.7171 1.7139 1.7109 1.7081 1.7056 1.7033 1.7011 1.6991 1.6973 1.6955 1.6939 1.6924 1.6909 1.6896 1.6883 1.6871 1.6860 1.6849 1.6839 1.6449 1−α 0.975 12.706 4.3027 3.1824 2.7765 2.5706 2.4469 2.3646 2.3060 2.2622 2.2281 2.2010 2.1788 2.1604 2.1448 2.1315 2.1199 2.1098 2.1009 2.0930 2.0860 2.0796 2.0739 2.0687 2.0639 2.0595 2.0555 2.0518 2.0484 2.0452 2.0423 2.0395 2.0369 2.0345 2.0322 2.0301 2.0281 2.0262 2.0244 2.0227 2.0211 1.9600 0.99 31.821 6.9645 4.5407 3.7469 3.3649 3.1427 2.9979 2.8965 2.8214 2.7638 2.7181 2.6810 2.6503 2.6245 2.6025 2.5835 2.5669 2.5524 2.5395 2.5280 2.5176 2.5083 2.4999 2.4922 2.4851 2.4786 2.4727 2.4671 2.4620 2.4573 2.4528 2.4487 2.4448 2.4411 2.4377 2.4345 2.4314 2.4286 2.4258 2.4233 2.3263 0.995 63.656 9.9250 5.8408 4.6041 4.0321 3.7074 3.4995 3.3554 3.2498 3.1693 3.1058 3.0545 3.0123 2.9768 2.9467 2.9208 2.8982 2.8784 2.8609 2.8453 2.8314 2.8188 2.8073 2.7970 2.7874 2.7787 2.7707 2.7633 2.7564 2.7500 2.7440 2.7385 2.7333 2.7284 2.7238 2.7195 2.7154 2.7116 2.7079 2.7045 2.5758 0.999 318.29 22.328 10.214 7.1729 5.8935 5.2075 4.7853 4.5008 4.2969 4.1437 4.0248 3.9296 3.8520 3.7874 3.7329 3.6861 3.6458 3.6105 3.5793 3.5518 3.5271 3.5050 3.4850 3.4668 3.4502 3.4350 3.4210 3.4082 3.3963 3.3852 3.3749 3.3653 3.3563 3.3480 3.3400 3.3326 3.3256 3.3190 3.3127 3.3069 3.0902 0.9995 636.58 31.600 12.924 8.6101 6.8685 5.9587 5.4081 5.0414 4.7809 4.5868 4.4369 4.3178 4.2209 4.1403 4.0728 4.0149 3.9651 3.9217 3.8833 3.8496 3.8193 3.7922 3.7676 3.7454 3.7251 3.7067 3.6895 3.6739 3.6595 3.6460 3.6335 3.6218 3.6109 3.6007 3.5911 3.5821 3.5737 3.5657 3.5581 3.5510 3.2905 Quantile der F -Verteilung 79 2.4 Quantile der F -Verteilung Auf den folgenden Seiten ist eine Tabelle der F-Verteilung dargestellt. In der Tabelle werden für wichtige Quantile der F-Verteilung die zugehörigen F-Werte ausgegeben. Ablesebeispiel: f0.95 (8, 15) = 2.641 Zur Berechnung der Quantile für „kleine“ Werte von p (.1, .05, .025 oder .01) kann die Formel f p (ν1 , ν2 ) = 1/ f1−p (ν2 , ν1 ) verwendet werden. Ablesebeispiel: f0.05 (8, 15) = 1/ f0.95 (15, 8) = 1/3.218 = 0.311 Die Tabelle kann mit R oder Excel oder auch OpenOffice leicht selbst erstellt werden. Die R-Funktion ist qf(p, Zaehlerdf, Nennerdf). So ergibt z. B. qf(.95, 1, 9) den Wert 5.1174. Dies ist der kritische Wert für α = .05 bei einem F-Test. Die entsprechende Funktion ist in Excel und OpenOffice identisch. Sie lautet =FINV(alpha; df1; df2). Der erste Parameter (al pha) gibt die Irrtumswahrscheinlichkeit eines zweiseitigen Tests an. Anders als in der R-Funktion wird also nicht der gewünschte Prozentwert p der F-Verteilung, sondern der Wert (1 − p) angegeben. Der Vorteil ist, dass hier für einen F-Test Test direkt α eingegeben werden kann (und nicht wie in R der Wert 1 − α). Der zweite Parameter (df1) gibt die Zählerfreiheitsgrade an. Der zweite Parameter (df2) gibt die Nennerfreiheitsgrade an. Die Formel =FINV(,05;1;9) in einer Zelle ergibt deshalb den Wert 5.1174. 80 Kapitel 2 Quantile der F-Verteilung ν2 ν1 1 1 1 1 2 2 2 2 3 3 3 3 4 4 4 4 5 5 5 5 6 6 6 6 7 7 7 7 8 8 8 8 9 9 9 9 10 10 10 10 1−α 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 1 39.864 161.45 647.79 4052.2 49.500 199.50 799.48 4999.3 53.593 215.71 864.15 5403.5 55.833 224.58 899.60 5624.3 57.240 230.16 921.83 5764.0 58.204 233.99 937.11 5859.0 58.906 236.77 948.20 5928.3 59.439 238.88 956.64 5981.0 59.857 240.54 963.28 6022.4 60.195 241.88 968.63 6055.9 2 8.5263 18.513 38.506 98.502 9.0000 19.000 39.000 99.000 9.1618 19.164 39.166 99.164 9.2434 19.247 39.248 99.251 9.2926 19.296 39.298 99.302 9.3255 19.329 39.331 99.331 9.3491 19.353 39.356 99.357 9.3668 19.371 39.373 99.375 9.3805 19.385 39.387 99.390 9.3916 19.396 39.398 99.397 3 5.5383 10.128 17.443 34.116 5.4624 9.5521 16.044 30.816 5.3908 9.2766 15.439 29.457 5.3427 9.1172 15.101 28.710 5.3091 9.0134 14.885 28.237 5.2847 8.9407 14.735 27.911 5.2662 8.8867 14.624 27.671 5.2517 8.8452 14.540 27.489 5.2400 8.8123 14.473 27.345 5.2304 8.7855 14.419 27.228 4 4.5448 7.7086 12.218 21.198 4.3246 6.9443 10.649 18.000 4.1909 6.5914 9.9792 16.694 4.1072 6.3882 9.6045 15.977 4.0506 6.2561 9.3645 15.522 4.0097 6.1631 9.1973 15.207 3.9790 6.0942 9.0741 14.976 3.9549 6.0410 8.9796 14.799 3.9357 5.9988 8.9046 14.659 3.9199 5.9644 8.8439 14.546 5 4.0604 6.6079 10.007 16.258 3.7797 5.7861 8.4336 13.274 3.6195 5.4094 7.7636 12.060 3.5202 5.1922 7.3879 11.392 3.4530 5.0503 7.1464 10.967 3.4045 4.9503 6.9777 10.672 3.3679 4.8759 6.8530 10.456 3.3393 4.8183 6.7572 10.289 3.3163 4.7725 6.6810 10.158 3.2974 4.7351 6.6192 10.051 6 3.7760 5.9874 8.8131 13.745 3.4633 5.1432 7.2599 10.925 3.2888 4.7571 6.5988 9.7796 3.1808 4.5337 6.2271 9.1484 3.1075 4.3874 5.9875 8.7459 3.0546 4.2839 5.8197 8.4660 3.0145 4.2067 5.6955 8.2600 2.9830 4.1468 5.5996 8.1017 2.9577 4.0990 5.5234 7.9760 2.9369 4.0600 5.4613 7.8742 7 3.5894 5.5915 8.0727 12.246 3.2574 4.7374 6.5415 9.5465 3.0741 4.3468 5.8898 8.4513 2.9605 4.1203 5.5226 7.8467 2.8833 3.9715 5.2852 7.4604 2.8274 3.8660 5.1186 7.1914 2.7849 3.7871 4.9949 6.9929 2.7516 3.7257 4.8993 6.8401 2.7247 3.6767 4.8232 6.7188 2.7025 3.6365 4.7611 6.6201 8 3.4579 5.3176 7.5709 11.259 3.1131 4.4590 6.0595 8.6491 2.9238 4.0662 5.4160 7.5910 2.8064 3.8379 5.0526 7.0061 2.7264 3.6875 4.8173 6.6318 2.6683 3.5806 4.6517 6.3707 2.6241 3.5005 4.5285 6.1776 2.5893 3.4381 4.4333 6.0288 2.5612 3.3881 4.3572 5.9106 2.5380 3.3472 4.2951 5.8143 Quantile der F -Verteilung 81 Quantile der F-Verteilung ν2 ν1 11 11 11 11 12 12 12 12 13 13 13 13 14 14 14 14 15 15 15 15 16 16 16 16 17 17 17 17 18 18 18 18 19 19 19 19 20 20 20 20 1−α 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 1 60.473 242.98 973.03 6083.4 60.705 243.90 976.72 6106.7 60.902 244.69 979.84 6125.8 61.073 245.36 982.55 6143.0 61.220 245.95 984.87 6157.0 61.350 246.47 986.91 6170.0 61.465 246.92 988.72 6181.2 61.566 247.32 990.35 6191.4 61.658 247.69 991.80 6200.7 61.740 248.02 993.08 6208.7 2 9.4006 19.405 39.407 99.408 9.4082 19.412 39.415 99.419 9.4145 19.419 39.421 99.422 9.4200 19.424 39.427 99.426 9.4247 19.429 39.431 99.433 9.4288 19.433 39.436 99.437 9.4325 19.437 39.439 99.441 9.4358 19.440 39.442 99.444 9.4387 19.443 39.446 99.448 9.4413 19.446 39.448 99.448 3 5.2224 8.7633 14.374 27.132 5.2156 8.7447 14.337 27.052 5.2098 8.7286 14.305 26.983 5.2047 8.7149 14.277 26.924 5.2003 8.7028 14.253 26.872 5.1964 8.6923 14.232 26.826 5.1929 8.6829 14.213 26.786 5.1898 8.6745 14.196 26.751 5.1870 8.6670 14.181 26.719 5.1845 8.6602 14.167 26.690 4 3.9067 5.9358 8.7936 14.452 3.8955 5.9117 8.7512 14.374 3.8859 5.8911 8.7150 14.306 3.8776 5.8733 8.6837 14.249 3.8704 5.8578 8.6566 14.198 3.8639 5.8441 8.6326 14.154 3.8582 5.8320 8.6113 14.114 3.8531 5.8211 8.5923 14.079 3.8485 5.8114 8.5753 14.048 3.8443 5.8025 8.5599 14.019 5 3.2816 4.7040 6.5678 9.9626 3.2682 4.6777 6.5245 9.8883 3.2567 4.6552 6.4876 9.8248 3.2468 4.6358 6.4556 9.7700 3.2380 4.6188 6.4277 9.7223 3.2303 4.6038 6.4032 9.6802 3.2234 4.5904 6.3814 9.6429 3.2172 4.5785 6.3619 9.6095 3.2117 4.5678 6.3444 9.5797 3.2067 4.5581 6.3285 9.5527 6 2.9195 4.0274 5.4098 7.7896 2.9047 3.9999 5.3662 7.7183 2.8920 3.9764 5.3290 7.6575 2.8809 3.9559 5.2968 7.6050 2.8712 3.9381 5.2686 7.5590 2.8626 3.9223 5.2439 7.5186 2.8550 3.9083 5.2218 7.4826 2.8481 3.8957 5.2021 7.4506 2.8419 3.8844 5.1844 7.4219 2.8363 3.8742 5.1684 7.3958 7 2.6839 3.6030 4.7095 6.5381 2.6681 3.5747 4.6658 6.4691 2.6545 3.5503 4.6285 6.4100 2.6426 3.5292 4.5961 6.3590 2.6322 3.5107 4.5678 6.3144 2.6230 3.4944 4.5428 6.2751 2.6148 3.4799 4.5206 6.2400 2.6074 3.4669 4.5008 6.2089 2.6008 3.4551 4.4829 6.1808 2.5947 3.4445 4.4668 6.1555 8 2.5186 3.3129 4.2434 5.7343 2.5020 3.2839 4.1997 5.6667 2.4876 3.2590 4.1622 5.6089 2.4752 3.2374 4.1297 5.5588 2.4642 3.2184 4.1012 5.5152 2.4545 3.2016 4.0761 5.4765 2.4458 3.1867 4.0538 5.4423 2.4380 3.1733 4.0338 5.4116 2.4310 3.1612 4.0158 5.3841 2.4246 3.1503 3.9994 5.3591 82 Kapitel 2 Quantile der F-Verteilung (Fortsetzung) ν2 ν1 1 1 1 1 2 2 2 2 3 3 3 3 4 4 4 4 5 5 5 5 6 6 6 6 7 7 7 7 8 8 8 8 9 9 9 9 10 10 10 10 1−α 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 9 3.3603 5.1174 7.2093 10.562 3.0064 4.2565 5.7147 8.0215 2.8129 3.8625 5.0781 6.9920 2.6927 3.6331 4.7181 6.4221 2.6106 3.4817 4.4844 6.0569 2.5509 3.3738 4.3197 5.8018 2.5053 3.2927 4.1970 5.6128 2.4694 3.2296 4.1020 5.4671 2.4403 3.1789 4.0260 5.3511 2.4163 3.1373 3.9639 5.2565 10 3.2850 4.9646 6.9367 10.044 2.9245 4.1028 5.4564 7.5595 2.7277 3.7083 4.8256 6.5523 2.6053 3.4780 4.4683 5.9944 2.5216 3.3258 4.2361 5.6364 2.4606 3.2172 4.0721 5.3858 2.4140 3.1355 3.9498 5.2001 2.3771 3.0717 3.8549 5.0567 2.3473 3.0204 3.7790 4.9424 2.3226 2.9782 3.7168 4.8491 11 3.2252 4.8443 6.7241 9.646 2.8595 3.9823 5.2559 7.2057 2.6602 3.5874 4.6300 6.2167 2.5362 3.3567 4.2751 5.6683 2.4512 3.2039 4.0440 5.3160 2.3891 3.0946 3.8806 5.0692 2.3416 3.0123 3.7586 4.8860 2.3040 2.9480 3.6638 4.7445 2.2735 2.8962 3.5879 4.6315 2.2482 2.8536 3.5257 4.5393 12 3.1766 4.7472 6.5538 9.3303 2.8068 3.8853 5.0959 6.9266 2.6055 3.4903 4.4742 5.9525 2.4801 3.2592 4.1212 5.4119 2.3940 3.1059 3.8911 5.0644 2.3310 2.9961 3.7283 4.8205 2.2828 2.9134 3.6065 4.6395 2.2446 2.8486 3.5118 4.4994 2.2135 2.7964 3.4358 4.3875 2.1878 2.7534 3.3735 4.2961 13 3.1362 4.6672 6.4143 9.0738 2.7632 3.8056 4.9653 6.7009 2.5603 3.4105 4.3472 5.7394 2.4337 3.1791 3.9959 5.2053 2.3467 3.0254 3.7667 4.8616 2.2830 2.9153 3.6043 4.6203 2.2341 2.8321 3.4827 4.4410 2.1953 2.7669 3.3880 4.3021 2.1638 2.7144 3.3120 4.1911 2.1376 2.6710 3.2497 4.1003 14 3.1022 4.6001 6.2979 8.8617 2.7265 3.7389 4.8567 6.5149 2.5222 3.3439 4.2417 5.5639 2.3947 3.1122 3.8919 5.0354 2.3069 2.9582 3.6634 4.6950 2.2426 2.8477 3.5014 4.4558 2.1931 2.7642 3.3799 4.2779 2.1539 2.6987 3.2853 4.1400 2.1220 2.6458 3.2093 4.0297 2.0954 2.6022 3.1469 3.9394 15 3.0732 4.5431 6.1995 8.6832 2.6952 3.6823 4.7650 6.3588 2.4898 3.2874 4.1528 5.4170 2.3614 3.0556 3.8043 4.8932 2.2730 2.9013 3.5764 4.5556 2.2081 2.7905 3.4147 4.3183 2.1582 2.7066 3.2934 4.1416 2.1185 2.6408 3.1987 4.0044 2.0862 2.5876 3.1227 3.8948 2.0593 2.5437 3.0602 3.8049 16 3.0481 4.4940 6.1151 8.5309 2.6682 3.6337 4.6867 6.2263 2.4618 3.2389 4.0768 5.2922 2.3327 3.0069 3.7294 4.7726 2.2438 2.8524 3.5021 4.4374 2.1783 2.7413 3.3406 4.2016 2.1280 2.6572 3.2194 4.0259 2.0880 2.5911 3.1248 3.8896 2.0553 2.5377 3.0488 3.7804 2.0281 2.4935 2.9862 3.6909 Quantile der F -Verteilung 83 Quantile der F-Verteilung (Fortsetzung) ν2 ν1 11 11 11 11 12 12 12 12 13 13 13 13 14 14 14 14 15 15 15 15 16 16 16 16 17 17 17 17 18 18 18 18 19 19 19 19 20 20 20 20 1−α 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 9 2.3961 3.1025 3.9121 5.1779 2.3789 3.0729 3.8682 5.1115 2.3640 3.0475 3.8306 5.0545 2.3510 3.0255 3.7980 5.0052 2.3396 3.0061 3.7693 4.9621 2.3295 2.9890 3.7441 4.9240 2.3205 2.9737 3.7216 4.8902 2.3123 2.9600 3.7015 4.8599 2.3050 2.9477 3.6833 4.8327 2.2983 2.9365 3.6669 4.8080 10 2.3018 2.9430 3.6649 4.7716 2.2841 2.9130 3.6210 4.7058 2.2687 2.8872 3.5832 4.6496 2.2553 2.8647 3.5504 4.6008 2.2435 2.8450 3.5217 4.5582 2.2330 2.8276 3.4963 4.5204 2.2237 2.8120 3.4736 4.4869 2.2153 2.7980 3.4534 4.4569 2.2077 2.7854 3.4351 4.4299 2.2007 2.7740 3.4185 4.4054 11 2.2269 2.8179 3.4737 4.4624 2.2087 2.7876 3.4296 4.3974 2.1930 2.7614 3.3917 4.3416 2.1792 2.7386 3.3588 4.2933 2.1671 2.7186 3.3299 4.2509 2.1563 2.7009 3.3044 4.2135 2.1467 2.6851 3.2816 4.1802 2.1380 2.6709 3.2612 4.1503 2.1302 2.6581 3.2428 4.1234 2.1230 2.6464 3.2261 4.0990 12 2.1660 2.7173 3.3215 4.2198 2.1474 2.6866 3.2773 4.1553 2.1313 2.6602 3.2393 4.0998 2.1173 2.6371 3.2062 4.0517 2.1049 2.6169 3.1772 4.0096 2.0938 2.5989 3.1515 3.9724 2.0839 2.5828 3.1286 3.9392 2.0750 2.5684 3.1081 3.9095 2.0670 2.5554 3.0896 3.8827 2.0597 2.5436 3.0728 3.8584 13 2.1155 2.6346 3.1975 4.0245 2.0966 2.6037 3.1532 3.9603 2.0802 2.5769 3.1150 3.9052 2.0658 2.5536 3.0819 3.8573 2.0532 2.5331 3.0527 3.8154 2.0419 2.5149 3.0269 3.7783 2.0318 2.4987 3.0039 3.7452 2.0227 2.4841 2.9832 3.7156 2.0145 2.4709 2.9646 3.6889 2.0070 2.4589 2.9477 3.6646 14 2.0730 2.5655 3.0946 3.8640 2.0537 2.5342 3.0502 3.8002 2.0370 2.5073 3.0119 3.7452 2.0224 2.4837 2.9786 3.6976 2.0095 2.4630 2.9493 3.6557 1.9981 2.4446 2.9234 3.6187 1.9878 2.4282 2.9003 3.5857 1.9785 2.4134 2.8795 3.5561 1.9701 2.4000 2.8607 3.5294 1.9625 2.3879 2.8437 3.5052 15 2.0366 2.5068 3.0078 3.7299 2.0171 2.4753 2.9633 3.6662 2.0001 2.4481 2.9249 3.6115 1.9853 2.4244 2.8915 3.5639 1.9722 2.4034 2.8621 3.5222 1.9605 2.3849 2.8360 3.4852 1.9501 2.3683 2.8128 3.4523 1.9407 2.3533 2.7919 3.4228 1.9321 2.3398 2.7730 3.3961 1.9243 2.3275 2.7559 3.3719 16 2.0051 2.4564 2.9337 3.6162 1.9854 2.4247 2.8891 3.5527 1.9682 2.3973 2.8506 3.4981 1.9532 2.3733 2.8170 3.4506 1.9399 2.3522 2.7875 3.4090 1.9281 2.3335 2.7614 3.3721 1.9175 2.3167 2.7380 3.3392 1.9079 2.3016 2.7170 3.3096 1.8992 2.2880 2.6980 3.2829 1.8913 2.2756 2.6808 3.2587 84 Kapitel 2 Quantile der F-Verteilung (Fortsetzung) ν2 ν1 1 1 1 1 2 2 2 2 3 3 3 3 4 4 4 4 5 5 5 5 6 6 6 6 7 7 7 7 8 8 8 8 9 9 9 9 10 10 10 10 1−α 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 17 3.0262 4.4513 6.0420 8.3998 2.6446 3.5915 4.6189 6.1121 2.4374 3.1968 4.0112 5.1850 2.3077 2.9647 3.6648 4.6689 2.2183 2.8100 3.4379 4.3360 2.1524 2.6987 3.2767 4.1015 2.1017 2.6143 3.1556 3.9267 2.0613 2.5480 3.0610 3.7909 2.0284 2.4943 2.9849 3.6823 2.0009 2.4499 2.9222 3.5931 18 3.0070 4.4139 5.9781 8.2855 2.6239 3.5546 4.5597 6.0129 2.4160 3.1599 3.9539 5.0919 2.2858 2.9277 3.6083 4.5790 2.1958 2.7729 3.3820 4.2479 2.1296 2.6613 3.2209 4.0146 2.0785 2.5767 3.0999 3.8406 2.0379 2.5102 3.0053 3.7054 2.0047 2.4563 2.9291 3.5971 1.9770 2.4117 2.8664 3.5081 19 2.9899 4.3808 5.9216 8.1850 2.6056 3.5219 4.5075 5.9259 2.3970 3.1274 3.9034 5.0103 2.2663 2.8951 3.5587 4.5002 2.1760 2.7401 3.3327 4.1708 2.1094 2.6283 3.1718 3.9386 2.0580 2.5435 3.0509 3.7653 2.0171 2.4768 2.9563 3.6305 1.9836 2.4227 2.8801 3.5225 1.9557 2.3779 2.8172 3.4338 20 2.9747 4.3513 5.8715 8.0960 2.5893 3.4928 4.4612 5.8490 2.3801 3.0984 3.8587 4.9382 2.2489 2.8661 3.5147 4.4307 2.1582 2.7109 3.2891 4.1027 2.0913 2.5990 3.1283 3.8714 2.0397 2.5140 3.0074 3.6987 1.9985 2.4471 2.9128 3.5644 1.9649 2.3928 2.8365 3.4567 1.9367 2.3479 2.7737 3.3682 21 2.9610 4.3248 5.8266 8.0166 2.5746 3.4668 4.4199 5.7804 2.3649 3.0725 3.8188 4.8740 2.2333 2.8401 3.4754 4.3688 2.1423 2.6848 3.2501 4.0421 2.0751 2.5727 3.0895 3.8117 2.0233 2.4876 2.9686 3.6396 1.9819 2.4205 2.8740 3.5056 1.9480 2.3661 2.7977 3.3982 1.9197 2.3210 2.7348 3.3098 22 2.9486 4.3009 5.7863 7.9453 2.5613 3.4434 4.3828 5.7190 2.3512 3.0491 3.7829 4.8166 2.2193 2.8167 3.4401 4.3134 2.1279 2.6613 3.2151 3.9880 2.0605 2.5491 3.0546 3.7583 2.0084 2.4638 2.9338 3.5866 1.9668 2.3965 2.8392 3.4530 1.9327 2.3419 2.7628 3.3458 1.9043 2.2967 2.6998 3.2576 23 2.9374 4.2793 5.7498 7.8811 2.5493 3.4221 4.3492 5.6637 2.3387 3.0280 3.7505 4.7648 2.2065 2.7955 3.4083 4.2635 2.1149 2.6400 3.1835 3.9392 2.0472 2.5277 3.0232 3.7102 1.9949 2.4422 2.9023 3.5390 1.9531 2.3748 2.8077 3.4057 1.9189 2.3201 2.7313 3.2986 1.8903 2.2747 2.6682 3.2106 24 2.9271 4.2597 5.7166 7.8229 2.5383 3.4028 4.3187 5.6136 2.3274 3.0088 3.7211 4.7181 2.1949 2.7763 3.3794 4.2185 2.1030 2.6207 3.1548 3.8951 2.0351 2.5082 2.9946 3.6667 1.9826 2.4226 2.8738 3.4959 1.9407 2.3551 2.7791 3.3629 1.9063 2.3002 2.7027 3.2560 1.8775 2.2547 2.6396 3.1681 Quantile der F -Verteilung 85 Quantile der F-Verteilung (Fortsetzung) ν2 ν1 11 11 11 11 12 12 12 12 13 13 13 13 14 14 14 14 15 15 15 15 16 16 16 16 17 17 17 17 18 18 18 18 19 19 19 19 20 20 20 20 1−α 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 17 1.9777 2.4126 2.8696 3.5185 1.9577 2.3807 2.8249 3.4552 1.9404 2.3531 2.7863 3.4007 1.9252 2.3290 2.7526 3.3533 1.9117 2.3077 2.7230 3.3117 1.8997 2.2888 2.6968 3.2748 1.8889 2.2719 2.6733 3.2419 1.8792 2.2567 2.6522 3.2124 1.8704 2.2429 2.6331 3.1857 1.8624 2.2304 2.6158 3.1615 18 1.9535 2.3742 2.8137 3.4338 1.9333 2.3421 2.7689 3.3706 1.9158 2.3143 2.7302 3.3162 1.9004 2.2900 2.6964 3.2689 1.8868 2.2686 2.6667 3.2273 1.8747 2.2496 2.6403 3.1905 1.8638 2.2325 2.6168 3.1575 1.8539 2.2172 2.5956 3.1280 1.8450 2.2033 2.5764 3.1013 1.8368 2.1906 2.5590 3.0771 19 1.9321 2.3402 2.7645 3.3596 1.9117 2.3080 2.7196 3.2965 1.8940 2.2800 2.6808 3.2422 1.8785 2.2556 2.6469 3.1949 1.8647 2.2341 2.6171 3.1533 1.8524 2.2149 2.5907 3.1165 1.8414 2.1977 2.5670 3.0836 1.8314 2.1823 2.5457 3.0541 1.8224 2.1682 2.5264 3.0274 1.8142 2.1555 2.5089 3.0031 20 1.9129 2.3100 2.7209 3.2941 1.8924 2.2776 2.6758 3.2311 1.8745 2.2495 2.6369 3.1769 1.8588 2.2250 2.6030 3.1296 1.8449 2.2033 2.5731 3.0880 1.8325 2.1840 2.5465 3.0512 1.8214 2.1667 2.5228 3.0183 1.8113 2.1511 2.5014 2.9887 1.8022 2.1370 2.4821 2.9620 1.7938 2.1242 2.4645 2.9377 21 1.8956 2.2829 2.6819 3.2359 1.8750 2.2504 2.6368 3.1729 1.8570 2.2222 2.5978 3.1187 1.8412 2.1975 2.5638 3.0715 1.8271 2.1757 2.5338 3.0300 1.8146 2.1563 2.5071 2.9931 1.8034 2.1389 2.4833 2.9602 1.7932 2.1232 2.4618 2.9306 1.7840 2.1090 2.4424 2.9038 1.7756 2.0960 2.4247 2.8795 22 1.8801 2.2585 2.6469 3.1837 1.8593 2.2258 2.6017 3.1209 1.8411 2.1975 2.5626 3.0667 1.8252 2.1727 2.5285 3.0195 1.8111 2.1508 2.4984 2.9779 1.7984 2.1313 2.4717 2.9411 1.7871 2.1138 2.4478 2.9082 1.7768 2.0980 2.4262 2.8786 1.7675 2.0837 2.4067 2.8518 1.7590 2.0707 2.3890 2.8274 23 1.8659 2.2364 2.6152 3.1368 1.8450 2.2036 2.5699 3.0740 1.8267 2.1752 2.5308 3.0199 1.8107 2.1502 2.4966 2.9727 1.7964 2.1282 2.4665 2.9311 1.7837 2.1086 2.4396 2.8942 1.7723 2.0910 2.4156 2.8613 1.7619 2.0751 2.3940 2.8317 1.7525 2.0608 2.3745 2.8049 1.7439 2.0476 2.3566 2.7805 24 1.8530 2.2163 2.5865 3.0944 1.8319 2.1834 2.5411 3.0316 1.8136 2.1548 2.5019 2.9775 1.7974 2.1298 2.4677 2.9303 1.7831 2.1077 2.4374 2.8887 1.7703 2.0880 2.4105 2.8519 1.7587 2.0703 2.3865 2.8189 1.7483 2.0543 2.3648 2.7892 1.7388 2.0399 2.3452 2.7624 1.7302 2.0267 2.3273 2.7380 86 Kapitel 2 Quantile der F-Verteilung (Fortsetzung) ν2 ν1 1 1 1 1 2 2 2 2 3 3 3 3 4 4 4 4 5 5 5 5 6 6 6 6 7 7 7 7 8 8 8 8 9 9 9 9 10 10 10 10 1−α 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 25 2.9177 4.2417 5.6864 7.7698 2.5283 3.3852 4.2909 5.5680 2.3170 2.9912 3.6943 4.6755 2.1842 2.7587 3.3530 4.1774 2.0922 2.6030 3.1287 3.8550 2.0241 2.4904 2.9685 3.6272 1.9714 2.4047 2.8478 3.4568 1.9292 2.3371 2.7531 3.3239 1.8947 2.2821 2.6766 3.2172 1.8658 2.2365 2.6135 3.1294 26 2.9091 4.2252 5.6586 7.7213 2.5191 3.3690 4.2655 5.5263 2.3075 2.9752 3.6697 4.6365 2.1745 2.7426 3.3289 4.1400 2.0822 2.5868 3.1048 3.8183 2.0139 2.4741 2.9447 3.5911 1.9610 2.3883 2.8240 3.4210 1.9188 2.3205 2.7293 3.2884 1.8841 2.2655 2.6528 3.1818 1.8550 2.2197 2.5896 3.0941 27 2.9012 4.2100 5.6331 7.6767 2.5106 3.3541 4.2421 5.4881 2.2987 2.9603 3.6472 4.6009 2.1655 2.7278 3.3067 4.1056 2.0730 2.5719 3.0828 3.7847 2.0045 2.4591 2.9228 3.5580 1.9515 2.3732 2.8021 3.3882 1.9091 2.3053 2.7074 3.2558 1.8743 2.2501 2.6309 3.1494 1.8451 2.2043 2.5676 3.0618 28 2.8938 4.1960 5.6096 7.6357 2.5028 3.3404 4.2205 5.4529 2.2906 2.9467 3.6264 4.5681 2.1571 2.7141 3.2863 4.0740 2.0645 2.5581 3.0626 3.7539 1.9959 2.4453 2.9027 3.5276 1.9427 2.3593 2.7820 3.3581 1.9001 2.2913 2.6872 3.2259 1.8652 2.2360 2.6106 3.1195 1.8359 2.1900 2.5473 3.0320 29 2.8870 4.1830 5.5878 7.5977 2.4955 3.3277 4.2006 5.4205 2.2831 2.9340 3.6072 4.5378 2.1494 2.7014 3.2674 4.0449 2.0566 2.5454 3.0438 3.7254 1.9878 2.4324 2.8840 3.4995 1.9345 2.3463 2.7633 3.3303 1.8918 2.2782 2.6686 3.1982 1.8568 2.2229 2.5919 3.0920 1.8274 2.1768 2.5286 3.0045 30 2.8807 4.1709 5.5675 7.5624 2.4887 3.3158 4.1821 5.3903 2.2761 2.9223 3.5893 4.5097 2.1422 2.6896 3.2499 4.0179 2.0492 2.5336 3.0265 3.6990 1.9803 2.4205 2.8667 3.4735 1.9269 2.3343 2.7460 3.3045 1.8841 2.2662 2.6513 3.1726 1.8490 2.2107 2.5746 3.0665 1.8195 2.1646 2.5112 2.9791 31 2.8748 4.1596 5.5487 7.5297 2.4824 3.3048 4.1648 5.3624 2.2695 2.9113 3.5728 4.4837 2.1355 2.6787 3.2336 3.9928 2.0424 2.5225 3.0103 3.6745 1.9734 2.4094 2.8506 3.4493 1.9198 2.3232 2.7299 3.2806 1.8769 2.2549 2.6352 3.1489 1.8417 2.1994 2.5585 3.0429 1.8121 2.1532 2.4950 2.9555 32 2.8693 4.1491 5.5311 7.4992 2.4765 3.2945 4.1488 5.3363 2.2635 2.9011 3.5573 4.4594 2.1293 2.6684 3.2185 3.9695 2.0360 2.5123 2.9953 3.6517 1.9668 2.3991 2.8356 3.4269 1.9132 2.3127 2.7150 3.2583 1.8702 2.2444 2.6202 3.1267 1.8348 2.1888 2.5434 3.0208 1.8052 2.1425 2.4799 2.9335 Quantile der F -Verteilung 87 Quantile der F-Verteilung (Fortsetzung) ν2 ν1 11 11 11 11 12 12 12 12 13 13 13 13 14 14 14 14 15 15 15 15 16 16 16 16 17 17 17 17 18 18 18 18 19 19 19 19 20 20 20 20 1−α 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 25 1.8412 2.1979 2.5603 3.0558 1.8200 2.1649 2.5149 2.9931 1.8015 2.1362 2.4756 2.9389 1.7853 2.1111 2.4413 2.8917 1.7708 2.0889 2.4110 2.8502 1.7579 2.0691 2.3840 2.8133 1.7463 2.0513 2.3599 2.7803 1.7358 2.0353 2.3381 2.7506 1.7263 2.0207 2.3184 2.7238 1.7175 2.0075 2.3005 2.6993 26 1.8303 2.1811 2.5363 3.0205 1.8090 2.1479 2.4909 2.9578 1.7904 2.1192 2.4515 2.9038 1.7741 2.0939 2.4171 2.8566 1.7596 2.0716 2.3867 2.8150 1.7466 2.0518 2.3597 2.7781 1.7349 2.0339 2.3355 2.7451 1.7243 2.0178 2.3137 2.7154 1.7147 2.0032 2.2939 2.6885 1.7059 1.9898 2.2759 2.6640 27 1.8203 2.1655 2.5143 2.9882 1.7989 2.1323 2.4688 2.9256 1.7802 2.1034 2.4293 2.8715 1.7638 2.0781 2.3949 2.8243 1.7492 2.0558 2.3644 2.7827 1.7361 2.0358 2.3373 2.7458 1.7243 2.0179 2.3131 2.7127 1.7137 2.0017 2.2912 2.6830 1.7040 1.9870 2.2713 2.6561 1.6951 1.9736 2.2533 2.6316 28 1.8110 2.1512 2.4940 2.9585 1.7895 2.1179 2.4484 2.8959 1.7708 2.0889 2.4089 2.8418 1.7542 2.0635 2.3743 2.7946 1.7395 2.0411 2.3438 2.7530 1.7264 2.0210 2.3167 2.7160 1.7146 2.0030 2.2924 2.6830 1.7039 1.9868 2.2704 2.6532 1.6941 1.9720 2.2505 2.6263 1.6852 1.9586 2.2324 2.6018 29 1.8024 2.1379 2.4752 2.9311 1.7808 2.1045 2.4295 2.8685 1.7620 2.0755 2.3900 2.8144 1.7454 2.0500 2.3554 2.7672 1.7306 2.0275 2.3248 2.7256 1.7174 2.0073 2.2976 2.6886 1.7055 1.9893 2.2732 2.6555 1.6947 1.9730 2.2512 2.6257 1.6849 1.9581 2.2313 2.5987 1.6759 1.9446 2.2131 2.5742 30 1.7944 2.1256 2.4578 2.9057 1.7727 2.0921 2.4120 2.8431 1.7538 2.0630 2.3724 2.7890 1.7371 2.0374 2.3378 2.7418 1.7223 2.0148 2.3072 2.7002 1.7090 1.9946 2.2799 2.6632 1.6970 1.9765 2.2554 2.6301 1.6862 1.9601 2.2334 2.6002 1.6763 1.9452 2.2134 2.5732 1.6673 1.9317 2.1952 2.5487 31 1.7869 2.1141 2.4415 2.8821 1.7651 2.0805 2.3958 2.8195 1.7461 2.0513 2.3561 2.7655 1.7294 2.0257 2.3214 2.7182 1.7145 2.0030 2.2907 2.6766 1.7012 1.9828 2.2634 2.6396 1.6891 1.9646 2.2389 2.6064 1.6783 1.9481 2.2168 2.5766 1.6683 1.9332 2.1967 2.5496 1.6593 1.9196 2.1785 2.5249 32 1.7799 2.1033 2.4264 2.8602 1.7581 2.0697 2.3806 2.7976 1.7390 2.0404 2.3409 2.7435 1.7222 2.0147 2.3061 2.6963 1.7072 1.9920 2.2754 2.6546 1.6938 1.9717 2.2480 2.6176 1.6818 1.9534 2.2235 2.5844 1.6708 1.9369 2.2013 2.5546 1.6608 1.9219 2.1812 2.5275 1.6517 1.9083 2.1629 2.5028 88 Kapitel 2 Quantile der F-Verteilung (Fortsetzung) ν2 ν1 1 1 1 1 2 2 2 2 3 3 3 3 4 4 4 4 5 5 5 5 6 6 6 6 7 7 7 7 8 8 8 8 9 9 9 9 10 10 10 10 1−α 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 33 2.8641 4.1393 5.5147 7.4708 2.4710 3.2849 4.1338 5.3120 2.2577 2.8916 3.5429 4.4368 2.1234 2.6589 3.2043 3.9477 2.0300 2.5026 2.9812 3.6305 1.9607 2.3894 2.8216 3.4059 1.9070 2.3030 2.7009 3.2376 1.8639 2.2346 2.6061 3.1061 1.8284 2.1789 2.5294 3.0003 1.7987 2.1325 2.4659 2.9130 34 2.8592 4.1300 5.4993 7.4441 2.4658 3.2759 4.1197 5.2893 2.2524 2.8826 3.5293 4.4156 2.1179 2.6499 3.1910 3.9273 2.0244 2.4936 2.9680 3.6106 1.9550 2.3803 2.8085 3.3863 1.9012 2.2938 2.6878 3.2182 1.8580 2.2253 2.5930 3.0868 1.8224 2.1696 2.5162 2.9810 1.7926 2.1231 2.4526 2.8938 35 2.8547 4.1213 5.4848 7.4191 2.4609 3.2674 4.1065 5.2679 2.2474 2.8742 3.5166 4.3958 2.1128 2.6415 3.1785 3.9082 2.0191 2.4851 2.9557 3.5919 1.9496 2.3718 2.7961 3.3679 1.8957 2.2852 2.6755 3.1999 1.8524 2.2167 2.5807 3.0687 1.8168 2.1608 2.5039 2.9630 1.7869 2.1143 2.4402 2.8758 36 2.8503 4.1132 5.4712 7.3956 2.4563 3.2594 4.0941 5.2479 2.2426 2.8663 3.5047 4.3771 2.1079 2.6335 3.1668 3.8903 2.0141 2.4772 2.9440 3.5744 1.9445 2.3637 2.7845 3.3507 1.8905 2.2771 2.6639 3.1829 1.8471 2.2085 2.5691 3.0517 1.8115 2.1526 2.4922 2.9461 1.7815 2.1061 2.4286 2.8589 37 2.8463 4.1055 5.4584 7.3735 2.4520 3.2519 4.0824 5.2290 2.2381 2.8588 3.4934 4.3595 2.1033 2.6261 3.1557 3.8734 2.0095 2.4696 2.9331 3.5579 1.9398 2.3562 2.7736 3.3344 1.8856 2.2695 2.6530 3.1668 1.8422 2.2008 2.5581 3.0357 1.8064 2.1449 2.4813 2.9302 1.7764 2.0982 2.4176 2.8431 38 2.8424 4.0982 5.4463 7.3526 2.4479 3.2448 4.0713 5.2112 2.2339 2.8517 3.4828 4.3430 2.0990 2.6190 3.1453 3.8575 2.0050 2.4625 2.9227 3.5424 1.9352 2.3490 2.7633 3.3191 1.8810 2.2623 2.6427 3.1516 1.8375 2.1936 2.5478 3.0207 1.8017 2.1375 2.4710 2.9152 1.7716 2.0909 2.4072 2.8281 39 2.8388 4.0913 5.4348 7.3328 2.4440 3.2381 4.0609 5.1944 2.2299 2.8451 3.4728 4.3274 2.0948 2.6123 3.1354 3.8425 2.0008 2.4558 2.9130 3.5277 1.9309 2.3423 2.7536 3.3047 1.8767 2.2555 2.6330 3.1373 1.8331 2.1867 2.5381 3.0064 1.7972 2.1306 2.4612 2.9010 1.7670 2.0839 2.3974 2.8139 40 2.8353 4.0847 5.4239 7.3142 2.4404 3.2317 4.0510 5.1785 2.2261 2.8387 3.4633 4.3126 2.0909 2.6060 3.1261 3.8283 1.9968 2.4495 2.9037 3.5138 1.9269 2.3359 2.7444 3.2910 1.8725 2.2490 2.6238 3.1238 1.8289 2.1802 2.5289 2.9930 1.7929 2.1240 2.4519 2.8876 1.7627 2.0773 2.3882 2.8005 Quantile der F -Verteilung 89 Quantile der F-Verteilung (Fortsetzung) ν2 ν1 11 11 11 11 12 12 12 12 13 13 13 13 14 14 14 14 15 15 15 15 16 16 16 16 17 17 17 17 18 18 18 18 19 19 19 19 20 20 20 20 1−α 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 33 1.7733 2.0933 2.4123 2.8397 1.7514 2.0595 2.3664 2.7771 1.7323 2.0302 2.3266 2.7231 1.7154 2.0045 2.2918 2.6758 1.7004 1.9817 2.2610 2.6341 1.6869 1.9613 2.2336 2.5971 1.6748 1.9430 2.2090 2.5639 1.6638 1.9264 2.1868 2.5340 1.6538 1.9114 2.1667 2.5069 1.6446 1.8977 2.1483 2.4822 34 1.7672 2.0838 2.3990 2.8205 1.7452 2.0500 2.3531 2.7580 1.7260 2.0207 2.3133 2.7039 1.7091 1.9949 2.2784 2.6566 1.6940 1.9720 2.2476 2.6150 1.6805 1.9516 2.2201 2.5779 1.6683 1.9332 2.1955 2.5447 1.6573 1.9166 2.1732 2.5148 1.6472 1.9015 2.1531 2.4876 1.6380 1.8877 2.1346 2.4629 35 1.7614 2.0750 2.3866 2.8026 1.7394 2.0411 2.3406 2.7400 1.7201 2.0117 2.3008 2.6859 1.7031 1.9858 2.2659 2.6387 1.6880 1.9629 2.2350 2.5970 1.6744 1.9424 2.2075 2.5599 1.6622 1.9240 2.1828 2.5266 1.6511 1.9073 2.1605 2.4967 1.6410 1.8922 2.1403 2.4695 1.6317 1.8784 2.1218 2.4448 36 1.7559 2.0666 2.3749 2.7857 1.7338 2.0327 2.3289 2.7232 1.7145 2.0032 2.2890 2.6691 1.6974 1.9773 2.2540 2.6218 1.6823 1.9543 2.2231 2.5801 1.6687 1.9338 2.1956 2.5430 1.6564 1.9153 2.1708 2.5097 1.6453 1.8986 2.1485 2.4797 1.6351 1.8834 2.1282 2.4526 1.6258 1.8696 2.1097 2.4278 37 1.7508 2.0587 2.3639 2.7698 1.7286 2.0248 2.3178 2.7073 1.7092 1.9952 2.2779 2.6532 1.6921 1.9692 2.2429 2.6059 1.6769 1.9462 2.2119 2.5642 1.6632 1.9256 2.1843 2.5270 1.6509 1.9071 2.1595 2.4938 1.6397 1.8904 2.1372 2.4638 1.6296 1.8752 2.1168 2.4366 1.6202 1.8612 2.0983 2.4118 38 1.7459 2.0513 2.3535 2.7549 1.7237 2.0173 2.3074 2.6923 1.7042 1.9877 2.2674 2.6382 1.6871 1.9616 2.2324 2.5909 1.6718 1.9386 2.2014 2.5492 1.6581 1.9179 2.1737 2.5120 1.6457 1.8994 2.1489 2.4787 1.6345 1.8826 2.1265 2.4487 1.6243 1.8673 2.1061 2.4215 1.6149 1.8534 2.0875 2.3967 39 1.7413 2.0443 2.3436 2.7407 1.7190 2.0102 2.2975 2.6782 1.6995 1.9805 2.2575 2.6241 1.6823 1.9545 2.2224 2.5768 1.6670 1.9313 2.1914 2.5350 1.6532 1.9107 2.1637 2.4978 1.6408 1.8921 2.1388 2.4645 1.6296 1.8752 2.1164 2.4345 1.6193 1.8599 2.0960 2.4072 1.6099 1.8459 2.0774 2.3824 40 1.7369 2.0376 2.3343 2.7273 1.7146 2.0035 2.2882 2.6648 1.6950 1.9738 2.2481 2.6107 1.6778 1.9476 2.2130 2.5634 1.6624 1.9245 2.1819 2.5216 1.6486 1.9038 2.1542 2.4844 1.6362 1.8851 2.1293 2.4511 1.6249 1.8682 2.1068 2.4210 1.6146 1.8529 2.0864 2.3937 1.6052 1.8389 2.0677 2.3689 90 Kapitel 2 2.5 Binomialtest Die nachfolgenden Tabellen für den Binomialtest wurden mit folgender R-Funktion erstellt: alpha<-.05 for (i in 5:25) { print (qbinom(alpha, i, .5) ) } Tabelle der kritischen Werte für die Binomialverteilung mit p = .5. Einseitig α = .005 und α = .01, bzw. zweiseitig mit α = .01 und α = .02. n 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 α = .005 p(X < x) < α α = .005 p(X > x) < α 1 1 1 1 2 2 2 3 3 3 4 4 4 5 5 5 6 6 7 8 9 10 10 11 12 12 13 14 14 15 16 16 17 18 18 19 α = .01 p(X < x) < α 1 1 1 1 2 2 2 3 3 3 4 4 5 5 5 6 6 6 7 α = .01 p(X > x) < α 6 7 8 9 9 10 11 11 12 13 13 14 14 15 16 16 17 18 18 Binomialtest Tabelle der kritischen Werte für die Binomialverteilung mit p = .5. Einseitig α = .025 und α = .05, bzw. zweiseitig mit α = .05 und α = .10. p = 0.5 n 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 α = .025 p(X < x) < α α = .025 p(X > x) < α 1 1 1 2 2 2 3 3 3 4 4 5 5 5 6 6 6 7 7 8 5 6 7 7 8 9 9 10 11 11 12 12 13 14 14 15 16 16 17 17 α = .05 p(X < x) < α 1 1 1 2 2 2 3 3 4 4 4 5 5 6 6 6 7 7 8 8 8 α = .05 p(X > x) < α 4 5 6 6 7 8 8 9 9 10 11 11 12 12 13 14 14 15 15 16 17 Für n>25 kann die Normalverteilungsapproximation genutzt werden. 91 92 Kapitel 2 2.6 Wilcoxon-Rangsummentest Die nachfolgenden Tabellen für den Wilcoxon-Rangsummen-Test wurden mit folgender R-Funktion erstellt. wilcox_table <- function(alpha) { q <- matrix(rep(0,900), nrow=30) for (i in 3:30) { minj <- 4 if (i>minj) minj <- i for (j in minj:30) { val <- qwilcox(alpha, i, j) if (val>0) { q[i,j] <- val + i*(i+1)/2 - 1 } } } q } Vorgehen: Die Rangsumme R der kleineren Gruppe wird gebildet. Ist R kleiner oder gleich dem in der Tabelle angegeben Wert, ist der einseitige Rangsummentest (nach unten) signifikant. Für den Tests nach oben ist der kritische Wert umzurechen. Ist qkrit der Tabellenwert und ist n die Größe der größeren, sowie m die Gruppengröße der kleineren Gruppe, so ist m(m + n + 1) − qkrit der erste Wert, der für den einseitigen Test nach oben signifikant ausfällt. Für den zweiseitigen Test sind die Tabellen mit α = .025, 0.005 dargestellt. Wilcoxon-Rangsummentest Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .05) 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 3 6 7 8 8 9 9 10 11 11 12 13 13 14 15 15 16 4 11 12 13 14 15 16 17 18 19 20 21 22 24 25 26 27 5 19 20 21 23 24 26 27 28 30 31 33 34 35 37 38 6 28 29 31 33 35 37 38 40 42 44 46 47 49 51 7 39 41 43 45 47 49 52 54 56 58 61 63 65 8 51 54 56 59 62 64 67 69 72 75 77 80 9 66 69 72 75 78 81 84 87 90 93 96 10 82 86 89 92 96 99 103 106 110 113 11 100 104 108 112 116 120 123 127 131 12 120 125 129 133 138 142 146 150 13 142 147 152 156 161 166 171 14 166 171 176 182 187 192 15 192 197 203 208 214 16 219 225 231 237 17 249 255 262 18 280 287 19 313 93 94 Kapitel 2 Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .05; Fortsetzung) 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 20 17 28 40 53 67 83 99 117 135 155 175 197 220 243 268 294 320 348 21 17 29 41 55 69 85 102 120 139 159 180 202 225 249 274 301 328 356 385 22 18 30 43 57 72 88 105 123 143 163 185 207 231 255 281 307 335 364 393 424 23 19 31 44 58 74 90 108 127 147 168 189 212 236 261 287 314 342 371 401 432 465 24 19 32 45 60 76 93 111 130 151 172 194 218 242 267 294 321 350 379 410 441 474 507 25 20 33 47 62 78 96 114 134 155 176 199 223 248 273 300 328 357 387 418 450 483 517 552 26 21 34 48 64 81 98 117 137 158 181 204 228 253 279 307 335 364 395 426 458 492 526 562 598 27 21 35 50 66 83 101 120 141 162 185 208 233 259 285 313 342 372 402 434 467 501 536 572 608 646 28 22 36 51 67 85 104 123 144 166 189 213 238 264 292 320 349 379 410 443 476 510 545 582 619 657 697 29 23 37 53 69 87 106 127 148 170 194 218 243 270 298 326 356 386 418 451 484 519 555 592 629 668 708 749 30 23 38 54 71 89 109 130 151 174 198 223 249 276 304 333 363 394 426 459 493 528 564 602 640 679 719 760 803 Wilcoxon-Rangsummentest Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .025) 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 3 6 7 7 8 8 9 9 10 10 11 11 12 12 13 13 4 10 11 12 13 14 14 15 16 17 18 19 20 21 21 22 23 5 17 18 20 21 22 23 24 26 27 28 29 30 32 33 34 6 26 27 29 31 32 34 35 37 38 40 42 43 45 46 7 36 38 40 42 44 46 48 50 52 54 56 58 60 8 49 51 53 55 58 60 62 65 67 70 72 74 9 62 65 68 71 73 76 79 82 84 87 90 10 78 81 84 88 91 94 97 100 103 107 11 96 99 103 106 110 113 117 121 124 12 115 119 123 127 131 135 139 143 13 136 141 145 150 154 158 163 14 160 164 169 174 179 183 15 184 190 195 200 205 16 211 217 222 228 17 240 246 252 18 270 277 19 303 95 96 Kapitel 2 Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .025; Fortsetzung) 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 20 14 24 35 48 62 77 93 110 128 147 167 188 210 234 258 283 309 337 21 14 25 37 50 64 79 95 113 131 151 171 193 216 239 264 290 316 344 373 22 15 26 38 51 66 81 98 116 135 155 176 198 221 245 270 296 323 351 381 411 23 15 27 39 53 68 84 101 119 139 159 180 203 226 251 276 303 330 359 388 419 451 24 16 27 40 54 70 86 104 122 142 163 185 207 231 256 282 309 337 366 396 427 459 492 25 16 28 42 56 72 89 107 126 146 167 189 212 237 262 288 316 344 373 404 435 468 501 536 26 17 29 43 58 74 91 109 129 149 171 193 217 242 268 294 322 351 381 412 444 476 510 545 581 27 17 30 44 59 76 93 112 132 153 175 198 222 247 273 300 329 358 388 419 452 485 519 555 591 628 28 18 31 45 61 78 96 115 135 156 179 202 227 252 279 307 335 365 396 427 460 494 528 564 601 639 678 29 19 32 47 63 80 98 118 138 160 183 207 232 258 285 313 342 372 403 435 468 502 538 574 611 649 688 729 30 19 33 48 64 82 101 121 142 164 187 211 236 263 290 319 348 379 410 443 476 511 547 583 621 660 699 740 782 Wilcoxon-Rangsummentest Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .01) 4 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 5 6 7 6 10 11 11 16 17 18 24 25 34 8 6 12 19 27 35 45 9 7 13 20 28 37 47 59 10 7 13 21 29 39 49 61 74 11 7 14 22 30 40 51 63 77 91 12 13 14 15 16 8 8 8 9 9 15 15 16 17 17 23 24 25 26 27 32 33 34 36 37 42 44 45 47 49 53 56 58 60 62 66 68 71 73 76 79 82 85 88 91 94 97 100 103 107 109 113 116 120 124 130 134 138 142 152 156 161 176 181 202 17 10 18 28 39 51 64 78 93 110 127 146 165 186 207 230 18 10 19 29 40 52 66 81 96 113 131 150 170 190 212 235 259 19 10 19 30 41 54 68 83 99 116 134 154 174 195 218 241 265 291 97 98 Kapitel 2 Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .01; Fortsetzung) 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 20 11 20 31 43 56 70 85 102 119 138 158 178 200 223 246 271 297 324 21 11 21 32 44 58 72 88 105 123 142 162 183 205 228 252 277 303 331 359 22 11 21 33 45 59 74 90 108 126 145 166 187 210 233 258 283 310 337 366 396 23 12 22 34 47 61 76 93 110 129 149 170 192 214 238 263 289 316 344 373 403 434 24 12 23 35 48 63 78 95 113 132 153 174 196 219 244 269 295 323 351 381 411 443 475 25 13 23 36 50 64 81 98 116 136 156 178 200 224 249 275 301 329 358 388 419 451 484 517 26 13 24 37 51 66 83 100 119 139 160 182 205 229 254 280 307 336 365 395 426 459 492 526 562 27 13 25 38 52 68 85 103 122 142 163 186 209 234 259 286 313 342 372 402 434 467 501 535 571 608 28 14 26 39 54 70 87 105 125 145 167 190 214 239 265 292 320 349 379 410 442 475 509 544 581 618 656 29 14 26 40 55 71 89 108 128 149 171 194 218 243 270 297 326 355 386 417 450 483 518 553 590 628 666 706 30 15 27 41 56 73 91 110 131 152 174 198 223 248 275 303 332 362 392 424 457 491 526 562 599 637 676 717 758 Wilcoxon-Rangsummentest Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .005) 4 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 5 6 7 8 10 10 11 15 16 16 17 23 24 25 32 34 43 9 6 11 18 26 35 45 56 10 6 12 19 27 37 47 58 71 11 6 12 20 28 38 49 61 73 87 12 13 14 15 7 7 7 8 13 13 14 15 21 22 22 23 30 31 32 33 40 41 43 44 51 53 54 56 63 65 67 69 76 79 81 84 90 93 96 99 105 109 112 115 125 129 133 147 151 171 16 8 15 24 34 46 58 72 86 102 119 136 155 175 196 17 8 16 25 36 47 60 74 89 105 122 140 159 180 201 223 18 8 16 26 37 49 62 76 92 108 125 144 163 184 206 228 252 19 9 17 27 38 50 64 78 94 111 129 148 168 189 210 234 258 283 99 100 Kapitel 2 Kritische Werte für den einseitigen Wilcoxon-Rangsummentest (α = .005; Fortsetzung) 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 20 9 18 28 39 52 66 81 97 114 132 151 172 193 215 239 263 289 315 21 9 18 29 40 53 68 83 99 117 136 155 176 198 220 244 269 295 322 349 22 10 19 29 42 55 70 85 102 120 139 159 180 202 225 249 275 301 328 356 386 23 10 19 30 43 57 71 88 105 123 142 163 184 207 230 255 280 307 335 363 393 424 24 10 20 31 44 58 73 90 107 126 146 166 188 211 235 260 286 313 341 370 400 431 464 25 11 20 32 45 60 75 92 110 129 149 170 192 216 240 265 292 319 348 377 408 439 472 505 26 11 21 33 46 61 77 94 113 132 152 174 197 220 245 271 298 325 354 384 415 447 480 514 549 27 11 22 34 48 63 79 97 115 135 156 178 201 225 250 276 303 332 361 391 422 455 488 522 558 594 28 11 22 35 49 64 81 99 118 138 159 182 205 229 255 281 309 338 367 398 430 462 496 531 567 604 641 29 12 23 36 50 66 83 101 121 141 163 185 209 234 260 287 315 344 374 405 437 470 504 540 576 613 651 690 30 12 23 37 51 68 85 103 123 144 166 189 213 239 265 292 321 350 380 412 444 478 513 548 585 622 661 701 741