Stochastik Vorlesung 20 Rainer Schüssler Frühjahr 2017 Merkenswertes aus Vorlesung 19 • Abhängigkeitstests • lineare Korrelation bei N t-Test • Rangkorrelation allgemein approx. Gauß-Test • Kontingenztafel, große SP χ2 -Test • 4-Felder-Tafel Fisher-Exakt-Test Stochastik 2017, Vorlesung 20: 2 / 48 Eine weitere Klasse von Tests sind die Anpassungstests. Stochastik 2017, Vorlesung 20: 3 / 48 Verteilungsannahme & Wirklichkeit 7000 6000 5000 4000 DAX-Schlusskurs 8000 DAX 2009 und 2010 — tägliche Schlusskurse 2009 Jan 2009 Jul 2010 Jan 2010 Jul 2011 Jan Handelstag Stochastik 2017, Vorlesung 20: 4 / 48 Verteilungsannahme & Wirklichkeit DAX 2009 und 2010 — tägliche Schlusskurse und Rendite DAXi = Schlusskurs am Tag i , R̃i = DAXi − DAXi−1 DAXi−1 — tägliche relative Änderung = b tägliche Rendite , Ri = ln DAXi − ln DAXi−1 — tägliche log-Rendite ≈ R̃i für DAXi − DAXi−1 DAXi−1 . Stochastik 2017, Vorlesung 20: 5 / 48 Verteilungsannahme & Wirklichkeit -0.02 0 0.02 0.04 Rendite EWMA (λ = 0.05) -0.06 tägliche log-Rendite DAX 0.06 DAX 2009 — tägliche Rendite 2009 Jan 2009 Jul 2010 Jan 2010 Jul 2011 Jan Handelstag Stochastik 2017, Vorlesung 20: 6 / 48 Verteilungsannahme & Wirklichkeit DAX (Apr – Nov 2009) — tägliche Rendite 15 5 10 Daten N (µ, σ 2 ) 0 Dichte 20 25 Histogramm -0.06 -0.04 -0.02 0 0.02 0.04 0.06 Rendite Stochastik 2017, Vorlesung 20: 7 / 48 Verteilungsannahme & Wirklichkeit DAX (Apr – Nov 2009) — tägliche Rendite 15 5 10 Daten N (µ, σ 2 ) 0 Dichte 20 25 Histogramm -0.06 -0.04 -0.02 0 0.02 0.04 0.06 Rendite Stochastik 2017, Vorlesung 20: 8 / 48 Verteilungsannahme & Wirklichkeit DAX (Apr – Nov 2009) — tägliche Rendite 0.6 0.4 0.2 Daten N (µ, σ 2 ) 0 F(Rendite) 0.8 1 Verteilungsfunktion -0.04 -0.02 0 0.02 0.04 0.06 Rendite Stochastik 2017, Vorlesung 20: 9 / 48 Verteilungsannahme & Wirklichkeit Anpassungstests (engl. goodness-of-fit tests) x1 , . . . , xn sei Realisierung einer unabhängigen Zufallsstichprobe X1 , . . . , Xn mit Xi ∼ F für alle i = 1, . . . , n Stochastik 2017, Vorlesung 20: 10 / 48 Verteilungsannahme & Wirklichkeit Anpassungstests (engl. goodness-of-fit tests) x1 , . . . , xn sei Realisierung einer unabhängigen Zufallsstichprobe X1 , . . . , Xn mit Xi ∼ F für alle i = 1, . . . , n Testproblem H0 : F = F 0 ↔ H1 : F 6= F0 Dabei ist F0 eine bekannte Verteilungsfunktion. Stochastik 2017, Vorlesung 20: 10 / 48 Anpassungstests Der Test von Kolmogoroff-Smirnoff Idee: Vergleiche F mit F0 , d. h. betrachte F (x ) − F0 (x ) . Stochastik 2017, Vorlesung 20: 11 / 48 Anpassungstests Der Test von Kolmogoroff-Smirnoff Idee: Vergleiche F mit F0 , d. h. betrachte F (x ) − F0 (x ) . Da F unbekannt ist, schätzt man F durch die empirische Verteilungsfunktion F̂n . Stochastik 2017, Vorlesung 20: 11 / 48 Anpassungstests Der Test von Kolmogoroff-Smirnoff Idee: Vergleiche F mit F0 , d. h. betrachte F (x ) − F0 (x ) . Da F unbekannt ist, schätzt man F durch die empirische Verteilungsfunktion F̂n . F̂n (x ) = relative Anzahl von Beobachtungen, die kleiner oder gleich x sind. Stochastik 2017, Vorlesung 20: 11 / 48 Anpassungstests Der Test von Kolmogoroff-Smirnoff Idee: Vergleiche F mit F0 , d. h. betrachte F (x ) − F0 (x ) . Da F unbekannt ist, schätzt man F durch die empirische Verteilungsfunktion F̂n . F̂n (x ) = relative Anzahl von Beobachtungen, die kleiner oder gleich x sind. Entscheidung: Ist F̂n (x ) − F0 (x ) > c für ein x ∈ R, so wird H0 abgelehnt. Stochastik 2017, Vorlesung 20: 11 / 48 Anpassungstests Der Test von Kolmogoroff-Smirnoff Idee: Vergleiche F mit F0 , d. h. betrachte F (x ) − F0 (x ) . Da F unbekannt ist, schätzt man F durch die empirische Verteilungsfunktion F̂n . F̂n (x ) = relative Anzahl von Beobachtungen, die kleiner oder gleich x sind. Entscheidung: Ist F̂n (x ) − F0 (x ) > c für ein x ∈ R, so wird H0 abgelehnt. Dies ist äquivalent zu sup F̂n (x ) − F0 (x ) > c . x ∈R Stochastik 2017, Vorlesung 20: 11 / 48 Anpassungstests Der Test von Kolmogoroff-Smirnoff Idee: Vergleiche F mit F0 , d. h. betrachte F (x ) − F0 (x ) . Da F unbekannt ist, schätzt man F durch die empirische Verteilungsfunktion F̂n . F̂n (x ) = relative Anzahl von Beobachtungen, die kleiner oder gleich x sind. Entscheidung: Ist F̂n (x ) − F0 (x ) > c für ein x ∈ R, so wird H0 abgelehnt. Dies ist äquivalent zu sup F̂n (x ) − F0 (x ) > c . x ∈R Prüfgröße: D = sup F̂n (x ) − F0 (x ) x ∈R Stochastik 2017, Vorlesung 20: 11 / 48 Der Test von Kolmogoroff-Smirnoff Verteilung von D unter H0 Prüfgröße: D = sup F̂n (x ) − F0 (x ) x ∈R Die Verteilung von D unter H0 ist tabelliert. Stochastik 2017, Vorlesung 20: 12 / 48 Der Test von Kolmogoroff-Smirnoff Verteilung von D unter H0 Prüfgröße: D = sup F̂n (x ) − F0 (x ) x ∈R Die Verteilung von D unter H0 ist tabelliert. Sie hängt nicht von F0 ab, wenn F0 stetig ist! Stochastik 2017, Vorlesung 20: 12 / 48 Der Test von Kolmogoroff-Smirnoff Verteilung von D unter H0 Prüfgröße: D = sup F̂n (x ) − F0 (x ) x ∈R Die Verteilung von D unter H0 ist tabelliert. Sie hängt nicht von F0 ab, wenn F0 stetig ist! c wird als (1 − α)-Quantil der Verteilung tabelliert. Stochastik 2017, Vorlesung 20: 12 / 48 Der Test von Kolmogoroff-Smirnoff Verteilung von D unter H0 Prüfgröße: D = sup F̂n (x ) − F0 (x ) x ∈R Die Verteilung von D unter H0 ist tabelliert. Sie hängt nicht von F0 ab, wenn F0 stetig ist! c wird als (1 − α)-Quantil der Verteilung tabelliert. Geschichtliches: (für stetige Zufallsvariablen) 1 Kolmogoroff bewies 1933 (Einstichprobenfall): lim PF0 n→∞ x D< √ n = ∞ X (−1)j e −2j 2 2 x . x >0 j=−∞ Stochastik 2017, Vorlesung 20: 12 / 48 Der Test von Kolmogoroff-Smirnoff Verteilung von D unter H0 Prüfgröße: D = sup F̂n (x ) − F0 (x ) x ∈R Die Verteilung von D unter H0 ist tabelliert. Sie hängt nicht von F0 ab, wenn F0 stetig ist! c wird als (1 − α)-Quantil der Verteilung tabelliert. Geschichtliches: (für stetige Zufallsvariablen) 1 Kolmogoroff bewies 1933 (Einstichprobenfall): lim PF0 n→∞ x D< √ n = ∞ X (−1)j e −2j 2 2 x . x >0 j=−∞ 2 Gliwenko/Cantelli zeigten 1933, dass PF0 lim D = 0 = 1 . n→∞ Stochastik 2017, Vorlesung 20: 12 / 48 Der Test von Kolmogoroff-Smirnoff Verteilung von D unter H0 Prüfgröße: D = sup F̂n (x ) − F0 (x ) x ∈R Die Verteilung von D unter H0 ist tabelliert. Sie hängt nicht von F0 ab, wenn F0 stetig ist! c wird als (1 − α)-Quantil der Verteilung tabelliert. Geschichtliches: (für stetige Zufallsvariablen) 1 Kolmogoroff bewies 1933 (Einstichprobenfall): lim PF0 n→∞ x D< √ n = ∞ X (−1)j e −2j 2 2 x . x >0 j=−∞ 2 Gliwenko/Cantelli zeigten 1933, dass PF0 lim D = 0 = 1 . n→∞ 3 Smirnoff übertrug 1 1939 auf zwei empirische Verteilungsfunktionen (Zweistichprobenfall). Stochastik 2017, Vorlesung 20: 12 / 48 Der Test von Kolmogoroff-Smirnoff Praktische Berechnung von D — Bild 0.6 0.4 0.2 Daten N (µ, σ 2 ) 0 F(Rendite) 0.8 1 Verteilungsfunktion -0.04 -0.02 0 0.02 0.04 0.06 Rendite Stochastik 2017, Vorlesung 20: 13 / 48 Der Test von Kolmogoroff-Smirnoff Praktische Berechnung von D — Bild F̂n (x157 ) F̂n (x156 ) 0.92 F̂n (x) F0 (x) F0 (x157 ) F0 (x156 ) F0 (x155 ) F̂n (x155 ) F̂n (x154 ) 0.91 F(Rendite) 0.93 F̂n (x158 ) 0.023 0.0235 0.024 0.0245 0.025 Rendite Stochastik 2017, Vorlesung 20: 14 / 48 Der Test von Kolmogoroff-Smirnoff Praktische Berechnung von D — Formeln Es sei F0 stetig und x1 ≤ x2 ≤ . . . ≤ xn . Dann ist D = max 1≤i≤n n o F̂n (xi ) − F0 (xi ), F0 (xi ) − F̂n (xi−1 ) , wobei F̂n (x0 ) := 0. Stochastik 2017, Vorlesung 20: 15 / 48 Der Test von Kolmogoroff-Smirnoff Kritische Werte c1−α α = P Fehler 1. Art kritischer Wert c1−α ⇒ Testentscheidung: Teststatistik D > c1−α n 1 2 3 4 5 0.2 0.900 0.684 0.565 0.493 0.447 0.1 0.950 0.776 0.636 0.565 0.509 0.08 0.960 0.800 0.658 0.585 0.527 . .. 39 40 Approx. für > 40 α 0.05 0.975 0.842 0.708 0.624 0.563 H0 wird verworfen! 0.04 0.980 0.859 0.729 0.641 0.580 0.02 0.990 0.900 0.785 0.689 0.627 0.01 0.995 0.929 0.829 0.734 0.669 0.219 0.216 1.40 √ n 0.238 0.235 1.52 √ n 0.255 0.252 1.63 √ n . .. 0.168 0.165 1.07 √ n 0.191 0.189 1.22 √ n 0.199 0.196 1.27 √ n 0.213 0.210 1.36 √ n Stochastik 2017, Vorlesung 20: 16 / 48 Der Test von Kolmogoroff-Smirnoff Beispiel N Test auf Standardnormalverteilung (F0 = Φ) Stochastik 2017, Vorlesung 20: 17 / 48 Der Test von Kolmogoroff-Smirnoff Beispiel N Test auf Standardnormalverteilung (F0 = Φ) Stichprobe: x1 = −1.0, x2 = 0.5, x3 = 0.5, x4 = 1.5 Stochastik 2017, Vorlesung 20: 17 / 48 Der Test von Kolmogoroff-Smirnoff Beispiel N Test auf Standardnormalverteilung (F0 = Φ) Stichprobe: x1 = −1.0, x2 = 0.5, x3 = 0.5, x4 = 1.5 xi F̂n (xi ) Φ(xi ) F̂n (xi−1 ) maxi -1.0 0.25 0.159 0 0.159 0.5 0.5 0.691 0.25 0.441 0.5 0.75 0.691 0.5 0.191 1.5 1 0.933 0.75 0.183 d = 0.441 Stochastik 2017, Vorlesung 20: 17 / 48 Der Test von Kolmogoroff-Smirnoff Beispiel N Test auf Standardnormalverteilung (F0 = Φ) Stichprobe: x1 = −1.0, x2 = 0.5, x3 = 0.5, x4 = 1.5 xi F̂n (xi ) Φ(xi ) F̂n (xi−1 ) maxi -1.0 0.25 0.159 0 0.159 0.5 0.5 0.691 0.25 0.441 0.5 0.75 0.691 0.5 0.191 1.5 1 0.933 0.75 0.183 d = 0.441 Für α = 0.1 ist c0.9 = 0.565. (appr. p-Wert = 0.4167) Stochastik 2017, Vorlesung 20: 17 / 48 Der Test von Kolmogoroff-Smirnoff Beispiel N Test auf Standardnormalverteilung (F0 = Φ) Stichprobe: x1 = −1.0, x2 = 0.5, x3 = 0.5, x4 = 1.5 xi F̂n (xi ) Φ(xi ) F̂n (xi−1 ) maxi -1.0 0.25 0.159 0 0.159 0.5 0.5 0.691 0.25 0.441 0.5 0.75 0.691 0.5 0.191 1.5 1 0.933 0.75 0.183 d = 0.441 Für α = 0.1 ist c0.9 = 0.565. (appr. p-Wert = 0.4167) Wegen d ≤ c0.9 wird H0 : F = Φ nicht abgelehnt. Stochastik 2017, Vorlesung 20: 17 / 48 Der Test von Kolmogoroff-Smirnoff DAX (Apr – Nov 2009) — tägliche Rendite 0.6 0.4 0.2 Daten N (µ, σ 2 ) 0 F(Rendite) 0.8 1 Verteilungsfunktion -0.04 -0.02 0 0.02 0.04 0.06 Rendite Stochastik 2017, Vorlesung 20: 18 / 48 Der Test von Kolmogoroff-Smirnoff DAX (Apr – Nov 2009) — tägliche Rendite µ̂ = x̄ = 0.0019 , σ̂ = s = 0.0160 , H0 : X ∼ N (µ̂, σ̂ 2 ) ↔ H1 : X 6∼ N (µ̂, σ̂ 2 ) , · − µ̂ · − µ̂ H0 : F (·) = Φ ↔ H1 : F (·) 6= Φ . σ̂ σ̂ # „geschummelt“, da µ̂ und σ̂ aus denselben Daten ermittelt. Stochastik 2017, Vorlesung 20: 19 / 48 Kolmogoroff-Smirnoff-Test mit DAX (Apr – Nov 2009) — tägliche Rendite ECDF <- ecdf(DAX$DAX.RETURN) # emp. Verteilungsfunktion (VF) xbar <- mean(DAX$DAX.RETURN) s <- sd(DAX$DAX.RETURN) CDF <- function(x) pnorm(x, mean=xbar, sd=s) # theor. VF xi <- knots(ECDF) # x_(i) Spalte1 <- max( ECDF(xi) - CDF(xi) ) Spalte2 <- max( CDF(xi) - c(0, ECDF(xi[-length(xi)])) ) max(Spalte1, Spalte2) 0.04151987 F̂n (xi ) − F0 (xi ), F0 (xi ) − F̂n (xi−1 ) , 1≤i≤n √ n = 169 , α = 0.05 c1−α = 1.36/ 169 ≈ 0.1046 . D = max Stochastik 2017, Vorlesung 20: 20 / 48 Kolmogoroff-Smirnoff-Test mit II DAX (Apr – Nov 2009) — tägliche Rendite xbar <- mean(DAX$DAX.RETURN) s <- sd(DAX$DAX.RETURN) CDF <- function(x) pnorm(x, mean=xbar, sd=s) # theor. VF ks.test(DAX$DAX.RETURN, CDF) One-sample Kolmogorov-Smirnov test data: DAX$DAX.RETURN D = 0.0415, p-value = 0.9327 alternative hypothesis: two-sided D ≈ 0.0415, c1−α ≈ 0.1046 . Stochastik 2017, Vorlesung 20: 21 / 48 Kolmogoroff-Smirnoff-Test mit III DAX (Apr – Nov 2009) — tägliche Rendite library(nortest) # Kollektion von Tests auf Normalverteilung lillie.test(DAX$DAX.RETURN) Lilliefors (Kolmogorov-Smirnov) normality test data: DAX$DAX.RETURN D = 0.0415, p-value = 0.678 Der Lilliefors-Test ist eine Modifikation des KS-Tests bei unspezifizierter Normalverteilung (Konstruktion von D wie gehabt, während c1−α angepasst wird). Hubert Lilliefors (1967), On the Kolmogorov–Smirnov test for normality with mean and variance unknown, Journal of the American Statistical Association, Vol. 62. pp. 399–402. Stochastik 2017, Vorlesung 20: 22 / 48 Verteilungsannahme & Wirklichkeit DAX (Apr – Nov 2009) — tägliche Rendite 15 5 10 Daten N (µ, σ 2 ) 0 Dichte 20 25 Histogramm -0.06 -0.04 -0.02 0 0.02 0.04 0.06 Rendite Stochastik 2017, Vorlesung 20: 23 / 48 Anpassungstests 2 χ -Anpassungstest von Pearson Bequemeres Beispiel: Symmetrie eines Würfels Stochastik 2017, Vorlesung 20: 24 / 48 Anpassungstests 2 χ -Anpassungstest von Pearson Bequemeres Beispiel: Symmetrie eines Würfels Ergebnis von 120 Würfen: 1 24 2 12 3 15 4 25 5 16 Stochastik 2017, Vorlesung 20: 6 28 24 / 48 Anpassungstests 2 χ -Anpassungstest von Pearson Bequemeres Beispiel: Symmetrie eines Würfels Ergebnis von 120 Würfen: 1 24 2 12 3 15 4 25 5 16 6 28 Testproblem: H0 : P(X = i) = 1 1 für i = 1, . . . , 6 ↔ H1 : P(X = i) 6= für ein i 6 6 Stochastik 2017, Vorlesung 20: 24 / 48 Anpassungstests 2 χ -Anpassungstest von Pearson Bequemeres Beispiel: Symmetrie eines Würfels Ergebnis von 120 Würfen: 1 24 2 12 3 15 4 25 5 16 6 28 Testproblem: H0 : P(X = i) = 1 1 für i = 1, . . . , 6 ↔ H1 : P(X = i) 6= für ein i 6 6 Strategie: Vergleiche die beobachteten Anzahlen der jeweiligen Augenzahl mit der (theoretisch) erwarteten Anzahl (hier: 120 · 1/6 = 20) Stochastik 2017, Vorlesung 20: 24 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein X nehme r verschiedene Werte t1 , . . . , tr an. Stochastik 2017, Vorlesung 20: 25 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein X nehme r verschiedene Werte t1 , . . . , tr an. Die unterstellten Wahrscheinlichkeiten P(X = t1 ) bis P(X = tr ) seien p1 , . . . , pr . Stochastik 2017, Vorlesung 20: 25 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein X nehme r verschiedene Werte t1 , . . . , tr an. Die unterstellten Wahrscheinlichkeiten P(X = t1 ) bis P(X = tr ) seien p1 , . . . , pr . Testproblem: H0 : P(X = ti ) = pi für i = 1, . . . , r ↔ H1 : P(X = ti ) 6= pi für ein i Stochastik 2017, Vorlesung 20: 25 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein X nehme r verschiedene Werte t1 , . . . , tr an. Die unterstellten Wahrscheinlichkeiten P(X = t1 ) bis P(X = tr ) seien p1 , . . . , pr . Testproblem: H0 : P(X = ti ) = pi für i = 1, . . . , r ↔ H1 : P(X = ti ) 6= pi für ein i Si gebe die Anzahl der Beobachtungen an, die gleich ti sind. Stochastik 2017, Vorlesung 20: 25 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein X nehme r verschiedene Werte t1 , . . . , tr an. Die unterstellten Wahrscheinlichkeiten P(X = t1 ) bis P(X = tr ) seien p1 , . . . , pr . Testproblem: H0 : P(X = ti ) = pi für i = 1, . . . , r ↔ H1 : P(X = ti ) 6= pi für ein i Si gebe die Anzahl der Beobachtungen an, die gleich ti sind. Die erwartete Anzahl (unter H0 ) ist gleich npi . Stochastik 2017, Vorlesung 20: 25 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein X nehme r verschiedene Werte t1 , . . . , tr an. Die unterstellten Wahrscheinlichkeiten P(X = t1 ) bis P(X = tr ) seien p1 , . . . , pr . Testproblem: H0 : P(X = ti ) = pi für i = 1, . . . , r ↔ H1 : P(X = ti ) 6= pi für ein i Si gebe die Anzahl der Beobachtungen an, die gleich ti sind. Die erwartete Anzahl (unter H0 ) ist gleich npi . 2 r X Si − npi Prüfgröße: T = npi i=1 Stochastik 2017, Vorlesung 20: 25 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein X nehme r verschiedene Werte t1 , . . . , tr an. Die unterstellten Wahrscheinlichkeiten P(X = t1 ) bis P(X = tr ) seien p1 , . . . , pr . Testproblem: H0 : P(X = ti ) = pi für i = 1, . . . , r ↔ H1 : P(X = ti ) 6= pi für ein i Si gebe die Anzahl der Beobachtungen an, die gleich ti sind. Die erwartete Anzahl (unter H0 ) ist gleich npi . 2 r X Si − npi Prüfgröße: T = npi i=1 Es gilt unter der Nullhypothese (Stichprobenumfang n): lim P T ≤ x = Fχ2r −1 (x ) , n→∞ wobei Fχ2 (x ) die Verteilungsfunktion einer χ2 -Verteilung r −1 mit r − 1 Freiheitsgraden bezeichne. Stochastik 2017, Vorlesung 20: 25 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein und Beispiel Schluss: Ist T > χ2r −1;1−α , so wird H0 abgelehnt. Stochastik 2017, Vorlesung 20: 26 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein und Beispiel Schluss: Ist T > χ2r −1;1−α , so wird H0 abgelehnt. Beachte: Damit die asymptotische Verteilungsannahme gerechtfertigt ist, sollte npi ≥ 5 (unter H0 ) für alle i gelten. Stochastik 2017, Vorlesung 20: 26 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein und Beispiel Schluss: Ist T > χ2r −1;1−α , so wird H0 abgelehnt. Beachte: Damit die asymptotische Verteilungsannahme gerechtfertigt ist, sollte npi ≥ 5 (unter H0 ) für alle i gelten. Bemerkung: Im Gegensatz zum Test von Kolmogoroff-S. kann dieses Verfahren auch zur Überprüfung diskreter Verteilungen angewendet werden. Stochastik 2017, Vorlesung 20: 26 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein und Beispiel Schluss: Ist T > χ2r −1;1−α , so wird H0 abgelehnt. Beachte: Damit die asymptotische Verteilungsannahme gerechtfertigt ist, sollte npi ≥ 5 (unter H0 ) für alle i gelten. Bemerkung: Im Gegensatz zum Test von Kolmogoroff-S. kann dieses Verfahren auch zur Überprüfung diskreter Verteilungen angewendet werden. Beispiel: Symmetrie eines Würfels → 1 2 3 4 5 6 Σ 24 12 15 25 16 28 120 Stochastik 2017, Vorlesung 20: 26 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein und Beispiel Schluss: Ist T > χ2r −1;1−α , so wird H0 abgelehnt. Beachte: Damit die asymptotische Verteilungsannahme gerechtfertigt ist, sollte npi ≥ 5 (unter H0 ) für alle i gelten. Bemerkung: Im Gegensatz zum Test von Kolmogoroff-S. kann dieses Verfahren auch zur Überprüfung diskreter Verteilungen angewendet werden. Beispiel: Symmetrie eines Würfels → 1 2 3 4 5 6 Σ 24 12 15 25 16 28 120 Es ist t = 16/20+64/20+25/20+25/20+16/20+64/20 = 210/20 = 10.5 . Stochastik 2017, Vorlesung 20: 26 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein und Beispiel Schluss: Ist T > χ2r −1;1−α , so wird H0 abgelehnt. Beachte: Damit die asymptotische Verteilungsannahme gerechtfertigt ist, sollte npi ≥ 5 (unter H0 ) für alle i gelten. Bemerkung: Im Gegensatz zum Test von Kolmogoroff-S. kann dieses Verfahren auch zur Überprüfung diskreter Verteilungen angewendet werden. Beispiel: Symmetrie eines Würfels → 1 2 3 4 5 6 Σ 24 12 15 25 16 28 120 Es ist t = 16/20+64/20+25/20+25/20+16/20+64/20 = 210/20 = 10.5 . Für α = 0.1 ist χ25;0.9 = 9.236, also kleiner als t (appr. p-Wert = 0.062). Stochastik 2017, Vorlesung 20: 26 / 48 χ2 -Anpassungstest von Pearson Testdesign allgemein und Beispiel Schluss: Ist T > χ2r −1;1−α , so wird H0 abgelehnt. Beachte: Damit die asymptotische Verteilungsannahme gerechtfertigt ist, sollte npi ≥ 5 (unter H0 ) für alle i gelten. Bemerkung: Im Gegensatz zum Test von Kolmogoroff-S. kann dieses Verfahren auch zur Überprüfung diskreter Verteilungen angewendet werden. Beispiel: Symmetrie eines Würfels → 1 2 3 4 5 6 Σ 24 12 15 25 16 28 120 Es ist t = 16/20+64/20+25/20+25/20+16/20+64/20 = 210/20 = 10.5 . Für α = 0.1 ist χ25;0.9 = 9.236, also kleiner als t (appr. p-Wert = 0.062). Damit wird H0 abgelehnt ⇒ der Würfel ist nicht symmetrisch. Stochastik 2017, Vorlesung 20: 26 / 48 χ2 -Anpassungstest von Pearson DAX (Apr – Nov 2009) — tägliche Rendite 15 5 10 Daten N (µ, σ 2 ) 0 Dichte 20 25 Histogramm -0.06 -0.04 -0.02 0 0.02 0.04 0.06 Rendite Stochastik 2017, Vorlesung 20: 27 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen Testproblem: H0 : F = F0 ↔ H1 : F 6= F0 Stochastik 2017, Vorlesung 20: 28 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen Testproblem: H0 : F = F0 ↔ H1 : F 6= F0 Idee: Zerlege den Wertebereich von X in r disjunkte Klassen K1 , . . . , Kr . Stochastik 2017, Vorlesung 20: 28 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen Testproblem: H0 : F = F0 ↔ H1 : F 6= F0 Idee: Zerlege den Wertebereich von X in r disjunkte Klassen K1 , . . . , Kr . Unter H0 sei pi = P(X ∈ Ki ) > 0 , i = 1, . . . , r . Si sei die Anzahl der Stichprobenelemente, die in der Klasse Ki liegen. Stochastik 2017, Vorlesung 20: 28 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen Testproblem: H0 : F = F0 ↔ H1 : F 6= F0 Idee: Zerlege den Wertebereich von X in r disjunkte Klassen K1 , . . . , Kr . Unter H0 sei pi = P(X ∈ Ki ) > 0 , i = 1, . . . , r . Si sei die Anzahl der Stichprobenelemente, die in der Klasse Ki liegen. r X Si − npi Prüfgröße: T = npi i=1 ... und unter H0 : 2 lim P T ≤ x = Fχ2r −1 (x ) . n→∞ Stochastik 2017, Vorlesung 20: 28 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen Testproblem: H0 : F = F0 ↔ H1 : F 6= F0 Idee: Zerlege den Wertebereich von X in r disjunkte Klassen K1 , . . . , Kr . Unter H0 sei pi = P(X ∈ Ki ) > 0 , i = 1, . . . , r . Si sei die Anzahl der Stichprobenelemente, die in der Klasse Ki liegen. r X Si − npi Prüfgröße: T = npi i=1 ... und unter H0 : 2 lim P T ≤ x = Fχ2r −1 (x ) . n→∞ Ist T > χ2r −1;1−α , so wird H0 abgelehnt. Stochastik 2017, Vorlesung 20: 28 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen — Bemerkungen 1 K1 , . . . , Kr dürfen nicht von den Daten abhängen. Stochastik 2017, Vorlesung 20: 29 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen — Bemerkungen 1 K1 , . . . , Kr dürfen nicht von den Daten abhängen. 2 Hängt die Verteilung F0 von l unbekannten Parametern ab, so werden diese (mittels der klassierten Daten!) geschätzt. Stochastik 2017, Vorlesung 20: 29 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen — Bemerkungen 1 K1 , . . . , Kr dürfen nicht von den Daten abhängen. 2 Hängt die Verteilung F0 von l unbekannten Parametern ab, so werden diese (mittels der klassierten Daten!) geschätzt. In der Prüfgröße wird pi durch p̂i ersetzt. Stochastik 2017, Vorlesung 20: 29 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen — Bemerkungen 1 K1 , . . . , Kr dürfen nicht von den Daten abhängen. 2 Hängt die Verteilung F0 von l unbekannten Parametern ab, so werden diese (mittels der klassierten Daten!) geschätzt. In der Prüfgröße wird pi durch p̂i ersetzt. Die asymptotische Verteilung der Teststatistik T unter H0 ist dann χ2r −1−l . Stochastik 2017, Vorlesung 20: 29 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen — Minibeispiel N , d. h. Φ Stichprobe: -1.2, -1.1, -0.6, -0.3, 0.2, 0.5, 0.8, 1.4 Stochastik 2017, Vorlesung 20: 30 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen — Minibeispiel N , d. h. Φ Stichprobe: -1.2, -1.1, -0.6, -0.3, 0.2, 0.5, 0.8, 1.4 Wählen K1 = (−∞, −1), K2 = [−1, 1], K3 = (1, ∞). Stochastik 2017, Vorlesung 20: 30 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen — Minibeispiel N , d. h. Φ Stichprobe: -1.2, -1.1, -0.6, -0.3, 0.2, 0.5, 0.8, 1.4 Wählen K1 = (−∞, −1), K2 = [−1, 1], K3 = (1, ∞). Dann ist unter der Nullypothese (F = F0 = Φ) p1 = 0.1587 p2 = 0.8413 − 0.1587 = 0.6826 p3 = 0.1587 = Φ(−1) , = Φ(1) − Φ(−1) , = 1 − Φ(1) . Stochastik 2017, Vorlesung 20: 30 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen — Minibeispiel N , d. h. Φ Stichprobe: -1.2, -1.1, -0.6, -0.3, 0.2, 0.5, 0.8, 1.4 Wählen K1 = (−∞, −1), K2 = [−1, 1], K3 = (1, ∞). Dann ist unter der Nullypothese (F = F0 = Φ) p1 = 0.1587 p2 = 0.8413 − 0.1587 = 0.6826 p3 = 0.1587 = Φ(−1) , = Φ(1) − Φ(−1) , = 1 − Φ(1) . Man erhält wegen S1 = 2, S2 = 5, S3 = 1 und n = 8 sowie r = 3 t= (2 − 8 · 0.1587)2 (5 − 8 · 0.6826)2 (1 − 8 · 0.1587)2 + + = 0.5163 . 8 · 0.1587 8 · 0.6826 8 · 0.1587 Stochastik 2017, Vorlesung 20: 30 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen — Minibeispiel N , d. h. Φ Stichprobe: -1.2, -1.1, -0.6, -0.3, 0.2, 0.5, 0.8, 1.4 Wählen K1 = (−∞, −1), K2 = [−1, 1], K3 = (1, ∞). Dann ist unter der Nullypothese (F = F0 = Φ) p1 = 0.1587 p2 = 0.8413 − 0.1587 = 0.6826 p3 = 0.1587 = Φ(−1) , = Φ(1) − Φ(−1) , = 1 − Φ(1) . Man erhält wegen S1 = 2, S2 = 5, S3 = 1 und n = 8 sowie r = 3 t= (2 − 8 · 0.1587)2 (5 − 8 · 0.6826)2 (1 − 8 · 0.1587)2 + + = 0.5163 . 8 · 0.1587 8 · 0.6826 8 · 0.1587 Für α = 0.1 ist χ22;0.9 = 4.605. Damit wird H0 nicht abgelehnt. Stochastik 2017, Vorlesung 20: 30 / 48 χ2 -Anpassungstest von Pearson Erweiterung auf stetige Verteilungen — „echte“ Daten 15 5 10 Daten N (µ, σ 2 ) 0 Dichte 20 25 Histogramm -0.06 -0.04 -0.02 0 0.02 0.04 0.06 Rendite Stochastik 2017, Vorlesung 20: 31 / 48 χ2 -Anpassungstest von Pearson mit DAX (Apr – Nov 2009) — tägliche Rendite HIST <- hist(RETURN, plot=FALSE) S <- HIST$counts # beobachtete Klassenhäufigkeiten # erwartete Klassenhäufigkeiten MU <- mean(RETURN); SIGMA <- sd(RETURN) np0 <- nrow(DAX)*(pnorm(HIST$breaks[-1], mean=MU, sd=SIGMA) pnorm(HIST$breaks[-(S+1)], mean=MU, sd=SIGMA) ) T <- sum( (S - np0)^2/np0 ) alpha <- 0.05 q.alpha <- qchisq(1-alpha, length(S)-1) q2.alpha <- qchisq(1-alpha, length(S)-1-2) print(data.frame(T, q.alpha, q2.alpha)) T q.alpha q2.alpha 1 7.335129 18.30704 15.50731 Stochastik 2017, Vorlesung 20: 32 / 48 χ2 -Anpassungstest von Pearson mit II DAX (Apr – Nov 2009) — tägliche Rendite pearson.test(RETURN, n.classes=length(S)) # length(S) = 11 Pearson chi-square normality test data: RETURN P = 4.2012, p-value = 0.8385 Bemerkung: pearson.test wählt die (hier 11) Klassen so aus, dass sie unter H0 dieselbe Wahrscheinlichkeit haben, d. h. p1 = p2 = . . . = pr . Stochastik 2017, Vorlesung 20: 33 / 48 Verteilungsannahme & Wirklichkeit Quantil-Quantil-Plot Vor.: geordnete (Zufalls)Stichprobe X(1) , . . . , X(n) Stochastik 2017, Vorlesung 20: 34 / 48 Verteilungsannahme & Wirklichkeit Quantil-Quantil-Plot Vor.: geordnete (Zufalls)Stichprobe X(1) , . . . , X(n) Vermuten Verteilungsfunktion FX (x ). Sei F0 (y ) die zugehörige Basisverteilungsfunktion, d. h. E (Y ) = 0 sowie Var (Y ) = 1 und FX (x ) = F0 (x − µ)/σ . Stochastik 2017, Vorlesung 20: 34 / 48 Verteilungsannahme & Wirklichkeit Quantil-Quantil-Plot Vor.: geordnete (Zufalls)Stichprobe X(1) , . . . , X(n) Vermuten Verteilungsfunktion FX (x ). Sei F0 (y ) die zugehörige Basisverteilungsfunktion, d. h. E (Y ) = 0 sowie Var (Y ) = 1 und FX (x ) = F0 (x − µ)/σ . Vergleiche x(i) mit E (Y(i) ) für alle i (E (·) bzgl. F0 (·)) Stochastik 2017, Vorlesung 20: 34 / 48 Verteilungsannahme & Wirklichkeit Quantil-Quantil-Plot Vor.: geordnete (Zufalls)Stichprobe X(1) , . . . , X(n) Vermuten Verteilungsfunktion FX (x ). Sei F0 (y ) die zugehörige Basisverteilungsfunktion, d. h. E (Y ) = 0 sowie Var (Y ) = 1 und FX (x ) = F0 (x − µ)/σ . Vergleiche x(i) mit E (Y(i) ) für alle i Approximation: E (Y(i) ) ≈ F0−1 (i − 0.5)/n (E (·) bzgl. F0 (·)) Stochastik 2017, Vorlesung 20: 34 / 48 Verteilungsannahme & Wirklichkeit Quantil-Quantil-Plot Vor.: geordnete (Zufalls)Stichprobe X(1) , . . . , X(n) Vermuten Verteilungsfunktion FX (x ). Sei F0 (y ) die zugehörige Basisverteilungsfunktion, d. h. E (Y ) = 0 sowie Var (Y ) = 1 und FX (x ) = F0 (x − µ)/σ . Vergleiche x(i) mit E (Y(i) ) für alle i Approximation: E (Y(i) ) ≈ F0−1 (i − 0.5)/n (E (·) bzgl. F0 (·)) bzw. Kollektion von Quantilen, wie z. B. die 9 Dezile x̃0.1 , . . . , x̃0.9 und Vergleich mit F0−1 (0.1), . . . , F0−1 (0.9) usw. Stochastik 2017, Vorlesung 20: 34 / 48 Quantil-Quantil-Plot 0 -0.02 -0.04 -0.06 x(i) 0.02 0.04 0.06 DAX (Apr – Nov 2009) — tägliche Rendite -3 -2 -1 E(Y(i) ) ≈ 0 F0−1 1 (i − 0.5)/n 2 3 Stochastik 2017, Vorlesung 20: 35 / 48 Quantil-Quantil-Plot mit DAX (Apr – Nov 2009) — tägliche Rendite 0.04 0.06 Normal Q-Q Plot 0.02 0 zeigt x(i) vs. E (Y(i) ) qqline() -0.02 fügt Linie bei 6= Regressionsgerade. -0.04 Sample Quantiles qqnormal() -2 -1 0 1 2 Theoretical Quantiles Stochastik 2017, Vorlesung 20: 36 / 48 Shapiro-Wilk-Test Test auf N mit dem Quantil-Quantil-Plot Vor.: geordnete (Zufalls)Stichprobe X(1) , . . . , X(n) Hypothesen: H0 : X ∼ N (µ, σ 2 ) ↔ ·−µ H0 : F (·) = Φ σ H1 : X 6∼ N (µ, σ 2 ) , ·−µ H1 : F (·) 6= Φ σ ↔ Stochastik 2017, Vorlesung 20: . 37 / 48 Shapiro-Wilk-Test Test auf N mit dem Quantil-Quantil-Plot Vor.: geordnete (Zufalls)Stichprobe X(1) , . . . , X(n) Hypothesen: H0 : X ∼ N (µ, σ 2 ) ↔ ·−µ H0 : F (·) = Φ σ Bez.: Y(i) = X(i) −µ σ H1 : X 6∼ N (µ, σ 2 ) , ·−µ H1 : F (·) 6= Φ σ ↔ . und mi = E (Y(i) ) , i = 1, . . . , n Stochastik 2017, Vorlesung 20: 37 / 48 Shapiro-Wilk-Test Test auf N mit dem Quantil-Quantil-Plot Vor.: geordnete (Zufalls)Stichprobe X(1) , . . . , X(n) Hypothesen: H0 : X ∼ N (µ, σ 2 ) ↔ ·−µ H0 : F (·) = Φ σ Bez.: Y(i) = X(i) −µ σ H1 : X 6∼ N (µ, σ 2 ) , ·−µ H1 : F (·) 6= Φ σ ↔ . und mi = E (Y(i) ) , i = 1, . . . , n Approximation: mi ≈ Φ−1 (pi ) mit pi = i−3/8 n+1/4 i−0.5 n , kleine n , große n Stochastik 2017, Vorlesung 20: 37 / 48 Shapiro-Wilk-Test Test auf N mit dem Quantil-Quantil-Plot Vor.: geordnete (Zufalls)Stichprobe X(1) , . . . , X(n) Hypothesen: H0 : X ∼ N (µ, σ 2 ) ↔ ·−µ H0 : F (·) = Φ σ Bez.: Y(i) = X(i) −µ σ H1 : X 6∼ N (µ, σ 2 ) , ·−µ H1 : F (·) 6= Φ σ ↔ . und mi = E (Y(i) ) , i = 1, . . . , n Approximation: mi ≈ Φ−1 (pi ) mit pi = i−3/8 n+1/4 i−0.5 n , kleine n , große n Unter H0 ist X(i) ≈ µ + σ · mi . Stochastik 2017, Vorlesung 20: 37 / 48 Shapiro-Wilk-Test etwas „ordentlicher“ Geordnete Stichprobe z1 < z2 < . . . < zn aus Φ . Stochastik 2017, Vorlesung 20: 38 / 48 Shapiro-Wilk-Test etwas „ordentlicher“ Geordnete Stichprobe z1 < z2 < . . . < zn aus Φ . mi = E (zi ) — Erwartungswert der i-ten „Ordnungsstatistik“ . Stochastik 2017, Vorlesung 20: 38 / 48 Shapiro-Wilk-Test etwas „ordentlicher“ Geordnete Stichprobe z1 < z2 < . . . < zn aus Φ . mi = E (zi ) — Erwartungswert der i-ten „Ordnungsstatistik“ . Für X ∼ N (µ, σ 2 ) ist X(i) ≈ µ + σmi . Stochastik 2017, Vorlesung 20: 38 / 48 Shapiro-Wilk-Test etwas „ordentlicher“ Geordnete Stichprobe z1 < z2 < . . . < zn aus Φ . mi = E (zi ) — Erwartungswert der i-ten „Ordnungsstatistik“ . Für X ∼ N (µ, σ 2 ) ist X(i) ≈ µ + σmi . vij = Cov (zi , zj ) — Kovarianz , Stochastik 2017, Vorlesung 20: 38 / 48 Shapiro-Wilk-Test etwas „ordentlicher“ Geordnete Stichprobe z1 < z2 < . . . < zn aus Φ . mi = E (zi ) — Erwartungswert der i-ten „Ordnungsstatistik“ . Für X ∼ N (µ, σ 2 ) ist X(i) ≈ µ + σmi . vij = Cov (zi , zj ) — Kovarianz , v11 . . . v1n m1 X(1) .. , m = .. , X = .. . .. V = ... . . . . vn1 . . . vnn mn X(n) Stochastik 2017, Vorlesung 20: 38 / 48 Shapiro-Wilk-Test etwas „ordentlicher“ II X(i) ≈ µ + σmi . Stochastik 2017, Vorlesung 20: 39 / 48 Shapiro-Wilk-Test etwas „ordentlicher“ II X(i) ≈ µ + σmi . Verallgemeinerte MKQ-Schätzung: µ̂ = X̄ , σ̂ = (m̄ = 0 & zi sind korreliert) m0 V−1 X , m0 V−1 m Stochastik 2017, Vorlesung 20: 39 / 48 Shapiro-Wilk-Test etwas „ordentlicher“ II X(i) ≈ µ + σmi . Verallgemeinerte MKQ-Schätzung: µ̂ = X̄ , σ̂ = (m̄ = 0 & zi sind korreliert) m0 V−1 X , m0 V−1 m a1 . Hilfsgrößen a = .. = an m0 V−1 m0 V−1 V−1 m 1/2 , Stochastik 2017, Vorlesung 20: 39 / 48 Shapiro-Wilk-Test etwas „ordentlicher“ II X(i) ≈ µ + σmi . Verallgemeinerte MKQ-Schätzung: (m̄ = 0 & zi sind korreliert) µ̂ = X̄ , σ̂ = m0 V−1 X , m0 V−1 m a1 . Hilfsgrößen a = .. = an n X Teststatistik W = m0 V−1 m0 V−1 V−1 m !2 ai X(i) i=1 n X 1/2 , X(i) − X̄ ≈ 2 σ̂ 2 S2 . i=1 Stochastik 2017, Vorlesung 20: 39 / 48 Shapiro-Wilk-Test etwas „ordentlicher“ II X(i) ≈ µ + σmi . Verallgemeinerte MKQ-Schätzung: (m̄ = 0 & zi sind korreliert) µ̂ = X̄ , σ̂ = m0 V−1 X , m0 V−1 m a1 . Hilfsgrößen a = .. = an n X Teststatistik W = m0 V−1 m0 V−1 V−1 m !2 ai X(i) i=1 n X 1/2 , ≈ X(i) − X̄ 2 σ̂ 2 S2 . i=1 kritischer Bereich (0, wα ) W < wα ⇒ H0 ist zu verwerfen. Stochastik 2017, Vorlesung 20: 39 / 48 Shapiro-Wilk-Test mit DAX (Apr – Nov 2009) — tägliche Rendite 0.06 Normal Q-Q Plot 0 0.02 shapiro.test(RETURN) -0.02 Shapiro-Wilk normality test -0.04 Sample Quantiles 0.04 qqnorm(RETURN) qqline(RETURN) -2 -1 0 1 2 data: RETURN W = 0.9927, p-value = 0.5489 Theoretical Quantiles Stochastik 2017, Vorlesung 20: 40 / 48 Shapiro-Wilk-Test Warum der Aufwand? • Funktioniert „prächtig“ für kleine bis mittlere Stichproben — gute Macht, d. h. lehnt auch mal ab. • Wird häufig benutzt. • Ebenso häufig implementiert: shapiro.test(x) Excel –- SPSS [Analysieren->NP Tests->S-W] STATA swilk • Shapiro/Wilk (1965) An analysis of variance test for normality (complete samples), Biometrika 52, 591-611. Stochastik 2017, Vorlesung 20: 41 / 48 Shapiro-Wilk-Test Warum der Aufwand? • Funktioniert „prächtig“ für kleine bis mittlere Stichproben — gute Macht, d. h. lehnt auch mal ab. • Wird häufig benutzt. • Ebenso häufig implementiert: shapiro.test(x) Excel –- SPSS [Analysieren->NP Tests->S-W] STATA swilk • Shapiro/Wilk (1965) An analysis of variance test for normality (complete samples), Biometrika 52, 591-611. • Wird nicht geprüft! Stochastik 2017, Vorlesung 20: 41 / 48 DAX-Rendite 04/2009 — 11/2009 hist(x, prob=TRUE) 15 10 5 0 Density 20 25 Histogram of x -0.06 -0.04 -0.02 0 0.02 0.04 0.06 x Stochastik 2017, Vorlesung 20: 42 / 48 DAX-Rendite 04/2009 — 11/2009 hist(x, prob=TRUE) + ... 15 10 5 0 Density 20 25 Histogram of x -0.06 -0.04 -0.02 0 0.02 0.04 0.06 x Stochastik 2017, Vorlesung 20: 43 / 48 DAX-Rendite 04/2009 — 11/2009 plot(density(x)) + ... 15 10 5 0 Density 20 25 density.default(x = x) -0.06 -0.04 -0.02 0 0.02 0.04 0.06 N = 169 Bandwidth = 0.004778 Stochastik 2017, Vorlesung 20: 44 / 48 DAX-Rendite 04/2009 — 11/2009 plot(ecdf(x)) + ... 0.6 0.4 0.2 0 Fn(x) 0.8 1 ecdf(x) -0.04 -0.02 0 0.02 0.04 0.06 x Stochastik 2017, Vorlesung 20: 45 / 48 DAX-Rendite 04/2009 — 11/2009 qqnorm(x) + qqline(x) 0.02 0 -0.02 -0.04 Sample Quantiles 0.04 0.06 Normal Q-Q Plot -2 -1 0 1 2 Theoretical Quantiles Stochastik 2017, Vorlesung 20: 46 / 48 DAX-Rendite 04/2009 — 11/2009 test battery — Aufruf shapiro.test(x) library(nortest) lillie.test(x) pearson.test(x) ad.test(x) cvm.test(x) Stochastik 2017, Vorlesung 20: 47 / 48 DAX-Rendite 04/2009 — 11/2009 test battery — Resultate Shapiro-Wilk normality test W = 0.9927, p-value = 0.5489 Lilliefors (Kolmogorov-Smirnov) normality test D = 0.0415, p-value = 0.678 Pearson chi-square normality test P = 7, p-value = 0.9022 Anderson-Darling normality test A = 0.2471, p-value = 0.7505 Cramer-von Mises normality test W = 0.0349, p-value = 0.7712 Stochastik 2017, Vorlesung 20: 48 / 48