Institut für Statistik, LMU München Fahrmeir, Lang, Jerak, Schmid, Walter, Fenske Statistik III für Studenten mit dem Wahlfach Statistik Formelsammlung zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Stand: 12.02.2010 Diese Formelsammlung darf in der Klausur verwendet werden. Sie darf auf den bedruckten Seiten durch handschriftliche Notizen und Formeln ergänzt werden. Es dürfen keine leeren Rückseiten beschriftet und keine zusätzlichen Blätter eingeheftet werden. Inhaltsverzeichnis 1 Matrixalgebra 1.1 Reelle Matrizen . . . . . . . . . . . . . . . . . 1.2 Rechenoperationen mit Matrizen . . . . . . . 1.3 Lineare Unabhängigkeit, Rang, Determinante, 1.4 Quadratische Form und definite Matrizen . . . . . . 2 2 3 4 5 . . . . 6 6 6 7 9 3 Schätzen und Testen 3.1 Parameterschätzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Testen linearer Hypothesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 10 12 4 Regressionsanalyse 4.1 Lineare Einfachregression . . . . . . . . . . . 4.2 Multiple lineare Regression . . . . . . . . . . 4.3 Polynomsplines . . . . . . . . . . . . . . . . . 4.4 Regression bei binären Daten und Zähldaten . . . . 13 13 14 19 20 5 Verteilungstabellen 5.1 Standardnormalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Students t-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 χ2 -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 22 23 24 . . . . . . . . . . . . . . . . Inverse, Spur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Mehrdimensionale Zufallsvariablen 2.1 Zufallsvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Unabhängigkeit, Kovarianz und Korrelation bei zwei Zufallsvariablen 2.3 Erwartungswertvektor, Kovarianz- und Korrelationsmatrix . . . . . . 2.4 Mehrdimensionale Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 MATRIXALGEBRA 1 2 Matrixalgebra 1.1 Reelle Matrizen Reelle Matrix Ein nach m Zeilen und n Spalten geordnetes Schema A von m · n a11 a12 · · · a1n .. .. .. . . . A= . . .. .. .. . am1 am2 · · · amn Elementen aij ∈ IR heißt reelle Matrix von der Ordnung m × n oder kurz (m × n)-Matrix. Kurzschreibweise: A = (aij ), i = 1, . . . , m, j = 1, . . . , n. Transponierte Matrix Sei A = (aij ) eine (m × n)-Matrix. Dann ist die transponierte Matrix AT definiert als diejenige Matrix, die man durch das Vertauschen der Zeilen und Spalten von A erhält, d.h. a11 a21 · · · am1 .. .. . . T A = .. .. . . a1n a2n · · · amn Sie ist also von der Ordnung n × m. Bezeichnungen • Eine (n × n)-Matrix A heißt quadratisch. • Eine quadratische Matrix A mit AT = A heißt symmetrisch. • Eine quadratische Matrix D, bei der alle Elemente außerhalb der Hauptdiagonalen gleich Null sind, heißt Diagonalmatrix. • Eine Diagonalmatrix, bei der alle Elemente der Hauptdiagonalen gleich Eins sind, heißt Einheitsmatrix I. • Die Spalten der Einheitsmatrix heißen Einheitsvektoren. 1 MATRIXALGEBRA 1.2 3 Rechenoperationen mit Matrizen Summe und skalare Multiplikation von Matrizen Die Summe A + B zweier (m × n)-Matrizen A = (aij ) und B = (bij ) ist definiert als: A + B := (aij + bij ). Die Multiplikation von A mit einem Skalar λ ∈ IR ist definiert als λA := (λaij ). Matrixmultiplikation Das Produkt der (m × n)-Matrix A = (aij ) mit der (n × p)-Matrix B = (bij ) ist die (m × p)-Matrix AB = C = (cik ) mit cik = n X aij bjk . j=1 Ausführlich erhalten wir demnach n X n X a1j bj1 a1j bj2 · · · j=1 j=1 .. .. . . A·B= .. .. . n . n X X amj bj1 amj bj2 · · · j=1 j=1 n X a1j bjp .. . . .. . n X amj bjp j=1 j=1 Die Multiplikation eines Zeilenvektors mit einem Spaltenvektor heißt Skalarmultiplikation. Rechenregeln für Matrizen Seien A, B und C (n × m)-Matrizen. • A+B =B+A • (A + B) + C = A + (B + C) • (A + B)T = AT + BT Seien A, F (m × n)-Matrizen, B, G (n × r)-Matrizen, C eine (r × s)-Matrix, λ ∈ IR. • (AB) · C = A · (BC) • A · (λB) = λ(AB) • A(B + G) = AB + AG • (A + F )B = AB + F B • (AB)T = BT AT • Im Allgemeinen gilt nicht: AB = BA 1 MATRIXALGEBRA 1.3 4 Lineare Unabhängigkeit, Rang, Determinante, Inverse, Spur Lineare Unabhängigkeit Die Vektoren a1 , . . . , ak heißen linear unabhängig, falls aus λ1 a1 + . . . + λk ak = 0 stets folgt: λ1 = . . . = λk = 0. Rang Die Anzahl linear unabhängiger Zeilen bzw. Spalten einer Matrix A heißt Rang der Matrix A, kurz rg(A). Determinante Sei A eine (n × n)-Matrix und Mij die Teilmatrix von A, die man durch Streichen der i-ten Zeile und j-ten Spalte erhält. Dann ist die Determinante von A definiert als det(A) = n X (−1)i+j aij · det(Mij ) j=1 mit det(A) := a11 , falls A eine (1 × 1)-Matrix ist. Spezialfälle: • Für eine (2x2)–Matrix A gilt: det(A) = a11 a22 − a21 a12 • Für eine (3x3)–Matrix A gilt: det(A) = a11 a22 a33 + a12 a23 a31 + a13 a32 a21 − a31 a22 a13 − a21 a12 a33 − a11 a23 a32 Inverse Matrix Sei A eine quadratische Matrix. Die Matrix A−1 heißt Inverse zur Matrix A, falls gilt: AA−1 = A−1 A = I Satz Für jede (n × n)-Matrix A, für die rg(A) = n oder det(A) 6= 0 gilt, existiert eine eindeutige inverse Matrix A−1 . Die Matrix A heißt dann nicht-singulär oder invertierbar. Rechenregeln • (AB)−1 = B −1 A−1 −1 • A−1 =A −1 T = A−1 a b • Ist A = , dann ist A−1 = c d • AT 1 ad−bc d −b −c a . 1 MATRIXALGEBRA 5 Spur Sei A einePquadratische (n×n)-Matrix. Die Spur von A ist definiert als die Summe ihrer Diagonalelemente: sp(A) = ni=1 aii . 1.4 Quadratische Form und definite Matrizen Quadratische Form Sei A eine symmetrische (n × n)-Matrix. Eine quadratische Form Q(x) in einem Vektor x ∈ IR ist definiert durch: n n X X X Q(x) = xT Ax = aii x2i + 2 aij xi xj . i=1 i=1 j>i Definite Matrizen Die quadratische Form Q(x) = xT Ax und die symmetrische Matrix A heißen • positiv definit, falls xT Ax > 0 für alle x 6= 0. • positiv semidefinit, falls xT Ax ≥ 0 und xT Ax = 0 für mindestens ein x 6= 0. • nicht-negativ definit, falls xT Ax bzw. A entweder positiv oder positiv semidefinit ist. • negativ definit, falls −A positiv definit ist. • negativ semidefinit, falls −A positiv semidefinit ist. • indefinit in allen anderen Fällen. 2 MEHRDIMENSIONALE ZUFALLSVARIABLEN 2 6 Mehrdimensionale Zufallsvariablen 2.1 Zufallsvektoren Zufallsvektor und gemeinsame Dichte Der p-dimensionale Vektor x = (x1 , . . . , xp )T heißt Zufallsvektor einer p-dimensionalen Zufallsvariablen, wenn die Komponenten x1 , . . . , xp eindimensionale Zufallsvariablen sind. Der Zufallsvektor x heißt stetig, wenn es eine Funktion f (x) = f (x1 , . . . , xp ) ≥ 0 gibt, sodass Z bp P (a1 ≤ x1 ≤ b1 , . . . , ap ≤ xp ≤ bp ) = Z b1 f (x1 , . . . , xp )dx1 · · · dxp ... ap a1 Die Funktion f heißt gemeinsame Dichte von x1 , . . . , xp . Randverteilung Gegeben sei der p-dimensionale Zufallsvektor x = (x1 , . . . , xp )T und eine Partition von x in den p1 dimensionalen Vektor x1 und den p2 -dimensionalen Vektor x2 , d.h. x = (x1 , x2 )T . Dann heißt die p1 dimensionale Dichte bzw. Wahrscheinlichkeitsfunktion fx1 (x1 ) von x1 Randdichte bzw. Randwahrscheinlichkeitsfunktion von x1 . Sie ist bei stetigen Zufallsvariablen gegeben durch Z ∞ fx1 (x1 ) = f (x1 , x2 )dx2 −∞ und bei diskreten durch fx1 (x1 ) = X f (x1 , x2 ) . x2 Bedingte Verteilung Gegeben sei der p-dimensionale Zufallsvektor x = (x1 , . . . , xp )T und eine Partition von x in den p1 dimensionalen Vektor x1 und den p2 -dimensionalen Vektor x2 , d.h. x = (x1 , x2 )T . Dann ist die bedingte Dichte bzw. bedingte Wahrscheinlichkeitsfunktion von x1 bei fest vorgegebenem Wert x2 gegeben durch f (x1 |x2 ) = f (x1 , x2 ) fx2 (x2 ) falls f (x2 ) > 0 und 0 sonst. Die bedingte Dichte bzw. Wahrscheinlichkeitsfunktion von x2 gegeben x1 ist analog definiert. 2.2 Unabhängigkeit, Kovarianz und Korrelation bei zwei Zufallsvariablen Unabhängigkeit Zwei eindeimensionale Zufallsvariablen X und Y heißen unabhängig, wenn für alle x und y gilt f (x, y) = fX (x)fY (y) 2 MEHRDIMENSIONALE ZUFALLSVARIABLEN Kovarianz 7 XX f (xi , yj )(xi − E[X])(yj − E[Y ]) i j Cov(X, Y ) = Z∞ Z∞ f (x, y)(x − E[X])(y − E[Y ])dxdy (diskret) (stetig) −∞ −∞ Verschiebungssatz mit Cov(X, Y ) = E[X · Y ] − E[X] · E[Y ] XX f (xi , yj )xi yj (diskret) i j E[X · Y ] = Z∞ Z∞ xy f (x, y)dydx (stetig) −∞ −∞ Lineare Transformation Für die Zufallsvariablen X̃ = aX X + bX und Ỹ = aY Y + bY gilt Cov(X̃, Ỹ ) = aX aY Cov(X, Y ) Korrelationskoeffizient Cov(X, Y ) Cov(X, Y ) p = ρ = ρ(X, Y ) = p σX σY Var(X) Var(Y ) Unkorreliertheit Die Zufallsvariablen X und Y heißen unkorreliert, wenn gilt ρ(X, Y ) = 0 2.3 bzw. Cov(X, Y ) = 0 Erwartungswertvektor, Kovarianz- und Korrelationsmatrix Erwartungswertvektor Sei x = (x1 , . . . , xp )T ein p-dimensionaler Zufallsvektor. Dann heißt E(x) = µ = (µ1 , . . . , µp )T = (E(x1 ), . . . , E(xp ))T Erwartungswertvektor von x. 2 MEHRDIMENSIONALE ZUFALLSVARIABLEN 8 Kovarianzmatrix und Korrelationsmatrix Sei x = (x1 , . . . , xn )T ein p-dimensionaler Zufallsvektor mit Erwartungswertvektor µ. Sei σij = Cov(xi , xj ), i 6= j, die Kovarianz zwischen xi und xj sowie σi2 = σii = Var(xi ) die Varianz von xi . Dann heißt σ11 · · · σ1n h i .. Σ = Cov(x) = E (x − µ)(x − µ)T = ... . σn1 · · · σnn Kovarianzmatrix von x. Ist y = (y1 , . . . , ym )T ein weiterer Zufallsvektor mit E(y) = ν, so heißt die (n × m)-Matrix Cov(x , y ) · · · Cov(x , y ) 1 1 1 m h i .. .. Cov(x, y) = E (x − µ)(y − ν)T = . . Cov(xn , y1 ) · · · Cov(xn , ym ) Kovarianzmatrix von x und y. Mit den Korrelationen ρ(xi , xj ) = ρij := √ heißt P= 1 ρ12 .. . σij Cov(xi , xj ) =p σii σjj Var(xi )Var(xj ) ρ12 1 ··· .. . ρn1 ρn2 · · · ρ1n ρ2n .. . 1 Korrelationsmatrix von x. Rechenregeln und Eigenschaften Seien x und y Zufallsvektoren und A, B, a, b geeignet dimensionierte Matrizen bzw. Vektoren. Dann gilt: • E[x + y] = E[x] + E[y] • Cov(Ax + b) = A Cov(x) AT • E[Ax + b] = A E[x] + b • Cov(x, x) = Cov(x) • Cov(x) = E[xxT ] − µµT • Cov(x, y) = Cov(y, x)T • Var(aT x) = aT Cov(x)a = Pp i,j=1 ai aj σij • Cov(Ax + a, By + b) = A Cov(x, y) BT • Σ und P sind symmetrisch und (mindestens) positiv semidefinit. 2 MEHRDIMENSIONALE ZUFALLSVARIABLEN 2.4 9 Mehrdimensionale Normalverteilung Mehrdimensionale Normalverteilung Ein Zufallsvektor x = (x1 , . . . , xp )T heißt p-dimensional normalverteilt mit Erwartungsvektor µ und Kovarianzmatrix Σ, d.h. x ∼ Np (µ, Σ), falls die Dichte durch 1 − p2 − 21 T −1 f (x) = (2π) |Σ| exp − (x − µ) Σ (x − µ) 2 gegeben ist, wobei x ∈ IRp gilt und Σ positiv definit ist. Zerlegt man x in die q- bzw. r-dimensionalen Subvektoren y und z und partitioniert µ bzw. Σ gemäß µy Σy Σyz µ= Σ= µz Σzy Σz so gilt: (i) Für die Randverteilungen von y bzw. z erhält man y ∼ Nq (µy , Σy ) z ∼ Nr (µz , Σz ) (ii) Für die bedingte Verteilung von y|z ergibt sich y|z ∼ Nq (µy |z , Σy |z ) mit µy |z = µy + Σyz Σ−1 z (z − µz ) Σy |z = Σy − Σyz Σ−1 z Σzy Bivariate Normalverteilung Mit x = (x1 , x2 )T , σi2 = Var(xi ), ρ = ρ(x1 , x2 ) lautet die Dichte f (x1 , x2 ) = 2πσ1 σ2 1 p ( 1 · exp − 2 2(1 − ρ2 ) 1−ρ " x1 − µ 1 σ1 2 − 2ρ x1 − µ 1 σ1 x2 − µ 2 σ2 Die bedingte Verteilung von x2 |x1 ist dann eine Normalverteilung mit Mittelwert µx2 |x1 = µ2 + ρ σ2 (x1 − µ1 ) σ1 und Varianz σx22 |x1 = σ22 (1 − ρ2 ). + x2 − µ 2 σ2 2 #) . 3 SCHÄTZEN UND TESTEN 3 10 Schätzen und Testen 3.1 Parameterschätzung Eigenschaften von Schätzern • Ein Schätzer θ̂ heißt erwartungstreu für den Parametervektor θ, wenn gilt Eθ [θ̂] = θ • Ein Schätzer θ̂ heißt asymptotisch erwartungstreu für den Parametervektor θ, wenn gilt lim Eθ [θ̂] = θ n→∞ • Ein nicht erwartungstreuer Schätzer heißt verzerrt. Die Stärke der Verzerrung nennt man Bias: b(θ) = Eθ [θ̂] − θ • Ein Maß für die Güte einer Schätzung liefert die MSE–Matrix h i MSE(θ̂, θ) = E (θ̂ − θ)(θ̂ − θ)T = Cov(θ̂) + b(θ)b(θ)T , auf deren Diagonale die erwarteten quadratischen Fehler (MSE) i h MSE(θ̂i , θi ) = E (θ̂i − θi )2 = Var(θ̂i ) + bi (θi )2 für die Schätzung der i-ten Komponente θi stehen. Likelihood- und Log-Likelihood-Funktion Sei fi (xi |θ) die Wahrscheinlichkeitsfunktion bzw. Dichte von Xi gegeben θ = (θ1 , . . . , θp )T . Für n unabhängige Beobachtungen x1 , . . . , xn heißt • Likelihoodfunktion: L(θ) = f (x1 , . . . , xn |θ) = n Y fi (xi |θ) i=1 • Log-Likelihoodfunktion: l(θ) = ln L(θ) = ln ( n Y i=1 ) fi (xi |θ) = n X ln {fi (xi |θ)} i=1 Maximum-Likelihood-Schätzung Der Maximum-Likelihood-Schätzer θ̂ ist dann die Lösung der Gleichung L(θ̂) = max L(θ) θ ⇔ ln L(θ̂) = max{ln L(θ)} θ und wird ermittelt durch das Berechnen der Nullstellen der ersten Ableitung der (Log–)Likelihoodfunktion. 3 SCHÄTZEN UND TESTEN 11 Scorefunktion, Informationsmatrizen • Der Vektor der ersten Ableitungen von l(θ) heißt Scorefunktion: s(θ) = ∂l(θ) = ∂θ ∂l(θ) ∂l(θ) ,..., θ1 θp T • Die Matrix der negativen zweiten Ableitungen von l(θ) heißt beobachtete Informationsmatrix: ∂ 2 l(θ) ∂ 2 l(θ) = − = − F obs (θ) = − ∂θi ∂θj ∂θ∂θT ∂ 2 l(θ ) ∂θ1 ∂θ1 .. . ··· .. . ∂ 2 l(θ ) ∂θp ∂θ1 ··· ∂ 2 l(θ ) ∂θ1 ∂θp .. . ∂ 2 l(θ ) ∂θp ∂θp • Der Erwartungswert der beobachteten Informationsmatrix heißt erwartete Informationsmatrix oder Fisher-Informationsmatrix: 2 2 ∂ l(θ ) ∂ l(θ ) E ∂θ · · · E ∂θ1 ∂θp 1 ∂θ1 . .. . .. .. F (θ) = Cov(s(θ)) = E[F obs (θ)] = − 2 2. ∂ l(θ ) ∂ l(θ ) E ∂θ · · · E ∂θ p ∂θ1 p ∂θp Asymptotische Eigenschaften des ML-Schätzers Unter schwachen Regularitätsbedingungen gelten folgende asymptotische Eigenschaften, also für n → ∞: a d θ̂)) θ̂ ∼ N(θ, Cov( d θ̂) als Inverse der beobachteten oder erwarteten Informationsmatrix an der Stelle des wobei man Cov( ML-Schätzers erhält: d θ̂) = F −1 (θ̂) Cov( obs bzw. d θ̂) = F −1 (θ̂) Cov( 3 SCHÄTZEN UND TESTEN 3.2 12 Testen linearer Hypothesen Lineare Hypothesen Hypothesen über einen p-dimensionalen Parametervektor θ = (θ1 , . . . , θj , . . . , θp )T besitzen häufig die lineare Form H0 : Cθ = d H1 : Cθ 6= d wobei d ein vorgegebener, r-dimensionaler Vektor (r < p) und C eine r × p Matrix mit Rang r ist. Likelihood–Quotienten–Test LQ–Statistik λ = −2 l(θ̃) − l(θ̂) mit θ̃ θ̂ l(θ̃) l(θ̂) ↔ ↔ ↔ ↔ ML–Schätzer für θ unter Restriktion H0 : Cθ = d ML–Schätzer für θ ohne Restriktion maximale log–Likelihood unter Restriktion H0 : Cθ = d maximale log–Likelihood ohne Restriktion Wald–Test Wald–Statistik i−1 h (C θ̂ − d) w = (C θ̂ − d)T C V̂ CT mit θ̂ V̂ = F −1 (θ̂) F (θ̂) ↔ ↔ ↔ ML–Schätzer für θ ohne Restriktion d θ̂) von θ̂ geschätzte Kovarianzmatrix Cov( erwartete Informationsmatrix Sonderfall: H0 : θj = 0 =⇒ 2 θ̂j = quadrierter “t–Wert” Tj w = q Var(θ̂j ) Score-Test Score–Statistik u = sT (θ̃)Ṽ −1 s(θ̃) mit θ̃ s(θ̃) Ṽ = F −1 (θ̃) F (θ̃) ↔ ↔ ↔ ↔ ML–Schätzer für θ unter Restriktion H0 : Cθ = d Score–Funktion unter Restriktion H0 : Cθ = d d θ̂) von θ̃ geschätzte Kovarianzmatrix Cov( erwartete Informationsmatrix Asymptotische Verteilung/Ablehnbereich Für n → ∞ gilt approximativ λ, w, u ∼ χ2 (r) d.h. H0 kann zum Niveau α abgelehnt werden, falls λ, w, u > χ21−α (r) 4 REGRESSIONSANALYSE 4 13 Regressionsanalyse 4.1 Lineare Einfachregression Variablen y x metrische abhängige Variable, Zielgröße, Response metrische unabhängige Variable, Einflussgröße, Kovariable Regressionsansatz yi = f (xi ) + εi = β0 + β1 xi + εi Bezeichnungen • Geschätzte Regressionsgerade: ŷi = β̂0 + β̂1 xi • Regressionskoeffizienten: β̂0 und β̂1 • Residuen: ε̂i = yi − ŷi = yi − (β̂0 + β̂1 xi ) Normalverteilungsannahme εi ∼ N(0, σ 2 ) yi ∼ N(β0 + β1 xi , σ 2 ) ⇔ für i = 1, . . . , n Kleinste-Quadrate-Schätzer n P β̂0 = ȳ − β̂1 x̄ , β̂1 = n P (xi − x̄)(yi − ȳ) i=1 n P = (xi − x̄)2 i=1 xi yi − nx̄ȳ i=1 n P i=1 x2i − nx̄2 Schätzer für die Varianz σ 2 n n i=1 i=1 2 1 X 2 1 X σ̂ = yi − (β̂0 + β̂1 xi ) ε̂i = n−2 n−2 2 Verteilung der geschätzten Regressionskoeffizienten β̂0 ∼ N(β0 , σβ̂2 ) 0 mit Var(β̂0 ) = σβ̂2 0 P 2 P 2 xi x 2 P 2 i 2 =σ P =σ 2 n (xi − x̄) n( xi − nx̄ ) 2 σ2 σ2 P β̂1 ∼ N(β1 , σβ̂2 ) mit Var(β̂1 ) = σβ̂2 = P = 1 1 (xi − x̄)2 x2i − nx̄2 Verteilung der standardisierten Schätzfunktionen qP qP 2 x x2i i β̂0 − β0 ∼ t(n − 2) mit σ̂β̂0 = σ̂ p P = σ̂ q P σ̂β̂0 n (xi − x̄)2 n( x2 − nx̄2 ) i β̂1 − β1 σ̂ σ̂ ∼ t(n − 2) mit σ̂β̂1 = pP = qP 2 σ̂β̂1 (xi − x̄) x2i − nx̄2 4 REGRESSIONSANALYSE 14 (1 − α)-Konfidenzintervalle für β0 und β1 h i für β0 : β̂0 − σ̂β̂0 t1− α2 (n − 2), β̂0 + σ̂β̂0 t1− α2 (n − 2) h i für β1 : β̂1 − σ̂β̂1 t1− α2 (n − 2), β̂1 + σ̂β̂1 t1− α2 (n − 2) Teststatistiken Tβ̃0 = β̂0 − β̃0 σ̂β̂0 und Tβ̃1 = β̂1 − β̃1 σ̂β̂1 Hypothesen und Ablehnbereiche Hypothesen Ablehnbereich H0 : β0 = β̃0 H0 : β1 = β̃1 vs. vs. H1 : β0 = 6 β̃0 H1 : β1 = 6 β̃1 |Tβ̃0 | > t1− α2 (n − 2) |Tβ̃1 | > t1− α2 (n − 2) H0 : β0 ≥ β̃0 H0 : β1 ≥ β̃1 vs. vs. H1 : β0 < β̃0 H1 : β1 < β̃1 Tβ̃0 < −t1−α (n − 2) Tβ̃1 < −t1−α (n − 2) H0 : β0 ≤ β̃0 H0 : β1 ≤ β̃1 vs. vs. H1 : β0 > β̃0 H1 : β1 > β̃1 Tβ̃0 > t1−α (n − 2) Tβ̃1 > t1−α (n − 2) Prognose ŷ0 = β̂0 + β̂1 x0 Konfidenzintervall für y0 s " ŷ0 − t1− α2 (n − 2)σ̂ 4.2 1 (x0 − x̄)2 , ŷ0 + t1− α2 (n − 2)σ̂ 1+ + P 2 n xi − nx̄2 s 1 (x0 − x̄)2 1+ + P 2 n xi − nx̄2 # Multiple lineare Regression Regressionsansatz yi = β0 + β1 xi1 + β2 xi2 + . . . + βk xik + εi für i = 1, . . . , n Normalverteilungsannahme εi ∼ N(0, σ 2 ) ⇔ yi ∼ N (β0 + β1 xi1 + . . . + βk xik , σ 2 ) für i = 1, . . . , n Modellierung nichtlinearer Zusammenhänge durch Variablentransformation Besitzt die metrische Kovariable z den nichtlinearen Einfluss β1 g(z) mit bekannter Transformation g, so kann das Modell yi = β0 + β1 g(zi ) + β2 xi2 + . . . + βk xik + εi durch Definition der Variable xi1 = g(zi ) − ḡ in ein gewöhnliches multiples Regressionsmodell yi = β0 + β1 xi1 + β2 xi2 + . . . + βk xik + εi P überführt werden, wobei gilt: ḡ = n1 ni=1 g(zi ). 4 REGRESSIONSANALYSE 15 Modellierung nichtlinearer Zusammenhänge durch Polynome Besitzt die metrische Kovariable z einen polynomialen Einfluss β1 z + β2 z 2 + . . . + βl z l , so kann das Modell yi = β0 + β1 zi + β2 zi2 + . . . + βl zil + βl+1 xil+1 + . . . + εi durch Definition der Variablen xi1 = zi , xi2 = zi2 , . . . , xil = zil in ein gewöhnliches multiples Regressionsmodell yi = β0 + β1 xi1 + β2 xi2 + . . . + βl xil + βl+1 xil+1 + . . . + εi überführt werden. Kodierung kategorialer Kovariablen Zur Modellierung des Effekts einer kategorialen Kovariablen x mit K Kategorien, also x ∈ {1, . . . , K}, werden K − 1 Dummyvariablen x(1) , . . . , x(K−1) definiert, mit der Referenzkategorie K ergibt sich: • in Dummy-Kodierung: x(k) ( 1 falls Kategorie k mit k = 1, . . . , K − 1 vorliegt = 0 sonst • in Effekt-Kodierung: x(k) 1 falls Kategorie k mit k = 1, . . . , K − 1 vorliegt = −1 falls Kategorie K vorliegt 0 sonst Das Regressionsmodell lautet dann: yi = β0 + β(1) xi(1) + +β(2) xi(2) + . . . + β(K−1) xi(K−1) + εi Verteilung der standardisierten Schätzfunktionen β̂j − βj ∼ t(n − p) , σ̂j j = 0, . . . , k (1 − α)-Konfidenzintervalle für βj i h β̂j − σ̂j t1− α2 (n − p), β̂j + σ̂j t1− α2 (n − p) Teststatistiken Tj = β̂j − β̃j , σ̂j j = 0, . . . , k Hypothesen und Ablehnbereiche Hypothesen Ablehnbereich H0 : βj = β̃j vs. H1 : βj 6= β̃j |Tj | > t1− α2 (n − p) H0 : βj ≥ β̃j vs. H1 : βj < β̃j Tj < −t1−α (n − p) H0 : βj ≤ β̃j vs. H1 : βj > β̃j Tj > t1−α (n − p) 4 REGRESSIONSANALYSE 16 Quadratsummenzerlegung n X (yi − ȳ)2 = |i=1 {z SST SST SSR SSE (SST otal): (SSRegression): (SSE rror): } n X (ŷi − ȳ)2 + |i=1 {z = SSR } n X (yi − ŷi )2 |i=1 {z + SSE } Gesamtabweichungsquadratsumme in y-Richtung Durch die Regression erklärter Teil von SST Trotz der Regression unerklärt bleibender Teil von SST F–Test • Hypothesen H0 : Cβ = d vs. H1 : Cβ 6= d wobei d einen r-dimensionaler Vektor mit r < p und C eine r × p Matrix mit Rang r bezeichnet • Teststatistik F = mit SSE SSEH0 w 1 r (SSEH0 − SSE) 1 n−p SSE = w r Fehlerquadratsumme unter H1 Fehlerquadratsumme unter H0 Teststatistik des Wald-Tests (siehe S.12) • Ablehnbereich F > F1−α (r, n − p) Overall–F–Test • Hypothesen H0 : β1 = . . . = βk = 0 H1 : βj 6= 0 für mindestens ein j = 1, . . . , k • Teststatistik F = R2 n − p SSR n − p = 2 1−R k SSE k • Ablehnbereich F > F1−α (k, n − p) 4 REGRESSIONSANALYSE 17 Modellwahlkriterien • Bestimmtheitsmaß R2 = Berechnung: n P R2 = SSR SSE =1− SST SST n P (ŷi − ȳ)2 i=1 n P = (yi − ȳ)2 i=1 i=1 n P i=1 • Korrigiertes Bestimmtheitsmaß 2 Radj =1− ŷi2 − nȳ 2 yi2 − nȳ 2 n−1 (1 − R2 ) n−p • Informationskriterium nach Akaike (AIC) AIC = −2 l(β̂, σ̂ 2 ) + 2(p + 1) Multiple lineare Regression in Matrixnotation • Regressionsansatz: y = Xβ + ε mit der Annahme E(ε) = 0 0 .. . und 0 y= y1 y2 .. . , X= yn 1 x11 · · · 1 x21 · · · .. .. . . 1 xn1 · · · x1p x2p .. . , β= xnp β0 β1 .. . βk , ε= ε1 ε2 .. . εn • KQ-Schätzer für β: Aus dem KQ-Ansatz (y − Xβ)T (y − Xβ) → min β ergibt sich durch Nullsetzen der ersten Ableitung nach β und, falls XT X invertierbar ist, anschließendem Lösen des resultierenden Gleichungssystems der KQ-Schätzer β̂ = (XT X)−1 XT y • Varianz der Schätzer β̂j : Mit den Diagonalelementen vj der Matrix (XT X)−1 erhält man für bekanntes σ 2 als Varianz von β̂j σj2 = Var(β̂j ) = σ 2 vj bzw. für unbekanntes σ 2 die geschätzte Varianz von β̂j gemäß σ̂j2 = σ̂ 2 vj 4 REGRESSIONSANALYSE 18 SPSS-Output einer multiplen linearen Regression ANOVA MQ SQ df Regression SSR dfR = k = p − 1 M QR = Residuen SSE dfE = n − p M QE = Gesamt SST dfT = n − 1 Modell 1 (Konstante) X1 X2 . . . F SSR dfR SSE dfE F0 = M QR M QE Koeffizientena Nicht standardisierte Koeffizienten B Standardfehler β̂0 σ̂0 σ̂1 β̂1 β̂2 σ̂2 . . . . . . Xp a Abhängige Variable: Y σ̂p β̂p Sig. P (F > F0 ) T T0 T1 T2 . . . Sig. P (T ≥ |T0 |) P (T ≥ |T1 |) P (T ≥ |T2 |) . . . Tp P (T ≥ |Tp |) Die Koeffiziententabelle enthält die geschätzten Regressionskoeffizienten (Spalte B), die zugehörigen Standardfehler sowie die die T - und p-Werte für das folgende Testproblem: H0 : βj = 0 vs. H1 : βj 6= 0 Dabei ist in der Tabelle • T der Wert der t-Statistik, d.h. Tj = • Sig. der zugehörige p-Wert β̂j σ̂j für j = 0, . . . , k 4 REGRESSIONSANALYSE 4.3 19 Polynomsplines Definition Eine Funktion g : [a, b] → IR heißt Polynomspline vom Grad l ≥ 0 mit den Knoten a = κ1 < . . . < κm = b, wenn sie die folgenden Eigenschaften besitzt: 1. g(z) ist auf den durch die Knoten gebildeten Intervallen [κj , κj+1 ) ein Polynom vom Grad l. 2. g(z) ist (l − 1)-mal stetig differenzierbar. Darstellung mit Basisfunktionen Ein Polynomspline kann als Linearkombination g(z) = β0 B0 (z) + . . . + βl+m−2 Bl+m−2 (z) von Basisfunktionen B0 (z), . . . , Bl+m−2 (z) dargestellt werden. Bei gegebenen Basisfunktionen ist ein Polynomspline eindeutig durch die Koeffizienten β = (β0 , . . . , βl+m−2 )T bestimmt. Trunkierte Potenzreihen–Basis (TP-Basis) Unter Verwendung der trunkierten Potenzreihen–Basis gilt für einen Polynomspline l-ten Grades mit den Knoten κ1 , . . . , κm allgemein g(z) = l X βj z j + j=0 (z − βl+j−1 (z − κj )l+ j=2 wobei κj )l+ m−1 X = (z − κj )l falls z ≥ κj 0 falls z < κj Die Basisfunktionen lauten dann B0 (z) = 1, B1 (z) = z, . . . , Bl (z) = z l , Bl+1 (z) = (z − κ2 )l+ , . . . , Bl+m−2 (z) = (z − κm−1 )l+ Spezialfälle der TP-Basis: l=1 B0 (z) = 1 l=2 B0 (z) = 1 l=3 B0 (z) = 1 B1 (z) = z B1 (z) = z B1 (z) = z B2 (z) = (z − κ2 )+ B2 (z) = z 2 B2 (z) = z 2 B3 (z) = (z − κ2 )2+ B3 (z) = z 3 .. . Bm−1 (z) = (z − κm−1 )+ .. . Bm (z) = (z − κm−1 )2+ B4 (z) = (z − κ2 )3+ .. . Bm+1 (z) = (z − κm−1 )3+ 4 REGRESSIONSANALYSE 4.4 20 Regression bei binären Daten und Zähldaten Binäre Daten • Datensituation Die binären Zielvariablen yi für i = 1, . . . , n nehmen Werte aus {0, 1} an und sind bei gegebenen Kovariablen xi = (xi1 , . . . , xik )T (bedingt) unabhängig. • Verteilungsannahme ind. yi ∼ B(1, πi ) wobei πi = P (yi = 1|xi1 , . . . , xik ) • Strukturannahme πi = h(ηi ) = h(β0 + β1 xi1 + . . . + βk xik ) = h(xTi β) Die Funktion h : IR → [0, 1] wird als Responsefunktion bezeichnet. Binäre Regressionsmodelle • Logit-Modell exp(ηi ) πi = h(ηi ) = 1 + exp(ηi ) ⇔ πi = exp(ηi ) 1 − πi ⇔ ln πi 1 − πi = ηi = xiT β • Probit-Modell πi = h(ηi ) = Φ(ηi ) = Φ(xTi β) wobei Φ(·) die Verteilungsfunktion der N(0, 1)-Verteilung bezeichnet Weitere Begriffe • Chance (Odds) P (yi = 1|xi ) πi = 1 − πi P (yi = 0|xi ) • Chancenverhältnis (Odds Ratio) πi 1 − πi / 1 −πjπ = j P (yi = 1|xi ) P (yi = 0|xi ) (yj = 1|xj ) / PP (y = 0|x ) j j mit i 6= j 4 REGRESSIONSANALYSE 21 Poisson-Regression für Zähldaten • Datensituation Die Zielvariablen yi für i = 1, . . . , n nehmen Werte aus {0, 1, 2, . . .} an und sind bei gegebenen Kovariablen xi = (xi1 , . . . , xik )T (bedingt) unabhängig. • Verteilungsannahme yi ∼ Po(λi ) wobei λi = E(yi |xi ) = Var(yi |xi ) • Strukturannahme λi = exp(ηi ) = exp(β0 + β1 xi1 + . . . + βk xik ) = eβ0 · eβ1 xi1 · . . . · eβk xik ⇔ log λi = ηi = β0 + β1 xi1 + . . . + βk xik Dieses Modell wird als log-lineares Poisson-Modell bezeichnet. 5 VERTEILUNGSTABELLEN 5 22 Verteilungstabellen 5.1 Standardnormalverteilung Tabelliert sind die Werte der Verteilungsfunktion Φ(z) = P (Z ≤ z) Ablesebeispiel: Φ(1.75) = 0.9599 Funktionswerte für negative Argumente: Φ(−z) = 1 − Φ(z) Die z-Quantile ergeben sich genau umgekehrt. Beispielsweise ist z(0.9599) = 1.75 und z(0.9750) = 1.96. 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3.0 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 0.00 0.5000 0.5398 0.5793 0.6179 0.6554 0.6915 0.7257 0.7580 0.7881 0.8159 0.8413 0.8643 0.8849 0.9032 0.9192 0.9332 0.9452 0.9554 0.9641 0.9713 0.9772 0.9821 0.9861 0.9893 0.9918 0.9938 0.9953 0.9965 0.9974 0.9981 0.9987 0.9990 0.9993 0.9995 0.9997 0.9998 0.9998 0.9999 0.9999 1.0000 0.01 0.5040 0.5438 0.5832 0.6217 0.6591 0.6950 0.7291 0.7611 0.7910 0.8186 0.8438 0.8665 0.8869 0.9049 0.9207 0.9345 0.9463 0.9564 0.9649 0.9719 0.9778 0.9826 0.9864 0.9896 0.9920 0.9940 0.9955 0.9966 0.9975 0.9982 0.9987 0.9991 0.9993 0.9995 0.9997 0.9998 0.9998 0.9999 0.9999 1.0000 0.02 0.5080 0.5478 0.5871 0.6255 0.6628 0.6985 0.7324 0.7642 0.7939 0.8212 0.8461 0.8686 0.8888 0.9066 0.9222 0.9357 0.9474 0.9573 0.9656 0.9726 0.9783 0.9830 0.9868 0.9898 0.9922 0.9941 0.9956 0.9967 0.9976 0.9982 0.9987 0.9991 0.9994 0.9995 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000 0.03 0.5120 0.5517 0.5910 0.6293 0.6664 0.7019 0.7357 0.7673 0.7967 0.8238 0.8485 0.8708 0.8907 0.9082 0.9236 0.9370 0.9484 0.9582 0.9664 0.9732 0.9788 0.9834 0.9871 0.9901 0.9925 0.9943 0.9957 0.9968 0.9977 0.9983 0.9988 0.9991 0.9994 0.9996 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000 0.04 0.5160 0.5557 0.5948 0.6331 0.6700 0.7054 0.7389 0.7704 0.7995 0.8264 0.8508 0.8729 0.8925 0.9099 0.9251 0.9382 0.9495 0.9591 0.9671 0.9738 0.9793 0.9838 0.9875 0.9904 0.9927 0.9945 0.9959 0.9969 0.9977 0.9984 0.9988 0.9992 0.9994 0.9996 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000 0.05 0.5199 0.5596 0.5987 0.6368 0.6736 0.7088 0.7422 0.7734 0.8023 0.8289 0.8531 0.8749 0.8944 0.9115 0.9265 0.9394 0.9505 0.9599 0.9678 0.9744 0.9798 0.9842 0.9878 0.9906 0.9929 0.9946 0.9960 0.9970 0.9978 0.9984 0.9989 0.9992 0.9994 0.9996 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000 0.06 0.5239 0.5636 0.6026 0.6406 0.6772 0.7123 0.7454 0.7764 0.8051 0.8315 0.8554 0.8770 0.8962 0.9131 0.9279 0.9406 0.9515 0.9608 0.9686 0.9750 0.9803 0.9846 0.9881 0.9909 0.9931 0.9948 0.9961 0.9971 0.9979 0.9985 0.9989 0.9992 0.9994 0.9996 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000 für z ≥ 0. 0.07 0.5279 0.5675 0.6064 0.6443 0.6808 0.7157 0.7486 0.7794 0.8078 0.8340 0.8577 0.8790 0.8980 0.9147 0.9292 0.9418 0.9525 0.9616 0.9693 0.9756 0.9808 0.9850 0.9884 0.9911 0.9932 0.9949 0.9962 0.9972 0.9979 0.9985 0.9989 0.9992 0.9995 0.9996 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000 0.08 0.5319 0.5714 0.6103 0.6480 0.6844 0.7190 0.7517 0.7823 0.8106 0.8365 0.8599 0.8810 0.8997 0.9162 0.9306 0.9429 0.9535 0.9625 0.9699 0.9761 0.9812 0.9854 0.9887 0.9913 0.9934 0.9951 0.9963 0.9973 0.9980 0.9986 0.9990 0.9993 0.9995 0.9996 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000 0.09 0.5359 0.5753 0.6141 0.6517 0.6879 0.7224 0.7549 0.7852 0.8133 0.8389 0.8621 0.8830 0.9015 0.9177 0.9319 0.9441 0.9545 0.9633 0.9706 0.9767 0.9817 0.9857 0.9890 0.9916 0.9936 0.9952 0.9964 0.9974 0.9981 0.9986 0.9990 0.9993 0.9995 0.9997 0.9998 0.9998 0.9999 0.9999 0.9999 1.0000 5 VERTEILUNGSTABELLEN 5.2 23 Students t-Verteilung Tabelliert sind die Quantile für n Freiheitsgrade. Für das Quantil t1−α (n) gilt F (t1−α (n)) = 1 − α. Links vom Quantil t1−α (n) liegt die Wahrscheinlichkeitsmasse 1 − α. Ablesebeispiel: t0.99 (20) = 2.528 Die Quantile für 0 < 1 − α < 0.5 erhält man aus tα (n) = −t1−α (n) Approximation für n > 30: tα (n) ≈ zα (zα ist das (α)-Quantil der Standardnormalverteilung) n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 0.6 0.3249 0.2887 0.2767 0.2707 0.2672 0.2648 0.2632 0.2619 0.2610 0.2602 0.2596 0.2590 0.2586 0.2582 0.2579 0.2576 0.2573 0.2571 0.2569 0.2567 0.2566 0.2564 0.2563 0.2562 0.2561 0.2560 0.2559 0.2558 0.2557 0.2556 0.8 1.3764 1.0607 0.9785 0.9410 0.9195 0.9057 0.8960 0.8889 0.8834 0.8791 0.8755 0.8726 0.8702 0.8681 0.8662 0.8647 0.8633 0.8620 0.8610 0.8600 0.8591 0.8583 0.8575 0.8569 0.8562 0.8557 0.8551 0.8546 0.8542 0.8538 0.9 3.0777 1.8856 1.6377 1.5332 1.4759 1.4398 1.4149 1.3968 1.3830 1.3722 1.3634 1.3562 1.3502 1.3450 1.3406 1.3368 1.3334 1.3304 1.3277 1.3253 1.3232 1.3212 1.3195 1.3178 1.3163 1.3150 1.3137 1.3125 1.3114 1.3104 0.95 6.3138 2.9200 2.3534 2.1318 2.0150 1.9432 1.8946 1.8595 1.8331 1.8125 1.7959 1.7823 1.7709 1.7613 1.7531 1.7459 1.7396 1.7341 1.7291 1.7247 1.7207 1.7171 1.7139 1.7109 1.7081 1.7056 1.7033 1.7011 1.6991 1.6973 0.975 12.706 4.3027 3.1824 2.7764 2.5706 2.4469 2.3646 2.3060 2.2622 2.2281 2.2010 2.1788 2.1604 2.1448 2.1314 2.1199 2.1098 2.1009 2.0930 2.0860 2.0796 2.0739 2.0687 2.0639 2.0595 2.0555 2.0518 2.0484 2.0452 2.0423 0.99 31.821 6.9646 4.5407 3.7469 3.3649 3.1427 2.9980 2.8965 2.8214 2.7638 2.7181 2.6810 2.6503 2.6245 2.6025 2.5835 2.5669 2.5524 2.5395 2.5280 2.5176 2.5083 2.4999 2.4922 2.4851 2.4786 2.4727 2.4671 2.4620 2.4573 0.995 63.657 9.9248 5.8409 4.6041 4.0321 3.7074 3.4995 3.3554 3.2498 3.1693 3.1058 3.0545 3.0123 2.9768 2.9467 2.9208 2.8982 2.8784 2.8609 2.8453 2.8314 2.8188 2.8073 2.7969 2.7874 2.7787 2.7707 2.7633 2.7564 2.7500 0.999 318.31 22.327 10.215 7.1732 5.8934 5.2076 4.7853 4.5008 4.2968 4.1437 4.0247 3.9296 3.8520 3.7874 3.7328 3.6862 3.6458 3.6105 3.5794 3.5518 3.5272 3.5050 3.4850 3.4668 3.4502 3.4350 3.4210 3.4082 3.3962 3.3852 0.9995 636.62 31.599 12.924 8.6103 6.8688 5.9588 5.4079 5.0413 4.7809 4.5869 4.4370 4.3178 4.2208 4.1405 4.0728 4.0150 3.9651 3.9216 3.8834 3.8495 3.8193 3.7921 3.7676 3.7454 3.7251 3.7066 3.6896 3.6739 3.6594 3.6460 ∞ 0.2533 0.8416 1.2816 1.6449 1.9600 2.3263 2.5758 3.0903 3.2906 5 VERTEILUNGSTABELLEN 5.3 24 χ2 -Verteilung Tabelliert sind die Quantile für n Freiheitsgrade. Für das Quantil χ21−α (n) gilt F (χ21−α (n)) = 1 − α . Links vom Quantil χ21−α (n) liegt die Wahrscheinlichkeitsmasse 1 − α. Ablesebeispiel: χ20.95 (10) = 18.307 Approximation für n > 30: √ 1 χ2α (n) ≈ (zα + 2n − 1)2 2 n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 0.01 0.0002 0.0201 0.1148 0.2971 0.5543 0.8721 1.2390 1.6465 2.0879 2.5582 3.0535 3.5706 4.1069 4.6604 5.2293 5.8122 6.4078 7.0149 7.6327 8.2604 8.8972 9.5425 10.196 10.856 11.524 12.198 12.879 13.565 14.256 14.953 0.025 0.0010 0.0506 0.2158 0.4844 0.8312 1.2373 1.6899 2.1797 2.7004 3.2470 3.8157 4.4038 5.0088 5.6287 6.2621 6.9077 7.5642 8.2307 8.9065 9.5908 10.283 10.982 11.689 12.401 13.120 13.844 14.573 15.308 16.047 16.791 0.05 0.0039 0.1026 0.3518 0.7107 1.1455 1.6354 2.1674 2.7326 3.3251 3.9403 4.5748 5.2260 5.8919 6.5706 7.2609 7.9616 8.6718 9.3905 10.117 10.851 11.591 12.338 13.091 13.848 14.611 15.379 16.151 16.928 17.708 18.493 (zα ist das α-Quantil der Standardnormalverteilung) 0.1 0.0158 0.2107 0.5844 1.0636 1.6103 2.2041 2.8331 3.4895 4.1682 4.8652 5.5778 6.3038 7.0415 7.7895 8.5468 9.3122 10.085 10.865 11.651 12.443 13.240 14.041 14.848 15.659 16.473 17.292 18.114 18.939 19.768 20.599 0.5 0.4549 1.3863 2.3660 3.3567 4.3515 5.3481 6.3458 7.3441 8.3428 9.3418 10.341 11.340 12.340 13.339 14.339 15.338 16.338 17.338 18.338 19.337 20.337 21.337 22.337 23.337 24.337 25.336 26.336 27.336 28.336 29.336 0.9 2.7055 4.6052 6.2514 7.7794 9.2364 10.645 12.017 13.362 14.684 15.987 17.275 18.549 19.812 21.064 22.307 23.542 24.769 25.989 27.204 28.412 29.615 30.813 32.007 33.196 34.382 35.563 36.741 37.916 39.087 40.256 0.95 3.8415 5.9915 7.8147 9.4877 11.070 12.592 14.067 15.507 16.919 18.307 19.675 21.026 22.362 23.685 24.996 26.296 27.587 28.869 30.144 31.410 32.671 33.924 35.172 36.415 37.652 38.885 40.113 41.337 42.557 43.773 0.975 5.0239 7.3778 9.3484 11.143 12.833 14.449 16.013 17.535 19.023 20.483 21.920 23.337 24.736 26.119 27.488 28.845 30.191 31.526 32.852 34.170 35.479 36.781 38.076 39.364 40.646 41.923 43.195 44.461 45.722 46.979 0.99 6.6349 9.2103 11.345 13.277 15.086 16.812 18.475 20.090 21.666 23.209 24.725 26.217 27.688 29.141 30.578 32.000 33.409 34.805 36.191 37.566 38.932 40.289 41.638 42.980 44.314 45.642 46.963 48.278 49.588 50.892