KOMPAKTSKRIPT zur Vorlesung STATISTISCHE ANALYSEVERFAHREN von Volker Steinmetz ausgearbeitet von Stefan Klößner und Christoph Stahl Universität des Saarlandes SS 2003 I Inhaltsverzeichnis WARNUNG II 1 Hilfsmittel aus der linearen Algebra 1.1 Matrizen und Vektoren . . . . . . . . . . . . . . . . . . . . . . 1.2 Lineare Gleichungssysteme und die verallgemeinerte Inverse . 1 1 13 2 Hilfsmittel der Wahrscheinlichkeitstheorie und Statistik 2.1 Wahrscheinlichkeitstheoretische Grundlagen . . . . . . . . . . 2.2 Statistische Grundlagen . . . . . . . . . . . . . . . . . . . . . 16 16 24 3 Das 3.1 3.2 3.3 33 33 35 lineare Modell Grundlegende Definitionen und Sätze . . . . . . . . . . . . . . Die Methode der kleinsten Quadrate . . . . . . . . . . . . . . Tests und Konfidenzbereichsschätzungen im linearen Modell unter Normalverteilungsannahmen . . . . . . . . . . . . . . . . . 41 4 Regressionsanalyse 44 5 Varianzanalyse 5.1 Varianzanalyse mit festen Effekten (Modell I) und einfacher Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Varianzanalyse mit festen Effekten (Modell I) und mehrfacher Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Varianzanalyse mit zufälligen Effekten (Modell II, Varianzkomponentenanalyse) . . . . . . . . . . . . . . . . . . . . . . . . . 48 6 Kovarianzanalyse 64 A Tabellen A.1 Tabelle zur Standardnormalverteilung A.2 Quantile der t-Verteilungen . . . . . A.3 Quantile der χ2 -Verteilungen . . . . . A.4 Quantile der F -Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 56 62 68 68 70 71 72 Index 74 Symbolverzeichnis 77 Änderungen 78 c V. Steinmetz: Statistische Analyseverfahren II WARNUNG Das vorliegende Kompaktskript ist kein Lehrbuch, sondern es soll die Hörer der Vorlesung Statistische Analyseverfahren von dem ablenkenden und oft fehlerhaften Mitschreiben der Formeln entlasten und es ihnen erleichtern, sich auf die vorgetragenen Motivationen und Erläuterungen zu konzentrieren und hierüber individuelle Notizen anzufertigen. Dementsprechend sind in diesem Skript nur formale Definitionen und Sätze enthalten, Bemerkungen dienen zur Ergänzung des Stoffes. Die Motivation und Erläuterung der aufgeführten Begriffe und Aussagen sowie die Behandlung von Beispielen bleiben der Vorlesung und auch der begleitenden Übung vorbehalten. Ebenso werden Hinweise auf ergänzende und vertiefende Literatur im Verlauf der Vorlesung gegeben. c V. Steinmetz: Statistische Analyseverfahren –1– 1 Hilfsmittel aus der linearen Algebra 1.1 Matrizen und Vektoren 1.1.1 Definition: Unter einer (m×n)-Matrix A mit den Elementen aij (i = 1, . . . , m, j = 1, . . . , n) versteht man ein Schema a11 · · · a1n .. =: (a ) i=1,...,m =: A ... A := ... ij (m×n) , . j=1,...,n am1 · · · amn m heißt Anzahl der Zeilen, n Anzahl der Spalten von A. Eine (m × 1)-Matrix a heißt ein m-dimensionaler (Spalten-) Vektor a1 a := ... . am Eine (1 × n)-Matrix a0 heißt ein n-dimensionaler Zeilenvektor a0 = (a1 , . . . , an ). Sei r = min{m, n}. Die Elemente a11 , a22 , . . . , arr der Matrix A = (aij ) heißen Hauptdiagonalelemente; der Vektor (a11 , . . . , arr )0 heißt die Hauptdiagonale von A. Ist m = n, so heißt die Matrix A quadratisch. 1.1.2 Bemerkung: Die Elemente der im folgenden betrachteten Matrizen seien reelle Zahlen. Die Definitionen und Sätze gelten aber auch für Matrizen mit anderen Elementen, z.B. komplexen Zahlen, reellen Zufallsvariablen, soweit eine Gleichheitsrelation, Nullelement, Einselement, Addition, Multiplikation usw. mit den entsprechenden Eigenschaften definiert sind. 1.1.3 Definition: Seien A = (aij ) i=1,...,m , B = (bij ) i=1,...,m0 zwei Matrizen. Man definiert j=1,...,n j=1,...,n0 A = B : ⇐⇒ (m = m0 )∧(n = n0 )∧(∀i ∈ {1, . . . , m})(∀j ∈ {1, . . . , n}) (aij = bij ) 1.1.4 Definition: Sei A = (aij ) i=1,...,m eine (m × n)-Matrix. Dann heißt die (n × m)-Matrix j=1,...,n A0 = (a0ij ) i=1,...,n mit a0ij = aji Transponierte zu A (andere Schreibweise: AT ). j=1,...,m Eine quadratische Matrix A heißt symmetrisch, wenn aij = aji (∀i, j = 1, . . . , n). c V. Steinmetz: Statistische Analyseverfahren –2– 1.1.5 Folgerung: Für jede (m × n)-Matrix A gilt: .1) (A0 )0 = A .2) A symmetrisch ⇐⇒ A = A0 1.1.6 Definition(Typen von Matrizen): (n × n)-Einheitsmatrix I= 1 0 .. . 0 | n ··· 0 . . .. . . . ... ... 0 ··· 0 1 {z } n 0 .. (n × n)-Diagonalmatrix d1 0 · · · · · · 0 .. .. . 0 d2 . . . .. . . .. .. .. D = .. . . . . . . . dn−1 0 0 ··· ··· 0 dn (m × n)-Einsmatrix 1 ··· 1 E = ... . . . ... m 1 ··· 1 | {z } n (m × n)-Nullmatrix 0 ··· 0 O = ... . . . ... m 0 ··· 0 | {z } n obere (n × n)-Dreiecksmatrix a11 · · · · · · a1n .. ... . 0 A= . . .. . .. .. .. . 0 · · · 0 ann untere (n × n)-Dreiecksmatrix b11 0 · · · 0 .. .. . . . . . . . . B= . . .. 0 .. b1n · · · · · · bnn ej = j-ter Einheitsvektor 0 .. . 0 1 ← j-te Komp.(von oben) 0 .. . 0 c V. Steinmetz: Statistische Analyseverfahren Einsvektor Nullvektor 1 ι = ... 1 0 0 = ... 0 –3– 1.1.7 Definition: Es sei a11 · · · a1n .. . .. A = ... . . am1 · · · amn Man schreibt a1j A•j := ... amj (j ∈ {1, . . . , n}) für den j-ten Spaltenvektor von A. A0i• := (ai1 , . . . , ain ) (i ∈ {1, . . . , m}) für den i-ten Zeilenvektor von A. 1.1.8 Folgerung: Es sei A eine (m × n)-Matrix. Verzichtet man auf innere Klammern und Kommata, so kann man schreiben: A01• A = (A•1 . . . A•n ) = ... A0m• 1.1.9 Definition: Seien A = (aij ), B = (bij ) (m×n)-Matrizen und α ∈ R. Die Summe der Matrizen A und B wird definiert durch A + B := F = (fij )m×n mit fij := aij + bij ∀i = 1, . . . , m, j = 1, . . . , n, die skalare Multiplikation von A und α wird definiert durch αA := G = (gij )m×n =: Aα mit gij := αaij ∀i = 1, . . . , m, j = 1, . . . , n. Man setzt (−1)A =: −A. 1.1.10 Satz: Seien .1) .3) .5) .7) 1 A, B, C (m × n)-Matrizen A+B =B+A A + O = O + A = A1 αA = Aα α(βA) = (αβ)A = β(αA) und .2) .4) .6) .8) α, β ∈ R. Dann gilt (A + B) + C = A + (B + C) (A + B)0 = A0 + B 0 (α + β)A = αA + βA (αA)0 = αA0 Es werde immer die geeignete Dimension der Nullmatrix O vorausgesetzt. c V. Steinmetz: Statistische Analyseverfahren –4– 1.1.11 Definition: Seien A = (aij ) eine (m × n)-Matrix und B = (bij ) eine (n × r)-Matrix. Dann heißt die (m × r)-Matrix AB := G = (gij ) i=1,...,m j=1,...,r mit gij := n X aik bkj (i = 1, . . . , m , j = 1, . . . , r) k=1 das Produkt von A und B. 1.1.12 Satz: Unter der Annahme, daß die Zeilen- und Spaltenzahlen die jeweiligen Verknüpfungen erlauben, gilt: .1) .3) .5) .7) (AB)C = A(BC) A(B + C) = AB + AC IA = A; AI = A (AB)0 = B 0 A0 .2) .4) .6) .8) (A + B)C = AC + BC α(AB) = (αA)B = A(αB) OA = O; AO = O AA0 und A0 A sind symmetrisch 1.1.13 Bemerkung: Sind für zwei Matrizen A und B die Produkte AB und BA definiert, gilt i.a. AB 6= BA. 1.1.14 Folgerung: .1) Seien A = a0 = (a1 , . . . , an ) ein n-dimensionaler Zeilenvektor und b1 B = b = ... ein n-dimensionaler Spaltenvektor. Dann gilt: bn 0 AB = a b = n X ai b i i=1 v1 .2) Seien V = v = ... ein m-dimensionaler Spaltenvektor und vm W = w0 = (w1 , . . . , wn ) ein n-dimensionaler Zeilenvektor. Dann ist v1 w1 · · · v1 wn .. .. V W = v · w0 = ... . . vm w1 · · · vm wn eine (m × n)-Matrix. c V. Steinmetz: Statistische Analyseverfahren –5– 1.1.15 Definition: Es seien a, a1 , . . . , an ∈ Rm . a heißt Linearkombination von a1 , . . . , an genau dann, wenn gilt (∃α1 , . . . , αn ∈ R) (a = α1 a1 + . . . + αn an ). Die Vektoren a1 , . . . , an heißen linear unabhängig genau dann, wenn gilt (∀α1 , . . . , αn ∈ R) (0 = α1 a1 + . . . + αn an =⇒ α1 = . . . = αn = 0), andernfalls heißen sie linear abhängig. 1.1.16 Satz: Es seien a1 , . . . , an ∈ Rm . Für n ≥ m + 1 sind die Vektoren stets linear abhängig. Sind a1 , . . . , am ∈ Rm linear unabhängig, läßt sich jeder Vektor a ∈ Rm als Linearkombination der ai (i = 1, . . . , m) darstellen. 1.1.17 Definition: Eine Menge von m linear unabhängigen Vektoren des Rm heißt Basis des Rm . Jede Menge von Vektoren des Rm , die m linear unabhängige Vektoren enthält, heißt ein Erzeugendensystem. 1.1.18 Definition: Es sei U = {ui ∈ RT | i = 1, . . . , m} eine Menge von Vektoren. Man bezeichnet die Menge aller Linearkombinationen der Elemente von U mit span U := {α1 u1 + · · · αm um | α1 , . . . , αm ∈ R} und nennt sie den von den Elementen von U aufgespannten Unterraum des RT . 1.1.19 Definition: Zwei Teilmengen U = {ui ∈ RT | i = 1, . . . , m} und V = {v j ∈ RT | j = 1, . . . , n} des RT heißen linear unabhängig, wenn gilt span U ∩ span V = {0}. c V. Steinmetz: Statistische Analyseverfahren –6– 1.1.20 Definition: Es sei A = (aij )m×n eine (m × n)-Matrix. Die Maximalzahl linear unabhängiger Spaltenvektoren von A heißt Rang (rg A) der Matrix A. 1.1.21 Definition: Eine n × n-Matrix A heißt regulär genau dann, wenn rg A = n gilt. 1.1.22 Satz: Es seien A und B eine (m × n)- bzw. (n × r)-Matrix, O eine Nullmatrix und In die (n × n)-Einheitsmatrix. Dann gilt: .1) .3) .5) .7) rg A = rg A0 rg AB ≤ min{rg A, rg B} rg O = 0 für m = n: A regulär =⇒ rg AB = rg B .2) rg A ≤ min{m, n} .4) rg A0 A = rg A .6) rg In = n 1.1.23 Definition: Es sei A eine (n×n)-Matrix und Aij mit i, j ∈ {1, . . . , n} sei die (n−1)×(n−1)Matrix, die aus A durch Streichen der i-ten Zeile und j-ten Spalte entsteht. Als Determinante der Matrix A bezeichnet man die reelle Zahl det A mit det A = a11 für n = 1 n X det A = (−1)i+j aij det Aij für n ≥ 2 und festes i ∈ {1, . . . , n}. j=1 1.1.24 Satz: Seien A, B (n × n)-Matrizen und α ∈ R. Dann gilt .1) det(A0 ) = det A .2) det(αA) = αn det A .3) vertauscht man zwei Zeilen (bzw. Spalten) von A, so ändert sich das Vorzeichen der Determinante, nicht aber der Betrag. .4) det d11 · · · · · · .. . 0 .. . . . ... . 0 ··· 0 d1n .. . .. . dnn = det .5) det A 6= 0 ⇐⇒ A regulär .6) det(AB) = det A · det B c V. Steinmetz: Statistische Analyseverfahren d11 0 · · · 0 .. .. ... .. . . . .. ... . 0 dn1 · · · · · · dnn n Y dii = i=1 –7– 1.1.25 Definition: Eine (n × n)-Matrix A heißt invertierbar, wenn es eine (n × n)-Matrix A−1 gibt mit A · A−1 = I. A−1 heißt Inverse zu A. 1.1.26 Satz: Sei A−1 Inverse zu A. Dann gilt auch A−1 A = I und A−1 ist eindeutig bestimmt. 1.1.27 Satz: Es sei A eine reguläre (n × n)-Matrix. Dann ist die (n × n)-Matrix B mit bij = (−1)i+j det Aji det A die Inverse zu A. 1.1.28 Satz: Eine (n × n)-Matrix A ist d.u.n.d. invertierbar, wenn sie regulär ist. 1.1.29 Satz: Für Matrizen A, B und α ∈ R \ {0} gilt, falls die Zeilen- und Spaltenzahlen die Verknüpfungen erlauben und die Inversen jeweils existieren: .1) (AB)−1 = B −1 A−1 .3) (A−1 )0 = (A0 )−1 .5) (αA)−1 = α1 A−1 .7) d1 0 · · · · · · 0 .. .. . 0 d2 . . . .. . . .. .. .. D = .. . . . . . dn−1 0 .. 0 ··· ··· 0 dn .8) det(A−1 ) = (detA)−1 . .2) .4) .6) (A−1 )−1 = A I −1 = I A symmetrisch ⇐⇒ A−1 symmetrisch =⇒ D−1 1 d1 0 = 0 .. . .. . 0 1 d2 .. . ··· ... ··· .. .. . .. ··· . ··· 1.1.30 Vereinbarung: Es seien a11 .. . a A = r1 ar+1,1 . .. am1 ··· ... a1p .. . a1,p+1 .. . ··· ... ··· arp ar,p+1 · · · · · · ar+1,p ar+1,p+1 · · · .. .. ... .. . . . · · · amp am,p+1 · · · c V. Steinmetz: Statistische Analyseverfahren a1,n .. . arn eine (m × n)-Matrix ar+1,n .. . amn . 1 dn−1 0 0 .. . .. . 0 1 dn –8– a11 · · · a1p = ... . . . ... (r × p)-Matrix ar1 · · · arp A11 A12 a1,p+1 · · · a1n .. (r × (n − p))-Matrix ... = ... . ar,p+1 · · · arn A21 ar+1,1 · · · ar+1,p .. ((m − r) × p)-Matrix .. = ... . . am1 · · · amp A22 ar+1,p+1 · · · ar+1,n .. .. ((m − r) × (n − p))-Matrix ... = . . am,p+1 · · · amn Dann läßt sich A bei Verzicht auf innere Klammern folgendermaßen schreiben: A11 A12 A= A21 A22 Die Matrizen A11 , A12 , A21 , A22 bezeichnet man als Teil- oder Blockmatrizen. 1.1.31 Satz: B11 B12 A11 A12 Seien A = eine (m × n)-Matrix und B = eine A21 A22 B21 B22 (n × q)-Matrix sowie A11 eine (r × p)-, A12 eine (r × (n − p))-, A21 eine ((m − r) × p)-, A22 eine (m − r) × (n − p)-Matrix, B11 eine (p × s)-, B12 eine (p × (q − s))-, B21 eine ((n − p) × s)-, B22 eine (n − p) × (q − s)-Matrix. Dann gilt: .1) 0 A = A011 A021 A012 A022 .2) " AB = A11 B11 + A12 B21 A11 B12 + A12 B22 # A21 B11 + A22 B21 A21 B12 + A22 B22 .3) Sind A, A11 quadratisch und sind A und A22 invertierbar, dann gilt mit H := A11 − A12 A−1 22 A21 H −1 −H −1 A12 A−1 22 A−1 = −1 −1 −1 −1 −1 −1 −A22 A21 H A22 + A22 A21 H A12 A22 c V. Steinmetz: Statistische Analyseverfahren –9– 1.1.32 Definition: Es sei A eine (n × n)-Matrix. Dann heißt tr(A) := sp(A) := n X aii die Spur (trace) von A. i=1 1.1.33 Satz: Bei geeigneten Dimensionen der Matrizen A, B, C und der Vektoren a, b gilt: .1) tr(αA + βB) = α tr(A) + β tr(B) mit α, β ∈ R .2) tr(A) = tr(A0 ) .3) tr(AB) = tr(BA), insbesondere tr(a b0 ) = tr(b0 a) = b0 a .4) tr(ABC) = tr(CAB) = tr(BCA) 1.1.34 Definition: Eine (n × n)-Matrix A heißt orthogonal, wenn gilt A0 A = I. 1.1.35 Satz: Es sei A eine orthogonale (n × n)-Matrix. Dann gilt: .1) rg A = n .3) A0 A = AA0 = I .2) A0 = A−1 .4) det A = ±1 1.1.36 Satz: Es sei A eine (n × n)-Matrix mit AA = A. Dann gilt rg A=tr A. 1.1.37 Definition: Eine (n × n)-Matrix A heißt idempotent, wenn gilt A = A0 und AA = A. 1.1.38 Satz: Es sei A eine idempotente (n × n)-Matrix mit rg A = r. Dann gibt es eine orthogonale (n × n)-Matrix C mit Ir 0 0 C AC = . 0 0 c V. Steinmetz: Statistische Analyseverfahren –10– 1.1.39 Definition: Es seien A eine (n × n)-Matrix und x ∈ Rn ein (n × 1)-Vektor. Dann heißt die Abbildung q : Rn → R mit q(x) = x0 Ax quadratische Form. 1.1.40 Definition: Eine symmetrische (n × n)-Matrix A (und auch die zugehörige quadratische Form) heißt positiv definit, wenn gilt (∀x ∈ Rn \ {0}) (x0 Ax) > 0) und positiv semidefinit, wenn gilt (∀x ∈ Rn \ {0}) (x0 Ax) ≥ 0) (entsprechend definiert man negativ (semi-)definit). 1.1.41 Satz: .1) Für eine quadratische Matrix A gilt: A positiv definit =⇒ A regulär und A−1 positiv definit. .2) Ist A eine positiv definite (n × n)-Matrix und B eine (m × n)-Matrix, so gilt: BAB 0 positiv definit ⇐⇒ rg B = m. .3) Eine symmetrische Matrix A ist genau dann positiv definit, wenn es eine reguläre Matrix B gibt mit A = BB 0 . (Man kann B als obere Dreiecksmatrix wählen.) .4) Eine symmetrische Matrix A ist genau dann positiv semidefinit, wenn es eine quadratische Matrix B gibt mit A = B 0 B. .5) Sei A positiv semidefinit. Dann gilt: A positiv definit ⇐⇒ A regulär. .6) Die symmetrische (n × n)-Matrix A = (aij ) ist genau dann positiv definit, wenn gilt a11 > 0, det a11 a12 a21 a22 a11 a12 a13 > 0, det a21 a22 a23 > 0, . . . , detA > 0. a31 a32 a33 c V. Steinmetz: Statistische Analyseverfahren –11– 1.1.42 Definition: Es seien f : Rn → R eine partiell differenzierbare Funktion und x0 = (x1 , . . . , xn ). Dann heißt ∂f ∂x1 . ∂f .. = der Gradient von f . ∂x ∂f ∂xn Vereinbarung: 0 ∂f ∂f = ,..., ∂x1 ∂xn ∂f ◦ Der Gradient an einer Stelle x ∈ Rn wird mit bezeichnet. ∂x x◦ ∂f := ∂x0 ∂f ∂x 1.1.43 Satz: Es seien f : Rn → R und g : Rn → R partiell differenzierbare Funktionen und α, β ∈ R. Dann gilt: .1) ∂(αf + βg) ∂f ∂g =α +β ∂x ∂x ∂x .2) ∂(f · g) ∂f ∂g = g+ f ∂x ∂x ∂x .3) Es sei h : Rn → R die Abbildung mit h(x) = α für festes α ∈ R und für alle x ∈ Rn . ∂h Dann ist h partiell differenzierbar und es gilt: =0. ∂x 1.1.44 Folgerung: Es seien g : Rn → R eine Funktion, a ∈ Rn ein Vektor und A ∈ Rn×n eine Matrix. Dann gilt: .1) .2) .3) (∀x ∈ Rn )(g(x) = xi ) =⇒ ∂g = ei ∂x (i = 1, . . . , n) ∂g =a ∂x ∂g ◦ ◦ n 0 (∀x ∈ R )(g(x) = x Ax) =⇒ = (A + A0 )x, für x ∈ Rn und ∂x x◦ ∂g ◦ A symmetrisch =⇒ = 2Ax. ∂x x◦ (∀x ∈ Rn )(g(x) = a0 x) =⇒ c V. Steinmetz: Statistische Analyseverfahren –12– 1.1.45 Definition: Eine Abbildung f : Rm → Rn heißt linear, wenn für alle x, y ∈ Rm und für alle a, b ∈ R gilt f (ax + by) = af (x) + bf (y). c V. Steinmetz: Statistische Analyseverfahren –13– 1.2 Lineare Gleichungssysteme und die verallgemeinerte Inverse 1.2.1 Definition: Es seien a11 · · · a1n .. ∈ Rm×n ... A = ... . am1 · · · amn eine (m × n)-Matrix , b1 b = ... ∈ Rm bm ein (m × 1)-Vektor und x1 x = ... xn ein (n × 1)-Vektor aus reellen Variablen x1 , . . . , xn . Man bezeichnet Ax = b als lineares Gleichungssystem mit der Koeffizientenmatrix A und der erweiterten Matrix [A, b]. Gilt b = 0, so heißt das Gleichungssystem homogen, für b 6= 0 inhomogen. Gibt es ein x0 ∈ Rn mit Ax0 = b, so heißt das Gleichungssystem lösbar und x0 eine Lösung. 1.2.2 Satz: Das lineare Gleichungssystem Ax = b ist d.u.n.d. lösbar, wenn gilt rg A = rg[A, b] , d.h. wenn der Rang der Koeffizientenmatrix mit dem Rang der erweiterten Matrix übereinstimmt. 1.2.3 Satz und Definition: Gegeben sei das lineare Gleichungssystem .1) Ax = b mit der (m × n)-Koeffizientenmatrix A und dem (m × 1)-Vektor b 6= 0. Das (zugehörige) homogene Gleichungssystem Ax = 0 c V. Steinmetz: Statistische Analyseverfahren –14– ist stets lösbar, es sei L := {x ∈ Rn | Ax = 0} = 6 ∅ die Menge seiner Lösungen. Ist das inhomogene Gleichungssystem Ax = b lösbar und ist xp ∈ Rm mit Axp = b eine Lösung, so sind durch .2) x = xp + x0 mit x0 ∈ L alle Lösungen gegeben. Man bezeichnet xp als eine partikuläre Lösung von .1) und .2) als seine allgemeine Lösung. 1.2.4 Definition: Es sei A eine (m × n)-Matrix. Eine (n × m)-Matrix A− (lies A-minus“) heißt ” verallgemeinerte Inverse (g-Inverse, generalized inverse) zu A, wenn gilt AA− A = A. 1.2.5 Satz: Zu jeder (m × n)-Matrix A gibt es mindestens eine g-Inverse A− . WARNUNG: Ist A− g-Inverse zu A, so ist i.a. A nicht g-Inverse zu A− . 1.2.6 Satz: Es seien A eine (m × n)-Matrix und A− eine g-Inverse zu A. Dann sind durch e− := A− AA− + (In − A− A)B + C(Im − AA− ) A mit B ∈ Rn×m , C ∈ Rn×m alle g-Inversen zu A gegeben. 1.2.7 Satz: Es sei .1) Ax = 0 ein homogenes lineares Gleichungssystem mit der (m × n)-Koeffizientenmatrix A und einer g-Inversen A− zu A. Dann sind alle Lösungen von .1) gegeben durch .2) x := (In − A− A)z mit z ∈ Rn (d.h. insbesondere, daß die Lösungsmenge unabhängig ist von der speziellen Wahl der g-Inversen). c V. Steinmetz: Statistische Analyseverfahren –15– 1.2.8 Satz: Es sei .1) Ax = b ein inhomogenes lineares Gleichungssystem mit der (m×n)-Koeffizientenmatrix A und einer g-Inversen A− zu A. Dann folgt: .2) Das System .1) ist d.u.n.d. lösbar, wenn gilt AA− b = b, .3) alle Lösungen sind im Falle der Lösbarkeit gegeben durch x := A− b + (In − A− A)z mit z ∈ Rn (d.h. insbesondere, daß die Lösungsmenge unabhängig ist von der speziellen Wahl der g-Inversen). 1.2.9 Vorsicht: Da die g-Inverse immer existiert, kann man nach der Formel (1.2.8.3) auch dann x-Vektoren berechnen, wenn keine Lösung des Systems (1.2.8.1) existiert. Deshalb ist bei der Verwendung der g-Inversen die Überprüfung der Lösbarkeit unabdingbar! 1.2.10 Satz: Eine (n × m)-Matrix B ist d.u.n.d. g-Inverse zu einer (m × n)-Matrix A, wenn für alle b ∈ Rn mit rg A = rg[A, b] gilt ABb = b. 1.2.11 Satz: Es sei Ax = b mit b 6= 0 ein lösbares inhomogenes lineares Gleichungssystem. Durch x := A− b sind alle Lösungen gegeben, wenn A− alle g-Inversen von A durchläuft. c V. Steinmetz: Statistische Analyseverfahren –16– 2 Hilfsmittel der Wahrscheinlichkeitstheorie und Statistik 2.1 Wahrscheinlichkeitstheoretische Grundlagen 2.1.1 Vorsicht: In den Vorlesungen Grundzüge der Statistik“ und Schließende Statistik“ wur” ” den Zufallsvariablen i.a. durch große Buchstaben, ihre Realisationen durch kleine Buchstaben dargestellt. In dieser Vorlesung wird von dieser Konvention abgewichen, Variable und Realisierung werden wie in der Vorlesung Ökonometrie“ nicht durch Groß- bzw. ” Kleinschreibung unterschieden, die Bedeutung der Symbole ist aus dem Zusammenhang ersichtlich. 2.1.2 Definition: Es seien Ω und F Mengen und P : F → R eine Abbildung. Das Tripel (Ω, F, P) heißt ein Wahrscheinlichkeitsraum (probability space) (WR), wenn gilt .1) Ω 6= ∅ .2) F ⊆ P(Ω) mit • Ω∈F • A ∈ F ⇒ CΩ A ∈ F ∞ S • A1 , A2 , . . . ∈ F ⇒ Ai ∈ F i=1 (d.h. F ist σ-Algebra) .3) P : F → R mit W1 ) A ∈ F ⇒ P A ≥ 0 W2 ) A1 , A2 , . . . ∈ F mit Ai ∩ Aj = ∅ für i 6= j ∞ ∞ S P ⇒ P Ai = P Ai i=1 i=1 W3 ) P Ω = 1 Ω heißt Ergebnisraum, Stichprobenraum (sample space), Grundgesamtheit, F Ereignisraum und P Wahrscheinlichkeit(-smaß) (probability measure) des WR (Ω, F, P). c V. Steinmetz: Statistische Analyseverfahren –17– 2.1.3 Satz und Definition: Es sei (Ω, F, P) ein WR. Eine Abbildung x : Ω → Rn mit (∀B ∈ Bn )(x−1 B ∈ F) (Forderung der Meßbarkeit) heißt n-dimensionale Zufallsvariable über (Ω, F, P). Durch (∀B ∈ Bn )(Qx B := P x−1 B) ist eine Wahrscheinlichkeit Qx : Bn → R gegeben und (Rn , Bn , Qx ) ist ein WR. Man bezeichnet Qx als Wahrscheinlichkeitsverteilung der Zufallsvariablen x. Dabei ist Bn die Borel-Algebra, die kleinste σ-Algebra über Rn , die alle Intervalle enthält. 2.1.4 Definition: Es seien m, n ∈ N mit m ≤ n und i1 , . . . , im ∈ {1, . . . , n} mit ir < ir+1 für r = 1, . . . , m − 1. Die Abbildung pri1 ,...,im : Rn → Rm mit pri1 ,...,im (x1 , . . . , xn ) := (xi1 , . . . , xim ) bezeichnet man als eine Projektion des Rn auf den Rm , speziell nennt man für m = 1 und i ∈ {1, . . . , n} pri : Rn → R1 mit pri (x1 , . . . , xn ) = xi die i-te Projektion des Rn auf den R1 . 2.1.5 Satz: Die Projektion pri1 ,...,im : Rn → Rm ist Bn -Bm -meßbar. 2.1.6 Folgerung: Es seien (Ω, F, P) ein WR und x : Ω → Rn eine n-dimensionale Zufallsvariable über (Ω, F, P). Dann ist pri1 ,...,im ◦ x : Ω → Rm eine m-dimensionale Zufallsvariable über (Ω, F, P). c V. Steinmetz: Statistische Analyseverfahren –18– 2.1.7 Definition: Es sei x : Ω → Rn eine n-dimensionale Zufallsvariable über einem WR (Ω, F, P). Man bezeichnet i = 1, . . . , n xi := pri ◦ x : Ω → R als i-te Komponente von x. 2.1.8 Bemerkung: Gegeben seien die Voraussetzungen von Definition (2.1.7). Es gilt x(ω) = (x1 (ω), . . . , xn (ω))0 ∀ω ∈ Ω. Man schreibt deshalb auch x = (x1 , . . . , xn )0 , man hat also (x1 , . . . , xn )(ω)0 = (x1 (ω), . . . , xn (ω))0 . 2.1.9 Definition: Es sei x = (x1 , . . . , xn )0 eine n-dimensionale Zufallsvariable. Man bezeichnet Qx als gemeinsame Wahrscheinlichkeitsverteilung der Zufallsvariablen x1 , . . . , xn und die Wahrscheinlichkeitsverteilung Qxi der i-ten Komponente xi als Randverteilung (i = 1, . . . , n). 2.1.10 Bemerkung: Zu (Ω, F, P) ist durch die F-Bn -meßbare Abbildung x : Ω → Rn ein neuer WR (Rn , Bn , Qx ) gegeben. Es gilt für alle B ∈ Bn : Qx B = P x−1 B = P {ω ∈ Ω | x(ω) ∈ B} | {z } ∈ F wegen der Meßbarkeit von x =: P{x ∈ B} (Kurzschreibweise). Wie im eindimensionalen Fall unterscheidet man auch hier diskrete und stetige Zufallsvariablen. (Diese Charakterisierung ist nicht ausschöpfend, es gibt noch einen dritten Grundtyp, Zufallsvariablen mit einer singulären“ Verteilung, und ” schließlich Mischungen zwischen allen drei Typen.) Die diskreten Verteilungen werden an dieser Stelle nicht mehr behandelt. Eine Wiederholung der Begriffe diskreter WR, diskretes Wahrscheinlichkeitsmaß, Trägerpunkte, Punktmassen, Punktwahrscheinlichkeiten usw. kann mit Hilfe des Kompaktskriptes zur Statistik A und B erfolgen. Auch die Begriffe bedingte Verteilung und Unabhängigkeit werden dort erläutert. c V. Steinmetz: Statistische Analyseverfahren –19– 2.1.11 Definition: Es sei x = (x1 , . . . , xn )0 eine n-dimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung Qx . Die Abbildung Fx : Rn → R mit Fx (u1 , . . . , un ) := Qx (] − ∞, u1 ] × . . . ×] − ∞, un ]) für alle (u1 , . . . , un )0 ∈ Rn heißt Verteilungsfunktion von x = (x1 , . . . xn )0 oder gemeinsame Verteilungsfunktion der Zufallsvariablen x1 , . . . , xn . Die Verteilungsfunktion Fxi bezeichnet man auch als Randverteilungsfunktion (i = 1, . . . , n). 2.1.12 Definition: Es sei x eine n-dimensionale Zufallsvariable mit der Verteilungsfunktion Fx . Die Zufallsvariable x (und auch Qx und Fx ) heißen (absolut- oder total-) stetig, wenn es eine Abbildung fx : Rn → R gibt mit .1) fx (u1 , . . . , un ) ≥ 0 ∀(u1 , . . . , un )0 ∈ Rn , .2) fx ist uneigentlich integrierbar, Z u1 Z un ··· fx (t1 , . . . , tn ) dtn . . . dt1 .3) Fx (u1 , . . . , un ) = −∞ ∀(u1 , . . . , un )0 ∈ Rn . −∞ Man bezeichnet eine Abbildung fx mit diesen Eigenschaften als eine Dichte(funktion) der Zufallsvariablen x oder gemeinsame Dichtefunktion der Zufallsvariablen x1 , . . . xn . 2.1.13 Satz: Ist fx eine Dichte zu der Verteilungsfunktion Fx einer n-dimensionalen Zufallsvariablen x, so gilt an allen Stetigkeitsstellen (u1 , . . . , un ) von fx : ∂ n Fx (x1 , . . . , xn ) fx (u1 , . . . , un ) = ∂x1 ∂x2 . . . ∂xn (u1 ,...,un ) 2.1.14 Satz: Eine Funktion f : Rn → R ist genau dann Dichtefunktion einer n-dimensionalen Zufallsvariablen, wenn gilt: .1) f (x1 , . . . , xn ) ≥ 0 ∀(x1 , . . . , xn ) ∈ Rn , c V. Steinmetz: Statistische Analyseverfahren –20– .2) f ist uneigentlich integrierbar, Z ∞ Z ∞ ··· .3) −∞ f (x1 , . . . , xn ) dxn . . . dx1 = 1. −∞ 2.1.15 Satz: Es sei x eine n-dimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung Qx und einer Dichtefunktion fx ; B ∈ Bn sei ein beliebiges Ereignis. Dann gilt Z Z Qx B = · · · fx (u1 , . . . , un ) dun . . . du1 . B 2.1.16 Satz: Es sei x = (x1 , . . . , xn )0 eine Zufallsvariable mit Verteilungsfunktion Fx . Dann gilt mit m ≤ n F(x1 ,...,xm )0 (u1 , . . . , um ) = Fx (u1 , . . . , um , ∞, . . . , ∞).2 Falls eine Dichtefunktion fx existiert, ist (x1 , . . . , xm )0 stetig verteilt mit Z f(x1 ,...,xm )0 (u1 , . . . , um ) = ∞ Z ··· −∞ | {z n−m ∞ fx (u1 , . . . , um , um+1 , . . . , un ) dun . . . dum+1 −∞ } 2.1.17 Definition: Es gelten die Voraussetzungen aus Satz (2.1.16). Man bezeichnet f(x1 ,...,xm )0 als eine Randdichte(funktion). 2.1.18 Definition: x1 , x2 , . . . , xr seien n1 -, n2 - bzw. nr -dimensionale Zufallsvariablen. Sie heißen (stochastisch) unabhängig, wenn gilt Q(x1 ,...,xr )0 (B1 × · · · × Br ) = Qx1 B1 · . . . · Qxr Br für alle B1 ∈ Bn1 , . . . , Br ∈ Bnr . Eine Familie (xt )t∈T von Zufallsvariablen heißt (stochastisch) unabhängig, wenn für jedes n ∈ N und für alle paarweise verschiedenen t1 , . . . , tn ∈ T die Zufallsvariablen xt1 , . . . , xtn (stochastisch) unabhängig sind. 2 G(∞) := lim G(y) y→∞ c V. Steinmetz: Statistische Analyseverfahren –21– 2.1.19 Definition: Es sei (x1 , . . . , xn )0 eine n-dimensionale Zufallsvariable. Man bezeichnet µ := (µ1 , . . . , µn )0 := (Ex1 , . . . , Exn )0 als Erwartungswertvektor von x und Σ := (σij ) := (E[(xi − Exi )(xj − Exj )])i,j=1,...,n als Varianz-Kovarianzmatrix von x. 2.1.20 Bemerkung: i = j : E[(xi − Exi )(xi − Exi )] = Var xi i 6= j : E[(xi − Exi )(xj − Exj )] = Cov(xi , xj ) 2.1.21 Satz: Es seien x = (x1 , . . . , xm )0 , y = (y1 , . . . , yn )0 zwei unabhängige mehrdimensionale Zufallsvariablen über einem WR (Ω, F, P) und f : Rm → Rr , g : Rn → Rs (m, n, r, s ∈ N) Bm -Br - bzw. Bn -Bs -meßbare Abbildungen. Dann sind f (x) := f ◦ x und g(y) := g ◦ y unabhängig. (Die xi brauchen dabei untereinander nicht unabhängig zu sein, ebensowenig die yj .) 2.1.22 Satz: Die Abbildung f : Rn → R mit 1 − u0 u 1 e 2 f (u) = √ ( 2π)n ∀u = (u1 , . . . un )0 ∈ Rn ist eine Dichtefunktion. 2.1.23 Definition: Eine n-dimensionale Zufallsvariable x = (x1 , . . . , xn )0 heißt n-dimensional gaußverteilt oder normalverteilt N (0, I) , wenn für sie eine Dichte fx existiert mit 1 − u0 u 1 fx (u) = √ e 2 ( 2π)n ∀u = (u1 , . . . un )0 ∈ Rn . 2.1.24 Satz: Die Zufallsvariable x = (x1 , . . . , xn )0 sei n-dimensional gaußverteilt. Dann gilt: .1) Die Komponenten xi sind N (0, 1)-verteilt und unabhängig. .2) Ex = 0 ist der Erwartungswertvektor und Σx x0 = I ist die Varianz-KovarianzMatrix von x. c V. Steinmetz: Statistische Analyseverfahren –22– 2.1.25 Definition: Eine n-dimensionale Zufallsvariable x = (x1 , . . . , xn )0 heißt n-dimensional normalverteilt N (µ, Σ) mit µ = (µ1 , . . . , µn )0 ∈ Rn und Σ = (σij )i,j=1,...,n ∈ Rn×n positiv definit, wenn für sie eine Dichte existiert mit 1 − (u − µ)0 Σ−1 (u − µ) 1 √ ∀u = (u1 , . . . , un )0 ∈ Rn . e 2 fx (u) = √ n ( 2π) det Σ 2.1.26 Satz: Die Zufallsvariable x = (x1 , . . . , xn )0 sei N (µ, Σ)-verteilt. Dann gilt .1) Die Verteilung von x kann man durch eine invertierbare lineare Transformation aus einer Gaußverteilung gleicher Dimension herleiten. .2) Ex = µ ist der Erwartungswertvektor und Σx x0 = Σ ist die Varianz-KovarianzMatrix von x. .3) Alle Randverteilungen von x sind normalverteilt mit den in µ und Σ festgelegten Erwartungswerten, Varianzen und Kovarianzen der ausgewählten Komponenten. .4) Sind die x1 , . . . , xn paarweise unkorreliert, so sind sie auch stochastisch unabhängig. 2.1.27 Satz: Es seien x = (x1 , . . . , xn )0 eine N (µ, Σ)-verteilte Zufallsvariable, b = (b1 , . . . , bm )0 ∈ Rm mit m ≤ n und B = (bij ) i=1,...,m ∈ Rm·n mit rg (B) = m. j=1,...,n Dann ist z := Bx + b eine m-dimensionale N (Bµ + b, BΣB 0 )-verteilte Zufallsvariable. 2.1.28 Bemerkung: Sind bei einer mehrdimensionalen Zufallsvariablen alle Randverteilungen normalverteilt, so braucht die gemeinsame Verteilung keine Normalverteilung zu sein; sind die Komponenten aber zusätzlich unabhängig, so ist auch die gemeinsame Verteilung eine Normalverteilung. 2.1.29 Definition: Es seien χ2m , χ2n unabhängige, χ2 -verteilte Zufallsvariablen mit m bzw. n Freiheitsgraden. Dann heißt χ2m χ2 n Fnm := m2 = m · =: F(m,n) χn χ2n m n F -verteilt mit m Zählerfreiheitsgraden und n Nennerfreiheitsgraden. c V. Steinmetz: Statistische Analyseverfahren –23– 2.1.30 Folgerung: Es sei Fnm eine mit m Zähler- und n Nennerfreiheitsgraden F -verteilte Zufallsvariable über einem Wahrscheinlichkeitsraum (Ω, F, P). Dann gilt für alle p ∈]0, 1[ 1 m n =1−p, P {Fn ≤ λp,m,n } = p ⇐⇒ P Fm ≤ λp,m,n und somit auch λ1−p,n,m = c V. Steinmetz: Statistische Analyseverfahren 1 λp,m,n . –24– 2.2 Statistische Grundlagen 2.2.1 Erste Grundannahme der Statistik: Der interessierende Umweltausschnitt kann durch eine (ein- oder mehrdimensionale) Zufallsvariable y (bzw. y) beschrieben werden. 2.2.2 Zweite Grundannahme der Statistik (”Verteilungsannahme”): Es sei y die Zufallsvariable, durch welche der interessierende Umweltausschnitt gemäß 2.2.1 beschrieben wird. Man kann eine Menge W vonWahrscheinlichkeitsverteilungen angeben, zu der die unbekannte wahre Verteilung von y gehört. 2.2.3 Bemerkung: Es ist üblich, zur Vereinfachung auch die in der zweiten Grundannahme eingeführte Menge W selbst als Verteilungsannahme zu bezeichnen. 2.2.4 Vereinbarung: Es seien W eine Verteilungsannahme zu einer Zufallsvariablen y und ∅ 6= Θ ⊆ Rr . Eine surjektive Abbildung t:Θ→W heißt Parametrisierung von W und mit t(ϑ) =: Qy,ϑ schreibt man auch W = {Qy,ϑ | ϑ ∈ Θ}, man spricht von einer parametrischen Verteilungsannahme mit dem Parameterraum Θ. (I.a. werden in einer parametrischen Verteilungsannahme nur Verteilungen eines Typs - also z.B. nur Normalverteilungen, nur Dreipunktverteilungen mit festen Trägerpunkten etc. - enthalten sein). Ist eine Verteilungsannahme nicht parametrisch, heißt sie auch nichtparametrisch (verteilungsfrei). 2.2.5 Definition: Es seien y eine Zufallsvariable mit der parametrischen Verteilungsannahme W = {Qy,ϑ | ϑ ∈ Θ ⊆ Rr } und γ : Θ → Rs ◦ ◦ eine Transformation des Parameterraumes Θ. Für ϑ ∈ Θ heißt γ(ϑ) identifizierbar, wenn für alle ϑ ∈ Θ gilt: c V. Steinmetz: Statistische Analyseverfahren –25– ◦ γ(ϑ) 6= γ(ϑ) =⇒ Q ◦ 6= Qy,ϑ . y,ϑ .1) ◦ Gilt .1) für alle ϑ∈ Θ, heißt die Transformation γ(·) identifizierbar. 2.2.6 Dritte Grundannahme der Statistik: W sei die Verteilungsannahme zu einer Zufallsvariablen y. Es wird angenommen, daß Realisationen u1 , . . . , un von Zufallsvariablen x1 , . . . , xn beobachtet werden können, deren gemeinsames Verteilungsgesetz von der Verteilung Qy ∈ W in vollständig bekannter Weise abhängt. Man bezeichnet den Vektor (x1 , . . . , xn )0 als Stichprobe vom Umfang n zu y und (u1 , . . . , un )0 als eine Stichprobenrealisation. Die Menge aller Stichprobenrealisationen heißt Stichprobenraum und wird mit X bezeichnet. 2.2.7 Definition: e F, e P) e Es seien y eine Zufallsvariable über einem Wahrscheinlichkeitsraum (Ω, und x1 , . . . , xn (n ∈ N) stochastisch unabhängige Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P), die identisch wie y verteilt sind. Dann heißt die Zufallsvariable x := (x1 , . . . , xn )0 : Ω → Rn eine einfache Stichprobe (independent identically distributed sample, iid-sample) vom Umfang n zu y.3 2.2.8 Bemerkung: Gegeben seien die Voraussetzungen aus der vorigen Definition. Für ω ∈ Ω erhält man die Realisationen x(ω) = (x1 , . . . , xn )0 (ω) = (x1 (ω), . . . , xn (ω))0 =: (u1 , . . . , un )0 und alle Realisationen bilden den Stichprobenraum X = x(Ω) = {(u1 , . . . , un )0 ∈ Rn | (∃ω ∈ Ω)(x(ω) = (u1 , . . . , un )0 )} . 2.2.9 Bemerkung: Das bisher erarbeitete Konzept läßt sich folgendermaßen veranschaulichen: 3 Die Übertragung auf den Fall einer r-dimensionalen Zufallsvariable y mit r ∈ N ist problemlos. c V. Steinmetz: Statistische Analyseverfahren –26– e F, e P) e (Ω, (Ω, F, P) e Ω Ω yy yx R Rn (R, B1 , Qy ) (Rn , Bn , Qx ) Beschreibung des Beschreibung der Umweltausschnitts Stichprobenziehung | {z } der stochastische Zusammenhang wird durch das Auswahlverfahren festgelegt 2.2.10 Definition: Es seien y eine Zufallsvariable mit der parametrischen Verteilungsannahme W = {Qy,ϑ | ϑ ∈ Θ}, γ : Θ → Rm eine Abbildung und x = (x1 , . . . , xn )0 eine Stichprobe zu y mit dem Stichprobenraum X. Eine Abbildung δ : X → γ(Θ) heißt eine (Parameterpunkt)schätzfunktion (parameter estimation function, estimator) für den Parameter γ(ϑ) mit ϑ ∈ Θ. 2.2.11 Bemerkung: Man bezeichnet i.a. auch die Zufallsvariable δ(x) := δ ◦ x als Parameterpunktschätzfunktion für γ(ϑ) mit ϑ ∈ Θ. 2.2.12 Bemerkung: Entsprechend der dritten Grundannahme wird die Auswahl einer Realisation x = (x1 , . . . , xn )0 ∈ X von einer Wahrscheinlichkeitsverteilung gesteuert, damit auch die Bestimmung eines Näherungswertes δ(x1 , . . . , xn ) ∈ γ(Θ). Um eine Schätzfunktion δ als Zufallsvariable auffassen und damit die Hilfsmittel der Wahrscheinlichkeitstheorie zur Beurteilung von δ heranziehen zu können, muß auf γ(Θ) eine geeignete σ-Algebra festgelegt und die Meßbarkeit von δ sichergestellt werden. Auf diese Problematik soll hier aber nicht näher eingegangen werden. 2.2.13 Definition: Eine Schätzfunktion δ : X → γ(Θ) heißt erwartungstreu für γ(ϑ) (ϑ ∈ Θ), wenn gilt Eϑ δ = Eδ = γ(ϑ) c V. Steinmetz: Statistische Analyseverfahren für alle ϑ ∈ Θ . –27– 2.2.14 Satz: Es seien y eine Zufallsvariable mit der parametrischen Verteilungsannahme W = {Qy,ϑ | ϑ ∈ Θ ⊆ Rr } und γ : Θ → Rs eine Transformation des Parameterraumes Θ. Weiterhin sei x = (x1 , . . . , xn )0 ein Stichprobe zu y mit dem Stichprobenraum X. Gibt es eine für γ(ϑ) erwartungstreue Schätzfunktion δ : X → γ(Θ) , so ist γ(·) identifizierbar. 2.2.15 Definition: Es seien y eine Zufallsvariable mit der Verteilungsannahme W = {Qy,ϑ | ϑ ∈ Θ ⊆ Rr }, sowie γ : Θ → Rs eine Transformation des Parameterraumes und x = (x1 , . . . , xn )0 ein Stichprobe zu y mit dem Stichprobenraum X. Man bezeichnet γ(·) als eine u-schätzbare (unverzerrt-schätzbare, u-estimable, unbiased-estimable) Funktion, wenn es eine für γ(ϑ) mit ϑ ∈ Θ erwartungstreue Schätzfunktion δ : X → γ(Θ) gibt. Wenn δ linear ist, heißt γ(·) linear u-schätzbar. 2.2.16 Definition: Es sei ∆E eine Menge von erwartungstreuen Schätzfunktionen für τ = (τ1 , . . . , τm )0 aus γ(Θ). Man bezeichnet ◦ ◦ ◦ 0 δ = (δ 1 , . . . , δ m ) ∈ ∆E als eine beste Schätzfunktion für τ ∈ γ(Θ) in ∆E , wenn für alle δ = (δ1 , . . . , δm )0 aus ∆E gilt ◦ ◦ Var δ 1 ≤ Var δ1 , . . . , Var δ m ≤ Var δm für alle ϑ ∈ Θ. 2.2.17 Satz: Gegeben seien die Bezeichnungen und Voraussetzungen aus Definition (2.2.16). ◦ Gilt für ein δ ∈ ∆E ◦ Var a0 δ ≤ Var a0 δ ◦ ∀a ∈ Rm , ∀δ ∈ ∆E , so ist δ eine beste Schätzfunktion in ∆E . c V. Steinmetz: Statistische Analyseverfahren –28– 2.2.18 Definition: Es seien y eine Zufallsvariable mit der Verteilungsannahme W und W0 ⊆ W mit ∅ 6= W0 6= W sowie W1 := W \ W0 . Man bezeichnet die Aussage H0 : Qy ∈ W0 als Nullhypothese (null hypothesis) (oft der Einfachheit halber auch W0 selbst) und die Aussage H1 : Qy ∈ W1 als Gegenhypothese oder Alternative (oft auch W1 selbst). Es bezeichne d “ die Entscheidung Annahme von H0“ ( Ablehnung von H1“), ” 0 ” ” d1“ die Entscheidung Annahme von H1“ ( Ablehnung von H0“). ” ” ” Ist x = (x1 , . . . , xn )0 eine Stichprobe zu y mit dem Stichprobenraum X, so heißt eine Abbildung δ : X → {d0 , d1 } ein (Alternativ-)Test für H0 gegen H1 . Ist W eine parametrische Verteilungsannahme, so spricht man auch von einem Parametertest. Eine Hypothese heißt einfach, wenn die zugeordnete Teilmenge von W einelementig ist, andernfalls zusammengesetzt. (Entsprechend der Bemerkung (2.2.12) sollen auch hier Meßbarkeitsfragen ausgeklammert werden). 2.2.19 Definition: Es sei δ : X → {d0 , d1 } ein Alternativtest. Die Menge Kδ := {x | x ∈ X ∧ δ(x) = d1 } heißt der kritische Bereich (Verwerfungsbereich) (critical region) des Tests, die Menge Aδ := {x | x ∈ X ∧ δ(x) = d0 } sein Annahmebereich. 2.2.20 Definition: Es sei δ : X → {d0 , d1 } ein Alternativtest für die Hypothesen H0 : Qy ∈ W0 und H1 : Qy ∈ W1 und es sei die Beobachtung x ∈ X gegeben. Man sagt, es liege ein Fehler 1.Art vor, wenn H0 richtig ist, aber δ(x) = d1 gilt, es liege ein Fehler 2.Art vor, wenn H1 richtig ist, aber δ(x) = d0 gilt. c V. Steinmetz: Statistische Analyseverfahren –29– 2.2.21 Folgerung: Gegeben seien die Voraussetzungen aus Definition (2.2.20). Die Wahrscheinlichkeit, einen Fehler 1.Art zu begehen (Fehlerwahrscheinlichkeit 1.Art), ist Qx {x ∈ X | δ(x) = d1 } = Qx Kδ für alle Qy ∈ W0 . Die Wahrscheinlichkeit, einen Fehler 2.Art zu begehen (Fehlerwahrscheinlichkeit 2.Art), ist Qx {x ∈ X | δ(x) = d0 } = Qx Aδ für alle Qy ∈ W1 . 2.2.22 Definition: Es sei δ : X → {d0 , d1 } ein Alternativtest für die Hypothesen H0 : Qy ∈ W0 und H1 : Qy ∈ W1 , K bezeichne den kritischen Bereich. δ heißt ein Test zum (Signifikanz-)Niveau α ∈]0, 1[, wenn gilt Qx K ≤ α für alle Qy ∈ W0 . (Vielfach wählt man α = 0, 01 oder α = 0, 05). 2.2.23 Beispiel (Nagelbeispiel): Ein Haushaltswarengeschäft bietet zwei Sortimentspackungen Nägel an, Typ I enthält drei Sorten Nägel - bezeichnet mit 1, 2 und 3 - im Verhältnis 1:1:8, Typ II enthält dieselben Nagelsorten im Verhältnis 6:3:1. Die Beschriftung einer Packung ist unleserlich geworden. Auf der Basis einer zufälligen Stichprobe vom Umfang n = 1 soll die Nullhypothese, es handle sich um Typ I, gegen die Alternative, es liege Typ II, vor getestet werden. Die Nagelsorte werde als Zufallsvariable y mit den Trägerpunkten 1, 2 und 3 aufgefaßt. Es kommen zwei Wahrscheinlichkeitsverteilungen (Häufigkeitsverteilungen) in Betracht: y QI : QI {y} y QII : QII {y} 1 2 3 0,1 0,1 0,8 1 2 3 0,6 0,3 0,1 Man hat also die Verteilungsannahme W = {QI , QII }. Mit W0 = {QI } und W1 = {QII } folgen die Hypothesen H0 : Qy ∈ W0 H1 : Qy ∈ W1 gleichbedeutend mit H0 : Qy = QI gleichbedeutend mit H1 : Qy = QII . Es liegen damit zwei einfache Hypothesen vor. Da nur eine Stichprobe vom Umfang n = 1 gezogen werden soll, erhält man für c V. Steinmetz: Statistische Analyseverfahren –30– die Stichprobe x = x1 den Stichprobenraum X = {1, 2, 3}. (Für n = 2 hätte man x = (x1 , x2 ) mit X = {(1, 1), (1, 2), . . . , (3, 3)}). Um alle Tests δ : X → {d0 , d1 } anzugeben, bestimmt man alle möglichen Zerlegungen von X in den kritischen Bereich Ki und den zugehörigen Annahmebereich Ai (i = a, b, . . . , h): Nr. i Ki a {1} b {2} c {3} d {1,2} e {1,3} f {2,3} g {1,2,3} h ∅ Ai {2,3} {1,3} {1,2} {3} {2} {1} ∅ {1,2,3 } Z.B. besagt die erste Spalte, daß man H0 annimmt, falls als Stichprobenrealisation eine 2 oder 3 auftritt, daß man H0 ablehnt, falls 1 auftritt. Man erhält also den Test δa : X → {d0 , d1 } mit d0 : x ∈ {2, 3} δa (x) = d1 : x ∈ {1} Entsprechend ist δg der Test, der H0 unabhängig vom Stichprobenbefund stets ablehnt und δh der Test, der H0 stets annimmt. In der folgenden Tabelle ist für jeden Test δi die Wahrscheinlichkeit des Fehlers 1.Art Qx Ki (dabei Qy ∈ W0 ) und des Fehlers 2.Art Qx Ai (dabei Qy ∈ W1 ) angegeben: Nr. i Qx Ki Qx Ai a b c d e f g h 0,1 0,1 0,8 0,2 0,9 0,9 1 0 W’keit des Fehlers 1.Art (Qy = QI ) 0,4 0,7 0,9 0,1 0,3 0,6 0 1 W’keit des Fehlers 2.Art (Qy = QII ) Zur Beachtung: I.a. ist die Summe von 1. und 2. Fehlerwahrscheinlichkeit nicht Eins. Man berechnet zwar die Wahrscheinlichkeiten komplementärer Ereignisse Ki und Ai = CX Ki , aber mit verschiedenen Wahrscheinlichkeitsverteilungen. Allerdings zeigen die beiden Fehlerwahrscheinlichkeiten ein gewisses gegenläufiges Verhalten. Es sei das Signifikanzniveau α = 0, 15 gewählt. Die Tests zu diesem Niveau sind: δa mit Qx Ka = 0, 1 δb mit Qx Kb = 0, 1 dabei Qy = QI δh mit Qx Kh = 0 Die Fehlerwahrscheinlichkeiten 2.Art sind δa mit Qx Aa = 0, 4 δb mit Qx Ab = 0, 7 δh mit Qx Ah = 1 dabei Qy = QII Der beste Test zum Niveau α = 0, 15 ist also δa , da er die minimale Fehlerwahrscheinlichkeit 2.Art aufweist. c V. Steinmetz: Statistische Analyseverfahren –31– 2.2.24 Bemerkung: In der Praxis gibt man bei vorliegendem Stichprobenbefund x = (x1 , . . . , xn )0 bisweilen das Infimum der Signifikanzniveaus an, bei denen H0 abgelehnt würde. Man bezeichnet diesen Wert oft mit p, nennt ihn p-Wert (p-value, level attained) und lehnt H0 ab, wenn für das vorher gewählte Signifikanzniveau α gilt: α ≥ p. VORSICHT: Man muß das Signifikanzniveau vor der Auswertung des Stichprobenbefundes und vor der Kenntnis des p-Wertes festlegen, da sonst die Gefahr besteht, das Signifikanzniveau α so zu wählen, daß der Test die vom Anwender gewünschte Entscheidung liefert und die von der Testtheorie gelieferten Aussagen über die Fehlerwahrscheinlichkeiten unsinnig sind. 2.2.25 Definition: Es seien y eine Zufallsvariable mit der parametrischen Verteilungsannahme W = {Qy,ϑ | ϑ ∈ Θ}, γ : Θ → Rm eine Abbildung und x = (x1 , . . . , xn )0 eine Stichprobe zu y mit dem Stichprobenraum X. Eine Abbildung δ : X → P(γ(Θ)) heißt eine Parameterbereichsschätzung für den Parameter γ(ϑ) mit ϑ ∈ Θ. (Entsprechend der Bemerkung (2.2.12) sollen auch hier Meßbarkeitsfragen ausgeklammert werden). 2.2.26 Bemerkung: Man bezeichnet i.a. auch die Zufallsvariable δ(x) := δ ◦ x als Parameterbereichsschätzfunktion für γ(ϑ) mit ϑ ∈ Θ. 2.2.27 Definition: Es seien y eine Zufallsvariable mit der parametrischen Verteilungsannahme W , Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm sowie x = (x1 , . . . , xn )0 eine Stichprobe zu y mit dem Stichprobenraum X und α ∈]0, 1[. Eine Parameterbereichsschätzung δ : X → P(γ(Θ)) heißt eine Konfidenzbereichsschätzung (Konfidenzschätzung, confidence estimation) zur Sicherheitswahrscheinlichkeit (confi dence level) 1 − α (zum Niveau α) für γ(ϑ) mit ϑ ∈ Θ, wenn gilt: Qx,ϑ {x ∈ X | γ ∈ δ(x)} ≥ 1 − α für alle γ ∈ γ(Θ) und ϑ ∈ Θ mit γ(ϑ) = γ. Für jedes x ∈ X heißt δ(x) ⊆ γ(Θ) ein 1 − α-Konfidenzbereich für γ ∈ γ(Θ). 2.2.28 Satz: Es seien y eine Zufallsvariable mit der parametrischen Verteilungsannahme W , Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm sowie x = (x1 , . . . , xn )0 eine Stichprobe zu y mit dem Stichprobenraum X. Es seien δγ∗0 : X → {d0 , d1 } c V. Steinmetz: Statistische Analyseverfahren –32– für alle γ0 ∈ γ(Θ) Alternativtests zum Niveau α ∈]0, 1[ zur Prüfung der Hypothesen H0 : γ(ϑ) = γ0 H1 : ¬(γ(ϑ) = γ0 ), dabei sei Aγ0 := {x ∈ X | δγ∗0 (x) = d0 } der Annahmebereich des Tests δγ∗0 . Dann ist durch δ(x) := {γ0 ∈ γ(Θ) | x ∈ Aγ0 } eine Konfidenzbereichsschätzung δ : X → P(γ(Θ)) zur Sicherheitswahrscheinlichkeit 1 − α definiert. c V. Steinmetz: Statistische Analyseverfahren –33– 3 Das lineare Modell 3.1 Grundlegende Def initionen und Sätze 3.1.1 Definition: Es seien n, T ∈ N, y1 y = ... , yT u1 u = ... uT T -dimensionale Zufallsvektoren (bzw. ihre Realisationen) (random vector), x10 x11 · · · x1n .. = [X , . . . , X ] X = ... •0 •n . xT 0 xT 1 · · · xT n eine (T × (n + 1))-Matrix reeller deterministischer Variablen (bzw. ihrer Realisationen) und β0 β = ... βn ein (n + 1)-dimensionaler Vektor reeller deterministischer Variablen (bzw. ihrer Realisationen). Dann heißt .1) y = Xβ + u ein lineares Modell (linear model). Sind β0 , . . . , βn und die Verteilung von u (insbesondere die Verteilungsparameter) numerisch spezifiziert, so erhält man eine Struktur von .1). Es sei yt = β0 xt0 + . . . + βn xtn + ut die t-te Zeile (t = 1, . . . , T ) aus .1). Man nennt yt xt0 , . . . , xtn ut β0 , . . . , βn abhängige Variable, Regressand, unabhängige, erklärende, kontrollierte Variablen, Regressoren, Stör- oder Fehlervariable, Modellparameter, Regressionskoeffizienten. Liegen Realisationen y und X vor, bezeichnet man (y, X) als Beobachtungswertmatrix, X als Designmatrix, Regressormatrix. c V. Steinmetz: Statistische Analyseverfahren –34– Es werden folgende Annahmen gemacht: Für jedes X ∈ RT ×(n+1) und jedes β ∈ Rn+1 gilt: K1) Eu = 0 K2) Euu0 = σ 2 IT mit σ 2 ∈ R++ (dabei σ 2 unbekannt, fest). Ist ein Spaltenvektor von X a priori gleich dem Einsvektor ι gesetzt, so heißt das Modell inhomogen und der zugehörige β-Koeffizient wird als Absolutglied bezeichnet. (I.a. wählt man im inhomogenen Modell X•0 := ι, so daß β0 das Absolutglied ist). Wird kein Spaltenvektor von X a priori gleich dem Einsvektor ι (oder einem Vielfachen von ι) gesetzt, heißt das Modell homogen. 3.1.2 Satz: Gegeben sei das lineare Modell y = Xβ + u aus Definition (3.1.1). Unter der Voraussetzung K1) Eu = 0 gilt Ey = Xβ , und unter der zusätzlichen Voraussetzung K2) Euu0 = σ 2 IT folgt Σy y0 = σ 2 IT . c V. Steinmetz: Statistische Analyseverfahren –35– 3.2 Die Methode der kleinsten Quadrate 3.2.1 Definition: Gegeben sei das lineare Modell y = Xβ + u mit der Beobachtungswertmatrix (y, X). Eine Lösung β̂ ∈ Rn+1 des Minimierungsproblems (y − Xβ)0 (y − Xβ) .1) min n+1 β∈R bezeichnet man als Kleinst-Quadrate Lösung (KQ-Lösung, least squares solution). Zu β̂ heißt û := y − X β̂ der Vektor der KQ-Residuen. 3.2.2 Satz und Definition: Gegeben sei das lineare Modell y = Xβ + u mit der Beobachtungswertmatrix (y, X). Das Minimierungsproblem (3.2.1.1) hat stets mindestens eine Lösung β̂ ∈ Rn+1 . Die Lösungen sind genau alle Lösungen der sog. Normalgleichungen (normal equations) X 0 X β̂ = X 0 y . 3.2.3 Hilfssatz: Gegeben seien y = Xβ + u und (y, X) aus Definition (3.1.1). Dann gilt rg X 0 X = rg [X 0 X, X 0 y] . 3.2.4 Satz: Gegeben seien y = Xβ + u und (y, X) aus Definition (3.1.1). Weiterhin seien .1) X 0 X β̂ = X 0 y die zugehörigen Normalgleichungen und (X 0 X)− eine g-Inverse zu X 0 X. Dann ist durch .2) β̂ = (X 0 X)− X 0 y eine partikuläre Lösung von .1) gegeben und die allgemeine Lösung lautet e = β̂ + In+1 − (X 0 X)− X 0 X x mit x ∈ Rn+1 . β c V. Steinmetz: Statistische Analyseverfahren –36– 3.2.5 Hilfssatz: Es sei y = Xβ + u ein lineares Modell mit der (T × (n + 1))-Regressormatrix X. Dann gilt: .1) rg X 0 X = rg X .2) (X 0 X)0 = X 0 X .3) mit (X 0 X)− ist auch (X 0 X)− 0 g-Inverse zu X 0 X .4) X = X(X 0 X)− X 0 X .5) aus rg X(T ×(n+1)) = n + 1 folgt (X 0 X)− = (X 0 X)−1 0 X)− g-Inverse zu X 0 X, so folgt ^ .6) sind (X 0 X)− und (X 0 X)− X 0 , ^ X(X 0 X)− X 0 = X (X d.h. X(X 0 X)− X 0 ist unabhängig von der speziellen Wahl der g-Inversen .7) (X 0 X)− X 0 X (X 0 X)− X 0 X = (X 0 X)− X 0 X .8) X(X 0 X)− X 0 ist idempotent, auch wenn (X 0 X)− nicht symmetrisch ist. .9) IT −X(X 0 X)− X 0 ist idempotent, auch wenn (X 0 X)− nicht symmetrisch ist. .10) rg (X 0 X)− X 0 X = rg X 0 X = tr (X 0 X)− X 0 X = tr X(X 0 X)− X 0 = rg X(X 0 X)− X 0 .11) aus rg X(T ×(n+1)) = r folgt rg IT − X(X 0 X)− X 0 = T − r 3.2.6 Satz: Gegeben sei das lineare Modell y = Xβ + u mit Eu = 0 und der Regressormatrix X. Der Koeffizientenvektor β ist d.u.n.d. identifizierbar, wenn gilt rg X(T ×(n+1)) = n + 1 . c V. Steinmetz: Statistische Analyseverfahren –37– 3.2.7 Satz: Gegeben seien das lineare Modell y = Xβ + u mit Eu = 0 und der Regressormatrix X sowie eine (m × (n + 1))-Matrix Λ. Dann sind die folgenden Aussagen äquivalent: .1) Es gibt eine (m × T )-Matrix B mit BX = Λ, .2) Λβ ist linear u-schätzbar, .3) Λβ ist u-schätzbar, .4) Λβ ist identifizierbar. 3.2.8 Satz: Gegeben seien das lineare Modell y = Xβ + u mit Eu = 0 und der Regressormatrix X sowie eine (m × (n + 1))-Matrix Λ und eine (beliebige) g-Inverse (X 0 X)− zu X 0 X. Der transformierte Koeffizientenvektor Λβ ist d.u.n.d. u-schätzbar, wenn gilt Λ = Λ(X 0 X)− X 0 X . 3.2.9 Korollar: Gegeben seien die Voraussetzungen aus Satz (3.2.8). Der transformierte Koeffizientenvektor Λβ ist d.u.n.d. u-schätzbar, wenn gilt Λ I − (X 0 X)− X 0 X = O . 3.2.10 Satz und Definition: Gegeben sei das lineare Modell y = Xβ + u mit der Regressormatrix X(T ×(n+1)) und Eu = 0. Weiterhin seien Λβ mit einer (m × (n + 1))-Matrix Λ eine u-schätzbare Funktion des Modells, (X 0 X)− eine g-Inverse zu X 0 X und β̂ := (X 0 X)− X 0 y c V. Steinmetz: Statistische Analyseverfahren –38– eine partikuläre Lösung der Normalgleichungen. Dann gilt für die allgemeine Lösung e = β̂ + In+1 − (X 0 X)− X 0 X z β z ∈ Rn der Normalgleichungen e = Λβ̂ Λβ und Λβ̂ = Λ(X 0 X)− X 0 y ist unabhängig von der Wahl der g-Inversen. Man bezeichnet Λβ̂ als KQ-Schätzer für Λβ, er ist erwartungstreu. 3.2.11 Satz (von Gauß-Markov): Gegeben sei das lineare Modell y = Xβ + u mit der Regressormatrix X(T ×(n+1)) und Eu = 0 , Σu u0 = σ 2 IT (σ 2 > 0) . Weiterhin seien Λβ mit einer (m × (n + 1))-Matrix Λ eine u-schätzbare Funktion des Modells und (X 0 X)− eine g-Inverse zu X 0 X. Dann ist Λβ̂ = Λ(X 0 X)− X 0 y die beste Schätzfunktion für Λβ unter allen in y linearen und für Λβ erwartungstreuen Schätzern. 3.2.12 Bemerkung: Einen besten, linearen, unverzerrten Schätzer bezeichnet man auch als BLUE nach englisch best linear unbiased estimator. 3.2.13 Satz: Gegeben sei das lineare Modell y = Xβ + u mit der Regressormatrix X(T ×(n+1)) und Eu = 0 , Σu u0 = σ 2 IT (σ 2 > 0) . e u-schätzbare Funktionen mit Weiterhin seien Λβ und Λβ e ∈ Rr×(n+1) , Λ ∈ Rm×(n+1) , Λ c V. Steinmetz: Statistische Analyseverfahren –39– und (X 0 X)− eine g-Inverse zu X 0 X. Dann haben die KQ-Schätzfunktionen e β̂ = Λ(X e 0 X)− X 0 y Λβ̂ = Λ(X 0 X)− X 0 y und Λ e die Kovarianzmatrix für Λβ bzw. Λβ e 0 = σ 2 Λ(X 0 X)− 0 Λ e0 , Σ(Λβ̂)(Λe β̂)0 = σ 2 Λ(X 0 X)− Λ und für die Varianz-Kovarianzmatrizen4 gilt 0 Σ(Λβ̂)(Λβ̂)0 = σ 2 Λ(X 0 X)− Λ0 = σ 2 Λ(X 0 X)− Λ0 bzw. 0 e 0 X)− Λ e 0 = σ 2 Λ(X e 0 X)− Λ e0 . Σ(Λe β̂)(Λe β̂)0 = σ 2 Λ(X 3.2.14 Satz: Gegeben sei das lineare Modell y = Xβ + u mit der Regressormatrix X(T ×(n+1)) und Eu = 0 , Σu u0 = σ 2 IT (σ 2 > 0) . Weiterhin sei Λ eine (m × (n + 1))-Matrix mit Λ = Λ(X 0 X)− X 0 X . Gilt rg Λ = r, so folgt für die KQ-Schätzfunktion Λβ̂ für Λβ rg Σ(Λβ̂)(Λβ̂)0 = r , und wenn Λ maximalen Zeilenrang rg Λ = m hat, ist die (m × m)-Varianz-Kovarianzmatrix von Λβ̂ regulär. 3.2.15 Satz: Gegeben seien das lineare Modell y = Xβ + u und eine g-Inverse (X 0 X)− zu X 0 X. Mit β̂ = (X 0 X)− X 0 y 5 und ŷ := X β̂ gelten für das Residuum û := y − X β̂ = y − ŷ die Orthogonalitätsbeziehungen X 0 û = 0 und ŷ 0 û = 0 . 4 5 Diese Matrizen sind hier i.a. singulär. β ist i.a. nicht identifizierbar, also β̂ keine Schätzfunktion. c V. Steinmetz: Statistische Analyseverfahren –40– 3.2.16 Satz: Gegeben seien y = Xβ + u , β̂ = (X 0 X)− X 0 y , ŷ = X β̂ , û = y − ŷ aus Satz (3.2.15). Dann gilt die Zerlegungsformel y 0 y = ŷ 0 ŷ + û0 û . 3.2.17 Satz: Gegeben sei das lineare Modell y = Xβ + u mit der Regressormatrix X(T ×(n+1)) und Eu = 0 , Σu u0 = σ 2 IT (σ 2 > 0) . Gilt rg X(T ×(n+1)) = r < T , so ist û0 û σb2 := T −r eine erwartungstreue Schätzfunktion für σ 2 . c V. Steinmetz: Statistische Analyseverfahren –41– 3.3 Tests und Konf idenzbereichsschätzungen im linearen Modell unter Normalverteilungsannahmen 3.3.1 Satz: Gegeben sei das lineare Modell y = Xβ + u mit rg X(T ×(n+1)) = r und u ∼ N (0, σ 2 IT ) (σ 2 > 0). Es seien (X 0 X)− eine g-Inverse zu X 0 X und β̂ := (X 0 X)− X 0 y , ŷ := X β̂ , û := y − ŷ . Dann sind ŷ und û unabhängig von der speziellen Wahl der g-Inversen und es gilt û0 û ∼ χ2T −r . σ2 3.3.2 Satz: Gegeben seien die Voraussetzungen aus Satz (3.3.1). Weiterhin sei Λβ eine u-schätzbare Funktion. Dann sind û0 û und Λβ̂ stochastisch unabhängig. 3.3.3 Satz: Gegeben sei das lineare Modell y = Xβ + u mit rg X(T ×(n+1)) = r und u ∼ N (0, σ 2 IT ) (σ 2 > 0). Weiterhin seien (X 0 X)− eine g-Inverse zu X 0 X und Λβ eine u-schätzbare Funktion mit rg Λ(m×(n+1)) = m sowie Λβ̂ eine KQ-Schätzfunktion für Λβ. Dann gilt .1) m ≤ r, .2) Λ(X 0 X)− Λ0 ist regulär, c V. Steinmetz: Statistische Analyseverfahren –42– .3) Λβ̂ − Λβ 0 Λ(X 0 X)− Λ0 −1 Λβ̂ − Λβ ist χ2m -verteilt und stochastisch- σ2 0 û û unabhängig von 2 . σ 3.3.4 Satz: Gegeben seien die Voraussetzungen aus Satz (3.3.3). Dann gilt Λβ̂ − Λβ 0 0 − 0 −1 Λ(X X) Λ Λβ̂ − Λβ · 0 û û T −r m m ist FT −r -verteilt. 3.3.5 Test: Gegeben: Lineares Modell y = Xβ + u mit rg X(T ×(n+1)) = r , u ∼ N (0, σ 2 IT ) mit σ 2 > 0, (X 0 X)− g-Inverse zu X 0 X, Λ (m × (n + 1))-Matrix mit Λ = Λ(X 0 X)− X 0 X, rg Λ = m ≤ r, d ∈ Rm , α ∈]0, 1[, Beobachtung y (bei gegebenem X). Hypothesen H0 : Λβ = d H1 : Λβ 6= d 6 m Berechne: Aus der FT −r -Tafel m λ1−α : P{FT −r ≤ λ1−α } = 1 − α β̂ = (X 0 X)− X 0 y , ŷ = X β̂ , û = y − ŷ 0 7 0 − 0 −1 Λβ̂ − d (Λ(X X) Λ ) Λβ̂ − d T −r F0 = · m û0 û Entscheide: 6 7 H0 annehmen: F0 ≤ λ1−α H1 annehmen: F0 > λ1−α Man spricht von testbaren Hypothesen, wenn Λβ u-schätzbar und Λβ = d lösbar ist. Wichtig: Unter H0 ist die Verteilung von F0 unabhängig von σ 2 , bei H1 hängt die Verteilung wieder von σ 2 ab, auch wenn es nicht explizit in der Formel für F0 auftritt !! c V. Steinmetz: Statistische Analyseverfahren –43– 3.3.6 Satz: Gegeben seien das lineare Modell y = Xβ + u mit rg X(T ×(n+1)) = r , eine g-Inverse (X 0 X)− zu X 0 X und eine Matrix Λ mit rg Λ(m×(n+1)) = m , Λ = Λ(X 0 X)− X 0 X und d ∈ Rm . Dann führt das Minimierungsproblem 0 min y − Xβ y − Xβ n+1 β∈R Λβ=d auf die Normalgleichungen 1 ˆ ˆ ˆ Λβ̂ = d , X 0 X β̂ = X 0 y − Λ0 ˆl , 2 ˆ (dabei bezeichnet ˆl ∈ Rm die Lösung für den Lagrange-Multiplikationsvektor l ∈ Rm ). Eine partikuläre Lösung ist ˆ 0 − 0 0 − 0 −1 β̂ = β̂ − (X X) Λ Λ(X X) Λ Λβ̂ − d mit β̂ = (X 0 X)− X 0 y . 3.3.7 Satz: ˆ Gegeben seien der Test (3.3.5) und mit β̂ eine Lösung des Minimierungsproblems 0 min y − Xβ y − Xβ n+1 β∈R Λβ=d sowie ˆ ûˆ := y − X β̂ . Dann läßt sich die Teststatistik darstellen in der Form 0 ûˆ ûˆ − û0 û T − r F0 = · m û0 û (F0 ist unabhängig von der Wahl der g-Inversen). 3.3.8 Satz: Gegeben sei der Test δ(y|X) := d ∈ Rm (3.3.5). Dann ist bei gegebenem (y, X) durch 0 −1 0 − 0 Λβ̂ − d Λ(X X) Λ Λβ̂ − d T −r · ≤ λ 1−α m û0 û ein Konfidenzbereich für Λβ zur Sicherheitswahrscheinlichkeit 1 − α gegeben. c V. Steinmetz: Statistische Analyseverfahren –44– 4 Regressionsanalyse 4.1 Satz: Gegeben sei das lineare Modell y = Xβ + u mit der Beobachtungswertmatrix (y, X), Σ u u0 = σ 2 I Eu = 0, (σ 2 > 0) und der Bedingung rg X(T ×(n+1)) = n + 1 . Dann gilt .1) X 0 X ist regulär, .2) die Normalgleichungen X 0 X β̂ = X 0 y sind eindeutig auflösbar, man erhält die Lösung β̂ = (X 0 X)−1 X 0 y , .3) für jede (m×(n+1))-Matrix Λ ist Λβ eine schätzbare Funktion, insbesondere also mit Λ = I auch Λβ = Iβ = β , 8 .4) β̂ ist BLUE für β (Satz von Gauß-Markov), .5) Σβ̂ β̂ 0 = σ 2 (X 0 X)−1 ist regulär, .6) für T > n + 1 ist 1 σb2 := û0 û T −n−1 eine erwartungstreue Schätzfunktion für σ 2 , .7) jedes Λ(m×(n+1)) mit rg Λ = m liefert mit d ∈ Rm testbare Hypothesen H0 : Λβ = d 8 H1 : Λβ 6= d . Jetzt ist es sinnvoll, von der KQ-Schätzung β̂ zu sprechen. c V. Steinmetz: Statistische Analyseverfahren –45– 4.2 Test: Gegeben: Lineares Modell y = Xβ + u mit rg X(T ×(n+1)) = n + 1, u ∼ N (0, σ 2 IT ) mit σ 2 > 0, β m := (β0 , . . . , βm−1 )0 (evtl. nach Umnumerierung), X = [X1 , X2 ] (entsprechend der Aufteilung von β), β̂ m := (β̂0 , . . . , β̂m−1 )0 , d ∈ Rm , α ∈]0, 1[, Beobachtung y (bei gegebenem X). Hypothesen H0 : β m = d H1 : β m 6= d Berechne: Aus der FTm−n−1 -Tafel λ1−α : P{FTm−n−1 ≤ λ1−α } = 1 − α β̂ = (X 0 X)−1 X 0 y H = X10 X1 − X10 X2 (X20 X2 )−1 X20 X1 (β̂ m − d)0 H(β̂ m − d) T − n − 1 F0 = · m û0 û Entscheide: H0 annehmen: F0 ≤ λ1−α H1 annehmen: F0 > λ1−α 4.3 Test: Gegeben: Lineares Modell y = Xβ + u mit rg X(T ×(n+1)) = n + 1 < T , u ∼ N (0, σ 2 IT ) mit σ 2 > 0, d ∈ R, α ∈]0, 1[, i ∈ {0, 1, . . . , n}, Beobachtung y (bei gegebenem X). Hypothesen Fall 0 Fall I Fall II βi = d βi ≤ d β ≥ d βi 6= d βi > d βi < d H0 : H1 : Berechne: Aus der tT −n−1 -Tafel α 2 ≤ λ1−α } = 1 − α λ1− α2 : P{tT −n−1 ≤ λ1− α2 } = 1 − λ1−α : P{tT −n−1 β̂i − d t0 = q 2 (β̂ ) σ\ i 2 (β̂ ) aus σ b2 (X 0 X)−1 mit σb2 := ( σ\ i û0 û oder mit geeignet gewähltem H T −n−1 aus Test (4.2)) Entscheide: Fall 0 H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2 H1 annehmen: |t0 | > λ1− α2 c V. Steinmetz: Statistische Analyseverfahren Fall I Fall II t0 ≤ λ1−α t0 ≥ −λ1−α t0 > λ1−α t0 < −λ1−α –46– 4.4 Satz: Gegeben seien die Voraussetzungen aus Test (4.3). Dann ist ein zweiseitiges Konfidenzintervall für βi i ∈ {0, 1, . . . , n} zur Sicherheitswahrscheinlichkeit 1 − α gegeben durch q q \ \ 2 2 α α δ(y | X) = β̂i − λ1− 2 σ (β̂i ), β̂i + λ1− 2 σ (β̂i ) . 4.5 Satz und Definition: Gegeben seien das homogene lineare Modell y = Xβ + u mit der Beobachtungswertmatrix (y, X), rg X(T ×(n+1)) = n + 1, y 6= 0 sowie β̂ = (X 0 X)−1 X 0 y , ŷ = X β̂ , Man bezeichnet 2 Rhom := 1 − û = y − ŷ . ŷ 0 ŷ û0 û = y0y y0y als Bestimmtheitsmaß (coefficient of determination) für das homogene Modell.Es gilt 2 0 ≤ Rhom ≤1. 4.6 Satz und Definition: Gegeben seien das inhomogene lineare Modell y = Xβ + u mit X•0 = ι , der Beobachtungswertmatrix (y, X) mit rg X(T ×(n+1)) = n + 1 sowie β̂ = (X 0 X)−1 X 0 y , Mit y := 1 0 ιy , T ŷ = X β̂ , ŷ := gelten .1) û = 0 und der Zerlegungssatz c V. Steinmetz: Statistische Analyseverfahren 1 0 ι ŷ , T û = y − ŷ . û := 1 0 ι û T –47– .2) (y − y ι)0 (y − y ι) = (ŷ − ŷ ι)0 (ŷ − ŷ ι) + û0 û . Man bezeichnet für σb2 (y) > 0 R2 := 1 − = = û0 û (y − y ι)0 (y − y ι) (ŷ − ŷ ι)0 (ŷ − ŷ ι) (y − y ι)0 (y − y ι) σb2 (ŷ) σb2 (y) als Bestimmtheitsmaß (coefficient of determination) für das inhomogene Modell. Es gilt 0 ≤ R2 ≤ 1 . c V. Steinmetz: Statistische Analyseverfahren –48– 5 Varianzanalyse 5.1 Varianzanalyse mit festen Ef fekten (Modell I) und einfacher Klassif ikation 5.1.1 Definition: Gegeben seien n, T1 , . . . , Tn ∈ N und T := T1 + · · · + Tn . Das lineare Modell y = Xβ + u mit u ∼ N (0, σ 2 I) (σ 2 > 0) und y11 .. . y1T1 . y= .. y n1 . .. ynTn 1 .. . 1 1 . . . X= 1 . .. 1 .. . 1 | ) ··· 0 .. T1 . ··· ··· 0 ) 0 ··· 0 .. .. T2 . . 0 ··· 0 .. . 0 1 ) .. .. Tn . . 0 1 {z } 1 .. . 0 ··· .. . 1 0 .. . 0 1 .. . 0 1 0 .. . 0 β= β0 β1 .. . βn u11 .. . u1T1 . u = .. u n1 . .. unTn n+1 d.h. yij = β0 xij0 + β1 xij1 + · · · + βn xijn + uij .1) (i = 1, . . . , n; j = 1, . . . , Ti ) sowie ( 9 .2) xijk = δik = 1:i=k 0 : i 6= k i = 1, . . . , n j = 1, . . . , Ti k = 1, . . . , n ) xij0 ≡ 1 heißt Modell der einfachen Varianzanalyse mit festen Effekten. Man sagt, die Variable y hänge von dem Faktor x in n Stufen (i = 1, . . . , n) ab. Faßt man .1) und .2) zu den Gleichungen yij = β0 + βi + uij i = 1, . . . , n; j = 1, . . . , Ti zusammen, so bezeichnet man diese als Effektdarstellung des Modells. Das Absolutglied β0 heißt allgemeiner Effekt und βi (i = 1, . . . , n) heißt Effekt der i-ten Faktorstufe. Gilt T1 = · · · = Tn , so heißt das Modell balanciert (balanced), andernfalls unbalanciert (unbalanced). ( 9 δik := 1:i=k ist das sog. Kronecker-Symbol 0 : i 6= k c V. Steinmetz: Statistische Analyseverfahren –49– 5.1.2 Satz: Es sei yij = β0 + β1 xij1 + · · · + βn xijn + uij mit xijk = δik i = 1, . . . , n; j = 1, . . . , Ti ; k = 1, . . . , n das Varianzanalysemodell aus Definition (5.1.1). Eine lineare Funktion Λβ von β mit λ10 λ11 · · · λ1n .. Λ = ... . λm0 λm1 · · · λmn ist d.u.n.d. u-schätzbar, wenn gilt .1) λr0 = n P λrk r = 1, . . . , m . k=1 Hat Λ maximalen Zeilenrang rg Λ(m×(n+1)) = m , so gilt .2) m≤n. 5.1.3 Satz und Definition: Gegeben seien n, T1 , . . . , Tn ∈ N und y = (y11 , . . . , y1T1 , . . . , yn1 , . . . , ynTn )0 . Es seien definiert T := T1 + · · · + Tn yi• := Ti X yij yi• := j=1 y•• := Ti n X X yij 1 yi• Ti i = 1, . . . , n y•• := i=1 j=1 1 y•• . T Dann gilt die Zerlegungsformel Ti n X X 2 Ti n X X } | (yij − y•• ) = i=1 j=1 | 2 n X } |i=1 (yij − yi• ) + i=1 j=1 {z q {z q2 Ti (yi• − y•• )2 . {z q1 } Man bezeichnet q als Summe der quadrierten Abweichungen in der Gesamtheit vom Gesamtmittel, c V. Steinmetz: Statistische Analyseverfahren –50– q2 als Summe der quadrierten Abweichungen innerhalb der Stufen vom jeweiligen Stufenmittel, q1 als gewichtete Summe der quadrierten Abweichungen der Stufenmittel vom Gesamtmittel. 5.1.4 Test: Einfache Varianzanalyse (feste Effekte): Gegeben: Lineares Modell yij = β0 + βi + uij i = 1, . . . , n; j = 1, . . . , Ti ; n P n > 1; Ti =: T > n mit uij ∼ N (0, σ 2 ), stochastisch unabhängig, σ 2 > 0, i=1 α ∈]0, 1[, Beobachtungen yij Hypothesen: H0 : β1 = . . . = βn H1 : ¬(β1 = . . . = βn ) Berechne: Aus F -Tafel n−1 λ1−α : P{FT −n ≤ λ1−α } = 1 − α Beobachtungen 1 ··· j ··· P Ti j Faktorstufen 1 Ti P j 1 .. . y11 .. . ··· y1j .. . ··· y1T1 .. . y1• .. . y1• = .. . 1 y T1 1• i .. . yi1 .. . ··· yij .. . ··· yiTi .. . yi• .. . yi• = .. . 1 y Ti i• n yn1 ··· ynj ··· ynTn yn• yn• = 1 y Tn n• P y•• i y•• = T1 y•• P = T1 Ti yi• = i q1 = n P Ti (yi• − y•• )2 1 T P i gewichtete Summe der quadrierten Abweichungen i=1 der Gruppenmittel q2 = Ti n P P (yij − yi• )2 Summe der quadrierten Abweichungen innerhalb i=1 j=1 der Gruppen F0 q1 T − n = · q2 n − 1 Entscheide: H0 annehmen: F0 ≤ λ1−α H1 annehmen: F0 > λ1−α c V. Steinmetz: Statistische Analyseverfahren yi• –51– 5.1.5 Satz und Definition: Gegeben sei das Varianzanalysemodell aus Definition (5.1.1). Eine lineare Funktion λ0 β von β mit λ = (λ0 , λ1 , . . . , λn )0 und λ0 = 0 ist d.u.n.d. u-schätzbar, wenn gilt .1) n P λk = 0 . k=1 Eine u-schätzbare Funktion λ0 β mit .1) heißt ein linearer Kontrast (linear contrast). Ein linearer Kontrast mit λ0 β = βi − βl 0 6= i 6= l 6= 0 heißt ein Elementarkontrast. Eine Matrix 0 λ1 λ10 λ11 · · · λ1n .. , Λ = ... = ... . 0 λm λm0 λm1 · · · λmn deren Zeilen linear unabhängig und für die λ0i β (i = 1, . . . , n) lineare Kontraste sind, heißt Kontrastmatrix. Zwei lineare Kontraste λ0i β und λ0l β mit i 6= l heißen orthogonal, wenn gilt λ0i λl = 0 . 5.1.6 Test: Multiple Mittelwertsvergleiche im einfachen Modell (Scheffé-Test, S-Test): Gegeben: Lineares Modell yij = β0 + βi + uij i = 1, . . . , n; j = 1, . . . , Ti ; n P n > 1; Ti =: T > n mit uij ∼ N (0, σ 2 ), stochastisch unabhängig, σ 2 > 0, i=1 α ∈]0, 1[, Beobachtungen yij , d ∈ Rn−1 , Kontrastmatrix 0 λ11 · · · λ1n .. Λ = ... . 0 λn−1,1 · · · λn−1,n mit rg Λ = n − 1 und n X λlk = 0; l = 0, . . . , n − 1 k=1 Hypothesen: H0 : n X λ1k βk = d1 ∧ . . . ∧ k=1 c V. Steinmetz: Statistische Analyseverfahren n X k=1 λn−1,k βk = dn−1 –52– H1 : n X λ1k βk 6= d1 ∨ . . . ∨ k=1 n X λn−1,k βk 6= dn−1 k=1 Berechne: Aus F -Tafel n−1 λ1−α : P{FT −n ≤ λ1−α } = 1 − α Ti 1 X yi• = yij , Ti j=1 n X λlk yk• , q2 = k=1 Ti n X X (yij − yi• )2 i=1 j=1 Entscheide: H0 annehmen: v v u u n n n 2 X X X u n−1 u n−1 λ2lk λlk t t λ1−α λ1−α ≤ λlk yk• − dl ≤ + q2 − q2 T −n Tk T −n Tk k=1 k=1 k=1 für alle l = 1, . . . , n − 1 H1 annehmen: sonst (Dabei geben im Fall der Ablehnung von H0 die verletzten Ungleichungen an, für welche l die Hypothesen n X λlk βk = dl k=1 zu verwerfen sind.) 5.1.7 Bemerkung: Gegeben sei der 0 0 Λ = ... 0 0 | Test (5.1.6). Wählt man 1 0 ··· ··· −1 0 · · · · · · 0 1 −1 0 · · · 0 .. .. .. .. .. . . . . . ··· 0 1 −1 0 ··· ··· 0 1 −1 {z } n − 1 und d = 0 , n+1 so erhält man die Hypothesen H0 : β1 = β2 ∧ · · · ∧ βn−1 = βn H1 : β1 6= β2 ∨ · · · ∨ βn−1 6= βn und die Bedingungen für die Annahme von H0 haben die Gestalt s s n−1 1 1 n−1 1 1 − q2 λ1−α + ≤ yl• − yl+1• ≤ q2 λ1−α + T −n Tl Tl+1 T −n Tl Tl+1 für alle l = 1, . . . , n − 1 Im Falle der Ablehnung von H0 sieht man direkt, welche Faktorstufen signifikant unterschiedlichen Einfluß auf die abhängige Variable haben. c V. Steinmetz: Statistische Analyseverfahren –53– 5.1.8 Test: Bartlett-Test: Gegeben: Stochastisch unabhängige Zufallsvariablen yij ∼ N (µi , σi2 ) i = 1, . . . , n; n P j = 1, . . . , Ti ; Ti := T ; α ∈]0, 1[, Beobachtungen yij i=1 Hypothesen: H0 : σ12 = . . . = σn2 H1 : ¬(σ12 = . . . = σn2 ) Berechne: Aus χ2 -Tafel: λ1−α : P{χ2n−1 ≤ λ1−α } = 1 − α j i 1 ··· ··· j P Ti j 1 Ti P j 1 .. . y11 .. . ··· y1j .. . ··· y1T1 .. . y1• .. . y1• = .. . 1 y T1 1• i .. . yi1 .. . ··· yij .. . ··· yiTi .. . yi• .. . yi• = .. . 1 y Ti i• n yn1 ··· ynj ··· ynTn yn• yn• = 1 y Tn n• T s2i := i 1 X (yij − yi• )2 Ti − 1 j=1 i = 1, . . . , n n 1 X (Ti − 1)s2i T − n i=1 " n # X 1 1 1 c := − +1 3(n − 1) i=1 Ti − 1 T − n " # n X 1 χ20 = (T − n) ln s2 − (Ti − 1) ln s2i c i=1 s2 := Entscheide: H0 annehmen: χ20 ≤ λ1−α H1 annehmen: χ20 > λ1−α c V. Steinmetz: Statistische Analyseverfahren –54– 5.1.9 Vereinbarung: Für den Rest dieses Abschnittes werde das Modell der einfachen Varianzanalyse aus Definition (5.1.1) bezeichnet als .1) Modell A: y = Xβ + u u ∼ N (0, σ 2 I) (σ 2 > 0) Durch Hinzunahme einer sogenannten Reparametrisierungsbedingung (RB) werde darauf aufgebaut das .2) Modell B: y = Xβ + u u ∼ N (0, σ 2 I) (σ 2 > 0) n X Ti βi = 0 RB i=1 Während für Modell A jede Lösung β̂ ∈ Rn+1 des Minimierungsproblems .3) min (y − Xβ)0 (y − Xβ) n+1 β∈R als KQ-Lösung bezeichnet wird, heißt für Modell B entsprechend jede Lösung β̂ ∈ Rn+1 des Minimierungsproblems .4) min (y − Xβ)0 (y − Xβ) β∈Rn+1 n P Ti βi =0 i=1 eine KQ-Lösung unter der Reparametrisierungsbedingung n P i=1 5.1.10 Lemma: Gegeben seien die Modelle aus Vereinbarung (5.1.9) sowie n+1 RRB := {β ∈ R n+1 | n X Ti βi = 0} . i=1 Dann gilt für die Verteilungsannahmen WA := {N (Xβ, σ 2 I) | σ 2 > 0, β ∈ Rn+1 } und WB := {N (Xβ, σ 2 I) | σ 2 > 0, β ∈ Rn+1 RB } die Gleichheit WA = WB . c V. Steinmetz: Statistische Analyseverfahren Ti βi = 0. –55– 5.1.11 Lemma: Gegeben seien im Modell A testbare Hypothesen H0 : Λβ = d H1 : Λβ 6= d . Dann gilt, daß diese Hypothesen auch im Modell B testbar sind. 5.1.12 Lemma: Gegeben seien für Modell A die Voraussetzungen aus Test (3.3.5) mit den testbaren Hypothesen H0 : Λβ = d H1 : Λβ 6= d und der Testgröße 0 −1 Λβ̂ − d (Λ(X 0 X)− Λ0 ) Λβ̂ − d T −r F0 = · . 0 m û û Für das Modell B werde β̌ als Lösung des Minimierungsproblems mit Reparametrisierungsbedingung (5.1.9.4) bestimmt sowie y̌ := X β̌ und ǔ := y − y̌. Für die Testgröße 0 −1 Λβ̌ − d (Λ(X 0 X)− Λ0 ) Λβ̌ − d T − r Fˇ0 = · ǔ0 ǔ m gilt dann F0 = Fˇ0 , so daß in Modell A und Modell B dieselben Entscheidungen getroffen werden. c V. Steinmetz: Statistische Analyseverfahren –56– 5.2 Varianzanalyse mit festen Ef fekten (Modell I) und mehrfacher Klassif ikation 5.2.1 Test: Zweifache Varianzanalyse mit einfacher Besetzung ohne Interaktion (feste Effekte): Gegeben: Lineares Modell yij = µ + αi + βj + uij i = 1, . . . , m; j = 1, . . . , n mit uij ∼ N (0, σ 2 ), stochastisch unabhängig, σ 2 > 0, α ∈]0, 1[, Beobachtungen yij . Hypothesen: H0α : α1 = . . . = αm H0β : β1 = . . . = βn H1α : ¬(α1 = . . . = αm ) H1β : ¬(β1 = . . . = βn ) Berechne: Aus F -Tafel α λ1−α : P{F β λ1−α : P{F m−1 (m−1)(n−1) n−1 (m−1)(n−1) ≤ α λ1−α } =1−α ≤ β λ1−α } =1−α Stufen des 2. Faktors j i ··· 1 j ··· n P j 1 n P j 1 .. . y11 .. . ··· y1j .. . ··· y1n .. . y1• .. . y1• .. . i .. . yi1 .. . ··· yij .. . ··· yin .. . yi• .. . yi• .. . m ym1 ··· ymj ··· ymn ym• ym• P y•1 ··· y•j ··· y•n y•• y•1 ··· y•j ··· y•n Stufen des 1. Faktors i 1 m q1α = P m X i (yi• − y•• )2 i=1 q2 = q1β = n X (y•j − y•• )2 j=1 m X n X (yij − yi• − y•j + y•• )2 i=1 j=1 c V. Steinmetz: Statistische Analyseverfahren 1 y mn •• = y•• –57– F0α = q1α · n(n − 1) q2 F0β = q1β q2 · m(m − 1) Entscheide: H0α annehmen: F0α ≤ α λ1−α H0β annehmen: F0β ≤ β λ1−α H1α annehmen: F0α > α λ1−α H1β annehmen: F0β > β λ1−α 5.2.2 Test: Zweifache Varianzanalyse mit konstanter mehrfacher Besetzung ohne Interaktion (feste Effekte): Gegeben: Lineares Modell yijt = µ + αi + βj + uijt i = 1, . . . , m > 1; j = 1, . . . , n > 1; t = 1, . . . , T > 1 mit uijt ∼ N (0, σ 2 ), stochastisch unabhängig, σ 2 > 0, α ∈]0, 1[, Beobachtungen yijt . Hypothesen: H0α : α1 = . . . = αm H0β : β1 = . . . = βn H1α : ¬(α1 = . . . = αm ) H1β : ¬(β1 = . . . = βn ) Berechne: Aus F -Tafel m−1 α λ1−α : P{FmnT −m−n+1 ≤ β λ1−α : P{FmnT −m−n+1 ≤ n−1 c V. Steinmetz: Statistische Analyseverfahren α λ1−α } =1−α β λ1−α } =1−α –58– Stufen des 2. Faktors j i S t u f e n ··· ··· ··· n P j 1 P y111 .. . ··· ··· ··· y1n1 .. . y11T ··· ··· ··· y1nT y11• ··· ··· ··· y1n• y11• ··· ··· ··· y1n• y211 .. . ··· ··· ··· y2n1 .. . y21T ··· ··· ··· y2nT y21• ··· ··· ··· y2n• y21• ··· ··· ··· y2n• ym11 .. . ··· ··· ··· ymn1 .. . ym1T ··· ··· ··· ymnT ym1• ··· ··· ··· ymn• ym1• ··· ··· ··· ymn• y•1• ··· ··· ··· y•n• y•1• ··· ··· ··· y•n• 1 nT P j y1•• y1•• y2•• y2•• ym•• ym•• t 1 T d e s 1 P t 2 P t 1 T e r s t e n P t .. . m P t F a k t o r s 1 T P t P y••• i 1 mT P i c V. Steinmetz: Statistische Analyseverfahren 1 y mnT ••• = y••• –59– q1α = m X 2 (yi•• − y••• ) q1β = i=1 q2 = n X (y•j• − y••• )2 j=1 m X n X T X (yijt − yi•• − y•j• + y••• )2 i=1 j=1 t=1 q1α nT (mnT − m − n + 1) · q2 m−1 Entscheide: F0α = F0β = q1β mT (mnT − m − n + 1) · q2 n−1 H0α annehmen: F0α ≤ α λ1−α H0β annehmen: F0β ≤ β λ1−α H1α annehmen: F0α > α λ1−α H1β annehmen: F0β > β λ1−α 5.2.3 Test: Zweifache Varianzanalyse mit konstanter mehrfacher Besetzung und Interaktion (feste Effekte): Gegeben: Lineares Modell yijt = µ+αi +βj +(αβ)ij +uijt i = 1, . . . , m > 1; j = 1, . . . , n > 1; t = 1, . . . , T > 1 mit uijt ∼ N (0, σ 2 ), stochastisch unabhängig, σ 2 > 0, α ∈]0, 1[, Beobachtungen yijt . Reparametrisierungsbedingungen: m X n X αi = 0 i=1 m X βj = 0 j=1 (αβ)ij = 0 für alle j = 1, . . . , n i=1 n X (αβ)ij = 0 für alle i = 1, . . . , m j=1 Hypothesen: H0α : α1 = . . . = αm (= 0) H1α : ¬(α1 = . . . = αm ) H0β : β1 = . . . = βn (= 0) H1β : ¬(β1 = . . . = βn ) H0(αβ) : (αβ)11 = . . . = (αβ)mn = 0 H1(αβ) : ¬((αβ)11 = . . . = (αβ)mn = 0) Berechne: Aus F -Tafel α λ1−α β λ1−α αβ λ1−α : P{F m−1 mn(T −1) : P{F ≤ n−1 mn(T −1) : P{F (m−1)(n−1) mn(T −1) c V. Steinmetz: Statistische Analyseverfahren ≤ ≤ α λ1−α } β λ1−α =1−α =1−α αβ λ1−α } =1−α –60– Stufen des 2. Faktors j i S t u f e n ··· ··· ··· n P j 1 P y111 .. . ··· ··· ··· y1n1 .. . y11T ··· ··· ··· y1nT y11• ··· ··· ··· y1n• y11• ··· ··· ··· y1n• y211 .. . ··· ··· ··· y2n1 .. . y21T ··· ··· ··· y2nT y21• ··· ··· ··· y2n• y21• ··· ··· ··· y2n• ym11 .. . ··· ··· ··· ymn1 .. . ym1T ··· ··· ··· ymnT ym1• ··· ··· ··· ymn• ym1• ··· ··· ··· ymn• y•1• ··· ··· ··· y•n• y•1• ··· ··· ··· y•n• 1 nT P j y1•• y1•• y2•• y2•• ym•• ym•• t 1 T d e s 1 P t 2 P t 1 T e r s t e n P t .. . m P t F a k t o r s 1 T P t P y••• i 1 mT P i c V. Steinmetz: Statistische Analyseverfahren 1 y mnT ••• = y••• –61– q1α = m X 2 (yi•• − y••• ) q1β = i=1 n X (y•j• − y••• )2 j=1 q1(αβ) = m X n X (yij• − yi•• − y•j• + y••• )2 i=1 j=1 q2 = m X n X T X (yijt − yij• )2 i=1 j=1 t=1 F0α = q1β m2 nT (T − 1) q1α mn2 T (T − 1) · F0β = · q2 m−1 q2 n−1 q1(αβ) mnT (T − 1) F0(αβ) = · q2 (m − 1)(n − 1) Entscheide: H0α annehmen: F0α ≤ α λ1−α H1α annehmen: F0α > α λ1−α H0β annehmen: F0β ≤ β λ1−α H1β annehmen: F0β > β λ1−α H0(αβ) annehmen: F0(αβ) ≤ αβ λ1−α c V. Steinmetz: Statistische Analyseverfahren H1(αβ) annehmen: F0(αβ) > αβ λ1−α –62– 5.3 Varianzanalyse mit zufälligen Ef fekten (Modell II, Varianzkomponentenanalyse) 5.3.1 Test: Einfache Varianzanalyse mit konstanter Besetzung (zufällige Effekte): Gegeben: Zufallsvariablen yit , ai , uit mit yit = µ + ai + uit i = 1, . . . , m; t = 1, . . . , T , ai ∼ N (0,σa2 ), uit ∼ N (0, σu2 ), σu2 > 0, alle ai , uit stochastisch unabhängig, µ0 ∈ R, α ∈]0, 1[, Beobachtungen yit . Hypothesen: H0µ : µ = µ0 H1µ : µ 6= µ0 H0σa2 : σa2 = 0 H0σa2 : σa2 > 0 Berechne: Aus t-Tafel µ λ1− α 2 Aus F -Tafel σa2 λ1−α t i 1 ··· : P{tm−1 ≤ : P{F m−1 m(T −1) ··· t } µ λ1− α 2 ≤ σa2 λ1−α } P T =1− t 1 T α 2 =1−α P t 1 .. . y11 .. . ··· y1t .. . ··· y1T .. . y1• .. . y1• = T1 y1• .. . i .. . yi1 .. . ··· yit .. . ··· yiT .. . yi• .. . yi• = T1 yi• .. . m ym1 ··· ymt ··· ymT ym• ym• = T1 ym• P y•1 ··· y•t ··· y•T y•• y•• = i µ b = 1 y mT •• m T 1 XX yit = y•• mT i=1 t=1 m T c2 = σ u XX 1 (yit − yi• )2 m(T − 1) i=1 t=1 σba2 = XX 1 X 1 (yi• − y•• )2 − (yit − yi• )2 m i=1 mT (T − 1) i=1 t=1 σea2 = XX 1 X 1 (yi• − y•• )2 − (yit − yi• )2 m − 1 i=1 mT (T − 1) i=1 t=1 m m m m c2 + T σe2 = σ u a T X (yi• − y•• )2 m − 1 i=1 c V. Steinmetz: Statistische Analyseverfahren T m T –63– µ b − µ0 t0 = q · √ mT c2 + T σe2 σ u a F0 = c2 + T σe2 σ u a c2 σ u Entscheide: H0µ annehmen: − µ λ1− α2 ≤ t0 ≤ H0σa2 annehmen: F0 ≤ µ λ1− α 2 σa2 λ1−α c V. Steinmetz: Statistische Analyseverfahren H1µ annehmen: sonst H1σa2 annehmen: F0 > σa2 λ1−α –64– 6 Kovarianzanalyse 6.1 Satz: Gegeben seien T, m, n ∈ N sowie die (T × (m + 1))-Matrix X und die (T × m)Matrix Z mit rg X(T ×(m+1)) = r ≤ n + 1 , rg Z(T ×m) = m. Weiterhin sei (X 0 X)− eine g-Inverse zu X 0 X. Es gelte span{X•0 , X•1 , . . . , X•n } ∩ span{Z•1 , . . . , Z•m } = {0} , d.h. die Menge der Spalten von X sei linear unabhängig von der Menge der Spalten von Z. Dann gilt rg IT − X(X 0 X)− X 0 Z = m , die Matrix (IT − X(X 0 X)− X 0 ) Z hat also vollen Spaltenrang und die Matrix Z 0 (IT − X(X 0 X)− X 0 ) Z ist invertierbar. 6.2 Satz: Gegeben seien T, m, n ∈ N. Weiterhin seien X(T ×(n+1)) und Z(T ×m) Matrizen reeller deterministischer Variablen (bzw. ihrer Realisationen), β = (β0 , β1 , . . . , βn )0 ein (n + 1)-dimensionaler Vektor und γ = (γ1 , . . . , γm )0 ein m-dimensionaler Vektor reeller deterministischer Variablen (bzw. ihrer Realisationen). Dann läßt sich ein lineares Modell " # β y = [X, Z] +u γ (vgl. Definition (3.1.1)) auch in der Form y = Xβ + Zγ + u schreiben. Bei gegebener Beobachtungswertmatrix [y, X, Z] erhält man die Normalgleichungen X 0 X β̂ + X 0 Z γ̂ = X 0 y Z 0 X β̂ + Z 0 Z γ̂ = Z 0 y und mit einer g-Inversen (X 0 X)− daraus β̂ = (X 0 X)− X 0 y − (X 0 X)− X 0 Z γ̂ − γ̂ = [Z 0 (I − x(X 0 X)− X 0 ) Z] Z 0 (I − X(X 0 X)− X 0 ) y. c V. Steinmetz: Statistische Analyseverfahren –65– 6.3 Satz: Gegeben sei das lineare Modell y = Xβ + Zγ + u aus Satz (6.2) mit rg X(T ×(n+1)) = r ≤ n + 1 , rg Z(T ×m) = m , Eu = 0 . Weiterhin sei die Menge der Spalten von X linear unabhängig von der Menge der Spalten von Z. Dann ist −1 0 Z I − X(X 0 X)− X 0 y γ̂ := Z 0 I − X(X 0 X)− X 0 Z bei gegebenen X und Z eine erwartungstreue Schätzfunktion für γ. Weiterhin ist Λβ mit einer (s × (n + 1))-Matrix Λ d.u.n.d. schätzbar, wenn gilt Λ = Λ(X 0 X)− X 0 X . 6.4 Test: Kovarianzanalyse bei einfacher Besetzung ohne Interaktion mit einer begleitenden Variablen: Gegeben: Lineares Modell yij = µ + αi + βj + γzij + uij i = 1, . . . , m; j = 1, . . . , n mit uij ∼ N (0, σ 2 ), stochastisch unabhängig, σ 2 > 0, α ∈]0, 1[, Beobachtungen yij , zij , (∃i, i0 , j, j 0 )(zij − zij 0 6= zi0 j − zi0 j 0 ). Hypothesen: H0α : α1 = . . . = αm H0β : β1 = . . . = βn H0γ : γ = 0 H1α : ¬(α1 = . . . = αm ) H1β : ¬(β1 = . . . = βn ) H1γ : γ 6= 0 Berechne: Aus F -Tafel α λ1−α : P{F β λ1−α : P{F γ λ1−α 10 m−1 (m−1)(n−1)−1 n−1 (m−1)(n−1)−1 : P{F 1 (m−1)(n−1)−1 ≤ α λ1−α } =1−α ≤ β λ1−α } =1−α ≤ γ λ1−α } =1−α 10 In diesem Fall kann man die Testanleitung auch auf die t-Verteilung umschreiben. c V. Steinmetz: Statistische Analyseverfahren –66– Stufen des 2. Faktors j i ··· 1 j ··· n P j 1 n P j 1 .. . y11 .. . ··· y1j .. . ··· y1n .. . y1• .. . y1• .. . i .. . yi1 .. . ··· yij .. . ··· yin .. . yi• .. . yi• .. . m ym1 ··· ymj ··· ymn ym• ym• P y•1 ··· y•j ··· y•n y•• y•1 ··· y•j ··· y•n Stufen des 1.Faktors i 1 m P 1 y mn •• i = y•• Stufen des 2. Faktors j i 1 ··· j ··· n P j 1 n P j 1 .. . z11 .. . ··· z1j .. . ··· z1n .. . z1• .. . z1• .. . i .. . zi1 .. . ··· zij .. . ··· zin .. . zi• .. . zi• .. . m zm1 ··· zmj ··· zmn zm• zm• P z•1 ··· z•j ··· z•n z•• z•1 ··· z•j ··· z•n Stufen des 1.Faktors i 1 m Gyy = P i PP (yij − y•• )2 i j Gzz PP = (zij − z•• )2 Gyz PP = (yij − y•• )(zij − z•• ) i j i Ryy j P = n (yi• − y•• )2 i c V. Steinmetz: Statistische Analyseverfahren 1 z mn •• = z•• –67– Rzz = n P (zi• − z•• )2 i Ryz PP =n (yi• − y•• )(zi• − z•• ) Cyy P = m (y•j − y•• )2 Czz P = m (z•j − z•• )2 Cyz PP =m (y•j − y•• )(z•j − z•• ) i j i i i j Eyy = Gyy − Ryy − Cyy Ezz = Gzz − Rzz − Czz Eyz = Gyz − Ryz − Cyz q1α = (Eyy + Ryy ) − 2 Eyz (Eyz + Ryz )2 − (Eyy − ) Ezz + Rzz Ezz 2 Eyz (Eyz + Ryz )2 = (Eyy + Cyy ) − − (Eyy − ) Ezz + Rzz Ezz q1β q1γ = 2 Eyz Ezz 2 Eyz q2 = Eyy − Ezz F0α = q1α (m − 1)(n − 1) − 1 · q2 m−1 q1β (m − 1)(n − 1) − 1 · q2 n−1 q1γ = · [(m − 1)(n − 1) − 1] q2 F0β = F0γ Entscheide: Annahme von H0α : F0α ≤ α λ1−α H0β : F0β ≤ β λ1−α H0γ : F0γ ≤ γ λ1−α H1α : F0α > α λ1−α H1β : F0β > β λ1−α H1γ : F0γ > γ λ1−α Als Schätzfunktion für γ wählt man γ̂ = c V. Steinmetz: Statistische Analyseverfahren Eyz . Ezz –68– A Tabellen A.1 Tabelle zur Standardnormalverteilung Φ(z) z 0 Die Tabelle enthält zu vorgegebenem z den Inhalt der in der Skizze schraffierten Fläche Φ(z). z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.0 0.1 0.2 0.3 0.4 0.5000 0.5398 0.5793 0.6179 0.6554 0.5040 0.5438 0.5832 0.6217 0.6591 0.5080 0.5478 0.5871 0.6255 0.6628 0.5120 0.5517 0.5910 0.6293 0.6664 0.5160 0.5557 0.5948 0.6331 0.6700 0.5199 0.5596 0.5987 0.6368 0.6736 0.5239 0.5636 0.6026 0.6406 0.6772 0.5279 0.5675 0.6064 0.6443 0.6808 0.5319 0.5714 0.6103 0.6480 0.6844 0.5359 0.5753 0.6141 0.6517 0.6879 0.5 0.6 0.7 0.8 0.9 0.6915 0.7257 0.7580 0.7881 0.8159 0.6950 0.7291 0.7611 0.7910 0.8186 0.6985 0.7324 0.7642 0.7939 0.8212 0.7019 0.7357 0.7673 0.7967 0.8238 0.7054 0.7389 0.7704 0.7995 0.8264 0.7088 0.7422 0.7734 0.8023 0.8289 0.7123 0.7454 0.7764 0.8051 0.8315 0.7157 0.7486 0.7794 0.8078 0.8340 0.7190 0.7517 0.7823 0.8106 0.8365 0.7224 0.7549 0.7852 0.8133 0.8389 1.0 1.1 1.2 1.3 1.4 0.8413 0.8643 0.8849 0.9032 0.9192 0.8438 0.8665 0.8869 0.9049 0.9207 0.8461 0.8686 0.8888 0.9066 0.9222 0.8485 0.8708 0.8907 0.9082 0.9236 0.8508 0.8729 0.8925 0.9099 0.9251 0.8531 0.8749 0.8944 0.9115 0.9265 0.8554 0.8770 0.8962 0.9131 0.9279 0.8577 0.8790 0.8980 0.9147 0.9292 0.8599 0.8810 0.8997 0.9162 0.9306 0.8621 0.8830 0.9015 0.9177 0.9319 1.5 1.6 1.7 1.8 1.9 0.9332 0.9452 0.9554 0.9641 0.9713 0.9345 0.9463 0.9564 0.9649 0.9719 0.9357 0.9474 0.9573 0.9656 0.9726 0.9370 0.9484 0.9582 0.9664 0.9732 0.9382 0.9495 0.9591 0.9671 0.9738 0.9394 0.9505 0.9599 0.9678 0.9744 0.9406 0.9515 0.9608 0.9686 0.9750 0.9418 0.9525 0.9616 0.9693 0.9756 0.9429 0.9535 0.9625 0.9699 0.9761 0.9441 0.9545 0.9633 0.9706 0.9767 c V. Steinmetz: Statistische Analyseverfahren –69– Φ(z) z 0 Die Tabelle enthält zu vorgegebenem z den Inhalt der in der Skizze schraffierten Fläche Φ(z). z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 2.0 2.1 2.2 2.3 2.4 0.9772 0.9821 0.9861 0.9893 0.9918 0.9778 0.9826 0.9864 0.9896 0.9920 0.9783 0.9830 0.9868 0.9898 0.9922 0.9788 0.9834 0.9871 0.9901 0.9925 0.9793 0.9838 0.9875 0.9904 0.9927 0.9798 0.9842 0.9878 0.9906 0.9929 0.9803 0.9846 0.9881 0.9909 0.9931 0.9808 0.9850 0.9884 0.9911 0.9932 0.9812 0.9854 0.9887 0.9913 0.9934 0.9817 0.9857 0.9890 0.9916 0.9936 2.5 2.6 2.7 2.8 2.9 0.9938 0.9953 0.9965 0.9974 0.9981 0.9940 0.9955 0.9966 0.9975 0.9982 0.9941 0.9956 0.9967 0.9976 0.9982 0.9943 0.9957 0.9968 0.9977 0.9983 0.9945 0.9959 0.9969 0.9977 0.9984 0.9946 0.9960 0.9970 0.9978 0.9984 0.9948 0.9961 0.9971 0.9979 0.9985 0.9949 0.9962 0.9972 0.9979 0.9985 0.9951 0.9963 0.9973 0.998 0.9986 0.9952 0.9964 0.9974 0.9981 0.9986 3.0 3.1 3.2 3.3 3.4 0.9987 0.9990 0.9993 0.9995 0.9997 0.9987 0.9991 0.9993 0.9995 0.9997 0.9987 0.9991 0.9994 0.9995 0.9997 0.9988 0.9991 0.9994 0.9996 0.9997 0.9988 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9995 0.9996 0.9997 0.9990 0.9993 0.9995 0.9996 0.9997 0.9990 0.9993 0.9995 0.9997 0.9998 Quantile λp = Φ−1 (p) der Standardnormalverteilung p 0.9 0.95 0.975 0.99 0.995 0.999 λp 1.28 1.645 1.96 2.33 3.09 2.58 c V. Steinmetz: Statistische Analyseverfahren –70– A.2 Quantile der t-Verteilungen α 1−α 0 tα,k Die Tabelle gibt tα,k an in Abhängigkeit von α und der Zahl k der Freiheitsgrade. α 0.85 0.90 0.95 0.975 0.99 0.995 0.9995 1 2 3 4 5 1.963 1.386 1.250 1.190 1.156 3.078 1.886 1.638 1.533 1.476 6.314 2.920 2.353 2.132 2.015 12.706 4.303 3.182 2.776 2.571 31.821 6.965 4.541 3.747 3.365 63.657 9.925 5.841 4.604 4.032 636.619 31.599 12.924 8.610 6.869 6 7 8 9 10 1.134 1.119 1.108 1.100 1.093 1.440 1.415 1.397 1.383 1.372 1.943 1.895 1.860 1.833 1.812 2.447 2.365 2.306 2.262 2.228 3.143 2.998 2.896 2.821 2.764 3.707 3.499 3.355 3.250 3.169 5.959 5.408 5.041 4.781 4.587 11 12 13 14 15 1.088 1.083 1.079 1.076 1.074 1.363 1.356 1.350 1.345 1.341 1.796 1.782 1.771 1.761 1.753 2.201 2.179 2.160 2.145 2.131 2.718 2.681 2.650 2.624 2.602 3.106 3.055 3.012 2.977 2.947 4.437 4.318 4.221 4.140 4.073 16 17 18 19 20 1.071 1.069 1.067 1.066 1.064 1.337 1.333 1.330 1.328 1.325 1.746 1.740 1.734 1.729 1.725 2.120 2.110 2.101 2.093 2.086 2.583 2.567 2.552 2.539 2.528 2.921 2.898 2.878 2.861 2.845 4.015 3.965 3.922 3.883 3.850 21 22 23 24 25 1.063 1.061 1.060 1.059 1.058 1.323 1.321 1.319 1.318 1.316 1.721 1.717 1.714 1.711 1.708 2.080 2.074 2.069 2.064 2.060 2.518 2.508 2.500 2.492 2.485 2.831 2.819 2.807 2.797 2.787 3.819 3.792 3.768 3.745 3.725 26 27 28 29 30 1.058 1.057 1.056 1.055 1.055 1.315 1.314 1.313 1.311 1.310 1.706 1.703 1.701 1.699 1.697 2.056 2.052 2.048 2.045 2.042 2.479 2.473 2.467 2.462 2.457 2.779 2.771 2.763 2.756 2.750 3.707 3.690 3.674 3.659 3.646 1.050 1.303 1.045 1.296 1.041 1.289 1.684 1.671 1.658 2.021 2.000 1.980 2.423 2.390 2.358 2.704 2.660 2.617 3.551 3.460 3.373 n 40 60 120 –71– A.3 Quantile der χ2 -Verteilungen α 1−α χ2α,k 0 Die Tabelle gibt χ2α,k an in Abhängigkeit von α und der Zahl k der Freiheitsgrade. α 0.01 0.025 0.05 0.5 0.90 0.95 0.975 0.99 1 2 3 4 5 0.000 0.020 0.115 0.297 0.554 0.001 0.050 0.216 0.484 0.831 0.004 0.103 0.352 0.711 1.146 0.455 1.386 2.366 3.357 4.352 2.706 4.605 6.251 7.779 9.236 3.842 5.992 7.815 9.488 11.070 5.024 7.378 9.348 11.143 12.833 6.635 9.210 11.345 13.277 15.086 6 7 8 9 10 0.872 1.239 1.647 2.088 2.558 1.237 1.690 2.180 2.700 3.247 1.635 2.167 2.733 3.325 3.940 5.348 6.346 7.344 8.343 9.342 10.645 12.017 13.362 14.684 15.987 12.592 14.067 15.507 16.919 18.307 14.449 16.013 17.535 19.023 20.483 16.812 18.475 20.090 21.666 23.209 11 12 13 14 15 3.054 3.571 4.107 4.660 5.229 3.816 4.404 5.009 5.629 6.262 4.575 5.226 5.892 6.571 7.261 10.341 11.340 12.340 13.339 14.339 17.275 18.549 19.812 21.064 22.307 19.675 21.026 22.362 23.685 24.996 21.920 23.337 24.736 26.119 27.488 24.725 26.217 27.688 29.141 30.578 16 17 18 19 20 5.812 6.408 7.015 7.633 8.260 6.908 7.962 15.338 7.564 8.672 16.338 8.231 9.391 17.338 8.907 10.117 18.338 9.591 10.851 19.337 23.542 24.769 25.989 27.204 28.412 26.296 27.587 28.869 30.144 31.410 28.845 30.191 31.526 32.852 34.170 32.000 33.409 34.805 36.191 37.566 21 22 23 24 25 8.897 9.543 10.196 10.856 11.524 10.283 10.982 11.689 12.401 13.120 11.591 12.338 13.091 13.848 14.611 20.337 21.337 22.337 23.337 24.337 29.615 32.671 35.479 38.932 30.813 33.924 36.781 40.289 32.007 35.172 38.076 41.638 33.196 36.415 39.364 42.980 34.382 37.652 40.646 44.314 26 27 28 29 30 12.198 12.879 13.565 14.256 14.953 13.844 14.573 15.308 16.047 16.791 15.379 16.151 16.928 17.708 18.493 25.336 26.336 27.336 28.336 29.336 35.563 36.741 37.916 39.087 40.256 n c V. Steinmetz: Statistische Analyseverfahren 38.885 40.113 41.337 42.557 43.773 41.923 43.195 44.461 45.722 46.979 45.642 46.963 48.278 49.588 50.892 –72– A.4 Quantile der F -Verteilungen 0.95 0.05 0 F0.95;m,n Die Tabelle gibt F0.95;m,n an in Abhängigkeit von der Zahl m der Freiheitsgrade des Zählers und der Zahl n der Freiheitsgrade des Nenners. m n 1 2 3 4 5 1 2 3 4 5 6 7 8 9 10 161.45 199.50 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.39 19.40 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.96 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74 6 7 8 9 10 5.99 5.59 5.32 5.12 4.96 5.14 4.74 4.46 4.26 4.10 4.76 4.35 4.07 3.86 3.71 4.53 4.12 3.84 3.63 3.48 4.39 3.97 3.69 3.48 3.33 4.28 3.87 3.58 3.37 3.22 4.21 3.79 3.50 3.29 3.14 4.15 3.73 3.44 3.23 3.07 4.10 3.68 3.39 3.18 3.02 4.06 3.64 3.35 3.14 2.98 11 12 13 14 15 4.84 4.75 4.67 4.60 4.54 3.98 3.89 3.81 3.74 3.68 3.59 3.49 3.41 3.34 3.29 3.36 3.26 3.18 3.11 3.06 3.20 3.11 3.03 2.96 2.90 3.09 3.00 2.92 2.85 2.79 3.01 2.91 2.83 2.76 2.71 2.95 2.85 2.77 2.70 2.64 2.90 2.80 2.71 2.65 2.59 2.85 2.75 2.67 2.60 2.54 16 17 18 19 20 4.49 4.45 4.41 4.38 4.35 3.63 3.59 3.55 3.52 3.49 3.24 3.20 3.16 3.13 3.10 3.01 2.96 2.93 2.90 2.87 2.85 2.81 2.77 2.74 2.71 2.74 2.70 2.66 2.63 2.60 2.66 2.61 2.58 2.54 2.51 2.59 2.55 2.51 2.48 2.45 2.54 2.49 2.46 2.42 2.39 2.49 2.45 2.41 2.38 2.35 21 22 23 24 25 4.32 4.30 4.28 4.26 4.24 3.47 3.44 3.42 3.40 3.39 3.07 3.05 3.03 3.01 2.99 2.84 2.82 2.80 2.78 2.76 2.68 2.66 2.64 2.62 2.60 2.57 2.55 2.53 2.51 2.49 2.49 2.46 2.44 2.42 2.40 2.42 2.40 2.37 2.36 2.34 2.37 2.34 2.32 2.30 2.28 2.32 2.30 2.27 2.25 2.24 30 40 60 120 ∞ 4.17 4.08 4.00 3.92 3.84 3.32 3.23 3.15 3.07 3.00 2.92 2.84 2.76 2.68 2.60 2.69 2.61 2.53 2.45 2.37 2.53 2.45 2.37 2.29 2.21 2.42 2.34 2.25 2.18 2.10 2.33 2.25 2.17 2.09 2.01 2.27 2.18 2.10 2.02 1.94 2.21 2.12 2.04 1.96 1.88 2.16 2.08 1.99 1.91 1.83 –73– 0.95 0.05 0 F0.95;m,n Die Tabelle gibt F0.95;m,n an in Abhängigkeit von der Zahl m der Freiheitsgrade des Zählers und der Zahl n der Freiheitsgrade des Nenners. m n 1 2 3 4 5 12 15 20 25 30 35 40 60 120 ∞ 244.90 245.95 248.01 249.26 250.1 250.69 251.14 252.2 253.25 254.31 19.41 19.43 19.45 19.46 19.46 19.47 19.47 19.48 19.49 19.50 8.74 8.70 8.66 8.63 8.62 8.60 8.59 8.57 8.55 8.53 5.91 5.86 5.80 5.77 5.75 5.73 5.72 5.69 5.66 5.63 4.68 4.62 4.56 4.52 4.50 4.48 4.46 4.43 4.40 4.37 6 7 8 9 10 4.00 3.57 3.28 3.07 2.91 3.94 3.51 3.22 3.01 2.85 3.87 3.44 3.15 2.94 2.77 3.83 3.40 3.11 2.89 2.73 3.81 3.38 3.08 2.86 2.70 3.79 3.36 3.06 2.84 2.68 3.77 3.34 3.04 2.83 2.66 3.74 3.30 3.01 2.79 2.62 3.70 3.27 2.97 2.75 2.58 3.67 3.23 2.93 2.71 2.54 11 12 13 14 15 2.79 2.69 2.60 2.53 2.48 2.72 2.62 2.53 2.46 2.40 2.65 2.54 2.46 2.39 2.33 2.60 2.50 2.41 2.34 2.28 2.57 2.47 2.38 2.31 2.25 2.55 2.44 2.36 2.28 2.22 2.53 2.43 2.34 2.27 2.20 2.49 2.38 2.30 2.22 2.16 2.45 2.34 2.25 2.18 2.11 2.40 2.30 2.21 2.13 2.07 16 17 18 19 20 2.42 2.38 2.34 2.31 2.28 2.35 2.31 2.27 2.23 2.20 2.28 2.23 2.19 2.16 2.12 2.23 2.18 2.14 2.11 2.07 2.19 2.15 2.11 2.07 2.04 2.17 2.12 2.08 2.05 2.01 2.15 2.10 2.06 2.03 1.99 2.11 2.06 2.02 1.98 1.95 2.06 2.01 1.97 1.93 1.90 2.01 1.96 1.92 1.88 1.84 21 22 23 24 25 2.25 2.23 2.20 2.18 2.16 2.18 2.15 2.13 2.11 2.09 2.11 2.07 2.05 2.03 2.01 2.05 2.02 2.00 1.97 1.96 2.01 1.98 1.96 1.94 1.92 1.98 1.96 1.93 1.91 1.89 1.96 1.94 1.91 1.89 1.87 1.92 1.89 1.86 1.84 1.82 1.87 1.84 1.81 1.79 1.77 1.81 1.78 1.76 1.73 1.71 30 40 60 120 ∞ 2.09 2.00 1.92 1.83 1.75 2.01 1.92 1.53 1.43 1.67 1.93 1.84 1.50 1.39 1.57 1.88 1.78 1.48 1.37 1.51 1.84 1.74 1.47 1.35 1.46 1.81 1.72 1.46 1.34 1.42 1.79 1.69 1.45 1.33 1.39 1.74 1.64 1.53 1.43 1.32 1.68 1.58 1.47 1.35 1.22 1.62 1.51 1.39 1.25 1.00 –74– Index Abbildung lineare . . . . . . . . . . . . . . . . . . . . . . Absolutglied . . . . . . . . . . . . . . . . . . . Algebra, σ-Algebra . . . . . . . . . . . . . Alternative . . . . . . . . . . . . . . . . . . . . . Alternativtest . . . . . . . . . . . . . . . . . . Annahmebereich . . . . . . . . . . . . . . . 12 34 16 28 28 28 Bartlett-Test . . . . . . . . . . . . . . . . . . . 53 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Beobachtungswertmatrix . . . . . . . 33 Bestimmtheitsmaß für das homogene Modell 46, 47 Designmatrix . . . . . . . . . . . . . . . . . . 33 Dichte(funktion) . . . . . . . . . . . . . . . 19 gemeinsame . . . . . . . . . . . . . . . . . 19 Effekt allgemeiner . . . . . . . . . . . . . . . . . . 48 der i-ten Faktorstufe . . . . . . . . 48 Effektdarstellung . . . . . . . . . . . . . . . 48 Elementarkontrast . . . . . . . . . . . . . 51 Ereignisraum . . . . . . . . . . . . . . . . . . . 16 Ergebnisraum . . . . . . . . . . . . . . . . . . 16 erwartungstreu . . . . . . . . . . . . . . . . . 26 Erwartungswertvektor . . . . . . . . . . 21 Erzeugendensystem . . . . . . . . . . . . . 5 F-verteilt . . . . . . . . . . . . . . . . . . . . . . F -Verteilung . . . . . . . . . . . . . . . . . . . Fehler 1.Art . . . . . . . . . . . . . . . . . . . . Fehler 2.Art . . . . . . . . . . . . . . . . . . . . Fehlervariable . . . . . . . . . . . . . . . . . . Fehlerwahrscheinlichkeit 1.Art . . Fehlerwahrscheinlichkeit 2.Art . . Funktion linear u-schätzbar . . . . . . . . . . . u-schätzbar . . . . . . . . . . . . . . . . . 22 72 28 28 33 29 29 g-Inverse . . . . . . . . . . . . . . . . . . . . . . . gaußverteilt . . . . . . . . . . . . . . . . . . . . Gaußverteilung N (0, 1) . . . . . . . . . Gegenhypothese . . . . . . . . . . . . . . . . 14 21 68 28 27 27 c V. Steinmetz: Statistische Analyseverfahren Gleichungssystem lineares . . . . . . . . . . . . . . . . . . . . . Gleichungssystem homogenes . . . . . . . . . . . . . . . . . . inhomogenes . . . . . . . . . . . . . . . . lösbares . . . . . . . . . . . . . . . . . . . . . Grundannahme der Statistik dritte . . . . . . . . . . . . . . . . . . . . . . . erste . . . . . . . . . . . . . . . . . . . . . . . . zweite . . . . . . . . . . . . . . . . . . . . . . . Grundgesamtheit . . . . . . . . . . . . . . . 13 13 13 13 25 24 24 16 homogen . . . . . . . . . . . . . . . . . . . . . . . 34 Hypothese einfache . . . . . . . . . . . . . . . . . . . . . 28 zusammengesetzte . . . . . . . . . . . 28 identifizierbar . . . . . . . . . . . . . . . . . . 25 Inverse verallgemeinerte . . . . . . . . . . . . . 14 Kleinst-Quadrate Lösung . . . . . . . Komponente . . . . . . . . . . . . . . . . . . . 1 − α-Konfidenzbereich . . . . . . . . Konfidenzbereichsschätzung . . . . Konfidenzschätzung . . . . . . . . . . . . Kontrast linearer . . . . . . . . . . . . . . . . . . . . . Kontraste orthogonale . . . . . . . . . . . . . . . . . Kontrastmatrix . . . . . . . . . . . . . . . . KQ-Residuen . . . . . . . . . . . . . . . . . . kritischer Bereich . . . . . . . . . . . . . . Kronecker-Symbol . . . . . . . . . . . . . . 35 18 31 31 31 51 51 51 35 28 48 linear abhängig . . . . . . . . . . . . . . . . . . 5 linear u-schätzbar . . . . . . . . . . . . . . 27 linear unabhängig . . . . . . . . . . . . . . . 5 Lineares Modell . . . . . . . . . . . . . . . . 33 Linearkombination . . . . . . . . . . . . . . 5 Lösung . . . . . . . . . . . . . . . . . . . . . . . . . 13 allgemeine . . . . . . . . . . . . . . . . . . 14 spezielle . . . . . . . . . . . . . . . . . . . . . 14 –75– Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Inverse einer . . . . . . . . . . . . . . . . . 7 Block- . . . . . . . . . . . . . . . . . . . . . . . . 8 Determinante einer . . . . . . . . . . . 6 Diagonalmatrix . . . . . . . . . . . . . . . 2 Einheitsmatrix . . . . . . . . . . . . . . . 2 Einsmatrix . . . . . . . . . . . . . . . . . . . 2 erweitert . . . . . . . . . . . . . . . . . . . . 13 Hauptdiagonale einer . . . . . . . . . 1 idempotente . . . . . . . . . . . . . . . . . . 9 negativ definite . . . . . . . . . . . . . 10 negativ semidefinite . . . . . . . . . 10 Nullmatrix . . . . . . . . . . . . . . . . . . . 2 obere Dreiecksmatrix . . . . . . . . . 2 orthogonale . . . . . . . . . . . . . . . . . . 9 positiv definite . . . . . . . . . . . . . . 10 positiv semidefinite . . . . . . . . . 10 quadratische . . . . . . . . . . . . . . . . . 1 Rang einer . . . . . . . . . . . . . . . . . . . 6 reguläre . . . . . . . . . . . . . . . . . . . . . . 6 Spur einer . . . . . . . . . . . . . . . . . . . . 9 symmetrische . . . . . . . . . . . . . . . . . 1 Teil- . . . . . . . . . . . . . . . . . . . . . . . . . 8 transponierte . . . . . . . . . . . . . . . . . 1 untere Dreiecksmatrix . . . . . . . . 2 verallgemeinerte Inverse einer 14 Modell balanciertes . . . . . . . . . . . . . . . . . 48 lineares . . . . . . . . . . . . . . . . . . . . . 33 unbalanciertes . . . . . . . . . . . . . . . 48 Modell A . . . . . . . . . . . . . . . . . . . . . . 54 Modell B . . . . . . . . . . . . . . . . . . . . . . . 54 Modellparameter . . . . . . . . . . . . . . . 33 identifizierbarer . . . . . . . . . . . . . Parameterbereichsschätzung . . . . Parameterpunktschätzfunktion . . . . . . . . . . . . . . . . Parameterraum . . . . . . . . . . . . . . . . Parametertest . . . . . . . . . . . . . . . . . . Parametrisierung . . . . . . . . . . . . . . . Projektion . . . . . . . . . . . . . . . . . . . . . Punktmasse . . . . . . . . . . . . . . . . . . . . Punktwahrscheinlichkeit . . . . . . . . 25 31 26 24 28 24 17 18 18 quadratische Form . . . . . . . . . . . . . 10 Randverteilungsfunktion . . . . . . . Randdichte(funktion) . . . . . . . . . . Randverteilung . . . . . . . . . . . . . . . . . Regressand . . . . . . . . . . . . . . . . . . . . . Regressionskoeffizienten . . . . . . . . Regressoren . . . . . . . . . . . . . . . . . . . . Regressormatrix . . . . . . . . . . . . . . . . Reparametrisierungsbedingung . 19 20 18 33 33 33 33 54 Schätzfunktion beste . . . . . . . . . . . . . . . . . . . . . . . . erwartungstreue . . . . . . . . . . . . . Schätzfunktion . . . . . . . . . . . . . . . . . Scheffé-Test . . . . . . . . . . . . . . . . . . . . Signifikanzniveau . . . . . . . . . . . . . . Stichprobe . . . . . . . . . . . . . . . . . . . . . einfache . . . . . . . . . . . . . . . . . . . . . Stichprobenraum . . . . . . . . . . . 16, Stichprobenrealisation . . . . . . . . . . Struktur . . . . . . . . . . . . . . . . . . . . . . . 27 26 26 52 29 25 25 25 25 33 Orthogonalitätsbeziehungen . . . . 39 t-Verteilung . . . . . . . . . . . . . . . . . . . . Test . . . . . . . . . . . . . . . . . . . . . . . . . . . Alternativtest . . . . . . . . . . . . . . . Annahmebereich eines ∼s . . . kritischer Bereich eines ∼s . . Parametertest . . . . . . . . . . . . . . . zum Niveau α . . . . . . . . . . . . . . . Trägerpunkt . . . . . . . . . . . . . . . . . . . Transformation identifizierbare . . . . . . . . . . . . . . p-Wert . . . . . . . . . . . . . . . . . . . . . . . . . 31 Parameter u-schätzbar . . . . . . . . . . . . . . . . . . . . 27 Unabhängigkeit Normalgleichungen . . . . . . . . . . . . . normalverteilt N (0, I) . . . . . . . . . . . . . . . . . . . . . . N (µ, Σ) . . . . . . . . . . . . . . . . . . . . . Normalverteilung Standard - N (0, 1) . . . . . . . . . . Nullhypothese . . . . . . . . . . . . . . . . . . 35 21 22 68 28 c V. Steinmetz: Statistische Analyseverfahren 70 28 28 28 28 28 29 18 25 –76– stochastische . . . . . . . . . . . . . . . . 20 Unterraum von U aufgespannter . . . . . . . . . 5 Varianz-Kovarianzmatrix . . . . . . . 21 Varianzanalyse einfache mit festen Efekten . . 48 Vektor . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Einheitsvektor . . . . . . . . . . . . . . . . 2 Einsvektor . . . . . . . . . . . . . . . . . . . 2 Nullvektor . . . . . . . . . . . . . . . . . . . 2 Verteilungsannahme . . . . . . . . . . . . 24 nichtparametrische . . . . . . . . . . 24 parametrische . . . . . . . . . . . . . . . 24 verteilungsfreie . . . . . . . . . . . . . . 24 Verteilungsfunktion . . . . . . . . . . . . 19 (total-)stetige, (absolut-) stetige . . . . . . . 19 gemeinsame . . . . . . . . . . . . . . . . . 19 Wahrscheinlichkeit(-smaß) . . . . . . Wahrscheinlichkeitsraum . . . . . . . Wahrscheinlichkeitsverteilung . . gemeinsame . . . . . . . . . . . . . . . . . 16 16 17 18 Zerlegungsformel . . . . . . . . . . . 40, 49 Zufallsvariable . . . . . . . . . . . . . . . . . 17 c V. Steinmetz: Statistische Analyseverfahren –77– Symbolverzeichnis span U . . . . . . . . . . . . . . . . . . . . . . . . . . 5 rg A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 det A . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 tr(A) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 sp(A) . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Ax = b . . . . . . . . . . . . . . . . . . . . . . . . . 13 A− . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 Ω . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Qx . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Bn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 pri1 ,...,im . . . . . . . . . . . . . . . . . . . . . . . . 17 pri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 xi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 x(ω) . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 P{x ∈ B} . . . . . . . . . . . . . . . . . . . . . . 18 Fx . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 fx . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 f(x1 ,...,xm )0 . . . . . . . . . . . . . . . . . . . . . . 20 µ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 σij . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Var x . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Cov(x, y) . . . . . . . . . . . . . . . . . . . . . . . 21 f (x) . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 N (0, I) . . . . . . . . . . . . . . . . . . . . . . . . . 21 N (µ, Σ) . . . . . . . . . . . . . . . . . . . . . . . . 22 Θ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 W0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 W1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 H0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 H1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 d0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 d1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 σ̂ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 2 Rhom . . . . . . . . . . . . . . . . . . . . . . . . . . 46 y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 ŷ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 û . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 c V. Steinmetz: Statistische Analyseverfahren R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 δik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Rn+1 RB . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 –78– Änderungen • 19.05.2003: – Diese Seite wurde hinzugefügt. – Seite 24, 2.2.4 Vereinbarung: Y ersetzt durch y. • 27.05.2003: – Seite 29, 2.2.23 Nagelbeispiel: Y ersetzt durch y, X ersetzt durch x. • 12.06.2003: e – Seite 38, 3.2.10 Satz und Definition, vorletzte Zeile: Λβ̂ statt Λβ • 26.06.2003: – Seite 31, 2.2.26 Bemerkung: Parameterbereichsschätzfunkion statt Parameterpunktschätzfunktion – Seite 31, 2.2.28 Satz: Y durch y ersetzt • 11.07.2003: – Seite 47, 4.6 Satz und Definition: bei Definition von R2 Voraussetzung σb2 (y) > 0 hinzugefügt c V. Steinmetz: Statistische Analyseverfahren