KOMPAKTSKRIPT zur Vorlesung SCHLIEßENDE STATISTIK von Volker Steinmetz ausgearbeitet von Christoph Stahl Universität des Saarlandes WS 2003/2004 I Inhaltsverzeichnis WARNUNG III 1 Wiederholungen und Ergänzungen aus der Wahrscheinlichkeitstheorie 1.1 Mehrdimensionale Zufallsvariablen . . . . . . . . . . . . . . . 1.2 Konvergenzbegriffe . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Grenzwertsätze . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 10 13 2 Grundbegrif fe der statistischen Entscheidungstheorie 2.1 Einführung in die Problemstellung . . . . . . . . . 2.2 Das klassische Entscheidungsmodell . . . . . . . . 2.3 Die Grundannahmen der Statistik . . . . . . . . . 2.4 Statistische Entscheidungsfunktionen . . . . . . . 2.5 Optimalität statistischer Entscheidungsfunktionen . . . . . 15 15 15 17 18 19 . . . . . 20 20 22 25 26 27 . . . . . 3 Parameterpunktschätzungen 3.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . 3.2 Erwartungstreue und wirksamste Schätzfunktionen 3.3 Konsistente Schätzfunktionen . . . . . . . . . . . . 3.4 Erschöpfende (suffiziente) Schätzfunktionen . . . . 3.5 Schätzmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Parametertests und Parameterbereichsschätzungen 4.1 Grundlagen der Testtheorie . . . . . . . . . . . . . . . . . . . 4.2 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei bekannter Varianz (Gauß-Tests) . . . . . . . . . . . 4.3 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei unbekannter Varianz (t-Tests) . . . . . . . . . . . . 4.4 Tests über die Varianz einer normalverteilten Zufallsvariablen bei unbekanntem Erwartungswert (χ2 -Tests) . . . . . . . . . . . . 4.5 Binomialtests, Test über Anteilswerte, Quantilstest . . . . . . 4.6 Parameterbereichsschätzungen . . . . . . . . . . . . . . . . . . 30 30 5 Multivariate Verfahren 5.1 Tests über die Erwartungswerte zweier gemeinsam normalverteilter Zufallsvariablen mit unbekannten Varianzen (t-Tests) . . . 5.2 Tests über die Varianzen zweier normalverteilter Zufallsvariablen (F -Tests) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 6 Nichtparametrische Tests 6.1 Chi-Quadrat-Tests . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Wilcoxon-Rangsummentest für unverbundene Stichproben . . 54 54 58 c V. Steinmetz: Schließende Statistik 36 39 42 44 47 50 52 II A Hilfsmittel aus der Matrizenrechnung A1 Matrizen und Vektoren . . . . . . . . . . . . . A2 Verknüpfungen von Matrizen . . . . . . . . . . A3 Lineare Unabhängigkeit . . . . . . . . . . . . A4 Rang einer Matrix . . . . . . . . . . . . . . . A5 Determinante einer Matrix . . . . . . . . . . . A6 Inverse einer Matrix . . . . . . . . . . . . . . A7 Unterteilte Matrizen . . . . . . . . . . . . . . A8 Spur einer Matrix . . . . . . . . . . . . . . . . A9 Orthogonale Matrizen, idempotente Matrizen A10 Definite Matrizen, quadratische Formen . . . A11 Vektordifferentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 61 64 67 68 69 70 71 73 74 75 76 B Tabellen B1 Tabelle zur Standardnormalverteilung B2 Quantile der t-Verteilungen . . . . . B3 Quantile der χ2 -Verteilungen . . . . . B4 Quantile der F -Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 78 80 81 82 . . . . . . . . . . . . . . . . . . . . Index 84 Symbolverzeichnis 87 Im Kompaktskript angesprochene Literatur 88 Änderungen 89 c V. Steinmetz: Schließende Statistik III WARNUNG Das vorliegende Kompaktskript ist kein Lehrbuch, sondern es soll die Hörer der Vorlesung Schließende Statistik von dem ablenkenden und oft fehlerhaften Mitschreiben der Formeln entlasten und es ihnen erleichtern, sich auf die vorgetragenen Motivationen und Erläuterungen zu konzentrieren und hierüber individuelle Notizen anzufertigen. Dementsprechend sind in diesem Skript nur formale Definitionen und Sätze enthalten, Bemerkungen dienen zur Ergänzung des Stoffes. Die Motivation und Erläuterung der aufgeführten Begriffe und Aussagen sowie die Behandlung von Beispielen bleiben der Vorlesung und auch der begleitenden Übung vorbehalten. Ebenso werden Hinweise auf ergänzende und vertiefende Literatur im Verlauf der Vorlesung gegeben. c V. Steinmetz: Schließende Statistik –1– 1 Wiederholungen und Ergänzungen aus der Wahrscheinlichkeitstheorie 1.1 Mehrdimensionale Zufallsvariablen 1.1.1 Definition: Es seien Ω und F Mengen und P : F → R eine Abbildung. Das Tripel (Ω, F, P) heißt ein Wahrscheinlichkeitsraum (probability space) (WR), wenn gilt .1) Ω 6= ∅ .2) F ⊆ P(Ω) mit • Ω∈F • A ∈ F ⇒ CΩ A ∈ F ∞ S • A1 , A2 , . . . ∈ F ⇒ Ai ∈ F i=1 (d.h. F ist σ-Algebra) .3) P : F → R mit W1 ) A ∈ F ⇒ P A ≥ 0 W2 ) A1 , A2 , . . . ∈ F mit Ai ∩ Aj = ∅ für i 6= j ∞ ∞ S P ⇒ P Ai = P Ai i=1 i=1 W3 ) P Ω = 1 Ω heißt Ergebnisraum, Stichprobenraum (sample space), Grundgesamtheit, F Ereignisraum und P Wahrscheinlichkeit(-smaß) (probability measure) des WR (Ω, F, P). 1.1.2 Satz und Definition: Es sei (Ω, F, P) ein WR. Eine Abbildung X : Ω → Rn mit (∀B ∈ Bn )(X −1 B ∈ F) (Forderung der Meßbarkeit) heißt n-dimensionale Zufallsvariable über (Ω, F, P). Durch (∀B ∈ Bn )(QX B := P X −1 B) ist eine Wahrscheinlichkeit QX : Bn → R gegeben und (Rn , Bn , QX ) ist ein WR. Man bezeichnet QX als Wahrscheinlichkeitsverteilung der Zufallsvariablen X. Dabei ist Bn die Borel-Algebra, die kleinste σ-Algebra über Rn , die alle Intervalle enthält. (Beweis: siehe [Steinmetz] Satz 2.4.2) c V. Steinmetz: Schließende Statistik –2– 1.1.3 Definition: Es seien m, n ∈ N mit m ≤ n und i1 , . . . , im ∈ {1, . . . , n} mit ir < ir+1 für r = 1, . . . , m − 1. Die Abbildung pri1 ,...,im : Rn → Rm mit pri1 ,...,im (x1 , . . . , xn ) := (xi1 , . . . , xim ) bezeichnet man als eine Projektion des Rn auf den Rm , speziell nennt man für m = 1 und i ∈ {1, . . . , n} pri : Rn → R1 mit pri (x1 , . . . , xn ) = xi n die i-te Projektion des R auf den R1 . 1.1.4 Satz: Die Projektion pri1 ,...,im : Rn → Rm ist Bn -Bm -meßbar. (Beweis: siehe z.B. [Krickeberg] S.32) 1.1.5 Folgerung: Es seien (Ω, F, P) ein WR und X : Ω → Rn eine n-dimensionale Zufallsvariable über (Ω, F, P). Dann ist pri1 ,...,im ◦ X : Ω → Rm eine m-dimensionale Zufallsvariable über (Ω, F, P). (Beweis: siehe [Steinmetz] Satz 2.4.4) 1.1.6 Definition: Es sei X : Ω → Rn eine n-dimensionale Zufallsvariable über einem WR (Ω, F, P). Man bezeichnet Xi := pri ◦ X : Ω → R i = 1, . . . , n als i-te Komponente von X. 1.1.7 Bemerkung: Gegeben seien die Voraussetzungen von Definition (1.1.6). Es gilt X(ω) = (X1 (ω), . . . , Xn (ω)) Man schreibt deshalb auch X = (X1 , . . . , Xn ), c V. Steinmetz: Schließende Statistik ∀ω ∈ Ω. –3– man hat also (X1 , . . . , Xn )(ω) = (X1 (ω), . . . , Xn (ω)). 1.1.8 Definition: Es sei X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable. Man bezeichnet QX als gemeinsame Wahrscheinlichkeitsverteilung der Zufallsvariablen X1 , . . . , Xn und die Wahrscheinlichkeitsverteilung QXi der i-ten Komponente Xi als Randverteilung (i = 1, . . . , n). 1.1.9 Bemerkung: Zu (Ω, F, P) ist durch die F-Bn -meßbare Abbildung X : Ω → Rn ein neuer WR (Rn , Bn , QX ) gegeben. Es gilt für alle B ∈ Bn : QX B = P X −1 B = P {ω ∈ Ω | X(ω) ∈ B} {z } | ∈ F wegen der Meßbarkeit von X =: P{X ∈ B} (Kurzschreibweise). Wie im eindimensionalen Fall unterscheidet man auch hier diskrete und stetige Zufallsvariablen. (Diese Charakterisierung ist nicht ausschöpfend, es gibt noch einen dritten Grundtyp, Zufallsvariablen mit einer singulären“ Verteilung, und ” schließlich Mischungen zwischen allen drei Typen.) Die diskreten Verteilungen werden an dieser Stelle nicht mehr behandelt. Eine Wiederholung der Begriffe diskreter WR, diskretes Wahrscheinlichkeitsmaß, Trägerpunkte, Punktmassen, Punktwahrscheinlichkeiten usw. kann mit Hilfe des Kompaktskriptes zur Statistik A und B erfolgen ([Steinmetz]). Auch die Begriffe bedingte Verteilung und Unabhängigkeit werden dort erläutert. 1.1.10 Definition: Es sei X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung QX . Die Abbildung FX : Rn → R mit FX (x1 , . . . , xn ) := QX (] − ∞, x1 ] × . . . ×] − ∞, xn ]) für alle (x1 , . . . , xn ) ∈ Rn heißt Verteilungsfunktion von X = (X1 , . . . Xn ) oder gemeinsame Verteilungsfunktion der Zufallsvariablen X1 , . . . , Xn . Die Verteilungsfunktion FXi bezeichnet man auch als Randverteilungsfunktion (i = 1, . . . , n). c V. Steinmetz: Schließende Statistik –4– 1.1.11 Definition: Es sei X eine n-dimensionale Zufallsvariable mit der Verteilungsfunktion FX . Die Zufallsvariable X (und auch QX und FX ) heißen (absolut-) oder (total-) stetig, wenn es eine Abbildung fX : Rn → R gibt mit .1) fX (x1 , . . . , xn ) ≥ 0 ∀(x1 , . . . , xn ) ∈ Rn , .2) fX ist uneigentlich integrierbar, Z x1 Z xn .3) FX (x1 , . . . , xn ) = ··· fX (t1 , . . . , tn ) dtn . . . dt1 −∞ ∀(x1 , . . . , xn ) ∈ Rn . −∞ Man bezeichnet eine Abbildung fX mit diesen Eigenschaften als eine Dichte(funktion) der Zufallsvariablen X oder gemeinsame Dichtefunktion der Zufallsvariablen X1 , . . . Xn . 1.1.12 Satz: Ist fX eine Dichte zu der Verteilungsfunktion FX einer n-dimensionalen Zufalls◦ ◦ variablen X, so gilt an allen Stetigkeitsstellen (x1 , . . . , xn ) von fX : ∂ n FX (x1 , . . . , xn ) ◦ ◦ fX (x1 , . . . , xn ) = ∂x1 ∂x2 . . . ∂xn (x◦ 1 ,...,x◦ n ) 1.1.13 Satz: Eine Funktion f : Rn → R ist genau dann Dichtefunktion einer n-dimensionalen Zufallsvariablen, wenn gilt: .1) f (x1 , . . . , xn ) ≥ 0 ∀(x1 , . . . , xn ) ∈ Rn , .2) f ist uneigentlich integrierbar, Z ∞ Z ∞ .3) ··· f (x1 , . . . , xn ) dxn . . . dx1 = 1. −∞ −∞ 1.1.14 Satz: Es sei X eine n-dimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung QX und einer Dichtefunktion fX ; B ∈ Bn sei ein beliebiges Ereignis. Dann gilt Z Z QX B = ··· B c V. Steinmetz: Schließende Statistik fX (x1 , . . . , xn ) dxn . . . dx1 . –5– 1.1.15 Satz: Es sei X = (X1 , . . . , Xn ) eine Zufallsvariable mit Verteilungsfunktion FX . Dann gilt mit m ≤ n F(X1 ,...,Xm ) (x1 , . . . , xm ) = FX (x1 , . . . , xm , ∞, . . . , ∞)1 . Falls eine Dichtefunktion fX existiert, ist (X1 , . . . , Xm ) stetig verteilt mit Z ∞ Z ∞ fX (x1 , . . . , xm , xm+1 , . . . , xn ) dxn . . . dxm+1 f(X1 ,...,Xm ) (x1 , . . . , xm ) = ··· −∞ −∞ {z } | m−n 1.1.16 Definition: Es gelten die Voraussetzungen aus Satz (1.1.15). Man bezeichnet f(X1 ,...,Xm ) als eine Randdichte(funktion). 1.1.17 Definition: X1 , X2 , . . . , Xr seien n1 -, n2 -bzw. nr -dimensionale Zufallsvariablen. Sie heißen (stochastisch) unabhängig, wenn gilt Q(X1 ,...,Xr ) (B1 × · · · × Br ) = QX1 B1 · . . . · QXr Br für alle B1 ∈ Bn1 , . . . , Br ∈ Bnr . Eine Familie (Xt )t∈T von Zufallsvariablen heißt (stochastisch) unabhängig, wenn für jedes n ∈ N und für alle paarweise verschiedenen t1 , . . . , tn ∈ T die Zufallsvariablen Xt1 , . . . , Xtn (stochastisch) unabhängig sind. 1.1.18 Definition: Es sei (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable. Man bezeichnet µ := (µ1 , . . . , µn ) := (EX1 , . . . , EXn ) als Erwartungswertvektor von X und Σ := (σij ) := (E[(Xi − EXi )(Xj − EXj )])i,j=1,...,n als Varianz-Kovarianzmatrix von X. 1.1.19 Bemerkung: i = j : E[(Xi − EXi )(Xi − EXi )] = VarXi i 6= j : E[(Xi − EXi )(Xj − EXj )] = Cov(Xi , Xj ) 1 G(∞) := lim G(y) y→∞ c V. Steinmetz: Schließende Statistik –6– 1.1.20 Satz: Es seien X = (X1 , . . . , Xm ), Y = (Y1 , . . . , Yn ) zwei unabhängige mehrdimensionale Zufallsvariablen über einem WR (Ω, F, P) und f : Rm → Rr , g : Rn → Rs (m, n, r, s ∈ N) Bm -Br - bzw. Bn -Bs -meßbare Abbildungen. Dann sind f (X) := f ◦ X und g(Y ) := g ◦ Y unabhängig. (Die Xi brauchen dabei untereinander nicht unabhängig zu sein, ebensowenig die Yj .) 1.1.21 Vereinbarung: Im Rest dieses Paragraphen werden Vektoren als Spaltenvektoren geschrieben, um die Darstellungsweise der Ökonometrie und linearen Algebra direkt verwenden zu können. 1.1.22 Satz: Die Abbildung f : Rn → R mit 1 − u0 u 1 e 2 f (u) = √ ( 2π)n ∀u = (u1 , . . . un )0 ∈ Rn ist eine Dichtefunktion. 1.1.23 Definition: Eine n-dimensionale Zufallsvariable X = (X1 , . . . , Xn )0 heißt n-dimensional gaußverteilt oder normalverteilt N (0, I) mit 0 = (0, 0, . . . , 0)0 ∈ Rn und 1 0 n·n ... I= ∈R , 0 1 wenn für sie eine Dichte fX existiert mit 1 − u0 u 1 fX (u) = √ e 2 ( 2π)n ∀u = (u1 , . . . un )0 ∈ Rn . 1.1.24 Satz: Die Zufallsvariable X = (X1 , . . . , Xn )0 sei n-dimensional gaußverteilt. Dann gilt: .1) Die Komponenten Xi sind N (0, 1)-verteilt und unabhängig. .2) EX = 0 ist der Erwartungswertvektor und ΣX X 0 = I ist die VarianzKovarianz-Matrix von X. c V. Steinmetz: Schließende Statistik –7– 1.1.25 Satz: Es seien X eine eindimensionale Zufallsvariable mit einer Dichte fX : R → R und g : R → R eine streng monotone, surjektive und stetig differenzierbare Funktion mit dg(u) 6= 0 für alle u ∈ R. Dann ist Y = g(X) := g ◦ X eine stetige du Zufallsvariable mit einer Dichte −1 dg (v) · fX (g −1 (v)) fY (v) = ∀v ∈ R. dv 1.1.26 Satz: Es seien X = (X1 , . . . , Xn )0 eine n-dimensionale stetige Zufallsvariable mit einer Dichte fX : Rn → R und g : Rn → Rn eine invertierbare Abbildung mit g −1 (v) =: h(v) =: (h1 (v), . . . , hn (v))0 ∀v = (v1 , ..., vn )0 ∈ Rn . Es gelte a) g und g −1 =: h sind stetig, b) die partiellen Ableitungen ∂hi ∂vj (i, j = 1, . . . , n) sind stetig, c) die Funktionaldeterminante von h hat die Eigenschaft ∂(h1 , . . . , hn ) := det ∂(v1 , . . . , vn ) ∂h1 ∂v1 ··· .. . ∂hn ∂v1 ∂h1 ∂vn .. . ··· ∂hn ∂vn 6= 0 ∀v = (v1 , ..., vn )0 ∈ Rn . Dann ist Y = g(X) eine stetige Zufallsvariable mit einer Dichte ∂(h1 , . . . hn ) · fX (h1 (v1 , . . . , vn ), . . . , hn (v1 , . . . , vn )) fY (v1 , . . . , vn ) = ∂(v1 , . . . vn ) ∀v = (v1 , ..., vn )0 ∈ Rn . (Beweis: siehe z.B. [Rohatgi] S.135 f.) 1.1.27 Bemerkung: Ist die Dichte fX nur auf einem Teilgebiet des Rn von 0 verschieden, genügt es im wesentlichen, die Transformation g nur auf diesem Teilgebiet zu betrachten. Liegt eine Transformation g : Rn → Rm mit m < n vor, erweitert man diese geeignet zu einer Abbildung in den Rn , so daß die Voraussetzungen von Satz (1.1.26) erfüllt sind, und berechnet dann die interessierende Randdichte. c V. Steinmetz: Schließende Statistik –8– 1.1.28 Folgerung: Es seien X = (X1 , . . . , Xn )0 eine stetige n-dimensionale Zufallsvariable mit einer Dichte fX : Rn → R, A = (aij )i,j=1,...,n ∈ Rn·n eine invertierbare Matrix und b = (b1 , . . . , bn )0 ∈ Rn . Dann ist Y := AX + b eine stetige Zufallsvariable mit einer Dichte fY (v) = 1 · fX (A−1 (v − b)) | det A| ∀v ∈ Rn . 1.1.29 Satz: Es seien X = (X1 , . . . , Xn )0 eine n-dimensionale gaußverteilte Zufallsvariable, A = (aij )i,j=1,...,n ∈ Rn·n eine invertierbare Matrix und µ = (µ1 , . . . , µn )0 ∈ Rn . Dann hat die Zufallsvariable Y := AX + µ eine Dichte 1 − (v − µ)0 A0−1 A−1 (v − µ) 1 1 fY (v) = √ · ·e 2 . ( 2π)n | det A| 1.1.30 Satz: Es seien Σ = (σij )i,j=1,...,n ∈ Rn·n eine positiv definite Matrix und µ = (µ1 , . . . , µn )0 ∈ Rn . Dann ist die Abbildung f : Rn → R mit 1 √ f (u) = √ ( 2π)n det Σ 1 − (u − µ)0 Σ−1 (u − µ) ·e 2 ∀u = (u1 , . . . , un )0 ∈ Rn eine Dichtefunktion. 1.1.31 Definition: Eine n-dimensionale Zufallsvariable X = (X1 , . . . , Xn )0 heißt n-dimensional normalverteilt N (µ, Σ) mit µ = (µ1 , . . . , µn )0 ∈ Rn und Σ = (σij )i,j=1,...,n ∈ Rn·n positiv definit, wenn für sie eine Dichte existiert mit 1 √ fX (u) = √ ( 2π)n det Σ 1 − (u − µ)0 Σ−1 (u − µ) e 2 ∀u = (u1 , . . . , un )0 ∈ Rn . 1.1.32 Satz: Die Zufallsvariable X = (X1 , . . . , Xn )0 sei N (µ, Σ)-verteilt. Dann gilt .1) Die Verteilung von X kann man durch eine invertierbare lineare Transformation aus einer Gaußverteilung gleicher Dimension herleiten. c V. Steinmetz: Schließende Statistik –9– .2) EX = µ ist der Erwartungswertvektor und ΣX X 0 = Σ ist die VarianzKovarianz-Matrix von X. .3) Alle Randverteilungen von X sind normalverteilt mit den in µ und Σ festgelegten Erwartungswerten, Varianzen und Kovarianzen der ausgewählten Komponenten. .4) Sind die X1 , . . . , Xn paarweise unkorreliert, so sind sie auch stochastisch unabhängig. 1.1.33 Satz: Es seien X = (X1 , . . . , Xn )0 eine N (µ, Σ)-verteilte Zufallsvariable, b = (b1 , . . . , bm )0 ∈ Rm mit m ≤ n und B = (bij ) i=1,...,m ∈ Rm·n mit rg (B) = m. j=1,...,n Dann ist Z := BX + b eine m-dimensionale N (Bµ + b, BΣB 0 )-verteilte Zufallsvariable. 1.1.34 Bemerkung: Sind bei einer mehrdimensionalen Zufallsvariablen alle Randverteilungen normalverteilt, so braucht die gemeinsame Verteilung keine Normalverteilung zu sein; sind die Komponenten aber zusätzlich unabhängig, so ist auch die gemeinsame Verteilung eine Normalverteilung. 1.1.35 Satz: Es seien A ∈ Rn·n eine idempotente und B ∈ Rn·n eine symmetrische Matrix mit B · A = O. Weiter sei X = (X1 , . . . , Xn )0 eine N (µ, σ 2 I)-verteilte Zufallsvariable. Dann sind die Zufallsvariablen q1 := X 0 AX und q2 := X 0 BX stochastisch unabhängig. c V. Steinmetz: Schließende Statistik –10– 1.2 Konvergenzbegrif fe 1.2.1 Definition: Eine Folge (xn )n∈N reeller Zahlen heißt konvergent gegen ein x ∈ R, in Zeichen lim xn = x, n→∞ wenn gilt (∀ε > 0)(∃nε ∈ N)(∀n ≥ nε )(|xn − x| ≤ ε). Sind x = (x1 , . . . , xK )0 und xi = (xi1 , . . . , xiK )0 (i ∈ N) Vektoren aus dem RK , so definiert man die Konvergenz analog unter Verwendung von v uK uX |x − x| := t (x − x )2 . ik i k k=1 1.2.2 Definition: Es seien (Xn )n∈N eine Folge von Zufallsvariablen und X eine Zufallsvariable über einem WR (Ω, F, P); (Xn )n∈N heißt P-fast sicher konvergent (P-fast überall, almost sure(ly), (a.s.) with probability 1) gegen X, wenn gilt (∃A ∈ F)(P A = 1 ∧ (∀ω ∈ A)( lim Xn (ω) = X(ω))). n→∞ Man schreibt: lim Xn = X n→∞ P-f.s. . 1.2.3 Definition: Es gelten die Voraussetzungen von Definition (1.2.2). X habe eine 1-PunktVerteilung auf a, d.h. QX {a} = P {X = a} = 1. Gilt lim Xn = X P-f.s. , lim Xn = a P-f.s. . n→∞ so schreibt man auch n→∞ 1.2.4 Definition: Es seien (Xn )n∈N eine Folge von Zufallsvariablen und X eine Zufallsvariable über einem WR (Ω, F, P) und r ∈ [1, ∞[. (Xn )n∈N heißt konvergent gegen X im r-ten Mittel (in the r-th mean), wenn gilt lim E|Xn − X|r = 0. n→∞ Man schreibt auch lim Xn = X n→∞ c V. Steinmetz: Schließende Statistik im r−ten Mittel. –11– 1.2.5 Definition: Es seien (Xn )n∈N eine Folge von Zufallsvariablen und X eine Zufallsvariable über einem WR (Ω, F, P). Man sagt, (Xn ) konvergiere stochastisch gegen X (konvergiere in der Wahrscheinlichkeit, in probability), wenn gilt (∀ε > 0)( lim P{ω ∈ Ω| |Xn (ω) − X(ω)| ≥ ε} = 0) n→∞ und man schreibt: plim Xn = X. n→∞ 1.2.6 Satz: Aus der P-fast sicheren Konvergenz folgt die stochastische Konvergenz. 1.2.7 Hilfssatz (Ungleichung von Tschebyschev, Markovsche Ungleichung): Es sei Y eine Zufallsvariable mit E|Y |r < ∞, r > 0. Dann gilt: E|Y |r (∀ε > 0) P{|Y | ≥ ε} ≤ . εr 1.2.8 Satz: Aus der Konvergenz im r-ten Mittel folgt die stochastische Konvergenz. 1.2.9 Satz: Es seien (Xn )n∈N eine Folge von r-dimensionalen Zufallsvariablen und X eine rdimensionale Zufallsvariable über einem Wahrscheinlichkeitsraum (Ω, F, P) mit plim Xn = X. n→∞ Weiterhin sei g : Rr → Rs eine stetige Funktion. Dann gilt auch plim g(Xn ) = g(X). n→∞ 1.2.10 Definition: Es seien (Xn )n∈N eine Folge von Zufallsvariablen und X eine Zufallsvariable mit Verteilungsfunktionen Fn (n ∈ N) und F . Man sagt, (Xn ) konvergiere der Verteilung nach (in law, weakly, in distribution, schwach) gegen X, wenn gilt lim Fn (x) = F (x) n→∞ c V. Steinmetz: Schließende Statistik für alle Stetigkeitspunkte von F . –12– 1.2.11 Satz: Aus der stochastischen Konvergenz folgt die Verteilungskonvergenz. 1.2.12 Satz: Die Folge (Xn )n∈N von r-dimensionalen Zufallsvariablen sei verteilungskonvergent gegen die r-dimensionale Zufallsvariable X und g : Rr → Rs sei stetig. Dann ist (g(Xn ))n∈N verteilungskonvergent gegen g(X). c V. Steinmetz: Schließende Statistik –13– 1.3 Grenzwertsätze 1.3.1 Definition: Es sei (Xn )n∈N eine Folge eindimensionaler Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P). Man sagt, sie genüge dem schwachen Gesetz der großen Zahlen (weak law of large numbers), wenn es eine Konstante c ∈ R gibt, so daß für die Zufallsvariablen n Yn := 1X Xk , n k=1 n∈N gilt lim P{|Yn − c| ≥ ε} = 0, ∀ε > 0 n→∞ (d.h.: plim Yn = c) . n→∞ 1.3.2 Satz: Eine Folge (Xk )k∈N unabhängig identisch verteilter Zufallsvariablen mit EXk = µ und VarXk = σ 2 > 0 für alle k ∈ N genügt dem schwachen Gesetz der großen Zahlen, es gilt ( n ) 1 X lim P Xk − µ ≥ ε = 0, n→∞ n k=1 ∀ε > 0. 1.3.3 Satz (Grenzwertsatz von De Moivre und Laplace): Es sei (Xn )n∈N eine Folge binomial-B(n, p)-verteilter Zufallsvariablen, d.h. n x QXn {x} = p (1 − p)n−x =: b(x|n, p), x x = 0, . . . , n, und es sei (Yn )n∈N die Folge der Zufallsvariablen mit Xn − np Yn := p . np(1 − p) Dann gilt 1 lim FYn (y) = φ(y) = √ n→∞ 2π c V. Steinmetz: Schließende Statistik Z y −∞ t2 e− 2 dt ∀y ∈ R. 0<p<1 –14– 1.3.4 Satz (Zentraler Grenzwertsatz): Es seien (Xk )k∈N eine Folge unabhängig identisch verteilter Zufallsvariablen mit EXk = µ und VarXk = σ 2 > 0 für alle k ∈ N. Dann gilt für die Zufallsvariablen n n P P 1 Xk − µ Xk − nµ n √ k=1 k=1 √ Yn := n= , n∈N: σ σ n lim P{Yn ≤ y} = lim FYn (y) = φ(y). n→∞ n→∞ (Zum Beweis siehe z.B. [Fisz] S. 235 f.) 1.3.5 Definition: Es sei (x1 , . . . , xn ) ∈ Rn Realisation einer Stichprobe. Die Funktion F̂ (· | x1 , . . . , xn ) : R → R mit #{k | xk ≤ y, k ∈ {1, . . . , n}} ∀y ∈ R n heißt empirische Verteilungsfunktion zur Stichprobenrealisation (x1 , . . . , xn ). F̂ (y | x1 , . . . , xn ) := 1.3.6 Satz: Es seien X = (X1 , . . . , Xn ) eine einfache Stichprobe (vgl. 2.3.6 Definition) zu einer Zufallsvariablen Y mit Verteilungsfunktion FY (·) und F̂ (· | x1 , . . . , xn )) für jedes (x1 , . . . , xn ) ∈ Rn die entsprechende empirische Verteilungsfunktion. Dann gilt plim F̂ (y | X1 , . . . , Xn ) = FY (y) ∀y ∈ R. n→∞ 1.3.7 Bemerkung: Aus dem Beweis zu Satz (1.3.6) sieht man auch E[F̂ (y | X1 , . . . , Xn )] = FY (y) FY (y)(1 − FY (y)) . n Dies bedeutet, daß F̂ (y | X1 , . . . , Xn ) eine erwartungstreue und konsistente Schätzfunktion für FY (y) ist (vgl. Kapitel 3). Var[F̂ (y | X1 , . . . , Xn )] = 1.3.8 Satz (Satz von Glivenko-Cantelli, Fundamentalsatz der mathematischen Statistik): Es seien X = (X1 , . . . , Xn ) eine einfache Stichprobe (vgl. 2.3.6 Definition) zu einer Zufallsvariablen Y mit Verteilungsfunktion F (·) und F̂ (· | x1 , . . . , xn ) für jedes (x1 , . . . , xn ) ∈ Rn die empirische Verteilungsfunktion. Dann gilt: lim sup | F̂ (y|X1 , . . . , Xn ) − F (y)| = 0 P-fast sicher. n→∞ y∈R c V. Steinmetz: Schließende Statistik –15– 2 Grundbegrif fe der statistischen Entscheidungstheorie 2.1 Einführung in die Problemstellung Da dieser Abschnitt keine formalisierten Teile enthält, sind die Hörer hierzu auf eigene Notizen angewiesen. 2.2 Das klassische Entscheidungsmodell 2.2.1 Vereinbarung: Ein Präentscheidungsmodell ist ein Tripel (A, Z, S) mit • A 6= ∅ ist eine Menge, genannt Aktionsraum, • Z 6= ∅ ist eine Menge, genannt Zustandsraum, • S : A × Z → R ist eine Abbildung, genannt Schadensfunktion. (S(a, z) ist der Schaden, den der Entscheidungsträger erleidet, wenn er Aktion a ∈ A auswählt und Umweltzustand z ∈ Z vorliegt.) 2.2.2 Definition: Es seien (A, Z, S) ein Präentscheidungsmodell und a, a0 ∈ A. Man sagt, die Aktion a dominiere die Aktion a0 (a0 werde von a dominiert), falls gilt S(a, z) ≤ S(a0 , z) ∀z ∈ Z. Gibt es darüberhinaus (mindestens) ein z 0 ∈ Z mit S(a, z 0 ) < S(a0 , z 0 ), so sagt man, a dominiere a0 strikt (a0 werde von a strikt dominiert). 2.2.3 Definition: Es sei (A, Z, S) ein Präentscheidungsmodell. Eine Aktion a∗ ∈ A, welche alle anderen Aktionen aus A dominiert, heißt gleichmäßig beste Aktion. 2.2.4 Vereinbarung: Es sei (A, Z, S) ein Präentscheidungsmodell. Eine Vorschrift zur Definition und Ermittlung optimaler Aktionen aus A bezeichnet man als Entscheidungsregel (hier abgekürzt mit e). Das Quadrupel (A, Z, S, e) heißt dann ein Entscheidungsmodell. c V. Steinmetz: Schließende Statistik –16– 2.2.5 Definition: Es sei (A, Z, S, e) ein Entscheidungsmodell. Die Entscheidungsregel e heißt .1) Minimax-Regel oder Wald-Regel, wenn eine optimale Aktion a∗ ∈ A definiert wird durch sup S(a∗ , z) = inf sup S(a, z), z∈Z a∈A z∈Z .2) Minimin-Regel, wenn eine optimale Aktion a∗ ∈ A definiert wird durch inf S(a∗ , z) = inf inf S(a, z), z∈Z a∈A z∈Z .3) Hurwitz-Regel mit Optimismusparameter λ ∈ [0, 1], wenn eine optimale Aktion a∗ ∈ A definiert wird durch ∗ ∗ (1−λ) sup S(a , z)+λ inf S(a , z) = inf (1 − λ) sup S(a, z) + λ inf S(a, z) , z∈Z z∈Z a∈A z∈Z z∈Z (dabei sollte S nach oben oder unten beschränkt sein, damit nicht möglicherweise ∞ − ∞ o.ä. auftritt) .4) Minimax-Regret-Regel oder Savage-Niehans-Regel, wenn eine optimale Aktion a∗ ∈ A definiert wird durch ∗ sup S(a , z) − inf S(a, z) = inf sup S(ã, z) − inf S(a, z) . z∈Z a∈A ã∈A z∈Z a∈A 2.2.6 Definition: Es seien (A, Z, S, e) ein Entscheidungsmodell und Π eine Wahrscheinlichkeitsverteilung auf Z, die sog. A-priori-Verteilung. Die Entscheidungsregel e heißt Bayes-Regel, wenn eine optimale Aktion a∗ ∈ A definiert wird durch EΠ S(a∗ , ·) = inf EΠ S(a, ·) . a∈A c V. Steinmetz: Schließende Statistik –17– 2.3 Die Grundannahmen der Statistik 2.3.1 Erste Grundannahme der Statistik: Der interessierende Umweltausschnitt kann durch eine (ein- oder mehrdimensionale) Zufallsvariable Y beschrieben werden. 2.3.2 Zweite Grundannahme der Statistik (”Verteilungsannahme”): Es sei Y die Zufallsvariable, durch welche der interessierende Umweltausschnitt gemäß (2.3.1) beschrieben wird. Man kann eine Menge W von Wahrscheinlichkeitsverteilungen angeben, zu der die unbekannte wahre Verteilung von Y gehört. 2.3.3 Bemerkung: Es ist üblich, zur Vereinfachung auch die in der zweiten Grundannahme eingeführte Menge W selbst als Verteilungsannahme zu bezeichnen. 2.3.4 Vereinbarung: Es seien W eine Verteilungsannahme zu einer Zufallsvariablen Y und ∅ 6= Θ ⊆ Rr . Eine surjektive Abbildung t:Θ→W heißt Parametrisierung von W und mit t(ϑ) =: QY,ϑ schreibt man auch W = {QY,ϑ | ϑ ∈ Θ}, man spricht von einer parametrischen Verteilungsannahme mit dem Parameterraum Θ . In dieser Vorlesung wird vorausgesetzt, daß gilt (∀ϑ1 , ϑ2 ∈ Θ)(ϑ1 6= ϑ2 ⇒ QY,ϑ1 6= QY,ϑ2 ), man sagt, die Parameter ϑ ∈ Θ sollen identifizierbar sein. (I.a. werden in einer parametrischen Verteilungsannahme nur Verteilungen eines Typs - also z.B. nur Normalverteilungen, nur Dreipunktverteilungen mit festen Trägerpunkten etc. enthalten sein). Ist eine Verteilungsannahme nicht parametrisch, heißt sie auch nichtparametrisch (verteilungsfrei). 2.3.5 Dritte Grundannahme der Statistik: W sei die Verteilungsannahme zu einer Zufallsvariablen Y . Es wird angenommen, daß Realisationen x1 , . . . , xn von Zufallsvariablen X1 , . . . , Xn beobachtet werden c V. Steinmetz: Schließende Statistik –18– können, deren gemeinsames Verteilungsgesetz von der Verteilung QY ∈ W in vollständig bekannter Weise abhängt. Man bezeichnet den Vektor (X1 , . . . , Xn ) als (Zufalls)stichprobe vom Umfang n zu Y und (x1 , . . . , xn ) als eine Stichprobenrealisation. Die Menge aller Stichprobenrealisationen heißt Stichprobenraum und wird mit X bezeichnet. 2.3.6 Definition: Es seien Y eine (ein- oder mehrdimensionale) Zufallsvariable über einem WR (Ω̃, F̃, P̃) und X1 , . . . , Xn (n ∈ N) stochastisch unabhängige Zufallsvariablen, die identisch verteilt wie Y sind. Dann heißt X := (X1 , . . . , Xn ) eine einfache Stichprobe vom Umfang n zu Y . (Ω, F, P) bezeichne den zu X gehörenden WR. Weiterhin heißt (x1 , . . . , xn ) := (X1 (ω), . . . , Xn (ω)) = X(ω), ∀ω ∈ Ω eine Realisation der Stichprobe X und X := X(Ω) ihr Stichprobenraum. 2.4 Statistische Entscheidungsfunktionen 2.4.1 Definition: Es sei Y eine eindimensionale Zufallsvariable, X = (X1 , . . . , Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X und es sei D eine Menge von Entscheidungen über QY mit einer σ-Algebra D. Eine Bn |X -D-meßbare Abbildung δ:X→D heißt statistische Entscheidungsfunktion (SEF). (Eine Verallgemeinerung auf mehrdimensionale Y ist problemlos.) 2.4.2 Bemerkung: Wir werden auf Meßbarkeitsuntersuchungen verzichten und deshalb auch D nicht spezifizieren. c V. Steinmetz: Schließende Statistik –19– 2.5 Optimalität statistischer Entscheidungsfunktionen 2.5.1 Definition: Als statistisches Entscheidungsmodell zu einer Zufallsvariablen Y bezeichnet man ein Sechstupel (W, D, X, ∆, S, e) mit • W ist eine Verteilungsannahme zu Y , • D ist eine Menge von Entscheidungen über QY mit σ-Algebra D, • X ist der Stichprobenraum einer Stichprobe X = (X1 , . . . , Xn ) zur Zufallsvariablen Y , • ∆ ist eine Menge von statistischen Entscheidungsfunktionen δ : X → D, • S : D × W → R ist eine Schadensfunktion mit – S(·, QY ) : D → R ist D-B1 -meßbar – EQX S(δ(X), QY ) existiert ∀QY ∈ W , ∀QY ∈ W, ∀δ ∈ ∆, • e ist eine Entscheidungsregel. 2.5.2 Definition: Es sei (W, D, X, ∆, S, e) ein statistisches Entscheidungsmodell. Für δ ∈ ∆ heißt die Abbildung R(δ, ·) : W → R mit R(δ, QY ) := EQX S(δ(X), QY ), ∀QY ∈ W die Risikofunktion von δ. 2.5.3 Definition: Es seien (W, D, X, ∆, S, e) ein statistisches Entscheidungsmodell und R(δ, ·) : W → R die Risikofunktion zu δ ∈ ∆. δ ∗ ∈ ∆ heißt gleichmäßig beste statistische Entscheidungsfunktion in ∆, wenn gilt R(δ ∗ , QY ) ≤ R(δ, QY ) ∀QY ∈ W, ∀δ ∈ ∆, δ ∗ ∈ ∆ heißt Minimax-Entscheidungsfunktion in ∆, wenn gilt sup R(δ ∗ , QY ) = inf sup R(δ, QY ). δ∈∆ QY ∈W QY ∈W Ist Π eine A-priori-Verteilung über W , so heißt δ ∗ ∈ ∆ Bayes-Entscheidungsfunktion in ∆ bzgl. Π, wenn gilt: EΠ R(δ ∗ , ·) = inf EΠ R(δ, ·). δ∈∆ c V. Steinmetz: Schließende Statistik –20– 3 Parameterpunktschätzungen 3.1 Grundbegrif fe 3.1.1 Definition: Es seien Y eine Zufallsvariable, W eine parametrische Verteilungsannahme mit dem Parameterraum Θ, γ : Θ → Rm eine Abbildung und X = (X1 , . . . , Xn ) eine Stichprobe zu Y mit Stichprobenraum X. Eine statistische Entscheidungsfunktion δ : X → D := γ(Θ) heißt Parameterpunktschätzfunktion für den Parameter γ(ϑ) mit ϑ ∈ Θ (bisweilen wählt man D % γ(Θ) ). 3.1.2 Definition: Es seien X = (X1 , . . . , Xn ) eine Stichprobe über (Ω, F, P) mit dem Stichprobenraum X ⊆ Rn und (x1 , . . . , xn ) ∈ X. Die Abbildung n 1X j µ̂j : X → R mit µ̂j (x1 , . . . , xn ) = x =: xj n k=1 k und auch die Abbildung n µ̂j (X1 , . . . , Xn ) = 1X j X =: X j : Ω → R n k=1 k bezeichnet man als Stichprobenmoment um Null j-ter Ordnung (j ∈ N ∪ {0}). Speziell für j = 1 nennt man x1 =: x und X 1 =: X Stichprobenmittelwert. Die Abbildung n 1X σ̂j : X → R mit σ̂j (x1 , . . . , xn ) = (xk − x)j n k=1 und auch die Abbildung n σ̂j (X1 , . . . , Xn ) = 1X (Xk − X)j : Ω → R n k=1 heißt zentrales Stichprobenmoment j-ter Ordnung (j ∈ N ∪ {0}). Speziell für j = 2 nennt man σ̂2 (x1 , . . . , xn ) =: σ̂ 2 (x1 , . . . , xn ) und σ̂2 (X1 , . . . , Xn ) =: σ̂ 2 (X1 , . . . , Xn ) Stichprobenstreuung. Weiterhin heißen n S 2 := σ̂2 : X → R n−1 und n n 1 X 2 S (X1 , . . . , Xn ) = σ̂2 (X1 , . . . , Xn ) = (Xk − X)2 : Ω → R, n−1 n − 1 k=1 korrigierte Stichprobenstreuung. c V. Steinmetz: Schließende Statistik –21– 3.1.3 Definition: Es seien (X, Y ) = ((X1 , Y1 ), . . . , (Xn , Yn )) eine Stichprobe über (Ω, F, P) mit dem Stichprobenraum X ⊆ R2n und (x, y) ∈ X. Die Abbildung n 1X i j x y µ̂ij : X → R mit µ̂ij (x, y) = n k=1 k k und auch die Abbildung n µ̂ij (X, Y ) = 1X i j X Y :Ω→R n k=1 k k heißt Stichprobenmoment um Null (i + j)-ter Ordnung (i, j ∈ N ∪ {0}. Die Abbildung n 1X σ̂ij : X → R mit σ̂ij (x, y) = (xk − x)i (yk − y)j n k=1 und auch die Abbildung n 1X σ̂ij (X, Y ) = (Xk − X)i (Yk − Y )j : Ω → R n k=1 heißt zentrales Stichprobenmoment (i + j)-ter Ordnung, (i, j ∈ N ∪ {0}). Speziell für i = j = 1 nennt man σ̂11 (x, y) und σ̂11 (X, Y ) Stichprobenkovarianz. Gilt weiterhin P{σ̂2 (X) = 0} = 0 = P{σ̂2 (Y ) = 0}, so bezeichnet man die Abbildung n P (Xk − X)(Yk − Y ) s ρ̂(X, Y ) = s n n P P (Xk − X)2 (Yk − Y )2 k=1 k=1 als Stichprobenkorrelationskoeffizienten. c V. Steinmetz: Schließende Statistik k=1 –22– 3.2 Erwartungstreue und wirksamste Schätzfunktionen 3.2.1 Satz: Es seien X eine Stichprobe zu einer Zufallsvariablen Y mit parametrischer Verteilungsannahme W = {QY,ϑ | ϑ ∈ Θ}, Θ der Parameterraum, X der Stichprobenraum, γ : Θ → R eine Abbildung und δ : X → γ(Θ) eine Schätzfunktion für γ(ϑ), ϑ ∈ Θ. Ist S : D × W → R mit S(d, QY,ϑ ) = (d − γ(ϑ))2 , ∀d ∈ D, ∀ϑ ∈ Θ die quadratische Schadensfunktion, so gilt für die Risikofunktion R(δ, ·) : W → R mit R(δ, QY,ϑ ) = Eϑ (δ − γ(ϑ))2 die Zerlegung R(δ, QY,ϑ ) = Varϑ δ + [Eϑ δ − γ(ϑ)]2 . 3.2.2 Definition: Es gelten die Voraussetzungen von Satz (3.2.1). Man bezeichnet Eϑ (δ − γ(ϑ))2 als mittleren quadratischen Fehler (mean squared error, MSE) der Schätzfunktion δ für den Parameter γ(ϑ), Eϑ δ − γ(ϑ) (bisweilen auch γ(ϑ) − Eϑ δ) als Bias (Verzerrung). Die Schätzfunktion δ heißt erwartungstreu (unverzerrt, unbiased) für γ(ϑ), wenn gilt Eϑ δ = γ(ϑ), ∀ϑ ∈ Θ. 3.2.3 Satz: Es seien X = (X1 , . . . , Xn ) eine einfache Stichprobe zu Y mit EY = µ und VarY = σ 2 > 0. Dann ist n 1X X := Xk n k=1 eine erwartungstreue Schätzfunktion für µ und n S 2 (X1 , . . . , Xn ) = 1 X (Xk − X)2 n − 1 k=1 eine erwartungstreue Schätzfuntion für σ 2 . c V. Steinmetz: Schließende Statistik (n ≥ 2) –23– 3.2.4 Folgerung: Es gelten die Voraussetzungen von Satz (3.2.3). Dann ist n 1X σ̂ (X) = (Xk − X)2 , n k=1 2 n≥2 nicht erwartungstreu für σ 2 > 0. 3.2.5 Definition: Es seien W eine parametrische Verteilungsannahme mit dem Parameterraum Θ und γ : Θ → R eine Abbildung. Eine Folge (δn )n∈N von Punktschätzfunktionen δn für γ(ϑ) (ϑ ∈ Θ) heißt asymptotisch erwartungstreu (asymptotically unbiased) für γ(ϑ), wenn gilt lim Eδn = γ(ϑ), n→∞ ∀ϑ ∈ Θ. 3.2.6 Definition: Es gelten die Voraussetzungen von Satz (3.2.1), δ1 und δ2 seien erwartungstreue Schätzfunktionen für γ(ϑ), ϑ ∈ Θ. δ1 heißt mindestens so wirksam wie δ2 für γ(ϑ), wenn gilt Varϑ δ1 ≤ Varϑ δ2 ∀ϑ ∈ Θ. Es sei ∆E die Menge aller in Betracht gezogenen erwartungstreuen Schätzfunktionen für γ(ϑ). δ ∗ ∈ ∆E heißt wirksamste (effiziente, efficient) Schätzfunktion für γ(ϑ) in ∆E , wenn es mindestens so wirksam ist wie jedes δ ∈ ∆E . 3.2.7 Definition: Die Zufallsvariable Y sei stetig verteilt mit Dichtefunktion f (·|ϑ), ϑ ∈ Θ ⊆ R. f heißt regulär , wenn gilt .1) es gibt ein von ϑ unabhängiges B ∈ B1 mit QY,ϑ B = 1 ∀ϑ ∈ Θ und f (y|ϑ) > 0 ∀y ∈ B, .2) .3) f (y|ϑ) ist nach ϑ differenzierbar ∀y ∈ B, ∀ϑ ∈ Θ, Z Z ∂ ∂ f (y|ϑ) dy = f (y|ϑ) dy ∀ϑ ∈ Θ. ∂ϑ B B ∂ϑ Es sei X = (X1 , . . . , Xn ) eine einfache Stichprobe zu Y . Eine Schätzfunktion δ(X) für ϑ heißt regulär, wenn gilt .4) Varϑ δ < ∞, c V. Steinmetz: Schließende Statistik –24– .5) Z Z ∂ · · · δ(x1 , . . . , xn )f (x1 |ϑ) · . . . · f (xn |ϑ) dx1 . . . dxn ∂ϑ Z Z ∂ = · · · δ(x1 , . . . , xn ) f (x1 |ϑ) · . . . · f (xn |ϑ) dx1 . . . dxn ∂ϑ ∀ϑ ∈ Θ. Für eine diskrete Zufallsvariable Y mit den Trägerpunkten yi (i ∈ I ⊆ N) sind entsprechende Forderungen an die Punktmassenfunktion mit p(yi |ϑ) =: pi (ϑ) zu stellen. 3.2.8 Satz (Rao-Cramér-Ungleichung): Es seien X = (X1 , . . . , Xn ) eine einfache Stichprobe zu einer Zufallsvariablen Y mit regulärer Dichtefunktion fY (· | ϑ) ϑ ∈ Θ ⊆ R und δ eine erwartungstreue und reguläre Schätzfunktion für ϑ. Dann gilt 1 =: R(ϑ) ∀ϑ ∈ Θ. Varϑ δ ≥ Z 2 ∂ ln fY (y | ϑ) f (y | ϑ) dy n ∂ϑ B Im diskreten Fall gilt unter entsprechenden Forderungen 1 Varϑ δ ≥ n X i∈I ∂ ln pi (ϑ) ∂ϑ =: R(ϑ) ∀ϑ ∈ Θ. 2 pi (ϑ) 3.2.9 Bemerkung: .1) Es sei für Θ ⊆ R, γ : Θ → R eine differenzierbare Abbildung. Weiterhin seien die Voraussetzungen wie in Satz (3.2.8) gegeben, nur sei δ jetzt erwartungstreu für γ(ϑ) (ϑ ∈ Θ). In diesem Fall muß man die rechte Seite der Rao-Cramér-Ungleichung noch mit 2 dγ(ϑ) dϑ multiplizieren. .2) Eine Verallgemeinerung der Rao-Cramér-Ungleichung auf den mehrdimensionalen Fall Θ ⊆ Rr , γ : Θ → Rs (r, s ∈ N) ist möglich (vgl. z.B. [Witting], S.317). c V. Steinmetz: Schließende Statistik –25– 3.3 Konsistente Schätzfunktionen 3.3.1 Definition: Es seien W = {Qϑ | ϑ ∈ Θ} eine parametrische Verteilungsannahme und γ : Θ → R eine Abbildung. Eine Folge (δn )n∈N mit δn : X → γ(Θ) von Schätzfunktionen heißt konsistent für γ(ϑ) bzgl. des mittleren quadratischen Fehlers (consistent in mean square, consistent in quadratic mean, im quadratischen Mittel, i.q.M.), wenn gilt lim Eϑ (δn − γ(ϑ))2 = 0, n→∞ ∀ϑ ∈ Θ. 3.3.2 Satz: Es gelten die Voraussetzungen von Definition (3.3.1). Die Folge (δn )n∈N ist konsistent i.q.M. für γ(ϑ) genau dann, wenn gilt lim Varϑ δn = 0 und n→∞ lim Eϑ (δn ) = γ(ϑ) n→∞ ∀ϑ ∈ Θ. 3.3.3 Definition: Es gelten die Voraussetzungen von Definition (3.3.1). (δn )n∈N heißt konsistente Folge von Schätzfunktionen für γ(ϑ), wenn gilt lim P{|δn − γ(ϑ)| ≥ ε} = 0, n→∞ ∀ε > 0, ∀ϑ ∈ Θ und man schreibt plim δn = γ(ϑ), n→∞ ∀ϑ ∈ Θ. 3.3.4 Satz: Es gelten die Voraussetzungen von Definition (3.3.1). Dann folgt aus der Konsistenz im quadratischen Mittel die Konsistenz. c V. Steinmetz: Schließende Statistik –26– 3.4 Erschöpfende (suf f iziente) Schätzfunktionen 3.4.1 Definition: Es seien Y eine Zufallsvariable, W = {QY,ϑ | ϑ ∈ Θ ⊆ Rr } eine parametrische Verteilungsannahme X = (X1 , . . . , Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X und δ : X → Θ eine Punktschätzfunktion für ϑ. δ heißt erschöpfend (suffizient, hinreichend, sufficient), falls die bedingte Verteilung QX|δ(X)=t für alle t ∈ δ(X) unabhängig von ϑ ist für alle ϑ ∈ Θ. 3.4.2 Satz (Neyman): Es gelten die Voraussetzungen von Definition (3.4.1). δ ist dann und nur dann erschöpfend für ϑ, falls für jedes ϑ ∈ Θ meßbare Abbildungen g(ϑ, ·) : Rr → R und h(·) : X → R existieren, so daß gilt: .1) für stetig verteiltes X = (X1 , . . . , Xn ) und (f.s.) alle (x1 , . . . , xn ) ∈ X fX (x1 , . . . , xn |ϑ) = g(ϑ, δ(x1 , . . . , xn )) · h(x1 , . . . , xn ) .2) für diskret veteiltes X = (X1 , . . . , Xn ) mit den Trägerpunkten (x1 , . . . , xn ) QX,ϑ {(x1 , . . . , xn )} = g(ϑ, δ(x1 , . . . , xn )) · h(x1 , . . . , xn ) (g darf nur über δ von (x1 , . . . , xn ) abhängen und h darf den Parameter ϑ nicht enthalten). 3.4.3 Bemerkung: Ist δ = (δ1 , . . . , δr ) erschöpfend für ϑ = (ϑ1 , . . . , ϑr ), so ist i.a. δi nicht erschöpfend für ϑi . Insbesondere ist z.B. X nicht erschöpfend für µ, falls Y ∼ N (µ, σ 2 ) mit σ 2 unbekannt. 3.4.4 Bemerkung: In der mathematischen Statistik stellt man die Forderung der Suffizienz nicht nur für Schätzfunktionen auf, sondern auch für allgemeinere Funktionen: I.a. ist X ⊆ Rn hochdimensional, man möchte vor der Konstruktion einer SEF δ : X → R zunächst die Dimension des Problems durch Anwendung einer geeigneten Transformation T : Rn → Rm (m n) reduzieren, ohne für das Entscheidungsproblem - also z.B. speziell für ϑ ∈ Θ - relevante Informationen zu verlieren. Man fordert deshalb von der Transformation (Stichprobenfunktion, Statistik) T die Suffizienz. Wählt man unter Gewährleistung der Suffizienz m so klein wie möglich, spricht man von minimal-suffizienten Statistiken. c V. Steinmetz: Schließende Statistik –27– 3.5 Schätzmethoden 3.5.1 Definition: Es seien Y eine diskrete Zufallsvariable mit der parametrischen Verteilungsannahme W = {QY,ϑ | ϑ ∈ Θ ⊆ Rr } und X = (X1 , . . . , Xn ) eine diskrete Stichprobe zu Y mit dem Stichprobenraum X sowie (x1 , . . . , xn ) ∈ X eine Stichprobenrealisation mit der Punktwahrscheinlichkeit p(x1 , . . . , xn | ϑ) := QX,ϑ {(x1 , . . . , xn )}. .1) Die Abbildung L(· | x1 , . . . , xn ) : Θ → [0, 1] mit L(ϑ | x1 , . . . , xn ) := p(x1 , . . . xn | ϑ) ∀ϑ ∈ Θ heißt die Likelihood-Funktion (LF) von X. .2) ϑ̂ ∈ Θ heißt Maximum-Likelihood-Schätzwert (ML-Schätzwert) für den Parameter ϑ, falls gilt L(ϑ̂ | x1 , . . . , xn ) = max L(ϑ | x1 , . . . , xn ). ϑ∈Θ .3) Eine Punktschätzfunktion δ : X → Θ heißt Maximum-Likelihood-Schätzfunktion für den Parameter ϑ, falls δ(x1 , . . . , xn ) für jedes (x1 , . . . , xn ) ∈ X ein ML-Schätzwert ist. 3.5.2 Bemerkung: Ist X = (X1 , . . . , Xn ) eine einfache Stichprobe zu der diskreten Zufallsvariablen Y mit den Trägerpunkten y und den Punktwahrscheinlichkeiten p(y | ϑ) = QY,ϑ {y}, so gilt für die Likelihood-Funktion von X L(ϑ | x1 , . . . , xn ) = p(x1 | ϑ) · · · p(xn | ϑ) = n Y p(xi | ϑ). i=1 3.5.3 Hilfssatz: Es sei L(· | x1 , . . . , xn ) die Likelihood-Funktion zu einer Stichprobe X. Für ein ϑ̂ ∈ Θ gilt L(ϑ̂ | x1 , . . . , xn ) = max L(ϑ | x1 , . . . , xn ) ϑ∈Θ genau dann, wenn für die logarithmierte Likelihood-Funktion (LLF) gilt ln L(ϑ̂ | x1 , . . . , xn ) = max ln L(ϑ | x1 , . . . , xn ). ϑ∈Θ c V. Steinmetz: Schließende Statistik –28– 3.5.4 Definition: Es sei ϑ = (ϑ1 , . . . , ϑr ) ∈ Θ ⊆ Rr ein r-dimensionaler Parameter und die Likelihood-Funktion L(· | x1 , . . . , xn ) : Θ → R sei partiell differenzierbar nach ϑj für j = 1, . . . , r. Die Gleichungen ∂ ln L(ϑ1 , . . . , ϑr | x1 , . . . , xn ) = 0, ∂ϑj für j = 1, . . . , r bezeichnet man als Maximum-Likelihood-Gleichungen. 3.5.5 Bemerkung: Häufig werden alle Lösungen aus Definition (3.5.4) als Maximum-LikelihoodSchätzwerte bezeichnet; dies entspricht dem ursprünglichen Vorgehen von R.A. Fischer, während der Ansatz aus Definition (3.5.1) auf A. Wald zurückgeht. 3.5.6 Definition: Es sei Y eine stetige Zufallsvariable mit einer Dichte fY (· | ϑ) und mit ϑ ∈ Θ ⊆ Rr . Weiter seien X = (X1 , . . . , Xn ) eine einfache Stichprobe zu Y mit dem Stichprobenraum X und x = (x1 , . . . , xn ) eine Realisation von X. Die Abbildung L(· | x1 , . . . , xn ) mit L(ϑ | x1 , . . . , xn ) = fY (x1 | ϑ) . . . fY (xn | ϑ) n Y = fY (xi | ϑ) i=1 heißt die Likelihood-Funktion (LF) von X 3.5.7 Bemerkung: Ist X = (X1 , . . . , Xn ) stetig mit Dichtefunktion fX (x1 , . . . , xn | ϑ), also nicht notwendig eine einfache Stichprobe, so definiert man: L(ϑ | x1 , . . . , xn ) := fX (x1 , . . . , xn | ϑ). Die Begriffe aus (3.5.1.2), (3.5.1.3) und (3.5.4) können direkt auf den Fall einer stetigen ZV Y übertragen werden. Um pathologische Lösungen von (3.5.1.2) auszuschließen, muß man solche Dichten wählen, die an den Sprungstellen das Maximum des rechtsseitigen oder linksseitigen Grenzwertes annehmen. 3.5.8 Definition: Es seien Y eine Zufallsvariable mit Verteilungsannahme W = {QY,ϑ1 ,...,ϑr | (ϑ1 , . . . , ϑr ) ∈ Θ} und (X1 , . . . , Xn ) eine Stichprobe zu Y mit Realisation (x1 , . . . , xn ). Es seien EY =: g1 (ϑ1 , . . . , ϑr ) .. . s EY =: gs (ϑ1 , . . . , ϑr ). c V. Steinmetz: Schließende Statistik –29– Sind ϑˆ1 , . . . , ϑˆr Lösungen des Gleichungssystems n g1 (ϑˆ1 , . . . , ϑˆr ) = 1X xi n i=1 .. . n 1X s gs (ϑˆ1 , . . . , ϑˆr ) = x, n i=1 i so bezeichnet man sie als nach der Momentenmethode gewonnene Schätzwerte für ϑ1 , . . . , ϑr (MM-Schätzwerte). c V. Steinmetz: Schließende Statistik –30– 4 Parametertests und Parameterbereichsschätzungen 4.1 Grundlagen der Testtheorie 4.1.1 Definition: Es seien Y eine Zufallsvariable mit der Verteilungsannahme W und W0 ⊆ W mit ∅ 6= W0 6= W sowie W1 := W \ W0 . Man bezeichnet die Aussage H0 : QY ∈ W0 als Nullhypothese (null hypothesis) (oft der Einfachheit halber auch W0 selbst) und die Aussage H1 : QY ∈ W1 als Gegenhypothese (Alternative, alternative hypothesis) (oft auch W1 selbst). Es bezeichne d “ die Entscheidung Annahme von H0“ ( Ablehnung von H1“), ” 0 ” ” d1“ die Entscheidung Annahme von H1“ ( Ablehnung von H0“). ” ” ” Ist X = (X1 , . . . , Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X, so heißt eine statistische Entscheidungsfunktion δ : X → {d0 , d1 } ein (Alternativ)Test für H0 gegen H1 . Ist W eine parametrische Verteilungsannahme, so spricht man auch von einem Parametertest. Eine Hypothese heißt einfach (simple), wenn die zugeordnete Teilmenge von W einelementig ist, andernfalls zusammengesetzt (composite) (Meßbarkeitsfragen sollen auch hier ausgeklammert werden). 4.1.2 Definition: Es sei δ : X → {d0 , d1 } ein Alternativtest. Die Menge Kδ := {x | x ∈ X ∧ δ(x) = d1 } heißt der kritische Bereich (Verwerfungsbereich, critical region) des Tests, die Menge Aδ := {x | x ∈ X ∧ δ(x) = d0 } sein Annahmebereich (acceptance region). 4.1.3 Folgerung: Es sei δ : X → {d0 , d1 } ein Alternativtest mit Aδ und Kδ . Dann gilt Aδ ∪ Kδ = X und Aδ ∩ Kδ = ∅. c V. Steinmetz: Schließende Statistik –31– Jede Zerlegung von X in zwei meßbare Mengen A ⊆ X und K ⊆ X mit A ∩ K = ∅ und A ∪ K = X bestimmt einen Alternativtest δ : X → {d0 , d1 } durch die Festsetzung d0 : x ∈ A δ(x) := . d1 : x ∈ K 4.1.4 Definition: Es sei δ : X → {d0 , d1 } ein Alternativtest für die Hypothesen H0 : QY ∈ W0 und H1 : QY ∈ W1 und es sei die Beobachtung x ∈ X gegeben. Man sagt, es liege ein Fehler 1.Art vor, wenn H0 richtig ist, aber δ(x) = d1 gilt, es liege ein Fehler 2.Art vor, wenn H1 richtig ist, aber δ(x) = d0 gilt. 4.1.5 Folgerung: Gegeben seien die Voraussetzungen aus Definition (4.1.4). Die Wahrscheinlichkeit, einen Fehler 1.Art zu begehen (Fehlerwahrscheinlichkeit 1.Art), ist QX {x ∈ X | δ(x) = d1 } = QX Kδ , ∀QY ∈ W0 . Die Wahrscheinlichkeit, einen Fehler 2.Art zu begehen (Fehlerwahrscheinlichkeit 2.Art), ist QX {x ∈ X | δ(x) = d0 } = QX Aδ , ∀QY ∈ W1 . 4.1.6 Definition: Es sei δ : X → {d0 , d1 } ein Alternativtest für die Hypothesen H0 : QY ∈ W0 und H1 : QY ∈ W1 , K bezeichne den kritische Bereich. δ heißt ein Test zum (Signifikanz)Niveau α (α ∈ [0, 1]), wenn gilt QX K ≤ α, ∀QY ∈ W0 . (Vielfach wählt man α = 0, 01 oder α = 0, 05.) 4.1.7 Faustregel: Als Nullhypothese wählt man - wenn möglich - die Aussage, für die man die Wahrscheinlichkeit, sie fälschlicherweise abzulehnen, kontrollieren möchte. Anders gesagt, als Gegenhypothese wählt man - wenn möglich - die Aussage, für die man die Warscheinlichkeit, sie fälschlicherweise zu akzeptieren, kontrollieren möchte. c V. Steinmetz: Schließende Statistik –32– 4.1.8 Definition: Es sei δK : X :→ {d0 , d1 } ein Test mit dem kritischen Bereich K. Die Abbildung G(· | δK ) : W → [0, 1] mit G(QY | δK ) := QX K, ∀QY ∈ W heißt Gütefunktion (power function) des Tests δK . 4.1.9 Definition: Es sei δK : X → {d0 , d1 } ein Test mit Gütefunktion G. Die Abbildung L(·|δK ) : W → [0, 1] mit L(QY | δK ) := 1 − G(QY | δK ) = QX A, ∀QY ∈ W heißt Operationscharakteristik (OC-Funktion) des Tests, die Einschränkung G|W1 → [0, 1] die Schärfe (Macht) des Tests. 4.1.10 Bemerkung: Es seien Y eine Zufallsvariable mit der parametrischen Verteilungsannahme W = {QY,ϑ | ϑ ∈ Θ} und W0 , W1 ⊆ W mit .1) ∅ 6= W0 6= W W1 := W \ W0 . Dann kann man die Hypothesen .2) H0 : QY ∈ W0 H1 : QY ∈ W1 mit .3) Θ0 := {ϑ ∈ Θ | QY,ϑ ∈ W0 } Θ1 := {ϑ ∈ Θ | QY,ϑ ∈ W1 } auch in der äquivalenten Form .4) H0 : ϑ ∈ Θ0 H1 : ϑ ∈ Θ1 schreiben. Dabei gelten .5) ∅ 6= Θ0 6= Θ Θ1 = Θ \ Θ0 , also auch Θ0 ∪ Θ1 = Θ Θ0 ∩ Θ1 = ∅. Sind umgekehrt zwei Mengen Θ0 , Θ1 ⊆ Θ mit Eigenschaft .5) gegeben, so sind durch .6) W0 := {QY,ϑ ∈ W | ϑ ∈ Θ0 } W1 := {QY,ϑ ∈ W | ϑ ∈ Θ1 } zwei Mengen W0 , W1 ⊆ W definiert, welche die Bedingung .1) erfüllen und somit Hypothesen in der zu .4) äquivalenten Form .2) festlegen. c V. Steinmetz: Schließende Statistik –33– 4.1.11 Definition: Es sei δK : X → {d0 , d1 } ein Test zum Niveau α. Der Test heißt unverfälscht, unverzerrt(unbiased), wenn gilt QX K ≥ α ∀QY ∈ W1 . 4.1.12 Definition: Es sei δK ∗ : X → {d0 , d1 } ein Test zum Niveau α für H0 gegen H1 mit kritischem Bereich K ∗ . δK ∗ heißt gleichmäßig bester Test zum Niveau α, wenn für alle Tests δK : X → {0, 1} zum Niveau α für obige Hypothesen gilt QX K ∗ ≥ QX K c V. Steinmetz: Schließende Statistik ∀QY ∈ W1 . –34– 4.1.13 Beispiel (Nagelbeispiel): Ein Haushaltswarengeschäft bietet zwei Sortimentspackungen Nägel an, Typ I enthält drei Sorten Nägel - bezeichnet mit 1, 2 und 3 - im Verhältnis 1:1:8, Typ II enthält dieselben Nagelsorten im Verhältnis 6:3:1. Die Beschriftung einer Packung ist unleserlich geworden. Auf der Basis einer zufälligen Stichprobe vom Umfang n = 1 soll die Nullhypothese, es handle sich um Typ I, gegen die Alternative, es liege Typ II, vor getestet werden. Die Nagelsorte werde als Zufallsvariable Y mit den Trägerpunkten 1, 2 und 3 aufgefaßt. Es kommen zwei Wahrscheinlichkeitsverteilungen (Häufigkeitsverteilungen) in Betracht: y QI : QI {y} 1 2 3 0,1 0,1 0,8 y 1 2 3 QII : QII {y} 0,6 0,3 0,1 Man hat also die Verteilungsannahme W = {QI , QII }. Mit W0 = {QI } und W1 = {QII } folgen die Hypothesen H0 : QY ∈ W0 gleichbedeutend mit H0 : QY = QI H1 : QY ∈ W1 gleichbedeutend mit H1 : QY = QII . Es liegen damit zwei einfache Hypothesen vor. Da nur eine Stichprobe vom Umfang n = 1 gezogen werden soll, erhält man für die Stichprobe X = X1 den Stichprobenraum X = {1, 2, 3}. (Für n = 2 hätte man X = (X1 , X2 ) mit X = {(1, 1), (1, 2), . . . , (3, 3)}). Um alle Tests δ : X → {d0 , d1 } anzugeben, bestimmt man alle möglichen Zerlegungen von X in den kritischen Bereich Ki und den zugehörigen Annahmebereich Ai (i = a, b, . . . , h): Nr. i Ki a {1} b {2} c {3} d {1,2} e {1,3} f {2,3} g {1,2,3} h ∅ Ai {2,3} {1,3} {1,2} {3} {2} {1} ∅ {1,2,3 } Z.B. besagt die erste Spalte, daß man H0 annimmt, falls als Stichprobenrealisation eine 2 oder 3 auftritt, daß man H0 ablehnt, falls 1 auftritt. Man erhält also den Test δa : X → {d0 , d1 } mit d0 : x ∈ {2, 3} δa (x) = d1 : x ∈ {1} Entsprechend ist δg der Test, der H0 unabhängig vom Stichprobenbefund stets ablehnt und δh der Test, der H0 stets annimmt. In der folgenden Tabelle ist für jeden Test δi die Wahrscheinlichkeit des Fehlers 1.Art QX Ki (dabei QY ∈ W0 ) und des Fehlers 2.Art QX Ai (dabei QY ∈ W1 ) angegeben: c V. Steinmetz: Schließende Statistik –35– Nr. i QX Ki QX Ai a b c d e f g h 0,1 0,1 0,8 0,2 0,9 0,9 1 0 W’keit des Fehlers 1.Art (QY = QI ) 0,4 0,7 0,9 0,1 0,3 0,6 0 1 W’keit des Fehlers 2.Art (QY = QII ) Zur Beachtung: I.a. ist die Summe von 1. und 2. Fehlerwahrscheinlichkeit nicht Eins. Man berechnet zwar die Wahrscheinlichkeiten komplementärer Ereignisse Ki und Ai = CX Ki , aber mit verschiedenen Wahrscheinlichkeitsverteilungen. Allerdings zeigen die beiden Fehlerwahrscheinlichkeiten ein gewisses gegenläufiges Verhalten. Es sei das Signifikanzniveau α = 0, 15 gewählt. Die Tests zu diesem Niveau sind: δa mit QX Ka = 0, 1 δb mit QX Kb = 0, 1 dabei QY = QI δh mit QX Kh = 0 Die Fehlerwahrscheinlichkeiten 2.Art sind δa mit QX Aa = 0, 4 δb mit QX Ab = 0, 7 δh mit QX Ah = 1 dabei QY = QII Der beste Test zum Niveau α = 0, 15 ist also δa , da er die minimale Fehlerwahrscheinlichkeit 2.Art aufweist. c V. Steinmetz: Schließende Statistik –36– 4.2 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei bekannter Varianz (Gauß-Tests) 4.2.1 Tests über µ bei bekanntem σ02 einer N (µ, σ02 )-verteilten Zufallsvariablen (Gauß-Tests): Gegeben: Zufallsvariable Y , N (µ, σ02 )-verteilt mit unbekanntem µ ∈ R und bekanntem σ02 ∈ R++ , einfache Stichprobe X = (X1 , . . . , Xn ) zu Y mit der Realisation x = (x1 , . . . , xn ), Signifikanzniveau α ∈]0, 1[, µ0 ∈ R. Fall 0 Fall I Fall II H0 : µ = µ0 H1 : µ 6= µ0 µ (<) = µ0 µ > µ0 µ (>) = µ0 µ < µ0 Berechne: Aus der N (0, 1)-Tabelle Schwellenwerte2 λ1− α2 , λ1−α mit P{N (0, 1) ≤ λ1− α2 } = 1 − α 2 P{N (0, 1) ≤ λ1−α } = 1 − α Testgröße: n x − µ0 √ 1X N0 := n mit x = xi σ0 n i=1 Entscheide: Fall 0 H0 annehmen: −λ1− α2 ≤ N0 ≤ λ1− α2 H1 annehmen: |N0 | > λ1− α2 Fall I Fall II N0 ≤ λ1−α N0 ≥ −λ1−α N0 > λ1−α N0 < −λ1−α 4.2.2 Bemerkung: Bei den obigen Tests spricht man bei der Hypothesenfestlegung im Fall 0 von einer zweiseitigen Fragestellung, in den Fällen I und II von einseitigen Fragestellungen. Entsprechend dem Aussehen der Punktmengen, welche jeweils zur Ablehnung der Nullhypothese führen, spricht man im Fall 0 von einem zweiseitigen Test, in den Fällen I und II von einseitigen Tests. 4.2.3 Satz: Gegeben seien die Voraussetzungen aus Test (4.2.1). Dann gilt für die Gütefunktionen G(· | δi ) : R → [0, 1], i = 0, I, II3 der Tests 2 3 auch als kritische Werte bezeichnet Lautet bei I und II die Nullhypothese H0 : µ = µ0 , reduziert sich der Definitionsbereich der Gütefunktion auf [µ0 , ∞[ bzw. ] − ∞, µ0 ]. c V. Steinmetz: Schließende Statistik –37– µ0 − µ √ µ0 − µ √ .1) Fall 0: G(µ | δ0 ) = 1 − Φ n + λ1− α2 + Φ n − λ1− α2 σ0 σ0 µ0 − µ √ Fall I: G(µ | δI ) = 1 − Φ n + λ1−α σ0 µ0 − µ √ n − λ1−α Fall II: G(µ | δII ) = Φ σ0 .2) lim G(µ | δ0 ) = lim G(µ | δI ) = 1 µ→∞ µ→∞ lim G(µ | δ0 ) = lim G(µ | δII ) = 1 µ→−∞ µ→−∞ lim G(µ | δI ) = lim G(µ | δII ) = 0 µ→−∞ µ→∞ .3) G(µ0 + a | δ0 ) = G(µ0 − a | δ0 ) : a ∈ R G(µ0 + a | δI ) = G(µ0 − a | δII ) : a ∈ R .4) G(µ0 ± a | δ0 ) < G(µ0 ± a0 | δ0 ) : G(µ | δI ) < G(µ0 | δI ) : 0 G(µ | δII ) > G(µ | δII ) : .5) G(µ0 | δi ) = α G(µ | δ0 ) > α G(µ | δI ) < α G(µ | δI ) > α G(µ | δII ) > α G(µ | δII ) < α .6) G(µ | δ0 ) < G(µ | δI ) : µ0 < µ G(µ | δ0 ) < G(µ | δII ) : µ < µ0 : : : : : : 0 ≤ a < a0 µ < µ0 µ < µ0 i = 0, I, II µ 6= µ0 µ < µ0 µ0 < µ µ < µ0 µ0 < µ .7) Sind Gm , Gn die Gütefunktionen für den Stichprobenumfang m bzw. n mit m < n, so gilt weiterhin Gm (µ | δ0 ) < Gn (µ | δ0 ) : µ 6= µ0 < Gm (µ | δI ) = > Gn (µ | δI ) : > µ = < µ0 > Gm (µ | δII ) = < Gn (µ | δII ) > : µ = < µ0 . 4.2.4 Satz: Gegeben seien die Voraussetzungen und Bezeichnungen aus Test (4.2.1). Dann gilt .1) δi für i = 0, I, II sind Tests zum Niveau α. c V. Steinmetz: Schließende Statistik –38– .2) δi für i = 0, I, II sind unverzerrte Tests. .3) δ0 ist gleichmäßig bester Test in der Klasse aller unverzerrten Tests für die Hypothesen im Fall 0. .4) δI und δII sind gleichmäßig beste Tests für die Hypothesen in den Fällen I bzw. II. 4.2.5 Bemerkung: In der Praxis gibt man bei vorliegendem Stichprobenbefund x = (x1 , . . . , xn ) bisweilen das Infimum der Signifikanzniveaus an, bei denen H0 abgelehnt würde. Man bezeichnet diesen Wert oft mit p, nennt ihn p-Wert (p-value, level attained) und lehnt H0 ab, wenn für das vorher gewählte Signifikanzniveau α gilt: α ≥ p. VORSICHT: Man muß das Signifikanzniveau vor der Auswertung des Stichprobenbefundes und vor der Kenntnis des p-Wertes festlegen, da sonst die Gefahr besteht, das Signifikanzniveau α so zu wählen, daß der Test die vom Anwender gewünschte Entscheidung liefert und die von der Testtheorie gelieferten Aussagen über die Fehlerwahrscheinlichkeiten unsinnig sind. c V. Steinmetz: Schließende Statistik –39– 4.3 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei unbekannter Varianz (t-Tests) 4.3.1 Definition: Es seien X1 , . . . , Xn unabhängige, N (0, 1)-verteilte Zufallsvariablen mit n ∈ N. Die Zufallsvariable χ2n := X12 + . . . + Xn2 heißt Chi-Quadrat-verteilt mit n Freiheitsgraden. 4.3.2 Definition: Es seien X eine N (0, 1)-verteilte Zufallsvariable und χ2n eine von X unabhängige, Chi-Quadrat-verteilte Zufallsvariable mit n Freiheitsgraden. Die Zufallsvariable X tn := q χ2n n heißt t-verteilt mit n Freiheitsgraden. 4.3.3 Satz: Es seien X1 , . . . , Xn unabhängige N (µ, σ 2 )-verteilte Zufallsvariablen und n 1X X = Xi n i=1 n σ̂ 2 (X) = 1X (Xi − X)2 =: σ̂ 2 n i=1 n 1 X S (X) = (Xi − X)2 =: S 2 . n − 1 i=1 2 Dann gilt .1) X und S 2 (bzw. σ̂ 2 ) sind unabhängig .2) n − 1 2 nσ̂ 2 S = 2 und beide Quotienten sind χ2n−1 -verteilt σ2 σ .3) X − µ√ X − µ√ √ n= p n − 1 und beide Quotienten sind tn−1 -verteilt S2 σˆ2 c V. Steinmetz: Schließende Statistik –40– 4.3.4 Tests über µ bei unbekanntem σ 2 einer N (µ, σ 2 )-verteilten Zufallsvariablen (t-Tests): Gegeben: Zufallsvariable Y , N (µ, σ 2 )-verteilt mit unbekanntem µ ∈ R und unbekanntem σ 2 ∈ R++ , einfache Stichprobe X = (X1 , . . . , Xn ) zu Y mit der Realisation x = (x1 , . . . , xn ), Signifikanzniveau α ∈]0, 1[, µ0 ∈ R. Fall 0 Fall I Fall II (>) µ (<) = µ0 µ = µ0 H1 : µ 6= µ0 µ > µ0 µ < µ0 Berechne: Aus der tn−1 -Tabelle Schwellenwerte λ1− α2 , λ1−α mit α P{tn−1 ≤ λ1− α2 } = 1 − 2 P{tn−1 ≤ λ1−α } = 1 − α H 0 : µ = µ0 Testgröße: n x − µ0 √ 1X t0 := n mit x = xi , s n i=1 n 1 X s = (xi − x)2 n − 1 i=1 2 Entscheide: Fall 0 H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2 H1 annehmen: |t0 | > λ1− α2 Fall I Fall II t0 ≤ λ1−α t0 ≥ −λ1−α t0 > λ1−α t0 < −λ1−α 4.3.5 Faustregel: Für n > 30 kann man die tn−1 -Verteilung durch die N (0, 1)-Verteilung approximieren. 4.3.6 Bemerkung: In allen drei Fällen sind H0 und H1 zusammengesetzte Hypothesen. X − µ0 √ n nichtzentral-t-verteilt“ mit n−1 Freiheitsgraden und ” S(X) abhängig von σ. Damit folgt zugleich, daß die Gütefunktionen auch Funktionen von σ sind: X − µ0 √ G(µ | δ0 , σ) = 1 − Pµ,σ −λ1− α2 ≤ n ≤ λ1− α2 S X − µ0 √ G(µ | δI , σ) = Pµ,σ n > λ1−α S X − µ0 √ G(µ | δII , σ) = Pµ,σ n < −λ1−α S Zur Beurteilung des Fehlers 2.Art berechnet man deshalb die Gütefunktionen für mehrere alternative, eventuell in Frage kommende Werte der Standardabweichung σ. Für µ 6= µ0 ist c V. Steinmetz: Schließende Statistik –41– 4.3.7 Satz: Gegeben seien die Voraussetzungen und Bezeichnungen aus Test (4.3.4), δi mit i =0, I, II seien die Tests zu den Fällen 0, I und II. Dann gilt .1) δi für i =0, I, II sind Tests zum Niveau α. .2) δi für i =0, I, II sind unverzerrte Tests. .3) δi für i =0, I, II sind gleichmäßig beste Tests in der Klasse jeweils aller unverzerrten Tests für die entsprechenden Hypothesen. c V. Steinmetz: Schließende Statistik –42– 4.4 Tests über die Varianz einer normalverteilten Zufallsvariablen bei unbekanntem Erwartungswert (χ2 -Tests) 4.4.1 Tests über σ 2 bei unbekanntem µ einer N (µ, σ 2 )-verteilten Zufallsvariablen (χ2 -Tests): Gegeben: Zufallsvariable Y , N (µ, σ 2 )-verteilt mit unbekanntem µ ∈ R und unbekanntem σ 2 ∈ R++ , einfache Stichprobe X = (X1 , . . . , Xn ) zu Y mit der Realisation x = (x1 , . . . , xn ), Signifikanzniveau α ∈]0, 1[, σ02 ∈ R++ . Fall 0 Fall I Fall II H0 : σ 2 = σ02 H1 : σ 2 6= σ02 2 σ 2 (<) = σ0 σ 2 > σ02 2 σ 2 (>) = σ0 σ 2 < σ02 Berechne: Aus der χ2n−1 -Tabelle λ α2 , λ1− α2 , λα , λ1−α mit P χ2n−1 ≤ λ α2 P χ2n−1 ≤ λ1− α2 P χ2n−1 ≤ λα P χ2n−1 ≤ λ1−α α 2 α = 1− 2 = α = 1−α = Testgröße: n P χ20 := (xi − x)2 i=1 σ02 n 1X mit x = xi n i=1 Entscheide: Fall 0 Fall I Fall II H0 annehmen: λ α2 ≤ χ20 ≤ λ1− α2 χ20 ≤ λ1−α χ20 ≥ λα H1 annehmen: χ20 > λ1−α χ20 < λα sonst 4.4.2 Faustregel: 2 χ −(n−1) Für σ 2 = σ02 und n > 50 ist √0 oder für n ≥ 30 ist 2(n−1) p 2χ20 − √ 2n − 3 annähernd N (0, 1)-verteilt. 4.4.3 Satz: Gegeben seien die Voraussetzungen und Bezeichnungen aus Test (4.4.1). Dann gilt für die Gütefunktionen G(·|δi ) : R++ → [0, 1], i =0, I, II der Tests für σ 2 ∈ R++ : 2 σ0 σ02 2 2 .1) Fall 0: G(σ |δ0 ) = 1 − P λ α ≤ χn−1 ≤ 2 λ1− α2 σ2 2 σ c V. Steinmetz: Schließende Statistik –43– σ02 2 Fall I: G(σ |δI ) = P λ1−α < χn−1 σ2 σ02 2 2 Fall II: G(σ |δII ) = P χn−1 < 2 λα σ 2 .2) δI und δII sind gleichmäßig beste Tests in jeweils der Klasse der unverzerrten Tests für die entsprechenden Hypothesen. 4.4.4 Bemerkung: Im Fall 0 ist die Wahrscheinlichkeitsmasse α bei Gültigkeit von H0 : σ 2 = σ02 zu gleichen Teilen auf die beiden Intervalle [0, λ α2 [ und ]λ1− α2 , ∞[ aufgeteilt, ohne die Asymmetrie der χ2 -Verteilung auf R+ zu berücksichtigen. Dies führt zu einer Verzerrung des Tests. Allerdings gilt der Test als gute Näherung eines unverzerrten Tests und wird wegen der einfach zu berechnenden Schwellenwerte in der Regel verwendet. Bei optimaler Wahl der zur Ablehnung von H0 führenden beiden Intervalle (geeignete asymmetrische Aufteiung von α) ist der entsprechende Test gleichmäßig bester Test in der Klasse aller unverzerrten Tests für die Hypothesen im Fall 0. (siehe [Rohatgi] S.428 f.) c V. Steinmetz: Schließende Statistik –44– 4.5 Binomialtests, Test über Anteilswerte, Quantilstest 4.5.1 Binomialtests mit Normalverteilungsapproximation: Gegeben: Zufallsvariable Y mit y QY {y} 0 1 und unbekanntem 1−p p p ∈ [0, 1], einfache Stichprobe X = (X1 , . . . , Xn ) zu Y mit der Realisation 9 x = (x1 , . . . , xn ), Signifikanzniveau α ∈]0, 1[, p0 ∈]0, 1[ mit n > . p0 (1 − p0 ) Fall 0 Fall I Fall II H0 : p = p0 H1 : p 6= p0 p (<) = p0 p > p0 p (>) = p0 p < p0 Berechne: Aus der N (0, 1)-Tabelle λ1− α2 , λ1−α mit α P N (0, 1) ≤ λ1− α2 = 1− 2 P {N (0, 1) ≤ λ1−α } = 1 − α Testgröße: n P xi − np0 i=1 b0 := p np0 (1 − p0 ) Entscheide: Fall 0 H0 annehmen: −λ1− α2 ≤ b0 ≤ λ1− α2 H1 annehmen: |b0 | > λ1− α2 Fall I Fall II b0 ≤ λ1−α b0 ≥ −λ1−α b0 > λ1−α b0 < −λ1−α 4.5.2 Bemerkung: Im vorigen Test wurde eine diskrete Verteilung durch eine stetige Verteilung approximiert. Man kann die Approximation verbessern, wenn man eine sogenannte Stetigkeitskorrektur einführt. 4.5.3 Satz: Gegeben seien die Voraussetzungen und Bezeichnungen aus Test (4.5.1). Dann gelten - näherungsweise4 - die folgenden Aussagen .1) δi für i =0, I, II sind Tests zum Niveau α. .2) δi für i =0, I, II sind unverzerrte Tests. .3) δ0 ist gleichmäßig bester Test in der Klasse aller unverzerrten Tests für die Hypothesen im Fall 0. 4 wegen der Normalverteilungsapproximation c V. Steinmetz: Schließende Statistik –45– .4) δI und δII sind gleichmäßig beste Tests jeweils für die Hypothesen in den Fällen I bzw II. 4.5.4 Bemerkung: Da es sich bei dem Originaltest um eine diskrete Teststatistik handelt, kann man ein vorgegebenes Niveau α nicht notwendig exakt einstellen, sondern muß sich mit einem tatsächlichen Niveau < α begnügen und damit eine eventuell größere Fehlerwahrscheinlichkeit 2.Art in Kauf nehmen. (Diesen Mangel kann man durch sogenannte Randomisierung des Tests beheben.) 4.5.5 Bemerkung (Test über Anteilswerte): Der WR (Ω̃, F̃, P̃) mit unbekannter Wahrscheinlichjeit P̃ modelliere den interessierenden Umweltausschnitt. Auf der Basis einer zufälligen Stichprobe mit Zurücklegen ω̃1 , . . . , ω̃n aus Ω̃ soll für ein zur Debatte stehendes Ereignis à ∈ F̃ entschieden werden, ob für ein bestimmtes, hypothetisches p0 ∈]0, 1[ z.B. gilt P̃à = p0 oder P̃à 6= p0 . Ist Ω̃ endlich und P̃ die relative Häufigkeit, kann man die Frage z.B. auch so formulieren: Beträgt der Anteil von à an Ω̃ gerade p0 · 100% oder nicht?“ ” Definiert man ein Zufallsvariable Y : Ω̃ → R mit Y (ω̃) := 1 : ω̃ ∈ à 0 : ω̃ ∈ / à und der unbekannten Zweipunktverteilung QY,p mit 0 1 y , QY,p {y} 1 − p p so ist das Anteilsproblem auf die Hypothesenstellung H0 : p = p 0 H1 : p 6= p0 eines Binomialtests zurückgeführt. Durch (x1 , . . . , xn ) := (Y (ω̃1 ), . . . , Y (ω̃n )) ist die Realisierung einer einfache Stichprobe (X1 , . . . , Xn ) zu Y gegeben. c V. Steinmetz: Schließende Statistik –46– 4.5.6 Bemerkung (Quantilstest): Eine weitere Anwendung findet ein Binomialtest in der folgenden Situation: Es seien Y eine eindimensionale stetige Zufallsvariable mit der Verteilungsfunktion FY (·), W die Menge aller stetigen Verteilungen auf R und y0 ∈ R, p0 ∈]0, 1[ fest gewählt. Die Hypothesen .1) H1 : FY (y0 ) 6= p0 H0 : FY (y0 ) = p0 sind die Formalisierung der Frage: Ist y0 ein p0 -Quantil der Verteilung oder nicht?“ ” Durch die Transformation g:R→R mit g(t) := 1 : t ≤ y0 0 : t > y0 überführt man Y in eine Zufallsvariable V := g(Y ). Wegen FY (y0 ) = P{Y ≤ y0 } = P{V = 1} =: py0 hat V = g(Y ) die Zweipunktverteilung QV mit v QV,y0 {y} 0 1 − p y0 1 p y0 und die Hypothesen aus .1) lauten jetzt .2) H 0 : p y0 = p 0 H1 : py0 6= p0 . Eine einfache Stichprobe X = (X1 , . . . , Xn ) zu Y mit der Realisation x = (x1 , . . . , xn ) wird durch die Anwendung von g in eine einfache Stichprobe U = (U1 , . . . , Un ) := (g(X1 ), . . . , g(Xn )) zu V = g(Y ) überführt, mit der Realisation u = (u1 , . . . , un ) := (g(x1 ), . . . , g(xn )), die Entscheidung zwischen den Hypothesen aus .2) - und damit auch aus .1) erfolgt mit Hilfe des entsprechenden Binomialtests. c V. Steinmetz: Schließende Statistik –47– 4.6 Parameterbereichsschätzungen 4.6.1 Definition: Es seien Y eine Zufallsvariable mit der parametrischen Verteilungsannahme W , Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm und X = (X1 , . . . , Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X. Eine statistische Entscheidungsfunktion δ : X → P(γ(Θ)) heißt eine Parameterbereichsschätzung für den Parameter γ(ϑ) mit ϑ ∈ Θ. (Meßbarkeitsfragen sollen auch hier ausgeklammert werden.) 4.6.2 Bemerkung: Man bezeichnet im allgemeinen auch die Zufallsvariable δ(X) := δ ◦ X als Bereichsschätzfunktion für γ(ϑ) mit ϑ ∈ Θ. 4.6.3 Definition: Es seien Y eine Zufallsvariable mit der parametrischen Verteilungsannahme W , Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm sowie X = (X1 , . . . , Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X und α ∈]0, 1[. Eine Parameterbereichsschätzung δ : X → P(γ(Θ)) heißt eine Konfidenzbereichsschätzung (Konfidenzschätzung, confidence estimation) zur Sicherheitswahrscheinlichkeit (confidence level) 1 − α (zum Niveau α) für γ(ϑ) und ϑ ∈ Θ, wenn gilt: QX,ϑ {x ∈ X | γ ∈ δ(x)} ≥ 1 − α für alle γ ∈ γ(Θ) und ϑ ∈ Θ mit γ(ϑ) = γ. Für jedes x ∈ X heißt δ(x) ⊆ γ(Θ) ein 1 − α-Konfidenzbereich für γ ∈ γ(Θ). 4.6.4 Bemerkung: Es seien W = {QY,ϑ | ϑ ∈ Θ} eine parametrische Verteilungsannahme und γ : Θ → γ(Θ) =: Γ ⊆ Rm eine Abbildung. Die Hypothesen eines Alternativtests formuliert man oft in der Form .1) H0 : γ(ϑ) ∈ Γ0 H1 : γ(ϑ) ∈ Γ1 mit Γ0 , Γ1 ⊆ Γ, ∅ 6= Γ0 6= Γ, Γ1 := Γ \ Γ0 , speziell mit Γ0 = {γ0 } auch als .2) H0 : γ(ϑ) = γ0 H1 : ¬(γ(ϑ) = γ0 ) . Mit Θ0 := γ −1 (Γ0 ) und Θ1 := γ −1 (Γ1 ) kann man zu .1) äquivalent formulieren .3) H0 : ϑ ∈ Θ0 H1 : ϑ ∈ Θ1 . Dabei gilt Θ0 ∪ Θ1 = Θ, Θ0 ∩ Θ1 = ∅ . c V. Steinmetz: Schließende Statistik –48– 4.6.5 Satz: Es seien Y eine Zufallsvariable mit der parametrischen Verteilungsannahme W , Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm mit sowie X = (X1 , . . . , Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X. Es seien δγ∗0 : X → {d0 , d1 } für alle γ0 ∈ γ(Θ) Alternativtests zum Niveau α ∈]0, 1[ zur Prüfung der Hypothesen H0 : γ(ϑ) = γ0 H1 : ¬(γ(ϑ) = γ0 ), dabei sei Aγ0 := {x ∈ X | δγ∗0 (x) = d0 } der Annahmebereich des Tests δγ∗0 . Dann ist durch δ(x) := {γ0 ∈ γ(Θ) | x ∈ Aγ0 } eine Konfidenzbereichsschätzung δ : X → P(γ(Θ)) zur Sicherheitswahrscheinlichkeit 1 − α definiert. 4.6.6 Bemerkung: Geht man im obigen Satz von einseitigen Hypothesen aus, erhält man entsprechend einseitige“ Konfidenzbereiche, bei zweiseitigen Fragestellungen zweisei” ” tige“ Konfidenzbereiche. 4.6.7 Satz: Es seien Y eine Zufallsvariable mit der parametrischen Verteilungsannahme W = {QY,ϑ | ϑ ∈ Θ}, γ : Θ → Rm mit eine Abbildung, X = (X1 , . . . , Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X, sowie δ : X → P(γ(Θ)) eine Konfidenzbereichsschätzung für γ ∈ γ(Θ) zur Sicherheitswahrscheinlichkeit 1 − α ∈]0, 1[. Dann ist durch Aγ0 := {x ∈ X | γ0 ∈ δ(x)} der Annahmebereich eines Tests δγ∗0 : X → D = {d0 , d1 } zum Niveau α für die Hypothesen H0 : γ(ϑ) = γ0 gegeben. c V. Steinmetz: Schließende Statistik H1 : ¬(γ(ϑ) = γ0 ) –49– 4.6.8 Bemerkung: Für gegebene Realisationen x = (x1 , . . . , xn ) und berechnete Konfidenzschätzbereiche δ(x) schließt man also γ0 ∈ δ(x) =⇒ H0 γ0 ∈ / δ(x) =⇒ H0 annehmen verwerfen. 4.6.9 Folgerung: Es seien Y eine N (µ, σ02 )-verteilte Zufallsvariable mit unbekanntem Erwartungswert µ ∈ R und bekannter Varianz σ02 ∈ R++ , X = (X1 , . . . , Xn ) eine einfache Stichprobe zu Y mit dem Stichprobenraum X = Rn . Zu α ∈]0, 1[ sei λ1− α2 bestimmt mit P −λ1− α2 ≤ N (0, 1) ≤ λ1− α2 = 1 − α. Dann ist durch σ0 σ0 δ(x) := x − √ λ1− α2 ; x + √ λ1− α2 n n n P für alle x ∈ X mit x = n1 xi eine (1 − α)-Konfidenzbereichsschätzung δ für i=1 den Parameter µ gegeben. c V. Steinmetz: Schließende Statistik –50– 5 Multivariate Verfahren 5.1 Tests über die Erwartungswerte zweier gemeinsam normalverteilter Zufallsvariablen mit unbekannten Varianzen (t-Tests) 5.1.1 Tests über die Erwartungswerte zweier gemeinsam normalverteilter Zufallsvariablen mit unbekannten Varianzen bei verbundenen Stichproben (t-Tests): Gegeben: Zufallsvariable (Y1 , Y2 ), zweidimensional normalverteilt mit EY1 = µ1 , EY2 = µ2 , VarY1 = σ12 , VarY2 = σ22 , ((X11 , X21 ), . . . , (X1n , X2n )) einfache Stichprobe zu (Y1 , Y2 ) mit der Realisation ((x11 , x21 ), . . . , (x1n , x2n )), Signifikanzniveau α ∈]0, 1[, ϑ ∈ R. Fall 0 H0 : H1 : Fall I Fall II µ1 − µ2 (<) = ϑ µ1 − µ2 = 6 ϑ µ1 − µ2 > ϑ µ1 − µ2 (>) = ϑ µ1 − µ2 < ϑ µ1 − µ2 = ϑ Berechne: Aus der tn−1 -Tabelle λ1− α2 , λ1−α mit α P tn−1 ≤ λ1− α2 = 1 − 2 P {tn−1 ≤ λ1−α } = 1 − α z = (z1 , . . . , zn ) mit zi = x1i − x2i für i = 1, . . . , n v u n n X u 1 X 1 t z= zi s(z) = (zi − z)2 n i=1 n − 1 i=1 Testgröße: t0 := z − ϑ√ n s Entscheide: Fall 0 H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2 H1 annehmen: c V. Steinmetz: Schließende Statistik |t0 | > λ1− α2 Fall I Fall II t0 ≤ λ1−α t0 ≥ −λ1−α t0 > λ1−α t0 < −λ1−α –51– 5.1.2 Tests über die Erwartungswerte zweier gemeinsam normalverteilter Zufallsvariablen mit unbekannten, aber übereinstimmenden Varianzen und unverbundenen Stichproben (t-Tests): Gegeben: N (µ1 , σ 2 )-verteilte Zufallsvariable Y1 , N (µ2 , σ 2 )-verteilte Zufallsvariable Y2 , einfache Stichprobe X1 = (X11 , . . . , X1n1 ) zu Y1 vom Umfang n1 mit Realisation x1 = (x11 , . . . , x1n1 ), einfache Stichprobe X2 = (X21 , . . . , X2n2 ) zu Y2 vom Umfang n2 mit Realisation x2 = (x21 , . . . , x2n2 ), X1 und X2 unabhängig, Signifikanzniveau α ∈]0, 1[, ϑ ∈ R. H0 : Fall 0 Fall I Fall II µ1 − µ 2 = ϑ µ1 − µ2 (<) = ϑ µ1 − µ2 > ϑ µ1 − µ2 (>) = ϑ µ1 − µ 2 < ϑ H1 : µ1 − µ2 6= ϑ Berechne: Aus der tn1 +n2 −2 -Tabelle λ1− α2 , λ1−α mit α P tn1 +n2 −2 ≤ λ1− α2 = 1 − 2 P {tn1 +n2 −2 ≤ λ1−α } = 1 − α n n 1 1X x1 = x1i n i=1 2 1X x2 = x2i n i=1 n n 1 2 1 X 1 X 2 2 s (x1 ) = (x1i − x1 ) ; s (x2 ) = (x2i − x2 )2 n1 − 1 i=1 n2 − 1 i=1 2 Testgröße: s t0 := n1 n2 (n1 + n2 − 2) rn P1 n1 + n2 x1 − x2 − ϑ n2 P (x1i − x1 )2 + (x2i − x2 )2 i=1 i=1 Für n1 = n2 = n hat man die Testgröße √ x1 − x2 − ϑ t0 = p s2 (x1 ) + s2 (x2 ) n Entscheide: Fall 0 H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2 H1 annehmen: c V. Steinmetz: Schließende Statistik |t0 | > λ1− α2 Fall I Fall II t0 ≤ λ1−α t0 ≥ −λ1−α t0 > λ1−α t0 < −λ1−α –52– 5.2 Tests über die Varianzen zweier normalverteilter Zufallsvariablen (F -Tests) 5.2.1 Definition: Es seien χ2m , χ2n unabhängige, χ2 -verteilte Zufallsvariablen mit m bzw. n Freiheitsgraden. Dann heißt Fnm χ2m χ2 n · =: F(m,n) := m2 = m χn χ2n m n F -verteilt mit m Zählerfreiheitsgraden und n Nennerfreiheitsgraden. 5.2.2 Folgerung: Es sei Fnm eine mit m Zähler- und n Nennerfreiheitsgraden F -verteilte Zufallsvariable über einem Wahrscheinlichkeitsraum (Ω, F, P). Dann gilt für alle p ∈]0, 1[ 1 m n P {Fn ≤ λp,m,n } = p ⇐⇒ P Fm ≤ =1−p. λp,m,n Und somit auch λ1−p,n,m = 1 λp,m,n . 5.2.3 Satz: Die Zufallsvariablen X = (X1 , . . . , Xm ) und Y = (Y1 , . . . , Yn ) seien unabhängig, die Xi (i = 1, . . . , m) seien unabhängig und N (µ1 , σ12 )-verteilt, die Yj (j = 1, . . . , n) seien unabhängig und N (µ2 , σ22 )-verteilt. Dann ist die Zufallsvariable S 2 (X) σ22 · S 2 (Y ) σ12 m−1 Fn−1 − verteilt. 5.2.4 Tests über die Varianzen zweier normalverteilter Zufallsvariablen (F -Tests): Gegeben: N (µ1 , σ12 )-verteilte Zufallsvariable Y1 , N (µ2 , σ22 )-verteilte Zufallsvariable Y2 , einfache Stichprobe X1 = (X11 , . . . , X1n1 ) zu Y1 vom Umfang n1 mit Realisation x1 = (x11 , . . . , x1n1 ), einfache Stichprobe X2 = (X21 , . . . , X2n2 ) zu Y2 vom Umfang n2 mit Realisation x2 = (x21 , . . . , x2n2 ), X1 und X2 unabhängig, Signifikanzniveau α ∈]0, 1[ und ϑ ∈ R++ . H0 : H1 : Fall 0 Fall I Fall II σ12 =ϑ σ22 σ12 6= ϑ σ22 σ12 (<) ϑ σ22 = σ12 >ϑ σ22 σ12 (>) ϑ σ22 = σ12 <ϑ σ22 c V. Steinmetz: Schließende Statistik –53– −1 Berechne: Aus der Fnn21−1 -Tabelle λ1− α2 , λ1−α , λ α2 , λα mit −1 P Fnn21−1 ≤ λ α2 −1 P Fnn21−1 ≤ λ1− α2 −1 P Fnn21−1 ≤ λα −1 P Fnn21−1 ≤ λ1−α α 2 α = 1− 2 = α = = 1−α n2 1 X x2i x2 = n2 i=1 n1 1 X x1i x1 = n1 i=1 n 1 1 X (x1i − x1 )2 ; s (x1 ) = n1 − 1 i=1 2 n 2 1 X (x2i − x2 )2 s (x2 ) = n2 − 1 i=1 2 Testgröße: F0 := s2 (x1 ) 1 · s2 (x2 ) ϑ Entscheide: Fall 0 Fall I Fall II H0 annehmen: λ α2 ≤ F0 ≤ λ1− α2 F0 ≤ λ1−α F0 ≥ λα H1 annehmen: F0 > λ1−α F0 < λα c V. Steinmetz: Schließende Statistik sonst –54– 6 Nichtparametrische Tests 6.1 Chi-Quadrat-Tests 6.1.1 Chi-Quadrat-Anpassungstest: Gegeben: Zufallsvariable Y mit unbekannter Verteilungsfunktion FY , einfache Stichprobe X = (X1 , . . . , Xn ) zu Y mit der Realisation x = (x1 , . . . , xn ), Si◦ gnifikanzniveau α ∈]0, 1[, hypothetische Verteilungsfunktion F Y , H0 : H1 : ◦ FY =F Y ◦ FY 6=F Y . ◦ Dabei darf die hypothetische Verteilungsfunktion F Y keine unbekannten Parameter mehr enthalten. Wähle: Intervalleinteilung ] − ∞, a2 ] ]a2 , a3 ] . . . ]ak , ak+1 ] . . . ]ar , ∞[, | {z } | {z } | {z } | {z } I1 I2 Ik Ir so daß mit a1 = −∞ und ar+1 = +∞ für jedes Ik gilt ◦ ◦ ◦ n pk = n(FY (ak+1 )− FY (ak )) ≥ 5 für k = 1, . . . , r. Falls die vorgenommene Intervalleinteilung dies nicht sofort erfüllt, fasse man benachbarte Intervalle zusammen. Man lege die Intervallgrenzen nicht auf die einzelnen xi , bei diskreten hypothetischen Verteilungen auch nicht auf Sprung◦ stellen von F Y . Berechne: νk Anzahl der xi , die in das k-te Intervall fallen für k = 1, . . . , r (empirische Häufigkeit) ◦ n pk für k = 1, . . . , r (theoretische Häufigkeit) Testgröße: χ20 = ◦ r X (νk − n pk )2 ◦ k=1 n pk = r X νk2 ◦ k=1 n pk aus χ2r−1 − Tafel λ1−α mit P χ2r−1 ≤ λ1−α = 1 − α Entscheide: H0 annehmen: χ20 ≤ λ1−α H1 annehmen: c V. Steinmetz: Schließende Statistik χ20 > λ1−α −n –55– 6.1.2 Modifizierter Chi-Quadrat-Minimum-Anpassungstest: Gegeben: Zufallsvariable Y mit unbekannter Verteilungsfunktion FY , einfache Stichprobe X = (X1 , . . . , Xn ) zu Y mit der Realisation x = (x1 , . . . , xn ), Signifikanzniveau α ∈]0, 1[. ◦ H0 : FY ∈ {F Y (· | ϑ1 , . . . , ϑl ) | (ϑ1 , . . . , ϑl ) ∈ Θ} H1 : FY ∈ / {F Y (· | ϑ1 , . . . , ϑl ) | (ϑ1 , . . . , ϑl ) ∈ Θ} ◦ ◦ F Y enthält l ≥ 1 unbekannte Parameter. Berechne: ML-Schätzwerte ϑ̂1 , . . . , ϑ̂l für ϑ1 , . . . , ϑl . Wähle: Intervalleinteilung wie in Test (6.1.1) unter Benutzung von ◦ F Y (· | ϑ̂1 , . . . , ϑ̂l ). Die Anzahl der Intervalle sei r. ◦ Berechne: Testgröße χ20 unter Benutzung von F Y (· | ϑ̂1 , . . . , ϑ̂l ) wie in Test (6.1.1) aus χ2r−l−1 − Tafel λ1−α mit P χ2r−l−1 ≤ λ1−α = 1 − α Entscheide: H0 annehmen: χ20 ≤ λ1−α H1 annehmen: χ20 > λ1−α VORSICHT: Aufgrund der oben verwendeten ML-Schätzung ist die Testgröße i.a. nicht mehr asymptotisch Chi-Quadrat-verteilt, die ermittelten Quantile gelten aber - mindestens für größere r - als brauchbar. c V. Steinmetz: Schließende Statistik –56– 6.1.3 Chi-Quadrat-Unabhängigkeitstest: Gegeben: Diskrete zweidimensionale Zufallsvariable (X, Y ) mit endlich vielen Trägerpunkten (xi , yj ), i = 1, . . . , r und j = 1, . . . , s, eine einfache Stichprobe vom Umfang n zu (X, Y ) mit Realisation; die absoluten Häufigkeiten, mit denen die einzelnen Trägerpunkte in der Realisation auftreten, sind zu einer Kontingenztafel zusammengefaßt: i\j y1 ··· ··· ··· yj .. . .. . nij .. . .. . x1 .. . xi .. . xr ··· ys ··· ··· Signifikanzniveau α ∈]0, 1[. H0 : X und Y sind stochastisch unabhängig H1 : X und Y sind stochastisch abhängig. Berechne: λ1−α aus χ2 -Tafel mit (r − 1)(s − 1) Freiheitsgraden: P χ2(r−1)(s−1) ≤ λ1−α = 1 − α ni. = s X nij für i = 1, . . . , r nij für i = 1, . . . , s j=1 n.j = r X i=1 n = s X n.j = j=1 r X ni. i=1 Testgröße: χ20 r X s n n X (nij − i.n .j )2 =n ni. n.j i=1 j=1 für r = s = 2 hat man die Testgröße χ20 = n(n11 n22 − n12 n21 )2 n1. n2. n.1 n.2 Entscheide: H0 annehmen: χ20 ≤ λ1−α H1 annehmen: c V. Steinmetz: Schließende Statistik χ20 > λ1−α –57– 6.1.4 Faustregel: Man sollte den Test nur anwenden, wenn für die theoretischen Häufigkeiten gilt ni. n.j ≥ 1 für i = 1, . . . , r, j = 1, . . . , s, n andernfalls sollte man unterbesetzte Trägerpunkte zusammenfassen. c V. Steinmetz: Schließende Statistik –58– 6.2 Wilcoxon-Rangsummentest für unverbundene Stichproben 6.2.1 Definition: Es seien M 6= ∅ eine Menge und A ⊆ M . Die Abbildung 1A : M → {0, 1} mit 1A (x) := 1 : x∈A 0 : x∈ /A bezeichnet man als Indikatorfunktion (indicator function) der Menge A. 6.2.2 Definition: Es sei Rn6= := {(x1 , . . . , xn ) ∈ Rn | xi 6= xj für i 6= j} die Menge aller n-Tupel reller Zahlen mit paarweise verschiedenen Elementen. Man bezeichnet die Abbildung Rj : Rn6= → {1, . . . , n} mit Rj (x) := n X j ∈ {1, . . . , n} 1]−∞,xj ] (xi ) für x = (x1 , . . . , xn ) ∈ Rn6= i=1 als j-te Rangstatistik (rank-statistic) und Rj (x) als Rang (rank) des Elementes xj in x = (x1 , . . . , xn ). Ist X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable mit dem Stichprobenraum X = Rn6= , so bezeeichnet man auch die Zufallsvariable Rj ◦ X =: Rj (X) = Rj (X1 , . . . , Xn ) als j-te Rangstatistik (j = 1, . . . , n). 6.2.3 Bemerkung: Es sei n1 +n2 x = (x11 , . . . , x1n1 , x21 , . . . , x2n2 ) ∈ R6= (n1 , n2 ∈ N). Dann ist es naheliegend, den Rang des Elementes x1j (j ∈ {1, . . . , n1 }) in dem ganzen (n1 + n2 )-Tupel x mit R1j (x) zu bezeichnen. Es gilt R1j (x) = n1 X 1]−∞,x1j ] (x1i ) + i=1 n2 X 1]−∞,x1j ] (x2i ). i=1 Entsprechend hat man R2j (x) = n1 X i=1 c V. Steinmetz: Schließende Statistik 1]−∞,x2j ] (x1i ) + n2 X i=1 1]−∞,x2j ] (x2i ) –59– für j = 1, . . . , n2 als Rang des Elementes x2j in dem (n1 + n2 )-Tupel x. Die Zufallsvariablen R1j (X11 , . . . , X1n1 , X21 . . . , X2n2 ) und R2j (X11 , . . . , X1n1 , X21 . . . , X2n2 ) sind entsprechend zu interpretieren. 6.2.4 Satz: Es sei X = (X11 , . . . , X1n1 , X21 , . . . , X2n2 ) mit n1 , n2 ∈ N und n := n1 + n2 eine einfache Stichprobe zu einer stetigen Zufallsvariable Y . 5 Weiterhin sei Wnn1 := n1 X R1i (X). i=1 Dann gilt n1 (n+1) 2 .1) EWnn1 = .2) VarWnn1 = n1 n2 (n+1) . 12 Mit Wnn1 − EWnn1 Znn1 := p VarWnn1 gilt für die zugehörige Verteilungsfunktion .3) lim FZnn1 (z) = Φ(z) für z ∈ R. n→∞ n1 → konst n 6.2.5 Wilcoxon-Rangsummentest für unverbundene Stichprobe mit Normalverteilungsapproximation: Gegeben: Stetig verteilte, mindesten ordinal skalierte Zufallsvariablen Y1 , Y2 mit Verteilungsfunktionen FY1 und FY2 , einfache, unabhängige Stichproben X1 = (X11 , . . . , X1n1 ) und X2 = (X21 , . . . , X2n1 ) zu Y1 bzw. Y2 mit Realisationen x1 = (x11 , . . . , x1n1 ) und x2 = (x21 , . . . , x2n1 ), wobei die Elemente von x := (x1 , x2 ) paarweise verschieden sein müssen, n1 , n2 ∈ N mit n := n1 + n2 , α ∈]0, 1[; n1 ≥ 25 oder n2 ≥ 25, FY2 (y) = FY1 (y + ϑ) ∀y ∈ R Fall 0 5 H0 : ϑ=0 H1 : ϑ 6= 0 beachte Bemerkung 6.2.6 c V. Steinmetz: Schließende Statistik Fall I Fall II (>) ϑ (<) = 0 ϑ = 0 ϑ>0 ϑ<0 –60– Berechne: Aus N (0, 1)-Tafel λ1− α2 , λ1−α mit α P N (0, 1) ≤ λ1− α2 = 1 − 2 P {N (0, 1) ≤ λ1−α } = 1 − α w0 := n1 X R1i (x) w0 − z0 := q i=1 n1 (n+1) 2 n1 n2 (n+1) 12 Entscheide: Fall 0 H0 annehmen: −λ1− α2 ≤ z0 ≤ λ1− α2 |z0 | > λ1− α2 H1 annehmen: Fall I Fall II z0 ≤ λ1−α z0 ≥ −λ1−α z0 > λ1−α z0 < −λ1−α 6.2.6 Bemerkung: Die Rangstatistiken wurden als Abbildungen über dem Rn6= eingeführt, der Stichprobenraum X einer n-dimensionalen Zufallsvariablen X enthält i.a. Elemente, die nicht zum Rn6= gehören. Da bei einer stetigen Zufallsvariablen die Menge Rn − Rn6= das Wahrscheinlichkeitsmaß Null hat, ist die Hintereinanderausführung von X und einer Rangstatistik trotzdem sinnvoll zu interpretieren. 6.2.7 Bemerkung: Nach den Voraussetzungen des Testrezeptes (6.2.5) sind die unabhängigen, einfachen Stichproben X1 und X2 stetig verteilt und folglich ist die Wahrscheinlichkeit Null, daß Zahlenwerte mehrfach vorkommen. Trotzdem treten in der Praxis allein schon aufgrund von Rundungen immer wieder übereinstimmende Werte auf, man spricht von Bindungen (ties). Bei dem vorangehenden Rangtest empfiehlt es sich, jedem Element einer Gruppe von übereinstimmenden Werten den Mittelwert der auf die Gruppenelemente entfallenden Ränge zuzuordnen. Diese Ränge werden dabei bestimmt, indem man fiktiv von so minimal verschiedenen Gruppenelementen ausgeht, daß sie in der nach der Größe der Elemente geordneten Stichprobenrealisation aufeinader folgen würden. Beispielsweise erhält man nach dieser Methode für die Stichprobenrealisation x = (x1 , . . . x5 ) = (6, 3, 7, 3, 1) die Ränge R1 (x) = 4 ; R2 (x) = 6 2+3 = 2, 5 ; R3 (x) = 5 ; R4 (x) = 2, 5 ; R5 (x) = 1 .6 2 Die Veränderung der Verteilung der Teststatistik wurde hier vernachlässigt; vgl. [Büning] S.148 f. c V. Steinmetz: Schließende Statistik –61– A Hilfsmittel aus der Matrizenrechnung A1 Matrizen und Vektoren A1.1 Definition: Unter einer (m×n)-Matrix A mit den Elementen aij (i = 1, . . . , m, j = 1, . . . , n) versteht man ein Schema a11 · · · a1n .. =: (a ) i=1,...,m =: A A := ... ij (m×n) , . j=1,...,n am1 · · · amn m heißt Anzahl der Zeilen, n Anzahl der Spalten von A. Eine (m × 1)-Matrix a heißt ein m-dimensionaler (Spalten-) Vektor a1 a := ... am Eine (1 × n)-Matrix a0 heißt ein n-dimensionaler Zeilenvektor, a0 = (a1 , . . . , an ). Sei r = min{m, n}. Die Elemente a11 , a22 , . . . , arr der Matrix A = (aij ) heißen Hauptdiagonalelemente; der Vektor (a11 , . . . , arr )0 heißt die Hauptdiagonale von A. Ist m = n, so heißt die Matrix A quadratisch A1.2 Bemerkung: Die Elemente der im folgenden betrachteten Matrizen seien reelle Zahlen. Die Definitionen und Sätze gelten aber auch für Matrizen mit anderen Elementen, z.B. komplexen Zahlen, reellen Zufallsvariablen, soweit eine Gleichheitsrelation, Nullelement, Einselement, Addition, Multiplikation usw. mit den entsprechenden Eigenschaften definiert sind. A1.3 Definition: Seien A = (aij ) i=1,...,m , B = (bij ) i=1,...,m0 zwei Matrizen. Man definiert j=1,...,n j=1,...,n0 A = B ⇐⇒ (m = m0 )∧(n = n0 )∧(∀i ∈ {1, . . . , m})(∀j ∈ {1, . . . , n}) (aij = bij ) A1.4 Definition: Sei A = (aij ) i=1,...,m eine (m × n)-Matrix. Dann heißt die (n × m)-Matrix j=1,...,n A0 = (a0ij ) i=1,...,n mit a0ij = aji Transponierte zu A. (andere Schreibweise: AT ) j=1,...,m Eine quadratische Matrix A heißt symmetrisch, wenn aij = aji (∀i, j = 1, . . . , n). c V. Steinmetz: Schließende Statistik –62– A1.5 Folgerung: Stets gilt .1) (A0 )0 = A .2) A symmetrisch ⇐⇒ A = A0 A1.6 Definition(Typen von Matrizen): (n × n)-Einheitsmatrix 1 0 ··· 0 0 1 · · · 0 I = .. . . . . n . . . 0 0 ··· 1 | {z } n (n × n)-Diagonalmatrix d1 0 · · · 0 0 d2 · · · 0 D = .. .. . . . . . 0 0 · · · dn (m × n)-Einsmatrix 1 ··· 1 .. m E = ... . 1 ··· 1 | {z } n (m × n)-Nullmatrix 0 ··· 0 .. m O = ... . 0 ··· 0 | {z } n obere (n × n)-Dreiecksmatrix a11 · · · · · · a1n .. .. . . 0 A= . . .. . .. .. .. . 0 · · · 0 ann untere (n × n)-Dreiecksmatrix b11 0 · · · 0 .. .. . . . . . . . . B= . . .. 0 .. b1n · · · · · · bnn ej = j-ter Einheitsvektor 0 .. . 0 1 ← j-te Komp.(von oben) 0 .. . 0 c V. Steinmetz: Schließende Statistik Einsvektor ι= 1. .. .. .. .. .. .. .. .. . 1 Nullvektor 0= 0. .. .. .. .. .. .. .. .. . 0 –63– A1.7 Definition: Es sei a11 · · · a1n .. A = ... . am1 · · · amn Man schreibt a1j A·j := ... j ∈ {1, . . . , n} für den j-ten Spaltenvektor von A. amj A0i· := (ai1 , . . . , ain ) i ∈ {1, . . . , m} für den i-ten Zeilenvektor von A. A1.8 Folgerung: Verzichtet man auf innere Klammern und Kommata, so kann man schreiben: A01· A = (A·1 . . . A·n ) = ... A0m· c V. Steinmetz: Schließende Statistik –64– A2 Verknüpfungen von Matrizen A2.1 Definition: Seien A = (aij ), B = (bij ) (m×n)-Matrizen und α ∈ R. Die Summe der Matrizen A und B wird definiert durch A + B := F = (fij )m×n mit fij := aij + bij ∀i = 1, . . . , m, j = 1, . . . , n, die skalare Multiplikation von A und α wird definiert durch αA := G = (gij )m×n mit gij := αaij ∀i = 1, . . . , m, j = 1, . . . , n. Man setzt (−1)A =: −A. A2.2 Satz: Seien A, B, C (m × n)-Matrizen und α, β ∈ R. Dann gilt .1) .3) .5) .7) A+B =B+A .2) (A + B) + C = A + (B + C) A+O =O+A=A .4) (A + B)0 = A0 + B 0 αA = Aα .6) (α + β)A = αA + βA α(βA) = (αβ)A = β(αA) .8) (αA)0 = αA0 A2.3 Definition: Seien A = (aij ) eine (m × n)-Matrix und B = (bij ) eine (n × r)-Matrix. Dann heißt die (m × r)-Matrix AB := G = (gij ) i=1,...,m j=1,...,r mit gij := n X aik bkj ∀i, j k=1 das Produkt von A und B. A2.4 Satz: Unter der Annahme, daß die Zeilen- und Spaltenzahlen die jeweiligen Verknüpfungen erlauben, gilt: .1) .3) .5) .7) (AB)C = A(BC) A(B + C) = AB + AC IA = A; AI = A (AB)0 = B 0 A0 .2) .4) .6) .8) (A + B)C = AC + BC α(AB) = (αA)B = A(αB) OA = O; AO = O AA0 und A0 A sind symmetrisch A2.5 Bemerkung: Ist mit AB auch BA definiert, gilt i.a. AB 6= BA. c V. Steinmetz: Schließende Statistik –65– A2.6 Folgerung: .1) Seien A = a0 =(a1 , . . . , an ) ein n-dimensionaler Zeilenvektor und b1 .. B = b = . ein n-dimensionaler Spaltenvektor, dann gilt: bn AB = a0 b = n X ai b i i=1 v1 .2) Seien V = v = ... ein m-dimensionaler Spaltenvektor und vm W = w0 = (w1 , . . . , wn ) ein n-dimensionaler Zeilenvektor, dann ist v1 w1 · · · v1 wn .. V W = v · w0 = ... . vm w1 · · · vm wn eine (m × n)-Matrix. A2.7 Definition: Es seien A = (aij ) eine (m×n)-Matrix und B eine (r×s)-Matrix. Man bezeichnet die (m · r × n · s)-Matrix a11 B · · · a1n B .. A ⊗ B := ... . am1 B · · · amn B als Kroneckerprodukt von A und B. A2.8 Satz: Es seien A, B, C und D Matrizen und k eine relle Zahl. Falls die benötigten Matrizen-Summen und Matrizen-Produkte definiert sind, gilt für das Kroneckerprodukt: .1) k(A ⊗ B) = (kA) ⊗ B = A ⊗ (kB) .2) A ⊗ (B ⊗ C) = (A ⊗ B) ⊗ C =: A ⊗ B ⊗ C .3) A ⊗ (B + C) = (A ⊗ B) + (A ⊗ C) .4) (A ⊗ B)(C ⊗ D) = (AC) ⊗ (BD) .5) (A ⊗ B)0 = A0 ⊗ B 0 c V. Steinmetz: Schließende Statistik –66– A2.9 Definition: Es sei A = [A·1 , . . . , A·n ] eine (m × n)-Matrix. Man bezeichnet den (m · n × 1)-Vektor aus den untereinander angeordneten Spalten von A mit A·1 vec(A) := ... A·n A2.10 Satz: Es seien A und B Matrizen und k eine relle Zahl. Sind die benötigten MatrizenSummen und Matrizen-Produkte definiert, so gilt für den vec-Operator .1) vec(kA) = kvec(A) .2) vec(A + B) = vec(A) + vec(B) .3) vec(AB) = (I ⊗ A)vec(B) c V. Steinmetz: Schließende Statistik –67– A3 Lineare Unabhängigkeit A3.1 Definition: Es seien a, a1 , . . . , an ∈ Rm . a heißt Linearkombination von a1 , . . . , an genau dann, wenn gilt (∃α1 , . . . , αn ∈ R) (a = α1 a1 + . . . + αn an ). a1 , . . . , an heißen linear unabhängig genau dann, wenn gilt (∀α1 , . . . , αn ∈ R) (0 = α1 a1 + . . . + αn an =⇒ α1 = . . . = αn = 0), andernfalls heißen sie linear abhängig. A3.2 Satz: Es seien a1 , . . . , an ∈ Rm . Für n ≥ m + 1 sind die Vektoren stets linear abhängig. Sind a1 , . . . , am ∈ Rm linear unabhängig, läßt sich jeder Vektor a ∈ Rm als Linearkombination der ai darstellen. A3.3 Definition: Eine Menge von m linear unabhängigen Vektoren des Rm heißt Basis des Rm . Jede Menge von Vektoren des Rm , die m linear unabhängige Vektoren enthält, heißt ein Erzeugendensystem. c V. Steinmetz: Schließende Statistik –68– A4 Rang einer Matrix A4.1 Definition: Sei A = (aij )m×n . Die Maximalzahl linear unabhängiger Spaltenvektoren von A heißt Rang der Matrix A. Bezeichnung: rg A. A4.2 Definition: Sei A eine n × n-Matrix. A heißt regulär genau dann, wenn rg A = n gilt. A4.3 Satz: .1) .3) .5) .7) rg A = rg A0 rg AB ≤ min(rg A, rg B) rg O = 0 A regulär =⇒ rg AB = rg B c V. Steinmetz: Schließende Statistik .2) rg A ≤ min(m, n) .4) rg A0 A = rg A .6) rg I(n×n) = n –69– A5 Determinante einer Matrix A5.1 Definition: Es sei A eine (n×n)-Matrix und Aij mit i, j ∈ {1, . . . , n} sei die (n−1)×(n−1)Matrix, die aus A durch Streichen der i-ten Zeile und j-ten Spalte entsteht. Als Determinante der Matrix A bezeichnet man die reelle Zahl det A mit det A = a11 für n = 1 n X (−1)i+j aij det Aij det A = für n ≥ 2 und festes i ∈ {1, . . . , n}. j=1 A5.2 Satz: Seien A, B (n × n)-Matrizen und α ∈ R. Dann gilt .1) det(A0 ) = det A .2) det(αAn×n ) = αn det A .3) vertauscht man zwei Zeilen (bzw. Spalten) von A, so ändert sich das Vorzeichen der Determinante, nicht aber der Betrag. .4) d11 · · · d1n .. = det .. det . . 0 dnn .5) det A 6= 0 ⇐⇒ A regulär .6) det(AB) = det A · det B c V. Steinmetz: Schließende Statistik d11 .. . dn1 0 n .. = Y d .. . ii . i=1 · · · dnn –70– A6 Inverse einer Matrix A6.1 Definition: Eine (n × n)-Matrix A heißt invertierbar, wenn es eine (n × n)-Matrix A−1 gibt mit A · A−1 = I. A−1 heißt Inverse zu A. A6.2 Satz: Sei A−1 Inverse zu A. Dann gilt auch A−1 A = I und A−1 ist eindeutig bestimmt. A6.3 Satz: Sei A reguläre (n × n)-Matrix. Dann ist die (n × n)-Matrix B mit bij = (−1)i+j det Aji det A Inverse zu A. A6.4 Satz: Sei A eine (n × n)-Matrix. Dann gilt: A invertierbar ⇐⇒ A regulär. A6.5 Satz: Für Matrizen A, B und α ∈ R \ {0} gilt, falls die Zeilen- und Spaltenzahlen die Verknüpfungen erlauben und die Inversen jeweils existieren: .1) (AB)−1 = B −1 A−1 .3) (A−1 )0 = (A0 )−1 .5) (αA)−1 = α1 A−1 .6) d1 0 .. D= . 0 dn .7) det(A−1 ) = (det A)−1 . c V. Steinmetz: Schließende Statistik .2) .4) .6) (A−1 )−1 = A I −1 = I A symmetrisch ⇐⇒ A−1 symmetrisch =⇒ 1 d1 D−1 = 0 0 ... 1 dn –71– A7 Unterteilte Matrizen A7.1 Vereinbarung: Es seien a11 .. . a A = r1 ar+1,1 . .. am1 ··· a1p .. . a1,p+1 .. . ··· arp ar,p+1 · · · ar+1,p ar+1,p+1 .. .. . . · · · amp am,p+1 ··· a1,n .. . ··· arn eine (m × n)-Matrix · · · ar+1,n .. . · · · amn A11 a11 · · · a1p .. (r × p)-Matrix = ... . ar1 · · · arp A12 a1,p+1 · · · a1n .. (r × (n − p))-Matrix = ... . ar,p+1 · · · arn A21 ar+1,1 · · · ar+1,p .. ((m − r) × p)-Matrix = ... . am1 · · · amp A22 ar+1,p+1 · · · ar+1,n .. .. ((m − r) × (n − p))-Matrix = . . am,p+1 · · · amn Dann läßt sich A bei Verzicht auf innere Klammern folgendermaßen schreiben: A= A11 A12 A21 A22 Die Matrizen A11 , A12 , A21 , A22 bezeichnet man als Teil- oder Blockmatrizen. c V. Steinmetz: Schließende Statistik –72– A7.2 Satz: A11 A12 B11 B12 Seien A = eine (m × n)-Matrix und B = eine A21 A22 B21 B22 (n × q)-Matrix sowie A11 eine (r × p)-, A12 eine (r × (n − p))-, A21 eine ((m − r) × p)-, A22 eine (m − r) × (n − p)-Matrix, B11 eine (p × s)-, B12 eine (p × (q − s))-, B21 eine ((n − p) × s)-, B22 eine (n − p) × (q − s)-Matrix. Dann gilt: .1) 0 A = A011 A021 A012 A022 .2) " AB = A11 B11 + A12 B21 A11 B12 + A12 B22 # A21 B11 + A22 B21 A21 B12 + A22 B22 .3) Sind A, A11 quadratisch und sind A und A22 invertierbar, dann gilt mit −1 A21 H := A11 − A12 A22 H −1 −H −1 A12 A−1 22 A−1 = −1 −1 −1 −1 −1 −1 −A22 A21 H A22 + A22 A21 H A12 A22 c V. Steinmetz: Schließende Statistik –73– A8 Spur einer Matrix A8.1 Definition: Es sei A ein (n × n)-Matrix. Dann heißt tr(A) := sp(A) := n X aii die Spur (trace) von A. i=1 A8.2 Satz: Bei geeigneten Dimensionen der Matrizen A, B, C und Vektoren a, b gilt: .1) tr(αA + βB) = α tr(A) + β tr(B) mit α, β ∈ R .2) tr(A) = tr(A0 ) .3) tr(AB) = tr(BA), insbesondere tr(a b0 ) = tr(b0 a) = b0 a .4) tr(ABC) = tr(CAB) = tr(BCA) c V. Steinmetz: Schließende Statistik –74– A9 Orthogonale Matrizen, idempotente Matrizen A9.1 Definition: Eine (n × n)-Matrix heißt orthogonal, wenn gilt A0 A = I. A9.2 Satz: Es sei A eine orthogonale (n × n)-Matrix. Dann gilt .1) rg A = n .3) A0 A = AA0 = I .2) A0 = A−1 .4) det A = ±1 A9.3 Satz: Es sei A eine (n × n)-Matrix mit AA = A. Dann gilt rg A = tr A. A9.4 Definition: Eine (n × n)-Matrix A heißt idempotent, wenn gilt A = A0 und AA = A. A9.5 Satz: Es sei A eine idempotente Matrix mit rg A = r. Dann gibt es eine orthogonale Matrix C mit Ir 0 0 C AC = 0 0 c V. Steinmetz: Schließende Statistik –75– A10 Def inite Matrizen, quadratische Formen A10.1 Definition: Es seien A eine (n × n)-Matrix und x ∈ Rn ein (n × 1)-Vektor. Dann heißt die Abbildung q : Rn → R mit q(x) = x0 Ax quadratische Form. A10.2 Definition: Sei A eine symmetrische (n × n)-Matrix. Dann heißt A (und auch die zugehörige quadratische Form) positiv definit, wenn gilt (∀x ∈ Rn \ {0}) (x0 Ax) > 0) und positiv semidefinit, wenn gilt (∀x ∈ Rn \ {0}) (x0 Ax) ≥ 0) (entsprechend definiert man negativ (semi-)definit). A10.3 Satz: .1) A positiv definit =⇒ A regulär und A−1 positiv definit. .2) Ist A eine positiv definite (n × n)-Matrix und B eine (m × n)-Matrix, so gilt: BAB 0 positiv definit ⇐⇒ rg B = m. .3) Eine symmetrische Matrix A ist genau dann positiv definit, wenn es eine reguläre Matrix B gibt mit A = BB 0 . (Man kann B als obere Dreiecksmatrix wählen.) .4) Eine symmetrische Matrix A ist genau dann positiv semidefinit, wenn es eine quadratische Matrix B gibt mit A = B 0 B. .5) Sei A positiv semidefinit. Dann gilt: A positiv definit ⇐⇒ A regulär. .6) Die symmetrische (n × n)-Matrix A = (aij ) ist wenn gilt a11 a12 a11 a12 > 0, det a21 a22 a11 > 0, det a21 a22 a31 a32 c V. Steinmetz: Schließende Statistik genau dann positiv definit, a13 a23 > 0, . . . , det A > 0. a33 –76– A11 Vektordif ferentiation A11.1 Definition: Es seien f : Rn → R eine partiell differenzierbare Funktion und x0 = (x1 , . . . , xn ) ∈ Rn . Dann heißt ∂f ∂x1 . ∂f .. = der Gradient von f . ∂x ∂f ∂xn Vereinbarung: 0 ∂f ∂f = ,..., ∂x1 ∂xn ∂f ◦ Der Gradient an einer Stelle x ∈ Rn wird mit bezeichnet. ∂x x◦ ∂f := ∂x0 ∂f ∂x A11.2 Satz: Es seien f : Rn → R und g : Rn → R partiell differenzierbare Funktionen und α, β ∈ R. Dann gilt: .1) ∂(αf + βg) ∂f ∂g =α +β ∂x ∂x ∂x .2) ∂(f · g) ∂f ∂g = g+ f ∂x ∂x ∂x .3) Es sei h : Rn → R die Abbildung mit h(x) = α für festes α ∈ R und für alle x ∈ Rn . ∂h Dann ist h partiell differenzierbar und es gilt: =0 ∂x A11.3 Folgerung: Es seien g : Rn → R eine Funktion, a ∈ Rn ein Vektor und A ∈ Rn·n eine Matrix. Dann gilt: ∂g = ei ∂x .1) (∀x ∈ Rn )(g(x) = xi ) =⇒ .2) (∀x ∈ Rn )(g(x) = a0 x) =⇒ c V. Steinmetz: Schließende Statistik ∂g =a ∂x (i = 1, . . . , n) –77– .3) ∂g ◦ ◦ (∀x ∈ R )(g(x) = x Ax) =⇒ = (A + A0 )x, für x ∈ Rn und ∂x x◦ ∂g ◦ A symmetrisch =⇒ = 2Ax. ∂x ◦ n 0 x c V. Steinmetz: Schließende Statistik –78– B Tabellen B1 Tabelle zur Standardnormalverteilung Φ(z) z 0 Die Tabelle enthält zu vorgegebenem z den Inhalt der in der Skizze schraffierten Fläche Φ(z). z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.0 0.1 0.2 0.3 0.4 0.5000 0.5398 0.5793 0.6179 0.6554 0.5040 0.5438 0.5832 0.6217 0.6591 0.5080 0.5478 0.5871 0.6255 0.6628 0.5120 0.5517 0.5910 0.6293 0.6664 0.5160 0.5557 0.5948 0.6331 0.6700 0.5199 0.5596 0.5987 0.6368 0.6736 0.5239 0.5636 0.6026 0.6406 0.6772 0.5279 0.5675 0.6064 0.6443 0.6808 0.5319 0.5714 0.6103 0.6480 0.6844 0.5359 0.5753 0.6141 0.6517 0.6879 0.5 0.6 0.7 0.8 0.9 0.6915 0.7257 0.7580 0.7881 0.8159 0.6950 0.7291 0.7611 0.7910 0.8186 0.6985 0.7324 0.7642 0.7939 0.8212 0.7019 0.7357 0.7673 0.7967 0.8238 0.7054 0.7389 0.7704 0.7995 0.8264 0.7088 0.7422 0.7734 0.8023 0.8289 0.7123 0.7454 0.7764 0.8051 0.8315 0.7157 0.7486 0.7794 0.8078 0.8340 0.7190 0.7517 0.7823 0.8106 0.8365 0.7224 0.7549 0.7852 0.8133 0.8389 1.0 1.1 1.2 1.3 1.4 0.8413 0.8643 0.8849 0.9032 0.9192 0.8438 0.8665 0.8869 0.9049 0.9207 0.8461 0.8686 0.8888 0.9066 0.9222 0.8485 0.8708 0.8907 0.9082 0.9236 0.8508 0.8729 0.8925 0.9099 0.9251 0.8531 0.8749 0.8944 0.9115 0.9265 0.8554 0.8770 0.8962 0.9131 0.9279 0.8577 0.8790 0.8980 0.9147 0.9292 0.8599 0.8810 0.8997 0.9162 0.9306 0.8621 0.8830 0.9015 0.9177 0.9319 1.5 1.6 1.7 1.8 1.9 0.9332 0.9452 0.9554 0.9641 0.9713 0.9345 0.9463 0.9564 0.9649 0.9719 0.9357 0.9474 0.9573 0.9656 0.9726 0.9370 0.9484 0.9582 0.9664 0.9732 0.9382 0.9495 0.9591 0.9671 0.9738 0.9394 0.9505 0.9599 0.9678 0.9744 0.9406 0.9515 0.9608 0.9686 0.9750 0.9418 0.9525 0.9616 0.9693 0.9756 0.9429 0.9535 0.9625 0.9699 0.9761 0.9441 0.9545 0.9633 0.9706 0.9767 c V. Steinmetz: Schließende Statistik –79– Φ(z) z 0 Die Tabelle enthält zu vorgegebenem z den Inhalt der in der Skizze schraffierten Fläche Φ(z). z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 2.0 2.1 2.2 2.3 2.4 0.9772 0.9821 0.9861 0.9893 0.9918 0.9778 0.9826 0.9864 0.9896 0.9920 0.9783 0.9830 0.9868 0.9898 0.9922 0.9788 0.9834 0.9871 0.9901 0.9925 0.9793 0.9838 0.9875 0.9904 0.9927 0.9798 0.9842 0.9878 0.9906 0.9929 0.9803 0.9846 0.9881 0.9909 0.9931 0.9808 0.9850 0.9884 0.9911 0.9932 0.9812 0.9854 0.9887 0.9913 0.9934 0.9817 0.9857 0.9890 0.9916 0.9936 2.5 2.6 2.7 2.8 2.9 0.9938 0.9953 0.9965 0.9974 0.9981 0.9940 0.9955 0.9966 0.9975 0.9982 0.9941 0.9956 0.9967 0.9976 0.9982 0.9943 0.9957 0.9968 0.9977 0.9983 0.9945 0.9959 0.9969 0.9977 0.9984 0.9946 0.9960 0.9970 0.9978 0.9984 0.9948 0.9961 0.9971 0.9979 0.9985 0.9949 0.9962 0.9972 0.9979 0.9985 0.9951 0.9963 0.9973 0.998 0.9986 0.9952 0.9964 0.9974 0.9981 0.9986 3.0 3.1 3.2 3.3 3.4 0.9987 0.9990 0.9993 0.9995 0.9997 0.9987 0.9991 0.9993 0.9995 0.9997 0.9987 0.9991 0.9994 0.9995 0.9997 0.9988 0.9991 0.9994 0.9996 0.9997 0.9988 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9995 0.9996 0.9997 0.9990 0.9993 0.9995 0.9996 0.9997 0.9990 0.9993 0.9995 0.9997 0.9998 Quantile λp = Φ−1 (p) der Standardnormalverteilung p 0.9 0.95 0.975 0.99 0.995 0.999 λp 1.28 1.645 1.96 2.33 3.09 c V. Steinmetz: Schließende Statistik 2.58 –80– B2 Quantile der t-Verteilungen α 1−α 0 tα,k Die Tabelle gibt tα,k an in Abhängigkeit von α und der Zahl k der Freiheitsgrade. α 0.85 0.90 0.95 0.975 0.99 0.995 0.9995 1 2 3 4 5 1.963 1.386 1.250 1.190 1.156 3.078 1.886 1.638 1.533 1.476 6.314 2.920 2.353 2.132 2.015 12.706 4.303 3.182 2.776 2.571 31.821 6.965 4.541 3.747 3.365 63.657 9.925 5.841 4.604 4.032 636.619 31.599 12.924 8.610 6.869 6 7 8 9 10 1.134 1.119 1.108 1.100 1.093 1.440 1.415 1.397 1.383 1.372 1.943 1.895 1.860 1.833 1.812 2.447 2.365 2.306 2.262 2.228 3.143 2.998 2.896 2.821 2.764 3.707 3.499 3.355 3.250 3.169 5.959 5.408 5.041 4.781 4.587 11 12 13 14 15 1.088 1.083 1.079 1.076 1.074 1.363 1.356 1.350 1.345 1.341 1.796 1.782 1.771 1.761 1.753 2.201 2.179 2.160 2.145 2.131 2.718 2.681 2.650 2.624 2.602 3.106 3.055 3.012 2.977 2.947 4.437 4.318 4.221 4.140 4.073 16 17 18 19 20 1.071 1.069 1.067 1.066 1.064 1.337 1.333 1.330 1.328 1.325 1.746 1.740 1.734 1.729 1.725 2.120 2.110 2.101 2.093 2.086 2.583 2.567 2.552 2.539 2.528 2.921 2.898 2.878 2.861 2.845 4.015 3.965 3.922 3.883 3.850 21 22 23 24 25 1.063 1.061 1.060 1.059 1.058 1.323 1.321 1.319 1.318 1.316 1.721 1.717 1.714 1.711 1.708 2.080 2.074 2.069 2.064 2.060 2.518 2.508 2.500 2.492 2.485 2.831 2.819 2.807 2.797 2.787 3.819 3.792 3.768 3.745 3.725 26 27 28 29 30 1.058 1.057 1.056 1.055 1.055 1.315 1.314 1.313 1.311 1.310 1.706 1.703 1.701 1.699 1.697 2.056 2.052 2.048 2.045 2.042 2.479 2.473 2.467 2.462 2.457 2.779 2.771 2.763 2.756 2.750 3.707 3.690 3.674 3.659 3.646 1.050 1.303 1.045 1.296 1.041 1.289 1.684 1.671 1.658 2.021 2.000 1.980 2.423 2.390 2.358 2.704 2.660 2.617 3.551 3.460 3.373 n 40 60 120 –81– B3 Quantile der χ2 -Verteilungen α 1−α χ2α,k 0 Die Tabelle gibt χ2α,k an in Abhängigkeit von α und der Zahl k der Freiheitsgrade. α 0.01 0.025 0.05 0.5 0.90 0.95 0.975 0.99 1 2 3 4 5 0.000 0.020 0.115 0.297 0.554 0.001 0.050 0.216 0.484 0.831 0.004 0.103 0.352 0.711 1.146 0.455 1.386 2.366 3.357 4.352 2.706 4.605 6.251 7.779 9.236 3.842 5.992 7.815 9.488 11.070 5.024 7.378 9.348 11.143 12.833 6.635 9.210 11.345 13.277 15.086 6 7 8 9 10 0.872 1.239 1.647 2.088 2.558 1.237 1.690 2.180 2.700 3.247 1.635 2.167 2.733 3.325 3.940 5.348 6.346 7.344 8.343 9.342 10.645 12.017 13.362 14.684 15.987 12.592 14.067 15.507 16.919 18.307 14.449 16.013 17.535 19.023 20.483 16.812 18.475 20.090 21.666 23.209 11 12 13 14 15 3.054 3.571 4.107 4.660 5.229 3.816 4.404 5.009 5.629 6.262 4.575 5.226 5.892 6.571 7.261 10.341 11.340 12.340 13.339 14.339 17.275 18.549 19.812 21.064 22.307 19.675 21.026 22.362 23.685 24.996 21.920 23.337 24.736 26.119 27.488 24.725 26.217 27.688 29.141 30.578 16 17 18 19 20 5.812 6.408 7.015 7.633 8.260 6.908 7.962 15.338 7.564 8.672 16.338 8.231 9.391 17.338 8.907 10.117 18.338 9.591 10.851 19.337 23.542 24.769 25.989 27.204 28.412 26.296 27.587 28.869 30.144 31.410 28.845 30.191 31.526 32.852 34.170 32.000 33.409 34.805 36.191 37.566 21 22 23 24 25 8.897 9.543 10.196 10.856 11.524 10.283 10.982 11.689 12.401 13.120 11.591 12.338 13.091 13.848 14.611 20.337 21.337 22.337 23.337 24.337 29.615 32.671 35.479 38.932 30.813 33.924 36.781 40.289 32.007 35.172 38.076 41.638 33.196 36.415 39.364 42.980 34.382 37.652 40.646 44.314 26 27 28 29 30 12.198 12.879 13.565 14.256 14.953 13.844 14.573 15.308 16.047 16.791 15.379 16.151 16.928 17.708 18.493 25.336 26.336 27.336 28.336 29.336 35.563 36.741 37.916 39.087 40.256 n c V. Steinmetz: Schließende Statistik 38.885 40.113 41.337 42.557 43.773 41.923 43.195 44.461 45.722 46.979 45.642 46.963 48.278 49.588 50.892 –82– B4 Quantile der F -Verteilungen 0.95 0.05 0 F0.95;m,n Die Tabelle gibt F0.95;m,n an in Abhängigkeit von der Zahl m der Freiheitsgrade des Zählers und der Zahl n der Freiheitsgrade des Nenners. m n 1 2 3 4 5 1 2 3 4 5 6 7 8 9 10 161.45 199.50 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.39 19.40 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.96 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74 6 7 8 9 10 5.99 5.59 5.32 5.12 4.96 5.14 4.74 4.46 4.26 4.10 4.76 4.35 4.07 3.86 3.71 4.53 4.12 3.84 3.63 3.48 4.39 3.97 3.69 3.48 3.33 4.28 3.87 3.58 3.37 3.22 4.21 3.79 3.50 3.29 3.14 4.15 3.73 3.44 3.23 3.07 4.10 3.68 3.39 3.18 3.02 4.06 3.64 3.35 3.14 2.98 11 12 13 14 15 4.84 4.75 4.67 4.60 4.54 3.98 3.89 3.81 3.74 3.68 3.59 3.49 3.41 3.34 3.29 3.36 3.26 3.18 3.11 3.06 3.20 3.11 3.03 2.96 2.90 3.09 3.00 2.92 2.85 2.79 3.01 2.91 2.83 2.76 2.71 2.95 2.85 2.77 2.70 2.64 2.90 2.80 2.71 2.65 2.59 2.85 2.75 2.67 2.60 2.54 16 17 18 19 20 4.49 4.45 4.41 4.38 4.35 3.63 3.59 3.55 3.52 3.49 3.24 3.20 3.16 3.13 3.10 3.01 2.96 2.93 2.90 2.87 2.85 2.81 2.77 2.74 2.71 2.74 2.70 2.66 2.63 2.60 2.66 2.61 2.58 2.54 2.51 2.59 2.55 2.51 2.48 2.45 2.54 2.49 2.46 2.42 2.39 2.49 2.45 2.41 2.38 2.35 21 22 23 24 25 4.32 4.30 4.28 4.26 4.24 3.47 3.44 3.42 3.40 3.39 3.07 3.05 3.03 3.01 2.99 2.84 2.82 2.80 2.78 2.76 2.68 2.66 2.64 2.62 2.60 2.57 2.55 2.53 2.51 2.49 2.49 2.46 2.44 2.42 2.40 2.42 2.40 2.37 2.36 2.34 2.37 2.34 2.32 2.30 2.28 2.32 2.30 2.27 2.25 2.24 30 40 60 120 ∞ 4.17 4.08 4.00 3.92 3.84 3.32 3.23 3.15 3.07 3.00 2.92 2.84 2.76 2.68 2.60 2.69 2.61 2.53 2.45 2.37 2.53 2.45 2.37 2.29 2.21 2.42 2.34 2.25 2.18 2.10 2.33 2.25 2.17 2.09 2.01 2.27 2.18 2.10 2.02 1.94 2.21 2.12 2.04 1.96 1.88 2.16 2.08 1.99 1.91 1.83 –83– 0.95 0.05 0 F0.95;m,n Die Tabelle gibt F0.95;m,n an in Abhängigkeit von der Zahl m der Freiheitsgrade des Zählers und der Zahl n der Freiheitsgrade des Nenners. m n 1 2 3 4 5 12 15 20 25 30 35 40 60 120 ∞ 244.90 245.95 248.01 249.26 250.1 250.69 251.14 252.2 253.25 254.31 19.41 19.43 19.45 19.46 19.46 19.47 19.47 19.48 19.49 19.50 8.74 8.70 8.66 8.63 8.62 8.60 8.59 8.57 8.55 8.53 5.91 5.86 5.80 5.77 5.75 5.73 5.72 5.69 5.66 5.63 4.68 4.62 4.56 4.52 4.50 4.48 4.46 4.43 4.40 4.37 6 7 8 9 10 4.00 3.57 3.28 3.07 2.91 3.94 3.51 3.22 3.01 2.85 3.87 3.44 3.15 2.94 2.77 3.83 3.40 3.11 2.89 2.73 3.81 3.38 3.08 2.86 2.70 3.79 3.36 3.06 2.84 2.68 3.77 3.34 3.04 2.83 2.66 3.74 3.30 3.01 2.79 2.62 3.70 3.27 2.97 2.75 2.58 3.67 3.23 2.93 2.71 2.54 11 12 13 14 15 2.79 2.69 2.60 2.53 2.48 2.72 2.62 2.53 2.46 2.40 2.65 2.54 2.46 2.39 2.33 2.60 2.50 2.41 2.34 2.28 2.57 2.47 2.38 2.31 2.25 2.55 2.44 2.36 2.28 2.22 2.53 2.43 2.34 2.27 2.20 2.49 2.38 2.30 2.22 2.16 2.45 2.34 2.25 2.18 2.11 2.40 2.30 2.21 2.13 2.07 16 17 18 19 20 2.42 2.38 2.34 2.31 2.28 2.35 2.31 2.27 2.23 2.20 2.28 2.23 2.19 2.16 2.12 2.23 2.18 2.14 2.11 2.07 2.19 2.15 2.11 2.07 2.04 2.17 2.12 2.08 2.05 2.01 2.15 2.10 2.06 2.03 1.99 2.11 2.06 2.02 1.98 1.95 2.06 2.01 1.97 1.93 1.90 2.01 1.96 1.92 1.88 1.84 21 22 23 24 25 2.25 2.23 2.20 2.18 2.16 2.18 2.15 2.13 2.11 2.09 2.11 2.07 2.05 2.03 2.01 2.05 2.02 2.00 1.97 1.96 2.01 1.98 1.96 1.94 1.92 1.98 1.96 1.93 1.91 1.89 1.96 1.94 1.91 1.89 1.87 1.92 1.89 1.86 1.84 1.82 1.87 1.84 1.81 1.79 1.77 1.81 1.78 1.76 1.73 1.71 30 40 60 120 ∞ 2.09 2.00 1.92 1.83 1.75 2.01 1.92 1.53 1.43 1.67 1.93 1.84 1.50 1.39 1.57 1.88 1.78 1.48 1.37 1.51 1.84 1.74 1.47 1.35 1.46 1.81 1.72 1.46 1.34 1.42 1.79 1.69 1.45 1.33 1.39 1.74 1.64 1.53 1.43 1.32 1.68 1.58 1.47 1.35 1.22 1.62 1.51 1.39 1.25 1.00 –84– Index A-priori-Verteilung . . . . . . . . . . . . . 16 Aktion gleichmäßig beste . . . . . . . . . . . 15 Aktionsraum . . . . . . . . . . . . . . . . . . . 15 Algebra, σ-Algebra . . . . . . . . . . . . . . 1 Annahmebereich . . . . . . . . . . . . . . . 30 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . Bayes-Regel . . . . . . . . . . . . . . . . . . . . Bias . . . . . . . . . . . . . . . . . . . . . . . . . . . Bindungen . . . . . . . . . . . . . . . . . . . . . 67 16 22 60 Chi-Quadrat-verteilt mit n Freiheitsgraden . . . . . . . 39 Dichte(funktion) . . . . . . . . . . . . . . . . 4 gemeinsame . . . . . . . . . . . . . . . . . . 4 dominant . . . . . . . . . . . . . . . . . . . . . . 15 strikt . . . . . . . . . . . . . . . . . . . . . . . 15 Entscheidungsfunktion . . . . . . . . . 18 Bayes . . . . . . . . . . . . . . . . . . . . . . . 19 gleichmäßig beste . . . . . . . . . . . 19 Minimax . . . . . . . . . . . . . . . . . . . . 19 Entscheidungsmodell . . . . . . . 15, 19 Entscheidungsregel . . . . . . . . . . . . . 15 Ereignisraum . . . . . . . . . . . . . . . . . . . . 1 Ergebnisraum . . . . . . . . . . . . . . . . . . . 1 Erwartungswertvektor . . . . . . . . . . . 5 Erzeugendensystem . . . . . . . . . . . . 67 F-verteilt . . . . . . . . . . . . . . . . . . . . . . Fehler 1.Art . . . . . . . . . . . . . . . . . . . . . . . . 2.Art . . . . . . . . . . . . . . . . . . . . . . . . Fehlerwahrscheinlichkeit 1.Art . . . . . . . . . . . . . . . . . . . . . . . . 2.Art . . . . . . . . . . . . . . . . . . . . . . . . Fragestellung einseitige . . . . . . . . . . . . . . . . . . . . zweiseitige . . . . . . . . . . . . . . . . . . 52 31 31 31 31 36 36 gaußverteilt . . . . . . . . . . . . . . . . . . . . . 6 Gegenhypothese . . . . . . . . . . . . . . . . 30 c V. Steinmetz: Schließende Statistik Gesetz schwaches, der großen Zahlen . . . . . . 13 Grenzwertsatz von de Moivre und Laplace . . 13 zentraler . . . . . . . . . . . . . . . . . . . . 14 Grundannahme der Statistik dritte . . . . . . . . . . . . . . . . . . . . . . . 18 erste . . . . . . . . . . . . . . . . . . . . . . . . 17 zweite . . . . . . . . . . . . . . . . . . . . . . . 17 Grundgesamtheit . . . . . . . . . . . . . . . . 1 Gütefunktion . . . . . . . . . . . . . . . . . . 32 Hurwitz-Regel . . . . . . . . . . . . . . . . . 16 Hypothese einfache . . . . . . . . . . . . . . . . . . . . . 30 zusammengesetzte . . . . . . . . . . . 30 identifizierbar . . . . . . . . . . . . . . . . . . 17 Indikatorfunktion . . . . . . . . . . . . . . 58 Komponente . . . . . . . . . . . . . . . . . . . . 2 1 − α-Konfidenzbereich . . . . . . . . 47 Konfidenzbereichsschätzung . . . . 47 Konfidenzschätzung . . . . . . . . . . . . 47 konvergent . . . . . . . . . . . . . . . . . . . . . 10 P-fast-sicher . . . . . . . . . . . . . . . . . 10 der Verteilung nach . . . . . . . . . 11 im r-ten Mittel . . . . . . . . . . . . . . 10 stochastisch . . . . . . . . . . . . . . . . . 11 kritischer Bereich . . . . . . . . . . . . . . 30 Kroneckerprodukt . . . . . . . . . . . . . . 65 Likelihood-Funktion . . . . . . . . 27, linear abhängig . . . . . . . . . . . . . . . . linear unabhängig . . . . . . . . . . . . . . Linearkombination . . . . . . . . . . . . . 28 67 67 67 Markovsche Ungleichung . . . . . . . Matrix . . . . . . . . . . . . . . . . . . . . . . . . . Inverse einer . . . . . . . . . . . . . . . . Block- . . . . . . . . . . . . . . . . . . . . . . Determinante einer . . . . . . . . . . Diagonalmatrix . . . . . . . . . . . . . 11 61 70 71 69 62 –85– Einheitsmatrix . . . . . . . . . . . . . . Einsmatrix . . . . . . . . . . . . . . . . . . Hauptdiagonale einer . . . . . . . . idempotente . . . . . . . . . . . . . . . . . negativ definite . . . . . . . . . . . . . negativ semidefinite . . . . . . . . . Nullmatrix . . . . . . . . . . . . . . . . . . obere Dreiecksmatrix . . . . . . . . orthogonale . . . . . . . . . . . . . . . . . positiv definite . . . . . . . . . . . . . . positiv semidefinite . . . . . . . . . quadratische . . . . . . . . . . . . . . . . Rang einer . . . . . . . . . . . . . . . . . . reguläre . . . . . . . . . . . . . . . . . . . . . Spur einer . . . . . . . . . . . . . . . . . . . symmetrische . . . . . . . . . . . . . . . Teil- . . . . . . . . . . . . . . . . . . . . . . . . transponierte . . . . . . . . . . . . . . . . untere Dreiecksmatrix . . . . . . . Maximum-Likelihood Gleichungen . . . . . . . . . . . . . . . . . Schätzfunktion . . . . . . . . . . . . . . Schätzwert . . . . . . . . . . . . . . . . . . Minimax-Regel . . . . . . . . . . . . . . . . . Minimax-Regret-Regel . . . . . . . . . Minimin-Regel . . . . . . . . . . . . . . . . . mittlerer quadratischen Fehler . . Momentenmethode . . . . . . . . . . . . . 62 62 61 74 75 75 62 62 74 75 75 61 68 68 73 61 71 61 62 28 27 27 16 16 16 22 29 normalverteilt N (0, I) . . . . . . . . . . . . . . . . . . . . . . . 6 N (µ, Σ) . . . . . . . . . . . . . . . . . . . . . . 8 Nullhypothese . . . . . . . . . . . . . . . . . . 30 Operationscharakteristik . . . . . . . 32 p-Wert . . . . . . . . . . . . . . . . . . . . . . . . . 38 Parameterbereichsschätzung . . . . 47 Parameterpunktschätzfunktion . 20 Parameterraum . . . . . . . . . . . . . . . . 17 Parametrisierung . . . . . . . . . . . . . . . 17 Präentscheidungsmodell . . . . . . . . 15 Projektion . . . . . . . . . . . . . . . . . . . . . . 2 Punktmasse . . . . . . . . . . . . . . . . . . . . . 3 Punktwahrscheinlichkeit . . . . . . . . . 3 quadratische Form . . . . . . . . . . . . . 75 c V. Steinmetz: Schließende Statistik Randdichte(funktion) . . . . . . . . . . . 5 Randomisierung . . . . . . . . . . . . . . . . 45 Randverteilung . . . . . . . . . . . . . . . . . . 3 Randverteilungsfunktion . . . . . . . . 3 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 Rangstatistik . . . . . . . . . . . . . . . . . . 58 Rao-Cramér-Ungleichung . . . . . . . 24 Realisation . . . . . . . . . . . . . . . . . . . . . 18 Risikofunktion . . . . . . . . . . . . . . . . . 19 Satz von Glivenko-Cantelli . . . . . . . von Neyman . . . . . . . . . . . . . . . . Savage-Niehans-Regel . . . . . . . . . . Schadensfunktion . . . . . . . . . . . . . . Schärfe . . . . . . . . . . . . . . . . . . . . . . . . . Schätzfunktion asymptotisch erwartungstreue . . . . . . . . effiziente . . . . . . . . . . . . . . . . . . . . erschöpfende . . . . . . . . . . . . . . . . erwartungstreue . . . . . . . . . . . . . hinreichende . . . . . . . . . . . . . . . . konsistent bzgl. des mittleren quadratischen Fehlers . . konsistente . . . . . . . . . . . . . . . . . . reguläre . . . . . . . . . . . . . . . . . . . . . suffiziente . . . . . . . . . . . . . . . . . . . unverzerrte . . . . . . . . . . . . . . . . . . wirksamste . . . . . . . . . . . . . . . . . . Schwellenwert . . . . . . . . . . . . . . . . . . Statistik . . . . . . . . . . . . . . . . . . . . . . . Stetigkeitskorrektur . . . . . . . . . . . . Stichprobe . . . . . . . . . . . . . . . . . . . . . einfache . . . . . . . . . . . . . . . . . . . . . Stichprobenfunktion . . . . . . . . . . . . Stichprobenkorrelationskoeffizient . . . . . . . . . . . . . . Stichprobenkovarianz . . . . . . . . . . . Stichprobenmittelwert . . . . . . . . . . Stichprobenmoment . . . . . . . . . . . . zentrales . . . . . . . . . . . . . . . . . . . . Stichprobenraum . . . . . . . . . . . . 1, Stichprobenrealisation . . . . . . . . . . Stichprobenstreuung . . . . . . . . . . . 14 26 16 15 32 23 23 26 22 26 25 25 23 26 22 23 36 26 44 18 18 26 21 21 20 20 20 18 18 20 –86– korrigierte . . . . . . . . . . . . . . . . . . . 20 t-verteilt mit n Freiheitsgraden . 39 Test . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 Alternativtest . . . . . . . . . . . . . . . 30 Annahmebereich eines . . . . . . . 30 einseitiger . . . . . . . . . . . . . . . . . . . 36 gleichmäßig bester . . . . . . . . . . . 33 kritischer Bereich eines . . . . . . 30 Parametertest . . . . . . . . . . . . . . . 30 unverfälschter . . . . . . . . . . . . . . . 33 unverzerrter . . . . . . . . . . . . . . . . . 33 zum Niveau α . . . . . . . . . . . . . . . 31 zweiseitiger . . . . . . . . . . . . . . . . . . 36 Trägerpunkt . . . . . . . . . . . . . . . . . . . . 3 Tschebyschev’sche Ungleichung . . . . . . . . . . . . 11 Unabhängigkeit stochastische . . . . . . . . . . . . . . . . . 5 Varianz-Kovarianzmatrix . . . . . . . . 5 Vektor . . . . . . . . . . . . . . . . . . . . . . . . . 61 Einheitsvektor . . . . . . . . . . . . . . 62 Einsvektor . . . . . . . . . . . . . . . . . . 62 Nullvektor . . . . . . . . . . . . . . . . . . 62 Verteilungsannahme . . . . . . . . . . . . 17 nichtparametrische . . . . . . . . . . 17 parametrische . . . . . . . . . . . . . . . 17 verteilungsfreie . . . . . . . . . . . . . . 17 Verteilungsfunktion . . . . . . . . . . . . . 3 (total-)stetige, (absolut-) stetige . . . . . . . . 4 empirische . . . . . . . . . . . . . . . . . . 14 gemeinsame . . . . . . . . . . . . . . . . . . 3 Verwerfungsbereich . . . . . . . . . . . . . 30 Verzerrung . . . . . . . . . . . . . . . . . . . . . 22 Wahrscheinlichkeit(-smaß) . . . . . . . 1 Wahrscheinlichkeitsraum . . . . . . . . 1 Wahrscheinlichkeitsverteilung . . . . 1 gemeinsame . . . . . . . . . . . . . . . . . . 3 Wald-Regel . . . . . . . . . . . . . . . . . . . . 16 Wert kritischer . . . . . . . . . . . . . . . . . . . . 36 Zufallsvariable . . . . . . . . . . . . . . . . . . 1 c V. Steinmetz: Schließende Statistik reguläre . . . . . . . . . . . . . . . . . . . . . 23 Zustandsraum . . . . . . . . . . . . . . . . . . 15 –87– Symbolverzeichnis Ω ............................... 1 F ............................... 1 P ............................... 1 X ............................... 1 QX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Bn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 pri1 ,...,im . . . . . . . . . . . . . . . . . . . . . . . . . 2 pri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Xi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 X(ω) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 P{X ∈ B} . . . . . . . . . . . . . . . . . . . . . . 3 FX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 fX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 f(X1 ,...,Xm ) . . . . . . . . . . . . . . . . . . . . . . . 5 µ ................................ 5 Σ ............................... 5 σij . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Var(X) . . . . . . . . . . . . . . . . . . . . . . . . . 5 Cov(X, Y ) . . . . . . . . . . . . . . . . . . . . . . 5 f (X) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 N (0, I) . . . . . . . . . . . . . . . . . . . . . . . . . . 6 N (µ, Σ) . . . . . . . . . . . . . . . . . . . . . . . . . 8 lim xn = x . . . . . . . . . . . . . . . . . . . . 10 n→∞ lim Xn = X P-f.s. . . . . . . . . . . . 10 n→∞ lim Xn = X im r-ten Mittel . . . 10 n→∞ p lim Xn = X . . . . . . . . . . . . . . . . . . 11 n→∞ B(n, p) . . . . . . . . . . . . . . . . . . . . . . . . . F̂ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (A, Z, S) . . . . . . . . . . . . . . . . . . . . . . . S(a, z) . . . . . . . . . . . . . . . . . . . . . . . . . a∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (A, Z, S, e) . . . . . . . . . . . . . . . . . . . . . Π .............................. W ............................. Θ .............................. (x1 , . . . , xn ) . . . . . . . . . . . . . . . . . . . . (X1 , . . . , Xn ) . . . . . . . . . . . . . . . . . . . X .............................. δ . . . . . . . . . . . . . . . . . . . . . . . . . . . 18, (W, D, X, ∆, S, e) . . . . . . . . . . . . . . . R(δ, ·) . . . . . . . . . . . . . . . . . . . . . . . . . . c V. Steinmetz: Schließende Statistik 13 14 15 15 15 15 16 17 17 18 18 18 20 19 19 δ ∗ . . . . . . . . . . . . . . . . . . . . . . . . . . 19, σ̂2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . σ̂ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . S2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . µ̂ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . σ̂ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . x .............................. X .............................. ρ̂(X, Y ) . . . . . . . . . . . . . . . . . . . . . . . . σ̂ij (x, y) . . . . . . . . . . . . . . . . . . . . . . . . σ̂ij (X, Y ) . . . . . . . . . . . . . . . . . . . . . . µ̂ij (x, y) . . . . . . . . . . . . . . . . . . . . . . . . µ̂ij (X, Y ) . . . . . . . . . . . . . . . . . . . . . . T .............................. L(· | x1 , . . . , xn ) . . . . . . . . . . . . 27, ϑ̂ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . d0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . d1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . W0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . W1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . H0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . H1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ⊗ .............................. vec . . . . . . . . . . . . . . . . . . . . . . . . . . . . . rg A . . . . . . . . . . . . . . . . . . . . . . . . . . . . det A . . . . . . . . . . . . . . . . . . . . . . . . . . tr(A) . . . . . . . . . . . . . . . . . . . . . . . . . . sp(A) . . . . . . . . . . . . . . . . . . . . . . . . . . 23 20 20 20 20 20 20 20 21 21 21 21 21 26 28 27 30 30 30 30 30 30 65 66 68 69 73 73 –88– Im Kompaktskript angesprochene Literatur [Büning] Büning, H., Trenkler, G., Nichtparametrische statistische Methoden, Berlin, N.Y., 1978 [Fisz] Fisz, M., Wahrscheinlichkeitsrechnung und Mathematische Statistik, VEB Deutscher Verlag der Wissenschaften, Berlin 1970. [Krickeberg] Krickeberg, K., Wahrscheinlichkeitstheorie, B.G. Teubner Verlagsgesellschaft, Stuttgart 1963 [Rohatgi] Rohatgi, V. K., An Introduction to Probability Theory and Mathematical Statistics, Wileys Series in Probability and Mathematical Statistics, 1976. [Steinmetz] Steinmetz, V., Kompaktskript zu den Vorlesungen Grundzüge der Statistik Teil A und Teil B, Universität des Saarlandes, Auflage WS 2002/2003. [Witting] Witting, H., Mathematische Statistik I, Parametrische Verfahren bei festem Stichprobenumfang, Stuttgart 1985. c V. Steinmetz: Schließende Statistik –89– Änderungen • 12.01.2004: Seite 24, 3.2.7 Definition: i = 1, . . . , m durch i ∈ I ⊆ N ersetzt n P P Seite 24, 3.2.8 Satz: durch ersetzt i=1 i∈I • 16.01.2004: Seite 27, 3.5.3 Hilfssatz: Für ein ϑ̂ ∈ Θ statt Für ein ϑ ∈ Θ max L(ϑ | x1 , . . . , xn ) statt max L(· | x1 , . . . , xn ) ϑ∈Θ ϑ∈Θ bzw. max ln L(ϑ | x1 , . . . , xn ) statt max ln L(· | x1 , . . . , xn ) ϑ∈Θ ϑ∈Θ • 12.02.2004: Seite 56, 6.1.3 Chi-Quadrat-Unabhängigkeitstest P χ2(r−1)(s−1) ≤ λ1−α = 1 − α statt P χ2(r−1)(s−1) ≤ λ1−α c V. Steinmetz: Schließende Statistik