KOMPAKTSKRIPT zu den Vorlesungen Grundzüge der Statistik Teil A und Teil B von Volker Steinmetz Universität des Saarlandes (Auflage WS 2002/2003) I Inhaltsverzeichnis WARNUNG 1 Ergänzungen aus 1.1 Abbildungen . 1.2 Mächtigkeit . 1.3 Kombinatorik IV der Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Wahrscheinlichkeitsräume 2.1 Stichprobenräume und Ereignisräume . . . . . . . 2.2 Wahrscheinlichkeitsräume . . . . . . . . . . . . . 2.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit 2.4 Abbildungen von Stichprobenräumen . . . . . . . 2.5 Produkte von Wahrscheinlichkeitsräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Zufallsvariablen 3.1 Eindimensionale Zufallsvariablen . . . . . . . . . . . . . . . . 3.2 Abbildungen eindimensionaler Zufallsvariablen . . . . . . . . . 3.3 Mehrdimensionale Zufallsvariablen . . . . . . . . . . . . . . . 3.4 Bedingte Verteilungen und Unabhängigkeit von Zufallsvariablen 4 Maßzahlen der Verteilung von Zufallsvariablen 4.1 Momente eindimensionaler Zufallsvariablen . . . 4.2 Momente zweidimensionaler Zufallsvariablen . . 4.3 Korrelationskoeffizient . . . . . . . . . . . . . . 4.4 Modus und Quantile . . . . . . . . . . . . . . . 4.5 Ungleichung von Tschebyschev . . . . . . . . . . 4.6 Das schwache Gesetz der großen Zahlen und der wertsatz . . . . . . . . . . . . . . . . . . . . . . 5 Deskriptive Statistik 5.1 Grundbegriffe . . . . . 5.2 Häufigkeitsverteilungen 5.3 Häufigkeitsverteilungen 5.4 Konzentrationsmaße . 5.5 Verhältniszahlen . . . . 5.6 Indexzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . zentrale Grenz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 22 28 34 36 38 50 54 59 66 74 78 82 84 86 . . . . . . 89 95 106 115 127 129 6 Grundlagen der schließenden Statistik 6.1 Drei Grundannahmen . . . . . . . . . . . . . . . . . . . . . . . 6.2 Stichproben . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 134 7 Parameterpunktschätzungen 7.1 Parameterpunktschätzfunktionen und Eigenschaften . . . . . . 7.2 Maximum-Likelihood-Methode . . . . . . . . . . . . . . . . . . 140 146 c °V. Steinmetz: Grundzüge der Statistik . . . . . . . . . . . . . . . . . eindimensionaler Merkmale . zweidimensionaler Merkmale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 9 13 II 8 Tests und Parameterbereichsschätzungen 8.1 Grundbegriffe der Testtheorie . . . . . . . . . . . . . . . . . . 8.2 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei bekannter Varianz (Gauß-Tests) . . . . . . . . . . . 8.3 Gütefunktion eines Tests . . . . . . . . . . . . . . . . . . . . . 8.4 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei unbekannter Varianz (t-Tests) . . . . . . . . . . . . 8.5 Binomialtests . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.6 Tests über die Erwartungswerte zweier normalverteilter Zufallsvariablen mit unbekannten Varianzen (t-Tests) . . . . . . . . . 8.7 Tests über die Varianzen normalverteilter Zufallsvariablen (χ2 Tests, F -Tests) . . . . . . . . . . . . . . . . . . . . . . . . . . 8.8 Chi-Quadrat-Anpassungstest . . . . . . . . . . . . . . . . . . . 8.9 Wilcoxon-Rangsummentest für unverbundene Stichproben . . 8.10 Parameterbereichsschätzungen . . . . . . . . . . . . . . . . . . 148 152 156 159 161 163 165 169 171 174 9 Wirtschaftsstatistik im Überblick 9.1 Zur Geschichte der Wirtschaftsstatistik . . . . . . . . . . . . . 9.2 Gewinnung wirtschaftsstatistischer Daten . . . . . . . . . . . . 9.3 Probleme der Operationalisierung und Messung . . . . . . . . 10 Das 10.1 10.2 10.3 10.4 10.5 klassische lineare Regressionsmodell Bereitstellung des Modells . . . . . . . . . . . . . . . . . . Die Methode der kleinsten Quadrate . . . . . . . . . . . . Stochastische Eigenschaften der KQ-Schätzer . . . . . . . . Schätzungen und Tests unter Normalverteilungsannahmen Autokorrelation in den Störvariablen . . . . . . . . . . . . . . . . . 178 181 188 190 192 A Grundbegriffe der Mengenlehre A.1 Mengen und Teilmengen . . . . . . . . . . . . . . . . . . . . . A.2 Mengenoperationen . . . . . . . . . . . . . . . . . . . . . . . . A.3 Produktmengen . . . . . . . . . . . . . . . . . . . . . . . . . . 194 198 201 B Hilfsmittel aus der Matrizenrechnung B.1 Matrizen und Vektoren . . . . . . . . . . . . . B.2 Verknüpfungen von Matrizen . . . . . . . . . . B.3 Lineare Unabhängigkeit . . . . . . . . . . . . B.4 Rang einer Matrix . . . . . . . . . . . . . . . B.5 Determinante einer Matrix . . . . . . . . . . . B.6 Inverse einer Matrix . . . . . . . . . . . . . . B.7 Unterteilte Matrizen . . . . . . . . . . . . . . B.8 Spur einer Matrix . . . . . . . . . . . . . . . . B.9 Orthogonale Matrizen, idempotente Matrizen B.10 Definite Matrizen, quadratische Formen . . . B.11 Matrizen von Zufallsvariablen . . . . . . . . . B.12 Mehrdimensionale Normalverteilung . . . . . . 202 205 207 208 209 210 211 213 214 215 216 218 c °V. Steinmetz: Grundzüge der Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III C Tabellen C.1 Tabelle zur Standardnormalverteilung C.2 Quantile der t-Verteilungen . . . . . C.3 Quantile der χ2 -Verteilungen . . . . . C.4 Tabelle zur Poissonverteilung . . . . C.5 Quantile der F -Verteilungen . . . . . C.6 (Pseudo-)Zufallszahlen . . . . . . . . C.7 Spielanleitung zum Roulette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Formelsammlung zu den Diplomprüfungsklausuren Index Literaturverzeichnis Änderungen c °V. Steinmetz: Grundzüge der Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 221 222 223 224 226 228 IV WARNUNG Das vorliegende Kompaktskript ist kein Lehrbuch, sondern es soll die Hörer der Grundzügevorlesungen zur Statistik von dem ablenkenden und oft fehlerhaften Mitschreiben der Formeln entlasten und es ihnen erleichtern, sich auf die vorgetragenen Motivationen und Erläuterungen zu konzentrieren und hierüber individuelle Notizen anzufertigen. Dementsprechend sind in diesem Skript nur formale Definitionen und Sätze mit Beweisen oder entsprechenden Literaturangaben enthalten, Bemerkungen dienen zur Ergänzung des Stoffes. Die Motivation und Erläuterung der aufgeführten Begriffe und Aussagen sowie die Behandlung von Beispielen bleiben der Vorlesung und auch den begleitenden Übungen vorbehalten. Ebenso werden Hinweise auf ergänzende und vertiefende Literatur im Verlauf der Vorlesung gegeben. c °V. Steinmetz: Grundzüge der Statistik –1– 1 Ergänzungen aus der Mengenlehre 1.1 Abbildungen 1.1.1 Definition: Es seien A, B zwei nicht leere Mengen und F ⊆ A × B mit der Eigenschaft: (∀ x ∈ A)(∃˙ y ∈ B)((x, y) ∈ F ). Man bezeichnet f = (F, A, B) als Abbildung (mapping) von A in B. A heißt Definitionsbereich (Urbildmenge, domain) von f, B heißt Wertevorrat von f (codomain) und F der Graph von f . Genau dann, wenn (x, y) ∈ F gilt, nennt man y das Bild von x bezüglich f und x einen Urbildpunkt von y bezüglich f . Man schreibt y = f (x) oder x 7→ y. Man stellt f als Abbildung von A in B auch durch das Symbol f f : A → B oder A → B dar. 1 1.1.2 Folgerung: Für zwei Abbildungen f = (F, A, B) und g = (G, M, N ) gilt: f = g ⇔ (F = G) ∧ (A = M ) ∧ (B = N ) ⇔ (A = M ) ∧ (B = N ) ∧ (∀ x ∈ A)(f (x) = g(x)). 1.1.3 Definition: Die Abbildung f : A → A mit (∀ x ∈ A)(f (x) = x) heißt die identische Abbildung oder Identität (identity) von A. Man bezeichnet sie mit iA , oft auch mit idA . 1.1.4 Satz: Es seien f : A → B und g : B → D zwei Abbildungen. Durch die Festsetzung (∀ x ∈ A)(h(x) := g(f (x))) ist eine Abbildung h : A → D definiert. 1 Bisweilen wird statt f auch f (.) geschrieben. c °V. Steinmetz: Grundzüge der Statistik –2– 1.1.5 Definition: Es seien f : A → B und g : B → D zwei Abbildungen. Die durch die Festsetzung (∀ x ∈ A)(h(x) := g(f (x))) definierte Abbildung h : A → D heißt die aus f und g zusammengesetzte Abbildung (composite mapping). Man bezeichnet sie mit g ◦ f oder g(f ), liest ”g nach f ” und schreibt g(f (x)) = (g ◦ f )(x) = (g(f ))(x). 1.1.6 Definition: Eine Abbildung f : A → B heißt injektiv (eineindeutig in, 1-1 in, Injektion, one to one), wenn verschiedene Elemente aus A auch verschiedene Bildpunkte in B haben, d.h. wenn gilt: (∀ x, y ∈ A)(x 6= y ⇒ f (x) 6= f (y)). 1.1.7 Definition: Eine Abbildung f : A → B heißt surjektiv (Abbildung von A auf B, Surjektion, onto), wenn jeder Punkt aus B mindestens einen Urbildpunkt in A hat, d.h. wenn gilt: (∀ y ∈ B)(∃ x ∈ A)(f (x) = y). 1.1.8 Definition: Eine Abbildung f : A → B heißt bijektiv (eineindeutig auf, 1-1 auf, Bijektion), wenn jeder Punkt aus B genau einen Urbildpunkt in A hat, d.h. wenn gilt (∀ y ∈ B)(∃˙ x ∈ A)(f (x) = y). 1.1.9 Folgerung: Eine Abbildung ist genau dann bijektiv, wenn sie injektiv und surjektiv ist. 1.1.10 Folgerung: Die Identität iA einer Menge A ist bijektiv. c °V. Steinmetz: Grundzüge der Statistik –3– 1.1.11 Satz: Es sei f : A → B eine bijektive Abbildung. Dann gibt es genau eine Abbildung h : B → A mit (∀ x ∈ A)((h ◦ f )(x) = x), d.h. h ◦ f = iA . 1.1.12 Definition: Die in Satz (1.1.11) eingeführte Abbildung h nennt man Umkehrabbildung oder Inverse zu f und bezeichnet sie mit f −1 . 1.1.13 Folgerung: Es seien f : A → B und g : B → D zwei bijektive Abbildungen. Dann gilt: (.1) f −1 ist eine bijektive Abbildung von B auf A. (.2) (f −1 )−1 = f (.3) f −1 ◦ f = iA (.4) f ◦ f −1 = iB (.5) g ◦ f ist eine bijektive Abbildung von A auf D. (.6) (g ◦ f )−1 = f −1 ◦ g −1 1.1.14 Definition: Es seien f : A → B eine Abbildung und à ⊆ A. Man bezeichnet f (Ã) := {y ∈ B | (∃ x ∈ Ã)(f (x) = y)} als Bild(menge) (image) von à bzgl. f . 1.1.15 Bemerkung: Die Abbildung f : A → B kann nur auf Elemente von A angewendet werden, nicht auf Teilmengen à ⊆ A. Bei f (Ã), à ⊆ A handelt es sich also um ein neu zu definierendes Symbol, genau genommen hat man eine neue Abbildung P(A) → P(B) konstruiert. Man spricht von der durch f induzierten Abbildung von P(A) in P(B). c °V. Steinmetz: Grundzüge der Statistik –4– 1.1.16 Definition: Es seien f : A → B eine Abbildung und B̃ ⊆ B. Man bezeichnet f −1 (B̃) := {x ∈ A | f (x) ∈ B̃} als Urbild(menge) (inverse image) von B̃ bzgl. f . 1.1.17 Bemerkung: f −1 bezeichnet in f −1 (B̃) nicht die inverse Abbildung zu f , diese muß nicht einmal existieren; wenn sie aber existiert, ist sie nur auf die Elemente von B, nicht aber auf Teilmengen B̃ ⊆ B anwendbar. Genau genommen wird durch die obige Definition eine neue Abbildung P(B) → P(A) induziert; man spricht von der durch f induzierten inversen Abbildung von P(B) in P(A). Sie ist i.a. auch nicht die Inverse zu der in Bemerkung (1.1.15) erwähnten induzierten Abbildung, letztere ist i.a. nicht einmal bijektiv. 1.1.18 Satz: Es seien f : A → B eine Abbildung und A1 , A2 ⊆ A; B1 , B2 ⊆ B. Dann gilt: (.1) f (A1 ∪ A2 ) = f (A1 ) ∪ f (A2 ) (.2) f (A1 ∩ A2 ) ⊆ f (A1 ) ∩ f (A2 ) (.3) f −1 (B1 ∪ B2 ) = f −1 (B1 ) ∪ f −1 (B2 ) (.4) f −1 (B1 ∩ B2 ) = f −1 (B1 ) ∩ f −1 (B2 ) (.5) f −1 (f (A1 )) ⊇ A1 (.6) f (f −1 (B1 )) ⊆ B1 (.7) A1 ⊆ A2 ⇒ f (A1 ) ⊆ f (A2 ) (.8) B1 ⊆ B2 ⇒ f −1 (B1 ) ⊆ f −1 (B2 ) (.9) f −1 (CB B1 ) = CA (f −1 (B1 )) (.10) f (A1 ) = ∅ ⇔ A1 = ∅ (.11) B1 = ∅ ⇒ f −1 (B1 ) = ∅ Beweis: zu (.1) c °V. Steinmetz: Grundzüge der Statistik –5– a) z.z. f (A1 ∪ A2 ) ⊆ f (A1 ) ∪ f (A2 ) (1.1.14) Sei y ∈ f (A1 ∪ A2 ) ⇒ (∃ x ∈ A1 ∪ A2 )(f (x) = y) 1.Fall x ∈ A1 (1.1.14) ⇒ y ∈ f (A1 ) ⇒ y ∈ f (A1 ) ∪ f (A2 ) (1.1.14) 2.Fall x ∈ A2 ⇒ y ∈ f (A2 ) ⇒ y ∈ f (A1 ) ∪ f (A2 ) also gilt y ∈ f (A1 ∪ A2 ) ⇒ y ∈ f (A1 ) ∪ f (A2 ) d.h. f (A1 ∪ A2 ) ⊆ f (A1 ) ∪ f (A2 ) b) z.z. f (A1 ∪ A2 ) ⊇ f (A1 ) ∪ f (A2 ) Sei y ∈ f (A1 ) ∪ f (A2 ) (1.1.14) 1. Fall y ∈ f (A1 ) ⇒ (∃x ∈ A1 )(y = f (x)) A1 ⊆A1 ∪A2 ⇒ (∃x ∈ A1 ∪ A2 )(y = f (x)) (1.1.14) ⇒ y ∈ f (A1 ∪ A2 ) 2. Fall y ∈ f (A2 ) ⇒ · · · ⇒ y ∈ f (A1 ∪ A2 ) also gilt y ∈ f (A1 ) ∪ f (A2 ) ⇒ y ∈ f (A1 ∪ A2 ) d.h. f (A1 ) ∪ f (A2 ) ⊆ f (A1 ∪ A2 ) Aus Teil a) und Teil b) folgt f (A1 ∪ A2 ) = f (A1 ) ∪ f (A2 ) Die anderen Beweise führt man ähnlich. Die Asymmetrie der Aussagen (.2), (.5), (.6), (.7), (.8) und (.11) kann man durch Beispiele nachweisen. zu (.2) Nachdem man die Gültigkeit der Teilmengenrelation bewiesen hat, ist noch ungeklärt, ob man die in (.2) aufgestellte Behauptung nicht zur Gleichheit der beiden Mengen verschärfen könnte. Daß dies unmöglich ist, zeigt die folgende Abbildung zusammen mit den Mengen A1 und A2 . Es sei f : A → B die Abbildung mit A := {a, b, c}, B := {α, β, γ} und A1 := {a, b}, A2 := {b, c} sowie f (a) = α f (b) = β f (c) = α Dann gilt:f (A1 ∩ A2 ) = f ({b}) = {β} $ {α, β} = f (A1 ) ∩ f (A2 ). c °V. Steinmetz: Grundzüge der Statistik –6– 1.1.19 Definition: Als Familie (family) von Elementen einer Menge M mit der Indexmenge (index set) J bezeichnet man eine Abbildung f :J →M und schreibt unter Verwendung der Abkürzung mj := f (j) für alle j ∈ J für diese Familie auch (mj )j∈J . Ist J ⊆ N, so spricht man von einer Folge (sequence) von Elementen aus M . 1.1.20 Definition: Es seien A eine Menge, (Aj )j∈J eine Familie von Teilmengen von A und J˜ ⊆ J. Unter der Vereinigung (union) der Aj bzgl. J˜ versteht man die Menge (.1) S ˜ Aj := {x ∈ A | (∃j ∈ J)(x ∈ Aj )}. T ˜ Aj := {x ∈ A | (∀j ∈ J)(x ∈ Aj )}. j∈J˜ Unter dem Durchschnitt (intersection) der Aj bzgl. J˜ versteht man die Menge (.2) j∈J˜ 1.1.21 Bemerkung: Eine Verallgemeinerung der Aussagen (.1) bis (.4) in Satz (1.1.18) auf Vereinigungen und Durchschnitte von Familien von Mengen ist leicht zu beweisen. 1.1.22 Satz: Es seien (Aj )j∈J eine Familie von Teilmengen einer Menge A, B eine weitere Teilmenge von A und J˜ ⊆ J. Dann gilt: S T Aj ⊆ A ∀k ∈ J˜ Aj ⊆ A k ⊆ (.1) ∅ ⊆ ˜ ˜ j∈J µ j∈J ¶ S T (.2) CA Aj = CA A j j∈J˜ j∈J˜ ¶ µ S T CA A j Aj = (.3) CA j∈J˜ j∈J˜ ¶ µ S S (B ∩ Aj ) Aj = (.4) B ∩ j∈J˜ j∈J˜ µ ¶ T T Aj = (.5) B ∪ (B ∪ Aj ) j∈J˜ j∈J˜ c °V. Steinmetz: Grundzüge der Statistik –7– Beweis: zu (.1) T Die leere Menge ist Teilmenge jeder Menge, also auch von Aj . Ist x ∈ T j∈J˜ j∈J˜ ˜ Aj , so gilt nach (1.1.20.2) (∀j ∈ J)(x ∈ Aj ), insbesondere wegen k ∈ J˜ auch x ∈ Ak , also T j∈J˜ Aj ⊆ A k . Ist xS ∈ Ak , so gilt nachS(1.1.20.1) wegen k ∈ J˜ auch x∈ Aj , also Ak ⊆ Aj . j∈J˜ j∈J˜ Wegen (1.1.20.1) folgt die letzte Teilmengenrelation. zu (.2) S S ˜ x ∈ C Aj ⇔ x ∈ / Aj ⇔ (∀j ∈ J)(x ∈ / Aj ) T ˜ ⇔ (∀j S ∈ J)(x ∈ T CAj ) ⇔ x ∈ CAj also C Aj = CAj zu (.3) S S T T (.2) CAj = CC CAj = C CCAj = C Aj zu (.4) S S x ∈ B ∩ [ Aj ] ⇔ x ∈ B ∧ x ∈ Aj ˜ ˜ ⇔x∈B S ∧ (∃k ∈ J)(x ∈ Ak )S⇔ (∃k ∈SJ)(x ∈ B ∩ Ak ) ⇔ x ∈ [B ∩ Aj ], also B ∩ [ Aj ] = [B ∩ Aj ] zu (.5) T T T (.2) B ∪ [ Aj ] = CC(B ∪ [ Aj ]) = C(CB ∩ C[ Aj ]) S S (.3) (.4) = C(CB ∩ [ CAj ]) = C( [CB ∩ CAj ]) T (.2) T = C[CB ∩ CAj ] = [B ∪ Aj ] 1.1.23 Folgerung: Es seien (Aj )j∈J eine Familie von Teilmengen einer Menge A und J˜ ⊆ J. Für J˜ = ∅ gilt (.1) S j∈∅ (.2) T Aj = ∅ Aj = A j∈∅ Beweis: zu (.1) S Angenommen, es sei Aj 6= ∅, d.h., es existiere mindestens ein j∈∅ c °V. Steinmetz: Grundzüge der Statistik –8– x∈ S Aj . j∈∅ Nach (1.1.20.1) müßte es dann (mindestens) ein j S ∈ J˜ geben mit x ∈ Aj . Wegen ˜ die Annahme J˜ = ∅ gibt es aber kein j ∈ J, Aj 6= ∅ hat also zu einem j∈∅ Widerspruch geführt. zu (.2) T T Aj A j = C A CA (nach A.2.9.3) CA A j (nach 1.1.22.3) j∈∅ j∈∅ = CA S j∈∅ = CA ∅ (nach .1) = A (nach A.2.9.3) (Man beachte: Das Ergebnis der Durchschnittbildung bei leerem J˜ hängt von der betrachteten Grundmenge A ab.) 1.1.24 Definition: Es sei (Aj )j∈J eine Familie von Teilmengen einer Menge A. (Aj )j∈J heißt eine Zerlegung (partition) von A, wenn gilt (.1) A = S Aj j∈J (.2) Ai ∩ Aj = ∅ für alle i 6= j, i, j ∈ J (.3) Aj 6= ∅ für alle j ∈ J. c °V. Steinmetz: Grundzüge der Statistik –9– 1.2 Mächtigkeit 1.2.1 Definition: Zwei Mengen A und B heißen gleichmächtig (in Zeichen A ∼ B), wenn es eine Bijektion von A auf B gibt. 1.2.2 Satz: Es seine A, B, D drei Mengen. Dann gilt: (.1) A ∼ A (.2) A ∼ B ⇔ B ∼ A (.3) A ∼ B ∧ B ∼ D ⇒ A ∼ D Beweis: zu (.1) Nach Folgerung (1.1.10) ist iA eine Bijektion von A auf A. zu (.2) Ist f : A → B eine Bijektion, so auch f −1 : B → A nach Folgerung (1.1.13). zu (.3) Sind f : A → B und g : B → D Bijektionen, so nach Folgerung (1.1.13) auch g ◦ f : A → D. 1.2.3 Definition: Eine Menge M heißt endlich (finite), wenn gilt M = ∅ oder (∃n ∈ N) (M ∼ {1, 2, ..., n}).2 Ist M eine endliche, nicht leere Menge mit M ∼ {1, 2, ..., n} für ein n ∈ N, so bezeichnet man n als die Anzahl der Elemente von M und schreibt ]M = n (oder auch | M |= n). Im Fall M = ∅ vereinbart man ]∅ = 0. 1.2.4 Definition: Eine Menge M heißt abzählbar unendlich (countably infinite), wenn gilt: 2 M ∼ N. Man kann sich überlegen, daß ein solches n eindeutig bestimmt ist. c °V. Steinmetz: Grundzüge der Statistik –10– Eine Menge heißt abzählbar (countable), wenn sie abzählbar unendlich oder endlich ist. Eine nicht abzählbare Menge heißt überabzählbar (uncountable). 1.2.5 Folgerung: Die Menge Z = {..., −1, 0, 1, 2, ...} der ganzen Zahlen ist abzählbar unendlich. Beweisidee: Man zeigt, daß f :Z→N mit 0 1 −1 2 −2 3 −3 .... ↓ ↓ ↓ ↓ ↓ ↓ ↓ 1 2 3 4 5 6 7 .... also f (x) = eine Bijektion ist. ½ 2x für x > 0 −2x + 1 für x ≤ 0 1.2.6 Folgerung: Die Menge Q = { pq | p, q ∈ Z, q 6= 0} der rationalen Zahlen ist abzählbar unendlich. (Zum Beweis siehe z.B. Barner-Flohr: Analysis I, 3. Auflage, Berlin, N.Y. 1987, S. 62.) 1.2.7 Folgerung: Die Menge R der reellen Zahlen ist überabzählbar. Beweis: Es gilt R ∼]0, 1[, da durch f : R →]0, 1[ mit f (x) = x 1 + 2 2+2|x| eine Bijektion von R auf ]0, 1[ gegeben ist. f (x) 6 1 - x c °V. Steinmetz: Grundzüge der Statistik –11– Also genügt es, zu zeigen, daß ]0, 1[ überabzählbar ist. Jede reelle Zahl 6= 0 läßt sich eindeutig als nicht abbrechender Dezimalbruch darstellen, also auch jedes x ∈]0, 1[, z.B. : 21 = 0, 499999..... Behauptet wird nun: ]0, 1[ ist überabzählbar. Nehmen wir einmal an, ]0, 1[ sei abzählbar unendlich. Dann müßte es eine bijektive Abbildung f : N →]0, 1[ geben mit f (1) = a1 = 0, a11 f (2) = a2 = 0, a21 f (3) = a3 = 0, a31 & a12 a13 .... a22 a23 .... a33 & .... a32 & ..................... Die a1 , a2 , a3 , .... sollen die Folge sämtlicher Elemente der Menge ]0, 1[ darstellen mit aij ∈ {0, 1, 2, ..., 9}, es dürfen nicht von einer Stelle ab nur Nullen folgen. Aus den Diagonalelementen wird nun der folgende Dezimalbruch gebildet: z = 0, a11 a22 a33 a44 .... Jede Ziffer aii dieses Bruches wird in folgender Weise abgeändert: Man wählt aus {0, 1, ..., 9} ein bi , i = 1, 2, 3...mit 0 6= b1 6= a11 b1 6= 9 0 6= b2 6= a22 0 6= b3 6= a33 ............... 0 6= bi 6= aii ............... In dem neuen Dezimalbruch sind die aii durch die bi ersetzt: z 0 = 0, b1 b2 b3 b4 .... Der Dezimalbruch z 0 ist ein Element von ]0, 1[, er bricht nicht ab, da (∀i ∈ N)(bi 6= 0). Er unterscheidet sich von jedem ai , i = 1, 2, 3..., wenigstens an der Stelle aii nach obiger Wahl der bi , d.h. (∀i ∈ N)(f (i) 6= z 0 ). Damit gibt es also ein z 0 ∈]0, 1[, für das kein i ∈ N existiert mit f (i) = z 0 . Die Abbildung f ist keine Bijektion von N auf ]0, 1[. Damit ist die Annahme, das Intervall ]0, 1[ sei abzählbar unendlich, falsch. ]0, 1[ ist auch nicht endlich. Also ist ]0, 1[ überabzählbar. Das angewandte Beweisverfahren heißt Cantorsches Diagonalverfahren. 1.2.8 Definition: Eine Menge M heißt mächtiger als eine Menge N , wenn gilt Es existiert kein Ñ ⊆ N mit M ∼ Ñ . c °V. Steinmetz: Grundzüge der Statistik –12– 1.2.9 Satz: Es seien A und B zwei endliche Mengen. Dann gilt ](A ∪ B) = ]A + ]B − ](A ∩ B) und ](A ∪ B) = ]A + ]B für A ∩ B = ∅. Beweis: O.B.d.A. seien die Mengen A und B dargestellt als A = {a1 , ..., am , r1 , ..., rs } B = {b1 , ..., bn , r1 , ..., rs } mit ai 6= aj , ri 6= rj , bi 6= bj für i 6= j und ai 6= rj 6= bl 6= ai . Dann gilt A ∪ B = {a1 , ..., am , r1 , ..., rs , b1 , ..., bn } A ∩ B = {r1 , ..., rs }. Für die Mächtigkeit der betrachteten Mengen folgt (die entsprechenden Bijektionen sind wegen der Indizierung leicht anzugeben): ]A = m + s, ]B = n + s, ](A ∪ B) = m + n + s ](A ∩ B) = s und somit ](A ∪ B) = m + n + s = (m + s) + (n + s) − s = ]A + ]B − ](A ∩ B). 1.2.10 Satz: Es seien A und B zwei endliche Mengen. Dann gilt ](A × B) = ]A · ]B Beweis: Es seien A = {a1 , ..., am } 6= ∅ und B = {b1 , ..., bn } 6= ∅. Dann gilt A × B = {(a1 , b1 ), ..., (a1 , bn ), ..., (am , b1 ), ..., (am , bn )} . {z } {z } | | n Paare n Paare | {z } m·n Paare Ist mindestens eine der beiden Mengen leer, so gilt nach Def. (1.2.3) wegen Def. (A1.3.2): A × B = ∅, also ](A × B) = 0 = ]A · ]B. c °V. Steinmetz: Grundzüge der Statistik –13– 1.3 Kombinatorik 1.3.1 Satz (Zählprinzip): Es seien A1 , A2 , ..., Ar mit r ∈ N endlich viele endliche Mengen. Dann gilt r r Q Ai ) = (]Ai ) (.1) ]( i=1 i=1 Beweis: Es sei definiert ]A1 = n1 , ..., ]Ar = nr . Die Menge r i=1 Ai ist die Menge aller r-Tupel (a1 , a2 , ..., ar ), wobei für die Koordianten des r-Tupels gilt: a1 ∈ A1 , ..., ar ∈ Ar . Im Satz wird behauptet, daß es genau n1 · n2 · ... · nr verschiedene solcher r-Tupel gibt. a) Zunächst werde die Behauptung anschaulich glaubhaft gemacht: Wegen ]A1 = n1 hat man n1 Möglichkeiten, die erste Stelle eines r-Tupels zu besetzen; wegen ]A2 = n2 hat man zu jeder dieser Besetzungen n2 Möglichkeiten, die 2. Stelle eines r-Tupels zu belegen, insgesamt also n1 · n2 Möglichkeiten, die ersten beiden Stellen mit Elementen aus A1 bzw. A2 zu besetzen. Will man die ersten drei Stellen besetzen, so hat man zu jeder der n1 · n2 Möglichkeiten die ersten beiden Plätze zu belegen, noch n3 Möglichkeiten für die 3. Stelle, insgesamt also n1 · n2 · n3 . Führt man dieses Verfahren fort, hat man also n1 · n2 · ... · nr Möglichkeiten, die r Plätze eines r-Tupels mit Elementen aus A1 bzw. A2 bzw....bzw. Ar zu belegen. Bei den Überlegungen unter Punkt a) werden die Möglichkeiten für die ersten drei Plätze ausgerechnet, und dann wird einfach angenommen, daß ”es schon so weiter gehen werde”, bis alle Plätze belegt sind. Diese Lücke in der Beweisführung wird durch Anwendung des Prinzips der vollständigen Induktion geschlossen: b) Beweis des Satzes mit Hilfe des Prinzips der vollständigen Induktion: Induktionsbeginn Für r = 1 lautet die Behauptung (.1) des Satzes ]( 1 i=1 Ai ) = ]A1 = 1 Y ]Ai , i=1 sie ist also trivialerweise richtig. Induktionsvoraussetzung Die Behauptung (.1) sei richtig für r = k, es gelte also ]( c °V. Steinmetz: Grundzüge der Statistik k i=1 Ai ) = k Y i=1 ]Ai –14– Induktionsbehauptung Unter Gültigkeit der Induktionsvoraussetzung ist die Behauptung (.1) richtig für r = k + 1, d.h. es gilt ]( k+1 i=1 Ai ) = k+1 Y ]Ai i=1 Induktionsbeweis Durch die Festsetzung k+1 (∀(x1 , ..., xk+1 ) ∈ i=1 ist eine Bijektion f: Ai )(f (x1 , ..., xk+1 ) = ((x1 , ..., xk ), xk+1 )) k+1 i=1 Ai → ( k i=1 Ai ) × Ak+1 gegeben, es gilt also k+1 i=1 Ai ∼ ( k i=1 Ai ) × Ak+1 (∗) Nach Induktionsvoraussetzung folgt ]( k i=1 Ai ) = k Y Weiterhin gilt wegen Satz (1.2.10) h k i ] ( Ai ) × Ak+1 = ]( i=1 und man erhält h ] ( k i=1 ]Ai i=1 k i=1 Ai ) · ]Ak+1 i k+1 Y Ai ) × Ak+1 = ]Ai , i=1 wegen (∗) ist damit die Induktionsbehauptung und auch der Satz bewiesen. 1.3.2 Definition: Es sei A eine Menge und r ∈ N. Man bezeichnet jedes r-Tupel (a1 , ..., ar ) ∈ Ar als geordnete Probe (Variation) mit Wiederholung vom Umfang r aus A. 1.3.3 Folgerung: Es sei A eine endliche, nicht leere Menge mit ]A = n, n ∈ N, und es sei r ∈ N. Dann gibt es w r Vn := nr geordnete Proben (Variationen) mit Wiederholung vom Umfang r aus A. c °V. Steinmetz: Grundzüge der Statistik –15– 1.3.4 Definition: Für jedes n ∈ N0 definiert man die Zahl n! ∈ N (gelesen ”n-Fakultät”) durch (.1) 0! := 1 und n! := n(n − 1)! für alle n ∈ N Für n, r ∈ N0 mit 0 ≤ r ≤ n definiert man die Zahl (n)r (gelesen ”n tief r”) durch (.2) (n)r := n! (n − r)! Für n, r ∈ N0¡und ¢ 0 ≤ r ≤ n definiert man den Binomialn koeffizienten r (gelesen ”n über r”) durch (.3) ¡n¢ r := n! (n − r)!r! 1.3.5 Definition: Es seien A eine Menge und r ∈ N. Man bezeichnet jedes r-Tupel (a1 , ..., ar ) ∈ Ar mit ai 6= aj für i 6= j als geordnete Probe (Variation) ohne Wiederholung vom Umfang r aus A. 1.3.6 Satz: Es sei A eine endliche, nicht leere Menge mit ]A = n, n ∈ N und es sei r ∈ N mit 1 ≤ r ≤ n. Dann gibt es Vnr := n(n − 1) · . . . · (n − r + 1) = (n)r geordnete Proben (Variationen) ohne Wiederholung vom Umfang r aus A. Beweis: Der exakte Beweis müßte wieder mit Hilfe der vollständigen Induktion geführt werden. Hier soll sich auf die Darstellung der Beweisidee beschränkt werden: Wegen n = ]A hat man n Möglichkeiten, die erste Stelle eines r-Tupels (a1 , ..., ar ) ∈ Ar zu besetzen. Da aber kein Element aus A mehrmals in einer geordneten Probe ohne Wiederholung auftreten darf, hat man zu jeder Besetzung der 1. Stelle nur noch n − 1 Möglichkeiten, die zweite Stelle zu besetzen, insgesamt also n · (n − 1) Möglichkeiten für die Besetzung der ersten beiden r-Tupelstellen. Will man die ersten 3 Stellen besetzen, so hat man zu jeder dieser n(n − 1) Möglichkeiten für die ersten beiden Stellen noch n − 2 Elemente zur Besetzung für die 3. Stelle zur Auswahl, insgesamt also n(n − 1)(n − 2) Möglichkeiten. Führt man dieses Verfahren fort, so hat man für die r Stellen insgesamt n(n − 1) · . . . · (n − r + 1) = (n)r = c °V. Steinmetz: Grundzüge der Statistik n! (n − r)! –16– Möglichkeiten. Da man bei einer Probe ohne Wiederholung nicht mehr Elemente verwenden kann, als A insgesamt enthält, muß hier der Probenumfang eingeschränkt werden: 1 ≤ r ≤ n. 1.3.7 Definition: Es sei A eine endliche, nicht leere Menge mit ]A = n, n ∈ N. Jedes n-Tupel (a1 , ..., an ) ∈ An mit ai 6= aj für i 6= j heißt eine Permutation von A. 1.3.8 Folgerung: Es sei A eine endliche, nicht leere Menge mit ]A = n, n ∈ N. Dann gibt es n! Permutationen von A. 1.3.9 Definition: Es seien A eine nicht leere Menge und r ∈ N. Man bezeichnet jede endliche, nicht leere Teilmenge à ⊆ A mit ]à = r als ungeordnete Probe (Kombination) ohne Wiederholung vom Umfang r aus A. 1.3.10 Satz: Es sei A eine endliche, nicht leere Menge mit ]A = n, n ∈ N und es sei r ∈ N mit 1 ≤ r ≤ n. Dann gibt es µ ¶ n n! r Cn := = (n − r)! r! r ungeordnete Proben (Kombinationen) ohne Wiederholung vom Umfang r aus A. Beweis: Es sei α die unbekannte Anzahl der ungeordneten Proben ohne Wiederholung vom Umfang r aus A, also die Anzahl der Teilmengen à von A mit genau r Elementen. Zu jeder dieser Teilmengen gibt es nach Satz (1.3.6) genau (r)r = r! geordnete Proben ohne Wiederholung vom Umfang r. Da es α verschiedene dieser Teilmengen gibt, erhält man auf diese Weise α · r! verschiedene geordnete Proben ohne Wiederholung vom Umfang r aus A. Da andererseits auch jede geordnete Probe ohne Wiederholung vom Umfang r aus A bei dieser Konstruktion erfaßt wird, muß mit Satz (1.3.6) auch gelten α · r! = (n)r c °V. Steinmetz: Grundzüge der Statistik –17– also n! α= = (n − r)! r! µ ¶ n r 1.3.11 Bemerkung: Da ungeordnete Proben ohne Wiederholung als Teilmengen eingeführt wurden, ist in Satz (1.3.10) gezeigt ¡n¢ worden, daß jede endliche, nicht leere Menge A mit ]A = n, n ∈ N, genau r Teilmengen à mit r Elementen (1 ≤ r ≤ n) enthält. Wegen ]∅ = 0 und 0! = 1 ist diese Formel auch für A = ∅ oder r = 0 richtig. 1.3.12 Vereinbarung: Es seien A eine nicht leere Menge und r ∈ N. Jede Auswahl von r Elementen aus A ohne Berücksichtigung der Reihenfolge, bei der die einzelnen Elemente mehrfach vorkommen dürfen, heißt eine ungeordnete Probe (Kombination) mit Wiederholung vom Umfang r aus A. 1.3.13 Satz: Es sei A eine nicht leere, endliche Menge mit ]A = n, n ∈ N, und es sei r ∈ N. Dann gibt es ¶ µ n+r−1 w r Cn := r ungeordnete Proben (Kombinationen) mit Wiederholung vom Umfang r aus A. Beweis: Zum Beweis übertragen wir die Problemstellung auf ein Urnenmodell: Gegeben seien n Urnen U1 , ..., Un , zusammengefaßt zu der Menge A = {U1 , ..., Un } ]A = n, weiterhin r nicht unterscheidbare Kugeln. Eine ungeordnete Probe mit Wiederholung vom Umfang r aus A können wir uns wie folgt entstanden denken: Wir wählen eine Urne aus und kennzeichnen diese ”gezogene” Urne, indem wir eine der r Kugeln hineinlegen. Dieses Auswählen wird wiederholt, bis alle r Kugeln verteilt sind. Die möglichen Kugelverteilungen entsprechen den ungeordneten Proben mit Wiederholung, denn zum einen kann jede Urne mehrmals herausgegriffen werden, zum anderen sind die Kugeln nicht unterscheidbar, das Vertauschen von Kugeln (Änderung der Reihenfolge) liefert keine neue Kugelverteilung. Wieviele Kugelverteilungen sind möglich? Wir symbolisieren eine Kugelverteilung durch eine Graphik der folgenden Art ◦ |. ◦◦ | ... | |{z} ◦ | |{z} | |{z} | ◦| ◦{z◦◦} | |{z} U1 U2 U3 U4 Un Dabei stellen die Kreise die r Kugeln dar. Die n Urnen werden durch senkrechte Striche abgegrenzt, wobei aufeinanderfolgende Urnen jeweils nur durch einen c °V. Steinmetz: Grundzüge der Statistik –18– Strich getrennt sind. Man benötigt also als Symbole r Kreise n + 1 Striche, also insgesamt n + r + 1 Plätze, um diese Symbole nebeneinander anordnen zu können. Wir brauchen uns nur noch zu fragen, auf wieviele Arten man die Striche und Kreise diesen n+r+1 Plätzen zuordnen kann. Dabei ist noch folgende Bedingung zu beachten: Auf den beiden äußeren Plätzen müssen immer Striche stehen (sonst würden Kugeln außerhalb der Urnen liegen). Diese beiden Plätze sind immer durch jeweils einen Strich besetzt. Somit reduziert sich die Zahl der Plätze auf (n + r + 1) − 2 = n + r − 1. Wir können uns jetzt fragen: Wieviele Möglichkeiten gibt es, r Kreise auf n+r−1 Plätze zu verteilen, wobei man dann die freibleibenden Plätze durch Striche besetzt?¡ ¢ Es gibt n+r−1 Möglichkeiten nach Satz (1.3.10). Sind die Kugeln verteilt, liegt r die Strichverteilung auch fest. 1.3.14 Bemerkung: Die Interpretation der zuvor behandelten Kombinationen und Variationen anhand geeigneter Urnenmodelle ist im folgenden Tableau gegeben: Interpretation als Urnenmodell n ∈ N Urnen, r ∈ N Kugeln Bedingung über r 1≤r≤n 1≤r≤n Kugeln sind in jeder Urne sind unterscheidbar höchstens (durchnume- r Kugeln riert) unterscheidbar höchstens (durchnume- eine riert) Kugel nicht unter- höchstens scheidbar r Kugeln nicht unterscheidbar höchstens eine Kugel c °V. Steinmetz: Grundzüge der Statistik Kugelverteilung entspricht geordnete Probe (Variation) mit Wiederholung geordnete Probe (Variation) ohne Wiederholung ungeordnete Probe (Kombination) mit Wiederholung ungeordnete Probe (Kombination) ohne Wiederholung Anzahl der Kugelverteilungen nr = w Vnr (n)r = Vnr ¡n+r−1¢ r ¡n¢ r = w Cnr = Cnr –19– 2 Wahrscheinlichkeitsräume 2.1 Stichprobenräume und Ereignisräume 2.1.1 Definition: Es seien Ω 6= ∅ eine Menge und F eine Menge von Teilmengen von Ω, d.h. F ⊆ PΩ. F heißt σ − Algebra in Ω, wenn gilt: 3 (.1) Ω ∈ F (.2) A ∈ F ⇒ CΩ A ∈ F (.3) (∀j ∈ N)(Aj ∈ F) ⇒ ∞ S j=1 Aj ∈ F 2.1.2 Satz: Es sei F eine σ -Algebra in Ω 6= ∅. Dann gilt (.1) ∅ ∈ F (.2) (∀j ∈ N)(Aj ∈ F ⇒ ∞ T j=1 Aj ∈ F) Beweis: zu (.1) Nach (2.1.1.1) gilt Ω ∈ F, damit folgt wegen (2.1.1.2) auch CΩ Ω ∈ F, also mit CΩ Ω = ∅ auch ∅ ∈ F. zu (.2) Es gilt ∞ T j=1 Aj = CC ∞ T Aj (1.1.22.3) = j=1 C[ ∞ S j=1 CAj ]. Wegen der Voraussetzung A1 , A2 , ... ∈ F folgt S mit (2.1.1.2) auch CA1 , CA2 , ... ∈ F, also S wegen (2.1.1.3) auch CAj ∈ F. Nochmalige Anwendung T von (2.1.1.2) liefert C[ CAj ] ∈ F, also Aj ∈ F. 2.1.3 Folgerung: Es sei F eine σ−Algebra in Ω 6= ∅, weiterhin sei n ∈ N. Dann gilt n S (.1) A1 , ..., An ∈ F ⇒ Aj ∈ F (.2) A1 , ..., An ∈ F ⇒ j=1 n T j=1 Aj ∈ F (.3) A, B ∈ F ⇒ A\B ∈ F 3 Ω wird als Stichprobenraum eines Wahrscheinlichkeitsraumes interpretiert werden und F als zugehöriger Ereignisraum (vgl. dazu Paragraph (2.2)) c °V. Steinmetz: Grundzüge der Statistik –20– Beweis: zu (.1) Wähle ∅ =: An+1 =: An+2 = ... ∈ F. Dann gilt n S Aj = j=1 Wähle Ω =: An+1 =: An+2 = ... ∈ F. Dann gilt n T j=1 A1 , ..., An , An+1 ... ∈ F folgt mit (2.1.2.2) die Behauptung. Aj , wegen j=1 A1 , ..., An , An+1 ... ∈ F folgt mit (2.1.1.3) die Behauptung. zu (.2) ∞ S Aj = ∞ T Aj , wegen j=1 zu (.3) Es gilt A\B = A ∩ CΩ B. Wegen B ∈ F und (2.1.1.2) folgt CΩ B ∈ F, wegen A ∈ F mit (2.1.3.2) auch A ∩ CΩ B ∈ F und damit die Behauptung. 2.1.4 Vereinbarung: Als σ−Algebra in R (bzw. Rn ) soll die ”kleinste” σ−Algebra in R (bzw. Rn ) gewählt werden, die alle Intervalle (bzw. n-dimensionalen Intervalle) als Elemente enthält. Sie werde mit B1 (bzw. Bn ) bezeichnet und heiße die natürliche σ−Algebra in R (bzw. Rn ) oder die Borelalgebra in R (Borel algebra) (bzw. Rn ). 2.1.5 Bemerkung: [(nicht klausurrelevant)] Eine Präzisierung der Vorgehensweise aus (2.1.4) kann durch folgende Schritte erfolgen: α) Man kann zeigen: Ist Ω 6= ∅ eine Menge und ist (Fj )j∈J eineT (eventuFj eine ell überabzählbare) Familie von σ−Algebren in Ω, so ist auch j∈J σ−Algebra in Ω. β ) Es sei Ω 6= ∅ eine Menge und A ⊆ PΩ. Der Durchschnitt aller σ−Algebren in Ω, die A enthalten, ist eine σ−Algebra in Ω und heißt die von A erzeugte σ−Algebra in Ω, sie wird mit F(A) bezeichnet. A heißt Erzeugendensystem von F(A) . γ) Es sei Ω 6= ∅ eine Menge und A ⊆ PΩ. F(A) ist die kleinste A enthaltende σ−Algebra in Ω in dem Sinne, daß für jede σ−Algebra F 0 in Ω mit A ⊆ F 0 gilt F(A) ⊆ F 0 . δ) Es sei A die Menge aller Intervalle in R. Dann ist B1 = F(A) als die von A in R erzeugte σ−Algebra die kleinste σ−Algebra in R, die alle Intervalle enthält (entsprechend für Bn ). c °V. Steinmetz: Grundzüge der Statistik –21– 2.1.6 Bemerkung: Weiterhin ist auch die folgende Konstruktion bisweilen nützlich: Es seien Ω 6= ∅ eine Menge, F eine σ−Algebra in Ω und A ⊆ Ω mit A 6= ∅ (A muß nicht notwendig Element von F sein). Dann ist F|A := {X ∩ A | X ∈ F} eine σ−Algebra in A, man bezeichnet sie als die Spur (trace) von F in A oder als Einschränkung (restriction) von F auf A. 2.1.7 Bemerkung: Ein wichtiger Spezialfall liegt vor, wenn eine σ−Algebra nur endlich viele Elemente enthält. In diesem Fall ist die Forderung (2.1.1.3) äquivalent zu der etwas einfacheren Forderung (.1) A, B ∈ F ⇒ A ∪ B ∈ F. Mengensysteme (auch nicht endliche), welche die Forderungen (2.1.1.1), (2.1.1.2), (2.1.7.1) erfüllen, haben auch eigenständiges Interesse und werden als Boolesche Mengenringe oder kurz Ringe bezeichnet. Es gilt: Jede σ−Algebra ist zugleich Ring. Nicht jeder Ring ist zugleich σ−Algebra, aber jeder endliche Ring ist zugleich σ−Algebra. c °V. Steinmetz: Grundzüge der Statistik –22– 2.2 Wahrscheinlichkeitsräume 2.2.1 Definition: Es seien Ω und F Mengen und P : F → R eine Abbildung. Das Tripel (Ω, F, P ) heißt ein Wahrscheinlichkeitsraum (probability space, WR), wenn gilt (.1) Ω 6= ∅ (.2) F ist eine σ-Algebra in Ω (.3) P : F → R ist eine Abbildung mit (W1) A ∈ F ⇒ P A ≥ 0 (W2) (A1 , A2 , ... ∈ F) und (Ai ∩ Aj = ∅ für i 6= j) impliziert P ∞ S Ai = i=1 (W3) P Ω = 1. ∞ P P Ai i=1 Man nennt Ω den Stichprobenraum (sample space), Ergebnisraum und insbesondere bei deterministischen Häufigkeitsuntersuchungen auch die Grundgesamtheit des WR und die Elemente von Ω Ergebnisse (outcomes), im Fall der Häufigkeitsuntersuchung auch Untersuchungseinheiten. Weiterhin bezeichnet man F als den Ereignisraum des WR, die Elemente von F als Ereignisse (events) und P als die Wahrscheinlichkeit (Wahrscheinlichkeitsmaß, probability measure). (W1) ist die Forderung der Nichtnegativität einer Wahrscheinlichkeit, (W2) die der σ-Additivität und (W3) die der Normierung.4 2.2.2 Bemerkung: Wird ein WR (Ω, F, P ) zur Beschreibung eines Zufallsexperimentes benutzt, so sagt man, ein bestimmtes Ereignis A ∈ F sei bei einer Durchführung des Experimentes eingetreten, wenn das beobachtete Ergebnis ω ∈ Ω ein Element von A ist, d.h. wenn gilt ω ∈ A. 2.2.3 Bemerkung: Bei praktischen Anwendungen des Modells (Ω, F, P ) muß der Stichprobenraum Ω in eindeutiger Weise durch eine zeitliche, räumliche und sachliche Charakterisierung seiner Elemente festgelegt sein, man spricht von identifizierenden Merkmalen. 4 Die Axiome (W1), (W2), (W3) gehen auf A.A.Kolmogorov (1933) zurück. c °V. Steinmetz: Grundzüge der Statistik –23– 2.2.4 Bemerkung: Ein wichtiger Spezialfall liegt vor, wenn der Ereignisraum F eines Wahrscheinlichkeitsraumes (Ω, F, P ) nur endlich viele Ereignisse enthält. In diesem Fall ist die Forderung (W2) äquivalent zu der etwas einfacheren Forderung (W 20 ) : A, B ∈ F und A ∩ B = ∅ impliziert P (A ∪ B) = P A + P B (vgl. dazu auch Bemerkung (2.1.7) und Satz (2.2.7)). Der Ereignisraum ist insbesondere dann endlich, wenn Ω eine endliche Menge ist. 2.2.5 Satz (Einbettung der deskriptiven Statistik in die Wahrscheinlichkeitstheorie): Es seien Ω eine nicht leere, endliche Menge und F eine σ-Algebra in Ω. Dann ist die relative Häufigkeit (relative frequency) bzgl. Ω H:F →R H(A) = mit ]A für alle A ∈ F ]Ω ein Wahrscheinlichkeitsmaß über F und folglich (Ω, F, H) ein WR. Beweis: Es sind für H die Forderungen (W1), (W2), (W3) aus Def. (2.2.1) nachzuweisen. Wegen der Endlichkeit von F genügt es, statt (W2) die Gültigkeit von (W20 ) aus Bemerkung (2.2.4) zu verifizieren. zu (W1) Nach Definition (1.2.3) sind ]Ω > 0 und ]A ≥ 0 für alle A ∈ F, also gilt: H(A) ≥ 0. zu (W20 ) Es seien A, B ∈ F mit A ∩ B = ∅. Nach Satz (1.2.9) gilt ](A ∪ B) = ]A + ]B, H(A ∪ B) = also ] A ]B ](A ∪ B) = + = H(A) + H(B). ]Ω ]Ω ]Ω zu (W3) Es gilt H(Ω) = ]Ω = 1. ]Ω c °V. Steinmetz: Grundzüge der Statistik –24– 2.2.6 Bemerkung: Einen WR (Ω, F, P ) mit endlichem Ω, F = PΩ 5 und P (.) = H(.), d.h. der relativen Häufigkeit als Wahrscheinlichkeitsmaß, bezeichnet man auch als Laplaceschen WR, P als Laplacesche Wahrscheinlichkeit. In diesem Fall gilt insbesondere für die einpunktigen Ereignisse, die sogenannten Elementarereignisse: 1 P {ω} = für alle ω ∈ Ω. ]Ω 2.2.7 Satz: Es sei (Ω, F, P ) ein WR. Dann gilt (.1) P∅ = 0 (.2) A1 , ..., An ∈ F und Ai ∩ Aj = ∅ für i 6= j impliziert n n S P P ( Ai ) = P Ai i=1 i=1 Beweis: zu (.1) Es sei B1 , B2 , ... ∈ F die abzählbar unendliche Folge von Ereignissen mit Ω =: B1 ∅ =: B2 =: B3 =: .... Dann gilt ∞ [ Bj mit Bi ∩ Bj = ∅ für i 6= j. Ω= j=1 Nach (W2) folgt PΩ = P ∞ [ Bj = j=1 Nach (W3) folgt damit 1=1+ ∞ X P Bj = P Ω + j=1 ∞ X P ∅, ∞ X P ∅. j=2 also j=2 ∞ X P∅ = 0 j=2 und damit muß wegen (W1) gelten P∅ = 0 zu (.2) Wähle ∅ =: An+1 =: An+2 =: ... Damit gilt wegen Ai ∩ Aj = ∅ für i, j ∈ N mit i 6= j P n [ j=1 5 Aj = P ∞ [ j=1 (W 2) Aj = ∞ X j=1 P Aj = n X j=1 P Aj + ∞ X j=n+1 (.1) P Aj = n X P Aj j=1 Die Potenzmenge PΩ erfüllt trivialerweise die Eigenschaften (2.1.1.1), (2.1.1.2), (2.1.1.3), ist also stets eine σ-Algebra in Ω 6= ∅. c °V. Steinmetz: Grundzüge der Statistik –25– 2.2.8 Satz: Es seien (Ω, F, P ) ein WR und A, B ∈ F. Dann gilt: (.1) P CA = 1 − P A (.2) P (A ∪ B) = P A + P B − P (A ∩ B) (.3) P (A ∪ B) ≤ P A + P B (.4) A ⊆ B ⇒ P A ≤ P B (.5) P A ≤ 1 Beweis: zu (.1) Es ist A ∪ CA = Ω und A ∩ CA = ∅. Damit folgt nach (2.2.7.2) P Ω = P A + P CA Nach (W3) ist P Ω = 1. Also gilt P Ω = P A + P CA = 1 und somit P A = 1 − P CA. zu (.2) Es ist: A ∪ B = (A \ B) ∪ (A ∩ B) ∪ (B \ A) A A\B A∩B B B\A Nach Folgerung (2.1.3) gilt wegen A, B ∈ F auch A \ B ∈ F, A ∩ B ∈ F, B \ A ∈ F. Weiter gilt: (A \ B) ∩ (B \ A) = ∅ (A \ B) ∩ (A ∩ B) = ∅ (∗) (B \ A) ∩ (A ∩ B) = ∅ Damit folgt nach (2.2.7.2) für die Wahrscheinlichkeit von A ∪ B : P (A ∪ B) = P (A \ B) + P (B \ A) + P (A ∩ B) (∗∗) c °V. Steinmetz: Grundzüge der Statistik –26– Außerdem hat man: A = (A \ B) ∪ (A ∩ B) B = (B \ A) ∪ (A ∩ B) Da die Mengen der rechten Seiten disjunkt sind (vgl. (∗)), folgt nach (2.2.7.2) P A = P (A \ B) + P (A ∩ B) P B = P (B \ A) + P (A ∩ B) und damit P (A \ B) = P A − P (A ∩ B) und P (B \ A) = P B − P (A ∩ B) Aus (∗∗) erhält man somit: P (A ∪ B) = P A − P (A ∩ B) + P B − P (A ∩ B) + P (A ∩ B) = P A + P B − P (A ∩ B). zu (.3) Nach (2.2.8.2) ist P (A ∪ B) + P (A ∩ B) = P A + P B. Da P (A ∩ B) ≥ 0 nach (W1), folgt: P (A ∪ B) ≤ P A + P B. zu (.4) Es sei A ⊆ B. Man betrachte: B A B\A Es ist B = (B \ A) ∪ A, wobei (B \ A) ∩ A = ∅. Damit gilt P B = P (B \ A) + P A nach (2.2.7.2). Und da nach (W1) gilt P (B \ A) ≥ 0, folgt P B ≥ P A. zu (.5) P A ≤ 1 folgt aus (.4) wegen A ⊆ Ω und P Ω = 1. c °V. Steinmetz: Grundzüge der Statistik –27– 2.2.9 Satz: Es seien Ω 6= ∅ eine Menge, (ωi )i∈I⊆N eine höchstens abzählbare Familie P von Elementen aus Ω mit ωi 6= ωj für i 6= j, pi ∈ ]0, 1] für alle i ∈ I mit pi = 1 i∈I und F eine σ-Algebra in Ω mit {ωi } ∈ F für alle i ∈ I. Dann ist durch X (∀A ∈ F)(P A := pi ) ωi ∈A eine Wahrscheinlichkeit P : F → R definiert und damit (Ω, F, P ) ein Wahrscheinlichkeitsraum. Insbesondere gilt: P {ωi } = pi für i ∈ I. 2.2.10 Definition: Der Wahrscheinlichkeitsraum (Ω, F, P ) aus dem vorigen Satz und auch die Wahrscheinlichkeit P heißen diskret, die ωi heißen Trägerpunkte von P und die pi die zugehörenden Punktwahrscheinlichkeiten (oder Punktmassen). 2.2.11 Definition: Es seien (Ω, F, P ) ein WR und A ∈ F. A heißt P -fast sicher (almost-sure), wenn P A = 1 gilt. A heißt P -fast unmöglich (almost impossible), wenn P A = 0 gilt. Im letzten Fall nennt man A auch eine P -Nullmenge. Ω selbst heißt das sichere Ereignis (sure event), ∅ das unmögliche Ereignis (impossible event). Gilt eine Aussage für mindestens alle Elemente eines P -fast sicheren Ereignisses A ∈ F, so sagt man, sie gelte P -fast sicher (P -fast überall) (almost everywhere) in Ω. c °V. Steinmetz: Grundzüge der Statistik –28– 2.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit 2.3.1 Definition: Es seien (Ω, F, P ) ein WR und A, B Ereignisse aus F mit P A > 0. Man nennt P (B | A) := P (B ∩ A) PA die bedingte Wahrscheinlichkeit von B unter der Hypothese (Bedingung) A (conditional probability of B under A). 2.3.2 Bemerkung: Es sei (Ω, F, P ) ein WR und A ∈ F mit P A > 0. Man kann leicht nachweisen, daß die bedingte Wahrscheinlichkeit P (. | A) als Abbildung P (. | A) : F → R die Eigenschaften (W1), (W2), (W3) einer Wahrscheinlichkeit hat, die Begriffsbildung in Definition (2.3.1) somit berechtigt ist. Also ist durch (Ω, F, P (. | A)) ein weiterer WR gegeben. (zum Beweis siehe z.B. Rényi, A., Wahrscheinlichkeitsrechnung,1966, S.44) 2.3.3 Bemerkung: Es seien (Ω, F, P ) ein WR und A, B ∈ F. Aus folgt (∗) P (A∩B) PA =: P (B | A) mit P A > 0 P (A ∩ B) = P A · P (B | A). Nach (2.2.8.4) gilt wegen A ∩ B ⊆ A stets P (A ∩ B) ≤ P A, insbesondere folgt aus P A = 0 auch P (A ∩ B) = 0. Allerdings ist P (B | A) für P A = 0 nicht definiert, man setzt deshalb fest (.1) P A · P (B | A) := 0 für P A = 0, so daß die Gleichung (∗) für alle A ∈ F gültig ist. 2.3.4 Satz (Multiplikationssatz): Es seien (Ω, F, P ) ein WR und A1 , A2 , ..., An ∈ F für n ∈ N. Dann gilt P (A1 ∩ ... ∩ An ) = P A1 · P (A2 | A1 ) · P (A3 | A1 ∩ A2 ) ·... · P (An | A1 ∩ ... ∩ An−1 ). Dabei sei vereinbart, die rechte Seite gleich Null zu setzen, wenn mindestens k T eine der Wahrscheinlichkeiten P ( Ai ) für k = 1, 2, ..., n − 1 verschwindet, also i=1 mindestens eine der bedingten Wahrscheinlichkeiten nicht definiert ist. Beweis: c °V. Steinmetz: Grundzüge der Statistik –29– Wenn eine der Wahrscheinlichkeiten P ( k T Ai ) = 0 ist und damit nach Verein- i=1 barung auch die rechte Seite der Behauptung, dann verschwindet auch die linke Seite nach (2.2.8.4). Die Gleichheit gilt also. k T Seien nun P ( Ai ) > 0 für alle k ∈ {1, 2, ..., n − 1}. Dann gilt: i=1 P A1 · P (A2 | A1 ) · P (A3 | A1 ∩ A2 ) · ... · P (An | A1 ∩ A2 ∩ ... ∩ An−1 ) = P A1 · P (A1 ∩ A2 ) P (A1 ∩ A2 ∩ A3 ) P (A1 ∩ A2 ∩ ... ∩ An−1 ∩ An ) · · ... · P A1 P (A1 ∩ A2 ) P (A1 ∩ A2 ∩ ... ∩ An−1 ) = P (A1 ∩ A2 ∩ ... ∩ An ) WARNUNG Das vorliegende Kompaktskript ist kein Lehrbuch, sondern es soll die Hörer der Grundzügevorlesungen zur Statistik von dem ablenkenden und oft fehlerhaften Mitschreiben der Formeln entlasten und es ihnen erleichtern, sich auf die vorgetragenen Motivationen und Erläuterungen zu konzentrieren und hierüber individuelle Notizen anzufertigen. Dementprechend sind in diesem Skript nur formale Definitionen und Sätze mit Beweisen oder entsprechenden Literaturangaben enthalten, Bemerkungen dienen zur Ergänzung des Stoffes. Die Motivation und Erläuterung der aufgeführten Begriffe und Aussagen sowie die Behandlung von Beispielen bleiben der Vorlesung und auch den begleitenden Übungen vorbehalten. Ebenso werden Hinweise auf ergänzende und vertiefende Literatur im Verlauf der Vorlesung gegeben. Da das 9. Kapitel keine formalisierten Teile enthält, sind die Hörer hierzu auf eigene Notizen angewiesen. 2.3.5 Satz (von der totalen Wahrscheinlichkeit): Es seien (Ω, F, P ) ein WR und A1 , A2S , ... ∈ F eine abzählbare Folge von Ereignissen mit Ai ∩ Aj = ∅ für i 6= j und Aj = Ω . j Für jedes B ∈ F gilt dann PB = X j P (B | Aj ) · P Aj . Beweis: S S Es ist B = B ∩ Ω = B ∩ ( Aj ) = (B ∩ Aj ) nach (1.1.22.4). j j Da nach Voraussetzung Ai ∩ Aj = ∅ für i 6= j, gilt (B ∩ Ai ) ∩ (B ∩ Aj ) = ∅ für i 6= j und es folgt S P P P B = P ( (B ∩ Aj )) = P (B ∩ Aj ) = P (B | Aj ) · P Aj j j nach Bemerkung (2.3.3). c °V. Steinmetz: Grundzüge der Statistik j –30– 2.3.6 Bemerkung: Gegeben seien die Voraussetzungen des vorigen Satzes. Die Wahrscheinlichkeit P B wurde interpretiert als die Wahrscheinlichkeit, bei zufälliger Auswahl eines Elementes aus Ω gerade ein Element aus B zu erhalten. Dann besagt der Satz von der totalen Wahrscheinlichkeit, daß man diese Auswahl in zwei Stufen vornehmen kann, ohne insgesamt die Chancen zu verändern, ein Element von B zu erhalten: Im ersten Schritt wählt man entsprechend den Wahrscheinlichkeiten P A1 , P A2 ... eine Zelle Aj aus, im zweiten Schritt dann innerhalb der ausgewählten Zelle Aj ein Element entsprechend der bedingten Wahrscheinlichkeit P (. | Aj ). Diese zweistufige Auswahl ist für den Fall einer Zerlegung von Ω in vier Zellen in dem folgenden Baumdiagramm veranschaulicht: P (B|A1 ) u A1 1 − P (B|A1 ) P A1 P (B|A2 ) Au2 1 − P (B|A2 ) Start u u P A1 P (B|A1 ) u P A1 (1 − P (B|A1 )) u P A2 P (B|A2 ) u P A2 (1 − P (B|A2 )) P A2 P A3 P (B|A3 ) u A3 1 − P (B|A3 ) P A4 P (B|A4 ) u A4 1 − P (B|A4 ) u P A3 P (B|A3 ) u u P A4 P (B|A4 ) u PB = c °V. Steinmetz: Grundzüge der Statistik P A3 (1 − P (B|A3 )) P A4 (1 − P (B|A4 )) P4 i=1 P Ai P (B|Ai ) –31– 1 2 ' A A º ¹ & B A3 A4 · ¸ $ Ω % 2.3.7 Satz (Bayes): Es seien (Ω, F, P ) ein WR und A1 , A2S , ... ∈ F eine abzählbare Folge von Ereignissen mit Ai ∩ Aj = ∅ für i 6= j und Aj = Ω. Weiter sei B ∈ F mit P B > 0. j Dann gilt: P (B | Ak )P Ak P (Ak | B) = P P (B | Aj )P Aj j c °V. Steinmetz: Grundzüge der Statistik –32– Beweis: Es ist P (Ak | B) = P (Ak ∩ B) PB nach Definition (2.3.1) = P (B | Ak )P Ak PB nach Bemerkung (2.3.3) P (B | Ak )P Ak = P P (B | Aj )P Aj nach Satz (2.3.5) j 2.3.8 Definition: Es seien (Ω, F, P ) ein WR und A, B ∈ F. A und B heißen stochastisch unabhängig (stochastically independent) bzgl. P , wenn gilt: P (A ∩ B) = P A · P B. 2.3.9 Satz: Es seien (Ω, F, P ) ein WR, A, B ∈ F mit P A > 0, P B > 0. Dann sind die folgenden Aussagen äquivalent: (.1) A und B sind stochastisch unabhängig. (.2) P (A | B) = P A (.3) P (B | A) = P B Beweis: Der Beweis werde als Ringschluß geführt (.1) ⇒ (.2) ⇒ (.3) ⇒ (.1) (.1) ⇒ (.2) : (.2) ⇒ (.3) : (.3) ⇒ (.1) : A, B seien stochastisch unabhängig, d.h. P (A ∩ B) = P A · P B = P (A | B), Damit ist P A = P (A∩B) PB wobei P B 6= 0 nach Voraussetzung. Es ist P A = P (A | B) = P (A∩B) und P A > 0 PB nach Voraussetzung. Dann gilt: P B = P (A∩B) = P (B | A), PA Aus P B = P (B | A) = P (A∩B) folgt: PA P (A ∩ B) = P A · P B, also sind A und B stochastisch unabhängig. Damit ist die Äquivalenz der Aussagen gezeigt. c °V. Steinmetz: Grundzüge der Statistik –33– 2.3.10 Satz: Es seien (Ω, F, P ) ein WR und A, B ∈ F. Dann sind die folgenden Aussagen äquivalent: (.1) A, B sind stochastisch unabhängig (.2) A, CB sind stochastisch unabhängig (.3) CA, B sind stochastisch unabhängig (.4) CA, CB sind stochastisch unabhängig Beweis: Der Beweis werde als Ringschluß geführt: (.1) ⇒ (.2) ⇒ (.4) ⇒ (.3) ⇒ (.1). Hier soll nur gezeigt werden (.1) ⇒ (.2). Der Beweis der übrigen Aussagen folgt dann durch geeignete Umbenennung. (.1) ⇒ (.2) : Stets gilt P A = P (A ∩ B) + P (A ∩ CB) (∗) Wenn A und B unabhängig sind, gilt P (A ∩ B) = P A · P B und es folgt aus (∗) P A = P A · P B + P (A ∩ CB), also P (A ∩ CB) = P A − P A · P B = P A(1 − P B) = P A · P CB, also sind A und CB unabhängig. 2.3.11 Definition: Es seien (Ω, F, P ) ein WR und (Ai )i∈I eine von Ereignissen aus F. Die Familie heißt stochastisch unabhängig, wenn für jede endliche Teilmenge K ⊆ I gilt: à ! \ Y Ai = P P Ai . i∈K i∈K 2.3.12 Bemerkung: Durch vollständige Induktion kann man zeigen, daß auch die Verallgemeinerung von Satz (2.3.10) auf n ∈ N Ereignisse gilt. c °V. Steinmetz: Grundzüge der Statistik –34– 2.4 Abbildungen von Stichprobenräumen 2.4.1 Definition: Es seien Ω und Ω0 zwei nicht leere Mengen und F, F 0 σ−Algebren in Ω bzw. Ω0 . Eine Abbildung f : Ω → Ω0 heißt F − F 0 − meßbar (measurable), wenn gilt: (∀A0 ∈ F 0 )(f −1 (A0 ) ∈ F). 2.4.2 Satz: Es seien (Ω, F, P ) ein WR, Ω0 eine nicht leere Menge, F 0 eine σ−Algebra in Ω0 , f : Ω → Ω0 eine F − F 0 − meßbare Abbildung. Dann ist durch (∀A0 ∈ F 0 )(P 0 A0 := P f −1 (A0 )) eine Wahrscheinlichkeit P 0 : F 0 → R definiert und (Ω0 , F 0 , P 0 ) ist ein WR. Beweis: Zu zeigen sind (W1), (W2) und (W3). Da f F − F 0 −meßbar ist, ist f −1 A0 ∈ F und P 0 A0 wohldefiniert. zu (W1) Da P A ≥ 0 für alle A ∈ F, gilt P 0 A0 := P f −1 A0 ≥ 0 für alle A0 ∈ F 0 . zu (W2) Es seien A01 , A02 , ... ∈ F 0 mit A0i ∩ A0j = ∅ für i 6= j. Dies impliziert: f −1 (A01 ), f −1 (A02 ), ... ∈ F mit f −1 (A0i ) ∩ f −1 (A0j ) = ∅ für i 6= j nach (1.1.18.4). ∞ ∞ S S f −1 (A0k ) (Verallgemeinerung von (1.1.18.3)) Wegen f −1 ( A0k ) = k=1 k=1 gilt: ∞ ∞ ∞ ∞ ∞ S S S P P P 0 ( A0k ) = P f −1 ( A0k ) = P ( f −1 (A0k )) = P f −1 (A0k ) = P 0 A0k . k=1 k=1 k=1 k=1 k=1 zu(W3) Es gilt: P 0 Ω0 = P f −1 (Ω0 ) = P Ω = 1. Damit sind die drei Eigenschaften für P 0 gezeigt, folglich ist P 0 eine Wahrscheinlichkeit und damit (Ω0 , F 0 , P 0 ) ein WR. 2.4.3 Definition: Es seien (Ω, F, P ) ein WR, Ω0 eine nicht leere Menge, F 0 eine σ-Algebra in Ω0 , f : Ω → Ω0 eine F − F 0 − meßbare Abbildung. Man bezeichnet die durch (∀A0 ∈ F 0 )(P 0 A0 := P f −1 (A0 )) c °V. Steinmetz: Grundzüge der Statistik –35– definierte Wahrscheinlichkeit P 0 : F 0 → R als die Bildwahrscheinlichkeit von P bzgl. f . 2.4.4 Satz: Es seien Ω, Ω0 , Ω00 nicht leere Mengen, F, F 0 , F 00 seien σ−Algebren in Ω, Ω0 bzw. Ω00 und f : Ω → Ω0 eine F − F 0 − meßbare Abbildung g : Ω0 → Ω00 eine F 0 − F 00 − meßbare Abbildung. Dann ist g ◦ f : Ω → Ω00 eine F − F 00 − meßbare Abbildung. (zum Beweis vgl. z.B. Schmitz, N., Plachky, D.: Vorlesungen über Wahrscheinlichkeitstheorie I(1976), S.111 Lemma (3.11)). 2.4.5 Bemerkung: Es seien Ω, Ω0 nicht leere Mengen und F, F 0 σ−Algebren in Ω bzw. Ω0 . Weiter sei E 0 ein Erzeugendensystem von F 0 . Eine Abbildung f : Ω → Ω0 ist genau dann F − F 0 − meßbar, wenn gilt f −1 (A0 ) ∈ F ∀A0 ∈ E 0 . (vgl. Bauer, H.: Wahrscheinlichkeitstheorie und Grundzüge der Maßtheorie (1978), S.41). 2.4.6 Bemerkung: Es sei f : Rk → Rn mit k, n ∈ N eine stetige Abbildung. Dann ist f Bk − Bn −meßbar. (vgl. Bauer, H.: Wahrscheinlichkeitstheorie und Grundzüge der Maßtheorie (1978), S. 41). c °V. Steinmetz: Grundzüge der Statistik –36– 2.5 Produkte von Wahrscheinlichkeitsräumen 2.5.1 Satz: Es seien (Ω, F, P ) und (Ω0 , F 0 , P 0 ) zwei Wahrscheinlichkeitsräume und weiter Ω00 = Ω × Ω0 . F 00 sei die kleinste 6 σ-Algebra in Ω00 , die alle Mengen A × A0 mit A ∈ F, A0 ∈ F 0 enthält. Dann ist durch die Festsetzung P 00 (A × A0 ) := P A · P 0 A0 für alle A ∈ F, A0 ∈ F 0 eindeutig eine Wahrscheinlichkeit P 00 : F 00 → R festgelegt. (zum Beweis vgl. z.B. Schmitz, N.; Plachky, D.: Vorlesungen über Wahrscheinlichkeitstheorie I (1976), S.176 ff.) 2.5.2 Definition: Gegeben seien die Voraussetzungen und Bezeichnungen des vorigen Satzes. Dann heißt (Ω00 , F 00 , P 00 ) das Produkt (product) aus den WR (Ω, F, P ) und (Ω0 , F 0 , P 0 ) und man schreibt (Ω00 , F 00 , P 00 ) = (Ω, F, P ) ⊗ (Ω0 , F 0 , P 0 ). Weiterhin heißt P 00 die aus P und P 0 gebildete Produktwahrscheinlichkeit (product measure) und man schreibt P 00 = P ⊗ P 0 . 2.5.3 Bemerkung: Die vorige Definition läßt sich ohne Schwierigkeiten auf den Fall des Produkts von mehr als zwei, aber endlich vielen WR verallgemeinern. Produktwahrscheinlichkeitsräume bieten sich an zur Beschreibung von Zufallsexperimenten, die aus sich nicht gegenseitig beeinflussenden Einzelexperimenten zusammengesetzt sind: Mit A × A0 ∈ F 00 6 vgl. dazu (2.1.5 α) ,...,(2.1.5 γ). c °V. Steinmetz: Grundzüge der Statistik –37– gilt auch Ω × A0 ∈ F 00 und A × Ω0 ∈ F 00 und es folgt mit A × A0 = (A × Ω0 ) ∩ (Ω × A0 ) wegen der Produkteigenschaft von P 00 P 00 [A × Ω0 ) ∩ (Ω × A0 )] = P 00 (A × A0 ) = P A · P 0 A0 = (P A · P 0 Ω0 ) · (P Ω · P 0 A0 ) = P 00 (A × Ω0 ) · P 00 (Ω × A0 ). Also sind A × Ω0 und Ω × A0 unabhängige Ereignisse, wobei zu beachten ist: A × Ω0 tritt genau dann ein, wenn A eintritt, Ω × A0 tritt genau dann ein, wenn A0 eintritt. Ist insbesondere A = {ω}, A0 = {ω 0 }, so folgt P 00 {(ω, ω 0 )} = P {ω} · P 0 {ω 0 }. c °V. Steinmetz: Grundzüge der Statistik –38– 3 Zufallsvariablen 3.1 Eindimensionale Zufallsvariablen 3.1.1 Definition: Es sei (Ω, F, P ) ein Wahrscheinlichkeitsraum. Eine Abbildung X : Ω → R, die F − B1 −meßbar ist, heißt eindimensionale Zufallsvariable (one dimensional random variable, ZV) über (Ω, F, P ). Die Bildwahrscheinlichkeit von P bzgl. X bezeichnet man mit QX und nennt sie die Wahrscheinlichkeitsverteilung (distribution, WV) der ZV X. (Ω, F, P ) X Ω −−−−−−−−−→ R (R, B1 , QX ) 3.1.2 Definition: Es sei X eine ZV mit der WV QX . Die Zufallsvariable und auch ihre Wahrscheinlichkeitsverteilung heißen diskret, wenn (R, B1 , QX ) ein diskreter Wahrscheinlichkeitsraum ist. (Vgl. Satz (2.2.9) und Definition (2.2.10)) 3.1.3 Bemerkung: Es seien (Ω, F, P ) ein WR, X : Ω → R eine ZV und B ∈ B1 . Nach Definition (3.1.1) und Definition (2.4.3) gilt QX B = P X −1 B = P {ω | ω ∈ Ω ∧ X(ω) ∈ B}. Man führt die abgekürzte Schreibweise ein {X ∈ B} := {ω | ω ∈ Ω ∧ X(ω) ∈ B} und nennt {X ∈ B} ein durch Bedingungen über X bestimmtes Ereignis aus F. Speziell schreibt man entsprechend {X ≤ a} := {ω | ω ∈ Ω ∧ X(ω) ≤ a} {X = a} := {ω | ω ∈ Ω ∧ X(ω) = a} usw. 3.1.4 Definition: X sei eine eindimensionale ZV über dem WR (Ω, F, P ) mit der WV QX . Die Abbildung FX : R → R mit FX (x) := QX ] − ∞, x] = P {X ≤ x} ∀x ∈ R heißt Verteilungsfunktion (distribution function of X, VF) der ZV X. 7 7 VORSICHT: Bisweilen wird in der Literatur FX (x) := QX ] − ∞, x[ definiert, so daß die VF linksseitig stetig ist. c °V. Steinmetz: Grundzüge der Statistik –39– 3.1.5 Satz: Es sei FX (.) Verteilungsfunktion einer eindimensionalen Zufallsvariablen X. Dann gilt (.1) FX ist monoton wachsend, d.h.: x < y ⇒ FX (x) ≤ FX (y) (.2) FX ist rechtsseitig stetig,7 d.h.: lim FX (x + h) = FX (x) ∀x ∈ R h>0 h→0 (.3) (.4) lim FX (x) = 1 (abgekürzte Schreibweise FX (∞) = 1) x→∞ lim FX (x) = 0 (abgekürzte Schreibweise FX (−∞) = 0) x→−∞ (zum Beweis vgl. z.B. Schmitz, N., Plachky, D.: Vorlesungen über Wahrscheinlichkeitstheorie I (1976), S. 94, 95, Lemma (2.52)). 3.1.6 Satz: Es seien FX (.) die VF zu einer ZV X und a, b ∈ R mit a ≤ b. Dann gilt QX ]a, b] = FX (b) − FX (a) . Beweis: Es ist FX (b) = QX ] − ∞, b] und FX (a) = QX ] − ∞, a]. Weiterhin gilt wegen a ≤ b: ] − ∞, b] =] − ∞, a] ∪ ]a, b] mit ] − ∞, a] ∩ ]a, b] = ∅. Damit folgt QX ] − ∞, b] = QX ] − ∞, a] + QX ]a, b] also QX ]a, b] = QX ] − ∞, b] − QX ] − ∞, a] = FX (b) − FX (a). 3.1.7 Satz: Es seien FX (.) die VF einer ZV X und a ∈ R. Dann gilt QX {a} = FX (a) − FX (a − 0) mit FX (a − 0) := lim FX (a − h) h>0 h→0 (z.Bew.vgl.z.B. Heinhold, J., Gaede, K.W.: Ingenieur-Statistik (1972), S. 35) c °V. Steinmetz: Grundzüge der Statistik –40– 3.1.8 Satz: Es seien FX (.) die VF einer ZV X und a, b ∈ R mit a < b. Dann gilt (.1) QX ]a, b[ = FX (b − 0) − FX (a) (.2) QX [a, b] = FX (b) − FX (a − 0) (.3) QX [a, b[ = FX (b − 0) − FX (a − 0) (.4) QX ] − ∞, b] = FX (b) (.5) QX ] − ∞, b[ = FX (b − 0) (.6) QX ]a, ∞[ = 1 − FX (a) (.7) QX [a, ∞[ = 1 − FX (a − 0) Beweis: Es soll exemplarisch nur die Aussage (.1) bewiesen werden: Es gilt ]a, b] = ]a, b[ ∪ {b} mit ]a, b[ ∩ {b} = ∅. Damit folgt QX ]a, b] = QX ]a, b[ + QX {b} also QX ]a, b[ = QX ]a, b] − QX {b} 3.1.6,3.1.7 = FX (b) − FX (a) − (FX (b) − FX (b − 0)) = FX (b − 0) − FX (a) 3.1.9 Definition: Es sei X eine ZV mit der VF FX (.). Gilt für ein x ∈ R QX {x} = FX (x) − FX (x − 0) > 0, so heißt x eine Sprungstelle von FX (.) und QX {x} die zugehörige Sprunghöhe. 3.1.10 Bemerkung: Eine VF hat höchstens abzählbar unendlich viele Sprungstellen. (vgl. Schmitz, N., Plachky, D.: Vorlesungen über Wahrscheinlichkeitstheorie I (1976), S. 103, Satz (2.55)). Die Sprungstellen sind die Trägerpunkte von Punktwahrscheinlichkeiten; die Punktwahrscheinlichkeiten selbst stimmen mit den entsprechenden Sprunghöhen überein. Ist eine ZV X diskret, so soll auch die VF FX als diskret bezeichnet werden. c °V. Steinmetz: Grundzüge der Statistik –41– 3.1.11 Definition: Es sei X eine eindimensionale ZV mit der WV QX und der VF FX . Die Zufallsvariable (und auch QX bzw. FX ) heißen (total)stetig oder (absolut)stetig (absolutely continuous), wenn es eine Abbildung fX : R → R gibt mit (.1) fX (x) ≥ 0 für alle x ∈ R (.2) fX ist uneigentlich integrierbar, d.h. Rb fX (x)dx existiert für alle a, b ∈ R ∪ {−∞, ∞} a (.3) FX (x) = Rx −∞ fX (t)dt für alle x ∈ R. Man bezeichnet eine Abbildung fX mit diesen Eigenschaften als eine Dichte(funktion) (density(function)) der ZV X. 3.1.12 Satz: Es sei X eine stetige ZV mit der WV QX , der VF FX und einer Dichte fX . Für a, b ∈ R mit a ≤ b gilt dann: (.1) QX [a, b] = QX ]a, b] = QX [a, b] = QX ]a, b[= FX (b) − FX (a) Rb = fX (x)dx a insbesondere: (.2) R∞ QX {a} = QX [a, a] = 0 fX (x)dx = 1 −∞ (.3) QX [a, ∞[ = QX ]a, ∞ [ = 1 − FX (a) = R∞ QX ] − ∞, b] = QX ] − ∞, b [ = FX (b) = c °V. Steinmetz: Grundzüge der Statistik fX (x)dx a Rb −∞ fX (x)dx –42– Beweis: Es soll hier nur (.1) gezeigt werden: QX ]a, b] = FX (b) − FX (a) = Rb −∞ = Ra fX (x)dx − fX (x)dx + −∞ = Rb Ra (nach Satz (3.1.6)) fX (x)dx (nach (3.1.11.3)) −∞ Rb a fX (x)dx − Ra fX (x)dx (Summeneigenschaft −∞ des Integrals) fX (x)dx a Wegen (3.1.11.3) ist FX eine stetige Funktion, es gilt insbesondere FX (x) = FX (x − 0) für alle x ∈ R, damit folgt unter Zuhilfenahme von (3.1.8) die erste Zeile von (.1). 3.1.13 Satz: Zu jeder Funktion fX : R → R, welche nicht-negativ und uneigentlich integrierbar ist mit Z∞ fX (x)dx = 1 −∞ gibt es genau eine totalstetige VF FX , zu der fX eine Dichtefunktion ist (zum Beweis vgl. z.B. Schmitz, N., Plachky, D.: Vorlesungen über Wahrscheinlichkeitstheorie I (1976), S. 98, 99). 3.1.14 Satz: Ist fX eine Dichte zu einer VF FX , so gilt an allen Stetigkeitsstellen x0 von fX : ¯ dFX (x) ¯¯ = fX (x0 ) dx ¯x=x0 (zum Beweis vgl. z.B. Beyer, u.a.: Wahrscheinlichkeitsrechnung und mathematische Statistik (1976), S. 47). 3.1.15 Definition: (.1) Eine stetige Zufallsvariable X mit Dichte fX heißt symmetrisch verteilt um a ∈ R, wenn fX (a − x) = fX (a + x) für (fast) alle x ∈ R. (.2) Eine diskrete Zufallsvariable X heißt symmetrisch verteilt um a ∈ R, wenn mit jedem Trägerpunkt xi auch 2a − xi Trägerpunkt ist und QX {xi } = QX {2a − xi } (d.h. QX {x} = QX {2a − x} für alle x ∈ R) gilt. c °V. Steinmetz: Grundzüge der Statistik –43– 3.1.16 Diskrete Verteilungen: (.1) Diskrete Gleichverteilung: Trägerpunkte: xi ∈ R, i = 1, 2, ..., n, xi 6= xj für i 6= j Punktwahrscheinlichkeiten: pi = QX {xi } = EX = 1 n P xi ; Var X = i 1 n P i x2i − ( n1 P 1 n xi ) 2 8 i Speziell für n = 1 : Einpunktverteilung auf x1 (.2) Alternativverteilung (Zweipunktverteilung): Trägerpunkte: i ∈ {0, 1} Punktwahrscheinlichkeiten: p = QX {1}; 1 − p = QX {0}, 0 < p < 1 EX = p; Var X = p(1 − p) (.3) Binomialverteilung B(n, p) (0 < p < 1): Trägerpunkte: i ∈ {0, 1, ..., n} Punktwahrscheinlichkeiten: pi = QX {i} = EX = np; Var X = np(1 − p) ¡n¢ i pi (1 − p)n−i =: b(i | n, p), (.4) Hypergeometrische Verteilung: Trägerpunkte: i ∈ N0 mit n, M, N ∈ N0 , max{0, n + M − N } ≤ i ≤ min{n, M }, n ≤ N, M ≤ N ¡M ¢ ¡N −M ¢ · Punktwahrscheinlichkeiten: pi = QX {i} = i ¡N ¢n−i n 8 EX = n · M ; Var X N =n· M N · (1 − EX und Var X werden in §(4.1) definiert c °V. Steinmetz: Grundzüge der Statistik M ) N · N −n N −1 –44– (.5) Geometrische Verteilung: Trägerpunkte: i ∈ N0 Punktwahrscheinlichkeiten: pi = QX {i} = pi (1 − p), 0 < p < 1 EX = p p ; Var X = 1−p (1 − p)2 (.6) Poisson-Verteilung: Trägerpunkte: i ∈ N0 Punktwahrscheinlichkeiten: pi = QX {i} = λi −λ e ; λ>0 i! EX = λ; Var X = λ 3.1.17 (Total)stetige Verteilungen: (.1) Stetige Gleichverteilung: 1 für a ≤ x ≤ b ; a, b ∈ R; a < b b − a fX (x) = 0 sonst EX = a+b (b − a)2 ; Var X = 2 12 (.2) Gaußverteilung N (0, 1) (Standardnormalverteilung): 1 x2 ϕX (x) = fX (x) = √ e− 2 für − ∞ < x < ∞; 2π Rx ΦX (x) = FX (x) = ϕX (y)dy −∞ EX = 0; Var X = 1 (Im folgenden wird bei N (0, 1)-verteiltem X auch die Schreibweise P {a ≤ X ≤ b} =: P {a ≤ N (0, 1) ≤ b} verwendet.) c °V. Steinmetz: Grundzüge der Statistik –45– (.3) Normalverteilung N (µ, σ 2 ) mit σ > 0, µ ∈ R: 1 x−µ 2 1 fX (x) = √ e− 2 ( σ ) für −∞ < x < ∞ ; σ 2π EX = µ; Var X = σ 2 Beachte: Bisweilen wird in der Literatur die Bezeichnung N (µ, σ) anstelle von N (µ, σ 2 ) gebraucht! (.4) Logarithmische Normalverteilung mit σ > 0, µ ∈ R: 1 ln x − µ 2 1 1 −2 σ √ für 0 < x < ∞ e fX (x) = σ 2π x 0 sonst 1 2 2 2 EX = eµ+ 2 σ ; Var X = e2µ+σ (eσ − 1) (.5) t−Verteilung: 9 ) 1 1 Γ( n+1 2 q fX (x) = √ n 2 πn Γ( 2 ) (1 + x )n+1 für − ∞ < x < ∞, n ∈ N n n EX = 0, n ≥ 2; Var X = , n ≥ 3. n−2 (.6) Gamma-Verteilung: p a xp−1 e−ax , Γ(p) fX (x) = 0 x ≥ 0, a > 0, p > 0 sonst p p EX = ; Var X = 2 a a 9 Hinweis: Es ist Γ(p) = R∞ y p−1 e−y dy für p > 0. 0 Ferner gilt: Γ(p + 1) = p · Γ(p) Für ganzzahliges p ≥√0 gilt: Γ(p + 1) = p! Weiter gilt: Γ( 12 ) = π c °V. Steinmetz: Grundzüge der Statistik –46– Spezialfälle der Gamma-Verteilung: (.7) Exponentialverteilung: a · e−ax für x ≥ 0 p = 1; a > 0 : fX (x) = 0 sonst 1 1 EX = ; Var X = 2 a a (.8) Erlang-Verteilung: p > 1 und p ganzzahlig; a = c · p > 0 ap xp−1 e−ax für x ≥ 0 (p − 1)! fX (x) = 0 sonst 1 1 EX = ; Var X = 2 c cp (.9) χ2 -Verteilung: 1 n a = ; p = mit n ∈ N 2 2 n−2 1 − 1x 2 n2 ·Γ( n ) x 2 e 2 für x ≥ 0 2 fX (x) = 0 sonst EX = n; Var X = 2n (.10) Beta-Verteilung: Γ(p + q) p−1 x (1 − x)q−1 für 0 ≤ x ≤ 1, p > 0, q > 0 Γ(p)Γ(q) fX (x) = 0 sonst EX = pq p ; Var X = 2 p+q (p + q) (p + q + 1) c °V. Steinmetz: Grundzüge der Statistik –47– Spezialfall der Beta-Verteilung: (.11) F -Verteilung x n q = n2 mit ganzzahligem m und n und y = 1−x ·m (x 6= 1) m−2 Γ( m+n ) y 2 n m 2 2 2 n für 0 ≤ y ≤ ∞ m m+n Γ( m2 )Γ( n2 ) 2 (my + n) fY (y) = 0 sonst m ; 2 p= EY = n 2n2 (m + n − 2) , n > 2; Var Y = , n>4 n−2 m(n − 2)2 (n − 4) 3.1.18 Bemerkung: Wir werden später oft die Einpunktverteilung als Grenzfall zu den speziellen Familien von Verteilungen hinzunehmen müssen. 3.1.19 Folgerung: Für die Dichte ϕX einer N (0, 1)-verteilten ZV X gilt ϕX (x) = ϕX (−x) für alle x ∈ R, für ihre Verteilungsfunktion ΦX gilt ΦX (x) = 1 − ΦX (−x) Beweis: (−x)2 1 1 x2 ϕX (x) = √ e− 2 = √ e− 2 = ϕX (−x) 2π 2π Rx ϕX (t)dt ΦX (x) = −∞ Setze t = −s, also s = −t und dt = −ds. Für die Integrationsgrenzen gilt dann t s −∞ +∞ +x −x und man erhält c °V. Steinmetz: Grundzüge der Statistik –48– ΦX (x) = − = − = −x R ϕX (−s)ds +∞ −x R ϕX (s)ds (Symmetrie von ϕX (.)) +∞ R∞ ϕX (s)ds (Vertauschung der Integrationsgrenzen) −x = 1 − ΦX (−x) (wegen (3.1.12.3)) 3.1.20 Bemerkung: Von Bedeutung sind auch Verteilungen, die aus einer diskreten und einer totalstetigen Komponente zusammengesetzt sind: Eine ZV X (und ihre WV bzw. VF) mit der VF FX heißt vom gemischten Typ, wenn es eine diskrete Verteilungsfunktion Fd , eine (total)stetige Verteilungsfunktion Fs , ein λ ∈]0, 1[, den sogenannten Mischungsparameter, gibt mit der Eigenschaft FX (x) = λFd (x) + (1 − λ)Fs (x) für alle x ∈ R; FX ist dann also eine Konvexkombination aus Fd und Fs . Beispielsweise läßt sich die Verteilungsfunktion 0 für x < 0 3 + 81 x für 0 ≤ x ≤ 2 FX (x) = 4 1 für 2 ≤ x darstellen als Konvexkombination aus der diskreten Verteilungsfunktion ½ 0 für x < 0 Fd (x) = 1 für 0 ≤ x und der totalstetigen Verteilungsfunktion 0 für x ≤ 0 1 x für 0 ≤ x ≤ 2 Fs (x) = 2 1 für 2 ≤ x mit dem Mischungsparameter λ = 34 . c °V. Steinmetz: Grundzüge der Statistik –49– Fd (x) Fs (x) 6 1 u e FX (x) 1 6 1 - x 2 - 2 x 6 FX (x) = 43 Fd (x) + 14 Fs (x) ∀x ∈ R u e - 2 x (Die Unterscheidung von diskreten und stetigen Zufallsvariablen ist nicht ausschöpfend, es gibt noch einen dritten Grundtyp, Zufallsvariablen mit einer ”singulären” Verteilung, und dementsprechend Mischungen zwischen allen drei Typen.) c °V. Steinmetz: Grundzüge der Statistik –50– 3.2 Abbildungen eindimensionaler Zufallsvariablen 3.2.1 Definition: Es sei X eine eindimensionale ZV über (Ω, F, P ) und G : R → R eine B1 − B1 −meßbare Abblidung. Man nennt die Zufallsvariable G ◦ X : Ω → R über (Ω, F, P ) das Bild von X bzgl. G und schreibt auch G ◦ X =: G(X). 3.2.2 Satz: Gegeben seien die Voraussetzungen aus Definition (3.2.1). Für jedes B ∈ B1 gilt QG B = QX (G−1 B) = P (X −1 (G−1 B)) = P ((G ◦ X)−1 B) = QG◦X B = QG(X) B Beweis: (Ω, F, P) (R, B1 , QX ) X Ω - R G (R, B1 , QG ) -R * G ◦ X =: G(X) Es werde der rechts stehende Wahrscheinlichkeitsraum betrachtet, B sei ein beliebiges Ereignis aus seinem Ereignisraum B1 . Mit der B1 − B1 −Meßbarkeit von G folgt nach Satz (2.4.2) QG B = QX (G−1 B) und mit der F −B1 −Meßbarkeit von X erhält man durch nochmalige Anwendung von Satz (2.4.2) QG B = QX (G−1 B) = P (X −1 (G−1 B)). Wie man sich leicht überlegt, gilt X −1 (G−1 B) = (G ◦ X)−1 B und folglich erhält man auch QG B = P ((G ◦ X)−1 B). Da man also QG ebenso als Bildwahrscheinlichkeit von QX bzgl. G auffassen kann wie auch als Bildwahrscheinlichkeit von P bzgl. G ◦ X, gilt auch QG B = QG◦X B und wegen G ◦ X =: G(X) auch QG B = QG(X) B. c °V. Steinmetz: Grundzüge der Statistik –51– 3.2.3 Satz: Es seien X eine eindimensionale Zufallsvariable, a, b ∈ R mit a 6= 0 fest gewählt und G:R→R die Abbildung mit G(x) = ax + b für alle x ∈ R. Dann ist Y := G(X) = aX + b ebenfalls eine Zufallsvariable und es gilt y−b für a > 0 FX ( a ) FY (y) = für alle y ∈ R. y−b 1 − FX ( a − 0) für a < 0 Falls FX totalstetig ist, so auch FY und für eine Dichte fY (.) gilt an allen Ste◦ ◦ Stetigkeitsstelle von fX ist: tigkeitsstellen y von fY (.), für die gleichzeitig y−b a 1 · fX fY ( y ) = |a| ◦ ! Ã◦ y −b . a Beweis: Die Meßbarkeit von G ist gewährleistet, da G eine stetige Funktion ist (vgl. Bemerkung (2.4.6)). Nach Definition (3.1.1) ist G also eine Zufallsvariable. Damit ist Y := G ◦ X als Komposition zweier Zufallsvariablen nach Satz (2.4.4) und Definition (3.1.1) ebenfalls eine Zufallsvariable. Sei a > 0. Dann gilt FY (y) = FG(X) (y) = QG(X) ] − ∞, y] = QX G−1 ] − ∞, y] = QX {x | G(x) ≤ y} = QX {x | ax + b ≤ y} = QX {x | x ≤ y−b } a = QX ] − ∞, y−b ] a = FX ( y−b ). a c °V. Steinmetz: Grundzüge der Statistik (beachte a > 0) –52– Sei a < 0. Dann gilt FY (y) = QX {x | ax + b ≤ y} = QX {x | x ≥ y−b } a = QX [ y−b , ∞[ a = 1 − FX ( y−b − 0) . a Sei FX totalstetig. Dann ist auch FY totalstetig (denn durch (∗) ist - bis auf Unstetigkeitsstellen - eine Dichte zu Y gegeben). ◦ Ist fY eine Dichte zu FY und y eine Stetigkeitsstelle von fY , so folgt für a > 0 ¯ dFY (y) ¯¯ fY ( y ) = dy ¯y◦ ◦ (Satz (3.1.14)) ¯ y−b ¯ dFX ( )¯ a ¯¯ = ¯ dy ¯◦ y ¯ 1 dFX (x) ¯¯ = ◦ a dx ¯ y −b a Ã◦ ! y −b 1 10 = fX a a 1 fX = |a| 10 ! Ã◦ y −b (∗) a Es gibt stets auch eine Dichte fX zu FX , die unter den gemachten Voraussetzungen an der ◦ Stelle y −b a stetig ist, also die Anwendung von Satz (3.1.14) erlaubt. c °V. Steinmetz: Grundzüge der Statistik –53– für a < 0 erhält man ¯ y−b ¯ d(1 − FX ( )) ¯ ¯ a fY (y) = ¯ ¯ dy ¯◦ y ◦ y −b 1 = − fX ( ) a a ◦ y −b 1 fX ( ) (wegen a < 0) = |a| a 3.2.4 Folgerung: Es seien X eine N (0, 1)-verteilte Zufallsvariable und µ, σ ∈ R mit σ > 0. Dann ist die Zufallsvariable Y = σX + µ N (µ, σ 2 )−verteilt und es gilt µ ¶ y−µ FY (y) = Φ für alle y ∈ R . σ Beweis: Nach (3.1.16.2) hat X eine Dichte x2 1 fX (x) = ϕX (x) = √ e− 2 , 2π nach Satz (3.2.3) ist folglich 1 fY (y) = ϕX σ µ y−µ σ ¶ 1 1 y−µ 2 = √ e− 2 ( σ ) σ 2π für alle y ∈ R 2 eine Dichte von Y , also ist Y nach µ (3.1.16.3) ¶ N (µ, σ )-verteilt. Nach Satz (3.2.3) y−µ für alle y ∈ R. folgt dann sofort auch FY (y) = Φ σ c °V. Steinmetz: Grundzüge der Statistik –54– 3.3 Mehrdimensionale Zufallsvariablen 3.3.1 Definition: Es sei (Ω, F, P ) ein WR. Eine F − Bn −meßbare Abbildung X : Ω → Rn (n ∈ N) heißt n-dimensionale ZV über (Ω, F, P ). Die Abbildung QX : Bn → R mit QX B = P X −1 B für alle B ∈ Bn heißt Wahrscheinlichkeitsverteilung der ZV X. 3.3.2 Definition: Es sei i ∈ {1, ..., n}. Die Abbildung pri : Rn → R mit pri (x1 , ..., xn ) = xi für alle (x1 , ..., xn ) ∈ Rn bezeichnet man als i−te Projektion des Rn auf den R1 . 3.3.3 Satz: Die i−te Projektion pri : Rn → R ist Bn − B1 −meßbar (i = 1, ..., n). 3.3.4 Definition: Es sei X eine n−dimensionale ZV über einem WR (Ω, F, P ). Man bezeichnet die ZV Xi := pri ◦ X : Ω → R i = 1, ..., n als i−te Komponente von X. 3.3.5 Bemerkung: Gegeben seien die Voraussetzungen der Definition (3.3.4). Es gilt X(ω) = (X1 (ω), ..., Xn (ω)) für alle ω ∈ Ω. Deshalb schreibt man auch X = (X1 , ..., Xn ). 3.3.6 Definition: Es sei X = (X1 , ..., Xn ) eine n−dimensionale ZV. Man bezeichnet ihre WV QX als gemeinsame (Wahrscheinlichkeits)Verteilung der ZV X1 , ..., Xn und die WV QXi der i−ten Komponente Xi von X (i = 1, ..., n) als Randverteilung der gemeinsamen Verteilung QX . c °V. Steinmetz: Grundzüge der Statistik –55– 3.3.7 Definition: Eine n−dimensionale ZV X heißt diskret, wenn der zugehörige WR (Rn , Bn , QX ) ein diskreter WR ist. 3.3.8 Bemerkung: Es sei Z = (X, Y ) eine 2-dimensionale diskrete ZV mit den endlich vielen Trägerpunkten (xi , yk ) und den zugehörenden Punktmassen QZ {(xi , yk )} =: pik für (i, k) ∈ J ⊆ N × N. Dann gilt für die Randverteilungen QY und QX mit QX {xi } =: pi· bzw. QY {yk } =: p·k pi· = P k pik p·k = P pik i ∈ pr1 (J) i k ∈ pr2 (J) Ordnet man die ersten Koordinaten xi der Trägerpunkte in der Vorspalte einer Tabelle an, die zweiten Koordinaten yk in der Kopfzeile und im Schnittpunkt der Zeile Nr. i mit der Spalte Nr. k die Punktmasse pik (dabei setzt man pi0 k0 = 0, falls (xi0 , yk0 ) kein Trägerpunkt von Z ist), so ergeben sich die pi· als Zeilensummen und die p·k als Spaltensummen: yk yk xi xi p·k = ··· P .. . pik pi· = P pik k pi· p·k pik i Beweis: Es sei i0 ∈ pr1 (J) fest gewählt pi0 · := QX {xi0 } = QZ {(x, y) | x = xi0 ∧ y ∈ R} = QZ {(xi0 , yk ) | (i0 , k) ∈ J} = QZ S (i0 ,k)∈J = P {(xi0 , yk )} pi0 ,k (i0 ,k)∈J = P k∈pr2 (J) pi0 ,k mit pi0 ,k = 0 für (i0 , k) ∈ /J Entsprechend beweist man die Aussage für p·k . c °V. Steinmetz: Grundzüge der Statistik –56– 3.3.9 Bemerkung: Nach Definition (3.3.6) werden die Randverteilungen durch die gemeinsame Verteilung eindeutig festgelegt; das Umgekehrte gilt aber nicht, z.B. können zwei Paare gleicher Randverteilungen verschiedene gemeinsame Verteilungen haben. 3.3.10 Definition: Es sei X = (X1 , ..., Xn ) eine n−dimensionale ZV mit der WV QX . Die Abbildung FX : R n → R mit FX (x1 , ..., xn ) := QX (] − ∞, x1 ] × ...×] − ∞, xn ]) für alle (x1 , ..., xn ) ∈ Rn heißt Verteilungsfunktion von X = (X1 , ..., Xn ) oder gemeinsame Verteilungsfunktion der ZV X1 , ..., Xn . Die Verteilungsfunktionen FXi der einzelnen Komponenten Xi bezeichnet man auch als Randverteilungsfunktionen der gemeinsamen Verteilung QX . 3.3.11 Definition: Es sei X eine n−dimensionale ZV mit der WV QX und der VF FX . Die Zufallsvariable X (und auch QX bzw. FX ) heißt (total)stetig, wenn es eine Abbildung fX : R n → R gibt mit (.1) fX (x1 , ..., xn ) ≥ 0 für alle (x1 , ..., xn ) ∈ Rn (.2) fX ist uneigentlich integrierbar (.3) FX (x1 , ..., xn ) = Rx1 −∞ ... Rxn −∞ fX (t1 , ..., tn )dtn ...dt1 für alle (x1 , ..., xn ) ∈ Rn . Man bezeichnet eine Abbildung fX mit diesen Eigenschaften als eine Dichte(funktion) der ZV X oder gemeinsame Dichte(funktion) der X1 , ..., Xn . 3.3.12 Satz: Ist fX eine Dichte zu der VF FX einer n−dimensionalen ZV X, so gilt an allen ◦ ◦ Stetigkeitsstellen (x1 , ..., xn ) von fX : ¯ ∂ n FX (x1 , ..., xn ) ¯¯ ◦ ◦ fX (x1 , ..., xn ) = . ∂x1 ∂x2 ....∂xn ¯(x◦ 1 ,...,x◦ n ) Bemerkung: ◦ ◦ Unter den Voraussetzungen von Satz (3.3.12), daß die (x1 , ..., xn ) Stetigkeitsstellen von FX sind, gilt, daß die partiellen Ableitungen unabhängig von der Reihenfolge der Differentiationen sind. c °V. Steinmetz: Grundzüge der Statistik –57– 3.3.13 Satz: Es sei Z = (X, Y ) eine 2-dimensionale ZV mit der VF FZ . Dann haben die ZV X und Y die Randverteilungsfunktionen FX bzw. FY mit FX (x) = FZ (x, ∞) für alle x ∈ R FY (y) = FZ (∞, y) für alle y ∈ R. Falls Z totalstetig ist mit Dichte fZ , so sind auch X und Y totalstetig und man erhält Dichten fX bzw. fY durch fX (x) = Z∞ fZ (x, y)dy Z∞ fZ (x, y)dx für alle y ∈ R. für alle x ∈ R −∞ fY (y) = −∞ Beweis: Für Z = (X, Y ) gilt X = pr1 ◦ Z und man erhält FX (x) = QX ] − ∞, x] = QZ pr1−1 ] − ∞, x] = QZ {(s, t) | −∞ < s ≤ x ∧ t ∈ R} = QZ (] − ∞, x] × R) = FZ (x, ∞). Ist Z = (X, Y ) totalstetig mit einer Dichte fZ , so gilt FX (x) = FZ (x, ∞) = Zx Z∞ fZ (s, t)dtds. −∞ −∞ Dabei ist R∞ fZ (s, t)dt =: f (s) eine nicht negative, uneigentlich integrierbare −∞ Funktion mit der Eigenschaft Zx f (s)ds = FZ (x, ∞) = FX (x), −∞ also eine Dichte von X. Entsprechend beweist man die Aussagen für Y . c °V. Steinmetz: Grundzüge der Statistik –58– 3.3.14 Definition: Gegeben seien die Voraussetzungen des Satzes (3.3.13). Man bezeichnet fX und fY als Randdichten (Randdichtefunktionen) (marginal density) der gemeinsamen WV Q(X,Y ) . 3.3.15 Bemerkung: Es seien X = (X1 , X2 ) eine zweidimensionale ZV über einem WR (Ω, F, P ), a, b ∈ R fest gewählt und G, H : R2 → R die Abbildungen mit G(x1 , x2 ) = ax1 + bx2 H(x1 , x2 ) = ax1 x2 ∀(x1 , x2 ) ∈ R2 , ∀(x1 , x2 ) ∈ R2 . Dann sind Y := G ◦ X = aX1 + bX2 , Z := H ◦ X = aX1 X2 ebenfalls ZV über (Ω, F, P ). (Zum Beweis vgl. Schmitz, N., Plachky, D.: Vorlesungen über Wahrscheinlichkeitstheorie I (1976), S.114, Lemma (3.15)). 3.3.16 Bemerkung: In Verallgemeinerung von Definition (3.1.17.3) kann man auch eine Normalverteilung für n−dimensionale Zufallsvariablen X = (X1 , ..., Xn ) definieren (s. Anhang B.12). Sie hat die Eigenschaft, daß die Randverteilungen der Xi wieder Normalverteilungen sind. Außerdem ist beispielsweise die ZV G(X) := a1 X1 + ... + an Xn mit (a1 , ..., an ) ∈ Rn − {(0, ..., 0)} normalverteilt. (vgl. z.B. Fisz, M.: Wahrscheinlichkeitsrechnung und mathematische Statistik (1965), S. 143-145) Man beachte aber: sind alle Randverteilungen einer ZV Normalverteilungen, muß die gemeinsame Verteilung nicht notwendig selbst eine Normalverteilung sein, ebenso muß in diesem Fall die Summe zweier Randverteilungen nicht normalverteilt sein. c °V. Steinmetz: Grundzüge der Statistik –59– 3.4 Bedingte Verteilungen und Unabhängigkeit von Zufallsvariablen 3.4.1 Definition: Es sei Z = (X, Y ) eine diskrete 2-dimensionale ZV mit QZ {(xi , yk )} = P {X = xi ∧ Y = yk } = pik , für ein festes k gelte QY {yk } = P {Y = yk } = p·k > 0. Dann heißt QX|Y =yk : B1 → R mit QX|Y =yk {xi } := P {X = xi ∧ Y = yk } pik = P {Y = yk } p·k für alle xi die durch die Hypothese Y = yk bedingte Wahrscheinlichkeitsverteilung von X. Entsprechend ist für ein festes i mit pi· > 0 durch QY |X=xi {yk } := pik P {X = xi ∧ Y = yk } = P {X = xi } pi· für alle yk die durch die Hypothese X = xi bedingte Wahrscheinlichkeitsverteilung von Y definiert. (Man hat auch die Schreibweisen QX|Y =yk {xi } =: P {X = xi | Y = yk } bzw. QY |X=xi {yk } =: P {Y = yk | X = xi }.) 3.4.2 Bemerkung: Es bleibt zu zeigen, daß QX|Y =yk und QY |X=xi tatsächlich Wahrscheinlichkeitsverteilungen sind, also die Bezeichnung in Definition (3.4.1) zu recht eingeführt worden ist. Es genügt nachzuweisen, daß die Werte QX|Y =yk {xi } und QY |X=xi {yk } nicht negativ sind und sich über i bzw. k zu 1 aufsummieren: wegen p·k > 0 ≥ 0 bzw. ppiki· ≥ 0. bzw. pi· > 0 und pik ≥ 0 folgt ppik ·k Weiterhin folgt: P pik i 3.4.3 Definition: p·k = 1 p·k P pik = i 1 p·k · p·k = 1 (entsprechend für k). Es sei Z = (X, Y ) eine 2-dimensionale stetige ZV mit einer Dichte fZ und den Randdichten fX bzw. fY . An einer festen Stelle y ∈ R sei fY stetig und es gelte fY (y) > 0. Man nennt fX|Y =y : R → R mit fX|Y =y (x) := c °V. Steinmetz: Grundzüge der Statistik fZ (x, y) fY (y) für alle x ∈ R –60– die durch Y = y bedingte Dichte(funktion) von X. Entsprechend ist für eine feste Stetigkeitsstelle x ∈ R von fX mit fX (x) > 0 durch fZ (x, y) für alle y ∈ R fY |X=x (y) := fX (x) die durch X = x bedingte Dichte(funktion) von Y definiert. (Man hat auch die Schreibweisen fX|Y =y (x) =: fX (x | Y = y) bzw. fY |X=x (y) =: fY (y | X = x).) 3.4.4 Bemerkung: Es bleibt zu zeigen, daß die in Definition (3.4.3) definierten Funktionen tatsächlich Dichtefunktionen sind, d.h. nicht negativ und uneigentlich integrierbar sind sowie der Normierungsvorschrift genügen. Sowohl im diskreten als auch im stetigen Fall kann man bedingte Verteilungsfunktionen einführen, z.B. FX|Y =yk (x) := QX|Y =yk ] − ∞, x] =: FX (x | Y = yk ) ∀x ∈ R p·k > 0 Rx FX|Y =y (x) := fX|Y =y (t)dt =: FX (x | Y = y) ∀x ∈ R y −∞ Stetigkeitsstelle von fY mit fY (y) > 0 Im stetigen Fall kann man ferner durch Z QX|Y =y B := fX|Y =y (x)dx ∀ B ∈ B1 B die bedingte Verteilung von X unter Y = y definieren. 3.4.5 Definition: Zwei ZV X und Y mit der gemeinsamen Verteilung Q(X,Y ) und den Randverteilungen QX bzw. QY heißen (stochastisch) unabhängig, wenn gilt Q(X,Y ) (B1 × B2 ) = QX B1 · QY B2 für alle B1 , B2 ∈ B1 . 3.4.6 Satz: Es sei (X, Y ) eine 2-dimensionale diskrete ZV mit den Trägerpunkten (xi , yk ) und den zugehörigen Punktmassen pik := Q(X,Y ) {(xi , yk )}. Die ZV X und Y sind genau dann unabhängig, wenn gilt pik = pi· · p·k c °V. Steinmetz: Grundzüge der Statistik für alle (xi , yk ). –61– Beweis: 1. Teil: Vorausgesetzt wird die Unabhängigkeit von X und Y , d.h. Q(X,Y ) (B1 × B2 ) = QX B1 · QY B2 ∀B1 , B2 ∈ B1 . Dies gilt insbesondere auch für die einpunktigen Mengen {xi } und {yk }, man erhält also pik = Q(X,Y ) {(xi , yk )} = Q(X,Y ) ({xi } × {yk }) = QX {xi } · QY {yk } = pi· · p·k 2. Teil: Vorausgesetzt wird pik = pi· · p·k für alle Trägerpunkte (xi , yk ). Es gilt P P QX B 1 · Q Y B 2 = pi· · p·k xi ∈B1 P = yk ∈B2 xi ∈B1 ∧yk ∈B2 = P pi· · p·k = pik (xi ,yk )∈B1 ×B2 P (xi ,yk )∈B1 ×B2 pi· · p·k = Q(X,Y ) (B1 × B2 ) 3.4.7 Satz: Es seien X und Y zwei ZV mit der gemeinsamen VF F(X,Y ) und den Randverteilungsfunktionen FX bzw. FY . Die ZV X und Y sind genau dann unabhängig, wenn gilt F(X,Y ) (x, y) = FX (x) · FY (y) für alle x, y ∈ R. Sind X und Y stetig mit Randdichten fX bzw. fY , so sind sie genau dann unabhängig, wenn die Abbildung R2 → R , (x, y) 7→ fX (x) · fY (y) eine gemeinsame Dichtefunktion von (X, Y ) ist. Beweis: Zunächst werden die Verteilungsfunktionen betrachtet. 1. Teil: X und Y seien unabhängig. Dann gilt F(X,Y ) (x, y) = Q(X,Y ) (] − ∞, x]×] − ∞, y]) = QX ] − ∞, x] · QY ] − ∞, y] = FX (x) · FY (y) 2. Teil: Es gelte F(X,Y ) (x, y) = FX (x) · FY (y) ∀x, y ∈ R. Wir betrachten Ereignisse der Form B =]x1 , x2 ]×]y1 , y2 ] ∈ B2 c °V. Steinmetz: Grundzüge der Statistik –62– y 6 y2 y1 e (x1 , y2 ) e (x1 , y1 ) u (x2 , y2 ) B e (x2 , y1 ) - x1 x2 x Dann gilt Q(X,Y ) (]x1 , x2 ]×]y1 , y2 ]) = F(X,Y ) (x2 , y2 ) − F(X,Y ) (x1 , y2 ) − F(X,Y ) (x2 , y1 ) + F(X,Y ) (x1 , y1 ) = FX (x2 ) · FY (y2 ) − FX (x1 ) · FY (y2 ) − FX (x2 ) · FY (y1 ) + FX (x1 ) · FY (y1 ) = (FX (x2 ) − FX (x1 ))(FY (y2 ) − FY (y1 )) = QX ]x1 , x2 ] · QY ]y1 , y2 ]. Damit ist für alle Ereignisse der Form B1 × B2 =]x1 , x2 ]×]y1 , y2 ] die geforderte Produkteigenschaft nachgewiesen. Man kann zeigen, daß sie dann für alle Ereignisse B1 , B2 ∈ B1 sichergestellt ist (vgl. z.B. Krickeberg, K.: Wahrscheinlichkeitstheorie (1963), S. 72). Die Aussage über den Zusammenhang von Randdichten und gemeinsamer Dichtefunktion läßt sich leicht aus dem bereits Bewiesenen folgern. 3.4.8 Bemerkung: Liegen in der Situation von Satz (3.4.7) Randdichten fX , fY sowie eine gemeinsame Dichte f(X,Y ) von (X, Y ) vor, so genügt es zum Nachweis der Unabhängigkeit von X und Y zu zeigen, daß f(X,Y ) (x, y) = fX (x) · fY (y) bis auf eine höchstens abzählbare Ausnahmemenge für alle x, y ∈ R gilt. 3.4.9 Bemerkung: Aus Bemerkung (3.3.9) geht hervor, daß man aus den Randverteilungen QX und QY zweier Zufallsvariablen X bzw. Y die gemeinsame Verteilung Q(X,Y ) i.a. nicht berechnen kann. Eine Ausnahme bildet der Fall der stochastischen Unabhängigkeit, denn dann gilt (∗) Q(X,Y ) (B1 × B2 ) = QX B1 · QY B2 ∀B1 , B2 ∈ B1 . c °V. Steinmetz: Grundzüge der Statistik –63– Man kann zeigen, daß Q(X,Y ) auf ganz B2 definiert ist, wenn sie nur auf den speziellen Ereignissen der Form B1 × B2 ∈ B2 festliegt. Durch die rechte Seite der Gleichung (∗) kann man stets eine WV auf B2 in Abhängigkeit von QX und QY festlegen, die sogenannte Produktverteilung von QX und QY , durch die Festsetzung (QX ⊗ QY )(B1 × B2 ) := QX B1 · QY B2 für alle B1 , B2 ∈ B1 . Diese Produktverteilung QX ⊗QY ist folglich genau dann gleich der gemeinsamen Verteilung Q(X,Y ) von X und Y , wenn die ZV X und Y unabhängig sind. 3.4.10 Bemerkung: (.1) In Verallgemeinerung von Definition (3.4.5) nennt man n Zufallsvariablen X1 , ..., Xn (stochastisch) unabhängig, wenn gilt Q(X1 ,...,Xn ) (B1 × ... × Bn ) = QX1 B1 · ... · QXn Bn für alle B1 , ..., Bn ∈ B1 . Auch die Sätze (3.4.6) und (3.4.7) sowie die vorangehende Bemerkung (3.4.9) kann man ohne Schwierigkeiten auf den Fall von n ZV übertragen. (.2) Sind X = (X1 , ..., Xm ) und Y = (Y1 , ..., Yn ) zwei m− bzw. n−dimensionale Zufallsvariablen, so nennt man X und Y in Verallgemeinerung von Definition (3.4.5) unabhängig, falls gilt Q(X,Y ) (B1 × B2 ) = QX B1 · QY B2 für alle B1 ∈ Bm und B2 ∈ Bn . 3.4.11 Satz: Es seien X1 , ..., Xn unabhängig identisch verteilte Alternativen mit x | 0 1 QXk {x} | 1 − p p Dann ist die Zufallsvariable Z := k = 1, ..., n 0 < p < 1 . n X Xk k=1 binomial B(n, p)-verteilt, d.h. es gilt µ ¶ n i QZ {i} = p (1 − p)n−i i c °V. Steinmetz: Grundzüge der Statistik für i ∈ {0, 1, ..., n} . –64– Beweis: Die n Zufallsvariablen seien zu einer n−dimensionalen Zufallsvariablen X := (X1 , ..., Xn ) zusammengefaßt. Die Menge der Trägerpunkte ist {0, 1}n ⊆ Rn und es gilt entsprechend Bemerkung (3.4.10): QX {(x1 , ..., xn )} = QX1 {x1 } · ... · QXn {xn } für alle (x1 , ..., xn ) ∈ {0, 1}n . Die Zufallsvariable Z hat die Trägerpunkte 0, 1, ..., n und es gilt n P QZ {i} = QX Z −1 {i} = QX {(x1 , ..., xn ) ∈ Rn | xk = i} k=1 = QX {(x1 , ..., xn ) ∈ {0, 1}n | genau i der xk sind 1 und n − i sind 0} . Z.B. gilt für (1, ..., 1, 0, ..., 0) ∈ Z −1 {i} | {z } | {z } i n−i QX {(1, ..., 1, 0, ..., 0)} = QX1 {1} · ... · QXi {1} · QXi+1 {0} · ... · QXn {0} Es gibt ¡n¢ i = pi (1 − p)n−i . n−Tupel mit genau i Einsen und n − i Nullen, so daß insgesamt folgt QZ {i} = QX Z −1 {i} = ¡n¢ i pi (1 − p)n−i = b(i | n, p) . 3.4.12 Folgerung: Bei einem Zufallsexperiment trete ein Ereignis A mit der Wahrscheinlichkeit p ∈]0, 1[ ein. Wird das Experiment n mal unabhängig wiederholt, so ist die Anzahl Z der Versuche, bei denen A eintritt, eine B(n, p)−verteilte Zufallsvariable. Beweis: Für jede der n Versuchsdurchführungen werde eine eigene Zufallsvariable Xk (k = 1, ..., n) definiert mit ½ 1 : A tritt bei Versuch Nr. k ein Xk = 0 : A tritt bei Versuch Nr. k nicht ein. Die Xk sind nach Voraussetzung unabhängig identisch verteilt mit die Zufallsvariable Z := n P x | 0 1 , QXk {x} | 1 − p p Xn gibt die Anzahl der Versuche an, bei denen A k=1 eintritt und ist nach Satz (3.4.11) B(n, p)-verteilt. c °V. Steinmetz: Grundzüge der Statistik –65– 3.4.13 Satz: Es seien X = (X1 , ..., Xm ) und Y = (Y1 , ..., Yn ) unabhängige Zufallsvariablen über einem WR (Ω, F, P ) und f : R m → Rr , g : R n → Rs Bm − Br − bzw. Bn − Bs −meßbare Abbildungen. Dann sind f (X) und g(Y ) unabhängige Zufallsvariablen. (Zum Beweis siehe z.B. Rohatgi, V.K.: An Introduction to Probability Theory and Mathematical Statistics (1976), S. 121) c °V. Steinmetz: Grundzüge der Statistik –66– 4 Maßzahlen der Verteilung von Zufallsvariablen 4.1 Momente eindimensionaler Zufallsvariablen 4.1.1 Definition: Es sei X eine diskrete 1-dimensionale ZV mit den Trägerpunkten xi und den Punktwahrscheinlichkeiten QX {xi } = pi (i ∈ J ⊆ N). Gilt (.1) P i∈J (.2) |xi |pi < ∞, so heißt EX := P xi p i i∈J der Erwartungswert (Mittelwert) (expected value, expectation) der ZV X. Gilt (.1) nicht, so sagt man, der Erwartungswert existiere nicht. 4.1.2 Bemerkung: Hat eine diskrete ZV nur endlich viele Trägerpunkte, so ist (4.1.1.1) trivialerweise erfüllt, d.h. der Erwartungswert existiert dann immer. 4.1.3 Folgerung: Die ZV X habe eine Einpunktverteilung auf a ∈ R, d.h. QX {a} = 1. Dann gilt EX = a. 4.1.4 Definition: Es sei X eine stetige 1-dimensionale ZV und fX : R → R eine Dichte von X. Gilt R∞ (.1) |x|fX (x)dx < ∞, −∞ so heißt (.2) EX := R∞ xfX (x)dx −∞ der Erwartungswert (Mittelwert) der ZV X. Gilt (.1) nicht, so sagt man, der Erwartungswert existiere nicht. 4.1.5 Vereinbarung: Zur Vereinfachung soll im folgenden bei der Benutzung des Symbols EX und nicht spezifizierter Verteilung von X die Existenz des Erwartungswertes ohne ausdrückliche Erwähnung vorausgesetzt werden. c °V. Steinmetz: Grundzüge der Statistik –67– 4.1.6 Satz: Es seien X eine 1-dimensionale ZV und G : R → R eine B1 − B1 −meßbare Abbildung. Ist X diskret mit der Wahrscheinlichkeitsverteilung QX , den Trägerpunkten xi und QX {xi } = pi , so existiert der Erwartungswert EG(X), falls X |G(xi )|pi < ∞, i und es gilt EG(X) = X G(xi )pi = i X i G(xi )QX {xi }. Ist X stetig mit einer Dichte fX , so existiert EG(X), falls Z∞ |G(x)|fX (x)dx < ∞ , −∞ und es gilt EG(X) = Z∞ G(x)fX (x)dx . −∞ Beweis: Der Beweis werde nur für den diskreten Fall durchgeführt: Die Abbildung G sei in dem folgenden Diagramm veranschaulicht, wobei die Zuordnung nur für die Trägerpunkte von X bzw. G(X) dargestellt wird. x1 x3 x4 x2 x5 -R G RN ¼ R y2 / y1 ? -R Es sei A := {xi | QX {xi } = pi > 0 ∧ Σpi = 1} die abzählbare Menge der Trägerpunkte von X. Die Menge B := G(A) ist dann ebenfalls abzählbar und es gilt QG(X) {yk } = QX (G−1 {yk }) = QX (A ∩ G−1 {yk }) > 0 ∀yk ∈ B . Die Mengen Ayk := A ∩ G−1 {yk } = {xi | xi ∈ A ∧ G(xi ) = yk } ∀yk ∈ B c °V. Steinmetz: Grundzüge der Statistik –68– bilden eine Zerlegung von A. Damit folgt P P QG(X) {yk } = QX (A ∩ G−1 {yk }) yk ∈B yk ∈B = QX S yk ∈B (A ∩ G−1 {yk }) = QX A = 1. Wir haben damit als Zwischenergebnis gezeigt: Das meßbare Bild einer diskreten Zufallsvariablen ist wieder eine diskrete Zufallsvariable. Weiter folgt: P yk QG(X) {yk } EG(X) = yk ∈B = P yk ∈B = P yk ∈B = P y k Q X A yk yk P xi ∈Ayk P yk ∈B xi ∈Ayk = P P yk ∈B xi ∈Ayk = P xi ∈A QX {xi } yk QX {xi } G(xi )QX {xi } G(xi )QX {xi } Die Existenzbedingung ist nun leicht zu verifizieren: X X ∞> |yk |QG(X) {yk } = |G(xi )|QX {xi } yk ∈B xi ∈A Zum Beweis des stetigen Falls siehe z.B. Rényi, A.: Wahrscheinlichkeitsrechnung (1966), S. 205, Aufgabe 47. 4.1.7 Satz: Es sei X eine ZV mit dem Erwartungswert EX undG : R → R eine Abbildung mit G(x) = ax + b a, b ∈ R. Dann existiert auch der Erwartungswert der ZVG(X) = aX + b und es gilt E(aX + b) = aEX + b. c °V. Steinmetz: Grundzüge der Statistik –69– Beweis: a) Sei X stetig verteilt mit einer Dichte fX . Dann gilt nach Satz (4.1.7): EG(X) = R∞ G(x)fX (x)dx = −∞ =a R∞ (ax + b)fX (x)dx −∞ R∞ xfX (x)dx + b −∞ R∞ fX (x)dx = aEX + b . −∞ Die Existenz des Erwartungswertes ist sichergestellt wegen R∞ −∞ |ax+b|fX (x)dx ≤ R∞ −∞ (|a| |x|+|b|)fX (x)dx = |a| R∞ −∞ |x|fX (x)dx+|b| < ∞ . b) Sei X diskret verteilt, QX die zugehörige WV mit den Trägerpunkten xi und QX {xi } =: pi . Dann gilt nach Satz (4.1.6) P P EG(X) = G(xi )pi = (axi + b)pi i =a i P i xi p i + b P pi = aEX + b. Die Existenz des Erwartungswertes ist sichergestellt wegen X X X |axi + b|pi ≤ (|a| |xi | + |b|)pi = |a| |xi |pi + |b| < ∞. i i i 4.1.8 Satz: Ist die Zufallsvariable X symmetrisch um a ∈ R verteilt und existiert ihr Erwartungswert, so gilt EX = a. Beweis: Es werde nur der stetige Fall gezeigt. Nach Satz (4.1.7) gilt: EX = E(X − a) + a. Die Behauptung ist bewiesen, wenn E(X − a) = 0 gezeigt ist. Nach Satz (4.1.6) gilt mit g(X) := X − a Z∞ Z∞ 2E(X − a) = (x − a)fX (x)dx + (x − a)fX (x)dx. −∞ c °V. Steinmetz: Grundzüge der Statistik −∞ –70– Setzt man in dem ersten Integral x − a =: y, also x=a+y dx = dy x y −∞ −∞ +∞ +∞ und im zweiten Integral x = a − y dx = −dy x y −∞ +∞ +∞ −∞ so folgt 2E(X − a) = = R∞ −∞ R∞ −∞ yfX (a + y)dy − yfX (a + y)dy − +∞ R −∞ −∞ und da X symmetrisch um a verteilt ist, folgt Z∞ yfX (a + y)dy − −∞ Z∞ R∞ (−y)fX (a − y)(−dy) yfX (a − y)dy , yfX (a − y)dy = 0 . −∞ 4.1.9 Satz: Es sei Z = (X, Y ) eine 2-dimensionale ZV. Dann gilt für die Komponenten X und Y : (.1) E(X ± Y ) = EX ± EY . Sind X und Y stochastisch unabhängig, so gilt auch (.2) E(X · Y ) = EX · EY . (Entsprechende Aussagen gelten auch für den Fall einer n-dimensionalen ZV X = (X1 , ..., Xn ).) Beweis: Der Beweis erfolgt im nächsten Paragraphen bei der Behandlung von Momenten 2-dimensionaler ZV (Satz (4.2.5)). c °V. Steinmetz: Grundzüge der Statistik –71– 4.1.10 Definition: Es sei X eine 1-dimensionale ZV. Man bezeichnet den Erwartungswert EX k (k = 0, 1, 2, ...), falls er existiert, als das Moment k-ter Ordnung um Null von X (k-th order moment) und schreibt µk := EX k =: µk (X). Weiterhin bezeichnet man den Erwartungswert E(X − EX)k (k = 0, 1, 2, ...), falls er existiert, als das zentrale Moment (central moment) k-ter Ordnung von X und schreibt σk := E(X − EX)k =: σk (X). 4.1.11 Satz: Die zentralen Momente sind translationsinvariant, d.h. σk (X) = σk (X + a) für a ∈ R . Beweis: σk (X + a) = E[(X + a) − E(X + a)]k = E(X − EX)k = σk (X) 4.1.12 Definition: Das zweite zentrale Moment einer ZV X bezeichnet man als Streuung oder Varianz (variance) von X und schreibt 2 E(X − EX)2 =: Var X =: D 2 X =: σX =: σ 2 . Die positive Wurzel aus der Streuung bezeichnet man als Standardabweichung (standard deviation) von X und schreibt p + E(X − EX)2 =: DX =: σX =: σ. Gilt σX 6= 0, so bezeichnet man die Quotienten σ3 (X) als Schiefe (skewness) 3 σX σ4 (X) − 3 als Exzeß (Steilheit, Wölbung, Kurtosis) (Var X)2 σX der (excess) der Verteilung von X. Gilt EX 6= 0, so heißt der Quotient EX Variationskoeffizient (coefficient of variation) von X. und den Ausdruck c °V. Steinmetz: Grundzüge der Statistik –72– 4.1.13 Satz: Es sei X eine ZV mit dem Erwartungswert EX und der Varianz Var X. Dann gilt (.1) Var(aX) = a2 Var X ∀a ∈ R (.2) Var(X + b) = Var X ∀ b ∈ R (Verschiebungs- oder Translationsinvarianz) (.3) Var X = EX 2 −(EX)2 (Varianzzerlegungssatz)(variance decomposition theorem) Beweis: zu (.1) Var(aX) E[aX − E(aX)]2 = (4.1.8) = E[aX − aEX]2 = E[a(X − EX)]2 = E[a2 (X − EX)2 ] = a2 E[X − EX]2 = a2 Var X zu (.2) (4.1.8) siehe (4.1.11) für k = 2 zu (.3) Var X = (4.1.9.1) = (4.1.3) = E[X − EX]2 = E[X 2 − 2XEX + (EX)2 ] (4.1.7) EX 2 − E(2XEX) + E(EX)2 = EX 2 − 2EXEX + E(EX)2 EX 2 − 2(EX)2 + (EX)2 = EX 2 − (EX)2 4.1.14 Bemerkung: Einer Häufigkeitsuntersuchung liege der WR (Ω, F, P ) zugrunde mit = ]A für alle A ∈ F. Ω = {ω1 , ..., ωn } (n ∈ N), F = PΩ, P A = ]A n ]Ω Es seien X : Ω → R ein interessierendes, 1-dimensionales Merkmal und x1 := X(ω1 ), ..., xn := X(ωn ) die beobachteten - nicht notwendig verschiedenen - Merkmalsausprägungen. Man bezeichnet n 1X xi x̄ := n i=1 als (ungewogenes) arithmetisches Mittel (arithmetic mean) der n Zahlen x1 , ..., xn und n 1X (xi − x̄)2 n i=1 c °V. Steinmetz: Grundzüge der Statistik –73– als ihre mittlere quadratische Abweichung (mean square deviation). Es sei X(Ω) =: {z1 , ..., zr } mit r ≤ n die Menge der paarweise verschiedenen, auf Ω beobachtbaren Merkmalsausprägungen. Für nj := ]{ωi | ωi ∈ Ω ∧ X(ωi ) = zj } = ]{i | i ∈ {1, ..., n} ∧ xi = zj } gilt r P nj = n und man erhält die Häufigkeitsverteilung j=1 QX {zj } = nj (j = 1, ..., r). n Den Erwartungswert r EX = 1X nj z j n j=1 bezeichnet man als gewogenes arithmetisches Mittel der z1 , ..., zr mit den Genr n1 , ..., . wichten n n Es gilt in diesem Fall r r n 1X 1XX 1X EX = nj z j = xi = xi = x̄. n j=1 n j=1 x =z n i=1 i c °V. Steinmetz: Grundzüge der Statistik j –74– 4.2 Momente zweidimensionaler Zufallsvariablen 4.2.1 Satz: Es seien (X, Y ) eine zweidimensionale ZV und G : R2 → R eine B2 −B1 −meßbare Abbildung. Ist (X, Y ) diskret mit der WV Q(X,Y ) {(xi , yk )} =: pik , so existiert der Erwartungswert EG(X, Y ), falls X |G(xi , yk )|pik < ∞ , i,k und es gilt EG(X, Y ) = X G(xi , yk )pik . i,k Ist (X, Y ) stetig mit einer Dichte f(X,Y ) , so existiert EG(X, Y ), falls Z∞ Z∞ |G(x, y)|f(X,Y ) (x, y)dydx < ∞ , −∞ −∞ und es gilt EG(X, Y ) = Z∞ Z∞ G(x, y)f(X,Y ) (x, y)dydx −∞ −∞ (Beweis ist eine Verallgemeinerung des Beweises zu Satz (4.1.7)). 4.2.2 Definition: Es sei (X, Y ) eine zweidimensionale ZV. Als Momente um Null (r + s)-ter Ordnung ((r + s)-th moment) der ZV (X, Y ) bezeichnet man µrs := E(X r Y s ) für r, s ∈ N0 . Als zentrale Momente (r + s)-ter Ordnung (central moment) der ZV (X, Y ) bezeichnet man σrs := E(X − EX)r (Y − EY )s . 4.2.3 Definition: Es sei (X, Y ) eine zweidimensionale ZV. Das zentrale Moment zweiter Ordnung σ11 = E(X − EX)(Y − EY ) =: Cov(X, Y ) nennt man Kovarianz (covariance) oder gemischte Streuung von X und Y . c °V. Steinmetz: Grundzüge der Statistik –75– 4.2.4 Satz: Es seien X, Y und Z eindimensionale Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P ) und a, b reelle Zahlen. Dann gilt (.1) Cov(aX, bY ) = ab Cov(X, Y ) (.2) Cov(X + a, Y + b) = Cov(X, Y ) (Translationsinvarianz) (.3) Cov(X, Y ) = E(XY ) − EXEY (Kovarianzzerlegungssatz) (.4) Cov(X, Y ) = Cov(Y, X) (Symmetrie) (.5) Cov(X + Z, Y ) = Cov(X, Y ) + Cov(Z, Y ) Beweis: zu (.1) Cov(aX, bY ) = E[aX − E(aX)][bY − E(bY )] = E[aX − aEX][bY − bEY ] = E(a[X − EX]b[Y − EY ]) = abE[X − EX][Y − EY ] = ab Cov(X, Y ) zu (.2) Cov(X + a, Y + b) = E[X + a − E(X + a)][Y + b − E(Y + b)] = E[X + a − EX − a][Y + b − EY − b] = E[X − EX][Y − EY ] = Cov(X, Y ) zu (.3) Cov(X, Y ) = E(X − EX)(Y − EY ) = E(XY − XEY − Y EX + EXEY ) = E(XY ) − EXEY − EY EX + EXEY = E(XY ) − EXEY zu (.4) Cov(X, Y ) = E(X − EX)(Y − EY ) = E(Y − EY )(X − EX) = Cov(Y, X) zu (.5) Cov(X + Z, Y ) = E[(X + Z − E(X + Z))(Y − EY )] = E[(X − E(X) + Z − E(Z))(Y − EY )] = E[(X − E(X))(Y − EY ) + (Z − E(Z))(Y − EY )] = Cov(X, Y ) + Cov(Z, Y ) c °V. Steinmetz: Grundzüge der Statistik –76– 4.2.5 Satz: Es sei Z = (X, Y ) eine zweidimensionale ZV. Dann gilt für die Komponenten X und Y : (.1) E(X ± Y ) = EX ± EY. Gilt Cov(X, Y ) = 0, so folgt (.2) E(XY ) = EX · EY.11 Es gilt auch die Verallgemeinerung der Aussagen (.1) und (.2) auf n-dimensionale ZV (n ∈ N). Beweis: Die erste Gleichung soll hier für den stetigen Fall bewiesen werden: R∞ R∞ (x ± y)f(X,Y ) (x, y)dydx E(X ± Y ) = −∞ −∞ = R∞ R∞ −∞ −∞ xf(X,Y ) (x, y)dydx ± R∞ R∞ yf(X,Y ) (x, y)dydx −∞ −∞ (4.2.1) = EX ± EY Die zweite Gleichung folgt sofort aus dem Kovarianzzerlegungssatz (4.2.4.3). Der Beweis der Verallgemeinerung der Aussagen (.1) und (.2) auf n-dimensionale ZV erfolgt durch Induktion. 4.2.6 Satz: Gegeben sei die zweidimensionale ZV (X, Y ). Sind X und Y unabhängig, so gilt: Cov(X, Y ) = 0. Beweis: Der Beweis werde für den diskreten Fall geführt: Cov(X, Y ) = EXY − EXEY = P i,k = P i,k = P xi yk pik − EXEY xi yk pi· p·k − EXEY (da X, Y unabhängig) xi pi· i 11 P k yk p·k − EXEY = 0. Wegen Satz (4.2.6) gilt dies erst recht bei Unabhängigkeit von X und Y . c °V. Steinmetz: Grundzüge der Statistik –77– 4.2.7 Bemerkung: I.a. folgt aus Cov(X, Y ) = 0 nicht die Unabhängigkeit von X und Y . 4.2.8 Satz: Gegeben sei die zweidimensionale ZV (X, Y ). Dann gilt (.1) Var(X ± Y ) = Var X + Var Y ± 2 Cov(X, Y ) . Sind X und Y unabhängig, so folgt weiter (.2) Var(X ± Y ) = Var X + Var Y . 12 Beweis: zu (.1) Es gilt Var(X ± Y ) = E[(X ± Y ) − E(X ± Y )]2 = E[(X − EX) ± (Y − EY )]2 = E(X − EX)2 ± 2E(X − EX)(Y − EY ) + E(Y − EY )2 = Var X ± 2 Cov(X, Y ) + Var Y zu (.2) folgt direkt aus (.1) mit Satz (4.2.6). 4.2.9 Definition: Es seien (X, Y ) eine zweidimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung Q(X,Y ) und EX, EY die Erwartungswerte von X bzw. Y . Man bezeichnet (EX, EY ) als den Schwerpunkt der Verteilung Q(X,Y ) . 12 (.2) gilt natürlich bereits für Cov(X, Y ) = 0; die Unabhängigkeit von X und Y ist also nicht notwendig, aber hinreichend. c °V. Steinmetz: Grundzüge der Statistik –78– 4.3 Korrelationskoeffizient 4.3.1 Definition: Es sei (X, Y ) eine zweidimensionale ZV mit Var X > 0 und Var Y > 0. Man bezeichnet die reelle Zahl Korr(X, Y ) := Cov(X, Y ) √ =: ρ(X, Y ) + Var X Var Y als Korrelationskoeffizienten (nach Bravais-Pearson) (coefficient of correlation) von X und Y . 4.3.2 Satz: Es sei (X, Y ) eine zweidimensionale ZV über einem WR (Ω, F, P ) mit Var X > 0 und Var Y > 0. Der Korrelationskoeffizient von X und Y hat die folgenden Eigenschaften: (.1) −1 ≤ Korr(X, Y ) ≤ 1 (.2) Korr(X, Y ) = 1 (bzw.= −1) gilt dann und nur dann, wenn P -fast sicher gilt13 Y = aX + b mit a > 0 (bzw. mit a < 0) (.3) Korr(X + a, Y + b) = Korr(X, Y ) für alle a, b ∈ R (Translationsinvarianz) (.4) Korr(aX, bY ) = Korr(X, Y ) für alle a, b ∈ R mit a · b > 0 (bzw. Korr(aX, bY ) = − Korr(X, Y ) falls a · b < 0) (.5) Korr(X, Y ) = Korr(Y, X) (Symmetrie) (.6) Sind X und Y unabhängig, so gilt Korr(X, Y ) = 0. Beweis: zu (.1) Für u, v ∈ R betrachten wir die ZV Z 2 (u, v) := [u(X − EX) + v(Y − EY )]2 . Aus Satz (4.1.6) folgert man leicht, daß für das Quadrat Z 2 einer ZV Z stets gilt EZ 2 ≥ 0. 13 vgl. Def.(2.2.11). c °V. Steinmetz: Grundzüge der Statistik –79– Damit erhält man hier speziell 0 ≤ E[u(X − EX) + v(Y − EY )]2 = E[u2 (X − EX)2 + 2uv(X − EX)(Y − EY ) + v 2 (Y − EY )2 ] = u2 Var X + 2uv Cov(X, Y ) + v 2 Var Y Da u und v beliebig gewählt sind, gilt diese Ungleichung auch für u := Var Y und v := − Cov(X, Y ). Damit erhält man 0 ≤ (Var Y )2 Var X − 2 Var Y (Cov(X, Y ))2 + (Cov(X, Y ))2 Var Y = Var Y [Var X Var Y − (Cov(X, Y ))2 ] , also wegen Var Y > 0 0 ≤ Var X Var Y − (Cov(X, Y ))2 , hieraus folgt 0 ≤ (Cov(X, Y ))2 ≤ Var X Var Y und da auch Var X > 0 vorausgesetzt wurde, 0≤ (Cov(X, Y ))2 Cov(X, Y ) ≤ 1 oder − 1 ≤ √ ≤1 Var X Var Y Var X Var Y zu (.2) Zunächst werde Y = aX + b P -fast überall vorausgesetzt. Dann folgt Cov(X, Y ) = Cov(X, aX + b) = E(X − EX)(aX + b − E(aX + b)) = E(X − EX)(aX − EaX)) = aE(X − EX)2 = a Var X . Weiterhin gilt Var Y = Var(aX + b) = a2 Var X . Mit der Voraussetzung a 6= 0 folgt a Var X a Korr(X, Y ) = √ =√ = + Var X a2 Var X a2 ½ 1 für a > 0 −1 für a < 0 . Es sei nun vorausgesetzt Korr(X, Y ) = ±1, also insbesondere Cov(X, Y ) 6= 0. Dann folgt (Cov(X, Y ))2 Korr(X, Y ))2 = =1 Var X Var Y c °V. Steinmetz: Grundzüge der Statistik –80– also (Cov(X, Y ))2 = Var X Var Y und 0 = Var X Var Y − (Cov(X, Y ))2 . Dies ist wegen Var Y > 0 äquivalent zu 0 = E[Var Y (X − EX) − Cov(X, Y )(Y − EY )]2 , wie man durch Ausrechnen dieses Erwartungswertes verifiziert. Da der Erwartungswert einer durch Quadrierung entstandenen ZV Z 2 nur verschwinden kann, wenn Z P-fast sicher den Wert 0 annimmt14 , folgt 0 = Var Y (X − EX) − Cov(X, Y )(Y − EY ) oder Y = Var Y EX Var Y X− + EY Cov(X, Y ) Cov(X, Y ) P -fast sicher P -fast sicher, d.h. es besteht P -fast sicher ein linearer Zusammenhang zwischen X und Y . zu (.3) Die Translationsinvarianz folgt direkt aus (4.1.13.2) und (4.2.4.2). zu (.4) Nach (4.1.13.1) und (4.2.4.1) folgt Korr(aX, bY ) = = Cov(aX, bY ) ab Cov(X, Y ) p √ = p + Var(aX) Var(bY ) + (ab)2 Var X Var Y ½ Korr(X, Y ) für ab > 0 − Korr(X, Y ) für ab < 0 . zu (.5) Die Symmetrie folgt direkt aus (4.2.4.4) . zu (.6) Diese Aussage folgt direkt aus Satz (4.2.6) . 4.3.3 Bemerkung: Entsprechend zu Bemerkung (4.2.7) gilt auch für den Korrelationskoeffizienten, daß aus Korr(X, Y ) = 0 i.a. nicht die Unabhängigkeit von X und Y folgt, es kann aber in diesem Fall keine lineare Abhängigkeit zwischen X und Y gegeben sein. Man bezeichnet zwei ZV X und Y mit Korr(X, Y ) = 0 als unkorreliert. 14 Einen Beweis dieser Aussage zumindest für den diskreten Fall leitet man leicht aus Satz (4.1.6) ab. c °V. Steinmetz: Grundzüge der Statistik –81– 4.3.4 Bemerkung: Einer Häufigkeitsuntersuchung liege der WR (Ω, F, P ) zugrunde mit Ω = {ω1 , ..., ωn } (n ∈ N), F = PΩ , P A = ]A ]A = für alle A ∈ F. n ]Ω Es seien Z = (X, Y ) : Ω → R2 ein interessierendes zweidimensionales Merkmal und (x1 , y1 ) := Z(ω1 ), ..., (xn , yn ) := Z(ωn ) die beobachteten - nicht notwendig verschiedenen - Paare von Merkmalsausprägungen. Man weist für den Korrelationskoeffizienten von X und Y leicht nach (vgl. auch Satz (4.1.13)): Korr(X, Y ) = sµ n P i=1 n P i=1 (xi − x̄)(yi − ȳ) (xi − x̄)2 ¶µ n P i=1 (yi − ȳ)2 ¶ mit x̄ = nΣxi yi − Σxi Σyi =p (nΣx2i − (Σxi )2 )(nΣyi2 − (Σyi )2 ) 1 n P i xi , ȳ = 1 n P yi i (Man benutzt diese Größe auch als Maß für den linearen Zusammenhang zweier Zahlenreihen x1 , ..., xn und y1 , ..., yn ohne jede Bezugnahme auf ein Modell (Ω, F, P ).) c °V. Steinmetz: Grundzüge der Statistik –82– 4.4 Modus und Quantile 4.4.1 Definition: Als wahrscheinlichsten Wert, häufigsten Wert, Modus oder Modalwert (modal value, mode) einer ZV X bezeichnet man (.1) im diskreten Fall jeden Trägerpunkt xi , dessen Wahrscheinlichkeitsmasse QX {xi } =: pi maximal ist, (.2) im stetigen Fall jeden Punkt x, zu dem es eine Dichte fX gibt, die dort maximal und mindestens halbseitig stetig ist. Nach der Anzahl der Modalwerte heißt die WV QX uni-, bi- bzw. multimodal. 4.4.2 Definition: Es sei X eine eindimensionale ZV. Jeder Wert x ∈ R mit 1 1 und P {X ≥ x} ≥ 15 2 2 heißt Median (median) oder Zentralwert der ZV X. Man bezeichnet einen solchen Wert auch mit xM ed oder λ0,5 . P {X ≤ x} ≥ 4.4.3 Definition: Es sei X eine eindimensionale ZV und p ∈]0, 1[. Jeder Wert x ∈ R mit P {X ≤ x} ≥ p und P {X ≥ x} ≥ 1 − p15 heißt Quantil p-ter Ordnung, p-Quantil (p-quantile) oder p-Fraktil von X. Man bezeichnet einen solchen Wert oft mit dem Symbol λp . Insbesondere spricht man von unterem Quartil für p=0,25 und von oberem Quartil für p=0,75. 4.4.4 Folgerung: Für eine ZV X mit der VF FX ist x ∈ R genau dann ein p-Quantil, falls gilt P {X < x} = FX (x − 0) ≤ p ≤ FX (x) = P {X ≤ x} , für eine stetige VF also insbesondere genau dann, wenn gilt FX (x) = p . 15 Bisweilen wird durch Zusatzforderungen Eindeutigkeit erzwungen. c °V. Steinmetz: Grundzüge der Statistik –83– Beweis: Stets gilt FX (x) = P {X ≤ x} und 1−FX (x−0) = P {X ≥ x}. Damit folgt nach Definition (4.4.3) direkt die Behauptung. Da für stetige Verteilungsfunktionen rechtsseitiger und linksseitiger Grenzwert übereinstimmen, gilt auch die letzte Aussage der Folgerung. 4.4.5 Folgerung: Ist X eine diskrete Zufallsvariable mit den Trägerpunkten xi und den zugehörigen Punktwahrscheinlichkeiten pi , so gilt für ein p-Quantil λp : X X pi . pi ≤ p ≤ xi <λp xi ≤λp 4.4.6 Bemerkung: Kommt es bei einem statistischen Merkmal nur auf die Unterscheidung der verschiedenen Merkmalsausprägungen an, kann man also, auch wenn das Merkmal als Abbildung in die Menge R der reellen Zahlen gegeben (d.h. durch reelle Zahlen verschlüsselt) ist, Differenzen verschiedener Ausprägungen, Quotienten und auch die größer-kleiner-Beziehung der reellen Zahlen nicht sinnvoll interpretieren, spricht man von einem nominalen oder nominal skalierten Merkmal. Um in diesem Fall die Lage einer Wahrscheinlichkeitsverteilung zu beschreiben, benutzt man den Modus; die Berechnung von Quantilen oder des Erwartungswertes ist nicht sinnvoll. Ist bei einem reellwertigen Merkmal neben der Verschiedenheit auch die Größerkleiner-Beziehung sinnvoll zu interpretieren, spricht man von einem ordinalen oder ordinal skalierten Merkmal. In diesem Fall sind der Modus und auch die Quantile zur Lagecharakterisierung brauchbar. Sind bei einem reellwertigen Merkmal neben Verschiedenheit und Größer-kleinerBeziehung auch Differenzen (also Abstände) von Ausprägungen sinnvoll zu interpretieren, nennt man das Merkmal intervallskaliert, gilt entsprechendes zusätzlich auch für Quotienten (also Verhältnisse), bezeichnet man es als verhältnisskaliert (Ratioskala). Liegt schließlich bei einem verhältnisskalierten Merkmal in natürlicher Weise eine Einheit fest, bezeichnet man es als absolutskaliert. Ein mindestes intervallskaliertes Merkmal heißt auch metrisch- oder kardinalskaliert. Hier ist neben Modus und Quantilen auch der Erwartungswert brauchbar. Man bezeichnet alle hier behandelten Kenngrößen als Lageparameter. c °V. Steinmetz: Grundzüge der Statistik –84– 4.5 Ungleichung von Tschebyschev 4.5.1 Satz und Definition: Es sei X eine eindimensionale ZV mit EX = µ und Var X = σ 2 . Dann gilt die sogenannte Ungleichung von Tschebyschev: σ2 ) ε2 (∀ε > 0)(P {|X − µ| ≥ ε} ≤ . Beweis: Die Ungleichung von Tschebyschev soll hier nur für den Fall einer diskreten ZV hergeleitet werden, im stetigen Fall verläuft der Beweis analog. Die diskrete ZV X habe die Trägerpunkte xi und die zugehörigen Punktwahrscheinlichkeiten QX {xi } =: pi (i ∈ J ⊆ N). Dann gilt für jedes ε > 0 P σ 2 = (xi − µ)2 pi i P P = (xi − µ)2 pi + (xi − µ)2 pi i mit |xi −µ|<ε ≥ P i mit |xi −µ|≥ε i mit |xi −µ|≥ε (xi − µ)2 pi . Da mit |xi − µ| ≥ ε > 0 auch (xi − µ)2 ≥ ε2 gilt und in dieser Summe nur über solche i ∈ J summiert wird, für die gilt |xi − µ| ≥ ε, kann man weiter abschätzen X X ε2 pi = ε 2 σ2 ≥ pi i mit |xi −µ|≥ε und es folgt σ2 ≥ ε2 X i mit |xi −µ|≥ε i mit |xi −µ|≥ε pi = P {|X − µ| ≥ ε} . 4.5.2 Korollar: Es sei X eine eindimensionale ZV mit EX = µ und Var X = σ 2 . Dann gilt (∀ε > 0)(P {|X − µ| ≤ ε}) ≥ 1 − σ2 . ε2 Beweis: Aus der Ungleichung von Tschebyschev folgt für ε > 0 2 −P {|X − µ| ≥ ε} ≥ − σε2 ⇔ 1 − P {|X − µ| ≥ ε} ≥ 1 − ⇔ P {|X − µ| < ε} ≥ 1 − c °V. Steinmetz: Grundzüge der Statistik σ2 ε2 . σ2 ε2 –85– Da {ω| |X(ω) − µ| < ε} ⊆ {ω| |X(ω) − µ| ≤ ε} gilt, folgt nach (2.2.8.4) weiter P {|X − µ| < ε} ≤ P {|X − µ| ≤ ε} , also P {|X − µ| ≤ ε} ≥ 1 − σ2 . ε2 4.5.3 Bemerkung: Häufig wählt man ε = λσ mit λ ∈ N. Dann folgt aus Korollar (4.5.2): P {|X − µ| ≤ λσ} ≥ 1 − 1 . λ2 Man erhält λ 2 3 4 5 0,75 0,889 0,937 0,96 . 1− 1 λ2 Das heißt z.B. für λ = 2, daß eine ZV mit mindestens 75 % Wahrscheinlichkeit einen Wert annimmt, der nicht weiter als 2σ von ihrem Erwartungswert entfernt liegt. Man bezeichnet [µ − λσ, µ + λσ] als λ − σ−Bereich um µ . c °V. Steinmetz: Grundzüge der Statistik –86– 4.6 Das schwache Gesetz der großen Zahlen und der zentrale Grenzwertsatz 4.6.1 Definition: Es seien (Xk )k∈N eine Folge von eindimensionalen Zufallsvariablen über einem WR (Ω, F, P ). Man sagt, sie genüge dem schwachen Gesetz der großen Zahlen (weak law of large numbers), wenn es eine Konstante c ∈ R gibt, so daß für die Zufallsvariablen Yn := n P 1 Xk (n ∈ N) gilt n k=1 lim P {|Yn − c| ≥ ε} = 0 für alle ε > 0 . n→∞ 4.6.2 Satz: Eine Folge (Xk )k∈N unabhängig identisch verteilter Zufallsvariablen mit EXk = µ und Var Xk = σ 2 > 0 für alle k ∈ N genügt dem schwachen Gesetz der großen Zahlen, es gilt n 1X lim P {| Xk − µ| ≥ ε} = 0 für alle ε > 0. n→∞ n k=1 Beweis: n n P P Xk ) = µ und Var( n1 Xk ) = Es gilt E( n1 k=1 k=1 σ2 n . (Vgl. hierzu die Sätze (4.1.8),(4.1.13),(4.2.5), (4.2.8) oder Satz (7.1.8)). Wegen der Ungleichung von Tschebyschev folgt n 2 σ 1X Xk − µ| ≥ ε} ≤ lim n2 = 0 für alle ε > 0. 0 ≤ lim P {| n→∞ ε n→∞ n k=1 4.6.3 Bemerkung: Ein Zufallsexperiment werde durch den WR (Ω̃, F̃ , P̃ ) beschrieben. Es sei A ∈ F̃ ein beliebiges Ereignis mit P̃ A =: p. Das Wahrscheinlichkeitsexperiment werde unabhängig wiederholt. Der Wiederholung k ∈ N sei die ZV Xk zugeordnet mit ½ 1 für ω ∈ A . Xk (ω) = 0 für ω 6∈ A Dann genügen die ZV X1 , X2 , ... dem schwachen Gesetz der großen Zahlen, es gilt n 1X lim P {| Xk − p| ≥ ε} = 0 ∀ε > 0 , n→∞ n k=1 c °V. Steinmetz: Grundzüge der Statistik –87– d.h. die relative Häufigkeit für das Auftreten des Ereignisses A konvergiert stochastisch gegen die Wahrscheinlichkeit P̃ A = p. Der Beweis folgt sofort aus dem Satz (4.6.2), wenn man beachtet, daß die Xk unabhängig identisch verteilt sind mit EXk = p und 1 E( ΣXk ) = p n Var Xk = p(1 − p) 1 p(1 − p) Var( ΣXk ) = n n 4.6.4 Satz (Zentraler Grenzwertsatz) (central limit theorem): Es seien (Xk )k∈N eine Folge unabhängig identisch verteilter Zufallsvariablen mit EXk = µ und Var Xk = σ 2 > 0 für alle k ∈ N. Dann gilt für die Zufallsvariablen 1 n Yn := n P k=1 Xk − µ σ √ n= n P k=1 Xk − nµ √ (n ∈ N) : σ n lim P {Yn ≤ y} = lim FYn (y) = Φ(y). n→∞ n→∞ (Zum Beweis siehe z.B. Fisz, M.: Wahrscheinlichkeitsrechnung und Mathematische Statistik (1970), S. 235 f.; es liegt hier s.g. Verteilungskonvergenz vor.) 4.6.5 Folgerung (Grenzwertsatz von de Moivre und Laplace): Es seien (Yn )n∈N eine Folge von binomial-B(n, p)-verteilten Zufallsvariablen, d.h. µ ¶ n y QYn {y} = p (1 − p)n−y für y = 0, 1, ..., n p ∈]0, 1[ y und (Zn )n∈N die Folge mit Yn − np . Zn := p np(1 − p) Dann gilt für die Verteilungsfunktionen 1 lim FZn (z) = √ n→∞ 2π Zz t2 e− 2 dt = Φ(z) für alle z ∈ R. −∞ Beweis: Nach (3.4.11) kann Yn (n ∈ N) als Summe von n unabhängig identisch verteilten Alternativen dargestellt werden: Yn = n X Xk k=1 c °V. Steinmetz: Grundzüge der Statistik mit 0 1 x QXk {x} 1 − p p –88– und EXk = p Var Xk = p(1 − p). Die Xk erfüllen die Voraussetzungen des zentralen Grenzwertsatzes und für die Zufallsvariablen n n P P 1 Xk − np X − p k n √ k=1 k=1 p n= p = Zn p(1 − p) np(1 − p) folgt die Behauptung aus dem zentralen Grenzwertsatz (Den Beweis kann man auch ohne Anwendung des zentralen Grenzwertsatzes führen, siehe z.B. Stange, K.: Angewandte Statistik I (1970), Berlin, Heidelberg, N.Y., S. 446). 4.6.6 Bemerkung: Unter den Voraussetzungen des vorigen Satzes gilt lim FZn (z) = Φ(z) für alle z ∈ R. n→∞ Für endliches n verwendet man Φ(z) als Näherung für FZn (z): FZn (z) ≈ Φ(z), d.h. Zn ist näherungsweise N (0, 1)-verteilt. Dann ist p Yn = np(1 − p)Zn + np näherungsweise N (np, np(1 − p))-verteilt und man verwendet entsprechend Satz (3.2.3) die Näherungen à ! ! à y − np y − np FYn (y) = FZn p ≈Φ p np(1 − p) np(1 − p) und P {a ≤ Yn ≤ b} ≈ Φ Ã c °V. Steinmetz: Grundzüge der Statistik b − np p np(1 − p) ! −Φ Ã a − np p np(1 − p) ! . –89– 5 Deskriptive Statistik 5.1 Grundbegriffe 5.1.1 Vereinbarung: Als deskriptive Statistik werde der Erkenntnisbereich bezeichnet, dessen Erkenntnisgegenstand (interessierender Umweltausschnitt) mit Hilfe des Grundmodells der deskriptiven Statistik (Kürzel: GdS) (Ω̃, F̃ , P̃ ) Y Ω̃ −−−−−−−−−→ Rm (Rm , Bm , QY ) beschrieben werden kann. Dabei seien (Ω̃, F̃, P̃ ) und (Rm , Bm , QY ) Wahrscheinlichkeitsräume und Y sei eine F̃ −Bm −meßbare Abbildung (Zufallsvariable). Im GdS wird Ω̃ 6= ∅ als endlich vorausgesetzt und als Grundgesamtheit, Kollektiv, Population oder statistische Masse bezeichnet, ihre Elemente als Untersuchungseinheiten , statistische Einheiten oder Merkmalsträger.16 I.a. wird hier F̃ = PΩ̃ vorausgesetzt. Das Wahrscheinlichkeitsmaß P̃ ist im GdS die relative Häufigkeit, d.h. es gilt P̃ à := ]à =: H(Ã) für alle à ∈ F̃. ]Ω̃ Die Zufallsvariable Y bezeichnet man als (m−dimensionales) statistisches Merkmal oder Untersuchungsmerkmal, Y (ω̃) als zum Merkmalsträger ω̃ ∈ Ω̃ gehörende Merkmalsausprägung. Oft wird als Wertevorrat von Y die Menge Y (Ω̃) ⊆ Rm der tatsächlich auftretenden Bildpunkte verwendet und Bm geeignet auf Y (Ω̃) eingeschränkt. 5.1.2 Bemerkung: Ist die Wahrscheinlichkeitsverteilung QY in Vereinbarung (5.1.1) ganz oder teilweise unbekannt und werden aus einer Stichprobe zu Y unter Anwendung wahrscheinlichkeits-theoretischer Hilfsmittel Schlüsse über QY gezogen, so arbeitet man im Bereich der schließenden Statistik (induktive Statistik, Inferenzstatistik). Das Modell aus Vereinbarung (5.1.1) wird in diesem Fall um einen zweiten Baustein (Ω, F, P ) X Ω −−−−−−−−−→ Rn (Rn , Bn , QX ) erweitert, der die Stichprobenziehung beschreibt (vgl. dazu Kap. 6 und auch Kap. 7, Kap. 8). 16 In der Wahrscheinlichkeitstheorie bezeichnet man Ω̃ auch als Ergebnisraum oder Stichprobenraum, die Elemente als Ergebnisse. Dabei ist Ω̃ oft nichtendlich. c °V. Steinmetz: Grundzüge der Statistik –90– 5.1.3 Vereinbarung: Wendet man das GdS aus Vereinbarung (5.1.1) zur Beschreibung eines realen Umweltausschnittes an, so müssen die Elemente der Grundgesamtheit Ω̃ durch sachliche räumliche zeitliche Kriterien eindeutig festgelegt (abgegrenzt) sein. Man bezeichnet diese Kriterien auch als identifizierende Merkmale oder kollektivbestimmende Merkmale . 5.1.4 Definition: (.1) Es sei Ω̃ die Grundgesamtheit eines GdS. Die sachlichen und räumlichen Abgrenzungskriterien seien so definiert, daß sie über einen Zeitraum positiver Länge zumindest prinzipiell erfüllt werden können. Ist Ω̃ dadurch festgelegt, daß seine Elemente diesen Kriterien zu einem ausgewählten Zeitpunkt genügen müssen, so bezeichnet man Ω̃ als Bestandsmasse und die Elemente als Bestandseinheiten bzgl. t und schreibt auch Ω̃t . (.2) Es sei Ω̃ die Grundgesamtheit eines GdS. Eines der sachlichen oder räumlichen Abgrenzungskriterien sei so definiert, daß es prinzipiell nur zu einem einzelnen Zeitpunkt, nicht aber über einen Zeitraum positiver Länge erfüllt werden kann. Es sei [T0 , T1 ] 6= ∅ ein Zeitintervall. Die übrigen Kriterien seien über [T0 , T1 ] konstant. Sind die Elemente von Ω̃ dadurch festgelegt, daß sie diese Kriterien erfüllen und dem Zeitpunktkriterium zu in [T0 , T1 ] liegenden Zeitpunkten genügen, so bezeichnet man Ω̃ als Bewegungs- oder Ereignismasse und die Elemente als Bewegungs- oder Ereigniseinheiten bzgl. [T0 , T1 ] und schreibt auch Ω̃T0 ,T1 . 5.1.5 Definition: Die sachlichen und räumlichen Kriterien zur Abgrenzung einer Bestandsmasse seien für alle Zeitpunkte eines Zeitintervalls [T0 , T1 ] 6= ∅ konstant, Ω̃T0 sei die Bestandsmasse zum Zeitpunkt T0 und Ω̃T1 die entsprechende Bestandsmasse für T1 . Man bezeichnet ZT0 ,T1 := Ω̃T1 \Ω̃T0 als Zugangsmasse bzgl. der Zeit von T0 bis T1 , ihre Elemente als Zugangseinheiten und AT0 ,T1 := Ω̃T0 \Ω̃T1 als Abgangsmasse bzgl. der Zeit von T0 bis T1 , ihre Elemente als Abgangseinheiten. 5.1.6 Bemerkung: Gegeben seien die Bezeichnungen aus Definition (5.1.5). ZT0 ,T1 und AT0 ,T1 kann man als Bewegungsmassen interpretieren. c °V. Steinmetz: Grundzüge der Statistik –91– 5.1.7 Satz: Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.1.5). Dann gilt: (.1) ZT0 ,T1 ∩ Ω̃T0 = ∅ AT0 ,T1 ∩ Ω̃T1 = ∅ ZT0 ,T1 ⊆ Ω̃T1 AT0 ,T1 ⊆ Ω̃T0 ZT0 ,T1 ∩ AT0 ,T1 = ∅ (.2) Ω̃T1 = (Ω̃T0 ∪ ZT0 ,T1 ) \ AT0 ,T1 = (Ω̃T0 \ AT0 ,T1 ) ∪ ZT0 ,T1 . (.3) Für die Mächtigkeit der Mengen gilt ]Ω̃T1 = ]Ω̃T0 + ]ZT0 ,T1 − ]AT0 ,T1 .17 Beweis: Der Beweis folgt sofort aus der Definition der Zugangs- und Abgangsmasse. 5.1.8 Bemerkung: In der Definition (5.1.5) wurde festgelegt, daß kein Element zugleich zu A und Z gehören kann. Will man auch Objekte erfassen, die zwischen T0 und T1 die Bestandsmasse verließen und wieder zurückkehrten bzw. zur Bestandsmasse hinzukamen und wieder abgingen, so muß man das betrachtete Zeitintervall unterteilen. In der Praxis geht man i.a. von Ω̃T0 aus und registriert die Zu- und Abgänge zwischen T0 und T1 , addiert zu ]Ω̃T0 die Zahl der Zugänge, subtrahiert die Zahl der Abgänge und erhält ]Ω̃T1 . Dieses Berechnungsschema gilt auch, wenn Objekte zwischen T0 und T1 die Bestandsmasse verließen und wieder zurückkehrten bzw. zur Bestandsmasse hinzukamen und wieder abgingen. Es gilt also eine (5.1.7.3) genau entsprechende Fortschreibungsformel auch in dem Fall, daß die Mengen der Zu- und Abgänge nicht disjunkt definiert wurden. Man beachte, daß (5.1.7.2) in diesem Fall aber falsch ist. 5.1.9 Definition: Die sachlichen und räumlichen Kriterien zur Abgrenzung einer Bestandsmasse seien für alle Zeitpunkte eines Zeitintervalls [T0 , T1 ] 6= ∅ konstant, Ω̃t bezeichne 17 Die Gleichungen .2) und .3) bezeichnet man als Fortschreibungsformeln. c °V. Steinmetz: Grundzüge der Statistik –92– die jeweilige Bestandsmasse zum Zeitpunkt t ∈ [T0 , T1 ]. Gibt es für ein Objekt ω̃ Zeitpunkte tZ (ω̃), tA (ω̃) ∈ [T0 , T1 ] mit tZ (ω̃) < tA (ω̃) ω̃ ∈ Ω̃t für alle t ∈ [tZ (ω̃), tA (ω̃)] ω̃ ∈ / Ω̃t für alle t ∈ [T0 , tZ (ω̃)[ ∪ ]tA (ω̃), T1 ] so heißen tZ (ω̃) Zugangszeitpunkt von ω̃ und tA (ω̃) Abgangszeitpunktvon ω̃, tA (ω̃) − tZ (ω̃) bezeichnet man als Verweildauer des Elements bzgl. des betrachteten Zeitraums [T0 , T1 ]. 5.1.10 Bemerkung: Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.1.9). Eine sehr anschauliche graphische Darstellung der Entwicklung einer Bestandsmasse ist im sog. Beckerschen Schema gegeben: Zugangszeitachse 6 Zugangsachse T1 ˜ tZ (ω̃) Verweillinie tZ (ω̃) T0 - T0 ˜ tA (ω̃) tZ (ω̃) tZ (ω̃) c °V. Steinmetz: Grundzüge der Statistik t ˜ tA (ω̃) T1 Zeitachse –93– ˜ die Zugangszeiten, die Abgangszeiten und die sog. Im Diagramm sind für ω̃ und ω̃ Verweillinien eingetragen, wobei die Länge der letzteren durch die Verweildauern gegeben ist. Alle Objekte, deren Verweillinie von einer in t auf der Zeitachse errichteten Senkrechten geschnitten werden, bilden die Bestandsmasse Ω̃t . Nach ˜ obigem Schema gilt Ω̃t = {ω̃}. 5.1.11 Bemerkung: Bei statistischen Untersuchungen beobachtet man bisweilen an ein und derselben Untersuchungseinheit mehrere Ausprägungen ein und desselben Merkmals, man spricht von einem häufbaren Merkmal. Ein solches Merkmal ist wegen der Mehrdeutigkeit der Zuordnung zunächst nicht als Abbildung im Sinne der Definition (1.1.1) zu interpretieren. Man kann die Eindeutigkeit aber erzwingen, indem man Kombinationen von Merkmalsausprägungen zu Tupeln zusammenfaßt, diese als neue Bildpunkte betrachtet und somit eine Abbildung im Sinne der Definition (1.1.1) festlegt. Im folgenden werden deshalb o.B.d.A. stets nichthäufbare Merkmale vorausgesetzt. 5.1.12 Bemerkung: Auch wenn Merkmalsausprägungen meistens als reelle Zahlen oder Tupel reeller Zahlen dargestellt werden, so ist vor der Durchführung algebraischer Operationen stets zu untersuchen, ob sie aufgrund des Skalierungsniveaus des Merkmals überhaupt sinnvoll sind (vgl. dazu Bemerkung (4.4.6)). 5.1.13 Bemerkung: Bei metrisch skalierten Merkmalen sollten die Ergebnisse von Messungen und darauf aufbauenden Berechnungen so dargestellt werden, daß Rückschlüsse auf die Genauigkeit möglich sind. Das Deutsche Institut für Normung e.V. macht in DIN 1333 Vorschläge zum Umgang mit Dezimalzahlen in wissenschaftlichen Mitteilungen (die Vorschläge gelten nicht für ”Geldwert- und Kostenangaben”). (.1) Sind bei einer Dezimalzahl nach dem Komma Ziffern ohne Rundung fortgelassen worden, so kann man dies durch drei Punkte anzeigen, z.B. π=3,141... Die angegebenen Ziffern stimmen mit den entsprechenden Ziffern der nicht verkürzten Zahl überein, man nennt sie deshalb gültige Ziffern. Steht die letzte Ziffer vor den drei Punkten an der Stelle k nach dem Komma, so ist der entsprechende absolute Fehler höchstens 10−k . (.2) Soll eine Dezimalzahl als genau gekennzeichnet werden, so wird empfohlen, dies durch Unterstreichen (oder Fettdruck) der letzten Ziffer anzugeben. (.3) Soll eine Dezimalzahl auf k Ziffern nach dem Komma gerundet werden man bezeichnet die k-te Stelle als Rundstelle -, so läßt man alle Ziffern rechts neben der Rundstelle fort, falls die Ziffer an der (k + 1)−ten Stelle eine 0,1,2,3 oder 4 ist (Abrunden); man erhöht die Ziffer an der Rundstelle um c °V. Steinmetz: Grundzüge der Statistik –94– 1, falls an der (k + 1)−ten Stelle eine 5,6,7,8 oder 9 steht (Aufrunden) und läßt auch jetzt alle Ziffern rechts neben der Rundstelle fort. Dabei müssen möglicherweise an den beibehaltenen Stellen entstehende Nullen mitgeführt werden. Der durch die Rundung entstehende absolute Fehler ist höchstens 0, 5 · 10−k . Vorsicht: Bei sukzessiver, mehrmaliger Rundung kann der Fehler etwas größer sein. Durch Multiplikation der Ausgangszahl mit einer geeigneten Zehnerpotenz sorgt man dafür, daß die Rundung nicht weiter links als höchstens direkt links neben dem Komma erfolgt. (.4) Bei empirischen Zahlen ist durch Beobachtungsungenauigkeiten oft Unsicherheit über den genauen, ”wahren” Zahlenwert gegeben. Wird diese Unsicherheit nicht explizit dargestellt (z.B. in der Form 5,47826 ± 0,021), so sollte in der Weise gerundet werden, daß weder informationshaltige, sogenannte signifikante Dezimalstellen verlorengehen oder verändert werden, noch sollten an wenig- oder nichtsignifikanten Stellen Ziffern Informationsgehalt vortäuschen. Ist - evtl. nach Multiplikation mit einer geeigneten Zehnerpotenz - eine Dezimalzahl mit ihrer Unsicherheit µ ∈]0, 1[ gegeben, so soll diejenige Rundstelle k gewählt werden, für die gilt µ µ < 10−k ≤ 30 3 µ 18 z.B.: 5, 47826 ± 0, 021 führt gerundet zu 5, 478 5, 47826 ± 0, 042 führt gerundet zu 5, 48 ¶ .18 Rundung kann als Klassierung eines Merkmals im Sinne von Bemerkung (5.2.5) verstanden werden. c °V. Steinmetz: Grundzüge der Statistik –95– 5.2 Häufigkeitsverteilungen eindimensionaler Merkmale 5.2.1 Definition: Gegeben sei das GdS aus Vereinbarung (5.1.1) mit Ω̃ = {ω̃1 , ..., ω̃N } und Y (Ω̃) = {y1 , ..., yM }19 (dabei ω̃r 6= ω̃s für r 6= s und yi 6= yj für i 6= j). Man bezeichnet die tabellarische Zusammenstellung der Untersuchungseinheiten mit ihren zugehörigen Merkmalsausprägungen als Urliste: ω̃1 . . . ω̃N ω̃r . Y (ω̃r ) =: ar a1 . . . aN Voraussetzungsgemäß ist in (Ω̃, F̃, P̃ ) das Wahrscheinlichkeitsmaß P̃ die relative Häufigkeit H mit P̃ (Ã) = H(Ã) = ]à ]à = N ]Ω̃ (à ∈ F̃) . Man bezeichnet die Wahrscheinlichkeitsverteilung QY des Merkmals Y als Häufigkeitsverteilung. Die tabellarische Zusammenstellung der Trägerpunkte von Y mit ihren Punktmassen nennt man Häufigkeitstabelle (genauer: Tabelle der relativen Häufigkeiten) von Y : yi y1 . . . y M . QY {yi } =: hi h1 . . . hM Dabei heißt hi für i = 1, ..., M die relative Häufigkeit der Merkmalsausprägung yi . 5.2.2 Folgerung: Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.2.1). Es gilt hi := QY {yi } i = 1, ..., M = H{ω̃ ∈ Ω̃ | Y (ω̃) = yi } 19 = ]{ω̃ ∈ Ω̃ | Y (ω̃) = yi } N = ]{r ∈ {1, ..., N } | ar = yi } , N Y ist in dieser Definition sowohl ein- als auch mehrdimensional zugelassen. c °V. Steinmetz: Grundzüge der Statistik –96– hi ist also die relative Häufigkeit, mit welcher der Bildpunkt yi bei den N EleM P menten der Grundgesamtheit auftritt. (Damit gilt insbesondere hi = 1). i=1 Beweis: Die Behauptung folgt sofort durch Anwendung von Definition (2.4.3) und Definition (3.1.1) auf das GdS. 5.2.3 Bemerkung: Oft werden aus einer Urliste ω̃r ω̃1 . . . ω̃N Y (ω̃r ) =: ar a1 . . . aN mit der Menge der Bildpunkte Y (Ω̃) = {y1 , ..., yM } zunächst die absoluten Häufigkeiten ermittelt, mit welchen die Bildpunkte yi bei den N Elementen der Grundgesamtheit auftreten Ni := ]{ω̃ ∈ Ω̃ | Y (ω̃) = yi } = ]{r ∈ {1, ..., N } | ar = yi } i = 1, ..., M. Aus der Tabelle der absoluten Häufigkeiten yi y1 . . . y M Ni N1 . . . N M ermittelt man anschließend die relativen Häufigkeiten durch hi = Ni N i = 1, ..., M. Beachte: Sobald die ar , r = 1, ..., N nicht paarweise verschieden sind, es also verschiedene Untersuchungseinheiten aus Ω̃ mit derselben Merkmalsausprägung gibt, gilt M < N. 5.2.4 Bemerkung: In der Wahrscheinlichkeitstheorie wurde zur Beschreibung einer Wahrscheinlichkeitsverteilung die Verteilungsfunktion eingeführt (vgl. Definition (3.1.4) und Definition (3.3.10)). In der deskriptiven Statistik ist Y eine diskrete Zufallsvariable mit endlich vielen Trägerpunkten. Ist Y eindimensional, ist folglich die zugehörige Verteilungsfunktion eine Treppenfunktion mit endlich vielen Sprungstellen. Hat Y die Merkmalsausprägungen yi mit den relativen Häufigkeiten hi (i = 1, ..., M ), so gilt für die Verteilungsfunktion X FY (y) = hi für alle y ∈ R. yi ≤y c °V. Steinmetz: Grundzüge der Statistik –97– 5.2.5 Bemerkung: Treten bei einem kardinalskalierten Untersuchungsmerkmal viele - oft auch paarweise verschiedene - Merkmalsausprägungen auf, so kann man die Anschaulichkeit von Tabellen und graphischen Darstellungen unter Inkaufnahme eines Informationsverlustes durch Klassierung der Merkmalsausprägungen erhöhen: Gegeben sei das GdS mit der Häufigkeitstabelle yi y1 . . . y M . hi := QY {yi } h1 . . . hM Man wähle für festes l ∈ N Zahlen k1 , k2 , ..., kl , kl+1 ∈ R mit und k1 < k2 < ... < kl < kl+1 k1 < yi ≤ kl+1 für alle i = 1, ..., M. Man bezeichnet für j = 1, ..., l Kj :=]kj , kj+1 ] als Klasse Nr. j, Bj := kj+1 − kj als zugehörige Klassenbreite und mj := kj + kj+1 2 als Klassenmittelpunkt oder kurz Klassenmitte. Als Klassierung der Elemente von Y (Ω̃) = {y1 , ..., yM } bezeichnet man die Abbildung ½ K:R→R mj : kj < y ≤ kj+1 j = 1, ..., l . k1 : sonst K ist eine Zufallsvariable, für ihre Wahrscheinlichkeitsverteilung QK gilt X QK {mj } = QY ]kj , kj+1 ] = QY Kj = hi j = 1, ..., l . mit K(y) = yi ∈Kj Die Klassenbreite sollte konstant gewählt werden; nur wenn es in Y (Ω̃) Bereiche gibt mit sehr dicht liegenden Merkmalsausprägungen und andere Bereiche mit nur vereinzelten Beobachtungswerten, wählt man in den erstgenannten Bereichen bisweilen eine geringere Klassenbreite als auf dem Rest. Für die Klassenbreite empfiehlt DIN 53 804: c °V. Steinmetz: Grundzüge der Statistik –98– Ist M die Anzahl der verschiedenen Beobachtungswerte und R die Differenz von größtem und kleinstem Wert, so sollte bei konstanter Klassenbreite B gelten: B≈ √R M für 30 < M ≤ 400 B≈ R 20 für 400 < M. Für die Klassenanzahl r sollte also gelten √ r ≈ M ≤ 20 für 30 < M ≤ 400 r ≈ 20 für 400 < M. 20 5.2.6 Darstellung einer Klassierung: Gegeben seien die Bezeichnungen und Voraussetzungen aus Bemerkung (5.2.5). Als Histogramm zu einer gegebenen Klassierung K bezeichnet man die folgende graphische Darstellung: Lj 6 2 1 - k1 k2 k3 k4 k5 k6 k7 k8 R (Vorsicht: Oft verwendete, aber ungenaue Funktionsdarstellung). In einem rechtwinkligen Koordinatensystem werden auf der Abszisse die Klassengrenzen k1 , ..., kl+1 eingezeichnet. Über jeder Klasse Kj =]kj , kj+1 ], j = 1, ..., l zeichnet man ein Rechteck mit der Breite Bj = kj+1 − kj und der Länge Lj := Wegen (∗) 20 QK {mj } . kj+1 − kj QK {mj } = Bj Lj Die Rundung von Beobachtungsdaten (vgl. Bemerkung (5.1.13)) kann man in naheliegender Weise auch als eine Klassenbildung interpretieren. c °V. Steinmetz: Grundzüge der Statistik –99– stimmt also der Flächeninhalt eines Rechtecks mit der zum entsprechenden Klassenmittelpunkt gehörenden Punktmasse überein. Zur Klassierung K gehört die Verteilungsfunktion FK (.) mit 0 : y < m1 QK {m1 } : m1 ≤ y < m2 FK (m1 ) + QK {m2 } : m2 ≤ y < m3 FK (y) = FK (m2 ) + QK {m3 } : m3 ≤ y < m4 ................. 1 : ml ≤ y FK (y) 6 1 0,5 u u e u e u e u e u e u e k1 m1 m2 m3 m4 m5 m6 m7 k8 - y Dies ist also eine Treppenfunktion, deren endlich viele Sprungstellen in den Klassenmittelpunkten liegen. Wegen (∗) ist die Summe der Rechteckflächen 1; man kann das Histogramm als graphische Darstellung einer Dichtefunktion einer stetigen Wahrscheinlichkeitsverteilung Q? interpretieren, durch welche man die gegebene diskrete Verteilung QK und auch die diskrete Verteilung QY approximiert. Entsprechend approximiert man die durch Treppenfunktionen dargestellten Verteilungsfunktionen FK und FY durch die stetige zu Q? gehörende Verteilungsfunktion F ? . Der Graph von F ? ist ein Polygonzug, es gilt 0 : y ≤ k1 QK {m1 } (y − k1 ) : k1 ≤ y ≤ k2 B 1 QK {m2 } (y − k2 ) : k2 ≤ y ≤ k3 F ? (k2 ) + B2 F ? (y) = . QK {m3 } ? F (k ) + (y − k3 ) : k3 ≤ y ≤ k4 3 B3 ................. 1 : kl+1 ≤ y c °V. Steinmetz: Grundzüge der Statistik –100– F ∗ (y) 6 1 0,5 ½ !¡ !! ½ ½ k1 k2 k3 ¡ ¡ » »» »© »» ©" © " " - k4 k5 k6 k7 k8 y 5.2.7 Stem-Leaf-Diagramme (Stamm-Blatt-Diagramme): Eine weitere Möglichkeit, größere Datensätze einschließlich ihrer Häufigkeitsverteilung graphisch übersichtlich darzustellen, ist durch die Stem-Leaf-Diagramme gegeben. Die Vorgehensweise soll zunächst an einem Beispiel erläutert werden: Gegeben sei folgende Urliste: ω̃1 ω̃2 ω̃3 ω̃4 ω̃5 ω̃6 ω̃7 ω̃8 ω̃r . ar = Y (ω̃r ) 470 490 300 61 570 390 490 611 In diesem Fall sind fast alle Zahlen dreistellig, man ergänzt deshalb ggf. Zahlen mit geringerer Stellenzahl durch führende Nullen auf drei Stellen. Anschließend läßt man alle Stellen bis auf die ersten beiden fort, ordnet der Größe nach: 06 30 39 47 49 49 57 61 Man schreibt nun die Ziffern 0,...,9 als ”Stamm” senkrecht untereinander und durch eine senkrechte Linie abgegrenzt - bei den obigen Zahlen an zweiter Stelle auftretende Ziffern als ”Blätter” neben die entsprechende Ziffer des Stammes: 0 1 2 3 4 5 6 7 8 9 6 09 799 7 1 (Ausgangsdaten 3-stellig) Bei diesem Diagramm kann man leicht sehen, in welchem Bereich sich die Daten häufen. Man kann z.B. auch ablesen, daß zwei dreistellige Zahlen aufgetreten sind, die mit 49 anfangen. c °V. Steinmetz: Grundzüge der Statistik –101– Man kann sich leicht Modifikationen obiger Darstellung überlegen: Indem man den Stamm z.B. aus zweistelligen Zahlen aufbaut, kann durch die Blätter eine dritte Stelle berücksichtigt werden: sind an einigen Stammabschnitten keine Blätter vorhanden, kann man, um Platz zu sparen, diese Stammabschnitte fortlassen; man kann bei großer Spannweite des Ausgangsmaterials die berücksichtigte Stellenzahl innerhalb eines Stammes ändern, muß dies aber im Diagramm kenntlich machen, damit die Größenordnung erkennbar bleibt; man kann auch die Zahlen des Stammes doppelt aufführen und bei diesen Paaren die Blätter 0,1,2,3,4 jeweils hinter die obere Zahl schreiben, die Blätter 5,6,7,8,9 hinter die untere: z.B. schreibt man statt . . 2 3 2234778 4 : auch . . 2 3 2234 3 778 4 5.2.8 Bemerkung: Die im 4. Kapitel bereitgestellten Maßzahlen von Wahrscheinlichkeitsverteilungen verwendet man auch in der deskriptiven Statistik zur Charakterisierung von Häufigkeitsverteilungen. Sie sollen hier wiederholt und ergänzt werden: Gegeben sei das GdS mit Ω̃ = {ω̃1 , ..., ω̃N } und dem eindimensionalen Merkmal Y mit der Urliste ω̃r ω̃1 . . . ω̃N Y (ω̃r ) a1 . . . aN und der Bildmenge Y (Ω̃) = {y1 , ..., yM } . (.1) Für jedes Skalierungsniveau von Y ist als Lageparameter der Modus yMod (Modalwert, häufigster Wert, wahrscheinlichster Wert) brauchbar, definiert durch QY {yMod } ≥ QY {yi } i = 1, ..., M . Sobald QY für mehrere Trägerpunkte maximal wird, ist der Modus nicht eindeutig. (.2) Y sei mindestens ordinalskaliert Als Lageparameter ist neben dem Modus auch der Median yMed (Zentralwert) anwendbar, definiert durch 1 P {Y ≤ yMed } ≥ 2 c °V. Steinmetz: Grundzüge der Statistik 1 und P {Y ≥ yMed } ≥ . 2 –102– yMed ist Median genau dann, wenn gilt ª N © ª © ] r ∈ {1, ..., N } | ar < yMed ≤ ≤ ] r ∈ {1, ..., N } | ar ≥ yMed . 2 Ein Median ist ein Spezialfall unter den p-Quantilen (p ∈]0, 1[) yp , die definiert sind durch P {Y ≤ yp } ≥ p und P {Y ≥ yp } ≥ 1 − p. yp ist p-Quantil genau dann, wenn gilt © ª © ª ] r ∈ {1, ..., N } | ar < yp ≤ N · p ≤ ] r ∈ {1, ..., N } | ar ≥ yp . I.a. sind durch obige Definition die p-Quantile und damit auch der Median nicht eindeutig festgelegt. Es seien a(1) ≤ a(2) ≤ ... ≤ a(N ) die nach der Größe sortierten ar (r = 1, ..., N ), man erzwingt bisweilen Eindeutigkeit durch die Festsetzung, als p-Quantil den Trägerpunkt a(k) zu wählen mit k−1<N ·p≤k (für den Median siehe auch im nachfolgenden Punkt (.3)). (.3) Y sei kardinalskaliert Mit Ni := ]{ω̃r ∈ Ω̃ | Y (ω̃r ) = yi } i = 1, ..., M gilt für die relative Häufigkeit hi = Ni ]{r ∈ {1, ..., N } | ar = yi } = QY {yi } = . N N Als Lageparameter ist für kardinalskalierte Merkmale der Erwartungswert brauchbar, es gilt EY = M X i=1 yi QY {yi } = Man bezeichnet mit gi = M X M X i=1 yi N 1 X Ni = ar =: ā . N N r=1 Ni (i = 1, ..., M ) N gi y i i=1 c °V. Steinmetz: Grundzüge der Statistik und N N X 1 1 X ar ar = N N r=1 r=1 –103– als gewogene arithmetische Mittel21 der M Zahlen y1 , ..., yM mit den Gewichten g1 , ..., gM bzw. der N Zahlen a1 , ..., aN ; dabei haben im letzten Fall die N Gewichte den übereinstimmenden Wert N1 , man spricht hier auch einfach von dem arithmetischen Mittel21 der Zahlen a1 , ..., aN . Verwendet man als Lageparameter den Median, so erzwingt man im Fall eines kardinalskalierten Merkmals Eindeutigkeit auch durch folgende Festsetzung: Man definiert : N ungerade a( n+1 ) 2 yMed := . 1 N + a N (a ) : N gerade ( +1) 2 ( ) 2 2 Es gelte ar ≥ 0 für r = 1, ..., N. Man bezeichnet āgeom := √ N a1 · ... · aN als geometrisches Mittel der Beobachtungswerte. Es gelte ar > 0 für r = 1, ..., N. Man bezeichnet āharm := 1 a1 N + ... + 1 aN als harmonisches Mittel der Beobachtungswerte. Für die Varianz von Y gilt Var Y = E(Y − EY )2 = = M P i=1 M P i=1 = Man bezeichnet (yi − EY )2 QY {yi } (yi − EY )2 Ni N N 1 P (ar − ā)2 . N r=1 N 1 X (ar − ā)2 N r=1 als mittlere quadratische Abweichung22 der Zahlen a1 , ..., aN . 21 Man verwendet diese Begriffe auch bei beliebigen endlichen Zahlenfolgen ohne Bezug auf ein GdS. Dabei müssen die Gewichte stets nichtnegativ sein und ihre Summe muß Eins ergeben. 22 Diesen Begriff verwendet man auch bei beliebigen endlichen Zahlenfolgen ohne Bezug auf ein GdS. c °V. Steinmetz: Grundzüge der Statistik –104– Als ein weiteres Streuungsmaß ist bei eindeutig definierten Quartilen auch der Quartilsabstand y0,75 − y0,25 gebräuchlich. Aus klassierten Daten lassen sich i.a. nur Näherungswerte für die Maßzahlen des zugrunde liegenden statistischen Merkmals berechnen. (.4) Gegeben seien die Voraussetzungen und Bezeichnungen aus Bemerkung (5.2.5) und Darstellung einer Klassierung (5.2.6). Als Näherungswert für den Median eines kardinalskalierten, klassierten Merkmals wählt man eine Zahl yMed,klass so, daß die durch sie gezogene Parallele zur Ordinate den Flächeninhalt des Histogramms halbiert. Für die zugehörige stetige Verteilungsfunktion F ? aus Darstellung einer Klassierung (5.2.6) gilt 1 F ? (yMed,klass ) = . 2 Einen Näherungswert für den Erwartungswert EY errechnet man mit Hilfe der Klassenmitten kj + kj+1 mj := (j = 1, ..., l) 2 durch l P Eklass Y := mj QK {mj } j=1 l k +k P j j+1 QY ]kj , kj+1 ] . 2 j=1 Entsprechend berechnet man als Näherungswert für die Varianz von Y bei klassierten Daten l X (mj − Eklass Y )2 QK {mj }. Varklass Y := = j=1 5.2.9 Box-Plot: Eine kompakte graphische Darstellung, die besonders zum Vergleich wichtiger Kenngrößen mehrer Datensätze geeignet ist, liegt in dem sogenannten Box-Plot vor. Es seien ω̃r ω̃1 . . . ω̃N Y (ω̃1 ) a1 . . . aN die Urliste eines kardinalskalierten Merkmals und a(1) ≤ ... ≤ a(N ) die der Größe nach geordneten Beobachtungswerte. Man berechnet unteres Quartil y0,25 Median yMed oberes Quartil y0,75 c °V. Steinmetz: Grundzüge der Statistik –105– und veranschaulicht diese Kennwerte zusammen mit a(1) und a(N ) folgendermaßen: a(1) yMed y0,25 y0,75 a(N ) - y 0 Um mehr extreme Beobachtungswerte explizit sichtbar zu machen, zieht man bisweilen die links und rechts an die Box angesetzten Linien nicht bis a(1) bzw. a(N ) durch, sondern für ein geeignet gewähltes k ∈ N bis a(k+1) bzw. a(N −k) und zeichnet a(1) , ..., a(k) und a(N −k+1) , ..., a(N ) einzeln ein: × ... × a(1) a(k) a(k+1) yMed y0,25 0 c °V. Steinmetz: Grundzüge der Statistik y0,75 a(N −k) × ... × a(N −k+1) a(N ) - y –106– 5.3 Häufigkeitsverteilungen zweidimensionaler Merkmale 5.3.1 Definition: Gegeben sei das GdS aus Vereinbarung (5.1.1) mit Ω̃ = {ω̃1 , ..., ω̃N }, dem zweidimensionalen Merkmal Y : Ω̃ −→ R2 und der Urliste ω̃r ω̃1 ... ω̃r ... ω̃N (ar , br ) := Y (ω̃r ) (a1 , b1 ) ... (ar , br ) ... (aN , bN ) . Weiterhin seien U := pr1 ◦ Y die erste Komponente von Y mit der Bildmenge U (Ω̃) =: {u1 , ..., uL } und V := pr2 ◦ Y die zweite Komponente von Y mit der Bildmenge V (Ω̃) =: {v1 , ..., vM }. Für das zweidimensionale Merkmal sei auch gemäß Bemerkung (3.3.5) die Schreibweise Y = (U, V ) eingeführt. Voraussetzungsgemäß ist in (Ω̃, F̃, P̃ ) das Wahrscheinlichkeitsmaß P̃ die relative Häufigkeit. Man bezeichnet die Wahrscheinlichkeitsverteilung QY des Merkmals Y als zweidimensionale Häufigkeitsverteilung (genauer: Verteilung der relativen Häufigkeiten) und definiert für (ui , vj ) ∈ U (Ω̃) × V (Ω̃) i = 1, ..., L ; j = 1, ..., M hij := QY {(ui , vj )} . Die tabellarische Zusammenstellung vj ui v1 ··· u1 .. . ui .. . uL h.j ··· h.1 c °V. Steinmetz: Grundzüge der Statistik ··· ··· vj .. . .. . ··· vM hi. h1. .. . hij .. . .. . ··· h.j ··· ··· h.M hi. .. . hL. h.. = 1 –107– mit M P hi· := hij i = 1, ..., L hij j = 1, ..., M j=1 L P h·j := i=1 M L P P h·· := hij i=1 j=1 bezeichnet man als Häufigkeits- oder Kontingenztabelle von Y = (U, V ). 5.3.2 Folgerung: Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.3.1). Es gilt hij = QY {(ui , vj )} i = 1, ..., L; j = 1, ..., M = H{ω̃ ∈ Ω̃ | Y (ω̃) = (ui , vj )} = ]{r ∈ {1, ..., N } | ar = ui und br = vj } , N hij ist also die relative Häufigkeit, mit welcher (ui , vj ) als Paar von Beobachtungswerten bei den N Elementen der Grundgesamtheit auftritt. Weiterhin gilt M L X M L X X X hij = 1 . h·j = hi· = j=1 i=1 i=1 j=1 Beweis: Die erste Behauptung folgt sofort durch Anwendung von Definition (2.4.3) und Definition (3.1.1) auf das GdS. Die zweite Behauptung folgt aus L P M P i=1 j=1 hij = PP i j H{ω̃ ∈ Ω̃ | Y (ω̃) = (ui , vj )} = H(Ω̃) =1 und der Definition der hi· und h·j . 5.3.3 Bemerkung: Im Gegensatz zur eindimensionalen Häufigkeitstabelle aus Definition (5.2.1) sind in der Tabelle von Definition (5.3.1) nicht notwendigerweise alle relativen c °V. Steinmetz: Grundzüge der Statistik –108– Häufigkeiten hij größer als Null, da nicht jedes Paar (ui , vj ) auch Trägerpunkt, d.h. Bildpunkt eines ω̃ ∈ Ω̃ sein muß. Aber alle an den Tabellenrändern aufgeführten Punktmassen hi· der Randverteilung QU von U und h·j der Randverteilung QV von V sind positiv. Oft werden aus einer Urliste ω̃r ω̃1 ... ω̃N (ar , br ) := Y (ω̃r ) (a1 , b1 ) ... (aN , bN ) zunächst die absoluten Häufigkeiten Nij := ]{ω̃ ∈ Ω̃ | Y (ω̃) = (ui , vj )} i = 1, ..., L ; j = 1, ..., M mit den Zeilensummen Ni· := M X Nij j=1 und den Spaltensummen N·j := L X Nij i=1 angegeben. In einem zweiten Schritt berechnet man die relativen Häufigkeiten hij = Nij Ni· N·j , hi· = , h·j = . N N N Zur Charakterisierung der eindimensionalen Randverteilungen benutzt man die Lage- und Streuungsparameter aus Bemerkung (5.2.8) sowie bei klassierten Daten ihre Näherungen (je nach Datenlage kann man die Beobachtungen zweidimensionaler Merkmale bzgl. einer Komponente entsprechend Bemerkung (5.2.5) klassieren oder simultan bzgl. beider Komponenten). Ohne Schwierigkeiten lassen sich auch bedingte Häufigkeitsverteilungen entsprechend Definition (3.4.1) berechnen. 5.3.4 Folgerung: Für ein zweidimensionales kardinalskaliertes Merkmal Y = (U, V ) seien in einer Urliste für jedes ω̃r ∈ Ω̃ (r = 1, ..., N ) die Merkmalsausprägung Y (ω̃r ) = (ar , br ) gegeben und in einer Häufigkeitstabelle für jedes Paar (ui , vj ) ∈ U (Ω̃) × V (Ω̃) die relative Häufigkeit hij = ]{ω̃ ∈ Ω̃ | U (ω̃) = ui und V (ω̃) = vj } i = 1, ..., L ; j = 1, ..., M . N Mit den Erwartungswerten N L X 1 X EU = ar = ui · hi· =: ā N r=1 i=1 c °V. Steinmetz: Grundzüge der Statistik –109– und EV = N M X 1 X br = vj · h·j =: b̄ N r=1 j=1 gilt für den Korrelationskoeffizienten (nach Bravais-Pearson) von U und V (.1) Korr(U, V ) = sµ (.2) N P r=1 N P r=1 (ar − ā)(br − b̄) (ar − L P M P ā)2 i=1 j=1 ¶µ N P r=1 (br − b̄)2 ¶ (ui − EU )(vj − EV )hij =v ! . à uµ ¶ L M u P P t (ui − EU )2 hi· (vj − EV )2 h·j i=1 j=1 5.3.5 Bemerkung: Man benutzt (5.3.4.1) als Maß für den linearen Zusammenhang zweier sich elementweise zugeordneter Zahlenreihen a1 ... ar ... aN b1 ... br ... bN ohne jede Bezugnahme auf das GdS. 5.3.6 Definition: In einer Urliste seien für ein zweidimensionales Merkmal Y = (U, V ) mit mindestens ordinal skalierten Komponenten U und V die Merkmalsausprägungen mit ihren zugehörenden Rängen23 gegeben: ω̃1 ω̃r ar := U (ω̃r ) a1 br := V (ω̃r ) b1 Rr (a) R1 (a) Rr (b) R1 (b) ... ω̃N ... aN ... bN ... RN (a) ... RN (b). Dabei sei für a := (a1 , ..., aN ) und b := (b1 , ..., bN ) ar 6= ar0 und br 6= br0 ; r 6= r0 ∈ {1, ..., N } vorausgesetzt. 23 vgl. Definition (8.9.2) c °V. Steinmetz: Grundzüge der Statistik –110– Mit R̄(a) := und N 1 X N +1 Rr (a) = N r=1 2 N 1 X N +1 R̄(b) := Rr (b) = N r=1 2 bezeichnet man KorrS (U, V ) := s· N P r=1 N P r=1 (Rr (a) − R̄(a))(Rr (b) − R̄(b)) (Rr (a) − R̄(a))2 ¸· N P r=1 (Rr (b) − R̄(b))2 ¸ als Spearmanschen Rangkorrelationskoeffizienten von U und V . Bei in a oder b auftretenden Bindungen werden i.a. Durchschnittsränge - (vgl. Bemerkung (8.9.6) - verwendet). 5.3.7 Folgerung: Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.3.6). Treten weder in a noch in b Bindungen auf, so gilt für N ≥ 2 N P 6 KorrS (U, V ) = 1 − r=1 (Rr (a) − Rr (b))2 (N − 1)N (N + 1) . Beweis: Mit den Formeln N X N (N + 1) r= 2 r=1 und N X r=1 r2 = N (N + 1)(2N + 1) 6 folgt und sowie N 1 X N +1 R̄(a) = Rr (a) = N r=1 2 N X (N − 1)N (N + 1) (Rr (a) − R̄(a))2 = 12 r=1 N X r=1 (Rr (b) − R̄(b))2 = c °V. Steinmetz: Grundzüge der Statistik (N − 1)N (N + 1) . 12 –111– Weiterhin zeigt man leicht N X ¡ r=1 Rr (a) − R̄(a) ¢¡ ¢ Rr (b) − R̄(b) = N X r=1 Rr (a) · Rr (b) − N (N + 1)2 . 4 Mit diesen Zwischenergebnissen folgt N P 12 Rr (a) · Rr (b) − 3N (N + 1)2 r=1 . KorrS (U, V ) = (N − 1)N (N + 1) Zusammen mit der leicht nachzuvollziehenden Umformung N N P P 6 (Rr (a) − Rr (b))2 Rr (a) · Rr (b) − 3N (N + 1)2 12 r=1 1 − r=1 = (N − 1)N (N + 1) (N − 1)N (N + 1) folgt die Behauptung. 5.3.8 Bemerkung: Da der Spearmansche Rangkorrelationskoeffizient nur auf die Ränge der Meßwerte angewendet wird, deutet ein Wert in der Nähe von ±1 auch bei kardinal skalierten Merkmalen nicht unbedingt auf einen starken linearen Zusammenhang der Meßwerte hin, sondern möglicherweise nur auf ein monotones Verhalten der beiden Meßwertefolgen. Werte in der Nähe von 0 deuten darauf hin, daß wenig oder kein monotoner Zusammenhang zwischen den Meßwertefolgen vorliegt. 5.3.9 Satz: Für das zweidimensionale Merkmal Y = (U, V ) mit beliebigem Skalierungsniveau der Komponenten sei die Tabelle der relativen Häufigkeiten mit den relativen Randhäufigkeiten gegeben: vj ui v1 ··· u1 .. . ui .. . uL h.j ··· ··· h.1 ··· vj .. . .. . ··· vM hi. h1. .. . hij .. . .. . ··· h.j ··· ··· h.M hi. .. . hL. h.. = 1 U und V sind genau dann stochastisch unabhängig, wenn gilt hij = hi· · h·j für Beweis: Siehe Bemerkung (3.3.8). c °V. Steinmetz: Grundzüge der Statistik i = 1, ..., L ; j = 1, ..., M . –112– 5.3.10 Definition: Für das zweidimensionale Merkmal Y = (U, V ) mit beliebigem Skalierungsniveau der Komponenten sei die Tabelle der relativen Häufigkeiten mit den relativen Randhäufigkeiten gegeben: vj ui v1 ··· u1 .. . ui .. . uL h.j ··· h.1 ··· ··· vj .. . .. . ··· vM hi. h1. .. . hij .. . .. . ··· h.j ··· ··· h.M hi. .. . hL. h.. = 1 mit hi· > 0 für i = 1, ..., L und h·j > 0 für j = 1, ..., M . Man bezeichnet L X M X [hij − hi· · h·j ]2 2 . ϕU,V := hi· h·j i=1 j=1 als mittlere quadratische Kontingenz der Merkmale U, V, s ϕ2U,V C := + 1 + ϕ2U,V als Pearsonschen Kontingenzkoeffizienten und s min{L, M } Ckorr := C · min{L, M } − 1 als korrigierten Pearsonschen Kontingenzkoeffizienten . 5.3.11 Folgerung: Gegeben seien die Bezeichnungen und Voraussetzungen aus Definition (5.3.10) und L, M > 1. Dann gilt .1) ϕ2U,V = L P M h2ij P −1 i=1 j=1 hi· h·j .2) 0 ≤ ϕ2U,V ≤ min{L, M } − 1 .3) 0 ≤ C < 1 .4) 0 ≤ Ckorr ≤ 1 c °V. Steinmetz: Grundzüge der Statistik –113– .5) Sind U und V unabhängig, so folgt ϕ2U,V = C = Ckorr = 0 . Beweis: zu .1) ϕ2U,V = M h2 − 2hij hi. · h·j + h2 h2 L P P i· ·j ij h h i· ·j i=1 j=1 PP P P h2ij PP hi· h·j hij + = −2 i j i j hi· h·j i j Wegen 1 = h·· = folgt die Behauptung. XX i hij = j X hi· i X j h·j zu .2) Die Nichtnegativität von ϕ2U,V folgt sofort aus der Definition (5.3.10), da die hi· und h·j als positiv vorausgesetzt werden und das Quadrat einer reellen Zahl stets nichtnegativ ist. Weiterhin gilt wegen der Nichtnegativität der relativen Häufigkeit stets h·j = h1j + ... + hij + ... + hLj ≥ hij für i = 1, ..., L ; j = 1, ..., M . Damit folgt wegen h·j > 0 nach Voraussetzung hij ≤1 h·j und L P M P i=1 j=1 h2ij hi· h·j = ≤ = L M P 1 P hij hij h·j i=1 hi· j=1 M L 1 P P hij i=1 hi· j=1 L P 1=L . i=1 Entsprechend zeigt man X X h2ij ≤M . hi· h·j i j c °V. Steinmetz: Grundzüge der Statistik –114– Aus beiden Ergebnissen zusammen folgt XX i und j h2ij ≤ min{L, M } hi· h·j X X h2ij − 1 ≤ min{L, M } − 1 . h h i· ·j i j zu .3) Aus 0 ≤ ϕ2U,V < ϕ2U,V + 1 folgt durch Division mit ϕ2U,V + 1 0≤ ϕ2U,V <1 1 + ϕ2U,V und damit sofort die behauptete Ungleichung . zu .4) Die Nichtnegativität folgt sofort aus der Definition von Ckorr . Zur Vereinfachung werde abgekürzt ϕ2U,V =: ϕ2 und min{L, M } =: m . Aus .2) folgt 0 ≤ m − ϕ2 − 1 und mϕ2 ≤ mϕ2 + m − ϕ2 − 1 = (m − 1)(1 + ϕ2 ) . Wegen ϕ2 + 1 > 0 und L, M > 1 folgt ϕ2 m ≤ 1 1 + ϕ2 m − 1 und damit die rechte Seite der Ungleichung. zu .5) Da die Unabhängigkeit von U und V äquivalent ist zu hij = hi· · h·j für i = 1, ..., L und j = 1, ..., M folgt hij − hi· h·j = 0 und damit aus Definition (5.3.10) ϕ2U,V = 0 und Ckorr = 0 . c °V. Steinmetz: Grundzüge der Statistik –115– 5.4 Konzentrationsmaße 5.4.1 Definition: Gegeben sei das GdS mit der Urliste ω̃1 · · · ω̃N ω̃r . ar := Y (ω̃r ) a1 · · · aN Es gelte für die der Größe nach geordneten Merkmalsausprägungen 0 ≤ a(1) ≤ a(2) ≤ · · · ≤ a(N ) und N X a(r) > 0 . r=1 Mit vk := k P r=1 N P a(r) k = 1, ..., N a(r) r=1 werde der Anteil bezeichnet, den die Summe der k kleinsten Merkmalsausprägungen an der Gesamtsumme der Merkmalsausprägungen hat, und mit uk := k N k = 1, ..., N der Anteil, den die Menge der zugehörigen Merkmalsträger an ganz Ω̃ hat. Verbindet man in einem rechtwinkligen u − v−Koordinatensystem mit denselben Maßeinheiten auf beiden Koordinatenachsen die Punkte (0, 0) =: (u0 , v0 ) und (u1 , v1 ) (u1 , v1 ) und (u2 , v2 ) .. . (uN −1 , vN −1 ) und (uN , vN )24 durch Strecken, so bezeichnet man den entstehenden Polygonzug als Lorenzkurve: 24 Im nächsten Satz wird gezeigt: (uN , vN ) = (1, 1). c °V. Steinmetz: Grundzüge der Statistik –116– v 6 1 (1, 1) ¢ u ¢ vN −1 v2 !u !! v 1 »» »u 0 u1 u2 u ¢ ¢ ¢ - uN −1 1 u 5.4.2 Satz: Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.4.1). Für die Lorenzkurve gilt: (.1) Sie beginnt in (u0 , v0 ) = (0, 0), (.2) sie endet in (uN , vN ) = (1, 1), (.3) sie ist monoton steigend, (.4) vk ≤ uk für k = 0, ..., N, d.h. sie verläuft nie über der (0, 0) und (1, 1) verbindenden Geraden, (.5) haben alle Merkmalsträger dieselbe Merkmalsausprägung, so ist sie die (0, 0) und (1, 1) verbindende Strecke, (.6) gilt 0 = a(1) = ... = a(N −1) < a(N ) , so fällt sie von 0 bis zum Punkt (1, 1). N −1 N mit der Abszisse zusammen und steigt dann linear Beweis: zu .1) Die Behauptung ist nach Definition der Lorenzkurve erfüllt. zu .2) Es gilt für k = N N P N = 1 und vN = r=1 uN = N P N a(r) =1. a(r) r=1 zu .3) Es gilt für k = 1, ..., N − 1 uk = c °V. Steinmetz: Grundzüge der Statistik k k+1 < = uk+1 N N –117– und wegen a(r) ≥ 0 vk = k P a(r) r=1 N P a(r) ≤ r=1 k+1 P r=1 N P a(r) = vk+1 , a(r) r=1 so daß die (uk , vk ) und (uk+1 , vk+1 ) verbindende Strecke nicht fallen kann. Wegen 0≤ a(1) N P a(r) r=1 ist auch für die erste Teilstrecke der Lorenzkurve eine nichtnegative Steigung gesichert. zu .4) Es gilt für k = 1, ..., N − 1 nach Voraussetzung a(1) ≤ a(k+1) .. . a(k) ≤ a(k+1) und folglich a(1) + ... + a(k) ≤ a(k+1) + ... + a(k+1) = ka(k+1) . Damit folgt k(a(1) + ... + a(k) ) + (a(1) + ... + a(k) ) ≤ k(a(1) + ... + a(k) ) + ka(k+1) oder (k + 1)(a(1) + ... + a(k) ) ≤ k(a(1) + ... + a(k) + a(k+1) ) und schließlich a(1) + ... + a(k+1) a(1) + ... + a(k) ≤ . k k+1 Da diese Ungleichung für k = 1, ..., N − 1 gilt, erhält man a(1) a(1) + ... + a(k) a(1) + ... + a(N ) ≤ ... ≤ ≤ ... ≤ . 1 k N Greift man den k−ten und den letzten Quotienten heraus, so folgt durch entsprechendes Auflösen k P a(r) k r=1 ≤ vk = N = uk . P N a(r) r=1 c °V. Steinmetz: Grundzüge der Statistik –118– zu .5) Die Gerade durch die Punkte (0, 0) und (1, 1) ist durch die Gleichung v=u festgelegt. Gilt a(1) = ... = a(N ) =: a, so folgt k k·a = = uk , N ·a N die Punkte (uk , vk ) liegen also auf der o.g. Geraden. vk = zu .6) Die Behauptung folgt aus der Voraussetzung 0 = a(1) = ... = a(N −1) < a(N ) und der Definition der Lorenzkurve. 5.4.3 Folgerung: Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.4.1), allerdings liege nicht die Urliste ω̃1 · · · ω̃N ω̃r ar := Y (ω̃r ) a1 · · · aN mit 0 ≤ ar für r = 1, ..., N und ar > 0 r=1 vor, sondern die zugehörige Häufigkeitstabelle yi y1 · · · hi := QY {yi } h1 · · · Es sei N X yM hM 25 y(1) · · · y(M ) yi QY {yi } h(y(1) ) · · · h(y(M ) ) . die entsprechende Häufigkeitstabelle mit der Größe nach geordneten y−Werten y(1) ≤ ... ≤ y(M ) . Dann stimmt die durch ṽl := l P i=1 M P i=1 25 Es gilt also 0 ≤ yi und M P yi > 0 . i=1 c °V. Steinmetz: Grundzüge der Statistik h(y(i) )y(i) l = 1, ..., M h(y(i) )y(i) –119– und ũl := l X h(y(i) ) l = 1, ..., M i=1 definierte Lorenzkurve mit der aus der Urliste ermittelten überein. Beweisskizze: Gilt M = N, so ist die Folgerung trivial. I.a. wird aber M < N gelten, d.h. daß Beobachtungswerte übereinstimmen. Man könnte vermuten, daß in diesem Fall die aus der Urliste ermittelte Lorenzkurve mehr ”Knickstellen” hat als die zur Häufigkeitstabelle gehörende, die beiden Kurven also nicht übereinstimmen können. Nachfolgend wird gezeigt, daß dies nicht der Fall ist: Es sei a(k−1) ≤ a(k) = a(k+1) . Dann liegt der Punkt (uk , vk ) auf der die Punkte (uk−1 , vk−1 ) und (uk+1 , vk+1 ) verbindenden Strecke, denn es gilt uk k = = N und k P r=1 N P vk = k−1 N a(r) = a(r) + 2 k−1 P k+1 N a(r) + a(k) + r=1 2 a(r) N P a(r) . r=1 Wegen a(k) = a(k+1) folgt weiter vk = k P r=1 r=1 k−1 P uk−1 + uk+1 2 = a(r) + r=1 k+1 P r=1 2 N P a(r) = a(r) vk−1 + vk+1 , 2 r=1 und man hat folgende Situation, bei der in (uk , vk ) keine Knickstelle vorliegt: v 6 vk+1 vk vk−1 u uk−1 c °V. Steinmetz: Grundzüge der Statistik u u - uk uk+1 u –120– Entsprechendes gilt natürlich auch, wenn mehrere aufeinander folgende Beobachtungswerte übereinstimmen. Es sei nun z.B. . . . a(k−1) < a(k) = . . . = a(k+m) < a(k+m+1) . . . und a(k) der l−kleinste Beobachtungswert, d.h. es gelte y(l) = a(k) = ... = a(k+m) . Dann folgt l P i=1 M P ṽl = h(y(i) )y(i) = h(y(i) )y(i) ũl = r=1 N P a(r) = vk+m a(r) r=1 i=1 und k+m P l X h(y(i) ) = i=1 k+m = uk+m . N Entsprechendes kann man sich für alle Folgen übereinstimmender Beobachtungswerte überlegen, so daß also die beiden Lorenzkurven übereinstimmen. 5.4.4 Definition: Für das Merkmal Y eines GdS seien eine Klassierung mit den Klassen Kj :=]kj , kj+1 ] j = 1, ..., l 0 ≤ k1 < k2 < ... < kl+1 , den Klassenmitten kj + kj+1 j = 1, ..., l 2 und der auf die Klasse Kj entfallenden Punktmasse mj = QY ]kj , kj+1 ] j = 1, ..., l gegeben. Entsprechend Folgerung (5.4.3) definiert man eine approximative Lorenzkurve durch ṽk := k P mj QY ]kj , kj+1 ] j=1 l P k = 1, ..., l mj QY ]kj , kj+1 ] j=1 ũk := k P QY ]kj , kj+1 ] j=1 ṽ0 := 0 =: ũ0 . c °V. Steinmetz: Grundzüge der Statistik –121– 5.4.5 Definition: Gegeben sei das GdS mit der Urliste ω̃r ω̃1 · · · ω̃N , ar := Y (ω̃r ) a1 · · · aN ar ≥ 0 für r = 1, ..., N und die zugehörende Lorenzkurve in einem rechtwinkligen u − v−Koordinatensystem mit denselben Maßeinheiten auf beiden Koordinatenachsen. Weiterhin seien F0 der Flächeninhalt der Fläche zwischen der von (0,0) nach (1,1) gehenden Strecke und der Abszisse von (0,0) bis (1,0), F1 der Flächeninhalt der Fläche zwischen der von (0,0) nach (1,1) gehenden Strecke und der Lorenzkurve. Man bezeichnet G := F1 F0 als Gini-Koeffizienten und Gnorm := als normierten Gini-Koeffizienten. N F1 · N −1 F0 5.4.6 Bemerkung: Steht nur eine aufgrund klassierter Daten ermittelte approximative Lorenzkurve zur Verfügung, kann man mit ihrer Hilfe i.a. nur approximative Gini-Koeffizienten ermitteln. 5.4.7 Satz: Gegeben seien die Bezeichnungen und Voraussetzungen aus Definition (5.4.5). Es gilt (.1) G = 2F1 (.2) 0 ≤ G ≤ N −1 N (.3) 0 ≤ Gnorm ≤ 1. Beweis: zu .1) Da der Flächeninhalt des Quadrates mit den Eckpunkten (0, 0), (1, 0), (1, 1), (0, 1) Eins ist, folgt F0 = 12 und G = 2F1 . zu .2) und .3) Die Behauptungen folgen direkt aus dem nachfolgenden Satz. c °V. Steinmetz: Grundzüge der Statistik –122– 5.4.8 Satz: Gegeben seien die Bezeichnungen und Voraussetzungen aus Definition (5.4.5). Weiterhin seien (0, 0) = (u0 , v0 ), (u1 , v1 ), ..., (uN −1 , vN −1 ), (uN , vN ) = (1, 1) die definierenden Punkte einer Lorenzkurve. Dann gilt für den Gini-Koeffizienten NP −1 (.1) G = uN −1 − (ur+1 − ur−1 )vr r=1 (.2) 5.4.9 Bemerkung: = −1 2 NP N −1 − vr . N N r=1 Die zweite Formel gilt nur, wenn die Lorenzkurve aus den Daten der Urliste mit N Untersuchungseinheiten ermittelt wurde. Falls die Lorenzkurve aus der Häufigkeitstabelle mit M Merkmalsausprägungen berechnet wurde, muß die Summation in der ersten Formel bis M − 1 durchgeführt werden, die Formel .2) ist nicht anwendbar. Beweis zu Satz (5.4.8): In der folgenden Zeichnung ist die Lorenzkurve zwischen ur und ur+1 dargestellt: v 6 1 (1, 1) ur+1 vr+1 ur vr ¡ ¡ 0 ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ - ur ur+1 1 u Bei der eingezeichneten Teilfläche aus der Fläche F1 (vgl. Definition (5.4.5)) handelt es sich um ein Trapez, für seinen Flächeninhalt F1r gilt F1r = (ur+1 − ur ) c °V. Steinmetz: Grundzüge der Statistik (ur − vr ) + (ur+1 − vr+1 ) . 2 –123– Damit folgt G = 2 NP −1 F1r = r=0 NP −1 = r=0 ur+1 ur − r=0 NP −1 − NP −1 u2r + r=0 NP −1 r=0 (ur+1 − ur )(ur − vr + ur+1 − vr+1 ) NP −1 ur+1 vr + r=0 NP −1 r=0 ur v r − NP −1 u2r+1 − ur ur+1 + r=0 NP −1 NP −1 ur+1 vr+1 r=0 ur vr+1 . r=0 Berücksichtigt man (u0 , v0 ) = (0, 0) sowie (uN , vN ) = (1, 1) und daß beispielsweise gilt N −1 X r=0 ur vr+1 = uN −1 + N −2 X r=0 ur vr+1 = uN −1 + N −1 X ur−1 vr , r=1 so erhält man nach einigen Umformungen G = NP −1 r=1 − NP −1 r=1 ur+1 ur − u2r + = uN −1 − NP −1 r=1 NP −1 r=1 NP −1 r=1 ur+1 vr + u2N + ur v r − NP −1 r=1 NP −1 r=1 u2r − uN vN − ur ur+1 + uN −1 + NP −1 NP −1 ur v r r=1 ur−1 vr r=1 (ur+1 − ur−1 )vr . Da für die Daten der Urliste gilt ur+1 − ur = r 1 r+1 r−1 2 r+1 − = , ur+1 − ur−1 = − = , N N N N N N erhält man sofort die Aussage (.2). 5.4.10 Definition: Gegeben sei das GdS mit der Urliste ω̃r ω̃1 · · · ω̃N . Y (ω̃r ) a1 · · · aN Für die der Größe nach geordneten Merkmalsausprägungen gelte 0 ≤ a(1) ≤ a(2) ≤ ... ≤ a(N ) und N X r=1 c °V. Steinmetz: Grundzüge der Statistik a(r) > 0. –124– Man bezeichnet CRg := N P a(r) r=N −g+1 N P g = 1, 2, ..., N a(r) r=1 als Konzentrationskoeffizienten und den die Punkte (0, 0) =: (0, CR0 ), (1, CR1 ), ..., (N, CRN ) verbindenden Streckenzug als Konzentrationskurve. Die Zahl N P · ¸ a2r N 2 X ar H := = · r=1 ¸2 N N P P r=1 as as s=1 s=1 wird als Herfindahl-Index bezeichnet. 5.4.11 Bemerkung: Für g = 1 erhält man a(N ) = CR1 · N X a(r) , r=1 man kann also aus der Kenntnis von CR1 und der Gesamtsumme der Merkmalsausprägungen a(N ) berechnen. Für g = 2 erhält man a(N ) + a(N −1) = CR2 · N X a(r) , r=1 die Untersuchungseinheiten mit der größten bzw. zweitgrößten Merkmalsausprägung können aus der Kenntnis der eigenen Situation, von CR2 und der Gesamtsumme der Merkmalsausprägungen also die Merkmalsausprägung der jeweils anderen Untersuchungseinheit ausrechnen. Aus Datenschutzgründen darf deshalb in Deutschland die amtliche Statistik nur Konzentrationskoeffizienten für g > 2 veröffentlichen. Für den Herfindahl-Index gilt 1 ≤ H ≤ 1. N c °V. Steinmetz: Grundzüge der Statistik –125– 5.4.12 Satz: Gegeben sei das GdS mit der Urliste ω̃r ω̃1 · · · ω̃N , Y (ω̃r ) a1 · · · aN dabei sei ar ≥ 0 für r = 1, ..., N und N P ar > 0 . r=1 (.1) Sind alle ar = 0 bis auf eines, so folgt H=1 (dies gilt insbesondere für N = 1). (.2) Gilt a1 = ... = aN , liegt also eine gleichmäßige Verteilung der Merkmalssumme auf die N Untersuchungseinheiten vor, nimmt H den Minimalwert 1 H= N N P an (N fest, ar fest) . r=1 Beweis: zu (.1) o.B.d.A. seien a1 > 0, a2 = . . . = aN = 0 . N P a2r a21 H=· =1 = ¸ 2 N a21 P as r=1 s=1 zu (.2) Wir suchen eine Lösung von 0< min N X a1 ,...,aN N r=1 P ar =K N ∈ N, K > 0 fest . a2r r=1 Wegen N P ar = K folgt: r=1 N P r=1 µ K ar − N ¶2 = N P r=1 = N P r=1 = N P r=1 c °V. Steinmetz: Grundzüge der Statistik µ a2r K K2 − 2ar + 2 N N a2r − 2 a2r − ¶ K K2 K + 2N N N K2 , N –126– ¶2 N µ X K2 K also = . ar − + N N |{z} r=1 r=1 | {z } | {z } unabh.von a1 , ..., aN >0 ≥0 N X a2r Da alle Summanden nichtnegativ sind, können wir die Summe auf der linken Seite minimieren, indem wir bestenfalls die Summe auf der rechten Seite zu Null machen. Dies ist nur möglich, wenn a1 = a2 = ... = aN = K , N also eine gleichmäßige Aufteilung der Merkmalssumme vorliegt. Dann ist: K2 1 H = N2 = . K N c °V. Steinmetz: Grundzüge der Statistik –127– 5.5 Verhältniszahlen 5.5.1 Vereinbarung: Den Quotienten x y mit y 6= 0 zweier statistischer Größen, zwischen denen ein sachlogischer Zusammenhang gegeben ist oder angenommen wird, bezeichnet man als Verhältniszahl. 5.5.2 Vereinbarung: Wird ein Ganzes (z.B. Menge, Geldbetrag usw.) in Teile untergliedert (z.B. Teilmengen, Teilbeträge usw.), werden sowohl das Ganze wie auch die Teile durch gleichartige Zahlen charakterisiert (z.B. Mengen, Teilmengen durch relative oder absolute Häufigkeiten oder durch Merkmalssummen) oder handelt es sich bereits um Zahlenangaben (z.B. Geldbeträge), so bezeichnet man Quotienten aus der zum Teil gehörenden Zahl und der zum Ganzen gehörenden Zahl als Gliederungszahl. 5.5.3 Vereinbarung: Das Verhältnis zweier in sachlogischem Zusammenhang stehender, aber verschiedenartiger statistischer Größen bezeichnet man als Beziehungszahl. 5.5.4 Vereinbarung: Das Verhältnis zweier gleichartiger statistischer Größen, die sich auf verschiedene Zeitpunkte oder Orte beziehen, bezeichnet man als Meßzahl. Bei zeitlichem Bezug einer Meßzahl xt 1 xt 0 xt0 6= 0 bezeichnet man, wenn durch die Zeitangabe ein Zeitpunkt festgelegt wird, t0 als Basis- oder Bezugszeitpunkt und t1 als Berichts- oder Referenzzeitpunkt; wenn durch die Zeitangabe eine Periode festgelegt wird, heißt t0 Basis- oder Bezugsperiode, t1 Berichts- oder Referenzperiode. c °V. Steinmetz: Grundzüge der Statistik –128– 5.5.5 Bemerkung: Oft sollen Folgen von Meßzahlen, sog. Messzahlenreihen, die sich auf verschiedene Basiszeitpunkte oder -perioden beziehen, miteinander verglichen werden: xt 0 , xt 0 xt 1 xt ,..., m xt 0 xt 0 xt xtn+1 xt n , , . . . , n+p . xt n xt n xt n Diesen Vergleich ermöglicht man durch Umbasierung, indem man entweder die xt Quotienten der ersten Folge mit 0 multipliziert und somit die erste Folge ebenxt n xt falls auf tn bezieht oder die Quotienten der zweiten Folge mit n multipliziert xt 0 und somit auf t0 bezieht. c °V. Steinmetz: Grundzüge der Statistik –129– 5.6 Indexzahlen 5.6.1 Definition: Es seien pt0 (i) und pt (i) (i = 1, ..., n) die Preise von n Gütern zu den Zeitpunkten t0 bzw. t und es seien qt0 (i) (i = 1, ..., n) die zugehörenden Quantitäten zum Basiszeitpunkt t0 . Man bezeichnet PtL0 ,t := n P pt (i)qt0 (i) i=1 n P pt0 (i)qt0 (i) i=1 ³X p t 0 qt 0 > 0 ´ als Preisindex nach Laspeyres mit dem Basiszeitpunkt t0 und dem Berichtszeitpunkt t. 5.6.2 Definition: Es seien pt0 (i) und pt (i) (i = 1, ..., n) die Preise von n Gütern zu den Zeitpunkten t0 bzw. t und es seien qt (i) (i = 1, ..., n) die zugehörenden Quantitäten zum Berichtszeitpunkt t. Man bezeichnet PtP0 ,t := n P pt (i)qt (i) i=1 n P pt0 (i)qt (i) i=1 ³X p t 0 qt > 0 ´ als Preisindex nach Paasche mit dem Basiszeitpunkt t0 und dem Berichtszeitpunkt t. 5.6.3 Definition: Es seien pt0 (i) und pt (i) (i = 1, ..., n) die Preise von n Gütern sowie qt0 (i) und qt (i) die zugehörenden Quantitäten zum Basiszeitpunkt t0 bzw. zum Berichtszeitpunkt t. PtL0 ,t und PtP0 ,t seien die entsprechenden Preisindizes nach Laspeyres bzw. Paasche. Man bezeichnet q PtF0 ,t := + PtL0 ,t · PtP0 ,t als Preisindex nach Fisher (Fisherscher Idealindex) und −E PtM 0 ,t := n P pt (i)(qt0 (i) + qt (i)) i=1 n P pt0 (i)(qt0 (i) + qt (i)) i=1 als Preisindex nach Marshall und Edgeworth. c °V. Steinmetz: Grundzüge der Statistik ³X pt0 (qt0 + qt ) > 0 ´ –130– 5.6.4 Definition: Es seien pt0 (i) und pt (i) (i = 1, ..., n) die Preise von n Gütern sowie qt0 (i) und qt (i) die zugehörenden Quantitäten zum Basiszeitpunkt t0 bzw. zum Berichtszeitpunkt t. Man bezeichnet n P pt0 (i)qt (i) ´ ³X i=1 L Qt0 ,t := P p q > 0 t0 t0 n pt0 (i)qt0 (i) i=1 als Quantitätsindex nach Laspeyres, QPt0 ,t := n P pt (i)qt (i) i=1 n P pt (i)qt0 (i) i=1 als Quantitätsindex nach Paasche, QFt0 ,t := + ³X p t qt 0 > 0 ´ q QLt0 ,t · QPt0 ,t als Quantitätsindex nach Fisher und QtM0 ,t−E := n P (pt0 (i) + pt (i))qt (i) i=1 n P (pt0 (i) + pt (i))qt0 (i) i=1 ³X (pt0 (i) + pt (i))qt0 > 0 ´ als Quantitätsindex nach Marshall und Edgeworth. (Man bezeichnet die Quantitätsindizes auch als Volumen- oder Mengenindizes). 5.6.5 Definition: Gegeben seien die Voraussetzungen wie in Definition (5.6.4). Man bezeichnet n P pt (i)qt (i) ´ ³X i=1 Wt0 ,t := P p q > 0 t t 0 0 n pt0 (i)qt0 (i) i=1 als Wertindex. 5.6.6 Folgerung: Es seien die Bezeichnungen aus Definition (5.6.1), Definition (5.6.2) und Definition (5.6.5) gegeben. Dann gilt Wt0 ,t = PtL0 ,t QPt0 ,t = PtP0 ,t QLt0 ,t . c °V. Steinmetz: Grundzüge der Statistik –131– 5.6.7 Bemerkung: Um Güteraggregate in jeweiligen Preisen n X pt (i)qt (i) t = t0 , ..., T i=1 - man spricht von nominalen Größen - besser miteinander vergleichen zu können, nimmt man eine sog. Deflationierung oder Preisbereinigung vor, indem man die Preise oder das Güteraggregat durch den Paasche-Index mit dem jeweiligen Berichtszeitpunkt t und einem festgewählten Basiszeitpunkt, z.B. t0 , dividiert: n p (i) n P 1 P t pt (i) · qt (i) · q (i) = t P PtP0 ,t i=1 i=1 Pt0 ,t = n P pt0 (i)qt (i) i=1 n P pt (i)qt (i) i=1 = n P pt0 (i)qt (i) · n P i=1 pt (i) · qt (i) t = t0 , ..., T. i=1 Man spricht dann von dem Güteraggregat in Preisen von t0 oder in konstanten Preisen. Da der Paasche-Index relativ selten berechnet wird, nimmt man die Deflationierung näherungsweise mit dem Laspeyres-Index vor. c °V. Steinmetz: Grundzüge der Statistik –132– 6 Grundlagen der schließenden Statistik WICHTIGER HINWEIS: Vernachlässigung der schließenden Statistik erhöht die Gefahr, der Faszination einprägsamer Einzelfälle zu erliegen! 6.1 Drei Grundannahmen 6.1.1 Erste Grundannahme der Statistik: Der interessierende Umweltausschnitt kann durch eine (ein- oder mehrdimensionale) Zufallsvariable Y beschrieben werden. 6.1.2 Zweite Grundannahme der Statistik (”Verteilungsannahme”): Es sei Y die Zufallsvariable, durch welche der interessierende Umweltausschnitt gemäß (6.1.1) beschrieben wird. Man kann eine Menge W von Wahrscheinlichkeitsverteilungen angeben, zu der die unbekannte wahre Verteilung von Y gehört. 6.1.3 Bemerkung: Es ist üblich, zur Vereinfachung auch die in der zweiten Grundannahme eingeführte Menge W selbst als Verteilungsannahme zu bezeichnen. 6.1.4 Vereinbarung: Es sei W eine Verteilungsannahme. Sind die Verteilungen durch endlich-dimensionale reelle Parameter ϑ ∈ Θ ⊆ Rr charakterisiert, so soll W als parametrische Verteilungsannahme mit dem Parameterraum Θ bezeichnet werden. Man schreibt W = {QY,ϑ | ϑ ∈ Θ}. Treffen die obigen Annahmen nicht zu, heiße W nichtparametrisch (oder verteilungsfrei). (I.a. werden in einer parametrischen Verteilungsannahme nur Verteilungen eines Typs - also z.B. nur Normalverteilungen, nur Dreipunktverteilungen mit festen Trägerpunkten etc. - enthalten sein). In dieser Vorlesung wird vorausgesetzt, daß gilt (∀ϑ1 , ϑ2 ∈ Θ)(ϑ1 6= ϑ2 ⇒ QY,ϑ1 6= QY,ϑ2 ), man sagt, die Parameter ϑ ∈ Θ sollen identifizierbar sein. 6.1.5 Dritte Grundannahme der Statistik: W sei die Verteilungsannahme zu einer ZV Y . Es wird angenommen, daß Realisationen x1 , ..., xn von Zufallsvariablen X1 , ..., Xn beobachtet werden können, deren gemeinsames Verteilungsgesetz von der Verteilung QY ∈ W in vollständig c °V. Steinmetz: Grundzüge der Statistik –133– bekannter Weise abhängt. Man bezeichnet den Vektor (X1 , ..., Xn ) als (Zufalls)stichprobe vom Umfang n zu Y und (x1 , ..., xn ) als eine Stichprobenrealisation. Die Menge aller Stichprobenrealisationen heißt Stichprobenraum und wird mit X bezeichnet. c °V. Steinmetz: Grundzüge der Statistik –134– 6.2 Stichproben 6.2.1 Satz: e 6= ∅ eine endliche Menge mit ]Ω e = N. Weiterhin seien n ∈ N eine Es sei Ω natürliche Zahl und (Ω, F, P ) ein WR mit e n = {(ω1 , ..., ωn ) | ωi ∈ Ω e für i = 1, ..., n}, F = PΩ . Ω=Ω e fest gewählt, es bezeichne Es seien ω̂1 , ..., ω̂n ∈ Ω B̂i := {(ω1 , ..., ωi−1 , ω̂i , ωi+1 , ..., ωn ) ∈ Ω | ω̂i fest} Âi := {(ω̂1 , ..., ω̂i−1 , ωi , ..., ωn ) ∈ Ω | ω̂1 , ..., ω̂i−1 fest} für i = 1, ..., n für i = 2, ..., n und die Wahrscheinlichkeit P erfülle die Bedingungen 1 N (∗) P B̂1 = (∗∗) P (B̂i | Âi ) = 1 N für i = 2, ..., n. Dann gilt (.1) PA = ]A Nn (.2) P B̂i = 1 , N (.3) e ist für i ≤ i1 < i2 < ... < im ≤ n, ω̂i1 , ..., ω̂im ∈ Ω für alle A ∈ F, P {(ω1 , ..., ωn ) ∈ Ω | ωik = ω̂ik für k = 1, ..., m} = P (B̂i1 ∩ ... ∩ B̂im ) = P (B̂i1 ) · ... · (B̂im ) . Beweis: Man sieht sofort, daß die relative Häufigkeit auf (Ω, F) (∗) und (∗∗) erfüllt, eine Wahrscheinlichkeit mit diesen Eigenschaften also existiert. zu (.1) Nach dem Multiplikationssatz (2.3.4) und den Bedingungen (∗) sowie (∗∗) folgt P {(ω̂1 , ..., ω̂n )} = P (B̂1 ∩ ... ∩ B̂n ) = P B̂1 · P (B̂2 | B̂1 ) · P (B̂3 | B̂1 ∩ B̂2 ) · ... · P (B̂n | B̂1 ∩ ... ∩ B̂n−1 ) 1 = P B̂1 · P (B̂2 | Â2 ) · P (B̂3 | Â3 ) · ... · P (B̂n | Ân ) = n . N c °V. Steinmetz: Grundzüge der Statistik –135– Diese Gleichung gilt für jedes Element aus Ω; aus der Additivität von P folgt (.1). zu (.2) e = N ist ]B̂i = N n−1 und daher nach (.1) Wegen ]Ω P B̂i = 1 N n−1 = . n N N zu (.3) Nach (.1) ist P (B̂i1 ∩ ... ∩ B̂im ) = und nach (.2) P B̂ik = 1 N N n−m 1 = m m N N für k = 1, ..., m, also gilt P (B̂i1 ∩ ... ∩ B̂im ) = P B̂i1 · ... · B̂im für alle m = 1, 2, ..., n. 6.2.2 Bemerkung: Verwendet man (Ω, F, P ) aus Satz (6.2.1) zur Beschreibung einer Stichprobene so kann man die Bedingunziehung vom Umfang n aus der Grundgesamtheit Ω, gen und Aussagen des Satzes (6.2.1) folgendermaßen interpretieren: e mit der gleichen WahrscheinlichBedingung (∗) fordert, daß jedes Element aus Ω 1 keit bei der ersten Ziehung gezogen wird, Bedingung (∗∗), daß jedes Element N e mit gleicher Wahrscheinlichkeit 1 bei der i-ten Ziehung (i ≥ 2) gezogen ω̂i ∈ Ω N e aufgetreten sind. wird, falls bei den vorangehenden Ziehungen ω̂1 , ..., ω̂i−1 aus Ω Die Aussage (.1) besagt, daß P die diskrete Gleichverteilung auf Ω ist, Aussage (.2), daß bei allen Ziehungen jedes Element mit gleicher Wahrscheinlichkeit gezogen wird. Schließlich bedeutet Aussage (.3), daß je m Ziehungen (1 ≤ m ≤ n) stochastisch unabhängig sind. Man kann also insgesamt sagen, daß der in Satz (6.2.1) gegebene WR (Ω, F, P ) das zufällige Ziehen einer Stichprobe vom Umfang n mit Zurücklegen aus einer e beschreibt. endlichen Menge Ω 6.2.3 Satz: e F, e Pe) ein WR mit endlichem Ω, e Fe = PΩ, e PeM = ]M für alle M ∈ Fe Es seien (Ω, e ]Ω e → R eine ZV über (Ω, e F, e Pe). Weiterhin sei (Ω, F, P ) der WR aus und Y : Ω Satz (6.2.1). Dann ist die Abbildung X : Ω → Rn c °V. Steinmetz: Grundzüge der Statistik –136– mit X(ω1 , ..., ωn ) := (Y (ω1 ), ..., Y (ωn )) für (ω1 , ..., ωn ) ∈ Ω eine n-dimensionale ZV über (Ω, F, P ). Es gilt für die Komponenten Xi := pri ◦ X : Ω → R der ZV X = (X1 , ..., Xn ): (.1) Für i = 1, ..., n ist Xi identisch verteilt wie Y , (.2) die X1 , ..., Xn sind stochastisch unabhängig. Beweis: Da F = PΩ gewählt wurde, ist X eine F − Bn − meßbare Abbildung und damit eine ZV über (Ω, F, P ). zu (.1) Um die Darstellung zu vereinfachen, wird der Beweis nur für die Komponente X1 von X geführt, für beliebiges Xi erfolgt er analog. Es gilt X1 (ω1 , ..., ωn ) = (pr1 ◦ X)(ω1 , ..., ωn ) = pr1 (X(ω1 , ..., ωn )) = pr1 (Y (ω1 ), ..., Y (ωn )) = Y (ω1 ) . e mit Y (ω k ) = a, ω k 6= ω l für k 6= l. Für a ∈ R seien ω 1 , ..., ω m alle Elemente aus Ω Dann gilt P {X1 = a} = P {(ω1 , ..., ωn ) | X1 (ω1 , ..., ωn ) = a} = P {(ω1 , ..., ωn ) | Y1 (ω1 ) = a} e + . . . + P {(ω m , ω2 , ..., ωn ) | ωi ∈ Ω} e = P {(ω 1 , ω2 , ..., ωn ) | ωi ∈ Ω} = Es gilt aber auch 1 1 m e . + ... + = mit N = ]Ω N N N m . Pe{ω 1 , ..., ω m } = Pe{Y = a} = N e gilt Besitzt a bezüglich Y keinen Urbildpunkt in Ω, P {X1 = a} = 0 = Pe{Y = a} . zu (.2) Zur Vereinfachung werde nur die Unabhängigkeit von X1 und X2 gezeigt: Zu a1 , a2 ∈ R bezeichne e mit Y (ω1i ) = a1 ω11 , ..., ω1m1 alle Elemente aus Ω e mit Y (ω2i ) = a2 . ω21 , ..., ω2m2 alle Elemente aus Ω c °V. Steinmetz: Grundzüge der Statistik –137– Dann gilt P {X1 = a1 ∧ X2 = a2 } = P {(ω1 , ..., ωn ) | ω1 ∈ {ω11 , ..., ω1m1 } ∧ ω2 ∈ {ω21 , ..., ω2m2 }} = m1 · m2 · N · ... · N m1 m2 = · . n N N N Andererseits gilt auch P {X1 = a1 } · P {X2 = a2 } = P {(ω1 , ..., ωn ) | ω1 ∈ {ω11 , ..., ω1m1 }} · P {(ω1 , ..., ωn ) | ω2 ∈ {ω21 , ..., ω2m2 }} = m1 m2 · . N N Besitzt mindestens ein ai keinen Urbildpunkt bzgl. Y in Ω̃, so gilt P {X1 = a1 ∧ X2 = a2 } = 0 = P {X1 = a1 } · P {X2 = a2 }. 6.2.4 Definition: e F, e Pe). Weiterhin seien Es sei Y eine eindimensionale ZV über einem WR (Ω, X1 , ..., Xn (n ∈ N) stochastisch unabhängige ZV über einem WR (Ω, F, P ), die identisch wie Y verteilt sind. Dann heißt die ZV X := (X1 , ..., Xn ) : Ω −→ Rn eine einfache Stichprobe vom Umfang n zur ZV Y . 6.2.5 Bemerkung: (.1) Gegeben seien die Voraussetzungen aus der vorigen Definition. Für ω ∈ Ω erhält man die Realisationen X(ω) = (X1 , ..., Xn )(ω) = (X1 (ω), ..., Xn (ω)) =: (x1 , ..., xn ) , und alle Realisationen bilden den Stichprobenraum X = X(Ω) = {(x1 , ..., xn ) ∈ R | (∃ω ∈ Ω)(X(ω) = (x1 , ..., xn ))} . (.2) Man kann ohne Schwierigkeiten Definition (6.2.4) auf m-dimensionale ZV Y erweitern; dann sind entsprechend die Xi (i = 1, ..., n) auch m-dimensional und X = (X1 , ..., Xn ) ist n · m-dimensional. c °V. Steinmetz: Grundzüge der Statistik –138– 6.2.6 Satz: e 6= ∅ eine endliche Menge mit ]Ω e = N . Weiterhin seien n ∈ N eine Es sei Ω natürliche Zahl mit n ≤ N und (Ω, F, P ) ein WR mit e für i = 1, ..., n und ωi 6= ω1 für i 6= l}, F = PΩ . Ω = {(ω1 , ..., ωn ) | ωi ∈ Ω Es seien ω̂1 , ..., ω̂n ∈ Ω̃ mit ω̂k 6= ω̂l für k 6= l fest gewählt, es bezeichne B̂i := {(ω1 , ..., ωi−1 , ω̂i , ωi+1 , ..., ωn ) ∈ Ω | ω̂i fest} für i = 1, ..., n Âi := {(ω1 , ..., ωi−1 , ω̂i , ωn ) ∈ Ω | ω̂1 , ..., ω̂i−1 fest} für i = 2, ..., n und die Wahrscheinlichkeit P erfülle die Bedingungen (∗) P B̂1 = 1 N (∗∗) P (B̂i | Âi ) = Dann gilt 1 für i = 2, ..., n . N −i+1 (.1) P A = ]A für alle A ∈ F N (n − 1) · ... · (N − n + 1) (.2) P B̂i = 1 für i = 1, ..., n . N 6.2.7 Bemerkung: Die Erläuterungen zu (∗), (∗∗), (.1), (.2) entsprechen denen zu Satz (6.2.1), es ist nur zu beachten, daß kein Element mehrmals gezogen werden kann (vgl. Bemerkung (6.2.2)). Eine (6.2.1.3) entsprechende Aussage gilt jetzt nicht. Man kann insgesamt sagen, daß der in Satz (6.2.6) gegebene WR (Ω, F, P ) das zufällige Ziehen einer Stichprobe vom Umfang n ohne Zurücklegen aus einer e beschreibt. endlichen Menge Ω 6.2.8 Satz: e F, e Pe) ein WR mit endlichem Ω, e Fe = PΩ, e PeM = ]M für alle M ∈ Fe Es seien (Ω, e ]Ω e e e e und Y : Ω → R eine ZV über (Ω, F, P ). Weiterhin sei (Ω, F, P ) der WR aus Satz (6.2.6). Dann ist die Abbildung X : Ω → Rn mit X(ω1 , ..., ωn ) := (Y (ω1 ), ..., Y (ωn )) für (ω1 , ..., ωn ) ∈ Ω eine n-dimensionale ZV über (Ω, F, P ), die Komponenten Xi := pri ◦X : Ω → R sind identisch wie Y verteilt. c °V. Steinmetz: Grundzüge der Statistik –139– 6.2.9 Bemerkung: Das bisher erarbeitete Konzept läßt sich folgendermaßen veranschaulichen: e F, e P) e (Ω, e Ω yY R (Ω, F, P) Ω yX Rn (R, B1 , QY ) (Rn , Bn , QX ) Beschreibung des Beschreibung der Umweltausschnitts Stichprobenziehung (Deskriptive Statistik Kap.5) {z } | der stochastische Zusammenhang wird durch das Auswahlverfahren festgelegt c °V. Steinmetz: Grundzüge der Statistik –140– 7 Parameterpunktschätzungen 7.1 Parameterpunktschätzfunktionen und Eigenschaften 7.1.1 Definition: Es seien Y eine ZV mit der parametrischen Verteilungsannahme W = {QY,ϑ | ϑ ∈ Θ}, weiterhin γ : Θ −→ Rm eine Abbildung und X = (X1 , ..., Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X. Eine Abbildung δ : X → γ(Θ) heißt eine (Parameterpunkt-)Schätzfunktion (parameter estimation function, estimator) für den Parameter γ(ϑ) für ϑ ∈ Θ (siehe dazu Bemerkung (7.1.3)). 7.1.2 Bemerkung: Man bezeichnet i.a. auch die ZV δ(X) := δ◦X als Parameterpunktschätzfunktion für γ(ϑ) mit ϑ ∈ Θ. X Ω δ -X - γ(Θ) : δ(X) = δ ◦ X 7.1.3 Bemerkung: Entsprechend der dritten Grundannahme wird die Auswahl einer Realisation x = (x1 , ..., xn ) ∈ X von einer WV gesteuert, damit auch die Bestimmung eines Näherungswertes δ(x1 , ..., xn ) ∈ γ(Θ). Um eine Schätzfunktion δ als ZV auffassen und damit die Hilfsmittel der Wahrscheinlichkeitstheorie zur Beurteilung von δ heranziehen zu können, muß auf γ(Θ) eine geeignete σ-Algebra festgelegt und die Meßbarkeit von δ sichergestellt werden. Auf diese Problematik soll hier aber nicht näher eingegangen werden. 7.1.4 Definition: Es sei X = (X1 , ..., Xn ) eine Stichprobe mit dem Stichprobenraum X ⊆ Rn . Die Abbildung µ̂ : X → R mit n und auch die Abbildung 1X xi =: x̄ µ̂(x1 , ..., xn ) := n i=1 n µ̂ ◦ X = µ̂(X) = c °V. Steinmetz: Grundzüge der Statistik 1X Xi =: X̄ n i=1 –141– bezeichnet man als Stichprobenmittelwert (sample mean). Die Abbildung σ̂ 2 : X → R mit n 1X (xi − x̄)2 σ̂ (x1 , ..., xn ) := n i=1 2 und auch die Abbildung n σ̂ 2 ◦ X = σ̂ 2 (X) = 1X (Xi − X̄)2 n i=1 bezeichnet man als Stichprobenstreuung (sample dispersion) oder Stichprobenvarianz, weiterhin n σ̂ 2 S 2 := n−1 und n n 1 X 2 2 S (X) := σ̂ (X) = (Xi − X̄)2 n−1 n − 1 i=1 als korrigierte Stichprobenstreuung. 7.1.5 Definition: Es sei (X, Y ) = ((X1 , Y1 ), ..., (Xn , Yn )) eine Stichprobe mit dem Stichprobenraum X ⊆ R2n . Die Abbildung σ̂11 : X → R mit n 1X (xi − x̄)(yi − ȳ) σ̂11 ((x1 , y1 ), ..., (xn , yn )) := n i=1 und auch die Abbildung n 1X σ̂11 (X, Y ) = (Xi − X̄)(Yi − Ȳ ) n i=1 bezeichnet man als Stichprobenkovarianz, gilt weiterhin P {σ̂ 2 (X) = 0} = 0 = P {σ̂ 2 (Y ) = 0}, so bezeichnet man die Abbildung n P (Xi − X̄)(Yi − Ȳ ) rn r(X, Y ) := r n P P 2 (Xi − X̄) (Yi − X̄)2 i=1 i=1 als Stichprobenkorrelationskoeffizienten. c °V. Steinmetz: Grundzüge der Statistik i=1 –142– 7.1.6 Folgerung: Es sei X = (X1 , ..., Xn ) eine Stichprobe. Dann gilt µ n ¶2 n 1P 1P 2 2 (.1) σ̂ (X) = , X − Xi n i=1 i n i=1 (.2) Für eine Stichprobe (X, Y ) = ((X1 , Y1 ), ..., (Xn , Yn )) gilt ¶µ n ¶ µ n n 1P 1P 1P (Xi Yi ) − Xi Yi . σ̂11 (X, Y ) = n i=1 n i=1 n i=1 Beweis: zu (.1) σ̂ 2 (X) = n1 = n1 = n1 = n1 n P i=1 1 n (Xi − X̄)2 = n P i=1 n P i=1 n P i=1 Xi2 − 2X̄ µ n P i=1 n P 1 n (Xi2 − 2Xi X̄ + (X̄)2 ) Xi i=1 ¶ + 1 n n P (X̄)2 i=1 Xi2 − 2(X̄)2 + (X̄)2 Xi2 − µ 1 n n P Xi i=1 ¶2 zu (.2) σ̂11 (X, Y ) = n1 = n1 = n1 = n1 7.1.7 Definition: n P i=1 n P i=1 n P i=1 n P i=1 (Xi − X̄)(Yi − Ȳ ) Xi Yi − Ȳ 1 n n P i=1 Xi − X̄ n1 n P Yi + i=1 1 n n P X̄ Ȳ i=1 Xi Yi − X̄ Ȳ Xi Yi − µ 1 n n P i=1 Xi ¶µ 1 n n P i=1 Yi ¶ Eine Schätzfunktion δ für den Parameter γ(ϑ) mit ϑ ∈ Θ heißt erwartungstreu oder unverzerrt (unbiased), wenn gilt Eϑ δ = γ(ϑ) für alle ϑ ∈ Θ c °V. Steinmetz: Grundzüge der Statistik –143– (allgemein bezeichnet man Eϑ δ−γ(ϑ) (bisweilen auch γ(ϑ)−Eϑ δ) als Verzerrung oder Bias von δ). 7.1.8 Satz: Es sei X = (X1 , ..., Xn ) eine einfache Stichprobe zu einer ZV Y mit dem Erwartungswert µ = EY und der Varianz σ 2 = Var Y . Dann ist der Stichprobenmittelwert n 1X X̄ = Xi n i=1 eine erwartungstreue Schätzfunktion für µ; für die Varianz des Stichprobenmittelwertes gilt σ2 . Var X̄ = n Die korrigierte Stichprobenvarianz n 1 X (Xi − X̄)2 S (X) = n − 1 i=1 2 ist eine erwartungstreue Schätzfunktion für σ 2 . Beweis: Da die Xi identisch wie Y verteilt sind für i = 1, ..., n, gilt EXi = µ und Var Xi = σ 2 . Man erhält E X̄ = E à n 1X Xi n i=1 ! n 1X n·µ =µ. = EXi = n i=1 n Weiterhin folgt Var X̄ = Var µ n 1P Xi n i=1 ¶ ¶ µn P 1 = 2 Var (nach (4.1.13.1)) Xi n i=1 = = n 1 P Var Xi (wegen der Unabhängigkeit der Xi ) n2 i=1 n σ2 n · σ2 1 P 2 = . σ = n2 i=1 n2 n c °V. Steinmetz: Grundzüge der Statistik –144– Für die korrigierte Stichprobenvarianz erhält man · ¸ n 1 P 2 2 ES = E (Xi − X̄) n − 1 i=1 ¸ ·n P 2 1 2 (Xi − 2Xi X̄ + (X̄) ) E = n−1 i=1 ¸ ·n n n P P 2 1 nP 2 Xi + (X̄) ) = (Xi − 2X̄ E n−1 n i=1 i=1 i=1 ¸ ·n P 2 1 2 2 = Xi − 2n(X̄) + n(X̄) E n−1 i=1 ·n ¸ P 1 2 2 = EXi − nE(X̄) . n − 1 i=1 Nach dem Varianzzerlegungssatz (4.1.13.3) gilt EXi2 = Var Xi + (EXi )2 , E(X̄)2 = Var X̄ + (E X̄)2 , wegen EXi = EY = µ, Var Xi = Var Y = σ 2 , E X̄ = µ, Var X̄ = EXi2 = σ 2 + µ2 , E(X̄)2 = σ2 folgt n σ2 + µ2 n und man erhält " n # 2 X ¤ 1 σ 1 £ 2 ES 2 = nσ + nµ2 − σ 2 − nµ2 = σ 2 . (σ 2 + µ2 ) − n( + µ2 ) = n − 1 i=1 n n−1 7.1.9 Definition: Es seien ∆E eine Menge von erwartungstreuen Schätzfunktionen für γ(ϑ) mit ϑ ∈ Θ und δ ∗ , δ ∈ ∆E . Dann heißt δ ∗ mindestens so wirksam wie δ, wenn gilt (∗) Var δ ∗ ≤ Var δ für alle ϑ ∈ Θ . δ ∗ heißt wirksamer als δ, wenn in (∗) das echte Kleiner-Zeichen für mindestens ein ϑ ∈ Θ gilt. Schließlich bezeichnet man δ ∗ als wirksamste Schätzfunktion in ∆E oder als effizient (efficient), wenn (∗) für alle δ ∈ ∆E erfüllt ist. 7.1.10 Definition: Es sei W = {Qϑ | ϑ ∈ Θ} eine parametrische Verteilungsannahme. Eine Folge (δn (X1 , ..., Xn ))n∈N von Parameterpunktschätzfunktionen für γ(ϑ) mit ϑ ∈ Θ heißt konsistent (consistent), wenn für jedes ε > 0 gilt lim P {|δn − γ(ϑ)| ≥ ε} = 0 für alle ϑ ∈ Θ. n→∞ c °V. Steinmetz: Grundzüge der Statistik –145– 7.1.11 Definition: Sind die Schätzfunktionen δn für alle n ∈ N von gleichem Aufbau, wie z.B. der Stichprobenmittelwert, die Stichprobenvarianz usw., so bezeichnet man nicht nur die Folge der Schätzer als konsistent, sondern vereinfachend auch den einzelnen Schätzer selbst. 7.1.12 Folgerung: Es sei X = (X1 , ..., Xn ) eine einfache Stichprobe zu einer ZV Y mit EY = µ und Var Y = σ 2 . Dann ist der Stichprobenmittelwert n 1X Xi X̄ = n i=1 eine konsistente Schätzfunktion für µ. Beweis: Nach der Ungleichung von Tschebyschev gilt wegen E X̄ = µ und Var X̄ = σ2 = 0. n→∞ nε2 0 ≤ lim P {|X̄ − µ| ≥ ε} ≤ lim n→∞ c °V. Steinmetz: Grundzüge der Statistik σ2 n –146– 7.2 Maximum-Likelihood-Methode 7.2.1 Definition: Es sei Y eine diskrete ZV mit den Trägerpunkten y und den zugehörigen Punktwahrscheinlichkeiten QY,ϑ {y} =: p(y|ϑ) für ϑ ∈ Θ ⊆ Rr . Weiter seien X = (X1 , ..., Xn ) eine einfache Stichprobe zu Y mit dem Stichprobenraum X und x = (x1 , ..., xn ) eine Realisation von X. (.1) Die Abbildung L(. | x1 , ..., xn ) : Θ → [0, 1] mit L(ϑ | x1 , ..., xn ) = p(x1 |ϑ) · ... · p(xn |ϑ) = heißt die Likelihood-Funktion (LF) von X. n Y i=1 p(xi |ϑ) (.2) ϑ̂ ∈ Θ heißt Maximum-Likelihood-Schätzwert (ML-Schätzwert) für den Parameter ϑ, falls gilt L(ϑ̂ | x1 , ..., xn ) = max L(ϑ | x1 , ..., xn ) . ϑ∈Θ (.3) Eine Punktschätzfunktion δ:X→Θ heißt Maximum-Likelihood-Schätzfunktion für den Parameter ϑ, falls δ(x1 , ..., xn ) für jedes (x1 , ..., xn ) ∈ X ein ML-Schätzwert ist. 7.2.2 Hilfssatz: Es sei L(. | x1 , ..., xn ) die Likelihood-Funktion zu einer Stichprobe X. Für ein ϑ̂ ∈ Θ gilt L(ϑ̂ | x1 , ..., xn ) = max L(ϑ | x1 , ..., xn ) ϑ∈Θ genau dann, wenn für die logarithmierte Likelihood-Funktion (LLF) gilt ln L(ϑ̂ | x1 , ..., xn ) = max ln L(ϑ | x1 , ..., xn ). ϑ∈Θ Beweis: Man nutzt aus, daß der Logarithmus eine strikt monoton wachsende Funktion ist und daher für L(ϑ | x1 , ..., xn ) > 0 L(ϑ̂ | x1 , ..., xn ) ≥ L(ϑ | x1 , ..., xn ) gleichbedeutend ist mit ln L(ϑ̂ | x1 , ..., xn ) ≥ ln L(ϑ | x1 , ..., xn ). c °V. Steinmetz: Grundzüge der Statistik –147– 7.2.3 Definition: Es sei ϑ = (ϑ1 , ..., ϑr ) ∈ Θ ⊆ Rr ein r-dimensionaler reeller Parameter und die Likelihood-Funktion L(. | x1 , ..., xn ) : Θ → [0, 1] sei partiell differenzierbar nach ϑj für j = 1, ..., r. Die Gleichungen ∂ ln L(ϑ1 , ..., ϑr | x1 , ..., xn ) = 0 für j = 1, ..., r ∂ϑj bezeichnet man als Maximum-Likelihood-Gleichungen. 7.2.4 Bemerkung: Häufig werden alle Lösungen aus Definition (7.2.3) als ML-Schätzwerte bezeichnet; dies entspricht dem ursprünglichen Vorgehen von R.A. Fisher, während der Ansatz der Definition (7.2.1) auf A. Wald zurückgeht. 7.2.5 Definition: Es sei Y eine stetige ZV mit einer Dichte fY (. | ϑ) für ϑ ∈ Θ ⊆ Rr . Weiter seien X = (X1 , ..., Xn ) eine einfache Stichprobe zu Y mit dem Stichprobenraum X und x = (x1 , ..., xn ) eine Realisation von X. Die Abbildung L(. | x1 , ..., xn ) : Θ → R mit L(ϑ | x1 , ..., xn ) = fY (x1 |ϑ) · ... · fY (xn |ϑ) = heißt eine Likelihood-Funktion (LF) von X. n Y i=1 fY (xi |ϑ) 7.2.6 Bemerkung: Die Begriffe aus (7.2.1.2), (7.2.1.3) und (7.2.3) können direkt auf den Fall einer stetigen ZV Y übertragen werden. Um pathologische Lösungen von (7.2.1.2) auszuschließen, muß man solche Dichten wählen, die an den Sprungstellen das Maximum des rechtsseitigen oder linksseitigen Grenzwertes annehmen. c °V. Steinmetz: Grundzüge der Statistik –148– 8 Tests und Parameterbereichsschätzungen 8.1 Grundbegriffe der Testtheorie 8.1.1 Definition: Es seien Y eine ZV mit der Verteilungsannahme W und W0 ⊆ W mit ∅ 6= W0 6= W sowie W1 := W \ W0 . Man bezeichnet die Aussage H0 : Q Y ∈ W 0 als Nullhypothese (null hypothesis)(oft der Einfachheit halber auch W0 selbst) und die Aussage H1 : Q Y ∈ W 1 als Gegenhypothese oder Alternative (oft auch W1 selbst). Es bezeichne ”d0 ” die Entscheidung ”Annahme von H0 ” (”Ablehnung von H1 ”), ”d1 ” die Entscheidung ”Annahme von H1 ” (”Ablehnung von H0 ”). Ist X = (X1 , ..., Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X, so heißt eine Abbildung δ : X → {d0 , d1 } ein (Alternativ)Test für H0 gegen H1 . Ist W eine parametrische Verteilungsannahme, so spricht man auch von einem Parametertest. Eine Hypothese heißt einfach, wenn die zugeordnete Teilmenge von W einelementig ist, andernfalls zusammengesetzt. (Entsprechend der Bemerkung (7.1.3) sollen auch hier Meßbarkeitsfragen für δ ausgeklammert werden). 8.1.2 Definition: Es sei δ : X → {d0 , d1 } ein Alternativtest. Die Menge Kδ := {x | x ∈ X ∧ δ(x) = d1 } heißt der kritische Bereich (Verwerfungsbereich) (critical region) des Tests, die Menge Aδ := {x | x ∈ X ∧ δ(x) = d0 } sein Annahmebereich. c °V. Steinmetz: Grundzüge der Statistik –149– 8.1.3 Definition: Es sei δ : X → {d0 , d1 } ein Alternativtest für die Hypothesen H0 : QY ∈ W0 und H1 : QY ∈ W1 , und es sei die Beobachtung x ∈ X gegeben. Man sagt, es liege ein Fehler 1. Art vor, wenn H0 richtig ist, aber δ(x) = d1 gilt; es liege ein Fehler 2. Art vor, wenn H0 falsch ist, aber δ(x) = d0 gilt. 8.1.4 Folgerung: Gegeben seien die Voraussetzungen aus Definition (8.1.3). Die Wahrscheinlichkeit, einen Fehler 1. Art zu begehen (Fehlerwahrscheinlichkeit 1. Art) ist QX {x ∈ X | δ(x) = d1 } = QX Kδ für alle QY ∈ W0 . Die Wahrscheinlichkeit, einen Fehler 2. Art zu begehen (Fehlerwahrscheinlichkeit 2. Art) ist QX {x ∈ X | δ(x) = d0 } = QX Aδ für alle QY ∈ W1 . 8.1.5 Definition: Es sei δ : X → {d0 , d1 } ein Alternativtest für die Hypothesen H0 : QY ∈ W0 und H1 : QY ∈ W1 , K bezeichne den kritischen Bereich. δ heißt ein Test zum (Signifikanz)Niveau α ∈]0, 1[, wenn gilt QX K ≤ α für alle QY ∈ W0 . (Vielfach wählt man α = 0, 01 oder α = 0, 05.) 8.1.6 Faustregel: Als Nullhypothese wählt man - wenn möglich - die Aussage, für die man die Wahrscheinlichkeit, sie fälschlicherweise abzulehnen, kontrollieren möchte. Anders gesagt, als Gegenhypothese wählt man - wenn möglich - die Aussage, für die man die Wahrscheinlichkeit, sie fälschlicherweise zu akzeptieren, kontrollieren möchte. c °V. Steinmetz: Grundzüge der Statistik –150– 8.1.7 Nagelbeispiel: Ein Haushaltswarengeschäft bietet zwei Sortimentspackungen Nägel an, Typ I enthält drei Sorten Nägel - bezeichnet mit 1, 2 und 3 - im Verhältnis 1:1:8, Typ II enthält dieselben Nagelsorten im Verhältnis 6:3:1. Die Beschriftung einer Packung ist unleserlich geworden. Auf der Basis einer zufälligen Stichprobe vom Umfang n = 1 soll die Nullhypothese, es handle sich um Typ I, gegen die Alternative, es liege Typ II, vor getestet werden. Die Nagelsorte werde als Zufallsvariable Y mit den Trägerpunkten 1, 2 und 3 aufgefaßt. Es kommen zwei Wahrscheinlichkeitsverteilungen (Häufigkeitsverteilungen) in Betracht: QI : y QI {y} QII : y QII {y} 1 0,1 2 0,1 1 0,6 2 0,3 3 0,8 3 0,1 Man hat also die Verteilungsannahme W = {QI , QII }. Mit W0 = {QI } und W1 = {QII } folgen die Hypothesen H0 : Q Y ∈ W 0 H1 : Q Y ∈ W 1 gleichbedeutend mit H0 : QY = QI gleichbedeutend mit H1 : QY = QII . Es liegen damit zwei einfache Hypothesen vor. Da nur eine Stichprobe vom Umfang n = 1 gezogen werden soll, erhält man für die Stichprobe X = X1 den Stichprobenraum X = {1, 2, 3}. (Für n = 2 hätte man X = (X1 , X2 ) mit X = {(1, 1), (1, 2), . . . , (3, 3)}). Um alle Tests δ : X → {d0 , d1 } anzugeben, bestimmt man alle möglichen Zerlegungen von X in den kritischen Bereich Ki und den zugehörigen Annahmebereich Ai (i = a, b, . . . , h): Nr. i Ki a {1} b {2} c {3} d {1,2} e {1,3} f {2,3} Ai {2,3} {1,3} {1,2} {3} {2} {1} g {1,2,3} ∅ h ∅ {1,2,3 } Z.B. besagt die erste Spalte, daß man H0 annimmt, falls als Stichprobenrealisation eine 2 oder 3 auftritt, daß man H0 ablehnt, falls 1 auftritt. Man erhält also den Test δa : X → {d0 , d1 } mit ½ d0 : x ∈ {2, 3} δa (x) = d1 : x ∈ {1} Entsprechend ist δg der Test, der H0 unabhängig vom Stichprobenbefund stets ablehnt und δh der Test, der H0 stets annimmt. In der folgenden Tabelle ist für jeden Test δi die Wahrscheinlichkeit des Fehlers 1. Art QX Ki (dabei QY ∈ W0 ) und des Fehlers 2. Art QX Ai (dabei QY ∈ W1 ) angegeben: c °V. Steinmetz: Grundzüge der Statistik –151– Nr. i QX Ki QX A i a 0,1 0,4 b 0,1 0,7 c 0,8 0,9 d 0,2 0,1 e 0,9 0,3 f 0,9 0,6 g 1 0 h 0 1 W’keit des Fehlers 1. Art (QY = QI ) W’keit des Fehlers 2. Art (QY = QII ) Zur Beachtung: I.a. ist die Summe von 1. und 2. Fehlerwahrscheinlichkeit nicht Eins. Man berechnet zwar die Wahrscheinlichkeiten komplementärer Ereignisse Ki und Ai = CX Ki , aber mit verschiedenen Wahrscheinlichkeitsverteilungen. Allerdings zeigen die beiden Fehlerwahrscheinlichkeiten ein gewisses gegenläufiges Verhalten. Es sei das Signifikanzniveau α = 0, 15 gewählt. Die Tests zu diesem Niveau sind: δa mit QX Ka = 0, 1 δb mit QX Kb = 0, 1 dabei QY = QI δh mit QX Kh = 0 Die Fehlerwahrscheinlichkeiten 2. Art sind δa mit QX Aa = 0, 4 δb mit QX Ab = 0, 7 δh mit QX Ah = 1 dabei QY = QII Der beste Test zum Niveau α = 0, 15 ist also δa , da er die minimale Fehlerwahrscheinlichkeit 2. Art aufweist. c °V. Steinmetz: Grundzüge der Statistik –152– 8.2 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei bekannter Varianz (Gauß-Tests) 8.2.1 Tests über µ bei bekanntem σ02 einer N (µ, σ02 )-verteilten Zufallsvariablen: Gegeben: ZV Y, N (µ, σ02 )-verteilt mit unbekanntem µ ∈ R und bekanntem σ02 ∈ R++ , einfache Stichprobe X = (X1 , ..., Xn ) zu Y mit der Realisation x = (x1 , ..., xn ), Signifikanzniveau α ∈]0, 1[, µ0 ∈ R. Fall 0 Fall I Fall II (<) (>) µ > µ0 µ < µ0 H0 : µ = µ 0 µ = µ 0 µ = µ 0 H1 : µ 6= µ0 Berechne: Aus der N (0, 1)-Tabelle Schwellenwerte26 λ1− α2 , λ1−α mit P {−λ1− α2 ≤ N (0, 1) ≤ λ1− α2 } = 1 − α P {N (0, 1) ≤ λ1−α } = 1 − α Testgröße: Entscheide: n x̄ − µ0 √ 1X N0 := n mit x̄ = xi σ0 n i=1 Fall 0 Fall I Fall II H0 annehmen: −λ1− α2 ≤ N0 ≤ λ1− α2 N0 ≤ λ1−α N0 ≥ −λ1−α H1 annehmen: N0 > λ1−α N0 < −λ1−α |N0 | > λ1− α2 8.2.2 Bemerkung: Bei den obigen Tests spricht man bei der Hypothesenfestlegung im Fall 0 von einer zweiseitigen Fragestellung, in den Fällen I und II von einseitigen Fragestellungen. Entsprechend dem Aussehen der Punktmengen, welche jeweils zur Ablehnung der Nullhypothese führen, spricht man im Fall 0 von einem zweiseitigen Test, in den Fällen I und II von einseitigen Tests. 8.2.3 Bemerkung: Gegeben seien die Voraussetzungen des Tests (8.2.1). Ist die Nullhypothese richtig, so verwirft der Test sie fälschlicherweise (Fehler 1. Art) mit höchstens der 26 auch als kritische Werte bezeichnet c °V. Steinmetz: Grundzüge der Statistik –153– vorher festgelegten Wahrscheinlichkeit α. Ist die Nullhypothese nicht richtig, so besteht die Möglichkeit, sie fälschlicherweise zu akzeptieren. Die Wahrscheinlichkeit dieses Fehlers 2. Art kann sehr groß, sogar nahe eins sein. Um diese Unsicherheit sprachlich anzudeuten, sagt man deshalb in diesem Fall oft nicht, man habe H0 angenommen, sondern nur, daß aufgrund des Stichprobenbefundes H0 nicht verworfen werden könne. 8.2.4 Bemerkung: Betrachtet werde der Einfachheit halber der Fall 0 aus Test (8.2.1): Der Test wird als Abbildung δ : X → {d0 , d1 } definiert durch die Festsetzung: d0 für δ(x) = d für x̄ − µ0 √ n ≤ λ1− α2 σ0 ¯ ¯ ¯ x̄ − µ0 √ ¯ ¯ n¯¯ > λ1− α2 ¯ σ0 − λ1− α2 ≤ 1 Man hat also den kritischen Bereich ¯ ½ ¯ n¯ K := x ∈ X = R ¯ . ¯ ¯ ¾ ¯ x̄ − µ0 √ ¯ ¯ ¯ n¯ > λ1− α2 ¯ σ0 und den Annahmebereich ¯ ½ ¾ ¯ x̄ − µ0 √ n¯ A := x ∈ X = R ¯−λ1− α2 ≤ n ≤ λ1− α2 . σ0 Man kann δ als Zusammensetzung aus zwei Abbildungen T und δ ∗ auffassen entsprechend dem folgenden Schema, X δ = δ∗ ◦ T {d0 , d1 } Á δ∗ T ^ R c °V. Steinmetz: Grundzüge der Statistik –154– wobei R in zwei Teilmengen K ∗ und A∗ zerlegt wird mit K ∗ :=] − ∞, −λ1− α2 [ ∪ ] λ1− α2 , ∞[ A∗ := [−λ1− α2 , λ1− α2 ] x̄ − µ0 √ n für alle x ∈ X σ0 d0 für T (x) ∈ A∗ δ(x) = δ ∗ (T (x)) = d1 für T (x) ∈ K ∗ und T (x) = . 8.2.5 Bemerkung: Bei der Formulierung des Testrezeptes (8.2.1) wurde die Verteilungsannahme nur implizit angegeben, man erkennt aber z.B. sofort aus den gemachten Voraussetzungen: im Fall H0 : µ = µ0 H1 : µ 6= µ0 ist W = {N (µ, σ02 ) | µ ∈ R = Θ} W0 = {N (µ0 , σ02 )} W1 = {N (µ, σ02 ) | µ ∈ R ∧ µ 6= µ0 } im Fall H0 : µ = µ0 H1 : µ > µ 0 (einfache Nullhypothese) (zusammengesetzte Gegenhypothese) ist W = {N (µ, σ02 ) | µ ∈ [µ0 , ∞[= Θ} W0 = {N (µ0 , σ02 )} W1 = {N (µ, σ02 ) | µ ∈ ]µ0 , ∞[} im Fall H0 : µ ≤ µ0 H1 : µ > µ 0 (einfache Nullhypothese) (zusammengesetzte Gegenhypothese) ist W = {N (µ, σ02 ) | µ ∈ R = Θ} W0 = {N (µ, σ02 )} | µ ∈ ] − ∞, µ0 ]} W1 = {N (µ, σ02 ) | µ ∈ ]µ0 , ∞[} (zusammengesetzte Nullhypothese) (zusammengesetzte Gegenhypothese). 8.2.6 Bemerkung: In der Praxis gibt man bei vorliegendem Stichprobenbefund x = (x1 , . . . , xn ) c °V. Steinmetz: Grundzüge der Statistik –155– bisweilen das Infimum der Signifikanzniveaus an, bei denen H0 abgelehnt würde. Man bezeichnet diesen Wert oft mit p, nennt ihn p-Wert (p-value, level attained) und lehnt H0 ab, wenn für das vorher gewählte Signifikanzniveau α gilt: α ≥ p. VORSICHT: Man muß das Signifikanzniveau vor der Auswertung des Stichprobenbefundes und vor der Kenntnis des p-Wertes festlegen, da sonst die Gefahr besteht, das Signifikanzniveau α so zu wählen, daß der Test die vom Anwender gewünschte Entscheidung liefert und die von der Testtheorie gelieferten Aussagen über die Fehlerwahrscheinlichkeiten unsinnig sind. c °V. Steinmetz: Grundzüge der Statistik –156– 8.3 Gütefunktion eines Tests 8.3.1 Definition: Es seien Y eine Zufallsvariable mit der Verteilungsannahme W, X = (X1 , ..., Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X und δ : X → {d0 , d1 } ein Test für die Hypothesen H0 : Q Y ∈ W 0 H1 : Q Y ∈ W 1 = W \ W 0 mit dem kritischen Bereich K. Die Abbildung G(. | δ) : W → [0, 1] mit G(QY | δ) := QX K für alle QY ∈ W heißt Gütefunktion (power function) des Tests. Ist W eine parametrische Verteilungsannahme mit W = {QY,ϑ | ϑ ∈ Θ}, so definiert man die Gütefunktion oft auch als G(. | δ) : Θ → [0, 1] mit G(ϑ | δ) := G(QY,ϑ | δ) für alle ϑ ∈ Θ. 8.3.2 Satz: Es seien Y eine N (µ, σ02 )-verteilte Zufallsvariable mit unbekanntem µ ∈ R und bekanntem σ02 ∈ R++ , X = (X1 , ..., Xn ) eine einfache Stichprobe zu Y mit dem Stichprobenraum X = Rn und der Realisation x = (x1 , ..., xn ), α ∈]0, 1[ ein fest gewähltes Signifikanzniveau und µ0 ∈ R eine vorgegebene Zahl. Weiterhin seien λ1− α2 , λ1−α das (1 − α2 )-bzw. (1 − α)-Quantil der N (0, 1)-Verteilung und N0 = x̄ − µ0 √ n σ0 die Teststatistik der Gauß-Tests aus Test (8.2.1). c °V. Steinmetz: Grundzüge der Statistik –157– Dann hat der Test zum Niveau α (.0) δ0 : X → {d0 , d1 } mit δ0 (x) := für die Hypothesen d0 : −λ1− α2 ≤ N0 ≤ λ1− α2 d1 : sonst H0 : µ = µ 0 H1 : µ 6= µ0 die Gütefunktion G(µ | δ0 ) = 1 − Φ µ µ0 − µ √ n + λ1− α2 σ0 ¶ +Φ µ µ0 − µ √ n + λ1− α2 σ0 und der Test zum Niveau α (.1) δI : X → {d0 , d1 } mit δI (x) := für die Hypothesen d0 : N0 ≤ λ1−α d1 : N0 > λ1−α H0 : µ ≤ µ 0 H1 : µ > µ 0 hat die Gütefunktion G(. | δI ) : R → [0, 1] mit G(µ | δI ) = 1 − Φ Schließlich hat der Test µ ¶ µ0 − µ √ n + λ1−α . σ0 (.2) δII : X → {d0 , d1 } mit δII (x) := c °V. Steinmetz: Grundzüge der Statistik d0 : N0 ≥ −λ1−α d1 : N0 < −λ1−α ¶ , –158– für die Hypothesen H0 : µ ≥ µ 0 H1 : µ < µ 0 die Gütefunktion G(. | δII ) : R → [0, 1] mit G(µ | δII ) = Φ µ ¶ µ0 − µ √ n − λ1−α . σ0 Beweis: zu (.0) Aus der Definition von G und δ0 folgt G(µ | δ0 ) = P ½ X̄ − µ0 √ X̄ − µ0 √ n < −λ1− α2 oder n > λ1− α2 σ0 σ0 =1−P =1−P =1−P ½ ½ ½ −λ1− α2 X̄ − µ0 √ n ≤ λ1− α2 ≤ σ0 ¾ σ0 σ0 − √ λ1− α2 + µ0 ≤ X̄ ≤ √ λ1− α2 + µ0 n n −λ1− α2 ¾ ¾ µ0 − µ √ µ0 − µ √ X̄ − µ0 √ n≤ n ≤ λ1− α2 + n + σ0 σ0 σ0 ¾ Wenn Y einer N (µ, σ02 )-Verteilung genügt, sind bei einer einfachen Stichprobe σ02 X = (X1 , ..., Xn ) der Stichprobenmittelwert X̄ N (µ, )-verteilt n und X̄ − µ √ n N (0, 1) − verteilt. σ0 Damit folgt · µ ¶ µ ¶¸ µ0 − µ √ µ0 − µ √ G(µ | δ0 ) = 1 − Φ n + λ1− α2 − Φ n − λ1− α2 σ0 σ0 und nach Auflösen der eckigen Klammern erhält man die behauptete Gleichung. Die Beweise für (.1) und (.2) werden analog geführt. c °V. Steinmetz: Grundzüge der Statistik –159– 8.4 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei unbekannter Varianz (t-Tests) 8.4.1 Definition: Es seien X1 , ..., Xn unabhängige, N (0, 1)-verteilte Zufallsvariablen mit n ∈ N. Dann heißt die ZV χ2n := X12 + ... + Xn2 Chi-Quadrat-verteilt mit n Freiheitsgraden. (Ihre Dichte ist in (Total)stetige Verteilungen (3.1.17) angegeben.) 8.4.2 Definition: Es seien X eine N (0, 1)-verteilte ZV und χ2n eine von X unabhängige, ChiQuadrat-verteilte ZV mit n Freiheitsgraden. Dann heißt die ZV X tn := q χ2n n t-verteilt mit n Freiheitsgraden. (Ihre Dichte ist in (Total)stetige Verteilungen (3.1.17) angegeben.) 8.4.3 Satz: Es seien X1 , ..., Xn unabhängige, N (µ, σ 2 )-verteilte ZV mit n ∈ N und X̄ = S2 = Dann ist die ZV n 1P Xi n i=1 n 1 P (Xi − X̄)2 . n − 1 i=1 1P xi − µ √ X̄ − µ √ n= n t0 := r n S 1 P 2 (Xi − X̄) n−1 t-verteilt mit n − 1 Freiheitsgraden. (Zum Beweis siehe z.B. Heinhold, H., Gaede, K.W.: Ingenieurstatistik (1972), S. 209, Satz 2.) c °V. Steinmetz: Grundzüge der Statistik –160– 8.4.4 Tests über µ bei unbekanntem σ 2 einer N (µ, σ 2 )-verteilten Zufallsvariablen (t-Tests): Gegeben: ZV Y, N (µ, σ 2 )-verteilt mit unbekanntem µ ∈ R und unbekanntem σ 2 ∈ R++ ; einfache Stichprobe X = (X1 , ..., Xn ) zu Y mit der Realisation x = (x1 , ..., xn ), Signifikanzniveau α ∈]0, 1[, µ0 ∈ R. Fall 0 Fall I Fall II (<) (>) µ > µ0 µ < µ0 H0 : µ = µ 0 µ = µ 0 µ = µ 0 H1 : µ 6= µ0 Berechne: Aus der tn−1 -Tabelle Schwellenwerte λ1− α2 , λ1−α mit P {−λ1− α2 ≤ tn−1 ≤ λ1− α2 } = 1 − α P {tn−1 ≤ λ1−α } = 1 − α x̄ = 1P xi n Testgröße: t0 := s2 = x̄ − µ0 √ n s 1 P (xi − x̄)2 n−1 Entscheide: Fall 0 Fall I Fall II H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2 t0 ≤ λ1−α t0 ≥ −λ1−α H1 annehmen: t0 > λ1−α t0 < −λ1−α |t0 | > λ1− α2 8.4.5 Bemerkung: In allen drei Fällen sind H0 und H1 stets zusammengesetzte Hypothesen. Die Bemerkungen (8.2.2) bis (8.2.4) gelten hier analog. Für n > 30 (Faustregel) kann man die tn−1 -Verteilung durch die N (0, 1)-Verteilung approximieren. c °V. Steinmetz: Grundzüge der Statistik –161– 8.5 Binomialtests 8.5.1 Binomialtests: 0 1 y und unbekanntem p ∈ [0, 1], einfache QY {y} 1 − p p Stichprobe X = (X1 , ..., Xn ) zu Y mit Realisation x = (x1 , ..., xn ), Signifikanzniveau α ∈]0, 1[ und p0 ∈]0, 1[. Gegeben: ZV Y mit Fall 0 Fall I Fall II (<) (>) p > p0 p < p0 H0 : p = p 0 p = p 0 p = p 0 H1 : p 6= p0 Berechne: Aus Binomialtafel λ α2 :=max{k ∈ {0, ..., n} | F (k − 0) ≤ α 2 ≤ F (k)} λ1− α2 :=min{k ∈ {0, ..., n} | F (k − 0) ≤ 1 − α 2 ≤ F (k)} λ1−α :=min{k ∈ {0, ..., n} | F (k − 0) ≤ 1 − α ≤ F (k)} λα :=max{k ∈ {0, ..., n} | F (k − 0) ≤ α ≤ F (k)} Dabei: F (k − 0) = Testgröße: b0 := n P k−1 P b(i|n, p), F (k) = i=0 k P b(i|n, p). i=0 xi i=1 Entscheide: H0 annehmen: Fall 0 Fall I Fall II λ α2 ≤ b0 ≤ λ1− α2 b0 ≤ λ1−α b0 ≥ λ α b0 > λ1−α b0 < λ α H1 annehmen: b0 < λ α2 oder b0 > λ1− α2 c °V. Steinmetz: Grundzüge der Statistik –162– 8.5.2 Binomialtests mit Normalverteilungsapproximation: y 0 1 und unbekanntem p ∈ [0, 1], einfache QY {y} 1 − p p Stichprobe X = (X1 , ..., Xn ) zu Y mit Realisation x = (x1 , ..., xn ), Signifikanz9 . niveau α ∈]0, 1[ und p0 ∈]0, 1[ mit n > p0 (1 − p0 ) Gegeben: ZV Y mit Fall 0 Fall I Fall II (<) (>) p > p0 p < p0 H0 : p = p 0 p = p 0 p = p 0 H1 : p 6= p0 Berechne: Aus N (0, 1)-Tafel λ1− α2 , λ1−α mit P {−λ1− α2 ≤ N (0, 1) ≤ λ1− α2 } = 1 − α P {N (0, 1) ≤ λ1−α } = 1 − α P xi − np0 Testgröße: b0 := p np0 (1 − p0 ) Entscheide: Fall 0 Fall I Fall II H0 annehmen: −λ1− α2 ≤ b0 ≤ λ1− α2 b0 ≤ λ1−α b0 ≥ −λ1−α H1 annehmen: b0 > λ1−α b0 < −λ1−α |b0 | > λ1− α2 c °V. Steinmetz: Grundzüge der Statistik –163– 8.6 Tests über die Erwartungswerte zweier normalverteilter Zufallsvariablen mit unbekannten Varianzen (t-Tests) 8.6.1 Tests über die Erwartungswerte zweier gemeinsam normalverteilter Zufallsvariablen mit unbekannten Varianzen bei verbundenen Stichproben (t-Tests): Gegeben: ZV (Y1 , Y2 ) zweidimensional normalverteilt mit EY1 = µ1 , EY2 = µ2 , ((X11 , X21 ), ..., (X1n , X2n )) einfache Stichprobe zu (Y1 , Y2 ) mit Realisation ((x11 , x21 ), ..., (x1n , x2n )), Signifikanzniveau α ∈]0, 1[, ϑ ∈ R fest. Fall 0 Fall I Fall II (<) (>) H0 : µ 1 − µ 2 = ϑ µ 1 − µ 2 = ϑ µ 1 − µ 2 = ϑ H1 : µ1 − µ2 6= ϑ Berechne: µ 1 − µ2 > ϑ µ 1 − µ2 < ϑ Aus der tn−1 -Tabelle λ1− α2 : P {−λ1− α2 ≤ tn−1 ≤ λ1− α2 } = 1 − α λ1−α : P {tn−1 ≤ λ1−α } = 1 − α z = (z1 , ..., zn ) mit zi = x1i − x2i für i = 1, ..., n z̄ = 1 n Testgröße: t0 := n P zi s(z) = i=1 r z̄ − ϑ √ n s 1 n−1 n P i=1 (zi − z̄)2 Entscheide: Fall 0 Fall I Fall II H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2 t0 ≤ λ1−α t0 ≥ −λ1−α H1 annehmen: t0 > λ1−α t0 < −λ1−α |t0 | > λ1− α2 c °V. Steinmetz: Grundzüge der Statistik –164– 8.6.2 Tests über die Erwartungswerte zweier normalverteilter Zufallsvariablen mit unbekannten, aber übereinstimmenden Varianzen und unverbundenen Stichproben (t-Tests): Gegeben: N (µ1 , σ 2 )-verteilte ZV Y1 , N (µ2 , σ 2 )-verteilte ZV Y2 , einfache Stichprobe X = (X11 , ..., X1n1 ) zu Y1 vom Umfang n1 mit Realisation x1 = (x11 , ..., x1n1 ), einfache Stichprobe X2 = (X21 , ..., X2n2 ) zu Y2 vom Umfang n2 mit Realisation x2 = (x21 , ..., x2n2 ), X1 und X2 unabhängig, Signifikanzniveau α ∈]0, 1[ und ϑ ∈ R. Fall 0 Fall I Fall II (<) (<) H0 : µ 1 − µ 2 = ϑ µ 1 − µ 2 = ϑ µ 1 − µ 2 = ϑ H1 : µ1 − µ2 6= ϑ µ 1 − µ2 > ϑ µ 1 − µ2 < ϑ Berechne: Aus der tn1 +n2 −2 -Tabelle: λ1− α2 : P {−λ1− α2 ≤ tn1 +n2 −2 ≤ λ1− α2 } = 1 − α λ1−α : P {tn1 +n2 −2 ≤ λ1−α } = 1 − α x̄1 = s2 (x1 ) = 1 n1 −1 n1 P i=1 Testgröße: t0 = 1 n n1 P x1i x̄2 = i=1 (x1i − x̄1 )2 ; r 1 n2 n2 P x2i i=1 s2 (x2 ) = 1 n2 −1 n1 n2 (n1 + n2 − 2) · rn P1 n1 + n 2 i=1 für n1 = n2 = n hat man die Testgröße n2 P i=1 (x2i − x̄2 )2 x̄1 − x̄2 − ϑ n2 P (x1i − x̄1 )2 + (x2i − x̄2 )2 i=1 x̄1 − x̄2 − ϑ √ n t0 = p s2 (x1 ) + s2 (x2 ) Entscheide: Fall 0 Fall I Fall II H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2 t0 ≤ λ1−α t0 ≥ −λ1−α H1 annehmen: t0 > λ1−α t0 < −λ1−α |t0 | > λ1− α2 c °V. Steinmetz: Grundzüge der Statistik –165– 8.7 Tests über die Varianzen normalverteilter Zufallsvariablen (χ2 -Tests, F -Tests) 8.7.1 Satz: Es seien X1 , ..., Xn unabhängige, N (µ, σ 2 )-verteilte Zufallsvariablen. Dann ist die Zufallsvariable n P (Xi − X̄)2 n−1 2 i=1 S (X1 , ..., Xn ) = χ2n−1 -verteilt. σ2 σ2 (Der Beweis ist z.B. in Kreyszig, E.: Statistische Methoden und ihre Anwendungen, Göttingen (1970) S. 371 f zu finden.) 8.7.2 Tests über σ 2 einer N (µ, σ 2 )-verteilten Zufallsvariablen: Gegeben: N (µ, σ 2 )-verteilte ZV Y , einfache Stichprobe X = (X1 , ..., Xn ) zu Y mit Realisation x = (x1 , ..., xn ), Signifikanzniveau α ∈]0, 1[ und σ02 > 0. Fall 0 Fall I 2 2 (<) H0 : σ = σ02 H1 : σ 2 6= σ02 Fall II (>) σ02 σ 2 = σ02 σ 2 > σ02 σ 2 < σ02 σ = Berechne: Aus der χ2n−1 -Tabelle : P {χ2n−1 ≤ λ α2 } = λ α2 α 2 λ1− α2 : P {χ2n−1 ≤ λ1− α2 } = 1 − Testgröße: χ20 = α 2 λα : P {χ2n−1 ≤ λα } = α λ1−α : P {χ2n−1 ≤ λ1−α } = 1 − α n P i=1 (xi − x̄)2 σ02 Entscheide: Fall 0 Fall I Fall II H0 annehmen, falls λ α2 ≤ χ20 ≤ λ1− α2 χ20 ≤ λ1−α χ20 ≥ λα H1 annehmen, falls sonst χ20 > λ1−α χ20 < λα p √ χ20 − (n − 1) Für σ 2 = σ02 und n ≥ 50 ist p oder für n ≥ 30 ist 2χ20 − 2n − 3 2(n − 1) annähernd N (0, 1)-verteilt. c °V. Steinmetz: Grundzüge der Statistik –166– 8.7.3 Definition: χ2m , χ2n seien unabhängige, χ2 -verteilte Zufallsvariablen mit m bzw. n Freiheitsgraden. Dann heißt Fnm χ2m χ2 n =: Fm,n := m2 = m · 2 χn χn m n F -verteilt mit m Zählerfreiheitsgraden und n Nennerfreiheitsgraden. 8.7.4 Folgerung: Es sei Fnm eine mit m Zähler- und n Nennerfreiheitsgraden F -verteilte ZV über einem WR (Ω, F, P ). Dann gilt für alle p ∈]0, 1[ ¾ ½ 1 m n =1−p P {Fn ≤ λp,m,n } = p ⇔ P Fm ≤ λ p,m,n und somit auch λ1−p,n,m = 1 . λ p,m,n Beweis: Nach Definition (8.7.3) ist eine ZV X F -verteilt mit m Zähler- und n 1 F -verteilt ist mit n Zähler- und m Nennerfreiheitsgraden genau dann, wenn X Nennerfreiheitsgraden. Dann folgt: ½ ¾ 1 1 m p = P {Fn ≤ λp,m,n } = P ≥ λ p,m,n Fnm n = P Fmn ≥ 1 λ p,m,n n = 1 − P Fmn < n = 1 − P Fmn ≤ Damit erhält man sofort die Behauptung. o 1 λ p,m,n 1 λ p,m,n o o . 8.7.5 Satz: Die Zufallsvariablen X = (X1 , ..., Xm ) und Y = (Y1 , ..., Yn ) seien unabhängig, die Xi (i = 1, ..., m) seien unabhängig und N (µ1 , σ12 )-verteilt, die Yj (j = 1, ..., n) seien ebenfalls unabhängig und N (µ2 , σ22 )-verteilt. Dann ist die ZV S 2 (X)σ22 F m−1 -verteilt. S 2 (Y )σ12 n−1 c °V. Steinmetz: Grundzüge der Statistik –167– Beweis: Nach Satz (8.7.1) sind die Zufallsvariablen m−1 2 n−1 2 S (X) und S (Y ) χ2m−1 -verteilt bzw. χ2n−1 -verteilt und nach Voraus2 2 σ1 σ2 setzung unabhängig. Damit genügt nach Definition (8.7.3) die ZV m−1 2 S (X) σ12 S 2 (X) σ2 m−1 m−1 = 2 -Verteilung. · 22 einer Fn−1 n−1 2 S (Y ) σ1 S (Y ) σ22 n−1 Wenn jetzt H0 : σ12 = σ22 wahr ist, d.h. σ22 σ12 = 1 gilt, ist die Testgröße S 2 (X) m−1 · 1 Fn−1 -verteilt. 2 S (Y ) Die Schwellenwerte λ α2 , λ1− α2 können mit Hilfe der entsprechenden F -Verteilungstabelle bestimmt werden. 8.7.6 Tests über die Varianzen zweier normalverteilter Zufallsvariablen (F -Tests): Gegeben: N (µ1 , σ12 )-verteilte ZV Y1 , N (µ2 , σ22 )-verteilte ZV Y2 , einfache Stichprobe X1 = (X11 , ..., X1n1 ) zu Y1 mit Realisation x1 = (x11 , ..., x1n1 ), einfache Stichprobe X2 = (X21 , ..., X2n2 ) zu Y2 mit Realisation x2 = (x21 , ..., x2n2 ), X1 und X2 unabhängig, Signifikanzniveau α ∈]0, 1[ und ϑ ∈ R++ . Fall 0 Fall I Fall II H0 : σ12 (>) σ12 (<) σ12 = ϑ = ϑ = ϑ σ22 σ22 σ22 H1 : σ12 6= ϑ σ22 c °V. Steinmetz: Grundzüge der Statistik σ12 >ϑ σ22 σ12 <ϑ σ22 –168– −1 Berechne: Aus Fnn21−1 -Tafel λ α2 : −1 P {Fnn21−1 ≤ λ α2 } = λ1− α2 : −1 P {Fnn21−1 ≤ λ1− α2 } = 1 − λα : −1 P {Fnn21−1 ≤ λα } = α λ1−α : −1 P {Fnn21−1 ≤ λ1−α } = 1 − α x̄1 = S 2 (x1 ) = Testgröße: F0 = 1 n1 n1 P x1i x̄2 = i=1 1 n1 −1 n1 P i=1 (x1i − x̄1 )2 α 2 1 n2 n2 P α 2 x2i i=1 S 2 (x2 ) = 1 n2 −1 1 S 2 (x1 ) · 2 S (x2 ) ϑ Entscheide: Fall 0 Fall I Fall II H0 annehmen λ α2 ≤ F0 ≤ λ1− α2 F0 ≤ λ1−α F0 ≥ λα H1 annehmen F0 > λ1−α F0 < λ α sonst c °V. Steinmetz: Grundzüge der Statistik n2 P i=1 (x2i − x̄2 )2 –169– 8.8 Chi-Quadrat-Anpassungstest 8.8.1 Chi-Quadrat-Anpassungstest: Gegeben: ZV Y mit unbekannter VF FY , einfache Stichprobe X = (X1 , ..., Xn ) zu Y mit der Realisation x = (x1 , ..., xn ), Signifikanzniveau α ∈]0, 1[. ◦ ◦ H0 : F Y = F Y H1 : F Y = 6 FY ◦ Dabei darf die hypothetische Verteilungsfunktion F keine unbekannten Parameter mehr enthalten. Wähle: Intervalleinteilung ] − ∞, a ] ]a , a ] ... ]a , a ] ... ]a , ∞[ , | {z 2} | 2{z 3} | k {zk+1} | r{z } I1 I2 Ik Ir so daß mit a1 = −∞ und ar+1 = +∞ für jedes Ik gilt ◦ ◦ ◦ n pk = n(F (ak+1 )− F (ak )) ≥ 5 für k = 1, ..., r. Falls die vorgenommene Intervalleinteilung dies nicht sofort erfüllt, fasse man benachbarte Intervalle zusammen. Man lege die Intervallgrenzen nicht auf die einzelnen xi , bei diskreten hypothetischen Verteilungen auch nicht auf Sprung◦ stellen von F Y . Berechne: νk Anzahl der xi , die in das k-te Intervall fallen, für k = 1, ..., r (empirische Häufigkeit) ◦ n· pk für k = 1, ..., r (theoretische Häufigkeit) aus χ2r−1 -Tafel λ1−α mit P {χ2r−1 ≤ λ1−α } = 1 − α Testgröße: Entscheide: H0 annehmen: H1 annehmen: χ20 = ◦ r (ν − n p )2 P k k k=1 χ20 ≤ λ1−α χ20 > λ1−α c °V. Steinmetz: Grundzüge der Statistik ◦ n pk = à r P νk2 k=1 ◦ n pk ! −n –170– 8.8.2 Modifizierter Chi-Quadrat-Minimum-Anpassungstest: Gegeben: ZV Y mit unbekannter VF FY , einfache Stichprobe X = (X1 , ..., Xn ) zu Y mit der Realisation x = (x1 , ..., xn ), Signifikanzniveau α ∈]0, 1[. ◦ H0 : FY ∈ {F Y (. | ϑ1 , ..., ϑl ) | (ϑ1 , ..., ϑl ) ∈ Θ} ◦ ◦ H1 : F Y ∈ / {F Y (. | ϑ1 , ..., ϑl ) | (ϑ1 , ..., ϑl ) ∈ Θ} F Y enthält l ≥ 1 unbekannte Parameter ϑ1 , ..., ϑl . Berechne: ML-Schätzwerte ϑ̂1 , ..., ϑ̂l für ϑ1 , ..., ϑl . Wähle: Intervalleinteilung wie in Test (8.8.1) unter Benutzung von ◦ F Y (. | ϑ̂1 , ..., ϑ̂l ). Die Anzahl der Intervalle sei r. Es gelte r > l + 1. Berechne: aus χ2r−l−1 -Tafel λ1−α mit P {χ2r−l−1 ≤ λ1−α } = 1 − α Testgröße: ◦ χ20 unter Benutzung von F Y (. | ϑ̂1 , ..., ϑ̂l ) wie in Test (8.8.1) Entscheide: H0 annehmen: χ20 ≤ λ1−α H1 annehmen: χ20 > λ1−α Vorsicht: Aufgrund der oben verwendeten ML-Schätzung ist die Testgröße i.a. nicht mehr asymptotisch χ2 -verteilt, die ermittelten Quantile sind aber - mindestens für größere r - als Näherungen brauchbar. c °V. Steinmetz: Grundzüge der Statistik –171– 8.9 Wilcoxon-Rangsummentest für unverbundene Stichproben 8.9.1 Definition: Es seien M 6= ∅ eine Menge und A ⊆ M. Die Abbildung 1A : M → {0, 1} mit 1A (x) := ½ 1 : x∈A 0 : x∈ /A bezeichnet man als Indikatorfunktion (indicator function) der Menge A. 8.9.2 Definition: Es sei Rn6= := {(x1 , ..., xn ) ∈ Rn | xi 6= xj für i 6= j} der Menge aller n-Tupel reeller Zahlen mit paarweise verschiedenen Elementen. Man bezeichnet die Abbildung Rj : Rn6= → {1, ..., n} mit Rj (x) := n X i=1 j ∈ {1, ..., n} 1]−∞,xj ] (xi ) für x = (x1 , ..., xn ) ∈ Rn6= als j-te Rangstatistik und Rj (x) als Rang des Elementes xj in x = (x1 , ..., xn ). Ist X = (X1 , ..., Xn ) eine n-dimensionale Zufallsvariable mit dem Stichprobenraum X = Rn6= , so bezeichnet man auch die Zufallsvariable Rj ◦ X =: Rj (X) = Rj (X1 , ..., Xn ) als j-te Rangstatistik (j = 1, ..., n). 8.9.3 Bemerkung: Es sei x = (x11 , ..., x1n1 , x21 , ..., x2n2 ) ∈ Rn6=1 +n2 (n1 , n2 ∈ N). Dann ist es naheliegend, den Rang des Elementes x1j (j ∈ {1, ..., n1 }) in dem ganzen (n1 + n2 )-Tupel x mit R1j (x) zu bezeichnen. Es gilt R1j (x) = n1 X 1]−∞,x1j ] (x1i ) + i=1 n2 X 1]−∞,x1j ] (x2i ) . i=1 Entsprechend hat man R2j (x) = n1 X 1]−∞,x2j ] (x1i ) + i=1 c °V. Steinmetz: Grundzüge der Statistik n2 X i=1 1]−∞,x2j ] (x2i ) –172– für j = 1, ..., n2 als Rang des Elementes x2j in dem (n1 + n2 )-Tupel x. Die Zufallsvariablen R1j (X11 , ..., X1n1 , X21 , ..., X2n2 ) und R2j (X11 , ..., X1n1 , X21 , ..., X2n2 ) sind entsprechend zu interpretieren. 8.9.4 Satz: Es sei X = (X11 , ..., X1n1 , X21 , ..., X2n2 ) mit n1 , n2 ∈ N und n := n1 + n2 eine einfache Stichprobe zu einer stetigen Zufallsvariablen Y 27 . Weiterhin sei Wnn1 := n1 X R1i (X). i=1 Dann gilt .1) EWnn1 = n1 (n + 1) , 2 n1 n2 (n + 1) . 12 Wnn1 − EWnn1 := p gilt für die zugehörige Verteilungsfunktion Var Wnn1 .2) Var Wnn1 = Mit Znn1 .3) FZnn1 (z) = Φ(z) für alle z ∈ R. lim konst n→∞ n1 → n Beweis: Einen Beweis dieses Satzes findet man z.B. in Gibbons, J.D.: Nonparametric Statistical Inference, N.Y. u.a. (1971) S. 152 ff. 8.9.5 Wilcoxon-Rangsummentest für unverbundene Stichproben mit Normalverteilungsapproximation: Gegeben: Stetig verteilte, mindestens ordinal skalierte Zufallsvariablen Y 1 , Y2 mit Verteilungsfunktionen FY1 und FY2 , einfache, unabhängige Stichproben X1 = (X11 , ..., X1n1 ) und X2 = (X21 , ..., X2n2 ) zu Y1 bzw. Y2 mit Realisationen x1 = (x11 , ..., x1n1 ) und x2 = (x21 , ..., x2n2 ), wobei die Elemente von x := (x1 , x2 ) paarweise verschieden sein müssen, n1 , n2 ∈ N mit n := n1 +n2 , α ∈]0, 1[; n1 ≥ 25 oder n2 ≥ 25, es existiert ϑ ∈ R mit FY2 (y) = FY1 (y + ϑ) für alle y ∈ R. Fall 0 Fall I Fall II (<) (>) ϑ>0 ϑ<0. H0 : ϑ = 0 ϑ = 0 ϑ = 0 27 beachte Bemerkung (8.9.6) H1 : ϑ 6= 0 c °V. Steinmetz: Grundzüge der Statistik –173– Berechne: Aus N (0, 1)-Tafel λ1− α2 : P {−λ1− α2 ≤ N (0, 1) ≤ λ1− α2 } = 1 − α λ1−α : P {N (0, 1) ≤ λ1−α } = 1 − α w0 := n1 X R1i (x), i=1 Entscheide: Fall 0 w0 − z0 := q n1 (n+1) 2 n1 n2 (n+1) 12 Fall I Fall II H0 annehmen: −λ1− α2 ≤ z0 ≤ λ1− α2 z0 ≤ λ1−α z0 ≥ −λ1−α H1 annehmen: z0 > λ1−α z0 < −λ1−α |z0 | > λ1− α2 8.9.6 Bemerkung: Die Rangstatistiken wurden als Abbildungen über dem Rn6= eingeführt, der Stichprobenraum X einer n-dimensionalen Zufallsvariablen X enthält i.a. Elemente, die nicht zum Rn6= gehören. Da bei einer stetigen Zufallsvariablen die Menge Rn \ Rn6= das Wahrscheinlichkeitsmaß Null hat, ist die Hintereinanderausführung von X und einer Rangstatistik trotzdem sinnvoll zu interpretieren. (Vgl. dazu auch Bemerkung (8.9.7)). 8.9.7 Bemerkung: Nach den Voraussetzungen des Testrezeptes (8.9.5) sind die unabhängigen, einfachen Stichproben X1 und X2 stetig verteilt und folglich ist die Wahrscheinlichkeit Null, daß Zahlenwerte mehrfach vorkommen. Trotzdem treten in der Praxis allein schon aufgrund von Rundungen immer wieder übereinstimmende Werte auf, man spricht von Bindungen (ties). Bei dem vorangehenden Rangtest empfiehlt es sich, jedem Element einer Gruppe von übereinstimmenden Werten den Mittelwert der auf die Gruppenelemente entfallenden Ränge zuzuordnen. Diese Ränge werden dabei bestimmt, indem man fiktiv von so minimal verschiedenen Gruppenelementen ausgeht, daß sie in der nach der Größe der Elemente geordneten Stichprobenrealisation aufeinander folgen würden. Beispielsweise erhält man nach dieser Methode für die Stichprobenrealisation x = (x1 , ..., x5 ) = (6, 3, 7, 3, 1) die Ränge R1 (x) = 4; R2 (x) = 28 2+3 = 2, 5; R3 (x) = 5; R4 (x) = 2, 5; R5 (x) = 1.28 2 Die Veränderung der Verteilung der Teststatistik wurde hier vernachlässigt; vgl. Büning, H., Trenkler, G.: Nichtparametrische statistische Methoden, Berlin, N.Y. (1978) S. 148 f. c °V. Steinmetz: Grundzüge der Statistik –174– 8.10 Parameterbereichsschätzungen 8.10.1 Definition: Es seien Y eine ZV mit der parametrischen Verteilungsannahme W, Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm sowie X = (X1 , ..., Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X. Eine Abbildung δ : X → P(γ(Θ)) heißt eine Parameterbereichsschätzung für den Parameter γ(ϑ) mit ϑ ∈ Θ. (Entsprechend der Bemerkung (7.1.3) sollen auch hier Meßbarkeitsfragen ausgeklammert werden). 8.10.2 Bemerkung: Man bezeichnet im allgemeinen auch die ZV δ(X) := δ ◦ X als Bereichsschätzfunktion für γ(ϑ) mit ϑ ∈ Θ. 8.10.3 Definition: Es seien Y eine ZV mit der parametrischen Verteilungsannahme W, Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm sowie X = (X1 , ..., Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X und α ∈]0, 1[. Eine Parameterbereichsschätzung δ : X → P(γ(Θ)) heißt eine Konfidenzbereichsschätzung oder Konfidenzschätzung zur Sicherheitswahrscheinlichkeit 1 − α oder zum Niveau α, wenn gilt QX,ϑ {x ∈ X | γ ∈ δ(x)} ≥ 1 − α für alle γ ∈ γ(Θ) und ϑ ∈ Θ mit γ(ϑ) = γ . Für jedes x ∈ X heißt δ(x) ⊆ γ(Θ) ein 1 − α-Konfidenzbereich für γ ∈ γ(Θ). 8.10.4 Satz: Es seien Y eine ZV mit der parametrischen Verteilungsannahme W, Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm sowie X = (X1 , ..., Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X. Es seien δγ∗0 : X → {d0 , d1 } für alle γ0 ∈ γ(Θ) Alternativtests zum Niveau α ∈]0, 1[ zur Prüfung der Hypothesen H0 : γ(ϑ) = γ0 dabei sei 29 H1 : ¬(γ(ϑ) = γ0 ), 29 Aγ0 := {x|x ∈ X ∧ δγ∗0 (x) = d0 } Die genaue Form der Gegenhypothese ist durch W festgelegt. c °V. Steinmetz: Grundzüge der Statistik –175– der Annahmebereich des Tests δγ∗0 . Dann ist durch δ(x) := {γ0 ∈ γ(Θ) | x ∈ Aγ0 } eine Konfidenzbereichsschätzung δ : X → P(γ(Θ)) zur Sicherheitswahrscheinlichkeit 1 − α definiert. Beweis: Wenn δγ∗0 ein Test zum Niveau α ist, hat der kritische Bereich bei Gültigkeit der Nullhypothese H0 höchstens die Wahrscheinlichkeit α, und folglich gilt für den Annahmebereich (∗) QX,ϑ Aγ0 ≥ 1 − α für alle γ0 ∈ γ(Θ) und ϑ ∈ Θ mit γ(ϑ) = γ0 . Nach Definition (8.10.3) ist zu zeigen QX,ϑ {x | γ0 ∈ δ(x)} ≥ 1 − α für alle γ0 ∈ γ(Θ) und ϑ ∈ Θ mit γ(ϑ) = γ0 . Nach Konstruktion von δ(x) gilt δ(x) := {γ0 ∈ γ(Θ) | x ∈ Aγ0 }, also gilt für jedes γ0 ∈ γ(Θ) (∗∗) γ0 ∈ δ(x) ⇐⇒ x ∈ Aγ0 . Damit folgt für die interessierende Wahrscheinlichkeit QX,ϑ {x | γ0 ∈ δ(x)} = QX,ϑ {x | x ∈ Aγ0 } (nach (∗∗)) = QX,ϑ Aγ0 ≥1−α (nach (∗)) für alle γ0 ∈ γ(Θ) und ϑ ∈ Θ mit γ(ϑ) = γ0 . 8.10.5 Folgerung: Es seien Y eine N (µ, σ02 )-verteilte Zufallsvariable mit unbekanntem Erwartungswert µ ∈ R und bekannter Varianz σ02 ∈ R++ , X = (X1 , ..., Xn ) eine einfache Stichprobe zu Y mit dem Stichprobenraum X = Rn . Zu α ∈]0, 1[ sei λ1− α2 bestimmt mit P {−λ1− α2 ≤ N (0, 1) ≤ λ1− α2 } = 1 − α. Dann ist durch · ¸ n σ0 σ0 1X δ(x) := x̄ − √ λ1− α2 ; x̄ + √ λ1− α2 für alle x ∈ X mit x̄ = xi n i=1 n n c °V. Steinmetz: Grundzüge der Statistik –176– eine (1 − α)-Konfidenzbereichsschätzung δ für den Parameter µ gegeben. Beweis: Es werde der Test (8.2.1) zum Niveau α ∈]0, 1[ mit H0 : µ = µ 0 H1 : µ 6= µ0 zugrunde gelegt. Der Annahmebereich des Tests ist ½ ¾ x̄ − µ0 √ Aµ0 = x ∈ X | −λ1− α2 ≤ n ≤ λ1− α2 . σ0 Nach Satz (8.10.4) erhält man für die Realisation x = (x1 , ..., xn ) einer einfachen Stichprobe X = (X1 , ..., Xn ) zu Y den (1 − α)-Konfidenzbereich δ(x) = {µ0 ∈ R | x ∈ Aµ0 } = = ½ ½ µ0 ∈ R | −λ1− α2 x̄ − µ0 √ n ≤ λ1− α2 ≤ σ0 ¾ σ0 σ0 µ0 ∈ R | x̄ − √ λ1− α2 ≤ µ0 ≤ x̄ + √ λ1− α2 n n · ¸ σ0 σ0 = x̄ − √ λ1− α2 ; x̄ + √ λ1− α2 . n n ¾ 8.10.6 Bemerkung: In Folgerung (8.10.5) wurde von einem zweiseitigen Test ausgegangen; als Konfidenzbereich zur Realisation x = (x1 , ..., xn ) erhält man ein sogenanntes zweiseitiges Konfidenzintervall. Die Verwendung einseitiger Tests würde in diesem Fall zu einseitigen Konfidenzintervallen führen; sie sind von Interesse, wenn Abweichungen des wahren µ vom hypothetischen µ0 nur nach einer Seite von Bedeutung sind. 8.10.7 Folgerung: Es seien Y eine N (µ, σ 2 )-verteilte Zufallsvariable mit unbekanntem Erwartungswert µ ∈ R und unbekannter Varianz σ 2 ∈ R++ , X = (X1 , ..., Xn ) eine einfache Stichprobe zu Y mit dem Stichprobenraum X = Rn . Zu α ∈]0, 1[ sei λ1− α2 bestimmt mit P {λ1− α2 ≤ tn−1 ≤ λ1− α2 } = 1 − α. Dann ist durch · s s δ(x) = x̄ − √ λ1− α2 ; x̄ + √ λ1− α2 n n c °V. Steinmetz: Grundzüge der Statistik ¸ für alle x ∈ Rn –177– mit n 1X x̄ = xi ; n i=1 v u u s=t n 1 X (xi − x̄)2 n − 1 i=1 eine (1 − α)-Konfidenzbereichsschätzung δ für den Parameter µ gegeben. Beweis: analog zum Beweis der Folgerung (8.10.5) unter Zuhilfenahme von Test (8.4.4). 8.10.8 Bemerkung: Eine Umkehrung des Satzes (8.10.4) zeigt, daß durch eine Konfidenzbereichsschätzung auch Parametertests zum entsprechenden Niveau festgelegt sind: Ein hypothetischer Parameter wird akzeptiert, falls er in dem aufgrund einer Stichprobenrealisation berechneten entsprechenden Konfidenzbereich liegt, andernfalls wird er verworfen (vgl. (∗∗) im Beweis von Satz (8.10.4)). c °V. Steinmetz: Grundzüge der Statistik –178– 10 Das klassische lineare Regressionsmodell 10.1 Bereitstellung des Modells 10.1.1 Wichtige Vereinbarung: In Abweichung von der bisherigen Schreibweise werden im folgenden entsprechend dem Vorgehen in der Ökonometrie Variablen und ihre Realisationen nicht durch Groß- bzw. Kleinschreibung unterschieden. Es muß dem Zusammenhang entnommen werden, ob es sich jeweils um die Darstellung von Variablen oder ihrer Realisationen handelt. Viele Formeln gelten sowohl für die Variablen als auch für ihre Realisierungen. Vorsicht: Trotz dieser Schreibweise bleiben Variablen und ihre Realisationen verschiedene mathematische Objekte! 10.1.2 Definition: Es seien n, T ∈ N und y1 u1 .. .. . . u= . y= . .. .. yT uT X= β= x10 x11 · · · x1n .. .. ... . . .. .. ... . . xT 0 xT 1 · · · x T n β0 β1 .. . βn = [X•0 , ..., X•n ] c °V. Steinmetz: Grundzüge der Statistik T -dimensionale Zufallsvektoren (bzw. ihre Realisationen) (random vector) eine T × (n + 1)-Matrix reeller deterministischer Variablen (bzw. ihrer Realisationen) ein (n + 1)-dimensionaler Vektor reeller deterministischer Variablen (bzw. ihrer Realisationen) –179– Dann heißt .1) y = Xβ + u ein multiples lineares Regressionsmodell. Es sei yt = β0 xt0 + ... + βn xtn + ut die t-te Zeile (t = 1, ..., T ) aus (.1). Man nennt yt Regressand, abhängige Variable xt0 , ..., xtn Regressoren, unabhängige Variablen, erklärende Variablen ut Stör- oder Fehlervariable β0 , ..., βn Regressionskoeffizienten. Liegen Realisationen y und X vor, bezeichnet man (y, X) als Beobachtungswertmatrix. Man bezeichnet das Modell (.1) als klassisch, wenn folgende Voraussetzungen erfüllt sind: .2) für jede Realisation X ∈ RT ×(n+1) und jedes β ∈ Rn+1 gilt Eu = 0 Eu u0 = σ 2 I mit σ 2 > 0. .3) Für die beobachtete Realisation X gilt rg XT ×(n+1) = n + 1. Ist ein Spaltenvektor von X der Einsvektor, o.B.d.A. gelte .4) X•0 = ι, so heißt das Modell inhomogen und der zugehörige Regressionskoeffizient - im Fall X•0 = ι also β0 - das Absolutglied des Regressionsmodells, die anderen Koeffizienten heißen eigentliche Regressionskoeffizienten , xt0 bezeichnet man als Scheinvariable. Ist kein Spaltenvektor von X ein Einsvektor, so heißt das Modell homogen. c °V. Steinmetz: Grundzüge der Statistik –180– 10.1.3 Satz: Gegeben sei das Regressionsmodell aus Definition (10.1.2) mit y = Xβ + u. Unter der Voraussetzung Eu = 0 gilt für die Zufallsvariable y Ey = Xβ und unter der zusätzlichen Voraussetzung Eu u0 = σ 2 I folgt Σy y0 = σ 2 I. Beweis: Es gilt Ey = E(Xβ + u) = EXβ + Eu = Xβ Σy y0 = E(y − Ey)(y − Ey)0 = E(Xβ + u − Xβ)(Xβ + u − Xβ)0 = Eu u0 = σ 2 I. c °V. Steinmetz: Grundzüge der Statistik –181– 10.2 Die Methode der kleinsten Quadrate 10.2.1 Definition: Gegeben seien das lineare Modell y = Xβ + u und die Beobachtungswertmatrix (y, X) mit rg XT ×(n+1) = n + 1. b des Problems Eine Lösung β (.1) e 0 (y − X β) e min(y − X β) e β bezeichnet man als Kleinst-Quadrat-Schätzung (KQ-Schätzung, ordinary least squares estimator, OLS-Schätzung) für den unbekannten Regressionskoeffizientenvektor β. Der Vektor b u b := y − X β heißt Vektor der KQ-Residuen, b b y := X β der nach der KQ-Methode geschätzte y-Vektor. 10.2.2 Satz: Gegeben seien das lineare Regressionsmodell y = Xβ + u und die Beobachtungswertmatrix (y, X) mit rg XT ×(n+1) = n + 1. Dann gibt es b er ist Lösung der sog. Normalgleichungen genau einen KQ-Schätzer β, und es gilt b = X 0y X 0X β b = (X 0 X)−1 X 0 y . β Beweis: Siehe z.B. Vorlesung Ökonometrie I oder Lehrbücher der Ökonometrie. c °V. Steinmetz: Grundzüge der Statistik –182– 10.2.3 Beispiel: Das einfache lineare Regressionsmodell: Das lineare Regressionsmodell y = Xβ + u mit X = [xti ] t=1,...,T i=0,1,...,n heißt einfach, wenn gilt n = 1 und xt0 = 1 für t = 1, ..., T ; es handelt sich also um ein inhomogenes Modell. Zur Vereinfachung seien folgende Bezeichnungen eingeführt: xt := xt1 t = 1, ..., T α := β0 β := β1 . Damit folgt für die t-te Gleichung des Regressionsmodells yt = α + βxt + ut und es gilt weiter y= y1 .. . .. . yT X 0X = 0 Xy= · · X= 1 ... 1 x1 . . . x T 1 x1 1 x1 · ¸ .. .. α . . u= β= .. .. β . . 1 xT ¸ ¸ ... 1 . . . xT c °V. Steinmetz: Grundzüge der Statistik t = 1, ..., T u1 .. . .. . uT T P 1 x1 xt T .. .. t=1 . . = .. .. T T P . . P 2 xt xt 1 xT t=1 t=1 y1 .. . .. . yT T P t=1 yt = T P xt yt t=1 –183– b= Mit β · α b βb ¸ erhält man die Normalgleichungen α b α bT + βb T X t=1 T X xt = t=1 xt + βb T X T X yt t=1 x2t = t=1 T X xt yt . t=1 Die Voraussetzung rg XT ×(n+1) = n+1 bedeutet in dem Spezialfall des einfachen Modells rg X = 2, d.h. es gibt t, t0 mit xt 6= xt0 . In diesem Fall sind nach Satz (10.2.2) die Normalgleichungen eindeutig lösbar und man erhält P P P T xt yt − xt yt b P 2 P β = T xt − ( xt ) 2 1P 1 P yt − βb xt T T P 2P P P xt yt − xt yt xt P 2 P = . T xt − ( xt ) 2 α b = 10.2.4 Hilfssatz: Gegeben sei das lineare Regressionsmodell y = Xβ + u mit rg XT ×(n+1) = n + 1 und b = (X 0 X)−1 X 0 y, β b b y = X β, Dann gelten die sog. Orthogonalitätsbeziehungen (.1) X 0 u b=0 (.2) b y0u b=0. c °V. Steinmetz: Grundzüge der Statistik u b = y−b y. –184– Beweis: zu (.1) X 0 u b = X 0 (y− b y) b = X 0y − X 0X β = X 0 y − X 0 X(X 0 X)−1 X 0 y = X 0y − X 0y = 0 zu (.2) b y0u b b 0u = (X β) b b0 X 0 u b=0 =β 10.2.5 Satz (Zerlegungsformel): Gegeben sei das lineare Regressionsmodell y = Xβ + u mit rg XT ×(n+1) = n + 1 und Dann gilt d.h. X y0y = b y0b b0u y+u b yt2 = t Beweis: b b y = X β, b = (X 0 X)−1 X 0 y, β X t ybt2 + X t u b0u b = (y − b y ) 0 (y − b y) u b = y−b y. u b2t . b 0 (y − X β) b = (y − X β) b b+β b0 X 0 y − y 0 X β b0 X 0 X β = y0y − β Durch Ausnutzung der Normalgleichungen in der Form b = X 0y X 0X β bzw. folgt b0 X 0 X = y 0 X β b−β b+β b b0 X 0 X β b0 X 0 X β b0 X 0 X β b = y0y − β u b0u y. = y0y − b y0b c °V. Steinmetz: Grundzüge der Statistik –185– 10.2.6 Satz und Definition: Gegeben sei das inhomogene lineare Regressionsmodell y = Xβ + u mit rg XT ×(n+1) = n + 1 und X•0 := ι . Mit ȳ := folgt (.1) u b̄ = 0 = (.2) b̄ y = ȳ . T P t=1 T 1X yt , T t=1 b̄ y := T 1X ybt T t=1 und u b̄ := T 1X u bt T t=1 u bt , Mit der empirischen Streuung der Beobachtungen T 1X (yt − ȳ)2 , σ b (y) := T t=1 2 der durch die Regression erklärten Streuung der Beobachtungen T T 1X 1X 2 (b yt − b̄ y) = (b yt − ȳ)2 , σ b (b y ) := T t=1 T t=1 2 der durch das Modell nicht erklärten Reststreuung der Beobachtungen σ b2 (b u) := T T 1X 1X 2 (b ut − u) b̄ 2 = u b T t=1 T t=1 t gilt die Streuungszerlegungsformel (.3) σ b2 (y) = σ b2 (b y) + σ b2 (b u). Beweis: zu (.1) Nach (10.2.4.1) gilt 0 0 0 = X 0u b = (X•0 u b, ..., X•n u b) 0 . Da im inhomogenen Modell X•0 = ι gilt, folgt 0 b= 0 = X•0 u b = ι0 u c °V. Steinmetz: Grundzüge der Statistik T X t=1 u bt = T 1X u bt . T t=1 –186– zu (.2) Wegen u b = y−b y folgt im inhomogenen Modell 0 und damit auch 0 0=ιu y) = b = ι (y − b T X t=1 yt − T X t=1 ybt y. ȳ = b̄ zu (.3) Allgemein gilt die Zerlegungsformel aus Satz (10.2.5) y0y = b y0b b0u y+u b. Im inhomogenen Modell mit den zuvor bewiesenen Aussagen y und u b̄ = 0 ȳ = b̄ folgt 2 b0u y 0 y − ȳ 2 = b y +u b̄ y0b y − b̄ b−u 2 und Anwendung von Folgerung (7.1.6) liefert σ b2 (y) = σ b2 (b y) + σ b2 (b u) . 10.2.7 Definition: Gegeben sei das inhomogene lineare Regressionsmodell y = Xβ + u mit rg XT ×(n+1) = n + 1 und X•0 := ι . Man bezeichnet für σ b2 (y) > 0 σ b2 (b y) R := 2 σ b (y) als empirisches Bestimmtheitsmaß. c °V. Steinmetz: Grundzüge der Statistik 2 –187– 10.2.8 Folgerung: Gegeben sei das inhomogene Modell aus Definition (10.2.7). Dann gilt für σ b2 (y) > 0 σ b2 (b u) (.1) R = 1 − 2 σ b (y) 2 (.2) 0 ≤ R2 ≤ 1 Beweis: zu (.1) Wegen X•0 = ι gilt die Streuungszerlegungsformel (10.2.6.3) und man erhält mit der Definition von R2 σ b2 (b y) σ b2 (y) − σ b2 (b u) R = 2 = σ b (y) σ b2 (y) 2 =1− zu (.2) Aus 0 < σ b2 (y) und 0 ≤ σ b2 (b y ) folgt 0≤ aus σ b2 (b u) 2 σ b (y) σ b(b y) = R2 , σ b2 (y) 0≤σ b2 (b u) folgt und σ b2 (b u) 0≤ 2 σ b (y) R2 = 1 − c °V. Steinmetz: Grundzüge der Statistik σ b2 (b u) ≤1. σ b2 (y) –188– 10.3 Stochastische Eigenschaften der KQ-Schätzer 10.3.1 Satz: Gegeben sei das lineare Regressionsmodell y = Xβ + u mit rg XT ×(n+1) = n + 1 und Eu = 0 . Dann ist b = (X 0 X)−1 X 0 y β ein erwartungstreuer Schätzer für β, d.h. es gilt Beweis: b = β für alle β ∈ Rn+1 . Eβ b = E(X 0 X)−1 X 0 y Eβ = (X 0 X)−1 X 0 Ey = (X 0 X)−1 X 0 Xβ (nach Satz (10.1.3)) = β. 10.3.2 Definition: Es sei ∆E eine Menge von erwartungstreuen Schätzern für einen Parameter ϑ := (ϑ1 , ..., ϑr )0 ∈ Rr . Ein Schätzer δ ∗ = (δ1∗ , ..., δr∗ )0 ∈ ∆E heißt bester erwartungstreuer Schätzer für ϑ in ∆E , wenn für jeden anderen erwartungstreuen Schätzer δ := (δ1 , ..., δr )0 ∈ ∆E für ϑ gilt Var δ1∗ ≤ Var δ1 , ..., Var δr∗ ≤ Var δr . c °V. Steinmetz: Grundzüge der Statistik –189– 10.3.3 Satz (Gauß-Markov): Gegeben sei das lineare Regressionsmodell y = Xβ + u mit Dann ist der KQ-Schätzer Σu u0 = σ 2 I . Eu = 0 rg XT ×(n+1) = n + 1 b = (X 0 X)−1 X 0 y β bester in y linearer 30 erwartungstreuer Schätzer für β (engl. Abkürzung BLUE für best linear unbiased estimator). Zum Beweis siehe Vorlesung Ökonometrie I oder Lehrbücher der Ökonometrie. 10.3.4 Satz: Gegeben sei das lineare Regressionsmodell y = Xβ + u mit rg XT ×(n+1) = n + 1 Dann ist mit Eu = 0 Σu u0 = σ 2 I (σ 2 > 0). b b = (X 0 X)−1 X 0 y und u b = y − Xβ β σ b2 := 1 u b0u b T −n−1 ein erwartungstreuer Schätzer für σ 2 . Zum Beweis siehe Vorlesung Ökonometrie I oder Lehrbücher der Ökonometrie. 30 b b = Dy mit geeigneter Matrix D darstellen läßt. β heißt linear in y, wenn es sich als β c °V. Steinmetz: Grundzüge der Statistik –190– 10.4 Schätzungen und Tests unter Normalverteilungsannahmen 10.4.1 Satz: Gegeben sei das lineare Regressionsmodell y = Xβ + u mit rg XT ×(n+1) = n + 1, die ut (t = 1, ..., T ) seien identisch N (0, σ 2 )-verteilt und stochastisch unabhängig. Dann ist der KQ-Schätzer b = (X 0 X)−1 X 0 y β b = β und (n + 1)-dimensional normalverteilt mit dem Erwartungswertvektor E β 2 0 −1 der Varianz-Kovarianz-Matrix Σβb βb0 = σ (X X) . u b0u b Weiterhin ist 2 χ2T −n−1 -verteilt. σ Zum Beweis siehe Vorlesung Ökonometrie I. 10.4.2 Satz: Gegeben seien das lineare Regressionsmodell y = Xβ + u und dieselben Voraussetzungen wie in Satz (10.4.1). Mit 1 u b0u σ b2 := b T −n−1 werde der Schätzer b b b0 = σ Σ b2 (X 0 X)−1 = ββ b u b0u (X 0 X)−1 T −n−1 für die Varianz-Kovarianz-Matrix Σβb βb0 gebildet, der die Schätzer σ b2 (βbk ) (k = 0, 1, ..., n) für die Varianz von βbk auf der Hauptdiagonalen enthält. Dann ist βbk − βk q tT −n−1 -verteilt. 2 b + σ b ( βk ) c °V. Steinmetz: Grundzüge der Statistik –191– 10.4.3 Tests für die Regressionskoeffizienten im linearen Regressionsmodell unter Normalverteilungsannahmen: Gegeben: Modell y = Xβ +u mit rg XT ×(n+1) = n+1, ut (t = 1, ..., T ) N (0, σ 2 )-verteilt und stochastisch unabhängig mit σ 2 > 0, Signifikanzniveau α ∈]0, 1[, Beobachtung y bei gegebenem X; βk∗ ∈ R (k = 0, 1, ..., n) Fall 0 Fall I Fall II (<) (>) βk > βk∗ βk < βk∗ H0 : βk = βk∗ βk = βk∗ βk = βk∗ H1 : βk 6= βk∗ Berechne: Aus der tT −n−1 Tabelle Schwellenwerte λ1− α2 : P {tT −n−1 ≤ λ1− α2 } = 1 − α 2 λ1−α : P {tT −n−1 ≤ λ1−α } = 1 − α b = (X 0 X)−1 X 0 y βbk aus β Testgröße: b b b0 = σ b(βbk ) aus Σ ββ βbk − βk∗ q t0 := σ b2 (βbk ) Fall 0 Entscheide: b u b0 u (X 0 X)−1 T −n−1 Fall I Fall II H0 annehmen: |t0 | ≤ λ1− α2 t0 ≤ λ1−α t0 ≥ −λ1−α H1 annehmen: t0 > λ1−α t0 < −λ1−α |t0 | > λ1− α2 10.4.4 Folgerung: Gegeben seien die Voraussetzungen und Bezeichnungen aus Test (10.4.3). Dann ist durch · ¸ q q βbk − λ1− α σ b2 (βbk ) ; βbk + λ1− α σ b2 (βbk ) 2 2 ein zweiseitiges Konfidenzintervall für βk zur Sicherheitswahrscheinlichkeit 1 − α gegeben. Beweis: Der Beweis folgt sofort durch Anwendung von Satz (8.10.4) analog zum Beweis von Folgerung (8.10.5). c °V. Steinmetz: Grundzüge der Statistik –192– 10.5 Autokorrelation in den Störvariablen 10.5.1 Definition: Es seien εt mit t ∈ Z reellwertige Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P ) und es gelte 2 σε > 0 : t = t 0 . Eεt = 0 Eεt εt0 = 0 0 : t 6= t Man bezeichnet die Folge (εt )t∈Z von Zufallsvariablen als Weißes Rauschen (white noise). 10.5.2 Definition: Es seien (εt )t∈Z ein weißes Rauschen, ρ ∈ R eine feste Zahl und ut für t ∈ Z Zufallsvariablen mit ut = ρut−1 + εt für t ∈ Z. Man bezeichnet die Folge (ut )t∈Z als autoregressiven (stochastischen) Prozeß erster Ordnung (first order autoregressive stochastic process). 10.5.3 Test (Durbin-Watson): Gegeben: Modell y = Xβ + u mit rg XT ×(n+1) = n + 1, X•0 = ι, u ∼ N (0, V ) mit 1 ρ ρ 1 . .. σε2 ρ2 V = ... 1 − ρ2 ... T −2 ρ ρT −1 ρT −2 ρ2 · · · ρT −2 ρT −1 ... ... ρT −2 .. ... ... ... . ... ... ... ρ2 ... ... ... ρ · · · ρ2 ρ 1 σε2 > 0 , α ∈]0, 1[ , Beobachtung y (bei gegebenem X). Hypothesen: Fall 0 Fall I Fall II H0 : ρ = 0 ρ = 0 ρ=0 H1 : ρ 6= 0 ρ > 0 ρ<0 c °V. Steinmetz: Grundzüge der Statistik , –193– Berechne: Aus Durbin-Watson-Tabelle du (α) < do (α), du ³α´ 2 < do ³α´ 2 b = (X 0 X)−1 X 0 y, u β b = y − X βb d= T P t=2 (b ut − u bt−1 )2 T P t=1 Entscheide: Fall 0 H0 annehmen: u b2t do ( α2 ) < d < 4 − do ( α2 ) Fall I Fall II d > do (α) d < 4 − do (α) H1 annehmen: d < du ( α2 ) ∨ d > 4 − du ( α2 ) d < du (α) d > 4 − du (α) Keine Entscheidung in den übrigen Fällen. c °V. Steinmetz: Grundzüge der Statistik –194– A Grundbegriffe der Mengenlehre Ausführliche Darstellungen mit Beweisen findet man z.B. bei Wetzel, W. u.a.: Mathematische Propädeutik für Wirtschaftswissenschaftler, 1975 Körth, H. u.a.: Lehrbuch der Mathematik für Wirtschaftswiss., 1972 A.1 Mengen und Teilmengen A.1.1 Vereinbarung: Unter einer Menge versteht man eine Zusammenfassung von bestimmten, wohlunterschiedenen Objekten. Die zu einer Menge zusammengefaßten Objekte nennt man die Elemente der Menge. Ist ein Objekt x Element einer M , so schreibt man x∈M oder M 3 x. Ist ein Objekt x nicht Element einer Menge M , so schreibt man x∈ /M oder M 63 x A.1.2 Bemerkung: Man kürzt die Aussage “für alle x ∈ M gilt die Eigenschaft E(x) “ durch folgende Schreibweise ab (∀x ∈ M )(E(x)). Das Symbol ∀ heißt Allquantor. (Man verwendet auch das Zeichen ∧). A.1.3 Definition: Zwei Mengen M und N heißen dann und nur dann gleich, wenn für alle x ∈ M gilt x ∈ N und umgekehrt für alle x ∈ N gilt x ∈ M , in abgekürzter Schreibweise M = N ⇐⇒ (∀x ∈ M )(x ∈ N ) ∧ (∀x ∈ N )(x ∈ M ) A.1.4 Bemerkung: Man kürzt die Aussage “es gibt (mindestens) ein x ∈ M mit der Eigenschaft E(x) “ folgendermaßen ab (∃x ∈ M )(E(x)). Das Symbol ∃ heißt Existenzquantor. (Man verwendet auch das Zeichen ∨. Für “es gibt genau ein x ∈ M mit der Eigenschaft E(x)“ schreibt man kürzer (∃!x ∈ M )(E(x)) c °V. Steinmetz: Grundzüge der Statistik oder (∃˙ x ∈ M )(E(x)) –195– und für ”es gibt kein x ∈ M mit der Eigenschaft E(x)” schreibt man (6 ∃ x ∈ M )(E(x)) A.1.5 Folgerung: Zwei Mengen M und N sind ungleich, wenn es ein x ∈ M gibt, das nicht zu N gehört oder wenn es ein x ∈ N gibt, das nicht zu M gehört, d.h. M 6= N ⇐⇒ (∃x ∈ M )(x ∈ / N ) ∨ (∃x ∈ N )(x ∈ / M) A.1.6 Bezeichnung: Obwohl eine Mengenbildung im Sinne der Vereinbarung (A.1.1) nur dann vorliegt, wenn man bestimmte, wohldefinierte Objekte zusammenfaßt, spricht man auch in solchen Fällen von Mengen, in denen die geforderten charakteristischen Eigenschaften von keinem Objekt erfüllt werden. Man sagt dann, diese Mengen seien leer und betrachtet sie in Übereinstimmung mit Folgerung (A.1.5) als gleich. Man spricht deshalb von der leeren Menge (auch Nullmenge) und bezeichnet sie mit dem Symbol ∅. A.1.7 Definition: A und B seien Mengen. Man sagt, A sei Teilmenge von B, A sei in B enthalten, B sei Obermenge von A, B enthalte A, in Zeichen A ⊆ B oder B ⊇ A, d.u.n.d., wenn jedes Element von A auch Element von B ist. Also: A ⊆ B ⇐⇒ (∀x ∈ A)(x ∈ B) A.1.8 Bemerkung: Gilt A ⊆ B ∧ A 6= B, so schreibt man auch A ⊂ B (oder ausführlicher A$B) und sagt, A sei echte Teilmenge von B, B sei echte Obermenge von A. 31 A.1.9 Satz: Für jede Menge A gilt: ∅ ⊆ A. A.1.10 Satz: A, B, D seien Mengen. Dann gilt 31 (.1) A ⊆ A Reflexivität (.2) A ⊆ B ∧ B ⊆ D ⇒ A ⊆ D Transitivität (.3) A ⊆ B ∧ B ⊆ A ⇐⇒ A = B Identität In der Literatur wird oft A ⊂ B im Sinne von A ⊆ B verwendet. c °V. Steinmetz: Grundzüge der Statistik –196– d.h. die Enthaltenseinbeziehung ist eine Ordnungsrelation. A.1.11 Definition: Die Menge aller Teilmengen einer Menge A nennt man die Potenzmenge von A und schreibt P(A), d.h. P(A) := {X | X ⊆ A}. A.1.12 Satz: Besteht eine endliche Menge (siehe Def. (1.2.3) aus n Elementen (n ∈ {0, 1, 2, ..., }), so enthält ihre Potenzmenge 2n Elemente. A.1.13 Vereinbarung: Für die gebräuchlichsten Zahlenmengen seien folgende Bezeichnungen gewählt: N = {1, 2, 3, ...} Menge der natürlichen Zahlen N0 = {0, 1, 2, 3, ...} Z = {..., −2, −1, 0, 1, 2, ...} Menge der ganzen Zahlen Q = P = { pq | p ∈ Z, q ∈ N} Menge der rationalen Zahlen R Menge der reellen Zahlen R+ Menge der nicht negativen reellen Zahlen R++ Menge der positiven reellen Zahlen Es seien a, b ∈ R. ]a, b[= {x ∈ R | a < x < b} offenes Intervall von a bis b [a, b] = {x ∈ R | a ≤ x ≤ b} abgeschlossenes Intervall von a bis b ]a, b] = {x ∈ R | a < x ≤ b} (links)halboffenes Intervall von a bis b [a, b[= {x ∈ R | a ≤ x < b} (rechts)halboffenes Intervall von a bis b c °V. Steinmetz: Grundzüge der Statistik –197– Als Intervalle bezeichnet man auch die folgenden Mengen ] − ∞, b[= {x ∈ R | x < b} ] − ∞, b] = {x ∈ R | x ≤ b} ]a, ∞[= {x ∈ R | a < x} [a, ∞[= {x ∈ R | a ≤ x} c °V. Steinmetz: Grundzüge der Statistik –198– A.2 Mengenoperationen A.2.1 Definition: Als Durchschnitt A ∩ B zweier Mengen A und B bezeichnet man die Menge A ∩ B := {x | x ∈ A ∧ x ∈ B}. A.2.2 Definition: Gilt für zwei Mengen A und B A ∩ B = ∅, so heißen A und B punktfremd, elementfremd oder disjunkt. A.2.3 Definition: Als Vereinigung A ∪ B zweier Mengen A und B bezeichnet man die Menge A ∪ B := {x | x ∈ A ∨ x ∈ B} A.2.4 Definition: Als Differenz B \ A (oder B − A) zweier Mengen A und B bezeichnet man die Menge B \ A := {x | x ∈ B ∧ x ∈ / A}. A.2.5 Definition: Es seien A und Ω zwei Mengen mit A ⊆ Ω. Als Komplement CΩ A von A bzgl. Ω bezeichnet man die Menge CΩ A := {x | x ∈ Ω ∧ x ∈ / A} = Ω \ A. A.2.6 Bemerkung: Wichtig bei der Komplementbildung ist, bzgl. welcher Obermenge Ω das Komplement gebildet werden soll. Sind keine Mißverständnisse möglich, dann braucht die Obermenge als Index nicht angegeben zu werden: CΩ A = CA = Ac . Deshalb ist es angebracht, alle augenblicklich betrachteten Mengen als Teilmenge einer gemeinsamen Obermenge, einer sog. Universalmenge oder Allmenge aufzufassen, bzgl. der dann die Komplemente gebildet werden. (Beispielsweise wird man R als Universalmenge festlegen, wenn man mit eindimensionalen Intervallen operiert.) c °V. Steinmetz: Grundzüge der Statistik –199– A.2.7 Definition: Unter der symmetrischen Differenz A 4 B zweier Mengen A und B versteht man die Menge A 4 B := {x | (x ∈ A ∧ x ∈ / B) ∨ (x ∈ B ∧ x ∈ / A)}. A.2.8 Satz: Es seien A und B Mengen. Dann gilt: A 4 B = (A \ B) ∪ (B \ A) = (A ∪ B) \ (A ∩ B) = B 4 A A.2.9 Satz: A, B, D seien Teilmengen einer Universalmenge Ω. Dann gilt: (.1) A∪∅=A A∩∅=∅ Identität A∪Ω=Ω A∩Ω=A (.2) A∪A=A A∩A=A Idempotenz (.3) C(A ∪ B) = CA ∩ CB , C(A ∩ B) = CA ∪ CB De Morgansche Gesetze CΩ = ∅ C∅ = Ω C(CA) = A A ∪ CA = Ω A ∩ CA = ∅ (.4) A∪B =B∪A A∩B =B∩A Kommutativität (.5) A ∪ (B ∪ D) = (A ∪ B) ∪ D Assoziativität A ∩ (B ∩ D) = (A ∩ B) ∩ D Man kann also die Klammern auch weglassen und schreiben A ∪ B ∪ D bzw. A ∩ B ∩ D (.6) A ∪ (B ∩ D) = (A ∪ B) ∩ (A ∪ D) A ∩ (B ∪ D) = (A ∩ B) ∪ (A ∩ D) c °V. Steinmetz: Grundzüge der Statistik Distributivität –200– (.7) A ∪ (A ∩ B) = A B ∪ (A ∩ B) = B A ∩ (A ∪ B) = A B ∩ (A ∪ B) = B (.8) A⊆A∪B A∩B ⊆A B ⊆A∪B A∩B ⊆B A ⊆ B ⇔ A ∪ B = B ⇔ A ∩ B = A ⇔ CB ⊆ CA c °V. Steinmetz: Grundzüge der Statistik Adjunktivität –201– A.3 Produktmengen A.3.1 Definition: Es seien A und B zwei nicht leere Mengen und a ∈ A, b ∈ B. Unter dem geordneten Paar mit der ersten Koordinate a und der zweiten Koordinate b versteht man das Symbol (a, b). Ist weiter a0 ∈ A und b0 ∈ B, so soll gelten: (a, b) = (a0 , b0 ) ⇔ a = a0 ∧ b = b0 . Die Menge A × B := {(a, b) | a ∈ A ∧ b ∈ B} bezeichnet man als das kartesische Produkt von A und B. Ist A = ∅ oder B = ∅, so sei zusätzlich vereinbart A × B = ∅. A.3.2 Definition: Es seien A1 , ..., An n nicht leere Mengen mit a1 ∈ A1 , a2 ∈ A2 , ..., an ∈ An . Unter einem n-Tupel mit der ersten Koordinate a1 , der zweiten Koordinate a2 , ..., der n-ten Koordinate an versteht man das Symbol (a1 , ..., an ). Sind ferner a01 ∈ A1 , ..., a0n ∈ An weitere Elemente, dann soll gelten (a1 , ..., an ) = (a01 , ..., a0n ) ⇔ (∀i ∈ {1, ..., n})(ai = a0i ). Die Menge A1 × A2 × ... × An = {(a1 , ..., an ) | (∀i ∈ {1, ..., n})(ai ∈ Ai )} heißt das kartesische Produkt der Mengen A1 , ..., An . Man schreibt auch n Ai . A1 × A2 × ... × An = i=1 Gilt A1 = A2 = ... = An = A, so benutzt man auch die Schreibweise A1 × A2 × ... × An = An . Ist mindestens eine der Mengen A1 , ..., An leer, so sei zusätzlich vereinbart n i=1 c °V. Steinmetz: Grundzüge der Statistik Ai = ∅. –202– B Hilfsmittel aus der Matrizenrechnung Einführende Darstellungen findet man in vielen Mathematikbüchern für Wirtschaftswissenchaftler, z.B.: Horst, R.: Mathematik für Ökonomen: Lineare Algebra, München, Wien 1989 Opitz, O.: Mathematik, Lehrbuch für Ökonomen, München, Wien 1990 B.1 Matrizen und Vektoren B.1.1 Definition: Unter einer (m × n)−Matrix A mit den Elementen aij , i = 1, ..., m, j = 1, ..., n versteht man ein Schema a11 . . . a1n .. =: (a ) ... A := ... ij i=1,...,m =: A(m×n), . j=1,...,n am1 · · · amn m heißt Anzahl der Zeilen, n Anzahl der Spalten von A (oft werden statt der eckigen Klammern runde benutzt). Eine (m × 1)−Matrix a heißt ein mdimensionaler (Spalten-)Vektor a1 a := ... . am Eine (1 × n)−Matrix a0 heißt ein n-dimensionaler Zeilenvektor, a0 = (a1 , ..., an ). Sei r = min{m, n}. Die Elemente a11 , a22 , ..., arr der Matrix A = (aij ) heißen Hauptdiagonalelemente; der Vektor (a11 , ..., arr )0 heißt die Hauptdiagonale von A. Ist m = n, so heißt die Matrix A quadratisch. Bemerkung: Die Elemente der im folgenden betrachteten Matrizen seien reelle Zahlen. Die Definitionen und Sätze gelten im wesentlichen aber auch für Matrizen mit anderen Elementen, z.B. komplexen Zahlen, reellen Zufallsvariablen, soweit eine Gleichheitsrelation, Nullelement, Einselement, Addition, Multiplikation usw. mit den entsprechenden Eigenschaften definiert sind. B.1.2 Definition: Seien A = (aij ) i=1,...,m, B = (bij ) i=1,...,m0 zwei Matrizen. j=1,...,n j=1,...,n0 Man definiert A := B ⇔ (m = m0 ) ∧ (n = n0 ) ∧ (∀i ∈ {1, ..., m}, ∀j ∈ {1, ..., n})(aij = bij ). c °V. Steinmetz: Grundzüge der Statistik –203– B.1.3 Definition: Sei A = (aij ) i=1,...,m, eine (m × n)− Matrix. Dann heißt die (n × m)−Matrix j=1,...,n A0 := (a0ij ) i=1,...,n mit a0ij := aji Transponierte zu A. j=1,...,m (andere Schreibweise: AT ) Eine quadratische Matrix A heißt symmetrisch, wenn aij = aji (∀i, j = 1, ..., n). B.1.4 Folgerung: Stets gilt (.1) (A0 )0 = A (.2) A symmetrisch ⇔ A = A0 . B.1.5 Definition (Typen von Matrizen): (n × n)-Einheitsmatrix 1 0 ··· 0 0 1 · · · 0 n I = .. . . . .. . . 0 0 ··· 1 | {z } n (m × n)-Einsmatrix 1 ··· 1 .. . .. m E= . 1 ··· 1 {z } | n obere (n × n)-Dreiecksmatrix a11 · · · · · · a1n .. ... . 0 A= . . .. .. ... .. . 0 · · · 0 ann c °V. Steinmetz: Grundzüge der Statistik (n × n)-Diagonalmatrix d1 0 · · · 0 0 d2 · · · 0 D = .. .. . . . . . 0 0 · · · dn (m × n)-Nullmatrix 0 ··· 0 .. . .. m O= . 0 ··· 0 | {z } n untere (n × n)-Dreiecksmatrix b11 0 · · · 0 .. .. . . . . . . . . B= . ... .. 0 bn1 · · · · · · bnn –204– ej = j-ter Einheitsvektor 0 .. . 0 1 ← j-te Komp. (von oben) 0 .. . 0 Einsvektor Nullvektor ι= 1. .. .. .. .. .. .. .. .. . 1 0= 0. .. .. .. .. .. .. .. .. . 0 B.1.6 Definition: Es sei Man schreibt a1j A·j := ... amj a11 · · · a1n .. ... A = ... . am1 · · · amn j ∈ {1, . . . , n} für den j-ten Spaltenvektor von A. A0i· := (ai1 , . . . , ain ) i ∈ {1, . . . , m} für den i-ten Zeilenvektor von A. B.1.7 Folgerung: Verzichtet man auf innere Klammern und Kommata, so kann man schreiben: A01· A = (A·1 . . . A·n ) = ... A0m· c °V. Steinmetz: Grundzüge der Statistik –205– B.2 Verknüpfungen von Matrizen B.2.1 Definition: Seien A = (aij ), B = (bij ) (m × n)−Matrizen und α ∈ R. Die Summe der Matrizen A und B wird definiert durch A + B := F = (fij )m×n mit fij := aij bij ∀i = 1, ..., m, j = 1, ..., n, die skalare Multiplikation von A mit α wird definiert durch αA := G = (gij )m×n =: Aα mit gij := α · aij ∀i = 1, ..., m, j = 1, ..., n. Man setzt (−1)A =: −A. B.2.2 Satz: Seien A, B, C (m × n)−Matrizen und α, β ∈ R. Dann gilt (.1) A + B = B + A (.2) (A + B) + C = A + (B + C) (.3) A + O = O + A = A (.4) (A + B)0 = A0 + B 0 (.5) αA (.6) (α + β)A = αA + βA = Aα (.7) α(βA) = (αβ)A = β(αA) (.8) (αA)0 = αA0 B.2.3 Definition: Seien A = (aij ) eine (m × n)-Matrix und B = (bij ) eine (n × r)-Matrix. Dann heißt die (m × r)-Matrix n X AB := G = (gij ) i=1,...,m mit gij := aik bkj ∀i, j j=1,...,r k=1 das Produkt von A und B. B.2.4 Satz: Unter der Annahme, daß die Zeilen- und Spaltenanzahlen die jeweiligen Verknüpfungen erlauben, gilt: (.1) (AB)C = A(BC) (.2) (A + B) · C = AC + B · C (.3) A(B + C) = AB + AC (.4) α(AB) = (αA)B = A(αB) (.5) IA = A; AI = A (.6) OA = O; AO = O (.7) (AB)0 = B 0 A0 (.8) AA0 und A0 A sind symmetrisch . Bemerkung: Ist mit AB auch BA definiert, dann gilt i.a. aber AB 6= BA. c °V. Steinmetz: Grundzüge der Statistik –206– B.2.5 Folgerung: (.1) Seien A = a0 = (a1 , . . . , an ) ein n−dimensionaler Zeilenvektor und b1 .. B = b = . ein n-dimensionaler Spaltenvektor, dann gilt: bn 0 ab= n X ai b i . i=1 v1 .. (.2) Seien V = v = . ein m-dimensionaler Spaltenvektor und vm W = w0 = (w1 , ..., wn ) ein n-dimensionaler Zeilenvektor, dann ist v1 · w 1 . . . v 1 · w n .. .. ... v · w0 = eine (m × n) − Matrix. . . vm · w 1 . . . v m · w n c °V. Steinmetz: Grundzüge der Statistik –207– B.3 Lineare Unabhängigkeit B.3.1 Definition: Es seien a, a1 , . . . , an ∈ Rm . a heißt Linearkombination von a1 , . . . , an :⇔ (∃α1 , . . . , αn ∈ R)(a = α1 a1 + . . . + αn an ). a1 , . . . , an heißen linear unabhängig :⇔ (∀α1 , . . . , αn ∈ R)(0 = α1 a1 + . . . + αn an ⇒ α1 = . . . = αn = 0). Andernfalls heißen sie linear abhängig. B.3.2 Satz: Es seien a1 , . . . , an ∈ Rm . Für n ≥ m+1 sind die Vektoren stets linear abhängig. a1 , . . . , am seien linear unabhängig. Dann läßt sich jeder Vektor a ∈ Rm als Linearkombination der ai darstellen. B.3.3 Definition: Eine Menge von m linear unabhängigen Vektoren des Rm heißt Basis des Rm . Jede Menge von Vektoren des Rm , die m linear unabhängige Vektoren enthält, heißt ein Erzeugendensystem von Rm . c °V. Steinmetz: Grundzüge der Statistik –208– B.4 Rang einer Matrix B.4.1 Definition: Sei A = (aij )m×n . Die Maximalzahl linear unabhängiger Spaltenvektoren von A heißt Rang der Matrix A, Bezeichnung: rg A. B.4.2 Definition: Sei A eine n × n-Matrix. A heißt regulär :⇔ rg A = n. B.4.3 Satz: Sei A = (aij )m×n und B = (bjk )n×r . Dann gilt (.1) rg A = rg A0 (.2) rg A ≤ min{m, n} (.3) rg AB ≤ min{rg A, rg B} (.4) rg A0 A = rg A (.5) rg O = 0 (.6) rg In×n = n (.7) A regulär ⇒ rg AB = rg B c °V. Steinmetz: Grundzüge der Statistik –209– B.5 Determinante einer Matrix B.5.1 Definition: Es sei A eine (n × n)−Matrix und Aij mit i, j ∈ {1, . . . , n} sei die (n − 1) × (n − 1)−Matrix, die aus A durch Streichen der i-ten Zeile und j-ten Spalte entsteht. Als Determinante der Matrix A bezeichnet man die reelle Zahl det A mit det A = a11 für n = 1, det A = n P (−1)i+j aij det Aij j=1 für n ≥ 2 und beliebiges, festes i ∈ {1, . . . , n}. B.5.2 Satz: Seien A, B (n × n)-Matrizen. Dann gilt (.1) det(A0 ) = det A (.2) det(αAn×n ) = αn det A (.3) vertauscht man zwei Zeilen (bzw. Spalten) von A, so ändert sich nur das Vorzeichen der Determinante, nicht aber der Betrag. (.4) d11 . . . .. ... det . 0 ... d1n .. = det . dnn (.5) det A 6= 0 ⇔ A regulär (.6) det(AB) = det A · det B c °V. Steinmetz: Grundzüge der Statistik d11 .. . dn1 0 n Q . . . .. dii = . i=1 . . . dnn –210– B.6 Inverse einer Matrix B.6.1 Definition: Eine (n × n)−Matrix A heißt invertierbar, wenn es eine (n × n)−Matrix A −1 gibt mit A · A−1 = I. A−1 heißt Inverse zu A. B.6.2 Satz: Sei A−1 Inverse zu A. Dann gilt auch A−1 A = I und A−1 ist eindeutig bestimmt. B.6.3 Satz: Sei A reguläre (n × n)-Matrix. Dann ist die (n × n)-Matrix B mit bij = (−1)i+j det Aji Inverse zu A. det A B.6.4 Satz: Sei A (n × n)-Matrix. Dann gilt: A invertierbar ⇔ A regulär. B.6.5 Satz: Falls die Zeilen- und Spaltenanzahlen die Verknüpfungen erlauben und die Inversen jeweils existieren, gilt: (.1) (AB)−1 = B −1 A−1 (.2) (A−1 )−1 = A (.3) (A−1 )0 = (A0 )−1 (.4) I −1 = I (.5) (αA)−1 = α1 A−1 (.6) A symmetrisch ⇔ A−1 symmetrisch (.7) D = d1 0 0 ... dn ⇒ (.8) det(A−1 ) = (det A)−1 . D−1 = c °V. Steinmetz: Grundzüge der Statistik 1/d1 0 0 ... 1/dn –211– B.7 Unterteilte Matrizen B.7.1 Vereinbarung: Es seien a11 .. . a A = r1 ar+1,1 . .. am1 A11 A12 A21 A22 ··· a1p .. . ··· ··· arp ··· a11 · · · .. = . ar1 · · · ar+1,p .. . amp ··· ar,p+1 · · · ar+1,p+1 · · · .. . am,p+1 ··· a1p .. (r × p)-Matrix, . arp a1,p+1 · · · .. = . ar,p+1 · · · ar+1,1 · · · .. = . am1 · · · a1,p+1 .. . ar+1,p+1 · · · .. = . am,p+1 · · · a1,n .. . arn eine (m × n)-Matrix, ar+1,n .. . amn a1n .. (r × (n − p))-Matrix, . arn ar+1,p .. ((m − r) × p)-Matrix, . amp ar+1,n .. ((m − r) × (n − p))-Matrix. . amn Dann läßt sich A bei Verzicht auf innere Klammern folgendermaßen schreiben: A= · A11 A12 A21 A22 ¸ Die Matrizen A11 , A12 , A21 , A22 bezeichnet man als Teil- oder Blockmatrizen. c °V. Steinmetz: Grundzüge der Statistik –212– B.7.2 Satz: Seien A = · A11 A12 A21 A22 ¸ eine (m × n)-Matrix und B = · B11 B12 B21 B22 ¸ eine (n × q)-Matrix sowie A11 eine (r × p)-, A12 eine (r × (n − p))−, A21 eine ((m − r) × p)−, A22 eine (m − r) × (n − p)−Matrix, B11 eine (p × s)−, B12 eine (p×(q −s))−, B21 eine ((n−p)×s)−, B22 eine (n−p)×(q −s)−Matrix. Dann gilt: .1) 0 A = · .2) AB = A011 A021 A012 A022 " ¸ A11 B11 + A12 B21 A11 B12 + A12 B22 A21 B11 + A22 B21 A21 B12 + A22 B22 # .3) Sind A, A11 quadratisch und sind A und A22 invertierbar, dann gilt mit H := A11 − A12 A−1 22 A21 H −1 −1 A = −1 −A−1 22 A21 H c °V. Steinmetz: Grundzüge der Statistik −H −1 A12 A−1 22 A−1 22 + −1 A−1 A12 A−1 22 A21 H 22 –213– B.8 Spur einer Matrix B.8.1 Definition: Es sei A ein (n × n)-Matrix. Dann heißt tr(A) := sp(A) := n X aii die Spur (trace) von A. i=1 B.8.2 Satz: Bei geeigneten Dimensionen der Matrizen A, B, C und Vektoren a, b gilt: .1) tr(αA + βB) = α tr(A) + β tr(B) mit α, β ∈ R .2) tr(A) = tr(A0 ) .3) tr(AB) = tr(BA), insbesondere tr(a b0 ) = tr(b0 a) = b0 a .4) tr(ABC) = tr(CAB) = tr(BCA) c °V. Steinmetz: Grundzüge der Statistik –214– B.9 Orthogonale Matrizen, idempotente Matrizen B.9.1 Definition: Eine (n × n)-Matrix heißt orthogonal, wenn gilt A0 A = I. B.9.2 Definition: Eine (n × n)-Matrix A heißt idempotent, wenn gilt A = A0 und AA = A. B.9.3 Satz: Es sei A eine orthogonale (n × n)-Matrix. Dann gilt .1) rg A = n .2) A0 = A−1 .3) A0 A = AA0 = I .4) det A = ±1 B.9.4 Satz: Es sei A eine idempotente Matrix mit rg A = r. Dann gibt es eine orthogonale Matrix C mit · ¸ Ir 0 0 C AC = . 0 0 B.9.5 Satz: Es sei A eine idempotente Matrix. Dann gilt: rg A = tr A. c °V. Steinmetz: Grundzüge der Statistik –215– B.10 Def inite Matrizen, quadratische Formen B.10.1 Definition: Es seien A eine (n × n)-Matrix. Dann heißt die Abbildung q : Rn → R mit q(x) = x0 Ax ∀x ∈ Rn quadratische Form. B.10.2 Definition: Sei A eine symmetrische (n × n)-Matrix. Dann heißt A (und auch die zugehörige quadratische Form) positiv definit, wenn gilt (∀x ∈ Rn \ {0}) (x0 Ax > 0) und positiv semidefinit, wenn gilt (∀x ∈ Rn )(x0 Ax ≥ 0) (entsprechend definiert man negativ (semi-)definit). B.10.3 Satz: .1) A positiv definit =⇒ A regulär und A−1 positiv definit. .2) Ist A eine positiv definite (n × n)-Matrix und B eine (m × n)-Matrix, so gilt: BAB 0 positiv definit ⇐⇒ rg B = m. .3) Eine symmetrische Matrix A ist genau dann positiv definit, wenn es eine reguläre Matrix B gibt mit A = B 0 B. (Man kann B als obere Dreiecksmatrix wählen.) .4) Eine symmetrische Matrix A ist genau dann positiv semidefinit, wenn es eine quadratische Matrix B gibt mit A = B 0 B. .5) Sei A positiv semidefinit. Dann gilt: A positiv definit ⇐⇒ A regulär. c °V. Steinmetz: Grundzüge der Statistik –216– B.11 Matrizen von Zufallsvariablen B.11.1 Vereinbarung: In Abweichung von der bisherigen Schreibweise werden im folgenden entsprechend dem Vorgehen in der Ökonometrie Variablen und ihre Realisationen nicht durch Groß- bzw. Kleinschreibung unterschieden. Es muß dem Zusammenhang entnommen werden, ob es sich jeweils um die Darstellung von Variablen oder ihrer Realisationen handelt. Viele Formeln gelten sowohl für die Variablen als auch für ihre Realisierungen. Vorsicht: Trotz dieser Schreibweise bleiben Variablen und ihre Realisationen verschiedene mathematische Objekte! B.11.2 Definition: Eine Matrix Z = (zij ), i = 1, ..., m, j = 1, ..., n, deren Elemente zij die Komponenten einer m · n-dimensionalen Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P ) sind, heißt Zufallsmatrix über (Ω, F, P ). Im Fall n = 1 bzw. m = 1 spricht man von einem Zufallsvektor. B.11.3 Definition: Der Erwartungswert einer (m × n)-Zufallsmatrix Z ist definiert durch: Ez11 · · · Ez1n .. ... EZ := ... . Ezm1 · · · Ezmn B.11.4 Folgerung: Es seien Z1 , Z2 Zufallsmatrizen, A eine reelle Matrix und α ∈ R. Dann gilt, falls die Verknüpfungen möglich sind: (.1) E(αZ1 ) = αEZ1 = (EZ1 )α = E(Z1 α) (.2) E(Z1 + Z2 ) = EZ1 + EZ2 (.3) E(AZ1 ) = AEZ1 , E(Z2 A) = (EZ2 )A (.4) E tr Z1 = tr EZ1 c °V. Steinmetz: Grundzüge der Statistik –217– B.11.5 Definition: Die Varianz-Kovarianz-Matrix eines Zufallsvektors z 0 = (z1 , . . . , zn ) ist definiert durch: Σz z0 := E(z − Ez)(z − Ez)0 z1 − Ez1 .. =E (z1 − Ez1 , . . . , zn − Ezn ) = . zn − Ezn = Var z1 .. . ··· Cov(zn , z1 ) · · · Cov(z1 , zn ) .. . Var zn B.11.6 Satz: Es seien u (m × 1)−, v (n × 1)−Zufallsvektoren, A eine deterministische (n × m)−Matrix, b ein deterministischer(n × 1)−Vektor mit v = Au + b. Dann gilt: (.1) Ev = AEu + b (.2) Σv v0 = AΣu u0 A0 c °V. Steinmetz: Grundzüge der Statistik –218– B.12 Mehrdimensionale Normalverteilung B.12.1 Definition: Es seien µ = (µ1 , . . . , µn )0 ∈ Rn und eine positiv definite Matrix Σ = (σij ) i=1,...,n ∈ Rn×n j=1,...,n gegeben. Eine n-dimensionale Zufallsvariable x = (x1 , ..., xn )0 heißt n-dimensional normalverteilt N (µ, Σ), wenn für sie eine Dichte existiert mit 0 −1 1 − 1 (u − µ) Σ (u − µ) √ fx (u) = √ e 2 ( 2π)n det Σ für alle u = (u1 , ..., un )0 ∈ Rn . B.12.2 Satz: Die n-dimensionale Zufallsvariable x sei N (µ, Σ)−verteilt. Dann gilt für den Erwartungswertvektor x .1) Ex = µ und für die Varianz-Kovarianz-Matrix Σx x0 .2) Σx x0 = Σ. B.12.3 Satz: Die n-dimensionale Zufallsvariable x = (x1 , ..., xn )0 sei normalverteilt. Dann gilt: Die Komponenten xi (i = 1, ..., n) sind dann und nur dann stochastisch unabhängig, wenn sie paarweise unkorreliert sind. B.12.4 Satz: Es seien Am×n ∈ Rm×n mit rg A = m und b ∈ Rm gegeben und x = (x1 , ..., xn )0 eine N (µ, Σ)−verteilte n-dimensionale Zufallsvariable. Dann ist die m-dimensionale Zufallsvariable y = Ax + b N (Aµ + b, AΣA0 )-verteilt. c °V. Steinmetz: Grundzüge der Statistik –219– C Tabellen C.1 Tabelle zur Standardnormalverteilung Φ(z) z 0 Die Tabelle enthält zu vorgegebenem z den Inhalt der in der Skizze schraffierten Fläche Φ(z). z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.0 0.1 0.2 0.3 0.4 0.5000 0.5398 0.5793 0.6179 0.6554 0.5040 0.5438 0.5832 0.6217 0.6591 0.5080 0.5478 0.5871 0.6255 0.6628 0.5120 0.5517 0.5910 0.6293 0.6664 0.5160 0.5557 0.5948 0.6331 0.6700 0.5199 0.5596 0.5987 0.6368 0.6736 0.5239 0.5636 0.6026 0.6406 0.6772 0.5279 0.5675 0.6064 0.6443 0.6808 0.5319 0.5714 0.6103 0.6480 0.6844 0.5359 0.5753 0.6141 0.6517 0.6879 0.5 0.6 0.7 0.8 0.9 0.6915 0.7257 0.7580 0.7881 0.8159 0.6950 0.7291 0.7611 0.7910 0.8186 0.6985 0.7324 0.7642 0.7939 0.8212 0.7019 0.7357 0.7673 0.7967 0.8238 0.7054 0.7389 0.7704 0.7995 0.8264 0.7088 0.7422 0.7734 0.8023 0.8289 0.7123 0.7454 0.7764 0.8051 0.8315 0.7157 0.7486 0.7794 0.8078 0.8340 0.7190 0.7517 0.7823 0.8106 0.8365 0.7224 0.7549 0.7852 0.8133 0.8389 1.0 1.1 1.2 1.3 1.4 0.8413 0.8643 0.8849 0.9032 0.9192 0.8438 0.8665 0.8869 0.9049 0.9207 0.8461 0.8686 0.8888 0.9066 0.9222 0.8485 0.8708 0.8907 0.9082 0.9236 0.8508 0.8729 0.8925 0.9099 0.9251 0.8531 0.8749 0.8944 0.9115 0.9265 0.8554 0.8770 0.8962 0.9131 0.9279 0.8577 0.8790 0.8980 0.9147 0.9292 0.8599 0.8810 0.8997 0.9162 0.9306 0.8621 0.8830 0.9015 0.9177 0.9319 1.5 1.6 1.7 1.8 1.9 0.9332 0.9452 0.9554 0.9641 0.9713 0.9345 0.9463 0.9564 0.9649 0.9719 0.9357 0.9474 0.9573 0.9656 0.9726 0.9370 0.9484 0.9582 0.9664 0.9732 0.9382 0.9495 0.9591 0.9671 0.9738 0.9394 0.9505 0.9599 0.9678 0.9744 0.9406 0.9515 0.9608 0.9686 0.9750 0.9418 0.9525 0.9616 0.9693 0.9756 0.9429 0.9535 0.9625 0.9699 0.9761 0.9441 0.9545 0.9633 0.9706 0.9767 c °V. Steinmetz: Grundzüge der Statistik –220– Φ(z) z 0 Die Tabelle enthält zu vorgegebenem z den Inhalt der in der Skizze schraffierten Fläche Φ(z). z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 2.0 2.1 2.2 2.3 2.4 0.9772 0.9821 0.9861 0.9893 0.9918 0.9778 0.9826 0.9864 0.9896 0.9920 0.9783 0.9830 0.9868 0.9898 0.9922 0.9788 0.9834 0.9871 0.9901 0.9925 0.9793 0.9838 0.9875 0.9904 0.9927 0.9798 0.9842 0.9878 0.9906 0.9929 0.9803 0.9846 0.9881 0.9909 0.9931 0.9808 0.9850 0.9884 0.9911 0.9932 0.9812 0.9854 0.9887 0.9913 0.9934 0.9817 0.9857 0.9890 0.9916 0.9936 2.5 2.6 2.7 2.8 2.9 0.9938 0.9953 0.9965 0.9974 0.9981 0.9940 0.9955 0.9966 0.9975 0.9982 0.9941 0.9956 0.9967 0.9976 0.9982 0.9943 0.9957 0.9968 0.9977 0.9983 0.9945 0.9959 0.9969 0.9977 0.9984 0.9946 0.9960 0.9970 0.9978 0.9984 0.9948 0.9961 0.9971 0.9979 0.9985 0.9949 0.9962 0.9972 0.9979 0.9985 0.9951 0.9963 0.9973 0.998 0.9986 0.9952 0.9964 0.9974 0.9981 0.9986 3.0 3.1 3.2 3.3 3.4 0.9987 0.9990 0.9993 0.9995 0.9997 0.9987 0.9991 0.9993 0.9995 0.9997 0.9987 0.9991 0.9994 0.9995 0.9997 0.9988 0.9991 0.9994 0.9996 0.9997 0.9988 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9995 0.9996 0.9997 0.9990 0.9993 0.9995 0.9996 0.9997 0.9990 0.9993 0.9995 0.9997 0.9998 Quantile λp = Φ−1 (p) der Standardnormalverteilung p 0.9 0.95 0.975 0.99 0.995 0.999 λp 1.28 1.645 1.96 2.33 2.58 3.09 c °V. Steinmetz: Grundzüge der Statistik –221– C.2 Quantile der t-Verteilungen α 0 1−α tα,k Die Tabelle gibt tα,k an in Abhängigkeit von α und der Zahl k der Freiheitsgrade. α 0.85 0.90 0.95 0.975 0.99 0.995 0.9995 1 2 3 4 5 1.963 1.386 1.250 1.190 1.156 3.078 1.886 1.638 1.533 1.476 6.314 2.920 2.353 2.132 2.015 12.706 4.303 3.182 2.776 2.571 31.821 6.965 4.541 3.747 3.365 63.657 9.925 5.841 4.604 4.032 636.619 31.599 12.924 8.610 6.869 6 7 8 9 10 1.134 1.119 1.108 1.100 1.093 1.440 1.415 1.397 1.383 1.372 1.943 1.895 1.860 1.833 1.812 2.447 2.365 2.306 2.262 2.228 3.143 2.998 2.896 2.821 2.764 3.707 3.499 3.355 3.250 3.169 5.959 5.408 5.041 4.781 4.587 11 12 13 14 15 1.088 1.083 1.079 1.076 1.074 1.363 1.356 1.350 1.345 1.341 1.796 1.782 1.771 1.761 1.753 2.201 2.179 2.160 2.145 2.131 2.718 2.681 2.650 2.624 2.602 3.106 3.055 3.012 2.977 2.947 4.437 4.318 4.221 4.140 4.073 16 17 18 19 20 1.071 1.069 1.067 1.066 1.064 1.337 1.333 1.330 1.328 1.325 1.746 1.740 1.734 1.729 1.725 2.120 2.110 2.101 2.093 2.086 2.583 2.567 2.552 2.539 2.528 2.921 2.898 2.878 2.861 2.845 4.015 3.965 3.922 3.883 3.850 21 22 23 24 25 1.063 1.061 1.060 1.059 1.058 1.323 1.321 1.319 1.318 1.316 1.721 1.717 1.714 1.711 1.708 2.080 2.074 2.069 2.064 2.060 2.518 2.508 2.500 2.492 2.485 2.831 2.819 2.807 2.797 2.787 3.819 3.792 3.768 3.745 3.725 26 27 28 29 30 1.058 1.057 1.056 1.055 1.055 1.315 1.314 1.313 1.311 1.310 1.706 1.703 1.701 1.699 1.697 2.056 2.052 2.048 2.045 2.042 2.479 2.473 2.467 2.462 2.457 2.779 2.771 2.763 2.756 2.750 3.707 3.690 3.674 3.659 3.646 40 60 120 1.050 1.045 1.041 1.303 1.296 1.289 1.684 1.671 1.658 2.021 2.000 1.980 2.423 2.390 2.358 2.704 2.660 2.617 3.551 3.460 3.373 n –222– C.3 Quantile der χ2 -Verteilungen α 1−α 0 χ2α,k Die Tabelle gibt χ2α,k an in Abhängigkeit von α und der Zahl k der Freiheitsgrade. α 0.01 0.025 0.05 0.5 0.90 0.95 0.975 0.99 1 2 3 4 5 0.000 0.020 0.115 0.297 0.554 0.001 0.050 0.216 0.484 0.831 0.004 0.103 0.352 0.711 1.146 0.455 1.386 2.366 3.357 4.352 2.706 4.605 6.251 7.779 9.236 3.842 5.992 7.815 9.488 11.070 5.024 7.378 9.348 11.143 12.833 6.635 9.210 11.345 13.277 15.086 6 7 8 9 10 0.872 1.239 1.647 2.088 2.558 1.237 1.690 2.180 2.700 3.247 1.635 2.167 2.733 3.325 3.940 5.348 6.346 7.344 8.343 9.342 10.645 12.017 13.362 14.684 15.987 12.592 14.067 15.507 16.919 18.307 14.449 16.013 17.535 19.023 20.483 16.812 18.475 20.090 21.666 23.209 11 12 13 14 15 3.054 3.571 4.107 4.660 5.229 3.816 4.404 5.009 5.629 6.262 4.575 5.226 5.892 6.571 7.261 10.341 11.340 12.340 13.339 14.339 17.275 18.549 19.812 21.064 22.307 19.675 21.026 22.362 23.685 24.996 21.920 23.337 24.736 26.119 27.488 24.725 26.217 27.688 29.141 30.578 16 17 18 19 20 5.812 6.408 7.015 7.633 8.260 6.908 7.564 8.231 8.907 9.591 7.962 8.672 9.391 10.117 10.851 15.338 16.338 17.338 18.338 19.337 23.542 24.769 25.989 27.204 28.412 26.296 27.587 28.869 30.144 31.410 28.845 30.191 31.526 32.852 34.170 32.000 33.409 34.805 36.191 37.566 21 22 23 24 25 8.897 9.543 10.196 10.856 11.524 10.283 10.982 11.689 12.401 13.120 11.591 12.338 13.091 13.848 14.611 20.337 21.337 22.337 23.337 24.337 29.615 30.813 32.007 33.196 34.382 32.671 33.924 35.172 36.415 37.652 35.479 36.781 38.076 39.364 40.646 38.932 40.289 41.638 42.980 44.314 26 27 28 29 30 12.198 12.879 13.565 14.256 14.953 13.844 14.573 15.308 16.047 16.791 15.379 16.151 16.928 17.708 18.493 25.336 26.336 27.336 28.336 29.336 35.563 36.741 37.916 39.087 40.256 38.885 40.113 41.337 42.557 43.773 41.923 43.195 44.461 45.722 46.979 45.642 46.963 48.278 49.588 50.892 n c °V. Steinmetz: Grundzüge der Statistik –223– C.4 Tabelle zur Poissonverteilung Qλ (x) = x X λi i=0 i! e−λ , x ∈ N0 x λ = 0.1 λ = 0.2 λ = 0.3 λ = 0.4 λ = 0.5 λ = 0.6 λ = 0.7 λ = 0.8 λ = 0.9 λ = 1.0 0 .9048 .8187 .7408 .6703 .6065 .5488 .4966 .4493 .4066 .3679 1 .9953 .9825 .9631 .9384 .9098 .8781 .8442 .8088 .7725 .7358 2 .9998 .9989 .9964 .9921 .9856 .9769 .9659 .9526 .9371 .9197 3 1.0 .9999 .9997 .9992 .9982 .9966 .9942 .9909 .9865 .9810 4 1.0 1.0 1.0 .9999 .9998 .9996 .9992 .9986 .9977 .9963 5 1.0 1.0 1.0 1.0 1.0 1.0 .9999 .9998 .9997 .9994 6 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .9999 7 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 8 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 x λ = 1.5 λ = 2.0 λ = 2.5 λ = 3.0 λ = 3.5 λ = 4.0 λ = 4.5 λ = 5.0 λ = 5.5 λ = 6.0 0 .2231 .1353 .0821 .0498 .0302 .0183 .0111 .0067 .0041 .0025 1 .5578 .406 .2873 .1991 .1359 .0916 .0611 .0404 .0266 .0174 2 .8088 .6767 .5438 .4232 .3208 .2381 .1736 .1247 .0884 .0620 3 .9344 .8571 .7576 .6472 .5366 .4335 .3423 .2650 .2017 .1512 4 .9814 .9473 .8912 .8153 .7254 .6288 .5321 .4405 .3575 .2851 5 .9955 .9834 .958 .9161 .8576 .7851 .7029 .6160 .5289 .4457 6 .9991 .9955 .9858 .9665 .9347 .8893 .8311 .7622 .6860 .6063 7 .9998 .9989 .9958 .9881 .9733 .9489 .9134 .8666 .8095 .7440 8 1.0 .9998 .9989 .9962 .9901 .9786 .9597 .9319 .8944 .8472 9 1.0 1.0 .9997 .9989 .9967 .9919 .9829 .9682 .9462 .9161 10 1.0 1.0 .9999 .9997 .9990 .9972 .9933 .9863 .9747 .9574 11 1.0 1.0 1.0 .9999 .9997 .9991 .9976 .9945 .9890 .9799 12 1.0 1.0 1.0 1.0 .9999 .9997 .9992 .9980 .9955 .9912 13 1.0 1.0 1.0 1.0 1.0 .9999 .9997 .9993 .9983 .9964 14 1.0 1.0 1.0 1.0 1.0 1.0 .9999 .9998 .9994 .9986 15 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .9999 .9998 .9995 16 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .9999 .9998 17 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .9999 18 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 19 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 c °V. Steinmetz: Grundzüge der Statistik –224– C.5 Quantile der F -Verteilungen 0.95 0.05 0 F0.95;m,n Die Tabelle gibt F0.95;m,n an in Abhängigkeit von der Zahl m der Freiheitsgrade des Zählers und der Zahl n der Freiheitsgrade des Nenners. m n 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 161.45 18.51 10.13 7.71 6.61 199.50 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.39 19.40 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.96 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74 6 7 8 9 10 5.99 5.59 5.32 5.12 4.96 5.14 4.74 4.46 4.26 4.10 4.76 4.35 4.07 3.86 3.71 4.53 4.12 3.84 3.63 3.48 4.39 3.97 3.69 3.48 3.33 4.28 3.87 3.58 3.37 3.22 4.21 3.79 3.50 3.29 3.14 4.15 3.73 3.44 3.23 3.07 4.10 3.68 3.39 3.18 3.02 4.06 3.64 3.35 3.14 2.98 11 12 13 14 15 4.84 4.75 4.67 4.60 4.54 3.98 3.89 3.81 3.74 3.68 3.59 3.49 3.41 3.34 3.29 3.36 3.26 3.18 3.11 3.06 3.20 3.11 3.03 2.96 2.90 3.09 3.00 2.92 2.85 2.79 3.01 2.91 2.83 2.76 2.71 2.95 2.85 2.77 2.70 2.64 2.90 2.80 2.71 2.65 2.59 2.85 2.75 2.67 2.60 2.54 16 17 18 19 20 4.49 4.45 4.41 4.38 4.35 3.63 3.59 3.55 3.52 3.49 3.24 3.20 3.16 3.13 3.10 3.01 2.96 2.93 2.90 2.87 2.85 2.81 2.77 2.74 2.71 2.74 2.70 2.66 2.63 2.60 2.66 2.61 2.58 2.54 2.51 2.59 2.55 2.51 2.48 2.45 2.54 2.49 2.46 2.42 2.39 2.49 2.45 2.41 2.38 2.35 21 22 23 24 25 4.32 4.30 4.28 4.26 4.24 3.47 3.44 3.42 3.40 3.39 3.07 3.05 3.03 3.01 2.99 2.84 2.82 2.80 2.78 2.76 2.68 2.66 2.64 2.62 2.60 2.57 2.55 2.53 2.51 2.49 2.49 2.46 2.44 2.42 2.40 2.42 2.40 2.37 2.36 2.34 2.37 2.34 2.32 2.30 2.28 2.32 2.30 2.27 2.25 2.24 30 40 60 120 ∞ 4.17 4.08 4.00 3.92 3.84 3.32 3.23 3.15 3.07 3.00 2.92 2.84 2.76 2.68 2.60 2.69 2.61 2.53 2.45 2.37 2.53 2.45 2.37 2.29 2.21 2.42 2.34 2.25 2.18 2.10 2.33 2.25 2.17 2.09 2.01 2.27 2.18 2.10 2.02 1.94 2.21 2.12 2.04 1.96 1.88 2.16 2.08 1.99 1.91 1.83 –225– 0.95 0.05 0 F0.95;m,n Die Tabelle gibt F0.95;m,n an in Abhängigkeit von der Zahl m der Freiheitsgrade des Zählers und der Zahl n der Freiheitsgrade des Nenners. m n 12 15 20 25 30 35 40 60 120 ∞ 1 2 3 4 5 244.90 19.41 8.74 5.91 4.68 245.95 248.01 249.26 250.1 250.69 251.14 252.2 253.25 254.31 19.43 19.45 19.46 19.46 19.47 19.47 19.48 19.49 19.50 8.70 8.66 8.63 8.62 8.60 8.59 8.57 8.55 8.53 5.86 5.80 5.77 5.75 5.73 5.72 5.69 5.66 5.63 4.62 4.56 4.52 4.50 4.48 4.46 4.43 4.40 4.37 6 7 8 9 10 4.00 3.57 3.28 3.07 2.91 3.94 3.51 3.22 3.01 2.85 3.87 3.44 3.15 2.94 2.77 3.83 3.40 3.11 2.89 2.73 3.81 3.38 3.08 2.86 2.70 3.79 3.36 3.06 2.84 2.68 3.77 3.34 3.04 2.83 2.66 3.74 3.30 3.01 2.79 2.62 3.70 3.27 2.97 2.75 2.58 3.67 3.23 2.93 2.71 2.54 11 12 13 14 15 2.79 2.69 2.60 2.53 2.48 2.72 2.62 2.53 2.46 2.40 2.65 2.54 2.46 2.39 2.33 2.60 2.50 2.41 2.34 2.28 2.57 2.47 2.38 2.31 2.25 2.55 2.44 2.36 2.28 2.22 2.53 2.43 2.34 2.27 2.20 2.49 2.38 2.30 2.22 2.16 2.45 2.34 2.25 2.18 2.11 2.40 2.30 2.21 2.13 2.07 16 17 18 19 20 2.42 2.38 2.34 2.31 2.28 2.35 2.31 2.27 2.23 2.20 2.28 2.23 2.19 2.16 2.12 2.23 2.18 2.14 2.11 2.07 2.19 2.15 2.11 2.07 2.04 2.17 2.12 2.08 2.05 2.01 2.15 2.10 2.06 2.03 1.99 2.11 2.06 2.02 1.98 1.95 2.06 2.01 1.97 1.93 1.90 2.01 1.96 1.92 1.88 1.84 21 22 23 24 25 2.25 2.23 2.20 2.18 2.16 2.18 2.15 2.13 2.11 2.09 2.11 2.07 2.05 2.03 2.01 2.05 2.02 2.00 1.97 1.96 2.01 1.98 1.96 1.94 1.92 1.98 1.96 1.93 1.91 1.89 1.96 1.94 1.91 1.89 1.87 1.92 1.89 1.86 1.84 1.82 1.87 1.84 1.81 1.79 1.77 1.81 1.78 1.76 1.73 1.71 30 40 60 120 ∞ 2.09 2.00 1.92 1.83 1.75 2.01 1.92 1.53 1.43 1.67 1.93 1.84 1.50 1.39 1.57 1.88 1.78 1.48 1.37 1.51 1.84 1.74 1.47 1.35 1.46 1.81 1.72 1.46 1.34 1.42 1.79 1.69 1.45 1.33 1.39 1.74 1.64 1.53 1.43 1.32 1.68 1.58 1.47 1.35 1.22 1.62 1.51 1.39 1.25 1.00 –226– C.6 (Pseudo-)Zufallszahlen 03 97 16 12 55 47 74 76 56 59 43 24 62 85 56 73 67 27 99 35 86 62 66 26 64 36 42 56 96 38 96 81 50 96 54 47 14 26 68 82 36 57 71 27 46 61 20 07 31 22 46 42 32 05 31 98 53 90 03 62 63 32 79 72 43 71 37 78 93 09 62 32 53 15 90 33 27 13 57 06 26 07 55 12 18 16 36 38 10 44 80 07 58 14 32 45 51 59 21 53 16 84 63 33 57 22 42 01 21 60 77 17 63 12 86 94 53 78 34 31 39 31 59 29 44 49 57 16 78 09 54 24 95 64 47 43 55 55 56 27 54 06 67 07 96 82 88 19 82 54 17 77 98 52 49 37 04 10 42 17 93 74 50 07 46 23 47 71 44 09 78 67 75 38 62 87 21 12 15 90 35 76 86 51 52 20 33 73 00 84 96 50 58 13 77 43 25 07 42 27 18 26 23 52 37 18 62 42 36 85 07 38 40 28 94 92 97 64 19 35 46 75 74 95 12 44 84 82 50 83 17 16 97 92 39 16 07 77 26 50 58 44 77 11 08 09 99 81 97 30 79 83 07 00 42 83 11 45 56 34 86 46 32 76 07 19 32 14 31 96 62 24 08 38 88 06 20 32 80 54 76 14 98 22 42 50 85 94 02 06 03 88 07 53 87 10 45 72 53 98 70 56 99 16 31 29 62 49 08 16 17 18 57 15 93 12 37 22 04 32 13 35 77 72 43 40 96 88 33 50 33 83 42 27 27 20 50 95 14 89 38 87 45 34 87 26 75 72 09 19 13 97 16 45 20 89 12 64 59 15 51 25 36 34 37 03 93 16 68 00 74 47 00 49 49 17 70 04 12 52 76 33 43 72 85 37 24 18 07 66 13 03 66 34 60 04 54 79 45 44 68 74 27 00 29 34 57 43 39 94 30 25 37 68 98 13 65 86 29 94 70 76 53 61 24 55 59 48 66 68 74 29 55 37 49 30 97 90 32 69 77 68 65 20 10 40 60 72 30 82 44 71 96 77 53 22 91 57 84 75 78 38 69 57 91 84 67 36 03 93 26 54 10 29 30 04 13 96 10 34 33 58 46 45 25 46 18 92 65 20 09 24 42 04 57 52 76 45 26 27 16 11 35 38 31 90 27 24 23 96 82 94 10 16 25 66 75 16 86 91 59 06 20 38 47 83 06 33 42 96 62 09 32 38 44 64 19 51 79 33 11 74 26 01 49 12 66 38 50 13 67 02 79 87 34 19 94 78 75 86 00 37 45 66 82 71 34 04 81 53 74 02 91 41 91 60 76 16 40 00 47 70 92 01 52 21 90 53 74 43 29 30 56 91 48 68 86 16 62 85 c °V. Steinmetz: Grundzüge der Statistik –227– 66 14 68 20 64 67 90 05 46 19 40 84 51 78 58 67 45 18 73 97 14 11 00 90 79 64 75 33 97 15 05 73 96 51 06 71 88 02 40 15 95 05 75 14 93 86 90 19 02 20 11 52 07 04 01 05 27 60 02 90 65 41 62 33 10 09 14 93 31 75 68 86 55 08 06 76 22 59 39 40 83 98 33 54 78 20 12 82 16 78 37 22 43 49 89 90 08 90 36 62 05 07 68 26 14 26 97 71 99 65 93 10 86 61 52 70 88 85 65 68 60 23 85 53 75 22 09 54 58 87 35 98 87 37 59 85 42 66 78 36 15 99 47 80 22 13 64 54 70 41 92 61 73 42 26 03 71 32 10 78 51 62 08 50 63 59 99 11 67 06 77 15 12 42 55 59 06 44 32 13 56 51 95 17 08 78 29 92 55 27 06 16 63 85 01 83 93 16 74 50 17 90 41 60 91 53 26 23 20 25 77 59 52 50 38 58 21 55 81 05 71 19 99 69 90 71 23 31 31 94 41 52 04 99 58 61 23 49 73 28 50 33 69 68 41 72 12 96 68 36 12 96 10 35 45 41 93 47 81 37 94 02 48 33 59 96 18 45 03 03 26 39 88 76 09 44 07 13 24 90 95 02 41 30 35 27 18 43 12 57 36 36 89 48 29 99 07 20 60 12 c °V. Steinmetz: Grundzüge der Statistik –228– C.7 Spielanleitung zum Roulette c °V. Steinmetz: Grundzüge der Statistik –229– Bild Bezeichnung Beschreibung Gewinn STRAIGHT UP Eine volle Zahl 35-facher Einsatz SPLIT Mit zwei verbundenen Zahlen 17-facher Einsatz STREET Querreihe - 3 Zahlen 11-facher Einsatz CORNER Vier Zahlen im Viereck oder vier Zahlen 8-facher Einsatz DOZEN 12 Zahlen (1-12, 13-24, 25-36) 2-facher Einsatz EVEN CHANCES Even, Odd, Black, Red, 1-18, 19-36 1-facher Einsatz SIX LINE Zwei Querreihen 5-facher Einsatz COLUMN Von 12 Zahlen vertikal (1-34, 2-35, 3-36) 2-facher Einsatz c °V. Steinmetz: Grundzüge der Statistik –230– Formelsammlung zu den Diplomprüfungsklausuren Grundzüge der Statistik Teil A und Teil B Die Formelsammlung soll nur Gedächtnisstütze sein, Interpretationsmöglichkeiten und Geltungsbereich der Formeln werden als bekannt vorausgesetzt. ³n´ n! (n)r := ; (n − r)! r := n! (n − r)!r! zu den geordneten Proben (Variationen) ohne Wiederholung Vnr = (n)r zu den geordneten Proben (Variationen) mit Wiederholung w Vnr = nr ³n´ zu den ungeordneten Proben (Kombinationen) ohne Wiederholung Cnr = r µ ¶ n+r−1 w r zu den ungeordneten Proben (Kombinationen) mit Wiederholung Cn = r zum Multiplikationssatz: P (A1 ∩...∩An ) = P (A1 )·P (A2 | A1 )·P (A3 | A1 ∩A2 )·...·P (An | A1 ∩. . .∩An−1 ) zum Satz von der totalen Wahrscheinlichkeit: P (B) = P j P (B | Aj ) · P (Aj ) zum Satz von Bayes: P (B | Ak ) · P (Ak ) P (Ak | B) = P P (B | Aj ) · P (Aj ) j zur Binomialverteilung (B(n, p)): pi = QX {i} = ¡n¢ i pi (1 − p)n−i ; EX = np ; Var X = np(1 − p) zur Hypergeometrischen Verteilung: ¡M ¢ ¡N −M ¢ · pi = QX {i} = i ¡N ¢n−i ; EX = n · n c °V. Steinmetz: Grundzüge der Statistik M ; N Var X = n · M N · (1 − M ) N · N −n N −1 –231– zur Poisson-Verteilung: pi = QX {i} = λi −λ e ; λ > 0; i! EX = λ ; zur Exponentialverteilung: ¾ ½ a · e−ax für x≥0 fX (x) = 0 sonst Var X = λ a > 0; EX = 1 ; a Var X = zur Verteilungsfunktion FX (.) : QX {a} = FX (a) − FX (a − 0) ; QX ]a, b[= FX (b − 0) − FX (a); QX [a, b] = FX (b) − FX (a − 0) ; QX [a, b[= FX (b − 0) − FX (a − 0); QX ] − ∞, b] = FX (b) ; QX ] − ∞, b[= FX (b − 0); QX ]a, ∞[= 1 − FX (a) ; QX [a, ∞[= 1 − FX (a − 0) zur Transformation Y = aX + b : y−b für a > 0 FX ( a ) ; FY (y) = y−b 1 − FX ( a − 0) für a < 0 1 · fX ( y−b fY (y) = ) a |a| zur Ungleichung von Tschebyscheff: P {|X − µ| ≥ ε} ≤ σ2 für alle ε > 0 ε2 zur Konsistenz: lim P {|δn − ϑ| ≥ ε} = 0 für alle ϑ ∈ Θ. n→∞ zur Verteilungsfunktion bei l Klassen: Kj =]kj , kj+1 ]; Klassenbreite: Bj = kj+1 − kj ; Klassenmitte: mj = F ∗ (y) = F ∗ (kj ) + kj + kj+1 ; QK {mj } = QY ]kj , kj+1 ]; 2 QK {mj } Bj · (y − kj ) für kj < y ≤ kj+1 ; c °V. Steinmetz: Grundzüge der Statistik 1 a2 –232– zum Test über µ bei bekanntem σ02 einer N (µ, σ02 )-verteilten Zufallsvariablen: N0 = x̄ − µ0 √ n σ0 zum Test über µ bei unbekanntem σ 2 einer N (µ, σ 2 )-verteilten Zufallsvariablen: t0 = x̄ − µ0 √ · n ; s2 = s 1 n−1 n − 1 Zahl der Freiheitsgrade P (xi − x̄)2 zum exakten Test über p einer alternativ-verteilten Zufallsvariablen: n P b0 = xi i=1 zum Test über p einer alternativ-verteilten Zufallsvariablen bei Normalverteilungsapproximation ohne Stetigkeitskorrektur: P √ p̂ − p0 xi · n , p̂ = b0 = p n p0 (1 − p0 ) approximatives Konfidenzintervall für p : # " p p p̂(1 − p̂) p̂(1 − p̂) √ √ p̂ − λ1− α2 · , p̂ + λ1− α2 · n n zum Chi-Quadrat-Anpassungstest: à ! ◦ 2 r (ν − n p )2 r P P ν k k k χ20 = = −n ◦ ◦ k=1 k=1 n pk n pk zum Test über µ1 , µ2 einer zweidimensional normalverteilten Zufallsvariablen bei verbundenen Stichproben: t0 = z̄ − ϑ √ · n , zi = x1i − x2i , s2 = s n − 1 Zahl der Freiheitsgrade 1 n−1 n P i=1 (zi − z̄)2 zum Test über µ1 , µ2 zweier N (µ1 , σ 2 )- bzw. N (µ2 , σ 2 )-verteilten Zufallsvariablen bei unverbundenen Stichproben: r n1 n2 (n1 + n2 − 2) x̄1 − x̄2 − ϑ · qP n t0 = Pn 2 2 2 (x 1 (x n1 + n 2 2i − x̄2 ) 1i − x̄1 ) + i=1 n1 + n2 − 2 Zahl der Freiheitsgrade c °V. Steinmetz: Grundzüge der Statistik i=1 –233– zum Test über σ 2 einer N (µ, σ 2 )-verteilten Zufallsvariablen: χ20 = Σ(xi − x̄)2 (n − 1) · s2 = ; n − 1 Zahl der Freiheitsgrade σ02 σ02 zum Test über σ12 , σ22 zweier N (µ1 , σ12 )- bzw. N (µ2 , σ22 )-verteilten Zufallsvariablen: 1 P 1 P (x1i − x̄1 )2 ; s2 (x2 ) = (x2i − x̄2 )2 n1 − 1 n2 − 1 s2 (x1 ) 1 F0 = 2 · ; n1 − 1 und n2 − 1 Zahl der Freiheitsgrade s (x2 ) ϑ s2 (x1 ) = zum Wilcoxon-Rangsummentest bei unverbundenen Stichproben: w0 − z0 = q n1 (n+1) 2 ; w0 = n1 n2 (n+1) 12 P R1i (x) ; n = n1 + n2 zum Gini-Koeffizienten G und dem Herfindahl-Index H bei N Einzelwerten: G = uN −1 − 2 = N P i=1 NP −1 j=1 (uj+1 − uj−1 ) · vj = i · a(i) − (N + 1) N· N P a(i) N P N −1 N − 2 N NP −1 vj j=1 a(i) i=1 i=1 bei klassierten Daten: k−1 P (ũj+1 − ũj−1 ) · ṽj G = ũk−1 − j=1 · ¸2 N P ar H= N r=1 P as s=1 zum Spearmanschen Rangkorrelationskoeffizienten: 6 Korrs (U, V ) = 1 − N P r=1 (Rr (a) − Rr (b))2 (N − 1)N (N + 1) c °V. Steinmetz: Grundzüge der Statistik –234– zur mittleren quadratischen Kontingenz und zum Pearsonschen Kontingenzkoeffizienten: P P (hij − hi· · h·j )2 = ; hi· · h·j s s ϕ2U,V min{L, M } ; Ckorr = C · C= 2 1 + ϕU,V min{L, M } − 1 ϕ2U,V zu den Preis-, Mengen- und Wertindizes: P P pt (i)qt0 (i) pt (i)qt (i) L P Pt0 ,t = P ; Pt0 ,t = P pt0 (i)qt0 (i) pt0 (i)qt (i) QLt0 ,t P P P qt (i)pt (i) qt (i)pt (i) qt (i)pt0 (i) P ; Qt0 ,t = P ; Wt0 ,t = P =P qt0 (i)pt0 (i) qt0 (i)pt (i) qt0 (i)pt0 (i) zum multiplen Regressionsmodell y = Xβ + u: X : T × (n + 1) ; rg(X) = n + 1 ; (X 0 X)β̂ = X 0 y ; û0 û 2 σ̂ = T −n−1 σ̂ 2 (ŷ) ŷ 0 ŷ − T ȳ 2 β̂ 0 X 0 y − T ȳ 2 σ̂ 2 (û) = 2 = 0 = R =1− 2 σ̂ (y) σ̂ (y) y y − T ȳ 2 y 0 y − T ȳ 2 2 zum Test über βk = βk∗ : β̂k − βk∗ t0 = q ; T − n − 1 Zahl der Freiheitsgrade 2 σ̂ (β̂k ) zum Durbin-Watson-Test: d= T P t=2 (ût − ût−1 )2 T P û2t t=1 c °V. Steinmetz: Grundzüge der Statistik (X•0 = ι) –235– Index Abbildung . . . . . . . . . . . . . . . . . . . . . . 1 -en eindimensionaler Zufallsvariablen . . . . . . . . . . . . . . . 50 -en von Stichprobenräumen . 34 bijektive - . . . . . . . . . . . . . . . . . . . . 2 identische - . . . . . . . . . . . . . . . . . . . 1 induzierte - . . . . . . . . . . . . . . . . . . . 3 induzierte inverse - . . . . . . . . . . . 4 injektive - . . . . . . . . . . . . . . . . . . . . 2 meßbare - . . . . . . . . . . . . . . . . . . . 34 surjektive - . . . . . . . . . . . . . . . . . . . 2 zusammengesetzte - . . . . . . . . . . 2 Abgangs -einheiten . . . . . . . . . . . . . . . . . . . 90 -zeitpunkt . . . . . . . . . . . . . . . . . . . 92 Abrunden . . . . . . . . . . . . . . . . . . . . . . 93 Absolutglied . . . . . . . . . . . . . . . . . . 179 Abweichung mittlere quadratische - . 73, 103 abzählbar . . . . . . . . . . . . . . . . . . . . . . 10 - unendlich . . . . . . . . . . . . . . . . . . . 9 Adjunktivität . . . . . . . . . . . . . . . . . 200 Algebra σ-Algebra . . . . . . . . . . . . . . . . . . . 19 Allmenge . . . . . . . . . . . . . . . . . . . . . 198 Allquantor . . . . . . . . . . . . . . . . . . . . 194 Alternative . . . . . . . . . . . . . . . . . . . 148 Alternativtest . . . . . . . . . . . . . . . . . 148 Alternativverteilung . . . . . . . . . . . . 43 Annahmebereich . . . . . . . . . . . . . . 148 Anpassungstest . . . . . . . . . . . . . . . 169 Assoziativität . . . . . . . . . . . . . . . . . 200 Aufrunden . . . . . . . . . . . . . . . . . . . . . 94 Autokorrelation . . . . . . . . . . . . . . . 192 Basis . . . . . . . . . . . . . . . . . . . . . . . . . 207 -periode . . . . . . . . . . . . . . . . . . . . 127 -zeitpunkt . . . . . . . . . . . . . . . . . . 127 Baumdiagramm . . . . . . . . . . . . . . . . 30 Bayes (Satz) . . . . . . . . . . . . . . . . . . . 31 Beckersches Schema . . . . . . . . . . . . 92 Beobachtungswertmatrix . . . . . . 179 c °V. Steinmetz: Grundzüge der Statistik Bereich kritischer - . . . . . . . . . . . . . . . . . 148 Berichts -periode . . . . . . . . . . . . . . . . . . . . 127 -zeitpunkt . . . . . . . . . . . . . . . . . . 127 Bestimmtheitsmaß empirisches - . . . . . . . . . . . . . . . 186 Beta-Verteilung . . . . . . . . . . . . . . . . 46 Beziehungszahl . . . . . . . . . . . . . . . . 127 Bezugs -periode . . . . . . . . . . . . . . . . . . . . 127 -zeitpunkt . . . . . . . . . . . . . . . . . . 127 Bias . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Bijektion . . . . . . . . . . . . . . . . . . . . . . . . 2 bijektiv . . . . . . . . . . . . . . . . . . . . . . . . . 2 Bild . . . . . . . . . . . . . . . . . . . . . . . . . . 1, 3 - einer Zufallsvariablen . . . . . . 50 -menge . . . . . . . . . . . . . . . . . . . . . . . 3 -wahrscheinlichkeit . . . . . . . . . . 35 Bindungen . . . . . . . . . . . . . . . . . . . . 173 Binomialkoeffizient . . . . . . . . . . . . . 15 Binomialtest . . . . . . . . . . . . . . . . . . 161 -mit Normalverteilungsapproximation . . . . . . . . 162 Binomialverteilung B(n, p) 43, 63 Boolescher Mengenring . . . . . . . . . 21 Borelalgebra . . . . . . . . . . . . . . . . . . . 20 Box-Plot . . . . . . . . . . . . . . . . . . . . . . 104 Cantorsches Diagonalverfahren . 11 Charakterisierung . . . . . . . . . . . . . . 22 Chi-Quadrat -Anpassungstest . . . . . . . . . . . . 169 -Test . . . . . . . . . . . . . . . . . . . . . . . 165 -Verteilung . . . . . . . . . . . . . 46, 159 modifizierter - Minimum Anpassungstest . . . . . . . 170 De Morgansche Gesetze . . . . . . . 199 Definitionsbereich . . . . . . . . . . . . . . . 1 Deflationierung . . . . . . . . . . . . . . . 131 Deskriptive Statistik . . . . . . . . . . . 89 Grundmodell der - . . . . . . . . . . 89 –236– Diagonalverfahren von Cantor . . 11 Dichte(funktion) . . . . . . . . . . . . 41, 56 - einer n-dimensionalen Zufallsvariablen . . . . . . . . 56 - einer eindimensionalen Zufallsvariablen . . . . . . . . 41 bedingte - . . . . . . . . . . . . . . . . . . . 60 gemeinsame - . . . . . . . . . . . . . . . 56 Differenz - zweier Mengen . . . . . . . . . . . . 198 symmetrische - . . . . . . . . . . . . . 199 diskret . . . . . . . . . . . . . . . . . . . . . 38, 40 Distributivität . . . . . . . . . . . . . . . . 199 Durbin-Watson-Test . . . . . . . . . . 192 Durchschnitt . . . . . . . . . . . . . . . . . . . . 6 - einer Familie von Teilmengen 6 - zweier Mengen . . . . . . . . . . . . 198 Einheiten Abgangs- . . . . . . . . . . . . . . . . . . . . 90 Bestands- . . . . . . . . . . . . . . . . . . . 90 Bewegungs- . . . . . . . . . . . . . . . . . 90 Ereignis- . . . . . . . . . . . . . . . . . . . . 90 statistische - . . . . . . . . . . . . . . . . 89 Zugangs- . . . . . . . . . . . . . . . . . . . . 90 Einpunktverteilung . . . . . . . . . 43, 66 Einschränkung . . . . . . . . . . . . . . . . . 21 Element . . . . . . . . . . . . . . . . . . . . . . 194 Anzahl der -e . . . . . . . . . . . . . . . . . 9 Elementarereignis . . . . . . . . . . . . . . 24 endlich . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Ereignis . . . . . . . . . . . . . . . . . . . . . . . . 22 P -fast sicheres - . . . . . . . . . . . . . 27 P -fast unmögliches - . . . . . . . . 27 -raum . . . . . . . . . . . . . . . . . . . . . . . 22 durch Bedingungen über X bestimmtes - . . . . . . . . . . . 38 sicheres - . . . . . . . . . . . . . . . . . . . . 27 stochastisch unabhängige -se 32 unmögliches - . . . . . . . . . . . . . . . 27 Ergebnis . . . . . . . . . . . . . . . . . . . . . . . 22 -raum . . . . . . . . . . . . . . . . . . . . . . . 22 Erlang-Verteilung . . . . . . . . . . . . . . 46 Erwartungswert . . . . . . . . . . . . . . . . 66 c °V. Steinmetz: Grundzüge der Statistik - einer diskreten Zufallsvariablen . . . . . . . . 66 - einer stetigen Zufallsvariablen . . . . . . . . 66 Erzeugendensystem . . . . . . . 20, 207 Existenzquantor . . . . . . . . . . . . . . 194 Exponentialverteilung . . . . . . . . . . 46 Exzeß . . . . . . . . . . . . . . . . . . . . . . . . . . 71 F -Test . . . . . . . . . . . . . . . . . . . 165, 167 F -Verteilung . . . . . . . . . 47, 166, 224 Familie . . . . . . . . . . . . . . . . . . . . . . . . . . 6 - von σ-Algebren . . . . . . . . . . . . 20 - von Ereignissen . . . . . . . . . . . . 33 - von Teilmengen . . . . . . . . . . . . . 6 Fehler - 1.Art . . . . . . . . . . . . . . . . . . . . . 149 - 2.Art . . . . . . . . . . . . . . . . . . . . . 149 -wahrscheinlichkeit - 1.Art . . . . . . . . . . . . . . . . . . 149 - 2.Art . . . . . . . . . . . . . . . . . . 149 Folge . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Fortschreibungsformeln . . . . . . . . . 91 Fragestellung einseitige - . . . . . . . . . . . . . . . . . 152 zweiseitige - . . . . . . . . . . . . . . . . 152 Fraktil, p-Fraktil . . . . . . . . . . . . . . . 82 Funktion uneigentlich integrierbare - . . 42 Gamma-Verteilung . . . . . . . . . . . . . 45 Gauß-Markoff (Satz) . . . . . . . . . . 189 Gauß-Test . . . . . . . . . . . . . . . . . . . . 152 Gaußverteilung N (0, 1) 44, 47, 219 GdS . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 Gegenhypothese . . . . . . . . . . . . . . 148 Geometrische Verteilung . . . . . . . 44 Gesetz De Morgansche -e . . . . . . . . . . 199 schwaches der großen Zahlen . . . . . . 86 Gini-Koeffizient . . . . . . . . . . . . . . . 121 normierter - . . . . . . . . . . . . . . . . 121 gleichmächtig . . . . . . . . . . . . . . . . . . . 9 Gleichverteilung diskrete - . . . . . . . . . . . . . . . . . . . . 43 –237– stetige - . . . . . . . . . . . . . . . . . . . . . 44 Gliederungszahl . . . . . . . . . . . . . . . 127 Graph . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Grenzwertsatz - von de Moivre und Laplace . . . . . . . . . . . . 87 zentraler - . . . . . . . . . . . . . . . . . . . 87 Grundannahme der Statistik erste - . . . . . . . . . . . . . . . . . . . . . 132 dritte - . . . . . . . . . . . . . . . . . . . . . 133 zweite - . . . . . . . . . . . . . . . . . . . . 132 Grundgesamtheit . . . . . . . . . . . 22, 89 Grundmodell der deskriptiven Statistik . . . . . . . . . . . . . . . . 89 gültige Ziffern . . . . . . . . . . . . . . . . . . 93 Gütefunktion . . . . . . . . . . . . . . . . . 156 Häufigkeit empirische - . . . . . . . . . . . . . . . . 169 relative - . . . . . . . . . . . . . . . . . . . . 23 theoretische - . . . . . . . . . . . . . . 169 Häufigkeits -tabelle . . . . . . . . . . . . . . . . . . . . . 95 -verteilung eindimensionale - . . . . . . . . . 95 zweidimensionale - . . . . . . 106 Hauptdiagonale . . . . . . . . . . . . . . . 202 Herfindahl-Index . . . . . . . . . . . . . . 124 Histogramm . . . . . . . . . . . . . . . . . . . . 98 Hypergeometrische Verteilung . . 43 Hypothese einfache - . . . . . . . . . . . . . . . . . . 148 zusammengesetzte - . . . . . . . . 148 Idealindex . . . . . . . . . . . . . . . . . . . . 129 Idempotenz . . . . . . . . . . . . . . . . . . . 199 Identität . . . . . . . . . . . . . . . . . . . 1, 199 Indexmenge . . . . . . . . . . . . . . . . . . . . . 6 Indexzahlen . . . . . . . . . . . . . . . . . . . 129 Indikatorfunktion . . . . . . . . . . . . . 171 Induktion vollständige - . . . . . . . . . . . . . . . . 13 Induktions -beginn . . . . . . . . . . . . . . . . . . . . . 13 -behauptung . . . . . . . . . . . . . . . . 14 -beweis . . . . . . . . . . . . . . . . . . . . . . 14 c °V. Steinmetz: Grundzüge der Statistik -voraussetzung . . . . . . . . . . . . . . 13 Injektion . . . . . . . . . . . . . . . . . . . . . . . . 2 injektiv . . . . . . . . . . . . . . . . . . . . . . . . . 2 Intervall abgeschlossenes - . . . . . . . . . . . 196 halboffenes - . . . . . . . . . . . . . . . 196 offenes - . . . . . . . . . . . . . . . . . . . . 196 Inverse . . . . . . . . . . . . . . . . . . . . . 3, 210 induzierte - . . . . . . . . . . . . . . . . . . . 4 kartesisches Produkt . . . . . . . . . . 201 Klassen -breite . . . . . . . . . . . . . . . . . . . . . . 97 -mitte . . . . . . . . . . . . . . . . . . . . . . . 97 -mittelpunkt . . . . . . . . . . . . . . . . 99 Klassierung . . . . . . . . . . . . . . . . . . . . 97 Darstellung einer - . . . . . . . . . . 98 Kleinst-Quadrat-Schätzung . . . . 181 Koeffizient eigentlicher Regressions- . . . . 179 Gini- . . . . . . . . . . . . . . . . . . . . . . . 121 Konzentrations- . . . . . . . . . . . . 124 Korrelations- . . . . . . . . . . . . . . . . 78 normierter Gini- . . . . . . . . . . . 121 Regressions- . . . . . . . . . . . . . . . . 179 Spearmanscher Rangkorrelations- . . . . . . . . . . . . . . . . 110 Stichprobenkorrelations- . . . 141 Variations- . . . . . . . . . . . . . . . . . . 71 Kollektiv . . . . . . . . . . . . . . . . . . . . . . . 89 Kombination . . . . . . . . . . . . . . . . . . . 16 - mit Wiederholung . . . . . . . . . 17 - ohne Wiederholung . . . . . . . . 16 Kombinatorik . . . . . . . . . . . . . . . . . . 13 Kommutativität . . . . . . . . . . . . . . 199 Komplement . . . . . . . . . . . . . . . . . . 198 Komponente . . . . . . . . . . . . . . . . . . . 54 Konfidenz -bereich . . . . . . . . . . . . . . . . . . . . 174 (1 − α)- . . . . . . . . . . . . . . . . . 174 -bereichsschätzung . . . . . . . . . 174 -intervall zweiseitiges - . . . . . . . . . . . . 176 -schätzung . . . . . . . . . . . . . . . . . 174 konsistent . . . . . . . . . . . . . . . . . . . . . 144 –238– Kontingenz -Koeffizient nach Pearson . . 112 -Tabelle . . . . . . . . . . . . . . . . . . . . 107 korrigierter - Koeffizient nach Pearson . . . . . . . . . . 112 mittlere quadratische - . . . . . 112 Konzentrations -koeffizient . . . . . . . . . . . . . . . . . 124 -kurve . . . . . . . . . . . . . . . . . . . . . 124 -maße . . . . . . . . . . . . . . . . . . . . . . 115 Korrelationskoeffizient - nach Bravais-Pearson . . . . . . 78 Spearmanscher - . . . . . . . . . . . 110 Kovarianz . . . . . . . . . . . . . . . . . . . . . . 74 -zerlegungssatz . . . . . . . . . . . . . . 75 KQ - Residuum . . . . . . . . . . . . . . . . 181 - Schätzer . . . . . . . . . . . . . . . . . . 188 - Schätzung . . . . . . . . . . . . . . . . 181 Kritische Werte . . . . . . . . . . . . . . . 152 Kritischer Bereich . . . . . . . . . . . . . 148 Kurtosis . . . . . . . . . . . . . . . . . . . . . . . 71 Lageparameter . . . . . . . . . . . . . . . . . 83 λ − σ−Bereich . . . . . . . . . . . . . . . . . 85 Laplace -sche Wahrscheinlichkeit . . . . . 24 -scher Wahrscheinlichkeitsraum . . . . . . . . . . . . . . . . . . . 24 Grenzwertsatz von de Moivre und - . . . . . . . . . . . . . . . . . . . 87 Likelihood-Funktion . . . . . . 146, 147 logarithmierte - . . . . . . . . . . . . 146 linear - abhängig . . . . . . . . . . . . . . . . . 207 - unabhängig . . . . . . . . . . . . . . . 207 Linearkombination . . . . . . . . . . . . 207 Logarithmische Normalverteilung 45 Lorenzkurve . . . . . . . . . . . . . . . . . . 115 approximative - . . . . . . . . . . . . 120 mächtiger . . . . . . . . . . . . . . . . . . . . . . 11 Mächtigkeit . . . . . . . . . . . . . . . . . . . . . 9 Masse Abgangs- . . . . . . . . . . . . . . . . . . . . 90 Bestands- . . . . . . . . . . . . . . . . . . . 91 c °V. Steinmetz: Grundzüge der Statistik Bewegungs- . . . . . . . . . . . . . . . . . 90 Ereignis- . . . . . . . . . . . . . . . . . . . . 90 statistische - . . . . . . . . . . . . . . . . 89 Zugangs- . . . . . . . . . . . . . . . . . . . . 90 Matrix Block- . . . . . . . . . . . . . . . . . . . . . 211 definite - . . . . . . . . . . . . . . . . . . . 215 Determinante einer - . . . . . . . 209 Diagonal- . . . . . . . . . . . . . . . . . . 203 Dreiecksobere - . . . . . . . . . . . . . . . . . . 203 untere - . . . . . . . . . . . . . . . . . 203 Einheits- . . . . . . . . . . . . . . . . . . . 203 Eins- . . . . . . . . . . . . . . . . . . . . . . . 203 idempotente - . . . . . . . . . . . . . . 214 inverse - . . . . . . . . . . . . . . . . . . . 210 invertierbare - . . . . . . . . . . . . . . 210 negativ definite - . . . . . . . . . . . 215 negativ semidefinite - . . . . . . 215 Null- . . . . . . . . . . . . . . . . . . . . . . . 203 obere Dreiecks- . . . . . . . . . . . . 203 orthogonale - . . . . . . . . . . . . . . . 214 positiv definite - . . . . . . . . . . . 215 positiv semidefinite - . . . . . . . 215 quadratische - . . . . . . . . . . . . . . 202 Rang einer - . . . . . . . . . . . . . . . 208 reguläre - . . . . . . . . . . . . . . . . . . 208 skalare Multiplikation mit einer - . . . . . . . . . . . . . . . . . 205 Spur einer - . . . . . . . . . . . . . . . . 213 symmetrische - . . . . . . . . . . . . . 203 Teil- . . . . . . . . . . . . . . . . . . . . . . . 211 transponierte - . . . . . . . . . . . . . 203 untere Dreiecks- . . . . . . . . . . . . 203 unterteilte - . . . . . . . . . . . . . . . . 211 Varianz-Kovarianz- . . . . . . . . . 217 - von Zufallsvariablen . . . . . . 216 Zufalls- . . . . . . . . . . . . . . . . . . . . 216 Matrizen -rechnung . . . . . . . . . . . . . . . . . . 202 Produkt von - . . . . . . . . . . . . . . 205 Summe von - . . . . . . . . . . . . . . . 205 Maximum-Likelihood - Gleichungen . . . . . . . . . . . . . . 147 - Methode . . . . . . . . . . . . . . . . . 146 –239– - Schätzfunktion . . . . . . . . . . . 146 - Schätzwert . . . . . . . . . . . . . . . 146 Median . . . . . . . . . . . . . . . . . . . . 82, 101 Menge . . . . . . . . . . . . . . . . . . . . . . . . 194 - der ganzen Zahlen . . . . 10, 196 - der natürlichen Zahlen . . . . 196 - der rationalen Zahlen . . . . . . 10 - der reellen Zahlen . . . . . 10, 196 abzählbar unendliche - . . . . . . 10 abzählbare - . . . . . . . . . . . . . . . . . 10 Anzahl der Elemente einer - . . 9 disjunkte -n . . . . . . . . . . . . . . . . 198 elementfremde -n . . . . . . . . . . . 198 endliche - . . . . . . . . . . . . . . . . . . . 12 gleiche -n . . . . . . . . . . . . . . . . . . 195 gleichmächtige -n . . . . . . . . . . . . . 9 kartesisches Produkt von -n 201 leere - . . . . . . . . . . . . . . . . . . . . . . . . 9 mächtigere - . . . . . . . . . . . . . . . . . 11 punktfremde -n . . . . . . . . . . . . 198 überabzählbare - . . . . . . . . . . . . 11 ungleiche -n . . . . . . . . . . . . . . . . 195 Mengen -lehre . . . . . . . . . . . . . . . . . . . . . . 194 -operationen . . . . . . . . . . . . . . . 198 Boolescher -ring . . . . . . . . . . . . . 21 Merkmal eindimensionales - . . . . . . . . . . . 95 häufbares - . . . . . . . . . . . . . . . . . . 93 identifizierendes - . . . . . . . . 22, 90 kardinalskaliertes, klassiertes - 104 kollektivbestimmendes - . . . . . 90 metrisch skaliertes - . . . . . . . . . 83 metrisches - . . . . . . . . . . . . . . . . . 83 nominal skaliertes - . . . . . . . . . . 83 nominales - . . . . . . . . . . . . . . . . . 83 ordinal skaliertes - . . . . . . . . . . . 83 ordinales - . . . . . . . . . . . . . . . . . . 83 statistisches - . . . . . . . . . . . . . . . 89 zweidimensionales - . . . . . . . . 106 Merkmals -ausprägung . . . . . . . . . . . . . . . . . 89 -träger . . . . . . . . . . . . . . . . . . . . . . 89 meßbar . . . . . . . . . . . . . . . . . . . . . . . . 34 Meßzahl . . . . . . . . . . . . . . . . . . . . . . 127 c °V. Steinmetz: Grundzüge der Statistik -enreihen . . . . . . . . . . . . . . . . . . . 128 Methode der kleinsten Quadrate 181 Mischungsparameter . . . . . . . . . . . 48 Mittel -wert . . . . . . . . . . . . . . . . . . . . . . . . 66 arithmetisches - . . . . . . . . 72, 103 geometrisches - . . . . . . . . . . . . . 103 gewogenes arithmetisches - . . 73 harmonisches - . . . . . . . . . . . . . 103 Modalwert . . . . . . . . . . . . . . . . . . . . . 82 Modus . . . . . . . . . . . . . . . . . . . . 82, 101 Moivre de Grenzwertsatz von und Laplace . . . . . . . . . . . . 87 Momente - eindimensionaler Zufallsvariablen . . . . . . . . . . . . . . . 66 - um Null . . . . . . . . . . . . . . . . . . . 74 - zweidimensionaler Zufallsvariablen . . . . . . . . . . . . . . . 70 zentrale - . . . . . . . . . . . . . . . . . . . . 71 Multiplikationssatz . . . . . . . . . . . . . 28 n-Tupel . . . . . . . . . . . . . . . . . . . . . . . 201 Näherungswert - für den Erwartungswert . . 104 - für den Median . . . . . . . . . . . 104 - für die Varianz . . . . . . . . . . . 104 Niveau . . . . . . . . . . . . . . . . . . . . . . . . 149 Normalgleichungen . . . . . . . . . . . . 181 Normalverteilung . . . . . . . . . . . . . . 45 - N (µ, σ 2 ) . . . . . . . . . . . . . . . . . . . 45 logarithmische - . . . . . . . . . . . . . 45 Standard - N (0, 1) . . 44, 47, 219 Nullhypothese . . . . . . . . . . . . . . . . 148 Nullmenge . . . . . . . . . . . . . . . . . . . . 195 Obermenge . . . . . . . . . . . . . . . . . . . 195 echte - . . . . . . . . . . . . . . . . . . . . . 195 OLS-Schätzung . . . . . . . . . . . . . . . 181 P -fast überall . . . . . . . . . . . . . . . . . . 27 p-Fraktil . . . . . . . . . . . . . . . . . . . . . . . 82 P -Nullmenge . . . . . . . . . . . . . . . . . . . 27 p-Quantil . . . . . . . . . . . . . . . . . . 82, 102 p-Wert . . . . . . . . . . . . . . . . . . . . . . . . 155 –240– Paar geordnetes - . . . . . . . . . . . . . . . . 201 Parameter -bereichsschätzung . . . . . . . . . 174 -punktschätzfunktion . . . . . . . 140 -punktschätzungen . . . . . . . . . 140 -raum . . . . . . . . . . . . . . . . . . . . . . 132 -test . . . . . . . . . . . . . . . . . . . . . . . 148 Periode Basis- . . . . . . . . . . . . . . . . . . . . . . 127 Berichts- . . . . . . . . . . . . . . . . . . . 127 Bezugs- . . . . . . . . . . . . . . . . . . . . 127 Referenz- . . . . . . . . . . . . . . . . . . 127 Permutation . . . . . . . . . . . . . . . . . . . 16 Poisson-Verteilung . . . . . . . . . . . . . 44 Polygonzug . . . . . . . . . . . . . . . . . . . . 99 Population . . . . . . . . . . . . . . . . . . . . . 89 Potenzmenge . . . . . . . . . . . . . . . . . 196 Preisbereinigung . . . . . . . . . . . . . . 131 Preisindex - nach Fisher . . . . . . . . . . . . . . . 129 - nach Laspeyres . . . . . . . . . . . 129 - nach Marshall und Edgeworth . . . . . . . . . . . . . . . . . 129 - nach Paasche . . . . . . . . . . . . . 129 Probe geordnete - mit Wiederholung 14 geordnete - ohne Wiederholung . . . . . . . . . . . . . . . . . 15 ungeordnete - mit Wiederholung . . . . . . . . . . . . . . . . . 17 ungeordnete - ohne Wiederholung . . . . . . . . . . . . . . . . . 16 Produkt . . . . . . . . . . . . . . . . . . . . . . . 36 - von Wahrscheinlichkeitsräumen . . . . . . . . . . . . . . . . . 36 -menge . . . . . . . . . . . . . . . . . . . . . 201 -verteilung . . . . . . . . . . . . . . . . . . 63 -wahrscheinlichkeit . . . . . . . . . . 36 -wahrscheinlichkeitsraum . . . . 36 kartesisches - . . . . . . . . . . . . . . . 201 Projektion . . . . . . . . . . . . . . . . . . . . . 54 Punktmasse . . . . . . . . . . . . . . . . . . . . 27 Punktwahrscheinlichkeit . . . . . . . . 27 c °V. Steinmetz: Grundzüge der Statistik quadratische Form . . . . . . . . . . . . 215 Quantil p-ter Ordnung . . . . . . . . . 82 Quantitätsindex - nach Fisher . . . . . . . . . . . . . . . 130 - nach Laspeyres . . . . . . . . . . . 130 - nach Paasche . . . . . . . . . . . . . 130 - nach Marshall und Edgeworth . . . . . . . . . . . . . . . . . 130 Quartil -sabstand . . . . . . . . . . . . . . . . . . 104 oberes - . . . . . . . . . . . . . . . . . . . . . 82 unteres - . . . . . . . . . . . . . . . . . . . . 82 Randdichte (Randdichtefunktion) 58 Randverteilung . . . . . . . . . . . . . . . . . 54 Randverteilungsfunktion . . . . . . . 56 Rang . . . . . . . . . . . . . . . . . . . . . . . . . 171 Rangkorrelationskoeffizient Spearmanscher - . . . . . . . . . . . 110 Rangstatistik . . . . . . . . . . . . . . . . . 171 Realisation einer Stichprobe . . . 133 Referenz -periode . . . . . . . . . . . . . . . . . . . . 127 -zeitpunkt . . . . . . . . . . . . . . . . . . 127 Reflexivität . . . . . . . . . . . . . . . . . . . 196 Regressand . . . . . . . . . . . . . . . . . . . 179 Regressionskoeffizient . . . . . . . . . 179 Regressionsmodell - unter Normalverteilungsannahme . . . . . . . . . . . . . . 190 multiples lineares - . . . . . . . . . 179 einfaches lineares - . . . . . . . . . 182 homogenes - . . . . . . . . . . . . . . . 179 inhomogenes - . . . . . . . . . . . . . . 179 klassisches lineares - . . . . . . . . 178 Regressor . . . . . . . . . . . . . . . . . . . . . 179 Ring . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Rundstelle . . . . . . . . . . . . . . . . . . . . . 93 Schätzfunktion . . . . . . . . . . . . . . . . beste erwartungstreue - . . . . effiziente - . . . . . . . . . . . . . . . . . . erwartungstreue - . . . . . . . . . . Kleinst-Quadrat- . . . . . . . . . . . konsistente - . . . . . . . . . . . . . . . Maximum-Likelihood- . . . . . . 140 188 144 144 181 144 146 –241– unverzerrte - . . . . . . . . . . . . . . . 142 wirksamste - . . . . . . . . . . . . . . . 144 Schätzwert - nach KQ-Methode geschätzter y-Vektor . . . . 189 Kleinst-Quadrat- . . . . . . . . . . . 181 Maximum-Likelihood- . . . . . . 146 Scheinvariable . . . . . . . . . . . . . . . . . 179 Schiefe . . . . . . . . . . . . . . . . . . . . . . . . . 71 Schwellenwert . . . . . . . . . . . . 152, 160 Schwerpunkt . . . . . . . . . . . . . . . . . . . 77 Sicherheitswahrscheinlichkeit . . 174 σ-Algebra . . . . . . . . . . . . . . . . . . . . . . 19 erzeugte - . . . . . . . . . . . . . . . . . . . 20 natürliche - . . . . . . . . . . . . . . . . . 20 signifikante Dezimalstelle . . . . . . . 94 Signifikanzniveau . . . . . . . . . . . . . 149 skalare Multiplikation . . . . . . . . . 205 Spearmanscher Rangkorrelationskoeffizient . . . . . . 110 Sprunghöhe . . . . . . . . . . . . . . . . . . . . 40 Sprungstelle . . . . . . . . . . . . . . . . . . . . 40 Spur . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Standardabweichung . . . . . . . . . . . 71 Standardnormalverteilung N (0, 1) 44 Statistik deskriptive - . . . . . . . . . . . . . . . . . 89 induktive - . . . . . . . . . . . . . . . . . . 89 Inferenz- . . . . . . . . . . . . . . . . . . . . 89 schließende - . . . . . . . . . . . . . . . . 89 Statistische Einheit . . . . . . . . . . . . 89 Statistische Masse . . . . . . . . . . . . . . 89 Steilheit . . . . . . . . . . . . . . . . . . . . . . . . 71 Stem-Leaf-Diagramm . . . . . . . . . 100 Stichprobe . . . . . . . . . . . . . . . . . . . . 133 - mit Zurücklegen . . . . . . . . . . 135 - ohne Zurücklegen . . . . . . . . . 138 einfache - . . . . . . . . . . . . . . . . . . 137 Stichproben -korrelationskoeffizient . . . . . 141 -kovarianz . . . . . . . . . . . . . . . . . . 141 -mittelwert . . . . . . . . . . . . . . . . . 141 -raum . . . . . . . . . . . . . 22, 133, 137 -realisation . . . . . . . . . . . . . . . . . 133 -streuung . . . . . . . . . . . . . . . . . . 141 c °V. Steinmetz: Grundzüge der Statistik korrigierte - . . . . . . . . . . . . . 141 -umfang . . . . . . . . . . . . . . . . . . . . 135 -varianz . . . . . . . . . . . . . . . . . . . . 141 stochastisch unabhängig . . . . . . . . 32 Störvariable . . . . . . . . . . . . . . . . . . . 179 Streuung . . . . . . . . . . . . . . . . . . . . . . . 71 durch die Regression erklärte - 185 empirische - der Beobachtungen . . . . . . . . 185 gemischte - . . . . . . . . . . . . . . . . . . 74 nicht erklärte Rest- . . . . . . . . 185 Surjektion . . . . . . . . . . . . . . . . . . . . . . . 2 surjektiv . . . . . . . . . . . . . . . . . . . . . . . . 2 Symmetrie . . . . . . . . . . . . . . . . . . . . . 75 t-Test . . . . . . . . . . . . . . . . . . . . . . . . . 159 t-Verteilung . . . . . . . . . . 45, 159, 221 Teilmenge . . . . . . . . . . . . . . . . . . . . . 195 echte - . . . . . . . . . . . . . . . . . . . . . 195 Test - für die Regressionskoeffizienten . . . . . . . . . . . 191 - zum Niveau α . . . . . . . . . . . . 149 Binomial- . . . . . . . . . . . . . . . . . . 161 Chi-Quadrat- . . . . . . . . . . . . . . 165 einseitiger - . . . . . . . . . . . . . . . . 152 F - . . . . . . . . . . . . . . . . . . . . 165, 167 Gauß- . . . . . . . . . . . . . . . . . . . . . . 152 t- . . . . . . . . . . . . . . . . . . . . . . . . . . 159 Wilcoxon-Rangsummen- . . . 171 zweiseitiger - . . . . . . . . . . . . . . . 152 Trägerpunkt . . . . . . . . . . . . . . . . . . . 27 Transitivität . . . . . . . . . . . . . . . . . . 196 Translationsinvarianz . . . . . . . 72, 75 Treppenfunktion . . . . . . . . . . . . . . . 96 Tschebyschevsche Ungleichung . 84 Tupel . . . . . . . . . . . . . . . . . . . . . . . . . 201 überabzählbar . . . . . . . . . . . . . . . . . . 10 Umbasierung . . . . . . . . . . . . . . . . . . 128 Umkehrabbildung . . . . . . . . . . . . . . . 3 Unabhängigkeit . . . . . . . . . . . . . . . . 28 lineare - . . . . . . . . . . . . . . . . . . . . 207 stochastische von Ereignissen . . . . . . . . . 32 von Zufallsvariablen . . . . . . . . . 59 –242– Universalmenge . . . . . . . . . . . . . . . 198 Untersuchungseinheiten . . . . . 22, 89 Untersuchungsmerkmal . . . . . . . . . 89 Urbild . . . . . . . . . . . . . . . . . . . . . . . . . . 4 -menge . . . . . . . . . . . . . . . . . . . . . . . 1 -punkt . . . . . . . . . . . . . . . . . . . . . . . 1 Urliste . . . . . . . . . . . . . . . . . . . . . . . . . 95 Urnenmodell . . . . . . . . . . . . . . . . . . . 18 Variable . . . . . . . . . . . . . . . . . . . . . . 178 abhängige - . . . . . . . . . . . . . . . . 179 erklärende - . . . . . . . . . . . . . . . . 179 Fehler- . . . . . . . . . . . . . . . . . . . . . 179 Schein- . . . . . . . . . . . . . . . . . . . . . 179 Stör- . . . . . . . . . . . . . . . . . . . . . . . 179 unabhängige - . . . . . . . . . . . . . . 179 Varianz . . . . . . . . . . . . . . . . . . . . . . . . 71 -zerlegungssatz . . . . . . . . . . . . . . 72 Variation . . . . . . . . . . . . . . . . . . . . . . . 18 - mit Wiederholung . . . . . . . . . 14 - ohne Wiederholung . . . . . . . . 15 Variationskoeffizient . . . . . . . . . . . . 71 Vektor Einheits- . . . . . . . . . . . . . . . . . . . 204 Eins- . . . . . . . . . . . . . . . . . . . . . . . 204 Null- . . . . . . . . . . . . . . . . . . . . . . . 204 Zufalls- . . . . . . . . . . . . . . . . . . . . 216 Vereinigung . . . . . . . . . . . . . . . . . . . . . 6 - einer Familie von Teilmengen . . . . . . . . . . . . . . . . . . 6 - zweier Mengen . . . . . . . . . . . . 198 Verhältniszahl . . . . . . . . . . . . . . . . 127 Verschiebungsinvarianz . . . . . . . . . 72 verschlüsselt . . . . . . . . . . . . . . . . . . . 83 Verteilung (total)stetige - . . . . . . . . . . . . . . 44 bedingte - . . . . . . . . . . . . . . . . . . . 59 diskrete - . . . . . . . . . . . . . . . . . . . . 43 gemeinsame - . . . . . . . . . . . . . . . 54 Häufigkeits- . . . . . . . . . . . . . . . . . 95 hypothetische - . . . . . . . . . . . . . 169 symmetrische - . . . . . . . . . . . . . . 42 Wahrscheinlichkeits- . . . . . . . . . 38 Verteilungs -annahme . . . . . . . . . . . . . . . . . . 132 c °V. Steinmetz: Grundzüge der Statistik nichtparametrische - . . . . . 132 parametrische - . . . . . . . . . 132 verteilungsfreie - . . . . . . . . 132 -funktion (VF) . . . . . . . . . . 38, 56 (total)stetige - . . . . . . . . . . . . 42 - einer n-dimensionalen Zufallsvariablen . . . . . . . . 56 - einer eindimensionalen Zufallsvariablen . . . . . . . . 39 - vom gemischten Typ . . . . 48 diskrete - . . . . . . . . . . . . . . . . . 40 gemeinsame - . . . . . . . . . . . . . 56 Verteilungsfunktion bedingte - . . . . . . . . . . . . . . . . . . . 60 Verweildauer . . . . . . . . . . . . . . . . . . . 92 Verweillinien . . . . . . . . . . . . . . . . . . . 93 Verwerfungsbereich . . . . . . . . . . . 148 Verzerrung . . . . . . . . . . . . . . . . . . . . 143 Wahrscheinlichkeit . . . . . . . . . . . . . 22 bedingte - . . . . . . . . . . . . . . . . . . . 28 diskrete - . . . . . . . . . . . . . . . . . . . . 27 Laplacesche - . . . . . . . . . . . . . . . . 24 totale - (Satz) . . . . . . . . . . . . . . . 29 Wahrscheinlichkeits -maß . . . . . . . . . . . . . . . . . . . . . . . . 22 -raum (WR) . . . . . . . . . . . . . . . . 22 diskreter - . . . . . . . . . . . . . . . . 27 Laplacescher - . . . . . . . . . . . . 24 Produkt von Wahrscheinlichkeitsräumen . . . . . . . . 36 -verteilung (WV) . . . . . . . . . . . . 38 - einer n-dimensionalen Zufallsvariablen . . . . . . . . 54 - einer eindimensionalen Zufallsvariablen . . . . . . . . 38 - vom gemischten Typ . . . . 48 bedingte - . . . . . . . . . . . . 48, 59 bimodale - . . . . . . . . . . . . . . . 82 diskrete - . . . . . . . . . . . . . . . . . 38 gemeinsame - . . . . . . . . . . . . . 54 multimodale - . . . . . . . . . . . . 82 total stetige - . . . . . . . . . . . . . 41 unimodale - . . . . . . . . . . . . . . 82 Weißes Rauschen . . . . . . . . . . . . . . 192 –243– Wert -evorrat . . . . . . . . . . . . . . . . . . . . . . 1 -index . . . . . . . . . . . . . . . . . . . . . . 130 häufigster - . . . . . . . . . . . . . . . . . . 82 wahrscheinlichster - . . . . . . . . . 82 Wilcoxon-Rangsummentest . . . . 171 Wirksamkeit . . . . . . . . . . . . . . . . . . 144 Wölbung . . . . . . . . . . . . . . . . . . . . . . . 71 Zählprinzip . . . . . . . . . . . . . . . . . . . . 13 Zahl Beziehungs- . . . . . . . . . . . . . . . . 127 Gliederungs- . . . . . . . . . . . . . . . 127 Index- . . . . . . . . . . . . . . . . . . . . . 129 Meß- . . . . . . . . . . . . . . . . . . . . . . . 127 Verhältnis- . . . . . . . . . . . . . . . . . 127 Zeitpunkt . . . . . . . . . . . . . . . . . . . . . 129 Basis- . . . . . . . . . . . . . . . . . . . . . . 127 Berichts- . . . . . . . . . . . . . . . . . . . 127 Bezugs- . . . . . . . . . . . . . . . . . . . . 127 Referenz- . . . . . . . . . . . . . . . . . . 127 Zentralwert . . . . . . . . . . . . . . . . . . . . 82 Zerlegung . . . . . . . . . . . . . . . . . . . . . . . 8 Zerlegungsformel . . . . . . . . . . . . . . 184 Streuungs- . . . . . . . . . . . . . . . . . 185 Zufallsvariable (ZV) (total)stetige - . . . . . . . . . . . . . . 41 diskrete - . . . . . . . . . . . . . . . . . . . . 38 eindimensionale - . . . . . . . . . . . . 38 mehrdimensionale - . . . . . . . . . 54 stochastisch unabhängige -n . . . . . 60, 63 symmetrisch verteilte - . . . . . . 42 unkorrelierte -n . . . . . . . . . . . . . 80 Zufallsvektor . . . . . . . . . . . . . . . . . . 216 Zugangs -einheiten . . . . . . . . . . . . . . . . . . . 90 -masse . . . . . . . . . . . . . . . . . . . . . . 90 -zeitpunkt . . . . . . . . . . . . . . . . . . . 92 Zweipunktverteilung . . . . . . . . . . . 43 c °V. Steinmetz: Grundzüge der Statistik –244– Symbolverzeichnis y = f (x), x 7→ y f x wird abgebildet auf y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 f : A → B, A → B Abbildung der Menge A in die Menge B . . . . . . . . . . . . . 1 iA , idA identische Abbildung, Identität . . . . . . . . . . . . . . . . . . . . . . 1 g ◦ f, g(f ) aus g und f zusammengesetzte Abbildung . . . . . . . . . . . 2 f −1 Umkehrabbildung, Inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 induzierte inverse Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . 4 f (Ã) Bild(menge) von à bzgl. f (induzierte Abbildung) . . . 3 (aj )j∈J Familie von Elementen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 (Aj )j∈J S Aj Familie von Teilmengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Vereinigung einer Familie vonTeilmengen . . . . . . . . . . . . 6 j∈J˜ T Aj Durchschnitt einer Familie vonTeilmengen . . . . . . . . . . . 6 j∈J˜ A∼B A und B sind gleichmächtig . . . . . . . . . . . . . . . . . . . . . . . . . 9 ]M, |M | Anzahl der Elemente von M . . . . . . . . . . . . . . . . . . . . . . . . . 9 Vnr Anzahl der Variationen von n Elementen ohne Wiederholung vom Umfang r . . . . . . . . . . . . . . . . . . 14 w Vnr Anzahl der Variationen von n Elementen mit Wiederholung vom Umfang r . . . . . . . . . . . . . . . . . . . 14 n! µ ¶ n r n-Fakultät . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 (n)r n tief r . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Cnr Anzahl der Kombinationen von n Elementen ohne Wiederholung vom Umfang r . . . . . . . . . . . . . . . . . . 16 w Anzahl der Kombinationen von n Elementen mit Wiederholung vom Umfang r . . . . . . . . . . . . . . . . . . . 17 Cnr n über r (Binomialkoeffizient) . . . . . . . . . . . . . . . . . . . . . . 15 Ω Stichprobenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19, 22 F Ereignisraum, σ-Algebra in Ω . . . . . . . . . . . . . . . . . . . 19, 22 c °V. Steinmetz: Grundzüge der Statistik –245– B1 Borelalgebra in R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 Bn Borelalgebra in Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 F(A) von A erzeugte σ-Algebra in Ω . . . . . . . . . . . . . . . . . . . . . 20 F |A Spur von F in A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 (Ω, F, P ) Wahrscheinlichkeitsraum (WR) . . . . . . . . . . . . . . . . . . . . . 22 P Wahrscheinlichkeit(smaß) . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 H relative Häufigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 wi Trägerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 pi Punktwahrscheinlichkeiten (Punktmassen) . . . . . . . . . . 27 P (B | A) bedingte Wahrscheinlichkeit von B unter der Hypothese A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 (Ω, F, P ) ⊗ (Ω0 , F 0 , P 0 ) Produkt aus den Wahrscheinlichkeitsräumen (Ω, F, P ) und (Ω0 , F 0 , P 0 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 P ⊗ P0 aus P und P 0 gebildete Produktwahrscheinlichkeit . . 36 QX Wahrscheinlichkeitsverteilung (WV) der ZV X . . . . . . 38 {X ∈ B} durch Bedingungen über die ZV X bestimmtes Ereignis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 FX Verteilungsfunktion (VF) der ZV X . . . . . . . . . . . . . . . . 38 FX (x − 0) linksseitiger Grenzwert der VF im Punkt x . . . . . . . . . 40 fX Dichte(funktion) der ZV X . . . . . . . . . . . . . . . . . . . . . . . . . 41 B(n, p) Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 b(i | n, p) Punktwahrscheinlichkeiten einer B(n, p)-verteilten ZV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 N (0, 1) Gaußverteilung, Standardnormalverteilung . . . . . . . . . . 44 N (µ, σ 2 ) Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 χ2 Chi-Quadrat-Verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 ϕ, ϕX Dichte einer N (0, 1)-verteilten ZV X . . . . . . . . . . . . . . . . 48 Φ, ΦX Verteilungsfunktion einer N (0, 1)-verteilten ZV X . . 48 pri i−te Projektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 c °V. Steinmetz: Grundzüge der Statistik –246– pi· , p·k Punktmassen der Randverteilungen . . . . . . . . . . . . . . . . . 55 QX|Y =yk durch die Hypothese Y = yk bedingte WV von X . . . 59 fX|Y =y durch Y = y bedingte Dichte(funktion) von X . . . . . . 60 FX|Y =y durch Y = y bedingte Verteilungsfunktion von X . . . 60 QX ⊗ Q Y Produktverteilung von QX und QY . . . . . . . . . . . . . . . . . 63 EX Erwartungswert (Mittelwert) der ZV X . . . . . . . . . . . . . 66 µk Moment k-ter Ordnung um Null . . . . . . . . . . . . . . . . . . . . 71 σk zentrales Moment k-ter Ordnung . . . . . . . . . . . . . . . . . . . 71 2 Var X = D 2 X = σX = σ 2 Varianz, Streuung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 DX = σX = σ Standardabweichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 x arithmetisches Mittel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 µrs Momente um Null (r + s)-ter Ordnung . . . . . . . . . . . . . 74 σrs zentrale Momente (r + s)-ter Ordnung . . . . . . . . . . . . . . 74 Cov(X, Y ) Kovarianz, gemischte Streuung . . . . . . . . . . . . . . . . . . . . . 74 Korr(X, Y ) = ρ(X, Y ) Korrelationskoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 x0,5 Median, Zentralwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 λp p-Quantil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 Ω̃ Ergebnisraum im GdS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 Ω̃t Bestandsmasse bzgl. t . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 Ω̃T0 ,T1 Bewegungsmasse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 ZT0 ,T1 Zugangsmasse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 AT0 ,T1 Abgangsmasse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 tZ (ω̃) Zugangszeitpunkt von ω̃ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 tA (ω̃) Abgangszeitpunkt von ω̃ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 Kj Klasse Nr.j . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Bj Klassenbreite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 mj Klassenmitte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 c °V. Steinmetz: Grundzüge der Statistik –247– āgeom geometrisches Mittel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 āharm harmonisches Mittel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 KorrS Spearmanscher Rangkorrelationskoeffizient. . . . . . . . . 110 ϕ2U,V mittlere quadratische Kontingenz . . . . . . . . . . . . . . . . . . 112 C Pearsonscher Kontingenzkoeffizient . . . . . . . . . . . . . . . . 112 Ckorr korrigierter Kontingenzkoeffizient . . . . . . . . . . . . . . . . . . 112 G Gini-Koeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 Gnorm normierter Gini-Koeffizient . . . . . . . . . . . . . . . . . . . . . . . . 121 CRg Konzentrationskoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . 124 H Herfindahl-Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 PtL0 ,t Preisindex nach Laspeyres . . . . . . . . . . . . . . . . . . . . . . . . . 129 PtP0 ,t Preisindex nach Paasche . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 PtF0 ,t Preisindex nach Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 −E PtM 0 ,t Preisindex nach Marshall und Edgeworth . . . . . . . . . . 129 QLt0 ,t Quantitätsindex nach Laspeyres . . . . . . . . . . . . . . . . . . . 130 QPt0 ,t Quantitätsindex nach Paasche . . . . . . . . . . . . . . . . . . . . . 130 QFt0 ,t Quantitätsindex nach Fisher . . . . . . . . . . . . . . . . . . . . . . . 130 QtM0 ,t−E Quantitätsindex nach Marshall und Edgeworth . . . . 130 Wt0 ,t Wertindex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 W Verteilungsannahme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 Θ Parameterraum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 ϑ∈Θ Parameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 X Stichprobenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 δ : X → γ(Θ) (Parameterpunkt)schätzfunktion . . . . . . . . . . . . . . . . . . . 140 µ̂(X) = X Stichprobenmittelwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 σ̂ 2 (X) Stichprobenstreuung, Stichprobenvarianz . . . . . . . . . . 141 S 2 (X) korrigierte Stichprobenstreuung. . . . . . . . . . . . . . . . . . . . 141 c °V. Steinmetz: Grundzüge der Statistik –248– σ̂11 (X, Y ) Stichprobenkovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 r(X, Y ) Stichprobenkorrelationskoeffizient. . . . . . . . . . . . . . . . . . 141 ∆E Menge der erwartungstreuen Schätzfunktionen für ϑ ∈ Θ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 L(ϑ | x1 , ..., xn ) Likelihood-Funktion (LF). . . . . . . . . . . . . . . . . . . . . . . . . . 146 ln L(. | ....) logarithmierte LF (LLF). . . . . . . . . . . . . . . . . . . . . . . . . . . 146 H0 Nullhypothese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 H1 Gegenhypothese, Alternative . . . . . . . . . . . . . . . . . . . . . . 148 ˙ 1 W0 ∪W disjunkte Zerlegung der Verteilungsannahme . . . . . . . 148 d0 Entscheidung ”Annahme von H0 ” . . . . . . . . . . . . . . . . . 148 d1 Entscheidung ”Annahme von H1 ” . . . . . . . . . . . . . . . . . 148 δ : X → {d0 , d1 } (Alternativ)test für H0 gegen H1 . . . . . . . . . . . . . . . . . . 148 K = Kδ kritischer Bereich (Verwerfungsbereich) . . . . . . . . . . . . 148 A = Aδ Annahmebereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 α Signifikanzniveau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 λ1−α Schwellenwert beim einseitigen Test . . . . . . . . . . . . . . . 152 λ1− α2 Schwellenwert beim zweiseitigen Test . . . . . . . . . . . . . . 152 G(. | δ) Gütefunktion eines Tests . . . . . . . . . . . . . . . . . . . . . . . . . . 156 N0 Teststatistik des Gaußtests . . . . . . . . . . . . . . . . . . . . . . . . 156 χ2n Chi-Quadrat-verteilt mit n Freiheitsgraden . . . . . . . . 159 tn t-verteilt mit n Freiheitsgraden . . . . . . . . . . . . . . . . . . . . 159 t0 Testgröße des t-Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 b0 Testgröße des Binomialtests . . . . . . . . . . . . . . . . . . . . . . . 161 χ20 Testgröße des Chi-Quadrat-Tests . . . . . . . . . . . . . . . . . . 165 Fnm F -verteilt mit m Zähler- und n Nennerfreiheitsgraden . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 νk empirische Häufigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 ◦ pk theoretische relative Häufigkeit . . . . . . . . . . . . . . . . . . . . 169 c °V. Steinmetz: Grundzüge der Statistik –249– ◦ n pk ◦ theoretische absolute Häufigkeit . . . . . . . . . . . . . . . . . . . 169 FY hypothetische Verteilungsfunktion . . . . . . . . . . . . . . . . . 169 1A (x) Indikatorfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 Rn6= n-Tupel reeller Zahlen mit paarweise verschiedenen Elementen . . . . . . . . . . . . . . . . . . . . . . . . . . 171 Rj (x) j-te Rangstatistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 w0 Testgröße des Wilcoxon-Rangsummentests . . . . . . . . . 173 δ : X → P(γ(Θ)) Parameterbereichsschätzung . . . . . . . . . . . . . . . . . . . . . . . 174 y = (y1 , ..., yT )0 T -dimensionaler Zufallsvektor (bzw. seine Realisation) . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 β = (β0 , ..., βn )0 (n + 1)-dimensionaler deterministischer Vektor (Regressionskoeffizient) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 u = (u1 , ..., uT )0 T -dimensionaler Zufallsvektor von Störungen . . . . . . 179 (y, X) Beobachtungswertmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . 179 ι Einsvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 Σy y0 Varianz-Kovarianzmatrix von y . . . . . . . . . . . . . . . . . . . . 180 b β KQ-Schätzung von β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 b y geschätzter y-Vektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 σ b2 (y) empirische Streuung der Beobachtungen . . . . . . . . . . . 185 u b KQ-Residuum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 σ b2 (b y) durch die Regression erklärte Streuung der Beobachtungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 σ b2 (b u) nicht erklärte Reststreuung . . . . . . . . . . . . . . . . . . . . . . . . 185 R2 empirisches Bestimmtheitsmaß . . . . . . . . . . . . . . . . . . . . 186 DW Durbin-Watson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 x ∈ M, M 3 x x ist Element der Menge M . . . . . . . . . . . . . . . . . . . . . . . 194 x∈ / M, M 63 x x ist kein Element der Menge M . . . . . . . . . . . . . . . . . . 194 ∀ Allquantor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 c °V. Steinmetz: Grundzüge der Statistik –250– ∃ Existenzquantor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 ˙ ∃!x, ∃x es gibt genau ein x mit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 6∃ x es gibt kein x mit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 ∅ leere Menge, Nullmenge . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 A ⊆ B, B ⊇ A A ist Teilmenge von B . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 A ⊂ B, B ⊃ A A ist echte Teilmenge von B . . . . . . . . . . . . . . . . . . . . . . . 195 P(A) Potenzmenge von A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 N Menge der natürlichen Zahlen . . . . . . . . . . . . . . . . . . . . . 196 Z Menge der ganzen Zahlen. . . . . . . . . . . . . . . . . . . . . . . . . . 196 Q=P Menge der rationalen Zahlen . . . . . . . . . . . . . . . . . . . . . . 196 R Menge der reellen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . 196 R+ Menge der nicht negativen reellen Zahlen . . . . . . . . . . 196 R++ Menge der positiven reellen Zahlen . . . . . . . . . . . . . . . . 196 ], [ ; [, ] ; ], ] ; [, [ Intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 A∩B Durchschnitt der Mengen A und B . . . . . . . . . . . . . . . . 198 A∪B Vereinigung der Mengen A und B . . . . . . . . . . . . . . . . . 198 A \ B, A − B Differenz der Mengen A und B . . . . . . . . . . . . . . . . . . . . 198 CΩ A Komplement von A bzgl. Ω. . . . . . . . . . . . . . . . . . . . . . . . 198 A4B symmetrische Differenz von A und B . . . . . . . . . . . . . . 199 (a, b) geordnetes Paar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 (a1 , ..., an ) geordnetes n-Tupel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 A×B kartesisches Produkt von A und B . . . . . . . . . . . . . . . . . 201 Ai kartesisches Produkt von A1 , A2 , ..., An . . . . . . . . . . . . 201 n i=1 a Spaltenvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 A0 transponierte Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 I Einheitsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 D Diagonalmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 c °V. Steinmetz: Grundzüge der Statistik –251– E Einsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 O Nullmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 0 Nullvektor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 ej j-ter Einheitsvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 A·j j-ter Spaltenvektor einer Matrix A . . . . . . . . . . . . . . . . 204 A0i· i-ter Zeilenvektor einer Matrix A . . . . . . . . . . . . . . . . . . 204 rg A Rang einer Matrix A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 det A Determinante einer Matrix A . . . . . . . . . . . . . . . . . . . . . . 209 A−1 A= · A11 A12 A21 A22 ¸ Inverse einer Matrix A . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 Zerlegung von A in Blockmatrizen . . . . . . . . . . . . . . . . . 211 tr(A) Spur einer Matrix A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 q(x) quadratische Form. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 EZ Erwartungswert einer Zufallsmatrix . . . . . . . . . . . . . . . . 216 Σz z0 Varianz-Kovarianz-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . 217 N (µ, Σ) mehrdimensionale Normalverteilung . . . . . . . . . . . . . . . 218 c °V. Steinmetz: Grundzüge der Statistik –252– Literaturverzeichnis zu den Vorlesungen ”Grundzüge der Statistik” Teil A und B Bamberg,G., Baur,F.: Statistik, München, Wien 2001 Bamberg,G., Baur,F.: Statistik Arbeitsbuch, München, Wien 2000 Barth,F., Haller,R.: Stochastik, Leistungskurs, München 1998 Basler,H.: Grundbegriffe der Wahrscheinlichkeitsrechnung und statistischen Methodenlehre, Heidelberg 2000 Basler,H.: Aufgabensammlung zur statistischen Methodenlehre und Wahrscheinlichkeitsrechnung, Würzburg 1991 Becker,B.: Statistik, München, Wien 1993 Bol,G.: Deskripitve Statistik, München, Wien 2001 Bol,G.: Induktive Statistik, München, Wien 1998 Bol,G.: Wahrscheinlichkeitstheorie, Einführung, München, Wien 2001 Bomsdorf,E.: Deskriptive Statistik, Bergisch Gladbach, Köln 1999 Bosch,K.: Statistik-Taschenbuch, München, Wien 1998 Bosch,K.: Großes Lehrbuch der Statistik, München, Wien 1996 Buttler,G., Stroh,R.: Einführung in die Statistik, Reinbek 2000 Fahrmeir,L. u.a.: Statistik, Der Weg zur Datenanalyse, Berlin u.a. 2001 Hansen,G.: Methodenlehre der Statistik, München 1985 Hartung,J., Elpelt,B., Klösener,K.-H.: Statistik, Lehr- und Handbuch der angewandten Statistik, München, Wien 1999 Hartung,J., Heine,B.: Statistik-Übungen, Deskriptive Statistik, München, Wien 1999 c °V. Steinmetz: Grundzüge der Statistik –253– Hartung,J., Heine,B.: Statistik-Übungen, Induktive Statistik, München, Wien 1996 Heigl,F., Feuerpfeil,J.: Leistungskurs Stochastik, München 1999 Karmann,A.: Mathematik für Wirtschaftswissenschaftler, München, Wien 2000 Krämer,W.: So lügt man mit Statistik, München 2001 Krämer,W.: Denkste! München 1998 Krämer,W.: Statistik verstehen, München 2001 Kraft,M., Landes,Th., Braun,K.: Statistische Methoden, Eine Einführung für das Grundstudium in den Wirtschafts- und Sozialwissenschaften, Heidelberg 1996 Krug,W., Nourney,M.: Wirtschafts- und Sozialstatistik: Gewinnung von Daten, München, Wien 2001 Lehn,J., Wegmann,H.: Einführung in die Statistik, Stuttgart 2000 Lehn,J., Wegmann,H., Rettig,S.: Aufgabensammlung zur Einführung in die Statistik, Stuttgart 2001 v.d.Lippe,P.: Deskriptive Statistik, München 1999 Mann,P.S.: Statistics for Business and Economics, New York et al. 1995 Opitz,O.: Mathematik, Lehrbuch für Ökonomen, München 1999 Pfanzagl,J.: Allgemeine Methodenlehre der Statistik I, II. Berlin, New York, Bd. I: 1983, Bd. II: 1978 Polasek,W.: Schließende Statistik, Einführung in die Schätz- und Testtheorie für Wirtschaftswissenschaftler, Berlin 1996 Rüger,B.: Induktive Statistik, Einführung für Wirtschafts- und Sozialwissenschaftler, München, Wien 1996 Schaich,E. u.a.: Statistik Arbeitsbuch, München 1994 Schaich,E. u.a.: Statistik für Volkswirte, Betriebswirte und Soziologen I, II. München, Bd. I: 1993, Bd. II: 1990 c °V. Steinmetz: Grundzüge der Statistik –254– Schlittgen,R.: Einführung in die Statistik, München, Wien 2000 Schulze,P.M.: Beschreibende Statistik, München, Wien 2000 Schwarze,J.: Grundlagen der Statistik I, Beschreibende Verfahren. Herne, Berlin 2001 Wehrt, K.: Beschreibende Statistik, Frankfurt, New York 1984 c °V. Steinmetz: Grundzüge der Statistik