KOMPAKTSKRIPT Grundzüge der Statistik Teil A und Teil B

Werbung
KOMPAKTSKRIPT
zu den Vorlesungen
Grundzüge der Statistik
Teil A und Teil B
von
Volker Steinmetz
Universität des Saarlandes
(Auflage WS 2002/2003)
I
Inhaltsverzeichnis
WARNUNG
1 Ergänzungen aus
1.1 Abbildungen .
1.2 Mächtigkeit .
1.3 Kombinatorik
IV
der Mengenlehre
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Wahrscheinlichkeitsräume
2.1 Stichprobenräume und Ereignisräume . . . . . . .
2.2 Wahrscheinlichkeitsräume . . . . . . . . . . . . .
2.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit
2.4 Abbildungen von Stichprobenräumen . . . . . . .
2.5 Produkte von Wahrscheinlichkeitsräumen . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Zufallsvariablen
3.1 Eindimensionale Zufallsvariablen . . . . . . . . . . . . . . . .
3.2 Abbildungen eindimensionaler Zufallsvariablen . . . . . . . . .
3.3 Mehrdimensionale Zufallsvariablen . . . . . . . . . . . . . . .
3.4 Bedingte Verteilungen und Unabhängigkeit von Zufallsvariablen
4 Maßzahlen der Verteilung von Zufallsvariablen
4.1 Momente eindimensionaler Zufallsvariablen . . .
4.2 Momente zweidimensionaler Zufallsvariablen . .
4.3 Korrelationskoeffizient . . . . . . . . . . . . . .
4.4 Modus und Quantile . . . . . . . . . . . . . . .
4.5 Ungleichung von Tschebyschev . . . . . . . . . .
4.6 Das schwache Gesetz der großen Zahlen und der
wertsatz . . . . . . . . . . . . . . . . . . . . . .
5 Deskriptive Statistik
5.1 Grundbegriffe . . . . .
5.2 Häufigkeitsverteilungen
5.3 Häufigkeitsverteilungen
5.4 Konzentrationsmaße .
5.5 Verhältniszahlen . . . .
5.6 Indexzahlen . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
zentrale Grenz. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
22
28
34
36
38
50
54
59
66
74
78
82
84
86
.
.
.
.
.
.
89
95
106
115
127
129
6 Grundlagen der schließenden Statistik
6.1 Drei Grundannahmen . . . . . . . . . . . . . . . . . . . . . . .
6.2 Stichproben . . . . . . . . . . . . . . . . . . . . . . . . . . . .
132
134
7 Parameterpunktschätzungen
7.1 Parameterpunktschätzfunktionen und Eigenschaften . . . . . .
7.2 Maximum-Likelihood-Methode . . . . . . . . . . . . . . . . . .
140
146
c
°V.
Steinmetz: Grundzüge der Statistik
. . . . . . . . . . . . . . . . .
eindimensionaler Merkmale .
zweidimensionaler Merkmale
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
1
9
13
II
8 Tests und Parameterbereichsschätzungen
8.1 Grundbegriffe der Testtheorie . . . . . . . . . . . . . . . . . .
8.2 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei bekannter Varianz (Gauß-Tests) . . . . . . . . . . .
8.3 Gütefunktion eines Tests . . . . . . . . . . . . . . . . . . . . .
8.4 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei unbekannter Varianz (t-Tests) . . . . . . . . . . . .
8.5 Binomialtests . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.6 Tests über die Erwartungswerte zweier normalverteilter Zufallsvariablen mit unbekannten Varianzen (t-Tests) . . . . . . . . .
8.7 Tests über die Varianzen normalverteilter Zufallsvariablen (χ2 Tests, F -Tests) . . . . . . . . . . . . . . . . . . . . . . . . . .
8.8 Chi-Quadrat-Anpassungstest . . . . . . . . . . . . . . . . . . .
8.9 Wilcoxon-Rangsummentest für unverbundene Stichproben . .
8.10 Parameterbereichsschätzungen . . . . . . . . . . . . . . . . . .
148
152
156
159
161
163
165
169
171
174
9 Wirtschaftsstatistik im Überblick
9.1 Zur Geschichte der Wirtschaftsstatistik . . . . . . . . . . . . .
9.2 Gewinnung wirtschaftsstatistischer Daten . . . . . . . . . . . .
9.3 Probleme der Operationalisierung und Messung . . . . . . . .
10 Das
10.1
10.2
10.3
10.4
10.5
klassische lineare Regressionsmodell
Bereitstellung des Modells . . . . . . . . . . . . . . . . . .
Die Methode der kleinsten Quadrate . . . . . . . . . . . .
Stochastische Eigenschaften der KQ-Schätzer . . . . . . . .
Schätzungen und Tests unter Normalverteilungsannahmen
Autokorrelation in den Störvariablen . . . . . . . . . . . .
.
.
.
.
.
178
181
188
190
192
A Grundbegriffe der Mengenlehre
A.1 Mengen und Teilmengen . . . . . . . . . . . . . . . . . . . . .
A.2 Mengenoperationen . . . . . . . . . . . . . . . . . . . . . . . .
A.3 Produktmengen . . . . . . . . . . . . . . . . . . . . . . . . . .
194
198
201
B Hilfsmittel aus der Matrizenrechnung
B.1 Matrizen und Vektoren . . . . . . . . . . . . .
B.2 Verknüpfungen von Matrizen . . . . . . . . . .
B.3 Lineare Unabhängigkeit . . . . . . . . . . . .
B.4 Rang einer Matrix . . . . . . . . . . . . . . .
B.5 Determinante einer Matrix . . . . . . . . . . .
B.6 Inverse einer Matrix . . . . . . . . . . . . . .
B.7 Unterteilte Matrizen . . . . . . . . . . . . . .
B.8 Spur einer Matrix . . . . . . . . . . . . . . . .
B.9 Orthogonale Matrizen, idempotente Matrizen
B.10 Definite Matrizen, quadratische Formen . . .
B.11 Matrizen von Zufallsvariablen . . . . . . . . .
B.12 Mehrdimensionale Normalverteilung . . . . . .
202
205
207
208
209
210
211
213
214
215
216
218
c
°V.
Steinmetz: Grundzüge der Statistik
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
III
C Tabellen
C.1 Tabelle zur Standardnormalverteilung
C.2 Quantile der t-Verteilungen . . . . .
C.3 Quantile der χ2 -Verteilungen . . . . .
C.4 Tabelle zur Poissonverteilung . . . .
C.5 Quantile der F -Verteilungen . . . . .
C.6 (Pseudo-)Zufallszahlen . . . . . . . .
C.7 Spielanleitung zum Roulette . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Formelsammlung zu den Diplomprüfungsklausuren
Index
Literaturverzeichnis
Änderungen
c
°V.
Steinmetz: Grundzüge der Statistik
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
219
221
222
223
224
226
228
IV
WARNUNG
Das vorliegende Kompaktskript ist kein Lehrbuch, sondern es soll die Hörer
der Grundzügevorlesungen zur Statistik von dem ablenkenden und oft fehlerhaften Mitschreiben der Formeln entlasten und es ihnen erleichtern, sich auf die
vorgetragenen Motivationen und Erläuterungen zu konzentrieren und hierüber
individuelle Notizen anzufertigen. Dementsprechend sind in diesem Skript nur
formale Definitionen und Sätze mit Beweisen oder entsprechenden Literaturangaben enthalten, Bemerkungen dienen zur Ergänzung des Stoffes. Die Motivation und Erläuterung der aufgeführten Begriffe und Aussagen sowie die Behandlung von Beispielen bleiben der Vorlesung und auch den begleitenden Übungen
vorbehalten. Ebenso werden Hinweise auf ergänzende und vertiefende Literatur
im Verlauf der Vorlesung gegeben.
c
°V.
Steinmetz: Grundzüge der Statistik
–1–
1 Ergänzungen aus der Mengenlehre
1.1 Abbildungen
1.1.1 Definition:
Es seien A, B zwei nicht leere Mengen und F ⊆ A × B mit der Eigenschaft:
(∀ x ∈ A)(∃˙ y ∈ B)((x, y) ∈ F ).
Man bezeichnet f = (F, A, B) als Abbildung (mapping) von A in B. A heißt
Definitionsbereich (Urbildmenge, domain) von f, B heißt Wertevorrat von f (codomain) und F der Graph von f . Genau dann, wenn (x, y) ∈ F gilt, nennt man
y das Bild von x bezüglich f und x einen Urbildpunkt von y bezüglich f .
Man schreibt
y = f (x) oder x 7→ y.
Man stellt f als Abbildung von A in B auch durch das Symbol
f
f : A → B oder A → B dar.
1
1.1.2 Folgerung:
Für zwei Abbildungen f = (F, A, B) und g = (G, M, N ) gilt:
f = g ⇔ (F = G) ∧ (A = M ) ∧ (B = N )
⇔ (A = M ) ∧ (B = N ) ∧ (∀ x ∈ A)(f (x) = g(x)).
1.1.3 Definition:
Die Abbildung f : A → A mit (∀ x ∈ A)(f (x) = x) heißt die identische
Abbildung oder Identität (identity) von A. Man bezeichnet sie mit iA , oft auch
mit idA .
1.1.4 Satz:
Es seien f : A → B und g : B → D zwei Abbildungen. Durch die Festsetzung
(∀ x ∈ A)(h(x) := g(f (x)))
ist eine Abbildung h : A → D definiert.
1
Bisweilen wird statt f auch f (.) geschrieben.
c
°V.
Steinmetz: Grundzüge der Statistik
–2–
1.1.5 Definition:
Es seien f : A → B und g : B → D zwei Abbildungen. Die durch die Festsetzung
(∀ x ∈ A)(h(x) := g(f (x)))
definierte Abbildung h : A → D heißt die aus f und g zusammengesetzte
Abbildung (composite mapping).
Man bezeichnet sie mit g ◦ f oder g(f ), liest ”g nach f ” und schreibt
g(f (x)) = (g ◦ f )(x) = (g(f ))(x).
1.1.6 Definition:
Eine Abbildung f : A → B heißt injektiv (eineindeutig in, 1-1 in, Injektion, one
to one), wenn verschiedene Elemente aus A auch verschiedene Bildpunkte in B
haben, d.h. wenn gilt:
(∀ x, y ∈ A)(x 6= y ⇒ f (x) 6= f (y)).
1.1.7 Definition:
Eine Abbildung f : A → B heißt surjektiv (Abbildung von A auf B, Surjektion,
onto), wenn jeder Punkt aus B mindestens einen Urbildpunkt in A hat, d.h.
wenn gilt:
(∀ y ∈ B)(∃ x ∈ A)(f (x) = y).
1.1.8 Definition:
Eine Abbildung f : A → B heißt bijektiv (eineindeutig auf, 1-1 auf, Bijektion),
wenn jeder Punkt aus B genau einen Urbildpunkt in A hat, d.h. wenn gilt
(∀ y ∈ B)(∃˙ x ∈ A)(f (x) = y).
1.1.9 Folgerung:
Eine Abbildung ist genau dann bijektiv, wenn sie injektiv und surjektiv ist.
1.1.10 Folgerung:
Die Identität iA einer Menge A ist bijektiv.
c
°V.
Steinmetz: Grundzüge der Statistik
–3–
1.1.11 Satz:
Es sei f : A → B eine bijektive Abbildung. Dann gibt es genau eine Abbildung
h : B → A mit
(∀ x ∈ A)((h ◦ f )(x) = x),
d.h. h ◦ f = iA .
1.1.12 Definition:
Die in Satz (1.1.11) eingeführte Abbildung h nennt man Umkehrabbildung oder
Inverse zu f und bezeichnet sie mit f −1 .
1.1.13 Folgerung:
Es seien f : A → B und g : B → D zwei bijektive Abbildungen. Dann gilt:
(.1) f −1 ist eine bijektive Abbildung von B auf A.
(.2) (f −1 )−1 = f
(.3) f −1 ◦ f = iA
(.4) f ◦ f −1 = iB
(.5) g ◦ f ist eine bijektive Abbildung von A auf D.
(.6) (g ◦ f )−1 = f −1 ◦ g −1
1.1.14 Definition:
Es seien f : A → B eine Abbildung und à ⊆ A. Man bezeichnet
f (Ã) := {y ∈ B | (∃ x ∈ Ã)(f (x) = y)}
als Bild(menge) (image) von à bzgl. f .
1.1.15 Bemerkung:
Die Abbildung f : A → B kann nur auf Elemente von A angewendet werden,
nicht auf Teilmengen à ⊆ A. Bei
f (Ã), Ã ⊆ A
handelt es sich also um ein neu zu definierendes Symbol, genau genommen hat
man eine neue Abbildung
P(A) → P(B)
konstruiert. Man spricht von der durch f induzierten Abbildung von P(A) in
P(B).
c
°V.
Steinmetz: Grundzüge der Statistik
–4–
1.1.16 Definition:
Es seien f : A → B eine Abbildung und B̃ ⊆ B. Man bezeichnet
f −1 (B̃) := {x ∈ A | f (x) ∈ B̃}
als Urbild(menge) (inverse image) von B̃ bzgl. f .
1.1.17 Bemerkung:
f −1 bezeichnet in f −1 (B̃) nicht die inverse Abbildung zu f , diese muß nicht
einmal existieren; wenn sie aber existiert, ist sie nur auf die Elemente von B,
nicht aber auf Teilmengen B̃ ⊆ B anwendbar. Genau genommen wird durch die
obige Definition eine neue Abbildung
P(B) → P(A)
induziert; man spricht von der durch f induzierten inversen Abbildung von
P(B) in P(A). Sie ist i.a. auch nicht die Inverse zu der in Bemerkung (1.1.15)
erwähnten induzierten Abbildung, letztere ist i.a. nicht einmal bijektiv.
1.1.18 Satz:
Es seien f : A → B eine Abbildung und
A1 , A2 ⊆ A; B1 , B2 ⊆ B. Dann gilt:
(.1) f (A1 ∪ A2 ) = f (A1 ) ∪ f (A2 )
(.2) f (A1 ∩ A2 ) ⊆ f (A1 ) ∩ f (A2 )
(.3) f −1 (B1 ∪ B2 ) = f −1 (B1 ) ∪ f −1 (B2 )
(.4) f −1 (B1 ∩ B2 ) = f −1 (B1 ) ∩ f −1 (B2 )
(.5) f −1 (f (A1 )) ⊇ A1
(.6) f (f −1 (B1 )) ⊆ B1
(.7) A1 ⊆ A2 ⇒ f (A1 ) ⊆ f (A2 )
(.8) B1 ⊆ B2 ⇒ f −1 (B1 ) ⊆ f −1 (B2 )
(.9) f −1 (CB B1 ) = CA (f −1 (B1 ))
(.10) f (A1 ) = ∅ ⇔ A1 = ∅
(.11) B1 = ∅ ⇒ f −1 (B1 ) = ∅
Beweis:
zu (.1)
c
°V.
Steinmetz: Grundzüge der Statistik
–5–
a) z.z. f (A1 ∪ A2 ) ⊆ f (A1 ) ∪ f (A2 )
(1.1.14)
Sei y ∈ f (A1 ∪ A2 ) ⇒ (∃ x ∈ A1 ∪ A2 )(f (x) = y)
1.Fall x ∈ A1
(1.1.14)
⇒ y ∈ f (A1 ) ⇒ y ∈ f (A1 ) ∪ f (A2 )
(1.1.14)
2.Fall x ∈ A2 ⇒ y ∈ f (A2 ) ⇒ y ∈ f (A1 ) ∪ f (A2 )
also gilt
y ∈ f (A1 ∪ A2 ) ⇒ y ∈ f (A1 ) ∪ f (A2 )
d.h.
f (A1 ∪ A2 ) ⊆ f (A1 ) ∪ f (A2 )
b) z.z. f (A1 ∪ A2 ) ⊇ f (A1 ) ∪ f (A2 )
Sei y ∈ f (A1 ) ∪ f (A2 )
(1.1.14)
1. Fall y ∈ f (A1 ) ⇒ (∃x ∈ A1 )(y = f (x))
A1 ⊆A1 ∪A2
⇒
(∃x ∈ A1 ∪ A2 )(y = f (x))
(1.1.14)
⇒ y ∈ f (A1 ∪ A2 )
2. Fall y ∈ f (A2 ) ⇒ · · · ⇒ y ∈ f (A1 ∪ A2 )
also gilt
y ∈ f (A1 ) ∪ f (A2 ) ⇒ y ∈ f (A1 ∪ A2 )
d.h.
f (A1 ) ∪ f (A2 ) ⊆ f (A1 ∪ A2 )
Aus Teil a) und Teil b) folgt
f (A1 ∪ A2 ) = f (A1 ) ∪ f (A2 )
Die anderen Beweise führt man ähnlich. Die Asymmetrie der Aussagen (.2),
(.5), (.6), (.7), (.8) und (.11) kann man durch Beispiele nachweisen.
zu (.2)
Nachdem man die Gültigkeit der Teilmengenrelation bewiesen hat, ist noch ungeklärt, ob man die in (.2) aufgestellte Behauptung nicht zur Gleichheit der
beiden Mengen verschärfen könnte. Daß dies unmöglich ist, zeigt die folgende Abbildung zusammen mit den Mengen A1 und A2 . Es sei f : A → B die
Abbildung mit
A := {a, b, c}, B := {α, β, γ} und A1 := {a, b}, A2 := {b, c}
sowie
f (a) = α
f (b) = β
f (c) = α
Dann gilt:f (A1 ∩ A2 ) = f ({b}) = {β} $ {α, β} = f (A1 ) ∩ f (A2 ).
c
°V.
Steinmetz: Grundzüge der Statistik
–6–
1.1.19 Definition:
Als Familie (family) von Elementen einer Menge M mit der Indexmenge (index
set) J bezeichnet man eine Abbildung
f :J →M
und schreibt unter Verwendung der Abkürzung
mj := f (j) für alle j ∈ J
für diese Familie auch
(mj )j∈J .
Ist J ⊆ N, so spricht man von einer Folge (sequence) von Elementen aus M .
1.1.20 Definition:
Es seien A eine Menge, (Aj )j∈J eine Familie von Teilmengen von A und J˜ ⊆ J.
Unter der Vereinigung (union) der Aj bzgl. J˜ versteht man die Menge
(.1)
S
˜
Aj := {x ∈ A | (∃j ∈ J)(x
∈ Aj )}.
T
˜
Aj := {x ∈ A | (∀j ∈ J)(x
∈ Aj )}.
j∈J˜
Unter dem Durchschnitt (intersection) der Aj bzgl. J˜ versteht man die Menge
(.2)
j∈J˜
1.1.21 Bemerkung:
Eine Verallgemeinerung der Aussagen (.1) bis (.4) in Satz (1.1.18) auf Vereinigungen und Durchschnitte von Familien von Mengen ist leicht zu beweisen.
1.1.22 Satz:
Es seien (Aj )j∈J eine Familie von Teilmengen einer Menge A, B eine weitere
Teilmenge von A und J˜ ⊆ J.
Dann gilt:
S
T
Aj ⊆ A ∀k ∈ J˜
Aj ⊆ A k ⊆
(.1) ∅ ⊆
˜
˜
j∈J
µ j∈J ¶
S
T
(.2) CA
Aj =
CA A j
j∈J˜
j∈J˜
¶
µ
S
T
CA A j
Aj =
(.3) CA
j∈J˜
j∈J˜
¶
µ
S
S
(B ∩ Aj )
Aj =
(.4) B ∩
j∈J˜
j∈J˜
µ
¶
T
T
Aj =
(.5) B ∪
(B ∪ Aj )
j∈J˜
j∈J˜
c
°V.
Steinmetz: Grundzüge der Statistik
–7–
Beweis:
zu (.1)
T
Die leere Menge ist Teilmenge jeder Menge, also auch von
Aj .
Ist x ∈
T
j∈J˜
j∈J˜
˜
Aj , so gilt nach (1.1.20.2) (∀j ∈ J)(x
∈ Aj ), insbesondere wegen
k ∈ J˜ auch x ∈ Ak , also
T
j∈J˜
Aj ⊆ A k .
Ist xS
∈ Ak , so gilt nachS(1.1.20.1) wegen k ∈ J˜ auch
x∈
Aj , also Ak ⊆
Aj .
j∈J˜
j∈J˜
Wegen (1.1.20.1) folgt die letzte Teilmengenrelation.
zu (.2)
S
S
˜
x ∈ C Aj ⇔ x ∈
/ Aj ⇔ (∀j ∈ J)(x
∈
/ Aj )
T
˜
⇔ (∀j S
∈ J)(x
∈
T CAj ) ⇔ x ∈ CAj
also C Aj = CAj
zu (.3)
S
S
T
T
(.2)
CAj = CC CAj = C CCAj = C Aj
zu (.4) S
S
x ∈ B ∩ [ Aj ] ⇔ x ∈ B ∧ x ∈ Aj
˜
˜
⇔x∈B
S ∧ (∃k ∈ J)(x ∈ Ak )S⇔ (∃k ∈SJ)(x ∈ B ∩ Ak )
⇔ x ∈ [B ∩ Aj ], also B ∩ [ Aj ] = [B ∩ Aj ]
zu (.5)
T
T
T
(.2)
B ∪ [ Aj ] = CC(B ∪ [ Aj ]) = C(CB ∩ C[ Aj ])
S
S
(.3)
(.4)
= C(CB ∩ [ CAj ]) = C( [CB ∩ CAj ])
T
(.2) T
= C[CB ∩ CAj ] = [B ∪ Aj ]
1.1.23 Folgerung:
Es seien (Aj )j∈J eine Familie von Teilmengen einer Menge A und J˜ ⊆ J. Für
J˜ = ∅ gilt
(.1)
S
j∈∅
(.2)
T
Aj = ∅
Aj = A
j∈∅
Beweis:
zu (.1)
S
Angenommen, es sei
Aj 6= ∅, d.h., es existiere mindestens ein
j∈∅
c
°V.
Steinmetz: Grundzüge der Statistik
–8–
x∈
S
Aj .
j∈∅
Nach (1.1.20.1) müßte es dann (mindestens) ein j S
∈ J˜ geben mit x ∈ Aj . Wegen
˜ die Annahme
J˜ = ∅ gibt es aber kein j ∈ J,
Aj 6= ∅ hat also zu einem
j∈∅
Widerspruch geführt.
zu (.2)
T
T
Aj
A j = C A CA
(nach A.2.9.3)
CA A j
(nach 1.1.22.3)
j∈∅
j∈∅
= CA
S
j∈∅
= CA ∅ (nach .1)
= A (nach A.2.9.3)
(Man beachte: Das Ergebnis der Durchschnittbildung bei leerem J˜ hängt von
der betrachteten Grundmenge A ab.)
1.1.24 Definition:
Es sei (Aj )j∈J eine Familie von Teilmengen einer Menge A. (Aj )j∈J heißt eine
Zerlegung (partition) von A, wenn gilt
(.1) A =
S
Aj
j∈J
(.2) Ai ∩ Aj = ∅ für alle i 6= j, i, j ∈ J
(.3) Aj 6= ∅ für alle j ∈ J.
c
°V.
Steinmetz: Grundzüge der Statistik
–9–
1.2 Mächtigkeit
1.2.1 Definition:
Zwei Mengen A und B heißen gleichmächtig
(in Zeichen A ∼ B), wenn es eine Bijektion von A auf B gibt.
1.2.2 Satz:
Es seine A, B, D drei Mengen. Dann gilt:
(.1) A ∼ A
(.2) A ∼ B ⇔ B ∼ A
(.3) A ∼ B ∧ B ∼ D ⇒ A ∼ D
Beweis:
zu (.1)
Nach Folgerung (1.1.10) ist iA eine Bijektion von A auf A.
zu (.2)
Ist f : A → B eine Bijektion, so auch f −1 : B → A nach Folgerung (1.1.13).
zu (.3)
Sind f : A → B und g : B → D Bijektionen, so nach Folgerung (1.1.13)
auch g ◦ f : A → D.
1.2.3 Definition:
Eine Menge M heißt endlich (finite), wenn gilt
M = ∅ oder (∃n ∈ N) (M ∼ {1, 2, ..., n}).2
Ist M eine endliche, nicht leere Menge mit M ∼ {1, 2, ..., n} für ein n ∈ N, so
bezeichnet man n als die Anzahl der Elemente von M und schreibt
]M = n (oder auch | M |= n).
Im Fall M = ∅ vereinbart man
]∅ = 0.
1.2.4 Definition:
Eine Menge M heißt abzählbar unendlich (countably infinite), wenn gilt:
2
M ∼ N.
Man kann sich überlegen, daß ein solches n eindeutig bestimmt ist.
c
°V.
Steinmetz: Grundzüge der Statistik
–10–
Eine Menge heißt abzählbar (countable), wenn sie abzählbar unendlich oder
endlich ist. Eine nicht abzählbare Menge heißt überabzählbar (uncountable).
1.2.5 Folgerung:
Die Menge Z = {..., −1, 0, 1, 2, ...} der ganzen Zahlen ist
abzählbar unendlich.
Beweisidee: Man zeigt, daß
f :Z→N
mit
0 1 −1 2 −2 3 −3 ....
↓ ↓
↓ ↓
↓ ↓
↓
1 2
3 4
5 6
7 ....
also
f (x) =
eine Bijektion ist.
½
2x
für x > 0
−2x + 1 für x ≤ 0
1.2.6 Folgerung:
Die Menge Q = { pq | p, q ∈ Z, q 6= 0} der rationalen Zahlen ist abzählbar
unendlich. (Zum Beweis siehe z.B. Barner-Flohr: Analysis I, 3. Auflage, Berlin,
N.Y. 1987, S. 62.)
1.2.7 Folgerung:
Die Menge R der reellen Zahlen ist überabzählbar.
Beweis:
Es gilt R ∼]0, 1[, da durch
f : R →]0, 1[
mit
f (x) =
x
1
+
2 2+2|x|
eine Bijektion von R auf ]0, 1[ gegeben ist.
f (x)
6
1
-
x
c
°V.
Steinmetz: Grundzüge der Statistik
–11–
Also genügt es, zu zeigen, daß ]0, 1[ überabzählbar ist. Jede reelle Zahl 6= 0 läßt
sich eindeutig als nicht abbrechender Dezimalbruch darstellen, also auch jedes
x ∈]0, 1[, z.B. : 21 = 0, 499999.....
Behauptet wird nun: ]0, 1[ ist überabzählbar.
Nehmen wir einmal an, ]0, 1[ sei abzählbar unendlich. Dann müßte es eine
bijektive Abbildung f : N →]0, 1[ geben mit
f (1) = a1 = 0,
a11
f (2) = a2 = 0,
a21
f (3) = a3 = 0,
a31
&
a12
a13
....
a22
a23
....
a33
&
....
a32
&
.....................
Die a1 , a2 , a3 , .... sollen die Folge sämtlicher Elemente der Menge ]0, 1[ darstellen
mit aij ∈ {0, 1, 2, ..., 9}, es dürfen nicht von einer Stelle ab nur Nullen folgen.
Aus den Diagonalelementen wird nun der folgende Dezimalbruch gebildet:
z = 0, a11 a22 a33 a44 ....
Jede Ziffer aii dieses Bruches wird in folgender Weise abgeändert: Man wählt
aus {0, 1, ..., 9} ein bi , i = 1, 2, 3...mit
0 6= b1 6= a11 b1 6= 9
0 6= b2 6= a22
0 6= b3 6= a33
...............
0 6= bi 6= aii
...............
In dem neuen Dezimalbruch sind die aii durch die bi ersetzt:
z 0 = 0, b1 b2 b3 b4 ....
Der Dezimalbruch z 0 ist ein Element von ]0, 1[, er bricht nicht ab, da
(∀i ∈ N)(bi 6= 0). Er unterscheidet sich von jedem ai , i = 1, 2, 3..., wenigstens an
der Stelle aii nach obiger Wahl der bi , d.h. (∀i ∈ N)(f (i) 6= z 0 ).
Damit gibt es also ein z 0 ∈]0, 1[, für das kein i ∈ N existiert mit f (i) = z 0 . Die
Abbildung f ist keine Bijektion von N auf ]0, 1[. Damit ist die Annahme, das
Intervall ]0, 1[ sei abzählbar unendlich, falsch. ]0, 1[ ist auch nicht endlich. Also
ist ]0, 1[ überabzählbar.
Das angewandte Beweisverfahren heißt Cantorsches Diagonalverfahren.
1.2.8 Definition:
Eine Menge M heißt mächtiger als eine Menge N , wenn gilt
Es existiert kein Ñ ⊆ N mit M ∼ Ñ .
c
°V.
Steinmetz: Grundzüge der Statistik
–12–
1.2.9 Satz:
Es seien A und B zwei endliche Mengen. Dann gilt
](A ∪ B) = ]A + ]B − ](A ∩ B) und
](A ∪ B) = ]A + ]B für A ∩ B = ∅.
Beweis:
O.B.d.A. seien die Mengen A und B dargestellt als
A = {a1 , ..., am , r1 , ..., rs }
B = {b1 , ..., bn , r1 , ..., rs }
mit ai 6= aj , ri 6= rj , bi 6= bj für i 6= j und ai 6= rj 6= bl 6= ai .
Dann gilt
A ∪ B = {a1 , ..., am , r1 , ..., rs , b1 , ..., bn }
A ∩ B = {r1 , ..., rs }.
Für die Mächtigkeit der betrachteten Mengen folgt (die entsprechenden Bijektionen sind wegen der Indizierung leicht anzugeben):
]A = m + s, ]B = n + s, ](A ∪ B) = m + n + s
](A ∩ B) = s und somit
](A ∪ B) = m + n + s = (m + s) + (n + s) − s = ]A + ]B − ](A ∩ B).
1.2.10 Satz:
Es seien A und B zwei endliche Mengen. Dann gilt
](A × B) = ]A · ]B
Beweis:
Es seien A = {a1 , ..., am } 6= ∅ und B = {b1 , ..., bn } 6= ∅.
Dann gilt
A × B = {(a1 , b1 ), ..., (a1 , bn ), ..., (am , b1 ), ..., (am , bn )} .
{z
}
{z
}
|
|
n
Paare
n
Paare
|
{z
}
m·n Paare
Ist mindestens eine der beiden Mengen leer, so gilt nach Def. (1.2.3) wegen Def.
(A1.3.2):
A × B = ∅, also ](A × B) = 0 = ]A · ]B.
c
°V.
Steinmetz: Grundzüge der Statistik
–13–
1.3 Kombinatorik
1.3.1 Satz (Zählprinzip):
Es seien A1 , A2 , ..., Ar mit r ∈ N endlich viele endliche Mengen. Dann gilt
r
r
Q
Ai ) = (]Ai )
(.1) ](
i=1
i=1
Beweis:
Es sei definiert ]A1 = n1 , ..., ]Ar = nr . Die Menge
r
i=1
Ai ist die Menge aller
r-Tupel (a1 , a2 , ..., ar ), wobei für die Koordianten des r-Tupels gilt:
a1 ∈ A1 , ..., ar ∈ Ar .
Im Satz wird behauptet, daß es genau n1 · n2 · ... · nr verschiedene solcher r-Tupel
gibt.
a) Zunächst werde die Behauptung anschaulich glaubhaft gemacht:
Wegen ]A1 = n1 hat man n1 Möglichkeiten, die erste Stelle eines r-Tupels
zu besetzen; wegen ]A2 = n2 hat man zu jeder dieser Besetzungen n2
Möglichkeiten, die 2. Stelle eines r-Tupels zu belegen, insgesamt also n1 · n2
Möglichkeiten, die ersten beiden Stellen mit Elementen aus A1 bzw. A2
zu besetzen. Will man die ersten drei Stellen besetzen, so hat man zu jeder der n1 · n2 Möglichkeiten die ersten beiden Plätze zu belegen, noch n3
Möglichkeiten für die 3. Stelle, insgesamt also n1 · n2 · n3 . Führt man dieses
Verfahren fort, hat man also n1 · n2 · ... · nr Möglichkeiten, die r Plätze eines
r-Tupels mit Elementen aus A1 bzw. A2 bzw....bzw. Ar zu belegen.
Bei den Überlegungen unter Punkt a) werden die Möglichkeiten für die ersten drei Plätze ausgerechnet, und dann wird einfach angenommen, daß ”es
schon so weiter gehen werde”, bis alle Plätze belegt sind. Diese Lücke in
der Beweisführung wird durch Anwendung des Prinzips der vollständigen
Induktion geschlossen:
b) Beweis des Satzes mit Hilfe des Prinzips der vollständigen Induktion:
Induktionsbeginn
Für r = 1 lautet die Behauptung (.1) des Satzes
](
1
i=1
Ai ) = ]A1 =
1
Y
]Ai ,
i=1
sie ist also trivialerweise richtig.
Induktionsvoraussetzung
Die Behauptung (.1) sei richtig für r = k, es gelte also
](
c
°V.
Steinmetz: Grundzüge der Statistik
k
i=1
Ai ) =
k
Y
i=1
]Ai
–14–
Induktionsbehauptung
Unter Gültigkeit der Induktionsvoraussetzung ist die Behauptung (.1) richtig
für r = k + 1, d.h. es gilt
](
k+1
i=1
Ai ) =
k+1
Y
]Ai
i=1
Induktionsbeweis
Durch die Festsetzung
k+1
(∀(x1 , ..., xk+1 ) ∈
i=1
ist eine Bijektion
f:
Ai )(f (x1 , ..., xk+1 ) = ((x1 , ..., xk ), xk+1 ))
k+1
i=1
Ai → (
k
i=1
Ai ) × Ak+1
gegeben, es gilt also
k+1
i=1
Ai ∼ (
k
i=1
Ai ) × Ak+1
(∗)
Nach Induktionsvoraussetzung folgt
](
k
i=1
Ai ) =
k
Y
Weiterhin gilt wegen Satz (1.2.10)
h k
i
] (
Ai ) × Ak+1 = ](
i=1
und man erhält
h
] (
k
i=1
]Ai
i=1
k
i=1
Ai ) · ]Ak+1
i k+1
Y
Ai ) × Ak+1 =
]Ai ,
i=1
wegen (∗) ist damit die Induktionsbehauptung und auch der Satz bewiesen.
1.3.2 Definition:
Es sei A eine Menge und r ∈ N. Man bezeichnet jedes r-Tupel
(a1 , ..., ar ) ∈ Ar
als geordnete Probe (Variation) mit Wiederholung vom Umfang r aus A.
1.3.3 Folgerung:
Es sei A eine endliche, nicht leere Menge mit ]A = n, n ∈ N, und es sei r ∈ N.
Dann gibt es
w r
Vn := nr
geordnete Proben (Variationen) mit Wiederholung vom Umfang r aus A.
c
°V.
Steinmetz: Grundzüge der Statistik
–15–
1.3.4 Definition:
Für jedes n ∈ N0 definiert man die Zahl n! ∈ N (gelesen ”n-Fakultät”) durch
(.1)
0! := 1 und n! := n(n − 1)! für alle n ∈ N
Für n, r ∈ N0 mit 0 ≤ r ≤ n definiert man die Zahl (n)r (gelesen ”n tief r”) durch
(.2)
(n)r :=
n!
(n − r)!
Für n, r ∈ N0¡und
¢ 0 ≤ r ≤ n definiert man den Binomialn
koeffizienten r (gelesen ”n über r”) durch
(.3)
¡n¢
r
:=
n!
(n − r)!r!
1.3.5 Definition:
Es seien A eine Menge und r ∈ N. Man bezeichnet jedes r-Tupel
(a1 , ..., ar ) ∈ Ar mit ai 6= aj für i 6= j
als geordnete Probe (Variation) ohne Wiederholung vom Umfang r aus A.
1.3.6 Satz:
Es sei A eine endliche, nicht leere Menge mit ]A = n, n ∈ N und es sei r ∈ N
mit 1 ≤ r ≤ n. Dann gibt es
Vnr := n(n − 1) · . . . · (n − r + 1) = (n)r
geordnete Proben (Variationen) ohne Wiederholung vom Umfang r aus A.
Beweis:
Der exakte Beweis müßte wieder mit Hilfe der vollständigen Induktion geführt
werden. Hier soll sich auf die Darstellung der Beweisidee beschränkt werden:
Wegen n = ]A hat man n Möglichkeiten, die erste Stelle eines r-Tupels
(a1 , ..., ar ) ∈ Ar zu besetzen. Da aber kein Element aus A mehrmals in einer
geordneten Probe ohne Wiederholung auftreten darf, hat man zu jeder Besetzung der 1. Stelle nur noch n − 1 Möglichkeiten, die zweite Stelle zu besetzen,
insgesamt also n · (n − 1) Möglichkeiten für die Besetzung der ersten beiden
r-Tupelstellen.
Will man die ersten 3 Stellen besetzen, so hat man zu jeder dieser n(n − 1)
Möglichkeiten für die ersten beiden Stellen noch n − 2 Elemente zur Besetzung
für die 3. Stelle zur Auswahl, insgesamt also n(n − 1)(n − 2) Möglichkeiten.
Führt man dieses Verfahren fort, so hat man für die r Stellen insgesamt
n(n − 1) · . . . · (n − r + 1) = (n)r =
c
°V.
Steinmetz: Grundzüge der Statistik
n!
(n − r)!
–16–
Möglichkeiten.
Da man bei einer Probe ohne Wiederholung nicht mehr Elemente verwenden
kann, als A insgesamt enthält, muß hier der Probenumfang eingeschränkt werden: 1 ≤ r ≤ n.
1.3.7 Definition:
Es sei A eine endliche, nicht leere Menge mit ]A = n, n ∈ N. Jedes n-Tupel
(a1 , ..., an ) ∈ An mit ai 6= aj für i 6= j
heißt eine Permutation von A.
1.3.8 Folgerung:
Es sei A eine endliche, nicht leere Menge mit ]A = n, n ∈ N. Dann gibt es n!
Permutationen von A.
1.3.9 Definition:
Es seien A eine nicht leere Menge und r ∈ N. Man bezeichnet jede endliche,
nicht leere Teilmenge à ⊆ A mit ]à = r als ungeordnete Probe (Kombination)
ohne Wiederholung vom Umfang r aus A.
1.3.10 Satz:
Es sei A eine endliche, nicht leere Menge mit ]A = n, n ∈ N und es sei r ∈ N
mit 1 ≤ r ≤ n. Dann gibt es
µ ¶
n
n!
r
Cn :=
=
(n − r)! r!
r
ungeordnete Proben (Kombinationen) ohne Wiederholung vom Umfang r aus
A.
Beweis:
Es sei α die unbekannte Anzahl der ungeordneten Proben ohne Wiederholung
vom Umfang r aus A, also die Anzahl der Teilmengen à von A mit genau r
Elementen. Zu jeder dieser Teilmengen gibt es nach Satz (1.3.6) genau
(r)r = r!
geordnete Proben ohne Wiederholung vom Umfang r.
Da es α verschiedene dieser Teilmengen gibt, erhält man auf diese Weise
α · r!
verschiedene geordnete Proben ohne Wiederholung vom Umfang r aus A. Da
andererseits auch jede geordnete Probe ohne Wiederholung vom Umfang r aus
A bei dieser Konstruktion erfaßt wird, muß mit Satz (1.3.6) auch gelten
α · r! = (n)r
c
°V.
Steinmetz: Grundzüge der Statistik
–17–
also
n!
α=
=
(n − r)! r!
µ ¶
n
r
1.3.11 Bemerkung:
Da ungeordnete Proben ohne Wiederholung als Teilmengen eingeführt wurden,
ist in Satz (1.3.10) gezeigt
¡n¢ worden, daß jede endliche, nicht leere Menge A mit
]A = n, n ∈ N, genau r Teilmengen à mit r Elementen (1 ≤ r ≤ n) enthält.
Wegen ]∅ = 0 und 0! = 1 ist diese Formel auch für A = ∅ oder r = 0 richtig.
1.3.12 Vereinbarung:
Es seien A eine nicht leere Menge und r ∈ N. Jede Auswahl von r Elementen
aus A ohne Berücksichtigung der Reihenfolge, bei der die einzelnen Elemente
mehrfach vorkommen dürfen, heißt eine ungeordnete Probe (Kombination) mit
Wiederholung vom Umfang r aus A.
1.3.13 Satz:
Es sei A eine nicht leere, endliche Menge mit ]A = n, n ∈ N, und es sei r ∈ N.
Dann gibt es
¶
µ
n+r−1
w r
Cn :=
r
ungeordnete Proben (Kombinationen) mit Wiederholung vom Umfang r aus A.
Beweis:
Zum Beweis übertragen wir die Problemstellung auf ein Urnenmodell: Gegeben
seien n Urnen U1 , ..., Un , zusammengefaßt zu der Menge
A = {U1 , ..., Un } ]A = n,
weiterhin r nicht unterscheidbare Kugeln. Eine ungeordnete Probe mit Wiederholung vom Umfang r aus A können wir uns wie folgt entstanden denken:
Wir wählen eine Urne aus und kennzeichnen diese ”gezogene” Urne, indem wir
eine der r Kugeln hineinlegen. Dieses Auswählen wird wiederholt, bis alle r
Kugeln verteilt sind. Die möglichen Kugelverteilungen entsprechen den ungeordneten Proben mit Wiederholung, denn zum einen kann jede Urne mehrmals
herausgegriffen werden, zum anderen sind die Kugeln nicht unterscheidbar, das
Vertauschen von Kugeln (Änderung der Reihenfolge) liefert keine neue Kugelverteilung.
Wieviele Kugelverteilungen sind möglich? Wir symbolisieren eine Kugelverteilung durch eine Graphik der folgenden Art
◦ |.
◦◦ | ... | |{z}
◦ | |{z} | |{z}
| ◦| ◦{z◦◦} | |{z}
U1
U2
U3
U4
Un
Dabei stellen die Kreise die r Kugeln dar. Die n Urnen werden durch senkrechte
Striche abgegrenzt, wobei aufeinanderfolgende Urnen jeweils nur durch einen
c
°V.
Steinmetz: Grundzüge der Statistik
–18–
Strich getrennt sind. Man benötigt also als Symbole
r Kreise
n + 1 Striche,
also insgesamt n + r + 1 Plätze, um diese Symbole nebeneinander anordnen zu
können.
Wir brauchen uns nur noch zu fragen, auf wieviele Arten man die Striche und
Kreise diesen n+r+1 Plätzen zuordnen kann. Dabei ist noch folgende Bedingung
zu beachten:
Auf den beiden äußeren Plätzen müssen immer Striche stehen (sonst würden
Kugeln außerhalb der Urnen liegen). Diese beiden Plätze sind immer durch
jeweils einen Strich besetzt. Somit reduziert sich die Zahl der Plätze auf
(n + r + 1) − 2 = n + r − 1.
Wir können uns jetzt fragen: Wieviele Möglichkeiten gibt es, r Kreise auf n+r−1
Plätze zu verteilen, wobei man dann die freibleibenden Plätze durch Striche
besetzt?¡
¢
Es gibt n+r−1
Möglichkeiten nach Satz (1.3.10). Sind die Kugeln verteilt, liegt
r
die Strichverteilung auch fest.
1.3.14 Bemerkung:
Die Interpretation der zuvor behandelten Kombinationen und Variationen anhand geeigneter Urnenmodelle ist im folgenden Tableau gegeben:
Interpretation als Urnenmodell
n ∈ N Urnen, r ∈ N Kugeln
Bedingung
über r
1≤r≤n
1≤r≤n
Kugeln sind
in jeder
Urne sind
unterscheidbar höchstens
(durchnume- r Kugeln
riert)
unterscheidbar höchstens
(durchnume- eine
riert)
Kugel
nicht unter- höchstens
scheidbar
r Kugeln
nicht unterscheidbar
höchstens
eine
Kugel
c
°V.
Steinmetz: Grundzüge der Statistik
Kugelverteilung
entspricht
geordnete Probe
(Variation) mit
Wiederholung
geordnete Probe
(Variation) ohne
Wiederholung
ungeordnete Probe
(Kombination) mit
Wiederholung
ungeordnete Probe
(Kombination) ohne Wiederholung
Anzahl der Kugelverteilungen
nr = w Vnr
(n)r = Vnr
¡n+r−1¢
r
¡n¢
r
= w Cnr
= Cnr
–19–
2 Wahrscheinlichkeitsräume
2.1 Stichprobenräume und Ereignisräume
2.1.1 Definition:
Es seien Ω 6= ∅ eine Menge und F eine Menge von Teilmengen von Ω, d.h.
F ⊆ PΩ. F heißt σ − Algebra in Ω, wenn gilt: 3
(.1) Ω ∈ F
(.2) A ∈ F ⇒ CΩ A ∈ F
(.3) (∀j ∈ N)(Aj ∈ F) ⇒
∞
S
j=1
Aj ∈ F
2.1.2 Satz:
Es sei F eine σ -Algebra in Ω 6= ∅. Dann gilt
(.1) ∅ ∈ F
(.2) (∀j ∈ N)(Aj ∈ F ⇒
∞
T
j=1
Aj ∈ F)
Beweis:
zu (.1)
Nach (2.1.1.1) gilt Ω ∈ F, damit folgt wegen (2.1.1.2) auch CΩ Ω ∈ F, also mit
CΩ Ω = ∅ auch ∅ ∈ F.
zu (.2)
Es gilt
∞
T
j=1
Aj = CC
∞
T
Aj
(1.1.22.3)
=
j=1
C[
∞
S
j=1
CAj ].
Wegen der Voraussetzung A1 , A2 , ... ∈ F folgt
S mit (2.1.1.2) auch
CA1 , CA2 , ... ∈ F, also S
wegen (2.1.1.3) auch
CAj ∈ F. Nochmalige Anwendung
T
von (2.1.1.2) liefert C[ CAj ] ∈ F, also Aj ∈ F.
2.1.3 Folgerung:
Es sei F eine σ−Algebra in Ω 6= ∅, weiterhin sei n ∈ N. Dann gilt
n
S
(.1) A1 , ..., An ∈ F ⇒
Aj ∈ F
(.2) A1 , ..., An ∈ F ⇒
j=1
n
T
j=1
Aj ∈ F
(.3) A, B ∈ F ⇒ A\B ∈ F
3
Ω wird als Stichprobenraum eines Wahrscheinlichkeitsraumes interpretiert werden und F als
zugehöriger Ereignisraum (vgl. dazu Paragraph (2.2))
c
°V.
Steinmetz: Grundzüge der Statistik
–20–
Beweis:
zu (.1)
Wähle ∅ =: An+1 =: An+2 = ... ∈ F. Dann gilt
n
S
Aj =
j=1
Wähle Ω =: An+1 =: An+2 = ... ∈ F. Dann gilt
n
T
j=1
A1 , ..., An , An+1 ... ∈ F folgt mit (2.1.2.2) die Behauptung.
Aj , wegen
j=1
A1 , ..., An , An+1 ... ∈ F folgt mit (2.1.1.3) die Behauptung.
zu (.2)
∞
S
Aj =
∞
T
Aj , wegen
j=1
zu (.3)
Es gilt A\B = A ∩ CΩ B. Wegen B ∈ F und (2.1.1.2) folgt CΩ B ∈ F, wegen
A ∈ F mit (2.1.3.2) auch A ∩ CΩ B ∈ F und damit die Behauptung.
2.1.4 Vereinbarung:
Als σ−Algebra in R (bzw. Rn ) soll die ”kleinste” σ−Algebra in R (bzw. Rn )
gewählt werden, die alle Intervalle (bzw. n-dimensionalen Intervalle) als Elemente enthält. Sie werde mit B1 (bzw. Bn ) bezeichnet und heiße die natürliche
σ−Algebra in R (bzw. Rn ) oder die Borelalgebra in R (Borel algebra) (bzw. Rn ).
2.1.5 Bemerkung:
[(nicht klausurrelevant)]
Eine Präzisierung der Vorgehensweise aus (2.1.4) kann durch folgende Schritte
erfolgen:
α) Man kann zeigen: Ist Ω 6= ∅ eine Menge und ist (Fj )j∈J eineT (eventuFj eine
ell überabzählbare) Familie von σ−Algebren in Ω, so ist auch
j∈J
σ−Algebra in Ω.
β ) Es sei Ω 6= ∅ eine Menge und A ⊆ PΩ. Der Durchschnitt aller σ−Algebren
in Ω, die A enthalten, ist eine σ−Algebra in Ω und heißt die von A erzeugte
σ−Algebra in Ω, sie wird mit F(A) bezeichnet. A heißt Erzeugendensystem
von F(A) .
γ) Es sei Ω 6= ∅ eine Menge und A ⊆ PΩ. F(A) ist die kleinste A enthaltende
σ−Algebra in Ω in dem Sinne, daß für jede σ−Algebra F 0 in Ω mit A ⊆ F 0
gilt F(A) ⊆ F 0 .
δ) Es sei A die Menge aller Intervalle in R. Dann ist B1 = F(A) als die von
A in R erzeugte σ−Algebra die kleinste σ−Algebra in R, die alle Intervalle
enthält (entsprechend für Bn ).
c
°V.
Steinmetz: Grundzüge der Statistik
–21–
2.1.6 Bemerkung:
Weiterhin ist auch die folgende Konstruktion bisweilen nützlich: Es seien Ω 6= ∅
eine Menge, F eine σ−Algebra in Ω und A ⊆ Ω mit A 6= ∅ (A muß nicht
notwendig Element von F sein). Dann ist
F|A := {X ∩ A | X ∈ F}
eine σ−Algebra in A, man bezeichnet sie als die Spur (trace) von F in A oder
als Einschränkung (restriction) von F auf A.
2.1.7 Bemerkung:
Ein wichtiger Spezialfall liegt vor, wenn eine σ−Algebra nur endlich viele Elemente enthält. In diesem Fall ist die Forderung (2.1.1.3) äquivalent zu der etwas
einfacheren Forderung
(.1)
A, B ∈ F ⇒ A ∪ B ∈ F.
Mengensysteme (auch nicht endliche), welche die Forderungen (2.1.1.1), (2.1.1.2),
(2.1.7.1) erfüllen, haben auch eigenständiges Interesse und werden als Boolesche
Mengenringe oder kurz Ringe bezeichnet. Es gilt: Jede σ−Algebra ist zugleich
Ring.
Nicht jeder Ring ist zugleich σ−Algebra, aber jeder endliche Ring ist zugleich
σ−Algebra.
c
°V.
Steinmetz: Grundzüge der Statistik
–22–
2.2 Wahrscheinlichkeitsräume
2.2.1 Definition:
Es seien Ω und F Mengen und P : F → R eine Abbildung. Das Tripel (Ω, F, P )
heißt ein Wahrscheinlichkeitsraum (probability space, WR), wenn gilt
(.1) Ω 6= ∅
(.2) F ist eine σ-Algebra in Ω
(.3) P : F → R ist eine Abbildung mit
(W1) A ∈ F ⇒ P A ≥ 0
(W2) (A1 , A2 , ... ∈ F) und (Ai ∩ Aj = ∅ für i 6= j) impliziert
P
∞
S
Ai =
i=1
(W3) P Ω = 1.
∞
P
P Ai
i=1
Man nennt Ω den Stichprobenraum (sample space), Ergebnisraum und insbesondere bei deterministischen Häufigkeitsuntersuchungen auch die Grundgesamtheit
des WR und die Elemente von Ω Ergebnisse (outcomes), im Fall der Häufigkeitsuntersuchung auch Untersuchungseinheiten. Weiterhin bezeichnet man F als
den Ereignisraum des WR, die Elemente von F als Ereignisse (events) und P
als die Wahrscheinlichkeit (Wahrscheinlichkeitsmaß, probability measure).
(W1) ist die Forderung der Nichtnegativität einer Wahrscheinlichkeit, (W2) die
der σ-Additivität und (W3) die der Normierung.4
2.2.2 Bemerkung:
Wird ein WR (Ω, F, P ) zur Beschreibung eines Zufallsexperimentes benutzt,
so sagt man, ein bestimmtes Ereignis A ∈ F sei bei einer Durchführung des
Experimentes eingetreten, wenn das beobachtete Ergebnis ω ∈ Ω ein Element
von A ist, d.h. wenn gilt ω ∈ A.
2.2.3 Bemerkung:
Bei praktischen Anwendungen des Modells (Ω, F, P ) muß der Stichprobenraum
Ω in eindeutiger Weise durch eine zeitliche, räumliche und sachliche Charakterisierung seiner Elemente festgelegt sein, man spricht von identifizierenden Merkmalen.
4
Die Axiome (W1), (W2), (W3) gehen auf A.A.Kolmogorov (1933) zurück.
c
°V.
Steinmetz: Grundzüge der Statistik
–23–
2.2.4 Bemerkung:
Ein wichtiger Spezialfall liegt vor, wenn der Ereignisraum F eines Wahrscheinlichkeitsraumes (Ω, F, P ) nur endlich viele Ereignisse enthält. In diesem Fall ist
die Forderung (W2) äquivalent zu der etwas einfacheren Forderung
(W 20 ) : A, B ∈ F und A ∩ B = ∅ impliziert
P (A ∪ B) = P A + P B
(vgl. dazu auch Bemerkung (2.1.7) und Satz (2.2.7)). Der Ereignisraum ist
insbesondere dann endlich, wenn Ω eine endliche Menge ist.
2.2.5 Satz (Einbettung der deskriptiven Statistik in die Wahrscheinlichkeitstheorie):
Es seien Ω eine nicht leere, endliche Menge und F eine σ-Algebra in Ω. Dann
ist die relative Häufigkeit (relative frequency) bzgl. Ω
H:F →R
H(A) =
mit
]A
für alle A ∈ F
]Ω
ein Wahrscheinlichkeitsmaß über F und folglich (Ω, F, H) ein WR.
Beweis:
Es sind für H die Forderungen (W1), (W2), (W3) aus Def. (2.2.1) nachzuweisen.
Wegen der Endlichkeit von F genügt es, statt (W2) die Gültigkeit von (W20 )
aus Bemerkung (2.2.4) zu verifizieren.
zu (W1)
Nach Definition (1.2.3) sind ]Ω > 0 und ]A ≥ 0 für alle A ∈ F,
also gilt: H(A) ≥ 0.
zu (W20 )
Es seien A, B ∈ F mit A ∩ B = ∅. Nach Satz (1.2.9) gilt
](A ∪ B) = ]A + ]B,
H(A ∪ B) =
also
] A ]B
](A ∪ B)
=
+
= H(A) + H(B).
]Ω
]Ω
]Ω
zu (W3)
Es gilt H(Ω) =
]Ω
= 1.
]Ω
c
°V.
Steinmetz: Grundzüge der Statistik
–24–
2.2.6 Bemerkung:
Einen WR (Ω, F, P ) mit endlichem Ω, F = PΩ 5 und P (.) = H(.), d.h.
der relativen Häufigkeit als Wahrscheinlichkeitsmaß, bezeichnet man auch als
Laplaceschen WR, P als Laplacesche Wahrscheinlichkeit. In diesem Fall gilt
insbesondere für die einpunktigen Ereignisse, die sogenannten Elementarereignisse:
1
P {ω} =
für alle ω ∈ Ω.
]Ω
2.2.7 Satz:
Es sei (Ω, F, P ) ein WR. Dann gilt
(.1)
P∅ = 0
(.2)
A1 , ..., An ∈ F und Ai ∩ Aj = ∅ für i 6= j impliziert
n
n
S
P
P ( Ai ) =
P Ai
i=1
i=1
Beweis:
zu (.1)
Es sei B1 , B2 , ... ∈ F die abzählbar unendliche Folge von Ereignissen mit
Ω =: B1 ∅ =: B2 =: B3 =: ....
Dann gilt
∞
[
Bj mit Bi ∩ Bj = ∅ für i 6= j.
Ω=
j=1
Nach (W2) folgt
PΩ = P
∞
[
Bj =
j=1
Nach (W3) folgt damit
1=1+
∞
X
P Bj = P Ω +
j=1
∞
X
P ∅,
∞
X
P ∅.
j=2
also
j=2
∞
X
P∅ = 0
j=2
und damit muß wegen (W1) gelten
P∅ = 0
zu (.2)
Wähle ∅ =: An+1 =: An+2 =: ...
Damit gilt wegen Ai ∩ Aj = ∅ für i, j ∈ N mit i 6= j
P
n
[
j=1
5
Aj = P
∞
[
j=1
(W 2)
Aj =
∞
X
j=1
P Aj =
n
X
j=1
P Aj +
∞
X
j=n+1
(.1)
P Aj =
n
X
P Aj
j=1
Die Potenzmenge PΩ erfüllt trivialerweise die Eigenschaften (2.1.1.1), (2.1.1.2), (2.1.1.3), ist
also stets eine σ-Algebra in Ω 6= ∅.
c
°V.
Steinmetz: Grundzüge der Statistik
–25–
2.2.8 Satz:
Es seien (Ω, F, P ) ein WR und A, B ∈ F. Dann gilt:
(.1) P CA = 1 − P A
(.2) P (A ∪ B) = P A + P B − P (A ∩ B)
(.3) P (A ∪ B) ≤ P A + P B
(.4) A ⊆ B ⇒ P A ≤ P B
(.5) P A ≤ 1
Beweis:
zu (.1)
Es ist A ∪ CA = Ω und A ∩ CA = ∅.
Damit folgt nach (2.2.7.2)
P Ω = P A + P CA
Nach (W3) ist P Ω = 1. Also gilt P Ω = P A + P CA = 1 und somit
P A = 1 − P CA.
zu (.2)
Es ist: A ∪ B = (A \ B) ∪ (A ∩ B) ∪ (B \ A)
A
A\B
A∩B
B
B\A
Nach Folgerung (2.1.3) gilt wegen A, B ∈ F auch
A \ B ∈ F, A ∩ B ∈ F, B \ A ∈ F.
Weiter gilt:

(A \ B) ∩ (B \ A) = ∅ 
(A \ B) ∩ (A ∩ B) = ∅ (∗)

(B \ A) ∩ (A ∩ B) = ∅
Damit folgt nach (2.2.7.2) für die Wahrscheinlichkeit von A ∪ B :
P (A ∪ B) = P (A \ B) + P (B \ A) + P (A ∩ B) (∗∗)
c
°V.
Steinmetz: Grundzüge der Statistik
–26–
Außerdem hat man:
A = (A \ B) ∪ (A ∩ B)
B = (B \ A) ∪ (A ∩ B)
Da die Mengen der rechten Seiten disjunkt sind (vgl. (∗)),
folgt nach (2.2.7.2)
P A = P (A \ B) + P (A ∩ B)
P B = P (B \ A) + P (A ∩ B)
und damit
P (A \ B) = P A − P (A ∩ B)
und
P (B \ A) = P B − P (A ∩ B)
Aus (∗∗) erhält man somit:
P (A ∪ B) = P A − P (A ∩ B) + P B − P (A ∩ B) + P (A ∩ B)
= P A + P B − P (A ∩ B).
zu (.3)
Nach (2.2.8.2) ist
P (A ∪ B) + P (A ∩ B) = P A + P B.
Da P (A ∩ B) ≥ 0 nach (W1), folgt:
P (A ∪ B) ≤ P A + P B.
zu (.4)
Es sei A ⊆ B. Man betrachte:
B
A
B\A
Es ist B = (B \ A) ∪ A, wobei (B \ A) ∩ A = ∅.
Damit gilt
P B = P (B \ A) + P A nach (2.2.7.2).
Und da nach (W1) gilt P (B \ A) ≥ 0, folgt P B ≥ P A.
zu (.5)
P A ≤ 1 folgt aus (.4) wegen A ⊆ Ω und P Ω = 1.
c
°V.
Steinmetz: Grundzüge der Statistik
–27–
2.2.9 Satz:
Es seien Ω 6= ∅ eine Menge, (ωi )i∈I⊆N eine höchstens abzählbare Familie
P von
Elementen aus Ω mit ωi 6= ωj für i 6= j, pi ∈ ]0, 1] für alle i ∈ I mit
pi = 1
i∈I
und F eine σ-Algebra in Ω mit {ωi } ∈ F für alle i ∈ I. Dann ist durch
X
(∀A ∈ F)(P A :=
pi )
ωi ∈A
eine Wahrscheinlichkeit P : F → R definiert und damit (Ω, F, P ) ein Wahrscheinlichkeitsraum. Insbesondere gilt:
P {ωi } = pi für i ∈ I.
2.2.10 Definition:
Der Wahrscheinlichkeitsraum (Ω, F, P ) aus dem vorigen Satz und auch die Wahrscheinlichkeit P heißen diskret, die ωi heißen Trägerpunkte von P und die pi
die zugehörenden Punktwahrscheinlichkeiten (oder Punktmassen).
2.2.11 Definition:
Es seien (Ω, F, P ) ein WR und A ∈ F. A heißt P -fast sicher (almost-sure), wenn
P A = 1 gilt. A heißt P -fast unmöglich (almost impossible), wenn P A = 0 gilt.
Im letzten Fall nennt man A auch eine P -Nullmenge.
Ω selbst heißt das sichere Ereignis (sure event), ∅ das unmögliche Ereignis (impossible event).
Gilt eine Aussage für mindestens alle Elemente eines P -fast sicheren Ereignisses
A ∈ F, so sagt man, sie gelte P -fast sicher (P -fast überall) (almost everywhere)
in Ω.
c
°V.
Steinmetz: Grundzüge der Statistik
–28–
2.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit
2.3.1 Definition:
Es seien (Ω, F, P ) ein WR und A, B Ereignisse aus F mit P A > 0. Man nennt
P (B | A) :=
P (B ∩ A)
PA
die bedingte Wahrscheinlichkeit von B unter der Hypothese (Bedingung) A (conditional probability of B under A).
2.3.2 Bemerkung:
Es sei (Ω, F, P ) ein WR und A ∈ F mit P A > 0. Man kann leicht nachweisen,
daß die bedingte Wahrscheinlichkeit P (. | A) als Abbildung
P (. | A) : F → R
die Eigenschaften (W1), (W2), (W3) einer Wahrscheinlichkeit hat, die Begriffsbildung in Definition (2.3.1) somit berechtigt ist. Also ist durch (Ω, F, P (. | A))
ein weiterer WR gegeben.
(zum Beweis siehe z.B. Rényi, A., Wahrscheinlichkeitsrechnung,1966, S.44)
2.3.3 Bemerkung:
Es seien (Ω, F, P ) ein WR und A, B ∈ F. Aus
folgt
(∗)
P (A∩B)
PA
=: P (B | A) mit P A > 0
P (A ∩ B) = P A · P (B | A).
Nach (2.2.8.4) gilt wegen A ∩ B ⊆ A stets P (A ∩ B) ≤ P A, insbesondere
folgt aus P A = 0 auch P (A ∩ B) = 0. Allerdings ist P (B | A) für P A = 0 nicht
definiert, man setzt deshalb fest
(.1)
P A · P (B | A) := 0 für P A = 0,
so daß die Gleichung (∗) für alle A ∈ F gültig ist.
2.3.4 Satz (Multiplikationssatz):
Es seien (Ω, F, P ) ein WR und A1 , A2 , ..., An ∈ F für n ∈ N. Dann gilt
P (A1 ∩ ... ∩ An ) = P A1 · P (A2 | A1 ) · P (A3 | A1 ∩ A2 ) ·... · P (An | A1 ∩ ... ∩ An−1 ).
Dabei sei vereinbart, die rechte Seite gleich Null zu setzen, wenn mindestens
k
T
eine der Wahrscheinlichkeiten P ( Ai ) für k = 1, 2, ..., n − 1 verschwindet, also
i=1
mindestens eine der bedingten Wahrscheinlichkeiten nicht definiert ist.
Beweis:
c
°V.
Steinmetz: Grundzüge der Statistik
–29–
Wenn eine der Wahrscheinlichkeiten P (
k
T
Ai ) = 0 ist und damit nach Verein-
i=1
barung auch die rechte Seite der Behauptung, dann verschwindet auch die linke
Seite nach (2.2.8.4). Die Gleichheit gilt also.
k
T
Seien nun P ( Ai ) > 0 für alle k ∈ {1, 2, ..., n − 1}.
Dann gilt:
i=1
P A1 · P (A2 | A1 ) · P (A3 | A1 ∩ A2 ) · ... · P (An | A1 ∩ A2 ∩ ... ∩ An−1 )
= P A1 ·
P (A1 ∩ A2 ) P (A1 ∩ A2 ∩ A3 )
P (A1 ∩ A2 ∩ ... ∩ An−1 ∩ An )
·
· ... ·
P A1
P (A1 ∩ A2 )
P (A1 ∩ A2 ∩ ... ∩ An−1 )
= P (A1 ∩ A2 ∩ ... ∩ An )
WARNUNG Das vorliegende Kompaktskript ist kein Lehrbuch, sondern es soll
die Hörer der Grundzügevorlesungen zur Statistik von dem ablenkenden und
oft fehlerhaften Mitschreiben der Formeln entlasten und es ihnen erleichtern,
sich auf die vorgetragenen Motivationen und Erläuterungen zu konzentrieren
und hierüber individuelle Notizen anzufertigen. Dementprechend sind in diesem
Skript nur formale Definitionen und Sätze mit Beweisen oder entsprechenden Literaturangaben enthalten, Bemerkungen dienen zur Ergänzung des Stoffes. Die
Motivation und Erläuterung der aufgeführten Begriffe und Aussagen sowie die
Behandlung von Beispielen bleiben der Vorlesung und auch den begleitenden
Übungen vorbehalten. Ebenso werden Hinweise auf ergänzende und vertiefende
Literatur im Verlauf der Vorlesung gegeben. Da das 9. Kapitel keine formalisierten Teile enthält, sind die Hörer hierzu auf eigene Notizen angewiesen.
2.3.5 Satz (von der totalen Wahrscheinlichkeit):
Es seien (Ω, F, P ) ein WR und A1 , A2S
, ... ∈ F eine abzählbare Folge von Ereignissen mit Ai ∩ Aj = ∅ für i 6= j und Aj = Ω .
j
Für jedes B ∈ F gilt dann
PB =
X
j
P (B | Aj ) · P Aj .
Beweis:
S
S
Es ist B = B ∩ Ω = B ∩ ( Aj ) = (B ∩ Aj ) nach (1.1.22.4).
j
j
Da nach Voraussetzung Ai ∩ Aj = ∅ für i 6= j, gilt
(B ∩ Ai ) ∩ (B ∩ Aj ) = ∅ für i 6= j und es folgt
S
P
P
P B = P ( (B ∩ Aj )) =
P (B ∩ Aj ) =
P (B | Aj ) · P Aj
j
j
nach Bemerkung (2.3.3).
c
°V.
Steinmetz: Grundzüge der Statistik
j
–30–
2.3.6 Bemerkung:
Gegeben seien die Voraussetzungen des vorigen Satzes. Die Wahrscheinlichkeit
P B wurde interpretiert als die Wahrscheinlichkeit, bei zufälliger Auswahl eines Elementes aus Ω gerade ein Element aus B zu erhalten. Dann besagt der
Satz von der totalen Wahrscheinlichkeit, daß man diese Auswahl in zwei Stufen vornehmen kann, ohne insgesamt die Chancen zu verändern, ein Element
von B zu erhalten: Im ersten Schritt wählt man entsprechend den Wahrscheinlichkeiten P A1 , P A2 ... eine Zelle Aj aus, im zweiten Schritt dann innerhalb der
ausgewählten Zelle Aj ein Element entsprechend der bedingten Wahrscheinlichkeit P (. | Aj ). Diese zweistufige Auswahl ist für den Fall einer Zerlegung von Ω
in vier Zellen in dem folgenden Baumdiagramm veranschaulicht:
P (B|A1 )
u
A1
1 − P (B|A1 )
P A1
P (B|A2 )
Au2
1 − P (B|A2 )
Start
u
u P A1 P (B|A1 )
u
P A1 (1 − P (B|A1 ))
u P A2 P (B|A2 )
u
P A2 (1 − P (B|A2 ))
P A2
P A3
P (B|A3 )
u
A3
1 − P (B|A3 )
P A4
P (B|A4 )
u
A4
1 − P (B|A4 )
u P A3 P (B|A3 )
u
u P A4 P (B|A4 )
u
PB =
c
°V.
Steinmetz: Grundzüge der Statistik
P A3 (1 − P (B|A3 ))
P A4 (1 − P (B|A4 ))
P4
i=1
P Ai P (B|Ai )
–31–
1
2
'
A
A
º
¹
&
B
A3
A4
·
¸
$
Ω
%
2.3.7 Satz (Bayes):
Es seien (Ω, F, P ) ein WR und A1 , A2S
, ... ∈ F eine abzählbare Folge von Ereignissen mit Ai ∩ Aj = ∅ für i 6= j und Aj = Ω. Weiter sei B ∈ F mit P B > 0.
j
Dann gilt:
P (B | Ak )P Ak
P (Ak | B) = P
P (B | Aj )P Aj
j
c
°V.
Steinmetz: Grundzüge der Statistik
–32–
Beweis:
Es ist P (Ak | B)
=
P (Ak ∩ B)
PB
nach Definition (2.3.1)
=
P (B | Ak )P Ak
PB
nach Bemerkung (2.3.3)
P (B | Ak )P Ak
= P
P (B | Aj )P Aj
nach Satz (2.3.5)
j
2.3.8 Definition:
Es seien (Ω, F, P ) ein WR und A, B ∈ F.
A und B heißen stochastisch unabhängig (stochastically independent) bzgl. P ,
wenn gilt:
P (A ∩ B) = P A · P B.
2.3.9 Satz:
Es seien (Ω, F, P ) ein WR, A, B ∈ F mit P A > 0, P B > 0.
Dann sind die folgenden Aussagen äquivalent:
(.1) A und B sind stochastisch unabhängig.
(.2) P (A | B) = P A
(.3) P (B | A) = P B
Beweis:
Der Beweis werde als Ringschluß geführt
(.1) ⇒ (.2) ⇒ (.3) ⇒ (.1)
(.1) ⇒ (.2) :
(.2) ⇒ (.3) :
(.3) ⇒ (.1) :
A, B seien stochastisch unabhängig, d.h.
P (A ∩ B) = P A · P B
= P (A | B),
Damit ist P A = P (A∩B)
PB
wobei P B 6= 0 nach Voraussetzung.
Es ist P A = P (A | B) = P (A∩B)
und P A > 0
PB
nach Voraussetzung. Dann gilt:
P B = P (A∩B)
= P (B | A),
PA
Aus P B = P (B | A) = P (A∩B)
folgt:
PA
P (A ∩ B) = P A · P B, also sind A und B
stochastisch unabhängig.
Damit ist die Äquivalenz der Aussagen gezeigt.
c
°V.
Steinmetz: Grundzüge der Statistik
–33–
2.3.10 Satz:
Es seien (Ω, F, P ) ein WR und A, B ∈ F. Dann sind die folgenden Aussagen
äquivalent:
(.1) A, B sind stochastisch unabhängig
(.2) A, CB sind stochastisch unabhängig
(.3) CA, B sind stochastisch unabhängig
(.4) CA, CB sind stochastisch unabhängig
Beweis:
Der Beweis werde als Ringschluß geführt:
(.1) ⇒ (.2) ⇒ (.4) ⇒ (.3) ⇒ (.1).
Hier soll nur gezeigt werden (.1) ⇒ (.2). Der Beweis der übrigen Aussagen folgt
dann durch geeignete Umbenennung.
(.1) ⇒ (.2) : Stets gilt
P A = P (A ∩ B) + P (A ∩ CB)
(∗)
Wenn A und B unabhängig sind, gilt P (A ∩ B) = P A · P B und es folgt aus (∗)
P A = P A · P B + P (A ∩ CB), also
P (A ∩ CB) = P A − P A · P B = P A(1 − P B) = P A · P CB, also sind A und CB
unabhängig.
2.3.11 Definition:
Es seien (Ω, F, P ) ein WR und (Ai )i∈I eine von Ereignissen aus F. Die Familie
heißt stochastisch unabhängig, wenn für jede endliche Teilmenge K ⊆ I gilt:
Ã
!
\
Y
Ai =
P
P Ai .
i∈K
i∈K
2.3.12 Bemerkung:
Durch vollständige Induktion kann man zeigen, daß auch die Verallgemeinerung
von Satz (2.3.10) auf n ∈ N Ereignisse gilt.
c
°V.
Steinmetz: Grundzüge der Statistik
–34–
2.4 Abbildungen von Stichprobenräumen
2.4.1 Definition:
Es seien Ω und Ω0 zwei nicht leere Mengen und F, F 0 σ−Algebren in Ω bzw. Ω0 .
Eine Abbildung f : Ω → Ω0 heißt F − F 0 − meßbar (measurable), wenn gilt:
(∀A0 ∈ F 0 )(f −1 (A0 ) ∈ F).
2.4.2 Satz:
Es seien (Ω, F, P ) ein WR, Ω0 eine nicht leere Menge, F 0 eine σ−Algebra in Ω0 ,
f : Ω → Ω0 eine F − F 0 − meßbare Abbildung.
Dann ist durch
(∀A0 ∈ F 0 )(P 0 A0 := P f −1 (A0 ))
eine Wahrscheinlichkeit P 0 : F 0 → R definiert und (Ω0 , F 0 , P 0 ) ist ein WR.
Beweis:
Zu zeigen sind (W1), (W2) und (W3). Da f F − F 0 −meßbar ist, ist f −1 A0 ∈ F
und P 0 A0 wohldefiniert.
zu (W1)
Da P A ≥ 0 für alle A ∈ F, gilt P 0 A0 := P f −1 A0 ≥ 0 für alle A0 ∈ F 0 .
zu (W2)
Es seien A01 , A02 , ... ∈ F 0 mit A0i ∩ A0j = ∅ für i 6= j.
Dies impliziert:
f −1 (A01 ), f −1 (A02 ), ... ∈ F mit f −1 (A0i ) ∩ f −1 (A0j ) = ∅ für i 6= j
nach (1.1.18.4).
∞
∞
S
S
f −1 (A0k ) (Verallgemeinerung von (1.1.18.3))
Wegen f −1 ( A0k ) =
k=1
k=1
gilt:
∞
∞
∞
∞
∞
S
S
S
P
P
P 0 ( A0k ) = P f −1 ( A0k ) = P ( f −1 (A0k )) =
P f −1 (A0k ) =
P 0 A0k .
k=1
k=1
k=1
k=1
k=1
zu(W3)
Es gilt: P 0 Ω0 = P f −1 (Ω0 ) = P Ω = 1.
Damit sind die drei Eigenschaften für P 0 gezeigt, folglich ist P 0 eine Wahrscheinlichkeit und damit (Ω0 , F 0 , P 0 ) ein WR.
2.4.3 Definition:
Es seien (Ω, F, P ) ein WR, Ω0 eine nicht leere Menge, F 0 eine σ-Algebra in
Ω0 , f : Ω → Ω0 eine F − F 0 − meßbare Abbildung. Man bezeichnet die durch
(∀A0 ∈ F 0 )(P 0 A0 := P f −1 (A0 ))
c
°V.
Steinmetz: Grundzüge der Statistik
–35–
definierte Wahrscheinlichkeit P 0 : F 0 → R als die Bildwahrscheinlichkeit von P
bzgl. f .
2.4.4 Satz:
Es seien Ω, Ω0 , Ω00 nicht leere Mengen, F, F 0 , F 00 seien σ−Algebren in Ω, Ω0 bzw.
Ω00 und
f : Ω → Ω0 eine F − F 0 − meßbare Abbildung
g : Ω0 → Ω00 eine F 0 − F 00 − meßbare Abbildung.
Dann ist g ◦ f : Ω → Ω00 eine F − F 00 − meßbare Abbildung.
(zum Beweis vgl. z.B. Schmitz, N., Plachky, D.: Vorlesungen über Wahrscheinlichkeitstheorie I(1976), S.111 Lemma (3.11)).
2.4.5 Bemerkung:
Es seien Ω, Ω0 nicht leere Mengen und F, F 0 σ−Algebren in Ω bzw. Ω0 . Weiter
sei E 0 ein Erzeugendensystem von F 0 . Eine Abbildung f : Ω → Ω0 ist genau dann
F − F 0 − meßbar, wenn gilt
f −1 (A0 ) ∈ F
∀A0 ∈ E 0 .
(vgl. Bauer, H.: Wahrscheinlichkeitstheorie und Grundzüge der Maßtheorie
(1978), S.41).
2.4.6 Bemerkung:
Es sei f : Rk → Rn mit k, n ∈ N eine stetige Abbildung.
Dann ist f Bk − Bn −meßbar.
(vgl. Bauer, H.: Wahrscheinlichkeitstheorie und Grundzüge der Maßtheorie
(1978), S. 41).
c
°V.
Steinmetz: Grundzüge der Statistik
–36–
2.5 Produkte von Wahrscheinlichkeitsräumen
2.5.1 Satz:
Es seien (Ω, F, P ) und (Ω0 , F 0 , P 0 ) zwei Wahrscheinlichkeitsräume und weiter
Ω00 = Ω × Ω0 .
F 00 sei die kleinste 6 σ-Algebra in Ω00 , die alle Mengen
A × A0
mit A ∈ F, A0 ∈ F 0
enthält.
Dann ist durch die Festsetzung
P 00 (A × A0 ) := P A · P 0 A0
für alle A ∈ F, A0 ∈ F 0
eindeutig eine Wahrscheinlichkeit
P 00 : F 00 → R
festgelegt.
(zum Beweis vgl. z.B. Schmitz, N.; Plachky, D.: Vorlesungen über Wahrscheinlichkeitstheorie I (1976), S.176 ff.)
2.5.2 Definition:
Gegeben seien die Voraussetzungen und Bezeichnungen des vorigen Satzes.
Dann heißt
(Ω00 , F 00 , P 00 )
das Produkt (product) aus den WR (Ω, F, P ) und (Ω0 , F 0 , P 0 ) und man schreibt
(Ω00 , F 00 , P 00 ) = (Ω, F, P ) ⊗ (Ω0 , F 0 , P 0 ).
Weiterhin heißt P 00 die aus P und P 0 gebildete Produktwahrscheinlichkeit (product measure) und man schreibt
P 00 = P ⊗ P 0 .
2.5.3 Bemerkung:
Die vorige Definition läßt sich ohne Schwierigkeiten auf den Fall des Produkts
von mehr als zwei, aber endlich vielen WR verallgemeinern.
Produktwahrscheinlichkeitsräume bieten sich an zur Beschreibung von Zufallsexperimenten, die aus sich nicht gegenseitig beeinflussenden Einzelexperimenten
zusammengesetzt sind:
Mit
A × A0 ∈ F 00
6
vgl. dazu (2.1.5 α) ,...,(2.1.5 γ).
c
°V.
Steinmetz: Grundzüge der Statistik
–37–
gilt auch
Ω × A0 ∈ F 00
und A × Ω0 ∈ F 00
und es folgt mit
A × A0 = (A × Ω0 ) ∩ (Ω × A0 )
wegen der Produkteigenschaft von P 00
P 00 [A × Ω0 ) ∩ (Ω × A0 )] = P 00 (A × A0 ) = P A · P 0 A0 = (P A · P 0 Ω0 ) · (P Ω · P 0 A0 ) =
P 00 (A × Ω0 ) · P 00 (Ω × A0 ).
Also sind A × Ω0 und Ω × A0 unabhängige Ereignisse, wobei zu beachten ist:
A × Ω0 tritt genau dann ein, wenn A eintritt,
Ω × A0 tritt genau dann ein, wenn A0 eintritt.
Ist insbesondere A = {ω}, A0 = {ω 0 }, so folgt
P 00 {(ω, ω 0 )} = P {ω} · P 0 {ω 0 }.
c
°V.
Steinmetz: Grundzüge der Statistik
–38–
3 Zufallsvariablen
3.1 Eindimensionale Zufallsvariablen
3.1.1 Definition:
Es sei (Ω, F, P ) ein Wahrscheinlichkeitsraum. Eine Abbildung X : Ω → R,
die F − B1 −meßbar ist, heißt eindimensionale Zufallsvariable (one dimensional
random variable, ZV) über (Ω, F, P ). Die Bildwahrscheinlichkeit von P bzgl. X
bezeichnet man mit QX und nennt sie die Wahrscheinlichkeitsverteilung (distribution, WV) der ZV X.
(Ω, F, P )
X
Ω −−−−−−−−−→ R
(R, B1 , QX )
3.1.2 Definition:
Es sei X eine ZV mit der WV QX . Die Zufallsvariable und auch ihre Wahrscheinlichkeitsverteilung heißen diskret, wenn (R, B1 , QX ) ein diskreter Wahrscheinlichkeitsraum ist. (Vgl. Satz (2.2.9) und Definition (2.2.10))
3.1.3 Bemerkung:
Es seien (Ω, F, P ) ein WR, X : Ω → R eine ZV und B ∈ B1 . Nach Definition
(3.1.1) und Definition (2.4.3) gilt
QX B = P X −1 B = P {ω | ω ∈ Ω ∧ X(ω) ∈ B}.
Man führt die abgekürzte Schreibweise ein
{X ∈ B} := {ω | ω ∈ Ω ∧ X(ω) ∈ B}
und nennt {X ∈ B} ein durch Bedingungen über X bestimmtes Ereignis aus F.
Speziell schreibt man entsprechend
{X ≤ a} := {ω | ω ∈ Ω ∧ X(ω) ≤ a}
{X = a} := {ω | ω ∈ Ω ∧ X(ω) = a} usw.
3.1.4 Definition:
X sei eine eindimensionale ZV über dem WR (Ω, F, P ) mit der WV QX . Die
Abbildung
FX : R → R
mit
FX (x) := QX ] − ∞, x] = P {X ≤ x} ∀x ∈ R
heißt Verteilungsfunktion (distribution function of X, VF) der ZV X.
7
7
VORSICHT: Bisweilen wird in der Literatur FX (x) := QX ] − ∞, x[ definiert, so daß die VF
linksseitig stetig ist.
c
°V.
Steinmetz: Grundzüge der Statistik
–39–
3.1.5 Satz:
Es sei FX (.) Verteilungsfunktion einer eindimensionalen Zufallsvariablen X.
Dann gilt
(.1) FX ist monoton wachsend, d.h.:
x < y ⇒ FX (x) ≤ FX (y)
(.2) FX ist rechtsseitig stetig,7 d.h.:
lim FX (x + h) = FX (x) ∀x ∈ R
h>0
h→0
(.3)
(.4)
lim FX (x) = 1 (abgekürzte Schreibweise FX (∞) = 1)
x→∞
lim FX (x) = 0 (abgekürzte Schreibweise FX (−∞) = 0)
x→−∞
(zum Beweis vgl. z.B. Schmitz, N., Plachky, D.: Vorlesungen über Wahrscheinlichkeitstheorie I (1976), S. 94, 95, Lemma (2.52)).
3.1.6 Satz:
Es seien FX (.) die VF zu einer ZV X und a, b ∈ R mit a ≤ b. Dann gilt
QX ]a, b] = FX (b) − FX (a) .
Beweis:
Es ist FX (b) = QX ] − ∞, b] und FX (a) = QX ] − ∞, a].
Weiterhin gilt wegen a ≤ b:
] − ∞, b] =] − ∞, a] ∪ ]a, b] mit ] − ∞, a] ∩ ]a, b] = ∅.
Damit folgt
QX ] − ∞, b] = QX ] − ∞, a] + QX ]a, b]
also
QX ]a, b] = QX ] − ∞, b] − QX ] − ∞, a] = FX (b) − FX (a).
3.1.7 Satz:
Es seien FX (.) die VF einer ZV X und a ∈ R.
Dann gilt
QX {a} = FX (a) − FX (a − 0)
mit
FX (a − 0) := lim FX (a − h)
h>0
h→0
(z.Bew.vgl.z.B. Heinhold, J., Gaede, K.W.: Ingenieur-Statistik (1972), S. 35)
c
°V.
Steinmetz: Grundzüge der Statistik
–40–
3.1.8 Satz:
Es seien FX (.) die VF einer ZV X und a, b ∈ R mit a < b. Dann gilt
(.1) QX ]a, b[ = FX (b − 0) − FX (a)
(.2) QX [a, b] = FX (b) − FX (a − 0)
(.3) QX [a, b[ = FX (b − 0) − FX (a − 0)
(.4) QX ] − ∞, b] = FX (b)
(.5) QX ] − ∞, b[ = FX (b − 0)
(.6) QX ]a, ∞[ = 1 − FX (a)
(.7) QX [a, ∞[ = 1 − FX (a − 0)
Beweis:
Es soll exemplarisch nur die Aussage (.1) bewiesen werden:
Es gilt
]a, b] = ]a, b[ ∪ {b} mit ]a, b[ ∩ {b} = ∅.
Damit folgt
QX ]a, b] = QX ]a, b[ + QX {b} also
QX ]a, b[
= QX ]a, b] − QX {b}
3.1.6,3.1.7
=
FX (b) − FX (a) − (FX (b) − FX (b − 0))
= FX (b − 0) − FX (a)
3.1.9 Definition:
Es sei X eine ZV mit der VF FX (.). Gilt für ein x ∈ R
QX {x} = FX (x) − FX (x − 0) > 0,
so heißt x eine Sprungstelle von FX (.) und QX {x} die zugehörige Sprunghöhe.
3.1.10 Bemerkung:
Eine VF hat höchstens abzählbar unendlich viele Sprungstellen. (vgl. Schmitz,
N., Plachky, D.: Vorlesungen über Wahrscheinlichkeitstheorie I (1976), S. 103,
Satz (2.55)).
Die Sprungstellen sind die Trägerpunkte von Punktwahrscheinlichkeiten; die
Punktwahrscheinlichkeiten selbst stimmen mit den entsprechenden Sprunghöhen
überein.
Ist eine ZV X diskret, so soll auch die VF FX als diskret bezeichnet werden.
c
°V.
Steinmetz: Grundzüge der Statistik
–41–
3.1.11 Definition:
Es sei X eine eindimensionale ZV mit der WV QX und der VF FX . Die Zufallsvariable (und auch QX bzw. FX ) heißen (total)stetig oder (absolut)stetig
(absolutely continuous), wenn es eine Abbildung
fX : R → R
gibt mit
(.1)
fX (x) ≥ 0 für alle x ∈ R
(.2)
fX ist uneigentlich integrierbar, d.h.
Rb
fX (x)dx existiert für alle a, b ∈ R ∪ {−∞, ∞}
a
(.3)
FX (x) =
Rx
−∞
fX (t)dt für alle x ∈ R.
Man bezeichnet eine Abbildung fX mit diesen Eigenschaften als eine Dichte(funktion) (density(function)) der ZV X.
3.1.12 Satz:
Es sei X eine stetige ZV mit der WV QX , der VF FX und einer Dichte fX . Für
a, b ∈ R mit a ≤ b gilt dann:
(.1)
QX [a, b]
= QX ]a, b] = QX [a, b] = QX ]a, b[= FX (b) − FX (a)
Rb
= fX (x)dx
a
insbesondere:
(.2)
R∞
QX {a} = QX [a, a] = 0
fX (x)dx = 1
−∞
(.3)
QX [a, ∞[ = QX ]a, ∞ [ = 1 − FX (a) =
R∞
QX ] − ∞, b] = QX ] − ∞, b [ = FX (b) =
c
°V.
Steinmetz: Grundzüge der Statistik
fX (x)dx
a
Rb
−∞
fX (x)dx
–42–
Beweis:
Es soll hier nur (.1) gezeigt werden:
QX ]a, b] = FX (b) − FX (a)
=
Rb
−∞
=
Ra
fX (x)dx −
fX (x)dx +
−∞
=
Rb
Ra
(nach Satz (3.1.6))
fX (x)dx
(nach (3.1.11.3))
−∞
Rb
a
fX (x)dx −
Ra
fX (x)dx (Summeneigenschaft
−∞
des Integrals)
fX (x)dx
a
Wegen (3.1.11.3) ist FX eine stetige Funktion, es gilt insbesondere
FX (x) = FX (x − 0)
für alle x ∈ R, damit folgt unter Zuhilfenahme von (3.1.8) die erste Zeile von
(.1).
3.1.13 Satz:
Zu jeder Funktion fX : R → R, welche nicht-negativ und uneigentlich integrierbar ist mit
Z∞
fX (x)dx = 1
−∞
gibt es genau eine totalstetige VF FX , zu der fX eine Dichtefunktion ist (zum
Beweis vgl. z.B. Schmitz, N., Plachky, D.: Vorlesungen über Wahrscheinlichkeitstheorie I (1976), S. 98, 99).
3.1.14 Satz:
Ist fX eine Dichte zu einer VF FX , so gilt an allen Stetigkeitsstellen x0 von fX :
¯
dFX (x) ¯¯
= fX (x0 )
dx ¯x=x0
(zum Beweis vgl. z.B. Beyer, u.a.: Wahrscheinlichkeitsrechnung und mathematische Statistik (1976), S. 47).
3.1.15 Definition:
(.1)
Eine stetige Zufallsvariable X mit Dichte fX heißt symmetrisch verteilt
um a ∈ R, wenn fX (a − x) = fX (a + x) für (fast) alle x ∈ R.
(.2)
Eine diskrete Zufallsvariable X heißt symmetrisch verteilt um a ∈ R,
wenn mit jedem Trägerpunkt xi auch 2a − xi Trägerpunkt ist und
QX {xi } = QX {2a − xi } (d.h. QX {x} = QX {2a − x} für alle x ∈ R) gilt.
c
°V.
Steinmetz: Grundzüge der Statistik
–43–
3.1.16 Diskrete Verteilungen:
(.1) Diskrete Gleichverteilung:
Trägerpunkte: xi ∈ R, i = 1, 2, ..., n, xi 6= xj für i 6= j
Punktwahrscheinlichkeiten: pi = QX {xi } =
EX =
1
n
P
xi ; Var X =
i
1
n
P
i
x2i − ( n1
P
1
n
xi ) 2
8
i
Speziell für n = 1 : Einpunktverteilung auf x1
(.2) Alternativverteilung (Zweipunktverteilung):
Trägerpunkte: i ∈ {0, 1}
Punktwahrscheinlichkeiten: p = QX {1}; 1 − p = QX {0}, 0 < p < 1
EX = p; Var X = p(1 − p)
(.3) Binomialverteilung B(n, p) (0 < p < 1):
Trägerpunkte: i ∈ {0, 1, ..., n}
Punktwahrscheinlichkeiten: pi = QX {i} =
EX = np; Var X = np(1 − p)
¡n¢
i
pi (1 − p)n−i =: b(i | n, p),
(.4) Hypergeometrische Verteilung:
Trägerpunkte: i ∈ N0 mit n, M, N ∈ N0 ,
max{0, n + M − N } ≤ i ≤ min{n, M }, n ≤ N, M ≤ N
¡M ¢ ¡N −M ¢
·
Punktwahrscheinlichkeiten: pi = QX {i} = i ¡N ¢n−i
n
8
EX = n ·
M
; Var X
N
=n·
M
N
· (1 −
EX und Var X werden in §(4.1) definiert
c
°V.
Steinmetz: Grundzüge der Statistik
M
)
N
·
N −n
N −1
–44–
(.5) Geometrische Verteilung:
Trägerpunkte: i ∈ N0
Punktwahrscheinlichkeiten: pi = QX {i} = pi (1 − p), 0 < p < 1
EX =
p
p
; Var X =
1−p
(1 − p)2
(.6) Poisson-Verteilung:
Trägerpunkte: i ∈ N0
Punktwahrscheinlichkeiten: pi = QX {i} =
λi −λ
e ; λ>0
i!
EX = λ; Var X = λ
3.1.17 (Total)stetige Verteilungen:
(.1) Stetige Gleichverteilung:
 1

für a ≤ x ≤ b ; a, b ∈ R; a < b

b
−
a
fX (x) =


0
sonst
EX =
a+b
(b − a)2
; Var X =
2
12
(.2) Gaußverteilung N (0, 1) (Standardnormalverteilung):
1
x2
ϕX (x) = fX (x) = √ e− 2 für − ∞ < x < ∞;
2π
Rx
ΦX (x) = FX (x) =
ϕX (y)dy
−∞
EX = 0; Var X = 1
(Im folgenden wird bei N (0, 1)-verteiltem X auch die Schreibweise
P {a ≤ X ≤ b} =: P {a ≤ N (0, 1) ≤ b} verwendet.)
c
°V.
Steinmetz: Grundzüge der Statistik
–45–
(.3) Normalverteilung N (µ, σ 2 ) mit σ > 0, µ ∈ R:
1 x−µ 2
1
fX (x) = √ e− 2 ( σ ) für −∞ < x < ∞ ;
σ 2π
EX = µ; Var X = σ 2
Beachte: Bisweilen wird in der Literatur die Bezeichnung N (µ, σ)
anstelle von N (µ, σ 2 ) gebraucht!
(.4) Logarithmische Normalverteilung mit σ > 0, µ ∈ R:



1 ln x − µ 2






1 1 −2

σ
√
für 0 < x < ∞
e
fX (x) =
σ 2π x





0
sonst
1
2
2
2
EX = eµ+ 2 σ ; Var X = e2µ+σ (eσ − 1)
(.5) t−Verteilung:
9
)
1
1 Γ( n+1
2
q
fX (x) = √
n
2
πn Γ( 2 )
(1 + x )n+1
für − ∞ < x < ∞, n ∈ N
n
n
EX = 0, n ≥ 2; Var X =
, n ≥ 3.
n−2
(.6) Gamma-Verteilung:

p

 a xp−1 e−ax ,

Γ(p)
fX (x) =



0
x ≥ 0, a > 0, p > 0
sonst
p
p
EX = ; Var X = 2
a
a
9
Hinweis: Es ist Γ(p) =
R∞
y p−1 e−y dy für p > 0.
0
Ferner gilt: Γ(p + 1) = p · Γ(p)
Für ganzzahliges p ≥√0 gilt: Γ(p + 1) = p!
Weiter gilt: Γ( 12 ) = π
c
°V.
Steinmetz: Grundzüge der Statistik
–46–
Spezialfälle der Gamma-Verteilung:
(.7) Exponentialverteilung: 
 a · e−ax für x ≥ 0
p = 1; a > 0 : fX (x) =

0
sonst
1
1
EX = ; Var X = 2
a
a
(.8) Erlang-Verteilung:
p > 1 und p ganzzahlig; a = c · p > 0

ap


xp−1 e−ax für x ≥ 0

(p − 1)!
fX (x) =



0
sonst
1
1
EX = ; Var X = 2
c
cp
(.9) χ2 -Verteilung:
1
n
a = ; p = mit n ∈ N
2  2
n−2
1
− 1x

 2 n2 ·Γ( n ) x 2 e 2 für x ≥ 0
2
fX (x) =


0
sonst
EX = n; Var X = 2n
(.10) Beta-Verteilung:

Γ(p + q) p−1


x (1 − x)q−1 für 0 ≤ x ≤ 1, p > 0, q > 0

Γ(p)Γ(q)
fX (x) =



0
sonst
EX =
pq
p
; Var X =
2
p+q
(p + q) (p + q + 1)
c
°V.
Steinmetz: Grundzüge der Statistik
–47–
Spezialfall der Beta-Verteilung:
(.11) F -Verteilung
x
n
q = n2 mit ganzzahligem m und n und y = 1−x
·m
(x 6= 1)

m−2
Γ( m+n
)
y 2
n
m

2

2
2
n
für 0 ≤ y ≤ ∞
m

m+n
Γ( m2 )Γ( n2 )
2
(my
+
n)
fY (y) =



0
sonst
m
;
2
p=
EY =
n
2n2 (m + n − 2)
, n > 2; Var Y =
, n>4
n−2
m(n − 2)2 (n − 4)
3.1.18 Bemerkung:
Wir werden später oft die Einpunktverteilung als Grenzfall zu den speziellen
Familien von Verteilungen hinzunehmen müssen.
3.1.19 Folgerung:
Für die Dichte ϕX einer N (0, 1)-verteilten ZV X gilt
ϕX (x) = ϕX (−x)
für alle x ∈ R,
für ihre Verteilungsfunktion ΦX gilt
ΦX (x) = 1 − ΦX (−x)
Beweis:
(−x)2
1
1
x2
ϕX (x) = √ e− 2 = √ e− 2 = ϕX (−x)
2π
2π
Rx
ϕX (t)dt
ΦX (x) =
−∞
Setze t = −s, also s = −t und dt = −ds.
Für die Integrationsgrenzen gilt dann
t
s
−∞ +∞
+x −x
und man erhält
c
°V.
Steinmetz: Grundzüge der Statistik
–48–
ΦX (x) = −
= −
=
−x
R
ϕX (−s)ds
+∞
−x
R
ϕX (s)ds
(Symmetrie von ϕX (.))
+∞
R∞
ϕX (s)ds
(Vertauschung der Integrationsgrenzen)
−x
= 1 − ΦX (−x)
(wegen (3.1.12.3))
3.1.20 Bemerkung:
Von Bedeutung sind auch Verteilungen, die aus einer diskreten und einer totalstetigen Komponente zusammengesetzt sind:
Eine ZV X (und ihre WV bzw. VF) mit der VF FX heißt vom gemischten Typ,
wenn es
eine diskrete Verteilungsfunktion Fd ,
eine (total)stetige Verteilungsfunktion Fs ,
ein λ ∈]0, 1[, den sogenannten Mischungsparameter,
gibt mit der Eigenschaft
FX (x) = λFd (x) + (1 − λ)Fs (x) für alle x ∈ R;
FX ist dann also eine Konvexkombination aus Fd und Fs .
Beispielsweise läßt sich die Verteilungsfunktion

0
für x < 0





3
+ 81 x für 0 ≤ x ≤ 2
FX (x) =
4





1
für 2 ≤ x
darstellen als Konvexkombination aus der diskreten Verteilungsfunktion
½
0 für x < 0
Fd (x) =
1 für 0 ≤ x
und der totalstetigen Verteilungsfunktion

0 für x ≤ 0





1
x für 0 ≤ x ≤ 2
Fs (x) =
2





1 für 2 ≤ x
mit dem Mischungsparameter λ = 34 .
c
°V.
Steinmetz: Grundzüge der Statistik
–49–
Fd (x)
Fs (x)
6
1 u
e
FX (x)
1
6
1
-
x
2
-
2
x
6
FX (x) = 43 Fd (x) + 14 Fs (x) ∀x ∈ R
u
e
-
2
x
(Die Unterscheidung von diskreten und stetigen Zufallsvariablen ist nicht ausschöpfend, es gibt noch einen dritten Grundtyp, Zufallsvariablen mit einer ”singulären” Verteilung, und dementsprechend Mischungen zwischen allen drei Typen.)
c
°V.
Steinmetz: Grundzüge der Statistik
–50–
3.2 Abbildungen eindimensionaler Zufallsvariablen
3.2.1 Definition:
Es sei X eine eindimensionale ZV über (Ω, F, P ) und G : R → R eine
B1 − B1 −meßbare Abblidung. Man nennt die Zufallsvariable G ◦ X : Ω → R
über (Ω, F, P ) das Bild von X bzgl. G und schreibt auch G ◦ X =: G(X).
3.2.2 Satz:
Gegeben seien die Voraussetzungen aus Definition (3.2.1). Für jedes B ∈ B1 gilt
QG B = QX (G−1 B)
= P (X −1 (G−1 B))
= P ((G ◦ X)−1 B)
= QG◦X B
= QG(X) B
Beweis:
(Ω, F, P)
(R, B1 , QX )
X
Ω
- R
G
(R, B1 , QG )
-R
*
G ◦ X =: G(X)
Es werde der rechts stehende Wahrscheinlichkeitsraum betrachtet, B sei ein
beliebiges Ereignis aus seinem Ereignisraum B1 . Mit der B1 − B1 −Meßbarkeit
von G folgt nach Satz (2.4.2)
QG B = QX (G−1 B)
und mit der F −B1 −Meßbarkeit von X erhält man durch nochmalige Anwendung
von Satz (2.4.2)
QG B = QX (G−1 B) = P (X −1 (G−1 B)).
Wie man sich leicht überlegt, gilt
X −1 (G−1 B) = (G ◦ X)−1 B
und folglich erhält man auch
QG B = P ((G ◦ X)−1 B).
Da man also QG ebenso als Bildwahrscheinlichkeit von QX bzgl. G auffassen
kann wie auch als Bildwahrscheinlichkeit von P bzgl. G ◦ X, gilt auch
QG B = QG◦X B und wegen G ◦ X =: G(X) auch QG B = QG(X) B.
c
°V.
Steinmetz: Grundzüge der Statistik
–51–
3.2.3 Satz:
Es seien X eine eindimensionale Zufallsvariable, a, b ∈ R mit a 6= 0 fest gewählt
und
G:R→R
die Abbildung mit
G(x) = ax + b für alle x ∈ R.
Dann ist
Y := G(X) = aX + b
ebenfalls eine Zufallsvariable und es gilt


y−b
für a > 0 
 FX ( a )
FY (y) =
für alle y ∈ R.


y−b
1 − FX ( a − 0) für a < 0
Falls FX totalstetig ist, so auch FY und für eine Dichte fY (.) gilt an allen Ste◦
◦
Stetigkeitsstelle von fX ist:
tigkeitsstellen y von fY (.), für die gleichzeitig y−b
a
1
· fX
fY ( y ) =
|a|
◦
!
Ã◦
y −b
.
a
Beweis:
Die Meßbarkeit von G ist gewährleistet, da G eine stetige Funktion ist (vgl.
Bemerkung (2.4.6)).
Nach Definition (3.1.1) ist G also eine Zufallsvariable. Damit ist Y := G ◦ X
als Komposition zweier Zufallsvariablen nach Satz (2.4.4) und Definition (3.1.1)
ebenfalls eine Zufallsvariable.
Sei a > 0. Dann gilt
FY (y) = FG(X) (y) = QG(X) ] − ∞, y]
= QX G−1 ] − ∞, y]
= QX {x | G(x) ≤ y}
= QX {x | ax + b ≤ y}
= QX {x | x ≤
y−b
}
a
= QX ] − ∞, y−b
]
a
= FX ( y−b
).
a
c
°V.
Steinmetz: Grundzüge der Statistik
(beachte a > 0)
–52–
Sei a < 0. Dann gilt
FY (y) = QX {x | ax + b ≤ y}
= QX {x | x ≥
y−b
}
a
= QX [ y−b
, ∞[
a
= 1 − FX ( y−b
− 0) .
a
Sei FX totalstetig. Dann ist auch FY totalstetig (denn durch (∗) ist - bis auf
Unstetigkeitsstellen - eine Dichte zu Y gegeben).
◦
Ist fY eine Dichte zu FY und y eine Stetigkeitsstelle von fY , so folgt für a > 0
¯
dFY (y) ¯¯
fY ( y ) =
dy ¯y◦
◦
(Satz (3.1.14))
¯
y−b ¯
dFX (
)¯
a ¯¯
=
¯
dy
¯◦
y
¯
1 dFX (x) ¯¯
=
◦
a dx ¯ y −b
a
Ã◦
!
y −b
1
10
= fX
a
a
1
fX
=
|a|
10
!
Ã◦
y −b
(∗)
a
Es gibt stets auch eine Dichte fX zu FX , die unter den gemachten Voraussetzungen an der
◦
Stelle
y −b
a
stetig ist, also die Anwendung von Satz (3.1.14) erlaubt.
c
°V.
Steinmetz: Grundzüge der Statistik
–53–
für a < 0 erhält man
¯
y−b ¯
d(1 − FX (
)) ¯
¯
a
fY (y) =
¯
¯
dy
¯◦
y
◦
y −b
1
= − fX (
)
a
a
◦
y −b
1
fX (
) (wegen a < 0)
=
|a|
a
3.2.4 Folgerung:
Es seien X eine N (0, 1)-verteilte Zufallsvariable und µ, σ ∈ R mit σ > 0. Dann
ist die Zufallsvariable Y = σX + µ N (µ, σ 2 )−verteilt und es gilt
µ
¶
y−µ
FY (y) = Φ
für alle y ∈ R .
σ
Beweis:
Nach (3.1.16.2) hat X eine Dichte
x2
1
fX (x) = ϕX (x) = √ e− 2 ,
2π
nach Satz (3.2.3) ist folglich
1
fY (y) = ϕX
σ
µ
y−µ
σ
¶
1
1 y−µ 2
= √ e− 2 ( σ )
σ 2π
für alle y ∈ R
2
eine Dichte von Y , also ist Y nach µ
(3.1.16.3)
¶ N (µ, σ )-verteilt. Nach Satz (3.2.3)
y−µ
für alle y ∈ R.
folgt dann sofort auch FY (y) = Φ
σ
c
°V.
Steinmetz: Grundzüge der Statistik
–54–
3.3 Mehrdimensionale Zufallsvariablen
3.3.1 Definition:
Es sei (Ω, F, P ) ein WR. Eine F − Bn −meßbare Abbildung X : Ω → Rn (n ∈ N)
heißt n-dimensionale ZV über (Ω, F, P ). Die Abbildung QX : Bn → R mit
QX B = P X −1 B
für alle B ∈ Bn
heißt Wahrscheinlichkeitsverteilung der ZV X.
3.3.2 Definition:
Es sei i ∈ {1, ..., n}. Die Abbildung
pri : Rn → R mit
pri (x1 , ..., xn ) = xi für alle (x1 , ..., xn ) ∈ Rn
bezeichnet man als i−te Projektion des Rn auf den R1 .
3.3.3 Satz:
Die i−te Projektion pri : Rn → R ist Bn − B1 −meßbar (i = 1, ..., n).
3.3.4 Definition:
Es sei X eine n−dimensionale ZV über einem WR (Ω, F, P ).
Man bezeichnet die ZV
Xi := pri ◦ X : Ω → R i = 1, ..., n
als i−te Komponente von X.
3.3.5 Bemerkung:
Gegeben seien die Voraussetzungen der Definition (3.3.4). Es gilt
X(ω) = (X1 (ω), ..., Xn (ω)) für alle ω ∈ Ω.
Deshalb schreibt man auch
X = (X1 , ..., Xn ).
3.3.6 Definition:
Es sei X = (X1 , ..., Xn ) eine n−dimensionale ZV. Man bezeichnet ihre WV
QX als gemeinsame (Wahrscheinlichkeits)Verteilung der ZV X1 , ..., Xn und die
WV QXi der i−ten Komponente Xi von X (i = 1, ..., n) als Randverteilung der
gemeinsamen Verteilung QX .
c
°V.
Steinmetz: Grundzüge der Statistik
–55–
3.3.7 Definition:
Eine n−dimensionale ZV X heißt diskret, wenn der zugehörige WR (Rn , Bn , QX )
ein diskreter WR ist.
3.3.8 Bemerkung:
Es sei Z = (X, Y ) eine 2-dimensionale diskrete ZV mit den endlich vielen
Trägerpunkten (xi , yk ) und den zugehörenden Punktmassen QZ {(xi , yk )} =: pik
für (i, k) ∈ J ⊆ N × N.
Dann gilt für die Randverteilungen QY und QX mit
QX {xi } =: pi· bzw. QY {yk } =: p·k
pi· =
P
k
pik p·k =
P
pik
i ∈ pr1 (J)
i
k ∈ pr2 (J)
Ordnet man die ersten Koordinaten xi der Trägerpunkte in der Vorspalte einer
Tabelle an, die zweiten Koordinaten yk in der Kopfzeile und im Schnittpunkt der
Zeile Nr. i mit der Spalte Nr. k die Punktmasse pik (dabei setzt man pi0 k0 = 0,
falls (xi0 , yk0 ) kein Trägerpunkt von Z ist), so ergeben sich die pi· als Zeilensummen und die p·k als Spaltensummen:
yk
yk
xi
xi
p·k =
···
P
..
.
pik
pi· =
P
pik
k
pi·
p·k
pik
i
Beweis:
Es sei i0 ∈ pr1 (J) fest gewählt
pi0 · := QX {xi0 } = QZ {(x, y) | x = xi0 ∧ y ∈ R}
= QZ {(xi0 , yk ) | (i0 , k) ∈ J}
= QZ
S
(i0 ,k)∈J
=
P
{(xi0 , yk )}
pi0 ,k
(i0 ,k)∈J
=
P
k∈pr2 (J)
pi0 ,k
mit pi0 ,k = 0 für (i0 , k) ∈
/J
Entsprechend beweist man die Aussage für p·k .
c
°V.
Steinmetz: Grundzüge der Statistik
–56–
3.3.9 Bemerkung:
Nach Definition (3.3.6) werden die Randverteilungen durch die gemeinsame Verteilung eindeutig festgelegt; das Umgekehrte gilt aber nicht, z.B. können zwei
Paare gleicher Randverteilungen verschiedene gemeinsame Verteilungen haben.
3.3.10 Definition:
Es sei X = (X1 , ..., Xn ) eine n−dimensionale ZV mit der WV QX . Die Abbildung
FX : R n → R
mit
FX (x1 , ..., xn ) := QX (] − ∞, x1 ] × ...×] − ∞, xn ])
für alle (x1 , ..., xn ) ∈ Rn heißt Verteilungsfunktion von X = (X1 , ..., Xn ) oder
gemeinsame Verteilungsfunktion der ZV X1 , ..., Xn . Die Verteilungsfunktionen
FXi der einzelnen Komponenten Xi bezeichnet man auch als Randverteilungsfunktionen der gemeinsamen Verteilung QX .
3.3.11 Definition:
Es sei X eine n−dimensionale ZV mit der WV QX und der VF FX . Die Zufallsvariable X (und auch QX bzw. FX ) heißt (total)stetig, wenn es eine Abbildung
fX : R n → R
gibt mit
(.1) fX (x1 , ..., xn ) ≥ 0 für alle (x1 , ..., xn ) ∈ Rn
(.2) fX ist uneigentlich integrierbar
(.3) FX (x1 , ..., xn ) =
Rx1
−∞
...
Rxn
−∞
fX (t1 , ..., tn )dtn ...dt1 für alle (x1 , ..., xn ) ∈ Rn .
Man bezeichnet eine Abbildung fX mit diesen Eigenschaften als eine
Dichte(funktion) der ZV X oder gemeinsame Dichte(funktion) der X1 , ..., Xn .
3.3.12 Satz:
Ist fX eine Dichte zu der VF FX einer n−dimensionalen ZV X, so gilt an allen
◦
◦
Stetigkeitsstellen (x1 , ..., xn ) von fX :
¯
∂ n FX (x1 , ..., xn ) ¯¯
◦
◦
fX (x1 , ..., xn ) =
.
∂x1 ∂x2 ....∂xn ¯(x◦ 1 ,...,x◦ n )
Bemerkung:
◦
◦
Unter den Voraussetzungen von Satz (3.3.12), daß die (x1 , ..., xn ) Stetigkeitsstellen von FX sind, gilt, daß die partiellen Ableitungen unabhängig von der
Reihenfolge der Differentiationen sind.
c
°V.
Steinmetz: Grundzüge der Statistik
–57–
3.3.13 Satz:
Es sei Z = (X, Y ) eine 2-dimensionale ZV mit der VF FZ . Dann haben die ZV
X und Y die Randverteilungsfunktionen FX bzw. FY mit
FX (x) = FZ (x, ∞) für alle x ∈ R
FY (y) = FZ (∞, y) für alle y ∈ R.
Falls Z totalstetig ist mit Dichte fZ , so sind auch X und Y totalstetig und man
erhält Dichten fX bzw. fY durch
fX (x) =
Z∞
fZ (x, y)dy
Z∞
fZ (x, y)dx für alle y ∈ R.
für alle x ∈ R
−∞
fY (y) =
−∞
Beweis:
Für Z = (X, Y ) gilt X = pr1 ◦ Z und man erhält
FX (x) = QX ] − ∞, x]
= QZ pr1−1 ] − ∞, x]
= QZ {(s, t) | −∞ < s ≤ x ∧ t ∈ R}
= QZ (] − ∞, x] × R)
= FZ (x, ∞).
Ist Z = (X, Y ) totalstetig mit einer Dichte fZ , so gilt
FX (x) = FZ (x, ∞) =
Zx Z∞
fZ (s, t)dtds.
−∞ −∞
Dabei ist
R∞
fZ (s, t)dt =: f (s) eine nicht negative, uneigentlich integrierbare
−∞
Funktion mit der Eigenschaft
Zx
f (s)ds = FZ (x, ∞) = FX (x),
−∞
also eine Dichte von X.
Entsprechend beweist man die Aussagen für Y .
c
°V.
Steinmetz: Grundzüge der Statistik
–58–
3.3.14 Definition:
Gegeben seien die Voraussetzungen des Satzes (3.3.13). Man bezeichnet fX und
fY als Randdichten (Randdichtefunktionen) (marginal density) der gemeinsamen
WV Q(X,Y ) .
3.3.15 Bemerkung:
Es seien X = (X1 , X2 ) eine zweidimensionale ZV über einem WR (Ω, F, P ),
a, b ∈ R fest gewählt und G, H : R2 → R die Abbildungen mit
G(x1 , x2 ) = ax1 + bx2
H(x1 , x2 ) = ax1 x2
∀(x1 , x2 ) ∈ R2 ,
∀(x1 , x2 ) ∈ R2 .
Dann sind
Y := G ◦ X = aX1 + bX2 ,
Z := H ◦ X = aX1 X2
ebenfalls ZV über (Ω, F, P ).
(Zum Beweis vgl. Schmitz, N., Plachky, D.: Vorlesungen über Wahrscheinlichkeitstheorie I (1976), S.114, Lemma (3.15)).
3.3.16 Bemerkung:
In Verallgemeinerung von Definition (3.1.17.3) kann man auch eine Normalverteilung für n−dimensionale Zufallsvariablen X = (X1 , ..., Xn ) definieren
(s. Anhang B.12). Sie hat die Eigenschaft, daß die Randverteilungen der Xi
wieder Normalverteilungen sind. Außerdem ist beispielsweise die ZV
G(X) := a1 X1 + ... + an Xn mit (a1 , ..., an ) ∈ Rn − {(0, ..., 0)} normalverteilt.
(vgl. z.B. Fisz, M.: Wahrscheinlichkeitsrechnung und mathematische Statistik
(1965), S. 143-145)
Man beachte aber: sind alle Randverteilungen einer ZV Normalverteilungen,
muß die gemeinsame Verteilung nicht notwendig selbst eine Normalverteilung
sein, ebenso muß in diesem Fall die Summe zweier Randverteilungen nicht normalverteilt sein.
c
°V.
Steinmetz: Grundzüge der Statistik
–59–
3.4 Bedingte Verteilungen und Unabhängigkeit von Zufallsvariablen
3.4.1 Definition:
Es sei Z = (X, Y ) eine diskrete 2-dimensionale ZV mit
QZ {(xi , yk )} = P {X = xi ∧ Y = yk } = pik ,
für ein festes k gelte
QY {yk } = P {Y = yk } = p·k > 0.
Dann heißt QX|Y =yk : B1 → R mit
QX|Y =yk {xi } :=
P {X = xi ∧ Y = yk }
pik
=
P {Y = yk }
p·k
für alle xi
die durch die Hypothese Y = yk bedingte Wahrscheinlichkeitsverteilung von X.
Entsprechend ist für ein festes i mit pi· > 0 durch
QY |X=xi {yk } :=
pik
P {X = xi ∧ Y = yk }
=
P {X = xi }
pi·
für alle yk
die durch die Hypothese X = xi bedingte Wahrscheinlichkeitsverteilung von Y
definiert.
(Man hat auch die Schreibweisen
QX|Y =yk {xi } =: P {X = xi | Y = yk } bzw.
QY |X=xi {yk } =: P {Y = yk | X = xi }.)
3.4.2 Bemerkung:
Es bleibt zu zeigen, daß QX|Y =yk und QY |X=xi tatsächlich Wahrscheinlichkeitsverteilungen sind, also die Bezeichnung in Definition (3.4.1) zu recht eingeführt
worden ist. Es genügt nachzuweisen, daß die Werte QX|Y =yk {xi } und QY |X=xi {yk }
nicht negativ sind und sich über i bzw. k zu 1 aufsummieren: wegen p·k > 0
≥ 0 bzw. ppiki· ≥ 0.
bzw. pi· > 0 und pik ≥ 0 folgt ppik
·k
Weiterhin folgt:
P pik
i
3.4.3 Definition:
p·k
=
1
p·k
P
pik =
i
1
p·k
· p·k = 1 (entsprechend für k).
Es sei Z = (X, Y ) eine 2-dimensionale stetige ZV mit einer Dichte fZ und den
Randdichten fX bzw. fY . An einer festen Stelle y ∈ R sei fY stetig und es gelte
fY (y) > 0. Man nennt fX|Y =y : R → R mit
fX|Y =y (x) :=
c
°V.
Steinmetz: Grundzüge der Statistik
fZ (x, y)
fY (y)
für alle x ∈ R
–60–
die durch Y = y bedingte Dichte(funktion) von X.
Entsprechend ist für eine feste Stetigkeitsstelle x ∈ R von fX mit fX (x) > 0
durch
fZ (x, y)
für alle y ∈ R
fY |X=x (y) :=
fX (x)
die durch X = x bedingte Dichte(funktion) von Y definiert.
(Man hat auch die Schreibweisen
fX|Y =y (x) =: fX (x | Y = y) bzw. fY |X=x (y) =: fY (y | X = x).)
3.4.4 Bemerkung:
Es bleibt zu zeigen, daß die in Definition (3.4.3) definierten Funktionen tatsächlich Dichtefunktionen sind, d.h. nicht negativ und uneigentlich integrierbar sind
sowie der Normierungsvorschrift genügen.
Sowohl im diskreten als auch im stetigen Fall kann man bedingte Verteilungsfunktionen einführen, z.B.
FX|Y =yk (x) := QX|Y =yk ] − ∞, x] =: FX (x | Y = yk ) ∀x ∈ R p·k > 0
Rx
FX|Y =y (x) :=
fX|Y =y (t)dt =: FX (x | Y = y)
∀x ∈ R
y
−∞
Stetigkeitsstelle von fY mit fY (y) > 0
Im stetigen Fall kann man ferner durch
Z
QX|Y =y B := fX|Y =y (x)dx ∀ B ∈ B1
B
die bedingte Verteilung von X unter Y = y definieren.
3.4.5 Definition:
Zwei ZV X und Y mit der gemeinsamen Verteilung Q(X,Y ) und den Randverteilungen QX bzw. QY heißen (stochastisch) unabhängig, wenn gilt
Q(X,Y ) (B1 × B2 ) = QX B1 · QY B2
für alle B1 , B2 ∈ B1 .
3.4.6 Satz:
Es sei (X, Y ) eine 2-dimensionale diskrete ZV mit den Trägerpunkten (xi , yk )
und den zugehörigen Punktmassen pik := Q(X,Y ) {(xi , yk )}. Die ZV X und Y
sind genau dann unabhängig, wenn gilt
pik = pi· · p·k
c
°V.
Steinmetz: Grundzüge der Statistik
für alle (xi , yk ).
–61–
Beweis:
1. Teil: Vorausgesetzt wird die Unabhängigkeit von X und Y , d.h.
Q(X,Y ) (B1 × B2 ) = QX B1 · QY B2 ∀B1 , B2 ∈ B1 .
Dies gilt insbesondere auch für die einpunktigen Mengen {xi } und {yk }, man
erhält also
pik = Q(X,Y ) {(xi , yk )} = Q(X,Y ) ({xi } × {yk })
= QX {xi } · QY {yk } = pi· · p·k
2. Teil: Vorausgesetzt wird pik = pi· · p·k für alle Trägerpunkte (xi , yk ).
Es gilt
P
P
QX B 1 · Q Y B 2 =
pi· ·
p·k
xi ∈B1
P
=
yk ∈B2
xi ∈B1 ∧yk ∈B2
=
P
pi· · p·k =
pik
(xi ,yk )∈B1 ×B2
P
(xi ,yk )∈B1 ×B2
pi· · p·k
= Q(X,Y ) (B1 × B2 )
3.4.7 Satz:
Es seien X und Y zwei ZV mit der gemeinsamen VF F(X,Y ) und den Randverteilungsfunktionen FX bzw. FY . Die ZV X und Y sind genau dann unabhängig,
wenn gilt
F(X,Y ) (x, y) = FX (x) · FY (y) für alle x, y ∈ R.
Sind X und Y stetig mit Randdichten fX bzw. fY , so sind sie genau dann
unabhängig, wenn die Abbildung
R2 → R , (x, y) 7→ fX (x) · fY (y)
eine gemeinsame Dichtefunktion von (X, Y ) ist.
Beweis:
Zunächst werden die Verteilungsfunktionen betrachtet.
1. Teil: X und Y seien unabhängig. Dann gilt
F(X,Y ) (x, y) = Q(X,Y ) (] − ∞, x]×] − ∞, y])
= QX ] − ∞, x] · QY ] − ∞, y] = FX (x) · FY (y)
2. Teil: Es gelte F(X,Y ) (x, y) = FX (x) · FY (y) ∀x, y ∈ R. Wir betrachten Ereignisse der Form
B =]x1 , x2 ]×]y1 , y2 ] ∈ B2
c
°V.
Steinmetz: Grundzüge der Statistik
–62–
y
6
y2
y1
e
(x1 , y2 )
e
(x1 , y1 )
u
(x2 , y2 )
B
e
(x2 , y1 )
-
x1
x2
x
Dann gilt
Q(X,Y ) (]x1 , x2 ]×]y1 , y2 ])
= F(X,Y ) (x2 , y2 ) − F(X,Y ) (x1 , y2 ) − F(X,Y ) (x2 , y1 ) + F(X,Y ) (x1 , y1 )
= FX (x2 ) · FY (y2 ) − FX (x1 ) · FY (y2 ) − FX (x2 ) · FY (y1 ) + FX (x1 ) · FY (y1 )
= (FX (x2 ) − FX (x1 ))(FY (y2 ) − FY (y1 )) = QX ]x1 , x2 ] · QY ]y1 , y2 ].
Damit ist für alle Ereignisse der Form B1 × B2 =]x1 , x2 ]×]y1 , y2 ] die geforderte Produkteigenschaft nachgewiesen. Man kann zeigen, daß sie dann für alle
Ereignisse B1 , B2 ∈ B1 sichergestellt ist (vgl. z.B. Krickeberg, K.: Wahrscheinlichkeitstheorie (1963), S. 72).
Die Aussage über den Zusammenhang von Randdichten und gemeinsamer Dichtefunktion läßt sich leicht aus dem bereits Bewiesenen folgern.
3.4.8 Bemerkung:
Liegen in der Situation von Satz (3.4.7) Randdichten fX , fY sowie eine gemeinsame Dichte f(X,Y ) von (X, Y ) vor, so genügt es zum Nachweis der Unabhängigkeit
von X und Y zu zeigen, daß
f(X,Y ) (x, y) = fX (x) · fY (y)
bis auf eine höchstens abzählbare Ausnahmemenge für alle x, y ∈ R gilt.
3.4.9 Bemerkung:
Aus Bemerkung (3.3.9) geht hervor, daß man aus den Randverteilungen QX
und QY zweier Zufallsvariablen X bzw. Y die gemeinsame Verteilung Q(X,Y )
i.a. nicht berechnen kann.
Eine Ausnahme bildet der Fall der stochastischen Unabhängigkeit, denn dann
gilt
(∗)
Q(X,Y ) (B1 × B2 ) = QX B1 · QY B2 ∀B1 , B2 ∈ B1 .
c
°V.
Steinmetz: Grundzüge der Statistik
–63–
Man kann zeigen, daß Q(X,Y ) auf ganz B2 definiert ist, wenn sie nur auf den
speziellen Ereignissen der Form B1 × B2 ∈ B2 festliegt. Durch die rechte Seite
der Gleichung (∗) kann man stets eine WV auf B2 in Abhängigkeit von QX
und QY festlegen, die sogenannte Produktverteilung von QX und QY , durch die
Festsetzung
(QX ⊗ QY )(B1 × B2 ) := QX B1 · QY B2
für alle B1 , B2 ∈ B1 .
Diese Produktverteilung QX ⊗QY ist folglich genau dann gleich der gemeinsamen
Verteilung Q(X,Y ) von X und Y , wenn die ZV X und Y unabhängig sind.
3.4.10 Bemerkung:
(.1) In Verallgemeinerung von Definition (3.4.5) nennt man n Zufallsvariablen
X1 , ..., Xn (stochastisch) unabhängig, wenn gilt
Q(X1 ,...,Xn ) (B1 × ... × Bn ) = QX1 B1 · ... · QXn Bn für alle B1 , ..., Bn ∈ B1 .
Auch die Sätze (3.4.6) und (3.4.7) sowie die vorangehende Bemerkung (3.4.9)
kann man ohne Schwierigkeiten auf den Fall von n ZV übertragen.
(.2) Sind X = (X1 , ..., Xm ) und Y = (Y1 , ..., Yn ) zwei m− bzw. n−dimensionale
Zufallsvariablen, so nennt man X und Y in Verallgemeinerung von Definition (3.4.5) unabhängig, falls gilt
Q(X,Y ) (B1 × B2 ) = QX B1 · QY B2 für alle B1 ∈ Bm und B2 ∈ Bn .
3.4.11 Satz:
Es seien X1 , ..., Xn unabhängig identisch verteilte Alternativen mit
x
|
0
1
QXk {x} | 1 − p p
Dann ist die Zufallsvariable
Z :=
k = 1, ..., n 0 < p < 1 .
n
X
Xk
k=1
binomial B(n, p)-verteilt, d.h. es gilt
µ ¶
n i
QZ {i} =
p (1 − p)n−i
i
c
°V.
Steinmetz: Grundzüge der Statistik
für i ∈ {0, 1, ..., n} .
–64–
Beweis:
Die n Zufallsvariablen seien zu einer n−dimensionalen Zufallsvariablen
X := (X1 , ..., Xn )
zusammengefaßt. Die Menge der Trägerpunkte ist {0, 1}n ⊆ Rn und es gilt
entsprechend Bemerkung (3.4.10):
QX {(x1 , ..., xn )} = QX1 {x1 } · ... · QXn {xn } für alle (x1 , ..., xn ) ∈ {0, 1}n .
Die Zufallsvariable Z hat die Trägerpunkte 0, 1, ..., n und es gilt
n
P
QZ {i} = QX Z −1 {i} = QX {(x1 , ..., xn ) ∈ Rn |
xk = i}
k=1
= QX {(x1 , ..., xn ) ∈ {0, 1}n | genau i der xk sind 1 und n − i sind 0} .
Z.B. gilt für
(1, ..., 1, 0, ..., 0) ∈ Z −1 {i}
| {z } | {z }
i
n−i
QX {(1, ..., 1, 0, ..., 0)} = QX1 {1} · ... · QXi {1} · QXi+1 {0} · ... · QXn {0}
Es gibt
¡n¢
i
= pi (1 − p)n−i .
n−Tupel mit genau i Einsen und n − i Nullen, so daß insgesamt folgt
QZ {i} = QX Z −1 {i}
=
¡n¢
i
pi (1 − p)n−i
= b(i | n, p) .
3.4.12 Folgerung:
Bei einem Zufallsexperiment trete ein Ereignis A mit der Wahrscheinlichkeit
p ∈]0, 1[ ein. Wird das Experiment n mal unabhängig wiederholt, so ist die Anzahl Z der Versuche, bei denen A eintritt, eine B(n, p)−verteilte Zufallsvariable.
Beweis:
Für jede der n Versuchsdurchführungen werde eine eigene Zufallsvariable
Xk (k = 1, ..., n) definiert mit
½
1 : A tritt bei Versuch Nr. k ein
Xk =
0 : A tritt bei Versuch Nr. k nicht ein.
Die Xk sind nach Voraussetzung unabhängig identisch verteilt mit
die Zufallsvariable Z :=
n
P
x
|
0
1
,
QXk {x} | 1 − p p
Xn gibt die Anzahl der Versuche an, bei denen A
k=1
eintritt und ist nach Satz (3.4.11) B(n, p)-verteilt.
c
°V.
Steinmetz: Grundzüge der Statistik
–65–
3.4.13 Satz:
Es seien X = (X1 , ..., Xm ) und Y = (Y1 , ..., Yn ) unabhängige Zufallsvariablen
über einem WR (Ω, F, P ) und
f : R m → Rr ,
g : R n → Rs
Bm − Br − bzw. Bn − Bs −meßbare Abbildungen. Dann sind f (X) und g(Y )
unabhängige Zufallsvariablen.
(Zum Beweis siehe z.B. Rohatgi, V.K.: An Introduction to Probability Theory
and Mathematical Statistics (1976), S. 121)
c
°V.
Steinmetz: Grundzüge der Statistik
–66–
4 Maßzahlen der Verteilung von Zufallsvariablen
4.1 Momente eindimensionaler Zufallsvariablen
4.1.1 Definition:
Es sei X eine diskrete 1-dimensionale ZV mit den Trägerpunkten xi und den
Punktwahrscheinlichkeiten QX {xi } = pi (i ∈ J ⊆ N). Gilt
(.1)
P
i∈J
(.2)
|xi |pi < ∞, so heißt
EX :=
P
xi p i
i∈J
der Erwartungswert (Mittelwert) (expected value, expectation) der ZV X. Gilt
(.1) nicht, so sagt man, der Erwartungswert existiere nicht.
4.1.2 Bemerkung:
Hat eine diskrete ZV nur endlich viele Trägerpunkte, so ist (4.1.1.1) trivialerweise
erfüllt, d.h. der Erwartungswert existiert dann immer.
4.1.3 Folgerung:
Die ZV X habe eine Einpunktverteilung auf a ∈ R, d.h. QX {a} = 1.
Dann gilt
EX = a.
4.1.4 Definition:
Es sei X eine stetige 1-dimensionale ZV und fX : R → R eine Dichte von X.
Gilt
R∞
(.1)
|x|fX (x)dx < ∞,
−∞
so heißt
(.2)
EX :=
R∞
xfX (x)dx
−∞
der Erwartungswert (Mittelwert) der ZV X. Gilt (.1) nicht, so sagt man, der
Erwartungswert existiere nicht.
4.1.5 Vereinbarung:
Zur Vereinfachung soll im folgenden bei der Benutzung des Symbols EX und
nicht spezifizierter Verteilung von X die Existenz des Erwartungswertes ohne
ausdrückliche Erwähnung vorausgesetzt werden.
c
°V.
Steinmetz: Grundzüge der Statistik
–67–
4.1.6 Satz:
Es seien X eine 1-dimensionale ZV und G : R → R eine B1 − B1 −meßbare
Abbildung.
Ist X diskret mit der Wahrscheinlichkeitsverteilung QX , den Trägerpunkten xi
und QX {xi } = pi , so existiert der Erwartungswert EG(X), falls
X
|G(xi )|pi < ∞,
i
und es gilt
EG(X) =
X
G(xi )pi =
i
X
i
G(xi )QX {xi }.
Ist X stetig mit einer Dichte fX , so existiert EG(X), falls
Z∞
|G(x)|fX (x)dx < ∞ ,
−∞
und es gilt
EG(X) =
Z∞
G(x)fX (x)dx .
−∞
Beweis: Der Beweis werde nur für den diskreten Fall durchgeführt: Die Abbildung G sei in dem folgenden Diagramm veranschaulicht, wobei die Zuordnung
nur für die Trägerpunkte von X bzw. G(X) dargestellt wird.
x1
x3
x4
x2
x5
-R
G
RN ¼
R
y2
/
y1
?
-R
Es sei A := {xi | QX {xi } = pi > 0 ∧ Σpi = 1} die abzählbare Menge der
Trägerpunkte von X. Die Menge
B := G(A)
ist dann ebenfalls abzählbar und es gilt
QG(X) {yk } = QX (G−1 {yk })
= QX (A ∩ G−1 {yk }) > 0 ∀yk ∈ B .
Die Mengen
Ayk := A ∩ G−1 {yk } = {xi | xi ∈ A ∧ G(xi ) = yk } ∀yk ∈ B
c
°V.
Steinmetz: Grundzüge der Statistik
–68–
bilden eine Zerlegung von A. Damit folgt
P
P
QG(X) {yk } =
QX (A ∩ G−1 {yk })
yk ∈B
yk ∈B
= QX
S
yk ∈B
(A ∩ G−1 {yk })
= QX A = 1.
Wir haben damit als Zwischenergebnis gezeigt: Das meßbare Bild einer diskreten
Zufallsvariablen ist wieder eine diskrete Zufallsvariable.
Weiter folgt:
P
yk QG(X) {yk }
EG(X) =
yk ∈B
=
P
yk ∈B
=
P
yk ∈B
=
P
y k Q X A yk
yk
P
xi ∈Ayk
P
yk ∈B xi ∈Ayk
=
P
P
yk ∈B xi ∈Ayk
=
P
xi ∈A
QX {xi }
yk QX {xi }
G(xi )QX {xi }
G(xi )QX {xi }
Die Existenzbedingung ist nun leicht zu verifizieren:
X
X
∞>
|yk |QG(X) {yk } =
|G(xi )|QX {xi }
yk ∈B
xi ∈A
Zum Beweis des stetigen Falls siehe z.B. Rényi, A.: Wahrscheinlichkeitsrechnung
(1966), S. 205, Aufgabe 47.
4.1.7 Satz:
Es sei X eine ZV mit dem Erwartungswert EX undG : R → R eine Abbildung
mit
G(x) = ax + b a, b ∈ R.
Dann existiert auch der Erwartungswert der ZVG(X) = aX + b und es gilt
E(aX + b) = aEX + b.
c
°V.
Steinmetz: Grundzüge der Statistik
–69–
Beweis:
a) Sei X stetig verteilt mit einer Dichte fX . Dann gilt nach Satz (4.1.7):
EG(X) =
R∞
G(x)fX (x)dx =
−∞
=a
R∞
(ax + b)fX (x)dx
−∞
R∞
xfX (x)dx + b
−∞
R∞
fX (x)dx = aEX + b .
−∞
Die Existenz des Erwartungswertes ist sichergestellt wegen
R∞
−∞
|ax+b|fX (x)dx ≤
R∞
−∞
(|a| |x|+|b|)fX (x)dx = |a|
R∞
−∞
|x|fX (x)dx+|b| < ∞ .
b) Sei X diskret verteilt, QX die zugehörige WV mit den Trägerpunkten xi und
QX {xi } =: pi . Dann gilt nach Satz (4.1.6)
P
P
EG(X) =
G(xi )pi = (axi + b)pi
i
=a
i
P
i
xi p i + b
P
pi = aEX + b.
Die Existenz des Erwartungswertes ist sichergestellt wegen
X
X
X
|axi + b|pi ≤
(|a| |xi | + |b|)pi = |a|
|xi |pi + |b| < ∞.
i
i
i
4.1.8 Satz:
Ist die Zufallsvariable X symmetrisch um a ∈ R verteilt und existiert ihr Erwartungswert, so gilt
EX = a.
Beweis:
Es werde nur der stetige Fall gezeigt.
Nach Satz (4.1.7) gilt:
EX = E(X − a) + a.
Die Behauptung ist bewiesen, wenn E(X − a) = 0 gezeigt ist. Nach Satz (4.1.6)
gilt mit
g(X) := X − a
Z∞
Z∞
2E(X − a) =
(x − a)fX (x)dx + (x − a)fX (x)dx.
−∞
c
°V.
Steinmetz: Grundzüge der Statistik
−∞
–70–
Setzt man in dem ersten Integral
x − a =: y,
also
x=a+y
dx = dy
x
y
−∞ −∞
+∞ +∞
und im zweiten Integral
x = a − y dx = −dy
x
y
−∞ +∞
+∞ −∞
so folgt
2E(X − a) =
=
R∞
−∞
R∞
−∞
yfX (a + y)dy −
yfX (a + y)dy −
+∞
R
−∞
−∞
und da X symmetrisch um a verteilt ist, folgt
Z∞
yfX (a + y)dy −
−∞
Z∞
R∞
(−y)fX (a − y)(−dy)
yfX (a − y)dy ,
yfX (a − y)dy = 0 .
−∞
4.1.9 Satz:
Es sei Z = (X, Y ) eine 2-dimensionale ZV. Dann gilt für die Komponenten X
und Y :
(.1)
E(X ± Y ) = EX ± EY .
Sind X und Y stochastisch unabhängig, so gilt auch
(.2)
E(X · Y ) = EX · EY .
(Entsprechende Aussagen gelten auch für den Fall einer n-dimensionalen ZV
X = (X1 , ..., Xn ).)
Beweis:
Der Beweis erfolgt im nächsten Paragraphen bei der Behandlung von Momenten
2-dimensionaler ZV (Satz (4.2.5)).
c
°V.
Steinmetz: Grundzüge der Statistik
–71–
4.1.10 Definition:
Es sei X eine 1-dimensionale ZV. Man bezeichnet den Erwartungswert EX k
(k = 0, 1, 2, ...), falls er existiert, als das Moment k-ter Ordnung um Null von X
(k-th order moment) und schreibt
µk := EX k =: µk (X).
Weiterhin bezeichnet man den Erwartungswert E(X − EX)k (k = 0, 1, 2, ...),
falls er existiert, als das zentrale Moment (central moment) k-ter Ordnung von
X und schreibt
σk := E(X − EX)k =: σk (X).
4.1.11 Satz:
Die zentralen Momente sind translationsinvariant, d.h.
σk (X) = σk (X + a) für a ∈ R .
Beweis:
σk (X + a) = E[(X + a) − E(X + a)]k = E(X − EX)k = σk (X)
4.1.12 Definition:
Das zweite zentrale Moment einer ZV X bezeichnet man als Streuung oder
Varianz (variance) von X und schreibt
2
E(X − EX)2 =: Var X =: D 2 X =: σX
=: σ 2 .
Die positive Wurzel aus der Streuung bezeichnet man als Standardabweichung
(standard deviation) von X und schreibt
p
+ E(X − EX)2 =: DX =: σX =: σ.
Gilt σX 6= 0, so bezeichnet man die Quotienten
σ3 (X)
als Schiefe (skewness)
3
σX
σ4 (X)
− 3 als Exzeß (Steilheit, Wölbung, Kurtosis)
(Var X)2
σX
der
(excess) der Verteilung von X. Gilt EX 6= 0, so heißt der Quotient
EX
Variationskoeffizient (coefficient of variation) von X.
und den Ausdruck
c
°V.
Steinmetz: Grundzüge der Statistik
–72–
4.1.13 Satz:
Es sei X eine ZV mit dem Erwartungswert EX und der Varianz Var X. Dann
gilt
(.1) Var(aX) = a2 Var X ∀a ∈ R
(.2) Var(X + b) = Var X ∀ b ∈ R (Verschiebungs- oder Translationsinvarianz)
(.3) Var X = EX 2 −(EX)2 (Varianzzerlegungssatz)(variance decomposition theorem)
Beweis:
zu (.1)
Var(aX)
E[aX − E(aX)]2
=
(4.1.8)
=
E[aX − aEX]2 = E[a(X − EX)]2
=
E[a2 (X − EX)2 ] = a2 E[X − EX]2 = a2 Var X
zu (.2)
(4.1.8)
siehe (4.1.11) für k = 2
zu (.3)
Var X
=
(4.1.9.1)
=
(4.1.3)
=
E[X − EX]2 = E[X 2 − 2XEX + (EX)2 ]
(4.1.7)
EX 2 − E(2XEX) + E(EX)2 = EX 2 − 2EXEX + E(EX)2
EX 2 − 2(EX)2 + (EX)2 = EX 2 − (EX)2
4.1.14 Bemerkung:
Einer Häufigkeitsuntersuchung liege der WR (Ω, F, P ) zugrunde mit
= ]A
für alle A ∈ F.
Ω = {ω1 , ..., ωn } (n ∈ N), F = PΩ, P A = ]A
n
]Ω
Es seien X : Ω → R ein interessierendes, 1-dimensionales Merkmal und
x1 := X(ω1 ), ..., xn := X(ωn ) die beobachteten - nicht notwendig
verschiedenen - Merkmalsausprägungen.
Man bezeichnet
n
1X
xi
x̄ :=
n i=1
als (ungewogenes) arithmetisches Mittel (arithmetic mean) der n Zahlen x1 , ..., xn
und
n
1X
(xi − x̄)2
n i=1
c
°V.
Steinmetz: Grundzüge der Statistik
–73–
als ihre mittlere quadratische Abweichung (mean square deviation). Es sei
X(Ω) =: {z1 , ..., zr } mit r ≤ n die Menge der paarweise verschiedenen, auf
Ω beobachtbaren Merkmalsausprägungen. Für
nj := ]{ωi | ωi ∈ Ω ∧ X(ωi ) = zj } = ]{i | i ∈ {1, ..., n} ∧ xi = zj }
gilt
r
P
nj = n und man erhält die Häufigkeitsverteilung
j=1
QX {zj } =
nj
(j = 1, ..., r).
n
Den Erwartungswert
r
EX =
1X
nj z j
n j=1
bezeichnet man als gewogenes arithmetisches Mittel der z1 , ..., zr mit den Genr
n1
, ..., .
wichten
n
n
Es gilt in diesem Fall
r
r
n
1X
1XX
1X
EX =
nj z j =
xi =
xi = x̄.
n j=1
n j=1 x =z
n i=1
i
c
°V.
Steinmetz: Grundzüge der Statistik
j
–74–
4.2 Momente zweidimensionaler Zufallsvariablen
4.2.1 Satz:
Es seien (X, Y ) eine zweidimensionale ZV und G : R2 → R eine B2 −B1 −meßbare
Abbildung. Ist (X, Y ) diskret mit der WV Q(X,Y ) {(xi , yk )} =: pik , so existiert
der Erwartungswert EG(X, Y ), falls
X
|G(xi , yk )|pik < ∞ ,
i,k
und es gilt
EG(X, Y ) =
X
G(xi , yk )pik .
i,k
Ist (X, Y ) stetig mit einer Dichte f(X,Y ) , so existiert EG(X, Y ), falls
Z∞ Z∞
|G(x, y)|f(X,Y ) (x, y)dydx < ∞ ,
−∞ −∞
und es gilt
EG(X, Y ) =
Z∞ Z∞
G(x, y)f(X,Y ) (x, y)dydx
−∞ −∞
(Beweis ist eine Verallgemeinerung des Beweises zu Satz (4.1.7)).
4.2.2 Definition:
Es sei (X, Y ) eine zweidimensionale ZV. Als Momente um Null (r + s)-ter Ordnung
((r + s)-th moment) der ZV (X, Y ) bezeichnet man
µrs := E(X r Y s ) für r, s ∈ N0 .
Als zentrale Momente (r + s)-ter Ordnung (central moment) der ZV (X, Y ) bezeichnet man
σrs := E(X − EX)r (Y − EY )s .
4.2.3 Definition:
Es sei (X, Y ) eine zweidimensionale ZV. Das zentrale Moment zweiter Ordnung
σ11 = E(X − EX)(Y − EY ) =: Cov(X, Y )
nennt man Kovarianz (covariance) oder gemischte Streuung von X und Y .
c
°V.
Steinmetz: Grundzüge der Statistik
–75–
4.2.4 Satz:
Es seien X, Y und Z eindimensionale Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P ) und a, b reelle Zahlen. Dann gilt
(.1)
Cov(aX, bY ) = ab Cov(X, Y )
(.2)
Cov(X + a, Y + b) = Cov(X, Y ) (Translationsinvarianz)
(.3)
Cov(X, Y ) = E(XY ) − EXEY (Kovarianzzerlegungssatz)
(.4)
Cov(X, Y ) = Cov(Y, X) (Symmetrie)
(.5)
Cov(X + Z, Y ) = Cov(X, Y ) + Cov(Z, Y )
Beweis:
zu (.1) Cov(aX, bY )
= E[aX − E(aX)][bY − E(bY )]
= E[aX − aEX][bY − bEY ]
= E(a[X − EX]b[Y − EY ])
= abE[X − EX][Y − EY ]
= ab Cov(X, Y )
zu (.2) Cov(X + a, Y + b) = E[X + a − E(X + a)][Y + b − E(Y + b)]
= E[X + a − EX − a][Y + b − EY − b]
= E[X − EX][Y − EY ] = Cov(X, Y )
zu (.3) Cov(X, Y )
= E(X − EX)(Y − EY )
= E(XY − XEY − Y EX + EXEY )
= E(XY ) − EXEY − EY EX + EXEY
= E(XY ) − EXEY
zu (.4) Cov(X, Y )
= E(X − EX)(Y − EY )
= E(Y − EY )(X − EX) = Cov(Y, X)
zu (.5) Cov(X + Z, Y )
= E[(X + Z − E(X + Z))(Y − EY )]
= E[(X − E(X) + Z − E(Z))(Y − EY )]
= E[(X − E(X))(Y − EY ) + (Z − E(Z))(Y − EY )]
= Cov(X, Y ) + Cov(Z, Y )
c
°V.
Steinmetz: Grundzüge der Statistik
–76–
4.2.5 Satz:
Es sei Z = (X, Y ) eine zweidimensionale ZV. Dann gilt für die Komponenten X
und Y :
(.1) E(X ± Y ) = EX ± EY.
Gilt Cov(X, Y ) = 0, so folgt
(.2) E(XY ) = EX · EY.11
Es gilt auch die Verallgemeinerung der Aussagen (.1) und (.2) auf n-dimensionale
ZV (n ∈ N).
Beweis:
Die erste Gleichung soll hier für den stetigen Fall bewiesen werden:
R∞ R∞
(x ± y)f(X,Y ) (x, y)dydx
E(X ± Y ) =
−∞ −∞
=
R∞ R∞
−∞ −∞
xf(X,Y ) (x, y)dydx ±
R∞ R∞
yf(X,Y ) (x, y)dydx
−∞ −∞
(4.2.1)
= EX ± EY
Die zweite Gleichung folgt sofort aus dem Kovarianzzerlegungssatz (4.2.4.3).
Der Beweis der Verallgemeinerung der Aussagen (.1) und (.2) auf n-dimensionale
ZV erfolgt durch Induktion.
4.2.6 Satz:
Gegeben sei die zweidimensionale ZV (X, Y ). Sind X und Y unabhängig, so
gilt: Cov(X, Y ) = 0.
Beweis: Der Beweis werde für den diskreten Fall geführt:
Cov(X, Y ) = EXY − EXEY
=
P
i,k
=
P
i,k
=
P
xi yk pik − EXEY
xi yk pi· p·k − EXEY (da X, Y unabhängig)
xi pi·
i
11
P
k
yk p·k − EXEY = 0.
Wegen Satz (4.2.6) gilt dies erst recht bei Unabhängigkeit von X und Y .
c
°V.
Steinmetz: Grundzüge der Statistik
–77–
4.2.7 Bemerkung:
I.a. folgt aus Cov(X, Y ) = 0 nicht die Unabhängigkeit von X und Y .
4.2.8 Satz:
Gegeben sei die zweidimensionale ZV (X, Y ). Dann gilt
(.1) Var(X ± Y ) = Var X + Var Y ± 2 Cov(X, Y ) .
Sind X und Y unabhängig, so folgt weiter
(.2) Var(X ± Y ) = Var X + Var Y .
12
Beweis:
zu (.1) Es gilt
Var(X ± Y ) = E[(X ± Y ) − E(X ± Y )]2
= E[(X − EX) ± (Y − EY )]2
= E(X − EX)2 ± 2E(X − EX)(Y − EY ) + E(Y − EY )2
= Var X ± 2 Cov(X, Y ) + Var Y
zu (.2) folgt direkt aus (.1) mit Satz (4.2.6).
4.2.9 Definition:
Es seien (X, Y ) eine zweidimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung Q(X,Y ) und EX, EY die Erwartungswerte von X bzw. Y . Man
bezeichnet
(EX, EY )
als den Schwerpunkt der Verteilung Q(X,Y ) .
12
(.2) gilt natürlich bereits für Cov(X, Y ) = 0; die Unabhängigkeit von X und Y ist also nicht
notwendig, aber hinreichend.
c
°V.
Steinmetz: Grundzüge der Statistik
–78–
4.3 Korrelationskoeffizient
4.3.1 Definition:
Es sei (X, Y ) eine zweidimensionale ZV mit Var X > 0 und Var Y > 0. Man
bezeichnet die reelle Zahl
Korr(X, Y ) :=
Cov(X, Y )
√
=: ρ(X, Y )
+ Var X Var Y
als Korrelationskoeffizienten (nach Bravais-Pearson) (coefficient of correlation)
von X und Y .
4.3.2 Satz:
Es sei (X, Y ) eine zweidimensionale ZV über einem WR (Ω, F, P ) mit Var X > 0
und Var Y > 0. Der Korrelationskoeffizient von X und Y hat die folgenden Eigenschaften:
(.1)
−1 ≤ Korr(X, Y ) ≤ 1
(.2)
Korr(X, Y ) = 1 (bzw.= −1) gilt dann und nur dann, wenn P -fast sicher
gilt13
Y = aX + b mit a > 0 (bzw. mit a < 0)
(.3)
Korr(X + a, Y + b) = Korr(X, Y ) für alle a, b ∈ R (Translationsinvarianz)
(.4)
Korr(aX, bY ) = Korr(X, Y ) für alle a, b ∈ R mit a · b > 0
(bzw. Korr(aX, bY ) = − Korr(X, Y ) falls a · b < 0)
(.5)
Korr(X, Y ) = Korr(Y, X) (Symmetrie)
(.6)
Sind X und Y unabhängig, so gilt Korr(X, Y ) = 0.
Beweis:
zu (.1)
Für u, v ∈ R betrachten wir die ZV
Z 2 (u, v) := [u(X − EX) + v(Y − EY )]2 .
Aus Satz (4.1.6) folgert man leicht, daß für das Quadrat Z 2 einer ZV Z stets
gilt
EZ 2 ≥ 0.
13
vgl. Def.(2.2.11).
c
°V.
Steinmetz: Grundzüge der Statistik
–79–
Damit erhält man hier speziell
0 ≤ E[u(X − EX) + v(Y − EY )]2
= E[u2 (X − EX)2 + 2uv(X − EX)(Y − EY ) + v 2 (Y − EY )2 ]
= u2 Var X + 2uv Cov(X, Y ) + v 2 Var Y
Da u und v beliebig gewählt sind, gilt diese Ungleichung auch für
u := Var Y und v := − Cov(X, Y ).
Damit erhält man
0 ≤ (Var Y )2 Var X − 2 Var Y (Cov(X, Y ))2 + (Cov(X, Y ))2 Var Y
= Var Y [Var X Var Y − (Cov(X, Y ))2 ] ,
also wegen Var Y > 0
0 ≤ Var X Var Y − (Cov(X, Y ))2 ,
hieraus folgt
0 ≤ (Cov(X, Y ))2 ≤ Var X Var Y
und da auch Var X > 0 vorausgesetzt wurde,
0≤
(Cov(X, Y ))2
Cov(X, Y )
≤ 1 oder − 1 ≤ √
≤1
Var X Var Y
Var X Var Y
zu (.2)
Zunächst werde Y = aX + b P -fast überall vorausgesetzt. Dann folgt
Cov(X, Y ) = Cov(X, aX + b)
= E(X − EX)(aX + b − E(aX + b))
= E(X − EX)(aX − EaX))
= aE(X − EX)2 = a Var X .
Weiterhin gilt
Var Y = Var(aX + b) = a2 Var X .
Mit der Voraussetzung a 6= 0 folgt
a Var X
a
Korr(X, Y ) = √
=√ =
+ Var X a2 Var X
a2
½
1 für a > 0
−1 für a < 0 .
Es sei nun vorausgesetzt Korr(X, Y ) = ±1, also insbesondere Cov(X, Y ) 6= 0.
Dann folgt
(Cov(X, Y ))2
Korr(X, Y ))2 =
=1
Var X Var Y
c
°V.
Steinmetz: Grundzüge der Statistik
–80–
also
(Cov(X, Y ))2 = Var X Var Y
und
0 = Var X Var Y − (Cov(X, Y ))2 .
Dies ist wegen Var Y > 0 äquivalent zu
0 = E[Var Y (X − EX) − Cov(X, Y )(Y − EY )]2 ,
wie man durch Ausrechnen dieses Erwartungswertes verifiziert. Da der Erwartungswert einer durch Quadrierung entstandenen ZV Z 2 nur verschwinden kann,
wenn Z P-fast sicher den Wert 0 annimmt14 , folgt
0 = Var Y (X − EX) − Cov(X, Y )(Y − EY )
oder
Y =
Var Y
EX Var Y
X−
+ EY
Cov(X, Y )
Cov(X, Y )
P -fast sicher
P -fast sicher,
d.h. es besteht P -fast sicher ein linearer Zusammenhang zwischen X und Y .
zu (.3)
Die Translationsinvarianz folgt direkt aus (4.1.13.2) und (4.2.4.2).
zu (.4)
Nach (4.1.13.1) und (4.2.4.1) folgt
Korr(aX, bY ) =
=
Cov(aX, bY )
ab Cov(X, Y )
p
√
= p
+ Var(aX) Var(bY )
+ (ab)2 Var X Var Y
½
Korr(X, Y ) für ab > 0
− Korr(X, Y ) für ab < 0 .
zu (.5)
Die Symmetrie folgt direkt aus (4.2.4.4) .
zu (.6)
Diese Aussage folgt direkt aus Satz (4.2.6) .
4.3.3 Bemerkung:
Entsprechend zu Bemerkung (4.2.7) gilt auch für den Korrelationskoeffizienten,
daß aus Korr(X, Y ) = 0 i.a. nicht die Unabhängigkeit von X und Y folgt, es
kann aber in diesem Fall keine lineare Abhängigkeit zwischen X und Y gegeben
sein. Man bezeichnet zwei ZV X und Y mit Korr(X, Y ) = 0 als unkorreliert.
14
Einen Beweis dieser Aussage zumindest für den diskreten Fall leitet man leicht aus Satz
(4.1.6) ab.
c
°V.
Steinmetz: Grundzüge der Statistik
–81–
4.3.4 Bemerkung:
Einer Häufigkeitsuntersuchung liege der WR (Ω, F, P ) zugrunde mit
Ω = {ω1 , ..., ωn } (n ∈ N), F = PΩ , P A =
]A
]A
=
für alle A ∈ F.
n
]Ω
Es seien Z = (X, Y ) : Ω → R2 ein interessierendes zweidimensionales Merkmal
und (x1 , y1 ) := Z(ω1 ), ..., (xn , yn ) := Z(ωn ) die beobachteten - nicht notwendig
verschiedenen - Paare von Merkmalsausprägungen. Man weist für den Korrelationskoeffizienten von X und Y leicht nach (vgl. auch Satz (4.1.13)):
Korr(X, Y ) = sµ
n
P
i=1
n
P
i=1
(xi − x̄)(yi − ȳ)
(xi − x̄)2
¶µ
n
P
i=1
(yi − ȳ)2
¶ mit x̄ =
nΣxi yi − Σxi Σyi
=p
(nΣx2i − (Σxi )2 )(nΣyi2 − (Σyi )2 )
1
n
P
i
xi , ȳ =
1
n
P
yi
i
(Man benutzt diese Größe auch als Maß für den linearen Zusammenhang zweier Zahlenreihen x1 , ..., xn und y1 , ..., yn ohne jede Bezugnahme auf ein Modell
(Ω, F, P ).)
c
°V.
Steinmetz: Grundzüge der Statistik
–82–
4.4 Modus und Quantile
4.4.1 Definition:
Als wahrscheinlichsten Wert, häufigsten Wert, Modus oder Modalwert
(modal value, mode) einer ZV X bezeichnet man
(.1)
im diskreten Fall jeden Trägerpunkt xi , dessen Wahrscheinlichkeitsmasse QX {xi } =: pi maximal ist,
(.2)
im stetigen Fall jeden Punkt x, zu dem es eine Dichte fX gibt, die dort
maximal und mindestens halbseitig stetig ist.
Nach der Anzahl der Modalwerte heißt die WV QX uni-, bi- bzw. multimodal.
4.4.2 Definition:
Es sei X eine eindimensionale ZV. Jeder Wert x ∈ R mit
1
1
und P {X ≥ x} ≥ 15
2
2
heißt Median (median) oder Zentralwert der ZV X. Man bezeichnet einen solchen Wert auch mit xM ed oder λ0,5 .
P {X ≤ x} ≥
4.4.3 Definition:
Es sei X eine eindimensionale ZV und p ∈]0, 1[.
Jeder Wert x ∈ R mit
P {X ≤ x} ≥ p und P {X ≥ x} ≥ 1 − p15
heißt Quantil p-ter Ordnung, p-Quantil (p-quantile) oder p-Fraktil von X. Man
bezeichnet einen solchen Wert oft mit dem Symbol λp . Insbesondere spricht man
von unterem Quartil für p=0,25 und von oberem Quartil für p=0,75.
4.4.4 Folgerung:
Für eine ZV X mit der VF FX ist x ∈ R genau dann ein p-Quantil, falls gilt
P {X < x} = FX (x − 0) ≤ p ≤ FX (x) = P {X ≤ x} ,
für eine stetige VF also insbesondere genau dann, wenn gilt
FX (x) = p .
15
Bisweilen wird durch Zusatzforderungen Eindeutigkeit erzwungen.
c
°V.
Steinmetz: Grundzüge der Statistik
–83–
Beweis:
Stets gilt FX (x) = P {X ≤ x} und 1−FX (x−0) = P {X ≥ x}. Damit folgt nach
Definition (4.4.3) direkt die Behauptung. Da für stetige Verteilungsfunktionen
rechtsseitiger und linksseitiger Grenzwert übereinstimmen, gilt auch die letzte
Aussage der Folgerung.
4.4.5 Folgerung:
Ist X eine diskrete Zufallsvariable mit den Trägerpunkten xi und den zugehörigen
Punktwahrscheinlichkeiten pi , so gilt für ein p-Quantil λp :
X
X
pi .
pi ≤ p ≤
xi <λp
xi ≤λp
4.4.6 Bemerkung:
Kommt es bei einem statistischen Merkmal nur auf die Unterscheidung der verschiedenen Merkmalsausprägungen an, kann man also, auch wenn das Merkmal
als Abbildung in die Menge R der reellen Zahlen gegeben (d.h. durch reelle Zahlen verschlüsselt) ist, Differenzen verschiedener Ausprägungen, Quotienten und
auch die größer-kleiner-Beziehung der reellen Zahlen nicht sinnvoll interpretieren, spricht man von einem nominalen oder nominal skalierten Merkmal. Um in
diesem Fall die Lage einer Wahrscheinlichkeitsverteilung zu beschreiben, benutzt
man den Modus; die Berechnung von Quantilen oder des Erwartungswertes ist
nicht sinnvoll.
Ist bei einem reellwertigen Merkmal neben der Verschiedenheit auch die Größerkleiner-Beziehung sinnvoll zu interpretieren, spricht man von einem ordinalen
oder ordinal skalierten Merkmal. In diesem Fall sind der Modus und auch die
Quantile zur Lagecharakterisierung brauchbar.
Sind bei einem reellwertigen Merkmal neben Verschiedenheit und Größer-kleinerBeziehung auch Differenzen (also Abstände) von Ausprägungen sinnvoll zu interpretieren, nennt man das Merkmal intervallskaliert, gilt entsprechendes zusätzlich
auch für Quotienten (also Verhältnisse), bezeichnet man es als verhältnisskaliert
(Ratioskala). Liegt schließlich bei einem verhältnisskalierten Merkmal in natürlicher Weise eine Einheit fest, bezeichnet man es als absolutskaliert.
Ein mindestes intervallskaliertes Merkmal heißt auch metrisch- oder kardinalskaliert. Hier ist neben Modus und Quantilen auch der Erwartungswert brauchbar.
Man bezeichnet alle hier behandelten Kenngrößen als Lageparameter.
c
°V.
Steinmetz: Grundzüge der Statistik
–84–
4.5 Ungleichung von Tschebyschev
4.5.1 Satz und Definition:
Es sei X eine eindimensionale ZV mit EX = µ und Var X = σ 2 . Dann gilt die
sogenannte Ungleichung von Tschebyschev:
σ2
)
ε2
(∀ε > 0)(P {|X − µ| ≥ ε} ≤
.
Beweis:
Die Ungleichung von Tschebyschev soll hier nur für den Fall einer diskreten ZV
hergeleitet werden, im stetigen Fall verläuft der Beweis analog.
Die diskrete ZV X habe die Trägerpunkte xi und die zugehörigen Punktwahrscheinlichkeiten QX {xi } =: pi (i ∈ J ⊆ N). Dann gilt für jedes ε > 0
P
σ 2 = (xi − µ)2 pi
i
P
P
=
(xi − µ)2 pi +
(xi − µ)2 pi
i mit |xi −µ|<ε
≥
P
i mit |xi −µ|≥ε
i mit |xi −µ|≥ε
(xi − µ)2 pi .
Da mit |xi − µ| ≥ ε > 0 auch (xi − µ)2 ≥ ε2 gilt und in dieser Summe nur über
solche i ∈ J summiert wird, für die gilt |xi − µ| ≥ ε, kann man weiter abschätzen
X
X
ε2 pi = ε 2
σ2 ≥
pi
i mit |xi −µ|≥ε
und es folgt
σ2
≥
ε2
X
i mit |xi −µ|≥ε
i mit |xi −µ|≥ε
pi = P {|X − µ| ≥ ε} .
4.5.2 Korollar:
Es sei X eine eindimensionale ZV mit EX = µ und Var X = σ 2 . Dann gilt
(∀ε > 0)(P {|X − µ| ≤ ε}) ≥ 1 −
σ2
.
ε2
Beweis:
Aus der Ungleichung von Tschebyschev folgt für ε > 0
2
−P {|X − µ| ≥ ε} ≥ − σε2
⇔ 1 − P {|X − µ| ≥ ε} ≥ 1 −
⇔ P {|X − µ| < ε} ≥ 1 −
c
°V.
Steinmetz: Grundzüge der Statistik
σ2
ε2
.
σ2
ε2
–85–
Da {ω| |X(ω) − µ| < ε} ⊆ {ω| |X(ω) − µ| ≤ ε} gilt, folgt nach (2.2.8.4)
weiter
P {|X − µ| < ε} ≤ P {|X − µ| ≤ ε} ,
also
P {|X − µ| ≤ ε} ≥ 1 −
σ2
.
ε2
4.5.3 Bemerkung:
Häufig wählt man ε = λσ mit λ ∈ N. Dann folgt aus Korollar (4.5.2):
P {|X − µ| ≤ λσ} ≥ 1 −
1
.
λ2
Man erhält
λ
2
3
4
5
0,75
0,889
0,937
0,96
.
1−
1
λ2
Das heißt z.B. für λ = 2, daß eine ZV mit mindestens 75 % Wahrscheinlichkeit
einen Wert annimmt, der nicht weiter als 2σ von ihrem Erwartungswert entfernt
liegt. Man bezeichnet [µ − λσ, µ + λσ] als λ − σ−Bereich um µ .
c
°V.
Steinmetz: Grundzüge der Statistik
–86–
4.6 Das schwache Gesetz der großen Zahlen und der zentrale
Grenzwertsatz
4.6.1 Definition:
Es seien (Xk )k∈N eine Folge von eindimensionalen Zufallsvariablen über einem
WR (Ω, F, P ). Man sagt, sie genüge dem schwachen Gesetz der großen Zahlen
(weak law of large numbers),
wenn es eine Konstante c ∈ R gibt, so daß für die Zufallsvariablen Yn :=
n
P
1
Xk (n ∈ N) gilt
n
k=1
lim P {|Yn − c| ≥ ε} = 0 für alle ε > 0 .
n→∞
4.6.2 Satz:
Eine Folge (Xk )k∈N unabhängig identisch verteilter Zufallsvariablen mit
EXk = µ und Var Xk = σ 2 > 0 für alle k ∈ N genügt dem schwachen Gesetz der
großen Zahlen, es gilt
n
1X
lim P {|
Xk − µ| ≥ ε} = 0 für alle ε > 0.
n→∞
n k=1
Beweis:
n
n
P
P
Xk ) = µ und Var( n1
Xk ) =
Es gilt E( n1
k=1
k=1
σ2
n
.
(Vgl. hierzu die Sätze (4.1.8),(4.1.13),(4.2.5), (4.2.8) oder Satz (7.1.8)).
Wegen der Ungleichung von Tschebyschev folgt
n
2
σ
1X
Xk − µ| ≥ ε} ≤ lim n2 = 0 für alle ε > 0.
0 ≤ lim P {|
n→∞ ε
n→∞
n k=1
4.6.3 Bemerkung:
Ein Zufallsexperiment werde durch den WR (Ω̃, F̃ , P̃ ) beschrieben. Es sei A ∈ F̃
ein beliebiges Ereignis mit P̃ A =: p. Das Wahrscheinlichkeitsexperiment werde
unabhängig wiederholt. Der Wiederholung k ∈ N sei die ZV Xk zugeordnet mit
½
1 für ω ∈ A
.
Xk (ω) =
0 für ω 6∈ A
Dann genügen die ZV X1 , X2 , ... dem schwachen Gesetz der großen Zahlen, es
gilt
n
1X
lim P {|
Xk − p| ≥ ε} = 0 ∀ε > 0 ,
n→∞
n k=1
c
°V.
Steinmetz: Grundzüge der Statistik
–87–
d.h. die relative Häufigkeit für das Auftreten des Ereignisses A konvergiert stochastisch gegen die Wahrscheinlichkeit P̃ A = p.
Der Beweis folgt sofort aus dem Satz (4.6.2), wenn man beachtet, daß die Xk
unabhängig identisch verteilt sind mit
EXk = p und
1
E( ΣXk ) = p
n
Var Xk = p(1 − p)
1
p(1 − p)
Var( ΣXk ) =
n
n
4.6.4 Satz (Zentraler Grenzwertsatz) (central limit theorem):
Es seien (Xk )k∈N eine Folge unabhängig identisch verteilter Zufallsvariablen mit
EXk = µ und Var Xk = σ 2 > 0 für alle k ∈ N. Dann gilt für die Zufallsvariablen
1
n
Yn :=
n
P
k=1
Xk − µ
σ
√
n=
n
P
k=1
Xk − nµ
√
(n ∈ N) :
σ n
lim P {Yn ≤ y} = lim FYn (y) = Φ(y).
n→∞
n→∞
(Zum Beweis siehe z.B. Fisz, M.: Wahrscheinlichkeitsrechnung und Mathematische Statistik (1970), S. 235 f.; es liegt hier s.g. Verteilungskonvergenz vor.)
4.6.5 Folgerung (Grenzwertsatz von de Moivre und Laplace):
Es seien (Yn )n∈N eine Folge von binomial-B(n, p)-verteilten Zufallsvariablen, d.h.
µ ¶
n y
QYn {y} =
p (1 − p)n−y für y = 0, 1, ..., n p ∈]0, 1[
y
und (Zn )n∈N die Folge mit
Yn − np
.
Zn := p
np(1 − p)
Dann gilt für die Verteilungsfunktionen
1
lim FZn (z) = √
n→∞
2π
Zz
t2
e− 2 dt = Φ(z) für alle z ∈ R.
−∞
Beweis:
Nach (3.4.11) kann Yn (n ∈ N) als Summe von n unabhängig identisch verteilten
Alternativen dargestellt werden:
Yn =
n
X
Xk
k=1
c
°V.
Steinmetz: Grundzüge der Statistik
mit
0
1
x
QXk {x} 1 − p p
–88–
und
EXk = p
Var Xk = p(1 − p).
Die Xk erfüllen die Voraussetzungen des zentralen Grenzwertsatzes und für die
Zufallsvariablen
n
n
P
P
1
Xk − np
X
−
p
k
n
√
k=1
k=1
p
n= p
= Zn
p(1 − p)
np(1 − p)
folgt die Behauptung aus dem zentralen Grenzwertsatz (Den Beweis kann man
auch ohne Anwendung des zentralen Grenzwertsatzes führen, siehe z.B. Stange,
K.: Angewandte Statistik I (1970), Berlin, Heidelberg, N.Y., S. 446).
4.6.6 Bemerkung:
Unter den Voraussetzungen des vorigen Satzes gilt
lim FZn (z) = Φ(z) für alle z ∈ R.
n→∞
Für endliches n verwendet man Φ(z) als Näherung für FZn (z):
FZn (z) ≈ Φ(z),
d.h. Zn ist näherungsweise N (0, 1)-verteilt.
Dann ist
p
Yn = np(1 − p)Zn + np
näherungsweise N (np, np(1 − p))-verteilt und man verwendet entsprechend Satz
(3.2.3) die Näherungen
Ã
!
!
Ã
y − np
y − np
FYn (y) = FZn p
≈Φ p
np(1 − p)
np(1 − p)
und
P {a ≤ Yn ≤ b} ≈ Φ
Ã
c
°V.
Steinmetz: Grundzüge der Statistik
b − np
p
np(1 − p)
!
−Φ
Ã
a − np
p
np(1 − p)
!
.
–89–
5 Deskriptive Statistik
5.1 Grundbegriffe
5.1.1 Vereinbarung:
Als deskriptive Statistik werde der Erkenntnisbereich bezeichnet, dessen Erkenntnisgegenstand (interessierender Umweltausschnitt) mit Hilfe des Grundmodells der deskriptiven Statistik (Kürzel: GdS)
(Ω̃, F̃ , P̃ )
Y
Ω̃ −−−−−−−−−→ Rm
(Rm , Bm , QY )
beschrieben werden kann. Dabei seien (Ω̃, F̃, P̃ ) und (Rm , Bm , QY ) Wahrscheinlichkeitsräume und Y sei eine F̃ −Bm −meßbare Abbildung (Zufallsvariable). Im
GdS wird Ω̃ 6= ∅ als endlich vorausgesetzt und als Grundgesamtheit, Kollektiv,
Population oder statistische Masse bezeichnet, ihre Elemente als Untersuchungseinheiten , statistische Einheiten oder Merkmalsträger.16 I.a. wird hier F̃ = PΩ̃
vorausgesetzt.
Das Wahrscheinlichkeitsmaß P̃ ist im GdS die relative Häufigkeit, d.h. es gilt
P̃ Ã :=
]Ã
=: H(Ã) für alle à ∈ F̃.
]Ω̃
Die Zufallsvariable Y bezeichnet man als (m−dimensionales) statistisches Merkmal oder Untersuchungsmerkmal, Y (ω̃) als zum Merkmalsträger ω̃ ∈ Ω̃ gehörende Merkmalsausprägung.
Oft wird als Wertevorrat von Y die Menge Y (Ω̃) ⊆ Rm der tatsächlich auftretenden Bildpunkte verwendet und Bm geeignet auf Y (Ω̃) eingeschränkt.
5.1.2 Bemerkung:
Ist die Wahrscheinlichkeitsverteilung QY in Vereinbarung (5.1.1) ganz oder teilweise unbekannt und werden aus einer Stichprobe zu Y unter Anwendung wahrscheinlichkeits-theoretischer Hilfsmittel Schlüsse über QY gezogen, so arbeitet
man im Bereich der schließenden Statistik (induktive Statistik, Inferenzstatistik). Das Modell aus Vereinbarung (5.1.1) wird in diesem Fall um einen zweiten
Baustein
(Ω, F, P )
X
Ω −−−−−−−−−→ Rn
(Rn , Bn , QX )
erweitert, der die Stichprobenziehung beschreibt (vgl. dazu Kap. 6 und auch
Kap. 7, Kap. 8).
16
In der Wahrscheinlichkeitstheorie bezeichnet man Ω̃ auch als Ergebnisraum oder Stichprobenraum, die Elemente als Ergebnisse. Dabei ist Ω̃ oft nichtendlich.
c
°V.
Steinmetz: Grundzüge der Statistik
–90–
5.1.3 Vereinbarung:
Wendet man das GdS aus Vereinbarung (5.1.1) zur Beschreibung eines realen
Umweltausschnittes an, so müssen die Elemente der Grundgesamtheit Ω̃ durch
sachliche
räumliche
zeitliche
Kriterien eindeutig festgelegt (abgegrenzt) sein. Man bezeichnet diese Kriterien
auch als identifizierende Merkmale oder kollektivbestimmende Merkmale .
5.1.4 Definition:
(.1) Es sei Ω̃ die Grundgesamtheit eines GdS. Die sachlichen und räumlichen Abgrenzungskriterien seien so definiert, daß sie über einen Zeitraum positiver
Länge zumindest prinzipiell erfüllt werden können. Ist Ω̃ dadurch festgelegt, daß seine Elemente diesen Kriterien zu einem ausgewählten Zeitpunkt
genügen müssen, so bezeichnet man Ω̃ als Bestandsmasse und die Elemente
als Bestandseinheiten bzgl. t und schreibt auch Ω̃t .
(.2) Es sei Ω̃ die Grundgesamtheit eines GdS. Eines der sachlichen oder räumlichen Abgrenzungskriterien sei so definiert, daß es prinzipiell nur zu einem
einzelnen Zeitpunkt, nicht aber über einen Zeitraum positiver Länge erfüllt
werden kann. Es sei [T0 , T1 ] 6= ∅ ein Zeitintervall. Die übrigen Kriterien
seien über [T0 , T1 ] konstant. Sind die Elemente von Ω̃ dadurch festgelegt,
daß sie diese Kriterien erfüllen und dem Zeitpunktkriterium zu in [T0 , T1 ]
liegenden Zeitpunkten genügen, so bezeichnet man Ω̃ als Bewegungs- oder
Ereignismasse und die Elemente als Bewegungs- oder Ereigniseinheiten bzgl.
[T0 , T1 ] und schreibt auch Ω̃T0 ,T1 .
5.1.5 Definition:
Die sachlichen und räumlichen Kriterien zur Abgrenzung einer Bestandsmasse
seien für alle Zeitpunkte eines Zeitintervalls [T0 , T1 ] 6= ∅ konstant, Ω̃T0 sei die
Bestandsmasse zum Zeitpunkt T0 und Ω̃T1 die entsprechende Bestandsmasse für
T1 . Man bezeichnet
ZT0 ,T1 := Ω̃T1 \Ω̃T0
als Zugangsmasse bzgl. der Zeit von T0 bis T1 , ihre Elemente als Zugangseinheiten
und
AT0 ,T1 := Ω̃T0 \Ω̃T1
als Abgangsmasse bzgl. der Zeit von T0 bis T1 , ihre Elemente als Abgangseinheiten.
5.1.6 Bemerkung:
Gegeben seien die Bezeichnungen aus Definition (5.1.5). ZT0 ,T1 und AT0 ,T1 kann
man als Bewegungsmassen interpretieren.
c
°V.
Steinmetz: Grundzüge der Statistik
–91–
5.1.7 Satz:
Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.1.5).
Dann gilt:
(.1)
ZT0 ,T1 ∩ Ω̃T0 = ∅
AT0 ,T1 ∩ Ω̃T1 = ∅
ZT0 ,T1 ⊆ Ω̃T1
AT0 ,T1 ⊆ Ω̃T0
ZT0 ,T1 ∩ AT0 ,T1 = ∅
(.2)
Ω̃T1 = (Ω̃T0 ∪ ZT0 ,T1 ) \ AT0 ,T1
= (Ω̃T0 \ AT0 ,T1 ) ∪ ZT0 ,T1 .
(.3) Für die Mächtigkeit der Mengen gilt
]Ω̃T1 = ]Ω̃T0 + ]ZT0 ,T1 − ]AT0 ,T1 .17
Beweis:
Der Beweis folgt sofort aus der Definition der Zugangs- und Abgangsmasse.
5.1.8 Bemerkung:
In der Definition (5.1.5) wurde festgelegt, daß kein Element zugleich zu A und
Z gehören kann. Will man auch Objekte erfassen, die zwischen T0 und T1 die
Bestandsmasse verließen und wieder zurückkehrten bzw. zur Bestandsmasse
hinzukamen und wieder abgingen, so muß man das betrachtete Zeitintervall unterteilen.
In der Praxis geht man i.a. von Ω̃T0 aus und registriert die Zu- und Abgänge
zwischen T0 und T1 , addiert zu ]Ω̃T0 die Zahl der Zugänge, subtrahiert die Zahl
der Abgänge und erhält ]Ω̃T1 . Dieses Berechnungsschema gilt auch, wenn Objekte zwischen T0 und T1 die Bestandsmasse verließen und wieder zurückkehrten
bzw. zur Bestandsmasse hinzukamen und wieder abgingen. Es gilt also eine
(5.1.7.3) genau entsprechende Fortschreibungsformel auch in dem Fall, daß die
Mengen der Zu- und Abgänge nicht disjunkt definiert wurden. Man beachte,
daß (5.1.7.2) in diesem Fall aber falsch ist.
5.1.9 Definition:
Die sachlichen und räumlichen Kriterien zur Abgrenzung einer Bestandsmasse
seien für alle Zeitpunkte eines Zeitintervalls [T0 , T1 ] 6= ∅ konstant, Ω̃t bezeichne
17
Die Gleichungen .2) und .3) bezeichnet man als Fortschreibungsformeln.
c
°V.
Steinmetz: Grundzüge der Statistik
–92–
die jeweilige Bestandsmasse zum Zeitpunkt t ∈ [T0 , T1 ]. Gibt es für ein Objekt
ω̃ Zeitpunkte
tZ (ω̃), tA (ω̃) ∈ [T0 , T1 ]
mit
tZ (ω̃) < tA (ω̃)
ω̃ ∈ Ω̃t für alle t ∈ [tZ (ω̃), tA (ω̃)]
ω̃ ∈
/ Ω̃t für alle t ∈ [T0 , tZ (ω̃)[ ∪ ]tA (ω̃), T1 ]
so heißen tZ (ω̃) Zugangszeitpunkt von ω̃ und tA (ω̃) Abgangszeitpunktvon ω̃,
tA (ω̃) − tZ (ω̃)
bezeichnet man als Verweildauer des Elements bzgl. des betrachteten Zeitraums
[T0 , T1 ].
5.1.10 Bemerkung:
Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.1.9).
Eine sehr anschauliche graphische Darstellung der Entwicklung einer Bestandsmasse ist im sog. Beckerschen Schema gegeben:
Zugangszeitachse
6
Zugangsachse
T1
˜
tZ (ω̃)
Verweillinie
tZ (ω̃)
T0
-
T0
˜ tA (ω̃)
tZ (ω̃) tZ (ω̃)
c
°V.
Steinmetz: Grundzüge der Statistik
t
˜
tA (ω̃)
T1
Zeitachse
–93–
˜ die Zugangszeiten, die Abgangszeiten und die sog.
Im Diagramm sind für ω̃ und ω̃
Verweillinien eingetragen, wobei die Länge der letzteren durch die Verweildauern
gegeben ist. Alle Objekte, deren Verweillinie von einer in t auf der Zeitachse
errichteten Senkrechten geschnitten werden, bilden die Bestandsmasse Ω̃t . Nach
˜
obigem Schema gilt Ω̃t = {ω̃}.
5.1.11 Bemerkung:
Bei statistischen Untersuchungen beobachtet man bisweilen an ein und derselben Untersuchungseinheit mehrere Ausprägungen ein und desselben Merkmals,
man spricht von einem häufbaren Merkmal. Ein solches Merkmal ist wegen der
Mehrdeutigkeit der Zuordnung zunächst nicht als Abbildung im Sinne der Definition (1.1.1) zu interpretieren. Man kann die Eindeutigkeit aber erzwingen,
indem man Kombinationen von Merkmalsausprägungen zu Tupeln zusammenfaßt, diese als neue Bildpunkte betrachtet und somit eine Abbildung im Sinne der Definition (1.1.1) festlegt. Im folgenden werden deshalb o.B.d.A. stets
nichthäufbare Merkmale vorausgesetzt.
5.1.12 Bemerkung:
Auch wenn Merkmalsausprägungen meistens als reelle Zahlen oder Tupel reeller
Zahlen dargestellt werden, so ist vor der Durchführung algebraischer Operationen stets zu untersuchen, ob sie aufgrund des Skalierungsniveaus des Merkmals
überhaupt sinnvoll sind (vgl. dazu Bemerkung (4.4.6)).
5.1.13 Bemerkung:
Bei metrisch skalierten Merkmalen sollten die Ergebnisse von Messungen und
darauf aufbauenden Berechnungen so dargestellt werden, daß Rückschlüsse auf
die Genauigkeit möglich sind.
Das Deutsche Institut für Normung e.V. macht in DIN 1333 Vorschläge zum
Umgang mit Dezimalzahlen in wissenschaftlichen Mitteilungen (die Vorschläge
gelten nicht für ”Geldwert- und Kostenangaben”).
(.1) Sind bei einer Dezimalzahl nach dem Komma Ziffern ohne Rundung fortgelassen worden, so kann man dies durch drei Punkte anzeigen, z.B. π=3,141...
Die angegebenen Ziffern stimmen mit den entsprechenden Ziffern der nicht
verkürzten Zahl überein, man nennt sie deshalb gültige Ziffern. Steht die
letzte Ziffer vor den drei Punkten an der Stelle k nach dem Komma, so ist
der entsprechende absolute Fehler höchstens 10−k .
(.2) Soll eine Dezimalzahl als genau gekennzeichnet werden, so wird empfohlen,
dies durch Unterstreichen (oder Fettdruck) der letzten Ziffer anzugeben.
(.3) Soll eine Dezimalzahl auf k Ziffern nach dem Komma gerundet werden man bezeichnet die k-te Stelle als Rundstelle -, so läßt man alle Ziffern
rechts neben der Rundstelle fort, falls die Ziffer an der (k + 1)−ten Stelle eine 0,1,2,3 oder 4 ist (Abrunden); man erhöht die Ziffer an der Rundstelle um
c
°V.
Steinmetz: Grundzüge der Statistik
–94–
1, falls an der (k + 1)−ten Stelle eine 5,6,7,8 oder 9 steht (Aufrunden) und
läßt auch jetzt alle Ziffern rechts neben der Rundstelle fort. Dabei müssen
möglicherweise an den beibehaltenen Stellen entstehende Nullen mitgeführt
werden. Der durch die Rundung entstehende absolute Fehler ist höchstens
0, 5 · 10−k .
Vorsicht: Bei sukzessiver, mehrmaliger Rundung kann der Fehler etwas
größer sein.
Durch Multiplikation der Ausgangszahl mit einer geeigneten Zehnerpotenz
sorgt man dafür, daß die Rundung nicht weiter links als höchstens direkt
links neben dem Komma erfolgt.
(.4) Bei empirischen Zahlen ist durch Beobachtungsungenauigkeiten oft Unsicherheit über den genauen, ”wahren” Zahlenwert gegeben. Wird diese Unsicherheit nicht explizit dargestellt (z.B. in der Form 5,47826 ± 0,021), so sollte in der Weise gerundet werden, daß weder informationshaltige, sogenannte signifikante Dezimalstellen verlorengehen oder verändert werden, noch
sollten an wenig- oder nichtsignifikanten Stellen Ziffern Informationsgehalt
vortäuschen. Ist - evtl. nach Multiplikation mit einer geeigneten Zehnerpotenz - eine Dezimalzahl mit ihrer Unsicherheit µ ∈]0, 1[ gegeben, so soll
diejenige Rundstelle k gewählt werden, für die gilt
µ
µ
< 10−k ≤
30
3
µ
18
z.B.: 5, 47826 ± 0, 021 führt gerundet zu 5, 478
5, 47826 ± 0, 042 führt gerundet zu 5, 48
¶
.18
Rundung kann als Klassierung eines Merkmals im Sinne von Bemerkung (5.2.5) verstanden
werden.
c
°V.
Steinmetz: Grundzüge der Statistik
–95–
5.2 Häufigkeitsverteilungen eindimensionaler Merkmale
5.2.1 Definition:
Gegeben sei das GdS aus Vereinbarung (5.1.1) mit
Ω̃ = {ω̃1 , ..., ω̃N } und Y (Ω̃) = {y1 , ..., yM }19
(dabei ω̃r 6= ω̃s für r 6= s und yi 6= yj für i 6= j).
Man bezeichnet die tabellarische Zusammenstellung der Untersuchungseinheiten mit ihren zugehörigen Merkmalsausprägungen als Urliste:
ω̃1 . . . ω̃N
ω̃r
.
Y (ω̃r ) =: ar a1 . . . aN
Voraussetzungsgemäß ist in (Ω̃, F̃, P̃ ) das Wahrscheinlichkeitsmaß P̃ die relative
Häufigkeit H mit
P̃ (Ã) = H(Ã) =
]Ã
]Ã
=
N
]Ω̃
(Ã ∈ F̃) .
Man bezeichnet die Wahrscheinlichkeitsverteilung QY des Merkmals Y als Häufigkeitsverteilung. Die tabellarische Zusammenstellung der Trägerpunkte von
Y mit ihren Punktmassen nennt man Häufigkeitstabelle (genauer: Tabelle der
relativen Häufigkeiten) von Y :
yi
y1 . . . y M
.
QY {yi } =: hi h1 . . . hM
Dabei heißt hi für i = 1, ..., M die relative Häufigkeit der Merkmalsausprägung
yi .
5.2.2 Folgerung:
Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.2.1).
Es gilt
hi := QY {yi }
i = 1, ..., M
= H{ω̃ ∈ Ω̃ | Y (ω̃) = yi }
19
=
]{ω̃ ∈ Ω̃ | Y (ω̃) = yi }
N
=
]{r ∈ {1, ..., N } | ar = yi }
,
N
Y ist in dieser Definition sowohl ein- als auch mehrdimensional zugelassen.
c
°V.
Steinmetz: Grundzüge der Statistik
–96–
hi ist also die relative Häufigkeit, mit welcher der Bildpunkt yi bei den N EleM
P
menten der Grundgesamtheit auftritt. (Damit gilt insbesondere
hi = 1).
i=1
Beweis:
Die Behauptung folgt sofort durch Anwendung von Definition (2.4.3) und Definition (3.1.1) auf das GdS.
5.2.3 Bemerkung:
Oft werden aus einer Urliste
ω̃r
ω̃1 . . . ω̃N
Y (ω̃r ) =: ar a1 . . . aN
mit der Menge der Bildpunkte Y (Ω̃) = {y1 , ..., yM } zunächst die absoluten
Häufigkeiten ermittelt, mit welchen die Bildpunkte yi bei den N Elementen
der Grundgesamtheit auftreten
Ni := ]{ω̃ ∈ Ω̃ | Y (ω̃) = yi }
= ]{r ∈ {1, ..., N } | ar = yi }
i = 1, ..., M.
Aus der Tabelle der absoluten Häufigkeiten
yi y1 . . . y M
Ni N1 . . . N M
ermittelt man anschließend die relativen Häufigkeiten durch
hi =
Ni
N
i = 1, ..., M.
Beachte:
Sobald die ar , r = 1, ..., N nicht paarweise verschieden sind, es also verschiedene Untersuchungseinheiten aus Ω̃ mit derselben Merkmalsausprägung gibt, gilt
M < N.
5.2.4 Bemerkung:
In der Wahrscheinlichkeitstheorie wurde zur Beschreibung einer Wahrscheinlichkeitsverteilung die Verteilungsfunktion eingeführt (vgl. Definition (3.1.4) und
Definition (3.3.10)). In der deskriptiven Statistik ist Y eine diskrete Zufallsvariable mit endlich vielen Trägerpunkten. Ist Y eindimensional, ist folglich die
zugehörige Verteilungsfunktion eine Treppenfunktion mit endlich vielen Sprungstellen.
Hat Y die Merkmalsausprägungen yi mit den relativen Häufigkeiten
hi (i = 1, ..., M ), so gilt für die Verteilungsfunktion
X
FY (y) =
hi
für alle y ∈ R.
yi ≤y
c
°V.
Steinmetz: Grundzüge der Statistik
–97–
5.2.5 Bemerkung:
Treten bei einem kardinalskalierten Untersuchungsmerkmal viele - oft auch paarweise verschiedene - Merkmalsausprägungen auf, so kann man die Anschaulichkeit von Tabellen und graphischen Darstellungen unter Inkaufnahme eines Informationsverlustes durch Klassierung der Merkmalsausprägungen erhöhen:
Gegeben sei das GdS mit der Häufigkeitstabelle
yi
y1 . . . y M
.
hi := QY {yi } h1 . . . hM
Man wähle für festes l ∈ N Zahlen
k1 , k2 , ..., kl , kl+1 ∈ R
mit
und
k1 < k2 < ... < kl < kl+1
k1 < yi ≤ kl+1
für alle i = 1, ..., M.
Man bezeichnet für j = 1, ..., l
Kj :=]kj , kj+1 ]
als Klasse Nr. j,
Bj := kj+1 − kj
als zugehörige Klassenbreite und
mj :=
kj + kj+1
2
als Klassenmittelpunkt oder kurz Klassenmitte. Als Klassierung der Elemente
von
Y (Ω̃) = {y1 , ..., yM }
bezeichnet man die Abbildung
½
K:R→R
mj : kj < y ≤ kj+1 j = 1, ..., l
.
k1 :
sonst
K ist eine Zufallsvariable, für ihre Wahrscheinlichkeitsverteilung QK gilt
X
QK {mj } = QY ]kj , kj+1 ] = QY Kj =
hi j = 1, ..., l .
mit
K(y) =
yi ∈Kj
Die Klassenbreite sollte konstant gewählt werden; nur wenn es in Y (Ω̃) Bereiche
gibt mit sehr dicht liegenden Merkmalsausprägungen und andere Bereiche mit
nur vereinzelten Beobachtungswerten, wählt man in den erstgenannten Bereichen bisweilen eine geringere Klassenbreite als auf dem Rest. Für die Klassenbreite empfiehlt DIN 53 804:
c
°V.
Steinmetz: Grundzüge der Statistik
–98–
Ist M die Anzahl der verschiedenen Beobachtungswerte und R die Differenz von
größtem und kleinstem Wert, so sollte bei konstanter Klassenbreite B gelten:
B≈
√R
M
für 30 < M ≤ 400
B≈
R
20
für 400 < M.
Für die Klassenanzahl r sollte also gelten
√
r ≈ M ≤ 20 für 30 < M ≤ 400
r ≈ 20
für 400 < M.
20
5.2.6 Darstellung einer Klassierung:
Gegeben seien die Bezeichnungen und Voraussetzungen aus Bemerkung (5.2.5).
Als Histogramm zu einer gegebenen Klassierung K bezeichnet man die folgende
graphische Darstellung:
Lj 6
2
1
-
k1
k2
k3
k4
k5
k6
k7
k8
R
(Vorsicht: Oft verwendete, aber ungenaue Funktionsdarstellung). In einem
rechtwinkligen Koordinatensystem werden auf der Abszisse die Klassengrenzen
k1 , ..., kl+1 eingezeichnet. Über jeder Klasse Kj =]kj , kj+1 ], j = 1, ..., l zeichnet
man ein Rechteck mit der Breite
Bj = kj+1 − kj
und der Länge
Lj :=
Wegen
(∗)
20
QK {mj }
.
kj+1 − kj
QK {mj } = Bj Lj
Die Rundung von Beobachtungsdaten (vgl. Bemerkung (5.1.13)) kann man in naheliegender
Weise auch als eine Klassenbildung interpretieren.
c
°V.
Steinmetz: Grundzüge der Statistik
–99–
stimmt also der Flächeninhalt eines Rechtecks mit der zum entsprechenden Klassenmittelpunkt gehörenden Punktmasse überein.
Zur Klassierung K gehört die Verteilungsfunktion FK (.) mit

0
: y < m1




QK {m1 }
: m1 ≤ y < m2



FK (m1 ) + QK {m2 } : m2 ≤ y < m3
FK (y) =
FK (m2 ) + QK {m3 } : m3 ≤ y < m4




.................



1
: ml ≤ y
FK (y) 6
1
0,5
u
u
e
u
e
u
e
u
e
u
e
u
e
k1 m1 m2 m3 m4 m5 m6 m7 k8
-
y
Dies ist also eine Treppenfunktion, deren endlich viele Sprungstellen in den Klassenmittelpunkten liegen.
Wegen (∗) ist die Summe der Rechteckflächen 1; man kann das Histogramm als
graphische Darstellung einer Dichtefunktion einer stetigen Wahrscheinlichkeitsverteilung Q? interpretieren, durch welche man die gegebene diskrete Verteilung
QK und auch die diskrete Verteilung QY approximiert. Entsprechend approximiert man die durch Treppenfunktionen dargestellten Verteilungsfunktionen
FK
und FY
durch die stetige zu Q? gehörende Verteilungsfunktion F ? . Der Graph von F ?
ist ein Polygonzug, es gilt

0
: y ≤ k1








QK {m1 }


(y − k1 )
: k1 ≤ y ≤ k2


B

1






QK {m2 }


(y − k2 ) : k2 ≤ y ≤ k3
 F ? (k2 ) +
B2
F ? (y) =
.




QK {m3 }

?

F
(k
)
+
(y − k3 ) : k3 ≤ y ≤ k4

3

B3








.................






1
: kl+1 ≤ y
c
°V.
Steinmetz: Grundzüge der Statistik
–100–
F ∗ (y) 6
1
0,5
½
!¡
!!
½
½
k1
k2
k3
¡
¡
»
»»
»©
»»
©"
©
"
"
-
k4
k5
k6
k7
k8
y
5.2.7 Stem-Leaf-Diagramme (Stamm-Blatt-Diagramme):
Eine weitere Möglichkeit, größere Datensätze einschließlich ihrer Häufigkeitsverteilung graphisch übersichtlich darzustellen, ist durch die Stem-Leaf-Diagramme
gegeben. Die Vorgehensweise soll zunächst an einem Beispiel erläutert werden:
Gegeben sei folgende Urliste:
ω̃1 ω̃2 ω̃3 ω̃4 ω̃5 ω̃6 ω̃7 ω̃8
ω̃r
.
ar = Y (ω̃r ) 470 490 300 61 570 390 490 611
In diesem Fall sind fast alle Zahlen dreistellig, man ergänzt deshalb ggf. Zahlen
mit geringerer Stellenzahl durch führende Nullen auf drei Stellen. Anschließend
läßt man alle Stellen bis auf die ersten beiden fort, ordnet der Größe nach:
06 30 39 47 49 49 57 61
Man schreibt nun die Ziffern 0,...,9 als ”Stamm” senkrecht untereinander und durch eine senkrechte Linie abgegrenzt - bei den obigen Zahlen an zweiter Stelle
auftretende Ziffern als ”Blätter” neben die entsprechende Ziffer des Stammes:
0
1
2
3
4
5
6
7
8
9
6
09
799
7
1
(Ausgangsdaten 3-stellig)
Bei diesem Diagramm kann man leicht sehen, in welchem Bereich sich die Daten
häufen. Man kann z.B. auch ablesen, daß zwei dreistellige Zahlen aufgetreten
sind, die mit 49 anfangen.
c
°V.
Steinmetz: Grundzüge der Statistik
–101–
Man kann sich leicht Modifikationen obiger Darstellung überlegen: Indem man
den Stamm z.B. aus zweistelligen Zahlen aufbaut, kann durch die Blätter eine dritte Stelle berücksichtigt werden: sind an einigen Stammabschnitten keine
Blätter vorhanden, kann man, um Platz zu sparen, diese Stammabschnitte fortlassen; man kann bei großer Spannweite des Ausgangsmaterials die berücksichtigte Stellenzahl innerhalb eines Stammes ändern, muß dies aber im Diagramm
kenntlich machen, damit die Größenordnung erkennbar bleibt; man kann auch
die Zahlen des Stammes doppelt aufführen und bei diesen Paaren die Blätter
0,1,2,3,4 jeweils hinter die obere Zahl schreiben, die Blätter 5,6,7,8,9 hinter die
untere: z.B. schreibt man statt
.
.
2
3 2234778
4
:
auch
.
.
2
3 2234
3 778
4
5.2.8 Bemerkung:
Die im 4. Kapitel bereitgestellten Maßzahlen von Wahrscheinlichkeitsverteilungen verwendet man auch in der deskriptiven Statistik zur Charakterisierung von
Häufigkeitsverteilungen. Sie sollen hier wiederholt und ergänzt werden:
Gegeben sei das GdS mit
Ω̃ = {ω̃1 , ..., ω̃N }
und dem eindimensionalen Merkmal Y mit der Urliste
ω̃r
ω̃1 . . . ω̃N
Y (ω̃r ) a1 . . . aN
und der Bildmenge
Y (Ω̃) = {y1 , ..., yM } .
(.1) Für jedes Skalierungsniveau von Y ist als Lageparameter der Modus yMod
(Modalwert, häufigster Wert, wahrscheinlichster Wert) brauchbar, definiert
durch
QY {yMod } ≥ QY {yi } i = 1, ..., M .
Sobald QY für mehrere Trägerpunkte maximal wird, ist der Modus nicht
eindeutig.
(.2) Y sei mindestens ordinalskaliert
Als Lageparameter ist neben dem Modus auch der Median yMed (Zentralwert) anwendbar, definiert durch
1
P {Y ≤ yMed } ≥
2
c
°V.
Steinmetz: Grundzüge der Statistik
1
und P {Y ≥ yMed } ≥ .
2
–102–
yMed ist Median genau dann, wenn gilt
ª N
©
ª
©
] r ∈ {1, ..., N } | ar < yMed ≤
≤ ] r ∈ {1, ..., N } | ar ≥ yMed .
2
Ein Median ist ein Spezialfall unter den p-Quantilen (p ∈]0, 1[) yp , die definiert sind durch
P {Y ≤ yp } ≥ p und P {Y ≥ yp } ≥ 1 − p.
yp ist p-Quantil genau dann, wenn gilt
©
ª
©
ª
] r ∈ {1, ..., N } | ar < yp ≤ N · p ≤ ] r ∈ {1, ..., N } | ar ≥ yp .
I.a. sind durch obige Definition die p-Quantile und damit auch der Median
nicht eindeutig festgelegt. Es seien
a(1) ≤ a(2) ≤ ... ≤ a(N )
die nach der Größe sortierten ar (r = 1, ..., N ), man erzwingt bisweilen
Eindeutigkeit durch die Festsetzung, als p-Quantil den Trägerpunkt a(k) zu
wählen mit
k−1<N ·p≤k
(für den Median siehe auch im nachfolgenden Punkt (.3)).
(.3) Y sei kardinalskaliert
Mit
Ni := ]{ω̃r ∈ Ω̃ | Y (ω̃r ) = yi }
i = 1, ..., M
gilt für die relative Häufigkeit
hi =
Ni
]{r ∈ {1, ..., N } | ar = yi }
= QY {yi } =
.
N
N
Als Lageparameter ist für kardinalskalierte Merkmale der Erwartungswert
brauchbar, es gilt
EY =
M
X
i=1
yi QY {yi } =
Man bezeichnet mit gi =
M
X
M
X
i=1
yi
N
1 X
Ni
=
ar =: ā .
N
N r=1
Ni
(i = 1, ..., M )
N
gi y i
i=1
c
°V.
Steinmetz: Grundzüge der Statistik
und
N
N
X
1
1 X
ar
ar =
N
N
r=1
r=1
–103–
als gewogene arithmetische Mittel21 der M Zahlen y1 , ..., yM mit den Gewichten g1 , ..., gM bzw. der N Zahlen a1 , ..., aN ; dabei haben im letzten Fall die
N Gewichte den übereinstimmenden Wert N1 , man spricht hier auch einfach
von dem arithmetischen Mittel21 der Zahlen a1 , ..., aN .
Verwendet man als Lageparameter den Median, so erzwingt man im Fall
eines kardinalskalierten Merkmals Eindeutigkeit auch durch folgende Festsetzung:
Man definiert

: N ungerade
 a( n+1
)
2
yMed :=
.
 1
N + a N
(a
)
:
N
gerade
( +1)
2 ( )
2
2
Es gelte
ar ≥ 0 für r = 1, ..., N.
Man bezeichnet
āgeom :=
√
N
a1 · ... · aN
als geometrisches Mittel der Beobachtungswerte.
Es gelte
ar > 0 für r = 1, ..., N.
Man bezeichnet
āharm :=
1
a1
N
+ ... +
1
aN
als harmonisches Mittel der Beobachtungswerte.
Für die Varianz von Y gilt
Var Y = E(Y − EY )2 =
=
M
P
i=1
M
P
i=1
=
Man bezeichnet
(yi − EY )2 QY {yi }
(yi − EY )2
Ni
N
N
1 P
(ar − ā)2 .
N r=1
N
1 X
(ar − ā)2
N r=1
als mittlere quadratische Abweichung22 der Zahlen a1 , ..., aN .
21
Man verwendet diese Begriffe auch bei beliebigen endlichen Zahlenfolgen ohne Bezug auf ein
GdS. Dabei müssen die Gewichte stets nichtnegativ sein und ihre Summe muß Eins ergeben.
22
Diesen Begriff verwendet man auch bei beliebigen endlichen Zahlenfolgen ohne Bezug auf ein
GdS.
c
°V.
Steinmetz: Grundzüge der Statistik
–104–
Als ein weiteres Streuungsmaß ist bei eindeutig definierten Quartilen auch
der Quartilsabstand
y0,75 − y0,25
gebräuchlich.
Aus klassierten Daten lassen sich i.a. nur Näherungswerte für die Maßzahlen
des zugrunde liegenden statistischen Merkmals berechnen.
(.4) Gegeben seien die Voraussetzungen und Bezeichnungen aus Bemerkung
(5.2.5) und Darstellung einer Klassierung (5.2.6). Als Näherungswert für
den Median eines kardinalskalierten, klassierten Merkmals wählt man eine
Zahl yMed,klass so, daß die durch sie gezogene Parallele zur Ordinate den
Flächeninhalt des Histogramms halbiert.
Für die zugehörige stetige Verteilungsfunktion F ? aus Darstellung einer Klassierung (5.2.6) gilt
1
F ? (yMed,klass ) = .
2
Einen Näherungswert für den Erwartungswert EY errechnet man mit Hilfe
der Klassenmitten
kj + kj+1
mj :=
(j = 1, ..., l)
2
durch
l
P
Eklass Y :=
mj QK {mj }
j=1
l k +k
P
j
j+1
QY ]kj , kj+1 ] .
2
j=1
Entsprechend berechnet man als Näherungswert für die Varianz von Y bei
klassierten Daten
l
X
(mj − Eklass Y )2 QK {mj }.
Varklass Y :=
=
j=1
5.2.9 Box-Plot:
Eine kompakte graphische Darstellung, die besonders zum Vergleich wichtiger
Kenngrößen mehrer Datensätze geeignet ist, liegt in dem sogenannten Box-Plot
vor. Es seien
ω̃r
ω̃1 . . . ω̃N
Y (ω̃1 ) a1 . . . aN
die Urliste eines kardinalskalierten Merkmals und a(1) ≤ ... ≤ a(N ) die der Größe
nach geordneten Beobachtungswerte. Man berechnet
unteres Quartil y0,25
Median
yMed
oberes Quartil y0,75
c
°V.
Steinmetz: Grundzüge der Statistik
–105–
und veranschaulicht diese Kennwerte zusammen mit a(1) und a(N ) folgendermaßen:
a(1)
yMed
y0,25
y0,75
a(N )
- y
0
Um mehr extreme Beobachtungswerte explizit sichtbar zu machen, zieht man
bisweilen die links und rechts an die Box angesetzten Linien nicht bis a(1) bzw.
a(N ) durch, sondern für ein geeignet gewähltes k ∈ N bis a(k+1) bzw. a(N −k) und
zeichnet a(1) , ..., a(k) und a(N −k+1) , ..., a(N ) einzeln ein:
× ... ×
a(1)
a(k)
a(k+1)
yMed
y0,25
0
c
°V.
Steinmetz: Grundzüge der Statistik
y0,75
a(N −k)
× ... ×
a(N −k+1) a(N )
- y
–106–
5.3 Häufigkeitsverteilungen zweidimensionaler Merkmale
5.3.1 Definition:
Gegeben sei das GdS aus Vereinbarung (5.1.1) mit
Ω̃ = {ω̃1 , ..., ω̃N },
dem zweidimensionalen Merkmal
Y : Ω̃ −→ R2
und der Urliste
ω̃r
ω̃1
...
ω̃r
...
ω̃N
(ar , br ) := Y (ω̃r ) (a1 , b1 ) ... (ar , br ) ... (aN , bN )
.
Weiterhin seien
U := pr1 ◦ Y
die erste Komponente von Y mit der Bildmenge
U (Ω̃) =: {u1 , ..., uL }
und
V := pr2 ◦ Y
die zweite Komponente von Y mit der Bildmenge
V (Ω̃) =: {v1 , ..., vM }.
Für das zweidimensionale Merkmal sei auch gemäß Bemerkung (3.3.5) die Schreibweise
Y = (U, V )
eingeführt.
Voraussetzungsgemäß ist in (Ω̃, F̃, P̃ ) das Wahrscheinlichkeitsmaß P̃ die relative
Häufigkeit. Man bezeichnet die Wahrscheinlichkeitsverteilung QY des Merkmals
Y als zweidimensionale Häufigkeitsverteilung (genauer: Verteilung der relativen
Häufigkeiten) und definiert für
(ui , vj ) ∈ U (Ω̃) × V (Ω̃)
i = 1, ..., L ; j = 1, ..., M
hij := QY {(ui , vj )} .
Die tabellarische Zusammenstellung
vj
ui
v1
···
u1
..
.
ui
..
.
uL
h.j
···
h.1
c
°V.
Steinmetz: Grundzüge der Statistik
···
···
vj
..
.
..
.
···
vM
hi.
h1.
..
.
hij
..
.
..
.
···
h.j
···
···
h.M
hi.
..
.
hL.
h.. = 1
–107–
mit
M
P
hi· :=
hij
i = 1, ..., L
hij
j = 1, ..., M
j=1
L
P
h·j :=
i=1
M
L P
P
h·· :=
hij
i=1 j=1
bezeichnet man als Häufigkeits- oder Kontingenztabelle von Y = (U, V ).
5.3.2 Folgerung:
Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.3.1).
Es gilt
hij = QY {(ui , vj )}
i = 1, ..., L; j = 1, ..., M
= H{ω̃ ∈ Ω̃ | Y (ω̃) = (ui , vj )}
=
]{r ∈ {1, ..., N } | ar = ui und br = vj }
,
N
hij ist also die relative Häufigkeit, mit welcher (ui , vj ) als Paar von Beobachtungswerten bei den N Elementen der Grundgesamtheit auftritt.
Weiterhin gilt
M
L X
M
L
X
X
X
hij = 1 .
h·j =
hi· =
j=1
i=1
i=1 j=1
Beweis:
Die erste Behauptung folgt sofort durch Anwendung von Definition (2.4.3) und
Definition (3.1.1) auf das GdS.
Die zweite Behauptung folgt aus
L P
M
P
i=1 j=1
hij =
PP
i
j
H{ω̃ ∈ Ω̃ | Y (ω̃) = (ui , vj )}
= H(Ω̃)
=1
und der Definition der hi· und h·j .
5.3.3 Bemerkung:
Im Gegensatz zur eindimensionalen Häufigkeitstabelle aus Definition (5.2.1)
sind in der Tabelle von Definition (5.3.1) nicht notwendigerweise alle relativen
c
°V.
Steinmetz: Grundzüge der Statistik
–108–
Häufigkeiten hij größer als Null, da nicht jedes Paar (ui , vj ) auch Trägerpunkt,
d.h. Bildpunkt eines ω̃ ∈ Ω̃ sein muß. Aber alle an den Tabellenrändern aufgeführten Punktmassen hi· der Randverteilung QU von U und h·j der Randverteilung QV von V sind positiv. Oft werden aus einer Urliste
ω̃r
ω̃1
...
ω̃N
(ar , br ) := Y (ω̃r ) (a1 , b1 ) ... (aN , bN )
zunächst die absoluten Häufigkeiten
Nij := ]{ω̃ ∈ Ω̃ | Y (ω̃) = (ui , vj )} i = 1, ..., L ; j = 1, ..., M
mit den Zeilensummen
Ni· :=
M
X
Nij
j=1
und den Spaltensummen
N·j :=
L
X
Nij
i=1
angegeben. In einem zweiten Schritt berechnet man die relativen Häufigkeiten
hij =
Nij
Ni·
N·j
, hi· =
, h·j =
.
N
N
N
Zur Charakterisierung der eindimensionalen Randverteilungen benutzt man die
Lage- und Streuungsparameter aus Bemerkung (5.2.8) sowie bei klassierten Daten ihre Näherungen (je nach Datenlage kann man die Beobachtungen zweidimensionaler Merkmale bzgl. einer Komponente entsprechend Bemerkung (5.2.5)
klassieren oder simultan bzgl. beider Komponenten).
Ohne Schwierigkeiten lassen sich auch bedingte Häufigkeitsverteilungen entsprechend Definition (3.4.1) berechnen.
5.3.4 Folgerung:
Für ein zweidimensionales kardinalskaliertes Merkmal Y = (U, V ) seien in einer
Urliste für jedes ω̃r ∈ Ω̃ (r = 1, ..., N ) die Merkmalsausprägung
Y (ω̃r ) = (ar , br ) gegeben und in einer Häufigkeitstabelle für jedes Paar
(ui , vj ) ∈ U (Ω̃) × V (Ω̃) die relative Häufigkeit
hij =
]{ω̃ ∈ Ω̃ | U (ω̃) = ui und V (ω̃) = vj }
i = 1, ..., L ; j = 1, ..., M .
N
Mit den Erwartungswerten
N
L
X
1 X
EU =
ar =
ui · hi· =: ā
N r=1
i=1
c
°V.
Steinmetz: Grundzüge der Statistik
–109–
und
EV =
N
M
X
1 X
br =
vj · h·j =: b̄
N r=1
j=1
gilt für den Korrelationskoeffizienten (nach Bravais-Pearson) von U und V
(.1) Korr(U, V ) = sµ
(.2)
N
P
r=1
N
P
r=1
(ar − ā)(br − b̄)
(ar −
L P
M
P
ā)2
i=1 j=1
¶µ
N
P
r=1
(br −
b̄)2
¶
(ui − EU )(vj − EV )hij
=v
! .
Ã
uµ
¶
L
M
u P
P
t
(ui − EU )2 hi·
(vj − EV )2 h·j
i=1
j=1
5.3.5 Bemerkung:
Man benutzt (5.3.4.1) als Maß für den linearen Zusammenhang zweier sich elementweise zugeordneter Zahlenreihen
a1 ... ar ... aN
b1 ... br ... bN
ohne jede Bezugnahme auf das GdS.
5.3.6 Definition:
In einer Urliste seien für ein zweidimensionales Merkmal Y = (U, V ) mit mindestens ordinal skalierten Komponenten U und V die Merkmalsausprägungen mit
ihren zugehörenden Rängen23 gegeben:
ω̃1
ω̃r
ar := U (ω̃r )
a1
br := V (ω̃r )
b1
Rr (a)
R1 (a)
Rr (b)
R1 (b)
...
ω̃N
...
aN
...
bN
... RN (a)
... RN (b).
Dabei sei für
a := (a1 , ..., aN ) und b := (b1 , ..., bN )
ar 6= ar0 und br 6= br0 ; r 6= r0 ∈ {1, ..., N } vorausgesetzt.
23
vgl. Definition (8.9.2)
c
°V.
Steinmetz: Grundzüge der Statistik
–110–
Mit
R̄(a) :=
und
N
1 X
N +1
Rr (a) =
N r=1
2
N
1 X
N +1
R̄(b) :=
Rr (b) =
N r=1
2
bezeichnet man
KorrS (U, V ) := s·
N
P
r=1
N
P
r=1
(Rr (a) − R̄(a))(Rr (b) − R̄(b))
(Rr (a) −
R̄(a))2
¸·
N
P
r=1
(Rr (b) −
R̄(b))2
¸
als Spearmanschen Rangkorrelationskoeffizienten von U und V . Bei in a oder
b auftretenden Bindungen werden i.a. Durchschnittsränge - (vgl. Bemerkung
(8.9.6) - verwendet).
5.3.7 Folgerung:
Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.3.6).
Treten weder in a noch in b Bindungen auf, so gilt für N ≥ 2
N
P
6
KorrS (U, V ) = 1 −
r=1
(Rr (a) − Rr (b))2
(N − 1)N (N + 1)
.
Beweis:
Mit den Formeln
N
X
N (N + 1)
r=
2
r=1
und
N
X
r=1
r2 =
N (N + 1)(2N + 1)
6
folgt
und
sowie
N
1 X
N +1
R̄(a) =
Rr (a) =
N r=1
2
N
X
(N − 1)N (N + 1)
(Rr (a) − R̄(a))2 =
12
r=1
N
X
r=1
(Rr (b) − R̄(b))2 =
c
°V.
Steinmetz: Grundzüge der Statistik
(N − 1)N (N + 1)
.
12
–111–
Weiterhin zeigt man leicht
N
X
¡
r=1
Rr (a) − R̄(a)
¢¡
¢
Rr (b) − R̄(b) =
N
X
r=1
Rr (a) · Rr (b) −
N (N + 1)2
.
4
Mit diesen Zwischenergebnissen folgt
N
P
12
Rr (a) · Rr (b) − 3N (N + 1)2
r=1
.
KorrS (U, V ) =
(N − 1)N (N + 1)
Zusammen mit der leicht nachzuvollziehenden Umformung
N
N
P
P
6 (Rr (a) − Rr (b))2
Rr (a) · Rr (b) − 3N (N + 1)2
12
r=1
1 − r=1
=
(N − 1)N (N + 1)
(N − 1)N (N + 1)
folgt die Behauptung.
5.3.8 Bemerkung:
Da der Spearmansche Rangkorrelationskoeffizient nur auf die Ränge der Meßwerte angewendet wird, deutet ein Wert in der Nähe von ±1 auch bei kardinal
skalierten Merkmalen nicht unbedingt auf einen starken linearen Zusammenhang
der Meßwerte hin, sondern möglicherweise nur auf ein monotones Verhalten der
beiden Meßwertefolgen.
Werte in der Nähe von 0 deuten darauf hin, daß wenig oder kein monotoner
Zusammenhang zwischen den Meßwertefolgen vorliegt.
5.3.9 Satz:
Für das zweidimensionale Merkmal Y = (U, V ) mit beliebigem Skalierungsniveau der Komponenten sei die Tabelle der relativen Häufigkeiten mit den relativen Randhäufigkeiten gegeben:
vj
ui
v1
···
u1
..
.
ui
..
.
uL
h.j
···
···
h.1
···
vj
..
.
..
.
···
vM
hi.
h1.
..
.
hij
..
.
..
.
···
h.j
···
···
h.M
hi.
..
.
hL.
h.. = 1
U und V sind genau dann stochastisch unabhängig, wenn gilt
hij = hi· · h·j
für
Beweis:
Siehe Bemerkung (3.3.8).
c
°V.
Steinmetz: Grundzüge der Statistik
i = 1, ..., L ; j = 1, ..., M .
–112–
5.3.10 Definition:
Für das zweidimensionale Merkmal Y = (U, V ) mit beliebigem Skalierungsniveau der Komponenten sei die Tabelle der relativen Häufigkeiten mit den relativen Randhäufigkeiten gegeben:
vj
ui
v1
···
u1
..
.
ui
..
.
uL
h.j
···
h.1
···
···
vj
..
.
..
.
···
vM
hi.
h1.
..
.
hij
..
.
..
.
···
h.j
···
···
h.M
hi.
..
.
hL.
h.. = 1
mit hi· > 0 für i = 1, ..., L und h·j > 0 für j = 1, ..., M .
Man bezeichnet
L X
M
X
[hij − hi· · h·j ]2
2
.
ϕU,V :=
hi· h·j
i=1 j=1
als mittlere quadratische Kontingenz der Merkmale U, V,
s
ϕ2U,V
C := +
1 + ϕ2U,V
als Pearsonschen Kontingenzkoeffizienten und
s
min{L, M }
Ckorr := C ·
min{L, M } − 1
als korrigierten Pearsonschen Kontingenzkoeffizienten .
5.3.11 Folgerung:
Gegeben seien die Bezeichnungen und Voraussetzungen aus Definition (5.3.10)
und L, M > 1. Dann gilt
.1) ϕ2U,V =
L P
M
h2ij
P
−1
i=1 j=1 hi· h·j
.2) 0 ≤ ϕ2U,V ≤ min{L, M } − 1
.3) 0 ≤ C < 1
.4) 0 ≤ Ckorr ≤ 1
c
°V.
Steinmetz: Grundzüge der Statistik
–113–
.5) Sind U und V unabhängig, so folgt
ϕ2U,V = C = Ckorr = 0 .
Beweis:
zu .1)
ϕ2U,V
=
M h2 − 2hij hi. · h·j + h2 h2
L P
P
i· ·j
ij
h
h
i· ·j
i=1 j=1
PP
P P h2ij
PP
hi· h·j
hij +
=
−2
i j
i j hi· h·j
i j
Wegen
1 = h·· =
folgt die Behauptung.
XX
i
hij =
j
X
hi·
i
X
j
h·j
zu .2)
Die Nichtnegativität von ϕ2U,V folgt sofort aus der Definition (5.3.10), da die hi·
und h·j als positiv vorausgesetzt werden und das Quadrat einer reellen Zahl stets
nichtnegativ ist.
Weiterhin gilt wegen der Nichtnegativität der relativen Häufigkeit stets
h·j = h1j + ... + hij + ... + hLj ≥ hij
für i = 1, ..., L ; j = 1, ..., M .
Damit folgt wegen h·j > 0 nach Voraussetzung
hij
≤1
h·j
und
L P
M
P
i=1 j=1
h2ij
hi· h·j
=
≤
=
L
M
P
1 P
hij
hij
h·j
i=1 hi· j=1
M
L 1 P
P
hij
i=1 hi· j=1
L
P
1=L .
i=1
Entsprechend zeigt man
X X h2ij
≤M .
hi· h·j
i
j
c
°V.
Steinmetz: Grundzüge der Statistik
–114–
Aus beiden Ergebnissen zusammen folgt
XX
i
und
j
h2ij
≤ min{L, M }
hi· h·j
X X h2ij
− 1 ≤ min{L, M } − 1 .
h
h
i·
·j
i
j
zu .3)
Aus
0 ≤ ϕ2U,V < ϕ2U,V + 1
folgt durch Division mit ϕ2U,V + 1
0≤
ϕ2U,V
<1
1 + ϕ2U,V
und damit sofort die behauptete Ungleichung .
zu .4)
Die Nichtnegativität folgt sofort aus der Definition von Ckorr .
Zur Vereinfachung werde abgekürzt
ϕ2U,V =: ϕ2 und min{L, M } =: m .
Aus .2) folgt
0 ≤ m − ϕ2 − 1
und
mϕ2 ≤ mϕ2 + m − ϕ2 − 1 = (m − 1)(1 + ϕ2 ) .
Wegen ϕ2 + 1 > 0 und L, M > 1 folgt
ϕ2
m
≤ 1
1 + ϕ2 m − 1
und damit die rechte Seite der Ungleichung.
zu .5)
Da die Unabhängigkeit von U und V äquivalent ist zu
hij = hi· · h·j
für i = 1, ..., L und j = 1, ..., M
folgt
hij − hi· h·j = 0
und damit aus Definition (5.3.10) ϕ2U,V = 0 und Ckorr = 0 .
c
°V.
Steinmetz: Grundzüge der Statistik
–115–
5.4 Konzentrationsmaße
5.4.1 Definition:
Gegeben sei das GdS mit der Urliste
ω̃1 · · · ω̃N
ω̃r
.
ar := Y (ω̃r ) a1 · · · aN
Es gelte für die der Größe nach geordneten Merkmalsausprägungen
0 ≤ a(1) ≤ a(2) ≤ · · · ≤ a(N )
und
N
X
a(r) > 0 .
r=1
Mit
vk :=
k
P
r=1
N
P
a(r)
k = 1, ..., N
a(r)
r=1
werde der Anteil bezeichnet, den die Summe der k kleinsten Merkmalsausprägungen an der Gesamtsumme der Merkmalsausprägungen hat, und mit
uk :=
k
N
k = 1, ..., N
der Anteil, den die Menge der zugehörigen Merkmalsträger an ganz Ω̃ hat. Verbindet man in einem rechtwinkligen u − v−Koordinatensystem mit denselben
Maßeinheiten auf beiden Koordinatenachsen die Punkte
(0, 0) =:
(u0 , v0 )
und (u1 , v1 )
(u1 , v1 )
und (u2 , v2 )
..
.
(uN −1 , vN −1 ) und (uN , vN )24
durch Strecken, so bezeichnet man den entstehenden Polygonzug als Lorenzkurve:
24
Im nächsten Satz wird gezeigt: (uN , vN ) = (1, 1).
c
°V.
Steinmetz: Grundzüge der Statistik
–116–
v
6
1
(1, 1)
¢
u
¢
vN −1
v2
!u
!!
v 1 »»
»u
0
u1 u2
u
¢
¢
¢
-
uN −1 1 u
5.4.2 Satz:
Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.4.1).
Für die Lorenzkurve gilt:
(.1) Sie beginnt in (u0 , v0 ) = (0, 0),
(.2) sie endet in (uN , vN ) = (1, 1),
(.3) sie ist monoton steigend,
(.4) vk ≤ uk für k = 0, ..., N, d.h. sie verläuft nie über der (0, 0) und (1, 1)
verbindenden Geraden,
(.5) haben alle Merkmalsträger dieselbe Merkmalsausprägung, so ist sie die
(0, 0) und (1, 1) verbindende Strecke,
(.6) gilt
0 = a(1) = ... = a(N −1) < a(N ) ,
so fällt sie von 0 bis
zum Punkt (1, 1).
N −1
N
mit der Abszisse zusammen und steigt dann linear
Beweis:
zu .1)
Die Behauptung ist nach Definition der Lorenzkurve erfüllt.
zu .2)
Es gilt für k = N
N
P
N
= 1 und vN = r=1
uN =
N
P
N
a(r)
=1.
a(r)
r=1
zu .3)
Es gilt für k = 1, ..., N − 1
uk =
c
°V.
Steinmetz: Grundzüge der Statistik
k
k+1
<
= uk+1
N
N
–117–
und wegen a(r) ≥ 0
vk =
k
P
a(r)
r=1
N
P
a(r)
≤
r=1
k+1
P
r=1
N
P
a(r)
= vk+1 ,
a(r)
r=1
so daß die (uk , vk ) und (uk+1 , vk+1 ) verbindende Strecke nicht fallen kann. Wegen
0≤
a(1)
N
P
a(r)
r=1
ist auch für die erste Teilstrecke der Lorenzkurve eine nichtnegative Steigung
gesichert.
zu .4)
Es gilt für k = 1, ..., N − 1 nach Voraussetzung
a(1) ≤ a(k+1)
..
.
a(k) ≤ a(k+1)
und folglich
a(1) + ... + a(k) ≤ a(k+1) + ... + a(k+1) = ka(k+1) .
Damit folgt
k(a(1) + ... + a(k) ) + (a(1) + ... + a(k) ) ≤ k(a(1) + ... + a(k) ) + ka(k+1)
oder
(k + 1)(a(1) + ... + a(k) ) ≤ k(a(1) + ... + a(k) + a(k+1) )
und schließlich
a(1) + ... + a(k+1)
a(1) + ... + a(k)
≤
.
k
k+1
Da diese Ungleichung für k = 1, ..., N − 1 gilt, erhält man
a(1)
a(1) + ... + a(k)
a(1) + ... + a(N )
≤ ... ≤
≤ ... ≤
.
1
k
N
Greift man den k−ten und den letzten Quotienten heraus, so folgt durch entsprechendes Auflösen
k
P
a(r)
k
r=1
≤
vk = N
= uk .
P
N
a(r)
r=1
c
°V.
Steinmetz: Grundzüge der Statistik
–118–
zu .5)
Die Gerade durch die Punkte (0, 0) und (1, 1) ist durch die Gleichung
v=u
festgelegt. Gilt
a(1) = ... = a(N ) =: a,
so folgt
k
k·a
=
= uk ,
N ·a
N
die Punkte (uk , vk ) liegen also auf der o.g. Geraden.
vk =
zu .6)
Die Behauptung folgt aus der Voraussetzung
0 = a(1) = ... = a(N −1) < a(N )
und der Definition der Lorenzkurve.
5.4.3 Folgerung:
Gegeben seien die Voraussetzungen und Bezeichnungen aus Definition (5.4.1),
allerdings liege nicht die Urliste
ω̃1 · · · ω̃N
ω̃r
ar := Y (ω̃r ) a1 · · · aN
mit
0 ≤ ar
für r = 1, ..., N
und
ar > 0
r=1
vor, sondern die zugehörige Häufigkeitstabelle
yi
y1 · · ·
hi := QY {yi } h1 · · ·
Es sei
N
X
yM
hM
25
y(1)
· · · y(M )
yi
QY {yi } h(y(1) ) · · · h(y(M ) )
.
die entsprechende Häufigkeitstabelle mit der Größe nach geordneten y−Werten
y(1) ≤ ... ≤ y(M ) .
Dann stimmt die durch
ṽl :=
l
P
i=1
M
P
i=1
25
Es gilt also 0 ≤ yi und
M
P
yi > 0 .
i=1
c
°V.
Steinmetz: Grundzüge der Statistik
h(y(i) )y(i)
l = 1, ..., M
h(y(i) )y(i)
–119–
und
ũl :=
l
X
h(y(i) ) l = 1, ..., M
i=1
definierte Lorenzkurve mit der aus der Urliste ermittelten überein.
Beweisskizze:
Gilt M = N, so ist die Folgerung trivial.
I.a. wird aber M < N gelten, d.h. daß Beobachtungswerte übereinstimmen.
Man könnte vermuten, daß in diesem Fall die aus der Urliste ermittelte Lorenzkurve mehr ”Knickstellen” hat als die zur Häufigkeitstabelle gehörende, die
beiden Kurven also nicht übereinstimmen können. Nachfolgend wird gezeigt,
daß dies nicht der Fall ist:
Es sei
a(k−1) ≤ a(k) = a(k+1) .
Dann liegt der Punkt (uk , vk ) auf der die Punkte (uk−1 , vk−1 ) und (uk+1 , vk+1 )
verbindenden Strecke, denn es gilt
uk
k
=
=
N
und
k
P
r=1
N
P
vk =
k−1
N
a(r)
=
a(r)
+
2
k−1
P
k+1
N
a(r) + a(k) +
r=1
2
a(r)
N
P
a(r)
.
r=1
Wegen a(k) = a(k+1) folgt weiter
vk =
k
P
r=1
r=1
k−1
P
uk−1 + uk+1
2
=
a(r) +
r=1
k+1
P
r=1
2
N
P
a(r)
=
a(r)
vk−1 + vk+1
,
2
r=1
und man hat folgende Situation, bei der in (uk , vk ) keine Knickstelle vorliegt:
v
6
vk+1
vk
vk−1
u
uk−1
c
°V.
Steinmetz: Grundzüge der Statistik
u
u
-
uk
uk+1
u
–120–
Entsprechendes gilt natürlich auch, wenn mehrere aufeinander folgende Beobachtungswerte übereinstimmen.
Es sei nun z.B.
. . . a(k−1) < a(k) = . . . = a(k+m) < a(k+m+1) . . .
und a(k) der l−kleinste Beobachtungswert, d.h. es gelte
y(l) = a(k) = ... = a(k+m) .
Dann folgt
l
P
i=1
M
P
ṽl =
h(y(i) )y(i)
=
h(y(i) )y(i)
ũl =
r=1
N
P
a(r)
= vk+m
a(r)
r=1
i=1
und
k+m
P
l
X
h(y(i) ) =
i=1
k+m
= uk+m .
N
Entsprechendes kann man sich für alle Folgen übereinstimmender Beobachtungswerte überlegen, so daß also die beiden Lorenzkurven übereinstimmen.
5.4.4 Definition:
Für das Merkmal Y eines GdS seien eine Klassierung mit den Klassen
Kj :=]kj , kj+1 ]
j = 1, ..., l
0 ≤ k1 < k2 < ... < kl+1 ,
den Klassenmitten
kj + kj+1
j = 1, ..., l
2
und der auf die Klasse Kj entfallenden Punktmasse
mj =
QY ]kj , kj+1 ]
j = 1, ..., l
gegeben. Entsprechend Folgerung (5.4.3) definiert man eine approximative Lorenzkurve durch
ṽk :=
k
P
mj QY ]kj , kj+1 ]
j=1
l
P
k = 1, ..., l
mj QY ]kj , kj+1 ]
j=1
ũk :=
k
P
QY ]kj , kj+1 ]
j=1
ṽ0 := 0 =: ũ0 .
c
°V.
Steinmetz: Grundzüge der Statistik
–121–
5.4.5 Definition:
Gegeben sei das GdS mit der Urliste
ω̃r
ω̃1 · · · ω̃N
,
ar := Y (ω̃r ) a1 · · · aN
ar ≥ 0 für r = 1, ..., N
und die zugehörende Lorenzkurve in einem rechtwinkligen u − v−Koordinatensystem mit denselben Maßeinheiten auf beiden Koordinatenachsen. Weiterhin
seien
F0 der Flächeninhalt der Fläche zwischen der von (0,0) nach (1,1)
gehenden Strecke und der Abszisse von (0,0) bis (1,0),
F1 der Flächeninhalt der Fläche zwischen der von (0,0) nach (1,1)
gehenden Strecke und der Lorenzkurve.
Man bezeichnet
G :=
F1
F0
als Gini-Koeffizienten und
Gnorm :=
als normierten Gini-Koeffizienten.
N
F1
·
N −1
F0
5.4.6 Bemerkung:
Steht nur eine aufgrund klassierter Daten ermittelte approximative Lorenzkurve
zur Verfügung, kann man mit ihrer Hilfe i.a. nur approximative Gini-Koeffizienten ermitteln.
5.4.7 Satz:
Gegeben seien die Bezeichnungen und Voraussetzungen aus Definition (5.4.5).
Es gilt
(.1) G = 2F1
(.2) 0 ≤ G ≤
N −1
N
(.3) 0 ≤ Gnorm ≤ 1.
Beweis:
zu .1)
Da der Flächeninhalt des Quadrates mit den Eckpunkten (0, 0), (1, 0), (1, 1), (0, 1)
Eins ist, folgt F0 = 12 und G = 2F1 .
zu .2) und .3)
Die Behauptungen folgen direkt aus dem nachfolgenden Satz.
c
°V.
Steinmetz: Grundzüge der Statistik
–122–
5.4.8 Satz:
Gegeben seien die Bezeichnungen und Voraussetzungen aus Definition (5.4.5).
Weiterhin seien
(0, 0) = (u0 , v0 ), (u1 , v1 ), ..., (uN −1 , vN −1 ), (uN , vN ) = (1, 1)
die definierenden Punkte einer Lorenzkurve. Dann gilt für den Gini-Koeffizienten
NP
−1
(.1) G = uN −1 −
(ur+1 − ur−1 )vr
r=1
(.2)
5.4.9 Bemerkung:
=
−1
2 NP
N −1
−
vr .
N
N r=1
Die zweite Formel gilt nur, wenn die Lorenzkurve aus den Daten der Urliste mit
N Untersuchungseinheiten ermittelt wurde.
Falls die Lorenzkurve aus der Häufigkeitstabelle mit M Merkmalsausprägungen
berechnet wurde, muß die Summation in der ersten Formel bis M − 1 durchgeführt werden, die Formel .2) ist nicht anwendbar.
Beweis zu Satz (5.4.8):
In der folgenden Zeichnung ist die Lorenzkurve zwischen ur und ur+1 dargestellt:
v
6
1
(1, 1)
ur+1
vr+1
ur
vr
¡
¡
0
¡
¡
¡
¡
¡
¡
¡
¡
¡
¡
¡
¡
¡
¡
¡
-
ur
ur+1 1 u
Bei der eingezeichneten Teilfläche aus der Fläche F1 (vgl. Definition (5.4.5))
handelt es sich um ein Trapez, für seinen Flächeninhalt F1r gilt
F1r = (ur+1 − ur )
c
°V.
Steinmetz: Grundzüge der Statistik
(ur − vr ) + (ur+1 − vr+1 )
.
2
–123–
Damit folgt
G = 2
NP
−1
F1r =
r=0
NP
−1
=
r=0
ur+1 ur −
r=0
NP
−1
−
NP
−1
u2r +
r=0
NP
−1
r=0
(ur+1 − ur )(ur − vr + ur+1 − vr+1 )
NP
−1
ur+1 vr +
r=0
NP
−1
r=0
ur v r −
NP
−1
u2r+1 −
ur ur+1 +
r=0
NP
−1
NP
−1
ur+1 vr+1
r=0
ur vr+1 .
r=0
Berücksichtigt man (u0 , v0 ) = (0, 0) sowie (uN , vN ) = (1, 1) und daß beispielsweise gilt
N
−1
X
r=0
ur vr+1 = uN −1 +
N
−2
X
r=0
ur vr+1 = uN −1 +
N
−1
X
ur−1 vr ,
r=1
so erhält man nach einigen Umformungen
G =
NP
−1
r=1
−
NP
−1
r=1
ur+1 ur −
u2r +
= uN −1 −
NP
−1
r=1
NP
−1
r=1
NP
−1
r=1
ur+1 vr + u2N +
ur v r −
NP
−1
r=1
NP
−1
r=1
u2r − uN vN −
ur ur+1 + uN −1 +
NP
−1
NP
−1
ur v r
r=1
ur−1 vr
r=1
(ur+1 − ur−1 )vr .
Da für die Daten der Urliste gilt
ur+1 − ur =
r
1
r+1 r−1
2
r+1
−
=
, ur+1 − ur−1 =
−
=
,
N
N
N
N
N
N
erhält man sofort die Aussage (.2).
5.4.10 Definition:
Gegeben sei das GdS mit der Urliste
ω̃r
ω̃1 · · · ω̃N
.
Y (ω̃r ) a1 · · · aN
Für die der Größe nach geordneten Merkmalsausprägungen gelte
0 ≤ a(1) ≤ a(2) ≤ ... ≤ a(N )
und
N
X
r=1
c
°V.
Steinmetz: Grundzüge der Statistik
a(r) > 0.
–124–
Man bezeichnet
CRg :=
N
P
a(r)
r=N −g+1
N
P
g = 1, 2, ..., N
a(r)
r=1
als Konzentrationskoeffizienten und den die Punkte
(0, 0) =: (0, CR0 ), (1, CR1 ), ..., (N, CRN )
verbindenden Streckenzug als Konzentrationskurve.
Die Zahl
N
P
·
¸
a2r
N
2
X ar
H :=
= · r=1 ¸2
N
N
P
P
r=1
as
as
s=1
s=1
wird als Herfindahl-Index bezeichnet.
5.4.11 Bemerkung:
Für g = 1 erhält man
a(N ) = CR1 ·
N
X
a(r) ,
r=1
man kann also aus der Kenntnis von CR1 und der Gesamtsumme der Merkmalsausprägungen a(N ) berechnen.
Für g = 2 erhält man
a(N ) + a(N −1) = CR2 ·
N
X
a(r) ,
r=1
die Untersuchungseinheiten mit der größten bzw. zweitgrößten Merkmalsausprägung können aus der Kenntnis der eigenen Situation, von CR2 und der Gesamtsumme der Merkmalsausprägungen also die Merkmalsausprägung der jeweils anderen Untersuchungseinheit ausrechnen.
Aus Datenschutzgründen darf deshalb in Deutschland die amtliche Statistik nur
Konzentrationskoeffizienten für g > 2 veröffentlichen.
Für den Herfindahl-Index gilt
1
≤ H ≤ 1.
N
c
°V.
Steinmetz: Grundzüge der Statistik
–125–
5.4.12 Satz:
Gegeben sei das GdS mit der Urliste
ω̃r
ω̃1 · · · ω̃N
,
Y (ω̃r ) a1 · · · aN
dabei sei ar ≥ 0 für r = 1, ..., N und
N
P
ar > 0 .
r=1
(.1) Sind alle ar = 0 bis auf eines, so folgt
H=1
(dies gilt insbesondere für N = 1).
(.2) Gilt a1 = ... = aN , liegt also eine gleichmäßige Verteilung der Merkmalssumme auf die N Untersuchungseinheiten vor, nimmt H den Minimalwert
1
H=
N
N
P
an (N fest,
ar fest) .
r=1
Beweis:
zu (.1)
o.B.d.A. seien a1 > 0, a2 = . . . = aN = 0 .
N
P
a2r
a21
H=·
=1
=
¸
2
N
a21
P
as
r=1
s=1
zu (.2)
Wir suchen eine Lösung von
0<
min
N
X
a1 ,...,aN
N
r=1
P
ar =K
N ∈ N, K > 0 fest .
a2r
r=1
Wegen
N
P
ar = K folgt:
r=1
N
P
r=1
µ
K
ar −
N
¶2
=
N
P
r=1
=
N
P
r=1
=
N
P
r=1
c
°V.
Steinmetz: Grundzüge der Statistik
µ
a2r
K K2
− 2ar + 2
N
N
a2r − 2
a2r −
¶
K
K2
K + 2N
N
N
K2
,
N
–126–
¶2
N µ
X
K2
K
also
=
.
ar −
+
N
N
|{z}
r=1
r=1
| {z }
|
{z
}
unabh.von a1 , ..., aN
>0
≥0
N
X
a2r
Da alle Summanden nichtnegativ sind, können wir die Summe auf der linken
Seite minimieren, indem wir bestenfalls die Summe auf der rechten Seite zu Null
machen.
Dies ist nur möglich, wenn
a1 = a2 = ... = aN =
K
,
N
also eine gleichmäßige Aufteilung der Merkmalssumme vorliegt.
Dann ist:
K2
1
H = N2 =
.
K
N
c
°V.
Steinmetz: Grundzüge der Statistik
–127–
5.5 Verhältniszahlen
5.5.1 Vereinbarung:
Den Quotienten
x
y
mit y 6= 0
zweier statistischer Größen, zwischen denen ein sachlogischer Zusammenhang
gegeben ist oder angenommen wird, bezeichnet man als Verhältniszahl.
5.5.2 Vereinbarung:
Wird ein Ganzes (z.B. Menge, Geldbetrag usw.) in Teile untergliedert (z.B.
Teilmengen, Teilbeträge usw.), werden sowohl das Ganze wie auch die Teile
durch gleichartige Zahlen charakterisiert (z.B. Mengen, Teilmengen durch relative oder absolute Häufigkeiten oder durch Merkmalssummen) oder handelt es
sich bereits um Zahlenangaben (z.B. Geldbeträge), so bezeichnet man Quotienten aus der zum Teil gehörenden Zahl und der zum Ganzen gehörenden Zahl als
Gliederungszahl.
5.5.3 Vereinbarung:
Das Verhältnis zweier in sachlogischem Zusammenhang stehender, aber verschiedenartiger statistischer Größen bezeichnet man als Beziehungszahl.
5.5.4 Vereinbarung:
Das Verhältnis zweier gleichartiger statistischer Größen, die sich auf verschiedene Zeitpunkte oder Orte beziehen, bezeichnet man als Meßzahl.
Bei zeitlichem Bezug einer Meßzahl
xt 1
xt 0
xt0 6= 0
bezeichnet man, wenn durch die Zeitangabe ein Zeitpunkt festgelegt wird,
t0 als Basis- oder Bezugszeitpunkt und
t1 als Berichts- oder Referenzzeitpunkt;
wenn durch die Zeitangabe eine Periode festgelegt wird, heißt t0 Basis- oder
Bezugsperiode, t1 Berichts- oder Referenzperiode.
c
°V.
Steinmetz: Grundzüge der Statistik
–128–
5.5.5 Bemerkung:
Oft sollen Folgen von Meßzahlen, sog. Messzahlenreihen, die sich auf verschiedene Basiszeitpunkte oder -perioden beziehen, miteinander verglichen werden:
xt 0
,
xt 0
xt 1
xt
,..., m
xt 0
xt 0
xt
xtn+1
xt n
,
, . . . , n+p .
xt n
xt n
xt n
Diesen Vergleich ermöglicht man durch Umbasierung, indem man entweder die
xt
Quotienten der ersten Folge mit 0 multipliziert und somit die erste Folge ebenxt n
xt
falls auf tn bezieht oder die Quotienten der zweiten Folge mit n multipliziert
xt 0
und somit auf t0 bezieht.
c
°V.
Steinmetz: Grundzüge der Statistik
–129–
5.6 Indexzahlen
5.6.1 Definition:
Es seien pt0 (i) und pt (i) (i = 1, ..., n) die Preise von n Gütern zu den Zeitpunkten t0 bzw. t und es seien qt0 (i) (i = 1, ..., n) die zugehörenden Quantitäten
zum Basiszeitpunkt t0 . Man bezeichnet
PtL0 ,t
:=
n
P
pt (i)qt0 (i)
i=1
n
P
pt0 (i)qt0 (i)
i=1
³X
p t 0 qt 0 > 0
´
als Preisindex nach Laspeyres mit dem Basiszeitpunkt t0 und dem Berichtszeitpunkt t.
5.6.2 Definition:
Es seien pt0 (i) und pt (i) (i = 1, ..., n) die Preise von n Gütern zu den Zeitpunkten
t0 bzw. t und es seien qt (i) (i = 1, ..., n) die zugehörenden Quantitäten zum
Berichtszeitpunkt t.
Man bezeichnet
PtP0 ,t
:=
n
P
pt (i)qt (i)
i=1
n
P
pt0 (i)qt (i)
i=1
³X
p t 0 qt > 0
´
als Preisindex nach Paasche mit dem Basiszeitpunkt t0 und dem Berichtszeitpunkt t.
5.6.3 Definition:
Es seien pt0 (i) und pt (i) (i = 1, ..., n) die Preise von n Gütern sowie qt0 (i) und
qt (i) die zugehörenden Quantitäten zum Basiszeitpunkt t0 bzw. zum Berichtszeitpunkt t.
PtL0 ,t und PtP0 ,t seien die entsprechenden Preisindizes nach Laspeyres bzw. Paasche. Man bezeichnet
q
PtF0 ,t := + PtL0 ,t · PtP0 ,t
als Preisindex nach Fisher (Fisherscher Idealindex) und
−E
PtM
0 ,t
:=
n
P
pt (i)(qt0 (i) + qt (i))
i=1
n
P
pt0 (i)(qt0 (i) + qt (i))
i=1
als Preisindex nach Marshall und Edgeworth.
c
°V.
Steinmetz: Grundzüge der Statistik
³X
pt0 (qt0 + qt ) > 0
´
–130–
5.6.4 Definition:
Es seien pt0 (i) und pt (i) (i = 1, ..., n) die Preise von n Gütern sowie qt0 (i) und
qt (i) die zugehörenden Quantitäten zum Basiszeitpunkt t0 bzw. zum Berichtszeitpunkt t.
Man bezeichnet
n
P
pt0 (i)qt (i)
´
³X
i=1
L
Qt0 ,t := P
p
q
>
0
t0 t0
n
pt0 (i)qt0 (i)
i=1
als Quantitätsindex nach Laspeyres,
QPt0 ,t
:=
n
P
pt (i)qt (i)
i=1
n
P
pt (i)qt0 (i)
i=1
als Quantitätsindex nach Paasche,
QFt0 ,t := +
³X
p t qt 0 > 0
´
q
QLt0 ,t · QPt0 ,t
als Quantitätsindex nach Fisher und
QtM0 ,t−E
:=
n
P
(pt0 (i) + pt (i))qt (i)
i=1
n
P
(pt0 (i) + pt (i))qt0 (i)
i=1
³X
(pt0 (i) + pt (i))qt0 > 0
´
als Quantitätsindex nach Marshall und Edgeworth.
(Man bezeichnet die Quantitätsindizes auch als Volumen- oder Mengenindizes).
5.6.5 Definition:
Gegeben seien die Voraussetzungen wie in Definition (5.6.4). Man bezeichnet
n
P
pt (i)qt (i)
´
³X
i=1
Wt0 ,t := P
p
q
>
0
t
t
0
0
n
pt0 (i)qt0 (i)
i=1
als Wertindex.
5.6.6 Folgerung:
Es seien die Bezeichnungen aus Definition (5.6.1), Definition (5.6.2) und Definition (5.6.5) gegeben.
Dann gilt
Wt0 ,t = PtL0 ,t QPt0 ,t = PtP0 ,t QLt0 ,t .
c
°V.
Steinmetz: Grundzüge der Statistik
–131–
5.6.7 Bemerkung:
Um Güteraggregate in jeweiligen Preisen
n
X
pt (i)qt (i)
t = t0 , ..., T
i=1
- man spricht von nominalen Größen - besser miteinander vergleichen zu können,
nimmt man eine sog. Deflationierung oder Preisbereinigung vor, indem man
die Preise oder das Güteraggregat durch den Paasche-Index mit dem jeweiligen
Berichtszeitpunkt t und einem festgewählten Basiszeitpunkt, z.B. t0 , dividiert:
n p (i)
n
P
1 P
t
pt (i) · qt (i)
·
q
(i)
=
t
P
PtP0 ,t i=1
i=1 Pt0 ,t
=
n
P
pt0 (i)qt (i)
i=1
n
P
pt (i)qt (i)
i=1
=
n
P
pt0 (i)qt (i)
·
n
P
i=1
pt (i) · qt (i)
t = t0 , ..., T.
i=1
Man spricht dann von dem Güteraggregat in Preisen von t0 oder in konstanten
Preisen. Da der Paasche-Index relativ selten berechnet wird, nimmt man die
Deflationierung näherungsweise mit dem Laspeyres-Index vor.
c
°V.
Steinmetz: Grundzüge der Statistik
–132–
6 Grundlagen der schließenden Statistik
WICHTIGER HINWEIS:
Vernachlässigung der schließenden Statistik erhöht die Gefahr, der
Faszination einprägsamer Einzelfälle zu erliegen!
6.1 Drei Grundannahmen
6.1.1 Erste Grundannahme der Statistik:
Der interessierende Umweltausschnitt kann durch eine (ein- oder mehrdimensionale) Zufallsvariable Y beschrieben werden.
6.1.2 Zweite Grundannahme der Statistik (”Verteilungsannahme”):
Es sei Y die Zufallsvariable, durch welche der interessierende Umweltausschnitt
gemäß (6.1.1) beschrieben wird. Man kann eine Menge W von Wahrscheinlichkeitsverteilungen angeben, zu der die unbekannte wahre Verteilung von Y gehört.
6.1.3 Bemerkung:
Es ist üblich, zur Vereinfachung auch die in der zweiten Grundannahme eingeführte Menge W selbst als Verteilungsannahme zu bezeichnen.
6.1.4 Vereinbarung:
Es sei W eine Verteilungsannahme. Sind die Verteilungen durch endlich-dimensionale reelle Parameter ϑ ∈ Θ ⊆ Rr charakterisiert, so soll W als parametrische
Verteilungsannahme
mit dem Parameterraum Θ bezeichnet werden. Man schreibt
W = {QY,ϑ | ϑ ∈ Θ}.
Treffen die obigen Annahmen nicht zu, heiße W nichtparametrisch (oder verteilungsfrei). (I.a. werden in einer parametrischen Verteilungsannahme nur Verteilungen eines Typs - also z.B. nur Normalverteilungen, nur Dreipunktverteilungen
mit festen Trägerpunkten etc. - enthalten sein).
In dieser Vorlesung wird vorausgesetzt, daß gilt
(∀ϑ1 , ϑ2 ∈ Θ)(ϑ1 6= ϑ2 ⇒ QY,ϑ1 6= QY,ϑ2 ),
man sagt, die Parameter ϑ ∈ Θ sollen identifizierbar sein.
6.1.5 Dritte Grundannahme der Statistik:
W sei die Verteilungsannahme zu einer ZV Y . Es wird angenommen, daß Realisationen x1 , ..., xn von Zufallsvariablen X1 , ..., Xn beobachtet werden können,
deren gemeinsames Verteilungsgesetz von der Verteilung QY ∈ W in vollständig
c
°V.
Steinmetz: Grundzüge der Statistik
–133–
bekannter Weise abhängt. Man bezeichnet den Vektor (X1 , ..., Xn ) als (Zufalls)stichprobe vom Umfang n zu Y und (x1 , ..., xn ) als eine Stichprobenrealisation.
Die Menge aller Stichprobenrealisationen heißt Stichprobenraum und wird mit
X bezeichnet.
c
°V.
Steinmetz: Grundzüge der Statistik
–134–
6.2 Stichproben
6.2.1 Satz:
e 6= ∅ eine endliche Menge mit ]Ω
e = N. Weiterhin seien n ∈ N eine
Es sei Ω
natürliche Zahl und (Ω, F, P ) ein WR mit
e n = {(ω1 , ..., ωn ) | ωi ∈ Ω
e für i = 1, ..., n}, F = PΩ .
Ω=Ω
e fest gewählt, es bezeichne
Es seien ω̂1 , ..., ω̂n ∈ Ω
B̂i := {(ω1 , ..., ωi−1 , ω̂i , ωi+1 , ..., ωn ) ∈ Ω | ω̂i fest}
Âi := {(ω̂1 , ..., ω̂i−1 , ωi , ..., ωn ) ∈ Ω | ω̂1 , ..., ω̂i−1 fest}
für i = 1, ..., n
für i = 2, ..., n
und die Wahrscheinlichkeit P erfülle die Bedingungen
1
N
(∗)
P B̂1 =
(∗∗)
P (B̂i | Âi ) =
1
N
für i = 2, ..., n.
Dann gilt
(.1)
PA =
]A
Nn
(.2)
P B̂i =
1
,
N
(.3)
e ist
für i ≤ i1 < i2 < ... < im ≤ n, ω̂i1 , ..., ω̂im ∈ Ω
für alle A ∈ F,
P {(ω1 , ..., ωn ) ∈ Ω | ωik = ω̂ik
für k = 1, ..., m}
= P (B̂i1 ∩ ... ∩ B̂im )
= P (B̂i1 ) · ... · (B̂im ) .
Beweis:
Man sieht sofort, daß die relative Häufigkeit auf (Ω, F) (∗) und (∗∗) erfüllt, eine
Wahrscheinlichkeit mit diesen Eigenschaften also existiert.
zu (.1)
Nach dem Multiplikationssatz (2.3.4) und den Bedingungen (∗) sowie (∗∗) folgt
P {(ω̂1 , ..., ω̂n )} = P (B̂1 ∩ ... ∩ B̂n )
= P B̂1 · P (B̂2 | B̂1 ) · P (B̂3 | B̂1 ∩ B̂2 ) · ... · P (B̂n | B̂1 ∩ ... ∩ B̂n−1 )
1
= P B̂1 · P (B̂2 | Â2 ) · P (B̂3 | Â3 ) · ... · P (B̂n | Ân ) = n .
N
c
°V.
Steinmetz: Grundzüge der Statistik
–135–
Diese Gleichung gilt für jedes Element aus Ω; aus der Additivität von P folgt (.1).
zu (.2)
e = N ist ]B̂i = N n−1 und daher nach (.1)
Wegen ]Ω
P B̂i =
1
N n−1
=
.
n
N
N
zu (.3)
Nach (.1) ist
P (B̂i1 ∩ ... ∩ B̂im ) =
und nach (.2)
P B̂ik =
1
N
N n−m
1
= m
m
N
N
für k = 1, ..., m,
also gilt
P (B̂i1 ∩ ... ∩ B̂im ) = P B̂i1 · ... · B̂im
für alle
m = 1, 2, ..., n.
6.2.2 Bemerkung:
Verwendet man (Ω, F, P ) aus Satz (6.2.1) zur Beschreibung einer Stichprobene so kann man die Bedingunziehung vom Umfang n aus der Grundgesamtheit Ω,
gen und Aussagen des Satzes (6.2.1) folgendermaßen interpretieren:
e mit der gleichen WahrscheinlichBedingung (∗) fordert, daß jedes Element aus Ω
1
keit
bei der ersten Ziehung gezogen wird, Bedingung (∗∗), daß jedes Element
N
e mit gleicher Wahrscheinlichkeit 1 bei der i-ten Ziehung (i ≥ 2) gezogen
ω̂i ∈ Ω
N
e aufgetreten sind.
wird, falls bei den vorangehenden Ziehungen ω̂1 , ..., ω̂i−1 aus Ω
Die Aussage (.1) besagt, daß P die diskrete Gleichverteilung auf Ω ist, Aussage
(.2), daß bei allen Ziehungen jedes Element mit gleicher Wahrscheinlichkeit gezogen wird. Schließlich bedeutet Aussage (.3), daß je m Ziehungen (1 ≤ m ≤ n)
stochastisch unabhängig sind.
Man kann also insgesamt sagen, daß der in Satz (6.2.1) gegebene WR (Ω, F, P )
das zufällige Ziehen einer Stichprobe vom Umfang n mit Zurücklegen aus einer
e beschreibt.
endlichen Menge Ω
6.2.3 Satz:
e F,
e Pe) ein WR mit endlichem Ω,
e Fe = PΩ,
e PeM = ]M für alle M ∈ Fe
Es seien (Ω,
e
]Ω
e → R eine ZV über (Ω,
e F,
e Pe). Weiterhin sei (Ω, F, P ) der WR aus
und Y : Ω
Satz (6.2.1). Dann ist die Abbildung
X : Ω → Rn
c
°V.
Steinmetz: Grundzüge der Statistik
–136–
mit
X(ω1 , ..., ωn ) := (Y (ω1 ), ..., Y (ωn )) für (ω1 , ..., ωn ) ∈ Ω
eine n-dimensionale ZV über (Ω, F, P ). Es gilt für die Komponenten
Xi := pri ◦ X : Ω → R der ZV X = (X1 , ..., Xn ):
(.1) Für i = 1, ..., n ist Xi identisch verteilt wie Y ,
(.2) die X1 , ..., Xn sind stochastisch unabhängig.
Beweis:
Da F = PΩ gewählt wurde, ist X eine F − Bn − meßbare Abbildung und damit
eine ZV über (Ω, F, P ).
zu (.1)
Um die Darstellung zu vereinfachen, wird der Beweis nur für die Komponente
X1 von X geführt, für beliebiges Xi erfolgt er analog. Es gilt
X1 (ω1 , ..., ωn ) = (pr1 ◦ X)(ω1 , ..., ωn ) = pr1 (X(ω1 , ..., ωn ))
= pr1 (Y (ω1 ), ..., Y (ωn )) = Y (ω1 ) .
e mit Y (ω k ) = a, ω k 6= ω l für k 6= l.
Für a ∈ R seien ω 1 , ..., ω m alle Elemente aus Ω
Dann gilt
P {X1 = a} = P {(ω1 , ..., ωn ) | X1 (ω1 , ..., ωn ) = a}
= P {(ω1 , ..., ωn ) | Y1 (ω1 ) = a}
e + . . . + P {(ω m , ω2 , ..., ωn ) | ωi ∈ Ω}
e
= P {(ω 1 , ω2 , ..., ωn ) | ωi ∈ Ω}
=
Es gilt aber auch
1
1
m
e .
+ ... +
=
mit N = ]Ω
N
N
N
m
.
Pe{ω 1 , ..., ω m } = Pe{Y = a} =
N
e gilt
Besitzt a bezüglich Y keinen Urbildpunkt in Ω,
P {X1 = a} = 0 = Pe{Y = a} .
zu (.2)
Zur Vereinfachung werde nur die Unabhängigkeit von X1 und X2 gezeigt:
Zu a1 , a2 ∈ R bezeichne
e mit Y (ω1i ) = a1
ω11 , ..., ω1m1 alle Elemente aus Ω
e mit Y (ω2i ) = a2 .
ω21 , ..., ω2m2 alle Elemente aus Ω
c
°V.
Steinmetz: Grundzüge der Statistik
–137–
Dann gilt
P {X1 = a1 ∧ X2 = a2 } = P {(ω1 , ..., ωn ) | ω1 ∈ {ω11 , ..., ω1m1 } ∧ ω2 ∈ {ω21 , ..., ω2m2 }}
=
m1 · m2 · N · ... · N
m1 m2
=
·
.
n
N
N N
Andererseits gilt auch
P {X1 = a1 } · P {X2 = a2 }
= P {(ω1 , ..., ωn ) | ω1 ∈ {ω11 , ..., ω1m1 }} · P {(ω1 , ..., ωn ) | ω2 ∈ {ω21 , ..., ω2m2 }}
=
m1 m2
·
.
N N
Besitzt mindestens ein ai keinen Urbildpunkt bzgl. Y in Ω̃, so gilt
P {X1 = a1 ∧ X2 = a2 } = 0 = P {X1 = a1 } · P {X2 = a2 }.
6.2.4 Definition:
e F,
e Pe). Weiterhin seien
Es sei Y eine eindimensionale ZV über einem WR (Ω,
X1 , ..., Xn (n ∈ N) stochastisch unabhängige ZV über einem WR (Ω, F, P ), die
identisch wie Y verteilt sind. Dann heißt die ZV
X := (X1 , ..., Xn ) : Ω −→ Rn
eine einfache Stichprobe vom Umfang n zur ZV Y .
6.2.5 Bemerkung:
(.1) Gegeben seien die Voraussetzungen aus der vorigen Definition. Für ω ∈ Ω
erhält man die Realisationen
X(ω) = (X1 , ..., Xn )(ω) = (X1 (ω), ..., Xn (ω)) =: (x1 , ..., xn ) ,
und alle Realisationen bilden den Stichprobenraum
X = X(Ω) = {(x1 , ..., xn ) ∈ R | (∃ω ∈ Ω)(X(ω) = (x1 , ..., xn ))} .
(.2) Man kann ohne Schwierigkeiten Definition (6.2.4) auf m-dimensionale ZV Y
erweitern; dann sind entsprechend die Xi (i = 1, ..., n) auch m-dimensional
und X = (X1 , ..., Xn ) ist n · m-dimensional.
c
°V.
Steinmetz: Grundzüge der Statistik
–138–
6.2.6 Satz:
e 6= ∅ eine endliche Menge mit ]Ω
e = N . Weiterhin seien n ∈ N eine
Es sei Ω
natürliche Zahl mit n ≤ N und (Ω, F, P ) ein WR mit
e für i = 1, ..., n und ωi 6= ω1 für i 6= l}, F = PΩ .
Ω = {(ω1 , ..., ωn ) | ωi ∈ Ω
Es seien ω̂1 , ..., ω̂n ∈ Ω̃ mit ω̂k 6= ω̂l für k 6= l fest gewählt, es bezeichne
B̂i := {(ω1 , ..., ωi−1 , ω̂i , ωi+1 , ..., ωn ) ∈ Ω | ω̂i fest} für i = 1, ..., n
Âi := {(ω1 , ..., ωi−1 , ω̂i , ωn ) ∈ Ω | ω̂1 , ..., ω̂i−1 fest} für i = 2, ..., n
und die Wahrscheinlichkeit P erfülle die Bedingungen
(∗) P B̂1 =
1
N
(∗∗) P (B̂i | Âi ) =
Dann gilt
1
für i = 2, ..., n .
N −i+1
(.1) P A =
]A
für alle A ∈ F
N (n − 1) · ... · (N − n + 1)
(.2) P B̂i =
1
für i = 1, ..., n .
N
6.2.7 Bemerkung:
Die Erläuterungen zu (∗), (∗∗), (.1), (.2) entsprechen denen zu Satz (6.2.1), es
ist nur zu beachten, daß kein Element mehrmals gezogen werden kann (vgl.
Bemerkung (6.2.2)). Eine (6.2.1.3) entsprechende Aussage gilt jetzt nicht.
Man kann insgesamt sagen, daß der in Satz (6.2.6) gegebene WR (Ω, F, P ) das
zufällige Ziehen einer Stichprobe vom Umfang n ohne Zurücklegen aus einer
e beschreibt.
endlichen Menge Ω
6.2.8 Satz:
e F,
e Pe) ein WR mit endlichem Ω,
e Fe = PΩ,
e PeM = ]M für alle M ∈ Fe
Es seien (Ω,
e
]Ω
e
e
e
e
und Y : Ω → R eine ZV über (Ω, F, P ). Weiterhin sei (Ω, F, P ) der WR aus
Satz (6.2.6). Dann ist die Abbildung
X : Ω → Rn
mit
X(ω1 , ..., ωn ) := (Y (ω1 ), ..., Y (ωn )) für (ω1 , ..., ωn ) ∈ Ω
eine n-dimensionale ZV über (Ω, F, P ), die Komponenten Xi := pri ◦X : Ω → R
sind identisch wie Y verteilt.
c
°V.
Steinmetz: Grundzüge der Statistik
–139–
6.2.9 Bemerkung:
Das bisher erarbeitete Konzept läßt sich folgendermaßen veranschaulichen:
e F,
e P)
e
(Ω,
e
Ω


yY
R
(Ω, F, P)
Ω


yX
Rn
(R, B1 , QY )
(Rn , Bn , QX )
Beschreibung des
Beschreibung der
Umweltausschnitts
Stichprobenziehung
(Deskriptive Statistik Kap.5)
{z
}
|
der stochastische Zusammenhang
wird durch das Auswahlverfahren
festgelegt
c
°V.
Steinmetz: Grundzüge der Statistik
–140–
7 Parameterpunktschätzungen
7.1 Parameterpunktschätzfunktionen und Eigenschaften
7.1.1 Definition:
Es seien Y eine ZV mit der parametrischen Verteilungsannahme
W = {QY,ϑ | ϑ ∈ Θ}, weiterhin γ : Θ −→ Rm eine Abbildung und
X = (X1 , ..., Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X.
Eine Abbildung
δ : X → γ(Θ)
heißt eine (Parameterpunkt-)Schätzfunktion (parameter estimation function, estimator) für den Parameter γ(ϑ) für ϑ ∈ Θ (siehe dazu Bemerkung (7.1.3)).
7.1.2 Bemerkung:
Man bezeichnet i.a. auch die ZV δ(X) := δ◦X als Parameterpunktschätzfunktion
für γ(ϑ) mit ϑ ∈ Θ.
X
Ω
δ
-X
- γ(Θ)
:
δ(X) = δ ◦ X
7.1.3 Bemerkung:
Entsprechend der dritten Grundannahme wird die Auswahl einer Realisation
x = (x1 , ..., xn ) ∈ X von einer WV gesteuert, damit auch die Bestimmung eines
Näherungswertes δ(x1 , ..., xn ) ∈ γ(Θ). Um eine Schätzfunktion δ als ZV auffassen
und damit die Hilfsmittel der Wahrscheinlichkeitstheorie zur Beurteilung von δ
heranziehen zu können, muß auf γ(Θ) eine geeignete σ-Algebra festgelegt und
die Meßbarkeit von δ sichergestellt werden. Auf diese Problematik soll hier aber
nicht näher eingegangen werden.
7.1.4 Definition:
Es sei X = (X1 , ..., Xn ) eine Stichprobe mit dem Stichprobenraum X ⊆ Rn . Die
Abbildung
µ̂ : X → R
mit
n
und auch die Abbildung
1X
xi =: x̄
µ̂(x1 , ..., xn ) :=
n i=1
n
µ̂ ◦ X = µ̂(X) =
c
°V.
Steinmetz: Grundzüge der Statistik
1X
Xi =: X̄
n i=1
–141–
bezeichnet man als Stichprobenmittelwert (sample mean). Die Abbildung
σ̂ 2 : X → R
mit
n
1X
(xi − x̄)2
σ̂ (x1 , ..., xn ) :=
n i=1
2
und auch die Abbildung
n
σ̂ 2 ◦ X = σ̂ 2 (X) =
1X
(Xi − X̄)2
n i=1
bezeichnet man als Stichprobenstreuung (sample dispersion) oder Stichprobenvarianz, weiterhin
n
σ̂ 2
S 2 :=
n−1
und
n
n
1 X
2
2
S (X) :=
σ̂ (X) =
(Xi − X̄)2
n−1
n − 1 i=1
als korrigierte Stichprobenstreuung.
7.1.5 Definition:
Es sei (X, Y ) = ((X1 , Y1 ), ..., (Xn , Yn )) eine Stichprobe mit dem Stichprobenraum X ⊆ R2n . Die Abbildung
σ̂11 : X → R
mit
n
1X
(xi − x̄)(yi − ȳ)
σ̂11 ((x1 , y1 ), ..., (xn , yn )) :=
n i=1
und auch die Abbildung
n
1X
σ̂11 (X, Y ) =
(Xi − X̄)(Yi − Ȳ )
n i=1
bezeichnet man als Stichprobenkovarianz, gilt weiterhin
P {σ̂ 2 (X) = 0} = 0 = P {σ̂ 2 (Y ) = 0},
so bezeichnet man die Abbildung
n
P
(Xi − X̄)(Yi − Ȳ )
rn
r(X, Y ) := r n
P
P
2
(Xi − X̄)
(Yi − X̄)2
i=1
i=1
als Stichprobenkorrelationskoeffizienten.
c
°V.
Steinmetz: Grundzüge der Statistik
i=1
–142–
7.1.6 Folgerung:
Es sei X = (X1 , ..., Xn ) eine Stichprobe. Dann gilt
µ n
¶2
n
1P
1P
2
2
(.1) σ̂ (X) =
,
X −
Xi
n i=1 i
n i=1
(.2) Für eine Stichprobe (X, Y ) = ((X1 , Y1 ), ..., (Xn , Yn )) gilt
¶µ n ¶
µ n
n
1P
1P
1P
(Xi Yi ) −
Xi
Yi .
σ̂11 (X, Y ) =
n i=1
n i=1
n i=1
Beweis:
zu (.1)
σ̂ 2 (X)
= n1
= n1
= n1
= n1
n
P
i=1
1
n
(Xi − X̄)2 =
n
P
i=1
n
P
i=1
n
P
i=1
Xi2
− 2X̄
µ
n
P
i=1
n
P
1
n
(Xi2 − 2Xi X̄ + (X̄)2 )
Xi
i=1
¶
+
1
n
n
P
(X̄)2
i=1
Xi2 − 2(X̄)2 + (X̄)2
Xi2
−
µ
1
n
n
P
Xi
i=1
¶2
zu (.2)
σ̂11 (X, Y ) = n1
= n1
= n1
= n1
7.1.7 Definition:
n
P
i=1
n
P
i=1
n
P
i=1
n
P
i=1
(Xi − X̄)(Yi − Ȳ )
Xi Yi − Ȳ
1
n
n
P
i=1
Xi − X̄ n1
n
P
Yi +
i=1
1
n
n
P
X̄ Ȳ
i=1
Xi Yi − X̄ Ȳ
Xi Yi −
µ
1
n
n
P
i=1
Xi
¶µ
1
n
n
P
i=1
Yi
¶
Eine Schätzfunktion δ für den Parameter γ(ϑ) mit ϑ ∈ Θ heißt erwartungstreu
oder unverzerrt (unbiased), wenn gilt
Eϑ δ = γ(ϑ) für alle ϑ ∈ Θ
c
°V.
Steinmetz: Grundzüge der Statistik
–143–
(allgemein bezeichnet man Eϑ δ−γ(ϑ) (bisweilen auch γ(ϑ)−Eϑ δ) als Verzerrung
oder Bias von δ).
7.1.8 Satz:
Es sei X = (X1 , ..., Xn ) eine einfache Stichprobe zu einer ZV Y mit dem Erwartungswert µ = EY und der Varianz σ 2 = Var Y . Dann ist der Stichprobenmittelwert
n
1X
X̄ =
Xi
n i=1
eine erwartungstreue Schätzfunktion für µ; für die Varianz des Stichprobenmittelwertes gilt
σ2
.
Var X̄ =
n
Die korrigierte Stichprobenvarianz
n
1 X
(Xi − X̄)2
S (X) =
n − 1 i=1
2
ist eine erwartungstreue Schätzfunktion für σ 2 .
Beweis:
Da die Xi identisch wie Y verteilt sind für i = 1, ..., n, gilt
EXi = µ und Var Xi = σ 2 .
Man erhält
E X̄ = E
Ã
n
1X
Xi
n i=1
!
n
1X
n·µ
=µ.
=
EXi =
n i=1
n
Weiterhin folgt
Var X̄ = Var
µ
n
1P
Xi
n i=1
¶
¶
µn
P
1
= 2 Var
(nach (4.1.13.1))
Xi
n
i=1
=
=
n
1 P
Var Xi (wegen der Unabhängigkeit der Xi )
n2 i=1
n
σ2
n · σ2
1 P
2
=
.
σ
=
n2 i=1
n2
n
c
°V.
Steinmetz: Grundzüge der Statistik
–144–
Für die korrigierte Stichprobenvarianz erhält man
·
¸
n
1 P
2
2
ES = E
(Xi − X̄)
n − 1 i=1
¸
·n
P 2
1
2
(Xi − 2Xi X̄ + (X̄) )
E
=
n−1
i=1
¸
·n
n
n
P
P 2
1
nP
2
Xi + (X̄) )
=
(Xi − 2X̄
E
n−1
n i=1
i=1
i=1
¸
·n
P 2
1
2
2
=
Xi − 2n(X̄) + n(X̄)
E
n−1
i=1
·n
¸
P
1
2
2
=
EXi − nE(X̄) .
n − 1 i=1
Nach dem Varianzzerlegungssatz (4.1.13.3) gilt
EXi2 = Var Xi + (EXi )2 , E(X̄)2 = Var X̄ + (E X̄)2 ,
wegen
EXi = EY = µ, Var Xi = Var Y = σ 2 , E X̄ = µ, Var X̄ =
EXi2 = σ 2 + µ2 , E(X̄)2 =
σ2
folgt
n
σ2
+ µ2
n
und man erhält
" n
#
2
X
¤
1
σ
1 £ 2
ES 2 =
nσ + nµ2 − σ 2 − nµ2 = σ 2 .
(σ 2 + µ2 ) − n( + µ2 ) =
n − 1 i=1
n
n−1
7.1.9 Definition:
Es seien ∆E eine Menge von erwartungstreuen Schätzfunktionen für γ(ϑ) mit
ϑ ∈ Θ und δ ∗ , δ ∈ ∆E . Dann heißt δ ∗ mindestens so wirksam wie δ, wenn gilt
(∗) Var δ ∗ ≤ Var δ für alle ϑ ∈ Θ .
δ ∗ heißt wirksamer als δ, wenn in (∗) das echte Kleiner-Zeichen für mindestens
ein ϑ ∈ Θ gilt. Schließlich bezeichnet man δ ∗ als wirksamste Schätzfunktion in
∆E oder als effizient (efficient), wenn (∗) für alle δ ∈ ∆E erfüllt ist.
7.1.10 Definition:
Es sei W = {Qϑ | ϑ ∈ Θ} eine parametrische Verteilungsannahme. Eine Folge
(δn (X1 , ..., Xn ))n∈N von Parameterpunktschätzfunktionen für γ(ϑ) mit ϑ ∈ Θ
heißt konsistent (consistent), wenn für jedes ε > 0 gilt
lim P {|δn − γ(ϑ)| ≥ ε} = 0 für alle ϑ ∈ Θ.
n→∞
c
°V.
Steinmetz: Grundzüge der Statistik
–145–
7.1.11 Definition:
Sind die Schätzfunktionen δn für alle n ∈ N von gleichem Aufbau, wie z.B. der
Stichprobenmittelwert, die Stichprobenvarianz usw., so bezeichnet man nicht nur
die Folge der Schätzer als konsistent, sondern vereinfachend auch den einzelnen
Schätzer selbst.
7.1.12 Folgerung:
Es sei X = (X1 , ..., Xn ) eine einfache Stichprobe zu einer ZV Y mit EY = µ
und Var Y = σ 2 . Dann ist der Stichprobenmittelwert
n
1X
Xi
X̄ =
n i=1
eine konsistente Schätzfunktion für µ.
Beweis:
Nach der Ungleichung von Tschebyschev gilt wegen E X̄ = µ und Var X̄ =
σ2
= 0.
n→∞ nε2
0 ≤ lim P {|X̄ − µ| ≥ ε} ≤ lim
n→∞
c
°V.
Steinmetz: Grundzüge der Statistik
σ2
n
–146–
7.2 Maximum-Likelihood-Methode
7.2.1 Definition:
Es sei Y eine diskrete ZV mit den Trägerpunkten y und den zugehörigen Punktwahrscheinlichkeiten QY,ϑ {y} =: p(y|ϑ) für ϑ ∈ Θ ⊆ Rr . Weiter seien
X = (X1 , ..., Xn ) eine einfache Stichprobe zu Y mit dem Stichprobenraum X
und x = (x1 , ..., xn ) eine Realisation von X.
(.1) Die Abbildung L(. | x1 , ..., xn ) : Θ → [0, 1]
mit
L(ϑ | x1 , ..., xn ) = p(x1 |ϑ) · ... · p(xn |ϑ) =
heißt die Likelihood-Funktion (LF) von X.
n
Y
i=1
p(xi |ϑ)
(.2) ϑ̂ ∈ Θ heißt Maximum-Likelihood-Schätzwert (ML-Schätzwert) für den Parameter ϑ, falls gilt
L(ϑ̂ | x1 , ..., xn ) = max L(ϑ | x1 , ..., xn ) .
ϑ∈Θ
(.3) Eine Punktschätzfunktion
δ:X→Θ
heißt Maximum-Likelihood-Schätzfunktion für den Parameter ϑ, falls
δ(x1 , ..., xn ) für jedes (x1 , ..., xn ) ∈ X ein ML-Schätzwert ist.
7.2.2 Hilfssatz:
Es sei L(. | x1 , ..., xn ) die Likelihood-Funktion zu einer Stichprobe X. Für ein
ϑ̂ ∈ Θ gilt
L(ϑ̂ | x1 , ..., xn ) = max L(ϑ | x1 , ..., xn )
ϑ∈Θ
genau dann, wenn für die logarithmierte Likelihood-Funktion (LLF) gilt
ln L(ϑ̂ | x1 , ..., xn ) = max ln L(ϑ | x1 , ..., xn ).
ϑ∈Θ
Beweis:
Man nutzt aus, daß der Logarithmus eine strikt monoton wachsende Funktion
ist und daher für L(ϑ | x1 , ..., xn ) > 0
L(ϑ̂ | x1 , ..., xn ) ≥ L(ϑ | x1 , ..., xn )
gleichbedeutend ist mit
ln L(ϑ̂ | x1 , ..., xn ) ≥ ln L(ϑ | x1 , ..., xn ).
c
°V.
Steinmetz: Grundzüge der Statistik
–147–
7.2.3 Definition:
Es sei ϑ = (ϑ1 , ..., ϑr ) ∈ Θ ⊆ Rr ein r-dimensionaler reeller Parameter und die
Likelihood-Funktion L(. | x1 , ..., xn ) : Θ → [0, 1] sei partiell differenzierbar nach
ϑj für j = 1, ..., r. Die Gleichungen
∂ ln L(ϑ1 , ..., ϑr | x1 , ..., xn )
= 0 für j = 1, ..., r
∂ϑj
bezeichnet man als Maximum-Likelihood-Gleichungen.
7.2.4 Bemerkung:
Häufig werden alle Lösungen aus Definition (7.2.3) als ML-Schätzwerte bezeichnet; dies entspricht dem ursprünglichen Vorgehen von R.A. Fisher, während der
Ansatz der Definition (7.2.1) auf A. Wald zurückgeht.
7.2.5 Definition:
Es sei Y eine stetige ZV mit einer Dichte fY (. | ϑ) für ϑ ∈ Θ ⊆ Rr . Weiter
seien X = (X1 , ..., Xn ) eine einfache Stichprobe zu Y mit dem Stichprobenraum
X und x = (x1 , ..., xn ) eine Realisation von X.
Die Abbildung
L(. | x1 , ..., xn ) : Θ → R
mit
L(ϑ | x1 , ..., xn ) = fY (x1 |ϑ) · ... · fY (xn |ϑ) =
heißt eine Likelihood-Funktion (LF) von X.
n
Y
i=1
fY (xi |ϑ)
7.2.6 Bemerkung:
Die Begriffe aus (7.2.1.2), (7.2.1.3) und (7.2.3) können direkt auf den Fall einer
stetigen ZV Y übertragen werden. Um pathologische Lösungen von (7.2.1.2)
auszuschließen, muß man solche Dichten wählen, die an den Sprungstellen das
Maximum des rechtsseitigen oder linksseitigen Grenzwertes annehmen.
c
°V.
Steinmetz: Grundzüge der Statistik
–148–
8 Tests und Parameterbereichsschätzungen
8.1 Grundbegriffe der Testtheorie
8.1.1 Definition:
Es seien Y eine ZV mit der Verteilungsannahme W und W0 ⊆ W mit
∅ 6= W0 6= W sowie W1 := W \ W0 .
Man bezeichnet die Aussage
H0 : Q Y ∈ W 0
als Nullhypothese (null hypothesis)(oft der Einfachheit halber auch W0 selbst)
und die Aussage
H1 : Q Y ∈ W 1
als Gegenhypothese oder Alternative (oft auch W1 selbst).
Es bezeichne
”d0 ” die Entscheidung ”Annahme von H0 ” (”Ablehnung von H1 ”),
”d1 ” die Entscheidung ”Annahme von H1 ” (”Ablehnung von H0 ”).
Ist X = (X1 , ..., Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X, so
heißt eine Abbildung
δ : X → {d0 , d1 }
ein (Alternativ)Test für H0 gegen H1 . Ist W eine parametrische Verteilungsannahme, so spricht man auch von einem Parametertest. Eine Hypothese heißt
einfach, wenn die zugeordnete Teilmenge von W einelementig ist, andernfalls
zusammengesetzt.
(Entsprechend der Bemerkung (7.1.3) sollen auch hier Meßbarkeitsfragen für δ
ausgeklammert werden).
8.1.2 Definition:
Es sei δ : X → {d0 , d1 } ein Alternativtest. Die Menge
Kδ := {x | x ∈ X ∧ δ(x) = d1 }
heißt der kritische Bereich (Verwerfungsbereich) (critical region) des Tests, die
Menge
Aδ := {x | x ∈ X ∧ δ(x) = d0 }
sein Annahmebereich.
c
°V.
Steinmetz: Grundzüge der Statistik
–149–
8.1.3 Definition:
Es sei δ : X → {d0 , d1 } ein Alternativtest für die Hypothesen H0 : QY ∈ W0 und
H1 : QY ∈ W1 , und es sei die Beobachtung x ∈ X gegeben. Man sagt,
es liege ein Fehler 1. Art vor, wenn H0 richtig ist, aber δ(x) = d1 gilt;
es liege ein Fehler 2. Art vor, wenn H0 falsch ist, aber δ(x) = d0 gilt.
8.1.4 Folgerung:
Gegeben seien die Voraussetzungen aus Definition (8.1.3). Die Wahrscheinlichkeit, einen Fehler 1. Art zu begehen (Fehlerwahrscheinlichkeit 1. Art) ist
QX {x ∈ X | δ(x) = d1 } = QX Kδ für alle QY ∈ W0 .
Die Wahrscheinlichkeit, einen Fehler 2. Art zu begehen (Fehlerwahrscheinlichkeit
2. Art) ist
QX {x ∈ X | δ(x) = d0 } = QX Aδ für alle QY ∈ W1 .
8.1.5 Definition:
Es sei δ : X → {d0 , d1 } ein Alternativtest für die Hypothesen H0 : QY ∈ W0
und H1 : QY ∈ W1 , K bezeichne den kritischen Bereich. δ heißt ein Test zum
(Signifikanz)Niveau α ∈]0, 1[, wenn gilt
QX K ≤ α für alle QY ∈ W0 .
(Vielfach wählt man α = 0, 01 oder α = 0, 05.)
8.1.6 Faustregel:
Als Nullhypothese wählt man - wenn möglich - die Aussage, für die man die
Wahrscheinlichkeit, sie fälschlicherweise abzulehnen, kontrollieren möchte. Anders gesagt, als Gegenhypothese wählt man - wenn möglich - die Aussage, für
die man die Wahrscheinlichkeit, sie fälschlicherweise zu akzeptieren, kontrollieren möchte.
c
°V.
Steinmetz: Grundzüge der Statistik
–150–
8.1.7 Nagelbeispiel:
Ein Haushaltswarengeschäft bietet zwei Sortimentspackungen Nägel an, Typ I
enthält drei Sorten Nägel - bezeichnet mit 1, 2 und 3 - im Verhältnis 1:1:8,
Typ II enthält dieselben Nagelsorten im Verhältnis 6:3:1. Die Beschriftung einer
Packung ist unleserlich geworden. Auf der Basis einer zufälligen Stichprobe
vom Umfang n = 1 soll die Nullhypothese, es handle sich um Typ I, gegen
die Alternative, es liege Typ II, vor getestet werden. Die Nagelsorte werde als
Zufallsvariable Y mit den Trägerpunkten 1, 2 und 3 aufgefaßt. Es kommen zwei
Wahrscheinlichkeitsverteilungen (Häufigkeitsverteilungen) in Betracht:
QI :
y
QI {y}
QII :
y
QII {y}
1
0,1
2
0,1
1
0,6
2
0,3
3
0,8
3
0,1
Man hat also die Verteilungsannahme
W = {QI , QII }.
Mit W0 = {QI } und W1 = {QII } folgen die Hypothesen
H0 : Q Y ∈ W 0
H1 : Q Y ∈ W 1
gleichbedeutend mit H0 : QY = QI
gleichbedeutend mit H1 : QY = QII .
Es liegen damit zwei einfache Hypothesen vor.
Da nur eine Stichprobe vom Umfang n = 1 gezogen werden soll, erhält man für
die Stichprobe X = X1 den Stichprobenraum X = {1, 2, 3}.
(Für n = 2 hätte man X = (X1 , X2 ) mit X = {(1, 1), (1, 2), . . . , (3, 3)}).
Um alle Tests δ : X → {d0 , d1 } anzugeben, bestimmt man alle möglichen Zerlegungen von X in den kritischen Bereich Ki und den zugehörigen Annahmebereich
Ai (i = a, b, . . . , h):
Nr. i
Ki
a
{1}
b
{2}
c
{3}
d
{1,2}
e
{1,3}
f
{2,3}
Ai
{2,3}
{1,3}
{1,2}
{3}
{2}
{1}
g
{1,2,3}
∅
h
∅
{1,2,3 }
Z.B. besagt die erste Spalte, daß man H0 annimmt, falls als Stichprobenrealisation eine 2 oder 3 auftritt, daß man H0 ablehnt, falls 1 auftritt. Man erhält also
den Test δa : X → {d0 , d1 } mit
½
d0 : x ∈ {2, 3}
δa (x) =
d1 : x ∈ {1}
Entsprechend ist δg der Test, der H0 unabhängig vom Stichprobenbefund stets
ablehnt und δh der Test, der H0 stets annimmt.
In der folgenden Tabelle ist für jeden Test δi die Wahrscheinlichkeit des Fehlers
1. Art QX Ki (dabei QY ∈ W0 ) und des Fehlers 2. Art QX Ai (dabei QY ∈ W1 )
angegeben:
c
°V.
Steinmetz: Grundzüge der Statistik
–151–
Nr. i
QX Ki
QX A i
a
0,1
0,4
b
0,1
0,7
c
0,8
0,9
d
0,2
0,1
e
0,9
0,3
f
0,9
0,6
g
1
0
h
0
1
W’keit des Fehlers 1. Art (QY = QI )
W’keit des Fehlers 2. Art (QY = QII )
Zur Beachtung:
I.a. ist die Summe von 1. und 2. Fehlerwahrscheinlichkeit nicht Eins. Man berechnet zwar die Wahrscheinlichkeiten komplementärer Ereignisse Ki und
Ai = CX Ki , aber mit verschiedenen Wahrscheinlichkeitsverteilungen. Allerdings
zeigen die beiden Fehlerwahrscheinlichkeiten ein gewisses gegenläufiges Verhalten.
Es sei das Signifikanzniveau α = 0, 15 gewählt.
Die Tests zu diesem Niveau sind:

δa mit QX Ka = 0, 1 
δb mit QX Kb = 0, 1
dabei QY = QI

δh mit QX Kh = 0
Die Fehlerwahrscheinlichkeiten 2. Art sind

δa mit QX Aa = 0, 4 
δb mit QX Ab = 0, 7

δh mit QX Ah = 1
dabei QY = QII
Der beste Test zum Niveau α = 0, 15 ist also δa , da er die minimale Fehlerwahrscheinlichkeit 2. Art aufweist.
c
°V.
Steinmetz: Grundzüge der Statistik
–152–
8.2 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei bekannter Varianz (Gauß-Tests)
8.2.1 Tests über µ bei bekanntem σ02 einer N (µ, σ02 )-verteilten Zufallsvariablen:
Gegeben: ZV Y, N (µ, σ02 )-verteilt mit unbekanntem µ ∈ R und bekanntem
σ02 ∈ R++ , einfache Stichprobe X = (X1 , ..., Xn ) zu Y mit der Realisation
x = (x1 , ..., xn ), Signifikanzniveau α ∈]0, 1[, µ0 ∈ R.
Fall 0
Fall I
Fall II
(<)
(>)
µ > µ0
µ < µ0
H0 : µ = µ 0 µ = µ 0 µ = µ 0
H1 : µ 6= µ0
Berechne: Aus der N (0, 1)-Tabelle Schwellenwerte26 λ1− α2 , λ1−α mit
P {−λ1− α2 ≤ N (0, 1) ≤ λ1− α2 } = 1 − α
P {N (0, 1) ≤ λ1−α } = 1 − α
Testgröße:
Entscheide:
n
x̄ − µ0 √
1X
N0 :=
n mit x̄ =
xi
σ0
n i=1
Fall 0
Fall I
Fall II
H0 annehmen: −λ1− α2 ≤ N0 ≤ λ1− α2
N0 ≤ λ1−α
N0 ≥ −λ1−α
H1 annehmen:
N0 > λ1−α
N0 < −λ1−α
|N0 | > λ1− α2
8.2.2 Bemerkung:
Bei den obigen Tests spricht man bei der Hypothesenfestlegung im Fall 0 von
einer zweiseitigen Fragestellung, in den Fällen I und II von einseitigen Fragestellungen.
Entsprechend dem Aussehen der Punktmengen, welche jeweils zur Ablehnung
der Nullhypothese führen, spricht man im Fall 0 von einem zweiseitigen Test, in
den Fällen I und II von einseitigen Tests.
8.2.3 Bemerkung:
Gegeben seien die Voraussetzungen des Tests (8.2.1). Ist die Nullhypothese richtig, so verwirft der Test sie fälschlicherweise (Fehler 1. Art) mit höchstens der
26
auch als kritische Werte bezeichnet
c
°V.
Steinmetz: Grundzüge der Statistik
–153–
vorher festgelegten Wahrscheinlichkeit α. Ist die Nullhypothese nicht richtig, so
besteht die Möglichkeit, sie fälschlicherweise zu akzeptieren. Die Wahrscheinlichkeit dieses Fehlers 2. Art kann sehr groß, sogar nahe eins sein. Um diese
Unsicherheit sprachlich anzudeuten, sagt man deshalb in diesem Fall oft nicht,
man habe H0 angenommen, sondern nur, daß aufgrund des Stichprobenbefundes
H0 nicht verworfen werden könne.
8.2.4 Bemerkung:
Betrachtet werde der Einfachheit halber der Fall 0 aus Test (8.2.1): Der Test
wird als Abbildung
δ : X → {d0 , d1 }
definiert durch die Festsetzung:


d0 für



δ(x) =



 d für
x̄ − µ0 √
n ≤ λ1− α2
σ0
¯
¯
¯ x̄ − µ0 √ ¯
¯
n¯¯ > λ1− α2
¯ σ0
− λ1− α2 ≤
1
Man hat also den kritischen Bereich
¯
½
¯
n¯
K := x ∈ X = R ¯
.
¯
¯
¾
¯ x̄ − µ0 √ ¯
¯
¯
n¯ > λ1− α2
¯ σ0
und den Annahmebereich
¯
½
¾
¯
x̄ − µ0 √
n¯
A := x ∈ X = R ¯−λ1− α2 ≤
n ≤ λ1− α2 .
σ0
Man kann δ als Zusammensetzung aus zwei Abbildungen T und δ ∗ auffassen
entsprechend dem folgenden Schema,
X
δ = δ∗ ◦ T {d0 , d1 }
Á
δ∗
T
^
R
c
°V.
Steinmetz: Grundzüge der Statistik
–154–
wobei R in zwei Teilmengen K ∗ und A∗ zerlegt wird mit
K ∗ :=] − ∞, −λ1− α2 [ ∪ ] λ1− α2 , ∞[
A∗ := [−λ1− α2 , λ1− α2 ]
x̄ − µ0 √
n für alle x ∈ X
σ0

 d0 für T (x) ∈ A∗
δ(x) = δ ∗ (T (x)) =

d1 für T (x) ∈ K ∗
und T (x) =
.
8.2.5 Bemerkung:
Bei der Formulierung des Testrezeptes (8.2.1) wurde die Verteilungsannahme
nur implizit angegeben, man erkennt aber z.B. sofort aus den gemachten Voraussetzungen:
im Fall H0 : µ = µ0
H1 : µ 6= µ0
ist
W = {N (µ, σ02 ) | µ ∈ R = Θ}
W0 = {N (µ0 , σ02 )}
W1 = {N (µ, σ02 ) | µ ∈ R ∧ µ 6= µ0 }
im Fall H0 : µ = µ0
H1 : µ > µ 0
(einfache Nullhypothese)
(zusammengesetzte Gegenhypothese)
ist
W = {N (µ, σ02 ) | µ ∈ [µ0 , ∞[= Θ}
W0 = {N (µ0 , σ02 )}
W1 = {N (µ, σ02 ) | µ ∈ ]µ0 , ∞[}
im Fall H0 : µ ≤ µ0
H1 : µ > µ 0
(einfache Nullhypothese)
(zusammengesetzte Gegenhypothese)
ist
W = {N (µ, σ02 ) | µ ∈ R = Θ}
W0 = {N (µ, σ02 )} | µ ∈ ] − ∞, µ0 ]}
W1 = {N (µ, σ02 ) | µ ∈ ]µ0 , ∞[}
(zusammengesetzte Nullhypothese)
(zusammengesetzte Gegenhypothese).
8.2.6 Bemerkung:
In der Praxis gibt man bei vorliegendem Stichprobenbefund x = (x1 , . . . , xn )
c
°V.
Steinmetz: Grundzüge der Statistik
–155–
bisweilen das Infimum der Signifikanzniveaus an, bei denen H0 abgelehnt würde.
Man bezeichnet diesen Wert oft mit p, nennt ihn p-Wert (p-value, level attained)
und lehnt H0 ab, wenn für das vorher gewählte Signifikanzniveau α gilt: α ≥ p.
VORSICHT:
Man muß das Signifikanzniveau vor der Auswertung des Stichprobenbefundes
und vor der Kenntnis des p-Wertes festlegen, da sonst die Gefahr besteht, das
Signifikanzniveau α so zu wählen, daß der Test die vom Anwender gewünschte
Entscheidung liefert und die von der Testtheorie gelieferten Aussagen über die
Fehlerwahrscheinlichkeiten unsinnig sind.
c
°V.
Steinmetz: Grundzüge der Statistik
–156–
8.3 Gütefunktion eines Tests
8.3.1 Definition:
Es seien Y eine Zufallsvariable mit der Verteilungsannahme W, X = (X1 , ..., Xn )
eine Stichprobe zu Y mit dem Stichprobenraum X und
δ : X → {d0 , d1 }
ein Test für die Hypothesen
H0 : Q Y ∈ W 0
H1 : Q Y ∈ W 1 = W \ W 0
mit dem kritischen Bereich K.
Die Abbildung
G(. | δ) : W → [0, 1]
mit
G(QY | δ) := QX K für alle QY ∈ W
heißt Gütefunktion (power function) des Tests.
Ist W eine parametrische Verteilungsannahme mit
W = {QY,ϑ | ϑ ∈ Θ},
so definiert man die Gütefunktion oft auch als
G(. | δ) : Θ → [0, 1]
mit
G(ϑ | δ) := G(QY,ϑ | δ) für alle ϑ ∈ Θ.
8.3.2 Satz:
Es seien Y eine N (µ, σ02 )-verteilte Zufallsvariable mit unbekanntem µ ∈ R und
bekanntem σ02 ∈ R++ , X = (X1 , ..., Xn ) eine einfache Stichprobe zu Y mit dem
Stichprobenraum X = Rn und der Realisation x = (x1 , ..., xn ), α ∈]0, 1[ ein fest
gewähltes Signifikanzniveau und µ0 ∈ R eine vorgegebene Zahl. Weiterhin seien
λ1− α2 , λ1−α das (1 − α2 )-bzw. (1 − α)-Quantil der N (0, 1)-Verteilung und
N0 =
x̄ − µ0 √
n
σ0
die Teststatistik der Gauß-Tests aus Test (8.2.1).
c
°V.
Steinmetz: Grundzüge der Statistik
–157–
Dann hat der Test zum Niveau α
(.0)
δ0 : X → {d0 , d1 }
mit
δ0 (x) :=
für die Hypothesen

 d0 : −λ1− α2 ≤ N0 ≤ λ1− α2

d1 :
sonst
H0 : µ = µ 0
H1 : µ 6= µ0
die Gütefunktion
G(µ | δ0 ) = 1 − Φ
µ
µ0 − µ √
n + λ1− α2
σ0
¶
+Φ
µ
µ0 − µ √
n + λ1− α2
σ0
und der Test zum Niveau α
(.1)
δI : X → {d0 , d1 }
mit
δI (x) :=
für die Hypothesen

 d0 : N0 ≤ λ1−α

d1 : N0 > λ1−α
H0 : µ ≤ µ 0
H1 : µ > µ 0
hat die Gütefunktion
G(. | δI ) : R → [0, 1]
mit
G(µ | δI ) = 1 − Φ
Schließlich hat der Test
µ
¶
µ0 − µ √
n + λ1−α .
σ0
(.2)
δII : X → {d0 , d1 }
mit
δII (x) :=
c
°V.
Steinmetz: Grundzüge der Statistik

 d0 : N0 ≥ −λ1−α

d1 : N0 < −λ1−α
¶
,
–158–
für die Hypothesen
H0 : µ ≥ µ 0
H1 : µ < µ 0
die Gütefunktion
G(. | δII ) : R → [0, 1]
mit
G(µ | δII ) = Φ
µ
¶
µ0 − µ √
n − λ1−α .
σ0
Beweis:
zu (.0)
Aus der Definition von G und δ0 folgt
G(µ | δ0 ) = P
½
X̄ − µ0 √
X̄ − µ0 √
n < −λ1− α2 oder
n > λ1− α2
σ0
σ0
=1−P
=1−P
=1−P
½
½
½
−λ1− α2
X̄ − µ0 √
n ≤ λ1− α2
≤
σ0
¾
σ0
σ0
− √ λ1− α2 + µ0 ≤ X̄ ≤ √ λ1− α2 + µ0
n
n
−λ1− α2
¾
¾
µ0 − µ √
µ0 − µ √
X̄ − µ0 √
n≤
n ≤ λ1− α2 +
n
+
σ0
σ0
σ0
¾
Wenn Y einer N (µ, σ02 )-Verteilung genügt, sind bei einer einfachen Stichprobe
σ02
X = (X1 , ..., Xn ) der Stichprobenmittelwert X̄ N (µ, )-verteilt
n
und
X̄ − µ √
n N (0, 1) − verteilt.
σ0
Damit folgt
· µ
¶
µ
¶¸
µ0 − µ √
µ0 − µ √
G(µ | δ0 ) = 1 − Φ
n + λ1− α2 − Φ
n − λ1− α2
σ0
σ0
und nach Auflösen der eckigen Klammern erhält man die behauptete Gleichung.
Die Beweise für (.1) und (.2) werden analog geführt.
c
°V.
Steinmetz: Grundzüge der Statistik
–159–
8.4 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei unbekannter Varianz (t-Tests)
8.4.1 Definition:
Es seien X1 , ..., Xn unabhängige, N (0, 1)-verteilte Zufallsvariablen mit n ∈ N.
Dann heißt die ZV
χ2n := X12 + ... + Xn2
Chi-Quadrat-verteilt mit n Freiheitsgraden.
(Ihre Dichte ist in (Total)stetige Verteilungen (3.1.17) angegeben.)
8.4.2 Definition:
Es seien X eine N (0, 1)-verteilte ZV und χ2n eine von X unabhängige, ChiQuadrat-verteilte ZV mit n Freiheitsgraden. Dann heißt die ZV
X
tn := q
χ2n
n
t-verteilt mit n Freiheitsgraden.
(Ihre Dichte ist in (Total)stetige Verteilungen (3.1.17) angegeben.)
8.4.3 Satz:
Es seien X1 , ..., Xn unabhängige, N (µ, σ 2 )-verteilte ZV mit n ∈ N und
X̄
=
S2 =
Dann ist die ZV
n
1P
Xi
n i=1
n
1 P
(Xi − X̄)2 .
n − 1 i=1
1P
xi − µ
√
X̄ − µ √
n=
n
t0 := r n
S
1 P
2
(Xi − X̄)
n−1
t-verteilt mit n − 1 Freiheitsgraden.
(Zum Beweis siehe z.B. Heinhold, H., Gaede, K.W.: Ingenieurstatistik (1972),
S. 209, Satz 2.)
c
°V.
Steinmetz: Grundzüge der Statistik
–160–
8.4.4 Tests über µ bei unbekanntem σ 2 einer N (µ, σ 2 )-verteilten Zufallsvariablen (t-Tests):
Gegeben:
ZV Y, N (µ, σ 2 )-verteilt mit unbekanntem µ ∈ R und unbekanntem σ 2 ∈ R++ ;
einfache Stichprobe X = (X1 , ..., Xn ) zu Y mit der Realisation x = (x1 , ..., xn ),
Signifikanzniveau α ∈]0, 1[, µ0 ∈ R.
Fall 0
Fall I
Fall II
(<)
(>)
µ > µ0
µ < µ0
H0 : µ = µ 0 µ = µ 0 µ = µ 0
H1 : µ 6= µ0
Berechne:
Aus der tn−1 -Tabelle Schwellenwerte λ1− α2 , λ1−α mit
P {−λ1− α2 ≤ tn−1 ≤ λ1− α2 } = 1 − α
P {tn−1 ≤ λ1−α } = 1 − α
x̄ =
1P
xi
n
Testgröße: t0 :=
s2 =
x̄ − µ0 √
n
s
1 P
(xi − x̄)2
n−1
Entscheide:
Fall 0
Fall I
Fall II
H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2
t0 ≤ λ1−α
t0 ≥ −λ1−α
H1 annehmen:
t0 > λ1−α
t0 < −λ1−α
|t0 | > λ1− α2
8.4.5 Bemerkung:
In allen drei Fällen sind H0 und H1 stets zusammengesetzte Hypothesen. Die
Bemerkungen (8.2.2) bis (8.2.4) gelten hier analog.
Für n > 30 (Faustregel) kann man die tn−1 -Verteilung durch die N (0, 1)-Verteilung approximieren.
c
°V.
Steinmetz: Grundzüge der Statistik
–161–
8.5 Binomialtests
8.5.1 Binomialtests:
0
1
y
und unbekanntem p ∈ [0, 1], einfache
QY {y} 1 − p p
Stichprobe X = (X1 , ..., Xn ) zu Y mit Realisation x = (x1 , ..., xn ), Signifikanzniveau α ∈]0, 1[ und p0 ∈]0, 1[.
Gegeben: ZV Y mit
Fall 0
Fall I
Fall II
(<)
(>)
p > p0
p < p0
H0 : p = p 0 p = p 0 p = p 0
H1 : p 6= p0
Berechne:
Aus Binomialtafel
λ α2 :=max{k ∈ {0, ..., n} | F (k − 0) ≤
α
2
≤ F (k)}
λ1− α2 :=min{k ∈ {0, ..., n} | F (k − 0) ≤ 1 −
α
2
≤ F (k)}
λ1−α :=min{k ∈ {0, ..., n} | F (k − 0) ≤ 1 − α ≤ F (k)}
λα :=max{k ∈ {0, ..., n} | F (k − 0) ≤ α ≤ F (k)}
Dabei: F (k − 0) =
Testgröße: b0 :=
n
P
k−1
P
b(i|n, p), F (k) =
i=0
k
P
b(i|n, p).
i=0
xi
i=1
Entscheide:
H0 annehmen:
Fall 0
Fall I
Fall II
λ α2 ≤ b0 ≤ λ1− α2
b0 ≤ λ1−α
b0 ≥ λ α
b0 > λ1−α
b0 < λ α
H1 annehmen: b0 < λ α2 oder b0 > λ1− α2
c
°V.
Steinmetz: Grundzüge der Statistik
–162–
8.5.2 Binomialtests mit Normalverteilungsapproximation:
y
0
1
und unbekanntem p ∈ [0, 1], einfache
QY {y} 1 − p p
Stichprobe X = (X1 , ..., Xn ) zu Y mit Realisation x = (x1 , ..., xn ), Signifikanz9
.
niveau α ∈]0, 1[ und p0 ∈]0, 1[ mit n >
p0 (1 − p0 )
Gegeben: ZV Y mit
Fall 0
Fall I
Fall II
(<)
(>)
p > p0
p < p0
H0 : p = p 0 p = p 0 p = p 0
H1 : p 6= p0
Berechne:
Aus N (0, 1)-Tafel λ1− α2 , λ1−α mit
P {−λ1− α2 ≤ N (0, 1) ≤ λ1− α2 } = 1 − α
P {N (0, 1) ≤ λ1−α } = 1 − α
P
xi − np0
Testgröße: b0 := p
np0 (1 − p0 )
Entscheide:
Fall 0
Fall I
Fall II
H0 annehmen: −λ1− α2 ≤ b0 ≤ λ1− α2
b0 ≤ λ1−α
b0 ≥ −λ1−α
H1 annehmen:
b0 > λ1−α
b0 < −λ1−α
|b0 | > λ1− α2
c
°V.
Steinmetz: Grundzüge der Statistik
–163–
8.6 Tests über die Erwartungswerte zweier normalverteilter Zufallsvariablen mit unbekannten Varianzen (t-Tests)
8.6.1 Tests über die Erwartungswerte zweier gemeinsam normalverteilter Zufallsvariablen
mit unbekannten Varianzen bei verbundenen Stichproben (t-Tests):
Gegeben: ZV (Y1 , Y2 ) zweidimensional normalverteilt mit
EY1 = µ1 , EY2 = µ2 , ((X11 , X21 ), ..., (X1n , X2n )) einfache Stichprobe zu (Y1 , Y2 )
mit Realisation ((x11 , x21 ), ..., (x1n , x2n )), Signifikanzniveau α ∈]0, 1[, ϑ ∈ R fest.
Fall 0
Fall I
Fall II
(<)
(>)
H0 : µ 1 − µ 2 = ϑ µ 1 − µ 2 = ϑ µ 1 − µ 2 = ϑ
H1 : µ1 − µ2 6= ϑ
Berechne:
µ 1 − µ2 > ϑ
µ 1 − µ2 < ϑ
Aus der tn−1 -Tabelle
λ1− α2 : P {−λ1− α2 ≤ tn−1 ≤ λ1− α2 } = 1 − α
λ1−α : P {tn−1 ≤ λ1−α } = 1 − α
z = (z1 , ..., zn ) mit zi = x1i − x2i für i = 1, ..., n
z̄ =
1
n
Testgröße: t0 :=
n
P
zi
s(z) =
i=1
r
z̄ − ϑ √
n
s
1
n−1
n
P
i=1
(zi − z̄)2
Entscheide:
Fall 0
Fall I
Fall II
H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2
t0 ≤ λ1−α
t0 ≥ −λ1−α
H1 annehmen:
t0 > λ1−α
t0 < −λ1−α
|t0 | > λ1− α2
c
°V.
Steinmetz: Grundzüge der Statistik
–164–
8.6.2 Tests über die Erwartungswerte zweier normalverteilter Zufallsvariablen mit
unbekannten, aber übereinstimmenden Varianzen und unverbundenen
Stichproben (t-Tests):
Gegeben: N (µ1 , σ 2 )-verteilte ZV Y1 , N (µ2 , σ 2 )-verteilte ZV Y2 , einfache Stichprobe X = (X11 , ..., X1n1 ) zu Y1 vom Umfang n1 mit Realisation
x1 = (x11 , ..., x1n1 ), einfache Stichprobe X2 = (X21 , ..., X2n2 ) zu Y2 vom Umfang
n2 mit Realisation x2 = (x21 , ..., x2n2 ), X1 und X2 unabhängig, Signifikanzniveau
α ∈]0, 1[ und ϑ ∈ R.
Fall 0
Fall I
Fall II
(<)
(<)
H0 : µ 1 − µ 2 = ϑ µ 1 − µ 2 = ϑ µ 1 − µ 2 = ϑ
H1 : µ1 − µ2 6= ϑ
µ 1 − µ2 > ϑ
µ 1 − µ2 < ϑ
Berechne: Aus der tn1 +n2 −2 -Tabelle:
λ1− α2 : P {−λ1− α2 ≤ tn1 +n2 −2 ≤ λ1− α2 } = 1 − α
λ1−α : P {tn1 +n2 −2 ≤ λ1−α } = 1 − α
x̄1 =
s2 (x1 ) =
1
n1 −1
n1
P
i=1
Testgröße: t0 =
1
n
n1
P
x1i
x̄2 =
i=1
(x1i − x̄1 )2 ;
r
1
n2
n2
P
x2i
i=1
s2 (x2 ) =
1
n2 −1
n1 n2 (n1 + n2 − 2)
· rn
P1
n1 + n 2
i=1
für n1 = n2 = n hat man die Testgröße
n2
P
i=1
(x2i − x̄2 )2
x̄1 − x̄2 − ϑ
n2
P
(x1i − x̄1 )2 + (x2i − x̄2 )2
i=1
x̄1 − x̄2 − ϑ √
n
t0 = p
s2 (x1 ) + s2 (x2 )
Entscheide:
Fall 0
Fall I
Fall II
H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2
t0 ≤ λ1−α
t0 ≥ −λ1−α
H1 annehmen:
t0 > λ1−α
t0 < −λ1−α
|t0 | > λ1− α2
c
°V.
Steinmetz: Grundzüge der Statistik
–165–
8.7 Tests über die Varianzen normalverteilter Zufallsvariablen
(χ2 -Tests, F -Tests)
8.7.1 Satz:
Es seien X1 , ..., Xn unabhängige, N (µ, σ 2 )-verteilte Zufallsvariablen. Dann ist
die Zufallsvariable
n
P
(Xi − X̄)2
n−1 2
i=1
S (X1 , ..., Xn ) =
χ2n−1 -verteilt.
σ2
σ2
(Der Beweis ist z.B. in Kreyszig, E.: Statistische Methoden und ihre Anwendungen, Göttingen (1970) S. 371 f zu finden.)
8.7.2 Tests über σ 2 einer N (µ, σ 2 )-verteilten Zufallsvariablen:
Gegeben: N (µ, σ 2 )-verteilte ZV Y , einfache Stichprobe X = (X1 , ..., Xn ) zu Y
mit Realisation x = (x1 , ..., xn ), Signifikanzniveau α ∈]0, 1[ und σ02 > 0.
Fall 0
Fall I
2
2 (<)
H0 : σ =
σ02
H1 : σ 2 6= σ02
Fall II
(>)
σ02
σ 2 = σ02
σ 2 > σ02
σ 2 < σ02
σ =
Berechne: Aus der χ2n−1 -Tabelle
: P {χ2n−1 ≤ λ α2 } =
λ α2
α
2
λ1− α2 : P {χ2n−1 ≤ λ1− α2 } = 1 −
Testgröße:
χ20 =
α
2
λα
: P {χ2n−1 ≤ λα } = α
λ1−α
: P {χ2n−1 ≤ λ1−α } = 1 − α
n
P
i=1
(xi − x̄)2
σ02
Entscheide:
Fall 0
Fall I
Fall II
H0 annehmen, falls
λ α2 ≤ χ20 ≤ λ1− α2
χ20 ≤ λ1−α
χ20 ≥ λα
H1 annehmen, falls
sonst
χ20 > λ1−α
χ20 < λα
p
√
χ20 − (n − 1)
Für σ 2 = σ02 und n ≥ 50 ist p
oder für n ≥ 30 ist 2χ20 − 2n − 3
2(n − 1)
annähernd N (0, 1)-verteilt.
c
°V.
Steinmetz: Grundzüge der Statistik
–166–
8.7.3 Definition:
χ2m , χ2n seien unabhängige, χ2 -verteilte Zufallsvariablen mit m bzw. n Freiheitsgraden. Dann heißt
Fnm
χ2m
χ2
n
=: Fm,n
:= m2 = m
·
2
χn
χn
m
n
F -verteilt mit m Zählerfreiheitsgraden und n Nennerfreiheitsgraden.
8.7.4 Folgerung:
Es sei Fnm eine mit m Zähler- und n Nennerfreiheitsgraden F -verteilte ZV über
einem WR (Ω, F, P ). Dann gilt für alle p ∈]0, 1[
¾
½
1
m
n
=1−p
P {Fn ≤ λp,m,n } = p ⇔ P Fm ≤
λ p,m,n
und somit auch λ1−p,n,m =
1
.
λ p,m,n
Beweis: Nach Definition (8.7.3) ist eine ZV X F -verteilt mit m Zähler- und n
1
F -verteilt ist mit n Zähler- und m
Nennerfreiheitsgraden genau dann, wenn
X
Nennerfreiheitsgraden. Dann folgt:
½
¾
1
1
m
p = P {Fn ≤ λp,m,n } = P
≥ λ p,m,n
Fnm
n
= P Fmn ≥
1
λ p,m,n
n
= 1 − P Fmn <
n
= 1 − P Fmn ≤
Damit erhält man sofort die Behauptung.
o
1
λ p,m,n
1
λ p,m,n
o
o
.
8.7.5 Satz:
Die Zufallsvariablen X = (X1 , ..., Xm ) und Y = (Y1 , ..., Yn ) seien unabhängig,
die Xi (i = 1, ..., m) seien unabhängig und N (µ1 , σ12 )-verteilt, die Yj (j = 1, ..., n)
seien ebenfalls unabhängig und N (µ2 , σ22 )-verteilt. Dann ist die ZV
S 2 (X)σ22
F m−1 -verteilt.
S 2 (Y )σ12 n−1
c
°V.
Steinmetz: Grundzüge der Statistik
–167–
Beweis: Nach Satz (8.7.1) sind die Zufallsvariablen
m−1 2
n−1 2
S (X) und
S (Y ) χ2m−1 -verteilt bzw. χ2n−1 -verteilt und nach Voraus2
2
σ1
σ2
setzung unabhängig. Damit genügt nach Definition (8.7.3) die ZV
m−1 2
S (X)
σ12
S 2 (X)
σ2
m−1
m−1
= 2
-Verteilung.
· 22 einer Fn−1
n−1 2
S (Y )
σ1
S (Y )
σ22
n−1
Wenn jetzt H0 : σ12 = σ22 wahr ist, d.h.
σ22
σ12
= 1 gilt, ist die Testgröße
S 2 (X)
m−1
· 1 Fn−1
-verteilt.
2
S (Y )
Die Schwellenwerte λ α2 , λ1− α2 können mit Hilfe der entsprechenden F -Verteilungstabelle bestimmt werden.
8.7.6 Tests über die Varianzen zweier normalverteilter Zufallsvariablen (F -Tests):
Gegeben: N (µ1 , σ12 )-verteilte ZV Y1 , N (µ2 , σ22 )-verteilte ZV Y2 , einfache Stichprobe X1 = (X11 , ..., X1n1 ) zu Y1 mit Realisation x1 = (x11 , ..., x1n1 ), einfache
Stichprobe X2 = (X21 , ..., X2n2 ) zu Y2 mit Realisation x2 = (x21 , ..., x2n2 ), X1
und X2 unabhängig, Signifikanzniveau α ∈]0, 1[ und ϑ ∈ R++ .
Fall 0
Fall I
Fall II
H0 :
σ12 (>)
σ12 (<)
σ12
=
ϑ
= ϑ
=
ϑ
σ22
σ22
σ22
H1 :
σ12
6= ϑ
σ22
c
°V.
Steinmetz: Grundzüge der Statistik
σ12
>ϑ
σ22
σ12
<ϑ
σ22
–168–
−1
Berechne: Aus Fnn21−1
-Tafel
λ α2
:
−1
P {Fnn21−1
≤ λ α2 } =
λ1− α2
:
−1
P {Fnn21−1
≤ λ1− α2 } = 1 −
λα
:
−1
P {Fnn21−1
≤ λα } = α
λ1−α
:
−1
P {Fnn21−1
≤ λ1−α } = 1 − α
x̄1
=
S 2 (x1 ) =
Testgröße:
F0 =
1
n1
n1
P
x1i
x̄2 =
i=1
1
n1 −1
n1
P
i=1
(x1i − x̄1 )2
α
2
1
n2
n2
P
α
2
x2i
i=1
S 2 (x2 ) =
1
n2 −1
1
S 2 (x1 )
·
2
S (x2 )
ϑ
Entscheide:
Fall 0
Fall I
Fall II
H0 annehmen λ α2 ≤ F0 ≤ λ1− α2
F0 ≤ λ1−α
F0 ≥ λα
H1 annehmen
F0 > λ1−α
F0 < λ α
sonst
c
°V.
Steinmetz: Grundzüge der Statistik
n2
P
i=1
(x2i − x̄2 )2
–169–
8.8 Chi-Quadrat-Anpassungstest
8.8.1 Chi-Quadrat-Anpassungstest:
Gegeben: ZV Y mit unbekannter VF FY , einfache Stichprobe X = (X1 , ..., Xn )
zu Y mit der Realisation x = (x1 , ..., xn ), Signifikanzniveau α ∈]0, 1[.
◦
◦
H0 : F Y = F Y
H1 : F Y =
6 FY
◦
Dabei darf die hypothetische Verteilungsfunktion F keine unbekannten Parameter mehr enthalten.
Wähle: Intervalleinteilung
] − ∞, a ] ]a , a ] ... ]a , a ] ... ]a , ∞[ ,
| {z 2} | 2{z 3} | k {zk+1} | r{z }
I1
I2
Ik
Ir
so daß mit a1 = −∞ und ar+1 = +∞ für jedes Ik gilt
◦
◦
◦
n pk = n(F (ak+1 )− F (ak )) ≥ 5 für k = 1, ..., r.
Falls die vorgenommene Intervalleinteilung dies nicht sofort erfüllt, fasse man
benachbarte Intervalle zusammen. Man lege die Intervallgrenzen nicht auf die
einzelnen xi , bei diskreten hypothetischen Verteilungen auch nicht auf Sprung◦
stellen von F Y .
Berechne:
νk
Anzahl der xi , die in das k-te Intervall fallen,
für k = 1, ..., r (empirische Häufigkeit)
◦
n· pk
für k = 1, ..., r (theoretische Häufigkeit)
aus χ2r−1 -Tafel λ1−α mit
P {χ2r−1 ≤ λ1−α } = 1 − α
Testgröße:
Entscheide:
H0 annehmen:
H1 annehmen:
χ20 =
◦
r (ν − n p )2
P
k
k
k=1
χ20 ≤ λ1−α
χ20 > λ1−α
c
°V.
Steinmetz: Grundzüge der Statistik
◦
n pk
=
Ã
r
P
νk2
k=1
◦
n pk
!
−n
–170–
8.8.2 Modifizierter Chi-Quadrat-Minimum-Anpassungstest:
Gegeben: ZV Y mit unbekannter VF FY , einfache Stichprobe X = (X1 , ..., Xn )
zu Y mit der Realisation x = (x1 , ..., xn ), Signifikanzniveau α ∈]0, 1[.
◦
H0 : FY ∈ {F Y (. | ϑ1 , ..., ϑl ) | (ϑ1 , ..., ϑl ) ∈ Θ}
◦
◦
H1 : F Y ∈
/ {F Y (. | ϑ1 , ..., ϑl ) | (ϑ1 , ..., ϑl ) ∈ Θ}
F Y enthält l ≥ 1 unbekannte Parameter ϑ1 , ..., ϑl .
Berechne: ML-Schätzwerte ϑ̂1 , ..., ϑ̂l für ϑ1 , ..., ϑl .
Wähle: Intervalleinteilung wie in Test (8.8.1) unter Benutzung von
◦
F Y (. | ϑ̂1 , ..., ϑ̂l ). Die Anzahl der Intervalle sei r. Es gelte r > l + 1.
Berechne:
aus χ2r−l−1 -Tafel λ1−α mit
P {χ2r−l−1 ≤ λ1−α } = 1 − α
Testgröße:
◦
χ20 unter Benutzung von F Y (. | ϑ̂1 , ..., ϑ̂l ) wie in Test (8.8.1)
Entscheide:
H0 annehmen: χ20 ≤ λ1−α
H1 annehmen: χ20 > λ1−α
Vorsicht:
Aufgrund der oben verwendeten ML-Schätzung ist die Testgröße i.a. nicht mehr
asymptotisch χ2 -verteilt, die ermittelten Quantile sind aber - mindestens für
größere r - als Näherungen brauchbar.
c
°V.
Steinmetz: Grundzüge der Statistik
–171–
8.9 Wilcoxon-Rangsummentest für unverbundene Stichproben
8.9.1 Definition:
Es seien M 6= ∅ eine Menge und A ⊆ M. Die Abbildung
1A : M → {0, 1}
mit
1A (x) :=
½
1 : x∈A
0 : x∈
/A
bezeichnet man als Indikatorfunktion (indicator function) der Menge A.
8.9.2 Definition:
Es sei
Rn6= := {(x1 , ..., xn ) ∈ Rn | xi 6= xj für i 6= j}
der Menge aller n-Tupel reeller Zahlen mit paarweise verschiedenen Elementen.
Man bezeichnet die Abbildung
Rj : Rn6= → {1, ..., n}
mit
Rj (x) :=
n
X
i=1
j ∈ {1, ..., n}
1]−∞,xj ] (xi ) für x = (x1 , ..., xn ) ∈ Rn6=
als j-te Rangstatistik und Rj (x) als Rang des Elementes xj in x = (x1 , ..., xn ). Ist
X = (X1 , ..., Xn ) eine n-dimensionale Zufallsvariable mit dem Stichprobenraum
X = Rn6= , so bezeichnet man auch die Zufallsvariable
Rj ◦ X =: Rj (X) = Rj (X1 , ..., Xn )
als j-te Rangstatistik (j = 1, ..., n).
8.9.3 Bemerkung:
Es sei
x = (x11 , ..., x1n1 , x21 , ..., x2n2 ) ∈ Rn6=1 +n2 (n1 , n2 ∈ N).
Dann ist es naheliegend, den Rang des Elementes x1j (j ∈ {1, ..., n1 }) in dem
ganzen (n1 + n2 )-Tupel x mit R1j (x) zu bezeichnen. Es gilt
R1j (x) =
n1
X
1]−∞,x1j ] (x1i ) +
i=1
n2
X
1]−∞,x1j ] (x2i ) .
i=1
Entsprechend hat man
R2j (x) =
n1
X
1]−∞,x2j ] (x1i ) +
i=1
c
°V.
Steinmetz: Grundzüge der Statistik
n2
X
i=1
1]−∞,x2j ] (x2i )
–172–
für j = 1, ..., n2 als Rang des Elementes x2j in dem (n1 + n2 )-Tupel x.
Die Zufallsvariablen
R1j (X11 , ..., X1n1 , X21 , ..., X2n2 ) und R2j (X11 , ..., X1n1 , X21 , ..., X2n2 )
sind entsprechend zu interpretieren.
8.9.4 Satz:
Es sei X = (X11 , ..., X1n1 , X21 , ..., X2n2 ) mit n1 , n2 ∈ N und n := n1 + n2 eine
einfache Stichprobe zu einer stetigen Zufallsvariablen Y 27 . Weiterhin sei
Wnn1
:=
n1
X
R1i (X).
i=1
Dann gilt
.1) EWnn1 =
n1 (n + 1)
,
2
n1 n2 (n + 1)
.
12
Wnn1 − EWnn1
:= p
gilt für die zugehörige Verteilungsfunktion
Var Wnn1
.2) Var Wnn1 =
Mit Znn1
.3)
FZnn1 (z) = Φ(z) für alle z ∈ R.
lim
konst
n→∞
n1
→
n
Beweis: Einen Beweis dieses Satzes findet man z.B. in Gibbons, J.D.: Nonparametric Statistical Inference, N.Y. u.a. (1971) S. 152 ff.
8.9.5 Wilcoxon-Rangsummentest für unverbundene Stichproben mit Normalverteilungsapproximation:
Gegeben: Stetig verteilte, mindestens ordinal skalierte Zufallsvariablen Y 1 , Y2
mit Verteilungsfunktionen FY1 und FY2 , einfache, unabhängige Stichproben
X1 = (X11 , ..., X1n1 ) und X2 = (X21 , ..., X2n2 ) zu Y1 bzw. Y2 mit Realisationen
x1 = (x11 , ..., x1n1 ) und x2 = (x21 , ..., x2n2 ), wobei die Elemente von x := (x1 , x2 )
paarweise verschieden sein müssen, n1 , n2 ∈ N mit n := n1 +n2 , α ∈]0, 1[; n1 ≥ 25
oder n2 ≥ 25, es existiert ϑ ∈ R mit FY2 (y) = FY1 (y + ϑ) für alle y ∈ R.
Fall 0
Fall I
Fall II
(<)
(>)
ϑ>0
ϑ<0.
H0 : ϑ = 0 ϑ = 0 ϑ = 0
27
beachte Bemerkung (8.9.6)
H1 : ϑ 6= 0
c
°V.
Steinmetz: Grundzüge der Statistik
–173–
Berechne: Aus N (0, 1)-Tafel
λ1− α2 : P {−λ1− α2 ≤ N (0, 1) ≤ λ1− α2 } = 1 − α
λ1−α
: P {N (0, 1) ≤ λ1−α } = 1 − α
w0 :=
n1
X
R1i (x),
i=1
Entscheide:
Fall 0
w0 −
z0 := q
n1 (n+1)
2
n1 n2 (n+1)
12
Fall I
Fall II
H0 annehmen: −λ1− α2 ≤ z0 ≤ λ1− α2
z0 ≤ λ1−α
z0 ≥ −λ1−α
H1 annehmen:
z0 > λ1−α
z0 < −λ1−α
|z0 | > λ1− α2
8.9.6 Bemerkung:
Die Rangstatistiken wurden als Abbildungen über dem Rn6= eingeführt, der Stichprobenraum X einer n-dimensionalen Zufallsvariablen X enthält i.a. Elemente,
die nicht zum Rn6= gehören. Da bei einer stetigen Zufallsvariablen die Menge
Rn \ Rn6= das Wahrscheinlichkeitsmaß Null hat, ist die Hintereinanderausführung
von X und einer Rangstatistik trotzdem sinnvoll zu interpretieren.
(Vgl. dazu auch Bemerkung (8.9.7)).
8.9.7 Bemerkung:
Nach den Voraussetzungen des Testrezeptes (8.9.5) sind die unabhängigen, einfachen Stichproben X1 und X2 stetig verteilt und folglich ist die Wahrscheinlichkeit Null, daß Zahlenwerte mehrfach vorkommen. Trotzdem treten in der Praxis
allein schon aufgrund von Rundungen immer wieder übereinstimmende Werte
auf, man spricht von Bindungen (ties). Bei dem vorangehenden Rangtest empfiehlt es sich, jedem Element einer Gruppe von übereinstimmenden Werten den
Mittelwert der auf die Gruppenelemente entfallenden Ränge zuzuordnen. Diese
Ränge werden dabei bestimmt, indem man fiktiv von so minimal verschiedenen
Gruppenelementen ausgeht, daß sie in der nach der Größe der Elemente geordneten Stichprobenrealisation aufeinander folgen würden. Beispielsweise erhält
man nach dieser Methode für die Stichprobenrealisation
x = (x1 , ..., x5 ) = (6, 3, 7, 3, 1)
die Ränge
R1 (x) = 4; R2 (x) =
28
2+3
= 2, 5; R3 (x) = 5; R4 (x) = 2, 5; R5 (x) = 1.28
2
Die Veränderung der Verteilung der Teststatistik wurde hier vernachlässigt; vgl. Büning, H.,
Trenkler, G.: Nichtparametrische statistische Methoden, Berlin, N.Y. (1978) S. 148 f.
c
°V.
Steinmetz: Grundzüge der Statistik
–174–
8.10 Parameterbereichsschätzungen
8.10.1 Definition:
Es seien Y eine ZV mit der parametrischen Verteilungsannahme W, Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm sowie X = (X1 , ..., Xn )
eine Stichprobe zu Y mit dem Stichprobenraum X.
Eine Abbildung
δ : X → P(γ(Θ))
heißt eine Parameterbereichsschätzung für den Parameter γ(ϑ) mit ϑ ∈ Θ.
(Entsprechend der Bemerkung (7.1.3) sollen auch hier Meßbarkeitsfragen ausgeklammert werden).
8.10.2 Bemerkung:
Man bezeichnet im allgemeinen auch die ZV δ(X) := δ ◦ X als Bereichsschätzfunktion für γ(ϑ) mit ϑ ∈ Θ.
8.10.3 Definition:
Es seien Y eine ZV mit der parametrischen Verteilungsannahme W, Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm sowie X = (X1 , ..., Xn )
eine Stichprobe zu Y mit dem Stichprobenraum X und α ∈]0, 1[. Eine Parameterbereichsschätzung
δ : X → P(γ(Θ))
heißt eine Konfidenzbereichsschätzung oder Konfidenzschätzung zur Sicherheitswahrscheinlichkeit 1 − α oder zum Niveau α, wenn gilt
QX,ϑ {x ∈ X | γ ∈ δ(x)} ≥ 1 − α für alle γ ∈ γ(Θ) und ϑ ∈ Θ mit γ(ϑ) = γ .
Für jedes x ∈ X heißt δ(x) ⊆ γ(Θ) ein 1 − α-Konfidenzbereich für γ ∈ γ(Θ).
8.10.4 Satz:
Es seien Y eine ZV mit der parametrischen Verteilungsannahme W, Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm sowie X = (X1 , ..., Xn )
eine Stichprobe zu Y mit dem Stichprobenraum X. Es seien
δγ∗0 : X → {d0 , d1 }
für alle γ0 ∈ γ(Θ) Alternativtests zum Niveau α ∈]0, 1[ zur Prüfung der Hypothesen
H0 : γ(ϑ) = γ0
dabei sei
29
H1 : ¬(γ(ϑ) = γ0 ), 29
Aγ0 := {x|x ∈ X ∧ δγ∗0 (x) = d0 }
Die genaue Form der Gegenhypothese ist durch W festgelegt.
c
°V.
Steinmetz: Grundzüge der Statistik
–175–
der Annahmebereich des Tests δγ∗0 . Dann ist durch
δ(x) := {γ0 ∈ γ(Θ) | x ∈ Aγ0 }
eine Konfidenzbereichsschätzung
δ : X → P(γ(Θ))
zur Sicherheitswahrscheinlichkeit 1 − α definiert.
Beweis:
Wenn δγ∗0 ein Test zum Niveau α ist, hat der kritische Bereich bei Gültigkeit der
Nullhypothese H0 höchstens die Wahrscheinlichkeit α, und folglich gilt für den
Annahmebereich
(∗)
QX,ϑ Aγ0 ≥ 1 − α für alle γ0 ∈ γ(Θ) und ϑ ∈ Θ mit γ(ϑ) = γ0 .
Nach Definition (8.10.3) ist zu zeigen
QX,ϑ {x | γ0 ∈ δ(x)} ≥ 1 − α für alle γ0 ∈ γ(Θ) und ϑ ∈ Θ mit γ(ϑ) = γ0 .
Nach Konstruktion von δ(x) gilt
δ(x) := {γ0 ∈ γ(Θ) | x ∈ Aγ0 },
also gilt für jedes γ0 ∈ γ(Θ)
(∗∗)
γ0 ∈ δ(x) ⇐⇒ x ∈ Aγ0 .
Damit folgt für die interessierende Wahrscheinlichkeit
QX,ϑ {x | γ0 ∈ δ(x)} = QX,ϑ {x | x ∈ Aγ0 } (nach (∗∗))
= QX,ϑ Aγ0
≥1−α
(nach (∗))
für alle γ0 ∈ γ(Θ) und ϑ ∈ Θ mit γ(ϑ) = γ0 .
8.10.5 Folgerung:
Es seien Y eine N (µ, σ02 )-verteilte Zufallsvariable mit unbekanntem Erwartungswert µ ∈ R und bekannter Varianz σ02 ∈ R++ , X = (X1 , ..., Xn ) eine einfache
Stichprobe zu Y mit dem Stichprobenraum X = Rn .
Zu α ∈]0, 1[ sei λ1− α2 bestimmt mit
P {−λ1− α2 ≤ N (0, 1) ≤ λ1− α2 } = 1 − α.
Dann ist durch
·
¸
n
σ0
σ0
1X
δ(x) := x̄ − √ λ1− α2 ; x̄ + √ λ1− α2 für alle x ∈ X mit x̄ =
xi
n i=1
n
n
c
°V.
Steinmetz: Grundzüge der Statistik
–176–
eine (1 − α)-Konfidenzbereichsschätzung δ für den Parameter µ gegeben.
Beweis:
Es werde der Test (8.2.1) zum Niveau α ∈]0, 1[ mit
H0 : µ = µ 0
H1 : µ 6= µ0
zugrunde gelegt. Der Annahmebereich des Tests ist
½
¾
x̄ − µ0 √
Aµ0 = x ∈ X | −λ1− α2 ≤
n ≤ λ1− α2 .
σ0
Nach Satz (8.10.4) erhält man für die Realisation x = (x1 , ..., xn ) einer einfachen
Stichprobe X = (X1 , ..., Xn ) zu Y den (1 − α)-Konfidenzbereich
δ(x) = {µ0 ∈ R | x ∈ Aµ0 }
=
=
½
½
µ0 ∈ R | −λ1− α2
x̄ − µ0 √
n ≤ λ1− α2
≤
σ0
¾
σ0
σ0
µ0 ∈ R | x̄ − √ λ1− α2 ≤ µ0 ≤ x̄ + √ λ1− α2
n
n
·
¸
σ0
σ0
= x̄ − √ λ1− α2 ; x̄ + √ λ1− α2 .
n
n
¾
8.10.6 Bemerkung:
In Folgerung (8.10.5) wurde von einem zweiseitigen Test ausgegangen; als Konfidenzbereich zur Realisation x = (x1 , ..., xn ) erhält man ein sogenanntes zweiseitiges Konfidenzintervall. Die Verwendung einseitiger Tests würde in diesem Fall zu
einseitigen Konfidenzintervallen führen; sie sind von Interesse, wenn Abweichungen des wahren µ vom hypothetischen µ0 nur nach einer Seite von Bedeutung
sind.
8.10.7 Folgerung:
Es seien Y eine N (µ, σ 2 )-verteilte Zufallsvariable mit unbekanntem Erwartungswert µ ∈ R und unbekannter Varianz σ 2 ∈ R++ , X = (X1 , ..., Xn ) eine einfache
Stichprobe zu Y mit dem Stichprobenraum X = Rn . Zu α ∈]0, 1[ sei λ1− α2
bestimmt mit
P {λ1− α2 ≤ tn−1 ≤ λ1− α2 } = 1 − α.
Dann ist durch
·
s
s
δ(x) = x̄ − √ λ1− α2 ; x̄ + √ λ1− α2
n
n
c
°V.
Steinmetz: Grundzüge der Statistik
¸
für alle x ∈ Rn
–177–
mit
n
1X
x̄ =
xi ;
n i=1
v
u
u
s=t
n
1 X
(xi − x̄)2
n − 1 i=1
eine (1 − α)-Konfidenzbereichsschätzung δ für den Parameter µ gegeben.
Beweis: analog zum Beweis der Folgerung (8.10.5) unter Zuhilfenahme von
Test (8.4.4).
8.10.8 Bemerkung:
Eine Umkehrung des Satzes (8.10.4) zeigt, daß durch eine Konfidenzbereichsschätzung auch Parametertests zum entsprechenden Niveau festgelegt sind: Ein
hypothetischer Parameter wird akzeptiert, falls er in dem aufgrund einer Stichprobenrealisation berechneten entsprechenden Konfidenzbereich liegt, andernfalls wird er verworfen (vgl. (∗∗) im Beweis von Satz (8.10.4)).
c
°V.
Steinmetz: Grundzüge der Statistik
–178–
10 Das klassische lineare Regressionsmodell
10.1 Bereitstellung des Modells
10.1.1 Wichtige Vereinbarung:
In Abweichung von der bisherigen Schreibweise werden im folgenden entsprechend dem Vorgehen in der Ökonometrie Variablen und ihre Realisationen nicht
durch Groß- bzw. Kleinschreibung unterschieden. Es muß dem Zusammenhang
entnommen werden, ob es sich jeweils um die Darstellung von Variablen oder
ihrer Realisationen handelt. Viele Formeln gelten sowohl für die Variablen als
auch für ihre Realisierungen.
Vorsicht: Trotz dieser Schreibweise bleiben Variablen und ihre Realisationen
verschiedene mathematische Objekte!
10.1.2 Definition:
Es seien n, T ∈ N und




y1
u1
 .. 
 .. 
 . 
 . 
u= . 
y= . 
 .. 
 .. 
yT
uT



X=




β=

x10 x11 · · · x1n
..
..
...
.
.
..
..
...
.
.
xT 0 xT 1 · · · x T n
β0
β1
..
.
βn




 = [X•0 , ..., X•n ]





c
°V.
Steinmetz: Grundzüge der Statistik
T -dimensionale
Zufallsvektoren (bzw.
ihre Realisationen)
(random vector)
eine T × (n + 1)-Matrix
reeller deterministischer
Variablen (bzw. ihrer
Realisationen)
ein (n + 1)-dimensionaler
Vektor reeller deterministischer Variablen (bzw.
ihrer Realisationen)
–179–
Dann heißt
.1) y = Xβ + u
ein multiples lineares Regressionsmodell.
Es sei
yt = β0 xt0 + ... + βn xtn + ut
die t-te Zeile (t = 1, ..., T ) aus (.1). Man nennt
yt
Regressand, abhängige Variable
xt0 , ..., xtn
Regressoren, unabhängige Variablen, erklärende Variablen
ut
Stör- oder Fehlervariable
β0 , ..., βn
Regressionskoeffizienten.
Liegen Realisationen y und X vor, bezeichnet man
(y, X)
als Beobachtungswertmatrix. Man bezeichnet das Modell (.1) als klassisch,
wenn folgende Voraussetzungen erfüllt sind:
.2) für jede Realisation X ∈ RT ×(n+1) und jedes β ∈ Rn+1 gilt
Eu = 0
Eu u0 = σ 2 I mit σ 2 > 0.
.3) Für die beobachtete Realisation X gilt
rg XT ×(n+1) = n + 1.
Ist ein Spaltenvektor von X der Einsvektor, o.B.d.A. gelte
.4) X•0 = ι,
so heißt das Modell inhomogen und der zugehörige Regressionskoeffizient
- im Fall X•0 = ι also β0 - das Absolutglied des Regressionsmodells, die
anderen Koeffizienten heißen eigentliche Regressionskoeffizienten , xt0 bezeichnet man als Scheinvariable.
Ist kein Spaltenvektor von X ein Einsvektor, so heißt das Modell homogen.
c
°V.
Steinmetz: Grundzüge der Statistik
–180–
10.1.3 Satz:
Gegeben sei das Regressionsmodell aus Definition (10.1.2) mit
y = Xβ + u.
Unter der Voraussetzung
Eu = 0
gilt für die Zufallsvariable y
Ey = Xβ
und unter der zusätzlichen Voraussetzung
Eu u0 = σ 2 I
folgt
Σy y0 = σ 2 I.
Beweis:
Es gilt
Ey
= E(Xβ + u) = EXβ + Eu = Xβ
Σy y0 = E(y − Ey)(y − Ey)0
= E(Xβ + u − Xβ)(Xβ + u − Xβ)0 = Eu u0 = σ 2 I.
c
°V.
Steinmetz: Grundzüge der Statistik
–181–
10.2 Die Methode der kleinsten Quadrate
10.2.1 Definition:
Gegeben seien das lineare Modell
y = Xβ + u
und die Beobachtungswertmatrix (y, X) mit
rg XT ×(n+1) = n + 1.
b des Problems
Eine Lösung β
(.1)
e 0 (y − X β)
e
min(y − X β)
e
β
bezeichnet man als Kleinst-Quadrat-Schätzung (KQ-Schätzung, ordinary least
squares estimator, OLS-Schätzung) für den unbekannten Regressionskoeffizientenvektor β. Der Vektor
b
u
b := y − X β
heißt Vektor der KQ-Residuen,
b
b
y := X β
der nach der KQ-Methode geschätzte y-Vektor.
10.2.2 Satz:
Gegeben seien das lineare Regressionsmodell
y = Xβ + u
und die Beobachtungswertmatrix (y, X) mit rg XT ×(n+1) = n + 1. Dann gibt es
b er ist Lösung der sog. Normalgleichungen
genau einen KQ-Schätzer β,
und es gilt
b = X 0y
X 0X β
b = (X 0 X)−1 X 0 y .
β
Beweis:
Siehe z.B. Vorlesung Ökonometrie I oder Lehrbücher der Ökonometrie.
c
°V.
Steinmetz: Grundzüge der Statistik
–182–
10.2.3 Beispiel: Das einfache lineare Regressionsmodell:
Das lineare Regressionsmodell
y = Xβ + u mit X = [xti ]
t=1,...,T
i=0,1,...,n
heißt einfach, wenn gilt
n = 1 und xt0 = 1 für t = 1, ..., T ;
es handelt sich also um ein inhomogenes Modell.
Zur Vereinfachung seien folgende Bezeichnungen eingeführt:
xt := xt1 t = 1, ..., T
α := β0
β := β1 .
Damit folgt für die t-te Gleichung des Regressionsmodells
yt = α + βxt + ut
und es gilt weiter



y=

y1
..
.
..
.
yT
X 0X =
0
Xy=
·
·






 X=


1 ... 1
x1 . . . x T
1
x1


1 x1
· ¸
.. .. 

α
. . 

u=
β=
.. .. 
β

. . 
1 xT

¸




¸
... 1 

. . . xT 
c
°V.
Steinmetz: Grundzüge der Statistik
t = 1, ..., T
u1
..
.
..
.
uT








T
P
1 x1
xt 
 T
.. .. 
t=1


. . 


=

.. .. 


T
T
 P
. .
P 2 
xt
xt
1 xT
t=1
t=1
y1
..
.
..
.
yT






T
P
 t=1 yt

=

T
 P
xt yt
t=1






–183–
b=
Mit β
·
α
b
βb
¸
erhält man die Normalgleichungen
α
b
α
bT + βb
T
X
t=1
T
X
xt =
t=1
xt + βb
T
X
T
X
yt
t=1
x2t =
t=1
T
X
xt yt .
t=1
Die Voraussetzung rg XT ×(n+1) = n+1 bedeutet in dem Spezialfall des einfachen
Modells
rg X = 2, d.h. es gibt t, t0 mit xt 6= xt0 .
In diesem Fall sind nach Satz (10.2.2) die Normalgleichungen eindeutig lösbar
und man erhält
P
P P
T
xt yt − xt yt
b
P 2
P
β =
T
xt − ( xt ) 2
1P
1 P
yt − βb xt
T
T
P 2P
P
P
xt
yt − xt yt xt
P 2
P
=
.
T
xt − ( xt ) 2
α
b =
10.2.4 Hilfssatz:
Gegeben sei das lineare Regressionsmodell
y = Xβ + u
mit
rg XT ×(n+1) = n + 1
und
b = (X 0 X)−1 X 0 y,
β
b
b
y = X β,
Dann gelten die sog. Orthogonalitätsbeziehungen
(.1) X 0 u
b=0
(.2) b
y0u
b=0.
c
°V.
Steinmetz: Grundzüge der Statistik
u
b = y−b
y.
–184–
Beweis:
zu (.1) X 0 u
b = X 0 (y− b
y)
b
= X 0y − X 0X β
= X 0 y − X 0 X(X 0 X)−1 X 0 y
= X 0y − X 0y = 0
zu (.2) b
y0u
b
b 0u
= (X β)
b
b0 X 0 u
b=0
=β
10.2.5 Satz (Zerlegungsformel):
Gegeben sei das lineare Regressionsmodell
y = Xβ + u
mit
rg XT ×(n+1) = n + 1
und
Dann gilt
d.h.
X
y0y = b
y0b
b0u
y+u
b
yt2 =
t
Beweis:
b
b
y = X β,
b = (X 0 X)−1 X 0 y,
β
X
t
ybt2 +
X
t
u
b0u
b = (y − b
y ) 0 (y − b
y)
u
b = y−b
y.
u
b2t .
b 0 (y − X β)
b
= (y − X β)
b
b+β
b0 X 0 y − y 0 X β
b0 X 0 X β
= y0y − β
Durch Ausnutzung der Normalgleichungen in der Form
b = X 0y
X 0X β
bzw.
folgt
b0 X 0 X = y 0 X
β
b−β
b+β
b
b0 X 0 X β
b0 X 0 X β
b0 X 0 X β
b = y0y − β
u
b0u
y.
= y0y − b
y0b
c
°V.
Steinmetz: Grundzüge der Statistik
–185–
10.2.6 Satz und Definition:
Gegeben sei das inhomogene lineare Regressionsmodell
y = Xβ + u
mit
rg XT ×(n+1) = n + 1
und
X•0 := ι .
Mit
ȳ :=
folgt
(.1) u
b̄ = 0 =
(.2) b̄
y = ȳ .
T
P
t=1
T
1X
yt ,
T t=1
b̄
y :=
T
1X
ybt
T t=1
und u
b̄ :=
T
1X
u
bt
T t=1
u
bt ,
Mit der empirischen Streuung der Beobachtungen
T
1X
(yt − ȳ)2 ,
σ
b (y) :=
T t=1
2
der durch die Regression erklärten Streuung der Beobachtungen
T
T
1X
1X
2
(b
yt − b̄
y) =
(b
yt − ȳ)2 ,
σ
b (b
y ) :=
T t=1
T t=1
2
der durch das Modell nicht erklärten Reststreuung der Beobachtungen
σ
b2 (b
u) :=
T
T
1X
1X 2
(b
ut − u)
b̄ 2 =
u
b
T t=1
T t=1 t
gilt die Streuungszerlegungsformel
(.3) σ
b2 (y) = σ
b2 (b
y) + σ
b2 (b
u).
Beweis:
zu (.1)
Nach (10.2.4.1) gilt
0
0
0 = X 0u
b = (X•0
u
b, ..., X•n
u
b) 0 .
Da im inhomogenen Modell X•0 = ι gilt, folgt
0
b=
0 = X•0
u
b = ι0 u
c
°V.
Steinmetz: Grundzüge der Statistik
T
X
t=1
u
bt =
T
1X
u
bt .
T t=1
–186–
zu (.2)
Wegen u
b = y−b
y folgt im inhomogenen Modell
0
und damit auch
0
0=ιu
y) =
b = ι (y − b
T
X
t=1
yt −
T
X
t=1
ybt
y.
ȳ = b̄
zu (.3)
Allgemein gilt die Zerlegungsformel aus Satz (10.2.5)
y0y = b
y0b
b0u
y+u
b.
Im inhomogenen Modell mit den zuvor bewiesenen Aussagen
y und u
b̄ = 0
ȳ = b̄
folgt
2
b0u
y 0 y − ȳ 2 = b
y +u
b̄
y0b
y − b̄
b−u
2
und Anwendung von Folgerung (7.1.6) liefert
σ
b2 (y) = σ
b2 (b
y) + σ
b2 (b
u) .
10.2.7 Definition:
Gegeben sei das inhomogene lineare Regressionsmodell
y = Xβ + u
mit
rg XT ×(n+1) = n + 1
und
X•0 := ι .
Man bezeichnet für σ
b2 (y) > 0
σ
b2 (b
y)
R := 2
σ
b (y)
als empirisches Bestimmtheitsmaß.
c
°V.
Steinmetz: Grundzüge der Statistik
2
–187–
10.2.8 Folgerung:
Gegeben sei das inhomogene Modell aus Definition (10.2.7). Dann gilt für
σ
b2 (y) > 0
σ
b2 (b
u)
(.1) R = 1 − 2
σ
b (y)
2
(.2) 0 ≤ R2 ≤ 1
Beweis:
zu (.1) Wegen X•0 = ι gilt die Streuungszerlegungsformel (10.2.6.3) und man
erhält mit der Definition von R2
σ
b2 (b
y)
σ
b2 (y) − σ
b2 (b
u)
R = 2
=
σ
b (y)
σ
b2 (y)
2
=1−
zu (.2) Aus 0 < σ
b2 (y) und 0 ≤ σ
b2 (b
y ) folgt
0≤
aus
σ
b2 (b
u)
2
σ
b (y)
σ
b(b
y)
= R2 ,
σ
b2 (y)
0≤σ
b2 (b
u)
folgt
und
σ
b2 (b
u)
0≤ 2
σ
b (y)
R2 = 1 −
c
°V.
Steinmetz: Grundzüge der Statistik
σ
b2 (b
u)
≤1.
σ
b2 (y)
–188–
10.3 Stochastische Eigenschaften der KQ-Schätzer
10.3.1 Satz:
Gegeben sei das lineare Regressionsmodell
y = Xβ + u
mit
rg XT ×(n+1) = n + 1 und Eu = 0 .
Dann ist
b = (X 0 X)−1 X 0 y
β
ein erwartungstreuer Schätzer für β, d.h. es gilt
Beweis:
b = β für alle β ∈ Rn+1 .
Eβ
b = E(X 0 X)−1 X 0 y
Eβ
= (X 0 X)−1 X 0 Ey
= (X 0 X)−1 X 0 Xβ
(nach Satz (10.1.3))
= β.
10.3.2 Definition:
Es sei ∆E eine Menge von erwartungstreuen Schätzern für einen Parameter
ϑ := (ϑ1 , ..., ϑr )0 ∈ Rr . Ein Schätzer
δ ∗ = (δ1∗ , ..., δr∗ )0 ∈ ∆E
heißt bester erwartungstreuer Schätzer für ϑ in ∆E , wenn für jeden anderen
erwartungstreuen Schätzer
δ := (δ1 , ..., δr )0 ∈ ∆E für ϑ
gilt
Var δ1∗ ≤ Var δ1 , ..., Var δr∗ ≤ Var δr .
c
°V.
Steinmetz: Grundzüge der Statistik
–189–
10.3.3 Satz (Gauß-Markov):
Gegeben sei das lineare Regressionsmodell
y = Xβ + u
mit
Dann ist der KQ-Schätzer
Σu u0 = σ 2 I .
Eu = 0
rg XT ×(n+1) = n + 1
b = (X 0 X)−1 X 0 y
β
bester in y linearer 30 erwartungstreuer Schätzer für β (engl. Abkürzung BLUE
für best linear unbiased estimator).
Zum Beweis siehe Vorlesung Ökonometrie I oder Lehrbücher der Ökonometrie.
10.3.4 Satz:
Gegeben sei das lineare Regressionsmodell
y = Xβ + u
mit
rg XT ×(n+1) = n + 1
Dann ist mit
Eu = 0
Σu u0 = σ 2 I (σ 2 > 0).
b
b = (X 0 X)−1 X 0 y und u
b = y − Xβ
β
σ
b2 :=
1
u
b0u
b
T −n−1
ein erwartungstreuer Schätzer für σ 2 .
Zum Beweis siehe Vorlesung Ökonometrie I oder Lehrbücher der Ökonometrie.
30 b
b = Dy mit geeigneter Matrix D darstellen läßt.
β heißt linear in y, wenn es sich als β
c
°V.
Steinmetz: Grundzüge der Statistik
–190–
10.4 Schätzungen und Tests unter Normalverteilungsannahmen
10.4.1 Satz:
Gegeben sei das lineare Regressionsmodell
y = Xβ + u
mit
rg XT ×(n+1) = n + 1,
die ut (t = 1, ..., T ) seien identisch N (0, σ 2 )-verteilt und stochastisch unabhängig.
Dann ist der KQ-Schätzer
b = (X 0 X)−1 X 0 y
β
b = β und
(n + 1)-dimensional normalverteilt mit dem Erwartungswertvektor E β
2
0
−1
der Varianz-Kovarianz-Matrix Σβb βb0 = σ (X X) .
u
b0u
b
Weiterhin ist 2
χ2T −n−1 -verteilt.
σ
Zum Beweis siehe Vorlesung Ökonometrie I.
10.4.2 Satz:
Gegeben seien das lineare Regressionsmodell
y = Xβ + u
und dieselben Voraussetzungen wie in Satz (10.4.1).
Mit
1
u
b0u
σ
b2 :=
b
T −n−1
werde der Schätzer
b b b0 = σ
Σ
b2 (X 0 X)−1 =
ββ
b
u
b0u
(X 0 X)−1
T −n−1
für die Varianz-Kovarianz-Matrix Σβb βb0 gebildet, der die Schätzer
σ
b2 (βbk ) (k = 0, 1, ..., n) für die Varianz von βbk auf der Hauptdiagonalen enthält.
Dann ist
βbk − βk
q
tT −n−1 -verteilt.
2
b
+ σ
b ( βk )
c
°V.
Steinmetz: Grundzüge der Statistik
–191–
10.4.3 Tests für die Regressionskoeffizienten im linearen Regressionsmodell unter Normalverteilungsannahmen:
Gegeben:
Modell y = Xβ +u mit rg XT ×(n+1) = n+1, ut (t = 1, ..., T ) N (0, σ 2 )-verteilt und
stochastisch unabhängig mit σ 2 > 0, Signifikanzniveau α ∈]0, 1[, Beobachtung y
bei gegebenem X; βk∗ ∈ R (k = 0, 1, ..., n)
Fall 0
Fall I
Fall II
(<)
(>)
βk > βk∗
βk < βk∗
H0 : βk = βk∗ βk = βk∗ βk = βk∗
H1 : βk 6= βk∗
Berechne:
Aus der tT −n−1 Tabelle Schwellenwerte
λ1− α2 : P {tT −n−1 ≤ λ1− α2 } = 1 −
α
2
λ1−α : P {tT −n−1 ≤ λ1−α } = 1 − α
b = (X 0 X)−1 X 0 y
βbk aus β
Testgröße:
b b b0 =
σ
b(βbk ) aus Σ
ββ
βbk − βk∗
q
t0 :=
σ
b2 (βbk )
Fall 0
Entscheide:
b
u
b0 u
(X 0 X)−1
T −n−1
Fall I
Fall II
H0 annehmen: |t0 | ≤ λ1− α2
t0 ≤ λ1−α
t0 ≥ −λ1−α
H1 annehmen:
t0 > λ1−α
t0 < −λ1−α
|t0 | > λ1− α2
10.4.4 Folgerung:
Gegeben seien die Voraussetzungen und Bezeichnungen aus Test (10.4.3). Dann
ist durch
·
¸
q
q
βbk − λ1− α σ
b2 (βbk ) ; βbk + λ1− α σ
b2 (βbk )
2
2
ein zweiseitiges Konfidenzintervall für βk zur Sicherheitswahrscheinlichkeit 1 − α
gegeben.
Beweis:
Der Beweis folgt sofort durch Anwendung von Satz (8.10.4) analog zum Beweis
von Folgerung (8.10.5).
c
°V.
Steinmetz: Grundzüge der Statistik
–192–
10.5 Autokorrelation in den Störvariablen
10.5.1 Definition:
Es seien εt mit t ∈ Z reellwertige Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P ) und es gelte
 2
 σε > 0 : t = t 0
.
Eεt = 0
Eεt εt0 =

0
0
: t 6= t
Man bezeichnet die Folge (εt )t∈Z von Zufallsvariablen als Weißes Rauschen (white
noise).
10.5.2 Definition:
Es seien (εt )t∈Z ein weißes Rauschen, ρ ∈ R eine feste Zahl und ut für t ∈ Z
Zufallsvariablen mit
ut = ρut−1 + εt für t ∈ Z.
Man bezeichnet die Folge (ut )t∈Z als autoregressiven (stochastischen) Prozeß
erster Ordnung (first order autoregressive stochastic process).
10.5.3 Test (Durbin-Watson):
Gegeben: Modell y = Xβ + u mit rg XT ×(n+1) = n + 1, X•0 = ι, u ∼ N (0, V ) mit

1
ρ

 ρ
1

.

..
σε2  ρ2
V =

...
1 − ρ2  ...

 T −2
 ρ
ρT −1 ρT −2
ρ2 · · · ρT −2 ρT −1
... ...
ρT −2
..
... ... ...
.
... ... ...
ρ2
... ... ...
ρ
· · · ρ2
ρ
1
σε2 > 0 , α ∈]0, 1[ , Beobachtung y (bei gegebenem X).
Hypothesen:
Fall 0 Fall I Fall II
H0 : ρ = 0 ρ = 0
ρ=0
H1 : ρ 6= 0 ρ > 0
ρ<0
c
°V.
Steinmetz: Grundzüge der Statistik






 ,




–193–
Berechne: Aus Durbin-Watson-Tabelle
du (α) < do (α),
du
³α´
2
< do
³α´
2
b = (X 0 X)−1 X 0 y, u
β
b = y − X βb
d=
T
P
t=2
(b
ut − u
bt−1 )2
T
P
t=1
Entscheide:
Fall 0
H0 annehmen:
u
b2t
do ( α2 ) < d < 4 − do ( α2 )
Fall I
Fall II
d > do (α)
d < 4 − do (α)
H1 annehmen: d < du ( α2 ) ∨ d > 4 − du ( α2 ) d < du (α) d > 4 − du (α)
Keine Entscheidung in den übrigen Fällen.
c
°V.
Steinmetz: Grundzüge der Statistik
–194–
A Grundbegriffe der Mengenlehre
Ausführliche Darstellungen mit Beweisen findet man z.B. bei
Wetzel, W. u.a.: Mathematische Propädeutik für Wirtschaftswissenschaftler,
1975
Körth, H. u.a.: Lehrbuch der Mathematik für Wirtschaftswiss., 1972
A.1 Mengen und Teilmengen
A.1.1 Vereinbarung:
Unter einer Menge versteht man eine Zusammenfassung von bestimmten, wohlunterschiedenen Objekten. Die zu einer Menge zusammengefaßten Objekte
nennt man die Elemente der Menge. Ist ein Objekt x Element einer M , so
schreibt man
x∈M
oder
M 3 x.
Ist ein Objekt x nicht Element einer Menge M , so schreibt man
x∈
/M
oder
M 63 x
A.1.2 Bemerkung:
Man kürzt die Aussage “für alle x ∈ M gilt die Eigenschaft E(x) “ durch
folgende Schreibweise ab
(∀x ∈ M )(E(x)).
Das Symbol ∀ heißt Allquantor. (Man verwendet auch das Zeichen ∧).
A.1.3 Definition:
Zwei Mengen M und N heißen dann und nur dann gleich, wenn für alle x ∈ M
gilt x ∈ N und umgekehrt für alle x ∈ N gilt x ∈ M , in abgekürzter Schreibweise
M = N ⇐⇒ (∀x ∈ M )(x ∈ N ) ∧ (∀x ∈ N )(x ∈ M )
A.1.4 Bemerkung:
Man kürzt die Aussage “es gibt (mindestens) ein x ∈ M mit der Eigenschaft
E(x) “ folgendermaßen ab
(∃x ∈ M )(E(x)).
Das Symbol ∃ heißt Existenzquantor. (Man verwendet auch das Zeichen ∨. Für
“es gibt genau ein x ∈ M mit der Eigenschaft E(x)“ schreibt man kürzer
(∃!x ∈ M )(E(x))
c
°V.
Steinmetz: Grundzüge der Statistik
oder
(∃˙ x ∈ M )(E(x))
–195–
und für ”es gibt kein x ∈ M mit der Eigenschaft E(x)” schreibt man
(6 ∃ x ∈ M )(E(x))
A.1.5 Folgerung:
Zwei Mengen M und N sind ungleich, wenn es ein x ∈ M gibt, das nicht zu N
gehört oder wenn es ein x ∈ N gibt, das nicht zu M gehört, d.h.
M 6= N ⇐⇒ (∃x ∈ M )(x ∈
/ N ) ∨ (∃x ∈ N )(x ∈
/ M)
A.1.6 Bezeichnung:
Obwohl eine Mengenbildung im Sinne der Vereinbarung (A.1.1) nur dann vorliegt, wenn man bestimmte, wohldefinierte Objekte zusammenfaßt, spricht man
auch in solchen Fällen von Mengen, in denen die geforderten charakteristischen
Eigenschaften von keinem Objekt erfüllt werden. Man sagt dann, diese Mengen seien leer und betrachtet sie in Übereinstimmung mit Folgerung (A.1.5)
als gleich. Man spricht deshalb von der leeren Menge (auch Nullmenge) und
bezeichnet sie mit dem Symbol ∅.
A.1.7 Definition:
A und B seien Mengen. Man sagt, A sei Teilmenge von B, A sei in B enthalten,
B sei Obermenge von A, B enthalte A, in Zeichen A ⊆ B oder B ⊇ A, d.u.n.d.,
wenn jedes Element von A auch Element von B ist.
Also:
A ⊆ B ⇐⇒ (∀x ∈ A)(x ∈ B)
A.1.8 Bemerkung:
Gilt A ⊆ B ∧ A 6= B, so schreibt man auch A ⊂ B (oder ausführlicher A$B)
und sagt, A sei echte Teilmenge von B, B sei echte Obermenge von A. 31
A.1.9 Satz:
Für jede Menge A gilt:
∅ ⊆ A.
A.1.10 Satz:
A, B, D seien Mengen. Dann gilt
31
(.1) A ⊆ A
Reflexivität
(.2) A ⊆ B ∧ B ⊆ D ⇒ A ⊆ D
Transitivität
(.3) A ⊆ B ∧ B ⊆ A ⇐⇒ A = B
Identität
In der Literatur wird oft A ⊂ B im Sinne von A ⊆ B verwendet.
c
°V.
Steinmetz: Grundzüge der Statistik
–196–
d.h. die Enthaltenseinbeziehung ist eine Ordnungsrelation.
A.1.11 Definition:
Die Menge aller Teilmengen einer Menge A nennt man die Potenzmenge von A
und schreibt P(A), d.h.
P(A) := {X | X ⊆ A}.
A.1.12 Satz:
Besteht eine endliche Menge (siehe Def. (1.2.3) aus n Elementen (n ∈ {0, 1, 2, ..., }),
so enthält ihre Potenzmenge 2n Elemente.
A.1.13 Vereinbarung:
Für die gebräuchlichsten Zahlenmengen seien folgende Bezeichnungen gewählt:
N = {1, 2, 3, ...}
Menge der natürlichen Zahlen
N0 = {0, 1, 2, 3, ...}
Z = {..., −2, −1, 0, 1, 2, ...}
Menge der ganzen Zahlen
Q = P = { pq | p ∈ Z, q ∈ N}
Menge der rationalen Zahlen
R
Menge der reellen Zahlen
R+
Menge der nicht negativen reellen Zahlen
R++
Menge der positiven reellen Zahlen
Es seien a, b ∈ R.
]a, b[= {x ∈ R | a < x < b} offenes Intervall von a bis b
[a, b] = {x ∈ R | a ≤ x ≤ b}
abgeschlossenes Intervall von a bis b
]a, b] = {x ∈ R | a < x ≤ b}
(links)halboffenes Intervall von a bis b
[a, b[= {x ∈ R | a ≤ x < b}
(rechts)halboffenes Intervall von a bis b
c
°V.
Steinmetz: Grundzüge der Statistik
–197–
Als Intervalle bezeichnet man auch die folgenden Mengen
] − ∞, b[= {x ∈ R | x < b}
] − ∞, b] = {x ∈ R | x ≤ b}
]a, ∞[= {x ∈ R | a < x}
[a, ∞[= {x ∈ R | a ≤ x}
c
°V.
Steinmetz: Grundzüge der Statistik
–198–
A.2 Mengenoperationen
A.2.1 Definition:
Als Durchschnitt A ∩ B zweier Mengen A und B bezeichnet man die Menge
A ∩ B := {x | x ∈ A ∧ x ∈ B}.
A.2.2 Definition:
Gilt für zwei Mengen A und B
A ∩ B = ∅,
so heißen A und B punktfremd, elementfremd oder disjunkt.
A.2.3 Definition:
Als Vereinigung A ∪ B zweier Mengen A und B bezeichnet man die Menge
A ∪ B := {x | x ∈ A ∨ x ∈ B}
A.2.4 Definition:
Als Differenz B \ A (oder B − A) zweier Mengen A und B bezeichnet man die
Menge
B \ A := {x | x ∈ B ∧ x ∈
/ A}.
A.2.5 Definition:
Es seien A und Ω zwei Mengen mit A ⊆ Ω.
Als Komplement CΩ A von A bzgl. Ω bezeichnet man die Menge
CΩ A := {x | x ∈ Ω ∧ x ∈
/ A} = Ω \ A.
A.2.6 Bemerkung:
Wichtig bei der Komplementbildung ist, bzgl. welcher Obermenge Ω das Komplement gebildet werden soll. Sind keine Mißverständnisse möglich, dann braucht
die Obermenge als Index nicht angegeben zu werden:
CΩ A = CA = Ac .
Deshalb ist es angebracht, alle augenblicklich betrachteten Mengen als Teilmenge einer gemeinsamen Obermenge, einer sog. Universalmenge oder Allmenge
aufzufassen, bzgl. der dann die Komplemente gebildet werden. (Beispielsweise wird man R als Universalmenge festlegen, wenn man mit eindimensionalen
Intervallen operiert.)
c
°V.
Steinmetz: Grundzüge der Statistik
–199–
A.2.7 Definition:
Unter der symmetrischen Differenz A 4 B zweier Mengen A und B versteht man
die Menge
A 4 B := {x | (x ∈ A ∧ x ∈
/ B) ∨ (x ∈ B ∧ x ∈
/ A)}.
A.2.8 Satz:
Es seien A und B Mengen. Dann gilt:
A 4 B = (A \ B) ∪ (B \ A)
= (A ∪ B) \ (A ∩ B) = B 4 A
A.2.9 Satz:
A, B, D seien Teilmengen einer Universalmenge Ω. Dann gilt:
(.1)
A∪∅=A A∩∅=∅
Identität
A∪Ω=Ω A∩Ω=A
(.2)
A∪A=A A∩A=A
Idempotenz
(.3)
C(A ∪ B) = CA ∩ CB , C(A ∩ B) = CA ∪ CB
De Morgansche Gesetze
CΩ = ∅ C∅ = Ω
C(CA) = A A ∪ CA = Ω A ∩ CA = ∅
(.4)
A∪B =B∪A A∩B =B∩A
Kommutativität
(.5)
A ∪ (B ∪ D) = (A ∪ B) ∪ D
Assoziativität
A ∩ (B ∩ D) = (A ∩ B) ∩ D
Man kann also die Klammern auch
weglassen und schreiben
A ∪ B ∪ D bzw. A ∩ B ∩ D
(.6)
A ∪ (B ∩ D) = (A ∪ B) ∩ (A ∪ D)
A ∩ (B ∪ D) = (A ∩ B) ∪ (A ∩ D)
c
°V.
Steinmetz: Grundzüge der Statistik
Distributivität
–200–
(.7)
A ∪ (A ∩ B) = A B ∪ (A ∩ B) = B
A ∩ (A ∪ B) = A B ∩ (A ∪ B) = B
(.8)
A⊆A∪B
A∩B ⊆A
B ⊆A∪B
A∩B ⊆B
A ⊆ B ⇔ A ∪ B = B ⇔ A ∩ B = A ⇔ CB ⊆ CA
c
°V.
Steinmetz: Grundzüge der Statistik
Adjunktivität
–201–
A.3 Produktmengen
A.3.1 Definition:
Es seien A und B zwei nicht leere Mengen und a ∈ A, b ∈ B. Unter dem
geordneten Paar mit der ersten Koordinate a und der zweiten Koordinate b
versteht man das Symbol
(a, b).
Ist weiter a0 ∈ A und b0 ∈ B, so soll gelten:
(a, b) = (a0 , b0 ) ⇔ a = a0 ∧ b = b0 .
Die Menge
A × B := {(a, b) | a ∈ A ∧ b ∈ B}
bezeichnet man als das kartesische Produkt von A und B. Ist A = ∅ oder
B = ∅, so sei zusätzlich vereinbart A × B = ∅.
A.3.2 Definition:
Es seien A1 , ..., An n nicht leere Mengen mit a1 ∈ A1 , a2 ∈ A2 , ..., an ∈ An . Unter
einem n-Tupel mit der ersten Koordinate a1 , der zweiten Koordinate a2 , ..., der
n-ten Koordinate an versteht man das Symbol
(a1 , ..., an ).
Sind ferner a01 ∈ A1 , ..., a0n ∈ An weitere Elemente, dann soll gelten
(a1 , ..., an ) = (a01 , ..., a0n ) ⇔ (∀i ∈ {1, ..., n})(ai = a0i ).
Die Menge
A1 × A2 × ... × An = {(a1 , ..., an ) | (∀i ∈ {1, ..., n})(ai ∈ Ai )}
heißt das kartesische Produkt der Mengen A1 , ..., An .
Man schreibt auch
n
Ai .
A1 × A2 × ... × An =
i=1
Gilt A1 = A2 = ... = An = A, so benutzt man auch die Schreibweise
A1 × A2 × ... × An = An .
Ist mindestens eine der Mengen A1 , ..., An leer, so sei zusätzlich vereinbart
n
i=1
c
°V.
Steinmetz: Grundzüge der Statistik
Ai = ∅.
–202–
B Hilfsmittel aus der Matrizenrechnung
Einführende Darstellungen findet man in vielen Mathematikbüchern für Wirtschaftswissenchaftler, z.B.:
Horst, R.: Mathematik für Ökonomen: Lineare Algebra, München, Wien 1989
Opitz, O.: Mathematik, Lehrbuch für Ökonomen, München, Wien 1990
B.1 Matrizen und Vektoren
B.1.1 Definition:
Unter einer (m × n)−Matrix A mit den Elementen aij , i = 1, ..., m, j = 1, ..., n
versteht man ein Schema


a11 . . . a1n

..  =: (a )
...
A :=  ...
ij i=1,...,m =: A(m×n),
. 
j=1,...,n
am1 · · · amn
m heißt Anzahl der Zeilen, n Anzahl der Spalten von A (oft werden statt
der eckigen Klammern runde benutzt). Eine (m × 1)−Matrix a heißt ein mdimensionaler (Spalten-)Vektor


a1


a :=  ...  .
am
Eine (1 × n)−Matrix a0 heißt ein n-dimensionaler Zeilenvektor, a0 = (a1 , ..., an ).
Sei r = min{m, n}. Die Elemente a11 , a22 , ..., arr der Matrix A = (aij ) heißen Hauptdiagonalelemente; der Vektor (a11 , ..., arr )0 heißt die Hauptdiagonale
von A.
Ist m = n, so heißt die Matrix A quadratisch.
Bemerkung:
Die Elemente der im folgenden betrachteten Matrizen seien reelle Zahlen. Die
Definitionen und Sätze gelten im wesentlichen aber auch für Matrizen mit anderen Elementen, z.B. komplexen Zahlen, reellen Zufallsvariablen, soweit eine Gleichheitsrelation, Nullelement, Einselement, Addition, Multiplikation usw.
mit den entsprechenden Eigenschaften definiert sind.
B.1.2 Definition:
Seien A = (aij ) i=1,...,m, B = (bij ) i=1,...,m0 zwei Matrizen.
j=1,...,n
j=1,...,n0
Man definiert
A := B ⇔ (m = m0 ) ∧ (n = n0 ) ∧ (∀i ∈ {1, ..., m}, ∀j ∈ {1, ..., n})(aij = bij ).
c
°V.
Steinmetz: Grundzüge der Statistik
–203–
B.1.3 Definition:
Sei A = (aij ) i=1,...,m, eine (m × n)− Matrix. Dann heißt die (n × m)−Matrix
j=1,...,n
A0 := (a0ij ) i=1,...,n mit a0ij := aji Transponierte zu A.
j=1,...,m
(andere Schreibweise: AT )
Eine quadratische Matrix A heißt symmetrisch, wenn aij = aji (∀i, j = 1, ..., n).
B.1.4 Folgerung:
Stets gilt
(.1) (A0 )0 = A
(.2) A symmetrisch ⇔ A = A0 .
B.1.5 Definition (Typen von Matrizen):
(n × n)-Einheitsmatrix


1 0 ··· 0 


 0 1 · · · 0 


n
I =  ..
. . . .. 
 .
. 


0 0 ··· 1 
|
{z
}
n
(m × n)-Einsmatrix


1 ··· 1 

 ..

.
..  m
E= .

1 ··· 1 
{z
}
|
n
obere (n × n)-Dreiecksmatrix


a11 · · · · · · a1n
.. 
...

. 
 0
A= . .
.. 
.. ...
 ..
. 
0 · · · 0 ann
c
°V.
Steinmetz: Grundzüge der Statistik
(n × n)-Diagonalmatrix


d1 0 · · · 0
 0 d2 · · · 0 


D =  ..
.. 
.
.
 .
. . 
0 0 · · · dn
(m × n)-Nullmatrix


0 ··· 0 

 ..

.
..  m
O= .

0 ··· 0 
|
{z
}
n
untere (n × n)-Dreiecksmatrix


b11 0 · · · 0
.. 
 .. . . . . . .
. 
 .
B= .

...
 ..
0 
bn1 · · · · · · bnn
–204–






ej = 




j-ter Einheitsvektor

0
.. 
. 

0 

1  ← j-te Komp. (von oben)

0 
.. 
. 
0
Einsvektor
Nullvektor






ι=



1.
..
..
..
..
..
..
..
..
.
1













0=



0.
..
..
..
..
..
..
..
..
.
0









B.1.6 Definition:
Es sei
Man schreibt


a1j


A·j :=  ... 
amj

a11 · · · a1n

.. 
...
A =  ...
. 
am1 · · · amn

j ∈ {1, . . . , n} für den j-ten Spaltenvektor von A.
A0i· := (ai1 , . . . , ain ) i ∈ {1, . . . , m} für den i-ten Zeilenvektor von A.
B.1.7 Folgerung:
Verzichtet man auf innere Klammern und Kommata, so kann man schreiben:


A01·


A = (A·1 . . . A·n ) =  ... 
A0m·
c
°V.
Steinmetz: Grundzüge der Statistik
–205–
B.2 Verknüpfungen von Matrizen
B.2.1 Definition:
Seien A = (aij ), B = (bij ) (m × n)−Matrizen und α ∈ R. Die Summe der
Matrizen A und B wird definiert durch
A + B := F = (fij )m×n mit fij := aij bij ∀i = 1, ..., m, j = 1, ..., n,
die skalare Multiplikation von A mit α wird definiert durch
αA := G = (gij )m×n =: Aα mit gij := α · aij ∀i = 1, ..., m, j = 1, ..., n.
Man setzt (−1)A =: −A.
B.2.2 Satz:
Seien A, B, C (m × n)−Matrizen und α, β ∈ R. Dann gilt
(.1) A + B = B + A
(.2) (A + B) + C = A + (B + C)
(.3) A + O = O + A = A
(.4) (A + B)0
= A0 + B 0
(.5) αA
(.6) (α + β)A
= αA + βA
= Aα
(.7) α(βA) = (αβ)A = β(αA) (.8) (αA)0
= αA0
B.2.3 Definition:
Seien A = (aij ) eine (m × n)-Matrix und B = (bij ) eine (n × r)-Matrix. Dann
heißt die (m × r)-Matrix
n
X
AB := G = (gij ) i=1,...,m mit gij :=
aik bkj
∀i, j
j=1,...,r
k=1
das Produkt von A und B.
B.2.4 Satz:
Unter der Annahme, daß die Zeilen- und Spaltenanzahlen die jeweiligen Verknüpfungen erlauben, gilt:
(.1) (AB)C
= A(BC)
(.2) (A + B) · C
= AC + B · C
(.3) A(B + C) = AB + AC (.4) α(AB)
= (αA)B = A(αB)
(.5) IA = A;
AI = A
(.6) OA = O;
AO = O
(.7) (AB)0
= B 0 A0
(.8) AA0 und A0 A
sind symmetrisch .
Bemerkung:
Ist mit AB auch BA definiert, dann gilt i.a. aber AB 6= BA.
c
°V.
Steinmetz: Grundzüge der Statistik
–206–
B.2.5 Folgerung:
(.1) Seien A = a0 = (a1 , . . . , an ) ein n−dimensionaler Zeilenvektor und
 
b1
 .. 
B = b =  .  ein n-dimensionaler Spaltenvektor, dann gilt:
bn
0
ab=
n
X
ai b i .
i=1


v1
 .. 
(.2) Seien V = v =  .  ein m-dimensionaler Spaltenvektor und
vm
W = w0 = (w1 , ..., wn ) ein n-dimensionaler Zeilenvektor, dann ist


v1 · w 1 . . . v 1 · w n


..
..
...
v · w0 = 
 eine (m × n) − Matrix.
.
.
vm · w 1 . . . v m · w n
c
°V.
Steinmetz: Grundzüge der Statistik
–207–
B.3 Lineare Unabhängigkeit
B.3.1 Definition:
Es seien a, a1 , . . . , an ∈ Rm . a heißt Linearkombination von
a1 , . . . , an :⇔ (∃α1 , . . . , αn ∈ R)(a = α1 a1 + . . . + αn an ).
a1 , . . . , an heißen linear unabhängig
:⇔ (∀α1 , . . . , αn ∈ R)(0 = α1 a1 + . . . + αn an ⇒ α1 = . . . = αn = 0).
Andernfalls heißen sie linear abhängig.
B.3.2 Satz:
Es seien a1 , . . . , an ∈ Rm . Für n ≥ m+1 sind die Vektoren stets linear abhängig.
a1 , . . . , am seien linear unabhängig. Dann läßt sich jeder Vektor a ∈ Rm als
Linearkombination der ai darstellen.
B.3.3 Definition:
Eine Menge von m linear unabhängigen Vektoren des Rm heißt Basis des Rm .
Jede Menge von Vektoren des Rm , die m linear unabhängige Vektoren enthält,
heißt ein Erzeugendensystem von Rm .
c
°V.
Steinmetz: Grundzüge der Statistik
–208–
B.4 Rang einer Matrix
B.4.1 Definition:
Sei A = (aij )m×n . Die Maximalzahl linear unabhängiger Spaltenvektoren von A
heißt Rang der Matrix A, Bezeichnung: rg A.
B.4.2 Definition:
Sei A eine n × n-Matrix. A heißt regulär :⇔ rg A = n.
B.4.3 Satz:
Sei A = (aij )m×n und B = (bjk )n×r . Dann gilt
(.1)
rg A = rg A0
(.2)
rg A ≤ min{m, n}
(.3)
rg AB ≤ min{rg A, rg B}
(.4)
rg A0 A = rg A
(.5)
rg O = 0
(.6)
rg In×n = n
(.7)
A regulär ⇒ rg AB = rg B
c
°V.
Steinmetz: Grundzüge der Statistik
–209–
B.5 Determinante einer Matrix
B.5.1 Definition:
Es sei A eine (n × n)−Matrix und Aij mit i, j ∈ {1, . . . , n} sei die
(n − 1) × (n − 1)−Matrix, die aus A durch Streichen der i-ten Zeile und j-ten
Spalte entsteht. Als Determinante der Matrix A bezeichnet man die reelle Zahl
det A mit
det A = a11 für n = 1,
det A =
n
P
(−1)i+j aij det Aij
j=1
für n ≥ 2 und beliebiges, festes i ∈ {1, . . . , n}.
B.5.2 Satz:
Seien A, B (n × n)-Matrizen. Dann gilt
(.1)
det(A0 ) = det A
(.2)
det(αAn×n ) = αn det A
(.3)
vertauscht man zwei Zeilen (bzw. Spalten) von A, so ändert sich nur das
Vorzeichen der Determinante, nicht aber der Betrag.
(.4)

d11 . . .
 ..
...
det  .
0
...


d1n


..
 = det 
.
dnn
(.5)
det A 6= 0 ⇔ A regulär
(.6)
det(AB) = det A · det B
c
°V.
Steinmetz: Grundzüge der Statistik
d11
..
.
dn1

0
n
 Q
. . . ..
dii
=

.
i=1
. . . dnn
–210–
B.6 Inverse einer Matrix
B.6.1 Definition:
Eine (n × n)−Matrix A heißt invertierbar, wenn es eine (n × n)−Matrix A −1
gibt mit A · A−1 = I. A−1 heißt Inverse zu A.
B.6.2 Satz:
Sei A−1 Inverse zu A. Dann gilt auch A−1 A = I und A−1 ist eindeutig bestimmt.
B.6.3 Satz:
Sei A reguläre (n × n)-Matrix. Dann ist die (n × n)-Matrix B mit
bij =
(−1)i+j det Aji
Inverse zu A.
det A
B.6.4 Satz:
Sei A (n × n)-Matrix. Dann gilt: A invertierbar ⇔ A regulär.
B.6.5 Satz:
Falls die Zeilen- und Spaltenanzahlen die Verknüpfungen erlauben und die Inversen jeweils existieren, gilt:
(.1) (AB)−1 = B −1 A−1
(.2) (A−1 )−1 = A
(.3) (A−1 )0 = (A0 )−1
(.4) I −1 = I
(.5) (αA)−1 = α1 A−1
(.6) A symmetrisch ⇔ A−1 symmetrisch


(.7) D = 
d1
0
0
...
dn


⇒
(.8) det(A−1 ) = (det A)−1 .


D−1 = 
c
°V.
Steinmetz: Grundzüge der Statistik
1/d1
0
0
...
1/dn



–211–
B.7 Unterteilte Matrizen
B.7.1 Vereinbarung:
Es seien

a11
 ..
 .

 a
A =  r1
 ar+1,1
 .
 ..
am1
A11
A12
A21
A22

···
a1p
..
.
···
···
arp
···
a11 · · ·
 ..
= .
ar1 · · ·

ar+1,p
..
.
amp
···
ar,p+1 · · ·
ar+1,p+1 · · ·
..
.
am,p+1
···

a1p
..  (r × p)-Matrix,
. 
arp
a1,p+1 · · ·
 ..
= .
ar,p+1 · · ·

ar+1,1 · · ·
 ..
= .
am1 · · ·

a1,p+1
..
.
ar+1,p+1 · · ·

..
=
.
am,p+1 · · ·

a1,n
.. 
. 

arn 
 eine (m × n)-Matrix,
ar+1,n 
.. 
. 
amn

a1n
..  (r × (n − p))-Matrix,
. 
arn

ar+1,p
..  ((m − r) × p)-Matrix,
. 
amp

ar+1,n
..  ((m − r) × (n − p))-Matrix.
. 
amn
Dann läßt sich A bei Verzicht auf innere Klammern folgendermaßen schreiben:
A=
·
A11 A12
A21 A22
¸
Die Matrizen A11 , A12 , A21 , A22 bezeichnet man als Teil- oder Blockmatrizen.
c
°V.
Steinmetz: Grundzüge der Statistik
–212–
B.7.2 Satz:
Seien A =
·
A11 A12
A21 A22
¸
eine (m × n)-Matrix und B =
·
B11 B12
B21 B22
¸
eine
(n × q)-Matrix sowie A11 eine (r × p)-, A12 eine (r × (n − p))−,
A21 eine ((m − r) × p)−, A22 eine (m − r) × (n − p)−Matrix, B11 eine (p × s)−,
B12 eine (p×(q −s))−, B21 eine ((n−p)×s)−, B22 eine (n−p)×(q −s)−Matrix.
Dann gilt:
.1)
0
A =
·
.2)
AB =
A011 A021
A012 A022
"
¸
A11 B11 + A12 B21 A11 B12 + A12 B22
A21 B11 + A22 B21 A21 B12 + A22 B22
#
.3) Sind A, A11 quadratisch und sind A und A22 invertierbar, dann gilt mit
H := A11 − A12 A−1
22 A21

H −1
−1

A =
−1
−A−1
22 A21 H
c
°V.
Steinmetz: Grundzüge der Statistik
−H −1 A12 A−1
22
A−1
22
+
−1
A−1
A12 A−1
22 A21 H
22


–213–
B.8 Spur einer Matrix
B.8.1 Definition:
Es sei A ein (n × n)-Matrix. Dann heißt
tr(A) := sp(A) :=
n
X
aii
die Spur (trace) von A.
i=1
B.8.2 Satz:
Bei geeigneten Dimensionen der Matrizen A, B, C und Vektoren a, b gilt:
.1) tr(αA + βB) = α tr(A) + β tr(B) mit α, β ∈ R
.2) tr(A) = tr(A0 )
.3) tr(AB) = tr(BA), insbesondere tr(a b0 ) = tr(b0 a) = b0 a
.4) tr(ABC) = tr(CAB) = tr(BCA)
c
°V.
Steinmetz: Grundzüge der Statistik
–214–
B.9 Orthogonale Matrizen, idempotente Matrizen
B.9.1 Definition:
Eine (n × n)-Matrix heißt orthogonal, wenn gilt
A0 A = I.
B.9.2 Definition:
Eine (n × n)-Matrix A heißt idempotent, wenn gilt
A = A0 und AA = A.
B.9.3 Satz:
Es sei A eine orthogonale (n × n)-Matrix. Dann gilt
.1)
rg A = n
.2)
A0 = A−1
.3)
A0 A = AA0 = I
.4)
det A = ±1
B.9.4 Satz:
Es sei A eine idempotente Matrix mit rg A = r. Dann gibt es eine
orthogonale Matrix C mit
·
¸
Ir 0
0
C AC =
.
0 0
B.9.5 Satz:
Es sei A eine idempotente Matrix. Dann gilt: rg A = tr A.
c
°V.
Steinmetz: Grundzüge der Statistik
–215–
B.10 Def inite Matrizen, quadratische Formen
B.10.1 Definition:
Es seien A eine (n × n)-Matrix. Dann heißt die Abbildung q : Rn → R mit
q(x) = x0 Ax
∀x ∈ Rn
quadratische Form.
B.10.2 Definition:
Sei A eine symmetrische (n × n)-Matrix. Dann heißt A (und auch die zugehörige
quadratische Form) positiv definit, wenn gilt
(∀x ∈ Rn \ {0}) (x0 Ax > 0)
und positiv semidefinit, wenn gilt
(∀x ∈ Rn )(x0 Ax ≥ 0)
(entsprechend definiert man negativ (semi-)definit).
B.10.3 Satz:
.1) A positiv definit =⇒ A regulär und A−1 positiv definit.
.2) Ist A eine positiv definite (n × n)-Matrix und B eine (m × n)-Matrix, so gilt:
BAB 0
positiv definit ⇐⇒ rg B = m.
.3) Eine symmetrische Matrix A ist genau dann positiv definit, wenn es eine
reguläre Matrix B gibt mit A = B 0 B.
(Man kann B als obere Dreiecksmatrix wählen.)
.4) Eine symmetrische Matrix A ist genau dann positiv semidefinit, wenn es
eine quadratische Matrix B gibt mit A = B 0 B.
.5) Sei A positiv semidefinit. Dann gilt: A positiv definit ⇐⇒ A regulär.
c
°V.
Steinmetz: Grundzüge der Statistik
–216–
B.11 Matrizen von Zufallsvariablen
B.11.1 Vereinbarung:
In Abweichung von der bisherigen Schreibweise werden im folgenden entsprechend dem Vorgehen in der Ökonometrie Variablen und ihre Realisationen nicht
durch Groß- bzw. Kleinschreibung unterschieden. Es muß dem Zusammenhang
entnommen werden, ob es sich jeweils um die Darstellung von Variablen oder
ihrer Realisationen handelt. Viele Formeln gelten sowohl für die Variablen als
auch für ihre Realisierungen.
Vorsicht: Trotz dieser Schreibweise bleiben Variablen und ihre Realisationen
verschiedene mathematische Objekte!
B.11.2 Definition:
Eine Matrix Z = (zij ), i = 1, ..., m, j = 1, ..., n, deren Elemente zij die Komponenten einer m · n-dimensionalen Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P ) sind, heißt Zufallsmatrix über (Ω, F, P ). Im Fall n = 1 bzw.
m = 1 spricht man von einem Zufallsvektor.
B.11.3 Definition:
Der Erwartungswert einer (m × n)-Zufallsmatrix Z ist definiert durch:


Ez11 · · · Ez1n

.. 
...
EZ :=  ...
. 
Ezm1 · · ·
Ezmn
B.11.4 Folgerung:
Es seien Z1 , Z2 Zufallsmatrizen, A eine reelle Matrix und α ∈ R. Dann gilt, falls
die Verknüpfungen möglich sind:
(.1) E(αZ1 ) = αEZ1 = (EZ1 )α = E(Z1 α)
(.2) E(Z1 + Z2 ) = EZ1 + EZ2
(.3) E(AZ1 ) = AEZ1 , E(Z2 A) = (EZ2 )A
(.4) E tr Z1 = tr EZ1
c
°V.
Steinmetz: Grundzüge der Statistik
–217–
B.11.5 Definition:
Die Varianz-Kovarianz-Matrix eines Zufallsvektors z 0 = (z1 , . . . , zn ) ist definiert
durch:
Σz z0 := E(z − Ez)(z − Ez)0


z1 − Ez1


..
=E
 (z1 − Ez1 , . . . , zn − Ezn ) =
.
zn − Ezn


=
Var z1
..
.
···
Cov(zn , z1 ) · · ·

Cov(z1 , zn )

..

.
Var zn
B.11.6 Satz:
Es seien u (m × 1)−, v (n × 1)−Zufallsvektoren, A eine deterministische
(n × m)−Matrix, b ein deterministischer(n × 1)−Vektor mit v = Au + b.
Dann gilt:
(.1) Ev = AEu + b
(.2) Σv v0 = AΣu u0 A0
c
°V.
Steinmetz: Grundzüge der Statistik
–218–
B.12 Mehrdimensionale Normalverteilung
B.12.1 Definition:
Es seien µ = (µ1 , . . . , µn )0 ∈ Rn und eine positiv definite Matrix
Σ = (σij ) i=1,...,n ∈ Rn×n
j=1,...,n
gegeben. Eine n-dimensionale Zufallsvariable x = (x1 , ..., xn )0 heißt n-dimensional
normalverteilt N (µ, Σ), wenn für sie eine Dichte existiert mit
0 −1
1
− 1 (u − µ) Σ (u − µ)
√
fx (u) = √
e 2
( 2π)n det Σ
für alle u = (u1 , ..., un )0 ∈ Rn .
B.12.2 Satz:
Die n-dimensionale Zufallsvariable x sei N (µ, Σ)−verteilt.
Dann gilt für den Erwartungswertvektor x
.1) Ex = µ
und für die Varianz-Kovarianz-Matrix Σx x0
.2) Σx x0 = Σ.
B.12.3 Satz:
Die n-dimensionale Zufallsvariable x = (x1 , ..., xn )0 sei normalverteilt. Dann
gilt: Die Komponenten xi (i = 1, ..., n) sind dann und nur dann stochastisch
unabhängig, wenn sie paarweise unkorreliert sind.
B.12.4 Satz:
Es seien Am×n ∈ Rm×n mit rg A = m und b ∈ Rm gegeben und
x = (x1 , ..., xn )0 eine N (µ, Σ)−verteilte n-dimensionale Zufallsvariable. Dann ist
die m-dimensionale Zufallsvariable
y = Ax + b
N (Aµ + b, AΣA0 )-verteilt.
c
°V.
Steinmetz: Grundzüge der Statistik
–219–
C Tabellen
C.1 Tabelle zur Standardnormalverteilung
Φ(z)
z
0
Die Tabelle enthält zu vorgegebenem z den Inhalt der in der Skizze schraffierten
Fläche Φ(z).
z
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.0
0.1
0.2
0.3
0.4
0.5000
0.5398
0.5793
0.6179
0.6554
0.5040
0.5438
0.5832
0.6217
0.6591
0.5080
0.5478
0.5871
0.6255
0.6628
0.5120
0.5517
0.5910
0.6293
0.6664
0.5160
0.5557
0.5948
0.6331
0.6700
0.5199
0.5596
0.5987
0.6368
0.6736
0.5239
0.5636
0.6026
0.6406
0.6772
0.5279
0.5675
0.6064
0.6443
0.6808
0.5319
0.5714
0.6103
0.6480
0.6844
0.5359
0.5753
0.6141
0.6517
0.6879
0.5
0.6
0.7
0.8
0.9
0.6915
0.7257
0.7580
0.7881
0.8159
0.6950
0.7291
0.7611
0.7910
0.8186
0.6985
0.7324
0.7642
0.7939
0.8212
0.7019
0.7357
0.7673
0.7967
0.8238
0.7054
0.7389
0.7704
0.7995
0.8264
0.7088
0.7422
0.7734
0.8023
0.8289
0.7123
0.7454
0.7764
0.8051
0.8315
0.7157
0.7486
0.7794
0.8078
0.8340
0.7190
0.7517
0.7823
0.8106
0.8365
0.7224
0.7549
0.7852
0.8133
0.8389
1.0
1.1
1.2
1.3
1.4
0.8413
0.8643
0.8849
0.9032
0.9192
0.8438
0.8665
0.8869
0.9049
0.9207
0.8461
0.8686
0.8888
0.9066
0.9222
0.8485
0.8708
0.8907
0.9082
0.9236
0.8508
0.8729
0.8925
0.9099
0.9251
0.8531
0.8749
0.8944
0.9115
0.9265
0.8554
0.8770
0.8962
0.9131
0.9279
0.8577
0.8790
0.8980
0.9147
0.9292
0.8599
0.8810
0.8997
0.9162
0.9306
0.8621
0.8830
0.9015
0.9177
0.9319
1.5
1.6
1.7
1.8
1.9
0.9332
0.9452
0.9554
0.9641
0.9713
0.9345
0.9463
0.9564
0.9649
0.9719
0.9357
0.9474
0.9573
0.9656
0.9726
0.9370
0.9484
0.9582
0.9664
0.9732
0.9382
0.9495
0.9591
0.9671
0.9738
0.9394
0.9505
0.9599
0.9678
0.9744
0.9406
0.9515
0.9608
0.9686
0.9750
0.9418
0.9525
0.9616
0.9693
0.9756
0.9429
0.9535
0.9625
0.9699
0.9761
0.9441
0.9545
0.9633
0.9706
0.9767
c
°V.
Steinmetz: Grundzüge der Statistik
–220–
Φ(z)
z
0
Die Tabelle enthält zu vorgegebenem z den Inhalt der in der Skizze schraffierten
Fläche Φ(z).
z
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
2.0
2.1
2.2
2.3
2.4
0.9772
0.9821
0.9861
0.9893
0.9918
0.9778
0.9826
0.9864
0.9896
0.9920
0.9783
0.9830
0.9868
0.9898
0.9922
0.9788
0.9834
0.9871
0.9901
0.9925
0.9793
0.9838
0.9875
0.9904
0.9927
0.9798
0.9842
0.9878
0.9906
0.9929
0.9803
0.9846
0.9881
0.9909
0.9931
0.9808
0.9850
0.9884
0.9911
0.9932
0.9812
0.9854
0.9887
0.9913
0.9934
0.9817
0.9857
0.9890
0.9916
0.9936
2.5
2.6
2.7
2.8
2.9
0.9938
0.9953
0.9965
0.9974
0.9981
0.9940
0.9955
0.9966
0.9975
0.9982
0.9941
0.9956
0.9967
0.9976
0.9982
0.9943
0.9957
0.9968
0.9977
0.9983
0.9945
0.9959
0.9969
0.9977
0.9984
0.9946
0.9960
0.9970
0.9978
0.9984
0.9948
0.9961
0.9971
0.9979
0.9985
0.9949
0.9962
0.9972
0.9979
0.9985
0.9951
0.9963
0.9973
0.998
0.9986
0.9952
0.9964
0.9974
0.9981
0.9986
3.0
3.1
3.2
3.3
3.4
0.9987
0.9990
0.9993
0.9995
0.9997
0.9987
0.9991
0.9993
0.9995
0.9997
0.9987
0.9991
0.9994
0.9995
0.9997
0.9988
0.9991
0.9994
0.9996
0.9997
0.9988
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9997
0.9998
Quantile λp = Φ−1 (p) der Standardnormalverteilung
p
0.9
0.95
0.975
0.99
0.995
0.999
λp
1.28
1.645
1.96
2.33
2.58
3.09
c
°V.
Steinmetz: Grundzüge der Statistik
–221–
C.2 Quantile der t-Verteilungen
α
0
1−α
tα,k
Die Tabelle gibt tα,k an in Abhängigkeit von α und der Zahl k der Freiheitsgrade.
α
0.85
0.90
0.95
0.975
0.99
0.995
0.9995
1
2
3
4
5
1.963
1.386
1.250
1.190
1.156
3.078
1.886
1.638
1.533
1.476
6.314
2.920
2.353
2.132
2.015
12.706
4.303
3.182
2.776
2.571
31.821
6.965
4.541
3.747
3.365
63.657
9.925
5.841
4.604
4.032
636.619
31.599
12.924
8.610
6.869
6
7
8
9
10
1.134
1.119
1.108
1.100
1.093
1.440
1.415
1.397
1.383
1.372
1.943
1.895
1.860
1.833
1.812
2.447
2.365
2.306
2.262
2.228
3.143
2.998
2.896
2.821
2.764
3.707
3.499
3.355
3.250
3.169
5.959
5.408
5.041
4.781
4.587
11
12
13
14
15
1.088
1.083
1.079
1.076
1.074
1.363
1.356
1.350
1.345
1.341
1.796
1.782
1.771
1.761
1.753
2.201
2.179
2.160
2.145
2.131
2.718
2.681
2.650
2.624
2.602
3.106
3.055
3.012
2.977
2.947
4.437
4.318
4.221
4.140
4.073
16
17
18
19
20
1.071
1.069
1.067
1.066
1.064
1.337
1.333
1.330
1.328
1.325
1.746
1.740
1.734
1.729
1.725
2.120
2.110
2.101
2.093
2.086
2.583
2.567
2.552
2.539
2.528
2.921
2.898
2.878
2.861
2.845
4.015
3.965
3.922
3.883
3.850
21
22
23
24
25
1.063
1.061
1.060
1.059
1.058
1.323
1.321
1.319
1.318
1.316
1.721
1.717
1.714
1.711
1.708
2.080
2.074
2.069
2.064
2.060
2.518
2.508
2.500
2.492
2.485
2.831
2.819
2.807
2.797
2.787
3.819
3.792
3.768
3.745
3.725
26
27
28
29
30
1.058
1.057
1.056
1.055
1.055
1.315
1.314
1.313
1.311
1.310
1.706
1.703
1.701
1.699
1.697
2.056
2.052
2.048
2.045
2.042
2.479
2.473
2.467
2.462
2.457
2.779
2.771
2.763
2.756
2.750
3.707
3.690
3.674
3.659
3.646
40
60
120
1.050
1.045
1.041
1.303
1.296
1.289
1.684
1.671
1.658
2.021
2.000
1.980
2.423
2.390
2.358
2.704
2.660
2.617
3.551
3.460
3.373
n
–222–
C.3 Quantile der χ2 -Verteilungen
α
1−α
0
χ2α,k
Die Tabelle gibt χ2α,k an in Abhängigkeit von α und der Zahl k der Freiheitsgrade.
α
0.01
0.025
0.05
0.5
0.90
0.95
0.975
0.99
1
2
3
4
5
0.000
0.020
0.115
0.297
0.554
0.001
0.050
0.216
0.484
0.831
0.004
0.103
0.352
0.711
1.146
0.455
1.386
2.366
3.357
4.352
2.706
4.605
6.251
7.779
9.236
3.842
5.992
7.815
9.488
11.070
5.024
7.378
9.348
11.143
12.833
6.635
9.210
11.345
13.277
15.086
6
7
8
9
10
0.872
1.239
1.647
2.088
2.558
1.237
1.690
2.180
2.700
3.247
1.635
2.167
2.733
3.325
3.940
5.348
6.346
7.344
8.343
9.342
10.645
12.017
13.362
14.684
15.987
12.592
14.067
15.507
16.919
18.307
14.449
16.013
17.535
19.023
20.483
16.812
18.475
20.090
21.666
23.209
11
12
13
14
15
3.054
3.571
4.107
4.660
5.229
3.816
4.404
5.009
5.629
6.262
4.575
5.226
5.892
6.571
7.261
10.341
11.340
12.340
13.339
14.339
17.275
18.549
19.812
21.064
22.307
19.675
21.026
22.362
23.685
24.996
21.920
23.337
24.736
26.119
27.488
24.725
26.217
27.688
29.141
30.578
16
17
18
19
20
5.812
6.408
7.015
7.633
8.260
6.908
7.564
8.231
8.907
9.591
7.962
8.672
9.391
10.117
10.851
15.338
16.338
17.338
18.338
19.337
23.542
24.769
25.989
27.204
28.412
26.296
27.587
28.869
30.144
31.410
28.845
30.191
31.526
32.852
34.170
32.000
33.409
34.805
36.191
37.566
21
22
23
24
25
8.897
9.543
10.196
10.856
11.524
10.283
10.982
11.689
12.401
13.120
11.591
12.338
13.091
13.848
14.611
20.337
21.337
22.337
23.337
24.337
29.615
30.813
32.007
33.196
34.382
32.671
33.924
35.172
36.415
37.652
35.479
36.781
38.076
39.364
40.646
38.932
40.289
41.638
42.980
44.314
26
27
28
29
30
12.198
12.879
13.565
14.256
14.953
13.844
14.573
15.308
16.047
16.791
15.379
16.151
16.928
17.708
18.493
25.336
26.336
27.336
28.336
29.336
35.563
36.741
37.916
39.087
40.256
38.885
40.113
41.337
42.557
43.773
41.923
43.195
44.461
45.722
46.979
45.642
46.963
48.278
49.588
50.892
n
c
°V.
Steinmetz: Grundzüge der Statistik
–223–
C.4 Tabelle zur Poissonverteilung
Qλ (x) =
x
X
λi
i=0
i!
e−λ ,
x ∈ N0
x λ = 0.1 λ = 0.2 λ = 0.3 λ = 0.4 λ = 0.5 λ = 0.6 λ = 0.7 λ = 0.8 λ = 0.9 λ = 1.0
0 .9048
.8187
.7408
.6703
.6065
.5488
.4966
.4493
.4066
.3679
1 .9953
.9825
.9631
.9384
.9098
.8781
.8442
.8088
.7725
.7358
2 .9998
.9989
.9964
.9921
.9856
.9769
.9659
.9526
.9371
.9197
3
1.0
.9999
.9997
.9992
.9982
.9966
.9942
.9909
.9865
.9810
4
1.0
1.0
1.0
.9999
.9998
.9996
.9992
.9986
.9977
.9963
5
1.0
1.0
1.0
1.0
1.0
1.0
.9999
.9998
.9997
.9994
6
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.9999
7
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
8
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
x λ = 1.5 λ = 2.0 λ = 2.5 λ = 3.0 λ = 3.5 λ = 4.0 λ = 4.5 λ = 5.0 λ = 5.5 λ = 6.0
0
.2231
.1353
.0821
.0498
.0302
.0183
.0111
.0067
.0041
.0025
1
.5578
.406
.2873
.1991
.1359
.0916
.0611
.0404
.0266
.0174
2
.8088
.6767
.5438
.4232
.3208
.2381
.1736
.1247
.0884
.0620
3
.9344
.8571
.7576
.6472
.5366
.4335
.3423
.2650
.2017
.1512
4
.9814
.9473
.8912
.8153
.7254
.6288
.5321
.4405
.3575
.2851
5
.9955
.9834
.958
.9161
.8576
.7851
.7029
.6160
.5289
.4457
6
.9991
.9955
.9858
.9665
.9347
.8893
.8311
.7622
.6860
.6063
7
.9998
.9989
.9958
.9881
.9733
.9489
.9134
.8666
.8095
.7440
8
1.0
.9998
.9989
.9962
.9901
.9786
.9597
.9319
.8944
.8472
9
1.0
1.0
.9997
.9989
.9967
.9919
.9829
.9682
.9462
.9161
10
1.0
1.0
.9999
.9997
.9990
.9972
.9933
.9863
.9747
.9574
11
1.0
1.0
1.0
.9999
.9997
.9991
.9976
.9945
.9890
.9799
12
1.0
1.0
1.0
1.0
.9999
.9997
.9992
.9980
.9955
.9912
13
1.0
1.0
1.0
1.0
1.0
.9999
.9997
.9993
.9983
.9964
14
1.0
1.0
1.0
1.0
1.0
1.0
.9999
.9998
.9994
.9986
15
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.9999
.9998
.9995
16
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.9999
.9998
17
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.9999
18
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
19
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
c
°V.
Steinmetz: Grundzüge der Statistik
–224–
C.5 Quantile der F -Verteilungen
0.95
0.05
0
F0.95;m,n
Die Tabelle gibt F0.95;m,n an in Abhängigkeit von der Zahl m der Freiheitsgrade
des Zählers und der Zahl n der Freiheitsgrade des Nenners.
m
n
1
2
3
4
5
6
7
8
9
10
1
2
3
4
5
161.45
18.51
10.13
7.71
6.61
199.50 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.39 19.40
9.55
9.28
9.12
9.01
8.94
8.89
8.85
8.81
8.79
6.94
6.59
6.39
6.26
6.16
6.09
6.04
6.00
5.96
5.79
5.41
5.19
5.05
4.95
4.88
4.82
4.77
4.74
6
7
8
9
10
5.99
5.59
5.32
5.12
4.96
5.14
4.74
4.46
4.26
4.10
4.76
4.35
4.07
3.86
3.71
4.53
4.12
3.84
3.63
3.48
4.39
3.97
3.69
3.48
3.33
4.28
3.87
3.58
3.37
3.22
4.21
3.79
3.50
3.29
3.14
4.15
3.73
3.44
3.23
3.07
4.10
3.68
3.39
3.18
3.02
4.06
3.64
3.35
3.14
2.98
11
12
13
14
15
4.84
4.75
4.67
4.60
4.54
3.98
3.89
3.81
3.74
3.68
3.59
3.49
3.41
3.34
3.29
3.36
3.26
3.18
3.11
3.06
3.20
3.11
3.03
2.96
2.90
3.09
3.00
2.92
2.85
2.79
3.01
2.91
2.83
2.76
2.71
2.95
2.85
2.77
2.70
2.64
2.90
2.80
2.71
2.65
2.59
2.85
2.75
2.67
2.60
2.54
16
17
18
19
20
4.49
4.45
4.41
4.38
4.35
3.63
3.59
3.55
3.52
3.49
3.24
3.20
3.16
3.13
3.10
3.01
2.96
2.93
2.90
2.87
2.85
2.81
2.77
2.74
2.71
2.74
2.70
2.66
2.63
2.60
2.66
2.61
2.58
2.54
2.51
2.59
2.55
2.51
2.48
2.45
2.54
2.49
2.46
2.42
2.39
2.49
2.45
2.41
2.38
2.35
21
22
23
24
25
4.32
4.30
4.28
4.26
4.24
3.47
3.44
3.42
3.40
3.39
3.07
3.05
3.03
3.01
2.99
2.84
2.82
2.80
2.78
2.76
2.68
2.66
2.64
2.62
2.60
2.57
2.55
2.53
2.51
2.49
2.49
2.46
2.44
2.42
2.40
2.42
2.40
2.37
2.36
2.34
2.37
2.34
2.32
2.30
2.28
2.32
2.30
2.27
2.25
2.24
30
40
60
120
∞
4.17
4.08
4.00
3.92
3.84
3.32
3.23
3.15
3.07
3.00
2.92
2.84
2.76
2.68
2.60
2.69
2.61
2.53
2.45
2.37
2.53
2.45
2.37
2.29
2.21
2.42
2.34
2.25
2.18
2.10
2.33
2.25
2.17
2.09
2.01
2.27
2.18
2.10
2.02
1.94
2.21
2.12
2.04
1.96
1.88
2.16
2.08
1.99
1.91
1.83
–225–
0.95
0.05
0
F0.95;m,n
Die Tabelle gibt F0.95;m,n an in Abhängigkeit von der Zahl m der Freiheitsgrade
des Zählers und der Zahl n der Freiheitsgrade des Nenners.
m
n
12
15
20
25
30
35
40
60
120
∞
1
2
3
4
5
244.90
19.41
8.74
5.91
4.68
245.95 248.01 249.26 250.1 250.69 251.14 252.2 253.25 254.31
19.43 19.45 19.46 19.46 19.47 19.47 19.48 19.49 19.50
8.70
8.66
8.63 8.62
8.60
8.59 8.57
8.55
8.53
5.86
5.80
5.77 5.75
5.73
5.72 5.69
5.66
5.63
4.62
4.56
4.52 4.50
4.48
4.46 4.43
4.40
4.37
6
7
8
9
10
4.00
3.57
3.28
3.07
2.91
3.94
3.51
3.22
3.01
2.85
3.87
3.44
3.15
2.94
2.77
3.83
3.40
3.11
2.89
2.73
3.81
3.38
3.08
2.86
2.70
3.79
3.36
3.06
2.84
2.68
3.77
3.34
3.04
2.83
2.66
3.74
3.30
3.01
2.79
2.62
3.70
3.27
2.97
2.75
2.58
3.67
3.23
2.93
2.71
2.54
11
12
13
14
15
2.79
2.69
2.60
2.53
2.48
2.72
2.62
2.53
2.46
2.40
2.65
2.54
2.46
2.39
2.33
2.60
2.50
2.41
2.34
2.28
2.57
2.47
2.38
2.31
2.25
2.55
2.44
2.36
2.28
2.22
2.53
2.43
2.34
2.27
2.20
2.49
2.38
2.30
2.22
2.16
2.45
2.34
2.25
2.18
2.11
2.40
2.30
2.21
2.13
2.07
16
17
18
19
20
2.42
2.38
2.34
2.31
2.28
2.35
2.31
2.27
2.23
2.20
2.28
2.23
2.19
2.16
2.12
2.23
2.18
2.14
2.11
2.07
2.19
2.15
2.11
2.07
2.04
2.17
2.12
2.08
2.05
2.01
2.15
2.10
2.06
2.03
1.99
2.11
2.06
2.02
1.98
1.95
2.06
2.01
1.97
1.93
1.90
2.01
1.96
1.92
1.88
1.84
21
22
23
24
25
2.25
2.23
2.20
2.18
2.16
2.18
2.15
2.13
2.11
2.09
2.11
2.07
2.05
2.03
2.01
2.05
2.02
2.00
1.97
1.96
2.01
1.98
1.96
1.94
1.92
1.98
1.96
1.93
1.91
1.89
1.96
1.94
1.91
1.89
1.87
1.92
1.89
1.86
1.84
1.82
1.87
1.84
1.81
1.79
1.77
1.81
1.78
1.76
1.73
1.71
30
40
60
120
∞
2.09
2.00
1.92
1.83
1.75
2.01
1.92
1.53
1.43
1.67
1.93
1.84
1.50
1.39
1.57
1.88
1.78
1.48
1.37
1.51
1.84
1.74
1.47
1.35
1.46
1.81
1.72
1.46
1.34
1.42
1.79
1.69
1.45
1.33
1.39
1.74
1.64
1.53
1.43
1.32
1.68
1.58
1.47
1.35
1.22
1.62
1.51
1.39
1.25
1.00
–226–
C.6 (Pseudo-)Zufallszahlen
03
97
16
12
55
47
74
76
56
59
43
24
62
85
56
73
67
27
99
35
86
62
66
26
64
36
42
56
96
38
96
81
50
96
54
47
14
26
68
82
36
57
71
27
46
61
20
07
31
22
46
42
32
05
31
98
53
90
03
62
63
32
79
72
43
71
37
78
93
09
62
32
53
15
90
33
27
13
57
06
26
07
55
12
18
16
36
38
10
44
80
07
58
14
32
45
51
59
21
53
16
84
63
33
57
22
42
01
21
60
77
17
63
12
86
94
53
78
34
31
39
31
59
29
44
49
57
16
78
09
54
24
95
64
47
43
55
55
56
27
54
06
67
07
96
82
88
19
82
54
17
77
98
52
49
37
04
10
42
17
93
74
50
07
46
23
47
71
44
09
78
67
75
38
62
87
21
12
15
90
35
76
86
51
52
20
33
73
00
84
96
50
58
13
77
43
25
07
42
27
18
26
23
52
37
18
62
42
36
85
07
38
40
28
94
92
97
64
19
35
46
75
74
95
12
44
84
82
50
83
17
16
97
92
39
16
07
77
26
50
58
44
77
11
08
09
99
81
97
30
79
83
07
00
42
83
11
45
56
34
86
46
32
76
07
19
32
14
31
96
62
24
08
38
88
06
20
32
80
54
76
14
98
22
42
50
85
94
02
06
03
88
07
53
87
10
45
72
53
98
70
56
99
16
31
29
62
49
08
16
17
18
57
15
93
12
37
22
04
32
13
35
77
72
43
40
96
88
33
50
33
83
42
27
27
20
50
95
14
89
38
87
45
34
87
26
75
72
09
19
13
97
16
45
20
89
12
64
59
15
51
25
36
34
37
03
93
16
68
00
74
47
00
49
49
17
70
04
12
52
76
33
43
72
85
37
24
18
07
66
13
03
66
34
60
04
54
79
45
44
68
74
27
00
29
34
57
43
39
94
30
25
37
68
98
13
65
86
29
94
70
76
53
61
24
55
59
48
66
68
74
29
55
37
49
30
97
90
32
69
77
68
65
20
10
40
60
72
30
82
44
71
96
77
53
22
91
57
84
75
78
38
69
57
91
84
67
36
03
93
26
54
10
29
30
04
13
96
10
34
33
58
46
45
25
46
18
92
65
20
09
24
42
04
57
52
76
45
26
27
16
11
35
38
31
90
27
24
23
96
82
94
10
16
25
66
75
16
86
91
59
06
20
38
47
83
06
33
42
96
62
09
32
38
44
64
19
51
79
33
11
74
26
01
49
12
66
38
50
13
67
02
79
87
34
19
94
78
75
86
00
37
45
66
82
71
34
04
81
53
74
02
91
41
91
60
76
16
40
00
47
70
92
01
52
21
90
53
74
43
29
30
56
91
48
68
86
16
62
85
c
°V.
Steinmetz: Grundzüge der Statistik
–227–
66
14
68
20
64
67
90
05
46
19
40
84
51
78
58
67
45
18
73
97
14
11
00
90
79
64
75
33
97
15
05
73
96
51
06
71
88
02
40
15
95
05
75
14
93
86
90
19
02
20
11
52
07
04
01
05
27
60
02
90
65
41
62
33
10
09
14
93
31
75
68
86
55
08
06
76
22
59
39
40
83
98
33
54
78
20
12
82
16
78
37
22
43
49
89
90
08
90
36
62
05
07
68
26
14
26
97
71
99
65
93
10
86
61
52
70
88
85
65
68
60
23
85
53
75
22
09
54
58
87
35
98
87
37
59
85
42
66
78
36
15
99
47
80
22
13
64
54
70
41
92
61
73
42
26
03
71
32
10
78
51
62
08
50
63
59
99
11
67
06
77
15
12
42
55
59
06
44
32
13
56
51
95
17
08
78
29
92
55
27
06
16
63
85
01
83
93
16
74
50
17
90
41
60
91
53
26
23
20
25
77
59
52
50
38
58
21
55
81
05
71
19
99
69
90
71
23
31
31
94
41
52
04
99
58
61
23
49
73
28
50
33
69
68
41
72
12
96
68
36
12
96
10
35
45
41
93
47
81
37
94
02
48
33
59
96
18
45
03
03
26
39
88
76
09
44
07
13
24
90
95
02
41
30
35
27
18
43
12
57
36
36
89
48
29
99
07
20
60
12
c
°V.
Steinmetz: Grundzüge der Statistik
–228–
C.7 Spielanleitung zum Roulette
c
°V.
Steinmetz: Grundzüge der Statistik
–229–
Bild
Bezeichnung
Beschreibung
Gewinn
STRAIGHT UP
Eine volle Zahl
35-facher Einsatz
SPLIT
Mit zwei verbundenen Zahlen
17-facher Einsatz
STREET
Querreihe - 3 Zahlen
11-facher Einsatz
CORNER
Vier Zahlen im Viereck
oder vier Zahlen
8-facher Einsatz
DOZEN
12 Zahlen
(1-12, 13-24, 25-36)
2-facher Einsatz
EVEN CHANCES Even, Odd, Black, Red,
1-18, 19-36
1-facher Einsatz
SIX LINE
Zwei Querreihen
5-facher Einsatz
COLUMN
Von 12 Zahlen vertikal
(1-34, 2-35, 3-36)
2-facher Einsatz
c
°V.
Steinmetz: Grundzüge der Statistik
–230–
Formelsammlung zu den Diplomprüfungsklausuren
Grundzüge der Statistik Teil A und Teil B
Die Formelsammlung soll nur Gedächtnisstütze sein, Interpretationsmöglichkeiten
und Geltungsbereich der Formeln werden als bekannt vorausgesetzt.
³n´
n!
(n)r :=
;
(n − r)!
r
:=
n!
(n − r)!r!
zu den geordneten Proben (Variationen) ohne Wiederholung Vnr = (n)r
zu den geordneten Proben (Variationen) mit Wiederholung w Vnr = nr
³n´
zu den ungeordneten Proben (Kombinationen) ohne Wiederholung Cnr =
r
µ
¶
n+r−1
w r
zu den ungeordneten Proben (Kombinationen) mit Wiederholung Cn =
r
zum Multiplikationssatz:
P (A1 ∩...∩An ) = P (A1 )·P (A2 | A1 )·P (A3 | A1 ∩A2 )·...·P (An | A1 ∩. . .∩An−1 )
zum Satz von der totalen Wahrscheinlichkeit:
P (B) =
P
j
P (B | Aj ) · P (Aj )
zum Satz von Bayes:
P (B | Ak ) · P (Ak )
P (Ak | B) = P
P (B | Aj ) · P (Aj )
j
zur Binomialverteilung (B(n, p)):
pi = QX {i} =
¡n¢
i
pi (1 − p)n−i ; EX = np ; Var X = np(1 − p)
zur Hypergeometrischen Verteilung:
¡M ¢ ¡N −M ¢
·
pi = QX {i} = i ¡N ¢n−i ; EX = n ·
n
c
°V.
Steinmetz: Grundzüge der Statistik
M
;
N
Var X = n ·
M
N
· (1 −
M
)
N
·
N −n
N −1
–231–
zur Poisson-Verteilung:
pi = QX {i} =
λi −λ
e ; λ > 0;
i!
EX = λ ;
zur Exponentialverteilung:
¾
½
a · e−ax für
x≥0
fX (x) =
0
sonst
Var X = λ
a > 0;
EX =
1
;
a
Var X =
zur Verteilungsfunktion FX (.) :
QX {a} = FX (a) − FX (a − 0) ; QX ]a, b[= FX (b − 0) − FX (a);
QX [a, b] = FX (b) − FX (a − 0) ; QX [a, b[= FX (b − 0) − FX (a − 0);
QX ] − ∞, b] = FX (b) ; QX ] − ∞, b[= FX (b − 0);
QX ]a, ∞[= 1 − FX (a) ; QX [a, ∞[= 1 − FX (a − 0)
zur Transformation Y = aX + b :

y−b
für a > 0
 FX ( a )
;
FY (y) =

y−b
1 − FX ( a − 0) für a < 0
1
· fX ( y−b
fY (y) =
)
a
|a|
zur Ungleichung von Tschebyscheff:
P {|X − µ| ≥ ε} ≤
σ2
für alle ε > 0
ε2
zur Konsistenz:
lim P {|δn − ϑ| ≥ ε} = 0 für alle ϑ ∈ Θ.
n→∞
zur Verteilungsfunktion bei l Klassen:
Kj =]kj , kj+1 ]; Klassenbreite: Bj = kj+1 − kj ;
Klassenmitte: mj =
F ∗ (y) = F ∗ (kj ) +
kj + kj+1
; QK {mj } = QY ]kj , kj+1 ];
2
QK {mj }
Bj
· (y − kj ) für kj < y ≤ kj+1 ;
c
°V.
Steinmetz: Grundzüge der Statistik
1
a2
–232–
zum Test über µ bei bekanntem σ02 einer N (µ, σ02 )-verteilten Zufallsvariablen:
N0 =
x̄ − µ0 √
n
σ0
zum Test über µ bei unbekanntem σ 2 einer N (µ, σ 2 )-verteilten Zufallsvariablen:
t0 =
x̄ − µ0 √
· n ; s2 =
s
1
n−1
n − 1 Zahl der Freiheitsgrade
P
(xi − x̄)2
zum exakten Test über p einer alternativ-verteilten Zufallsvariablen:
n
P
b0 =
xi
i=1
zum Test über p einer alternativ-verteilten Zufallsvariablen bei Normalverteilungsapproximation ohne Stetigkeitskorrektur:
P
√
p̂ − p0
xi
· n , p̂ =
b0 = p
n
p0 (1 − p0 )
approximatives Konfidenzintervall für p :
#
"
p
p
p̂(1 − p̂)
p̂(1 − p̂)
√
√
p̂ − λ1− α2 ·
, p̂ + λ1− α2 ·
n
n
zum Chi-Quadrat-Anpassungstest:
Ã
!
◦
2
r (ν − n p )2
r
P
P
ν
k
k
k
χ20 =
=
−n
◦
◦
k=1
k=1 n pk
n pk
zum Test über µ1 , µ2 einer zweidimensional normalverteilten Zufallsvariablen
bei verbundenen Stichproben:
t0 =
z̄ − ϑ √
· n , zi = x1i − x2i , s2 =
s
n − 1 Zahl der Freiheitsgrade
1
n−1
n
P
i=1
(zi − z̄)2
zum Test über µ1 , µ2 zweier N (µ1 , σ 2 )- bzw. N (µ2 , σ 2 )-verteilten Zufallsvariablen bei unverbundenen Stichproben:
r
n1 n2 (n1 + n2 − 2)
x̄1 − x̄2 − ϑ
· qP n
t0 =
Pn
2
2
2 (x
1 (x
n1 + n 2
2i − x̄2 )
1i − x̄1 ) +
i=1
n1 + n2 − 2 Zahl der Freiheitsgrade
c
°V.
Steinmetz: Grundzüge der Statistik
i=1
–233–
zum Test über σ 2 einer N (µ, σ 2 )-verteilten Zufallsvariablen:
χ20 =
Σ(xi − x̄)2
(n − 1) · s2
=
; n − 1 Zahl der Freiheitsgrade
σ02
σ02
zum Test über σ12 , σ22 zweier N (µ1 , σ12 )- bzw. N (µ2 , σ22 )-verteilten Zufallsvariablen:
1 P
1 P
(x1i − x̄1 )2 ; s2 (x2 ) =
(x2i − x̄2 )2
n1 − 1
n2 − 1
s2 (x1 ) 1
F0 = 2
·
; n1 − 1 und n2 − 1 Zahl der Freiheitsgrade
s (x2 ) ϑ
s2 (x1 ) =
zum Wilcoxon-Rangsummentest bei unverbundenen Stichproben:
w0 −
z0 = q
n1 (n+1)
2
; w0 =
n1 n2 (n+1)
12
P
R1i (x) ; n = n1 + n2
zum Gini-Koeffizienten G und dem Herfindahl-Index H bei N Einzelwerten:
G = uN −1 −
2
=
N
P
i=1
NP
−1
j=1
(uj+1 − uj−1 ) · vj =
i · a(i) − (N + 1)
N·
N
P
a(i)
N
P
N −1
N
−
2
N
NP
−1
vj
j=1
a(i)
i=1
i=1
bei klassierten Daten:
k−1
P
(ũj+1 − ũj−1 ) · ṽj
G = ũk−1 −
j=1
·
¸2
N
P
ar
H=
N
r=1 P
as
s=1
zum Spearmanschen Rangkorrelationskoeffizienten:
6
Korrs (U, V ) = 1 −
N
P
r=1
(Rr (a) − Rr (b))2
(N − 1)N (N + 1)
c
°V.
Steinmetz: Grundzüge der Statistik
–234–
zur mittleren quadratischen Kontingenz und zum Pearsonschen Kontingenzkoeffizienten:
P P (hij − hi· · h·j )2
=
;
hi· · h·j
s
s
ϕ2U,V
min{L, M }
; Ckorr = C ·
C=
2
1 + ϕU,V
min{L, M } − 1
ϕ2U,V
zu den Preis-, Mengen- und Wertindizes:
P
P
pt (i)qt0 (i)
pt (i)qt (i)
L
P
Pt0 ,t = P
; Pt0 ,t = P
pt0 (i)qt0 (i)
pt0 (i)qt (i)
QLt0 ,t
P
P
P
qt (i)pt (i)
qt (i)pt (i)
qt (i)pt0 (i)
P
; Qt0 ,t = P
; Wt0 ,t = P
=P
qt0 (i)pt0 (i)
qt0 (i)pt (i)
qt0 (i)pt0 (i)
zum multiplen Regressionsmodell y = Xβ + u:
X : T × (n + 1) ; rg(X) = n + 1 ; (X 0 X)β̂ = X 0 y ;
û0 û
2
σ̂ =
T −n−1
σ̂ 2 (ŷ) ŷ 0 ŷ − T ȳ 2
β̂ 0 X 0 y − T ȳ 2
σ̂ 2 (û)
= 2 = 0
=
R =1− 2
σ̂ (y)
σ̂ (y) y y − T ȳ 2
y 0 y − T ȳ 2
2
zum Test über βk = βk∗ :
β̂k − βk∗
t0 = q
; T − n − 1 Zahl der Freiheitsgrade
2
σ̂ (β̂k )
zum Durbin-Watson-Test:
d=
T
P
t=2
(ût − ût−1 )2
T
P
û2t
t=1
c
°V.
Steinmetz: Grundzüge der Statistik
(X•0 = ι)
–235–
Index
Abbildung . . . . . . . . . . . . . . . . . . . . . . 1
-en eindimensionaler Zufallsvariablen . . . . . . . . . . . . . . . 50
-en von Stichprobenräumen . 34
bijektive - . . . . . . . . . . . . . . . . . . . . 2
identische - . . . . . . . . . . . . . . . . . . . 1
induzierte - . . . . . . . . . . . . . . . . . . . 3
induzierte inverse - . . . . . . . . . . . 4
injektive - . . . . . . . . . . . . . . . . . . . . 2
meßbare - . . . . . . . . . . . . . . . . . . . 34
surjektive - . . . . . . . . . . . . . . . . . . . 2
zusammengesetzte - . . . . . . . . . . 2
Abgangs
-einheiten . . . . . . . . . . . . . . . . . . . 90
-zeitpunkt . . . . . . . . . . . . . . . . . . . 92
Abrunden . . . . . . . . . . . . . . . . . . . . . . 93
Absolutglied . . . . . . . . . . . . . . . . . . 179
Abweichung
mittlere quadratische - . 73, 103
abzählbar . . . . . . . . . . . . . . . . . . . . . . 10
- unendlich . . . . . . . . . . . . . . . . . . . 9
Adjunktivität . . . . . . . . . . . . . . . . . 200
Algebra
σ-Algebra . . . . . . . . . . . . . . . . . . . 19
Allmenge . . . . . . . . . . . . . . . . . . . . . 198
Allquantor . . . . . . . . . . . . . . . . . . . . 194
Alternative . . . . . . . . . . . . . . . . . . . 148
Alternativtest . . . . . . . . . . . . . . . . . 148
Alternativverteilung . . . . . . . . . . . . 43
Annahmebereich . . . . . . . . . . . . . . 148
Anpassungstest . . . . . . . . . . . . . . . 169
Assoziativität . . . . . . . . . . . . . . . . . 200
Aufrunden . . . . . . . . . . . . . . . . . . . . . 94
Autokorrelation . . . . . . . . . . . . . . . 192
Basis . . . . . . . . . . . . . . . . . . . . . . . . . 207
-periode . . . . . . . . . . . . . . . . . . . . 127
-zeitpunkt . . . . . . . . . . . . . . . . . . 127
Baumdiagramm . . . . . . . . . . . . . . . . 30
Bayes (Satz) . . . . . . . . . . . . . . . . . . . 31
Beckersches Schema . . . . . . . . . . . . 92
Beobachtungswertmatrix . . . . . . 179
c
°V.
Steinmetz: Grundzüge der Statistik
Bereich
kritischer - . . . . . . . . . . . . . . . . . 148
Berichts
-periode . . . . . . . . . . . . . . . . . . . . 127
-zeitpunkt . . . . . . . . . . . . . . . . . . 127
Bestimmtheitsmaß
empirisches - . . . . . . . . . . . . . . . 186
Beta-Verteilung . . . . . . . . . . . . . . . . 46
Beziehungszahl . . . . . . . . . . . . . . . . 127
Bezugs
-periode . . . . . . . . . . . . . . . . . . . . 127
-zeitpunkt . . . . . . . . . . . . . . . . . . 127
Bias . . . . . . . . . . . . . . . . . . . . . . . . . . 143
Bijektion . . . . . . . . . . . . . . . . . . . . . . . . 2
bijektiv . . . . . . . . . . . . . . . . . . . . . . . . . 2
Bild . . . . . . . . . . . . . . . . . . . . . . . . . . 1, 3
- einer Zufallsvariablen . . . . . . 50
-menge . . . . . . . . . . . . . . . . . . . . . . . 3
-wahrscheinlichkeit . . . . . . . . . . 35
Bindungen . . . . . . . . . . . . . . . . . . . . 173
Binomialkoeffizient . . . . . . . . . . . . . 15
Binomialtest . . . . . . . . . . . . . . . . . . 161
-mit Normalverteilungsapproximation . . . . . . . . 162
Binomialverteilung B(n, p) 43, 63
Boolescher Mengenring . . . . . . . . . 21
Borelalgebra . . . . . . . . . . . . . . . . . . . 20
Box-Plot . . . . . . . . . . . . . . . . . . . . . . 104
Cantorsches Diagonalverfahren . 11
Charakterisierung . . . . . . . . . . . . . . 22
Chi-Quadrat
-Anpassungstest . . . . . . . . . . . . 169
-Test . . . . . . . . . . . . . . . . . . . . . . . 165
-Verteilung . . . . . . . . . . . . . 46, 159
modifizierter - Minimum Anpassungstest . . . . . . . 170
De Morgansche Gesetze . . . . . . . 199
Definitionsbereich . . . . . . . . . . . . . . . 1
Deflationierung . . . . . . . . . . . . . . . 131
Deskriptive Statistik . . . . . . . . . . . 89
Grundmodell der - . . . . . . . . . . 89
–236–
Diagonalverfahren von Cantor . . 11
Dichte(funktion) . . . . . . . . . . . . 41, 56
- einer n-dimensionalen
Zufallsvariablen . . . . . . . . 56
- einer eindimensionalen
Zufallsvariablen . . . . . . . . 41
bedingte - . . . . . . . . . . . . . . . . . . . 60
gemeinsame - . . . . . . . . . . . . . . . 56
Differenz
- zweier Mengen . . . . . . . . . . . . 198
symmetrische - . . . . . . . . . . . . . 199
diskret . . . . . . . . . . . . . . . . . . . . . 38, 40
Distributivität . . . . . . . . . . . . . . . . 199
Durbin-Watson-Test . . . . . . . . . . 192
Durchschnitt . . . . . . . . . . . . . . . . . . . . 6
- einer Familie von Teilmengen 6
- zweier Mengen . . . . . . . . . . . . 198
Einheiten
Abgangs- . . . . . . . . . . . . . . . . . . . . 90
Bestands- . . . . . . . . . . . . . . . . . . . 90
Bewegungs- . . . . . . . . . . . . . . . . . 90
Ereignis- . . . . . . . . . . . . . . . . . . . . 90
statistische - . . . . . . . . . . . . . . . . 89
Zugangs- . . . . . . . . . . . . . . . . . . . . 90
Einpunktverteilung . . . . . . . . . 43, 66
Einschränkung . . . . . . . . . . . . . . . . . 21
Element . . . . . . . . . . . . . . . . . . . . . . 194
Anzahl der -e . . . . . . . . . . . . . . . . . 9
Elementarereignis . . . . . . . . . . . . . . 24
endlich . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Ereignis . . . . . . . . . . . . . . . . . . . . . . . . 22
P -fast sicheres - . . . . . . . . . . . . . 27
P -fast unmögliches - . . . . . . . . 27
-raum . . . . . . . . . . . . . . . . . . . . . . . 22
durch Bedingungen über X
bestimmtes - . . . . . . . . . . . 38
sicheres - . . . . . . . . . . . . . . . . . . . . 27
stochastisch unabhängige -se 32
unmögliches - . . . . . . . . . . . . . . . 27
Ergebnis . . . . . . . . . . . . . . . . . . . . . . . 22
-raum . . . . . . . . . . . . . . . . . . . . . . . 22
Erlang-Verteilung . . . . . . . . . . . . . . 46
Erwartungswert . . . . . . . . . . . . . . . . 66
c
°V.
Steinmetz: Grundzüge der Statistik
- einer diskreten
Zufallsvariablen . . . . . . . . 66
- einer stetigen
Zufallsvariablen . . . . . . . . 66
Erzeugendensystem . . . . . . . 20, 207
Existenzquantor . . . . . . . . . . . . . . 194
Exponentialverteilung . . . . . . . . . . 46
Exzeß . . . . . . . . . . . . . . . . . . . . . . . . . . 71
F -Test . . . . . . . . . . . . . . . . . . . 165, 167
F -Verteilung . . . . . . . . . 47, 166, 224
Familie . . . . . . . . . . . . . . . . . . . . . . . . . . 6
- von σ-Algebren . . . . . . . . . . . . 20
- von Ereignissen . . . . . . . . . . . . 33
- von Teilmengen . . . . . . . . . . . . . 6
Fehler
- 1.Art . . . . . . . . . . . . . . . . . . . . . 149
- 2.Art . . . . . . . . . . . . . . . . . . . . . 149
-wahrscheinlichkeit
- 1.Art . . . . . . . . . . . . . . . . . . 149
- 2.Art . . . . . . . . . . . . . . . . . . 149
Folge . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Fortschreibungsformeln . . . . . . . . . 91
Fragestellung
einseitige - . . . . . . . . . . . . . . . . . 152
zweiseitige - . . . . . . . . . . . . . . . . 152
Fraktil, p-Fraktil . . . . . . . . . . . . . . . 82
Funktion
uneigentlich integrierbare - . . 42
Gamma-Verteilung . . . . . . . . . . . . . 45
Gauß-Markoff (Satz) . . . . . . . . . . 189
Gauß-Test . . . . . . . . . . . . . . . . . . . . 152
Gaußverteilung N (0, 1) 44, 47, 219
GdS . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Gegenhypothese . . . . . . . . . . . . . . 148
Geometrische Verteilung . . . . . . . 44
Gesetz
De Morgansche -e . . . . . . . . . . 199
schwaches der großen Zahlen . . . . . . 86
Gini-Koeffizient . . . . . . . . . . . . . . . 121
normierter - . . . . . . . . . . . . . . . . 121
gleichmächtig . . . . . . . . . . . . . . . . . . . 9
Gleichverteilung
diskrete - . . . . . . . . . . . . . . . . . . . . 43
–237–
stetige - . . . . . . . . . . . . . . . . . . . . . 44
Gliederungszahl . . . . . . . . . . . . . . . 127
Graph . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Grenzwertsatz
- von de Moivre
und Laplace . . . . . . . . . . . . 87
zentraler - . . . . . . . . . . . . . . . . . . . 87
Grundannahme der Statistik
erste - . . . . . . . . . . . . . . . . . . . . . 132
dritte - . . . . . . . . . . . . . . . . . . . . . 133
zweite - . . . . . . . . . . . . . . . . . . . . 132
Grundgesamtheit . . . . . . . . . . . 22, 89
Grundmodell der deskriptiven
Statistik . . . . . . . . . . . . . . . . 89
gültige Ziffern . . . . . . . . . . . . . . . . . . 93
Gütefunktion . . . . . . . . . . . . . . . . . 156
Häufigkeit
empirische - . . . . . . . . . . . . . . . . 169
relative - . . . . . . . . . . . . . . . . . . . . 23
theoretische - . . . . . . . . . . . . . . 169
Häufigkeits
-tabelle . . . . . . . . . . . . . . . . . . . . . 95
-verteilung
eindimensionale - . . . . . . . . . 95
zweidimensionale - . . . . . . 106
Hauptdiagonale . . . . . . . . . . . . . . . 202
Herfindahl-Index . . . . . . . . . . . . . . 124
Histogramm . . . . . . . . . . . . . . . . . . . . 98
Hypergeometrische Verteilung . . 43
Hypothese
einfache - . . . . . . . . . . . . . . . . . . 148
zusammengesetzte - . . . . . . . . 148
Idealindex . . . . . . . . . . . . . . . . . . . . 129
Idempotenz . . . . . . . . . . . . . . . . . . . 199
Identität . . . . . . . . . . . . . . . . . . . 1, 199
Indexmenge . . . . . . . . . . . . . . . . . . . . . 6
Indexzahlen . . . . . . . . . . . . . . . . . . . 129
Indikatorfunktion . . . . . . . . . . . . . 171
Induktion
vollständige - . . . . . . . . . . . . . . . . 13
Induktions
-beginn . . . . . . . . . . . . . . . . . . . . . 13
-behauptung . . . . . . . . . . . . . . . . 14
-beweis . . . . . . . . . . . . . . . . . . . . . . 14
c
°V.
Steinmetz: Grundzüge der Statistik
-voraussetzung . . . . . . . . . . . . . . 13
Injektion . . . . . . . . . . . . . . . . . . . . . . . . 2
injektiv . . . . . . . . . . . . . . . . . . . . . . . . . 2
Intervall
abgeschlossenes - . . . . . . . . . . . 196
halboffenes - . . . . . . . . . . . . . . . 196
offenes - . . . . . . . . . . . . . . . . . . . . 196
Inverse . . . . . . . . . . . . . . . . . . . . . 3, 210
induzierte - . . . . . . . . . . . . . . . . . . . 4
kartesisches Produkt . . . . . . . . . . 201
Klassen
-breite . . . . . . . . . . . . . . . . . . . . . . 97
-mitte . . . . . . . . . . . . . . . . . . . . . . . 97
-mittelpunkt . . . . . . . . . . . . . . . . 99
Klassierung . . . . . . . . . . . . . . . . . . . . 97
Darstellung einer - . . . . . . . . . . 98
Kleinst-Quadrat-Schätzung . . . . 181
Koeffizient
eigentlicher Regressions- . . . . 179
Gini- . . . . . . . . . . . . . . . . . . . . . . . 121
Konzentrations- . . . . . . . . . . . . 124
Korrelations- . . . . . . . . . . . . . . . . 78
normierter Gini- . . . . . . . . . . . 121
Regressions- . . . . . . . . . . . . . . . . 179
Spearmanscher Rangkorrelations- . . . . . . . . . . . . . . . . 110
Stichprobenkorrelations- . . . 141
Variations- . . . . . . . . . . . . . . . . . . 71
Kollektiv . . . . . . . . . . . . . . . . . . . . . . . 89
Kombination . . . . . . . . . . . . . . . . . . . 16
- mit Wiederholung . . . . . . . . . 17
- ohne Wiederholung . . . . . . . . 16
Kombinatorik . . . . . . . . . . . . . . . . . . 13
Kommutativität . . . . . . . . . . . . . . 199
Komplement . . . . . . . . . . . . . . . . . . 198
Komponente . . . . . . . . . . . . . . . . . . . 54
Konfidenz
-bereich . . . . . . . . . . . . . . . . . . . . 174
(1 − α)- . . . . . . . . . . . . . . . . . 174
-bereichsschätzung . . . . . . . . . 174
-intervall
zweiseitiges - . . . . . . . . . . . . 176
-schätzung . . . . . . . . . . . . . . . . . 174
konsistent . . . . . . . . . . . . . . . . . . . . . 144
–238–
Kontingenz
-Koeffizient nach Pearson . . 112
-Tabelle . . . . . . . . . . . . . . . . . . . . 107
korrigierter - Koeffizient
nach Pearson . . . . . . . . . . 112
mittlere quadratische - . . . . . 112
Konzentrations
-koeffizient . . . . . . . . . . . . . . . . . 124
-kurve . . . . . . . . . . . . . . . . . . . . . 124
-maße . . . . . . . . . . . . . . . . . . . . . . 115
Korrelationskoeffizient
- nach Bravais-Pearson . . . . . . 78
Spearmanscher - . . . . . . . . . . . 110
Kovarianz . . . . . . . . . . . . . . . . . . . . . . 74
-zerlegungssatz . . . . . . . . . . . . . . 75
KQ
- Residuum . . . . . . . . . . . . . . . . 181
- Schätzer . . . . . . . . . . . . . . . . . . 188
- Schätzung . . . . . . . . . . . . . . . . 181
Kritische Werte . . . . . . . . . . . . . . . 152
Kritischer Bereich . . . . . . . . . . . . . 148
Kurtosis . . . . . . . . . . . . . . . . . . . . . . . 71
Lageparameter . . . . . . . . . . . . . . . . . 83
λ − σ−Bereich . . . . . . . . . . . . . . . . . 85
Laplace
-sche Wahrscheinlichkeit . . . . . 24
-scher Wahrscheinlichkeitsraum . . . . . . . . . . . . . . . . . . . 24
Grenzwertsatz von de Moivre
und - . . . . . . . . . . . . . . . . . . . 87
Likelihood-Funktion . . . . . . 146, 147
logarithmierte - . . . . . . . . . . . . 146
linear
- abhängig . . . . . . . . . . . . . . . . . 207
- unabhängig . . . . . . . . . . . . . . . 207
Linearkombination . . . . . . . . . . . . 207
Logarithmische Normalverteilung 45
Lorenzkurve . . . . . . . . . . . . . . . . . . 115
approximative - . . . . . . . . . . . . 120
mächtiger . . . . . . . . . . . . . . . . . . . . . . 11
Mächtigkeit . . . . . . . . . . . . . . . . . . . . . 9
Masse
Abgangs- . . . . . . . . . . . . . . . . . . . . 90
Bestands- . . . . . . . . . . . . . . . . . . . 91
c
°V.
Steinmetz: Grundzüge der Statistik
Bewegungs- . . . . . . . . . . . . . . . . . 90
Ereignis- . . . . . . . . . . . . . . . . . . . . 90
statistische - . . . . . . . . . . . . . . . . 89
Zugangs- . . . . . . . . . . . . . . . . . . . . 90
Matrix
Block- . . . . . . . . . . . . . . . . . . . . . 211
definite - . . . . . . . . . . . . . . . . . . . 215
Determinante einer - . . . . . . . 209
Diagonal- . . . . . . . . . . . . . . . . . . 203
Dreiecksobere - . . . . . . . . . . . . . . . . . . 203
untere - . . . . . . . . . . . . . . . . . 203
Einheits- . . . . . . . . . . . . . . . . . . . 203
Eins- . . . . . . . . . . . . . . . . . . . . . . . 203
idempotente - . . . . . . . . . . . . . . 214
inverse - . . . . . . . . . . . . . . . . . . . 210
invertierbare - . . . . . . . . . . . . . . 210
negativ definite - . . . . . . . . . . . 215
negativ semidefinite - . . . . . . 215
Null- . . . . . . . . . . . . . . . . . . . . . . . 203
obere Dreiecks- . . . . . . . . . . . . 203
orthogonale - . . . . . . . . . . . . . . . 214
positiv definite - . . . . . . . . . . . 215
positiv semidefinite - . . . . . . . 215
quadratische - . . . . . . . . . . . . . . 202
Rang einer - . . . . . . . . . . . . . . . 208
reguläre - . . . . . . . . . . . . . . . . . . 208
skalare Multiplikation mit
einer - . . . . . . . . . . . . . . . . . 205
Spur einer - . . . . . . . . . . . . . . . . 213
symmetrische - . . . . . . . . . . . . . 203
Teil- . . . . . . . . . . . . . . . . . . . . . . . 211
transponierte - . . . . . . . . . . . . . 203
untere Dreiecks- . . . . . . . . . . . . 203
unterteilte - . . . . . . . . . . . . . . . . 211
Varianz-Kovarianz- . . . . . . . . . 217
- von Zufallsvariablen . . . . . . 216
Zufalls- . . . . . . . . . . . . . . . . . . . . 216
Matrizen
-rechnung . . . . . . . . . . . . . . . . . . 202
Produkt von - . . . . . . . . . . . . . . 205
Summe von - . . . . . . . . . . . . . . . 205
Maximum-Likelihood
- Gleichungen . . . . . . . . . . . . . . 147
- Methode . . . . . . . . . . . . . . . . . 146
–239–
- Schätzfunktion . . . . . . . . . . . 146
- Schätzwert . . . . . . . . . . . . . . . 146
Median . . . . . . . . . . . . . . . . . . . . 82, 101
Menge . . . . . . . . . . . . . . . . . . . . . . . . 194
- der ganzen Zahlen . . . . 10, 196
- der natürlichen Zahlen . . . . 196
- der rationalen Zahlen . . . . . . 10
- der reellen Zahlen . . . . . 10, 196
abzählbar unendliche - . . . . . . 10
abzählbare - . . . . . . . . . . . . . . . . . 10
Anzahl der Elemente einer - . . 9
disjunkte -n . . . . . . . . . . . . . . . . 198
elementfremde -n . . . . . . . . . . . 198
endliche - . . . . . . . . . . . . . . . . . . . 12
gleiche -n . . . . . . . . . . . . . . . . . . 195
gleichmächtige -n . . . . . . . . . . . . . 9
kartesisches Produkt von -n 201
leere - . . . . . . . . . . . . . . . . . . . . . . . . 9
mächtigere - . . . . . . . . . . . . . . . . . 11
punktfremde -n . . . . . . . . . . . . 198
überabzählbare - . . . . . . . . . . . . 11
ungleiche -n . . . . . . . . . . . . . . . . 195
Mengen
-lehre . . . . . . . . . . . . . . . . . . . . . . 194
-operationen . . . . . . . . . . . . . . . 198
Boolescher -ring . . . . . . . . . . . . . 21
Merkmal
eindimensionales - . . . . . . . . . . . 95
häufbares - . . . . . . . . . . . . . . . . . . 93
identifizierendes - . . . . . . . . 22, 90
kardinalskaliertes, klassiertes - 104
kollektivbestimmendes - . . . . . 90
metrisch skaliertes - . . . . . . . . . 83
metrisches - . . . . . . . . . . . . . . . . . 83
nominal skaliertes - . . . . . . . . . . 83
nominales - . . . . . . . . . . . . . . . . . 83
ordinal skaliertes - . . . . . . . . . . . 83
ordinales - . . . . . . . . . . . . . . . . . . 83
statistisches - . . . . . . . . . . . . . . . 89
zweidimensionales - . . . . . . . . 106
Merkmals
-ausprägung . . . . . . . . . . . . . . . . . 89
-träger . . . . . . . . . . . . . . . . . . . . . . 89
meßbar . . . . . . . . . . . . . . . . . . . . . . . . 34
Meßzahl . . . . . . . . . . . . . . . . . . . . . . 127
c
°V.
Steinmetz: Grundzüge der Statistik
-enreihen . . . . . . . . . . . . . . . . . . . 128
Methode der kleinsten Quadrate 181
Mischungsparameter . . . . . . . . . . . 48
Mittel
-wert . . . . . . . . . . . . . . . . . . . . . . . . 66
arithmetisches - . . . . . . . . 72, 103
geometrisches - . . . . . . . . . . . . . 103
gewogenes arithmetisches - . . 73
harmonisches - . . . . . . . . . . . . . 103
Modalwert . . . . . . . . . . . . . . . . . . . . . 82
Modus . . . . . . . . . . . . . . . . . . . . 82, 101
Moivre de
Grenzwertsatz von und Laplace . . . . . . . . . . . . 87
Momente
- eindimensionaler Zufallsvariablen . . . . . . . . . . . . . . . 66
- um Null . . . . . . . . . . . . . . . . . . . 74
- zweidimensionaler Zufallsvariablen . . . . . . . . . . . . . . . 70
zentrale - . . . . . . . . . . . . . . . . . . . . 71
Multiplikationssatz . . . . . . . . . . . . . 28
n-Tupel . . . . . . . . . . . . . . . . . . . . . . . 201
Näherungswert
- für den Erwartungswert . . 104
- für den Median . . . . . . . . . . . 104
- für die Varianz . . . . . . . . . . . 104
Niveau . . . . . . . . . . . . . . . . . . . . . . . . 149
Normalgleichungen . . . . . . . . . . . . 181
Normalverteilung . . . . . . . . . . . . . . 45
- N (µ, σ 2 ) . . . . . . . . . . . . . . . . . . . 45
logarithmische - . . . . . . . . . . . . . 45
Standard - N (0, 1) . . 44, 47, 219
Nullhypothese . . . . . . . . . . . . . . . . 148
Nullmenge . . . . . . . . . . . . . . . . . . . . 195
Obermenge . . . . . . . . . . . . . . . . . . . 195
echte - . . . . . . . . . . . . . . . . . . . . . 195
OLS-Schätzung . . . . . . . . . . . . . . . 181
P -fast überall . . . . . . . . . . . . . . . . . . 27
p-Fraktil . . . . . . . . . . . . . . . . . . . . . . . 82
P -Nullmenge . . . . . . . . . . . . . . . . . . . 27
p-Quantil . . . . . . . . . . . . . . . . . . 82, 102
p-Wert . . . . . . . . . . . . . . . . . . . . . . . . 155
–240–
Paar
geordnetes - . . . . . . . . . . . . . . . . 201
Parameter
-bereichsschätzung . . . . . . . . . 174
-punktschätzfunktion . . . . . . . 140
-punktschätzungen . . . . . . . . . 140
-raum . . . . . . . . . . . . . . . . . . . . . . 132
-test . . . . . . . . . . . . . . . . . . . . . . . 148
Periode
Basis- . . . . . . . . . . . . . . . . . . . . . . 127
Berichts- . . . . . . . . . . . . . . . . . . . 127
Bezugs- . . . . . . . . . . . . . . . . . . . . 127
Referenz- . . . . . . . . . . . . . . . . . . 127
Permutation . . . . . . . . . . . . . . . . . . . 16
Poisson-Verteilung . . . . . . . . . . . . . 44
Polygonzug . . . . . . . . . . . . . . . . . . . . 99
Population . . . . . . . . . . . . . . . . . . . . . 89
Potenzmenge . . . . . . . . . . . . . . . . . 196
Preisbereinigung . . . . . . . . . . . . . . 131
Preisindex
- nach Fisher . . . . . . . . . . . . . . . 129
- nach Laspeyres . . . . . . . . . . . 129
- nach Marshall und Edgeworth . . . . . . . . . . . . . . . . . 129
- nach Paasche . . . . . . . . . . . . . 129
Probe
geordnete - mit Wiederholung 14
geordnete - ohne Wiederholung . . . . . . . . . . . . . . . . . 15
ungeordnete - mit Wiederholung . . . . . . . . . . . . . . . . . 17
ungeordnete - ohne Wiederholung . . . . . . . . . . . . . . . . . 16
Produkt . . . . . . . . . . . . . . . . . . . . . . . 36
- von Wahrscheinlichkeitsräumen . . . . . . . . . . . . . . . . . 36
-menge . . . . . . . . . . . . . . . . . . . . . 201
-verteilung . . . . . . . . . . . . . . . . . . 63
-wahrscheinlichkeit . . . . . . . . . . 36
-wahrscheinlichkeitsraum . . . . 36
kartesisches - . . . . . . . . . . . . . . . 201
Projektion . . . . . . . . . . . . . . . . . . . . . 54
Punktmasse . . . . . . . . . . . . . . . . . . . . 27
Punktwahrscheinlichkeit . . . . . . . . 27
c
°V.
Steinmetz: Grundzüge der Statistik
quadratische Form . . . . . . . . . . . . 215
Quantil p-ter Ordnung . . . . . . . . . 82
Quantitätsindex
- nach Fisher . . . . . . . . . . . . . . . 130
- nach Laspeyres . . . . . . . . . . . 130
- nach Paasche . . . . . . . . . . . . . 130
- nach Marshall und Edgeworth . . . . . . . . . . . . . . . . . 130
Quartil
-sabstand . . . . . . . . . . . . . . . . . . 104
oberes - . . . . . . . . . . . . . . . . . . . . . 82
unteres - . . . . . . . . . . . . . . . . . . . . 82
Randdichte (Randdichtefunktion) 58
Randverteilung . . . . . . . . . . . . . . . . . 54
Randverteilungsfunktion . . . . . . . 56
Rang . . . . . . . . . . . . . . . . . . . . . . . . . 171
Rangkorrelationskoeffizient
Spearmanscher - . . . . . . . . . . . 110
Rangstatistik . . . . . . . . . . . . . . . . . 171
Realisation einer Stichprobe . . . 133
Referenz
-periode . . . . . . . . . . . . . . . . . . . . 127
-zeitpunkt . . . . . . . . . . . . . . . . . . 127
Reflexivität . . . . . . . . . . . . . . . . . . . 196
Regressand . . . . . . . . . . . . . . . . . . . 179
Regressionskoeffizient . . . . . . . . . 179
Regressionsmodell
- unter Normalverteilungsannahme . . . . . . . . . . . . . . 190
multiples lineares - . . . . . . . . . 179
einfaches lineares - . . . . . . . . . 182
homogenes - . . . . . . . . . . . . . . . 179
inhomogenes - . . . . . . . . . . . . . . 179
klassisches lineares - . . . . . . . . 178
Regressor . . . . . . . . . . . . . . . . . . . . . 179
Ring . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Rundstelle . . . . . . . . . . . . . . . . . . . . . 93
Schätzfunktion . . . . . . . . . . . . . . . .
beste erwartungstreue - . . . .
effiziente - . . . . . . . . . . . . . . . . . .
erwartungstreue - . . . . . . . . . .
Kleinst-Quadrat- . . . . . . . . . . .
konsistente - . . . . . . . . . . . . . . .
Maximum-Likelihood- . . . . . .
140
188
144
144
181
144
146
–241–
unverzerrte - . . . . . . . . . . . . . . . 142
wirksamste - . . . . . . . . . . . . . . . 144
Schätzwert
- nach KQ-Methode geschätzter y-Vektor . . . . 189
Kleinst-Quadrat- . . . . . . . . . . . 181
Maximum-Likelihood- . . . . . . 146
Scheinvariable . . . . . . . . . . . . . . . . . 179
Schiefe . . . . . . . . . . . . . . . . . . . . . . . . . 71
Schwellenwert . . . . . . . . . . . . 152, 160
Schwerpunkt . . . . . . . . . . . . . . . . . . . 77
Sicherheitswahrscheinlichkeit . . 174
σ-Algebra . . . . . . . . . . . . . . . . . . . . . . 19
erzeugte - . . . . . . . . . . . . . . . . . . . 20
natürliche - . . . . . . . . . . . . . . . . . 20
signifikante Dezimalstelle . . . . . . . 94
Signifikanzniveau . . . . . . . . . . . . . 149
skalare Multiplikation . . . . . . . . . 205
Spearmanscher Rangkorrelationskoeffizient . . . . . . 110
Sprunghöhe . . . . . . . . . . . . . . . . . . . . 40
Sprungstelle . . . . . . . . . . . . . . . . . . . . 40
Spur . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Standardabweichung . . . . . . . . . . . 71
Standardnormalverteilung N (0, 1) 44
Statistik
deskriptive - . . . . . . . . . . . . . . . . . 89
induktive - . . . . . . . . . . . . . . . . . . 89
Inferenz- . . . . . . . . . . . . . . . . . . . . 89
schließende - . . . . . . . . . . . . . . . . 89
Statistische Einheit . . . . . . . . . . . . 89
Statistische Masse . . . . . . . . . . . . . . 89
Steilheit . . . . . . . . . . . . . . . . . . . . . . . . 71
Stem-Leaf-Diagramm . . . . . . . . . 100
Stichprobe . . . . . . . . . . . . . . . . . . . . 133
- mit Zurücklegen . . . . . . . . . . 135
- ohne Zurücklegen . . . . . . . . . 138
einfache - . . . . . . . . . . . . . . . . . . 137
Stichproben
-korrelationskoeffizient . . . . . 141
-kovarianz . . . . . . . . . . . . . . . . . . 141
-mittelwert . . . . . . . . . . . . . . . . . 141
-raum . . . . . . . . . . . . . 22, 133, 137
-realisation . . . . . . . . . . . . . . . . . 133
-streuung . . . . . . . . . . . . . . . . . . 141
c
°V.
Steinmetz: Grundzüge der Statistik
korrigierte - . . . . . . . . . . . . . 141
-umfang . . . . . . . . . . . . . . . . . . . . 135
-varianz . . . . . . . . . . . . . . . . . . . . 141
stochastisch unabhängig . . . . . . . . 32
Störvariable . . . . . . . . . . . . . . . . . . . 179
Streuung . . . . . . . . . . . . . . . . . . . . . . . 71
durch die Regression erklärte - 185
empirische - der
Beobachtungen . . . . . . . . 185
gemischte - . . . . . . . . . . . . . . . . . . 74
nicht erklärte Rest- . . . . . . . . 185
Surjektion . . . . . . . . . . . . . . . . . . . . . . . 2
surjektiv . . . . . . . . . . . . . . . . . . . . . . . . 2
Symmetrie . . . . . . . . . . . . . . . . . . . . . 75
t-Test . . . . . . . . . . . . . . . . . . . . . . . . . 159
t-Verteilung . . . . . . . . . . 45, 159, 221
Teilmenge . . . . . . . . . . . . . . . . . . . . . 195
echte - . . . . . . . . . . . . . . . . . . . . . 195
Test
- für die Regressionskoeffizienten . . . . . . . . . . . 191
- zum Niveau α . . . . . . . . . . . . 149
Binomial- . . . . . . . . . . . . . . . . . . 161
Chi-Quadrat- . . . . . . . . . . . . . . 165
einseitiger - . . . . . . . . . . . . . . . . 152
F - . . . . . . . . . . . . . . . . . . . . 165, 167
Gauß- . . . . . . . . . . . . . . . . . . . . . . 152
t- . . . . . . . . . . . . . . . . . . . . . . . . . . 159
Wilcoxon-Rangsummen- . . . 171
zweiseitiger - . . . . . . . . . . . . . . . 152
Trägerpunkt . . . . . . . . . . . . . . . . . . . 27
Transitivität . . . . . . . . . . . . . . . . . . 196
Translationsinvarianz . . . . . . . 72, 75
Treppenfunktion . . . . . . . . . . . . . . . 96
Tschebyschevsche Ungleichung . 84
Tupel . . . . . . . . . . . . . . . . . . . . . . . . . 201
überabzählbar . . . . . . . . . . . . . . . . . . 10
Umbasierung . . . . . . . . . . . . . . . . . . 128
Umkehrabbildung . . . . . . . . . . . . . . . 3
Unabhängigkeit . . . . . . . . . . . . . . . . 28
lineare - . . . . . . . . . . . . . . . . . . . . 207
stochastische von Ereignissen . . . . . . . . . 32
von Zufallsvariablen . . . . . . . . . 59
–242–
Universalmenge . . . . . . . . . . . . . . . 198
Untersuchungseinheiten . . . . . 22, 89
Untersuchungsmerkmal . . . . . . . . . 89
Urbild . . . . . . . . . . . . . . . . . . . . . . . . . . 4
-menge . . . . . . . . . . . . . . . . . . . . . . . 1
-punkt . . . . . . . . . . . . . . . . . . . . . . . 1
Urliste . . . . . . . . . . . . . . . . . . . . . . . . . 95
Urnenmodell . . . . . . . . . . . . . . . . . . . 18
Variable . . . . . . . . . . . . . . . . . . . . . . 178
abhängige - . . . . . . . . . . . . . . . . 179
erklärende - . . . . . . . . . . . . . . . . 179
Fehler- . . . . . . . . . . . . . . . . . . . . . 179
Schein- . . . . . . . . . . . . . . . . . . . . . 179
Stör- . . . . . . . . . . . . . . . . . . . . . . . 179
unabhängige - . . . . . . . . . . . . . . 179
Varianz . . . . . . . . . . . . . . . . . . . . . . . . 71
-zerlegungssatz . . . . . . . . . . . . . . 72
Variation . . . . . . . . . . . . . . . . . . . . . . . 18
- mit Wiederholung . . . . . . . . . 14
- ohne Wiederholung . . . . . . . . 15
Variationskoeffizient . . . . . . . . . . . . 71
Vektor
Einheits- . . . . . . . . . . . . . . . . . . . 204
Eins- . . . . . . . . . . . . . . . . . . . . . . . 204
Null- . . . . . . . . . . . . . . . . . . . . . . . 204
Zufalls- . . . . . . . . . . . . . . . . . . . . 216
Vereinigung . . . . . . . . . . . . . . . . . . . . . 6
- einer Familie von Teilmengen . . . . . . . . . . . . . . . . . . 6
- zweier Mengen . . . . . . . . . . . . 198
Verhältniszahl . . . . . . . . . . . . . . . . 127
Verschiebungsinvarianz . . . . . . . . . 72
verschlüsselt . . . . . . . . . . . . . . . . . . . 83
Verteilung
(total)stetige - . . . . . . . . . . . . . . 44
bedingte - . . . . . . . . . . . . . . . . . . . 59
diskrete - . . . . . . . . . . . . . . . . . . . . 43
gemeinsame - . . . . . . . . . . . . . . . 54
Häufigkeits- . . . . . . . . . . . . . . . . . 95
hypothetische - . . . . . . . . . . . . . 169
symmetrische - . . . . . . . . . . . . . . 42
Wahrscheinlichkeits- . . . . . . . . . 38
Verteilungs
-annahme . . . . . . . . . . . . . . . . . . 132
c
°V.
Steinmetz: Grundzüge der Statistik
nichtparametrische - . . . . . 132
parametrische - . . . . . . . . . 132
verteilungsfreie - . . . . . . . . 132
-funktion (VF) . . . . . . . . . . 38, 56
(total)stetige - . . . . . . . . . . . . 42
- einer n-dimensionalen
Zufallsvariablen . . . . . . . . 56
- einer eindimensionalen
Zufallsvariablen . . . . . . . . 39
- vom gemischten Typ . . . . 48
diskrete - . . . . . . . . . . . . . . . . . 40
gemeinsame - . . . . . . . . . . . . . 56
Verteilungsfunktion
bedingte - . . . . . . . . . . . . . . . . . . . 60
Verweildauer . . . . . . . . . . . . . . . . . . . 92
Verweillinien . . . . . . . . . . . . . . . . . . . 93
Verwerfungsbereich . . . . . . . . . . . 148
Verzerrung . . . . . . . . . . . . . . . . . . . . 143
Wahrscheinlichkeit . . . . . . . . . . . . . 22
bedingte - . . . . . . . . . . . . . . . . . . . 28
diskrete - . . . . . . . . . . . . . . . . . . . . 27
Laplacesche - . . . . . . . . . . . . . . . . 24
totale - (Satz) . . . . . . . . . . . . . . . 29
Wahrscheinlichkeits
-maß . . . . . . . . . . . . . . . . . . . . . . . . 22
-raum (WR) . . . . . . . . . . . . . . . . 22
diskreter - . . . . . . . . . . . . . . . . 27
Laplacescher - . . . . . . . . . . . . 24
Produkt von Wahrscheinlichkeitsräumen . . . . . . . . 36
-verteilung (WV) . . . . . . . . . . . . 38
- einer n-dimensionalen
Zufallsvariablen . . . . . . . . 54
- einer eindimensionalen
Zufallsvariablen . . . . . . . . 38
- vom gemischten Typ . . . . 48
bedingte - . . . . . . . . . . . . 48, 59
bimodale - . . . . . . . . . . . . . . . 82
diskrete - . . . . . . . . . . . . . . . . . 38
gemeinsame - . . . . . . . . . . . . . 54
multimodale - . . . . . . . . . . . . 82
total stetige - . . . . . . . . . . . . . 41
unimodale - . . . . . . . . . . . . . . 82
Weißes Rauschen . . . . . . . . . . . . . . 192
–243–
Wert
-evorrat . . . . . . . . . . . . . . . . . . . . . . 1
-index . . . . . . . . . . . . . . . . . . . . . . 130
häufigster - . . . . . . . . . . . . . . . . . . 82
wahrscheinlichster - . . . . . . . . . 82
Wilcoxon-Rangsummentest . . . . 171
Wirksamkeit . . . . . . . . . . . . . . . . . . 144
Wölbung . . . . . . . . . . . . . . . . . . . . . . . 71
Zählprinzip . . . . . . . . . . . . . . . . . . . . 13
Zahl
Beziehungs- . . . . . . . . . . . . . . . . 127
Gliederungs- . . . . . . . . . . . . . . . 127
Index- . . . . . . . . . . . . . . . . . . . . . 129
Meß- . . . . . . . . . . . . . . . . . . . . . . . 127
Verhältnis- . . . . . . . . . . . . . . . . . 127
Zeitpunkt . . . . . . . . . . . . . . . . . . . . . 129
Basis- . . . . . . . . . . . . . . . . . . . . . . 127
Berichts- . . . . . . . . . . . . . . . . . . . 127
Bezugs- . . . . . . . . . . . . . . . . . . . . 127
Referenz- . . . . . . . . . . . . . . . . . . 127
Zentralwert . . . . . . . . . . . . . . . . . . . . 82
Zerlegung . . . . . . . . . . . . . . . . . . . . . . . 8
Zerlegungsformel . . . . . . . . . . . . . . 184
Streuungs- . . . . . . . . . . . . . . . . . 185
Zufallsvariable (ZV)
(total)stetige - . . . . . . . . . . . . . . 41
diskrete - . . . . . . . . . . . . . . . . . . . . 38
eindimensionale - . . . . . . . . . . . . 38
mehrdimensionale - . . . . . . . . . 54
stochastisch
unabhängige -n . . . . . 60, 63
symmetrisch verteilte - . . . . . . 42
unkorrelierte -n . . . . . . . . . . . . . 80
Zufallsvektor . . . . . . . . . . . . . . . . . . 216
Zugangs
-einheiten . . . . . . . . . . . . . . . . . . . 90
-masse . . . . . . . . . . . . . . . . . . . . . . 90
-zeitpunkt . . . . . . . . . . . . . . . . . . . 92
Zweipunktverteilung . . . . . . . . . . . 43
c
°V.
Steinmetz: Grundzüge der Statistik
–244–
Symbolverzeichnis
y = f (x), x 7→ y
f
x wird abgebildet auf y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
f : A → B, A → B
Abbildung der Menge A in die Menge B . . . . . . . . . . . . . 1
iA , idA
identische Abbildung, Identität . . . . . . . . . . . . . . . . . . . . . . 1
g ◦ f, g(f )
aus g und f zusammengesetzte Abbildung . . . . . . . . . . . 2
f −1
Umkehrabbildung, Inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
induzierte inverse Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . 4
f (Ã)
Bild(menge) von à bzgl. f (induzierte Abbildung) . . . 3
(aj )j∈J
Familie von Elementen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
(Aj )j∈J
S
Aj
Familie von Teilmengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Vereinigung einer Familie vonTeilmengen . . . . . . . . . . . . 6
j∈J˜
T
Aj
Durchschnitt einer Familie vonTeilmengen . . . . . . . . . . . 6
j∈J˜
A∼B
A und B sind gleichmächtig . . . . . . . . . . . . . . . . . . . . . . . . . 9
]M, |M |
Anzahl der Elemente von M . . . . . . . . . . . . . . . . . . . . . . . . . 9
Vnr
Anzahl der Variationen von n Elementen
ohne Wiederholung vom Umfang r . . . . . . . . . . . . . . . . . . 14
w
Vnr
Anzahl der Variationen von n Elementen
mit Wiederholung vom Umfang r . . . . . . . . . . . . . . . . . . . 14
n!
µ ¶
n
r
n-Fakultät . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
(n)r
n tief r . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Cnr
Anzahl der Kombinationen von n Elementen
ohne Wiederholung vom Umfang r . . . . . . . . . . . . . . . . . . 16
w
Anzahl der Kombinationen von n Elementen
mit Wiederholung vom Umfang r . . . . . . . . . . . . . . . . . . . 17
Cnr
n über r (Binomialkoeffizient) . . . . . . . . . . . . . . . . . . . . . . 15
Ω
Stichprobenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19, 22
F
Ereignisraum, σ-Algebra in Ω . . . . . . . . . . . . . . . . . . . 19, 22
c
°V.
Steinmetz: Grundzüge der Statistik
–245–
B1
Borelalgebra in R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Bn
Borelalgebra in Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
F(A)
von A erzeugte σ-Algebra in Ω . . . . . . . . . . . . . . . . . . . . . 20
F |A
Spur von F in A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
(Ω, F, P )
Wahrscheinlichkeitsraum (WR) . . . . . . . . . . . . . . . . . . . . . 22
P
Wahrscheinlichkeit(smaß) . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
H
relative Häufigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
wi
Trägerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
pi
Punktwahrscheinlichkeiten (Punktmassen) . . . . . . . . . . 27
P (B | A)
bedingte Wahrscheinlichkeit von B unter der
Hypothese A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
(Ω, F, P ) ⊗ (Ω0 , F 0 , P 0 ) Produkt aus den Wahrscheinlichkeitsräumen
(Ω, F, P ) und (Ω0 , F 0 , P 0 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
P ⊗ P0
aus P und P 0 gebildete Produktwahrscheinlichkeit . . 36
QX
Wahrscheinlichkeitsverteilung (WV) der ZV X . . . . . . 38
{X ∈ B}
durch Bedingungen über die ZV X bestimmtes
Ereignis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
FX
Verteilungsfunktion (VF) der ZV X . . . . . . . . . . . . . . . . 38
FX (x − 0)
linksseitiger Grenzwert der VF im Punkt x . . . . . . . . . 40
fX
Dichte(funktion) der ZV X . . . . . . . . . . . . . . . . . . . . . . . . . 41
B(n, p)
Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
b(i | n, p)
Punktwahrscheinlichkeiten einer
B(n, p)-verteilten ZV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
N (0, 1)
Gaußverteilung, Standardnormalverteilung . . . . . . . . . . 44
N (µ, σ 2 )
Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
χ2
Chi-Quadrat-Verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
ϕ, ϕX
Dichte einer N (0, 1)-verteilten ZV X . . . . . . . . . . . . . . . . 48
Φ, ΦX
Verteilungsfunktion einer N (0, 1)-verteilten ZV X . . 48
pri
i−te Projektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
c
°V.
Steinmetz: Grundzüge der Statistik
–246–
pi· , p·k
Punktmassen der Randverteilungen . . . . . . . . . . . . . . . . . 55
QX|Y =yk
durch die Hypothese Y = yk bedingte WV von X . . . 59
fX|Y =y
durch Y = y bedingte Dichte(funktion) von X . . . . . . 60
FX|Y =y
durch Y = y bedingte Verteilungsfunktion von X . . . 60
QX ⊗ Q Y
Produktverteilung von QX und QY . . . . . . . . . . . . . . . . . 63
EX
Erwartungswert (Mittelwert) der ZV X . . . . . . . . . . . . . 66
µk
Moment k-ter Ordnung um Null . . . . . . . . . . . . . . . . . . . . 71
σk
zentrales Moment k-ter Ordnung . . . . . . . . . . . . . . . . . . . 71
2
Var X = D 2 X = σX
= σ 2 Varianz, Streuung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
DX = σX = σ
Standardabweichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
x
arithmetisches Mittel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
µrs
Momente um Null (r + s)-ter Ordnung . . . . . . . . . . . . . 74
σrs
zentrale Momente (r + s)-ter Ordnung . . . . . . . . . . . . . . 74
Cov(X, Y )
Kovarianz, gemischte Streuung . . . . . . . . . . . . . . . . . . . . . 74
Korr(X, Y ) = ρ(X, Y ) Korrelationskoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
x0,5
Median, Zentralwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
λp
p-Quantil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Ω̃
Ergebnisraum im GdS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Ω̃t
Bestandsmasse bzgl. t . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Ω̃T0 ,T1
Bewegungsmasse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
ZT0 ,T1
Zugangsmasse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
AT0 ,T1
Abgangsmasse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
tZ (ω̃)
Zugangszeitpunkt von ω̃ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
tA (ω̃)
Abgangszeitpunkt von ω̃ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Kj
Klasse Nr.j . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
Bj
Klassenbreite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
mj
Klassenmitte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
c
°V.
Steinmetz: Grundzüge der Statistik
–247–
āgeom
geometrisches Mittel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
āharm
harmonisches Mittel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
KorrS
Spearmanscher Rangkorrelationskoeffizient. . . . . . . . . 110
ϕ2U,V
mittlere quadratische Kontingenz . . . . . . . . . . . . . . . . . . 112
C
Pearsonscher Kontingenzkoeffizient . . . . . . . . . . . . . . . . 112
Ckorr
korrigierter Kontingenzkoeffizient . . . . . . . . . . . . . . . . . . 112
G
Gini-Koeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Gnorm
normierter Gini-Koeffizient . . . . . . . . . . . . . . . . . . . . . . . . 121
CRg
Konzentrationskoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . 124
H
Herfindahl-Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
PtL0 ,t
Preisindex nach Laspeyres . . . . . . . . . . . . . . . . . . . . . . . . . 129
PtP0 ,t
Preisindex nach Paasche . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
PtF0 ,t
Preisindex nach Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
−E
PtM
0 ,t
Preisindex nach Marshall und Edgeworth . . . . . . . . . . 129
QLt0 ,t
Quantitätsindex nach Laspeyres . . . . . . . . . . . . . . . . . . . 130
QPt0 ,t
Quantitätsindex nach Paasche . . . . . . . . . . . . . . . . . . . . . 130
QFt0 ,t
Quantitätsindex nach Fisher . . . . . . . . . . . . . . . . . . . . . . . 130
QtM0 ,t−E
Quantitätsindex nach Marshall und Edgeworth . . . . 130
Wt0 ,t
Wertindex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
W
Verteilungsannahme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
Θ
Parameterraum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
ϑ∈Θ
Parameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
X
Stichprobenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
δ : X → γ(Θ)
(Parameterpunkt)schätzfunktion . . . . . . . . . . . . . . . . . . . 140
µ̂(X) = X
Stichprobenmittelwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
σ̂ 2 (X)
Stichprobenstreuung, Stichprobenvarianz . . . . . . . . . . 141
S 2 (X)
korrigierte Stichprobenstreuung. . . . . . . . . . . . . . . . . . . . 141
c
°V.
Steinmetz: Grundzüge der Statistik
–248–
σ̂11 (X, Y )
Stichprobenkovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
r(X, Y )
Stichprobenkorrelationskoeffizient. . . . . . . . . . . . . . . . . . 141
∆E
Menge der erwartungstreuen Schätzfunktionen
für ϑ ∈ Θ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
L(ϑ | x1 , ..., xn )
Likelihood-Funktion (LF). . . . . . . . . . . . . . . . . . . . . . . . . . 146
ln L(. | ....)
logarithmierte LF (LLF). . . . . . . . . . . . . . . . . . . . . . . . . . . 146
H0
Nullhypothese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
H1
Gegenhypothese, Alternative . . . . . . . . . . . . . . . . . . . . . . 148
˙ 1
W0 ∪W
disjunkte Zerlegung der Verteilungsannahme . . . . . . . 148
d0
Entscheidung ”Annahme von H0 ” . . . . . . . . . . . . . . . . . 148
d1
Entscheidung ”Annahme von H1 ” . . . . . . . . . . . . . . . . . 148
δ : X → {d0 , d1 }
(Alternativ)test für H0 gegen H1 . . . . . . . . . . . . . . . . . . 148
K = Kδ
kritischer Bereich (Verwerfungsbereich) . . . . . . . . . . . . 148
A = Aδ
Annahmebereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
α
Signifikanzniveau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
λ1−α
Schwellenwert beim einseitigen Test . . . . . . . . . . . . . . . 152
λ1− α2
Schwellenwert beim zweiseitigen Test . . . . . . . . . . . . . . 152
G(. | δ)
Gütefunktion eines Tests . . . . . . . . . . . . . . . . . . . . . . . . . . 156
N0
Teststatistik des Gaußtests . . . . . . . . . . . . . . . . . . . . . . . . 156
χ2n
Chi-Quadrat-verteilt mit n Freiheitsgraden . . . . . . . . 159
tn
t-verteilt mit n Freiheitsgraden . . . . . . . . . . . . . . . . . . . . 159
t0
Testgröße des t-Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
b0
Testgröße des Binomialtests . . . . . . . . . . . . . . . . . . . . . . . 161
χ20
Testgröße des Chi-Quadrat-Tests . . . . . . . . . . . . . . . . . . 165
Fnm
F -verteilt mit m Zähler- und
n Nennerfreiheitsgraden . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
νk
empirische Häufigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
◦
pk
theoretische relative Häufigkeit . . . . . . . . . . . . . . . . . . . . 169
c
°V.
Steinmetz: Grundzüge der Statistik
–249–
◦
n pk
◦
theoretische absolute Häufigkeit . . . . . . . . . . . . . . . . . . . 169
FY
hypothetische Verteilungsfunktion . . . . . . . . . . . . . . . . . 169
1A (x)
Indikatorfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
Rn6=
n-Tupel reeller Zahlen mit paarweise
verschiedenen Elementen . . . . . . . . . . . . . . . . . . . . . . . . . . 171
Rj (x)
j-te Rangstatistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
w0
Testgröße des Wilcoxon-Rangsummentests . . . . . . . . . 173
δ : X → P(γ(Θ))
Parameterbereichsschätzung . . . . . . . . . . . . . . . . . . . . . . . 174
y = (y1 , ..., yT )0
T -dimensionaler Zufallsvektor
(bzw. seine Realisation) . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
β = (β0 , ..., βn )0
(n + 1)-dimensionaler deterministischer Vektor
(Regressionskoeffizient) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
u = (u1 , ..., uT )0
T -dimensionaler Zufallsvektor von Störungen . . . . . . 179
(y, X)
Beobachtungswertmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . 179
ι
Einsvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
Σy y0
Varianz-Kovarianzmatrix von y . . . . . . . . . . . . . . . . . . . . 180
b
β
KQ-Schätzung von β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
b
y
geschätzter y-Vektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
σ
b2 (y)
empirische Streuung der Beobachtungen . . . . . . . . . . . 185
u
b
KQ-Residuum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
σ
b2 (b
y)
durch die Regression erklärte Streuung
der Beobachtungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
σ
b2 (b
u)
nicht erklärte Reststreuung . . . . . . . . . . . . . . . . . . . . . . . . 185
R2
empirisches Bestimmtheitsmaß . . . . . . . . . . . . . . . . . . . . 186
DW
Durbin-Watson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
x ∈ M, M 3 x
x ist Element der Menge M . . . . . . . . . . . . . . . . . . . . . . . 194
x∈
/ M, M 63 x
x ist kein Element der Menge M . . . . . . . . . . . . . . . . . . 194
∀
Allquantor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
c
°V.
Steinmetz: Grundzüge der Statistik
–250–
∃
Existenzquantor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
˙
∃!x, ∃x
es gibt genau ein x mit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
6∃ x
es gibt kein x mit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
∅
leere Menge, Nullmenge . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
A ⊆ B, B ⊇ A
A ist Teilmenge von B . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
A ⊂ B, B ⊃ A
A ist echte Teilmenge von B . . . . . . . . . . . . . . . . . . . . . . . 195
P(A)
Potenzmenge von A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
N
Menge der natürlichen Zahlen . . . . . . . . . . . . . . . . . . . . . 196
Z
Menge der ganzen Zahlen. . . . . . . . . . . . . . . . . . . . . . . . . . 196
Q=P
Menge der rationalen Zahlen . . . . . . . . . . . . . . . . . . . . . . 196
R
Menge der reellen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . 196
R+
Menge der nicht negativen reellen Zahlen . . . . . . . . . . 196
R++
Menge der positiven reellen Zahlen . . . . . . . . . . . . . . . . 196
], [ ; [, ] ; ], ] ; [, [
Intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
A∩B
Durchschnitt der Mengen A und B . . . . . . . . . . . . . . . . 198
A∪B
Vereinigung der Mengen A und B . . . . . . . . . . . . . . . . . 198
A \ B, A − B
Differenz der Mengen A und B . . . . . . . . . . . . . . . . . . . . 198
CΩ A
Komplement von A bzgl. Ω. . . . . . . . . . . . . . . . . . . . . . . . 198
A4B
symmetrische Differenz von A und B . . . . . . . . . . . . . . 199
(a, b)
geordnetes Paar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
(a1 , ..., an )
geordnetes n-Tupel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
A×B
kartesisches Produkt von A und B . . . . . . . . . . . . . . . . . 201
Ai
kartesisches Produkt von A1 , A2 , ..., An . . . . . . . . . . . . 201
n
i=1
a
Spaltenvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
A0
transponierte Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
I
Einheitsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
D
Diagonalmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
c
°V.
Steinmetz: Grundzüge der Statistik
–251–
E
Einsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
O
Nullmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
0
Nullvektor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
ej
j-ter Einheitsvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
A·j
j-ter Spaltenvektor einer Matrix A . . . . . . . . . . . . . . . . 204
A0i·
i-ter Zeilenvektor einer Matrix A . . . . . . . . . . . . . . . . . . 204
rg A
Rang einer Matrix A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
det A
Determinante einer Matrix A . . . . . . . . . . . . . . . . . . . . . . 209
A−1
A=
·
A11 A12
A21 A22
¸
Inverse einer Matrix A . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
Zerlegung von A in Blockmatrizen . . . . . . . . . . . . . . . . . 211
tr(A)
Spur einer Matrix A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
q(x)
quadratische Form. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
EZ
Erwartungswert einer Zufallsmatrix . . . . . . . . . . . . . . . . 216
Σz z0
Varianz-Kovarianz-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . 217
N (µ, Σ)
mehrdimensionale Normalverteilung . . . . . . . . . . . . . . . 218
c
°V.
Steinmetz: Grundzüge der Statistik
–252–
Literaturverzeichnis
zu den Vorlesungen ”Grundzüge der Statistik” Teil A und B
Bamberg,G., Baur,F.:
Statistik, München, Wien 2001
Bamberg,G., Baur,F.:
Statistik Arbeitsbuch, München, Wien 2000
Barth,F., Haller,R.:
Stochastik, Leistungskurs, München 1998
Basler,H.:
Grundbegriffe der Wahrscheinlichkeitsrechnung und
statistischen Methodenlehre, Heidelberg 2000
Basler,H.:
Aufgabensammlung zur statistischen Methodenlehre und
Wahrscheinlichkeitsrechnung, Würzburg 1991
Becker,B.:
Statistik, München, Wien 1993
Bol,G.:
Deskripitve Statistik, München, Wien 2001
Bol,G.:
Induktive Statistik, München, Wien 1998
Bol,G.:
Wahrscheinlichkeitstheorie, Einführung, München, Wien 2001
Bomsdorf,E.:
Deskriptive Statistik, Bergisch Gladbach, Köln 1999
Bosch,K.:
Statistik-Taschenbuch, München, Wien 1998
Bosch,K.:
Großes Lehrbuch der Statistik, München, Wien 1996
Buttler,G., Stroh,R.:
Einführung in die Statistik, Reinbek 2000
Fahrmeir,L. u.a.:
Statistik, Der Weg zur Datenanalyse, Berlin u.a. 2001
Hansen,G.:
Methodenlehre der Statistik, München 1985
Hartung,J., Elpelt,B.,
Klösener,K.-H.:
Statistik, Lehr- und Handbuch der angewandten Statistik,
München, Wien 1999
Hartung,J., Heine,B.:
Statistik-Übungen, Deskriptive Statistik,
München, Wien 1999
c
°V.
Steinmetz: Grundzüge der Statistik
–253–
Hartung,J., Heine,B.:
Statistik-Übungen, Induktive Statistik,
München, Wien 1996
Heigl,F., Feuerpfeil,J.:
Leistungskurs Stochastik, München 1999
Karmann,A.:
Mathematik für Wirtschaftswissenschaftler,
München, Wien 2000
Krämer,W.:
So lügt man mit Statistik, München 2001
Krämer,W.:
Denkste! München 1998
Krämer,W.:
Statistik verstehen, München 2001
Kraft,M., Landes,Th.,
Braun,K.:
Statistische Methoden, Eine Einführung für das Grundstudium in den Wirtschafts- und Sozialwissenschaften,
Heidelberg 1996
Krug,W., Nourney,M.:
Wirtschafts- und Sozialstatistik: Gewinnung von Daten,
München, Wien 2001
Lehn,J., Wegmann,H.:
Einführung in die Statistik, Stuttgart 2000
Lehn,J., Wegmann,H.,
Rettig,S.:
Aufgabensammlung zur Einführung in die Statistik,
Stuttgart 2001
v.d.Lippe,P.:
Deskriptive Statistik, München 1999
Mann,P.S.:
Statistics for Business and Economics, New York et al. 1995
Opitz,O.:
Mathematik, Lehrbuch für Ökonomen, München 1999
Pfanzagl,J.:
Allgemeine Methodenlehre der Statistik I, II. Berlin,
New York, Bd. I: 1983, Bd. II: 1978
Polasek,W.:
Schließende Statistik, Einführung in die Schätz- und Testtheorie für Wirtschaftswissenschaftler, Berlin 1996
Rüger,B.:
Induktive Statistik, Einführung für Wirtschafts- und
Sozialwissenschaftler, München, Wien 1996
Schaich,E. u.a.:
Statistik Arbeitsbuch, München 1994
Schaich,E. u.a.:
Statistik für Volkswirte, Betriebswirte und
Soziologen I, II. München, Bd. I: 1993, Bd. II: 1990
c
°V.
Steinmetz: Grundzüge der Statistik
–254–
Schlittgen,R.:
Einführung in die Statistik, München, Wien 2000
Schulze,P.M.:
Beschreibende Statistik, München, Wien 2000
Schwarze,J.:
Grundlagen der Statistik I, Beschreibende Verfahren.
Herne, Berlin 2001
Wehrt, K.:
Beschreibende Statistik, Frankfurt, New York 1984
c
°V.
Steinmetz: Grundzüge der Statistik
Herunterladen