KOMPAKTSKRIPT SCHLIEßENDE STATISTIK

Werbung
KOMPAKTSKRIPT
zur Vorlesung
SCHLIEßENDE STATISTIK
von
Volker Steinmetz
ausgearbeitet von Christoph Stahl
Universität des Saarlandes WS 2003/2004
I
Inhaltsverzeichnis
WARNUNG
III
1 Wiederholungen und Ergänzungen aus der
Wahrscheinlichkeitstheorie
1.1 Mehrdimensionale Zufallsvariablen . . . . . . . . . . . . . . .
1.2 Konvergenzbegriffe . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Grenzwertsätze . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
10
13
2 Grundbegrif fe der statistischen
Entscheidungstheorie
2.1 Einführung in die Problemstellung . . . . . . . . .
2.2 Das klassische Entscheidungsmodell . . . . . . . .
2.3 Die Grundannahmen der Statistik . . . . . . . . .
2.4 Statistische Entscheidungsfunktionen . . . . . . .
2.5 Optimalität statistischer Entscheidungsfunktionen
.
.
.
.
.
15
15
15
17
18
19
.
.
.
.
.
20
20
22
25
26
27
.
.
.
.
.
3 Parameterpunktschätzungen
3.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . .
3.2 Erwartungstreue und wirksamste Schätzfunktionen
3.3 Konsistente Schätzfunktionen . . . . . . . . . . . .
3.4 Erschöpfende (suffiziente) Schätzfunktionen . . . .
3.5 Schätzmethoden . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Parametertests und Parameterbereichsschätzungen
4.1 Grundlagen der Testtheorie . . . . . . . . . . . . . . . . . . .
4.2 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei bekannter Varianz (Gauß-Tests) . . . . . . . . . . .
4.3 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei unbekannter Varianz (t-Tests) . . . . . . . . . . . .
4.4 Tests über die Varianz einer normalverteilten Zufallsvariablen bei
unbekanntem Erwartungswert (χ2 -Tests) . . . . . . . . . . . .
4.5 Binomialtests, Test über Anteilswerte, Quantilstest . . . . . .
4.6 Parameterbereichsschätzungen . . . . . . . . . . . . . . . . . .
30
30
5 Multivariate Verfahren
5.1 Tests über die Erwartungswerte zweier gemeinsam normalverteilter Zufallsvariablen mit unbekannten Varianzen (t-Tests) . . .
5.2 Tests über die Varianzen zweier normalverteilter Zufallsvariablen
(F -Tests) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
6 Nichtparametrische Tests
6.1 Chi-Quadrat-Tests . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Wilcoxon-Rangsummentest für unverbundene Stichproben . .
54
54
58
c
V.
Steinmetz: Schließende Statistik
36
39
42
44
47
50
52
II
A Hilfsmittel aus der Matrizenrechnung
A1 Matrizen und Vektoren . . . . . . . . . . . . .
A2 Verknüpfungen von Matrizen . . . . . . . . . .
A3 Lineare Unabhängigkeit . . . . . . . . . . . .
A4 Rang einer Matrix . . . . . . . . . . . . . . .
A5 Determinante einer Matrix . . . . . . . . . . .
A6 Inverse einer Matrix . . . . . . . . . . . . . .
A7 Unterteilte Matrizen . . . . . . . . . . . . . .
A8 Spur einer Matrix . . . . . . . . . . . . . . . .
A9 Orthogonale Matrizen, idempotente Matrizen
A10 Definite Matrizen, quadratische Formen . . .
A11 Vektordifferentiation . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
61
64
67
68
69
70
71
73
74
75
76
B Tabellen
B1 Tabelle zur Standardnormalverteilung
B2 Quantile der t-Verteilungen . . . . .
B3 Quantile der χ2 -Verteilungen . . . . .
B4 Quantile der F -Verteilungen . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
78
78
80
81
82
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Index
84
Symbolverzeichnis
87
Im Kompaktskript angesprochene Literatur
88
Änderungen
89
c
V.
Steinmetz: Schließende Statistik
III
WARNUNG
Das vorliegende Kompaktskript ist kein Lehrbuch, sondern es soll die Hörer
der Vorlesung Schließende Statistik von dem ablenkenden und oft fehlerhaften Mitschreiben der Formeln entlasten und es ihnen erleichtern, sich auf die
vorgetragenen Motivationen und Erläuterungen zu konzentrieren und hierüber
individuelle Notizen anzufertigen. Dementsprechend sind in diesem Skript nur
formale Definitionen und Sätze enthalten, Bemerkungen dienen zur Ergänzung
des Stoffes. Die Motivation und Erläuterung der aufgeführten Begriffe und Aussagen sowie die Behandlung von Beispielen bleiben der Vorlesung und auch der
begleitenden Übung vorbehalten. Ebenso werden Hinweise auf ergänzende und
vertiefende Literatur im Verlauf der Vorlesung gegeben.
c
V.
Steinmetz: Schließende Statistik
–1–
1 Wiederholungen und Ergänzungen aus der
Wahrscheinlichkeitstheorie
1.1 Mehrdimensionale Zufallsvariablen
1.1.1 Definition:
Es seien Ω und F Mengen und P : F → R eine Abbildung. Das Tripel (Ω, F, P)
heißt ein Wahrscheinlichkeitsraum (probability space) (WR), wenn gilt
.1) Ω 6= ∅
.2) F ⊆ P(Ω) mit
• Ω∈F
• A ∈ F ⇒ CΩ A ∈ F
∞
S
• A1 , A2 , . . . ∈ F ⇒
Ai ∈ F
i=1
(d.h. F ist σ-Algebra)
.3) P : F → R mit
W1 ) A ∈ F ⇒ P A ≥ 0
W2 ) A1 , A2 , . . . ∈ F mit Ai ∩ Aj = ∅ für i 6= j
∞
∞
S
P
⇒ P Ai =
P Ai
i=1
i=1
W3 ) P Ω = 1
Ω heißt Ergebnisraum, Stichprobenraum (sample space), Grundgesamtheit, F
Ereignisraum und P Wahrscheinlichkeit(-smaß) (probability measure) des WR
(Ω, F, P).
1.1.2 Satz und Definition:
Es sei (Ω, F, P) ein WR. Eine Abbildung
X : Ω → Rn
mit
(∀B ∈ Bn )(X −1 B ∈ F) (Forderung der Meßbarkeit)
heißt n-dimensionale Zufallsvariable über (Ω, F, P). Durch
(∀B ∈ Bn )(QX B := P X −1 B)
ist eine Wahrscheinlichkeit QX : Bn → R gegeben und (Rn , Bn , QX ) ist ein WR.
Man bezeichnet QX als Wahrscheinlichkeitsverteilung der Zufallsvariablen X.
Dabei ist Bn die Borel-Algebra, die kleinste σ-Algebra über Rn , die alle Intervalle
enthält.
(Beweis: siehe [Steinmetz] Satz 2.4.2)
c
V.
Steinmetz: Schließende Statistik
–2–
1.1.3 Definition:
Es seien m, n ∈ N mit m ≤ n und i1 , . . . , im ∈ {1, . . . , n} mit ir < ir+1 für
r = 1, . . . , m − 1. Die Abbildung
pri1 ,...,im : Rn → Rm
mit
pri1 ,...,im (x1 , . . . , xn ) := (xi1 , . . . , xim )
bezeichnet man als eine Projektion des Rn auf den Rm , speziell nennt man für
m = 1 und i ∈ {1, . . . , n}
pri : Rn → R1
mit
pri (x1 , . . . , xn ) = xi
n
die i-te Projektion des R auf den R1 .
1.1.4 Satz:
Die Projektion pri1 ,...,im : Rn → Rm ist Bn -Bm -meßbar.
(Beweis: siehe z.B. [Krickeberg] S.32)
1.1.5 Folgerung:
Es seien (Ω, F, P) ein WR und
X : Ω → Rn
eine n-dimensionale Zufallsvariable über (Ω, F, P). Dann ist
pri1 ,...,im ◦ X : Ω → Rm
eine m-dimensionale Zufallsvariable über (Ω, F, P).
(Beweis: siehe [Steinmetz] Satz 2.4.4)
1.1.6 Definition:
Es sei X : Ω → Rn eine n-dimensionale Zufallsvariable über einem WR (Ω, F, P).
Man bezeichnet
Xi := pri ◦ X : Ω → R
i = 1, . . . , n
als i-te Komponente von X.
1.1.7 Bemerkung:
Gegeben seien die Voraussetzungen von Definition (1.1.6). Es gilt
X(ω) = (X1 (ω), . . . , Xn (ω))
Man schreibt deshalb auch
X = (X1 , . . . , Xn ),
c
V.
Steinmetz: Schließende Statistik
∀ω ∈ Ω.
–3–
man hat also
(X1 , . . . , Xn )(ω) = (X1 (ω), . . . , Xn (ω)).
1.1.8 Definition:
Es sei X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable. Man bezeichnet
QX als gemeinsame Wahrscheinlichkeitsverteilung der Zufallsvariablen X1 , . . . , Xn
und die Wahrscheinlichkeitsverteilung QXi der i-ten Komponente Xi als
Randverteilung (i = 1, . . . , n).
1.1.9 Bemerkung:
Zu (Ω, F, P) ist durch die F-Bn -meßbare Abbildung X : Ω → Rn ein neuer WR
(Rn , Bn , QX ) gegeben. Es gilt für alle B ∈ Bn :
QX B
= P X −1 B
= P {ω ∈ Ω | X(ω) ∈ B}
{z
}
|
∈ F wegen der Meßbarkeit von X
=: P{X ∈ B} (Kurzschreibweise).
Wie im eindimensionalen Fall unterscheidet man auch hier diskrete und stetige
Zufallsvariablen. (Diese Charakterisierung ist nicht ausschöpfend, es gibt noch
einen dritten Grundtyp, Zufallsvariablen mit einer singulären“ Verteilung, und
”
schließlich Mischungen zwischen allen drei Typen.) Die diskreten Verteilungen
werden an dieser Stelle nicht mehr behandelt.
Eine Wiederholung der Begriffe diskreter WR, diskretes Wahrscheinlichkeitsmaß, Trägerpunkte, Punktmassen, Punktwahrscheinlichkeiten usw. kann mit
Hilfe des Kompaktskriptes zur Statistik A und B erfolgen ([Steinmetz]).
Auch die Begriffe bedingte Verteilung und Unabhängigkeit werden dort erläutert.
1.1.10 Definition:
Es sei X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable mit der
Wahrscheinlichkeitsverteilung QX . Die Abbildung
FX : Rn → R
mit
FX (x1 , . . . , xn ) := QX (] − ∞, x1 ] × . . . ×] − ∞, xn ])
für alle (x1 , . . . , xn ) ∈ Rn heißt Verteilungsfunktion von X = (X1 , . . . Xn ) oder
gemeinsame Verteilungsfunktion der Zufallsvariablen X1 , . . . , Xn .
Die Verteilungsfunktion FXi bezeichnet man auch als Randverteilungsfunktion
(i = 1, . . . , n).
c
V.
Steinmetz: Schließende Statistik
–4–
1.1.11 Definition:
Es sei X eine n-dimensionale Zufallsvariable mit der Verteilungsfunktion FX .
Die Zufallsvariable X (und auch QX und FX ) heißen (absolut-) oder (total-)
stetig, wenn es eine Abbildung
fX : Rn → R
gibt mit
.1) fX (x1 , . . . , xn ) ≥ 0 ∀(x1 , . . . , xn ) ∈ Rn ,
.2) fX ist uneigentlich integrierbar,
Z x1
Z xn
.3) FX (x1 , . . . , xn ) =
···
fX (t1 , . . . , tn ) dtn . . . dt1
−∞
∀(x1 , . . . , xn ) ∈ Rn .
−∞
Man bezeichnet eine Abbildung fX mit diesen Eigenschaften als eine
Dichte(funktion) der Zufallsvariablen X oder gemeinsame Dichtefunktion der
Zufallsvariablen X1 , . . . Xn .
1.1.12 Satz:
Ist fX eine Dichte zu der Verteilungsfunktion FX einer n-dimensionalen Zufalls◦
◦
variablen X, so gilt an allen Stetigkeitsstellen (x1 , . . . , xn ) von fX :
∂ n FX (x1 , . . . , xn ) ◦
◦
fX (x1 , . . . , xn ) =
∂x1 ∂x2 . . . ∂xn (x◦ 1 ,...,x◦ n )
1.1.13 Satz:
Eine Funktion f : Rn → R ist genau dann Dichtefunktion einer n-dimensionalen
Zufallsvariablen, wenn gilt:
.1) f (x1 , . . . , xn ) ≥ 0 ∀(x1 , . . . , xn ) ∈ Rn ,
.2) f ist uneigentlich integrierbar,
Z ∞
Z ∞
.3)
···
f (x1 , . . . , xn ) dxn . . . dx1 = 1.
−∞
−∞
1.1.14 Satz:
Es sei X eine n-dimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung QX und einer Dichtefunktion fX ; B ∈ Bn sei ein beliebiges Ereignis. Dann
gilt
Z
Z
QX B =
···
B
c
V.
Steinmetz: Schließende Statistik
fX (x1 , . . . , xn ) dxn . . . dx1 .
–5–
1.1.15 Satz:
Es sei X = (X1 , . . . , Xn ) eine Zufallsvariable mit Verteilungsfunktion FX . Dann
gilt mit m ≤ n
F(X1 ,...,Xm ) (x1 , . . . , xm ) = FX (x1 , . . . , xm , ∞, . . . , ∞)1 .
Falls eine Dichtefunktion fX existiert, ist (X1 , . . . , Xm ) stetig verteilt mit
Z ∞
Z ∞
fX (x1 , . . . , xm , xm+1 , . . . , xn ) dxn . . . dxm+1
f(X1 ,...,Xm ) (x1 , . . . , xm ) =
···
−∞
−∞
{z
}
|
m−n
1.1.16 Definition:
Es gelten die Voraussetzungen aus Satz (1.1.15). Man bezeichnet f(X1 ,...,Xm ) als
eine Randdichte(funktion).
1.1.17 Definition:
X1 , X2 , . . . , Xr seien n1 -, n2 -bzw. nr -dimensionale Zufallsvariablen. Sie heißen
(stochastisch) unabhängig, wenn gilt
Q(X1 ,...,Xr ) (B1 × · · · × Br ) = QX1 B1 · . . . · QXr Br
für alle B1 ∈ Bn1 , . . . , Br ∈ Bnr .
Eine Familie (Xt )t∈T von Zufallsvariablen heißt (stochastisch) unabhängig, wenn
für jedes n ∈ N und für alle paarweise verschiedenen t1 , . . . , tn ∈ T die Zufallsvariablen Xt1 , . . . , Xtn (stochastisch) unabhängig sind.
1.1.18 Definition:
Es sei (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable. Man bezeichnet
µ := (µ1 , . . . , µn ) := (EX1 , . . . , EXn )
als Erwartungswertvektor von X und
Σ := (σij ) := (E[(Xi − EXi )(Xj − EXj )])i,j=1,...,n
als Varianz-Kovarianzmatrix von X.
1.1.19 Bemerkung:
i = j : E[(Xi − EXi )(Xi − EXi )] = VarXi
i 6= j : E[(Xi − EXi )(Xj − EXj )] = Cov(Xi , Xj )
1
G(∞) := lim G(y)
y→∞
c
V.
Steinmetz: Schließende Statistik
–6–
1.1.20 Satz:
Es seien X = (X1 , . . . , Xm ), Y = (Y1 , . . . , Yn ) zwei unabhängige mehrdimensionale Zufallsvariablen über einem WR (Ω, F, P) und
f : Rm → Rr , g : Rn → Rs (m, n, r, s ∈ N) Bm -Br - bzw. Bn -Bs -meßbare Abbildungen. Dann sind f (X) := f ◦ X und g(Y ) := g ◦ Y unabhängig. (Die Xi
brauchen dabei untereinander nicht unabhängig zu sein, ebensowenig die Yj .)
1.1.21 Vereinbarung:
Im Rest dieses Paragraphen werden Vektoren als Spaltenvektoren geschrieben,
um die Darstellungsweise der Ökonometrie und linearen Algebra direkt verwenden zu können.
1.1.22 Satz:
Die Abbildung f : Rn → R mit
1
− u0 u
1
e 2
f (u) = √
( 2π)n
∀u = (u1 , . . . un )0 ∈ Rn
ist eine Dichtefunktion.
1.1.23 Definition:
Eine n-dimensionale Zufallsvariable X = (X1 , . . . , Xn )0 heißt n-dimensional gaußverteilt
oder normalverteilt N (0, I) mit 0 = (0, 0, . . . , 0)0 ∈ Rn und


1
0


n·n
...
I=
 ∈R ,
0
1
wenn für sie eine Dichte fX existiert mit
1
− u0 u
1
fX (u) = √
e 2
( 2π)n
∀u = (u1 , . . . un )0 ∈ Rn .
1.1.24 Satz:
Die Zufallsvariable X = (X1 , . . . , Xn )0 sei n-dimensional gaußverteilt. Dann gilt:
.1) Die Komponenten Xi sind N (0, 1)-verteilt und unabhängig.
.2) EX = 0 ist der Erwartungswertvektor und ΣX X 0 = I ist die VarianzKovarianz-Matrix von X.
c
V.
Steinmetz: Schließende Statistik
–7–
1.1.25 Satz:
Es seien X eine eindimensionale Zufallsvariable mit einer Dichte fX : R → R
und g : R → R eine streng monotone, surjektive und stetig differenzierbare
Funktion mit dg(u)
6= 0 für alle u ∈ R. Dann ist Y = g(X) := g ◦ X eine stetige
du
Zufallsvariable mit einer Dichte
−1 dg (v) · fX (g −1 (v))
fY (v) = ∀v ∈ R.
dv 1.1.26 Satz:
Es seien X = (X1 , . . . , Xn )0 eine n-dimensionale stetige Zufallsvariable mit einer
Dichte fX : Rn → R und g : Rn → Rn eine invertierbare Abbildung mit
g −1 (v) =: h(v) =: (h1 (v), . . . , hn (v))0
∀v = (v1 , ..., vn )0 ∈ Rn .
Es gelte
a) g und g −1 =: h sind stetig,
b) die partiellen Ableitungen
∂hi
∂vj
(i, j = 1, . . . , n) sind stetig,
c) die Funktionaldeterminante von h hat die Eigenschaft

∂(h1 , . . . , hn )

:= det 
∂(v1 , . . . , vn )
∂h1
∂v1
···
..
.
∂hn
∂v1
∂h1
∂vn
..
.
···
∂hn
∂vn


 6= 0
∀v = (v1 , ..., vn )0 ∈ Rn .
Dann ist Y = g(X) eine stetige Zufallsvariable mit einer Dichte
∂(h1 , . . . hn ) · fX (h1 (v1 , . . . , vn ), . . . , hn (v1 , . . . , vn ))
fY (v1 , . . . , vn ) = ∂(v1 , . . . vn ) ∀v = (v1 , ..., vn )0 ∈ Rn .
(Beweis: siehe z.B. [Rohatgi] S.135 f.)
1.1.27 Bemerkung:
Ist die Dichte fX nur auf einem Teilgebiet des Rn von 0 verschieden, genügt es
im wesentlichen, die Transformation g nur auf diesem Teilgebiet zu betrachten.
Liegt eine Transformation g : Rn → Rm mit m < n vor, erweitert man diese
geeignet zu einer Abbildung in den Rn , so daß die Voraussetzungen von Satz
(1.1.26) erfüllt sind, und berechnet dann die interessierende Randdichte.
c
V.
Steinmetz: Schließende Statistik
–8–
1.1.28 Folgerung:
Es seien X = (X1 , . . . , Xn )0 eine stetige n-dimensionale Zufallsvariable mit einer
Dichte fX : Rn → R, A = (aij )i,j=1,...,n ∈ Rn·n eine invertierbare Matrix und
b = (b1 , . . . , bn )0 ∈ Rn . Dann ist Y := AX + b eine stetige Zufallsvariable mit
einer Dichte
fY (v) =
1
· fX (A−1 (v − b))
| det A|
∀v ∈ Rn .
1.1.29 Satz:
Es seien X = (X1 , . . . , Xn )0 eine n-dimensionale gaußverteilte Zufallsvariable,
A = (aij )i,j=1,...,n ∈ Rn·n eine invertierbare Matrix und µ = (µ1 , . . . , µn )0 ∈ Rn .
Dann hat die Zufallsvariable Y := AX + µ eine Dichte
1
− (v − µ)0 A0−1 A−1 (v − µ)
1
1
fY (v) = √
·
·e 2
.
( 2π)n | det A|
1.1.30 Satz:
Es seien Σ = (σij )i,j=1,...,n ∈ Rn·n eine positiv definite Matrix und
µ = (µ1 , . . . , µn )0 ∈ Rn . Dann ist die Abbildung f : Rn → R mit
1
√
f (u) = √
( 2π)n det Σ
1
− (u − µ)0 Σ−1 (u − µ)
·e 2
∀u = (u1 , . . . , un )0 ∈ Rn
eine Dichtefunktion.
1.1.31 Definition:
Eine n-dimensionale Zufallsvariable X = (X1 , . . . , Xn )0 heißt n-dimensional
normalverteilt N (µ, Σ) mit µ = (µ1 , . . . , µn )0 ∈ Rn und Σ = (σij )i,j=1,...,n ∈ Rn·n
positiv definit, wenn für sie eine Dichte existiert mit
1
√
fX (u) = √
( 2π)n det Σ
1
− (u − µ)0 Σ−1 (u − µ)
e 2
∀u = (u1 , . . . , un )0 ∈ Rn .
1.1.32 Satz:
Die Zufallsvariable X = (X1 , . . . , Xn )0 sei N (µ, Σ)-verteilt. Dann gilt
.1) Die Verteilung von X kann man durch eine invertierbare lineare Transformation aus einer Gaußverteilung gleicher Dimension herleiten.
c
V.
Steinmetz: Schließende Statistik
–9–
.2) EX = µ ist der Erwartungswertvektor und ΣX X 0 = Σ ist die VarianzKovarianz-Matrix von X.
.3) Alle Randverteilungen von X sind normalverteilt mit den in µ und Σ festgelegten Erwartungswerten, Varianzen und Kovarianzen der ausgewählten
Komponenten.
.4) Sind die X1 , . . . , Xn paarweise unkorreliert, so sind sie auch stochastisch
unabhängig.
1.1.33 Satz:
Es seien X = (X1 , . . . , Xn )0 eine N (µ, Σ)-verteilte Zufallsvariable,
b = (b1 , . . . , bm )0 ∈ Rm mit m ≤ n und B = (bij ) i=1,...,m ∈ Rm·n mit rg (B) = m.
j=1,...,n
Dann ist Z := BX + b eine m-dimensionale N (Bµ + b, BΣB 0 )-verteilte Zufallsvariable.
1.1.34 Bemerkung:
Sind bei einer mehrdimensionalen Zufallsvariablen alle Randverteilungen normalverteilt, so braucht die gemeinsame Verteilung keine Normalverteilung zu
sein; sind die Komponenten aber zusätzlich unabhängig, so ist auch die gemeinsame Verteilung eine Normalverteilung.
1.1.35 Satz:
Es seien A ∈ Rn·n eine idempotente und B ∈ Rn·n eine symmetrische Matrix mit
B · A = O. Weiter sei X = (X1 , . . . , Xn )0 eine N (µ, σ 2 I)-verteilte Zufallsvariable. Dann sind die Zufallsvariablen q1 := X 0 AX und q2 := X 0 BX stochastisch
unabhängig.
c
V.
Steinmetz: Schließende Statistik
–10–
1.2 Konvergenzbegrif fe
1.2.1 Definition:
Eine Folge (xn )n∈N reeller Zahlen heißt konvergent gegen ein x ∈ R, in Zeichen
lim xn = x,
n→∞
wenn gilt
(∀ε > 0)(∃nε ∈ N)(∀n ≥ nε )(|xn − x| ≤ ε).
Sind x = (x1 , . . . , xK )0 und xi = (xi1 , . . . , xiK )0 (i ∈ N) Vektoren aus dem RK ,
so definiert man die Konvergenz analog unter Verwendung von
v
uK
uX
|x − x| := t (x − x )2 .
ik
i
k
k=1
1.2.2 Definition:
Es seien (Xn )n∈N eine Folge von Zufallsvariablen und X eine Zufallsvariable über
einem WR (Ω, F, P); (Xn )n∈N heißt P-fast sicher konvergent (P-fast überall,
almost sure(ly), (a.s.) with probability 1) gegen X, wenn gilt
(∃A ∈ F)(P A = 1 ∧ (∀ω ∈ A)( lim Xn (ω) = X(ω))).
n→∞
Man schreibt:
lim Xn = X
n→∞
P-f.s. .
1.2.3 Definition:
Es gelten die Voraussetzungen von Definition (1.2.2). X habe eine 1-PunktVerteilung auf a, d.h. QX {a} = P {X = a} = 1. Gilt
lim Xn = X
P-f.s. ,
lim Xn = a
P-f.s. .
n→∞
so schreibt man auch
n→∞
1.2.4 Definition:
Es seien (Xn )n∈N eine Folge von Zufallsvariablen und X eine Zufallsvariable über
einem WR (Ω, F, P) und r ∈ [1, ∞[. (Xn )n∈N heißt konvergent gegen X im r-ten
Mittel (in the r-th mean), wenn gilt
lim E|Xn − X|r = 0.
n→∞
Man schreibt auch
lim Xn = X
n→∞
c
V.
Steinmetz: Schließende Statistik
im r−ten Mittel.
–11–
1.2.5 Definition:
Es seien (Xn )n∈N eine Folge von Zufallsvariablen und X eine Zufallsvariable
über einem WR (Ω, F, P). Man sagt, (Xn ) konvergiere stochastisch gegen X
(konvergiere in der Wahrscheinlichkeit, in probability), wenn gilt
(∀ε > 0)( lim P{ω ∈ Ω| |Xn (ω) − X(ω)| ≥ ε} = 0)
n→∞
und man schreibt:
plim Xn = X.
n→∞
1.2.6 Satz:
Aus der P-fast sicheren Konvergenz folgt die stochastische Konvergenz.
1.2.7 Hilfssatz (Ungleichung von Tschebyschev, Markovsche Ungleichung):
Es sei Y eine Zufallsvariable mit E|Y |r < ∞, r > 0. Dann gilt:
E|Y |r
(∀ε > 0) P{|Y | ≥ ε} ≤
.
εr
1.2.8 Satz:
Aus der Konvergenz im r-ten Mittel folgt die stochastische Konvergenz.
1.2.9 Satz:
Es seien (Xn )n∈N eine Folge von r-dimensionalen Zufallsvariablen und X eine rdimensionale Zufallsvariable über einem Wahrscheinlichkeitsraum (Ω, F, P) mit
plim Xn = X.
n→∞
Weiterhin sei g : Rr → Rs eine stetige Funktion. Dann gilt auch
plim g(Xn ) = g(X).
n→∞
1.2.10 Definition:
Es seien (Xn )n∈N eine Folge von Zufallsvariablen und X eine Zufallsvariable
mit Verteilungsfunktionen Fn (n ∈ N) und F . Man sagt, (Xn ) konvergiere der
Verteilung nach (in law, weakly, in distribution, schwach) gegen X, wenn gilt
lim Fn (x) = F (x)
n→∞
c
V.
Steinmetz: Schließende Statistik
für alle Stetigkeitspunkte von F .
–12–
1.2.11 Satz:
Aus der stochastischen Konvergenz folgt die Verteilungskonvergenz.
1.2.12 Satz:
Die Folge (Xn )n∈N von r-dimensionalen Zufallsvariablen sei verteilungskonvergent gegen die r-dimensionale Zufallsvariable X und g : Rr → Rs sei stetig.
Dann ist (g(Xn ))n∈N verteilungskonvergent gegen g(X).
c
V.
Steinmetz: Schließende Statistik
–13–
1.3 Grenzwertsätze
1.3.1 Definition:
Es sei (Xn )n∈N eine Folge eindimensionaler Zufallsvariablen über einem
Wahrscheinlichkeitsraum (Ω, F, P). Man sagt, sie genüge dem schwachen Gesetz
der großen Zahlen (weak law of large numbers), wenn es eine Konstante c ∈ R
gibt, so daß für die Zufallsvariablen
n
Yn :=
1X
Xk ,
n k=1
n∈N
gilt
lim P{|Yn − c| ≥ ε} = 0,
∀ε > 0
n→∞
(d.h.: plim Yn = c) .
n→∞
1.3.2 Satz:
Eine Folge (Xk )k∈N unabhängig identisch verteilter Zufallsvariablen
mit EXk = µ und VarXk = σ 2 > 0 für alle k ∈ N genügt dem schwachen Gesetz
der großen Zahlen, es gilt
( n
)
1 X
lim P Xk − µ ≥ ε = 0,
n→∞
n
k=1
∀ε > 0.
1.3.3 Satz (Grenzwertsatz von De Moivre und Laplace):
Es sei (Xn )n∈N eine Folge binomial-B(n, p)-verteilter Zufallsvariablen, d.h.
n x
QXn {x} =
p (1 − p)n−x =: b(x|n, p),
x
x = 0, . . . , n,
und es sei (Yn )n∈N die Folge der Zufallsvariablen mit
Xn − np
Yn := p
.
np(1 − p)
Dann gilt
1
lim FYn (y) = φ(y) = √
n→∞
2π
c
V.
Steinmetz: Schließende Statistik
Z
y
−∞
t2
e− 2 dt
∀y ∈ R.
0<p<1
–14–
1.3.4 Satz (Zentraler Grenzwertsatz):
Es seien (Xk )k∈N eine Folge unabhängig identisch verteilter Zufallsvariablen mit
EXk = µ und VarXk = σ 2 > 0 für alle k ∈ N. Dann gilt für die Zufallsvariablen
n
n
P
P
1
Xk − µ
Xk − nµ
n
√
k=1
k=1
√
Yn :=
n=
,
n∈N:
σ
σ n
lim P{Yn ≤ y} = lim FYn (y) = φ(y).
n→∞
n→∞
(Zum Beweis siehe z.B. [Fisz] S. 235 f.)
1.3.5 Definition:
Es sei (x1 , . . . , xn ) ∈ Rn Realisation einer Stichprobe. Die Funktion
F̂ (· | x1 , . . . , xn ) : R → R
mit
#{k | xk ≤ y, k ∈ {1, . . . , n}}
∀y ∈ R
n
heißt empirische Verteilungsfunktion zur Stichprobenrealisation (x1 , . . . , xn ).
F̂ (y | x1 , . . . , xn ) :=
1.3.6 Satz:
Es seien X = (X1 , . . . , Xn ) eine einfache Stichprobe (vgl. 2.3.6 Definition) zu
einer Zufallsvariablen Y mit Verteilungsfunktion FY (·) und F̂ (· | x1 , . . . , xn )) für
jedes (x1 , . . . , xn ) ∈ Rn die entsprechende empirische Verteilungsfunktion. Dann
gilt
plim F̂ (y | X1 , . . . , Xn ) = FY (y)
∀y ∈ R.
n→∞
1.3.7 Bemerkung:
Aus dem Beweis zu Satz (1.3.6) sieht man auch
E[F̂ (y | X1 , . . . , Xn )] = FY (y)
FY (y)(1 − FY (y))
.
n
Dies bedeutet, daß F̂ (y | X1 , . . . , Xn ) eine erwartungstreue und konsistente
Schätzfunktion für FY (y) ist (vgl. Kapitel 3).
Var[F̂ (y | X1 , . . . , Xn )] =
1.3.8 Satz (Satz von Glivenko-Cantelli, Fundamentalsatz der mathematischen Statistik):
Es seien X = (X1 , . . . , Xn ) eine einfache Stichprobe (vgl. 2.3.6 Definition) zu
einer Zufallsvariablen Y mit Verteilungsfunktion F (·) und F̂ (· | x1 , . . . , xn ) für
jedes (x1 , . . . , xn ) ∈ Rn die empirische Verteilungsfunktion. Dann gilt:
lim sup | F̂ (y|X1 , . . . , Xn ) − F (y)| = 0 P-fast sicher.
n→∞ y∈R
c
V.
Steinmetz: Schließende Statistik
–15–
2 Grundbegrif fe der statistischen
Entscheidungstheorie
2.1 Einführung in die Problemstellung
Da dieser Abschnitt keine formalisierten Teile enthält, sind die Hörer hierzu auf
eigene Notizen angewiesen.
2.2 Das klassische Entscheidungsmodell
2.2.1 Vereinbarung:
Ein Präentscheidungsmodell ist ein Tripel (A, Z, S) mit
• A 6= ∅ ist eine Menge, genannt Aktionsraum,
• Z 6= ∅ ist eine Menge, genannt Zustandsraum,
• S : A × Z → R ist eine Abbildung, genannt Schadensfunktion.
(S(a, z) ist der Schaden, den der Entscheidungsträger erleidet, wenn er Aktion
a ∈ A auswählt und Umweltzustand z ∈ Z vorliegt.)
2.2.2 Definition:
Es seien (A, Z, S) ein Präentscheidungsmodell und a, a0 ∈ A. Man sagt, die
Aktion a dominiere die Aktion a0 (a0 werde von a dominiert), falls gilt
S(a, z) ≤ S(a0 , z)
∀z ∈ Z.
Gibt es darüberhinaus (mindestens) ein z 0 ∈ Z mit
S(a, z 0 ) < S(a0 , z 0 ),
so sagt man, a dominiere a0 strikt (a0 werde von a strikt dominiert).
2.2.3 Definition:
Es sei (A, Z, S) ein Präentscheidungsmodell. Eine Aktion a∗ ∈ A, welche alle
anderen Aktionen aus A dominiert, heißt gleichmäßig beste Aktion.
2.2.4 Vereinbarung:
Es sei (A, Z, S) ein Präentscheidungsmodell. Eine Vorschrift zur Definition und
Ermittlung optimaler Aktionen aus A bezeichnet man als Entscheidungsregel
(hier abgekürzt mit e). Das Quadrupel (A, Z, S, e) heißt dann ein
Entscheidungsmodell.
c
V.
Steinmetz: Schließende Statistik
–16–
2.2.5 Definition:
Es sei (A, Z, S, e) ein Entscheidungsmodell. Die Entscheidungsregel e heißt
.1) Minimax-Regel oder Wald-Regel, wenn eine optimale Aktion a∗ ∈ A definiert
wird durch
sup S(a∗ , z) = inf sup S(a, z),
z∈Z
a∈A z∈Z
.2) Minimin-Regel, wenn eine optimale Aktion a∗ ∈ A definiert wird durch
inf S(a∗ , z) = inf inf S(a, z),
z∈Z
a∈A z∈Z
.3) Hurwitz-Regel mit Optimismusparameter λ ∈ [0, 1], wenn eine optimale Aktion a∗ ∈ A definiert wird durch
∗
∗
(1−λ) sup S(a , z)+λ inf S(a , z) = inf (1 − λ) sup S(a, z) + λ inf S(a, z) ,
z∈Z
z∈Z
a∈A
z∈Z
z∈Z
(dabei sollte S nach oben oder unten beschränkt sein, damit nicht möglicherweise
∞ − ∞ o.ä. auftritt)
.4) Minimax-Regret-Regel oder Savage-Niehans-Regel, wenn eine optimale Aktion a∗ ∈ A definiert wird durch
∗
sup S(a , z) − inf S(a, z) = inf sup S(ã, z) − inf S(a, z) .
z∈Z
a∈A
ã∈A z∈Z
a∈A
2.2.6 Definition:
Es seien (A, Z, S, e) ein Entscheidungsmodell und Π eine Wahrscheinlichkeitsverteilung auf Z, die sog. A-priori-Verteilung. Die Entscheidungsregel e heißt
Bayes-Regel, wenn eine optimale Aktion a∗ ∈ A definiert wird durch
EΠ S(a∗ , ·) = inf EΠ S(a, ·) .
a∈A
c
V.
Steinmetz: Schließende Statistik
–17–
2.3 Die Grundannahmen der Statistik
2.3.1 Erste Grundannahme der Statistik:
Der interessierende Umweltausschnitt kann durch eine (ein- oder mehrdimensionale) Zufallsvariable Y beschrieben werden.
2.3.2 Zweite Grundannahme der Statistik (”Verteilungsannahme”):
Es sei Y die Zufallsvariable, durch welche der interessierende Umweltausschnitt
gemäß (2.3.1) beschrieben wird. Man kann eine Menge W von Wahrscheinlichkeitsverteilungen angeben, zu der die unbekannte wahre Verteilung von Y gehört.
2.3.3 Bemerkung:
Es ist üblich, zur Vereinfachung auch die in der zweiten Grundannahme eingeführte Menge W selbst als Verteilungsannahme zu bezeichnen.
2.3.4 Vereinbarung:
Es seien W eine Verteilungsannahme zu einer Zufallsvariablen Y und
∅ 6= Θ ⊆ Rr . Eine surjektive Abbildung
t:Θ→W
heißt Parametrisierung von W und mit
t(ϑ) =: QY,ϑ
schreibt man auch
W = {QY,ϑ | ϑ ∈ Θ},
man spricht von einer parametrischen Verteilungsannahme mit dem
Parameterraum Θ .
In dieser Vorlesung wird vorausgesetzt, daß gilt
(∀ϑ1 , ϑ2 ∈ Θ)(ϑ1 6= ϑ2 ⇒ QY,ϑ1 6= QY,ϑ2 ),
man sagt, die Parameter ϑ ∈ Θ sollen identifizierbar sein. (I.a. werden in einer
parametrischen Verteilungsannahme nur Verteilungen eines Typs - also z.B. nur
Normalverteilungen, nur Dreipunktverteilungen mit festen Trägerpunkten etc. enthalten sein).
Ist eine Verteilungsannahme nicht parametrisch, heißt sie auch nichtparametrisch
(verteilungsfrei).
2.3.5 Dritte Grundannahme der Statistik:
W sei die Verteilungsannahme zu einer Zufallsvariablen Y . Es wird angenommen,
daß Realisationen x1 , . . . , xn von Zufallsvariablen X1 , . . . , Xn beobachtet werden
c
V.
Steinmetz: Schließende Statistik
–18–
können, deren gemeinsames Verteilungsgesetz von der Verteilung QY ∈ W in
vollständig bekannter Weise abhängt.
Man bezeichnet den Vektor (X1 , . . . , Xn ) als (Zufalls)stichprobe vom Umfang n
zu Y und (x1 , . . . , xn ) als eine Stichprobenrealisation. Die Menge aller Stichprobenrealisationen heißt Stichprobenraum und wird mit X bezeichnet.
2.3.6 Definition:
Es seien Y eine (ein- oder mehrdimensionale) Zufallsvariable über einem WR
(Ω̃, F̃, P̃) und X1 , . . . , Xn (n ∈ N) stochastisch unabhängige Zufallsvariablen,
die identisch verteilt wie Y sind.
Dann heißt X := (X1 , . . . , Xn ) eine einfache Stichprobe vom Umfang n zu Y .
(Ω, F, P) bezeichne den zu X gehörenden WR. Weiterhin heißt
(x1 , . . . , xn ) := (X1 (ω), . . . , Xn (ω)) = X(ω),
∀ω ∈ Ω
eine Realisation der Stichprobe X und X := X(Ω) ihr Stichprobenraum.
2.4 Statistische Entscheidungsfunktionen
2.4.1 Definition:
Es sei Y eine eindimensionale Zufallsvariable, X = (X1 , . . . , Xn ) eine Stichprobe
zu Y mit dem Stichprobenraum X und es sei D eine Menge von Entscheidungen
über QY mit einer σ-Algebra D. Eine Bn |X -D-meßbare Abbildung
δ:X→D
heißt statistische Entscheidungsfunktion (SEF). (Eine Verallgemeinerung auf
mehrdimensionale Y ist problemlos.)
2.4.2 Bemerkung:
Wir werden auf Meßbarkeitsuntersuchungen verzichten und deshalb auch D nicht
spezifizieren.
c
V.
Steinmetz: Schließende Statistik
–19–
2.5 Optimalität statistischer Entscheidungsfunktionen
2.5.1 Definition:
Als statistisches Entscheidungsmodell zu einer Zufallsvariablen Y bezeichnet
man ein Sechstupel (W, D, X, ∆, S, e) mit
• W ist eine Verteilungsannahme zu Y ,
• D ist eine Menge von Entscheidungen über QY mit σ-Algebra D,
• X ist der Stichprobenraum einer Stichprobe X = (X1 , . . . , Xn )
zur Zufallsvariablen Y ,
• ∆ ist eine Menge von statistischen Entscheidungsfunktionen δ : X → D,
• S : D × W → R ist eine Schadensfunktion mit
– S(·, QY ) : D → R ist D-B1 -meßbar
– EQX S(δ(X), QY ) existiert
∀QY ∈ W ,
∀QY ∈ W, ∀δ ∈ ∆,
• e ist eine Entscheidungsregel.
2.5.2 Definition:
Es sei (W, D, X, ∆, S, e) ein statistisches Entscheidungsmodell. Für δ ∈ ∆ heißt
die Abbildung R(δ, ·) : W → R mit
R(δ, QY ) := EQX S(δ(X), QY ),
∀QY ∈ W
die Risikofunktion von δ.
2.5.3 Definition:
Es seien (W, D, X, ∆, S, e) ein statistisches Entscheidungsmodell und
R(δ, ·) : W → R die Risikofunktion zu δ ∈ ∆.
δ ∗ ∈ ∆ heißt gleichmäßig beste statistische Entscheidungsfunktion in ∆, wenn
gilt
R(δ ∗ , QY ) ≤ R(δ, QY )
∀QY ∈ W, ∀δ ∈ ∆,
δ ∗ ∈ ∆ heißt Minimax-Entscheidungsfunktion in ∆, wenn gilt
sup R(δ ∗ , QY ) = inf sup R(δ, QY ).
δ∈∆ QY ∈W
QY ∈W
Ist Π eine A-priori-Verteilung über W , so heißt δ ∗ ∈ ∆
Bayes-Entscheidungsfunktion in ∆ bzgl. Π, wenn gilt:
EΠ R(δ ∗ , ·) = inf EΠ R(δ, ·).
δ∈∆
c
V.
Steinmetz: Schließende Statistik
–20–
3 Parameterpunktschätzungen
3.1 Grundbegrif fe
3.1.1 Definition:
Es seien Y eine Zufallsvariable, W eine parametrische Verteilungsannahme mit
dem Parameterraum Θ, γ : Θ → Rm eine Abbildung und X = (X1 , . . . , Xn )
eine Stichprobe zu Y mit Stichprobenraum X. Eine statistische Entscheidungsfunktion
δ : X → D := γ(Θ)
heißt Parameterpunktschätzfunktion für den Parameter γ(ϑ) mit ϑ ∈ Θ
(bisweilen wählt man D % γ(Θ) ).
3.1.2 Definition:
Es seien X = (X1 , . . . , Xn ) eine Stichprobe über (Ω, F, P) mit dem Stichprobenraum X ⊆ Rn und (x1 , . . . , xn ) ∈ X. Die Abbildung
n
1X j
µ̂j : X → R mit µ̂j (x1 , . . . , xn ) =
x =: xj
n k=1 k
und auch die Abbildung
n
µ̂j (X1 , . . . , Xn ) =
1X j
X =: X j : Ω → R
n k=1 k
bezeichnet man als Stichprobenmoment um Null j-ter Ordnung (j ∈ N ∪ {0}).
Speziell für j = 1 nennt man x1 =: x und X 1 =: X Stichprobenmittelwert.
Die Abbildung
n
1X
σ̂j : X → R mit σ̂j (x1 , . . . , xn ) =
(xk − x)j
n k=1
und auch die Abbildung
n
σ̂j (X1 , . . . , Xn ) =
1X
(Xk − X)j : Ω → R
n k=1
heißt zentrales Stichprobenmoment j-ter Ordnung (j ∈ N ∪ {0}).
Speziell für j = 2 nennt man σ̂2 (x1 , . . . , xn ) =: σ̂ 2 (x1 , . . . , xn ) und
σ̂2 (X1 , . . . , Xn ) =: σ̂ 2 (X1 , . . . , Xn ) Stichprobenstreuung.
Weiterhin heißen
n
S 2 :=
σ̂2 : X → R
n−1
und
n
n
1 X
2
S (X1 , . . . , Xn ) =
σ̂2 (X1 , . . . , Xn ) =
(Xk − X)2 : Ω → R,
n−1
n − 1 k=1
korrigierte Stichprobenstreuung.
c
V.
Steinmetz: Schließende Statistik
–21–
3.1.3 Definition:
Es seien (X, Y ) = ((X1 , Y1 ), . . . , (Xn , Yn )) eine Stichprobe über (Ω, F, P) mit
dem Stichprobenraum X ⊆ R2n und (x, y) ∈ X.
Die Abbildung
n
1X i j
x y
µ̂ij : X → R mit µ̂ij (x, y) =
n k=1 k k
und auch die Abbildung
n
µ̂ij (X, Y ) =
1X i j
X Y :Ω→R
n k=1 k k
heißt Stichprobenmoment um Null (i + j)-ter Ordnung (i, j ∈ N ∪ {0}.
Die Abbildung
n
1X
σ̂ij : X → R mit σ̂ij (x, y) =
(xk − x)i (yk − y)j
n k=1
und auch die Abbildung
n
1X
σ̂ij (X, Y ) =
(Xk − X)i (Yk − Y )j : Ω → R
n k=1
heißt zentrales Stichprobenmoment (i + j)-ter Ordnung, (i, j ∈ N ∪ {0}).
Speziell für i = j = 1 nennt man σ̂11 (x, y) und σ̂11 (X, Y )
Stichprobenkovarianz. Gilt weiterhin
P{σ̂2 (X) = 0} = 0 = P{σ̂2 (Y ) = 0},
so bezeichnet man die Abbildung
n
P
(Xk − X)(Yk − Y )
s
ρ̂(X, Y ) = s
n
n
P
P
(Xk − X)2
(Yk − Y )2
k=1
k=1
als Stichprobenkorrelationskoeffizienten.
c
V.
Steinmetz: Schließende Statistik
k=1
–22–
3.2 Erwartungstreue und wirksamste Schätzfunktionen
3.2.1 Satz:
Es seien X eine Stichprobe zu einer Zufallsvariablen Y mit parametrischer Verteilungsannahme W = {QY,ϑ | ϑ ∈ Θ}, Θ der Parameterraum, X der Stichprobenraum, γ : Θ → R eine Abbildung und δ : X → γ(Θ) eine Schätzfunktion für
γ(ϑ), ϑ ∈ Θ. Ist S : D × W → R mit
S(d, QY,ϑ ) = (d − γ(ϑ))2 ,
∀d ∈ D, ∀ϑ ∈ Θ
die quadratische Schadensfunktion, so gilt für die Risikofunktion R(δ, ·) : W → R
mit
R(δ, QY,ϑ ) = Eϑ (δ − γ(ϑ))2
die Zerlegung
R(δ, QY,ϑ ) = Varϑ δ + [Eϑ δ − γ(ϑ)]2 .
3.2.2 Definition:
Es gelten die Voraussetzungen von Satz (3.2.1). Man bezeichnet
Eϑ (δ − γ(ϑ))2
als mittleren quadratischen Fehler (mean squared error, MSE) der Schätzfunktion
δ für den Parameter γ(ϑ),
Eϑ δ − γ(ϑ)
(bisweilen auch γ(ϑ) − Eϑ δ)
als Bias (Verzerrung).
Die Schätzfunktion δ heißt erwartungstreu (unverzerrt, unbiased) für γ(ϑ), wenn
gilt
Eϑ δ = γ(ϑ),
∀ϑ ∈ Θ.
3.2.3 Satz:
Es seien X = (X1 , . . . , Xn ) eine einfache Stichprobe zu Y mit EY = µ und
VarY = σ 2 > 0. Dann ist
n
1X
X :=
Xk
n k=1
eine erwartungstreue Schätzfunktion für µ und
n
S 2 (X1 , . . . , Xn ) =
1 X
(Xk − X)2
n − 1 k=1
eine erwartungstreue Schätzfuntion für σ 2 .
c
V.
Steinmetz: Schließende Statistik
(n ≥ 2)
–23–
3.2.4 Folgerung:
Es gelten die Voraussetzungen von Satz (3.2.3). Dann ist
n
1X
σ̂ (X) =
(Xk − X)2 ,
n k=1
2
n≥2
nicht erwartungstreu für σ 2 > 0.
3.2.5 Definition:
Es seien W eine parametrische Verteilungsannahme mit dem Parameterraum Θ
und γ : Θ → R eine Abbildung. Eine Folge (δn )n∈N von Punktschätzfunktionen
δn für γ(ϑ) (ϑ ∈ Θ) heißt asymptotisch erwartungstreu (asymptotically unbiased) für γ(ϑ), wenn gilt
lim Eδn = γ(ϑ),
n→∞
∀ϑ ∈ Θ.
3.2.6 Definition:
Es gelten die Voraussetzungen von Satz (3.2.1), δ1 und δ2 seien erwartungstreue
Schätzfunktionen für γ(ϑ), ϑ ∈ Θ. δ1 heißt mindestens so wirksam wie δ2 für
γ(ϑ), wenn gilt
Varϑ δ1 ≤ Varϑ δ2
∀ϑ ∈ Θ.
Es sei ∆E die Menge aller in Betracht gezogenen erwartungstreuen Schätzfunktionen
für γ(ϑ). δ ∗ ∈ ∆E heißt wirksamste (effiziente, efficient) Schätzfunktion für γ(ϑ)
in ∆E , wenn es mindestens so wirksam ist wie jedes δ ∈ ∆E .
3.2.7 Definition:
Die Zufallsvariable Y sei stetig verteilt mit Dichtefunktion f (·|ϑ), ϑ ∈ Θ ⊆ R.
f heißt regulär , wenn gilt
.1) es gibt ein von ϑ unabhängiges B ∈ B1 mit QY,ϑ B = 1 ∀ϑ ∈ Θ
und f (y|ϑ) > 0 ∀y ∈ B,
.2)
.3)
f (y|ϑ) ist nach ϑ differenzierbar ∀y ∈ B, ∀ϑ ∈ Θ,
Z
Z
∂
∂
f (y|ϑ) dy =
f (y|ϑ) dy ∀ϑ ∈ Θ.
∂ϑ B
B ∂ϑ
Es sei X = (X1 , . . . , Xn ) eine einfache Stichprobe zu Y . Eine Schätzfunktion
δ(X) für ϑ heißt regulär, wenn gilt
.4)
Varϑ δ < ∞,
c
V.
Steinmetz: Schließende Statistik
–24–
.5)
Z
Z
∂
· · · δ(x1 , . . . , xn )f (x1 |ϑ) · . . . · f (xn |ϑ) dx1 . . . dxn
∂ϑ
Z
Z
∂ = · · · δ(x1 , . . . , xn )
f (x1 |ϑ) · . . . · f (xn |ϑ) dx1 . . . dxn
∂ϑ
∀ϑ ∈ Θ.
Für eine diskrete Zufallsvariable Y mit den Trägerpunkten yi (i ∈ I ⊆ N) sind
entsprechende Forderungen an die Punktmassenfunktion mit p(yi |ϑ) =: pi (ϑ) zu
stellen.
3.2.8 Satz (Rao-Cramér-Ungleichung):
Es seien X = (X1 , . . . , Xn ) eine einfache Stichprobe zu einer Zufallsvariablen Y
mit regulärer Dichtefunktion fY (· | ϑ) ϑ ∈ Θ ⊆ R und δ eine erwartungstreue
und reguläre Schätzfunktion für ϑ. Dann gilt
1
=: R(ϑ) ∀ϑ ∈ Θ.
Varϑ δ ≥ Z 2
∂ ln fY (y | ϑ)
f (y | ϑ) dy
n
∂ϑ
B
Im diskreten Fall gilt unter entsprechenden Forderungen
1
Varϑ δ ≥
n
X
i∈I
∂ ln pi (ϑ)
∂ϑ
=: R(ϑ) ∀ϑ ∈ Θ.
2
pi (ϑ)
3.2.9 Bemerkung:
.1) Es sei für Θ ⊆ R, γ : Θ → R eine differenzierbare Abbildung. Weiterhin
seien die Voraussetzungen wie in Satz (3.2.8) gegeben, nur sei δ jetzt erwartungstreu für γ(ϑ) (ϑ ∈ Θ).
In diesem Fall muß man die rechte Seite der Rao-Cramér-Ungleichung noch
mit
2
dγ(ϑ)
dϑ
multiplizieren.
.2) Eine Verallgemeinerung der Rao-Cramér-Ungleichung auf den mehrdimensionalen Fall Θ ⊆ Rr , γ : Θ → Rs (r, s ∈ N) ist möglich (vgl. z.B.
[Witting], S.317).
c
V.
Steinmetz: Schließende Statistik
–25–
3.3 Konsistente Schätzfunktionen
3.3.1 Definition:
Es seien W = {Qϑ | ϑ ∈ Θ} eine parametrische Verteilungsannahme und
γ : Θ → R eine Abbildung. Eine Folge (δn )n∈N mit δn : X → γ(Θ) von
Schätzfunktionen heißt konsistent für γ(ϑ) bzgl. des mittleren quadratischen
Fehlers (consistent in mean square, consistent in quadratic mean, im quadratischen Mittel, i.q.M.), wenn gilt
lim Eϑ (δn − γ(ϑ))2 = 0,
n→∞
∀ϑ ∈ Θ.
3.3.2 Satz:
Es gelten die Voraussetzungen von Definition (3.3.1). Die Folge (δn )n∈N ist konsistent i.q.M. für γ(ϑ) genau dann, wenn gilt
lim Varϑ δn = 0 und
n→∞
lim Eϑ (δn ) = γ(ϑ)
n→∞
∀ϑ ∈ Θ.
3.3.3 Definition:
Es gelten die Voraussetzungen von Definition (3.3.1). (δn )n∈N heißt konsistente
Folge von Schätzfunktionen für γ(ϑ), wenn gilt
lim P{|δn − γ(ϑ)| ≥ ε} = 0,
n→∞
∀ε > 0, ∀ϑ ∈ Θ
und man schreibt
plim δn = γ(ϑ),
n→∞
∀ϑ ∈ Θ.
3.3.4 Satz:
Es gelten die Voraussetzungen von Definition (3.3.1). Dann folgt aus der Konsistenz im quadratischen Mittel die Konsistenz.
c
V.
Steinmetz: Schließende Statistik
–26–
3.4 Erschöpfende (suf f iziente) Schätzfunktionen
3.4.1 Definition:
Es seien Y eine Zufallsvariable, W = {QY,ϑ | ϑ ∈ Θ ⊆ Rr } eine parametrische
Verteilungsannahme X = (X1 , . . . , Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X und δ : X → Θ eine Punktschätzfunktion für ϑ. δ heißt erschöpfend
(suffizient, hinreichend, sufficient), falls die bedingte Verteilung QX|δ(X)=t für
alle t ∈ δ(X) unabhängig von ϑ ist für alle ϑ ∈ Θ.
3.4.2 Satz (Neyman):
Es gelten die Voraussetzungen von Definition (3.4.1). δ ist dann und nur dann
erschöpfend für ϑ, falls für jedes ϑ ∈ Θ meßbare Abbildungen
g(ϑ, ·) : Rr → R und h(·) : X → R
existieren, so daß gilt:
.1) für stetig verteiltes X = (X1 , . . . , Xn ) und (f.s.) alle (x1 , . . . , xn ) ∈ X
fX (x1 , . . . , xn |ϑ) = g(ϑ, δ(x1 , . . . , xn )) · h(x1 , . . . , xn )
.2) für diskret veteiltes X = (X1 , . . . , Xn ) mit den Trägerpunkten (x1 , . . . , xn )
QX,ϑ {(x1 , . . . , xn )} = g(ϑ, δ(x1 , . . . , xn )) · h(x1 , . . . , xn )
(g darf nur über δ von (x1 , . . . , xn ) abhängen und h darf den Parameter ϑ nicht
enthalten).
3.4.3 Bemerkung:
Ist δ = (δ1 , . . . , δr ) erschöpfend für ϑ = (ϑ1 , . . . , ϑr ), so ist i.a. δi nicht erschöpfend
für ϑi . Insbesondere ist z.B. X nicht erschöpfend für µ, falls Y ∼ N (µ, σ 2 ) mit
σ 2 unbekannt.
3.4.4 Bemerkung:
In der mathematischen Statistik stellt man die Forderung der Suffizienz nicht
nur für Schätzfunktionen auf, sondern auch für allgemeinere Funktionen:
I.a. ist X ⊆ Rn hochdimensional, man möchte vor der Konstruktion einer SEF
δ : X → R zunächst die Dimension des Problems durch Anwendung einer geeigneten Transformation T : Rn → Rm (m n) reduzieren, ohne für das
Entscheidungsproblem - also z.B. speziell für ϑ ∈ Θ - relevante Informationen
zu verlieren. Man fordert deshalb von der Transformation (Stichprobenfunktion,
Statistik) T die Suffizienz. Wählt man unter Gewährleistung der Suffizienz m
so klein wie möglich, spricht man von minimal-suffizienten Statistiken.
c
V.
Steinmetz: Schließende Statistik
–27–
3.5 Schätzmethoden
3.5.1 Definition:
Es seien Y eine diskrete Zufallsvariable mit der parametrischen Verteilungsannahme W = {QY,ϑ | ϑ ∈ Θ ⊆ Rr } und X = (X1 , . . . , Xn ) eine diskrete
Stichprobe zu Y mit dem Stichprobenraum X sowie (x1 , . . . , xn ) ∈ X eine Stichprobenrealisation mit der Punktwahrscheinlichkeit
p(x1 , . . . , xn | ϑ) := QX,ϑ {(x1 , . . . , xn )}.
.1) Die Abbildung
L(· | x1 , . . . , xn ) : Θ → [0, 1]
mit
L(ϑ | x1 , . . . , xn ) := p(x1 , . . . xn | ϑ) ∀ϑ ∈ Θ
heißt die Likelihood-Funktion (LF) von X.
.2) ϑ̂ ∈ Θ heißt Maximum-Likelihood-Schätzwert (ML-Schätzwert) für den Parameter ϑ, falls gilt
L(ϑ̂ | x1 , . . . , xn ) = max L(ϑ | x1 , . . . , xn ).
ϑ∈Θ
.3) Eine Punktschätzfunktion δ : X → Θ heißt
Maximum-Likelihood-Schätzfunktion für den Parameter ϑ, falls δ(x1 , . . . , xn )
für jedes (x1 , . . . , xn ) ∈ X ein ML-Schätzwert ist.
3.5.2 Bemerkung:
Ist X = (X1 , . . . , Xn ) eine einfache Stichprobe zu der diskreten Zufallsvariablen
Y mit den Trägerpunkten y und den Punktwahrscheinlichkeiten
p(y | ϑ) = QY,ϑ {y}, so gilt für die Likelihood-Funktion von X
L(ϑ | x1 , . . . , xn ) = p(x1 | ϑ) · · · p(xn | ϑ) =
n
Y
p(xi | ϑ).
i=1
3.5.3 Hilfssatz:
Es sei L(· | x1 , . . . , xn ) die Likelihood-Funktion zu einer Stichprobe X. Für ein
ϑ̂ ∈ Θ gilt
L(ϑ̂ | x1 , . . . , xn ) = max L(ϑ | x1 , . . . , xn )
ϑ∈Θ
genau dann, wenn für die logarithmierte Likelihood-Funktion (LLF) gilt
ln L(ϑ̂ | x1 , . . . , xn ) = max ln L(ϑ | x1 , . . . , xn ).
ϑ∈Θ
c
V.
Steinmetz: Schließende Statistik
–28–
3.5.4 Definition:
Es sei ϑ = (ϑ1 , . . . , ϑr ) ∈ Θ ⊆ Rr ein r-dimensionaler Parameter und die
Likelihood-Funktion L(· | x1 , . . . , xn ) : Θ → R sei partiell differenzierbar nach
ϑj für j = 1, . . . , r. Die Gleichungen
∂ ln L(ϑ1 , . . . , ϑr | x1 , . . . , xn )
= 0,
∂ϑj
für j = 1, . . . , r
bezeichnet man als Maximum-Likelihood-Gleichungen.
3.5.5 Bemerkung:
Häufig werden alle Lösungen aus Definition (3.5.4) als Maximum-LikelihoodSchätzwerte bezeichnet; dies entspricht dem ursprünglichen Vorgehen von R.A.
Fischer, während der Ansatz aus Definition (3.5.1) auf A. Wald zurückgeht.
3.5.6 Definition:
Es sei Y eine stetige Zufallsvariable mit einer Dichte fY (· | ϑ) und mit
ϑ ∈ Θ ⊆ Rr . Weiter seien X = (X1 , . . . , Xn ) eine einfache Stichprobe zu Y
mit dem Stichprobenraum X und x = (x1 , . . . , xn ) eine Realisation von X. Die
Abbildung L(· | x1 , . . . , xn ) mit
L(ϑ | x1 , . . . , xn ) = fY (x1 | ϑ) . . . fY (xn | ϑ)
n
Y
=
fY (xi | ϑ)
i=1
heißt die Likelihood-Funktion (LF) von X
3.5.7 Bemerkung:
Ist X = (X1 , . . . , Xn ) stetig mit Dichtefunktion fX (x1 , . . . , xn | ϑ), also nicht
notwendig eine einfache Stichprobe, so definiert man:
L(ϑ | x1 , . . . , xn ) := fX (x1 , . . . , xn | ϑ).
Die Begriffe aus (3.5.1.2), (3.5.1.3) und (3.5.4) können direkt auf den Fall einer
stetigen ZV Y übertragen werden. Um pathologische Lösungen von (3.5.1.2)
auszuschließen, muß man solche Dichten wählen, die an den Sprungstellen das
Maximum des rechtsseitigen oder linksseitigen Grenzwertes annehmen.
3.5.8 Definition:
Es seien Y eine Zufallsvariable mit Verteilungsannahme
W = {QY,ϑ1 ,...,ϑr | (ϑ1 , . . . , ϑr ) ∈ Θ} und (X1 , . . . , Xn ) eine Stichprobe zu Y mit
Realisation (x1 , . . . , xn ). Es seien
EY =: g1 (ϑ1 , . . . , ϑr )
..
.
s
EY =: gs (ϑ1 , . . . , ϑr ).
c
V.
Steinmetz: Schließende Statistik
–29–
Sind ϑˆ1 , . . . , ϑˆr Lösungen des Gleichungssystems
n
g1 (ϑˆ1 , . . . , ϑˆr ) =
1X
xi
n i=1
..
.
n
1X s
gs (ϑˆ1 , . . . , ϑˆr ) =
x,
n i=1 i
so bezeichnet man sie als nach der Momentenmethode gewonnene Schätzwerte
für ϑ1 , . . . , ϑr (MM-Schätzwerte).
c
V.
Steinmetz: Schließende Statistik
–30–
4 Parametertests und Parameterbereichsschätzungen
4.1 Grundlagen der Testtheorie
4.1.1 Definition:
Es seien Y eine Zufallsvariable mit der Verteilungsannahme W und W0 ⊆ W
mit ∅ 6= W0 6= W sowie W1 := W \ W0 .
Man bezeichnet die Aussage
H0 : QY ∈ W0
als Nullhypothese (null hypothesis) (oft der Einfachheit halber auch W0 selbst)
und die Aussage
H1 : QY ∈ W1
als Gegenhypothese (Alternative, alternative hypothesis) (oft auch W1 selbst).
Es bezeichne
d “ die Entscheidung Annahme von H0“ ( Ablehnung von H1“),
” 0
”
”
d1“ die Entscheidung Annahme von H1“ ( Ablehnung von H0“).
”
”
”
Ist X = (X1 , . . . , Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X, so
heißt eine statistische Entscheidungsfunktion
δ : X → {d0 , d1 }
ein (Alternativ)Test für H0 gegen H1 . Ist W eine parametrische Verteilungsannahme, so spricht man auch von einem Parametertest. Eine Hypothese heißt
einfach (simple), wenn die zugeordnete Teilmenge von W einelementig ist, andernfalls zusammengesetzt (composite) (Meßbarkeitsfragen sollen auch hier ausgeklammert werden).
4.1.2 Definition:
Es sei δ : X → {d0 , d1 } ein Alternativtest. Die Menge
Kδ := {x | x ∈ X ∧ δ(x) = d1 }
heißt der kritische Bereich (Verwerfungsbereich, critical region) des Tests, die
Menge
Aδ := {x | x ∈ X ∧ δ(x) = d0 }
sein Annahmebereich (acceptance region).
4.1.3 Folgerung:
Es sei δ : X → {d0 , d1 } ein Alternativtest mit Aδ und Kδ . Dann gilt
Aδ ∪ Kδ = X und Aδ ∩ Kδ = ∅.
c
V.
Steinmetz: Schließende Statistik
–31–
Jede Zerlegung von X in zwei meßbare Mengen
A ⊆ X und K ⊆ X
mit
A ∩ K = ∅ und A ∪ K = X
bestimmt einen Alternativtest δ : X → {d0 , d1 } durch die Festsetzung
d0 : x ∈ A
δ(x) :=
.
d1 : x ∈ K
4.1.4 Definition:
Es sei δ : X → {d0 , d1 } ein Alternativtest für die Hypothesen H0 : QY ∈ W0 und
H1 : QY ∈ W1 und es sei die Beobachtung x ∈ X gegeben. Man sagt,
es liege ein Fehler 1.Art vor, wenn H0 richtig ist, aber δ(x) = d1 gilt,
es liege ein Fehler 2.Art vor, wenn H1 richtig ist, aber δ(x) = d0 gilt.
4.1.5 Folgerung:
Gegeben seien die Voraussetzungen aus Definition (4.1.4). Die Wahrscheinlichkeit, einen Fehler 1.Art zu begehen (Fehlerwahrscheinlichkeit 1.Art), ist
QX {x ∈ X | δ(x) = d1 } = QX Kδ ,
∀QY ∈ W0 .
Die Wahrscheinlichkeit, einen Fehler 2.Art zu begehen (Fehlerwahrscheinlichkeit
2.Art), ist
QX {x ∈ X | δ(x) = d0 } = QX Aδ , ∀QY ∈ W1 .
4.1.6 Definition:
Es sei δ : X → {d0 , d1 } ein Alternativtest für die Hypothesen H0 : QY ∈ W0
und H1 : QY ∈ W1 , K bezeichne den kritische Bereich. δ heißt ein Test zum
(Signifikanz)Niveau α (α ∈ [0, 1]), wenn gilt
QX K ≤ α,
∀QY ∈ W0 .
(Vielfach wählt man α = 0, 01 oder α = 0, 05.)
4.1.7 Faustregel:
Als Nullhypothese wählt man - wenn möglich - die Aussage, für die man die
Wahrscheinlichkeit, sie fälschlicherweise abzulehnen, kontrollieren möchte. Anders gesagt, als Gegenhypothese wählt man - wenn möglich - die Aussage, für
die man die Warscheinlichkeit, sie fälschlicherweise zu akzeptieren, kontrollieren
möchte.
c
V.
Steinmetz: Schließende Statistik
–32–
4.1.8 Definition:
Es sei δK : X :→ {d0 , d1 } ein Test mit dem kritischen Bereich K. Die Abbildung
G(· | δK ) : W → [0, 1]
mit
G(QY | δK ) := QX K,
∀QY ∈ W
heißt Gütefunktion (power function) des Tests δK .
4.1.9 Definition:
Es sei δK : X → {d0 , d1 } ein Test mit Gütefunktion G. Die Abbildung L(·|δK ) :
W → [0, 1] mit
L(QY | δK ) := 1 − G(QY | δK ) = QX A,
∀QY ∈ W
heißt Operationscharakteristik (OC-Funktion) des Tests, die Einschränkung
G|W1 → [0, 1] die Schärfe (Macht) des Tests.
4.1.10 Bemerkung:
Es seien Y eine Zufallsvariable mit der parametrischen Verteilungsannahme
W = {QY,ϑ | ϑ ∈ Θ} und W0 , W1 ⊆ W mit
.1) ∅ 6= W0 6= W
W1 := W \ W0 .
Dann kann man die Hypothesen
.2) H0 : QY ∈ W0
H1 : QY ∈ W1
mit
.3) Θ0 := {ϑ ∈ Θ | QY,ϑ ∈ W0 }
Θ1 := {ϑ ∈ Θ | QY,ϑ ∈ W1 }
auch in der äquivalenten Form
.4) H0 : ϑ ∈ Θ0
H1 : ϑ ∈ Θ1
schreiben. Dabei gelten
.5) ∅ 6= Θ0 6= Θ
Θ1 = Θ \ Θ0 ,
also auch
Θ0 ∪ Θ1 = Θ
Θ0 ∩ Θ1 = ∅.
Sind umgekehrt zwei Mengen Θ0 , Θ1 ⊆ Θ mit Eigenschaft .5) gegeben, so sind
durch
.6) W0 := {QY,ϑ ∈ W | ϑ ∈ Θ0 }
W1 := {QY,ϑ ∈ W | ϑ ∈ Θ1 }
zwei Mengen W0 , W1 ⊆ W definiert, welche die Bedingung .1) erfüllen und somit
Hypothesen in der zu .4) äquivalenten Form .2) festlegen.
c
V.
Steinmetz: Schließende Statistik
–33–
4.1.11 Definition:
Es sei δK : X → {d0 , d1 } ein Test zum Niveau α. Der Test heißt unverfälscht,
unverzerrt(unbiased), wenn gilt
QX K ≥ α ∀QY ∈ W1 .
4.1.12 Definition:
Es sei δK ∗ : X → {d0 , d1 } ein Test zum Niveau α für H0 gegen H1 mit kritischem
Bereich K ∗ . δK ∗ heißt gleichmäßig bester Test zum Niveau α, wenn für alle Tests
δK : X → {0, 1} zum Niveau α für obige Hypothesen gilt
QX K ∗ ≥ QX K
c
V.
Steinmetz: Schließende Statistik
∀QY ∈ W1 .
–34–
4.1.13 Beispiel (Nagelbeispiel):
Ein Haushaltswarengeschäft bietet zwei Sortimentspackungen Nägel an, Typ I
enthält drei Sorten Nägel - bezeichnet mit 1, 2 und 3 - im Verhältnis 1:1:8,
Typ II enthält dieselben Nagelsorten im Verhältnis 6:3:1. Die Beschriftung einer Packung ist unleserlich geworden. Auf der Basis einer zufälligen Stichprobe
vom Umfang n = 1 soll die Nullhypothese, es handle sich um Typ I, gegen die
Alternative, es liege Typ II, vor getestet werden. Die Nagelsorte werde als Zufallsvariable Y mit den Trägerpunkten 1, 2 und 3 aufgefaßt. Es kommen zwei
Wahrscheinlichkeitsverteilungen (Häufigkeitsverteilungen) in Betracht:
y
QI :
QI {y}
1
2
3
0,1 0,1 0,8
y
1
2
3
QII :
QII {y} 0,6 0,3 0,1
Man hat also die Verteilungsannahme
W = {QI , QII }.
Mit W0 = {QI } und W1 = {QII } folgen die Hypothesen
H0 : QY ∈ W0
gleichbedeutend mit H0 : QY = QI
H1 : QY ∈ W1
gleichbedeutend mit H1 : QY = QII .
Es liegen damit zwei einfache Hypothesen vor.
Da nur eine Stichprobe vom Umfang n = 1 gezogen werden soll, erhält man für
die Stichprobe X = X1 den Stichprobenraum X = {1, 2, 3}.
(Für n = 2 hätte man X = (X1 , X2 ) mit X = {(1, 1), (1, 2), . . . , (3, 3)}).
Um alle Tests δ : X → {d0 , d1 } anzugeben, bestimmt man alle möglichen Zerlegungen von X in den kritischen Bereich Ki und den zugehörigen Annahmebereich
Ai (i = a, b, . . . , h):
Nr. i
Ki
a
{1}
b
{2}
c
{3}
d
{1,2}
e
{1,3}
f
{2,3}
g
{1,2,3}
h
∅
Ai
{2,3}
{1,3}
{1,2}
{3}
{2}
{1}
∅
{1,2,3 }
Z.B. besagt die erste Spalte, daß man H0 annimmt, falls als Stichprobenrealisation eine 2 oder 3 auftritt, daß man H0 ablehnt, falls 1 auftritt. Man erhält also
den Test δa : X → {d0 , d1 } mit
d0 : x ∈ {2, 3}
δa (x) =
d1 : x ∈ {1}
Entsprechend ist δg der Test, der H0 unabhängig vom Stichprobenbefund stets
ablehnt und δh der Test, der H0 stets annimmt.
In der folgenden Tabelle ist für jeden Test δi die Wahrscheinlichkeit des Fehlers
1.Art QX Ki (dabei QY ∈ W0 ) und des Fehlers 2.Art QX Ai (dabei QY ∈ W1 )
angegeben:
c
V.
Steinmetz: Schließende Statistik
–35–
Nr. i
QX Ki
QX Ai
a
b
c
d
e
f g h
0,1 0,1 0,8 0,2 0,9 0,9 1 0 W’keit des Fehlers 1.Art (QY = QI )
0,4 0,7 0,9 0,1 0,3 0,6 0 1 W’keit des Fehlers 2.Art (QY = QII )
Zur Beachtung:
I.a. ist die Summe von 1. und 2. Fehlerwahrscheinlichkeit nicht Eins. Man berechnet zwar die Wahrscheinlichkeiten komplementärer Ereignisse Ki und
Ai = CX Ki , aber mit verschiedenen Wahrscheinlichkeitsverteilungen. Allerdings
zeigen die beiden Fehlerwahrscheinlichkeiten ein gewisses gegenläufiges Verhalten.
Es sei das Signifikanzniveau α = 0, 15 gewählt.
Die Tests zu diesem Niveau sind:

δa mit QX Ka = 0, 1 
δb mit QX Kb = 0, 1
dabei QY = QI

δh mit QX Kh = 0
Die Fehlerwahrscheinlichkeiten 2.Art sind

δa mit QX Aa = 0, 4 
δb mit QX Ab = 0, 7

δh mit QX Ah = 1
dabei QY = QII
Der beste Test zum Niveau α = 0, 15 ist also δa , da er die minimale Fehlerwahrscheinlichkeit 2.Art aufweist.
c
V.
Steinmetz: Schließende Statistik
–36–
4.2 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei bekannter Varianz (Gauß-Tests)
4.2.1 Tests über µ bei bekanntem σ02 einer N (µ, σ02 )-verteilten Zufallsvariablen (Gauß-Tests):
Gegeben: Zufallsvariable Y , N (µ, σ02 )-verteilt mit unbekanntem µ ∈ R und
bekanntem σ02 ∈ R++ , einfache Stichprobe X = (X1 , . . . , Xn ) zu Y mit der Realisation x = (x1 , . . . , xn ), Signifikanzniveau α ∈]0, 1[, µ0 ∈ R.
Fall 0
Fall I
Fall II
H0 :
µ = µ0
H1 :
µ 6= µ0
µ (<)
= µ0
µ > µ0
µ (>)
= µ0
µ < µ0
Berechne: Aus der N (0, 1)-Tabelle Schwellenwerte2 λ1− α2 , λ1−α mit
P{N (0, 1) ≤ λ1− α2 } = 1 −
α
2
P{N (0, 1) ≤ λ1−α } = 1 − α
Testgröße:
n
x − µ0 √
1X
N0 :=
n mit x =
xi
σ0
n i=1
Entscheide:
Fall 0
H0 annehmen: −λ1− α2 ≤ N0 ≤ λ1− α2
H1 annehmen:
|N0 | > λ1− α2
Fall I
Fall II
N0 ≤ λ1−α
N0 ≥ −λ1−α
N0 > λ1−α
N0 < −λ1−α
4.2.2 Bemerkung:
Bei den obigen Tests spricht man bei der Hypothesenfestlegung im Fall 0 von
einer zweiseitigen Fragestellung, in den Fällen I und II von
einseitigen Fragestellungen. Entsprechend dem Aussehen der Punktmengen, welche jeweils zur Ablehnung der Nullhypothese führen, spricht man im Fall 0 von
einem zweiseitigen Test, in den Fällen I und II von einseitigen Tests.
4.2.3 Satz:
Gegeben seien die Voraussetzungen aus Test (4.2.1). Dann gilt für die Gütefunktionen
G(· | δi ) : R → [0, 1], i = 0, I, II3 der Tests
2
3
auch als kritische Werte bezeichnet
Lautet bei I und II die Nullhypothese H0 : µ = µ0 , reduziert sich der Definitionsbereich der
Gütefunktion auf [µ0 , ∞[ bzw. ] − ∞, µ0 ].
c
V.
Steinmetz: Schließende Statistik
–37–
µ0 − µ √
µ0 − µ √
.1) Fall 0: G(µ | δ0 ) = 1 − Φ
n + λ1− α2 + Φ
n − λ1− α2
σ0
σ0
µ0 − µ √
Fall I: G(µ | δI ) = 1 − Φ
n + λ1−α
σ0
µ0 − µ √
n − λ1−α
Fall II: G(µ | δII ) = Φ
σ0
.2) lim G(µ | δ0 ) = lim G(µ | δI ) = 1
µ→∞
µ→∞
lim G(µ | δ0 ) = lim G(µ | δII ) = 1
µ→−∞
µ→−∞
lim G(µ | δI ) = lim G(µ | δII ) = 0
µ→−∞
µ→∞
.3)
G(µ0 + a | δ0 ) = G(µ0 − a | δ0 ) : a ∈ R
G(µ0 + a | δI ) = G(µ0 − a | δII ) : a ∈ R
.4)
G(µ0 ± a | δ0 ) < G(µ0 ± a0 | δ0 ) :
G(µ | δI ) < G(µ0 | δI )
:
0
G(µ | δII ) > G(µ | δII )
:
.5)
G(µ0 | δi ) = α
G(µ | δ0 ) > α
G(µ | δI ) < α
G(µ | δI ) > α
G(µ | δII ) > α
G(µ | δII ) < α
.6)
G(µ | δ0 ) < G(µ | δI ) : µ0 < µ
G(µ | δ0 ) < G(µ | δII ) : µ < µ0
:
:
:
:
:
:
0 ≤ a < a0
µ < µ0
µ < µ0
i = 0, I, II
µ 6= µ0
µ < µ0
µ0 < µ
µ < µ0
µ0 < µ
.7) Sind Gm , Gn die Gütefunktionen für den Stichprobenumfang m bzw. n mit
m < n, so gilt weiterhin
Gm (µ | δ0 ) < Gn (µ | δ0 )
: µ 6= µ0
<
Gm (µ | δI ) =
> Gn (µ | δI )
:
>
µ =
< µ0
>
Gm (µ | δII ) =
< Gn (µ | δII )
>
: µ =
< µ0 .
4.2.4 Satz:
Gegeben seien die Voraussetzungen und Bezeichnungen aus Test (4.2.1). Dann
gilt
.1) δi für i = 0, I, II sind Tests zum Niveau α.
c
V.
Steinmetz: Schließende Statistik
–38–
.2) δi für i = 0, I, II sind unverzerrte Tests.
.3) δ0 ist gleichmäßig bester Test in der Klasse aller unverzerrten Tests für die
Hypothesen im Fall 0.
.4) δI und δII sind gleichmäßig beste Tests für die Hypothesen in den Fällen I
bzw. II.
4.2.5 Bemerkung:
In der Praxis gibt man bei vorliegendem Stichprobenbefund x = (x1 , . . . , xn )
bisweilen das Infimum der Signifikanzniveaus an, bei denen H0 abgelehnt würde.
Man bezeichnet diesen Wert oft mit p, nennt ihn p-Wert (p-value, level attained)
und lehnt H0 ab, wenn für das vorher gewählte Signifikanzniveau α gilt: α ≥ p.
VORSICHT:
Man muß das Signifikanzniveau vor der Auswertung des Stichprobenbefundes
und vor der Kenntnis des p-Wertes festlegen, da sonst die Gefahr besteht, das
Signifikanzniveau α so zu wählen, daß der Test die vom Anwender gewünschte
Entscheidung liefert und die von der Testtheorie gelieferten Aussagen über die
Fehlerwahrscheinlichkeiten unsinnig sind.
c
V.
Steinmetz: Schließende Statistik
–39–
4.3 Tests über den Erwartungswert einer normalverteilten Zufallsvariablen bei unbekannter Varianz (t-Tests)
4.3.1 Definition:
Es seien X1 , . . . , Xn unabhängige, N (0, 1)-verteilte Zufallsvariablen mit
n ∈ N. Die Zufallsvariable
χ2n := X12 + . . . + Xn2
heißt Chi-Quadrat-verteilt mit n Freiheitsgraden.
4.3.2 Definition:
Es seien X eine N (0, 1)-verteilte Zufallsvariable und χ2n eine von X unabhängige,
Chi-Quadrat-verteilte Zufallsvariable mit n Freiheitsgraden. Die Zufallsvariable
X
tn := q
χ2n
n
heißt t-verteilt mit n Freiheitsgraden.
4.3.3 Satz:
Es seien X1 , . . . , Xn unabhängige N (µ, σ 2 )-verteilte Zufallsvariablen und
n
1X
X =
Xi
n i=1
n
σ̂ 2 (X) =
1X
(Xi − X)2 =: σ̂ 2
n i=1
n
1 X
S (X) =
(Xi − X)2 =: S 2 .
n − 1 i=1
2
Dann gilt
.1) X und S 2 (bzw. σ̂ 2 ) sind unabhängig
.2)
n − 1 2 nσ̂ 2
S = 2 und beide Quotienten sind χ2n−1 -verteilt
σ2
σ
.3)
X − µ√
X − µ√
√
n= p
n − 1 und beide Quotienten sind tn−1 -verteilt
S2
σˆ2
c
V.
Steinmetz: Schließende Statistik
–40–
4.3.4 Tests über µ bei unbekanntem σ 2 einer N (µ, σ 2 )-verteilten Zufallsvariablen (t-Tests):
Gegeben: Zufallsvariable Y , N (µ, σ 2 )-verteilt mit unbekanntem µ ∈ R und
unbekanntem σ 2 ∈ R++ , einfache Stichprobe X = (X1 , . . . , Xn ) zu Y mit der
Realisation x = (x1 , . . . , xn ), Signifikanzniveau α ∈]0, 1[, µ0 ∈ R.
Fall 0
Fall I
Fall II
(>)
µ (<)
= µ0 µ = µ0
H1 : µ 6= µ0
µ > µ0
µ < µ0
Berechne: Aus der tn−1 -Tabelle Schwellenwerte λ1− α2 , λ1−α mit
α
P{tn−1 ≤ λ1− α2 } = 1 −
2
P{tn−1 ≤ λ1−α } = 1 − α
H 0 : µ = µ0
Testgröße:
n
x − µ0 √
1X
t0 :=
n mit x =
xi ,
s
n i=1
n
1 X
s =
(xi − x)2
n − 1 i=1
2
Entscheide:
Fall 0
H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2
H1 annehmen:
|t0 | > λ1− α2
Fall I
Fall II
t0 ≤ λ1−α
t0 ≥ −λ1−α
t0 > λ1−α
t0 < −λ1−α
4.3.5 Faustregel:
Für n > 30 kann man die tn−1 -Verteilung durch die N (0, 1)-Verteilung approximieren.
4.3.6 Bemerkung:
In allen drei Fällen sind H0 und H1 zusammengesetzte Hypothesen.
X − µ0 √
n nichtzentral-t-verteilt“ mit n−1 Freiheitsgraden und
”
S(X)
abhängig von σ. Damit folgt zugleich, daß die Gütefunktionen auch Funktionen
von σ sind:
X − µ0 √
G(µ | δ0 , σ) = 1 − Pµ,σ −λ1− α2 ≤
n ≤ λ1− α2
S
X − µ0 √
G(µ | δI , σ) = Pµ,σ
n > λ1−α
S
X − µ0 √
G(µ | δII , σ) = Pµ,σ
n < −λ1−α
S
Zur Beurteilung des Fehlers 2.Art berechnet man deshalb die Gütefunktionen
für mehrere alternative, eventuell in Frage kommende Werte der Standardabweichung σ.
Für µ 6= µ0 ist
c
V.
Steinmetz: Schließende Statistik
–41–
4.3.7 Satz:
Gegeben seien die Voraussetzungen und Bezeichnungen aus Test (4.3.4), δi mit
i =0, I, II seien die Tests zu den Fällen 0, I und II. Dann gilt
.1) δi für i =0, I, II sind Tests zum Niveau α.
.2) δi für i =0, I, II sind unverzerrte Tests.
.3) δi für i =0, I, II sind gleichmäßig beste Tests in der Klasse jeweils aller
unverzerrten Tests für die entsprechenden Hypothesen.
c
V.
Steinmetz: Schließende Statistik
–42–
4.4 Tests über die Varianz einer normalverteilten Zufallsvariablen bei unbekanntem Erwartungswert (χ2 -Tests)
4.4.1 Tests über σ 2 bei unbekanntem µ einer N (µ, σ 2 )-verteilten Zufallsvariablen (χ2 -Tests):
Gegeben: Zufallsvariable Y , N (µ, σ 2 )-verteilt mit unbekanntem µ ∈ R und unbekanntem σ 2 ∈ R++ , einfache Stichprobe X = (X1 , . . . , Xn ) zu Y mit der
Realisation x = (x1 , . . . , xn ), Signifikanzniveau α ∈]0, 1[, σ02 ∈ R++ .
Fall 0
Fall I
Fall II
H0 :
σ 2 = σ02
H1 :
σ 2 6= σ02
2
σ 2 (<)
= σ0
σ 2 > σ02
2
σ 2 (>)
= σ0
σ 2 < σ02
Berechne: Aus der χ2n−1 -Tabelle λ α2 , λ1− α2 , λα , λ1−α mit
P χ2n−1 ≤ λ α2
P χ2n−1 ≤ λ1− α2
P χ2n−1 ≤ λα
P χ2n−1 ≤ λ1−α
α
2
α
= 1−
2
= α
= 1−α
=
Testgröße:
n
P
χ20
:=
(xi − x)2
i=1
σ02
n
1X
mit x =
xi
n i=1
Entscheide:
Fall 0
Fall I
Fall II
H0 annehmen: λ α2 ≤ χ20 ≤ λ1− α2
χ20 ≤ λ1−α
χ20 ≥ λα
H1 annehmen:
χ20 > λ1−α
χ20 < λα
sonst
4.4.2 Faustregel:
2
χ −(n−1)
Für σ 2 = σ02 und n > 50 ist √0
oder für n ≥ 30 ist
2(n−1)
p
2χ20 −
√
2n − 3
annähernd N (0, 1)-verteilt.
4.4.3 Satz:
Gegeben seien die Voraussetzungen und Bezeichnungen aus Test (4.4.1). Dann
gilt für die Gütefunktionen G(·|δi ) : R++ → [0, 1], i =0, I, II der Tests für
σ 2 ∈ R++ :
2
σ0
σ02
2
2
.1) Fall 0: G(σ |δ0 ) = 1 − P
λ α ≤ χn−1 ≤ 2 λ1− α2
σ2 2
σ
c
V.
Steinmetz: Schließende Statistik
–43–
σ02
2
Fall I: G(σ |δI ) = P
λ1−α < χn−1
σ2
σ02
2
2
Fall II: G(σ |δII ) = P χn−1 < 2 λα
σ
2
.2) δI und δII sind gleichmäßig beste Tests in jeweils der Klasse der unverzerrten
Tests für die entsprechenden Hypothesen.
4.4.4 Bemerkung:
Im Fall 0 ist die Wahrscheinlichkeitsmasse α bei Gültigkeit von H0 : σ 2 = σ02 zu
gleichen Teilen auf die beiden Intervalle [0, λ α2 [ und ]λ1− α2 , ∞[ aufgeteilt, ohne
die Asymmetrie der χ2 -Verteilung auf R+ zu berücksichtigen.
Dies führt zu einer Verzerrung des Tests. Allerdings gilt der Test als gute Näherung
eines unverzerrten Tests und wird wegen der einfach zu berechnenden Schwellenwerte in der Regel verwendet.
Bei optimaler Wahl der zur Ablehnung von H0 führenden beiden Intervalle (geeignete asymmetrische Aufteiung von α) ist der entsprechende Test gleichmäßig
bester Test in der Klasse aller unverzerrten Tests für die Hypothesen im Fall 0.
(siehe [Rohatgi] S.428 f.)
c
V.
Steinmetz: Schließende Statistik
–44–
4.5 Binomialtests, Test über Anteilswerte, Quantilstest
4.5.1 Binomialtests mit Normalverteilungsapproximation:
Gegeben: Zufallsvariable Y mit
y
QY {y}
0
1
und unbekanntem
1−p p
p ∈ [0, 1], einfache Stichprobe X = (X1 , . . . , Xn ) zu Y mit der Realisation
9
x = (x1 , . . . , xn ), Signifikanzniveau α ∈]0, 1[, p0 ∈]0, 1[ mit n >
.
p0 (1 − p0 )
Fall 0
Fall I
Fall II
H0 :
p = p0
H1 :
p 6= p0
p (<)
= p0
p > p0
p (>)
= p0
p < p0
Berechne: Aus der N (0, 1)-Tabelle λ1− α2 , λ1−α mit
α
P N (0, 1) ≤ λ1− α2
= 1−
2
P {N (0, 1) ≤ λ1−α } = 1 − α
Testgröße:
n
P
xi − np0
i=1
b0 := p
np0 (1 − p0 )
Entscheide:
Fall 0
H0 annehmen: −λ1− α2 ≤ b0 ≤ λ1− α2
H1 annehmen:
|b0 | > λ1− α2
Fall I
Fall II
b0 ≤ λ1−α
b0 ≥ −λ1−α
b0 > λ1−α
b0 < −λ1−α
4.5.2 Bemerkung:
Im vorigen Test wurde eine diskrete Verteilung durch eine stetige Verteilung approximiert. Man kann die Approximation verbessern, wenn man eine sogenannte
Stetigkeitskorrektur einführt.
4.5.3 Satz:
Gegeben seien die Voraussetzungen und Bezeichnungen aus Test (4.5.1). Dann
gelten - näherungsweise4 - die folgenden Aussagen
.1) δi für i =0, I, II sind Tests zum Niveau α.
.2) δi für i =0, I, II sind unverzerrte Tests.
.3) δ0 ist gleichmäßig bester Test in der Klasse aller unverzerrten Tests für die
Hypothesen im Fall 0.
4
wegen der Normalverteilungsapproximation
c
V.
Steinmetz: Schließende Statistik
–45–
.4) δI und δII sind gleichmäßig beste Tests jeweils für die Hypothesen in den
Fällen I bzw II.
4.5.4 Bemerkung:
Da es sich bei dem Originaltest um eine diskrete Teststatistik handelt, kann man
ein vorgegebenes Niveau α nicht notwendig exakt einstellen, sondern muß sich
mit einem tatsächlichen Niveau < α begnügen und damit eine eventuell größere
Fehlerwahrscheinlichkeit 2.Art in Kauf nehmen. (Diesen Mangel kann man durch
sogenannte Randomisierung des Tests beheben.)
4.5.5 Bemerkung (Test über Anteilswerte):
Der WR (Ω̃, F̃, P̃) mit unbekannter Wahrscheinlichjeit P̃ modelliere den interessierenden Umweltausschnitt. Auf der Basis einer zufälligen Stichprobe mit
Zurücklegen ω̃1 , . . . , ω̃n aus Ω̃ soll für ein zur Debatte stehendes Ereignis à ∈ F̃
entschieden werden, ob für ein bestimmtes, hypothetisches p0 ∈]0, 1[ z.B. gilt
P̃Ã = p0
oder P̃Ã 6= p0 .
Ist Ω̃ endlich und P̃ die relative Häufigkeit, kann man die Frage z.B. auch so
formulieren:
Beträgt der Anteil von à an Ω̃ gerade p0 · 100% oder nicht?“
”
Definiert man ein Zufallsvariable
Y : Ω̃ → R
mit
Y (ω̃) :=
1 : ω̃ ∈ Ã
0 : ω̃ ∈
/ Ã
und der unbekannten Zweipunktverteilung QY,p mit
0
1
y
,
QY,p {y} 1 − p p
so ist das Anteilsproblem auf die Hypothesenstellung
H0 : p = p 0
H1 : p 6= p0
eines Binomialtests zurückgeführt. Durch (x1 , . . . , xn ) := (Y (ω̃1 ), . . . , Y (ω̃n )) ist
die Realisierung einer einfache Stichprobe (X1 , . . . , Xn ) zu Y gegeben.
c
V.
Steinmetz: Schließende Statistik
–46–
4.5.6 Bemerkung (Quantilstest):
Eine weitere Anwendung findet ein Binomialtest in der folgenden Situation: Es
seien Y eine eindimensionale stetige Zufallsvariable mit der Verteilungsfunktion
FY (·), W die Menge aller stetigen Verteilungen auf R und y0 ∈ R, p0 ∈]0, 1[ fest
gewählt. Die Hypothesen
.1)
H1 : FY (y0 ) 6= p0
H0 : FY (y0 ) = p0
sind die Formalisierung der Frage:
Ist y0 ein p0 -Quantil der Verteilung oder nicht?“
”
Durch die Transformation
g:R→R
mit
g(t) :=
1 : t ≤ y0
0 : t > y0
überführt man Y in eine Zufallsvariable V := g(Y ). Wegen
FY (y0 ) = P{Y ≤ y0 } = P{V = 1} =: py0
hat V = g(Y ) die Zweipunktverteilung QV mit
v
QV,y0 {y}
0
1 − p y0
1
p y0
und die Hypothesen aus .1) lauten jetzt
.2)
H 0 : p y0 = p 0
H1 : py0 6= p0 .
Eine einfache Stichprobe X = (X1 , . . . , Xn ) zu Y mit der Realisation
x = (x1 , . . . , xn ) wird durch die Anwendung von g in eine einfache Stichprobe
U = (U1 , . . . , Un ) := (g(X1 ), . . . , g(Xn ))
zu V = g(Y ) überführt, mit der Realisation
u = (u1 , . . . , un ) := (g(x1 ), . . . , g(xn )),
die Entscheidung zwischen den Hypothesen aus .2) - und damit auch aus .1) erfolgt mit Hilfe des entsprechenden Binomialtests.
c
V.
Steinmetz: Schließende Statistik
–47–
4.6 Parameterbereichsschätzungen
4.6.1 Definition:
Es seien Y eine Zufallsvariable mit der parametrischen Verteilungsannahme
W , Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm und
X = (X1 , . . . , Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X.
Eine statistische Entscheidungsfunktion
δ : X → P(γ(Θ))
heißt eine Parameterbereichsschätzung für den Parameter γ(ϑ) mit ϑ ∈ Θ.
(Meßbarkeitsfragen sollen auch hier ausgeklammert werden.)
4.6.2 Bemerkung:
Man bezeichnet im allgemeinen auch die Zufallsvariable δ(X) := δ ◦ X als Bereichsschätzfunktion für γ(ϑ) mit ϑ ∈ Θ.
4.6.3 Definition:
Es seien Y eine Zufallsvariable mit der parametrischen Verteilungsannahme
W , Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm sowie X = (X1 , . . . , Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X und
α ∈]0, 1[. Eine Parameterbereichsschätzung δ : X → P(γ(Θ)) heißt eine
Konfidenzbereichsschätzung (Konfidenzschätzung, confidence estimation) zur
Sicherheitswahrscheinlichkeit (confidence level) 1 − α (zum Niveau α) für γ(ϑ)
und ϑ ∈ Θ, wenn gilt:
QX,ϑ {x ∈ X | γ ∈ δ(x)} ≥ 1 − α für alle γ ∈ γ(Θ) und ϑ ∈ Θ mit γ(ϑ) = γ.
Für jedes x ∈ X heißt δ(x) ⊆ γ(Θ) ein 1 − α-Konfidenzbereich für γ ∈ γ(Θ).
4.6.4 Bemerkung:
Es seien W = {QY,ϑ | ϑ ∈ Θ} eine parametrische Verteilungsannahme und
γ : Θ → γ(Θ) =: Γ ⊆ Rm eine Abbildung. Die Hypothesen eines Alternativtests
formuliert man oft in der Form
.1)
H0 : γ(ϑ) ∈ Γ0
H1 : γ(ϑ) ∈ Γ1
mit
Γ0 , Γ1 ⊆ Γ,
∅ 6= Γ0 6= Γ,
Γ1 := Γ \ Γ0 ,
speziell mit Γ0 = {γ0 } auch als
.2)
H0 : γ(ϑ) = γ0
H1 : ¬(γ(ϑ) = γ0 ) .
Mit Θ0 := γ −1 (Γ0 ) und Θ1 := γ −1 (Γ1 ) kann man zu .1) äquivalent formulieren
.3)
H0 : ϑ ∈ Θ0
H1 : ϑ ∈ Θ1 .
Dabei gilt
Θ0 ∪ Θ1 = Θ,
Θ0 ∩ Θ1 = ∅ .
c
V.
Steinmetz: Schließende Statistik
–48–
4.6.5 Satz:
Es seien Y eine Zufallsvariable mit der parametrischen Verteilungsannahme W ,
Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm mit sowie
X = (X1 , . . . , Xn ) eine Stichprobe zu Y mit dem Stichprobenraum X. Es seien
δγ∗0 : X → {d0 , d1 }
für alle γ0 ∈ γ(Θ) Alternativtests zum Niveau α ∈]0, 1[ zur Prüfung der Hypothesen
H0 : γ(ϑ) = γ0
H1 : ¬(γ(ϑ) = γ0 ),
dabei sei
Aγ0 := {x ∈ X | δγ∗0 (x) = d0 }
der Annahmebereich des Tests δγ∗0 . Dann ist durch
δ(x) := {γ0 ∈ γ(Θ) | x ∈ Aγ0 }
eine Konfidenzbereichsschätzung
δ : X → P(γ(Θ))
zur Sicherheitswahrscheinlichkeit 1 − α definiert.
4.6.6 Bemerkung:
Geht man im obigen Satz von einseitigen Hypothesen aus, erhält man entsprechend einseitige“ Konfidenzbereiche, bei zweiseitigen Fragestellungen zweisei”
”
tige“ Konfidenzbereiche.
4.6.7 Satz:
Es seien Y eine Zufallsvariable mit der parametrischen Verteilungsannahme
W = {QY,ϑ | ϑ ∈ Θ}, γ : Θ → Rm mit eine Abbildung, X = (X1 , . . . , Xn )
eine Stichprobe zu Y mit dem Stichprobenraum X, sowie δ : X → P(γ(Θ))
eine Konfidenzbereichsschätzung für γ ∈ γ(Θ) zur Sicherheitswahrscheinlichkeit
1 − α ∈]0, 1[. Dann ist durch
Aγ0 := {x ∈ X | γ0 ∈ δ(x)}
der Annahmebereich eines Tests
δγ∗0 : X → D = {d0 , d1 }
zum Niveau α für die Hypothesen
H0 : γ(ϑ) = γ0
gegeben.
c
V.
Steinmetz: Schließende Statistik
H1 : ¬(γ(ϑ) = γ0 )
–49–
4.6.8 Bemerkung:
Für gegebene Realisationen x = (x1 , . . . , xn ) und berechnete Konfidenzschätzbereiche
δ(x) schließt man also
γ0 ∈ δ(x) =⇒ H0
γ0 ∈
/ δ(x) =⇒ H0
annehmen
verwerfen.
4.6.9 Folgerung:
Es seien Y eine N (µ, σ02 )-verteilte Zufallsvariable mit unbekanntem Erwartungswert µ ∈ R und bekannter Varianz σ02 ∈ R++ , X = (X1 , . . . , Xn ) eine einfache
Stichprobe zu Y mit dem Stichprobenraum X = Rn . Zu α ∈]0, 1[ sei λ1− α2 bestimmt mit
P −λ1− α2 ≤ N (0, 1) ≤ λ1− α2 = 1 − α.
Dann ist durch
σ0
σ0
δ(x) := x − √ λ1− α2 ; x + √ λ1− α2
n
n
n
P
für alle x ∈ X mit x = n1
xi eine (1 − α)-Konfidenzbereichsschätzung δ für
i=1
den Parameter µ gegeben.
c
V.
Steinmetz: Schließende Statistik
–50–
5 Multivariate Verfahren
5.1 Tests über die Erwartungswerte zweier gemeinsam normalverteilter Zufallsvariablen mit unbekannten Varianzen (t-Tests)
5.1.1 Tests über die Erwartungswerte zweier gemeinsam normalverteilter Zufallsvariablen mit
unbekannten Varianzen bei verbundenen Stichproben (t-Tests):
Gegeben: Zufallsvariable (Y1 , Y2 ), zweidimensional normalverteilt mit EY1 =
µ1 , EY2 = µ2 , VarY1 = σ12 , VarY2 = σ22 , ((X11 , X21 ), . . . , (X1n , X2n )) einfache Stichprobe zu (Y1 , Y2 ) mit der Realisation ((x11 , x21 ), . . . , (x1n , x2n )), Signifikanzniveau α ∈]0, 1[, ϑ ∈ R.
Fall 0
H0 :
H1 :
Fall I
Fall II
µ1 − µ2 (<)
= ϑ
µ1 − µ2 =
6 ϑ
µ1 − µ2 > ϑ
µ1 − µ2 (>)
= ϑ
µ1 − µ2 < ϑ
µ1 − µ2 = ϑ
Berechne: Aus der tn−1 -Tabelle λ1− α2 , λ1−α mit
α
P tn−1 ≤ λ1− α2 = 1 −
2
P {tn−1 ≤ λ1−α } = 1 − α
z = (z1 , . . . , zn ) mit zi = x1i − x2i für i = 1, . . . , n
v
u
n
n
X
u 1 X
1
t
z=
zi
s(z) =
(zi − z)2
n i=1
n − 1 i=1
Testgröße:
t0 :=
z − ϑ√
n
s
Entscheide:
Fall 0
H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2
H1 annehmen:
c
V.
Steinmetz: Schließende Statistik
|t0 | > λ1− α2
Fall I
Fall II
t0 ≤ λ1−α
t0 ≥ −λ1−α
t0 > λ1−α
t0 < −λ1−α
–51–
5.1.2 Tests über die Erwartungswerte zweier gemeinsam normalverteilter Zufallsvariablen mit
unbekannten, aber übereinstimmenden Varianzen und unverbundenen
Stichproben (t-Tests):
Gegeben: N (µ1 , σ 2 )-verteilte Zufallsvariable Y1 , N (µ2 , σ 2 )-verteilte Zufallsvariable Y2 , einfache Stichprobe X1 = (X11 , . . . , X1n1 ) zu Y1 vom Umfang n1 mit
Realisation x1 = (x11 , . . . , x1n1 ), einfache Stichprobe X2 = (X21 , . . . , X2n2 ) zu Y2
vom Umfang n2 mit Realisation x2 = (x21 , . . . , x2n2 ), X1 und X2 unabhängig,
Signifikanzniveau α ∈]0, 1[, ϑ ∈ R.
H0 :
Fall 0
Fall I
Fall II
µ1 − µ 2 = ϑ
µ1 − µ2 (<)
= ϑ
µ1 − µ2 > ϑ
µ1 − µ2 (>)
= ϑ
µ1 − µ 2 < ϑ
H1 : µ1 − µ2 6= ϑ
Berechne: Aus der tn1 +n2 −2 -Tabelle λ1− α2 , λ1−α mit
α
P tn1 +n2 −2 ≤ λ1− α2 = 1 −
2
P {tn1 +n2 −2 ≤ λ1−α } = 1 − α
n
n
1
1X
x1 =
x1i
n i=1
2
1X
x2 =
x2i
n i=1
n
n
1
2
1 X
1 X
2
2
s (x1 ) =
(x1i − x1 ) ; s (x2 ) =
(x2i − x2 )2
n1 − 1 i=1
n2 − 1 i=1
2
Testgröße:
s
t0 :=
n1 n2 (n1 + n2 − 2)
rn
P1
n1 + n2
x1 − x2 − ϑ
n2
P
(x1i − x1 )2 + (x2i − x2 )2
i=1
i=1
Für n1 = n2 = n hat man die Testgröße
√
x1 − x2 − ϑ
t0 = p
s2 (x1 ) + s2 (x2 )
n
Entscheide:
Fall 0
H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2
H1 annehmen:
c
V.
Steinmetz: Schließende Statistik
|t0 | > λ1− α2
Fall I
Fall II
t0 ≤ λ1−α
t0 ≥ −λ1−α
t0 > λ1−α
t0 < −λ1−α
–52–
5.2 Tests über die Varianzen zweier normalverteilter Zufallsvariablen (F -Tests)
5.2.1 Definition:
Es seien χ2m , χ2n unabhängige, χ2 -verteilte Zufallsvariablen mit m bzw. n Freiheitsgraden. Dann heißt
Fnm
χ2m
χ2 n
·
=: F(m,n)
:= m2 = m
χn
χ2n m
n
F -verteilt mit m Zählerfreiheitsgraden und n Nennerfreiheitsgraden.
5.2.2 Folgerung:
Es sei Fnm eine mit m Zähler- und n Nennerfreiheitsgraden F -verteilte Zufallsvariable über einem Wahrscheinlichkeitsraum (Ω, F, P). Dann gilt für alle p ∈]0, 1[
1
m
n
P {Fn ≤ λp,m,n } = p ⇐⇒ P Fm ≤
=1−p.
λp,m,n
Und somit auch
λ1−p,n,m =
1
λp,m,n
.
5.2.3 Satz:
Die Zufallsvariablen X = (X1 , . . . , Xm ) und Y = (Y1 , . . . , Yn ) seien unabhängig,
die Xi (i = 1, . . . , m) seien unabhängig und N (µ1 , σ12 )-verteilt, die Yj (j =
1, . . . , n) seien unabhängig und N (µ2 , σ22 )-verteilt. Dann ist die Zufallsvariable
S 2 (X) σ22
·
S 2 (Y ) σ12
m−1
Fn−1
− verteilt.
5.2.4 Tests über die Varianzen zweier normalverteilter Zufallsvariablen (F -Tests):
Gegeben: N (µ1 , σ12 )-verteilte Zufallsvariable Y1 , N (µ2 , σ22 )-verteilte Zufallsvariable Y2 , einfache Stichprobe X1 = (X11 , . . . , X1n1 ) zu Y1 vom Umfang n1 mit
Realisation x1 = (x11 , . . . , x1n1 ), einfache Stichprobe X2 = (X21 , . . . , X2n2 ) zu Y2
vom Umfang n2 mit Realisation x2 = (x21 , . . . , x2n2 ), X1 und X2 unabhängig,
Signifikanzniveau α ∈]0, 1[ und ϑ ∈ R++ .
H0 :
H1 :
Fall 0
Fall I
Fall II
σ12
=ϑ
σ22
σ12
6= ϑ
σ22
σ12 (<)
ϑ
σ22 =
σ12
>ϑ
σ22
σ12 (>)
ϑ
σ22 =
σ12
<ϑ
σ22
c
V.
Steinmetz: Schließende Statistik
–53–
−1
Berechne: Aus der Fnn21−1
-Tabelle λ1− α2 , λ1−α , λ α2 , λα mit
−1
P Fnn21−1
≤ λ α2
−1
P Fnn21−1
≤ λ1− α2
−1
P Fnn21−1
≤ λα
−1
P Fnn21−1
≤ λ1−α
α
2
α
= 1−
2
= α
=
= 1−α
n2
1 X
x2i
x2 =
n2 i=1
n1
1 X
x1i
x1 =
n1 i=1
n
1
1 X
(x1i − x1 )2 ;
s (x1 ) =
n1 − 1 i=1
2
n
2
1 X
(x2i − x2 )2
s (x2 ) =
n2 − 1 i=1
2
Testgröße:
F0 :=
s2 (x1 ) 1
·
s2 (x2 ) ϑ
Entscheide:
Fall 0
Fall I
Fall II
H0 annehmen: λ α2 ≤ F0 ≤ λ1− α2
F0 ≤ λ1−α
F0 ≥ λα
H1 annehmen:
F0 > λ1−α
F0 < λα
c
V.
Steinmetz: Schließende Statistik
sonst
–54–
6 Nichtparametrische Tests
6.1 Chi-Quadrat-Tests
6.1.1 Chi-Quadrat-Anpassungstest:
Gegeben: Zufallsvariable Y mit unbekannter Verteilungsfunktion FY , einfache
Stichprobe X = (X1 , . . . , Xn ) zu Y mit der Realisation x = (x1 , . . . , xn ), Si◦
gnifikanzniveau α ∈]0, 1[, hypothetische Verteilungsfunktion F Y ,
H0
:
H1
:
◦
FY =F Y
◦
FY 6=F Y .
◦
Dabei darf die hypothetische Verteilungsfunktion F Y keine unbekannten Parameter mehr enthalten.
Wähle: Intervalleinteilung
] − ∞, a2 ] ]a2 , a3 ] . . . ]ak , ak+1 ] . . . ]ar , ∞[,
| {z } | {z } | {z } | {z }
I1
I2
Ik
Ir
so daß mit a1 = −∞ und ar+1 = +∞ für jedes Ik gilt
◦
◦
◦
n pk = n(FY (ak+1 )− FY (ak )) ≥ 5 für k = 1, . . . , r.
Falls die vorgenommene Intervalleinteilung dies nicht sofort erfüllt, fasse man
benachbarte Intervalle zusammen. Man lege die Intervallgrenzen nicht auf die
einzelnen xi , bei diskreten hypothetischen Verteilungen auch nicht auf Sprung◦
stellen von F Y .
Berechne:
νk Anzahl der xi , die in das k-te Intervall fallen für k = 1, . . . , r
(empirische Häufigkeit)
◦
n pk für k = 1, . . . , r (theoretische Häufigkeit)
Testgröße:
χ20
=
◦
r
X
(νk − n pk )2
◦
k=1
n pk
=
r
X
νk2
◦
k=1
n pk
aus χ2r−1 − Tafel λ1−α mit
P χ2r−1 ≤ λ1−α = 1 − α
Entscheide:
H0 annehmen: χ20 ≤ λ1−α
H1 annehmen:
c
V.
Steinmetz: Schließende Statistik
χ20 > λ1−α
−n
–55–
6.1.2 Modifizierter Chi-Quadrat-Minimum-Anpassungstest:
Gegeben: Zufallsvariable Y mit unbekannter Verteilungsfunktion FY , einfache
Stichprobe X = (X1 , . . . , Xn ) zu Y mit der Realisation x = (x1 , . . . , xn ), Signifikanzniveau α ∈]0, 1[.
◦
H0
: FY ∈ {F Y (· | ϑ1 , . . . , ϑl ) | (ϑ1 , . . . , ϑl ) ∈ Θ}
H1
: FY ∈
/ {F Y (· | ϑ1 , . . . , ϑl ) | (ϑ1 , . . . , ϑl ) ∈ Θ}
◦
◦
F Y enthält l ≥ 1 unbekannte Parameter.
Berechne: ML-Schätzwerte ϑ̂1 , . . . , ϑ̂l für ϑ1 , . . . , ϑl .
Wähle: Intervalleinteilung wie in Test (6.1.1) unter Benutzung von
◦
F Y (· | ϑ̂1 , . . . , ϑ̂l ). Die Anzahl der Intervalle sei r.
◦
Berechne: Testgröße χ20 unter Benutzung von F Y (· | ϑ̂1 , . . . , ϑ̂l ) wie in Test
(6.1.1)
aus χ2r−l−1 − Tafel λ1−α mit
P χ2r−l−1 ≤ λ1−α = 1 − α
Entscheide:
H0 annehmen: χ20 ≤ λ1−α
H1 annehmen:
χ20 > λ1−α
VORSICHT:
Aufgrund der oben verwendeten ML-Schätzung ist die Testgröße i.a. nicht mehr
asymptotisch Chi-Quadrat-verteilt, die ermittelten Quantile gelten aber - mindestens für größere r - als brauchbar.
c
V.
Steinmetz: Schließende Statistik
–56–
6.1.3 Chi-Quadrat-Unabhängigkeitstest:
Gegeben: Diskrete zweidimensionale Zufallsvariable (X, Y ) mit endlich vielen
Trägerpunkten (xi , yj ), i = 1, . . . , r und j = 1, . . . , s, eine einfache Stichprobe vom Umfang n zu (X, Y ) mit Realisation; die absoluten Häufigkeiten, mit
denen die einzelnen Trägerpunkte in der Realisation auftreten, sind zu einer
Kontingenztafel zusammengefaßt:
i\j
y1
···
···
···
yj
..
.
..
.
nij
..
.
..
.
x1
..
.
xi
..
.
xr
···
ys
···
···
Signifikanzniveau α ∈]0, 1[.
H0
:
X und Y sind stochastisch unabhängig
H1
:
X und Y sind stochastisch abhängig.
Berechne: λ1−α aus χ2 -Tafel mit (r − 1)(s − 1) Freiheitsgraden:
P χ2(r−1)(s−1) ≤ λ1−α = 1 − α
ni. =
s
X
nij
für i = 1, . . . , r
nij
für i = 1, . . . , s
j=1
n.j =
r
X
i=1
n =
s
X
n.j =
j=1
r
X
ni.
i=1
Testgröße:
χ20
r X
s
n n
X
(nij − i.n .j )2
=n
ni. n.j
i=1 j=1
für r = s = 2 hat man die Testgröße
χ20 =
n(n11 n22 − n12 n21 )2
n1. n2. n.1 n.2
Entscheide:
H0 annehmen: χ20 ≤ λ1−α
H1 annehmen:
c
V.
Steinmetz: Schließende Statistik
χ20 > λ1−α
–57–
6.1.4 Faustregel:
Man sollte den Test nur anwenden, wenn für die theoretischen Häufigkeiten gilt
ni. n.j
≥ 1 für i = 1, . . . , r, j = 1, . . . , s,
n
andernfalls sollte man unterbesetzte Trägerpunkte zusammenfassen.
c
V.
Steinmetz: Schließende Statistik
–58–
6.2 Wilcoxon-Rangsummentest für unverbundene Stichproben
6.2.1 Definition:
Es seien M 6= ∅ eine Menge und A ⊆ M . Die Abbildung
1A : M → {0, 1}
mit
1A (x) :=
1 : x∈A
0 : x∈
/A
bezeichnet man als Indikatorfunktion (indicator function) der Menge A.
6.2.2 Definition:
Es sei
Rn6= := {(x1 , . . . , xn ) ∈ Rn | xi 6= xj für i 6= j}
die Menge aller n-Tupel reller Zahlen mit paarweise verschiedenen Elementen.
Man bezeichnet die Abbildung
Rj : Rn6= → {1, . . . , n}
mit
Rj (x) :=
n
X
j ∈ {1, . . . , n}
1]−∞,xj ] (xi ) für x = (x1 , . . . , xn ) ∈ Rn6=
i=1
als j-te Rangstatistik (rank-statistic) und Rj (x) als Rang (rank) des Elementes
xj in x = (x1 , . . . , xn ). Ist X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable
mit dem Stichprobenraum X = Rn6= , so bezeeichnet man auch die Zufallsvariable
Rj ◦ X =: Rj (X) = Rj (X1 , . . . , Xn )
als j-te Rangstatistik (j = 1, . . . , n).
6.2.3 Bemerkung:
Es sei
n1 +n2
x = (x11 , . . . , x1n1 , x21 , . . . , x2n2 ) ∈ R6=
(n1 , n2 ∈ N).
Dann ist es naheliegend, den Rang des Elementes x1j (j ∈ {1, . . . , n1 }) in dem
ganzen (n1 + n2 )-Tupel x mit R1j (x) zu bezeichnen. Es gilt
R1j (x) =
n1
X
1]−∞,x1j ] (x1i ) +
i=1
n2
X
1]−∞,x1j ] (x2i ).
i=1
Entsprechend hat man
R2j (x) =
n1
X
i=1
c
V.
Steinmetz: Schließende Statistik
1]−∞,x2j ] (x1i ) +
n2
X
i=1
1]−∞,x2j ] (x2i )
–59–
für j = 1, . . . , n2 als Rang des Elementes x2j in dem (n1 + n2 )-Tupel x.
Die Zufallsvariablen
R1j (X11 , . . . , X1n1 , X21 . . . , X2n2 ) und R2j (X11 , . . . , X1n1 , X21 . . . , X2n2 )
sind entsprechend zu interpretieren.
6.2.4 Satz:
Es sei X = (X11 , . . . , X1n1 , X21 , . . . , X2n2 ) mit n1 , n2 ∈ N und n := n1 + n2 eine
einfache Stichprobe zu einer stetigen Zufallsvariable Y . 5 Weiterhin sei
Wnn1 :=
n1
X
R1i (X).
i=1
Dann gilt
n1 (n+1)
2
.1)
EWnn1 =
.2)
VarWnn1 =
n1 n2 (n+1)
.
12
Mit
Wnn1 − EWnn1
Znn1 := p
VarWnn1
gilt für die zugehörige Verteilungsfunktion
.3)
lim
FZnn1 (z) = Φ(z) für z ∈ R.
n→∞
n1
→ konst
n
6.2.5 Wilcoxon-Rangsummentest für unverbundene Stichprobe mit
Normalverteilungsapproximation:
Gegeben: Stetig verteilte, mindesten ordinal skalierte Zufallsvariablen Y1 , Y2
mit Verteilungsfunktionen FY1 und FY2 , einfache, unabhängige Stichproben
X1 = (X11 , . . . , X1n1 ) und X2 = (X21 , . . . , X2n1 ) zu Y1 bzw. Y2 mit Realisationen
x1 = (x11 , . . . , x1n1 ) und x2 = (x21 , . . . , x2n1 ), wobei die Elemente von
x := (x1 , x2 ) paarweise verschieden sein müssen, n1 , n2 ∈ N
mit n := n1 + n2 , α ∈]0, 1[; n1 ≥ 25 oder n2 ≥ 25,
FY2 (y) = FY1 (y + ϑ) ∀y ∈ R
Fall 0
5
H0 :
ϑ=0
H1 :
ϑ 6= 0
beachte Bemerkung 6.2.6
c
V.
Steinmetz: Schließende Statistik
Fall I
Fall II
(>)
ϑ (<)
= 0 ϑ = 0
ϑ>0
ϑ<0
–60–
Berechne: Aus N (0, 1)-Tafel
λ1− α2 , λ1−α mit
α
P N (0, 1) ≤ λ1− α2 = 1 −
2
P {N (0, 1) ≤ λ1−α } = 1 − α
w0 :=
n1
X
R1i (x)
w0 −
z0 := q
i=1
n1 (n+1)
2
n1 n2 (n+1)
12
Entscheide:
Fall 0
H0 annehmen: −λ1− α2 ≤ z0 ≤ λ1− α2
|z0 | > λ1− α2
H1 annehmen:
Fall I
Fall II
z0 ≤ λ1−α
z0 ≥ −λ1−α
z0 > λ1−α
z0 < −λ1−α
6.2.6 Bemerkung:
Die Rangstatistiken wurden als Abbildungen über dem Rn6= eingeführt, der Stichprobenraum X einer n-dimensionalen Zufallsvariablen X enthält i.a. Elemente,
die nicht zum Rn6= gehören. Da bei einer stetigen Zufallsvariablen die Menge
Rn − Rn6= das Wahrscheinlichkeitsmaß Null hat, ist die Hintereinanderausführung
von X und einer Rangstatistik trotzdem sinnvoll zu interpretieren.
6.2.7 Bemerkung:
Nach den Voraussetzungen des Testrezeptes (6.2.5) sind die unabhängigen, einfachen Stichproben X1 und X2 stetig verteilt und folglich ist die Wahrscheinlichkeit
Null, daß Zahlenwerte mehrfach vorkommen. Trotzdem treten in der Praxis allein schon aufgrund von Rundungen immer wieder übereinstimmende Werte auf,
man spricht von Bindungen (ties). Bei dem vorangehenden Rangtest empfiehlt
es sich, jedem Element einer Gruppe von übereinstimmenden Werten den Mittelwert der auf die Gruppenelemente entfallenden Ränge zuzuordnen. Diese Ränge
werden dabei bestimmt, indem man fiktiv von so minimal verschiedenen Gruppenelementen ausgeht, daß sie in der nach der Größe der Elemente geordneten
Stichprobenrealisation aufeinader folgen würden. Beispielsweise erhält man nach
dieser Methode für die Stichprobenrealisation
x = (x1 , . . . x5 ) = (6, 3, 7, 3, 1)
die Ränge
R1 (x) = 4 ; R2 (x) =
6
2+3
= 2, 5 ; R3 (x) = 5 ; R4 (x) = 2, 5 ; R5 (x) = 1 .6
2
Die Veränderung der Verteilung der Teststatistik wurde hier vernachlässigt; vgl. [Büning]
S.148 f.
c
V.
Steinmetz: Schließende Statistik
–61–
A Hilfsmittel aus der Matrizenrechnung
A1 Matrizen und Vektoren
A1.1 Definition:
Unter einer (m×n)-Matrix A mit den Elementen aij (i = 1, . . . , m, j = 1, . . . , n)
versteht man ein Schema


a11 · · · a1n

..  =: (a ) i=1,...,m =: A
A :=  ...
ij
(m×n) ,
. 
j=1,...,n
am1 · · · amn
m heißt Anzahl der Zeilen, n Anzahl der Spalten von A. Eine (m × 1)-Matrix a
heißt ein m-dimensionaler (Spalten-) Vektor


a1


a :=  ... 
am
Eine (1 × n)-Matrix a0 heißt ein n-dimensionaler Zeilenvektor,
a0 = (a1 , . . . , an ).
Sei r = min{m, n}. Die Elemente a11 , a22 , . . . , arr der Matrix A = (aij ) heißen
Hauptdiagonalelemente; der Vektor (a11 , . . . , arr )0 heißt die Hauptdiagonale von
A. Ist m = n, so heißt die Matrix A quadratisch
A1.2 Bemerkung:
Die Elemente der im folgenden betrachteten Matrizen seien reelle Zahlen. Die
Definitionen und Sätze gelten aber auch für Matrizen mit anderen Elementen,
z.B. komplexen Zahlen, reellen Zufallsvariablen, soweit eine Gleichheitsrelation,
Nullelement, Einselement, Addition, Multiplikation usw. mit den entsprechenden
Eigenschaften definiert sind.
A1.3 Definition:
Seien A = (aij ) i=1,...,m , B = (bij ) i=1,...,m0 zwei Matrizen. Man definiert
j=1,...,n
j=1,...,n0
A = B ⇐⇒ (m = m0 )∧(n = n0 )∧(∀i ∈ {1, . . . , m})(∀j ∈ {1, . . . , n}) (aij = bij )
A1.4 Definition:
Sei A = (aij ) i=1,...,m eine (m × n)-Matrix. Dann heißt die (n × m)-Matrix
j=1,...,n
A0 = (a0ij ) i=1,...,n mit a0ij = aji Transponierte zu A. (andere Schreibweise: AT )
j=1,...,m
Eine quadratische Matrix A heißt symmetrisch, wenn aij = aji (∀i, j = 1, . . . , n).
c
V.
Steinmetz: Schließende Statistik
–62–
A1.5 Folgerung:
Stets gilt
.1) (A0 )0 = A
.2) A symmetrisch ⇐⇒ A = A0
A1.6 Definition(Typen von Matrizen):
(n × n)-Einheitsmatrix


1 0 ··· 0 

 0 1 · · · 0 



I =  ..

.
. . .  n
 .
. . 

0 0 ··· 1 
|
{z
}
n
(n × n)-Diagonalmatrix


d1 0 · · · 0
 0 d2 · · · 0 


D =  ..
.. 
.
.
 .
. . 
0 0 · · · dn
(m × n)-Einsmatrix


1 ··· 1 


..  m
E =  ...

. 
1 ··· 1 
|
{z
}
n
(m × n)-Nullmatrix


0 ··· 0 


..  m
O =  ...

. 
0 ··· 0 
|
{z
}
n
obere (n × n)-Dreiecksmatrix


a11 · · · · · · a1n
.. 
..

.
. 
 0
A= . .
.. 
.
..
..
 ..
. 
0 · · · 0 ann
untere (n × n)-Dreiecksmatrix


b11 0 · · · 0
.. 
 .. . . . . . .
. 
 .
B= .

.
.. 0 
 ..
b1n · · · · · · bnn






ej = 




j-ter Einheitsvektor

0
.. 
. 

0 

1  ← j-te Komp.(von oben)

0 
.. 
. 
0
c
V.
Steinmetz: Schließende Statistik
Einsvektor





ι=



1.
..
..
..
..
..
..
..
..
.
1
Nullvektor














0=



0.
..
..
..
..
..
..
..
..
.
0









–63–
A1.7 Definition:
Es sei


a11 · · · a1n

.. 
A =  ...
. 
am1 · · · amn
Man schreibt


a1j


A·j :=  ... 
j ∈ {1, . . . , n} für den j-ten Spaltenvektor von A.
amj
A0i· := (ai1 , . . . , ain ) i ∈ {1, . . . , m} für den i-ten Zeilenvektor von A.
A1.8 Folgerung:
Verzichtet man auf innere Klammern und Kommata, so kann man schreiben:


A01·


A = (A·1 . . . A·n ) =  ... 
A0m·
c
V.
Steinmetz: Schließende Statistik
–64–
A2 Verknüpfungen von Matrizen
A2.1 Definition:
Seien A = (aij ), B = (bij ) (m×n)-Matrizen und α ∈ R. Die Summe der Matrizen
A und B wird definiert durch
A + B := F = (fij )m×n
mit fij := aij + bij
∀i = 1, . . . , m, j = 1, . . . , n,
die skalare Multiplikation von A und α wird definiert durch
αA := G = (gij )m×n
mit gij := αaij
∀i = 1, . . . , m, j = 1, . . . , n.
Man setzt (−1)A =: −A.
A2.2 Satz:
Seien A, B, C (m × n)-Matrizen und α, β ∈ R. Dann gilt
.1)
.3)
.5)
.7)
A+B =B+A
.2) (A + B) + C = A + (B + C)
A+O =O+A=A
.4) (A + B)0 = A0 + B 0
αA = Aα
.6) (α + β)A = αA + βA
α(βA) = (αβ)A = β(αA) .8) (αA)0 = αA0
A2.3 Definition:
Seien A = (aij ) eine (m × n)-Matrix und B = (bij ) eine (n × r)-Matrix. Dann
heißt die (m × r)-Matrix
AB := G = (gij ) i=1,...,m
j=1,...,r
mit gij :=
n
X
aik bkj
∀i, j
k=1
das Produkt von A und B.
A2.4 Satz:
Unter der Annahme, daß die Zeilen- und Spaltenzahlen die jeweiligen Verknüpfungen
erlauben, gilt:
.1)
.3)
.5)
.7)
(AB)C = A(BC)
A(B + C) = AB + AC
IA = A; AI = A
(AB)0 = B 0 A0
.2)
.4)
.6)
.8)
(A + B)C = AC + BC
α(AB) = (αA)B = A(αB)
OA = O; AO = O
AA0 und A0 A sind symmetrisch
A2.5 Bemerkung:
Ist mit AB auch BA definiert, gilt i.a. AB 6= BA.
c
V.
Steinmetz: Schließende Statistik
–65–
A2.6 Folgerung:
.1) Seien A = a0 =(a1 , . . . , an ) ein n-dimensionaler Zeilenvektor und
b1
 .. 
B = b =  .  ein n-dimensionaler Spaltenvektor, dann gilt:
bn
AB = a0 b =
n
X
ai b i
i=1


v1


.2) Seien V = v =  ...  ein m-dimensionaler Spaltenvektor und
vm
W = w0 = (w1 , . . . , wn ) ein n-dimensionaler Zeilenvektor, dann ist


v1 w1 · · · v1 wn

.. 
V W = v · w0 =  ...
. 
vm w1 · · · vm wn
eine (m × n)-Matrix.
A2.7 Definition:
Es seien A = (aij ) eine (m×n)-Matrix und B eine (r×s)-Matrix. Man bezeichnet
die (m · r × n · s)-Matrix


a11 B · · · a1n B

.. 
A ⊗ B :=  ...
. 
am1 B · · · amn B
als Kroneckerprodukt von A und B.
A2.8 Satz:
Es seien A, B, C und D Matrizen und k eine relle Zahl. Falls die benötigten
Matrizen-Summen und Matrizen-Produkte definiert sind, gilt für das Kroneckerprodukt:
.1) k(A ⊗ B) = (kA) ⊗ B = A ⊗ (kB)
.2) A ⊗ (B ⊗ C) = (A ⊗ B) ⊗ C =: A ⊗ B ⊗ C
.3) A ⊗ (B + C) = (A ⊗ B) + (A ⊗ C)
.4) (A ⊗ B)(C ⊗ D) = (AC) ⊗ (BD)
.5) (A ⊗ B)0 = A0 ⊗ B 0
c
V.
Steinmetz: Schließende Statistik
–66–
A2.9 Definition:
Es sei A = [A·1 , . . . , A·n ] eine (m × n)-Matrix. Man bezeichnet den
(m · n × 1)-Vektor aus den untereinander angeordneten Spalten von A mit


A·1


vec(A) :=  ... 
A·n
A2.10 Satz:
Es seien A und B Matrizen und k eine relle Zahl. Sind die benötigten MatrizenSummen und Matrizen-Produkte definiert, so gilt für den vec-Operator
.1) vec(kA) = kvec(A)
.2) vec(A + B) = vec(A) + vec(B)
.3) vec(AB) = (I ⊗ A)vec(B)
c
V.
Steinmetz: Schließende Statistik
–67–
A3 Lineare Unabhängigkeit
A3.1 Definition:
Es seien a, a1 , . . . , an ∈ Rm . a heißt Linearkombination von a1 , . . . , an genau
dann, wenn gilt
(∃α1 , . . . , αn ∈ R) (a = α1 a1 + . . . + αn an ).
a1 , . . . , an heißen linear unabhängig genau dann, wenn gilt
(∀α1 , . . . , αn ∈ R) (0 = α1 a1 + . . . + αn an =⇒ α1 = . . . = αn = 0),
andernfalls heißen sie linear abhängig.
A3.2 Satz:
Es seien a1 , . . . , an ∈ Rm . Für n ≥ m + 1 sind die Vektoren stets linear abhängig.
Sind a1 , . . . , am ∈ Rm linear unabhängig, läßt sich jeder Vektor a ∈ Rm als
Linearkombination der ai darstellen.
A3.3 Definition:
Eine Menge von m linear unabhängigen Vektoren des Rm heißt Basis des Rm .
Jede Menge von Vektoren des Rm , die m linear unabhängige Vektoren enthält,
heißt ein Erzeugendensystem.
c
V.
Steinmetz: Schließende Statistik
–68–
A4 Rang einer Matrix
A4.1 Definition:
Sei A = (aij )m×n . Die Maximalzahl linear unabhängiger Spaltenvektoren von A
heißt Rang der Matrix A. Bezeichnung: rg A.
A4.2 Definition:
Sei A eine n × n-Matrix. A heißt regulär genau dann, wenn rg A = n gilt.
A4.3 Satz:
.1)
.3)
.5)
.7)
rg A = rg A0
rg AB ≤ min(rg A, rg B)
rg O = 0
A regulär =⇒ rg AB = rg B
c
V.
Steinmetz: Schließende Statistik
.2) rg A ≤ min(m, n)
.4) rg A0 A = rg A
.6) rg I(n×n) = n
–69–
A5 Determinante einer Matrix
A5.1 Definition:
Es sei A eine (n×n)-Matrix und Aij mit i, j ∈ {1, . . . , n} sei die (n−1)×(n−1)Matrix, die aus A durch Streichen der i-ten Zeile und j-ten Spalte entsteht. Als
Determinante der Matrix A bezeichnet man die reelle Zahl det A mit
det A = a11 für n = 1
n
X
(−1)i+j aij det Aij
det A =
für n ≥ 2 und festes i ∈ {1, . . . , n}.
j=1
A5.2 Satz:
Seien A, B (n × n)-Matrizen und α ∈ R. Dann gilt
.1) det(A0 ) = det A
.2) det(αAn×n ) = αn det A
.3) vertauscht man zwei Zeilen (bzw. Spalten) von A, so ändert sich das Vorzeichen der Determinante, nicht aber der Betrag.
.4)



d11 · · · d1n

..  = det 
..
det 

.
. 
0
dnn
.5) det A 6= 0 ⇐⇒ A regulär
.6) det(AB) = det A · det B
c
V.
Steinmetz: Schließende Statistik
d11
..
.
dn1

0
n
..  = Y d
..
.
ii
. 
i=1
· · · dnn
–70–
A6 Inverse einer Matrix
A6.1 Definition:
Eine (n × n)-Matrix A heißt invertierbar, wenn es eine (n × n)-Matrix A−1 gibt
mit A · A−1 = I. A−1 heißt Inverse zu A.
A6.2 Satz:
Sei A−1 Inverse zu A. Dann gilt auch A−1 A = I und A−1 ist eindeutig bestimmt.
A6.3 Satz:
Sei A reguläre (n × n)-Matrix. Dann ist die (n × n)-Matrix B mit
bij =
(−1)i+j det Aji
det A
Inverse zu A.
A6.4 Satz:
Sei A eine (n × n)-Matrix. Dann gilt: A invertierbar ⇐⇒ A regulär.
A6.5 Satz:
Für Matrizen A, B und α ∈ R \ {0} gilt, falls die Zeilen- und Spaltenzahlen die
Verknüpfungen erlauben und die Inversen jeweils existieren:
.1) (AB)−1 = B −1 A−1
.3) (A−1 )0 = (A0 )−1
.5) (αA)−1 = α1 A−1
.6)


d1
0


..
D=

.
0
dn
.7) det(A−1 ) = (det A)−1 .
c
V.
Steinmetz: Schließende Statistik
.2)
.4)
.6)
(A−1 )−1 = A
I −1 = I
A symmetrisch ⇐⇒ A−1 symmetrisch

=⇒
1
d1

D−1 = 
0
0
...
1
dn



–71–
A7 Unterteilte Matrizen
A7.1 Vereinbarung:
Es seien

a11
 ..
 .

 a
A =  r1
 ar+1,1
 .
 ..
am1
···
a1p
..
.
a1,p+1
..
.
···
arp
ar,p+1
· · · ar+1,p ar+1,p+1
..
..
.
.
· · · amp
am,p+1
···

a1,n
.. 
. 

···
arn 
 eine (m × n)-Matrix
· · · ar+1,n 
.. 
. 
· · · amn

A11

a11 · · · a1p

..  (r × p)-Matrix
=  ...
. 
ar1 · · · arp

A12

a1,p+1 · · · a1n

..  (r × (n − p))-Matrix
=  ...
. 
ar,p+1 · · · arn

A21

ar+1,1 · · · ar+1,p

..  ((m − r) × p)-Matrix
=  ...
. 
am1 · · · amp

A22

ar+1,p+1 · · · ar+1,n

..
..  ((m − r) × (n − p))-Matrix
=
.
. 
am,p+1 · · · amn
Dann läßt sich A bei Verzicht auf innere Klammern folgendermaßen schreiben:
A=
A11 A12
A21 A22
Die Matrizen A11 , A12 , A21 , A22 bezeichnet man als Teil- oder Blockmatrizen.
c
V.
Steinmetz: Schließende Statistik
–72–
A7.2 Satz:
A11 A12
B11 B12
Seien A =
eine (m × n)-Matrix und B =
eine
A21 A22
B21 B22
(n × q)-Matrix sowie A11 eine (r × p)-, A12 eine (r × (n − p))-,
A21 eine ((m − r) × p)-, A22 eine (m − r) × (n − p)-Matrix, B11 eine (p × s)-, B12
eine (p × (q − s))-, B21 eine ((n − p) × s)-, B22 eine (n − p) × (q − s)-Matrix.
Dann gilt:
.1)
0
A =
A011 A021
A012 A022
.2)
"
AB =
A11 B11 + A12 B21 A11 B12 + A12 B22
#
A21 B11 + A22 B21 A21 B12 + A22 B22
.3) Sind A, A11 quadratisch und sind A und A22 invertierbar, dann gilt mit
−1
A21
H := A11 − A12 A22


H −1
−H −1 A12 A−1
22

A−1 = 
−1
−1
−1
−1
−1
−1
−A22 A21 H
A22 + A22 A21 H A12 A22
c
V.
Steinmetz: Schließende Statistik
–73–
A8 Spur einer Matrix
A8.1 Definition:
Es sei A ein (n × n)-Matrix. Dann heißt
tr(A) := sp(A) :=
n
X
aii
die Spur (trace) von A.
i=1
A8.2 Satz:
Bei geeigneten Dimensionen der Matrizen A, B, C und Vektoren a, b gilt:
.1) tr(αA + βB) = α tr(A) + β tr(B) mit α, β ∈ R
.2) tr(A) = tr(A0 )
.3) tr(AB) = tr(BA), insbesondere tr(a b0 ) = tr(b0 a) = b0 a
.4) tr(ABC) = tr(CAB) = tr(BCA)
c
V.
Steinmetz: Schließende Statistik
–74–
A9 Orthogonale Matrizen, idempotente Matrizen
A9.1 Definition:
Eine (n × n)-Matrix heißt orthogonal, wenn gilt A0 A = I.
A9.2 Satz:
Es sei A eine orthogonale (n × n)-Matrix. Dann gilt
.1) rg A = n
.3) A0 A = AA0 = I
.2) A0 = A−1
.4) det A = ±1
A9.3 Satz:
Es sei A eine (n × n)-Matrix mit AA = A. Dann gilt rg A = tr A.
A9.4 Definition:
Eine (n × n)-Matrix A heißt idempotent, wenn gilt A = A0 und AA = A.
A9.5 Satz:
Es sei A eine idempotente Matrix mit rg A = r. Dann gibt es eine orthogonale
Matrix C mit
Ir 0
0
C AC =
0 0
c
V.
Steinmetz: Schließende Statistik
–75–
A10 Def inite Matrizen, quadratische Formen
A10.1 Definition:
Es seien A eine (n × n)-Matrix und x ∈ Rn ein (n × 1)-Vektor. Dann heißt die
Abbildung q : Rn → R mit
q(x) = x0 Ax
quadratische Form.
A10.2 Definition:
Sei A eine symmetrische (n × n)-Matrix. Dann heißt A (und auch die zugehörige
quadratische Form) positiv definit, wenn gilt
(∀x ∈ Rn \ {0}) (x0 Ax) > 0)
und positiv semidefinit, wenn gilt
(∀x ∈ Rn \ {0}) (x0 Ax) ≥ 0)
(entsprechend definiert man negativ (semi-)definit).
A10.3 Satz:
.1) A positiv definit =⇒ A regulär und A−1 positiv definit.
.2) Ist A eine positiv definite (n × n)-Matrix und B eine (m × n)-Matrix, so gilt:
BAB 0
positiv definit ⇐⇒ rg B = m.
.3) Eine symmetrische Matrix A ist genau dann positiv definit, wenn es eine
reguläre Matrix B gibt mit A = BB 0 .
(Man kann B als obere Dreiecksmatrix wählen.)
.4) Eine symmetrische Matrix A ist genau dann positiv semidefinit, wenn es
eine quadratische Matrix B gibt mit A = B 0 B.
.5) Sei A positiv semidefinit. Dann gilt: A positiv definit ⇐⇒ A regulär.
.6) Die symmetrische (n × n)-Matrix A = (aij ) ist
wenn gilt

a11 a12
a11 a12
> 0, det  a21 a22
a11 > 0, det
a21 a22
a31 a32
c
V.
Steinmetz: Schließende Statistik
genau dann positiv definit,

a13
a23  > 0, . . . , det A > 0.
a33
–76–
A11 Vektordif ferentiation
A11.1 Definition:
Es seien f : Rn → R eine partiell differenzierbare Funktion und x0 = (x1 , . . . , xn ) ∈
Rn . Dann heißt


∂f
 ∂x1 
 . 
∂f
.. 
=
 der Gradient von f .
∂x 
 ∂f 
∂xn
Vereinbarung:
0
∂f
∂f
=
,...,
∂x1
∂xn
∂f ◦
Der Gradient an einer Stelle x ∈ Rn wird mit
bezeichnet.
∂x x◦
∂f
:=
∂x0
∂f
∂x
A11.2 Satz:
Es seien f : Rn → R und g : Rn → R partiell differenzierbare Funktionen und
α, β ∈ R. Dann gilt:
.1)
∂(αf + βg)
∂f
∂g
=α
+β
∂x
∂x
∂x
.2)
∂(f · g)
∂f
∂g
=
g+
f
∂x
∂x
∂x
.3) Es sei h : Rn → R die Abbildung mit h(x) = α für festes α ∈ R und für alle
x ∈ Rn .
∂h
Dann ist h partiell differenzierbar und es gilt:
=0
∂x
A11.3 Folgerung:
Es seien g : Rn → R eine Funktion, a ∈ Rn ein Vektor und A ∈ Rn·n eine Matrix.
Dann gilt:
∂g
= ei
∂x
.1)
(∀x ∈ Rn )(g(x) = xi ) =⇒
.2)
(∀x ∈ Rn )(g(x) = a0 x) =⇒
c
V.
Steinmetz: Schließende Statistik
∂g
=a
∂x
(i = 1, . . . , n)
–77–
.3)
∂g ◦
◦
(∀x ∈ R )(g(x) = x Ax) =⇒
= (A + A0 )x, für x ∈ Rn und
∂x x◦
∂g ◦
A symmetrisch =⇒
= 2Ax.
∂x ◦
n
0
x
c
V.
Steinmetz: Schließende Statistik
–78–
B Tabellen
B1 Tabelle zur Standardnormalverteilung
Φ(z)
z
0
Die Tabelle enthält zu vorgegebenem z den Inhalt der in der Skizze schraffierten
Fläche Φ(z).
z
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.0
0.1
0.2
0.3
0.4
0.5000
0.5398
0.5793
0.6179
0.6554
0.5040
0.5438
0.5832
0.6217
0.6591
0.5080
0.5478
0.5871
0.6255
0.6628
0.5120
0.5517
0.5910
0.6293
0.6664
0.5160
0.5557
0.5948
0.6331
0.6700
0.5199
0.5596
0.5987
0.6368
0.6736
0.5239
0.5636
0.6026
0.6406
0.6772
0.5279
0.5675
0.6064
0.6443
0.6808
0.5319
0.5714
0.6103
0.6480
0.6844
0.5359
0.5753
0.6141
0.6517
0.6879
0.5
0.6
0.7
0.8
0.9
0.6915
0.7257
0.7580
0.7881
0.8159
0.6950
0.7291
0.7611
0.7910
0.8186
0.6985
0.7324
0.7642
0.7939
0.8212
0.7019
0.7357
0.7673
0.7967
0.8238
0.7054
0.7389
0.7704
0.7995
0.8264
0.7088
0.7422
0.7734
0.8023
0.8289
0.7123
0.7454
0.7764
0.8051
0.8315
0.7157
0.7486
0.7794
0.8078
0.8340
0.7190
0.7517
0.7823
0.8106
0.8365
0.7224
0.7549
0.7852
0.8133
0.8389
1.0
1.1
1.2
1.3
1.4
0.8413
0.8643
0.8849
0.9032
0.9192
0.8438
0.8665
0.8869
0.9049
0.9207
0.8461
0.8686
0.8888
0.9066
0.9222
0.8485
0.8708
0.8907
0.9082
0.9236
0.8508
0.8729
0.8925
0.9099
0.9251
0.8531
0.8749
0.8944
0.9115
0.9265
0.8554
0.8770
0.8962
0.9131
0.9279
0.8577
0.8790
0.8980
0.9147
0.9292
0.8599
0.8810
0.8997
0.9162
0.9306
0.8621
0.8830
0.9015
0.9177
0.9319
1.5
1.6
1.7
1.8
1.9
0.9332
0.9452
0.9554
0.9641
0.9713
0.9345
0.9463
0.9564
0.9649
0.9719
0.9357
0.9474
0.9573
0.9656
0.9726
0.9370
0.9484
0.9582
0.9664
0.9732
0.9382
0.9495
0.9591
0.9671
0.9738
0.9394
0.9505
0.9599
0.9678
0.9744
0.9406
0.9515
0.9608
0.9686
0.9750
0.9418
0.9525
0.9616
0.9693
0.9756
0.9429
0.9535
0.9625
0.9699
0.9761
0.9441
0.9545
0.9633
0.9706
0.9767
c
V.
Steinmetz: Schließende Statistik
–79–
Φ(z)
z
0
Die Tabelle enthält zu vorgegebenem z den Inhalt der in der Skizze schraffierten
Fläche Φ(z).
z
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
2.0
2.1
2.2
2.3
2.4
0.9772
0.9821
0.9861
0.9893
0.9918
0.9778
0.9826
0.9864
0.9896
0.9920
0.9783
0.9830
0.9868
0.9898
0.9922
0.9788
0.9834
0.9871
0.9901
0.9925
0.9793
0.9838
0.9875
0.9904
0.9927
0.9798
0.9842
0.9878
0.9906
0.9929
0.9803
0.9846
0.9881
0.9909
0.9931
0.9808
0.9850
0.9884
0.9911
0.9932
0.9812
0.9854
0.9887
0.9913
0.9934
0.9817
0.9857
0.9890
0.9916
0.9936
2.5
2.6
2.7
2.8
2.9
0.9938
0.9953
0.9965
0.9974
0.9981
0.9940
0.9955
0.9966
0.9975
0.9982
0.9941
0.9956
0.9967
0.9976
0.9982
0.9943
0.9957
0.9968
0.9977
0.9983
0.9945
0.9959
0.9969
0.9977
0.9984
0.9946
0.9960
0.9970
0.9978
0.9984
0.9948
0.9961
0.9971
0.9979
0.9985
0.9949
0.9962
0.9972
0.9979
0.9985
0.9951
0.9963
0.9973
0.998
0.9986
0.9952
0.9964
0.9974
0.9981
0.9986
3.0
3.1
3.2
3.3
3.4
0.9987
0.9990
0.9993
0.9995
0.9997
0.9987
0.9991
0.9993
0.9995
0.9997
0.9987
0.9991
0.9994
0.9995
0.9997
0.9988
0.9991
0.9994
0.9996
0.9997
0.9988
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9997
0.9998
Quantile λp = Φ−1 (p) der Standardnormalverteilung
p
0.9
0.95
0.975
0.99 0.995
0.999
λp
1.28
1.645
1.96
2.33
3.09
c
V.
Steinmetz: Schließende Statistik
2.58
–80–
B2 Quantile der t-Verteilungen
α
1−α
0
tα,k
Die Tabelle gibt tα,k an in Abhängigkeit von α und der Zahl k der Freiheitsgrade.
α
0.85
0.90
0.95
0.975
0.99
0.995
0.9995
1
2
3
4
5
1.963
1.386
1.250
1.190
1.156
3.078
1.886
1.638
1.533
1.476
6.314
2.920
2.353
2.132
2.015
12.706
4.303
3.182
2.776
2.571
31.821
6.965
4.541
3.747
3.365
63.657
9.925
5.841
4.604
4.032
636.619
31.599
12.924
8.610
6.869
6
7
8
9
10
1.134
1.119
1.108
1.100
1.093
1.440
1.415
1.397
1.383
1.372
1.943
1.895
1.860
1.833
1.812
2.447
2.365
2.306
2.262
2.228
3.143
2.998
2.896
2.821
2.764
3.707
3.499
3.355
3.250
3.169
5.959
5.408
5.041
4.781
4.587
11
12
13
14
15
1.088
1.083
1.079
1.076
1.074
1.363
1.356
1.350
1.345
1.341
1.796
1.782
1.771
1.761
1.753
2.201
2.179
2.160
2.145
2.131
2.718
2.681
2.650
2.624
2.602
3.106
3.055
3.012
2.977
2.947
4.437
4.318
4.221
4.140
4.073
16
17
18
19
20
1.071
1.069
1.067
1.066
1.064
1.337
1.333
1.330
1.328
1.325
1.746
1.740
1.734
1.729
1.725
2.120
2.110
2.101
2.093
2.086
2.583
2.567
2.552
2.539
2.528
2.921
2.898
2.878
2.861
2.845
4.015
3.965
3.922
3.883
3.850
21
22
23
24
25
1.063
1.061
1.060
1.059
1.058
1.323
1.321
1.319
1.318
1.316
1.721
1.717
1.714
1.711
1.708
2.080
2.074
2.069
2.064
2.060
2.518
2.508
2.500
2.492
2.485
2.831
2.819
2.807
2.797
2.787
3.819
3.792
3.768
3.745
3.725
26
27
28
29
30
1.058
1.057
1.056
1.055
1.055
1.315
1.314
1.313
1.311
1.310
1.706
1.703
1.701
1.699
1.697
2.056
2.052
2.048
2.045
2.042
2.479
2.473
2.467
2.462
2.457
2.779
2.771
2.763
2.756
2.750
3.707
3.690
3.674
3.659
3.646
1.050 1.303
1.045 1.296
1.041 1.289
1.684
1.671
1.658
2.021
2.000
1.980
2.423
2.390
2.358
2.704
2.660
2.617
3.551
3.460
3.373
n
40
60
120
–81–
B3 Quantile der χ2 -Verteilungen
α
1−α
χ2α,k
0
Die Tabelle gibt χ2α,k an in Abhängigkeit von α und der Zahl k der Freiheitsgrade.
α
0.01
0.025
0.05
0.5
0.90
0.95
0.975
0.99
1
2
3
4
5
0.000
0.020
0.115
0.297
0.554
0.001
0.050
0.216
0.484
0.831
0.004
0.103
0.352
0.711
1.146
0.455
1.386
2.366
3.357
4.352
2.706
4.605
6.251
7.779
9.236
3.842
5.992
7.815
9.488
11.070
5.024
7.378
9.348
11.143
12.833
6.635
9.210
11.345
13.277
15.086
6
7
8
9
10
0.872
1.239
1.647
2.088
2.558
1.237
1.690
2.180
2.700
3.247
1.635
2.167
2.733
3.325
3.940
5.348
6.346
7.344
8.343
9.342
10.645
12.017
13.362
14.684
15.987
12.592
14.067
15.507
16.919
18.307
14.449
16.013
17.535
19.023
20.483
16.812
18.475
20.090
21.666
23.209
11
12
13
14
15
3.054
3.571
4.107
4.660
5.229
3.816
4.404
5.009
5.629
6.262
4.575
5.226
5.892
6.571
7.261
10.341
11.340
12.340
13.339
14.339
17.275
18.549
19.812
21.064
22.307
19.675
21.026
22.362
23.685
24.996
21.920
23.337
24.736
26.119
27.488
24.725
26.217
27.688
29.141
30.578
16
17
18
19
20
5.812
6.408
7.015
7.633
8.260
6.908 7.962 15.338
7.564 8.672 16.338
8.231 9.391 17.338
8.907 10.117 18.338
9.591 10.851 19.337
23.542
24.769
25.989
27.204
28.412
26.296
27.587
28.869
30.144
31.410
28.845
30.191
31.526
32.852
34.170
32.000
33.409
34.805
36.191
37.566
21
22
23
24
25
8.897
9.543
10.196
10.856
11.524
10.283
10.982
11.689
12.401
13.120
11.591
12.338
13.091
13.848
14.611
20.337
21.337
22.337
23.337
24.337
29.615 32.671 35.479 38.932
30.813 33.924 36.781 40.289
32.007 35.172 38.076 41.638
33.196 36.415 39.364 42.980
34.382 37.652 40.646 44.314
26
27
28
29
30
12.198
12.879
13.565
14.256
14.953
13.844
14.573
15.308
16.047
16.791
15.379
16.151
16.928
17.708
18.493
25.336
26.336
27.336
28.336
29.336
35.563
36.741
37.916
39.087
40.256
n
c
V.
Steinmetz: Schließende Statistik
38.885
40.113
41.337
42.557
43.773
41.923
43.195
44.461
45.722
46.979
45.642
46.963
48.278
49.588
50.892
–82–
B4 Quantile der F -Verteilungen
0.95
0.05
0
F0.95;m,n
Die Tabelle gibt F0.95;m,n an in Abhängigkeit von der Zahl m der Freiheitsgrade
des Zählers und der Zahl n der Freiheitsgrade des Nenners.
m
n
1
2
3
4
5
1
2
3
4
5
6
7
8
9
10
161.45 199.50 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.39 19.40
10.13
9.55
9.28
9.12
9.01
8.94
8.89
8.85
8.81
8.79
7.71
6.94
6.59
6.39
6.26
6.16
6.09
6.04
6.00
5.96
6.61
5.79
5.41
5.19
5.05
4.95
4.88
4.82
4.77
4.74
6
7
8
9
10
5.99
5.59
5.32
5.12
4.96
5.14
4.74
4.46
4.26
4.10
4.76
4.35
4.07
3.86
3.71
4.53
4.12
3.84
3.63
3.48
4.39
3.97
3.69
3.48
3.33
4.28
3.87
3.58
3.37
3.22
4.21
3.79
3.50
3.29
3.14
4.15
3.73
3.44
3.23
3.07
4.10
3.68
3.39
3.18
3.02
4.06
3.64
3.35
3.14
2.98
11
12
13
14
15
4.84
4.75
4.67
4.60
4.54
3.98
3.89
3.81
3.74
3.68
3.59
3.49
3.41
3.34
3.29
3.36
3.26
3.18
3.11
3.06
3.20
3.11
3.03
2.96
2.90
3.09
3.00
2.92
2.85
2.79
3.01
2.91
2.83
2.76
2.71
2.95
2.85
2.77
2.70
2.64
2.90
2.80
2.71
2.65
2.59
2.85
2.75
2.67
2.60
2.54
16
17
18
19
20
4.49
4.45
4.41
4.38
4.35
3.63
3.59
3.55
3.52
3.49
3.24
3.20
3.16
3.13
3.10
3.01
2.96
2.93
2.90
2.87
2.85
2.81
2.77
2.74
2.71
2.74
2.70
2.66
2.63
2.60
2.66
2.61
2.58
2.54
2.51
2.59
2.55
2.51
2.48
2.45
2.54
2.49
2.46
2.42
2.39
2.49
2.45
2.41
2.38
2.35
21
22
23
24
25
4.32
4.30
4.28
4.26
4.24
3.47
3.44
3.42
3.40
3.39
3.07
3.05
3.03
3.01
2.99
2.84
2.82
2.80
2.78
2.76
2.68
2.66
2.64
2.62
2.60
2.57
2.55
2.53
2.51
2.49
2.49
2.46
2.44
2.42
2.40
2.42
2.40
2.37
2.36
2.34
2.37
2.34
2.32
2.30
2.28
2.32
2.30
2.27
2.25
2.24
30
40
60
120
∞
4.17
4.08
4.00
3.92
3.84
3.32
3.23
3.15
3.07
3.00
2.92
2.84
2.76
2.68
2.60
2.69
2.61
2.53
2.45
2.37
2.53
2.45
2.37
2.29
2.21
2.42
2.34
2.25
2.18
2.10
2.33
2.25
2.17
2.09
2.01
2.27
2.18
2.10
2.02
1.94
2.21
2.12
2.04
1.96
1.88
2.16
2.08
1.99
1.91
1.83
–83–
0.95
0.05
0
F0.95;m,n
Die Tabelle gibt F0.95;m,n an in Abhängigkeit von der Zahl m der Freiheitsgrade
des Zählers und der Zahl n der Freiheitsgrade des Nenners.
m
n
1
2
3
4
5
12
15
20
25
30
35
40
60
120
∞
244.90 245.95 248.01 249.26 250.1 250.69 251.14 252.2 253.25 254.31
19.41 19.43 19.45 19.46 19.46 19.47 19.47 19.48 19.49 19.50
8.74
8.70
8.66
8.63 8.62
8.60
8.59 8.57
8.55
8.53
5.91
5.86
5.80
5.77 5.75
5.73
5.72 5.69
5.66
5.63
4.68
4.62
4.56
4.52 4.50
4.48
4.46 4.43
4.40
4.37
6
7
8
9
10
4.00
3.57
3.28
3.07
2.91
3.94
3.51
3.22
3.01
2.85
3.87
3.44
3.15
2.94
2.77
3.83
3.40
3.11
2.89
2.73
3.81
3.38
3.08
2.86
2.70
3.79
3.36
3.06
2.84
2.68
3.77
3.34
3.04
2.83
2.66
3.74
3.30
3.01
2.79
2.62
3.70
3.27
2.97
2.75
2.58
3.67
3.23
2.93
2.71
2.54
11
12
13
14
15
2.79
2.69
2.60
2.53
2.48
2.72
2.62
2.53
2.46
2.40
2.65
2.54
2.46
2.39
2.33
2.60
2.50
2.41
2.34
2.28
2.57
2.47
2.38
2.31
2.25
2.55
2.44
2.36
2.28
2.22
2.53
2.43
2.34
2.27
2.20
2.49
2.38
2.30
2.22
2.16
2.45
2.34
2.25
2.18
2.11
2.40
2.30
2.21
2.13
2.07
16
17
18
19
20
2.42
2.38
2.34
2.31
2.28
2.35
2.31
2.27
2.23
2.20
2.28
2.23
2.19
2.16
2.12
2.23
2.18
2.14
2.11
2.07
2.19
2.15
2.11
2.07
2.04
2.17
2.12
2.08
2.05
2.01
2.15
2.10
2.06
2.03
1.99
2.11
2.06
2.02
1.98
1.95
2.06
2.01
1.97
1.93
1.90
2.01
1.96
1.92
1.88
1.84
21
22
23
24
25
2.25
2.23
2.20
2.18
2.16
2.18
2.15
2.13
2.11
2.09
2.11
2.07
2.05
2.03
2.01
2.05
2.02
2.00
1.97
1.96
2.01
1.98
1.96
1.94
1.92
1.98
1.96
1.93
1.91
1.89
1.96
1.94
1.91
1.89
1.87
1.92
1.89
1.86
1.84
1.82
1.87
1.84
1.81
1.79
1.77
1.81
1.78
1.76
1.73
1.71
30
40
60
120
∞
2.09
2.00
1.92
1.83
1.75
2.01
1.92
1.53
1.43
1.67
1.93
1.84
1.50
1.39
1.57
1.88
1.78
1.48
1.37
1.51
1.84
1.74
1.47
1.35
1.46
1.81
1.72
1.46
1.34
1.42
1.79
1.69
1.45
1.33
1.39
1.74
1.64
1.53
1.43
1.32
1.68
1.58
1.47
1.35
1.22
1.62
1.51
1.39
1.25
1.00
–84–
Index
A-priori-Verteilung . . . . . . . . . . . . . 16
Aktion
gleichmäßig beste . . . . . . . . . . . 15
Aktionsraum . . . . . . . . . . . . . . . . . . . 15
Algebra, σ-Algebra . . . . . . . . . . . . . . 1
Annahmebereich . . . . . . . . . . . . . . . 30
Basis . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bayes-Regel . . . . . . . . . . . . . . . . . . . .
Bias . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bindungen . . . . . . . . . . . . . . . . . . . . .
67
16
22
60
Chi-Quadrat-verteilt mit
n Freiheitsgraden . . . . . . . 39
Dichte(funktion) . . . . . . . . . . . . . . . . 4
gemeinsame . . . . . . . . . . . . . . . . . . 4
dominant . . . . . . . . . . . . . . . . . . . . . . 15
strikt . . . . . . . . . . . . . . . . . . . . . . . 15
Entscheidungsfunktion . . . . . . . . . 18
Bayes . . . . . . . . . . . . . . . . . . . . . . . 19
gleichmäßig beste . . . . . . . . . . . 19
Minimax . . . . . . . . . . . . . . . . . . . . 19
Entscheidungsmodell . . . . . . . 15, 19
Entscheidungsregel . . . . . . . . . . . . . 15
Ereignisraum . . . . . . . . . . . . . . . . . . . . 1
Ergebnisraum . . . . . . . . . . . . . . . . . . . 1
Erwartungswertvektor . . . . . . . . . . . 5
Erzeugendensystem . . . . . . . . . . . . 67
F-verteilt . . . . . . . . . . . . . . . . . . . . . .
Fehler
1.Art . . . . . . . . . . . . . . . . . . . . . . . .
2.Art . . . . . . . . . . . . . . . . . . . . . . . .
Fehlerwahrscheinlichkeit
1.Art . . . . . . . . . . . . . . . . . . . . . . . .
2.Art . . . . . . . . . . . . . . . . . . . . . . . .
Fragestellung
einseitige . . . . . . . . . . . . . . . . . . . .
zweiseitige . . . . . . . . . . . . . . . . . .
52
31
31
31
31
36
36
gaußverteilt . . . . . . . . . . . . . . . . . . . . . 6
Gegenhypothese . . . . . . . . . . . . . . . . 30
c
V.
Steinmetz: Schließende Statistik
Gesetz
schwaches,
der großen Zahlen . . . . . . 13
Grenzwertsatz
von de Moivre und Laplace . . 13
zentraler . . . . . . . . . . . . . . . . . . . . 14
Grundannahme der Statistik
dritte . . . . . . . . . . . . . . . . . . . . . . . 18
erste . . . . . . . . . . . . . . . . . . . . . . . . 17
zweite . . . . . . . . . . . . . . . . . . . . . . . 17
Grundgesamtheit . . . . . . . . . . . . . . . . 1
Gütefunktion . . . . . . . . . . . . . . . . . . 32
Hurwitz-Regel . . . . . . . . . . . . . . . . . 16
Hypothese
einfache . . . . . . . . . . . . . . . . . . . . . 30
zusammengesetzte . . . . . . . . . . . 30
identifizierbar . . . . . . . . . . . . . . . . . . 17
Indikatorfunktion . . . . . . . . . . . . . . 58
Komponente . . . . . . . . . . . . . . . . . . . . 2
1 − α-Konfidenzbereich . . . . . . . . 47
Konfidenzbereichsschätzung . . . . 47
Konfidenzschätzung . . . . . . . . . . . . 47
konvergent . . . . . . . . . . . . . . . . . . . . . 10
P-fast-sicher . . . . . . . . . . . . . . . . . 10
der Verteilung nach . . . . . . . . . 11
im r-ten Mittel . . . . . . . . . . . . . . 10
stochastisch . . . . . . . . . . . . . . . . . 11
kritischer Bereich . . . . . . . . . . . . . . 30
Kroneckerprodukt . . . . . . . . . . . . . . 65
Likelihood-Funktion . . . . . . . . 27,
linear abhängig . . . . . . . . . . . . . . . .
linear unabhängig . . . . . . . . . . . . . .
Linearkombination . . . . . . . . . . . . .
28
67
67
67
Markovsche Ungleichung . . . . . . .
Matrix . . . . . . . . . . . . . . . . . . . . . . . . .
Inverse einer . . . . . . . . . . . . . . . .
Block- . . . . . . . . . . . . . . . . . . . . . .
Determinante einer . . . . . . . . . .
Diagonalmatrix . . . . . . . . . . . . .
11
61
70
71
69
62
–85–
Einheitsmatrix . . . . . . . . . . . . . .
Einsmatrix . . . . . . . . . . . . . . . . . .
Hauptdiagonale einer . . . . . . . .
idempotente . . . . . . . . . . . . . . . . .
negativ definite . . . . . . . . . . . . .
negativ semidefinite . . . . . . . . .
Nullmatrix . . . . . . . . . . . . . . . . . .
obere Dreiecksmatrix . . . . . . . .
orthogonale . . . . . . . . . . . . . . . . .
positiv definite . . . . . . . . . . . . . .
positiv semidefinite . . . . . . . . .
quadratische . . . . . . . . . . . . . . . .
Rang einer . . . . . . . . . . . . . . . . . .
reguläre . . . . . . . . . . . . . . . . . . . . .
Spur einer . . . . . . . . . . . . . . . . . . .
symmetrische . . . . . . . . . . . . . . .
Teil- . . . . . . . . . . . . . . . . . . . . . . . .
transponierte . . . . . . . . . . . . . . . .
untere Dreiecksmatrix . . . . . . .
Maximum-Likelihood
Gleichungen . . . . . . . . . . . . . . . . .
Schätzfunktion . . . . . . . . . . . . . .
Schätzwert . . . . . . . . . . . . . . . . . .
Minimax-Regel . . . . . . . . . . . . . . . . .
Minimax-Regret-Regel . . . . . . . . .
Minimin-Regel . . . . . . . . . . . . . . . . .
mittlerer quadratischen Fehler . .
Momentenmethode . . . . . . . . . . . . .
62
62
61
74
75
75
62
62
74
75
75
61
68
68
73
61
71
61
62
28
27
27
16
16
16
22
29
normalverteilt
N (0, I) . . . . . . . . . . . . . . . . . . . . . . . 6
N (µ, Σ) . . . . . . . . . . . . . . . . . . . . . . 8
Nullhypothese . . . . . . . . . . . . . . . . . . 30
Operationscharakteristik . . . . . . . 32
p-Wert . . . . . . . . . . . . . . . . . . . . . . . . . 38
Parameterbereichsschätzung . . . . 47
Parameterpunktschätzfunktion . 20
Parameterraum . . . . . . . . . . . . . . . . 17
Parametrisierung . . . . . . . . . . . . . . . 17
Präentscheidungsmodell . . . . . . . . 15
Projektion . . . . . . . . . . . . . . . . . . . . . . 2
Punktmasse . . . . . . . . . . . . . . . . . . . . . 3
Punktwahrscheinlichkeit . . . . . . . . . 3
quadratische Form . . . . . . . . . . . . . 75
c
V.
Steinmetz: Schließende Statistik
Randdichte(funktion) . . . . . . . . . . . 5
Randomisierung . . . . . . . . . . . . . . . . 45
Randverteilung . . . . . . . . . . . . . . . . . . 3
Randverteilungsfunktion . . . . . . . . 3
Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
Rangstatistik . . . . . . . . . . . . . . . . . . 58
Rao-Cramér-Ungleichung . . . . . . . 24
Realisation . . . . . . . . . . . . . . . . . . . . . 18
Risikofunktion . . . . . . . . . . . . . . . . . 19
Satz
von Glivenko-Cantelli . . . . . . .
von Neyman . . . . . . . . . . . . . . . .
Savage-Niehans-Regel . . . . . . . . . .
Schadensfunktion . . . . . . . . . . . . . .
Schärfe . . . . . . . . . . . . . . . . . . . . . . . . .
Schätzfunktion
asymptotisch
erwartungstreue . . . . . . . .
effiziente . . . . . . . . . . . . . . . . . . . .
erschöpfende . . . . . . . . . . . . . . . .
erwartungstreue . . . . . . . . . . . . .
hinreichende . . . . . . . . . . . . . . . .
konsistent bzgl. des mittleren
quadratischen Fehlers . .
konsistente . . . . . . . . . . . . . . . . . .
reguläre . . . . . . . . . . . . . . . . . . . . .
suffiziente . . . . . . . . . . . . . . . . . . .
unverzerrte . . . . . . . . . . . . . . . . . .
wirksamste . . . . . . . . . . . . . . . . . .
Schwellenwert . . . . . . . . . . . . . . . . . .
Statistik . . . . . . . . . . . . . . . . . . . . . . .
Stetigkeitskorrektur . . . . . . . . . . . .
Stichprobe . . . . . . . . . . . . . . . . . . . . .
einfache . . . . . . . . . . . . . . . . . . . . .
Stichprobenfunktion . . . . . . . . . . . .
Stichprobenkorrelationskoeffizient . . . . . . . . . . . . . .
Stichprobenkovarianz . . . . . . . . . . .
Stichprobenmittelwert . . . . . . . . . .
Stichprobenmoment . . . . . . . . . . . .
zentrales . . . . . . . . . . . . . . . . . . . .
Stichprobenraum . . . . . . . . . . . . 1,
Stichprobenrealisation . . . . . . . . . .
Stichprobenstreuung . . . . . . . . . . .
14
26
16
15
32
23
23
26
22
26
25
25
23
26
22
23
36
26
44
18
18
26
21
21
20
20
20
18
18
20
–86–
korrigierte . . . . . . . . . . . . . . . . . . . 20
t-verteilt mit n Freiheitsgraden . 39
Test . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Alternativtest . . . . . . . . . . . . . . . 30
Annahmebereich eines . . . . . . . 30
einseitiger . . . . . . . . . . . . . . . . . . . 36
gleichmäßig bester . . . . . . . . . . . 33
kritischer Bereich eines . . . . . . 30
Parametertest . . . . . . . . . . . . . . . 30
unverfälschter . . . . . . . . . . . . . . . 33
unverzerrter . . . . . . . . . . . . . . . . . 33
zum Niveau α . . . . . . . . . . . . . . . 31
zweiseitiger . . . . . . . . . . . . . . . . . . 36
Trägerpunkt . . . . . . . . . . . . . . . . . . . . 3
Tschebyschev’sche
Ungleichung . . . . . . . . . . . . 11
Unabhängigkeit
stochastische . . . . . . . . . . . . . . . . . 5
Varianz-Kovarianzmatrix . . . . . . . . 5
Vektor . . . . . . . . . . . . . . . . . . . . . . . . . 61
Einheitsvektor . . . . . . . . . . . . . . 62
Einsvektor . . . . . . . . . . . . . . . . . . 62
Nullvektor . . . . . . . . . . . . . . . . . . 62
Verteilungsannahme . . . . . . . . . . . . 17
nichtparametrische . . . . . . . . . . 17
parametrische . . . . . . . . . . . . . . . 17
verteilungsfreie . . . . . . . . . . . . . . 17
Verteilungsfunktion . . . . . . . . . . . . . 3
(total-)stetige,
(absolut-) stetige . . . . . . . . 4
empirische . . . . . . . . . . . . . . . . . . 14
gemeinsame . . . . . . . . . . . . . . . . . . 3
Verwerfungsbereich . . . . . . . . . . . . . 30
Verzerrung . . . . . . . . . . . . . . . . . . . . . 22
Wahrscheinlichkeit(-smaß) . . . . . . . 1
Wahrscheinlichkeitsraum . . . . . . . . 1
Wahrscheinlichkeitsverteilung . . . . 1
gemeinsame . . . . . . . . . . . . . . . . . . 3
Wald-Regel . . . . . . . . . . . . . . . . . . . . 16
Wert
kritischer . . . . . . . . . . . . . . . . . . . . 36
Zufallsvariable . . . . . . . . . . . . . . . . . . 1
c
V.
Steinmetz: Schließende Statistik
reguläre . . . . . . . . . . . . . . . . . . . . . 23
Zustandsraum . . . . . . . . . . . . . . . . . . 15
–87–
Symbolverzeichnis
Ω ............................... 1
F ............................... 1
P ............................... 1
X ............................... 1
QX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Bn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
pri1 ,...,im . . . . . . . . . . . . . . . . . . . . . . . . . 2
pri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Xi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
X(ω) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
P{X ∈ B} . . . . . . . . . . . . . . . . . . . . . . 3
FX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
fX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
f(X1 ,...,Xm ) . . . . . . . . . . . . . . . . . . . . . . . 5
µ ................................ 5
Σ ............................... 5
σij . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Var(X) . . . . . . . . . . . . . . . . . . . . . . . . . 5
Cov(X, Y ) . . . . . . . . . . . . . . . . . . . . . . 5
f (X) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
N (0, I) . . . . . . . . . . . . . . . . . . . . . . . . . . 6
N (µ, Σ) . . . . . . . . . . . . . . . . . . . . . . . . . 8
lim xn = x . . . . . . . . . . . . . . . . . . . . 10
n→∞
lim Xn = X P-f.s. . . . . . . . . . . . 10
n→∞
lim Xn = X im r-ten Mittel . . . 10
n→∞
p lim Xn = X . . . . . . . . . . . . . . . . . . 11
n→∞
B(n, p) . . . . . . . . . . . . . . . . . . . . . . . . .
F̂ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
(A, Z, S) . . . . . . . . . . . . . . . . . . . . . . .
S(a, z) . . . . . . . . . . . . . . . . . . . . . . . . .
a∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
(A, Z, S, e) . . . . . . . . . . . . . . . . . . . . .
Π ..............................
W .............................
Θ ..............................
(x1 , . . . , xn ) . . . . . . . . . . . . . . . . . . . .
(X1 , . . . , Xn ) . . . . . . . . . . . . . . . . . . .
X ..............................
δ . . . . . . . . . . . . . . . . . . . . . . . . . . . 18,
(W, D, X, ∆, S, e) . . . . . . . . . . . . . . .
R(δ, ·) . . . . . . . . . . . . . . . . . . . . . . . . . .
c
V.
Steinmetz: Schließende Statistik
13
14
15
15
15
15
16
17
17
18
18
18
20
19
19
δ ∗ . . . . . . . . . . . . . . . . . . . . . . . . . . 19,
σ̂2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
σ̂ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
S2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
µ̂ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
σ̂ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
x ..............................
X ..............................
ρ̂(X, Y ) . . . . . . . . . . . . . . . . . . . . . . . .
σ̂ij (x, y) . . . . . . . . . . . . . . . . . . . . . . . .
σ̂ij (X, Y ) . . . . . . . . . . . . . . . . . . . . . .
µ̂ij (x, y) . . . . . . . . . . . . . . . . . . . . . . . .
µ̂ij (X, Y ) . . . . . . . . . . . . . . . . . . . . . .
T ..............................
L(· | x1 , . . . , xn ) . . . . . . . . . . . . 27,
ϑ̂ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
d0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
d1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
W0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
W1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
H0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
H1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
⊗ ..............................
vec . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
rg A . . . . . . . . . . . . . . . . . . . . . . . . . . . .
det A . . . . . . . . . . . . . . . . . . . . . . . . . .
tr(A) . . . . . . . . . . . . . . . . . . . . . . . . . .
sp(A) . . . . . . . . . . . . . . . . . . . . . . . . . .
23
20
20
20
20
20
20
20
21
21
21
21
21
26
28
27
30
30
30
30
30
30
65
66
68
69
73
73
–88–
Im Kompaktskript angesprochene Literatur
[Büning]
Büning, H., Trenkler, G., Nichtparametrische statistische Methoden, Berlin, N.Y., 1978
[Fisz]
Fisz, M., Wahrscheinlichkeitsrechnung und Mathematische Statistik, VEB Deutscher Verlag der Wissenschaften, Berlin 1970.
[Krickeberg] Krickeberg, K., Wahrscheinlichkeitstheorie, B.G. Teubner Verlagsgesellschaft, Stuttgart 1963
[Rohatgi]
Rohatgi, V. K., An Introduction to Probability Theory and Mathematical Statistics, Wileys Series in Probability and Mathematical Statistics, 1976.
[Steinmetz]
Steinmetz, V., Kompaktskript zu den Vorlesungen Grundzüge der
Statistik Teil A und Teil B, Universität des Saarlandes, Auflage
WS 2002/2003.
[Witting]
Witting, H., Mathematische Statistik I, Parametrische Verfahren
bei festem Stichprobenumfang, Stuttgart 1985.
c
V.
Steinmetz: Schließende Statistik
–89–
Änderungen
• 12.01.2004:
Seite 24, 3.2.7 Definition: i = 1, . . . , m durch i ∈ I ⊆ N ersetzt
n
P
P
Seite 24, 3.2.8 Satz:
durch
ersetzt
i=1
i∈I
• 16.01.2004:
Seite 27, 3.5.3 Hilfssatz:
Für ein ϑ̂ ∈ Θ statt Für ein ϑ ∈ Θ
max L(ϑ | x1 , . . . , xn ) statt max L(· | x1 , . . . , xn )
ϑ∈Θ
ϑ∈Θ
bzw. max ln L(ϑ | x1 , . . . , xn ) statt max ln L(· | x1 , . . . , xn )
ϑ∈Θ
ϑ∈Θ
• 12.02.2004:
Seite 56, 6.1.3 Chi-Quadrat-Unabhängigkeitstest
P χ2(r−1)(s−1) ≤ λ1−α = 1 − α
statt
P χ2(r−1)(s−1) ≤ λ1−α
c
V.
Steinmetz: Schließende Statistik
Herunterladen