kompaktskript statistische analyseverfahren

Werbung
KOMPAKTSKRIPT
zur Vorlesung
STATISTISCHE
ANALYSEVERFAHREN
von
Volker Steinmetz
ausgearbeitet von Stefan Klößner und Christoph Stahl
Universität des Saarlandes SS 2003
I
Inhaltsverzeichnis
WARNUNG
II
1 Hilfsmittel aus der linearen Algebra
1.1 Matrizen und Vektoren . . . . . . . . . . . . . . . . . . . . . .
1.2 Lineare Gleichungssysteme und die verallgemeinerte Inverse .
1
1
13
2 Hilfsmittel der Wahrscheinlichkeitstheorie und Statistik
2.1 Wahrscheinlichkeitstheoretische Grundlagen . . . . . . . . . .
2.2 Statistische Grundlagen . . . . . . . . . . . . . . . . . . . . .
16
16
24
3 Das
3.1
3.2
3.3
33
33
35
lineare Modell
Grundlegende Definitionen und Sätze . . . . . . . . . . . . . .
Die Methode der kleinsten Quadrate . . . . . . . . . . . . . .
Tests und Konfidenzbereichsschätzungen im linearen Modell unter Normalverteilungsannahmen . . . . . . . . . . . . . . . . .
41
4 Regressionsanalyse
44
5 Varianzanalyse
5.1 Varianzanalyse mit festen Effekten (Modell I) und einfacher Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Varianzanalyse mit festen Effekten (Modell I) und mehrfacher
Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Varianzanalyse mit zufälligen Effekten (Modell II, Varianzkomponentenanalyse) . . . . . . . . . . . . . . . . . . . . . . . . .
48
6 Kovarianzanalyse
64
A Tabellen
A.1 Tabelle zur Standardnormalverteilung
A.2 Quantile der t-Verteilungen . . . . .
A.3 Quantile der χ2 -Verteilungen . . . . .
A.4 Quantile der F -Verteilungen . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
48
56
62
68
68
70
71
72
Index
74
Symbolverzeichnis
77
Änderungen
78
c
V.
Steinmetz: Statistische Analyseverfahren
II
WARNUNG
Das vorliegende Kompaktskript ist kein Lehrbuch, sondern es soll die Hörer der
Vorlesung Statistische Analyseverfahren von dem ablenkenden und oft fehlerhaften Mitschreiben der Formeln entlasten und es ihnen erleichtern, sich auf die
vorgetragenen Motivationen und Erläuterungen zu konzentrieren und hierüber
individuelle Notizen anzufertigen. Dementsprechend sind in diesem Skript nur
formale Definitionen und Sätze enthalten, Bemerkungen dienen zur Ergänzung
des Stoffes. Die Motivation und Erläuterung der aufgeführten Begriffe und Aussagen sowie die Behandlung von Beispielen bleiben der Vorlesung und auch der
begleitenden Übung vorbehalten. Ebenso werden Hinweise auf ergänzende und
vertiefende Literatur im Verlauf der Vorlesung gegeben.
c
V.
Steinmetz: Statistische Analyseverfahren
–1–
1 Hilfsmittel aus der linearen Algebra
1.1 Matrizen und Vektoren
1.1.1 Definition:
Unter einer (m×n)-Matrix A mit den Elementen aij (i = 1, . . . , m, j = 1, . . . , n)
versteht man ein Schema


a11 · · · a1n

..  =: (a ) i=1,...,m =: A
...
A :=  ...
ij
(m×n) ,
. 
j=1,...,n
am1 · · · amn
m heißt Anzahl der Zeilen, n Anzahl der Spalten von A. Eine (m × 1)-Matrix a
heißt ein m-dimensionaler (Spalten-) Vektor


a1


a :=  ...  .
am
Eine (1 × n)-Matrix a0 heißt ein n-dimensionaler Zeilenvektor
a0 = (a1 , . . . , an ).
Sei r = min{m, n}. Die Elemente a11 , a22 , . . . , arr der Matrix A = (aij ) heißen
Hauptdiagonalelemente; der Vektor (a11 , . . . , arr )0 heißt die Hauptdiagonale von
A. Ist m = n, so heißt die Matrix A quadratisch.
1.1.2 Bemerkung:
Die Elemente der im folgenden betrachteten Matrizen seien reelle Zahlen. Die
Definitionen und Sätze gelten aber auch für Matrizen mit anderen Elementen,
z.B. komplexen Zahlen, reellen Zufallsvariablen, soweit eine Gleichheitsrelation,
Nullelement, Einselement, Addition, Multiplikation usw. mit den entsprechenden
Eigenschaften definiert sind.
1.1.3 Definition:
Seien A = (aij ) i=1,...,m , B = (bij ) i=1,...,m0 zwei Matrizen. Man definiert
j=1,...,n
j=1,...,n0
A = B : ⇐⇒ (m = m0 )∧(n = n0 )∧(∀i ∈ {1, . . . , m})(∀j ∈ {1, . . . , n}) (aij = bij )
1.1.4 Definition:
Sei A = (aij ) i=1,...,m eine (m × n)-Matrix. Dann heißt die (n × m)-Matrix
j=1,...,n
A0 = (a0ij ) i=1,...,n mit a0ij = aji Transponierte zu A (andere Schreibweise: AT ).
j=1,...,m
Eine quadratische Matrix A heißt symmetrisch, wenn aij = aji (∀i, j = 1, . . . , n).
c
V.
Steinmetz: Statistische Analyseverfahren
–2–
1.1.5 Folgerung:
Für jede (m × n)-Matrix A gilt:
.1) (A0 )0 = A
.2) A symmetrisch ⇐⇒ A = A0
1.1.6 Definition(Typen von Matrizen):
(n × n)-Einheitsmatrix



I=

1
0
..
.
0
|






 n




··· 0
. . ..
. .
.
... ...
0
··· 0 1
{z
}
n
0
..
(n × n)-Diagonalmatrix

d1 0 · · · · · ·
0
..

..
.
 0 d2
.
 . .
..
.
.

..
..
..
D =  ..
.
 .
.
.
.
 .
. dn−1 0
0 ··· ···
0
dn








(m × n)-Einsmatrix


1 ··· 1 



E =  ... . . . ...  m

1 ··· 1 
|
{z
}
n
(m × n)-Nullmatrix


0 ··· 0 



O =  ... . . . ...  m

0 ··· 0 
|
{z
}
n
obere (n × n)-Dreiecksmatrix


a11 · · · · · · a1n
.. 
...

. 
 0
A= . .
.. 
.
..
..
 ..
. 
0 · · · 0 ann
untere (n × n)-Dreiecksmatrix


b11 0 · · · 0
.. 
 .. . . . . . .
. 
 .
B= .

.
.. 0 
 ..
b1n · · · · · · bnn






ej = 




j-ter Einheitsvektor

0
.. 
. 

0 

1  ← j-te Komp.(von oben)

0 
.. 
. 
0
c
V.
Steinmetz: Statistische Analyseverfahren
Einsvektor
Nullvektor



1
 
ι =  ... 
1

0
 
0 =  ... 
0
–3–
1.1.7 Definition:
Es sei

a11 · · · a1n

..  .
..
A =  ...
.
. 
am1 · · · amn

Man schreibt


a1j


A•j :=  ... 
amj
(j ∈ {1, . . . , n}) für den j-ten Spaltenvektor von A.
A0i• := (ai1 , . . . , ain ) (i ∈ {1, . . . , m}) für den i-ten Zeilenvektor von A.
1.1.8 Folgerung:
Es sei A eine (m × n)-Matrix. Verzichtet man auf innere Klammern und Kommata, so kann man schreiben:


A01•


A = (A•1 . . . A•n ) =  ... 
A0m•
1.1.9 Definition:
Seien A = (aij ), B = (bij ) (m×n)-Matrizen und α ∈ R. Die Summe der Matrizen
A und B wird definiert durch
A + B := F = (fij )m×n
mit fij := aij + bij
∀i = 1, . . . , m, j = 1, . . . , n,
die skalare Multiplikation von A und α wird definiert durch
αA := G = (gij )m×n =: Aα mit gij := αaij
∀i = 1, . . . , m, j = 1, . . . , n.
Man setzt (−1)A =: −A.
1.1.10 Satz:
Seien
.1)
.3)
.5)
.7)
1
A, B, C (m × n)-Matrizen
A+B =B+A
A + O = O + A = A1
αA = Aα
α(βA) = (αβ)A = β(αA)
und
.2)
.4)
.6)
.8)
α, β ∈ R. Dann gilt
(A + B) + C = A + (B + C)
(A + B)0 = A0 + B 0
(α + β)A = αA + βA
(αA)0 = αA0
Es werde immer die geeignete Dimension der Nullmatrix O vorausgesetzt.
c
V.
Steinmetz: Statistische Analyseverfahren
–4–
1.1.11 Definition:
Seien A = (aij ) eine (m × n)-Matrix und B = (bij ) eine (n × r)-Matrix. Dann
heißt die (m × r)-Matrix
AB := G = (gij ) i=1,...,m
j=1,...,r
mit gij :=
n
X
aik bkj
(i = 1, . . . , m , j = 1, . . . , r)
k=1
das Produkt von A und B.
1.1.12 Satz:
Unter der Annahme, daß die Zeilen- und Spaltenzahlen die jeweiligen Verknüpfungen
erlauben, gilt:
.1)
.3)
.5)
.7)
(AB)C = A(BC)
A(B + C) = AB + AC
IA = A; AI = A
(AB)0 = B 0 A0
.2)
.4)
.6)
.8)
(A + B)C = AC + BC
α(AB) = (αA)B = A(αB)
OA = O; AO = O
AA0 und A0 A sind symmetrisch
1.1.13 Bemerkung:
Sind für zwei Matrizen A und B die Produkte AB und BA definiert, gilt i.a.
AB 6= BA.
1.1.14 Folgerung:
.1) Seien A = a0 = (a1 , . . . , an ) ein n-dimensionaler Zeilenvektor und


b1


B = b =  ...  ein n-dimensionaler Spaltenvektor. Dann gilt:
bn
0
AB = a b =
n
X
ai b i
i=1


v1


.2) Seien V = v =  ...  ein m-dimensionaler Spaltenvektor und
vm
W = w0 = (w1 , . . . , wn ) ein n-dimensionaler Zeilenvektor. Dann ist


v1 w1 · · · v1 wn

.. 
..
V W = v · w0 =  ...
.
. 
vm w1 · · · vm wn
eine (m × n)-Matrix.
c
V.
Steinmetz: Statistische Analyseverfahren
–5–
1.1.15 Definition:
Es seien a, a1 , . . . , an ∈ Rm . a heißt Linearkombination von a1 , . . . , an genau
dann, wenn gilt
(∃α1 , . . . , αn ∈ R) (a = α1 a1 + . . . + αn an ).
Die Vektoren a1 , . . . , an heißen linear unabhängig genau dann, wenn gilt
(∀α1 , . . . , αn ∈ R) (0 = α1 a1 + . . . + αn an =⇒ α1 = . . . = αn = 0),
andernfalls heißen sie linear abhängig.
1.1.16 Satz:
Es seien a1 , . . . , an ∈ Rm . Für n ≥ m + 1 sind die Vektoren stets linear abhängig.
Sind a1 , . . . , am ∈ Rm linear unabhängig, läßt sich jeder Vektor a ∈ Rm als
Linearkombination der ai (i = 1, . . . , m) darstellen.
1.1.17 Definition:
Eine Menge von m linear unabhängigen Vektoren des Rm heißt Basis des Rm .
Jede Menge von Vektoren des Rm , die m linear unabhängige Vektoren enthält,
heißt ein Erzeugendensystem.
1.1.18 Definition:
Es sei
U = {ui ∈ RT | i = 1, . . . , m}
eine Menge von Vektoren. Man bezeichnet die Menge aller Linearkombinationen
der Elemente von U mit
span U := {α1 u1 + · · · αm um | α1 , . . . , αm ∈ R} und
nennt sie den von den Elementen von U aufgespannten Unterraum des RT .
1.1.19 Definition:
Zwei Teilmengen
U = {ui ∈ RT | i = 1, . . . , m}
und
V = {v j ∈ RT | j = 1, . . . , n}
des RT heißen linear unabhängig, wenn gilt
span U ∩ span V = {0}.
c
V.
Steinmetz: Statistische Analyseverfahren
–6–
1.1.20 Definition:
Es sei A = (aij )m×n eine (m × n)-Matrix. Die Maximalzahl linear unabhängiger
Spaltenvektoren von A heißt Rang (rg A) der Matrix A.
1.1.21 Definition:
Eine n × n-Matrix A heißt regulär genau dann, wenn rg A = n gilt.
1.1.22 Satz:
Es seien A und B eine (m × n)- bzw. (n × r)-Matrix, O eine Nullmatrix und In
die (n × n)-Einheitsmatrix. Dann gilt:
.1)
.3)
.5)
.7)
rg A = rg A0
rg AB ≤ min{rg A, rg B}
rg O = 0
für m = n: A regulär =⇒ rg AB = rg B
.2) rg A ≤ min{m, n}
.4) rg A0 A = rg A
.6) rg In = n
1.1.23 Definition:
Es sei A eine (n×n)-Matrix und Aij mit i, j ∈ {1, . . . , n} sei die (n−1)×(n−1)Matrix, die aus A durch Streichen der i-ten Zeile und j-ten Spalte entsteht. Als
Determinante der Matrix A bezeichnet man die reelle Zahl det A mit
det A = a11 für n = 1
n
X
det A =
(−1)i+j aij det Aij
für n ≥ 2 und festes i ∈ {1, . . . , n}.
j=1
1.1.24 Satz:
Seien A, B (n × n)-Matrizen und α ∈ R. Dann gilt
.1) det(A0 ) = det A
.2) det(αA) = αn det A
.3) vertauscht man zwei Zeilen (bzw. Spalten) von A, so ändert sich das Vorzeichen der Determinante, nicht aber der Betrag.
.4)



det 

d11 · · · · · ·
..
.
0
.. . .
. ...
.
0
···
0
d1n
..
.
..
.
dnn






 = det 


.5) det A 6= 0 ⇐⇒ A regulär
.6) det(AB) = det A · det B
c
V.
Steinmetz: Statistische Analyseverfahren
d11 0 · · · 0
..
..
... ..
.
.
.
..
...
.
0
dn1 · · · · · · dnn

n
 Y

dii
=
 i=1
–7–
1.1.25 Definition:
Eine (n × n)-Matrix A heißt invertierbar, wenn es eine (n × n)-Matrix A−1 gibt
mit A · A−1 = I. A−1 heißt Inverse zu A.
1.1.26 Satz:
Sei A−1 Inverse zu A. Dann gilt auch A−1 A = I und A−1 ist eindeutig bestimmt.
1.1.27 Satz:
Es sei A eine reguläre (n × n)-Matrix. Dann ist die (n × n)-Matrix B mit
bij =
(−1)i+j det Aji
det A
die Inverse zu A.
1.1.28 Satz:
Eine (n × n)-Matrix A ist d.u.n.d. invertierbar, wenn sie regulär ist.
1.1.29 Satz:
Für Matrizen A, B und α ∈ R \ {0} gilt, falls die Zeilen- und Spaltenzahlen die
Verknüpfungen erlauben und die Inversen jeweils existieren:
.1) (AB)−1 = B −1 A−1
.3) (A−1 )0 = (A0 )−1
.5) (αA)−1 = α1 A−1
.7)

d1 0 · · · · · ·
0
..

..
.
 0 d2
.
 . .
..
.
.

..
..
..
D =  ..
.
 .
.
. . dn−1 0
 ..
0 ··· ···
0
dn
.8) det(A−1 ) = (detA)−1 .
.2)
.4)
.6)
(A−1 )−1 = A
I −1 = I
A symmetrisch ⇐⇒ A−1 symmetrisch




 =⇒



D−1

1
d1
0




=



0
..
.
..
.
0
1
d2
..
.
···
...
···
..
..
.
..
···
.
···
1.1.30 Vereinbarung:
Es seien

a11
 ..
 .

 a
A =  r1
 ar+1,1
 .
 ..
am1
···
...
a1p
..
.
a1,p+1
..
.
···
...
···
arp
ar,p+1 · · ·
· · · ar+1,p ar+1,p+1 · · ·
..
..
...
..
.
.
.
· · · amp
am,p+1 · · ·
c
V.
Steinmetz: Statistische Analyseverfahren

a1,n
.. 
. 

arn 
 eine (m × n)-Matrix
ar+1,n 
.. 
. 
amn
.
1
dn−1
0
0
..
.
..
.








0 
1
dn
–8–

a11 · · · a1p


=  ... . . . ...  (r × p)-Matrix
ar1 · · · arp

A11

A12

a1,p+1 · · · a1n

..  (r × (n − p))-Matrix
...
=  ...
. 
ar,p+1 · · · arn

A21

ar+1,1 · · · ar+1,p

..  ((m − r) × p)-Matrix
..
=  ...
.
. 
am1 · · · amp

A22

ar+1,p+1 · · · ar+1,n

..
..  ((m − r) × (n − p))-Matrix
...
=
.
. 
am,p+1 · · · amn
Dann läßt sich A bei Verzicht auf innere Klammern folgendermaßen schreiben:
A11 A12
A=
A21 A22
Die Matrizen A11 , A12 , A21 , A22 bezeichnet man als Teil- oder Blockmatrizen.
1.1.31 Satz:
B11 B12
A11 A12
Seien A =
eine (m × n)-Matrix und B =
eine
A21 A22
B21 B22
(n × q)-Matrix sowie A11 eine (r × p)-, A12 eine (r × (n − p))-,
A21 eine ((m − r) × p)-, A22 eine (m − r) × (n − p)-Matrix, B11 eine (p × s)-, B12
eine (p × (q − s))-, B21 eine ((n − p) × s)-, B22 eine (n − p) × (q − s)-Matrix.
Dann gilt:
.1)
0
A =
A011 A021
A012 A022
.2)
"
AB =
A11 B11 + A12 B21 A11 B12 + A12 B22
#
A21 B11 + A22 B21 A21 B12 + A22 B22
.3) Sind A, A11 quadratisch und sind A und A22 invertierbar, dann gilt mit
H := A11 − A12 A−1
22 A21


H −1
−H −1 A12 A−1
22

A−1 = 
−1
−1
−1
−1
−1
−1
−A22 A21 H
A22 + A22 A21 H A12 A22
c
V.
Steinmetz: Statistische Analyseverfahren
–9–
1.1.32 Definition:
Es sei A eine (n × n)-Matrix. Dann heißt
tr(A) := sp(A) :=
n
X
aii
die Spur (trace) von A.
i=1
1.1.33 Satz:
Bei geeigneten Dimensionen der Matrizen A, B, C und der Vektoren a, b gilt:
.1) tr(αA + βB) = α tr(A) + β tr(B) mit α, β ∈ R
.2) tr(A) = tr(A0 )
.3) tr(AB) = tr(BA), insbesondere tr(a b0 ) = tr(b0 a) = b0 a
.4) tr(ABC) = tr(CAB) = tr(BCA)
1.1.34 Definition:
Eine (n × n)-Matrix A heißt orthogonal, wenn gilt A0 A = I.
1.1.35 Satz:
Es sei A eine orthogonale (n × n)-Matrix. Dann gilt:
.1) rg A = n
.3) A0 A = AA0 = I
.2) A0 = A−1
.4) det A = ±1
1.1.36 Satz:
Es sei A eine (n × n)-Matrix mit AA = A. Dann gilt rg A=tr A.
1.1.37 Definition:
Eine (n × n)-Matrix A heißt idempotent, wenn gilt A = A0 und AA = A.
1.1.38 Satz:
Es sei A eine idempotente (n × n)-Matrix mit rg A = r. Dann gibt es eine
orthogonale (n × n)-Matrix C mit
Ir 0
0
C AC =
.
0 0
c
V.
Steinmetz: Statistische Analyseverfahren
–10–
1.1.39 Definition:
Es seien A eine (n × n)-Matrix und x ∈ Rn ein (n × 1)-Vektor. Dann heißt die
Abbildung q : Rn → R mit
q(x) = x0 Ax
quadratische Form.
1.1.40 Definition:
Eine symmetrische (n × n)-Matrix A (und auch die zugehörige quadratische
Form) heißt positiv definit, wenn gilt
(∀x ∈ Rn \ {0}) (x0 Ax) > 0)
und positiv semidefinit, wenn gilt
(∀x ∈ Rn \ {0}) (x0 Ax) ≥ 0)
(entsprechend definiert man negativ (semi-)definit).
1.1.41 Satz:
.1) Für eine quadratische Matrix A gilt: A positiv definit =⇒ A regulär und
A−1 positiv definit.
.2) Ist A eine positiv definite (n × n)-Matrix und B eine (m × n)-Matrix, so gilt:
BAB 0
positiv definit ⇐⇒ rg B = m.
.3) Eine symmetrische Matrix A ist genau dann positiv definit, wenn es eine
reguläre Matrix B gibt mit A = BB 0 .
(Man kann B als obere Dreiecksmatrix wählen.)
.4) Eine symmetrische Matrix A ist genau dann positiv semidefinit, wenn es
eine quadratische Matrix B gibt mit A = B 0 B.
.5) Sei A positiv semidefinit. Dann gilt: A positiv definit ⇐⇒ A regulär.
.6) Die symmetrische (n × n)-Matrix A = (aij ) ist genau dann positiv definit,
wenn gilt
a11 > 0, det
a11 a12
a21 a22

a11 a12 a13
> 0, det  a21 a22 a23  > 0, . . . , detA > 0.
a31 a32 a33
c
V.
Steinmetz: Statistische Analyseverfahren

–11–
1.1.42 Definition:
Es seien f : Rn → R eine partiell differenzierbare Funktion und x0 = (x1 , . . . , xn ).
Dann heißt


∂f
 ∂x1 
 . 
∂f
.. 
=
 der Gradient von f .
∂x 
 ∂f 
∂xn
Vereinbarung:
0
∂f
∂f
=
,...,
∂x1
∂xn
∂f ◦
Der Gradient an einer Stelle x ∈ Rn wird mit
bezeichnet.
∂x x◦
∂f
:=
∂x0
∂f
∂x
1.1.43 Satz:
Es seien f : Rn → R und g : Rn → R partiell differenzierbare Funktionen und
α, β ∈ R. Dann gilt:
.1)
∂(αf + βg)
∂f
∂g
=α
+β
∂x
∂x
∂x
.2)
∂(f · g)
∂f
∂g
=
g+
f
∂x
∂x
∂x
.3) Es sei h : Rn → R die Abbildung mit h(x) = α für festes α ∈ R und für alle
x ∈ Rn .
∂h
Dann ist h partiell differenzierbar und es gilt:
=0.
∂x
1.1.44 Folgerung:
Es seien g : Rn → R eine Funktion, a ∈ Rn ein Vektor und A ∈ Rn×n eine
Matrix. Dann gilt:
.1)
.2)
.3)
(∀x ∈ Rn )(g(x) = xi ) =⇒
∂g
= ei
∂x
(i = 1, . . . , n)
∂g
=a
∂x
∂g ◦
◦
n
0
(∀x ∈ R )(g(x) = x Ax) =⇒
= (A + A0 )x, für x ∈ Rn und
∂x x◦
∂g ◦
A symmetrisch =⇒
= 2Ax.
∂x x◦
(∀x ∈ Rn )(g(x) = a0 x) =⇒
c
V.
Steinmetz: Statistische Analyseverfahren
–12–
1.1.45 Definition:
Eine Abbildung
f : Rm → Rn
heißt linear, wenn für alle x, y ∈ Rm und für alle a, b ∈ R gilt
f (ax + by) = af (x) + bf (y).
c
V.
Steinmetz: Statistische Analyseverfahren
–13–
1.2 Lineare Gleichungssysteme und die verallgemeinerte Inverse
1.2.1 Definition:
Es seien

a11 · · · a1n

..  ∈ Rm×n
...
A =  ...
. 
am1 · · · amn

eine (m × n)-Matrix ,

b1


b =  ...  ∈ Rm
bm

ein (m × 1)-Vektor und


x1


x =  ... 
xn
ein (n × 1)-Vektor aus reellen Variablen x1 , . . . , xn . Man bezeichnet
Ax = b
als lineares Gleichungssystem mit der Koeffizientenmatrix A und der erweiterten
Matrix [A, b].
Gilt b = 0, so heißt das Gleichungssystem homogen, für b 6= 0 inhomogen.
Gibt es ein x0 ∈ Rn mit Ax0 = b, so heißt das Gleichungssystem lösbar und x0
eine Lösung.
1.2.2 Satz:
Das lineare Gleichungssystem
Ax = b
ist d.u.n.d. lösbar, wenn gilt
rg A = rg[A, b] ,
d.h. wenn der Rang der Koeffizientenmatrix mit dem Rang der erweiterten Matrix übereinstimmt.
1.2.3 Satz und Definition:
Gegeben sei das lineare Gleichungssystem
.1)
Ax = b
mit der (m × n)-Koeffizientenmatrix A und dem (m × 1)-Vektor b 6= 0. Das
(zugehörige) homogene Gleichungssystem
Ax = 0
c
V.
Steinmetz: Statistische Analyseverfahren
–14–
ist stets lösbar, es sei
L := {x ∈ Rn | Ax = 0} =
6 ∅
die Menge seiner Lösungen. Ist das inhomogene Gleichungssystem
Ax = b
lösbar und ist
xp ∈ Rm mit Axp = b
eine Lösung, so sind durch
.2)
x = xp + x0
mit x0 ∈ L alle Lösungen gegeben. Man bezeichnet xp als eine partikuläre Lösung
von .1) und .2) als seine allgemeine Lösung.
1.2.4 Definition:
Es sei A eine (m × n)-Matrix. Eine (n × m)-Matrix A− (lies A-minus“) heißt
”
verallgemeinerte Inverse (g-Inverse, generalized inverse) zu A, wenn gilt
AA− A = A.
1.2.5 Satz:
Zu jeder (m × n)-Matrix A gibt es mindestens eine g-Inverse A− .
WARNUNG:
Ist A− g-Inverse zu A, so ist i.a. A nicht g-Inverse zu A− .
1.2.6 Satz:
Es seien A eine (m × n)-Matrix und A− eine g-Inverse zu A. Dann sind durch
e− := A− AA− + (In − A− A)B + C(Im − AA− )
A
mit B ∈ Rn×m , C ∈ Rn×m alle g-Inversen zu A gegeben.
1.2.7 Satz:
Es sei
.1)
Ax = 0
ein homogenes lineares Gleichungssystem mit der (m × n)-Koeffizientenmatrix
A und einer g-Inversen A− zu A. Dann sind alle Lösungen von .1) gegeben durch
.2)
x := (In − A− A)z mit z ∈ Rn
(d.h. insbesondere, daß die Lösungsmenge unabhängig ist von der speziellen
Wahl der g-Inversen).
c
V.
Steinmetz: Statistische Analyseverfahren
–15–
1.2.8 Satz:
Es sei
.1)
Ax = b
ein inhomogenes lineares Gleichungssystem mit der (m×n)-Koeffizientenmatrix
A und einer g-Inversen A− zu A.
Dann folgt:
.2) Das System .1) ist d.u.n.d. lösbar, wenn gilt
AA− b = b,
.3) alle Lösungen sind im Falle der Lösbarkeit gegeben durch
x := A− b + (In − A− A)z mit z ∈ Rn
(d.h. insbesondere, daß die Lösungsmenge unabhängig ist von der speziellen
Wahl der g-Inversen).
1.2.9 Vorsicht:
Da die g-Inverse immer existiert, kann man nach der Formel (1.2.8.3) auch dann
x-Vektoren berechnen, wenn keine Lösung des Systems (1.2.8.1) existiert. Deshalb ist bei der Verwendung der g-Inversen die Überprüfung der Lösbarkeit unabdingbar!
1.2.10 Satz:
Eine (n × m)-Matrix B ist d.u.n.d. g-Inverse zu einer (m × n)-Matrix A, wenn
für alle b ∈ Rn mit
rg A = rg[A, b]
gilt
ABb = b.
1.2.11 Satz:
Es sei
Ax = b mit b 6= 0
ein lösbares inhomogenes lineares Gleichungssystem. Durch
x := A− b
sind alle Lösungen gegeben, wenn A− alle g-Inversen von A durchläuft.
c
V.
Steinmetz: Statistische Analyseverfahren
–16–
2 Hilfsmittel der Wahrscheinlichkeitstheorie und Statistik
2.1 Wahrscheinlichkeitstheoretische Grundlagen
2.1.1 Vorsicht:
In den Vorlesungen Grundzüge der Statistik“ und Schließende Statistik“ wur”
”
den Zufallsvariablen i.a. durch große Buchstaben, ihre Realisationen durch kleine
Buchstaben dargestellt.
In dieser Vorlesung wird von dieser Konvention abgewichen, Variable und Realisierung werden wie in der Vorlesung Ökonometrie“ nicht durch Groß- bzw.
”
Kleinschreibung unterschieden, die Bedeutung der Symbole ist aus dem Zusammenhang ersichtlich.
2.1.2 Definition:
Es seien Ω und F Mengen und P : F → R eine Abbildung. Das Tripel (Ω, F, P)
heißt ein Wahrscheinlichkeitsraum (probability space) (WR), wenn gilt
.1) Ω 6= ∅
.2) F ⊆ P(Ω) mit
• Ω∈F
• A ∈ F ⇒ CΩ A ∈ F
∞
S
• A1 , A2 , . . . ∈ F ⇒
Ai ∈ F
i=1
(d.h. F ist σ-Algebra)
.3) P : F → R mit
W1 ) A ∈ F ⇒ P A ≥ 0
W2 ) A1 , A2 , . . . ∈ F mit Ai ∩ Aj = ∅ für i 6= j
∞
∞
S
P
⇒ P Ai =
P Ai
i=1
i=1
W3 ) P Ω = 1
Ω heißt Ergebnisraum, Stichprobenraum (sample space), Grundgesamtheit, F
Ereignisraum und P Wahrscheinlichkeit(-smaß) (probability measure) des WR
(Ω, F, P).
c
V.
Steinmetz: Statistische Analyseverfahren
–17–
2.1.3 Satz und Definition:
Es sei (Ω, F, P) ein WR. Eine Abbildung
x : Ω → Rn
mit
(∀B ∈ Bn )(x−1 B ∈ F) (Forderung der Meßbarkeit)
heißt n-dimensionale Zufallsvariable über (Ω, F, P). Durch
(∀B ∈ Bn )(Qx B := P x−1 B)
ist eine Wahrscheinlichkeit Qx : Bn → R gegeben und (Rn , Bn , Qx ) ist ein WR.
Man bezeichnet Qx als Wahrscheinlichkeitsverteilung der Zufallsvariablen x. Dabei ist Bn die Borel-Algebra, die kleinste σ-Algebra über Rn , die alle Intervalle
enthält.
2.1.4 Definition:
Es seien m, n ∈ N mit m ≤ n und i1 , . . . , im ∈ {1, . . . , n} mit ir < ir+1 für
r = 1, . . . , m − 1. Die Abbildung
pri1 ,...,im : Rn → Rm
mit
pri1 ,...,im (x1 , . . . , xn ) := (xi1 , . . . , xim )
bezeichnet man als eine Projektion des Rn auf den Rm , speziell nennt man für
m = 1 und i ∈ {1, . . . , n}
pri : Rn → R1
mit
pri (x1 , . . . , xn ) = xi
die i-te Projektion des Rn auf den R1 .
2.1.5 Satz:
Die Projektion pri1 ,...,im : Rn → Rm ist Bn -Bm -meßbar.
2.1.6 Folgerung:
Es seien (Ω, F, P) ein WR und
x : Ω → Rn
eine n-dimensionale Zufallsvariable über (Ω, F, P). Dann ist
pri1 ,...,im ◦ x : Ω → Rm
eine m-dimensionale Zufallsvariable über (Ω, F, P).
c
V.
Steinmetz: Statistische Analyseverfahren
–18–
2.1.7 Definition:
Es sei x : Ω → Rn eine n-dimensionale Zufallsvariable über einem WR (Ω, F, P).
Man bezeichnet
i = 1, . . . , n
xi := pri ◦ x : Ω → R
als i-te Komponente von x.
2.1.8 Bemerkung:
Gegeben seien die Voraussetzungen von Definition (2.1.7). Es gilt
x(ω) = (x1 (ω), . . . , xn (ω))0
∀ω ∈ Ω.
Man schreibt deshalb auch
x = (x1 , . . . , xn )0 ,
man hat also
(x1 , . . . , xn )(ω)0 = (x1 (ω), . . . , xn (ω))0 .
2.1.9 Definition:
Es sei x = (x1 , . . . , xn )0 eine n-dimensionale Zufallsvariable. Man bezeichnet
Qx als gemeinsame Wahrscheinlichkeitsverteilung der Zufallsvariablen x1 , . . . , xn
und die Wahrscheinlichkeitsverteilung Qxi der i-ten Komponente xi als
Randverteilung (i = 1, . . . , n).
2.1.10 Bemerkung:
Zu (Ω, F, P) ist durch die F-Bn -meßbare Abbildung x : Ω → Rn ein neuer WR
(Rn , Bn , Qx ) gegeben. Es gilt für alle B ∈ Bn :
Qx B
= P x−1 B
= P {ω ∈ Ω | x(ω) ∈ B}
|
{z
}
∈ F wegen der Meßbarkeit von x
=: P{x ∈ B} (Kurzschreibweise).
Wie im eindimensionalen Fall unterscheidet man auch hier diskrete und stetige
Zufallsvariablen. (Diese Charakterisierung ist nicht ausschöpfend, es gibt noch
einen dritten Grundtyp, Zufallsvariablen mit einer singulären“ Verteilung, und
”
schließlich Mischungen zwischen allen drei Typen.)
Die diskreten Verteilungen werden an dieser Stelle nicht mehr behandelt.
Eine Wiederholung der Begriffe diskreter WR, diskretes Wahrscheinlichkeitsmaß, Trägerpunkte, Punktmassen, Punktwahrscheinlichkeiten usw. kann mit
Hilfe des Kompaktskriptes zur Statistik A und B erfolgen.
Auch die Begriffe bedingte Verteilung und Unabhängigkeit werden dort erläutert.
c
V.
Steinmetz: Statistische Analyseverfahren
–19–
2.1.11 Definition:
Es sei x = (x1 , . . . , xn )0 eine n-dimensionale Zufallsvariable mit der
Wahrscheinlichkeitsverteilung Qx . Die Abbildung
Fx : Rn → R
mit
Fx (u1 , . . . , un ) := Qx (] − ∞, u1 ] × . . . ×] − ∞, un ])
für alle (u1 , . . . , un )0 ∈ Rn heißt Verteilungsfunktion von x = (x1 , . . . xn )0 oder
gemeinsame Verteilungsfunktion der Zufallsvariablen x1 , . . . , xn .
Die Verteilungsfunktion Fxi bezeichnet man auch als Randverteilungsfunktion
(i = 1, . . . , n).
2.1.12 Definition:
Es sei x eine n-dimensionale Zufallsvariable mit der Verteilungsfunktion Fx . Die
Zufallsvariable x (und auch Qx und Fx ) heißen (absolut- oder total-) stetig, wenn
es eine Abbildung
fx : Rn → R
gibt mit
.1) fx (u1 , . . . , un ) ≥ 0 ∀(u1 , . . . , un )0 ∈ Rn ,
.2) fx ist uneigentlich integrierbar,
Z u1
Z un
···
fx (t1 , . . . , tn ) dtn . . . dt1
.3) Fx (u1 , . . . , un ) =
−∞
∀(u1 , . . . , un )0 ∈ Rn .
−∞
Man bezeichnet eine Abbildung fx mit diesen Eigenschaften als eine
Dichte(funktion) der Zufallsvariablen x oder gemeinsame Dichtefunktion der
Zufallsvariablen x1 , . . . xn .
2.1.13 Satz:
Ist fx eine Dichte zu der Verteilungsfunktion Fx einer n-dimensionalen Zufallsvariablen x, so gilt an allen Stetigkeitsstellen (u1 , . . . , un ) von fx :
∂ n Fx (x1 , . . . , xn ) fx (u1 , . . . , un ) =
∂x1 ∂x2 . . . ∂xn (u1 ,...,un )
2.1.14 Satz:
Eine Funktion f : Rn → R ist genau dann Dichtefunktion einer n-dimensionalen
Zufallsvariablen, wenn gilt:
.1) f (x1 , . . . , xn ) ≥ 0 ∀(x1 , . . . , xn ) ∈ Rn ,
c
V.
Steinmetz: Statistische Analyseverfahren
–20–
.2) f ist uneigentlich integrierbar,
Z
∞
Z
∞
···
.3)
−∞
f (x1 , . . . , xn ) dxn . . . dx1 = 1.
−∞
2.1.15 Satz:
Es sei x eine n-dimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung Qx und einer Dichtefunktion fx ; B ∈ Bn sei ein beliebiges Ereignis. Dann
gilt
Z
Z
Qx B = · · · fx (u1 , . . . , un ) dun . . . du1 .
B
2.1.16 Satz:
Es sei x = (x1 , . . . , xn )0 eine Zufallsvariable mit Verteilungsfunktion Fx . Dann
gilt mit m ≤ n
F(x1 ,...,xm )0 (u1 , . . . , um ) = Fx (u1 , . . . , um , ∞, . . . , ∞).2
Falls eine Dichtefunktion fx existiert, ist (x1 , . . . , xm )0 stetig verteilt mit
Z
f(x1 ,...,xm )0 (u1 , . . . , um ) =
∞
Z
···
−∞
|
{z
n−m
∞
fx (u1 , . . . , um , um+1 , . . . , un ) dun . . . dum+1
−∞
}
2.1.17 Definition:
Es gelten die Voraussetzungen aus Satz (2.1.16). Man bezeichnet f(x1 ,...,xm )0 als
eine Randdichte(funktion).
2.1.18 Definition:
x1 , x2 , . . . , xr seien n1 -, n2 - bzw. nr -dimensionale Zufallsvariablen. Sie heißen
(stochastisch) unabhängig, wenn gilt
Q(x1 ,...,xr )0 (B1 × · · · × Br ) = Qx1 B1 · . . . · Qxr Br
für alle B1 ∈ Bn1 , . . . , Br ∈ Bnr .
Eine Familie (xt )t∈T von Zufallsvariablen heißt (stochastisch) unabhängig, wenn
für jedes n ∈ N und für alle paarweise verschiedenen t1 , . . . , tn ∈ T die Zufallsvariablen xt1 , . . . , xtn (stochastisch) unabhängig sind.
2
G(∞) := lim G(y)
y→∞
c
V.
Steinmetz: Statistische Analyseverfahren
–21–
2.1.19 Definition:
Es sei (x1 , . . . , xn )0 eine n-dimensionale Zufallsvariable. Man bezeichnet
µ := (µ1 , . . . , µn )0 := (Ex1 , . . . , Exn )0
als Erwartungswertvektor von x und
Σ := (σij ) := (E[(xi − Exi )(xj − Exj )])i,j=1,...,n
als Varianz-Kovarianzmatrix von x.
2.1.20 Bemerkung:
i = j : E[(xi − Exi )(xi − Exi )] = Var xi
i 6= j : E[(xi − Exi )(xj − Exj )] = Cov(xi , xj )
2.1.21 Satz:
Es seien x = (x1 , . . . , xm )0 , y = (y1 , . . . , yn )0 zwei unabhängige mehrdimensionale
Zufallsvariablen über einem WR (Ω, F, P) und
f : Rm → Rr , g : Rn → Rs (m, n, r, s ∈ N) Bm -Br - bzw. Bn -Bs -meßbare Abbildungen. Dann sind f (x) := f ◦ x und g(y) := g ◦ y unabhängig. (Die xi brauchen
dabei untereinander nicht unabhängig zu sein, ebensowenig die yj .)
2.1.22 Satz:
Die Abbildung f : Rn → R mit
1
− u0 u
1
e 2
f (u) = √
( 2π)n
∀u = (u1 , . . . un )0 ∈ Rn
ist eine Dichtefunktion.
2.1.23 Definition:
Eine n-dimensionale Zufallsvariable x = (x1 , . . . , xn )0 heißt n-dimensional gaußverteilt oder normalverteilt N (0, I) , wenn für sie eine Dichte fx existiert mit
1
− u0 u
1
fx (u) = √
e 2
( 2π)n
∀u = (u1 , . . . un )0 ∈ Rn .
2.1.24 Satz:
Die Zufallsvariable x = (x1 , . . . , xn )0 sei n-dimensional gaußverteilt. Dann gilt:
.1) Die Komponenten xi sind N (0, 1)-verteilt und unabhängig.
.2) Ex = 0 ist der Erwartungswertvektor und Σx x0 = I ist die Varianz-KovarianzMatrix von x.
c
V.
Steinmetz: Statistische Analyseverfahren
–22–
2.1.25 Definition:
Eine n-dimensionale Zufallsvariable x = (x1 , . . . , xn )0 heißt n-dimensional normalverteilt N (µ, Σ) mit µ = (µ1 , . . . , µn )0 ∈ Rn und Σ = (σij )i,j=1,...,n ∈ Rn×n
positiv definit, wenn für sie eine Dichte existiert mit
1
− (u − µ)0 Σ−1 (u − µ)
1
√
∀u = (u1 , . . . , un )0 ∈ Rn .
e 2
fx (u) = √
n
( 2π) det Σ
2.1.26 Satz:
Die Zufallsvariable x = (x1 , . . . , xn )0 sei N (µ, Σ)-verteilt. Dann gilt
.1) Die Verteilung von x kann man durch eine invertierbare lineare Transformation aus einer Gaußverteilung gleicher Dimension herleiten.
.2) Ex = µ ist der Erwartungswertvektor und Σx x0 = Σ ist die Varianz-KovarianzMatrix von x.
.3) Alle Randverteilungen von x sind normalverteilt mit den in µ und Σ festgelegten Erwartungswerten, Varianzen und Kovarianzen der ausgewählten
Komponenten.
.4) Sind die x1 , . . . , xn paarweise unkorreliert, so sind sie auch stochastisch unabhängig.
2.1.27 Satz:
Es seien x = (x1 , . . . , xn )0 eine N (µ, Σ)-verteilte Zufallsvariable,
b = (b1 , . . . , bm )0 ∈ Rm mit m ≤ n und B = (bij ) i=1,...,m ∈ Rm·n mit rg (B) = m.
j=1,...,n
Dann ist z := Bx + b eine m-dimensionale N (Bµ + b, BΣB 0 )-verteilte Zufallsvariable.
2.1.28 Bemerkung:
Sind bei einer mehrdimensionalen Zufallsvariablen alle Randverteilungen normalverteilt, so braucht die gemeinsame Verteilung keine Normalverteilung zu
sein; sind die Komponenten aber zusätzlich unabhängig, so ist auch die gemeinsame Verteilung eine Normalverteilung.
2.1.29 Definition:
Es seien χ2m , χ2n unabhängige, χ2 -verteilte Zufallsvariablen mit m bzw. n Freiheitsgraden. Dann heißt
χ2m
χ2 n
Fnm := m2 = m
·
=: F(m,n)
χn
χ2n m
n
F -verteilt mit m Zählerfreiheitsgraden und n Nennerfreiheitsgraden.
c
V.
Steinmetz: Statistische Analyseverfahren
–23–
2.1.30 Folgerung:
Es sei Fnm eine mit m Zähler- und n Nennerfreiheitsgraden F -verteilte Zufallsvariable über einem Wahrscheinlichkeitsraum (Ω, F, P). Dann gilt für alle p ∈]0, 1[
1
m
n
=1−p,
P {Fn ≤ λp,m,n } = p ⇐⇒ P Fm ≤
λp,m,n
und somit auch
λ1−p,n,m =
c
V.
Steinmetz: Statistische Analyseverfahren
1
λp,m,n
.
–24–
2.2 Statistische Grundlagen
2.2.1 Erste Grundannahme der Statistik:
Der interessierende Umweltausschnitt kann durch eine (ein- oder mehrdimensionale) Zufallsvariable y (bzw. y) beschrieben werden.
2.2.2 Zweite Grundannahme der Statistik (”Verteilungsannahme”):
Es sei y die Zufallsvariable, durch welche der interessierende Umweltausschnitt
gemäß 2.2.1 beschrieben wird. Man kann eine Menge W vonWahrscheinlichkeitsverteilungen angeben, zu der die unbekannte wahre Verteilung von y gehört.
2.2.3 Bemerkung:
Es ist üblich, zur Vereinfachung auch die in der zweiten Grundannahme eingeführte Menge W selbst als Verteilungsannahme zu bezeichnen.
2.2.4 Vereinbarung:
Es seien W eine Verteilungsannahme zu einer Zufallsvariablen y und
∅ 6= Θ ⊆ Rr . Eine surjektive Abbildung
t:Θ→W
heißt Parametrisierung von W und mit
t(ϑ) =: Qy,ϑ
schreibt man auch
W = {Qy,ϑ | ϑ ∈ Θ},
man spricht von einer parametrischen Verteilungsannahme mit dem
Parameterraum Θ.
(I.a. werden in einer parametrischen Verteilungsannahme nur Verteilungen eines
Typs - also z.B. nur Normalverteilungen, nur Dreipunktverteilungen mit festen
Trägerpunkten etc. - enthalten sein).
Ist eine Verteilungsannahme nicht parametrisch, heißt sie auch nichtparametrisch
(verteilungsfrei).
2.2.5 Definition:
Es seien y eine Zufallsvariable mit der parametrischen Verteilungsannahme
W = {Qy,ϑ | ϑ ∈ Θ ⊆ Rr }
und
γ : Θ → Rs
◦
◦
eine Transformation des Parameterraumes Θ. Für ϑ ∈ Θ heißt γ(ϑ) identifizierbar, wenn für alle ϑ ∈ Θ gilt:
c
V.
Steinmetz: Statistische Analyseverfahren
–25–
◦
γ(ϑ) 6= γ(ϑ) =⇒ Q ◦ 6= Qy,ϑ .
y,ϑ
.1)
◦
Gilt .1) für alle ϑ∈ Θ, heißt die Transformation γ(·) identifizierbar.
2.2.6 Dritte Grundannahme der Statistik:
W sei die Verteilungsannahme zu einer Zufallsvariablen y. Es wird angenommen,
daß Realisationen u1 , . . . , un von Zufallsvariablen x1 , . . . , xn beobachtet werden
können, deren gemeinsames Verteilungsgesetz von der Verteilung Qy ∈ W in
vollständig bekannter Weise abhängt. Man bezeichnet den Vektor (x1 , . . . , xn )0
als Stichprobe vom Umfang n zu y und (u1 , . . . , un )0 als eine Stichprobenrealisation. Die Menge aller Stichprobenrealisationen heißt Stichprobenraum und wird
mit X bezeichnet.
2.2.7 Definition:
e F,
e P)
e
Es seien y eine Zufallsvariable über einem Wahrscheinlichkeitsraum (Ω,
und x1 , . . . , xn (n ∈ N) stochastisch unabhängige Zufallsvariablen über einem
Wahrscheinlichkeitsraum (Ω, F, P), die identisch wie y verteilt sind. Dann heißt
die Zufallsvariable
x := (x1 , . . . , xn )0 : Ω → Rn
eine einfache Stichprobe (independent identically distributed sample, iid-sample)
vom Umfang n zu y.3
2.2.8 Bemerkung:
Gegeben seien die Voraussetzungen aus der vorigen Definition. Für ω ∈ Ω erhält
man die Realisationen
x(ω) = (x1 , . . . , xn )0 (ω) = (x1 (ω), . . . , xn (ω))0 =: (u1 , . . . , un )0
und alle Realisationen bilden den Stichprobenraum
X = x(Ω) = {(u1 , . . . , un )0 ∈ Rn | (∃ω ∈ Ω)(x(ω) = (u1 , . . . , un )0 )} .
2.2.9 Bemerkung:
Das bisher erarbeitete Konzept läßt sich folgendermaßen veranschaulichen:
3
Die Übertragung auf den Fall einer r-dimensionalen Zufallsvariable y mit r ∈ N ist problemlos.
c
V.
Steinmetz: Statistische Analyseverfahren
–26–
e F,
e P)
e
(Ω,
(Ω, F, P)
e
Ω
Ω




yy
yx
R
Rn
(R, B1 , Qy )
(Rn , Bn , Qx )
Beschreibung des
Beschreibung der
Umweltausschnitts
Stichprobenziehung
|
{z
}
der stochastische Zusammenhang
wird durch das Auswahlverfahren
festgelegt
2.2.10 Definition:
Es seien y eine Zufallsvariable mit der parametrischen Verteilungsannahme
W = {Qy,ϑ | ϑ ∈ Θ}, γ : Θ → Rm eine Abbildung und x = (x1 , . . . , xn )0 eine
Stichprobe zu y mit dem Stichprobenraum X. Eine Abbildung δ : X → γ(Θ)
heißt eine (Parameterpunkt)schätzfunktion (parameter estimation function, estimator) für den Parameter γ(ϑ) mit ϑ ∈ Θ.
2.2.11 Bemerkung:
Man bezeichnet i.a. auch die Zufallsvariable δ(x) := δ ◦ x als Parameterpunktschätzfunktion für γ(ϑ) mit ϑ ∈ Θ.
2.2.12 Bemerkung:
Entsprechend der dritten Grundannahme wird die Auswahl einer Realisation
x = (x1 , . . . , xn )0 ∈ X von einer Wahrscheinlichkeitsverteilung gesteuert, damit auch die Bestimmung eines Näherungswertes δ(x1 , . . . , xn ) ∈ γ(Θ). Um eine Schätzfunktion δ als Zufallsvariable auffassen und damit die Hilfsmittel der
Wahrscheinlichkeitstheorie zur Beurteilung von δ heranziehen zu können, muß
auf γ(Θ) eine geeignete σ-Algebra festgelegt und die Meßbarkeit von δ sichergestellt werden. Auf diese Problematik soll hier aber nicht näher eingegangen
werden.
2.2.13 Definition:
Eine Schätzfunktion
δ : X → γ(Θ)
heißt erwartungstreu für γ(ϑ) (ϑ ∈ Θ), wenn gilt
Eϑ δ = Eδ = γ(ϑ)
c
V.
Steinmetz: Statistische Analyseverfahren
für alle ϑ ∈ Θ .
–27–
2.2.14 Satz:
Es seien y eine Zufallsvariable mit der parametrischen Verteilungsannahme
W = {Qy,ϑ | ϑ ∈ Θ ⊆ Rr }
und
γ : Θ → Rs
eine Transformation des Parameterraumes Θ. Weiterhin sei x = (x1 , . . . , xn )0 ein
Stichprobe zu y mit dem Stichprobenraum X. Gibt es eine für γ(ϑ) erwartungstreue Schätzfunktion
δ : X → γ(Θ) ,
so ist γ(·) identifizierbar.
2.2.15 Definition:
Es seien y eine Zufallsvariable mit der Verteilungsannahme
W = {Qy,ϑ | ϑ ∈ Θ ⊆ Rr },
sowie
γ : Θ → Rs
eine Transformation des Parameterraumes und x = (x1 , . . . , xn )0 ein Stichprobe
zu y mit dem Stichprobenraum X. Man bezeichnet γ(·) als eine u-schätzbare
(unverzerrt-schätzbare, u-estimable, unbiased-estimable) Funktion, wenn es eine
für γ(ϑ) mit ϑ ∈ Θ erwartungstreue Schätzfunktion
δ : X → γ(Θ)
gibt. Wenn δ linear ist, heißt γ(·) linear u-schätzbar.
2.2.16 Definition:
Es sei ∆E eine Menge von erwartungstreuen Schätzfunktionen für τ = (τ1 , . . . , τm )0
aus γ(Θ). Man bezeichnet
◦
◦
◦
0
δ = (δ 1 , . . . , δ m ) ∈ ∆E
als eine beste Schätzfunktion für τ ∈ γ(Θ) in ∆E , wenn für alle δ = (δ1 , . . . , δm )0
aus ∆E gilt
◦
◦
Var δ 1 ≤ Var δ1 , . . . , Var δ m ≤ Var δm
für alle ϑ ∈ Θ.
2.2.17 Satz:
Gegeben seien die Bezeichnungen und Voraussetzungen aus Definition (2.2.16).
◦
Gilt für ein δ ∈ ∆E
◦
Var a0 δ ≤ Var a0 δ
◦
∀a ∈ Rm , ∀δ ∈ ∆E ,
so ist δ eine beste Schätzfunktion in ∆E .
c
V.
Steinmetz: Statistische Analyseverfahren
–28–
2.2.18 Definition:
Es seien y eine Zufallsvariable mit der Verteilungsannahme W und W0 ⊆ W mit
∅ 6= W0 6= W sowie W1 := W \ W0 .
Man bezeichnet die Aussage
H0 : Qy ∈ W0
als Nullhypothese (null hypothesis) (oft der Einfachheit halber auch W0 selbst)
und die Aussage
H1 : Qy ∈ W1
als Gegenhypothese oder Alternative (oft auch W1 selbst). Es bezeichne
d “ die Entscheidung Annahme von H0“ ( Ablehnung von H1“),
” 0
”
”
d1“ die Entscheidung Annahme von H1“ ( Ablehnung von H0“).
”
”
”
Ist x = (x1 , . . . , xn )0 eine Stichprobe zu y mit dem Stichprobenraum X, so heißt
eine Abbildung
δ : X → {d0 , d1 }
ein (Alternativ-)Test für H0 gegen H1 . Ist W eine parametrische Verteilungsannahme, so spricht man auch von einem Parametertest. Eine Hypothese heißt
einfach, wenn die zugeordnete Teilmenge von W einelementig ist, andernfalls
zusammengesetzt.
(Entsprechend der Bemerkung (2.2.12) sollen auch hier Meßbarkeitsfragen ausgeklammert werden).
2.2.19 Definition:
Es sei δ : X → {d0 , d1 } ein Alternativtest. Die Menge
Kδ := {x | x ∈ X ∧ δ(x) = d1 }
heißt der kritische Bereich (Verwerfungsbereich) (critical region) des Tests, die
Menge
Aδ := {x | x ∈ X ∧ δ(x) = d0 }
sein Annahmebereich.
2.2.20 Definition:
Es sei δ : X → {d0 , d1 } ein Alternativtest für die Hypothesen H0 : Qy ∈ W0 und
H1 : Qy ∈ W1 und es sei die Beobachtung x ∈ X gegeben. Man sagt,
es liege ein Fehler 1.Art vor, wenn H0 richtig ist, aber δ(x) = d1 gilt,
es liege ein Fehler 2.Art vor, wenn H1 richtig ist, aber δ(x) = d0 gilt.
c
V.
Steinmetz: Statistische Analyseverfahren
–29–
2.2.21 Folgerung:
Gegeben seien die Voraussetzungen aus Definition (2.2.20). Die Wahrscheinlichkeit, einen Fehler 1.Art zu begehen (Fehlerwahrscheinlichkeit 1.Art), ist
Qx {x ∈ X | δ(x) = d1 } = Qx Kδ
für alle Qy ∈ W0 .
Die Wahrscheinlichkeit, einen Fehler 2.Art zu begehen (Fehlerwahrscheinlichkeit
2.Art), ist
Qx {x ∈ X | δ(x) = d0 } = Qx Aδ
für alle Qy ∈ W1 .
2.2.22 Definition:
Es sei δ : X → {d0 , d1 } ein Alternativtest für die Hypothesen H0 : Qy ∈ W0
und H1 : Qy ∈ W1 , K bezeichne den kritischen Bereich. δ heißt ein Test zum
(Signifikanz-)Niveau α ∈]0, 1[, wenn gilt
Qx K ≤ α für alle Qy ∈ W0 .
(Vielfach wählt man α = 0, 01 oder α = 0, 05).
2.2.23 Beispiel (Nagelbeispiel):
Ein Haushaltswarengeschäft bietet zwei Sortimentspackungen Nägel an, Typ I
enthält drei Sorten Nägel - bezeichnet mit 1, 2 und 3 - im Verhältnis 1:1:8,
Typ II enthält dieselben Nagelsorten im Verhältnis 6:3:1. Die Beschriftung einer Packung ist unleserlich geworden. Auf der Basis einer zufälligen Stichprobe
vom Umfang n = 1 soll die Nullhypothese, es handle sich um Typ I, gegen die
Alternative, es liege Typ II, vor getestet werden. Die Nagelsorte werde als Zufallsvariable y mit den Trägerpunkten 1, 2 und 3 aufgefaßt. Es kommen zwei
Wahrscheinlichkeitsverteilungen (Häufigkeitsverteilungen) in Betracht:
y
QI :
QI {y}
y
QII :
QII {y}
1
2
3
0,1 0,1 0,8
1
2
3
0,6 0,3 0,1
Man hat also die Verteilungsannahme
W = {QI , QII }.
Mit W0 = {QI } und W1 = {QII } folgen die Hypothesen
H0 : Qy ∈ W0
H1 : Qy ∈ W1
gleichbedeutend mit H0 : Qy = QI
gleichbedeutend mit H1 : Qy = QII .
Es liegen damit zwei einfache Hypothesen vor.
Da nur eine Stichprobe vom Umfang n = 1 gezogen werden soll, erhält man für
c
V.
Steinmetz: Statistische Analyseverfahren
–30–
die Stichprobe x = x1 den Stichprobenraum X = {1, 2, 3}.
(Für n = 2 hätte man x = (x1 , x2 ) mit X = {(1, 1), (1, 2), . . . , (3, 3)}).
Um alle Tests δ : X → {d0 , d1 } anzugeben, bestimmt man alle möglichen Zerlegungen von X in den kritischen Bereich Ki und den zugehörigen Annahmebereich
Ai (i = a, b, . . . , h):
Nr. i
Ki
a
{1}
b
{2}
c
{3}
d
{1,2}
e
{1,3}
f
{2,3}
g
{1,2,3}
h
∅
Ai
{2,3}
{1,3}
{1,2}
{3}
{2}
{1}
∅
{1,2,3 }
Z.B. besagt die erste Spalte, daß man H0 annimmt, falls als Stichprobenrealisation eine 2 oder 3 auftritt, daß man H0 ablehnt, falls 1 auftritt. Man erhält also
den Test δa : X → {d0 , d1 } mit
d0 : x ∈ {2, 3}
δa (x) =
d1 : x ∈ {1}
Entsprechend ist δg der Test, der H0 unabhängig vom Stichprobenbefund stets
ablehnt und δh der Test, der H0 stets annimmt.
In der folgenden Tabelle ist für jeden Test δi die Wahrscheinlichkeit des Fehlers
1.Art Qx Ki (dabei Qy ∈ W0 ) und des Fehlers 2.Art Qx Ai (dabei Qy ∈ W1 )
angegeben:
Nr. i
Qx Ki
Qx Ai
a
b
c
d
e
f g h
0,1 0,1 0,8 0,2 0,9 0,9 1 0 W’keit des Fehlers 1.Art (Qy = QI )
0,4 0,7 0,9 0,1 0,3 0,6 0 1 W’keit des Fehlers 2.Art (Qy = QII )
Zur Beachtung:
I.a. ist die Summe von 1. und 2. Fehlerwahrscheinlichkeit nicht Eins. Man berechnet zwar die Wahrscheinlichkeiten komplementärer Ereignisse Ki und
Ai = CX Ki , aber mit verschiedenen Wahrscheinlichkeitsverteilungen. Allerdings
zeigen die beiden Fehlerwahrscheinlichkeiten ein gewisses gegenläufiges Verhalten.
Es sei das Signifikanzniveau α = 0, 15 gewählt.
Die Tests zu diesem Niveau sind:

δa mit Qx Ka = 0, 1 
δb mit Qx Kb = 0, 1
dabei Qy = QI

δh mit Qx Kh = 0
Die Fehlerwahrscheinlichkeiten 2.Art sind

δa mit Qx Aa = 0, 4 
δb mit Qx Ab = 0, 7

δh mit Qx Ah = 1
dabei Qy = QII
Der beste Test zum Niveau α = 0, 15 ist also δa , da er die minimale Fehlerwahrscheinlichkeit 2.Art aufweist.
c
V.
Steinmetz: Statistische Analyseverfahren
–31–
2.2.24 Bemerkung:
In der Praxis gibt man bei vorliegendem Stichprobenbefund x = (x1 , . . . , xn )0
bisweilen das Infimum der Signifikanzniveaus an, bei denen H0 abgelehnt würde.
Man bezeichnet diesen Wert oft mit p, nennt ihn p-Wert (p-value, level attained)
und lehnt H0 ab, wenn für das vorher gewählte Signifikanzniveau α gilt: α ≥ p.
VORSICHT:
Man muß das Signifikanzniveau vor der Auswertung des Stichprobenbefundes
und vor der Kenntnis des p-Wertes festlegen, da sonst die Gefahr besteht, das
Signifikanzniveau α so zu wählen, daß der Test die vom Anwender gewünschte
Entscheidung liefert und die von der Testtheorie gelieferten Aussagen über die
Fehlerwahrscheinlichkeiten unsinnig sind.
2.2.25 Definition:
Es seien y eine Zufallsvariable mit der parametrischen Verteilungsannahme
W = {Qy,ϑ | ϑ ∈ Θ}, γ : Θ → Rm eine Abbildung und x = (x1 , . . . , xn )0 eine
Stichprobe zu y mit dem Stichprobenraum X. Eine Abbildung δ : X → P(γ(Θ))
heißt eine Parameterbereichsschätzung für den Parameter γ(ϑ) mit ϑ ∈ Θ.
(Entsprechend der Bemerkung (2.2.12) sollen auch hier Meßbarkeitsfragen ausgeklammert werden).
2.2.26 Bemerkung:
Man bezeichnet i.a. auch die Zufallsvariable δ(x) := δ ◦ x als Parameterbereichsschätzfunktion für γ(ϑ) mit ϑ ∈ Θ.
2.2.27 Definition:
Es seien y eine Zufallsvariable mit der parametrischen Verteilungsannahme
W , Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm sowie
x = (x1 , . . . , xn )0 eine Stichprobe zu y mit dem Stichprobenraum X und α ∈]0, 1[.
Eine Parameterbereichsschätzung δ : X → P(γ(Θ)) heißt eine Konfidenzbereichsschätzung (Konfidenzschätzung, confidence estimation) zur Sicherheitswahrscheinlichkeit (confi dence level) 1 − α (zum Niveau α) für γ(ϑ) mit ϑ ∈ Θ,
wenn gilt:
Qx,ϑ {x ∈ X | γ ∈ δ(x)} ≥ 1 − α für alle γ ∈ γ(Θ) und ϑ ∈ Θ mit γ(ϑ) = γ.
Für jedes x ∈ X heißt δ(x) ⊆ γ(Θ) ein 1 − α-Konfidenzbereich für γ ∈ γ(Θ).
2.2.28 Satz:
Es seien y eine Zufallsvariable mit der parametrischen Verteilungsannahme W ,
Θ der zugehörige Parameterraum mit einer Abbildung γ : Θ → Rm sowie
x = (x1 , . . . , xn )0 eine Stichprobe zu y mit dem Stichprobenraum X. Es seien
δγ∗0 : X → {d0 , d1 }
c
V.
Steinmetz: Statistische Analyseverfahren
–32–
für alle γ0 ∈ γ(Θ) Alternativtests zum Niveau α ∈]0, 1[ zur Prüfung der Hypothesen
H0 : γ(ϑ) = γ0
H1 : ¬(γ(ϑ) = γ0 ),
dabei sei
Aγ0 := {x ∈ X | δγ∗0 (x) = d0 }
der Annahmebereich des Tests δγ∗0 . Dann ist durch
δ(x) := {γ0 ∈ γ(Θ) | x ∈ Aγ0 }
eine Konfidenzbereichsschätzung
δ : X → P(γ(Θ))
zur Sicherheitswahrscheinlichkeit 1 − α definiert.
c
V.
Steinmetz: Statistische Analyseverfahren
–33–
3 Das lineare Modell
3.1 Grundlegende Def initionen und Sätze
3.1.1 Definition:
Es seien n, T ∈ N,

y1


y =  ...  ,
yT


u1


u =  ... 
uT

T -dimensionale Zufallsvektoren (bzw. ihre Realisationen) (random vector),


x10 x11 · · · x1n

..  = [X , . . . , X ]
X =  ...
•0
•n
. 
xT 0 xT 1 · · · xT n
eine (T × (n + 1))-Matrix reeller deterministischer Variablen (bzw. ihrer Realisationen) und


β0


β =  ... 
βn
ein (n + 1)-dimensionaler Vektor reeller deterministischer Variablen (bzw. ihrer
Realisationen). Dann heißt
.1)
y = Xβ + u
ein lineares Modell (linear model). Sind β0 , . . . , βn und die Verteilung von u
(insbesondere die Verteilungsparameter) numerisch spezifiziert, so erhält man
eine Struktur von .1).
Es sei
yt = β0 xt0 + . . . + βn xtn + ut
die t-te Zeile (t = 1, . . . , T ) aus .1). Man nennt
yt
xt0 , . . . , xtn
ut
β0 , . . . , βn
abhängige Variable, Regressand,
unabhängige, erklärende, kontrollierte Variablen, Regressoren,
Stör- oder Fehlervariable,
Modellparameter, Regressionskoeffizienten.
Liegen Realisationen y und X vor, bezeichnet man
(y, X) als Beobachtungswertmatrix, X als Designmatrix, Regressormatrix.
c
V.
Steinmetz: Statistische Analyseverfahren
–34–
Es werden folgende Annahmen gemacht:
Für jedes X ∈ RT ×(n+1) und jedes β ∈ Rn+1 gilt:
K1) Eu = 0
K2) Euu0 = σ 2 IT mit σ 2 ∈ R++ (dabei σ 2 unbekannt, fest).
Ist ein Spaltenvektor von X a priori gleich dem Einsvektor ι gesetzt, so heißt
das Modell inhomogen und der zugehörige β-Koeffizient wird als Absolutglied
bezeichnet. (I.a. wählt man im inhomogenen Modell X•0 := ι, so daß β0 das
Absolutglied ist). Wird kein Spaltenvektor von X a priori gleich dem Einsvektor
ι (oder einem Vielfachen von ι) gesetzt, heißt das Modell homogen.
3.1.2 Satz:
Gegeben sei das lineare Modell
y = Xβ + u
aus Definition (3.1.1). Unter der Voraussetzung
K1) Eu = 0
gilt
Ey = Xβ ,
und unter der zusätzlichen Voraussetzung
K2) Euu0 = σ 2 IT
folgt
Σy y0 = σ 2 IT .
c
V.
Steinmetz: Statistische Analyseverfahren
–35–
3.2 Die Methode der kleinsten Quadrate
3.2.1 Definition:
Gegeben sei das lineare Modell
y = Xβ + u
mit der Beobachtungswertmatrix (y, X). Eine Lösung β̂ ∈ Rn+1 des Minimierungsproblems
(y − Xβ)0 (y − Xβ)
.1) min
n+1
β∈R
bezeichnet man als Kleinst-Quadrate Lösung (KQ-Lösung, least squares solution). Zu β̂ heißt
û := y − X β̂
der Vektor der KQ-Residuen.
3.2.2 Satz und Definition:
Gegeben sei das lineare Modell
y = Xβ + u
mit der Beobachtungswertmatrix (y, X). Das Minimierungsproblem (3.2.1.1) hat
stets mindestens eine Lösung β̂ ∈ Rn+1 . Die Lösungen sind genau alle Lösungen
der sog. Normalgleichungen (normal equations)
X 0 X β̂ = X 0 y .
3.2.3 Hilfssatz:
Gegeben seien y = Xβ + u und (y, X) aus Definition (3.1.1). Dann gilt
rg X 0 X = rg [X 0 X, X 0 y] .
3.2.4 Satz:
Gegeben seien y = Xβ + u und (y, X) aus Definition (3.1.1). Weiterhin seien
.1) X 0 X β̂ = X 0 y
die zugehörigen Normalgleichungen und (X 0 X)− eine g-Inverse zu X 0 X. Dann
ist durch
.2) β̂ = (X 0 X)− X 0 y
eine partikuläre Lösung von .1) gegeben und die allgemeine Lösung lautet
e = β̂ + In+1 − (X 0 X)− X 0 X x mit x ∈ Rn+1 .
β
c
V.
Steinmetz: Statistische Analyseverfahren
–36–
3.2.5 Hilfssatz:
Es sei
y = Xβ + u
ein lineares Modell mit der (T × (n + 1))-Regressormatrix X. Dann gilt:
.1) rg X 0 X = rg X
.2) (X 0 X)0 = X 0 X
.3) mit (X 0 X)− ist auch (X 0 X)−
0
g-Inverse zu X 0 X
.4) X = X(X 0 X)− X 0 X
.5) aus rg X(T ×(n+1)) = n + 1 folgt (X 0 X)− = (X 0 X)−1
0 X)− g-Inverse zu X 0 X, so folgt
^
.6) sind (X 0 X)− und (X
0 X)− X 0 ,
^
X(X 0 X)− X 0 = X (X
d.h. X(X 0 X)− X 0 ist unabhängig von der speziellen Wahl der g-Inversen
.7) (X 0 X)− X 0 X (X 0 X)− X 0 X = (X 0 X)− X 0 X
.8) X(X 0 X)− X 0 ist idempotent, auch wenn (X 0 X)− nicht symmetrisch ist.
.9) IT −X(X 0 X)− X 0 ist idempotent, auch wenn (X 0 X)− nicht symmetrisch ist.
.10) rg (X 0 X)− X 0 X = rg X 0 X
= tr (X 0 X)− X 0 X
= tr X(X 0 X)− X 0
= rg X(X 0 X)− X 0
.11) aus rg X(T ×(n+1)) = r folgt rg IT − X(X 0 X)− X 0 = T − r
3.2.6 Satz:
Gegeben sei das lineare Modell
y = Xβ + u mit Eu = 0
und der Regressormatrix X.
Der Koeffizientenvektor β ist d.u.n.d. identifizierbar, wenn gilt
rg X(T ×(n+1)) = n + 1 .
c
V.
Steinmetz: Statistische Analyseverfahren
–37–
3.2.7 Satz:
Gegeben seien das lineare Modell
y = Xβ + u mit Eu = 0
und der Regressormatrix X sowie eine (m × (n + 1))-Matrix Λ.
Dann sind die folgenden Aussagen äquivalent:
.1) Es gibt eine (m × T )-Matrix B mit BX = Λ,
.2) Λβ ist linear u-schätzbar,
.3) Λβ ist u-schätzbar,
.4) Λβ ist identifizierbar.
3.2.8 Satz:
Gegeben seien das lineare Modell
y = Xβ + u mit Eu = 0
und der Regressormatrix X sowie eine (m × (n + 1))-Matrix Λ und eine (beliebige) g-Inverse (X 0 X)− zu X 0 X. Der transformierte Koeffizientenvektor Λβ ist
d.u.n.d. u-schätzbar, wenn gilt
Λ = Λ(X 0 X)− X 0 X .
3.2.9 Korollar:
Gegeben seien die Voraussetzungen aus Satz (3.2.8). Der transformierte Koeffizientenvektor Λβ ist d.u.n.d. u-schätzbar, wenn gilt
Λ I − (X 0 X)− X 0 X = O .
3.2.10 Satz und Definition:
Gegeben sei das lineare Modell
y = Xβ + u
mit der Regressormatrix X(T ×(n+1)) und Eu = 0. Weiterhin seien Λβ mit einer
(m × (n + 1))-Matrix Λ eine u-schätzbare Funktion des Modells, (X 0 X)− eine
g-Inverse zu X 0 X und
β̂ := (X 0 X)− X 0 y
c
V.
Steinmetz: Statistische Analyseverfahren
–38–
eine partikuläre Lösung der Normalgleichungen. Dann gilt für die allgemeine
Lösung
e = β̂ + In+1 − (X 0 X)− X 0 X z
β
z ∈ Rn
der Normalgleichungen
e = Λβ̂
Λβ
und
Λβ̂ = Λ(X 0 X)− X 0 y
ist unabhängig von der Wahl der g-Inversen. Man bezeichnet Λβ̂ als KQ-Schätzer
für Λβ, er ist erwartungstreu.
3.2.11 Satz (von Gauß-Markov):
Gegeben sei das lineare Modell
y = Xβ + u
mit der Regressormatrix X(T ×(n+1)) und
Eu = 0 , Σu u0 = σ 2 IT (σ 2 > 0) .
Weiterhin seien Λβ mit einer (m × (n + 1))-Matrix Λ eine u-schätzbare Funktion
des Modells und (X 0 X)− eine g-Inverse zu X 0 X. Dann ist
Λβ̂ = Λ(X 0 X)− X 0 y
die beste Schätzfunktion für Λβ unter allen in y linearen und für Λβ erwartungstreuen Schätzern.
3.2.12 Bemerkung:
Einen besten, linearen, unverzerrten Schätzer bezeichnet man auch als
BLUE
nach englisch best linear unbiased estimator.
3.2.13 Satz:
Gegeben sei das lineare Modell
y = Xβ + u
mit der Regressormatrix X(T ×(n+1)) und
Eu = 0 , Σu u0 = σ 2 IT (σ 2 > 0) .
e u-schätzbare Funktionen mit
Weiterhin seien Λβ und Λβ
e ∈ Rr×(n+1) ,
Λ ∈ Rm×(n+1) , Λ
c
V.
Steinmetz: Statistische Analyseverfahren
–39–
und (X 0 X)− eine g-Inverse zu X 0 X. Dann haben die KQ-Schätzfunktionen
e β̂ = Λ(X
e 0 X)− X 0 y
Λβ̂ = Λ(X 0 X)− X 0 y und Λ
e die Kovarianzmatrix
für Λβ bzw. Λβ
e 0 = σ 2 Λ(X 0 X)− 0 Λ
e0 ,
Σ(Λβ̂)(Λe β̂)0 = σ 2 Λ(X 0 X)− Λ
und für die Varianz-Kovarianzmatrizen4 gilt
0
Σ(Λβ̂)(Λβ̂)0 = σ 2 Λ(X 0 X)− Λ0 = σ 2 Λ(X 0 X)− Λ0
bzw.
0
e 0 X)− Λ
e 0 = σ 2 Λ(X
e 0 X)− Λ
e0 .
Σ(Λe β̂)(Λe β̂)0 = σ 2 Λ(X
3.2.14 Satz:
Gegeben sei das lineare Modell
y = Xβ + u
mit der Regressormatrix X(T ×(n+1)) und
Eu = 0 , Σu u0 = σ 2 IT (σ 2 > 0) .
Weiterhin sei Λ eine (m × (n + 1))-Matrix mit
Λ = Λ(X 0 X)− X 0 X .
Gilt rg Λ = r, so folgt für die KQ-Schätzfunktion Λβ̂ für Λβ
rg Σ(Λβ̂)(Λβ̂)0 = r ,
und wenn Λ maximalen Zeilenrang rg Λ = m hat, ist die (m × m)-Varianz-Kovarianzmatrix von Λβ̂ regulär.
3.2.15 Satz:
Gegeben seien das lineare Modell
y = Xβ + u
und eine g-Inverse (X 0 X)− zu X 0 X. Mit
β̂ = (X 0 X)− X 0 y
5
und ŷ := X β̂
gelten für das Residuum
û := y − X β̂ = y − ŷ
die Orthogonalitätsbeziehungen
X 0 û = 0 und ŷ 0 û = 0 .
4
5
Diese Matrizen sind hier i.a. singulär.
β ist i.a. nicht identifizierbar, also β̂ keine Schätzfunktion.
c
V.
Steinmetz: Statistische Analyseverfahren
–40–
3.2.16 Satz:
Gegeben seien
y = Xβ + u , β̂ = (X 0 X)− X 0 y , ŷ = X β̂ , û = y − ŷ
aus Satz (3.2.15). Dann gilt die Zerlegungsformel
y 0 y = ŷ 0 ŷ + û0 û .
3.2.17 Satz:
Gegeben sei das lineare Modell
y = Xβ + u
mit der Regressormatrix X(T ×(n+1)) und
Eu = 0 , Σu u0 = σ 2 IT (σ 2 > 0) .
Gilt
rg X(T ×(n+1)) = r < T ,
so ist
û0 û
σb2 :=
T −r
eine erwartungstreue Schätzfunktion für σ 2 .
c
V.
Steinmetz: Statistische Analyseverfahren
–41–
3.3 Tests und Konf idenzbereichsschätzungen im linearen Modell
unter Normalverteilungsannahmen
3.3.1 Satz:
Gegeben sei das lineare Modell
y = Xβ + u
mit
rg X(T ×(n+1)) = r und u ∼ N (0, σ 2 IT ) (σ 2 > 0).
Es seien (X 0 X)− eine g-Inverse zu X 0 X und
β̂ := (X 0 X)− X 0 y , ŷ := X β̂ , û := y − ŷ .
Dann sind ŷ und û unabhängig von der speziellen Wahl der g-Inversen und es
gilt
û0 û
∼ χ2T −r .
σ2
3.3.2 Satz:
Gegeben seien die Voraussetzungen aus Satz (3.3.1). Weiterhin sei Λβ eine
u-schätzbare Funktion. Dann sind
û0 û und Λβ̂
stochastisch unabhängig.
3.3.3 Satz:
Gegeben sei das lineare Modell
y = Xβ + u
mit
rg X(T ×(n+1)) = r und u ∼ N (0, σ 2 IT ) (σ 2 > 0).
Weiterhin seien (X 0 X)− eine g-Inverse zu X 0 X und Λβ eine u-schätzbare Funktion mit
rg Λ(m×(n+1)) = m
sowie Λβ̂ eine KQ-Schätzfunktion für Λβ. Dann gilt
.1) m ≤ r,
.2) Λ(X 0 X)− Λ0 ist regulär,
c
V.
Steinmetz: Statistische Analyseverfahren
–42–
.3)
Λβ̂ − Λβ
0
Λ(X 0 X)− Λ0
−1 Λβ̂ − Λβ
ist χ2m -verteilt und stochastisch-
σ2
0
û û
unabhängig von 2 .
σ
3.3.4 Satz:
Gegeben seien die Voraussetzungen aus Satz (3.3.3). Dann gilt
Λβ̂ − Λβ
0
0
−
0 −1
Λ(X X) Λ
Λβ̂ − Λβ
·
0
û û
T −r
m
m
ist FT −r -verteilt.
3.3.5 Test:
Gegeben: Lineares Modell
y = Xβ + u mit rg X(T ×(n+1)) = r , u ∼ N (0, σ 2 IT ) mit σ 2 > 0,
(X 0 X)− g-Inverse zu X 0 X, Λ (m × (n + 1))-Matrix mit Λ = Λ(X 0 X)− X 0 X,
rg Λ = m ≤ r, d ∈ Rm , α ∈]0, 1[, Beobachtung y (bei gegebenem X).
Hypothesen
H0 : Λβ = d
H1 : Λβ 6= d
6
m
Berechne: Aus der FT −r -Tafel
m
λ1−α : P{FT −r ≤ λ1−α } = 1 − α
β̂ = (X 0 X)− X 0 y , ŷ = X β̂ , û = y − ŷ
0
7
0
− 0 −1
Λβ̂ − d (Λ(X X) Λ )
Λβ̂ − d
T −r
F0 =
·
m
û0 û
Entscheide:
6
7
H0
annehmen:
F0 ≤ λ1−α
H1
annehmen:
F0 > λ1−α
Man spricht von testbaren Hypothesen, wenn Λβ u-schätzbar und Λβ = d lösbar ist.
Wichtig: Unter H0 ist die Verteilung von F0 unabhängig von σ 2 , bei H1 hängt die Verteilung
wieder von σ 2 ab, auch wenn es nicht explizit in der Formel für F0 auftritt !!
c
V.
Steinmetz: Statistische Analyseverfahren
–43–
3.3.6 Satz:
Gegeben seien das lineare Modell
y = Xβ + u mit rg X(T ×(n+1)) = r ,
eine g-Inverse (X 0 X)− zu X 0 X und eine Matrix Λ mit
rg Λ(m×(n+1)) = m , Λ = Λ(X 0 X)− X 0 X
und d ∈ Rm . Dann führt das Minimierungsproblem
0
min
y
−
Xβ
y
−
Xβ
n+1
β∈R
Λβ=d
auf die Normalgleichungen
1 ˆ
ˆ
ˆ
Λβ̂ = d , X 0 X β̂ = X 0 y − Λ0 ˆl ,
2
ˆ
(dabei bezeichnet ˆl ∈ Rm die Lösung für den Lagrange-Multiplikationsvektor
l ∈ Rm ). Eine partikuläre Lösung ist
ˆ
0
− 0
0
− 0 −1
β̂ = β̂ − (X X) Λ Λ(X X) Λ
Λβ̂ − d
mit
β̂ = (X 0 X)− X 0 y .
3.3.7 Satz:
ˆ
Gegeben seien der Test (3.3.5) und mit β̂ eine Lösung des Minimierungsproblems
0
min
y
−
Xβ
y
−
Xβ
n+1
β∈R
Λβ=d
sowie
ˆ
ûˆ := y − X β̂ .
Dann läßt sich die Teststatistik darstellen in der Form
0
ûˆ ûˆ − û0 û T − r
F0 =
·
m
û0 û
(F0 ist unabhängig von der Wahl der g-Inversen).
3.3.8 Satz:
Gegeben sei der Test



δ(y|X) := d ∈ Rm


(3.3.5). Dann ist bei gegebenem (y, X) durch

0
−1 0
−
0

Λβ̂ − d Λ(X X) Λ

Λβ̂ − d
T −r
·
≤
λ
1−α

m
û0 û

ein Konfidenzbereich für Λβ zur Sicherheitswahrscheinlichkeit 1 − α gegeben.
c
V.
Steinmetz: Statistische Analyseverfahren
–44–
4 Regressionsanalyse
4.1 Satz:
Gegeben sei das lineare Modell
y = Xβ + u
mit der Beobachtungswertmatrix (y, X),
Σ u u0 = σ 2 I
Eu = 0,
(σ 2 > 0)
und der Bedingung
rg X(T ×(n+1)) = n + 1 .
Dann gilt
.1) X 0 X ist regulär,
.2) die Normalgleichungen
X 0 X β̂ = X 0 y
sind eindeutig auflösbar, man erhält die Lösung
β̂ = (X 0 X)−1 X 0 y ,
.3) für jede (m×(n+1))-Matrix Λ ist Λβ eine schätzbare Funktion, insbesondere
also mit Λ = I auch Λβ = Iβ = β , 8
.4) β̂ ist BLUE für β (Satz von Gauß-Markov),
.5) Σβ̂ β̂ 0 = σ 2 (X 0 X)−1 ist regulär,
.6) für T > n + 1 ist
1
σb2 :=
û0 û
T −n−1
eine erwartungstreue Schätzfunktion für σ 2 ,
.7) jedes Λ(m×(n+1)) mit rg Λ = m liefert mit d ∈ Rm testbare Hypothesen
H0 : Λβ = d
8
H1 : Λβ 6= d .
Jetzt ist es sinnvoll, von der KQ-Schätzung β̂ zu sprechen.
c
V.
Steinmetz: Statistische Analyseverfahren
–45–
4.2 Test:
Gegeben: Lineares Modell y = Xβ + u mit rg X(T ×(n+1)) = n + 1,
u ∼ N (0, σ 2 IT ) mit σ 2 > 0, β m := (β0 , . . . , βm−1 )0 (evtl. nach Umnumerierung),
X = [X1 , X2 ] (entsprechend der Aufteilung von β), β̂ m := (β̂0 , . . . , β̂m−1 )0 ,
d ∈ Rm , α ∈]0, 1[, Beobachtung y (bei gegebenem X).
Hypothesen
H0 : β m = d
H1 : β m 6= d
Berechne: Aus der FTm−n−1 -Tafel
λ1−α : P{FTm−n−1 ≤ λ1−α } = 1 − α
β̂ = (X 0 X)−1 X 0 y
H = X10 X1 − X10 X2 (X20 X2 )−1 X20 X1
(β̂ m − d)0 H(β̂ m − d) T − n − 1
F0 =
·
m
û0 û
Entscheide:
H0
annehmen:
F0 ≤ λ1−α
H1
annehmen:
F0 > λ1−α
4.3 Test:
Gegeben: Lineares Modell y = Xβ + u mit rg X(T ×(n+1)) = n + 1 < T ,
u ∼ N (0, σ 2 IT ) mit σ 2 > 0, d ∈ R, α ∈]0, 1[, i ∈ {0, 1, . . . , n}, Beobachtung y
(bei gegebenem X).
Hypothesen
Fall 0
Fall I
Fall II
βi = d βi ≤ d β ≥ d
βi 6= d βi > d βi < d
H0 :
H1 :
Berechne: Aus der tT −n−1 -Tafel
α
2
≤ λ1−α } = 1 − α
λ1− α2 : P{tT −n−1 ≤ λ1− α2 } = 1 −
λ1−α : P{tT −n−1
β̂i − d
t0 = q
2 (β̂ )
σ\
i
2 (β̂ ) aus σ
b2 (X 0 X)−1 mit σb2 :=
( σ\
i
û0 û
oder mit geeignet gewähltem H
T −n−1
aus Test (4.2))
Entscheide:
Fall 0
H0 annehmen: −λ1− α2 ≤ t0 ≤ λ1− α2
H1 annehmen:
|t0 | > λ1− α2
c
V.
Steinmetz: Statistische Analyseverfahren
Fall I
Fall II
t0 ≤ λ1−α
t0 ≥ −λ1−α
t0 > λ1−α
t0 < −λ1−α
–46–
4.4 Satz:
Gegeben seien die Voraussetzungen aus Test (4.3). Dann ist ein zweiseitiges
Konfidenzintervall für
βi i ∈ {0, 1, . . . , n}
zur Sicherheitswahrscheinlichkeit 1 − α gegeben durch
q
q
\
\
2
2
α
α
δ(y | X) = β̂i − λ1− 2 σ (β̂i ), β̂i + λ1− 2 σ (β̂i ) .
4.5 Satz und Definition:
Gegeben seien das homogene lineare Modell
y = Xβ + u
mit der Beobachtungswertmatrix (y, X), rg X(T ×(n+1)) = n + 1, y 6= 0 sowie
β̂ = (X 0 X)−1 X 0 y ,
ŷ = X β̂ ,
Man bezeichnet
2
Rhom
:= 1 −
û = y − ŷ .
ŷ 0 ŷ
û0 û
=
y0y
y0y
als Bestimmtheitsmaß (coefficient of determination) für das homogene Modell.Es
gilt
2
0 ≤ Rhom
≤1.
4.6 Satz und Definition:
Gegeben seien das inhomogene lineare Modell
y = Xβ + u mit X•0 = ι ,
der Beobachtungswertmatrix (y, X) mit rg X(T ×(n+1)) = n + 1 sowie
β̂ = (X 0 X)−1 X 0 y ,
Mit
y :=
1 0
ιy ,
T
ŷ = X β̂ ,
ŷ :=
gelten
.1) û = 0
und der Zerlegungssatz
c
V.
Steinmetz: Statistische Analyseverfahren
1 0
ι ŷ ,
T
û = y − ŷ .
û :=
1 0
ι û
T
–47–
.2) (y − y ι)0 (y − y ι) = (ŷ − ŷ ι)0 (ŷ − ŷ ι) + û0 û .
Man bezeichnet für σb2 (y) > 0
R2 := 1 −
=
=
û0 û
(y − y ι)0 (y − y ι)
(ŷ − ŷ ι)0 (ŷ − ŷ ι)
(y − y ι)0 (y − y ι)
σb2 (ŷ)
σb2 (y)
als Bestimmtheitsmaß (coefficient of determination) für das inhomogene
Modell.
Es gilt
0 ≤ R2 ≤ 1 .
c
V.
Steinmetz: Statistische Analyseverfahren
–48–
5 Varianzanalyse
5.1 Varianzanalyse mit festen Ef fekten (Modell I) und einfacher
Klassif ikation
5.1.1 Definition:
Gegeben seien n, T1 , . . . , Tn ∈ N und T := T1 + · · · + Tn . Das lineare Modell
y = Xβ + u mit u ∼ N (0, σ 2 I) (σ 2 > 0)
und



y11
 .. 
 . 


 y1T1 
 . 

y=
 .. 
 y 
 n1 
 . 
 .. 
ynTn
1
 ..
 .

 1

 1
 .
 .
 .
X=
 1
 .
 ..

 1

 ..
 .
1
|
 )
··· 0
.. 
T1
. 

··· ··· 0 
 )
0 ··· 0 
..
.. 

T2
.
. 

0 ··· 0 
.. 
. 

0 1 
 )
.. .. 
Tn
. . 
0 1
{z
}
1
..
.
0 ···
..
.
1
0
..
.
0
1
..
.
0 1
0
..
.
0




β=

β0
β1
..
.
βn

u11
 .. 

 . 


 u1T1 

 . 


u = 
 .. 

 u 
 n1 
 . 
 .. 
unTn
n+1
d.h.
yij = β0 xij0 + β1 xij1 + · · · + βn xijn + uij
.1)
(i = 1, . . . , n; j = 1, . . . , Ti )
sowie
(
9
.2)
xijk = δik =
1:i=k
0 : i 6= k
i = 1, . . . , n
j = 1, . . . , Ti
k = 1, . . . , n
)
xij0 ≡ 1
heißt Modell der einfachen Varianzanalyse mit festen Effekten. Man sagt, die
Variable y hänge von dem Faktor x in n Stufen (i = 1, . . . , n) ab. Faßt man .1)
und .2) zu den Gleichungen
yij = β0 + βi + uij
i = 1, . . . , n; j = 1, . . . , Ti
zusammen, so bezeichnet man diese als Effektdarstellung des Modells. Das Absolutglied β0 heißt allgemeiner Effekt und βi (i = 1, . . . , n) heißt Effekt der
i-ten Faktorstufe. Gilt T1 = · · · = Tn , so heißt das Modell balanciert (balanced),
andernfalls unbalanciert (unbalanced).
(
9
δik :=
1:i=k
ist das sog. Kronecker-Symbol
0 : i 6= k
c
V.
Steinmetz: Statistische Analyseverfahren
–49–
5.1.2 Satz:
Es sei
yij = β0 + β1 xij1 + · · · + βn xijn + uij
mit
xijk = δik
i = 1, . . . , n; j = 1, . . . , Ti ; k = 1, . . . , n
das Varianzanalysemodell aus Definition (5.1.1). Eine lineare Funktion Λβ von
β mit


λ10 λ11 · · · λ1n

.. 
Λ =  ...
. 
λm0 λm1 · · · λmn
ist d.u.n.d. u-schätzbar, wenn gilt
.1)
λr0 =
n
P
λrk
r = 1, . . . , m .
k=1
Hat Λ maximalen Zeilenrang
rg Λ(m×(n+1)) = m ,
so gilt
.2)
m≤n.
5.1.3 Satz und Definition:
Gegeben seien n, T1 , . . . , Tn ∈ N und
y = (y11 , . . . , y1T1 , . . . , yn1 , . . . , ynTn )0 .
Es seien definiert
T := T1 + · · · + Tn
yi• :=
Ti
X
yij
yi• :=
j=1
y•• :=
Ti
n X
X
yij
1
yi•
Ti
i = 1, . . . , n
y•• :=
i=1 j=1
1
y•• .
T
Dann gilt die Zerlegungsformel
Ti
n X
X
2
Ti
n X
X
}
|
(yij − y•• ) =
i=1 j=1
|
2
n
X
}
|i=1
(yij − yi• ) +
i=1 j=1
{z
q
{z
q2
Ti (yi• − y•• )2 .
{z
q1
}
Man bezeichnet
q als Summe der quadrierten Abweichungen in der Gesamtheit vom Gesamtmittel,
c
V.
Steinmetz: Statistische Analyseverfahren
–50–
q2 als Summe der quadrierten Abweichungen innerhalb der Stufen vom jeweiligen Stufenmittel,
q1 als gewichtete Summe der quadrierten Abweichungen der Stufenmittel vom
Gesamtmittel.
5.1.4 Test: Einfache Varianzanalyse (feste Effekte):
Gegeben: Lineares Modell yij = β0 + βi + uij i = 1, . . . , n; j = 1, . . . , Ti ;
n
P
n > 1; Ti =: T > n mit uij ∼ N (0, σ 2 ), stochastisch unabhängig, σ 2 > 0,
i=1
α ∈]0, 1[, Beobachtungen yij
Hypothesen:
H0 : β1 = . . . = βn
H1 : ¬(β1 = . . . = βn )
Berechne: Aus F -Tafel
n−1
λ1−α : P{FT −n ≤ λ1−α } = 1 − α
Beobachtungen
1
···
j
···
P
Ti
j
Faktorstufen
1
Ti
P
j
1
..
.
y11
..
.
···
y1j
..
.
···
y1T1
..
.
y1•
..
.
y1• =
..
.
1
y
T1 1•
i
..
.
yi1
..
.
···
yij
..
.
···
yiTi
..
.
yi•
..
.
yi• =
..
.
1
y
Ti i•
n
yn1
···
ynj
···
ynTn
yn•
yn• =
1
y
Tn n•
P
y••
i
y•• = T1 y••
P
= T1
Ti yi• =
i
q1 =
n
P
Ti (yi• − y•• )2
1
T
P
i
gewichtete Summe der quadrierten Abweichungen
i=1
der Gruppenmittel
q2 =
Ti
n P
P
(yij − yi• )2 Summe der quadrierten Abweichungen innerhalb
i=1 j=1
der Gruppen
F0
q1 T − n
=
·
q2 n − 1
Entscheide:
H0
annehmen:
F0 ≤ λ1−α
H1
annehmen:
F0 > λ1−α
c
V.
Steinmetz: Statistische Analyseverfahren
yi•
–51–
5.1.5 Satz und Definition:
Gegeben sei das Varianzanalysemodell aus Definition (5.1.1). Eine lineare Funktion λ0 β von β mit
λ = (λ0 , λ1 , . . . , λn )0
und λ0 = 0
ist d.u.n.d. u-schätzbar, wenn gilt
.1)
n
P
λk = 0 .
k=1
Eine u-schätzbare Funktion λ0 β mit .1) heißt ein linearer Kontrast (linear contrast). Ein linearer Kontrast mit
λ0 β = βi − βl
0 6= i 6= l 6= 0
heißt ein Elementarkontrast.
Eine Matrix
 0  

λ1
λ10 λ11 · · · λ1n

 
..  ,
Λ =  ...  =  ...
. 
0
λm
λm0 λm1 · · · λmn
deren Zeilen linear unabhängig und für die λ0i β (i = 1, . . . , n) lineare Kontraste
sind, heißt Kontrastmatrix. Zwei lineare Kontraste λ0i β und λ0l β mit i 6= l heißen
orthogonal, wenn gilt
λ0i λl = 0 .
5.1.6 Test: Multiple Mittelwertsvergleiche im einfachen Modell (Scheffé-Test, S-Test):
Gegeben: Lineares Modell yij = β0 + βi + uij i = 1, . . . , n; j = 1, . . . , Ti ;
n
P
n > 1;
Ti =: T > n mit uij ∼ N (0, σ 2 ), stochastisch unabhängig, σ 2 > 0,
i=1
α ∈]0, 1[, Beobachtungen yij , d ∈ Rn−1 , Kontrastmatrix


0 λ11 · · ·
λ1n


..
Λ =  ...

.
0 λn−1,1 · · · λn−1,n
mit
rg Λ = n − 1 und
n
X
λlk = 0; l = 0, . . . , n − 1
k=1
Hypothesen:
H0 :
n
X
λ1k βk = d1 ∧ . . . ∧
k=1
c
V.
Steinmetz: Statistische Analyseverfahren
n
X
k=1
λn−1,k βk = dn−1
–52–
H1 :
n
X
λ1k βk 6= d1 ∨ . . . ∨
k=1
n
X
λn−1,k βk 6= dn−1
k=1
Berechne: Aus F -Tafel
n−1
λ1−α : P{FT −n ≤ λ1−α } = 1 − α
Ti
1 X
yi• =
yij ,
Ti j=1
n
X
λlk yk• ,
q2 =
k=1
Ti
n X
X
(yij − yi• )2
i=1 j=1
Entscheide:
H0 annehmen:
v
v
u
u
n
n
n
2
X
X
X
u n−1
u n−1
λ2lk
λlk
t
t
λ1−α
λ1−α
≤
λlk yk• − dl ≤ + q2
− q2
T −n
Tk
T −n
Tk
k=1
k=1
k=1
für alle l = 1, . . . , n − 1
H1 annehmen: sonst
(Dabei geben im Fall der Ablehnung von H0 die verletzten Ungleichungen an,
für welche l die Hypothesen
n
X
λlk βk = dl
k=1
zu verwerfen sind.)
5.1.7 Bemerkung:
Gegeben sei der

0
 0


Λ =  ...

 0
0
|
Test (5.1.6). Wählt man
1
0
···
···

−1 0 · · · · · · 0
1 −1 0 · · · 0 

.. 
..
..
..
..
.
.
.
. . 

··· 0
1 −1 0 
··· ··· 0
1 −1
{z
}






n − 1 und d = 0 ,





n+1
so erhält man die Hypothesen
H0 : β1 = β2 ∧ · · · ∧ βn−1 = βn
H1 : β1 6= β2 ∨ · · · ∨ βn−1 6= βn
und die Bedingungen für die Annahme von H0 haben die Gestalt
s
s
n−1
1
1
n−1
1
1
− q2
λ1−α
+
≤ yl• − yl+1• ≤ q2
λ1−α
+
T −n
Tl Tl+1
T −n
Tl Tl+1
für alle l = 1, . . . , n − 1
Im Falle der Ablehnung von H0 sieht man direkt, welche Faktorstufen signifikant
unterschiedlichen Einfluß auf die abhängige Variable haben.
c
V.
Steinmetz: Statistische Analyseverfahren
–53–
5.1.8 Test: Bartlett-Test:
Gegeben: Stochastisch unabhängige Zufallsvariablen yij ∼ N (µi , σi2 ) i = 1, . . . , n;
n
P
j = 1, . . . , Ti ; Ti := T ; α ∈]0, 1[, Beobachtungen yij
i=1
Hypothesen:
H0 : σ12 = . . . = σn2
H1 : ¬(σ12 = . . . = σn2 )
Berechne: Aus χ2 -Tafel:
λ1−α : P{χ2n−1 ≤ λ1−α } = 1 − α
j
i
1
···
···
j
P
Ti
j
1
Ti
P
j
1
..
.
y11
..
.
···
y1j
..
.
···
y1T1
..
.
y1•
..
.
y1• =
..
.
1
y
T1 1•
i
..
.
yi1
..
.
···
yij
..
.
···
yiTi
..
.
yi•
..
.
yi• =
..
.
1
y
Ti i•
n
yn1
···
ynj
···
ynTn
yn•
yn• =
1
y
Tn n•
T
s2i :=
i
1 X
(yij − yi• )2
Ti − 1 j=1
i = 1, . . . , n
n
1 X
(Ti − 1)s2i
T − n i=1
" n
#
X 1
1
1
c :=
−
+1
3(n − 1) i=1 Ti − 1 T − n
"
#
n
X
1
χ20 =
(T − n) ln s2 −
(Ti − 1) ln s2i
c
i=1
s2 :=
Entscheide:
H0
annehmen:
χ20 ≤ λ1−α
H1
annehmen:
χ20 > λ1−α
c
V.
Steinmetz: Statistische Analyseverfahren
–54–
5.1.9 Vereinbarung:
Für den Rest dieses Abschnittes werde das Modell der einfachen Varianzanalyse
aus Definition (5.1.1) bezeichnet als
.1) Modell A:
y = Xβ + u u ∼ N (0, σ 2 I) (σ 2 > 0)
Durch Hinzunahme einer sogenannten Reparametrisierungsbedingung (RB)
werde darauf aufgebaut das
.2) Modell B:
y = Xβ + u u ∼ N (0, σ 2 I) (σ 2 > 0)
n
X
Ti βi = 0 RB
i=1
Während für Modell A jede Lösung β̂ ∈ Rn+1 des Minimierungsproblems
.3)
min
(y − Xβ)0 (y − Xβ)
n+1
β∈R
als KQ-Lösung bezeichnet wird, heißt für Modell B entsprechend jede Lösung
β̂ ∈ Rn+1 des Minimierungsproblems
.4)
min (y − Xβ)0 (y − Xβ)
β∈Rn+1
n
P
Ti βi =0
i=1
eine KQ-Lösung unter der Reparametrisierungsbedingung
n
P
i=1
5.1.10 Lemma:
Gegeben seien die Modelle aus Vereinbarung (5.1.9) sowie
n+1
RRB := {β ∈ R
n+1
|
n
X
Ti βi = 0} .
i=1
Dann gilt für die Verteilungsannahmen
WA := {N (Xβ, σ 2 I) | σ 2 > 0, β ∈ Rn+1 }
und
WB := {N (Xβ, σ 2 I) | σ 2 > 0, β ∈ Rn+1
RB }
die Gleichheit
WA = WB .
c
V.
Steinmetz: Statistische Analyseverfahren
Ti βi = 0.
–55–
5.1.11 Lemma:
Gegeben seien im Modell A testbare Hypothesen
H0 : Λβ = d
H1 : Λβ 6= d .
Dann gilt, daß diese Hypothesen auch im Modell B testbar sind.
5.1.12 Lemma:
Gegeben seien für Modell A die Voraussetzungen aus Test (3.3.5) mit den testbaren Hypothesen
H0 : Λβ = d
H1 : Λβ 6= d
und der Testgröße
0
−1
Λβ̂ − d (Λ(X 0 X)− Λ0 )
Λβ̂ − d
T −r
F0 =
·
.
0
m
û û
Für das Modell B werde β̌ als Lösung des Minimierungsproblems mit Reparametrisierungsbedingung (5.1.9.4) bestimmt sowie y̌ := X β̌ und ǔ := y − y̌. Für
die Testgröße
0
−1
Λβ̌ − d (Λ(X 0 X)− Λ0 )
Λβ̌ − d T − r
Fˇ0 =
·
ǔ0 ǔ
m
gilt dann
F0 = Fˇ0 ,
so daß in Modell A und Modell B dieselben Entscheidungen getroffen werden.
c
V.
Steinmetz: Statistische Analyseverfahren
–56–
5.2 Varianzanalyse mit festen Ef fekten (Modell I) und mehrfacher Klassif ikation
5.2.1 Test: Zweifache Varianzanalyse mit einfacher Besetzung ohne Interaktion (feste
Effekte):
Gegeben: Lineares Modell
yij = µ + αi + βj + uij
i = 1, . . . , m; j = 1, . . . , n
mit
uij ∼ N (0, σ 2 ), stochastisch unabhängig, σ 2 > 0, α ∈]0, 1[, Beobachtungen yij .
Hypothesen:
H0α : α1 = . . . = αm
H0β : β1 = . . . = βn
H1α : ¬(α1 = . . . = αm )
H1β : ¬(β1 = . . . = βn )
Berechne: Aus F -Tafel
α λ1−α
: P{F
β λ1−α
: P{F
m−1
(m−1)(n−1)
n−1
(m−1)(n−1)
≤
α λ1−α }
=1−α
≤
β λ1−α }
=1−α
Stufen des 2. Faktors
j
i
···
1
j
···
n
P
j
1
n
P
j
1
..
.
y11
..
.
···
y1j
..
.
···
y1n
..
.
y1•
..
.
y1•
..
.
i
..
.
yi1
..
.
···
yij
..
.
···
yin
..
.
yi•
..
.
yi•
..
.
m
ym1
···
ymj
···
ymn
ym•
ym•
P
y•1
···
y•j
···
y•n
y••
y•1
···
y•j
···
y•n
Stufen des 1. Faktors
i
1
m
q1α =
P
m
X
i
(yi• − y•• )2
i=1
q2 =
q1β =
n
X
(y•j − y•• )2
j=1
m X
n
X
(yij − yi• − y•j + y•• )2
i=1 j=1
c
V.
Steinmetz: Statistische Analyseverfahren
1
y
mn ••
= y••
–57–
F0α =
q1α
· n(n − 1)
q2
F0β =
q1β
q2
· m(m − 1)
Entscheide:
H0α annehmen: F0α ≤
α λ1−α
H0β annehmen: F0β ≤
β λ1−α
H1α annehmen: F0α >
α λ1−α
H1β annehmen: F0β >
β λ1−α
5.2.2 Test: Zweifache Varianzanalyse mit konstanter mehrfacher Besetzung ohne Interaktion
(feste Effekte):
Gegeben: Lineares Modell
yijt = µ + αi + βj + uijt
i = 1, . . . , m > 1; j = 1, . . . , n > 1; t = 1, . . . , T > 1
mit
uijt ∼ N (0, σ 2 ), stochastisch unabhängig, σ 2 > 0, α ∈]0, 1[, Beobachtungen yijt .
Hypothesen:
H0α : α1 = . . . = αm
H0β : β1 = . . . = βn
H1α : ¬(α1 = . . . = αm )
H1β : ¬(β1 = . . . = βn )
Berechne: Aus F -Tafel
m−1
α λ1−α
: P{FmnT −m−n+1 ≤
β λ1−α
: P{FmnT −m−n+1 ≤
n−1
c
V.
Steinmetz: Statistische Analyseverfahren
α λ1−α }
=1−α
β λ1−α }
=1−α
–58–
Stufen des 2. Faktors
j
i
S
t
u
f
e
n
···
···
···
n
P
j
1
P
y111
..
.
···
···
···
y1n1
..
.
y11T
···
···
···
y1nT
y11•
···
···
···
y1n•
y11•
···
···
···
y1n•
y211
..
.
···
···
···
y2n1
..
.
y21T
···
···
···
y2nT
y21•
···
···
···
y2n•
y21•
···
···
···
y2n•
ym11
..
.
···
···
···
ymn1
..
.
ym1T
···
···
···
ymnT
ym1•
···
···
···
ymn•
ym1•
···
···
···
ymn•
y•1•
···
···
···
y•n•
y•1•
···
···
···
y•n•
1
nT
P
j
y1••
y1••
y2••
y2••
ym••
ym••
t
1
T
d
e
s
1
P
t
2
P
t
1
T
e
r
s
t
e
n
P
t
..
.
m
P
t
F
a
k
t
o
r
s
1
T
P
t
P
y•••
i
1
mT
P
i
c
V.
Steinmetz: Statistische Analyseverfahren
1
y
mnT •••
= y•••
–59–
q1α =
m
X
2
(yi•• − y••• )
q1β =
i=1
q2 =
n
X
(y•j• − y••• )2
j=1
m X
n X
T
X
(yijt − yi•• − y•j• + y••• )2
i=1 j=1 t=1
q1α nT (mnT − m − n + 1)
·
q2
m−1
Entscheide:
F0α =
F0β =
q1β mT (mnT − m − n + 1)
·
q2
n−1
H0α annehmen: F0α ≤
α λ1−α
H0β annehmen: F0β ≤
β λ1−α
H1α annehmen: F0α >
α λ1−α
H1β annehmen: F0β >
β λ1−α
5.2.3 Test: Zweifache Varianzanalyse mit konstanter mehrfacher Besetzung und Interaktion
(feste Effekte):
Gegeben: Lineares Modell
yijt = µ+αi +βj +(αβ)ij +uijt
i = 1, . . . , m > 1; j = 1, . . . , n > 1; t = 1, . . . , T > 1
mit
uijt ∼ N (0, σ 2 ), stochastisch unabhängig, σ 2 > 0, α ∈]0, 1[, Beobachtungen yijt .
Reparametrisierungsbedingungen:
m
X
n
X
αi = 0
i=1
m
X
βj = 0
j=1
(αβ)ij = 0 für alle j = 1, . . . , n
i=1
n
X
(αβ)ij = 0 für alle i = 1, . . . , m
j=1
Hypothesen:
H0α : α1 = . . . = αm (= 0)
H1α : ¬(α1 = . . . = αm )
H0β : β1 = . . . = βn (= 0)
H1β : ¬(β1 = . . . = βn )
H0(αβ) : (αβ)11 = . . . = (αβ)mn = 0
H1(αβ) : ¬((αβ)11 = . . . = (αβ)mn = 0)
Berechne: Aus F -Tafel
α λ1−α
β λ1−α
αβ λ1−α
: P{F
m−1
mn(T −1)
: P{F
≤
n−1
mn(T −1)
: P{F
(m−1)(n−1)
mn(T −1)
c
V.
Steinmetz: Statistische Analyseverfahren
≤
≤
α λ1−α }
β λ1−α
=1−α
=1−α
αβ λ1−α }
=1−α
–60–
Stufen des 2. Faktors
j
i
S
t
u
f
e
n
···
···
···
n
P
j
1
P
y111
..
.
···
···
···
y1n1
..
.
y11T
···
···
···
y1nT
y11•
···
···
···
y1n•
y11•
···
···
···
y1n•
y211
..
.
···
···
···
y2n1
..
.
y21T
···
···
···
y2nT
y21•
···
···
···
y2n•
y21•
···
···
···
y2n•
ym11
..
.
···
···
···
ymn1
..
.
ym1T
···
···
···
ymnT
ym1•
···
···
···
ymn•
ym1•
···
···
···
ymn•
y•1•
···
···
···
y•n•
y•1•
···
···
···
y•n•
1
nT
P
j
y1••
y1••
y2••
y2••
ym••
ym••
t
1
T
d
e
s
1
P
t
2
P
t
1
T
e
r
s
t
e
n
P
t
..
.
m
P
t
F
a
k
t
o
r
s
1
T
P
t
P
y•••
i
1
mT
P
i
c
V.
Steinmetz: Statistische Analyseverfahren
1
y
mnT •••
= y•••
–61–
q1α =
m
X
2
(yi•• − y••• )
q1β =
i=1
n
X
(y•j• − y••• )2
j=1
q1(αβ) =
m X
n
X
(yij• − yi•• − y•j• + y••• )2
i=1 j=1
q2 =
m X
n X
T
X
(yijt − yij• )2
i=1 j=1 t=1
F0α =
q1β m2 nT (T − 1)
q1α mn2 T (T − 1)
·
F0β =
·
q2
m−1
q2
n−1
q1(αβ) mnT (T − 1)
F0(αβ) =
·
q2
(m − 1)(n − 1)
Entscheide:
H0α annehmen: F0α ≤
α λ1−α
H1α annehmen: F0α >
α λ1−α
H0β annehmen: F0β ≤
β λ1−α
H1β annehmen: F0β >
β λ1−α
H0(αβ) annehmen: F0(αβ) ≤
αβ λ1−α
c
V.
Steinmetz: Statistische Analyseverfahren
H1(αβ) annehmen: F0(αβ) >
αβ λ1−α
–62–
5.3 Varianzanalyse mit zufälligen Ef fekten (Modell II, Varianzkomponentenanalyse)
5.3.1 Test: Einfache Varianzanalyse mit konstanter Besetzung (zufällige Effekte):
Gegeben: Zufallsvariablen yit , ai , uit mit yit = µ + ai + uit i = 1, . . . , m;
t = 1, . . . , T , ai ∼ N (0,σa2 ), uit ∼ N (0, σu2 ), σu2 > 0, alle ai , uit stochastisch
unabhängig, µ0 ∈ R, α ∈]0, 1[, Beobachtungen yit .
Hypothesen:
H0µ : µ = µ0
H1µ : µ 6= µ0
H0σa2 : σa2 = 0
H0σa2 : σa2 > 0
Berechne:
Aus t-Tafel
µ λ1− α
2
Aus F -Tafel
σa2 λ1−α
t
i
1
···
: P{tm−1 ≤
: P{F
m−1
m(T −1)
···
t
}
µ λ1− α
2
≤
σa2 λ1−α }
P
T
=1−
t
1
T
α
2
=1−α
P
t
1
..
.
y11
..
.
···
y1t
..
.
···
y1T
..
.
y1•
..
.
y1• = T1 y1•
..
.
i
..
.
yi1
..
.
···
yit
..
.
···
yiT
..
.
yi•
..
.
yi• = T1 yi•
..
.
m
ym1
···
ymt
···
ymT
ym•
ym• = T1 ym•
P
y•1
···
y•t
···
y•T
y••
y•• =
i
µ
b =
1
y
mT ••
m
T
1 XX
yit = y••
mT i=1 t=1
m
T
c2 =
σ
u
XX
1
(yit − yi• )2
m(T − 1) i=1 t=1
σba2 =
XX
1 X
1
(yi• − y•• )2 −
(yit − yi• )2
m i=1
mT (T − 1) i=1 t=1
σea2 =
XX
1 X
1
(yi• − y•• )2 −
(yit − yi• )2
m − 1 i=1
mT (T − 1) i=1 t=1
m
m
m
m
c2 + T σe2 =
σ
u
a
T X
(yi• − y•• )2
m − 1 i=1
c
V.
Steinmetz: Statistische Analyseverfahren
T
m
T
–63–
µ
b − µ0
t0 = q
·
√
mT
c2 + T σe2
σ
u
a
F0 =
c2 + T σe2
σ
u
a
c2
σ
u
Entscheide:
H0µ annehmen: − µ λ1− α2 ≤ t0 ≤
H0σa2 annehmen: F0 ≤
µ λ1− α
2
σa2 λ1−α
c
V.
Steinmetz: Statistische Analyseverfahren
H1µ annehmen: sonst
H1σa2 annehmen: F0 >
σa2 λ1−α
–64–
6 Kovarianzanalyse
6.1 Satz:
Gegeben seien T, m, n ∈ N sowie die (T × (m + 1))-Matrix X und die (T × m)Matrix Z mit
rg X(T ×(m+1)) = r ≤ n + 1 , rg Z(T ×m) = m.
Weiterhin sei (X 0 X)− eine g-Inverse zu X 0 X. Es gelte
span{X•0 , X•1 , . . . , X•n } ∩ span{Z•1 , . . . , Z•m } = {0} ,
d.h. die Menge der Spalten von X sei linear unabhängig von der Menge der
Spalten von Z. Dann gilt
rg IT − X(X 0 X)− X 0 Z = m ,
die Matrix (IT − X(X 0 X)− X 0 ) Z hat also vollen Spaltenrang und die Matrix
Z 0 (IT − X(X 0 X)− X 0 ) Z ist invertierbar.
6.2 Satz:
Gegeben seien T, m, n ∈ N. Weiterhin seien
X(T ×(n+1)) und Z(T ×m)
Matrizen reeller deterministischer Variablen (bzw. ihrer Realisationen),
β = (β0 , β1 , . . . , βn )0
ein (n + 1)-dimensionaler Vektor und
γ = (γ1 , . . . , γm )0
ein m-dimensionaler Vektor reeller deterministischer Variablen (bzw. ihrer Realisationen). Dann läßt sich ein lineares Modell
" #
β
y = [X, Z]
+u
γ
(vgl. Definition (3.1.1)) auch in der Form
y = Xβ + Zγ + u
schreiben. Bei gegebener Beobachtungswertmatrix [y, X, Z] erhält man die Normalgleichungen
X 0 X β̂ + X 0 Z γ̂ = X 0 y
Z 0 X β̂ + Z 0 Z γ̂ = Z 0 y
und mit einer g-Inversen (X 0 X)− daraus
β̂ = (X 0 X)− X 0 y − (X 0 X)− X 0 Z γ̂
−
γ̂ = [Z 0 (I − x(X 0 X)− X 0 ) Z] Z 0 (I − X(X 0 X)− X 0 ) y.
c
V.
Steinmetz: Statistische Analyseverfahren
–65–
6.3 Satz:
Gegeben sei das lineare Modell
y = Xβ + Zγ + u
aus Satz (6.2) mit
rg X(T ×(n+1)) = r ≤ n + 1 , rg Z(T ×m) = m , Eu = 0 .
Weiterhin sei die Menge der Spalten von X linear unabhängig von der Menge
der Spalten von Z. Dann ist
−1 0
Z I − X(X 0 X)− X 0 y
γ̂ := Z 0 I − X(X 0 X)− X 0 Z
bei gegebenen X und Z eine erwartungstreue Schätzfunktion für γ. Weiterhin
ist Λβ mit einer (s × (n + 1))-Matrix Λ d.u.n.d. schätzbar, wenn gilt
Λ = Λ(X 0 X)− X 0 X .
6.4 Test: Kovarianzanalyse bei einfacher Besetzung ohne Interaktion mit einer begleitenden
Variablen:
Gegeben: Lineares Modell
yij = µ + αi + βj + γzij + uij
i = 1, . . . , m; j = 1, . . . , n
mit
uij ∼ N (0, σ 2 ), stochastisch unabhängig, σ 2 > 0, α ∈]0, 1[, Beobachtungen
yij , zij , (∃i, i0 , j, j 0 )(zij − zij 0 6= zi0 j − zi0 j 0 ).
Hypothesen:
H0α : α1 = . . . = αm
H0β : β1 = . . . = βn
H0γ : γ = 0
H1α : ¬(α1 = . . . = αm )
H1β : ¬(β1 = . . . = βn )
H1γ : γ 6= 0
Berechne: Aus F -Tafel
α λ1−α
: P{F
β λ1−α
: P{F
γ λ1−α
10
m−1
(m−1)(n−1)−1
n−1
(m−1)(n−1)−1
: P{F
1
(m−1)(n−1)−1
≤
α λ1−α }
=1−α
≤
β λ1−α }
=1−α
≤
γ λ1−α }
=1−α
10
In diesem Fall kann man die Testanleitung auch auf die t-Verteilung umschreiben.
c
V.
Steinmetz: Statistische Analyseverfahren
–66–
Stufen des 2. Faktors
j
i
···
1
j
···
n
P
j
1
n
P
j
1
..
.
y11
..
.
···
y1j
..
.
···
y1n
..
.
y1•
..
.
y1•
..
.
i
..
.
yi1
..
.
···
yij
..
.
···
yin
..
.
yi•
..
.
yi•
..
.
m
ym1
···
ymj
···
ymn
ym•
ym•
P
y•1
···
y•j
···
y•n
y••
y•1
···
y•j
···
y•n
Stufen des 1.Faktors
i
1
m
P
1
y
mn ••
i
= y••
Stufen des 2. Faktors
j
i
1
···
j
···
n
P
j
1
n
P
j
1
..
.
z11
..
.
···
z1j
..
.
···
z1n
..
.
z1•
..
.
z1•
..
.
i
..
.
zi1
..
.
···
zij
..
.
···
zin
..
.
zi•
..
.
zi•
..
.
m
zm1
···
zmj
···
zmn
zm•
zm•
P
z•1
···
z•j
···
z•n
z••
z•1
···
z•j
···
z•n
Stufen des 1.Faktors
i
1
m
Gyy =
P
i
PP
(yij − y•• )2
i
j
Gzz
PP
=
(zij − z•• )2
Gyz
PP
=
(yij − y•• )(zij − z•• )
i
j
i
Ryy
j
P
= n (yi• − y•• )2
i
c
V.
Steinmetz: Statistische Analyseverfahren
1
z
mn ••
= z••
–67–
Rzz = n
P
(zi• − z•• )2
i
Ryz
PP
=n
(yi• − y•• )(zi• − z•• )
Cyy
P
= m (y•j − y•• )2
Czz
P
= m (z•j − z•• )2
Cyz
PP
=m
(y•j − y•• )(z•j − z•• )
i
j
i
i
i
j
Eyy = Gyy − Ryy − Cyy
Ezz = Gzz − Rzz − Czz
Eyz = Gyz − Ryz − Cyz
q1α = (Eyy + Ryy ) −
2
Eyz
(Eyz + Ryz )2
− (Eyy −
)
Ezz + Rzz
Ezz
2
Eyz
(Eyz + Ryz )2
= (Eyy + Cyy ) −
− (Eyy −
)
Ezz + Rzz
Ezz
q1β
q1γ =
2
Eyz
Ezz
2
Eyz
q2 = Eyy −
Ezz
F0α =
q1α (m − 1)(n − 1) − 1
·
q2
m−1
q1β (m − 1)(n − 1) − 1
·
q2
n−1
q1γ
=
· [(m − 1)(n − 1) − 1]
q2
F0β =
F0γ
Entscheide: Annahme von
H0α :
F0α ≤
α λ1−α
H0β :
F0β ≤
β λ1−α
H0γ :
F0γ ≤
γ λ1−α
H1α :
F0α >
α λ1−α
H1β :
F0β >
β λ1−α
H1γ :
F0γ >
γ λ1−α
Als Schätzfunktion für γ wählt man γ̂ =
c
V.
Steinmetz: Statistische Analyseverfahren
Eyz
.
Ezz
–68–
A Tabellen
A.1 Tabelle zur Standardnormalverteilung
Φ(z)
z
0
Die Tabelle enthält zu vorgegebenem z den Inhalt der in der Skizze schraffierten
Fläche Φ(z).
z
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.0
0.1
0.2
0.3
0.4
0.5000
0.5398
0.5793
0.6179
0.6554
0.5040
0.5438
0.5832
0.6217
0.6591
0.5080
0.5478
0.5871
0.6255
0.6628
0.5120
0.5517
0.5910
0.6293
0.6664
0.5160
0.5557
0.5948
0.6331
0.6700
0.5199
0.5596
0.5987
0.6368
0.6736
0.5239
0.5636
0.6026
0.6406
0.6772
0.5279
0.5675
0.6064
0.6443
0.6808
0.5319
0.5714
0.6103
0.6480
0.6844
0.5359
0.5753
0.6141
0.6517
0.6879
0.5
0.6
0.7
0.8
0.9
0.6915
0.7257
0.7580
0.7881
0.8159
0.6950
0.7291
0.7611
0.7910
0.8186
0.6985
0.7324
0.7642
0.7939
0.8212
0.7019
0.7357
0.7673
0.7967
0.8238
0.7054
0.7389
0.7704
0.7995
0.8264
0.7088
0.7422
0.7734
0.8023
0.8289
0.7123
0.7454
0.7764
0.8051
0.8315
0.7157
0.7486
0.7794
0.8078
0.8340
0.7190
0.7517
0.7823
0.8106
0.8365
0.7224
0.7549
0.7852
0.8133
0.8389
1.0
1.1
1.2
1.3
1.4
0.8413
0.8643
0.8849
0.9032
0.9192
0.8438
0.8665
0.8869
0.9049
0.9207
0.8461
0.8686
0.8888
0.9066
0.9222
0.8485
0.8708
0.8907
0.9082
0.9236
0.8508
0.8729
0.8925
0.9099
0.9251
0.8531
0.8749
0.8944
0.9115
0.9265
0.8554
0.8770
0.8962
0.9131
0.9279
0.8577
0.8790
0.8980
0.9147
0.9292
0.8599
0.8810
0.8997
0.9162
0.9306
0.8621
0.8830
0.9015
0.9177
0.9319
1.5
1.6
1.7
1.8
1.9
0.9332
0.9452
0.9554
0.9641
0.9713
0.9345
0.9463
0.9564
0.9649
0.9719
0.9357
0.9474
0.9573
0.9656
0.9726
0.9370
0.9484
0.9582
0.9664
0.9732
0.9382
0.9495
0.9591
0.9671
0.9738
0.9394
0.9505
0.9599
0.9678
0.9744
0.9406
0.9515
0.9608
0.9686
0.9750
0.9418
0.9525
0.9616
0.9693
0.9756
0.9429
0.9535
0.9625
0.9699
0.9761
0.9441
0.9545
0.9633
0.9706
0.9767
c
V.
Steinmetz: Statistische Analyseverfahren
–69–
Φ(z)
z
0
Die Tabelle enthält zu vorgegebenem z den Inhalt der in der Skizze schraffierten
Fläche Φ(z).
z
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
2.0
2.1
2.2
2.3
2.4
0.9772
0.9821
0.9861
0.9893
0.9918
0.9778
0.9826
0.9864
0.9896
0.9920
0.9783
0.9830
0.9868
0.9898
0.9922
0.9788
0.9834
0.9871
0.9901
0.9925
0.9793
0.9838
0.9875
0.9904
0.9927
0.9798
0.9842
0.9878
0.9906
0.9929
0.9803
0.9846
0.9881
0.9909
0.9931
0.9808
0.9850
0.9884
0.9911
0.9932
0.9812
0.9854
0.9887
0.9913
0.9934
0.9817
0.9857
0.9890
0.9916
0.9936
2.5
2.6
2.7
2.8
2.9
0.9938
0.9953
0.9965
0.9974
0.9981
0.9940
0.9955
0.9966
0.9975
0.9982
0.9941
0.9956
0.9967
0.9976
0.9982
0.9943
0.9957
0.9968
0.9977
0.9983
0.9945
0.9959
0.9969
0.9977
0.9984
0.9946
0.9960
0.9970
0.9978
0.9984
0.9948
0.9961
0.9971
0.9979
0.9985
0.9949
0.9962
0.9972
0.9979
0.9985
0.9951
0.9963
0.9973
0.998
0.9986
0.9952
0.9964
0.9974
0.9981
0.9986
3.0
3.1
3.2
3.3
3.4
0.9987
0.9990
0.9993
0.9995
0.9997
0.9987
0.9991
0.9993
0.9995
0.9997
0.9987
0.9991
0.9994
0.9995
0.9997
0.9988
0.9991
0.9994
0.9996
0.9997
0.9988
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9997
0.9998
Quantile λp = Φ−1 (p) der Standardnormalverteilung
p
0.9
0.95
0.975
0.99 0.995
0.999
λp
1.28
1.645
1.96
2.33
3.09
2.58
c
V.
Steinmetz: Statistische Analyseverfahren
–70–
A.2 Quantile der t-Verteilungen
α
1−α
0
tα,k
Die Tabelle gibt tα,k an in Abhängigkeit von α und der Zahl k der Freiheitsgrade.
α
0.85
0.90
0.95
0.975
0.99
0.995
0.9995
1
2
3
4
5
1.963
1.386
1.250
1.190
1.156
3.078
1.886
1.638
1.533
1.476
6.314
2.920
2.353
2.132
2.015
12.706
4.303
3.182
2.776
2.571
31.821
6.965
4.541
3.747
3.365
63.657
9.925
5.841
4.604
4.032
636.619
31.599
12.924
8.610
6.869
6
7
8
9
10
1.134
1.119
1.108
1.100
1.093
1.440
1.415
1.397
1.383
1.372
1.943
1.895
1.860
1.833
1.812
2.447
2.365
2.306
2.262
2.228
3.143
2.998
2.896
2.821
2.764
3.707
3.499
3.355
3.250
3.169
5.959
5.408
5.041
4.781
4.587
11
12
13
14
15
1.088
1.083
1.079
1.076
1.074
1.363
1.356
1.350
1.345
1.341
1.796
1.782
1.771
1.761
1.753
2.201
2.179
2.160
2.145
2.131
2.718
2.681
2.650
2.624
2.602
3.106
3.055
3.012
2.977
2.947
4.437
4.318
4.221
4.140
4.073
16
17
18
19
20
1.071
1.069
1.067
1.066
1.064
1.337
1.333
1.330
1.328
1.325
1.746
1.740
1.734
1.729
1.725
2.120
2.110
2.101
2.093
2.086
2.583
2.567
2.552
2.539
2.528
2.921
2.898
2.878
2.861
2.845
4.015
3.965
3.922
3.883
3.850
21
22
23
24
25
1.063
1.061
1.060
1.059
1.058
1.323
1.321
1.319
1.318
1.316
1.721
1.717
1.714
1.711
1.708
2.080
2.074
2.069
2.064
2.060
2.518
2.508
2.500
2.492
2.485
2.831
2.819
2.807
2.797
2.787
3.819
3.792
3.768
3.745
3.725
26
27
28
29
30
1.058
1.057
1.056
1.055
1.055
1.315
1.314
1.313
1.311
1.310
1.706
1.703
1.701
1.699
1.697
2.056
2.052
2.048
2.045
2.042
2.479
2.473
2.467
2.462
2.457
2.779
2.771
2.763
2.756
2.750
3.707
3.690
3.674
3.659
3.646
1.050 1.303
1.045 1.296
1.041 1.289
1.684
1.671
1.658
2.021
2.000
1.980
2.423
2.390
2.358
2.704
2.660
2.617
3.551
3.460
3.373
n
40
60
120
–71–
A.3 Quantile der χ2 -Verteilungen
α
1−α
χ2α,k
0
Die Tabelle gibt χ2α,k an in Abhängigkeit von α und der Zahl k der Freiheitsgrade.
α
0.01
0.025
0.05
0.5
0.90
0.95
0.975
0.99
1
2
3
4
5
0.000
0.020
0.115
0.297
0.554
0.001
0.050
0.216
0.484
0.831
0.004
0.103
0.352
0.711
1.146
0.455
1.386
2.366
3.357
4.352
2.706
4.605
6.251
7.779
9.236
3.842
5.992
7.815
9.488
11.070
5.024
7.378
9.348
11.143
12.833
6.635
9.210
11.345
13.277
15.086
6
7
8
9
10
0.872
1.239
1.647
2.088
2.558
1.237
1.690
2.180
2.700
3.247
1.635
2.167
2.733
3.325
3.940
5.348
6.346
7.344
8.343
9.342
10.645
12.017
13.362
14.684
15.987
12.592
14.067
15.507
16.919
18.307
14.449
16.013
17.535
19.023
20.483
16.812
18.475
20.090
21.666
23.209
11
12
13
14
15
3.054
3.571
4.107
4.660
5.229
3.816
4.404
5.009
5.629
6.262
4.575
5.226
5.892
6.571
7.261
10.341
11.340
12.340
13.339
14.339
17.275
18.549
19.812
21.064
22.307
19.675
21.026
22.362
23.685
24.996
21.920
23.337
24.736
26.119
27.488
24.725
26.217
27.688
29.141
30.578
16
17
18
19
20
5.812
6.408
7.015
7.633
8.260
6.908 7.962 15.338
7.564 8.672 16.338
8.231 9.391 17.338
8.907 10.117 18.338
9.591 10.851 19.337
23.542
24.769
25.989
27.204
28.412
26.296
27.587
28.869
30.144
31.410
28.845
30.191
31.526
32.852
34.170
32.000
33.409
34.805
36.191
37.566
21
22
23
24
25
8.897
9.543
10.196
10.856
11.524
10.283
10.982
11.689
12.401
13.120
11.591
12.338
13.091
13.848
14.611
20.337
21.337
22.337
23.337
24.337
29.615 32.671 35.479 38.932
30.813 33.924 36.781 40.289
32.007 35.172 38.076 41.638
33.196 36.415 39.364 42.980
34.382 37.652 40.646 44.314
26
27
28
29
30
12.198
12.879
13.565
14.256
14.953
13.844
14.573
15.308
16.047
16.791
15.379
16.151
16.928
17.708
18.493
25.336
26.336
27.336
28.336
29.336
35.563
36.741
37.916
39.087
40.256
n
c
V.
Steinmetz: Statistische Analyseverfahren
38.885
40.113
41.337
42.557
43.773
41.923
43.195
44.461
45.722
46.979
45.642
46.963
48.278
49.588
50.892
–72–
A.4 Quantile der F -Verteilungen
0.95
0.05
0
F0.95;m,n
Die Tabelle gibt F0.95;m,n an in Abhängigkeit von der Zahl m der Freiheitsgrade
des Zählers und der Zahl n der Freiheitsgrade des Nenners.
m
n
1
2
3
4
5
1
2
3
4
5
6
7
8
9
10
161.45 199.50 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.39 19.40
10.13
9.55
9.28
9.12
9.01
8.94
8.89
8.85
8.81
8.79
7.71
6.94
6.59
6.39
6.26
6.16
6.09
6.04
6.00
5.96
6.61
5.79
5.41
5.19
5.05
4.95
4.88
4.82
4.77
4.74
6
7
8
9
10
5.99
5.59
5.32
5.12
4.96
5.14
4.74
4.46
4.26
4.10
4.76
4.35
4.07
3.86
3.71
4.53
4.12
3.84
3.63
3.48
4.39
3.97
3.69
3.48
3.33
4.28
3.87
3.58
3.37
3.22
4.21
3.79
3.50
3.29
3.14
4.15
3.73
3.44
3.23
3.07
4.10
3.68
3.39
3.18
3.02
4.06
3.64
3.35
3.14
2.98
11
12
13
14
15
4.84
4.75
4.67
4.60
4.54
3.98
3.89
3.81
3.74
3.68
3.59
3.49
3.41
3.34
3.29
3.36
3.26
3.18
3.11
3.06
3.20
3.11
3.03
2.96
2.90
3.09
3.00
2.92
2.85
2.79
3.01
2.91
2.83
2.76
2.71
2.95
2.85
2.77
2.70
2.64
2.90
2.80
2.71
2.65
2.59
2.85
2.75
2.67
2.60
2.54
16
17
18
19
20
4.49
4.45
4.41
4.38
4.35
3.63
3.59
3.55
3.52
3.49
3.24
3.20
3.16
3.13
3.10
3.01
2.96
2.93
2.90
2.87
2.85
2.81
2.77
2.74
2.71
2.74
2.70
2.66
2.63
2.60
2.66
2.61
2.58
2.54
2.51
2.59
2.55
2.51
2.48
2.45
2.54
2.49
2.46
2.42
2.39
2.49
2.45
2.41
2.38
2.35
21
22
23
24
25
4.32
4.30
4.28
4.26
4.24
3.47
3.44
3.42
3.40
3.39
3.07
3.05
3.03
3.01
2.99
2.84
2.82
2.80
2.78
2.76
2.68
2.66
2.64
2.62
2.60
2.57
2.55
2.53
2.51
2.49
2.49
2.46
2.44
2.42
2.40
2.42
2.40
2.37
2.36
2.34
2.37
2.34
2.32
2.30
2.28
2.32
2.30
2.27
2.25
2.24
30
40
60
120
∞
4.17
4.08
4.00
3.92
3.84
3.32
3.23
3.15
3.07
3.00
2.92
2.84
2.76
2.68
2.60
2.69
2.61
2.53
2.45
2.37
2.53
2.45
2.37
2.29
2.21
2.42
2.34
2.25
2.18
2.10
2.33
2.25
2.17
2.09
2.01
2.27
2.18
2.10
2.02
1.94
2.21
2.12
2.04
1.96
1.88
2.16
2.08
1.99
1.91
1.83
–73–
0.95
0.05
0
F0.95;m,n
Die Tabelle gibt F0.95;m,n an in Abhängigkeit von der Zahl m der Freiheitsgrade
des Zählers und der Zahl n der Freiheitsgrade des Nenners.
m
n
1
2
3
4
5
12
15
20
25
30
35
40
60
120
∞
244.90 245.95 248.01 249.26 250.1 250.69 251.14 252.2 253.25 254.31
19.41 19.43 19.45 19.46 19.46 19.47 19.47 19.48 19.49 19.50
8.74
8.70
8.66
8.63 8.62
8.60
8.59 8.57
8.55
8.53
5.91
5.86
5.80
5.77 5.75
5.73
5.72 5.69
5.66
5.63
4.68
4.62
4.56
4.52 4.50
4.48
4.46 4.43
4.40
4.37
6
7
8
9
10
4.00
3.57
3.28
3.07
2.91
3.94
3.51
3.22
3.01
2.85
3.87
3.44
3.15
2.94
2.77
3.83
3.40
3.11
2.89
2.73
3.81
3.38
3.08
2.86
2.70
3.79
3.36
3.06
2.84
2.68
3.77
3.34
3.04
2.83
2.66
3.74
3.30
3.01
2.79
2.62
3.70
3.27
2.97
2.75
2.58
3.67
3.23
2.93
2.71
2.54
11
12
13
14
15
2.79
2.69
2.60
2.53
2.48
2.72
2.62
2.53
2.46
2.40
2.65
2.54
2.46
2.39
2.33
2.60
2.50
2.41
2.34
2.28
2.57
2.47
2.38
2.31
2.25
2.55
2.44
2.36
2.28
2.22
2.53
2.43
2.34
2.27
2.20
2.49
2.38
2.30
2.22
2.16
2.45
2.34
2.25
2.18
2.11
2.40
2.30
2.21
2.13
2.07
16
17
18
19
20
2.42
2.38
2.34
2.31
2.28
2.35
2.31
2.27
2.23
2.20
2.28
2.23
2.19
2.16
2.12
2.23
2.18
2.14
2.11
2.07
2.19
2.15
2.11
2.07
2.04
2.17
2.12
2.08
2.05
2.01
2.15
2.10
2.06
2.03
1.99
2.11
2.06
2.02
1.98
1.95
2.06
2.01
1.97
1.93
1.90
2.01
1.96
1.92
1.88
1.84
21
22
23
24
25
2.25
2.23
2.20
2.18
2.16
2.18
2.15
2.13
2.11
2.09
2.11
2.07
2.05
2.03
2.01
2.05
2.02
2.00
1.97
1.96
2.01
1.98
1.96
1.94
1.92
1.98
1.96
1.93
1.91
1.89
1.96
1.94
1.91
1.89
1.87
1.92
1.89
1.86
1.84
1.82
1.87
1.84
1.81
1.79
1.77
1.81
1.78
1.76
1.73
1.71
30
40
60
120
∞
2.09
2.00
1.92
1.83
1.75
2.01
1.92
1.53
1.43
1.67
1.93
1.84
1.50
1.39
1.57
1.88
1.78
1.48
1.37
1.51
1.84
1.74
1.47
1.35
1.46
1.81
1.72
1.46
1.34
1.42
1.79
1.69
1.45
1.33
1.39
1.74
1.64
1.53
1.43
1.32
1.68
1.58
1.47
1.35
1.22
1.62
1.51
1.39
1.25
1.00
–74–
Index
Abbildung
lineare . . . . . . . . . . . . . . . . . . . . . .
Absolutglied . . . . . . . . . . . . . . . . . . .
Algebra, σ-Algebra . . . . . . . . . . . . .
Alternative . . . . . . . . . . . . . . . . . . . . .
Alternativtest . . . . . . . . . . . . . . . . . .
Annahmebereich . . . . . . . . . . . . . . .
12
34
16
28
28
28
Bartlett-Test . . . . . . . . . . . . . . . . . . . 53
Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Beobachtungswertmatrix . . . . . . . 33
Bestimmtheitsmaß
für das homogene Modell 46, 47
Designmatrix . . . . . . . . . . . . . . . . . . 33
Dichte(funktion) . . . . . . . . . . . . . . . 19
gemeinsame . . . . . . . . . . . . . . . . . 19
Effekt
allgemeiner . . . . . . . . . . . . . . . . . . 48
der i-ten Faktorstufe . . . . . . . . 48
Effektdarstellung . . . . . . . . . . . . . . . 48
Elementarkontrast . . . . . . . . . . . . . 51
Ereignisraum . . . . . . . . . . . . . . . . . . . 16
Ergebnisraum . . . . . . . . . . . . . . . . . . 16
erwartungstreu . . . . . . . . . . . . . . . . . 26
Erwartungswertvektor . . . . . . . . . . 21
Erzeugendensystem . . . . . . . . . . . . . 5
F-verteilt . . . . . . . . . . . . . . . . . . . . . .
F -Verteilung . . . . . . . . . . . . . . . . . . .
Fehler 1.Art . . . . . . . . . . . . . . . . . . . .
Fehler 2.Art . . . . . . . . . . . . . . . . . . . .
Fehlervariable . . . . . . . . . . . . . . . . . .
Fehlerwahrscheinlichkeit 1.Art . .
Fehlerwahrscheinlichkeit 2.Art . .
Funktion
linear u-schätzbar . . . . . . . . . . .
u-schätzbar . . . . . . . . . . . . . . . . .
22
72
28
28
33
29
29
g-Inverse . . . . . . . . . . . . . . . . . . . . . . .
gaußverteilt . . . . . . . . . . . . . . . . . . . .
Gaußverteilung N (0, 1) . . . . . . . . .
Gegenhypothese . . . . . . . . . . . . . . . .
14
21
68
28
27
27
c
V.
Steinmetz: Statistische Analyseverfahren
Gleichungssystem
lineares . . . . . . . . . . . . . . . . . . . . .
Gleichungssystem
homogenes . . . . . . . . . . . . . . . . . .
inhomogenes . . . . . . . . . . . . . . . .
lösbares . . . . . . . . . . . . . . . . . . . . .
Grundannahme der Statistik
dritte . . . . . . . . . . . . . . . . . . . . . . .
erste . . . . . . . . . . . . . . . . . . . . . . . .
zweite . . . . . . . . . . . . . . . . . . . . . . .
Grundgesamtheit . . . . . . . . . . . . . . .
13
13
13
13
25
24
24
16
homogen . . . . . . . . . . . . . . . . . . . . . . . 34
Hypothese
einfache . . . . . . . . . . . . . . . . . . . . . 28
zusammengesetzte . . . . . . . . . . . 28
identifizierbar . . . . . . . . . . . . . . . . . . 25
Inverse
verallgemeinerte . . . . . . . . . . . . . 14
Kleinst-Quadrate Lösung . . . . . . .
Komponente . . . . . . . . . . . . . . . . . . .
1 − α-Konfidenzbereich . . . . . . . .
Konfidenzbereichsschätzung . . . .
Konfidenzschätzung . . . . . . . . . . . .
Kontrast
linearer . . . . . . . . . . . . . . . . . . . . .
Kontraste
orthogonale . . . . . . . . . . . . . . . . .
Kontrastmatrix . . . . . . . . . . . . . . . .
KQ-Residuen . . . . . . . . . . . . . . . . . .
kritischer Bereich . . . . . . . . . . . . . .
Kronecker-Symbol . . . . . . . . . . . . . .
35
18
31
31
31
51
51
51
35
28
48
linear abhängig . . . . . . . . . . . . . . . . . . 5
linear u-schätzbar . . . . . . . . . . . . . . 27
linear unabhängig . . . . . . . . . . . . . . . 5
Lineares Modell . . . . . . . . . . . . . . . . 33
Linearkombination . . . . . . . . . . . . . . 5
Lösung . . . . . . . . . . . . . . . . . . . . . . . . . 13
allgemeine . . . . . . . . . . . . . . . . . . 14
spezielle . . . . . . . . . . . . . . . . . . . . . 14
–75–
Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Inverse einer . . . . . . . . . . . . . . . . . 7
Block- . . . . . . . . . . . . . . . . . . . . . . . . 8
Determinante einer . . . . . . . . . . . 6
Diagonalmatrix . . . . . . . . . . . . . . . 2
Einheitsmatrix . . . . . . . . . . . . . . . 2
Einsmatrix . . . . . . . . . . . . . . . . . . . 2
erweitert . . . . . . . . . . . . . . . . . . . . 13
Hauptdiagonale einer . . . . . . . . . 1
idempotente . . . . . . . . . . . . . . . . . . 9
negativ definite . . . . . . . . . . . . . 10
negativ semidefinite . . . . . . . . . 10
Nullmatrix . . . . . . . . . . . . . . . . . . . 2
obere Dreiecksmatrix . . . . . . . . . 2
orthogonale . . . . . . . . . . . . . . . . . . 9
positiv definite . . . . . . . . . . . . . . 10
positiv semidefinite . . . . . . . . . 10
quadratische . . . . . . . . . . . . . . . . . 1
Rang einer . . . . . . . . . . . . . . . . . . . 6
reguläre . . . . . . . . . . . . . . . . . . . . . . 6
Spur einer . . . . . . . . . . . . . . . . . . . . 9
symmetrische . . . . . . . . . . . . . . . . . 1
Teil- . . . . . . . . . . . . . . . . . . . . . . . . . 8
transponierte . . . . . . . . . . . . . . . . . 1
untere Dreiecksmatrix . . . . . . . . 2
verallgemeinerte Inverse einer 14
Modell
balanciertes . . . . . . . . . . . . . . . . . 48
lineares . . . . . . . . . . . . . . . . . . . . . 33
unbalanciertes . . . . . . . . . . . . . . . 48
Modell A . . . . . . . . . . . . . . . . . . . . . . 54
Modell B . . . . . . . . . . . . . . . . . . . . . . . 54
Modellparameter . . . . . . . . . . . . . . . 33
identifizierbarer . . . . . . . . . . . . .
Parameterbereichsschätzung . . . .
Parameterpunktschätzfunktion . . . . . . . . . . . . . . . .
Parameterraum . . . . . . . . . . . . . . . .
Parametertest . . . . . . . . . . . . . . . . . .
Parametrisierung . . . . . . . . . . . . . . .
Projektion . . . . . . . . . . . . . . . . . . . . .
Punktmasse . . . . . . . . . . . . . . . . . . . .
Punktwahrscheinlichkeit . . . . . . . .
25
31
26
24
28
24
17
18
18
quadratische Form . . . . . . . . . . . . . 10
Randverteilungsfunktion . . . . . . .
Randdichte(funktion) . . . . . . . . . .
Randverteilung . . . . . . . . . . . . . . . . .
Regressand . . . . . . . . . . . . . . . . . . . . .
Regressionskoeffizienten . . . . . . . .
Regressoren . . . . . . . . . . . . . . . . . . . .
Regressormatrix . . . . . . . . . . . . . . . .
Reparametrisierungsbedingung .
19
20
18
33
33
33
33
54
Schätzfunktion
beste . . . . . . . . . . . . . . . . . . . . . . . .
erwartungstreue . . . . . . . . . . . . .
Schätzfunktion . . . . . . . . . . . . . . . . .
Scheffé-Test . . . . . . . . . . . . . . . . . . . .
Signifikanzniveau . . . . . . . . . . . . . .
Stichprobe . . . . . . . . . . . . . . . . . . . . .
einfache . . . . . . . . . . . . . . . . . . . . .
Stichprobenraum . . . . . . . . . . . 16,
Stichprobenrealisation . . . . . . . . . .
Struktur . . . . . . . . . . . . . . . . . . . . . . .
27
26
26
52
29
25
25
25
25
33
Orthogonalitätsbeziehungen . . . . 39
t-Verteilung . . . . . . . . . . . . . . . . . . . .
Test . . . . . . . . . . . . . . . . . . . . . . . . . . .
Alternativtest . . . . . . . . . . . . . . .
Annahmebereich eines ∼s . . .
kritischer Bereich eines ∼s . .
Parametertest . . . . . . . . . . . . . . .
zum Niveau α . . . . . . . . . . . . . . .
Trägerpunkt . . . . . . . . . . . . . . . . . . .
Transformation
identifizierbare . . . . . . . . . . . . . .
p-Wert . . . . . . . . . . . . . . . . . . . . . . . . . 31
Parameter
u-schätzbar . . . . . . . . . . . . . . . . . . . . 27
Unabhängigkeit
Normalgleichungen . . . . . . . . . . . . .
normalverteilt
N (0, I) . . . . . . . . . . . . . . . . . . . . . .
N (µ, Σ) . . . . . . . . . . . . . . . . . . . . .
Normalverteilung
Standard - N (0, 1) . . . . . . . . . .
Nullhypothese . . . . . . . . . . . . . . . . . .
35
21
22
68
28
c
V.
Steinmetz: Statistische Analyseverfahren
70
28
28
28
28
28
29
18
25
–76–
stochastische . . . . . . . . . . . . . . . . 20
Unterraum
von U aufgespannter . . . . . . . . . 5
Varianz-Kovarianzmatrix . . . . . . . 21
Varianzanalyse
einfache mit festen Efekten . . 48
Vektor . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Einheitsvektor . . . . . . . . . . . . . . . . 2
Einsvektor . . . . . . . . . . . . . . . . . . . 2
Nullvektor . . . . . . . . . . . . . . . . . . . 2
Verteilungsannahme . . . . . . . . . . . . 24
nichtparametrische . . . . . . . . . . 24
parametrische . . . . . . . . . . . . . . . 24
verteilungsfreie . . . . . . . . . . . . . . 24
Verteilungsfunktion . . . . . . . . . . . . 19
(total-)stetige,
(absolut-) stetige . . . . . . . 19
gemeinsame . . . . . . . . . . . . . . . . . 19
Wahrscheinlichkeit(-smaß) . . . . . .
Wahrscheinlichkeitsraum . . . . . . .
Wahrscheinlichkeitsverteilung . .
gemeinsame . . . . . . . . . . . . . . . . .
16
16
17
18
Zerlegungsformel . . . . . . . . . . . 40, 49
Zufallsvariable . . . . . . . . . . . . . . . . . 17
c
V.
Steinmetz: Statistische Analyseverfahren
–77–
Symbolverzeichnis
span U . . . . . . . . . . . . . . . . . . . . . . . . . . 5
rg A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
det A . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
tr(A) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
sp(A) . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Ax = b . . . . . . . . . . . . . . . . . . . . . . . . . 13
A− . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Ω . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Qx . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Bn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
pri1 ,...,im . . . . . . . . . . . . . . . . . . . . . . . . 17
pri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
xi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
x(ω) . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
P{x ∈ B} . . . . . . . . . . . . . . . . . . . . . . 18
Fx . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
fx . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
f(x1 ,...,xm )0 . . . . . . . . . . . . . . . . . . . . . . 20
µ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
σij . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Var x . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Cov(x, y) . . . . . . . . . . . . . . . . . . . . . . . 21
f (x) . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
N (0, I) . . . . . . . . . . . . . . . . . . . . . . . . . 21
N (µ, Σ) . . . . . . . . . . . . . . . . . . . . . . . . 22
Θ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
W0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
W1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
H0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
H1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
d0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
d1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
σ̂ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2
Rhom
. . . . . . . . . . . . . . . . . . . . . . . . . . 46
y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
ŷ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
û . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
c
V.
Steinmetz: Statistische Analyseverfahren
R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
δik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Rn+1
RB . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
–78–
Änderungen
•
19.05.2003:
– Diese Seite wurde hinzugefügt.
– Seite 24, 2.2.4 Vereinbarung: Y ersetzt durch y.
•
27.05.2003:
– Seite 29, 2.2.23 Nagelbeispiel: Y ersetzt durch y, X ersetzt durch x.
•
12.06.2003:
e
– Seite 38, 3.2.10 Satz und Definition, vorletzte Zeile: Λβ̂ statt Λβ
•
26.06.2003:
– Seite 31, 2.2.26 Bemerkung: Parameterbereichsschätzfunkion statt Parameterpunktschätzfunktion
– Seite 31, 2.2.28 Satz: Y durch y ersetzt
•
11.07.2003:
– Seite 47, 4.6 Satz und Definition:
bei Definition von R2 Voraussetzung σb2 (y) > 0 hinzugefügt
c
V.
Steinmetz: Statistische Analyseverfahren
Herunterladen