Formelsammlung zur Vorlesung Statistik III für Studenten mit dem

Werbung
Institut für Statistik, LMU München
Fahrmeir, Lang, Jerak, Schmid, Walter, Fenske
Statistik III für Studenten mit dem Wahlfach Statistik
Formelsammlung zur Vorlesung
Statistik III für Studenten mit dem Wahlfach Statistik
Stand: 12.02.2010
Diese Formelsammlung darf in der Klausur verwendet werden. Sie darf
auf den bedruckten Seiten durch handschriftliche Notizen und Formeln
ergänzt werden. Es dürfen keine leeren Rückseiten beschriftet und keine
zusätzlichen Blätter eingeheftet werden.
Inhaltsverzeichnis
1 Matrixalgebra
1.1 Reelle Matrizen . . . . . . . . . . . . . . . . .
1.2 Rechenoperationen mit Matrizen . . . . . . .
1.3 Lineare Unabhängigkeit, Rang, Determinante,
1.4 Quadratische Form und definite Matrizen . .
.
.
.
.
2
2
3
4
5
.
.
.
.
6
6
6
7
9
3 Schätzen und Testen
3.1 Parameterschätzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Testen linearer Hypothesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
10
12
4 Regressionsanalyse
4.1 Lineare Einfachregression . . . . . . . . . . .
4.2 Multiple lineare Regression . . . . . . . . . .
4.3 Polynomsplines . . . . . . . . . . . . . . . . .
4.4 Regression bei binären Daten und Zähldaten
.
.
.
.
13
13
14
19
20
5 Verteilungstabellen
5.1 Standardnormalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Students t-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 χ2 -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
22
23
24
. . . . . . . .
. . . . . . . .
Inverse, Spur
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Mehrdimensionale Zufallsvariablen
2.1 Zufallsvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Unabhängigkeit, Kovarianz und Korrelation bei zwei Zufallsvariablen
2.3 Erwartungswertvektor, Kovarianz- und Korrelationsmatrix . . . . . .
2.4 Mehrdimensionale Normalverteilung . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
MATRIXALGEBRA
1
2
Matrixalgebra
1.1
Reelle Matrizen
Reelle Matrix
Ein nach m Zeilen und n Spalten geordnetes Schema A von m · n

a11 a12 · · · a1n
 ..
..
..
 .
.
.

A= .
.
..
..
 ..
.
am1 am2 · · · amn
Elementen aij ∈ IR






heißt reelle Matrix von der Ordnung m × n oder kurz (m × n)-Matrix.
Kurzschreibweise: A = (aij ), i = 1, . . . , m, j = 1, . . . , n.
Transponierte Matrix
Sei A = (aij ) eine (m × n)-Matrix. Dann ist die transponierte Matrix AT definiert als diejenige Matrix,
die man durch das Vertauschen der Zeilen und Spalten von A erhält, d.h.


a11 a21 · · · am1
 ..
.. 
 .
. 
T

A =
 ..
.. 
 .
. 
a1n a2n · · · amn
Sie ist also von der Ordnung n × m.
Bezeichnungen
• Eine (n × n)-Matrix A heißt quadratisch.
• Eine quadratische Matrix A mit AT = A heißt symmetrisch.
• Eine quadratische Matrix D, bei der alle Elemente außerhalb der Hauptdiagonalen gleich Null sind,
heißt Diagonalmatrix.
• Eine Diagonalmatrix, bei der alle Elemente der Hauptdiagonalen gleich Eins sind, heißt
Einheitsmatrix I.
• Die Spalten der Einheitsmatrix heißen Einheitsvektoren.
1
MATRIXALGEBRA
1.2
3
Rechenoperationen mit Matrizen
Summe und skalare Multiplikation von Matrizen
Die Summe A + B zweier (m × n)-Matrizen A = (aij ) und B = (bij ) ist definiert als:
A + B := (aij + bij ).
Die Multiplikation von A mit einem Skalar λ ∈ IR ist definiert als
λA := (λaij ).
Matrixmultiplikation
Das Produkt der (m × n)-Matrix A = (aij ) mit der (n × p)-Matrix B = (bij ) ist die (m × p)-Matrix
AB = C = (cik )
mit
cik =
n
X
aij bjk .
j=1
Ausführlich erhalten wir demnach

n
X
n
X
a1j bj1
a1j bj2 · · ·

 j=1
j=1


..
..

.
.
A·B=

..
..

.
 n .
n
 X
X

amj bj1
amj bj2 · · ·
j=1
j=1
n
X

a1j bjp 



..

.
.

..

.

n

X
amj bjp 
j=1
j=1
Die Multiplikation eines Zeilenvektors mit einem Spaltenvektor heißt Skalarmultiplikation.
Rechenregeln für Matrizen
Seien A, B und C (n × m)-Matrizen.
• A+B =B+A
• (A + B) + C = A + (B + C)
• (A + B)T = AT + BT
Seien A, F (m × n)-Matrizen, B, G (n × r)-Matrizen, C eine (r × s)-Matrix, λ ∈ IR.
• (AB) · C = A · (BC)
• A · (λB) = λ(AB)
• A(B + G) = AB + AG
• (A + F )B = AB + F B
• (AB)T = BT AT
• Im Allgemeinen gilt nicht: AB = BA
1
MATRIXALGEBRA
1.3
4
Lineare Unabhängigkeit, Rang, Determinante, Inverse, Spur
Lineare Unabhängigkeit
Die Vektoren a1 , . . . , ak heißen linear unabhängig, falls aus λ1 a1 + . . . + λk ak = 0 stets folgt:
λ1 = . . . = λk = 0.
Rang
Die Anzahl linear unabhängiger Zeilen bzw. Spalten einer Matrix A heißt Rang der Matrix A, kurz rg(A).
Determinante
Sei A eine (n × n)-Matrix und Mij die Teilmatrix von A, die man durch Streichen der i-ten Zeile und
j-ten Spalte erhält. Dann ist die Determinante von A definiert als
det(A) =
n
X
(−1)i+j aij · det(Mij )
j=1
mit det(A) := a11 , falls A eine (1 × 1)-Matrix ist.
Spezialfälle:
• Für eine (2x2)–Matrix A gilt: det(A) = a11 a22 − a21 a12
• Für eine (3x3)–Matrix A gilt:
det(A) = a11 a22 a33 + a12 a23 a31 + a13 a32 a21 − a31 a22 a13 − a21 a12 a33 − a11 a23 a32
Inverse Matrix
Sei A eine quadratische Matrix. Die Matrix A−1 heißt Inverse zur Matrix A, falls gilt:
AA−1 = A−1 A = I
Satz
Für jede (n × n)-Matrix A, für die rg(A) = n oder det(A) 6= 0 gilt, existiert eine eindeutige inverse Matrix
A−1 . Die Matrix A heißt dann nicht-singulär oder invertierbar.
Rechenregeln
• (AB)−1 = B −1 A−1
−1
• A−1
=A
−1
T
= A−1
a b
• Ist A =
, dann ist A−1 =
c d
• AT
1
ad−bc
d −b
−c
a
.
1
MATRIXALGEBRA
5
Spur
Sei A einePquadratische (n×n)-Matrix. Die Spur von A ist definiert als die Summe ihrer Diagonalelemente:
sp(A) = ni=1 aii .
1.4
Quadratische Form und definite Matrizen
Quadratische Form
Sei A eine symmetrische (n × n)-Matrix. Eine quadratische Form Q(x) in einem Vektor x ∈ IR ist definiert
durch:
n
n X
X
X
Q(x) = xT Ax =
aii x2i + 2
aij xi xj .
i=1
i=1 j>i
Definite Matrizen
Die quadratische Form Q(x) = xT Ax und die symmetrische Matrix A heißen
• positiv definit, falls xT Ax > 0 für alle x 6= 0.
• positiv semidefinit, falls xT Ax ≥ 0 und xT Ax = 0 für mindestens ein x 6= 0.
• nicht-negativ definit, falls xT Ax bzw. A entweder positiv oder positiv semidefinit ist.
• negativ definit, falls −A positiv definit ist.
• negativ semidefinit, falls −A positiv semidefinit ist.
• indefinit in allen anderen Fällen.
2
MEHRDIMENSIONALE ZUFALLSVARIABLEN
2
6
Mehrdimensionale Zufallsvariablen
2.1
Zufallsvektoren
Zufallsvektor und gemeinsame Dichte
Der p-dimensionale Vektor x = (x1 , . . . , xp )T heißt Zufallsvektor einer p-dimensionalen Zufallsvariablen,
wenn die Komponenten x1 , . . . , xp eindimensionale Zufallsvariablen sind. Der Zufallsvektor x heißt stetig,
wenn es eine Funktion f (x) = f (x1 , . . . , xp ) ≥ 0 gibt, sodass
Z
bp
P (a1 ≤ x1 ≤ b1 , . . . , ap ≤ xp ≤ bp ) =
Z
b1
f (x1 , . . . , xp )dx1 · · · dxp
...
ap
a1
Die Funktion f heißt gemeinsame Dichte von x1 , . . . , xp .
Randverteilung
Gegeben sei der p-dimensionale Zufallsvektor x = (x1 , . . . , xp )T und eine Partition von x in den p1 dimensionalen Vektor x1 und den p2 -dimensionalen Vektor x2 , d.h. x = (x1 , x2 )T . Dann heißt die p1 dimensionale Dichte bzw. Wahrscheinlichkeitsfunktion fx1 (x1 ) von x1 Randdichte bzw. Randwahrscheinlichkeitsfunktion von x1 . Sie ist bei stetigen Zufallsvariablen gegeben durch
Z ∞
fx1 (x1 ) =
f (x1 , x2 )dx2
−∞
und bei diskreten durch
fx1 (x1 ) =
X
f (x1 , x2 ) .
x2
Bedingte Verteilung
Gegeben sei der p-dimensionale Zufallsvektor x = (x1 , . . . , xp )T und eine Partition von x in den p1 dimensionalen Vektor x1 und den p2 -dimensionalen Vektor x2 , d.h. x = (x1 , x2 )T . Dann ist die bedingte
Dichte bzw. bedingte Wahrscheinlichkeitsfunktion von x1 bei fest vorgegebenem Wert x2 gegeben durch
f (x1 |x2 ) =
f (x1 , x2 )
fx2 (x2 )
falls f (x2 ) > 0
und 0 sonst. Die bedingte Dichte bzw. Wahrscheinlichkeitsfunktion von x2 gegeben x1 ist analog definiert.
2.2
Unabhängigkeit, Kovarianz und Korrelation bei zwei Zufallsvariablen
Unabhängigkeit
Zwei eindeimensionale Zufallsvariablen X und Y heißen unabhängig, wenn für alle x und y gilt
f (x, y) = fX (x)fY (y)
2
MEHRDIMENSIONALE ZUFALLSVARIABLEN
Kovarianz
7
 XX

f (xi , yj )(xi − E[X])(yj − E[Y ])




 i j
Cov(X, Y ) =
Z∞ Z∞



f (x, y)(x − E[X])(y − E[Y ])dxdy



(diskret)
(stetig)
−∞ −∞
Verschiebungssatz
mit
Cov(X, Y ) = E[X · Y ] − E[X] · E[Y ]
 XX

f (xi , yj )xi yj
(diskret)




i
j

E[X · Y ] =
Z∞ Z∞



xy f (x, y)dydx (stetig)



−∞ −∞
Lineare Transformation
Für die Zufallsvariablen X̃ = aX X + bX und Ỹ = aY Y + bY gilt
Cov(X̃, Ỹ ) = aX aY Cov(X, Y )
Korrelationskoeffizient
Cov(X, Y )
Cov(X, Y )
p
=
ρ = ρ(X, Y ) = p
σX σY
Var(X) Var(Y )
Unkorreliertheit
Die Zufallsvariablen X und Y heißen unkorreliert, wenn gilt
ρ(X, Y ) = 0
2.3
bzw.
Cov(X, Y ) = 0
Erwartungswertvektor, Kovarianz- und Korrelationsmatrix
Erwartungswertvektor
Sei x = (x1 , . . . , xp )T ein p-dimensionaler Zufallsvektor. Dann heißt
E(x) = µ = (µ1 , . . . , µp )T = (E(x1 ), . . . , E(xp ))T
Erwartungswertvektor von x.
2
MEHRDIMENSIONALE ZUFALLSVARIABLEN
8
Kovarianzmatrix und Korrelationsmatrix
Sei x = (x1 , . . . , xn )T ein p-dimensionaler Zufallsvektor mit Erwartungswertvektor µ. Sei
σij = Cov(xi , xj ), i 6= j, die Kovarianz zwischen xi und xj sowie σi2 = σii = Var(xi ) die Varianz von xi .
Dann heißt


σ11 · · · σ1n
h
i

.. 
Σ = Cov(x) = E (x − µ)(x − µ)T =  ...
. 
σn1 · · · σnn
Kovarianzmatrix von x.
Ist y = (y1 , . . . , ym )T ein weiterer Zufallsvektor mit E(y) = ν, so heißt die (n × m)-Matrix


Cov(x
,
y
)
·
·
·
Cov(x
,
y
)
1
1
1
m
h
i


..
..
Cov(x, y) = E (x − µ)(y − ν)T = 

.
.
Cov(xn , y1 ) · · · Cov(xn , ym )
Kovarianzmatrix von x und y.
Mit den Korrelationen
ρ(xi , xj ) = ρij := √
heißt



P=

1
ρ12
..
.
σij
Cov(xi , xj )
=p
σii σjj
Var(xi )Var(xj )
ρ12
1
···
..
.
ρn1 ρn2 · · ·
ρ1n
ρ2n
..
.





1
Korrelationsmatrix von x.
Rechenregeln und Eigenschaften
Seien x und y Zufallsvektoren und A, B, a, b geeignet dimensionierte Matrizen bzw. Vektoren. Dann gilt:
• E[x + y] = E[x] + E[y]
• Cov(Ax + b) = A Cov(x) AT
• E[Ax + b] = A E[x] + b
• Cov(x, x) = Cov(x)
• Cov(x) = E[xxT ] − µµT
• Cov(x, y) = Cov(y, x)T
• Var(aT x) = aT Cov(x)a =
Pp
i,j=1 ai aj σij
• Cov(Ax + a, By + b) = A Cov(x, y) BT
• Σ und P sind symmetrisch und (mindestens) positiv semidefinit.
2
MEHRDIMENSIONALE ZUFALLSVARIABLEN
2.4
9
Mehrdimensionale Normalverteilung
Mehrdimensionale Normalverteilung
Ein Zufallsvektor x = (x1 , . . . , xp )T heißt p-dimensional normalverteilt mit Erwartungsvektor µ und Kovarianzmatrix Σ, d.h. x ∼ Np (µ, Σ), falls die Dichte durch
1
− p2
− 21
T −1
f (x) = (2π) |Σ| exp − (x − µ) Σ (x − µ)
2
gegeben ist, wobei x ∈ IRp gilt und Σ positiv definit ist.
Zerlegt man x in die q- bzw. r-dimensionalen Subvektoren y und z und partitioniert µ bzw. Σ gemäß
µy
Σy Σyz
µ=
Σ=
µz
Σzy Σz
so gilt:
(i) Für die Randverteilungen von y bzw. z erhält man
y ∼ Nq (µy , Σy )
z ∼ Nr (µz , Σz )
(ii) Für die bedingte Verteilung von y|z ergibt sich
y|z ∼ Nq (µy |z , Σy |z )
mit
µy |z
= µy + Σyz Σ−1
z (z − µz )
Σy |z
= Σy − Σyz Σ−1
z Σzy
Bivariate Normalverteilung
Mit x = (x1 , x2 )T , σi2 = Var(xi ), ρ = ρ(x1 , x2 ) lautet die Dichte
f (x1 , x2 ) =
2πσ1 σ2
1
p
(
1
· exp −
2
2(1
−
ρ2 )
1−ρ
"
x1 − µ 1
σ1
2
− 2ρ
x1 − µ 1
σ1
x2 − µ 2
σ2
Die bedingte Verteilung von x2 |x1 ist dann eine Normalverteilung mit Mittelwert
µx2 |x1 = µ2 + ρ
σ2
(x1 − µ1 )
σ1
und Varianz
σx22 |x1 = σ22 (1 − ρ2 ).
+
x2 − µ 2
σ2
2 #)
.
3
SCHÄTZEN UND TESTEN
3
10
Schätzen und Testen
3.1
Parameterschätzung
Eigenschaften von Schätzern
• Ein Schätzer θ̂ heißt erwartungstreu für den Parametervektor θ, wenn gilt
Eθ [θ̂] = θ
• Ein Schätzer θ̂ heißt asymptotisch erwartungstreu für den Parametervektor θ, wenn gilt
lim Eθ [θ̂] = θ
n→∞
• Ein nicht erwartungstreuer Schätzer heißt verzerrt. Die Stärke der Verzerrung nennt man Bias:
b(θ) = Eθ [θ̂] − θ
• Ein Maß für die Güte einer Schätzung liefert die MSE–Matrix
h
i
MSE(θ̂, θ) = E (θ̂ − θ)(θ̂ − θ)T = Cov(θ̂) + b(θ)b(θ)T ,
auf deren Diagonale die erwarteten quadratischen Fehler (MSE)
i
h
MSE(θ̂i , θi ) = E (θ̂i − θi )2 = Var(θ̂i ) + bi (θi )2
für die Schätzung der i-ten Komponente θi stehen.
Likelihood- und Log-Likelihood-Funktion
Sei fi (xi |θ) die Wahrscheinlichkeitsfunktion bzw. Dichte von Xi gegeben θ = (θ1 , . . . , θp )T .
Für n unabhängige Beobachtungen x1 , . . . , xn heißt
• Likelihoodfunktion:
L(θ) = f (x1 , . . . , xn |θ) =
n
Y
fi (xi |θ)
i=1
• Log-Likelihoodfunktion:
l(θ) = ln L(θ) = ln
( n
Y
i=1
)
fi (xi |θ)
=
n
X
ln {fi (xi |θ)}
i=1
Maximum-Likelihood-Schätzung
Der Maximum-Likelihood-Schätzer θ̂ ist dann die Lösung der Gleichung
L(θ̂) = max L(θ)
θ
⇔
ln L(θ̂) = max{ln L(θ)}
θ
und wird ermittelt durch das Berechnen der Nullstellen der ersten Ableitung der (Log–)Likelihoodfunktion.
3
SCHÄTZEN UND TESTEN
11
Scorefunktion, Informationsmatrizen
• Der Vektor der ersten Ableitungen von l(θ) heißt Scorefunktion:
s(θ) =
∂l(θ)
=
∂θ
∂l(θ)
∂l(θ)
,...,
θ1
θp
T
• Die Matrix der negativen zweiten Ableitungen von l(θ) heißt beobachtete Informationsmatrix:


∂ 2 l(θ)
∂ 2 l(θ)

=
−
=
−
F obs (θ) = −

∂θi ∂θj
∂θ∂θT
∂ 2 l(θ )
∂θ1 ∂θ1
..
.
···
..
.
∂ 2 l(θ )
∂θp ∂θ1
···
∂ 2 l(θ )
∂θ1 ∂θp
..
.
∂ 2 l(θ )
∂θp ∂θp




• Der Erwartungswert der beobachteten Informationsmatrix heißt erwartete Informationsmatrix oder
Fisher-Informationsmatrix:
 2

2
∂ l(θ )
∂ l(θ )
E ∂θ
·
·
·
E
∂θ1 ∂θp
1 ∂θ1




.
..
.
..
..
F (θ) = Cov(s(θ)) = E[F obs (θ)] = − 

 2

2.
∂ l(θ )
∂ l(θ )
E ∂θ
· · · E ∂θ
p ∂θ1
p ∂θp
Asymptotische Eigenschaften des ML-Schätzers
Unter schwachen Regularitätsbedingungen gelten folgende asymptotische Eigenschaften, also für n → ∞:
a
d θ̂))
θ̂ ∼ N(θ, Cov(
d θ̂) als Inverse der beobachteten oder erwarteten Informationsmatrix an der Stelle des
wobei man Cov(
ML-Schätzers erhält:
d θ̂) = F −1 (θ̂)
Cov(
obs
bzw.
d θ̂) = F −1 (θ̂)
Cov(
3
SCHÄTZEN UND TESTEN
3.2
12
Testen linearer Hypothesen
Lineare Hypothesen
Hypothesen über einen p-dimensionalen Parametervektor θ = (θ1 , . . . , θj , . . . , θp )T besitzen häufig
die lineare Form
H0 : Cθ = d
H1 : Cθ 6= d
wobei d ein vorgegebener, r-dimensionaler Vektor (r < p) und C eine r × p Matrix mit Rang r ist.
Likelihood–Quotienten–Test
LQ–Statistik
λ = −2 l(θ̃) − l(θ̂)
mit
θ̃
θ̂
l(θ̃)
l(θ̂)
↔
↔
↔
↔
ML–Schätzer für θ unter Restriktion H0 : Cθ = d
ML–Schätzer für θ ohne Restriktion
maximale log–Likelihood unter Restriktion H0 : Cθ = d
maximale log–Likelihood ohne Restriktion
Wald–Test
Wald–Statistik
i−1
h
(C θ̂ − d)
w = (C θ̂ − d)T C V̂ CT
mit
θ̂
V̂ = F −1 (θ̂)
F (θ̂)
↔
↔
↔
ML–Schätzer für θ ohne Restriktion
d θ̂) von θ̂
geschätzte Kovarianzmatrix Cov(
erwartete Informationsmatrix
Sonderfall:

H0 : θj = 0
=⇒
2
θ̂j
 = quadrierter “t–Wert” Tj
w = q
Var(θ̂j )
Score-Test
Score–Statistik
u = sT (θ̃)Ṽ
−1
s(θ̃)
mit
θ̃
s(θ̃)
Ṽ = F −1 (θ̃)
F (θ̃)
↔
↔
↔
↔
ML–Schätzer für θ unter Restriktion H0 : Cθ = d
Score–Funktion unter Restriktion H0 : Cθ = d
d θ̂) von θ̃
geschätzte Kovarianzmatrix Cov(
erwartete Informationsmatrix
Asymptotische Verteilung/Ablehnbereich
Für n → ∞ gilt approximativ
λ, w, u ∼ χ2 (r)
d.h. H0 kann zum Niveau α abgelehnt werden, falls
λ, w, u > χ21−α (r)
4
REGRESSIONSANALYSE
4
13
Regressionsanalyse
4.1
Lineare Einfachregression
Variablen
y
x
metrische abhängige Variable, Zielgröße, Response
metrische unabhängige Variable, Einflussgröße, Kovariable
Regressionsansatz
yi = f (xi ) + εi = β0 + β1 xi + εi
Bezeichnungen
• Geschätzte Regressionsgerade: ŷi = β̂0 + β̂1 xi
• Regressionskoeffizienten: β̂0 und β̂1
• Residuen: ε̂i = yi − ŷi = yi − (β̂0 + β̂1 xi )
Normalverteilungsannahme
εi ∼ N(0, σ 2 )
yi ∼ N(β0 + β1 xi , σ 2 )
⇔
für i = 1, . . . , n
Kleinste-Quadrate-Schätzer
n
P
β̂0 = ȳ − β̂1 x̄ ,
β̂1 =
n
P
(xi − x̄)(yi − ȳ)
i=1
n
P
=
(xi − x̄)2
i=1
xi yi − nx̄ȳ
i=1
n
P
i=1
x2i − nx̄2
Schätzer für die Varianz σ 2
n
n
i=1
i=1
2
1 X 2
1 X
σ̂ =
yi − (β̂0 + β̂1 xi )
ε̂i =
n−2
n−2
2
Verteilung der geschätzten Regressionskoeffizienten
β̂0 ∼
N(β0 , σβ̂2 )
0
mit Var(β̂0 ) =
σβ̂2
0
P 2
P 2
xi
x
2
P 2 i 2
=σ P
=σ
2
n (xi − x̄)
n( xi − nx̄ )
2
σ2
σ2
P
β̂1 ∼ N(β1 , σβ̂2 ) mit Var(β̂1 ) = σβ̂2 = P
=
1
1
(xi − x̄)2
x2i − nx̄2
Verteilung der standardisierten Schätzfunktionen
qP
qP
2
x
x2i
i
β̂0 − β0
∼ t(n − 2) mit σ̂β̂0 = σ̂ p P
= σ̂ q P
σ̂β̂0
n (xi − x̄)2
n( x2 − nx̄2 )
i
β̂1 − β1
σ̂
σ̂
∼ t(n − 2) mit σ̂β̂1 = pP
= qP
2
σ̂β̂1
(xi − x̄)
x2i − nx̄2
4
REGRESSIONSANALYSE
14
(1 − α)-Konfidenzintervalle für β0 und β1
h
i
für β0 :
β̂0 − σ̂β̂0 t1− α2 (n − 2), β̂0 + σ̂β̂0 t1− α2 (n − 2)
h
i
für β1 :
β̂1 − σ̂β̂1 t1− α2 (n − 2), β̂1 + σ̂β̂1 t1− α2 (n − 2)
Teststatistiken
Tβ̃0 =
β̂0 − β̃0
σ̂β̂0
und Tβ̃1 =
β̂1 − β̃1
σ̂β̂1
Hypothesen und Ablehnbereiche
Hypothesen
Ablehnbereich
H0 : β0 = β̃0
H0 : β1 = β̃1
vs.
vs.
H1 : β0 =
6 β̃0
H1 : β1 =
6 β̃1
|Tβ̃0 | > t1− α2 (n − 2)
|Tβ̃1 | > t1− α2 (n − 2)
H0 : β0 ≥ β̃0
H0 : β1 ≥ β̃1
vs.
vs.
H1 : β0 < β̃0
H1 : β1 < β̃1
Tβ̃0 < −t1−α (n − 2)
Tβ̃1 < −t1−α (n − 2)
H0 : β0 ≤ β̃0
H0 : β1 ≤ β̃1
vs.
vs.
H1 : β0 > β̃0
H1 : β1 > β̃1
Tβ̃0 > t1−α (n − 2)
Tβ̃1 > t1−α (n − 2)
Prognose
ŷ0 = β̂0 + β̂1 x0
Konfidenzintervall für y0
s
"
ŷ0 − t1− α2 (n − 2)σ̂
4.2
1
(x0 − x̄)2
, ŷ0 + t1− α2 (n − 2)σ̂
1+ + P 2
n
xi − nx̄2
s
1
(x0 − x̄)2
1+ + P 2
n
xi − nx̄2
#
Multiple lineare Regression
Regressionsansatz
yi = β0 + β1 xi1 + β2 xi2 + . . . + βk xik + εi
für i = 1, . . . , n
Normalverteilungsannahme
εi ∼ N(0, σ 2 )
⇔
yi ∼ N (β0 + β1 xi1 + . . . + βk xik , σ 2 )
für i = 1, . . . , n
Modellierung nichtlinearer Zusammenhänge durch Variablentransformation
Besitzt die metrische Kovariable z den nichtlinearen Einfluss β1 g(z) mit bekannter Transformation g, so
kann das Modell
yi = β0 + β1 g(zi ) + β2 xi2 + . . . + βk xik + εi
durch Definition der Variable xi1 = g(zi ) − ḡ in ein gewöhnliches multiples Regressionsmodell
yi = β0 + β1 xi1 + β2 xi2 + . . . + βk xik + εi
P
überführt werden, wobei gilt: ḡ = n1 ni=1 g(zi ).
4
REGRESSIONSANALYSE
15
Modellierung nichtlinearer Zusammenhänge durch Polynome
Besitzt die metrische Kovariable z einen polynomialen Einfluss β1 z + β2 z 2 + . . . + βl z l , so kann das Modell
yi = β0 + β1 zi + β2 zi2 + . . . + βl zil + βl+1 xil+1 + . . . + εi
durch Definition der Variablen xi1 = zi , xi2 = zi2 , . . . , xil = zil in ein gewöhnliches multiples Regressionsmodell
yi = β0 + β1 xi1 + β2 xi2 + . . . + βl xil + βl+1 xil+1 + . . . + εi
überführt werden.
Kodierung kategorialer Kovariablen
Zur Modellierung des Effekts einer kategorialen Kovariablen x mit K Kategorien, also x ∈ {1, . . . , K},
werden K − 1 Dummyvariablen x(1) , . . . , x(K−1) definiert, mit der Referenzkategorie K ergibt sich:
• in Dummy-Kodierung:
x(k)
(
1 falls Kategorie k mit k = 1, . . . , K − 1 vorliegt
=
0 sonst
• in Effekt-Kodierung:
x(k)


 1 falls Kategorie k mit k = 1, . . . , K − 1 vorliegt
= −1 falls Kategorie K vorliegt


0 sonst
Das Regressionsmodell lautet dann:
yi = β0 + β(1) xi(1) + +β(2) xi(2) + . . . + β(K−1) xi(K−1) + εi
Verteilung der standardisierten Schätzfunktionen
β̂j − βj
∼ t(n − p) ,
σ̂j
j = 0, . . . , k
(1 − α)-Konfidenzintervalle für βj
i
h
β̂j − σ̂j t1− α2 (n − p), β̂j + σ̂j t1− α2 (n − p)
Teststatistiken
Tj =
β̂j − β̃j
,
σ̂j
j = 0, . . . , k
Hypothesen und Ablehnbereiche
Hypothesen
Ablehnbereich
H0 : βj = β̃j
vs.
H1 : βj 6= β̃j
|Tj | > t1− α2 (n − p)
H0 : βj ≥ β̃j
vs.
H1 : βj < β̃j
Tj < −t1−α (n − p)
H0 : βj ≤ β̃j
vs.
H1 : βj > β̃j
Tj > t1−α (n − p)
4
REGRESSIONSANALYSE
16
Quadratsummenzerlegung
n
X
(yi − ȳ)2 =
|i=1 {z
SST
SST
SSR
SSE
(SST otal):
(SSRegression):
(SSE rror):
}
n
X
(ŷi − ȳ)2 +
|i=1 {z
=
SSR
}
n
X
(yi − ŷi )2
|i=1 {z
+
SSE
}
Gesamtabweichungsquadratsumme in y-Richtung
Durch die Regression erklärter Teil von SST
Trotz der Regression unerklärt bleibender Teil von SST
F–Test
• Hypothesen
H0 : Cβ = d
vs. H1 : Cβ 6= d
wobei d einen r-dimensionaler Vektor mit r < p und C eine r × p Matrix mit Rang r bezeichnet
• Teststatistik
F =
mit
SSE
SSEH0
w
1
r (SSEH0 − SSE)
1
n−p SSE
=
w
r
Fehlerquadratsumme unter H1
Fehlerquadratsumme unter H0
Teststatistik des Wald-Tests (siehe S.12)
• Ablehnbereich
F > F1−α (r, n − p)
Overall–F–Test
• Hypothesen
H0 : β1 = . . . = βk = 0
H1 : βj 6= 0 für mindestens ein j = 1, . . . , k
• Teststatistik
F =
R2 n − p
SSR n − p
=
2
1−R
k
SSE k
• Ablehnbereich
F > F1−α (k, n − p)
4
REGRESSIONSANALYSE
17
Modellwahlkriterien
• Bestimmtheitsmaß
R2 =
Berechnung:
n
P
R2 =
SSR
SSE
=1−
SST
SST
n
P
(ŷi − ȳ)2
i=1
n
P
=
(yi − ȳ)2
i=1
i=1
n
P
i=1
• Korrigiertes Bestimmtheitsmaß
2
Radj
=1−
ŷi2 − nȳ 2
yi2 − nȳ 2
n−1
(1 − R2 )
n−p
• Informationskriterium nach Akaike (AIC)
AIC = −2 l(β̂, σ̂ 2 ) + 2(p + 1)
Multiple lineare Regression in Matrixnotation
• Regressionsansatz:

y = Xβ + ε


mit der Annahme E(ε) = 

0
0
..
.





und
0



y=

y1
y2
..
.



,




X=

yn
1 x11 · · ·
1 x21 · · ·
..
..
.
.
1 xn1 · · ·
x1p
x2p
..
.



,




β=

xnp
β0
β1
..
.
βk



,




ε=

ε1
ε2
..
.





εn
• KQ-Schätzer für β:
Aus dem KQ-Ansatz
(y − Xβ)T (y − Xβ) → min
β
ergibt sich durch Nullsetzen der ersten Ableitung nach β und, falls XT X invertierbar ist, anschließendem Lösen des resultierenden Gleichungssystems der KQ-Schätzer
β̂ = (XT X)−1 XT y
• Varianz der Schätzer β̂j :
Mit den Diagonalelementen vj der Matrix (XT X)−1 erhält man für bekanntes σ 2 als Varianz von β̂j
σj2 = Var(β̂j ) = σ 2 vj
bzw. für unbekanntes σ 2 die geschätzte Varianz von β̂j gemäß
σ̂j2 = σ̂ 2 vj
4
REGRESSIONSANALYSE
18
SPSS-Output einer multiplen linearen Regression
ANOVA
MQ
SQ
df
Regression
SSR
dfR = k = p − 1
M QR =
Residuen
SSE
dfE = n − p
M QE =
Gesamt
SST
dfT = n − 1
Modell
1
(Konstante)
X1
X2
.
.
.
F
SSR
dfR
SSE
dfE
F0 =
M QR
M QE
Koeffizientena
Nicht standardisierte Koeffizienten
B
Standardfehler
β̂0
σ̂0
σ̂1
β̂1
β̂2
σ̂2
.
.
.
.
.
.
Xp
a Abhängige Variable: Y
σ̂p
β̂p
Sig.
P (F > F0 )
T
T0
T1
T2
.
.
.
Sig.
P (T ≥ |T0 |)
P (T ≥ |T1 |)
P (T ≥ |T2 |)
.
.
.
Tp
P (T ≥ |Tp |)
Die Koeffiziententabelle enthält die geschätzten Regressionskoeffizienten (Spalte B), die zugehörigen Standardfehler sowie die die T - und p-Werte für das folgende Testproblem:
H0 : βj = 0
vs. H1 : βj 6= 0
Dabei ist in der Tabelle
• T der Wert der t-Statistik, d.h. Tj =
• Sig. der zugehörige p-Wert
β̂j
σ̂j
für j = 0, . . . , k
4
REGRESSIONSANALYSE
4.3
19
Polynomsplines
Definition
Eine Funktion g : [a, b] → IR heißt Polynomspline vom Grad l ≥ 0 mit den Knoten
a = κ1 < . . . < κm = b, wenn sie die folgenden Eigenschaften besitzt:
1. g(z) ist auf den durch die Knoten gebildeten Intervallen [κj , κj+1 ) ein Polynom vom Grad l.
2. g(z) ist (l − 1)-mal stetig differenzierbar.
Darstellung mit Basisfunktionen
Ein Polynomspline kann als Linearkombination
g(z) = β0 B0 (z) + . . . + βl+m−2 Bl+m−2 (z)
von Basisfunktionen B0 (z), . . . , Bl+m−2 (z) dargestellt werden. Bei gegebenen Basisfunktionen ist ein
Polynomspline eindeutig durch die Koeffizienten β = (β0 , . . . , βl+m−2 )T bestimmt.
Trunkierte Potenzreihen–Basis (TP-Basis)
Unter Verwendung der trunkierten Potenzreihen–Basis gilt für einen Polynomspline l-ten Grades mit
den Knoten κ1 , . . . , κm allgemein
g(z) =
l
X
βj z j +
j=0
(z −
βl+j−1 (z − κj )l+
j=2
wobei
κj )l+
m−1
X
=
(z − κj )l falls z ≥ κj
0
falls z < κj
Die Basisfunktionen lauten dann
B0 (z) = 1, B1 (z) = z, . . . , Bl (z) = z l , Bl+1 (z) = (z − κ2 )l+ , . . . , Bl+m−2 (z) = (z − κm−1 )l+
Spezialfälle der TP-Basis:
l=1
B0 (z) = 1
l=2
B0 (z) = 1
l=3
B0 (z) = 1
B1 (z) = z
B1 (z) = z
B1 (z) = z
B2 (z) = (z − κ2 )+
B2 (z) = z 2
B2 (z) = z 2
B3 (z) = (z − κ2 )2+
B3 (z) = z 3
..
.
Bm−1 (z) = (z − κm−1 )+
..
.
Bm (z) = (z − κm−1 )2+
B4 (z) = (z − κ2 )3+
..
.
Bm+1 (z) = (z − κm−1 )3+
4
REGRESSIONSANALYSE
4.4
20
Regression bei binären Daten und Zähldaten
Binäre Daten
• Datensituation
Die binären Zielvariablen yi für i = 1, . . . , n nehmen Werte aus {0, 1} an und sind bei gegebenen
Kovariablen xi = (xi1 , . . . , xik )T (bedingt) unabhängig.
• Verteilungsannahme
ind.
yi ∼ B(1, πi )
wobei
πi = P (yi = 1|xi1 , . . . , xik )
• Strukturannahme
πi = h(ηi ) = h(β0 + β1 xi1 + . . . + βk xik ) = h(xTi β)
Die Funktion h : IR → [0, 1] wird als Responsefunktion bezeichnet.
Binäre Regressionsmodelle
• Logit-Modell
exp(ηi )
πi = h(ηi ) =
1 + exp(ηi )
⇔
πi
= exp(ηi )
1 − πi
⇔
ln
πi
1 − πi
= ηi = xiT β
• Probit-Modell
πi = h(ηi ) = Φ(ηi ) = Φ(xTi β)
wobei Φ(·) die Verteilungsfunktion der N(0, 1)-Verteilung bezeichnet
Weitere Begriffe
• Chance (Odds)
P (yi = 1|xi )
πi
=
1 − πi
P (yi = 0|xi )
• Chancenverhältnis (Odds Ratio)
πi
1 − πi
/ 1 −πjπ
=
j
P (yi = 1|xi )
P (yi = 0|xi )
(yj = 1|xj )
/ PP (y
= 0|x )
j
j
mit i 6= j
4
REGRESSIONSANALYSE
21
Poisson-Regression für Zähldaten
• Datensituation
Die Zielvariablen yi für i = 1, . . . , n nehmen Werte aus {0, 1, 2, . . .} an und sind bei gegebenen
Kovariablen xi = (xi1 , . . . , xik )T (bedingt) unabhängig.
• Verteilungsannahme
yi ∼ Po(λi )
wobei λi = E(yi |xi ) = Var(yi |xi )
• Strukturannahme
λi = exp(ηi ) = exp(β0 + β1 xi1 + . . . + βk xik ) = eβ0 · eβ1 xi1 · . . . · eβk xik
⇔
log λi = ηi = β0 + β1 xi1 + . . . + βk xik
Dieses Modell wird als log-lineares Poisson-Modell bezeichnet.
5
VERTEILUNGSTABELLEN
5
22
Verteilungstabellen
5.1
Standardnormalverteilung
Tabelliert sind die Werte der Verteilungsfunktion Φ(z) = P (Z ≤ z)
Ablesebeispiel: Φ(1.75) = 0.9599
Funktionswerte für negative Argumente: Φ(−z) = 1 − Φ(z)
Die z-Quantile ergeben sich genau umgekehrt.
Beispielsweise ist z(0.9599) = 1.75 und z(0.9750) = 1.96.
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
3.0
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
0.00
0.5000
0.5398
0.5793
0.6179
0.6554
0.6915
0.7257
0.7580
0.7881
0.8159
0.8413
0.8643
0.8849
0.9032
0.9192
0.9332
0.9452
0.9554
0.9641
0.9713
0.9772
0.9821
0.9861
0.9893
0.9918
0.9938
0.9953
0.9965
0.9974
0.9981
0.9987
0.9990
0.9993
0.9995
0.9997
0.9998
0.9998
0.9999
0.9999
1.0000
0.01
0.5040
0.5438
0.5832
0.6217
0.6591
0.6950
0.7291
0.7611
0.7910
0.8186
0.8438
0.8665
0.8869
0.9049
0.9207
0.9345
0.9463
0.9564
0.9649
0.9719
0.9778
0.9826
0.9864
0.9896
0.9920
0.9940
0.9955
0.9966
0.9975
0.9982
0.9987
0.9991
0.9993
0.9995
0.9997
0.9998
0.9998
0.9999
0.9999
1.0000
0.02
0.5080
0.5478
0.5871
0.6255
0.6628
0.6985
0.7324
0.7642
0.7939
0.8212
0.8461
0.8686
0.8888
0.9066
0.9222
0.9357
0.9474
0.9573
0.9656
0.9726
0.9783
0.9830
0.9868
0.9898
0.9922
0.9941
0.9956
0.9967
0.9976
0.9982
0.9987
0.9991
0.9994
0.9995
0.9997
0.9998
0.9999
0.9999
0.9999
1.0000
0.03
0.5120
0.5517
0.5910
0.6293
0.6664
0.7019
0.7357
0.7673
0.7967
0.8238
0.8485
0.8708
0.8907
0.9082
0.9236
0.9370
0.9484
0.9582
0.9664
0.9732
0.9788
0.9834
0.9871
0.9901
0.9925
0.9943
0.9957
0.9968
0.9977
0.9983
0.9988
0.9991
0.9994
0.9996
0.9997
0.9998
0.9999
0.9999
0.9999
1.0000
0.04
0.5160
0.5557
0.5948
0.6331
0.6700
0.7054
0.7389
0.7704
0.7995
0.8264
0.8508
0.8729
0.8925
0.9099
0.9251
0.9382
0.9495
0.9591
0.9671
0.9738
0.9793
0.9838
0.9875
0.9904
0.9927
0.9945
0.9959
0.9969
0.9977
0.9984
0.9988
0.9992
0.9994
0.9996
0.9997
0.9998
0.9999
0.9999
0.9999
1.0000
0.05
0.5199
0.5596
0.5987
0.6368
0.6736
0.7088
0.7422
0.7734
0.8023
0.8289
0.8531
0.8749
0.8944
0.9115
0.9265
0.9394
0.9505
0.9599
0.9678
0.9744
0.9798
0.9842
0.9878
0.9906
0.9929
0.9946
0.9960
0.9970
0.9978
0.9984
0.9989
0.9992
0.9994
0.9996
0.9997
0.9998
0.9999
0.9999
0.9999
1.0000
0.06
0.5239
0.5636
0.6026
0.6406
0.6772
0.7123
0.7454
0.7764
0.8051
0.8315
0.8554
0.8770
0.8962
0.9131
0.9279
0.9406
0.9515
0.9608
0.9686
0.9750
0.9803
0.9846
0.9881
0.9909
0.9931
0.9948
0.9961
0.9971
0.9979
0.9985
0.9989
0.9992
0.9994
0.9996
0.9997
0.9998
0.9999
0.9999
0.9999
1.0000
für z ≥ 0.
0.07
0.5279
0.5675
0.6064
0.6443
0.6808
0.7157
0.7486
0.7794
0.8078
0.8340
0.8577
0.8790
0.8980
0.9147
0.9292
0.9418
0.9525
0.9616
0.9693
0.9756
0.9808
0.9850
0.9884
0.9911
0.9932
0.9949
0.9962
0.9972
0.9979
0.9985
0.9989
0.9992
0.9995
0.9996
0.9997
0.9998
0.9999
0.9999
0.9999
1.0000
0.08
0.5319
0.5714
0.6103
0.6480
0.6844
0.7190
0.7517
0.7823
0.8106
0.8365
0.8599
0.8810
0.8997
0.9162
0.9306
0.9429
0.9535
0.9625
0.9699
0.9761
0.9812
0.9854
0.9887
0.9913
0.9934
0.9951
0.9963
0.9973
0.9980
0.9986
0.9990
0.9993
0.9995
0.9996
0.9997
0.9998
0.9999
0.9999
0.9999
1.0000
0.09
0.5359
0.5753
0.6141
0.6517
0.6879
0.7224
0.7549
0.7852
0.8133
0.8389
0.8621
0.8830
0.9015
0.9177
0.9319
0.9441
0.9545
0.9633
0.9706
0.9767
0.9817
0.9857
0.9890
0.9916
0.9936
0.9952
0.9964
0.9974
0.9981
0.9986
0.9990
0.9993
0.9995
0.9997
0.9998
0.9998
0.9999
0.9999
0.9999
1.0000
5
VERTEILUNGSTABELLEN
5.2
23
Students t-Verteilung
Tabelliert sind die Quantile für n Freiheitsgrade.
Für das Quantil t1−α (n) gilt F (t1−α (n)) = 1 − α.
Links vom Quantil t1−α (n) liegt die Wahrscheinlichkeitsmasse 1 − α.
Ablesebeispiel: t0.99 (20) = 2.528
Die Quantile für 0 < 1 − α < 0.5 erhält man aus tα (n) = −t1−α (n)
Approximation für n > 30:
tα (n) ≈ zα
(zα ist das (α)-Quantil der Standardnormalverteilung)
n
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
0.6
0.3249
0.2887
0.2767
0.2707
0.2672
0.2648
0.2632
0.2619
0.2610
0.2602
0.2596
0.2590
0.2586
0.2582
0.2579
0.2576
0.2573
0.2571
0.2569
0.2567
0.2566
0.2564
0.2563
0.2562
0.2561
0.2560
0.2559
0.2558
0.2557
0.2556
0.8
1.3764
1.0607
0.9785
0.9410
0.9195
0.9057
0.8960
0.8889
0.8834
0.8791
0.8755
0.8726
0.8702
0.8681
0.8662
0.8647
0.8633
0.8620
0.8610
0.8600
0.8591
0.8583
0.8575
0.8569
0.8562
0.8557
0.8551
0.8546
0.8542
0.8538
0.9
3.0777
1.8856
1.6377
1.5332
1.4759
1.4398
1.4149
1.3968
1.3830
1.3722
1.3634
1.3562
1.3502
1.3450
1.3406
1.3368
1.3334
1.3304
1.3277
1.3253
1.3232
1.3212
1.3195
1.3178
1.3163
1.3150
1.3137
1.3125
1.3114
1.3104
0.95
6.3138
2.9200
2.3534
2.1318
2.0150
1.9432
1.8946
1.8595
1.8331
1.8125
1.7959
1.7823
1.7709
1.7613
1.7531
1.7459
1.7396
1.7341
1.7291
1.7247
1.7207
1.7171
1.7139
1.7109
1.7081
1.7056
1.7033
1.7011
1.6991
1.6973
0.975
12.706
4.3027
3.1824
2.7764
2.5706
2.4469
2.3646
2.3060
2.2622
2.2281
2.2010
2.1788
2.1604
2.1448
2.1314
2.1199
2.1098
2.1009
2.0930
2.0860
2.0796
2.0739
2.0687
2.0639
2.0595
2.0555
2.0518
2.0484
2.0452
2.0423
0.99
31.821
6.9646
4.5407
3.7469
3.3649
3.1427
2.9980
2.8965
2.8214
2.7638
2.7181
2.6810
2.6503
2.6245
2.6025
2.5835
2.5669
2.5524
2.5395
2.5280
2.5176
2.5083
2.4999
2.4922
2.4851
2.4786
2.4727
2.4671
2.4620
2.4573
0.995
63.657
9.9248
5.8409
4.6041
4.0321
3.7074
3.4995
3.3554
3.2498
3.1693
3.1058
3.0545
3.0123
2.9768
2.9467
2.9208
2.8982
2.8784
2.8609
2.8453
2.8314
2.8188
2.8073
2.7969
2.7874
2.7787
2.7707
2.7633
2.7564
2.7500
0.999
318.31
22.327
10.215
7.1732
5.8934
5.2076
4.7853
4.5008
4.2968
4.1437
4.0247
3.9296
3.8520
3.7874
3.7328
3.6862
3.6458
3.6105
3.5794
3.5518
3.5272
3.5050
3.4850
3.4668
3.4502
3.4350
3.4210
3.4082
3.3962
3.3852
0.9995
636.62
31.599
12.924
8.6103
6.8688
5.9588
5.4079
5.0413
4.7809
4.5869
4.4370
4.3178
4.2208
4.1405
4.0728
4.0150
3.9651
3.9216
3.8834
3.8495
3.8193
3.7921
3.7676
3.7454
3.7251
3.7066
3.6896
3.6739
3.6594
3.6460
∞
0.2533
0.8416
1.2816
1.6449
1.9600
2.3263
2.5758
3.0903
3.2906
5
VERTEILUNGSTABELLEN
5.3
24
χ2 -Verteilung
Tabelliert sind die Quantile für n Freiheitsgrade.
Für das Quantil χ21−α (n) gilt F (χ21−α (n)) = 1 − α .
Links vom Quantil χ21−α (n) liegt die Wahrscheinlichkeitsmasse 1 − α.
Ablesebeispiel: χ20.95 (10) = 18.307
Approximation für n > 30:
√
1
χ2α (n) ≈ (zα + 2n − 1)2
2
n
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
0.01
0.0002
0.0201
0.1148
0.2971
0.5543
0.8721
1.2390
1.6465
2.0879
2.5582
3.0535
3.5706
4.1069
4.6604
5.2293
5.8122
6.4078
7.0149
7.6327
8.2604
8.8972
9.5425
10.196
10.856
11.524
12.198
12.879
13.565
14.256
14.953
0.025
0.0010
0.0506
0.2158
0.4844
0.8312
1.2373
1.6899
2.1797
2.7004
3.2470
3.8157
4.4038
5.0088
5.6287
6.2621
6.9077
7.5642
8.2307
8.9065
9.5908
10.283
10.982
11.689
12.401
13.120
13.844
14.573
15.308
16.047
16.791
0.05
0.0039
0.1026
0.3518
0.7107
1.1455
1.6354
2.1674
2.7326
3.3251
3.9403
4.5748
5.2260
5.8919
6.5706
7.2609
7.9616
8.6718
9.3905
10.117
10.851
11.591
12.338
13.091
13.848
14.611
15.379
16.151
16.928
17.708
18.493
(zα ist das α-Quantil der Standardnormalverteilung)
0.1
0.0158
0.2107
0.5844
1.0636
1.6103
2.2041
2.8331
3.4895
4.1682
4.8652
5.5778
6.3038
7.0415
7.7895
8.5468
9.3122
10.085
10.865
11.651
12.443
13.240
14.041
14.848
15.659
16.473
17.292
18.114
18.939
19.768
20.599
0.5
0.4549
1.3863
2.3660
3.3567
4.3515
5.3481
6.3458
7.3441
8.3428
9.3418
10.341
11.340
12.340
13.339
14.339
15.338
16.338
17.338
18.338
19.337
20.337
21.337
22.337
23.337
24.337
25.336
26.336
27.336
28.336
29.336
0.9
2.7055
4.6052
6.2514
7.7794
9.2364
10.645
12.017
13.362
14.684
15.987
17.275
18.549
19.812
21.064
22.307
23.542
24.769
25.989
27.204
28.412
29.615
30.813
32.007
33.196
34.382
35.563
36.741
37.916
39.087
40.256
0.95
3.8415
5.9915
7.8147
9.4877
11.070
12.592
14.067
15.507
16.919
18.307
19.675
21.026
22.362
23.685
24.996
26.296
27.587
28.869
30.144
31.410
32.671
33.924
35.172
36.415
37.652
38.885
40.113
41.337
42.557
43.773
0.975
5.0239
7.3778
9.3484
11.143
12.833
14.449
16.013
17.535
19.023
20.483
21.920
23.337
24.736
26.119
27.488
28.845
30.191
31.526
32.852
34.170
35.479
36.781
38.076
39.364
40.646
41.923
43.195
44.461
45.722
46.979
0.99
6.6349
9.2103
11.345
13.277
15.086
16.812
18.475
20.090
21.666
23.209
24.725
26.217
27.688
29.141
30.578
32.000
33.409
34.805
36.191
37.566
38.932
40.289
41.638
42.980
44.314
45.642
46.963
48.278
49.588
50.892
Herunterladen
Explore flashcards