1. Mathematik, Folgen und Reihen, Potenzreihen 2. Mathematik

Werbung
1. Mathematik, Folgen und Reihen, Potenzreihen
2. Mathematik, Differential- und Integralrechnung
3. Binomial- und Hypergeometrische Verteilung, Approximationen
4. Normalverteilung, Berechnen von Wahrscheinlichkeiten
5. Chi-Quadrat-Verteilung, Erwartungswert, Varianz
6. Nullhypothese, Alternativhypothese, Tests, p-Werte
7. Lineare Algebra, Matrizenrechnung
8. Eigenwerte,Eigenvektoren
1
W.Kössler, Humboldt-Universität zu Berlin
3a. Bsp. X ∼ Bi(n, p),
p = 0.1, n = 25
exakt (Binomial):
25 X
n k
P (X ≥ 5) =
p (1 − p)n−k
k
k=5
= 1 − P (X ≥ 4) = 1 − CDF(’Binomial’,4,p,n)
= 0.097994
approximativ (ZGWS, normal)
P (X > 4) = 1 − P (X ≤ 4)
4 − np X − np
≤p
= 1−P p
np(1 − p)
np(1 − p)
1.5 = 1 − Φ(1) = Φ(−1)
≈ 1−Φ
5 · 0.3
= CDF(’Normal’,-1,0,1) = 0.15866
P (X ≥ 5) = 1 − P (X < 5)
5 − np X − np
≈ 1−P p
<p
np(1 − p)
np(1 − p)
5 − 2.5 = 1−Φ
5 · 0.3
5
5
= 1−Φ
= Φ − = 0.04779
3
3
2
W.Kössler, Humboldt-Universität zu Berlin
approximativ (ZGWS, normal, Stetigkeitskorrektur):
X − np − 0.5 5 − np − 0.5 P (X > 5) ≈ 1 − P p
≤ p
np(1 − p)
np(1 − p)
4.5 − 2.5 4
=1−Φ
= 1−Φ
5 · 0.3
3
4
= Φ − = 0.09121
3
Die Approximation der Binomial- durch eine Normalverteilung ist hier nicht so gut (vor allem ist p =
0.1 klein).
3b. Hypergeometrische und Binomial Verteilung
Seien
m k
f (k|Bi(m, p)) =
p (1 − p)m−k Binomialwkt.
k
und
f (k|HN,n,m) =
n
k
·
N −n
m−k
N
m
Hypergeom.wkt.
Satz: Es gilt Für N → ∞, n → ∞, Nn → p gilt:
m k
f (k|HN,n,m) →
p (1−p)m−k = f (k|Bi(m, p))
k
3
W.Kössler, Humboldt-Universität zu Berlin
Beweis: Es gilt
f (k|HN,n,m) =
=
=
=
=
=
→
4
n
k
·
N −n
m−k
N
m
n! · (N − n)! · m!(N − m)!
k!(n− k)! · (N − n − m + k)!(m − k)! · N !
n! (N − m)!
m
(N − n)!
N!
k (N − n − m + k)! (n − k)!
m
(N − n − m + k + 1) · · · (N − n) ·
k
(n − k + 1) · · · n
(N −
m + 1) · · · N
m (N − n − m + k + 1) · · · (N − n)
·
m−k
N
k
(n − k + 1) · · · n
Nm
k
N
(N − m + 1) · · · N
m
m−k−1
m−k−2
)(1 − p −
) · · · (1 −
(1 − p −
k
N
N
(p − k−1
N )···p
m−2
1
(1 − m−1
)(1
−
)
·
·
·
(1
−
)·1
N
N
N
m
(1 − p)m−k pk = f (k|Bi(m, p))
k
W.Kössler, Humboldt-Universität zu Berlin
5a. χ2-Verteilung
Def.: Seien Xi ∼ N (0, 1), i = 1, . . . , n, und unabhängig. Dann ist
Y =
n
X
Xi2 ∼ χ2n
i=1
χ2-verteilt mit n Freiheitsgraden.
Erwartungswert und Varianz lassen sich leicht ausrechnen:
E(Y ) = nE(X)2 = var(X) + (E(X))2 = n(1 + 0) = n
var(Y ) = n · var(X 2) = n(EX 4 − (E(X 2))2)
= n(3 − 12) = 2n
Anmerkung: Die Dichte von Y ist gegeben durch
(y > 0)
5
1
− y2 n2 −1
fχ2n (y) = n/2 n e y .
2 Γ( 2 )
W.Kössler, Humboldt-Universität zu Berlin
5b. Sei X ∼ Exp(λ). Zeigen Sie:
EX = λ
varX = λ2.
und
Beweis:
∞
1 −x
EX =
x · e λ dx =
λ
0
Z ∞
x
− λx
−λ ∞
(−e ) dx
= x(−e )|0 −
Z
0
= λ.
2
EX =
Z
∞
2 1 − λx
x e
λ
0
− λx
2
= x (−e
)|∞
0
dx =
Z
−
∞
x
2x(−e− λ ) dx
0
2
= 2λ
varX = 2λ2 − λ2 = λ2 .
6
W.Kössler, Humboldt-Universität zu Berlin
6. Im zweiseitigen Fall ist H0 : µ = µ0. HA : µ 6= µ0,
d.h. der Parameterraum ist Θ = R.
Im einseitigen Fall gibt es folgende Varianten
H0 : µ ≤ µ0 und HA : µ > µ0,
d.h. Θ = R (V) oder
H0 : µ = µ0 und HA : µ > µ0 ,
d.h. Θ = {µ : µ ≥ µ0} (ÜA 12a)
Beide Fälle werden gleich behandelt.
Wenn t die Realisierung von T ist und t < 0 dann
wird H0 ohnehin nicht abgelehnt, der p-Wert ist größer
als 0.5.
Der Fall
H0 : µ ≥ µ0 und HA : µ < µ0 oder
H0 : µ = µ0 und HA : µ < µ0
ist analog.
7
W.Kössler, Humboldt-Universität zu Berlin
7. Matrizenmultiplikation ist assoziativ, nicht kommutativ.
Sei X = (X1, . . . , n) der Beobachtungsvektor. Sei
I die Einheitsmatrix und 1 die Matrix, die nur aus
Einsen besteht. Es gilt (bitte nachrechnen)
(n − 1)s2 =
n
X
(Xi − X)2 = XT AX,
i=1
wobei
1
A=I− 1
n
Weiterhin gilt: A ist symmetrisch und (bitte nachrechnen)
A2 = A
Bem.: Matrizen mit dieser Eigenschaft heißen idempotent.
Seien die Xi ∼ N und die Matrix A idempotent.
Dann sind Quadratische Formen XT AX ∼ χ2f g mit
f g = rg(A) Freiheitsgraden.
8
W.Kössler, Humboldt-Universität zu Berlin
Herunterladen