Grundlagen Diskrete Verteilungen Stetige Verteilungen Formeln

Werbung
Grundlagen
σ-Algebren
A ist σ-Algebra, gdw.:
Ω ∈ A, Ac ∈ A, ∪∞
i=1 Ai ∈ A
Mengengrenzwerte
unendlich viele:
∞ [
∞
\
lim sup An =
An
k=1 n=k
alle bis auf endlich viele:
∞ \
∞
[
lim inf An =
An
k=1 n=k
Wahrscheinlichkeitsmaß
0 ≤ P (ω) ≤ 1
P
P (ω) = 1
ω∈Ω
P
P
P ( Ai ) =
P (Ai )
c
P (A ) = 1 − P (A)
A⊂
≤ P (B)
S B ⇒ P (A)P
∞
P( ∞
i=1 Ai ) ≤
i=1 P (Ai )
Siebformel
n
n
[
X
k−1
P(
Ak ) =
(−1)
k=1
k=1
·
X
P (Ai1 ∩ · · · ∩ Aik )
1≤i1 <i2 ···<ik ≤n
Also:
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
Bedingte Wahrscheinlichkeiten
P (A∩B)
P (A|B) := P (B)
Bi seien P
eine Partition:
n
P (A) =
i=1 P (Bi )P (A|Bi )
Satz v. Bayes:
P (A|Bk )·P (Bk )
P (Bk |A) = P∞ P (A|B
)·P (B )
i
i=1
i
Diskrete Verteilungen
Gleichverteilung
1
(i =
P (X = xi ) = pX (xi ) = n
Pn
1
1, . . . , n) EX = n
i=1 xi
Var(X)
Pn = 2
Pn
2
1
1
i=1 xi − n (
i=1 xi )
n
Binomialverteilung
X ∼ B(n, p)
k
n−k
pX (k) = n
k p(1− p)
X
n k
n−k
FX (x) =
p (1 − p)
k
k≤x
EX = np, Var(X) = np(1 − p)
gX (s) = (1 − p + sp)n
neg. Binomialverteilung
X ∼ N egB(n, p)
k
n−k
pX (k) = n−1
k−1 p (1 − p)
X
n k
n−k
FX (x) =
p (1 − p)
k
k≤x
EX =
n
p,
Var(X) = n
(1−p)
p2
Hypergeometrische Verteilung
W’keit, bei m Versuchen ohne
Zurücklegen von n s/w-Kugeln k
der r weißen zu ziehen.
X ∼ Hypergeom(n, r, m)
r n−r pX (k) =
EX = rm
n
Var(X) =
k
m−k
n
m
rm
n (1
−
n−m
r
n )( n−1 )
Geometrische Verteilung
W’keit beim k-ten Versuch den 1.
Treffer zu bekommen, p
Trefferw’keit. pX (k) = (1 − p)k−1 p
1
EX = p
, Var(X) = 1−p
p2
Poisson-Verteilung
X ∼ Po(λ) Approximation der
Binomialvert. mit λ = np
k
pX (k) = e−λ λk! (k = 0, . . .)
EX = Var(X) = λ
gX (s) = eλ(s−1) X ∼ Po(λ0 ), Y ∼
Po(λ1 ) ⇒ X + Y ∼ Po(λ0 + λ1 )
Stetige Verteilungen
Gleichverteilung
X ∼ U (a,(b)
1
, a<x<b
fX (x) = b−a
0,
sonst
x−a
b−a auf (a, b)
a+b
1
2 , Var(X) = 12 (b
FX (x) =
EX =
Exponentialverteilung
X ∼ Exp(λ),
( λ>0
λe−λx , x ≥ 0
fX (x) =
0,
x<0
− a)2
FX (x) = 1 − e−λx
1
EX = λ
, Var(X) = λ12
Gedächtnislosigkeit: P (X ≥ t|X ≥
s) = P (X ≥ t − s) (0 < s < t)
Normalverteilung
X ∼ N (µ, σ 2 )
!
1
(x − µ)2
fX (x) = √
exp −
2σ 2
2πσ
EX = µ, Var(X) = σ 2
!
Z x
1
y2
Φ(x) =
dy
exp −
√
2
2π
−∞
Φ(x) = 1 − Φ(−x)
Φ−1 (x) = −Φ−1 (1 − x)
EX = µ, Var(X) = σ 2
Sei X ∼ N (µ, σ 2 ).
⇒ Z := X−µ
∼ N (0, 1)
σ
Standardnormalverteilung:
µ = 0, σ 2 = 1
Faltungsstabil:
X1 + X2 ∼ N (µ1 + µ2 , σ12 + σ22 )
X ∼ N (0, 1) :
R∞
x2
cos(tx) √12π e− 2 dx
ϕX (t) = −∞
ϕ0X (t) = −tϕX (t)
Gammaverteilung
X ∼ G(α,(λ)
λα
xα−1 e−λx , x ≥ 0
fX (x) = Γ(α)
,
0,
x<0
R ∞ α−1 −t
e dt
wobei Γ(α) := o t
α
EX = α
λ , Var(X) = λ2
X ∼ G(α, λ1 ), Y ∼ G(α, λ2 ) ⇒
X + Y ∼ G(α, λ1 + λ2 )
für α = 1 erhält man die
Exponentialverteilung.
Formeln
Erwartungswert
(Existenz falls mit | · | noch < ∞)
P∞
diskret: EX
=
k=1 xk PX (k)
P∞
g(xk )PX (k)
Eg(X) =
k=1
R∞
stetig: EX = −∞ xfX (x)dx
R∞
Eg(X) = −∞
g(x)fX (x)dx
E(aX + bY ) = aEX + bEY
Falls
Qn
Q Xi unkorreliert:
E( n
i=1 E(Xi )
i=1 Xi ) =
Erwartungsvektor:
X = (X1 , . . . , Xn ) ZV, EXi2 < ∞ :
EX := (EX1 , . . . , EXn )
Cauchy-Schwarze Ungleichung:
Var(X), Var(Y )ex.
⇒ (EXY )2 ≤ EX 2 EY 2
Varianz
Var(X) := E((X − EX)2 ) =
EX 2 − (EX)2 ≥ 0
Daher auch:
EX 2 = Var(X) + (EX)2
Var(aX + b) = a2 Var(X)
FallsP
Xi nicht unkorreliert:
Pn
Var( n
i=1
i=1 Var(Xi )+
P Xi ) =
2 · 1≤i<j≤n Cov(Xi , Xj )
FallsP
Xi unkorreliert:
Pn
Var( n
i=1 Xi ) =
i=1 Var(Xi )
Standardabweichung:
p
σ(X) := Var(X)
Urnenmodell
Mit Zurückl., mit Reihenflg. (k
unterscheidbare Objekte mit
Mehrfachbel. auf n Fächer): nk
Mit Zurückl., ohne Reihenflg. (nicht
untersch. O., mit Mehrfachbel.) :
n+k−1
gdw. bis auf eine Nullmenge:
Q
fXi (xi )
fX1 ,...,Xn (x1 , . . . , xn ) =
Sätze:
X, Y unabh. ⇒ EXY = EXEY
X1 , . . . , Xn unabh
⇒ Var(X1 + · · · + Xn ) =
P
n
i=1 Var(Xi )
Kovarianz
Cov(X, Y ) = E(X −EX)(Y −EY ) =
EXY − EXEY
Cov(X, X) = Var(X)
Cov(aX + bY, Z)
= a Cov(X, Z) + b Cov(Y, Z)
= Cov(Z, aX + bY )
X, Y unkorreliert: gdw.
Cov(X, Y ) = 0
X, Y unabh. ⇒ X, Y unkorr.
Kovarianzmatrix:
X = (X1 , . . . , Xn ) ⇒ Cov(X) :=
(Cov(Xi , Xj ))i,j=1,...,n
Korrelationskoeffizient: Ist
Var(X)
· Var(Y ) > 0 so gilt:
≤1
ρ(X, Y ) := √ Cov(X,Y )
Var(X) Var(Y ) Erzeugende Fkt (diskret)
gX : [−1, 1] → R
P∞
k
X
gX (s) =
k=0 pX (k)s = Es
g
(k)
(0)
gX (1) = 1, pX (k) = Xk!
0
EX = gX
(1− ), Var(X) =
00
0
0
gX
(1− ) + gX
(1− ) − (gX
(1− ))2
X, Y unabh, diskret
⇒ gX+Y (s) = gX (s)gY (s)
Konvergenzbegriff für ZV
P-fast sicher
fs
Xn → X wenn:
P ({ω ∈ Ω| lim Xn (ω) = X(ω)}) = 1
n→∞
in Wahrs’keit, stochastisch
P
d
Xn → X
ϕXn (t) → ϕ(t)
stetig in 0
∀ t ∈ R und ϕ
Parameterschätzung
Defnitionen
Pn
1
Stichprobenmittel: x̄ = n
i=1 xi
Stichprobenvarianz:
P
n
2
1
S 2 (x) = n−1
i=1 (xi − x̄)
Maximum-Likelihood-Methode
Likelihood-Funktion:
Lx (θ) = fθ (x1 ) · · · · · fθ (xn )bzw.
Lx (θ) = pθ (x1 ) · · · · · pθ (xn )
Maximum-Likelihood-Schätzer
MLS: bei welchen θ ist Lx maximal.
Oft einfacher: ln Lx (θ) maximieren.
Q
P
(ln a · b = ln a + ln b, ln
=
ln)
Momentenmethode
Pro zu schätzenden Parameter ein
empirisches Moment mit dem der
Verteilung gleichsetzen. Also:
Pn
!
k
1
µk (θ) = Eθ X k = xk := n
i=1 xi
Eigenschaften
Erwartungstreu: Eθ T (X) = θ
ET hat i.A. nix mit EX zu tun!
Bias: bT (θ) := Eθ T (X) − θ
Mittlerer Quadratischer Fehler:
MSE(T ) := Eθ (T (x) − θ)2
unbiasd: MSE(T ) = Varθ (T )
Fisher-Info.
∂
I(θ) := Eθ ( ∂θ
log LX (θ))2
Ungleichung von Cramér-Rao
Varθ (T (X)) ≥
(1+ ∂ bT (θ))2
∂θ
I(θ)
Konfidenzintervalle
Gesucht sind ZV L und U mit
L(x) ≤ U (x) und
Pθ (L(x) ≤ θ ≤ U (x)) = 1 − α
Xn → X wenn,
Testtheorie
∀ε > 0
lim P ({ω ∈ Ω|Xn (ω)−X(ω)| ≥ ε}) = 0Überprüfen, ob ein Parameter θ
n→∞
einer Verteilung in Θ0 oder Θ1
in Verteilung
(Θ0 + Θ1 = Θ) ist.
d
Xn → X wenn ∀x mit FX stetig:
Einseitiger Test:
lim FXn (x) = FX (x)
H0 : θ ≤ θ0 vs. H1 : θ > θ0
n→∞
Zweiseitiger Test:
Implikationen
H0 : θ = θ0 vs. H1 : θ 6= θ0
f.s. ⇒ in Wahrs’keit
Test, Fehler und Güte
in Wahrs’keit ⇒ in Verteilung
Sei x ∈ χn eine Stichprobe.
in Verteilung gegen eine Konstante
ϕ : χn → {1, 0} heißt Test:
c ∈ R ⇒ in Wahrs’keit
Mit ϕ(x) = 1 lehnen wir H0 für x ab
Gütefkt: β gibt W’keit an, mit der
Grenzwertsätze
H0 wir ablehnen
Kolmogorov
β(θ) = Pθ (ϕ(x) = 1)
(Starkes Gesetz der großen Zahlen)
F. 1. Art: Test: H1“ aber H0 wahr.
Xi unabh. und identisch vert,
”
Pn
f.s.
F. 2. Art: Test: H0“ aber H1 wahr.
1
E|X1 | < ∞: n
X
→
EX
”
i
1
i=1
Niveau: α=
ˆ W’keit für Fehler 1. Art
Zentraler Grenzwertsatz
≤ α. Also: β(θ) ≤ α
Xi u.i.v., E|X1 | < ∞,
Man legt α fest. Also muss der
0P
< Var(X1 ) < ∞: für n → ∞ gilt:
Fehler 1. Art der schlimmere sein
n
i=1 Xi − n · EX1 d
→ X ∼ N (0, 1) (z.B. unwirksames Medikament als
p
wirksam bedacht oder Ham als
n · Var(X1 )
also P
Spam eingeordnet). Danach erst
!
n
minimiert man den Fehler 2. Art.
i=1 Xi − nEX1
P
≤ x → Φ(x) Eselsbrücke: Hypothese H =
p
0 ˆ Ham.
n · Var(X1 )
Likelihood-Quotienten Test
Zweiseitiger Grenzwertsatz
Likelihood-Quotient:
Gleiche Voraussetzungen wie oben:
! q(x) := supθ∈Θ0 Lx (θ)
Pn
supθ∈Θ Lx (θ)
1
i=1 Xi − n · EX1
P a≤
≤b
p
Test derForm:
n · Var(X1 )

0
q(x)
> c0

→ Φ(b) − Φ(a)
ϕ(x) = γ, q(x) = c0

k
1
q(x) < c0
Ohne Zurückl., mit Reihenflg.
Charkteristische
Funktion
(untersch. O., ohne Mehfachbel.):
Spezialfall:
Neyman-Pearson-T.

n!
∗
X ZV, ϕX : R → C

(n−k)!
1 Lx (θ1 ) > c Lx (θ0 )
itX
ϕX (t) := Ee
= E cos(tX)+iE sin(tX)
∗
∗
Ohne Zurückl., ohne Reihenflg.
ϕ (x) = γ Lx (θ1 ) = c Lx (θ0 )

X diskret ⇒ ϕX (t) = gX (eit )
0 L (θ ) < c∗ L (θ )
(nicht untersch. O.,
ohne
x 1
x 0
X
abs
stetig
Mehrfachbel.): n
R ∞ itx
k
⇒
ϕ
(t)
=
e
f
(x)dx
X
X
−∞
Tschebyscheff Ungleichung
ϕX (0) = 1 |ϕX (t)| ≤ 1 ∀ t ∈ R
P (|X − EX| ≥ ε) ≤ ε12 Var(X)
a, b ∈ R:
Faltungsformel
ϕaX+b (t) = eibt ϕX (at) ϕX (t) ist
(X, Y ) abs stetige ZV, mit gem
glm stetig auf R
Dichte fXY ⇒ Z := X + Y ist abs
X, Y unabh ZV
stetige ZV
mit Dichte:
R∞
⇒ ϕX+Y (t) = ϕX (t)ϕY (t)
fZ (x) = −∞ fX,Y (t, x − t)dt
E|X|n < ∞, n ∈ N ⇒ ϕX n-mal db
X, Y unabh
(n)
R ∞ ⇒ Faltungsformel:
und: ϕX (0) = in EX n
fZ (x) = −∞
fX (t)fY (x − t)dt
X, Y ZV mit gleicher char Fkt, so
Unabhängingkeit von ZV
auch gleiche Verteilung.
Def.:
(Xn ) Folge von ZV mit FXn (x) und
Q
FX1 ,...,Xn (x1 , . . . , xn ) =
FXi (xi ) ϕXn (t) so ist äquivalent:
Hilfreiche Rechenregeln
Diskrete
Pn
n
k n−k
= (a + b)n
k=0 k a b
Integrale
R
R
f · g = [f · G] − f 0 · G
2
R∞
−x
2 dx = 1
√1 e
−∞
2π
(1 − α)-Konfidenzintervalle
Regenwurmaufgabe
Annahme: Länge d. Regenwurm auf
(0, θ) gleichverteilt. Maximallänge
von n Würmern liegt vor. Gebe ein
(1 − α)-KonfInt für d θ an. Lösung:
Pθ (max{X1 , . . . , Xn } ≥ x) =
1 − Pθ (X
n 1 < x) · · · · · Pθ (Xn
√< x) =
1− x
= 1 − α ⇒ x = θ n α.
θ
Somit: max{X1 , . . . , Xn } ≥
√
max{X1 ,...,Xn }
√
θnα⇔θ≤
n
α
Konfidenzintervall:
h
i
max{X1 ,...,Xn }
√
max{X1 , . . . , Xn },
n
α
Scriptbeispiel 15.2
Schätzung der
Erfolgswahrscheinlichkeit,
X ∼ B(m, θ), Θ = [0, 1] Dann gilt:
L(x) = m+(z1 )2 ·
α
2

(z α )2
2
2
r
(z α )2
2
4

√
n c−µ
Es genügt:
σ
βc (µ) = 1 − Φ
H0 : µ = µ0 vs H1 : µ 6= µ0
Der zugehörige
ist:
( √ Test
x−µ 0, n S(x)0 ≤ tn−1 (1 − α
2)
U (x) = m+(z1 )2 ·
ϕ(x)
=
√
√ c − µ0
x−µ α
1, n S(x)0 > tn−1 (1 − α
β
(µ
)
≤
α
⇔
1−Φ
n
≤
α
2
2)
c
0


r
σ0
(z α )2
(z α )2
|
{z
}
x(m−x)
Test
auf
die
Varianz
2
2
x +

=z1−α
− zα
+
2
m
4
2
Pµ,σ2 = N (µ, σ 2 ),
z
σ0
√
+ µ0 =: c∗
⇔ c ≥ 1−α
n
θ = (µ, σ 2 ) ∈ Θ = R × R+ . wie
wobei x Treffer der Stichprobe,
Test auf Mittelw, Var
gehabt.
z α = Φ−1 ( α
).
2
2
unbekannt (sog.t-Test)
2
Einseitiger Test:
Pµ,σ2 = N (µ, σ ),
Hypothesentest
H0 : σ 2 ≤ σ02 vs. H1 : σ 2 > σ02
2
2
θ
=
(µ,
σ
)
∈
Θ
=
R
×
R
.
σ
ist
+
Test auf Mittelw, Var bekannt
Es gilt:
hier nicht bekannt!
X = (X1 , ..., Xn ), Xi ∼ Pµ =
(n − 1)S(X)2
Einseitiges Testproblem:
N (µ, σ02 ), σ0 bekannt, µ ∈ Θ = R.
≤ x) = Fχ2
(x)
Pµ,σ2 (
H
:
µ
≤
µ
vs
H
:
µ
>
µ
für
ein
0
0
1
0
n−1
σ02
Einseitiger Test
festes
µ
∈
R
0
H0 : µ ≤ µ0 vs H1 : µ > µ0
Folgender
X = (X1 , . . . , Xn ) Zufallsstichprobe
 Test tut es: 2
mit µ0 ∈ R geg.
0, (n−1)S(x) ≤ χ2 (1 − α)
zu
P
Sinnvoller Test:
µ,σ 2 . Dann gilt:
n−1
σ0
ϕ(x) =
√ X−µ
0 , x≤c
1, (n−1)S(x)2 > χ2 (1 − α)
n
∼
t
,
wir
mussten
also
n−1
ϕ(x) =
S(X)
n−1
σ
1 , x>c
0
Pn
im Gegensatz zu oben σ durch S(X)
1
X
.
c
∈
R
nun
zu
x= n
Zweiseitiger
Test
i
i=1
ersetzen.
bestimmen, sodass Testnivea α
H0 : σ = σ0 vs. H1 : σ 6= σ0
Folgender Test hält α:
eingehalten.
Hier gewinnt:
√ x−µ

(
√ x−µ
Betrachte n σ
(n−1)S 2 (x)

> χ2n−1 ( α
0

0, n S(x)0 ≤ tn−1 (1 − α)
σ0
2)
0,
!
ϕ(x) =
√ x−µ0
2 (x)
(n−1)S
2
1, n S(x) > tn−1 (1 − α) ϕ(x) = 0,
√ X−µ
<
χ
(1
− α
n−1

σ0
2)

Pµ
≤ x = Φ(x)
n

Zweiseitiger
Test:
σ0
1, sonst
x +
+ zα
2
x(m−x)
m
+
0
βc (µ0 ) ≤ α
Dieses Blatt ist ein http://mitschriebwiki.nomeata.de/-Projekt.
Letze Änderung: 3. Mai 2017 –time–
Herunterladen