Wahrscheinlichkeitsrechnung

Werbung
Wahrscheinlichkeitsrechnung
Rechenregeln für Mengen. Für Mengen A, B, C gilt
A ∪ B = B ∪ A,
A ∩ B = B ∩ A,
(A ∪ B) ∪ C = A ∪ (B ∪ C),
(A ∩ B) ∩ C = A ∩ (B ∩ C),
(A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C),
A⊂B
(A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C),
⇐⇒
Für Mengen A1 , . . . , An gilt
!c
n
n
[
\
Ai =
Aci ,
i=1
Ac ⊃ B c .
n
\
i=1
!c
Ai
=
i=1
n
[
Aci .
i=1
Rechenregeln für W-Maße. Sei (Ω, P ) ein W-Modell. Dann ist P (A) ≥ 0
für alle A ⊂ Ω, P (Ω) = 1, und für paarweise disjunkte Ereignisse A1 , A2 , . . .
gilt
P (A1 ∪ A2 ∪ . . . ) = P (A1 ) + P (A2 ) + . . .
Für Ereignisse A, B, C gilt
P (∅) = 0,
P (Ac ) = 1 − P (A),
P (A ∪ B) = P (A) + P (B) − P (A ∩ B),
P (A∪B∪C) = P (A)+P (B)+P (C)−P (A∩B)−P (A∩C)−P (B∩C)+P (A∩B∩C),
P (B \ A) = P (B) − P (A ∩ B).
Falls A ⊂ B, dann gilt P (A) ≤ P (B) und P (B \ A) = P (B) − P (A).
Falls die Ereignisse A1 , A2 , . . . eine Zerlegung von Ω bilden, dann gilt für
jedes Ereignis B
P (B) = P (B ∩ A1 ) + P (B ∩ A2 ) + . . . .
Ist die Ergebnismenge Ω diskret, so gilt für jedes Ereignis A
X
P (A) =
pω , wobei pω = P ({ω}).
ω∈A
Im Laplace-Modell gilt P (A) = |A|/|Ω|.
Bedingte Wahrscheinlichkeiten. Für Ereignisse A, B mit P (B) > 0 heißt
P (A|B) =
P (A ∩ B)
P (B)
die bedingte Wahrscheinlichkeit von A gegeben B.
1
Multiplikationssatz. Für Ereignisse A1 , . . . , An mit P (A1 ∩ · · · ∩ An−1 ) > 0
gilt
P (A1 ∩A2 ∩· · ·∩An ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩A2 ) · · · P (An |A1 ∩· · ·∩An−1 ).
Satz von der totalen Wahrscheinlichkeit. Bilden die Ereignisse A1 , . . . , An
eine Zerlegung von Ω mit P (Ai ) > 0 für alle i = 1, . . . , n, dann gilt für jedes
Ereignis B
n
X
P (B) =
P (B|Ai )P (Ai ).
i=1
Satz von Bayes. Bilden die Ereignisse A1 , . . . , An eine Zerlegung von Ω mit
P (Ai ) > 0 für alle i = 1, . . . , n, dann gilt für jedes Ereignis B mit P (B) > 0
P (B|Ak )P (Ak )
,
P (Ak |B) = Pn
i=1 P (B|Ai )P (Ai )
k = 1, . . . , n.
Unabhängigkeit. Ereignisse A, B heißen unabhängig, wenn P (A ∩ B) =
P (A)P (B). Die Ereignisse aus einer beliebigen Menge M von Ereignissen heißen unabhängig, falls für jede endliche Auswahl von verschiedenen
Ereignissen A1 , . . . , An ∈ M gilt
P (A1 ∩ · · · ∩ An ) = P (A1 ) · · · P (An ).
Zufallsvariable X1 , . . . , Xn heißen unabhängig, falls für alle a1 , . . . , an ∈ R
gilt
P (X1 ≤ a1 , . . . , Xn ≤ an ) = P (X1 ≤ a1 ) · · · P (Xn ≤ an ).
Falls X1 , . . . , Xn unabhängig sind, dann gilt für alle B1 , . . . , Bn ⊂ R
P (X1 ∈ B1 , . . . , Xn ∈ Bn ) = P (X1 ∈ B1 ) · · · P (Xn ∈ Bn ).
Sind X1 , . . . , Xn diskrete Zufallsvariable, dann sind X1 , . . . , Xn genau dann
unabhängig, wenn für alle b1 , . . . , bn ∈ R gilt
P (X1 = b1 , . . . , Xn = bn ) = P (X1 = b1 ) · · · P (Xn = bn ).
Eigenschaften der Verteilungsfunktion. Sei F die Verteilungsfunktion
einer Zufallsvariablen X, also F (t) = P (X ≤ t). Dann gilt
0 ≤ F (t) ≤ 1,
t ∈ R,
P (s < X ≤ t) = F (t)−F (s),
P (X > t) = 1 − F (t),
lim F (t) = 0,
t→−∞
s < t,
lim F (t) = 1,
t→∞
P (X = t) = F (t)−F (t−),
P (X ≥ t) = 1 − F (t−),
2
t ∈ R.
t ∈ R,
Rechenregeln für den Erwartungswert. X, Y seien Zufallsvariable.
E(aX + bY ) = aE(X) + bE(Y ) für alle a, b ∈ R.
E(XY ) = E(X)E(Y ), falls X und Y unabhängig sind.
E(X) ≤ E(Y ), falls X ≤ Y.
Ist X diskret mit möglichen Werten a1 , a2 , . . . , dann gilt für jede Funktion
g:R→R
X
E[g(X)] =
g(ai )P (X = ai ).
i
Ist X eine Zufallsvariable mit Dichte f , dann gilt für jede Funktion g : R → R
Z ∞
g(x)f (x) dx.
E[g(X)] =
−∞
Rechenregeln für die Varianz. X, Y seien Zufallsvariable.
Var(X) = E[(X − E(X))2 ] = E(X 2 ) − [E(X)]2 .
Var(a + bX) = Var(bX) = b2 Var(X) für alle a, b ∈ R.
Var(X + Y ) = Var(X) + Var(Y ), falls X und Y unabhängig sind.
Tschebyscheff-Ungleichung. Für jede Zufallsvariable X und alle δ > 0
gilt
Var(X)
.
P (|X − E(X)| ≥ δ) ≤
δ2
Schwaches Gesetz der großen Zahlen. Seien X1 , X2 , . . . unabhängige,
identisch verteilte Zufallsvariable. Dann gilt für alle δ > 0
1
lim P (X1 + · · · + Xn ) − E(X1 ) ≥ δ = 0.
n→∞
n
Starkes Gesetz der großen Zahlen. Seien X1 , X2 , . . . unabhängige, identisch verteilte Zufallsvariable. Dann folgt
1
P lim (X1 + · · · + Xn ) = E(X1 ) = 1.
n→∞ n
Zentraler Grenzwertsatz. Seien X1 , X2 , . . . unabhängige, identisch verteilte Zufallsvariable mit µ = E(X1 ) und σ 2 = Var(X1 ) > 0. Sei Sn =
X1 + · · · + Xn . Dann gilt für alle a < b
Z b
Sn − nµ
1
2
lim P a ≤ √
≤b = √
e−x /2 dx.
n→∞
2π a
nσ 2
3
Diskrete Verteilungen
Bernoulli-Verteilung. X ∼ BER(p), 0 ≤ p ≤ 1,
P (X = 1) = p,
P (X = 0) = 1 − p,
E(X) = p,
Var(X) = p(1 − p).
Binomialverteilung. X ∼ BIN(n, p), n ∈ N, 0 ≤ p ≤ 1,
n k
P (X = k) =
p (1 − p)n−k , k = 0, 1, . . . , n,
k
Var(X) = np(1 − p).
E(X) = np,
Geometrische Verteilung. X ∼ GEO(p), 0 < p ≤ 1,
P (X = k) = (1 − p)k−1 p,
1
E(X) = ,
p
k = 1, 2, . . . ,
Var(X) =
1−p
.
p2
Poisson-Verteilung. X ∼ POI(λ), λ ≥ 0,
P (X = k) =
λk −λ
e ,
k!
k = 0, 1, . . . ,
E(X) = Var(X) = λ.
Stetige Verteilungen
Gleichverteilung. X ∼ UNI(a, b), a < b,


0,
x < a,

x − a
, a ≤ x ≤ b,
VF: F (x) =

b−a


1,
x > b,

 1 , x ∈ [a, b],
Dichte: f (x) = b − a
0,
x∈
6 [a, b],
a+b
(b − a)2
,
Var(X) =
.
2
12
Exponentialverteilung. X ∼ EXP(λ), λ > 0,
(
(
0,
x < 0,
0,
x < 0,
Dichte: f (x) =
VF: F (x) =
−λx
−λx
λe , x ≥ 0,
1 − e , x ≥ 0,
E(X) =
1
1
, Var(X) = 2 .
λ
λ
2
2
Normalverteilung. X ∼ N(µ, σ ), µ ∈ R, σ > 0,
1
(x − µ)2
Dichte: f (x) = √
exp −
,
2σ 2
2πσ 2
E(X) =
Var(X) = σ 2 .
E(X) = µ,
4
x ∈ R,
Schließende Statistik
Gegeben seien Stichprobenvariablen X1 , . . . , Xn , die jeweils dieselbe Verteilung haben wie X. Stichprobenmittel und Stichproben-Standardabweichung sind gegeben durch
v
u
n
n
X
u 1 X
1
t
Xi ,
S(n) =
(Xi − X n )2 .
Xn =
n i=1
n − 1 i=1
Schätzfunktionen
X n ist erwartungstreue Schätzfunktion für ϑ = E(X).
Erwartungstreue Schätzfunktion für ϑ = Var(X):
( P
n
1
2
i=1 (Xi − µ) , falls E(X) = µ bekannt,
n
2
,
falls E(X) unbekannt.
S(n)
ML-Schätzfunktion für
• unbekannten Parameter λ einer POI(λ)-Verteilung: X n ,
• unbekannten Parameter a > 0 einer UNI(0, a)-Verteilung: max{X1 , . . . , Xn },
• unbekannten Parameter µ einer N(µ, σ 2 )-Verteilung: X n ,
• unbekannten Parameter σ 2 einer N(µ, σ 2 )-Verteilung:
( P
n
1
2
falls µ bekannt,
i=1 (Xi − µ) ,
n
P
n
1
2
i=1 (Xi − X n ) , falls µ unbekannt.
n
Konfidenzintervalle
Konfidenzintervall für den Erwartungswert
bekannter Varianz σ 2 > 0, Konfidenzniveau
cσ
Xn − √ , Xn +
n
µ einer N(µ, σ 2 )-Verteilung mit
1 − α:
cσ
√ ,
n
wobei c das (1 − α2 )-Fraktil der N(0, 1)-Verteilung ist.
Konfidenzintervall für den Erwartungswert µ einer N(µ, σ 2 )-Verteilung mit
unbekannter Varianz σ 2 > 0, Konfidenzniveau 1 − α:
aS(n)
aS(n)
Xn − √ , Xn + √
,
n
n
wobei a das (1 − α2 )-Fraktil der t(n − 1)-Verteilung ist.
5
Testverfahren
Einstichproben-Gaußtest. X ∼ N(µ, σ 2 ), µ unbekannt, σ 2 > 0 bekannt,
Signifikanzniveau α.
H0
H1
Lehne H0 genau dann ab, wenn
µ ≤ µ0
µ > µ0
σ
X n > µ0 + √ u1−α
n
µ ≥ µ0
µ < µ0
σ
X n < µ0 − √ u1−α
n
µ = µ0
µ 6= µ0
X n − µ0 > √σ u1− α
2
n
Dabei ist u1−x das (1 − x)-Fraktil der N(0, 1)-Verteilung.
Einstichproben-t-Test. X ∼ N(µ, σ 2 ), µ und σ 2 unbekannt, Signifikanzniveau α.
H0
H1
Lehne H0 genau dann ab, wenn
µ ≤ µ0
µ > µ0
S(n)
X n > µ0 + √ v1−α
n
µ = µ0
µ 6= µ0
X n − µ0 > S√(n) v1− α
2
n
Dabei ist v1−x das (1 − x)-Fraktil der t(n − 1)-Verteilung.
χ2 -Anpassungstest. P (X = ai ) = pi , i = 1, . . . , m, wobei a1 , . . . , am
bekannt und p1 , . . . , pm unbekannt sind, Signifikanzniveau α. Für vorgegebene nicht-negative Werte p1 , . . . , pm mit p1 + · · · + pm = 1 betrachte
Hypothese
H0 : pi = pi für alle i = 1, . . . , m.
Es gelte npi ≥ 5 für alle i = 1, . . . , m. Es bezeichne Ni die absolute Häufigkeit
des Wertes ai in der Stichprobe und es sei
V =
m
X
(Ni − np )2
i
npi
i=1
.
Lehne H0 genau dann ab, wenn
V > x1−α ,
wobei x1−α das (1 − α)-Fraktil der χ2 (m − 1)-Verteilung ist.
6
Herunterladen