Wahrscheinlichkeits-Rechnung und Statistik

Werbung
Wahrscheinlichkeits-Rechnung und Statistik
Definitionen und Formeln
Karl Stroetmann
16. Dezember 2006
Definition 1 (diskreter Wahrscheinlichkeits-Raum) : Tripel hΩ, 2Ω , P i mit:
1. Ω Menge, endlich oder abzählbar unendlich
Elemente von Ω: Ergebnisse
Ω: Ergebnis-Raum
2. 2Ω : Menge der Ereignisse, Ereignis-Raum
ω ∈ Ω, dann {ω} Elementar-Ereignis
3. P : 2Ω → R Wahrscheinlichkeits-Verteilung
Kolmogorow-Axiomen
(a) 0 ≤ P (A) ≤ 1
für alle A ⊆ Ω.
(b) P (∅) = 0, ∅ unmögliche Ereignis
(c) P (Ω) = 1, Ω sicheres Ereignis
(d) ∀A, B ∈ 2Ω : A ∩ B = ∅ → P (A ∪ B) = P (A) + P (B)
A ] B = A ∪ B und impliziert A ∩ B = ∅
Laplace-Experiment: hΩ, 2Ω , P i
mit
1. Ω endlich und
2. P (A) =
|A|
.
|Ω|
Additionssätze
1. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
2. P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C)
Komplement:
Ac = Ω\A, P (Ac ) = 1 − P (A).
1
Kombinatorik
kartesisches Produkt:
A1 × A2 × · · · × An := [x1 , · · · , xn ] ∀i ∈ {1, · · · , n} : xi ∈ Ai
Produkt-Regel:
|M | = |A1 | ∗ |A2 | ∗ · · · ∗ |An |
Anzahl der k-Tupel mit Wiederholung:
k
M = |M |k = nk
Anzahl der k-Tupel ohne Wiederholung, Menge der k-Permutationen aus M
P (M, k) = [x1 , · · · , xk ] ∈ M k ∀i, j ∈ {1, · · · , k} : i 6= j → xi 6= xj
P (M, k) = n ∗ (n − 1) ∗ · · · ∗ n − (k − 1) = n!
(n−k)!
Speziallfall |M | = n:
P (M, n) = n!
Anzahl der k-Kombinationen ohne Wiederholung, Menge der Teilmengen mit k Elementen:
C(M, k) = N ∈ 2M |N | = k .
n
n!
=
|C(M, k)| =
k
k! · (n − k)!
Anzahl der k-Kombinationen mit Wiederholung
Menge aller Multimengen der Mächtigkeit k mit Elementen aus M :
Cm (M, k)
n+k−1
|Cm (M, k)| =
k
Hypergeometrische Verteilung
1. N Bauteile insgesamt
2. K Bauteile defekt
3. n Bauteile in Stichprobe entnommen
4. k Bauteile in Stichprobe defekt
N −K K
k · n−k
P (k) =
N
n
Binomial-Verteilung
1. Wahrscheinlichkeits, dass ein Bauteile defekt ist: p
2. Wahrscheinlichkeits, dass von n Bauteilen k Bauteile defekt sind
n
B(n, p; k) :=
· pk · (1 − p)n−k .
k
2
Praktische Berechnung von n! und
n
k
Stirling’sche Näherung:
n n
√
.
n! ≈ 2 · π · n ·
e
Näherung von Lanzcos:
n+ 12
√
n + 12
.
n! ≈ 2 · π ·
e
Mathematische Interpretation
1 n+ 21
√
n+ 2
2·π ·
e
lim
= 1.
n→∞
n!
Berechnung des Binomial-Koeffizienten
n
= exp ln n! − ln k! − ln (n − k)! mit
k
1
1
1
ln n! ≈ · ln(2 · π) + n +
−1 .
· ln n +
2
2
2
Näherung von de Moivre für n > 36:
2 !
r
k − 12 n
2
n
n
≈
· 2 · exp −
.
1
π·n
k
2n
Näherung von Laplace falls n · p · (1 − p) > 9
n
1
(k − n · p)2
k
n−k
· p · (1 − p)
≈p
· exp −
k
2 · n · p · (1 − p)
2 · π · n · p · (1 − p)
Kumulative Verteilungs-Funktion
k X
n
· pi · (1 − p)n−i .
Fpn (k) :=
i
i=0
Abkürzung
µ := n · p,
q := 1 − p
und
σ :=
√
npq.
Approximation von Summe durch Integral
Z b+ 12
b
X
f (i) ≈
f (t) dt
i=a
a− 12
Gauß’sche Integralfunktion:
2
Z x
1
t
exp −
dt
Φ(x) = √
·
2
2 π −∞
Approximation der Verteilungs-Funktion
!
!
k + 21 − n p
k − np
n
Fp (k) ≈ Φ
≈Φ √
√
npq
npq
3
Maple: Gauß’sche Fehlerfunktion
Z x
2
√
erf(x) :=
·
exp −u2 du.
π 0
Zusammenhang zwischen Integralfunktion und Fehlerfunktion:
x
1
1
Φ(x) =
+ · erf √
2
2
2
Definition 2 (Zufallsgröße)
Sei hΩ, 2Ω , P i Wahrscheinlichkeits-Raum. Dann
X : Ω → R Zufallsgröße
Definition 3 (Erwartungswert) Sei
1. hΩ, 2Ω , P i: Wahrscheinlichkeits-Raum
2. X : Ω → R: Zufallsgröße
Erwartungswert E[X]:
∞
X
X
P (X = xn ) · xn
E[X] :=
P ({ω}) · X(ω) =
ω∈Ω
n=0
falls
X(Ω) = {X(ω) | ω ∈ Ω} = {xn | n ∈ N}
Definition 4 (Varianz, Standard-Abweichung) Sei
1. hΩ, 2Ω , P i Wahrscheinlichkeits-Raum
2. X : Ω → R Zufallsgröße
Varianz Var[X]:
∞
X
Var[X] := E (X − E[X])2 =
P (X = xn ) · (xn − µ)2
n=0
falls µ = E[X].
Standard-Abweichung:
p
σ(X) := Var[X] .
Bedingte Wahrscheinlichkeit
P (B ∩ A)
P (B|A) =
P (A)
P (B ∩ A) = P (B|A) · P (A)
4
Totale Wahrscheinlichkeit: Sei
1. B1 ∪ · · · ∪ Bn = Ω
2. Bi ∩ Bj = ∅ für i 6= j
Zerlegung von Ω. Dann
n
X
P (A) =
P (A|Bi ) · P (Bi )
i=1
Formel von Bayes
P (A|Bk ) · P (Bk )
P (Bk |A) = P
n
P (A|Bi ) · P (Bi )
i=1
Definition 5 Zwei Ereignisse E und F sind unabhängig, falls
P (F ∩ E) = P (E) · P (F ).
Definition 6 (Produkt-Raum)
Gegeben: W1 = hΩ1 , 2Ω1 , P1 i, W2 = hΩ2 , 2Ω2 , P2 i Wahrscheinlichkeits-Räume
Setze:
W1 × W2 := hΩ1 × Ω2 , 2Ω1 ×Ω2 , P i, mit
P {hx, yi} := P1 ({x}) · P2 ({y})
Allgemein
X
P (E) =
P {ω}
für alle x ∈ Ω1 und alle y ∈ Ω2 .
ω∈E
Definition 7 Gegeben :
1. hΩ, 2Ω , P i = W1 × W2 = hΩ1 , 2Ω1 , P1 i × hΩ2 , 2Ω2 , P2 i Produkt-Raum
2. E ∈ 2Ω
Dann:
1. E durch erste Komponente bestimmt g.d.w.
b ∈ 2Ω1 : E = hx, yi x ∈ E
b ∧ y ∈ Ω2
∃E
2. E durch zweite Komponente bestimmt g.d.w.
b
b ∈ 2Ω2 : E = hx, yi x ∈ Ω1 ∧ y ∈ E
∃E
Satz 8 Gegeben:
1. W = hΩ1 , 2Ω1 , P1 i × hΩ2 , 2Ω2 , P2 i Produkt-Raum
2. E und F Ereignisse
E durch erste Komponente bestimmt
F durch zweite Komponente bestimmt
Behauptung: E und F sind unabhängig.
5
Definition 9 (Unabhängige Zufallsgrößen) Es sei
1. hΩ, 2Ω , P i Wahrscheinlichkeits-Raum,
2. X : Ω → R und Y : Ω → R Zufallsgrößen.
Dann: X und Y unabhängig gdw.
∀x, y ∈ R gilt ω ∈ Ω X(ω) = x
und
ω ∈ Ω Y (ω) = y unabhängig.
Äquivalente Formulierung: Für alle x, y ∈ R gilt
P ω ∈ ΩX(ω) = x ∩ ω ∈ ΩY (ω) = y = P ω ∈ ΩX(ω) = x · P ω ∈ ΩY (ω) = y
Kürzere Schreibweise:
P (X = x ∧ Y = y) = P (X = x) · P (Y = y).
Definition 10 Gegeben:
1. W1 = hΩ1 , 2Ω1 , P1 i, W2 = hΩ2 , 2Ω2 , P2 i Wahrscheinlichkeits-Räume.
2. W = W1 × W2 = hΩ, 2Ω , P i Produkt-Raum.
3. X : Ω → R Zufallsgröße.
Behauptung:
1. X durch erste Komponente bestimmt g.d.w.
∀ω1 ∈ Ω1 : ∀ω2 , ω3 ∈ Ω2 : X hω1 , ω2 i = X hω1 , ω3 i
2. X durch zweite Komponente bestimmt g.d.w.
∀ω2 ∈ Ω2 : ∀ω1 , ω3 ∈ Ω1 : X hω1 , ω2 i = X hω3 , ω2 i .
Satz 11 Gegeben:
1. W1 = hΩ1 , 2Ω1 , P1 i, W2 = hΩ2 , 2Ω2 , P2 i Wahrscheinlichkeits-Räume.
2. W = W1 × W2 = hΩ, 2Ω , P i Produkt-Raum.
3. X1 : Ω → R, X2 : Ω → R Zufallsgrößen,
4. X1 durch erste Komponente bestimmt,
5. X2 durch zweite Komponente bestimmt.
Behauptung: X1 und X2 unabhängig.
Satz 12 Gegeben:
1. hΩ, 2Ω , P i Wahrscheinlichkeits-Raum,
2. X : Ω → R und Y : Ω → R unabhängige Zufallsgrößen,
3. A, B ⊆ R.
Behauptung:
ω ∈ Ω X(ω) ∈ A
und
ω ∈ Ω Y (ω) ∈ B
unabhängig, also
P (X ∈ A ∧ Y ∈ B) = P (X ∈ A) · P (Y ∈ B).
6
Satz 13 Gegeben:
1. hΩ, 2Ω , P i Wahrscheinlichkeits-Raum
2. X : Ω → R, Y : Ω → R Zufallsgrößen,
3. α, β ∈ R
4. Z : Ω → R definiert durch
Z(ω) = α · X(ω) + β · Y (ω)
Behauptung:
E Z =α·E X +β·E Y .
Satz 14 (Verschiebungs-Satz) Gegeben:
1. hΩ, 2Ω , P i Wahrscheinlichkeits-Raum,
2. X : Ω → R Zufallsgröße,
3. α, β ∈ R,
4. Z : Ω → R definiert durch
Z(ω) = α · X(ω) + β
Behauptung:
Var Z = α2 · Var X .
Lemma 15 Gegeben:
1. hΩ, 2Ω , P i Wahrscheinlichkeits-Raum
2. X : Ω → R, Y : Ω → R unabhängige Zufallsgrößen.
Behauptung:
E[X · Y = E X · E Y .
Satz 16 Gegeben:
1. hΩ, 2Ω , P i Wahrscheinlichkeits-Raum
2. X : Ω → R und Y : Ω → R unabhängige Zufallsgrößen.
Behauptung:
Var X + Y = Var X + Var Y .
7
√
Satz 17 ( n-Gesetz) Gegeben:
1. W = hΩ, 2Ω , P i Wahrscheinlichkeits-Raum
2. X : Ω → R Zufallsgröße
3. W n = W × · · · × W n-faches kartesisches Produkt von W
|
{z
}
n
n
4. Xi : Ω → R definiert durch
Xi hω1 , · · · , ωn i : X(ωi )
5. X : Ωn → R definiert durch
n
1 X
X(ω) := ·
Xi (ω)
n
k=1
Behauptung:
h i
1. E X = E[X]
h i
1
2. Var X = · Var[X]
n
h i
1
3. σ X = √ · σ[X]
n
Satz 18 (Ungleichung von Tschebyschow) Es sei
1. hΩ, 2Ω , P i Wahrscheinlichkeits-Raum,
2. X : Ω → R Zufallsgröße mit µ = E[X] und σ 2 = Var[X].
Beh.:
1
∀r ∈ R : r > 0 → P |X − µ| ≥ r · σ ≤ 2 .
r
Satz 19 (Schwaches Gesetz der großen Zahlen) Es sei
1. W = hΩ, 2Ω , P i Wahrscheinlichkeits-Raum,
2. X : Ω → R Zufallsgröße auf W mit µ = E[X] und σ :=
3. W n = W × · · · × W n-faches kartesisches Produkt,
|
{z
}
n
n
4. Xi : Ω → R für i = 1, · · · , n definiert durch
Xi hω1 , · · · , ωn i := X(ωi )
5. X : Ωn → R definiert durch
n
1 X
X(ω) := ·
Xi (ω)
n i=1
Beh.: ∀ε ∈ R : ε > 0 → lim P |X − µ| ≥ ε) = 0.
n→∞
8
p
Var[X] ,
Lemma 20 (Pascal’sche Regel) Sei
n+1
n
n
Beh.:
=
+
.
k
k−1
k
n
n!
:=
k
k! · (n − k)!
s(n, k): Zahl der Wege von h0, 0i nach hk, n − ki.
n
s(n, k) =
k
Definition 21 (Bernoulli-Experiment)
1. WB = {0, 1}, 2{0,1} , P
2. p := P {1}
Parameter des Bernoulli-Experiments.
n
3. Bernoulli-Kette: W = WB
4. Xi : {0, 1} → R
definiert als
Xi (ω) := ω,
5. E[Xi ] = p
6. Var[Xi ] = p · q
n
7. X : {0, 1} → R
definiert als
n
X
X [ω1 , · · · , ωn ] =
Xi (ωi ).
i=1
8. E[X] = n · p.
9. Var[X] = n · p · (1 − p).
Definition 22 (Poisson-Verteilung) Näherung für B(n, p; k) für n → ∞, p → 0
1. λ := n · p
also p =
λ
2. lim B n, ; k
n→∞
n
=
λ
n
λk −λ
·e
k!
Satz 23 Die Summe Poisson-verteilter Zufallsgrößen ist Poisson-verteilt.
λk
λk
Vor.: P (X1 = k) = 1 · e−λ1 , P (X2 = k) = 2 · e−λ2
k!
k!
(λ1 + λ2 )k −(λ1 +λ2 )
·e
Beh.: P (X1 + X2 = k) =
k!
9
Herunterladen