wahrscheinlichkeitstheorie und statistik für studierende der informatik

Werbung
11 Stochastische Unabhängigkeit
11.1 Unabhängige Ereignisse
Die bedingte Wahrscheinlichkeit P(A|B) von A unter der Bedingung B ist
P(A ∩ B)/P(B).
Die Kenntnis des Eintretens des Ereignisses B führt oft zu Wahrscheinlichkeiten
P(A|B), die verschieden von der unbedingten“ Wahrscheinlichkeit P(A) sind.
”
Falls jedoch
P(A|B) = P(A)
gilt, so hat das Eintreten von B wahrscheinlichkeitstheoretisch keinen Einfluss auf
das Eintreten von A.
In gleicher Weise bedeutet
P(B|A) = P(B),
dass die Wahrscheinlichkeit des Eintretens von B unabhängig“ von der Information
”
A geschieht“ ist.
”
Jede der Gleichungen P(A|B) = P(A) und P(B|A) = P(B) ist äquivalent zu
P(A ∩ B) = P(A) · P(B) .
In diesem Fall heißen die Ereignisse A und B (stochastisch) unabhängig.
Dabei sind auch die Fälle P(A) = 0 oder P(B) = 0 zugelassen.
11.1 Definition
Ereignisse A1 , . . . , An heißen (stochastisch) unabhängig, falls gilt:
!
Y
\
P
Aj =
P(Aj )
j∈T
j∈T
für jede Menge T ⊆ {1, 2, . . . , n}.
Für den Fall dreier Ereignisse A, B und C ist die Unabhängigkeit gleichbedeutend
mit der Gültigkeit der vier Gleichungen
P(A ∩ B) = P(A) · P(B),
P(A ∩ C) = P(A) · P(C),
P(B ∩ C) = P(B) · P(C),
P(A ∩ B ∩ C) = P(A) · P(B) · P(C).
Es sind dann auch A und B stochastisch unabhängig, ebenso A und C usw.
11.2 Unabhängige Zufallsvariablen
Zufallsvariablen X1 , . . . , Xn heißen unabhängig, wenn für jede Wahl von Ai ⊂
R, i = 1, . . . , n die Ereignisse {X1 ∈ A1 }, . . . , {Xn ∈ An } stochastisch unabhängig sind:
11.2 Definition
Die Zufallsvariablen X1 , . . . , Xn heißen (stochastisch) unabhängig, falls
P(X1 ∈ A1 , . . . , Xn ∈ An ) = P(X1 ∈ A1 ) · . . . · P(Xn ∈ An )
für jede Wahl von Ai ⊂ R, i = 1, . . . , n, erfüllt ist.
Charakterisierung unabhängiger diskreter Zufallsvariablen:
11.3 Satz (Diskreter Fall)
Die diskreten Zufallsvariablen X und Y sind genau dann stochastisch unabhängig,
wenn
P(X = s, Y = t) = P(X = s) · P(Y = t)
für jede Wahl von s ∈ MX und t ∈ MY gilt.
X und Y sind genau dann unabhängig, wenn (s, t) → fX (s)·fY (t) die gemeinsame
Zähldichte von X und Y ist.
Charakterisierung unabhängiger stetiger Zufallsvariablen:
11.4 Satz (Stetiger Fall)
Die stetigen Zufallsvariablen X und Y sind genau dann stochastisch unabhängig,
wenn
f (s, t) := fX (s) · fY (t), s, t ∈ R,
eine gemeinsame Dichte von X und Y ist.
11.5 Satz (Blockungslemma)
Seien
X11 , X12 , . . . , X1n1 , X21 , . . . , X2n2 , . . . , Xknk
stochastisch unabhängige Zufallsvariablen und g1 , . . . , gk reellwertige Funktionen.
Dann sind auch die Zufallsvariablen
Y1 := g1 (X11 , . . . , X1n1 ), . . . , gk (Xk1 , . . . , Xknk )
stochastisch unabhängig.
Kurz: Funktionen unabhängiger Zufallsvariablen sind wieder unabhängig.
11.6 Beispiel
Seien X, Y, Z, U unabhängige Zufallsvariablen. Dann sind auch Y1 := sin(X), Y2 :=
Y + 3 · eY ·U und Y3 := 4 · Z 2 unabhängig. Dagegen sind sin(X) und Y + 3 · eX·U
(in der Regel) nicht unabhängig, da sie gemeinsam die Zufallsvariable X enthalten.
Änderungen bei sin(X) sind dann nicht unabhängig von Änderungen an Y +3·eX·U .
11.3 Faltungen
11.7 Definition (Faltung von Verteilungen)
Seien X und Y zwei stochastisch unabhängige Zufallsvariablen mit Verteilung PX
bzw. PY . Dann heißt die Verteilung PX+Y der Zufallsvariablen X + Y die Faltung
PX ∗ PY von PX und PY .
11.8 Satz und Definition
Besitzen P1 und P2 die Zähldichten f1 bzw. f2 auf N0 , so ist (Faltungsformel)
f (t) = f1 ∗ f2 (t) :=
t
X
f1 (t − s) · f2 (s), t ∈ N0 ,
s=0
die Zähldichte von P1 ∗ P2 .
f1 ∗ f2 heißt Faltung von f1 und f2 .
11.9 Satz und Definition
Besitzen P1 die Dichte f1 und P2 die Dichte f2 , so ist
Z
f1 ∗ f2 (t) :=
∞
f1 (t − s) · f2 (s) ds, t ∈ R
−∞
die Dichte von P1 ∗ P2 . f1 ∗ f2 heißt Faltung von f1 und f2 .
Ist zusätzlich f1 (t) = 0 und f2 (t) = 0 für t < 0, so ist
f1 ∗ f2 (t) =
Z
t
f1 (t − s) · f2 (s) ds, t > 0
0
und f1 ∗ f2 (t) = 0 für t ≤ 0.
Tabelle wichtiger Faltungen:
P1
P2
P1 ∗ P2
Bin(m, p)
Bin(n, p)
Bin(m + n, p)
P o(α)
P o(β)
P o(α + β)
Nb(r, p)
Nb(s, p)
Nb(r + s, p)
G(p)
G(p)
Nb(2, p)
N (µ, σ 2 )
N (ν, τ 2 )
N (µ + ν, σ 2 + τ 2 )
Γ(µ, β)
Γ(ν, β)
Γ(µ + ν, β)
χ2m
χ2n
χ2m+n
Exp(β)
Exp(β)
Γ(2, β)
Für die Zuverlässigkeitstheorie wichtig sind Maxima und Minima von unabhängigen
Zufallsvariablen. Im Gegensatz zur Faltung ist es hier vorteilhaft, direkt mit den
Verteilungsfunktionen zu rechnen.
11.10 Satz
Seien X1 , . . . , Xn stochastisch unabhängige Zufallsvariablen mit den Verteilungsfunktionen FX1 , . . . , FXn . Dann gilt:
a) U := max{X1 , . . . , Xn } besitzt die Verteilungsfunktion
FU (t) =
n
Y
FXj (t), t ∈ R.
j=1
b) V := min{X1 , . . . , Xn } besitzt die Verteilungsfunktion
n
Y
(1 − FXj (t)), t ∈ R.
FV (t) = 1 −
j=1
Herunterladen