11 Stochastische Unabhängigkeit 11.1 Unabhängige Ereignisse Die bedingte Wahrscheinlichkeit P(A|B) von A unter der Bedingung B ist P(A ∩ B)/P(B). Die Kenntnis des Eintretens des Ereignisses B führt oft zu Wahrscheinlichkeiten P(A|B), die verschieden von der unbedingten“ Wahrscheinlichkeit P(A) sind. ” Falls jedoch P(A|B) = P(A) gilt, so hat das Eintreten von B wahrscheinlichkeitstheoretisch keinen Einfluss auf das Eintreten von A. In gleicher Weise bedeutet P(B|A) = P(B), dass die Wahrscheinlichkeit des Eintretens von B unabhängig“ von der Information ” A geschieht“ ist. ” Jede der Gleichungen P(A|B) = P(A) und P(B|A) = P(B) ist äquivalent zu P(A ∩ B) = P(A) · P(B) . In diesem Fall heißen die Ereignisse A und B (stochastisch) unabhängig. Dabei sind auch die Fälle P(A) = 0 oder P(B) = 0 zugelassen. 11.1 Definition Ereignisse A1 , . . . , An heißen (stochastisch) unabhängig, falls gilt: ! Y \ P Aj = P(Aj ) j∈T j∈T für jede Menge T ⊆ {1, 2, . . . , n}. Für den Fall dreier Ereignisse A, B und C ist die Unabhängigkeit gleichbedeutend mit der Gültigkeit der vier Gleichungen P(A ∩ B) = P(A) · P(B), P(A ∩ C) = P(A) · P(C), P(B ∩ C) = P(B) · P(C), P(A ∩ B ∩ C) = P(A) · P(B) · P(C). Es sind dann auch A und B stochastisch unabhängig, ebenso A und C usw. 11.2 Unabhängige Zufallsvariablen Zufallsvariablen X1 , . . . , Xn heißen unabhängig, wenn für jede Wahl von Ai ⊂ R, i = 1, . . . , n die Ereignisse {X1 ∈ A1 }, . . . , {Xn ∈ An } stochastisch unabhängig sind: 11.2 Definition Die Zufallsvariablen X1 , . . . , Xn heißen (stochastisch) unabhängig, falls P(X1 ∈ A1 , . . . , Xn ∈ An ) = P(X1 ∈ A1 ) · . . . · P(Xn ∈ An ) für jede Wahl von Ai ⊂ R, i = 1, . . . , n, erfüllt ist. Charakterisierung unabhängiger diskreter Zufallsvariablen: 11.3 Satz (Diskreter Fall) Die diskreten Zufallsvariablen X und Y sind genau dann stochastisch unabhängig, wenn P(X = s, Y = t) = P(X = s) · P(Y = t) für jede Wahl von s ∈ MX und t ∈ MY gilt. X und Y sind genau dann unabhängig, wenn (s, t) → fX (s)·fY (t) die gemeinsame Zähldichte von X und Y ist. Charakterisierung unabhängiger stetiger Zufallsvariablen: 11.4 Satz (Stetiger Fall) Die stetigen Zufallsvariablen X und Y sind genau dann stochastisch unabhängig, wenn f (s, t) := fX (s) · fY (t), s, t ∈ R, eine gemeinsame Dichte von X und Y ist. 11.5 Satz (Blockungslemma) Seien X11 , X12 , . . . , X1n1 , X21 , . . . , X2n2 , . . . , Xknk stochastisch unabhängige Zufallsvariablen und g1 , . . . , gk reellwertige Funktionen. Dann sind auch die Zufallsvariablen Y1 := g1 (X11 , . . . , X1n1 ), . . . , gk (Xk1 , . . . , Xknk ) stochastisch unabhängig. Kurz: Funktionen unabhängiger Zufallsvariablen sind wieder unabhängig. 11.6 Beispiel Seien X, Y, Z, U unabhängige Zufallsvariablen. Dann sind auch Y1 := sin(X), Y2 := Y + 3 · eY ·U und Y3 := 4 · Z 2 unabhängig. Dagegen sind sin(X) und Y + 3 · eX·U (in der Regel) nicht unabhängig, da sie gemeinsam die Zufallsvariable X enthalten. Änderungen bei sin(X) sind dann nicht unabhängig von Änderungen an Y +3·eX·U . 11.3 Faltungen 11.7 Definition (Faltung von Verteilungen) Seien X und Y zwei stochastisch unabhängige Zufallsvariablen mit Verteilung PX bzw. PY . Dann heißt die Verteilung PX+Y der Zufallsvariablen X + Y die Faltung PX ∗ PY von PX und PY . 11.8 Satz und Definition Besitzen P1 und P2 die Zähldichten f1 bzw. f2 auf N0 , so ist (Faltungsformel) f (t) = f1 ∗ f2 (t) := t X f1 (t − s) · f2 (s), t ∈ N0 , s=0 die Zähldichte von P1 ∗ P2 . f1 ∗ f2 heißt Faltung von f1 und f2 . 11.9 Satz und Definition Besitzen P1 die Dichte f1 und P2 die Dichte f2 , so ist Z f1 ∗ f2 (t) := ∞ f1 (t − s) · f2 (s) ds, t ∈ R −∞ die Dichte von P1 ∗ P2 . f1 ∗ f2 heißt Faltung von f1 und f2 . Ist zusätzlich f1 (t) = 0 und f2 (t) = 0 für t < 0, so ist f1 ∗ f2 (t) = Z t f1 (t − s) · f2 (s) ds, t > 0 0 und f1 ∗ f2 (t) = 0 für t ≤ 0. Tabelle wichtiger Faltungen: P1 P2 P1 ∗ P2 Bin(m, p) Bin(n, p) Bin(m + n, p) P o(α) P o(β) P o(α + β) Nb(r, p) Nb(s, p) Nb(r + s, p) G(p) G(p) Nb(2, p) N (µ, σ 2 ) N (ν, τ 2 ) N (µ + ν, σ 2 + τ 2 ) Γ(µ, β) Γ(ν, β) Γ(µ + ν, β) χ2m χ2n χ2m+n Exp(β) Exp(β) Γ(2, β) Für die Zuverlässigkeitstheorie wichtig sind Maxima und Minima von unabhängigen Zufallsvariablen. Im Gegensatz zur Faltung ist es hier vorteilhaft, direkt mit den Verteilungsfunktionen zu rechnen. 11.10 Satz Seien X1 , . . . , Xn stochastisch unabhängige Zufallsvariablen mit den Verteilungsfunktionen FX1 , . . . , FXn . Dann gilt: a) U := max{X1 , . . . , Xn } besitzt die Verteilungsfunktion FU (t) = n Y FXj (t), t ∈ R. j=1 b) V := min{X1 , . . . , Xn } besitzt die Verteilungsfunktion n Y (1 − FXj (t)), t ∈ R. FV (t) = 1 − j=1