Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Werbung
Kapitel 2
Stochastische Unabhängigkeit,
bedingte Wahrscheinlichkeiten
2.1
Stochastische Unabhängigkeit von Ereignissen
Im Folgenden gehen wir von einem W-Raum (Ω, A, P) aus. Der Begriff der stochastischen Unabhängigkeit von Ereignissen in Ω bezieht sich auf die W-Verteilung P. Betrachten wir diesen Begriff zunächst
für zwei Ereignisse.
Definition 2.1 (Stoch. Unabhängigkeit zweier Ereignisse)
Zwei Ereignisse A, B ∈ A heißen stochastisch unabhängig, wenn
P( A ∩ B ) = P(A) · P(B) .
Definition 2.2 (Stoch. Unabhängigkeit von n Ereignissen)
Seien n ∈ N und C1 , . . . , Cn ∈ A. Die Ereignisse C1 , . . . , Cn heißen stochastisch unabhängig, wenn für
jede nicht-leere Index-Teilmenge I ⊆ {1, . . . , n} gilt:
³T ´
Y
P
Ci =
P(Ci ) .
i∈I
i∈I
Definition 2.3 (Stoch. Unabhängigkeit von Ereignis-Systemen)
Seien E1 , . . . , En nicht-leere Teilsysteme von A. Man nennt E1 , . . . , En stochastisch unabhängig, wenn
für jede Auswahl E1 ∈ E1 , . . . , En ∈ En die Ereignisse E1 , . . . , En stochastisch unabhängig sind.
Lemma 2.4 (Erzeugte Dynkin-Systeme)
Seien E1 , . . . , En nicht-leere Teilsysteme von A, und E1 , . . . , En seien stochastisch unabhängig.
Bezeichne δ(Ei ) das von Ei in Ω erzeugte Dynkin-System, i = 1, . . . , n .
Dann sind δ(E1 ), . . . , δ(En ) stochastisch unabhängig.
9
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010
Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
2.2
Stochastische Unabhängigkeit von Zufallsvariablen
Wir gehen wieder von einem W-Raum (Ω, A, P) aus. Jetzt betrachten wir n Zufallsvariablen auf Ω,
Xi : (Ω, A) −→ (Mi , Ai ) ,
i = 1, . . . , n ,
wobei (Mi , Ai ) (i = 1, . . . , n) Messräume seien. Der Begriff der stochastischen Unabhängigkeit von
Zufallsvariablen auf Ω bezieht sich wiederum auf die W-Verteilung P.
Definition 2.5 (Stoch. Unabhängigkeit von Zufallsvariablen)
Seien Xi : (Ω, A) −→ (Mi , Ai ), i = 1, . . . , n . Die Zufallsvariablen X1 , . . . , Xn heißen stochastisch
unabhängig, wenn für jede Auswahl A1 ∈ A1 , . . ., An ∈ An gilt:
Die Ereignisse {X1 ∈ A1 } , . . . , {Xn ∈ An } sind stochastisch unabhängig.
Bemerkungen
1. Mit Blick auf Definition 2.3 sehen wir:
Die Zufallsvariablen X1 , . . . , Xn sind genau dann stochastisch unabhängig, wenn die Mengensysteme
σ(X1 ), . . . , σ(Xn ) stochastisch unabhängig sind, wobei
n
o
σ(Xi ) := Xi−1 (Ai ) : Ai ∈ Ai , i = 1, . . . , n .
Die Bezeichnung σ(Xi ) beruht darauf, dass dieses Mengensystem eine Unter-Sigma-Algebra von A ist, und sie
heißt die von Xi erzeugte Sigma-Algebra in Ω.
2. Die Zufallsvariablen X1 , . . . , Xn sind genau dann stochastisch unabhängig, wenn für jede Auswahl
A1 ∈ A1 , . . ., An ∈ An gilt:
¢
¡
P X1 ∈ A1 , . . . , Xn ∈ An = P(X1 ∈ A1 ) · . . . · P(Xn ∈ An ) .
Im Fall diskreter Zufallsvariablen lässt sich die Beschreibung der stochastischen Unabhängigkeit wesentlich vereinfachen:
Lemma 2.6 (Stoch. Unabhängigkeit diskreter ZV’en)
¡
¢
Seien X1 , . . . , Xn diskrete Zufallsvariablen auf Ω, d.h. Xi : (Ω, A) −→ Mi , P(Mi ) mit abzählbaren
Mengen Mi , (i = 1, . . . , n).
Die Zufallsvariablen X1 , . . . , Xn sind genau dann stochastisch unabhängig, wenn für jede Auswahl von
Elementen x1 ∈ M1 , . . . , xn ∈ Mn gilt:
¡
¢
P X1 = x1 , . . . , Xn = xn = P(X1 = x1 ) · . . . · P(Xn = xn ) .
Spezieller für den Fall zweier (n = 2) diskreter Zufallsvariablen X1 und X2 , lautet die Bedingung für
die stochastische Unabhängigkeit von X1 und X2 also:
¡
¢
P X1 = x1 , X2 = x2 = P(X1 = x1 ) · P(X2 = x2 ) für alle x1 ∈ M1 und x2 ∈ M2 .
Auch im nicht-diskreten Fall lässt sich eine Reduktion in der Bedingung für stochastische Unabhängigkeit von Zufallsvariablen vornehmen.
10
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010
Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Theorem 2.7 (Reduktion auf Durchschnitt-stabile Erzeuger)
Seien Xi : (Ω, A) −→ (Mi , Ai ), i = 1, . . . , n . Sei Ei ⊆ Ai ein Durchschnitt-stabiler Erzeuger
S∞ der SigmaAlgebra Ai mit der weiteren Eigenschaft, dass eine isotone Folge Ei,j ∈ Ei (j ∈ N) mit j=1 Ei,j = Mi
existiert, für jedes i = 1, . . . , n. Dann gilt die Äquivalenz:
Die Zufallsvariablen X1 , . . . , Xn sind genau dann stochastisch unabhängig, wenn
¡
¢
P X1 ∈ E1 , . . . , Xn ∈ En = P(X1 ∈ E1 ) · . . . · P(Xn ∈ En )
für jede Auswahl E1 ∈ E1 , . . . , En ∈ En .
Beispiel:
Reelle Zufallsvariablen Xi : (Ω, A) −→ (R, B 1 ) , (i = 1, . . . , n). Das Teilsystem von B 1 ,
©
ª
Ei = E = (−∞ , a ] : a ∈ R ,
erfüllt die Bedingungen von Theorem 2.7. Die stochastische Unabhängigkeit der reellen Zufallsvariablen
X1 , . . . , Xn ist daher äquivalent zu:
¢
¡
P X1 ≤ x1 , . . . , Xn ≤ xn = P(X1 ≤ x1 ) · . . . · P(Xn ≤ xn ) ∀ x1 , . . . , xn ∈ R .
Die beiden folgenden Lemmata sind von Nutzen, wenn aus stochastisch unabhängigen Zufallsvariablen
durch gewisse Transformationen neue Zufallsvariablen erzeugt werden.
Wenn wir bei der Formulierung des zweiten Lemma doppelt indizierte Zufallsvariablen und Messräume verwenden, so soll das nur zur besseren Lesbarkeit dienen und hat inhaltlich keine weitere Bedeutung.
Lemma 2.8
Seien X1 , . . . , Xn stochastisch unabhängige Zufallsvariablen, wobei Xi : (Ω, A) −→ (Mi , Ai ) ,
(i = 1, . . . , n) . Seien noch messbare Abbildungen gegeben:
Ti : (Mi , Ai ) −→ (Ni , Bi ) ,
i = 1, . . . , n ,
mit Messräumen (Ni , Bi ) (i = 1, . . . , n). Dann gilt für Yi := Ti ◦ Xi , i = 1, . . . , n :
Die Zufallsvariablen Y1 , . . . , Yn sind stochastisch unabhängig.
Lemma 2.9
Seien X11 , . . . , X1n1 , X21 , . . . , X2n2 , . . . , Xk1 , . . . , Xknk stochastisch unabhängige Zufallsvariablen,
wobei
Xij : (Ω, A) −→ (Mij , Aij ), i = 1, . . . , k , j = 1, . . . , ni .
Wir bilden nun die “mehrdimensionalen” Zufallsvariablen,
³ ni
´
ni
X i = ( Xi1 , . . . , Xini ) : (Ω, A) −→ × Mij , ⊗ Aij ,
j=1
j=1
Dann sind die Zufallsvariablen X 1 , . . . , X k stochastisch unabhängig.
i = 1, . . . , k .
11
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010
Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
2.3
12
Gemeinsame Verteilung und Produkt-Verteilung
Seien (Ω, A, P) ein W-Raum, und seien n Zufallsvariablen gegeben:
Xi : (Ω, A) −→ (Mi , Ai ) ,
i = 1, . . . , n ,
wobei (Mi , Ai ) Messräume sind.
Bilde die n-dimensionale Zufallsvariable
³n
´
¡
¢
n
X = (X1 , . . . , Xn ) : (Ω, A) −→ × Mi , ⊗ Ai , X(ω) = X1 (ω), . . . , Xn (ω) ∀ ω ∈ Ω .
i=1
i=1
Die Verteilung von X = (X1 , . . . , Xn ), P(X1 ,...,Xn ) , heißt die gemeinsame Verteilung der Zufallsvan
riablen X1 , . . . , Xn ; diese ist eine W-Verteilung auf der Produkt-Sigma-Algebra ⊗ Ai .
i=1
Andererseits können wir auch das Produkt-Maß der einzelnen Verteilungen PXi bilden:
n
n
⊗ PXi , das
i=1
auch eine W-Verteilung auf der Produkt-Sigma-Algebra ⊗ Ai ist.
i=1
Theorem 2.10 (Stoch. Unabhängigkeit von ZV’en und Produkt-Verteilung)
Die Zufallsvariablen X1 , . . . , Xn sind genau dann stochastisch unabhängig, wenn ihre gemeinsame
Verteilung gleich dem Produkt der einzelnen Verteilungen ist, d.h.
n
P(X1 ,...,Xn ) = ⊗ PXi .
i=1
Lemma 2.11 (Maßtheoretisches Hilfsresultat: Produkt-Dichte)
Seien (Mi , Ai , µi ) , i = 1, . . . , n, Maßräume mit sigma-endlichen Maßen µi (i = 1, . . . , n), und für jedes
i sei Pi eine W-Verteilung auf Ai mit der µi -Dichte fi ; also: Pi = fi · µi (i = 1, . . . , n).
n
n
i=1
i=1
Dann gilt für die Produkt-Verteilung P := ⊗ Pi und das Produkt-Maß µ := ⊗ µi :
P = f · µ mit f (x1 , . . . , xn ) :=
n
Y
n
fi (xi ) ∀ (x1 , . . . , xn ) ∈ × Mi .
i=1
i=1
Beispiel: Gemeinsam normalverteilte ZV’en
Seien X1 , . . . , Xn reelle Zufallsvariablen, die gemeinsam normal-(β, V )-verteilt sind, d.h. die n-dimensionale Zufallsvariable X = (X1 , . . . , Xn )0 ist N(β, V )-verteilt. Dabei sind β = (β1 , . . . , βn )0 ∈ Rn
und V = (vij )1≤i,j≤n eine positiv definite n × n Matrix. Die gemeinsame Verteilung von X1 , . . . , Xn
hat also die λλn -Dichte
³
´
¡
¢−1/2
fX (x) = (2π)−n/2 det(V )
exp − 21 (x − β)0 V −1 (x − β) , x ∈ Rn .
Für jedes i ∈ {1, . . . , n} ist die Zufallsvariable Xi normal-(βi , vii )-verteilt, besitzt also die λλ1 -Dichte
³ (x − β )2 ´
1
i
i
fi (xi ) = √ √
exp −
,
2v
vii 2π
ii
xi ∈ R.
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010
Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
n
n
i=1
i=1
13
Als λλn -Dichte der Produktverteilung ⊗ PXi = ⊗ N(βi , vii ) haben wir also nach Lemma 2.11:
³
´
¡
¢−1/2
f (x) = (2π)−n/2 det(D)
exp − 12 (x − β)0 D −1 (x − β) ,
wobei wir bezeichnet haben:
x ∈ Rn ,
¡
¢
D = diag v11 , . . . , vnn ,
also die Diagonalmatrix gebildet aus der Diagonalen von V . Mit anderen Worten:
n
⊗ P Xi = N(β, D) .
i=1
Andererseits haben wir als gemeinsame Verteilung von X1 , . . . , Xn :
P X = N(β, V ) .
Nun sieht man leicht, dass die beiden n-dimensionalen Normalverteilungen N(β, V ) und N(β, D)
genau dann übereinstimmen, wenn V = D. Wir sehen also:
Die stochastische Unabhängigkeit von X1 , . . . , Xn liegt genau dann vor, wenn die Matrix V eine
Diagonalmatrix ist.
2.4
Modellierung unabhängiger Zufallsexperimente
Oft haben wir es mit Zufallsexperimenten zu tun, die aus mehreren “unabhängigen” Einzelexperimenten bestehen (z.B. die mehrmalige unabhängige Durchführung eines 0-1-Experiments). Mit Hilfe des
Begriffes der stochastischen Unabhängigkeit lässt sich eine geeignete Modellierung dann allgemein wie
folgt vornehmen.
Das gesamte Zufallsexperiment bestehe aus n unabhängigen Einzelexperimenten; ein Ergebnis des
(gesamten) Zufallsexperiments ist ein n-Tupel
x = (x1 , x2 , . . . , xn ) ,
wobei xi das Ergebnis des i-ten Einzelexperiments bezeichnet, i = 1, . . . , n. Das Modell für das i-te
Einzelexperiment sei durch einen W-Raum (Mi , Ai , Pi ) gegeben (i = 1, . . . , n), bzw. in der “ausgeschmückten” Formulierung: Sei (Ω, A, P) ein W-Raum im Hintergrund, und seien Zufallsvariablen
Xi : (Ω, A) −→ (Mi , Ai ) mit PXi = Pi (i = 1, . . . , n) gegeben. Ein Ergebnis des Gesamtexperiments
ist dann ein Wert der Zufallsvariablen X = (X1 , . . . , Xn ) , und das Modell des Gesamtexperiments
ist der W-Raum
´
³n
n
× Mi , ⊗ Ai , P(X1 ,...,Xn ) .
i=1
i=1
Die Unabhängigkeit der Einzelexperimente wird als stochastische Unabhängigkeit der Zufallsvariablen
X1 , X2 , . . . , Xn in die Modellierung eingebracht, so dass also mit Theorem 2.10 die Produkt-Verteilung
resultiert,
n
n
P(X1 ,...,Xn ) = ⊗ PXi = ⊗ Pi .
i=1
i=1
Das Modell für das Gesamtexperiment ist also der Produkt-W-Raum
³
´
n
n
n
× Mi , ⊗ Ai , ⊗ Pi .
i=1
i=1
i=1
Oft haben wir spezieller die Situation, dass es sich bei den Einzelexperimenten um unabhängige
Durchführungen desselben Experiments handelt. Dann sind also die W-Räume (Mi , Bi , Pi ) (i = 1, . . . , n)
identisch zu wählen, und die Verteilungen der Zufallsvariablen Xi (i = 1, . . . , n) sind daher identisch.
Man spricht von identisch verteilten Zufallsvariablen X1 , X2 , . . . , Xn , und – zusammen mit der vorausgesetzten stochastischen Unabhängigkeit dieser Zufallsvariablen – von stochastisch unabhängigen
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010
Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
und identisch verteilten (Abk: u.i.v.) Zufallsvariablen X1 , X2 , . . . , Xn . Im Englischen.: independent and
identically distributed (Abk.: i.i.d.) random variables X1 , X2 , . . . , Xn .
Beispiel: Modell mit n u.i.v. normalverteilten Zufallsvariablen
Z.B. in einer industriellen Fertigung: Zur Überwachung einer (reellen) Produktcharakteristik wird Stichprobe
von n gefertigten Stücken gemessen. Modellierung oft durch n stochastisch unabhängige reelle Zufallsvariablen
X1 , . . . , Xn , die jeweils als normal-(β, σ 2 )-verteilt angenommen werden. Kurz:
Xi ∼ N(β, σ 2 ) ,
i = 1, . . . , n ,
Ihre gemeinsame Verteilung ist daher die Produktverteilung
u.i.v.
n
⊗ N(β, σ 2 ) ; ihre λλn -Dichte ist mit Lemma 2.11:
i=1
³ 1
´i
1
√
exp − 2 (xi − β)2
2σ
σ 2π
i=1
³
´
1 Pn
2
= (2π)−n/2 σ −n exp − 2
∀ (x1 , . . . , xn ) ∈ Rn .
i=1 (xi − β)
2σ
f (x1 , . . . , xn ) =
n h
Y
Mit Blick auf Definition 1.6 sehen wir auch:
¡
¢
n
⊗ N(β, σ 2 ) = N β1n , σ 2 I n ,
i=1
wobei 1n = (1, . . . , 1)t ∈ Rn und I n die n × n Einheitsmatrix bezeichnen.
Beispiel: n-malige unabhängige Durchführung eines 0-1-Experiments
Die Wahrscheinlichkeit für “1” im Einzelexperiment sei mit p ∈ [ 0 , 1 ] bezeichnet. Das Modell für das Gesamtexperiment (n-malige unabhängige Durchführung des 0-1-Experiments) ist gegeben durch stochastisch unabhängige 0-1-wertige Zufallsvariablen X1 , X2 , . . . , Xn mit
P (Xi = 1) = p und P (Xi = 0) = 1 − p , i = 1, 2, . . . , n, ,
also:
Xi ∼ Bi(1, p) , i = 1, . . . , n , u.i.v.
Die Wahrscheinlichkeiten für die einzelnen n-Tupel x = (x1 , x2 , . . . , xn ) (wobei xi ∈ {0, 1} ∀ i) sind daher
gegeben durch die Zähldichte der gemeinsamen Verteilung (hier = Produkt-Verteilung),
n
Y
Pn
Pn
¡
¢
P X1 = x1 , X2 = x2 , . . . , Xn = xn =
P (Xi = xi ) = p i=1 xi (1 − p)n− i=1 xi .
i=1
Hier ist
Pn
i=1
xi gleich der Anzahl der erzielten “1”-en und n −
Pn
i=1
xi die Anzahl der erzielten “0”-en.
Beispiel: Binomial-verteilte Anzahl
In der Praxis wird man bei einem Zufallsexperiment wie im vorigen Beispiel nicht die ausführliche Sequenz
(n-Tupel) x = (x1 , x2 , . . . , xn ) als Ergebnis dokumentieren, sondern die Reduktion auf die Anzahl der “1”-en
vornehmen. Das Ergebnis des Zufallsexperiments ist dann ein Wert einer Zufallsvariablen X, die ihre möglichen
Werte in der Menge {0, 1, . . . , n} hat. Die adäquate Verteilungsannahme ist dann:
X ∼ Bi(n, p) (s. nachfolgendes Lemma),
¡
¢
so dass als Modell für das Zufallsexperiment der (diskrete) W-Raum {0, 1, . . . , n} , Bi(n, p) adäquat ist.
Lemma 2.12 (Summe von stoch. unabhängigen binomial-(ni , p)-verteilten ZV’en)
Wenn X1 , . . . , Xm stochastisch unabhängige Zufallsvariablen mit Xi ∼ Bi(ni , p) (i = 1, . . . , m) sind,
wobei ni ∈ N (i = 1, . . . , m) und p ∈ [ 0 , 1 ] , dann gilt:
m
X
i=1
Xi ∼ Bi(n, p) mit n =
m
X
i=1
ni .
14
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010
Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
15
Bemerkung: Summe von stoch. unabhängigen binomial-(1, pi )-verteilten ZV’en;
Poisson-Verteilung als Approximation
Seien X1 , . . . , Xn stochastisch unahängige 0-1-wertige Zufallsvariablen, aber nicht notwendig identisch
verteilt: Xi ∼ Bi(1, pi ) mit einem pi ∈ [0 , 1 ] (i = 1, . . . , n). Wir interessieren uns für die Verteilung
n
P
der Summenvariablen S :=
Xi . Diese ist i.A. analytisch schwierig zu handhaben. Eine brauchbare
i=1
Approximation liefert eine Poisson-(λ)-Verteilung mit λ :=
n
P
i=1
pi , sofern die Wahrscheinlichkeiten
pi klein sind, (s. nachfolgendes Lemma). Daher ist oft plausibel, dass eine zufällige Anzahl, z.B. die
Anzahl der Kunden einer Service-Station an einem Tag, oder z. B. die Anzahl zerfallener Teilchen einer
radioaktiven Substanz in einer Sekunde, in guter Näherung durch eine Poisson-verteilte Zufallsvariable
beschreibbar ist. Man kann sich nämlich vorstellen, dass die zufällige Anzahl durch eine Reihe von
unabhängigen 0-1-Experimenten mit jeweils kleinen Wahrscheinlichkeiten für “1” zu Stande kommt.
Lemma 2.13 (Poisson-Verteilung als Approximation)
¡
¢
Seien Xi : (Ω, A) −→ {0, 1}, P({0, 1}) , i = 1, . . . , n , stochastisch unabhängig und Xi ∼ Bi(1, pi )
n
¡
¢
P
mit pi ∈ [ 0 , 1 ] , i = 1, . . . , n. Betrachte die Summenvariable S :=
Xi : (Ω, A) −→ N0 , P(N0 ) .
i=1
Dann gilt für die Verteilung von S und die Poisson-(λ)-Verteilung mit λ :=
n
P
i=1
n
¯
¯
X
¯ S
¯
p2i
¯ P (A) − Poi(λ)(A) ¯ ≤
pi :
für alle A ⊆ N0 .
i=1
2.5
Bedingte Wahrscheinlichkeiten
Definition 2.14
Seien (Ω, A, P) ein W-Raum und A, B ∈ A mit P(B) > 0. Dann heißt die Zahl
P( A | B ) =
P( A ∩ B )
P(B)
die bedingte Wahrscheinlichkeit von A unter B.
Bemerkungen
1. Wie man leicht sieht, gilt 0 ≤ P(A|B) ≤ 1 .
2. Zur Interpretation des Wertes P(A|B) :
Im Unterschied zur “unbedingten” Wahrscheinlichkeit P(A) des Ereignisses A ist P(A|B) die aktualisierte Wahrscheinlichkeit von A unter der Zusatzinformation, dass das Ereignis B eintritt (oder
eingetreten ist).
3. Wann bleibt die Wahrscheinlichkeit für A dieselbe, d.h. wann gilt P(A|B) = P(A) ?
Das ist offensichtlich genau dann der Fall, wenn P(A ∩ B) = P(A) · P(B) ist, d.h. wenn die Ereignisse
A und B stochastisch unabhängig sind.
4. Wenn wir die bedingte Wahrscheinlichkeit P(A|B) für variierendes A ∈ A betrachten, aber mit
einem festen B ∈ A (mit P(B) > 0), so erkennen wir: P( · |B) ist eine W-Verteilung auf A;
Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010
Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
diese bedingte W-Verteilung unter B interpretieren wir als Aktualisierung der W-Verteilung P unter
der Zusatzinformation, dass das Ereignis B eintritt (oder eingetreten ist).
5. Sei X : (Ω, A) −→ (M, A) eine Zufallsvariable, und sei B ∈ A mit P(B) > 0 gegeben. Dann heißt
die Funktion (auf A),
PX|B (C) := P( {X ∈ C} | B ) , C ∈ A ,
die bedingte Verteilung von X unter B ; diese ist eine W-Verteilung auf A. Offensichtlich gilt:
¡
¢X
PX|B = P( · |B)
.
Beispiel: Gedächtnislosigkeit der Exponentialverteilung.
Sei X : (Ω, A) −→ (R, B 1 ) eine exponential-(λ)-verteilte Zufallsvariable: PX = Exp(λ) , mit einem
λ > 0 . Sei x0 ∈ ( 0 , ∞) gegeben.
Wir interessieren uns für die bedingte Verteilung der Zufallsvariablen X − x0 unter { X > x0 }.
Ergebnis: PX−x0 |X>x0 = Exp(λ) .
Jetzt noch einige allgemeine (aber elementare) Resultate über bedingte Wahrscheinlichkeiten. Zu
Grunde liege ein W-Raum (Ω, A, P) .
Lemma 2.15 (Multiplikationsformel für bedingte W’keiten)
³ n−1
´
T
Wenn n ∈ N, n ≥ 2, und A1 , A2 , . . . , An ∈ A mit P
Aj > 0, dann gilt:
j=1
n
³T
´
³ ¯ i−1
´
n
Y
¯ T
P
Ai = P(A1 )
P Ai ¯
Aj .
i=1
j=1
i=2
Korollar 2.16 (Gemeinsame Verteilung diskreter ZV’en)
¡
¢
Seien Xi : (Ω, A) −→ Mi , P(Mi ) , i = 1, . . . , n, wobei n ≥ 2 und die Mengen Mi (i = 1, . . . , n)
abzählbar sind. Dann gilt:
¡
P X1 = x1 , X2 = x2 , . . . , Xn = xn
¢
n
Y
¯
¡
¢
= P( X1 = x1 )
P Xi = xi ¯ X1 = x1 , . . . , Xi−1 = xi−1
i=2
für alle x1 ∈ M1 , x2 ∈ M2 , . . . , xn ∈ Mn mit P( X1 = x1 , X2 = x2 , . . . , Xn−1 = xn−1 ) > 0.
Lemma 2.17 (Bayes’sche Formeln)
Seien I eine abzählbare, nicht-leere Indexmenge
und Ai ∈ A, i ∈ I , eine Familie paarweise disjunkter
S
Ereignisse mit P(Ai ) > 0 ∀ i ∈ I und
Ai = Ω , (die Ai , i ∈ I , bilden also eine disjunkte Zerlegung
von Ω).
i∈I
Dann gilt für jedes Ereignis B ∈ A :
X
P(B) =
P(B|Ai ) P(Ai ).
(“Formel von der totalen Wahrscheinlichkeit”)
i∈I
Wenn P(B) > 0 ist, dann gilt noch:
P(Ai |B) =
P(B|Ai ) P(Ai )
P(B)
für jedes i ∈ I.
16
Herunterladen