Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Im Folgenden gehen wir von einem W-Raum (Ω, A, P) aus. Der Begriff der stochastischen Unabhängigkeit von Ereignissen in Ω bezieht sich auf die W-Verteilung P. Betrachten wir diesen Begriff zunächst für zwei Ereignisse. Definition 2.1 (Stoch. Unabhängigkeit zweier Ereignisse) Zwei Ereignisse A, B ∈ A heißen stochastisch unabhängig, wenn P( A ∩ B ) = P(A) · P(B) . Definition 2.2 (Stoch. Unabhängigkeit von n Ereignissen) Seien n ∈ N und C1 , . . . , Cn ∈ A. Die Ereignisse C1 , . . . , Cn heißen stochastisch unabhängig, wenn für jede nicht-leere Index-Teilmenge I ⊆ {1, . . . , n} gilt: ³T ´ Y P Ci = P(Ci ) . i∈I i∈I Definition 2.3 (Stoch. Unabhängigkeit von Ereignis-Systemen) Seien E1 , . . . , En nicht-leere Teilsysteme von A. Man nennt E1 , . . . , En stochastisch unabhängig, wenn für jede Auswahl E1 ∈ E1 , . . . , En ∈ En die Ereignisse E1 , . . . , En stochastisch unabhängig sind. Lemma 2.4 (Erzeugte Dynkin-Systeme) Seien E1 , . . . , En nicht-leere Teilsysteme von A, und E1 , . . . , En seien stochastisch unabhängig. Bezeichne δ(Ei ) das von Ei in Ω erzeugte Dynkin-System, i = 1, . . . , n . Dann sind δ(E1 ), . . . , δ(En ) stochastisch unabhängig. 9 Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010 Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.2 Stochastische Unabhängigkeit von Zufallsvariablen Wir gehen wieder von einem W-Raum (Ω, A, P) aus. Jetzt betrachten wir n Zufallsvariablen auf Ω, Xi : (Ω, A) −→ (Mi , Ai ) , i = 1, . . . , n , wobei (Mi , Ai ) (i = 1, . . . , n) Messräume seien. Der Begriff der stochastischen Unabhängigkeit von Zufallsvariablen auf Ω bezieht sich wiederum auf die W-Verteilung P. Definition 2.5 (Stoch. Unabhängigkeit von Zufallsvariablen) Seien Xi : (Ω, A) −→ (Mi , Ai ), i = 1, . . . , n . Die Zufallsvariablen X1 , . . . , Xn heißen stochastisch unabhängig, wenn für jede Auswahl A1 ∈ A1 , . . ., An ∈ An gilt: Die Ereignisse {X1 ∈ A1 } , . . . , {Xn ∈ An } sind stochastisch unabhängig. Bemerkungen 1. Mit Blick auf Definition 2.3 sehen wir: Die Zufallsvariablen X1 , . . . , Xn sind genau dann stochastisch unabhängig, wenn die Mengensysteme σ(X1 ), . . . , σ(Xn ) stochastisch unabhängig sind, wobei n o σ(Xi ) := Xi−1 (Ai ) : Ai ∈ Ai , i = 1, . . . , n . Die Bezeichnung σ(Xi ) beruht darauf, dass dieses Mengensystem eine Unter-Sigma-Algebra von A ist, und sie heißt die von Xi erzeugte Sigma-Algebra in Ω. 2. Die Zufallsvariablen X1 , . . . , Xn sind genau dann stochastisch unabhängig, wenn für jede Auswahl A1 ∈ A1 , . . ., An ∈ An gilt: ¢ ¡ P X1 ∈ A1 , . . . , Xn ∈ An = P(X1 ∈ A1 ) · . . . · P(Xn ∈ An ) . Im Fall diskreter Zufallsvariablen lässt sich die Beschreibung der stochastischen Unabhängigkeit wesentlich vereinfachen: Lemma 2.6 (Stoch. Unabhängigkeit diskreter ZV’en) ¡ ¢ Seien X1 , . . . , Xn diskrete Zufallsvariablen auf Ω, d.h. Xi : (Ω, A) −→ Mi , P(Mi ) mit abzählbaren Mengen Mi , (i = 1, . . . , n). Die Zufallsvariablen X1 , . . . , Xn sind genau dann stochastisch unabhängig, wenn für jede Auswahl von Elementen x1 ∈ M1 , . . . , xn ∈ Mn gilt: ¡ ¢ P X1 = x1 , . . . , Xn = xn = P(X1 = x1 ) · . . . · P(Xn = xn ) . Spezieller für den Fall zweier (n = 2) diskreter Zufallsvariablen X1 und X2 , lautet die Bedingung für die stochastische Unabhängigkeit von X1 und X2 also: ¡ ¢ P X1 = x1 , X2 = x2 = P(X1 = x1 ) · P(X2 = x2 ) für alle x1 ∈ M1 und x2 ∈ M2 . Auch im nicht-diskreten Fall lässt sich eine Reduktion in der Bedingung für stochastische Unabhängigkeit von Zufallsvariablen vornehmen. 10 Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010 Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Theorem 2.7 (Reduktion auf Durchschnitt-stabile Erzeuger) Seien Xi : (Ω, A) −→ (Mi , Ai ), i = 1, . . . , n . Sei Ei ⊆ Ai ein Durchschnitt-stabiler Erzeuger S∞ der SigmaAlgebra Ai mit der weiteren Eigenschaft, dass eine isotone Folge Ei,j ∈ Ei (j ∈ N) mit j=1 Ei,j = Mi existiert, für jedes i = 1, . . . , n. Dann gilt die Äquivalenz: Die Zufallsvariablen X1 , . . . , Xn sind genau dann stochastisch unabhängig, wenn ¡ ¢ P X1 ∈ E1 , . . . , Xn ∈ En = P(X1 ∈ E1 ) · . . . · P(Xn ∈ En ) für jede Auswahl E1 ∈ E1 , . . . , En ∈ En . Beispiel: Reelle Zufallsvariablen Xi : (Ω, A) −→ (R, B 1 ) , (i = 1, . . . , n). Das Teilsystem von B 1 , © ª Ei = E = (−∞ , a ] : a ∈ R , erfüllt die Bedingungen von Theorem 2.7. Die stochastische Unabhängigkeit der reellen Zufallsvariablen X1 , . . . , Xn ist daher äquivalent zu: ¢ ¡ P X1 ≤ x1 , . . . , Xn ≤ xn = P(X1 ≤ x1 ) · . . . · P(Xn ≤ xn ) ∀ x1 , . . . , xn ∈ R . Die beiden folgenden Lemmata sind von Nutzen, wenn aus stochastisch unabhängigen Zufallsvariablen durch gewisse Transformationen neue Zufallsvariablen erzeugt werden. Wenn wir bei der Formulierung des zweiten Lemma doppelt indizierte Zufallsvariablen und Messräume verwenden, so soll das nur zur besseren Lesbarkeit dienen und hat inhaltlich keine weitere Bedeutung. Lemma 2.8 Seien X1 , . . . , Xn stochastisch unabhängige Zufallsvariablen, wobei Xi : (Ω, A) −→ (Mi , Ai ) , (i = 1, . . . , n) . Seien noch messbare Abbildungen gegeben: Ti : (Mi , Ai ) −→ (Ni , Bi ) , i = 1, . . . , n , mit Messräumen (Ni , Bi ) (i = 1, . . . , n). Dann gilt für Yi := Ti ◦ Xi , i = 1, . . . , n : Die Zufallsvariablen Y1 , . . . , Yn sind stochastisch unabhängig. Lemma 2.9 Seien X11 , . . . , X1n1 , X21 , . . . , X2n2 , . . . , Xk1 , . . . , Xknk stochastisch unabhängige Zufallsvariablen, wobei Xij : (Ω, A) −→ (Mij , Aij ), i = 1, . . . , k , j = 1, . . . , ni . Wir bilden nun die “mehrdimensionalen” Zufallsvariablen, ³ ni ´ ni X i = ( Xi1 , . . . , Xini ) : (Ω, A) −→ × Mij , ⊗ Aij , j=1 j=1 Dann sind die Zufallsvariablen X 1 , . . . , X k stochastisch unabhängig. i = 1, . . . , k . 11 Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010 Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.3 12 Gemeinsame Verteilung und Produkt-Verteilung Seien (Ω, A, P) ein W-Raum, und seien n Zufallsvariablen gegeben: Xi : (Ω, A) −→ (Mi , Ai ) , i = 1, . . . , n , wobei (Mi , Ai ) Messräume sind. Bilde die n-dimensionale Zufallsvariable ³n ´ ¡ ¢ n X = (X1 , . . . , Xn ) : (Ω, A) −→ × Mi , ⊗ Ai , X(ω) = X1 (ω), . . . , Xn (ω) ∀ ω ∈ Ω . i=1 i=1 Die Verteilung von X = (X1 , . . . , Xn ), P(X1 ,...,Xn ) , heißt die gemeinsame Verteilung der Zufallsvan riablen X1 , . . . , Xn ; diese ist eine W-Verteilung auf der Produkt-Sigma-Algebra ⊗ Ai . i=1 Andererseits können wir auch das Produkt-Maß der einzelnen Verteilungen PXi bilden: n n ⊗ PXi , das i=1 auch eine W-Verteilung auf der Produkt-Sigma-Algebra ⊗ Ai ist. i=1 Theorem 2.10 (Stoch. Unabhängigkeit von ZV’en und Produkt-Verteilung) Die Zufallsvariablen X1 , . . . , Xn sind genau dann stochastisch unabhängig, wenn ihre gemeinsame Verteilung gleich dem Produkt der einzelnen Verteilungen ist, d.h. n P(X1 ,...,Xn ) = ⊗ PXi . i=1 Lemma 2.11 (Maßtheoretisches Hilfsresultat: Produkt-Dichte) Seien (Mi , Ai , µi ) , i = 1, . . . , n, Maßräume mit sigma-endlichen Maßen µi (i = 1, . . . , n), und für jedes i sei Pi eine W-Verteilung auf Ai mit der µi -Dichte fi ; also: Pi = fi · µi (i = 1, . . . , n). n n i=1 i=1 Dann gilt für die Produkt-Verteilung P := ⊗ Pi und das Produkt-Maß µ := ⊗ µi : P = f · µ mit f (x1 , . . . , xn ) := n Y n fi (xi ) ∀ (x1 , . . . , xn ) ∈ × Mi . i=1 i=1 Beispiel: Gemeinsam normalverteilte ZV’en Seien X1 , . . . , Xn reelle Zufallsvariablen, die gemeinsam normal-(β, V )-verteilt sind, d.h. die n-dimensionale Zufallsvariable X = (X1 , . . . , Xn )0 ist N(β, V )-verteilt. Dabei sind β = (β1 , . . . , βn )0 ∈ Rn und V = (vij )1≤i,j≤n eine positiv definite n × n Matrix. Die gemeinsame Verteilung von X1 , . . . , Xn hat also die λλn -Dichte ³ ´ ¡ ¢−1/2 fX (x) = (2π)−n/2 det(V ) exp − 21 (x − β)0 V −1 (x − β) , x ∈ Rn . Für jedes i ∈ {1, . . . , n} ist die Zufallsvariable Xi normal-(βi , vii )-verteilt, besitzt also die λλ1 -Dichte ³ (x − β )2 ´ 1 i i fi (xi ) = √ √ exp − , 2v vii 2π ii xi ∈ R. Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010 Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten n n i=1 i=1 13 Als λλn -Dichte der Produktverteilung ⊗ PXi = ⊗ N(βi , vii ) haben wir also nach Lemma 2.11: ³ ´ ¡ ¢−1/2 f (x) = (2π)−n/2 det(D) exp − 12 (x − β)0 D −1 (x − β) , wobei wir bezeichnet haben: x ∈ Rn , ¡ ¢ D = diag v11 , . . . , vnn , also die Diagonalmatrix gebildet aus der Diagonalen von V . Mit anderen Worten: n ⊗ P Xi = N(β, D) . i=1 Andererseits haben wir als gemeinsame Verteilung von X1 , . . . , Xn : P X = N(β, V ) . Nun sieht man leicht, dass die beiden n-dimensionalen Normalverteilungen N(β, V ) und N(β, D) genau dann übereinstimmen, wenn V = D. Wir sehen also: Die stochastische Unabhängigkeit von X1 , . . . , Xn liegt genau dann vor, wenn die Matrix V eine Diagonalmatrix ist. 2.4 Modellierung unabhängiger Zufallsexperimente Oft haben wir es mit Zufallsexperimenten zu tun, die aus mehreren “unabhängigen” Einzelexperimenten bestehen (z.B. die mehrmalige unabhängige Durchführung eines 0-1-Experiments). Mit Hilfe des Begriffes der stochastischen Unabhängigkeit lässt sich eine geeignete Modellierung dann allgemein wie folgt vornehmen. Das gesamte Zufallsexperiment bestehe aus n unabhängigen Einzelexperimenten; ein Ergebnis des (gesamten) Zufallsexperiments ist ein n-Tupel x = (x1 , x2 , . . . , xn ) , wobei xi das Ergebnis des i-ten Einzelexperiments bezeichnet, i = 1, . . . , n. Das Modell für das i-te Einzelexperiment sei durch einen W-Raum (Mi , Ai , Pi ) gegeben (i = 1, . . . , n), bzw. in der “ausgeschmückten” Formulierung: Sei (Ω, A, P) ein W-Raum im Hintergrund, und seien Zufallsvariablen Xi : (Ω, A) −→ (Mi , Ai ) mit PXi = Pi (i = 1, . . . , n) gegeben. Ein Ergebnis des Gesamtexperiments ist dann ein Wert der Zufallsvariablen X = (X1 , . . . , Xn ) , und das Modell des Gesamtexperiments ist der W-Raum ´ ³n n × Mi , ⊗ Ai , P(X1 ,...,Xn ) . i=1 i=1 Die Unabhängigkeit der Einzelexperimente wird als stochastische Unabhängigkeit der Zufallsvariablen X1 , X2 , . . . , Xn in die Modellierung eingebracht, so dass also mit Theorem 2.10 die Produkt-Verteilung resultiert, n n P(X1 ,...,Xn ) = ⊗ PXi = ⊗ Pi . i=1 i=1 Das Modell für das Gesamtexperiment ist also der Produkt-W-Raum ³ ´ n n n × Mi , ⊗ Ai , ⊗ Pi . i=1 i=1 i=1 Oft haben wir spezieller die Situation, dass es sich bei den Einzelexperimenten um unabhängige Durchführungen desselben Experiments handelt. Dann sind also die W-Räume (Mi , Bi , Pi ) (i = 1, . . . , n) identisch zu wählen, und die Verteilungen der Zufallsvariablen Xi (i = 1, . . . , n) sind daher identisch. Man spricht von identisch verteilten Zufallsvariablen X1 , X2 , . . . , Xn , und – zusammen mit der vorausgesetzten stochastischen Unabhängigkeit dieser Zufallsvariablen – von stochastisch unabhängigen Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010 Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten und identisch verteilten (Abk: u.i.v.) Zufallsvariablen X1 , X2 , . . . , Xn . Im Englischen.: independent and identically distributed (Abk.: i.i.d.) random variables X1 , X2 , . . . , Xn . Beispiel: Modell mit n u.i.v. normalverteilten Zufallsvariablen Z.B. in einer industriellen Fertigung: Zur Überwachung einer (reellen) Produktcharakteristik wird Stichprobe von n gefertigten Stücken gemessen. Modellierung oft durch n stochastisch unabhängige reelle Zufallsvariablen X1 , . . . , Xn , die jeweils als normal-(β, σ 2 )-verteilt angenommen werden. Kurz: Xi ∼ N(β, σ 2 ) , i = 1, . . . , n , Ihre gemeinsame Verteilung ist daher die Produktverteilung u.i.v. n ⊗ N(β, σ 2 ) ; ihre λλn -Dichte ist mit Lemma 2.11: i=1 ³ 1 ´i 1 √ exp − 2 (xi − β)2 2σ σ 2π i=1 ³ ´ 1 Pn 2 = (2π)−n/2 σ −n exp − 2 ∀ (x1 , . . . , xn ) ∈ Rn . i=1 (xi − β) 2σ f (x1 , . . . , xn ) = n h Y Mit Blick auf Definition 1.6 sehen wir auch: ¡ ¢ n ⊗ N(β, σ 2 ) = N β1n , σ 2 I n , i=1 wobei 1n = (1, . . . , 1)t ∈ Rn und I n die n × n Einheitsmatrix bezeichnen. Beispiel: n-malige unabhängige Durchführung eines 0-1-Experiments Die Wahrscheinlichkeit für “1” im Einzelexperiment sei mit p ∈ [ 0 , 1 ] bezeichnet. Das Modell für das Gesamtexperiment (n-malige unabhängige Durchführung des 0-1-Experiments) ist gegeben durch stochastisch unabhängige 0-1-wertige Zufallsvariablen X1 , X2 , . . . , Xn mit P (Xi = 1) = p und P (Xi = 0) = 1 − p , i = 1, 2, . . . , n, , also: Xi ∼ Bi(1, p) , i = 1, . . . , n , u.i.v. Die Wahrscheinlichkeiten für die einzelnen n-Tupel x = (x1 , x2 , . . . , xn ) (wobei xi ∈ {0, 1} ∀ i) sind daher gegeben durch die Zähldichte der gemeinsamen Verteilung (hier = Produkt-Verteilung), n Y Pn Pn ¡ ¢ P X1 = x1 , X2 = x2 , . . . , Xn = xn = P (Xi = xi ) = p i=1 xi (1 − p)n− i=1 xi . i=1 Hier ist Pn i=1 xi gleich der Anzahl der erzielten “1”-en und n − Pn i=1 xi die Anzahl der erzielten “0”-en. Beispiel: Binomial-verteilte Anzahl In der Praxis wird man bei einem Zufallsexperiment wie im vorigen Beispiel nicht die ausführliche Sequenz (n-Tupel) x = (x1 , x2 , . . . , xn ) als Ergebnis dokumentieren, sondern die Reduktion auf die Anzahl der “1”-en vornehmen. Das Ergebnis des Zufallsexperiments ist dann ein Wert einer Zufallsvariablen X, die ihre möglichen Werte in der Menge {0, 1, . . . , n} hat. Die adäquate Verteilungsannahme ist dann: X ∼ Bi(n, p) (s. nachfolgendes Lemma), ¡ ¢ so dass als Modell für das Zufallsexperiment der (diskrete) W-Raum {0, 1, . . . , n} , Bi(n, p) adäquat ist. Lemma 2.12 (Summe von stoch. unabhängigen binomial-(ni , p)-verteilten ZV’en) Wenn X1 , . . . , Xm stochastisch unabhängige Zufallsvariablen mit Xi ∼ Bi(ni , p) (i = 1, . . . , m) sind, wobei ni ∈ N (i = 1, . . . , m) und p ∈ [ 0 , 1 ] , dann gilt: m X i=1 Xi ∼ Bi(n, p) mit n = m X i=1 ni . 14 Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010 Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 15 Bemerkung: Summe von stoch. unabhängigen binomial-(1, pi )-verteilten ZV’en; Poisson-Verteilung als Approximation Seien X1 , . . . , Xn stochastisch unahängige 0-1-wertige Zufallsvariablen, aber nicht notwendig identisch verteilt: Xi ∼ Bi(1, pi ) mit einem pi ∈ [0 , 1 ] (i = 1, . . . , n). Wir interessieren uns für die Verteilung n P der Summenvariablen S := Xi . Diese ist i.A. analytisch schwierig zu handhaben. Eine brauchbare i=1 Approximation liefert eine Poisson-(λ)-Verteilung mit λ := n P i=1 pi , sofern die Wahrscheinlichkeiten pi klein sind, (s. nachfolgendes Lemma). Daher ist oft plausibel, dass eine zufällige Anzahl, z.B. die Anzahl der Kunden einer Service-Station an einem Tag, oder z. B. die Anzahl zerfallener Teilchen einer radioaktiven Substanz in einer Sekunde, in guter Näherung durch eine Poisson-verteilte Zufallsvariable beschreibbar ist. Man kann sich nämlich vorstellen, dass die zufällige Anzahl durch eine Reihe von unabhängigen 0-1-Experimenten mit jeweils kleinen Wahrscheinlichkeiten für “1” zu Stande kommt. Lemma 2.13 (Poisson-Verteilung als Approximation) ¡ ¢ Seien Xi : (Ω, A) −→ {0, 1}, P({0, 1}) , i = 1, . . . , n , stochastisch unabhängig und Xi ∼ Bi(1, pi ) n ¡ ¢ P mit pi ∈ [ 0 , 1 ] , i = 1, . . . , n. Betrachte die Summenvariable S := Xi : (Ω, A) −→ N0 , P(N0 ) . i=1 Dann gilt für die Verteilung von S und die Poisson-(λ)-Verteilung mit λ := n P i=1 n ¯ ¯ X ¯ S ¯ p2i ¯ P (A) − Poi(λ)(A) ¯ ≤ pi : für alle A ⊆ N0 . i=1 2.5 Bedingte Wahrscheinlichkeiten Definition 2.14 Seien (Ω, A, P) ein W-Raum und A, B ∈ A mit P(B) > 0. Dann heißt die Zahl P( A | B ) = P( A ∩ B ) P(B) die bedingte Wahrscheinlichkeit von A unter B. Bemerkungen 1. Wie man leicht sieht, gilt 0 ≤ P(A|B) ≤ 1 . 2. Zur Interpretation des Wertes P(A|B) : Im Unterschied zur “unbedingten” Wahrscheinlichkeit P(A) des Ereignisses A ist P(A|B) die aktualisierte Wahrscheinlichkeit von A unter der Zusatzinformation, dass das Ereignis B eintritt (oder eingetreten ist). 3. Wann bleibt die Wahrscheinlichkeit für A dieselbe, d.h. wann gilt P(A|B) = P(A) ? Das ist offensichtlich genau dann der Fall, wenn P(A ∩ B) = P(A) · P(B) ist, d.h. wenn die Ereignisse A und B stochastisch unabhängig sind. 4. Wenn wir die bedingte Wahrscheinlichkeit P(A|B) für variierendes A ∈ A betrachten, aber mit einem festen B ∈ A (mit P(B) > 0), so erkennen wir: P( · |B) ist eine W-Verteilung auf A; Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Sommersemester 2010 Kapitel 2: Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten diese bedingte W-Verteilung unter B interpretieren wir als Aktualisierung der W-Verteilung P unter der Zusatzinformation, dass das Ereignis B eintritt (oder eingetreten ist). 5. Sei X : (Ω, A) −→ (M, A) eine Zufallsvariable, und sei B ∈ A mit P(B) > 0 gegeben. Dann heißt die Funktion (auf A), PX|B (C) := P( {X ∈ C} | B ) , C ∈ A , die bedingte Verteilung von X unter B ; diese ist eine W-Verteilung auf A. Offensichtlich gilt: ¡ ¢X PX|B = P( · |B) . Beispiel: Gedächtnislosigkeit der Exponentialverteilung. Sei X : (Ω, A) −→ (R, B 1 ) eine exponential-(λ)-verteilte Zufallsvariable: PX = Exp(λ) , mit einem λ > 0 . Sei x0 ∈ ( 0 , ∞) gegeben. Wir interessieren uns für die bedingte Verteilung der Zufallsvariablen X − x0 unter { X > x0 }. Ergebnis: PX−x0 |X>x0 = Exp(λ) . Jetzt noch einige allgemeine (aber elementare) Resultate über bedingte Wahrscheinlichkeiten. Zu Grunde liege ein W-Raum (Ω, A, P) . Lemma 2.15 (Multiplikationsformel für bedingte W’keiten) ³ n−1 ´ T Wenn n ∈ N, n ≥ 2, und A1 , A2 , . . . , An ∈ A mit P Aj > 0, dann gilt: j=1 n ³T ´ ³ ¯ i−1 ´ n Y ¯ T P Ai = P(A1 ) P Ai ¯ Aj . i=1 j=1 i=2 Korollar 2.16 (Gemeinsame Verteilung diskreter ZV’en) ¡ ¢ Seien Xi : (Ω, A) −→ Mi , P(Mi ) , i = 1, . . . , n, wobei n ≥ 2 und die Mengen Mi (i = 1, . . . , n) abzählbar sind. Dann gilt: ¡ P X1 = x1 , X2 = x2 , . . . , Xn = xn ¢ n Y ¯ ¡ ¢ = P( X1 = x1 ) P Xi = xi ¯ X1 = x1 , . . . , Xi−1 = xi−1 i=2 für alle x1 ∈ M1 , x2 ∈ M2 , . . . , xn ∈ Mn mit P( X1 = x1 , X2 = x2 , . . . , Xn−1 = xn−1 ) > 0. Lemma 2.17 (Bayes’sche Formeln) Seien I eine abzählbare, nicht-leere Indexmenge und Ai ∈ A, i ∈ I , eine Familie paarweise disjunkter S Ereignisse mit P(Ai ) > 0 ∀ i ∈ I und Ai = Ω , (die Ai , i ∈ I , bilden also eine disjunkte Zerlegung von Ω). i∈I Dann gilt für jedes Ereignis B ∈ A : X P(B) = P(B|Ai ) P(Ai ). (“Formel von der totalen Wahrscheinlichkeit”) i∈I Wenn P(B) > 0 ist, dann gilt noch: P(Ai |B) = P(B|Ai ) P(Ai ) P(B) für jedes i ∈ I. 16