Die (faktorisierte) bedingte Erwartung Motivation Sei X eine Zufallsgröße und sei Y eine diskrete Zufallsgröße mit P (Y = y) > 0 für alle y ∈ Y (Ω). Die bedingte Wahrscheinlichkeit von X = x, gegeben Y = y, ist definiert durch P (X = x|Y = y) = P (X = x, Y = y) P (Y = y) Sei die Verteilung von X, gegeben Y = y, definiert durch P X|Y =y : BR → [0, 1], A 7→ P (X ∈ A|Y = y) = P (X ∈ A, Y = y) P (Y = y) Dann liegt es nahe Z 1 1 E(X|Y = y) : = · X dP = · E(1{Y =y} · X) P (Y = y) {Y =y} P (Y = y) Z = x P X|Y =y (dx) zu betrachten - der bedingte Erwartungswert von X, gegeben Y = y. Problem: Wie kann man allgemein vorgehen? (→ (faktorisierte) bedingte Erwartung) Vorgehensweise Satz Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, X : Ω → R eine Zufallsgröße mit existierendem Erwartungswert und sei F ⊆ A eine Unter-σ-Algebra. Dann existiert eine P -fast sicher eindeutig bestimmte F-meßbare Abbildung Y : Ω → R mit Z Z Y dP = X dP für alle F ∈ F. F F Notation Statt Y schreiben wir E(X|F) und bemerken, daß formal Äquivalenzklassen vorliegen. Zudem setzen wir P (A|F) := E(1A |F), A ∈ A. 1 Bemerkung: • Manchmal interessiert man sich für die Existenz bestimmter Repräsentanten. • F wird als bekannte (vorliegende) Information interpretiert. Beispielsweise gilt E(X|{∅, Ω}) = EX. Sei nun zusätzlich Y eine Zufallsgröße und F := σ(Y ) := {Y −1 (A) : A ∈ BR } die von Y erzeugte σ-Algebra. Notation Wir setzen E(X|Y ) := E(X|σ(Y )) - die bedingte Erwartung von X, gegeben Y . Beispiel Seien X, Y stochastisch unabhängige (und integrierbare) Zufallsgrößen. Dann gilt E(X|Y ) = EX P -fast sicher, denn EX ist als konstante Abbildung σ(Y )-meßbar und ist A ∈ BR , so gilt Z X dP = E(1Y −1 (A) · X) = E(1Y −1 (A) ) · EX Y −1 (A) Z = E(1Y −1 (A) · EX) = EX dP. Y −1 (A) E(X|Y ) ist also eine σ(Y )-meßbare Abbildung, für derartige Abbildungen existiert die nachfolgende Faktorisierung: Satz (Faktorisierungslemma) Zu jeder σ(Y )-meßbaren Zufallsgröße Z:Ω→R existiert eine meßbare Abbildung h : R → R mit Z = h ◦ Y . Z - R pp * p pp p p pp Faktorisierung von Z bzgl. Y Y ppph p p p p ?p p p (Ω, σ(Y )) R (Beweisidee: Betrachte zunächst Z = 1Y −1 (A) = 1A ◦ Y .) Wendet man obiges Faktorisierungslemma auf die σ(Y )-meßbare Abbildung E(X|Y ) an, so existiert also eine meßbare Abbildung h : R → R mit h ◦ Y = E(X|Y ). Statt h schreibt man E(X|Y = · ) und man setzt E(X|Y = y) := E(X|Y = · )(y). E(X|Y = · ) : R → R wird als faktorisierter bedingte Erwartungswert (von X, gegeben Y ) bezeichnet. 2 Bemerkung: Ist also h = E(X|Y = · ), so gilt also h(Y ) = E(X|Y ). Notation Setze P (A|Y = · ) := E(1A |Y = · ) und P (A|Y = y) = E(1A |Y = y). Aufgabe Ist Y eine diskrete Zufallsgröße mit P (Y = y) > 0, so gilt P (A|Y = y) = P (A ∩ {Y = y}) P (Y = y) für alle y ∈ Y (Ω). Entsprechend zeigt man allgemein E(X|Y = y) = 1 P (Y =y) · R {Y =y} X dP . Satz Die Abbildung h = E(X|Y = · ) ist durch die Beziehung Z Z (∗) X dP = h dP Y für alle A ∈ BR Y −1 (A) A eindeutig festgelegt (Gilt (∗), so ist h = E(X|Y = · )). Beweis: Für A ∈ BR gilt Z Z Z X dP = E(X|Y ) dP = E(X|Y = · ) ◦ Y dP Y −1 (A) Y −1 (A) Y −1 (A) Z Z ¡ ¢ E(X|Y = · ) ◦ Y · (1A ◦ Y ) dP = E(X|Y = · ) · 1A dP Y = Z = E(X|Y = · ) dP Y A Gilt umgekehrt (∗), so folgt E(X|Y ) = h ◦ Y , d.h. h = E(X|Y = · ), denn h ◦ Y ist σ(Y )-meßbar und für alle A ∈ BR gilt Z Z Z X dP = h dP Y = h ◦ Y dP. (∗) Y −1 (A) Y −1 (A) A ¥ Bemerkung: Es gilt Z Z Z Y Y P (A|Y = y) P (dy) = E(1A |Y = y) P (dy) = R R Y −1 (R) 1A dP = P (A). Beispiel Seien X, Y stochastisch unabhängige Zufallsgrößen (und integrierbar). Dann gilt E(X|Y = y) = EX, denn ist A ∈ BR , so gilt Z Z Z −1 Y X = E(11Y −1 (A) · X) = EX · P (Y (A)) = EX · dP = EX dP Y . Y −1 (A) A 3 A Reguläre bedingte Wahrscheinlichkeiten Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und F eine Unter-σ-Algebra von A. Für jedes A ∈ A betrachte wieder P (A|F) := E(1A |F). Dann gelten die folgenden Aussagen: (a) P (A|F) ∈ [0, 1] (P -fast sicher). (b) Ist A ⊆ B, so gilt P (A|F) ≤ P (B|F) (P -fast sicher). (c) Ist (An ) eine Folge von paarweise disjunkten Mengen in F, so gilt (∗) P ³[ n∈N ∞ ¯ ´ X An ¯F = P (An |F). (P -fast sicher) n=1 Warnung! Die Eigenschaft (c) bedeutet nicht, daß P (A|F)(ω) für jedes ω ∈ Ω ein Wahrscheinlichkeitsmaß ist! Für eine vorgegebene Folge (An ) ist die Gleichung (∗) auf einer Menge vom Maß 0 verletzt (Stichwort: Repräsentant/Version). Die Ausnahmemenge hängt jedoch von der Folge (An ) ab! Es ist also möglich, daß kein ω ∈ Ω existiert, so daß (∗) für jede (paarweise disjunkte) Mengenfolge (An ) gilt. Sei (Ω0 , A0 ) ein weiterer meßbarer Raum. Eine Funktion K : Ω × A0 → [0, 1] derart, daß gilt (i) Für P -fast alle ω ∈ Ω ist A0 7→ K(ω, A) ein Wahrscheinlichkeitsmaß auf (Ω0 , A0 ). (ii) Für jedes A0 ∈ A0 ist ω 7→ K(ω, A) meßbar. heißt auch (Wahrscheinlichkeits- / stochastischer) Kern, genauer: Kern von (Ω, A) nach (Ω0 , A0 ). Wir nennen eine P ( · |F) eine reguläre bedingte Wahrscheinlichkeit (bzgl. F), wenn es einen Kern K gibt mit K(ω, A) = P (A|A)(ω) für alle ω ∈ Ω, A ∈ A. 4 Bemerkung: Ist P ( · |F) regulär, so gilt für jede quadrat-integrierbare Zufallsgröße X : Ω → R Z E(X|F)(ω) = X(ω 0 ) P (dω 0 |F)(ω) für P -fast alle ω ∈ Ω. Ω Beweis: Es genügt die Aussage für X = 1A , A ∈ A, zu zeigen. Dann gilt für fast jedes ω ∈ Ω: Z Z 0 0 E(X|F)(ω) = P (A|F)(ω) = 1A (ω ) P (dω |F)(ω) = X(ω 0 ) P (dω 0 |F)(ω). Ω Ω ¥ 0 Sei X : Ω → Ω eine Zufallsvariable und sei F eine Unter-σ-Algebra von A. Jeder Kern P X|F : Ω × A0 → [0, 1] von (Ω, A) nach (Ω0 , A0 ) derart, daß ω 7→ P X|F (ω, A0 ) für jedes A0 ∈ A0 eine Version von P (X ∈ A0 |F) ist, heißt reguläre bedingte Verteilung von X, gegeben F. Notation Ist F = σ(Y ) für eine Zufallsvariable Y : (Ω0 , A0 ) → (Ω00 , A00 ), so schreibt man statt P X|F auch einfacher P X|Y und nennt diesen Kern eine reguläre bedingte Verteilung von X, gegeben Y . Natürlich läßt sich für die reguläre bedingte Verteilung von X, gegeben Y wieder eine Faktorisierung durchführen. Für diese schreiben wir P X|Y = · , die reguläre bedingte Verteilung von X, gegeben Y = y ist also P X|Y =y . 5