Die (faktorisierte) bedingte Erwartung

Werbung
Die (faktorisierte) bedingte Erwartung
Motivation
Sei X eine Zufallsgröße und sei Y eine diskrete Zufallsgröße mit P (Y = y) > 0
für alle y ∈ Y (Ω). Die bedingte Wahrscheinlichkeit von X = x, gegeben
Y = y, ist definiert durch
P (X = x|Y = y) =
P (X = x, Y = y)
P (Y = y)
Sei die Verteilung von X, gegeben Y = y, definiert durch
P X|Y =y : BR → [0, 1],
A 7→ P (X ∈ A|Y = y) =
P (X ∈ A, Y = y)
P (Y = y)
Dann liegt es nahe
Z
1
1
E(X|Y = y) : =
·
X dP =
· E(1{Y =y} · X)
P (Y = y) {Y =y}
P (Y = y)
Z
= x P X|Y =y (dx)
zu betrachten - der bedingte Erwartungswert von X, gegeben Y = y.
Problem:
Wie kann man allgemein vorgehen? (→ (faktorisierte) bedingte Erwartung)
Vorgehensweise
Satz Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, X : Ω → R eine Zufallsgröße
mit existierendem Erwartungswert und sei F ⊆ A eine Unter-σ-Algebra. Dann
existiert eine P -fast sicher eindeutig bestimmte F-meßbare Abbildung Y : Ω →
R mit
Z
Z
Y dP =
X dP für alle F ∈ F.
F
F
Notation
Statt Y schreiben wir E(X|F) und bemerken, daß formal Äquivalenzklassen
vorliegen. Zudem setzen wir P (A|F) := E(1A |F), A ∈ A.
1
Bemerkung:
• Manchmal interessiert man sich für die Existenz bestimmter Repräsentanten.
• F wird als bekannte (vorliegende) Information interpretiert.
Beispielsweise gilt E(X|{∅, Ω}) = EX. Sei nun zusätzlich Y eine Zufallsgröße
und
F := σ(Y ) := {Y −1 (A) : A ∈ BR }
die von Y erzeugte σ-Algebra.
Notation
Wir setzen E(X|Y ) := E(X|σ(Y )) - die bedingte Erwartung von X, gegeben Y .
Beispiel Seien X, Y stochastisch unabhängige (und integrierbare) Zufallsgrößen.
Dann gilt
E(X|Y ) = EX P -fast sicher,
denn EX ist als konstante Abbildung σ(Y )-meßbar und ist A ∈ BR , so gilt
Z
X dP = E(1Y −1 (A) · X) = E(1Y −1 (A) ) · EX
Y −1 (A)
Z
= E(1Y −1 (A) · EX) =
EX dP.
Y −1 (A)
E(X|Y ) ist also eine σ(Y )-meßbare Abbildung, für derartige Abbildungen existiert die nachfolgende Faktorisierung:
Satz (Faktorisierungslemma) Zu jeder σ(Y )-meßbaren Zufallsgröße
Z:Ω→R
existiert eine meßbare Abbildung h : R → R mit Z = h ◦ Y .
Z
- R
pp
*
p
pp
p
p
pp
Faktorisierung von Z bzgl. Y
Y
ppph
p
p
p
p
?p p p
(Ω, σ(Y ))
R
(Beweisidee: Betrachte zunächst Z = 1Y −1 (A) = 1A ◦ Y .)
Wendet man obiges Faktorisierungslemma auf die σ(Y )-meßbare Abbildung
E(X|Y ) an, so existiert also eine meßbare Abbildung h : R → R mit
h ◦ Y = E(X|Y ).
Statt h schreibt man E(X|Y = · ) und man setzt
E(X|Y = y) := E(X|Y = · )(y).
E(X|Y = · ) : R → R wird als faktorisierter bedingte Erwartungswert (von
X, gegeben Y ) bezeichnet.
2
Bemerkung: Ist also h = E(X|Y = · ), so gilt also h(Y ) = E(X|Y ).
Notation
Setze P (A|Y = · ) := E(1A |Y = · ) und P (A|Y = y) = E(1A |Y = y).
Aufgabe
Ist Y eine diskrete Zufallsgröße mit P (Y = y) > 0, so gilt
P (A|Y = y) =
P (A ∩ {Y = y})
P (Y = y)
für alle y ∈ Y (Ω).
Entsprechend zeigt man allgemein E(X|Y = y) =
1
P (Y =y)
·
R
{Y =y}
X dP .
Satz Die Abbildung h = E(X|Y = · ) ist durch die Beziehung
Z
Z
(∗)
X dP =
h dP Y für alle A ∈ BR
Y −1 (A)
A
eindeutig festgelegt (Gilt (∗), so ist h = E(X|Y = · )).
Beweis:
Für A ∈ BR gilt
Z
Z
Z
X dP =
E(X|Y ) dP =
E(X|Y = · ) ◦ Y dP
Y −1 (A)
Y −1 (A)
Y −1 (A)
Z
Z
¡
¢
E(X|Y = · ) ◦ Y · (1A ◦ Y ) dP = E(X|Y = · ) · 1A dP Y
=
Z
=
E(X|Y = · ) dP Y
A
Gilt umgekehrt (∗), so folgt E(X|Y ) = h ◦ Y , d.h. h = E(X|Y = · ), denn h ◦ Y ist
σ(Y )-meßbar und für alle A ∈ BR gilt
Z
Z
Z
X dP =
h dP Y =
h ◦ Y dP.
(∗)
Y −1 (A)
Y −1 (A)
A
¥
Bemerkung: Es gilt
Z
Z
Z
Y
Y
P (A|Y = y) P (dy) =
E(1A |Y = y) P (dy) =
R
R
Y −1 (R)
1A dP = P (A).
Beispiel Seien X, Y stochastisch unabhängige Zufallsgrößen (und integrierbar). Dann gilt E(X|Y = y) = EX, denn ist A ∈ BR , so gilt
Z
Z
Z
−1
Y
X = E(11Y −1 (A) · X) = EX · P (Y (A)) = EX ·
dP =
EX dP Y .
Y −1 (A)
A
3
A
Reguläre bedingte Wahrscheinlichkeiten
Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und F eine Unter-σ-Algebra von A.
Für jedes A ∈ A betrachte wieder
P (A|F) := E(1A |F).
Dann gelten die folgenden Aussagen:
(a) P (A|F) ∈ [0, 1] (P -fast sicher).
(b) Ist A ⊆ B, so gilt P (A|F) ≤ P (B|F) (P -fast sicher).
(c) Ist (An ) eine Folge von paarweise disjunkten Mengen in F, so gilt
(∗)
P
³[
n∈N
∞
¯ ´ X
An ¯F =
P (An |F). (P -fast sicher)
n=1
Warnung!
Die Eigenschaft (c) bedeutet nicht, daß P (A|F)(ω) für jedes ω ∈ Ω ein
Wahrscheinlichkeitsmaß ist!
Für eine vorgegebene Folge (An ) ist die Gleichung (∗) auf einer Menge vom
Maß 0 verletzt (Stichwort: Repräsentant/Version). Die Ausnahmemenge hängt
jedoch von der Folge (An ) ab! Es ist also möglich, daß kein ω ∈ Ω existiert, so
daß (∗) für jede (paarweise disjunkte) Mengenfolge (An ) gilt.
Sei (Ω0 , A0 ) ein weiterer meßbarer Raum. Eine Funktion
K : Ω × A0 → [0, 1]
derart, daß gilt
(i) Für P -fast alle ω ∈ Ω ist A0 7→ K(ω, A) ein Wahrscheinlichkeitsmaß auf
(Ω0 , A0 ).
(ii) Für jedes A0 ∈ A0 ist ω 7→ K(ω, A) meßbar.
heißt auch (Wahrscheinlichkeits- / stochastischer) Kern, genauer: Kern von
(Ω, A) nach (Ω0 , A0 ). Wir nennen eine P ( · |F) eine reguläre bedingte Wahrscheinlichkeit (bzgl. F), wenn es einen Kern K gibt mit
K(ω, A) = P (A|A)(ω)
für alle ω ∈ Ω, A ∈ A.
4
Bemerkung: Ist P ( · |F) regulär, so gilt für jede quadrat-integrierbare Zufallsgröße X : Ω → R
Z
E(X|F)(ω) =
X(ω 0 ) P (dω 0 |F)(ω) für P -fast alle ω ∈ Ω.
Ω
Beweis:
Es genügt die Aussage für X = 1A , A ∈ A, zu zeigen. Dann gilt für fast jedes ω ∈ Ω:
Z
Z
0
0
E(X|F)(ω) = P (A|F)(ω) =
1A (ω ) P (dω |F)(ω) =
X(ω 0 ) P (dω 0 |F)(ω).
Ω
Ω
¥
0
Sei X : Ω → Ω eine Zufallsvariable und sei F eine Unter-σ-Algebra von A.
Jeder Kern
P X|F : Ω × A0 → [0, 1]
von (Ω, A) nach (Ω0 , A0 ) derart, daß ω 7→ P X|F (ω, A0 ) für jedes A0 ∈ A0 eine Version von P (X ∈ A0 |F) ist, heißt reguläre bedingte Verteilung von X, gegeben
F.
Notation
Ist F = σ(Y ) für eine Zufallsvariable Y : (Ω0 , A0 ) → (Ω00 , A00 ), so schreibt man
statt P X|F auch einfacher P X|Y und nennt diesen Kern eine reguläre bedingte
Verteilung von X, gegeben Y .
Natürlich läßt sich für die reguläre bedingte Verteilung von X, gegeben Y
wieder eine Faktorisierung durchführen. Für diese schreiben wir
P X|Y = · ,
die reguläre bedingte Verteilung von X, gegeben Y = y ist also P X|Y =y .
5
Herunterladen