¨Ubungen zur Wahrscheinlichkeitstheorie I Blatt 10 Lösungen

Werbung
Übungen zur Wahrscheinlichkeitstheorie I
Blatt 10 Lösungen
1. Sei (Xn )n∈N ein bezüglich der Filtration (Fn )n∈N adaptierter Prozeß. Gesucht ist eine
Zerlegung Xn = Mn + An , wobei (Mn )n∈N ein Martingal bezüglich (Fn )n∈N ist und
(An )n∈N ein vorhersagbarer Prozeß.
Seien (Mn ) und (An ) zwei solche Prozesse mit A0 = 0, dann gilt
Mn = Xn − An .
Weiter gilt mit der Martingaleigenschaft von (Mn )
E(Mn|Fn−1) = E(Xn|Fn−1) − An = Mn−1
⇔ An = E(Xn |Fn−1 ) − Mn−1
und damit
Mn = Xn − E(Xn |Fn−1 ) + Mn−1
= Xn − E(Xn − Xn−1 |Fn−1 ) − E(Xn |Fn−1 ) + Mn−2
n
P
= . . . = Xn −
E(Xk − Xk−1|Fk−1) − X0.
k=1
Für (An ) folgt
An =
n
P
k=1
E(Xk − Xk−1|Fk−1) + X0.
Damit sind (Mn ) und (An ) eindeutig bestimmt. Umgekehrt definieren obige Gleichungen
eine derartige Zerlegung, was die Existenz einer solchen Zerlegung beweist.
2. Wir bemerken zunächst, daß T geometrisch verteilt ist mit Parameter p. Es gilt somit
∞
E(YT ) = P E (Xn − c n) I{T =n}
=a+
n=1
=a+
∞
P
n=1
∞
P
n=1
E (Xn − a)+ I{T =n}
− c E(T )
E (Xn − a)+|T = n P(T = n) − pc
Die erste Aussage folgt nun mit
E (Xn − a)+|T = n = E (Xn − a)+|Xn > a,Xk ≤ a, k < n
= E (Xn − a)+ |Xn > a
E (Xn − a)+ I{X >a}
=
E I{X >a}
n
n
wobei wir die Unabhängigkeit der Xk ausgenutzt haben.
1
=
1
p
E
(Xn − a)+ ,
Für den zweiten Teil gilt mit den Hinweisen
∞
∞
E(Yτ ) = P E(Yn I{τ =n}) = a0 + P P E
n=1
= a0 +
= a0 +
= a0 +
n
n=1 k=1
∞
∞ P
P
k=1 n=k
∞
P
k=1
∞
P
k=1
E
E
E
(Xk − a0 )+ − c I{τ =n}
(Xk − a0 )+ − c I{τ =n}
(Xk − a0 )+ − c I{τ ≥k}
(Xk − a0 )+ − c
E
I{τ ≥k} = a0
3. Wir definieren
Mn = Sn2 − nσ 2 .
Dann ist Mn ein Martingal (ausrechnen!). Wegen τ ∧ n ≤ n gilt nach dem OptionalSampling Theorem
E(Mτ ∧n) = E(M1) = 0
und damit
E(Sτ2∧n) = E(τ ∧ n)σ2.
Da (Sτ2∧n )n∈N eine Cauchy-Folge ist (Nachweis!), folgt nun für n → ∞ die Behauptung.
4. Wir zeigen zunächst, daß für alle n ∈ N
P
n
|X2Kν | < K, ν ≤ n ≤ 1 − 4−K .
Für beliebigem Startwert x ∈ {−K, . . . , K} führen 2K Schritte nach oben den Random
Walk außerhalb des Intervals (−K, K). Also gilt
1
P(|x + X2K | ≥ K) ≥ 22K
für alle x ∈ (−K, K) und somit insbesondere
P(|X2K | < K) ≤ 1 − 41K .
Wir nehmen nun an, obige Aussage gilt für alle nu ≤ n − 1.
P(|X2Kν | < K, ν ≤ n) ≤ P(|X2Kn| < K| |X2Kν | < K, ν < n)P(|X2Kν | < K, ν < n)
Mit dem Satz von der totalen Wahrscheinlichkeit folgt für den ersten Faktor
P(|X2Kn| < K| |X2Kν | < K, ν < n)
K−1
P
=
P(|X2Kn| < K| X2K(n−1) = x, |X2Kν | < K, ν < n)P(X2K(n−1) = x| |X2Kν | < K, ν < n)
x=1−K
=
K−1
P
x=1−K
P(|x + X2K | < K)P(X2K(n−1) = x| |X2Kν | < K, ν < n)
1
≤ 1− K
4
K−1
P
x=1−K
P(X2K(n−1) = x| |X2Kν | < K, ν ≤ n − 1) =
2
1−
1
,
4K
wobei wir ausgenutzt haben, daß gegeben X2K(n−1) = x X2Kn unabhängig von X2Kν ,
ν < (n − 1) ist und wie ein Random Walk der Länge 2K mit Startwert x verteilt ist.
Zusammen mit der Induktionsannahme folgt damit die Behauptung.
Für die Stopzeit τ folgt damit
P(τ > 2Kn) = P(|Xk | < K, k ≤ 2Kn) ≤ P(|X2Kν | < K, ν ≤ n) ≤
und weiter
1−
1
4K
n
P(τ < ∞) ≥ n→∞
lim P(τ ≤ 2Kn) = 1.
Desweiteren erhalten wir für den Erwartungswert von τ
∞
∞
n=0
n=0
< ∞.
E(τ ) = P P(τ > n) ≤ 2K P P(τ > 2Kn) = 2K
4K
E(Zτ ) < ∞ und E(Zn I{τ ≥n}) → 0. Es gilt
E(|Zτ |) ≤ E(Xτ2) + E(τ ) = K 2 + E(τ ) < ∞
Es bleibt zu zeigen, daß
und
E(Zn I{τ ≥n}) = E(Xn2 I{τ ≥n}) − n P(τ ≥ n) ≤ K 2 P(τ ≥ n) − n P(τ ≥ n) → 0.
3
Herunterladen