Übungen zur Wahrscheinlichkeitstheorie I Blatt 10 Lösungen 1. Sei (Xn )n∈N ein bezüglich der Filtration (Fn )n∈N adaptierter Prozeß. Gesucht ist eine Zerlegung Xn = Mn + An , wobei (Mn )n∈N ein Martingal bezüglich (Fn )n∈N ist und (An )n∈N ein vorhersagbarer Prozeß. Seien (Mn ) und (An ) zwei solche Prozesse mit A0 = 0, dann gilt Mn = Xn − An . Weiter gilt mit der Martingaleigenschaft von (Mn ) E(Mn|Fn−1) = E(Xn|Fn−1) − An = Mn−1 ⇔ An = E(Xn |Fn−1 ) − Mn−1 und damit Mn = Xn − E(Xn |Fn−1 ) + Mn−1 = Xn − E(Xn − Xn−1 |Fn−1 ) − E(Xn |Fn−1 ) + Mn−2 n P = . . . = Xn − E(Xk − Xk−1|Fk−1) − X0. k=1 Für (An ) folgt An = n P k=1 E(Xk − Xk−1|Fk−1) + X0. Damit sind (Mn ) und (An ) eindeutig bestimmt. Umgekehrt definieren obige Gleichungen eine derartige Zerlegung, was die Existenz einer solchen Zerlegung beweist. 2. Wir bemerken zunächst, daß T geometrisch verteilt ist mit Parameter p. Es gilt somit ∞ E(YT ) = P E (Xn − c n) I{T =n} =a+ n=1 =a+ ∞ P n=1 ∞ P n=1 E (Xn − a)+ I{T =n} − c E(T ) E (Xn − a)+|T = n P(T = n) − pc Die erste Aussage folgt nun mit E (Xn − a)+|T = n = E (Xn − a)+|Xn > a,Xk ≤ a, k < n = E (Xn − a)+ |Xn > a E (Xn − a)+ I{X >a} = E I{X >a} n n wobei wir die Unabhängigkeit der Xk ausgenutzt haben. 1 = 1 p E (Xn − a)+ , Für den zweiten Teil gilt mit den Hinweisen ∞ ∞ E(Yτ ) = P E(Yn I{τ =n}) = a0 + P P E n=1 = a0 + = a0 + = a0 + n n=1 k=1 ∞ ∞ P P k=1 n=k ∞ P k=1 ∞ P k=1 E E E (Xk − a0 )+ − c I{τ =n} (Xk − a0 )+ − c I{τ =n} (Xk − a0 )+ − c I{τ ≥k} (Xk − a0 )+ − c E I{τ ≥k} = a0 3. Wir definieren Mn = Sn2 − nσ 2 . Dann ist Mn ein Martingal (ausrechnen!). Wegen τ ∧ n ≤ n gilt nach dem OptionalSampling Theorem E(Mτ ∧n) = E(M1) = 0 und damit E(Sτ2∧n) = E(τ ∧ n)σ2. Da (Sτ2∧n )n∈N eine Cauchy-Folge ist (Nachweis!), folgt nun für n → ∞ die Behauptung. 4. Wir zeigen zunächst, daß für alle n ∈ N P n |X2Kν | < K, ν ≤ n ≤ 1 − 4−K . Für beliebigem Startwert x ∈ {−K, . . . , K} führen 2K Schritte nach oben den Random Walk außerhalb des Intervals (−K, K). Also gilt 1 P(|x + X2K | ≥ K) ≥ 22K für alle x ∈ (−K, K) und somit insbesondere P(|X2K | < K) ≤ 1 − 41K . Wir nehmen nun an, obige Aussage gilt für alle nu ≤ n − 1. P(|X2Kν | < K, ν ≤ n) ≤ P(|X2Kn| < K| |X2Kν | < K, ν < n)P(|X2Kν | < K, ν < n) Mit dem Satz von der totalen Wahrscheinlichkeit folgt für den ersten Faktor P(|X2Kn| < K| |X2Kν | < K, ν < n) K−1 P = P(|X2Kn| < K| X2K(n−1) = x, |X2Kν | < K, ν < n)P(X2K(n−1) = x| |X2Kν | < K, ν < n) x=1−K = K−1 P x=1−K P(|x + X2K | < K)P(X2K(n−1) = x| |X2Kν | < K, ν < n) 1 ≤ 1− K 4 K−1 P x=1−K P(X2K(n−1) = x| |X2Kν | < K, ν ≤ n − 1) = 2 1− 1 , 4K wobei wir ausgenutzt haben, daß gegeben X2K(n−1) = x X2Kn unabhängig von X2Kν , ν < (n − 1) ist und wie ein Random Walk der Länge 2K mit Startwert x verteilt ist. Zusammen mit der Induktionsannahme folgt damit die Behauptung. Für die Stopzeit τ folgt damit P(τ > 2Kn) = P(|Xk | < K, k ≤ 2Kn) ≤ P(|X2Kν | < K, ν ≤ n) ≤ und weiter 1− 1 4K n P(τ < ∞) ≥ n→∞ lim P(τ ≤ 2Kn) = 1. Desweiteren erhalten wir für den Erwartungswert von τ ∞ ∞ n=0 n=0 < ∞. E(τ ) = P P(τ > n) ≤ 2K P P(τ > 2Kn) = 2K 4K E(Zτ ) < ∞ und E(Zn I{τ ≥n}) → 0. Es gilt E(|Zτ |) ≤ E(Xτ2) + E(τ ) = K 2 + E(τ ) < ∞ Es bleibt zu zeigen, daß und E(Zn I{τ ≥n}) = E(Xn2 I{τ ≥n}) − n P(τ ≥ n) ≤ K 2 P(τ ≥ n) − n P(τ ≥ n) → 0. 3