Stochastische Integration und stochastische Differentialgleichungen Gunther Leobacher Wintersemester 2009, Sommersemester 2010 Inhaltsverzeichnis 1 Stieltjes Integration 1.1 Riemann-Stieltjes’sches Integral . . . . 1.2 Lebesgue-Stieltjes’sches Integral . . . . 1.3 Funktionen von beschränkter Variation 1.4 Càdlàg und làdcàg Funktionen . . . . 1.5 Anwendungen des Stieltjes-Integrals . 1.6 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 6 11 16 20 23 25 2 Worum geht’s? 27 2.1 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3 Nachtrag zur Martingaltheorie in diskreter Zeit 3.1 Bedingte Erwartung . . . . . . . . . . . . . 3.2 (Sub-, Super-)Martingale, Stoppzeiten . . . 3.3 Martingaltransformation, Konvergenzsätze . 3.4 Zwei Doob Ungleichungen . . . . . . . . . . 3.5 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 29 31 37 46 48 4 Stochastische Prozesse in stetiger Zeit 4.1 Definitionen . . . . . . . . . . . . . . . 4.2 Zwei wichtige stochastische Prozesse . 4.3 Martingale und Stoppzeiten in stetiger 4.4 Übungsaufgaben . . . . . . . . . . . . . . . . . . Zeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 49 55 56 63 5 Stochastische Integration 5.1 Naive“ stochastische Integration . . . ” 5.2 Vorhersehbare Prozesse . . . . . . . . 5.3 Das Itô-Integral bezüglich M ∈ M2c . . 5.4 Das Itô-Integral bezüglich M ∈ Mc,loc 5.5 Eigenschaften des Itô-Integrals . . . . 5.6 Die Itô-Formel . . . . . . . . . . . . . 5.7 Stratonovich-Integral . . . . . . . . . . 5.8 Stochastischer Differentialkalkül . . . . 5.9 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 65 68 70 76 78 83 86 87 89 6 Stochastische Differentialgleichungen 6.1 Beispiele von stochastischen Differentialgleichungen 6.2 Existenz und Eindeutigkeit einer Lösung . . . . . . 6.3 Lösungen einfacher SDEs . . . . . . . . . . . . . . 6.4 Gebremstes Wachstum einer Population . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 93 94 101 102 . . . . . . . . . . . . . . . . . . 3 Inhaltsverzeichnis 6.5 6.6 7 Der 7.1 7.2 7.3 7.4 7.5 7.6 4 Elektrischer Schwingkreis . . . . . . . . . . . . . . . . . . . . . . 105 Marktmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 Satz von Girsanov Exponentielle Martingale . . . . . Kazamaki- und Novikov-Kriterium Einschub: M -integrierbare Prozesse Marktmodelle II . . . . . . . . . . Marktmodelle III . . . . . . . . . . Cameron-Martin-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 109 113 115 117 123 125 1 Stieltjes Integration Das stochastische Integral, welches wir in Kapitel 4 behandeln wollen, soll natürlich eine Verallgemeinerung eines oder mehrerer uns bereits bekannter Integralbegriffe sein, namentlich des Riemann- und/oder Lebesgue-Integrals. Diese Verallgemeinerung ist aber nicht sehr unmittelbar, sodass wir zunächst einen Zwischenschritt betrachten, welcher eine recht unmittelbare Verallgemeinerung zumindest des Riemann-Integrals darstellt, nämlich den Begriff des Stieltjes-Integrals. Die Grundidee ist, das Integral über eine Funktion f : [a, b] −→ R zu gewichten. Eine Möglichkeit, das zu machen, ist mit einer Gewichtsfunktion g zu gewichten, vergleiche Abbildung 1.1. f wenig gewichtet t a b stark gewichtet g t a b stark gewichtet Abbildung 1.1: Eine Möglichkeit, ein Integral zu gewichten. 5 1 Stieltjes Integration Das gewichtete Integral sieht dann so aus: Z b f (x)g(x)dx I= a Wir wollen aber eine etwas flexiblere Gewichtung, welche uns unter anderem erlaubt, alles Gewicht auf nur einen Punkt zu legen (ohne auf die Theorie der verallgemeinerten Funktionen zurückzugreifen). 1.1 Riemann-Stieltjes’sches Integral Wir wiederholen die Definition des Riemann-Integrals: Sei f : [a, b] −→ R eine beschränkte Funktion. Unter einer Zerlegung des Intervalls [a, b] verstehen wir eine Menge {t0 , t1 , . . . , tn } reeller Zahlen mit a = t0 < t1 < . . . < tn = b. Ist Z = {t0 , t1 , . . . , tn } eine solche Zerlegung, so definieren wir Mk := sup{f (x) : x ∈ [tk−1 , tk ]} , k = 1, . . . , n mk := inf{f (x) : x ∈ [tk−1 , tk ]} , k = 1, . . . , n . Wir definieren die zu f und Z gehörende Obersumme und Untersumme durch O(f, Z) := n X Mk (tk − tk−1 ) und k=1 U (f, Z) := n X mk (tk − tk−1 ) . k=1 Als nächsten Schritt definieren wir oberes und unteres Integral durch O(f ) := inf{O(f, Z) : Z eine Zerlegung } und U (f ) := sup{U (f, Z) : Z eine Zerlegung } . Das obere Integral existiert immer, da die Menge, über welche das Infimum genommen wird nicht-leer ist, und für jede Zerlegung Z gilt O(f, Z) = n X Mk (tk − tk−1 ) k=1 ≥ inf{f (x) : x ∈ [a, b]}(b − a) > −∞ Analog existiert das untere Integral immer, und man sieht leicht (Übung), dass U (f ) ≤ O(f ). Definition 1.1. Eine beschränkte Funktion f : [a, b] −→ R heißt RiemannRb integrierbar, falls O(f ) = U (f ). Die Zahl a f (x)dt := O(f ) = U (f ) heißt bestimmtes Riemann-Integral von f über [a, b]. 6 1.1 Riemann-Stieltjes’sches Integral Definition 1.2. Sei Z = {t0 , . . . , tn } eine Zerlegung von [a, b]. Die Zahl ∆(Z) := max{tk − tk−1 : 1 ≤ k ≤ n} heißt Feinheit der Zerlegung. Definition 1.3. Sei f [a, b] −→ R beschränkt, Z = {t0 , t, . . . , tm } eine Zerlegung von [a, b] und τk ∈ [tk−1 , tk ] für alle k = 1, . . . , n. Schreibe τ := {τ1 , . . . , τn }. Dann heißt n X S(f, Z, τ ) := f (τk )(tk − tk−1 ) k=1 eine Riemann-Summe. Satz 1.4. Sei f : [a, b] −→ R beschränkt. f ist genau dann Riemann-integrierbar, wenn es eine Zahl I ∈ R gibt derart, dass für jede Folge (Z m )m≥1 von Zerm m legungen von [a, b], Z m = {tm 0 , . . . , tnm } mit limm ∆(Z ) = 0 und jede Folge m m m m m m (τ )m≥1 , von Stützstellen τ = {τ1 , . . . , τnm }, τk ∈ [tm k−1 , tk ] für alle k = 1, . . . , nm , m ≥ 1 gilt lim S(f, Z m , τ m ) = I. m→∞ In diesem Fall gilt I = Rb a f (x)dx. Beweis: Grundvorlesung Analysis oder Übung. In vollständiger Analogie zum Riemann-Integral definieren wir nun das sogenannte Riemann-Stieltjes’sche Integral: Sei α : [a, b] −→ R monoton wachsend. Sei f : [a, b] −→ R beschränkt. Wir definieren für eine Zerlegung Z = {t0 , . . . , tn } n X Oα (f, Z) := Mk (α(tk ) − α(tk−1 )) k=1 n X Uα (f, Z) := mk (α(tk ) − α(tk−1 )) k=1 und sodann Oα (f ) := inf{Oα (f, Z) : Z eine Zerlegung} Uα (f ) := sup{Uα (f, Z) : Z eine Zerlegung}. f heisst Riemann-Stieltjes-integrierbar bezüglich α, kurz α-integrierbar, falls Oα (f ) = Uα (f ). Den gemeinsamen Wert nennen wir Riemann-Stieltjes’sches Integral von f bezüglich α und schreiben Z b f (t)dα(t). a Für das Riemann-Stieltjes’sche Integral gelten praktisch dieselben Regeln wie für das Riemann-Integral und es ist offenbar ersteres eine Verallgemeinerung des letzteren: Man erhält das Riemann-Integral für α = id. Insbesondere ist das Integral linear (Übung). Außerdem gilt die folgende Proposition: 7 1 Stieltjes Integration Proposition 1.5. Sei f : [a, b] −→ R beschränkt. Dann gelten: (i) ist f α1 -integrierbar und α2 -integrierbar, so ist f α1 + α2 - integrierbar und Z b Z b Z b f (t)d(α1 + α2 )(t) = f (t)dα1 (t) + f (t)dα2 (t) ; a a a (ii) ist f α-integrierbar, λ > 0 so ist f (λα)-integrierbar und Z b Z b f (t)d(λα)(t) = λ a f (t)dα(t) ; a (iii) ist α konstant, so ist Z b f (t)dα(t) = 0 . a Beweis: Übung. Um das Riemann-Stieltjes’sche Integral für einfache f und α berechnen zu können, dienen uns die folgenden Sätze: Satz 1.6. Sei α monoton steigend und stetig differenzierbar. Sei f : [a, b] −→ R beschränkt. Dann gilt: f ist genau dann α-integrierbar, wenn f α0 Riemann-integrierbar ist. In diesem Fall gilt Z b Z f (x)dα(x) = a b f (x)α0 (x)dx . a Beweis: Wir zeigen O(f α0 ) = Oα (f ) und U (f α0 ) = Uα (f ). O.B.d.A. f ≥ 0. Sei K := sup{f (t) : t ∈ [a, b]}, L := sup{α0 (t) : t ∈ [a, b]}. 1.) O(f α0 ) ≤ Oα (f ): sei ε > 0. α0 ist laut Voraussetzung stetig auf [a, b] und damit gleichmäßig stetig. Es gibt also ein δ > 0 mit |s − t| < δ ⇒ |α0 (s) − α0 (t)| < ε . K(b − a) Wähle nun eine Zerlegung Z = {t0 , t1 , . . . , tn } von [a, b] mit ∆(Z) < δ. Weiters sei Z so gewählt, dass Oα (f, Z) < Oα (f ) + ε. Es existiert für jedes k ∈ {1, . . . , n} ein τk ∈ (tk−1 , tk ) derart, dass α(tk ) − α(tk−1 ) = α0 (τk )(tk − tk−1 ) . 8 1.1 Riemann-Stieltjes’sches Integral Dann haben wir 0 O(f α , Z) = ≤ < = n X f (t)α0 (t) (tk − tk−1 ) sup k=1 t∈[tk−1 ,tk ] n X sup k=1 n X t∈[tk−1 ,tk ] k=1 t∈[tk−1 ,tk ] n X k=1 f (t) α0 (t) (tk − tk−1 ) sup t∈[tk−1 ,tk ] ! sup α0 (τk ) + f (t) f (t) α0 (τk ) (tk − tk−1 ) sup k=1 k=1 (tk − tk−1 ) t∈[tk−1 ,tk ] n ≤ ! X ε + K(b − a) n X ε K(b − a) ! sup f (t) (tk − tk−1 ) t∈[tk−1 ,tk ] ! f (t) (α(tk ) − α(tk−1 )) + ε sup t∈[tk−1 ,tk ] = Oα (f, Z) + ε < Oα (f ) + 2ε . Daraus folgt O(f α0 ) < Oα (f ) + 2ε. Da ε > 0 beliebig war, gilt also O(f α0 ) ≤ Oα (f ). 2.) Oα (f ) ≤ O(f α0 ): sei ε > 0, ε < KL(b − a). α0 ist stetig auf [a, b] und damit gleichmäßig stetig. Es gibt daher ein δ > 0 mit |s − t| < δ =⇒ |α0 (s) − α0 (t)| < ε . K(b − a) Wähle eine Zerlegung Z mit ∆(Z) < δ und O(f α0 , Z) < O(f α0 ) + ε. Es gibt für jedes 1 ≤ k ≤ n ein τk ∈ (tk−1 , tk ) mit α(tk ) − α(tk−1 ) = α0 (τk )(tk − tk−1 ) ε Weiters gibt es für jedes 1 ≤ k ≤ n ein σk mit supt∈[tk−1 ,tk ] f (t) < f (σk )+ L(b−a) . Oα (f, Z) = n X k=1 = < n X ! sup ! sup k=1 t∈[tk−1 ,tk ] n X k=1 f (t) (α(tk ) − α(tk−1 )) t∈[tk−1 ,tk ] f (t) α0 (τk ) (tk − tk−1 ) ε f (σk ) + L(b − a) α0 (σk ) + ε K(b − a) (tk − tk−1 ) 9 1 Stieltjes Integration sodass Oα (f, Z) < n X f (σk )α0 (σk )(tk − tk−1 ) k=1 n X ε + α0 (σk )(tk − tk−1 ) L(b − a) + + ε K(b − a) k=1 n X f (σk )(tk − tk−1 ) k=1 n X ε2 (tk − tk−1 ) KL(b − a)2 k=1 < n X k=1 f (t)α0 (t) (tk − tk−1 ) + 3ε sup t∈[tk−1 ,tk ] = O(f α0 , Z) + 3ε < O(f α0 ) + 4ε . Somit ist Oα (f ) < O(f α0 ) + 4ε. Da die Aussage für alle 0 < ε < KL(b − a) gilt, ist Oα (f ) ≤ O(f α0 ). Die Gleichheit der Untersummen folgt aus der Gleichheit der Obersummen von −f . Wir definieren für eine monoton wachsende Funktion α und für t im Inneren des Definitionsbereiches von α ∆α(t) := lim α(s) − lim α(s) . s→t+ s→t− Man beachte, dass wegen der Monotonie von α die obigen Limiten stets existieren. Gilt ∆α(s) 6= 0 für ein s, so sagen wir α hat einen Sprung in s bzw. s ist eine Sprungstelle von α. Satz 1.7. Sei α monoton wachsend und stückweise konstant mit endlich vielen Sprungstellen s1 , . . . , sm ∈ (a, b). Sei f stetig in den Punkten s1 , . . . , sm . Dann ist f α-integrierbar und Z b m X f (t)dα(t) = f (sk )∆α(sk ) . a j=1 Beweis: α kann als endliche Summe von Funktionen mit nur einem Sprung geschrieben werden (Übung). Es genügt daher nach Proposition 1.5 die Aussage für eine Funktion α mit nur einem Sprung zu zeigen. Sei also α : [a, b] −→ R eine solche Funktion mit Sprungstelle s ∈ (a, b), α(a) t ∈ [a, s) α(s) t = s α(t) = α(b) t ∈ (s, b] . 10 1.2 Lebesgue-Stieltjes’sches Integral Betrachte eine Zerlegung Z = {t0 , . . . , tn } von [a, b]. O.B.d.A. sei s ∈ Z, etwa s = tj . n X sup f (t) (α(tk ) − α(tk−1 )) = k=1 [tk−1 ,tk ] = sup f (t) (α(tj ) − α(tj−1 )) + sup f (t) (α(tj+1 ) − α(tj )) [tj−1 ,tj ] ≤ sup [tj ,tj+1 ] f (t) (α(tj+1 ) − α(tj−1 )) [tj−1 ,tj+1 ] = sup f (t) ∆α(s) . [tj−1 ,tj+1 ] Geht nun die Feinheit von Z gegen 0, so geht der letzte Ausdruck wegen der Stetigkeit von f gegen f (s)∆α(s). Somit gilt Oα (f ) ≤ f (s)∆α(s). Analog zeigt man Uα (f ) ≥ f (s)∆α(s), womit der Satz gezeigt wäre. Es gilt folgende Variante des Transformationssatzes: Satz 1.8. Sei β : [a, b] −→ R monoton steigend und stetig, sei f : [β(a), β(b)] −→ R. Dann ist f ◦β integrierbar bezüglich β genau dann wenn f Riemann-integrierbar ist und Z Z β(b) b f (x)dx = β(a) f (β(x))dβ(x) . a Beweis: Sei Z = {s0 , . . . , sn } eine Zerlegung von [β(a), β(b)]. Da β stetig und monoton ist, gibt es t0 , . . . , tn ∈ [a, b] mit t0 ≤ t1 ≤ . . . ≤ tn und β(tk ) = sk für k = 0, . . . , n. Z2 := {t0 , . . . , tn } ist somit eine Zerlegung von [a, b] und " # n X sup f (β(ξ)) (β(tk ) − β(tk−1 )) Oβ (f ◦ β, Z2 ) = = k=1 ξ∈[tk−1 ,tk ] " n X sup k=1 # f (η) (sk − sk−1 ) η∈[sk−1 ,sk ] = O(f, Z) . Ist umgekehrt Z2 = {t0 , . . . , tn } eine Zerlegung von [a, b], so ist Z := {s0 , . . . , sn } mit sk := β(tk ) eine Zerlegung von [β(a), β(b)] und es gilt wieder O(f, Z) = Oβ (f ◦ β, Z2 ). Somit ist O(f ) = Oβ (f ◦ β) und analog gilt U (f ) = Uβ (f ◦ β). Damit folgt die Behauptung. 1.2 Lebesgue-Stieltjes’sches Integral Wir erinnern uns zunächst daran, dass es auf B[a, b], der Borel’schen σ-Algebra auf [a, b], genau ein Maß λ gibt mit λ((s, t]) = t − s für alle s, t ∈ [a, b], s ≤ t, das sogenannte Lebesgue-Maß. (Das gehört zu den Hauptsätzen der Maßtheorie, siehe etwa [Els09, Kap. II,§4.5] für den sogenannten Maßerweiterungssatz, 11 1 Stieltjes Integration [Els09, Kap. II,§4.6] für dessen Anwendung zur Konstruktion des LebesgueMaßes und [Els09, Kap. II,§5.6] für den sogenannten Maßeindeutigkeitssatz.) Man erhält dieses Maß auf folgende Weise: betrachte das Mengensystem A := {(a1 , b1 ]∪. . .∪(an , bn ] : a ≤ a1 < b1 < a2 < b2 < . . . < an < bn ≤ b, n ∈ N} . A ist eine (Mengen-)Algebra auf [a, b], welche B[a, b] erzeugt, und durch λ0 : A −→ [0, ∞) n X λ0 ((a1 , b1 ] ∪ . . . ∪ (an , bn ]) := (bk − ak ) k=1 wird auf A eine additive Mengenfunktion auf A definiert, das heißt 1. λ0 (A) ≥ 0 für alle A ∈ A und λ0 (∅) = 0; 2. λ0 (A ∪ B) = λ0 (A) + λ0 (B) falls A, B ∈ A mit A ∩ B = ∅. Man zeigt nun, dass λ0 sogar σ-additiv ist auf A, das heißt P∞ S A ) = 3. λ0 ( ∞ n k=1 λ0 (An ) für paarweise disjunkte Mengen A1 , A2 , . . . ∈ k=1 S∞ A mit k=1 An ∈ A. Nun kann man mittels des sogenannten Maßerweiterungssatzes λ0 zu einem Maß λ auf B[a, b], eben dem Lebesguemaß, fortsetzen. Sei nun α : [a, b] −→ R eine monoton wachsende, rechtsstetige Funktion. Analog zur Konstruktion des Lebesgue-Maßes kann man auf A eine σ-additive Mengenfunktion µ0 durch µ0 ((a1 , b1 ] ∪ . . . ∪ (an , bn ]) := n X (α(bk ) − α(ak )) k=1 definieren und eindeutig zu einem endlichen Maß µ auf B[a, b] fortsetzen. Natürlich erhalten wir für α = id wieder das Lebesgue-Maß. Beispiel 1.9. Sei y ∈ (a, b) und sei α(x) = 0 x<y 1 x ≥ y. Dann gilt für jedes Intervall (c, d], dass µα ((c, d]) = 0 y∈ / (c, d] 1 y ∈ (c, d] . Dies überträgt sich auf Borelmengen (Übung), sodass µα = δy , also das in y konzentrierte Diracmaß. 12 1.2 Lebesgue-Stieltjes’sches Integral Beispiel 1.10. Sei α eine monoton steigende stetig differenzierbare Funktion. Z Z d 0 1(c,d] α0 (x)dx . α (x)dx = µα ((c, d]) = α(d) − α(c) = [a,b] c Dies überträgt sich zu µα (A) = [a,b] 1A (x)α0 (x)dx für jede Borelmenge A, sodass also µα ein bezüglich dem Lebesguemaß absolutstetiges Maß mit RadonNykodym-Ableitung α0 ist. R Nun definieren wir das Lebesgue-Stieltjes’sche Integral einfach durch Z b Z f (t)dα(t) := f dµ . a [a,b] falls die rechte Seite definiert und endlich ist. In diesem Fall nennen wir f α-integrierbar (im Lebesgue-Stieltjes’schen Sinn). Hier ergibt R b sich natürlich eine Mehrdeutigkeit in der Notation, weil aus dem Ausdruck a f (t)dα(t) nicht hervorgeht, ob das Integral im Riemann’schen oder Lebesgue’schen Sinn gemeint ist. Im Zweifelsfall muss man es halt dazusagen, und für viele Fälle, etwa wenn f stetig ist, stimmen die beiden Zahlen ohnehin überein (Übung!). In diesen Fällen kann man getrost von dem Stieltjes-Integral sprechen. Beispiel 1.11. Sei α wie in Beispiel 1.9. Dann gilt nach unseren Überlegungen in Beispiel 1.9 für jede Borelmenge A Z 1A dµα = µα (A) = δy (A) = 1A (y) . [a,b] Folglich ist für a1 , . . . , an ∈ [0, ∞) und Borelmengen A1 , . . . , An Z n X [a,b] k=1 ak 1Ak dµα = n X k=1 Z ak 1Ak dµα = [a,b] n X ak 1Ak (y) . k=1 Da jede nichtnegativeP messbare Funktion punktweiser Limes einer Folge von Funktionen der Form nk=1 ak 1Ak ist, gilt für jede solche Funktion f , dass Z f dµα = f (y) . (1.1) [a,b] Da jede messbare Funktion sich als Differenz zweier nichtnegativer messbarer Funktionen schreiben lässt, gilt (1.1) für beliebige messbare Funktionen. Es ist also jede messbare Funktion α-integrierbar und das Integral ist der Funktionswert in y. Beispiel 1.12. Sei α wie in Beispiel 1.10. Wir haben dort schon gesehen, dass µα bezüglich dem Lebesguemaß absolutstetig ist mit Dichte α0 . Demnach ist eine messbare Funktion f genau dann integrierbar bezüglich µα , wenn Z |f α0 |dx < ∞ [a,b] 13 1 Stieltjes Integration [Els09, Kapital VIII, Aufgabe 2.11] und in diesem Fall ist Z Z f α0 dλ . f dµα = [a,b] [a,b] Ein Vorteil des Lebesgue-Stieltjes’schen Integrals ist der, dass die Bedingung der Integrierbarkeit leichter zu erfüllen ist. So ist etwa in Beispiel 1.9 jede messbare Funktion bezüglich des dortigen α integrierbar. Beim RiemannStieltjes’schen Integral ist dies jedoch nicht der Fall: Beispiel 1.13. Sei α wie in Beispiel 1.9. Dann ist α nicht integrierbar bezüglich α im Sinne von Riemann-Stieltjes. Beweis: Sei Z = {t0 , . . . , tn } eine Zerlegung von [a, b], welche y enthält, etwa y = tk , 0 < k < n. Dann ist sup α(t) = 1 und inf α(t) = 0 . t∈[tk−1 ,tk ] t∈[tk−1 ,tk ] Es ist dann leicht zu sehen, dass Oα (α, Z) = 1 > 0 = Uα (α, Z) . Beispiel 1.14. Sei α wieder wie in Beispiel 1.9. f := α ist natürlich integrierbar bezüglich α im Sinne von Lebesgue-Stieltjes, Z f dµα = f (y) = α(y) = 1 . [a,b] Sei nun g(x) = 0 x≤y 1 x > y. Es ist eine leichte Übung zu zeigen, dass g bezüglich α integrierbar ist im Sinne von Riemann-Stieltjes und Z b g(x)dα(x) = 0 . a Rb Da g(x) = f (x−) := limt→x− f (x) gilt also a f (x−)dα(x) = 0. R Rb P Es ist also in diesem Fall [a,b] f dµα = a f (x−)dα(x)+ a<x≤b ∆f (x)∆α(x), und es ist eine interessante Frage, wie allgemein diese Aussage gilt. Ein anderer Vorteil des Lebesgue-Stieltjes’schen Integrals ist der, dass sich alle Aussagen der Lebesgue-Theorie unmittelbar anwenden lassen. Ein Beispiel: Seien α und β zwei rechtsstetige monoton wachsende Funktionen auf [a, b]. Aufgrund der Monotonie existieren von α und β in jedem Punkt x ∈ (a, b] die linksseitigen Limiten. 14 1.2 Lebesgue-Stieltjes’sches Integral Sei µα und µβ die zu α und β gehörigen Maße. Diese sind sicher σ-endlich (sie sind sogar endlich). Es gilt somit mit dem Satz von Fubini, [Els09, Kapitel V, Satz 2.1], dass Z bZ Z b f (x, y)d(µα ⊗ µβ )(x, y) = f (x, y)dµα (x) dµη (y) [a,b]2 a a Z bZ b f (x, y)dµβ (y) dµα (x) = a a für jede beschränkte messbare Funktion f : [a, b] × [a, b] −→ R. Speziell bekommen wir für f (x, y) = 1[a,y) (x) = 1(x,b] (y) Z bZ b Z b (α(y−) − α(a))dµβ (y) 1[a,y) (x)dµα (x) dµη (y) = a a a Z b α(y−)dµβ (y) − α(a)(β(b) − β(a)) = a Z bZ b Z b (β(b) − β(x)dµα (x) Z b = β(b)(α(b) − α(a)) − β(x)dµα (x) , 1(x,b] (y)dµβ (y) dµα (x) = a a a a sodass Z α(b)β(b) − α(a)β(a) = b Z b α(x−)dµβ (x) + a β(x)dµα (x) . a Diese Regel nennt sich aus naheliegenden Gründen partielle Integration. Wir können nun mit β(x) = β(x−) + ∆β(x) noch schreiben Z b Z b β(x)dµα (x) = a Z β(x−)dµα (x) + a Z = b ∆β(x)dµα (x) a b β(x−)dµα (x) + a X ∆β(x)∆α(x) , a<x≤b sodass, etwas symmetrischer als vorher Z α(b)β(b)−α(a)β(a) = a b Z b X α(x−)dµβ (x)+ β(x−)dµα (x)+ ∆α(x)∆β(x) . a a<x≤b Die partielle Integration in dieser Form lässt sich übrigens auch für das RiemannStieltjes-Integral leicht zeigen, der Beweis besteht aber aus einer Menge Schreibarbeit. Wir haben beim Riemann-Stieltjes’schen Integral gesehen, dass zumindest für stetige Integranden der Funktionswert von α an einer Sprungstelle für den Wert des Integrals keine Rolle spielt. Wir werden in Zukunft auch beim RiemannStieltjes Integral davon ausgehen, dass α rechtsstetig ist. 15 1 Stieltjes Integration 1.3 Funktionen von beschränkter Variation Wir haben bereits in Proposition 1.5 gesehen, dass für zwei monoton wachsende Funktionen α1 und α2 gilt f f α1 -integrierbar α2 -integrierbar ( =⇒ f (α1 + α2 )-integrierbar und Rb Rb Rb f (t)d(α + α )(t) = f (t)dα (t) + 1 2 1 a a a f (t)dα2 (t) . Was hindert uns nun daran, folgendes zu definieren: b Z b Z b Z f (t)dα1 (t) − f (t)d(α1 − α2 )(t) = f (t)dα2 (t) ? a a a Antwort: Nicht viel: Für eine Funktion α mit Zerlegung in monotone Funktionen α = α1 − α2 möchten wir definieren: • f heißt α-integrierbar, falls f sowohl α1 - als auch α2 -integrierbar ist • für f α-integrierbar sei Z b Z Z b f (t)dα1 (t) − f (t)dα(t) := a b a f (t)dα2 (t) . a Man muss nur untersuchen, welche Funktionen α sich als Differenz zweier monotoner Funktionen schreiben lassen, und ob zwei Zerlegungen α = α1 − α2 = β1 − β2 zum selben Ergebnis führen. Definition 1.15. Sei f : [a, b] −→ R eine Funktion. Wir definieren die Totalvariation von f auf [a, b] durch Vab (f ) := sup{ n X |f (tk ) − f (tk−1 )| : Z eine Zerlegung von [a, b]} . k=1 Definition 1.16. Eine Funktion α : [a, b] −→ R heißt von beschränkter Variation, falls Vab (f ) < ∞. Proposition 1.17. Sei f : [a, b] −→ R eine Funktion. Dann gelten: (a) die Abbildung x 7−→ Vax (f ) ist eine monoton wachsende Funktion mit Werten in [0, ∞]; (b) Vab (f ) = 0 ⇐⇒ f konstant; (c) f monoton auf [a, b] =⇒ Vab (f ) = |f (b) − f (a)| < ∞ ; (d) f stetig differenzierbar =⇒ Vab (f ) = 16 Rb a |f 0 (t)|dt . 1.3 Funktionen von beschränkter Variation Beweis: (a), (b) und (c) sind einfache Übungen. (d) Sei ε > 0 und sei Z = {t0 , . . . , tn } eine Zerlegung des Intervalls [a, b] mit O(|f 0 |, Z) < O(|f 0 |) + ε und U (|f 0 |, Z) > U (|f 0 |) − ε. Für jedes 1 ≤ k ≤ n gibt es ein τk ∈ (tk−1 , tk ) mit f (tk ) − f (tk−1 ) = f 0 (τk )(tk − tk−1 ), sodass n X |f (tk ) − f (tk−1 )| = k=1 n X |f 0 (τk )(tk − tk−1 )| . k=1 Somit gilt also 0 0 U (|f |) − ε < U (|f |, Z) ≤ n X |f (tk ) − f (tk−1 )| ≤ O(|f 0 |, Z) < O(|f 0 |) + ε k=1 und damit auch U (|f 0 |) − ε < Vab (f ) ≤ O(|f 0 |) + ε. |f 0 | ist stetig und damit Riemann-integrierbar, sodass U (|f 0 |) = O(|f 0 |) = Rb 0 a |f (t)|dt. Daher folgt Z b |f 0 (t)|dt − ε < Vab (f ) ≤ Z a b |f 0 (t)|dt + ε . a Da ε > 0 beliebig war, folgt die Behauptung. Lemma 1.18. Seien f, g : [a, b] −→ R. Dann gelten: (a) Vab (−f ) = Vab (f ); (b) Vab (f + g) ≤ Vab (f ) + Vab (g); (c) Vab (f ) ≥ |f (b) − f (a)|; (d) für s ∈ [a, b] gilt Vab (f ) = Vas (f ) + Vsb (f ) . Beweis: Übung. Satz 1.19. Sei f : [a, b] −→ R eine Funktion. f ist genau dann von beschränkter Variation, wenn es monoton wachsende Funktionen f1 , f2 : [a, b] −→ R gibt mit f = f1 − f2 . Beweis: 1.) Sei f = f1 − f2 mit monoton wachsenden Funktionen f1 und f2 . Laut Lemma 1.18(a) und Lemma 1.18(b) gilt Vab (f ) = Vab (f1 + (−f2 )) ≤ Vab (f1 ) + Vab (f2 ) = f1 (b) − f1 (a) + f2 (b) − f2 (a) < ∞ . 2.) Sei Vab (f ) < ∞. Dann gilt wegen Lemma 1.18(d) Vat (f ) < ∞ für alle t ∈ [a, b]. Definiere f1 (t) := 21 Vat (f ) + f (t) + |f (a)| ∀t ∈ [a, b] f2 (t) := 12 Vat (f ) − f (t) + |f (a)| ∀t ∈ [a, b] . Damit gelten f = f1 − f2 und f1 (t) + f2 (t) = Vat (f ) + |f (a)|. Wir müssen zeigen, dass f1 und f2 monoton wachsend sind. 17 1 Stieltjes Integration Etwa für f1 : Seien s, t ∈ [a, b], s < t. 2(f1 (t) − f1 (s)) = Vat (f ) + f (t) + |f (a)| − (Vas (f ) + f (s) + |f (a)|) = Vat (f ) − Vas (f ) + f (t) − f (s) = Vst (f ) + f (t) − f (s) nach Lemma 1.18(d). Nach Lemma 1.18(c) gilt Vst (f ) + f (t) − f (s) ≥ |f (t) − f (s)| + f (t) − f (s) ≥ 0 . Das heißt f1 ist monoton steigend, analog zeigt man das für f2 . Proposition 1.20. Sei f : [a, b] −→ R von beschränkter Variation und rechtsstetig. Dann ist die Funktion [a, b] −→ R t 7−→ Vat (f ) , t ∈ [a, b] rechtsstetig. Beweis: Seien c ∈ [a, b], ε > 0. Es gibt ein δ > 0 mit t − c < δ =⇒ |f (t) − f (c)| < ε . Wir wollen zeigen |Vat (f ) − Vac (f )| < ε. Es gibt eine Zerlegung Z = {t0 , . . . , tn } von [c, b] derart, dass ∆Z < δ und Vcb (f ) ≤ n X |f (tk ) − f (tk−1 )| + ε . k=1 Für t ∈ [t0 , t1 ] gilt dann Vcb (f ) ≤ |f (t) − f (c)| + |f (t1 ) − f (t)| + | {z } | <ε Xn k=2 {z ≤Vtb (f ) |f (tk ) − f (tk−1 )| + ε . } Somit haben wir 0 ≤ Vcb (f ) − Vtb (f ) < 2ε . Aber |Vat (f ) − Vac (f )| = |Vab (f ) − Vtb (f ) − (Vab (f ) − Vcb (f ))| = |Vcb (f ) − Vtb (f )| , womit die Behauptung gezeigt ist. Speziell sind also die in Satz 1.19 konstruierten monoton wachsenden Funktionen rechtstetig, sodass sich also eine rechtsstetige Funktion von beschränkter Variation als Differenz zweier rechtsstetiger monoton wachsender Funktionen schreiben lässt. Satz 1.21. Sei f : [a, b] −→ R von beschränkter Variation. Seien wieder f1 (t) := 12 Vat (f ) + f (t) + |f (a)| ∀t ∈ [a, b] f2 (t) := 12 Vat (f ) − f (t) + |f (a)| ∀t ∈ [a, b] . Dann gilt für jedes Paar g1 , g2 von monoton wachsenden Funktionen mit f = g1 − g2 und g1 , g2 ≥ 0 f1 ≤ g1 und f2 ≤ g2 . 18 1.3 Funktionen von beschränkter Variation Die Zerlegung in Satz 1.19 ist also die minimale Zerlegung in nichtnegative monoton wachsende Funktionen. Sie wird oft Jordan-Zerlegung genannt. Beweis: Sei t ∈ [a, b]. Es gilt 1 Vat (f ) + f (t) + |f (a)| ≤ g1 (t) 2 ⇐⇒ Vat (f ) ≤ 2g1 (t) − f (t) − |f (a)| |{z} f1 (t) ≤ g1 (t) ⇐⇒ =g1 (t)−g2 (t) Vat (f ) ⇐⇒ ≤ g1 (t) + g2 (t) − |f (a)| . Sei Z = {t0 , . . . , tn } eine Zerlegung von [a, t]. Es ist n X |f (tk ) − f (tk−1 )| = k=1 n X (f (tk ) − f (tk−1 ))+ + k=1 n X (f (tk ) − f (tk−1 ))− k=1 wobei wie üblich x+ = max(x, 0), x− = max(−x, 0) für x ∈ R. Für s, t mit a ≤ s < t ≤ b gelten (f (t) − f (s))+ ≤ g1 (t) − g1 (s) (f (t) − f (s))− ≤ g2 (t) − g2 (s) , denn: g1 (t) − g1 (s) ≥ 0 und g1 (t) − g1 (s) = f (t) + g2 (t) − f (s) − g2 (s) = f (t) − f (s) + g2 (t) − g2 (s) ≥ f (t) − f (s) , sodass g1 (t) − g1 (s) ≥ max(0, f (t) − f (s)) = (f (t) − f (s))+ . Analog zeigt man (f (t) − f (s))− ≤ g2 (t) − g2 (s). Insgesamt haben wir nun also n X |f (tk ) − f (tk−1 )| ≤ k=1 n X g1 (tk ) − g1 (tk−1 ) + k=1 n X g2 (tk ) − g2 (tk−1 ) k=1 = g1 (t) − g1 (a) + g2 (t) − g2 (a) ≤ g1 (t) + g2 (t) − |f (a)| , da wegen g1 (a), g2 (a) ≥ 0 |f (a)| = |g1 (a) − g2 (a)| ≤ |g1 (a)| + |g2 (a)| = g1 (a) + g2 (a) . Wir haben also gezeigt Vat (f ) ≤ g1 (t) + g2 (t) − |f (a)| und damit f1 (t) ≤ g1 (t). Dann gilt aber auch f2 (t) ≤ g2 (t), da f (t) = g1 (t) − g2 (t) = f1 (t) − f2 (t), sodass g1 (t) + f2 (t) = f1 (t) + g2 (t) ≤ g1 (t) + g2 (t). Nun sind wir endlich soweit, das Stieltjes Integral bezüglich Funktionen von beschränkter Variation eindeutig definieren zu können: 19 1 Stieltjes Integration Definition 1.22. Sei α eine rechtsstetige Funktion von beschränkter Variation mit minimaler Zerlegung α = α1 −α2 laut Satz 1.19. Eine Funktion f : [a, b] −→ R heißt α-integrierbar, falls sie α1 - und α2 -integrierbar ist. Das Integral von f bezüglich α ist definiert durch Z b Z b Z b f (t)dα2 (t) . f (t)dα1 (t) − f (t)dα(t) := a a a Es ist nun eine gute Übung, den folgenden Satz zu beweisen, der den Nachweis der Unabhängigkeit des Stieltjes-Integrals von der Zerlegung komplettiert: Satz 1.23. Seien α : [a, b] −→ R eine rechtsstetige Funktion von beschränkter Variation und f : [a, b] −→ R beschränkt. Sei weiters α = α1 − α2 die minimale Zerlegung von α in monoton wachsende Funktionen und α = β1 − β2 eine beliebige andere Zerlegung von α in monotone rechtsstetige Funktionen. Ist f β1 - und β2 -integrierbar, so ist f auch α-integrierbar und Z b Z b Z b f (s)dα(s) = f (s)dβ1 (s) − f (s)dβ2 (s) . a a a 1.4 Càdlàg und làdcàg Funktionen Definition 1.24. Sei I ⊆ R ein Intervall. Eine Funktion f : I −→ R heißt càdlàg1 , wenn f rechtsstetig ist und in jedem Punkt die linksseitigen Limiten existieren. Analog nennen wir die Funktion làdcàg, wenn sie linksstetig ist und in jedem Punkt die rechtsseitigen Limiten existieren. Proposition 1.25. Sei I ein Intervall und sei f : I −→ R càdlàg. Dann ist die Funktion x 7−→ f (x−) làdcàg. Beweis: Übung. Proposition 1.26. Sei f : [a, b] −→ R rechtsstetig und von beschränkter Variation. Dann ist f càdlàg. Beweis: Übung. Proposition 1.27. Sei f : [a, b] −→ R càdlàg oder làdcàg. Dann ist f beschränkt. Beweis: Übung. Definition 1.28. (a) Eine Funktion der Form x 7−→ ∞ X an 1[sn ,b] (x) , n=1 P wo a1 , a2 , . . . eine Folge mit ∞ n=1 |an | < ∞ sei und s1 , s2 , . . . eine Folge in [a, b] nennen wir eine rechtsstetige reine Sprungfunktion von beschränkter Variation. 1 Dieses Kunstwort ist ein Akronym des französischen continu à droite, limites à gauche. 20 1.4 Càdlàg und làdcàg Funktionen (b) Eine Funktion der Form x 7−→ ∞ X an 1(sn ,b] (x) , n=1 P∞ wo a1 , a2 , . . . eine Folge mit n=1 |an | < ∞ sei und s1 , s2 , . . . eine Folge in [a, b] nennen wir eine linksstetige reine Sprungfunktion von beschränkter Variation. Aufgrund der P vorausgesetzten absoluten Summierbarkeit der Folge (an )n ∞ definiert x 7−→ n=1 an 1[sn ,b] (x) tatsächlich eine Funktion. Damit die Definition eine gute Definition ist, müssen wir noch zeigen, dass die so definierte Funktion rechtsstetig und von beschränkter Variation ist. Lemma 1.29. Sei (a n )n eine absolut summierbare Folge, (sn )n eine Folge in P [a, b] und sei h(x) = ∞ n=1 an 1[sn ,b] (x). Dann ist h rechtstetig und von beschränkter Variation. P Beweis: Sei s ∈ (a, b) und sei ε > 0. Es gibt ein N mit ∞ n=N +1 |an | < ε und ein δ > 0 derart, dass keine der Sprungstellen s1 , . . . , sN in (s, s + δ) liegt. Dann gilt für t ∈ (s, s + δ) |h(t) − h(s)| = | ∞ X n=1 an 1(s,t] (sn )| ≤ ∞ X |an | < ε . n=N +1 h ist also rechtsstetig. Man kann h leicht als Differenz zweier monoton steigender Funktionen schreiben, indem man (an )n in positive und negative Folgenglieder aufteilt (Ü). Damit ist h von beschränkter Variation. Analog zeigt man, dass die Definition einer linksstetigen reinen Sprungfunktion von beschränkter Variation eine sinnvolle Definition ist. Es ist nicht schwer einzusehen, dass Summe und Produkt endlich vieler rechtsoder linksstetiger reiner Sprungfunktionen von beschränkter Variation wieder ebensolche sind. Proposition 1.30. Sei f : [a, b] −→ R càdlàg oder làdcàg. Dann hat f auf [a, b] höchstens abzählbar viele Unstetigkeitsstellen s1 , s2 , . . .. Ist f zusätzlich von beschränkter Variation, so sind die Sprünge summierbar, das heißt ∞ X |∆f (sk )| < ∞. k=1 Beweis: Übung. Satz 1.31. Sei f : [a, b] −→ R càdlàg und von beschränkter Variation. Dann gibt es eine eindeutig bestimmte stetige Funktion g und eine eindeutig bestimmte rechtsstetige reine Sprungfunktion h mit f (t) = g(t) + h(s) und h(a) = 0. 21 1 Stieltjes Integration Beweis: P Wir wissen, dass es abzählbar viele Sprungstellen s1 , s2 , . . . von f gibt und dass ∞ k=1 P∆|f (sk )| < ∞ ist nach Proposition 1.30. Sei h(x) = ∞ k=1 ∆f (sk )1[sk ,b] (x), sodass h eine rechtsstetige reine Sprungfunktion von beschränkter Variation ist. Es ist h(a) = 0, da f rechtsstetig ist und daher in a keine Sprung hat. h ist càdlàg und somit ist g := f − h càdlàg. Da ∆g = ∆f − ∆h = 0 ist, gilt in jedem Punkt g(t−) = g(t) = g(t+), sodass g stetig ist. Sei nun g1 eine weitere stetige Funktion und h1 eine weitere rechtsstetige reine Sprungfunktion mit f = g1 + h1 und h1 (a) = 0. Dann ist g − g1 = h − h1 . Nun ist die linke Seite stetig, und damit auch die rechte Seite. Eine stetige reine Sprungfunktion ist aber konstant (Ü) und somit ist auch die linke Seite konstant. Da h(a) = h1 (a) ist, ist auch g(a) = g1 (a) und somit g = g1 und h = h1 . Eine analoge Aussage gilt natürlich auch für làdcàg Funktionen. Wir können also càdlàg und làdcàg Funktionen stets schreiben als Summe einer stetigen Funktion und einer dazu passenden reinen Sprungfunktion. Wenn h eine rechtsstetige reine Sprungfunktion ist, so schreiben meist einfach X h(t) = ∆h(s) . a<s≤t Hier wird formal über eine überabzählbare Menge summiert, wir wissen aber, dass nur höchstens abzählbar viele Summanden ungleich null sind. Analog schreiben wir auch für eine càdlàg Funktion f : [a, b] −→ R einfach X h(t) = ∆f (s) a<s≤t für die zugehörige reine Sprungfunktion. Wir bezeichnen diese mit f d ( d“ für ” discontinuous) und die stetige Komponente mit f c , also f = f c +f d wo f d (t) := P c d a<s≤t ∆f (s) und f := f − f . Analog schreiben wir für eine làdcàg Funktion f ebenso f = f c + f d , wobei hier f d làdcàg ist. Satz 1.32. Sei f : [a, b] −→ R linksstetig und von beschränkter Variation und sei α : [a, b] −→ R rechtsstetig und von beschränkter Variation. Dann ist f integrierbar bezüglich α, sowohl im Sinne von Riemann-Stieltjes als auch im Sinne von Lebesgue-Stieltjes. Zum Beweis zeigen wir zuerst ein paar Lemmas. Lemma 1.33. Sei f : [a, b] −→ R linksstetig. Dann ist f (Borel-)messbar. Beweis: Wir definieren ein Folge von Funktionen fn durch fn (x) = f (2−n b2n xc). Jedes fn ist messbar als Linearkombination von Indikatorfunktionen von (halboffenen) Intervallen. Für jedes x konvergiert die Folge (2−n b2n xc)n monoton steigend gegen x. Da f linksstetig ist, konvergiert also fn punktweise gegen f , sodass also f messbar ist. 22 1.5 Anwendungen des Stieltjes-Integrals Lemma 1.34. Sei α eine rechtsstetige reine Sprungfunktion von beschränkter Variation. Ist f linksstetig und beschränkt, so ist f integrierbar bezüglich α im Sinne von Riemann-Stieltjes und Z b f (x)dα(x) = a X f (s)∆α(s) . a<s≤b Beweis: Übung. Lemma 1.35. Sei α eine stetige Funktion von beschränkter Variation. Ist f von beschränkter Variation, so ist f integrierbar bezüglich α im Sinne von Riemann-Stieltjes. Beweis: Übung, man zeigt die Aussage zunächst für monotones f . Beweis von Satz 1.32: Die Aussage über die Lebesgue-Stieltjes-Integrierbarkeit folgt unmittelbar aus Lemma 1.33. Für die zweite Aussage zerlegen wir α gemäß Satz 1.31, α = αc +αd . Lemmas 1.34 und 1.35 erledigen den Rest. 1.5 Anwendungen des Stieltjes-Integrals Die Hauptanwendung für Stieltjes-Integrale ist die folgende: sei X eine reelle Zufallsvariable und definiere F (x) := P(X ≤ x) für x ∈ R . F heißt die Verteilungsfunktion der Verteilung von X und hat folgende Eigenschaften: 1. F ist monoton wachsend; 2. F ist rechtsstetig und in jedem Punkt existiert der linksseitige Limes; 3. limx→−∞ F (x) = 0 und limx→∞ F (x) = 1 . Da wir keine uneigentlichen Riemann-Stieltjes-Integrale betrachtet haben (was wir aber ohne weiteres ganz analog zu den Riemann-Integralen hätten tun können), beschränken wir uns auf den Fall F (x) = 0 für x < a, F (x) = 1 für x > b, a, b ∈ R. Es gelten dann Rb • P(X ∈ (c, d]) = F (d) − F (c) = a 1(c,d] (x)dF (x), • E(X) = Rb a • E(g(X)) = x dF (x), Rb a g(x)dF (x) für F -integrierbares g . 23 1 Stieltjes Integration Das Riemann-Stieltjes’sche Integral bietet also einen mathematischen Rahmen für die Behandlung stetiger Zufallsvariablen, welche keine Dichte zu haben brauchen, und das, ohne die Lebesgue’sche Integrationstheorie vorauszusetzen. Wir betrachten nun zwei andere Anwendungen, für welche das StieltjesIntegral jedoch nur bedingt geeignet ist sind, welche aber zeigen, in welche Richtung das stochastische Integral stößt. Beschreibe etwa α : [a, b] −→ R die Entwicklung eines Aktienkurses im Zeitraum [a, b]. Vergleiche Abbildung 1.2. α α a t b a b t Abbildung 1.2: So könnten Kursentwicklungen von Aktien aussehen Wir wollen annehmen, dass α beschränkte Variation2 hat. Kaufe ich eine Aktie zum Zeitpunkt s1 und verkaufe sie zum Zeitpunkt s2 , so mache ich Gewinn (oder Verlust) α(s2 ) − α(s1 ) . Haben wir eine kompliziertere Strategie, wo wir etwa unser Portfolio“ stetig ” korrigieren, so ist der Gewinn gegeben durch Z b f (t)dα(t) , a wobei f (t) die Anzahl der zum Zeitpunkt t gehaltenen Aktien angibt3 . Die andere Anwendung ist die Formulierung einer Differentialgleichung mit Störung analog zu Gleichung (2.1): dx = (a + ξ)x dt Wir schreiben diese Differentialgleichung nun um als dx = xadt + xξdt (1.2) (1.3) und integrieren Z x − x0 = 3 Z x(s)a(s)ds + 0 2 t t x(s)ξ(s)ds . (1.4) 0 Diese Annahme ist in den meisten Modellen eben nicht gerechtfertigt. Man nimmt in der Finanzmathematik oft an, dass man auch Bruchteile von Aktien und eine negative Zahl von Aktien haben kann. 24 1.6 Übungsaufgaben ξ(s)ds ist das Differential“ der Störung. Unter Umständen ist aber die Störung ” nicht differenzierbar, sodass das Differential nicht erklärt ist. In diesem Fall kann ich die Gleichungen (1.2) und (1.3) nicht mehr (oder nur formal) schreiben. Gleichung (1.4) kann ich aber vielleicht schon noch schreiben, nämlich als Z t Z t x(s)dα(s) , (1.5) x(s)a(s)ds + x − x0 = 0 0 wo nun dα(s) das Differential“ der Störung ist, aufgefasst im Sinne von Stielt” jes. Gleichung (1.5) beschreibt also den gleichen Sachverhalt wie (1.2), wenn ich ξ als formale Ableitung der (meist nicht-differenzierbaren) Funktion α auffasse. Auch hier haben wir allerdings in den Modellen oft das Problem, dass α nicht beschränkte Variation hat. In den beiden vorangegangenen Anwendungen haben wir Aktienkurs und ( Stammfunktion“ der) Störung als fest vorgegebene Funktionen betrachtet. ” Wir wollen sie aber letztlich als zufällige Funktionen betrachten. Später, wenn wir das nötige Rüstzeug dazu haben, werden wir zu diesen Beispielen zurückkehren. Wir schließen dieses Kapitel noch mit einer weiteren Anwendung des StieltjesIntegrals ab. Definition 1.36. Sei γ : [a, b] −→ Rn γ1 (t) .. γ(t) = . eine Funktion, (t ∈ [a, b]) γn (t) wo γk : [a, b] −→ R für jedes k = 1, . . . , n von beschränkter Variation und stetig sei. Für eine stetige Funktion f : Rn −→ Rn , x1 f1 (x1 , . . . , xn ) .. f ... = . xn fn (x1 , . . . , xn ) definieren wir das Kurvenintegral über f entlang γ durch Z b n Z b X f (γ) · dγ := Fk (γ1 (t), . . . , γn (t))dγk (t) . a k=1 a 1.6 Übungsaufgaben 1. Seien α, f : [a, b] −→ R zwei Funktionen, α monoton wachsend. Zeigen Sie: sind Z1 und Z2 Zerlegungen mit Z1 ⊆ Z2 , so gelten Oα (f, Z2 ) ≤ Oα (f, Z1 ) Uα (f, Z2 ) ≥ Uα (f, Z1 ) . 25 1 Stieltjes Integration 2. Sei α : [a, b] −→ R stückweise konstant mit endlich vielen Sprungstellen. Zeigen Sie: α ist endliche Summe von stückweise konstanten Funktionen mit nur einem Sprung. 3. Sei α : [a, b] −→ R monoton wachsend. Zeigen Sie: α hat höchstens abzählbar viele Sprungstellen, das heißt A := {s ∈ [a, b] : ∆α(s) 6= 0} ist höchstens abzählbar. 4. Sei α : [a, b] −→ R monoton wachsend und A so wie in Übung 3. Zeigen Sie: X ∆α(s) < ∞ . s∈A 5. Sei α : [a, b] −→ R eine monoton wachsende Funktion. Zeigen Sie: α ist fast überall differenzierbar. (Somit ist auch jede Funktion, welche beschränkte Variation hat, fast überall differenzierbar.) 6. Seien α, f : [a, b] −→ R Funktionen, α von beschränkter Variation, f stetig. Zeigen Sie: f ist α-integrierbar. 7. Seien α, f : [a, b] −→ R Funktionen, α von beschränkter Variation und stetig, f monoton. Zeigen Sie: f ist α-integrierbar. 8. Betrachte folgende Funktionen α, f, g : [0, 1] −→ R, ( ( 1 für t ≥ 12 1 für t ≥ α(t) := , f (t) := 1 0 für t < 2 0 für t < ( 1 für t > 12 g(t) := . 0 für t ≤ 21 1 2 1 2 , Zeigen Sie: f ist nicht α-integrierbar, g ist α-integrierbar. Berechnen Sie Z 1 g(t)dα(t) . 0 9. Vervollständigen Sie den Beweis von Proposition 1.17. 10. Beweisen Sie Lemma 1.18. 11. Beweisen Sie Satz 1.23. 12. Sei γ : [a, b] −→ Rn eine Funktion. γ heißt rektifizierbar, falls X sup{ kγ(tk ) − γ(tk−1 )k : {t0 , . . . , tn } eine Zerlegung von [a, b]}} < ∞ . k=1 Zeigen Sie: γ ist genau dann rektifizierbar, wenn alle Koordinatenfunktionen von beschränkter Variation sind. 26 2 Worum geht’s? Wir stellen uns diese Frage zunächst für ein Gebiet, welches wir schon kennen, nämlich das der gewöhnlichen Differentialgleichungen. Diese geben uns bekanntlich (unter anderem) ein Mittel in die Hand um dynamische Vorgänge prägnant zu beschreiben und zu studieren. Ein Beispiel ist das Wachstum einer Population nach Malthus (ungebremstes Wachstum): d x(t) = ax(t) . dt (2.1) Hier bezeichnet x(t) die Anzahl der Individuen zum Zeitpunkt t und somit die Änderung der Anzahl der Individuen. Die Lösung ist bekanntlich gegeben durch x(t) = x(0)eat . Die Gleichung (2.1) besagt also offenbar, dass die Änderung der Anzahl der Individuen, also das Wachstum, proportional ist zur Anzahl der bereits vorhandenen Individuen. (Dieses Gesetz gilt in guter Näherung für die Anfangsphase des Wachstums einer Bakterienkultur). d dt x(t) Zunächst gibt es zwei Kritikpunkte an diesem Gesetz: 1. Wir modellieren etwas diskretes durch etwas kontinuierliches. Das Wachstum einer Population erfolgt eigentlich in Sprüngen: • Geburt: Sprung um 1 • Tod: Sprung um -1 • Zellteilung: Sprung um 1 2. Wir haben a als einen konstanten Wachstumsfaktor modelliert. Oft hängt das (relative) Wachstum aber von zeitlich veränderlichen Größen ab, wie etwa unterschiedlichem Wachstum Tag/Nacht oder Sommer/Winter und nicht zuletzt von zufälligen Einflüssen. Dem ersten Einwand können wir getrost begegnen indem wir sagen, dass wir an Populationen interessiert sind, die groß genug sind, dass ein Sprung um eins nicht erkennbar ist, also gewissermaßen infinitesimal“ ist. Es gibt aber auch ” einen praktischen Grund: im Kontinuierlichen kann man besser rechnen. Zum zweiten Einwand: wenn wir a durch a(t, x) ersetzen, also erlauben, dass a sich mit der Zeit und/oder Populationsgröße ändert, dann führt uns das nicht aus der Theorie der gewöhnlichen Differentialgleichungen heraus. Wohl aber, wenn wir erlauben, dass a zufälligen Einflüssen unterliegt: a(t) = a0 + ξt , 27 2 Worum geht’s? x t Abbildung 2.1: Gestörtes Wachstum. wo a0 konstant ist und ξt eine zufällige Störung. Wie wird die Lösung aussehen? Unter Umständen so, wie in Abbildung 2.1. Damit können wir schon unser Hauptziel formulieren: wir wollen dynamische Vorgänge beschreiben, die zufälligen Einflüssen unterliegen. Das Ganze wollen wir mit kontinuierlichem Zeitbereich, um besser rechnen zu können. Wie im deterministischen Fall (also im Fall gewöhnlicher Differentialgleichungen) braucht man zur Behandlung und Lösung von stochastischen Differentialgleichungen Integration. Diese Abhängigkeit von der Integrationstheorie geht aber weiter als im deterministischen Fall, da selbst für die Definition des stochastischen Differentials das stochastische Integral benötigt wird. Viele stochastische Prozesse, die in der Praxis vorkommen, sind nicht differenzierbar. Somit sind die Differentialquotienten nicht definiert, und man muss sich etwas anderes einfallen lassen. Aus diesem Grund werden wir uns einen relativ großen Teil der Vorlesung mit dem stochastischen Integral und dessen Eigenschaften auseinandersetzen. (Hier liegt eine Analogie zur Theorie der gewöhnlichen Differentialgleichung vor: zuerst kommt die Analysis mit Differential- und Integralrechnung) 2.1 Übungsaufgaben 1. Lösen Sie die folgenden gewöhnlichen Differentialgleichungen (i) dx (t) = ax(t) dt (ii) dx (t) = a(t)x(t) dt (iii) dx (t) = (a − bx(t))x(t) ! dt 2. Lösen Sie das Anfangswertproblem dx dt (t) = ax(t), x(0) = 1 numerisch mit dem Euler-Cauchy-Verfahren! Überzeugen Sie sich numerisch, dass die so gewonnene Lösung gegen die exakte Lösung konvergiert! Schätzen Sie die Konvergenzordnung! 28 3 Nachtrag zur Martingaltheorie in diskreter Zeit 3.1 Bedingte Erwartung Definition 3.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X eine Zufallsvariable auf Ω mit E(|X|) < ∞. Sei weiters G eine Teil-σ-Algebra von F. Eine Zufallsvariable Y auf Ω heißt bedingte Erwartung, falls gelten: 1. Y ist G-messbar, 2. für alle A ∈ G gilt E(X1A ) = E(Y 1A ). Bemerkung 3.2. 1. Eine bedingte Erwartung hat immer endlichen Erwartungswert (Übung). 2. Im Allgemeinen ist eine bedingte Erwartung nicht eindeutig bestimmt. Aber je zwei bedingte Erwartungen stimmen fast sicher überein (Übung). Das rechtfertigt auch die folgende Schreibweise: Wir schreiben Y = E(X|G) f.s. und manchmal etwas ungenau nur Y = E(X|G), falls Y eine bedingte Erwartung von X bezüglich G ist. 3. Es ist nicht a priori klar, dass stets eine bedingte Erwartung existiert. Einen Beweis der Existenz findet man zB in [Wil91, Chapter 9]. Für den Fall, dass G endlich viele Elemente hat, kann man E(X|G) leicht direkt angeben. Zunächst brauchen wir einen Hilfssatz. Lemma 3.3. Sei G eine σ-Algebra mit endlich vielen Elementen. Dann gibt es Mengen A1 , . . . , An mit 1. Ω = A1 ∪ . . . ∪ An , 2. Ai ∩ Aj = ∅ falls i 6= j, 3. für jedes B ∈ G und jedes 1 ≤ i ≤ n gilt Ai ∩ B = ∅ oder Ai ∩ B = Ai . T Beweis: Für x ∈ Ω definiere Cx := B∈G,x∈B B. Da G nur endlich viele Elemente hat, ist der Durchschnitt endlich und somit Cx ∈ G. Da G endlich ist, können auf diese Art nur endlich viele verschiedene Mengen A1 , . . . , An konstruiert werden. Der Beweis, dass A1 , . . . , An die Eigenschaften 1.)-3.) haben, ist eine einfache Übung. 29 3 Nachtrag zur Martingaltheorie in diskreter Zeit Definition 3.4. Sei G eine σ-Algebra mit endlich vielen Elementen. Ein Mengensystem A1 , . . . , An mit den Eigenschaften 1.)-3.) aus Lemma 3.3 nennen wir die minimalen messbaren Mengen von G. Proposition 3.5. Sei X eine Zufallsvariable mit E(|X|) < ∞ und G eine σAlgebra mit endlich vielen Elementen und minimalen messbaren Mengen A1 , . . . , An . Dann gilt 1 P(Ak ) E(X1Ak ) ω ∈ Ak mit P(Ak ) 6= 0 E(X|G)(ω) = 0 ω ∈ Ak mit P(Ak ) = 0 fast sicher. Beweis: Übung. Proposition 3.6. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum, X eine Zufallsvariable darauf mit endlichem Erwartungswert. Wenn X bezüglich G messbar ist, so gilt E(X|G) = X f.s. Beweis: Das folgt unmittelbar aus der Definition der bedingten Erwartung. Proposition 3.7. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum, X eine Zufallsvariable darauf mit endlichem Erwartungswert. Wenn X ≥ 0 f.s., so ist E(X|G) ≥ 0 f.s. Beweis: Übung. Proposition 3.8. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum, X, X1 , X2 Zufallsvariablen darauf mit endlichem Erwartungswert und seien G und H zwei Teil-σ-Algebren von F. Dann gelten: 1. E(X1 + X2 |G) = E(X1 |G) + E(X2 |G). 2. Sei Z eine G-messbare Zufallsvariable. Wenn eine der folgenden Aussagen erfüllt ist, a) Z ist beschränkt, b) Z ≥ 0 und X ≥ 0 und E(ZX) < ∞, c) E(Z 2 ) < ∞ und E(X 2 ) < ∞, dann gilt E(ZX|G) = ZE(X|G) , 3. Für H ⊆ G ist E(E(X|G)|H) = E(X|H). Beweis: Übung. Proposition 3.9. Seien X eine Zufallsvariable und G eine σ-Algebra, X und G unabhängig. Dann gilt E(X|G) = E(X) f.s. 30 3.2 (Sub-, Super-)Martingale, Stoppzeiten Beweis: Zu zeigen ist E(X1A ) = E(E(X)1A ) für alle A ∈ G. Der Beweis verläuft mittels Standard Machine“: man zeigt die Aussage zuerst für X = 1B , ” wobei B und A unabhängig sind, da X und G unabhängig sind. Dann P schließt man mittels Linearität, dass die Aussage auch für X der Form X= K k=1 βk 1Bk gilt. Weiters benutzt man den Satz von der monotonen Konvergenz [Els09] oder [Wil91], um die Aussage für nicht-negative integrierbare X zu zeigen. Schließlich folgt der allgemeine Fall mittels Zerlegung von X in Positiv- und Negativteil und Verwendung der Linearität des Erwartungswertes. 3.2 (Sub-, Super-)Martingale, Stoppzeiten Im Folgenden bezeichne N0 := N ∪ {0}. Definition 3.10. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. (a) Unter einem (stochastischen) Prozess X auf (Ω, F, P) mit Zeitbereich N0 verstehen wir eine Abbildung X : N0 × Ω −→ R derart, dass für jedes n ∈ N0 die Abbildung X(n, .) : Ω −→ R messbar ist, also eine Zufallsvariable. Wir schreiben auch Xn für X(n, .); (b) Für ein ω ∈ Ω nennen wir die Abbildung N0 −→ R n 7−→ Xn (ω) (n ∈ N0 ) einen Pfad von X. Wir können uns unter einem Prozess also wahlweise eine Folge von Zufallsvariablen oder eine zufällige Folge, dh. einen unendlich-dimensionalen Zufallsvektor vorstellen. Definition 3.11. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Sei {Fn }n∈N0 eine Familie von Teil-σ-Algebren von F mit ∀m, n ∈ N0 : m ≤ n =⇒ Fm ⊆ Fn . Dann heißt {Fn }n≥N0 eine Filterung oder Filtration auf dem Wahrscheinlichkeitsraum mit Zeitbereich N0 . Das Quadrupel (Ω, F, {Fn }n∈N0 , P) nennen wir dann auch einen gefilterten Raum (mit Zeitbereich N0 ). Definition 3.12. Sei (Ω, F, {Fn }n∈N0 , P) ein gefilterter Raum. Dann schreiben wir [ F∞ := σ( Fn ) . n∈N0 F∞ ist also die kleinste σ-Algebra, die alle Fn , n ∈ N0 , enthält. 31 3 Nachtrag zur Martingaltheorie in diskreter Zeit Es ist nicht unüblich anzunehmen, dass F = F∞ . Wir wollen uns dies aber noch offen lassen. Definition 3.13. Sei X ein Prozess mit Zeitbereich N0 und sei {Fn }n∈N0 eine Filterung. X heißt angepasst zur Filterung {Fn }n∈N0 , falls für jedes n ∈ N0 die Zufallsvariable Xn messbar ist bezüglich Fn ; Die Filterung modelliert den Zuwachs an Information über die Zeit. Im Folgenden sei stets ein gefilterter Raum (Ω, F, {Fn }n∈N0 , P) gegeben. Die folgende Definition liefert zugleich das wichtigste Beispiel für eine Filterung: Definition 3.14. Sei X ein stochastischer Prozess mit Zeitbereich N0 und sei FnX := σ({Xm : m ≤ n}) ∀n ∈ N0 . Dann heißt {FnX }n∈N0 die von X erzeugte Filterung . Es ist eine einfache Übung zu zeigen, dass die erzeugte Filterung tatsächlich eine Filterung ist. Die erzeugte Filterung modelliert uns also den Zuwachs an Information über die Zeit durch Beobachtung des Prozesses. FnX enthält alle Informationen über X bis inklusive Zeitpunkt n. Definition 3.15. Ein stochastischer Prozess X = (Xn )n∈N0 heißt ein Martingal bezüglich der Filterung {Fn }n∈N0 , falls 1. X ist angepasst; 2. X ist integrierbar, das heißt E(|Xn |) < ∞ für alle n ∈ N0 ; 3. E(Xm |Fn ) = Xn für alle m ≥ n (Martingaleigenschaft). X heißt ein Supermartingal, wenn statt 3. gilt 3’. E(Xm |Fn ) ≤ Xn für alle m ≥ n, X heißt ein Submartingal, wenn statt 3. gilt 3”. E(Xm |Fn ) ≥ Xn für alle m ≥ n. Proposition 3.16. Sei X ein integrierbarer angepasster Prozess, sodass X also 1. und 2. von Definition 4.6 erfüllt. Dann ist X ein Martingal genau dann, wenn E(Xk+1 |Fk ) = Xk für alle k ∈ N0 . Analoge Aussagen gelten für Sub- und Supermartingale. Beweis: Übung. 32 3.2 (Sub-, Super-)Martingale, Stoppzeiten Beispiel 3.17. Seien X1 , X2 , . . . unabhängige Zufallsvariablen mit Erwartungswert 0. Wir definieren eine Filterung {Fn }n∈N0 durch F0 := {∅, Ω} Fn := σ(X1 , . . . , Xn ) ∀n ∈ N. Wir definieren einen Prozess S = (Sn )n∈N0 durch S0 := 0 ∀n ∈ N . Sn := X1 + . . . + Xn Dann ist S ein Martingal bezüglich {Fn }n∈N0 . Beweis: Wir müssen die Eigenschaften 1-3 der Definition eines Martingals zeigen. 1. Es ist mit der Dreiecksungleichung E(|Sn |) = E(|X1 + . . . + Xn |) ≤ E(|X1 |) + . . . + E(|Xn |) < ∞ . 2. Jedes der X1 , . . . , Xn ist Fn -messbar und damit auch die Summe. 3. E(Sn+1 |Fn ) = E(Sn + Xn+1 |Fn ) = E(Sn |Fn ) + E(Xn+1 |Fn ), laut Proposition 3.8, Punkt 1. Laut Proposition 3.6 ist E(Sn |Fn ) = Sn f.s. Laut Proposition 3.9 wiederum ist E(Xn+1 |Fn ) = E(Xn+1 ) = 0 f.s. Damit gilt aber insgesamt E(Sn+1 |Fn ) = Sn f.s. Beispiel 3.18. Seien Y1 , Y2 , . . . unabhängige, nicht-negative Zufallsvariablen mit Erwartungswert 1. Wir definieren eine Filterung {Fn }n∈N0 durch F0 := {∅, Ω} Fn := σ(Y1 , . . . , Yn ) ∀n ∈ N. Wir definieren einen Prozess P = (Pn )n∈N0 durch P0 := 1 Pn := Y1 · . . . · Yn ∀n ∈ N . Dann ist P ein Martingal bezüglich {Fn }n∈N0 . Beweis: 1. Es ist, da die Yi unabhängig sind E(|Pn |) = E(Pn ) = E(Y1 · . . . · Yn ) = E(Y1 ) · . . . · E(Yn ) < ∞ . 2. Jedes der Y1 , . . . , Yn ist Fn -messbar und damit auch das Produkt. 3. E(Pn+1 |Fn ) = E(Pn Yn+1 |Fn ) = Pn · E(Yn+1 |Fn ), laut Proposition 3.8, Punkt 2. Laut Proposition 3.9 wiederum ist E(Yn+1 |Fn ) = E(Yn+1 ) = 1 f.s. Damit gilt aber insgesamt E(Pn+1 |Fn ) = Pn f.s. 33 3 Nachtrag zur Martingaltheorie in diskreter Zeit Beispiel 3.19. Sei Z eine Zufallsvariable mit endlichem Erwartungswert und sei {Fn }n∈N0 eine beliebige Filterung. Wir definieren einen reell-wertigen Prozess M = (Mn )n∈N0 durch Mn := E(Z|Fn ) . Dann ist M ein Martingal bezüglich {Fn }n∈N0 . Beweis: Eigenschaften 1. und 2. sind trivial. 3. Sei m ≥ n. E(Mm |Fn ) = E(E(Z|Fm )|Fn ) = E(Z|Fn ) = Mn , nach Proposition 3.8, Punkt 3. Definition 3.20. Sei (Ω, F, {Fn }n∈N0 , P) ein gefilterter Raum. Eine Zufallsvariable T : Ω −→ N0 heißt eine Stoppzeit, falls {T ≤ n} ∈ Fn für alle n ∈ N0 . Eine Stoppzeit ist also eine zufällige Zeit mit der Eigenschaft, dass man aufgrund der Information, die zum Zeitpunkt n zur Verfügung steht, feststellen kann, ob T bereits eingetreten ist oder nicht. Proposition 3.21. Sei T eine Stoppzeit. Dann ist das Mengensystem {A ∈ F : A ∩ {T ≤ n} ∈ Fn für alle n ≥ 0} eine σ-Algebra. Beweis: Übung 1. Definition 3.22. Für eine Stoppzeit T definieren wir. FT := {A ∈ F∞ : A ∩ {T ≤ n} ∈ Fn für alle n ≥ 0} . FT heißt die σ-Algebra der Ereignisse vor T . Beispiel 3.23. Sei T = ∞. Dann ist FT = F∞ , wobei mit F∞ die σ-Algebra aus Definition 4.3 gemeint ist. Die beiden Schreibweisen kollidieren also nicht. Für T = m ist {A ∈ F∞ : A ∩ {m ≤ n} ∈ Fn für alle n ≥ 0} = Fm , sodass auch hier kein Notationskonflikt entsteht. Bemerkung 3.24. Im Fall eines diskreten Zeitbereichs ist eine N0 -wertige Zufallsvariable T genau dann eine Stoppzeit, wenn {T = n} ∈ Fn für alle n ≥ 0 , S da {T ≤ n} = nk=0 {T = k} und {T = n} = {T ≤ n}\{T ≤ n − 1}. Das macht Stoppzeiten in diskreter Zeit viel einfacher handhabbar als in stetiger Zeit. 34 3.2 (Sub-, Super-)Martingale, Stoppzeiten Proposition 3.25. Sei X = (Xn )n≥0 ein angepasster Prozess und sei B eine Borel-messbare Teilmenge von R. Dann ist TB := inf{n ≥ 0 : Xn ∈ B} eine Stoppzeit. Beweis: Übung. Definition 3.26. Ist X = (Xn )n≥0 ein stochastischer Prozess und T eine Stoppzeit, so definieren wir den bei T gestoppten Prozess X T durch XnT := XT ∧n . Das heißt XnT (ω) = XT (ω)∧n (ω) für jedes ω ∈ Ω (für zwei reelle oder ganze Zahlen a, b sei a ∧ b := min(a, b)). Außerdem können wir überall dort, wo T < ∞ ist, die Zahl XT (ω) (ω) betrachten, den Prozess X zur Zeit T . Proposition 3.27. Seien S, T Stoppzeiten, X = (Xn )n≥0 ein angepasster Prozess. Dann gelten (a) S ∧ T ist ein Stoppzeit; (b) ist S ≤ T , so ist FS ⊆ FT ; (c) XT 1{T <∞} ist eine FT -messbare Zufallsvariable; (d) X T ist ein angepasster Prozess; (e) ist X integrierbar, so auch X T . Beweis: (a) Es ist {S ∧ T ≤ n} = {S ≤ n} ∪ {T ≤ n} ∈ Fn . (b) Es ist A ∈ FS genau dann, wenn A ∩ {S ≤ n} ∈ Fn für alle n. Da aber {T ≤ n} ⊆ {S ≤ n} ist A ∩ {T ≤ n} = A ∩ {S ≤ n} ∩ {T ≤ n} ∈ Fn . | {z } | {z } ∈Fn ∈Fn (c) Sei B eine Borelmenge in R . {XT 1{T <∞} ∈ B} ∩ {T ≤ n} = {XT ∈ B} ∩ {T ≤ n} n [ = {XT ∈ B} ∩ {T = k} k=0 = = n [ ({XT ∈ B} ∩ {T = k}) k=0 n [ k=0 ({Xk ∈ B} ∩ {T = k}) ∈ Fn . | {z } ∈Fk 35 3 Nachtrag zur Martingaltheorie in diskreter Zeit (d) XnT = XT ∧n ist Fn -messbar laut (c), da T ∧ n laut (a) eine Stoppzeit ist, und FT ∧n ⊆ Fn wegen (b). P P n−1 E(|Xk | 1{T =k} )+E(|Xn | 1{T ≥n} ) ≤ nk=0 E(|Xk |). (e) E(|XnT |) = E(|XT ∧n |) = k=0 Proposition 3.28. Seien X, Z zwei Zufallsvariablen mit endlichem Erwartungswert und G eine Teil-σ-Algebra von F. Gilt E(X − Z|G) ≥ 0 und ist Z messbar bezüglich G, so ist E(X|G) ≥ Z f.s.. Beweis: Trivial. Satz 3.29 (Optional Stopping Theorem, OST). Sei X = (Xn )n≥0 ein integrierbarer angepasster Prozess. Dann sind folgende Aussagen äquivalent: (a) X ist ein Supermartingal; (b) für jede beschränkte Stoppzeit T und jede beliebige Stoppzeit S gilt E(XT |FS ) ≤ XS∧T f.s.; (c) für jede Stoppzeit T ist X T ein Supermartingal; (d) für beschränkte Stoppzeiten S und T mit S ≤ T gilt E(XT ) ≤ E(XS ) . Beweis: (c) ⇒ (a): trivial. (b) ⇒ (d): trivial. (b) ⇒ (c): (b) T E(Xn+1 |Fn ) = E(XT ∧(n+1) |Fn ) ≤ X(T ∧(n+1))∧n = XT ∧n = XnT . Es bleiben also noch (a) ⇒ (b) und (d) ⇒ (a) zu zeigen. (a) ⇒ (b): Für S ≥ 0 und T ≤ n gilt X XT = XS∧T + (Xk+1 − Xk ) = XS∧T + S≤k<T n X (Xk+1 − Xk )1{S≤k<T } . (3.1) (3.2) k=0 1S≤k<T = 1{S≤k} 1{T ≤k}c ist Fk -messbar, da S, T Stoppzeiten sind. Ist nun A ∈ FS , sodass A ∩ {S ≤ k} ∈ Fk für alle k, dann gilt A ∩ {S ≤ k} ∩ {T > k} ∈ Fk . Ist X ein Supermartingal, so gilt daher E((Xk+1 − Xk )1A∩{S≤k<T } ) ≤ 0 , und damit E(XT 1A − XS∧T 1A ) ≤ 0. Das heißt aber, da A ∈ FS beliebig war, E(XT − XS∧T |FS ) ≤ 0 f.s. und, da XS∧T messbar ist bezüglich FS (Proposition 36 3.3 Martingaltransformation, Konvergenzsätze 3.27), E(XT |FS ) ≤ XS∧T f.s. wegen Proposition 3.28. (d) ⇒ (a) Sei n ≥ 0 und sei A ∈ Fn . Setze S := n1A + (n + 1)1Ac . Dann ist S eine beschränkte Stoppzeit. T := (n + 1) ist trivialerweise eine beschränkte Stoppzeit und S ≤ T . Es gelten daher E(XS ) = E(Xn 1A + Xn+1 1Ac ) = E(Xn 1A ) + E(Xn+1 1Ac ) und E(XT ) = E(Xn+1 1A ) + E(Xn+1 1Ac ) , (3.3) (3.4) (3.5) sodass wegen E(XT ) ≤ E(XS ) folgt E(Xn+1 1A ) ≤ E(Xn 1A ). Da A ∈ Fn beliebig war, gilt also E(Xn+1 − Xn |Fn ) ≤ 0 f.s., das heißt E(Xn+1 |Fn ) ≤ Xn . 3.3 Martingaltransformation, Konvergenzsätze Definition 3.30. • Ein stochastischer Prozess C = (Cn )n≥1 heißt vorhersagbar, falls Cn+1 Fn -messbar ist für jedes n ≥ 0. • Ist X ein angepasster Prozess und C ein vorhersagbarer Prozess, so definieren wir die Martingaltransformation von X unter C als den Prozess C • X, n X (C • X)n := Ck (Xk − Xk−1 ) . k=1 Proposition 3.31. Seien X ein angepasster Prozess und C ein vorhersagbarer Prozess. Dann gelten: (a) ist X ein Sub-/Supermartingal, C nicht-negativ und beschränkt, so ist C • X ein Sub-/Supermartingal; (b) ist X ein Martingal und C beschränkt, so ist C • X ein Martingal. Beweis: Übung. Sei nun X ein Supermartingal. Wir betrachten folgende Strategie: wähle reelle Zahlen a < b 1. Warte, bis X kleiner als a ist; 2. setze EUR 1 auf X solange X kleiner oder gleich b ist, und hör dann auf zu spielen; 3. gehe zurück zu 1.). Idee: Wenn X das Intervall [a, b] ∞-oft von unten nach oben durchkreuzt, dann geht der Gewinn unter dieser Strategie gegen ∞. Siehe Abbildung 3.1. Die formale Darstellung dieser Strategie sieht so aus: Ĉ1 := 1{X0 <a} (3.6) Ĉn := 1{Ĉn−1 =1} 1{Xn−1 ≤b} + 1{Ĉn−1 =0} 1{Xn−1 <a} (3.7) 37 3 Nachtrag zur Martingaltheorie in diskreter Zeit b a (XN − a)− 0 Abbildung 3.1: Je ein Pfad von X und C • X Offenbar ist Ĉ vorhersagbar und beschränkt. Somit ist Ŷ := Ĉ • X ein Supermartingal laut Proposition 3.31. Definition 3.32. Wir definieren UN [a, b](ω), die Zahl der Upcrossings von X(ω) durch [a, b] als das größte k ∈ N0 mit ∃ 0 ≤ s1 < t1 < s2 < t2 < . . . < sk < tk ≤ N mit Xsi (ω) < a , Xti (ω) > b (∀1 ≤ i ≤ k) . Es folgt für Ŷ die Ungleichung ŶN (ω) ≥ (b − a)UN [a, b](ω) − (XN − a)− . 38 3.3 Martingaltransformation, Konvergenzsätze Lemma 3.33 (Doob’s Upcrossing Lemma). Sei X ein Supermartingal. Dann gilt (b − a)E(UN [a, b]) ≤ E((XN − a)− ) . Beweis: Sei Ŷ wie vorher. Wie bereits erwähnt ist Ŷ ein Supermartingal. Ausserdem gilt Ŷ0 = 0, sodass E(YN ) ≤ E(Y0 ) = 0 . Damit ist aber 0 ≥ E((b − a)UN [a, b] − (XN − a)− ) , woraus die Behauptung folgt. Korollar 3.34. Sei X ein Supermartingal, welches beschränkt ist in L1 , das heißt sup E(|Xn |) < ∞ . n≥0 Seien a, b ∈ R mit a < b. Dann gilt, mit U∞ [a, b] := limN →∞ UN [a, b], (b − a)E(U∞ [a, b]) ≤ |a| + sup E(|Xn |) < ∞ , n≥0 sodass P(U∞ [a, b] = ∞) = 0 . Beweis: Für alle N ≥ 0 gilt 0 ≤ (b − a)E(UN [a, b]) ≤ E((XN − a)− ) ≤ |a| + E(|XN |) ≤ |a| + sup E(|XM |) . (3.8) (3.9) (3.10) M ≥0 Mit dem Satz von der Monotonen Konvergenz folgt 0 ≤ (b − a)E(U∞ [a, b]) ≤ |a| + sup E(|XM |) < ∞ . M ≥0 Satz 3.35 (Doob’s Satz von der Vorwärts-Konvergenz). Sei X ein Supermartingal, beschränkt in L1 . Definiere X∞ := lim inf n Xn . Dann gilt: S X∞ ist F∞ = σ( n≥0 Fn )-messbar, limn Xn = X∞ fast sicher und X∞ ∈ R fast sicher. Beweis: Definiere n o Λ := ω : (Xn (ω))n≥0 konvergiert nicht in [−∞, ∞] (3.11) = ω : lim inf Xn (ω) < lim sup Xn (ω) (3.12) n n [ = ω : lim inf Xn (ω) < a < b < lim sup Xn (ω) . (3.13) n n a,b∈Q, a<b | {z } =: Λa,b 39 3 Nachtrag zur Martingaltheorie in diskreter Zeit Nun ist aber Λa,b ⊆ {ω : U∞ [a, b](ω) = ∞} , sodass P(Λa,b ) = 0. Wir haben somit Λ als abzählbare Vereinigung von Mengen vom Maß 0 geschrieben. Damit gilt P(Λ) = 0 . Daraus folgt, dass der – eventuell uneigentliche – Grenzwert limn Xn fast sicher existiert, und fast sicher mit X∞ übereinstimmt. Nach dem Lemma von Fatou gilt E(|X∞ |) = E(lim inf |Xn |) n ≤ lim inf E(|Xn |) n ≤ sup E(|Xn |) < ∞ . Damit ist X∞ ∈ (−∞, ∞) fast sicher. Korollar 3.36. Ist X ein nicht-negatives Supermartingal, dann existiert X∞ = limn Xn fast sicher in R. Beweis: Übung. Lemma 3.37. Sei M ein Martingal mit E(Mn2 ) < ∞ für alle n ≥ 0. Dann gelten für alle s ≤ t ≤ v ≤ u E ((Mt − Ms )(Mu − Mv )) = 0 , und E (M0 (Mu − Mv )) = 0, sodass mit Mn = M 0 + n X (Mk − Mk−1 ) k=1 Mn als Summe othogonaler Elemente in L2 dargestellt wird. Somit gilt mit dem Satz von Pythagoras E(Mn2 ) = E(M02 ) + n X E (Mk − Mk−1 )2 . k=1 Beweis: Mit der Martingaleigenschaft und den elementaren Eigenschaften der bedingten Erwartung gilt für s ≤ t ≤ u ≤ v E ((Mt − Ms )(Mu − Mv )) = E (E ((Mt − Ms )(Mu − Mv )|Fv )) = E (Mt − Ms )E (Mu − Mv |Fv ) = 0 . | {z } = 0 f.s. Der Rest ist eine einfache Übung. 40 3.3 Martingaltransformation, Konvergenzsätze Satz 3.38 (L2 -Konvergenz von Martingalen). Sei M ein Martingal mit Mn ∈ L2 für alle n ≥ 0. M ist beschränkt in L2 genau dann, wenn ∞ X E (Mk − Mk−1 )2 < ∞ . k=1 In diesem Fall gilt limn Mn = M∞ fast sicher und in L2 . Beweis: Der erste Teil des Satzes ist eine triviale Folgerung aus Lemma 3.37. Wir beweisen die Aussage über die Konvergenz. M ist beschränkt in L2 und somit auch in L1 , da E(|Mn |) ≤ E(|Mn |2 )1/2 . Laut Satz 3.35 konvergiert Mn −→ M∞ fast sicher. Nach Lemma 3.37 gilt n+r X E (Mn+r − Mn )2 = E (Mk − Mk−1 )2 . k=n+1 Wir wenden das Lemma von Fatou an: E (M∞ − Mn )2 = E lim inf (Mn+r − Mn )2 r ≤ lim inf E (Mn+r − Mn )2 r = lim inf r = ∞ X n+r X E (Mk − Mk−1 )2 k=n+1 E (Mk − Mk−1 )2 . k=n+1 P∞ )2 < ∞ ist, strebt der letzte Ausdruck gegen 0 Da aber k=1 E (Mk − Mk−1 wenn n gegen ∞ geht. Somit ist auch die L2 -Konvergenz gezeigt. Schreibweise: Für eine Zufallsvariable X und eine messbare Menge A verwenden wir im Folgenden auch die Schreibweise E(X; A) := E(X1A ) . Definition 3.39. Eine Familie X von Zufallsvariablen heißt gleichmäßig integrierbar (uniformly integrable, U.I.), falls ∀ε > 0 ∃K ≥ 0 ∀X ∈ X : E(|X|; |X| > K) < ε . Beispiele: 1. Sei X1 := (Xn )n≥1 mit Xn : [0, 1] −→ R, n für x ∈ [0, 1/n], Xn (x) := 0 sonst . Für jedes n ≥ 1 gilt E(|Xn |) = E(Xn ) = 1. Aber für ε = 1 gibt es für jedes K ≥ 0 ein n, nämlich etwa n = bKc + 1 mit E(|Xn |); |Xn | > K) = E(|Xn |; [0, 1/n]) = 1 . Also ist X1 nicht U.I. 41 3 Nachtrag zur Martingaltheorie in diskreter Zeit 2. Sei X2 := (Xn )n≥1 und es gebe eine Zufallsvariable Y ≥ 0 mit E(Y ) < ∞ und |Xn | ≤ Y für alle n ≥ 1. Dann ist für beliebiges K ≥ 0 E(|Xn | ; |Xn | > K) ≤ E(Y ; Y > K) . Es ist E(Y ) = ∞ X E(Y ; k ≤ Y < k + 1) < ∞ , k=0 sodass E(Y ; Y > K) ≤ ∞ X E(Y ; k ≤ Y < k + 1) . k=bKc Der letzte Ausdruck wird beliebig klein wenn K hinreichend groß wird. Somit gibt es zu gegebenem ε > 0 stets ein K mit ∞ X E(|Xn | ; |Xn | > K) ≤ E(Y ; Y > K) ≤ E(Y ; k ≤ Y < k + 1) < ε . k=bKc Die Familie X2 ist also U.I. 3. Sei X3 = {X}, X eine Zufallsvariable. X ist genau dann integrierbar, wenn X3 gleichmäßig integrierbar ist: • Sei X integrierbar. Das heißt E(|X|) < ∞, die Familie wird von |X| dominiert und wir erhalten mit dem letzten Beispiel die Behauptung. • Sei X3 U.I. Dann gilt ∀ε > 0 : ∃K : E(|X|; |X| > K) < ε ε > E(|X| ; |X| > K) ≥ ∞ X E(|X| ; k ≤ |X| < k + 1) , k=bKc+1 sodass E(|X|) = ∞ X E(|X| ; k ≤ |X| < k + 1) < ∞ . k=0 Das vierte Beispiel ist wichtig genug, um in Form eines Lemmas präsentiert zu werden: Lemma 3.40. Sei X ∈ L1 (Ω, F, P) und C eine Klasse von Teil-σ-Algebren von F. Dann ist die Familie (E(X|G))G∈C gleichmäßig integrierbar. Zum Beweis benötigen wir noch ein weiteres Lemma: Lemma 3.41. Sei X ∈ L1 . Dann gibt es für jedes ε > 0 ein δ > 0 derart, dass F ∈ F, P(F ) < δ =⇒ E(|X| ; F ) < ε . 42 3.3 Martingaltransformation, Konvergenzsätze Beweis: Angenommen, das wäre nicht der Fall. Dann gibt es ein ε0 > 0 derart, dass für alle n ≥ 1 es ein Fn ∈ F gibt mit 1 und E(|X| ; Fn ) ≥ ε0 . 2n P Sei nun H := lim supn Fn . Es ist ∞ n=1 P(Fn ) < ∞ und daher nach dem ersten Borel-Cantelli-Lemma (siehe etwa [LP, Lemma 2.4]) P(H) = 0. Aber nach dem umgekehrten Lemma von Fatou (siehe etwa [LP, Lemma 4.6])gilt P(Fn ) < E(|X| ; H) = E(|X|1lim supn Fn ) ≥ lim sup E(|X|1Fn ) ≥ ε0 , n ein Widerspruch. Beweis von Lemma 3.40: Sei ε > 0. Nach Lemma 3.41 gibt es ein δ > 0 derart, dass F ∈ F, P(F ) < δ =⇒ E(|X| ; F ) < ε . Wähle nun K > 0 so, dass E(|X|) < δK. Sei nun G ∈ C und sei Y := E(X|G) f.s. Wegen der Jensen’schen Ungleichung in der bedingten Form (siehe [Wil91, Section 9.2]) gilt |Y | ≤ E(|X| G) f.s. (3.14) Somit gilt E(|Y |) ≤ E(|X|) und daher KP(|Y | > K) ≤ E(|Y |) ≤ E(|X|) , sodass P(|Y | > K) < δ. Aber {|Y | > K} ∈ G, sodass mit Ungleichung (3.14) E(|Y | ; |Y | > K) ≤ E E(|X| G) ; |Y | > K = E(|X| ; |Y | > K) . Da P(|Y | > K) < δ folgt E(|X| ; |Y | > K) < ε, und daher E(|Y | ; |Y | > K) < ε . Der folgende Satz ist eine Verallgemeinerug des Satzes von der beschränkten bzw dominierten Konvergenz. Satz 3.42. Sei (Xn )n≥1 gleichmäßig integrierbar und X ∈ L1 mit Xn −→ X f.s. Dann gilt Xn −→ X in L1 . Beweis: (Xn )n≥1 ist U.I. und X ist integrierbar, somit ist die Folge (Xn − X)n≥1 U.I. Sei ε > 0. Es gibt ein K > 0 mit E(|Xn − X| ; |Xn − X| > K) < ε . 2 43 3 Nachtrag zur Martingaltheorie in diskreter Zeit Defniere für y ∈ R K für y > K y für |y| ≤ K ϕ(y) := −K für y < −K Offenbar gilt yn −→ 0 ⇐⇒ ϕ(yn ) −→ 0, sodass |ϕ(Xn − X)| → 0 und |ϕ(Xn − X)| ≤ f.s. K. Aus dem Satz über beschränkte Konvergenz (siehe etwa [LP, Satz 4.22]) folgt E(|ϕ(Xn − X)|) −→ 0. Damit gibt es ein n0 ≥ 1 so, dass für alle n ≥ n0 E(|ϕ(Xn − X)|) < ε . 2 Insgesamt gilt also E(|Xn − X|) = E(|ϕ(Xn − X)| ; |Xn − X| ≤ K) +E(|Xn − X| ; |Xn − X| > K) ε < E(|ϕ(Xn − X)|) + < ε 2 für alle n ≥ n0 , womit die Behauptung gezeigt ist. Satz 3.43 (Lévy’s Satz von der Rückwärts-Konvergenz). Sei (G−n )n≥1 eine Familie von Teil-σ-Algebren von F mit \ G−∞ := G−k ⊆ . . . ⊆ G−(n+1) ⊆ G−n ⊆ . . . ⊆ G−1 . k≥1 Sei γ ∈ L1 (Ω, F, P) und definiere M−n := E(γ|G−n ) für alle n . Dann existiert M−∞ := limn M−n f.s. und in L1 und M−∞ = E(γ|G−∞ ) f.s. Beweis: Der Prozess (Mk )−1 k=−N ist ein Martingal bezüglich der Filterung {Gk }−1 für jedes N ≥ 1. Nach Doob’s Upcrossing Lemma (Lemma 3.33) gilt k=−N (b − a)E(U−N [a, b]) ≤ E((M1 − a)− ) ≤ |a| + E(|M−1 |) ≤ |a| + E(|γ|) . Mit dem Satz von der monotonen Konvergenz folgt (b − a)E(U−∞ [a, b]) = lim (b − a)E(U−N [a, b]) ≤ |a| + E(|γ|) . N →∞ Wie in Doob’s Vorwärts-Konvergenz Satz 3.35 folgt nun, dass lim M−N =: M−∞ f.s. n→∞ 44 3.3 Martingaltransformation, Konvergenzsätze Wie dort folgt mit dem Lemma von Fatou [LP, Lemma 4.5] und der bedingten Version der Jensen’schen Ungleichung E(|M−∞ |) ≤ lim inf E(|Mn |) ≤ E(|γ|) < ∞ , n sodass M∞ ∈ (−∞, ∞) f.s. und E(|M−∞ |) < ∞. Da die Familie (M−n )n≥1 nach Lemma 3.40 U.I. ist folgt aus Satz 3.42 limn E(|M−n − M−∞ |) = 0. Sei nun G ∈ G−∞ ⊆ G−k . Dann ist E(γ ; G) = E(Mk ; G) und daher mit der L1 -Konvergenz von M−n E(M−∞ ; G) = lim E(Mk ; G) = E(γ ; G) . k→∞ Das heißt aber M−∞ = E(γ | G−∞ ) f.s. Bemerkung 3.44. Satz 3.43 wirkt auf den ersten Blick etwas artifiziell. Man sollte aber folgendes im Auge haben: Sei (Xt )t≥0 ein Martingal in stetiger Zeit. Sei t ≥ 0 und sei (sn )n≥1 eine Folge mit sn > t für alle n und sn ↓ t. Definiere G−n := Fsn für jedes n. Mit unserer Bezeichnung von vorher gilt dann M−n := E(Xs1 | G−n ) = E(Xs1 | Fsn ) = Xsn f.s. Mit Satz 3.43 gilt nun \ \ lim M−n = M−∞ = E(Xs1 G−n ) = E(Xs1 Fs ). n s>t n≥1 Gilt nun zusätzlich Ft = T s>t Fs , so ist Xt = E(Xs1 |Ft ) = M−∞ = lim Xsn f.s. n Das heißt wir haben hier eine Art Rechtsstetigkeit“ 1 . ” Ähnliches bekommt man mit dem Vorwärts-Konvergenz-Satz, nämlich links” seitige Limiten“. Aus genau diesem Grund ist auch eine Submartingal-Version des Satzes von der Rückwärts-Konvergenz interessant: Satz 3.45. Sei X = (Xn )n≤−1 ein Submartingal bezüglich (Gn )n≤−1 und sei limn→−∞ E(Xn ) = µ > −∞. Dann existiert limn→−∞ Xn f.s. und in L1 . 1 Rechtsstetigkeit steht hier unter Anführungszeichen weil wir unter der richtigen Rechtsstetigkeit die pfadweise verstehen wollen. 45 3 Nachtrag zur Martingaltheorie in diskreter Zeit Beweis: Wegen Doob’s Upcrossing Lemma, Lemma 3.33, existiert limn→−∞ Xn f.s. wie im Beweis von Satz 3.43. Definiere X−∞ := lim inf n→−∞ Xn . P Definiere weiters A−k := ∞ l=k E(X−l −X−l−1 |G−l−1 ). Da X ein Submartingal ist, sind die Summanden f.s. nicht-negativ und somitPexistiert A−k in [0, ∞]. Weiters ist wegen monotoner Konvergenz E(A−k ) = ∞ l=k E(X−l − X−l−1 ) = E(X−k ) − µ, sodass E(A−k ) < ∞ und somit A−k < ∞ f.s.. A ist offenbar vorhersagbar, und da A−k+1 −A−k = E(X−k+1 −X−k |G−k ) ≥ 0 f.s., ist A f.s. monoton steigend. Definiere Mn := Xn − An . Dann ist M ein Martingal da E(M−k+1 − M−k |G−k ) = E(X−k+1 − X−k |G−k ) − E(A−k+1 − A−k |G−k ) = E(X−k+1 − X−k |G−k ) − (A−k+1 − A−k ) = 0 . Da (An )n≤−1 durch A−1 dominiert wird, gilt An → 0 f.s. und in L1 für n → −∞. Da limn→−∞ Mn f.s. und in L1 wegen Lévy’s Satz von der RückwärtsKonvergenz, Satz 3.43, ist die Behauptung gezeigt. 3.4 Zwei Doob Ungleichungen Die folgenden Theoreme sind allgemein für Submartingale formuliert, sie gelten damit aber insbesondere auch für Martingale. Satz 3.46 (Doob’s Submartingal-Ungleichung). Sei Z ein nicht-negatives Submartingal. Dann gilt für c > 0 c P( sup Zk ≥ c) ≤ E(Zn ; sup Zk ≥ c) ≤ E(Zn ) . 1≤k≤n 1≤k≤n Beweis: Sei F := {sup1≤k≤n Zk ≥ c}. Schreibe F als disjunkte Vereinigung F = F0 ∪ F1 ∪ . . . ∪ Fn , wobei F0 := {Z0 ≥ c} , (3.15) Fk := {Zk ≥ c und Zj < c für 1 ≤ j < k} , 1 ≤ k ≤ n. (3.16) Offenbar ist Fk ∈ Fk für alle k und Zk ≥ c auf Fk . Somit ist wegen der Submartingaleigenschaft E(Zn ; Fk ) ≥ E(Zk ; Fk ) ≥ c P(Fk ) , und durch aufsummieren nach k E(Zn ; F ) ≥ c n X k=0 46 P(Fk ) = c P(F ) . 3.4 Zwei Doob Ungleichungen Definition 3.47. Sei p ≥ 1 und eine X Zufallsvariable mit E(|X|p ) < ∞. Wir schreiben auch X ∈ Lp := {Y : E(|Y |p ) < ∞} . Die sogenannte p-Norm2 ist dann definiert durch kXkp := E(|X|p )1/p . Satz 3.48 (Doob’s Lp -Ungleichung). Sei Z = (Zn )n≥0 ein Submartingal mit Zn ∈ Lp (Ω, F, P) für alle n. Dann gilt k sup |Zk | kp ≤ qkZn kp , 0≤k≤n wo 1 p + 1 q = 1. Zum Beweis benötigen wir das folgende Lemma: Lemma 3.49. Seien p > 1 und X, Y ∈ Lp (Ω, F, P) beide nicht-negativ mit c P(X ≥ c) ≤ E(Y ; X ≥ c) Dann gilt kXkp ≤ q kY kp , wo 1 p + 1 q für alle c ≥ 0. = 1. Beweis: Mit dem Satz von Fubini berechnen wir Z ∞ Z ∞Z pcp−1 P(X ≥ c)dc = pcp−1 1{X≥c} dP dc 0 Ω Z0 Z ∞ Fubini = pcp−1 1{X≥c} dc dP ZΩ 0 = X p dP = E(X p ) (3.17) (3.18) (3.19) Ω und Z ∞ pcp−2 E(Y ; X ≥ c)dc Z ∞Z = 0 0 Fubini Z Z = Ω (3.20) pcp−2 1{X≥c} Y dc dP (3.21) Ω ∞ = ZΩ pcp−2 1{X≥c} Y dP dc 0 p X p−1 Y dP = q E(X p−1 Y )(3.22) . p−1 Somit erhalten wir aus c P(X ≥ c) ≤ E(Y ; X ≥ c) ∀ c ≥ 0 E(X p ) ≤ q E(X p−1 Y ) . Mit der Hölder-Ungleichung bekommen wir E(X p−1 Y ) ≤ E(X (p−1)q )1/q E(Y p )1/p = E(X p )1/q E(Y p )1/p , sodass kXkp = E(X p )1−1/q ≤ qkY kp . Beweis von Satz 3.48: Nach Satz 3.46 gilt c P( sup |Zk | ≥ c) ≤ E(|Zn | ; sup |Zk | ≥ c) , 1≤k≤n 1≤k≤n sodass mit Lemma 3.49 die Behauptung folgt. 2 Hier ist k.kp eigentlich nur eine Halbnorm. Wir sagen trotzdem Norm“. ” 47 3 Nachtrag zur Martingaltheorie in diskreter Zeit 3.5 Übungsaufgaben 1. Sei T eine Stoppzeit. Definiere FT := {A ∈ F : A ∩ {T ≤ n} ∈ Fn , ∀n ≥ 0} . Dann gelten a) FT ist eine σ-Algebra; b) Ist T = n, so stimmt FT mit der n-ten σ-Algebra der Filterung überein. 2. Seien X1 , X2 i.i.d. Zufallsvariablen, P(Xk = 1) = S0 := 0, S1 := X1 , S2 := X1 + X2 . 1 2 = P(Xk = −1) und Sei weiters T die Stoppzeit T := inf{k : Sk = 1}. Bestimmen Sie σ(T ) und FT . 3. (Doob-Zerlegung) Sei X = (Xn )n≥0 ein integrierbarer angepasster Prozess. Dann kann X geschrieben werden als Xn = X0 + Mn + An , wo M = (Mn )n≥0 ein Martingal mit M0 = 0 und A = (An )n≥1 ein vorhersagbarer Prozess ist. Hinweis: Definiere An := An−1 + E(Xn − Xn−1 |Fn−1 ). 4. Sei X ein angepasster Prozess, X = X0 + M + A seine Doob-Zerlegung. Dann gelten a) X ist ein Supermartingal genau dann, wenn A monoton fallend ist, das heißt An ≥ An+1 f.s. ∀n; b) X ist in Submartingal genau dann, wenn A monoton steigend ist, das heißt An ≤ An+1 f.s. ∀n. 5. Seien Y1 , Y2 , . . . unabhängig mit P(Yk = 1) = P(Yk = −1) = Sn := Y1 + . . . + Yn . Was ist die Doob-Zerlegung von S? 48 1 2 und sei 4 Stochastische Prozesse in stetiger Zeit 4.1 Definitionen Wir befassen uns nun mit stochastischen Prozessen, deren Zeitbereich [0, ∞) ist. Der Zeitbereich ist also überabzählbar, was es bei einigen Aussagen des Kapitels 3.2 verhindert, deren Beweis direkt auf diesen Zeitbereich zu übertragen. Hingegen sind die dortigen Definitionen auch in diesem Kontext sinnvoll. Wir fassen sie noch einmal zusammen: Definition 4.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. (a) Unter einem (stochastischen) Prozess X auf (Ω, F, P) mit Zeitbereich [0, ∞) verstehen wir eine Abbildung X : [0, ∞) × Ω −→ R derart, dass für jedes t ∈ [0, ∞) die Abbildung X(t, .) : Ω −→ R messbar ist, also eine Zufallsvariable. Wir schreiben auch Xt für X(t, .); (b) Für ein ω ∈ Ω nennen wir die Abbildung [0, ∞) −→ R t 7−→ Xt (ω) (t ∈ [0, ∞)) einen Pfad von X. Definition 4.2. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Sei {Ft }t∈[0,∞) eine Familie von Teil-σ-Algebren von F mit ∀s, t ∈ [0, ∞) : s ≤ t =⇒ Fs ⊆ Ft . Dann heißt {Ft }t≥[0,∞) eine Filterung oder Filtration auf dem Wahrscheinlichkeitsraum mit Zeitbereich [0, ∞). Das Quadrupel (Ω, F, {Ft }t∈[0,∞) , P) nennen wir dann auch einen gefilterten Raum (mit Zeitbereich [0, ∞)). Definition 4.3. Sei (Ω, F, {Ft }t∈[0,∞) , P) ein gefilterter Raum. Dann schreiben wir [ F∞ := σ( Ft ) . t∈[0,∞) F∞ ist also die kleinste σ-Algebra, die alle Ft , t ∈ [0, ∞), enthält. 49 4 Stochastische Prozesse in stetiger Zeit Definition 4.4. Sei X ein Prozess mit Zeitbereich [0, ∞) und sei {Ft }t∈[0,∞) eine Filterung. X heißt angepasst zur Filterung {Ft }t∈[0,∞) , falls für jedes t ∈ [0, ∞) die Zufallsvariable Xt messbar ist bezüglich Ft ; Im Folgenden sei stets ein gefilterter Raum (Ω, F, {Ft }t∈[0,∞) , P) gegeben. Wir wiederholen ein bekanntes Beispiel für eine Filterung: Definition 4.5. Sei X ein stochastischer Prozess mit Zeitbereich [0, ∞) und sei FtX := σ({Xs : s ≤ t}) ∀t ∈ [0, ∞). Dann heißt {FtX }t∈[0,∞) die von X erzeugte Filterung . Definition 4.6. Ein stochastischer Prozess X = (Xt )t∈[0,∞) heißt ein Martingal bezüglich der Filterung {Ft }t∈[0,∞) , falls 1. X ist angepasst; 2. X ist integrierbar, das heißt E(|Xt |) < ∞ für alle t ∈ [0, ∞); 3. E(Xs |Ft ) = Xt für alle s ≥ t (Martingaleigenschaft). X heißt ein Supermartingal, wenn statt 3. gilt 3’. E(Xs |Ft ) ≤ Xt für alle s ≥ t, X heißt ein Submartingal, wenn statt 3. gilt 3”. E(Xs |Ft ) ≥ Xt für alle s ≥ t. Wir betrachten nun zwei Konzepte, die den Unterschied zwischen stetiger und diskreter Theorie verdeutlichen. Definition 4.7. (a) Zwei stochastische Prozesse X und Y heißen Versionen voneinander, falls Xt = Yt f.s., für alle t ∈ R+ ; (b) Zwei stochastische Prozesse heißen ununterscheidbar, falls Xt = Yt für alle t ∈ R+ , f.s.. Bemerkung 4.8. Für stochastische Prozesse mit abzählbarem Zeitbereich stimmen die beiden Konzepte überein. Für Prozesse mit überabzählbarem Zeitbereich stimmen die Konzepte nicht überein: Betrachte etwa (Ω, F, P) = ([0, 1], B[0, 1], λ) und definiere 1 ω=t Xt (ω) = (t ∈ R+ ) . 0 ω 6= t und Y ≡ 0. Dann gilt für alle t ∈ R+ offenbar Xt = 0 f.s., aber X. (ω) 6= Y. (ω) für alle ω ∈ Ω. 50 4.1 Definitionen Wir werden an unsere Prozesse meist eine der folgenden zusätzlichen Forderungen stellen: Definition 4.9. Ein Prozess X heißt links-/rechtsstetig, stetig, càdlàg/làdcàg, bzw. von beschränkter Variation, wenn jeder Pfad von X die entsprechende Eigenschaft hat. (Dabei sagen wir von einer Funktion f : [0, ∞) −→ R sie habe beschränkte Variation, wenn V0t (f ) < ∞ für alle t ≥ 0). Bemerkung 4.10. Definitionsgemäß ist ein stochastischer Prozess eine Funktion R+ × Ω −→ R (bzw. Rd ). Es erweist sich aber je nach Bedarf als praktisch, X als Familie (Xt )t∈R+ von Zufallsvariablen oder als Menge zufälliger Funktio” nen“ (X. (ω))ω∈Ω aufzufassen, das heißt als funktionswertige Zufallsvariable“ 1 . ” Proposition 4.11. Seien X, Y zwei rechtsstetige oder zwei linksstetige Prozesse. Dann sind X und Y genau dann Versionen voneinander, wenn sie ununterscheidbar sind. Beweis: Zwei ununterscheidbare Prozesse sind immer Versionen voneinander, daher ist nur eine Richtung zu zeigen. Seien also X, Y Versionen voneinander und seien beide Prozesse o.B.d.A. rechtsstetig. Sei At := {ω ∈ Ω : Xt (ω) 6= Yt (ω)}. Dann gilt nach Voraussetzung P(At ) = 0. Damit gilt aber auch für [ A := At , t∈Q∩[0,∞) dass P(A) = 0, da die Menge der rationalen Zahlen abzählbar ist. Es gilt also auf Ω\A dass Xt = Yt für alle t ∈ Q. Damit ist aber für alle ω ∈ Ω\A und t ∈ [0, ∞) Xt (ω) = lim Xs (ω) = lim Xs (ω) = Yt (ω) . s↓t,s∈Q s↓t,s∈Q Definition 4.12. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Unter einer PNullmenge verstehen wir eine Teilmenge N von Ω derart, dass es eine Menge A ∈ F gibt mit N ⊆ A und P(A) = 0. Der Maßraum heißt vollständig, wenn jede Nullmenge bereits ein Element von F ist. Bemerkung 4.13. Offenbar liegt der Unterschied zwischen einer P-Nullmenge N und einer Menge A mit P(A) = 0 darin, dass erstere kein Element von F sein muss, und daher P(N ) nicht definiert zu sein braucht. Proposition 4.14. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Sei N die Familie der P-Nullmengen, N := {N ⊆ Ω : ∃A ∈ F : N ⊆ A und P(A) = 0 } . Dann gelten: 1 Man kann diese Auffassung mathematisch exakt begründen, indem man eine geeignete messbare Struktur auf dem Raum aller (càdlàg) Funktionen R+ −→ Rd definiert. 51 4 Stochastische Prozesse in stetiger Zeit (a) F̃ := σ(N ∪ F) = {N ∪ A : N ∈ N , A ∈ F }; (b) durch P̃(N ∪ A) := P(A) , (N ∈ N , A ∈ F), wird ein Maß P̃ auf F̃ definiert, welches auf F mit P übereinstimmt; (c) (Ω, F̃, P̃) ist ein vollständiger Wahrscheinlichkeitsraum. Beweis: Übung. Definition 4.15. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und F̃ und P̃ wie im vorigen Satz. Dann heißt (Ω, F̃, P̃) die Vervollständigung von (Ω, F, P). Definition 4.16. Sei (Ω, F, P) ein Maßraum und {Ft }t∈R+ eine Filterung darauf. Die Filterung heißt rechtsstetig, falls \ Fs für alle t ∈ R+ . Ft = Ft+ := s∈R,s>t Definition 4.17. Ein gefilterter Raum (Ω, F, (Ft )t∈R+ , P) heißt ein standardgefilterter Raum, falls er folgende Bedingungen, die sogenannten usual conditions erfüllt: (i) (Ω, F, P) ist ein vollständiger Maßraum; (ii) F0 enthält alle P-Nullmengen von F; (iii) {Ft }t∈R+ ist rechtsstetig. Bemerkung 4.18. Mit der Eigenschaft (ii) enthält auch jedes Ft , t ≥ 0 die Nullmengen von F. Bezeichne Q+ := {q ∈ Q : q ≥ 0}. Definition 4.19. Sei f : Q+ −→ R eine Funktion. Wir nennen f regularisierbar, falls lim f (s) existiert in R ∀t ∈ R+ (4.1) lim f (s) existiert in R ∀t ∈ R+ , t > 0 . (4.2) s↓t,s∈Q+ s↑t,s∈Q+ Proposition 4.20. Sei f : Q+ −→ R eine regularisierbare Funktion und definiere g : R+ −→ R durch g(t) := Dann ist g eine càdlàg Funktion. Beweis: Übung. 52 lim s↓t,s∈Q+ f (s) (t ∈ R+ ). 4.1 Definitionen Definition 4.21. Sei f : Q+ −→ R eine Funktion und a, b ∈ R mit a < b. Sei N ∈ N. Wir nennen f UN [a, b] := sup{n ≥ 0 : ∃ 0 ≤ s1 < t1 < . . . < sn < tn ≤ N, sk , tk ∈ Q+ , f (sk ) < a, f (tk ) > b, ∀1 ≤ k ≤ n} die Anzahl der Upcrossings von f durch das Intervall [a, b] im Zeitintervall [0, N ]. Bemerkung 4.22. Offenbar kann hier – im Gegensatz zum diskreten Zeitbereich – auch für endliches N die Anzahl der Upcrossings im Intervall [0, N ] unendlich sein. Satz 4.23. Eine Funktion f : Q+ −→ R ist genau dann regularisierbar, wenn für alle N ∈ N und alle a < b, a, b ∈ Q, gilt f sup{|f (q)| : q ∈ Q+ ∩ [0, N ]} < ∞ und UN [a, b] < ∞ . Beweis: Übung. Korollar 4.24. Sei X = (Xt )t∈Q+ ein angepasster stochastischer Prozess. Dann ist die Menge {ω ∈ Ω : X. (ω) ist regularisierbar } F∞ -messbar. Die folgenden Sätze geben hinreichende Bedingungen an, wann ein gegebener Prozess eine Version eines stetigen oder càdlàg Prozesses ist. Satz 4.25 (Pfadregularisierung). Sei X = (Xt )t∈R+ ein {Ft }t∈R+ -Martingal, F̃t = σ(N , Ft+ ). Dann gibt es ein càdlàg {F̃t }t∈R+ -Martingal X̃ derart, dass E(X̃t |Ft ) = Xt f.s. Insbesondere, gilt: ist {Ft }t∈R+ rechtsstetig, so ist X̃ eine Version von X. Beweis: Wir können annehmen, dass N ⊆ F0 , da dies keinen Einfluss auf die Martingaleigenschaft hat. Setze IN := Q ∩ [0, N ] und sei a < b. X [a, b] fast sicher endlich (Übung). Wegen Doob’s Upcrossing-Ungleichung ist UN Wegen Doob’s Submartingal-Ungleichung ist supt∈IN |Xt | f.s. endlich (Übung). Die Menge \ \ X Ω0 := {UN [a, b] < ∞} ∩ { sup |Xt | < ∞} N ∈N t∈IN a,b∈Q a<b erfüllt also P(Ω0 ) = 1, und für jedes ω ∈ Ω0 ist die Einschränkung des Pfades X. (ω) auf Q+ regularisierbar. Definiere X̃t := lim Xs · 1Ω0 . s↓t,s∈Q+ 53 4 Stochastische Prozesse in stetiger Zeit Dann ist X̃ angepasst zu {F̃t } und X̃ ist càdlàg laut Proposition 4.20. Aufgrund von Lévy’s Satz von der Rückwärts-Konvergenz, Satz 3.43, gilt für s>t X̃t = E(Xs |F̃t ) . Der Rest des Beweises (X̃ ist ein Martingal und eine Version von X) ist eine gute Übung. Durch leichte Modifikation des Beweises kann man zeigen, dass es zu jedem Super-/Submartingal X bezüglich einer Standard-Filterung eine càdlàg Version gibt, falls die Funktion t 7→ E(Xt ) rechtsstetig ist. Definition 4.26. Sei X ein stochastischer Prozess. Dann wird durch FtX := σ({Xs : s ≤ t}) (t ∈ R+ ) eine Filterung definiert und X ist angepasst zu {FtX }. Wir nennen {FtX } die von X erzeugte Filterung. Durch X F̃tX := σ(N ∪ Ft+ ) (t ∈ R+ ) wird eine Standard-Filterung {F̃tX } definiert. Da FtX ⊆ F̃tX ist X auch angepasst zu {F̃tX }. Wir nennen {F̃tX } die von X erzeugte Standard-Filterung. Wir bezeichnen mit D die Menge der dyadischen Zahlen, D := { k : k ∈ Z, n ∈ N} . 2n Offenbar liegt D dicht in R. Satz 4.27 (Kolmogoroff-Kriterium). Sei p ≥ 1 und β > 1/p. Sei I := D ∩ [0, 1]. Sei X = (Xt )t∈[0,1] ein Prozess derart, dass kXs − Xt kp ≤ C|s − t|β ∀s, t ∈ [0, 1] für eine Konstante 0 < C < ∞. Dann gibt es für jedes α ∈ [0, β − 1/p) eine Zufallsvariable Kα ∈ Lp derart, dass |Xs − Xt | ≤ Kα |s − t|α ∀s, t ∈ I . Beweis: Sei Dn := { 2kn : 0 ≤ k ≤ 2n − 1} und definiere Kn := sup |Xt+2−n − Xt | . t∈Dn Dann ist ! E(Knp ) ≤ E X |Xt+2−n − Xt |p ≤ 2n C p (2−n )βp . t∈Dn Für s, t ∈ I mit s < t wähle m ≥ 0 so, dass 2−(m+1) < t − s ≤ 2−m . 54 4.2 Zwei wichtige stochastische Prozesse Wir können [s, t) schreiben als endliche, disjunkte Vereinigung von Intervallen der Form [r, r + 2−n ), r ∈ Dn , n ≥ m + 1, von denen keine drei dieselbe Länge haben. P Somit gilt |Xt − Xs | ≤ 2 n≥m+1 Kn , sodass, da t − s > 2−(m+1) , X |Xt − Xs | Kn 2(m+1)α ≤ Kα , ≤ 2 (t − s)α n≥m+1 wo Kα := 2 n≥0 2nα Kn . Aber n X X X 2nα 2n/p (2−n )β = C 2α−(β−1/p) < ∞ . 2nα kKn kp ≤ 2C kKα kp ≤ 2 P n≥0 n≥0 n≥0 Somit sind fast alle Pfade eines Prozesses X, welcher die Voraussetzungen des letzten Satzes erfüllt, Hölder-stetig auf I, und somit gleichmäßig stetig auf I. Bezeichne N := {ω : X. (ω) nicht gleichmäßig stetig auf I} und setze X̃t := lim Xs · 1Ω\N (t ∈ [0, 1]) . s→t,s∈I Wenn {Ft }t∈[0,1] eine Standard-Filterung ist, dann ist X̃ ein angepasster Prozess mit gleichmäßig stetigen Pfaden. X̃ ist außerdem eine Version von X: Da kXs − Xt kp ≤ C|s − t|β gilt ist lims→t,s∈I kXs − Xt kp = 0. Andererseits gilt lims→t,s∈I kXs − X̃t k = 0, sodass Xt = X̃t f.s. Im Folgenden bringen wir wichtige Beispiele von stochastischen Prozessen. Die Frage der Existenz dieser Prozesse lassen wir momentan beiseite. 4.2 Zwei wichtige stochastische Prozesse Definition 4.28. Ein Prozess N = (Nt )t∈R+ heißt ein Poisson-Prozess mit Intensität λ > 0, falls er folgende Eigenschaften hat: (i) N0 = 0 f.s.; (ii) für 0 ≤ s < t ist Nt − Ns Poisson-verteilt mit E(Nt − Ns ) = λ(t − s) , das heißt Nt − Ns ist eine Zufallsvariable mit Werten in N ∪ {0} und P(Nt − Ns = k) = (λ(t − s))k e−λ(t−s) k! für alle k ≥ 0; (iii) für 0 ≤ t0 ≤ t1 ≤ . . . ≤ tn sind die Zufallsvariablen Nt0 , Nt1 − Nt0 , . . . , Ntn − Ntn−1 unabhängig. 55 4 Stochastische Prozesse in stetiger Zeit Wenn ein solcher Prozess existiert, dann ist der Prozess M , Mt := Nt − λt (t ∈ R+ ) ein Martingal bezüglich der von N erzeugten Standard-Filterung (Übung). Es existiert also dann eine càdlàg Version von M und damit von N . Deshalb verlangen wir zusätzlich von einem Poisson-Prozess stets (iv) N ist càdlàg. Definition 4.29. Eine Brown’sche Bewegung ist ein stochastischer Prozess B = (Bt )t∈R+ mit folgenden Eigenschaften: (i) B0 = 0 f.s.; (ii) für 0 ≤ s < t ist Bt −Bs normalverteilt mit Erwartungswert 0 und Varianz t − s; (iii) für beliebige 0 ≤ t0 < t1 < . . . < tn sind die Zufallsvariablen Bt0 , Bt1 − Bt0 , . . . , Btn − Btn−1 unabhängig. Zusätzlich fordern wir noch (iv) B ist stetig. Dass zu einem Prozess B mit Eigenschaften (i)-(iii) stets eine stetige Version existiert, und damit Eigenschaft (iv) eine natürliche Forderung ist, folgt aus dem Kolmogoroff-Kriterium Satz 4.27 (Übung). Es ist außerdem leicht zu zeigen, dass eine Brown’sche Bewegung ein Martingal bezüglich der erzeugten (standard-)Filterung definiert (Übung). 4.3 Martingale und Stoppzeiten in stetiger Zeit Wir zählen nun noch ein Paar Sätze auf, welche Verallgemeinerungen der Sätze aus der diskreten Theorie sind und sich mehr oder weniger leicht beweisen lassen. Dabei setzen wir stets voraus, dass Martingale càdlàg sind. Es ist leicht zu sehen, dass die Sätze ohne diese Voraussetzung im allgemeinen falsch sind. Also: Wichtige Konvention: Für diese Vorlesung ist jedes Sub-/Supermartingal und Martingal càdlàg. Satz 4.30 (Doob’s Satz von der Vorwärts-Konvergenz). Sei X ein Supermartingal, beschränkt in L1 . Dann existiert limt→∞ Xt fast sicher. Definiere X∞ := lim inf t→∞ Xt . Dann gilt: X∞ ist F∞ -messbar und X∞ ∈ R fast sicher. 56 4.3 Martingale und Stoppzeiten in stetiger Zeit Satz 4.31 (Doob’s Submartingal-Ungleichung). Sei Z ein nicht-negatives Submartingal. Dann gilt für c > 0 c P(sup Zs ≥ c) ≤ E(Zt ; sup Zs ≥ c) ≤ E(Zt ) . s≤t s≤t Satz 4.32 (Doob’s Lp -Ungleichung). Sei Z = (Zt )t≥0 ein Submartingal oder Martingal mit Zt ∈ Lp (Ω, F, P) für alle t. Dann gilt k sup |Zs | kp ≤ qkZt kp . s≤t Satz 4.33 (L2 -Konvergenz von Martingalen). Sei M = (Mt )t∈R+ ein L2 -beschränktes Martingal. Dann existiert limt→∞ Mt =: M∞ fast sicher und in L2 . Es gelten Xt = E(X∞ |Ft ) für alle t ≥ 0 und k supt≥0 |Xt |2 k2 ≤ 2kX∞ k2 . Definition 4.34. Eine Zufallsvariable T : Ω −→ [0, ∞] heißt eine Stoppzeit, falls {T ≤ t} ∈ Ft für alle t ∈ R+ . Für eine Stoppzeit T sei FT := {A ∈ F : A ∩ {T ≤ t} ∈ Ft für alle t ≥ 0} . Die folgende Proposition liefert zugleich ein wichtiges Beispiel für Stoppzeiten. Proposition 4.35. Sei X ein stetiger Prozess mit X0 = 0. Setze Sn := inf{t ≥ 0 : |Xt | = n} . Dann ist Sn für jedes n ≥ 1 eine Stoppzeit. Beweis: Es gilt {Sn ≤ t} = \ [ 1 {|Xs | > n − } ∈ Ft , k k≥1 s∈Q,s≤t sodass also Sn tatsächlich eine Stoppzeit ist. Natürlich ist Sn auch dann eine Stoppzeit, wenn n eine positive reelle Zahl ist. Wir werden die Folge (Sn )n≥1 allerdings oft brauchen. Proposition 4.36. Seien S, T Stoppzeiten, X = (Xt )t≥0 ein angepasster Prozess. Dann gelten (a) S ∧ T ist ein Stoppzeit; (b) ist S ≤ T , so ist FS ⊆ FT ; (c) X T ist ein angepasster Prozess, wobei wieder XtT (ω) = XT ∧t (ω). Beweis: Wie im diskreten Fall. 57 4 Stochastische Prozesse in stetiger Zeit Definition 4.37. Sei T eine Stoppzeit, X ein Prozess. Wie im Fall eines diskreten Zeitbereichs definieren wir XT wie folgt XT (ω) := XT (ω) (ω) , (ω ∈ {T < ∞}) . Definition 4.38. Wir sagen ein Prozess X sei progressiv messbar, falls X|[0,t]×Ω messbar ist bezüglich B[0, t] ⊗ Ft für jedes t ≥ 0. Proposition 4.39. Sei X ein càdlàg angepasster Prozess. Dann ist X progressiv messbar. Beweis: Sei t ≥ 0. Es ist X|[0,t]×Ω = lim X n n wo Xsn = Xαn (s)∧t , (s ≤ t) und αn (s) = (k + 1)2−n für k2−n ≤ s < (k + 1)2−n (das heißt αn (s) = 2−n (b2n sc + 1)). Da ∞ X Xsn = X(k+1)2−n ∧t 1[k2−n ,(k+1)2−n ) (s) , (s ≤ t) , k=0 und X(k+1)2−n ∧t messbar ist bezüglich Ft , ist X|[0,t]×Ω messbar (B[0, t] ⊗ Ft ). Proposition 4.40. Ist X ein progressiv messbarer Prozess und T eine endliche Stoppzeit, so ist XT messbar bezüglich FT . Beweis: Sei t ≥ 0. Betrachte die Abbildungen X̄ Ft [0, t] × Ω, B[0, t] ⊗ Ft −→ R, B , {T ≤ t}, Ft −→ wo Ft (ω) := (T (ω), ω) und X̄ die Einschränkung von X auf [0, t]. Da XT = X̄ ◦ Ft auf {T ≤ t} ist, genügt es zu zeigen, dass Ft und X̄ messbar sind (denn dann ist {XT ∈ B} ∩ {T ≤ t} ∈ Ft für alle B ∈ B[0, 1]). X̄ ist messbar, da X progressiv messbar ist, und Ft−1 [0, s] × A = A ∩ {T ≤ s} ∩ {T ≤ t} ∈ Ft für alle A ∈ Ft und s ≥ 0, sodass auch Ft messbar ist. Korollar 4.41. Sei X ein càdlàg angepasster Prozess. Sei T eine endliche Stoppzeit. Dann ist XT messbar bezüglich FT . Auch das Optional Stopping Theorem gilt fast unverändert für càdlàg Martingale. Satz 4.42 (Optional Stopping Theorem, OST). Sei X ein càdlàg angepasster Prozess. Dann sind äquivalent: (a) X ist ein Supermartingal, 58 4.3 Martingale und Stoppzeiten in stetiger Zeit (b) X T ist ein Supermartingal für jede Stoppzeit T , (c) für je zwei Stoppzeiten S, T mit T beschränkt ist XT integrierbar und E(XT |FS ) ≤ XT ∧S f.s., (d) für je zwei beschränkte Stoppzeiten S, T mit S ≤ T sind XS und XT integrierbar und es gilt E(XT ) ≤ E(XS ) . Beweis: Es gelte (a). Seien S und T beschränkte Stoppzeiten. Für n ≥ 0 setze Sn := 2−n d2n Se , Tn := 2−n d2n T e . Dann sind Sn und Tn für jedes n ≥ 0 beschränkte Stoppzeiten und Sn ↓ S, Tn ↓ T für n → ∞ (Übung). Da X rechtsstetig ist, gilt limn→∞ XTn = XT f.s. Aus dem diskreten OST Satz 3.29 folgt, dass XTn = E(XTn−1 |FTn ) ((Xk2−n )k≥0 ist ja ein Supermartingal mit diskretem Zeitbereich). Nach Satz 3.45 konvergiert XTn für n → ∞ gegen XT f.s. und in L1 . Analog gilt n→∞ XTn ∧Sn −→ XT ∧S in L1 . Sei A ∈ FS , sodass insbesondere A ∈ FSn für alle n. Aus dem diskreten OST folgt nun E(XTn 1A ) ≤ E(XSn ∧Tn 1A ) . Wir lassen n gegen unendlich gehen und erhalten (c). Der Rest des Beweises funktioniert wie im diskreten Fall. Satz 4.43 (Zusatz zum OST). Gilt (a) und ist (Xt )t≥0 U.I., so gelten (c) und (d) für beliebige Stoppzeiten. Beweis: Ohne Beweis. Definition 4.44. Wir sagen X ist ein lokales Martingal, wenn es eine Folge von Stoppzeiten (Tn )n≥1 mit Tn ↑ ∞ f.s. gibt derart, dass X Tn ein Martingal ist für alle n. Hierbei ist wieder XtTn := XTn ∧t . Die Folge (Tn )n≥1 nennen wir eine reduzierende Folge von Stoppzeiten für X. Proposition 4.45. Folgende Aussagen sind äquivalent: (a) X ist ein Martingal, (b) X ist ein lokales Martingal und für jedes t ist die folgende Familie von Zufallsvariablen U.I.: X := {XT : T eine Stoppzeit, T ≤ t} . 59 4 Stochastische Prozesse in stetiger Zeit Beweis: Es gelte (a). Wegen Satz 4.42 gilt, falls T ≤ t eine Stoppzeit ist XT = E(Xt |FT ) , (f.s.) , somit ist X nach Lemma 3.40 U.I. Umgekehrt, wenn wir (b) annehmen und (Tn )n≥1 eine reduzierende Folge für X ist, dann gilt für jede Stoppzeit T ≤ t n→∞ E(X0 ) = E(XTTn ) = E(XT ∧Tn ) −→ E(XT ) , (4.3) wobei die Konvergenz nach Satz 3.42 gilt. Nach dem OST Satz 4.42 ist X also ein Martingal. Korollar 4.46. Sei M ein lokales Martingal. Ist M beschränkt, so ist M ein Martingal. Proposition 4.47. Sei M ein stetiges lokales Martingal mit M0 = 0. Setze Sn := inf{t ≥ 0 : |Mt | = n} . Dann ist Sn für jedes n ≥ 1 eine Stoppzeit, Sn ↑ ∞ und M Sn ist ein Martingal für jedes n. Beweis: Sn ist eine Stoppzeit nach Proposition 4.35. Weiters gilt für jedes ω ∈ Ω und t ≥ 0, sup |Ms (ω)| < ∞ , s≤t und Sn (ω) > t für jedes n > sups≤t |Ms (ω)|. Somit gilt Sn ↑ ∞ für n → ∞. Sei Tn eine reduzierende Folge für M . Dann ist M Tn ein Martingal für jedes n. Aufgrund des OST ist also M Tn ∧Sk ein Martingal für alle n, k, sodass M Sk ein lokales Martingal ist für jedes k. Aber M Sk ist beschränkt und daher ein Martingal wegen Proposition 4.45. Satz 4.48. Sei M ein stetiges lokales Martingal von beschränkter Variation2 mit M0 = 0. Dann ist M ≡ 0 f.s. (M und 0 sind ununterscheidbar). Beweis: Sei V die Totalvariation von M . Dann ist V stetig angepasst mit V0 = 0. Setze S := inf{t ≥ 0 : |Vt | = 1} . S ist eine Stoppzeit. Es genügt zu zeigen, dass M S ≡ 0. Aus OST folgt, dass M S ein lokales Martingal ist: (M S )Tn = M S∧Tn = (M Tn )S . Weiters gilt |M S | ≤ V S ≤ 1 , 2 Dabei heiße eine Funktion f : [0, ∞) → R von beschränkter Variation, falls V0t (f ) < ∞ für alle t. 60 4.3 Martingale und Stoppzeiten in stetiger Zeit sodass also M S ein Martingal ist. Es genügt also, die Aussage des Satzes für beschränkte Martingale mit Totalvariation ≤ 1 zu beweisen. Sei nun t ≥ 0 und sei tk := nk t. Dann gilt E(Mt2 ) = E n−1 X (Mtk+1 − Mtk )2 k=0 ≤ E n−1 X !! ! |Mtk+1 − Mtk | k=0 sup 0≤k≤n−1 |Mtk+1 − Mtk | . Da M stetig ist und von beschränkter Variation, konvergiert n−1 X k=0 ! ! |Mtk+1 − Mtk | sup 0≤k≤n−1 |Mtk+1 − Mtk | punktweise gegen 0. Aus dem Satz über beschränkte Konvergenz folgt E(Mt2 ) = 0. M ist also ein stetiger Prozess mit Mt = 0 f.s. für alle t. Daraus folgt, dass Mt = 0 für alle t f.s. (Übung). Definition 4.49. Sei X0 eine F0 -messbare Zufallsvariable, M ein stetiges lokales Martingal mit M0 = 0 und A ein stetiger angepasster Prozess von beschränkter Variation mit A0 = 0. Setze Xt = X0 + Mt + At , für alle t . Wir nennen jeden Prozess X von dieser Form ein stetiges Semimartingal. Die Bedeutung dieser Prozesse wird klarer, wenn wir einmal das stochastische Integral definiert haben. Semimartingale sind nämlich diejenigen Prozesse, bezüglich derer integriert wird. Außerdem ist das Ergebnis der Integration dann wieder ein Semimartingal. Korollar 4.50. Sei X ein stetiges Semimartingal. Dann ist die Darstellung X = X0 + M + A mit X0 eine F0 -messbare Zufallsvariable, M ein stetiges lokales Martingal mit M0 = 0 und A ein stetiger angepasster Prozess von beschränkter Variation mit A0 = 0, (bis auf Ununterscheidbarkeit) eindeutig bestimmt. Beweis: Seien X = X0 +M +A und X = X0 +M 0 +A0 zwei solche Zerlegungen. Dann gilt M − M 0 = A0 − A. A0 − A ist also ein stetiges lokales Martingal mit beschränkter Variation und damit 0. Deshalb ist auch M − M 0 = 0. 61 4 Stochastische Prozesse in stetiger Zeit Definition 4.51. Sei X ein càdlàg angepasster Prozess. Wir definieren X ∗ := sup |Xt | und |||X||| := kX ∗ k2 . t Wir schreiben C2 := {X : Xcàdlàg und |||X||| < ∞} M := {M : M ein càdlàg Martingal} =: M(Ω, F, {Ft }, P); M2 := {M ∈ M : M L2 -beschränkt}; Mc := {M ∈ M : M stetig}; M2c := M2 ∩ Mc . Aufgrund des L2 -Konvergenzsatzes Satz 4.33 existiert für M ∈ M2 der Grenzwert M∞ := limt Mt f.s. und in L2 . Für M ∈ M2 setzen wir kM k := kM∞ k2 . Bemerkung 4.52. Im Folgenden werden wir oft stillschweigend Funktionen in L2 mit der zugehörigen Äquivalenzklasse in L2 bezüglich der Relation M ∼ Y :⇔ kM − Y k2 = 0 identifizieren. Proposition 4.53. Es gelten: (a) (C 2 , |||.|||) ist vollständig, (b) M2 = M ∩ C 2 , (c) (M2 , k.k) ist ein Hilbertraum und M2c ist ein abgeschlossener Teilraum, (d) Die Abbildung M2 −→ L2 (F∞ ) M 7−→ M∞ ist eine Isometrie. Beweis: (a) Sei (M n )n≥1 eine |||.|||-Cauchyfolge. Dann gibt es eine Teilfolge (nk ) derart, dass X X n k sup |Mt k+1 − Mtnk |k2 ≤ |||M nk+1 − M nk ||| < ∞ . k t≥0 k Somit gilt für fast alle ω X k n sup |Mt k+1 − Mtnk |(ω) < ∞ , t≥0 sodass Mtnk (ω) gleichmäßig in t ≥ 0 konvergiert für k → ∞. Schreibe Xt (ω) := limk Xtnk (ω) wo der Limes existiert, Xt (ω) = 0 sonst. Der Limes ist càdlàg als gleichmäßiger Limes von càdlàg Funktionen (Übung!). Nach dem Lemma von Fatou gilt n→∞ E(sup |Mtn − Mt |2 ) ≤ lim inf E(sup |Mtn − Mtnk |2 ) −→ 0 . k t≥0 t≥0 | {z } |||M n −M ||| 62 4.4 Übungsaufgaben (b) Es ist leicht einzusehen, dass M2 ⊇ M ∩ C 2 . Ist umgekehrt M ∈ M2 , dann ist |||M ||| ≤ 2kM k < ∞, wegen Doob’s L2 -Ungleichung, sodass M ∈ C 2 . (c) Die Abbildung (M, Y ) 7−→ E(M∞ Y∞ ) definiert ein inneres Produkt auf M2 und kM k ≤ |||M ||| ≤ 2kM k. Der Raum M2 ist somit vollständig unter k.k genau dann, wenn er es unter |||.||| ist. Es genügt daher zu zeigen, dass M2 ein abgeschlossener Teilraum von (C 2 , |||.|||) ist. Sei also M n eine Folge in M2 und M ∈ C 2 mit |||M n − M ||| −→ 0. Dann ist M sicher càdlàg angepasst und L2 -beschränkt. Weiters ist für s ≤ t E(Mt |Fs ) = lim E(Mtn |Fs ) = lim Msn = Ms , n n wo die Limiten in L2 genommen werden. Somit ist M ∈ M ∩ C 2 = M2 . (d) Offensichtlich. 4.4 Übungsaufgaben 1. Beweisen Sie Proposition 4.14. 2. Beweisen Sie Proposition 4.20. 3. Beweisen Sie Satz 4.23. 4. Sei N ein Poisson-Prozess mit Intensität λ > 0. Zeigen Sie, dass der Prozess (Nt − λt)t≥0 bezüglich der von N erzeugten Filterung ein Martingal ist. 5. Zeigen Sie mithilfe des Kolmogoroff-Kriteriums, dass zu jeder Brown’schen Bewegung eine stetige Version existiert. 6. Sei B eine Brown’sche Bewegung. Zeigen Sie, dass die folgenden Prozesse bezüglich der von B erzeugten Filterung Martingale sind: a) B; b) (Bt2 − t)t≥0 ; c) eaBt − a2 t 2 , für alle a ∈ R. 7. Zeigen Sie: ist (fn )n≥1 eine Folge von càdlàg Funktionen, welche gleichmäßig gegen eine Funktion f konvergiert, dann ist f càdlàg. 8. Sei T eine Stoppzeit. Dann ist 2−n d2n T e eine Stoppzeit. 9. Sei X ein stetiger Prozess mit Xt = 0 f.s. für alle t ≥ 0. Zeigen Sie: X und 0 sind ununterscheidbar. 10. Auf welchen der Räume C 2 , M, M2 , Mc , M2c sind |||.||| bzw. k.k definiert bzw. (Halb-)Normen? 63 5 Stochastische Integration 5.1 Naive“ stochastische Integration ” Bevor wir uns der Theorie der stochastischen Integration widmen, betrachten wir das stochastische Integral noch einmal naiv“, das heißt im Sinne von ” Riemann-Stieltjes. Man sieht schon an der Aussage von Satz 4.48, dass man nicht erwarten darf, dadurch einen gültigen Integralbegriff zu bekommen, falls der Prozess, bezüglich welchem man integrieren will, ein stetiges Martingal, also etwa eine Brown’sche Bewegung ist. Was geht aber schief dabei? Versuchen wir doch einfach, ein stochastisches Integral mithilfe des RiemannStieltjes’schen Integral zu berechnen: Z 1 Bs dBs =? 0 Sehen wir zunächst den Erwartungswert einer Riemann-Summe an, wenn wir den Integranden jeweils an der linken Intervallgrenze der Zerlegung Z = {t0 , . . . , tn } auswerten: E n X ! Btk−1 (Btk − Btk−1 ) = k=1 = n X k=1 n X E Btk−1 (Btk − Btk−1 ) (5.1) E(Btk−1 )E(Btk − Btk−1 ) = 0 . (5.2) k=1 Dann probieren wir dasselbe noch mit Auswertung an den rechten Intervallgrenzen ! n X E Btk (Btk − Btk−1 ) = (5.3) k=1 = n X E Btk (Btk − Btk−1 ) (5.4) k=1 = = n X E (Btk − Btk−1 + Btk−1 )(Btk − Btk−1 ) k=1 n X E (Btk − Btk−1 )2 + E Btk−1 (Btk − Btk−1 ) {z } | k=1 (5.5) (5.6) =0 = n X (tk − tk−1 ) = 1 . (5.7) k=1 65 5 Stochastische Integration Somit müssen sich die pfadweisen Integrale (das heißt die Grenzwerte der RiemannSummen) auf einer Menge mit positivem Maß unterscheiden. Interessanterweise heißt das nun nicht, dass man das stochastische Integral nicht auf diese Weise definieren kann, indem man sich etwa darauf festlegt, dass stets die linke Integralgrenze als Stützstelle für die Riemann-Summe zu verwenden ist. Es ist sogar so, dass die Riemann-Summe n X Btk−1 (Btk − Btk−1 ) k=1 für fast jeden Pfad konvergiert. Aber eben nur fast, und selbst das ist schwer (direkt) zu zeigen. Man benötigt daher einen anderen, abstrakteren“ Zugang zum stochastis” chen Integral. Wie so oft, bedeutet abstrakter“ nicht gleichzeitig schwieriger“. ” ” Bevor wir diesen Weg gehen, betrachten wir noch ein paar Beispiele um zu sehen, welche Art von Ergebnissen wir uns von der Theorie erwarten dürfen. Wir verwenden die Riemann-Summen nun naiv“, indem wir deren Konvergenz ” voraussetzen. Weiters legen wir willkürlich fest“, dass wir den Integranden im” mer an der linken Intervallgrenze auswerten. (a) n 2 X t Z dBs = lim n→∞ 0 Bt k=1 k 2n − Bt k−1 n 2 = Bt − B0 . (b) Z n t Bs dBs = lim 0 n→∞ 2 X Bt k−1 Bt n 2 k=1 Wie vorher sehen wir, dass Bt k−1 Bt n k 2n − Bt k−1 n 2 − Bt k−1 ein Produkt unabhängiger 2 2n normalverteilter Zufallsvariablen ist, weshalb E Bt k−1 B = 0 k − B k−1 t 2n t 2n 2n Rt gilt und somit E( 0 Bs dBs ) = 0 ist (wobei wir unterstellt haben, dass die Konvergenz von der Art ist, dass man Limes und Integral vertauschen darf). Wir 66 k 2n 5.1 Naive“ stochastische Integration ” Rt können auch die Varianz dieser Zufallsvariable 0 Bs dBs berechnen: Z t V = Bs dBs (5.8) 0 = 2 ! t Z (5.9) Bs dBs E 0 ” =“ lim E n→∞ 2 X lim n→∞ Bt k−1 (Bt n E (Bt Bt k−1 n 2 k=1 X +2 (5.10) 2 2 − Bt k−1 ) n k 2n (5.11) 2 E Bt j−1 Bt n 2 1≤j<k≤2n − Bt k−1 ) n k 2n 2 k=1 n = !2 n 2 X − Bt j−1 Bt Bt k−1 n n j 2n 2 2 k 2n − Bt k−1 (5.12) n 2 (5.13) n = lim n→∞ 2 X E 2 = 2n X lim E Bt2k−1 E (Bt n→∞ lim n→∞ k=1 2n X k=1 2n k−1 t n 2 (5.14) 2 2 2 1≤j<k≤2n = k 2n Bt E Bt j−1 B k−1 t n n X +2 Bt k−1 (Bt n k=1 2 − Bt k−1 ) n k 2n − Bt j−1 E B (5.15) k − B k−1 F k−1 t 2n t n t 2n 2n | {z 2 } =0 f.s. 2 (5.16) − Bt k−1 ) n j 2n 2 k k−1 t2 t n −t n = . 2 2 2 (5.17) (c) Ein nicht-stochastisches Integral: Z n t Bs ds = 0 lim n→∞ 2 X k=1 Bt k 2n k k−1 t n −t n 2 2 (5.18) n 2 1 X = lim t n Bt kn . n→∞ 2 2 (5.19) k=1 Hier haben wir den Integranden an der rechten Intervallgrenze ausgewertet. Das ist ok., da es sich hier um ein gewöhnliches Riemann-Integral über stetige Funktionen handelt und somit der Grenzwert der Riemann-Summen nicht von 67 5 Stochastische Integration der Wahl der Stützstellen abhängt. Wir haben n 2 X n Bt k=1 2 X k X = k 2n (Bt j 2n − Bt j−1 ) n (5.20) (Bt j 2n − Bt j−1 ) n (5.21) k=1 j=1 n n 2 X 2 X = 2 j=1 k=j 2 n 2 X = (2n − (j − 1))(Bt j=1 j 2n − Bt j−1 ). n (5.22) 2 Somit gilt Z n t Bs ds = 0 2 t X n lim ) (2 − (j − 1))(Bt jn − Bt j−1 n→∞ 2n 2 2n (5.23) j=1 n = ” 2 X lim t (Bt n→∞ j=1 Z t = “ tBt − bzw. tBt − 0B0 = n j 2n 2 X j−1 − Bt j−1 ) + lim t n (Bt jn − Bt(5.24) j−1 ) n→∞ 2n 2 2n 2 j=1 sdBs , (5.25) 0 Rt 0 Bs ds + Rt 0 sdBs bzw. in Differentialschreibweise d(tBt ) = Bt dt + tdBt . 5.2 Vorhersehbare Prozesse Definition 5.1. (i) Die sogenannte vorhersehbare (engl. previsible) σ-Algebra P auf Ω × (0, ∞) ist diejenige, die von den Mengen der Form A × (s, t] mit A ∈ Fs und s ≤ t, das heißt von den sog. vorhersehbaren Rechtecken, erzeugt wird. (ii) Ein vorhersehbarer Prozess ist eine P-messbare Abbildung H : Ω × (0, ∞) −→ R (oder Rd ) . Intuitive Bedeutung von vorhersehbar: der Wert zur Zeit t ist schon zur Zeit unmittelbar vor t bekannt. Ein Beispiel wäre ein stetiger angepasster Prozess: Proposition 5.2. Jeder links-stetige, angepasste Prozess ist vorhersehbar. Beweis: Sei H ein links-stetiger, angepasster Prozess. Setze αn (t) := k2−n für k2−n < t ≤ (k + 1)2−n (das heißt αn (t) := 2−n (d2n te − 1)) und Htn := Hαn (t) , sodass Hn = ∞ X k=0 68 Hk2−n 1(k2−n ,(k+1)2−n ] . 5.2 Vorhersehbare Prozesse Hk2−n ist Fk2−n -messbar, da H angepasst ist. Somit ist H n vorhersehbar. Aber αn (t) ↑ t, somit H n → H, punktweise auf Ω × (0, ∞). Daher ist H vorhersehbar. Korollar 5.3. Sei X ein càdlàg angepasster Prozess. Sei Ht := Xt− für jedes t > 0. Dann ist H vorhersehbar. Beweis: Der Prozess H : Ω × (0, ∞) −→ R ist links-stetig und angepasst: Xs ist Fs -messbar für s ≤ t, Xt− = limn Xt− 1 , somit ist Xt− Ft -messbar. n Definition 5.4. Ein einfacher Prozess ist eine Abbildung H : Ω × (0, ∞) −→ R der Form H(ω, t) = n−1 X Zk (ω)1tk <t≤tk+1 , k=0 wobei n ≥ 1 und 0 = t0 < . . . < tn < ∞ und wo Zk eine beschränkte Ftk messbare Zufallsvariable ist für jedes k. Wir schreiben H auch in der Form H= n−1 X Zk 1(tk ,tk+1 ] . k=0 Den Raum der einfachen Prozesse bezeichnen wir mit S. Bemerkung 5.5. S ist tatsächlich ein Vektorraum und alle seine Elemente sind vorhersehbar. Proposition 5.6. Sei µ ein endliches Maß auf P. Dann ist S ein dichter Teilraum von L2 (Ω × (0, ∞), P, µ). Beweis: Es ist klar, dass S ⊆ L2 (Ω × (0, ∞), P, µ). Bezeichne S den Abschluss von S in L2 (Ω × (0, ∞), P, µ) und sei A = {A ∈ P : 1A ∈ S} . Dann ist A ein λ-System, welches das π-System {B × (s, t] : B ∈ Fs , s ≤ t} enthält. Dieses erzeugt aber P, sodass A = P nach dem π-λ-Theorem1 . Das Resultat folgt nun, da Linearkombinationen von messbaren Indikatorfunktionen immer dicht sind in L2 . Wir beweisen noch ein einfaches Resultat über einfache Prozesse, welches wir im nächsten Unterkapitel an prominenter Stelle benötigen werden. 1 Zur Erinnerung: Ein π-System C erfüllt, A, B ∈ C ⇒ A ∩ B ∈ C. Ein λ-System oder DynkinSystemSD erfüllt (A, B ∈ D ∧ B ⊆ A) ⇒ A\B ∈ D und Ak ∈ D, k ≥ 1 mit A1 ⊆ A2 ⊆ . . . ⇒ k Ak ∈ D. Das π-λ-Theorem besagt dass C ⊆ D ⇒ σ(C) ⊆ σ(D). 69 5 Stochastische Integration P Lemma 5.7. Sei H = k≥0 Zk 1(tk ,tk+1 ] mit Ftk -messbaren Zk , k = 0, 1, . . . Sei T eine Stoppzeit mit der Eigenschaft, dass H T beschränkt ist. Dann ist für jedes s ≥ 0 der Prozess H T 1(0,s] ein einfacher Prozess. Beweis: Wir betrachten zunächst den Fall Hk := Zk 1(tk ,tk+1 ] . Es gilt HkT 1(0,s] = Zk 1{T >tk } 1(tk ,s] − Zk 1{T >tk+1 } 1(tk+1 ,s] . | {z } | {z } Ftk −messbar Ftk+1 −messbar Da H T 1(0,s] laut Voraussetzung beschränkt ist, ist auch HkT 1(0,s] beschränkt. Somit ist HkT 1(0,s] ∈ S. Die allgemeine Aussage folgt nun, da nur endlich viele der Summanden HkT 1(0,s] ungleich null sind und eine endliche Summe von Elementen von S in S liegt. 5.3 Das Itô-Integral bezüglich M ∈ M2c Definition 5.8. Sei M ∈ M2 . Für H ∈ S, H= n−1 X Zk 1(tk ,tk+1 ] , k=0 L∞ (Ω, F t0 ≤ t1 ≤ . . ., Zk ∈ tk , P) (k = 0, 1, . . . , n − 1) definiere das Itô-Integral durch Z t n−1 X Hs dMs := (H • M )t := Zk (Mtk+1 ∧t − Mtk ∧t ) . 0 k=0 Proposition 5.9. Sei H ∈ S und M ∈ M2 . Sei T eine Stoppzeit. Dann gelten: (a) H • (M T ) = (H • M )T , (b) H • M ∈ M2 und M ∈ M2c ⇒ H • M ∈ M2c , P 2 2 ≤ kHk2 kM k2 . (c) kH • M k2 = n−1 ∞ k=0 E Zk (Mtk+1 − Mtk ) Beweis: (a) ist leicht nachzurechnen. (b) Die Integrierbarkeit ist offensichtlich. Für tk ≤ s ≤ t ≤ tk+1 ist (H • M )t − (H • M )s = Zk (Mt − Ms ) sodass E ((H • M )t − (H • M )s |Fs ) = Zk E(Mt − Ms |Fs ) = 0 f.s. Der allgemeine Fall ergibt sich als Folgerung. Somit ist (H • M ) ein Martingal. Dass (H • M ) ∈ M2 ist, wird aus (c) folgen. (c) Für j < k gilt E Zj (Mtj+1 − Mtj )Zk (Mtk+1 − Mtk ) = = E E Zj (Mtj+1 − Mtj )Zk (Mtk+1 − Mtk )|Ftk = E Zj (Mtj+1 − Mtj )Zk E(Mtk+1 − Mtk |Ftk ) = 0 . 70 5.3 Das Itô-Integral bezüglich M ∈ M2c Somit ist n−1 X E((H • M )2∞ ) = E !2 Zk (Mtk+1 − Mtk ) k=0 n−1 X = E Zk2 (Mtk+1 − Mtk )2 k=0 ≤ (kHk∞ ) 2 n−1 X |k=0 E (Mtk+1 − Mtk )2 , {z } =E(Mt2n )−E(M02 )≤kM k2 und somit E((H • M )2∞ ) ≤ kHk2∞ kM k2 . Definition 5.10. (i) Seien (Zn )n≥1 eine Folge von Zufallsvariablen, Z eine Zufallsvariable. Wir sagen Zn −→ Z in Wahrscheinlichkeit (in probability), falls für alle ε > 0 gilt lim P(|Zn − Z| ≥ ε) = 0 . n→∞ (ii) Seien (X n )n≥1 eine Folge von stochastischen Prozessen, X ein stochastischer Prozess. Wir sagen X n −→ X u.c.p (uniformly on compacts in probability), falls ∀ε > 0, ∀t ≥ 0 n lim P sup |Xs − Xs | ≥ ε = 0 . n→∞ s≤t Bemerkung 5.11. Siehe Übungen 1, 2, 3, 4, 5, 6, 7. Satz 5.12. Sei M ein stetiges lokales Martingal. Setze b2n tc−1 [M ]nt := X M(k+1)2−n − Mk2−n 2 . k=0 Dann gibt es einen (bis auf Ununterscheidbarkeit) eindeutig bestimmten stetigen, angepassten und wachsenden Prozess [M ] derart, dass 1. [M ]n −→ [M ] u.c.p., 2. M 2 − [M ] ist ein stetiges lokales Martingal. Ist überdies M ∈ M2c , dann ist M 2 − [M ] ein U.I. Martingal. Für den Beweis brauchen wir unter anderem folgende Lemmas: Lemma 5.13. Sei (Mn )n≥1 eine Folge in M2 und M ∈ M2 mit limn kMn − M k = 0. Dann gilt für jede Stoppzeit T lim kMnT − M T k = 0 . n 71 5 Stochastische Integration Beweis: Aus Doob’s Lp Ungleichung folgt kMn − M k2 = E (Mn − M )2∞ 1 ≥ E sup |(Mn − M )t |2 4 t 1 ≥ E sup |(Mn − M )Tt |2 4 t 1 1 ≥ E (MnT − M T )2∞ = kMnT − M T k2 . 4 4 (5.26) (5.27) (5.28) (5.29) Lemma 5.14. Sei [M ]n definiert wie in Satz 5.12. Dann gilt: Zu jeder Teilfolge (n∗ (k))k≥1 von (n)n≥1 existiert eine Teilfolge (n(k))k≥1 von (n∗ (k))k≥1 und ein monoton wachsender, angepasster und stetiger Prozess A mit 1. [M ]n(k) −→ A u.c.p. (k → ∞); 2. N := M 2 − A ist ein stetiges lokales Martingal. Beweis: Es genügt den Fall M0 = 0 zu betrachten. Setze αn (t) := k2−n für k2−n < t ≤ (k + 1)2−n und definiere Htn := Mαn (t) für alle n, t. Da für s < t gilt Mt2 − Ms2 = 2Ms (Mt − Ms ) + (Mt − Ms )2 , ist Mt2 = 2(H n • M )t + [M ]nt + Rtn , wobei Rtn = (Mt − Mbt2n c2−n )2 . Da M stetige Pfade hat, gilt Rn −→ 0 u.c.p. (n → ∞). Setze S n,k := inf{t ≥ 0 : |Htn − Mt | ≥ 2−k oder |Mt | ≥ n} ∧ k . S n,k ist eine Stoppzeit. Das beweist man analog zu Proposition 4.35. Sei nun (n∗ (k))k≥1 eine beliebige Teilfolge von (n)n≥1 . Dann können wir eine weitere Teilfolge (n(k))k≥1 von (n∗ (k))k≥1 finden derart, dass P(S n(k),k < k) ≤ 2−k für alle k . Setze T m := inf k≥m S n(k),k . Dann ist [ X P(T m < m) = P( S n(k),k < m) ≤ P(S n(k),k < k) ≤ 2−m+1 , k≥m k≥m sodass (T m )m eine Folge von Stoppzeiten ist mit T m ↑ ∞. n(k) Setze H̃tk,m := Ht∧T m 1t≤m für k ≥ m. Dann ist laut Lemma 5.7 H̃ k,m ein einfacher Prozess für alle k ≥ m und kH̃ k+1,m − H̃ k,m k∞ ≤ 2−k . 72 5.3 Das Itô-Integral bezüglich M ∈ M2c Nun gilt laut Proposition 5.9 und weil T m ≤ S n(m),m ≤ m H n(k) • M T m = H̃ k,m • M T m ∈ M2c ∀k ≥ m und somit kH n(k+1) • M T m m − H n(k) • M T k = m = k(H n(k+1) − H n(k) ) • M T k m ≤ 2−k kM T k ≤ 2−k m . m Somit ist H n(k) • M T k≥m eine Cauchyfolge in M2c , welche daher gegen ein N m ∈ M2c konvergiert wegen Proposition 4.53(c). m Es gilt (N m+1 )T = N m , da wegen Lemma 5.13 (N m+1 T m ) T m n(k) T m+1 = lim H •M (5.30) m m+1 T = lim H n(k) • M T (5.31) k k = lim H n(k) • M T m k = Nm . (5.32) m Somit ist N m = N T für ein stetiges lokales Martingal N . Weiters gilt H n(k) • M −→ N u.c.p. (k → ∞): Sei t > 0 und ε > 0. Wir wollen zeigen, dass ∀δ > 0 ∃k0 mit P(sup |(H n(k) • M )s − Ns | ≥ ε) < δ ∀k ≥ k0 . s≤t Es gibt ein m ≥ dte mit P(T m < t) < 2δ und ein k0 ≥ m sodass für k ≥ k0 gilt 2 m m kH n(k) • M T − N T k2 < δε8 , sodass P(sup |H n(k) • M T m m − N T | ≥ ε) ≤ s≤t ≤ 1 m m E(sup |(H n(k) • M T − N T )s (5.33) |2 ) 2 ε s≤t 4 δ m m E(|(H n(k) • M T − N T )∞ |2 ) (5.34) < . ε2 2 Damit haben wir P(sup |H n(k) • M − N | ≥ ε) (5.35) s≤t ≤ P(sup |H n(k) • M − N | ≥ ε und T m < t) (5.36) s≤t +P(sup |H n(k) • M − N | ≥ ε und T m ≥ t) (5.37) s≤t ≤ δ m m + P(sup |H n(k) • M T − N T | ≥ ε) < δ , 2 s≤t (5.38) womit alles gezeigt wäre. Beweis von Satz 5.12: Mit Lemma 5.14 gibt es speziell eine Teilfolge (n1 (k))k≥1 von (n)n≥1 mit diesen Eigenschaften und entsprechenden Prozessen A(1) , N (1) . 73 5 Stochastische Integration Angenommen es gelte nicht [M ]n −→ A(1) u.c.p. (n → ∞). Dann gibt es also t > 0 und ε > 0 mit lim P(sup |[M ]ns − A(1) s | ≥ ε) 6= 0 . n→∞ s≤t Das heißt es gibt ein δ > 0 und eine Teilfolge (n∗ (k))k≥1 von (n)n≥1 mit n (k) (1) P(sups≤t |[M ]s ∗ − As | ≥ ε) > δ. Nun gibt es wiederum laut Lemma 5.14 eine Teilfolge (n2 (k))k≥1 von (n∗ (k))k≥1 mit 1. [M ]n2 (k) −→ A(2) u.c.p. (k → ∞); 2. N (2) := M 2 − A(2) ist ein stetiges lokales Martingal; (2) (1) 3. P(sups≤t |As − As | ≥ ε) > δ. Nun gilt N (1) + A(1) = M 2 = N (2) + A(2) , sodass N (1) − N (2) = A(2) − A(1) . Die A(i) haben aber Pfade von beschränkter Variation, sodass N (1) −N (2) ein lokales Martingal von beschränkter Variation ist. Laut Satz 4.48 ist N (1) − N (2) = 0 fast sicher und damit A(2) − A(1) fast sicher, ein Widerspruch. Somit können wir definieren [M ] := A(1) . Die Eindeutigkeit bis auf Ununterscheidbarkeit ist mit obiger Argumentation auch klar. Gilt schließlich M ∈ M2c , dann gilt wegen monotoner Konvergenz, und da M 2 ein Submartingal ist, 2 2 2 E([M ]∞ ) = lim E([M ]m ) = lim E(Mm − Nm ) = lim E(Mm ) ≤ E(M∞ ) < ∞. m m m Somit gilt wegen Doob’s L2 -Ungleichung 2 E(sup |Mt2 − [M ]t |) ≤ E(sup Mt2 ) + E[M ]∞ ≤ 5E(M∞ ) < ∞. t≥0 t≥0 (Errinnern Sie sich an das zweite Beispiel zu U.I.) Definition 5.15. Der Prozess [M ] heißt die quadratische Variation von M . Beispiel: Sei M = B. Was ist [M ]? Wir wissen, dass die Zerlegung M 2 = 2N + [M ] eindeutig ist, und dass Bt2 − t ein Martingal ist. Daraus folgt [M ]t = t. Wir wollen nun das Itô-Integral für allgemeinere Integranden definieren. Definition 5.16. Für ein M ∈ M2c definieren wir ein endliches Maß µM auf P durch Z ∞ µM (A) = E 1A d[M ] , (A ∈ P) 0 74 5.3 Das Itô-Integral bezüglich M ∈ M2c auf Ω × (0, ∞). Dann gilt also für einen vorhersehbaren Prozess H Z ∞ Z 2 2 H dµM = E Hs d[M ]s . Ω×(0,∞) 0 Wir schreiben L2 (M ) := L2 (Ω × (0, ∞), P, µM ) und Z ∞ 2 2 2 kHkM := kHkL2 (M ) = E Hs d[M ]s . 0 Übungsaufgabe: µM ist tatsächlich ein Maß. Bemerkung 5.17. [M ] ist ein monoton wachsender Prozess. Sei H ≥ 0 vorhersehbar. Dann ist H : Ω × (0, ∞) −→ R messbar bezüglich P und damit auch messbar bezüglich F∞ ⊗ B((0, ∞)), da letztere von den Rechtecken B × (s, t] mit B ∈ F∞ erzeugt wird. Damit ist für jedes ω ∈ Ω die Funktion t 7→ Ht (ω) Rmessbar, vgl. etwa [Els09, Kap. V,1.1 Lemma]. Damit ist also das In∞ tegral 0 H 2 (ω)d[M ](ω) jedenfalls definiert, eventuell mit Wert ∞. Das gilt speziell für H = 1A Rmit A ∈ P. Mit dem Satz von Fubini gilt außerdem R ∞ 2 2 Ω×(0,∞) H dµM = E( 0 H d[M ]). Satz 5.18. Es gibt eine eindeutig bestimmte Isometrie I : L2 (M ) −→ M2c derart, dass I(H) = H • M für alle H ∈ S. P 2 Beweis: Sei H = n−1 k=0 Zk 1(tk ,tk+1 ] ∈ S. Wegen Proposition 5.9 ist H•M ∈ Mc mit n−1 X kH • M k2 = E Zk2 (Mtk+1 − Mtk )2 . k=0 Aber M 2 − [M ] ist ein Martingal und E Zk2 (Mtk+1 − Mtk )2 = E Zk2 E((Mtk+1 − Mtk )2 |Ftk ) = E Zk2 E(Mt2k+1 − Mt2k |Ftk ) = E Zk2 E([M ]tk+1 − [M ]tk |Ftk ) = E Zk2 ([M ]tk+1 − [M ]tk ) . R∞ Somit gilt kH • M k2 = E 0 Hs2 d[M ]s = kHkM . Laut Proposition 5.6 ist aber S dicht in L2 (M ) und laut Proposition 4.53 ist M2c vollständig. Somit lässt sich die Abbildung S −→ M2c H 7−→ H • M eindeutig zu einer Isometrie I : L2 (M ) −→ M2c fortsetzen. 75 5 Stochastische Integration Definition 5.19. Sei M ∈ M2c und H ∈ L2 (M ). Wir schreiben Z t Hs dMs := (H • M )t := I(H)t . 0 Der Prozess H • M ist Itô’s stochastisches Integral von H bezüglich M . Bemerkung 5.20. Laut Konstruktion ist also H • M für M ∈ M2c und H ∈ L2 (M ) ein stetiges Martingal. Sei etwa M = B t0 eine Brown’sche Bewegung, gestoppt bei R t t0 > 0. Ein vorhersehbarer Prozess H ist genau dann in L2 (M ), wenn E( 0 0 Ht2 dt) < ∞. Es ist eine gute Übung zu zeigen, dass etwa für jedes n ∈ N die Prozesse t 7→ Btn in L2 (M ) liegen. 5.4 Das Itô-Integral bezüglich M ∈ Mc,loc Wir definieren Mc,loc := {M : M ein stetiges lokales Martingal } . Proposition 5.21. Sei M ∈ M2c und sei H ∈ L2 (M ). Sei T eine Stoppzeit. Dann gilt (H • M )T = (H1(0,T ] ) • M = H • M T . Beweis: Für H ∈ S und T eine Stoppzeit gilt laut Proposition 5.9 (a), dass (H • M )T = H • M T . Für H ∈ S und eine Stoppzeit T , welche nur endlich viele Werte annimmt, ist H1(0,T ] ∈ S und die Aussage ist leicht zu zeigen. Für eine allgemeine Stoppzeit T setze Tn := 2−n d2n T e1T ≤n + ∞1T >n . Dann nimmt Tn nur endlich viele Werte an und ist eine Stoppzeit. Seien H ∈ S und M ∈ M2c . Dann ist H1(0,Tn ] noch immer einfach und (H • M )Tn = (H1(0,Tn ] ) • M = H • M Tn . Es gilt Z Tn kH1(0,Tn ] − H1(0,T ] k2M = E Ht2 d[M ]t −→ 0 , T wegen beschränkter Konvergenz. Somit gilt H1(0,Tn ] • M −→ H1(0,T ] • M in M2c . Andererseits ist (H • M )Tn −→ (H • M )T f.s. wegen der Rechtstetigkeit von H • M . Also (H • M )Tn = f.s. (H • M )T 76 H1(0,Tn ] • M L2 H1(0,T ] • M 5.4 Das Itô-Integral bezüglich M ∈ Mc,loc Wir wissen (H • M )Tn = (H1(0,Tn ] ) • M = H • (M Tn ). Aber (H • M )Tn −→ (H •M )T f.s. und H •M Tn −→ H •M T f.s. und (H1(0,Tn ] )•M −→ (H1(0,T ] )•M in M2c . Also haben wir die Gleichung für einfache Prozesse H gezeigt. Sei nun H ∈ L2 (M ), M ∈ M2c . Wähle Prozesse Hn ∈ S mit Hn −→ H in L2 (M ). Das heißt Z ∞ 2 E (Hn − H) d[M ] −→ 0 . 0 1. Offenbar gilt Z ∞ Z 2 0≤E (Hn 1(0,T ] − H1(0,T ] ) d[M ] ≤ E 0 ∞ (Hn − H) d[M ] −→ 0 , 2 0 sodass Hn 1(0,T ] −→ H1(0,T ] in L2 (M ) und damit Hn 1(0,T ] • M −→ H1(0,T ] • M in M2c . 2. Da stoppen und quadratische Variation vertauschbar sind (Ü), gilt Z ∞ Z ∞ 2 T 2 T E (Hn − H) d[M ] = E (Hn − H) d[M ] 0 0 Z T = E (Hn − H)2 d[M ] Z0 ∞ 2 ≤ E (Hn − H) d[M ] −→ 0 , 0 sodass Hn • M T −→ H • M T in M2c . 3. Hn −→ H in L2 (M ) ⇔ Hn • M −→ H • M in M2c ⇔ E (Hn • M − H • M )2∞ −→ 0 . Nun ist, da (Hn • M − H • M )2 ein Submartingal ist 1 2 2 E (Hn • M − H • M )∞ ≥ E sup(Hn • M − H • M )t 4 t≥0 1 ≥ E (Hn • M − H • M )2T 4 1 = E ((Hn • M − H • M )T∞ )2 , 4 sodass (Hn • M )T −→ (H • M )T in M2c . Alles zusammen ergibt das behauptete Resultat. Definition 5.22. Sei H ein vorhersehbarer Prozess. Wir sagen H ist lokal beschränkt, wenn es Stoppzeiten (Tn )n≥1 gibt mit Tn ↑ ∞ f.s. und derart, dass für jedes n der Prozess H1(0,Tn ] beschränkt ist, also kH1(0,Tn ] k∞ < ∞. Bemerkungen: 77 5 Stochastische Integration 1. Jeder stetige angepasste Prozess ist lokal beschränkt.(Ü) 2. Sei M ein lokales Martingal, H ein lokal beschränkter vorhersehbarer Prozess. Dann gibt es eine Folge von Stoppzeiten (Tn )n≥1 , die sowohl M als auch H reduziert. 3. Ist M ein stetiges lokales Martingal und H lokal beschränkt, dann gibt es eine reduzierende Folge (Sn )n≥1 für H und M derart, dass M Sn für alle n beschränkt und damit in M2c ist. Wir können nun das stochastische Integral bezüglich eines lokalen Martingals definieren: Definition 5.23. Sei M ∈ Mc,loc also ein stetiges lokales Martingal und H ein lokal beschränkter Prozess. Sei (Tn ) eine reduzierende Folge für M und H mit M Tn beschränkt ∀n. Dann definieren wir (H • M )t := ((H1(0,Tn ] ) • M Tn )t für t ≤ Tn . Damit können wir auch schreiben (H • M )t := lim ((H1(0,Tn ] ) • M Tn )t n→∞ (t ≥ 0) . Übung: (H1(0,Tn ] ) • M Tn −→ H • M u.c.p. Definition 5.24. Sei H beschränkt und vorhersehbar, A von endlicher Variation. Z t (H • A)t := Hs dA(s) (t ≥ 0) . 0 Man kann nun analog zu H • M auch H • A für lokal beschränktes H und A mit beschränkter Variation definieren. Die Definition 5.24 ist aus analogen Gründen wie in Bemerkung 5.17 unproblematisch. Proposition 5.25. Seien H lokal beschränkt und A von beschränkter Variation. Dann ist H • A von beschränkter Variation. Beweis: Übung. 5.5 Eigenschaften des Itô-Integrals Proposition 5.26. Sei M ∈ Mc,loc . Seien H, K lokal beschränkte vorhersehbare Prozesse und T eine Stoppzeit. Dann gelten (a) (H • M )T = (H1(0,T ] ) • M = H • M T (b) H • M ∈ Mc,loc 78 5.5 Eigenschaften des Itô-Integrals (c) [H • M ] = H 2 • [M ] (d) H • (K • M ) = (HK) • M Beweis: (a) und (b) folgen aus Proposition 5.21 und aus der Definition des Itô-Integrals für lokal beschränktes H und ein lokales Martingal M . Mittels (a) können wir (c) und (d) auf den Fall, dass M, H und K gleichmäßig beschränkt sind, zurückführen. (c) Wir haben für eine beliebige beschränkte Stoppzeit S E((H • M )2S ) = E((H1(0,S] • M )2∞ ) = E((H 2 1(0,S] • [M ])∞ ) = E((H 2 • [M ])S ) . Aus dem OST, folgt nun dass (H • M )2 − H 2 • [M ] ein Martingal ist. (c) folgt also aus der Eindeutigkeit der quadratischen Variation. (d) Der Fall H, K ∈ S ist elementar. Für H, K gleichmäßig beschränkt gibt es Folgen (Hn )n≥1 und (Kn )n≥1 gleichmäßig beschränkter Prozesse in S mit Hn −→ H und Kn −→ K in L2 (M ). Wegen (c) gilt kHk2L2 (K•M ) = E((H 2 • [K • M ])∞ ) = E((H 2 • (K 2 • [M ]))∞ ) (∗) = E((HK)2 • [M ])∞ ) = kHKk2L2 (M ) ≤ min(kHk2∞ kKk2L2 (M ) , kHk2L2 (M ) kKk2∞ ) . Es gelten Hn • (Kn • M ) = (Hn Kn ) • M und kHn • (Kn • M ) − H • (K • M )k ≤ k(Hn − H) • (Kn • M )k + kH • ((Kn − K) • M )k = kHn − HkL2 (M ) kKn k∞ + kHk∞ kKn − KkL2 (M ) −→ 0 für n → ∞. Ähnlich zeigt man, dass (Hn Kn ) • M −→ (HK) • M . Wir müssen noch (∗) im vorigen Beweis begründen. Lemma 5.27. Seien h, k beschränkte messbare Funktionen und a eine monoton wachsende Funktion. Dann gilt h • (k • a) = (hk) • a , wo (h • a)t = Rt 0 hs das . 79 5 Stochastische Integration Beweis: Die Aussage ist leicht zu überprüfen für den Fall, dass k die charakteristische Funktion eine Intervalls ist. Aus Linearitätsgründen folgt sie auch für Treppenfunktionen. Sei nun k eine beliebige messbare beschränkte Funktion. Es gibt eine Folge von Treppenfunktionen (k n ) derart, dass Z t |ksn − ks |das −→ 0 , 0 für n → ∞ für alle t. Es ist |(h • (k • a))t − (h • (k n • a))t | = |(h • ((k − k n ) • a))t | ≤ khk∞ (|k − k n | • a)t −→ 0 und |(hk) • a)t − ((hk n ) • a)t | = |((h(k − kn )) • a)t | ≤ khk∞ (|k − k n | • a)t −→ 0 Wir wissen, dass h • (k n • a) = (hk n ) • a für alle n, die Aussage folgt für k, indem man n gegen unendlich gehen lässt. Proposition 5.28. Sei M ∈ Mc,loc und A ein stetiger angepasster Prozess von beschränkter Variation. Sei H ein lokal beschränkter links-stetiger angepasster Prozess (⇒ H vorhersehbar). Dann gelten b2n tc−1 X Hk2−n (M(k+1)2−n − Mk2−n ) −→ (H • M )t u.c.p. k=0 und b2n tc−1 X Hk2−n (A(k+1)2−n − Ak2−n ) −→ (H • A)t u.c.p. k=0 für n −→ ∞. Bemerkung 5.29. Die Proposition besagt, dass das stochastische Integral als Limes einer Riemannsumme aufgefasst werden kann, zumindest für linksstetige Integranden. Beweis: Der Beweis der zweiten Gleichung ist eine einfache Übungsaufgabe. Zum Beweis der ersten Gleichung reduzieren wir auf den Fall M ∈ M2c , H beschränkt durch Lokalisierung. b2n tc−1 X Hk2−n (M(k+1)2−n − Mk2−n ) + Htn (Mt − M2−n b2n tc ) = (H n • M )t , k=0 wo Htn := Hαn (t) −→ Ht für n → ∞ wegen der Linksstetigkeit von H (hier ist wie früher αn (t) := k2−n für k2−n < t ≤ (k + 1)2−n ). 80 5.5 Eigenschaften des Itô-Integrals Da kH n − Hk∞ ≤ 2kHk∞ , folgt aus dem Satz über beschränkte Konvergenz dass Z ∞ (Htn − Ht )2 d[M ]t −→ 0 , 0 sodass Hn • M −→ H • M in M2c , somit auch u.c.p. Wir beweisen noch, dass aus M n −→ M in M2c folgt, dass M n −→ M u.c.p.: sei ε > 0. P(sup |Msn − Ms | ≥ ε) s 1 E(sup |Msn − Ms |) ε2 s 4 n ≤ 2 E(|M∞ − M ∞ |2 ) ε 4 = 2 kM n − M kM2c . ε Proposition 5.30. Seien M, N ∈ Mc,loc . Definiere ≤ b2n tc−1 [M, N ]nt := X (M(k+1)2−n − Mk2−n )(N(k+1)2−n − Nk2−n ) . k=0 Dann gibt es genau einen stetigen angepassten Prozess [M, N ] von beschränkter Variation derart, dass (a) [M, N ]n −→ [M, N ] u.c.p.; (b) M N − [M, N ] ∈ Mc,loc ; (c) wenn M, N ∈ M2c dann ist M N − [M, N ] ein UI Martingal; (d) für H lokal beschränkt vorhersehbar [H • M, N ] + [M, H • N ] = 2H • [M, N ] . Beweis: (a),(b) und (c) folgen aus Satz 5.12 angewendet auf M + N und M − N und Subtraktion, 1 [M, N ] = ([M + N ] − [M − N ]) . 4 (d) Wir wenden Proposition 5.26(c) auf die Prozesse M ± N an und sehen, dass [H • M, H • N ] = H 2 • [M, N ] . Somit gilt [H • M, H • N ] + [H • M, N ] + [M, H • N ] + [M, N ] = = [(H + 1) • M, (H + 1) • N ] = (H + 1)2 • [M, N ] = H 2 • [M, N ] + 2H • [M, N ] + [M, N ] = [H • M, H • N ] + 2H • [M, N ] + [M, N ] , woraus die Aussage folgt. 81 5 Stochastische Integration Definition 5.31. Wir nennen den Prozess [M, N ] die Kovariation der Prozesse M und N . Es ist leicht zu sehen, dass die Kovariation bilinear ist. Proposition 5.32 (Kunita-Watanabe-Identität). Seien M, N ∈ Mc,loc . Sei H lokal beschränkt und vorhersehbar. Dann gilt [H • M, N ] = H • [M, N ] . Bemerkung 5.33. Dies ist eine Verschärfung der Aussage von Proposition 5.30(d). Es ist überraschend, dass der Beweis dieser Gleichung relativ schwierig ist. Beweis: Wegen Proposition 5.30(d) genügt es, [H • M, N ] = [M, H • N ] zu zeigen. Wegen Proposition 5.30 genügt es zu zeigen, dass (H • M )N − M (H • N ) ∈ Mc,loc , da (H • M )N − [M, H • N ] = (H • M )N − M (H • N ) + (M (H • N ) − [M, H • N ]) , | {z } ∈Mc,loc und da der Kovariationsprozess eindeutig bestimmt ist. Durch Lokalisierung können wir annehmen, dass M, N ∈ M2c und dass H gleichmäßig beschränkt ist. Aufgrund des OST genügt es zu zeigen, dass E((H • M )T NT ) = E(MT (H • N )T ) für alle Stoppzeiten T . Wegen Proposition 5.26(a) kann man sich auf den Fall T ≡ ∞ beschränken: Gelte E((H • M )∞ N∞ ) = E(M∞ (H • N )∞ ) für alle beschränkten M, N, H. Dann gilt auch für jede Stoppzeit T , dass E((H • T ) = E(M T (H •N T ) ). Es ist aber (H •M T ) N T = (H •M )T N T = M T )∞ N∞ ∞ ∞ ∞ ∞ ∞ ∞ (H • M )T NT . Betrachte zunächst den Fall H = Z1(s,t] , H Fs -messbar, s ≤ t . Für diesen gilt E((H • M )∞ N∞ ) = E(Z(Mt − Ms )N∞ ) = E(ZMt N∞ − ZMs N∞ ) = E(ZMt E(N∞ |Ft )) − E(ZMs E(N∞ |Fs )) = E(ZMt Nt − ZMs Ns ) .. . = E(M∞ (H • N )∞ ) . 82 5.6 Die Itô-Formel Dies kann man wegen der Linearität des Integrals auf H ∈ S verallgemeinern. 2 Allgemein sei nun (H n ) eine Folge R ∞ in S mit2 Hn −→ H sowohl in L (M ) als 2 auch in L (N ). (Sei etwa limn E 0 (Hn − H) d([M ] + [N ]) = 0). Dann gelten (H n • M )∞ −→ (H • M )∞ in L2 (P) , (H n • N )∞ −→ (H • N )∞ sodass also E((H • M )∞ N∞ ) = E(M∞ (H • N )∞ ) für alle H (Stetigkeit des inneren Produkts eines Hilbertraumes). 5.6 Die Itô-Formel Wir werden als nächstes eines der zentralen Resultate der Theorie beweisen, nämlich die Itô-Formel. Um diese zu motivieren betrachten wir zwei Ergebnisse aus der elementaren Analysis. d dt f (Xt ) d dt (Xt Yt ) = f 0 (Xt )Ẋt (Kettenregel) = Ẋt Yt + Xt Ẏt (Produktregel) Da Semimartingale normalerweise nicht differenzierbar sind, besteht keine Hoffnung, eine direkte Verallgemeinerung dieser Resultate beweisen zu können. Schon besser sehen die integrierten Varianten aus. Rt (Fundamentalsatz) f (Xt ) = f (X0 ) + 0 f 0 (Xs )dXs Rt Rt (partielle Integration) Xt Yt = X0 Y0 + 0 Ys dXs + 0 Xs dY s wo wir statt (Ẋ)s ds geschrieben haben dXs usw. Es ist nicht schwer, diese Formeln für Prozesse mit beschränkter Variation zu beweisen. Im Fall allgemeiner (stetiger) Semimartingale kommen aber noch “Korrekturterme” hinzu. Definition 5.34. Zunächst definieren wir für ein stetiges Semimartingal X = X0 + M + A [X] := [M ] . Dann gilt (Übung!) b2n tc−1 X (X(k+1)2−n − Xk2−n )2 −→ [X]t u.c.p. k=0 Analoges gilt für die Kovariation zweier Semimartingale. Definition 5.35. Für einen lokal beschränkten vorhersehbaren Prozess H definieren wir H • X := H • M + H • A , wo H • M das stochastische Integral und H • A dasR Integral im Sinne von t Lebesgue-Stieltjes ist. Wir schreiben auch (H • X)t = 0 Hs dXs . 83 5 Stochastische Integration Proposition 5.36 (Partielle Integration). Seien X, Y zwei stetige Semimartingale. Dann gilt Z t Z t Xt Yt − X0 Y0 = Ys dXs + Xs dYs + [X, Y ]t . 0 0 Bemerkung 5.37. Für Prozesse mit beschränkter Variation ist [X, Y ] = 0, wir erhalten also das klassische Resultat. Beweis: Da beide Seiten stetig sind genügt es, die Aussage für t = K2−N , K, N ∈ N zu beweisen. Es gilt für u > v ≥ 0 Xu Yu − Xv Yv = Yv (Xu − Xv ) + Xv (Yu − Yv ) + (Xu − Xv )(Yu − Yv ) und somit auch für n ≥ N Xt Yt − X0 Y0 = PK2n−N −1 Yk2−n (X(k+1)2−n − Xk2−n ) k=0 +Xk2−n (Y(k+1)2−n − Yk2−n ) +(X(k+1)2−n − Xk2−n )(Y(k+1)2−n − Yk2−n ) . Aber wir wissen aufgrund der Propositionen 5.28 und 5.30, dass die rechte Seite u.c.p. gegen Z Z t t Ys dXs + Xs dY s + [X, Y ]t 0 0 konvergiert. Satz 5.38 (Itô-Formel). Seien X 1 , . . . , X d stetige Semimartingale und sei X der durch X = (X 1 , . . . , X d ) definierte vektorwertige Prozess. Sei f : Rd −→ R in C 2 . Dann gilt für alle t≥0 f (Xt ) = f (X0 ) + d Z X i=1 0 t d Z ∂f 1 X t ∂2f i (Xs ) dXs + (Xs ) d[X i , X j ]s . i ∂xj ∂xi 2 ∂x 0 i,j=1 (5.39) Bemerkung 5.39. Für Prozesse mit beschränkter Variation ist [X i , X j ] = 0 für alle i, j und wir erhalten wieder das klassische Resultat. Beweis: Wir schreiben X = X0 + M + A. Durch Lokalisierung können wir uns auf den Fall beschränken, dass alle X i , M i , sowie die Totalvariationen der Prozesse Ai , [M i ] und [M i , M j ] alle gleichmäßig durch eine Konstante R > 0 beschränkt sind. Sei t ≥ 0 fest gewählt und sei A die Menge der f ∈ C 2 (Rd ) derart, dass für f die Itô-Formel (5.39) gilt. Wir zeigen (a) A enthält die konstanten Funktionen sowie die Koordinatenfunktionen x 7→ xi ; 84 5.6 Die Itô-Formel (b) A ist ein Vektorraum; (c) A ist eine Algebra, d.h. f, g ∈ A ⇒ f g ∈ A; (d) fn ∈ A, fn −→ f in Cb2 (BR ) ⇒ f ∈ A. Hier heißt fn −→ f in Cb2 (BR ), dass alle Ableitungsfunktionen von fn bis zur zweiten Ordnung gegen diejenigen von f konvergieren, und zwar gleichmäßig auf BR := {x : |x| ≤ R}. Da die Polynome in Cb2 (BR ) dicht liegen folgt aus (a), (b), (c) und (d) dass A = C 2 (Rd ). Die Punkte (a) und (b) sind klar. (c) Seien f, g ∈ A und setze Fs := f (Xs ), Gs := g(Xs ). Da die Itô-Formel für f und g gilt, sind F und G stetige Semimartingale. Wir können also partielle Integration anwenden: Z t Z t Ft Gt − F0 G0 = Fs dGs + Gs dFs + [F, G]t (∗) 0 0 Wegen Proposition 5.26(d), H • (K • X) = (HK) • X, ist Z t Fs dGs = 0 d Z X i=1 t f (Xs ) 0 d Z t X ∂g ∂2g i 1 (X )dX + f (X ) (Xs )d[X i , X j ]s s s s i ∂xj ∂xi 2 ∂x 0 i,j=1 sowie Z t d Z t d Z t X X ∂f ∂2f i 1 Gs dFs = g(Xs ) i (Xs )dXs + g(Xs ) i j (Xs )d[X i , X j ]s . ∂x 2 ∂x ∂x 0 0 0 i,j=1 i=1 Aufgrund der Kunita-Watanabe-Identität gilt [F, G]t = d X ∂f ∂g [ i (X) • X i , j (X) • X j ]t ∂x ∂x i,j=1 = d X ∂f ∂g i j (X) (X) • [X , X ] ∂xi ∂xj t i,j=1 = d Z X i,j=1 0 t ∂f ∂g (X) j (X)d[X i , X j ]s . ∂xi ∂x Setzt man dies in (∗) ein, so erhält man die Itô-Formel für f g. (d) Es gelte die Formel für fn , n ≥ 1. Um zum Limes übergehen zu können genügt es zu zeigen, dass ((Hn − H) • M i )t → 0 in L2 ((Hn − H) • Ai )t → 0 in L1 Hn −→ H glm. =⇒ ((Hn − H) • [M i , M j ])t → 0 in L1 85 5 Stochastische Integration Das ist aber unter unserer Annahme der Beschränktheit der Martingale, Variations- und Kovariationsprozesse eine leichte Übungsaufgabe. 5.7 Stratonovich-Integral Wenn wir ein klassisches Integral über eine stetige Funktion numerisch annähern wollen, dann können wir etwa die Rechteckregel verwenden, das heißt Z t f (s)ds ≈ 0 n−1 X f (tk )(tk+1 − tk ) . k=0 Eine andere, vielleicht sogar plausiblere Methode ist die Trapezregel Z t f (s)ds ≈ 0 n−1 X k=0 1 (f (tk ) + f (tk+1 ))(tk+1 − tk ) . 2 Hätten wir diese Approximation auch zur Konstruktion des stochastischen Integrals verwenden können? Die Antwort lautet ja, mit größeren Schwierigkeiten, und mit einem anderem Ergebnis, wie wir sogleich sehen werden. Seien X, Y stetige Semimartingale. Wir definieren das Stratonovich Integral durch Z t Z t 1 Ys ∂Xs := Ys dXs + [X, Y ]t . 2 0 0 Man beachte, dass wir einen höheren Grad an Regularität für den Integranden gefordert haben. Für die rechte Seite der Gleichung haben wir eine diskrete Approximation: Z t 1 Ys dXs + [X, Y ]t 2 0 b2n tc−1 = lim n X Yk2−n (X(k+1)2−n − Xk2−n ) k=0 n b2 tc−1 1 X (Y(k+1)2−n − Yk2−n )(X(k+1)2−n − Xk2−n ) + 2 k=0 b2n tc−1 = lim n X 1 (Y −n + Yk2−n )(X(k+1)2−n − Xk2−n ) , 2 (k+1)2 k=0 wobei alle Limiten als u.c.p. zu verstehen sind. Somit ist das StratonovichIntegral der Grenzwert der Approximationen durch die Trapezregel. Schon aus der Definition ist ersichtlich, dass sich das Stratonovich-Integral vom ItôIntegral unterscheidet und dass das erstere im Allgemeinen kein lokales Martingal hervorbringt, falls X ein solches ist. 86 5.8 Stochastischer Differentialkalkül Eine weitere Motivation diese Variante zu betrachten ist die, dass sie gewisse Ähnlichkeiten mit dem klassischen Integral aufweist. So liest sich die Formel für die partielle Integration für das Stratonovich-Integral so: Z t Z t Ys ∂Xs . Xs ∂Ys + Xt Yt − X0 Y0 = 0 0 Das folgt unmittelbar aus der Definition zusammen mit der Formel für die partielle Integration für das Itô-Integral. Proposition 5.40. Seien X 1 , . . . , X d stetige Semimartingale. Setze X = (X 1 , . . . , X d ). Sei weiters f : Rd −→ R eine C 3 -Funktion. Dann gilt d Z t X ∂f f (Xt ) = f (X0 ) + (Xs )∂X i . i ∂x 0 i=1 Beweis: Aufgrund der Itô-Formel haben wir d X ∂f ∂f ∂2f j (Xt ) − i (X0 ) = (X) • X ∂xi ∂x ∂xj ∂xi t j=1 + Terme mit endlicher Variation, sodass mit der Kunita-Watanabe-Identität d X ∂f ∂2f i j i [ i (X), X ] = (X) • X , X ∂x ∂xj ∂xi j=1 = d X ∂2f (X) • X j , X i . j i ∂x ∂x j=1 Somit gilt wegen der Itô-Formel d Z t d 2 X X ∂f 1 ∂ f i j i f (Xt ) − f (X0 ) = (X )dX + (X) • [X , X ] s t 0 ∂xi 2 ∂xj ∂xi i=1 = = j=1 d Z X t 0 i=1 Z d t X i=1 0 ∂f 1 ∂f (Xs )dX i + [ i (X), X i ]t i ∂x 2 ∂x ∂f (Xs )∂X i . ∂xi 5.8 Stochastischer Differentialkalkül Wir vereinbaren, dass dZt = Ht dXt heißt Zt − Z0 = Rt Rt 0 Hs dXs ∂Zt = Yt ∂Xt heißt Zt − Z0 = dZt = dXt dYt heißt Zt − Z0 = [X, Y ]t . 0 Ys ∂Xs 87 5 Stochastische Integration Mitunter lassen wir der Bequemlichkeit halber die Indizes weg, schreiben also dZ = HdX statt dZt = Ht dXt u.s.w. Weiters vereinbaren wir, dass Produkte zwischen Differentialen und Prozessen kommutativ sind, das heißt wir definieren dXH := HdX. Aus der Definition von dXdY und der Kommutativität der Kovariation folgt, dass auch Produkte von Differentialen kommutativ sind. Die Ergebnisse von Proposition 5.26(d) sowie die Kunita-Watanabe-Identität übersetzen sich in diesen Kalkül wie folgt: Ht (Kt dXt ) = (Ht Kt )dXt Ht (dXt dYt ) = (Ht dXt )dYt . Trotz ihres trivialen Aussehens muss man diese Gleichungen erst beweisen. Beweis: Setzen Z = K • X, W = H • Z, V = (HK) • X. In den Differentialkalkül übersetzt bedeutet das dZ = KdX, dW = HdZ = H(KdX), dV = (HK)dX. Proposition 5.26(d) besagt nun, dass W = V ist, also auch dW = dV , sodass also H(KdX) = (HK)dX . Der Beweis der zweiten Gleichung ist eine gute Übungsaufgabe. Die partielle Integration nimmt folgende Gestalt an: d(Xt Yt ) = dXt Yt + Xt dYt + dXt dYt , die Itô-Formel d d X 1 X ∂2f ∂f i df (Xt ) = (Xt )dXt + (Xt )dXtj dXti i j i ∂x 2 ∂x ∂x i=1 i,j=1 was aussieht wie die Taylorentwicklung bis zum zweiten Glied. Eine weitere Rechenregel im Differentialkalkül ist dX(dY dZ) = (dXdY )dZ = 0. Beweis: Setze V = [Y, Z], W = [X, [Y, Z]]. Da [Y, Z] endliche Variation hat, gilt W = 0, also auch dW = 0. Aber 0 = dW = dXdV = dX(dY dZ). Analog folgt dass (dXdY )dZ = 0. Die Itô/Stratonovich-Umwandlung sieht im Differentialkalkül so aus: 1 ∂Zt = Yt ∂Xt ⇐⇒ dZt = Yt dXt + dXt dYt . 2 Es gilt Xt (Yt ∂Zt ) = (Xt Yt )∂Zt . Rt Beweis: Setzen Wt = 0 Ys ∂Zs , Vt = 0 Xs ∂Ws . Rt 88 5.9 Übungsaufgaben Es ist ∂W = Y ∂Z bzw. dW = Y dZ + 12 dY dZ. Weiters ∂V = X∂W bzw. dV 1 = XdW + dXdW 2 1 1 = X(Y dZ + dY dZ) + dX(Y dZ) 2 2 1 = XY dZ + (dXY + XdY )dZ 2 1 = XY dZ + (d(XY ) − dXdY )dZ 2 1 = XY dZ + (d(XY ))dZ , 2 sodass ∂Vt = (Xt Yt )∂Zt . Weiters gelten X(∂Y ∂Z) = (X∂Y )∂Z ∂(XY ) = ∂X Y + X∂Y ∂(f (X)) = Df (X)∂X . Der Beweis ist eine leichte Übung. 5.9 Übungsaufgaben 1. Seien (Xn )n≥1 eine Folge von Zufallsvariablen und X eine Zufallsvariable. Zeigen Sie: gilt Xn −→ X f.s., so gilt auch Xn −→ X in Wahrscheinlichkeit. 2. Seien (Xn )n≥1 eine Folge von Zufallsvariablen und X eine Zufallsvariable. Zeigen Sie: gilt Xn −→ X in Wahrscheinlichkeit, so gibt es eine Teilfolge (nk )k≥1 mit Xnk −→ X f.s. 3. Sei Xn −→ X in Wahrscheinlichkeit und Xn −→ Y in Wahrscheinlichkeit. Zeigen Sie: X = Y f.s. 4. Sei Xn −→ X in Lp . Zeigen Sie: Xn −→ X in Wahrscheinlichkeit. 5. Sei Xn −→ X in L2 und Xn −→ Y f.s. Zeigen Sie: Xn −→ X f.s. und Xn −→ Y in L2 . 6. Finden Sie ein Beispiel für Xn −→ X in Wahrscheinlichkeit aber nicht f.s. 7. (Satz von der dominierten Konvergenz) Sei Zn eine Folge von Zufallsvariablen und Z eine Zufallsvariable mit Zn → Z in Wahrscheinlichkeit. Sei Y ≥ eine Zufallsvariable mit |Zn | ≤ Y für alle n. Dann gilt limn→∞ E(Zn ) = E(Z). 8. Sei M ∈ M2c und sei H ∈ S. Sei T eine Stoppzeit. Zeigen Sie: (H • M )T = H • M T . 89 5 Stochastische Integration 9. Seien H ∈ S, M ∈ M2c und T eine Stoppzeit, welche nur endlich viele Werte annimmt. Zeigen Sie (ohne Proposition 5.21 zu verwenden), dass H1t≤T ∈ S und (H • M )T = H1t≤T = H • M T . 10. Sei M ∈ M2c und T eine Stoppzeit. Zeigen Sie: [M T ] = [M ]T . 11. Sei M ∈ M2c . Zeigen Sie, dass durch die Gleichung Z ∞ µM (A) := E 1A d[M ] (A ∈ P) 0 tatsächlich ein Maß auf P definiert wird. 12. Sei B eine Brown’sche Bewegung und t0 > 0. Was ist µB t0 ? 13. Beweisen Sie die zweite Gleichung in Proposition 5.28. 14. Sei B eine Brown’sche Bewegung und sei t0 > 0. Zeigen Sie, dass B n ∈ L2 (B t0 ). Schließen Sie daraus, dass B n • B ein Martingal ist. 15. Sei H ein lokal beschränkter vorhersehbarer Prozess und sei M ein lokales Martingal. Sei weiters (Tn )n≥0 eine Folge von Stoppzeiten so, dass M Tn und H Tn beschränkt sind. Zeigen Sie, dass H1(0,Tn ] • M Tn −→ H • M u.c.p. 16. Sei H lokal beschränkt und A von beschränkter Variation. Zeigen Sie: Dann ist H • A von beschränkter Variation. 17. Sei f : Rd × R+ −→ R eine Funktion in C 2 . Seien X 1 , . . . , X d Semimartingale, X := (X 1 , . . . , X d ). Zeigen Sie mithilfe der Itô-Formel, dass d Z t X ∂f ∂f i (Xs , s)ds + (Xs , s)dX(5.40) s i ∂t ∂x 0 i=1 0 Z d 1 X t ∂2f + (Xs , s)d[X i , X j ]s (5.41) j i 2 0 ∂x ∂x Z f (Xt , t) − f (X0 , 0) = t i,j=1 (Dieses Resultat heißt auch Itô-Formel). 18. Zeigen Sie die Version der Itô-Formel aus Beispiel 17 mit der schwächeren Voraussetzung, dass f bezüglich t nur einmal stetig differenzierbar ist (Tipp: Ändern Sie den Beweis von Satz 5.38 entsprechend ab). 19. Berechnen Sie dXt für die Prozesse X = B n , n ∈ N. 20. Berechnen Sie dXt für die Prozesse Xt = tm B, Xt = b s))dBs − µ, Xt = exp(σBt + µt). 90 Rt 0 exp(a/b(t − 5.9 Übungsaufgaben 21. Seien B, W zwei unabhängige Brown’sche Bewegungen. Dann ist [B, W ] = 0. 22. Seien f , g stetig differenzierbar und X, Y stetige Semimartingale. Zeigen Sie [f (X), g(X)] = f 0 (X)g 0 (Y ) • [X, Y ] . 23. Berechnen Sie [B n , B m ] (so weit wie möglich). Rt 24. Berechnen Sie E( 0 Bsn ds) für n ∈ N. Hinweis: Verwenden Sie Beispiel 19 zusammen mit der Tatsache, dass das stochastische Integral bezüglich einem lokalen Martingal ein lokales Martingal ist. 25. Zeigen Sie: Ht (dXt dYt ) = (Ht dXt )dYt . 26. Zeigen Sie: X(∂Y ∂Z) = (X∂Y )∂Z ∂(XY ) = ∂X Y + X∂Y ∂(f (X)) = Df (X)∂X . 91 6 Stochastische Differentialgleichungen 6.1 Beispiele von stochastischen Differentialgleichungen Wie schon in Kapitel 2 angedeutet, wollen wir Gleichungen der Form dXt = σ(Xt , t)dBt + b(Xt , t)dt betrachten, wobei natürlich an die Funktionen σ und b gewisse Glattheitsvoraussetzungen zu stellen sind und B eine Brown’sche Bewegung ist. Die Differentiale sind im Sinne des stochastischen Differentialkalküls zu verstehen. Natürlich kann man auch vektorwertige Prozesse X betrachten. Wir betrachten zunächst ein paar Beispiele, die sich leicht lösen lassen. Brown’sche Bewegung mit Drift Wir betrachten die Gleichung dXt = σdBt + bdt . Man sieht unmittelbar, dass Xt = x0 + σBt + bt eine Lösung ist mit X0 = x0 , x0 ∈ R. Sei Y eine weitere Lösung mit dYt = σdBt + bdt bezüglich derselben Brown’schen Bewegung B, und mit Y0 = x0 . Dann gilt dXt − dYt = 0 Rt Rt was soviel heißt wie Xt = x0 + 0 dXs = x0 + 0 dYs = Yt . X ist also die eindeutige Lösung. Geometrische Brown’sche Bewegung Wir betrachten die Gleichung dXt = σXt dBt + bXt dt = Xt (σdBt + bdt) . Die Interpretation dieser Gleichung ist die eines zufällig gestörten Wachstums. Wir versuchen einen Ansatz der Form Xt = x0 exp(σBt + λt). Wir wenden die Itô-Formel an und erhalten 1 dXt = x0 σ exp(σBt + λt)dBt + x0 σ 2 exp(σBt + λt)dt (6.1) 2 +x0 λ exp(σBt + λt)dt (6.2) 1 = σXt dBt + ( σ 2 + λ)Xt dt . (6.3) 2 Wir erhalten also eine Lösung der Differentialgleichung für 12 σ 2 + λ = b, also 1 Xt = x0 exp(σBt + (b − σ 2 )t) . 2 Wir sparen uns an dieser Stelle den Eindeutigkeitsbeweis (er ist aber nicht schwer: sei Y eine beliebige Lösung. Wende die Itô-Formel auf X −1 Y an). 93 6 Stochastische Differentialgleichungen Ohrnstein-Uhlenbeck Prozess Wir betrachten die Gleichung dXt = σdBt + a(Xt − µ)dt . Die Interpretation für a < 0 ist folgende: die Änderung von X mit der Zeit hat eine zufällige und eine deterministische Komponente, wobei die zufällige unabhängig von X ist und die deterministische X in Richtung µ lenkt. Langfristig wird also X um den Wert µ herum schwanken. Hier ist es relativ schwer, eine Lösung zu erraten. Hier ist sie: Z t x0 − µ Xt = µ + σeat e−as dBs + . σ 0 Anwenden der Itô-Formel liefert, dass dies tatsächlich obige SDE löst. 6.2 Existenz und Eindeutigkeit einer Lösung Definition 6.1. Sei U ⊆ Rd . Wir sagen die Funktion f : U −→ Rm ist Lipschitz-stetig oder einfach nur Lipschitz, falls es ein K < ∞ gibt derart, dass |f (x) − f (y)| ≤ K|x − y| , ∀x, y ∈ U , wobei |.| die euklidische1 Norm im jeweiligen Raum bezeichne. K heißt die zugehörige Lipschitz-Konstante. Ist U offen, dann sagen wir f sei lokal Lipschitz, falls für jede kompakte Menge C ⊆ U die Einschränkung f |C auf C Lipschitz ist. Beispiele: x 7→ |x| ist Lipschitz auf R, x 7→ x2 ist lokal Lipschitz auf R, aber nicht Lipschitz auf R. Wir schreiben L(Rm , Rd ) für den Vektorraum der linearen Abbildungen σ = (σji )i,j : Rm −→ Rd X (σv)i = σji v j , für v = (v j )j j wo i ∈ {1, . . . , d} und j ∈ {1, . . . , m}. Weiters sei |σ| := sup |σv| |v|=1 die übliche Operatornorm. Wir werden Gleichungen der Form dXt = σ(Xt )dBt + b(Xt )dt , (SDE) betrachten mit Koeffizienten σ und b, wo σ : U −→ L(Rm , Rd ) und b : U −→ Rd lokal Lipschitz sind und B = (B 1 , . . . , B m ) eine Brown’sche Bewegung im Rm . 1 Natürlich tut es jede andere Norm auch. 94 6.2 Existenz und Eindeutigkeit einer Lösung Definition 6.2. Sei x0 ∈ U . Unter einer Lösung von (SDE) mit Startpunkt x0 verstehen wir einen stetigen angepassten2 Prozess X mit Werten in U derart dass Z t Z t b(Xs )ds , ∀t > 0 . σ(Xs )dBs + Xt = x0 + 0 0 Definition 6.3. Für einen stetigen angepassten Prozess X und T > 0 definieren wir |||X|||T := k sup |Xt |k2 t≤T und bezeichnen mit CT die Menge der stetigen angepassten Prozesse X : [0, ∞) × Ω −→ Rd mit |||X|||T < ∞. (T ist hier ausnahmsweise eine deterministische Zeit.) Wir schreiben weiters C für die Menge der stetigen angepassten Prozesse X für welche |||X|||T < ∞ ∀T > 0 . Proposition 6.4. CT ist ein Banachraum. Beweis: Der Beweis ist eine offensichtliche Modifikation unseres früheren Beweises, dass C 2 ein Banachraum ist. Satz 6.5. Seien U = Rd , x0 ∈ U und σ, b Lipschitz mit Konstante K. Dann existiert ein eindeutig bestimmter Prozess X ∈ C derart, dass X eine Lösung von (SDE) mit Startpunkt x0 ist. Beweis: O.b.d.A. sei x0 = 0. Wegen der Lipschitzstetigkeit von σ ist |σ(x)| ≤ |σ(0)| + K|x|, sodass mit Doob’s L2 -Ungleichung für alle X ∈ CT Z t σ(Xs )dBs |2 ) ≤ E(sup | t≤T 0 Z ≤ 4E(| Z ≤ 4E T σ(Xs )dBs |2 ) = 4E Z T |σ(Xs )|2 ds 0 0 Z T T 2 (|σ(0)| + K|Xs |) ds ≤ 4E 2(|σ(0)|2 + K 2 |Xs |2 )ds 0 0 ≤ 8T (|σ(0)|2 + K 2 |||X|||2T ) < ∞ , wobei wir in der vorletzten Zeile die einfache Abschätzung (a + b)2 ≤ 2a2 + 2b2 verwendet haben. 2 Angepasst“ heißt hier und im Folgenden angepasst an die von der Brown’schen Bewegung ” erzeugten Standard-Filterung. 95 6 Stochastische Differentialgleichungen Wegen der Lipschitzstetigkeit von b ist mit der Cauchy-Schwarz-Ungleichung Z t b(Xs )ds|2 ) E(sup | t≤T 0 Z t |b(Xs )|2 ds) ≤ E(sup t t≤T Z 0 T ≤ TE |b(Xs )|2 ds 0 ≤ 2T 2 (|b(0)|2 + K 2 |||X|||2T ) < ∞ . Rt Wir haben also gezeigt: Ist X ∈ CT , so sind die Prozesse 0 σ(Xs )dBs und Rt 0 b(Xs )ds ebenfalls in CT . Somit definiert Z t Z t F (X)t = σ(Xs )dBs + b(Xs )ds , t ≤ T 0 0 eine Abbildung F : CT −→ CT . Es gelten für X, Y ∈ C ! Z t (σ(Xs ) − σ(Ys )) dBs |2 ≤ E sup | t≤T (6.4) 0 2 ! Z T Z T σ(Xs ) − σ(Ys )dBs = 4E |σ(Xs ) − σ(Ys )|2 ds (6.5) ≤ 4E 0 0 Z T Z T E |Xs − Ys |2 ds (6.6) ≤ 4E K 2 |Xs − Ys |2 ds ≤ 4K 2 0 0 ≤ 4K 2 T Z |||X − Y |||2s ds (6.7) 0 und Z E sup | t≤T ! t (b(Xs ) − b(Ys )) ds|2 ≤ (6.8) 0 2 ≤ E sup t |b(Xs ) − b(Ys )| ds t≤T Z ≤E T 0 Z ≤ T K 2E ! t Z ≤ TK Z |b(Xs ) − b(Ys )| ds (6.9) |Xs − Ys |2 ds T Z ≤ T K2 E |Xs − Ys |2 ds (6.10) 0 T |||Xs − Ys |||2s ds . (6.11) 0 Es ist somit |||F (X) − F (Y )|||2T t Z (σ(Xs ) − σ(Ys ))dBs |2 ) ≤ 2E(sup | t≤T 0 t Z (b(Xs ) − b(Ys ))ds|2 ) +2E(sup | t≤T 0 ≤ 2K 2 (4 + T ) Z 0 96 2 0 T 0 2 T T |||X − Y |||2s ds . 6.2 Existenz und Eindeutigkeit einer Lösung Mit Induktion folgt also für alle t ≤ T |||F n (X) − F n (Y )k2t ≤ ≤ Z C n tn−1 t |||X − Y |||2s ds (n − 1)! 0 C n tn |||X − Y |||2t , (n − 1)! mit C := 2K 2 (4 + T ). Speziell ist für hinreichend großes n die Funktion F n (n-fache Hintereinanderausführung) eine (strikte) Kontraktion auf CT . Somit hat F n genau einen Fixpunkt X (T ) , das folgt aus dem Banach’schen Fixpunktsatz. Damit ist X (T ) aber auch ein Fixpunkt von F : F n (X (T ) ) = X (T ) , sodass F n+1 (X (T ) ) = F (X (T ) ), woraus F n (F (X (T ) )) = F (X (T ) ). Das heißt, F (X (T ) ) ist ebenfalls ein Fixpunkt von F n . Da aber der Fixpunkt von F n eindeutig bestimmt ist, gilt F (X (T ) ) = X (T ) . Wegen der Eindeutigkeit gilt (T ) Xt (T 0 ) = Xt für alle t ≤ T ∧ T 0 f.s., (N ) sodass also mit Xt = Xt für t ≤ N , N ∈ N, X ein wohldefiniertes Element in C ist und eine Lösung von (SDE). Ist Y eine weitere solche Lösung, dann gilt wiederum wegen der Eindeutigkeit in CT X|[0,T ] = Y |[0,T ] für alle T > 0, sodass Y = X in C. Wir wollen als nächstes die Voraussetzungen für den Satz über Existenz und Eindeutigkeit abschwächen, indem sie nur lokal gelten müssen. Definition 6.6. • Unter einem lokal definierten Prozess (X, ζ) verstehen wir eine Stoppzeit zusammen mit einer Abbildung X : {(ω, t) ∈ [0, ∞) × Ω : t < ζ(ω)} −→ Rd . • Wir sagen (X, ζ) sei angepasst, falls Xt : Ωt −→ Rd Ft -messbar ist für alle t, wo Ωt = {ω : t < ζ(ω)}. • Weiters sagen wir (X, ζ) sei stetig, falls für fast jedes ω die Abbildung [0, ζ) −→ Rd t 7−→ Xt (ω) stetig ist. • Wir sagen (M, ζ) ist ein lokal definiertes, stetiges lokales Martingal (ldclm) falls es eine Folge von Stoppzeiten Tn ↑ ζ f.s. gibt derart, dass M Tn ein stetiges Martingal ist für alle n. 97 6 Stochastische Differentialgleichungen • Wir sagen (A, ζ) ist ein lokal definierter, stetiger Prozess von beschränkter Variation (ldbvp) falls (A, ζ) steig und angepasst ist und falls fast jeder Pfad beschränkte Variation auf den Kompakta hat. • Wir sagen (X, ζ) ist ein lokal definiertes, stetiges Semimartingal (ldcsm) falls es ein ldclm (M, ζ) und einen ldbvp (A, ζ) gibt mit X = X0 + A + M . • Wir sagen (H, ζ) ist ein lokal definierter, lokal beschränkter, vorhersehbarer Prozess (ldlbpp) falls es eine Folge von Stoppzeiten Tn ↑ ζ f.s. gibt derart, dass H1(0, Tn ] ein beschränkter vorhersehbarer Prozess ist für alle n. • Wir definieren für ein ldcsm (X, ζ), X = X0 + M + A, und einen ldlbpp (H, ζ) das Integral (H • X, ζ) durch (H • X)Tt n = ((H1(0, Tn ]) • X Tn )t , wo (Tn )n≥1 eine reduzierende Folge von M ist. Lemma 6.7. Sei U ⊆ Rd eine offene Menge, C ⊆ U kompakt. Dann (i) gibt es eine C ∞ -Funktion φ : Rd −→ [0, 1] derart, dass φ ≡ 1 auf C und φ ≡ 0 auf U c ; (ii) gibt es zu einer gegebenen lokal Lipschitz-stetigen Funktion f : U −→ R eine Lipschitz-stetige Funktion g : Rd −→ R mit g ≡ f auf C. Beweis: (i) Sei ( ψ(x) := 1 A exp(− 1−|x| |x| < 1 2) , 0 |x| ≥ 1 R d wo A so gewählt sei dass R Rd ψ(x)dx = 1. Sei weiters ψn (x) = n ψ(nx). Beachte ∞ dass ψn ∈ C und Rd ψn (x)dx = 1 für alle n. Weiters ist ψn (x) > 0 für |x| < 1/n und ψn (x) = 0 für |x| ≥ 1/n. Sei Cn = {x ∈ Rd : |x − c| ≤ 1/n ∀c ∈ C}. Da C kompakt ist, gibt es ein n mit Cn ⊆ U . Wir definieren Z φ(x) := ψ2n (x − y)1C2n (y)dy . Rd 1 alle y mit |x − y| ≤ 2n , sodass φ(x) = RFür x ∈ C ist 1C2n (y) = 1 für 1 c ψ (x − y)dy = 1. Für x ∈ C ist 1 (y) = 0 für alle |x − y| ≤ 2n , sodass C2n n Rd 2n R φ(x) = Rd ψ2n (x−y)·0 dy = 0. Für alle anderen x ist offenbar 0 ≤ φ(x) ≤ 1, und man sieht durch Differentiation unter dem Integralzeichen, dass φ tatsächlich ∞-oft differenzierbar ist. (ii) Setze g = φf (punktweise Multipikation). Übung: g ist tatsächlich Lipschitz. 98 6.2 Existenz und Eindeutigkeit einer Lösung Proposition 6.8 (Itô-Formel). Seien X 1 , . . . , X d stetige Semimartingale, X = (X 1 , . . . , X d ). Sei U ⊆ Rd offen und f : U −→ R eine C 2 -Funktion. Setze weiters ζ := inf{t ≥ 0 : Xt ∈ / U} . Dann gilt für alle t < ζ f (Xt ) = f (X0 ) + d Z X 0 i=1 t d Z ∂f 1 X t ∂2f i (Xs )dXs + (Xs )dXsi dXsj . j i ∂xi 2 0 ∂x ∂x i,j=1 √ Beispiel: X = 1 + B, B eine Brown’sche Bewegung, d = 1, f (x) = x, U = (0, ∞). Dann haben wir Z t Z p 1 1 t 1 −1/2 1 + Bt = 1 + (− )(1 + Bs )−3/2 ds (1 + Bs ) dBs + 2 0 4 0 2 für alle t < ζ = inf{t ≥ 0 : Bt = 0}. Beweis: Sei Cn eine Folge kompakter Mengen mit Cn ↑ U . Definiere Tn := inf{t ≥ 0 : Xt ∈ / Cn }. Es gibt nach Lemma 6.7(i) eine Folge von C 2 -Funktionen fn , so dass fn auf Cn mit f übereinstimmt. Mit der Itô-Formel gilt fn (XtTn ) = fn (X0 )+ d Z X i=1 0 t∧Tn d Z t∧Tn X ∂fn ∂ 2 fn i 1 (X )dX + (Xs )dXsi dXsj . s s j ∂xi ∂xi 2 ∂x 0 i,j=1 Offenbar gilt Tn ↑ ζ, sodass also für t < ζ stets ein n existiert mit t < Tn . Definition 6.9. Unter einer lokalen Lösung von (SDE) mit Startpunkt x0 verstehen wir einen lokal definierten stetigen angepassten Prozess (X, ζ) mit Werten in U derart, dass für alle t < ζ Z t Z t Xt = x0 + σ(Xs )dBs + b(Xs )ds . 0 0 Wir sagen (X, ζ) ist maximal, wenn für jede lokale Lösung (X̃, ζ̃) Xt = X̃t für alle t ≤ ζ̃ ∧ ζ =⇒ ζ̃ ≤ ζ . Satz 6.10. Sei U ⊆ Rd eine offene Menge, x0 ∈ U und seien σ, b lokal Lipschitz-stetige Koeffizienten von (SDE) auf U . Dann existiert genau eine maximale lokale Lösung (X, ζ) von (SDE) mit Startwert x0 . Weiters gilt für jede kompakte Menge C ⊆ U auf der Menge {ζ < ∞} TC = sup{t < ζ : Xt ∈ C} < ζ f.s. Bemerkung 6.11. TC ist der letzte Zeitpunkt, zu dem X in C ist. Die letzte Aussage besagt also, dass X zu einem Zeitpunkt TC vor der Explosionszeit ζ die kompakte Menge C verlässt und nicht mehr zurückkehrt. 99 6 Stochastische Differentialgleichungen Beweis: (Für d = n = 1). Sei V ⊆ U offen mit C := V̄ ⊆ U . Wir können mit Lemma 6.7(ii) Lipschitzstetige Funktionen σ̃, b̃ auf ganz R finden, welche auf C mit σ bzw b übereinstimmen. Aufgrund von Satz 6.5 existiert genau eine Lösung X̃ zu dX̃t = σ̃(X̃t )dBt + b̃(X̃s )dt, X̃0 = x0 . Sei T = inf{t ≥ 0 : X̃t ∈ / C} und schreibe X für die Einschränkung von X̃ auf [0, T ). Dann ist (X, T ) eine lokale Lösung in C und XT − = X̃T existiert und liegt in U \V für T < ∞. Sei (Y, S) eine andere lokale Lösung in C. Wir betrachten ! f (t) = E |Xs − Ys |2 sup . s≤S∧T ∧t Dann ist f (t) < ∞ und für jedes t0 > 0 gilt für t ≤ t0 |Xs − Ys |2 ) f (t) = E( sup s≤S∧T ∧t s Z σ(X) − σ(Y ) dB + = E sup 2 ! s Z b(X) − b(Y ) ds 0 0 Z ≤ 2E sup 2 ! s σ(X) − σ(Y ) dB Z Z ≤ 2 · 4E b(X) − b(Y ) ds + 2E sup 0 2 ! s 0 2 ! t σ(X) − σ(Y ) dB Z + 2E 0 t 2 ! b(X) − b(Y ) ds 0 Z t 2 2 E (σ(X) − σ(Y )) ds + 2 t0 E (b(X) − b(Y )) ds ≤ 2·4 0 0 Z t 2 ≤ 2(4 + t0 )KC E(|Xs − Ys |2 ) ds 0 Z t ≤ 2(4 + t0 )KC2 f (s) ds , Z t 0 wobei wir nacheinander (a + b)2 ≤ 2a2 + 2b2 , Doob’s L2 -Ungleichung und die Cauchy-Schwarz-Ungleichung verwendet haben. Aus dem Lemma von Gronwall folgt, dass f ≡ 0. Somit ist Xt = Yt für alle t < S ∧ T f.s. Betrachte nun eine Folge kompakter Mengen Cn mit Cn ↑ U und konstruiere für jedes n eine lokale Lösung (X n , Tn ) in Cn . Dann geht Tn ↑ ζ für ein ζ ∈ (0, ∞] und Xtn = Xtn+1 für alle t < Tn f.s.. Somit erhalten wir eine lokale Lösung (X, ζ). Wir zeigen noch, dass sie eindeutig und maximal ist. Sei also (Y, ξ) eine andere lokale Lösung und definiere Sn = inf{t ≥ 0 : Yt ∈ / Cn } ∧ ξ . Dann sind (X n , Tn ) und (Y |[0,Sn ) , Sn ) beide lokale Lösungen in Cn , sodass Xt = Yt für alle t < Sn ∧ Tn , sodass Sn ≤ Tn . 100 6.3 Lösungen einfacher SDEs Weiters ist Sn ↑ ξ, da Cn ↑ U , sodass ξ ≤ ζ und Yt = Xt für alle t < ξ. Wir beweisen den Zusatz. Wir wählen kompakte Mengen C1 ⊆ C2◦ ⊆ C2 ⊆ U eine C 2 -Funktion φ : U −→ R mit φ ≡ 1 auf C1 und φ ≡ 0 auf U \C2 . Wir setzen R1 := inf{t ≥ 0 : Xt ∈ / C2 } Sn := inf{t ≥ Rn : Xt ∈ C1 } ∧ ζ Rn+1 := inf{t ≥ Sn : Xt ∈ / C2 } ∧ ζ n ≥ 1. Sei N die Anzahl der “Durchkreuzungen” von C2c nach C1 . Dann gilt auf der Menge {ζ ≤ t, N ≥ n} mit der Itô-formel n = n X (φ(XSk ) − φ(XRk )) k=1 = Z tX n 0 k=1 t (ξsn dBs 0 Z = 1 1(Rk ,Sk ] (s) Dφ(Xs )dXs + D2 φ(Xs )dXs ⊗ dXs 2 + ηsn ds) =: Ztn mit ξ n , η n vorhersehbar und gleichmäßig beschränkt in n. Es ist also n2 1ζ≤t,N ≥n ≤ (Ztn )2 und somit n2 P(ζ ≤ t, N ≥ n) ≤ E((Ztn )2 ) ≤ C < ∞ , weshalb P(ζ ≤ t, N ≥ ∞) = 0, weiters P(ζ < ∞, N ≥ ∞) = 0. Das heißt, dass auf ζ < ∞ mit Wahrscheinlichkeit 1 der Pfad von X die Menge C1 schließlich für immer verlassen muss, sodass also sup{t < ζ : Xt ∈ C1 } < ζ. 6.3 Lösungen einfacher SDEs Wir betrachten ein paar einfache Beispiele von SDEs, die man explizit lösen kann. 2 Beispiele hatten wir bereits in der Einleitung dieses Kapitels dXt = σdBt + bdt dXt = σXt dBt + bXt dt = Xt (σdBt + bdt) . Offenbar erfüllt die SDEs die Voraussetzungen von Satz 6.5, sodass eine eindeutig bestimmte globale Lösung existiert. Wir kennen die Lösungen bereits und wissen nun auch bei der zweiten SDE, dass die angegebene Lösung die einzige ist. Betrachten wir nun etwa einen Ohrnstein-Uhlenbeck-Prozess: dXt = σdBt + bXt dt 101 6 Stochastische Differentialgleichungen Der Ansatz, den wir verwenden, heißt die Methode des multiplizierenden Fak2 tors. Wir definieren Yt = eαBt +γt , sodass dYt = Yt (αdBt + (γ + α2 )dt), und berechnen mittels partieller Integration d(Xt Yt ) = dXt Yt + Xt dYt + dXt dYt = Yt (σdBt + bXt dt + Xt αdBt + Xt (γ + α2 )dt + ασdt) . 2 Wählen wir speziell α = 0 und γ = −b, so erhalten wir d(Xt Yt ) = Yt σdBt . Rt Das heißt aber Xt Yt = X0 Y0 + σ 0 Ys dBs bzw., wenn wir durch Yt dividieren und dann für Yt einsetzen (speziell Y0 = 1) Z t e−bs dBs . Xt = ebt X0 + ebt 0 Der selbe Ansatz funktioniert auch bei dXt = bdt + σXt dBt . 6.4 Gebremstes Wachstum einer Population Wir betrachten zunächst ein weiteres Beispiel einer SDE, die wir lösen können: dXt = (aXt − b)dt − σXt dBt . Die Koeffizienten dieser SDE sind Lipschitz, sodass für jedes x ∈ R genau eine Lösung mit Startwert x existiert. Wir versuchen wieder die Methode des integrierenden Faktors, Yt := eαBt +βt . α2 )Yt dt + αYt dBt 2 d(Xt Yt ) = Xt dYt + Yt dXt + dXt dYt α2 )Xt Yt dt + αXt Yt dBt = (β + 2 +aXt Yt dt − bYt dt − σXt Yt dBt − ασXt Yt dt . dYt = (β + Wir wählen α, β so, dass die rechte Seite möglichst einfach wird: α = σ, β = σ2 2 − a. Damit ist d(Xt Yt ) = −bYt dt = −beσBt +( also Z Xt Yt − X0 Y0 = −b t eσBs +( σ2 −a)t 2 σ2 −a)s 2 dt , ds , 0 bzw. 2 Xt = e −σBt −( σ2 −a)t Z t 2 σBs +( σ2 −a)s X0 − b e ds . 0 102 6.4 Gebremstes Wachstum einer Population Wir wenden uns nun dem gebremsten Wachstum zu: eine einfache Möglichkeit, ein solches zu modellieren ist, im deterministischen Fall, ẋ = x(a − bx) , (6.12) a, b > 0. Die proportionale Wachstumsrate a − bx nimmt also mit steigendem x (linear) ab. Für x = a/b ist das Wachstum null, die Populationsgröße also konstant bei a/b. Für x > a/b sinkt die Population, für 0 < x < a/b steigt sie. Der Fall x ≤ 0 lässt sich leicht studieren, ist aber für uns jetzt uninteressant. Die klassische Theorie der gewöhnlichen Differentialgleichungen gibt uns zumindest zwei Werkzeuge zur Lösung von (6.12) in die Hand: Trennen der Variablen und Bernoulli’sche Differentialgleichungen. Die zweite Methode erweist sich als verallgemeinerbar auf den stochastischen Fall und wir werden zunächst den deterministischen wiederholen: Wir betrachten eine Differentialgleichung der Form ẋ = ax − bxρ . Man substituiert z = −x1−ρ und erhält ż = (ρ − 1) ẋ ax − bxρ = (ρ − 1) = (ρ − 1)(−az − b) . xρ xρ Das ist eine lineare Differentialgleichung in z, deren allgemeine Lösung man einfach hinschreiben kann, und damit auch die Lösung x. Wir formulieren nun eine Stochastische Differentialgleichung für ein gebremstes und zufällig gestörtes Wachstum und verwenden den selben Ansatz wie oben für den stochastischen Fall. Wir schreiben den proportionalen Wachstumsfaktor heuristisch als a − bXt + σWt , wo W weißes Rauschen“ beze” ichne. Letzteres ist kein Prozess in unserem Sinne, und wird als Ableitung der Brown’schen Bewegung gedacht, also dBt = Wt dt. Damit erhalten wir dXt = Xt (a − bXt + σWt )dt = Xt ((a − bXt )dt + σWt dt) = Xt ((a − bXt )dt + σdBt ) , und diese stochastische Differentialgleichung wollen wir nun lösen. Man beachte zunächst, dass die Koeffizienten dieser SDE lokal Lipschitz sind, und daher jedenfalls eine lokale Lösung existiert. Wir definieren Zt = − X1t , sodass dZt = = 1 1 dXt − 3 (dXt )2 2 Xt Xt 1 1 ((a − bXt )dt + σdBt ) − 3 σ 2 Xt2 dt Xt Xt = ((σ 2 − a)Zt − b)dt − σZt dBt . Die Lösung dieser SDE ist uns aber schon vom Anfang dieser Sektion bekannt, Z t −1 Zt = Yt Z0 − b Ys ds , 0 103 6 Stochastische Differentialgleichungen wo Yt = eσBt +( σ2 −(σ 2 −a))t 2 Xt = − = eσBt +(a− σ2 )t 2 . Somit ist Yt Yt = X0 . Rt Rt − b 0 Ys ds 1 + X0 b 0 Ys ds − X10 Wir sehen dieser Lösung an: • Wenn X0 > 0 ist, so ist Xt > 0 für alle t ≥ 0 für fast alle Pfade; • Wenn 0 < X0 < a/b gilt, so kann (und wird) dennoch zeitweise Xt > a/b gelten für t > 0; Rt • Yt und 0 Ys ds wachsen im Mittel exponentiell und somit verschwindet der Einfluss von X0 mit der Zeit. Die mittlere langfristige Populationsgröße R t lässt sich nicht direkt ablesen. Der Erwartungswert von Yt ist eat , der von 0 Ys ds ist (ea t − 1)/a, man könnte also vermuten, dass die langfristige mittlere Populationsgröße a/b ist, also so wie im deterministischen Fall. Eine Richtung können wir aber beweisen: es ist Z t 1 bYt d log( +b Ys ds) = 1 = bXt , Rt X0 + b Y ds 0 s X0 0 sodass b Rt 0 Xs ds = log( X10 + b b e Rt 0 Rt 0 Ys ds) − log( X10 ) beziehungsweise Xs ds t Z = 1 + X0 b Ys ds . 0 Mit der Jensen’schen Ungleichung gilt Rt ebE( 0 Xs ds) ≤ E(eb Rt 0 Xs ds Z ) = E(1 + X0 b t Ys ds) = 1 + X0 b 0 Rt Betrachten wir den Spezialfall X0 = a/b. Dann ist ebE( Z 1 t a E( Xs ds) ≤ . t 0 b 0 Xs ds) eat − 1 . a ≤ eat und somit Für allgemeines X0 > 0 definiere T := inf{t ≥ 0 : Xt = ab }. Es ist plausibel, dass Z Z Z 1 t 1 T ∧t 1 t lim E( Xs ds) = lim E( Xs ds) + lim E( Xs ds) t→∞ t→∞ t→∞ t 0 t 0 t T ∧t a ≤ 0+ . b Da die Jensen’sche Ungleichung für nicht-deterministische Zufallsvariablen echt ist, werden wir eher Z 1 t a lim E( Xs ds) < t→∞ t 0 b erwarten. 104 6.5 Elektrischer Schwingkreis I U R U1 L U2 C U3 Abbildung 6.1: Ein elektrischer Schwingkreis. 6.5 Elektrischer Schwingkreis Wir betrachten den elektrischen Schaltkreis aus Abbildung 6.1. Es bezeichne Q die Ladung am Kondensator mit Kapazität C, sodass nach Definition der Kapazität U3 = Q C , I den elektrischen Strom durch den Schaltkreis. Da dieser gleich dem Strom durch den Kondensator ist, muss Q̇ = I. ˙ = Q̈L. Nach Nach Definition der Induktivität L gilt an der Spule U2 = IL dem Ohmschen Gesetz gilt am Widerstand U1 = RI = RQ̇. Mit der Kirchhoff’schen Maschenregel gilt U = U1 + U2 + U3 , sodass wir also die folgende gewöhnliche Differentialgleichung erhalten LQ̈ + RQ̇ + 1 Q=U. C Wir nehmen nun an, dass Ut = Gt + αWt , wobei G ein Signal sei und W wieder weißes Rauschen bezeichne, also dUt = Gt dt + αWt dt = Gt dt + αdBt . Wir schreiben 1 Q X X= = , 2 X Q̇ sodass dXt1 = X 2 dt 1 1 1 R 2 α dXt2 = Gt − Xt − Xt dt + dBt L CL L L oder in Vektorschreibweise dX = AXdt + Hdt + KdBt , mit A= 0 1 − CL 1 −R L , H= 0 1 L Gt , K= 0 α L . 105 6 Stochastische Differentialgleichungen Nun gilt d(exp(−At)Xt ) = exp(−At)dXt − A exp(−At)Xt dt = exp(−At) (Ht dt + KdBt ) , sodass Z exp(−At)Xt − X0 = t exp(−As) (Hs ds + KdBs ) . 0 Der Rest ist Kosmetik: d(exp(−At)KBt ) = exp(−At)KdBt − A exp(−At)KBt dt Z t Z t sodass exp(−At)KBt = exp(−As)KdBs − A exp(−As)KBs ds 0 0 Z t Z t bzw. exp(−As)KdBs = exp(−At)KBt + A exp(−As)KBs ds . 0 0 Wir erhalten also insgesamt Z t Xt = exp(At) X0 + exp(−As)(Hs + AKBs )ds + KBt . 0 6.6 Marktmodelle Ein weites Anwendungsgebiet der stochastischen Analysis ist die Finanzmathematik. Hier werden Preisprozesse von Wertpapieren (zB. Aktien) oft als Lösungen von SDEs modelliert. Ein wichtiges Beispiel ist das Black-Scholes-Modell. Hier ist ein vektorwertiger Preisprozess S = (S 0 , . . . , S d ) gegeben, St0 = S00 ert i 1 Sti = Sti e(µ − 2 Pm Pm i 2 j=1 (σj ) )t+ j=1 σji dBtj . Mit der Itô-Formel erhält man dSt0 = rSt0 dt dSti = Sti (µi dt + m X σji dBtj ) . j=1 S ist also Lösung einer SDE deren Koeffizienten Lipschitz sind. Da wir bereits von einer Lösung ausgegangen sind, brauchen wir die Existenzaussage des Satzes über Existenz und Eindeutigkeit von Lösungen von SDEs hier nicht, aber immerhin wissen wir, dass es keine vom Black-Scholes-Modell verschiedene Lösung dieser Differentialgleichungen gibt. Das Black-Scholes-Modell ist aufgrund seiner Einfachheit bei Praktikern wie Theoretikern beliebt, allerdings ist die Forderung, dass r, µ, σ konstant sein sollen, etwas stark. 106 6.6 Marktmodelle Ein Modell mit variablem σ ist das sogenannte Heston-Modell: dSt0 = rSt0 dt p p dSt1 = St1 µdt + Xt ( 1 − ρ2 dBt1 + ρdBt2 ) p dXt = (a − bXt )dt + σ Xt dBt2 mit Startwerten S00 > 0, S01 > 0 und X0 > 0. Die Koeffizienten dieser SDE sind nicht Lipschitz, aber lokal Lipschitz auf {X > 0}. Damit ist hier nur die Existenz einer lokalen Lösung garantiert. Die dritte Gleichung, dXt = (a − bXt )dt + σ p Xt dWt2 , (6.13) ist übrigens auch als Zinsratenmodell beliebt und heißt dann Cox-IngersollRoss-Modell (CIR-Modell). Es gilt der folgende interessante Satz Satz 6.12 (Feller condition). Sei x > 0 und sei X x die eindeutig bestimmte x := inf{t ≥ 0 : lokale Lösung der SDE (6.13). Für M ≥ 0 definieren wir TM x Xt = M }. Dann gelten: 1. Ist a ≥ σ2 2 P(T0x P(T0x 2. Ist 0 < a) σ2 2 so ist P(T0x < ∞) = 0 ; < a, so ist P(T0x < ∞) > 0 für alle x, wobei < ∞) = 1 für b ≥ 0 und < ∞) ∈ (0, 1) für b < 0. R x 2by 2a Beweis: Definiere s(x) := 1 e σ2 y − σ2 dy für x ∈ (0, ∞). Man rechnet leicht nach, dass s die gewöhnliche Differentialgleichung b) σ 2 00 xs (x) + (a − bx)s0 (x) = 0 2 (6.14) x x x . Sei Y x := (X x )Tε,M . Dann erfüllt. Für 0 < ε < x < M sei Tε,M := Tεx ∧ TM x erfüllt Y x die SDE (6.13) für t < Tε,M und es ist mit der Itô-Formel und Differentialgleichung (6.14) Z t Z 1 t 00 x 0 s(Yt ) = s(x) + s (Yu )dYu + s (Yu )(dYu )2 2 0 0 Z t p = s(x) + s0 (Yux )σ Yux dWu . 0 s(XTx x ∧t ) ε,M Der Prozess t 7→ ist somit ein lokales Martingal. Da er außerdem beschränkt ist, ist er ein Martingal und limt→∞ s(XTx x ∧t ) = s(XTx x ). ε,M ε,M Mit der Itô-Isometrie gilt Z t s0 (Yux )2 σ 2 Yux du E(s(Ytx )2 ) = s(x)2 + E 0 x ≥ s(x)2 + KE(t ∧ Tε,M ) 107 6 Stochastische Differentialgleichungen für ein K > 0, da s0 (Yux )2 σ 2 Yux von 0 weg beschränkt ist da s0 > 0. Außerdem ist s(Ytx ) gleichmäßig beschränkt, sodass E(s(Ytx )2 ) < L für alle t für ein L. Damit x ) = lim x folgt aber mit monotoner Konvergenz ∞ > E(Tε,M t→∞ E(t ∧ Tε,M ). Also x ist P(Tε,M < ∞) = 1. Insgesamt haben wir nun x x s(x) = E(s(XTx x )) = s(ε)P(Tεx < TM ) + s(M )P(Tεx > TM ). ε,M Sei nun a ≥ σ2 2 , sodass − σ2a2 ≤ −1. Dann gilt Z lim s(ε) = lim − ε→0+ ε→0+ 1 2by 2a e σ2 y − σ2 dy = −∞ . ε x ) = lim x x Somit muss P(T0x < TM ε→0+ P(Tε < TM ) = 0. Da dies für alle M > x x → ∞ für M → ∞, erhält man P(T x < ∞) = 0. gilt und TM 0 Sei nun 0 ≤ a < Andererseits ist σ2 2 , Z s(M ) = sodass − σ2a2 > −1. Dann ist s0 := limε→0+ s(ε) ∈ R. M e 2by σ2 y − 2a2 σ M →∞ dy −→ 1 s∞ ∞ b≥0 ∈ (0, ∞) b < 0 Somit gilt P(T0x = ∞) = 0 falls b ≥ 0. Falls b < 0, so ist s(x) = s0 P(T0x < ∞) + s∞ P(T0x = ∞) = (s0 − s∞ )P(T0x < ∞) + s∞ . Nun ist s stetig differenzierbar mit s0 (x) > 0 und damit auch x 7→ P(T0x < ∞) d und dx P(T0x < ∞) > 0. Das kann aber nur dann der Fall sein, wenn P(T0x < ∞) ∈ (0, ∞). 108 7 Der Satz von Girsanov 7.1 Exponentielle Martingale Sei M ∈ Mc,loc mit M0 = 0. Setzen Zt = exp(Mt − 21 [M ]t ). Mit der Itô-Formel folgt 1 1 dZt = Zt (dMt − d[M ]t ) + Zt dMt dMt = Zt dMt , 2 2 somit gilt auch Z ∈ Mc,loc . Definition 7.1. Wir nennen Z das stochastische Exponential von M , und schreiben Z = E(M ). Proposition 7.2. Sei M ein nicht-negatives stetiges lokales Martingal. Dann ist M ein Supermartingal. Beweis: Sei (Tn )n≥1 eine reduzierende Folge für M . Dann gilt für 0 ≤ s ≤ t E(MTn ∧t |Fs ) = MTn ∧s . Die rechte Seite konvergiert f.s. gegen Ms für n → ∞. Für die linke Seite gilt mit der bedingten Version des Fatou’schen Lemmas E(Mt |Fs ) = E(lim inf MTn ∧t |Fs ) ≤ lim inf E(MTn ∧t |Fs ) . n n Proposition 7.3 (Exponentielle Martingalungleichung). Sei M ∈ Mc,loc mit M0 = 0. Dann gilt für alle ε, δ > 0 ε2 P(sup Mt ≥ ε und [M ]∞ ≤ δ) ≤ e− 2δ . t≥0 Beweis: Sei ε > 0 und setze T := inf{t ≥ 0 : Mt ≥ ε}. Sei θ ≥ 0 und setze 1 Zt = exp(θMtT − θ2 [M ]Tt ) . 2 Dann ist Z = E(θM T ) ∈ Mc,loc , |Z| ≤ eθε , sodass Z ein beschränktes Martingal ist. Insbesondere existiert Z∞ fast sicher. Somit ist E(Z∞ ) = E(Z0 ) = 1. Für δ > 0 gilt nun 1 2 P(sup Mt ≥ ε und [M ]∞ ≤ δ) ≤ P(Z∞ ≥ eθε− 2 θ δ ) , t≥0 109 7 Der Satz von Girsanov da {supt≥0 Mt ≥ ε und [M ]∞ ≤ δ} ⊆ {T < ∞ und [M T ]∞ ≤ δ} und auf dieser 1 2 [M T ] Menge ist Z∞ = eθε− 2 θ ∞ 1 2 ≥ eθε− 2 θ δ . Weiters gilt 1 2 1 2 δ P(Z∞ ≥ eθε− 2 θ δ ) ≤ e−θε+ 2 θ mit der Tschebyscheff-Ungleichung. Wir setzten nun das θ ein, welches die rechte Seite minimiert und erhalten die Behauptung. Proposition 7.4. Sei M ∈ Mc,loc mit M0 = 0 und derart, dass [M ] gleichmäßig beschränkt ist. Dann ist E(M ) ein UI Martingal. Beweis: Sei also [M ] ≤ C. Aus der exponentiellen Martingalungleichung folgt ε2 P(sup Mt ≥ ε (und [M ]∞ ≤ C)) ≤ e− 2C . t≥0 Nun ist supt≥0 E(M )t ≤ exp(supt≥0 Mt ). Somit ist E(sup E(Mt )) ≤ E(exp(sup Mt )) t≥0 t≥0 Z ∞ = P(sup Mt ≥ log λ)dλ t≥0 ∞ 0 Z ≤ 1+ exp(− 1 (∗) (log λ)2 )dλ < ∞ . 2C Somit ist E(M ) UI, und mit Proposition 4.45 ein Martingal. Beweis von (*): Z ∞ Z P(X ≥ log λ)dλ = 0 ∞ Z E(1X≥log λ )dλ = E 0 Z = E ∞ 1X≥log λ dλ 0 ∞ 1exp(X)≥λ dλ = E(eX ) . 0 Bemerkung: Die Forderung nach der gleichmäßigen Beschränktheit der quadratischen Variation wirkt etwas stark, da ja nicht einmal die Brown’sche Bewegung (als Standardbeispiel für ein braves Martingal) diese erfüllt. Tatsächlich werden wir den Satz meist auf ein gestopptes Martingal, M T für T ∈ R+ oder T eine Stoppzeit, anwenden. Satz 7.5 (Satz von Girsanov). Sei M ∈ Mc,loc mit M0 = 0. Sei Z = E(M ) ein UI Martingal. Dann können wir ein neues Wahrscheinlichkeitsmaß P̃ auf (Ω, F) definieren durch P̃(A) = E(Z∞ 1A ) , A∈F, und P̃ ist absolutstetig bezüglich P. Weiters gilt für jedes X ∈ Mc,loc (P) dass X − [X, M ] ∈ Mc,loc (P̃) . 110 7.1 Exponentielle Martingale Beweis: Da Z UI ist, existiert Z∞ f.s., Z∞ ≥ 0 und E(Z∞ ) = E(Z0 ) = 1. Somit ist P̃ ein Wahrscheinlichkeitsmaß, welches absolutstetig ist bezüglich P. Sei X ∈ Mc,loc (P) und setze Tn := inf{t ≥ 0 : |Xt − [X, M ]t | ≥ n} . Dann gilt P̃(Tn ↑ ∞) = 1 sodass es genügt zu zeigen, dass Y Tn = X Tn − [X Tn , M ] ∈ Mc (P̃) für alle n. Wir können uns also auf den Fall beschränken, dass Y gleichmäßig beschränkt ist. Mit der Produktformel gilt d(Zt Yt ) = Zt dMt (Xt − [X, M ]t ) + Zt (dXt − dXt dMt ) + Zt dMt dXt = Zt (Xt − [X, M ]t )dMt + Zt dXt , sodass ZY ∈ Mc,loc (P). Weiters ist {ZT : T eine beschränkte Stoppzeit} UI, somit auch {ZT YT : T eine beschränkte Stoppzeit}. Daher ist ZY ein P-Martingal, nach Proposition 4.45. Seien nun s < t und A ∈ Fs . Dann gilt Ẽ((Yt − Ys )1A ) = E(Z∞ (Yt − Ys )1A ) = E(Z∞ Yt 1A ) − E(Z∞ Ys 1A ) = E(E(Z∞ Yt 1A |Ft )) − E(E(Z∞ Ys 1A |Fs )) = E(E(Z∞ |Ft )Yt 1A ) − E(E(Z∞ |Fs )Ys 1A ) = E((Zt Yt − Zs Ys )1A ) = 0 sodass also Y ein P̃-Martingal ist. Bemerkung: Sei X ein P-Semimartingal. Dann gilt X = N + A = (N − [N, M ]) + ([N, M ] + A) , sodass X auch ein P̃-Semimartingal ist. Die Menge der Semimartingale ist also invariant unter solch einem Übergang zu einem anderen Wahrscheinlichkeitsmaß. Wir müssen uns immer überlegen, welche der verwendeten Sätze und welche Eigenschaften vom Maß abhängen. Offenbar überträgt sich Konvergenz fast sicher, aber auch Konvergenz in Wahrscheinlichkeit und auch Konvergenz in Wahrscheinlichkeit gleichmäßig auf den Kompakta. Da wir gesehen haben, dass sich zumindest unter gewissen Regularitätsbedingungen stochastische Integrale als Limiten von Riemannsummen u.c.p. darstellen lassen, bleibt auch das stochastische Integral unverändert. Beispiel: Sei Mt = νBtt0 , wo B eine Brown’sche Bewegung ist. Sei X = B t0 . Dann ist Z∞ = eνBt0 − ν2 t 2 0 eine Dichte und laut dem Satz von Girsanov ist Xt − [X, M ]t = Btt0 − ν(t ∧ t0 ) 111 7 Der Satz von Girsanov ein lokales Martingal bezüglich dem durch diese Dichte definierten Maß. Ist X − [X, M ] aber eine gestoppte Brown’sche Bewegung? Satz 7.6 (Lévy’s Charakterisierung der B.B.). Seien X 1 , . . . , X n ∈ Mc,loc mit [X i , X j ]t = δij t und X0j = 0 für j = 1, . . . , n. Dann ist der Prozess X = (X 1 , . . . , X n ) eine Brown’sche Bewegung im Rn . Beweis: Es genügt zu zeigen, dass für 0 ≤ v < u die Zufallsvariable Xu − Xv unabhängig von Fv und N (0, (u − v)I) verteilt ist. Da eine Verteilung durch ihre charakteristische Funktion eindeutig bestimmt ist, ist das gleichbedeutend damit, zu zeigen, dass 1 E(exp(ihθ, Xu − Xv i)|Fv ) = exp(− |θ|2 (u − v)) 2 für θ ∈ Rn . (∗) Für ein festes θ setze Yt := hθ, Xt i = θ1 Xt1 + · · · + θn Xtn . Dann ist Y ∈ Mc,loc und d[Y ]t = dYt dYt = (θ1 dXt1 + · · · + θn dXtn )(θ1 dXt1 + · · · + θn dXtn ) = |θ|2 dt nach Voraussetzung, sodass Yt = |θ|2 t. Betrachte 1 1 Zt = exp(iYt + [Y ]t ) = exp(ihθ, Xt i + |θ|2 t). 2 2 Die Itô-Formel1 ergibt 1 1 dZt = Zt (idYt + d[Y ]t ) + Zt i2 d[Y ]t = iZt dYt , 2 2 sodass Z ein lokales Martingal ist, gleichmäßig beschränkt auf [0, t] für alle t, und somit ein Martingal. Somit gilt E(Zu |Fv ) = Zv , was gleichbedeutend ist mit (∗). Wir kehren zurück zum vorigen Beispiel: [X−[X, M ]]t = [X, X]t = [B t0 , B t0 ]t = t ∧ t0 . Somit ist also X − [X, M ] nicht nur ein Martingal bezüglich des neuen Maßes, sondern auch wieder eine gestoppte Brown’sche Bewegung. Eins bleibt noch zu bemerken: bezüglich welchem Maß haben wir [X, M ] zu berechnen? Das ist egal, solange die Maße äquivalent sind! [.] ist ja definiert als Limes u.c.p., und dieser ist für äquivalente Maße fast sicher gleich. 1 Genaugenommen benötigen wir eine einfache Verallgemeinerung der Itô-Formel auf komplexwertige Funktionen. 112 7.2 Kazamaki- und Novikov-Kriterium 7.2 Kazamaki- und Novikov-Kriterium Im Folgenden sei T die Menge aller beschränkten Stoppzeiten. Satz 7.7. Sei M ∈ Mc,loc mit M0 = 0. Dann gilt für alle T ∈ T 1 1 1 E(e 2 MT ) ≤ E(e 2 [M ]T ) 2 . 1 1 1 1 1 1 2 2 Beweis: E(M ) 2 = eM − 2 [M ] = e 2 M e− 2 [M ] , sodass 1 1 1 1 2 e 2 MT = E(M )T2 e 2 [M ]T 1 1 1 1 2 M [M ] 2 T T E e2 = E E(M )T e 2 1 1 1 2 . = E (E(M )T ) 2 E e 2 [M ]T Aber E (E(M )T ) ≤ E (E(M )0 ) = 1, nach dem OST2 , da E(M ) ein Supermartingal ist laut Proposition 7.2. Im vorigen Satz können im Allgemeinen beide Erwartungswerte unendlich sein, was uns aber bei der Anwendung des Satzes nicht stören wird. Wir werden folgenden einfachen Sachverhalt brauchen: Lemma 7.8. Sei (Xλ )λ∈Λ eine Familie von Lp -beschränkten Zufallsvariablen, 1 < p < ∞. Dann ist (Xλ )λ∈Λ gleichmäßig integrierbar. Beweis: Sei E(|Xλ |p ) < A für alle λ ∈ Λ. Für v ≥ K > 0 ist trivialerweise v ≤ K 1−p v p , sodass E(|Xλ |; |Xλ | > K) ≤ K 1−p E(|Xλ |p ; |Xλ | > K) ≤ K 1−p A . Lemma 7.9. Sei M ∈ Mc,loc mit M0 = 0 und sei 1 < p < ∞, weiters √p √ MT 2( p−1) sup E e < ∞. 1 p + 1 q = 1. Sei T ∈T Dann ist E(M ) ein Lq -beschränktes Beweis: Sei K := supT ∈T sodass 2 1 r + 1 s Martingal. √p √ MT 2( p−1) E e . Sei r = √ p+1 √ p−1 √ und sei s = p+1 2 , = 1. Unser OST (stetige Version) hat eine Aussage über Martingale getroffen. Man bräuchte noch eine geeignete Version für Supermartingale. 113 7 Der Satz von Girsanov Sei S eine beschränkte Stoppzeit. E(E(M )qS ) q E(eqMS − 2 [M ]S ) √q √q q E(e r MS − 2 [M ]S e(q− r )MS ) √ rq √q rq 1 1 E(e 2 MS − 2 [M ]S ) r E(e(q− r )sMS ) s = = Hölder ≤ 1 √ p 1 √ √ M s E(E( rqM )S ) r E(e 2( p−1) S ) . {z } {z } | | = ≤K ≤1 Also ist (E(M )S )S∈T Lq -beschränkt. Nach Lemma 7.8 ist diese Familie von Zufallsvariablen also gleichmäßig integrierbar. Sei nun (Tn )n≥1 eine reduzierende Folge für E(M ). Dann ist für jede beschränkte Stoppzeit S der Prozess (E(M )Tn ∧S )n≥1 ein gleichmäßig integrierbares Martingal, mit limn E(M )Tn ∧S = E(M )S f.s.. Nach Satz 3.42 ist limn E(M )Tn ∧S = E(M )S in L1 und somit insbesondere limn E(E(M )Tn ∧S ) = E(E(M )S ). Nach dem Optional Stopping Theorem Satz 4.42 ist aber E(E(M )Tn ∧S ) = E(E(M )0 ) für alle n, sodass also E(E(M )S ) = E(E(M )0 ). Da S ∈ T beliebig war, folgt wiederum aus dem Optional Stopping Theorem Satz 4.42, dass E(M ) ein Martingal ist. Natürlich ist auch (E(M )t )t≥0 Lq -beschränkt. Satz 7.10 (Kazamaki-Kriterium). Sei M ∈ Mc,loc mit M0 = 0 und 1 sup E e 2 MT < ∞ . T ∈T Dann ist E(M ) ein gleichmäßig integrierbares Martingal. 1 Beweis: Sei K := supT ∈T E e 2 MT . Sei 0 < a < 1 und p > 1 so, dass √ p √ p−1 < a1 . Dann ist √p 1 √ aMT 2( p−1) ≤ sup E e 2 MT < ∞ , sup E e T ∈T T ∈T sodass nach Lemma 7.9 das stochastische Exponential E(aM ) ein Lq -beschränkp tes Martingal ist, q = p−1 . Es ist E(aM ) = eaM − a2 [M ] 2 2 M − a2 [M ] 2 = ea 2 ea(1−a)M = E(M )a ea(1−a)M sodass für eine beschränkte Stoppzeit T Hölder 1 = E(E(aM )T ) ≤ = (∗) 114 2 1 1−a 2 E(E(M )T )a E (ea(1−a)MT ) 1−a2 1 1−a2 2 E(E(M )T )a E e 1+a MT a2 1 MT 2 2 (1−a2 )a ≤ E(E(M )T ) E e ≤ E(E(M )T )a K 2(1−a)a , 2 1+a 7.3 Einschub: M -integrierbare Prozesse wo wir in (∗) verwendet haben, dass für 1 < q stets k.k1 ≤ k.kq . Wir lassen nun a gegen 1 gehen. Dann folgt 1 ≤ E(E(M )T ). Andererseits ist, da E(M ) ein Supermartingal ist, E(E(M )T ) ≤ E(E(M )0 ) = 1. Also ist E(E(M )T ) = E(E(M )0 ) für jede beschränkte Stoppzeit, sodass E(M ) nach dem Optional Stopping Theorem Satz 4.42 ein Martingal ist. Wir müssen noch zeigen, dass E(M ) gleichmäßig integrierbar ist. Wir kehren zurück zu unserer vorigen Überlegung: für 0 < a < 1 ist 2 E(aM ) = E(M )a ea(1−a)M . Da E(aM ) und E(M ) als positive Supermartingale fast sicher konvergieren, muss ea(1−a)M auf {E(M )∞ 6= 0} konvergieren. Also 2 E(aM )∞ = E(M )a∞ lim inf ea(1−a)Mt . t Dieselbe Rechnung wie vorher ergibt 2(1−a)a 1 2 1 = E(E(aM )∞ ) ≤ E(E(M )∞ )a E lim inf e 2 Mt . t 1 1 Nach dem Lemma von Fatou ist E lim inf t e 2 Mt ≤ lim inf t E(e 2 Mt ) ≤ K. Wir haben also 1 ≤ E(E(M )∞ ) ≤ E(E(M )0 ) = 1. Nun ist E(E(M )∞ |Ft ) ≤ E(M )t für t ∈ [0, ∞) und E(E(M )t −E(E(M )∞ |Ft )) = E(E(M )t ) − E(E(M )∞ ) = 0, sodass also E(E(M )∞ |Ft ) = E(M )t . Damit ist aber (E(M )t )t≥0 gleichmäßig integrierbar nach Lemma 3.40. Satz 7.11 (Novikov-Kriterium). Sei M ∈ Mc,loc mit M0 = 0 und 1 E e 2 [M ]∞ < ∞ . Dann ist E(M ) ein gleichmäßig integrierbares Martingal. Beweis: Laut Satz 7.7 ist für jede beschränkte Stoppzeit T 1 1 1 1 1 E(e 2 MT ) ≤ E(e 2 [M ]T ) 2 ≤ E(e 2 [M ]∞ ) 2 < ∞ . Damit folgt die Aussage aus dem Kazamaki-Kriterium Satz 7.10. 7.3 Einschub: M -integrierbare Prozesse Wir erinnern uns an die Konstruktion des Itô-Integrals bezüglich eines lokalen Martingals. Zunächst hatten wir den Vektorraum L2 (M ) für M ∈ M2c . Dann hatten wir lokal beschränkte vorhersehbare Prozesse H definiert, welche wir bezüglich eines beliebigen stetigen lokalen Martingals M integrieren konnten, indem wir eine reduzierende Folge (Tn )n≥1 für H und M betrachteten, sodass automatisch H1(0,Tn ] ∈ L(M Tn ) ). Damit konnten wir H • M := lim H1(0,Tn ] • M Tn n→∞ u.c.p. 115 7 Der Satz von Girsanov definieren. Der Vorteil von lokal beschränkten Prozessen ist der, dass für sie automatisch das Integral bezüglich jedes lokalen Martingals erklärt ist. Der Nachteil ist, dass lokal beschränkt“ manchmal eine etwas zu starke Voraussetzung ist, da etwa ” ein lokal beschränkter Prozess nicht in endlicher Zeit gegen unendlich gehen darf. In der Finanzmathematik, wo Handelsstrategien durch gewisse vorhersehbare Prozesse beschrieben werden, will man so etwas aber (theoretisch) zulassen. Wir definieren also einen Integrierbarkeitsbegriff für stetige lokale Martingale. Definition 7.12. Sei M ∈ Mc,loc . Wir nennen einen vorhersehbaren Prozess H integrierbar bezüglich M (bzw. M -integrierbar), falls Z P( t H 2 d[M ] < ∞) = 1 0 für alle t ∈ [0, ∞). Nun wollen wir aber auch das Integral eines integrierbaren Prozesses definieren. Sei also H integrierbar bezüglich M ∈ Mc,loc . Definiere Z Tn := inf{t ≥ 0 : [M ]t = n}∧inf{t ≥ 0 : |Mt | = n}∧inf{t ≥ 0 : t H 2 d[M ] = n} . 0 Offenbar ist (Tn )n≥1 eine reduzierende Folge für M und H1(0,Tn ] ∈ L2 (M Tn ). Wir können also wieder definieren H • M := lim H1(0,Tn ] • M Tn n→∞ u.c.p. Definition 7.13. 1. Sei A ein Prozess von beschränkter Variation. Wir nennen einen vorhersehbaren Prozess H integrierbar bezüglich A (bzw. Aintegrierbar), falls für alle t ∈ [0, ∞), fast jeder Pfad von H bezüglich dem entsprechenden Pfad von A integrierbar ist auf [0, t], im Sinne von Lebesgue-Stieltjes. 2. Sei X ein stetiges Semimartingal mit Zerlegung X = X0 + M + A. Wir nennen einen vorhersehbaren Prozess H integrierbar bezüglich X (bzw. X-integrierbar), falls H integrierbar bezüglich M und A ist. Die Eigenschaft integrierbar“ ist nicht zwangsweise invariant gegenüber Gir” sanov-Maßwechsel: X = N + A = (N − [N, M ]) + ([N, M ] + A) , Der Prozess H ist genau dann N -integrierbar bezüglich P wenn er N − [N, M ]integrierbar ist bezüglich P̃, da [N − [N, M ]] = [N ]. Die Integrierbarkeit von H bezüglich X im Maß P̃ ist also genau dann gegeben, wenn H bezüglich [N, M ] integrierbar ist. Ein trivialer aber dennoch wichtiger Spezialfall, für welchen das gegeben ist, ist [N, M ] = −A. 116 7.4 Marktmodelle II 7.4 Marktmodelle II Wir betrachten nun eine recht allgemeine Klasse von Marktmodellen: ein Markt werde beschrieben durch ein d + 1-dimensionales stetiges3 Semimartingal S = (S 0 , . . . , S d ), wobei S 0 f.s. positiv sei mit beschränkter Variation. Für den Handel in so einem Markt wird nun eine Reihe von (unrealistischen) Annahmen gemacht: • Man kann jede beliebige reelle Stückzahl eines Wertpapiers halten, also zB. π4 Stück von Wertpapier 1, insbesondere auch negative Stückzahlen (Leerverkauf, shortselling); • Es gibt keine Transaktionskosten und keinen bid-ask-spread, das heißt man kann ein Stück von Wertpapier j zu einem beliebigen Zeitpunkt t in genau S j /S k Stück von Wertpapiers k tauschen (zumindest für S k 6= 0); • Es herrscht unbeschränkte Liquidität, das heißt man kann zu jedem Zeitpunkt beliebig viele Stück eines Wertpapiers kaufen oder verkaufen (bzw. tauschen), ohne dessen Preis zu verändern. Nun muss man sich Gedanken machen, welche Möglichkeiten ein Marktteilnehmer hat zu handeln. Ein Portfolio ist ein d + 1-dimensionaler Vektor h = (h0 , . . . , hd ), welcher beschreibt, wieviele Stück jedes Wertpapiers von einem Marktteilnehmer gehalten werden. Der PWert eines Portfolios h zum Zeitpunkt t ist dann definiert durch Vt (h) := dj=0 hj Stj = h · St . Nun wollen wir aber auch zeitlich veränderliche Portfolios, sogenannte Handelsstrategien zulassen. Eine natürliche Wahl wäre etwa H= ∞ X hk 1(Tk ,Tk+1 ] k=0 mit Stoppzeiten 0 = T0 ≤ T1 ≤ ... und hk ∈ FTk . Der Wertprozess wäre dann wieder Vt (H) := Ht · St für t > 0 und V0 (H) := h0 · S0 . Eine solche Handelsstrategie würden wir selbstfinanzierend nennen, falls für jedes k hk · STk+1 = hk+1 · STk+1 auf {Tk+1 < ∞} gilt, das heißt wenn das neue“ Portfolio nach einer Umschichtung stets den ” Wert des alten“ hat, also weder etwas hinzugefügt noch weggenommen wird. ” In diesem Fall gilt Vt (H) = V0 (H) + ∞ X k=0 3 Z hk (STk+1 ∧t − STk ∧t ) = V0 (H) + t Hs dSs . 0 Eine offensichtliche Verallgemeinerung erhält man durch weglassen von stetig’”. Dazu muss ” man dann aber auch eine entsprechende Integrationstheorie entwickeln. Dies wird wird etwa gemacht in [RW00] oder [Pro04]. 117 7 Der Satz von Girsanov Diese Handelsstrategien stellen sich nun vom theoretischen Standpunkt aus als etwas zu sperrig heraus4 . Stattdessen definieren wir: Definition 7.14. • Unter einer Handelsstrategie verstehen wir einen (d + 1)-dimensionalen angepassten Prozess H = (H 0 , . . . , H d ) so, dass H j |(0,∞) integrierbar ist bezüglich S j und S 0 für jedes j. • Ist H eine Handelsstrategie, so ist der zugehörige Wertprozess V (H) definiert durch Vt (H) = Ht · St , t ≥ 0. • Wir nennen eine Handelsstrategie H selbstfinanzierend, falls V (H) = V0 (H) + d X H j • Sj . j=0 Wir betrachten nun auch den abgezinsten Markt“: für einen beliebigen reell” t wertigen Prozess X sei X̃t := X , t ≥ 0. Man beachte, dass S̃ 0 ≡ 1. S0 t Lemma 7.15. Sei K vorhersehbar und sei 1 ≤ j ≤ d. 1. K ist genau dann S 0 -integrierbar, wenn K integrierbar ist bezüglich 1 . S0 2. Ist K integrierbar bezüglich S 0 und S j , dann auch bezüglich S̃ j . 3. Ist K integrierbar bezüglich S 0 und S̃ j , dann auch bezüglich S j . Beweis: 1. Mit der Ito-Formel ist d( S10 ) = − (S10 )2 dS 0 . Für eine Stoppzeit T ist also Z T Z T 1 1 |K| d| 0 | = |K| 0 2 d|S 0 | , S (S ) 0 0 und da (S10 )2 lokal beschränkt (weil S0 stetig und 6= 0 ist, folgt eine Richtung. Die andere Richtung folgt weil (S 0 )2 lokal beschränkt ist. 2. Schreibe S j = S0j +M +A, wo M ein lokales Martingal und A von beschränkter Variation. K ist somit genau dann S j integrierbar, wenn K sowohl M - als auch A-integrierbar ist. Mit der Itô-Formel folgt dS̃tj = d((St0 )−1 Stj ) = Stj d((St0 )−1 ) + (St0 )−1 dStj = −Stj (St0 )−2 dSt0 + (St0 )−1 dStj = −Stj (St0 )−2 dSt0 + (St0 )−1 dMt + (St0 )−1 dAt . K ist S0 - und A-integrierbar, Stj (St0 )−2 und (St0 )−1 sind lokal beschränkt, also folgt wie unter 1, dass K integrierbar ist bezüglich −S j (S 0 )−2 • S 0 + (S 0 )−1 • A. K ist M -integrierbar und (S 0 )−1 ist lokal beschränkt, also ist K integrierbar bezüglich (S 0 )−1 • M . 4 Zumindest sind sie ungeeignet, falls man etwa die Black-Scholes-Formel zur Optionsbewertung herleiten will oder eine geeignete Form des Fundamental Theorem of Asset Pricing beweisen möchte. 118 7.4 Marktmodelle II 3. Geht ähnlich wie 2. Ist also H eine Handelsstrategie, so ist H auch integrierbar bezüglich S̃. Weiters gilt für den Wertprozess dṼ (H)t = −V (H)t (St0 )−2 dSt0 + (St0 )−1 dV (H)t , und insbesondere für H selbstfinanzierend, sodass dVt (H) = Ht · dSt , dṼt (H) = −(St0 )−2 Vt (H)dSt0 + (St0 )−1 dVt (H) d X = −(St0 )−2 Htj Stj dSt0 + (St0 )−1 j=0 = d X d X Htj dStj j=0 Htj −(St0 )−2 Stj dSt0 + (St0 )−1 dStj = j=0 d X Ht dS̃t . j=0 Hier erstreckt sich das Skalarprodukt in der letzten Zeile über d Summanden, da dS̃ 0 ≡ 0. Das folgende Lemma zeigt, dass man diesen Weg auch zurückgehen kann. Lemma 7.16. Sei v0 ∈ R und K = (K 1 , . . . , K d ) ein vorhersehbarer, Rd wertiger, (S̃ 1 , . . . , S̃ d )-integrierbarer Prozess so, dass K j für jedes j = 1, . . . , n integrierbar ist bezüglich S 0 . Dann gibt es eine eindeutig bestimmte selbstfinanzierende Handelsstrategie H mit V0 (H) = v0 so, dass j Kt für t > 0, j Ht = 0 für t = 0 . j = 1, . . . , d. Beweis: Zunächst fragen wir uns, wie ein solcher Prozess H 0 aussehen müsste. Offenbar muss H00 = Sv00 gelten und 0 Ht0 = Ṽt (H) − d X Htj S̃tj j=1 = d X d X v0 j j + (H • S ) − Htj S̃tj . t S00 j=1 j=1 Damit ist die Eindeutigkeit gezeigt. Wir zeigen noch, dass der so definierte Prozess H 0 bezüglich S 0 integrierbar ist. P Wir definieren einen Prozess Y durch Ỹ := Sv00 + dj=1 K j • S̃ j und H 0 := Ỹ − 0 Pd Pd j S̃ j , sodass Y = j S j gilt und Ỹ ein Semimartingal ist. Weiters K H j=1 j=0 ist H 0 vorhersehbar: für einfache Integranden K j ist H 0 linksstetig (nachrechnen) und damit vorhersehbar, für allgemeine Integranden ist H 0 vorhersehbar als Limes vorhersehbarer Prozesse. H 0 ist integrierbar bezüglich S 0 , da Ỹ als stetiger Prozess das ist und da alle K j das sind und alle S̃ j lokal beschränkt sind, vergleiche mit Lemma 7.15. 119 7 Der Satz von Girsanov Weiters gilt mit Itô-Formel und Lemma 7.15 dYt = d(St0 Ỹt ) = Ỹt dSt0 + St0 dỸt = d X Htj S̃tj dSt0 + St0 = Htj dS̃tj j=0 j=0 d X d X Htj (S̃tj dSt0 + St0 dS̃tj ) = j=0 d X Htj dStj . j=0 Da Y = V (H), ist H also selbstfinanzierend. Wir können also im Wesentlichen anstelle des Marktes S mit selbstfinanzierenden Strategien den abgezinsten Markt S̃ mit d-dimensionalen integrierbaren Prozessen untersuchen. Dabei dürfen wir S̃ als d-dimensionalen Prozess auffassen, indem wir die erste Komponente,P die ja konstant 1 ist, ignorieren. Wir schreiben im Folgenden G̃(H) := dj=1 H j • S̃ j . Ein S̃-integrierbarer Prozess H heißt zulässig, falls es ein c ∈ [0, ∞) gibt mit P(G̃t (H) ≥ −c für alle t ≥ 0) = 1 . Die Interpretation ist klar: zwar darf der abgezinste Wertprozess (= v0 /S 0 + G̃(H)) der zugehörigen selbstfinanzierenden Handelsstrategie negativ werden, es muss aber von vornherein klar sein, wie negativ er werden kann. Angenommen wir wüssten, dass es ein äquivalentes Wahrscheinlichkeitsmaß P̃ ∼ P gibt so, dass S̃ ein lokales Martingal ist. Dann wäre für eine zulässige Handelsstrategie H auch G̃(H) ein lokales Martingal, nach unten beschränkt und somit ein Supermartingal nach Proposition 7.2. Daraus würde nach Satz 4.30 (Vorwärts-Konvergenz) folgen, dass G̃∞ (H) P̃-f.s. existiert. Damit würde G̃∞ (H) auch P-f.s. existieren. Allgemein muss G̃∞ (H) natürlich nicht existieren. Wir definieren n o K0 := G̃∞ (H) : H ist zulässig und G̃∞ (H) existiert f.s. wir fassen K0 als Teilmenge von L0 = L0 (Ω, F, P) auf, dem Vektorraum der Äquivalenzklassen der messbaren Funktionen unter der Äquivalenzrelation Gle” ichheit f.s.“. C0 sei die Menge der Funktionen in L0 , welche durch ein Element von K0 dominiert werden, C0 := K0 − L0+ . L∞ bezeichne wie üblich den Raum der Äquivalenzklassen der wesentlich beschränkten Funktionen. Weiters sei K = K0 ∩ L∞ und C = C0 ∩ L∞ C̄ bezeichne den Abschluss von C in L∞ . Definition 7.17. Wir sagen das Semimartingal S̃ erfüllt die Bedingung 1. no arbitrage (NA), falls C ∩ L∞ + = {0}; 2. no free lunch with vanishing risk (NFLVR), falls C̄ ∩ L∞ + = {0}. Was besagt (NA)? Angenommen S̃ erfüllt dies nicht. Dann gibt es also X ∈ C ∩ L∞ + \{0}, also einen zulässigen Prozess H derart, dass G̃∞ (H) existiert 120 7.4 Marktmodelle II sowie eine nichtnegative reelle Zufallsvariable Z mit X = G̃∞ (H) − Z und X ≥ 0 und X essentiell beschränkt, aber P(X > 0) > 0. Wenn ein Händler also H verfolgt, so kann er vom erwirtschafteten Gewinn G̃∞ (H) am Schluss Z ≥ 0 wegerfen, und hat noch immer mit Sicherheit keinen Verlust und mit positiver Wahrscheinlichkeit einen Gewinn. Die Existenz solcher Strategien möchte man in der Finanzmathematik natürlich ausschließen (während man im realen Leben gerne eine solche Strategie finden würde). Was besagt (NFLVR)? Angenommen S̃ erfüllt dies nicht. Dann gibt es also X ∈ C̄ ∩ L∞ + \{0}. Es gibt dann eine Folge (Hn )n≥1 von zulässigen Prozessen sowie eine Folge (Zn ) von nichtnegativen reellen Zufallsvariablen so, dass G̃∞ (Hn ) für jedes n existiert und X = limn G̃∞ (Hn ) − Zn in L∞ . Abbildung 7.1 illustriert diesen Sachverhalt. Ein free lunch with vanishing risk“ ist also eine Folge, ” die ein Arbitrage in gewisser Weise approximiert. Auch so etwas möchte man verbieten. G̃∞ (Hn ) − Zn G̃∞ (Hn ) X+ X X− 0 1 n 1 n Abbildung 7.1: Free lunch with vanishing risk. Die folgenden Behauptungen gelten noch viel allgemeiner als in unserem Kontext, nämlich für lokal beschränkte Semimartingale, welche nicht stetig zu sein brauchen. Die Integrationstheorie für solche Prozesse ist wesentlich aufwendiger als die hier präsentierte. Aber auch für unseren Kontext sind sie interessant und alles andere als trivial. Satz 7.18. Wenn S̃ die Bedingung (NFLVR) erfüllt, dann existiert G̃∞ (H) f.s. und ist endlich für jeden zulässigen Prozess H. Beweis: Theorem 3.3 in [DS94]. Wir sagen P̃ ist ein äquivalentes Martingalmaß (EMM) für S̃, wenn P ∼ P̃ und wenn S̃ ein Martingal ist bezüglich P̃. Wir sagen P̃ ist ein äquivalentes lokales Martingalmaß (ELMM) für S̃, wenn P ∼ P̃ und wenn S̃ ein lokales Martingal ist bezüglich P̃. Die folgenden Sätze sind beide vom Typ Fundamental Theorem of Asset ” Pricing“ (FTAP): Satz 7.19 (FTAP). Sei S̃ ein beschränktes Semimartingal. Es gibt genau dann ein EMM, wenn S̃ (NFLVR) erfüllt. 121 7 Der Satz von Girsanov Beweis: Theorem 1.1 in [DS94]. Satz 7.20 (FTAP). Sei S̃ ein lokal beschränktes Semimartingal. Es gibt genau dann ein ELMM, wenn S̃ (NFLVR) erfüllt. Beweis: Corollary 1.2 in [DS94]. Bisher haben wir nur Märkte mit einem unendlichen Zeithorizont betrachten. Das ist aber keine Beschränkung der Allgemeinheit: ein Markt mit endlichen Horizont [0, t0 ] kann aufgefasst werden als einer mit unendlichem Horizont, in welchem die Preisprozesse nach t0 sämtlich konstant sind. Dann ist natürlich G̃∞ (H) = G̃t0 (H). Inwiefern ist ein EMM oder ELMM nun interessant beziehungesweise nützlich? Wir betrachten sogenannte contingent claims, das sind Wertpapiere deren Preis von der Entwicklung anderer Wertpapiere abhängt. Ein prominentes Beispiel ist die sogenannte europäische Putoption auf eine Aktie: eine solche verbrieft ihrer Inhaberin das Recht, aber nicht die Pflicht, ein Stück dieser Aktie zu einem festgelegtem Zeitpunkt t0 zu einem festgelegten Preis K zu verkaufen. Was kann über den Preisprozess einer solchen Putoption gesagt werden? Sei S 1 der Preisprozess der zugehörigen Aktie. Ist St10 ≥ K, so ist die Option wertlos, da die Aktie am Markt besser verkauft werden kann als durch die Option. Wenn jedoch St10 < K, dann kann die Aktie um den Preis K anstelle des Preises St10 verkauft werden. Der Wert der Option ist demnach in diesem Fall K −St10 . Insgesamt ist der Wert der Option zum Zeitpunkt t0 also max(K − St10 , 0). Das ganze funktioniert auch dann, wenn die Inhaberin der Putoption gar keine Aktie zum verkaufen hat. Nach unseren Voraussetzungen kann sie nämlich die Aktie jederzeit zum Preis St10 kaufen und im selben Moment um K verkaufen (was wiederum nur dann sinnvoll ist, wenn St10 < K). Definition 7.21. Ein contingent claim ist eine beschränkte F∞ -messbare Zufallsvariable. Definition 7.22. • Ein contingent claim X̃ heißt super-hedgeable zum Preis a, falls es eine zulässige Strategie H gibt mit X̃ ≤ a + G̃∞ (H). X̃ heißt strictly super-hedgeable, wenn zusätzlich P(X̃ < a + G̃∞ (H)) > 0. • Ein contingent claim X heißt sub-hedgeable zum Preis a, falls es eine zulässige Strategie H gibt mit −X̃ ≤ −a + G̃∞ (H). X̃ heißt strictly subhedgeable, wenn zusätzlich P(−X̃ < −a + G̃∞ (H)) > 0. • a heißt arbitrage-freier Preis für X̃, falls X̃ weder strictly super-hedgable noch strictly sub-hedgable ist zum Preis a. • X̃ heißt replizierbar, falls es eine S̃-integrierbare Strategie H gibt sowie ein a mit X̃ = a + G̃∞ (H) und so, dass G̃(H) beschränkt ist. • Der Markt heißt vollständig, wenn jeder contingent claim replizierbar ist. 122 7.5 Marktmodelle III Sei X̃ replizierbar, sodass es also einen S̃-integrierbaren Prozess H gibt mit X̃ = a + G̃∞ (H) und so, dass G̃(H) beschränkt ist. Dann ist S̃td+1 := a + G̃t (H) ein stetiges Martigal unter P̃ und somit ist S d+1 ein sinnvoller Preisprozess in dem Sinne, dass der erweiterte Markt noch immer (NFLVR) erfüllt. Man bemerke, dass S̃td+1 = EP̃ (X̃|Ft ), bzw. im ursprünglichen Markt Std+1 = St0 EP̃ ( SX0 |Ft ). T Wir definieren ρ(X̃) := inf{a : X̃ ist super-hedgable zum Preis a} ρ(X̃) := sup{a : X̃ ist sub-hedgable zum Preis a} π(X̃) := sup{EP̃ (X̃) : P̃ ein ELMM für S̃} π(X̃) := inf{EP̃ (X̃) : P̃ ein ELMM für S̃} . Proposition 7.23. S̃ erfülle (NFLVR). Dann gelten π(X̃) = ρ(X̃) und π(X̃) = ρ(X̃). Beweis: Siehe [AST03], Part II, Chapter 5. Es gilt der folgende Satz: Satz 7.24. S̃ erfülle (NFLVR) und X̃ sei ein contingent claim. Dann ist entweder π(X̃) = π(X̃) und in diesem Fall ist X̃ replizierbar und der eindeutig bestimmte arbitragefreie Preis von X̃ ist π(X̃) = π(X̃), oder π(X̃) < π(X̃) und in diesem Fall ist (π(X̃), π(X̃)) = {EP̃ (X̃) : P̃ ein ELMM für S̃} = {a : a arbitragefreier Preis für X̃} . 7.5 Marktmodelle III Wir betrachten nun einfache Marktmodelle in Hinblick auf Maßwechsel bzw. auf (NFLVR). Beispiel 7.25. Black-Scholes Modell mit endlichem Zeithorizont: dSt0 = rSt0 dt dSt1 = St1 (µdt + σdBt ) für t ∈ [0, t0 ]. Es ist dS̃t1 = S̃t1 ((µ − r)dt + σdBt ). Wir schreiben nun B̄t = Bt + νt, sodass dS̃t1 = S̃t1 ((µ − r − σν)dt + σdB̄t ). ν2 Dann ist nach einem früheren Beispiel Z := e−νBt0 − 2 t0 eine Dichte und laut dem Satz von Girsanov und Lévy’s Charakterisierung der Brown’schen Bewegung, ist B̄t = Bt + νt eine gestoppte Brown’sche Bewegung bezüglich P̃ dP̃ = Z. mit dP Damit nun S̃ 1 ein Martingal ist unter P̃, muss ν = µ−r σ . Mit anderen Worten: für σ 6= 0 (was immer angenommen wird), erfüllt das Black-Scholes-Modell (NFLVR). 123 7 Der Satz von Girsanov Beispiel 7.26. Black-Scholes Modell mit unendlichem Zeithorizont: versuchen wir dieselbe Vorgangsweise nun bei Zeitbereich [0, ∞), so ist die Voraussetzung für den Satz von Girsanov nicht erfüllt: sei M = −νB, sodass E(M )t = e−νBt − ν2 t 2 . Warum sollte E(M ) ein U.I. Martingal sein? [M ] ist nicht gleichmäßig beschränkt, 1 1 E(e 2 [M ]∞ ) = ∞, limt→∞ E(e 2 Mt ) = ∞, sodass alle bisherigen Kriterien nicht erfüllt sind. Man kann nachrechnen, dass E(M ) nicht U.I. ist (aber ein Martingal). Der Satz von Girsanov liefert uns also kein ELMM. Aber gibt es vielleicht trotzdem ein solches? 2 Wir betrachten folgende Strategie H für den Fall, dass µ ≥ r + σ2 : leihe zum Zeitpunkt 0 S̃01 Stück von S 0 und kaufe damit ein Stück von S 1 . Warte, bis S̃t1 = 2S̃01 und verkaufe dann S 1 . Mathematisch Ht = (−S̃01 , 1)1[0,T ] + (S̃01 , 0)1(T,∞) , G̃t (H 1 ) ≥ −S̃01 1 G̃∞ (H ) = S̃01 ∀t ≥ 0 > 0, wo T = inf{t ≥ 0 : S̃t1 ≥ 2S̃01 }. (Hier haben wir verwendet, dass eine Brown’sche Bewegung mit nicht-negativer Drift jeden positiven Wert mit Wahrscheinlichkeit 1 erreicht.) Somit erfüllt das Black-Scholes-Modell in unendlicher Zeit nicht einmal (NA). Es kann also kein ELMM geben. 124 7.6 Cameron-Martin-Formel 7.6 Cameron-Martin-Formel Sei nun (W, W, µ) der Wiener’sche Raum, das heißt • W = C(R+ , R); • W = σ(Xt : t ≥ 0), wo Xt : W −→ R, Xt (w) = w(t) die Familie der Koordinatenabbildungen ist; • µ ist das Wiener-Maß, also das eindeutig bestimmte Wahrscheinlichkeitsmaß auf (W, W), welches den Prozess (Xt )t≥0 zu einer Brown’schen Bewegung macht. Definiere Z H := {h ∈ W : ht = t φs ds für ein φ ∈ L2 (R+ )} , 0 den sogenannten Cameron-Martin-Raum. Für h ∈ H schreiben wir ḣ für eine Version der schwachen Ableitung φ. Beispiele zur Motivation: 1. Betrachte R und sei µ =Lebesguemaß. Ist B eine messbare Menge, so gilt für jedes h ∈ R µ(B − h) = µ(B) , 2 2. Betrachte R und sei µ(dx) = exp(− x2 ). Ist B eine messbare Menge und h ∈ R, dann definieren wir µh (B) = µ(B − h). Es gilt x2 )dx = 2 (x − h)2 )dx 2 B−h B Z Z x2 h2 h2 = exp(− ) exp(hx − )dx = exp(hx − )µ(dx) , 2 2 2 B B µh (B) = sodass also Z dµh dµ exp(− = exp(−hx − Z exp(− h2 2 ). Eine ähnliche Formel erhalten wir im folgenden Satz. Satz 7.27 (Cameron-Martin-Formel). Sei h ∈ H und sei µh (A) := µ({w ∈ W : w + h ∈ A}) , A∈W. Dann ist µh ein Wahrscheinlichkeitsmaß auf W, absolut stetig bezüglich µ mit Dichte Z ∞ Z 1 ∞ dµh 2 (w) = exp ḣs dws − |ḣs | ds . dµ 2 0 0 R R∞ ∞ (Hier ist 0 ḣs dws := 0 ḣs dXt (w) ) 125 7 Der Satz von Girsanov Beweis: Setzen Wt := σ(Xs : s ≤ t) und Mt := M2c (W, W, µ, (Wt )t≥0 ) und Z ∞ [M ]∞ := |ḣs |2 ds < ∞ . Rt 0 ḣs dXs . Dann ist M ∈ 0 Aufgrund von Proposition 7.4 ist E(M ) ein UI Martingal, und somit können wir durch Z ∞ Z dµ̃ 1 ∞ 2 |ḣs | ds (w) = exp ḣs dws − dµ 2 0 0 ein Wahrscheinlichkeitsmaß auf (W, W) definieren. Nach dem Satz von Girsanov ist X̃ = X − [X, M ] ∈ Mc,loc (µ̃). Da [X̃]t = [X]t = t ist, folgt aus Lévy’s Charakterisierung,Rdass X̃ eine µ̃-Brown’sche Bewegung ist. t Aber [X, M ] = 0 ḣs ds = ht , sodass X̃(w) = X(w) − h = w − h ist. Somit gilt für A ∈ W µh (A) = µ({w : X(w) + h ∈ A}) = µ̃({w : X̃(w) + h ∈ A}) = µ̃({w : X(w) ∈ A}) = µ̃({w : w ∈ A}) = µ̃(A) . Somit ist µh = µ̃. 126 Literaturverzeichnis [AST03] S. Albeverio, W. Schachermayer, and M. Talagrand. Lectures on Probability Theory and Statistics. Ecole d’Eté de Probabilités de SaintFlour XXX – 2000. Springer, 2003. [DS94] Freddy Delbaen and Walter Schachermayer. A general version of the fundamental theorem of asset pricing. Math. Ann., 300(3):463–520, 1994. [Els09] J. Elstrodt. Maß- und Integrationstheorie. Springer, 2009. [LP] G. Leobacher and F. Pillichshammer. Übersicht Wahrscheinlichkeitstheorie. Skriptum, Universität Linz. [Pro04] Philip E. Protter. Stochastic integration and differential equations. 2nd ed. Applications of Mathematics 21. Springer, 2004. [RW00] L.C.G. Rogers and David Williams. Diffusions, Markov processes, and martingales. Vol. 2: Itô calculus. 2nd ed. Cambridge University Press, 2000. [Wil91] D. Williams. Probability with Martingales. Cambridge University Press, 1991. 127 Index ∆, 10 Lp -Ungleichung, 47 äquiv. lok. Martingalmaß, 121 äquiv. Martingalmaß, 121 angepasster Prozess, 32, 50 Arbitrage, 120 arbitrage-freier Preis, 122 bedingte Erwartung, 29 beschränkte Variation, 16 bid-ask-spread, 117 Black-Scholes-Modell, 106 Brown’sche Bewegung geometrische, 93 mit Drift, 93 càdlàg, 20 CIR-Modell, 107 contingent claim, 122 Cox-Ingersoll-Ross-Modell, 107 Doob’s Lp -Ungleichung, 47, 57 Satz v.d. Vorwärts-Konv., 39, 56 Submartingal-Ungl., 46, 57 Upcrossing Lemma, 39 Doob-Zerlegung, 48 einfacher Prozess, 69 ELMM, 121 EMM, 121 Erwartung bedingte, 29 erzeugte Filterung, 32, 50, 54 Exp. Martingalungl., 109 Feinheit, 7 Filterung, 31, 49 erzeugte, 32, 50, 54 rechtsstetige, 52 Filtration, 31, 49 Folge reduzierende, 59 Funktion regularisierbare, 52 von beschränkter Variation, 16 gefilterter Raum, 31, 49 geometrische Brown’sche B., 93 gleichmäßig integrierbar, 41 Hölder-stetig, 55 Handelsstrategie, 117, 118 Heston-Modell, 107 Integral Itô-, 70, 76 Lebesgue-Stieltjes-, 13 Riemann-, 6 Stieltjes-, 13 stochastisches, 76 Stratonovich-, 86 integrierbar bezügl. b.v. Prozess, 116 bezügl. Martingal, 116 bezügl. Semimart., 116 gleichmäßig, 41 Lebesgue-Stieltjes-, 13 Riemann-, 6 Riemann-Stieltjes-, 7 Zufallsvariable, 32, 50 Itô Formel, 83, 84, 99 Integral, 70 Jordan-Zerlegung, 19 Kazamaki-Kriterium, 114 129 Index Kolmogoroff-Kriterium, 54 Konvergenz in Wahrscheinlichkeit, 71 u.c.p., 71 Kovariation, 82 Kriterium Kazamaki-, 114 Kolmogoroff-, 54 Novikov-, 115 Kunita-Watanabe-Identität, 82 Kurvenintegral, 25 Lévy’s Charakterisierung, 112 làdcàg, 20 Lebesgue-Stieltjes-Integral, 11, 13 Leerverkauf, 117 Lipschitz Konstante, 94 stetig, 94 Liquidität, 117 lokal beschränkt, 77 definiert, 97 Lösung, 99 Lösung, maximale, 99 lokales Martingal, 59 Martingal, 32, 50 lokales, 59 Martingaleigenschaft, 32, 50 Martingaltransformation, 37 maximale lok. Lösung, 99 messbar minimal mb. Menge, 30 progressiv, 58 minimale messbare Menge, 30 NA, 120 NFLVR, 120 no arbitrage, 120 no free lunch, 120 Novikov-Kriterium, 115 Optional Stopping Theorem, 36, 58 OST, 36, 58 Partielle Integration, 84 partielle Integration, 15 130 Pfad, 31, 49 Pfadregularisierung, 53 Poisson-Prozess, 55 Portfolio, 117 progressiv messbar, 58 Prozess, 31, 49 einfacher, 69 lokal definierter, 97 Ohrnstein-Uhlenbeck, 94 Poisson-, 55 stochastischer, 31, 49 vorhersehbarer, 68 quadratische Variation, 74 Raum gefilterter, 31, 49 standard-gefilterter, 52 rechtsstetig Filterung, 52 reduzierende Folge, 59 regularisierbar, 52 reine Sprungfunktion, 20, 21 rektifizierbar, 26 replizierbarer claim, 122 Riemann Integral, 6 integrierbar, 6 Summe, 7 Riemann-Stieltjes-integrierbar, 7 Satz L2 -Konv. v. Martingalen, 41, 57 Optional Stopping, 36 Optional stopping, 58 Rückwärts-Konvergenz, 44 v.d. Vorwärts-Konvergenz, 39, 56 von Girsanov, 110 Schwingkreis, 105 selbstfinanzierend, 117 Semimartingal, 61 shortselling, 117 Sprung, 10 Sprungstelle, 10 standard-gefilterter Raum, 52 steig Lipschitz, 94 stetig Hölder-, 55 Index Stieltjes-Integral, 13 stochastischer Prozess, 31, 49 Stoppzeit, 34, 57 Stratonovich-Integral, 86 strictly sub-hedgable, 122 strictly super-hedgable, 122 sub-hedgable, 122 Submartingal, 32, 50 Submartingal-Ungleichung, 46 super-hedgable, 122 Supermartingal, 32, 50 Totalvariation, 16 Transaktionskosten, 117 U.I., 41 uniformly integrable, 41 ununterscheidbar, 50 Upcrossing, 53 Upcrossing Lemma, 39 Upcrossings, 38 usual conditions, 52 Variation quadratische, 74 Total-, 16 Version, 50 Verteilungsfunktion, 23 Vervollständigung, 52 vollständiger Maßraum, 51 vollständiger Markt, 122 vorhersagbarer Prozess, 37 vorhersehbar σ-Algebra, 68 Prozess, 68 Rechteck, 68 Wachstum gebremstes, 102 Wertprozess, 118 Zerlegung Doob-, 48 eines Intervalls, 6 Jordan-, 19 Semimartingal, 61 Zinsratenmodell, 107 zulässig, 120 131