Stochastische Analysis und Finanzmathematik Vorlesung im Wintersemester 2011/2012 von Dr. Markus Schulz Inhaltsverzeichnis 1 Stochastische Prozesse 1.1 Grundlagen . . . . . . . . . . . . . . . . . . . 1.2 Die Brownsche Bewegung . . . . . . . . . . . 1.3 Pfadeigenschaften der Brownschen Bewegung . 1.4 Stoppzeiten und starke Markoveigenschaft . . 1.5 Das Gesetz von iterierten Logarithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 5 10 12 16 2 Stochastische Integration 2.1 Das Stieltjes-Integral . . . . . . . . . . . . . . . . . 2.2 Lokale Martingale und quadratische Variation . . . 2.3 Das Itô-Integral bezüglich beschränkter Martingale 2.4 Das Itô-Integral bezüglich lokaler Martingale . . . . 2.5 Das Itô-Integral bezüglich Semimartingalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 21 24 29 37 38 . . . . 43 43 47 54 56 . . . . 62 62 69 78 85 3 Stochastische Differentialgleichungen 3.1 Lineare Differentialgleichungen . . . . . . . 3.2 Existenz und Eindeutigkeit . . . . . . . . . 3.3 Schwache Lösungen und Martingalproblem 3.4 Maßwechsel . . . . . . . . . . . . . . . . . 4 Finanzmathematik 4.1 Begriffsbildung . . . . . . . . . . 4.2 Vollständigkeit und Optionspreis 4.3 Konkrete Modelle . . . . . . . . . 4.4 Ausblick . . . . . . . . . . . . . . ii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1.1 Stochastische Prozesse Grundlagen Definition 1.1. Ein stochastischer Prozess ist eine Familie (Xt )t∈I von messbarer Abbildungen auf einem W-Raum (Ω, F, P ) mit Werten in einem gemeinsamen messbaren Raum (E, E). Die Indexmenge I 6= ∅ wird auch Parametermenge und der messbare Raum (E, E) Zustandsraum genannt. Für jedes ω ∈ Ω heißt die Abbildung t 7→ Xt (ω) ein Pfad. Der Prozess heißt zentriert, wenn EXt = 0 für alle t ∈ I. Im Folgenden werden wir es in der Regel mit Prozessen mit Wertebereich (R, B) zu tun haben. Als Indexmenge wählen wir häufig I = [0, ∞). In dem Fall schreiben wir auch (Xt )t≥0 = (Xt )t∈[0,∞) . Einem stochastischen Prozess können wir uns auf drei verschiedene Weisen nähern: a) Wir betrachten für feste t ∈ I die Zufallsvariablen Xt , b) wir untersuchen für feste ω ∈ Ω die Pfade t 7→ Xt (ω) oder c) wir betrachten den gesamten Prozess als Abbildung X : (ω, t) 7→ Xt (ω). Für später führen wir weitere Begriffe ein. Definition 1.2. Sei E ein topologischer Raum mit σ-Algebra E. Ein E-wertiger Prozess X heißt f.s. stetig, wenn die Abbildung t 7→ Xt (ω) für fast alle ω stetig ist. Definition 1.3. Seien (Xt )t∈I und (Yt )t∈I zwei stochastische Prozesse über demselben Grundraum (Ω, F, P ) sowie mit gleichem Zustandsraum (E, E). Gilt dann Xt = Yt P -f.s. für jedes t ∈ I, so ist Y eine Modifikation von X (und umgekehrt). Dass sich die Pfadeigenschaften des modifizierten Prozesses stark von denjenigen des ursprünglichen unterscheiden können, verdeutlicht das folgende Beispiel. Beispiel 1.1. Sei (Ω, F, P ) = (R, B, P ). Dabei sei P ein W-Maß mit P {t} = 0 für alle t ∈ R. Beispielsweise besitzen W-Maße mit Lebesgue-Dichten diese Eigenschaft. I sei gleich R. Setze weiter Xt := 1{t} und Yt := 0 für alle t ∈ R. Offensichtlich ist Y eine stetige Modifikation des Prozesses X. Dieser besitzt keinen einzigen stetigen Pfad. Definition 1.4. Sei A ⊂ R. Eine Funktion f : A → R heißt lokal Hölder-stetig in t0 ∈ A mit Exponent d, wenn eine Umgebung U ⊂ R um t0 und eine Konstante L > 0 existiert, so dass ∀s, t ∈ U ∩ A : |f (s) − f (t)| ≤ L|s − t|d . Eine Funktion f : A → R heißt lokal Hölder-stetig mit Exponent d, wenn sie in allen t0 ∈ A lokal Hölder-stetig ist. Eine Funktion f : A → R heißt Hölder-stetig in t0 ∈ A mit Exponent d, wenn es eine Umgebung U ⊂ R von t0 und eine Konstante L > 0 gibt, so dass ∀s ∈ U ∩ A : |f (s) − f (t0 )| ≤ L|s − t0 |d . 2 1 STOCHASTISCHE PROZESSE Bemerkung 1.1. Aus der lokalen Hölder-Stetigkeit einer Funktion f folgt deren Stetigkeit, i.a. aber nicht umgekehrt. Ist f lokal Hölder-stetig mit Exponent γ, so ist sie auch lokal Hölder-stetig mit jedem Exponenten γ 0 ∈ (0, γ]. Analog folgt aus der Hölder-Stetigkeit einer Funktion f in einem Punkt t0 deren Stetigkeit in t0 , i.a. aber nicht umgekehrt. Ist f Hölder-stetig in t0 mit Exponent γ, so ist sie in t0 auch Hölder-stetig mit jedem kleineren Exponenten γ 0 ∈ (0, γ]. Jede lokal Hölder-stetige Funktion ist auch Hölder-stetig in allen Punkten t ∈ A, jedoch i.a. nicht umgekehrt. Für die Existenz einer stetigen Modifikation gibt es ein recht handliches Kriterium, das gleichzeitig eine Aussage zur lokalen Hölder-Stetigkeit eines Prozesses X zulässt. Satz 1.1 (Kriterium von Kolmogorov). Sei X ein reellwertiger Prozess. Es gebe a, b, c > 0, so dass E[|Xt − Xs |a ] ≤ c|t − s|1+b für alle s, t ≥ 0. Dann hat X eine stetige Modifikation. Für jedes γ ∈ (0, b/a) sind P -fast alle Pfade lokal Hölder-stetig mit Exponent γ. Beweis. Wir untersuchen das Problem zunächst auf [0, 1]. Sei Dn = {i2−n : i = 0, 1, . . . , 2n } S und D = n∈N Dn die Menge aller dyadischen Zahlen in [0, 1]. Wähle eine Zahl γ ∈ (0, β/α). Für s = (k − 1)2−n und t = k2−n (also s, t ∈ Dn mit |s − t| = 2−n ) liefert die Chebyshev-Ungleichung P (|Xk2−n − X(k−1)2−n | ≥ 2−γn ) ≤ 2aγn E[|Xk2−n − X(k−1)2−n |a ] ≤ c2−n(1+b−aγ) , also auch P =P ≤ maxn |Xk2−n − X(k−1)2−n | ≥ 2−γn 1≤k≤2 2n [ {|Xk2−n − X(k−1)2−n | ≥ 2−γn } k=1 n 2 X P (|Xk2−n − X(k−1)2−n | ≥ 2−γn ) ≤ c2−n(b−aγ) . k=1 Nach dem ersten Lemma von Borel-Cantelli gibt es eine Nullmenge N0 ∈ F, so dass für alle ω ∈ N0c gilt ∃n0 (ω) ∈ N∀n ≥ n0 (ω) : maxn |Xk2−n (ω) − X(k−1)2−n (ω)| < 2−γn . 1≤k≤2 (∗) Sei nun ω ∈ N0c und n ≥ n0 (ω). Wir wollen zeigen, dass für jedes m > n gilt |Xt (ω) − Xs (ω)| ≤ 2 m X 2−γj ∀s, t ∈ Dm , 0 < t − s < 2−n . (∗∗) j=n+1 Dies beweisen wir mittels einer vollständigen Induktion: Für m = n + 1 können wir nur s = (k − 1)2−m und t = k2−m wählen. (∗∗) folgt 1.1 Grundlagen 3 dann aus (∗). Sei nun (∗∗) für m = n + 1, . . . , M − 1 erfüllt. Wähle s, t ∈ DM mit 0 < t − s < 2−n und betrachte die Zahlen t1 := max{u ∈ DM −1 : u ≤ t} sowie s1 := min{u ∈ DM −1 : u ≥ s}. Hierfür gilt s ≤ s1 ≤ t1 ≤ t und s1 − s ≤ 2−M sowie t − t1 ≤ 2−M . Aus (∗) folgt |Xs1 (ω) − Xs (ω)| ≤ 2−γM und |Xt (ω) − Xt1 (ω)| ≤ 2−γM . Nach Induktionsannahme gilt zudem |Xt1 (ω) − Xs1 (ω)| ≤ 2 M −1 X 2−γj . j=n+1 Zusammen erhalten wir (∗∗) für m = M . Wir können nun zeigen, dass die Pfade D 3 t 7→ Xt (ω) für alle ω ∈ N0c gleichmäßig stetig sind. Für alle s, t ∈ D mit 0 < t − s < 2−n0 (ω) wählen wir ein n ≥ n0 (ω), so dass 2−n−1 < t − s < 2−n . Wegen (∗∗) ergibt sich |Xt (ω) − Xs (ω)| ≤ 2 ∞ X 2−γj ≤ C|t − s|γ , 0 < t − s < 2−n0 (ω) (∗ ∗ ∗) j=n+1 mit C := 2(1 − 2−γ )−1 . Dies zeigt die gleichmäßige Stetigkeit. Bezeichne D∗ die Menge aller dyadischen Zahlen aus [0, ∞). Wir gehen nun zur Indexmenge [0, ∞) über, indem wir feststellen, dass der Prozess (X1+t )t≥0 ebenfalls der vorausgesetzten Bedingung mit den gleichen Konstanten a und b genügt. Nach dem soeben bewiesenen gibt es also eine Nullmenge N1 ∈ F und zu jedem ω ∈ N1c ein n1 (ω), so dass (∗ ∗ ∗) mit derselben Konstante C für alle Zahlen s, t ∈ D∗ ∩ [1, 2] mit |s − t| < 2−n1 (ω) gilt. Œ können wir N0 ⊂ N1 und n1 (ω) ≥ n0 (ω) für alle ω ∈ N1c annehmen. Iterativ erhalten wir eine S∞aufsteigende Folge von Nullmengen (Nk )k∈N0 und somit eine Nullmenge N := k=0 Nk sowie für jedes ω ∈ N c eine monoton wachsende Folge (nk (ω))k∈N0 , so dass (∗ ∗ ∗) mit demselben C für alle s, t ∈ D∗ ∩ [j, j + 1] mit j ∈ {0, . . . , k} und |s − t| < 2−nk (ω) gilt. Je zwei Zahlen s, t ∈ D∗ ∩[0, k+1] mit |s−t| < 2−nk (ω) können wegen |s−t| < 21 nur in benachbarten Intervallen [0, 1], [1, 2], . . . , [k, k + 1] oder im gleichen Intervall liegen. Im zweiten Fall gilt (∗ ∗ ∗). Im ersten Fall nehmen wir s < j < t für ein j ≤ k an. Wegen max{j − s, t − j} < t − s < 2−nk (ω) folgt mit der Dreiecksungleichung |Xt (ω)−Xs (ω)| ≤ |Xt (ω)−Xj (ω)|+|Xj (ω)−Xs (ω)| ≤ C|j−s|γ +C|t−j|γ < 2C|t−s|γ . Daher ist s 7→ Xs (ω) für jedes ω ∈ N c auf D∗ ∩ [0, k + 1] gleichmäßig stetig. Eine beliebige Zahl t ∈ [0, k + 1] können wir durch eine Folge dyadischer Zahlen approximieren. Eine stetige Modifikation (Yt )t≥0 erhalten wir nun z.B., indem wir ( lims→t,s∈D∗ Xs (ω) , ω ∈ N c Yt (ω) := 0 ,ω ∈ N setzen. Aufgrund der gleichmäßigen Stetigkeit folgt, dass Y zu vorgegebenem γ f.s. lokal Hölder-stetig mit Exponent γ ist. Es bleibt noch zu zeigen, dass Y eine Modifikation von X ist. Für ein t ≥ 0 wähle dazu eine Folge (tn )n∈N dyadischer Zahlen mit tn → t. Dann gilt nach Definition Ytn = Xtn . Einerseits folgt aus der Voraussetzung mittels der Chebyshev-Ungleichung P (|Xt − Xtn | > ε) ≤ ε−a E[|Xt − Xtn |a ] ≤ ε−a c|t − tn |1+b → 0 4 1 STOCHASTISCHE PROZESSE und somit Xtn → Xt in Wahrscheinlichkeit. Andererseits konvergiert Ytn aufgrund der Stetigkeit f.s. gegen Yt . Da ein stochastischer Limes bis auf f.s. Gleichheit eindeutig bestimmt ist, gilt Xt = Yt f.s. Eine wichtige Klasse von stochastischen Prozessen bilden die Gauß-Prozesse. Um diese definieren zu können, müssen wir zunächst die mehrdimensionale Normalverteilung einführen. Definition 1.5. Sei Σ ∈ Rd×d eine positiv definite symmetrische Matrix und µ ∈ Rd . Ein d-dimensionaler Zufallsvektor X heißt d-dimensional normalverteilt mit Mittelwert µ und Kovarianzmatrix Σ, kurz X ∼ N (µ, Σ), wenn er die Dichte −d/2 (2π) −1/2 | det Σ| 1 > −1 exp − (x − µ) Σ (x − µ) , x ∈ Rd , 2 besitzt. Aufgabe 1. Sei X eine d-dimensionale N (µ, Σ)-verteilte Zufallsvariable. a) Wenn A eine invertierbare d × d-Matrix und b ∈ Rd ist, wie ist dann AX + b verteilt? b) Seien X und Y zwei unabhängige Rd -wertige Zufallsvariablen mit Verteilungen N (µ, Σ) bzw. N (ν, Σ0 ). Dann ist X + Y N (µ + ν, Σ + Σ0 )-verteilt. c) Sei X > = (Y1> , Y2> ) verteilt nach N (0, Σ). Ist Σ11 Σ12 Σ= , Σ21 Σ22 > > > so gilt Σij = EYi Yj> . Setzen wir Z1 = Y1 − Σ12 Σ−1 22 Y2 , dann ist (Z1 , Y2 ) normalverteilt. Außerdem sind Z1 und Y2 unabhängig. Wie der Name „Gauß-Prozess“ schon vermuten lässt, definieren wir Definition 1.6. Ein Prozess X ist ein Gauß-Prozess, wenn für je endlich viele Zeitpunkte 0 ≤ t1 < t2 < · · · < tn der Zufallsvektor (Xt1 , Xt2 , . . . , Xtn ) n-dimensional normalverteilt ist. Durch Erweitern der Definition charakteristischer Funktionen auf Zufallsvektoren folgt Proposition 1.2. Ein d-dimensionaler Zufallsvektor V ist genau dann mehrdimensional normalverteilt, wenn jede Linearkombination c> V , c ∈ Rd , (eindimensional) normalverteilt ist. Ein Prozess X ist also schon dann ein Gauß-Prozess, wenn für alle n ∈ N und c1 , . . . , cn ∈ R und jede Wahl P von Zeiten 0 ≤ t1 < t2 < · · · < tn die Zufallsvariablen (c1 , . . . , cn )(Xt1 , . . . , Xtn )> = nj=1 cj Xtj eindimensional normalverteilt sind. Aufgabe 2. a) Beweisen Sie Proposition 1.2. b) Seien Xn , n ∈ N, und X d-dimensionale Zufallsvektoren. Zeigen Sie: Es gilt Xn ⇒ X genau dann, wenn c> Xn ⇒ c> X für alle c ∈ Rd . 1.2 Die Brownsche Bewegung 5 c) Sei (Xn )n∈N eine unabhängige Folge identisch verteilter Rd -wertiger Zufallsvariablen, deren Komponenten endliche zweite Momente besitzen. Dann konvergiert n−1/2 n X (Xi − EXi ) i=1 in Verteilung gegen eine N (0, C)-verteilte Zufallsvariable, wobei C := E[(X1 − EX1 )(X1 − EX1 )> ]. Bemerkung 1.2. Die Verteilung eines Gauß-Prozesses ist durch seine Mittelwertfunktion m(t) = EXt und seine Kovarianzfunktion Γ(s, t) = E[(Xs − m(s))(Xt − m(t))] eindeutig festgelegt. Bewiesen wird dieses Resultat mit Hilfe der charakteristischen Funktionen und des Fortsetzungssatzes von Kolmogorov, den wir in Abschnitt 1.2 kennenlernen. Beispiel 1.2. a) Wir werden im nächsten Abschnitt sehen, dass die Brownsche Bewegung ein Gauß-Prozess mit Mittelwertfunktion m(t) = 0 und Kovarianzfunktion Γ(s, t) = min{s, t} =: s ∧ t ist. b) Ein zentrierter Gauß-Prozess (Wt )t∈[0,1] mit Kovarianzfunktion Γ(s, t) = s ∧ t − st und f.s. stetigen Pfaden heißt Brownsche Brücke. c) Ein zentrierter Gauß-Prozess mit Kovarianzfunktion Γ(s, t) = βe−α|s−t| ist ein sog. Ornstein-Uhlenbeck Prozess. 1.2 Die Brownsche Bewegung Die Brownsche Bewegung ist der wichtigste stochastische Prozess. Sein Name geht zurück auf den Botaniker R. Brown, der 1828 die zufälligen Bewegungen von Pollen in Wasser beobachtete. Zum ersten Mal angewendet wurde die Brownsche Bewegung von L. Bachelier und A. Einstein. Sie verfolgten dabei jedoch unterschiedliche Ziele. So wollte Bachelier 1900 ein Modell für die Finanzmärkte entwickeln, Einstein war 1905 dagegen an einem Modell für die Bewegung eines Teilchens unter dem Einfluss von Stößen durch umgebende Moleküle interessiert. Beide verzichteten dabei zunächst auf eine strickte mathematische Beschreibung. Dieser nahm sich schließlich N. Wiener 1920/23 an. Zu seinen vielen Leistungen gehört der erste formale Nachweis, dass die Brownsche Bewegung existiert. Zu Ehren Wieners wird die Brownsche Bewegung auch Wiener-Prozess genannt. Versetzen wir uns zunächst in die Lage von Einstein. Mit Bt bezeichnen wir die xKomponente der Position eines Teilchens zur Zeit t ≥ 0, das Stöße von umgebenden Molekülen erfährt. Den Koordinatenursprung legen wir in den Startpunkt B0 . Wir treffen folgende Modellannahmen: 1. Die Molekülstöße erfolgen nacheinander zu Zeiten t1 < t2 < · · · . Der n-te Stoß führt zu einer Verschiebung Xn (in x-Richtung) bis zum (n + 1)-ten Stoß. Also gilt Btn = X1 + · · · + Xn−1 . 2. Die Stöße erfolgen zufällig und unabhängig voneinander, d.h. die Xi werden als unabhängige Zufallsvariablen modelliert. Weiter werden die Xi als identisch verteilt angenommen. 3. Wegen Symmetrie gilt EXn = 0. Zudem ist E[Xn2 ] < ∞, da große Werte von Xn extrem selten sind. 6 1 STOCHASTISCHE PROZESSE Leider ist die Position des Teilchens nur in gewissen Zeitabständen t0 beobachtbar, die sehr viele Zusammenstöße umfassen. Die Anzahl der Stöße ist Poisson-verteilt, und ihre relative Schwankung ist äußerst gering. Wir können also annehmen, dass in gleich langen Beobachtungsintervallen immer dieselbe Anzahl von Stößen stattfindet. Für die Folge der Beobachtungszeiten 0, t0 , 2t0 , . . . erhalten wir Bnt0 = Bt0 + (B2t0 − Bt0 ) + · · · + (Bnt0 − B(n−1)t0 ). Jeder der unabhängigen Zuwächse Bkt0 − B(k−1)t0 ist die Summe einer gewissen Zahl unabhängiger, identisch verteilter und zentrierter Zufallsvariablen, also approximativ N0,σ2 -verteilt. Mit unserem Wissen aus der Stochastik I folgt nun, dass Bnt0 −Bmt0 approximativ N0,(n−m)σ2 -verteilt ist. Diese Überlegungen motivieren die folgende Definition 1.7. Ein stochastischer Prozess (Bt )t≥0 mit Werten in (R, B) heißt (normale) Brownsche Bewegung, wenn er die folgenden Eigenschaften besitzt: (1) Die Zuwächse von Bt sind unabhängig, d.h. für je endlich viele Zeitpunkte 0 ≤ t1 < t2 < · · · < tn < ∞ sind die Zufallsvariablen Bt2 − Bt1 , Bt3 − Bt2 , . . . , Btn − Btn−1 unabhängig. (2) Für 0 ≤ s < t < ∞ sind die Zuwächse Bt − Bs normalverteilt mit Mittelwert 0 und Varianz t − s. (3) Der Prozess B besitzt f.s. stetige Pfade. (4) Es gilt B0 = 0 f.s. Bemerkung 1.3. Oft wird in der Literatur auch ein Prozess, der (1)-(3) erfüllt, als Brownsche Bewegung bezeichnet. Anstelle von (4) ist B0 dann gemäß einer Startverteilung ν verteilt. Mit Hilfe der Gauß-Prozesse finden wir eine äquivalente Charakterisierung einer Brownschen Bewegung. Lemma 1.3. Ein Prozess B = (Bt )t≥0 ist genau dann eine Brownsche Bewegung, wenn folgende Bedingungen erfüllt sind: (1’) B ist ein Gauß-Prozess. (2’) Es gilt EBt = 0 und EBs Bt = s ∧ t. (3) Der Prozess B besitzt f.s. stetige Pfade. Beweis. Wir erkennen leicht, dass aus (1) und (2) die Bedingung (1’) folgt. Um (2’) aus (1) und (2) zu erhalten, rechnen wir für s < t EBs Bt = EBs2 + E[Bs (Bt − Bs )] = s + EBs E(Bt − Bs ) = s. Um umgekehrt (1) herzuleiten genügt es nachzuweisen, dass der Zufallsvektor (Bt2 − Bt1 , Bt3 − Bt2 , . . . , Btn − Btn−1 ) 1.2 Die Brownsche Bewegung 7 eine diagonale Kovarianzmatrix besitzt. Dies ist jedoch der Fall, denn für i < j gilt E[(Bti − Bti−1 )(Btj − Btj−1 )] =E[Bti Btj ] − E[Bti Btj−1 ] − E[Bti−1 Btj ] + E[Bti−1 Btj−1 ] =ti − ti − ti−1 + ti−1 = 0. Aus (1’) und Lemma 1.2 folgt sofort, dass die Zuwächse Bt −Bs , s < t, normalverteilt sind. Bedingung (2’) liefert ferner E(Bt − Bs ) = 0 und Var(Bt − Bs ) = E[(Bt − Bs )2 ] = E[Bt2 ] − 2EBs Bt + E[Bs2 ] = t − 2s + s = t − s. Wegen EB0 = 0 und EB02 = 0 gilt B0 = 0 f.s. Oft definiert man auch eine d-dimensionale Brownsche Bewegung. Der einzige Unterschied zur obigen Definition besteht darin, dass ein solcher Prozess den Wertebereich Rd besitzt. Man kann zeigen, dass die Komponenten B j einer d-dimensionalen Brownschen Bewegung voneinander unabhängige (d.h. die σ-Algebren σ(Bt1 , t ≥ 0), . . . , σ(Btd , t ≥ 0) sind unabhängig) eindimensionale Brownsche Bewegungen sind. Aufgabe 3. Zeigen Sie: Für jede d-dimensionale Brownsche Bewegung B und jeden Vektor e ∈ Rd mit Länge |e| = 1 ist (e> Bt )t≥0 eine eindimensionale Brownsche Bewegung. Darüber hinaus können wir definieren: Definition 1.8. Ein zentrierter Gauß-Prozess (Xt )t∈[0,1] mit Kovarianzfunktion EXs Xt = s ∧ t − st und f.s. stetigen Pfaden heißt Brownsche Brücke. Bemerkung 1.4. Ist X eine Brownsche Brücke, so gilt offenbar X0 = X1 = 0 f.s. Aufgabe 4. a) Sei B eine Brownsche Bewegung. Dann ist der Prozess X definiert durch Xt = Bt − tB1 , t ∈ [0, 1], eine Brownsche Brücke. b) Ist X eine Brownsche Brücke, so ist auch Y mit Yt = X1−t eine Brownsche Brücke. c) Ist X eine Brownsche Brücke, so ist ((1+t)X 1 )t∈[0,∞) eine Brownsche Bewegung. 1+t Nun stellt sich natürlich die Frage, ob ein solcher Prozess überhaupt existiert. Da der Nachweis eher technisch ist, werde ich auf einige Details verzichten. Definition 1.9. Ein vollständiger, separabler und metrischer Raum heißt polnisch. Definition 1.10. Für n ∈ N und t1 , . . . , tn ≥ 0 sei Pt1 ,...,tn ein W-Maß auf E n . Die Familie von W-Maßen heißt projektiv, wenn für {s1 , . . . , sk } ⊂ {t1 , . . . , tn } das W-Maß Ps1 ,...,sk die entsprechende Randverteilung von Pt1 ,...,tn ist Bemerkung 1.5. Ist X ein stochastischer Prozess, so ist die Familie der Verteilungen (Xt1 , . . . , Xtn ) projektiv. Satz 1.4 (Fortsetzungssatz von Kolmogorov). Ist E polnisch mit Borel-σ-Algebra E, dann existiert zu jeder projektiven Familie genau ein W-Maß auf E [0,∞) , das die Familie fortsetzt. Der Beweis des Fortsetzungssatzes ist umfangreich und technisch, daher möchte ich darauf verzichten. Wer daran interessiert ist, kann ihn z.B. in [AD-D00] nachlesen. 8 1 STOCHASTISCHE PROZESSE Satz 1.5. Es gibt ein W-Maß P auf (R[0,∞) , B [0,∞) ), so dass der Koordinatenprozess Xt (ω) = ωt die Eigenschaften (1), (2) und (4) aus Definition 1.7 besitzt. Beweis. Setze P (X0 = 0) = 1. Sei qt die Dichte der Normalverteilung mit Mittelwert 0 und Varianz t. Für reelle Zahlen 0 < t1 < · · · < tn definieren wir Z Z Pt1 ,...,tn (A1 × · · · × An ) = qt1 (x1 ) qt2 −t1 (x2 − x1 ) A1 A2 Z qtn −tn−1 (xn − xn−1 ) dxn . . . dx2 dx1 . ··· An Man kann zeigen, dass die so definierten W-Maße eine projektive Familie bilden. Nach Satz 1.4 können wir das so definierte W-Maß auf den Raum (R[0,∞) , B [0,∞) ) fortsetzen. Bezüglich dieser Fortsetzung sind die Zuwächse Xt − Xs N0,t−s -verteilt. Seien 0 = t0 < t1 < · · · < tn und Yi := Xti − Xti−1 . Für A1 , . . . , An ∈ B und x0 := 0 erhalten wir Z Y n (Y1 ,...,Yn ) 1Aj ◦ Yj dP P (A1 × · · · × An ) = j=1 = Z Y n 1Aj (xj − xj−1 ) Pt1 ,...,tn (d(x1 , . . . , xn )) j=1 Z = Z qt1 (x1 ) 1A2 (x2 − x1 )qt2 −t1 (x2 − x1 ) Z . . . 1An (xn − xn−1 )qtn −tn−1 (xn − xn−1 ) dxn . . . dx2 dx1 A1 = n Y N0,tj −tj−1 (Aj ) = j=1 n Y P Yj (Aj ). j=1 Also besitzt X unabhängige Zuwächse. Aufgabe 5. Seien Pt1 ,...,tn und X definiert wie in Satz 1.5. Zeigen Sie: a) Die so definierten W-Maße bilden eine projektive Familie. b) Bezüglich der Fortsetzung P auf (R[0,∞) , B [0,∞) ) ist der Zuwachs Xt − Xs N0,t−s verteilt. Satz 1.6. Es existiert ein Prozess B mit unabhängigen Zuwächsen und Bt − Bs ∼ N0,t−s für s < t sowie f.s. stetigen Pfaden. Für jedes γ ∈ (0, 12 ) sind P -fast alle Pfade lokal Hölder-stetig mit Exponent γ. Beweis. Nach Satz 1.5 existiert ein W-Maß P , so dass der Koordinatenprozess Xt (ω) = ωt die Eigenschaften (1), (2) und (4) aus Definition 1.7 besitzt. Alle Momente einer normalverteilten Zufallsvariable existieren. Bezeichnet Z eine N0,1 -verteilte Zufallsvariable, so gilt E[|Xt − Xs |2n ] = E[|t − s|−n |Xt − Xs |2n ]|t − s|n = E[Z 2n ]|t − s|n ∀n ∈ N. Nach Satz 1.1 existiert also eine stetige Modifikation B, die weiterhin die Eigenschaften (1), (2) und (4) besitzt. Für alle n ∈ N und γ < n−1 ist B nach Satz 1.1 f.s. 2n n−1 1 lokal Hölder-stetig mit Exponent γ. Wegen limn→∞ 2n = 2 ist B für jedes γ < 1/2 f.s. lokal Hölder-stetig mit Exponent γ. 1.2 Die Brownsche Bewegung 9 Nachdem die Existenz der Brownschen Bewegung nun gesichert ist, können wir uns mit ihren Eigenschaften beschäftigen. Satz 1.7 (Eigenschaften der Brownschen Bewegung). 1) (Homogenität) Ist B eine Brownsche Bewegung, so ist auch (Bs+t − Bs )t≥0 eine Brownsche Bewegung. 2) (Symmetrie) Mit B ist auch (−Bt )t≥0 eine Brownsche Bewegung. 3) (Skalenwechsel) Ist B eine Brownsche Bewegung, so ist (Bst )s≥0 für alle t > 0 wie (t1/2 Bs )s≥0 verteilt. 4) Für festes t > 0 ist (Bt−s − Bt )s∈[0,t] eine Brownsche Bewegung auf [0, t]. Beweis. Eigenschaft 1 folgt direkt aus der Definition. Die zweite Eigenschaft ist klar wegen der Symmetrie der Normalverteilung. Beide in 3) angegebenen Prozesse sind zentrierte Gauß-Prozesse. Nach Bemerkung 1.2 sind also beide Prozesse schon identisch verteilt, wenn deren Kovarianzfunktionen übereinstimmen. Es gilt aber EBs1 t Bs2 t = (s1 t) ∧ (s2 t) = t(s1 ∧ s2 ) = tEBs1 Bs2 = Et1/2 Bs1 t1/2 Bs2 . Der Prozess in 4) ist ebenfalls ein zentrierter Gauß-Prozess mit Kovarianzfunktion E(Bt−r − Bt )(Bt−s − Bt ) = EBt−r Bt−s − EBt−r Bt − EBt Bt−s + EBt2 = t − (r ∨ s) − (t − r) − (t − s) + t = r + s − (r ∨ s) = r ∧ s. Die Behauptung folgt aus Lemma 1.3 und Bemerkung 1.2. Die nächste Eigenschaft einer Brownschen Bewegung gestattet eine Zeitinversion. Satz 1.8. Ist B eine Brownsche Bewegung, dann ist auch X definiert durch ( tB1/t (ω) , falls t > 0 Xt (ω) := 0 , falls t = 0 eine Brownsche Bewegung. Beweis. Für endlich viele Zeitpunkte 0 < t1 < . . . < tn ist jede Linearkombination c1 Xt1 + · · · + cn Xtn eine Linearkombination der Bτi mit τi = t1i . Da B nach Lemma 1.3 ein zentrierter Gauß-Prozess ist, gilt dies auch für X. Berechne nun die Kovarianzfunktion von X: s = 0 oder t = 0: EXs Xt = 0 = s ∧ t s, t > 0: EXs Xt = stEB 1 B 1 = st min{ 1s , 1t } = s∧t·s∨t = s ∧ t. s∨t s t Nach Bemerkung 1.2 ist X wie B verteilt. Nach Lemma 1.3 bleibt zu zeigen, dass f.s. alle Pfade stetig sind. Da t 7→ 1t auf (0, ∞) und t 7→ Bt (ω) für fast alle ω stetig sind, existiert eine P -Nullmenge N ∗ , so dass t 7→ Xt (ω) für alle ω ∈ (N ∗ )c auf (0, ∞) stetig ist. Es fehlt also nur noch die Stetigkeit in t = 0. Wegen E[(Bt − Bs )4 ] = 3(t − s)2 = E[(Xt − Xs )4 ] hat X nach Satz 1.1 eine stetige Modifikation X̃, d.h. ∀t ≥ 0 ∃P -Nullmenge Nt ∈ F ∀ω ∈ Ntc : Xt (ω) = X̃t (ω). S Die Menge N := N ∗ ∪ %∈Q+ ∪{0} N% ist wieder eine P -Nullmenge. Auf N c gilt X% (ω) = X̃% (ω) für alle % ∈ Q+ . Aufgrund der Stetigkeit von t 7→ Xt (ω) und t 7→ X̃t (ω) für alle ω ∈ N c stimmen Xt (ω) und X̃t (ω) für alle t > 0 überein. Für ω ∈ N c gilt ferner X0 (ω) = X̃0 (ω). Da X̃ stetige Pfade besitzt, sind auch P -fast alle Pfade von X stetig auf [0, ∞). 10 1 STOCHASTISCHE PROZESSE Aufgrund der vorgestellten Eigenschaften ist es möglich, aus einer Brownschen Bewegung weitere Brownsche Bewegungen zu gewinnen. 1.3 Pfadeigenschaften der Brownschen Bewegung Nachdem wir im letzten Abschnitt schon begonnen haben, Eigenschaften der Brownschen Bewegung zusammenzustellen, konzentrieren wir uns nun auf weitere Eigenschaften Brownscher Pfade. Satz 1.9. Sei B eine Brownsche Bewegung. Für t > s ≥ 0 sei (∆n )∈N eine Folge (n) (n) (n) von Zerlegungen s = t0 < t1 < · · · < tk = t des Intervalls [s, t]. Wenn |∆n | := (n) (n) maxi=0,...,k−1 (ti+1 − ti ) gegen Null konvergiert, dann gilt ∆n T[s,t] := k−1 X (Bt(n) − Bt(n) )2 → t − s i+1 i=0 in W. i Beweis. Die Differenz t − s können wir als Teleskopsumme ben. Zusammenfassen liefert ∆n E[(T[s,t] 2 − (t − s)) ] = E k−1 hX (n) i=0 (ti+1 Pk−1 (n) − ti ) schrei- 2 i (Bt(n) − Bt(n) )2 − (ti+1 − ti ) . i+1 i=0 i Da die Brownsche Bewegung unabhängige Zuwächse besitzt und für eine Zufallsvariable Y ∼ N0,a gilt E[Y 4 ] = 3(E[Y 2 ])2 , folgt ∆n E[(T[s,t] k−1 X (n) (n) 2 − (t − s)) ] = E (Bt(n) − Bt(n) )2 − (ti+1 − ti ) 2 i=0 k−1 X ≤ 3 i+1 (n) i (n) (ti+1 − ti )2 ≤ 3|∆n |(t − s). i=0 Mit der Chebyshev-Ungleichung erhalten wir ∆n ∆n P (|T[s,t] − (t − s)| > ε) ≤ ε−2 E[(T[s,t] − (t − s))2 ] ≤ 3(t − s)ε−2 |∆n | → 0, ∆n also T[s,t] → t − s in W. Korollar 1.10. Auf jedem Intervall [s, t] mit 0 ≤ s < t < ∞ ist P f.s. jeder Pfad einer Brownschen Bewegung B von unendlicher Variation V = sup∆n k−1 i=0 |Bt(n) −Bt(n) |. i+1 Beweis. Sei [s, t] ⊂ [0, ∞). Nach Satz 1.9 konvergiert scheinlichkeit gegen t − s. Offensichtlich gilt k−1 X i=0 Pk−1 i=0 (Bt(n) i+1 i − Bt(n) )2 in Wahri (Bt(n) − Bt(n) )2 ≤ V · max |Bt(n) − Bt(n) |. i+1 i ∆n i+1 i Da auf dem Intervall [s, t] fast alle Pfade t 7→ Bt (ω) gleichmäßig stetig sind, gilt max∆n |Bt(n) − Bt(n) | → 0 f.s. für |∆n | → 0. Also kann V f.s. nicht endlich sein, da i+1 i sonst die linke Seite der Ungleichung gegen Null konvergieren müsste. 1.3 Pfadeigenschaften der Brownschen Bewegung 11 Die Aussage von Satz 1.9 kann bei geeigneter Wahl der Zerlegungsfolge so verschärft ∆n sogar f.s. gegen t−s konvergiert. Dies soll in der folgenden Aufgabe werden, dass T[s,t] geleistet werden. Aufgabe 6. Sei B eine Brownsche Bewegung und ∆n eine Folge von Zerlegungen (n) (n) (n) s = t0 < t1 < · · · < tk = t des Intervalls [s, t] ⊂ [0, ∞) mit Feinheit |∆n | := P (n) (n) maxi=0,...,k−1 |ti+1 − ti |. Konvergiert die Reihe ∞ n=1 |∆n |, so konvergiert die Folge ∆n T[s,t] f.s. gegen t − s. Dies ist insbesondere der Fall, wenn die Unterteilungspunkte (n) der Zerlegung durch ti = s + i2−n (t − s), i = 0, . . . , 2n , festgelegt wird. Proposition 1.11. Für jedes γ > 1/2 ist f.s. jeder Pfad einer Brownschen Bewegung B nirgends lokal Hölder-stetig mit Exponent γ. Beweis. Sei H die Menge der ω ∈ Ω, deren Pfade in einem Punkt lokal Hölder-stetig mit Exponent γ sind: H := {ω ∈ Ω : es gibt ein s ≥ 0, in dem t 7→ Bt (ω) lokal Hölder-stetig ist.}. Wir wollen zeigen, dass H eine Nullmenge ist. Sei dazu ω0 ∈ H und r ≥ 0, so dass t 7→ Bt (ω0 ) lokal Hölder-stetig in r ist. Nach Definition existiert eine Umgebung U ⊂ R von r und eine Konstante L, so dass gilt: |Bs (ω0 ) − Bt (ω0 )| ≤ L|s − t|γ ∀s, t ∈ U ∩ [0, ∞). Für ein nichtleeres Intervall [a, b] ⊂ U ∩ [0, ∞) bleibt die Ungleichung gültig. Sei (n) (n) (n) nun a = t0 < t1 < · · · < tk = b eine Zerlegung des Intervalls [a, b] mit |∆n | → 0. ∆n Nach Aufgabe 6 können wir die Zerlegung so wählen, dass T[a,b] f.s. gegen b − a konvergiert. Wegen 2γ > 1 erhalten wir aber ∆n T[a,b] (ω0 ) = k X i=1 2 (Bt(n) (ω0 ) − Bt(n) (ω0 )) ≤ L i ≤ L2 |∆n |2γ−1 i−1 k X (n) (ti 2 k X (n) (ti (n) − ti−1 )2γ i=1 (n) n→∞ − ti−1 ) = L2 |∆n |2γ−1 (b − a) −−−→ 0. i=1 Also muss H eine Nullmenge sein. Bemerkung 1.6. Es gilt sogar noch mehr: Fast jeder Pfad einer Brownschen Bewegung ist für alle γ > 1/2 nirgends Hölder-stetig mit Exponent γ. Wer an einem Beweis dieser Aussage interessiert ist, kann in [Bau02] nachschlagen. Was im hier nicht behandelten Fall γ = 1/2 geschieht, werden wir in Abschnitt 1.5 sehen. Es folgt sofort: Korollar 1.12. F.s. jeder Pfad einer Brownschen Bewegung B ist nirgends differenzierbar. Beweis. Ist ein Pfad t 7→ Bt (ω) in einem Punkt t0 differenzierbar, dann ist er in t0 t (ω) lokal Hölder mit Exponent 1, da der Quotient Bs (ω)−B für alle s und t aus einer s−t kleinen Umgebung um t0 beschränkt ist. Nach Proposition 1.11 ist jedoch f.s. jeder Pfad nirgends lokal Hölder-stetig mit Exponent 1, so dass f.s. jeder Pfad nirgends differenzierbar sein kann. Auf jedem Intervall ist also f.s. jeder Pfad einer Brownschen Bewegung unendlich lang. Zudem ist f.s. jeder Pfad nirgends differenzierbar. Die Brownsche Bewegung fluktuiert also ziemlich stark. Dank Satz 1.9 können wir aber trotzdem in Kapitel 2 ein stochastisches Integral definieren. 12 1.4 1 STOCHASTISCHE PROZESSE Stoppzeiten und starke Markoveigenschaft Zunächst ein paar Definitionen, die die aus der Stochastik I bekannten Begriffe „Filtration“ und „adaptiert“ auf unsere Situation übertragen. Definition 1.11. Eine Filtration (Ft )t≥0 ist eine monoton wachsende Folge von Sub-σ-Algebren von F. Sie heißt vollständig, wenn sie alle Nullmengen enthält. Setze T + Ft = u>t Fu . Eine Filtration heißt rechtsstetig, wenn Ft+ = Ft für alle t ≥ 0. Die σ-Algebren Ft+ bilden weiterhin eine Filtration. Zudem gilt für 0 ≤ s < t offensichtlich Fs ⊂ Fs+ ⊂ Ft . Definition 1.12. Ein Prozess X = (Xt )t≥0 ist adaptiert, wenn für alle t ≥ 0 die Zufallsvariable Xt Ft -messbar ist. Aus der Definition einer Brownschen Bewegung folgt direkt (vgl. auch Satz 1.7) Satz 1.13. Sei B = (Bt )t≥0 eine Brownsche Bewegung bzgl. einer Filtration (Ft )t≥0 . Für jedes s ≥ 0 ist dann der Prozess Yt = Bs+t − Bs eine Brownsche Bewegung unabhängig von Fs . In Verallgemeinerung des Martingalbegriffs in diskreter Zeit nennen wir (Xt , Ft )t≥0 ein Martingal, wenn X an (Ft )t≥0 adaptiert und Xt für alle t integrierbar ist und E(Xt |Fs ) = Xs f.s. für alle s < t. Aus Satz 1.13 folgt dann Lemma 1.14. Sei B eine Brownsche Bewegung bzgl. der Filtration (Ft )t≥0 . Dann sind (Bt , Ft )t≥0 , (Bt2 − t, Ft )t≥0 und (Bt4 − 6tBt2 + 3t2 , Ft )t≥0 Martingale. Beweis. Die Adaptiertheit der Brownschen Bewegung ist klar nach Voraussetzung. Da Bt N0,t -verteilt ist, existieren alle Momente, insbesondere gilt EBt = 0 , EBt2 = t , EBt3 = 0 und EBt4 = 3t2 . Nach Satz 1.13 ist Bt0 = Bs+t − Bs eine Brownsche Bewegung unabhängig von Fs . Also gilt für s < t: 0 E(Bt |Fs ) = Bs + E(Bt0 |Fs ) = Bs + E[Bt−s ] = Bs und 0 0 E(Bt2 |Fs ) = E(Bs2 + 2Bs Bt−s + (Bt−s )2 |Fs ) 0 0 = Bs2 + 2Bs E[Bt−s ] + E[(Bt−s )2 ] = Bs2 + (t − s) sowie 0 0 0 0 + 6Bs2 (Bt−s )2 + 4Bs (Bt−s )3 + (Bt−s )4 |Fs ) E(Bt4 |Fs ) = E(Bs4 + 4Bs3 Bt−s 0 0 0 0 )3 ] + E[(Bt−s )4 ] ] + 6Bs2 E[(Bt−s )2 ] + 4Bs E[(Bt−s = Bs4 + 4Bs3 E[Bt−s = Bs4 + 6(t − s)Bs2 + 3(t − s)2 . Aus letzterem folgt E(Bt4 − 6tBt2 |Fs ) = Bs4 − 6sBs2 + 3(s2 − t2 ). 1.4 Stoppzeiten und starke Markoveigenschaft 13 Aufgabe 7. a) Sei X eine N0,σ2 -verteilte Zufallsvariable. Zeigen Sie, dass gilt ( 1 · 3 · 5 · · · (2n − 1)σ 2n , p = 2n E(X p ) = , n ∈ N. 0 , p = 2n − 1 b) Sei B eine Brownsche Bewegung bzgl. einer Filtration (Ft )t≥0 . Bestimmen Sie ein ähnliches Martingal wie in Lemma 1.14 mit führendem Term Bt3 . Aufgabe 8. a) Für jede Brownsche Bewegung B und jede Zahl u ∈ C ist der Prozess exp(iuBt + 1 2 u t) t≥0 ein Martingal bzgl. der von B erzeugten Filtration (σ(Bs , s ≤ t))t≥0 . 2 b) Sei umgekehrt (Xt )t≥0 ein stetiger reellwertiger Prozess mit X0 = 0 und der 1 2 Prozess exp(iuXt + 2 u t) t≥0 für alle u ∈ R ein Martingal bzgl. der Filtration (σ(Xs , s ≤ t))t≥0 . Dann ist (Xt )t≥0 eine Brownsche Bewegung. Die Aussage von Satz 1.13 wollen wir nun verallgemeinern, indem wir statt s eine Stoppzeit T wählen. Definition 1.13. Eine Abbildung T : Ω → [0, ∞] heißt (Ft )-Stoppzeit, wenn für alle t ≥ 0 gilt {T ≤ t} ∈ Ft . Ein Ereignis A mit A ∩ {T ≤ t} ∈ Ft heißt Prä-T -Ereignis. Das Mengensystem aller Prä-T -Ereignisse wird mit FT bezeichnet. Bemerkung 1.7. Für jede Stoppzeit T ist FT eine σ-Algebra. Im Gegensatz zu diskreten Stoppzeiten, die wir schon aus Kapitel 22 der Stochastik I kennen, S genügt es nicht, {T = t} ∈ Ft zu fordern, da die überabzählbare Vereinigung s≤t {T = s} nicht unbedingt in Ft liegen muss. Einige Eigenschaften von Stoppzeiten wollen wir im nächsten Lemma zusammenstellen. Lemma 1.15 (Eigenschaften von Stoppzeiten). Seien S, T (Ft )-Stoppzeiten. Dann gilt (i) T ist FT -messbar. (ii) FT = Ft auf {T = t} (iii) FS ∩ {S ≤ T } ⊂ FS∧T = FS ∩ FT . Insbesondere gilt: {S ≤ T } ∈ FS ∩ FT , FS = FT auf {S = T } und FS ⊂ FT für S ≤ T. Da der Beweis demjenigen für diskrete Stoppzeiten ähnelt, verzichten wir darauf. Definition 1.14. Eine Abbildung T heißt schwache Stoppzeit bzgl. einer Filtration (Ft )t≥0 , wenn {T < t} ∈ Ft für alle t ≥ 0. Wir setzen FT+ := {A ∈ F : A ∩ {T < t} ∈ Ft ∀t ≥ 0}. Bemerkung 1.8. Für Stoppzeiten S und T mit S ≤ T gilt FS ⊂ FT und FS+ ⊂ FT+ . Falls S < T , so gilt FS+ ⊂ FT . Wegen ∞ n [ 1o {T < t} = T ≤t− n n=1 ist jede Stoppzeit auch eine schwache Stoppzeit. Die Bezeichnung ist also gerechtfertigt. Einen weiteren Zusammenhang zwischen den beiden Stoppzeit-Begriffen stellt das folgende Lemma her. 14 1 STOCHASTISCHE PROZESSE Lemma 1.16 (Schwache Stoppzeiten). T ist eine schwache (Ft )-Stoppzeit genau dann, wenn T eine (Ft+ )-Stoppzeit ist. Beweis. „⇒“: Wir können schreiben {T ≤ t} = \ {T < r}. r>t r∈Q Die rechte Seite liegt jedoch in Ft+ . „⇐“: Es gilt [ {T < t} = {T ≤ r}. r<t r∈Q Nach Voraussetzung liegt {T ≤ r} in Fr+ , also auch in Ft . Daraus folgt unmittelbar Korollar 1.17. Ist die Filtration (Ft )t≥0 rechtsstetig, so ist jede schwache Stoppzeit eine Stoppzeit. In Falle einer rechtsstetigen Filtration stimmen also die beiden Stoppzeit-Begriffe überein. Beispiel 1.3. Sei (Xt )t≥0 ein reellwertiger stochastischer Prozess mit ausschließlich rechtsseitig stetigen Pfaden. Dann ist für jede offene Menge U ⊂ R die Funktion TU mit TU (ω) := inf{t > 0 : Xt (ω) ∈ U } eine schwache Stoppzeit, jedoch i.a. keine Stoppzeit. Hingegen ist für jede abgeschlossene Menge A ⊂ R die Funktion TA0 mit TA0 (ω) := {t ≥ 0 : Xt (ω) ∈ A} eine Stoppzeit. Aufgabe 9. a) Sei U eine offene und nichtleere Teilmenge von R, X ein reellwertiger Prozess mit rechtsstetigen Pfaden und Ft = σ(Xs , s ≤ t). Zeigen Sie, dass durch TU (ω) := inf{t > 0 : Xt (ω) ∈ U } , inf ∅ = +∞ eine schwache Stoppzeit bezüglich der Filtration (Ft )t≥0 definiert wird. b) Sei A eine abgeschlossene und nichtleere Teilmenge von R, X ein reellwertiger Prozess mit stetigen Pfaden und Ft = σ(Xs , s ≤ t). Zeigen Sie, dass durch τA (ω) := inf{t ≥ 0 : Xt (ω) ∈ A} , inf ∅ = +∞ eine Stoppzeit bezüglich der Filtration (Ft )t≥0 definiert wird. Ein nützliches Resultat ist Lemma 1.18 (diskrete Approximation). Ist T eine schwache Stoppzeit, dann existieren diskrete (d.h. mit abzählbar vielen Werten) Stoppzeiten Tn , so dass Tn ↓ T . 1.4 Stoppzeiten und starke Markoveigenschaft 15 Beweis. Wähle z.B. Tn := 2−n ([2n T ] + 1), wobei [x] die Gaußklammer von x bezeichne. Das bedeutet Tn = (k + 1)2−n falls k2−n ≤ T < (k + 1)2−n . Dies sind Stoppzeiten wegen {Tn ≤ (k + 1)2−n } = {T < (k + 1)2−n } ∈ F(k+1)2−n . Die Eigenschaft Tn ↓ T ist offensichtlich. Nun können wir die starke Markoveigenschaft der Brownschen Bewegung beweisen. Satz 1.19 (Starke Markoveigenschaft der Brownschen Bewegung). Sei (Bt )t≥0 eine Brownsche Bewegung bzgl. der Filtration (Ft )t≥0 und T eine endliche (Ft )-Stoppzeit. Dann ist B 0 mit Bt0 = BT +t − BT eine Brownsche Bewegung unabhängig von FT . Beweis. Nach Lemma 1.18 existieren diskrete Stoppzeiten Tn , n ∈ N, mit Werten (n) (n) t1 < t2 < · · · und Tn ↓ T . Wenn C ∈ FT , dann gilt wegen FT ⊂ FTn (n) (n) (n) C ∩ {Tn = tk } = C ∩ {Tn ≤ tk }\{Tn ≤ tk−1 } ∈ Ft(n) . k Wenden wir Satz 1.13 an, so erhalten wir für A ∈ B P ({BTn +t − BTn ∈ A} ∩ C) = = ∞ X k=1 ∞ X (n) P ({Bt(n) +t − Bt(n) ∈ A, Tn = tk } ∩ C) k k (n) P (Bt(n) +t − Bt(n) ∈ A)P ({Tn = tk } ∩ C) k=1 k k = P (Bt ∈ A)P (C). Nun beschränken wir uns auf offene Intervalle A = (a, b). Für n → ∞ konvergieren die Zufallsvariablen BTn +t − BTn f.s. gegen BT +t − BT . Daher gilt P ({a < Bt0 < b} ∩ C) = P ({a < BT +t − BT < b} ∩ C) ≤ lim inf P ({a < BTn +t − BTn < b} ∩ C) n→∞ ≤ lim sup P ({a < BTn +t − BTn < b} ∩ C) n→∞ ≤ P ({a ≤ BT +t − BT ≤ b} ∩ C). Wählen wir a und b so, dass P (Bt0 = a) = P (Bt0 = b) = 0, dann erhalten wir durch Grenzübergang P ({a < Bt0 < b} ∩ C) = P (a < Bt < b)P (C). (∗) Für jedes ε > 0 folgt P (Bt0 = a) ≤ lim inf P (a − ε < BTn +t − BTn < a + ε) = P (a − ε < Bt < a + ε). n→∞ Lassen wir ε gegen Null konvergieren, so ergibt sich also P (Bt0 = a) = 0 für alle a ∈ R. Daher ist die Gleichung (∗) für alle a, b ∈ R, a < b, erfüllt. Die gleichen Rechnungen mit Vektoren von Differenzen Bt0 − Bs0 statt Bt0 zeigen, dass B 0 eine Brownsche Bewegung unabhängig von FT ist. 16 1 STOCHASTISCHE PROZESSE Bemerkung 1.9. Wenn T eine schwache Stoppzeit ist, dann zeigt der Beweis von Satz 1.19, dass B 0 auch eine Brownsche Bewegung unabhängig von FT+ ist. Beweis. Nach Lemma 1.18 existiert auch für eine schwache Stoppzeit T eine Folge diskreter Stoppzeiten Tn mit Tn ↓ T . Wegen T < Tn gilt FT+ ⊂ FTn . Daher ist der Beweis von Satz 1.19 immer noch richtig für C ∈ FT+ . 1.5 Das Gesetz von iterierten Logarithmus In diesem Abschnitt wollen wir eine weitere wichtige Eigenschaft Brownscher Pfade herleiten, mit deren Hilfe wir die Brownschen Pfade auf Hölder-Stetigkeit mit dem bisher ausgesparten Exponenten γ = 1/2 untersuchen können. Wir wissen sogar, in welchem Bereich sich die Brownschen Pfade f.s. bewegen. Dazu beginnen wir mit einer Spiegelungseigenschaft der Brownschen Bewegung: Wählen wir eine Zahl a > 0 und spiegeln die Brownsche Bewegung, sobald sie a erreicht, so ist der entstehende Prozess ebenfalls eine Brownsche Bewegung. Satz 1.20 (Spiegelungsprinzip). Sei (Bt )t≥0 eine Brownsche Bewegung, a > 0 und Ta := inf{t > 0 : Bt = a}. Dann ist der stochastische Prozess B̃ mit ( Bt , t ≤ Ta B̃t := 2a − Bt , t > Ta ebenfalls eine Brownsche Bewegung. Beweis. Sei Yt := BTa +t − BTa , t ≥ 0. Nach Satz 1.19 und Satz 1.7 gilt d d Yt = −Yt = Bt , und (Yt )t≥0 ist unabhängig von FTa . Damit ist insbesondere (Yt )t≥0 unabhängig von den FTa -messbaren Abbildungen Ta und B Ta mit BtTa = BTa ∧t . Daher gilt d (B Ta , Ta , Y ) = (B Ta , Ta , −Y ). Betrachte die Transformation ψt mit ( f (t) , t ≤ t0 ψt (f, t0 , g) := . f (t0 ) + g(t − t0 ) , t > t0 Da es sich hierbei um eine messbare Transformation handelt, erhalten wir d ψt (B Ts , Ta , Y ) = ψt (B Ta , Ta , −Y ). Auf der linken Seite steht ( Bt ψt (B Ta , Ta , Y ) = BTa + Yt−Ta , t ≤ Ta = Bt . , t > Ta Da B f.s. stetige Pfade besitzt, muss gelten BTa = a. Auf der rechten Seite steht also ( ( B , t ≤ T Bt , t ≤ Ta t a = B̃t . ψt (B Ta , Ta , −Y ) = = BTa − Yt−Ta , t > Ta 2a − Bt , t > Ta Wiederholen wir diese Argumentation für vektorwertige Transformationen, so folgt d B̃ = B. Da zudem fast alle Pfade von B stetig sind, gilt dies auch für B̃. 1.5 Das Gesetz von iterierten Logarithmus 17 Proposition 1.21 (Reflexionsprinzip). Sei (Bt )t≥0 eine Brownsche Bewegung, a > 0 und Ta := inf{t > 0 : Bt = a}. Dann gilt P (Ta ≤ t) = 2P (Bt ≥ a) = P (|Bt | ≥ a). d Beweis. Sei B̃ der Prozess aus Satz 1.20 und Ta∗ := inf{t > 0 : B̃t = a}. Da Bt = B̃t für alle t ≥ 0, ist Ta = Ta∗ fast sicher. Wir erhalten P (Ta ≤ t, Bt ≤ a) = P (Ta ≤ t, B̃t ≤ a) = P (Ta ≤ t, 2a − Bt ≤ a) = P (Ta ≤ t, Bt ≥ a). Wegen {Bt ≥ a} ⊂ {Ta ≤ t} folgt ferner P (Ta ≤ t) = P (Ta ≤ t, Bt ≤ a) + P (Ta ≤ t, Bt ≥ a) = 2P (Ta ≤ t, Bt ≥ a) = 2P (Bt ≥ a). Die zweite Gleichung folgt direkt aus der Symmetrie der Normalverteilung. Bezeichne nun Bt∗ := max0≤s≤t Bs , t ≥ 0, den sog. Maximumprozess. Anknüpfend an das Reflexionsprinzip können wir zeigen Proposition 1.22. Sei (Bt )t≥0 eine Brownsche Bewegung und Bt∗ := max0≤s≤t Bs . Für jedes t ≥ 0 haben die Zufallsvariablen |Bt |, Bt∗ und Bt∗ − Bt dieselbe Verteilung. Beweis. Für jedes a > 0 gilt {Ta ≤ t} = {Bt∗ ≥ a}. Aus Proposition 1.21 folgt dann P (Bt∗ ≥ a) = P (Ta ≤ t) = P (|Bt | ≥ a). Also haben Bt∗ und |Bt | die gleiche Verteilung. Setze nun Xs := Bt−s − Bt , s ≤ t. Nach Satz 1.7 wird dadurch eine Brownsche Bewegung auf [0, t] definiert. Aus dem bereits bewiesenen ist max0≤s≤t Xs verteilt wie |Xt |. Daher erhalten wir d d Bt∗ − Bt = max Bs − Bt = max (Bt−s − Bt ) = max Xs = |Xt | = |Bt |. 0≤s≤t 0≤s≤t 0≤s≤t Bemerkung 1.10. Zwar besitzen Bt∗ und |Bt | die gleiche Verteilung, dies gilt jedoch nicht für die Prozesse. Denn (Bt∗ )t≥0 ist f.s. monoton wachsend, (|Bt |)t≥0 hingegen nicht. Aufgabe 10. Sei Ta := inf{t ≥ 0 : Bt ≥ a}. Bestimmen Sie die Dichte von Ta . Dem Hauptresultat dieses Abschnittes schicke ich noch zwei Hilfsaussagen voraus, die wir im Beweis benötigen werden. Lemma 1.23. Sei Xt eine normalverteilte Zufallsvariable mit Mittelwert 0 und Varianz t, und sei a > 0. Dann gilt √ a2 t P (Xt > a) ≤ √ e− 2t . a 2π 18 1 STOCHASTISCHE PROZESSE Beweis. Es gilt 1 P (Xt > a) = √ 2πt ∞ Z 1 dx ≤ √ a 2πt 2 − x2t e a Lemma 1.24. Der Quotient von x → ∞. R∞ x e−s 2 /2 Z ∞ 2 xe − x2t a ds und e−x 2 /2 √ a2 t dx = √ e− 2t . a 2π /x konvergiert gegen 1 für Beweis. Wende die Regel von l’Hospital an: Der Quotient aus ∂ ∂x ist 1 , x−2 +1 Z ∞ −s2 /2 e −x2 /2 ds = −e und x ∂(x−1 e−x ∂x 2 /2 ) 1 2 = − 2 + 1 e−x /2 x was für x → ∞ gegen 1 konvergiert. Nun haben wir das Handwerkszeug zusammen, um das Gesetz vom iterierten Logarithmus zu beweisen. Satz 1.25 (Gesetz vom iterierten Logarithmus). Für eine Brownsche Bewegung B gilt lim sup √ t→∞ und lim inf √ t→∞ Bt = 1 f.s. 2t log log t Bt = −1 f.s. 2t log log t Beweis. Die zweite Aussage ist eine direkte Folgerung aus der ersten, weil nach Satz 1.7 auch −B eine Brownsche Bewegung ist. √ Setze abkürzend u(t) := 2t log log t. Dies ist offensichtlich eine streng monoton Bt wachsende Funktion. Zunächst zeigen wir lim supt→∞ u(t) ≤ 1 f.s. Wähle dazu ein n α > 1 und setze tn := α . Wegen α > 1 ist die Folge der tn monoton wachsend in n. Definiere ferner An := {ω : ∃t ∈ [tn , tn+1 ] : Bt (ω) > αu(t)}. Aufgrund der Monotonie von u ist An in supt≤tn+1 Bt > αu(tn ) enthalten. Nach den Propositionen 1.22 und 1.21 erhalten wir also P (An ) ≤ P sup Bt > αu(tn ) = 2P (Btn+1 > αu(tn )). t≤tn+1 Mit Lemma 1.23 folgt r √ 2 (t ) n 2 tn+1 − α22tun+1 P (An ) ≤ e . π αu(tn ) √ Einsetzen von tn = αn und u(t) = 2t log log t liefert r r 1 1 1 (log α)−α p p P (An ) ≤ e−α log(n log α) = · n−α . π α log(n log α) π α log(n log α) 1.5 Das Gesetz von iterierten Logarithmus 19 Wegen log(n log α) → ∞ existiert ein n0 ∈ N und eine Konstante K > 0, so dass P (An ) ≤ Kn−α ∀n ≥ n0 . P Da wir α > 1 gewählt hatten, konvergiert die Reihe ∞ n=1 P (An ). Nach dem ersten Borel-Cantelli-Lemma aus der Stochastik I erhalten wir also P (lim sup An ) = 0. n→∞ Aufgrund der Inklusion lim supt→∞ lim sup t→∞ Bt u(t) > α ⊂ lim supn→∞ An folgt daraus Bt ≤ α f.s. für alle α > 1. u(t) Bt Durch Grenzübergang ergibt sich lim supt→∞ u(t) ≤ 1 f.s. √ Bt Wir zeigen nun lim supt→∞ u(t) ≥ 1 f.s. Sei dazu wie oben u(t) = 2t log log t, α > 1 α > 1. Betrachte und tn = αn . Definiere außerdem β := α−1 P (Btn − Btn−1 > β −1 u(tn )) = P B − B u(tn ) t tn−1 √n > √ . tn − tn−1 β tn − tn−1 Nach Definition der Brownschen Bewegung ist Btn − Btn−1 N0,tn −tn−1 -verteilt, der Bt −Btn−1 ist also N0,1 -verteilt. Nach Lemma 1.24 existiert also eine KonQuotient √ntn −tn−1 stante K > 0, so dass für schließlich alle n gilt Z ∞ 1 1 2 2 −1 P (Btn − Btn−1 > β u(tn )) = √ e−s /2 ds ≥ K e−x /2 x 2π x mit x = u(t ) √ n . β tn −tn−1 Durch Einsetzen erhalten wir wegen tn − tn−1 = β −1 tn √ u2 (tn ) β p 1 −x2 /2 β − 2 2β (tn −tn−1 ) e = tn − tn−1 e =p e− log(n log α)/β x u(tn ) 2 log(n log α) √ β (log α)−1/β · n−1/β . = p 2 log(n log α) Sei ε ∈ (0, 1 − β −1 ). Da der Logarithmus langsamer wächst als jede Potenz, können wir die rechte Seite für genügend große n nach unten abschätzen durch r r √ β β β −1/β −1/β −1/β −ε −1/β p (log α) ·n ≥ (log α) ·n n ≥ (log α)−1/β ·n−1 . 2 2 2 log(n log α) P −1 Daher divergiert die Reihe ∞ u(tn )). Nach Definition der n=2 P (Btn − Btn−1 > β Brownschen Bewegung sind die Zuwächse Btn −Btn−1 unabhängig. Nach dem zweiten Borel-Cantelli-Lemma gilt also P (lim sup{Btn − Btn−1 > β −1 u(tn )}) = P (Btn − Btn−1 > β −1 u(tn ) unendl. oft) = 1. n→∞ Da −B nach Satz 1.7 ebenfalls eine Brownsche Bewegung ist, können wir den ersten Teil des Beweises auf diesen Prozess anwenden und erhalten P (Btn−1 > −(1 + ε)u(tn−1 ) für fast alle n) = 1. 20 1 STOCHASTISCHE PROZESSE Also besitzt das Ereignis u(tn−1 ) Btn > u(tn ) β −1 − (1 + ε) unendlich oft u(tn ) Wahrscheinlichkeit 1. Wegen u(tn ) u(tn−1 ) → √ α folgt P (Btn > (β −1 − (1 + ε)α−1/2 )u(tn ) unendlich oft) = 1. Daher gilt lim supt→∞ folgt schließlich Bt u(t) ≥ β −1 − (1 + ε)α−1/2 f.s. Durch Grenzübergang α → ∞ lim sup t→∞ Bt ≥ 1 f.s., u(t) zusammen mit dem ersten Teil also die Behauptung. Aufgabe 11. Sei B eine Brownsche Bewegung. Dann gilt a) lim supt↓0 √ Bt = 1 f.s. b) lim inf t↓0 √ 2t log log(1/t) Bt = 2t log log(1/t) Bt+s −Bs c) lim supt↓0 √ 2t log log(1/t) −1 f.s. = 1 f.s. Aufgabe 12. Für fast alle Pfade einer √ Brownschen Bewegung B gilt: Jeder Punkt in [−1, 1] ist Häufungspunkt von Bt / 2t log log t. Ferner wird jeder Punkt in (−1, 1) unendlich oft besucht. Nun wie versprochen die Untersuchung auf die lokale Hölder-Stetigkeit Brownscher Pfade mit Exponent γ = 1/2. Proposition 1.26. Sei B eine Brownsche Bewegung. Für jedes t ≥ 0 gilt lim sup u↓0 |Bt+u − Bt | √ = ∞ f.s. u Fast alle Pfade von B sind also in t nicht lokal Hölder-stetig mit Exponent 21 . Beweis. Nach Aufgabe 11c) gilt lim supu↓0 √ Bt+u −Bt 2u log log(1/u) = 1 f.s. Da auch (−Bt+u + Bt )t≥0 eine Brownsche Bewegung ist, folgt lim inf u↓0 √ Bt+u −Bt = −1 f.s. Der 2u log log(1/u) größte Häufungspunkt von √ Bt+u −Bt für u ↓ 0 ist also f.s. gleich 1. Außerdem 2u log log(1/u) √ p 2u log log(1/u) √ konvergiert = 2 log log(1/u) für u ↓ 0 gegen unendlich. Wir erhalten u p 2u log log(1/u) |Bt+u − Bt | |Bt+u − Bt | √ √ lim sup = lim sup p · u u u↓0 u↓0 2u log log(1/u) |Bt+s − Bt | p = lim sup p 2 log log(1/s) u↓0 s≤u 2s log log(1/s) p |Bt+s − Bt | ≥ lim sup p 2 log log(1/u) . u↓0 s≤u 2s log log(1/s) 21 Die rechte Seite ist f.s. unendlich groß, daher folgt lim sup u↓0 |Bt+u − Bt | √ = ∞ f.s. u Die betrachtete Folge ist also f.s. nach oben unbeschränkt. Für festes t gilt ferner |Br − Bs | |Bs − Bt | |Bt+u − Bt | p √ ≥ sup √ = ∞ f.s., = sup u s−t s>t u>0 |r − s| r,s∈[0,∞),r6=s sup fast alle Pfade einer Brownschen Bewegung sind also in t nicht lokal Hölder-stetig mit Exponent 21 . 2 2.1 Stochastische Integration Das Stieltjes-Integral Der erste Schritt auf unserem Weg zum Itô-Integral soll in der Einführung des Stieltjes-Integrals bestehen. Zunächst möchte ich an die Definition des LebesgueStieltjes-Maßes erinnern: Definition 2.1. Ein Lebesgue-Stieltjes-Maß auf R ist ein Maß µ auf B mit µ(I) < ∞ für alle beschränkten Intervalle I ⊂ R. In Kapitel 4 der Stochastik I haben wir bereits gesehen, dass zu jeder rechtsstetigen und monoton wachsenden Funktion F : R → R ein Lebesgue-Stieltjes-Maß µF auf B mit µF ((a, b]) = F (b) − F (a) existiert. Definition 2.2. Das Lebesgue-Integral einer µF -integrierbaren Funktion g bezüglich des Lebesgue-Stieltjes-Maßes µF heißt Stieltjes-Integral. Verzichten wir auf die Monotonie, sei also A : [0, ∞) → R lediglich rechtsstetig, so existiert immer noch ein signiertes Maß µA auf B ∩ [0, ∞) mit µA ([0, t]) = A(t). Statt A(t) schreiben wir ab jetzt At . Definition 2.3. Sei ∆ eine Zerlegung 0 = t0 < t1 < · · · < tn = t des Intervalls [0, t]. Die Variation einer P rechtsstetigen Funktion A : [0, ∞) → R auf [0, t] ist ∆ ∆ Vt := sup∆ Vt mit Vt := ni=1 |Ati − Ati−1 |. Den Wert |∆| := supi=1,...,n |ti − ti−1 | bezeichnen wir als Feinheit der Zerlegung ∆. Definition 2.4. Eine rechtsstetige Funktion A : [0, ∞) → R heißt von endlicher Variation, wenn Vt < ∞ für alle t > 0. Bemerkung 2.1. Eine rechtsstetige monoton wachsende Funktion A ist von endlicher Variation. Wir erhalten direkt Proposition 2.1. Eine Funktion A : [0, ∞) → R von endlicher Variation ist die Differenz zweier monoton wachsender Funktionen. Beweis. Schreibe A = 21 (V + A) − 12 (V − A). 22 2 STOCHASTISCHE INTEGRATION Bemerkung 2.2. (i) Die soeben präsentierte Zerlegung entspricht der Hahn-JordanZerlegung aus Kapitel 7 der Stochastik I, bei der ein signiertes Maß in Positiv- und Negativteil zerlegt wird. (ii) Umgekehrt ist die Differenz zweier monoton wachsender Funktionen A und B von endlicher Variation. Nun sind wir bereit, das Stieltjes-Integral auf Integratoren zu erweitern, die von endlicher Variation sind. Definition 2.5. Ist f lokal (d.h. auf jedem Intervall [0, t], t ≥ 0) beschränkt und A : [0, ∞) → R rechtsstetig und von endlicher Variation, so ist das Stieltjes-Integral definiert durch Z Z t (f · A)t := f dµA . fs dAs := 0 (0,t] Aufgabe 13. Seien f und g lokal beschränkt, A und B von endlicher Variation und α, β ∈ R. Dann sind auch βA und A + B von endlicher Variation, und es gilt (αf + g) · (βA + B) = αβ(f · A) + α(f · B) + β(g · A) + g · B. Das Stieltjes-Integral ist also linear in Integrand und Integrator. Aufgabe 14. a) Sei B : [0, ∞) → R rechtsstetig mit B0 = 0 und V die Variation von B. Zeigen Sie, dass gilt |B| ≤ V . b) Sei B nun von endlicher Variation V . Ferner seien An , A und D Funktionen von n→∞ [0, ∞) nach R mit An −−−→ A punktweise, |An | ≤ D und D · V < ∞. Dann gilt n→∞ An · B −−−→ A · B punktweise. Bemerkung 2.3. In Aufgabe 14 lernen wir u.a. die Abschätzung |(A · B)t | ≤ (|A| · V )t kennen. Das Integral f · A ist also ebenfalls von endlicher Variation. Mit den Notationen At− := lims↑t As und ∆At = At − At− können wir einige Eigenschaften des Stieltjes-Integrals formulieren. Proposition 2.2 (Partielle Integration). Sind A : [0, ∞) → R und B : [0, ∞) → R rechtsstetige Funktionen von endlicher Variation, dann gilt At Bt = A0 B0 + (A · B)t + (B− · A)t . Beweis. Seien µA bzw. µB die zu A bzw. B gehörenden signierten Maße. Dann gilt At Bt = µA ([0, t]) · µB ([0, t]) = (µA ⊗ µB )([0, t] × [0, t]) und A0 B0 = µA ({0}) · µB ({0}) = (µA ⊗ µB )({(0, 0)}). Nach Definition des Stieltjes-Integrals ergibt sich ferner Z (A · B)t = µA ([0, s]) µB (ds) = (µA ⊗ µB )({(r, s) : 0 ≤ r ≤ s, s ∈ (0, t]}) (0,t] und Z (B− · A)t = µB ([0, r)] µA (dr) = (µA ⊗ µB )({(r, s) : 0 ≤ s < r, r ∈ (0, t]}). (0,t] 2.1 Das Stieltjes-Integral 23 Bemerkung 2.4. Die Bildung des Stieltjes-Integrals ist assoziativ, d.h. es gilt (AB) · C = A · (B · C). Proposition 2.3 (Kettenregel). Sei F stetig differenzierbar und A stetig und von endlicher Variation. Dann ist F (A) stetig und von endlicher Variation, und es gilt: F (At ) = F (A0 ) + (F 0 (A) · A)t . Beweis. F (A) ist als Komposition stetiger Funktionen ebenfalls stetig. PnSei 0 = t0 < ∆ t1 < · · · < tn = t eine Zerlegung des Intervalls [0, t] und Vt = i=1 |F (Ati ) − F (Ati−1 )|. Da F stetig differenzierbar ist, existieren nach dem Mittelwertsatz der Differentialrechnung Werte ξi zwischen Ati−1 und Ati , so dass F (Ati ) − F (Ati−1 ) = F 0 (ξi )(Ati − Ati−1 ). Aufgrund des Zwischenwertsatzes existieren si ∈ [0, t] mit Asi = ξi . Da die stetige Funktion F 0 (A) auf dem kompakten Intervall [0, t] beschränkt ist, existiert eine Konstante C mit |F (Ati ) − F (Ati−1 )| = |F 0 (Asi )||Ati − Ati−1 | ≤ C|Ati − Ati−1 |. Bezeichnet Ṽt die Variation von A auf [0, t], so erhalten wir die Abschätzung sup Vt∆ ∆ ≤ C sup ∆ n X |Ati − Ati−1 | = C Ṽt < ∞. i=1 F (A) ist also von endlicher Variation. Die behauptete Gleichung beweisen wir in mehreren Schritten: 1. Schritt: Die Behauptung gilt für die Funktion F (x) = x, denn Z At = A0 + (At − A0 ) = A0 + µA ((0, t]) = A0 + dµA = A0 + (1 · A)t . (0,t] 2. Schritt: Wir wollen zeigen: Ist die Behaupung für F (x) richtig, dann gilt sie auch für xF (x). Nach der Produktregel der Differentiation gilt (xF (x))0 = F (x) + xF 0 (x). Aufgrund der Linearität des Stieltjes-Integrals ist also zu zeigen: AF (A) = A0 F (A0 ) + F (A) · A + (AF 0 (A)) · A. Nach Proposition 2.2 gilt einerseits AF (A) = A0 F (A0 ) + A · F (A) + F (A) · A. (∗) Andererseits liefert die Kettenregel F (A) = F (A0 ) + F 0 (A) · A, also aufgrund der Assoziativität und Linearität des Integrals A · F (A) = A · F (A0 ) + A · (F 0 (A) · A) = (AF 0 (A)) · A. (∗∗) Durch Einsetzen von (∗∗) in (∗) folgt AF (A) = A0 F (A0 ) + F (A) · A + (AF 0 (A)) · A. Die Behauptung gilt also für alle Monome F (x) = xk und wegen Linearität auch für alle Polynome. 3. Schritt: Nach dem Approximationssatz von Weierstraß lässt sich jede stetig differenzierbare Funktion F auf einem kompakten Intervall gleichmäßig durch Polynome approximieren. Mit Aufgabe 14 folgt die Behauptung. 24 2 STOCHASTISCHE INTEGRATION Leider ist die Brownsche Bewegung nach Korollar 1.10 in Abschnitt 1.3 auf jedem Intervall f.s. von unendlicher Variation, der hier eingeführte Integralbegriff ist also nicht auf die Brownsche Bewegung anwendbar. Gerade an einem solchen Integral sind wir aber interessiert. Da sich das Stieltjes-Integral auch nicht auf die Brownsche Bewegung erweitern lässt, müssen wir in den nächsten Abschnitten das Itô-Integral einführen, um bzgl. der Brownschen Bewegung integrieren zu können. 2.2 Lokale Martingale und quadratische Variation Sei (Ft )t≥0 eine rechtsstetige und vollständige Filtration. Definition 2.6. Ein Prozess M heißt lokales Martingal (bzgl. (Ft )t≥0 ), wenn er adaptiert ist und Stoppzeiten τn ↑ ∞ existieren, so dass M τn − M0 ein Martingal (bzgl. (Ft∧τn )t≥0 ) ist. Dabei ist M τ definiert durch Mtτ := Mτ ∧t . Man sagt, die Stoppzeiten τn lokalisieren M zu einem stetigen Martingal. Aufgabe 15. Sei S eine Stoppzeit und X ein stetiger Prozess. Dann ist der gestoppte Prozess X S ein Martingal bezüglich (FS∧t )t≥0 genau dann, wenn X S ein Martingal bezüglich (Ft )t≥0 ist. Aufgabe: Seien X und Y lokale Martingale bezüglich einer Filtration (Ft )t≥0 und Z eine F0 -messbare Zufallsvariable. Dann sind auch X + Y und ZX lokale Martingale. Bemerkung 2.5. Ist M ein stetiges lokales Martingal, dann lässt sich M durch τn = inf{t : |Mt | ≥ n} oder jede andere Folge τn0 ≤ τn von Stoppzeiten mit τn0 → ∞ zu einem stetigen beschränkten Martingal lokalisieren. Beweis. Sei X = M −M0 und (σn )n∈N eine Folge von Stoppzeiten, die M lokalisieren. Für s < t liefert der Satz über optional Sampling (in der Version für stetige Zeiten) angewandt auf das Martingal X σn E(Xt∧σn ∧τm0 |Fs∧σn ∧τm0 ) = Xs∧σn ∧τm0 , 0 0 X σn ∧τm ist also ein (Ft∧σn ∧τm0 )-Martingal. Nach Aufgabe 15 ist dann X σn ∧τm ein (Ft )-Martingal, d.h. 0 σ ∧τ 0 E(Xt n m |Fs ) = Xsσn ∧τm . σ ∧τ 0 τ0 Für n → ∞ gilt σn ↑ ∞, also Xs n m → Xs m . Nach Definition von τm gilt außerdem σ ∧τ 0 0 |Xtτm | = |Xt∧τm | ≤ 2m und wegen σn ∧ τm ≤ τm auch |Xt n m | = |Xt∧σn ∧τm0 | ≤ 2m. Mit dem Satz über dominierte Konvergenz für bedingte Erwartungswerte erhalten wir also 0 τ0 E(Xt m |Fs ) = Xsτm . 0 0 Folglich ist X τm = M τm − M0 für jedes m ein Martingal bezüglich (Ft )t≥0 , die 0 Stoppzeiten τm lokalisieren also M . Aufgabe 16. Zeigen Sie, dass jedes nach unten beschränkte lokale Martingal M mit EM0 < ∞ ein Supermartingal ist. Proposition 2.4. Ist M ein stetiges lokales Martingal von endlicher Variation, dann gilt M = M0 f.s. 2.2 Lokale Martingale und quadratische Variation 25 Beweis. Sei Vt die Variation von M auf [0, t]. Man kann zeigen, dass V stetig und adaptiert ist. Sei weiter τn = inf{t ≥ 0 : Vt ≥ n}. Nach Bemerkung 2.5 ist der gestoppte Prozess M τn − M0 ein beschränktes Martingal. Daher können wir Œ annehmen, dass M ein stetiges Martingal mit Vt ≤ c für alle t ≥ 0 und M0 = 0 ist. Für eine Folge ∆n von Zerlegungen des Intervals [0, t] mit |∆n | → 0 folgt aus der Stetigkeit von M ζn = n X (Mti − Mti−1 )2 ≤ Vt max |Mti − Mti−1 | → 0. ∆n i=1 Wegen ζn ≤ Vt2 ≤ c2 liefert der Satz über dominierte Konvergenz Eζn → 0. Da M ein Martingal ist, gilt für s < t E((Mt − Ms )2 |Fs ) = E(Mt2 |Fs ) − Ms2 = E(Mt2 − Ms2 |Fs ). Hiermit erhalten wir EMt2 =E n hX (Mt2i − i Mt2i−1 ) i=1 =E n hX i (Mti − Mti−1 )2 = Eζn → 0. i=1 Also muss EMt2 gleich Null sein, was wiederum Mt = 0 f.s. impliziert. Da t beliebig war, ist Mt = 0 mit Wahrscheinlichkeit Eins für alle rationalen t. Durch die Stetigkeit folgt das gewünschte Resultat. Interessant ist auch die Aussage Proposition 2.5. Ein beschränktes lokales Martingal ist ein Martingal. Beweis. Sei (Mt , Ft )t≥0 ein lokales Martingal, und es gebe eine Konstante K mit |Mt | ≤ K für alle t ≥ 0. Insbesondere ist dann jedes Mt integrierbar. Sei ferner (τn )n∈N eine Folge von Stoppzeiten, die M zu einem Martingal lokalisiert. Nach Aufgabe 15 gilt E(Mtτn |Fs ) = Msτn . Aufgrund der Beschränktheit des lokalen Martingals ist der Satz über dominierte Konvergenz für bedingte Erwartungswerte (vgl. Stochastik I) anwendbar. Er liefert E(Mt |Fs ) = lim E(Mtτn |Fs ) = lim Msτn = Ms . n→∞ n→∞ In Aufgabe 65 der Stochastik I haben wir schon gesehen, dass es zu einem quadratintegrierbaren Martingal Mn eine Folge von Fn−1 -messbaren und in n wachsenden Zufallsvariablen An mit A0 = 0 gibt, so dass Xn2 − An ein Martingal ist. Die An sind zudem f.s. eindeutig, denn: Wenn Bn die gleichen Eigenschaften besitzt, dann ist An − Bn = Xn2 − Bn − Xn2 + An ein Martingal. Ferner ist An − Bn Fn−1 -messbar. Daher gilt An − Bn = E(An − Bn |Fn−1 ) = An−1 − Bn−1 f.s. Iterieren liefert An − Bn = A0 − B0 = 0 f.s. Nun sind wir an einer ähnlichen Aussage für stetige lokale Martingale interessiert. 26 2 STOCHASTISCHE INTEGRATION Satz 2.6. Ist M ein stetiges lokales Martingal, so gibt es einen f.s. eindeutig bestimmten, stetigen, monoton wachsenden adaptierten Prozess [M ] mit [M ]0 = 0, so dass M 2 − [M ] ein stetiges lokales Martingal ist. Definition 2.7. Den f.s. eindeutig bestimmten Prozess [M ] aus Satz 2.6 bezeichnen wir als quadratische Variation. Für den Beweis benötigen wir noch einige Hilfsaussagen: Lemma 2.7. Sei (Xk )k∈N ein Submartingal. Für r ≥ 0 und n ∈ N gilt rP (max Xk ≥ r) ≤ EXn 1{maxk≤n Xk ≥r} ≤ EXn+ . k≤n Beweis. Durch T := n ∧ inf{k : Xk ≥ r} wird eine S Stoppzeit definiert, die durch n beschränkt ist. Setze B = {max1≤k≤n Xk ≥ r} = nk=1 {Xk ≥ r}. Nach dem Satz über optional sampling und wegen XT ≥ r auf B gilt E[Xn ] ≥ E[XT ] = E[1B XT ] + E[1B c XT ] ≥ rP (B) + E[1B c Xn ]. Beachte dabei, dass T = n, wenn max1≤k≤n Xk < r. Subtrahiere dann E[1B c Xn ] auf beiden Seiten. Setze abkürzend Xt∗ := sups≤t |Xs |. Proposition 2.8 (Doob-Ungleichung). Sei M ein rechtsstetiges Martingal und p, q > 1 mit p1 + 1q = 1. Dann gilt kMt∗ kp ≤ p kMt kp = qkMt kp . p−1 Beweis. Sei zunächst (Mk )k∈N ein Martingal. Setze Sn∗ := supk≤n |Mk |. Gilt kMn kp < ∞, dann sind nach der Jensen-Ungleichung kMk kp < ∞ für alle k ≤ n. Also können wir Œ annehmen, dass kSn∗ kp < ∞. Ferner dürfen wir Œ kSn∗ kp > 0 annehmen, da sonst die Ungleichung trivialerweise erfüllt ist. Nach Satz 21.1 der Stochastik I ist (|Mk |)k∈N ein Submartingal. Für ein r > 0 folgt also mit Lemma 2.7 rP (Sn∗ ≥ r) ≤ E[|Mn |1{Sn∗ ≥r} ]. Der Satz von Fubini und die Hölder-Ungleichung liefern Z Sn∗ Z ∞ Z ∞ ∗ p p−1 p−1 kSn kp = p E r dr = p E 1(0,Sn∗ ] (r)r dr = p P (Sn∗ ≥ r)rp−1 dr 0 0 0 Z ∞ Z Sn∗ p−2 p−2 ≤ p E[|Mn |1{Sn∗ ≥r} ]r dr = p E |Mn | r dr 0 0 p p E[|Mn |(Sn∗ )p−1 ] ≤ kMn kp k(Sn∗ )p−1 kq = qkMn kp kSn∗ kp−1 = p . p−1 p−1 Für ein rechtsstetiges Martingal M in stetiger Zeit wählen wir D := {t} ∪ (Q ∩ [0, t]). Diese Menge ist abzählbar und dicht in [0, t]. Wähle eine Abzählung (tn )n∈N von Q ∩ [0, t]. Dann ist (Mt )t∈In mit In = {t1 , . . . , tn , t} ein Martingal mit endlicher Indexmenge, die der Größe nach zu sortieren ist. Daher gilt sup |Ms | ≤ qkMt kp . s∈In p 2.2 Lokale Martingale und quadratische Variation 27 Wegen sups∈In |Ms | ↑ sups∈D |Ms | und der Rechtsstetigkeit des Martingals folgt kMt∗ kp = sup |Ms | ≤ qkMt kp . s∈D p Lemma 2.9. Für jedes n ∈ N sei Z n ein Martingal bezüglich (Ft )t≥0 . Für jedes t gelte Ztn → Zt in Lp für ein p ≥ 1. Dann ist Z ein Martingal. Beweis. Aufgrund der Martingaleigenschaft gilt E(Ztn |Fs ) = Zsn für s < t. Die rechte Seite konvergiert in Lp gegen Zs . Mit der Jensen-Ungleichung folgt E[|E(Ztn |Fs ) − E(Zt |Fs )|p ] = E[|E(Ztn − Zt |Fs )|p ] ≤ E[E(|Ztn − Zt |p |Fs )] = E|Ztn − Zt |p → 0. Daher erhalten wir kE(Zt |Fs ) − Zs kp ≤ kE(Zt |Fs ) − E(Ztn |Fs )kp + kZsn − Zs kp → 0, also E(Zt |Fs ) = Zs f.s. Beweis von Satz 2.6. Eindeutigkeit: Seien A und A0 zwei Prozesse mit den gewünschten Eigenschaften. Dann sind M 2 − A und M 2 − A0 und somit auch A − A0 stetige lokale Martingale. Ferner ist A − A0 von endlicher Variation, und es gilt A0 − A00 = 0. Nach Proposition 2.4 folgt A = A0 f.s. Existenz: Wir zeigen die Existenz zunächst für den Fall, dass M ein stetiges beschränktes Martingal ist. Diesen Schritt werde ich nur skizzieren, Details sind in [Dur96] zu finden. Sei ∆ = {0 = t0 < t1 < t2 < . . .} mit limn→∞ tn = ∞. Die Zahl k(t) = sup{k : tk < t} sei der Index des letzten Zerlegungspunktes vor t. Damit definieren wir k(t) X ∆ Qt (M ) = (Mti − Mti−1 )2 + (Mt − Mtk(t) )2 . i=1 Durch einfaches Nachrechnen folgt, dass M 2 −Q∆ (M ) ein Martingal ist. Wir werden den Prozess Q∆ (M ) benutzen, um den gesuchten Prozess A zu konstruieren. Abgesehen vom letzten Term wächst der Prozess. Mit etwas Aufwand lässt sich zeigen, dass für festes r > 0 und eine Zerlegung ∆n des Intervalls [0, r] mit |∆n | → 0 die n Zufallsvariable Q∆ in L2 konvergiert (vgl. den Beweis zu Lemma c in Abschnitt 2.3 r in [Dur96]). Sei ∆n speziell eine Zerlegung mit Punkten k2−n r, 0 ≤ k ≤ 2n . Da Q∆m − Q∆n ein Martingal ist, liefert Proposition 2.8 h i ∆n 2 m m n 2 E sup |Q∆ − Q | ≤ 4E[(Q∆ − Q∆ t t r r ) ]. t≤r ∆ Es gibt also eine Teilfolge, so dass Qt n(k) f.s. gleichmäßig auf [0, r] gegen einen Limes At konvergiert. Indem wir Teilfolgen von Teilfolgen wählen und ein Diagonalfolgenargument benutzen, erhalten wir f.s. gleichmäßige Konvergenz auf [0, N ] für alle N . Da jedes Q∆ stetig ist, gilt dies auch für A. Aufgrund des letzten Terms ist Q∆ m nicht wachsend. Für m ≥ n ist aber die Abbildung k 7→ Q∆ k2−n r wachsend, so dass auch k 7→ Ak2−n r wächst. Da n beliebig und A stetig ist, ist A monoton wachsend. 28 2 STOCHASTISCHE INTEGRATION Schließlich müssen wir noch nachprüfen, dass M 2 − A ein Martingal ist. Dies folgt mit Lemma 2.9 für p = 2. Sei M nun ein stetiges lokales Martingal. Dann gibt es nach Bemerkung 2.5 eine Folge von Stoppzeiten τn ↑ ∞, so dass Y n = M τn − M0 ein beschränktes Martingal ist. Nach dem ersten Teil des Existenzbeweises gibt es also einen f.s. eindeutigen, stetigen, adaptierten und monoton wachsenden Prozess An , so dass (Y n )2 − An ein Martingal ist. Da für jedes beschränkte Martingal X und jede Stoppzeit T nach dem Satz über optional sampling (in der Version für stetige Zeit) (X T )2 − [X]T ein stetiges lokales Martingal ist, muss aufgrund der f.s. Eindeutigkeit von [X] schon für t ≤ τn . Wir können also definieren [X T ] = [X]T gelten. Daher ist Ant = An+1 t n [M ]t = At für t ≤ τn . Es ist klar, dass [M ] stetig, adaptiert und monoton wachsend ist. Die Definition impliziert, dass (M τn − M0 )2 − [M ]τn ein Martingal ist. Folglich ist (M − M0 )2 − [M ] ein lokales Martingal. Da M02 − 2M0 M ebenfalls ein lokales Martingal ist, ist auch M 2 − [M ] ein lokales Martingal. ∆n Beispiel 2.1. Nach Lemma 1.14 ist [B]t = t. In Satz 1.9 haben wir gezeigt, dass T[0,t] stochastisch gegen t konvergiert. Dass dies kein Zufall ist, werden wir später sehen. Aus Satz 2.6 folgt Korollar 2.10. Seien M und N stetige lokale Martingale. Dann existiert ein f.s. eindeutig bestimmter, stetiger adaptierter Prozess [M, N ] von endlicher Variation mit [M, N ]0 = 0, so dass M N − [M, N ] ein stetiges lokales Martingal ist. Beweis. Existenz: M + N und M − N sind ebenfalls stetige lokale Martingale. Definiere 1 [M, N ] := [M + N ] − [M − N ] . 4 Als Differenz zweier monoton wachsender Funktionen ist [M, N ] von endlicher Variation. Ferner ist 1 1 M N − [M, N ] = (M + N )2 − [M + N ] − (M − N )2 − [M − N ] 4 4 ein stetiges lokales Martingal. Eindeutigkeit: Seien A und A0 mit A0 = A00 = 0 stetig, adaptiert und von endlicher Variation, so dass M N − A und M N − A0 stetige lokale Martingale sind. Dann ist A − A0 ein stetiges lokales Martingal von endlicher Variation. Also gilt nach Proposition 2.4 A − A0 = A0 − A00 = 0 f.s. Definition 2.8. Der Prozess [M, N ] aus Korollar 2.10 heißt Kovariation. Aufgabe 17. Seien X, Y und Z stetige lokale Martingale und a, b ∈ R. Beweisen Sie folgende Eigenschaften der Kovariation ausschließlich mit Hilfe der Definition: (i) [X, Y ] = [Y, X], (ii) [aX, bY ] = ab[X, Y ], (iii) [X + Y, Z] = [X, Z] + [Y, Z], (iv) [X − X0 , Z] = [X, Z]. Wenn wir analog zu oben Q∆ t (M, N ) = k(t) X (Mtk − Mtk−1 )(Ntk − Ntk−1 ) + (Mt − Mtk(t) )(Nt − Ntk(t) ) k=1 setzen, so erhalten wir 2.3 Das Itô-Integral bezüglich beschränkter Martingale 29 Satz 2.11. Seien M und N stetige lokale Martingale. Für jedes t und Folge von Zerlegungen ∆n des Intervalls [0, t] mit |∆n | → 0 gilt n sup |Q∆ s (M, N ) − [M, N ]s | → 0 stochastisch. s≤t Insbesondere gilt n sup |Q∆ s (M ) − [M ]s | → 0 stochastisch. s≤t Beweis. Wir zeigen zunächst die zweite Aussage. Sei δ, ε > 0. Wir können eine Stoppzeit S so wählen, dass M S − M0 ein beschränktes Martingal ist und P (S ≤ ∆n S n t) ≤ δ gilt. Auf [0, S] stimmen Q∆ s (M ) und Qs (M ) überein. Aus dem Beweis S von Satz 2.6 folgt, dass [M ] und [M ] auf [0, S] gleich sind. Daher gilt S S ∆n n (M ) − [M ] | > ε . (M ) − [M ] | > ε ≤ δ + P sup |Q P sup |Q∆ s s s s s≤t s≤t Da M S − M0 ein beschränktes Martingal ist, muss der letzte Term aufgrund des Beweises zu Satz 2.6 gegen Null konvergieren. Wegen n Q∆ s (M, N ) = 1 ∆n n Qs (M + N ) − Q∆ s (M − N ) 4 folgt die erste Aussage aus der zweiten. In einigen Büchern wird die quadratische Variation bzw. die Kovariation als stochastischer Grenzwert von Q∆n (M ) bzw. Q∆n (M, N ) definiert. 2.3 Das Itô-Integral bezüglich beschränkter Martingale Das Itô-Integral bezüglich stetiger beschränkter Martingale definieren wir analog zum Lebesgue-Integral zunächst für bestimmte Treppenprozesse und setzen die Definition dann auf größere Klassen von Prozessen fort. Definition 2.9. Ein Prozess X = (Xt )t≥0 heißt (i) produktmessbar, falls (ω, t) 7→ Xt (ω) messbar bezüglich F ⊗ (B ∩ [0, ∞)) ist, (ii) progressiv messbar bezüglich einer Filtration (Ft )t≥0 , wenn für jedes t ≥ 0 die Abbildung Ω × [0, t] → R, (ω, s) 7→ Xs (ω) Ft ⊗ (B ∩ [0, t])-messbar ist. Bemerkung 2.6. Jeder progressiv messbare Prozess H ist produktmessbar und adaptiert, d.h. für festes t ≥ 0 ist die Zufallsvariable Ht Ft -messbar. Mit etwas mehr Aufwand kann man zeigen: Ist H adaptiert und produktmessbar, so gibt es eine progressiv messbare Modifikation von H. Proposition 2.12. Ist H ein adaptierter rechtsstetiger oder linksstetiger Prozess, so ist H progressiv messbar. 30 2 STOCHASTISCHE INTEGRATION Beweis. Wir beweisen die Aussage nur für einen rechtsstetigen Prozess. Für einen linksstetigen Prozess argumentiert man analog. Zu einem vorgegebenen t ≥ 0 definieren wir ( H(j+1)2−n t (ω) , s ∈ [j2−n t, (j + 1)2−n t), für j = 0, 1, . . . , 2n − 1 Yn (ω, s) := . Hs (ω) ,s ≥ t Aufgrund der Rechtsstetigkeit der Pfade gilt lim Yn (ω, s) = Hs (ω) , (ω, s) ∈ Ω × [0, ∞). n→∞ Daher genügt es, zu zeigen, dass Yn eingeschränkt auf Ω × [0, t] eine Ft ⊗ (B ∩ [0, t])messbare Abbildung ist. Sei also B ∈ B, dann ist {Yn ∈ B} = n −1 2[ ({H(j+1)2−n t ∈ B} × [j2−n t, (j + 1)2−n t)) ∪ ({Ht ∈ B} × {t}) j=0 ∈ Ft ⊗ (B ∩ [0, t]). Yn ist also Ft ⊗ (B ∩ [0, t])-messbar. Definition 2.10. Ein reeller Prozess H auf (Ω, F, P ) heißt elementarer Prozess, wenn er eine Darstellung Hs (ω) = n X hi−1 (ω)1(ti−1 ,ti ] (s) i=1 besitzt, wobei n ∈ N, 0 = t0 < t1 < · · · < tn und hi−1 beschränkt und Fti−1 -messbar, i = 1, . . . , n. Die Menge der elementaren Prozesse bezeichnen wir mit E. Bemerkung 2.7. Die Menge E ist ein Vektorraum. Die elementaren Prozesse sind offensichtlich linksstetig und adaptiert, nach Proposition 2.12 also progressiv messbar. Den einfachsten elementaren Prozess Hs (ω) = h(ω)1(a,b] (s) können wir z.B. als Anzahl der Aktien einer Sorte in unserem Portfolio interpretieren: Zum Zeitpunkt a kaufen wir abhängig von unserem Wissen h Aktien, diese behalten wir bis zum Zeitpunkt b und verkaufen sie dann wieder. Diese Interpretation ist sinnvoll, wenn wir den durch Aktiengeschäfte entstandenen Gewinn zu einer Zeit t ermitteln wollen. Bezeichnet nämlich Xt den Preisprozess der betrachteten Aktiensorte, d.h. Xt ist der Wert der Aktie zurR Zeit t, so ist der Get winn durch das noch zu definierende Integral (H · X)t := 0 Hs dXs gegeben. Ist Ht = h1(a,b] (t) und M ein Martingal in stetiger Zeit, so ist es ausgehend von den bekannten Integralbegriffen logisch, (H · M )t für t > b als h(Mb − Ma ) zu definieren. Definition 2.11. Sei H ∈ E und M ein stetiges Martingal. Dann ist der Prozess H · M definiert durch Z t n X (H · M )t := Hs dMs := hi−1 (Mti ∧t − Mti−1 ∧t ) , t ≥ 0. 0 i=1 Satz 2.13. Seien H, K ∈ E, α, β ∈ R und M und N stetige Martingale. Dann gilt (αH + βK) · M = α(H · M ) + β(K · M ) und H · (αM + βN ) = α(H · M ) + β(H · N ). 2.3 Das Itô-Integral bezüglich beschränkter Martingale 31 Aufgabe 18. Beweisen Sie Satz 2.13 Satz 2.14. Ist M ein stetiges Martingal und H ∈ E, dann ist H · M ein stetiges Martingal mit (H · M )0 = 0. Beweis. Für den elementaren Prozess K = h1(a,b] gilt ,0 ≤ t ≤ a 0 (K · M )t = h(Mt − Ma ) , a < t ≤ b . h(Mb − Ma ) , t > b Der Prozess K · M ist also stetig (in dem Sinne, dass er stetige Pfade besitzt). Für jedes t ≥ 0 ist (K ·M )t Ft -messbar, und es gilt E|(K ·M )t | < ∞ für alle t. Da (K ·M )t für t ∈ / (a, b] konstant ist, genügt es, die Martingaleigenschaft für a ≤ s < t ≤ b nachzuweisen. In diesem Fall gilt E((K · M )t |Fs ) − (K · M )s = E((K · M )t − (K · M )s |Fs ) = E(h(Mt − Ms )|Fs ) = hE(Mt − Ms |Fs ) = 0. Ein beliebiger Prozess H ∈ E ist eine endliche Summe von elementaren Prozessen der Form K. Nach dem ersten Teil ist also auch H · M stetig und (H · M )t Ft messbar für alle t ≥ 0 sowie E|(H · M )t | < ∞ für alle t. Nach Satz 2.13 ist (H · M )t zudem eine endliche Summe von Martingalen und somit selbst ein Martingal. Aus der Definition folgt direkt (H · M )0 = 0. Satz 2.15. Ist M ein stetiges Martingal und H ∈ E, dann ist H ·M das f.s. eindeutig bestimmte stetige Martingal mit (H · M )0 = 0, so dass [H · M, N ] = H · [M, N ] f.s. für alle stetigen Martingale N. Beweis. Eindeutigkeit: Seien X und Y stetige Martingale mit X0 = Y0 = 0 und [X, N ] = H · [M, N ] = [Y, N ] f.s. für alle stetigen Martingale N . Aufgrund der Linearität der Kovariation gilt [X − Y, N ] = 0 f.s. Für N = X − Y erhalten wir [X − Y ] = 0 f.s. Nach Definition ist also (X − Y )2 ein stetiges Martingal mit (X − Y )20 = 0. Folglich ist X = Y f.s. Bedingung erfüllt: Es genügt, die Bedingung für Prozesse Hs (ω) = h(ω)1(a,b] (s) mit Fa -messbarem h nachzuweisen, da die Behauptung dann mittels Linearität des Itôund des Stieltjes-Integrals folgt. Nach Definition gilt (H · M )t = h(Mb∧t − Ma∧t ). Nach Satz 2.14 ist H · M ein stetiges Martingal mit (H · M )0 = 0. Aufgrund der Definition der Kovariation genügt es zu zeigen, dass Z = (H · M )N − H · [M, N ] ein stetiges lokales Martingal ist, da dann aus der f.s. Eindeutigkeit die gewünschte Gleichung folgt. Durch Lokalisieren können wir annehmen, dass M un N beschränkt sind. Es gilt ,t ≤ a 0 Zt = h(Mt − Ma )Nt − h([M, N ]t − [M, N ]a ) , a < t ≤ b . h(Mb − Ma )Nt − h([M, N ]b − [M, N ]a ) , t > b 32 2 STOCHASTISCHE INTEGRATION Für a ≤ s < t ≤ b gilt Zt − Zs = h Mt Nt − Ms Ns − Ma (Nt − Ns ) − ([M, N ]t − [M, N ]s ) . Bilden wir den bedingten Erwartungswert gegeben Fs , so erhalten wir E(Zt −Zs |Fs ) = hE(Mt Nt −[M, N ]t −(Ms Ns −[M, N ]s )|Fs )−hMa E(Nt −Ns |Fs ) = 0. Auch in anderen Fällen erhalten wir das gleiche Ergebnis, so dass Z tatsächlich ein Martingal ist. Aus diesem nützlichen Resultat folgt unmittelbar Korollar 2.16. Sind M und N stetige Martingale und H, K ∈ E, dann gilt [H ·M, K ·N ]t = ((HK)·[M, N ])t f.s. und E(H ·M )t (K ·N )t = E((HK)·[M, N ])t sowie E(H · M )2t = E(H 2 · [M ])t . Beweis. Verwende die Sätze 2.14 und 2.15 sowie die Assoziativität des StieltjesIntegrals. Definition 2.12. Ein Martingal heißt L2 -beschränkt, wenn kM k := (sup E[Mt2 ])1/2 < ∞. t≥0 Bezeichne M2 den Raum der L2 -beschränkten (f.s.) stetigen Martingale M . Aufgabe 19. Ein stetiges lokales Martingal M liegt genau dann in M2 , wenn EM02 < ∞ und E[M ]∞ < ∞. Bemerkung 2.8. Die Brownsche Bewegung ist zwar nach Lemma 1.14 ein (zumindest f.s.) stetiges Martingal. Wegen [B]t = t ist es jedoch nicht L2 -beschränkt. Satz 2.17. M2 ist vollständig. Beweis. Nach Konvergenzsätzen zu gleichmäßig integrierbaren Martingalen (vgl. Kapitel 26 der Stochastik I) konvergiert jedes M ∈ M2 f.s. und in L2 gegen einen 2 Grenzwert M∞ mit EM∞ = supt≥0 E[Mt2 ]. Sei F∞ = σ(Ft , t ≥ 0). Da M∞ als Limes F∞ -messbarer Funktionen ebenfalls F∞ -messbar ist, wird durch M 7→ M∞ eine Abbildung von M2 nach L2 (F∞ ) definiert. Aufgrund monotoner Konvergenz gilt 2 kM k2 = sup E[Mt2 ] = lim E[Mt2 ] = E[M∞ ] = kM∞ k22 . (∗) t≥0 t→∞ (n) Sei nun M (1) , M (2) , . . . eine Cauchyfolge in M2 . Wegen (∗) ist dann (M∞ )n∈N eine Cauchyfolge in L2 (F∞ ). Da L2 (F∞ ) vollständig ist, existiert ein Z ∈ L2 (F∞ ), gegen (n) das die Folge (M∞ )n∈N in L2 (F∞ ) konvergiert. Durch Mt = E(Z|Ft ) wird ein L2 beschränktes Martingal definiert, das nach den Konvergenzsätzen aus Kapitel 26 einerseits f.s. gegen ein M∞ und andererseits f.s. gegen E(Z|F∞ ) = Z konvergiert. Es gilt also M∞ = Z f.s. Daher liefert die Doob-Ungleichung (Proposition 2.8) (n) − M∞ k2 → 0. k(M (n) − M )∗ k = k(M (n) − M )∗∞ k2 ≤ 2kM∞ Daraus ergibt sich einerseits kM (n) − M k → 0. Andererseits gibt es eine Teilfolge (n(k))k∈N , so dass (M (n(k)) − M )∗∞ f.s. gegen Null konvergiert. Da die M (n(k)) f.s. stetig sind, muss auch M f.s. stetig sein. 2.3 Das Itô-Integral bezüglich beschränkter Martingale 33 Dies ist der Schlüssel zur Erweiterung des stochastischen Integralbegriffs. Definition 2.13. Sei M ein stetiges Martingal. Dann bezeichne P2 (M ) den Raum der progressiv messbaren Prozesse H mit 1/2 kHkM := E(H 2 · [M ])∞ < ∞. Zur Erinnerung: Das in der Definition auftauchende Integral ist ein Stieltjes-Integral. Proposition 2.18 (Itô-Isometrie I). Ist M ein stetiges Martingal und H ∈ E, dann gilt kH · M k = kHkM . Beweis. Mit Korollar 2.16 folgt kHk2M = E(H 2 · [M ])∞ = sup E(H 2 · [M ])t = sup E(H · M )2t = kH · M k2 . t≥0 t≥0 Der erste Schritt zur Erweiterung des Integrals besteht darin, zu zeigen, dass für ein vorgegebenes M ∈ M2 der Raum E dicht in P2 (M ) liegt. Proposition 2.19. Sei M ein stetiges Martingal und H ∈ P2 (M ), dann gibt es eine Folge H n ∈ E mit kH n − HkM → 0. Beweis. Ich werde den Beweis hier nur für den Spezialfall [M ]t = t führen. Für den allgemeinen Fall vergleiche z.B. Lemma 3.2.7 in [KS98]. Es reicht zu zeigen, dass für jedes T > 0 eine Folge (H n )n∈N in E existiert mit Z T n→∞ n 2 (Hs − Hs ) ds −−−→ 0. (#) E 0 Schritt 1: Sei zunächst H stetig und beschränkt. Setze H0n = 0 und Htn = Hi2−n T falls i2−n T < t ≤ (i + 1)2−n T für ein i = 0, . . . , 2n − 1 und Htn = 0 für t > T . Dann ist H n ∈ E, und es gilt Htn (ω) → Ht (ω) für alle t > 0 und ω ∈ Ω. Nach dem Satz von der dominierten Konvergenz folgt (#). Schritt 2: Sei nun H progressiv messbar und beschränkt. Es reicht zu zeigen, dass es stetige, adaptierte und beschränkte Prozesse H n , n ∈ N, gibt, für die (#) gilt. Sei Z t∧T n Ht := n Hs ds für t ≥ 0, n ∈ N. (t−1/n)∨0 n Dann ist H stetig, adaptiert und durch supt≥0 |Ht | beschränkt. Nach dem Hauptsatz der Differential- und Integralrechnung gilt Htn (ω) → Ht (ω) für λ-fast alle t ∈ [0, T ] und für jedes ω ∈ Ω. Nach dem Satz von Fubini und dem Satz von der dominierten Konvergenz gilt daher Z T Z n 2 (Hsn (ω) − Hs (ω))2 P ⊗ λ(d(ω, s)) → 0. E (Hs − Hs ) ds = 0 Ω×[0,T ] R ∞ Schritt 3: Sei nun H progressiv messbar und E 0 Ht2 dt < ∞. Es genügt zu zeigen, dass es eine Folge (H n )n∈N von beschränkten progressiv messbaren Prozessen gibt, so dass (#) gilt. Dazu wählen wir Htn = Ht 1{|Ht |<n} . 34 2 STOCHASTISCHE INTEGRATION Wir definieren nun das Integral H · M für ein Martingal M ∈ M2 und H ∈ P2 (M ) wie folgt: Nach Proposition 2.19 gibt es H n ∈ E mit kH n − HkM → 0. Aufgrund von Proposition 2.18 ist also (H n · M ) eine Cauchyfolge in M2 . Nach Satz 2.17 konvergiert diese gegen einen Grenzwert in M2 , den wir als Integral H · M definieren wollen. Diese Definition hängt nicht von der Wahl der approximierenden Folge (H n ) ab: Seien (H n ) und (H̄ n ) zwei Folgen aus E mit kH n − HkM → 0 und kH̄ n − HkM → 0 sowie H n · M → Y und H̄ n · M → Ȳ in M2 . Wir bilden die approximierende Folge (H̃ n ), indem wir H̃ n = H n setzen, wenn n ungerade ist, und H̃ n = H̄ n sonst. Wegen kH̃ n − HkM → 0 konvergiert (H̃ n · M ) in M2 gegen einen Grenzwert Z. Betrachten wir die gerade und ungerade Teilfolge, so finden wir heraus, dass Y = Z = Ȳ . Bemerkung 2.9. Es gilt sogar: Sind M i ∈ M2 und H ∈ P2 (M i ) für alle i = 1, . . . , k, dann gibt es eine Folge H n ∈ E mit kH n − HkM i → 0 für alle i = 1, . . . , k. Wir erweitern nun die bisher formulierten Eigenschaften auf das neue Integral. Satz 2.20. Ist M ∈ M2 und H ∈ P2 (M ), dann ist H · M ∈ M2 . Beweis. Dies ist klar nach Definition von H · M . Satz 2.21. Sei M ∈ M2 , α, β ∈ R und H, K ∈ P2 (M ). Dann ist αH +βK ∈ P2 (M ) und es gilt (αH + βK) · M = α(H · M ) + β(K · M ). Beweis. Die Dreiecksungleichung für die Norm k.kM liefert αH +βK ∈ P2 (M ). Nach Proposition 2.19 existieren H n , K n ∈ E mit kH n − HkM → 0 und kK n − KkM → 0. Aufgrund der Dreiecksungleichung folgt kαH n + βK n − αH − βKkM → 0. Nach Satz 2.13 gilt (αH n + βK n ) · M = α(H n · M ) + β(K n · M ). Beachten wir nun, dass Gn · M → G · M in M2 für G = H, K, αH + βK, so erhalten wir für n → ∞ die Behauptung. Aufgabe 20. Sei M ∈ M2 und H ∈ P2 (M ). Dann gilt kH · M k = kHkM . Satz 2.22 (Kunita-Watanabe-Ungleichung). Seien M und N lokale Martingale und H und K zwei produktmessbare Prozesse. Dann gilt f.s. Z t 1/2 1/2 |Hs Ks | d|[M, N ]|s ≤ (H 2 · [M ])t (K 2 · [N ])t . 0 Dabei steht d|[M, N ]|s für dVs , wobei Vs die Totalvariation von r 7→ [M, N ]r auf [0, s] bezeichne. Beweis. Aufgrund des Satzes über monotone Konvergenz genügt es, die Behauptung für beschränkte messbare Prozesse zu beweisen. Ferner reicht es, die Gültigkeit der Ungleichung Z t Z t 1/2 Z t 1/2 2 2 Hs Ks d[M, N ]s ≤ Ks d[N ]s (∗) Hs d[M ]s 0 0 0 nachzuweisen. Denn nach dem Satz von Radon-Nikodym (vgl. Stochastik I) besitzt das zu [M, N ]s gehörende signierte Maß eine Dichte Js mit Werten {−1, 1} bezüglich 2.3 Das Itô-Integral bezüglich beschränkter Martingale 35 dem zu |[M, N ]|s gehörenden Maß. Wenn wir in (∗) H durch HJ sgn(HK) ersetzen, so ergibt sich die zu zeigende Ungleichung. Man kann zudem zeigen, dass jeder beschränkte messbare Prozess K durch Prozesse der Form k0 1{0} + m X ki 1(ti−1 ,ti ] i=1 approximiert werden kann, wobei 0 = t0 < t1 < · · · < tm = t eine Zerlegung des Intervalls [0, t] und ki , i = 0, 1, . . . , m, beschränkte messbare Zufallsvariablen sind. Die Ungleichung (∗) beweisen wir nun in zwei Schritten: 1. Schritt: Seien s ≤ t. Setze [M, N ]ts = [M, N ]t −[M, N ]s . Aufgrund der Monotonie der quadratischen Variation und der Linearität der Kovariation gilt für a, b ∈ R 0 ≤ [aM + bN ]ts = a2 [M, M ]ts + 2ab[M, N ]ts + b2 [N, N ]ts . Durch Vereinigen abzählbar vieler Nullmengen folgt, dass die Ungleichung f.s. für alle a, b ∈ Q, wegen Stetigkeit also f.s. für alle a, b ∈ R gilt. Daraus ergibt sich ([M, N ]ts )2 ≤ [M, M ]ts [N, N ]ts . 2. Schritt: Seien 0 = t0 < t1 < · · · < tm = t eine Zerlegung des Intervalls [0, t] und hi , ki , 0 ≤ i ≤ m, Zufallsvariablen. Wir definieren die messbaren Prozesse Hs (ω) = h0 1{0} + m X hi (ω)1(ti−1 ,ti ] (s) und Ks (ω) = k0 1{0} + i=1 m X ki (ω)1(ti−1 ,ti ] (s). i=1 Mit der Definition des Stieltjes-Integrals, dem Ergebnis von Schritt 1 und der CauchySchwarz-Ungleichung erhalten wir Z t m m X X 1/2 ti ti ti Hs Ks d[M, N ]s ≤ [N, N ] | ≤ |h k | [M, M ] |h k ||[M, N ] i i i i ti−1 ti−1 ti−1 0 i=1 i=1 ≤ m X i=1 h2i [M, M ]ttii−1 m 1/2 X ki2 [N, N ]ttii−1 1/2 , i=1 also die Ungleichung (∗). Bemerkung 2.10. (i) Wenn M = N und [M ]s = s, dann ist d[N ]s = d|[M, N ]s | = ds. Die Kunita-Watanabe-Ungleichung wird dann zur Cauchy-Schwarz-Ungleichung. (ii) Man beachte, dass wir H und K nicht als progressiv messbar, sondern lediglich als messbar bezüglich B ⊗ F angenommen haben. Satz 2.23. Sei M ∈ M2 und H ∈ P2 (M ). Dann ist H ·M das f.s. einzige Martingal aus M2 mit (H · M )0 = 0, so dass [H · M, N ] = H · [M, N ] f.s. für alle N ∈ M2 . Beweis. Die Eindeutigkeit zeigt man wie im Beweis von Satz 2.15. Wegen der f.s. Eindeutigkeit der Kovariation genügt es, zu zeigen, dass Z = (H · M )N − H · [M, N ] ein lokales Martingal ist. Nach Proposition 2.19 gibt es H n ∈ E mit kH n −HkM → 0. Aus dem Beweis des Satzes 2.15 entnehmen wir, dass Z n = (H n · M )N − H n · [M, N ] für jedes n ∈ N ein lokales Martingal ist. Durch Lokalisieren können wir annehmen, 36 2 STOCHASTISCHE INTEGRATION dass Z n für alle n ein Martingal ist. Nach Lemma 2.9 genügt es, zu zeigen, dass Ztn für alle t in L1 gegen Zt konvergiert. Wegen Satz 2.21 und Aufgabe 13 können wir schreiben Ztn − Zt = ((H n − H) · M )t Nt − ((H n − H) · [M, N ])t . Aufgrund der Minkowski-Ungleichung genügt es, nachzuweisen, dass E supt≥0 |((H n − H) · M )t ||Nt | und E|((H n − H) · [M, N ])t | gegen Null konvergieren. Mit der CauchySchwarz-Ungleichung, Proposition 2.8, dem Beweis des Satzes 2.17 und der Isometrie aus Aufgabe 20 folgt h i E sup |((H n − H) · M )t ||Nt | ≤ E sup |((H n − H) · M )t | sup |Nt | t≥0 t≥0 t≥0 2 1/2 ∗ 2 1/2 ≤ E ((H n − H) · M )∗∞ (E[(N∞ ) ]) ∗ n ∗ = k((H − H) · M )∞ k2 kN∞ k2 ≤ 4k((H n − H) · M )∞ k2 kN∞ k2 = 4k(H n − H) · M kkN k = 4kH n − HkM kN k → 0. Mit den Ungleichungen von Kunita-Watanabe und Cauchy-Schwarz können wir außerdem abschätzen E|((H n − H) · [M, N ])t | ≤ E(|H n − H| · |[M, N ]|)t 1/2 1/2 ≤ E ((H n − H)2 · [M ])t [N ]t 1/2 ≤ E ((H n − H)2 · [M ])t (E[N ]t )1/2 ≤ kH n − HkM (E[N ]∞ )1/2 → 0. Z muss also ebenfalls ein Martingal sein. Daraus folgt direkt Korollar 2.24. Seien M, N ∈ M2 , H ∈ P2 (M ) und K ∈ P2 (N ). Dann gilt [H · M, K · N ] = (HK) · [M, N ]. Aufgabe 21. Seien M und N stetige lokale Martingale mit M0 = N0 = 0. Zeigen Sie, dass für jede endliche Stoppzeit T gilt [M T , N T ] = [M, N ]T = [M, N T ]. Satz 2.25. Seien M, N ∈ M2 und H ∈ P2 (M ) ∩ P2 (N ). Dann gilt H ∈ P2 (M + N ) und H · (M + N ) = H · M + H · N. Beweis. Satz 2.22 liefert 1 |[M, N ]t | ≤ ([M ]t [N ]t )1/2 ≤ ([M ]t + [N ]t ). 2 Aufgrund der Bilinearität der Kovariation erhalten wir [M + N ]t = [M ]t + [N ]t + 2[M, N ]t ≤ 2([M ]t + [N ]t ). Daher gilt H ∈ P2 (M +N ). Nach Bemerkung 2.9 gibt es H n ∈ E mit kH n −HkZ → 0 für Z = M, N, M + N . Satz 2.13 impliziert H n · (M + N ) = H n · M + H n · N, woraus durch Grenzübergang die Behauptung folgt. 2.4 Das Itô-Integral bezüglich lokaler Martingale 2.4 37 Das Itô-Integral bezüglich lokaler Martingale Durch Lokalisieren können wir das im letzten Abschnitt eingeführte Integral so erweitern, dass auch stetige lokale Martingale als Integratoren zulässig sind. Zusätzlich wollen wir die die Menge der zulässigen Integranden auf Z t 2 Hs d[M ]s < ∞ f.s. für alle t ≥ 0 Ploc (M ) := H progressiv messbar : 0 erweitern. Aus Bemerkung 2.5 wissen wir, dass die Stoppzeiten τn = inf{t : |Mt | ≥ n} mit τn ↑ ∞ ein stetiges lokales Martingal M zu einem stetigen beschränkten Martingal lokalisieren. Durch die Stoppzeiten σn = inf{t : (H 2 · [M ])t ≥ n} können wir erreichen, dass für einen Prozess H ∈ Ploc (M ) gilt kH1[0,σn ] k2M = E[(H 2 · [M ])σn ] ≤ n. Der Prozess H1[0,σn ] : (s, ω) 7→ Hs (ω)1{s≤σn (ω)} (s, ω) liegt also in P2 (M ). Wegen H ∈ Ploc (M ) gilt σn ↑ ∞ f.s. Die Stoppzeiten Tn = τn ∧ σn = inf{t : |Mt | ≥ n oder (H 2 · [M ])t ≥ n} sind monoton wachsend in n und konvergieren f.s. gegen ∞. Sie lokalisieren M zu einem stetigen beschränkten Martingal und bewirken gleichzeitig, dass H1[0,Tn ] ∈ P2 (M Tn −M0 ). Gemäß dem letzten Abschnitt können wir also (H1[0,Tn ] )·(M Tn −M0 ) bilden. Für t ≤ Tn bemerken wir, dass ((H1[0,Tn+1 ] ) · (M Tn+1 − M0 ))t = ((H1[0,Tn ] ) · (M Tn − M0 ))t . Wir können also das Integral H · M (f.s.) durch (H · M )t = ((H1[0,Tn ] ) · (M Tn − M0 ))t für t ≤ Tn definieren. Daraus erhalten wir Proposition 2.26. Sei M ein stetiges lokales Martingal, H ∈ Ploc (M ) und T eine endliche Stoppzeit. Dann gilt (H1[0,T ] ) · M = (H · M )T = H · M T = (H1[0,T ] ) · M T . Aufgabe 22. a) Sei M ein beschränktes stetiges Martingal, H, K ∈ P2 (M ), T eine Stoppzeit und Hs = Ks für s ≤ T . Dann gilt (H · M )t = (K · M )t für t ≤ T . b) Beweisen Sie Proposition 2.26. Da für ein lokales Martingal M auch X = M − M0 ein lokales Martingal mit X0 = 0 ist, können wir Œ M0 = 0 annehmen. Es gilt H · (M − M0 ) = H · M . Satz 2.27. Sei M ein stetiges lokales Martingal mit M0 = 0 und H ∈ Ploc (M ). Dann ist auch H · M ein stetiges lokales Martingal. Beweis. Wähle Tn = inf{t : (H 2 · [M ])t > n oder |Mt | > n}. Nach der Definition ist (H · M )Tn = (H1[0,Tn ] ) · M Tn . Die Behauptung folgt nun aus Satz 2.20. Satz 2.28. Seien M und N stetige lokale Martingale mit M0 = N0 = 0. Wenn H, K ∈ Ploc (M ), dann gilt (H + K) · M = H · M + K · M. Ist H ∈ Ploc (M ) ∩ Ploc (N ), dann ist H ∈ Ploc (M + N ) und es gilt H · (M + N ) = H · M + H · N. 38 2 STOCHASTISCHE INTEGRATION Beweis. (i) Aufgrund der Dreiecksungleichung für die Norm k.kM erhalten wir H + K ∈ Ploc (M ). Durch die Stoppzeiten Tn = inf{t : (|Mt | > n) ∨ ((H 2 · [M ])t > n) ∨ ((K 2 · [M ])t > n)} folgt der erste Teil aus Proposition 2.26 und Satz 2.21. (ii) Wie in Satz 2.25 zeigt man H ∈ Ploc (M + N ). Durch geeignete Stoppzeiten können wir die Gleichung auf diejenige in Satz 2.25 zurückführen. Satz 2.29. Seien M ein stetiges lokales Martingal mit M0 = 0 und H ∈ Ploc (M ). Dann ist H · M das f.s. einzige stetige lokale Martingal mit (H · M )0 = 0, so dass [H · M, N ] = H · [M, N ] f.s. für alle stetigen lokalen Martingale N. Beweis. Die Eindeutigkeit zeigt man analog zu Satz 2.15. Nach Satz 2.27 ist H · M ein stetiges lokales Martingal. Es gilt (H · M )0 = 0. Sei N ein beliebiges stetiges lokales Martingal mit N0 = 0 und Tn ↑ ∞ eine Folge von Stoppzeiten, die sowohl M als auch N lokalisiert und E(H 2 · [M ])Tn ≤ n liefert. Dann gilt nach Aufgabe 21, Proposition 2.26 und Satz 2.23 [H · M, N ]Tn = [(H · M )Tn , N Tn ] = [(H1[0,Tn ] ) · M Tn , N Tn ] = (H1[0,Tn ] ) · [M Tn , N Tn ] = (H1[0,Tn ] ) · [M, N ]Tn = (H · [M, N ])Tn f.s. Für n → ∞ erhalten wir die Behauptung. Mit der Assoziativität des Stieltjes-Integrals und Satz 2.27 folgt daraus sofort Korollar 2.30. Seien M und N stetige lokale Martingale mit M0 = N0 = 0, H ∈ Ploc (M ) und K ∈ Ploc (N ). Dann gilt [H · M, K · N ] = (HK) · [M, N ] f.s. Hieraus folgt direkt die Itô-Isometrie für stetige lokale Martingale M und Integranden H ∈ Ploc (M ). 2.5 Das Itô-Integral bezüglich Semimartingalen Definition 2.14. Ein Prozess (Xt )t≥0 heißt Semimartingal, wenn ein lokales Martingal M und ein adaptierter Prozess A von endlicher Variation mit A0 = 0 existieren, so dass Xt = Mt + At für alle t ≥ 0. Bemerkung 2.11. (i) Die Zerlegung ist f.s. eindeutig aufgrund von Proposition 2.4. (ii) Sind X = M + A und Y = N + B stetige Semimartingale, dann ist auch X + Y = (M + N ) + (A + B) ein stetiges Semimartingal. Wir nennen einen Prozess X lokal beschränkt, wenn es eine Folge von Stoppzeiten Tn gibt, so dass Tn ↑ ∞ und |Xt (ω)| ≤ n für t ≤ Tn . Für einen lokal beschränkten progressiv messbaren Prozess H und einen stetigen adaptierten Prozess A von endlicher Variation können wir gemäß Abschnitt 2.1 das Integral H · A definieren. Wegen Z Tn Hs2 d[M ]s ≤ n2 [M ]Tn < ∞ 0 ist H aus Ploc (M ), so dass auch H · M wohldefiniert ist. 2.5 Das Itô-Integral bezüglich Semimartingalen 39 Definition 2.15. Sei X ein stetiges Semimartingal und H ein lokal beschränkter progressiv messbarer Prozess. Dann ist das Integral H · X definiert durch (H · X)t = (H · M )t + (H · A)t . Satz 2.31. Sei X ein stetiges Semimartingal und H ein lokal beschränkter progressiv messbarer Prozess. Dann ist H · X ein stetiges Semimartingal. Beweis. Nach Satz 2.27 ist H · M ein stetiges lokales Martingal. Ferner ist H · A nach Bemerkung 2.3 von endlicher Variation mit (H · A)0 = 0. Satz 2.32 (Linearität). Seien X und Y stetige Semimartingale und H und K lokal beschränkte progressiv messbare Prozesse. Dann gilt (H + K) · X = H · X + K · X und H · (X + Y ) = H · X + H · Y. Beweis. Wende Definition 2.15, Satz 2.28, Aufgabe 13 und Bemerkung 2.11 an. Satz 2.33 (Assoziativität). Seien X ein stetiges Semimartingal und U, V progressiv messbare lokal beschränkte Prozesse. Dann gilt U · (V · X) = (U V ) · X f.s. Beweis. Sei X = M + A. Nach Satz 2.27, Bemerkung 2.3 und Bemerkung 2.11 gilt U · (V · X) = U · (V · M + V · A) = U · (V · M ) + U · (V · A). Nach Bemerkung 2.4 wissen wir bereits U · (V · A) = (U V ) · A. Die Assoziativität bleibt also nur für Integrale bezüglich stetiger lokaler Martingale zu zeigen. Sei dazu N ein stetiges lokales Martingal. Dann gilt nach Satz 2.29 [(U V )·M, N ] = (U V )·[M, N ] = U ·(V ·[M, N ]) = U ·[V ·M, N ] = [U ·(V ·M ), N ] f.s. Aufgrund der f.s. Eindeutigkeit erhalten wir (U V ) · M = U · (V · M ) f.s. Definition 2.16. Für zwei stetige Semimartingale X = M + A und Y = M 0 + A0 setzen wir [X, Y ]t = [M, M 0 ]t . Aufgabe 23. Sei X ein stetiges (Ft )-Semimartingal und T eine Stoppzeit bezüglich derselben Filtration. Dann ist (XT +t )t≥0 ein stetiges (FT +t )-Semimartingal. Dass diese Definition gerechtfertigt ist, werden wir in der folgenden Proposition sehen. Man erinnere sich dabei an die Notationen und Aussagen aus Satz 2.11. Proposition 2.34. Seien X = M + A und Y = N + B stetige Semimartingale und (∆n )n∈N eine Folge von Zerlegungen des Intervalls [0, t] mit |∆n | → 0. Dann gilt n Q∆ t (X, Y ) → [M, N ]t in W. Beweis. Wegen ∆n ∆n ∆n n Q∆ t (X, Y ) = Qt (M, N ) + Qt (A, N ) + Qt (X, B) und Satz 2.11 genügt es zu zeigen, dass die letzten beiden Summanden stochastisch gegen Null konvergieren. Für einen messbaren stetigen Prozess Z und einen stetigen Prozess A von endlicher Variation V gilt jedoch n |Q∆ t (Z, A)| ≤ n X i=1 |Zti − Zti−1 ||Ati − Ati−1 | ≤ Vt sup |Zti − Zti−1 |. 1≤i≤n Weil der Prozess Z stetig ist, konvergiert dies f.s. gegen Null. 40 2 STOCHASTISCHE INTEGRATION Proposition 2.35 (Dominierte Konvergenz). Sei X ein stetiges Semimartingal und U, V, V 1 , V 2 , . . . progressiv messbare lokal beschränkte Prozesse mit |V n | ≤ U und V n → V f.s. Dann gilt (V n · X − V · X)∗t → 0 in W. ∀t ≥ 0. Beweis. Sei X = M + A und t ≥ 0. Mit dominierter Konvergenz für StieltjesIntegrale folgt ((V n − V ) · A)∗t → 0 f.s. Durch Lokalisieren können wir Œ annehmen, dass U , M und [M ] beschränkt sind. Mit der Doob-Ungleichung 2.8 erhalten wir also k((V n − V ) · M )∗t k22 ≤ 4k((V n − V ) · M )t k22 ≤ 4k(V n − V ) · M k2 = 4kV n − V k2M = 4E((V n − V )2 · [M ])∞ . Aufgabe 14 liefert ((V n − V )2 · [M ])∞ → 0 f.s. Man beachte dabei, dass [M ]∞ endlich ist, da [M ] als beschränkt angenommen wird. Nach dem Satz von der dominierten Konvergenz für Lebesgue-Integrale konvergiert also auch der Erwartungswert E((V n − V )2 · [M ])∞ gegen Null. Mit der Chebyshev-Ungleichung folgt, dass ((V n − V ) · M )∗t stochastisch gegen Null konvergiert. Satz 2.36. Sei X ein stetiges Semimartingal, H ein stetiger adaptierter Prozess und ∆n eine Folge von Zerlegungen 0 = tn0 < tn1 < · · · < tnm = t des Intervalls [0, t] mit |∆n | → 0. Dann gilt m X Htni−1 (Xtni − Xtni−1 ) → (H · X)t in W. i=1 Beweis. Nach Proposition 2.12 ist H progressiv messbar. Aufgrund der Stetigkeit ist H zudem lokal beschränkt. Wir setzen Hsn = Htni−1 für s ∈ (tni−1 , tni ] und Hsn = Hs für s > t. Da H stetig ist, konvergiert H n f.s. gegen H. Proposition 2.35 impliziert also m X Htni−1 (Xtni − Xtni−1 ) = (H n · X)t → (H · X)t . i=1 Aufgabe 24. Sei h : [0, ∞) → R R t eine stetige Abbildung und B die Brownsche Bewegung. Zeigen Sie, dass durch 0 h(s) dBs = (h · B)t ein zentrierter Gaußprozess R s∧t mit Kovarianzfunktion Γ(s, t) = 0 h2 (u) du definiert wird. Die Aussage von Satz 2.36 verwenden wir im Beweis des folgenden Theorems. Theorem 2.37 (Partielle Integration). Für stetige Semimartingale X und Y gilt XY = X0 Y0 + X · Y + Y · X + [X, Y ] f.s. Beweis. Sei ∆n eine Folge von Zerlegungen 0 = tn0 < tn1 < · · · < tnm = t des Intervalls [0, t] mit |∆n | → 0. Wir können schreiben Xt Yt − X0 Y0 = m X (Xtni − Xtni−1 )(Ytni − Ytni−1 ) i=1 + m X i=1 Xtni−1 (Ytni − Ytni−1 ) + m X i=1 Ytni−1 (Xtni − Xtni−1 ). 2.5 Das Itô-Integral bezüglich Semimartingalen 41 Mit Proposition 2.34 folgt m X (Xtni − Xtni−1 )(Ytni − Ytni−1 ) → [X, Y ]t . i=1 Nach Satz 2.36 konvergieren die beiden anderen Summen stochastisch gegen (X ·Y )t bzw. (Y · X)t . Für eine geeignete Teilfolge konvergieren alle Summen sogar f.s. Nun kommen wir zum Hauptresultat dieses Kapitels. Für eine differenzierbare Funktion f : Rd → R bezeichne f (i) die partielle Ableitung nach der i-ten Komponente und f (i,j) die partielle Ableitung nach der i-ten und j-ten Komponente. Theorem 2.38 (Itô-Formel). Ist X ein stetiges Semimartingal in Rd mit Komponenten X i und f eine zweimal stetig differenzierbare Funktion von Rd nach R, dann gilt: d d X 1 X (i,j) (i) i f (X) · [X i , X j ] f.s. f (X) = f (X0 ) + f (X) · X + 2 i,j=1 i=1 Beweis. Wir zeigen die Behauptung nur für d = 1, d.h. wir beweisen 1 f (X) = f (X0 ) + f 0 (X) · X + f 00 (X) · [X] f.s. (∗) 2 Der allgemeine Fall ergibt sich analog. Durch Lokalisieren können wir außerdem annehmen, dass |X| und [X] durch eine Konstante K beschränkt sind. (∗) gilt für Polynome: Die Klasse C der Funktionen, für die (∗) gilt, ist ein linearer Unterraum von C 2 (R), da Differentiation und Integration lineare Operationen sind. Sie enthält die Funktionen f (x) = 1 und f (x) = x. Wenn wir zeigen können, dass C abgeschlossen ist unter Multiplikation, dann gilt (∗) für alle Polynome. Gelte (∗) also für f, g ∈ C. Dann sind F = f (X) und G = g(X) stetige Semimartingale. Mit Theorem 2.37, Satz 2.33, Satz 2.29 und der Linearität des Integrals erhalten wir: (f g)(X) − (f g)(X0 ) = F G − F0 G0 = F · G + G · F + [F, G] 1 1 =F · g 0 (X) · X + g 00 (X) · [X] + G · f 0 (X) · X + f 00 (X) · [X] + [F, G] 2 2 1 =(f g 0 + f 0 g)(X) · X + (f g 00 + gf 00 )(X) · [X] + [f 0 (X) · X, g 0 (X) · X] 2 1 1 =(f g)0 (X) · X + (f g 00 + f 00 g + 2f 0 g 0 )(X) · [X] = (f g)0 (X) · X + (f g)00 (X) · [X]. 2 2 allgemein: Sei f ∈ C 2 (R) beliebig. Nach dem Approximationssatz von Weierstraß existieren Polynome p1 , p2 , . . . mit sup |pn (x) − f 00 (x)| → 0. |x|≤K Durch Integration finden wir Polynome fn mit sup |fn(i) (x) − f (i) (x)| → 0, i = 0, 1, 2. |x|≤K Wegen |Xt | ≤ K für alle t ≥ 0 gilt also fn (Xt ) → f (Xt ) f.s. Schreiben wir X = M + A, dann folgt mit der dominierten Konvergenz für Stieltjes-Integrale 1 1 (fn0 (X) · A + fn00 (X) · [X])t → (f 0 (X) · A + f 00 (X) · [X])t 2 2 f.s. 42 2 STOCHASTISCHE INTEGRATION Ebenso gilt ((fn0 (X) − f 0 (X))2 · [X])t → 0 f.s. Nach dem Beweis von Proposition 2.35 konvergiert dann auch ((fn0 (X)−f 0 (X))·X)t stochastisch gegen 0, bei Wahl einer geeigneten Teilfolge also auch f.s. Einerseits konvergiert also fn (Xt ) − fn (X0 ) f.s. gegen f (Xt ) − f (X0 ), andererseits gilt aber 1 fn (Xt ) − fn (X0 ) = (fn0 (X) · X)t + (fn00 (X) · [X])t 2 1 → (f 0 (X) · X)t + (f 00 (X) · [X])t f.s. 2 Da alle auftretenden Terme stetig sind, gilt (∗) für jedes f ∈ C 2 (R). Ein weiterer Integralbegriff ist der folgende: Definition 2.17. Für zwei stetige Semimartingale X und Y ist das Fisk-StratonovichIntegral definiert durch 1 (X ◦ Y )t := (X · Y )t + [X, Y ]t , t ≥ 0. 2 Aufgabe 25. Seien U , V und X stetige Semimartingale. Dann ist das Fisk-StratonovichIntegral assoziativ, d.h. es gilt U ◦ (V ◦ X) = (U V ) ◦ X f.s. Aufgabe 26. Zeigen Sie, dass für jedes stetige Semimartingal X = (X 1 , . . . , X d ) in Rd und jede Funktion f ∈ C 3 (Rd ) f.s. gilt f (X) = f (X0 ) + d X f (i) (X) ◦ X i . i=1 Dies entspricht eher der aus der Analysis bekannten Kettenregel als die Itô-Formel. Beispiel 2.2. Sei B eine d-dimensionale Brownsche Bewegung mit Komponenten B i und f : Rd → R zweimal stetig differenzierbar. Mit der Itô-Formel ergibt sich d X d 1 X (i,j) (f (B) · [B i , B j ])t 2 i=1 i,j=1 Z d X 1 t (i) i ∆f (Bs ) ds = f (B0 ) + (f (B) · B )t + 2 0 i=1 f (Bt ) = f (B0 ) + (f (i) (B) · B i )t + P mit ∆f = ni=1 f (i,i) . Falls ∆f = 0, dann ist f (B) also ein lokales Martingal. Beispiel 2.3. Sei X ein stetiges Semimartingal. Die Doleans-Exponentielle von X ist E(X) = exp(X − 21 [X]). Die Ito-Formel angewendet auf f (x) = exp(x) liefert 1 1 X0 E(X) = e + E(X) · X − [X] + E(X) · [X] 2 2 = eX0 + E(X) · X. Also ist E(X) die Lösung der stochastischen DGL dY = Y dX mit Y0 = eX0 . Hier haben wir bereits die erste stochastische Differentialgleichung kennengelernt. 43 3 Stochastische Differentialgleichungen Wir wollen uns nun mit stochastischen Differentialgleichungen (sDGL) der Form dXt = µ(t, Xt )dt + σ(t, Xt )dBt (3.1) beschäftigen. Dabei vereinbaren wir Definition 3.1. Sei (Bt )t∈[0,T ] eine Brownsche Bewegung mit Filtration (Ft )t∈[0,T ] , und µ, σ : [0, T ] × R → R messbar. Ein stetiger F-adaptierter Prozess (Xt )t∈[0,T ] erfüllt die sDGL (3.1) mit Anfagswert X0 , wenn für alle t ∈ [0, T ] die Gleichung Z t Z t Xt = X0 + µ(s, Xs ) ds + σ(s, Xs ) dBs 0 0 P -f.s. gilt. Bemerkung 3.1. Ersetzt man in der Definition [0, T ] durch [0, ∞), so erhält man analog die Definition einer Lösung der sDGL (3.1) auf [0, ∞). 3.1 Lineare Differentialgleichungen In diesem Abschnitt untersuchen wir stochastische Differentialgleichungen der Form dXt = (αt + µt Xt )dt + (βt + σt Xt )dBt . Wir beginnen mit einem relativ einfachen aber wichtigen Beispiel. Beispiel 3.1 (geometrische Brownsche Bewegung). Gegeben sei die sDGL dXt = µXt dt + σXt dBt mit X0 = x0 > 0 (gBB) mit den Konstanten µ ∈ R und σ > 0. Nach Definition löst ein Prozess X die sDGL (gBB), wenn für alle t ≥ 0 die zugehörige integrale Gleichung Z t Z t Xt = x0 + µ Xs ds + σ Xs dBs 0 0 P -f.s. gilt. Wir suchen nun eine Lösung der Form Xt = f (t, Bt ). Wenden wir die ItôFormel darauf an und beachten, dass der Prozess (t, ω) 7→ t von endlicher Variation ist, so erhalten wir Z t Z t Z 1 t (2,2) (2) (1) f (s, Bs ) ds + f (s, Bs ) dBs + f (s, Bs ) d[B]s f (t, Bt ) = f (0, B0 ) + 2 0 0 0 Z t Z t 1 (2,2) (1) = f (0, B0 ) + f (s, Bs ) + f (s, Bs ) ds + f (2) (s, Bs ) dBs 2 0 0 oder in differentieller Form 1 (2,2) (1) (t, Bt ) dt + f (2) (t, Bt )dBt . dXt = f (t, Bt ) + f 2 Ein Vergleich mit der ursprünglichen DGL zeigt, dass folgende Gleichungen erfüllt sein müssen, damit Xt = f (t, Bt ) eine Lösung des Anfangswertproblems (gBB) ist: 1 µf (t, x) = f (1) (t, x) + f (2,2) (t, x) und σf (t, x) = f (2) (t, x). 2 44 3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN Eine Lösung der zweiten Gleichung ist f (t, x) = exp(σx + g(t)) mit einer beliebigen Funktion g. Setzen wir diesen Ausdruck in die erste Gleichung ein, so erkennen wir, dass die Funktion g die Ableitung g 0 (t) = µ − 12 σ 2 besitzen muss. Durch Integration ergibt sich g(t) = (µ − 21 σ 2 )t + c. Die Anfangsbedingung liefert 1 2 x0 = X0 = f (0, B0 ) = exp σB0 + µ − σ · 0 + c = ec , 2 also ist Xt = x0 exp µ− 21 σ 2 t+σBt eine Lösung des Anfangswertproblems (gBB). Die Lösung ist so wichtig, dass sie sogar einen eigenen Namen bekommen hat. Man 1 2 nennt den Prozess X mit Xt = x0 e(µ− 2 σ )t+σBt eine geometrische Brownsche Bewegung. Aufgabe 27. Zeigen Sie mit Hilfe der Itô-Formel: a) Xt = sin(Bt ) genügt für alle t < T (ω) = inf s > 0 : Bs ∈ / − π2 , π2 der stochastischen DGL p 1 dXt = − Xt dt + 1 − Xt2 dBt . 2 b) Xt := arctan(Bt ) genügt für alle t ≥ 0 der stochastischen DGL dXt = − sin(Xt ) cos3 (Xt )dt + cos2 (Xt )dBt . Bemerkung 3.2. Man beachte folgenden gravierenden Unterschied zu gewöhnlichen DGL: Hat man eine explizite Lösung einer gewöhnlichen DGL gefunden, so kennt man die Lösung im Wesentlichen vollständig (man kann sie etwa numerisch berechnen). Kennt man eine „explizite“ Lösung einer stochastischen DGL, so hat man den Prozess aber lediglich durch andere bekannte Prozesse ausgedrückt. Über die Pfadeigenschaften (etwa Beschränktheit, Verhalten für t → ∞) oder stochastische Eigenschaften (etwa die Verteilung der Lösung Xt ) kann man i.a. noch keine Aussagen machen. Wir wollen das letzte Beispiel etwas verallgemeinern. Dazu betrachten wir die homogene lineare sDGL dXt = µt Xt dt + σt Xt dBt . (3.2) Diesmal seien µ und σ Prozesse, so dass die Abbildungen t 7→ µt (ω) und t 7→ σt2 (ω) für jedes ω ∈ Ω bezüglich des Lebesguemaßes auf [0, ∞) integrierbar sind. Proposition 3.1. Sei (Bt , Ft )t≥0 eine Brownsche Bewegung mit vollständiger Filtration, X0 sei F0 -messbar, für alle T > 0 und alle ω ∈ Ω seien die Einschränkungen der Abbildungen t 7→ µt (ω) und t 7→ σt2 (ω) auf [0, T ] integrierbar bezüglich des Lebesgue-Maßes auf [0, T ] und σ sei progressiv messbar. Dann definiert Z t Z t 1 2 σs dBs Xt = X0 exp µs − σs ds + 2 0 0 einen stetigen Prozess, der (3.2) mit dem Anfangswert X0 erfüllt. Ist X̃ eine weitere Lösung von (3.2) mit X̃0 = X0 , so gilt P (Xt = X̃t ∀t ≥ 0) = 1. Beweis. Exponent von X, also Xt = X0 eYt . EinfacheRRechnungen zeigen, R t Sei Yt1 der 0 dass 0 (µs − 2 σs2 )ds ein Prozess von endlicher Variation mit 0 (µs − 21 σs2 )ds = 0 ist. Ferner ist σ · B nach Satz 2.27 ein f.s. stetiges lokales Martingal, da B nach 3.1 Lineare Differentialgleichungen 45 Lemma 1.14 ein Martingal ist und σ aufgrund der Definition in Ploc (B) liegt. Daher ist Y ein f.s. stetiges Semimartingal. Wegen Korollar 2.30 gilt also Z t 2 σs2 ds. [Y ]t = [σ · B]t = (σ · [B])t = 0 Mit der Itô-Formel, angewandt auf f (Yt ) = exp(Yt ), folgt 1 1 1 dXt = X0 eYt dYt + eYt d[Y ]t = X0 eYt µt − σt2 dt + σt dBt + σt2 dt 2 2 2 = µt Xt dt + σt Xt dBt . X löst also tatsächlich (3.2). Sei Zt := e−Yt . Der Prozess Z erfüllt 1 1 dZt = e−Yt −µt + σt2 dt − σt dBt + e−Yt σt2 dt 2 2 2 = −Zt (µt dt + σt dBt ) + Zt σt dt. Theorem 2.37, Korollar 2.30 und Satz 2.33 liefern X̃t Zt = X̃0 Z0 + (Z · X̃)t + (X̃ · Z)t + [X̃, Z]t Z t Zs µs X̃s ds + ((Zσ X̃) · B)t = X̃0 Z0 + 0 Z t X̃s Zs (σs2 − µs )ds − ((X̃Zσ) · B)t + [(σ X̃) · B, (−σZ) · B]t + 0 Z t X̃s Zs σs2 ds − (σ 2 X̃Z) · [B] t = X̃0 Z0 + Z0 t Z t 2 X̃s Zs σs ds − σs2 X̃s Zs ds = X̃0 Z0 . = X̃0 Z0 + 0 0 Daher gilt für alle t die Gleichheit X̃t Zt = X̃0 Z0 = X0 , d.h. X̃t = X0 eYt = Xt . Mit der Stetigkeit der Pfade müssen beide Prozesse schon f.s. übereinstimmen. Beispiel 3.2 (Ornstein-Uhlenbeck Prozess). Wir betrachten die sDGL dXt = −αXt dt + σdBt mit X0 = x0 (O-U) mit positiven Konstanten α und σ. Der sog. Driftterm −αXt dt ist negativ, wenn Xt positiv ist und umgekehrt. Anschaulich wird der Prozess, sobald er wegdriften will, in Richtung Null zurückgezogen. Im Gegensatz zur geometrischen Brownschen Bewegung, die das Nullniveau nie kreuzt, erwarten wir, dass die Lösung des Anfangswertproblems (O-U) oft ihr Vorzeichen wechselt. Dieses Modell wurde bekannt durch die Physiker L. S. Ornstein und G. E. Uhlenbeck, die 1931 das Verhalten von Gasen untersuchten. Allerdings mussten sie es etwas anders formulieren, da zu diesem Zeitpunkt die Theorie der stochastischen Differentielgleichungen noch nicht entwickelt war. Die Lösung, die wir nun berechnen wollen, wurde zu ihren Ehren Ornstein-Uhlenbeck Prozess genannt. Ein Ansatz f (t, Bt ) führt diesmal nicht zum Ziel. Stattdessen suchen wir eine Lösung der Form Z t Xt = a(t) x0 + b(s) dBs , 0 46 3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN wobei a und b differenzierbare Funktionen seien. Wenden wir Theorem 2.37 und die Assoziativität des Itô-Integrals an, so erhalten wir Z t Z t (b · B)s d(a(s)) + a(s) d(b · B)s + [a, b · B]t Xt = a(t)x0 + 0 0 Z t Z t Z t 0 0 = a (s)x0 ds + a (s)(b · B)s ds + a(s)b(s) dBs , 0 0 0 oder in differentieller Form Z t b(s) dBs dt + a(t)b(t)dBt . dXt = a (t) x0 + 0 0 Wenn wir annehmen, dass a(0) = 1 und a(t) > 0 für alle t ≥ 0, dann ist X eine Lösung der DGL a0 (t) Xt dt + a(t)b(t)dBt a(t) dXt = mit X0 = x0 . 0 (t) = −α und a(t)b(t) = σ. Die X löst also die ursprüngliche sDGL (O-U), wenn aa(t) eindeutige Lösung der ersten Gleichung mit a(0) = 1 ist a(t) = exp(−αt). Aus der zweiten Gleichung folgt dann b(t) = σ exp(αt). Eine Lösung der Gleichung (O-U) ist also gegeben durch Z t −αt e−α(t−s) dBs . Xt = x0 e +σ 0 Nach Aufgabe 24 ist Xt ein Gauß-Prozess mit Mittelwert x0 e−αt und Kovarianzfunktion Z s∧t −αs −αt 2 Γ(s, t) = E[(Xs − x0 e )(Xt − x0 e )] = σ e−2α(t−s) ds 0 σ 2 −2αt 2α(s∧t) e (e − 1). = 2α Hätten wir anstelle des Anfangswertes x0 eine von der Brownschen Bewegung unabhängige N0, σ2 -verteilte Zufallsvariable X0 als Anfangswert vorausgesetzt, so wäre 2α die Lösung X ein zentrierter Gauß-Prozess mit Kovarianzfunktion diese Weise erhalten wir also einen Prozess wie in Beispiel 1.2c). σ 2 −α|t−s| e . 2α Auf Proposition 3.2. Unter den Voraussetzungen von Proposition 3.1 und mit Prozessen α und β, so dass für alle T > 0 die Einschränkungen von t 7→ αt (ω) und t 7→ βt2 (ω) auf [0, T ] bezüglich des Lebesgue-Maßes integrierbar sind, ist eine Lösung der sDGL dXt = (αt + µt Xt )dt + (βt + σt Xt )dBt (3.3) gegeben durch Xt = Z X0 + t (Xs0 )−1 (αs Z − βs σs )ds + 0 t (Xs0 )−1 βs dBs Xt0 , 0 wobei Xt0 die Lösung der homogenen Gleichung (3.2) zum Startwert 1 ist, d.h. Rt 1 2 0 (µs − 2 σs )ds+ 0 Rt Xt0 := e σs dBs . Ist X̃t eine weitere Lösung der gleichen sDGL, so stimmen die Prozesse f.s. überein. 3.2 Existenz und Eindeutigkeit 47 Beweis. Mit Hilfe von Theorem 2.37 und der Itô-Formel verifiziert man (etwas länglich), dass Xt die Gleichung (3.3) mit Anfangswert X0 löst. Sei X̃t eine weitere Lösung von (3.3) zum selben Anfangswert X0 . Dann erfüllt der in 0 startende Prozess X̄ = X̃ − X die sDGL dX̄t = µt X̄t dt + σt X̄t dBt . Nun erfüllt auch X̄t = 0 dieses Anfangswertproblem, und Proposition 3.1 besagt, dass P (X̄t = 0 ∀t ≥ 0) = 1. Aufgabe 28. Lösen Sie folgende stochastische Differentialgleichungen: 2 a) dXt = tXt dt + et /2 dBt mit X0 = 1, 1 1 Xt dt + 1+t dBt mit X0 = 0. b) dXt = − 1+t Beispiel 3.3 (Brownsche Brücke). Nach Proposition 3.2 und Proposition 3.1 hat das Anfangswertproblem Xt dt + dBt 1−t dXt = − für 0 ≤ t < 1 mit X0 = 0 die Lösung Xt = Xt0 t Z (Xs0 )−1 dBs Rt mit Xt0 = e 0 1 − 1−s ds = 1 − t, 0 Rt 1 also Xt = (1 − t) 0 1−s dBs . Aus Aufgabe 24 wissen wir, dass X ein zentrierter Gauß-Prozess mit Kovarianzfunktion Z s∧t 1 1 (1 − s)(1 − t) du = (1 − s)(1 − t) − 1 = s ∧ t − st (1 − u)2 1−s∧t 0 ist. Man kann ferner zeigen, dass X f.s. stetige Pfade besitzt, der Prozess also nach Abschnitt 1.2 eine Brownsche Brücke ist. Bekanntlich ist auch der Prozess Yt = Bt − tB1 eine Brownsche Brücke. Beide Prozesse sind jedoch nicht gleich, denn in X gehen alle Werte von B bis t ein, in Y nur Bt . 3.2 Existenz und Eindeutigkeit Nach den einführenden Beispielen wollen wir uns nun von den linearen stochastischen Differentialgleichungen lösen und Aussagen zur Existenz und Eindeutigkeit von Lösungen der allgemeineren sDGL (3.1), d.h. der DGL dXt = µ(t, Xt )dt + σ(t, Xt )dBt , formulieren und beweisen. Dass wir für die Eindeutigkeit einer Lösung mehr als Stetigkeit der Funktionen µ und σ benötigen, verdeutlicht das folgende Beispiel. Beispiel 3.4. Die Itô-Formel liefert für X = B und f (x) = x3 Z t Z t 3 2 2 Bt = 3(B · B)t + 3(B · [B])t = 3 Bs dBs + 3 Bs ds 0 0 Z t Z t 2/3 = 3 Xs dBs + 3 Xs1/3 ds, 0 0 oder in differentieller Form 1/3 dXt = 3Xt 2/3 dt + 3Xt dBt . 48 3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN Der Prozess X = B 3 löst also das Anfagswertproblem 1/3 2/3 dXt = 3Xt dt + 3Xt dBt , X0 = 0. Obwohl die Funktionen µ(t, x) = 3x1/3 und σ(t, x) = 3x2/3 offensichtlich stetig sind, ist diese Lösung nicht eindeutig, da auch X = 0 das Anfangsproblem löst. Aufgabe 29. Betrachten Sie die stochastische DGL dXt = f (t, Xt )dt + c(t)Xt dBt , X0 = x, wobei f : R × R → R und c : R → R stetige Funktionen seien. a) Der „integrierende Faktor“ sei definiert durch Z t Z 1 t 2 c(s) dBs + c (s) ds . Ft = Ft (ω) = exp − 2 0 0 Zeigen Sie, dass die DGL hiermit geschrieben werden kann als d(Ft Xt ) = Ft f (t, Xt )dt. (+) b) Definiere nun Yt = Ft Xt . Folgern Sie, dass Gleichung (+) die Form dYt (ω) = Ft (ω) · f (t, Ft−1 (ω)Yt (ω)), dt Y0 = x, annimmt. Für jedes ω ∈ Ω ist dies eine deterministische DGL in der Funktion t 7→ Yt (ω). In der Gleichung können wir ω also als Parameter auffassen. c) Wenden Sie diese Methode an, um die stochastische DGL dXt = 1 dt + αXt dBt , Xt X0 = x > 0, zu lösen. Dabei sei α eine Konstante. Zunächst befassen wir uns mit der etwas leichter nachzuweisenden Eindeutigkeit von Lösungen. Definition 3.2. Eine Funktion f : [0, T ] × R → R heißt räumlich Lipschitz-stetig, wenn es eine positive Konstante L gibt, so dass gilt |f (t, x) − f (t, y)| ≤ L|x − y| ∀(t, x, y) ∈ [0, T ] × R2 . Offensichtlich sind µ und σ aus dem Beispiel nicht räumlich Lipschitz-stetig. Satz 3.3 (Eindeutigkeit von Lösungen). Seien µ, σ : [0, T ]×R → R messbare räumlich Lipschitz-stetige Funktionen, so dass (ω, t) 7→ σ(t, Xt (ω)) progressiv messbar ist. Seien weiter X und Y stetige, adaptierte L2 -beschränkte Lösungen von (3.1). Dann gilt P (Xt = Yt ∀t ∈ [0, T ]) = 1. Beweis. Aufgrund der sDGL (3.1) lässt sich Xt − Yt schreiben als Z t Z t Xt − Yt = (µ(s, Xs ) − µ(s, Ys )) ds + (σ(s, Xs ) − σ(s, Ys )) dBs . 0 0 3.2 Existenz und Eindeutigkeit 49 Mit (u + v)2 ≤ 2u2 + 2v 2 können wir abschätzen 2 t Z 2 E[(Xt − Yt ) ] ≤ 2E (µ(s, Xs ) − µ(s, Ys )) ds Z t 2 +2E (σ(s, Xs ) − σ(s, Ys )) dBs . 0 0 Mittels der Cauchy-Schwarz-Ungleichung, der Lipschitz-Stetigkeit von µ und dem Satz von Tonelli ergibt sich Z t 2 Z t 2 2E (µ(s, Xs ) − µ(s, Ys )) ds ≤ 2tE µ(s, Xs ) − µ(s, Ys ) ds 0 0 Z t 2 E[(Xs − Ys )2 ] ds. ≤ 2T L 0 Die Abbildung S : (t, ω) 7→ |σ(t, Xt (ω)) − σ(t, Yt (ω))| ist weiterhin progressiv messbar. Ferner folgt aus der Lipschitz-Stetigkeit von σ und der L2 -Beschränktheit von X und Y Z T Z T 2 2 2 E[(S · [B])T ] = E (σ(s, Xs ) − σ(s, Ys )) ds ≤ L E[(Xs − Ys )2 ] ds < ∞. 0 0 Daher erhalten wir mit der Itô-Isometrie und der Lipschitz-Bedingung an σ Z t 2 Z t 2 (σ(s, Xs ) − σ(s, Ys )) dBs 2E = 2E σ(s, Xs ) − σ(s, Ys ) ds 0 0 Z t 2 E[(Xs − Ys )2 ] ds. ≤ 2L 0 Mit C := 4L2 max{T, 1} gilt also Z 2 E[(Xt − Yt ) ] ≤ C t E[(Xs − Ys )2 ] ds < ∞. 0 Für g(t) = E[(Xt − Yt )2 ] haben wir also die Ungleichung Z t 0 ≤ g(t) ≤ C g(s) ds ∀t ∈ [0, T ] (∗) 0 hergeleitet. Da X und Y L2 -beschränkt sind, ist M := sup0≤t≤T g(t) endlich, und (∗) liefert g(t) ≤ M Ct. Wenden wir die Ungleichung (∗) n-mal hintereinander an, so erhalten wir g(t) ≤ M C n tn /n!. Da n! schneller wächst als C n tn , folgt durch Grenzübergang 0 = g(t) = E[(Xt − Yt )2 ] für alle t ∈ [0, T ]. Für jedes t ∈ [0, T ] stimmen also Xt und Yt f.s. überein. Daher gilt P (Xt = Yt für alle rationalen t ∈ [0, T ]) = 1. Da X und Y stetig sind, folgt daraus schließlich P (Xt = Yt ∀t ∈ [0, T ]) = 1. Bemerkung 3.3. An den Startwert X0 haben wir in Satz 3.3 keine Integrierbarkeitsbedingung gestellt. 50 3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN Nun kommen wir zur Frage der Existenz von Lösungen auf [0, T ]. Folgendes Beispiel zeigt, dass wir hierbei zusätzliche Bedingungen an die Koeffizienten µ und σ benötigen. Beispiel 3.5. Für jedes β > 0 hat das Anfangswertproblem dXt = 1 1+β X dt, β t X0 = 1, auf jedem Intervall [0, T ] mit 0 < T < 1 die eindeutige Lösung Xt = (1 − t)−1/β . Wegen Xt → ∞ für t → 1 kann jedoch auf [0, 1] keine Lösung existieren. Die Lösung läuft in endlicher Zeit nach ∞, weil die Zuwächse dXt aufgrund des nichtlinearen Terms Xt1+β zu groß werden. Das gerade präsentierte Problem tritt nicht auf, wenn die Koeffizienten µ, σ höchstens linear wachsen. Definition 3.3. Eine Funktion f : [0, T ] × R → R heißt linear beschränkt, wenn es ein C > 0 gibt mit |f (t, x)| ≤ C(1 + |x|) ∀(t, x) ∈ [0, T ] × R. Bemerkung 3.4. Quadrieren wir diese Abschätzung, so folgt mit (u + v)2 ≤ 2u2 + 2v 2 sofort |f (t, x)|2 ≤ 2C 2 (1 + x2 ) für alle (t, x) ∈ [0, T ] × R. Wählen wir K := max{C, 2C 2 }, so gilt |f (t, x)| ≤ K(1 + |x|) und |f (t, x)|2 ≤ K(1 + x2 ). Aufgabe 30. Seien f, g : [0, T ] → R Lebesgue-integrierbare Funktionen mit der Eigenschaft Z t f (s) ds, ∀t ∈ [0, T ], f (t) ≤ g(t) + c 0 für eine geeignete Konstante c > 0. Dann gilt Z t f (t) ≤ g(t) + c ec(t−s) g(s) ds, ∀t ∈ [0, T ]. 0 Satz 3.4 (Existenz von Lösungen). Seien µ, σ : [0, T ] × R → R messbare, räumlich Lipschitz-stetige linear beschränkte Funktionen, so dass (ω, t) 7→ σ(t, Xt (ω)) progressiv messbar ist, und X0 eine F0 -messbare Zufallsvariable aus L2 (P ). Dann besitzt die sDGL (3.1) eine f.s. stetige, adaptierte L2 -beschränkte Lösung X. Beweis. Wir machen uns eine Idee aus der Theorie der gewöhnlichen Differential(0) gleichungen zunutze, nämlich die Picard-Iteration. Man definiert Xt := X0 und Z t Z t (n+1) (n) Xt := X0 + µ(s, Xs ) ds + σ(s, Xs(n) ) dBs 0 0 für n ∈ N0 . R T (n) (n) 1. Schritt: Beh.: Wenn Xt L2 -beschränkt ist, dann gilt E 0 |σ(t, Xt )|2 d[B]t < (n) (n+1) ∞ und µ(t, Xt ) ∈ L2 ([0, T ] × Ω), und Xt ist L2 -beschränkt. (n) 2 Dazu setzen wir c := supt∈[0,T ] E(|Xt | ) < ∞. Da σ linear beschränkt ist, folgt Z T (n) 2 E |σ(s, Xs )| ds ≤ T K(1 + c). 0 3.2 Existenz und Eindeutigkeit 51 Die Itô-Isometrie liefert also Z t 2 Z t (n) (n) 2 E σ(s, Xs ) dBs =E |σ(s, Xs )| ds ≤ T K(1 + c). 0 0 Außerdem ergibt sich mit der linearen Beschränktheit von µ und der Cauchy-SchwarzUngleichung auf analoge Weise t Z µ(s, Xs(n) ) ds E 2 ≤ T K(1 + c). 0 Beide Integrale in der Iteration sind also wohldefiniert und L2 -beschränkt auf [0, T ]. 2. Schritt: Wir zeigen, dass es eine Konstante C gibt, so dass gilt Z t h i (n+1) (n) 2 E[(Xs(n) − Xs(n−1) )2 ] ds. E sup (Xs − Xs ) ≤ C 0≤s≤t 0 (n+1) Wir können die Differenz Xt (n) − Xt als Summe der beiden Terme t Z (µ(s, Xs(n) ) − µ(s, Xs(n−1) )) ds Dt := 0 und Z Mt := t (σ(s, Xs(n) ) − σ(s, Xs(n−1) )) dBs 0 (n) schreiben. Der Prozess M ist ein Martingal, da die Abbildung S : s 7→ σ(s, Xs ) − (n−1) σ(s, Xs ) progressiv messbar ist mit S ∈ P2 (B). Es gilt sup |Xs(n+1) − Xs(n) |2 ≤ 2 sup Ms2 + 2 sup Ds2 , 0≤s≤t 0≤s≤t 0≤s≤t so dass wir die zwei Terme separat behandeln können. Mit der Cauchy-SchwarzUngleichung folgt Z t 2 |µ(s, Xs(n) ) − µ(s, Xs(n−1) )|2 ds. sup Ds ≤ t 0≤s≤t 0 Die Doob-Ungleichung 2.8 und die Itô-Isometrie liefern Z t i h (n−1) 2 2 2 (n) |σ(s, Xs ) − σ(s, Xs )| ds . E sup Ms ≤ 4E[Mt ] = 4E 0≤s≤t 0 Wenden wir schließlich die Lipschitz-Bedingungen an, so erhalten wir Z t h i (n−1) 2 (n) 2 (n) (n+1) )| ds E sup |Xs − Xs | ≤ 8E |σ(s, Xs ) − σ(s, Xs 0≤s≤t 0 Z t (n) (n−1) 2 +2tE |µ(s, Xs ) − µ(s, Xs )| ds 0 Z t ≤ C E[(Xs(n) − Xs(n−1) )2 ] ds 0 52 3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN mit C := 8L2 (T + 1). 3. Schritt: z.z.: Die Prozesse X (n) konvergieren f.s. gleichmäßig gegen einen stetigen L2 -beschränkten Prozess X. (n+1) (n) Sei gn (t) := E sup0≤s≤t |Xs − Xs |2 . Dann gilt nach Schritt 2 t Z gn (t) ≤ C ∀n ≥ 1. (+) gn−1 (s) ds, 0 Aufgrund der linearen Beschränktheit existiert eine Konstante M , so dass g0 (t) ≤ M für alle t ∈ [0, T ]. Mit (+) folgt g1 (t) ≤ M Ct, also iterativ 0 ≤ gn (t) ≤ M C n tn . n! Daraus und aus der Chebyshev-Ungleichung ergibt sich P sup 0≤s≤T |Xs(n+1) − Xs(n) | −n ≥2 ≤ M C n T n 22n . n! Das erste Borel-Cantelli-Lemma sagt uns nun, dass es eine Nullmenge N gibt, so (n) dass für alle ω ∈ N c die stetigen Funktionen t 7→ Xt (ω) eine Cauchyfolge bezüglich der Supremumsnorm auf C[0, T ] bilden. Daher gibt es für alle ω ∈ N c eine stetige (n) Funktion t 7→ Xt (ω), so dass Xt (ω) auf [0, T ] gleichmäßig gegen Xt (ω) konvergiert. Zudem gilt nach Definition der gn (n+1) kXt (n) − Xt k2 ≤ gn (T )1/2 ∀t ∈ [0, T ]. (n) Da gn (T )1/2 summierbar ist, ist (Xt )n∈N0 für alle t ∈ [0, T ] eine Cauchyfolge in (n) L2 (P ). Folglich konvergiert Xt für alle t ∈ [0, T ] auch in L2 (P ) gegen Xt . Wegen kXt k2 ≤ kX0 k2 + ∞ X gn (T )1/2 ∀t ∈ [0, T ] n=0 ist Xt überdies L2 -beschränkt. 4. Schritt: z.z.: X löst die sDGL (3.1). R T (n+1) (n) Aus der Definition der gn folgt E 0 |Xs − Xs |2 ds ≤ T gn (T ). Die rechte Seite ist summierbar, daher ist die Folge (X (n) ) eine Cauchyfolge in L2 (λ ⊗ P ). Da L2 (λ ⊗ P ) vollständig ist, liegt auch X in L2 (λ ⊗ P ) und X (n) → X in L2 (λ ⊗ P ). Wegen Z T Z T (n) 2 2 (n) 2 E |h(s, Xs ) − h(s, Xs )| ds ≤ L E |Xs − Xs | ds → 0 0 0 für h ∈ {µ, σ} gilt Z t Z t (n) σ(s, Xs ) dBs → σ(s, Xs ) dBs 0 in L2 (P ) für alle t ∈ [0, T ] 0 und Z 0 t µ(s, Xs(n) ) ds Z → t µ(s, Xs ) ds in L2 (P ) für alle t ∈ [0, T ]. 0 3.2 Existenz und Eindeutigkeit 53 Nach der Stochastik I gibt es eine Teilfolge (nk )k∈N , so dass für alle t ∈ [0, T ] ∩ Q Z t Z t Z t Z t (n) (n) µ(s, Xs ) ds + σ(s, Xs ) dBs → µ(s, Xs ) ds + σ(s, Xs ) dBs f.s. 0 0 0 0 Bilden wir auf beiden Seiten der Definition der X (n) den Limes entlang dieser Teilfolge, so ergibt sich Z t Z t Xt = X0 + µ(s, Xs ) ds + σ(s, Xs ) dBs für alle t ∈ [0, T ] ∩ Q f.s. 0 0 Da beide Seiten f.s. stetig sind, gilt die Gleichung f.s. für alle t ∈ [0, T ]. Aufgabe 31. Zeigen Sie, dass die sDGL dXt = ln(1 + Xt2 )dt + 1{Xt >0} Xt dBt , X0 = a ∈ R, eine eindeutige Lösung Xt besitzt. Aufgabe 32. Für alle n ∈ N0 seien µn , σn : [0, T ] × R → R messbare, linear beschränkte Lipschitz-stetige Funktionen mit denselben Konstanten L und K aus (n) (n) (0) Definition 3.2 und Bemerkung 3.4. Seien X0 ∈ L2 (P ) so, dass X0 → X0 in L2 . Weiter gelte für alle (t, x) ∈ [0, T ] × R lim µn (t, x) = µ0 (t, x) und n→∞ (n) Bezeichnet dann Xt lim σn (t, x) = σ0 (t, x). n→∞ für jedes n ∈ N0 die L2 -beschränkte Lösung der DGL (n) dXt (n) (n) = µn (t, Xt )dt + σn (t, Xt )dBt , so gilt lim (n) sup E[(Xt n→∞ t∈[0,T ] (0) − Xt )2 ] = 0. Bemerkung 3.5. Beide Ergebnisse übertragen sich sinngemäß auf den mehrdimensionalen Fall, in dem ~ t = ~µ(t, X ~ t )dt + σ(t, X ~ t )dB ~ t mit Startwert X ~0 dX ~ t ) = (µ1 (t, X ~ t ), . . . , µn (t, X ~ t ))> , dB ~ t = (dB 1 , . . . , dB m )> zu lösen ist. Dabei ist ~µ(t, X t t ~ t ) = (σi,j (t, X ~ t )) i=1,...,n . und σ(t, X j=1,...,m Beispiel 3.6 (Brownsche Bewegung auf dem Kreis). Sei Xt = cos(Bt ) und Yt = sin(Bt ), dann wird der zweidimensionale Prozess ((Xt , Yt ))t≥0 als Brownsche Bewegung auf dem Kreis bezeichnet. Das zugehörige System von stochastischen Differentialgleichungen ist gegeben durch 1 1 dXt = − sin(Bt )dBt − cos(Bt )dt = −Yt dBt − Xt dt 2 2 und 1 1 dYt = cos(Bt )dBt − sin(Bt )dt = Xt dBt − Yt dt, 2 2 oder in Vektorschreibweise 1 1 Xt 1 Xt dXt −Yt −Yt 0 dBt 1 =− dt + dBt = − dt + . dYt Xt Xt 0 dBt2 2 Yt 2 Yt Wir sehen, dass die zweite Brownsche Bewegung hier keine Rolle spielt. Dies ist vernünftig, weil die Brownsche Bewegung auf dem Kreis in Wirklichkeit ein eindimensionaler Prozess ist, der nur zufällig im R2 verläuft. 54 3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN 3.3 Schwache Lösungen und Martingalproblem Im letzten Abschnitt haben wir (starke) Lösungen der sDGL (3.1) kennen gelernt. Hier wollen wir nun versuchen, den Lösungsbegriff ein wenig abzuschwächen. Definition 3.4 (Schwache Lösungen einer sDGL). Eine schwache Lösung der sDGL (3.1) mit Startverteilung ν ist ein Tripel L = (X, B), (Ω, F, P ), (Ft )t≥0 , wobei gilt: • (Ω, F, P ) ist ein W-Raum, • (Ft )t≥0 ist eine rechtsstetige und vollständige Filtration auf (Ω, F, P ), • B ist eine Brownsche Bewegung auf (Ω, F, P ) und bzgl. (Ft )t≥0 ein Martingal, • X ist stetig und adaptiert (also progressiv messbar), • P X0 = ν • sowie Z t Z σ(s, Xs ) dBs µ(s, Xs ) ds + Xt = X0 + 0 t P -f.s. 0 Eine schwache Lösung L heißt (schwach) eindeutig, falls für jede weitere Lösung L0 0 mit Startverteilung ν gilt: (P 0 )X = P X . Aufgabe 33. Sei B eine Brownsche Bewegung. Zeigen Sie, dass X := B 2 eine schwache Lösung der stochastischen DGL p dXt = dt + 2 |Xt |dB̃t ist, wobei B̃ eine weitere Brownsche Bewegung bezeichne. Hinweis: Möglicherweise ist folgende Aussage hilfreich: Sei dYt (ω) = u(t, ω)dt + v(t, ω)dBt (ω). Dann ist Y genau dann eine Brownsche Bewegung, wenn E(u(t, .)|Nt ) = 0 und vv > = I (Einheitsmatrix) für fast alle (t, ω). Dabei sei Nt die von Ys , s ≤ t, erzeugte σ-Algebra. Bisher haben wir einen W-Raum und eine Brownsche Bewegung fest vorgegeben und dazu eine Lösung der sDGL berechnet. Im Gegensatz dazu werden nun der W-Raum und die Brownsche Bewegung beim Lösen erst konstruiert. Zur Unterscheidung von den schwachen Lösungen nennen wir ab jetzt die im letzten Abschnitt betrachteten Lösungen starke Lösungen. Bemerkung 3.6. Durch jede starke Lösung von (3.1) wird eine schwache Lösung definiert. Die Umkehrung ist falsch. 3.3 Schwache Lösungen und Martingalproblem 55 Definition 3.5. Die Lösung der sDGL (3.1) mit Startverteilung ν heißt pfadweise eindeutig, falls für jedes W-Maß ν auf B n und je zwei schwache Lösungen (X, B) und (Y, B) auf demselben Raum (Ω, F, P ) mit derselben Filtration (Ft )t≥0 und P X0 = ν = P Y0 gilt P (Xt = Yt ∀t ≥ 0) = 1. Satz 3.5 (Yamada-Watanabe). Es sind äquivalent: (i) Die sDGL (3.1) hat eine eindeutige starke Lösung. (ii) Für jedes W-Maß ν auf B n hat (3.1) eine schwache Lösung, und es gilt pfadweise Eindeutigkeit. Gelten (i) und (ii), so ist die Lösung schwach eindeutig. Sei für alle t ≥ 0 und x ∈ Rn die n × n Matrix a(t, x) symmetrisch und nichtnegativ definit, und sei (t, x) 7→ a(t, x) messbar. Definition 3.6. Ein n-dimensionaler stetiger Prozess X ist eine Lösung des lokalen Martingalproblems zu a und b mit Startverteilung ν (kurz: LMP(a,b,ν)), falls P X0 = ν ist und für jedes i = 1, . . . , n Z t i i Mt := Xt − bi (s, Xs ) ds, t ≥ 0, 0 ein stetiges lokales Martingal ist mit Kovariation Z t i j [M , M ]t = aij (s, Xs ) ds für alle t ≥ 0, i, j = 1, . . . , n. 0 Wir nennen eine Lösung von LMP(a,b,ν) eindeutig, wenn für je zwei Lösungen X und Y gilt: P X = P Y . Offenbar ist a = σσ > eine nichtnegativ semidefinite symmetrische n × n Matrix. Der nächste Satz stellt einen Zusammenhang zwischen einer schwachen Lösung der sDGL (3.1) und einer Lösung eines lokalen Martingalproblems her. Satz 3.6. X ist genau dann eine Lösung von LMP(σσ > ,µ,ν), wenn es (ggf. auf einer Erweiterung des Wahrscheinlichkeitsraums) eine Brownsche Bewegung B gibt, so dass (X, B) eine schwache Lösung von (3.1) ist. Insbesondere existiert genau dann eine eindeutige schwache Lösung der sDGL (3.1) mit Startverteilung ν, wenn LMP(σσ > ,µ,ν) eindeutig lösbar ist. Beweis. Wir zeigen die Aussage nur im eindimensionalen Fall. Für den allgemeinen Fall vgl. Proposition 5.4.6 in [KS98]. ⇐: Sei S : (t, ω) 7→ σ(t, Xt (ω)). Ist (X, B) eine schwache Lösung der sDGL (3.1), dann ist M mit Z t Z t Mt = Xt − µ(s, Xs ) ds = X0 + σ(s, Xs ) dBs = X0 + (S · B)t 0 0 nach Satz 2.27 ein (f.s.) stetiges lokales Martingal. Nach Korollar 2.30 besitzt es die quadratische Variation Z t 2 [M ]t = [X0 ]t + 2[X0 , S · B]t + [S · B]t = S · [B]t = σ 2 (s, Xs ) ds. 0 56 3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN X löst also das lokale Martingalproblem. ⇒: Sei X eine Lösung von LMP(σ 2 ,µ,ν). Man kann zeigen (vgl. Satz 25.29 aus [Kle08]), dass dann auf einer Erweiterung des Wahrscheinlichkeitsraumes eine BrownRt sche Bewegung W existiert, so dass Mt − M0 = Mt − X0 = 0 |σ(s, Xs )| dWs gilt. Setzen wir Z t sign(σ(s, Xs )) dWs , Bt := 0 so ist Mt − X0 = Rt 0 σ(s, Xs ) dBs , also (X, B) eine schwache Lösung von (3.1). Satz 3.7. Es seien (t, x) 7→ b(t, x) und (t, x) 7→ a(t, x) stetig und beschränkt. Dann existiert für jedes W-Maß ν eine Lösung X des LMP(a,b,ν). 3.4 Maßwechsel In diesem Abschnitt wollen wir nun den Driftterm einer stochastischen DGL manipulieren. Es wird sich zeigen, dass wir dies erreichen können, indem wir von dem W-Maß P zu einem geeigneten anderen W-Maß Q übergehen. Satz 3.8 (Lévy-Darstellung einer Brownschen Bewegung). Seien (Ft )t≥0 eine Filtration auf dem W-Raum (Ω, F, P ) und Xt = (Xt1 , . . . , Xtd ) ein (f.s.) stetiger, an (Ft )t≥0 adaptierter Prozess mit Werten in Rd und X0 = 0. Dann sind äquivalent: a) X ist eine d-dimensionale Brownsche Bewegung bezüglich P und (Ft )t≥0 , d.h. die Verteilung von X bezüglich P ist die gleiche wie die einer d-dimensionalen Brownschen Bewegung. b) (i) X i ist für jedes i ∈ {1, . . . , d} ein (f.s.) stetiges lokales Martingal bezüglich P und (Ft )t≥0 und (ii) Xti Xtj −δij t ist ein (f.s.) stetiges lokales Martingal bezüglich P und (Ft )t≥0 für alle i, j ∈ {1, 2, . . . , d}. Ein Beweis steht in [KS98] (Theorem 3.3.16). Bemerkung 3.7. Die Bedingung (ii) in Satz 3.8 kann durch (ii)’ [X i , X j ]t = δij t, t ≥ 0, f.s. für alle i, j = 1, . . . , d ersetzt werden. Aufgabe 34. Ein stetiger adaptierter Prozess W ist genau dann eine d-dimensionale Brownsche Bewegung, wenn 1 f (Wt ) − 2 Z tX d ∂2f (Ws ) ds, 2 0 i=1 ∂xi t ≥ 0, bezüglich der kanonischen Filtration für alle f ∈ C 2 (Rd ) ein stetiges lokales Martingal ist. Für den Beweis des nächsten Satzes benötigen wir noch die folgenden Hilfsresultate. 3.4 Maßwechsel 57 Lemma 3.9. Seien µ und ν zwei W-Maße auf einem messbaren Raum (Ω, F), so dass dν = f dµ für ein f ∈ L1 (µ). Sei X eine Zufallsvariable auf (Ω, F) mit Z Eν |X| = |X|f dµ < ∞ Ω und H eine Sub-σ-Algebra von F. Dann gilt Eν (X|H)Eµ (f |H) = Eµ (f X|H) f.s. Beweis. Nach Definition des bedingten Erwartungswerts gilt für H ∈ H Z Z Z Z Z Eµ (f X|H) dµ = Xf dµ = X dν = Eν (X|H) dν = Eν (X|H)f dµ. H H H H H Dies können wir wiederum wie folgt umformen Z Eν (X|H)f dµ = Eµ [Eν (X|H)f 1H ] = Eµ [Eµ (Eν (X|H)f 1H |H)] H Z Eν (X|H)Eµ (f |H) dµ. = Eµ [1H Eν (X|H)Eµ (f |H)] = H Wir erhalten also Z Z Eν (X|H)Eµ (f |H) dµ = H Eµ (f X|H) dµ. H Da dies für alle H ∈ H gilt, folgt die Behauptung. Proposition 3.10. Sei (Ft )t≥0 eine Filtration auf dem W-Raum (Ω, F, P ), B eine d-dimensionale, an (Ft )t≥0 adaptierte Brownsche Bewegung bezüglich P und a ∈ d (B) an (Ft )t≥0 adaptiert. Sei ferner T ∈ [0, ∞). Setze Ploc Mt := exp X d Z a(i) s 0 i=1 und t dBsi 1 − 2 Z t |as | ds 2 0 Z QT (A) := 1A MT dP = EP [1A MT ], A ∈ FT . (Mt , Ft )t≥0 sei ein Martingal bezüglich P . Ist (Xt , Ft )t∈[0,T ] ein stetiges lokales Martingal bezüglich P mit X0 = 0, dann ist X̃t = Xt − d Z X t i a(i) s d[X, B ]s , t ∈ [0, T ], 0 i=1 ein stetiges lokales Martingal bezüglich QT und (Ft )t∈[0,T ] mit X̃0 = 0. Ist (Yt , Ft )t∈[0,T ] ein weiteres stetiges lokales Martingal mit Y0 = 0 und Ỹt := Yt − d Z X i=1 t i a(i) s d[Y, B ]s , t ∈ [0, T ], 0 dann gilt [X̃, Ỹ ]Q t = [X, Y ]t , t ∈ [0, T ], f.s., wobei [·, ·] die Kovariation bezüglich P und [·, ·]Q diejenige bezüglich QT bezeichnet. 58 3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN Beweis. Wir betrachten nur den Fall, in dem X und Y stetige beschränkte Martingale mit beschränkten quadratischen Variationen sind. Zusätzlich nehmen wir an, Pd R t (i) dass Mt und i=1 0 (as )2 ds in t und ω beschränkt sind. Der allgemeine Fall folgt dann durch Lokalisation. Satz 2.22 liefert 2 Z t Z t 2 (i) i as d[X, B ]s ≤ [X]t (a(i) s ) ds, 0 0 der Pn Prozess(k)X̃ istk also ebenfalls beschränkt. Nach Beispiel 2.3 gilt Mt = 1 + k=1 ((M a ) · B )t . Mit Theorem 2.37 erhalten wir Mt X̃t = (M · X̃)t + (X̃ · M )t + [X̃, M ]t d X = (M · X)t − ((M a(i) ) · [X, B i ])t + (X̃ · M )t + [X, M ]t = (M · X)t + i=1 d X (X̃ · ((M a(i) ) · B i ))t i=1 Z t Ms dXs + = 0 d Z X i=1 t X̃s Ms as(i) dBsi . 0 Dies ist ein Martingal bezüglich P . Nach Lemma 3.9 ergibt sich also für 0 ≤ s < t≤T EQT (X̃t |Fs ) = E(MT X̃t |Fs ) E(X̃t E(MT |Ft )|Fs ) E(Mt X̃t |Fs ) = = = X̃s E(MT |Fs ) Ms Ms f.s. Folglich ist (X̃t , Ft )t∈[0,T ] ein stetiges lokales Martingal mit X̃0 = 0. Bezeichne [·, ·] die Kovariation bezüglich P und [·, ·]Q diejenige bezüglich QT . Dann impliziert Theorem 2.37 X̃t Ỹt − [X, Y ]t = (X̃ · Y )t + (Ỹ · X)t − d nX (i) i (i) i ((X̃a ) · [Y, B ])t + ((Ỹ a ) · [X, B ])t o i=1 sowie Mt (X̃t Ỹt − [X, Y ]t ) = ((M X̃) · Y )t + ((M Ỹ ) · X)t + d X ((X̃ Ỹ − [X, Y ])a(i) M ) · B i t . i=1 Der zweite Prozess ist ein Martingal bezüglich P , mit Lemma 3.9 erhalten wir also für 0 ≤ s < t ≤ T EQT (X̃t Ỹt − [X, Y ]t |Fs ) = X̃s Ỹs − [X, Y ]s f.s. Daher gilt [X̃, Ỹ ]Q t = [X, Y ]t für alle t ∈ [0, T ] f.s. Satz 3.11 (Girsanov I). Seien (Ft )t≥0 , B, a, M und QT definiert wie in Proposition 3.10 und T ∈ [0, ∞). Z sei ein Rd -wertiger, stetiger (Ft )-adaptierter Prozess mit dZt = dBt − at dt, t ≥ 0, Z0 = 0. M sei definiert wie in Proposition 3.10 und ein Martingal bezüglich (Ft )t≥0 und P . Dann ist QT ein W-Maß auf FT , und (Zt , Ft )t∈[0,T ] ist eine d-dimensionale Brownsche Bewegung auf (Ω, FT , QT ). 3.4 Maßwechsel 59 Beweis. Da M ein Martingal ist, gilt QT (Ω) = EQT 1 = EP MT = 1. R t (i) Aufgrund der DGL ist Zti = Bt − 0 as ds. Nach Satz 3.8 und Bemerkung 3.7 genügt es zu zeigen, dass (i) (Zt1 , . . . , Ztd ), t ∈ [0, T ], ein stetiges lokales Martingal bzgl. QT ist und (ii) [Z i , Z j ]Q t = δij t, t ∈ [0, T ], für alle i, j = 1, . . . , d. Setzen wir in Proposition 3.10 X = B j , so erhalten wir j X̃ = B − d Z X i=1 t as(i) j i j Z d[B , B ]s = B − t j a(j) s ds = Z . 0 0 Jede Komponente Z j ist also eingeschränkt auf [0, T ] ein stetiges lokales Martingal. Setzen wir Y = B k , so ergibt sich außerdem j k [Z j , Z k ]Q t = [B , B ]t = δjk t, Den Term Pd R t i=1 0 (i) as dBsi kürzen wir ab durch t ∈ [0, T ] f.s. Rt 0 a> s dBs . Bemerkung 3.8. a) Die Transformation P 7→ QT , die durch dQT = MT dP definiert wird, heißt auch Girsanov-Transformation. b) Die sog. Novikov-Bedingung Z t 1 2 EP exp |as | ds < ∞ für alle t ≥ 0 (3.4) 2 0 ist hinreichend, um zu gewährleisten, dass M ein Martingal (bezüglich (Ft )t≥0 und P ) ist. Ein Beweis steht z.B. in [KS98] (Proposition 3.5.12 und Korollar 3.5.13). c) Da M ein Martingal ist, gilt MT dP = Mt dP auf Ft , t ≤ T, denn für ein A ∈ Ft können wir rechnen EP [1A MT ] = EP [E(1A MT |Ft )] = EP [1A E(MT |Ft )] = EP [1A Mt ]. d) Manchmal ist man auch daran interessiert, dass der Prozess Z aus Satz 3.11 für alle t ≥ 0 eine Brownsche Bewegung ist. Dafür sind die Maße QT jedoch ungeeignet. Wir hätten gerne ein einziges Maß Q auf F∞ , so dass Q eingeschränkt auf FT mit QT übereinstimmt. Solch ein Maß existiert jedoch i.a. nicht. Daher beschränkt man sich auf die von der gegebenen Brownschen Bewegung erzeugte Filtration (FtB )t≥0 . Definiert man QT auf FTB durch QT (A) = EP [1A MT ], so ist die Familie der W-Maße B (QT )T ≥0 konsistent, und es gelingt uns, ein W-Maß Q auf F∞ zu definieren, dass diese Familie fortsetzt. Da wir es im nächsten Kapitel immer mit einem endlichen und festen Zeithorizont T zu tun haben, schreiben wir ab jetzt Q = QT . Auch wollen wir ab jetzt immer die von der Brownschen Bewegung B erzeugte Filtration wählen. 60 3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN Satz 3.12 (Girsanov II). Sei Yt ∈ Rn ein Prozess der Form dYt = µt dt + σt dBt , t ∈ [0, T ], (#) mit Bt ∈ Rm , µt ∈ Rn und σt ∈ Rn×m . Es gebe Rm bzw. Rn -wertige Prozesse n m (B), so dass (B) und α ∈ Ploc u ∈ Ploc σt ut = µt − αt . u erfülle die Novikov-Bedingung (3.4). Setze Z t Z 1 t > 2 Mt = exp − us dBs − |us | ds , 2 0 0 t ∈ [0, T ] Rt und dQ = MT dP auf FT . Dann ist B̂t := Bt + 0 us ds, t ∈ [0, T ], eine Brownsche Bewegung bezüglich Q, und Y hat die Darstellung dYt = αt dt + σt dB̂t . Beweis. Aus Satz 3.11 folgt, dass B̂ eine Brownsche Bewegung bezüglich Q ist. Durch Einsetzen von B̂ in (#) erhalten wir also dYt = µt dt + σt (dB̂t − ut dt) = (µt − σt ut )dt + σt dB̂t = αt dt + σt dB̂t . Beachte, dass für n = m und einen invertierbaren Prozess σ ∈ Rn×n der Prozess u mit σu = µ − α eindeutig bestimmt ist durch ut = σt−1 (µt − αt ). Aufgabe 35. Sei 1 0 1 3 dBt , dYt = dt + dBt2 1 −1 −2 t ∈ [0, T ]. Finden Sie ein W-Maß Q auf FT mit Q ∼ P , so dass 1 1 3 dB̃t dYt = −1 −2 dB̃t2 wobei B̃t := −3t t + Bt1 Bt2 eine Brownsche Bewegung bzgl. Q ist. Satz 3.13 (Girsanov III). Seien X und Y Rn -wertige Prozesse der Form dXt = µ(Xt )dt + σ(Xt )dBt , t ∈ [0, T ], X0 = x und dYt = (γt + µ(Yt ))dt + σ(Yt )dBt , t ∈ [0, T ], Y0 = x, wobei µ : Rn → Rn und σ : Rn → Rn×m die Bedingungen aus Satz 3.4 erfüllen und n m γ ∈ Ploc (B) sowie x ∈ Rn . Es gebe einen Prozess u ∈ Ploc (B) mit σ(Yt )ut = γt , der die Novikov-Bedingung (3.4) erfülle. Definiere M , Q und B̂ wie in Satz 3.12. Dann gilt dYt = µ(Yt )dt + σ(Yt )dB̂t . Die Verteilungen QYt und P Xt stimmen also überein. 3.4 Maßwechsel 61 Beweis. Die gesuchte Darstellung folgt, indem wir Satz 3.12 auf σt = σ(Yt ), µt = γt + µ(Yt ) und αt = µ(Yt ) anwenden. Die Gleichheit der Verteilungen ergibt sich aus der schwachen Eindeutigkeit der Lösungen stochastischer Differentialgleichungen. Aufgabe 36. Sei b : R → R eine Lipschitz-stetige Funktion. Definiere Xt = Xtx ∈ R durch dXt = b(Xt )dt + dBt , X0 = x ∈ R. a) Beweisen Sie mit Hilfe des Satzes von Girsanov, dass für alle M < ∞, x ∈ R und t > 0 gilt P (Xtx ≥ M ) > 0. b) Wählen Sie b(x) = −r mit r > 0 konstant. Zeigen Sie, dass für alle x ∈ R Xtx → −∞ f.s. für t → ∞. Vergleichen Sie dies mit dem Resultat aus a). Satz 3.13 kann dazu benutzt werden, schwache Lösungen einer sDGL herzuleiten. Sei z.B. Yt eine bekannte starke oder schwache Lösung der Gleichung dYt = µ(Yt )dt + σ(Yt )dBt , µ : Rn → Rn , σ : Rn → Rn×m , Bt ∈ Rm . Wir wollen eine schwache Lösung der verwandten Gleichung dXt = a(Xt )dt + σ(Xt )dBt finden, in der der erste Term (auch Driftterm genannt) verändert wurde. Wenn wir eine Funktion u0 : Rn → Rm finden können, so dass σ(y)u0 (y) = µ(y) − a(y) für alle y ∈ Rn , dann erhalten wir mit Q und B̂ wie in Satz 3.12 dYt = a(Yt )dt + σ(Yt )dB̂t . Da B̂ eine Brownsche Bewegung bzgl. Q ist, ist (Y, B̂) eine schwache Lösung der gewünschten Gleichung. Beispiel 3.7. Sei a : Rn → Rn eine beschränkte messbare Funktion. Dann können wir eine schwache Lösung der sDGL dXt = a(Xt )dt + dBt , X0 = x ∈ Rn (∗) konstruieren. Wir gehen dazu vor wie oben beschrieben mit σ = I, µ = 0 und dYt = dBt , Y0 = x. Wähle u0 = σ −1 (µ − a) = −a und definiere Z t Z 1 t > 2 |u0 (Ys )| ds , Mt = exp − u0 (Ys ) dBs − 2 0 0 Rt Rt d.h. Mt = exp 0 a(x + Bs ) dBs − 21 0 |a(x + Bs )|2 ds . Sei T < ∞ fest und dQ = MT dP auf FT . Dann ist Z t B̂t := − a(x + Bs ) ds + Bt , t ∈ [0, T ] 0 eine Brownsche Bewegung bzgl. Q, und es gilt dBt = dYt = a(Yt )dt + dB̂t . Wenn wir also Y0 = x setzen, ist (Y, B̂) eine schwache Lösung der sDGL (∗). Die schwache Eindeutigkeit impliziert, dass die Verteilungen der beiden Lösungen gleich sind. 62 4 FINANZMATHEMATIK An dieser Stelle nun die Aufgaben des wiederholenden Übungsblattes 10. Aufgabe 37. Sei B die Brownsche Bewegung und 0 < s < t < u. Berechnen Sie die bedingte Verteilung von Bt gegeben Bs und Bu . Aufgabe 38. Ist M ein stetiges lokales Martingal mit M0 = 0 und T eine Stoppzeit, so gilt EMT2 ≤ E[M ]T . Aufgabe 39. Seien P c und u zweimal stetig differenzierbare Funktionen auf [0, ∞) × Rs d+1 (j,j) 1 t d (1) + cu. Setze cs = 0 c(t − r, Br )dr. Dann ist R , so dass u = 2 j=2 u Ms = u(t − s, Bs ) exp(cts ) ein stetiges lokales Martingal auf [0, t) bezüglich der von der Brownschen Bewegung B erzeugten Filtration. Aufgabe 40. Lösen Sie die sDGL 1 0 1 dXt = dt + Xt1 dBt dXt2 Xt2 e mit Anfangswert (X01 , X02 )> = (0, 0)> . Die auftretende Brownsche Bewegung ist eindimensional. 4 Finanzmathematik Dieser Abschnitt soll v.a. in die Theorie der Optionspreise einführen, da dort ausgiebig Gebrauch von Itô-Integralen, Martingalen und Maßwechsel gemacht wird. 4.1 Begriffsbildung Wir nehmen an, dass ein Investor sein Geld in einem Zeitraum [0, T ] in einen sog. Bond-Anteil (risikoloses Wertpapier vom Typ „Spareinlage“) und mehrere AktienAnteile (risikobehaftete Wertpapiere) investieren kann. Zusätzlich zum Grundraum (Ω, F, P ) sei (Ft )t≥0 die von der Brownschen Bewegung B erzeugte Filtration. Wir definieren Definition 4.1. a) Ein Markt ist ein adaptierter (n + 1)-dimensionaler Prozess Xt = (βt , St1 , . . . , Stn )> , t ∈ [0, T ], mit dβt = rt βt dt, und dSti = (i) µt dt + m X (i,j) σt β0 = 1 (i) (i) dBtj = µt dt + σt dBt , S0i = xi , j=1 wobei σ (i) der i-te Reihenvektor der n × m Matrix σ = (σ (i,j) ) i=1,...,n ist. j=1,...,m b) Der Markt (Xt )t∈[0,T ] heißt diskontiert, wenn βt ≡ 1. 4.1 Begriffsbildung 63 Bemerkung 4.1. a) βt bezeichnet den Preis des Bond-Anteils und Sti die Preise der Aktien-Anteile zur Zeit t. Da es neben dem Sparbuch auch risikolose Anlageformen wie Tagesgeld gibt, deren Zinssatz zeitlich variabel ist, modellieren wir die Änderung des Bondpreises mit Hilfe eines Zinsprozesses (rt )t∈[0,T ] . Nach Proposition 3.1 besitzt die DGL des Bonds die Lösung Rt βt = e 0 rs ds t ∈ [0, T ]. , (4.1) Dabei setzen wir voraus, dass r messbar, gleichmäßig beschränkt, d.h. |rt (ω)| ≤ M < ∞ für alle (t, ω) ∈ [0, T ] × Ω, und adaptiert an die Brownsche Filtration ist. Der erste Term in der sDGL für Sti beschreibt einen mittleren Wachstumstrend, während der zweite Term zufällige Kursschwankungen modelliert. Der Prozess (µt )t∈[0,T ] = (1) (n) (µt , . . . , µt )> t∈[0,T ] wird Trend und (σt )t∈[0,T ] Volatilität genannt. b) Wir können jeden Markt diskontieren durch S̄ti = βt−1 Sti , i = 1, . . . , n. Wir setzen X̄t = (1, S̄t1 , . . . , S̄tn )> . Rt Rt Wir wissen bereits, dass βt = e 0 rs ds . Also gilt βt−1 = e− 0 rs ds > 0 für alle t ∈ [0, T ]. Dieser Prozess erfüllt die sDGL d(βt−1 ) = −rt βt−1 dt. Der Bondpreis ist zudem ein Prozess von endlicher Variation. Theorem 2.37 liefert also dS̄ti = d(βt−1 Sti ) = βt−1 dSti + Sti d(βt−1 ) (i) (i) = βt−1 [(µt − rt Sti )dt + σt dBt ], i = 1, . . . , n, bzw. in vektorieller Schreibweise dX̄t = βt−1 [dXt − rt Xt dt]. (4.2) Definition 4.2. a) Eine Handelsstrategie in einem Markt (Xt )t∈[0,T ] ist ein (n + 1)dimensionaler, messbarer und adaptierter stochastischer Prozess θt = (θt0 , θt1 , . . . , θtn )> . b) Der Wert einer Handelsstrategie θ zur Zeit t ist definiert durch Vtθ Vt = = θt> Xt = θt0 βt + n X θti Sti . (4.3) i=1 Der Prozess V θ wird auch der zu θ gehörende Vermögensprozess genannt. c) Die Handelsstrategie θ heißt selbstfinanzierend, wenn Z T n m hX n X i2 X 0 i (i) i (i,j) ds < ∞ f.s. θ s µs + θs σs θs rs βs + 0 i=1 j=1 i=1 und dVt = θt> dXt = θt0 dβt + n X θti dSti , i=1 d.h. Z Vt = V0 + 0 t θs0 dβs + n Z X i=1 0 t θsi dSsi für t ∈ [0, T ]. (4.4) 64 4 FINANZMATHEMATIK Bemerkung 4.2. a) Die Komponenten θti sind als Anzahl der Bond- bzw. AktienAnteile im Warenkorb [genannt Portfolio] des Investors zur Zeit t zu interpretieren. b) Vt bezeichnet den Gesamtwert aller Investitionen zur Zeit t. c) Aufgrund der Integrierbarkeitsvoraussetzung sind alle Integrale in Vt wohldefiniert. d) Sei θ selbstfinanzierend für X und V̄tθ = θt> X̄t = βt−1 Vtθ der diskontierte Vermögensprozess. Nach Theorem 2.37 gilt dV̄tθ = βt−1 dVtθ + Vtθ d(βt−1 ) = βt−1 θt> dXt − rt βt−1 Vtθ dt = βt−1 θt> (dXt − rt Xt dt) = θt> dX̄t . θ ist also auch selbstfinanzierend für den diskontierten Markt X̄. Aufgabe 41. Der Markt X sei gegeben durch dβt = rβt dt , dSt = µSt dt + σSt dBt mit Konstanten r, µ und σ. Eine sog. Call-Option, also das Recht, eine Aktie zu einem Zeitpunkt T zu einem Preis K kaufen zu dürfen, habe den Wert Ct = f (t, St ) mit f (T, s) = (s − K)+ für alle s ∈ [0, ∞). Die Funktion f : (t, x) 7→ f (t, x) erfülle die DGL ∂f 1 ∂2f ∂f + rx + σ 2 x2 2 − rf = 0. ∂t ∂x 2 ∂x Bei einem Startkapital von 0 verkaufen wir ∂f Aktien und kaufen eine Call-Option. ∂x Zeigen Sie, dass diese Strategie nicht selbstfinanzierend ist. Wäre θ als Itô-Integral darstellbar, so würde mit Theorem 2.37 aus der Darstellung des Vermögensprozesses aus Teil b) der Definition folgen, dass dVt = θt> dXt + Xt> dθt + d[θ, X]t . Dass stattdessen die Formel dVt = θt> dXt gilt, ergibt sich aus dem Modell in diskreter Zeit: Investieren wir zu diskreten Zeitpunkten tk , so sollte der Gewinn ∆Vtk = Vtk+1 − Vtk durch ∆Vtk = θt>k ∆Xtk mit ∆Xtk = Xtk+1 − Xtk gegeben sein. Dabei beschreibt ∆Xtk die Preisänderung der Portfolios zwischen tk und tk+1 . Man beachte, dass das Geld jeweils nur umgeschichtet wird, da kein Kapital zu- oder abfließt. In diesem Sinn ist es sinnvoll, die Handelsstrategie selbstfinanzierend zu nennen. Durch Grenzübergang folgt die Formel im kontinuierlichen Fall, wobei die auftretenden Integrale Itô-Integrale sind. Mitunter wird auch Konsum zugelassen, d.h. der Investor darf KapitalRaus dem Markt abziehen. Dies ist im Vermögensprozess durch Abzug eines t Terms 0 cs ds zu berücksichtigen, in dem cs eine Konsumrate (Konsum pro Zeit) ist. Unsere Modellierung impliziert, dass keine Transaktionskosten anfallen, diese müssten sonst ebenfalls abgezogen werden. Bemerkung 4.3. Da θti , i = 0, 1, . . . , n, Anteile beschreiben, sollten sie nichtnegativ sein. Wir wollen aber auch negative Werte zulassen. So bedeuten negative BondAnteile, dass der Investor Geld auch leihen kann, um es in Aktien anzulegen. Dabei 4.1 Begriffsbildung 65 soll βt nicht vom Vorzeichen von θt0 abhängen, d.h. der Investor soll Geld zu den gleichen Konditionen leihen und anlegen können. Negative Aktien-Anteile bedeuten hingegen, dass der Investor einem Dritten Aktien schuldet, die er aber zum Zeitpunkt t nicht besitzt. Indem sich ein Investor Aktien leiht und diese am Markt verkauft (sog. Aktienleerverkäufe) kann er durch den Kauf von Bond-Anteilen sein Portfolio ebenfalls selbstfinanzierend umschichten. Bemerkung 4.4. Man beachte, dass wir durch Kombinieren von (4.3) und (4.4) erhalten Z t n Z t n X X 0 0 i i θsi dSsi . θs dβs + θt βt + θt St = V0 + 0 i=1 0 i=1 Setzen wir Yt0 = θt0 βt , so gilt dYt0 = rt Yt0 dt + dAt mit n Z X At = i=1 t θsi dSsi − θti Sti . 0 Diese Gleichung besitzt die Lösung θt0 = βt−1 Yt0 = θ00 Z + t βs−1 dAs . 0 Aufgrund der partiellen Integration (Theorem 2.37) dürfen wir schreiben θt0 = θ00 + βt−1 At Z − A0 − t As d(β −1 )s = V0 + βt−1 At 0 Z t + rs As βs−1 ds. 0 Wenn r = 0, dann ergibt sich insbesondere θt0 = V0 + At . Wenn wir also θt1 , . . . , θtn gewählt haben, können wir die Strategie θ selbstfinanzierend machen, indem wir θt0 gemäß der zuletzt erhaltenen Formel wählen. Definition 4.3. Eine selbstfinanzierende Handelsstrategie θ heißt zulässig, wenn der zugehörige Vermögensprozess V θ f.s. nach unten beschränkt ist, d.h. wenn es ein K = K(θ) < ∞ gibt, so dass Vtθ (ω) ≥ −K für fast alle (t, ω) ∈ [0, T ] × Ω. Dass eine zusätzliche Bedingung an die Strategie erforderlich ist, verdeutlicht das folgende Beispiel: Wenn wir nur voraussetzen, dass die Strategie selbstfinanzierend ist, können wir auch bei V0 = 0 jeden Endwert VT generieren. Beispiel 4.1. Wir betrachten den Markt dβt = 0, dSt = σSt dBt , S0 = 1. S ist also eine geometrische Brownsche Bewegung mit Drift µ = 0. Wähle θt1 = 1 , σSt (T − t) 0 ≤ t < T. 66 4 FINANZMATHEMATIK Gemäß Bemerkung können wir θ0 so wählen, dass die Strategie selbstfinanzierend ist. Wegen dβt = 0 gilt also dVtθ = θt1 dSt = 1 1 σSt dBt = dBt . σSt (T − t) T −t Folglich hat V θ die Darstellung Vtθ = V0θ Z + 0 Sei γt = Rt 1 0 (T −s)2 t 1 dBs . T −s ds. Dann kann man (z.B. mit Korollar 8.5.5 aus [Øks03]) zeigen, dass es eine Brownsche Bewegung B̂ gibt mit Z t 1 dBs = B̂γt . 0 T −s Da V0θ bisher beliebig war, können wir genausogut V0θ = 0 wählen. Wegen γt → ∞ für t → T und der Darstellung Vtθ − V0θ = B̂γt erkennen wir, dass für jedes a ∈ R die Stoppzeit τ := inf{t : Vtθ ≥ a} die Eigenschaften P (τ < T ) = 1 und Vτθ = a besitzt. Mit anderen Worten ermöglicht uns die oben beschriebene Strategie über die Zeitspanne [0, T ] ein beliebig großes Vermögen anzuhäufen. Definition 4.4. Eine zulässige Handelsstrategie θ heißt ein Arbitrage (im Markt X), wenn der zugehörige Vermögensprozess V θ die Bedingungen V0θ = 0, VTθ ≥ 0 f.s. und P (VTθ > 0) > 0 erfüllt. Ein Markt heißt arbitragefrei, wenn es keine Arbitrage gibt. Mit anderen Worten ist eine zulässige Handelsstrategie θ ein Arbitrage, wenn der Wert des Portfolios von t = 0 bis t = T f.s. wächst und in T positiv ist mit positiver Wahrscheinlichkeit. Die Strategie θ generiert also einen Profit ohne irgendein Risiko, Geld zu verlieren. Aufgabe 42. a) Beweisen Sie, dass der Preisprozess S genau dann eine Arbitrage besitzt, wenn der diskontierte Preisprozess S̄ eine Arbitrage besitzt. b) Sei S diskontiert. Zeigen Sie, dass S genau dann eine Arbitrage besitzt, wenn es eine zulässige Handelsstrategie θ gibt, so dass V0θ ≤ VTθ f.s. und P (VTθ > V0θ ) > 0. Lemma 4.1. Es existiere ein W-Maß Q auf FT , so dass P ∼ Q (d.h. es gilt P Q und P Q) und so dass der diskontierte Prozess X̄ ein lokales Martingal bezüglich Q ist. Dann ist der Markt X arbitragefrei. Beweis. Angenommen, θ sei ein Arbitrage für X̄. Sei V̄ θ der zugehörige Vermögensprozess für den diskontierten Markt mit V̄0θ = 0. Dann ist V̄ θ ein nach unten beschränktes lokales Martingal bezüglich Q. Dies folgt aus der Integraldarstelleung von V̄ θ . Nach Aufgabe 16 ist V̄ θ also ein Supermartingal bezüglich Q. Daher gilt EQ [V̄Tθ ] ≤ V̄0θ = 0. (∗) Da aber V̄Tθ ≥ 0 P -f.s. und Q P , gilt V̄Tθ ≥ 0 Q-f.s. Wegen P (V̄Tθ > 0) > 0 und P Q gilt außerdem Q(V̄Tθ > 0) > 0. Dies impliziert EQ [V̄Tθ ] > 0, was aber der Ungleichung (∗) widerspricht. Folglich kann es keine Arbitrage für den Prozess X̄ geben. Nach Aufgabe 42 ist X also ebenfalls arbitragefrei. 4.1 Begriffsbildung 67 Definition 4.5. Ein W-Maß Q ∼ P heißt äquivalentes (lokales) Martingalmaß, wenn der diskontierte Prozess X̄ ein (lokales) Martingal bezüglich Q ist. Bemerkung 4.5. Die Rückrichtung in Lemma 4.1 gilt bei kontinuierlicher Zeit nicht. Der Begriff der Arbitragefreiheit ist dafür zu schwach. Lediglich in diskreter Zeit ist die Arbitragefreiheit sogar äquivalent zur Existenz eines äquivalenten Martingalmaßes. Die zur Existenz eines äquivalenten Martingalmaßes äquivalente Bedingung wird oft als NFLVR-Bedingung (no f ree lunch with vanishing risk) bezeichnet. Da die zur exakten Beschreibung benötigten Begriffe und Beweise technisch sind, werden wir darauf nicht weiter eingehen. Wer mehr darüber erfahren möchte, sei auf die Arbeiten von Delbaen und Schachermayer verwiesen. Für den konkreten Nachweis der Arbitragefreiheit eines Marktes eignet sich der folgende Satz. Satz 4.2. a) Sei St = (St1 , . . . , Stn )> . Es existiere ein m-dimensionaler, produktR T messbarer und adaptierter Prozess u mit E 0 |ut |2 dt < ∞, so dass σt (ω)ut (ω) = µt (ω) − rt (ω)St (ω) für fast alle (t, ω) und so dass (4.5) Z T 1 2 |ut | dt < ∞. E exp 2 0 Dann ist der Markt X arbitragefrei. b) Ist umgekehrt der Markt X arbitragefrei, dann existiert ein (Ft )-adaptierter messbarer Prozess u, so dass σt (ω)ut (ω) = µt (ω) − rt (ω)St (ω) für fast alle (t, ω). Beweis. zu a): Nach Aufgabe 42a) dürfen wir annehmen, dass X diskontiert ist, d.h. dass r = 0. Definiere Q auf FT durch Z T Z 1 T 2 > |ut | dt dP. ut dBt − dQ = exp − 2 0 0 Dann Rist Q ∼ P , und nach den Satz von Girsanov (Satz 3.12) ist der Prozess t B̃t := 0 us ds + Bt eine Q-Brownsche Bewegung. Mit (4.5) erhalten wir (i) (i) (i) (i) (i) dSti = µt dt + σt dBt = σt ut dt + σt dBt = σt dB̃t , i = 1, . . . , n. Daher ist X ein lokales Q-Martingal, und die Behauptung folgt mit Lemma 4.1. zu b): Umgekehrt sei der Markt X arbitragefrei und diskontiert. Für t ∈ [0, T ] und sei Gt = {ω ∈ Ω : (4.5) hat keine Lösung} = {ω ∈ Ω : µt gehört nicht zum linearen Spann der Spalten von σt } = {ω ∈ Ω : ∃v = vt (ω) : σt> (ω)vt (ω) = 0 ∧ vt (ω)> µt (ω) 6= 0}. Setze ( sign(vt (ω)> µt (ω))vti (ω) , ω ∈ Gt θti (ω) := , i = 1, . . . , n 0 ,ω ∈ / Gt 68 4 FINANZMATHEMATIK und θt0 (ω) so, dass θ selbstfinanzierend ist. Da σ und µ (Ft )-adaptiert und messbar sind, können wir θ als (Ft )-adaptiert und messbar wählen. Ferner ist θ selbstfinanzierend mit zugehörigem Vermögensprozess Vtθ − V0θ = Z tX n 0 θsi dSsi Z = 1Gs |vs> µs | ds + = Z0 t = 1Gs |vs> µs | ds + Z tX m X n 0 j=1 0 i=1 t Z t Z θsi σs(i,j) dBsj i=1 t sign(vs> µs )1Gs vs σs dBs 0 1Gs |vs> µs | ds ≥ 0 ∀t ∈ [0, T ]. 0 Nach Aufgabe 42 muss VTθ − V0θ f.s. gleich Null sein, da der Markt arbitragefrei ist. Daher gilt 1Gt = 0 für fast alle (t, ω), d.h. (4.5) hat eine Lösung für f.a. (t, ω). Werfen wir nun kurz einen Blick darauf, wie wir diesen Satz zum Nachweis der Arbitragefreiheit benutzen können. Beispiel 4.2. a) X sei gegeben durch dSt1 = 2dt + dBt1 , dβt = 0, Daraus lesen wir ab µ= 2 −1 dSt2 = −dt + dBt1 + dBt2 . , σ= 1 0 . 1 1 Die Gleichung σu = µ hat die eindeutige Lösung u = (2, −3)> . Nach Satz 4.2 ist X also arbitragefrei. b) Der Markt Y sei gegeben durch dS̃t1 = 2dt + dBt1 + dBt2 , dβ̃t = 0, dS̃t2 = −dt − dBt1 − dBt2 . Nun suchen wir eine Lösung der Gleichung 1 1 u1 2 = . −1 −1 u2 −1 Diese Gleichung hat jedoch keine Lösung. Nach Satz 4.2b) besitzt der Markt also eine Arbitrage. Wenn wir θ = (θ0 , 1, 1) wählen, so erhalten wir VTθ = V0θ Z + T (2dt + dBt1 + dBt2 − dt − dBt1 − dBt2 ) = V0θ + T. 0 Ist insbesondere θ0 konstant, so dass V0θ = θ0 β̃0 + S̃01 + S̃02 = 0, dann ist θ ein Arbitrage. Aufgabe 43. Untersuchen Sie, welcher der folgenden diskontierten Märkte eine Arbitrage erlaubt, und bestimmen Sie ggf. eine solche. a) dSt1 = dt + dBt1 + dBt2 − dBt3 , dSt2 = 5dt − dBt1 + dBt2 + dBt3 b) dSt1 = dt + dBt1 + dBt2 − dBt3 , dSt2 = 5dt − dBt1 − dBt2 + dBt3 c) dSt1 = dt + dBt1 + dBt2 , dSt2 = 2dt + dBt1 − dBt2 , dSt3 = −2dt − dBt1 + dBt2 4.2 Vollständigkeit und Optionspreis 4.2 69 Vollständigkeit und Optionspreis Bisher haben wir uns mit selbstfinanzierenden und zulässigen Strategien beschäftigt. Wir müssen diese Begriffe jedoch noch weiter einschränken, da es sonst sog. SuizidStrategien gibt. Beispiel 4.3 (Suizid-Strategie). Wir betrachten wieder das Marktmodell dβt = 0, Sei θt1 = 1 σSt (T −t) dSt = σSt dBt , S0 = 1. und θ0 so, dass die Strategie θ selbstfinanzierend ist. In Beispiel 4.1 haben wir gesehen, dass es eine Brownsche Bewegung B̂ gibt mit Vtθ − V0θ = B̂γt , wobei γt → ∞ für t → T . Nun modifizieren wir die Strategie ein wenig. Sei τ := inf{t : Vtθ = 0}. Aus der Darstellung folgt P (τ < T ) = 1. Wir definieren eine neue Strategie durch ( (θt0 , θt1 ) , t ∈ [0, τ ] . (ϕ0t , ϕ1t ) = 0 , t ∈ (τ, T ] Da dVtϕ = ϕ0t dβt + ϕ1t dSt auf beiden Bereichen erfüllt ist, ist auch die Strategie ϕ selbstfinanzierend. Aufgrund der Definition von τ gilt außerdem Vtϕ ≥ 0 für alle t ∈ [0, T ]. Wegen P (τ < T ) = 1 gilt zudem P (VTϕ = 0) = 1. Da V0θ = V0ϕ bisher beliebig ist, können wir V0 = 1 wählen. Die Strategie ϕ ist also zulässig, und doch ist derjenige, der diese Strategie verfolgt, am Ende ruiniert. Derartige Suizid-Strategien werden in Teil b) der folgenden Definition ausgeschlossen durch die Forderung, dass V̄ θ ein Q-Martingal sein soll. Definition 4.6. a) Ein T -Claim ist eine FT -messbare Zufallsvariable F ≥ 0. b) Sei Q ein äquivalentes Martingalmaß und F ein T -Claim. Dann heißt F absicherbar oder replizierbar (im Markt X), wenn es eine zulässige Strategie θ gibt, für die der diskontierte Vermögensprozess V̄ θ ein Q-Martingal ist und VTθ = F. c) Der Markt X heißt vollständig, wenn jeder T -Claim absicherbar ist. d) Ist F ein absicherbarer T -Claim und θ eine zulässige Strategie mit VTθ = F , dann heißt θ Hedging-Strategie oder replizierendes Portfolio. Bemerkung 4.6. Ist ein T -Claim F absicherbar, dann muss das replizierende Portfolio nicht eindeutig sein, vgl. dazu die folgende Aufgabe. Aufgabe 44. Sei B eine eindimensionale Brownsche Bewegung und (Ft )t≥0 die davon erzeugte Filtration. Zeigen Sie, dass es Prozesse θ, ϕ ∈ Ploc (B) gibt, so dass für Z t Z t 1 2 Vt = 1 + θs dBs und Vt = 2 + ϕs dBs , t ∈ [0, 1], 0 0 gilt: V11 = V12 = 0 , Vt1 ≥ 0 und Vt2 ≥ 0 für fast alle (t, ω). θ und ϕ sind also zulässige Strategien für den Claim F = 0 im diskontierten Markt mit n = 1 und St = Bt . Insbesondere gibt es kein eindeutiges replizierendes Portfolio, selbst wenn wir die Strategie als zulässig annehmen. Fordern wir jedoch θ ∈ P2 (B), dann ist das replizierende Portfolio eindeutig. 70 4 FINANZMATHEMATIK Lemma R T4.3. Sei u ein m-dimensionaler, produktmessbarer und adaptierter Prozess mit E 0 |ut |2 dt < ∞, der die Bedingung Z T 1 2 E exp |us | ds <∞ 2 0 erfülle. Definiere das Maß Q auf FT durch Z T Z 1 T 2 dQ = exp − ut dBt − |ut | dt dP. 2 0 0 Dann ist Z t us ds + Bt B̃t := (4.6) (4.7) 0 ein (Ft )-Martingal (und daher eine Ft -Brownsche Bewegung) bezüglich Q, und jede Funktion H ∈ L2 (FT , Q) besitzt eine eindeutige Darstellung Z T φt dB̃t , (4.8) H = EQ [H] + 0 wobei φ ein produktmessbarer, adaptierter Rm -wertiger Prozess mit Z T 2 EQ |φt | dt < ∞ 0 ist. Diese Aussage ist ein Spezialfall der Proposition 17.1 aus [Yor97]. Der erste Teil rekapituliert noch einmal Satz 3.11. Bemerkung 4.7. Beachte, dass die von B̃ erzeugte Filtration (F̃t )t∈[0,T ] in der Filtration (Ft )t∈[0,T ] enthalten aber nicht notwendigerweise gleich (Ft )t∈[0,T ] ist. Als nächstes machen wir die folgende einfache, aber nützliche Beobachtung: Lemma 4.4. a) Sei X̄ der diskontierte Preisprozess und sei θ eine zulässige Strategie für den Markt X mit Wert V θ = θ> X. Dann ist θ auch eine zulässige Strategie für den diskontierten Markt X̄ mit Wert V̄ θ = θ> X̄ = β −1 V θ und umgekehrt. V θ besitzt also genau dann die Darstellung Z t θ θ Vt = V0 + θs> dXs , 0 ≤ t ≤ T, 0 wenn V̄ θ die Darstellung V̄tθ = V0θ Z + t θs> dX̄s , 0≤t≤T 0 besitzt. b) Sei F ein beschränkter T -Claim. Dann ist F genau dann replizierbar im Markt X, wenn β −1 F im diskontierten Markt X̄ replizierbar ist. c) Der Markt X ist vollständig genau dann, wenn der diskontierte Markt X̄ vollständig ist. 4.2 Vollständigkeit und Optionspreis 71 Beweis. Da r als beschränkt angenommen wurde, ist V̄ θ genau dann nach unten beschränkt, wenn V θ nach unten beschränkt ist. Sei θ eine zulässige Strategie im Markt X mit Vermögensprozess V θ . Dann gilt V̄ θ = θ> X̄ = β −1 V θ . Da θ selbstfinanzierend für X ist, ist nach Bemerkung 4.2 θ auch selbstfinanzierend für den diskontierten Markt X̄ mit dV̄tθ = θt> dX̄t . Daher ist θ zulässig für X̄, und V̄ θ besitzt die gewünschte Darstellung. Die gleiche Argumentation funktioniert auch in umgekehrter Richtung, Teil a) ist also bewiesen. Die Teile b) und c) folgen direkt aus a). Aufgabe 45. Zeigen Sie, dass in der Definition der Absicherbarkeit eines T -Claims die Eigenschaft, dass V̄ θ ein Q-Martingal sein soll, entfallen kann, da sie bereits aus der Zulässigkeit der Strategie folgt. Umgekehrt ist eine selbstfinanzierende Strategie θ schon zulässig, wenn V̄ θ ein Q-Martingal ist. Lemma 4.5. EsRgebe einen m-dimensionalen, produktmessbaren und adaptierten T 2 Prozess u mit E 0 |ut | dt < ∞, so dass σt (ω)ut (ω) = µt (ω) − rt (ω)St (ω) für fast alle (t, ω) und (4.9) Z T 1 2 |us | ds < ∞. (N ) E exp 2 0 Definiere das Maß Q und den Prozess B̃ wie in (4.6) und (4.7). Dann besitzt der diskontierte Markt X̄ = β −1 X die folgende Darstellung: dβ̄t = 0 (i) dS̄ti = βt−1 σt dB̃t , i = 1, . . . , n. (4.10) RT (i) Falls 0 EQ [βt−2 |σt |2 ] dt < ∞ für i = 1, . . . , n, so ist Q insbesondere ein äquivalentes Martingalmaß. Beweis. Um die Darstellung nachzuweisen, rechnen wir dS̄ti = d(βt−1 Sti ) = β −1 dSti + Sti d(β −1 )t (i) = βt−1 [(µit − rt Sti )dt + σt dBt ] (i) = βt−1 [(µit − rt Sti )dt + σt (dB̃t − ut dt)] (i) = βt−1 σt dB̃t . RT (i) Falls 0 EQ [βt−2 |σt |2 ] dt < ∞, dann ist S̄ i für alle i = 1, . . . , n insbesondere ein Q-Martingal nach Kapitel 2. Ein handliches Kriterium für die Vollständigkeit eines Marktes X ist Proposition 4.6. Die Bedingungen (4.9) und (N ) aus Lemma 4.5 seien erfüllt. Dann ist der Markt X genau dann vollständig, wenn σt (ω) für fast alle (t, ω) eine Linksinverse Λt (ω) besitzt, d.h. wenn ein Ft -adaptierter Prozess Λ mit Λt (ω) ∈ Rm×n existiert, so dass Λt (ω)σt (ω) = Em für fast alle (t, ω), wobei Em die m-dimensionale Einheitsmatrix bezeichne. 72 4 FINANZMATHEMATIK Für einen Beweis vergleiche Theorem 12.2.5 aus [Øks03]. Korollar 4.7. Seien die Bedingungen (4.9) und (N ) aus Lemma 4.5 erfüllt. a) Falls n = m, dann ist der Markt X genau dann vollständig, wenn σ für fast alle (t, ω) invertierbar ist. b) Falls der Markt X vollständig ist, dann hat σ Rang m für fast alle (t, ω). Insbesondere gilt n ≥ m. Zudem ist der Prozess u, der Gleichung (4.9) erfüllt, eindeutig. Beweis. Teil a) ist eine direkte Folgerung aus Proposition 4.6, da die Existenz einer Linksinversen im Fall n = m die Invertierbarkeit der Matrtix impliziert. Eine Linksinverse einer n × m-Matrix kann nur existieren, wenn der Rang gleich m ist, woraus n ≥ m folgt. Ferner ist die einzige Lösung u der Gleichung (4.9) gegeben durch ut = Λt [µt − rt St ]. Dies zeigt b). Anhand zweier Beispiele wollen wir uns ansehen, wie wir Proposition 4.6 bzw. Korollar 4.7 nutzen können, um einen Markt auf Vollständigkeit zu untersuchen. Beispiel 4.4. Setze βt ≡ 1 und 1 1 1 0 1 dSt dSt2 = 2 dt + 0 1 dBt2 . dBt 3 1 1 dSt3 In diesem Fall ist die Zinsrate r = 0. 1 σu = 0 1 Gleichung (4.9) hat also die Form 1 0 1 u 1 = 2 . u2 1 3 Diese besitzt die eindeutige Lösung u1 = 1, u2 = 2. Da u konstant ist, ist die Novikov-Bedingung (N ) erfüllt. Die Matrix σ hat Rang 2, und wegen 1 0 1 0 0 1 0 0 1 = 0 1 0 0 1 1 1 ist die Matrix Λ= 1 0 0 0 1 0 eine Linksinverse von σ. Nach Proposition 4.6 ist der Markt also vollständig. Beispiel 4.5. Sei βt ≡ 1 und dSt = 2dt + dBt1 + dBt2 . Dann ist µ = 2 und σ = (1, 1) ∈ R1×2 , also n = 1 < 2 = m. Nach Korollar 4.7 kann der Markt daher nicht vollständig sein. Es gibt also einen beschränkten T -Claim, der nicht absicherbar ist. Bemerkung 4.8. Der Markt X sei nichtnegativ. Ferner gebe es ein äquivalentes Martingalmaß. Dann sind die folgenden Aussagen äquivalent: (i) Der Markt ist vollständig. (ii) Das äquivalente Martingalmaß ist eindeutig. 4.2 Vollständigkeit und Optionspreis 73 Aufgabe 46. Untersuchen Sie, welche der Märkte X aus Aufgabe 43 vollständig sind. Bestimmen Sie für diejenigen Märkte, die nicht vollständig sind, einen T -Claim, der nicht replizierbar ist. Proposition 4.8. Seien Q ein äquivalentes Martingalmaß und F ein absicherbarer T -Claim. Seien ferner θ und ϕ zwei zulässige Strategien, die beide den T -Claim F replizieren, d.h. θT0 βT + (θT1 , . . . , θTn )ST = F und ϕ0T βT + (ϕ1T , . . . , ϕnT )ST = F. (i) Ist zudem P (|σt |2 > 0 ∀t ∈ [0, T ], i = 1, . . . , n) = 1, so gilt P (θt = ϕt ) = 1 für fast alle t ∈ [0, T ]. Beweis. Nach Definition 4.6b) sind V̄ θ und V̄ ϕ Q-Martingale. Daher gilt V̄tθ = EQ (V̄Tθ |Ft ) = EQ (βT−1 F |Ft ) = EQ (V̄Tϕ |Ft ) = V̄tϕ . Dies impliziert V̄tθ = V̄tϕ und somit Vtθ = Vtϕ für alle t ∈ [0, T ]. Setze θtS = (θt1 , . . . , θtn )> und ϕSt = (ϕ1t , . . . , ϕnt )> . Da θ und ϕ selbstfinanzierend sind, gilt θ> dXt = θt0 dβt + (θtS )> dSt = dVtθ = dVtϕ = ϕ0t dβt + (ϕSt )> dSt = ϕ> dXt . Sei nun ∆t = Vtθ − Vtϕ . Dann ist ∆ identisch gleich Null. Wenden wir die Ito-Formel aus Theorem 2.38 auf ∆2 an, so erhalten wir 0 = d∆2t = 2∆t d∆t + d[∆]t = d[(θS − ϕS )> S]t = n X (θti − ϕit )2 d[S i ]t . i=1 Nach Definition gilt Sti = S0i Z + 0 t µ(i) s ds + m Z X j=1 t σs(i,j) dBsj , 0 also folgt mit der Linearität und der charakteristischen Eigenschaft der Kovariation aus Kapitel 2 und dem Satz von Lévy Z t m X m m Z t X X i (i,j) j (i,l) l (i,j) 2 [S ]t = [σ · B ,σ · B ]t = (σs ) ds = |σs(i) |2 ds j=1 l=1 j=1 0 0 P (i) (i) bzw. d[S i ]t = |σt |2 dt. Daher ergibt sich 0 = ni=1 (θti − ϕit )2 |σt |2 dt. Daraus ent(i) nehmen wir, dass (θti − ϕit )2 |σt |2 für alle i = 1, . . . , n und fast alle t ∈ [0, T ] gleich Null sein muss. Aufgrund der Voraussetzung an σ muss also P (θtS = ϕSt ) = 1 für fast alle t ∈ [0, T ] gelten. Wenn wir nun (θtS )> St = (ϕSt )> St von der Gleichung Vtθ = Vtϕ subtrahieren, so erhalten wir P (θt0 βt = ϕ0t βt ) = 1 für fast alle t ∈ [0, T ]. Wegen βt > 0 für alle t folgt P (θt0 = ϕ0t ) = 1 für fast alle t. Durch Vereinigen der Ausnahmemengen ergibt sich schließlich die Behauptung. Die Proposition besagt, dass unter moderaten Bedingungen die Hedgingstrategie in gewissem Sinne eindeutig ist. Nach der theoretischen Vorarbeit wollen wir das Erlernte zur Bestimmung von Optionspreisen heranziehen. 74 4 FINANZMATHEMATIK Definition 4.7. Eine Option ist ein Vertrag, durch den der Käufer das Recht (aber nicht die Pflicht) erhält, ein bestimmtes Finanzgut bis zu einem Zeitpunkt T zu einem vereinbarten Preis K, dem Ausübungspreis, zu kaufen (Call-Option) oder zu verkaufen (Put-Option). Ist die Ausübung der Option nur zum Verfallszeitpunkt T möglich, so sprechen wir von einer europäischen Option. Kann die Option jederzeit bis zum Zeitpunkt T ausgeübt werden, bezeichnen wir sie als amerikanische Option. Im Folgenden behandeln wir zunächst europäische Call-Optionen. Proposition 4.9 (Put-Call-Parität). In einem arbitragefreien Markt besteht zwischen dem Preis eines europäischen Puts PT mit Ausübungspreis K und Ausübungszeit T und dem Preis eines europäischen Calls CT auf das gleiche Finanzgut mit gleichem Ausübungspreis und gleicher Ausübungszeit der Zusammenhang PT = CT − S0 + KβT−1 . Beweis. Wir betrachten zunächst zwei verschiedene Kombinationen von Finanzgütern, deren Werte V und W zu einem zukünftigen Zeitpunkt T mit Sicherheit übereinstimmen, also VT = WT . In einem arbitragefreien Markt müssen dann auch die Werte V0 und W0 zum gegenwärtigen Zeitpunkt übereinstimmen. Wäre nämlich V0 > W0 , so könnte ein Besitzer der ersten Kombination diese zur Zeit t = 0 zum Preis V0 verkaufen, zum Preis W0 die zweite Kombination kaufen und die Differenz risikolos in einem Bond anlegen. Zum Zeitpunkt T könnte er die zweite Kombination wieder zum Preis WT verkaufen und von dem Erlös die erste zurückkaufen. Ihm bliebe also der Profit (V0 − W0 )βT , was jedoch der Arbitragefreiheit des Marktes widerspricht. Dieses Ergebnis wollen wir nun auf den europäischen Call und Put anwenden. Der Wert des Calls zur Zeit T beträgt (ST − K)+ , denn der Call wird nur ausgeübt werden, falls ST > K vorliegt. In dem Fall macht der Käufer den Profit ST −K gegenüber dem Marktpreis ST . Andernfalls wird man den Call verfallen lassen. Entsprechend ergibt sich der Wert des Puts zur Zeit T als (K − ST )+ . Als erste Kombination betrachten wir den Put zusammen mit einer Aktie. Diese Kombination hat zur Zeit T den Wert VT = ST + (K − ST )+ = max{ST , K}. Als zweite Kombination betrachten wir den Call zusammen mit einem Bond, der zur Zeit T die Auszahlung K leistet. Der Wert der zweiten Kombination zur Zeit T lautet WT = K + (ST − K)+ = max{ST , K}. Aus obiger Überlegung folgt nun V0 = W0 , d.h. PT = CT − S0 + KβT−1 . Aufgrund der Put-Call-Parität genügt es, den Preis CT einer europäischen CallOption zu bestimmen. Der Preis PT einer europäischen Put-Option lässt sich dann mittels der Parität daraus errechnen. Wenn es nur eine Hedging-Strategie gibt, so ist heuristisch klar, dass man als fairen Preis den Wert dieser Strategie zum Zeitpunkt 0 wählen muss. Denn ein Käufer wird die Option nicht kaufen, wenn er/sie mit dem dem gleichen oder einem kleineren Einsatz mittels der Hedgingstrategie 4.2 Vollständigkeit und Optionspreis 75 zum Zeitpunkt T den gleichen oder einen höheren Wert erzielen kann. Andererseits wird der Verkäufer die Option auch nicht unter dem Wert V0θ anbieten, da er/sie den ggf. auszuschüttenden Wert F erst am Finanzmarkt erwirtschaften muss. Im Allgemeinen ist die Hedgingstrategie jedoch nicht eindeutig. In diesem Fall argumentiert man wie folgt: Wenn ein Käufer für eine Option den Betrag y zahlen muss, wird er sich nur auf das Geschäft einlassen, wenn er mit einer zulässigen Strategie θ einen Wert VTθ erwirtschaften kann, so dass VTθ + F ≥ 0 f.s. Maximal wird er also den Preis Z T > θs dXs ≥ −F f.s. p(F ) = sup y : Es gibt eine zulässige Strategie θ, so dass −y+ 0 zahlen wollen. Andererseits wird ein Verkäufer ein solches Geschäft nur eingehen, wenn er mit dem eingenommenen Geld z durch eine zulässige Strategie θ am Markt mindestens F erwirtschaften kann. Für eine derartige Option wird er also mindestens Z T > θs dXs ≥ F f.s. q(F ) = inf z : Es gibt eine zulässige Strategie θ, so dass z + 0 verlangen. Stimmen beide Preise überein, so ist dieser gemeinsame Wert p der Preis der (europäischen) Option mit Auszahlungsfunktion F . Eine Hedgingstrategie θ mit VTθ = F und V0θ = p heißt auch perfekter Hedge. Proposition 4.10. a) Sind die Bedingungen (4.9) und (N ) aus Lemma 4.5 erfüllt, Q definiert wie in (4.6) und F ein (europäischer) T -Claim mit EQ [βT−1 F ] < ∞, dann gilt p(F ) ≤ EQ [βT−1 F ] ≤ q(F ) ≤ ∞. b) Ist der Markt zusätzlich vollständig, dann ist der Preis einer europäischen Option mit FT -messbarer Auszahlungsfunktion F gegeben durch p(F ) = EQ [βT−1 F ] = q(F ). Beweis. zu a): Sei y ∈ R und existiere eine zulässige Strategie θ, so dass Z −y + T θs> dXs ≥ −F f.s. 0 Nach Lemma 4.4 und Lemma 4.5 gilt also Z TX n −y + θsi βs−1 σs(i) dB̃s ≥ −βT−1 F 0 f.s., i=1 wobei B̃ wie in (4.7) definiert sei. Bilden wir auf beiden Seiten den Erwartungswert bezüglich Q, so erhalten wir y ≤ EQ [βT−1 F ] und somit p(F ) ≤ EQ [βT−1 F ], vorausgesetzt, ein solches Portfolio existiert. Gibt es ein z ∈ R und eine zulässige Strategie θ mit Z T z+ θs> dXs ≥ F f.s., 0 76 4 FINANZMATHEMATIK dann ergibt sich wie oben Z T z+ 0 n X θsi βs−1 σs(i) dB̃s ≥ βT−1 F f.s. i=1 Integrieren bezüglich Q liefert also z ≥ EQ [βT−1 F ] bzw. q(F ) ≥ EQ [βT−1 F ], vorausgesetzt, solche z und θ existieren. Existieren solche z oder θ nicht, so gilt q(F ) = ∞ > EQ [βT−1 F ]. zu b): Nun nehmen wir an, dass der Markt vollständig ist. Wir definieren ( k , F (ω) ≥ k Fk (ω) := . F (ω) , F (ω) < k Dann sind Fk beschränkte T -Claims. Aufgrund der Volständigkeit finden wir also (nach der Darstellung aus Lemma 4.3 eindeutige) yk ∈ R und θ(k) , so dass Z T −yk + (θs(k) )> dXs = −Fk f.s., 0 d.h. nach Lemma 4.4 und Lemma 4.5 Z T Z −1 (k) > −βT Fk = −yk + (θs ) dX̄s = −yk + 0 T n X 0 (θs(k) )i βs−1 σs(i) dB̃s f.s. i=1 Dies liefert yk = EQ [βT−1 Fk ]. Mit dem Satz über monotone Konvergenz folgt k→∞ p(F ) ≥ EQ [βT−1 Fk ] −−−→ EQ [βT−1 F ]. Zusammen mit a) ergibt sich also p(F ) = EQ [βT−1 F ]. Durch eine analoge Argumentation erhalten wir ferner q(F ) = EQ [βT−1 F ]. Dieses und weitere Ergebnisse fassen wir im folgenden Satz zusammen: Satz 4.11. Seien die Bedingungen (4.9) und (N ) aus Lemma 4.5 erfüllt und Q bzw. B̃ definiert wie in (4.6) bzw. (4.7). Ferner sei der Markt X vollständig. Dann gilt: (a) Der faire Preis p einer Option mit nichtnegativer und FT -messbarer Auszahlungsfunktion F = F (ω) ∈ L2 (FT , Q) ist bestimmt durch die Formel p = EQ [βT−1 F ]. (b) Es gibt einen perfekten Hedge θ mit VTθ = F . (c) Die Werte θti , i = 1, . . . , n, t ∈ [0, T ], können aus dem diskontierten Markt X̄ gewonnen werden: EQ (βT−1 F |Ft ) = EQ [βT−1 F ] + n Z X i=1 0 t θui dS̄ui , 0 ≤ t ≤ T. 4.2 Vollständigkeit und Optionspreis 77 (d) Die Werte θt0 , t ∈ [0, T ], sind bestimmt durch die Formel Z t 0 −1 rs As βs−1 ds θt = p + βt At + 0 mit At = Pn Rt i=1 0 i θsi dSsi − θti St . (e) Das Vermögen Vtθ ist Vtθ = βt EQ (βT−1 F |Ft ). (P - und Q-f.s.). Beweis. Teil (a) folgt direkt aus Proposition 4.10. Nach Lemma 4.5 ist Q ein äquivalentes Martingalmaß. Der Markt ist also arbitragefrei nach Lemma 4.1. Sei Fk wie im Beweis von Proposition 4.10. Dann existiert eine perfekte Hedgingstrategie θ(k) für Fk , d.h. es gilt für θ(k,S) = ((θ(k) )1 , . . . , (θ(k) )n )> Z T Z T −1 −1 −1 (k) > (θs(k,S) )> βs−1 σs dB̃s , k ∈ N. (θs ) dX̄s = EQ [βT Fk ]+ βT Fk = EQ [βT Fk ]+ 0 0 Nach besagtem Beweis konvergiert Fk gegen F und EQ [βT−1 Fk ] gegen EQ [βT−1 F ]. Aufgrund der Itô-Isometrie ist also β −1 (θ(k,S) )> σ eine Cauchyfolge in L2 (λ ⊗ Q), wobei λ das Lebesgue-Maß auf [0, T ] bezeichne. Folglich muss β −1 (θ(k,S) )> σ in L2 gegen einen f.s. eindeutig bestimmten Prozess ϕ ∈ L2 (λ ⊗ Q) konvergieren, und R T −1 (k,S) > RT βs (θs ) σs dB̃s konvergiert gegen 0 ϕ> dB̃s . Da nach Definition r gleichmäßig 0 beschränkt sein soll, ist auch βT−1 beschränkt. Aus F ∈ L2 (FT , Q) folgt also auch die quadratische Integrierbarkeit von βT−1 F bezüglich Q. Nach dem zweiten Teil von Lemma 4.3 existiert somit ein Rm -wertiger, produktmessbarer und adaptierter R T Prozess φ mit E 0 |φt |2 dt < ∞, so dass Z T −1 −1 βT F = EQ [βT F ] + φ> t dB̃t . (∗) 0 Aufgrund der Eindeutigkeit der Darstellung muss ϕ mit φ übereinstimmen. Durch Übergang zu einer Teilfolge können wir annehmen, dass β −1 θ(k,S) σ f.s. gegen φ> konvergiert. Nach Proposition 4.6 besitzt σ für fast alle (t, ω) eine Linksinverse Λ mit Werten in Rm×n . θ(k,S) konvergiert also f.s. gegen die Strategie θtS = βt Λ> t φt . Aufgrund der Itô-Isometrie ist das Integral in (∗) ein Q-Martingal. Aus (∗), der Definition von θS und Lemma 4.5 resultiert also die Darstellung aus Teil (c) der Behauptung. Die Werte θt0 errechnen sich gemäß Bemerkung 4.4 durch Z t 0 −1 θt = p + βt At + rs As βs−1 ds 0 Pn mit At = Darstellung i=1 Rt 0 i θsi dSsi − θti St . Da V̄ ein Q-Martingal ist, erhalten wir aus der V̄tθ = V0θ Z + 0 t θs> Z dX̄s = p + t φ> s dB̃s 0 die Formel βt−1 Vtθ = EQ (βT−1 VTθ |Ft ) = EQ (βT−1 F |Ft ) (P - und Q-f.s.). 78 4 FINANZMATHEMATIK Aufgabe 47. Betrachten Sie den Markt X = (β, S)> mit dβt = rβt dt , β0 = 1. r > 0 sei konstant. Bestimmen Sie den fairen Preis für den europäischen T -Claim F = BT in den folgenden Fällen: a) dSt = cdBt mit c 6= 0 konstant, b) dSt = µSt dt + σdBt mit Konstanten µ und σ 6= 0. Aufgabe 48. Sei B eine eindimensionale Brownsche Bewegung und X der Markt mit dβt = rβt dt , β0 = 1 , dSt = µSt dt + σSt dBt , S0 = x mit Konstanten r, µ und σ. Bestimmen Sie den Preis eines Claims, der den Betrag M auszahlt, wenn die Aktie im Zeitraum [0, T ] das Niveau K erreicht bzw. überschreitet, und andernfalls nichts ausschüttet. D.h. bestimmen Sie den Preis des T -Claims F = M 1{supt∈[0,T ] St ≥K} . 4.3 Konkrete Modelle In diesem Abschnitt werden wir das bisher gelernte auf zwei bekannte Finanzmarktmodelle anwenden und jeweils die Preise für europäische Put- und Call-Optionen berechnen sowie Hedgingstrategien bestimmen. Wie wir aus dem letzten Abschnitt wissen, spielt dabei der bedingte Erwartungswert EQ (βT−1 FT |Ft ) eine wichtige Rolle. Mit Hilfe des folgenden Lemmas können wir diesen in einen bedingten Erwartungswert bezüglich des ursprünglichen W-Maßes P umschreiben. Lemma 4.12. Sei (Ft )t∈[0,T] eine Filtration und Qt und Pt W-Maße auf Ft , t ∈ [0, T ] mit Pt Fs = Ps bzw. Qt Fs = Qs für s ≤ t. Es gelte Qt Pt , t ∈ [0, T ], und Y s sei eine beschränkte (oder Qt -integrierbare) Ft -messbare Zufallsvariable. Zs = dQ dPs bezeichne die Ps -Dichte von Qs . Für alle s ≤ t gilt dann Qt (Zs > 0) = 1 und EQt (Y |Fs ) = 1 E(Y Zt |Fs ) Qt -f.s. Zs Beweis. Sei A ∈ Fs . Wir müssen zeigen i h 1 EQt 1A E(Y Zt |Fs ) = EQt [1A Y ]. Zs Da 1A Zs−1 E(Y Zt |Fs ) Fs -messbar ist, folgt dies unmittelbar durch i h 1 i h 1 EQt 1A E(Y Zt |Fs ) = EQs 1A E(Y Zt |Fs ) Zs Zs = EPs [1A E(Y Zt |Fs )] = EPt [E(1A Y Zt |Fs )] = EPt [1A Y Zt ] = EQt [1A Y ]. Im Bachelier-Modell im Zeitintervall [0, T ] wird der Bondanteil βt als unveränderlich (βt ≡ 1) und die Aktienpreise als von einer linearen Brownschen Bewegung mit Drift St = S0 + µt + σBt , t ∈ [0, T ], 4.3 Konkrete Modelle 79 auf einem W-Raum (Ω, F, P ) mit σ > 0 und µ ∈ R erzeugt angenommen. Obwohl S in diesem Modell auch negativ werden kann, was aus ökonomischen Gesichtspunkten ungeeignet ist, um einen Aktienkurs zu beschreiben, bleibt der Prozess S mit S0 > 0 und µ > 0 jedoch für eine ziemlich lange Zeit positiv. Denn ist τ0 := inf{t ≥ 0 : St = 2 0}, dann gilt P (τ0 < ∞) = e−2µS0 /σ , was für große µS0 /σ 2 nahe bei 1 liegt. Da in diesem Modell r = 0 ist, erfüllt u = µ/σ die Bedingungen (4.9) und (N ). Setzen wir µ 1 µ 2 T Mt = exp − BT − σ 2 σ und dQ = MT dP , dann hat der Prozess (S0 + µt + σBt )t∈[0,T ] unter Q die gleiche Verteilung wie (S0 + σBt )t∈[0,T ] unter P . S ist also ein Q-Martingal und Q somit ein zu P äquivalentes Martingalmaß. Der Markt ist also arbitragefei und wegen Korollar 4.7 auch vollständig. Das äquivalente Martingalmaß Q ist also eindeutig festgelegt. Satz 4.13 (Bachelier-Formel). a) Im Bachelier-Modell ist der faire Preis CT einer europäischen Call-Option mit Auszahlungsfunktion F = (ST −K)+ durch die Formel S − K √ S0 − K 0 √ √ + σ Tϕ CT = (S0 − K)Φ σ T σ T bestimmt, wobei ϕ die Dichte und Φ die Verteilungsfunktion der Standardnormalverteilung bezeichnet. Für S0 = K ergibt sich insbesondere r T CT = σ . 2π b) Im Bachelier-Modell ist der faire Preis PT einer europäischen Put-Option mit Auszahlungsfunktion F = (K − ST )+ gegeben durch K − S √ S − K √ 0 + σ Tϕ 0√ . PT = −(S0 − K)Φ σ T σ T Für S0 = K gilt insbesondere r PT = CT = σ T . 2π Beweis. Nach Satz 4.11 gilt CT = EQ F = EQ [(S0 + µT + σBT − K)+ ] = E[(S0 − K + σBT )+ ] √ = E[(S0 − K + σ T B1 )+ ]. Eine einfache Rechnung liefert + E[(a + bB1 ) ] = aΦ a b + bϕ a b ∀a ∈ R, b ≥ 0. √ Setzen wir a = S0 − K und b = σ T , so erhalten wir die behauptete Formel. Die Put-Call-Parität 4.9 hat im vorliegenden Modell die Gestalt PT = CT − S0 + K. Man kann sie auch einfach mit EQ ST = S0 aus der Gleichung (K − ST )+ = (ST − K)+ − ST + K herleiten. Hiermit und mit der Symmetrtie der Standardnormalverteilung errechnen wir die behauptete Formel für PT . 80 4 FINANZMATHEMATIK Wir wollen nun eine Hedging-Strategie θ = (γ, π) bestimmen. Satz 4.14. Im Bachelier-Modell sind die Komponenten γt und πt des HedgingPortfolio θ = (γ, π) bestimmt durch πt = Φ und S −K √t σ T −t S −K S −K √ t t + σ T − tϕ √ . γt = −KΦ √ σ T −t σ T −t Beweis. Nach Satz 4.11 lässt sich π aus der Darstellung Z t −1 −1 πu dS̄u EQ (βT F |Ft ) = EQ [βT F ] + 0 oder wegen Vtθ = βt EQ (βT−1 F |Ft ) aus der Gleichung Z t −1 θ −1 θ πu dS̄u βt Vt = V̄t = EQ [βT F ] + (∗) 0 bestimmen. Da hier β ≡ 1, ist Vtθ = EQ (F |Ft ) = EQ ((ST − K)+ |Ft ). Aus Lemma 4.12 folgt Vtθ = EQ ((ST − K)+ |Ft ) = E M T Mt (ST − K)+ Ft 2 mit Mt = exp − σµ Bt − 12 σµ t . Da nach Modellannahme St = S0 + µt + σBt , ergibt sich µ + 1 µ 2 Vtθ = E exp − (BT −Bt )− (T −t) (St −K)+σ(BT −Bt )+µ(T −t) Ft . σ 2 σ Da BT − Bt unabhängig von Ft und St Ft -messbar ist, können wir dies ausrechnen, indem wir für konstantes a den Erwartungswert h µ + i 1 µ 2 (T − t) a + σ(BT − Bt ) + µ(T − t) E exp − (BT − Bt ) − σ 2 σ berechnen √ und anschließend in das Ergebnis a = St − K einsetzen. Setze abkürzend b = σ T − t. Durch eine einfache Transformation nimmt der Erwartungswert die etwas handlichere Form E[(a + bZ)+ ], Z ∼ N0,1 , an. Wie im Beweis von Satz 4.13 erhalten wir a a Vtθ = aΦ + bϕ . b b Setze x−K x−K √ + σ T − tϕ √ , C(t, x) = (x − K)Φ √ σ T −t σ T −t 4.3 Konkrete Modelle 81 dann gilt Vtθ = C(t, St ). Aufgrund der Darstellung (∗) gilt andererseits dVtθ = πt dSt . (∗∗) Da C(t, x) in beiden Komponenten zweimal stetig differenzierbar ist, können wir die Itô-Formel aus Theorem 2.38 anwenden. Diese liefert ∂C 1 ∂ 2 C ∂C dC(t, St ) = dSt + + σ 2 2 dt. ∂x ∂t 2 ∂x Ein Vergleich mit (∗∗) zeigt, dass die Gleichungen ∂C 1 2 ∂ 2 C ∂C (t, St ) und + σ =0 ∂x ∂t 2 ∂x2 erfüllt sein müssen. Wir errechnen S −K t πt = Φ √ . σ T −t πt = Aus der Darstellung Vtθ = C(t, St ) = γt + πt St erhalten wir die behauptete Formel für γt . Betrachten wir nun das sog. Black-Merton-Scholes-Modell oder auch Black-ScholesModell. In ihm sind rt = r ≥ 0, µ ∈ R und σ > 0 Konstanten, so dass die sDGLen dβt = rβt dt und dSt = µSt dt + σSt dBt (hier ist S eindimensional) erfüllt sind. Nur die beiden Parameter µ und σ sind unbekannt, die Zinsrate r ist am Markt bekannt. Nach Proposition 3.1 bzw. Beispiel 3.1 werden diese sDGLen gelöst durch βt = β0 ert und St = S0 e(µ− σ2 )t+σBt 2 . Der Grundraum sei mit der von B erzeugten Filtration versehen. Unser Haupziel ist nun, die Black-Scholes-Formel für die fairen Preise CT bzw. PT von Call- bzw. Put-Optionen mit Auszahlungsfunktion FT = (ST − K)+ bzw. FT = (K − ST )+ herzuleiten. Aufgabe 49. Berechnen Sie im Bachelier- und im Black-Scholes-Modell die Wahrscheinlichkeit unter P , mit der eine europäische Call-Option ausgeübt wird. Wir werden zeigen Satz 4.15 (Black-Scholes-Formel). Im Black-Merton-Scholes-Modell sind die fairen Preise CT und PT europäischer Call- und Put-Optionen mit Ausübungspreis K > 0 und Ausübungszeit T > 0 gegeben durch CT = S0 Φ(d+ (T )) − Ke−rT Φ(d− (T )) und PT = −S0 Φ(−d+ (T )) + Ke−rT Φ(−d− (T )), Rx 2 wobei Φ(x) = (2π)−1/2 −∞ e−y /2 dy die Verteilungsfunktion der Standarnormalverteilung ist, und 2 log SK0 + T r ± σ2 √ . d± (T ) = σ T 82 4 FINANZMATHEMATIK Beweis. Analog zu Satz 3.11 (Girsanov I) oder Satz 3.12 (Girsanov II) setzen wir µ−r 1 µ − r 2 Mt = exp − Bt − t . σ 2 σ Nach Aufgabe 8 oder Lemma 4.3 und Lemma 4.5 ist M ein Martingal bezüglich (Ft )t∈[0,T ] . Hiermit definieren wir Q durch Q(A) = EP [1A MT ]. Nach Satz 3.11 ist dieses Q ein W-Maß und W mit Z t µ−r µ−r Wt = ds + Bt = t + Bt σ σ 0 eine Brownsche Bewegung bzgl. Q. Nach Definition gilt also µt + σBt = rt + σWt für alle t ≤ T . Da W eine Brownsche Bewegung bzgl. Q ist, ist (µt + σBt )t∈[0,T ] unter Q verteilt wie (rt + σBt )t∈[0,T ] unter P . Daher ist S unter Q verteilt wie σ2 S0 e(r− 2 )t+σBt t∈[0,T ] unter P . Folglich ist auch (βt−1 St )t∈[0,T ] unter Q verteilt wie σ2 σ2 β0−1 S0 e− 2 t+σBt t∈[0,T ] unter P . Nach Aufgabe 8 ist e− 2 t+σBt t∈[0,T ] ein Martingal bzgl. P . Dies impliziert, dass auch (βt−1 St )t∈[0,T ] ein Martingal bzgl. Q ist. Mit anderen Worten ist Q ein Martingalmaß für den Prozess (βt−1 St )t∈[0,T ] . Der betrachtete Markt ist also nach Lemma 4.1 arbitragefrei. Man kann außerdem zeigen, dass das Martingalmaß sogar eindeutig ist, der Markt ist also ferner vollständig. Nach Satz 4.11 ist also der faire Preis CT einer europäischen Call-Option mit Auszahlungsfunktion F = (ST − K)+ gegeben durch CT = β0 EQ [βT−1 F ] = β0 βT−1 EQ F. Wir rechnen + σ2 CT = e−rT EQ [(ST − K)+ ] = e−rT EQ S0 e(µ− 2 )T +σBT − K + σ2 = e−rT EP S0 e(r− 2 )T +σBT − K √ + + σ2 b2 , = e−rT EP S0 erT e− 2 T +σ T B1 − K = e−rT EP aebB1 − 2 − K √ wobei a = S0 erT und b = σ T . Für den Erwartungswert erhalten wir Z + bB1 − b2 b2 u2 1 2 − K EP ae = (aebu− 2 − K)+ √ e− 2 du 2π Z ∞ 1 − 1 (b2 −2bu+u2 ) √ e 2 = a du b2 2π b−1 (log K + ) Z ∞a 2 u2 1 √ e− 2 du −K 2 2π b−1 (log K + b2 ) a Z ∞ 1 2 √ e−x /2 dx = a 2 2π b−1 (log K − b2 ) a h K b2 i −K 1 − Φ b−1 log + a 2 a a 1 2 log K + 2 b log K − 21 b2 = aΦ − KΦ , b b also log SK0 + T r + √ CT = S0 Φ σ T σ2 2 −rT − Ke log SK0 + T r − √ Φ σ T σ2 2 4.3 Konkrete Modelle 83 oder kurz CT = S0 Φ(d+ (T )) − Ke−rT Φ(d− (T )). Mit der Put-Call-Parität ergibt sich daraus der faire Preis 2 2 log SK0 + T r + σ2 log SK0 + T r − σ2 −rT √ √ PT = −S0 1 − Φ 1−Φ + Ke σ T σ T = −S0 Φ(−d+ (T )) + Ke−rT Φ(−d− (T )). Aufgabe 50. Zeigen Sie: a) CT wächst mit der Laufzeit T und konvergiert für T ↓ 0 gegen (S0 − K)+ . b) CT ist eine konvexe Funktion des Anfangswertes S0 . c) Der Preis CT wächst mit der Volatilität σ. d) CT wächst mit der Zinsrate r und fällt mit dem Ausübungspreis K. Wir suchen nun eine Hedgingstrategie θt = (γt , πt ), die den Wert FT repliziert. Satz 4.16. Im Black-Merton-Scholes-Modell sind die Komponenten γt und πt der Hedging-Strategie θ bestimmt durch γt = und −Kβ0−1 e−rT Φ log SKt + (T − t)(r − √ σ T −t log SKt + (T − t)(r + √ πt = Φ σ T −t σ2 ) 2 σ2 ) 2 . Beweis. Nach Satz 4.11 und Lemma 4.12 gilt Vtθ = βt EQ (βT−1 F |Ft ) = e−r(T −t) EQ ((ST − K)+ |Ft ) M T (ST − K)+ Ft = e−r(T −t) E Mt mit µ−r 1 µ − r 2 Mt = exp − Bt − t . σ 2 σ Daraus folgt mit ähnlichen Methoden wie im Beweis zu Satz 4.14 b2 mit a = St er(T −t) Vtθ = e−r(T −t) E[(aebW1 − 2 − K)+ ] √ und b = σ T − t. Mit der Bezeichnung log Kx + (T − t)(r + √ C(t, x) = −xΦ σ T −t σ2 ) 2 −r(T −t) + Ke ergibt sich wie im Beweis zu Satz 4.15 Vtθ = C(t, St ). Aus dem Beweis von Satz 4.14 entnehmen wir dV̄tθ = πt dS̄t . (#) log Kx + (T − t)(r − √ Φ σ T −t σ2 ) 2 84 4 FINANZMATHEMATIK Theorem 2.37 (Partielle Integration) liefert andererseits dV̄tθ = d(β −1 V θ )t = βt−1 dC(t, St ) + C(t, St )d(β −1 )t = βt−1 dC(t, St ) − C(t, St )rβt−1 dt. Durch Anwenden der Itô-Formel (Theorem 2.38) auf C(t, St ) erhalten wir dC(t, St ) = ∂C ∂C 1 ∂2C (t, St )dt + (t, St )dSt + (t, St )d[S]t . ∂t ∂x 2 ∂x2 Aufgrund der partiellen Integration können wir zudem βt−1 dSt durch dS̄t + St rβt−1 dt ersetzen. Also gilt dV̄tθ ∂C ∂C ∂C = (t, St ) − rC(t, St ) + rSt (t, St ) dt + (t, St )dS̄t ∂t ∂x ∂x 1 ∂2C + βt−1 2 (t, St )d[S]t . 2 ∂x βt−1 Aus der Darstellung dSt = µSt dt + σSt dBt bzw. Z t Z t Z t St = S 0 + µ Ss ds + σ Ss dBs = S0 + µ Ss ds + σ(S · B)t 0 0 0 ergibt sich mit Korollar 2.30 2 2 2 [S]t = σ [S · B]t = σ (S · [B])t = σ 2 Z t Ss2 ds 0 bzw. d[S]t = σ 2 St2 dt. Insgesamt erhalten wir also dV̄tθ = βt−1 ∂C (t, St ) − rC(t, St ) + rSt ∂t ∂C (t, St )dS̄t . + ∂x ∂C 1 ∂2C (t, St ) + σ 2 St2 2 (t, St ) dt ∂x 2 ∂x Ein Vergleich mit (#) zeigt, dass die Gleichungen ∂C πt = (t, St ) und ∂x ∂C ∂C 1 2 2 ∂ 2 C + rx + σ x = rC ∂t ∂x 2 ∂x2 erfüllt sein müssen. Daraus folgt log SKt + (T − t)(r + √ πt = Φ σ T −t σ2 ) 2 . Aus der Beziehung Vtθ = γt βt +πt St (= C(t, St )) leiten wir her, dass πt die behauptete Gestalt besitzt. Aufgabe 51. a) Berechnen Sie den fairen Preis des T -Claims F = (ST )2 . b) Bestimmmen Sie einen perfekten Hedge für diesen Claim. Aufgabe 52. Sei X = (β, S) wie im Black-Merton-Scholes-Modell und µ > r. Ein amerikanischer Call gibt dem Käufer das Recht (aber nicht die Pflicht), eine Aktie 4.4 Ausblick 85 bis zu einem Zeitpunkt T zu einem Preis K zu erwerben. Man kann zeigen, dass der Preis eines amerikanischen Calls durch pA = sup EQ [e−rτ (Sτ − K)+ ] τ ≤T gegeben ist, wobei das Supremum über alle (Ft )-Stoppzeiten τ mit τ ≤ T gebildet wird. Beweisen Sie, dass pA = e−rT EQ [(ST − K)+ ], d.h. dass es immer optimal ist, den amerikanischen Call, wenn überhaupt, zur Verfallszeit T auszuüben. Der Preis der amerikanischen Call-Option stimmt also mit demjenigen des europäischen Calls überein. Definieren Sie dazu Yt = e−rt (St − K) und gehen Sie dann in folgenden Schritten vor: a) Beweisen Sie, dass Y ein Q-Submartingal ist, d.h dass gilt Ys ≤ EQ (Yt |Fs ), für s < t. b) Zeigen Sie, dass Z mit Zt := e−rt (St − K)+ ebenfalls ein Q-Submartingal ist. c) Bestimmen Sie den Preis des amerikanischen Calls. 4.4 Ausblick Exotische Optionen Es gibt noch eine Vielzahl weiterer Optionen, von denen ich nur einige hier nennen will. Es gibt z.B. sog. Barriere-Optionen. Definition 4.8. Eine down and out Call-Option mit Ausübungspreis K, Verfallszeit T und Barriere H gibt ihrem Besitzer das Recht (aber nicht die Pflicht), eine Aktie zur Zeit T zum Preis K zu kaufen, sofern der Preis S der Aktie zu keinem Zeitpunkt bis T unter H gefallen ist. Eine down and out Put-Option gibt ihrem Besitzer unter der gleichen Voraussetzung das Recht, eine Aktie zur Zeit T zum Preis K zu verkaufen. Den Preis der Call-Option zur Zeit t bezeichnet man manchmal mit Ct,T (K|H ↓ O). Zu dieser Option gehört die Auszahlungsfunktion (ST − K)+ 1{inf t∈[0,T ] St ≥H} . Der gegenwärtige Preis ist i h H 2r2 −1 i h H 1+ 2r2 σ σ −rT C0,T (K|H ↓ O) = S0 Φ(d3 ) − Φ(d4 ) − e K Φ(d1 ) − Φ(d2 ) S0 S0 mit d1 d3 S0 K + r− √ = σ T log SK0 + r + √ = σ T log σ2 2 σ2 2 T T , , 2 + r − σ2 T √ d2 = σ T 2 2 log SH0 K + r + σ2 T √ d4 = . σ T log H2 S0 K 86 4 FINANZMATHEMATIK Den Preis der zugehörigen Put-Option kann man auch hier mittels der Put-CallParität bestimmen. Im Folgenden definiere ich nur die jeweilige Call-Option. Die zugehörige Put-Option wird dann definiert, indem man unter den angegebenen Voraussetzungen das Recht erhält, eine Aktie zu verkaufen. Definition 4.9. Eine up and out Call-Option gibt ihrem Besitzer das Recht, eine Aktie zur Zeit T zum Ausübungspreis K zu kaufen, sofern der Preis S der Aktie bis T nicht über H gestiegen ist. Den Preis der Option zur Zeit t bezeichnet man auch mit Ct,T (K|H ↑ O). Zu dieser Option gehört die Auszahlungsfunktion (ST − K)+ 1{supt∈[0,T ] St ≤H} . Der Preis einer solchen Option hat eine ähnliche Form wie derjenige der down and out Call-Option. Definition 4.10. Eine up and in Call-Option gibt ihrem Besitzer das Recht, eine Aktie zur Zeit T zum Ausübungspreis K zu kaufen, sofern der Preis S bis T mindestens einmal größer als H geworden ist. Analog zu den bisherigen Definitionen verwenden wir die Bezeichnung Ct,T (K|H ↑ I) für den Preis der Option zur Zeit t. Dieser Option entspricht die Auszahlungsfunktion (ST − K)+ 1{supt∈[0,T ] St ≥H} . Zwischen dden Preisen der up and in Call Option, der up and out Call-Option und der klassischen europäischen Call-Option besteht die Zusammenhang Ct,T (K|H ↑ I) + Ct,T (K|H ↑ O) = Ct,T . Hieraus lässt sich der Preis der Option aus den schon bekannten Preisen berechnen. Definition 4.11. Eine dowm and in Call-Option gibt ihrem Besitzer das Recht, eine Aktie zur Zeit T zum Ausübungspreis K zu kaufen, sofern der Preis S zu einem Zeitpunkt t ≤ T unter H gefallen ist. Den Preis dieser Option zur Zeit t bezeichnen wir mit Ct,T (K|H ↓ I). Zu ihr gehört die Auszahlungsfunktion (ST − K)+ 1{inf t∈[0,T ] St ≤H} . Auch hier besteht der Zusammenhang Ct,T (K|H ↓ I) = Ct,T (K|H ↓ O) = Ct,T , aus dem sich der Preis der Option aus den schon bekannten Preisen berechnen lässt. Die nächste vorgestellte Option ist zwar exotisch aber keine Barriere-Option. Definition 4.12. Eine lookback Call-Option entspricht einer Auszahlungsfunktion F = ST − inf t∈[0,T ] St . Eine lookback Put-Option entspricht einer Auszahlungsfunktion F = supt∈[0,T ] St − ST . Wenden wir die bekannte Formel zur Optionspreisberechnung auf diese Auszahlungsfunktionen an, so erhalten wir für den Preis einer lookback Put-Option Plookback = e−rT EQ [exp( sup Yt )] − erT t∈[0,T ] mit Yt = r − σ2 2 t + σ B̃t . Rechnen wir dies aus, so ergibt sich h i √ 2r √ σ2 Plookback = S0 Φ(−d) + e−rT Φ(−d + σ T ) + e−rT −Φ d − T + e−rT Φ(d) 2r σ 4.4 Ausblick mit d = 87 2 2r+σ √ . 2σ T Entsprechend ist der Preis eines lookback Calls gegeben durch h i √ 2r √ −rT σ2 Clookback = S0 Φ(d)−e−rT Φ(−d+σ T )+ e−rT −Φ −d+ T −e Φ(−d) . 2r σ Ein weiterer wichtiger Typ sind die sog. Asiatischen Optionen. Anders als bei der klassischen europäischen Option, bei der die Auszahlung nur vom Endzustand des Marktes abhängt, basiert die Auszahlungsfunktion einer asiatischen Option auf den durchschnittlichen Aktienpreisen während eines Zeitabschnitts innerhalb [0, T ]. Sie wird wie die europäische Option zum Entzeitpunkt T ausgeübt. Ist [T0 , T ] der Zeitabschnitt, über den der Aktienpreis gemittelt wird, dann hat die Auszahlungsfunktion die Form (AS (T0 , T ) − K)+ RT 1 S du. Die Berechnung des Preises ist recht kompliziert, mit AS (T0 , T ) = T −T T0 u 0 deshalb wollen wir darauf verzichten. Zusätzlich zu Optionen, die einem das Recht einräumen, eine Aktie zum Zeitpunkt T zu einem vereinbarten Preis K zu kaufen oder zu verkaufen gibt es eine Option, durch die man die Möglichkeit erhält, eine Aktie eines Typs gegen eine Aktie eines anderen Typs auszutauschen. Eine solche Option heißt Exchange Option. Tauschen wir beispielsweise Aktie 2 gegen Aktie 1, so entspricht die Option der Auszahlungsfunktion F = (ST1 − ST2 )+ . Der Markt sei gegeben durch dβt = rβt dt , β0 = 1 , dSti = µSti dt + m X σi,j Sti dBtj , i = 1, . . . , n. j=1 In diesem Fall liefert die bekannte Optionspreisformel + i h S2 S1 p = EQ [βT−1 (ST1 − ST2 )+ ] = S02 EQ βT−1 T2 T2 − 1 S0 S T h S 1 + i T = S02 EP̃ −1 , ST2 wobei P̃ das W-Maß mit Q-Dichte S2 βT−1 T2 S0 = exp m X j=1 σ2,j B̃Tj m T X 2 − σ 2 j=1 2,j bezeichnet. Nach dem Satz von Girsanov ist W = (W 1 , . . . , W m )> definiert durch Wtj = B̃tj − σ2,j t, t ∈ [0, T ], k = 1, . . . , m, eine m-dimensionale Brownsche Bewegung unter P̃ . Wir können schreiben m m S1 i X St1 hX j t d 2 = (σ − σ )d B̃ + σ (σ − σ )dt 1,j 2,j 2,j 2,j 1,j t St St2 j=1 j=1 m St1 X St1 j (σ − σ )dW = σdW̃t = 1,j 2,j t St2 j=1 St2 88 mit σ := 4 FINANZMATHEMATIK qP m j=1 (σ1,j − σ2,j )2 . Der Prozess W̃ ist eine eindimensionale Brownsche Bewegung unter P̃ . Als Preis dieser Option erhalten wir schließlich h S 1 S 1 S 1 i p = S02 02 Φ d+ T, 02 − Φ d− T, 02 S0 S0 S0 S 1 S 1 − S02 Φ d− T, 02 = S01 Φ d+ T, 02 S0 S0 2 log p± σ2 s √ σ s mit d± (s, p) = für s > 0 und p > 0. Man beachte, dass diese Formel der Preisformel im Black-Scholes-Modell mit r = 0 ähnelt. Eine fast identische Formel ergibt sich für eine currency Option oder foreign exchange Option, bei der man das Recht (aber nicht die Pflicht) erwirbt, zur Zeit T zu einem vereinbarten Wechselkurs K Geld von einer heimischen Währung in eine fremde zu tauschen. Eine Verallgemeinerung des Black-Scholes-Modells Wie bereits im Laufe der Vorlesung angedeutet, passt das Black-Scholes-Modell nicht ganz zu den tatsächlichen Gegebenheiten. Die idealisierenden Annahmen, dass es keine Transaktionskosten, keine Steuern und keine Dividendenzahlungen gibt, lässt sich durch eine Anpassung des Modells beseitigen. Problematisch ist aber, dass die Volatilität σ konstant ist. Angesichts dieses Problems betrachten wir nun ein verallgemeinertes Modell, in dem der Aktienpreis die DGL dSt = µ(t, St )dt + g(St )dBt mit einer streng monoton wachsenden und genügend glatten Funktion g : R+ → R+ erfüllt. Die Itô-Formel für νt = g(St ) liefert 1 dνt = g 0 (St )dt + g 00 (St )d[S]t , 2 oder mit der zu g inversen Funktion h 1 dνt = g 0 (h(νt ))µ(t, h(νt )) + g 00 (h(νt ))νt2 dt + g 0 (h(νt ))νt dBt . 2 John C. Cox schlug 1975 speziell Funktionen der Form g(s) = αsb , s ∈ R+ , mit Konstanten α > 0 und b ∈ [0, 1] vor. Unter dem äquivalenten Martingalmaß Q gilt dann die DGL dSt = rSt dt + αStb−1 dB̃t . (∗) Für b = 0 erhalten wir das Bachelier-Modell, b = 1 führt zum Black-Scholes-Modell. Nur die Fälle b ∈ (0, 1) sind also noch zu behandeln. Definition 4.13. Ein durch (∗) definiertes Aktienmarktmodell heißt Cox-Modell oder constant elasticity of variance-Modell (kurz CEV-Modell). Man kann zeigen, dass das Modell vollständig ist. Der Preis eines europäischen Calls in diesem Modell zur Zeit t ist gegeben durch ∞ n X X Ct (St , T − t) = St 1 − γ(n + 1 + c, K̃t ) γ(m, F̃t ) n=1 −Ke−r(T −t) ∞ X n=1 m=1 n X γ(n + c, F̃t ) m=1 γ(m, K̃t ), 4.4 Ausblick wobei γ für die Dichte der Γ-Verteilung steht und c = 12 (1 − b), F̃t = RT K 2(1−b) r(T −t) K̃t = 2χ(t)(1−b) und χ(t) = σ 2 t e2r(1−b)u du. 2 , Ft = St e 89 2(1−b) Ft , 2χ(t)(1−b)2 90 LITERATUR Literatur [AD-D00] Ash, R. B., Doléans-Dade, C. A., 2000: Probability & Measure Theory, Harcourt Academic Press, 2. Auflage. [Bau02] Bauer, H., 2002: Wahrscheinlichkeitstheorie, Walter de Gruyter, 5. Auflage. [B-NS10] Barndorff-Nielsen, O. E., Shiryaev, A., 2010: Change of Time and Change of Measure, in: Advanced Series on Statistical Science & Applied Probability, Vol. 13, World Scientific Publishing, 1. Auflage. [Dec06] Deck, Th., 2006: Der Itô-Kalkül, Einführung und Anwendungen, SpringerVerlag Berlin Heidelberg, 1. Auflage. [Dur96] Durrett, R., 1996: Stochastic Calculus, A Practical Introduction, in: Probability and Stochastic Series, CRC Press Boca Raton New York London Tokyo, 1. Auflage. [EK00] Elliott, R. J., Kopp, P. E., 2000: Mathematics of Financial Markets, Springer Verlag New York Berlin Heidelberg, 2. Auflage. [Irl98] Irle, A., 1998: Finanzmathematik, Die Bewertung von Derivaten, Teubner Verlag Wiesbaden, 1. Auflage. [Kar97] Karatzas, I., 1997: Lectures on the Mathematics of Finance, in: CRM monograph series Vol. 8, American Mathematical Society, Providence, Rhode Island, 1. Auflage [KS98] Karatzas, I., Shreve, S. E., 1998: Brownian Motion and Stochastic Calculus, in: Graduate Texts in Mathematics 113, Springer-Verlag New York, 2. Auflage. [Kle08] Klenke, A., 2008: Wahrscheinlichkeitstheorie, Springer-Verlag, 2. Auflage. [LL08] Lamberton, D., Lapeyre, B., 2008: Introduction to Stochastic Calculus Applied to Finance, Chapman & Hall/CRC, 2. Auflage. [MS05] Meintrup, D., Schäffler, S., 2005: Stochastik: Theorie und Anwendungen, Springer-Verlag, 1. Auflage. [Øks03] Øksendal, B. K., 2003: Stochastic Differential Equations: An Introduction with Applications, Springer-Verlag, 6. Auflage. [Ste00] Steele, J. M., 2000: Stochastic Calculus and Financial Applications, in: Applications of Mathematics 45, Stochastic Modelling and Applied Probability, Springer-Verlag New York Berlin Heidelberg, 1. Auflage. [Yor97] Yor, M., 1997: Some Aspects of Brownian Motion, Part II. ETH Lectures in Math. Birkhäuser.