Finanzmathematik 1 Prof. Dr. Stefan Ankirchner Wintersemester 2016/17 Inhaltsverzeichnis I Elemente der zeitdiskreten Martingaltheorie 1 Bedingte Erwartungen . . . . . . . . . . . . . . . . . . . . . . . 2 Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 8 II Bewertung von Derivaten 3 Das Binomialmodell . . . . . . . . . . . . . . . . . . . . . . . . 4 Das allgemeine Mehrperiodenmodell . . . . . . . . . . . . . . . 5 Konvergenz des Binomialmodells gegen das Black-Scholes-Modell 20 20 30 39 III Portfolio-Optimierung 49 6 Nutzenmaximierung im Binomialmodell . . . . . . . . . . . . . 50 7 Nutzenmaximierung großer Portfolien . . . . . . . . . . . . . . . 58 IV Optimales Stoppen 8 Stopp-Probleme mit endlichem Zeithorizont . . . . . . . . . . 8.1 Eine allgemeine Methode zur Bestimmung optimaler Stoppzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Das Cayley-Moser-Problem . . . . . . . . . . . . . . . . . 8.3 Das SekretärInnen-Problem . . . . . . . . . . . . . . . . . 8.4 Die Snell-Hülle als essentielles Supremum . . . . . . . . . 9 Stopp-Probleme mit unendlichem Zeithorizont . . . . . . . . . 9.1 Existenz von optimalen Stoppzeiten . . . . . . . . . . . . . 9.2 Eine Methode zur Bestimmung optimaler Stoppzeiten . . . 9.3 Das Cayley-Moser-Problem mit unendlichem Zeithorizont V 62 . 62 . . . . . . . . 62 64 66 69 70 70 75 76 Praktische Finanzmathematik 78 10 Implementierung des Binomialmodells . . . . . . . . . . . . . . 78 1 INHALTSVERZEICHNIS 10.1 Bewertungsalgorithmen, die die Binomialverteilung verwenden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 Baumalgorithmen . . . . . . . . . . . . . . . . . . . . . . . 10.3 Bewertung amerikanischer Optionen . . . . . . . . . . . . 11 Monte-Carlo-Verfahren . . . . . . . . . . . . . . . . . . . . . . 12 Der LSMC-Algorithmus . . . . . . . . . . . . . . . . . . . . . 13 Portfolio-Optimierung . . . . . . . . . . . . . . . . . . . . . . 13.1 Lösungsmethode: Simulation . . . . . . . . . . . . . . . . 13.2 Lösungsmethode: Verteilung . . . . . . . . . . . . . . . . . 2 . . . . . . . . 78 80 81 84 90 93 93 94 I Elemente der zeitdiskreten Martingaltheorie Literaturempfehlung: Durrett Probability: Theory and Examples 1 Bedingte Erwartungen Ziel des Kapitels: Wiederholung wichtiger Eigenschaften von bedingten Erwartungen. Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum. Definition Sei R̄ = R ∪ {−∞, +∞}. Für p ∈ [1, ∞] definieren wir die Räume Lp (Ω, F, P ) (kurz Lp ) durch ( R X : Ω → R̄|X ist F-mb, Ω |X|p dP < ∞ p L (Ω, F, P ) := X : Ω → R̄|X ist F-mb, ess supω∈Ω |X(ω)| < ∞ p ∈ [1, ∞), p = ∞. Sei X eine integrierbare ZV (d.h X ∈ L1 (Ω, F, P )). Weiterhin sei G eine Sub-σAlgebra von F. Eine Zufallsvariable Y heißt bedingte Erwartung von X bezüglich G, falls gilt: (1) Y ist G-messbar, (2) für alle A ∈ G gilt: R A XdP = R A Y dP . Wir zeigen die Existenz einer bedingten Erwartung mit Hilfe des Satzes von RadonNikodym. Dazu: Erinnerung (Absolutstetigkeit von Wahrscheinlichkeitsmaßen) Sei Q ein weiteres Wahrscheinlichkeitsmaß auf (Ω, F). Dann ist Q absolutstetig bezüglich P (man schreibt Q P ) falls für alle A ∈ F gilt: P (A) = 0 ⇒ Q(A) = 0 Weiterhin: P und Q heißen äquivalent (man schreibt P ∼ Q), falls P Q und Q P. 3 1 Bedingte Erwartungen Satz 1.1 (Radon-Nikodym) Falls Q P , dann existiert eine Zufallsvariable X ∈ L1 (Ω, F, P ) mit X ≥ 0, sodass für alle A ∈ F gilt: Z Q(A) = XdP. A X heißt dann Dichte von Q bezüglich P auf F. Man schreibt häufig dQ dP für X. Beweis. Stochastik oder Maßtheorie-Vorlesung. Satz 1.2 Sei X ∈ L1 (Ω, F, P ) und G ⊂ F eine Sub-σ-Algebra. Dann existiert eine bedingte Erwartung Y von X bezüglich G. Y ist bis auf Nullmengen eindeutig bestimmt, d.h. es gilt: Y, Y 0 bed. Erw. von X ⇒ Y = Y 0 a f.s.a P ({ω : Y (ω) 6= Y 0 (ω)}) = 0 Beweis. Wir zeigen zunächst, dass eine bedingte Erwartung integrierbar ist (d.h. in L1 (Ω, F, P ) liegt). Dazu sei A = {Y ≥ 0}. Dann gilt Z Z Z Z E|Y | = Y dP − Y dP = XdP − XdP A Ac Z ≤ |X|dP + A A Ac Z |X|dP = E|X| < ∞. Ac Nun zur Eindeutigkeit: Seien Y, Y 0 zwei bedingte Erwartungen von X. Dann gilt für A(n) := {Y − Y 0 ≥ n1 }, n ≥ 1, nach der Chebyshev-Ungleichung und Eigenschaft (2) Z 1 P (A(n)) ≤ (Y − Y 0 )dP = 0. n A(n) Damit folgt P (A(n)) = 0. Mit der σ-Stetigkeit von P folgt P (Y − Y 0 > 0) = lim P (A(n)) = 0. n→∞ Analog zeigt man P (Y − Y 0 < 0) = 0. Damit folgt P (Y = Y 0 ) = 1, d.h. Y = Y 0 f.s. 4 1 Bedingte Erwartungen Existenz: Sei zunächst X ≥ 0 mit E(X) ∈ (0, ∞) (im Fall E(X) = 0, ist 0 eine bedingte Erwartung von X). Wir definieren ein neues Wahrscheinlichkeitsmaß Q auf G wie folgt: Z 1 Q(A) := XdP, A ∈ G. E(X) A Es gilt Q P auf G. Nach Satz 1.1 existiert eine Zufallsvariable Ye ∈ L1 (Ω, G, P ) mit Ye ≥ 0 und Z Q(A) = Ye dP, A ∈ G. A Somit ist Y := E(X)Ye eine bedingte Erwartung von X. Sei nun X eine beliebige Zufallsvariable in L1 (Ω, F, P ) und X = X + −X − . X + und X − haben jeweils eine bedingte Erwartung Y + bzw. Y − . Definiere Y := Y + − Y − . Dann gilt für alle A ∈ G Z Z Z Z Z + − + XdP = X dP − X dP = Y dP − Y − dP A A Z = A A Y dP. A Also ist Y eine bedingte Erwartung von X. Notation: Man bezeichnet die bedingte Erwartung von X ∈ L1 (Ω, F, P ) bezüglich G mit E(X | G). Eigenschaften von bedingten Erwartungen Im Folgenden seinen X, Y integrierbare Zufallsvariablen und G eine Sub-σ-Algebra von F. Es gilt: • Linearität: für a, b ∈ R gilt E(aX + bY | G) = aE(X | G) + bE(Y | G), f.s. • Monotonie: X ≤ Y, f.s. ⇒ E(X | G) ≤ E(Y | G), f.s. • E[X|G] ∈ L1 (Ω, G, P ) 5 1 Bedingte Erwartungen • Falls X G-messbar ist, dann gilt E[X|G] = X. • Falls X unabhängig von G ist, dann gilt E[X|G] = E[X]. Lemma 1.3 (Jensen-Ungleichung) Sei ϕ : R → R konvex und E|ϕ(X)| < ∞. Dann gilt f.s. ϕ(E(X | G)) ≤ E(ϕ(X) | G), Beweis. Sei S = {(a, b) ∈ Q2 : ax + b ≤ ϕ(x), ∀x ∈ R}. Man kann zeigen: ϕ(x) = sup{ax + b : (a, b) ∈ S}. Sei nun (a, b) ∈ S. Dann gilt E[ϕ(X) | G] ≥ E[aX + b | G] = aE(X | G) + b, f.s. Damit folgt E[ϕ(X) | G] ≥ sup {aE(X | G) + b} = ϕ(E(X | G)), f.s. (a,b)∈S Beispiel Sei ϕ(x) = x2 , E(X 2 ) < ∞. Dann ist (E(X | G))2 ≤ E(X 2 | G), f.s. Lemma 1.4 Sei H eine Sub-σ-Algebra von G (also H ⊂ G ⊂ F). Dann gilt (a) E[E(X | G) | H] = E(X | H). ( Turmeigenschaft“) ” (b) E[E(X | H) | G] = E(X | H). Beweis. (a) Sei A ∈ H. Dann gilt Z Z Z E(X | G)dP = XdP = E(X | H)dP. A A A (b) gilt, da E(X | H) bereits messbar bezüglich G ist. Lemma 1.5 Sei Y G-messbar und E|XY | < ∞. Dann gilt E(XY | G) = Y E(X | G), 6 f.s. 1 Bedingte Erwartungen Beweis. Wir zeigen die Aussage durch maßtheoretische Induktion: 1) Sei Y = 1B , B ∈ G. Dann gilt für A ∈ G Z Z Z Z XY dP = XdP = E(X | G)dP = Y E(X | G)dP. A A∩B A∩B A Also E(XY | G) = Y E(X | G). 2) Sei Y eine einfache Zufallsvariable, d.h. eine Zufallsvariable der Form Y = n X ai ∈ R, Bi ∈ G. ai 1Bi , i=1 Die Behauptung folgt aus 1) und der Linearität der bedingten Erwartung. 3) Sei nun Y beliebig. Durch Zerlegung in Positiv- und Negativteil können wir annehmen: X, Y ≥ 0. Wähle einfache Zufallsvariablen Yn mit und 0 ≤ Y1 ≤ Y2 ≤ . . . sup Yn = Y. n Monotone Konvergenz impliziert, für alle A ∈ G, Z Z Z Z 2) XY dP = lim XYn dP = lim Yn E(X | G)dP = Y E(X | G)dP. n→∞ A n→∞ A A A Lemma 1.6 Sei E(X 2 ) < ∞. Dann minimiert E(X | G) den quadratischen Abstand zu X unter allen Y ∈ L2 (Ω, G, P ), d.h. E[(X − E(X | G))2 ] = min{E[(X − Y )2 ] : Y ∈ L2 (Ω, G, P )}. Beweisskizze. Sei Z ∈ L2 (Ω, G, P ). Dann ist E|XZ| < ∞ und mit Lemma 1.5 folgt: E(ZX | G) = ZE(X | G). Damit folgt E[Z(X − E(X | G))] = E[ZX] − E[E(ZX | G)] = 0. Sei Y ∈ L2 (Ω, G, P ) und setze Z := Y − E(X | G). Dann E[(X − Y )2 ] = E[(X − E(X | G) − Z)2 ] = E[(X − E(X | G))2 ] + E(Z 2 ). Der Abstand wird minimal, falls Z = 0, d.h. falls Y = E(X | G). 7 2 2 Martingale Martingale Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum. Definition Sei (Fn )n∈N0 eine Folge von σ-Algebren mit Fn ⊂ F . (Fn ) heißt Filtration, falls F0 ⊂ F1 ⊂ F2 ⊂ . . . ⊂ Fn ⊂ . . . . In diesem Fall heißt (Ω, F, (Fn )n∈N0 , P ) filtrierter Wahrscheinlichkeitsraum. Definition Eine Familie von Zufallsvariablen (Xn )n∈N0 auf (Ω, F, P ) heißt stochastischer Prozess. Sei (Fn )n∈N0 eine Filtration. Ein stochastischer Prozess (Xn )n∈N0 heißt adaptiert an (Fn )n∈N0 , falls für alle n ∈ N0 gilt: Xn ist Fn -messbar. Ein stochastischer Prozess (Xn )n≥1 heißt previsibel bezüglich (Fn )n∈N0 , falls für alle n ≥ 1 gilt: Xn ist Fn−1 -messbar. Bemerkung Sei (Xn )n≥0 ein stochastischer Prozess. Setze Gn := σ(X0 , . . . , Xn ) (= kleinste σAlgebra bezüglich derer X0 , . . . , Xn messbar sind). Dann ist (Xn ) adaptiert an (Gn ). Definition Sei (Xn )n≥0 ein stochastischer Prozess und (Fn )n≥0 eine Filtration. (Xn ) heißt Martingal bezüglich (Fn ), falls gilt: (1) (Xn ) ist adaptiert an (Fn ), (2) E|Xn | < ∞, für alle n ≥ 0, (3) E[Xn+1 | Fn ] = Xn , für alle n ≥ 0. (Xn ) heißt Supermartingal, falls (1), (2) und (3’) E[Xn+1 | Fn ] ≤ Xn für alle n ≥ 0 gilt. (Xn ) heißt Submartingal, falls (1), (2) und (3”) E[Xn+1 | Fn ] ≥ Xn für alle n ≥ 0 gilt. Bemerkung (Merksatz) There is nothing super about a supermartingale. Lemma 2.1 Sei (Xn ) ein Martingal. Dann gilt für alle n > m, dass E(Xn | Fm ) = Xm . Beweis. Sei n = m + k. Wir beweisen die Aussage durch Induktion nach k. 8 2 Martingale k = 1: Aussage folgt aus der Definition von Martingalen. k → k + 1: E(Xm+k+1 | Fm ) Turmeig. = = I.V. = E(E(Xm+k+1 | Fm+k ) | Fm ) E(Xm+k | Fm ) Xm . Bemerkung Sei (Xn ) ein Super- bzw. Submartingal. Dann gilt für n > m: E(Xn | Fm ) ≤ Xm bzw. E(Xn | Fm ) ≥ Xm . Beispiel (Irrfahrten) Sei (Zn ) iid (unabhängig und identisch verteilt) mitP P (Zn = 1) = p und P (Zn = −1) = 1 − p, wobei p ∈ [0, 1]. Sei X0 = 0 und Xn = ni=1 Zi , n ≥ 1. Weiterhin sei Fn = σ(X0 , . . . , Xn ), n ≥ 0. Falls p = 12 , dann heißt (Xn ) einfache symmetrische Irrfahrt. Es gilt: (1) p ≥ 1 2 ⇒ (Xn ) ist Submartingal, (2) p ≤ 1 2 ⇒ (Xn ) ist Supermartingal. Insbesondere: p = 1 2 ⇒ (Xn ) ist Martingal. Begründung: 1. Nach Definition von (Fn ) ist (Xn ) adaptiert. 2. |Xn | ≤ n. Also ist Xn integrierbar. 3. Beachte: E(Zn ) = p − (1 − p) = 2p − 1. Somit E(Xn+1 | Fn ) = E(Xn + Zn+1 | Fn ) = E(Xn | Fn ) + E(Zn+1 | Fn ) = Xn + E(Zn+1 ) = Xn + 2p − 1. Hiermit folgt die Behauptung. Lemma 2.2 Sei (Xn ) ein Martingal und ϕ : R → R eine konvexe Funktion mit E|ϕ(Xn )| < ∞ für alle n ≥ 0. Dann ist ϕ(Xn ) ein Submartingal. 9 2 Martingale Beweis. Eigenschaften (1) und (2): X Eigenschaft (3”): Mit Lemma 1.3 folgt E(ϕ(Xn+1 ) | Fn ) ≥ ϕ(E(Xn+1 | Fn )) = ϕ(Xn ). Korollar 2.3 Sei p ≥ 1 und (Xn ) ein Martingal mit E|Xn |p < ∞ für alle n ≥ 0. Dann ist |Xn |p ein Submartingal. Definition Sei (Xn )n≥0 ein adaptierter und (Hn )n≥1 ein previsibler stochastischer Prozess mit Werten in R. Dann heißt InX (H) := n X Hk (Xk − Xk−1 ), n ≥ 0, k=1 stochastisches Integral von (Hn ) bezüglich (Xn ). Hier: I0X (H) := 0. Bemerkung (Mögliche Interpretation) (Xn ) = Preisprozess eines Wertpapieres (Hn ) = Anlagestrategie; Hn ist die Stückzahl des Wertpapieres im Portfolio zwischen den Zeitpunkten n − 1 und n. InX (H) = Gewinn bis zur Zeit n (negativer Gewinn bedeutet Verlust) Satz 2.4 Sei (Xn )n≥0 ein Martingal bezüglich (Fn ). Weiterhin sei (Hn )n≥1 previsibel mit Hn beschränkt für alle n ≥ 1. Dann ist auch (InX (H)) ein Martingal. Beweis. 1. InX (H) ist adaptiert: folgt aus der Konstruktion. 2. Wir zeigen durch Induktion nach n: E|InX (H)| < ∞. n = 0: I0X (H) = 0. X n → n + 1: Sei InX (H) integrierbar. Beachte: X In+1 (H) = InX (H) + Hn+1 (Xn+1 − Xn ). Also X E|In+1 (H)| ≤ E|InX (H)| +E|Hn+1 (Xn+1 − Xn )|. | {z } <∞, nach I.V. 10 2 Martingale Sei C ∈ R+ mit |Hn+1 | ≤ C, f.s. Dann E|Hn+1 (Xn+1 − Xn )| = E(|Hn+1 ||Xn+1 − Xn |) ≤ C · E|Xn+1 − Xn | ≤ C · (E|Xn+1 | + E|Xn |) < ∞. X Also ist In+1 (H) integrierbar. 3. Sei n ≥ 0. Dann gilt X E((In+1 (H) | Fn ) = InX (H) + E[Hn+1 (Xn+1 − Xn ) | Fn ] = InX (H) + Hn+1 E[Xn+1 − Xn | Fn ] | {z } (Lemma 1.5) =0 = InX (H). Bemerkung Interpretation: Falls (Xn ) ein Martingal ist, so ist zu jedem Zeitpunkt der erwartete Gewinn einer Anlagestrategie gleich 0. Denn E(InX (H)) = E(I0X (H)) = 0. Satz 2.5 Sei (Xn )n≥0 ein Sub- bzw. Supermartingal und (Hn )n≥1 previsibel mit Hn ≥ 0 und Hn beschränkt. Dann ist auch InX (H) ein Sub- bzw. Supermartingal. Beweis. Ähnlich zum Beweis von Satz 2.4. Mit stochastischen Integralen lässt sich auch die Martingaleigenschaft verifizieren. Satz 2.6 Sei (Xn )n≥0 ein adaptierter Prozess mit X0 = 0 für den gelte: (Hn )n≥1 beschränkt und previsibel =⇒ InX (H) ∈ L1 und E(InX (H)) = 0. Dann ist X ein Martingal. Beweis. Adaptiertheit: X Integrierbarkeit: Für alle n ≥ 1 gilt Xn = Xn − X0 = InX (1) ∈ L1 . 3. Martingaleigenschaft: Wähle A ∈ Fn und setze Hn+1 = 1A und Hk = 0 für X X k 6= n. Dann ist In+1 (H) = 1A (Xn+1 − Xn ). Aus E(In+1 (H)) = 0 folgt E[1A Xn+1 ] = E[1A Xn ]. Somit gilt also E[Xn+1 |Fn ] = Xn . 11 2 Martingale In späteren Kapiteln benötigt: mehrdimensionale Versionen von Satz 2.4 und 2.6. Hierzu sei d ∈ N. Für alle 1 ≤ j ≤ d sei (Xnj )n≥0 adaptiert und (Hnj )n≥1 previsibel. Wir schreiben Xn = (Xn1 , . . . , Xnd ) und Hn = (Hn1 , . . . , Hnd ). Des Weiteren bezeichne Pd x · y = j=1 xj yj das Skalarprodukt von x, y ∈ Rd . Das stochastische Integral von (Hn ) bez. (Xn ) ist definiert als InX (H) = n X k=1 Hk · Xk = n X d X j Hkj (Xk+1 − Xkj ). (1) k=1 j=1 Wir bezeichnen (Xn ) als (d-dimensionales) Martingal, falls jede Komponente (Xnj ) ein Martingal ist. Satz 2.7 Ist (Xn )n≥0 ein d-dim Martingal und (Hn )n≥1 previsibel mit Hn beschränkt für alle n ≥ 1, dann ist (InX (H)) ein Martingal. Beweis. Ähnlich zum Beweis von Satz 2.4. Satz 2.8 Sei (Xn )n≥0 ein Rd -wertiger adaptierter Prozess mit X0 = 0 für den gelte: (Hn ) = (Hn1 , . . . , Hnd ) beschr. und prev. =⇒ InX (H) ∈ L1 und E(InX (H)) = 0. Dann ist X ein Martingal. Beweis. Ähnlich zum Beweis von Satz 2.6. Definition Sei (Fn )n≥0 eine Filtration. Eine Zufallsvariable τ : Ω → N0 ∪ {+∞} heißt Stoppzeit bezüglich (Fn ), falls {τ = n} ∈ Fn für alle n ∈ N ∪ {∞}. Beispiel Sei (Xn )n≥0 ein stochatischer Prozess und Fn := σ(X0 , . . . , Xn ), n ≥ 0. a) τ := min{n ≥ 0 : Xn ≥ 5} ist Stoppzeit bezüglich (Fn ). Hier: min ∅ = ∞. Begründung: {τ = n} = {Xn ≥ 5} ∩ {Xn−1 < 5} ∩ . . . ∩ {X0 < 5} ∈ Fn . b) τ := max{0 ≤ n ≤ 10 : Xn = max0≤k≤10 Xk } 12 2 Martingale 2 1 6 10 Im Allgemeinen hängt {τ = n} von allen Zufallsvariablen X0 , . . . , X10 ab. Zum Beispiel ( ∈ F10 {τ = 0} = {X0 > X1 } ∩ {X0 > X2 } ∩ . . . ∩ {X0 > X10 } , ∈ / F0 außer in trivialen Fällen. Deshalb ist τ im Allgemeinen keine Stoppzeit. Lemma 2.9 Sei τ : Ω → N0 ∪ {∞} eine Abbildung. Dann: τ ist Stoppzeit ⇔ {τ ≤ n} ∈ Fn für alle n ∈ N. S Beweis. ⇒“ {τ ≤ n} = nk=0 {τ = k} ∈ Fn . ” ⇐“ Für n ≥ 1 gilt: {τ = n} = {τ ≤ n} ∩ {τ ≤ n − 1}c ∈ Fn . ” Für n = 0: {τ = 0} = {τ ≤ 0} ∈ F0 . Lemma 2.10 Seien σ und τ zwei Stoppzeiten. Dann sind auch σ ∧ τ und σ ∨ τ Stoppzeiten.a a x ∧ y := min{x, y} und x ∨ y := max{x, y}. Beweis. a) {σ ∧ τ ≤ n} = {σ ≤ n} ∪ {τ ≤ n} ∈ Fn . b) {σ ∨ τ ≤ n} = {σ ≤ n} ∩ {τ ≤ n} ∈ Fn . Mit Lemma 2.9 folgt, dass σ ∧ τ und σ ∨ τ Stoppzeiten sind. Notation: Sei (Xn )n≥0 ein stochastischer Prozess und τ eine Stoppzeit. Wir bezeichnen mit (Xnτ )n≥0 den gestoppten Prozess Xnτ (ω) := Xn∧τ (ω) (ω), n ≥ 0. 13 2 Martingale Bemerkung Für alle n ≥ 0 ist Xnτ eine Zufallsvariable, denn: {Xnτ ≤ a} = {ω : Xn∧τ (ω) (ω) ≤ a} = n [ ({τ ∧ n = k} ∩ {Xk ≤ a}) ∈ F , a ∈ R. k=0 Satz 2.11 Sei τ eine Stoppzeit und (Xn )n≥0 ein Martingal bezüglich (Fn ). Dann ist auch (Xnτ )n≥0 ein Martingal bezüglich (Fn ). Beweis. Setze Hn := 1{τ ≥n} , n ≥ 1. Da {τ ≥ n} = {τ ≤ n − 1}c ∈ Fn−1 , ist (Hn ) previsibel. Nach Satz 2.4 ist (InX (H)) ein Martingal. Beachte: InX (H) = n X 1{τ ≥k} (Xk − Xk−1 ) = Xτ ∧n − X0 . k=1 Damit folgt Xnτ = Xτ ∧n = InX (H) + X0 ist Martingal. Satz 2.12 Sei τ eine Stoppzeit und (Xn ) ein Sub- bzw. Supermartingal. Dann ist auch (Xnτ )n≥0 ein Sub- bzw. Supermartingal. Beweis. Ähnlich zum Beweis von Satz 2.11, aber unter Verwendung von Satz 2.5, statt Satz 2.4. Beachte dazu: Hn ≥ 0, also kann man Satz 2.5 anwenden. Satz 2.13 (Optional stopping theorem) Sei (Xn ) ein Martingal, k ∈ N und τ eine Stoppzeit mit P (τ ≤ k) = 1. Dann gilt E(X0 ) = E(Xτ ) = E(Xk ). Beweis. 1. Gleichung: nach Satz 2.11 ist X τ ein Martingal. Also E(X0 ) = E(X0τ ) = E(Xkτ ) = E(Xτ ). 2. Gleichung: folgt aus E(Xk ) = E(X0 ). Beispiel (Verdopplungsstrategie) P Sei (Yi )i≥1 iid mit P (Yi = 1) = P (Yi = −1) = 12 . Sei X0 = 0 und Xn = ni=1 Yi , n ≥ 1. Sei F0 = {∅, Ω} und Fn = σ(Y1 , . . . , Yn ), n ≥ 1. Dann ist (Xn )n≥0 ein 14 2 Martingale Martingal bezüglich (Fn ) (siehe Beispiel oben). Betrachte folgende Anlagestrategie (Hn ): H1 = 1 H2 = 2 · 1{Y1 =−1} .. . Hn = 2n−1 · 1{Y1 =−1,...,Yn−1 =−1} .. . Wie groß ist InX (H), der Gewinn zur Zeit n? Satz 2.14 Für die Verdopplungsstrategie (Hn ), n ≥ 1 gilt: P (InX (H) = 1) = 1 − 1 . 2n P (InX (H) = 1 − 2n ) = 1 . 2n Beweis. Wir zeigen durch Induktion nach n: für alle n ≥ 1 gilt ( 1 − 2n falls Y1 = . . . = Yn = −1 InX (H) = . 1 sonst n = 1: I1X (H) ( −1 falls Y1 = −1 = H1 (X1 − X0 ) = Y1 = . +1 sonst n → n + 1: Die Behauptung gelte für n. Dann X In+1 (H) = InX (H) + Hn+1 (Xn+1 − Xn ) = InX (H) + 2n · 1{Y1 =...=Yn =−1} Yn+1 ( 1 − 2n − 2n = 1 − 2n+1 falls Y1 = . . . = Yn = Yn+1 = −1 = . 1 sonst Beachte nun: {InX (H) = 1 − 2n } = gilt P (InX (H) Tn k=1 {Yk n =1−2 )= n Y k=1 = −1}. Da die Yi unabhängig sind, P (Yk = −1) = 1 . 2n 15 2 Martingale Daraus folgt die Behauptung. Korollar 2.15 Für die Verdopplungsstrategie gilt: lim P (InX (H) = 1) = 1. n→∞ Bemerkung 1) (InX (H)) ist ein Martingal (wg. Satz 2.4). Also gilt E(InX (H)) = I0X (H) = 0, für alle n ≥ 0. D.h.: Zu jedem Zeitpunkt ist der erwartete Gewinn 0, obwohl InX (H) f.s. gegen 1 konvergiert (fast sichere Konvergenz, aber nicht in Erwartung (d.h. nicht L1 -Konvergenz)). Eine Umsetzung der Strategie erfordert unbeschränktes Kapital, ist also praktisch nicht möglich. In vielen finanzmathematischen Modellen werden Verdopplungsstrategien ausgeschlossen. 2) (InX (H)) ist ein Beispiel für ein Martingal, das f.s. gegen einen Grenzwert konvergiert. Jetzt: allgemeines Kriterium für Martingalkonvergenz. Beobachtung: Ein stochastischer Prozess (Xn ) konvergiert genau dann wenn jedes Intervall [a, b] nur endlich oft durchquert wird. b a Zunächst Abschätzung der Anzahl an Durchquerungen. Dazu setze N (0) = −1 und definiere rekursiv für k ≥ 1 N (2k − 1) = min{m > N (2k − 2) : Xm ≤ a}, N (2k) = min{m > N (2k − 1) : Xm ≥ b}. 16 2 Martingale b a 0 N (1) N (2) N (3) Man kann durch Induktion zeigen: Für alle j ≥ 1 gilt: N (j) ist Stoppzeit bezüglich Fn = σ(X0 , . . . , Xn ). Betrachte folgende buy-low-sell-high-Strategie (Hn )n≥1 : ( 1 falls N (2k − 1) < n ≤ N (2k) Hn = . 0 sonst (Hn ) ist previsibel, denn: {Hn = 1} = {ω ∈ Ω : ∃k ≥ 1 : N (2k − 1) < n ≤ N (2k)} [ = ({N (2k − 1) ≤ n − 1} ∩ {N (2k) ≤ n − 1}c ) | {z } | {z } k≥1 ∈Fn−1 ∈Fn−1 ∈ Fn−1 Sei Un := sup{k ≥ 1 : N (2k) ≤ n} die Anzahl der Durchquerungen bis zur Zeit n. Lemma 2.16 (Doob’s upcrossing lemma) Ist (Xn ) ein Submartingal bezüglich (Fn ), dann gilt (b − a)EUn ≤ E(Xn − a)+ − E(X0 − a)+ . Beweis. Setze Yn := a + (Xn − a)+ . (Yn ) ist ein Submartingal, denn 1. (Yn ) ist adaptiert. 2. E|Yn | ≤ |a| + E|Xn | < ∞ für alle n ≥ 0. 17 2 Martingale 3. E[Yn+1 | Fn ] = E[a + (Xn+1 − a)+ | Fn ] = a + E[(Xn+1 − a)+ | Fn ] ≥ a + (E(Xn+1 | Fn ) − a)+ ≥ a + (Xn − a)+ = Yn b a 0 N (1) N (2) N (3) Es gilt: (b − a)Un ≤ InY (H). Mit Km := 1 − Hm gilt InY (H) + InY (K) = InY (1) = Yn − Y0 . Mit Satz 2.5 folgt: InY (K) ist ein Submartingal, also E(InY (K)) ≥ E(I0Y (K)) = 0. Damit folgt E(Yn − Y0 ) = E(InY (H)) + E(InY (K)) ≥ E(InY (H)) ≥ (b − a)EUn . Damit folgt die Behauptung. Satz 2.17 (Martingalkonvergenzsatz) Sei (Xn )n≥0 ein Submartingal mit supn→∞ E(Xn+ ) < ∞. Dann konvergiert (Xn ) f.s. gegen eine Zufallsvariable X mit E|X| < ∞. Beweis. Beachte: (Xn − a)+ ≤ Xn+ + |a|. Lemma 2.16 impliziert somit |a| + E(Xn+ ) EUn ≤ . b−a Mit dem Satz der monotonen Konvergenz folgt lim EUn = EU, 18 2 Martingale wobei U := limn→∞ Un (= Anzahl aller Durchquerungen). Mit den Annahmen folgt also EU < ∞. Insbesondere ist U < ∞, f.s. und somit P (lim inf Xn ≤ a < b ≤ lim sup Xn ) = 0. n→∞ n→∞ Da a und b beliebig sind, gilt auch [ P {lim inf Xn ≤ a < b ≤ lim sup Xn } = 0. a,b∈Q a<b Also lim infn Xn = lim supn Xn , f.s. Daher konvergiert Xn f.s. gegen eine Zufallsvariable X. Zur Integrierbarkeit von X: Mit Fatous Lemma folgt EX + = E lim inf Xn+ ≤ lim inf EXn+ ≤ sup EXn+ < ∞. n n n Für den Negativ-Teil gilt: EXn− = −EXn + EXn+ −Xn Supermartingal ≤ −EX0 + sup EXn+ < ∞. n Also mit Fatou: EX − = E lim inf Xn− ≤ lim inf EXn− ≤ −EX0 + sup EXn+ < ∞. n n n Daraus folgt E|X| = EX + + EX − < ∞. 19 II Bewertung von Derivaten Ein Finanzderivat (kurz Derivat) ist ein Vertrag dessen wirtschaftlicher Wert vom Verlauf einer marktbezogenen Referenzgröße abhängt. Beispiele: • Forward contract (kurz: forward) ist eine Vereinbarung zwischen 2 Vertragsparteien ein Gut (Wertpapier, Rohstoff, landwirtschaftliches Produkt, …) an einem festgelegten Datum T (in der Zukunft) zu einem heute vereinbarten Preis K zu kaufen bzw. zu verkaufen. Ein Geld- bzw. Gütertausch erfolgt erst zur Zeit T : Käufer: Verkäufer: bekommt das Gut, zahlt K. bekommt K, liefert das Gut. • Call-Option (kurz: call) ist das Recht, aber nicht die Pflicht, ein Wertpapier zu einem festgelegten Preis K (dem sogenannten strike) an einem zukünftigen Zeitpunkt T (der sogenannten Fälligkeit, oder Maturität) zu kaufen. • Put-Option (kurz: put) ist das Recht, aber nicht die Pflicht, ein Wertpapier zu einem festgelegten Preis K an einem zukünftigen Zeitpunkt T zu verkaufen. Frage: Wie kann man sinnvolle Preise für Derivate bestimmen? Ausblick: Wir werden das sogenannte No-Arbitrage-Prinzip zur Bewertung von Derivaten kennenlernen. Es erlaubt eine einfache, marktkonsistente Bewertung. Zunächst untersuchen wir diese Methode im Rahmen des Binomialmodells. 3 Das Binomialmodell Modell eingeführt in: Cox, Ross, Rubenstein. Option Pricing: A Simplified Approach, 1979. Wir betrachten einen Finanzmarkt mit 2 Wertpapieren. Handelszeiten: 0, 1, . . . , N . Annahmen: Das erste Wertpapier ist eine Anleihe mit fester Verzinsung r ≥ 0 pro Zeitschritt. Der Wert zur Zeit n sei Bn = (1 + r)n . Das zweite Papier ist eine Aktie (oder ein anderes riskantes Papier) mit Preis Sn zur Zeit n. Zwischen den Zeiten n und n + 1 ändert sich der Preis um einen Faktor 20 3 u oder d: Sn+1 ( uSn , = dSn , Das Binomialmodell mit Wahrscheinlichkeit p, mit Wahrscheinlichkeit 1 − p. Im Folgenden nehmen wir an: 0 < d < 1 + r < u. (3.1) Der Preisprozess kann mit einem Binomialbaum veranschaulicht werden: u2 S0 uS0 S0 udS0 dS0 d2 S0 Beachte: Der Binomialbaum ist rekombinierend: # Knoten zur Zeit N : N + 1. Wir modellieren den Preis (Sn ) als stochastischen Prozess. Sei dazu (Ω, F, P ) ein Wahrscheinlichkeitsraum und Y1 , . . . , YN eine Familie von unabhängigen Zufallsvariablen mit P (Yn = u) = p und P (Yn = d) = 1 − p, wobei p ∈ (0, 1). Sei S0 ∈ (0, ∞). Wir definieren Sn (ω) := S0 · n Y Yi (ω) i=1 und Fn := σ(S0 , . . . , Sn ), n ∈ {0, . . . , N }. Beachte: F0 = {∅, Ω} und Fn = σ(Y1 , . . . , Yn ), für n ∈ {1, . . . , N }. Satz 3.1 1+r−d 1 ⇒ Sn ist Submartingal u−d (1 + r)n 1+r−d 1 p≤ ⇒ Sn ist Supermartingal u−d (1 + r)n p≥ Insbesondere: p = 1+r−d u−d 1 ⇒ (1+r) n Sn ist Martingal. 21 3 Das Binomialmodell Beweis. Setze Xn := 1 S . (1+r)n n Dann 1. Sn ist Fn -messbar, also auch Xn . u n 2. Es gilt 0 ≤ Xn ≤ S0 1+r < ∞. Also ist Xn integrierbar für alle n ≤ N . 3. Für n < N − 1 gilt: 1 E(Xn+1 | Fn ) = E( 1+r Xn Yn+1 | Fn ) 1 = Xn E(Yn+1 | Fn ) 1+r 1 = Xn E(Yn+1 ). 1+r Falls p ≥ 1+r−d , u−d dann ist E(Yn+1 ) pu + (1 − p)d = ≥ 1, 1+r 1+r und somit E(Xn+1 | Fn ) ≥ Xn . Falls p ≤ 1+r−d , u−d folgt E(Xn+1 | Fn ) ≤ Xn . Definition Ein R2 -wertiger stochastischer Prozess (Gn , Hn )n∈{1,...,N } heißt Portfolioprozess (oder Strategie), falls die Prozesse (Gn ) und (Hn ) previsibel bezüglich (Fn ) sind. Interpretation: Gn = Stückzahl von Papier 1 im Portfolio zwischen den Zeitpunkten n − 1 und n. Hn = Stückzahl von Papier 2 im Portfolio zwischen den Zeitpunkten n − 1 und n. Beachte: negative Werte für G und H sind erlaubt. Definition Ein Portfolioprozess (G, H) heißt selbstfinanzierend, falls für alle n ∈ {1, . . . , N − 1} gilt: Gn Bn + Hn Sn = Gn+1 Bn + Hn+1 Sn ( Umschichtung des Portfolios ohne Wertänderung“). ” Definition Der Wertprozess (Vn ) einer Strategie (G, H) ist definiert durch V0 = G1 B0 + H1 S0 , Vn = Gn Bn + Hn Sn , V0 heißt Startwert. 22 n ∈ {1, . . . , N }. 3 Das Binomialmodell Nun zu Derivaten: Betrachte zum Beispiel eine Call-Option auf die Aktie mit strike K und Fälligkeit N . Der Wert des calls zur Zeit N ist (3.2) C(N, K) := (SN − K)+ . Wir identifizieren die Call-Option mit der ZV C(N, K), d.h. mit ihrem Payoff/Wert zur Zeit N . Die entsprechende Put-Option identifizieren wir mit der Zufallsvariable P (N, K) := (K − SN )+ . Wir zeigen jetzt: C(N, K) und P (N, K) können im Binomialmodell repliziert werden. Definition Eine Zufallsvariable X heißt replizierbar, falls es ein selbstfinanzierendes Portfolio (G, H) gibt mit GN BN + HN SN = X. (3.3) Wir betrachten zunächst den 1-Perioden-Fall. Wie lässt sich C(1, K) replizieren? Beachte, dass ( (uS0 − K)+ , falls Y1 = u C(1, K) = (S1 − K)+ = . (dS0 − K)+ , falls Y1 = d Für den Wert des Portfolios gilt ( G1 (1 + r) + H1 uS0 , V1 = G1 B1 + H1 S1 = G1 (1 + r) + H1 dS0 , falls Y1 = u falls Y1 = d . Es gilt also V1 = C(1, K) genau dann, wenn (1) (2) (uS0 − K)+ = G1 (1 + r) + H1 uS0 (dS0 − K)+ = G1 (1 + r) + H1 dS0 . Lösung des Gleichungssystems: H1 = Cu − Cd , uS0 − dS0 G1 = uCd − dCu , (1 + r)(u − d) 23 3 Das Binomialmodell wobei Cu = (uS0 − K)+ und Cd = (dS0 − K)+ . Für den Wert des Portfolios zur Zeit 0 gilt: uCd − dCu Cu − Cd V0 = G1 B0 + H1 S0 = + S0 (1 + r)(u − d) uS0 − dS0 1 1+r−d u − (1 + r) = Cu + Cd 1+r u−d u−d Wir definieren p∗ := 1+r−d . u−d (3.4) Wegen (3.1) ist p∗ ∈ (0, 1). Aus (3.4) folgt V0 = 1 (p∗ Cu + (1 − p∗ )Cd ). 1+r Interpretation: V0 ist der diskontierte Erwartungswert des Payoffs unter Verwendung des neuen Wahrscheinlichkeitsgewichts p∗ . Mehr dazu später. Preis Wert des replizierenden Portfolios Cu uS0 S0 V0 = p∗ Cu +(1−p∗ )Cd 1+r dS0 Cd Betrachte nun den 2-Perioden-Fall: Cuu = (u2 S0 − K)+ u2 S0 c1 (uS0 ) uS0 1 1 S0 udS0 Cud = (udS0 − K)+ c0 (S0 ) 2 2 dS0 c1 (dS0 ) Cdd = (d2 S0 − K)+ d2 S0 Annahme: Wir befinden uns im Knoten 1. Nur 1 Periode verbleibt. Aus den obigen Überlegungen folgt: es gibt ein Portfolio zwischen Zeit 1 und 2, das Cuu bzw. Cdd repliziert. Der Wert dieses Portfolios zur Zeit 1 ist c1 (uS0 ) = 24 1 (p∗ Cuu + (1 − p∗ )Cud ). 1+r 3 Das Binomialmodell Analog: Im Knoten 2 existiert ein replizierendes Portfolio mit Anfangswert c1 (dS0 ) = 1 (p∗ Cud + (1 − p∗ )Cdd ). 1+r Wir replizieren nun zwischen 0 und 1 die Zufallsvariable ( c1 (uS0 ), falls Y1 = u c1 (S1 ) = . c1 (dS0 ), falls Y1 = d Es muss gelten (1) (2) G1 (1 + r) + H1 uS0 = c1 (uS0 ) G1 (1 + r) + H1 dS0 = c1 (dS0 ). Lösung des Gleichungssystems: H1 = c1 (uS0 ) − c1 (dS0 ) uS0 − dS0 und G1 = uc1 (dS0 ) − dc1 (uS0 ) . (1 + r)(u − d) Für den Wert des replizierenden Portfolios zur Zeit 0 gilt c0 (S0 ) = 1 (p∗ c1 (uS0 )) + (1 − p∗ )c1 (dS0 )). 1+r Die Argumentation lässt sich auf beliebig viele Schritte ausdehnen. Im Allgemeinen Fall gilt: Satz 3.2 Die Call-Option C(N, K) ist replizierbar durch folgende selbstfinanzierende Strategie: Hn = cn (uSn−1 ) − cn (dSn−1 ) , uSn−1 − dSn−1 Gn = ucn (dSn−1 ) − dcn (uSn−1 ) , (1 + r)n (u − d) (3.5) wobei die Funktionen cn rekursiv definiert sind: cN (x) = (x − K)+ 1 cn (x) = (p∗ cn+1 (ux) + (1 − p∗ )cn+1 (dx)) 1+r (3.6) für n < N . cn (Sn ) gibt dabei den Wert des replizierenden Portfolios zur Zeit n an. 25 3 Das Binomialmodell Beweis. Zunächst zeigen wir durch Induktion nach N : C(N, K) replizierbar, cn (Sn ) Wertprozess des repl. Portfolios N = 1: siehe oben X N − 1 → N : Betrachte das Binomialmodell auf dem Zeitintervall von 1 bis N . Q + Nach Induktionsvoraussetzung ist (uS0 N Porti=2 Yi − K) replizierbar mit einemQ folio, das den Startwert (zur Zeit 1) c1 (uS0 ) hat. Analoge Aussage git für (dS0 N i=2 Yi − + K) . Wir zeigen jetzt: Die Zufallsvariable ( c1 (uS0 ), Y1 = u X = c1 (S1 ) = c1 (dS0 ), Y1 = d kann zwischen 0 und 1 repliziert werden. Das führt zu folgendem Gleichungssystem: (1) (2) c1 (uS0 ) = G1 (1 + r) + H1 uS0 c2 (dS0 ) = G1 (1 + r) + H1 dS0 Dieses hat die eindeutige Lösung H1 = Es gilt c1 (uS0 ) − c1 (dS0 ) , uS0 − dS0 G1 = uc1 (dS0 ) − dc1 (uS0 ) . (1 + r)(u − d) G1 B1 + H1 S1 = c1 (S1 ) (Replikation von X) und 1 Def. (p∗ c1 (uS0 ) + (1 − p∗ )c1 (dS0 )) = c0 (S0 ). 1+r Formel (3.5) folgt durch Lösen der entsprechenden Gleichungssysteme. G1 B0 + H1 S0 = 26 3 Das Binomialmodell Bemerkung 1) Satz 3.2 kann auf Optionen mit Payoff f (SN ) verallgemeinert werden (Bsp: f (x) = (K − x)+ für eine Put-Option). Man muss dazu die Endbedingung in (3.6) ersetzen durch cN (x) = f (x). 2) Satz 3.2 kann sogar auf pfadabhängige Optionen verallgemeinert werden. Dann muss cn als Funktion mit n Argumenten S1 , . . . , Sn gewählt werden. Definition Sei X eine im Binomialmodell replizierbare Zufallsvariable. Der CRR-Preis (Cox-Ross-Rubenstein) von X ist der Wert des replizierenden Portfolios zur Zeit 0. Frage: Warum ist der CRR-Preis ein vernünftiger Preis für X? Begündung: Sei dazu V0 = Wert des replizierenden Portfolios zur Zeit 0, M = Marktpreis des Derivats X zur Zeit 0. 1. Fall: M > V0 . Dann verkaufe das Derivat am Markt zum Preis M und kaufe das replizierende Portfolio zum Preis V0 . Dies lässt sich ohne Startkapital realisieren, da δ := M − V0 > 0. Zur Zeit N gilt: Portfoliowert = Derivatwert. Der Überschuss δ bleibt. Also lässt sich ohne Risiko ein Gewinn erzielen, d.h. es gibt eine Arbitragemöglichkeit. Falls also M > V0 , würden viele das Derivat verkaufen. ⇒ Preis fällt bis M = V0 . 2. Fall: M < V0 . Kaufe das Derivat und verkaufe das replizierende Portfolio. Wieder lässt sich ohne Risiko Gewinn erzielen. 3. Fall: M = V0 . In diesem Fall gibt es keine Arbitragemöglichkeit. Fazit: Der CRR-Preis ist der einzige arbitragefreie Preis von X. Satz 3.3 Für den CRR-Preis einer Call-Option C(N, K) gilt N X 1 N CRR_call(S0 , K, N, u, d, r) = (p∗ )k (1−p∗ )N −k (S0 uk dN −k −K)+ N (1 + r) k=0 k (3.7) Beweis. Sei cn die Funktionenfolge aus Satz 3.2. Nach Satz 3.2 gilt: CRR_call = 27 3 Das Binomialmodell c0 (S0 ). Es genügt zu zeigen, dass für alle n ∈ {0, . . . , N } gilt: n X 1 n c0 (S0 ) = (p∗ )k (1 − p∗ )n−k cn (uk dn−k S0 ). n (1 + r) k=0 k Beweis durch Induktion nach n: n = 0: RS = c0 (S0 ) n − 1 → n: Es gelte n−1 X 1 n−1 c0 (S0 ) = (p∗ )k (1 − p∗ )n−1−k cn−1 (uk dn−1−k S0 ). (1 + r)n−1 k=0 k Nach Definition gilt cn−1 (uk dn−1−k S0 ) = 1 p∗ cn (uk+1 dn−1−k S0 ) + (1 − p∗ )cn (uk dn−k S0 ) . 1+r Also n−1 X 1 n−1 c0 (S0 ) = (p∗ )k+1 (1 − p∗ )n−1−k cn (uk+1 dn−1−k S0 ) (1 + r)n k=0 k n−1 ∗ k ∗ n−k k n−k + (p ) (1 − p ) cn (u d S0 ) k n X 1 n−1 n−1 = + (p∗ )k (1 − p∗ )n−k cn (uk dn−k S0 ). (1 + r)n k=0 k−1 k | {z } = n k Formel (3.7) erinnert an die Binomialverteilung. Sei P ∗ ein neues Wahrscheinlichkeitsmaß, sodass Y1 , . . . , YN unabhängig bezüglich P ∗ sind und P ∗ (Yi = u) = p∗ und P ∗ (Yi = d) = 1 − p∗ . Dann folgt aus (3.7): Korollar 3.4 Es gilt CRR_call(S0 , K, N, u, d, r) = 1 E∗ [(SN − K)+ ], (1 + r)N wobei E∗ der Erwartungswertoperator unter P ∗ ist. 28 (3.8) 3 Beweis. Setze ( 1, Xi = 0, Yi = u Yi = d und Z := N X Das Binomialmodell Xi . i=1 Unter P ist Z binomialverteilt mit den Parametern N und p∗ , d.h. N P (Z = k) = (p∗ )k (1 − p∗ )N −k , ∀k ∈ {0, . . . , N }. k ∗ Da SN = S0 uZ dN −Z , folgt die Behauptung aus (3.7). Wichtige Beobachtung: Der arbitragefreie Preis (= CRR-Preis) der Call-Option ist der diskontierte Erwartungswert des Payoffs (SN −K)+ unter dem neuen Wahrscheinlichkeitsmaß P ∗ . Der Preis hängt nicht vom Ausgangsmaß P ab. Wir untersuchen P ∗ näher: Wegen (3.1) ist p∗ ∈ (0, 1). Somit sind P ∗ und P äquivalent auf FN (nur ∅ ist Nullmenge in FN ). Weiterhin folgt aus Prop. 3.1, Sn ∗ dass (1+r) ist (ersetze dazu p mit p∗ ). n ein Martingal unter P Definition Ein Wahrscheinlichkeitsmaß Q heißt äquivalentes Martingalmaß auf FN , falls Sn Q ∼ P auf FN und (1+r) n , n ∈ {0, . . . , N }, ein Martingal unter Q ist. Satz 3.5 P ∗ ist das einzige äquivalente Martingalmaß auf FN . Beweis. Sei Q ein äquivalentes Martingalmaß. Dann gilt einerseits Sn+1 Q E | Fn = Sn , n ∈ {0, . . . , N − 1}. 1+r Andererseits gilt Q E Sn+1 | Fn 1+r = Sn Q E (Yn+1 | Fn ). 1+r Somit erhalten wir 1 + r = EQ (Yn+1 | Fn ) = EQ (u1{Yn+1 =u} + d1{Yn+1 =d} | Fn ) = uQ(Yn+1 = u | Fn ) + dQ(Yn+1 = d | Fn ) = uQ(Yn+1 = u | Fn ) + d(1 − Q(Yn+1 = u | Fn )), wobei Q(Yn+1 = x | Fn ) := EQ (1{Yn+1 =x} | Fn ), x ∈ {u, d}. Folglich gilt Q(Yn+1 = u | Fn ) = 1+r−d = p∗ . u−d 29 4 Das allgemeine Mehrperiodenmodell Insbesondere gilt Q(Yn+1 = u) = p∗ . Wir zeigen jetzt, dass die Y1 , . . . , YN unabhängig unter Q sind. Es genügt zu zeigen, dass Yn+1 unabhängig von Fn ist, für alle n < N . Sei dazu A ∈ Fn . Dann gilt Q({Yn+1 = u} ∩ A) = EQ (1{Yn+1 =u} 1A ) = EQ (EQ (1{Yn+1 =u} 1A | Fn )) = EQ (1A EQ (1{Yn+1 =u} | Fn )) = p∗ · Q(A) = Q(Yn+1 = n) · Q(A). Die analoge Aussage gilt für {Yn+1 = d}. Also sind Y1 , . . . , YN unabhängig unter Q. Sei nun A = {Y1 = x1 , . . . , YN = xN } ein Elementarereignis in FN , wobei xi ∈ {u, d}. Dann gilt, mit k = |{i : xi = u}|, Q(A) = (p∗ )k (1 − p∗ )N −k = P ∗ (A). Damit folgt schließlich die Behauptung Q = P ∗ auf FN . Wichtige Beobachtung: Der arbitragefreie Preis (= CRR-Preis) einer Option ist der diskontierte Erwartungswert des Payoffs unter dem äquivalentem Martingalmaß. Im Binomialmodell ist das äquivalente Martingalmaß eindeutig. Frage: Welche Erkenntnisse sind spezifisch für das Binomialmodell, welche gelten allgemein? Hierzu: 4 Das allgemeine Mehrperiodenmodell Literatur: Harrison, Pliska. Martingales and stochastic integrals in the theory of continuous trading, 1981. Wir betrachten einen Finanzmarkt mit einem risikolosen und d ∈ N riskanten Wertpapieren. Hierbei seien 0, 1, . . . , N Sk0 = (1 + r)k Ski die Handelszeiten, der Wert des risikolosen Papiers zur Zeit k (r ≥ 0) und der Wert des i-ten riskanten Papiers zur Zeit k (i ∈ {1, . . . , d}) ist. Annahme: (Ω, F, (Fk ), P ) ist ein filtrierter Wahrscheinlichkeitsraum, und für jedes i ∈ {1, . . . , d} ist (Ski )k∈{0,...,N } ein (Fk )-adaptierter, nichtnegativer stochastischer Prozess. Der Einfachheit halber gelte F0 = {∅, Ω}. 30 4 Das allgemeine Mehrperiodenmodell Notation: S k := (Sk0 , Sk ) := (Sk0 , Sk1 , . . . , Skd ). Definition Ein Rd+1 -wertiger Prozess H k := (Hk0 , Hk ) := (Hk0 , Hk1 , . . . , Hkd ), k ∈ {1, . . . , N }, heißt Portfolioprozess (kurz: Strategie), falls für alle 0 ≤ i ≤ d der Prozess (Hki )k∈{1,...,N } previsibel bezüglich (Fk ) ist. Definition Eine Strategie H heißt selbstfinanzierend, falls für alle k ∈ {0, . . . , N − 1} gilt: H k+1 · S k = H k · S k , wobei · hier das Skalarprodukt H k · S k = Pd i=0 Hki Ski bezeichnet. Definition Der Wertprozess Vk = Vk (H) ist definiert durch V0 (H) = H 1 · S 0 , Vk (H) = H k · S k , k ∈ {1, . . . , N }. V0 heißt Startwert. Lemma 4.1 Eine selbstfinanzierende Strategie H = (H 0 , H) mit Wertprozess (Vk )k∈{0,...,N } ist eindeutig durch H und V0 bestimmt. Beweis. Wir zeigen durch Induktion nach k: Hk0 ist Funktion von H und V0 . k = 1: Es gilt V0 = H 1 · S 0 = H10 + H1 · S0 . Damit folgt H10 = V0 − H1 · S0 . k − 1 → k: H k−1 sei eindeutig durch H und V0 bestimmt. Dann ist auch Vk−1 = H k−1 · S k−1 eindeutig durch H und V0 bestimmt. Da H selbstfinanzierend ist, gilt 0 Vk−1 = H k−1 · S k−1 = H k · S k−1 = Hk0 Sk−1 + Hk · Sk−1 , also Hk0 = 1 (Vk−1 − Hk · Sk−1 ). (1 + r)k−1 31 4 Das allgemeine Mehrperiodenmodell Definition Eine selbstfinanzierende Strategie H heißt Arbitragemöglichkeit(strategie), falls für den zugehörigen Wertprozess (Vk )k∈{0,...,N } gilt: (i) V0 ≤ 0 (ii) VN ≥ 0, f.s. (iii) P (VN > 0) > 0. Wir zeigen zunächst: Der Markt ist arbitragefrei genau dann, wenn es in keiner der einzelnen Handelsperioden eine Arbitragemöglichkeit gibt. Hierzu bezeichne L0 (F) die Menge aller F-messbaren, reellwertigen Zufallsvariablen. Lemma 4.2 Folgende Aussagen sind äquivalent: (a) Es gibt eine Arbitragemöglichkeit. (b) Es gibt ein k ∈ {1, . . . , N } und ein η ∈ (L0 (Fk−1 ))d mit η·Sk ≥ (1+r)η·Sk−1 , f.s. und P (η · Sk > (1 + r)η · Sk−1 ) > 0. (c) Es gibt ein k ∈ {1, . . . , N } und ein η ∈ (L∞ (Fk−1 ))d mit η·Sk ≥ (1+r)η·Sk−1 , f.s. und P (η · Sk > (1 + r)η · Sk−1 ) > 0. (d) Es gibt eine Arbitragemöglichkeit H = (H 0 , H) mit H beschränkt und V0 (H) = 0. Beweis. (a) ⇒ (b): Sei H eine Arbitragemöglichkeit. Dann V0 ≤ 0, VN ≥ 0, f.s. und P (VN > 0) > 0. Sei t := min{k : Vk ≥ 0 f.s. und P (Vk > 0) > 0}. Beachte: t ∈ {1, . . . , N }, und Vt−1 ≤ 0 f.s. oder P (Vt−1 < 0) > 0. 1. Fall: Vt−1 ≤ 0, f.s. Dann ist H t · S t−1 = H t−1 · S t−1 = Vt−1 ≤ 0. Also H t · S t = Vt ≥ 0 ≥ (1 + r)H t · S t−1 und P (H t · S t > (1 + r)H t · S t−1 ) > 0. 0 Die Balken kann man weglassen, da St0 = (1 + r)St−1 . Also gilt die Behauptung mit η = Ht . 2. Fall: P (Vt−1 < 0) > 0. Setze η := (η 0 , η) := H t · 1{Vt−1 <0} . Dann gilt η · S t−1 = Vt−1 1{Vt−1 <0} ≤ 0 32 4 Das allgemeine Mehrperiodenmodell und P (η · S t−1 < 0) > 0. Wegen η · S t = Vt · 1{Vt−1 <0} ≥ 0, f.s., folgt also η · S t ≥ (1 + r) · η · S t−1 und P (η · S t > (1 + r)η · S t−1 ) > 0. Wieder kann man die Balken weglassen. (b) ⇒ (c): Seien k und η wie in (b). Definiere η n := η1{|η|≤n} , n ≥ 1. Dann gilt η n · Sk ≥ (1 + r)η n · Sk−1 . Mit der σ-Stetigkeit von P : lim P (η n · Sk > (1 + r)η n · Sk−1 ) = P n ! [ {η n · Sk > (1 + r)η n · Sk−1 } n≥1 = P (η · Sk > (1 + r)η · Sk−1 ) > 0. Somit gilt die Aussage für hinreichend großes n. (c) ⇒ (d): Seien k und η wie in (c). Setze Hk := η und Hn := 0 für n 6= k. Nach Lemma 4.1 ist durch H und V0 = 0 eindeutig eine selbstfinanzierende Strategie H = (H 0 , H) bestimmt. Diese Strategie ist eine Arbitragemöglichkeit. (d) ⇒ (a): klar. Definition Ein Wahrscheinlichkeitsmaß Q auf (Ω, F) heißt Martingalmaß, falls für alle i ∈ {1, . . . , d} der diskontierte Prozess (Xki )k∈{0,...,N } := Ski Sk0 k∈{0,...,N } ein Q-Martingal bezüglich (Fk ) ist. Ein Martingalmaß Q heißt äquivalentes Martingalmaß, falls Q ∼ P . Wir bezeichnen die Menge alle äquivalenten Martingalmaße mit P. Im Folgenden schreiben wir Xk = (Xk1 , . . . , Xkd ), k ∈ {0, . . . , N }. 33 4 Das allgemeine Mehrperiodenmodell Lemma 4.3 Sei H = (H 0 , H) eine selbstfinanzierende Strategie und Dn := Dn (H) := Vn (H) Sn0 (diskontierter Wertprozess). Dann gilt Dn = V0 + InX (H), n ∈ {0, . . . , N }, wobei (I X (H)) das stochastische Integral von (Hn ) bez. (Xn ) ist. Beweis. Dn = (Dn − Dn−1 ) + . . . + (D1 − D0 ) + D0 H n · S n H n−1 · S n−1 H 1 · S1 H 1 · S0 = − + ... + − + D0 0 Sn0 Sn−1 S10 S00 S n S n−1 S1 S0 = Hn · − 0 + . . . + H1 · − + V0 Sn0 Sn−1 S10 S00 n X = V0 + Hk · (Xk − Xk−1 ) = V0 + k=1 InX (H). Satz 4.4 Sei Q ein Wahrscheinlichkeitsmaß. Dann sind folgende Aussagen äquivalent: (a) Q ist Martingalmaß. (b) Ist H = (H 0 , H) selbstfinanzierend mit beschränktem H, so ist (Dn (H))n∈{0,...,N } ein Q-Martingal. (c) Ist H = (H 0 , H) selbstfinanzierend mit beschränktem H und V0 (H) = 0, so ist DN (H) Q-integrierbar und EQ (DN (H)) = 0. Beweis. (a) ⇒ (b): Nach Lemma 4.3 ist Dn (H) = V0 + InX (H), n ∈ {0, . . . , N }. Somit folgt die Behauptung aus Satz 2.7. (b) ⇒ (c): Erinnerung: F0 = {∅, Ω}. Also gilt EQ (DN ) = EQ (Dn | F0 ) = D0 = V0 = 0. (c) ⇒ (a): folgt aus Satz 2.8. 34 4 Das allgemeine Mehrperiodenmodell Satz 4.5 (fundamental theorem of asset pricing) Das Marktmodell ist genau dann arbitragefrei, wenn P 6= ∅. In diesem Fall ∗ existiert P ∗ ∈ P mit beschränkter Dichte dP . dP Bemerkung Das Theorem wurde in dieser Version bewiesen in: Dalang, Morton, Willinger. Equivalent martingale measures and no arbitrage in stochastic securities market models, 1989. Wir beweisen ⇒“ nur in dem Spezialfall |Ω| < ∞ (siehe ” Harrison, Pliska 1981). Beweis. ⇐“ Sei H = (H 0 , H) selbstfinanzierend mit H beschränkt. Es gelte ” V0 (H) = 0 und VN (H) ≥ 0, P -f.s. Wegen Lemma 4.2 (d) genügt es zu zeigen, dass P (VN (H) > 0) = 0. Sei P ∗ ∈ P. Da P ∗ ∼ P , gilt auch VN (H) ≥ 0, P ∗ -f.s. Mit Satz 4.4 (c) folgt E∗ (VN (H)) = (1 + r)N E∗ (DN (H)) = 0. Damit folgt VN (H) = 0, P ∗ -f.s. und somit P -f.s. ⇒“ Beweisskizze für den Fall |Ω| = K < ∞. Sei Ω = {ω1 , . . . , ωK } und p = ” (p1 , . . . , pK ) = (P ({ω1 }), . . . , P ({ωK })). Wir können annehmen: pi > 0 für alle i ∈ {1, . . . , K} (falls nicht, verkleinere Ω). Sei X die Menge aller reellen Zufallsvariablen auf (Ω, 2Ω ). Die Abbildung ψ : X → RK , X 7→ (X(ω1 ), . . . , X(ωK )) ist eine Bijektion. Setze X + = {X ∈ X : E(X) ≥ 1 und X ≥ 0}. Beachte: Das Bild von X + unter ψ ist die konvexe Menge C := {x ∈ RK + : x · p ≥ 1}. Sei X 0 := {X ∈ X : ∃ eine s.f. Strategie H mit V0 (H) = 0 und VN (H) = X}. Dann ist A := ψ(X 0 ) ein linearer Teilraum von RK . Da es keine Arbitragemöglichkeit gibt, folgt X 0 ∩ X + = ∅. Das heißt A ∩ C = ∅. Mit einem Trennungssatz im RK (vgl. Aufgabe 3, Übungsblatt 5) folgt: es exisitert y ∈ RK mit (i) (ii) y · x = 0, y · x > 0, für alle x ∈ A für alle x ∈ C 35 4 Das allgemeine Mehrperiodenmodell Skizze: C y x1 x2 A Beachte: yi > 0 für alle i ∈ {1, . . . , k}. Begründung hierfür: Sei ei der i-te Einheitsvektor. Dann ist 1 1 ei · p = 1, also ei ∈ C. pi pi 1 1 Damit folgt 0 < y · pi ei = pi yi , also yi > 0. Definiere Q wie folgt: yi Q({ωi }) := Pn j=1 yi . Sei nun X ∈ X 0 . Dann gilt ψ(X) ∈ A und E (X) = Q K X yi X(ωi ) = y · ψ(X) = 0. i=1 Mit Satz 4.4 ((c) ⇒ (a)) folgt, dass Q ein Martingalmaß ist. Da yi > 0 und pi > 0 für alle i ∈ {1, . . . , K}, sind Q und P äquivalent. Nun zur Bewertung von Derivaten. Wir identifizieren ein Derivat mit einer FN messbaren Zufallsvariable X, die den Payoff zur Zeit N beschreibt. Definition Ein (Fn )-adaptierter Prozess (Skd+1 )k∈{0,...,N } heißt arbitragefreier Preisprod+1 zess (APP) für ein Derivat X, falls SN = X, f.s. und das erweiterte Modell (S 0 , S 1 , . . . , S d+1 ) arbitragefrei ist. Im Folgenden nehmen wir an, dass der nicht-erweiterte Markt (S 0 , . . . , S d ) arbitragefrei ist. D.h. P 6= ∅, wobei im Folgenden P die Menge der äquivalenten Martingalmaße im nicht-erweiterten Modell sei. Zunächst zeigen wir: Ist X replizierbar, so existiert genau ein arbitragefreier Preisprozess. 36 4 Das allgemeine Mehrperiodenmodell Definition Ein Derivat heißt replizierbar, falls ein H selbstfinanzierend existiert mit VN (H) = X. Wir betrachten nur Derivate in R := {VN (H) : H = (H 0 , H) selbstfinanzierend mit H beschränkt}. Satz 4.6 Sei X ∈ R mit X = VN (H). Dann ist Vk := Vk (H), k ∈ {0, . . . , N }, der einzige arbitragefreie Preisprozess für X. Beweis. 1. Wir zeigen zuerst, dass (Vk ) ein arbitragefreier Preisprozess ist. Sei dazu P ∗ ∈ P. Nach Satz 4.4 ist SVk0 ein P ∗ -Martingal. Also ist P ∗ auch ein äquik valentes Martingalmaß für den erweiterten Markt (S 0 , . . . , S d , V ). Mit Theorem 4.5 folgt, dass das erweiterte Modell arbitragefrei ist. 2. Eindeutigkeit: Sei (Skd+1 ) ein arbitragefreier Preisprozess für X. Wir zeigen: Skd+1 = Vk , f.s. Annahme: P (Skd+1 > Vk ) > 0 für ein k < N . Definiere für alle n ≥ k + 1: G0n := Hn0 + S10 (Skd+1 − Vk ) · 1{S d+1 >Vk } k k Gn := Hn · 1{S d+1 >Vk } k Gd+1 := −1 d+1 n {S >Vk } k Interpretation von (G , G, G ): Zur Zeit k verkaufe das Derivat und kaufe ” das replizierende Portfolio, falls Skd+1 > Vk .“Beachte: (G0 , G, Gd+1 ) ist selbstfinanzierend zwischen k und k + 1: 0 d+1 d+1 G0k+1 Sk0 + Gk+1 · Sk + Gd+1 = (H k+1 · S k + Skd+1 − Vk − Skd+1 ) · 1{S d+1 >Vk } k+1 Sk k = 0. Die Selbstfinanzierungseigenschaft nach k +1 ist klar. Vor k seien die Positionen = 0. Weiterhin gilt für den Wert von (G0 , G, Gd+1 ) zur Zeit N : 0 G0N SN + GN · SN + d+1 Gd+1 N SN 0 SN d+1 = VN (H) + 0 (Sk − Vk ) − X · 1{S d+1 >Vk } k Sk d+1 N −k = (1 + r) (Sk − Vk ) · 1{S d+1 >Vk } ≥ 0, f.s. k 37 4 Das allgemeine Mehrperiodenmodell d+1 0 und P (G0N SN + GN · SN + Gd+1 > 0) > 0. D.h. (G0 , G, Gd+1 ) ist eine N SN Arbitragemöglichkeit im erweiterten Modell (S 0 , . . . , S d+1 ). Also Skd+1 ≤ Vk , f.s. Analog kann man zeigen: Skd+1 ≥ Vk , f.s. Somit gilt: Skd+1 = Vk , f.s. Nun zu allgemeinen Derivaten, insbesondere zu nicht-replizierbaren Derivaten. Notation: Sei X eine FN -messbare Zufallsvariable. Dann π(X) := {y ∈ R | es ex. ein APP (Skd+1 )k∈{0,...,N } für X mit S0d+1 = y}. Beachte: da F0 = {∅, Ω}, ist S0d+1 immer konstant. Satz 4.7 Sei X FN -messbar. Dann ist π(X) 6= ∅ und X ∗ π(X) = {E : es ex. P ∗ ∈ P mit E∗ |X| < ∞}. 0 SN (4.1) Beweis. 1. Wir zeigen zunächst (4.1) ⊂“: Sei y ∈ π(X). Dann existiert ein ar” d+1 bitragefreier Preisprozess (Skd+1 ) mit S0d+1 = y und SN = X. Mit Theorem 4.5 folgt die Existenz eines äquivalenten Martingalmaßes P ∗ für das erweiterte S d+1 Modell (S 0 , . . . , S d+1 ). Insbesondere gilt P ∗ ∈ P. Da Sk 0 Martingal bezüglich k ∗ ∗ ∗ P ist, ist X integrierbar bezüglich P und E SX0 = S0d+1 = y. Also y ∈ RS. N “⊃“: Sei P ∗ ∈ P mit E∗ |X| < ∞. Setze Skd+1 := (1 + r)−(N −k) E∗ (X | Fk ). Dann ist Skd+1 = (1 + r)−N E∗ (X | Fk ) Sk0 ein P ∗ -Martingal. Also ist P ∗ ein äquivalentes Martingalmaß für das erweiterte 0 d+1 0 d+1 Modell (S ,. . . , S ). Mit Theorem 4.5 folgt (S , . . . , S ) ist arbitragefrei. ⇒ E∗ Skd+1 Sk0 = y ∈ π(X). 2. Wir zeigen jetzt π(X) 6= ∅. 1 Dazu sei Pe das Wahrscheinlichkeitsmaß mit Dichte ddPP = a 1+|X| , wobei a = −1 1 E 1+|X| . Beachte Pe ∼ P . Nach Theorem 4.5 existiert ein P ∗ ∈ P mit e 38 5 dP ∗ dPe Konvergenz des Binomialmodells gegen das Black-Scholes-Modell beschränkt. Nun gilt ∗ Pe E (|X|) = E ∗ dP ∗ dP |X| |X| = aE < ∞. dPe dPe 1 + |X| Also ist die RS von 4.1 nichtleer und folglich π(X) 6= ∅. Wichtige Beobachtung: Allgemein gilt: Jeder arbitragefreie Preis einer Option ist diskontierter Erwartungswert des Payoffs unter einem ÄMM. 5 Konvergenz des Binomialmodells gegen das Black-ScholesModell Erinnerung: Man schreibt N (µ, σ 2 ) für die Normalverteilung mit Mittelwert µ ∈ R und Standardabweichung σ ∈ R≥0 . Seien X∞ , X1 , X2 , . . . Zufallsvariablen und F∞ , F1 , F2 , . . . die zugehörigen Verteilungsfunktionen (d.h. Fi (y) = P (Xi ≤ y), y ∈ R). Die Folge (Xn )n≥1 konvergert in Verteilung gegen X∞ , falls für jede Stetigkeitsstelle y von F∞ gilt: lim Fn (y) = F∞ (y). n→∞ In diesem Fall schreibt man Xn −→ X∞ . d Zentraler Grenzwertsatz: Sind X1 , X2 , . . . iid mit E(Xi ) = µ ∈ R und Var(Xi ) = σ 2 ∈ (0, ∞), dann gilt Pn d i=1 (Xi − µ) √ −→ G, σ n wobei G N (0, 1)-verteilt ist. Bemerkung Die Verteilungsfunktion von G ist gegeben durch 1 Φ(x) = √ 2π Zx y2 e− 2 dy. −∞ Beachte, dass Φ überall stetig ist. Also gilt für alle x ∈ R lim Fn (x) = Φ(x), n→∞ 39 5 Konvergenz des Binomialmodells gegen das Black-Scholes-Modell wobei Fn die Verteilungsfunktion von mäßig gegen Φ konvergiert. (Übung!) Pn (Xi −µ) i=1 √ σ n . Man kann zeigen, dass Fn gleich- Betrachte nun die einfache symmetrische Irrfahrt: sei (Xk )k≥1 iid mit 1 P (Xk = 1) = P (Xk = −1) = 2 und Mn := n X Xk , n ∈ N. k=1 Aus Kapitel 2 wissen wir bereits: (Mn ) ist ein Martingal bezüglich (Fn ), wobei Fn = σ(X1 , . . . , Xn ). Für N ∈ N definieren wir die skalierte Irrfahrt (N ) Wt 1 := √ MbN tc , N t ∈ R≥0 , wobei bxc := max{k ∈ Z | k ≤ x} die Gaußklammer von x ist. Wogegen konvergiert Wt (N ) , falls N → ∞? Lemma √ 5.1 (N ) d Wt → tG, wobei G N (0, 1)-verteilt ist. Beweis. Zunächst beachte, dass (N ) Wt 1 = √ MbN tc = N Sei GN die Verteilungsfunktion von Wt p P tc bN tc bN X √ pk=1 k . N bN tc (N ) und FN die Verteilungsfunktion von PbN tc k=1 Xk p . bN tc Da E(Xk ) = 0 und Var(Xk ) = 1, folgt aus dem zentralen Grenzwertsatz und der Bemerkung oben: lim sup |FN (x) − Φ(x)| = 0. N →∞ x∈R Weitergin gilt p bN tc √ lim √ = t. N →∞ N 40 5 Konvergenz des Binomialmodells gegen das Black-Scholes-Modell Also gilt, für x ∈ R, ! p P tc bN tc bN X k √ pk=1 GN (x) = P ≤x N bN tc ! √ PbN tc X N k pk=1 =P ≤p x bN tc bN tc √ N = FN ( p x) bN tc 1 N →∞ −→ Φ( √ x) t 1 = P (G ≤ √ x) t √ = P ( tG ≤ x). √ Beachte: tG ist N (0, t)-verteilt. Wir haben gezeigt: Für festes t ∈ R≥0 konvergiert (N ) (N ) Wt gegen eine N (0, t)-verteilte Zufallsvariable. Man kann weiter zeigen: Wt konvergiert simultan für alle t ∈ R≥0 und zwar gegen die Brownsche Bewegung. Definition Eine Familie (Wt )t∈R≥0 von Zufallsvariablen auf einem Wahrscheinlichkeitsraum (Ω, F, P ) heißt Brownsche Bewegung, falls gilt: (1) W0 = 0, (2) ∀ω ∈ Ω ist die Abbildung t 7→ Wt (ω) stetig, (3) für alle 0 = t0 < t1 < . . . < tn sind die Zuwächse Wtn − Wtn−1 , . . . , Wt1 − Wt0 unabhängig, (4) für alle 0 ≤ s ≤ t gilt: Die Verteilung von Wt − Ws ist N (0, t − s). Wir formulieren jetzt einen funktionalen zentralen Grenzwertsatz. Dazu definieren wir folgenden stetigen Prozess. ( √1 MbN tc , N t ∈ Z≥0 (N ) N Vt := linear, N t ∈ (bN tc, bN tc + 1) 41 5 Konvergenz des Binomialmodells gegen das Black-Scholes-Modell Satz 5.2 Sei T ∈ R≥0 und ψ : C[0, T ] → R beschränkta und stetig bezüglich der k · k∞ Norm (d.h. für f, fn ∈ C[0, T ] mit limn→∞ kfn − f k∞ = 0 folgt limn→∞ ψ(fn ) = ψ(f )). Dann gilt lim Eψ((Vt (N ) N →∞ )t∈[0,T ] ) = Eψ((Wt )t∈[0,T ] ), wobei (Wt ) eine Brownsche Bewegung ist. a Zum Beispiel ψ(f ) = f (T ) oder ψ(f ) = max{f (t) : t ∈ [0, T ]}. Beweis. Siehe fortgeschrittene Stochastik-Vorlesungen. Jetzt: Konvergenz des skalierten Binomialmodells. Wir betrachten zunächst einen Spezialfall: Annahme (A): σ σ r = 0, u = uN = 1 + √ , d = dN = 1 − √ , σ ∈ (0, ∞). N N N sei hinreichend groß, sodass d > 0. Dann gilt: σ √ 1+r−d 1 p = = N σ = . √ u−d 2 N 2 ∗ Unter dem äquivalenten Martingalmaß ist die Anzahl der us bis zur Zeit k binomialverteilt mit den Parametern k und p∗ = 12 (vgl. Beweis zu Korrolar 3.4). Setze Ui := 12 (Xi + 1) und beachte ( 1, Xi = 1 Ui = . 0, Xi = −1 Somit ist Zk := Es gilt Pk i=1 Zk = Ui ebenfalls binomialverteilt mit den Parametern k und 12 . k X 1 i=1 42 2 (Xi + 1) = 1 2 k+ k X i=1 ! Xi 1 = (k + Mk ). 2 5 Konvergenz des Binomialmodells gegen das Black-Scholes-Modell Also können wir den Preisprozess S auch so modellieren: 1 1 Sk = S0 uZk dk−Zk = S0 u 2 (k+Mk ) d 2 (k−Mk ) . Skalierter Preisprozess (N ) St 1 1 := SbN tc = S0 u 2 (bN tc+MbN tc ) d 2 (bN tc−MbN tc ) . Beachte: u und d hängen von N ab. Satz 5.3 Es gelte Annahme (A). Dann gilt für alle t ≥ 0 (N ) St d −→ S0 eσWt − σ2 t 2 , wobei (Wt ) eine Brownsche Bewegung ist. Für den Beweis benötigen wir: Lemma 5.4 (Slutsky) Seien a, b ∈ R, X eine Zufallsvariable und (Xn ), (An ) und (Bn ) Folgen von d Zufallsvariablen mit Xn → X, An → a in Wahrscheinlichkeit und Bn → b in Wahrscheinlichkeit. Dann gilt: d An + Bn Xn −→ a + bX. Beweis. Stochastik 2-Vorlesung. Beweis von Satz 5.3. Es genügt zu zeigen, dass log(St (N ) d ) −→ log(S0 ) + σWt − σ2 t. 2 Beachte dazu: log(St (N ) 1 1 ) = log(S0 ) + (bN tc + MbN tc ) log(u) + (bN tc − MbN tc ) log(d). (5.1) 2 2 Die Taylor-Entwicklung von log(1 + x) in 0 ergibt: 1 log(1 + x) = x − x2 + R(x), 2 43 5 Konvergenz des Binomialmodells gegen das Black-Scholes-Modell wobei R(x) ∈ O(x3 ). Also gilt log(u) = log 1 + log(d) = log 1 − Dabei ist R (N ) log(St ) ± √σN σ σ 1 σ2 σ √ =√ − +R √ 2N N N N 2 σ σ 1σ σ √ = −√ − + R −√ . 2N N N N ∈ O(N − 2 ). Aus (5.1) folgt, dass 3 1 σ 1 σ2 σ = log(S0 ) + (bN tc + MbN tc ) √ − +R √ 2 2N N N 2 1 σ 1σ σ + (bN tc − MbN tc ) − √ − + R −√ 2 2N N N 3 1 σ2 σ −2 − 32 = log(S0 ) + bN tc − + O(N ) + MbN tc √ + O(N ) 2N N e = AN + XN + YN , wobei 1 σ2 − 32 e AN = log(S0 ) + bN tc − + O(N ) , 2N MbN tc XN = σ √ N und MbN tc YN = √ O(N −1 ). N d d Mit Lemma 5.1 gilt XN → σWt . Lemma 5.4 impliziert YN → 0. Da der Limes konstant ist, gilt auch YN → 0 in Wahrscheinlichkeit. Somit gilt eN + YN −→ log(S0 ) − 1 σ 2 t in Wahrscheinlichkeit. AN := A 2 Wieder mit Lemma 5.4 folgt nun log(St (N ) 1 d ) = AN + XN −→ log(S0 ) − σ 2 t + σWt . 2 Annahme (B): rN = 44 r √σ − √σ , u = uN = e N , d = dN = e N , σ ∈ (0, ∞), r ∈ [0, ∞), N s.d. uN > 1+rN . N 5 Konvergenz des Binomialmodells gegen das Black-Scholes-Modell Beachte: Unter (B) hängt p∗N = 1+ r n − √σ −e √σ N N − √σ N e −e von N ab. Betrachte deshalb einen Array von Zufallsvariablen: Für alle N sei (XN,k )k≥1 iid. mit Setze MN,k und P (XN,k = −1) = 1 − p∗N . P (XN,k = 1) = p∗N P := ki=1 XN,i . Preis im Binomialmodell mit N Schritten: 1 1 Sk = S0 u 2 (k+MN,k ) d 2 (k−MN,k ) 1 √σ N = S0 e 2 = S0 e √σ N (k+MN,k ) − 12 e MN,k √σ N (k−MN,k ) . Skalierter Preisprozess: (N ) St := SbN tc = S0 e √σ N MN,bN tc t≥0 , (5.2) Satz 5.5 Es gelte Annahme (B). Dann gilt für alle t ≥ 0 (N ) St d −→ S0 eσWt +(r− σ2 )t 2 . Beweisskizze. Es genügt zu zeigen log(St (N ) d ) −→ log(S0 ) + σWt + (r − Betrachte dazu die momenterzeugende Funktion von ϕN (ϑ) := Ee ϑ √1 MN,bN tc N σ2 )t. 2 √1 MN,bN tc N ϑ ≥ 0. , Es gilt PbN tc ϑ √1 ϕN (ϑ) = Ee = k=1 N bN tc Y ϑ √1 e N XN,k −ϑ √1 p∗N + e N (1 − p∗N ) k=1 = e √ϑ N − √ϑ p∗N + e N bN tc (1 − p∗N ) . 45 5 Konvergenz des Binomialmodells gegen das Black-Scholes-Modell Man kann zeigen: 2 t ϑ2 + rϑ − ϑσ σ 2 lim ϕN (ϑ) = e N →∞ . Dabei ist die rechte Seite die momenterzeugende Funktionvon N σr − σ2 t, t . 2 D.h. die Limes-Verteilung von √σN MN,bN tc ist N r − σ2 t, σ 2 t . Damit folgt schließlich σ σ2 d (N ) log St = log S0 + √ MN,bN tc −→ log S0 + σWt + r − t. 2 N Das Black-Scholes-Modell Im Black-Scholes-Modell wird der Preis des riskanten Papiers modelliert als 2 σWt + r− σ2 t St = S0 e , t ∈ R≥0 . Dabei ist (Wt ) Brownsche Bewegung unter dem (man kann zeigen: es gibt nur eins) äquivalenten Martingalmaß P ∗ . Bemerkung: t = Zeit in Jahren, σ = Volatilität, r = kontinuierlicher Zins. Der Wert St0 des risikolosen Papiers ist gegeben durch St0 = ert , t ∈ R≥0 . Kontinuierliche Verzinsung bedeutet: Zinsen erwirtschaften sofort selbst Zinsen (Zinseszins). Anders formuliert: Die Verzinsungsperioden sind infinitesimal klein. Sei N die Anzahl der Verzinsungsperioden bis t > 0. Dann N rt lim 1 + = ert . (5.3) N →∞ N Definition Der Black-Scholes-Preis einer Call-Option mit stike K und Fälligkeit T > 0 ist definiert durch BS_call(S0 , K, T, σ, r) := e−rT E∗ ((ST − K)+ ). 46 5 Konvergenz des Binomialmodells gegen das Black-Scholes-Modell Satz 5.6 ( BS-Formel“) ” Es gilt BS_call(S0 , K, T, σ, r) = S0 Φ(d1 ) − e−rT KΦ(d2 ), wobei log d1 = S0 K + r+ √ σ T σ2 2 T (5.4) √ und d2 = d1 − σ T . √ d Beweis. Sei G N (0, 1)-verteilt unter P ∗ . Dann gilt σ T G = σWT und somit e−rT E∗ [(ST − K)+ ] = e−rT E∗ [(S0 eσWT + r− σ2 T √ σ − K)+ ] = e−rT E∗ [(S0 eσ T G+ r− 2 T − K)+ ] Z √ y2 σ 1 −rT =e (S0 eσ T y+ r− 2 T − K)+ √ e− 2 dy. 2π Die rechte Seite lässt sich vereinfachen zu S0 Φ(d1 ) − e−rT KΦ(d2 ). Satz 5.7 q q T T σ N −σ N rT Sei rN = N , uN = e , dN = e . Dann gilt lim CRR_call(S0 , K, N, uN , dN , rN ) = BS_call(S0 , K, T, σ, r). N →∞ Beweisskizze. Es ist CRR_call(S0 , K, N, uN , dN , rN ) = (1 + rN )−N E(S1 (N ) − K)+ , wobei S (N ) wie in (5.2) definiert ist. Aus (5.3) folgt (1 + rN )−N → e−rT . Mit Satz 5.5 folgt (N ) S1 d −→ S0 e √ f1 + r− σ2 T σ TW 2 , f Brownsche Bewegung unter P . Damit kann man zeigen wobei W lim CRR_call = e N →∞ −rT E[(S0 e fT + r− σ2 T σW 2 − K)+ ]. Praktische Notiz: 47 5 Konvergenz des Binomialmodells gegen das Black-Scholes-Modell 1) Die Black-Scholes-Formel (5.4) kann verwendet werden, um σ zu bestimmen: Wähle σ = σimp so, dass BS_call(S0 , K, T, σimp , r) = Marktpreis des Calls. σimp heißt implizite Volatilität. 2) Das BS-Modell mit σimp kann dann zur Bewertung von exotischen Optionen verwendet werden. 48 III Portfolio-Optimierung Bei der Steuerung von Portfolien hat man häufig die Wahl zwischen riskanten und weniger ristkanten Wertpapieren/Anlageformen. Üblicherweise gilt: je riskanter das Papier/die Anlage, desto größer die Rendite. Frage: Was ist die optimale Zusammensetzung des Portfolios? Es gibt viele Modelle und Ansätze, um diese Frage zu beantworten. Wir untersuchen Ansätze, die Nutzenfunktionen verwenden. Annahme: Ein ökonomischer Agent (= Wirtschaftssubjekt) will die Wertentwicklung eines Portfolios bis zu einem Zeitpunkt T < ∞ optimieren. Wir identifizieren den Portfoliowert zur Zeit T mit einer Zufallsvariable X. Die Menge aller implementierbaren X sei X . Alle X ∈ X seien auf demselben Wahrscheinlichkeitsraum (Ω, F, P ) definiert. Definition U : R → R ∪ {−∞} heißt Nutzenfunktion, falls U konkav und nicht-fallend ist. Beispiele (i) Logarithmische Nutzenfunktion ( log(x), x > 0 U (x) = −∞, x≤0 (ii) Potenznutzenfunktion ( U (x) = x1−η , 1−η x≥0 −∞, x < 0 wobei η > 0, η 6= 1 (Risikoaversionsparameter). (iii) Exponentielle Nutzenfunktion U (x) = −e−λx , wobei λ > 0. Jede Nutzenfunktion U definiert eine Präferenzrelation auf X wie folgt: XY :⇔ EU (X) ≤ EU (Y ). Hier nehmen wir an, dass EU (X) und EU (Y ) definiert sind. 49 6 Nutzenmaximierung im Binomialmodell Beispiel Sei X eine Zufallsvariable mit P (X = 500) = P (X = 1500) = 12 und Y = 1000 konstant. Dann gilt E log Y > E log X (siehe Jensen-Ungleichung). Also bevorzugt ein Agent mit logarithmischen Nutzenpräferenzen die Auszahlung Y gegenüber X. 6 Nutzenmaximierung im Binomialmodell Wir machen dieselben Annahmen wie in Kapitel 3. Insbesondere gelte Sn = S0 n Y Yi , n ∈ {0, . . . , N }, i=1 wobei Y1 , . . . , YN iid unter P mit P (Yi = u) = p und P (Yi = d) = 1 − p. Ziel: Bestimme den selbstfinanzierenden Portfolioprozess (G, H) mit Startwert V0 = v, sodass der erwartete Nutzen EU (VN ) maximal wird. Wir formulieren zunächst das Ziel geeignet um. Fixiere dazu v ∈ (0, ∞). Sei (G, H) ein selbstfinanzierender Portfolioprozess, sodass für den zugehörigen Wertprozess (Vn ) gilt: V0 = v Vn > 0, f.s. für alle n ∈ {0, . . . , N }. Setze πn+1 := Hn+1 Sn Vn (Prozentsatz des Portfoliowertes im riskanten Papier). Da (G, H) selbstfinanzierend ist, gilt Gn+1 = Also gilt 1 (Vn Bn − Hn+1 Sn ) für alle n < N . Vn+1 = Gn+1 Bn+1 + Hn+1 Sn+1 Bn+1 Sn+1 = (Vn − Hn+1 Sn ) + πn+1 Vn Bn Sn = (1 + r)Vn − (1 + r)πn+1 Vn + πn+1 Vn Yn+1 = [(1 + r) + πn+1 (Yn+1 − (1 + r))]Vn . Der Portfolioprozess (G, H) ist eindeutig bestimmt durch V0 = v und die Strategie (πn )n∈{1,...,N } (vgl. Lemma 4.1). Für den zugehörigen Wertprozess (Vn ) = (Vnπ (v)) gilt V0 = v, Vn+1 = Vn [1 + r + πn+1 (Yn+1 − (1 + r))]. 50 6 Nutzenmaximierung im Binomialmodell Nutzenmaximierungsproblem: Bestimme π so, dass EU (VNπ (v)) maximal wird. 1. Lösungsmethode: Dynamische Programmierung Für alle n ≤ N und v ∈ (0, ∞) setze Vkn,π (v) := v k Y (1 + r + πj (Yj − (1 + r))), k ∈ {n, . . . , N }. j=n+1 Wir bezeichnen mit An (v) := {π : π ist previsibel und f.alle k ∈ {n, . . . , N } gilt Vkn,π (v) > 0} die Menge aller zulässigen Strategien ab n. Die Funktion Wn (v) := sup{EU (VNn,π (v)) : π ∈ An (v)} heißt Wertfunktion zur Zeit n. π ∈ An (v) heißt optimal für Wn (v), falls EU (VNn,π (v)) = Wn (v). Man kann die Menge der zulässigen Strategien reduzieren: sei Ãn (v) die Menge aller Prozesse (πk )k∈{n+1,...,N } , für die gilt: (i) πn+1 ist konstant, (ii) πk ist σ(Yn+1 , . . . , Yk−1 )-messbar, für k ∈ {n + 2, . . . , N }, (iii) Vkn,π (v) > 0, für alle k ∈ {n + 1, . . . , N }. Man kann zeigen: Wn (v) = sup{EU (VNn,π (v)) : π ∈ Ãn (v)}. Satz 6.1 (Bellman-Prinzip) Für alle n < N und v ∈ (0, ∞) gilt: Wn (v) = sup E(Wn+1 (v[1 + r + c(Yn+1 − (1 + r))])). (6.1) c∈R 51 6 Nutzenmaximierung im Binomialmodell Beweis. ≤: Sei π = (πn+1 , . . . , πN ) ∈ Ãn (v). Dann b := πn+1 ∈ R. Setze vu := vu (b) := v[1+r +b(u−(1+r))] und vd := vd (b) := v[1+r +b(d−(1+r))]. Definiere π̂ := (πn+2 , . . . , πN ). Man kann zeigen: es gibt α ∈ Ãn+1 (vu ) und β ∈ Ãn+1 (vd ) mit ( α, falls Yn+1 = u π̂ = β, falls Yn+1 = d. Also EU (VNn,π (v)) = E[1{Yn+1 =u} U (VNn+1,α (vu )) + 1{Yn+1 =d} U (VNn+1,β (vd ))]. (2) Beachte E[1{Yn+1 =u} U (VNn+1,α (vu ))] = E E[1{Yn+1 =u} U (VNn+1,α (vu ))|σ(Yn+1 )] = E 1{Yn+1 =u} E[U (VNn+1,α (vu ))] . Der 2. Term auf der RS von (2) kann analog umgeformt werden. Also EU (VNn,π (v)) = E[1{Yn+1 =u} E[U (VNn+1,α (vu ))] + 1{Yn+1 =d} E[U (VNn+1,β (vd ))]] ≤ E 1{Yn+1 =u} Wn+1 (vu ) + 1{Yn+1 =d} Wn+1 (vd ) = E [Wn+1 (v[1 + r + b(Yn+1 − (1 + r))])] ≤ sup E [Wn+1 (v[1 + r + c(Yn+1 − (1 + r))])] . c∈R ≥: Annahme: die rechte Seite von (6.1) ist größer als die Linke. Dann existiert ε > 0 und c ∈ R mit Wn (v) < −ε + E[Wn+1 (v[1 + r + c(Yn+1 − (1 + r))])]. Wähle α ∈ Ãn+1 (vu (c)) und β ∈ Ãn+1 (vd (c)) so, dass E[U (VNn+1,α (vu (c))] > − 2ε + Wn+1 (vu (c)) und E[U (VNn+1,β (vd (c))] > − 2ε + Wn+1 (vd (c)). Definiere π = (πk )k∈{n+1,...,N } wie folgt: πn+1 ( αk , Yn+1 = u = c und für k > n + 1 sei πk = βk , Yn+1 = d. Dann ist π ∈ Ãn (v) und VNn,π (v) = VNn+1,α (vu (c))1{Yn+1 =u} + VNn+1,β (vd (c))1{Yn+1 =d} . 52 6 Nutzenmaximierung im Binomialmodell Weiterhin E[U (VNn,π (v))] = E[E[U (VNn+1,α (vu (c)))1{Yn+1 =u} + U (VNn+1,β (vd (c)))1{Yn+1 =d} |σ(Yn+1 )]] h i = E E[U (VNn+1,α (vu (c)))]1{Yn+1 =u} + E[U (VNn+1,β (vd (c)))]1{Yn+1 =d} ε ≥ − + E[Wn+1 (vy (c))|y=Yn+1 ] 2 ε = − + E[Wn+1 (v[1 + r + c(Yn+1 − (1 + r))])] 2 ε ε > − + ε + Wn (v) = + Wn (v). 2 2 Dies ist ein Widerspruch zur Definition von Wn (v). Wegen des Bellman-Prinzips lässt sich Wn rekursiv bestimmen. Es gilt WN (v) = U (v). Mit (6.1) kann man nun WN −1 bestimmen, danach WN −2 , usw. Satz 6.2 Sei U = log. Dann gilt für alle v ∈ (0, ∞) und n ≤ N Wn (v) = log(v) + cn , wobei (6.2) p 1−p cn := (N − n) (1 + r) + p log ∗ + (1 − p) log . p 1 − p∗ Die Strategie πk = π b := (1 + r)(p − p∗ ) , p∗ (1 − p∗ )(u − d) k ∈ {1, . . . , N }, (6.3) ist in An (v) und optimal für Wn (v). Beweis. 1. Wir zeigen zunächst, dass π b ∈ An (v) für alle n ∈ {1, . . . , N } gilt. Beachte dazu, dass 1+r+π b(Yj − (1 + r)) nur zwei Werte annehmen kann: 53 6 Nutzenmaximierung im Binomialmodell a) (1 + r)(p − p∗ ) (u − (1 + r)) p∗ (1 − p∗ )(u − d) (1 + r)(p − p∗ ) =1+r+ p∗ p = (1 + r) ∗ > 0. p 1+r+π b(u − (1 + r)) = 1 + r + b) (1 + r)(p − p∗ ) (d − (1 + r)) p∗ (1 − p∗ )(u − d) (1 + r)(p − p∗ ) =1+r− 1 − p∗ 1−p = (1 + r) > 0. 1 − p∗ 1+r+π b(d − (1 + r)) = 1 + r + Damit folgt für alle v ∈ (0, ∞), n ∈ {0, . . . , N } und k ∈ {n, . . . , N } Vkn,bπ (v) > 0. Also ist π b zulässig ab jedem n. 2. Wir zeigen jetzt (6.2) und die Optimalität von (6.3) durch Rückwärtsinduktion. n = N : WN (v) = log(v) X n + 1 → n: Es gelte Wn+1 (v) + log(v) + cn+1 für alle v ∈ (0, ∞). Mit (6.1) und der Induktionsvoraussetzung folgt Wn (v) = sup EWn+1 (v[1 + r + π(Yn+1 − (1 + r))]) π∈R = cn+1 + sup E log(v[1 + r + π(Yn+1 − (1 + r))]). π∈R Beachte f (π) :=E log(v[1 + r + π(Yn+1 − (1 + r))]) (3) = log v + p log(1 + r + π(u − (1 + r))) + (1 − p) log(1 + r + π(d − (1 + r))) und df u − (1 + r) d − (1 + r) (π) = p + (1 − p) . dπ 1 + r + π(u − (1 + r)) 1 + r + π(d − (1 + r)) 54 6 Die BEO df (π) dπ Nutzenmaximierung im Binomialmodell = 0 impliziert p(u−(1+r))(1+r+π(d−(1+r)))+(1−p)(d−(1+r))(1+r+π(u−(1+r)) = 0, und damit 0 = π[p(d − (1 + r))(u − (1 + r)) + (1 − p)(d − (1 + r))(u − (1 + r))] + p(1 + r)(u − (1 + r)) + (1 − p)(1 + r)(d − (1 + r)). Weiterhin folgt π= = p(1 + r)[u − d] − (1 + r)[1 + r − d] [1 + r − d][u − (1 + r)] p(1 + r) − (1 + r) 1+r−d u−d 1+r−d u−(1+r) (u u−d u−d ∗ − d) (1 + r)(p − p ) − p∗ )(u − d) =π b. = Da d2 f (b π) dπ 2 p∗ (1 < 0, ist π b tatsächlich Maximalstelle. π b eingesetzt in (3) ergibt E log(v[1 + r + π b(Yn+1 − (1 + r))]) = log(v) + p log(1 + r + π b(u − 1 + r)) + (1 − p) log(1 + r + π b(d − (1 + r))) p 1−p = log(v) + p log (1 + r) ∗ + (1 − p) log (1 + r) p 1 − p∗ p 1−p = log(v) + log(1 + r) + p log ∗ + (1 − p) log . p 1 − p∗ Hieraus folgt weiter Wn (v) = cn+1 + log(v) + log(1 + r) + p log p 1−p + (1 − p) log ∗ p 1 − p∗ = log(v) + cn und π b ist optimale Portfoliostrategie zwischen n und n + 1. Bemerkung (Ökonomische Erkenntnisse) 1) Optimale Strategie unter logarithmischen Präferenzen: Investiere konstanten Prozentsatz des Portfoliowerts in das riskante Papier. 2) Falls p > p∗ , ist π b > 0 (sog. long position im riskanten Papier). Beachte, dass Sn in diesem Fall Bn ein Submartingal ist (siehe Satz 3.1). Falls p < p∗ , ist π b<0 Sn (sog. short position) und Bn ist ein Supermartingal. 55 6 Nutzenmaximierung im Binomialmodell 2. Lösungsmethode: Martingalmethode Sei X die Menge aller FN -messbaren Zufallsvariablen mit X > 0. Für alle v ∈ (0, ∞) setze X ∗ X (v) := X ∈ X : E =v . BN Aus Kapitel 3 wissen wir: Jedes X ∈ X (v) kann mit einem selbstfinanzierenden Portfolioprozess mit Startwert V0 = v repliziert werden (Verallgemeinerung von Satz 3.2). Aus Satz 4.4 folgt X ∗ Vn = Bn Dn = Bn E | Fn = (1 + r)−(N −n) E∗ (X | Fn ) > 0. BN Dies zeigt X (v) = {VN0,π : π ∈ A0 (v)}. Somit gilt W0 (v) = sup{EU (X) : X ∈ X (v)}. (6.5) Wir interpretieren E∗ BXN = v als Nebenbedingung und wählen einen LagrangeAnsatz um (6.5) zu lösen. Für alle λ > 0 sei X ∗ w(λ, b v) := sup EU (X) − λ E −v :X ∈X (6.6) BN Sei D = dP ∗ . dP Man kann zeigen (vgl. Übungsblatt 4, Aufgabe 3 b): D(ω) = p∗ p Z(ω) 1 − p∗ 1−p N −Z(ω) , wobei Z(ω) = |{1 ≤ j ≤ n : Yj (ω) = u}|. Beachte: D w(λ, b x) = λv + sup E U (X) − λ X : X ∈ X Bn (6.7) Bestimme zunächst das X ∈ X , das das Supremum in (6.7) annimmt. Für jedes Szenario ω wird D(ω) y 7→ U (y) − λ y BN maximal bei D(ω) 0 −1 bλ (ω) := (U ) y=X λ . BN 56 6 Nutzenmaximierung im Binomialmodell Falls U log-Nutzenfunktion ist, dann ist (U 0 )−1 (y) = y1 . Also bλ = 1 BN . X λ D Beachte: bλ X BN ∗ E Falls wir λ = 1 v ! 1 1 1 = E D = . λ D λ wählen, erhalten wir die Lösung des Problems (6.5) Lemma 6.3 Falls U = log, dann gilt b1/v ) = W0 (v). EU (X Beweis. Sei e (y) := max{log(x) − xy}, U x>0 y > 0, die konvex konjugierte Funktion von log. Es gilt 1 e U (y) = log −1 y und für alle x, y > 0: 1 log − 1 ≥ log(x) − xy. y Sei nun X ∈ X (v). Dann folgt aus (6.8) mit x = X und y = b1/v ) − 1 ≥ log(X) − X log(X (6.8) 1 b1 X /v = D vBN D . vBN Damit folgt 1 X b E log(X1/v ) − 1 ≥ E log(X) − E D = E log(X) − 1, v Bn und somit die Behauptung. Korollar 6.4 Für alle v ∈ (0, ∞) gilt b1/v ) W0 (v) = E log(X p 1−p = log(v) + N log(1 + r) + p log ∗ + (1 − p) log . p 1 − p∗ 57 7 Nutzenmaximierung großer Portfolien Beweis. Beachte: b1/v = vBN X p p∗ Z 1−p 1 − p∗ N −Z . Also gilt b1/v ) E log(X p 1−p = log(v) + log(BN ) + E(Z) log ∗ + E(N − Z) log p 1 − p∗ p 1−p = log(v) + N log(1 + r) + p log ∗ + (1 − p) log . p 1 − p∗ 7 Nutzenmaximierung großer Portfolien Ziel: optimales Portfolio in einem Markt mit vielen Wertpapieren. Wir wählen die Notation aus Kapitel 4, betrachten aber nur den Einperiodenfall, d.h. N = 1. Wir schreiben kurz H := H 1 für das Portfolio zwischen den Zeitpunkten 0 und 1. Beachte: H ∈ Rd+1 und für den Portfoliowert gilt: zur Zeit 0: zur Zeit 1: P V0 (H) = H · S 0 = di=0 H i S0i , P V1 (H) = H · S 1 = di=0 H i S1i . Nutzenmaximierungsproblem: Gegeben ein Anfangswert V0 = v ∈ (0, ∞) bestimme H so, dass der erwartete Nutzen von V1 (H) maximal wird. Dies ist ein Optimierungsproblem im Rd+1 mit der Nebenbedingung H · S 0 = v. Umformulierung: Setze π i := H i S0i v und π := (π 0 , π) := (π 0 , π 1 , . . . , π d ). Weiterhin sei S1i − S0i R := S0i i die Rendite von Papier i und R := (R0 , R) := (R0 , R1 , . . . , Rd ). 58 7 Nutzenmaximierung großer Portfolien Beachte: V1 (H) = v + H · (S 1 − S 0 ) = v + d X H i (S1i − S0i ) i=0 =v+v d X π i Ri = v(1 + π · R) i=0 =: V1 (π). Das Nutzenmaximierungsproblem ist äquivalent zu: Zielfunktion: Nebenbedingung: max EU (v(1 + π · R)), π∈Rd+1 d X π i = 1. (P) i=0 Häufig stellt man noch zusätzliche Nebenbedingungen. Zum Beispiel • ∀i : π i ≥ 0 (keine short position) • π 0 = 0 (kein risikoloses Papier) Für Methoden zur Lösung von (P) mit weiteren Nebenbedingungen: siehe Vorlesung zur Optimierung. Wir betrachten zunächst einen Spezialfall. Annahme (A): U (x) = −e−λx und R ist normalverteilt mit Mittelwert µ ∈ Rd und Kovarianzmatrix Σ = (σij )1≤i,j≤d (d.h. E(Ri ) = µi und Cov(Ri , Rj ) = σij ). Setze µ := (µ0 , µ) := (r, µ1 , . . . , µd ). Aus (A) folgt: Für alle π ∈ Rd+1 ist π · R normalverteilt mit E(π · R) = π · µ und Var(π · R) = π · Σ · π T . Erinnerung: Für eine Zufallsvariable X mit Verteilung N (a, b2 ) gilt E(eX ) = 2 ea+b /2 . Also EU (v(1 + π · R)) = −Ee−λv−λv(π·R) λ2 2 T = − exp −λv − λv(π · µ) + v π · Σ · π . 2 59 7 Nutzenmaximierung großer Portfolien Unter (A) ist also (P) äquivalent zu Zielfunktion: max π · µ − π∈Rd+1 Nebenbedingung: d X λv π · Σ · πT , 2 (PA) i π = 1. i=0 Setze e = (1, . . . , 1) ∈ Rd . Dann folgt aus der Nebenbedingung π 0 = 1 − π · e. (PA) ist somit äquivalent zu folgendem Problem ohne Nebenbedingung: max π · µ + (1 − π · e)r − π∈Rd λv π · Σ · πT 2 (PA’) Satz 7.1 Es gelte (A) und Σ sei invertierbar. Dann ist die Lösung von (PA’) π bT := 1 −1 Σ (µ − re)T . λv Beweis. Setze f (π) := r + π · (µ − re) − λv π · Σ · πT , 2 π ∈ Rd . Dann ist ∇f (π) = (µ − re)T − λvΣπ T . Setze ∇f (π) = 0. Dies liefert die Lösung ! πT = 1 −1 bT . Σ (µ − re)T = π λv Die Hessematrix von f ist −λvΣ. Da diese negativ semidefinit ist, ist π b Maximalstelle von f . Bemerkung 1) Ökonomische Erkenntnisse: a) Steigt λ, so werden die Risikopositionen kleiner. b) vb π ist konstant. D.h. die investierte Geldmenge ist unabhängig vom Anfangswert v. Das ist unrealistisch und spricht gegen die Verwendung der exponentiellen Nutzenfunktion. 60 7 Nutzenmaximierung großer Portfolien 2) Die Markowitz-Portfoliotheorie wählt direkt einen Mittelwert-Varianz-Ansatz. Lemma 7.2 Falls U die Potenz- oder log. Nutzenfunktion ist, dann hängt die Lösung von (P) nicht von v ab. Beweis. Für U (x) = x1−η 1−η gilt: EU (v(1 + π · R)) = U (v)E[(1 + π · R)1−η ]. Für U (x) = log(x) gilt: EU (v(1 + π · R)) = log(v) + E[log(1 + π · R)]. Damit folgt die Behauptung. 61 IV Optimales Stoppen Viele Entscheidungsprobleme lassen sich als Stopp-Probleme formulieren. 8 8.1 Stopp-Probleme mit endlichem Zeithorizont Eine allgemeine Methode zur Bestimmung optimaler Stoppzeiten Sei N ∈ N und (Xn )n∈{0,...,N } ein stochastischer Prozess mit E|Xn | < ∞ für alle n. Sei (Fn )n∈{0,...,N } eine Filtration mit Fn ⊃ σ(X0 , . . . , Xn ). T bezeichne die Menge aller Stoppzeiten bezüglich (Fn ) mit Werten in {0, 1, . . . , N }. Die Abbildung J : T → R, τ 7→ E(Xτ ) heißt Auszahlungsfunktion. Wir definieren V := sup J (τ ). τ ∈T Eine Stoppzeit τ ∗ ∈ T heißt optimal, falls J (τ ∗ ) = V . Lemma 8.1 a) J (τ ) ist definiert. b) V ∈ R. Beweis. a) |Xτ | ≤ |Xi |. Da jedes Xi integrierbar ist, gilt E|Xτ | < ∞. P b) V ≥ E(X0 ) ∈ R und V ≤ N i=0 E|Xi | < ∞. PN i=0 Definition Wir definieren einen Prozess (Yn )n∈{0,...,N } rekursiv wie folgt: YN = XN , Yn = max{Xn , E[Yn+1 | Fn ]}. Der Prozess (Yn )n∈{0,...,N } heißt Snell-Hülle von (Xn ). Interpretation: Yn ist die zur Zeit n maximale erwartete Auszahlung, falls nicht vor n gestoppt wurde. 62 8 Stopp-Probleme mit endlichem Zeithorizont Satz 8.2 a) Yn ∈ L1 (P ), für alle n ∈ {0, . . . , N }, b) (Yn ) ist ein Supermartingal, c) (Yn ) ist das kleinste Supermartingal, das (Xn ) dominiert. D.h. falls (Ye ) Supermartingal mit Yen ≥ Xn , n ∈ {0, . . . , N }, ist, dann gilt auch Yen ≥ Yn . Beweis. a) Induktion. n = N : YN = XN ist integrierbar. n → n − 1: Sei Yn integrierbar. Dann gilt mit der Jensen-Ungleichung E|E(Yn | Fn−1 )| ≤ EE(|Yn | | Fn−1 ) = E|Yn | < ∞. Weiter gilt | max(Xn−1 , E(Yn | Fn−1 ))| ≤ |Xn−1 | + |E(Yn | Fn−1 )|. Also E|Yn−1 | ≤ E|Xn−1 | + E|Yn | < ∞. b) Beachte: (Yn ) ist adaptiert an (Fn ). Für n ∈ {1, . . . , N } gilt Yn−1 = max(Xn−1 , E(Yn | Fn−1 )) ≥ E(Yn | Fn−1 ). c) Sei (Yen ) weiteres Supermartingal mit Yen ≥ Xn , für alle n. Wir zeigen Yen ≥ Yn durch Induktion. n = N : YeN ≥ XN = YN . n → n − 1: Es gelte Yen ≥ Yn . Dann ist Yen−1 ≥ E(Yen | Fn−1 ) ≥ E(Yn | Fn−1 ). Wegen Yen−1 ≥ Xn−1 gilt also Yen−1 ≥ max(Xn−1 | E(Yn | Fn−1 )) = Yn−1 . Satz 8.3 Sei τ := min{n ≥ 0 : Xn = Yn }. Dann ist τ ∈ T und es gilt E(Xτ ) = E(Yτ ) = E(Y0 ) = V. Insbesondere ist τ optional. 63 8 Stopp-Probleme mit endlichem Zeithorizont Beweis. a) τ ist eine Stoppzeit, da für alle n ≤ N gilt {τ ≤ n} = n [ {Xk = Yk } ∈ Fn . k=0 b) EY0 ≥ V . Beweis hierfür: Nach Satz 8.2 ist (Yn ) ein Supermartingal. Sei σ ∈ T . Wegen Satz 2.12 ist auch (Ynσ ) ein Supermartingal, und somit E(Y0 ) = E(Y0σ ) ≥ E(YNσ ) = E(Yσ ) ≥ E(Xσ ) = J (σ). Da σ beliebig ist, gilt EY0 ≥ V . c) Y τ ist Martingal, denn für alle n < N gilt: τ E[Yn+1 | Fn ] = E[Yn+1 1{τ >n} + Yτ 1{τ ≤n} | Fn ] = 1{τ >n} E[Yn+1 | Fn ] + Yτ 1{τ ≤n} . Nun gilt auf {τ > n}, dass Xn < Yn = max(Xn , E(Yn+1 | Fn )). Damit folgt weiter τ E[Yn+1 | Fn ] = 1{τ >n} Yn + Yτ 1{τ ≤n} = Ynτ . d) Wir fassen zusammen: c) b) E(Xτ ) = E(Yτ ) = E(YNτ ) = E(Y0τ ) = E(Y0 ) ≥ V. Da aber E(Xτ ) ≤ V , gilt E(Xτ ) = V . 8.2 Das Cayley-Moser-Problem Ein Agent will ein Haus, Auto, … verkaufen. Es gebe N Interessenten, wobei Xn das Angebot des n-ten Interessenten sei. Annahmen: X1 , . . . , XN sind unabhängig und gleichverteilt auf [0, 1]. Die potentiellen Käufer legen nacheinander ihr Angebot vor. Der Agent muss sich nach jedem Angebot sofort dafür oder dagegen entscheiden. Frage: Wann sollte der Agent ein Angebot annehmen? Antwort: Mit Hilfe von Satz 8.3. 64 8 Stopp-Probleme mit endlichem Zeithorizont Sei dazu X0 := 0 und Fn = σ(X0 , X1 , . . . , Xn ), n ∈ {0, . . . , N }. Weiterhin sei (Yn ) die Snell-Hülle von (Xn ) und an := E(Yn ), n ∈ {0, . . . , N }. Lemma 8.4 Es gilt für alle n < N : Yn = max(Xn , an+1 ). (8.1) Beweis. Induktion: n = N − 1: Beachte: E(YN | FN −1 ) = E(XN | FN −1 ) = E(XN ) = E(YN ) = aN , da XN unabhängig von FN −1 ist. Also gilt YN −1 = max(XN −1 , E(YN | FN −1 )) = max(XN −1 , aN ). n + 1 → n: Es gelte Yn+1 = max(Xn+1 , an+2 ). Dann E(Yn+1 | Fn ) = E[max(Xn+1 , an+2 ) | Fn ] = E[max(Xn+1 , an+2 )] = E[Yn+1 ] = an+1 , da Xn+1 unabhängig von Fn ist. Folglich gilt Yn = max(Xn , E(Yn+1 | Fn )) = max(X, an+1 ). Mit (8.1) lässt sich eine Rekursionsformel für (an ) bestimmen. Für n < N gilt: an = E(Yn ) = E(max(Xn , an+1 )) aZn+1 Z1 Z1 = max(x, an+1 )dx = an+1 dx + xdx 0 0 1 1 2 2 = (an+1 ) + x 2 an+1 = an+1 1 1 + (an+1 )2 . 2 2 Also löst (an ) folgende Rekursionsgleichung: 1 2 1 1 an = + a2n+1 , 2 2 aN = (8.2) n < N. Es ist keine explizite Formel für an bekannt. 65 8 Stopp-Probleme mit endlichem Zeithorizont 1 5/8 0 N −1 N Satz 8.5 Für den Agenten ist es optimal, das Angebot zur Stoppzeit τ ∗ := max{n ≤ N : Xn ≥ an+1 } anzunehmen. Hierbei sei aN +1 = 0. Beweis. Folgt aus Lemma 8.4 und Theorem 8.3. 8.3 Das SekretärInnen-Problem Annahmen: • N Bewerber auf eine Stelle • Bewerber werden nacheinander befragt • Nach jeder Befragung: Befragter wird eingestellt oder unwiderruflich abgelehnt. Frage: Wann sollte man sich für einen Bewerber entscheiden? Modell: Ω = die Menge aller Permutationen (ω1 , . . . , ωN ) von 1, . . . , N F = P(Ω) 1 P ({ω}) = |Ω| Rn (ω) = relativer Rang von Bewerber n unter den ersten n Bewerbern. Beispiel N = 4 und ω = (2, 4, 1, 3). Dann gilt R1 (ω) = 1, R2 (ω) = 2, R3 (ω) = 1, R4 (ω) = 3. 66 8 Stopp-Probleme mit endlichem Zeithorizont Wir definieren F0 = {∅, Ω} und Fn = σ(R1 , . . . , Rn ). Für n ∈ {1, . . . , n} sei ( 1, ωn = 1, An (ω) := 0, sonst. Gesucht ist τ ∈ T , sodass E(Aτ ) maximal ist. Beachte: An ist i.A. nicht (Fn )adaptiert. Wir setzen daher Xk := E(Ak | Fk ). Dann gilt E(Aτ ) = E N X ! 1{τ =k} Ak N X =E k=0 ! 1{τ =k} E(Ak | Fk ) k=0 = E(Xτ ). Es genügt also das τ ∗ ∈ T zu finden mit E(Xτ ∗ ) = sup E(Xτ ). τ ∈T Man kann zeigen: a) R1 , . . . , RN sind unabhängig und P (Rn = j) = 1 n für j ∈ {1, . . . , n}. b) ( Xn = n , N 0, Rn = 1, sonst. Sei (Yn ) die Snell-Hülle von (Xn ). Wir definieren bn := E(Yn ), n ∈ {0, . . . , N }. Lemma 8.6 Yn = max(Xn , bn+1 ). Beweis. Ähnlich zum Beweis von Lemma 8.4. Aus Lemma 8.6 folgt, dass (bn ) folgende Rekursionsgleichung löst: bN = 1 N 1 n−1 bn = max , bn+1 + bn+1 . N n n n 67 8 Stopp-Probleme mit endlichem Zeithorizont Nach Theorem 8.3 ist τ ∗ := min{n ≤ N : Xn = Yn } = min{n ≤ N : n = N oder Rn = 1 und n N ≥ bn+1 } eine optimale Stoppzeit, wobei bN +1 = 0. ∗ Sei rN := min{n ≤ N : Nn ≥ bn+1 }. Dieses Minimum existiert, denn (bn ) ist fallend, als Folge von Erwartungswerten eines Supermartingals, und Nn steigend. ∗ Dann gilt τ ∗ = min{n ≥ rN : Rn = 1} ∧ N . Lemma 8.7 ∗ rN 1 = . N →∞ N e lim Beweis. Sei τN (r) := min{n ≥ r : Rn = 1} ∧ N und ϕ(r) := E(XτN (r) ). Es gilt N X k ϕ(r) = P (Rr 6= 1, Rr+1 6= 1, . . . , Rk−1 6= 1, Rk = 1) N k=r N X k = (1 − P (Rr = 1)) · (1 − P (Rr+1 = 1)) · . . . · (1 − P (Rk−1 = 1)) · P (Rk = 1) N k=r N X k r−1 r k−2 1 = · · ... · · N r r + 1 k − 1 k k=r N = r−1X 1 . N k=r k − 1 ∗ ϕ(r) hat Maximum bei rN . Das heißt ∗ rN = min{r : ϕ(r + 1) ≤ ϕ(r)} = min r : Also: N −1 X ∗ k=rN XN k=r+1 1 ≤1 . k−1 N −1 X 1 1 ≤1≤ . k k ∗ k=r −1 N Interpretation als Riemann-Ober- bzw. Untersumme ergibt ZN ∗ rN 68 N Z −1 N −1 N −1 X X 1 1 1 1 dy ≤ ≤1≤ ≤ dy. y k k y k=r∗ k=r∗ −1 N N ∗ −2 rN 8 Stopp-Probleme mit endlichem Zeithorizont Aus der linken Abschätzung folgt log y|N r∗ = log N was ∗ rN N ≥ 1 e impliziert. Aus der Rechten folgt −1 log y|N r∗ −2 = log N was 8.4 ∗ −2 rN N −1 ≤ N ≤ 1, ∗ rN 1 e N −1 ≥ 1, ∗ rN −2 impliziert. Damit folgt die Behauptung. Die Snell-Hülle als essentielles Supremum Definition Sei (Zi )i∈I eine Familie von Zufallsvariablen. Eine Zufallsvariable Z heißt essentielles Supremum von (Zi ), falls (1) ∀i ∈ I: P (Z > Zi ) = 1. (2) Ist Ze eine Zufallsvariable mit P (Ze ≥ Zi ) für alle i ∈ I, dann gilt P (Ze ≥ Z) = 1. In diesem Fall schreibt man ess supi∈I Zi für Z. Bemerkung Man kann zeigen, dass das essentielle Supremum immer existiert. Es sei wieder (Yn ) die Snell-Hülle von (Xn )n∈{0,...,N } . Weiterhin sei T (n, N ) die Menge aller Stoppzeiten mit Werten in {n, . . . , N }. Wir verallgemeinern Satz 8.3: Satz 8.8 Sei τ (n) := inf{k ≥ n : Xk = Yk }. Dann ist τ (n) ∈ T (n, N ) und E(Xτ (n) | Fn ) = E(Yτ (n) | Fn ) = Yn . Weiterhin gilt Yn = ess supτ ∈T (n,N ) E[Xτ | Fn ] (8.3) Beweis ähnlich zum Beweis von Satz 8.3. a) τ (n) ∈ T (n, N ) X b) Sei τ ∈ T (n, N ). Da (Yn ) Supermartingal ist, gilt Yn ≥ E[YNτ | Fn ] = E[Yτ | Fn ] ≥ E[Xτ | Fn ], f.s. 69 9 Stopp-Probleme mit unendlichem Zeithorizont Daraus folgt Yn ≥ ess supτ ∈T (n,N ) E(Xτ | Fn ). c) Für alle k ∈ {n, . . . , N − 1} gilt E[Yk+1 | Fk ] = Yk auf {n, . . . , N }. Somit folgt τ (n) τ (n) (*) , d.h. Y τ (n) ist Martingal E[Xτ (n) | Fn ] = E[Yτ (n) | Fn ] = Yn . (**) d) Aus (*) und (**) folgt (8.3). 9 9.1 Stopp-Probleme mit unendlichem Zeithorizont Existenz von optimalen Stoppzeiten Seien X0 , X1 , X2 , . . . und X∞ Zufallsvariablen auf einem Wahrscheinlichkeitsraum (Ω, F, P ). Sei (Fn ) eine Filtration mit Fn ⊃ σ(X0 , . . . , Xn ), für alle n ≥ 0. Wir bezeichnen mit T die Menge aller (Fn )-Stoppzeiten. Erinnerung: Stoppzeiten können den Wert +∞ annehmen. Für τ ∈ T setzen wir J (τ ) := E(Xτ ), falls der Erwartungswert von Xτ definiert ist. Andernfalls (d.h. falls E(Xτ+ ) = ∞ und E(Xτ− ) = ∞) setzen wir J (Xτ ) = −∞. Weiterhin definieren wir V := sup J (τ ). τ ∈T τ ∗ ∈ T heißt optimal, falls J (τ ∗ ) = V ist. Es gibt Beispiele, in denen keine optimale Stoppzeit existiert (Unterschied zu Problemen mit endlichem Zeithorizont!). Beispiel 9.1 Sei X0 = 0, Xn = 1 − n1 , n ≥ 1 und X∞ = 0. Je länger man wartet, desto größer wird die Auszahlung. Allerdings ist τ = ∞ keine optimale Stoppzeit. Es gibt also keine optimale Stoppzeit in diesem Beispiel. Beispiel 9.2 Sei (Zn )n≥1 iid mit P (Zn = 1) = P (Zn = 0) = 12 . Setze X0 = X∞ = 0 und n Xn = (2 − 1) n Y k=1 70 Zk , n ∈ N. 9 Stopp-Probleme mit unendlichem Zeithorizont Es gilt 1 1 = 1 − n. n 2 2 Wieder ist es besser zu warten. Allerdings ist E(X∞ ) = 0. Auch in diesem Beispiel gibt es keine optimale Stoppzeit. E(Xn ) = (2n − 1)P (Z1 = 1, . . . , Zn = 1) = (2n − 1) Ziel des Abschnitts ist es zu zeigen, dass die folgenden 2 Annahmen hinreichend für die Existenz einer optimalen Stoppzeit sind: X := sup Xn ist integrierbar (insb. E(X) < ∞) (A1) n∈Z≥0 ∪{∞} lim sup Xn ≤ X∞ , f.s. (A2) n→∞ Bemerkung a) Im Beispiel 9.1 gilt (A1), aber nicht (A2). b) Im Beispiel 9.2 gilt (A2), aber nicht (A1). Begründung: {supn∈N Xn = 2k − 1} = {Z1 = 1, . . . , Zk = 1, Zk+1 = 0} Daher gilt P (sup Xn = 2k − 1) = 1 2k+1 und ∞ X 1 E(X) = E(sup Xn ) = (2k − 1) k+1 = ∞. 2 k=1 Lemma 9.3 Seien Z, Y1 , Y2 , . . . Zufallsvariablen mit Yn ≤ Z, für alle n ≥ 1, und E|Z| < ∞. Dann gilt lim sup E(Yn ) ≤ E(lim sup Yn ). n n Beweis. Setze Y n := Z − Yn . Wegen Y n ≥ 0, folgt aus Fatous Lemma: lim inf E(Y n ) ≥ E(lim inf Y n ). n n Nun folgt die Behauptung, da lim inf E(Y n ) = E(Z) − lim sup E(Yn ) n n E(lim inf Y n ) = E(Z) − E(lim sup Yn ). n n 71 9 Stopp-Probleme mit unendlichem Zeithorizont Korollar 9.4 Seien X, Z Zufallsvariablen mit X ≤ Z und Z integrierbar. Ist (An )n≥1 eine Partition von Ω, dann gilt: E(X) = ∞ X E(1An X). k=1 Beweisskizze. Falls auch X integrierbar ist, folgt die Aussage mit dem Satz der dominierten Konvergenz. Wir betrachten nun den Fall, wo X nicht integrierbar, d.h. E(X) = −∞ ist. Setze Yn := 1Snk=1 Ak X. Dann ist Yn ≤ X ∨ 0 = max(X, 0). Wende nun Lemma 9.3 an. Definition Eine Stoppzeit τ heißt regulär, falls für alle n ∈ Z≥0 gilt: E(Xτ | Fn ) > Xn auf {τ > n}. Spiele nur weiter, falls die bedingte, erwartete Auszahlung echt größer ist.“ ” Bemerkung Beachte, dass Xτ im Allgemeinen nicht integrierbar ist. Falls (A1) erfüllt ist, kann man trotzdem E(Xτ | Fn ) wie folgt definieren: Positiv-Teil: Negativ-Teil: Xτ+ ≤ X ∨0. Also ist Xτ+ integrierbar und E(X + | Fn ) ist definiert. Definiere E(Xτ− | Fn ) := supk≥1 E(Xτ− ∧ k | Fn ). Lemma 9.5 Es gelte (A1). Dann existiert zu jeder Stoppzeit τ eine reguläre Stoppzeit σ mit E(Xσ ) ≥ E(Xτ ). Beweis. Wir können E|Xτ | < ∞ annehmen, denn sonst ist E(Xτ ) = −∞ und die Aussage klar. Setze σ := inf{n ≥ 0 : E(Xτ | Fn ) ≤ Xn }. 72 9 Stopp-Probleme mit unendlichem Zeithorizont Dann gilt {σ = ∞} ⊂ {τ = ∞} und X E(Xτ ) = E[1{σ=k} Xτ ] k∈Z≥0 ∪{∞} = E[1{σ=∞} X∞ ] + ∞ X k=0 ≤ X E[1{σ=k} E[Xτ | Fk ]] | {z } ≤Xk E[1{σ=k} Xk ] k∈Z≥0 ∪{∞} (Korollar 9.4) = E(Xσ ). Noch zu zeigen: σ ist regulär. Beachte zunächst, dass Xσ integrierbar ist. Des Weiteren gilt auf {σ > n}: " ∞ X E(Xσ | Fn ) = E # 1{σ=k} Xσ | Fn + E[1{σ=∞} Xσ | Fn ] k=n+1 " ∞ X =E # 1{σ=k} Xk | Fn + E[1{σ=∞} Xτ | Fn ] k=n+1 " ≥E ∞ X # 1{σ=k} E[Xτ | Fk ] | Fn ] + E[1{σ=∞} Xτ | Fn ] k=n+1 = E[Xτ | Fn ] > Xn . Lemma 9.6 Es gelte (A1). Seien τ und σ regulär. Dann ist auch τ ∨ σ regulär und E(Xτ ∨σ ) ≥ max{E(Xτ ), E(Xσ )}. Beweis. Auf {τ = n} ∩ {σ > n} gilt E[Xτ ∨σ | Fn ] = E[Xσ | Fn ] > Xn . 73 9 Stopp-Probleme mit unendlichem Zeithorizont Also gilt ∞ X E(Xτ ∨σ ) = k=0 ∞ X = k=0 ∞ X ≥ E[1{τ =k} Xτ ∨σ ] E[1{τ =k} E[Xτ ∨σ | Fk ]] (Korollar 9.4) (verallg. Turmeig.) E[1{τ =k} Xk ] k=0 (Korollar 9.4) = E(Xτ ). Analog zeigt man E(Xτ ∨σ ) ≥ E(Xσ ). Noch zu zeigen: τ ∨ σ ist regulär. Beachte zunächst: {τ ∨ σ > n} = {τ > n} ∪ {σ > n} Auf {τ > n} ∩ {σ > n} gilt E[Xτ ∨σ | Fn ] = E[Xσ | Fn ] > Xn . Auf {τ > n} ∩ {τ ≥ σ} gilt E[Xτ ∨σ | Fn ] = E[Xτ | Fn ] > X)n. Also gilt: E[Xτ ∨σ | Fn ] > Xn auf {τ > n}. Analog zeigt man E[Xτ ∨σ | Fn ] > Xn auf {σ > n}. Damit folgt Regularität. Satz 9.7 Falls (A1) und (A2) erfüllt sind, dann existiert eine optimale Stoppzeit. Beweis. Sei (τn ) eine Folge von Stoppzeiten mit supn E(Xτn ) = V . Wegen Lemma 9.5 existiert zu jedem τn eine reguläre Stoppzeit σn mit E(Xσn ) ≥ E(Xτn ). Also gilt auch supn E(Xσn ) = V . Setze ρn := max{σ1 , . . . , σn }. Nach Lemma 9.6 ist ρn regulär. Des Weiteren ist (ρn ) monoton steigend und es gilt lim E(Xρn ) = V. n→∞ Setze ρ := lim ρn . 74 9 Stopp-Probleme mit unendlichem Zeithorizont Auf {ρ < ∞} gilt limn Xρn = Xρ . Auf {ρ = ∞} gilt wegen (A2) lim sup Xρn ≤ lim sup Xn ≤ X∞ = Xρ . n n Also gilt lim supn Xρn ≤ Xρ überall. Mit Lemma 9.3 folgt nun E(Xρ ) ≥ E lim sup Xρn ≥ lim sup E(Xρn ) = V. n n Also ist ρ optimal. 9.2 Eine Methode zur Bestimmung optimaler Stoppzeiten Da kein endlicher Zeithorizont gegeben ist, können wir nicht die Snell-Hülle definieren. Allerdings kann man in Analogie zu (8.3) definieren: Vn := ess supτ ∈T (n) E(Xτ | Fn ), wobei T (n) die Menge aller Stoppzeiten mit Werten in {n, n + 1, . . .} ∪ {+∞}. Im Folgenden nehmen wir an, dass F0 = {∅, Ω}. Dann gilt V0 = V . Lemma 9.8 Es gelte (A1). Dann gilt Vn = max{Xn , E(Vn+1 | Fn )}, n ≥ 0. (9.1) Beweis. Siehe Spezial-VL. Satz 9.9 Es gelte (A1) und (A2). Dann ist τ ∗ := inf{n ≥ 0 : Xn = Vn } eine optimale Stoppzeit. Beweis. Siehe Spezial-VL. 75 9 9.3 Stopp-Probleme mit unendlichem Zeithorizont Das Cayley-Moser-Problem mit unendlichem Zeithorizont Sei (Zn )n≥1 iid mit E(Zn2 ) < ∞. Sie c > 0 (Kosten pro Zeitschritt) und Xn := Zn − nc, n ∈ N. Weiterhin sei X0 = X∞ = −∞. Sei Fn := σ(X0 , . . . , Xn ), n ≥ 0. Frage: Wann sollte der Agent das Angebot Zn annehmen? Man kann zeigen, dass (A1) und (A2) erfüllt sind. Nach Satz 9.9 ist τ ∗ := inf{n ≥ 0 : Xn = Vn } eine optimale Stoppzeit. Da σ(Zn+1 , Zn+2 , . . .) unabhängig von Fn ist, kann man zeigen, dass E(Vn+1 | Fn ) = E(Vn+1 ). Somit vereinfacht sich (9.1) zu Vn = max{Xn , E(Vn+1 )}, n ≥ 0. (9.2) Insbesondere gilt V = V0 = E(V1 ). Aus Symmetriegründen gilt E(Vn ) = E(V1 ) − (n − 1)c, n ≥ 1. Lemma 9.10 τ ∗ = inf{n ≥ 1 : Zn ≥ V }. Beweis. Definiere σ := inf{n ≥ 1 : Zn ≥ V }. Wir zeigen durch Induktion, dass {τ ∗ = k} = {σ = k}, k ≥ 0. k = 0: {τ ∗ = 0} = ∅ und {σ = 0} = ∅. 0, . . . , k → k + 1: {τ ∗ = k + 1} = {Xk+1 = Vk+1 , τ ∗ > k} = {Xk+1 = Vk+1 , σ > k} (I.V.) = {Xk+1 ≥ E(Vk+2 ), Z1 < V, . . . , Zk < V } ((9.2)) = {Xk+1 ≥ V − (k + 1)c, Z1 < V, . . . , Zk < V } = {Zk+1 ≥ V, Z1 < V, . . . , Zk < V } = {σ = k + 1}. 76 9 Stopp-Probleme mit unendlichem Zeithorizont Frage: Wie kann man V bestimmen? V löst die Gleichung (9.3) V = E(V1 ) = E(max{X1 , E(V2 )}) = E(max{Z1 , V }) − c. Jetzt lösen wir die Gleichung (9.3) für den Fall, wo jedes Zn auf [0, 1] gleichverteilt ist. In diesem Fall gilt, falls V ∈ [0, 1], Z1 E(max{Z1 , V }) − c = 0 ZV = max{x, V }dx − c V dx + 0 Z1 xdx − c V 1 1 = V 2 + x2 V − c 2 1 2 1 = V −c+ . 2 2 V löst also die quadratische Gleichung V 2 − 2V + 1 − 2c = 0, √ welche die Lösungen V1/2 = 1 ± 2c hat. Da V > 1 nicht sinnvoll ist (Annahme √ war V ∈ [0, 1]), entfällt V1 als mögliche Lösung. Es gilt 1 − 2c ≥ 0 genau dann, wenn c ≤ 12 . Also gilt, falls c ≤ 12 : V =1− √ 2c. Falls c > 12 , sind die Wartekosten zu hoch. Also ist τ ∗ = 1 und V = 1 2 − c. Zusammenfassend gilt also: Satz 9.11 Falls die Zn gleichverteilt auf [0, 1] sind, dann gilt τ ∗ = inf{n ≥ 1 : Zn ≥ 1 − √ 2c}. 77 V Praktische Finanzmathematik 10 Implementierung des Binomialmodells Literatur: Higham Nine ways to implement the Binomial Method in Matlab, 2002. Wir machen die selben Annahmen und verwenden die selbe Notation wie in Kapitel III. 10.1 Bewertungsalgorithmen, die die Binomialverteilung verwenden Erinnerung: Nach Satz 3.3 gilt N X 1 N CRR_call(S0 , K, N, u, d, r) = (p∗ )k (1−p∗ )N −k (S0 uk dN −k −K)+ , (1 + r)N k=0 k (10.1) wobei p∗ = 1+r−d . u−d Die Formel (10.1) lässt sich direkt implementieren. Pythoncode 10.1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 import numpy a s np # V a r i a b l e n i n i t i a l i s i e r e n . . . S0 , u , d , N, K, p s t e r n # Arrays d e r Länge N+1 a n l e g e n p a y o f f = np . z e r o s (N+1) bv = np . z e r o s (N+1) # Payoff bei F ä l l i g k e i t f o r i i n r a n g e ( 0 ,N+1) : p a y o f f [ i ] = max ( 0 , S0*u** i *d * * (N−i )−K) # Binomialverteilung f o r i i n r a n g e ( 0 ,N+1) : bv [ i ] = np . math . f a c t o r i a l (N) / ( np . math . f a c t o r i a l ( i ) * np . math . f a c t o r i a l (N−i ) ) * ( p s t e r n ) ** i * (1− p s t e r n ) * * (N−i ) 16 17 # Opt io n swert 18 v a l u e = 1/(1+ r ) **N * np . dot ( p a y o f f , bv ) 78 10 Implementierung des Binomialmodells Bemerkung 1) Die Fakultäten können sehr groß werden; (p∗ )i und (1 − p∗ )N −i können sehr klein werden. Dadurch wird der Algorithmus ungenau für große N . Ausweg: Logarithmieren. Dazu beachte: N! ∗ i ∗ N −i log (p ) (1 − p ) i!(N − i)! N i N −i X X X = log(k) − log(k) − log(k) + i log(p∗ ) + (N − i) log(1 − p∗ ). k=1 k=1 k=1 2) Bei der Summation genügt es die Terme zu betrachten, die 6= 0 sind. Die Call-Option heißt in-the-money (im Geld), falls S0 ≥ K, out-of-the-money (aus dem Geld), falls S0 < K und at-the-money, falls S0 = K. Es gilt u i K S0 ui dN −i − K ≥ 0 ⇔ ≥ d S 0 dN u K ⇔ i log ≥ log d S 0 dN log( S0KdN ) ⇔ i≥ . log(u) − log(d) ! Falls d = u1 , vereinfacht sich die rechte Seite zu 1 2 N+ K ) S0 log(u) log( . Dies führt uns zu folgendem verbesserten Algorithmus: Pythoncode 10.2 1 import numpy a s np 2 3 # V a r i a b l e n i n i t i a l i s i e r e n . . . S0 , u , d , N, K, p s t e r n 4 5 # Arrays d e r Länge N+1 a n l e g e n 6 p a y o f f = np . z e r o s (N+1) 7 log_bv = np . z e r o s (N+1) 8 c l s = np . z e r o s (N+1) 9 10 # P a y o f f b e i F ä l l i g k e i t 11 f o r i i n r a n g e ( 0 ,N+1) : 12 p a y o f f [ i ] = max ( 0 , S0*u** i *d * * (N−i )−K) 13 79 10 Implementierung des Binomialmodells 14 # k u m u l a t i v e l o g a r i t h m i s c h e Summe 15 f o r i i n r a n g e ( 1 ,N+1) : 16 c l s [ i ] = np . l o g ( i )+c l s [ i −1] 17 18 # l o g −B i n o m i a l v e r t e i l u n g 19 f o r i i n r a n g e ( 0 ,N+1) : 20 log_bv [ i ] = c l s [N]− c l s [ i ]− c l s [ N−i ] + i *np . l o g ( p s t e r n ) + (N−i ) *np . l o g (1− p s t e r n ) 21 22 # Summenstart 23 a=np . f l o o r ( np . l o g (K/S0 ) / ( l o g ( u )−l o g ( d ) ) ) 24 25 # Opt io n swert 26 sum=0 27 f o r i i n r a n g e ( a ,N+1) : 28 sum = sum+np . exp ( log_bv [ i ] ) * p a y o f f [ i ] 29 v a l u e = 1/(1+ r ) **N * sum 10.2 Baumalgorithmen Erinnerung: Der CRR-Preis einer Call-Option lässt sich mit der Rekursionsformel (3.6) aus Satz 3.2 bestimmen. cN (x) = (x − K)+ 1 cn (x) = (p∗ cn+1 (ux) + (1 − p∗ )cn+1 (dx)) 1+r Matrix-Notation für den Baum: (0, 0) (0, 1) (0, 2) (0, 3) (1, 1) (1, 2) (1, 3) (2, 2) (2, 3) (3, 3) Pythoncode 10.3 1 import numpy a s np 80 10 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 Implementierung des Binomialmodells # V a r i a b l e n i n i t i a l i s i e r e n . . . S0 , u , d , N, K, p s t e r n # Felder anlegen S = np . z e r o s ( [ N+1,N+1]) C = np . z e r o s ( [ N+1,N+1]) # P r e i s v e k t o r zur Z e i t N S [ 0 ,N] = S0*u**N f o r i i n r a n g e ( 1 ,N+1) : S [ i ,N] = S [ i −1,N] * d/u # Option swert z u r Z e i t N f o r i i n r a n g e ( 0 ,N+1) : C[ i ,N] = max ( 0 , S [ i ,N]−K) # R e k u r s i o n durch den Baum f o r t i n r a n g e (N−1,−1,−1) : f o r j i n r a n g e ( 0 , t +1) : C[ j , t ] = 1/(1+ r ) * ( p s t e r n *C[ j , t +1]+(1− p s t e r n ) *C[ j +1, t +1]) 22 23 # Option swert z u r Z e i t 0 24 C [ 0 , 0 ] Bemerkung 1) Für die replizierende Strategie gilt zur Zeit 0: H0 = c1 (uS0 ) − c1 (dS0 ) . uS0 − dS0 Der Quotient wird auch als Delta“ bezeichnet. Er misst die Sensitivität des ” Optionswertes bezüglich des Basiswertes. Für die Bewertung des Deltas ergänze Pythoncode 10.3 wie folgt: Delta=(C(0,1)-C(1,1))/(S0(u-d)) 2) Baumalgorithmen sind nützlich für amerikanische Optionen. 10.3 Bewertung amerikanischer Optionen Bei einer amerikanischen Option hat der Käufer zu jedem Zeitpunkt bis zur Fälligkeit das Recht, die Option auszuüben. Amerikanische Put-Option mit Strike K und Fälligkeit N : Falls der Käufer zur Zeit n ≤ N ausübt und K ≥ Sn , dann erhält er K − Sn . 81 10 Implementierung des Binomialmodells Sei T die Menge aller (Fn )-Stoppzeiten mit Werten in {0, . . . , N }. Für τ ∈ T kann man + (K − Sτ ) = N X 1{τ =n} (K − Sn )+ n=0 als Korb von Derivaten mit unterschiedlichen Fälligkeiten interpretieren. In Kapitel 3 haben wir gesehen, dass der arbitragefreie Preis von 1{τ =n} (K − Sn )+ durch ∗ E 1 1{τ =n} (K − Sn )+ (1 + r)n gegeben ist. Also ist der arbitragefreie Preis des Korbs gegeben durch 1 ∗ + E (K − Sτ ) . (1 + r)τ Der Käufer wird τ so wählen, dass der Korbwert maximal wird. Wir definieren 1 put ∗ + A0 := sup E (K − Sτ ) . (1 + r)τ τ ∈T Man kann zeigen: Aput ist der einzige arbitragefreie Preis der amerikanischen Puts 0 zur Zeit 0. Frage: Was ist der optimale Ausübungszeitpunkt, d.h. welches τ ist optimal? Setze dazu Xn := 1 (K (1+r)n − Sn )+ . Dann gilt Aput = sup E∗ (Xτ ). 0 τ ∈T Sei (Zn )n∈{0,...,N } die Snell-Hülle von (Xn ) bezüglich P ∗ . Nach Satz 8.3 ist τ ∗ := min{n ≤ N : Xn = Zn } eine optimale Ausübungszeit. Lemma 10.4 Für alle n ∈ {0, . . . , N } gibt es eine Funktion e an : R+ → R+ mit Zn = e an (Sn ). 82 10 Implementierung des Binomialmodells Beweis. Rückwärtsinduktion nach n. n = N : ZN = XN = 1 (K (1+r)N − SN )+ . Also wähle e aN (x) := 1 (K − x)+ . N (1 + r) n + 1 → n: Es gelte Zn+1 = e an+1 (Sn+1 ). Beachte: E∗ [e an+1 (Sn+1 ) | Fn ] = E∗ [e an+1 (Sn Yn+1 ) | Fn ] ∗ = E [e an+1 (xYn+1 )]|x=Sn (Faktorisierungslemma) = (p∗e an+1 (xu) + (1 − p∗ )e an+1 (xd))|x=Sn . Definiere e an (x) := max (K − x)+ ∗ ∗ ,p e an+1 (xu) + (1 − p )e an+1 (xd) . (1 + r)n Dann gilt Zn = max{Xn , E∗ (Zn+1 | Fn )} (K − Sn )+ ∗ = max , E (e an+1 (Sn+1 ) | Fn ) (1 + r)n =e an (Sn ). Für die Funktion an (x) := (1 + r)ne an (x) gilt aN (x) = (K − x)+ , an (x) = max (K − x)+ , Aus Satz 8.3 folgt 1 ∗ ∗ (p an+1 (xu) + (1 − p )an+1 (xd)) , 1+r n < N. Aput = E∗ (Z0 ) = e a0 (S0 ) = a0 (S0 ). 0 Mit folgendem Algorithmus lässt sich also der Wert einer amerikanischen PutOption bestimmen. Pythoncode 10.5 1 # P r e i s v e k t o r z u r Z e i t N wie i n Pythoncode 1 0 . 3 2 # O p t i o n s w e r t e z u r Z e i t N ä h n l i c h wie i n Pythoncode 1 0 . 3 3 4 # R e k u r s i o n durch den Baum 83 11 5 6 7 8 Monte-Carlo-Verfahren f o r t i n r a n g e (N−1,−1,−1) : f o r j in range (0 , t ) : S [ j , t ]=S [ j , t +1]/u a [ j , t ]=1/(1+ r ) * ( p s t e r n *a [ j , t +1]+(1− p s t e r n ) *a [ j +1, t +1]) a [ j , t ]=max(max ( 0 ,K−S [ j , t ] ) , a [ j , t ] ) 9 10 11 # Opt io n swert z u r Z e i t 0 12 a [ 0 , 0 ] 11 Monte-Carlo-Verfahren Erinnerung: Im Black-Scholes-Modell wird der Basiswert durch St = S0 · eσWt +(r+ σ2 )t 2 , t ∈ R+ , modelliert, wobei (Wt ) eine Brownsche Bewegung bezüglich des äquivalenten Martingalmaßes P ∗ ist. Des Weiteren haben wir definiert: BS_call(S0 , K, T, σ, r) := e−rT E∗ [(ST − K)+ ] (11.1) Andere Derivate werden im Black-Scholes-Modell analog bewertet. Zum Beispiel setzen wir für einen asiatischen Call mit strike K und Fälligkeit T + ZT 1 BS_Asian_call(S0 , K, T, σ, r) := e−rT E∗ St dt − K . (11.2) T 0 Für (11.1) gibt es eine analytische Formel (Black-Scholes-Formel, siehe Satz 5.5), für (11.2) nicht. Man kann (11.2) mit dem Monte-Carlo-Verfahren schätzen. Wir erklären das Prinzip zunächst für den gewöhnlichen Call. Es seien Z1 , Z2 , . . . Zufallsvariablen, die bezüglich P ∗ unabhängig und N (0, 1)√ d verteilt sind. Beachte: tZi = Wt . Nach dem starken Gesetz der großen Zahlen gilt + n √ σ2 1X σ T Zi +(r− )T 2 lim S0 · e −K = E∗ ((ST − K)+ ). n→∞ n i=1 Man bezeichnet die Summe + n √ σ2 1X σ T Zi +(r− )T 2 S0 · e −K n i=1 als Monte-Carlo-Schätzer (mit n Zufallsvariablen) für E∗ ((ST − K)+ ). 84 11 Monte-Carlo-Verfahren Pythoncode 11.1 (Monte-Carlo-Schätzer für Call-Optionen) 1 # Vektor mit N( 0 , 1 )−Z u f a l l s z a h l e n 2 nsim = 10000 3 Z = np . random . randn ( nsim ) 4 5 # R e a l i s i e r u n g e n des Payoffs 6 f o r i i n r a n g e ( 0 , nsim ) : 7 p a y o f f [ i ] = max ( 0 , S0*np . exp ( sigma *np . s q r t (T) *Z [ i ] + ( r−sigma * * 2 / 2 ) *T)−K) 8 9 # Option swert 10 v a l u e = np . exp(− r *T) * np . mean ( p a y o f f ) Frage: Wie groß ist der Schätzfehler? Zur Beantwortung betrachten wir eine allgemeine Zufallsvariable X ∈ L2 (P ). Seien P X1 , X2 , . . . unabhängig und verteilt wie X. Dann ist n1 ni=1 Xi ein Monte-CarloSchätzer für E(X) mit n Zufallszahlen. Wir definieren den mean square error n 1X MSE(n) := E Xi − E(X) n i=1 !2 und p RMSE(n) := M SE(n). P Da E[Xi ] = E[X], gilt E n1 ni=1 Xi = E[X] und somit MSE(n) = Var = Folglich gilt RMSE(n) = √1 n n 1X Xi n i=1 ! n 1 X = 2 Var(Xi ) n i=1 1 Var(X). n Std(X). Bemerkung 1) RMSE ist proportional zu √1n . Um also den Fehler zu halbieren, werden viermal so viele Simulationen benötigt. Deshalb ist das Monte-CarloVerfahren kostenintensiv. 2) RMSE ∼ Std(X) 85 11 Monte-Carlo-Verfahren 3) Beachte: Aus der Jensen-Ungleichung folgt v # u 2 " n n u X 1 X u 1 MAE(n) = E Xi − E[X] ≤ tE Xi − E[X] = RMSE(n). n n i=1 i=1 Es gilt also MAE(n) ∈ O d.h. lim sup 1 √ n MAE(n) n→∞ √1 n , < ∞. Nun zu asiatischen Optionen. Erinnerung: + ZT 1 BS_Asian_call(S0 , K, T, σ, r) := e−rT E∗ St dt − K , T 0 wobei P ∗ das äquivalente Martingalmaß ist. Für die Monte-Carlo-Bewertung muss der Preispfad t 7→ St simuliert werden. Wir simulieren den Preispfad an diskreten Zeitpunkten 0 = t0 < t1 < . . . < tm = T. Im Folgenden wählen wir ein äquidistantes Zeitgitter, d.h. ti = Erinnerung: 1 St = S0 · eσWt +(r− 2 σ 2 )t Pythoncode 11.2 (Generieren von Preispfaden) # Matrix mit N( 0 , 1 )−Z u f a l l s z a h l e n nsim = 10000 m = 100 Z = np . random . randn ( nsim ,m) # nsim Brownsche Pfade a u f [ 0 ,T ] dt = T/m W = np . z e r o s ( ( nsim ,m+1) ) f o r t i n r a n g e ( 0 ,m) : W[ : , t +1] = W[ : , t ] + np . s q r t ( dt ) *Z [ : , t ] 86 i ∈ {0, . . . , m}. und Wt − Ws ∼ N (0, t − s) . 1 2 3 4 5 6 7 8 9 10 i T, m 11 Monte-Carlo-Verfahren 11 12 # nsim P r e i s p f a d e 13 S = np . z e r o s ( [ nsim ,m+1]) 14 f o r t i n r a n g e ( 0 ,m+1) : 15 S [ : , t ] = S0*np . exp ( sigma *W[ : , t ]+( r −0.5* sigma * * 2 ) * t * dt ) Das Integral werden. RT 0 St dt kann durch die Riemann-Summe ti T m Pm−1 i=0 Sti approximiert ti+1 Eine bessere Approximation erreichen wir mit der Trapezregel: Zti+1 St + Sti+1 T St dt ≈ i · . 2 m ti ti ti+1 Dies liefert 1 T ZT 0 m−1 1 T X Sti + Sti+1 1 St dt = · = T m i=0 2 m m−1 S0 + ST X + Sti 2 i=1 ! . Pythoncode 11.3 (Monte-Carlo-Schätzer für asiatische Call-Optionen) 87 11 1 2 3 4 5 6 7 8 9 10 11 12 13 Monte-Carlo-Verfahren # G e n e r i e r e P r e i s p f a d e : S i e h e Pythoncode 1 1 . 2 mS = z e r o s ( nsim ) # Mittelwert der Preispfade f o r j i n r a n g e ( 0 , nsim ) : mS[ j ] = 1/m * ( ( S [ j , 0 ] + S [ j ,m] ) /2 + np . sum ( S [ j , 1 :m] ) ) # R e a l i s i e r u n g des p a y o f f s f o r t i n r a n g e ( 0 , nsim ) : p a y o f f [ t ] = max ( 0 ,mS[ t ]−K) # Opt io n swert v a l u e = np . exp(− r *T) *np . mean ( p a y o f f ) Theoretische Fehleranalyse A(m) := Es gilt: 1 m (S0 +ST ) 2 + Pm+1 i=1 Sti hat nicht denselben Erwartungswert wie 1 T RT 0 St dt. ! m−1 1 1 1 rT X rti E[A(m)] = S0 + e + e , m 2 2 i=1 ZT ZT ZT 1 1 1 S0 rT E St dt = E[St ]dt = ert S0 dt = (e − 1). T T T rT 0 0 0 Es seien A1 , A2 , . . . unabhängige Realisierungen von A(m). Xi := (Ai − K)+ hat nicht denselben Erwartungswert wie X := 1 T ZT + St dt − K . 0 Man sagt, der Monte-Carlo-Schätzer n 1X Xi n i=1 ist nicht erwartungstreu. Wir definieren den Bias durch Bias := E[Xi ] − E[X]. 88 11 Monte-Carlo-Verfahren Beachte: !2 n X 1 MSE(n) = E Xi − E[X] n i=1 !2 n X 1 = E Xi − E[Xj ] + E[Xj ] − E[X] n i=1 !2 n X 2 1 = E Xi − E[Xj ] + E[Xj ] − E[X] n i=1 " ! # n 1X + 2E Xi − E[Xj ] E[Xj ] − E[X] n i=1 | {z } h i =0, denn E = Var n 1X Xi n i=1 1 Pn X =E[Xj ] n i=1 i ! + (Bias)2 Empirisches Maß für die Schätzgüte Sei n 1X µn = Xi , n i=1 v u n u 1 X t Sn = (Xi − µn )2 . n − 1 i=1 Sn heißt empirische Standardabweichung. Weiterhin sei Sn u(X1 , . . . , Xn ) := −1, 96 √ + µn , n Sn v(X1 , . . . , Xn ) := 1, 96 √ + µn . n Dann ist [u(X1 , . . . , Xn ), v(X1 , . . . , Xn )] das sogenannte Konfidenzintervall, d.h. es gilt P [u(X1 , . . . , Xn ) ≤ E[Xi ] ≤ v(X1 , . . . , Xn )] ≈ 0, 95. 89 12 Der LSMC-Algorithmus Beweis hierfür: Sn Sn LS = P [−1, 96 √ ≤ E[Xi ] − µn ≤ 1, 96 √ ] n n Pn 1 √ n i=1 (Xi − E[Xi ]) = P −1, 96 ≤ n ≤ 1, 96 Sn P n i=1 (Xi − E[Xi ]) √ = P −1, 96 ≤ ≤ 1, 96 nSn n→∞ −→ Φ(1, 96) − Φ(−1, 96) ≈ 0, 95, wobei Φ(x) = 12 2 y √1 e− 2 −∞ 2π Rx (zentraler Grenzwertsatz) dy. Der LSMC-Algorithmus (LSMC = Least-Squares Monte-Carlo) Literatur: Longstaff, Schwartz. Valuing American Options by Simulation: A Simple Least-Squares Approach, 2001. Sei (Sn )n∈{0,...,N } ein stochastischer Prozess auf einem Wahrscheinlichkeitsraum (Ω, F, P ). Setze Fn := σ(S0 , . . . , Sn ). Annahme (M): Für alle 0 ≤ k < n ≤ N und f : R → R messbar mit E|f (Sn )| < ∞ gibt es eine Abbildung g : R → R mit E[f (Sn ) | Fk ] = g(Sk ) f.s. Man sagt: (Sn ) ist ein Markov-Prozess. Seien f0 , . . . , fN : R → R messbare Abbildungen mit E|fn (Sn )|2 < ∞. Setze Xn := fn (Sn ) und betrachte das Stopp-Problem V := sup E(Xτ ), τ ∈T wobei T die Menge aller (Fn )-Stoppzeiten mit Werten in {0, . . . , N } ist (vgl. Kapitel 8). Beispiele: 1) Amerikanische Put-Option: fn (x) = e−rtn (K − x)+ 2) Cayley-Moser: fn (x) = x Sei (Yn )n∈{0,...,N } die Snell-Hülle von (Xn )n∈{0,...,N } . Dann gilt: 90 12 Der LSMC-Algorithmus Lemma 12.1 Für alle n ∈ {0, . . . , N − 1} exisitiert ein cn : R → R mit E(Yn+1 | Fn ) = cn (Sn ). cn heißt continuation value zur Zeit n. Beweis. n = N − 1: E(YN | FN −1 ) = E(XN | FN −1 ) = E(fN (SN ) | FN −1 ). Wegen (M) existiert eine Abbildung cN −1 mit E(YN | FN −1 ) = cN −1 (SN −1 ). n → n − 1: Yn = max(Xn , E(Yn+1 | Fn )) = max(Xn , cn (Sn )). Also E(Yn | Fn−1 ) = E(max(fn (Sn ), cn (Sn )) | Fn ). Wegen (M) existiert eine Abbildung cn−1 mit E(Yn | Fn ) = cn−1 (Sn−1 ). Setze τ (n) := min{k ≥ n | Xk = Yk }, für n ≤ N . Erinnerung: Nach Satz 8.3 gilt V = E(Y0 ) = E(Xτ (0) ), und nach Satz 8.8 gilt Yn = E(Xτ (n) | Fn ). Insbesondere gilt hier cn (Sn ) = E(Yn+1 | Fn ) = E(E(Xτ (n+1) | Fn+1 ) | Fn ) = E(Xτ (n+1) | Fn ). (12.1) Im LSMC-Algorithmus wird cn approximiert mit Basisfunktionen. Beispiele: 1) h1 (x) = 1, h2 (x) = x, h3 (x) = x2 , … 2) gewichtete Laguerre-Polynome: h1 (x) = e− 2 , h2 (x) = e− 2 (x − 1), h3 (x) = |x| e− 2 (x2 − 2x + 1). |x| |x| Seien h1 , . . . , hb gewählt, für jedes n ∈ {0, . . . , N − 1}. Gesucht sind α1 , . . . , αb mit α1 · h1 (x) + . . . + αb · hb (x) ≈ cn (x). Die α1 , . . . , αb werden durch eine Regression bestimmt. Dazu benötigt: M ∈ N Realisierungen Sbnj , j ∈ {1, . . . , M }, von Sn . Lemma 1.6 und Gleichung (12.1) implizieren: Für alle g : R → R gilt E[(cn (Sn ) − Xτ (n+1) )2 ] ≤ E[(g(Sn ) − Xτ (n+1) )2 ]. 91 12 Der LSMC-Algorithmus P Idee 1: Wähle g = bi=1 αi hi und ersetze den Erwartungswert durch einen MCSchätzer: !2 M b 1 X X j αi hi (Sbn ) − Pn+1 (j) =: R(α1 , . . . , αb ), M j=1 i=1 wobei Pn+1 (j) die Approximation der j-ten Realisierung von Xτ (n+1) ist. Bestimme durch Regression die Minimalstelle von R. Idee 2: Approximiere τ (n) iterativ für alle j. Gegeben: τ (j, n + 1) = j-te Realisierung der Approximation von τ (n + 1). Sei (b α1 , . . . , α bb ) die Minimalstelle von R mit Pn+1 (j) = fτ (j,n+1) Sbτj (j,n+1) . Dann gilt: b X α bi hi (Sbnj ) ≈ cn (Sni ). i=1 Setze ( τ (j, n + 1), τ (j, n) = n, P falls αi hi (Sbnj ) > fn (Sbnj ) sonst. Beide Ideen führen zu folgendem Algorithmus zur Berechnung von V . Algorithmus 12.2 1. Generiere Pfade (Sbnj ), j ∈ {1, . . . , M }, n ∈ {0, . . . , N }. j 2. Initialisiere den Vektor P : P (j) = fN (SN ), für alle j ∈ {1, . . . , M }. 3. Setze n = N − 1. 4. Setze X(j) = fn (Sbnj ) für alle j ∈ {1, . . . , M }. 5. Regressiere P (·) auf h1 (Sbn· ), . . . , hb (Sbn· ). 6. Setze C(j) = α1 h1 (Sbnj ) + . . . + αb hb (Sbnj ) für alle j. 7. Vergleiche C(j) mit X(j): Falls C(j) < X(j), setze P (j) = X(j). 8. Falls n > 0, setze n = n − 1 und gehe zu 4. 9. Falls n = 0: V = Mittelwert von P (j), j = 1, . . . , M . Bemerkung 12.3 92 13 Portfolio-Optimierung 1) Schritt 5 kann wie folgt umgesetzt werden: Definiere M ∈ RM ×b durch h1 (Sbn1 ) . . . hb (Sbn1 ) .. .. M := ... . . M h1 (Sbn ) . . . hb (SbnM ) und bestimme (α1∗ , . . . , αb∗ ) = argminα1 ,...,αb M · (α1 , . . . , αb )T − (P (1), . . . , P (M ))T 2 . Python-Befehl: alpha=np.linalg.lstsq(M,P)[0] 2) Bei der Berechnung von amerikanischen Put-Optionen ist X(j) = fn (Sbnj ) = e−rtn (K − Sbnj )+ . Falls die Option zur Zeit n aus dem Geld ist (d.h. falls Sbnj > K), dann gilt X(j) = 0 und insbesondere C(j) > X(j). Für die Regression ist es daher sinnvoll nur die Realisierungen zu betrachten, die im Geld sind. Hierfür nützlicher Python-Befehl: np.nonzero 13 Portfolio-Optimierung Wir verwenden die Notation aus Kapitel 7. Erinnerung: Zielfunktional: Nebenbedingung: max EU (v(1 + π · R)), π∈Rd+1 d X (P) πi = 1. i=0 Beachte: (P) ist äquivalent zu h i Xd max EU v(1 + (1 − πi )r + π · R) . π∈Rd 13.1 i=1 (P’) Lösungsmethode: Simulation Idee: Ersetze den Erwartungswert durch einen Monte-Carlo-Schätzer. Dazu seib en R(j), j ∈ {1, . . . , M }, unabhängige Realisierungen (einer Approximation) des Zufallsvektors R. M i Xd 1 X h b max U v(1 + (1 − πi )r + π · R(j)) . (PMC) i=1 π∈Rd M j=1 93 13 Portfolio-Optimierung Die Maximalstelle in (PMC) kann mit Hilfe des Newton-Verfahrens bestimmt werden. Sei dazu f (π) := M i Xd 1 X h b U v(1 + (1 − πi )r + π · R(j)) , i=1 M j=1 ∇f := der Gradient von f, Hf := die Hessematrix von f. π ∗ ist die Nullstelle von ∇f . Newton-Verfahren: π0 := 0; πk+1 := πk − (Hf )−1 (πk )∇f (πk ) Algorithmus 13.1 b 1. Generiere unabhängige Realisierungen R(j), j ∈ {1, . . . , M }. 2. Wähle eine Fehlerschranke ε > 0. 3. Setze π = 0. 4. Bestimme ρ = π − (Hf )−1 (π)∇f (π). 5. Falls |π − ρ| ≥ ε, setze π = ρ und gehe zu 4. 6. Falls |π − ρ| < ε, ist ρ Näherung von π ∗ . 13.2 Lösungsmethode: Verteilung Falls die Verteilung von R bekannt ist, kann der Erwartungswert in (P’) durch ein Integral ersetzt werden. Mit numerischer Integralapproximation kann dann das optimale π ∗ näherungsweise bestimmt werden. Beispiel 13.2 (für d = 1) Sei R = h(N ), wobei h : R → R eine gegebene Funktion und N ∼ N (µ, σ 2 ) verteilt ist. Der Erwartungswert EU (v(1 + r + π(R − r))) kann zum Beispiel mit der Gauß-Hermite-Quadratur approximiert werden. Dabei werden x1 , . . . , xm und Gewichte g1 , . . . , gm gewählt, sodass gilt Z m X −x2 f (x)e dx ≈ gi f (xi ). i=1 94 13 Portfolio-Optimierung Wir setzen nun f (y) := U [v(1 + r + π(h(y) − r))]. Dann gilt m √ 1 X Ef (N ) ≈ √ gi f ( 2σxi + µ). π i=1 |{z} √ (13.1) ≈ 3.14 95