Numerik von PDEs - Bepreisung von amerikanischen Optionen Andreas Peterseil 29. Februar 2012 Inhaltsverzeichnis 1 Black-Scholes-Gleichung 1.1 Begriffsbildungen und Sätze . . . . . . . . . . . . . . . . . 1.2 Europäische Call- und Put Optionen . . . . . . . . . . . . 1.2.1 Herleitung der Black-Scholes-Gleichung . . . . . . 1.2.2 Randbedingungen für die Black-Scholes-Gleichung 1.3 Preisprozesse der amerikanischen Call/Put-Option . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 5 6 7 7 2 Numerische Verfahren zur Lösung der Black-Scholes-Gleichung 2.1 Äquivalenz zur Wärmeleitungsgleichung . . . . . . . . . . . . . . . 2.2 Grundlagen von Differenzenverfahren . . . . . . . . . . . . . . . . . 2.3 Diskretisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Explizites Verfahren . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Implizite Verfahren . . . . . . . . . . . . . . . . . . . . . . . 2.4 Konsistenz und Stabilität . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Konsistenz . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 10 12 13 14 14 15 15 16 19 3 Numerische Berechnung des Preises für amerikanische Optionen 3.1 Das Hindernisproblem . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Diskretisierung des Hindernisproblems . . . . . . . . . . . . . 3.2 Berechnung amerikanischer Optionen . . . . . . . . . . . . . . . . . . 3.2.1 Finite Differenzen Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 21 24 24 25 1 . . . . . . . . . . . . . . . . . . . . Abkürzungen Auf einem filtriertem Wahrscheinlichkeitsraum (Ω, F, (Ft )t≥0 , P) seien: • P = {(Xt )t≥0 : (Xt )t≥0 ist ein progressiv messbarer stochastischer Prozess} R • LT = {X ∈ P : [0,T ] |Xs (ω)| dλ(s) < ∞ f.s.} R 2 • Ploc [0, T ] = {X ∈ P : [0,T ] |Xs (ω)|2 dλ(s) < ∞ f.s.} Es sei nun S ein Ito-Prozess mit Driftkoeffizient µ und Diffusionskoeffizient σ. R R • MT (S) = {X ∈ P : [0,T ] |Xs (ω)µ(s, ω)| dλ(s) < ∞ , [0,T ] |Xs (ω)σ(s, ω)|2 dλ(s) < ∞ 2 f.s.} Kapitel 1 Black-Scholes-Gleichung 1.1 Begriffsbildungen und Sätze Zuerst definieren wir einige Begriffe, die in dieser Seminararbeit benötigt werden. Zunächst sei an ein paar Begriffe aus der Vorlesung Einführung in Stochastische Prozesse erinnert. Im weiteren Verlauf sei (Ω, F, (Ft )t≥0 , P) ein filtrierter Wahrscheinlichkeitsraum, wobei (Ft )t≥0 eine vollständige, rechtsstetige Filtrierung bezüglich einer Brownschen Bewegung (Wt )t≥0 darauf ist. 1.1.1 Definition. Es sei ξ(t)t≥0 ein stochastischer Prozess. Dann heißt ξ(t)t≥0 Ito-Prozess, wenn 2 a ∈ LT und b ∈ Ploc [0, T ] ∀T > 0 existieren, sodass ξ(t) = ξ(0) + Z t a(s) ds + 0 Z t b(s) dW (s) f.s. (1.1) 0 ∀t ≥ 0 gilt. Dabei heißen a und b Ito-Koeffizienten von ξ. Genauer ist a der Driftkoeffizient von ξ und b der Diffusionskoeffizient von ξ. Eine Beziehung in der Form von (1.1) wird im Folgenden kurz durch dξ(t) = a(t)dt + b(t)dW (t) ausgedrückt. 1.1.2 Satz (Ito-Formel). Es sei ξ(t) ein Ito-Prozess, mit Driftkoeffizient a und Diffusionskoeffizient b. Weiters sei F (t, x) : R+ × R → R eine Funktion mit stetigen partiellen Ableitungen Ft , Fx und Fxx . Dann ist auch F (t, ξ(t))t≥0 ein Ito Prozess und es gilt dF (t, ξ(t)) = 1 Ft (t, ξ(t)) + a(t)Fx (t, ξ(t)) + Fxx (t, ξ(t))b(t)2 dt + Fx (t, ξ(t))b(t)dW (t). (1.2) 2 Weiters werden wir auch noch einige finanzmathematische Begriffe benötigen. 1.1.3 Definition. S(t)t∈[0,T ] sei ein N -dimensionaler adaptierter stochastischer Prozess auf dem eingangs erwähnten filtriertem Wahrscheinlichkeitsraum. 3 1. Ein N -dimensionaler, bezüglich (Ft )t∈[0,T ] adaptierter stochastischer Prozess H(t)t∈[0,T ] heißt Handelsstrategie. 2. Der Portfoliowert V H (t)t∈[0,T ] zur Handelsstrategie H(t)t∈[0,T ] is definiert durch N X V H (t) = Hj (t)Sj (t) (1.3) j=1 3. Es sei zusätzlich (Stj )t≥0 ein Ito-Prozess mit Driftkoeffizientem µj und Diffusionskoeffizientem σj . Die Handelsstrategie H(t)t∈[0,T ] heißt selbstfinanzierend wenn Hj ∈ MT (S j ) und die Gleichung N X dV H (t) = Hj (t)dS j (t) (1.4) j=1 erfüllt ist. Gleichung (1.4) bedeutet, dass V H (t) = V H (0) + N Z X j=1 t Hj (s)µj (s)ds + 0 Z t Hj (s)σj (s)dW (s) 0 gilt. Grundlegend ist das Konzept der Arbitragefreiheit, welches durch folgende Definition spezifiziert wird. 1.1.4 Definition. Eine gemöglichkeit wenn selbstfinanzierende Handelsstratgie H(t)t∈[0,T ] heißt Arbitra- • V H (0) = 0 • V H (T ) ≥ 0 f.s. • P(V H (T ) > 0) > 0 gilt. Ein Markt S(t)t∈[0,T ] heißt arbitragefrei, wenn es keine Arbitragemöglichkeit gibt. Im folgenden ist S(t)t≥0 ein eindimensionaler adaptierter Prozess. Die Grundlage dieser Seminararbeit bildet die Annahme, dass die Aktienkursentwicklung in der Zeit einer geometrischen Brownschen Bewegung folgt. Genauer gesagt basieren unsere Überlegungen darauf, dass der Aktienkursverlauf S(t) (t ≥ 0) Lösung der stochastischen Differentialgleichung dS(t) = µS(t)dt + σS(t)dW (t) (1.5) ist. Dabei ist (1.5) eine Kurzschreibweise für S(t) = S(0) + Z t µS(s) ds + 0 Z t σS(s)dW (s) 0 Die Lösung für den Anfangswert S0 der stochastischen Differentialgleichung in (1.5) ist gegeben durch S(t) = S0 e 2 µ− σ2 t+σW (t) (1.6) 4 wie sich leicht mit Hilfe der Ito-Formel (die Ito-Koeffizienten von W (t)t≥0 sind offensichtlich) verifizieren lässt. Weiters sei neben dem Aktienpreis mit Preisprozess S(t)t≥0 ein risikoloses Asset mit Preisprozess B(t)t≥0 , charakterisiert durch dB(t) = r(t)B(t)dt (1.7) gegeben. Dieses kann zum Beispiel als Bankkontoeinheit interpretiert werden. Die nächste Folgerung (siehe [B, 97]) aus der Arbitragefreiheit eines Marktes werden wir für die Herleitung der Black-Scholes Gleichung brauchen. 1.1.5 Satz. Es sei k(t)t∈[0,T ] ein adaptierter Prozess und H(t)t∈[0,T ] eine selbstfinanzierende Handelsstrategie, sodass für den Portfoliowert V H gilt dV H (t) = k(t)V H (t)dt (1.8) Dann muss k(t) = r(t) für alle t gelten oder es gibt eine Arbitragemöglichkeit. Nun können wir uns mit der Herleitung der sogenannten Black-Scholes-Gleichung, welche eine partielle Differentialgleichung darstellt, beschäftigen. 1.2 Europäische Call- und Put Optionen 1.2.1 Definition. Eine europäische Kaufoption (European call option), mit Ausübungspreis (strike price) K und mit Fälligkeit T (∈ R+ ) (maturity), auf das zugrunde liegende Wertpapier St≥0 , ist ein Vertrag, der dem Käufer das Recht, aber nicht die Pflicht, gibt das Wertpapier S zum Zeitpunkt T zum Preis K zu kaufen. Die europäische Kaufoption ist also zum Zeitpunkt T genau dann etwas wert, wenn der Aktienpreis ST zum Zeitpunkt T größer ist als der Ausübungspreis K. In diesem Fall beträgt der Wert genau die Differenz ST − K. Im anderen Fall, also St ≤ K, ist die Option wertlos, da ja nicht ausgeübt werden muss. Insgesamt beträgt also die Auszahlung zum Zeitpunk T genau (ST − K)+ := max{ST − K, 0}. 1.2.2 Definition. Eine europäische Verkaufsoption (European put option), mit Ausübungspreis (strike price) K und mit Fälligkeit T (∈ R+ ) (maturity), auf das zugrunde liegende Wertpapier St≥0 ist ein Vertrag, der dem Käufer das Recht, aber nicht die Pflicht, gibt das Wertpapier S zum Zeitpunkt T zum Preis K zu verkaufen. Analog zur europäischen Kaufoption erhalten wir für die Auszahlung einer Europäischen Verkaufsoption zum Zeitpunkt T genau (K − ST )+ . Wir wollen nun eine partielle Differentialgleichung (PDE), nämlich die Black-Scholes Gleichung, für den arbitragefreien Preisprozess einer europäischen Call- und Put-Option im, durch die jederzeit handelbare Option, erweiterten Finanzmarktmodell herleiten. Zusammenfassend stellen wir folgende Grundannahmen an den Markt (siehe [GJ, 52/53]): • Der Markt ist arbitragefrei. • Der Wertpapierpreisprozess wird durch (1.5) beschrieben. • Die Zinsrate r(t), siehe (1.7), ist konstant. Also r(t) = r ∈ R. Diese Zinsrate gilt sowohl für Geldeinlagen als auch für Kredite. 5 • Es erfolgen keine Dividendenzahlungen auf den Basiswert. • Der Markt ist friktionslos (keine Transaktionskosten, Gebühren, usw.) und liquide. • Der Basiswert kann kontinuierlich gehandelt werden, ist beliebig teilbar und auch Leerverkäufe sind erlaubt. • Alle betrachteten stochastischen Prozesse sind stetig. 1.2.1 Herleitung der Black-Scholes-Gleichung Wir gehen bei der Herleitung wie in [D, 46 ff] vor. Es sei nun F (t, S) die Auszahlung einer Option abhängig vom Zeitpunkt t und vom Aktienpreis zum Zeitpunkt t. Setzen wir für F (t, S) voraus, dass es die Voraussetzungen der Ito-Formel erfüllt, erhalten wir mit Hilfe von (1.2) dF = ∂F 1 ∂2F ∂F + µS + σ2 S 2 2 ∂t ∂S 2 ∂S dt + σS ∂F dW. ∂S (1.9) Nun definieren wir eine Handelsstrategie (HB , HS , HV ) im erweiterten Finanzmarktmodell (Bt≥0 , St≥0 , Ft≥0 ) durch HB (t), HS (t), HF (t) := ∂F (t, S(t)) , −1 , β(t), ∂S (1.10) wobei mit β(t) erreicht werden soll, dass diese Handelsstrategie selbstfinanzierend wird. Mit dieser selbstfinanzierenden Handelsstrategie erhalten wir für den Portfoliowert V H (t) dV H (t) = −dV (t, S(t)) + ∂F (t, S(t)) dS(t) + β(t)dB(t) ∂S (1.11) Mit Hilfe von (1.9),(1.5) und (1.7) erhalten wir somit ∂F ∂F ∂F ∂F ∂2F ∂F 1 + µS − µS + σ 2 S 2 2 − βrB dt + −σS + σS dW = ∂t ∂S ∂S ∂S | ∂S {z ∂S } 2 | {z } dV H = − =− =0 =0 ∂F ∂F 1 2 2 ∂2F 1 1 2 2 ∂2F + σ S − βrB dt = − H + σ S − βrB V H (t)dt ∂t 2 ∂S 2 V (t) ∂t 2 ∂S 2 Also fällt für V H insbesondere der Diffusionsterm weg. Weiters lässt sich nun aufgrund der vorausgesetzten Arbitragefreiheit Satz 1.1.6 anwenden und wir erhalten, wegen der vorausgesetzten konstanten Zinsrate r V Hr = − 1 ∂2F ∂F + σ 2 S 2 2 − βrB . ∂t 2 ∂S (1.12) Andererseits erhalten wir für V H r nach Definition von V H V H r = −rF + r ∂F S + rβB. ∂S (1.13) Durch Kombination von (1.12) und (1.13) erhalten wir für F die Black Scholes Gleichung 1 ∂F ∂2F ∂F (t, S) + σ 2 S 2 2 (t, S) + r (t, S)S − rF (t, S) = 0. ∂t 2 ∂S ∂S 6 (1.14) 1.2.2 Randbedingungen für die Black-Scholes-Gleichung Nun wollen wir auch Randbedingungen für (1.14) für die speziellen Fälle einer europäischen Call- und europäischen Put-Option herleiten. Der Preisprozess einer Call-Option sei mit C(t, S) bezeichnet, jener der Put-Option mit P (t, S). Offensichtlich ist die Randbedingung zum Zeitpunkt T C(T, S) = (S − K)+ P (T, S) = (K − S) (1.15) + (1.16) Gibt es einen Zeitpunkt t⋆ , sodass S(t⋆ ) = 0 gilt, folgt, da S(t) einer geometrischen Brownschen Bewegung folgt, dass S(t) = 0 für t ≥ t⋆ (vgl. (1.6)). Insbesondere muss aus Arbitragegründen C(t, 0) = 0 (1.17) gelten. Weiters ist es plausibel, dass für große S der Wert einer Put-Option sehr gering sein wird. Dies motiviert die Randbedingung P (t, S) = 0 für S→∞ (1.18) Aufgrund der Call-Put-Parität S + P − C = Ke−r(T −t) (siehe z.B. [GJ, 12]) ergeben sich außerdem noch die Randbedingungen P (t, 0) = Ke−r(T −t) S − C(t, S) → Ke−r(T −t) für S → ∞ Zusammenfassend erhalten wir also nun für den Wert einer europäischen Option das Randwertproblem: Black-Scholes-Gleichung für europäische Optionen ∂F ∂F 1 ∂2F (t, S) + σ 2 S 2 2 (t, S) + r (t, S)S − rF (t, S) = 0 ∂t 2 ∂S ∂S mit den Randbedingungen ( europäische Put-Option F (T, S) = (K − S) + F (t, 0) = Ke−r(T −t) F (t, S) = 0 für S → ∞ 1.3 (1.19) europäische Call-Option F (T, S) = (S − K)+ F (t, 0) = 0 S − C(t, S) → Ke−r(T −t) für S → ∞ Preisprozesse der amerikanischen Call/Put-Option 1.3.1 Definition. Eine amerikanische Kaufoption (American call option), mit Ausübungspreis (strike price) K und mit Fälligkeit T (∈ R+ ) (maturity), auf das zugrunde liegende Wertpapier St≥0 ist ein Vertrag, der dem Käufer das Recht, aber nicht die Pflicht, gibt das Wertpapier S zu einem beliebigen Zeitpunkt t ∈ [0, T ] zum Preis K zu kaufen. 7 Somit ergibt sich zu jedem Zeitpunkt t ∈ [0, T ] die Auszahlung (St − K)+ . Analog gibt es auch amerikanische Verkaufsoptionen. 1.3.2 Definition. Eine amerikanische Verkaufsoption (American put option), mit Ausübungspreis (strike price) K und mit Fälligkeit T (∈ R+ ) (maturity), auf das zugrunde liegende Wertpapier St≥0 ist ein Vertrag, der dem Käufer das Recht, aber nicht die Pflicht, gibt das Wertpapier S zu einem beliebigen Zeitpunkt t ∈ [0, T ] zum Preis K zu verkaufen. Hier ergibt sich die Auszahlung (K − St )+ zum Zeitpunkt t ∈ [0, T ]. Offensichtlich muss der Wert einer amerikanischen Option zum Zeitpunkt t, größer gleich der Auszahlung zum Zeitpunkt t sein, da sonst, wegen der sofortigen Ausübungsmöglichkeit unmittelbar eine Arbitragemöglichkeit gegeben wäre. Insbesondere müssen, wegen der frühzeitigen Möglichkeit zur Ausübung, die Gedankengänge bei der Herleitung von (1.14) adaptiert werden, um eine PDE für den Preisprozess einer amerikanische Option zu erhalten. Auch hier orientieren wir uns bei der Herleitung des freien Randwertsproblems für amerikanische Optionen an [D], aber auch an [S] und [GJ]. Wir betrachten nun eine amerikanische Put-Option mit Wert P (t, S) zum Zeitpunkt t ∈ [0, T ]. Ziel ist es nun ein sogenanntes freies Randwertproblem für den Wert P (t, S) herzuleiten. Amerikanische CallOptionen können ähnlich behandelt werden. Wir betrachten den Wert P (t, S) der Put-Option zu einem festen Zeitpunkt t. Leicht einzusehen ist, dass, wie bereits bemerkt, die Ungleichung P (t, S) ≥ (K − S)+ (1.20) gelten muss. Im Fall S ≥ K ist das offensichtlich. Wenn S < K ⇔ K − S > 0 gilt, so würde mit der Ungleichung P (t, S) < (K − S) eine Arbitragemöglichkeit zum Zeitpunkt t gegeben sein. Wird nämlich zum Zeitpunkt t eine Put-Option gekauft und diese sofort ausgegeübt bleibt insgesamt ein Gewinn von −P + K − S > 0. Weiters erhält man durch analoge Überlegungen wie in (1.18) die Randbedingung P (t, S) → 0 für S → ∞. (1.21) Nun wollen wir herleiten, dass es zu jedem Zeitpunkt t einen Preis Sf (t) gibt, sodass sich die Ausübung im Fall S ≤ Sf (t) lohnt und für S > Sf (t) nicht lohnt. Dazu betrachten wir den Wert eines Portfolios, bestehend aus einer Put-Option und einer Aktie, vor und nach dem Ausüben. Wenn sich der Wert verringert, hat sich das Ausüben nicht gelohnt. Wenn dies nicht der Fall ist lohnt sich das Ausüben. Im Fall S ≥ K ⇔ (K − S)+ = 0 findet keine Ausübung statt, da der Marktpreis des Assets den Strike Price übersteigt. Es sei also im Folgenden S < K. Wir betrachten den Portfoliowert π = P + S. Wenn P > (K − S)+ gilt folgt π > (K − S)+ + S = K vor der Ausübung. Nach der Ausübung gilt π = (K − S)+ + S = K − S + S = K. Also lohnt sich die Ausübung nicht. Sobald P = K − S gilt lohnt sich die Ausübung, denn dann ist der Porfoliowert vor und nach der Ausübung gleich K. Im Fall S = 0 muss aus Arbitragegründen P (t, S) = K zum Zeitpunkt t gelten. Somit ist die Menge {0 ≤ S < K : P (t, S) + S = K} nicht leer. Aufgrund der Stetigkeit von P (t, S) (der Preis soll (klassische) Lösung einer PDE werden) und da für S = K die Gleichung P (t, S) + S = K, aufgrund der Positivität von P , nicht erfüllt sein kann, hat diese Menge insbesondere ein Maximum Sf (t). Für Sf (t) gilt insbesondere auch P (t, S) = (K − S)+ = (K − S) P (t, S) erfüllt (1.14) S ≤ Sf S > Sf , (1.22) (1.23) wobei im letzten Fall die Option gehalten wird, und P (t, S) aufgrund gleicher Argumente wie bei der ∂P (t, S) Herleitung von (1.14), ebendiese PDE erfüllen soll. Weiters wollen wir auch die Stetigkeit von ∂S 8 an der Stelle S = Sf (t) voraussetzen (kann auch mittels Arbitrageargumenten gefolgert werden, siehe ∂P (t, S) = −1 für S < Sf (t) die Forderung z.B. Abschnitt 7.4. in [C]). Hiermit folgt aufgrund von ∂S ∂P (t, Sf (t)) = −1. ∂S (1.24) Zusammenfassend ergibt sich also mit Hilfe von (1.20),(1.21),(1.22),(1.23),(1.24) und da der Wert zum Fälligkeitszeitpunkt T gleich der Auszahlung sein muss, für den Preisprozess P (t, S) einer amerikanische Put-Option das folgende freie Randwertproblem freies Randwertproblem für die amerikanische Put-Option 1 ∂P ∂2P ∂P (t, S) + σ 2 P 2 2 (t, S) + r (t, S)S − rP (t, S) = 0 ∂t 2 ∂S ∂S P (t, S) = K − S + P (T, S) = (K − S) P (t, S) → 0 für S → ∞ ∂P (t, Sf (t)) = −1. ∂S für S > Sf (t) für S ≤ Sf (t) (Endbedingung) Da wir in unserem Modell gefordert haben, dass keine Dividenenzahlung erfolgt, ist eine analoge Modellierung von amerikanischen Call-Optionen nicht unbedingt sinnvoll, da sich eine vorzeitige Ausübung nicht lohnt (siehe [S, 95]), und somit der Wert gleich jenem einer europäischen Kaufoption ist. Ein kontinuierliches Dividendenmodell lässt sich durchaus in den Black-Scholes-Rahmen einbauen. Der zugrundeliegende Aktienpreisprozess S(t)t≥0 würde für δ > 0 dS(t) = (µ − δ)S(t)dt + σdW (t) erfüllen. Hierbei modelliert das δ den kontinuierlichen Fluss von Dividendenzahlungen (siehe [S, 78]). Dies führt auf das freie Randwertproblem (man beachte den Einfluss von δ in der Differentialgleichung): freies Randwertproblem für die amerikanische Call-Option ∂C ∂C 1 ∂2C (t, S) + σ 2 C 2 2 (t, S) + (r − δ) (t, S)S − rC(t, S) = 0 ∂t 2 ∂S ∂S C(t, S) = S − K C(T, S) = (S − K) + für S < Sf (t) für S ≥ Sf (t) (Endbedingung) C(t, 0) = 0 ∂P (t, Sf (t)) = 1. ∂S Insbesondere ist also neben der Funktion P (t, S) bzw. C(t, S) auch der freie Randwert Sf (t) gesucht. 9 Kapitel 2 Numerische Verfahren zur Lösung der Black-Scholes-Gleichung Ziel dieser Seminararbeit ist es, den Preis einer amerikanischen Option zu berechnen. Um dem Ziel näher zu kommen, beschäftigten wir uns zunächst mit der numerischen Lösung der Black-Scholes-Gleichung. 2.1 Äquivalenz zur Wärmeleitungsgleichung Zuerst wollen wir noch die Äquivalenz von der Black-Scholes Gleichung zur Wärmeleitungsgleichung yτ = yxx (2.1) herleiten, um von einer Lösung von (2.1) auf eine Lösung von (1.14) schließen zu können. Die Methoden in diesem Kapitel können zwar grundsätzlich auch für die Black-Scholes-Gleichung verwendet werden, allerdings lassen sich diese für die äquivalente Gleichung (2.1) wesentlich einfacher durchführen. Um der Übersicht zu dienen wollen wir diese Äquivalenz in 2 Schritten herleiten. 2 2.1.1 Satz. Ausgehend von (1.14) seien mit K ∈ R+ Φ : R × (0, T σ2 ) → (0, T ) × R+ , α und β definiert durch 2r 2r 2τ α := 2 − 1 β := − 2 . Φ(x, τ ) := T − 2 , Kex ) =: Φ1 (x, τ ), Φ2 (x, τ ) σ σ σ 2 Dann löst y, definiert auf R × (0, T σ2 ) genau dann −yτ + yxx + αyx + βy = 0 (2.2) wenn y ◦ Φ−1 (1.14) löst. 2 Beweis. Es sei V eine Lösung von (1.14). Definiere y auf R × (0, T σ2 ) durch 2τ y(x, τ ) := V ◦ Φ(x, τ ) = V T − 2 , Kex . σ 10 Dann gilt − yτ (x, τ ) + yxx (x, τ ) + αyx (x, τ ) + βy(x, τ ) = 2 = Vt ◦ Φ(x, τ ) 2 + VS ◦ Φ(x, τ ) Kex + α VS ◦ Φ(x, τ ) Kex + β V ◦ Φ(x, τ ) = σ x 2 x 2 = Vt ◦ Φ(x, τ ) 2 + VSS ◦ Φ(x, τ ) (Ke ) + (1 + α) VS ◦ Φ(x, τ ) Kex + β V ◦ Φ(x, τ ) = σ σ2 x 2 x 2 Vt ◦ Φ(x, τ ) + = 2 VSS ◦ Φ(x, τ ) (Ke ) + r VS ◦ Φ(x, τ ) Ke − r V ◦ Φ(x, τ ) = σ 2 | {z } =0 =0. Sei nun umgekehrt y Lösung von (2.2). Für V auf (0, T ) × R+ , definiert durch S σ2 V (t, S) := y ln , (T − t) = y ◦ Φ−1 (t, S) K 2 folgt 0 = − yτ + yxx + αyx + βy = (−V ◦ Φ)τ + (V ◦ Φ)xx + α(V ◦ Φ)x + β(V ◦ Φ) = 2 σ2 = 2 Vt ◦ Φ + (VSS ◦ Φ)Φ22 + r(VS ◦ Φ)Φ2 − r(V ◦ Φ) . σ 2 2 Die letzte Gleichheit folgt hier vollkommen analog zum ersten Teil des Beweises. Da Φ R × (0, T σ2 ) bijektiv auf (0, T ) × R+ abbildet erfüllt V auch (1.14). Mit dem nächsten Theorem sehen wir die Äquivalenz zur Wärmeleitungsgleichung (2.1). 2 2.1.2 Satz. Ausgehend von (2.2) seien mit Ψ : R × (0, T σ2 ) → R, γ und δ definiert durch Ψ(x, τ ) := eγx+δτ γ := − α 2 δ := β − α2 . 4 2 Dann löst y, definiert auf R × (0, T σ2 ) genau dann yτ = yxx (2.3) wenn y · Ψ (2.2) löst. Beweis. Es sei y Lösung von (2.1). Dann sei V definiert durch V (x, τ ) := Ψ(x, τ )y(x, τ ) Dann gilt (Ψ−1 bezeichnet den Kehrwert von Ψ 6= 0) 0 =Ψ0 = Ψ yxx − yτ = Ψ δΨ−1 V − Ψ−1 Vτ + γ 2 Ψ−1 V − 2γΨ−1 Vx + Ψ−1 Vxx = =δV − Vτ + γ 2 V − 2γVx + Vxx = −Vτ + (γ 2 + δ)V − 2γVx + Vxx = = − Vτ + Vxx + αVx + βV. Also ist (2.2) erfüllt. Ist andererseits (2.2) durch V erfüllt folgt, mit y := Ψ−1 V , 0 = Ψ−1 0 =Ψ−1 − Vτ + Vxx + αVx + βV = =Ψ−1 − yτ Ψ − yΨδ + γ 2 Ψy + 2γΨyx + Ψyxx + αγΨy + αΨyx + βΨy = = − yτ − yδ + γ 2 y + 2γyx + yxx + αγy + αyx + βy = =yxx − yτ + y (−δ + γ 2 − 2γ 2 + δ + γ 2 ) +yx (2γ − 2γ) = yxx − yτ . | | {z } {z } =0 =0 11 Somit löst y (2.1). Bemerkung. Aus den letzten beiden Resultaten folgt, ausgehend von einer Lösung y von (2.1), dass σ 2 − 2r 2σ 2 8rσ 2 + (σ 2 − 2r)2 δ := − 4σ 4 γ := V (S, t) := e γ ln S K +δ(T −t)σ 2 /2 S 2 y ln , (T − t)σ /2 K eine Lösung von (1.14) ist. Auch die im freien Randwertproblem für amerikanische Call-Optionen auftretende Differentialgleichung ist äquivalent zur Wärmeleitungsgleichung wie man mittels einer ähnlichen Transformation einsehen kann. Details hierzu sind in [S, 78] zu finden. 2.2 Grundlagen von Differenzenverfahren Zur Approximation der Lösung y von (2.1) verwenden wir das Verfahren der finiten Differenzen. Hierzu werden Ableitungen durch Differenzenquotienten zur Schrittweite h > 0 angenähert. Dies kann zum Beispiel für eine Funkltion g durch g ′ (x) ≈ g(x + h) − g(x) h g ′ (x) ≈ oder g(x) − g(x − h) h (2.4) passieren. Ausgehend von den Approximationen in (2.4) kann auch eine Approximation für die zweite Ableitung hergeleitet werden. g ′′ (x) ≈ g ′ (x + h) − g ′ (x) ≈ h g(x+h)−g(x) h − h g(x)−g(x−h) h = g(x + h) − 2g(x) + g(x − h) h2 Daraus können nun Approximation für yτ (x, τ ) und yxx (x, τ ) gewonnen werden. y(x, τ + s) − y(x, τ ) s y(x + h, τ ) − 2y(x, τ ) + y(x − h, τ ) h yxx (x, τ ) := h2 yτs (x, τ ) := oder ητs (x, τ ) := y(x, τ ) − y(x, τ − s) s (2.6) Als unmittelbare Folgerung aus dem Satz von Taylor ergibt sich 2.2.1 Satz. Für Ω ⊂ R2 offen sei y ∈ C 4 (Ω) und [x − h, x + h] × [t − s, t + s] ⊂ Ω. Dann gilt yτ τ |{x}×[τ,τ +s] s ∞ |yτ (x, τ ) − yτ (x, τ )| ≤ s also yτs = yτ + O(s). 2 Analog gilt ητs = yτ + O(s) h yxx = yxx + O(h2 ). und 12 (2.5) Nun wollen wir ein Gitter definieren, auf dessen Punkten wir die Lösung für (2.1) approximieren. Prinzipiell suchen wir die Lösung definiert auf R × (0, α). Da wir aber nur endlich viele Gitterpunkte haben können, müssen wir uns auf ein Intervall [a, b] für x einschränken. Hierzu seien Randbedingungen y(a, t) = f1 (t), y(b, t) = f2 (t) t ∈ (0, α) gegeben. Für m, k ∈ N sei definiert (b − a) m α s := . k h := Dann erhalten wir als Bezeichnungen für unser Gitter τj := js für j = 0, 1, ..., k xi := a + ih yij := y(xi , τj ) für i = 0, 1, ..., m Mit Imk := {1, ..., m−1}×{0, ..., k−1} suchen wir nun auf dem Gitter (xi , τj )(i,j)∈Imk eine Approximation für y. 2.3 Diskretisierung Ausgehend von der Gleichung yτ = yxx ergibt sich nun auf Basis von Satz 2.2.1, mit beiden Möglichkeiten in (2.5) und (2.6), dass gilt h yτs (xi , τj ) = yxx (xi , τj ) + O(s + h2 ) yτs (xi , τj ) = ητs (xi , τj+1 ) = h yxx (xi , τj+1 ) 2 + O(s + h ) (i, j) ∈ {1, ..., m − 1} × {0, ..., k − 1} (i, j) ∈ {1, ..., m − 1} × {0, ..., k − 1}. (2.7) (2.8) Durch Multiplikation von (2.8) mit θ ∈ [0, 1], von (2.7) mit 1 − θ und anschließender Addition der beiden Gleichungen erhält man yi,j+1 − yij 1−θ θ = (yi+1,j − 2yij + yi−1,j ) + 2 (yi+1,j+1 − 2yij + yi−1,j+1 ) + O(s + h2 ). s h2 h 13 (2.9) Dies motiviert die Gleichung 1−θ θ wi,j+1 − wij = (wi+1,j − 2wij + wi−1,j ) + 2 (wi+1,j+1 − 2wij + wi−1,j+1 ) , 2 s h h welche von den Näherungen wij für yij erfüllt werden sollen. Mit λ := − λθwi+1,j+1 + (2λθ + 1) wi,j+1 − λθwi−1,j+1 = = λ(1 − θ)wi+1,j − 2λ(1 − θ) − 1 wij + λ(1 − θ)wi−1,j s h2 (2.10) folgen also die Gleichungen i ∈ {1, ..., m − 1} (2.11) j ∈ {0, ..., k − 1} (2.12) Aus den Randbedingungen ergibt sich w0j = f1 (τj ), j wm = f2 (τj ), wi0 = y0 (xi ), 1≤j≤k 0 ≤ i ≤ m. Weiters ergeben sich aus (2.12) mit den Bezeichnungen wj := (w1j , ..., wm−1,j )T , sowie A := B := 2λθ + 1 −λθ −λθ 0 ... 2λθ + 1 −λθ .. .. . . 0 .. . 0 ... 0 .. . −λθ 0 .. . 0 −λθ 2λθ + 1 dj := −2λ(1 − θ) + 1 λ(1 − θ) 0 λ(1 − θ) −2λ(1 − θ) + 1 .. . λ(1 − θ) .. . .. ... 0 λ(1 − θ) 0≤j ≤k−1 und 0 .. . 0 λ(1 − θ)w0j + λθw0,j+1 0 .. . 0 λ(1 − θ)wmj + λθwm,j+1 ... . 0 λ(1 − θ) −2λ(1 − θ) + 1 die Gleichungssysteme Awj+1 = Bwj + dj für 0 .. . wi0 = y0 (xi ) für 0≤i≤m (2.13) Bemerkung. Das Gleichungssystem in 2.13 hat eine eindeutige Lösung wj+1 . Dies folgt daraus, dass A eine strikt diagonaldominante und somit reguläre Matrix ist (siehe [P, 24]). 2.3.1 Explizites Verfahren Für θ = 0 ist die Matrix A in (2.13) die Einheitsmatrix und somit können ausgehend von w0 alle Vektoren wj rekursiv mittels Matrixmultiplikation berechnet werden. Deswegen nennt man das Differenzenverfahren mit θ = 0 explizites Verfahren. Da hier kein Gleichungssystem gelöst werden muss, erfolgt die Berechnungen der Näherungswerte sehr effizient. 2.3.2 Implizite Verfahren Für θ > 0 erhalten wir implizite Differenzenverfahren. Der Name rührt daher, dass hier in jedem Schritt zur rekursiven Berechnung des Vektors wj+1 ein lineares Gleichungssystem gelöst werden muss. Für θ = 1 heißt das Verfahren (voll) implizit und für θ = 12 spricht man vom Crank-Nicolson-Verfahren. 14 Beispiel. Betrachte das Randwertproblem yτ = yxx auf [0, 1]2 , y(x, 0) = sin πx, y(0, τ ) = y(1, τ ) = 0. 2 Die exakte Lösung ist y(x, τ ) = e−π τ sin πx. Es gilt y(0.2, 0.5) ≈ 0.004227. Mit Hilfe von Matlab erhält man mit dem expliziten Verfahren als Approximationen beispielsweise h 0.1 0.1 s 0.0005 0.01 λ 0.05 1 i 2 2 j 1000 50 xi 0.2 0.2 τj 0.5 0.5 yij 0.00435 1.0337 · 106 Die erste Wahl der Schrittweite von s liefert einen vernünftigen Wert,wohingegen die zweite Wahl der Schrittweiten offensichtlich zu einem Desaster führt. Dies führt uns auf den Begriff der Stabilität. 2.4 Konsistenz und Stabilität 2.4.1 Konsistenz Ziel ist es nun zu untersuchen, ob eine gute“ Lösung zu erwarten ist, beziehungsweise gegebenenfalls ” Bedingungen für die Schrittweiten h, s anzugeben, unter denen eine gute Lösung zu erwarten ist. Hierfür benötigen wir die Eigenschaften Konsistenz und Stablitität eines solchen Differenzenverfahrens. 2.4.1 Definition. Ein Differenzenverfahren aus dem letzten Abschnitt heißt konsistent von der Ordnung O(sa + hb ) mit a, b > 0, wenn es eine Konstante C > 0 gibt, sodass für hinreichend kleine s, h > 0 gilt max |Lh,s (yi,j )| ≤ C(sa + hb ) (2.14) i,j wobei Lh,s (yi,j ) = yi,j+1 − yij 1 − θ θ − 2 (yi+1,j − 2yij + yi−1,j ) − 2 (yi+1,j+1 − 2yij + yi−1,j+1 ) (2.15) s h h Bemerkung. Die Konsistenz ist eine Kenngröße dafür, wie schnell das Residuum, welches durch Einsetzen der exakten Lösung in 2.10 entsteht, gegen 0 geht, wenn s, h gegen 0 gehen. Wir haben im vorigen Abschnitt schon ein Resultat der Konsistenz des Differenzenverfahrens hergeleitet. Wir erhielten (2.9) auf Basis von Satz 2.2.1. Zusammenfassend erhalten wir also folgenden Satz. 2.4.2 Satz. Es sei y wie im letzten Abschnitt und zusätzlich y ∈ C 4 . Dann ist das diskutierte Differenzenverfahren konsistent von der Ordnung O(s + h2 ) für alle s, h > 0 und θ ∈ [0, 1]. Für den Fall θ = 21 lässt sich die Konsistenzordnung noch verbesseren. Dies begründet auch den eigenen Namen des Verfahrens für θ = 21 . 2.4.3 Satz. Für die Lösung y der Wärmeleitungsgleichung (2.1) gelte y ∈ C 4 . Dann ist das CrankNicholson Verfahren konsistent mit der Ordnung O(s2 + h2 ). Beweis. Nach dem Satz von Taylor gilt: 15 1 (y(xi , τj + s) − y(xi , τj )) s yxx (xi , τj+1 ) − yxx (xi , τj ) = = s yt (xi , τj ) + ytt (xi , τj ) + O(s2 ) 2 syxxt (xi , tj ) + O(s2 ). und Damit und wieder mit dem Satz von Taylor folgt: 1 (y(xi + h, τj ) − 2y(xi , τj ) + y(xi − h, τj ) + y(xi + h, τj+1 ) − 2y(xi , τj+1 ) + y(xi − h, τj+1 )) 2h2 1 = yxx (xi , τj ) + O(h2 ) + yxx (xi , τj+1 ) + O(h2 ) 2 1 = yxx (xi , τj ) + (yxx (xi , τj+1 ) − yxx (xi , τj )) + O(h2 ) 2 1 = yxx (xi , τj ) + syxxt (xi , τj ) + O(s2 + h2 ) 2 Insgesamt erhalten wir also für das Residuum Lh,s (yi,j ) = = s s yt (xi , τj ) + ytt (xi , τj ) − yxx (xi , τj ) − yxxt (xi , τj ) + O(s2 + h2 ) 2 2 s yt (xi , τj ) − yxx (xi , τj ) + yt − yxx t (xi , τj ) + O(s2 + h2 ) = O(s2 + h2 ). {z } | {z } 2 | =0 =0 2.4.2 Stabilität Weiters wollen wir nun untersuchen wie sich Rundungsfehler im zuvor beschriebenen Algorithmus fortpflanzen können. Hierzu sei an 2.13 erinnert und die Vektoren wj für j = 0...k − 1 bezeichnen die exakten Lösungen für dieses lineare Gleichungssystem. Bei der Realisation des Algorithmus zur Lösung von 2.13 werden aber gerundete Werte wj berechnet und als Näherung verwendet. Die Fehlervektoren ej seien durch ej := wj − wj definiert. Mit einem Residuum rj werden dann von den gerundeten Werten wj folgende Gleichungen erfüllt Awj+1 = Bwj + dj + rj j = 0...k − 1. (2.16) Es ergibt sich für den Fehler ej die Rekursion ⇔ Aej+1 = Awj+1 − Awj+1 = Bwj + dj + rj − Bwj − dj = Bej + rj ⇔ e j+1 −1 =A j −1 j Be + A r . (2.17) (2.18) Wir betrachten den idealisierten Fall, dass rj = 0 ∀j ≥ 0. Es entsteht also nur ein Fehler bei bei der Auswertung des Anfangswertes. Nach 2.18 ergibt sich mit C := A−1 B die Fortpflanzung des Fehlers durch ej = C j e0 . Für ein sogenanntes stabiles Verhalten sollte also ein abklingendes Verhalten dieses Fehlers gegeben sein. Gibt es eine Abbildungsnorm k·k, sodass kCk < 1 folgt j 0 ≤ lim sup ej Rn = lim sup C j e0 Rn ≤ lim sup kCk e0 Rn = 0 j→∞ j→∞ j→∞ j und somit lim e Rn = 0. j→∞ Mit ρ(M ) := max{|λ|λ ∈ C ist Eigenwert von M} und aufgrund des Satzes 16 Für jede Matrix M ∈ Rn×n oder M ∈ Cn×n gilt für den zugehörigen 2.4.4 Satz ([P, 113]). Spektralradius ρ(M ) ρ(M ) = inf{kM k k·k ist Operatornorm, die von einer Norm auf Cn induziert wird}. (2.19) ist die Existenz einer solchen Abbildungsnorm äquivalent zu ρ(C) < 1. Gilt andererseits ρ(C) ≥ 1, so gibt es ein λ ∈ C mit |λ| ≥ 1 und ein x ∈ CN −1 \{0} sodass Cx = λx. Dann folgt aber, da C ausschließlich reelle Einträge hat, 0 < kxk ≤ |λ|j kxk = λj x = C j x = C j (ℜx + iℑx) = C j ℜx + iC j ℑx ≤ C j ℜx + C j ℑx . (2.20) j j Somit können nicht C ℜx und C ℑx für j → ∞ gegen 0 konvergieren. Insbesondere gibt es ein y ∈ RN −1 (nämlich z.B. entweder ℜx oder ℑx), sodass C j y nicht gegen 0 konvergiert. Also kann es, um wieder Bezug zu unserem Differenzverfahren herzustellen, passieren dass der Fehler, welcher durch die Auswertung des Anfangswertes ensteht, nicht abklingt, ja womöglich sogar explodiert. Diese Überlegungen motivieren folgende Definition: 2.4.5 Definition. Das Differenzenverfahren in 2.13 heißt stabil, wenn ρ(A−1 B) < 1 (2.21) gilt. Motiviert durch diese Definition der Stabilität wollen wir nun die Eigenwerte von speziellen Tridiagonalmatrizen, deren Struktur z.B. die Matrizen A, B in 2.13 haben, untersuchen. 2.4.6 Satz. Es sei a ∈ R, b 6= 0 und sgn b = sgn c. Die Matrix M ∈ Rn×n , definiert durch a c M := 0 b a .. . 0 .. . .. . c hat genau die Eigenwerte µk = a + 2b r c cos b , b a kπ n+1 , k = 1, ..., n (2.22) mit zugehörigen Eigenvektoren 1 c n2 kπ c 22 2kπ nkπ c 2 . , , ..., sin sin sin v = b n+1 b n+1 b n+1 k 17 (2.23) Beweis. Zunächst zeigen wir (M v k )l = (µk v k )l für 2 ≤ l ≤ n − 1. Mit dem Additionstheorem (x, y ∈ R) 2 sin x cos x = sin (x − y) + sin (x + y) (2.24) folgt = = = = k k (M v k )l = cvl−1 + avlk + bvl+1 c l+1 c l−1 c 2l (l − 1)kπ lkπ (l + 1)kπ 2 2 +a +b c sin sin sin b n+1 b n+1 b n+1 c 2l c l−1 (l + 1)kπ (l − 1)kπ lkπ 2 +a + sin c sin sin b n+1 n+1 b n+1 l c 2l r c lkπ kπ c 2 lkπ 2b sin cos +a sin b b n+1 n+1 b n+1 l r kπ c 2 lkπ c cos +a = (µk v k )l . 2b sin b n+1 b n+1 Somit bleibt die Gleichheit (M v k )l = (µk v k )l für l = 1 und l = n zu zeigen. Es folgt wieder mit Hilfe von (2.24) (µk v k )1 = = und (µk v k )n = = 1 c 12 √ kπ kπ kπ c 2 kπ kπ a + 2 bc cos sin sin =a + 2c sin cos n+1 b n+1 b n+1 n+1 n+1 c 12 c 2kπ kπ + b sin = av1k + bv2k = (M v k )1 a sin b n+1 b n+1 n c n2 c n−1 √ nkπ nkπ (n − 1)kπ kπ c 2 2 sin sin sin a + 2 bc cos =a +c n+1 b n+1 b n+1 b n+1 k cvn−1 + avnk = (M v k )n Also folgt insgesamt M v k = µk v k . Weiters bildet der Kosinus das Intervall (0, π) bijektiv auf (−1, 1) abbildet und wir erhalten tatsächlich n verschiedene Eigenwerte. Somit kann die Matrix M auch höchstens die Eigenwerte (µk )k∈{1,...,n} haben. Das letzte Resultat ist Grundlage für den nächsten Satz, in welchem wir Bedingungen formulieren unter denen das von uns diskutierte Differenzenverfahren stabil im Sinne von (2.21) ist. 2.4.7 Satz. Das Differenzenverfahren aus 2.13 ist stabil, wenn für λ := 0<λ< 1 2 − 4θ für und θ gilt 1 2 (2.25) 1 ≤θ≤1 2 (2.26) für 0 ≤ θ < λ>0 s h2 Beweis. Es sei zuerst θ > 0. Die Matrizen A, B ∈ Rm−1×m−1 aus 2.13 stehen offensichtlich in der Beziehung θB + (1 − θ)A = I ⇔ B = 1 (1 − θ) I− A. θ θ 18 Daraus folgt die Identität A−1 B = 1 −1 (1 − θ) A − I θ θ aus welcher insbesondere folgt, dass v ein Eigenvektor zum Eigenwert µ von A−1 ist, genau dann wenn −1 v ein Eigenvektor zum Eigenwert µθ − θ−1 B ist. Die Eigenwerte von A−1 sind aber genau die θ von A Kehrwerte der Eigenwerte von A, welche mit Hilfe des letzten Satzes bekannt sind. Mit der Identität 2 sin2 x = 1 − cos 2x, sowie durch Anwendung des letzten Satzes auf a = 2λθ + 1 und b = c = −λθ folgt für die Eigenwerte (µk )k∈{1,...,m−1} von A−1 B |µk | = = 1 1 1 − θ − = 1 − θ 2λθ + 1 − 2λθ cos kπ θ θ m kπ 4λ sin2 2m 1 − kπ 1 + 4λθ sin2 2m 1 1− 1 + 4λθ sin2 ! kπ 2m Da der Bruch, welcher im letzten Ausdruck vorkommt, positiv ist, ist die Bedingung |µk | < 1 äquivalent zu 4λ sin2 1+ kπ 2m kπ 4λθ sin2 2m < 2 ⇔ 4λ(1 − 2θ) sin2 kπ kπ < 2 ⇔ λ(2 − 4θ) sin2 <1 2m 2m (2.27) Für θ ≥ 12 folgt λ(1−2θ) ≤ 0 und damit ist (2.27) sicherlich für beliebiges λ > 0 erfüllt. Im Fall θ ∈ (0, 12 ) kπ < 1, dass für λ ≤ (2 − 4θ)−1 (2.27) erfüllt ist. ergibt sich, weil k ∈ {1, ..., m − 1} und somit sin2 2m Somit bleibt noch der Fall der Fall θ = 0 zu zeigen. In diesem Fall ist A die Einheitsmatrix und somit ist die Stabilität äquivalent zu ρ(B) < 1. Mit Hilfe des vorigen Satzes mit a = 1 − 2λ und b = c = λ erhalten wir für die Eigenwerte µk von B kπ 2 kπ 1 − 4λ sin = |µk | = 1 − 2λ + 2λ cos m 2m Analog zum allgemeineren Fall ist also |µk | < 1 äquivalent zu 4λ sin2 Wegen sin2 kπ 1 <2⇔λ< 2m 2 sin2 kπ 2m kπ 2m ∈ (0, 1) ist dies insbesondere für λ ≤ 1 2 erfüllt. Man beachte, dass im Beispiel auf Seite 16 im ersten Fall λ = 0.05 und im zweiten Fall λ = 1 gilt. Für das explizite Verfahren (θ = 0) ist nach dem letzten Satz das Verfahren für λ ∈ (0, 21 ) stabil. Dies ist im zweiten Fall nicht erfüllt. 2.5 Konvergenz Ist beim Differenzenverfahren aus 2.13 Konsistenz und Stabilität gegeben impliziert dies auch die Konvergenz des Abstandes von exakter und approximativer Lösung bezüglich der 2-Norm gegen 0. Dies verdeutlicht der folgende Satz. 19 2.5.8 Satz. Zusätzlich zu den Begriffen aus den letzten Kapiteln sei noch y j := (y1,j , ..., ym−1,j )T . Es seien die Voraussetzungen von Satz 2.4.2 und 2.4.7 erfüllt. Dann gilt max wj − y j L2 = O(s + h2 ). (2.28) j=1,...k Die Norm k·kL2 entspricht der L2 -Norm, welche aus der Gleichverteilung auf {1, ..., m−1} hervorgeht. Für das Crank Nicholson-Verfahren (θ = 21 ) kann auf der rechten Seite O(s2 +h2 ) geschrieben werden. Beweis. Für eine symmetrische Matrix folgt kAk2 = ρ(A) (siehe [P, 16]). Für θ = 0 ist A = I und A−1 B = B. Da B symmetrisch ist, ist in diesem Fall auch A−1 B symmetrisch. Für θ > 0 gilt A−1 B = 1 −1 1−θ − θ I. Mit A ist auch A−1 symmetrisch und somit lässt ich A−1 Bals Summe zweier symmetrischer θA Matrizen schreiben und ist daher selbst symmetrisch. Also gilt A−1 B 2 = ρ(A−1 B) < 1. Für wj und y j gilt Awj = Bwj−1 + dj−1 Mit Satz 2.5.6 folgt j−1 e ≤ max 2 i=1,...,N −1 Ay j = By j−1 + dj−1 + ej−1 |ej−1 | ≤ C(s + h2 ) i (2.29) Damit und w0 = y 0 erhalten wir die Abschätzung j w − y j 2 = ≤ ≤ ≤ −1 A (Awj − Ay j ) = A−1 (Bwj−1 − By j−1 − ej−1 ) ≤ 2 2 −1 j−1 Induktion A B w − y j−1 2 + A−1 ej−1 2 ≤ j−1 X −1 0 −1 j−k−1 −1 k A B w − y 0 + A B A e ≤ 2 2 2 k=0 −1 A Mit (2.29) erhalten wir j w − y j = O(s + h2 ). 2 max k=0,...,j−1 j−1 k X −1 k e A B ≤ 2 2 k=0 −1 A 1− max kA−1 Bk2 k=0,...,j−1 k e 2 Die Behauptung für das Crank-Nicholson Verfahren folgt aus der besseren Abschätzung für dieses in Satz 2.4.3. 20 Kapitel 3 Numerische Berechnung des Preises für amerikanische Optionen Zunächst sei an die Formulierung der freien Randwertprobleme für amerikanische Optionen auf Seite 9 und 10 erinnert. Insbesondere folgt (Verifikation durch Einsetzen) die sogenannte Black-ScholesUngleichung für amerikanische Optionen (Notation siehe Kapitel 1). Es folgt zum Beispiel für die PutOption ∂P 1 ∂P ∂2P (t, S) + σ 2 S 2 2 (t, S) + r (t, S)S − rP (t, S) ≤ 0 ∂t 2 ∂S ∂S (3.1) (3.2) wobei für die Gleichtheit genau im Falle S > Sf (t) gilt. Aus 1.20 wissen wir, dass aus Aribtragegründen insbesondere P (t, S) ≥ (K − S)+ gelten muss. Betrachtet man nocheinmal die Herleitung auf Seite 8 gilt weiters P (t, S) = (K − S)+ genau dann wenn S ≤ Sf (t). Mit restlichen hergeleiteten Randbedingungen lässt sich das freie Randwertproblem für amerikansiche Put-Optionen schreiben als ∂P (t, S) + P − (K − S) ∂t ∂P (t, S) + P − (K − S)+ − ∂t + ∂P 1 2 2 ∂2P (t, S) + r σ S (t, S)S − rP (t, S) 2 ∂S 2 ∂S 1 2 2 ∂2P ∂P σ S (t, S) + r (t, S)S − rP (t, S) 2 ∂S 2 ∂S = 0 (3.3) ≥ 0 (3.4) (3.5) mit den Randbedingungen 0 (3.7) = −1. (3.8) = lim P (t, S) S→∞ ∂P (t, Sf (t)) ∂S P (t, 0) = K 3.1 (3.6) = (K − S)+ P (T, S) (3.9) Das Hindernisproblem Nach einer kurzen Diskussion des Hindernisproblems werden uns mögliche Lösungswege für das freie Randwerteproblem aus (3.3)-(3.8) zur Verfügung stehen. Folgende Grafik soll das Hindernisproblem illustrieren 21 Der Grafik entsprechend sei ein Hindernis f (in der Grafik rot) gegeben mit den Eigenschaften f (x) > 0 2 ′′ f|(a,b) ∈ C (a, b) und f (x) < 0 für x ∈ (a, b) (3.10) für x ∈ [−1, a] ∪ [b, 1] (3.12) für x ∈ (a, b) f (x) = 0 (3.11) Gesucht ist nun ein Seil minimaler Länge mit dem die Punkte x = −1 und x = 1 über das Hindernis f verbunden werden. Dieses Seil kann als Graph einer Funktion u interpretiert werden. Gemäß der Grafik (blauer Graph) ist also eine Funktion u, zunächst aus C 2 (−1, 1) ∩ C([−1, 1]), gesucht, sodass für gewisse α, β ∈ (−1, 1) u(−1) = u(1) = 0 (3.13) u≥f u=f (3.14) (3.15) auf (α, β) ′′ u =0 auf (−1, α) ∪ (β, 1) (3.16) Die ersten 3 Bedingungen sind klar. Die letzte Bedingung ergibt sich dadurch, dass außerhalb von (α, β) das Seil nicht aufliegt und wir somit, aufgrund der Konkavität von f , eine Gerade als kürzeste Verbindung wählen können. Um wieder auf amerikanische Optionen zurückzukommen beachte man, dass aus den Bedingungen für u ≥ f insbesondere folgt u > f ⇔ u′′ = 0 u = f ⇔ u′′ = f ′′ < 0 Bei amerikanischen Optionen kann eine analoge Komplementarität beobachtet werden. Für die amerikanische Put-Option gilt P > (K − S)+ ⇔ in 3.1 gilt = P = (K − S)+ ⇔ in 3.1 gilt <. Die Werte α und β sind nicht bekannt. Die Berechnung dieser ist vielmehr Teil der Aufgabenstellung. Daher handelt es sich hier um ein sogenanntes freies Randwertproblem. Löst u ∈ C 2 (−1, 1) obiges Problem, so muss auch u(−1) = u(1) = 0, u′′ (u − f ) = 0 −u′′ ≥ 0, u−f ≥0 (3.17) gelten. In der letzen Formulierung des Problems kommen keine freien Randwerte mehr explizit vor. Da im Allgemeinen u an den Stellen α und β nicht zwei Mal stetig differenzierbar sein muss ist eine Formulierung des Hindernisproblems in welcher die 2. Ableitung von u nicht vorkommt wünschenswert. 22 Eine entsprechende Umformulierung liefert der nächste Satz. Für diesen benötigen wir die Menge der Testfunktionen definiert durch K := {v ∈ C[−1, 1] : v(−1) = v(1) = 0, v ≥ f, v stückweise stetig differnzierbar} 3.1.9 Satz. Es sei u ∈ C 2 [−1, 1]. Dann ist u ∈ K genau dann Lösung der Variationsungleichung: Z u′ (v − u)′ dλ ≥ 0 ∀v ∈ K, (3.18) [−1,1] wenn u (3.17) löst. Beweis. Sei zunächst u ∈ C 2 [−1, 1] Lösung von 3.17. Es gilt insbesondere u ∈ K und −u′′ ≥ 0. Sei nun v ∈ K vorgegeben. Dann gilt wegen v ≥ f −u′′ (v − f ) ≥ 0. Dann gilt aber auch Z Z Z ′′ −u (v − f ) dλ ≥ 0 = 0 dλ = −u′′ (u − f ) dλ, (3.19) [−1,1] [−1,1] [−1,1] wobei die letzte Gleichheit gilt da u (3.17) löst. (3.19) ist aber äquivalent zu Z [−1,1] −u′′ (v − u) dλ ≥ 0. Aufgrund von v(−1) = v(1) = u(1) = u(−1) = 0 ergibt sich mittels partieller Integration Z [−1,1] −u′′ (v − u) dλ = Z [−1,1] −u′ (v − u)′ dλ (3.20) und somit die Behauptung. Sei andererseits nun eine u ∈ C 2 [−1, 1] eine Lösung von (3.18). Nach Vorraussetzung gilt u(−1) = u(1) = 0 und u − f ≥ 0. Sei nun 0 ≤ φ ∈ C 1 (−1, 1) mit supp φ ⊂ (−1, 1) beliebig. Mit v := φ + u ∈ K und partieller Integration erhalten wir 0≤ Z ′ [−1,1] ′ −u (v − u) dλ = Z [−1,1] −u′′ φ dλ (3.21) Daraus folgt −u′′ ≥ 0, denn angenommen ∃x : −u′′ (x) < 0 dann gibt es aufgrund der Stetigkeit von u′′ ein δ > 0,ǫ > 0, sodass −u′′ (t) ≤ −ǫ für t ∈ [x − 2δ , x + 2δ ] und −u′′ (t) ≤ 0 für t ∈ (x − δ, x + δ). Mit der glatten Zerlegung der 1 (siehe [K, 13.3.15]) folgt, dass es ein 0 ≤ Ψ ∈ C ∞ gibt, sodass Ψ = 1 auf [x − 2δ , x + 2δ ] und supp ψ ⊂ (x − δ, x + δ). Dies hätte aber den Widerspruch 0≤ Z [−1,1] −u′′ Ψ dλ = Z (x−δ,x+δ) −u′′ Ψ dλ ≤ Z [x− δ2 ,x+ δ2 ] −u′′ Ψ dλ ≤ −ǫδ < 0 (3.22) zur Folge. Nun gilt insbesondere f ∈ K (vgl. (3.9)-(3.11)). Das ergibt wieder mit partieller Integration 0≤ Z [−1,1] u′ (f − u)′ = Z [−1,1] −u′′ (f − u) ≤ 0 und somit u′′ (u − f ) = 0. (3.23) 23 Somit haben wir mit (3.18) eine äquivalente Formulierung für 3.17 gefunden in der die zweite Ableitung von u nicht vorkommt. Somit ist das Problem Suche ein u ∈ K, sodass Z u′ (v − u)′ dλ ≥ 0 ∀v ∈ K [−1,1] gilt. eine Verallgemeinerung von 3.17 bei dem die Lösung nicht notwendigerweise zweimal stetig differenzierbar sein muss. 3.1.1 Diskretisierung des Hindernisproblems Um das Hindernisproblem numerisch zu lösen betrachten wir wieder die Problemformulierung in 3.17. 2 und xi := −1 + ih für i = 0, ..., m ein. Weiters sei Für m ∈ N führen wir die Bezeichnungen h := m fi := f (x) und wi die Näherung zu u(xi ). Analog zu der Herleitung der Differenzenverfahren in Kapitel 2 werden die Ableitungen wieder mittels Differenzenquotienten approximiert. Wir erhalten somit für die Näherungen wi i = 1, ..., m − 1 neben w0 = wm = 0 die Gleichungen/Ungleichungen: (wi−1 − 2wi + wi+1 )(wi − fi ) −wi−1 + 2wi − wi+1 wi = ≥ ≥ 0 0 fi Wir definieren weiters die Vektoren w := (w1 , ..., wm−1 )T und f := (f1 , ..., fm−1 )T und die Matrix G durch 2 −1 G := 0 . .. 0 −1 0 ... 2 .. −1 .. . .. . ... . −1 2 0 −1 0 .. . . 0 −1 2 Damit lässt sich obiges Gleichungssystem kompakter schreiben als (w − f )T Gw Bw w 3.2 = ≥ ≥ 0 0 f. Berechnung amerikanischer Optionen In diesem Abschnitt wollen wir nun das freie Randwertproblem für amerikanische Optionen als lineares Komplementaritätsproblem formulieren und anschließened eine numerische Lösung desselbigen angeben. Es sei nocheinmal das Randwertproblem für die amerikanische Put-Option in Erinnerung gerufen. Mit S den gleichen Transformationen wie am Anfang von Kapitel zwei, nämlich x = ln K und τ = σ 2 (T 2−t) erhalten wir das transformiertes Komplementaritätsproblem (vgl. [GJ, 210]) 24 (uτ − uxx )(u − f ) = 0 uτ − uxx ≥ 0 u−f ≥0 (3.24) für u(x, τ ) = 1 exp (−γx − δτ )P (t, S) K und f (x, τ ) = (1 − ex )+ exp (−γx − δτ ). Wegen P (T, S) = (K − S)+ ergibt sich für x ∈ R die Randbedingung u(x, 0) = f (x, 0). (3.25) Wegen P (t, S) ≥ (K − S)+ folgt u(x, τ ) ≥ f (x, τ ). Es ergeben sich weiters für die Put-Option (gemäß [GJ, 210])die Randbedingungen lim x→−∞ u(x, τ ) − f (x, τ )) = 0 (3.26) lim u(x, τ ) = 0 x→∞ 3.2.1 (3.27) Finite Differenzen Verfahren Mit den gleichen Bezeichnungen wie in Abschnitt 2.2 und zusätzlich noch f j := (f (x1 , τj ), ..., f (xm−1 , τj )) verwenden wir als Approximation für die Differentialungleichung uτ −uxx ≥ 0 entsprechend der Näherung 2.10 1−θ θ wi,j+1 − wij − (wi+1,j − 2wij + wi−1,j ) − 2 (wi+1,j+1 − 2wij + wi−1,j+1 ) ≥ 0, s h2 h bzw. mit λ := s h2 (3.28) erhalten wir analog (≥ statt =) die Ungleichung Awj+1 ≥ Bwj + dj Die Ungleichung u − f ≥ 0 kann approximiert werden durch wj+1 − f j+1 ≥ 0. Weiters ist w0 = f 0 . Definiert man für wj bj := Bwj + dj so ergibt sich folgende Aufgabe im j-ten Schritt (vgl. 3.24) Suche wj+1 ∈ Rm−1 mit (Awj+1 − bj )T (wj+1 − f j+1 ) = 0 Awj+1 − bj ≥ 0 w j+1 −f j+1 (3.29) ≥0 Es sei angemerkt, dass die Matrix A für θ, λ > 0 positive Eigenwerte hat (Satz 2.4.9) und symmetrisch ist. Also ist A positiv definit (dies gilt auch für θ = 0, da A = I). Die Herausforderung besteht jetzt darin in jedem Schritt das Problem 3.29 zu lösen. 25 Dazu betrachten wir abseits von einem Algorithmus zur Berechnung des Preises amerikanischer Optionen das Problem 3.29 in der Form mit Vektoren b, f ∈ RN und A ∈ RN ×N symmetrisch und positiv definit: Wir suchen ein x ∈ RN , sodass gilt (Ax − b)T (x − f ) = 0, Ax − b ≥ 0, x−f ≥0 (3.30) Die Lösung dieses Problems ist äquvivalent zu : Suche eine x ∈ RN , sodass min{Ax − b, x − f } = 0, (3.31) wobei das Minimum komponentenweise zu verstehen ist. Dies sieht man folgendermaßen ein: Wenn x ∈ RN Lösung von 3.31 ist so gilt für jedes i ∈ {1, ..., N } entweder (Ax − b)i = 0 oder (x − f )i =0. In ersterem Fall muss aber (x − f )i ≥ 0 folgen, da sonst das Minimum < 0 wäre. Im anderen Fall gilt (x − f )i = 0 und (Ax − b)i ≥ 0. Es gilt also insbesondere (Ax − b)i (x − f )i = 0 und (x − f )i ≥ 0 sowie (Ax − b)i ≥ 0. Daher löst x 3.30. Sei umgekehrt nun x Lösung von 3.30. Die Vektoren Ax − b und x − f haben dann gemäß Voraussetzung lauter nichtnegative Einträge. Somit kann das Skalarprodukt von Ax − b und x − f nur 0 sein, wenn (Ax − b)i (x − f )i = 0 für alle i ∈ {1, ..., N } gilt. Somit gilt für jedes i dass (Ax − b)i = 0 oder (x − f )i = 0 und aufgrund der Nichtnegativität der beiden Einträge dass min{(Ax − b)i , (x − f )i } = 0. Somit folgt min{Ax − b, x − f } = 0. Nun wollen wir daraus eine weitere äquivalente Formulierung ableiten um das sogenannte ProjektionsSOR-Verfahren nach Cryer anwenden zu können. 3.2.10 Satz. Mit den Begriffen von zuvor sei zu A, D eine Diagonalmatrix, U eine obere Dreiecksmatrix und L eine untere Dreiecksmatrix, sodass Dii = Aii , Uii = 0, Uij = −Aij , i < j und Lii = 0, Lij = −Aij , i > j für i, j = 1, ..., n gilt (insbesondere gilt A = D − L − U ). Dann löst x ∈ RN 3.31 genau dann, wenn es das Problem Suche x ∈ RN , sodass min{x − D−1 (Lx + U x + b), x − f } = 0 (3.32) x = max{D−1 (Lx + U x + b), f } (3.33) oder löst. Beweis. Weil die Matrix A positiv definit sind alle Diagonalelemente positiv und somit existiert D−1 . Sei nun x Lösung von 3.31, also es gelte min{Ax−b, x−f } = 0. Für ein beliebiges i gilt (Ax−b)i = 0 und (x−f )i ≥ 0 oder (x−f )i = 0 und (Ax−b)i ≥ 0. Im ersten Fall folgt a−1 ii (Ax−b)i = 0 und (x−f )i ≥ 0, also −1 min{a−1 ii (Ax − b)i , (x − f )i } = 0. Im zweiten Fall folgt, wegen aii > 0, aii (Ax − b)i ≥ 0 und (x − f )i = 0 −1 und somit auch min{aii (Ax − b)i , (x − f )i } = 0. Da i beliebig war gilt also min{D−1 (Ax − b), x − f } = min{(Ax − b), x − f } = 0 woraus = min{x − D−1 (Lx + U x + b), x − f } = min{D−1 Dx − D−1 (Lx + U x + b), x − f } = min{D−1 (D − L − U )x − b , x − f } = min{D−1 (Ax − b), x − f } = 0 folgt. Die Rückrichtung wird analog bewiesen (Multiplikation mit D). Für die Äquivalenz von 3.32 und 3.33 betrachte man zuerst den Fall 0 = x − D−1 (Lx + U x + b) ≤ x − f welcher äquivalent zu D−1 (Lx+U x+b) = x ≥ f ist. Genauso ist der Fall 0 = x−f ≤ x−D−1 (Lx+U x+b) äquivalent zu f = x ≥ D−1 (Lx + U x + b). Daraus folgt die zu zeigende Äquivalenz. 26 Die letzte Formulierung motiviert den folgenden Algorithmus für das sogenannte Projektions-SORVerfahren (mit dem Relaxationsparameter ω ∈ (1, 2)): Für i = 1, ..., N − 1 (k) zi (k+1) = a−1 + uwk + b)i ii (Lw (k+1) wi (k) = max{wi (k) + ω(zi (3.34) (k) − wi ), fi } (3.35) Der folgende Satz stellt neben der eindeutigen Lösbarkeit von 3.30-3.32 die Konvergenz des obigen Algorithmus gegen die Lösung sicher: 3.2.11 Satz (Cryer). Es sei A ∈ RN ×N eine symmetrische, positiv definitive Matrix, b, f ∈ RN und ω ∈ (1, 2). Dann konvergiert die in 3.34 definierte Folge von Vektoren (w(k) )k∈N gegen die eindeutig bestimmte Lösung von 3.30-3.32. Beweis. Siehe [GJ, 214]. Zusammenfassend kann also durch folgenden Algorithmus der Preis einer amerikanischen Option berechnet werden: • Fixiere die Gitterparameter a, b, m, k, h, s, die Fehlerschranke ǫ und den Relaxationsparameter ω • Definiere die Randwerte w = w0 = f 0 • j-Schleife j = 1 : k − 1 – Definiere b = bj = Bwj + dj = Bw + dj – v neu = max(w, f j+1 ) – SOR-Schleife while kv neu − vk2 > ǫ ∗ v = v neu ∗ for-Schleife i = 1 : m − 1 neu neu · z = (λθ(vi−1 + vi+1 ) + bi )/(2λθ + 1) · vineu = max{vineu + ω(z − vineu ), fij+1 } – wj+1 = w = v neu • Transformation zurück in die Originalvariablen (t, S) 27 Eine Realisierung für K = 100, r = 0.1, σ = 0.4 und T = 1 mit dem Matlab-Code aus [GJ, 218] ergibt folgenden Plot für P (0, S) in Abhängigkeit vom Preis S des Underlyings: Preis einer amerikanischen Put-Option 100 amerikanische Put-Option Payoff 90 80 Optionspreis P 70 60 50 40 30 20 10 0 0 20 40 60 80 100 Basiswert S 28 120 140 160 180 200 Literaturverzeichnis [S] Rüdiger Seydel Einführung in die numerische Berechnung von Finanz-Derivaten Springer, 2000 [GJ] Michael Günther und Ansgar Jüngel Finanzderivate mit MATLAB vieweg, 2003 [BZ] Zdzislaw Brzezniak und Tomasz Zastawniak Basic Stochastic Processes Springer, 2007 [D] Flavius Guias Differentialgleichungen in der Wirtschaftsmathematik Skriptum TU Dortmund, 2011 [B] Tomas Björk Arbitrage Theory in Continous Time Oxford Finance, 2009 [C] P. Wilmott, S. Howison und J. Dewynne The Mathematics of Financial Derivatives Cambridge University Press, Cambridge, 1996 [P] Dirk Praetorius Numerische Mathematik Vorlesungsskript Technische Universität Wien, WS 2010/11 [K] Michael Kaltenbäck Analysis 3 Vorlesungsskript Technische Universität Wien, SS 2011 29