Indexgebundene Annuitäten mit Kapitalgarantien Matthias Kirchner 6000 8000 10000 12000 14000 März 2012 0 500 1000 1500 ETH Zürich Department Mathematik Leitung: Prof. Dr. Paul Embrechts (ETH) und Dr. Gerold Studer (NewRe) Masterarbeit Indexgebundene Annuitäten mit Kapitalgarantien (Equity Indexed Annuities) Die Abbildung auf der Titelseite zeigt anhand eines über sieben Jahre tageweise simulierten Indexverlaufs den Mechanismus einer Equity Indexed Annuity mit High Water Mark Feature: Geboten wird der Return zwischen Anfangswert (untere Linie) und Maximalwert (obere Linie) an den Monitordaten (gestrichelte Linien). Abstract: Die vorliegende Arbeit untersucht die Bewertung und die Absicherung von Equity Indexed Annuities (EIAs) in deren verbreitetsten Spielarten, nämlich Point to Point-, Compound und Simple Ratchet- sowie High Water Mark-EIAs. Vorgestellt wird zunächst die Bewertung im Black-ScholesMerton Rahmen; hier wird für die diskrete HWM-EIA eine neue Formel samt R-Code präsentiert. Weiter wird ein Hedgingalgorithmus vorgeschlagen, der die Greeks Delta, Gamma, Rho und Vega berücksichtigt. Es wird eine MLE-Kalibration beschrieben für ein Finanzmarktmodell, das den Indexverlauf mit einem Regime Switching Log Normal Modell abbildet und den Zinsssatz mit dem Cox Ingersoll Ross Modell. Unter Verwendung der berechneten Likelihoodfunktion wird weiter ein Bayes’scher Ansatz gewählt zur Berücksichtigung der Parameterunsicherheit. Für die Simulation von der entsprechenden a posteriori Dichte kommt ein Markovketten-Monte-Carlo zum Einsatz. Mit diesen zufälligen Parametern wird vielfach von dem Finanzmarkmodell simuliert und so der Expected Shortfall für den Hedgingalgorithmus geschätzt. Der Kapitalbedarf für dieses Verlustrisiko führt zu Kosten. Unter Berücksichtigung dieser Kapitalkosten werden faire Partizipationsraten für die EIAs berechnet. Die so erhaltenen Produkte werden im letzten Kapitel einem Stresstest ausgesetzt. Grundlage der Simulation bildet dann der Stationary Bootstrap, das heisst das zufällige Verwenden historischer Daten. Als Resultat können wir das Verlustrisiko der verschiedenen Produkte vergleichen. Es stellt sich heraus, dass der Einfluss der Anzahl Monitor- bzw. Ratchetdaten N erheblich ist: Steigt N , nimmt das Risiko deutlich ab. “Wessen Hab und Gut, wessen Tisch und Bett darauf ruhen, dass er rechnen lerne, der lernt es gemeiniglich leicht und recht gut.” (Johann Heinrich Pestalozzi) Danksagung Diese Arbeit bildet den Abschluss meiner fünfjährigen mathematischen Studien. Dass dieser Abschluss so gut und vor allem so lehrreich geglückt ist, habe ich Herrn Dr. Gerold Studer zu verdanken, der mich auf das mathematisch ergiebige Thema der variablen Annuitäten gestossen hat. Durch seine seltene Verbindung bester mathematischer Ausbildung mit breitestem Praxisbezug durfte ich durch ihn zahlreiche Begriffe und Herangehensweisen aus der Industrie kennenlernen, von deren schierer Existenz man in der rein akademischen Ausbildung kaum etwas erfährt. Ich fühlte mich bestens betreut. Herrn Professor Paul Embrechts danke ich für zwei wunderbare Vorlesungen, für das entgegengebrachte Vertrauen beim etwas wenig fokussierten Beginn der Arbeit und natürlich für das Teilhabenlassen an seinem enzyklopädischen Wissen: Zu jedem Stichwort werden sofort die drei wichtigsten Autoren geliefert - samt historischgeographischem Kommentar und nicht selten auch samt privater Anekdote. Das ist lebendige Mathematik! Zudem danke ich ihm für seinen warmherzigen Rat. Meinen ersten mathematischen Abschluss, den Bachelor, durfte ich an der Universität Bern machen. Aus dieser Zeit danke ich Frau Professor Christiane Tretter für ihre besondere Freundlichkeit und für vier sehr schöne Analysis-Vorlesungen, von denen ich immer noch zehre. Herr Professor Lutz Duembgen von der Universität Bern begleitete und unterstützte mein Mathematikstudium von Anfang an. Ohne seine Starthilfe hätte ich vielleicht gar nicht Mathematik studieren können, und sein steter Zuspruch half mir beim Durchhalten. Ihm danke ich deswegen ganz besonders. Meiner lieben Gattin und den ebenso lieben Kindern danke ich für die grosse Geduld, die gerade in den letzten Monaten doch ziemlich strapaziert wurde, und für das treue Mittragen meiner geheimnisvollen mathematischen Probleme über all die Jahre; meinen Eltern danke ich für die stoisch-liebevolle Begleitung meines Lebens. Ich widme diese Arbeit meiner geliebten Grossmutter, Frau Theresia Kräuter, von der ich so vieles empfangen durfte. M.K. am 11. März 2012 Inhaltsverzeichnis Einleitende Worte 1 1 Annuitäten 5 1.1 Variable Annuitäten . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Indexgebundene Annuitäten . . . . . . . . . . . . . . . . . . . . . . . 11 2 Bewertung 1: Fairer Preis 6 21 2.1 Risikoneutrale Bewertung . . . . . . . . . . . . . . . . . . . . . . . . 22 2.2 Black-Scholes-Merton Modell 2.3 Fairer Preis für die Point To Point Indexierung 2.4 Fairer Preis für die Ratchet Indexierungen . . . . . . . . . . . . . . . 33 2.5 Fairer Preis für die High Water Mark Indexierung . . . . . . . . . . . 38 2.6 Monte Carlo Simulation und Kontrollvariablenmethode . . . . . . . . 57 2.7 Bemerkungen zum Black-Scholes-Modell . . . . . . . . . . . . . . . . 65 . . . . . . . . . . . . . . . . . . . . . . 26 . . . . . . . . . . . . 31 3 Hedging 69 3.1 Einführung zum dynamischen Hedging . . . . . . . . . . . . . . . . . 69 3.2 Annahmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 3.3 Hedging-Instrumente . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 3.4 Greeks der EIAs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 3.5 Hedging-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 4 Bewertung 2: Risikozuschlag 105 4.1 Regime Switching Log Normal Modell . . . . . . . . . . . . . . . . . . 107 4.2 Cox-Ingersoll-Ross: Stochastische Zinsmodellierung . . . . . . . . . . 111 4.3 Finanzmarktmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 4.4 Kalibrierung: Maximum Likelihood Schätzung . . . . . . . . . . . . . 115 4.5 Bayes-Schätzer und Markovketten-Monte-Carlo . . . . . . . . . . . . 129 4.6 Markovketten-Monte-Carlo . . . . . . . . . . . . . . . . . . . . . . . . 133 4.7 A-posteriori-Verteilung der Finanzmarktparameter . . . . . . . . . . . 140 4.8 Risikozuschläge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 4.9 Bewertung der EIAs: Die Break-Even Partizipationsrate . . . . . . . 149 4.10 Bemerkungen zum RSLN-Modell . . . . . . . . . . . . . . . . . . . . 154 5 Stresstest 156 5.1 Stationary Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 5.2 Stresstest der Bewertungen und Hedging-Algorithmen . . . . . . . . . 160 5.3 Resultate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 6 Schlussworte 170 6.1 Mögliche Folgerungen für Produktausgestaltung . . . . . . . . . . . . 170 6.2 Kritikpunkte und Ideen für Weiterarbeit . . . . . . . . . . . . . . . . 171 Einleitende Worte Es ist der Traum jedes Anlegers: Seine Wertpapiere nehmen nur an den Aufwärtsbewegungen des Marktes teil und bleiben von Verlusten unberührt. Dass es in der Finanzwelt Produkte gibt, die genau dies garantieren, mag den Aussenstehenden zunächst überraschen. Wie soll das funktionieren? Und in der Tat gibt es derlei Optionen bzw. Garantien noch nicht lange: Im Kielwasser der bahnbrechenden Arbeiten von Merton, Black und Scholes schrieb Barry Goldman 1979 mit Kollegen den Artikel “Path Dependent Options: Buy at the Low, Sell at the High”. Basierend auf den Ideen von Merton, Black und Scholes stellten die Autoren hier detailliert die Bewertung und das Hedgen von sogenannten “Lookback”-Optionen vor: Zum Fälligkeitszeitpunkt hat der Besitzer das Recht, das Underlying zum bisher höchsten Preis zu verkaufen. Interessant ist: Bis zu diesem Zeitpunkt, gab es derlei Optionen noch gar nicht auf dem Markt! Heute, gut 30 Jahre später, sind Lookback-Optionen selbstverständlicher Teil des Optionsmarktes. Die vorliegende Arbeit befasst sich nun nicht direkt mit diesen Optionen, sondern mit indexgebundenenden Lebensversicherungen (verbreiteter ist die englische, titelgebende Bezeichnung “Equity Indexed Annuities”), deren Ausgestaltung viele Analogien aufweist mit der Struktur von Optionen. Die verschiedenen Partizipationsarten in diesem Zusammenhang heissen “Point to Point”, “Ratchet” oder “High Water Mark”. Bei all diesen Partizipationsarten ist der eingangs zitierte Anlegertraum in einem gewissen Sinn Realität geworden: Die einbezahlte Prämie nimmt an den Aufwärtsbewegungen des Index teil; Abwärtsbewegungen werden ignoriert. Betrachten wir als erstes Beispiel die auf dem Titelblatt dargestellte High Water Mark Methode, bei der quasi der Höchststand des Index garantiert wird: Der Versicherungsnehmer zahlt zur Zeit 0 die Einmalprämie P und erhält am Ende der Laufzeit (T ) als Auszahlung P· N RHWM ✓ := P · 1 + ↵ ✓ MTN S0 1 ◆◆ , wobei MT := max(St0 , St1 , ..., StN ). 0 = t0 < t1 < ... < tN = T bezeichnen die sogenannten Monitordaten; (St )t2[0,T ] bezeichnet den Indexverlauf und ↵ > 0 die sogenannte Partizipationsrate. Es fällt also schon auf, dass die Höchststand-Garantie nicht das Maxima über die ganze 1 Laufzeit, sondern nur zu diskreten (meist jährlichen) Monitordaten berücksichtigt dies im Gegensatz zur Lookback-Option, die mit N ! 1 als Grenzfall der High- Water-Mark-Methode verstanden werden kann. Neben diesen Partizipationsmöglichkeiten wird meist zusätzlich noch eine “äussere” Garantie, die sogenannte “Life of Contract”-Garantie geboten: Egal welchen Wert die Indexpartizipation erreicht, garantiert erhält man einen Anteil der Prämie zu einem fixen rg verzinst. Wenn wir also G := (1 + rg )T setzen, ergibt sich im HWM-Fall die Auszahlung zum Laufzeitende für den Versicherungsnehmer als N P · max(G, RHWM ). Dem Versicherer bieten sich neben der Auswahl des Index und der Laufzeit folgende Kontrollvariablen: • ↵, die Partizipationsrate, • , der Anteil der Prämie, der garantiert verzinst wird, • rg , der garantierte Zinssatz für diesen Anteil, • Caps, d.h. Schranken, auf dem möglichen Indexgewinn und • N + 1, die Anzahl der Monitordaten Die vorliegende Arbeit untersucht die Bewertung und Absicherung solcher Garantien. Im ersten Kapitel werden die fraglichen Produkte und ihre Rolle in der Praxis vorgestellt. Im zweiten Kapitel wird der faire Preis dieser Verträge im Black-ScholesMerton-Rahmen berechnet, im darauffolgenden eine mögliche Hedgingstrategie besprochen. Anschliessend wird dieser Hedgingalgorithmus in einem vierten Kapitel Simulationen unter realistischeren Bedingungen - mit stochastischer Modellierung von Volatiliät und Zinssatz - ausgesetzt. So erhalten wir eine Idee von der Verlustverteilung des Versicherers. Ausgehend von dieser Verteilung bestimmen wir einen Risikozuschlag, den der Versicherer zusätzlich zum fairen Preis verlangen sollte. Im fünften und letzten Kapitel prüfen wir die Resultate der bisherigen Bewertungen in 2 einem Stresstest, indem wir die Verbindlichkeiten mit Hilfe von historischen Indexdaten simulieren. Ein besonderes Augenmerk wird überall auf die Rolle der Anzahl von Monitordaten N gelegt. Intuitiv denkt man, dass das Verlustrisiko für die Versicherung wohl steigt mit wachsender Anzahl von Monitordaten. Denn mehr Monitordaten, mehr Zuwachsmöglichkeiten. Allerdings: Mehr Monitordaten heisst ja wohl in irgendeinem Sinne kleinere Varianz, oder? Hierzu fand sich in der bisherigen Literatur keine systematische Untersuchung. Die Resultate sollen anregen, einen Vertrag nicht wie üblich via den Beteiligungen , ↵, dem garantierten Zins rg und den Caps (das heisst Gewinnschranken) zu optimieren, sondern auch gezielt den Parameter N hierbei zu verwenden. Das könnte für das Gestalten attraktiver Produkte interessant sein. 3 Glossar der verwendeten Abkürzungen und Symbole Partizipationsrate ↵ Anteil der Prämie, der garantiert fix verzinst wird (Bt )t2[0,T ] Risikofreier Bond mit B0 = 1 BSM Black Scholes Merton c Cap CR Compound Ratchet c(⌧, S, K) BSM - Wert einer Calloption mit Restlaufzeit ⌧ aktuellem Wert des Underlying S und Ausübungspreis K EIA Indexgebundene Annuität (“Equity-indexed annuity”) G := · P · (1 + rg )T , garantierte Auszahlung am Ende der Laufzeit 0 = h0 < h1 < ... < hM = T Hedgingdaten HWM Höchststandsgarantie (High Water Mark) N Abstand zwischen den Monitordaten (=T /N ) Et [·] :=E[·|Ft ] für die jeweils angenommene Filtration F MN =: max{S0 , St1 , ..., StN } für N < 1 und M 1 =: max St N Anzahl Ratchet- bzw. Monitordaten VA Variable Annuität P Einmalprämie PEMG (REIA PTP Point to Point REIA Allgemeines Symbol für den Return einer Indexierungsart r Risikofreier annualisierter und kontinuierlicher Zinssatz r1 :=r + 2 /2 r2 :=r 2 /2 rg Garantierter diskreter jährlicher Zinssatz S Indexverlauf S⇤ :=S/B, diskontierter Indexverlauf SR Simple Ratchet t0 < t1 < ... < tN (Equidistante) Monitordaten T Laufzeit in Jahren Yi :=log Sti /Sti 1 , das heisst Logreturn zwischen ti 4 “ist propotional zu” / t2[0,T ] G)+ , Payoff in Excess of Minimum Guarantee 1 und ti 1 Annuitäten Eine Annuität ist zunächst einmal nichts anderes als eine jährlich wiederkehrende Zahlung. Etwas enger gefasst wird der Begriff im folgenden, wo er Alterskapitalverträge meint - unabhängig von der Auszahlungsstruktur. Bei einer fixen Annuität weiss man im Vornherein, wieviel an Auszahlung man erwarten darf. Fixe Annuitäten kannten bereits die Römer: Für eine einmalige Prämie versprach die “annua” jährliche Zahlungen bis ans Lebensende. In der Neuzeit, etwa während des 30-jährigen Krieges, verwendeten die europäischen Staaten annuitätsartige Verträge, um ihre Kämpfe zu finanzieren. Ein interessantes Beispiel einer bereits etwas komplizierteren Struktur ist etwa aus England überliefert: 1693 verkaufte der Staat für jeweils 100 Pfund Anteile an der sogenannten “State Tontine” 1 , um Kapital für den Krieg gegen Frankreich aufzubringen. Der Käufer konnte einen Begünstigten - meist ein Kind - bestimmen, der mit einer lebenslänglichen Rente bedacht wurde. Wenn nun ein dermassen Begünstigter verstarb, hörte dessen Rente nicht etwa auf zu fliessen, sondern wurde auf die verbleibenden Empfänger umverteilt. Dies solange, bis der letzte der Gruppe - der dann wohl recht reich war - schliesslich starb. Raffiniert und ein ziemlich gutes Verkaufsargument! Ob die Verbreitung dieses Produktes wohl Einfluss auf die Mordrate hatte? Dieses Beispiel könnte jedenfalls schon als variable Annuität gelten: Der jährliche Geldfluss ist nicht mehr fix, sondern hängt von den Umständen ab (in obigem Fall davon, wie schnell sich die Gruppe verkleinert). Heute versteht man unter einer variablen Annuität speziell ein Lebensversicherungsprodukt, bei dem die Prämie in Wertpapiere angelegt wird, der Versicherer aber zugleich eine gewisse Summe garantiert. So kann der Versicherungsnehmer einerseits an Finanzmarktgewinnen teilhaben, andererseits wird ihm durch die Garantie die Grundsicherung geboten, die er für seinen Ruhestand wünscht und braucht. Ausserdem gibt es seit den 1990er Jahren eine Sonderform der variablen Anuitäten, nämlich die sogenannten indexgebundenen Annuitäten. Hier bekommt der Versicherungsnehmer einerseits eine fixe Verzinsung seiner Prämie garantiert, anderseits lässt 1 Der nicht einzuordnende Name dieser Versicherungsart stammt einfach von ihrem Erfinder, dem italienischen Bankier Lorenzo de Tonti (1602-1684). 5 ihn das Produkt an der Entwicklung eines gewählten Index (etwa DAX, S&P 500 oder NASDAQ 100) teilhaben. Oftmals wird die Art der Partizipation mit zusätzlichen "Bells and Whistles"versehen. Ist die Teilhabe pur, spricht man von der “Point to Point”-Methode. Die beiden Hauptverfeinerungen sind die sogenannte “Ratchet”und die sogenannte “High Water Mark”-Methode. Um diese drei Arten von indexgebundenden Annuitäten soll es in dieser Arbeit gehen. Um Relevanz und Bedeutung dieser Produkte besser einordnen zu können, werden im folgenden zunächst die verschiedenen Formen von Annuitäten samt ihrer typischen Umsetzung genauer vorgestellt. Bei den Definitionen der verschiedenen variablen Annuitäten hält sich dieser Text an das Buch “Variable Annuities” [16] von 2009. 1.1 Variable Annuitäten Eine variable Annuität (VA) ist ein Lebensversicherungsprodukt zumeist mit Einmalprämie, dessen Auszahlung einerseits vom Wert einer Garantie, andererseits von der Performance eines Fonds abhängt. Dem Kunden bieten sich folgende Vorteile: • Wie reine Fondbeteiligungen können VAs ein grosses “Upside Potential” bieten. • Ähnlich wie klassische Lebensversicherungen sind VAs wegen ihrer “Downside”Garantien geeignet zur langfristigen Kapitalsicherung. • Auf das investierte Geld dürfen Gläubiger nicht zugreifen. • In den meisten Ländern ist der Steuersatz für VA-Gewinne tief wegen ihres Versicherungscharakters. • Bei klassischen Kapitalanlagen werden die Erträge jährlich besteuert. Gewinne von VAs werden aber erst am Ende der Laufzeit (etwa 5 bis 20 Jahre) einmalig besteuert. Dieses sogenannte “Tax Deferal” erlaubt Zinseszinseffekte bei VAs, die sonst entfallen. Die Garantien haben natürlich ihren Preis. Hier die Haupteinbussen für den Versicherungsnehmer: • Es fallen Gebühren an. 6 Abbildung 1: Erhebung des amerikanischen VA-Markt Volumen von LIMRA International. • Die Verträge lassen den Kunden kaum voll an den Gewinnen der Fonds teilhaben. • Der Kunde kann das Kapital nur unter grossem Verlust aus dem Vertrag lösen. • Die Verträge sind teilweise ziemlich undurchsichtig und kompliziert. • Der Kunde hängt von der langfristigen finanziellen Gesundheit des Versicherers ab. Die Vorteile scheinen für die Kunden aber zu überwiegen. Nur so erklärt sich der riesige Erfolg von variablen Annuitäten in den letzten Dekaden (siehe Abbildung 1). Die Hauptmärkte sind heute Nordamerika (seit den 50er Jahren), Asien (vor allem Japan, seit den 90er Jahren) und Europa (erstes VA-Produkt 2006: AXA “Twin Star” in Deutschland). Gerade auch das starke Wachstum der Bevölkerung 65+ in diesen Ländern lässt vermuten, dass Produkte zur Altersanlage überhaupt und mit ihnen eben auch variable Annuitäten immer mehr nachgefragt werden. Der Attraktivität für den Versicherungsnehmer stehen die Komplikationen der Versicherer gegenüber, die VA-Produkte entwickeln. Scott Robinson von der Ratingagentur Moody’s schreibt in [16]: "We view VAs with guarantees as being at the higher end of the risk spectrum of life-insurance-company products. Also, notwithstanding a robust product-development process, the extent of a VA risk may not be fully known and understood at the time the product is first introduced." 7 Und von EIOPA [6] (“European Insurance And Occupational Pensions Authority”) wird zwar festgehalten, “VAs do not currently pose a systemic risk for the wider financial system.”, zugleich kann man aber dort lesen: “Even though the current size of VAs’ EU market seems not to give raise to systemic threats, the Task Force considers that its development should be closely monitored as it could pose procyclical threats. We therefore believe that there is a need to gather data and monitor exposures not only on size but on the marginal propensity to rebalance following market movements. VAs business requires extensive additional skills and knowledge compared to traditional life insurance. Insurers could fail to build sufficient skills and knowledge. Also in this case, this could prevent the insurer from fully understanding all risks it is exposed to. Due to the frequent recourse to outsourcing the fit and proper requirements should apply to the key persons performing the outsourced functions.” An diesen kurzen Zitaten erkennt man schon, dass die eingegangenen Risiken für Verkäufer von VAs besonders komplex sind. Die Risiken, die für die Versicherer entstehen, sind in der Tat vielfältig: • Anlagerisiko: Muss der Versicherer am Ende der Laufzeit für den Garantiewert geradestehen? Wie werthaltig ist die Garantie? • Wechselkursrisiko • Zinsrisiko • Kundenverhalten (“Lapse Risk”): Es werden immer eine Anzahl Versicherungsnehmer aus ihrem Vertrag aussteigen - egal wie streng die Auflagen für vorzeitige Kündigung der Anlagen ausgestaltet sind. Mangels Daten sind die Zusammenhänge hierbei noch ungeklärt. • Sterblichkeits-/Langlebigkeitsrisiko: Vom Todes- oder vom Erlebensfall profi- tiert der Kunde bzw. seine Familie oft besonders. Diese biometrischen Risiken kann der Versicherer allerdings meist quasi deterministisch betrachten, da die Datenlage ausgezeichnet ist, und das Gesetz der grossen Zahlen zum Tragen kommt. 8 • Gegenparteirisiko - falls Risiken weiterverkauft wird. Dieses Risiko kann heutzutage allerdings gering gehalten werden durch sogenanntes “Colateral Hedging”: In regelmässigen Abständen stellen sich die Vertragspartner je nach Werthaltigkeit des Vertrags liquide Mittel als eine Art Pfand zu Verfügung. Bei einem etwaigen Ausfall des in der Schuld stehenden Partners werden diese Mittel mit den Forderungen verrechnet. In dieser Arbeit betrachten wir vor allem das Anlagerisiko. Hier gibt es für den VA-Verkäufer prinzipiell drei Möglichkeiten. Er behält die Risiken im Haus, er kauft ein equivalentes Produkt bei einer Investmentbank oder er schliesst eine Rückversicherung ab. Sicher ist: An irgendeinem Punkt der “Risikonahrungskette” muss sich jemand die Frage stellen, ob man das Verlustrisiko durch Hedgen senken kann und soll. Wir werden sehen, dass dies - wie bei Optionen - lohnenswert ist. Das Bewerten und das Hedging bringen allerdings selber wieder eine Anzahl operationeller Risiken mit sich: Etwa Modellrisiko, Hedgingfehler, Liquiditätsrisiko (sind die nötigen Hedge-Instrumente überhaupt verfügbar?) und wiederum Gegenparteirisiko. Variable Annuitäten in der Praxis Der Interessent für variable Annuitäten in den USA wird vom Angebot geradezu erschlagen. Ohne professionelle Hilfe ist man hier wohl ziemlich hilflos. Grob gesagt kann man sich bei allen Anbietern zunächst für einen angebotenen Fond entscheiden. Der grosse amerikanische Versicherer Metlife bietet derzeit fast 50 solcher Partizipationsmöglichkeiten. Diese sind dann mit kleineren Einschränkungen frei kombinierbar mit einer etwa ebenso grossen Anzahl von Vertragsstrukturen (Garantieart, Laufzeit, Ein- und Auszahlungsmuster). Geht man von zehn Firmen mit einem solchen Angebot aus, sind für den amerikanischen Kunden 10 · 50 · 50 = 250 000 VA- Verträge nur einen Mausklick entfernt - vorsichtig geschätzt. Das nennt man Qual der Wahl! Dazu kommt, dass die einzelnen Verträge als Konsequenz des amerikanischen Rechtssystems unglaublich detailliert ausgearbeitet sind; nur so können sich die Versicherer gegen allfällige Klagen absichern. In Europa sind die Vertragsarten und auch die Verträge selber deutlich übersichtlicher. Hüben wie drüben vom Atlantik liegen die typische Prämiensumme zwischen 20’000 und 100’000 Euro. Für kleinere Summen lohnt sich der administrative Aufwand 9 Variable Annuities – Typical guarantees GMDB GMIB Guaranteed lump sum in case of death („Roll-up“) Guaranteed income agreed in year 0 130% 100% 130% 100% 0 1 2 3 4 ……………….………..…30 years GMAB 0 1 2 3 4 5………………………..…30 years Guaranteed lump sum at maturity GMWB Guaranteed amounts for withdrawals 130% 100% 100% 0 1 2 3 4 5………………………..…15 years 0 1 2 3 4 ……………………… 12 years Guarantee 10.09.2010 Fund value -6- Abbildung 2: Die vier verbreitetsten Vertragsarten von VAs in einer Graphik von Studer [23] bei den Versicherungen meist nicht; bei deutlich höheren Summen wird der potenzielle Kunde auf Herz und Nieren geprüft: Wie gesund oder krank ist er? Woher kommt das viele Geld genau? Obere Schranken für die Prämie werden aber selten explizit aufgeführt. Ausgeschlossen als Kunden sind rein instititionelle Parteien. Denn trotz ihrer Kapitalanlage-artigen Struktur gelten VAs rechtlich immer noch als (Lebens-)Versicherungen (mitsamt der oben beschriebenen steuerlichen Vorteile) und als solche stehen sie nur realen Personen offen. In Abbildung 1 konnten wir bereits ein Gefühl für die Grössenordnung des VA-Marktvolumens bekommen: Es geht um Hunderte von Milliarden Prämiendollar pro Jahr. Etwas konkreter kann man sagen, dass ein grosser Versicherer im VA-Geschäft jährlich mehrere tausend neue VA-Verträge abschliesst. Trotz der detailreichen Vielfalt kann man die meisten Verträge zunächst einer der folgenden Strukturen zuordnen: • Guaranteed Minimum Death Benefit (GMDB): Eine Mindestauszahlung im Todesfall ist garantiert. • Guaranteed Minimum Accumulation Benefit (GMAB): Einmalige Mindestauszahlung am Ende der festgelegten Laufzeit • Guaranteed Minimum Income Benefit (GMIB): 10 Jährliche Mindestzahlungen sind garantiert. • Guaranteed Minimum Withdrawal Benefit (GMWB): Jährlicher Mindestbezug vom investierten Kapital ist garantiert. In Abbildung 2 sind die Vertragsarten beispielhaft graphisch dargestellt. Die Mindestgarantie beinhaltet meist die Rückzahlung der eingezahlten Prämie - eventuell sogar verzinst. Das wird “Roll-up” genannt. Wir werden es in dieser Arbeit mit einer GMAB-Struktur zu tun haben. Verfeinerte Garantie- und Partizipationsformen werden im nächsten Abschnitt zu indexgebundenen Annuitäten vorgestellt. 1.2 Indexgebundene Annuitäten Bei den indexgebundenen Annuitäten handelt es sich um eine Spezialform von variablen Annuitäten. Seit den 1990er Jahren in den USA werden diese Produkte angeboten. Sie machen weniger als 10 Prozent des gesamten VA-Handels aus (10 Mrd.$ von 110 Mrd.$ 2001). Geboten wird meist die Partizipation an der Entwicklung eines Aktienindex samt garantierter fixer Mindestverzinsung einer Einmalprämie über einen festgelegten Zeitraum, also nichts anderes als der oben eingeführte “Guaranteed Minimum Accumulation Benefit” (GMAB). Für den Todesfall gibt es verschiedene Regelungen. Mal erhalten die Begünstigten den “Indexwert”, mal den Garantiewert. Für die Erträge, die von der Entwicklung des Index abhängen, gibt es im wesentlichen drei Arten: Die Point to Point-Methode, die Ratchet-Methode und die High Water Mark-Methode. Die Bewertung und das Absichern dieser drei EIA-Spielarten bilden das Herzstück dieser Arbeit. Für die Definitionen führen wir zunächst folgende Abkürzungen ein. In Klammern findet sich jeweils der entsprechende Wert eines typischen Beispiels2 : 2 Für einen typischen Wert sind die 100’000 EUR für die Einmalprämie wohl eher zu hoch gegriffen. Wir wollen den Betrag aber auch in den Beispielen verwenden und so sind die Veränderungen am übersichtlichsten. 11 P Einmalprämie (100’000 EUR) T Laufzeit (7 Jahre) (St )0tT Indexverlauf (DAX) ↵ Partizipationsrate (60%) rg garantierter (diskreter) jährlicher Zinssatz (3%) Anteil der Prämie, der als fixe Annuität angelegt wird (95%) G N := · · (1 + rg )T , garantierter Returnfaktor in T (1.168) Ratchet- bzw. Monitordaten3 (14, d.h. halbjährlich) In jedem der betrachteten Fälle erhält der Versicherte am Ende der Laufzeit mindestens die Garantie P · G := P · d.h. den Anteil · (1 + rg )T , von der Prämie zu einem fixen Satz rg verzinst. Darüber hinaus bieten die EIAs die Möglichkeit, auf eine bestimmte Weise REIA an der Entwicklung eines Index teilzunehmen. Das jeweilige REIA nennen wir “Indexierungsmethode”, das jeweilige G nennen wir die “Life of Contract”-Garantie (LOC). Am Ende der Laufzeit erhält der Kunde also P · max (REIA , G) Wir werden später sehen, dass der Versicherer die anfangs erhaltene Prämie P nicht etwa in den Index, sondern zum Grossteil tatsächlich in eine risikofreie Anlage investiert. Die LOC-Garantie P ·G kann er so in jedem Fall aufbringen. Die Verpflichtung des Versicherers zum Ende der Laufzeit über die LOC-Garantie hinaus ist also im Wesentlichen P · (REIA G)+ . Diesen Term nennen wir “Payoff in Excess of Minimum Guarantee” (PEMG). Nun können wir die verschiedenen EIA-Arten einführen. Allen Definitionen folgt ein 3 Hier sind wir etwas ungenau, denn t0 = 0 ist zwar kein Ratchetdatum, dafür aber ein Monitordatum. Genaugenommen gibt es also N + 1 Monitordaten. Wir reden aber auch weiterhin immer von N Monitordaten, meinen damit t0 < t1 < ... < tN und verstehen bei der Zählung t0 also quasi als “unechtes” Monitordatum. 12 5000 2000 3000 4000 Indexpunkte 6000 7000 8000 DAX 2003-2010 0 500 1000 1500 Tage Abbildung 3: Tagesendstände des DAX von Anfang 2003 bis Anfang 2010. Die gestrichelten Linien bezeichnen beispielhafte Ratchet- bzw. Monitordaten (mit N = 14, das heisst halbjährlich). Beispiel, das die typischen Zahlen aus obiger Liste verwendet und das sich jeweils auf die historischen DAX-Werte in Abbildung 3 bezieht. Point to Point (PTP) Dies ist der einfachste Fall. Der Versicherte erhält am Ende der Laufzeit das Maximum von der Garantiesumme P · G und ✓ P · RPTP := P · 1 + ↵ ✓ ST S0 1 ◆◆ , also P · max(G, RPTP ). ↵ ist die sogenannte Partizipationsrate. Der PEMG (RPTP PTP-Fall umschreiben zu ↵P S0 ✓ ST S0 (G ↵ 13 (1 ↵)) ◆+ . G)+ , lässt sich im Dies ist die Struktur einer “Plain Vanilla Call Option” auf den Index S mit Laufzeit T und mit Ausübungspreis (“Strike”) S0 ↵ ✓ G P (1 ◆ ↵) . Hier bieten sich natürlich sofort die üblichen Bewertungsformeln an, und diese werden im nächsten Kapitel auch verwendet. Aber schon an dieser Stelle soll darauf hingewiesen werden, dass sich Optionen und die vorgestellten Garantien trotz der offenbaren strukturellen Gleichheit in einem Punkt grundsätzlich unterscheiden: In der Laufzeit! So ist - um dies vorwegzunehmen - etwa die Annahme konstanter Volatilität und konstanter Zinssätze je unrealistischer, desto länger die Laufzeit. Beispiel: Der Index steigt während der Laufzeit von sieben Jahren von etwa 3’000 auf etwa 6’000 Punkte (siehe Abbildung 3), macht also einen Gewinn von 60 000/30 000 1 = 100%. Für eine Partizipationsrate von ↵ = 0.6 bringt die PTP-Indexierungsmethode entsprechend einen Return4 von 0.6 · 100% = 60%. Der garantierte Return ist G 1 = ·(1+rg )7 1 = 0.95·1.037 1 ⇡ 17%und damit deutlich kleiner als der Gewinn, der durch die Indexierungsmethode entsteht. Man sagt: “Die LOC-Garantie ist wertlos”. Bei einer Einmalprämie von 100’000 Euro erhält ein Versicherungsnehmer also P · 1.6 = 1600 000 Euro ausbezahlt. Compound Ratchet (CR) und Simple Ratchet (SR) Dem englischen Wort “Ratchet” begegnen wir in der alemannischen Fasnachts “Rätsche” wieder. Eher Krachmach- als Musikinstrument wird es in katholischen Landstrichen zum eigentlich heidnischen Winteraustreiben verwendet. Die Funktionsweise ist die, dass eine flache, lange Holzzunge an einem Holzzahnrad “rundumschneddert”. Die Zahnradzacken sind so geschnitzt, dass sich das Rad in die eine Richtung dreht und in die andere blockiert. Das ist auch die Mechanik der Ratchet4 Achtung: Hier und an den meisten Orten ist mit “Return” oder auch “Rendite” nicht unbedingt eine jahresweisen Veränderung gemeint, sondern je nach Zusammenhang die prozentualen Zuwächse innerhalb eines Ratchetintervalls etwa oder auch - wie in diesem ersten Beispiel - die prozentualen Gewinne über die ganze Laufzeit gesehen. 14 Indexierung. Es geht gewissermassen nur aufwärts, nicht abwärts. Wieder haben wir als Versicherungsnehmer die Summe P · G auf sicher. Zusätzlich nehmen wir teil an der Entwicklung eines Index zwischen N + 1 equidistanten Ratchetdaten t0 := 0, t1 := T /N, t2 := 2T /N, ..., tN := T . Aber jeweils nur, wenn der Index in dem betrachteten Ratchetintervall [ti , ti+1 ] ansteigt, ansonsten sind die bisherigen Gewinne blockiert (“locked in”). Es werden zwei Fälle unterschieden: Der Compound- und der Simple-Ratchet. Im CR-Fall profitiert der Versicherungsnehmer von Zinseszinseffekten, im SR-Fall nicht. Formal: P N Y 1+↵ n=1 P ✓ St n St n 1 1 ✓ N X St n 1+ ↵ St n 1 n=1 ◆+ ! 1 (Compound Ratchet) ◆+ ! (Simple Ratchet) Auch hier gibt es wieder eine Partizipationsrate ↵. Wir werden sehen, dass sie der der Schlüssel ist, um den Preis für die Absicherung der Indexierungsmethoden zu kontrollieren. Ein weiterer verbreiteter Weg um die Absicherung des Ratchets in der Praxis nicht zu teuer werden zu lassen, ist die Einführung sogenannter “Caps”, bei denen der Gewinn in einem Ratchetintervall ein fixes c nicht überschreiten darf. Zum Beispiel 10% bei jährlichem Ratcheting. Beispiel: Der Index macht in fast jedem der 14 Ratchetintervalle einen Gewinn, nämlich Intervallnummer 1 2 3 4 5 6 7 1.34 25.62 2.95 3.56 9.34 14.73 0.36 8 9 10 11 12 13 14 Return in Prozent 20.86 19.73 3.47 -16.29 -31.37 11.24 10.81 Return in Prozent Intervallnummer Von den grossen Verlusten in den Intervallen 11 und 12 bleibt unser Kapital verschont, denn alle negativen Returns werden gleich Null gesetzt - das ist ja das attraktive Versprechen des Ratchets. Ausserdem werden alle Returns mit der Partizipationsrate ↵ = 0.6 multipliziert. In den 14 Ratchetintervallen wird unsere Einmalprämie also halbjahresweise wie folgt verzinst: 15 Intervallnummer 1 2 3 4 5 6 7 0.80 15.37 1.77 2.13 5.60 8.83 0.21 8 9 10 11 12 13 14 Return in Prozent 12.51 11.83 2.08 0 0 6.74 6.48 Return in Prozent Intervallnummer Dieser Werte führen am Ende einer Laufzeit von sieben Jahren bei einer Einmalprämie von 100’000 Euro zu einem Auszahlung von 203’312 Euro im CR-Fall, wo die Zinseszinseffekte berücksichtigt werden, und zu einem Wert von 174’406 Euro im SR-Fall, wo einfach verzinst wird. High Water Mark (HWM) Seltener begegnet man der ebenfalls mit einem klangvollen Namen ausgestatteten “High-Water-Mark”-Indexierung. Neben der Mindestgarantie G wird der Höchststand des Index M N := max{St0 , ..., StN } bezüglich N + 1 equidistanter Monitordaten angeboten: P ✓ 1+↵ ✓ MN S0 1 ◆◆ Anders als bei den Ratchetmethoden müssen wir hier beim Gewinnterm M N /S0 nicht M N /S0 1 + 1 schreiben, denn M N /S0 ist ja in jedem Fall grösser gleich 1. Auch hier gibt es wieder eine Partizipationsrate ↵. Auf dem Markt finden sich auch Beispiele mit Caps, das heisst mit oberen Gewinnschranken. Anders als im Optionsmarkt (“Lookbackoptionen”) sind uns hier keine realen Beispiele für kontinuierliches (realistischerweise wohl tägliches) Monitoring begegnet. Aus zwei Gründen untersuchen wir diese Situation dennoch genau wie die anderen Partizipationsarten: Erstens haben wir in dieser Arbeit ein besonderes Augenmerk auf den Einfluss der Anzahl Monitordaten, und so ist der kontinuierliche Fall als Grenzfall des diskreten Monitoring interessant. Zweitens werden wir für das Hedging die Sensitivitäten der diskreten HWMs mit denen der kontinuierlichen annähern. Was dies bedeutet, wird in Kapitel 3 genau erklärt. Mit kontinuierlicher HWM-Indexierung meinen wir also P ✓ 1+↵ ✓ maxt2[0,T ] St S0 16 1 ◆◆ . Beispiel: Der DAX startet Anfang 2003 bei etwa 3000 Punkten und erreicht seinen Höchststand (bezüglich der Monitordaten) beim Monitordatum t10 mit etwa 8000 Punkten. Die HWM-Indexierungsmethode mit Partizipationsrate ↵ = 0.6 bringt also einen Return von 0.6*(8000/3000-1)=100%. Das heisst, am Ende der Laufzeit erhält der Versicherungsnehmer das Doppelte seiner einbezahlte Prämie zurück, und die LOC-Garantie (etwa 17% Rendite) verfällt. In diesem Beispiel würde kontinuierliches Monitoring den Return kaum vergrössern. Übersicht Rein formal ergibt sich, dass für N = 1 die HW M -Indexierung und die beiden Ratchet-Methoden sich genau entsprechen5 . Die P T P -Methode ist in der vorgestellten, üblichen Definition ein Sonderfall, da hier beim Return RPTP = (1 + ↵ (ST /S0 1)) auch Verluste möglich sind (d.h. RPTP < 1). So ist einerseits die Bewertung einfacher, andererseits ist bei typischen Werten von und T die Garantie G ohnehin grösser als 1, so dass der Return-Wert bei einem etwaigen Verlust keine Rolle mehr spielt. Zusammenfassend seien hier die Returns REIA der verschiedenen Indexierungsmethoden samt dem für den Versicherer jeweils resultierenden PEMG P · HEIA dargestellt: P · HPTP := P · (RP T P ✓ ST RP T P := 1 + ↵ S0 5 G)+ , wobei ◆ 1 Diesen Umstand kann man sich sehr gut für eine schnelle erste Probe der programmierten Bewertungen nutzbar machen! 17 N N P · HCR := P · RCR N RCR := N Y 1+↵ n=1 G ✓ N N P · HSR := P · RSR N RSR + St n St n 1 G 1 ◆+ ! + ✓ N X St n := 1 + ↵ St n 1 n=1 1 ◆+ + N N P · HHWM := P · RHWM G ✓ max{St0 , ..., StN } N RHWM := 1 + ↵ S0 1 ◆ Das jeweilige R nennen wir “Indexierungsmethode”, das jeweilige G nennen wir die “Life Of Contract”-Garantie (LOC) und das jeweilige H den “Payoff in Excess of Minimum Garantee” (PEMG). Variable und indexgebundene Annuitäten Fond- und indexgebundene Annuitäten sind natürlich sehr verwandt. Es gibt aber einige gewichtige Unterschiede [12]: • VAs sind schwieriger abzusichern (“hedgen”), denn auf einen individuellen Fond gibt es in der Regel keine Optionen zu kaufen. Also muss man selber hedgen. Dazu muss man Annahmen zur Korrelation zwischen den Komponenten treffen. Das ist natürlich sehr fehleranfällig. Wird der Fond sogar aktiv verwaltet, d.h. immer wieder umgeschichtet, ist man mit dem entsprechenden Umschichten des “Hedge”-Portfolios immer zu spät dran. • Auch die kürzere Laufzeit von EIAs erlaubt dem Versicherer eher als bei VAs das Kapitalmarktrisiko mit dem Kauf entsprechender Optionen weiterzugeben. Allerdings sind etwa sieben Jahre (als typische EIA Laufzeit) immer noch eine lange Laufzeit für eine Option. Das bringt zwei Nachteile: Erstens ist der Markt 18 für derart langfristige Optionen nicht besonders liqide, und zweitens wird der Verkäufer der Option die zusätzliche Unsicherheit, die durch die lange Laufzeit entsteht, in der Bewertung ausgleichen durch eine höhere Volatilitätsannahme und also einen höheren Preis verlangen. • EIAs sind wohl auch darum weniger verbreitet als VAs, weil sie auf Kunden konservativer wirken als “fancy” Fonds. Auch ist für die Versicherer die Fondwahl ein Mittel sich von der Konkurrenz abzugrenzen. Finanzierung Der Versicherer muss vieles bezahlen (Risikomanagement, Verwaltung, provisionsintensiver Vertrieb) und bekommt über die Prämie (in unserem Fall die Einmalprämie P ) hinaus nichts für seine Leistungen bezüglich des EIA-Vertrags. Er muss also einen Weg finden, seinen Anteil von diesem P abzuzweigen. Im Fall der EIAs funktioniert das wie folgt: Der Versicherer erhält P . rekt (“upfront”) werden schon (1 · P legt er “risikofrei” an. Das heisst, di- ) · P , etwa 5% des Kapitals, entnommen. Von diesem gleich anfangs abgezweigten Geld wird eine dem PEMG entsprechende Option gekauft oder ein eigenes Hedgingprogramm gestartet. Damit sichert sich der Versicherer gegenüber der Indexierungsmethode ab. Nun sind aber 5% des Kapitals erstens ziemlich wenig (das würde in sehr tiefen Partizipationsraten resultieren, unter 10%), zweitens braucht der Versicherer ja über das Risikomanagement hinaus noch Geld. Die Hauptquelle für weitere Einnahmen ist der sogenannte Zinsspread. Auf den Betrag · P verspricht der Versicherer dem Kunden zwar eine garantierte jährliche Rendite von rg , sagen wir 3% p. a., der Versicherer kann das Geld aber deutlich besser verzinst anlegen zu einem Zins von sagen wir 7% p. a.6 . Um am Ende der Laufzeit den Betrag G = also anfangs der Laufzeit · 1.037 auf dem Festgeldkonto zu haben, reicht es · 1.037 /1.077 = · 0.76 anzulegen. Von dem Unterschied rg = 4% (“Spread”) generiert der Versicherer also zusätzliches Kapitel zur Finan- r zierung der Absicherung der Indexierungsmethode, andererseits deckt er damit seine übrigen Kosten. Im weiteren lassen wir diese “übrigen Kosten” unberücksichtigt. Dafür gehen wir von einem etwas kleineren Zinsspread aus, nämlich 3%. Die endgültige 6 Das sind (zu) hohe Werte im aktuellen Niedrigzinsumfeld. Um unsere Resultate aber vergleichbar zu machen, passen wir uns hier der in der Literatur gewählten Grössenordnung an. 19 Umsetzung des beschriebenen Vorgehens findet sich am Ende des vierten Kapitels. Bis wir so weit sind, gilt es noch vieles vorzubereiten. Als ersten Schritt berechnen wir im nächsten Kapitel, was die vorgestellten Indexierungsmethoden eigentlich wert sind. 20 2 Bewertung 1: Fairer Preis Zur Bewertung der EIA-Garantien ziehen wir verschiedene Finanzmarktmodelle heran. Geschlossene Bewertungsformeln sind nur im Black-Scholes-Merton Kontext möglich. In den anderen Fällen sind wir auf Simulationen angewiesen. Geht man von dem im letzten Abschnitt des ersten Kapitels beschriebenen Vorgehen aus, hat der Versicherer am Ende der Laufzeit gerade den Betrag G auf dem Festgeldkonto. Über diese LOC-Garantie G hinaus, hat er eine Verpflichtung von P · H := P · (REIA G)+ , den Payoff in Excess of Minimum Guarantee (PEMG). Unter gewissen Annahmen lässt sich für diese Verpflichtung ein Hedgeportfolio finden. Den Anfangswert für dieses Portfolio nennen wir “fairen Preis”. Zusätzlich muss der Versicherer einen Risikozuschlag verlangen für Modell- und Hedgingfehler. Dieser Risikozuschlag wird bestimmt mit einem Risikomass ⇢, etwa einem Verlustquantil. Bezeichnen wir den fairen Preis für das Hedgeportfolio mit P · EQ [H] und verzichten für den Augenblick auf Diskontierungs- und Zinsspreadüberlegungen, dann können wir folgende etwas saloppe Vorschau zur Bewertung von EIAs geben: “Wert von EIA = P · G + EQ [H] + ⇢ 00 Eine Besonderheit ergibt sich nun noch dadurch, dass dieser Preis nicht irgendwie zusätzlich verlangt werden kann. Alles, was wir als Versicherer erhalten, ist die Einmalprämie P . Für den Wert der EIA sollte also ! “Wert von EIA = P 00 gelten. In der Praxis wird das G vorgegeben (etwa vom Marketing) und stattdessen die Partizipationsrate ↵, die den Wert von EQ [H] steuert, derart angepasst, dass obige Gleichung aufgeht. In diesem zweiten Kapitel lassen wir diese Problemstellung aber zunächst ausser Acht und betrachten zunächst den fairen Preis der Indexierungsmethoden. 21 2.1 Risikoneutrale Bewertung Der Schwerpunkt jeder Finanzmathematikvorlesung liegt heutzutage auf der risikoneutralen Bewertung. Weil die Garantien, die den Gegenstand dieser Arbeit bilden, die Struktur (mittlerweile) klassischer Derivate haben, ist dies auch die hier gewählte Betrachtungsweise. Im folgenden werden die wichtigsten Begriffe und Gedanken dieser Theorie zusammengefasst. Zunächst führen wir folgende Bezeichnungen ein: • Wir fixieren einen Wahrscheinlichkeitsraum (⌦, F, P). • Auf diesem definieren wir eine Familie von positiven, F-messbaren Zufallsvariablen S := (St )0tT : ⌦ ! R+ . Das ist der Preis- bzw. Indexprozess. • (B(t))0tT : ⌦ ! R+ repräsentiere das Geldmarktkonto. D.h. B0 = 1 und B(t) ist der Wert einer anfangs angelegten Geldeinheit zur Zeit t. Das B steht für “bank account”. • F̃t := ((Ss , Bs ) : s t), d.h. F̃ := (F̃t )0tT ist die kleinste Filtration, so dass beide Prozesse, S und B, adaptiert sind. • Aus technischen Gründen setzt man F0 := (F̃0 [ {A 2 F : P(A) = 0}) T und Ft := F̃t+✏ 8t 2 [0, T ). So ist die Filtration rechtsstetig und F0 enthält ✏>0 alle Nullmengen. Man sagt: “Die Filtration erfüllt die üblichen Bedingungen”. Wir schreiben F := (F)0tT . Ft lässt sich betrachten als die zum Zeitpunkt t verfügbare Information. Für alle 0 < s < t < T gilt natürlich F0 ⇢ Fs ⇢ Ft ⇢ FT ⇢ F. • H sei eine FT -messbare Zufallsvariable, d.h. eine messbare Funktion des Preis- verlaufs - wir denken hier sofort an die vorgestellten Indexierungsmethoden N N RCR , RSR , RHWM und RPTP oder ihre jeweiligen PEMGs. Ausgangspunkt der Überlegungen ist die sogenannte “No Arbitrage”-Eigenschaft (NA) des Finanzmarktes: Wir nehmen an, dass man ohne Risiko nichts gewinnen kann. Daraus folgt sofort, dass ein Portfolio, das zum Zeitpunkt T mit Wahrscheinlichkeit 1 den Wert H haben wird, zu jedem vorherigen Zeitpunkt den aktuellen 22 Wert von H repräsentiert. Nehmen wir weiter an, dass ein solches Portfolio für H tatsächlich existiert, ergibt sich der Wert von H zur Zeit 0 als Erwartungswert bezüglich eines bestimmten, künstlichen Wahrscheinlichkeitsmasses Q. Dieses Q ist so gewählt, dass der diskontierte Preisprozess S ⇤ := S/B ein Martingal ist. Um dies formal sauber zu präsentieren, führen wir die folgenden Definitionen ein: Definition 1. Ein reellwertiger F-adaptierter stochastischer Prozess X = (Xt )t2[0,T ] definiert auf dem filtrierten Wahrscheinlichkeitsraum (⌦, F, P) ist ein Martingal, wenn • EP |Xt | < 1 8t 2 [0, T ] • EP [Xt |Fs ] = Xs 0 s t T Definition 2. Zwei (Wahrscheinlichkeits-)Masse P und Q auf F sind äquivalent (schreibe P ⇠ Q), wenn für alle A in F P(A) = 0 , Q(A) = 0 gilt. Definition 3. Ein Wahrscheinlichkeitsmass Q ist ein äquivalentes Martingalmass (EMM) für (⌦, F, F, P), wenn S ⇤ := S/B, also der diskontierte Preisprozess, ein (lokales) Martingal unter Q ist. Wegen dieser Eigenschaft, dass sich unter Q die riskanten Anlagen (S) im Mittel so verhalten wie die risikolosen (B), nennt man obiges Mass Q auch “risikoneutral”. Es kann nicht genug darauf hingewiesen werden, dass Q ein künstliches Objekt ist, das nichts mit realen Wahrscheinlichkeiten zu tun hat. Und an diesem Punkt ist auch noch überhaupt nicht klar, was dieses Q zur Bewertung beitragen könnte. Diese Eigenschaft erhält es erst durch die sogenannte Replizierbarkeit von Verbindlichkeiten. Definition 4. Eine (Handels-)Strategie ist ein adaptierter stochastischer Prozess ('t )0tT := (#t , ⌘t )0tT , mit # voraussagbar und S- bzw. S ⇤ -integrierbar. #t ist die Anzahl Einheiten von S und ⌘t die Anzahl Einheiten von B in unserem Besitz zum Zeitpunkt t. Für den Wert des entsprechenden Portfolios schreiben wir Vt (') := ⌘Bt + #St 23 und Vt⇤ (') := Vt (') = ⌘ + #St⇤ . Bt Eine erste naheliegende Forderung an eine Handelsstrategie ist, dass sie ausser dem Startkapital kein Geld von aussen benötigt: Definition 5. Eine Handelsstrategie ' ist selbstfinanzierend, wenn die diskontierten Kosten Vt⇤ (') Zt #u dSu⇤ = ⌘t + #t St⇤ 0 Zt #u dSu⇤ 0 konstant sind, also nur am Anfang in der Höhe V0 (= V0⇤ ) anfallen. Aus diesen Definitionen folgt direkt, dass wir für eine selbstfinanzierende Handelsstrategie ' das Portfolio folgendermassen schreiben können: Vt⇤ (') = V0 (') + G⇤# (t) := V0 (') + Zt #u dSu⇤ . 0 G⇤# (t) kann und wird in der Regel auch zeitweise negativ ausfallen. Das heisst wir haben Schulden. Manche Handelsstrategien wollen wir ausschliessen, weil sie die Möglichkeit beliebig grosser Schulden voraussetzen, etwa Verdopplungsstrategien (diese gaben dem “Martingal” übrigens seinen Namen): Definition 6. Eine selbstfinanzierende Handelsstrategie ' ist erlaubt, wenn der Portfoliowert nach unten beschränkt ist, das heisst, es gibt ein a>0, so dass G⇤t (') = Zt #s dSs⇤ > a, t 2 [0, T ]. 0 Nun haben wir alle Begriffe eingeführt, die es braucht, um Arbitragefreiheit und Replizierbarkeit bzw. Vollständigkeit zu definieren: Definition 7. Wir sagen, ein Markt sei arbitragefrei (NA), wenn es keine Arbitragestrategie gibt. Eine Arbitragestrategie ist eine erlaubte, selbstfinanzierende Handelsstrategie ' , so dass • G⇤T (#) f.s. 0 24 • P[G⇤T (#) > 0] > 0 Definition 8. H 2 L0 (FT ) ist replizierbar, wenn es eine erlaubte, selbstfinanzierende Strategie ' gibt, so dass mit Wahrscheinlichkeit 1 VT (') = H bzw. VT⇤ (') = H . BT Sind alle H 2 L0 (FT ) replizierbar, nennt man den Markt vollständig Bemerkungen In einem diskreten, endlichen Markt gelten folgende Aussagen (“Fundamental Theorem of Asset Pricing”): • Im Markt gilt (NA), 9 Q, EMM • (NA) + Vollständigkeit, 9! Q, EMM Die zweite Aussage stimmt so auch für kontinuierliche Märkte, die erste unter einigen (sehr technischen) Verfeinerungen der Begriffe auch. Derart ausgestattet können wir den folgenden Gedankengang vorstellen, der der risikoneutralen Bewertung zugrundeliegt. Wir sehen: Hauptargument ist die Replizierbarkeit. Die Bewertung ist quasi ein Nebenprodukt derselben. Idee der risikoneutralen Bewertung: H 2 L0 (FT ) replizierbar ) H = VT (') = ⌘T BT + #T ST f.s., ' selbstfinanzierend und erlaubt ZT ZT ⇤ ⇤ ⇤ ) H/BT = V0 (') + #(u)dSu = Vt + #(u)dSu⇤ 0 t ) 8Q̃ auf (⌦, F) : Vt = Bt Vt⇤ = EQ̃ [Bt Vt⇤ |Ft ] = Bt EQ̃ [H/BT |Ft ] 2 ) Unter Q EMM : EQ 4 ZT t 3 Bt EQ̃ 4 #u dSu⇤ |Ft 5 = EQ [G⇤T (#) und damit Vt (') = Bt EQ̃ [H/BT |Ft ] 25 2 ZT t 3 #u dSu⇤ |Ft 5 G⇤t (#)|Ft ] = 0 Im letzten Schritt wurde verwendet, dass G⇤ selber ein Martingal unter Q ist7 . Ist der Markt also vollständig, können wir jeden Claim H bewerten. Nehmen wir weiter Arbitragefreiheit an, ist diese Bewertung eindeutig. # kann und wird typischerweise auch negative Werte annehmen. Das heisst, “Short Selling” ist ohne Einschränkung erlaubt. Es gibt keine Transaktionskosten. Zudem sind Kauf- und Verkaufspreise sowie Leih- und Verleihzins gleich hoch. Die Preise und der Zins sind exogen vorgegeben, bleiben also unbeeinflusst durch den eigenen Handel. 2.2 Black-Scholes-Merton Modell Trifft man einige weitergehende Annahmen wird die explizite risikoneutrale Bewertung in vielen Fällen analytisch handhabbar. Wir setzen für die Preis- bzw. Indexdynamik dSt = dWt + µdt, S0 = s0 , St und für das Geldmarktkonto dBt = rdt, B0 = 1. Bt Hier ist (Wt )t2[0,T ] eine eindimensionale Brown’sche Bewegung8 . Weiter ist > 0 die Volatilität und r > 0 der risikofreie Zinssatz und µ 2 R die “Drift” - alles Konstanten. Natürlich ist Bt = exp(rt). Mit Hilfe des Ito-Lemmas9 lässt sich ausserdem 7 Das ist etwas schwammig und kommt natürlich auf die Modellierung von S an. Exakter wäre: Ist S ein stetiges lokales Martingal und erfüllt # eine gewisse Beschränktheitseigenschaft bezüglich S, dann ist G ein lokales Martingal unter Q. In jedem Detail ist dies beschrieben in Theorem 17.11 in Kallenberg [17] 8 Ein Prozess (Wt )t2[0,T ] sei eine Brown’sche Bewegung auf (⌦, F, P), wenn W adaptiert ist, unabhängige und stationäre Zuwächse hat, seine Pfade stetig sind und für 0 s < t T gilt Wt Ws ⇠ N (0, t s) . 9 In diesem einfachen eindimensionalen Fall benötigen wir einfach die Aussage, dass für glattes f : (0, 1) ⇥ R ! R, (t, x) 7! f (t, x) und einen stochastischen Prozess S, der eine Lösung von dSt /St = dWt + µdt ist, gilt: ✓ ◆ 2 df (t, St ) = ft (St ) + µfx (St ) + fx,x (St ) dt + fx (St ) dWt 2 Für einen Beweis und allgemeinere Formulierungen siehe etwa [20]. In der selben Quelle kann man auch nachlesen, warum die Lösung S im folgenden Sinn eindeutig ist: Seien W , W̃ zwei Brown’sche Bewegungen und S, S̃ die entsprechenden Lösungen der stochastischen Differentialgleichung. Dann 26 nachrechnen, dass St := s0 exp ⇢ ✓ 1 2 Wt + µ 2 ◆ t die obige stochastische Differentialgleichung löst. Weiter lässt sich zeigen, dass in diesem Fall genau ein risikoeneutrales Mass Q existiert. Man kann es explizit darstellen als Q[A] := E P dQ 11A , A 2 F, dP unter Verwendung seiner sogenannten Radon-Nikodym-Dichte dQ = exp dP ⇢ r µ := ✓ 1 2 WT ✓ r µ ◆ . Nach dem Girsanov-Theorem10 ist WtQ t2[0,T ] Wt r µ t ◆ t2[0,T ] eine Brown’sche Bewegung unter Q. Damit erhalten wir für den diskontierten Preisprozess folgende Proposition: Proposition 1. Der diskontierte Preisprozess S ⇤ = (e rt St )0tT im BSM-Modell ist unter unter dem oben definierten Wahrscheinlichkeitsmass Q ein Martingal. Wir können es darstellen als St⇤ = s0 exp ⇢ WtQ 2 2 t , wobei W Q unter Q eine Brown’sche Bewegung ist. gilt h i h i P Wt = W̃t , 8t 2 [0, T ] = 1 ) P St = S̃t , 8t 2 [0, T ] = 1. 10 In diesem Fall reicht folgende einfache Version: Sei W eine eindimensionale Brown’sche Bewegung auf (⌦, F P). Dann ist für jede reelle Zahl c 2 R W̃t := W ct, t 2 [0, T ] eine Brown’sche Bewegung unter P̃, wo ✓ ◆ c2 P̃(A) := EP exp cWT T · 11A , A 2 F . 2 Siehe Proposition A.15.1 in Musiela [20]. 27 Beweis. St Bt = df (t, Wt ) dSt⇤ = d wobei f (t, w) := s0 exp ⇢ ✓ w+ µ 1 2 r 2 ◆ t Für die partiellen Ableitungen ergibt sich ft (t, w) = (µ fw (t, w) = fw,w (w, w) = r 1 2 2 )f (t, w) f (t, w) 2 f (t, w) . Mit der Ito-Formel (siehe die Fussnote auf Seite 26) finden wir also St Bt = df (t, Wt ) dSt⇤ = d 1 = ft (t, Wt )dt + fw (t, Wt )dWt + fw,w (t, Wt )dt 2 ✓ ◆ 1 2 1 2 = µ r + f (t, Wt )dt + f (t, Wt )dWt 2 2 St St = (µ r) dt + dWt Bt Bt ✓ ◆ St µ r = dt + dWt Bt St = dWtQ Bt = St⇤ dWtQ Also ist St⇤ = s0 exp{ WtQ 2 /2t} und nach der “Novikov”-Bedingung11 ist der diskontierte Preisprozess unter Q also ein Martingal. Als erste Anwendung der eingeführten risikoneutralen Bewertungsmethode unter 11 Hier reicht folgende einfache Form der Novikov-Bedingung: Sei WtQ eine Brown’sche Bewegung 28 den BSM-Annahmen folgt nun die Bewertungsformel für europäische Calloptionen12 aus dem berühmten Black und Scholes Paper von 1979 [2]. Diese Formel werden wir in dieser Arbeit ausgiebig verwenden. Proposition 2. Für den Wert einer europäischen Calloption mit Laufzeit T und Ausübungspreis K ergibt sich zum Zeitpunkt t c(⌧, St , K) := e wo ⌧ := T r⌧ EQ [(ST t die Restlaufzeit und K)+ |Ft ] = (d1 )St (d2 )e r⌧ K, die kumulative Standardnormalverteilung dar- stellt sowie di := log(St /K) + ri (⌧ ) p für i = 1, 2 mit ⌧ 2 r1 = r + 2 2 und r2 = r 2 . Für ihren Beweis und für viele weitere Rechnungen in diesem Kapitel werden wir immer wieder folgende Regel zum Umgang mit bedingten Erwartungswerten verwenden13 . Hier und im weiteren Text schreiben wir für E[·| F t ] etwas kompakter Et [·]. Lemma 1. Seien X und Y reellwertige Zufallsvariablen auf einem Wahrscheinlichkeitsraum (⌦, F, P), G ⇢ F, X sei G-messbar und Y sei unabhängig von G (und damit natürlich auch unabhängig von X). Dann ist E[f (X, Y )|G] = E[f (x, Y )]|x=X auf (⌦, F, Q), und X ein Prozess auf dem selben Wahrscheinlichkeitsraum. Dann folgt aus 2 0 T 13 Z 1 EQ 4exp @ Xs2 dsA5 < 1, 2 0 dass der Prozess 2 exp 4 Zt 0 Xs dWsQ 1 2 Zt 0 3 Ss2 dWsQ 5 , t 2 [0, T ], ein Martingal ist. In unserem Fall setzen wir einfach Xt ⌘ . Zur Novikovbedingung siehe Theorem 18.23 in Kallenberg [17]. 12 Eine Calloption auf das “Underlying” S mit “Strike” oder “Ausübungspreis” K hat zum Lauf+ zeitende T den Wert (ST K) . 13 Für eine schöne Einführung zu bedingten Erwartungswerten und für eine Begründung des Lemmas siehe etwa Durett [4]. 29 für alle sinnvollen Funktionen f , so dass E |f (X, Y )| < 1 und E |f (x, Y )| < 1 für alle x 2 R Beweis. (der Proposition) Die genaue Rechnung findet sich in jedem Skript und in jedem Buch zum Thema. Dennoch sei sie hier dargestellt, um das Vorgehen bei den folgenden, schwierigeren Rechnungen exemplarisch vorwegzunehmen. Auch die Formel selber werden wir immer wieder verwenden. Zunächst bemerken wir, dass ST = exp St ⇢ WTQ ✓ WtQ + r 1 2 2 ◆ p T t wegen den unabhängigen Zuwächsen der Brown’schen Bewegung unabhängig von F t ist (siehe Fussnote auf Seite 26. Mit Z ⇠ N (0, 1), unabhängig von F t , r2 := r und ⌧ := T t können wir also schreiben: ST = exp St p p ⌧ Z + r2 ⌧ . Und damit erhalten wir A := {ST > K} ⇢ ST K = > S St ⇢ t p K = ⌧ Z + r2 ⌧ > log St p = ⌧ Z > log(K/St ) r2 ⌧ ( ) log SKt r2 ⌧ p = Z> ⌧ ⇢ p log(St /K) + r2 ⌧ p = Z ⌧ = { Z d2 (St )} =: A(St ). 30 2 /2 ⇥ EQ t e r⌧ (ST K)+ Bedenkt man weiter, dass ⇤ ⇥ = EQ t e ⇤ ⇥ r⌧ ⇤ ST 11A EQ K 11A t e ⇤ ⇥ ⇤ Q ST = St E t 11 e r⌧ K EQ 11A(s) |s=St ⇤ A(St ) S t⇤ S = St EQ T⇤ 11A(s) |s=St e r⌧ K Q [A(s)] |s=St St r⌧ d Z = Z, dann berechnet sich die involvierte Wahrschein- lichkeit einfach als Q[A(s)]|s=St = Q [ Z d2 (s)] |s=St = Q [Z d2 (s)] |s=St = (d2 ). Für den Erwartungswert erhalten wir E Q ⇢ p ST⇤ 1 2 Q 1 1 | = E exp ⌧Z ⌧ 11A(s) |s=St s=S A(s) t ⇤ St 2 ⇢ Z1 p 1 2 = (z) exp ⌧z ⌧ dz 2 d2 exp d2 ⇢ Z1 exp ⇢ 1 = p 2⇡ Z1 1 = p 2⇡ d2 p (z p 2 = p ( d2 ⌧ ) p (d2 + ⌧ ) = (d1 ). = 1 1 2 ⌧z 2 ⌧ ⌧ )2 z2 2 dz dz Einsetzen ergibt die Behauptung. 2.3 Fairer Preis für die Point To Point Indexierung Zur Erinnerung: Die Point-to-Point-Indexierung bietet einen Return von RPTP = 1 + ↵ · ✓ ST S0 ◆ 1 . Proposition 3. Für Verträge mit “Point to Point”-Indexierung, LOC-Garantie G 31 und Einmalprämie P ergibt sich als risikoneutraler Wert des PEMG (Payoff in Excess of Minimum Guarantee) zum Zeitpunkt t P ·e r(T t) ⇥ EQ t (RPTP ⇤ ↵P G)+ = · c(⌧, St , K) S0 mit K := S0 (G ↵ (1 ↵)) und - wie immer G = (1 + rg )T . Beweis. Einfaches Umschreiben bringt den Ausdruck in die Form einer Calloption: (RPTP G) + ✓ 1+↵· ✓ ↵ = ST S0 = ✓ ST S0 S0 (G ↵ 1 ◆ (1 G ◆+ ↵)) ◆+ Nun können wir Proposition 2 verwenden. Im PTP-Fall erhalten wir also den exakten Wert für den PEMG. Im Ratchet- und HWM-Fall können wir in diesem Kontext nur den Wert der Indexierungsmethode berechnen ohne Life of Contract Garantie, das heisst nur EQ [R], nicht EQ [max (R, G)]. Da aber die LOC-Garantie bei typischen Werten für ↵ und selten im Geld sein wird, können wir die folgenden Rechnungen später auch in Approximationen für den PEMG-Wert der Verträge verwenden. Das heisst EQ [(R G)+ ] ⇡ EQ [R] G. Die exakten Ergebnisse für die Indexierungsmethoden werden wir später zudem verwenden, um die Monte-Carlo-Simulationen für den korrekten Ausdruck varianztechnisch zu optimieren. Diese Bewertungsapproximation wird bei den Resultaten im Kapitel ?? eine wichtige Rolle spielen. 32 2.4 Fairer Preis für die Ratchet Indexierungen Fairer Preis für die Compound Ratchet Indexierung Zur Erinnerung: Der Return der Compound Ratchet - Indexierung ist N RCR := N Y 1+↵ n=1 ✓ St n St n 1 1 ◆+ ! . Proposition 4. Für die Compound Ratchet Indexierung ergibt sich als risikoneutraler Wert e 8 > > e > > > > > > > <e rT 1 + ↵ · er r(T ti0 ) N EQ t [RCR ] im Black-Scholes Modell r(T t) N c( 1 + ↵er N N , 1, 1) c( für t = 0 N i0 N , 1, 1) ⇣ ⇣ > r(T t) r(ti0 t) > e 1 + ↵e c ti0 > > > > > > > :· 1 + ↵ · er N c( N , 1, 1) N t, St St i0 i0 · 1 i0Q1 ⇣ i0 Q ⇣ 1+ i=1 ⌘⌘ ,1 1+ i=1 ↵ St i 1 ↵ St i 1 · St i St i St i St i + 1 + 1 ⌘ ⌘ für t = ti0 für t 2 [ti0 1 , ti0 ) c(⌧, S, K) bezeichnet hier den Wert einer Calloption auf S mit Restlaufzeit ⌧ , aktuellem Wert des Underlying S und Strike K. Bemerkung: Natürlich ergeben sich die ersten beiden Fälle als Spezialfälle der dritten N Formel und für t ! T erhalten wir gerade die Auszahlung RCR der CR-Indexierung. Beweis. 0 = t0 < t1 < ... < tN seien die (equidistanten) Monitordaten. ti N ti 1 =: für i = 1, 2, ..., N Aus Gründen der Übersicht berechnen wir ⇥ EQ t e r(T t) N RCR ⇤ zunächst für t = 0, darauf für t = ti0 (d.h. t entspricht gerade einem Ratchet-Termin) und dann erst für allgemeines t. 1.Fall: t = 0 EQ [e rT N RCR ] = EQ " N Y e r N i=1 33 1+↵· ✓ St i St i 1 1 ◆+ !# 4 1 2 3 Euro 5 6 Wert der CR-Indexierung 0 10 20 30 40 N Abbildung 4: Für volle Partizipation ↵ = 1 ist hier der Wert einer siebenjährigen CR-Indexierung bei anfänglicher Investition von einem Euro abhängig von der Anzahl Ratchetintervallen dargestellt. N = 7 entspricht zum Beispiel jährlichem Ratcheting. Für N = 42, d.h. für ein Ratcheting alle zwei Monate, ist der Wert schon gewaltig hoch. Will man ein EIA-Produkt mit diesem Feature entwickeln, muss man die Partizipation entsprechend gewaltig verringern. Weiter verwenden wir, dass St1 /St0 , ..., StN /StN EQ [e rT " N RCR ] = EQ e r 1 unabhängig und gleichverteilt sind: 1+↵· N ✓ S N S0 1 ◆+ !#N Dies lässt sich leicht weiter umschreiben als Funktion eines Calloptionwertes: Q E [e rT N RCR ] = e r N +↵·E Q " e r N ✓ S N S0 1 ◆+ #!N Der Erwartungswert ist nun nichts anderes als der Wert einer Calloption auf das normierte S (also die Dynamik von S mit Startpreis 1) mit Laufzeit übungspreis 1. Also erhalten wir EQ [e rT N RCR ] = = e e r rT N + ↵ · c( 1 + ↵ · er 34 N , 1, 1) N c( N N , 1, 1) N und Aus- 2.Fall: t = ti0 ⇥ EQ t i0 e r(T ti0 ) ⇤ N RCR =e r(T ti0 ) EQ t i0 " N Y i=1 Nun verwenden wir, dass St1 /St0 , ..., Sti0 /Sti0 Sti0 +1 /Sti0 , ..., StN /SN 1 1 1+↵· ✓ St i St i 1 1 ◆+ !# F ti0 - messbar sind und ausserdem unabhängig von F ti0 sowie untereinander unabhängig und gleichverteilt sind und erhalten so e i0 Y r(T ti0 ) 1+↵ i=1 ✓ St i St i 1 1 ◆+ !! E Q " 1+↵ ✓ S N S0 1 ◆+ !#N i0 . Und unter Wiederverwendung der Berechnung im ersten Fall ergibt sich also ⇥ EQ t i0 e r(T ti0 ) ⇤ N RCR =e r(T ti0 ) 1 + ↵er N c( N , 1, 1) N i0 i0 Y 1+↵ i=1 ✓ St i St i 1 1 ◆+ ! 3.Fall: t 2 [ti0 1 , ti0 ) Hierbei gehen wir genau wie im vorigen Fall vor. Falls t = ti0 1 , dann können wir obige Fälle direkt verwenden. Vorsicht ist nur geboten, wenn t im Inneren eines Ratchet-Intervalls liegt: Sei also t 2 (ti0 1 , ti0 ) für ein fixes i0 2 {1, 2, ..., N }. Wir betrachten zunächst nur denjenigen Return-Faktor, den dieses spezielle Zeitintervall beiträgt: " EQ 1+↵ t St i0 St i 0 1 1 !+ # = 1 + ↵ EQ t " St i0 St i 0 1 1 !+ # Den bedingten Erwartungswert können wir interpretieren als (noch nicht diskontierten) Wert einer Calloption auf die Dynamik von S mit zur Zeit t aktuellem Wert des Underlying St /Sti0 1 , Ausübungspreis 1 und Restlaufzeit ti0 EQ t " St i 0 St i0 1 1 !+ # = er(ti0 t) c ti0 t, St St i0 t.: ! ,1 . 1 Fügen wir diese Ergebnisse zusammen, erhalten wir für den risikoneutralen Return im aktuellen Ratchet-Intervall EQ t " 1+↵ St i 0 St i0 1 1 !+ # = 1 + ↵er(ti0 35 t) c ti0 t, St St i0 ! ,1 . 1 . Multiplizieren wir diesen speziellen Faktor nun noch einerseits mit den i0 1 Fakto- ren, die von den bereits vergangenen Ratchetintervallen stammen, sowie den N i0 Faktoren, die die Werte der noch gar nicht angebrochenen Ratchetintervallen stammen und diskontieren dieses Resultat (entsprechend dem zweiten Fall), dann haben wir genau die dritte Aussage der Proposition berechnet. Risikoneutraler Wert der Simple Ratchet Indexierung Zur Erinnerung: Im Gegensatz zur Compound Ratchet Indexierung werden die Returns beim Simple Ratchet nur einfach kumuliert. Zinseszinseffekte bietet diese Methode nicht. N RSR ✓ N X St i =1+ ↵ Si 1 i=1 1 ◆+ Proposition 5. Im BSM-Modell ergibt sich als risikoneutraler Wert zum Zeitpunkt ⇥ N⇤ t für die Simple Ratchet Indexierung e r(T t) EQ t RSR 8 > > e > > > > > > > <e rT 1 + er N ↵c( N , 1, 1) ✓ i0 ⇣ P St i r(T t) 1+↵ St i 1 i=1 ✓ iP 0 1⇣ > St i r(T t) > e 1+↵ > > St i 1 > i=1 > > ⇣ > > :+↵e r(T ti0 ) c t t, St St i0 i0 1 1 ⌘+ 1 ⌘+ ,1 i0 )er + ↵(N + ↵(N i0 )er N c( N N , 1, 1) c( ◆ N , 1, 1) ⌘ ◆ für t = 0 für t = ti0 für t 2 [ti0 1 , ti0 ) c(⌧, S, K) bezeichnet hier den Startwert einer Calloption mit Restlaufzeit ⌧ , aktuellem Wert des Underlying S und Strike K. Bemerkung: Auch hier ergeben sich die ersten beiden Formeln natürlich wieder als N Spezialfälle der dritten. Und für t ! T erhalten wir gerade RSR . Beweis. Wiederum unterscheiden wir zwischen den aufsteigend allgemeineren (und schwierigeren) Fällen t = 0, t = ti0 für ein i0 2 {1, 2, ..., N } und t 2 [ti0 1 , ti0 ): 1.Fall: t = 0 " EQ e rT ✓ N X St i 1+ ↵ St i 1 i=1 1 ◆+ !# =e rT 1+↵ N X i=1 36 EQ "✓ St i St i 1 1 ◆+ #! 1.8 1.2 1.4 1.6 Euro 2.0 2.2 2.4 Wert der SR-Indexierung 0 10 20 30 40 N Abbildung 5: Für die SR-Indexierung mit siebenjähriger Laufzeit und voller Partizipation (das heisst ↵ = 1) ergeben sich für eine Einmalprämie von einem Euro mit Proposition 5 abhängig von der Anzahl Ratchetintervalle N die abgebildeten Werte. Vergleicht man die Graphik mit derjenigen von Abbildung 4, dann fällt auf, dass die entsprechenden CR-Werte erstens grösser sind und zweitens schneller wachsen: Dieser Effekt ist dem mit wachsendem N immer grösseren Einfluss des bei der CR-Methode hineinspielenden, bei der SR-Methode aber fehlenden Zinseszinseffekts geschuldet. Wie im Compound Fall oben formen wir die Erwartungswerte zu Callwerten auf das normierte S um, das heisst auf die Dynamik von S mit Startwert 1. N X i=1 E Q "✓ St i St i 1 1 ◆+ # = N X Q "✓ St 1 St 0 N c( N , 1, 1) E i=1 = N er 1 ◆+ # 2.Fall: t = ti0 Mit den Summanden i > i0 gehen wir genau um wie im ersten Fall; die anderen Summanden sind F ti0 -messbar. e r(T = e r(T = e r(T " ✓ ◆+ # N X S t i t) Q E t i0 1 + ↵ 1 S t i 1 i=1 "✓ ◆+ #! N X S t i t) 1+↵ EQ 1 t S t i 1 i=1 ◆+ i0 ✓ X St i t) 1+↵ 1 + er N ↵(N S ti 1 i=1 37 i0 )c( N , 1, 1) ! 3.Fall: t 2 [ti0 1 , ti0 ) Diesen speziellen zusätzlichen Summanden untersuchten wir bereits im CR-Fall. Wir fanden ↵ EQ t " St i 0 St i0 1 1 !+ # = ↵er(ti0 t) c ti0 t, St St i0 ! ,1 . 1 Die übrigen Summanden ergeben sich ganz wie in den obigen Fällen. 2.5 Fairer Preis für die High Water Mark Indexierung Zur Erinnerung: Die High Water Mark Indexierung garantiert einen Anteil ↵ am höchsten erreichten Return an den Monitordaten (diskreter Fall, N < 1) oder sogar den überhaupt höchsten Return (N = 1). Das heisst N RHWM = ✓ 1+↵ ✓ MN S0 1 ◆◆ , wo M N = max{S0 , St1 , ..., StN } für N < 1 und M 1 = maxt2[0,T ] St 14 . Das sind unsere schwierigsten Fälle. Für den kontinuierlichen Fall verwenden wir ein Resultat aus der Bewertung exotischer Optionen. Den diskreten Fall gehen wir mit kombinatorischen Methoden an. Beide Male findet sich nur eine geschlossene Bewertung ohne die Life of Contract Garantie G - wie bei den Ratchet-EIAs. Kontinuierliches Monitoring Die folgende Bewertung finden wir, indem wir ein Resultat zur Bewertung von Lookback-Optionen aus der Veröffentlichung von Goldmann und Gatto [9] verwenden. Proposition 6. Der risikoneutrale Wert zum Zeitpunkt t < T im BSM-Modell für die kontinuierliche HWM-Indexierung ergibt sich mit e r⌧ EQ t 1+↵ ✓ M1 S0 1 ◆ =e 14 r⌧ ✓ 1 ◆ ↵ Q 1 ↵+ E [M ] , S0 t Die Pfade von S sind im BSM-Modell fast sicher stetig, so dass auch dieses Maximum über das kompakte Intervall [0, T ] fast sicher existiert. 38 wo 1 EQ t [M ] = EQ t [MT1 ] = Mt1 ✓ 2 (d1 ) 2r e 2r2 a 2 ◆ r⌧ ✓ 2 ( d 2 ) + e St 1 + 2r ◆ ( d3 ) und Mt1 := max St s2[0,t] ⌧ := T a := d1 := d2 := d3 := t M1 log t St a r2 ⌧ p ⌧ a + r2 ⌧ p ⌧ a r1 ⌧ p . ⌧ Vor dem Beweis noch eine gerade für die Programmierung kleine, aber wichtige Bemerkung: Man kann sich nämlich leicht überlegen, dass lim (d1 ) = 1 und lim (d2,3 ) = 0. t!T t!T 1 Also ergibt obige Formel für EQ t [M ] im Grenzwert für t ! T wie gewünscht gerade auch M 1 . Beweis. Mit den obigen Notationen finden wir in [9] als Formel (10) e r⌧ EQ t [MT1 ] = Mt1 e r⌧ ✓ 2 (d1 ) 2r e 2r2 a 2 ◆ ✓ ( d 2 ) + St 1 + 2 2r ◆ ( d3). Die Proposition folgt dann einfach, indem wir obige Gleichung mit er⌧ multiplizieren und das Resultat einsetzen. Studiert man den Beweis für obige Formel in [9] (via PDE) oder [20] (via Martingalmethoden), erkennt man, dass man die Berechnungen für diskrete Monitordaten nicht analog durchführen kann. 39 Diskrete Monitordaten Im Fall der High-Water-Mark-Indexierung mit diskreten Monitordaten findet man in der Literatur keine exakten und geschlossenen Bewertungsformeln im Black-ScholesMerton-Kontext. In einem druckfrischen Paper hierzu von Belyaev [1], einem amerikanischen Versicherungsmathematiker, wird als Ausgangspunkt der kontinuierliche Fall genommen. Letzterer sollte natürlich immer etwas werthaltiger sein, da M1 N: M N , 8N < 1. Entsprechend ist Belyaevs Idee eine Korrektur abhängig von ⇥ ⇤ EQ M N ⇡ EQ [M 1 ] “Korrektur(N)00 . Belyaevs Formeln schneiden gut ab, wenn man die Werte mit Monte Carlo Simulationen vergleicht. Gut vorstellbar, dass seine Idee Verbreitung findet. Einige Papers zum Thema EIAs vermeiden den Fall diskreter Monitordaten auch ganz [27]. In der Regel wird aber direkt auf Monte Carlo Simulationen verwiesen [12]. Ebenda schreibt Hardy über die High Water Mark-Bewertung: “Where the process is monitored over discrete periods only, the analytic approach ist no longer tractable.” Und Broadie schreibt in [3] (dort in Zusammenhang mit diskreten Lookbackoptionen - dem Optionsanalogon zu den diskreten HWM-EIAs): “Closed-form expressions for discrete versions of the options above typically involve values of m-dimensional multivariate cumulative normal distributions and are therefore of little value for more than about N = 5 fixing dates.” Wir konnten nun mit einem fast schon prähistorischen kombinatorischen Trick von Spitzer (1956) eine sehr schöne und brauchbare geschlossene Formel zur Bewertung der diskreten HWM-EIA für beliebiges N finden. Wir lassen das erstaunliche Hauptergebnis in Proposition 8 nun nicht aus dem blauen Himmel fallen, sondern lassen den Leser im folgenden Schritt für Schritt an den Gedankengängen teilnehmen, die uns zu dem Resultat geführt haben. 40 Wir betrachten zunächst nur den Fall t = 0. Wie im kontinuierlichen Fall schreiben wir den gesuchten Wert erst etwas um: e rT E Q ⇥ N RHWM ⇤ Q = e rT E = e rT (1 ✓ ◆ max {St0 , ..., StN } 1+↵ 1 S 0 max {St0 , ..., StN } ↵) + ↵e rT EQ S0 Wir untersuchen den Erwartungswert e(N ) := EQ [max {St0 , ..., StN } /S0 ]. Zunächst bemerken wir, dass wegen der oben präsentierten Ergebnisse im kontinuierlichen Fall e(N ) = E Q MN S0 E Q M1 < 1. S0 e(N ) existiert also und ist gleichmässig in N beschränkt. Nun drücken wir den Indexverlauf mit Hilfe seiner Logreturns zwischen den Monitordaten aus: max {St0 , ..., StN } S ⇢ 0 S t St St St St St N = EQ max 1, 1 , 1 · 2 , ..., 1 · 2 · · · S0 S0 St 1 S 0 St 1 St N 1 " ( )!# N X S S S S t t t t i = EQ exp max 0, log 1 , log 1 + log 2 , ..., log S0 S0 St 1 S ti 1 i=1 e(N ) = E Q Im Modell sind die Log-Returns Yi := log(Sti /Sti 1 ) zwischen den Monitordaten unabhängig und jeweils normalverteilt mit Erwartungswert r2 und Varianz 2 N N := (r 2 /2) N (siehe Seite 27). " ( e(N ) = EQ exp max 0, Y1 , Y1 + Y2 , ..., Schreiben wir weiter Ak für k P N X Yk i=1 )!# Yi erhalten wir i=1 e(N ) = EQ [exp (max {0, A1 , A2 , ..., AN })] . A nennt man eine “Gauss’sche Irrfahrt”. Unter dem Black-Scholes-Modell ist der Preisprozess auf diskreten equidistanten Daten also das Exponential einer Gausschen Irrfahrt. Das bedeutet ja gerade “Die Log-Returns sind i.i.d. normalverteilt”. 41 Eine Binsenweisheit! Umso erstaunlicher, dass es für die einfache Frage nach der Verteilung von MAN := max {0, A1 , A2 , ..., AN } keine einfache Antwort gibt. Allein schon der Erwartungswert von MA ist nicht leicht zu berechnen. Man erhält ihn als Korrollar des im folgenden ohne Beweis zitierten Satzes, der auch bei heutigen Untersuchungen zum Thema - rund ein halbes Jahrhundert später - immer noch als Ausgangspunkt für neue Resultate dient (etwa 2007 bei [15]. Satz 1. ([22] Spitzer 1957) Seien X1 , X2 , ... unabhängige reellwertige ZufallsvariaP blen. Für k 2 N sei Ak := ki=1 Xi und MAn := max{0, A1 , ..., An }. Weiter sei ⇥ 'MAn ( ) := E ei und n MA ⇤ , 'MA0 ⌘ 1 h 'Ak ( ) := E ei A+ k Dann gilt für alle t 2 R mit |t| 1 und für alle 1 X n 'MAn ( )t = exp n=0 ( k Leiten wir die linke Seite dieser Gleichheit nach = 0 aus, erhalten wir 1 X . 2 C mit Im( ) 1 X 1 k=1 i 'Ak ( )t k ) 0 . ab und werten das Resultat in EQ [iMAn ] tn . n=0 Leiten diesen Ausdruck wiederum N Mal nach t ab und werten das Resultat schliesslich in t = 0 aus, dann bleibt N ! · EQ [iMAN ]. EQ [MAN ] interessiert uns ja gerade. Deshalb gehen wir mit der rechten Seite der Gleichung in Spitzers Satz analog vor: (1 ) X1 d exp 'Ak ( )tk | d k k=1 =0 1 X 1 ( 1 X 1 = '0Ak (0) exp 'Am (0)tm k m m=1 k=1 ( 1 ) 1 X X 1 k = EQ [iA+ tm k ]t exp m m=1 k=1 42 ) Nun wollen wir vielfach nach t ableiten. Deshalb schreiben wir den Exponentialterm folgendermassen um: ( 1 X 1 m exp t m m=1 ) = exp ( 1 X 1 ( 1)m+1 ( t)m m m=1 ) = exp { log(1 t)} = 1 1 t = 1 X l=0 Diesen Ausdruck setzen wir oben ein und leiten N Mal nach t ab: ✓ d dt ◆N X 1 E Q k [iA+ k ]t k=1 1 X t l 1 X = l=0 k=1 1 X = k=1 E Q [iA+ k] 0 ✓ @EQ [iA+ k] d dt ◆N X 1 tk+l l=0 1 X l (N k)+ (k + l)! tk+l (k + l N )! 1 NA Nun setzen wir t = 0: 1 X EQ [iA+ k] 1 X l (N k)+ k=1 (k + l)! tk+l (k + l N )! N |t=0 = = 1 X k=1 1 X 0 @EQ [iA+ k] 1 X l=l (N k)+ N ! EQ [iA+ 1kN k ]1 1 11k+l=N N !A k=1 Zusammen mit der ebenso manipulierten linken Seite der Gleichung in Spitzers Satz erhalten wir die überraschende Formel Q E [max{0, A1 , ..., AN }] = E Q ⇥ + max{A+ 1 , ..., AN } ⇤ = N X 1 k=1 k ⇥ ⇤ EQ A+ k . Um diesen Erwartungwert in unserem Fall zu berechnen, benötigen wir folgendes Lemma: Lemma 2. Für X ⇠ N (µX , ⇥ E X wo + ⇤ 2 X) ist = µX · ✓ µX X ◆ + X · ✓ µX X ◆ , die Verteilungsfunktion der Standardnormalverteilung und zeichnet. 43 deren Dichte be- tl Beweis. Mit Z ⇠ N (0, 1) haben wir ⇥ ⇤ ⇥ ⇤ E X + = E ( X Z + µX ) + h i h = E 11Z µX ·0 + E 11Z µX · ( h X i hX = X E 11Z µX Z + µX E 11Z X 1 Xp 2⇡ = Z1 z exp µX ⇢ z2 2 X Z + µX ) i µX X ✓ dz + µX 1 X ⇢ 2 1 1 z exp Xp 2 2⇡ z= ✓ ◆ ✓ ◆ µX µX + µX . X = = X i + µX µX / X ✓ ✓ µX X µX X ◆◆ ◆ X Die Verteilung der Ak als Summe von k unabhängigen normalverteilten Zuvallsvariablen - eben der Log Returns - kennen wir natürlich. Ak ⇠ N kr2 N, k 2 2 , r2 = r N 2 Mit obigem Lemma ergibt sich für den Erwartungswert des positiven Teils der Irrfahrt also E Q [A+ k] = = ✓ kr p 2 k ✓p k N ◆ kr2 ◆ N r2 kr2 N N N + + ✓ kr p 2 k ✓p k ◆p k N ◆p N r2 k N N N . Diese Überlegungen zusammenfassend erhalten wir als Korollar des oben zitierten Satz von Spitzer folgende Proposition: 44 Proposition 7. Für den BSM-Erwartungswert des Maximums der summierten ( N -)Logreturns Ak := Y1 + ... + Yk mit Yi := log Sti /Sti Q E [max {0, A1 , ..., AN }] = wo d(k) = p k N ✓ X r2 p N (d(k)) + p k N k=1 N r2 gilt 1 ◆ (d(k)) , für k = 1, ..., N mit 2 r2 = r . 2 ⇥ ⇤ Für die diskrete HWM Indexierung sind wir natürlich weniger an EQ MAN als viel⇥ ⇤ mehr an e(N ) = EQ exp MAN interessiert. Das Wissen über den Erwartungswert von MAN können wir uns etwa folgendermassen für e(N ) nutzbar machen. Mit der Jensen-Ungleichung erhalten wir naheliegenderweise eine untere Schranke für den gesuchten Wert. ⇥ ⇤ e(N ) = EQ exp(MAN ) ⇥ ⇤ exp EQ MAN Gleich, in der Abbildung auf der nächsten Seite, können wir sehen, wie gut diese Annäherung ist. Etwa für (typisches) jährliches Monitoring ist diese Annäherung mindestens so gut, wie diejenige durch die Bewertung des kontinuierlichen Falls. Zusammen mit dem Wert für die kontinuierliche Indexierung haben wir nun jedenfalls ein Band für den Wert der diskreten HWM Indexierung mit Partizipationsrate ↵ 15 . 1 + ↵ exp E Q ⇥ MAN ⇤ ✓ Q ✓ 1 E [RHWM ] 1 + ↵ exp E Q M1 S0 ◆ 1 ◆ Man könnte nun natürlich die Gleichung in Spitzers Satz noch einige Male ableiten und in 0 auswerten. So würde man noch einige Momente von MA gewinnen und könnte mit diesen den gesuchten Erwartungswert in folgender Art noch genauer annähern: exp(MA ) ⇡ MAN MAN + 2 2 MAN + 3! 3 MAN + 4! 4 und also EQ [exp(MAN )] ⇡ EQ [MAN ] + 15 Zur Erinnerung: M N max{0, A1 , ..., AN } i 1 h i 1 h i 1 Qh 2 3 4 E MAN + EQ MAN + EQ MAN . 2 3! 4! = max{S0 , St1 , ..., StN }, M 1 45 = maxt2[0,T ] {St } und MAN = 1.2 0.9 1.0 1.1 EUR 1.3 1.4 Wert der diskreten HWM-Indexierung 0 10 20 30 40 50 N Abbildung 6: Hier sieht man die Formeln von Proposition 6, 7 und 8 für volle Partizipation (↵ = 1) in Aktion: Die obere gestrichelte Linie ist der Wert der kontinuierlichen HWM-Indexierung, die untere der Wert der diskreten HWM-, CR- und SR-Indexierung für den Spezialfall N = 1 (hier entsprechen sich die drei Methoden genau). Die vertikalen Linien entsprechen den Werten der diskreten HWM-Indexierung abhängig von N . N = 7 entspricht im Beispiel jährlichem Monitoring, N = 14 halbjährlichem, usw. Die Punkte entsprechen jeweils den unteren Schranken ⇣ ⇥ N ⇤⌘ Q exp r7 + E MA , die wir mit Proposition 7 zusammen mit der Jensen-Ungleichung erhalten. Die entsprechenden Formeln werden aber sehr schnell sehr unhandlich, warum wir diesen Weg nicht weiter verfolgt haben. Aber man findet mit der (kombinatorischen) Methode, mit der Spitzer sein oben zitiertes Theorem beweist, auch eine berechenbare Darstellung von e(N )! Dies sei im folgenden dargestellt: Proposition 8. Im BSM-Modell ergibt sich für den risikoneutralen Wert der diskreten HWM-Indexierung mit Monitordaten t0 , ..., tN zum Zeitpunkt t = 0 e rT E Q 1+↵ Q wo E Die Summe ⇤ P MN S0 ✓ MN S0 = 1 ◆ ⇤ Y N X ⌫=1 =e 1 ⌫ k⌫ k ⌫! rT ✓ 1 ↵ +↵E Q 1 + ert⌫ c(t⌫ , 1, 1) MN S0 ◆ k⌫ geht über alle N -Tupel (k1 , ..., kN ) 2 NN 0 mit k1 +2k2 +...+N kN = N , und c(t⌫ , 1, 1) bezeichnet den Wert einer Calloption auf S mit Restlaufzeit t⌫ und mit sowohl Ausübungspreis als auch aktuellem Wert des Underlying gleich 1. 46 Nach dem Beweis präsentieren wir R-Code zur praktischen Berechnung des Resultats. Vor dem Beweis machen wir noch eine Bemerkung zur Brauchbarkeit dieser Formel. Die Anzahl der beschriebenen N -Tupel ist gerade die Anzahl Partitionen p(N ) von N . Denn wir man sich leicht überlegt, kann man aus jedem dieser N -Tupel eine Partition der Zahl N konstruieren und umgekehrt aus jeder Partition der Zahl N einen solchen N -Tupel. Einige Beispielwerte für p: N 1 2 3 4 5 10 15 20 25 p(N) 1 2 3 5 7 42 176 627 1958 30 5604 Hierfür gibt es keine einfache Formel. Man erkennt schon an diesen paar Werten: p wächst schnell. Als Faustregel findet man, dass die Anzahl Dezimalstellen von p p(N ) etwa N entspricht. Mit dem in [10] kommentierten R-Paket “partitions” lassen sich die Partitionen noch bis zu N = 60 in einigen Sekunden auflisten. N = 60 entspricht für typische Laufzeiten einem Abstand zwischen den Monitordaten von ein bis drei Monaten. Sind die Abstände kürzer ist die Methode weniger praktikabel; dann macht aber die Approximation mit der kontinuierlichen Bewertung von Proposition 6 durchaus Sinn. Beweis. Das Hauptargument ist die Austauschbarkeit der Logreturns. Es wird also um Permutationen ⇡ 2 SN gehen. Hierfür gilt es erstmal einige Begriffe und Notationen in Erinnerung zu rufen bzw. erklärend einzuführen. SN := {⇡ : {1, 2, ..., N } ! {1, 2, ..., N }, bijektiv} := (Y1 , ..., YN ), die Ak := Y1 + ... + Yk für k = 1, ..., N ⇡Y := Y⇡(1) , ..., Y⇡(N ) für ⇡ 2 S ⇡Ak := Y⇡(1) + ... + Y⇡(k) n(⇡) Anzahl der Zyklen16 von ⇡ 2 SN (einschliesslich “Einzelzyklen”) ↵1 (⇡)...↵n(⇡) (⇡) k⌫ (⇡) (k1 (⇡), ..., kN (⇡)) N -Log iid Y Returns (Yi ⇠ N (r2 (Eindeutige) Zyklenzerlegung von ⇡ 2 SN N, 2 N )) Anzahl der Zyklen von ⇡ 2 SN mit Länge ⌫ für ⌫ = 1, ..., N “Zyklusmuster” von ⇡ 47 Wieder schreiben wir e(N ) für EQ [M N /S0 ]. Wegen der Unabhängikeit der Log Returns sind Y und ⇡Y gleichverteilt für alle ⇡ 2 SN . Wir sagen: “Die Komponenten von Y sind austauschbar.” Das verwendet der erste - triviale - Schritt in Spitzers Beweis: e(N ) = E [exp (max{0, A1 , ..., AN })] = E [exp (max{0, ⇡A1 , ..., ⇡AN })] 1 X = E [exp (max{0, ⇡A1 , ..., ⇡AN })] N ! ⇡2S N Es ist aber noch überhaupt nicht klar, wohin der Weg führt, und gerade die letzte Umformung scheint sinnlos zu sein. Die Erklärung findet sich in der folgenden überraschenden kombinatorischen Aussage. Und zwar gilt für alle fixen (y1 , ..., yN ) 2 RN " ( max 0, y⇡(1) , y⇡(1) + y⇡(2) , ..., N X y⇡(i) i=1 ) # 2 : ⇡ 2 SN = 4 n(⌧ ) X i=1 0 @ X j2↵i (⌧ ) 1+ 3 yj A : ⌧ 2 S N 5 . Die eckigen Klammern sollen bedeuten: “Mengen mit Elementwiederholungen” Der raffinierte (geometrische!) Beweis hierfür findet sich ebenfalls in [22]. Für uns bedeutet diese Mengengleichheit, dass es keine Rolle spielt, ob wir über die N ! Permutionen alle exp (max{0, ⇡A1 , ..., ⇡AN }) summieren oder alle 8 0 1+ 9 n(⌧ ) <X = X @ A exp Yj . : ; i=1 Und so erhalten wir: 8 0 1+ 93 n(⌧ ) < = X 1 X X @ e(N ) = EQ 4exp Yj A 5 : ; N! ⌧ 2SN 16 j2↵i (⌧ ) 2 i=1 j2↵i (⌧ ) Fakt: Jede Permutation lässt sich eindeutig als Produkt von (disjunkten) Zyklen schreiben. (Eindeutig modulo der Zyklen und Wahl der Startzahl innerhalb eines Zyklus.) ✓ Reihenfolge ◆ 123456 Zum Beispiel: = (124)(36)(5) 246153 48 Und dies ist der entscheidende Schritt, denn hier verlieren wir das “max”. Weiter können wir vereinfachen, indem wir die Unabhängigkeit der Log Returns (wieder) ausnützen: 80 2 1+ 9 3 < X = X 1 n(⌧ Y) Q4 @ A 5 e(N ) = E exp Yj : ; N ! i=1 ⌧ 2S j2↵i (⌧ ) N Da die Log Returns aber alle gleich verteilt sind, hängen die Erwartungswerte nur von der Länge des Zyklus ↵i (⌧ ) ab. Wenn wir diese Länge mit |↵i (⌧ )| bezeichnen, können wir also schreiben: 80 2 1+ 9 3 i (⌧ )| < |↵X = X 1 n(⌧ Y) e(N ) = EQ 4exp @ Yj A 5 : ; N ! i=1 j=1 ⌧ 2S N Bereits haben wir hier also ein Resultat vorliegen, dass leichter berechenbare Erwartungswerte enthält als der Ausgangspunkt (jede Summe der Yj ist natürlich wieder normalverteilt). Obige Summe wäre aber über N ! Summanden, was natürlich schnell alle Berechenbarkeit sprengt. Stattdessen bemerken wir, dass man zur Berechnung der Summanden nicht die ganze jeweilige Permutation ⌧ benötigt, sondern nur ihr “Zyklenmuster” (k1 (⌧ ), ..., kN (⌧ )), wo k⌫ (⌧ ) die Anzahl von Zyklen mit Länge ⌫ bezeichnet für ⌫ = 1, ..., N . Mit dieser Notation: " ( ⌫ !+ )#k⌫ (⌧ ) N X 1 Y X e(N ) = EQ exp Yj N ! ⌫=1 j=1 ⌧ 2S N Das heisst, wenn wir wissen, wieviele Permutationen für ein gegebenes Zyklenmuster existieren, dann können wir obige Summanden mit diesem Faktor versehen und statt über alle Permutationen über alle Zyklenmuster summieren. Diesen Faktor wollen wir uns im folgenden kombinatorischen Exkurs überlegen: Sei also (k1 , ..., kN ) 2 NN 0 fix. Wir suchen # {⇡ 2 SN : (k1 (⇡), ..., kN (⇡)) = (k1 , ..., kN )} Als ersten Schritt zählen wir für ein festes ⌫ alle Permutationen mit k⌫ Zyklen der Länge ⌫. 49 N! (N k⌫ ⌫)! Soviele Möglichkeiten gibt es, k⌫ ⌫ Elemente aus N auszuwählen - mit Berücksichtigung der Reihenfolge. Jede dieser Möglichkeiten kann man als k⌫ Zyklen der Länge ⌫ betrachten. Aber die Reihenfolge der Zyklen soll keine Rolle spielen, darum teilen wir obige Anzahl noch durch k⌫ !. Weiter sollen “verschobene” Zyklen nicht unterschieden werden (z.B. (143) = (431) = (314)), darum teilen wir das Resultat noch durch ⌫ k⌫ . Damit ergibt sich für den ersten Schritt # {⇡ 2 SN : k⌫ (⇡) = k⌫ } = N! 1 1 · · k⌫ . (N k⌫ ⌫)! k⌫ ! ⌫ Diese Möglichkeiten für jedes ⌫ multiplizieren wir miteinander und kommen so auf die Gesamtzahl der Permutationen mit Zyklusmuster (k1 , ..., kN ). Dabei müssen wir aber noch bedenken, dass wir für die Zyklen der Länge ⌫ nicht mehr aus N , sondern nur noch aus N k1 1 ... 1) Elementen auswählen: k⌫ 1 (⌫ N! 1 1 (N k1 1)! 1 1 (N k1 1 ... kN 1 (N 1))! 1 1 · ··· (N k1 1)! k1 ! 1 (N k1 1 k2 2)! k2 ! 2k2 (N k1 1 ... kN N )! kN ! N kN Hier kürzt sich natürlich einiges. Und so ergibt sich für den gesuchten Faktor # {⇡ 2 SN : (k1 (⇡), ..., kN (⇡)) = (k1 , ..., kN )} = N ! N Y ⌫=1 1 ⌫ k⌫ k ⌫! . Diese Zahl setzen wir nun also in den Ausdruck für e(N ) ein und erhalten e(N ) = ⇤ Y N X ⌫=1 wobei ⇤ P 1 ⌫ k⌫ k ⌫! " EQ exp ( ⌫ X j=1 Yj !+ )#k⌫ , die Summe über alle möglichen Zyklusmuster (k1 , ..., kN ) 2 NN 0 bezeichnet. (k1 , ..., kN ) ist aber genau dann ein Zyklusmuster, wenn k1 ·1+k2 ·2+...+kN ·N = N - wie in der Behauptung beschrieben. 50 Zuletzt stellen wir die involvierten Erwartungswerte als Funktionen von Calloptionwerten dar: " EQ exp ( ⌫ X Yj j=1 !+ )# " ( = EQ max exp ⇢ ⌫ X Yj j=1 ! ,1 )# St ⌫ max ,1 S0 "✓ ◆+ # St ⌫ = 1 + EQ 1 S0 = E Q = 1 + ert⌫ c(t⌫ , 1, 1) So ergibt sich insgesamt das zu beweisende Resultat e(N ) = ⇤ Y N X 1 1 + ert⌫ c(t⌫ , 1, 1) k⌫ k ! ⌫ ⌫ ⌫=1 k⌫ . Bei dieser Proposition wollen wir nicht darauf verzichten, auch den entsprechenden R-Code anzubieten: Das Programm ist zwar nicht kompliziert, aber wegen der Auflistung und Transformation von Partitionen verlangt es doch einige Überlegungen, die dem probierfreudigen Leser hiermit also erspart seien. Die Funktion E_maxReturn berechnet e(N ) = EQ [M N /S0 ]. 51 ##Lädt nötige Pakete library(RQuantLib) library(partitions) ##Berechnet den Erwartungswert aus Proposition 8 E_maxReturn<-function(T,N,r0,sigma0) { Delta<-T/N partitions<-parts(N) calls<-0 for(nu in 1:N) { calls[nu]<-EuropeanOption("call",1,1,0,r0,Delta*nu,sigma0)$value } result<-0 for(j in 1:ncol(partitions)) { k<-nu_count(partitions[,j]) result<-result+prod(1/(1:N)^(k[1:N])/factorial(k[1:N])* (1+exp(r0*Delta*(1:N))*calls[1:N])^(k[1:N])) } return(result) } ##Hilfsfunktion: Berechnet für gegebene Partition den entsprechenden ##N-Tupel (das ‘‘Zyklusmuster’’) nu_count<-function(x) { n<-length(x) ind<-numeric(n) for(nu in 1:n) {ind[nu]<-sum(x==nu)} return(ind) } Mit diesen wenigen Zeilen Code lässt sich also der Wert der diskreten HWMIndexierung oder auch der diskreten Lookbackoption berechnen. Anders als alle mathematischen Generationen vor der jetzigen, können wir heute komplizierte Resultate auch empirisch “verifizieren” (sicherlich falsifizieren). Simulieren wir unter Q viele tausend Male sollte der Durchschnitt nach dem Gesetz der grossen Zahlen ziemlich genau dem Wert, den unsere Formel ausgibt, entsprechen. Mit dem folgenden weiteren kurzen Codeschnipsel lässt sich das Resultat von Proposition 8 und die Funktionstüchtigkeit des dazugehörigen Codes mit solchen Simulationen überprüfen. 52 T<-7 N<-14 Delta<-T/N ndays_year<-252 ndays<-T*ndays_year monitor.days<-ndays_year*Delta*(1:N) r0<-0.03 sigma0<-0.25 s0<-5000 nrep<-100000 test<-numeric(nrep) ##Simuliert nrep Mal tageweise Indexverl\"aufe unter Q ##In ‘‘test’’ werden die jeweils maximalen Returns ##an den Monitordaten gespeichert for(i in 1:nrep) { simulation<s0*exp(cumsum(rnorm(ndays,mean=(r0-sigma0^2/2)/252,sd=sigma0/sqrt(252)))) test[i]<-max(c(s0,simulation[monitor.days]))/s0 } ##Vergleich von analytischem Resultat und Monte Carlo Sch\"atzung mean(test) E_maxReturn(T,N,r0,sigma0) t.test(test-E_maxReturn(T,N,r0,sigma0)) In der letzten Proposition erhielten wir also eine geschlossene Formel für den Wert der diskreten HWM-Indexierung zum Zeitpunkt des Vertragsabschlusses. Aus vielerlei Gründen wäre aber eine Bewertung zu einem beliebigen Zeitpunkt wünschenswert: Für das dynamische Hedging liefern uns die Formeln die entsprechenden Sensitivitäten und auch bei vorzeitiger Vertragsauflösung oder für die Buchhaltung kann die Bewertung von EIA-Verträgen zu beliebigen Zeitpunkten wichtig sein. Eine solche Bewertung ist auch im diskreten HW M -Fall möglich - mit Hilfe des kombinatorischen Kniffs im vorigen Beweis, der “Spitzer’schen Identität”. Die Idee ist dieselbe, das Resultat allerdings sperriger und etwas weniger brauchbar. Darum sei diese allgemeinere Bewertung hier also separat vorgestellt. 53 Natürlich ist e r(T t) EQ t 1+↵ ✓ MN S0 1 ◆ =e r(T t) ✓ 1 ↵+ ↵ EQ t MN S0 ◆ . Wir suchen also eine Formel für EQ t et (N ) := MN . S0 Wir können sicher nicht ganz analog zum Fall t = 0 vorgehen, denn das erste und wichtigste Argument dort war die Austauschbarkeit der Logreturns Yk = log ✓ St k St k 1 ◆ , aber gegeben F t (zum Beispiel t = t2 ) sind die Logreturns im Allgemeinen nicht mehr austauschbar (zum Beispiel Y1 und Y3 ). Darum muss es unsere erste Aufgabe sein, et (N ) als unbedingten Erwartungswert zu schreiben. Sei also t 2 (ti0 1 , ti0 ]. ⇢ St St N max 1, 1 , ..., S0 St N 1 ⇢ ✓ ◆ St i0 1 St i St 1 St N Q = Et max max 1, , ..., , 0 , ..., S0 S0 S0 St N 1 et (N ) = EQ t Für ✓ St i St max 1, 1 , ..., 0 S0 S0 schreiben wir nun kurz Mi0 F t -messbar ist, da ti0 1 1 1 ◆ und behalten dabei im Hinterkopf, dass Mi0 1 gewiss < t. Ausserdem schreiben wir Ct für St /S0 . Auch Ct ist F t -messbar. ⇢ St i St N et (N ) = max Mi0 1 , 0 , ..., S0 St N 1 ⇢ St i 0 St = EQ , ..., Ct N t max Mi0 1 , Ct St St EQ t 54 Die Returns Sti0 /St , ..., StN /St sind unabhängig von F t . Wir können also wiederum Lemma 1 verwenden. et (N ) ⇢ St i St Q = E max m, c 0 , ..., c N St St " ( m=Mi 0 1 c=Ct N Xi0 St i St i St i exp max m̃, c̃ + log 0 , c̃ + log 0 + Yi0 +1 ..., c̃ + log 0 + Yi0 +k St St St k=1 = EQ )!# m=Mi wo c̃ := log c und m̃ := log(m). Weiter schreiben wir Y für log Sti0 /St und behalten im Kopf, dass Y eine Zufallsvariable unabhängig von den anderen Logreturns ist (aber nicht gleich wie diese verteilt ist). Nun bringen wir et (N ) in die Form, bei der wir die Identität von Seite 48 anwenden können. et (N ) " ( = EQ exp max m̃, c̃ + Y, c̃ + Y + Yi0 +1 , ..., c̃ + Y + " ( k=1 = EQ exp max m̃, c̃ + Y, c̃ + Y + Y1 , ..., c̃ + Y + = E Q " " N Xi0 ( exp c̃ + Y + max m̃ ( = EQ exp c̃ + Y + max m̃ N Xi0 k=1 c̃ Y, 0, Y1 , ..., N Xi0 Yk k=1 c̃ Yk Yi0 +k )!# )!# )!# 0 1 c̃=log Ct m̃=log Mi 0 1 c̃=log Ct m̃=log Mi 0 1 c̃=log Ct Y, max 0, Y1 , Y1 + Y2 , ..., m̃=log Mi N Xi0 k=1 Yk !)!# m̃=log Mi Nun können wir die kombinatorische Gleichheit von Seite 48 anwenden auf den Term max 0, Y1 , Y1 + Y2 , ..., N Xi0 k=1 Yk ! , denn diese Variablen sind unabhängig sowie gleichverteilt und damit austauschbar. Dass für m̃ und c̃ nach der Auswertung des Erwartungswertes noch Zufallsvariablen eingesetzt werden, müssen wir uns aus Platzgründen nun im Kopf merken. Wir 55 0 c̃=log Ct 1 0 1 c=Ct , finden mit den Bezeichnungen des vorigen Beweises auf Seite 47. et (N ) = 1 (N X i0 )! ⇡2S " ( EQ exp c̃ + Y + max m̃ N i0 N i0 c̃ Y, max 0, Y⇡(1) , ..., Y⇡(k) k=1 1+ 9 13 n(⌧ ) = X X X 1 @ EQ 4exp @c̃ + Y + max m̃ c̃ Y, Y j A A5 = : ; (N i0 )! ⌧ 2S i=1 j2↵i (⌧ ) N i0 8 2 0 0 1+ 913 n(⌧ ) < = X X X 1 Q4 @ @ A A5 . = E exp max m̃, c̃ + Y + Yj : ; (N i0 )! ⌧ 2S i=1 2 8 < N Xi0 0 0 j2↵i (⌧ ) Y, Y1 , Y2 , ..., YN sind unabhängig und normalverteilt. Trotz dieser scheinbar einfachen Ausgangslage fanden wir keinen Weg letzteren Erwartungswert entscheidend zu vereinfachen und etwa als Funktion von Normalverteilungswerten darzustellen. Wir müssen also in den sauren Apfel beissen und et (N ) via Monte-Carlo Simulationen annähern. Im nächsten Abschnitt stellen wir einen Trick vor, um hier immerhin die Varianz des Erwartungswertschätzers deutlich zu reduzieren. Zuvor sei auch noch ein punktueller, aber später sehr nützlicher Sonderfall präsentiert: Wenn nämlich t gerade auf das Monitordatum ti0 fällt und ausserdem der Indexwert zu diesem Zeitpunkt, Sti0 , gerade einen neuen Rekord der bisherigen Monitorwerte darstellt, dass heisst max{S0 , S1 , ..., Sti0 } = Sti0 , dann erhalten wir unter abermaliger Verwendung von Lemma 1 zunächst ⇢ St St eti0 (N ) = max 1, 1 , ..., N S0 S0 " ( )# Sti0 Sti0 Sti0 +1 St i 0 St N St 1 Q = Eti0 max 1, , ..., , , ..., S0 S0 S 0 St i 0 S0 St i0 " ( )# Sti +1 St = EQ max m, c 0 , ..., c N St i0 St i 0 St i 0 c= S0 EQ t i0 m=max{1,St1 /S0 ,...,Sti /S0 } 0 56 !)!# Unter der Annahme, dass max{S0 , S1 , ..., Sti0 } = Sti0 , ist aber m = c. So finden wir " ( )# S S t i +1 t eti0 (N ) = EQ max c, c 0 , ..., c N St St i 0 St i0 i c= S 0 0 " ( )# Sti +1 St = EQ c max 1, 0 , ..., N St St i 0 St i 0 i c= S 0 " ( )# 0 St i 0 Q Sti +1 St = E max 1, 0 , ..., N S0 St i 0 St i 0 Zuletzt verwenden wir noch, dass die Returns zwischen den Monitordaten stationär sind. Insgesamt: ⇢ St N i 0 St i0 Q St eti0 (N ) = E max 1, 1 , ..., S0 S0 S0 auf {max{S0 , S1 , ..., Sti0 } = Sti0 }. Den involvierten Erwartungswert können wir nun mit Hilfe von Proposition 8 direkt berechnen. Nur die Anzahl der Monitordaten und die Laufzeit gilt es zuvor anzupassen, das heisst Ñ := N i0 und T̃ := (N i0 ) N. Diese Formel wird oft zur Anwendung kommen, denn etwa bei jährlichem Monitoring ist für typische Indexverläufen etwa jeder dritte Monitorwert ein neuer Rekord. Das Verwenden dieses Sonderfalls zusammen mit der im nächsten Abschnitt vorgestellten Kontrollvariablenmethode macht unser Vorgehen - angesiedelt zwischen reiner Simulation und der Verwendung analytischer Resultate - zur fortlaufenden Bewertung praktisch brauchbar (siehe Seite 61). 2.6 Monte Carlo Simulation und Kontrollvariablenmethode Wie wir gesehen haben, können wir den PEMG H = (REIA G)+ (und damit max (REIA , G)) nur im PTP-Fall geschlossen bewerten. Die anderen Fälle wollen wir im folgenden mittels Monte-Carlo-Simulationen schätzen. Wir simulieren H vielfach unter dem risikoneutralen Mass Q und betrachten dann den Durchschnitt der Realisationen, der Schätzer für EQ [H] ist. Q bleibt aber ein absolut künstliches Objekt. Der Zusammenhang mit der “Wirklichkeit” ist einzig im präsentierten Gedankengang auf Seite 25 angelegt. Die Quantile unter Q haben uns zum Beispiel nichts zu 57 sagen. Vorgegeben seien also T, N, , r, ↵, s0 , P, : Nun simulieren wir vom Vektor S N := (St1 , St2 , ..., StN ) unter Q. iid Simuliere Yk ⇠ N (r2 2 N, N ), Setze Sti := s0 exp k = 1, 2, ..., N i X Yk k=1 ! , i = 1, 2, ..., N. Das machen wir n Mal und berechnen jedes Mal den realisierten Wert der untersuchten Verbindlichkeit H. Dann verwenden wir, dass wegen dem Gesetz der grossen Zahlen n 1X E [H] ⇡ hi =: v̂n (H), n i=1 Q wo (hi )i=1,...,n die simulierten Realisationen von H bezeichnen. Wert der Verträge mit LOC-Garantie Wir verbessern die Monte-Carlo-Schätzung für H = EQ [(REIA G)+ ] nun, indem wir unser Wissen um den risikoneutralen Erwartungswert der Indexierungen verwenden und so die Varianz des Schätzers für den Wert des PEMG H deutlich senken. Diese Art zur Varianzminimierung heisst Kontrollvariablenmethode. Die Idee ist einfach: Für H = (R G)+ , ein c 2 R und Rk , Simulationen von R, schreiben wir ⇥ EQ [H] = EQ (R G)+ ⇤ n c EQ [R] EQ [R] ⇡ 1X (Rk n k=1 G)+ c Rk EQ [R] Letzteren Schätzer nennen wir ṽc,n (H). ṽc,n (H) ist natürlich ein erwartungstreuer Schätzer für EQ [H] für alle c 2 R. Für seine Varianz (wir meinen natürlich Var := 58 . VarQ ) ergibt sich n X 1 Var(ṽc,n ) = Var (Rk n2 k=1 G)+ EQ [R] c Rk ! 1 Var (R G)+ c R EQ [R] n 1 Var (R G)+ + c2 Var (R) 2c Cov (R = n = G)+ , R . Minimiert man diese Varianz als Funktion von c erhält man ein Minimum an der Stelle c⇤ := Cov ((R G)+ , R) . Var (R) Durch Einsetzen findet man Var(ṽc⇤ ,n ) = und damit gilt für v̂n = 1 Var (R n Pn k=1 (Rk Cov ((R G)+ , R) Var (R) G)+ G)+ /n: Var(ṽc⇤ ,n ) =1 Var(v̂n ) Corr (R G)+ , R 2 . Das heisst wir reduzieren die Varianz des naiven Schätzers v̂n um den Faktor 1 Corr((R G)+ , R)2 . Das ist erheblich. Denn Q[R < G] ist “klein” und somit obiger Korrelationskoeffizient ziemlich gross. Allerdings: Die Terme Cov ((R G)+ , R) und Var (R), die wir ja für c⇤ benötigen, kennen wir nicht. Deshalb schätzen wir das optimale c⇤ wiederum und zwar mittels ĉ⇤ := n P ((Rk G)+ k=1 n P EQ [Rk ] v̂n ) · Rk Rk k=1 Q E [Rk ] 2 . Genau in unserer Situation (das heisst beim Schätzen des Wertes für den PEMG einer EIA unter Verwendung der Kenntnis des Wertes der Indexierungsmethode) wird diese Methode sehr erfolgreich in [14] angewendet. Auch empirisch erkennt man die höhere Stabilität des ersten Schätzers mit der Kontrollvariable leicht - siehe Abbildung 7. 59 200 100 0 Frequency Mit Kontrollvariable 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.85 0.90 0.95 Werte 10 20 30 40 0 Frequency Ohne Kontrollvariable 0.60 0.65 0.70 0.75 0.80 Werte Abbildung 7: Jeweils 500 Mal wurde hier der Wert des PEMG einer CR-EIA, also h i + rT Q e E (RCR G) , geschätzt - jeweils mit derselben Anzahl Simulationen (200). Die Schätzer des oberen Histogramms wurden mit, die der unteren ohne Kontrollvariable berechnet. Der Einfluss auf die Streuung des Schätzers ist gewaltig. Für die folgende Tabelle wurde für eine Partizipationsrate von 0.6, eine Laufzeit von sieben Jahren und Nominal 1 Euro der Wert des PEMG geschätzt. Das heisst ⇥ ⇤ Schätzer für e 7r EQ (REIA G)+ bezüglich der verschiedenen EIA-Produkte abhängig von verschiedenen Werten von N : Von N = 7, also jährlichem Ratcheting bzw. Monitoring, bis hin zu N = 252, wöchentlichem. CR SR HWM 17 N =7 N = 14 N = 28 N = 42 N = 84 N = 252 0.468 0.770 1.332 1.891 3.733 15.615 (0.462) (0.769) (1.332) (1.891) (3.733) (15.615) 0.333 0.481 0.701 0.871 1.255 2.217 (0.372) (0.480) (0.701) (0.871) (1.255) (2.217) 0.280 0.307 0.331 0.341 (0.240) (0.274) (0.301) (0.313) 0.357 17 (0.332) N =1 0.373 0.411 ( 0.354) (0.376) Bei der diskreten HWM-EIAs können wir den Erwartungswert der Indexierungsmethode für 60 In Klammern findet sich jeweils der (exakte) Wert von e r7 EQ [REIA G] = e r7 EQ [REIA ] e r7 G. Bei der HWM-Methode ist die systematische Unterschätzung dieser Approximation bis hin zum kontinuierlichen Fall (N = 1) deutlich zu erkennen aber doch klein. Bei den Ratchetmethoden ist für grosse N das Ereignis G < REIA unter Q derart unwahrscheinlich, dass die beiden Werte fast genau gleich sind. Das ist natürlich auch eine Frage der Partizipationsrate, die für das EIA-Produktdesign - das werden wir in Kapitel 4 sehen - mit steigendem N nach unten angepasst wird. Aber auch im Falle “fairer” Partizipationsraten ist die Annäherung des PEMG-Wertes durch e r7 EQ [REIA G] immer noch sinnvoll. So gehen wir für die Berechnung der Sen- sitivitäten in Kapitel 3 immer etwas ungenau vom Wert e von e r⌧ EQ t [(R r⌧ EQ t [R G] anstelle G)+ ] aus. Das hat den grossen Vorteil, dass die Bewertungen und damit die Sensitivitäten analytisch darstellbar sind. Die Ungenauigkeit ist erstens nicht besonders gross und zweitens fangen wir mögliche Fehler im Kapitel 4 zum Risikozuschlag wieder auf. Fortlaufende Bewertung der diskreten HWM-Indexierung Der Wert der HWM-Indexierung zum Zeitpunkt t ist e r(T t) EQ t 1+↵ ✓ MN S0 1 ◆ =e r(T t) ✓ 1 ↵+ ↵ EQ t MN S0 ◆ Wie auf Seite 55 gezeigt, müssen wir in den meisten Fällen et (N ) = EQ t h . MN S0 i via Monte-Carlo-Simulation schätzen. Analog zum Vorgehen bei den EIA-Bewertungen mit LOC-Garantie im vorigen Abschnitt kommt auch hier die Kontrollvariablenmedie Werte N = 84 undh N = 252 nicht i mehr berechnen: Der Partitionen sind zu viele. Beide Werte, + 7r Q sowohl oben e E (REIA G) als auch in Klammer unten e 7r EQ [REIA G] sind mittels Monte Carlo Simulation geschätzt - ohne Kontrollvariable, denn für diese müssten wir ja gerade den exakten Wert der Indexierungsmethode kennen. 61 thode zum Einsatz. Wir suchen also einen Schätzer für et (N ) " ( = EQ exp c̃ + Y + max m̃ wo Mi 0 1 c̃ Y, max 0, Y1 , Y1 + Y2 , ..., N Xi0 Yk k=1 ✓ St i St = max 1, 1 , ..., 0 S0 S0 1 ◆ !)!# m̃=log(Mi ) 0 1 c̃=log(Ct ) , , Ct = St /S0 , Y, Y1 , Y2 , ..., YN i0 unabhängig und normalverteilt, Q Y ⇠ N (ti0 t)r2 , (ti0 t) 2 und Q Yk ⇠ N N r2 , N 2 , k = 1, 2, ..., N i0 . Von Et (Y, Y1 , ..., YN i0 ) ( := exp c̃ + Y + max m̃ c̃ Y, max 0, Y1 , Y1 + Y2 , ..., N Xi0 Yk k=1 können wir also leicht simulieren. Doch was verwenden wir als Kontrollvariable? Es sollte eine möglichst “ähnliche” Zufallsvariable sein, deren Erwartungswert wir aber kennen. Wir wählen die Variable Kt := Kt (Y, Y1 , ..., YN i0 ) ( := exp c̃ + Y + max 0, Y1 , Y1 + Y2 , ..., N Xi0 Yk k=1 )! mit Erwartungswert " ( EQ [Kt ] = exp (c̃) · EQ [exp (Y )] · EQ exp max 0, Y1 , Y1 + Y2 , ..., N Xi0 k=1 Yk )!# . Der zweite Erwartungswert ist gleich 1, falls i0 = N und ansonsten entspricht er genau der Ausgangslage unserer ursprünglichen Bewertung; wir finden ihn mit Proposition 8. Nur die Laufzeit und die Anzahl Hedgingdaten gilt es entsprechend anzupassen. Wir schreiben für ihn ẽ( N · (N 62 i0 ), N i0 ). Ersteren Erwartungswert !)! 150 50 0 Frequency Mit Kontrollvariable 0.00 0.05 0.10 0.15 0.20 0.15 0.20 Werte 10 5 0 Frequency 15 Ohne Kontrollvariable 0.00 0.05 0.10 Werte Abbildung 8: Bezüglich derselben historischen Daten wurde hier der Wert des PEMG einer diskreten HWM-EIA am hundertsten Tag der Laufzeit fünfhundertfach per Monte Carlo Simulation geschätzt. Einmal mit, einmal ohne Kontrollvariable. Beide Male wurden 100 Werte simuliert. Der Effekt ist überdeutlich. kann man leicht bestimmen: Der Erwartungswert einer lognormalverteilten Zufallsvariable X mit Parametern µX und hat unter Q die Parameter (ti0 2 X ist exp( t)r2 und (ti0 2 X /2 + µX ). Die vorliegende Variable t) 2 . Und so finden wir als Erwartungswert der Kontrollvariable Q ✓ E [Kt ] = exp c̃ + (ti0 = exp (c̃ + (ti0 t) ◆ 2 + (ti0 t)r2 ẽ( 2 t)r) ẽ( N · (N i0 ), N N · (N i0 ), N i0 ) i0 ). Die Bewertung der diskreten HWM Indexierung zum Zeitpunkt 0 < t < T funktioniert nun folgendermassen: Ist t 2 {t1 , t2 , ..., tN 1 }, also t = ti0 , und zugleich Sti0 Sti für i = 0, 1, ..., i0 , dann können wir den Wert mit der Proposition auf Seite 46 direkt berechnen (siehe zu diesem Sonderfall die Bemerkungen auf Seite 56 und folgende. In allen anderen Situationen finden wir den richtigen Wert mittels Simulation: 63 Sei also t 2 (ti0 1 , ti0 ]. Dann setzen wir zunächst c̃ := log und ✓ St S0 ⇢ St i St m̃ := log max 1, 1 , ..., 0 S0 S0 wenn i0 1 ◆ , 2. Für i0 = 1 setzen wir m̃ := 1. Zudem berechnen wir wie oben beschrie- ben den Erwartungswert der Kontrollvariablen Kt , also EQ [Kt ]. Nun simulieren wir n unabhängige Zufallsvektoren Y (1) , Y (2) , ..., Y (n) , die verteilt sind wie (Y, Y1 , ..., YN i0 ), und berechnen von jedem so simulierten Vektor jeweils den Wert der Zufallsvariable (k) Et ⇣ ⌘ := Et Y (k) und den Wert der Kontrollvariable Kt (k) Kt ⇣ := Kt Y (k) ⌘ . Als Schätzer für den optimalen18 Faktor vor der Kontrollvariablen finden wir ĉ⇤ := n ⇣ P k=1 (k) Et n ⇣ P k=1 (k) wo E t ⌘ ⇣ (k) E t · Kt (k) Kt EQ [Kt ] ⌘ EQ [Kt ] , ⌘2 wie üblich den Durchschnitt der Etk bezeichnet. Unser Schätzer für et (N ) sei mit diesen Bezeichnungen 1 X ⇣ (k) êt (N ) := Et n k=1 n 18 ⇣ ĉ⇤ Ktk h i⌘⌘ (k) E Q Kt . Optimal im Sinne der Varianzreduktion. Siehe Seite 58 zu den genauen Überlegungen. 64 6000 4000 Punkte 8000 DAX 2003-2010 0 500 1000 1500 Tage 0.4 0.0 0.2 Euro 0.6 Mit Kontrollvariable 0 500 1000 1500 Tage Euro 0.0 0.2 0.4 0.6 Ohne Kontrollvariable 0 500 1000 1500 Tage Abbildung 9: Bezüglich historischer Daten wurde hier zweimal via Monte Carlo Simulation e⌧ r EQ G] fortlaufend geschätzt (mit ↵ = 0.6). Einmal mit, einmal ohne der vorgeschlat [RHWM genen Kontrollvariable Kt (durchgezogene Linie). Wie nach Abbildung 8 zu erwarten, ist die mit der Kontrollvariable erstellte Bewertung auch über die Zeit gesehen stabiler. Die vertikalen Linien bezeichnen wiederum die Monitordaten. Als Approximation für den HWM-Wert zum Zeitpunkt t 2 (0, T ) finden wir endlich e r(T t) EQ t 1+↵ ✓ MN S0 1 ◆ ⇡e r(T t) (1 ↵ + ↵êt (N )) . In den Abbildung 8 und 9 kann man den Effekt einer Bewertung mit und ohne Kontrollvariable vergleichen. 2.7 Bemerkungen zum Black-Scholes-Modell Der Preis für die mathematische Einfachheit des Black-Scholes-Modells ist hoch. Denn zweifellos sind alle seine Voraussetzungen unrealistisch. Auf drei ausgewählte Kritikpunkte wollen wir hier kurz eingehen: Die empirischen täglichen Logreturns sind gewiss keine Realisationen einer Normalverteilung wie es die Verwendung der Brown’schen Bewegung unterstellt. Sie sind vielmehr “heavy tailed”. Das heisst ganz praktisch, dass die Wahrscheinlichkeit für grosse, plötzliche Veränderungen (etwa innerhalb eines Tages), vom BSM-Modell dramatisch unterschätzt wird. Das ist vor allem deshalb problematisch, weil genau schnelle, grosse Veränderungen die Haupt- 65 quelle für Hedgingfehler ist. Mehr dazu in Kapitel 3. Die Volatilität und der Zinssatz sind beide gewiss nicht konstant. Gerade über einen längeren Zeitraum (wie etwa bei Laufzeiten von EIAs der Fall) sollte man das unbedingt in seine Bewertung einfliessen lassen. Was jede Privatperson beim Hauskauf im Auge behalten muss, sollte und wird ein grosses Unternehmen bei seinen Aktivitäten wohl auch berücksichtigen. Auch sind die aufeinanderfolgenden Logreturns gewiss nicht unabhängig. Das kann man direkt in den Grafiken bemerken, wo sich im absoluten Sinn grosse Werte häufen. Etwas genauer beschrieben wird die Abhängigkeit in den Plots der Autokorrelationsfunktion. Siehe Abbildung 10. Eine weiterer schöner, empfindlicherer und auch für grössere Abstände als tagesweise geeigneter Test zur Unabhängigkeit zwischen aufeinanderfolgenden Zeitreihenvariablen sei im folgenden vorgestellt: Wir betrachten 2000 quadrierte tägliche Logreturns (Yi2 )i=1,...,2000 . Unsere Nullhypothese sei also, dass die Daten aus einer unabhängigen Verteilung stammen; unsere Alternativhypothese sei, dass grosse Werte tendentiell von grossen Werten gefolgt werden und kleine entsprechend von kleinen. Unter der Nullhypothese müsste die Abbildung i 7! rank(Yi2 ) eine rein zufällige Permutation auf {1, 2, ..., 2000} sein19 . Woran könnten wir merken, dass dies nicht plausibel ist? Unter der Alternativhypothese folgt ein hoher Rang tendentiell einem hohen Rang. Das müsste sich also insofern bemerkbar machen, dass die induzierte Permutation zu wenig “wiggely” ist. Verwenden wir also ein naheliegendes Variationsmass als Teststatistik. Für ⇡ in Sn definieren wir n variation(⇡) := 1X (⇡(i) n i=2 ⇡(i 1))2 . Die wohl mühevolle Berechnung der genauen Verteilung dieser Statistik für rein zufälliges ⇧ ⇠ U(S̃n ) sparen wir uns hier und erstellen stattdessen einfach ein Histogramm durch millionenfache Simulation. In Abbildung 11 sieht man, wie richtig 19 Die Funktion rank hängt von dem gesamten Datensatz (Yi2 )i=1,...,2000 ab und bildet jedes Datum auf seinen Rang innerhalb des Datensatzes ab. Sollte es Bindungen geben, verteilen wir die Ränge zufällig, so dass die oben beschriebene Abbildung eine bijektive ist. 66 -0.05 Y 0.05 Historische tägliche Logreturns 0 500 1000 1500 2000 Tage 0.4 0.0 ACF 0.8 Autokorrelationsfunktion der quadrierten Daten 0 20 40 60 80 100 Lag Abbildung 10: 2000 historische Logreturns samt Autokorrelationsfunktion der quadrierten Werte. Nach dieser Graphik sind selbst bis zu zwei Monate entfernte tägliche Logreturns noch abhängig. wir mit unserer Vermutung lagen. Die Variation der von den 2000 quadrierten Logreturns implizierten Permutation ist viel zu klein; der P-Wert des Tests ist quasi 0. Bei aller Kritik sei hier abschliessend doch auch noch eine Lanze für das BSM-Modell gebrochen. Wir erwarten von einem Modell ja durchaus Vereinfachung. Ein Modell, das die Welt 1:1 abbildet, ist ja genauso kompliziert wie die Welt und bringt uns also nicht weiter. Deshalb sollen die Vorzüge des BSM-Modells nicht vergessen gehen: Es ist elegant, relativ einfach verständlich, vielseitig brauchbar und war und ist in der Forschung unglaublich fruchtbar. Auch bei den EIA-Verträgen leistet uns das Nobelpreis-gekrönte Modell gute Dienste: Im Merton-Black-Scholes-Rahmen finden wir geschlossene Bewertungsformeln für die Indexierungsmethoden und - wie man im nächsten Kapitel sehen wird - indirekt auch einen Hedging-Algorithmus. 67 0 500 pi(i) 1500 Zufällige Permutation 0 500 1000 1500 2000 i 1500 0 500 rank(Y_i^2) Von quadrierten täglichen Logreturns induzierte Permutation 0 500 1000 1500 2000 i 1.5e-05 0.0e+00 Wahrscheinlichkeit Verteilung der Variationsstatistik 550000 600000 650000 700000 Variation Abbildung 11: Von 2000 historischen täglichen quadrierten Logreturns betrachten wir hier die implizierte Permutation (d.h. i 7! rank(Yi2 )) und berechnen deren Variationsstatistik. Wie sich in der untersten Grafik zeigt ist die Wahrscheinlichkeit für das Eintreten dieses Resultats oder eines noch kleineren Wertes unter der Annahme, dass die induzierte Permutation also rein zufällig ist, quasi gleich null. Die Nullhypothese der unabhängigen Logreturns kann also mit bestem Gewissen abgelehnt werden. 68 3 Hedging In diesem Kapitel betrachten wir, wie die Verpflichtungen, die durch die Indexierungsmethoden entstehen, durch geschickten Handel mit verschiedenen Finanzprodukten abgesichert werden können. Diesen absichernden Handel nennt man “Hedging”. Man unterscheidet beim Hedging zwei unterschiedliche Ansätze: Einerseits das dynamische Hedging, andererseits das statische Hedging. In der Praxis gebräuchlich sind auch Mischformen. In dieser Arbeit verwenden wir der Einfachheit halber einen rein dynamischen Hedge. Hier wird ein Portfolio von Finanzprodukten laufend angepasst, so dass es auf kurze Sicht genau so (oder wenigstens so ähnlich) reagiert wie der Wert des abzusichernden Versicherungsprodukts. Die Konstruktion des dynamischen Hedges wird in diesem Kapitel detailliert beschrieben. Die Idee beim statischen Hedge dagegen ist es, zum Zeitpunkt des Vertragsabschlusses eine Linearkombination von Finanzprodukten zu finden, die sich in allen Szenarien möglichst ähnlich verhält wie das verkaufte Versicherungsprodukt - ohne weitere Anpassungen. Für VAs ist es wegen ihrer langen Laufzeiten quasi nie möglich, ein perfektes “Replicating Portfolio” (im statischen Sinn) zu finden. Aber schon eine grobe statische Absicherung von zum Beispiel 50% der möglichen Verluste, hilft, den dynamischen Hedge weniger aufwendig und damit billiger zu machen. Der statische Anteil der Absicherung nennt sich dann “Core Hedge”. 3.1 Einführung zum dynamischen Hedging Es gibt viel mehr Literatur zur Bewertung als zum Hedging. Vielleicht weil letzteres eigentlich eher handwerkliche Qualitäten und Übung verlangt und sich durch seine Unmengen von möglichen Handlungsmustern einer wissenschaftlichen Herangehensweise ein Stück weit entzieht? Hauptinhalt auch dieser Arbeit soll jedenfalls nicht das Vergleichen und Optimieren von Hedge-Methoden sein. Wir betrachten einen einzigen, allerdings schon etwas komplizierteren und einigermassen realistischen Ansatz: Neben dem delta hedgen wir auch gamma, das Konvexitätsrisiko, rho, das Zinsrisiko, und vega, das Volatilitätsrisiko. 69 Taleb schreibt in [25]: “..., all experienced traders operate under the same model and are comfortable with it because they learned the necessary tricks to make it work. No experienced trader would willingly trade Black-Scholes-Merton for another pricing tool.” Und: “It’s better to use a model with the smallest number of parameters to estimate.” In diesem Sinne gehen wir in diesem Kapitel sehr “praktisch” vor, schauen an allen Orten, dass es nicht zu kompliziert wird und übersichtlich bleibt. Das ist auch darum vertretbar, weil im nächsten Kapitel bei den Simulationen unter realistischeren Modellannahmen ja noch ein Polster in Form des Risikozuschlags wartet. In der Einführung zur risikoneutralen Betrachtung wurde es betont: Die Speerspitze der risikoneutralen Bewertung ist die Existenz eines (selbstfinanzierenden) replizierenden Portfolios. Dieses Hedge-Portfolio ist im BSM-Rahmen einfach aufzustellen. Nehmen wir für den Augenblick an, dass r ⌘ 0. Von den Rechnungen in der Einleitung zum zweiten Kapitel wissen wir, dass dann Vt := EQ t [H] der Wert des Claims H 2 L1 (F T ) zur Zeit t ist. Zudem zeigt man leicht, dass EQ t [H] ein Martingal ist. Mit einem Martingalrepresentations-Theorem (siehe etwa Kallenberg [17], Theorem 18.10) finden wir (für F = FW ) die Existenz eines Prozesses ', ˜ so dass EQ t [H] = EQ 0 [H] + Zt '˜s dWsQ . 0 Verwenden wir weiter, dass dS = S dW Q , erhalten wir für ' := '/( ˜ S) EQ t [H] = EQ 0 [H] + Zt 0 70 's dSs . ' ist im Vokabular des zweiten Kapitels eine erlaubte und erreichbare Handelsstrategie, die H perfekt repliziert, denn natürlich ist EQ 0 [H] + ZT 's dSs = EQ T [H] = H. 0 Soweit also die Existenz der Replikation. Intuitiv finden wir ' nun mit d EQ t [H] = 't . dSt Das ist unser erster sogenannter “Greek”, delta. Das heisst: Ändert sich der Wert des Underlyings S um eine Einheit, dann ändert sich der Wert unseres Derivats um 't Einheiten. Natürlich nur ungefähr, da es sich um eine lineare Annäherung handelt. Unter den BSM Annahmen könnte man ein Derivat mit Payoff H also perfekt hedgen, indem man stets 't Anteile des Index hielte. Allein: Wir können natürlich nicht kontinuierlich handeln. Nicht einmal annähernd kontinuierlich, etwa minütlich - wegen der Transaktionskosten. Wenn die Funktion s 7! EQ t [H]|St =s ei- nigermassen linear ist, sollte das kein Problem darstellen. Ansonsten stellt sich die Frage, wie empfindlich, wie “nichtlinear” der Derivatwert auf Änderungen reagiert, also die Frage nach der zweiten Ableitung von s 7! EQ t [H]|St =s , dem sogenannten gamma des Derivats. Dieses Risiko kann durch den Handel mit Indexanteilen nicht mehr repliziert werden, denn die zweite Ableitung des Indexwerts nach St selber ist ja offensichtlich 0. Für das Hedgen des Gammarisiko können wir etwa Optionen kaufen oder verkaufen. Das verändert aber wiederum unsere delta-Position, so dass wir die Menge von Indexanteilen im Portfolio entsprechend korrigieren müssen. Nun hängt der Wert eines Dervivats in der Regel nicht nur vom Underlying, sondern auch vom Marktumfeld - etwa vom aktuellen risikofreien Zinssatz - ab. Diese weiteren Risiken hedgen wir analog zum Delta - nun allerdings ohne mathematische “Rückendeckung”: Ob und wie weit der Markt in der Theorie wirklich vollständig im Sinne der Definition auf Seite 25 ist, hängt natürlich von der Modellwahl ab. Aber ohne diese Vollständigkeit versagt der für die risikoneutrale Bewertung entscheidende Gedankengang auf Seite25. Dann existiert nicht mehr gezwungenermassen eine replizierende Strategie und unser risikoneutrales Mass ist ohne Vollständigkeit nicht 71 mehr eindeutig. Die mathematische Antwort auf das Problem der Unvollständigkeit findet man unter Stichworten wie “Superreplikation” oder “Varianzminimierendes Hedging”. Diese Fragen werden in der Praxis aber oft ignoriert. Auch wir modellieren im nächsten Kapitel Zins und Volatilität zwar stochastisch, bleiben was den Hedge betrifft aber ganz “naiv”. Das etwas allgemeinere Vorgehen: Wir analysieren, welche Empfindlichkeiten bzw. Greeks 1 0 , ..., S 1 , ..., S l (l0 l wir hedgen wollen, wählen gerade l oder mehr Hedginginstrumente l), berechnen deren Greeks i S 1 , ..., i S l0 (für i = 1, ..., l) und lösen für die Zusammenstellung des Portfolios (w1 , ..., wl ) zu jedem Hedgezeitpunkt ein (möglicherweise überbestimmtes) lineares Gleichungssystem von der Form 8 > > w1 > > > > > > < > > > > > > > > :w 1 S1 l 1 S1 + w2 1 S2 + ... + wl 1 Sl 0 = 1 H ... ... + w2 l S2 + ... + wl l Sl 0 = l H Aus mathematischer Sicht müssen die Hedgeinstrumente einfach so gewählt sein, dass obiges Gleichungssystem lösbar ist - natürlich nicht zwingender Massen eindeutig. Aus praktischer Sicht spielen viele andere Überlegungen eine Rolle. Etwa: • Sind die Produkte liquide? • Welches Produkt hat die niedrigsten Transaktionskosten? • Typischerweise hat obiges Gleichungssystem unendlich viele Lösungen. Welche wählen wir? • Wann und wie oft hedgen wir? Regelmässig fix oder je nach Umständen? • Abzuwägen gilt es auch die Komplexität des Hedgeportfolios mit seinem Effekt: Wenn Strategie A mit halb so vielen Instrumenten auskommt wie Strategie B und dabei im Wert nur 5% von Strategie B abweicht, welche Strategie sollen wir dann wählen? 72 3.2 Annahmen In den von uns gewählten Mechanismus fliessen einige Ungenauigkeiten ein, die hier genau aufgelistet seien. Man bedenke bei alledem, dass im nächsten Kapitel diese Ungenauigkeiten durch den nachgelieferten Risikozuschlag Eingang in die Bewertung finden. • Ausser im PTP-Fall liefert die Literatur keine geschlossenen Formeln für den jeweiligen Wert der eigentlichen Verpflichtung der Versicherung (PEMG) e r(T t) EQ t [(REIA G)+ ], denn hier handelt es sich quasi um eine Calloption (nämlich die Life Of Contract Garantie) auf ein Derivat (nämlich die Indexierungsmethode). Allerdings zeigen Praxis und Simulation (siehe die Tabelle auf Seite 60), dass G für typische Werte für die Partizipationsrate ↵ und für den Anteil der garantiert verzinsten Prämie fast immer kleiner als R ist - sowohl unter P als auch unter Q. Also betrachten wir während des Hedgings nicht die Veränderungen von e r(T t) EQ t [(R G)+ ], sondern von e r(T t) EQ t [R] G . • In unseren Hedging-Betrachtungen fahren wir inkonsistent, was das Modell betrifft: All die nötigen laufenden Bewertungen machen wir im BSM-Rahmen. Andererseits setzen wir zu jedem Zeitpunkt einen aktuellen Wert für r bzw. in die Formeln ein. Schon allein das Bilden der Greeks rho und vega durch Ableiten nach r und Wären r und ist bereits ein Schritt aus dem BSM-Modell heraus. konstant, würde dieses Vorgehen ja gar keinen Sinn machen. Das ist aber genau der Blick der Praxis: Jeder Trader weiss, dass etwa die Volatilität keine konstante Grösse ist. Im Gegenteil: Die Volatilität ist der entscheidende Tuning-Parameter für Bewertungen. Die gewählte Volatilität hängt etwa stark von der “In-the-Moneyness” von Derivaten ab. Diesen Effekt nennt man “Volatility Skew” oder “Volatility Smile”. Berücksichtigt man dann noch die Entwicklung der Volatilität in der Zeit, führt das zu den sogenannten “Volatility Surfaces”. • Wechselwirkungen zwischen den Bewertungen ignorieren wir. Zum Beispiel 73 sind im Modell die Änderungen vom Underlying durchaus korrelliert mit den Änderungen des Zinssatzes. Dennoch setzen wir das delta des Zinssatz gleich null. Die Greeks Hier also die Sensitivitäten bzw. Greeks, die wir absichern wollen, in der Übersicht: Definition 9. Für H 2 L1 (F T ) definieren wir deltaH (t) := gammaH (t) := rhoH (t) := vegaH (t) := d EQ t [H] (t) dSt Q d2 Et [H] (t) (dSt )2 Q d Et [H] (t) dr Q d Et [H] (t) d Ein Kommentar zur Grössenordnung von rhoH (t) und vegaH (t): Diese beiden Greeks sind in der Regel sehr gross im Vergleich zum Derivatwert. Manchmal sogar deutlich grösser. Wie ist das zu deuten? Nun, in der Tat, eine Änderung zum Beispiel vom Zinssatz r um eine Einheit führt zu einer riesigen, abnormen Veränderung beim Derivatwert. Denn eine Einheit (100%) ist ja auch eine riesige, abnorme Veränderung des Zinssatz! Deshalb tut man gut daran, rhoH (t) und vegaH (t) gedanklich stets mit 1/100 zu skalieren. Dann ist man in der rechten Grössenordnung: Ändert sich der Zinssatz bzw. die Volatilität um einen Prozentpunkt, dann ändert sich der Derivatwert um etwa rhoH (t)/100 bzw. vegaH (t)/100. 3.3 Hedging-Instrumente Wie oben beschrieben, müssen wir für jede Sensitivität, die wir absichern wollen, mindestens ein liquides Produkt handeln können, das eben - unter anderem - auch diese Sensitivität aufweist. Für jedes der Produkte stellen wir ausserdem deren Bewertung und die jeweiligen Greeks vor. Absicherung des delta: Indextracker Zur Absicherung des delta investieren wir quasi direkt in den Index; das ist via sogenannter Indextracker ohne weiteres möglich. Wie im abgebildeten Beispiel (Abbildung 12) gehen wir davon aus, dass ein Indexpunkt gerade einen Euro wert ist. 74 Index TRACKER sind TRACKER-Zertifikate und gehören zur Kategorie der Partizipations-Produkte. Die gemäss dem Schweizerischen Verband für Strukturierte Produkte (SVSP) verwendete Produktetyp-Nummer ist 210. Markterwartung Sie erwarten steigende Kurse des Basiswertes. Eigenschaften Sie partizipieren 1:1 an der positiven sowie negativen Entwicklung des Basiswertes. Chancen & Risiken Chancen Mit einem Index TRACKER können Sie von der positiven Performance des Basiswertes profitieren. Risiken Der Kurs des INDEX TRACKER bewegt sich im selben Ausmass wie der Basiswert. Das Verlustrisiko entspricht dem einer direkten Investition in den Basiswert. Rückzahlungsmodus Bei Verfall erfolgt eine Barrückzahlung in der Höhe des zugrunde liegenden Basiswertes. Es erfolgt keine Titellieferung. Pay-off Diagramm bei Verfall Beispiele bei Verfall Ausgangslage Szenario 1 Szenario 2 Szenario 3 Beschreibung Steigende Kurse Stagnierende Kurse Fallende Kurse Basiswert Index Index Index Laufzeit Open End Open End Open End Ausgabepreis CHF 1'000 CHF 1'000 CHF 1'000 Eingesetztes Kapital CHF 10'000 CHF 10'000 CHF 10'000 Anzahl Zertifikate 10 10 10 Index bei Emission 1'000 1'000 1'000 Index bei Verfall 1'200 1'000 900 Aktienperformance 20% 0% -10% Szenario 1 Szenario 2 Szenario 3 Berechnung 10 Zertifikate * 1'200 10 Zertifikate * 1'000 10 Zertifikate * 900 Rückzahlung in CHF 12'000 10'000 9'000 Gewinn / Verlust 20.00% 0.00% -10.00% Auszahlung Steuern Abbildung 12: Indextracker Produkt der Zürcher Kantonalbank Einkommenssteuer auf Vermögensertrag Verrechnungssteuer Nein Umsatzabgabe Nein EU-Steuerrückbehalt 75 Nein top So ist der faire Preis eines Anteils am Tracker zum Zeitpunkt t gerade St . Wie bei allen betrachteten Produkten nehmen wir auch hier an, dass diese Anteile beliebig teilbar sind. Die Greeks für ein solches Zertifikat ergeben sich leicht: d St = 1 dSt d2 gammaS (t) = St = 0 dSt2 rhoS (t) = 0 deltaS (t) = vegaS (t) = 0. Absicherung des gamma: Optionen Das gamma-Risiko werden wir mit Calloptionen hedgen. Wären Optionen mit Laufzeiten von 5 oder gar 10 Jahren liquide, würden sich viele unserer Probleme gar nicht stellen - wir könnten die EIAs statisch mit diesen Option replizieren. Dezidiert betrachten wir hier also Optionen mit einer Laufzeit von einem Jahr und wiederholen an dieser Stelle noch einmal die BSM-Bewertungsformeln für Optionen. c(⌧, St , K) := e p(⌧, St , K) := e wo ⌧ = T r⌧ r⌧ ⇥ EQ t (ST ⇥ EQ t (ST ⇤ K)+ = St (d1 ) ⇤ K)+ = e r⌧ e K ( d2 ) r⌧ K (d2 ) S ( d1 ) t die Restlaufzeit, St den aktuellen Wert des Underlying und K den p Ausübungspreis bezeichnet. Weiter ist d1,2 = (log(St /K) + r1,2 ⌧ ) /( ⌧ ). Durch Nachrechnen kann man zeigen, dass mit diesen Notationen für Optionen zum Zeitpunkt t folgende Greeks gelten: 76 50 100 150 200 250 0.9 0.6 Delta Calloption Index S 4200 0 0 50 100 0 50 100 150 200 250 50 100 150 200 0 150 200 250 50 100 150 200 250 150 200 250 0 1000 Vega Calloption 1000 100 250 Tage 400 Wert Calloption 50 200 1500 250 Tage 0 150 0 Rho Calloption 100 250 Tage 0.14 0.22 Volatilität sigma 50 200 0e+00 0 Tage 0 150 Tage Gamma Calloption Zinssatz r 0.0205 Tage 0 50 Tage 100 Tage Abbildung 13: Entwicklung des Werts und der Sensitivitäten einer Calloption mit Strike S0 in einem historischen Marktumfeld über ein Jahr (252 Handeltage) Call delta (d1 ) ( d1 ) (d1 ) p ⌧ gamma S rho K⌧ e vega Put S r⌧ (d2 ) p St (d1 ) ⌧ (d1 ) p ⌧ K⌧ e r⌧ ( d2 ) p St (d1 ) ⌧ gamma und vega sind also dieselben für Call- und Putoptionen. Warum wählen wir dann Calloptionen für den Hedge? Rein mathematisch spielt die Wahl in der Tat keine Rolle. Aber so wird das Volumen des Hedgeportfolios tendentiell kleiner. Wir werden nämlich sehen, dass bei unseren EIAs das delta und das gamma dasselbe Vorzeichen haben. Wir müssen für den gamma-Hedge also eine long-Position in Optionen einnehmen. Würden wir Putoptionen kaufen, senkte dies das delta des Hedgeportfolios, was wir durch zusätzliche Anteile am Index ausgleichen müssten. Kaufen wir dagegen Calloptionen, steigt das delta und wir können unsere Position in Indextrackerzertifikaten sogar senken. Aussagekräftiger als die Formeln sind wohl die Graphiken in Abbildung 13. 77 Beispiel Zinsswap: Zinsfestschreibung bei variablen Finanzierungen Beim Swap gehen beide Vertragsparteien eine Verpflichtung zum regelmäßigen Austausch von z. B. variablen Zinsen gegen feste Zinsen ein. Zugrundeliegende Nominalbeträge werden nicht getauscht. Zahlungsströme des Swap 3-Monats Euribor Im Beispiel müssten Sie einen bei Vertragsabschluss vereinbarten Festsatz zahlen. Die Commerzbank AG zahlt dafür den jeweils vereinbarten Referenzzins (z. B. 3-Monats Euribor). Swap 3-Monats Euribor zzgl. Kreditmarge Im Ergebnis verbleibt für Sie eine Nettozinsbelastung in Höhe des Festsatzes (zzgl. der Kreditmarge für das variabel verzinste Darlehen). Kunde Festzins (Swapsatz) Swap: Absicherung gegen Zinsschwankungen (hier: Schutz gegen steigende Marktzinsen), Schaffung einer festen Kalkulationsgrundlage.* Finanzierung mit variablem Zins * Für Sie zu beachten: Sollte im Beispiel der Festzinssatz über dem Referenzzinssatz liegen, erleiden Sie einen (Bewertungs-)Verlust. 14 Abbildung 14: Aus einer Werbung für Zinsswap-Produkte der Commerzbank Absicherung des rho: Zins-Swaps Das Zinsrisiko rho sichern wir mit Zins-Swaps (IRS, Interest Rate Swaps) ab. Swaps ganz allgemein sind Produkte, bei denen Handelspartner eine oder mehrere zukünftige gegenseitige Zahlungen vereinbaren. Diese Zahlungen hängen bei Zins-Swaps eben von künftigen Zinssätzen ab. Swaps werden in der Praxis so ausgestaltet, dass die zu erwartenden Zahlungen für beide Partner gleich sind, das heisst das Produkt kostet anfangs keine der beiden Parteien etwas. Trotzdem unterscheidet man in den Verträgen zwischen “Käufer” bzw. “Payer” und “Verkäufer” bzw. “Receiver” bezüglich des zukünftigen Zinses20 Zins-Swaps gehören zu den verbreitetsten “Over The Counter” (OTC) - Produkten21 ; entsprechend gross ist die Vielfalt ihrer Ausgestaltung. Jedesmal geht es aber darum, dass die beteiligten Handelspartner in einem gewissen Sinne zukünftige Zins20 Die “Market Practice” der Definition von der Longposition (also “Käuferposition”) eines IRS ist genau umgekehrt. Die Long-Partei erhält nämlich die Zahlungen bezüglich eines fixen Zinses, ist also der Receiver. Wir haben uns hier aber für einen eigenen Weg entschieden, weil so die Wertkurve des IRS die Zinsentwicklung parallel und nicht gespiegelt nachzeichnen wird. Denn so ist man quasi “long den zukünftigen, variablen Zins”. 21 OTC bedeutet, dass die Geschäfte nicht an einer Börse, sondern direkt zwischen den Handelspartnern getätigt werden 78 sätze austauschen. Wir betrachten und verwenden den einfachen Fall eines EinJahres-Swaps mit monatlichem “Refixing”: • Vereinbart wird ein Nominalwert NIRS . Dabei handelt es sich um eine rein rechnerische Grösse; NIRS wird weder am Anfang noch am Ende der Laufzeit wirklich ausgetauscht. • Der Verkäufer erhält vom Käufer ein Jahr lang auf Monatsende r̃fix · NIRS und am Ende des Jahres erhält er zusätzlich zu diesem Zins das Nominal NIRS (fiktiv) zurück. Der Verkäufer hält also einen fiktiven “Fixed Coupon Bond” (FCB). • Der Käufer dagegen erhält vom Verkäufer ein Jahr lang zu jedem Monatsende r̃(i 1)/12 · NIRS , wo r̃(i 1)/12 der anfangs Monat i gültige diskrete 1- Monatszinssatz ist. Am Ende des Jahres erhält er zusätzlich zu diesem Zins noch das Nominal NIRS (fiktiv) zuück. Der Käufer hält damit eine fiktive “Floating Rate Note” (FRN). Zusammenfassend (siehe auch hierzu nochmals Fussnote 20): IRS long = FRN long und FCB short Alle Zahlungen werden saldiert. Der Betrag NIRS wird weder am Anfang, noch am Ende der Laufzeit ausgetauscht. Wir unterstellen eine flache Zinskurve. Das heisst, die Höhe des Zinssatzes hängt nicht von der Dauer der Anlage ab. r̃t bezeichnet den zur Zeit t aktuellen 1-Monatszinssatz. Wir nehmen im folgenden an, dass alle Zinssätze kontinuierlich sind. Anstelle von r̃f ix und r̃t rechnen wir also mit rf ix := log(1 + r̃f ix ) und rt := log(1 + r̃t ). rf ix und rt stehen nun also für kontinuierliche Monatszinssätze - so werden die folgenden Rechnungen und später die Formeln für rho handlicher. Wenn wir im nächsten Kapitel Daten in die Bewertungs- bzw. Sensitivitätsformeln einsetzen, müssen wir diese Werte vorher eben entsprechend transformieren. 79 Floating Rate Note Zunächst überlegen wir uns induktiv den Wert der Floating Rate Note zu den Refixing Daten bzw. zum Laufzeitende, also FRN(0), FRN(1/12), ..., FRN(11/12), FRN(1): Am Ende des Jahres, zur Zeit 1 also, erhalten wir den Zins (“Zins(12)”)- festgelegt zum Zeitpunkt 11/12 - und das Nominal NIRS zurück. Einen Monat vor Abschluss, zum Zeitpunkt 11/12 also, erhalten wir einerseits eine Zinszahlung (“Zins(11)”), andererseits erwarten wir in Monatsfrist ja noch die letzte Zinszahlung (zum heute fixierten Zinssatz r11/12 , sowie die Rückzahlung von NIRS . Diskontiert werden die zukünftigen Zahlungen mit dem heute gültigen Zinssatz, also ebenfalls r11/12 . So ergibt sich FRN(11/12) = Zins(11) + e r11/12 ((er11/12 1)NIRS + NIRS ) = Zins(11) + NIRS . Zum Zeitpunkt 10/12 erhalten wir auch unseren Zins, ausserdem wird der Zinssatz r10/12 fixiert, und in Monatsfrist dürfen wir eine Zahlung von (erfloat (10/12)/12 1)NIRS erwarten. Darüberhinaus werden wir zum Zeitpunkt 11/12 in Besitz des oben berechneten Restwerts der FRN kommen, nämlich der oben berechneten FRN(11/12) Zins = NIRS . Diskontiert ergibt sich als Wert zum Zeitpunkt 10/12 wiederum FRN(10/12) = Zins(10) + e r10/12 ((er10/12 1)NIRS + NIRS ) = Zins + NIRS . Und so finden wir sukzessive, dass NIRS = FRN(1) Zins(12) = ... = FRN(1/12) Zins(1) = FRN(0) 0. Zu jedem Zinszahlungsdatum ist also kurz nach der Zinszahlung der Wert der FRN einfach NIRS . Weil zur Zeit 0 überhaupt keine Zinszahlung stattfindet, ist also insbesondere FRN(0) = NIRS . An einem beliebigen Zeitpunkt t 2 ((i müssen wir noch (i/12 1)/12, i/12] 12t Monate bis zur nächsten Zinsausschüttung t) · 12 = i warten. Entsprechend diskontieren wir mit dem aktuellen monatlichen Zinssatz rt und finden so für FRN(t) den Wert exp ( rt (i ⇣ ⇣ ⇣ ⌘ 12t)) NIRS + exp r i 1 12 ⌘ ⌘ ⇣ 1 NIRS = exp r i 1 12 80 rt (i ⌘ 12t) NIRS . Für t = i/12 ergibt sich auch mit dieser allgemeinen Formel natürlich wie oben wieder ⇣ ⌘ FRN(t) = FRN(i/12) = exp r i 1 NIRS = NIRS + Zins(i). 12 Fixed Coupon Bond Nun vom sogenannten “Floating Leg” zum “Fixed Leg” des IRS, zum Fixed Coupon Bond. rfix wird so festgelegt, dass der Wert des Swaps für den Käufer gerade dem Wert für den Verkäufer entspricht. Anfangs fliest also gar kein Geld. Was ist nun der faire Wert für rfix ? Der richtige Wert löst NIRS = FRN(0) = FCBrfix (0). Um den fairen Zinssatz rfix zu finden, müssen wir also noch FCBrfix (0) als Funktion von rfix berechnen. Hier können wir nicht vorgehen wie im FRN-Fall, da sich die zukünftigen, unbekannten Diskontsätze nicht wegkürzen. Als erwarteten Diskontfaktor für die 12 Zahlungen verwenden wir stattdessen den heutigen monatlichen Zins r0 . FCB(0) = 12 X e r0 k (erfix 1) NIRS + e r0 12 NIRS k=1 Und so finden wir FCB(0) = FRN(0) = NIRS , 1 = (e 1 e 12 P e , rfix 1) 12 X e r0 k +e r0 12 k=1 r0 12 = erfix 1 r0 k k=1 11 P e k=0 12 P , r0 k = erfix e r0 k k=1 Den Zähler können wir mit der Formel für geometrische Summen22 umschreiben zu 1 (e 1 22 n P k=0 qk = 1 q n+1 1 q , 8q r0 11+1 ) e r0 = 6= 1 81 1 e r0 12 1 e r0 und den Nenner zu 1 (e 1 r0 12+1 ) e 1= r0 e r0 e r0 13 e = r e 0 1 r0 (1 e r0 12 ) . 1 e r0 Und also finden wir rfix 0P 11 B k=0 = log B @P 12 k=1 e r0 k e r0 k 1 C C = log A ✓ 1 e r0 e (1 r0 12 e r0 12 ) ◆ = r0 Der faire fixe Zins ist also gerade der zum Jahresbeginn aktuelle r0 . Das macht intuitiv Sinn. In der Literatur, auch auf Wikipedia und verschiedenen kaufmännischen Portalen, findet sich hier oft ein etwas korrigierter Term. Das hat zu tun mit kaufmännisch zwar üblichen, mathematisch aber eigentlich falschen Diskontfaktoren wie etwa (1 + r/n) anstelle von (1 + r)1/n . Für den Wert des FCB für allgemeines t 2 ((i 1)/12, i/12), fairen fixen monatlichen Zinssatz r0 und aktuellen monatlichen Zinssatz rt erhält man nun FCBr0 (t) = exp ( rt (12 12 X 12t)) NIRS + exp ( rt (k 12t)) (er0 1) NIRS . k=i Kombination: IRS Die Bewertung unseres IRS ergibt sich nun einfach als Differenz der FRN- und FCBBewertung. Letztlich betrachten wir dieses Produkt ja, weil man mit ihm “ganz pur” das Zinsrisiko, also rho handeln kann. Der nächste Schritt muss also sein, die Bewertungsformel nach r abzuleiten. Wo finden wir aber r? r interpretieren wir durchweg als den aktuellen Zinssatz. Die Rolle des aktuellen Zins spielt in der IRSBewertungsformel der Term rt . Weil das ein Monatszins ist, setzen wir nun rt = r . 12 r0 bezeichne weiterhin den fairen kontinuierlichen monatlichen Zinssatz des FCB. r(i 1)/12 bezeichne weiterhin den am letzten Refixing gültigen kontinuierlichen mo- natlichen Zinssatz. Mit diesen Bezeichnungen und den Überlegungen weiter oben zu FRN und FCB erhalten wir nun direkt folgende zusammenfassende Proposition: 82 Proposition 9. Für einen Interest-Rate-Swap mit einjähriger Laufzeit, monatlichem Refixing, Nominalwert NIRS und monatlichem fixem Zins von r0 (kontinuierlich) gilt IRS(t) = FRN(t) FCBr0 (t) und rhoIRS (t) = rhoFRN (t) wobei für i = 1, 2, ..., 12 und t 2 ((i ✓ FRN(t) = exp r i 1 12 FCBr0 (t) = exp ( r(1 r ✓ rhoFCB (t) 1)/12, i/12] i 12 t ◆◆ t)) NIRS + NIRS 12 X exp k=i ✓ r ✓ k 12 t ◆◆ (er0 1) NIRS und rhoFRN (t) = rhoFCB (t) = ✓ i 12 (1 ◆ ✓ ✓ ◆◆ i t exp r i 1 r t NIRS 12 12 ! ◆ 12 ✓ X k k t)e r(1 t) + (er0 1) t e r( 12 t) NIRS . 12 k=i Beide Sensitivitäten sind stets negativ. Sowohl der Wert des FCB als auch der der FRN sinken also, wenn der Zinssatz steigt. Beim FCB leuchtet das unmittelbar ein: Das Geld, das wir morgen erhalten, ist heute weniger wert, wenn der Zinssatz steigt. Beim FRN mag das Resultat auf den ersten Blick überraschen: Wir erhalten doch grössere Zahlungen, wenn der Zins steigt! Aber dieser Zuwachs gleicht sich - wie anfangs gezeigt - mit dem ebenfalls entsprechend angepassten Diskontierungsfaktor genau aus, so dass zu den Refixing Daten der Wert der FRN stets gleich NIRS ist. Und zwischen den Refixingdaten, wirkt sich der Anstieg des Zinssatzes nur auf das Diskontieren aus. Die Stufen an den Monatsanfängen des Werts des IRS in Abbildung 15 erklären sich so: Die Zahlungen in der Vergangenheit haben wir in der Bewertung nicht berücksichtigt (was ja auch Sinn macht, denn wenn man das Produkt weiterverkauft, hat ja der Käufer nichts mehr von den bereits getätigten Zahlungen). Und immer beim Überschreiten der Monatsgrenze wird eine zukünftige Zahlung zu einer vergangenen Zahlung und fällt als solche weg. Etwas formaler: 83 150 200 250 0 50 100 150 200 250 0 50 100 150 200 250 -0.005 Zinssatz r 0.032 0.036 0.040 100 -0.002 50 0.4 0.0 Rho IRS 0.8 Wert IRS 0 Abbildung 15: IRS, Wert und Empfindlichkeit in historischem Zinsumfeld. Zu den Stufen der Wertentwicklung siehe die Kommentare im Text. rho ist zwischen den Refixingdaten sehr stabil. Der Einfluss des Zinssatz auf den Wert des IRS nimmt aber über die Zeit stark ab. Mit obiger Proposition (oder direkt mit eben den Überlegungen, die uns zu der Proposition geführt haben) finden wir folgende Werte für FRN und FCB kurz vor und kurz nach der Zinszahlung in i/12: ✓ ◆ i F CN +✏ = NIRS 12 ✓ ◆ ⇣ ⇣ ⌘ ⌘ i F RN ✏ = NIRS + exp r i 1 1 NIRS 12 12 ✓ ◆ ✓ ✓ ◆◆ 12 X i i k i r(1 12 ) F CB +✏ = e NIRS + exp r (er0 1) NIRS 12 12 12 k=i+1 ✓ ◆ ✓ ✓ ◆◆ 12 X i i k i r(1 12 ) F CB ✏ = e NIRS + exp r (er0 1) NIRS 12 12 12 k=i Der Unterschied besteht also einfach in der jeweils fälligen Zinszahlung: ✓ ◆ i F RN +✏ 12 ✓ ◆ i F CB +✏ 12 ✓ i F RN 12 ✓ i F CB 12 ✏ ✏ ◆ ◆ 84 = = ⇣ ⇣ exp r i (er0 1 12 ⌘ 1) NIRS ⌘ 1 NIRS 0.038 0.032 100 150 200 250 0 50 100 150 200 250 -0.003 0.000 50 -0.007 Zinssatz r Wert IRS + Cashflows IRS 0 Abbildung 16: Wert des IRS inklusive bereits getätigter IRS-Zahlungen Die entsprechenden Sprünge für den IRS ergeben sich dann mit ✓ ◆ ✓ ◆ i i IRS +✏ IRS ✏ 12 12 ✓ ◆ ✓ ◆ ✓ ✓ ◆ i i i = F RN +✏ F RN ✏ F CB +✏ 12 12 12 ⇣ ⇣ ⌘ ⌘ = NIRS exp r i 1 1 (exp (r0 ) 1) 12 ⇣ ⇣ ⌘⌘ = NIRS exp (r0 ) exp r i 1 . F CB ✓ i 12 ✏ ◆◆ 12 Beim ersten Refixing erwarten wir also keinen Sprung und im Verlauf werden die Sprünge je höher, desto verschiedener der letzte Refixingzins vom Zins zu Laufzeitbeginn ist. Berücksichtigt man aber den Wert der fälligen Zahlungen, schreibt sie auf ein verzinstes Bankkonto gut (bzw. zieht sie davon ab) und addiert diese Position zum Wert des IRS ergibt sich brutto das gewünschte Bild (Abbildung 16) eines Produktes, das den Zinsverlauf sehr gut repliziert. Absicherung des vega: Volatilitäts-Swaps und Varianz-Swaps Mit Varianz-Swaps wollen wir das vega-Risiko hedgen. Volatilitäts- bzw. VarianzSwaps bieten die Möglichkeit, auf die zukünftige (beobachtete) Volatilität bzw. Varianz eines Indexkurses zu wetten. Anders als bei Direktinvestitionen oder bei Call85 bzw. Putoptionen geht es also nicht um das Spekulieren auf zukünftige Kursgewinne oder -verluste, sondern vielmehr darum, Vermutungen zur zukünftigen “Unruhe” der Indexentwicklung auszunutzen. Im Grunde handelt es sich bei diesen Swaps einfach um Termingeschäfte auf die Volatilität bzw. Varianz. Volatilitäts-Swaps sind nur unter vielerlei weiteren Annahmen zu bewerten. Aus diesem Grund sind heute Varianz-Swaps verbreiteter. Diese lassen sich theoretisch durch ein bestimmtes Portfolio von unendlich vielen Put- und Calloptionen auf das entsprechende Underlying replizieren und sind damit also auch ohne weitere Modellannahmen innerhalb des BSM-Rahmens bewertbar. Bei den nun folgenden Beschreibungen halten wir uns an die Veröffentlichung von JPMorgan [5], aus der auch das in Abbildung 17 vorgestellte Beispielprodukt stammt. Zunächst einige Definitionen: TVS Laufzeit des Swaps in Jahren NVS Nominal (“Vega-Amount”) K2 Strike NVS 2K Variance-Amount (der Grund für diese Definition findet sich weiter unten) Und hier noch der wichtigste Term, die “historische” oder “realisierte” Volatilität: v u u 1 252·T XV S t V (TV S ) := TV S k=1 log S k 252 Sk 1 252 !2 Wir betrachten speziell Varianzswaps mit einer Laufzeit von TV S = 1 Jahr. In diesem Fall vereinfacht sich obiger Volatilitätsschätzer zu v !2 u 252 uX Sk V := V (1) = t log 252 . S k 1 k=1 252 Hier und überall in diesem Text nehmen wir an, dass jedes Jahr aus 252 und jeder Monat aus 21 Handelstagen besteht. Auf den Mittelwert, der in der statistischen P Varianzschätzung ja vorkommt (“ (xi x)2 /n”) wird hier verzichtet. Auf diese Weise ist V 2 additiv über die Zeit: Leicht überprüft man nämlich, dass sich mit dieser Definition die historische Varianz des ganzen Jahres (TV S = 1) zusammensetzen lässt 86 1.1. Payoff A variance swap is an instrument which allows investors to trade future realized (or historical) volatility against current implied volatility. As explained later in this document, only variance —the squared volatility— can be replicated with a static hedge. [See Sections 2.2 and 3.2 for more details.] Sample terms are given in Exhibit 1.1.1 below. Exhibit 1.1.1 — Variance Swap on S&P 500 : sample terms and conditions VARIANCE SWAP ON S&P500 Instrument: Swap Trade Date: TBD Observation Start Date: TBD Observation End Date: TBD Variance Buyer: TBD (e.g. JPMorganChase) Variance Seller: TBD (e.g. Investor) Denominated Currency: USD (“USD”) Vega Amount: 100,000 Variance Amount: 3,125 ( determined as Vega Amount/(Strike*2) ) Underlying: S&P500 (Bloomberg Ticker: SPX Index) Strike Price: 16 Currency: USD Equity Amount: T+3 after the Observation End Date, the Equity Amount will be calculated and paid in accordance with the following formula: Final Equity payment = Variance Amount * (Final Realized Volatility2 – Strike Price2) ABOUT VARIANCE SWAPS SPX INDICATIVE TERMS AND CONDITIONS KNOW If the Equity Amount is positive the Variance Seller will pay the Variance Buyer the Equity Amount. If the Equity Amount is negative the Variance Buyer will pay the Variance Seller an amount equal to the absolute value of the Equity Amount. where TO 252 t 1 NEED Final Realised Volatility = P ln t Pt 1 Expected _ N 2 100 Expected_N = [number of days], being the number of days which, as of the Trade Date, are expected to be Scheduled Trading Days in the Observation Period = The Official Closing of the underlying at the Observation Start Date P0 = Either the Official Closing of the underlying in any observation date t or, at Pt Observation End Date, the Official Settlement Price of the Exchange-Traded Contract YOU WHAT JUST t N Calculation Agent: Documentation: JP Morgan Securities Ltd. ISDA Abbildung 17: Varianzswap, Beispielprodukt von JPMorgan 3 87 etwa als Konvexkombination der Varianz der ersten 4 und der letzten 8 Monate: V2 = 252 X S log Sk 1 252 k=1 4 252· 12 = X log = d = 63 2 V 252 k 252 Sk S log k=1 S ! 1 252 k=1 63 X k 252 ✓ k 252 Sk 1 252 63 252 ! ! ◆ 252 X + + log 4 k=252· 12 +1 252 X log S S k 252 k 252 Sk ! 1 252 ! Sk 1 ✓252 ◆ 252 63 2 252 63 + V 252 252 k=64 Diesen Umstand können wir uns bei der Bewertung zunutze machen. Gleich werden wir sehen, dass der Strike K so festgelegt wird, dass zum Zeitpunkt des Vertragsabschlusses kein Geld den Besitzer wechselt - genau wie im vorigen Kapitel bei den Zinsswaps. Dennoch unterscheidet man auch bei Varianz-Swaps zwischen Käufer und Verkäufer. Der Käufer des Vertrags “kauft” in gewissem Sinne die zukünftige Varianz und - falls diese grösser ist als der Strike K - erhält am Ende der Laufzeit N · V (T )2 2K K2 , ansonsten zahlt er dem Verkäufer den entsprechenden Betrag23 . Hier erscheint also der - zunächst etwas überraschende, aber in der Praxis gängige - “Variance-Amount”Term N 2K anstelle des erwarteten simplen Nominalwerts N . Diese Messung des No- minalwerts in Volatilitätseinheiten (denn genau das wird die Grössenordnung des Strikes K sein) hat den Grund, dass die Händler eher an Effekten der Volatilitätsals an Effekten der Varianzänderung interessiert sind. Durch die Korrektur des Nominals, entspricht nun eine Erhöhung der Volatilität gegenüber dem Strike um einen Prozentpunkt einer Erhöhung des Swap-Payoffs für den Käufer um N (K + 0.01)2 2K K2 = N 2K + 0.012 ⇡ 24 N. 2K 23 Hier ist die “Market Practice” genau in unserem Sinne: Die Long Position zeichnet den Volatilitätsverlauf ungefähr nach. Dies im Gegensatz zu den Zins-Swaps, wo wir den Käufer und Verkäufer genau verdreht verwenden mussten, um diesen Effekt zu erreichen. 88 Das heisst, in einem gewissen Sinne erhält man für jeden Prozentpunkt, den die Volatilität wächst, gerade den Betrag N . Weiter erlaubt die Additivität des Schätzers V 2 eine einfache fortlaufende Bewertung von Varianz-Swaps. Zum Beispiel bietet sich bei einem Swap mit Laufzeit ein Jahr (T =1) nach drei Monaten (t = 3 · 21/252 = 3/12 = 0.25) mit Varianz-Amount 1 (N/(2K) = 1) folgendes Bild: ⇥ 2 EQ 0.25 V (1) K2 ⇤ = 63 X k=1 log S k 252 Sk 1 252 !2 2 4 + EQ 0.25 252 X log S k 252 Sk 1 252 k=64 !2 3 5 K2 Die Summanden im Erwartungswert sind unabhängig von F 0.25 und ausserdem gleich verteilt wie die entsprechende Summe beginnend bei k = 1. Das heisst 2 4 EQ 0.25 252 X k=64 log S k 252 Sk 1 252 !2 3 2 5 = EQ 4 2 = EQ 4 252 X k=64 252 X63 k=1 log S k 252 Sk 1 252 log S !2 3 k 252 Sk 1 252 5 !2 3 ⇤ 252 63 Q ⇥ 2 E V (0.75) 252 = 5 Und so erhalten wir als Wert des Varianz-Swaps nach einem Vierteljahr e r(1 0.25) ⇥ 2 EQ 0.25 V (1) ⇤ K2 = e r(1 0.25) ⇥ ⇤ 0.25V 2 (0.25) + 0.75 EQ V 2 (0.75) K2 . Um dies berechnen zu können, fehlt nur noch eine Formel zur Bestimmung des fairen Strikes eines Varianzswaps mit Laufzeit TVS , also eine Formel für EQ [V 2 (TVS )]. Damit können wir dann einerseits den übrigen Erwarungswert berechnen, andererseits wissen wir dann, wie K zu wählen ist, so dass der Wert des Varianzswaps zum Zeitpunkt 0 gleich null ist. Z bezeichne in der folgenden Rechnung wie immer eine unter Q standardnormalverteilte Zufallsvariable. 24 Wir werden sehen: K ist in der Grössenordnung jährlicher Volatilitäten, also um 0.2, 0.3 herum. 89 ⇥ ⇤ EQ V (TV S )2 = 1 TVS = = 2 Sk 1 252 S 1 252 S0 !2 3 !2 3 5 5 /2) aus, ergibt sich für den fairen Strike K =E Q ⇥ ⇤ 2 V (TVS ) = Denn nun gilt e EQ 4 log k 252 ◆2 # r2 p 252 · E Z+ 252 252 ✓ 2 2 ◆ r2 Q Q 2 252 · E Z +E +0 252 2522 ✓ 2 ◆ r22 252 · + 252 2522 r2 2 + 2 252 = 2 S Q = 2 k=1 2 252TVS · EQ 4log TVS "✓ = Schreiben wir r2 (= r 252·T XVS rTVS NVS Bedenkt man nun noch, dass 2K (r ✓ 2 + ⇥ 2 EQ 0 V (TVS ) 2 /2)2 252 (r 2 /2)2 252 ◆ . ⇤ K2 = 0 vernachlässigbar klein ist gegenüber 2 , erhal- ten wir, dass der faire Strike K ziemlich genau der aktuellen (impliziten) Volatilität entspricht. Wir setzen also - etwas ungenau, aber vertretbar und üblich - für den Strike eines Varianzswaps mit Laufzeit TVS K(TVS ) = . Zusammen mit der oben im Beispiel beschriebenen Additivität erhalten wir so für den Wert eines Varianz-Swaps mit Laufzeit ein Jahr zu den Zeitpunkten t = 0, 1/252, 2/252, ..., 251/252, 1 e r(1 t) ⇥ 2 EQ t V (TV ) wobei K 2 = 2 ⇤ K2 = e r(1 t) t · V 2 (t) + (1 . Setzen wir nun für EQ [V 2 (1 90 ⇥ t) · EQ V 2 (1 t) ⇤ K2 , t)] die zum Zeitpunkt t aktuelle implizite, quadrierte Volatilität 2 t ein und leiten die Bewertungsformel nach den verschiedenen Parametern25 erhalten wir folgende zusammenfassende Proposition: Proposition 10. Für den Wert eines Varianz-Swaps mit einer Laufzeit von einem Jahr und Nominal NVS gilt für t = i/252, i = 0, 1, ..., Td VS(t) = e r(1 t) t · V 2 (t) + (1 t) · 2 t K2 NVS . 2K Seine Sensitivitäten zu obigen Zeitpunkten t sind deltaVS (t) = 0 gammaVS (t) = 0 rhoVS (t) = (1 vegaVS (t) = (1 t t) · VS(t) t)e r(1 t) t · NVS . K bezeichnet hier die implizite Volatilität zum Zeitpunkt t, K 2 := Strike und 2 0 den fairen v !2 u 252·t u1 X Sk V (t) = t log 252 t k=1 Sk 1 252 die historische Volatilität. In Abbildung 18 sehen wir, dass das mit obiger Proposition konstruierte Produkt den Volatilitätsverlauf gut abbildet. In der Praxis wird “die” 26 implizite Volatilität bestimmt, indem man auf dem Markt 25 Ein Wort zur Sensitivität des Varianzswaps bezüglich des Underlying S: Unser Finanzmarktmodell wird letztlich tagesweise laufen. Entsprechend definierten wir den Schätzer V und entsprechend den Wert für den VS nur tagesweise. Würden wir den Schätzer V kontinuierlich definieren, würde der letzte Summand in der Bewertungsformel für Tag i ersetzt durch einen Intraday-Summanden von der Form log(St /Sti 1 )2 . So wäre im Tagesverlauf das delta und das gamma durchaus hedgebar. Am Anfang des Tages i ist aber St = Sti 1 (Sti 1 interpretieren wir als Schlusskurs von Tag i 1 und Startkurs von Tag i) und die Ableitung des Intraday-Summanden gleich null. Das macht Sinn, denn schon eine Sekunde später- je nachdem ob dann St grösser oder kleiner Sti 1 ist - nimmt das “Intraday-delta” ein nicht vorhersehbares Vorzeichen an. Das Finanzmarktverhalten innerhalb eines Tages können wir im Simulationsmodell aus Gründen der beschränkten Rechenleistung aber nicht berücksichtigen. Wir setzen also deltaVS = gammaVS = 0. 26 In Anführungsstrichen, denn in der Praxis zeigt sich, dass die Volatilität selber abhängt vom Grad der “in-the-moneyness” oder “out-of the-moneyness” der betrachteten Optionen, ja sogar von ihrer Restlaufzeit. 91 0.16 0.14 200 250 0 50 100 150 200 250 0 50 100 150 200 250 -4000 Volatilität sigma 0.12 150 -2000 100 40000 80000 Wert VSwap 50 0 Vega VSwap 0 Abbildung 18: Varianzswap mit Nominal (“Vega-Amount”) 100’000 und Strike 0.162 . Es zeigt sich das gewünschte Bild: Der Swapwert zeichnet den Volatilitätsverlauf sehr ähnlich nach. Er rutscht tief ins Negative ab, da die Long-Position des VS quasi die (tiefere) aktuelle Volatiltät “erhält” und dafür die höhere vom Zeitpunkt 0 abgeben muss. vega scheint kaum von den Marktverhältnissen beeinflusst zu werden und nimmt kontinuierlich-stabil aufs Laufzeitende hin ab. beobachtete Preise mit der BSM-Formel numerisch nach auflöst. In unseren Simu- lationen modellieren wir die Volatilität durchaus stochastisch. Aber für die implizite Volatilität als Bewertungsgrösse verwenden wir einen Schätzer, der vom bisherigen Indexverlauf ausgeht: Ein gewichteter Durchschnitt der quadrierten Logreturns, das Exponential Weighted Moving Average (EWMA). Wir setzen einen Anfangswert 0. Dann definieren wir rekursiv ˆk2 := ˆk2 1 + (1 )Yk2 . Mit dieser Grösse haben wir auch für die Abbildungen in diesem Kapitel alle Bewertungen vorgenommen. Zum EWMA-Schätzer siehe auch Seite 143. 3.4 Greeks der EIAs Für den Wert des PEMG der verschiedenen EIA-Verträge betrachten wir nun die Greeks - für eine Einmalprämie von einer Geldeinheit (P = 1). Und zwar - wie nun schon mehrmals betont - betrachten wir hierzu partielle Ableitungen von e 92 r⌧ EQ [R] G anstelle von e r⌧ EQ [(R G)+ ] - ausser im PTP-Fall, dort haben wir ja den exak- ten Wert. Da diese Ableitungen zum Teil seitenlang würden, geben wir sie nicht alle explizit an, bieten dafür graphische Darstellungen von ihrem Verlauf; der Computer rechnet die entsprechenden Werte mit Hilfe des R-Pakets numDeriv schnell und genau für uns aus. Wie immer in diesem Text bezeichne ⌧ die Restlaufzeit T t. Bei allen EIAs ähnlich ist das Verhalten von rho und vega. Je näher der Abschlusstermin rückt, umso kleiner sind sie. Denn r und sind reine Bewertungsgrössen - anders als S spielen sie für die “Schlussabrechnung” zur Zeit T keine Rolle mehr. Anders das delta: Kurz vor Ende, aber auch vor jedem Ratchet- bzw. Monitordatum steigt es jeweils stark an - falls die Indexierungsmethode für das jeweilige Ratchetbzw. Monitorintervall werthaltig ist, denn dann ist das Verhalten des Indexkurses entscheidend. Ist der Indexwert zu einem solchen Zeitpunkt tief im Vergleich zum letzten Ratchettermin bzw. im Vergleich zu den letzten Monitordaten, das heisst, kommt die Indexierungsmethode aller Wahrscheinlichkeit nach für das laufende Intervall nicht zur Anwendung, dann ist delta sehr klein, fast null. vega ist immer positiv, denn je unsicherer die Zukunft, umso höher der Preis. rho ist tendentiell negativ, kann aber auch positiv sein und verschwindet gegen Ende der Laufzeit zusammen mit vega. Greeks der Point To Point EIA Mit Proposition 3 auf Seite 31 und unter Verwendung der entsprechenden GreekFormeln für die Calloption erhalten wir die partiellen Ableitungen von für die PTPIndexierung leicht: Proposition 11. Für den Wert der PTP-Indexierungsmethode zum Zeitpunkt t ⇥ ⇤ vPTP (t) := e r⌧ E Q (RP T P )+ ergeben sich folgende Sensitivitäten: d v(t) dSt d gammaP T P (t) = (t) dSt d rhoP T P (t) = v(t) dr d vegaP T P (t) = v(t) d deltaP T P (t) = 93 ↵ (d1 ) S0 ↵ (d1 ) p = S0 ⌧ St ↵ = (d1 )K⌧ e S0 p ↵ = St (d1 ) ⌧ S0 = r⌧ (d2 ) Hier ist S0 (G (1 ↵)) ↵ log SKt + r1,2 ⌧ p = ⌧ K = d1,2 Beweis. Die PTP-Indexierung können wir mit K wie oben definiert schreiben als ↵ S0 · c(⌧, St K). Setzt man die entsprechenden partiellen Ableitungen des Calloptionwertes ein, ergeben sich die Formeln in der Proposition. Auf eine Graphik wird hier verzichtet. Die Bilder entsprechen skaliert genau denjenigen von den Calloptionen auf Seite 77. Greeks der Compound Ratchet EIA Hier stellen wir das delta und das gamma analytisch dar. Proposition 12. Für den Wert der Compound Ratchet Indexierung vCR (t) := e r⌧ EQ t [RCR ] ergeben sich für t 2 [ti0 1 , ti0 ) folgende Sensitivitäten: deltaCR = d vCR dSt = e · gammaCR r(T ti0 ) iY 0 1 i=1 ↵ 1 (d1 ) · 1 + ↵er St i0 1 ✓ St i 1+↵ St i 1 1 d2 = vCR dSt2 = e · i=1 c( ↵ wo d1 := 1 log St /Sti0 1 + r1 (ti0 p ti0 t . 94 N , 1, 1) N i0 ◆+ ! (d1 ) p · 1 + ↵er St i0 1 St t i 0 t ✓ ◆+ ! St i 1+↵ 1 , St i 1 r(T ti0 ) iY 0 1 N t) N c( N , 1, 1) N i0 Beweis. Die Formeln finden wir durch einfaches Ableiten der dritten Formel in Proposition 4. Diese Bewertung sei hier nochmals wiederholt: vCR (t) = e r(T t) 1 + ↵er(ti0 · 1+↵·e r N c( t) c ti0 t, !! ,1 St i 0 1 iY 0 1✓ ↵ · 1+ St i S t i 1 i=1 N i0 N , 1, 1) St St i + 1 ◆ für t 2 [ti0 1 , ti0 ). Die einzige Frage ist, welche Terme wir eigentlich ableiten müssen! Was ist mit diesen c( , 1, 1)? Das sind Calloptionwerte, die doch vom Underlying abhängen, oder? Müssen wir diese Terme also nach S formal ableiten? Nein! Diese Ausdrücke sind konstant in der Zeit. Auch eine Sekunde später wird hier immer dieselbe Zahl stehen. Oder intuitiver: Die c( , 1, 1)-Terme bewerten Returns in Ratchetintervallen, welche noch gar nicht begonnen haben. Für deren Bewertung spielt der Zinssatz oder die Volatilität wohl eine Rolle, der aktuelle Wert des Underlying aber sicher nicht. Der einzige Term, um den wir uns zu kümmern brauchen, ist also c ti0 t, St St i 0 ! ,1 . 1 Wir verwenden, dass für die Calloptionformel (siehe Seite 77) gilt 1 c(⌧, S, K). K c(⌧, S/K, 1) = Und also gilt formal d c ti0 dSt t, St St i 0 ,1 1 ! = 1 St i0 deltac (ti0 t, St , Sti0 1 ) 1 und entsprechend d2 c ti0 dSt2 t, St St i0 ,1 1 ! = 1 St i 0 gammac (ti0 t, St , Sti0 1 ). 1 Einsetzen der Calloption-Sensitivitäten von Seite 76 bringt uns zum Resultat. Auf die analytische Darstellung von vegaCR und rhoCR verzichten wir hier: Die For95 Zinssatz r p.a. 0.040 0.030 r 6000 0.020 4000 2000 500 1000 1500 0 1000 Tage Volatilität sigma p.a. Wert CR-G 1500 1.0 EUR 0.35 0.6 0.25 0.4 0.15 sigma 500 Tage 0.45 0 0.8 Punkte 8000 0.050 Index 0 500 1000 1500 0 Tage 500 1000 1500 Tage Abbildung 19: Die Wertentwicklung von e r(T t) EQ G] mit Laufzeit T = 7 Jahre und t [RCR N =14 Ratchetterminen in einem historischen Marktumfeld. Die vertikalen punktierten Linien entsprechen den Ratchetdaten. Es lässt sich hier gut beobachten, wie der CR-Wert auf die Volatilität reagiert. meln werden ungefähr viermal so lang wie diejenigen in der Proposition. Stattdessen kann man in Abbildung 20 einen beispielhaften Verlauf betrachten. In den Abbildungen 19 und 20 fällt auf, dass der Wert des CR-Vertrags zwar stetig verläuft, aber zumindest das delta, gamma und rho nicht: Jeweils zu den Ratchetterminen gibt es eine Diskontinuität. Das macht Sinn, denn hier werden die Karten für das neue Ratchetintervall neu gemischt. Greeks der Simple Ratchet EIA Im Fall der Simple Ratchet EIAs ergeben sich die Sensitivitäten wegen der additiven Struktur der Bewertungsformeln (siehe Seite 36) einfacher, und wir geben die GreekFormeln mit Ausnahme von rho explizit an: 96 Gamma CR 0e+00 0e+00 4e-07 2e-04 8e-07 Delta CR 500 1000 1500 0 500 1000 Tage Tage Rho CR Vega CR 1500 0 -1.5 1 -1.0 2 -0.5 3 0.0 0 0 500 1000 1500 0 500 Tage 1000 1500 Tage Abbildung 20: Die betrachteten Sensitivitäten einer CR-EIA mit Laufzeit T = 7 Jahre und N = 14 Ratchetterminen in einem historischen Marktumfeld. Die vertikalen punktierten Linien entsprechen den Ratchetdaten. delta und gamma verhalten sich “Ratchetintervall-weise” ähnlich wie die entsprechenden Calloptiongreeks. rho ist ziemlich klein im Vergleich zu vega (zur Grössenordnung von rho und vega siehe S.74). Proposition 13. Die Greeks der Simple Ratchet Indexierungsmethode für t 2 [ti0 1 , ti0 ) sind: deltaSR (t) = e gammaSR (t) = e vegaSR (t) = e r(T ti0 ) r(T +e St i 0 (d1 ) 1 ↵ (d1 ) ti0 tSti0 1 St ↵(N i0 ) p N) ˜ N (d1 ) S02 p tSt t i0 ) ↵ t i 0 (d1 ) St i 0 1 r(T ti0 ) r(T t ↵ p wobei d1 = d˜1 = log(St /Sti0 1 ) + r1 (ti0 p (ti0 t) p r1 N 2 r1 = r + 2 97 t) Zinssatz p.a. 0.040 0.030 r 6000 0.020 4000 2000 500 1000 1500 0 1000 Tage Tage Volatilität p.a. Wert SR-G 1500 0.6 0.45 EUR 0.35 0.4 0.25 0.3 0.15 sigma 500 0.7 0 0.5 Punkte 8000 0.050 Index 0 500 1000 1500 0 500 1000 Tage 1500 Tage Abbildung 21: Die Wertentwicklung einer SR-EIA (genauer (e r⌧ E [RSR G])) mit Laufzeit T = 7 Jahre,Partizipationsrate ↵ = 0.6 und N =14 Ratchetterminen in einem historischen Marktumfeld. Die vertikalen punktierten Linien entsprechen den Ratchetdaten. Beweis. Die Formel, von der wir ableiten, ist vSR (t) = e r(T t) ✓ 1+↵ iP 0 1⇣ i=1 +↵e ⌘+ St i St i 1 r(T r 1 + ↵(N i0 )e ⇣ ⌘ t i0 ) c ti0 t, St St , 1 i0 N c( N , 1, 1) ◆ 1 Wie im CR-Fall überlegen wir uns, dass für delta und gamma nur der letzte Summand eine Rolle spielt, leiten ihn - ebenfalls wie im CR-Fall beschrieben - formal nach St ab und setzen die von Proposition 3.3 bekannten Sensitivitäten einer Calloption ein. Für das vega müssen wir den Term c( N , 1, 1) doch berücksichtigen. In Bezug auf die Volatilität ist er natürlich nicht konstant. Wir ersetzen ihn also mit der entsprechenden vega-Grösse einer Calloption. In den Abbildungen 21 und 22 sind die Ergebnisse zu den SR-Sensitivitäten graphisch beispielhaft dargestellt. Vergleicht man den SR-Wertverlauf mit dem CRWertverlauf von Abbildung 19 fällt wieder ins Auge, dass der CR-Wert stets deutlich über dem SR-Wert liegt. Das ist dem Zinseszinseffekt geschuldet. Umso erstaunlicher, dass in realen Verträgen oftmals nicht ganz klar ist, ob es sich nun um eine Compound oder eine Simple Ratchet Indexierung handelt! 98 Gamma SR 2e-07 0e+00 500 1000 1500 0 500 1000 Tage Tage Rho SR Vega SR 1500 2.0 0 0.0 -1.5 0.5 -1.0 1.0 -0.5 1.5 0.0 0.00000 0.00010 4e-07 0.00020 Delta SR 0 500 1000 1500 0 500 Tage 1000 1500 Tage Abbildung 22: Die Entwicklung der betrachteten Sensitivitäten einer SR-EIA mit Laufzeit T = 7 Jahre und N =14 Ratchetterminen in einem historischen Marktumfeld. Vergleicht man diese Graphiken mit den entsprechenden Abbildungen 19 und 20 zu den CR-EIAs zeigt sich ein recht ähnlicher Verlauf. Im CR-Fall scheinen alle Werte (bis auf rho) einfach “grösser”. Greeks der High Water Mark EIAs Für die diskrete High Water Mark Garantie fanden wir zwar für den Zeitpunkt 0, aber nicht für die fortlaufende Bewertung eine analytische Formel. Für reine Bewertungszwecke demonstrierten wir auf Seite 65, wie wir mittels geschickter Simulation dennoch zu brauchbaren Werten kommen können. Von Funktionen, deren Werte man nur durch Monte Carlo Simulation schätzen kann, (partiell) abzuleiten wäre ein ganzes Thema für sich. Eigene Versuche haben sich als derart Rechenzeitintensiv herausgestellt, dass sie für unsere angestrebten Simulationen unbrauchbar wären. Deshalb schätzen wir die Sensitiviäten mit denjenigen, des auch in dieser Hinsicht einfacheren kontinuierlichen Falles. Auch hier haben wir natürlich wieder im Hinterkopf, dass die so entstehenden systematischen Abweichungen im nächsten Kapitel durch den Risikozuschlag wiederum Eingang in die Bewertung finden. Für die kontinuierlichen HWM Bewertungen sind die partiellen Ableitungen zwar unproblematisch, aber seitenlang. Wir verzichten deshalb hier auf ihre Darstellung und zeigen dafür einige Grafiken zu den HWM-Sensitivitäten. Von der Richtigkeit der Wertentwicklung in Abbildung 23 kann man sich leicht über- 99 Zinssatz p.a. 2000 0.020 4000 0.030 r S 6000 0.040 8000 0.050 Index 500 1000 1500 0 1000 Tage Volatilität p.a. Wert HWM-G 0.6 1500 0.4 0.35 0.25 0.2 0.15 sigma 500 Tage 0.45 0 0 500 1000 1500 0 500 Tage 1000 1500 Tage Abbildung 23: Die Wertentwicklung von e r⌧ EQ G] für eine HWM-EIA mit kontinuierlit [R chem Monitoring mit Laufzeit T = 7 Jahre. Die vertikalen Linien stellen nun einfach die Jahresanfänge dar - zur besseren Vergleichbarkeit der Grafiken. Als Partizipationsrate wurde hier 0.6 gewählt. zeugen: Der Höchststand des Index liegt bei um 8000 Punkten. Gestartet ist er bei etwa 5000 Punkten. Das ergibt einen Return von 8/5=1.6. Nun gibt es wegen der Partizipationsrate ↵ = 0.6 noch einen Abstrich. Der Return von der Indexierungsmethode ist also 1+0.6·0.6 = 1.36. Den Betrag G = ·(1+rg )7 = 0.95·1.037 ⇡ 1.17 der LOC haben wir fix zur Verfügung. So haben wir am Ende eine Verpflichtung von 1.36 1.17 = 0.19 - wie der Endwert in der Grafik. In den Abbildung 24 zeigt sich nun ein anderes Bild als bei den Ratchetgarantien: Alle Greeks sind nun kontinuierlich. 3.5 Hedging-Algorithmus Mit obigen Bewertungen und Sensitivitäten von EIAs, Indextracker, Optionen, VarianzSwaps und Zins-Swaps sind wir nun bereit, um einen delta gamma rho vega- Hedgealgorithmus zu implementieren. Wie eingangs des Kapitels erwähnt, stellen sich trotz der erfolgten Auswahl der Hedgeinstrumente immer noch eine Reihe ganz praktischer Probleme. Darum seien hier einige Vorbemerkungen angebracht: • Unsere Finanzmarktsimulation läuft letztlich tageweise. Entsprechend können wir auch höchstens tageweise hedgen. Das wird aber nur in punktuellen Bei100 2e-08 0e+00 0 500 1000 1500 0 500 1000 Tage Tage Rho kont. HWM Vega kont. HWM 1500 0.0 0.0 0.5 0.5 1.0 1.0 1.5 1.5 2.0 2.0 0.00000 l Gamma kont. HWM 0.00010 Delta kont. HWM 0 500 1000 1500 0 Tage 500 1000 1500 Tage Abbildung 24: Die Entwicklung der betrachteten Sensitivitäten einer HWM-EIA mit kontinuierlichem Monitoring mit Laufzeit T = 7 Jahre bezüglich des Marktumfelds von Abbildung 23. Im letzten Viertel der Laufzeit sind alle Sensitivitäten sehr klein. Die Intuition hierzu ist, dass dann das bisherige Monitor-Maximum bei etwa 8000 Punkten liegt, der Kurswert aber bei 4000. Es ist im Modell derart unwahrscheinlich, dass der Index die 8000 nochmals übertrifft, dass der Wert bereits völlig unempfindlich gegenüber Kurs- oder Volatilitätsänderungen ist. 1.5 0.5 EUR 2.5 Hedgeintervall 21 Tage 0 500 1000 1500 Tage 1.5 0.5 EUR 2.5 Hedgeintervall 7 Tage 0 500 1000 1500 Tage Abbildung 25: Delta-Gamma-Rho-Vega-Hedge einer CR-EIA mit jährlichem Ratcheting (N = 7). Die dicken Linien entsprechen e ⌧ r EQ G]; die dünnen Linien entsprechen dem Wertverlauf t [RCR des Hedgeportfolios. Eine wöchentliche Anpassung des Hedge verbessert in diesem Beispiel die Genauigkeit des Hedge. Typisch ist, dass die Schwierigkeiten fürs Absichern oftmals kurz vor Ratchetdaten beginnen, denn hier können delta und gamma jeweils sehr hohe Werte annehmen. 101 spielen möglich sein. Für oftmaliges Simulieren ist das tägliche Hedging zu langsam. Wir werden das Hedgeportfolio wöchentlich anpassen. • Wir haben es gesehen: Auch wenn die Werte der EIAs “kontinuierlich” in der Zeit sind, die dazugehörigen Sensitivitäten sind es nicht. Gerade um die Ratchet- bzw. Monitordaten herum gibt es teilweise grosse Sprünge. An diesen neuralgischen Daten müssen wir unser Hedgeportfolio also unbedingt anpassen. • Wir gehen davon aus, dass wir das Portfolio täglich liquidieren und neu aufset- zen können. Es stellen sich keine Handelsbeschränkungen, es gibt keine Transaktionskosten und keinen Bid-Ask-Spread ; alle Produkte sind beliebig teilbar. • wS , wc , wIRS und wVS bezeichnen die Anteile von Indextracker, Calloption, Interest Rate Swap und Varianz Swap in unserem Hedgeportfolio. Diese Anteile können natürlich auch negativ sein. Das bedeutet, wir sind “short” das betreffende Produkt. • Der Verleih- und der Schuldzins sind gleich; die Zinskurve ist konstant, das heisst der Zinssatz hängt nicht von der Verleihdauer ab. • Jede Woche startet eine neue Calloption (mit Strike gerade dem aktuellen Indexwert), ein neuer IRS und ein neuer VS. Alle drei Produkte haben jeweils ein Jahr Laufzeit. Solange halten wir sie aber nicht. Bereits in der nächsten Woche liquidieren wir das gesamte Portfolio und setzen es ganz neu auf. Dies vor allem aus programmiertechnischen Gründen. Dieses Vorgehen hat aber auch den Vorteil, dass anfangs der Laufzeit die Greeks der Hedgeinstrumente schön “gross” sind27 . Nun gehen wir so vor: Zum Zeitpunkt 0 und dann zu jedem weiteren (wöchentlichen) Hedgezeitpunkt stellen wir das Portfolio so auf, dass seine Sensitivitäten genau denen unserer Garantie entsprechen. Wir haben also zu jedem Hedgezeitpunkt h0 < h1 < ... folgendes inhomogene Gleichungssystem zu lösen (die Greeks, die verschwinden, sind 27 Werden einzelne Greeks zu klein, kann das Hedgeportfolio quasi explodieren. Zum Beispiel gamma: Nur die Calloption hat ein gamma 6= 0. Gegen Ende der Laufzeit kann dieses gamma sehr klein, fast null werden, was zu einer riesigen Calloption-Position führt, die die anderen Greeks ebenfalls in abnorme Höhen treibt. 102 0.8 Werte 0.4 500 1000 1500 0 500 1000 Tage Delta-Gamma-Rho-Hedge Delta-Gamma-Rho-Vega-Hedge 1500 0.8 Werte 0.4 0.6 0.4 0.6 0.8 1.0 Tage 1.0 0 Werte 0.6 0.8 0.6 0.4 Werte 1.0 Delta-Gamma-Hedge 1.0 Delta-Hedge 0 500 1000 1500 0 Tage 500 1000 1500 Tage Abbildung 26: Beispielhafte Wertverläufe des ungefähren PEMG einer SR-Indexierung (fette Linie), das heisst e r⌧ EQ G], zusammen mit dem Wert des Hedgeportfolios vor einem t [REIA historischen Markthintergrund mit ↵ = 0.7. Der Effekt der zusätzlichen Hedgeinstrumente ist nicht zu übersehen. Auch hier kann man wiederum beobachten, dass Hedgefehler gerne kurz vor den Ratchetdaten ihren Ursprung haben. hier bereits weggelassen): 8 > > wS deltaS +wc deltac +wVS deltaVS > > > > > > <wc gammac +wVS deltaVS > > > wc rhoc +wVS rhoVS +wIRS rhoIRS > > > > > :w vega +w vega c c VS VS = deltaEIA = gammaEIA = rhoEIA = vegaEIA Wir erinnern daran, dass wir das delta und das gamma des Varianzswaps gleich null setzten - siehe dazu die Fussnote auf Seite 91. Und so lässt sich obiges Gleichunssystem leicht auflösen. Das richtige Portfolio zu jedem Hedgezeitpunkt können wir als einfache explizite Funktionen der Sensitivitäten der Hedgeinstrumente und der EIAs darstellen. deltaS ersetzen wir gleich mit 1. 103 Das Hedgeportfolio wS = deltaEIA wc deltac gammaEIA wc = gammac ✓ ◆ 1 rhoVS wIRS = rhoEIA wc rhoc (vegaEIA wc rhoc ) rhoIRS vegaVS 1 wVS = (vegaEIA wc vegac ) vegaVS Zusammen mit den in diesem Kapitel vorgestellten Formeln für die verschiedenen Sensitivitäten der Hedgeinstrumente und für die Greeks der EIAs wissen wir mit obigem Gleichungssystem für jedes Hedgingdatum, wieviel von welchem Hedginginstrument wir halten sollten. Eine systematische vergleichende Untersuchung vom Einfluss von Hedgeaufwand (das heisst Auswahl der abgesicherten Sensitivitäten oder Anzahl Hedgingdaten) auf die Zuverlässigkeit des Hedge, kann hier nicht gegeben werden. Aber schon die mit dem beschriebenen Algorithmus produzierten Versuche in den Abbildungen 25, 26 und 27 sind aufschlussreich. Sie zeigen das vermutete Bild: Je aufwändiger der Hedge, umso verlässlicher funktioniert er. Es gilt also abzuwägen zwischen Genauigkeit und Aufwand. In der Praxis heisst Aufwand Transaktions- und Verwaltungskosten. In unserem Fall heisst Aufwand Rechendauer. Wir beschränken uns also auf die vier vorgestellten Hedginginstrumente und auf das wöchentliche Hedging. Im nächsten Kapitel werden wir versuchen, die verschiedenen Indexierungsmethoden so absichern. Aus der simulierten Verlustverteilung dieses Vorgehens erhalten wir die Risikozuschläge für die definitive Bewertung der EIAs. 104 Delta-Gamma-Hedge 60 40 Häufigkeit 0 -0.1 0.0 0.1 0.2 -0.2 -0.1 0.0 0.1 Fehler Fehler Delta-Gamma-Rho-Hedge Delta-Gamma-Rho-Vega-Hedge 0.2 100 Häufigkeit 40 0 20 0 50 60 150 80 -0.2 Häufigkeit 20 40 30 20 0 10 Häufigkeit 50 Delta-Hedge -0.2 -0.1 0.0 0.1 0.2 -0.2 -0.1 Fehler 0.0 0.1 0.2 Fehler Abbildung 27: Jeweils fünfhundert Mal wurde hier unter dem im nächsten Kapitel vorgestellten Finanzmarktmodell (FM) der Hedge der PEMG einer PTP-EIA mit Partizipationsrate ↵ = 0.8 simuliert. Je mehr Sensitivitäten wir berücksichtigen, desto kleiner wird die Streuung des Fehlers. Die meiste Verbesserung bringt nach diesen Histogrammen der vega-Hedge, also das Absichern gegen die Volatilitätsschwankungen. 4 Bewertung 2: Risikozuschlag Im vorigen Kapitel haben wir einen Hedgingalgorithmus vorgestellt. Dieser leitete sich letztlich aus dem BSM-Modell ab. Dabei wurde vielfach auf eigentlich falsche oder zumindest ungenaue Annahmen hingewiesen. Einige dieser Fehlerquellen sind: • Modellfehler – Markt ist nicht kontinuierlich. – Log-Returns sind nicht normalverteilt. – “iid”-Annahme der Log-Returns ist falsch. • Hedgingfehler – Transaktionskosten schränken den Handel ein. – Handel ist nur diskret möglich. • Bewertungsapproximation: Beim Bewerten und beim Bilden der Greeks des PEMG betrachteten wir ausser im PTP-Fall jeweils (R G)+ 105 G) anstelle von (R Diese Fehler sind der Preis für eine analytische Lösung. Im folgenden Kapitel wollen wir nun den Effekt dieser falschen Annahmen mittels Simulationen unter deutlich realistischeren Modellannahmen untersuchen. Drei wichtige Bemerkungen vorab: • In diesem Kapitel arbeiten wir nur noch unter dem “physikalischen” Wahrscheinlichkeitsmass P. • Die betrachteten Modelle sind nun diskrete Modelle: Wir betrachten jeweils die Tagesendstände des Index. Um dies auch symbolisch anzudeuten, indizieren wir alle Prozesse nun mit k, nicht mehr mit t. • Alle Parameter (ausser r) verstehen sich nun als tägliche Angaben. Td := 252·T bezeichne nun die Laufzeit in Tagen. An einigen wenigen Stellen werden wir aus Platzgründen auch für die Laufzeit in Tagen einfach T schreiben. Wir betrachten ein Finanzmarktmodell, in dem sowohl die Volatilität als auch der Zinssatz stochastisch abgebildet werden. Gerade bei derart langfristigen Verträgen ist alles andere unrealistisch. Wir nehmen hier an, dass der Indexverlauf einem Regime-Switching-Log-Normal-Modell folgt und der Zinssatz einem Cox-IngersollRoss-Modell. Was dies bedeutet und wie wir die Modelle kalibrieren wird in diesem Kapitel genau erklärt. Gleich an dieser Stelle sei aber ein erster Überblick geboten: Unser Finanzmarktmodell hat zwei Outputs, den Indexprozess (Sk )k=0,1,...,Td und den Prozess der Zinssätze (rk )k=0,1,...,Td . Beide Prozesse werden von (korrellierten) Brown’schen Bewegungen angetrieben, W 1 und W 2 ; eine dritte Zufallsquelle ist eine Markovkette (⇢)k=0,1,...,Td log ✓ 1 Sk Sk 1 rk+1 (⇢k )k=1,2,...,Td - sie steuert die Volatilität: ◆ = µ⇢k 1 + rk = (µr Wk1 p rk ) + r rk Wk2 ⇢k 1 Markovkette auf {1, 2}; nach ihrem Zustand bestimmen sich die Parameter µ1,2 und Wki :=Wki Wki 1 , t = 1, 1, ..., Td 106 1,2 Für die Kalibration des Modells verwenden wir Daten aus dem Zeitreihenservice der Deutschen Bundesbank. Zunächst betrachten wir Maximum-Likelihood-Techniken. Letztlich werden wir aber mit einem Bayes’schen Ansatz für jede Simulation von neuem plausible Parameter erzeugen mittels Markovketten-Monte-Carlo. 4.1 Regime Switching Log Normal Modell Wie beim BSM-Modell (manchmal schreiben wir hierfür auch LN-Modell) nimmt man auch beim Regime Switching Log Normal Modell (RSLN-Modell) an, dass die Logreturns normalverteilt sind. Wie weiter oben bereits erwähnt, ist einer der Abstriche, die man im BSM-Rahmen machen muss, dass die in Zeitreihen beobachtbare Häufung von im absoluten Sinne grossen Werten (sogenanntes “VolatilitätsClustering”) nicht entsprechend im Modell abgebildet wird (siehe Abbildung 28. Diesem Umstand versuchen Modelle mit stochastischer Volatilität Rechnung zu tragen. Ausgehend von dem Standardmodell mit konstanten Parametern dS = µdt + dWt S wird t stochastisch modelliert (z.B. Heston-Modell oder GARCH-Modelle, siehe dazu etwa [7]). In dieser Arbeit beschränken wir uns auf die denkbar einfache Methode eines Modells mit nur zwei Volatilitätszuständen, sogenannten “Regimes”. In dem Monograph von Hardy [12] werden Indizes auf vielerlei Arten modelliert, und die Resultate werden verglichen. Die RSLN-Methode mit zwei Regimes schneidet dort am besten ab. Wie zuvor nehmen wir an, dass tägliche28 Log-Returns Y normalverteilt sind. Allerdings nicht jeden Tag gleich. An manchen Tagen ist Y nach N (µ1 , chen nach N (µ2 , 2 2) 2 1 ), an man- verteilt. Gesteuert wird die Wahl durch eine Markovkette 28 Von Anfang an betrachten wir hier also ein diskretes Modell, denn das Ziel ist nun Simulation und das können wir natürlich nur diskret. Das Betrachten täglicher Daten scheint ein naheliegender Kompromiss zwischen möglichst “kontinuierlich” und doch noch “berechenbar”. 107 -0.05 0.00 0.05 0.10 Tägliche Logreturns 0 500 1000 1500 Tage Abbildung 28: 7 Jahre tägliche Logreturns des DAX von Anfang 2003 bis Anfang 2010. Die Voltilitätscluster, etwa Anfang 2003 oder Ende 2008, sind nicht zu übersehen. (⇢k )0kT 2 {1, 2}, mit homogenen Übergangswahrscheinlichkeiten p1,2 := P [⇢k = 2|⇢k 1 = 1] bzw. p2,1 := P [⇢k = 1|⇢k 1 = 2] Insgesamt hat das RSLN-Modell also 6 Parameter: µ1 , 1 , p1,2 , µ1 , 2 , p2,1 Man beachte, dass die Erwartungswerte und Standardabweichungen sich nun auf tägliche Werte beziehen, nicht wie bisher auf jährliche. Wie sich herausstellen wird, ist die Kalibration des RSLN-Modells alles andere als trivial. Um dennoch sofort eine Gefühl für ihre Grössenordnung zu bekommen und um ausserdem eine erste exemplarische Simulation produzieren zu können, schätzen wir die Parameter in einem ersten Schritt mehr oder weniger nach Gutdünken: Wir betrachten dazu die Logreturns in Abbildung 28 und ordnen die Tage nach blossem Auge blockweise den Regimes zu. Regime 1 sei das “extreme” Regime mit hoher Volatilität und Regime 2 entsprechend das Regime mit niedriger Volatilität. Die empirischen Momente der dem ersten Regime zugeordneten Blöcke verwenden 108 Historischer Indexverlauf 6000 -0.05 12000 0.05 18000 Historische Logreturns 0 500 1000 1500 0 1000 1500 LN-Modell Indexverlauf 6000 -0.04 0.00 10000 0.04 14000 LN-Modell Logreturns 500 0 500 1000 1500 0 1000 1500 RSLN-Modell Indexverlauf -0.08 -0.02 2000 4000 6000 0.04 RSLN-Modell Logreturns 500 0 500 1000 1500 0 500 1000 1500 Abbildung 29: Jeweils sieben Jahre täglicher Daten. Sowohl in den historischen Daten, als auch in der Realisation des RSLN-Modells können wir bei den Logreturns deutlich das sogenannte Volatilitätsclustering erkennen. Im reinen LN-Modell (ohne Regimes) wird dieser Effekt nicht abgebildet. 109 ACF 0.0 0.4 0.8 Autokorrelation der historische Logreturns 0 10 20 30 40 50 40 50 40 50 Lag ACF 0.0 0.4 0.8 Autokorrelation der LN-Logreturns 0 10 20 30 Lag ACF 0.0 0.4 0.8 Autokorrelation der RSLN-Logreturns 0 10 20 30 Lag Abbildung 30: Die Autokorrelationsfunktionen der Zeitreihen von Abbildung 29. Die RSLNRealisation imitiert das Verhalten der historischen Daten sehr gut. wir als Schätzer für µ1 und 1 und analog finden wir Schätzer für µ2 und 2. Auf diese - natürlich rein illustrative und wenig wissenschaftliche - Weise erhalten wir µ̂1 ⇡ 0.0030 ( 0.75 p. a.) ˆ1 ⇡ 0.0353 (⇡ 0.56 p. a.) µ̂2 ⇡ 0.0004 (0.10 p. a.) ˆ2 ⇡ 0.0140 (⇡ 0.22 p. a.). Als durchschnittliche Regime 1 - Blocklänge ergibt sich etwa 20 Tage; als durchschnittliche Regime 2 - Blocklänge etwa 100 Tage. Da die Regime-Längen geometrisch verteilt sind mit Parametern p1,2 bzw. p2,1 können wir diese plausibel schätzen mit p̂1,2 = 1 1 = 0.01 bzw. p̂2,1 = = 0.05. 100 20 Mit diesen sechs Schätzern können wir nun Indexverläufe vom RSLN-Modell simulieren. Die Ergebnisse sind deutlich realistischer als mit dem BSM-Modell. Im 110 Vergleich sehen wir in Abbildung 29 jeweils sieben Jahre Werte und Logreturns des historischen DAX, dann einer Simulation erzeugt mit konstanter Volatilität und Drift (verwendet werden hier einfach die empirischen Momente von den Daten aus Abbildung 28) und zuletzt eine Simulation erzeugt mit dem RSLN-Modells mit obigen naiven Schätzern. Die Regimes sind schön zu erkennen. Vielleicht gibt es in dieser Realisation gar zu viele? Aber das ist eine Frage der Kalibration. Ausser Frage steht, dass wir dem historischen Bild qualitativ näher kommen als durch das einfache LN-Modell. Die Bilder machen auch deutlich, dass die Log-Returns Yk im RSLN-Modell natürlich nicht mehr unabhängig sind: Ist Yk2 gross, sind wir wahrscheinlich im Regime 2 mit hoher Volatilität und damit wird auch Yk+1 eher gross sein. Etwas akademischer kommt das in den Bildern zur Autokorrelation (Abbildung 30) zum Ausdruck. Wir halten also fest: Die Log-Returns im RSLN-Modell sind nicht unabhängig. Jedoch sind sie immer noch stationär, wenn wir die Startverteilung für die Markovkette entsprechend wählen. Mehr darüber im Abschnitt zur Kalibration. 4.2 Cox-Ingersoll-Ross: Stochastische Zinsmodellierung Neben der Volatiltät wollen wir auch den Zinssatz, die Short Rate, stochastisch modellieren. Unter der Short Rate versteht man die Zahl r, so dass wir für die Investition einer Geldeinheit in einer sicheren Anlage über einen infinitisimalen Zeitraum dt als Zins gerade r · dt erhalten. Dieses Objekt ist natürlich ein nicht beobachtbares, theoretisches Konstrukt. Als Annäherung verwenden wir in unseren Bewertungen annualisierte und log-transformierte Zinssätze für Dreimonatsfestgelder. In Abbildung 31 erhält man einen Eindruck von Grössenordnung und Dynamik des risikofreien Zinssatzes. Wir verwenden zur Modellierung das Cox-Ingersoll-Ross (CIR) Modell. Hier folgt die Short-Rate einer auf den ersten Blick ähnlichen Dynamik wie der Index im BSM-Modell selber: drt = (µr , r rt )dt + r p rt dWt2 und µr sind positive Konstanten. W 2 ist eine Brown’sche Bewegung, korreliert mit der Brown’schen Bewegung W 1 , 111 0.03 0.01 0.02 Zins 0.04 0.05 Dreimonatszinssätze 0 500 1000 1500 Tage Abbildung 31: Täglich aktualisierte Zinsätze für Dreimonatsgelder von Anfang 2003 bis Ende 2009. Der Zinssatz zeigt zunächst ein relativ stabiles Bild um die 3% Marke herum, um dann 2008 auf etwa 5% anzusteigen und dann jäh abzustürzen auf die auch heute, im Frühjahr 2012, noch gültigen Rekordtiefststände. die den Index steuert. Für eine vorgegebene Korrelation % können wir W 2 konstruieren aus W 1 und einem Hilfsprozess W 3 - einer von W 1 unabhängigen Brown’schen Bewegung, indem wir setzen Wt2 := %Wt1 + p 1 %2 Wt3 . Nach der Charakterisierung von Lévy29 ist Wt2 eine Brown’sche Bewegung auf (⌦, F, P) im Sinn von der Fussnote auf Seite 26. Durch einfaches Nachrechnen zeigt man p Cov (Wt1 , Wt2 ) = t%. Der Faktor rt in der stochastischen Differentialgleichung verhindert, dass rt negative Werte annimmt. Die Richtung der Drift wird bestimmt durch das Vorzeichen von (µr rt ). Das heisst, r drängt immer Richtung µr . Wie stark diese sogenannte “Mean Reversion” ist, das bestimmt , der “Relaxationsparameter”. Siehe hierzu auch Abbildung 32. Zum Zweck der Simulation betrachten wir nun die tagesweise diskretisierte Version dieses Modells, also rk rk 1 = (µr rk 1 ) + 29 r p rk 1 (Wk2 Wk2 1 ), Sei M ein stetiges lokales Martingal auf (⌦, F, P), mit M0 = 0 und quadratischer Variation < M >t = t. Dann ist M eine Brown’sche Bewegung auf (⌦, F, P). Siehe Theorem A.10.1 in [20]. 112 Simulierter Zins 0.0285 0.0300 0.0315 kappa=0.05 0 500 1000 1500 1000 1500 1000 1500 0.034 0.030 0.026 Simulierter Zins kappa=0.005 0 500 Simulierter Zins 0.022 0.026 0.030 kappa=0.0005 0 500 Abbildung 32: Dreierlei Simulationen über sieben Jahre vom CIR-Modell zur Verdeutlichung der Mechanik des Relaxionsparameters . Bei allen drei Zeitreihen ist µr = 0.03 und r = 0.001 . für k = 1, ..., Td . Diese Version könnte nun negative Werte annehmen, was aber für eine typische Parameterwahl höchst unwahrscheinlich ist. Nun bemerken wir, dass wir sowohl beim diskreten Indexmodell als auch beim diskreten Zinssatzmodell nur allein die Zuwächse der jeweiligen Brown’schen Bewegung zur Simulation brauchen. Wir ersetzen diese Zuwächse nun einfach durch standardnormalverteilte Zufallsvariablen (Zk1 )k=1,...,T und (Zk2 )k=1,...,T , wobei Cov(Zk1 , Zk2 ) ⌘ % für k = 1, ..., T . Alle übrigen Kombinationen sind unabhängig. Im nächsten Abschnitt fassen wir unser Finanzmarktmodell zusammen. 113 4.3 Finanzmarktmodell Definition 10. Für fixe Startwerte s0 , r0 > 0 definieren wir das tagesweise Finanzmarktmodell (FM): Finanzmarktmodell (FM) 8 ⇢k P > > <Sk = s0 exp (µ⇢i + i=1 > > : rk = r k + (µr 1 1 ⇢i Z i ) rk 1 ) + k = 1, 2, ..., T 0 0 iid Z11 , Z12 , Z21 , Z22 , ..., ZT1d , ZT2d (⇢k )k=0,1,...,Td 1 ⇠ N 2 @0, @ r 2, r rk 1 Zk2 1 ⇢ ⇢ 1 11 AA = Markovkette auf {1, 2} pi,j = P [⇢k = j|⇢k 1, p 1 = i] , für (i, j) 2 {1, 2}2 > 0 µ1,2 2 R µr , > 0 s0 , r0 > 0 Neben den Startwerten s0 , r0 und ⇢0 gilt es für unser Modell einen zehndimensionalen Parametervektor ✓ := (µ1 , 1 , p1,2 , µ1 , 2 , p2,1 , %, , µr , r) zu schätzen. Das ist nicht einfach. Hat man die Parameter und die Startwerte s0 , ⇢0 und r0 aber erst einmal festgelegt, kann man von obigen Formeln leicht simulieren. Da wir in der Regel wohl “ab heute” simulieren, liegt es nahe, für s0 und r0 einfach die aktuellen realen Werte einzusetzen. Den Startwert für die (nicht direkt beobachtbare) Zustandskette der Volatilitäten ⇢0 wählen wir zufällig, unabhängig vom gegenwärtigen Zustand des Finanzmarktes, und zwar mit einer sogenannten 114 d “stationären” Startverteilung, so dass ⇢0 = ⇢k , für k = 1, 2, 3, ..., Td . Denn so (und nur so) ist der Prozess der Log-Returns Y ein stationärer Prozess - was unserer Unwissenheit um den augenblicklichen Zustand des Prozesses am besten ausdrückt. Als Verteilung von ⇢0 wählen wir also die stationäre Verteilung (siehe dazu auch Seite 134 und folgende)von ⇢. Wir suchen also Wahrscheinlichkeiten ⇡1 := P [⇢0 = 1] und ⇡2 := P [⇢0 = 2], so dass ⇡1 p1,1 + ⇡2 p2,1 = ⇡1 ⇡1 p1,2 + ⇡2 p2,2 = ⇡2 . Diese Gleichung hat die Lösung ⇡1 = p2,1 p1,2 bzw. ⇡2 = . p1,2 + p2,1 p1,2 + p2,1 Wie das Kalibrieren des Parameterschätzers funktionieren kann, zeigen wir in den nächsten Abschnitten. 4.4 Kalibrierung: Maximum Likelihood Schätzung Die Kalibration des (FM)-Modells ist ziemlich aufwändig, und das Resultat - eine rekursive Konstruktionsanleitung für die Log-Likelihoodfunktion - ziemlich unübersichtlich. Deshalb behandeln wir hier zunächst das RSLN- und das CIR-Modell jeweils separat, und dann erst das (FM)-Modell. MLE für RSLN Für die erste Demonstration des RSLN-Modells weiter oben schätzten wir den Parametervektor ✓S := (µ1 , 1 , p1,2 , µ2 , 2 , p2,1 ) mehr oder weniger aus dem Bauch heraus. Das geht naürlich systematischer. Wir wählen zunächst eine “Maximum Likelihood Estimation” - Herangehensweise (MLE). MLE bedeutet: Man wählt für ein gegebenes Modell die im Lichte der vorliegenden Daten plausibelsten Parameterwerte als Parameterschätzer. Die MLE ist im RSLN115 Fall nicht einfach, da - wie wir gesehen haben - im Modell die Logreturns nicht unabhängig sind. Darum soll die Berechnung der entsprechende Likelihood-Funktion im folgenden genau gezeigt werden: Gegeben sei also eine Realisation y := (yk )1kTd des stochastischen Prozesses (Yk )1kTd der Logreturns. f✓S : RTd 7! R+ 0 bezeichne die entsprechende Wahrscheinlichkeitsdichte. Der MLE - Denkweise folgend schätzen wir den Parametervektor ✓S für gegebenes y durch ✓ˆSMLE := argmax✓S Ly (✓S ) := argmax✓S f✓S (y1 , ..., yTd ). Ly ist die Likelihood-Funktion gegeben die Daten y. Dieses Maximierungsproblem ist meist - und auch in unserem Fall - handlicher, wenn man statt Ly die logTransformation ly := log(Ly ) betrachtet. ly ist die sogenannte “Log-Likelihood” Funktion. Zu beachten ist hierbei, dass fast sicher Ly (✓) = f✓ (y) > 0 ist (unter der Annahme, dass Y wirklich nach f verteilt ist), sonst hätte y ja gar nicht eintreten können. Fast sicher haben wir also kein Problem mit dem Logarithmus! Im Fall des einfachen LN-Modells ergibt sich durch die Unabhängigkeit der Komponenten die Log-Likelihood-Funktion sehr direkt: ! ⇢ 1 (yk µ)2 p lLN (µ, ) = log exp 2 2 2⇡ k=1 ✓ ⇢ ◆ Td X 1 (yk µ)2 = log p exp 2 2 2⇡ k=1 ✓ ◆ X Td 1 (yk µ)2 = Td log p 2 2 2⇡ k=1 Td ✓ log(2⇡) 1X yk = Td Td log( ) 2 2 k=1 Td Y 116 µ ◆2 Setzt man nun die partiellen Ableitungen nach µ und gleich null, erhält man als Parameterschätzungen die wenig überraschenden Grössen µ̂ MLE und ˆ MLE = Td 1 X = yk Td k=1 v u Td uP u (yk t k=1 µ̂MLE )2 Td . Die entsprechenden Schätzer für den Parametervektor ✓S des RSLN-Modell zu finden, ist deutlich aufwändiger. Im folgenden halten wir uns an eine Idee aus Hardy [12], führen die dort präsentierten Gedanken detailliert aus und erweitern sie im folgenden auf das zusätzliche stochastische Zinsmodell. Nun ist die Dichte der Zeitreihe nicht mehr Produkt der Randdichten. Um dennoch eine Produktdarstellung der Likelihood-Funktion (bzw. eine Summendarstellung der Log-Likelihood-Funktion) zu erhalten, schreiben wir zunächst durch iteratives Anwenden der Regel “f (x, y) = fX (x|y)fY (y)” die Likelihood-Funktion folgendermassen um 30 : Ly (✓S ) = f✓S (y1 , ..., yTd ) = f✓S (yTd |y1 , ..., yTd 1 )f✓S (y1 , ..., yTd 1 ) = f✓S (yTd |y1 , ..., yTd 1 )f✓S (yTd 1 |y1 ..., yTd 2 )f✓S (y1 ..., yTd 2 ) = etc. = f✓ (yTd |y1 , ..., yTd 1 )f✓S (yTd 1 |y1 ..., yTd 2 ) · ... · f✓S (y1 ) Wie üblich, vereinfachen wir L durch eine Logtransformation und erhalten so ly (✓S ) := log f✓S (y1 ) + Td X k=2 log f✓S (yk |y1 , y2 , ..., yk 1 ). Führt man sich nochmals die Mechanik des RSLN-Modells vor das innere Auge, 30 Achtung: f✓S wird hier aus Gründen der Übersichtlichkeit “generisch” für fY , f(Y1 ,...,Yk ) , f(Yk ) , usw. verwendet: Die Dimension des Arguments bestimmt, welche Dichte gemeint ist. Die Dimension des Arguments reicht wegen der Stationärität, (i.e. f(Y1 ,...,Yn ) ⌘ f(Yk+1 ,Yk+2 ,...,Yk+n ) für k = 1, 2, ..., Td n) zur Wohldefiniertheit dieser Schreibweise aus. 117 merkt man schnell, dass diese Summanden nicht ohne weiteres berechenbar sind; zu diffus sind die Abhängigkeiten. Um fortfahren zu können, verwenden wir einen Trick aus einer Veröffentlichung von Hamilton und Susmel von 1994 [13]. Ziel ist eine rekursive Darstellung der Summanden. Zunächst führen wir für k = 1, ..., Td und l = 0, ..., Td und A 2 (⇢k : k = 1, 2, ..., Td ) (zum Beispiel A = {⇢k = 1}) folgende Schreibweise ein: d P✓ [Y1 y1 , ..., Yk yk , A] dy1 ...dyk S f✓ (y1 , y2 , ..., yk ; A) := Und entsprechend setzen wir für A, B 2 {⇢k = 1} und B = {⇢k 1 (⇢k : k = 1, 2, ..., Td ) (zum Beispiel A = = 2}) mit f✓S (y1 , ..., yk ; B) > 0 setzen wir f✓ (yk+1 , ..., yk+l ; A|y1 , ..., yk ; B) := f✓S (y1 , ..., yk+l ; A \ B) f✓S (y1 , ..., yk ; B) Insbesondere ist f✓S (A) einfach P✓S [A], zum Beispiel f✓S (⇢0 = 1) = P✓S [⇢0 = 1]. So erhalten wir für den ersten Summanden (ohne log) f✓S (y1 ) = f✓S (y1 ; ⇢1 = 1) + f✓S (y1 ; ⇢1 = 2) = P [⇢1 = 1] f✓S (y1 |⇢1 = 1) + P [⇢1 = 2] f✓S (y1 |⇢1 = 2) = P [⇢1 = 1] fN (µ1 , = ⇡1 p1,1 fN (µ1 , 2 1) +⇡1 p1,2 fN (µ2 , 2 1) (y1 ) + P [⇢1 = 2] fN (µ2 , (y1 ) + ⇡2 p2,1 fN (µ1 , 2 2) 2 1) (y1 ) + ⇡1 p2,2 fN (µ2 , 2 2) (y1 ) (y1 ) 2 2) (y1 ). Das können wir für gegebene Parameterwerte einfach ausrechnen. Denn (⇡i )i=1,2 ) bezeichnet die gewählte stationäre Startverteilung der Markovkette (siehe Seite 4.3), pi,j Übergangswahrscheinlichkeiten und fN (µi , 2 i) bezeichnet eine entsprechen- de Normaldichte. Die übrigen Summenden der ly -Funktion, wiederum exponiert, 118 alsof✓S (yk |y1 , ..., yk 1 ), schreiben wir für 2 k N etwas umständlich: f (yk |y1 , ..., yk 1 ) = X f✓S (yk ; ⇢k = i, ⇢k (i,j)2{1,2} 1 = j|y1 , ..., yk 1 ) 2 Für diese vier Summanden lässt sich nun eine rekursive Darstellung finden31 : f✓S (yk ; ⇢k = i, ⇢k 1 = j|y1 , ..., yk 1 ) = f✓S (yk |y1 , ..., yk 1 ; ⇢k = i, ⇢k 1 = j, )f✓S (⇢k = i, ⇢k = fN (µi , 2 i) (yk )f✓S (⇢k = i, ⇢k = fN (µi , 2 i) (yk )f✓S (⇢k = i|y1 , ..., yk 1 ; ⇢k = fN (µi , 2 i) (yk ) pj,i f✓S (⇢k 1 1 1 = j|y1 , ..., yk 1 ) = j|y1 , ..., yk 1 ) 1 = j)f✓S (⇢k 1 = j|y1 , ..., yk 1 ) = j|y1 , ..., yk 1 ) Die ersten beiden Faktoren sind explizite Funktionen von ✓S . Der dritte und letzte Faktor ist der Schlüssel zur Rekursion, denn für k = 2 finden wir f✓S (⇢k 1 = j|y1 , ..., yk 1 ) = f✓S (⇢1 = j|y1 ) f✓S (⇢1 = j) f✓S (y1 ) ⇡1 p1,j + ⇡2 p2,j , 2 (y1 ) j) f✓S (y1 ) = f✓S (y1 ; ⇢1 = j) = f N ( µj , wobei f✓S (y1 ) weiter oben bereits explizit berechnet wurde, und für k f✓S (⇢k 1 = j|y1 , ..., yk 1 ) = = 2 X l=1 2 X l=1 f✓S (⇢k 1 = j, ⇢k 2 3 = l|y1 , ..., yk 1 ) f✓S (yk 1 ; ⇢k 1 = j, ⇢k 2 = l|y1 , ..., yk 2 ) . f✓S (yk 1 |y1 , ..., yk 2 ) Den Zähler dieser Summanden erhalten wir von obiger Rekursion. Also gilt für k f✓S (⇢k 1 = j|y1 , ..., yk 1 ) = 2 X fN (µj , 2 j) l=1 31 (yk 1 ) pl,j f✓S (⇢k 2 = l|y1 , ..., yk 2 ) f✓S (yk 1 |y1 , ..., yk 2 ) In dieser Rechnung wird wiederholt und vielleicht etwas versteckt verwendet, dass “P (A \ B|C) = P (A|B \ C)P (B|C)00 119 3 All diese Überlegungen zusammenfassend erhalten wir folgende Proposition: Proposition 14. Für die Log-Likelihood-Funktion l des RSLN-Modells bei gegebenen täglichen Logreturn-Daten (y1 , ..., yTd ) , l(✓S ) = log f✓S (y1 ) + Td X k=2 log f✓S (yk |y1 , y2 , ..., yk 1 ), gilt für die (exponierten) Summanden folgende Rekursion: 8 > > > <f✓S (y1 ) = P (i,j)2{1,2}2 ⇡i pi,j fN (µj , > > > :f✓S (yk |y1 , y2 , ..., yk 1 ) = 1 (y1 ) P (i,j)2{1,2}2 wobei wir die Terme f✓S (⇢k f✓S (⇢k 2 j) 1 fN (µi , 2 i) (yk ) pj,i f✓S (⇢k = j|y1 , ..., yk 1 ) für k = j|y1 , ..., yk 1 ) = 2 X fN (µj , 2 j) l=1 1 = j|y1 , ..., yk 1 ), k 3 umformen zu (yk 1 ) pl,j f✓S (⇢k 2 = l|y1 , ..., yk 2 ) f✓ (yk 1 |y1 , ..., yk 2 ) und für k = 2 zu f✓S (⇢1 = j|y1 ) = fN (µj , 2 ) (y1 ) j ⇡1 p1,j + ⇡2 p2,j f✓ (y1 ) mit ⇡1 = p2,1 p1,2 bzw. ⇡2 = . p1,2 + p2,1 p1,2 + p2,1 So lässt sich die Log-Likelihood Function ly also berechnen. Eine analytische Lösung für diese Funktion - geschweige denn von ihrer Maximierung - scheint es nicht zu geben. Wir programmieren die Rekursion für ly und maximieren numerisch. In Abbildung 33 finden sich drei Beispiele von historischen Zeitreihen samt dem MLE- Parameter-Schätzer, den der Algorithmus für sie berechnet. Die Übergangswahrscheinlichkeiten ergeben sich in der Regel so, dass die Phasen mit niedriger Volatilität im Mittel etwa drei- bis sechsmal länger sind als diejenigen mit hoher Volatilität. Es ist auffällig, dass die Drift während des Regimes mit hoher Volatilität immer negativ ist. Und wie extrem die Drift jeweils ist! Betrachtet man diese Werte könnte man genausogut von einem positiven und einem negativen “Driftregime” wie 120 2, -0.10 0.00 0.10 Tägliche Logreturns des DAX von Anfang 1991 bis Ende 1997 0 500 1000 1500 MLE: mu1=-0.0030 (-77%), sigma1=0.0235 (37%), p12=0.0187 (53), mu2=0.0013 (35%), sigma2= 0.0014 (15%), p21=0.0070 (143) -0.10 0.00 0.10 Tägliche Logreturns des DAX von Anfang 1998 bis Ende 2004 0 500 1000 1500 MLE: mu1=-0.0010 (-25%), sigma1=0.0267 (42%), p12=0.0159 (62), mu2=0.0003 (9%), sigma2=0.0123 (19%), p21=0.0061 (163) -0.10 0.00 0.10 Tägliche Logreturns des DAX von Anfang 2004 bis Ende 2010 0 500 1000 1500 MLE: mu1=-0.0020 (-50%), sigma1=0.0249 (39%), p12=0.0220 (45), mu2=0.0008 (20%), sigma2=0.0095 (15%), p21=0.0050 (200) Abbildung 33: Von dreierlei Datensätzen wurde hier die Loglikelihoodfunktion mit Proposition 14 berechnet und numerisch maximiert. Unter den Graphiken finden wir die entsprechenden Parameterschätzer. In Klammern stehen jeweils die annualisierten Werte der Parameter, bzw. bei den Übergangswahrscheinlichkeiten die mittlere Regimedauer in Tagen. 121 von Volatilitätsregimes sprechen. Dieser Wechsel scheint genauso wichtig, wie derjenige der Volatilitäten. Die abnormal hohen Driftwerte lassen den Leser jedenfalls sofort Fehler in der Kalibrierung vermuten. Im ersten abgebildeten Beispiel lesen wir etwa von -77% bzw. +35% per anno! Gewichtet man diese Regime-weisen Driftparameter mit ihrer mittleren Geltungsdauer von 53 bzw. 143 Tagen ergibt sich aber gerade ein durchschnittlicher Return in der gewohnten Grössenordnung: 53 143 ( 0.77) + 0.35 ⇡ 4.7% p. a. 53 + 143 53 + 143 MLE und CIR Für die MLE-Parameterschätzung im CIR-Modell gehen wir sehr ähnlich vor wie im vorigen Abschnitt bei der entsprechenden Rechnung für das RSLN-Modell. Weil nun aber die Volatilität-Regimes wegfallen, ist die Arbeit einfacher. Schätzen wollen wir nun ✓r = (µr , r , ) . Vom Modell auf Seite 114 wissen wir, dass für k = 1, ..., Td rk |rk 1 ⇠ N (1 )rk 1 + µr , 2 r rk 1 . Sei g✓r nun die Dichte von (r1 , ..., rTd ). r0 sei fix gegeben. Wieder schreiben wir diese gemeinsame Dichte als Produkt von bedingten (Rand-) Dichten und wieder verwenden wir g✓r als “generisches” Symbol: g✓r (r1 , ..., rTd ) = g✓r (rTd |r1 , ..., rTd 1 )g✓r (rTd 1 |r1 , ..., rTd 2 ) · · · g✓r (r1 ) Die Verteilung von rk hängt ja offenbar nur von rk 1 ab. So können wir also schreiben g✓r (r1 , ..., rTd ) = g✓r (rTd |rTd 1 )g✓r (rTd 1 |rTd 2 ) · · · g✓r (r1 ) ⇢ Td Y 1 (rk (1 )rk 1 µr )2 / exp p 2 r2 rk 1 r rk 1 k=1 ( T ) T d d X 1 (rk (1 )rk 1 µr )2 Y 1 = exp p Td 2 r2 rk 1 rk r k=1 k=1 122 . 1 Wieder betrachten wir die (unnormierte) Log-Transformierte der Dichte: lr (✓r ) := Td log Td X (rk r (1 k=1 )rk 2 r2 rk 1 µr )2 1 Td Y 1 + log p rk k=1 1 ! Der letzte Term hängt nicht von ✓r ab. Wir setzen also ✓ˆrMLE := argmax✓r Td log r Td X (rk k=1 (1 )rk 2 r2 rk 1 µr ) 1 2 ! . Setzt man den Gradienten dieser Funktion gleich Null, erhält man folgende MLESchätzer: Proposition 15. Gegeben die Daten (r0 , r1 , ..., rTd ) hat die Log-Likelihood-Funktion lr für das CIR-Modell ein lokales Maximum in ✓ˆr = (µ̂r , ˆr , ̂), wo r0 s2 + Td2 Td s3 Td2 s1 s2 s3 (1 ̂)Td = , i = 1, 2, ̂s2 Td 1 X (rk (1 ̂)rk 1 = Td k=1 rk 1 r T s2 ̂ = µ̂r ˆr2 ̂µ̂r )2 , i = 1, 2, mit s1 = s2 = s3 = Td X k=1 Td X k=1 Td X k=1 rk 1 , 1 rk 1 rk rk 1 Beweis. Durch Nullsetzen des Gradienten suchen wir die lokalen Maxima der Loglikelihoodfunktion lr (✓r ) = Td log r Td X (rk k=1 (1 )rk 2 r2 rk 123 1 1 µr ) 2 + log Td Y k=1 p 1 rk 1 ! . Ihre partiellen Ableitungen sind T d X d rk lr (✓r ) = dµr k=1 d lr (✓r ) = d r Td + r )rk 1 2r r k 1 Td X (rk (1 rk (1 µr )rk 1 2r r k 1 k=1 µr )2 )rk 1 3 r rk 1 k=1 Td X d lr (✓r ) = d (1 µr (rk µr ). 1 Wir nehmen zunächst an, dass 6= 0 - dieser Spezialfall und seine Interpretation wird am nach dem Beweis besprochen. Wenn also ungleich Null, verschwindet der Gradient genau dann, wenn 8T d P rk > > > > > > <k=1 Td r2 > > > > Td P > rk > : k=1 (1 )rk rk 1 Td P k=1 1 µr =0 (rk (1 )rk rk 1 (1 )rk rk 1 1 µr µr )2 1 (rk =0 µr ) = 0. 1 Aus der zweiten Gleichung folgt direkt, dass 2 r Td 1 X (rk = Td k=1 (1 )rk rk 1 µr )2 1 . Mit den Notationen aus der Proposition finden wir mit der ersten Gleichung µr = Td P k=1 rk rk 1 Td (1 Td P k=1 ) = s3 1 rk Td (1 s2 ) . 1 Die dritte Gleichung schreiben wir zunächst etwas um: 0 = = Td X rk k=1 Td X (rk (1 (1 )rk rk 1 )rk 1 1 µr (rk µr ) k=1 = rT 1 µr ) µr Td X rk k=1 r0 + s1 Td µr µr s 3 + µr T d 124 (1 )rk rk 1 1 µr Td + µ2r s2 µr Bevor wir hier nun µr einsetzen und die Gleichung nach r auflösen, berechnen wir µ2r etwas genauer. µ2r = = = 1 2 s22 1 2 s22 s23 2 s22 s23 2s3 Td (1 ) + Td2 (1 s23 2s3 Td + 2s3 Td + Td2 2s3 Td 2s3 Td Td2 + + 2 s22 s22 2 s22 2 + 2 ) 2Td2 + 2 Td2 2Td2 Td2 + 2 s22 s2 Diesen Term setzen wir oben für µ2r ein und ersetzen µr mit (s3 Td (1 ))/(s2 ). µr s3 + µr Td µr Td + µ2r s2 Td (1 ) s3 Td (1 ) s3 Td (1 ) = rT r0 + s1 s3 + Td s2 s2 s2 ✓ 2 ◆ s3 Td (1 ) s3 2s3 Td 2s3 Td Td2 2Td2 Td2 Td + + + 2 2 + 2 s2 s2 2 s22 2 s22 s22 s2 s22 s2 2 2 2 s3 T d T d Td s3 T d s3 T d s3 T d s3 Td2 Td2 = rT r0 + s1 + + + + s2 s2 s2 s2 s2 s2 s2 s2 s2 Td s3 Td2 Td2 s23 2s3 Td 2s3 Td Td2 2Td2 Td2 + + + + + s2 s2 s2 s2 s2 s2 s2 s2 s2 0 = rT r0 + s1 Td µr s3 Td Den letzten Ausdruck multiplizieren wir mit s2 und sortieren die Summanden. 0 = rTd s2 r0 s2 + 2 s1 s2 Td2 + Td2 = (s1 s2 Td s3 + Td2 Td s3 + Td2 Td2 )2 + (rT s2 Td2 2 + s23 r0 s2 + Td2 Td2 2 s23 + Td s3 Td s3 + s3 Td 2s3 Td + 2s3 Td + Td2 2Td2 + Td2 2 Td s3 ) = 0 hatten wir anfangs ausgeschlossen. Und damit setzen wir ̂ = rT s2 r0 s2 + Td2 Td2 s1 s2 T d s3 Setzen wir diesen Ausdruck in die Formeln für µr und 2 r weiter oben ein, erhalten wir die Behauptung32 . 32 Wir verzichten hier darauf zu zeigen, dass die entsprechende Hessematrix negativ definit und damit das gefundene lokale Extremum in der Tat ein lokales Maximum ist. Da es sich bei unserer Lösung um das einzige mögliche Extremum in R3+ handelt, erwarten wir ja eigentlich auch, dass hier die Likelihoodfunktion im Lichte sinnvoller Daten ein M a x i m u m annimmt - wenn irgendetwas am Modell dran sein soll! 125 Falls = 0 findet sich ebenfalls (und sehr leicht) ein lokales Extremum der Loglikelihoodfunktion. Nimmt diese hier aber einen höheren Wert an als im ✓ˆr von der Proposition, dann stellt sich grundsätzlich die Frage, ob wir überhaupt ein plausibles Modell für die vorliegenden Daten verwenden! Will man jedoch aus bestimmten Gründen am CIR-Modell festhalten, hängt letzteres wegen = 0 nicht mehr von µr ab. Und der übrige Parameter, ˆr 2 , ergibt sich dann mit dem im Beweis nullgesetzten Gradienten als ˆr2 = Td 1 X (rk rk 1 )2 . Td k=1 rk 1 Für den Fall = 0 erhalten wir also das Spezialmodell rk = p rk 1 ˆ r Zk . Insgesamt funktioniert das Kalibrieren nun so: Ausgehend von Zinsdaten33 berechnen wir zunächst das lokale Maximum aus der Proposition ✓ˆr . Erhalten wir hier drei positive Komponenten (was allermeistens der Fall ist), verwenden wir diesen Vektor als MLE-Schätzer. Ist oder µ kleiner gleich Null (was bei stark oszillierenden Zinsdaten der Fall sein kann), dann verwenden wir obiges Spezialmodell das entsprechend oszillierende Simulationen liefert. In Abbildung 34 sind dreierlei Zinszeitreihen zusammen mit den von Ihnen erzeugten MLE-Schätzern dargestellt. MLE und unser Finanzmarktmodell Nun wollen wir uns an einen Parameterschätzer für das ganze Modell (FM), also RSLN und CIR zusammen, wagen. Ein naiver, aber nicht ganz unplausibler Ansatz wäre nun, ausgehend von den oben erhaltenen Schätzern einfach noch die Korrelation zwischen den Rauschtermen W 1 und W 2 zu schätzen. Hier stellt sich aber sofort die Schwierigkeit, dass wir ja nicht wissen aus welchem Regime die vorliegenden Werte der Logreturns stammen. Ausserdem wäre das kein wirklicher MLE-Schätzer mehr, da man zuerst so tut, als wären Zins und Index unabhängig und dann erst die Korrelation schätzt. Diesen Ansatz lassen wir also links liegen. Stattdessen reklizieren wir die Rekursionsidee von der RSLN-Kalibration. Die Dichte unserer Zeitreihe 33 Wir verwenden hier Tagesdurchschnitte der Dreimonatsgeldmarktsätze vom Frankfurter Bankplatz. Die entsprechenen Daten findet man online als Zeitreihe ST0107 im Zeitreihenservice der Deutschen Bundesbank. 126 CIR-Simulation 0.030 0.025 0.035 0.045 0.040 Historische Zinssätze 0 500 1000 1500 0 500 1000 1500 Tage mu_r=0.0313, sigma_r=0.0013, kappa=0.0012 CIR-Simulation 0.03 0.06 0.03 0.05 0.07 0.09 Historische Zinssätze 0 500 1000 1500 0 500 1000 1500 Tage mu_r=0.0019, sigma_r=0.0011, kappa=0.0005 CIR-Simulation 0.024 0.020 0.035 0.030 0.050 Historische Zinssätze 0 500 1000 1500 0 500 1000 1500 Tage mu_r=0.0571, sigma_r=0.0011, kappa=0.0001 Abbildung 34: Auf der linken Seite finden sich historische Zinsdaten - jeweils logtransformiert, das heisst r := log(1+r), denn wir verstehen r ja als stetigen Zinssatz. Von diesen drei Datensätzen wurden mit Proposition 32 die MLE-Parameterschätzer berechnet. Auf der rechten Seite finden sich so erhaltenen Werte samt je einer beispielhaften Simulation. Dass die originalen Zinsverläufe weniger fraktalartig aussehen wir die simulierten, ist vor allem der unterschiedlichen Messgenauigkeit geschuldet. (Y1 , r1 , ..., YTd , rTd ) sei nun h✓ : R2Td ! R+ , (y1 , r1 , ..., yTd , rTd ) 7! h✓ (y1 , r1 , ..., yTd , rTd ), wo ✓ = ✓S ⇥ ✓r ⇥ % = (µ1 , 1 , p1,2 , µ2 , 2 , p2,1 , µr , r , %). Wir blättern zurück zur Berechnung der Log-Likelihood-Funktion im RSLN-Modell (Seite 117 und folgende) und erkennen, dass wir h✓ genau analog manipulieren können. Wir verwenden noch zusätzlich, dass unter (FM) 0 @ Yk rk 1 A |⇢k , rk 1 00 ⇠ N 2 @@ µ⇢k (1 )rk 1 + µr 1 0 A,@ 2 ⇢k % ⇢k r p % rk 1 ⇢k r p rk 2 r rk 1 . 1 11 AA . Für das ganze Modell ergibt sich so folgende Proposition mit einer Konstruktionsanleitung für die Log-Likelihood-Funktion: 127 Proposition 16. Für die Log-Likelihood-Funktion l des Finanzmarktmodells 8 ⇢k P > > <Sk = s0 exp (µ⇢i + > > : rk = r k i=1 1 + (µr 1 ⇢i Z i ) rk 1 ) + r p rk 1 Zk2 , r0 = r0 , bei gegebenen Logreturn-Daten (y1 , ..., yTd ) und Zinsdaten (r0 , r1 , ..., rTd ) , l(✓) = log h✓ (y1 , r1 ) + Td X k=2 log h✓ (yk , rk |y1 , r1 , y2 , r2 , ..., yk 1 , rk 1 ), gilt für die (exponierten) Summanden folgende Rekursion: X h✓ (y1 , r1 ) = (i,j)2{1,2}2 ⇡i pi,j fN j,r0 (y1 , r1 ) und h✓ (yk , rk |y1 , r1 , ..., yk 1 , rk 1 ) X = fNi,rk 1 (yk , rk ) pj,i h✓ (⇢k 1 = j|y1 , r1 , ..., yk 1 , rk 1 ), k 2 (i,j)2{1,2}2 wobei wir die Terme h✓ (⇢k h✓ (⇢k 1 1 = j|y1 , r1 , ..., yk 1 , rk 1 ) für k = j|y1 , r1 , ..., yk 1 , yk 1 ) = 3 umformen zu 2 X fNj,rk 2 (yk 1 , rk 1 ) pl,j h✓ (⇢k 2 = l|y1 , r1 , ..., yk 2 , rk 2 ) h✓ (yk 1 |y1 , ..., yk 2 ) l=1 und für k = 2 zu h✓ (⇢1 = j|y1 , r1 ) = fN j,r0 (y1 , r1 ) ⇡1 p1,j + ⇡2 p2,j h✓ (y1 , r1 ) mit ⇡1 = p2,1 p1,2 bzw. ⇡2 = . p1,2 + p2,1 p1,2 + p2,1 und fN i,r bezeichne die Dichte einer zweidimensionalen normalverteilten Zufallsvariable mit Erwartungswert 0 @ µi (1 )r + µr 128 1 A und Kovarianzmatrix 0 @ 2 i % i r % p r i p 1 r r A. 2 rr Beweis. Genau analog zu den Ausführungen im RSLN-Fall. Wiederum sparen wir uns die (ohnehin wohl vergebliche) Mühe von exakten Ableitungen und maximieren numerisch. Als Ausgangspunkte für die numerische Maximierung verwenden wir die MLE-Schätzer der separaten Modelle und eine Korrelation von 0. Unserer Erfahrung nach ergeben sich so immer sinnvolle Werte (also Wahrscheinlichkeiten in (0, 1), positive Volatilitäten, usw.). Das heisst, die Maxima der Likelihoodfunktion, werden in der Tat im Inneren ihres sinnvollen Definitionsbereichs angenommen. Das ist gut. Denn würde das Vorgehen ein Maximum an einer Stelle in R10 beispielsweise mit unbrauchbarer dritter Komponente p1,2 > 1 liefern, hiesse das, das Maximum würde irgendwo am Rand des sinnvollen Definitionsbereichs (also zum Beispiel mit einer Übergangswahrscheinlichkeit gleich 1 oder 0, oder einer Volatilität gleich 0) angenommen. Diese Stelle zu finden wäre aber ein grosser zusätzlicher Aufwand. Ausserdem sprächen solche Schätz-Ergebnisse gegen unser Modell. Eine Übergangswahrscheinlichkeit von 0 etwa würde ja gerade bedeuten, dass es effektiv nur e i n Volatilitätsregime gäbe. Abbildung 35 zeigt beispielhaft einen historischen Datensatz, die von diesen Daten ausgehende MLE-Kalibration des Parametervektors ✓ und eine entsprechende Simulation unseres Finanzmarktmodells. Die Grössenordnung der Parameterschätzer ist vergleichbar mit der entsprechenden Grössenordnung der separaten Schätzung. Die Korrelation zwischen den Logreturns des Index und den Veränderungen des Aktionkurses ist hier und bei allen weiteren, nicht abgebildeten Schätzungen negativ. Eine mögliche wirtschaftliche Erklärung für dieses Phänomen erhält man, indem man Aktienpreise rein als diskontierte zukünftige Dividendenströme interpretiert. Steigt der Diskontsatz, bei uns also r, sinkt entsprechend der Aktienkurs und damit unser Index S. 4.5 Bayes-Schätzer und Markovketten-Monte-Carlo Trotz der umfangreichen Berechnungen in den letzten Abschnitten haftet der Wahl von ✓ˆMLE immer noch einige Unsicherheit an. Selbst gesetzten Falles, dass unser Mo129 Indexpunkte S 0 50 100 150 200 3600 4000 4400 FM-Indexsimulation 3700 3900 4100 Indexpunkte S DAX 2003 250 0 150 200 250 0.02 -0.04 -0.01 Logreturns Y 0.02 0.00 0 50 100 150 200 250 0 50 50 100 150 200 150 200 250 200 250 0.0215 0.0205 Zinssatz r 0.0195 0 100 FM-Zinssimulation 0.0205 Zinssätze 2003 Zinssatz r 100 Logreturns der Indexsimulation -0.03 Logreturns Y Logreturns DAX 2003 50 250 0 50 100 150 Abbildung 35: Mit den links abgebildeten Index- und Zinsdaten eines Jahres berechneten wir via Proposition 16 und numerischer Maximierung die MLE-Parameterschätzer µ̂MLE = 0.0127, ˆ1MLE = 0.0346, p̂MLE 1 1,2 = 0.0166, MLE MLE MLE µ̂2 = 0.0155, ˆ2 = 0.0084, p̂2,1 = 0.0040, MLE µ̂MLE = 0.0207, ˆ = 0.0005, ̂MLE = 0.0003, %̂MLE = 0.3080. r r In der rechten Spalte findet sich eine Simulation von (FM) mit gerade diesen Parametern. Zumindest mit blossem Auge sind nur beim Zinssatz qualitative Unterschiede zwischen Original und Simulation zu erkennen. Und hier beim Zins ist das fraktalartigere Aussehen der Simulation auch der kleineren Messgenauigkeit der historischen Zeitreihe geschuldet. 130 dell die Welt tatsächlich perfekt nachbildet: Der Parameterschätzer hängt ja doch immer von einem einzigen ausgewählten Indexverlaufs ab, der ja selber nur einer von vielen möglichen ist. Wir wissen nicht, wie “typisch” die verwendeten Daten tatsächlich sind. Diese Parameterunsicherheit können wir etwas abschwächen, indem wir uns nicht auf einen bestimmten Wert von ✓ festlegen, sondern für jede Simulation einen neuen solchen Wert erzeugen. Wir betrachten ✓ selber als Zufallsvariable! Diese Interpretation von Wahrscheinlichkeit eben als Grad von Unwissenheit nennt man “bayesianisch”. Wir wissen ja nicht “nichts”. Wir haben auch ohne Experiment eine ungefähre Vorstellung von der Lage eines gesuchten Parameters. Zum Beispiel ist ein (täglicher) erwarteter Logreturn so um 0 herum und mit aller Wahrscheinlichkeit im absoluten Sinn kleiner als, sagen wir, 0.1. Diesen Kenntnisstand vor dem Experiment repräsentieren wir durch die Wahl einer sogenannten “a-priori” Verteilung G. Dieses Einfliessenlassen von a-priori Wissen, macht die Bayes’sche Methode so kraftvoll. Bei normalen MLE-Schätzern wird auf den Einsatz dieses Vorwissens verzichtet. G gegeben die Daten nennen wir “a posteriori”-Verteilung. Mit dieser a posteriori Verteilung können wir nun wiederum Punktschätzer oder Vertrauensintervalle berechnen. Oder eben für jede Finanzmarktsimulation aufs neue Parameter von ihr simulieren und so der oben beschriebenen Parameterunsicherheit gerechter werden. Beispiel Als “toy example” betrachten wir die Kalibrierung des gewöhnlichen Log-NormalModells, mit konstanter Volatilität und konstantem Zinssatz. Die Volatilität sei sogar bekannt (darum “toy”). Sie liege bei 0.015 täglich. Den Erwartungswert kennen wir nicht genau. Um seine Zufälligkeit auch symbolisch zu verdeutlichen schreiben wir ihn fett µ . Unser Beispielmodell für die täglichen Logreturns sei also iid µ, 0.0152 ), k = 1, ..., T. Yk ⇠ N (µ Wir wissen, dass µ so ungefähr “um die Null herum” liegt. Als a priori Verteilung 131 bietet sich deshalb eine Normalverteilung an mit Erwartungswert 0 und Varianz 2 µ. gµ bezeichne die entsprechende a priori Dichte. Für die a posteriori Dichte ⇡µ gilt dann mit dem Satz von Bayes ⇡µ (µ) := gµ (µ|Y1 = y1 , ..., YT = yT ) g(µµ,Y ) µ, y = fY (y) fY (y1 , ..., yT |µ) = gµ (µ). fY (y) Der Zähler im Bruch ist nichts anderes als die Likelihoodfunktion L im Lichte der Daten y ausgewertet an der Stelle µ. Der Nenner ist bezüglich µ konstant. Sieht man also von einer normierenden Konstante ab, können wir ihn weglassen und also schreiben ⇡µ (µ) / Ly (µ) · gµ (µ). Rechnet man dies mittels quadratischem Ergänzen aus und lässt die Faktoren, die von µ nicht abhängen wiederum fallen, erhält man ⇡µ (µ) / exp ( 1 2c2 µ 2 µ 2 T 2 µ yi i=1 wobei c := c2 T X + 0.0152 !) , . Die a-posteriori Verteilung ist in diesem einfachen Beispiel also wiederum eine Normalverteilung. Ihr Erwartungswert ist c 2 T X i=1 T µ2 yi = y, T µ2 + 0.0152 also quasi eine Konvexkombination des Datendurchschnitts y, d.h. des MLESchätzers, und des a-priori Erwartungswertes 0. Die Gewichtung wird gesteuert über die Wahl der a priori Varianz 2 µ: Ist die a priori Varianz sehr gross (das bedeutet: kaum a-priori Wissen), dann ist der a posteriori Erwartungswert als 132 Punktschätzer gerade der MLE Schätzer y; ist die a priori Varianz sehr klein, dann ist der Bayes-Schätzer gerade der a priori Erwartungswert, nämlich 0. In der Regel wird natürlich eine a priori Varianz zwischen diesen beiden Extremen gewählt. Und natürlich könnten wir in jedem Fall ohne weiteres von dieser Verteilung simulieren. Analog zu diesem eindimensionalen Fall können wir auch den zehndimensionalen Parametervektor unseres FM-Modells als zufällig betrachten mit einer a priori Verteilung. Zusammen mit Daten können wir dann eine a posteriori Verteilung konstruieren. Das Ergebnis wird aber nicht mehr derart einfach und geschlossen darstellbar sein wie in obigem “toy example”. Was können wir dann mit der a posteriori Dichte überhaupt anfangen? In der Tat war das Simulieren von hochdimensionalen Nichtstandardverteilungen bis vor nicht allzu langer Zeit noch so problematisch, dass Simulationen von a posteriori Verteilungen erst seit relativ kurzem ein Rolle spielen. Seit den 1980er Jahren ist ein raffiniertes Verfahren bekannt, das diese Schwierigkeiten löst: Das Markovketten-Monte-Carlo (MCMC). 4.6 Markovketten-Monte-Carlo Anders als bei den meisten anderen Simulationsalgorithmen verzichtet man beim Markovketten-Monte-Carlo (MCMC) von Anfang an auf unabhängige Simulationsergebnisse. Nicht nur das: Die geschickte Manipulierung der Abhängigkeiten von aufeinanderfolgenden Simulationen liefert gerade den Schlüssel für das Funktionieren der Methode! Von der Markovkettentheorie weiss man, dass es für bestimmte Markovketten (Xn )n2N eine eindeutige Verteilung gibt, so dass P[Xn 2 A] ! (A) für n ! 1. Ziel ist es nun, eine solche Markovkette (✓n )n2N auf R10 derart zu konstruieren, dass dieses gerade der a posteriori Verteilung, von der wir simulie- ren möchten, entspricht. Für “grosse” n (um die genauen Konvergenzeigenschaften kümmern wir uns hier nicht) ist es dann plausibel anzunehmen, dass dergestalt simulierte ✓n nach verteilt sind. Auf den folgenden Seiten sei dieses Vorgehen formal erläutert. Wir definieren für eine beliebige Menge X und dazugehörige -Algebra F Übergangskerne und Markovketten: 133 Definition 11. Ein (Übergangs-)Kern P auf (X, F) ist eine Abbildung P : X ⇥ F ! [0, 1], so dass a) P (x, ·) für alle x 2 X ein Wahrscheinlichkeitsmass ist, und b) P (·, A) für alle A 2 F eine messbare Funktion ist. Definition 12. Eine Markovkette auf (X, F) mit Startverteilung ⌫0 und Übergangskern P ist eine Folge (X0 , X1 , ...) von Zufallsvariablen mit Werten in X derart, dass für alle A 2 F gilt: 8 > <P[X0 2 A] = ⌫0 (A) > :P[Xn+1 2 A|Xn = xn , Xn 1 = xn 1 , ..., X0 = x0 ] = P[Xn+1 2 A|Xn = xn ] = P (xn , A) Für unsere Zwecke wird X = R10 und F = B(R10 ) sein. Definition 13. Eine Wahrscheinlichkeitsverteilung ⇧ heisst invariant oder stationär für eine Markovkette (X0 , X1 , ...) auf (X, F) mit Übergangskern P , wenn P⇧ [X1 2 A] = ⇧(A) 8A 2 F, wo (Xn )n 0 unter P⇧ eine Markovkette mit Übergangskern P und Startverteilung ⇧ sei. Direkt aus dieser Definition lässt sich ableiten, dass P[Xn 2 A] = ⇧(A) 8n n0 , sobald Xn0 für irgendein n0 nach dem stationären ⇧ verteilt ist. In der Tat gilt in bestimmten Fällen noch mehr: Es gibt genau eine stationäre Verteilung und genau gegen diese konvergiert die Markovkette - wenn sie “irreduzibel” ist. 134 Definition 14. Eine Markovkette auf (X, F) heisst irreduzibel, wenn eine Wahr- scheinlichkeitsverteilung ⌫ auf (X, F) existiert, so dass für alle x 2 X und für alle A 2 F mit ⌫(A) > 0 Px [[n 1 {Xn 2 A}] > 0 gilt. Das bedeutet, egal wo die Kette beginnt, mit positiver Wahrscheinlichkeit “kommt sie überall hin”. Ist eine Markovkette (X0 , X1 , ...) auf X irreduzibel mit stationärer Verteilung ⇧, dann34 ist ⇧ die einzige invariante Verteilung, und für alle möglichen Startverteilungen gilt P [Xn 2 A] ! ⇧(A), für n ! 1, A 2 F . Diesen Umstand wollen wir für die Simulation unseres Parametervektors ✓ verwenden. Bietet die Markovkettentheorie Theoreme zum Auffinden der stationären Verteilung für gegebenen Übergangskern, stehen wir nun quasi vor der umgekehrten Aufgabe: Für gegebene Verteilung ⇧ (eben gegeben durch die a posteriori-Dichte von ✓), suchen wir einen irreduziblen Übergangskern P , so dass ⇧ gerade die stationäre Verteilung ist. Das ist schwierig. Darum führen wir hier eine Eigenschaft von Verteilungen ein, die für unsere Frage günstiger zu charakterisieren ist und die hinreichend für Invarianz ist: Reversibilität. Definition 15. Eine Wahrscheinlichkeitsverteilung ⇧ auf (X, F) heisst reversibel für einen Übergangskern P , wenn ⇧(dx) · P (x, dy) = ⇧(dy) · P (y, dx). d Das heisst, unter Startverteilung ⇧ ist (X0 , X1 ) =(X1 , X0 ). Leicht zeigt man, dass aus reversibel stationär folgt: Sei also ⇧ reversibel und A 2 F. 34 Die Voraussetzungen sind noch etwas schärfer; unter anderem muss die sogenannte Aperiodizität der Kette gefordert werden. Weil wir hier auf einem im Allgemeinen überabzählbaren Zustandsraum X arbeiten, ist das ein ziemlich kompliziertes Konzept, auf dessen Präsentation wir hier verzichten. In jedem Detail sind die Voraussetzungen für die folgende Aussage besprochen in Theorem 1 von Abschnitt 3 in Tierney [26] 135 Dann gilt P⇧ [X1 2 A] = = Z P (x, A)⇧(dx) X Z Z P (x, dy)⇧(dx) x2X y2A = Z Z P (y, dx)⇧(dy) x2X y2A = P (y, X)⇧(A) = ⇧(A). Nun können wir uns auf die Suche machen nach einem Übergangskern P , der irreduzibel ist, der das gegebene ⇧ als reversible (und damit invariante) Verteilung hat und gemäss dem man einfach simulieren kann. Das daraus resultierende Vorgehen nennt man “Metropolis-Hastings-Algorithmus”. Nach einer Vorschlagsverteilung Q wählen wir einen “Vorschlag” Y für den nächsten Zustand der Markovkette. Wir nehmen an, dass Q und ⇧ Dichten q und ⇡ haben. Q sei so gewählt, dass die Bedingung ⇡(x) · q(x, y) = 0 , ⇡(y)q(y, x) = 0 erfüllt ist. Den Vorschlag Y akzeptieren wir mit Wahrscheinlichkeit ✓ ⇡(Y )q(Y, x) a(x, Y ) := min 1, ⇡(x)q(x, Y ) ◆ . Ansonsten bleiben wir, wo wir sind. Der Übergangsalgorythmus in Pseudocode: Metropolis-Hastings-Algorithmus Aktueller Zustand der Kette: x 1. Simuliere Y ⇠ Q(x, ·) und (unabhängig hiervon) U ⇠ U[0, 1]. ⇣ ⌘ )q(Y,x) 2. Falls U min 1, ⇡(Y , setze Xn+1 := Y ⇡(x)q(x,Y ) Ansonsten setze Xn+1 := Xn = x 136 Berechnen wir den Übergangskern P , der diesem Algorithmus dann entspricht: P (x, A) = P[Xn+1 2 A|Xn = x] = P[Xn+1 2 A, U a(x, Y )|Xn = x] + P[Xn+1 2 A, U > a(x, Y )|Xn = x] = P[Y 2 A, U a(x, Y )|Xn = x] + P[Xn 2 A, U > a(x, Y )|Xn = x] Z Z = 1ua(x,y) q(x, y)dudy + 1A (x)P[U > a(x, Y )|Xn = x] y2A u2[0,1] = Z y2A 0 a(x, y)q(x, y)dy + 1A (x) · @1 Z y2X 1 a(x, y)q(x, y)dy A Ausgeschrieben ergibt sich für den Kern P Z A ✓ min 1, ⇡(y)q(y, x) ⇡(x)q(x, y) ◆ 0 q(x, y)dy+1A (x)·@1 Z X ✓ min 1, ⇡(y)q(y, x) ⇡(x)q(x, y) ◆ 1 q(x, y)dy A . Man kann durch Nachrechnen zeigen, dass ⇧ für diesen Kern P eine reversible (und damit stationäre) Verteilung ist. Für die Wahl der Vorschlagsverteilung Q gibt es natürlich unendlich viele Möglichkeiten. Meist wird Q irreduzibel gewählt, weil das eine hinreichende Bedingung für die Irreduzibilität von P ist. Wir wählen das sogenannte “Random Walk Metropolis”. Hier ist q(x, y)dy ⇠ N d (x, ⌃). Ausserdem hängt von der Wahl von Q die Geschwindigkeit ab, mit der P[Xn 2 A] gegen ⇡(A) konvergiert. Dies ist meist gegeben, wenn die Akzeptierungswahrscheinlichkeit nicht zu klein ist, i.e. q(x, y)/q(y, x) sollte nicht zu klein werden. Betrachten wir den Mechanismus anhand des Beispiels aus dem vorigen Abschnitt bei der Arbeit: 137 Beispiel: Als “toy example” berechneten wir auf Seite 131 die a posteriori Dichte des Parameters µ für das Modell von Logreturns mit konstanter, bekannter Volatilität 0.015. Wählen wir für die a-priori Normalverteilung eine Varianz von 0.012 und gehen wir von 100 Datenpunkten y1 , ..., y100 aus, dann erhalten wir als aposteriori Verteilung µ|Y1 = y1 , ..., YT = yT ⇠ N ✓ 100 · 0.012 0.012 · 0.0152 y, 0.015 + 100 · 0.012 100 · 0.012 0.0152 ◆ . Davon können wir natürlich per Knopfdruck zufällige Realisationen erzeugen. Wir wollen die Situation jedoch als Demonstration zum MCMC verwenden und mit dem vorgestellten Metropolis-Hastings-Algorithmus simulieren. Zunächst aber aufgepasst, denn wir haben nun mit gleich dreierlei Normaldichten zu tun: • Die a-priori Dichte gµ von µ : Diese spielt nun keine Rolle mehr. • Die a-posteriori Dichte ⇡ von µ : Von dieser wollen wir simulieren. Mit den vorliegenden Daten gilt ⇡µ (µ) / exp ⇢ 1 (µ 2 · 0.02862 0.0007)2 • Die Dichte q der Vorschlagsverteilung des Random-Walk-Metropolis: Den Faustregeln in der Literatur folgend, wählen wir die Varianz der Vorschlags- verteilung so, dass in etwa 20 Prozent der Fälle der neu simulierte Wert akzeptiert wird. Ganz konkret verwenden wir eine Varianz von 0.07. Wir brauchen aber den Algorithmus erfreulicherweise nicht selber zu programmieren. Etwa mit dem mcmc-Paket des Programms R kann man das Schema einfach ablaufen lassen - und dennoch bis in die letzte Nuance kontrollieren. In Abbildung 36 kann der Leser eine Kettenrealisation betrachten. 138 -0.2 -0.5 -0.4 -0.3 mu_k -0.1 0.0 MCMC: toy example 0 20 40 60 80 100 120 k Abbildung 36: Simulation einer N (0.0007, 0.02862 )-Zufallsvariable via Markovketten-MonteCarlo. Die gestrichelte Linie ist der Erwartungswert der Variable, die gepunkteten ihr 5% bzw. das 95%-Quantil. Der Anfangswert der Kette wurde absichtlich möglichst “falsch” gewählt, so dass sich das “Burn in” schön beobachten lässt. Damit die Kette auch die Tails der Verteilung besucht, müsste man sie länger laufen lassen. Zwei Bemerkungen seien noch nachgetragen: Erstens berücksichtigt der Übergangsalgorithmus im R-Programm den Support der Dichte ⇡, von der simuliert werden soll. Das heisst, wenn wir etwa von einer BetaVerteilung auf [0,1] simulieren wollen, ist die Vorschlagsverteilung Q “truncated normal”, links bei 0, rechts bei 1 gestutzt. So ist die Bedingung von Seite 136 an die Vorschlagsdichte q erfüllt. Zweitens ist in hochdimensionalen Situationen wie mit unserem 10-dimensionalen Parametervektor, von dem simuliert werden soll, oft das Problem, dass der Simulationsalgorithmus zu häufig verwirft. Darum gehen wir (und das R-Programm) etwas verfeinert vor und modifizieren den simulierten Vektor ✓n := (✓1n , ..., ✓dn ) immer komponentenweise. ⇡ ist nun die “a posteriori”-Verteilung von ✓ im Lichte der Daten. Auf Kosten der exakten Ausdrucksweise, aber zugunsten der Übersichtlichkeit führen wir die etwas saloppe Schreibweise n n ⇡i (y) := ⇡(✓1n+1 , ..., ✓in+1 1 , y, ✓i+1 , ..., ✓d ) ein. ⇡i wertet also die Dichte ⇡ aus, wobei alle Komponenten bis auf die i-te beim 139 aktuellen Wert der Kette fixiert sind. Analog definieren wir qi In unserem Fall sieht also der Übergangsalgorithmus wie folgt aus: 1. Für i = 1, ..., d: – Simuliere Yi ⇠ Qi (✓1n , ·) und unabhängig davon Ui ⇠ U[0, 1] ⇣ ⌘ ⇡i (Yi )q1 (Y1 ,✓1n ) – Falls Ui min 1, ⇡1 (✓n )qi (✓n ,Yi ) , setze ✓in+1 := Yi . i Ansonsten setze ✓in+1 i := ✓in . 2. Setze ✓n+1 := (✓1n+1 , ..., ✓dn+1 ) Das ist zugegebener Weise etwas unübersichtlich, aber es funktioniert! 4.7 A-posteriori-Verteilung der Finanzmarktparameter Nun treffen wir die letzten Vorbereitungen zum Simulieren vom Vektor der Finanzmarktparameter: Erstens müssen wir für jeden Parameterkomponenten eine a-priori Verteilung festlegen. Zweitens müssen wir die a posteriori Verteilung berechnen. Betrachten wir den Parametervektor von (FM) also als Zufallsvariable ✓ . Wir nehmen an, dass die Komponenten des Parametervektors µ1 , ✓ = (µ 1 , p 1,2 , µ 2 , 2 , p 2,1 , µ r , r , , %) unabhängig sind. In der Wahl der Verteilungen folgen wir dem jeweils naheliegendsten Vorgehen. Wo möglich, verwenden wir Normalverteilungen für die a priori Dichten. Die Übergangswahrscheinlichkeiten der Regimes sollten natürlich auf [0, 1] beschränkt sein; wir modellieren sie mit Betaverteilungen. Alle Volatilitäten und auch der Relaxationsparameter des CIR-Modells sind zwingend positiv; wir modellieren sie mit Gammaverteilungen. Die Erwartungswerte und Varianzen der a priori Verteilungen erhalten wir, indem wir von verschiedenen zweijahresweisen Zeiträumen MLE-Schätzer produzieren (siehe Abbildung 37). Die Lage und die Streuung dieser Daten verstehen wir als Abbild der Parameterunsicherheit. Von diesen 40 Vektoren 140 p12 -0.006 0.000 0 5 0.010 0.030 0.040 0.00 0.003 0.012 0.016 0.00 0.02 0.04 0.06 0.08 Frequency 4 0 5 2 Frequency 0 0.08 0.12 25 kappa_r 6 15 10 5 Frequency 0.008 sigma_r 0 0.04 10 0 0.004 mu_r 0.00 5 Frequency 8 4 Frequency 0.001 0.20 p21 0 Frequency 0 2 4 6 8 -0.001 0.10 15 sigma2 12 mu2 0.020 15 -0.012 15 Frequency 8 4 0 5 10 Frequency 15 12 25 sigma1 0 Frequency mu1 0.000 0.004 0.008 0.00 0.10 0.20 Abbildung 37: 40 Mal wurde hier ein MLE-Schätzer für ✓ berechnet - jeweils ausgehend von einem zufällig ausgewählten Zweijahressatz von täglichen Daten (aus 1985-2011). Aus den Verteilungen dieser Werte errechnen wir die Parameter für die a priori Verteilung von ✓ . Aus Platzgründen lassen wir den Korrelationsparameter hier weg. Er ist quasi immer negativ und symmetrisch um 0.3 herum verteilt. ausgehend kalibrieren wir die entsprechenden a priori Verteilungen. Zum Beispiel betrachten wir von allen 40 MLE-Schätzern die erste Komponente und deuten sie als 40 Realisationen von µ 1 . Den Durchschnitt und die empirische Standardabweichung der 40 Werte verwenden wir als Normalparameter der a-priori Normalverteilung von µ 1 . So erhalten wir folgende a-priori Verteilungen: 141 µ 1 ⇠ N ( 0.0013, 0.00142 ) 1 ⇠ Gamma35 (9, 395) p 1,2 ⇠ Beta(2.1, 42.8) µ 2 ⇠ N (0.0009, 0.00072 ) 2 ⇠ Gamma(15.8, 1581.4) p 2,1 ⇠ Beta(2.7, 161.3) µ r ⇠ N 0.038, 0.0102 r ⇠ Gamma(1.1, 456.1) ⇠ Gamma(0.5, 314.2) % ⇠ N ( 0.231, 0.1092 ) Das Produkt der entsprechenden Dichten bezeichnen wir mit g. g ist also die a priori Dichte von ✓ . Weiter sei h✓ die Dichte von (Y1 , r 1 , ..., YTd , r Td ) gegeben ✓ = ✓. Und so ergibt sich als Dichte ⇡ der a-posteriori Verteilung des Parametervektors µ1 , ✓ = (µ 1 , p 1,2 , µ 2 , 2 , p 2,1 , µ r , r , , %) ⇡(✓) := g(✓|Y1 = y1 , r 1 = r1 , ...., YTd = yTd , r Td = rTd ) / h✓ (y1 , r1 , ..., yTd , rR ) · g(✓) 10 Y = L(✓) · fi (✓i ), k=1 wobei L die Likelihoodfunktion im Lichte der Daten (y1 , r1 , ..., yTd , rTd ) bezeichne und fi die oben eingeführten Randdichten. Als Daten (y1 , r1 ), ..., (yTd , rTd ) verwenden wir hier diejenigen des letzten Jahres. So werden wir ein Stück weit dem Um35 Die Parametrisierung einer Gammaverteilung ist in der Literatur nicht ganz einheitlich. Wir meinen: Die Dichte einer Gamma(k, ) mit Parametern k, > 0 ist ( 0, x<0 f (x) = k (k 1) x exp( x), x 0. (k) 142 stand gerecht, dass die Daten des letzten Jahres wohl eine bessere Annäherung an die Zukunft darstellen als die Daten von vor 20 Jahren. Als Startwert der Markovkette wählen wir den “Durchschnitt” der berechneten MLE-Schätzer, also etwa den a priori Erwartungswert des Parametervektors. Für die Vorschlagsverteilung Q der Markovkette wählen wir wie weiter oben beschrieben eine (gestutzte, siehe Seite 139) Normalverteilung mit dem Erwartungswert immer gerade am aktuellen Zustand der Kette. Als Kovarianz für die Vorschlagsverteilung Q wählen wir gerade die empirische Kovarianz der berechneten MLE-Schätzer von Abbildung 37. So sind erstens die Sprünge der Vorschlagsverteilung in einer angepassten Grössenordnung und ausserdem imitieren wir so immerhin ein bisschen die offensichtlichen Abhängigkeiten zwischen den Komponenten des Parametervektors (ist zum Beispiel µ1 negativ und besonders klein, dann ist µ2 besonders gross). Mittels dem beschriebenen MCMC können wir nun jedenfalls von obiger a-posteriori Dichte simulieren und erhalten so für jede neue (FM)-Simulation einen neuen Parametervektor. In Abbildung 38 kann man eine erzeugte Version dieser Markovkette komponentenweise verfolgen. Die Schätzung der impliziten Volatilität Unser Finanzmarkmodell (FM) modelliert die Volatilität stochastisch mittels einer Markovkette, die zufällig zwischen zwei Volatilitätsregimes abwechselt. Die Werte dieser Markovkette, das heisst die Zustände der Volatilität sind für den Marktteilnehmer aber nicht beobachtbar. Er muss also entweder bei den anderen Händlern “abschauen”, indem er die von deren Preisen implizierten Volatilitätsannahmen berechnet, oder er verwendet Schätzungen der historischen Volatilität. Das wird auch unser Ansatz sein. Zur Schätzung der Varianz verwenden wir einen gewichteten Durchschnitt der vergangenen quadrierten Logreturns, bei dem die Gewichte in die Vergangenheit exponentiell abnehmen. Wir beginnen jeweils mit 0 := 0.25, der durchschnittlichen Volatilität der letzten sieben DAX-Jahre. Für alle weiteren Tage k setzen wir rekursiv ˆk2 := ˆk2 Ist 1 + (1 )Yk2 . gleich 1, haben wir einen konstanten Prozess, ist = 0, dann haben wir einfach den Prozess der quadrierten Logreturns. Je grösser , umso stärker gewichten wir 143 20 40 60 80 0.03 0.01 p12_k 0 20 40 60 80 100 0 20 40 60 80 MCMC: mu2 MCMC: sigma2 MCMC: p21 60 80 100 0.010 0.0100 40 p21_k sigma2_k 20 0.014 k 0.0108 k 0.00102 k 100 0 20 40 60 80 100 0 20 40 60 80 k k k MCMC: mu_r MCMC: sigma_r MCMC: kappa_r 100 0 20 40 60 k 80 100 0.000 0.015 kappa_k 0.0028 0.0022 sigma_r_k 0.032 0.029 mu_r_k 0.035 0 0.0240 100 0.00098 mu2_k 0 MCMC: p12 0.0220 sigma1_k -0.0026 MCMC: sigma1 -0.0032 mu1_k MCMC: mu1 0 20 40 60 k 80 100 0 20 40 60 80 100 k Abbildung 38: Komponentenweise Darstellung der ersten 100 Zustände der Markovkette, mit der wir von der a-posteriori Dichte des Parameters ✓ simulieren. Einige Komponenten scheinen das Burn-In schon hinter sich zu haben, einige brauchen sicher noch einige Zeit. 144 0.3 0.02 0.5 Geschätzte Volatilität 0.1 0.00 Gewicht lambda=0.96 50 100 150 200 250 0 1000 Tage lambda=0.98 Geschätzte Volatilität 0.5 1500 0.3 0.010 0.1 0.000 Gewicht 500 Tage 0.020 0 50 100 150 200 250 0 500 1000 Tage Tage lambda=0.995 Geschätzte Volatilität 1500 0.25 0.0035 0.15 0.0015 Gewicht 0.35 0 0 50 100 150 200 250 0 Tage 500 1000 1500 Tage Abbildung 39: Auf der linken Seite sehen wir die Gewichte des gleitenden Durchschnitts der Exponential Weighted Average Methode zur Volatitlitätsschätzung für den Tag 252 mit dreierlei Decay-Parametern . In der rechten Spalte finden sich die entsprechende Volatilitätsschätzung bezüglich derselben historischen Daten über sieben Jahre. Die Kurven werden mit wachsendem immer glatter. Man beachte auch die sich ändernde Skala. die Vergangenheit, deren Einfluss aber in jedem Fall exponentiell schwindet. Das Gewicht vom heutigen Tag 0 für die Volatilitätsschätzung am Tag n ist nämlich gerade n = exp (n log( )). Deshalb nennt man die Methode Exponential Weighted Moving Average (EWMA). In Abbildung 39 kann den Einfluss von auf die kon- kreten Gewichte und den Volatilitätsverlauf betrachten. Wir wählen = 0.99. So ist der Volatilitätsverlauf nicht allzu wild, aber immer noch sehr dynamisch. Berechnet man den EWMA-Schätzer bezüglich Datenwerten, die im RSLN-Modell entstanden sind, ergibt sich ein etwas anderes Bild, als dasjenige, das bezüglich historischer Daten entsteht: Wie eine aufgepeitschte See sieht der geschätzte Volatilitätsverlauf aus. Die Wellenkämme sind genau unsere einsetzenden hohen Volatilitätsregimes. In “Wirklichkeit” ändern sich die impliziten Volatilitäten allmählicher. Nun sind wir bereit um alle drei Parameter unseres Finanzmarktes zu simulieren. Wir lassen die Markovkette laufen, wählen den tausendsten simulierten Vektor und verwenden ihn als Parametervektor für unser Finanzmarktmodell (FM). Davon simulieren wir einen Indexpfad und den korrellierten Zinssatzpfad. Vom Indexpfad schätzen wir wie oben beschrieben die Volatitilität. In Abbildung 10 finden sich 145 5000 15000 Index 0 500 1000 1500 1000 1500 Tage 0.03 0.05 0.07 Zinssatz 0 500 Tage 0.15 0.25 0.35 Geschätzte Volatilität 0 500 1000 1500 Tage Abbildung 40: Fünf Realisationen des Finanzmarktmodells (FM) samt der geschätzten Volatilität. Zun̈ächst wurde wir beschrieben via einer Markovkette von der a posteriori Verteilung des Parametervektors simuliert. Die Kette liessen wir 2000 Schritte machen und wählten dann für jede der fünf abgebildeten beispielhaften (FM)-Realisationen zufällig einen Vektor aus den letzten 1000 Zuständen der Kette. einige Realisationen. 4.8 Risikozuschläge Im zweiten Kapitel berechneten wir die Werte der verschiedenen EIA-Verträge unter den ziemlich optimistischen BSM-Annahmen, die uns zwar geschlossene Preisformeln erlaubten, die aber zugleich so klar unrealistisch sind, dass wir sie nur unter dem Vorbehalt verwendeten, die entstehenden Ungenauigkeiten in Form von Risikozuschlägen später zu berücksichtigen. Nun - endlich - sind wir gerüstet zum Bestimmen dieser Risikozuschläge. Für jeden Vertrag lassen wir unser Finanzmarktmodell (FM) viele Male laufen, jedesmal mit einem neu simulierten Parametervektor. Für den Risikozuschlag gibt es verschiedene Möglichkeiten. Wir wählen den sogenannten “Expected Shortfall” - eine Weiterentwicklung eines der verbreitetsten Risikomasse, dem sogenannten “Value at Risk”. 146 Definition 16. Für ↵ 2 (0, 1) ist der Value-at-Risk (VaR↵ ) eines zukünftigen Verlusts L VaR↵ := inf{q 2 R : P[L > q] 1 ↵}. Es handelt sich beim VaR↵ also einfach um das ↵-Quantil der Verteilung von L. Das ist ein naheliegendes und entsprechend weitverbreitetes Risikomass. Die Verwendung von VaR birgt selber aber wiederum Risiken. Man kann zeigen, dass es im Allgemeinen nicht subadditiv ist, und - was sofort einleuchtet - wie sich die Verteilung von L “rechts von VaR↵ ” verhält, wird von dieser Kennzahl “ignoriert”. Deshalb werden wir für unsere Risikozuschläge stattdessen den sogenannten “Expected Shortfall” verwenden: Definition 17. Für ↵ 2 (0, 1) ist der Expected Shortfall (ES↵ ) eines zukünftigen Verlusts L mit E |L| < 1 ES↵ (L) := 1 1 ↵ Z1 VaRu (L)du. ↵ Hat L eine Dichte, findet man folgende, intuitivere Darstellung des Expected Shortfalls, nämlich ES↵ (L) = E[L|L > VaR↵ (L)]. Ganz offenbar bildet diese Kennzahl auch das Verhalten der Verteilung “ganz rechts” ab. Besonders gut anschaulich machen kann man das mit Grafiken wie in Abbildung 41. Zu dieser Umformung und zum Vergleich zwischen den beiden vorgestellten Risikomassen siehe [7] . Einen naheliegenden36 Schätzer für den Expected Shortfall unseres Hedgeverlustes erhalten wir folgendermassen: Am Ende der Laufzeit lösen wir das Hedgeportfolio auf und bezahlen hiervon den Überschuss von von Indexierungsmethode RT auf Lifeof-Contract-Garantie G, also den PEMG. Haben wir zu wenig Geld dafür, schreiben 36 Zur mathematischen Rechtfertigung dieses “naheliegenden” Schätzers findet sich etwa in [7] folgendes Lemma, das eine Art Gesetz der grossen Zahlen für den Expected Shortfall darstellt: Für eine Folge (Li )i2N von unabhängigen und gleichverteilten Zufallsvariablen gilt fast sicher lim n!1 P[n(1 i=1 [n(1 ↵)] Li,n = ES↵ , ↵)] wo L1,n L2,n ··· Ln,n die Ordnungsstatistiken von L1 , ..., Ln bezeichnen. [n(1 ↵)] bezeichnet die grösste natürliche Zahl kleiner gleich n(1 ↵). 147 0.00 0.05 0.10 0.15 0.20 0.25 Vergleich von Expected Shortfall und VaR 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Abbildung 41: Hier sieht man gestrichelt die Dichte einer Normalverteilung und gepunktet die Dichte einer Paretoverteilung. Die Parameter wurden so gewählt, dass die jeweiligen 95%-Quantile, d.h. VaR0.95 , gerade gleich sind (durchgezogene Linie). Die jeweiligen Expected Shortfalls unterscheiden sich aber stark. In diesem Sinn “ignoriert” das Risikomass VaR das Verhalten der Verteilung in den Tails. wir einen Verlust. Unsere Verlustvariable für den Hedge ist demnach LHedge := (RT G)+ HP . HP steht für “Hedgeportfolio”. In dieser üblichen Darstellung sind Verluste positiv und Gewinne negativ. Nun simulieren wir tausendmal von dieser Verlustvariable und berechnen das 95%-Quantil dieser Realisationen. Weiter betrachten wir einzig die Werte, die dieses Quantil übertreffen. Den Durchschnitt dieser Werte verwenden wir als Schätzer für den Expected Shortfall. Ungefähr in einem von zwanzig Fällen schreiben wir einen Verlust in dieser Grössenordnung. Kein Grund, diesen Zuschlag wirklich j e d e m Vertrag zu verrechnen. Nötig ist einfach die Existenz eines Kapitalpolsters in der entsprechenden Höhe: Dieses (Risiko-)Kapital kommt von Investoren, die sich auf das Risiko einlassen, in etwa einem von zwanzig Fällen einen Grossteil ihres Kapital zu verlieren. Dafür bekommen sie “im Normalfall” eine satte Rendite von, sagen wir, 25%. In unsere Bewertung fliesst also nicht der volle 148 geschätzte Expected Shortfall ein, sondern nur ein Viertel. KK := 0.25 · e r7 ˆ 0.95 [L] ES nennen wir im weiteren also “Kapitalkosten” oder auch “Risikozuschlag”. 4.9 Bewertung der EIAs: Die Break-Even Partizipationsrate Woher kommt nun das Geld zur Finanzierung von Indexierungsmethode (d.h. Hedge⇥ ⇤ portfolio) e rT EQ (R G)+ , LOC-Garantie G und Kapitalkosten KK für das Hedgingrisiko? Wir bekommen als Versicherer ja einfach die Einmalprämie (P = 1) des Kunden und können hier nicht nachträglich noch Geld einfordern. Wir nehmen an, der garantiert verzinste Prämienanteil = 95% und der garantierte diskrete jähr- liche Zins der LOC-Garantie r = 3% seien fix vorgegeben (etwa vom Marketing oder von der Konkurrenz). Wie auf Seite 19 beschrieben, legen wir den grössten Teil des Geldes fix risikofrei an. Von diesem Geld bezahlen wir am Ende der Laufzeit die LOC-Garantie G = P 1.037 . Der Clou ist aber, dass wir für eine siebenjährige risikofreie Anlage einen deutlich höheren Zins als nur die von uns garantierten 3% erhalten. Sagen wir 6%37 . Das hiesse aber: Am Ende der Laufzeit hätten wir “zu viel” auf dem “Sparkonto”. Also müssen wir am Anfang der Laufzeit nicht die vollen = 95% fest anlegen, sondern nur ˜ := ✓ 1.03 1.06 ◆7 · = 77.70% Wir nehmen also an, dass der Versicherer zum Finanzieren seines Hedgingprogramms und seiner Risiken nicht nur über (1 )P = 0.05·P verfügt, sondern über (1 ˜)P = 0.223 · P . Das ist ein grosser Unterschied. Man beachte, dass dieser Effekt desto grösser wird, umso länger die Laufzeit ist. ↵ Für eine Indexierungsmethode REIA mit Laufzeit T = 7 sollte sich die Einmalprämie 37 Ein Wort zu den Zinssätzen: Wir rechnen nun mit dreierlei Zinsen: Erstens mit r, dem variablen Zinssatz, mit dem wir im Modell die Short-Rate approximieren. Zweitens mit rg = 3% p. a., dem garantierten Return. Drittens mit 6% p. a., dem Zins, den wir für eine langfristige Anlage erhalten. Diese 6% interpretieren wir als exklusive Festgeldanlage für uns - quasi ausserhalb des Modells. Genauso, wie wir nun also nicht im ganzen Modell r ⌘ 0.06 setzen, genauso diskontieren wir den Wert der Hedgeinstrumente, der Indexierungsmethoden und des Hedgeverlustes wie gehabt mit e r7 und nicht mit dem “exogenen” (1 + 0.06) 7 . 149 P = 1 Euro also zusammensetzen aus dem festanzulegenden Anteil ˜ := 0.78 Euro dem approximierten38 fairen Preis für die Indexierungsmethode samt LOC (mit r := 0.04, := 0.25) e r7 ↵ EQ [REIA G] und den Kapitalkosten in Form eines Anteils der diskontierten Expected Shortfall Schätzung des Hedgingverlustes KK = 0.25e r7 ˆ P95% [L↵ ] ES Zur Justierung der Produkte verwenden wir die Partizipationsrate ↵. Wir suchen also ein ↵⇤ , so dass ˜+e rT ⇥ ↵⇤ EQ REIA ⇤ G + 0.25e rT ⇥ ⇤⇤ ESP95% L↵ ⇡ 1. ↵⇤ nennen wir die “Break Even”-Partizipationsrate. Diese Gleichung lässt sich nicht nach ↵⇤ auflösen. Wir folgen deshalb nun dem Vorgehen in der Praxis und versuchen durch wiederholtes vielfaches Simulieren diejenige Partizipationsrate ↵⇤ zu finden, so dass wir den Break Even erreichen. In der folgenden Tabelle findet sich der Gesamtwert einer PTP-EIA für verschiedene Partizipationsraten ↵, sowie die geschätzte Break-Even-Partizipationsrate und der in der Wahl der Break-EvenPartizipationsrate enthaltene Risikozuschlag (KK). PTP-EIA ↵ = 0.6 0.935 ↵ = 0.7 ↵ = 0.8 ↵ = 0.9 ↵⇤ = 0.750 KK 0.970 1.006 1.041 ca.1 0.006 Wir sehen: Mit steigender Partizipationsrate steigt auch der Gesamtwert der PTPEIA. Weiter ist die Break-Even-Partizipationsrate bei 74.3%: Steigt der Index beispielsweise während sieben Jahren von 5’000 auf 7’500 Punkte, erhält der Versi38 ↵ ↵ Approximiert wegen der Bewertung von REIA G anstelle von (REIA G)+ . Diese systematische Unterbewertung wird mit dem Risikozuschlag wieder ausgeglichen. 150 cherungsnehmer einen Return von 74.3% · 50% = 37.15%. Das entspricht einem Jahreszins von etwa 4.5%. Die Kapitalkosten von ungefähr einem Hundertstel scheinen fast schon vernachlässigbar. Das ist falsch. Man muss diesen Wert nämlich in Bezug zum Preis für das Hedgeportfolio sehen (⇡ 0.20), nicht in Bezug auf die Gesamtprämie P = 1. Die Kapitalkosten entsprechen im PTP-Fall also ungefähr 5% des anfänglichen Hedgeportfoliowertes. Sowohl bei den Ratchet EIAs als auch bei der diskreten HWM Indexierung richten wir ein besonderes Augenmerk auf die Anzahl Ratchet- bzw. Monitordaten N . Wir haben schon im zweiten Kapitel gesehen welch grossen Einfluss die Wahl von N auf die Bewertung der EIAs hat. Entsprechend werden wir auch starke Unterschiede bei den jeweiligen Break-Even-Partizipationsraten erwarten. Wegen unserer tagesweisen Betrachtung sowie wegen der Notwendigkeit, dass diese Daten jeweils auf Hedgingdaten fallen müssen, gibt es für unser N allerdings nur eingeschränkt viele Möglichkeiten. Im betrachteten 7-Jahres Fall muss N also 7 · 252 = 22 · 32 · 72 teilen (damit die Monitordaten auf ganze Tage fallen) und der Abstand zwischen den Monitordaten, 7 · 252/N , sollte durch 7 teilbar sein (damit die Monitordaten immer auf Hedgingdaten fallen). Diese beiden Bedingungen sind genau dann erfüllt, wenn N die Zahl 22 · 32 · 7 = 252 teilt. Das führt zu N 2 {2, 3, 4, 6, 7, 9, 12, 14, 18, 21, 27, 28, ...} - wohl genug, um einen Eindruck von den Abhängigkeiten zu erhalten. Wir betrachten die Fälle N = 2, 4, 7, 14, 21, 4239 . N = 7 entspricht einem jährlichen Ratcheting bzw. Monitoring. 39 Zur Erinnerung: Unsere Jahre haben 252 Tage und besteht aus zwölf Monaten. Ein Monat hat 21 Tage und besteht aus drei Wochen. Eine Woche hat 7 Tage. 151 CR-EIAs ↵ = 0.2 ↵ = 0.4 ↵ = 0.6 ↵ = 0.8 ↵⇤ (N ) KK N =2 0.738 0.830 0.928 1.030 0.675 0.034 N =4 0.762 0.885 1.022 1.172 0.531 0.027 N = 7 (jährl.) 0.790 0.952 1.139 1.353 0.439 0.014 N = 14 (halbjährl.) 0.842 1.080 1.371 1.728 0.333 0.008 N = 21 0.885 1.188 1.579 2.081 0.276 0.009 N = 42 0.988 1.474 2.167 3.154 0.202 0.009 Die Break-Even-Partizipationsraten fallen wie erwartet in N . Etwas unerwarteter kommt, dass auch die Kapitalkosten in N zu fallen scheinen. Im letzten Kapitel, wenn wir den Hedge unter dem Stationary Bootstrap testen, werden wir dieselbe Beobachtung machen und eine Interpretation vorschlagen. SR-EIAs ↵ = 0.2 ↵ = 0.4 ↵ = 0.6 ↵ = 0.8 ↵⇤ (N ) KK N =2 0.735 0.821 0.906 0.992 0.685 0.034 N =4 0.756 0.862 0.968 1.074 0.610 0.027 N = 7 (jährl.) 0.780 0.910 1.041 1.171 0.518 0.013 N = 14 (halbjährl.) 0.823 0.996 1.168 1.341 0.399 0.006 N = 21 0.856 1.062 1.268 1.474 0.335 0.005 N = 42 0.931 1.212 1.493 1.774 0.246 0.005 Die Werte der SR-EIAs sind durchweg kleiner als diejenigen der CR-EIAs. Das macht Sinn, denn wir erinnern uns: Der Compound Ratchet berücksichtigt Zinseszinseffekt, der Simple Ratchet nicht. Das macht sich auch in den entsprechend höheren Partizipationsraten bemerkbar. 152 HWM-EIAs ↵ = 0.2 ↵ = 0.4 ↵ = 0.6 ↵ = 0.8 ↵⇤ (N ) KK N =2 0.735 0.821 0.907 0.992 0.656 0.070 N =4 0.747 0.844 0.941 1.038 0.598 0.059 N = 7 (jährl.) 0.755 0.861 0.966 1.072 0.568 0.051 N = 14 (halbjährl.) 0.764 0.878 0.992 1.106 0.536 0.045 N = 21 0.768 0.886 1.005 1.123 0.525 0.040 N = 42 0.774 0.898 1.022 1.146 0.508 0.034 N = 1 (“kontinuierlich”) 0.790 0.930 1.070 1.210 0.462 0.026 Auch hier können wir wieder das Fallen sowohl der Break-Even-Partizipationsraten als auch der Kapitalkosten in N beobachten. Der Effekt setzt sich bis in den kontinuierlichen Fall fort. Allerdings sind die Partizipationsraten deutlich höher als in den Ratchet-Fällen - durchaus ein Verkaufsargument. Die Break Even Partizipationsrate von 0.474 für N = 1, kann man als untere Schranke für die diskreten Fälle betrachten. Bei allen betrachteten Produkten resultieren bei unseren Berechnungen im Vergleich zur Praxis eher tiefe Partizipationsraten. Das hat verschiedene Gründe: Erstens gibt es in der Praxis fast durchgängig Caps, also Gewinnschranken auf die Indexierungsmethode. Wir haben auf diese Verkomplizierung verzichtet. Zweitens kann der Versicherer das Risiko “bestandsweise” betrachten. Durch den Diversifikationseffekt fällt der Risikozuschlag geringer aus. Drittens wählten wir mit 0.25 eine eher hohe anfängliche Volatilitätsannahme. Viertens entstammen diese höheren Partizipationsraten zum Teil der Praxis vor dem Hintergrund des Hochzinsumfelds vergangener Zeiten: Dann konnte man leicht einen höheren Zinsspread als die von uns verwendeten 3% erzielen. Und mit einem höherem Zinsspread könnten wir unser ˜ senken, hätten so mehr Geld zur Finanzierung der Option bzw. des Hedgingprogramms zur Verfügung und würden entsprechend höhere Partizipationsraten anbieten. Wählen wir nun also für jede Indexierungsmethode und jedes N die entsprechende Break Even Partizipationsrate, dann haben wir einige Produkte, die so ausgestaltet sein sollten, dass der Versicherer durch das bereigestellte Risikokapital mit grosser 153 Sicherheit vor Verlusten gefeit ist. Ob die Produkte halten, was sie versprechen, wollen wir in einem letzten Kapitel mit einem Stresstest überprüfen. Denn auch der RSLN-Ansatz, auf dem unser Finanzmarktmodell beruht, ist natürlich nicht restlos realistisch. 4.10 Bemerkungen zum RSLN-Modell Wir haben es gesehen: Das RSLN-Modell ist gewiss realitätsnäher als das einfache LN-Modell. Es erzeugt in Simulationen Eigenschaften, die wir bei tatsächlichen Indexzeitreihen beobachten: Korrelation der benachbarten absoluten täglichen Logreturns und Häufung von extremen Werten. Und gerade in starken Änderungen liegen die Gefahren für den Hedgealgorithmus. Denn umso schlechter stimmen die linearen - beim gamma-Hedge quadratischen - Annäherungen der Sensitivitäten. Aber dies darf nicht darüberhinweg täuschen, dass die “Tails” der Return-Verteilung immer noch vergleichsweise harmlos sind. Um mit Benoît Mandelbrots Vokabular zu sprechen: Indem wir immer noch an der Normalverteilung festhalten, bleiben wir zugleich immer noch in der Domäne des “milden Zufalls” und sind noch weit entfernt vom (realistischeren) “wilden Zufall”. Die Tagesverluste in den mit RSLN erzeugten künstlichen Daten sind quasi beschränkt. Eine von Mandelbrots Hauptbotschaften war zeitlebens, man müsse FinanzmarktLogreturns deshalb mit “Power-Tails” modellieren. In den letzten Jahrzehnten wurden viele verschiedene Wege beschritten, um auch in dieser Hinsicht realistischere Modelle zu erhalten (ARMA, GARCH, ...). Wirklich durchgesetzt hat sich kein bestimmtes. Das Pricing in der Industrie (und das Hedging sowieso) geht fast immer vom BSM-Modell aus. Die Gründe hierfür sind wohl vielfältiger Natur. Es ist dem Menschen eben eigen, etwas, das funktioniert und mit dem er gelernt hat umzugehen, nicht ohne weiteres abzulegen. Dann der Herdentrieb: “Alle anderen machen es auch so!” In der Tat, falls etwas schiefgeht, steht ein Händler wohl besser da, wenn er nicht mit einem exotischen Modell arbeitet, das nur Mathematiker verstehen, sondern mit einem Modell, das jeder kennt und benutzt. Ein rein mathematischer Grund könnte sein, dass man, je genauer man sich um die Tails bemüht, desto ungenauer das Zentrum der Verteilung modelliert. Etwas heikler ist die wohl auch verbreitete Betrachtungsweise durch das massenweise Anwenden des falschen Modells würden 154 dessen Ungenauigkeiten irgendwie “diversifiziert”. In dieser Arbeit soll jedenfalls ein anderer, recht naheliegender Weg fort von der Normalverteilung führen, dessen Pfade dennoch noch nicht sehr ausgetreten sind, der sich aber als durchaus kraftvoll und realistisch erweist und der in mancher Hinsicht den anderen vorgestellten Modellen überlegen ist: Das Simulieren von historischen Daten. 155 5 Stresstest Abschliessend wollen wir die in den letzten Kapiteln vorgeschlagenen Produkte einem Stresstest unter “noch realistischeren” Bedingungen als unser Finanzmarktmodell (FM) (siehe Seite 114) unterziehen und so - letztlich Ziel der Arbeit - die Abhängigkeit des Risikos von der Produktausgestaltung klären. Vorab aber ein Plädoyer für das Simulieren mittels historischer Daten: Heutzutage ist es sehr einfach, sich ein Bild von der Verbreitung von Ideen zu machen - einige Mausklicks genügen. Und auf diese Weise erkennt man eben auch schnell, wie wenig Beachtung die völlig naheliegende Idee des Bootstrappens von historischen Returndaten findet. In der gängigen Literatur zur Simulation von Finanzzeitreihen werden die kompliziertesten Modelle und Kalibrierungsweisen vorgestellt und getestet; das zufällige Verwenden historischer Daten ist jeweils höchstens eine Randbemerkung wert. Vielleicht ist das Vorgehen zu einfach? Beim Experimentieren mit dieser Mauerblümchen-Methode erkennt man jedenfalls nach wenigen Versuchen, wie “realistisch” die Ergebnisse sind (graphisch, Autokorrelationsfunktion, VolatilitätsClustering, Extremwerte, etc.). Schon rein intuitiv scheint dieses Vorgehen doch naheliegender zu sein als alles andere: Beim üblichen Vorgehen mit Modellwahl und Kalibration steckt man Tausende von wertvollen Einzeldaten in einen Topf, kocht sie auf eine Handvoll Parameter ein und würzt mit diesen dann ein Modell, das zunächst einmal herzlich wenig mit den Daten zu tun hat. Und dann ist man bereit zu glauben, Simulationen oder Bewertungen, denen dieses Modell zugrunde liegt, hätten irgendetwas mit der Realität zu tun! Das ist überspitzt formuliert, und es gibt natürlich Gründe (etwa Grenzwertsätze) für die Plausibilität von Modellen, aber ein Marsmensch, dem das eine wie das andere neu wäre, hätte wohl mehr Verständnis für das Verwenden von historischen Daten. Insofern ist die faktische Bedeutungslosigkeit dieser Methode in Lehre und Forschung doch seltsam. Vielleicht zu ist sie einfach zu übersichtlich und wissenschaftlich zu wenig fruchtbar? In der Praxis jedenfalls ist das Verwenden von historischen Daten weiter verbreitet - etwa bei den VaR-Modellen der Banken. Hier stösst das Konzept dann an Grenzen, wenn Daten fehlen (etwa bei neuen Derivaten ohne Erfahrungswerte) oder wenn es zu Strukturbrüchen kommt (etwa bei Volatilitätssprüngen). 156 Die Frage nach dem “richtigen” Simulieren stellt sich natürlich in allen Wissenschaften; die Besonderheit, die in unserem Fall das Bootstrapping so kraftvoll macht, ist, dass wir - zumindest bei Indizes - so ungeheuer viele Daten haben. Abertausende! 5.1 Stationary Bootstrap Wir gehen von der plausiblen Annahme aus, dass die täglichen Logreturns zwar nicht unabhängig, aber doch stationär verteilt sind. Das grundsätzliche Vorgehen ist denkbar einfach: Wir haben also den Preis bzw. den Indexstand s0 zum Zeitpunkt t = 0 und ausserdem die Daten von n täglichen log-returns (Y1 , ..., Yn ). Hiervon wollen wir folgendermassen einen Vektor (Y1⇤ , ..., Yn⇤⇤ ) konstruieren: Aus Indizes {1, 2, ..., n} wählen wir zufällig ein I1 ⇠ U{1, 2, ..., n} und erhalten damit als ersten simulierten Logreturn Y1⇤ := YI1 . Mit (relativ grosser) Wahrscheinlichkeit 1 p setzen wir dann I2 := I1 +1. Ansonsten wählen wir wieder rein zufällig einen Wert I2 ⇠ U{1, 2, ..., n}. Wir setzen wiederum Y2⇤ := YI2 . Das machen wir insgesamt n⇤ Mal. Hier das genaue Vorgehen in Pseudocode: SIMULIERE I1 ⇠ U{1, 2, ..., N } FOR(i in 2 : N ⇤ ) SIMULIERE U ⇠ U[0, 1] WENN(U 1 p) Ii := Ii 1 + 140 SONST SIMULIEREIi ⇠ U{1, 2, ..., N } SETZE Yi⇤ := YII Mit diesem Vorgehen erhalten wir erstens überhaupt extreme Werte der täglichen Vernänderungen von über 10%, sowie zweitens auch ihre typische Häufung - Symptom des Volatility-Clusterings (siehe Abbildung 42). Wir wählen also ganze Daten-Blöcke aus, deren zufällige Länge geometrisch verteilt ist. Die mittlere Blocklänge ist demnach 1/p. So fangen wir fast genau die Abhängigkeitsstruktur, die wir in der Datenzeitreihe beobachten (zum Beispiel via der Autokorrelationsfunktion der quadrierten Werte), ein. 40 Falls Ii 1 = N , setzen wir Ii := 1 157 0.05 -0.05 0 500 1000 1500 1000 1500 1000 1500 -0.05 0.05 Tage 0 500 -0.05 0.05 Tage 0 500 Tage Abbildung 42: Drei Simulationen täglicher Logreturns mit der Methode des Stationary Bootstraps über sieben Jahre. Für den Parameter p wurde der Wert 0.01 gewählt. Schon bei einem oberflächlichen Vergleichen des oberen und des mittleren Beispiels kann man erkennen, dass hier mindestens ein Block ziemlich ähnlich sein muss. In der Praxis durchaus verbreitet ist das historische Backtesting: Man probiert Produkte und ihre beabsichtigte Absicherung anhand vergangener Daten aus. Das ist durchaus eine einfache, gute Methode um schnell ein Gefühl für Grössenordnungen und Abhängigkeiten zu bekommen, aber sie ist wenig geeignet für systematische Untersuchungen - etwa für die Berechnung von Risikomassen. Den Stationary Bootstrap kann man als Verallgemeinerung dieser Methode verstehen. In den 1980er Jahren schlug Künsch die Verwendung von zufälligen Datenblöcken mit fixer Länge vor [18]. Einige Jahre später schlugen Politis und Romano als Weiterentwicklung geometrisch-verteilte Blocklängen vor [21]. Diese variablen Blocklängen haben zwei Vorteile gegenüber den fixen: Erstens sind die Resultate damit natürlich auch vielfältiger. Zweitens ist die Wahl der Übergangswahrscheinlichkeit p weniger heikel als die Wahl der richtigen Blocklänge (siehe dazu die Untersuchungen in [21]). Die Situation ist vergleichbar mit den Überlegungen zur Parameterschätzung in Kapitel 4: Mit einem fixen Parametervektor kann man sich ärger vertun als mit einem, den man von Simulation zu Simulation neu zufällig erzeugt. Abzuwägen gilt es bei der Wahl 158 30 40 50 0 10 10 20 30 Lag Lag p=0.00001 p=0.01 ACF 0 0.0 0.2 0.4 0.6 0.8 1.0 ACF 20 20 30 40 50 0 Lag 40 50 40 50 0.0 0.2 0.4 0.6 0.8 1.0 10 0.0 0.2 0.4 0.6 0.8 1.0 0 ACF p=0.2 0.0 0.2 0.4 0.6 0.8 1.0 ACF Historische Logreturns 10 20 30 Lag Abbildung 43: Die Autokorrelationsfunktion von quadrierten historischen täglichen Logreturns sowie von dreierlei Stationary Bootstrap Simulationen mit verschiedenen Parametern p für die Verteilung der Blocklängen. Wir müssen hier abwägen zwischen einem grossen p, das heisst einem möglichst gutem Abbilden der Korrelationsstruktur der originalen Daten, und einem kleinen p, das heisst möglichst verschiedenen Realisationen. des Parameters p folgendes: Ist p sehr, sehr klein, sagen wir 0.0001, dann werden die Simulationen die Abhängigkeitsstruktur der Originalzeitreihe perfekt widerspiegeln. Aber dann sind unsere Blöcke sehr lang und die Realisationen werden sich kaum voneinander unterscheiden. Das heisst, wir haben zu wenig Streuung, zu wenig Zufall für unsere Untersuchungen. Ist p dagegen sehr, sehr gross, sagen wir 0.2, erhalten wir einen grossen Reichtum an Realisationen. Die Blöcke sind dann aber so kurz bzw. es gibt dann so viele rein zufällige Übergänge zwischen den Daten, dass die Abhängigkeitsstruktur deutlich schwächer ist als in der Originalzeitreihe. Als guten Kompromiss verwenden wir p = 0.01. Man betrachte zu diesen Überlegungen auch Abbildung 43. Von den Logreturns ist es natürlich nur noch ein kleiner Schritt zu den entsprechenden Kursverläufen mit Startwert s0 : S0⇤ := s0 FOR(i in 1 : N ) Si⇤ := Si⇤ 1 · exp(Yi⇤ ) 159 Die Kraft des Stationary Bootstrap wird noch deutlicher, wenn wir dem Prozess weitere Dimensionen hinzufügen. In unserem Fall also den Zinssatz r. Den Zinssatz wollen wir aber nicht “pur” verwenden, sonst gäbe es zwischen den Blockgrenzen allzugrosse Sprünge. Stattdessen verwenden wir auch hier die Veränderungen des Zinssatzes, seine täglichen Logreturns Ykr := log (rk /rk 1 ). Daten sind nun die Paare ((Y1 , Y1r ), ..., (Yn , Ynr )). Wenn wir hiervon nach dem Stationary Bootstrap simulieren, erhalten wir “automatisch” die richtige Korrelation zwischen den jeweiligen Veränderungen. In Abbildung 44 lassen sich zwei Realisationen dieser Simulationsmethode betrachten. Als letzter Vorteil des Stationary Bootstrap sei erwähnt, dass die Mechanik dieser Art von Simulation wohl fast jedem einleuchtet; was es bedeutet von einem risikoneutralen Mass (oder sogar über verschiedene im Fall unvollständiger Märkte) zu simulieren, ist ausserhalb mathematisch gebildeter Kreise wohl nur schwer vermittelbar. Auf sehr einfache Weise können wir nun also Indexzeitreihen mit stationären, nicht unabhängigen Zuwächsen erzeugen und diese Daten für das Testen unserer EIAProdukte nutzen. 5.2 Stresstest der Bewertungen und Hedging-Algorithmen Wir betrachten nun die Situation am Laufzeitende. Wie im vorigen Kapitel sei P = 1 EUR die Einmalprämie, = 0.95 sei der zu rg = 3% garantiert verzinste Anteil davon (siehe hierzu die Bemerkungen auf Seite 149) und T = 7 Jahre die Laufzeit. Wenn REIA den Return der betrachteten Indexierungsmethode und G = · (1 + rg )T die garantierte Auszahlung bezeichnet, dann sind wir unserem Kunden am Laufzeitende P · max(REIA , G) = max (R, 1.168) schuldig. Wieviel haben wir zu diesem Zeitpunkt? Erstens haben wir das Hedgeportfolio HP. Es sollte so ungefähr den Wert (REIA G) haben. Zweitens haben wir fast die ganze Prämie am Anfang der Laufzeit risikofrei zu 6% p. a. angelegt. Wir hatten 160 Index 4000 4000 7000 6000 10000 Index 500 1000 1500 0 500 1000 Tage Tage Zinssatz Zinssatz 1500 0.025 0.015 0.035 0.025 0 500 1000 1500 0 500 1000 1500 Tage Tage Logreturns Logreturns -0.10 -0.05 0.00 0.05 0.10 0 0 500 1000 1500 0 500 1000 Tage 1500 Tage Abbildung 44: Zwei Beispiele einer Finanzmarktsimulation mit dem Stationary Bootstrap. die Break-Even Partizipation gerade so gewählt, dass wir ˜ := ✓ 1.03 1.06 ◆7 · fix anlegen können und so am Ende der Laufzeit gerade G auf dem Festgeldkonto haben. Unser Verlust - wiederum positiv ausgedrückt - ist zum Laufzeitende also max(REIA , G) HP ˜(1.06)7 = max(REIA , G) HP G Das ist natürlich nichts anderes als der Hedgingfehler LHedge von Seite 148, denn max(REIA , G) HP G = (REIA G)+ G = LHedge . Den Expected Shortfall dieser Variable schätzten wir bereits unter dem (FM)Modell. Dieser Schätzer bildete unser Risikokapitalanforderung. Die Kosten dafür, ein Viertel des diskontierten Risikokapitals, flossen anfangs der Laufzeit in die Bestimmung der Kapitalkosten ein. Wir schätzen den Expected Shortfall des Hedging161 -0.05 0.05 N=2 0 500 1000 1500 2000 2500 3000 2000 2500 3000 Anzahl Simulationen 0.0 0.4 0.8 N=7 0 500 1000 1500 Anzahl Simulationen 0.010 0.020 N=42 0 200 400 600 800 1000 Anzahl Simulationen Abbildung 45: Für die SR-EIA wurde hier für N = 2, 7, 42 jeweils 1’000 Mal der Verlust mit Hedge simuliert und gleitend der empirische 95%-Expected Shortfall berechnet. Man beachte die verschiedenen Skalierungen. Mehr Simulationen wären gewiss wünschenswert. Aber auch so dürfen wir ausgehend von diesen Bildern eine gewisse Stabilität annehmen. fehlers nun also wiederum. Diesmal allerdings unter dem Stationary Bootstrap. Die Resultate sind zusammengefasst in Tabelle 1. Im folgenden sei Spalte für Spalte erklärt, wie es zu den Einträgen kommt: EIA Typ: Die verschiedenen auf Seite 17 und folgende beschriebenen Equity Indexed Annuities Anzahl Monitor- bzw. Ratchetdaten N : Die Ratchet- und HWM-EIAs hängen jeweils von N + 1 equidistanten Daten 0 = t0 < t1 < ... < tN = T ab. Je grösser N , umso wertvoller die Indexierungsart. Break Even Partizipationsrate ↵⇤ : Was die Indexierungsmethode samt Risikozuschlag kosten darf, ist durch die Einmalprämie und die Garantiebedingung bereits vorgegeben. Deshalb passen wir die Partizipationsrate an. Die Break Even Partizipationsrate ist gerade so gewählt, dass die Einmalprämie P = 1 am Anfang der Laufzeit genau ausreicht zur Finanzierung von garantierter fester Anlage, Hedge und Kapitalkosten. Siehe dazu Seite 149 und folgende. 162 -0.05 0.05 N=2 0 500 1000 1500 2000 2500 3000 2000 2500 3000 Anzahl Simulationen 0.0 0.4 0.8 N=7 0 500 1000 1500 Anzahl Simulationen 0.010 0.020 N=42 0 200 400 600 800 1000 Anzahl Simulationen Abbildung 46: Für die SR-EIA wurde hier für N = 2, 7, 42 jeweils 3’000 Mal der Verlust ohne Hedge simuliert und gleitend der empirische 95%-Expected Shortfall berechnet. Ausgehend von diesen Bilder - man beachte die verschiedenen Skalierungen - scheinen die 3’000 Simulationen ausreichend. ES ohne Hedge: Man könnte ja auch die Möglichkeit ins Auge fassen, überhaupt nicht zu hedgen. Die gesamte Prämie P = 1 legen wir anfangs der Laufzeit fix zu 6% p. a. an41 . Dann ist unser Verlust am Ende der Laufzeit max(REIA , G) 1.067 . Den von 3’000 Simulationen geschätzte Expected Shortfall dieser Verlustvariable nennen wir “ES ohne Hedge”. Auf Vertrauensintervalle verzichten wir hier. In Abbildung 46 erkennen wir, dass wir uns wohl ungefähr auf fünf Hundertstel genau auf den Schätzer verlassen können. 41 Hier brauchen wir kein Geld mehr für ein Hedgeportfolio abzuzweigen. Darum stellte sich hier die Frage nach der Wahl der Partizipationsrate. Ein gangbarer Weg wäre gewesen, die Partizipationsrate nun so zu wählen, dass e rT EQ [max(R, G)] = 1. Wir gehen einfacher vor, und verwenden gerade das für den Hedge-Fall berechnete ↵⇤ aus der dritten Spalte. So wird der ES ohne Hedge und der ES mit Hedge vergleichbarer und der Hedgeeffekt damit quantifizierbar. Dafür sind die vertikalen Unterschiede in dieser Spalte nun etwas ungenau: Denn der Risikozuschlag, der ja in die Break-Even Partizipationsrate einfliesst, ist unterschiedlich für unterschiedliche Produkte. Andererseits fliesst ja gerade in den Risikozuschlag nicht nur Kapitalkosten für den Hedgingverlust, sondern auch eine Korrektur für das Bewerten via EQ [R] anstelle von EQ [max(R, G)] ein. Und diese Korrektur ist ja auch für die Hedge-freie Bewertung nötig. So oder so: Die Resultate sind so deutlich, dass die Interpretation auch mit leicht höheren Partizipationsraten gleich ausfallen würde. 163 ES mit Hedge: Für jedes Produkt und die jeweilige Break Even Partizipation simulieren wir 1’000 Mal vom oben beschriebenen Hedgingfehler L (unter dem Stationary Bootstrap). Von den 1’000 so erhaltenen Werten42 berechnen wir den empirischen 95%-Expected Shortfall (siehe Seite 147). Auch hier verzichten wir auf Vertrauensintervalle, denn wir kennen nicht nur die exakte Verlustverteilung nicht, auch eine Normalapproximation macht hier wegen der Rechtsschiefe der Verteilung wohl wenig Sinn. Abbildung 46 können wir aber so interpretieren, dass wir uns etwa aufs Zehntel genau auf diese Schätzer verlassen können. Risikokapital (RK): Die simulierten Verluste sind mit Kapital gedeckt. Etwa jedes zwanzigste Mal rechnen wir ja sogar mit einem Verlust über das 95%-Quantil hinaus. Genau dafür zahlten wir ja die Kapitalkosten! Und das Mittel dieser Werte sollte in etwa dem im vorigen Kapitel unter dem (FM)-Modell ebenfalls mit 1’000 Simulationen geschätzten 95%-Expected Shortfall des Hedgeverlustes entsprechen. Die genauen Werte für das Risikokapital haben wir nirgends präsentiert. Wir können sie aber aus den jeweiligen Kapitalkosten KK zurückgewinnen durch RK = 4 · er7 · KK ⇡ 5.293 · KK . Für eine Definition der Kapitalkosten KK siehe Seite 149; für die konkreten Werte siehe die Tabellen auf Seite 150 und folgende. 42 Hier wäre sicher eine grössere Zahl von Simulationen wünschenswert, aber die Rechenzeit zusammen mit der relativ grossen Anzahl der nötigen Kennzahlen setzte uns Grenzen. Die “ES mit Hedge”-Werte sind also nur unter Vorbehalt zu betrachten. Allerdings deutet Abbildung 46 ja doch auf eine ordentliche Konvergenz der Schätzer hin. Und sicher ist, dass man die Tendenzen gut genug ablesen kann. 164 ES ohne Hedge ES mit Hedge RK ↵⇤ = 0.750 2.992 0.044 0.034 PTP - CR N N N N N N =2 =4 =7 = 14 = 21 = 42 ↵⇤ ↵⇤ ↵⇤ ↵⇤ ↵⇤ ↵⇤ = 0.675 = 0.531 = 0.439 = 0.331 = 0.276 = 0.202 2.115 1.273 0.880 0.554 0.176 0.161 0.177 0.137 0.063 0.041 0.039 0.038 0.182 0.145 0.072 0.046 0.049 0.046 SR N N N N N N =2 =4 =7 = 14 = 21 = 42 ↵⇤ ↵⇤ ↵⇤ ↵⇤ ↵⇤ ↵⇤ = 0.740 = 0.610 = 0.518 = 0.399 = 0.335 = 0.246 1.544 0.963 0.603 0.375 0.251 0.126 0.177 0.125 0.050 0.023 0.025 0.022 0.182 0.143 0.069 0.030 0.027 0.026 HWM (diskret) N N N N N N N =2 =4 =7 = 14 = 21 = 42 =1 ↵⇤ ↵⇤ ↵⇤ ↵⇤ ↵⇤ ↵⇤ ↵⇤ = 0.656 = 0.598 = 0.568 = 0.536 = 0.525 = 0.508 = 0.462 2.475 2.082 2.072 2.002 1.955 1.942 1.719 0.370 0.294 0.263 0.235 0.214 0.198 0.144 0.369 0.314 0.269 0.236 0.212 0.183 0.140 HWM (kont.) Tabelle 1: Hier sind die Verlustrisiken der in dieser Arbeit betrachteten Produkte zusammenfassend dargestellt. 5.3 Resultate Grundsätzlich kann man sagen: Die Produkte sind gut bewertet, denn das jeweilige Risikokapital ist genau in der Grössenordnung des jeweiligen ES mit Hedge. In den allermeisten Fällen ist das Risikokapital sogar etwas grösser. Dieses Resultat spricht für die “Realitätsnähe” unseres (FM)-Modells, in welchem wir die Höhe des nötigen Risikokapitals ja geschätzt hatten. Katalogartig seien hier weitere Ergebnisse, die man von Tabelle 1 ablesen kann, präsentiert: • Der Effekt des Hedging ist natürlich gewaltig. Der ES ohne Hedge ist in jedem Fall etwa zehnmal grösser als mit Hedge. Zugleich sinkt der ES ohne Hedge in N . Nur leicht im HWM-Fall, aber dramatisch bei den Ratchet-EIAs. 165 • Die CR-, SR- und HWM-EIAs können grob verstanden werden als Verallge- meinerungen von PTP mit N > 1. Der Schritt von PTP zu einer der drei ausgefeilteren EIAs (mit N = 2) ist zwar mit einem Sinken des ES ohne Hedge, aber zugleich mit einem deutlichen Anstieg des ES mit Hedge verbunden: Für diesen Anstieg sehen wir zwei Gründe: – Die Monitordaten bzw. die Ratchetdaten sind heikel für den Hedge, denn kurz vor einem solchen Datum, verhalten sich die Sensitivitäten der EIAs ähnlich wie diejenigen einer Calloption mit ebenso kurzer Restlaufzeit. Das heisst, die delta und gamma sind tendenziell sehr gross. Grosse Greeks bedeuten aber zugleich, dass der Fehler, der durch das immer nur “lineare” (bzw. “quadratische” im Gamma-Fall) Replizieren entsteht, besonders gross ist. – Der Hauptgrund für das starke Ansteigen der verschiedenen Verlustkennzahlen ist aber der Umstand, dass wir aus analytischen Gründen (REIA G) absichern anstelle der eigentlichen Verbindlichkeit (REIA G)+ . Das heisst, am Ende der Laufzeit hat unser Hedging-Portfolio in etwa den Wert (REIA G). In den (seltenen) Fällen, wo am Ende der Laufzeit REIA < G, stehen wir also mit einem leicht vergleichsweise grossen Hedgeverlust 0 (REIA G) = G REIA da. Bei der PTP-EIA gibt es diese speziell grossen Verluste nicht, weil wir dort tatsächlich (REIA G)+ hed- gen. So erklärt sich der Sprung der “ES mit Hedge”-Kennzahl von PTP zu N = 2. • Deutlich erkennen wir, dass der ES mit Hedge in N sinkt. Bei den RatchetGarantien sinkt dieser ES sogar dramatisch, bei den HWM-EIAs deutlich weniger. Wir erklären diesen Effekt analog zum letzten Punkt. – Die Gefahr für das Auftreten von REIA < G sinkt, wenn N steigt. Das jeweilige ↵⇤ ist zwar immer gerade so angepasst, dass all die Produkte ungefähr denselben Wert haben, das ändert aber nichts daran, dass die Streuung um diesen Erwartungswert herum mit steigendem N kleiner wird (das kann man etwa in der Spalte “ES ohne Hedge” ablesen). 166 – Das kann aber nicht der einzige Grund sein. Denn warum sollte der ES mit Hedge sonst sogar unter den entsprechenden Wert bei der PTP-EIA sinken (0.044)? Ein weiterer Grund für das Sinken des ES mit Hedge in N ist, dass sich die weiter oben beschriebene Hedging-Problematik an den Ratchet- bzw. Monitordaten je besser “diversifiziert”, desto mehr Ratchetbzw. Monitordaten es gibt. • Vergleicht man das zur Verfügung stehende Risikokapital (also den Expected Shortfall unter dem (FM)-Modell) mit dem ES mit Hedge (also dem Expected Shortfall unter dem Stationary Bootstrap) fällt auf, dass unser Kapitalpolster fast in jedem Fall gross genug ist. Diese Tendenz ist zu eindeutig, als dass sie sich allein mit der Schätzungsungenauigkeit erklären liesse. Unter dem (FM)Modell scheint die LOC-Garantie etwas häufiger werthaltig zu sein (das heisst REIA < G) als unter dem Stationary Bootstrap. Und der im vorletzten Punkt beschriebene Effekt ist entsprechend bei der Risikokapitalschätzung ausgeprägter als beim ES mit Hedge. Für diese Begründung spricht auch, dass einzig beim PTP-Fall, wo wir ja “exakt” hedgen, das Risikokapital zu klein ist für den ES mit Hedge. Festzuhalten ist aber vor allem, dass eben die Grössenordnung von Risikokapitel und ES mit Hedge dieselbe ist. Selbst wenn wir unseren Schätzern volles Vertrauen schenkten: Eine etwas andere Datenwahl für die Kalibration des (FM)-Modells bzw. für den Stationary Bootstrap könnte zu einer Umkehrung der Verhältnisse führen (also Risikokapital immer etwas kleiner als mit Hedge). • Die Simple Ratchet-EIAs sind weniger verlustanfällig als die Compound RatchetEIAs. • Bei den HWM-EIAs sind sowohl ES mit Hedge als auch ohne jeweils am grössten, wenn man die Werte vergleicht mit den Ratchet-EIAs mit den entsprechen- den N s. Erinnern wir uns: Bei den HWM-EIAs fanden wir keinen Weg, um die exakten Sensitivitäten zu finden. Stattdessen berechneten wir die Greeks ausgehend von der Bewertungsformuel für die kontinuierliche HWM-Indexierung. Der Einfluss dieser Approximation scheint hier aber nicht für die hohen Werte ausschlaggebend zu sein: Mit dem ES o h n e Hedge haben die Sensitivitäten 167 ja gar nichts zu tun. Und beim ES mit Hedge ist finden wir ja beim kontinuierlichen HWM-Fall eine Kennzahl in derselben Grössenordnung - trotz korrekten Sensitivitäten. • Die kontinuierliche HWM-EIA bildet nicht nur in N , sondern auch bei der Break Even Partizipationsrate, den Verlustrisikokennzahlen und dem Risikokapital offenbar einen Grenzwert ihrer diskreten Schwestern. Wir haben es gesehen: Das Hedgen von (R G) anstelle von (R G)+ (nennen wir dieses Vorgehen “Bewertungsapproximation”) hat einen grossen Einfluss auf unsere Untersuchungen. Nachgetragen seien hier noch drei Kommentare speziell zu diesem Umstand: • Man darf die Resultate, die durch die Bewertungsapproximation entstehen, keineswegs irgendwie als “künstliche” Effekte abtun, die isoliert in der vorliegenden Arbeit auftreten. Unsere Herangehensweise an die Bewertung und die Absicherung von “diskreten” EIAs ist d i e Herangehensweise in der Literatur. Stellvertretend sei auch hier wieder auf das Standardwerk von Hardy verwiesen [12]. • Der exakte Wert des PEMG, also e r⌧ ⇥ EQ t (REIA ⇤ G)+ , ist natürlich immer positiv. Man könnte nun versucht sein zu sagen: Warum hedgen wir denn nicht also (REIA G), aber sobald der Wert des Hedgeportfolios kleiner gleich Null ist, liquidieren wir unsere Positionen in Indextracker, Calloptionen, IRS und VS? Das ist leider kein ohne weiteres gangbarer Weg. Denn was, wenn der Wert der Indexierungsmethode R wieder ansteigt? Dann reagiert unser Hedgeportfolio überhaupt nicht mehr und am Ende stünde man wiederum mit einem happigen Verlust da. Für diese Vorgehensweise müsste man also zunächt klären, was ganz genau die Bedingungen für eine solche “Ausstiegsentscheidung” sein sollen - abhängig vom Wert der Indexierungsmethode, dem Zeitpunkt, der Volatilität ... Und dann gälte es, unsere “naive” Bewertungsapproximation mit einem Hedge mit Ausstiegsmöglichkeit systematisch zu vergleichen. • Zu guter Letzt sei hier betont, dass die Bewertungsapproximation nicht der einzige Grund für die Effekte sein kann, sondern dass eben auch die oben 168 150 50 0 Häufigkeit N=2 -0.05 0.00 0.05 0.10 0.15 0.20 0.10 0.15 0.20 0.10 0.15 0.20 Verlust mit Hedge 200 100 0 Häufigkeit 300 N=7 -0.05 0.00 0.05 Verlust mit Hedge Häufigkeit 0 50 100 N=42 -0.05 0.00 0.05 Verlust mit Hedge Abbildung 47: Für die SR-EIA wurde hier für N = 2, 7, 42 jeweils 1’000 Mal der Verlust mit Hedge simuliert. Deutlich erkennen wir, wie die Rechtsschiefe - Effekt der Bewertungsapproximation - in N abnimmt. Zugleich nimmt natürlich auch der Expected Shortfall (gestrichelt) ab. Die Lage der Verteilung, leicht rechts von null, ist Ausdruck der systematischen Unterschätzung h des wahreni Wertes + durch die Bewertungsapproximation, das heisst e ⌧ Et [REIA G] e ⌧ Et (REIA G) . Auch dieser Effekt nimmt deutlich ab in N . Für N = 42 haben wir bereits eine “schöne” symmetrische Glockenverteilung. beschriebenen Hedgeschwierigkeiten kurz vor den Ratchet- bzw. Monitordaten eine Rolle spielen. Weitere Hinweise für diese Sichtweise liefern Abbildungen 25 und 26. Soweit also die Resultate, die wir mit aufwändigen Bewertungsformeln, realistischem Hedgingalgorithmus, komplex zu kalibrierendem (FM)-Modell und elegantem Stationary Bootstrap in dieser Arbeit liefern konnten. In einem letzten kurzen Kapitel wollen wir nun einerseits noch Vorschläge liefern, was diese Ergebnisse für die konkrete Produktgestaltung bedeuten könnten, und andererseits zeigen, was vielleicht Schwächen unseres Vorgehen waren und an welchen Stellen man noch etwas weiterdenken könnte. 169 6 6.1 Schlussworte Mögliche Folgerungen für Produktausgestaltung Wir lagen mit unserer Vermutung im Vorwort also richtig: Ein Mehr an Ratchetbzw. Monitordaten verringert das Verlustrisiko des Produkts erheblich. Ja, nach unseren Zahlen ist es sogar so, dass man Ratchet-EIAs mit grossem N sehr gut völlig ungehedgt lassen könnte! Aber ein monatliches Ratcheting zusammen mit einer Partizipationsrate um die 10% wird Kunden wohl eher abschrecken als anziehen. Solche Fragen müsste jedoch das Marketing klären. Setzt man - wie wir - auf ein realistisches Modell für die Festlegung des Risikokapitals, lassen sich nach unseren Ergebnissen mögliche Verluste in jedem Fall gut vorhersehen und entsprechend mit einem Kapitalpolster abdecken. Bedenkt man, dass viele Kunden den Effekt des Zinseszins unterschätzen bzw. auch gar keine Kenntnis haben von der Existenz der jeweils anderen Ratchetmethode, sollte man als Versicherer wohl immer eher auf Simple Ratchet Garantien setzen. Hier kann man höhere Partizipationsraten bieten, und das Verlustrisiko ist geringer. HWM-EIAs haben verkaufstechnisch sicher den Vorteil, dass ihr Mechanismus am intuitivsten ist. Allerdings sehen wir in der Tabelle, dass diese Garantien die höchsten Verluste aufweisen - mit und ohne Hedge. Zugleich beobachten wir aber, dass wir auch hier das Risikokapital sehr genau schätzen konnten. Und trotz der vergleichsweise hohen Kapitalkosten können wir bei HWM-EIAs grössere Partizipationsraten als bei den Ratchet-EIAs anbieten, weil der faire Preis der Indexierungsmethode günstiger ist. Zusammenfassend: Nach unseren Resultaten sinkt das Risiko - zum Teil massiv, wenn man die Anzahl der Monitor- bzw. Ratchetdaten anhebt. Zugleich sinken aber die Partizipationsraten ähnlich deutlich. Und wenn die Partizipationsrate in den Bereich unter 40% rutscht, werden wohl viele Kunden abwinken. Deshalb wird das Marketing - vor allem die Partizipationsrate im Auge - versuchen N hinunterzudrücken. Das Risk Management sollte sich hier entgegenstemmen. 170 6.2 Kritikpunkte und Ideen für Weiterarbeit Drei Dinge, die in der Realität sehr wichtig sind für die Bewertung von EIAs bzw. Optionenen, liessen wir der Einfachheit halber unberücksichtigt: Die Lapse Rates, das Sterblichkeitsrisiko und die Transaktionskosten. Letztere dürften sich bei den von uns gewählten Hedgeinstrumenten und unserem wöchentlichen Handel aber in Grenzen halten. Lapse Rates und Sterblichkeitsrisiko gehören eher zur bestandsweisen Betrachtung von EIAs, die hier ebenfalls unbesprochen blieb. Eine rein mathematische Schwäche der Arbeit ist gewiss das fehlende Quantifizieren von Konvergenzgeschwindigkeiten bei den verschiedenen Schätzern oder auch beim MarkovkettenMonte-Carlo. Hier verliessen wir uns ganz auf graphische Methoden und Empirie. Zudem sind die in den letzten beiden Kapiteln vorgestellten Resultate sehr empfindlich auf bestimmte Annahmen. Das soll hier nicht verschwiegen werden: Die Wahl der Daten entscheidet über die Kalibration der (FM)-Parameter und über das Verhalten des Stationary Bootstrap. Würde man hier einen anderen Zeitraum betrachten, oder dieselben Untersuchungen in einem Jahr nochmals machen, ergäben sich freilich neue Resultate. Die Wahl der Zinssätze (mal ganz abgesehen von der Modellierung der Short Rate), nämlich die Wahl des garantierten Zinses (hier 3% p. a.) und dem für uns verfügbaren langfristigen Zins (hier 6% p. a.), entscheidet über den Zinsspread. Den Hauptteil der Kosten für die Option zahlen wir von diesem Effekt. Veränderungen des Zinsspread haben deshalb einen grossen Einfluss auf die Break Even Partizipationsrate. Dieser Einfluss wird umso grösser, je länger die Laufzeit der EIA ist. Bei den Untersuchungen im Rahmen dieser Arbeit wurde ausserdem sehr deutlich, welch grosse Rolle die Volatilitätsannahmen bei der Bewertung von Derivaten spielen. Es ist völlig klar, dass ein Verzicht auf ihre stochastische Modellierung äusserst unrealistisch ist - gerade wenn man derart lange Zeiträume wie die Laufzeiten von EIAs betrachtet. Wenn man sich - wie in dieser Arbeit - sehr zahlennah mit Bewertungen beschäftigt hat und viele Wertverläufe mit Volatilitätsverläufen verglichen hat, der weiss, dass die Volatilitätsentwicklung ganz entscheidend die Wertentwicklung von Derivaten prägt. Phasenweise überdeckt der Einfluss der Volatilität sogar den Einfluss des Underlying! Entsprechend empfindlich sind alle Untersuchungsergebnisse auf die Wahl des Volatilitätsparameters (im konstanten Fall) bzw. auf die Wahl des 171 Volatilität-Modells. Wir verwendeten in dieser Arbeit ein stochastisches Volatilitätsmodell mit zwei Regimes. Als Grösse für die implizierte Volatilität berechneten wir ausgehend von der Indexenwicklung einen Schätzer mit der EWMA-Methode. Die Wahl des Decayparameters dieser Methode hat ebenfalls grossen Einfluss. In einigen Punkte könnte ein geschickterer Programmierer die vorliegende Arbeit wohl verbessern: Etwa bei der Berechnung unserer Formel für die diskrete HWMBewertung zum Zeitpunkt 0. Hier gilt es eine Summe über alle Partitionen der Zahl N zu berechnen. Das gelang uns nur für N 60. Das Problem ist hier aber weniger die Rechenzeit als vielmehr die immense Matrixgrösse für die Auflistung der Partitionen von N . Ein ambitionierter Programmierer könnte hier wohl einen Weg finden, dass der Rechner nicht alle Partitionen abspeichert, sondern Stück für Stück abarbeitet. Andere der vorgestellten Methoden sind sehr Rechenzeit-intensiv. Etwa die rekursiv programmierten Log-Likelihood Funktion für das (FM)-Modell. Soll der Computer hiervon maximieren dauert das - je nach Anzahl a priori Daten - “ewig”. Auch das Markovketten-Monte-Carlo, das für jeden Schritt ja auch unter anderem einen Wert dieser Log-Likelihood Funktion benötigt, ist entsprechend langsam. Dabei bräuchte es auch hier häufige Durchläufe, so dass man jeweils Parameter nachbessert kann (zum Beispiel die Kovarianzmatrix der Vorschlagsverteilung). Das Hauptproblem hinsichtlich Rechenzeit waren aber die Hedging-Durchläufe (bis zu drei Stunden für 1000 Stück!). Das machte die konkreten Untersuchungen etwas stockend und am Ende die Ergebnisse wegen mangelnder Wiederholungen weniger genau als gewünscht. Diese Schwierigkeiten stellen sich in zehn Jahren wohl weniger deutlich. Hieran scheiterte auch ein systematischer Vergleich der verschiedenen Hedging-Kombinationen. So könnte man etwa ganz konkret die Frage klären, ob und wann es den rho-Hedge überhaupt braucht. Dieser schien uns den kleinsten, manchmal kaum wahrnehmbaren Effekt zu haben. Das könnte aber auch unserer Zinsmodellierung geschuldet sein. Denn sowohl das RSLN-Modell als auch der Stationary Bootstrap erzeugen sehr realistische Kursverläufe, aber der “MeanReverting”-Ansatz des Cox-Ross-Ingersoll Modells ist über lange Zeiträume nicht besonders überzeugend: Im Vergleich zu historischen Daten scheint der Zinsverlauf zu stabil. Vielleicht wäre es einmal interessant, über ein Zinsmodell mit “Mean- 172 Regimes” nachzudenken? Etwa 1%, 3% und 6%? Der ergebnismässige Höhepunkt dieser Arbeit ist Proposition 8. Hier wird eine neue, exakte Formel zur Bewertung der diskreten HWM-Indexierungsmethode geliefert. Leider fanden wir für die fortlaufende Bewertung keine entsprechend brauchbare Formel. Darum schätzten wir die jeweiligen Werte. Die Sensitivitäten approximierten wir durch die leicht verfügbaren Greeks der kontinuierlichen HWM-Indexierung. Hier wäre es interessant, den Fehler, der so entsteht, zu quantifizieren. Naheliegend, aber wohl auch einiger vergleichender Untersuchung bedürfend, wäre eine Schätzung der HWM-Greeks analog zum Schätzen des HWM-Wertes. Proposition 8 lässt sich direkt auf das Analogon von HWM-EIAs in der Optionswelt, nämlich (diskreten) Lookback-Optionen übertragen. Das scheint ein bislang unbekanntes Resultat zu sein. Vielleicht könnte man mit dem “Permutationstrick” von Spitzer auch für die BSM-Bewertung von (diskreten) Barrier-Optionen neue Lösungen finden. In der Rückschau kann man insgesamt sagen: Das recht naive43 Hedging (zusammen mit der Risikokapitalschätzung) funktionert eigentlich derart gut, dass die beschriebenen Partizipationsmöglichkeiten auf Aktienindizes samt Garantieversprechen für den Versicherer gar kein besonders grosses Risiko mehr darstellen! Interessant wäre nun, die in dieser Arbeit verwendeten Modelle, Kalibrierungsmethoden, Bewertungsansätze und Risikomanagementtechniken auf heiklere VA-Produkte zu übertragen: Etwa VAs, bei denen das Geld regelmässig umgeschichtet wird zwischen einer risikolosen und einer riskanten Anlage, oder VAs, die sich auf einen eigens zusammengestellten Fond beziehen. Hier käme dann zusätzlich die Frage der Modellierung der Abhängigkeiten ins Spiel (Copulas!). Ausserdem sind dann viel weniger Daten verfügbar, was das Kalibrieren der Modelle anspruchsvoller und die Verwendung von historischen Techniken schwierig macht. Abschliessend soll gesagt sein, dass alle in dieser Arbeit betrachteten Methoden auch über die Verwendung auf EIAs hinaus interessant sind. Man kann den Text lesen als beispielhafte Umsetzung von vielen Dingen, die man während eines mathematischen Masterstudiums mit Vertiefung in Risikomanagement kennenlernt. Und vielleicht erkennt man wie der Autor: Manches wird in der Anwendung einfacher, manches schwieriger als an der Wandtafel des Professors. 43 “naiv” wegen der Vollständigkeits-Annahme und der Bewertungsapproximation 173 Literatur [1] V.M. Belyaev (2011) Pricing Variable Annuity Contracts With High Water Mark Feature Allianz Life, MN, USA [2] Fischer Black, Myron Scholes (1979) The Pricing of Options and Corporate Liabilities Journal of Political Economy, Vol. 81, Nr. 3, S.637-654 [3] Mark Broadie, Paul Glasserman, S.G. Kou (1999) Connecting discrete and continuous path-dependent options Finance and Stochastics 3, 55–82 [4] Richard Durett (1996) Probability: Theory and Examples, second edition Duxberry Press [5] S. Bossu, E. Strasser, R. Guichard (2005) Just What You Need To Know About Variance Swaps JPMorgan - Londen [6] EIOPA (European Insurance And Occupational Pensions Authority) (2011) Report on Variable Annuities EIOPA-11/031 [7] Alexander McNeil, Rüdiger Frey, Paul Embrechts (2005) Quantitative Risk Management Princeton University Press [8] Hans Föllmer and Alexander Schied (2004) Stochastic Finance (second edition) de Gruyter, Studies in Mathematics 27 [9] M. Barry Goldman, Howard B. Sosin and Mary Ann Gatto (1979) Path Dependent Options: "Buy at the Low, Sell at the High" The Journal of Finance, Vol.304, Nr.5, December 1979, S.1111-1127 174 [10] Robert Hankin (2005) Additive Integer Partitions In R Hankin RKS (2005). “Additive integer partitions in R.” Journal of Statistical Software, Code Snippets, 16(1) [11] Melanie Hauser (2010) Dynamisches Hedging zur Absicherung des Garantierisikos bei indexgebundenen Versicherungen IFA-Schriftenreihe [12] Mary Hardy (2003) Investment Guarantees John Wiley & Sons [13] James Hamilton, Raul Susmel (1994) Autoregressive Conditional Heteroskedasticity and Changes in Regime Journal of Econometrics, 64, 307-333 [14] Ming-hua Hsieh and Yu-fen Chiu (2007) Monte Carlo Methods For Valuation Of Ratchet EIAs John Wiley & Sons [15] A.J.E.M. Jansen and J.S.H. van Leeuvaarden (2007) Cumulants of the Maximum of the Gaussian Random Walk Stochastic Processes and their Applications: Vol. 117, Nr. 12 [16] Tigran Kalberer and Kannoo Ravindran (editors) (2009) Variable Annuities - A Global Perspective Risk Books [17] Olav Kallenberg (2002) Foundations of Modern Probability, Second Edition Springer [18] Hansruedi Künsch (1989) The Jackknife and the Bootstrap for General Stationary Observations The Annals of Statistics, Vol.17, S.1217-1241 175 [19] Hansruedi Künsch (2011) Stochastische Simulation Skript zur Vorlesung des HS 10 [20] Marek Musiela und Marek Rutkowski (2005) Martingale Methods in Financial Modelling Springer [21] Dimitris Politis und Joseph Romano (1994) The Stationary Bootstrap Journal of the American Statistical Society, Vol.89, Nr.428 [22] Frank Spitzer (1956) A Combinatorial Lemma And Its Applications To Probability Theory AMS 82, S.323-339 [23] Gerold Studer (2011) Variable Annuities and Risk Management Präsentation zum jährlichen Treffen der Schweizerischen Aktuarsvereinigung [24] Tanja Stutz (2001) The Pricing of Equity-Linked Life Insurance Policies Diplomarbeit an der ETH Zürich [25] Nassim Taleb (1997) Dynamic Hedging John Wiley & Sons [26] Luke Tierney (1994) Markov Chains for Exploring Posterior Distributions The Annals of Statistics, Vol.22, Nr.4, S.1701-1728. [27] Serena Tiong (2000) Valuing Equity-Indexed Annuities North American Actuarial Journal, Vol.4, Nr. 4 176 Verwendete Webseiten: http://www.savewealth.com/retirement/annuities/history/ (17.10.2011) http://www.savewealth.com/retirement/annuities/index/ (19.10.2011) http://www.annuityadvantage.com/annuitydataequity.htm (19.10.2011) http://www.indexannuity.org/rates_by_carrier.htm (19.10.2011) http://www.risk.net/data/Pay_per_view/risk/technical/2000/risk_0100_volatility.pdf (12.12.2011) http://www.bundesbank.de/statistik/statistik_zeitreihen.php (11.1.2011) Die im Schlussteil der Arbeit verwendeten Daten entstammen allesamt dem Datenservice der Deutschen Bundesbank. Alle für Bewertung, Kalibration und Simulation benötigten Programme wurden mit dem offenen Statistikprogramm R geschrieben. Auch alle diesbezüglichen Graphiken wurden mit R erstellt. Den zahllosen wahrscheinlich ziemlich namenlosen und sicherlich nicht besonders reichen Programmierern, die dieses grossartige Programm ins Leben gerufen haben, immer weiterentwickeln und ihre Arbeit dann frei zur Verfügung stellen, sei hier abschliessend noch ein Kränzchen gewunden. 177