Jan Kallsen Mathematical Finance Eine Einführung in die zeitdiskrete Finanzmathematik CAU zu Kiel, WS 09/10, Stand 28. Oktober 2009 Inhaltsverzeichnis 0 Erinnerung Stochastik 3 1 Mathematische Hilfsmittel 1.1 Absolutstetigkeit und Äquivalenz . . . . . . . . . . . . . . . . . . . . . . . 1.2 Der Hilbertraum L2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Bedingter Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 8 9 2 Diskrete stochastische Analysis 2.1 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Stochastisches Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 19 21 24 2 Kapitel 0 Erinnerung Stochastik Diese Vorlesung setzt bisweilen Kenntnisse in maßtheoretischer Wahrscheinlichkeitstheorie voraus. Hier werden einige wichtige Begriffe zusammengestellt. Sie reichen zum Verständnis der wesentlichen Ideen und Resultate der folgenden Kapitel aus, wenn auch nicht in der dargestellten mathematischen Allgemeinheit. Grundlage der Wahrscheinlichkeitstheorie bildet ein Grund- oder Ergebnisraum Ω, der die möglichen Ausgänge oder Ergebnisse eines Zufallsexperiments umfasst (z.B. Ω = {1, 2, 3, 4, 5, 6} für einen Würfelwurf oder Ω = R für die zu einem bestimmten Zeitpunkt gemessene Temperatur). Diese Ergebnisse treten mit gewissen Wahrscheinlichkeiten auf. Diese werden durch ein Wahrscheinlichkeitsmaß P ausgedrückt. In der Regel betrachtet man allerdings nicht Wahrscheinlichkeiten von einzelnen Ergebnissen, da diese bei Expreimenten mit überabzählbarem Grundraum wie Ω = R oft alle 0 sind. Die Wahrscheinlichkeit, genau 20,1258◦ C zu messen, ist wie bei jeder anderen ganz genau angegebenen Temperatur „unendlich klein“, also 0. Stattdessen betrachtet man Wahrscheinlichkeiten von Teilmengen des Ergebnisraums wie etwa [20; 20,5], also einer Temperatur zwischen 20◦ und 20,5◦ . Solche Teilmengen von Ω heißen Ereignisse. Die Menge aller Teilmengen A ⊂ Ω ist die Potenzmenge P(Ω). Man stößt bei überabzählbaren Grundräumen auf tiefligende mathematische Probleme, wenn man versucht, jedem Ereignis A ⊂ Ω eine Wahrscheinlichkeit zuzuordnen. Man beschränkt sich daher auf hinreichend viele, nämlich solche aus einer vorgegebenen σ-Algebra F . Darunter versteht man eine Teilmenge der Potenzmenge, die abgeschlossen unter abzählbaren Mengenoperationen wie Vereinigung, Schnitt, Komplementbildung ist. Formal ausgedrückt: Definition 0.1 F ⊂ P(Ω) heißt σ-Algebra, falls 1. Ω ∈ F , 2. AC ∈ F für alle A ∈ F (wobei AC := Ω \ A), 3. ∪∞ i=1 Ai ∈ F falls A1 , A2 , . . . ∈ F . 3 4 KAPITEL 0. ERINNERUNG STOCHASTIK Man kann dann zeigen, dass auch Schnittmengenbildung usw. nicht aus der σ-Algebra herausführen. Anschaulich kann man sich eine σ-Algebra als etwas Ähnliches wie die Potenzmenge vorstellen, nur vielleicht etwas kleiner. Ab jetzt sei neben dem Grundraum Ω auch die σ-Algebra F festgelegt; man spricht von einem meßbaren Raum (Ω, F ). Unter Ereignissen versteht man im engeren Sinne die Elemente von F , also die Teilmengen von Ω, die zur betrachteten σ-Algebra gehören. Sie werden auch messbare Mengen genannt. Wenn es sich bei dem Grundraum um R oder allgemeiner Rd handelt, verewendet man üblicherweise die sogennante Borel-σ-Algebra B bzw. B d , ohne dies zu erwähnen. Deren formale Definition als kleinste σ-Algebra, die alle offenen Mengen enthält, führt an dieser Stelle zu weit. Hier sei nur erwähnt, dass diese σ-Algebra alle “vernünftigen“ Mengen enthält. Konkret ist es nicht leicht, eine Teilmenge von R bzw. Rd anzugeben, die keine Borelmenge, also nicht in der Borel-σ-Algebra enthalten ist. Bei endlichen und allgemeiner abzählbaren Grundräumen hat man es einfacher. Hier verwendet man in der Regel die Potenzmenge als σ-Algebra, die angedeuteten Probleme treten in solch „kleinen“ Räumen nicht auf. Das Wahrscheinlichkeitsmaß, das unser Zufallsexperiment beschreibt, ordnet jedem Ereignis eine Wahrscheinlichkeit zu. Formal: Definition 0.2 P : F → R heißt Wahrscheinlichkeitsmaß auf (Ω, F ), falls es normiert und σ-additiv ist, d.h. falls gilt: 1. P (Ω) = 1, 2. P (∪∞ i=1 Ai ) = P∞ i=1 P (Ai ), falls A1 , A2 , . . . ∈ F paarweise disjunkte1 Mengen sind. (Ω, F , P ) heißt Wahrscheinlichkeitsraum. Aus Normiertheit und σ-Additivität kann man weitere allgemein bekannte Rechenregeln für Wahrscheinlichkeiten ableiten. Die beiden Bedingungen lassen sich durch die entsprechenden Eigenschaften relativer Häufigkeiten motivieren. In der Tat kann man sich Wahrscheinlichkeiten als eine Art idealisierte relative Häufigkeiten vorstellen: Eine Wahrscheinlichkeit P ([20; 20,5]) = 0,05 bedeutet anschaulich, dass man nach millionenfacher erneuter Durchführung des Zufallsexperiments unter gleichen Bedingungen (hier: der Temperaturmessung) in etwa 5% der Fälle ein Ergebnis im Intervall [20; 20,5] erhält. Dass eine solche Wiederholung des Zufallsexperiments nicht immer tatsächlich möglich ist, soll dabei außer Acht gelassen werden. Wenn man die Normierungsbedingung P (Ω) = 1 in Definition 0.2 weglässt, erhält man übrigens den allgemeineren Begriff eines Maßes, der sich auch für Länge, Fläche, Volumen, Masse und anderes eignet. Das Lebesguemaß λ auf R etwa ordnet jeder Menge deren Länge zu, d.h. es gilt λ((a, b]) = b − a für Intervalle mit a ≤ b. Oft interessiert man sich nicht für das genaue Ergebnis ω ∈ Ω eines mitunter sehr komplexen Zufallsexpreiments, sondern nur für einen quanitativen Aspekt X(ω) davon. Bei ω könnte es sich z.B. um den Zustand des gesamten Finanzmarkts an einem festgelegten Zeitpunkt handeln, bei X(ω) hingegen nur um den e-$-Wechselkurs in diesem Moment. Solche 1 d. h. Ai ∩ Aj = ∅ für i 6= j 5 X bezeichnet man als Zufallsvariable oder Zufallsgröße. Formal versteht man darunter eine Abbildung X : Ω → R, die die technische Bedingung der Messbarkeit erfüllt, die für die Theorie benötigt wird. Definition 0.3 Eine Abbildung f : Ω → R heißt messbar (genauer: F -B-messbar), falls f −1 (B) ∈ F für alle B ∈ B. Messbarkeit ist automatisch gegeben, wenn es sich bei der σ-Algebra F um die Potenzmenge P(Ω) handelt. Der Erwartungswert E(X) einer Zufallsvariablen steht anschaulich für den Mittelwert der Werte von X, den man bei millionenfacher Durchführung des Experiments unter identischen Bedingungen erhält. Im Falle eines endlichen oder abzählbaren Grundraums ist dies X E(X) := X(ω)P ({ω}). (0.1) ω∈Ω Auf der rechten Seite werden die möglichen Werte X(ω) mit der Wahrscheinlichkeit P ({ω}) ihres Auftretens gewichtet, die ja anschaulich dem Anteil der Versuchswiederholungen entspricht, in dem man das Ergebnis ω erhält. Für überabzählbare Grundräume wie R ist (0.1) sinnlos; man verwendet dann die allgemeinere Definition Z Z E(X) := XdP = X(ω)P (dω), (0.2) zu deren Verständnis man allerdings zunächst das Lebesgue-Integral auf der rechten Seite einführen muss. Es lehnt sich schon in der Notation an (0.1) an: Das von Leibniz eingeführte Integralzeichen symbolisiert ein stilisiertes S für Summe; das P (dω) erinnert an den Term P ({ω}) in (0.1). Die fomale Definition des Integrals ist schwierig und führt hier zu weit. Wichtig ist an dieser Stelle nur, dass (0.2) in abzählbaren Grundräumen nichts anderes als (0.1) bedeutet. Allgemeiner sind Integrale Z Z f dµ = f (ω)µ(dω) für Maße µ auf (Ω, F ) und messbare Abbildungen f : Ω → R definiert. Für endliches Ω wird daraus ebenfalls eine Summe Z X f (ω)µ(dω) = f (ω)µ({ω}). (0.3) ω∈Ω Integrale über Mengen A ∈ F sind einfach durch Z Z f dµ := f 1A dµ A definiert, wobei 1A (ω) := 1 0 falls ω ∈ A, sonst 6 KAPITEL 0. ERINNERUNG STOCHASTIK die Indikatorfunktion von A bezeichnet. Im endlichen Falle ist also Z Z X f dµ = f (ω)µ(dω) = f (ω)µ({ω}). A A ω∈A Auch für endliches Ω sind die rechten Seiten von (0.1) und (0.3) strenggenommen nur dann definiert, falls die einelementigen Mengen ω in F liegen, d.h. falls F = P(Ω). Andernfalls gilt aber immerhin Z X E(X) = XdP = xP (X = x). (0.4) x∈R wobei wir die übliche abkürzende Schreibweise P (X = x) := P ({ω ∈ Ω : X(ω) = x}) verwenden. Die Summe auf der rechten Seite erstreckt sich dabei nur über die endlich vielen Werte x, die tatsächlich von X angenommen werden. Ähnlich kann auch die rechte Seite von (0.3) umgeschrieben werden. Kapitel 1 Mathematische Hilfsmittel In diesem Kapitel werden einige maß-, wahrscheinlichkeitstheoretische und funktionalanalytische Begriffe vorgestellt, die in einführenden Stochastik- und Analysis-Vorlesungen vielleicht nicht zur Sprache kamen. Beweise liefern wir dabei nur in Abschnitt 1.3 über bedingte Erwartungswerte, ansonsten sei auf die Literatur verwiesen, z. B. [?, ?, ?]. 1.1 Absolutstetigkeit und Äquivalenz Ein ganz wesentlicher Kunstgriff in der Finanzmathematik besteht darin, neben dem eigentlichen Wahrscheinlichkeitsmaß weitere zu betrachten, unter denen bestimmte Erwartungswerte verschwinden. Dabei interessiert man sich aber vorwiegend für solche Maße, unter denen die Mengen mit positiver Wahrscheinlichkeit dieselben wie unter dem ursprünglichen Wahrscheinlichkeitsmaß sind. Solche äquivalenten Maßwechsel spielen auch in der Statistik eine wichtige Rolle. Seien µ, ν Maße auf einem messbaren Raum (Ω, F ). Später werden wir fast ausschließlich Wahrscheinlichkeitsmaße betrachten. Definition 1.1 Das Maß ν heißt absolutstetig bezüglich µ, falls jede µ-Nullmenge auch eine ν-Nullmenge ist. Man schreibt dafür ν µ. 1 Dabei ist eine µ-Nullmenge eine beliebige Teilmenge einer Menge N ∈ F mit µ(N ) = 0. Man fordert bei Nullmengen also nicht unbedingt die Messbarkeit. Dies ist bisweilen aus technischen Gründen sinnvoll. Definition 1.2 µ und ν heißen äquivalent, falls µ ν und ν µ. Man schreibt dafür µ ∼ ν. Der Satz von Radon-Nikodým besagt, dass das dominierte Maß bei Absolutstetigkeit schon eine Dichte bzgl. des dominierenden Maßes besitzt. 1 ν µ bedeutet für endliches Ω einfach, dass aus µ({ω}) = 0 schon ν({ω}) = 0 folgt. 7 8 KAPITEL 1. MATHEMATISCHE HILFSMITTEL Satz 1.3 (Radon-Nikodým) Sei µ σ-endlich (d.h. es existieren Mengen A1 , A2 , . . . ∈ F 2 mit ∪∞ i=1 Ai = Ω und µ(Ai ) < ∞ für alle n). Dann sind äquivalent: 1. ν hat eine µ-Dichte f (d. h. es gibt eine nichtnegative messbare Abbildung f : Ω → R R mit ν(A) = A f dµ für alle A ∈ F ).3 2. ν µ. Die Dichte 1.2 dν dµ := f ist µ-fast überall eindeutig.4 Der Hilbertraum L2 Sei (Ω, F , P ) ein Wahrscheinlichkeitsraum. Man definiert L2 (Ω, F , P ) := {X : Ω → R : X F -messbar, E(|X|2 ) < ∞}. Für endliches Ω ist dies einfach die Menge aller Zufallsvariablen X : Ω → R. Satz 1.4 L2 (Ω, F , P ) ist ein Hilbertraum bzgl. des Skalarprodukts (X, Y ) 7→ E(XY ), falls man fast sicher gleiche Zufallsvariablen identifiziert. Das bedeutet, dass L2 (Ω, F , P ) ein Vektorraum ist, die Abbildung (X, Y ) 7→ E(XY ) die Eigenschaften eines Skalarprodukts besitzt (mit der kleinen Einschänkung, dass E(X 2 ) = 0 nicht X = 0, sondern nur die etwas schwächere Aussage X = 0 P -fast sicher impliziert) und der Raum bezüglich der durch dieses Skalarprodukt induzierten Norm vollständig ist. Im Rest des Abschnitts sei p H ein beliebiger Hilbertraum mit Skalarprodukt h·, ·i und der dazugehörigen Norm kxk := hx, xi. Wir werden die folgenden Aussagen später nur für den L2 verwenden. Elemente x, y heißen orthogonal, falls hx, yi = 0. Entsprechend heißen x ∈ H, Γ ⊂ H orthogonal, falls hx, yi = 0 für alle y ∈ Γ. Das orthogonale Komplement von Γ ⊂ H wird definiert als Γ⊥ := {x ∈ H : x orthogonal zu Γ}. Es gilt der Satz 1.5 (Pythagoras) Für orthogonale x, y ∈ H ist kx + yk2 = kxk2 + kyk2 . Satz 1.6 Das Skalarprodukt und die Norm sind stetig, d. h. hxn , yn i → hx, yi und kxn k → kxk für Folgen (xn )n∈N , (yn )n∈N in H mit xn → x, yn → y. Satz 1.7 Für Γ ⊂ H ist Γ⊥ ein abgeschlossener Unterraum von H. 2 3 Im Falle endlichen Grundraums oder für ein Wahrscheinlichkeitsmaß gilt dies automatisch. Für endliches Ω heißt das also X ν(A) = f (ω)µ({ω}). ω∈A 4 Für endliches Ω ist f (ω) = ν({ω}) µ({ω}) sofern nicht µ({ω}) = 0, und Gleichung (1.1) ist offensichtlich. (1.1) 1.3. BEDINGTER ERWARTUNGSWERT 9 Der Abstand von x ∈ H und Γ ⊂ H ist definiert als d(x, Γ) := inf{kx − yk : y ∈ Γ}. Satz 1.8 Seien Γ ⊂ H ein abgeschlossener Unterraum und x ∈ H. Dann existiert ein eindeutiges y ∈ Γ mit kx − yk = d(x, Γ). Dieses y heißt die Orthogonalprojektion von x auf Γ. Die Abbildung Π : H → Γ, x → y heißt Orthogonalprojektion auf Γ. Satz 1.9 Für die Orthogonalprojektion Π auf einen abgeschlossenen Unterraum Γ gilt: 1. Π ist idempotent, d.h. Π2 = Π. 2. Π(x) = x gilt genau dann, wenn x ∈ Γ. 3. Π(x) = 0 gilt genau dann, wenn x ∈ Γ⊥ . 4. Für alle x ∈ H ist x − Π(x) orthogonal zu Γ. Satz 1.10 Seien Γ ⊂ H ein abgeschlossener Unterraum und x ∈ H. Dann existiert eine eindeutige Zerlegung x = y + z mit y ∈ Γ, z ∈ Γ⊥ . Dabei sind y = Π(x), z = x − Π(x), wobei Π die Orthogonalprojektion auf Γ bezeichnet. Ferner ist x 7→ x − Π(x) die Orthogonalprojektion auf Γ⊥ , und es gilt (Γ⊥ )⊥ = Γ. Satz 1.11 Die Orthogonalprojektion Π auf einen abgeschlossenen Unterraum Γ ist linear und selbstadjungiert (d. h. hΠ(x), yi = hx, Π(y)i für alle x, y ∈ H). 1.3 Bedingter Erwartungswert Bei einfachen Zufallsexperimenten hat man es in der Regel mit nur zwei unterschiedlichen Informationsständen zu tun. Vor dem Experiment liegt der Ausgang noch weitgehend im Dunkeln, und man kann lediglich Wahrscheinlichkeiten für die verschiedenen Ereignisse angeben. Nach dem Experiment hingegen ist der eingetretene Zustand vollständig determiniert. Dies spiegelt sich auch bei Zufallsvariablen X wider. Nach dem Experiment kennt man X exakt, vorher gibt man sich z. B. mit dem Erwartungswert E(X) als „erwartetem“ Mittelwert zufrieden. Wenn sich Zufallsexperimente jedoch über einen längeren Zeitraum hinziehen, erscheint diese Betrachtungsweise unangemessen. Mit dem Fortschreiten der Zeit werden die Vorstellungen über den Ausgang des Experiments immer präziser. Es erscheint daher wünschenswert, Wahrscheinlichkeiten und Erwartungswerte auf Grundlage der zum augenblicklichen Zeitpunkt vorhandenen Information zu betrachten. Dazu muss man jedoch zunächst den etwas vagen Begriff der vorhandenen Information mathematisch präzisieren. Es gehört zu den außerordentlich fruchtbaren Ideen der Wahrscheinlichkeitstheorie, dies mit Hilfe von σ-Algebren zu bewerkstelligen, die ja in der Maßtheorie zunächst nur als Definitionsbereiche von Maßen in Erscheinung treten, für die sich — wie etwa beim Lebesguemaß — die Potenzmenge als zu groß erweist. 10 KAPITEL 1. MATHEMATISCHE HILFSMITTEL Inwiefern steht nun eine σ-Algebra C für den Umfang an Information, der zu einem gegebenen Zeitpunkt zur Verfügung steht? Dies geschieht in der Form, dass C genau die Ereignisse enthält, von denen wir schon zum gegenwärtigen Zeitpunkt sicher sagen können, ob sie eintreten oder nicht. Betrachten wir dazu ein konkretes Beispiel. Wir würfeln dreimal mit einem Würfel und bezeichnen die Ergebnisse als X1 , X2 , X3 . Nach dem ersten Würfelwurf sind bereits all die Ereignisse entschieden, die sich nur auf diesen ersten Wurf beziehen, z. B. das Ereignis {X1 ist gerade}. Die zu diesem Informationsstand passende σ-Algebra C ist daher die von der Zufallsvariablen X1 erzeugte, d. h. C = σ(X1 ) = {X −1 (B) : B ∈ B}.5 Aber auch die Vorstellungen hinsichtlich noch nicht determinierter Ereignisse und Zufallsvariablen können sich nach dem ersten Wurf geändert haben. Zum Beispiel gilt für die Augensumme E(X1 + X2 + X3 ) = E(X1 ) + E(X2 ) + E(X3 ) = 10,5; nach dem ersten Wurf hingegen erwarten wir im Mittel X1 + E(X2 ) + E(X3 ) = X1 + 7, da die Zufallsvariable X1 für uns nun nicht mehr zufällig ist. Man bezeichnet diesen Erwartungswert auf Grundlage der Information C als bedingten Erwartungswert gegeben C und schreibt E(X|C ). Bedingte Wahrscheinlichkeiten lassen sich durch die Definition P (A|C ) = E(1A |C ) als Spezialfall bedingter Erwartungswerte auffassen. Damit die Abbildung A 7→ P (A|C ) aber auch σ-additiv ist, wie man es von einem Wahrscheinlichkeitsmaß erwartet, sind einige maßtheoretische Hürden zu überwinden, auf die hier nicht eingegangen werden soll. Wir beschränken uns daher auf bedingte Erwartungswerte. Seien (Ω, F , P ) ein Wahrscheinlichkeitsraum und C eine Unter-σ-Algebra von F (d. h. C ⊂ F ). Ferner sei X eine R-wertige Zufallsvariable6 . Wir betrachten zunächst den Fall, dass Ω nur endlich oder abzählbare viele Elemente besitzt. Lemma 1.12 Sei Ω endlich oder abzählbar. Dann gibt es eine Partition7 (Ci )i∈I von Ω, so dass C = {∪i∈J Ci : J ⊂ I}. Beweis. Für ω ∈ Ω sei C(ω) = ∩{C ∈ C : ω ∈ C}. Da Ω und somit auch C ⊂ P(Ω) abzählbar ist, gilt C(ω) ∈ C und natürlich ω ∈ C(ω). Die höchstens abzählbar vielen Mengen C(ω), ω ∈ Ω numerieren wir als C0 , C1 , . . ., die Menge der auftretenden Indizes heiße I. Sie bilden offenbar eine Partition von Ω. Definiere Ce := {∪i∈J Cn : J ⊂ I}. Es gilt Ce ⊂ C , da C eine σ-Algebra ist. Für C ∈ C gilt ferner C = ∪ω∈C C(ω) ∈ Ce. Zusammen folgt C = Ce. Anschaulich besagt das vorige Lemma, dass es endlich oder abzählbar viele Atome Ci gibt, aus denen sich die Mengen der σ-Algebra zusammensetzen. Die verschiedenen Ergebnisse ω ∈ Ci der einzelnen Atome tauchen immer gemeinsam in den Ereignissen auf und Für endliches Ω enthält σ(X1 ) beliebige Vereinigungen von Mengen der Form X −1 (x) = {X = x} := {ω ∈ Ω : X(ω) = x}, wobei x ∈ R. 6 R := [−∞, ∞] 7 Partition bedeutet ∪i∈I Ci = Ω und paarweise Disjunktheit, d. h. Ci ∩ Cj = ∅ für i 6= j. 5 1.3. BEDINGTER ERWARTUNGSWERT 11 lassen sich auf Grundlage der durch C gegebenen Information nicht trennen. Anders formuliert: Auf Grundlage der durch C gegebenen Information wissen wir zwar genau, welches der Ereignisse Ci eintritt, aber wir wissen nichts darüber, welches konkrete Ergebnis ω ∈ Ci am Ende des Zufallsexperiments tatsächlich vorliegt. Je größer die σ-Algebra C ist, desto genauer können wir das Endergebnis ω einkreisen, d. h. desto mehr Information haben wir über den Ausgang des Zufallsexperiments. Wir können nun den bedingten Erwartungswert im endlichen oder abzählbaren Fall definieren. Definition 1.13 Sei C = {∪i∈J Ci : J ⊂ I}, wobei (Ci )i∈I eine endliche oder abzählbare Partition von Ω ist.8 Sei X ferner nichtnegativ oder integrierbar.9 Wir definieren den bedingten Erwartungswert von X gegeben C als E(X|Ci ) falls ω ∈ Ci mit P (Ci ) > 0, E(X|C )(ω) := (1.2) 0 falls ω ∈ Ci mit P (Ci ) = 0. Dabei ist E(X|Ci ) der Erwartungswert unter der durch A 7→ Wahrscheinlichkeitsverteilung P (·|Ci ), für den gilt E(X|Ci ) := P (A∩Ci ) P (Ci ) definierten bedingten E(X1Ci ) . P (Ci ) Wenn man den Erwartungswert E(X) als beste Prognose einer Zuallsvariablen X auffasst, dann steht der bedingte Erwartungswert E(X|C ) als beste Prognose auf Grundlage der gegebenen Information C . Da wir in diesem Fall schon wissen, in welcher Menge Ci das Ergebnis des Zufallsexperiments liegt, wird bei der Berechnung des Erwartungswerts in (1.2) nur über die ω ∈ Ci gemittelt. Der bedingte Erwartungswert besitzt u. a. die folgenden wichtigen Eigenschaften. Satz 1.14 Der bedingte Erwartungswert aus Definition 1.13 ist C -messbar, und es gilt Z Z E(X|C )dP = XdP (1.3) C C für alle C ∈ C . Ferner ist E(X|C ) nichtnegativ bzw. integrierbar, falls dies für X der Fall ist. Beweis. Sei B ∈ B mit 0 ∈ / B. Dann ist {E(X|C ) ∈ B} = ∪i∈J Ci für J := {i ∈ I : P (Ci ) > 0 und E(X|Ci ) ∈ B}. Insbesondere ist E(X|C ) C -messbar. Sei nun C ∈ C , o.B.d.A. C = Ci für ein i ∈ I. Dann ist Z Z Z E(X1Ci ) E(X|C )dP = E(X|Ci )dP = P (Ci ) = XdP P (Ci ) C Ci C 8 Wenn Ω endlich ist, hat jede σ-Algebra nach dem vorigen Lemma eine solche Form, wobei man dann mit endlich vielen Atomen Ci auskommt. 9 Integrierbarkeit ist für endliches Ω automatisch gegeben, falls die Zufallsvariable nur endliche Werte annimmt. 12 KAPITEL 1. MATHEMATISCHE HILFSMITTEL im Falle P (Ci ) > 0 und ähnlich auch für P (Ci ) = 0. E(X|C ) ist offenbar nichtnegativ, falls dies für X gilt. Falls X integrierbar ist, gilt für C := {E(X|C ) ≥ 0} ∈ C : Z Z Z Z + E(X|C ) dP = E(X|C )dP = XdP ≤ |X|dP < ∞ C C und analog E(E(X|C )− ) < ∞. Es folgt die Integrierbarkeit von E(X|C ). C -Messbarkeit im vorigen Satz bedeutet anschaulich, dass der bedingte Erwartungswert auf Grundlage der durch C gegebenen Information bekannt ist. Es handelt sich also um eine ganz natürliche Eigenschaft. Die Integralgleichung bedeutet, dass sich X von seinem bedingten Erwartungswert durch die „Brille“ C -messbarer Mengen insofern nicht unterscheidet, als es die gleichen Integrale liefert. Es verhält sich also in gewisser Weise ähnlich wie X selbst. In allgemeinen Wahrscheinlichkeitsräumen ist Definition 1.13 nicht anwendbar, da Unter-σ-Algebren im allgemeinen nicht von einer Partition erzeugt werden. Man wählt daher als Ersatz eine Definition, die auf den Eigenschaften aus dem vorien Satz beruht, die auch in allgemeineren Situationen noch sinnvoll sind. Satz 1.15 Falls X nichtnegativ (oder integrierbar) ist, dann existiert eine P -fast sicher eindeutige C -messbare nichtnegative (bzw. integrierbare) Zufallsvariable E(X|C ) derart, dass Z Z E(X|C )dP = XdP (1.4) C C für alle C ∈ C . Beweis. 1. Schritt: Sei zunächst X ≥ 0 und fast sicher endlich. Wir definieren ein neues Maß Q P durch die Dichte dQ := X. Für die auf die Unter-σ-Algebra C eingeschränkten dP Maße P |C , Q|C gilt Q|C P |C : Für jede Q|C -Nullmenge N existiert nämlich ein A ∈ C ⊂ F mit N ⊂ A und Q|C (A) = Q(A) = 0, was wegen Q P auch P |C (A) = P (A) = 0 impliziert. Nach dem Satz von Radon-Nikodym existiert eine C -messbare, nichtnegative R C Dichte Y := dQ| , d. h. Q| (C) = Y dP |C für alle C ∈ C . Damit Y die Eigenschaften C dP |C C einer bedingten Erwartung hat, bleibt zu zeigen, dass Z Z Y dP = XdP (1.5) C C für alle C ∈ C . Dies folgt aus Z Z Z (?) XdP = Q(C) = Q|C (C) = Y dP |C = Y dP, C C C wobei die letzte Gleichung (?) vielleicht nicht offensichtlich ist. Wir beweisen sie mit Hilfe der bisweilen als algebraische Induktion bezeichneten Beweismethode. Darunter versteht man, dass eine Aussage zunächst für Indikatorfunktionen, 1.3. BEDINGTER ERWARTUNGSWERT 13 dann für Zufallsvariablen mit endlich vielen Werten, danach für allgemeine nichtnegative und schließlich durch Zerlegung in Positiv- und Negativteil ggf. für beliebige Zufallsvariablen gezeigt wird. Für Z = 1A mit A ∈ C gilt Z Z ZdP |C = P |C (A) = P (A) = ZdP R R wie gewünscht. Wegen der Linearität des Integrals gilt die Aussage ZdP |C = ZdP daher auch für Linearkombinationen solcher Indikatoren. Nach dem Satz über monotone Konvergenz erhalten wir sie auch für beliebige nichtnegative C -messbare Z, denn jedes solche Z lässt sich als monotoner Limes von Linearkombinationen von Indikatoren schreiben. 2. Schritt: Wir betrachten nun integrierbare X. Wir konstruieren deren bedingten Erwartungswert als E(X|C ) := E(X + |C ) − E(X − |C ), wobei die rechten Seiten durch den 1. Schritt bereits definiert sind. Die rechte Seite ist offenbar C -messbar. Integrierbarkeit gilt wegen E(|E(X + |C ) − E(X − |C )|) ≤ E(E(X + |C ) + E(X − |C )) = E(E(X + |C )) + E(E(X − |C )) = E(X + ) + E(X − ) = E(|X|) < ∞ Gleichung (1.4) folgt aus der Linearität des Integrals. 3. Schritt: Der Vollständigkeit halber wird noch der weniger wichtige Fall einer allgemeinen nichtnegativen Zufallsvariablen X betrachtet. Setze A := {X = ∞}. Wir definieren Y := ∞E(1A |C ) + E(X1AC |C ), wobei die rechte Seite durch den ersten Schritt bereits erklärt ist und wir die übliche Konvention ∞ · 0 = 0 verwenden. Offenbar ist Y nichtnegativ und C -messbar. Sei C ∈ C . Im Fall P (C ∩ A) > 0 sind Z Z Y dP ≥ ∞1A dP = ∞P (C ∩ A) = ∞ C und C Z XdP ≥ ∞P (C ∩ A) = ∞, C so dass (1.5) gilt. Im Fall P (C ∩ A) = 0 folgt (1.5) aus Z Z Z Y dP = ∞P (C ∩ A) + X1AC dP = XdP. C C C 4. Schritt: Es bleibt noch die Eindeutigkeit zu zeigen. Dazu seien Y, Ye zwei C -messbare Zufallsvariablen, die die Eigenschaften des bedingten Erwartungswerts besitzen. Für n ∈ N setze C := {Y > Ye und |Y | ∨ |Ye | ≤ n}. Dann gilt Z Z Z Z Z e e (Y − Y )dP = Y dP − Y dP = XdP − XdP = 0, C C C C C 14 KAPITEL 1. MATHEMATISCHE HILFSMITTEL also P (C) = 0, da Y − Ye > 0 auf C. Stetigkeit von unten impliziert P (Y > Ye ) = 0. Analog folgt P (Y < Ye ) = 0 und somit Y = Ye fast sicher. Nach Satz 1.14 stimmt E(X|C ) mit dem in Definition 1.13 eingeführten bedingten Erwartungswert überein, falls die entsprechenden Voraussetzungen an C gegeben sind. Dies motiviert die folgende Definition 1.16 1. E(X|C ) heißt bedingte Erwartung von X gegeben C . 2. E(X|C ) kann durch die Festlegung E(X|C ) := E(X + |C ) − E(X − |C ) auch noch im Falle E(|X||C ) < ∞ definiert werden. Der bedingte Erwartungswert ist also im allgemeinen implizit über gewünschte Eigenschaften und nicht explizit durch eine Formel festgelegt. Im folgenden Satz sind wichtige Rechenregeln für den bedingten Erwartungswert zusammengestellt. Satz 1.17 Sei X nichtnegativ oder integrierbar. Dann gelten: 1. E(X|C ) = X, falls X C -messbar ist. 2. E(X|C ) = E(X), falls σ(X) und C unabhängig sind.10 3. E(E(X|C )) = E(X) 4. E(E(X|C )|D) = E(X|D), falls D Unter-σ-Algebra von C ist. 5. Die Abbildung X 7→ E(X|C ) ist linear und monoton. 6. Es gilt der Satz von der monotonen Konvergenz, d. h. für jede wachsende Folge (Xn )n∈N nichtnegativer Zufallsvariablen mit Limes X := supn∈N Xn gilt E(Xn |C ) ↑ E(X|C ). 7. Es gilt der Satz von der majorisierten Konvergenz, d. h. für jede fast sicher konvergente Folge (Xn )n∈N von Zufallsvariablen mit Limes X und E(supn∈N |Xn |) < ∞ gilt E(Xn |C ) → E(X|C ). (1.6) 8. Es gilt die Jensensche Ungleichung, d. h. für integrierbares X und jede konvexe Abbildung f : R → R derart, dass f (X) integrierbar ist, gilt f (E(X|C )) ≤ E(f (X)|C ). 9. Für C -messbares Y 7→ R gilt E(XY |C ) = E(X|C )Y , falls die Ausdrücke sinnvoll sind, d. h. falls X, Y ≥ 0 oder X, XY integrierbar sind. Insbesondere gilt E(XY ) = E(E(X|C )Y ). 10 d.h. falls P (A ∩ B) = P (A)P (B) für alle A ∈ σ(X), B ∈ C 1.3. BEDINGTER ERWARTUNGSWERT 15 Beweis. 1. X hat offenbar die in der Definition geforderten Eigenschaften. 2. C -Messbarkeit sowie Nichtnegativität bzw. Integrierbarkeit des Kandidaten sind offensichtlich. Sei C ∈ C . Da X σ(X)-messbar und 1C C -messbar sind, gilt wegen der Unabhängigkeit der σ-Algebren E(X1C ) = E(X)E(1C ) und somit Z Z E(X)dP = E(X)E(1C ) = E(X1C ) = XdP C C wie gewünscht. 3. Dies gilt wegen Z E(E(X|C )) = Z E(X|C )dP = Ω XdP = E(X). Ω 4. Wir zeigen, dass der Kandidat E(E(X|C )|D) die Eigenschaften der bedingten Erwartung E(X|D) erfüllt. D-Messbarkeit gilt nach Definition. Für D ∈ D ⊂ C gilt ferner Z Z Z XdP E(X|C )dP = E(E(X|C )|D)dP = D D D wie gewünscht. 5. Für Zufallsvariablen X, Y ist E(X|C ) + E(Y |C ) C -messbar: Mit Z Z Z (E(X|C ) + E(Y |C ))dP = E(X|C )dP + E(Y |C )dP C C Z ZC Y dP XdP + = C C Z = (X + Y )dP C für C ∈ C folgt, dass E(X|C ) + E(Y |C ) die Eigenschaften des bedingten Erwartungswerts E(X + Y |C ) besitzt. Analog zeigt man E(cX|C ) = cE(X|C ) für c ∈ R, sofern cX nichtnegativ oder integrierbar ist. Im Falle X ≤ Y zerlegen wir Y = X + (Y − X). Wegen Y − X ≥ 0 ist auch E(Y − X|C ) ≥ 0. Aus der Additivität folgt E(Y |C ) = E(X|C ) + E(Y − X|C ) und somit E(Y |C ) ≥ E(X|C ). 6. Wegen der Monotonie der bedingten Erwartung ist (E(Xn |C ))n∈N eine aufsteigende Folge. Offenbar ist ihr Limes Y := supn∈N E(Xn |C ) C -messbar. Es bliebt zu zeigen, dass (1.5) für beliebiges C ∈ C gilt. Nach dem üblichen Satz über monotone Konvergenz gilt Z Z Z Z Y dP = lim E(Xn |C )dP = lim Xn dP = XdP C wie gewünscht. n→∞ C n→∞ C C 16 KAPITEL 1. MATHEMATISCHE HILFSMITTEL 7. Definere Y := supn∈N |Xn |, Xn0 := supk≥n Xk , Xn00 := inf k≥n Xk . Dann gilt −Y ≤ Xn00 ≤ Xn ≤ Xn0 ≤ Y, n ∈ N. Für n → ∞ gilt Y − Xn0 ↑ Y − lim sup Xn = Y − X, n→∞ Y + Xn00 ↑ Y + lim inf Xn = Y + X. n→∞ Nach Aussage 6 folgt E(Y − Xn0 |C ) ↑ E(Y − X|C ), E(Y − Xn0 |C ) ↑ E(Y − X|C ) und somit E(Xn0 |C ), E(Xn00 |C ) → E(X|C ). Wegen E(Xn0 |C ) ≤ E(Xn |C ) ≤ E(Xn00 |C ) ergibt sich (1.6). 8. Konvexe Funktionen lassen sich nach Sätzen der Analysis schreiben als f (x) = sup(an x + bn ) n∈N mit rellen Koeffizienten an , bn . Es folgt f (E(X|C )) = sup(an E(X|C ) + bn ) n∈N = sup E(an X + bn |C ) n∈N ≤ E sup(an X + bn ) n∈N = E(f (X)|C ). 9. Wir zeigen, dass der Kandidat E(X|C )Y die Eigenschaften von E(XY |C ) besitzt. C -Messbarkeit ist klar. Für Y = 1A mit A ∈ C ist Z Z Z Z E(X|C )Y dP = E(X|C )dP = XdP = XY dP, ∀C ∈ C C C∩A C∩A C wie gewünscht. Weiter geht es mit algebraischer Induktion. Die Formel für den unbedintgen Erwartungswert folgt nach Eigenschaft 3. Der bedingte Erwartungswert lässt sich auch als eine Orthogonalprojektion auffassen. Satz 1.18 Sei X ∈ L2 (Ω, F , P ). Dann ist E(X|C ) die Orthogonalprojektion von X auf den Unterraum L2 (Ω, C , P ). 1.3. BEDINGTER ERWARTUNGSWERT 17 Beweis. Nach der Jensenschen Ungleichung gilt (E(X|C ))2 ≤ E(X 2 |C ) und somit E E(X|C )2 ≤ E E(X 2 |C ) = E(X 2 ) < ∞. Da E(X|C ) C -messbar ist, gilt also E(X|C ) ∈ L2 (Ω, C , P ). Für Y ∈ L2 (Ω, C , P ) gilt nach Satz 1.17(7) ferner hX − E(X|C ), Y i = E((X − E(X|C ))Y ) = E(XY ) − E(E(X|C )Y ) = E(XY ) − E(XY ) = 0, d. h. X − E(X|C ) ist orthogonal zu L2 (Ω, C , P ). Mit Satz 1.10 folgt die Behauptung. Zur Berechnung bedingter Erwartungswerte ist mitunter folgendes Resultat nützlich. Lemma 1.19 Seien Y eine Zufallsvariable und g : R × R → R eine messbare Abbildung derart, dass g(X, Y ) nichtnegativ oder integrierbar ist. Falls X C -messbar und Y unabhängig von C ist, dann gilt: Z E(g(X, Y )|C ) = g(X, y)P Y (dy).11 Beweis. Sei zunächst g nichtnegativ. Im Zusammenhang mit dem Satz von Fubini wird geR zeigt, dass die Abbildung x 7→ g(x, y)P Y (dy) Borel-messbar ist. Somit ist auch die ZuR fallsvariable g(X, y)P Y (dy) als Verkettung zweier messbarer Abbildungen C -messbar. Für C ∈ C definiere Z := 1C . Da (X, Z) unabhängig von Y ist, gilt P (X,Z) ⊗ P Y = P (X,Z,Y ) . Mit dem Transformationssatz und dem Satz von Fubini folgt R R C g(X, y)P Y (dy)dP = RR g(X, y)ZP Y (dy)dP = RR g(x, y)zP Y (dy)P (X,Z) (d(x, z)) = R g(x, y)zP (X,Z,Y ) (d(x, z, y)) = R g(X, Y )ZdP = R g(X, Y )dP, C woraus die Behauptung folgt. Der Beweis für integrierbares g(X, Y ) verläuft analog. Die Integrierbarkeit des Kandidaten folgt mit der obigen Rechnung angewandt auf |g(X, Y )| und C = Ω: R R E(| g(X, y)P Y (dy)|) ≤ E( |g(X, y)|P Y (dy)) = E(|g(X, Y )|) < ∞. 11 Das bedeutet im endlichen Fall E(g(X, Y )|C )(ω) = X y∈R g(X(ω), y)P (Y = y). 18 KAPITEL 1. MATHEMATISCHE HILFSMITTEL Bezeichnung. E(X|Y ) := E(X|σ(Y )) für messbare Abbildungen Y : (Ω, F ) → (Γ, G ) mit Werten in einem messbaren Raum (Γ, G ). Die Eigenschaft C -Messbarkeit der bedingten Erwartung ist intuitiv so zu verstehen, dass E(X|C ) durch die Information in C determiniert ist. Wenn nun die σ-Algebra C von einer Zufallsvariablen Y erzeugt ist, sollte man erwarten, dass sich E(X|C ) als Funktion von Y schreiben lässt. Die folgende Bemerkung zeigt, dass dies in der Tat der Fall ist. Lemma 1.20 Sei Y : (Ω, F ) → (Γ, G ) mit Werten in einem messbaren Raum (Γ, G ). Dann ist X genau dann σ(Y )-messbar, wenn es eine messbare Abbildung g : (Γ, G ) → (R, B) gibt mit X = g ◦ Y . Beweis. ⇒: Im Falle X = 1C bedeutet C -Messbarkeit, dass C ∈ σ(Y ) = Y −1 (G ) ist, also C = Y −1 (G) für ein G ∈ G . Somit ist X = 1G (Y ) = g ◦ Y für g := 1G . Weiter geht es mit „algebraischer Induktion“. ⇐: Dies gilt, da die Verkettung messbarer Abbildung messbar ist. Kapitel 2 Diskrete stochastische Analysis In der stochastischen Finanzmathematik fasst man Wertpapierkursverläufe, wie man sie in der Zeitung oder auf dem Bildschirm verfolgen kann, als stochastische Prozesse, d. h. als zufällige Funktionen der Zeit, auf. Auch die variierende Zahl der Wertpapiere im Anlageportfolio sowie das daraus resultierende Anlagevermögen fallen in diesen Rahmen. Die zugehörigen mathematischen Begriffe, die auch ganz unabhängig von der Finanzmathematik angewandt werden, werden in diesem Kapitel vorgestellt. Wir beschränken uns dabei an dieser Stelle auf eine diskrete Menge von Zeitpunkten (etwa Tage, Minuten, Sekunden). Der kontinuierliche Fall erfordert eine erheblich kompliziertere Theorie. 2.1 Stochastische Prozesse Wie schon im vorigen Kapitel angedeutet, spielt die bis zum jeweiligen Zeitpunkt zur Verfügung stehende Information eine wichtige Rolle. Entscheidungen wie z. B. der Kauf oder Verkauf von Wertpapieren können ja nur auf dem derzeitigen Wissen über den Zustand des Finanzmarktes oder der Welt gründen. Mathematisch wird diese Information durch den Begriff der Filtrierung ausgedrückt. Definition 2.1 Eine Filtrierung (Fn )n∈N auf einem Wahrscheinlichkeitsraum (Ω, F , P ) ist eine Folge von σ-Algebren Fn ⊂ F mit Fm ⊂ Fn für m ≤ n. (Ω, F , (Fn )n∈N , P ) heißt filtrierter Wahrscheinlichkeitsraum. Die σ-Algebra Fn steht für die bis zur Zeit n angesammelte Information. A ∈ Fn bedeutet, dass wir schon zur Zeit n wissen, ob das Ereignis A eintritt oder nicht. Von nun an sei ein filtrierter Wahrscheinlichkeitsraum (Ω, F , (Fn )n∈N , P ) gegeben. Definition 2.2 1. Ein stochastischer Prozess X = (Xn )n∈N ist eine Familie von Zufallsvariablen. 2. Ein Prozess X heißt adaptiert, falls Xn Fn -messbar ist für alle n ∈ N. 19 20 KAPITEL 2. DISKRETE STOCHASTISCHE ANALYSIS Das n steht dabei wie oben schon für einen Zeitparameter. Ein stochastischer Prozess beschreibt also den zufälligen Zustand eines Systems durch die Zeit hindurch. Der Wertebereich von Xn ist üblicherweise R oder allgemeiner Rd , etwa wenn es sich bei Xn um den Kurs eines oder mehrerer Wertpapiere zum Zeitpunkt n handelt. Falls nichts anderes vermerkt ist, nehmen wir alle Prozesse als reellwertig an. Adaptiertheit bedeutet, dass wir den derzeitigen Wert des Prozesses kennen, zumindest insofern, als er von zufälligen Einflüssen abhängt. Insbesondere ist jeder deterministische Prozess adaptiert. Wir betrachten ab jetzt fast ausschließlich solche adaptierten Prozesse. Bemerkung. Wir identifizieren einen Prozess X manchmal auch mit einer Abbildung X : Ω × N → R (bzw. Rd ) oder einer Abbildung X : Ω → RN (bzw. (Rd )N ). Er kann also auch als Zufallsvariable aufgefasst werden, deren Werte Funktionen N → R (bzw. Rd ) sind. Bezeichnung. 1. Adaptierte Prozesse nennen wir auch diskrete Semimartingale. 2. Wir benutzen die Notation n− := n − 1 für n ∈ N \ {0}, 0− := 0. Ferner sei ∆Xn := Xn − Xn− . Hier wie auch später im Text verwenden wir vergleichsweise hochtrabende Bezeichnungen für ganz einfache Dinge (z. B. stochastisches Integral für eine Summe usw.). Die Idee ist, eine möglichst weitgehende Analogie zur allgemeinen stochastischen Analysis zu erzielen, wo die entsprechenden Begriffe und Ergebnisse oft einen hohen technischen Aufwand erfordern. Die hier behandelten zeitdiskreten Resultate lassen sich auch als Spezialfälle der allgemeinen Semimartingaltheorie auffassen. Etwas stärker als Adaptiertheit ist der folgende Begriff. Definition 2.3 Ein Prozess X heißt vorhersehbar, falls Xn Fn− -messbar ist für alle n ∈ N. Das bedeutet, dass der Wert von Xn ist schon kurz vor dem Zeitpunkt n bekannt ist. Vorhersehbare Prozesse spielen bei der stochastischen Integration eine zentrale Rolle. Bislang ist offen, welche Gestalt die Filtrierung tatsächlich besitzt. Denkbar ist zumindest im Rahmen des mathematischen Modells, dass unser ganzes nicht-deterministisches Wissen aus der Beobachtung eines einzigen stochastischen Prozesses X, etwa eines Aktienkursverlaufs, herrührt: Definition 2.4 Die Filtrierung (Fn )n∈N heißt von dem Prozess X erzeugt, falls Fn = σ(X0 , . . . , Xn ) für alle n ∈ N. Zufällige Zeitpunkte, die nur insofern nicht deterministisch sind, als sie von zufälligen Ereignissen in der Vergangenheit abhängen können, heißen Stoppzeiten. Definition 2.5 Eine Stoppzeit ist eine Abbildung T : Ω → N ∪ {∞} mit {T ≤ n} ∈ Fn für alle n ∈ N. 2.2. MARTINGALE 21 Eine äquivalente Definition ist {T = n} ∈ Fn für alle n ∈ N. Anschaulich heißt das, dass wir aufgrund der uns zur Verfügung stehenden Information Fn zu jedem Zeitpunkt n entscheiden können, ob wir „Stopp!“ sagen müssen oder nicht. Eine Stoppzeit ist z. B. der erste Zeitpunkt, zu dem ein Vulkan ausbricht, sofern die Beobachtung des Vulkans in der Informationsstruktur (Fn )n∈N enthalten ist. Auch jeder deterministische Zeitpunkt ist eine Stoppzeit. Keine Stoppzeit ist hingegen der Zeitpunkt genau 3 Stunden vor dem Vulkanausbruch, denn dazu müsste man in die Zukunft blicken können. Auf Grundlage der im Augenblick vorhandenen Information ist i. a. nicht sicher, ob dieser Zeitpunkt schon gekommen ist. Ein typisches Beispiel einer Stoppzeit ist die erste Eintrittszeit eines Prozesses in eine Menge, etwa der Zeitpunkt, an dem der Aktienindex DAX zum ersten Mal die Schwelle 4000 überwindet. Lemma 2.6 Sei X ein Rd -wertiges diskretes Semimartingal und B ∈ B d . Dann ist T := inf{n ∈ N : Xn ∈ B} eine Stoppzeit. Beweis. Sei n ∈ N. Dann ist {T {Xm ∈ B} ∈ Fm ⊂ Fn für m ≤ n. ≤ n} = ∪m≤n {Xm ∈ B} ∈ Fn , da Für das „Einfrieren“ eines Prozesses ab einem gewissen Zeitpunkt gibt es einen eigenen mathematischen Begriff. Definition 2.7 Für einen Prozess X und eine Stoppzeit T ist der bei T gestoppte Prozess X T definiert durch XnT := XT ∧n . Ein gestoppter Prozess bleibt also ab der zugehörigen Stoppzeit konstant. 2.2 Martingale Der Martingalbegriff ist von zentraler Bedeutung für die stochastische Analysis. Auch die moderne Finanzmathematik wird in vielfältiger Weise von ihm durchdrungen. Definition 2.8 Ein Martingal (bzw. Submartingal, Supermartingal) ist ein adaptierter stochastischer Prozess X derart, dass E(|Xn |) < ∞1 und E(Xn |Fm ) = Xm (bzw. ≥ Xm , ≤ Xm ) für alle m, n ∈ N mit m ≤ n. Man kann sich unter einem Martingal z. B. das Spielkapital in einem fairen Spiel vorstellen. Als Beispiel sei etwa ein Roulettespiel betrachtet, wo der Einsatz bei Fallen von Rot verdoppelt wird. Wir setzen über mehrere Ausspielungen hinweg 1 e auf Rot und bezeichnen den Spielkapitalprozess als X. Wenn nun Rot mit Wahrscheinlichkeit 21 fällt, dann sind wir nach jeder Ausspielung im Mittel so reich wie vorher, d. h. X ist ein Martingal. Für die (beschränkte) Zukunft ist im Mittel weder ein Gewinn noch ein Verlust zu erwarten. 1 Integrierbarkeit gilt für endliches Ω automatisch. 22 KAPITEL 2. DISKRETE STOCHASTISCHE ANALYSIS In Wirklichkeit ist das Roulettespiel unfair zu Gunsten der Spielbank, da nur mit Wahrscheinlichkeit 18 Rot fällt. Daher entsprechen die realen Gegebenheiten eher einem Super37 martingal. Anlagen in risikobehaftete Wertpapiere wie etwa Aktien hingegen werden die meisten Anleger nur tätigen wollen, wenn zumindest im Mittel ein Gewinn zu erwarten ist, d. h. wenn es sich um Submartingale handelt. Lemma 2.9 Anstelle von E(Xn |Fm ) = Xm (bzw. ≥, ≤) für m ≤ n reicht es in der vorigen Definition zu zeigen, dass E(Xn |Fn−1 ) = Xn−1 (bzw. ≥, ≤) für alle n ∈ N \ {0}. Beweis. Wegen E(Xn |Fn−2 ) = E(E(Xn |Fn−1 )|Fn−2 ) usw. folgt dies mit vollständiger Induktion. Die einfachsten Martingale erhält man, indem man unabhängige, zentrierte Zufallsvariablen sukzessive aufsummiert. Beispiel 2.10 Sei X1 , X2 , . . . eine Folge unabhängiger, integrierbarer Zufallsvariablen mit P E(Xn ) = 0 für n = 1, 2, . . . Dann wird durch Sn := nm=1 Xm und Fn := σ(X1 , . . . , Xn ) ein Martingal S bzgl. (Fn )n∈N definiert. Beweis. Adaptiertheit und Integrierbarkeit sind offensichtlich. Die Martingaleigenschaft gilt wegen ! n−1 n−1 X X E(Sn |Fn−1 ) = E Xm |Fn−1 + E(Xn |Fn−1 ) = Xm + 0 = Sn−1 , m=1 m=1 da X1 , . . . , Xn−1 Fn−1 -messbar und Xn unabhängig von Fn−1 sind. Auch aus einer einzigen Zufallsvariablen kann man ein Martingal erzeugen. Lemma 2.11 Sei Y eine Zufallsvariable mit E(|Y |) < ∞. Dann wird durch Xn := E(Y |Fn ) für n ∈ N ein Martingal X definiert (das von Y erzeugte Martingal). Beweis. Die Adaptiertheit ist offensichtlich. Die Integrierbarkeit folgt aus der Jensenschen Ungleichung wegen E(|Xn |) ≤ E(|E(Y |Fn )|) ≤ E(E(|Y ||Fn )) = E(|Y |) < ∞. Ferner gilt E(Xn |Fm ) = E(E(Y |Fn )|Fm ) = E(Y |Fm ) = Xm für m ≤ n. Umgekehrt kann man sich fragen, ob jedes Martingal von einer Zufallsvariablen erzeugt wird. Das hieße, dass man die Menge der Martingale mit der Menge der integrierbaren Zufallsvariablen identifizieren könnte. Das ist jedoch im allgemeinen nicht der Fall, sondern nur unter einer zusätzlichen gleichgradigen Integrabiliätsbedingung oder wenn die Zeitindexmenge (hier N) nach oben beschränkt ist, wie es in den folgenden Kapiteln der Fall sein wird. Beispiel 2.12 Sei Q ∼ P ein Wahrscheinlichkeitsmaß. Dann heißt das von dQ| Martingal Z der Dichteprozess von Q bzgl. P , und es gilt Zn = dP |FFn . n dQ dP erzeugte 2.2. MARTINGALE 23 Beweis. Für C ∈ Fn gilt Z Z Z dQ dP = Q(C) = Q|Fn (C). Zn dP |Fn = Zn dP = C C C dP Somit erfüllt Zn die Eigenschaften einer Dichte von Q|Fn bezüglich P |Fn Lemma 2.12a (Verallgemeinerte Bayessche Formel) Sei Q ∼ P ein Wahrscheinlichkeitsmaß mit Dichteprozess Z. Für n ∈ N sei X eine Fn -messbare, nichtnegative oder Qintegrierbare Zufallsvariable. Für m ≤ n gilt dann EQ (X|Fm ) = E(XZn |Fm ) . Zm Beweis. Wir zeigen, dass EQ (X|Fm )Zm die Eigenschaften von E(XZn |Fm ) besitzt. Fm Messbarkeit und ggf. Nichtnegativität sind offensichtlich. Falls X Q-integrierbar ist, gilt E(|XZn |) = E(|X|Zn ) = EQ (|X|) < ∞, da Zn Dichte von Q auf Fn ist. Für C ∈ Fn gilt ferner Z Z Z Z EQ (X|Fm )Zm dP = EQ (X|Fm )dQ = XdQ = XZn dP C C C wie gewünscht, da Zm , Zn Dichten von Q auf Fm bzw. Fn sind. C Martingale sind also durch ihren Wert in der Zukunft schon zu jedem früheren Zeitpunkt determiniert. Lemma 2.13 Seien X, Y Martingale und N ∈ N mit XN = YN . Dann gilt Xn = Yn für n = 0, . . . , N . Beweis. Dies folgt aus Xn = E(XN |Fn ) = E(YN |Fn ) = Yn . Wie wir gesehen haben, erwartet man bei einem Martingal für die Zukunft im Mittel den heutigen Wert. Ein allgemeiner Prozess hingegen könnte einen positiven, negativen oder auch wechselnden Trend aufweisen. Dies wird durch die Doobsche Zerlegung formalisiert. Sie zerlegt den Zuwachs ∆Xn eines beliebigen Prozesses in einen kurzfristigen, vorhersehbaren Trend ∆An und eine zufällige Abweichung ∆Mn von diesem Trend. Satz 2.14 (Doob-Zerlegung) Sei X ein diskretes Semimartingal mit E(|Xn | < ∞) für alle n ∈ N. Dann lässt sich X fast sicher eindeutig in der Form X = X0 + M + A zerlegen, wobei M ein Martingal mit M0 = 0 und A ein vorhersehbarer Prozess mit A0 = 0 sind. A heißt Kompensator von X. 24 KAPITEL 2. DISKRETE STOCHASTISCHE ANALYSIS P Beweis. Definiere An := nm=1 E(∆Xm |Fm−1 ) und M := X − X0 − A. Dann ist ∆Mn = ∆Xn − E(∆Xn |Fn−1 ). Offensichtlich ist M adaptiert, integrierbar und E(∆Mn |Fn−1 ) = 0, woraus die Martingaleigenschaft folgt. Umgekehrt sei X = X0 + M + A eine beliebige Zerlegung wie im Satz. Wegen der Vorhersehbarkeit von A und der Martingaleigenschaft von M gilt dann ∆An = E(∆An |Fn−1 ) = E(∆Xn |Fn−1 ) − E(∆Mn |Fn−1 ) = E(∆Xn |Fn−1 ) für alle n, woraus die Eindeutigkeit folgt. Bemerkung. Falls X ein Submartingal (bzw. Supermartingal) ist, dann ist A monoton wachsend (bzw. fallend). 2.3 Stochastisches Integral Wie bisher sei ein filtrierter Wahrscheinlichkeitsraum (Ω, F , (Fn )n∈N , P ) gegeben. Von nun an beschränken wir uns jedoch auf endliches Ω, die zugehörige kanonische σ-Algebra F = P(Ω) sowie den Fall P ({ω} > 0 für alle ω ∈ Ω, d. h. alle Ergebnisse können tatsächlich eintreten. Der zentrale Begriff der stochastischen Analysis ist das stochastische Integral, das im Zeitdiskreten nichts anderes als eine Summe ist. Definition 2.15 Sei X ein Rd -wertiges diskretes Semimartingal und H ein Rd -wertiger vorhersehbarer (oder zumindest adaptierter) Prozess. Unter dem stochastischen Integral von H nach X versteht man das folgendermaßen definierte diskrete Semimartingal H • X: Z n n X > • Hm ∆Xm . (2.1) H Xn := Hm dXm := 0 m=1 Motivieren lässt sich das stochastische Integral sehr schön durch die folgende finanzmathematische Anschauung, auch wenn es davon unabhängig entwickelt wurde. Dazu fassen wir, wie wir es auch in den folgenden Kapiteln tun werden, X als den Kursverlauf einer Aktie und Hn als die Anzahl an Aktien auf, die wir zur Zeit n besitzen. Durch die Kursänderung der Aktie zwischen n − 1 und n ändert sich nun unser Anlagevermögen, nämlich gerade um Hn (Xn − Xn−1 ) = Hn ∆Xn . Das Integral H • Xn steht also für die kumulativen Handelsgewinne oder -verluste zwischen den Zeitpunkten 0 und n, wie sie sich aus Kursänderungen (und nicht etwa durch Kauf oder Verkauf von Wertpapieren) ergeben. Wenn wir ein Portfolio aus mehreren Aktien besitzen, werden X und H vektorwertig. Hni steht in diesem Fall für die Anzahl an Aktien vom Typ i und Xni für deren Kurs. Die Handelsgewinne zwischen n − 1 und n ergeben sich nunmehr als Skalarprodukt Hn> (Xn − Xn−1 ) = Hn> ∆Xn . Auch im vektorwertigen Fall lässt sich also das Integral H • Xn als kumulativer Handelsgewinn auffassen. Bei der obigen Interpretation muss man jedoch sehr vorsichtig sein, in welcher Reihenfolge sich die Dinge zum Zeitpunkt n ereignen. Wenn wir Hn (Xn − Xn−1 ) als den Kursgewinn zum Zeitpunkt n deuten, bedeutet dies offenbar, dass wir unser Portfolio Hn gekauft 2.3. STOCHASTISCHES INTEGRAL 25 haben, bevor sich der Aktienkurs von Xn−1 nach Xn geändert hat, also gewissenmaßen am Ende des vorigen Zeitpunkts n − 1, nachdem sich der Preis Xn−1 schon eingestellt hatte. Daher erscheint es plausibel, dass wir zur Wahl von Hn auch nur die bis zum Zeitpunkt n − 1 gesammelte Information verwenden können und insbesondere nicht den Wert Xn , der für uns im Augenblick des Kaufs des Portfolios noch im Dunkeln liegt. Dies motiviert auch zumindest aus finanzmathematischer Sicht, warum man sich überwiegend auf die Betrachtung vorhersehbarer Integranden beschränkt. Denn um die Adaptiertheit von H • X zu gewährleisten, würde ja die Adaptiertheit von H reichen. Definition 2.16 Seien X, Y reellwertige diskrete Semimartingale. Unter der Kovariation von X und Y versteht man das durch [X, Y ]n := n X ∆Xm ∆Ym m=1 definierte diskrete Semimartingal [X, Y ]. Im Falle X = Y spricht man von der quadratischen Variation von X. Die Kovariation ist — zumindest im zeitdiskreten Fall — vor allem für die Regel der partiellen Integration (vgl. Lemma 2.18) von Interesse. Definition 2.17 Seien X, Y Martingale (oder allgemeiner diskrete Semimartingale) derart, dass E(|[X, Y ]|n ) < ∞ für alle n ∈ N. Dann heißt der Kompensator von [X, Y ] vorhersehbare Kovariation von X und Y und wird mit hX, Y i bezeichnet. Im Falle X = Y spricht man wieder von der vorhersehbaren quadratischen Variation von X. Bemerkung. Offenbar ist ∆hX, Y in = E(∆Xn ∆Yn |Fn−1 ) für n ∈ N. Die vorhersehbare quadratische Kovariation von Martingalen kann als eine Art dynamische Verallgemeinerung der Kovarianz zentrierter Zufallsvariablen aufgefasst werden. Wir benötigen sie aus technischen Gründen für den Satz von Girsanow (Lemma 2.24) und im Zusammenhang mit finanzmathematischen Fragestellungen in Kapitel ??. Lemma 2.18 Seien X, Y diskrete Semimartingale und H, K vorhersehbare Prozesse. Dann gelten: 1. H • (K • X) = (HK) • X 2. [H • X, Y ] = H • [X, Y ] 3. die Regel der partiellen Integration: XY = X 0 Y0 + X− • Y + Y • X = X0 Y0 + X− • Y + Y− • X + [X, Y ] (2.2) (2.3) 26 KAPITEL 2. DISKRETE STOCHASTISCHE ANALYSIS 4. Falls E(|[X, Y ]n |) < ∞ und E(|[H • X, Y ]n |) < ∞ für alle n ∈ N, ist hH • X, Y i = H • hX, Y i. 5. Wenn X ein Martingal ist, dann ist H • X ein Martingal. 6. Wenn X ein Supermartingal und H nichtnegativ sind, dann ist H tingal. • X ein Supermar- 7. Wenn X ein Martingal und T eine Stoppzeit sind, dann ist auch X T ein Martingal. 8. Wenn X ein Supermartingal und T eine Stoppzeit sind, dann ist auch X T ein Supermartingal. Intuitiv bedeuten die beiden letzten Regeln, dass ein gestopptes faires (bzw. ungünstiges) Spiel fair (bzw. ungünstig) bleibt. Man kann also bei dem oben betrachteten Roulettespiel den mittleren Gewinn nicht dadurch steigern, dass man zu einem geschickt gewählten Zeitpunkt das Spielkasino verlässt. Beweis. 1. H • (K • X)n = 2. Für festes n gilt Pn m=1 Hm ∆(K • X)m = [H • X, Y ]n = Pn = Pn = Pn m=1 ∆(H Pn m=1 • Hm Km ∆Xm = (HK) • Xn X)m ∆Ym m=1 Hm ∆Xm ∆Ym m=1 Hm ∆[X, Y ]m = H • [X, Y ]n . 3. Für festes n gelten Xn Yn = X0 Y0 + Pn = X0 Y0 + Pn m=1 (Xm Ym − Xm−1 Ym−1 ) m=1 (Xm−1 (Ym = X0 Y0 + X− • Yn + Y • − Ym−1 ) + Ym (Xm − Xm−1 )) Xn und Y • Xn = Pn = Pn m=1 Ym ∆Xm m=1 (Ym−1 ∆Xm + (Ym − Ym−1 )∆Xm ) = Y− • Xn + [X, Y ]n . 4. Es reicht zu zeigen, dass die Zuwächse übereinstimmen. Dies gilt wegen ∆(H • hX, Y in ) = Hn ∆hX, Y in = Hn E(∆[X, Y ]n |Fn−1 ) = E(Hn ∆[X, Y ]n |Fn−1 ) 2. = E(∆[H • X, Y ]n |Fn−1 ) = ∆hH • X, Y in . 2.3. STOCHASTISCHES INTEGRAL 27 5. Die Adaptiertheit von H • X ist klar, da H • Xn eine Linearkombination Fn messbarer Zufallsvariabler ist. Die Martingalbedingung folgt wegen E(H • Xn |Fn−1 ) = E(H • Xn−1 + Hn ∆Xn |Fn−1 ) = H • Xn−1 + Hn E(∆Xn |Fn−1 ) aus der Martingaleigenschaft von X. 6. Dies folgt analog zu 5. 8.,9. Definiere den Prozess H durch Hn := 1{T ≥n} . H ist vorhersehbar, denn für festes n ist {Hn = 1} = {T ≥ n} = {T ≤ n − 1}C ∈ Fn− . Ferner ist X T = X0 + H • X, denn P T X0 + H • Xn = X0 + n∧T m=1 ∆Xm = Xn∧T = Xn . Mit Eigenschaft 5 bzw. 6 folgt die Behauptung. Bemerkung. 1. Das stochastische Integral H • X ist linear in H und X. 2. Die Kovariation [X, Y ] und die vorhersehbare Kovariation hX, Y i sind linear in X und Y . 3. Die obigen Aussagen gelten auch für vektorwertige Prozesse, sofern sich sinnvolle Aussagen ergeben. Z. B. ist H • (K • X) = (HK) • X, falls K, X Rd -wertig sind. Die Itô-Formel ist im Zeitdiskreten nichts anderes als eine mehr oder weniger kompliziert aufgeschriebene Teleskopsumme und spielt auch keine große Rolle. In der zeitstetigen Analysis ist sie dagegen von zentraler Bedeutung, weswegen wir sie hier der Vollständigkeit halber ebenfalls erwähnen. Satz 2.19 (Itô-Formel) Seien X ein Rd -wertiges diskretes Semimartingal und f : Rd → R eine differenzierbare Funktion. Dann ist f (X) ein diskretes Semimartingal, und es gilt: f (Xn ) = f (X0 ) + n X (f (Xm ) − f (Xm− )) m=1 = f (X0 ) + (Df (X− )) • Xn + n X f (Xm ) − f (Xm− ) − Df (Xm− )> ∆Xm m=1 Beweis. durch einfaches Nachrechnen. Bemerkung. Wenn die Sprünge ∆X „klein“ sind und f zweifach stetig differenzierbar ist, dann gilt näherungsweise f (Xn ) ≈ f (X0 ) + (Df (X− )) • Xn + d 1X 2 D f (X− ) • [X i , X j ]n 2 i,j=1 ij (d. h. f (Xn ) ≈ f (X0 ) + f 0 (X− ) • Xn + 12 f 00 (X− ) • [X, X]n für reellwertiges X). (2.4) 28 KAPITEL 2. DISKRETE STOCHASTISCHE ANALYSIS Beweis. Die Näherungsformel folgt mit einer Taylorentwicklung 2. Ordnung: 2 f (Xn ) ≈ f (Xn− ) + Df (Xn− )> ∆Xn + 21 Dij f (Xn− )∆Xni ∆Xnj . Stochastische Exponentiale sind Prozesse von multiplikativer Gestalt und spielen in der stochastischen Analysis eine wichtige Rolle. Sie lassen sich gut finanzmathematisch illustrieren: Wenn ∆Xn als Zins zwischen den Zeitpunkten n − 1 und n ausgeschüttet wird (d. h. aus 1 e bei n − 1 werden 1 + ∆Xn e zur Zeit n), dann gibt E (X) an, wie sich ein Anfangskapital von 1 e durch die Zeit hindurch mit Zins und Zinseszins entwickelt. Definition 2.20 Sei X ein reellwertiges diskretes Semimartingal. Unter dem stochastischen Exponential E (X) versteht man das diskrete Semimartingal Z, das die Gleichung Z = 1 + Z− • X löst. Für das stochastische Exponential gibt es eine einfache explizite Darstellung. Q Lemma 2.21 Es gilt E (X)n = nm=1 (1 + ∆Xm ). Beweis. Die Produktdarstellung zeigt man induktiv via Zn = Zn−1 + Zn−1 ∆Xn = Qn−1 m=1 (1 + ∆Xm )(1 + ∆Xn ) = Qn m=1 (1 + ∆Xn ). Bemerkung. 1. Wenn die Sprünge ∆X „klein“ sind, dann gilt näherungsweise 1 E (X)n ≈ exp Xn − X0 − [X, X]n . 2 (2.5) Beweis. In der Näherung o((∆Xm )2 ) ≈ 0 gilt Q exp(Xn − X0 − 12 [X, X]n ) = nm=1 exp(∆Xm ) exp(− 12 (∆Xm )2 ) Qn 1 1 2 2 2 2 = m=1 (1 + ∆Xm + 2 (∆Xm ) + o((∆Xm ) )(1 − 2 (∆Xm ) + o((∆Xm ) )) Qn 1 1 2 2 2 = m=1 (1 + ∆Xm + 2 (∆Xm ) − 2 (∆Xm ) + o((∆Xm ) )) Qn ≈ m=1 (1 + ∆Xm ) = E (X)n . 2. Wenn X ein Martingal ist, so gilt dies nach Lemma 2.18(5) auch für E (X). In der folgenden Rechenregel für das stochastische Exponential taucht im Vergleich zur gewöhnlichen Exponentialfunktion noch ein Kovariationsterm auf. Lemma 2.22 (Yorsche Fomel) Für diskrete Semimartingale X, Y gilt E (X)E (Y ) = E (X + Y + [X, Y ]). 2.3. STOCHASTISCHES INTEGRAL 29 Beweis. Nach Lemma 2.18 gilt E (X)E (Y ) = E (X)0 E (Y )0 + E (X)− • E (Y ) + E (Y )− • E (X) + [E (X), E (Y )] = 1 + (E (X− )E (Y− )) • Y + (E (X− )E (Y− )) • X + (E (X− )E (Y− )) • [X, Y ] = 1 + (E (X)E (Y ))− • (Y + X + [X, Y ]) und damit die Behauptung. Da die Definition des Martingals einen Erwartungswert beinhaltet, ist sie nicht invariant unter Wechsel des Wahrscheinlichkeitsmaßes. Der folgende Satz zeigt, wie man anhand des Dichteprozesses feststellen kann, ob ein Prozess ein Martingal unter einem gegebenen äquivalenten Wahrscheinlichkeitsmaß ist. Solche Maßwechsel, unter denen gewisse Prozesse zu Martingalen werden, spielen in der Finanzmathematik eine wichtige Rolle. Lemma 2.23 Sei Q ∼ P ein Wahrscheinlichkeitsmaß mit Dichteprozess Z, und sei X ein diskretes Semimartingal. X ist genau dann ein Q-Martingal, wenn XZ ein P -Martingal ist. Beweis. Die Adaptiertheit ist klar. Nach der verallgemeinerten Bayesschen Formel (Lemma 2.12a) gilt Zn−1 EQ (Xn |Fn−1 ) = EP (Zn Xn |Fn−1 ). X ist genau dann ein Q-Martingal, wenn die linke Seite für n = 1, 2, . . . mit Zn−1 Xn−1 übereinstimmt. Analog ist ZX ist genau dann ein P -Martingal, wenn die rechte Seite für n = 1, 2, . . . mit Zn−1 Xn−1 übereinstimmt. Der Satz von Girsanow liefert die Doob-Zerlegung eines P -Martingals unter einem äquivalenten Wahrscheinlichkeitsmaß Q in Abhängigkeit des Dichteprozesses von Q. Lemma 2.24 (Girsanow) Sei Q ∼ P ein Wahrscheinlichkeitsmaß mit Dichteprozess Z. Ferner sei X ein Martingal mit X0 = 0 und E(|[Z, X]n |) < ∞ für alle n ∈ N. Dann ist X− 1 Z− • hZ, Xi ein Q- Martingal, wobei die vorhersehbare Kovariation bzgl. des Wahrscheinlichkeitsmaßes P zu verstehen ist. Beweis. Für C := {Zn = 0} gilt Q(C) = EP ( dQ 1 ) = EP (Zn 1C ) = 0, dP C also auch P (C) = 0 und somit Zn 6= 0 fast sicher. Folglich ist der vorhersehbare Prozess A := Z1− • hZ, Xi wohldefiniert. Nach Lemma 2.18 ist (X − A)Z = XZ − AZ = X− • Z + Z− • X + [Z, X] − Z− • A − A • Z = X− • Z + Z− • X + ([Z, X] − hX, Zi) − A • Z 30 KAPITEL 2. DISKRETE STOCHASTISCHE ANALYSIS ein P -Martingal. Die Behauptung folgt mit Lemma 2.23. Die Standard-Irrfahrt ist gewissermaßen das einfachste Martingal überhaupt (nach den konstanten Prozessen). Definition 2.25 Seien p ∈ (0, 1), a, b > 0. Unter einer einfachen Irrfahrt verstehen wir ein Semimartingal X mit X0 = 0 derart, dass (∆Xn )n∈N\{0} unabhängige, identisch verteilte Zufallsvariablen sind mit P (∆Xn = a) = 1 − P (∆Xn = −b) = p. Im Fall a = b = 1, p = 1 2 sprechen wir von einer Standard-Irrfahrt. Nur sehr einfache Prozesse X wie die Standard-Irrfahrt oder deren asymmetrische oder gestoppte Varianten besitzen die folgende Darstellungseigenschaft, dass sich jedes Martingal bzgl. ihrer Filtrierung schon als stochastisches Integral nach X schreiben lässt. Diese Eigenschaft hängt in der Finanzmathematik eng mit der Vollständigkeit von Märkten zusammen (vgl. Kapitel ??). Satz 2.26 (Martingaldarstellungssatz) Sei X eine einfache Irrfahrt mit der Martingaleigenschaft ap = b(1 − p). Wenn (Fn )n∈N die von X erzeugte Filtrierung ist, dann gibt es für jedes Martingal Y einen vorhersehbaren Prozess H derart, dass Y = Y0 + H • X. Beweis. Da ∆Yn σ(∆X1 , . . . , ∆Xn )-messbar ist, gibt es eine Funktion fn : {−b, a}n → R mit ∆Yn = fn (∆X1 , . . . , ∆Xn ). Da Y ein Martingal ist, gilt 0 = E(∆Yn |Fn−1 ) = pfn (∆X1 , . . . , ∆Xn−1 , a) + (1 − p)fn (∆X1 , . . . , ∆Xn−1 , −b) nach Lemma 1.19, also 1 f (∆X1 , . . . , ∆Xn−1 , a) a n = − 1b fn (∆X1 , . . . , ∆Xn−1 , −b) =: Hn . Dann ist Hn ∆Xn = fn (∆X1 , . . . , ∆Xn−1 , a) = ∆Yn im Falle ∆Xn = a und analog für ∆Xn = −b.