Martingale und Brownsche Bewegung

Werbung
Martingale und Brownsche Bewegung
Martin G. Riedler
Institute for Stochastics, Johannes Kepler University
4040 Linz, Austria
[email protected]
2
Die vorliegenden Unterlagen sind ein Skriptum zur Vorlesung Martingale und Brownsche
Bewegung abgehalten im Sommersemester 2012 an der Johannes Kepler Universität Linz
im Umfang von zwei Semesterwochenstunden. Die Vorlesung präsentiert die Grundlagen
um einen allgemeinen Integrationsbegriff bezüglich von Martingalen darauf aufbauend einzuführen, behandelt aber den stochastischen Integrationsbegriff selbst nicht. Der Inhalt der
Vorlesung ist zum grössten Teil aus den unten angegebenen Monographien übernommen
mit der einen Ausnahme des Kapitels zu Reihenentwicklungen der Brownschen Bewegung.
Martin Riedler, Linz am 23. Juli 2012
Literaturverzeichnis
[EK86] S. N. Ethier and T. G. Kurtz. Markov Processes: Characterization and Convergence. Wiley, New York, 1986.
[JS87] J. Jacod and A. N. Shiryaev. Limit Theorems for Stochastic Processes. Springer,
Berlin, 1987.
[KS91] I. Karatzas and S. E. Shreve. Brownian Motion and Stochastic Calculus, 2nd Ed.
Springer, New York, 1991.
[Mét82] M. Métivier. Semimartingales. deGruyter, Berlin, 1982.
[Pro04] P. E. Protter. Stochastic Integration and Differential Equations, 2nd Ed. Springer,
Berlin, 2004.
[RY99] D. Revuz and M. Yor. Brownian Motion and Stochastic Calculus, 3rd Ed. Springer,
Berlin, 1999.
3
4
Inhaltsverzeichnis
1 Stochastische Prozesse
2 Die
2.1
2.2
2.3
2.4
7
Brownsche Bewegung
Existenz der Brownschen Bewegung . . . . . . . . . .
Pfadeigenschaften der Brownschen Bewegung . . . . .
Verwandte Prozesse . . . . . . . . . . . . . . . . . . .
Reihenentwicklung der Brownschen Bewegung . . . .
2.4.1 Satz von Levy-Ciesielski und die Paley-Wiener
2.4.2 Karhunen-Loève Entwicklung . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
Entwicklung
. . . . . . . .
3 Martingale
3.1 Martingalungleichungen . . . . . . . . . . . . . . . . . . . . . .
3.2 Regularitätsatz für Submartingale . . . . . . . . . . . . . . . . .
3.3 Martingalkonvergenzsätze . . . . . . . . . . . . . . . . . . . . .
3.4 Optional Stopping Theorem . . . . . . . . . . . . . . . . . . . .
3.5 Die Doob-Meyer Zerlegung & die quadratische Variation . . . .
3.5.1 Erweiterungen des Konzepts der quadratischen Variation
3.6 Schwache Konvergenz von Martingalen . . . . . . . . . . . . . .
A Gleichgradige Integrierbarkeit
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17
17
20
24
28
28
32
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
39
42
46
47
51
55
63
65
71
5
6
INHALTSVERZEICHNIS
Kapitel 1
Stochastische Prozesse
Wir behandeln kurz die grundlegenden Definitionen bezügich der Theorie stochastischer Prozesse in stetiger Zeit. Das Kapitel ist eine Zusammenfassung und
ersetzt nicht eine detaillierte Einfhrung. Das Hauptziel ist die Terminologie und
Notation für die späteren Überlegungen zu fixieren.
Im folgenden sei (Ω, F, P) stets ein Wahrscheinlichkeitsraum, dieser heißt vollständig, falls
die σ-Algebra F jede Teilmenge aller P-Nullmengen enthält, d.h., B ∈ F mit P(B) = 0
und A ⊂ B impliziert A ∈ F. Eine Eigenschaft von Abbildungen auf einem Wahrscheinlichkeitsraum gilt fast sicher (f.s.) falls eine messbare Menge Ω0 ⊂ Ω existiert sodass diese
Eigenschaft für alle ω ∈ Ω gilt und P(Ωc0 ) = 0, d.h., die Eigenschaft gilt bis auf höchstens
einer Nullmenge.
Ein stochastischer Prozess X = (Xt )t∈I ist eine Familie von Zufallsvariablen1 Xt : Ω → E
definiert auf dem Wahrscheinlichkeitsraum (Ω, F, P) mit Werten in einem messbaren Raum
(E, E), genannt Zustandsraum, und Indexmenge I. Ein stochastischer Prozess heißt diskret
oder zeit-diskret wenn I ⊆ R+ höchstens abzählbar ist, z. B., I = N, und kontinuierlich
oder zeit-stetig falls I ⊆ R+ überabzählbar ist, z. B., I = [0, T ] ⊂ R+ oder I = R+ .
Ein Prozess heißt reell falls sein Zustandsraum die reellen Zahlen ausgestattet mit der
Borel-σ-Algebra ist, in Zeichen (E, E) = (R, BR ). Wir werden nachfolgend ausschließlich
kontinuierliche, meist reelle Prozesse behandeln. Im Folgenden bezeichnet daher die Indexmenge I immer eine überabzählbare Menge.
Sei p ≥ 1, dann heißt ein stochastischer Prozess X p-fach integrierbar, falls E|Xt |p < ∞
für alle t ∈ I. Im Falle p = 1 oder p = 2 heißt der Prozess integrierbar bzw. quadratintegrierbar.
Ein Prozess X besitzt unabhängige Inkremente (Zuwächse) falls für alle t1 ≤ t2 ≤ t3 ≤
t4 die Inkremente Xt2 − Xt1 und Xt4 − Xt3 unabhängig sind und er besitzt stationäre
Inkremente falls für alle t, h ≥ 0 die Verteilung der Inkremente Xt+h − Xt nur von h
1
Wir verwenden den Begriff Zufallsvariable wie in der Stochastik üblich als Synonym für messbare
Abbildung.
7
8
KAPITEL 1. STOCHASTISCHE PROZESSE
abhängt und unabängig von t ist.2
Ein Prozess X heißt stationär falls (Xt1 , . . . , Xtn ) und (Xt1 +h , . . . , Xtn +h ) für alle h ≥ 0
dieselbe Verteilung besitzen für alle endlich-vielen Indices t1 , . . . , tn ∈ I.
Neben der Interpretation eines stochastischen Prozesses als eine Familie von Zufallsvariable sind auch noch folgende Interpretationen möglich und theoretisch wichtig. Einerseits
können wir X als eine Abbildung der beiden Argument (t, ω) betrachten, d.h., als Abbildung X : I × Ω → E auffassen und andererseits, können wir die Familie (Xt )t∈I als eine
Zufallsvariable mit Werten in E I ausgestattet mit der Produkt-σ-Algebra E I betrachten,
d.h., als messbare Abbildung X : Ω → E I in die Menge der Pfade.
Pfadeigenschaften stochastischer Prozesse:
Sei X ein stochastischer Prozess, dann heißt für jedes fixe ω ∈ Ω die Abbildung t 7→ Xt (ω)
eine Trajektorie oder ein Pfad des Prozesses. Ein Prozess heißt (f.s.) (rechts-/links-)stetig
falls (fast alle) Trajektorien (rechts-/links-)stetig sind. Ein Prozess heißt càdlàg falls er
überall (!), d.h., für alle ω ∈ Ω, rechts-stetig ist und seine linken Limiten existieren.3 Ein
Prozess X ist (f.s.) lokal Hölderstetig mit Exponent γ > 0, falls für jedes T > 0 eine (f.s.)
positive Zufallsvariable h existiert und eine Konstante L < ∞, sodass
|Xt (ω) − Xs (ω)|
≤ L für (fast) alle ω ∈ Ω .
|t − s|γ
0<|t−s|<h(ω),
sup
t,s∈[0,T ]
Dies ist äquivalent zu der Bedingung, dass für (fast) alle ω ∈ Ω gilt
|Xt (ω) − Xs (ω)| ≤ L |t − s|γ
∀ t, s ∈ [0, T ] mit |t − s| < h(ω) .
Umgekehrt gilt, ein Prozess ist (f.s.) nirgends lokal Hölderstetig mit Exponent γ, falls kein
T > 0 existiert, sodass obige Bedingung (f.s.) erfüllt ist. (Lokale) Hölderstetigkeit mit
Exponent γ = 1 ist (lokale) Lipschitzstetigkeit.
Die nachfolgenden Grössen, die sich aus den Pfaden bestimmen, beschreiben deren Oszillationsverhalten. Eine Partition oder Zerlegung P[a,b] eines Intervalls [a, b] ist eine Menge
von Punkten t0 , . . . , tn ∈ [a, b] mit a = t0 ≤ t1 . . . ≤ tn = b und |P[a,b] | = maxi |ti − ti−1 | ist
die Feinheit der Partition, wobei hier und immer in Verbindung mit Partitionen der Index
i einmal die Anzahl der Elemente (ohne t0 ) durchläuft. Im folgenden sei X ein zeit-stetiger
stochastischer Prozess, dann heißt für [a, b] ∈ I die Größe
X
p
V[a,b]
(X) = sup
|Xti − Xti−1 |p
P[a,b]
2
i
Diese Bedingung heißt oft auch stark stationär im Gegensatz zu schwach stationär welche nur die
Gleichheit der der ersten beiden Momente fordert.
3
Das Gegenteil ist càglàd falls der Prozess linksstetig mit existierenden rechten Limiten ist.
9
die totale p-Variation über [a, b] des Prozesses. Das Supremum wird hier über alle Partitionen des Intervalls [a, b] genommen. Die totale Variation entspricht pfadweise dem ‘klassip
schen’ Variationskonzept der Analysis. Falls V[a,b]
(X) < ∞ (f.s.) für alle endlichen Intervalle
[a, b] ⊂ I dann ist der Prozess von (f.s.) endlicher totaler p-Variation. Falls p = 1, dann
sprechen wir einfach von der totalen Variation. Ein zweites, ‘stochastisches’ Variationskonzept ist das folgende. Wir bezeichnen die stochastische Grösse
X
|Xti − Xti−1 |p ,
Lp[a,b] := p-lim |P[a,b] |→0
i
falls dieser Grenzwert4 existiert, als p-Variation über [a, b], wobei der Grenzwert als Limes in
Wahrscheinlichkeit für beliebige Folgen von Partitionen deren Feinheit gegen 0 konvergiert
zu interpretieren ist und unabhängig von der Wahl der Folge zu sein hat. Falls p = 2
sprechen wir von der quadratischen Variation.
Äquivalenzbegriffe zwischen Stochastischen Prozessen
Der einfachste aber zu restriktive Begriff der Äquivalenz ist falls zwei Prozesse X, Y dieselbe Abbildung auf I × Ω definieren, d.h., Xt (ω) = Yt (ω) für alle (ω, t) ∈ Ω × I. Diese
Äquivalenzauffasung kann unter Beiziehung eines Wahrscheinlichkeitsmasses P in dreifacher Weise zu passenderen Konzepten abgeschwächt werden.5 Zwei Prozesse X und Y
mit Werten in E definiert auf den Wahrscheinlichkeitsräumen (Ω, F, P) und (Ω0 , F 0 , P0 ),
sind Versionen voneinander falls sie dieselben endlich-dimensionalen Verteilungen besitzen,
d.h.,
P Xt1 ∈ A1 , . . . , Xtn ∈ An = P0 Yt1 ∈ A1 , . . . , Ytn ∈ An
für alle messbaren Mengen Ai ⊂ E und alle endlichen Mengen von Indices {t1 , . . . , tn } ⊂
I. Falls die Prozesse X, Y auf dem selben Wahrscheinlichkeitsraum definiert sind und
für alle t ∈ I gilt, dass P[Xt = Yt ] = 1, dann heißen sie Modifikationen voneinander.
Schlussendlich die beiden Prozesse sind ununterscheidbar falls P[Xt = Yt ∀ t ∈ I] = 1, d.h.,
Trajektorien unterscheiden sich nur auf einer Nullmenge. Im falle diskreter Prozesse sind
die Begriffe Modifikation und ununterscheidbar äquivalent. Im Allgemeinen gelten zwischen
den Äquivalenzbegriffen die Beziehungen
X, Y ununterscheidbar =⇒ X, Y Modifikationen =⇒ X, Y Versionen
4
Wir verwenden die Notation p-lim und qm-lim um Konvergenz in Wahrscheinlichkeit und Konvergenz
im Quadratmittel zu bezeichnen, d.h.,
p-limn→∞ Xn = X
↔
∀ > 0 : limn→∞ P[|Xn − X| > ] = 0,
bzw.,
qm-limn→∞ Xn = X
5
↔
limn→∞ E|Xn − X|2 = 0
Alle drei sind Äquivalenzrelationen auf einer passenden Menge von Prozessen.
10
KAPITEL 1. STOCHASTISCHE PROZESSE
und umgekehrt
X, Y Modifikationen, X, Y f.s. rechts- oder linksstetig =⇒ X, Y ununterscheidbar .
Aus diesen Eigenschaften folgt, dass die Äquivalenzklasse der Modifikationen eines Prozesses (bis auf Ununterscheidbarkeit) höchstens einen f.s. (rechts-/links-)stetigen Prozess
enthält. Daher sagen wir f.s. (rechts-/links-)stetige Prozesse sind bis auf Unuterscheidbarkeit eindeutig definiert. Pfadeigenschaften bleiben nicht unter Modifikationen erhalten.
Oft sucht man jene Modifikation, die gute Pfadeigenschaften hat. Durch Abänderung eines
Prozesses auf der Nullmenge zu (rechts-/links-)stetigen Pfaden können wir immer einen
(rechts-/links-)stetige ununterscheidbaren Prozessen erhalten.
Die beiden schwächeren Äquivalenzbegriffe sind für die Anwendungen überaus wichtig, da
sehr oft durch physikalische Überlegungen und Experimente nur Aussagen über die endlich
dimensionale Verteilungen getroffen werden können. Prozesse in diesen Äquivalenzklassen
können sehr unterschiedliche Pfadeigenschaften besitzen und daher kann man sich zur mathematischen Behandlung aus dieser Klasse jenen Prozess wählen, der bestmögliche Pfadeigenschaften besitzt. Abschließend sei noch einmal darauf hingewiesen, dass Versionen,
Modifikationen und Ununterscheidbarkeit bezüglich eines bestimmten Masses definiert sind
und diese Eigenschaften nicht erhalten bleiben müssen, wählt man eine anderes Mass.
Kanonische Wahrscheinlichkeitsräume
Wie bereits erwähnt gibt es auf Grund von Beobachtungen oft nur Aussagen über die endlich dimensionalen Verteilung Stochastischer Prozesse und es stellt sich – vor all bei kontinuierlichen Modellen – zuallererst die Frage der Existenz eines Stochastischen Prozesses,
der diese endlich-dimensionalen Verteilungen besitzt. Wir betrachten nun nur kontinuierliche Indexmengen I, da die folgenden Probleme bei diskreten Prozessen nicht auftreten.
Existiert ein Prozess, dann kann er als Zufallsvariable mit Werten im messbaren Raum
(E I , E I ) aufgefasst werden und seine Verteilung induziert ein Bildmass darauf. Um die
Existenz eines Prozesses zu zeigen, ist es nun ausreichend die Existenz dieses Masses auf
dem Raum (E I , E I ) zu zeigen. Dieser Raum aller möglichen Pfade nimmt den Platz des unspezifizierten Wahrscheinlichkeitsraumes (Ω, F, P) ein und heißt daher kanonischer Wahrscheinlichkeitsraum. Auf dem kanonische Raum ist ein stochastischer Prozess durch die
Familie der Koordinatenabbildungen ζt : E I → E : ω 7→ ζt (ω) := ω(t), t ∈ I definiert und
dieser heißt kanonischer Prozess. Die Produkt-σ-Algebra E I ist per definitionem die von
den Koordinatenabbildungen erzeugte σ-Algebra.
Eine Antwort auf die Existenzfrage liefert der folgende Satz von Kolmogorov. Zuvor bemerken wir das eine Familie endlich-dimensionaler Verteilungen (PJ )J⊂I, |J|<∞ projektiv ist,
falls für J = (t1 , . . . , tn ) und jede Permutation π von {1, . . . , n}
P(t1 ,...,tn ) A1 × . . . × An = P(tπ(1) ,...,tπ(n) ) Aπ(1) × . . . × Aπ(n)
und
P(t1 ,...,tn ) A1 × . . . × An−1 × E = P(t1 ,...,tn−1 ) A1 × . . . × An−1
11
gilt. Hier sind die endlich-dimensionale Verteilungen eine Familie von Wahrscheinlichkeitsmassen auf der Familie der Produkträume Eti × . . . Etn für alle endlich dimensionalen
Teilmengen {t1 , . . . , tn } ⊂ I. Es ist leicht zu überprüfen, dass die endlich-dimensionalen
Verteilungen eines Prozesses eine projektive Familie sind und der folgenden Satz ist in gewissem Sinne die Umkehrung dieser Aussage und liefert die Existenz eines stochastischen
Prozesses zu einer gegebenen Familie von endlich-dimensionalen Verteilungen.
Satz 1.1 (Kolmogorov-Existenz Satz). Sei (E, E) ein Polnischer Raum6 zusammen mit
seiner Borel-σ-Algebra. Dann existiert für jede Indexmenge I und jede projektive Familie von endlich-dimensionalen Verteilungen genau ein Wahrscheinlichkeitsmass P auf
(E I , E I ), dessen Randverteilungen mit den gegebenen endlich-dimensionalen Verteilungen
übereinstimmen, d.h., für beliebige endlich viele Indices ti und messbare Mengen Ai gilt
P ζt1 ∈ A1 , . . . , ζtn ∈ An = P(t1 ,...,tn ) A1 × . . . × An .
Ein schwerwiegender Nachteil dieser Konstruktion ist, dass die Produkt-σ-Algebra E I
nur Mengen enthält, die durch abzählbar viele Koordinaten festgelegt sind. Daher treten Messbarkeitsprobleme immer dann auf, wenn man Eigenschaften oder Funktionale des
Prozesses betrachtet, die von überabzählbar vielen einzelnen Zufallsvariablen abhängen.
Das prominenteste Beispiel unter diesen ist die Nicht-Messbarkeit der Menge
{ω ∈ E I : t 7→ ζt (ω) ist stetig}
im kanonischen Wahrscheinlichkeitsraum und analog, wenn nach, z.B., der Beschränktheit
oder Differenzierbarkeit der Pfade gefragt wird. Ähnliche Probleme treten auch auf, wenn
man für beliebige Prozess die Abbildungen
τ (ω) := inf{t > 0 : Xt (ω) > 0},
lims↓t Xs (ω),
sups≤t Xs (ω)
betrachtet. Hier kann man im Allgemeinen nicht davon ausgehen, dass diese Ausdrücke
wohldefiniert oder messbar sind. Diese letzteren Probleme können behoben werden, falls
man (f.s.) (rechts-/links-)stetige Prozesse betrachtet, da man nun Funktionale überabzählbar
vieler Zufallsvariablen oft auf Funktionale auf dichten, abzählbaren Mengen, z.B., Q,
zurückführen kann.
Es bleibt aber weiterhin das Problem zu zeigen, dass der Prozess derartige Pfade besitzt.
Auf Grund der Nicht-Messbarkeit der Menge der stetigen Pfade in (E I , E I ), kann man
nicht einfach vorgehen und zeigen, dass die Menge der unpassenden Pfade eine Nullmenge
ist. Um diese Schwierigkeit vorerst zu umgehen, schwächen wir den Begriff fast sicher
(nur für den Moment!) ab, und sagen ein kanonischer Prozess ist f. s. (rechts-/links-)stetig
falls jeder messbaren Menge in E I , die alle (rechts-/links-)stetigen Pfade enthält, Mass
1 zugewiesen wird.7 Ein einfaches, allgemeines Kriterium zur Überprüfung der Stetigkeit
liefert der folgende Satz.
6
Ein topologischer Raum heißt polnisch, falls er vollständig metrizierbar und separabel ist, vor allem
gilt, jeder polnische Raum ist ein Borelraum.
7
Zur genaueren Unterscheidung wird eine derartige Menge auch wesentlich für des Wahrscheinlichkeitsmass genannt werden.
12
KAPITEL 1. STOCHASTISCHE PROZESSE
Satz 1.2 (Kolmogorov-Centsov Stetigkeits Kriterium). Existieren für einen reellen Prozess
X drei Konstanten α, β, C > 0, sodass
E|Xt − Xs |α ≤ C|t − s|1+β
für alle t, s ≥ 0 gilt, dann besitzt X eine f.s. stetige Modifikation. Diese ist f.s. lokal
Hölder-stetig mit Exponent γ für alle γ ∈ (0, β/α).
Bemerkung 1.1. Man kann sogar zeigen, dass der Prozess eine überall stetige Modifikation
besitzt. Dazu ändert man die f.s. stetige Modifikation so ab, dass man alle nicht-stetigen
Pfade konstant gleich 0 setzt und dann lässt sich zeigen, dass dieser überall stetige Prozess
ebenfalls eine Modifikation ist.
Um f.s. (rechts-)stetige Prozesse besser behandeln zu können ist der kanonische Raum
(E I , E I ) meist nur ein Zwischenschritt und wird nachdem die Existenz eines Prozesses gesichert ist durch einen besser geeigneten Raum ersetzt. Im folgenden Bezeichnen wird mit
D(I, E) und C(I, E) die Menge der rechtsstetigen, bzw., stetigen Pfade von I nach E,
die klarerweise Teilmengen von E I sind. Ausgestattet mit der jeweiligen Spur-σ-Algebra
von E I werden beide zu messbaren Räumen. Die Spur-σ-Algebra entspricht auch der von
den Koordinatenabbildungen von D(I, E) bzw. C(I, E) nach E erzeugten σ-Algebra. Sind
die Pfade eines Prozesse f.s. (rechts-)stetig, dann erhält man durch die Einschränkung eines Masses auf E I auf diese Räume eindeutig(!) ein Wahrscheinlichkeitsmass, trotzdem
beide Mengen nicht messbare Teilmengen von E I sind. Die resultierenden Wahrscheinlichkeitsräume bestehen wiederum aus einer Menge von Funktionen und dazugehörigen
Koordinatenabbildungen und sind daher auch kanonische Räume.
Die kanonische Version eines Prozesses ist eine Version, die auf einem (passenden) kanonischen Raum definiert. Jeder Prozess besitzt eine eindeutige kanonische Version. Somit gilt
allgemein ein Prozess auf einem beliebigen Raum (Ω, F, P) ist f.s. (rechts-/links-)stetig (im
normalen Sinn) – wir können getrost annehmen, dass, z.B., {ω ∈ Ω : X(ω) ∈ C(R+ , E)} ∈
F – falls seine kanonische Version f.s. (rechts-/links-) stetig im neuen Sinne ist.
Filtrationen
Eine Familie von Teil-σ-Algebren Ft , t ∈ I, von F, heißt Filtration falls Fs ⊆ Ft für s ≤ t.
Diese heißt vollständig bezüglich P, falls der Wahrscheinlichkeitsraum (Ω, F, P) vollständig
ist und F0 alle P-Nullmengen in F enthält. Die Vollständigkeit der Filtration ist eine
Eigenschaft bezüglich eines bestimmten Masses und muss nicht erhalten bleiben wird ein
beliebiges anderes Mass gewählt.
Sei N P die Menge aller P-Nullmengen in F, dann ist die Augmentierung einer Filtration
jene Filtration bestehend aus den den σ-Algebren FtP := Ft ∨ N P . Ist F eine vollständige
σ-Algebra, dann ist die augmentierte Filtration eine vollständige Filtration und auch jede
σ-Algebra FtP ist vollständig. Daher ist es immer möglich auf einem vollständigen Wahrscheinlichkeitsraum aus einer beliebigen Filtration eine vollständige Filtration zu erhalten.
Die augmentierte Filtration ist im Allgemeinen größer als die Filtration, die man erhält,
13
wenn man jede σ-Algebra einzeln vervollständigt. Die Filtration, die man durch diese Prozedur erhält, heißt Vervollständigung. Sei NtP die Menge der P-Nullmengen in Ft dann
ist die Vervollständigung einer Filtration jene Filtration bestehend aus den σ-Algebren
P
P
F t := Ft ∨ NtP . Es gilt F t ⊆ FtP und diese Inklusion kann strikt sein. Caveat: Es gilt aber
das unter Umständen die Vervollständigung einer Filtration keine vollständige Filtration
liefert!
W
Zu gegebener Filtration
definieren
wir
die
σ-Algebren
F
:=
t−
s<t Fs für alle t ∈ I mit
T
W
F0− = F0 und F∞ = s∈I Fs und Ft+ := >0 Ft+ für alle t ∈ I. Eine Filtration (Ft )t∈I
heißt links-stetig falls Ft = Ft− für alle t ∈ I, rechts-stetig falls Ft = Ft+ für alle t ∈ I
und stetig falls sie sowohl links- als auch rechts-stetig ist. Die Filtrationen (Ft− )t∈I und
(Ft+ )t∈I sind links- bzw. recht-stetig per definitionem.
Ein Wahrscheinlichkeitsraum zusammen mit einer Filtration, in Zeichen, (Ω, F, (Ft )t∈I , P),
heißt filtrierter Wahrscheinlichkeitsraum. Dieser erfüllt die üblichen Bedingungen, falls die
Filtration vollständig und rechtsstetig ist.
Ein Prozess X heißt an die Filtration (Ft )t∈I adaptiert, falls für jedes t ∈ I die Zufallsvariable Xt messbar bezüglich Ft ist. Eine Modifikation eines adaptierten Prozesses ist nicht
notwendigerweise adaptiert. Ist aber die Filtration vollständig, dann ist jede Modifikation
eines adaptierten Prozesses ebenfalls adaptiert.
Eine spezielle Filtration ist die von einem Prozess erzeugte natürliche Filtration FtX :=
σ(Xs , s ≤ t), d.h., Ft ist die gröbste8 σ-Algebra, sodass alle Xs , s ≤ t, messbar bezüglich
dieser sind. Die natürliche Filtration ist die gröbste Filtration an die ein Prozess adaptiert
ist. Falls X ein endlich-dimensionaler reeller, links-stetiger Prozess ist, dann ist die erzeugte
Filtration (FtX )t≥0 links-stetig. Dies gilt aber nicht für Rechts-stetigkeit! Zum Beispiel, eine
Brownsche Bewegung ist stetig, aber die erzeugte Filtration ist nicht rechts-stetig.
Die augmentierte Filtration eines endlich-dimensionalen, reellen starken Markov Prozesses
ist rechts-stetig und ist der Prozess zusätzlich links-stetig dann ist die augmentierte Filtration stetig. Eine weitere wichtige Eigenschaft der augmentierten Filtration ist, das das
Augmentieren einer Filtration die starke Markoveigenschaft als auch die Martingaleigenschaft erhält. Somit können wir meist o.B.d.A. annehmen, dass ein derartiger Prozess auf
eine Wahrscheinlichkeitsraum definiert ist, der die üblichen Bedingungen erfüllt.
Bemerkung 1.2. Viele Eigenschaften von Prozessen, z.B., die Markov- oder Martingaleigenschaft, sind bezüglich einer gewissen Filtration oder σ-Algebra definiert. Wir werden im
Allgemeinen die Angabe der Filtration weglassen, falls keine Möglichkeit der Verwechslung
besteht. Falls doch, werden wir diese einfach als Prefix an das Attribut anhängen. So ist
zum Beispiel ein (Ft )t∈I -adaptierter Prozess ein Prozess X, der an die Filtration (Ft )t∈I
adaptiert ist.
Eigenschaften als Abbildung auf Ω × I:
Ein Prozess X ist messbar, falls die Abbildung X : I × Ω → E messbar bezüglich der
Produkt-σ-Algebra auf I × Ω ist. Der Satz von Fubini impliziert, dass Pfade messbarer
8
Sei F, F 0 zwei σ-Algebren, sodass F 0 ⊂ F, dann ist F 0 gröber als F, bzw., F ist feiner als F 0 .
14
KAPITEL 1. STOCHASTISCHE PROZESSE
Prozesse Borel-messbare Abbildungen auf I sind und ebenso t 7→ EXt , falls die Erwartung
definiert ist. Weiters gilt die Vertauschbarkeit der Integration, d.h., für I ⊂ I
Z
Z
Z
Z
E|Xt | dt < ∞ =⇒
Xt dt < ∞ f.s. und
EXt dt = E Xt dt .
I
I
I
I
Prozess mit rechts- oder links-stetigen Pfaden sind messbar. Die Einführung einer Filtration führt zum folgenden etwas stärkeren Konzept. Ein Prozess X heißt progressiv messbar
falls für alle t ∈ I die Zufallsvariablen Xs , s ≤ t, B[0,t] ⊗Ft -messbar sind. Progressivität impliziert Adaptivität und Messbarkeit. Umgekehrt gilt, adaptierte, rechts- oder links-stetige
Prozesse sind progressiv und ein messbarer, adaptierter Prozess besitzt eine progressiv
messbare Modifikation.
Weiters, die vorhersehbare σ-Algebra P ist die σ-Algebra auf Ω × I, die von allen linksstetigen, adaptierten Prozessen aufgefasst erzeugt wird. Es kann gezeigt werden, dass diese
mit der σ-Algebra die von allen stetigen Prozessen erzeugt wird übereinstimmt. Ein Pmessbarer Prozess heißt vorhersehbar.
Stoppzeiten
Eine Zufallsvariable τ mit Werten in R+ = R+ ∪ {∞} (zufällige Zeit) heißt Stoppzeit
bezüglich einer Filtration (Ft )t≥0 falls {τ ≤ t} ∈ Ft für alle t ∈ R+ .9 Die Stoppzeit heißt
(f.s.) endlich falls τ < ∞ (f.s.) und (f.s.) beschränkt falls τ ≤ T (f.s.) für ein T > 0. Jede
Stoppzeit kann von unten durch eine Folge beschränkter Stoppzeiten, z.B., τ ∧ n ↑ τ , und
von oben durch eine nicht-wachsende Folge von Stoppzeiten, die je nur abzählbare viele
Werte annehmen, z.B., τn ↓ τ falls

 i für i − 1 ≤ τ < i , i ∈ N,
n
2k
2n
2n
τ :=

∞ für τ = ∞ ,
approximiert werden. Sind τn , n ∈ N, Stoppzeiten und c ∈ [0, ∞), dann sind auch
τ1 + c,
τ1 ∧ c,
τ1 + τ2 ,
sup τn ,
n∈N
min τk , max τk ∀ n ∈ N
k≤n
k≤n
Stoppzeiten und, falls die Filtration rechtsstetig ist, sind auch
inf τn ,
n∈N
lim inf τn ,
n→∞
lim sup τn
n→∞
Stoppzeiten. Ein weitere wichtige Klasse zufälliger Zeiten sind Eintrittszeiten (‘hitting times’). Sei X eine adaptierter Prozess mit Werten in einem beliebigen metrischen Raum
und B eine Borelmenge, dann ist die zufällige Zeit
τB := inf{t ≥ 0 : Xt ∈ B} ,
9
Natürlich ist das Konzept analog für beliebige Indexmengen I definiert.
15
mit inf ∅ = ∞, eine Stoppzeit, falls entweder die Menge B offen und die Filtration rechtsstetig ist10 oder falls die Menge B abgeschlossen und zusätzlich entweder kompakt ist oder
der Prozess X linke Limiten besitzt. Erfüllt die Filtration die üblichen Bedingungen und
ist der Prozess progressiv messbar, dann ist jede Eintrittszeit eine Stoppzeit. Dieselben
Aussage gelten auch für Eintrittszeiten nach einer zufälligen Zeit, d.h. für zufällige Zeiten
τB,σ := inf{t ≥ σ : Xt ∈ B} wobei σ eine beliebige Zufallsvariable in R+ ist.
Sei τ eine Stoppzeit, dann ist die gestoppte σ-Algebra Fτ definiert durch
Fτ := A ∈ F : A ∩ {τ ≤ t} ∈ Ft für alle t ≥ 0 .
Klarerweise gilt Fτ ist eine σ-Algebra. Sind τ und σ zwei Stoppzeiten, dann sind τ und
τ ∧ σ Fτ -messbar und falls τ ≤ σ dann gilt Fτ ⊂ Fσ . Weiters, falls γ eine Fτ -messbare
Zufallsvariable ist, gilt nun, dass auch τ + γ eine Stoppzeit ist.
Sei X ein stochastischer Prozess und τ eine Stoppzeit. Dann definieren wir auf [τ < ∞]
die Abbildung Xτ : ω 7→ Xτ (ω) (ω). Existiert ein Zufallsvariable X∞ – o.B.d.A. kann man
z.B. immer X∞ konstant wählen –, dann kann diese Definition auf ganz Ω ausgedehnt
werden. Ist die Stoppzeit f.s. endlich und nimmt nur höchstens abzählbar viele Werte
an, dann ist Xτ eine Zufallsvariable falls der Prozess X adaptiert ist. Ist die Stoppzeit
f.s. beschränkt, aber nimmt überabzählbar viele Werte an, dann ist Xτ eine Zufallsvariable
falls der Prozess messbar ist. Ist der Prozess progressive messbar, dann ist Xτ für eine
beliebige Stoppzeit eine Zufallsvariable. Weiters, ist der Prozess X progressiv messbar,
dann ist die Zufallsvariable Xτ auch messbar bezüglich Fτ und der gestoppte Prozess X τ
definiert durch Xtτ := Xt∧τ , t ≥ 0, ist ebenfalls progressiv messbar.
10
Allgemeiner gilt, dass in diesem Falle τB eine (Ft+ )t≥0 -Stoppzeit ist.
16
KAPITEL 1. STOCHASTISCHE PROZESSE
Kapitel 2
Die Brownsche Bewegung
Wir definieren die Brownsche Bewegung und beweisen die Existenz und
Eindeutigkeit eines derartigen Prozesses. Wir analysieren die elementaren
(Pfad-)Eigenschaften der Brownschen Bewegung, diskutieren weitere stochastische Prozesse, die sich aus der Brownschen Bewegung gewinnen lassen. Zuletzt
präsentieren wir noch Reihendarstellungen der Brownschen Bewegung und beweisen die Karhunen-Loève-Entwicklung.
Ein stochastischer Prozess B = (Bt )t≥0 wird Brownsche Bewegung oder Wiener Prozess
genannt, falls er die folgenden Eigenschaften besitzt:
(a) Der Prozess startet fast sicher im Ursprung, d.h., B0 = 0 fast sicher,
(b) besitzt stationäre unabhängig normalverteilte Zuwächsen, d.h., Bt − Bs ∼ N (0, |t − s|)
und Bt2 − Bt1 unabhängig von Bt4 − Bt3 falls (t1 , t2 ) ∩ (t3 , t4 ) = ∅,
(c) und besitzt fast sicher stetige Pfade.
Bemerkung 2.1. Die hier gegebene Definition einer Brownschen Bewegung sowie die Resultate in diesem Kapitel kommen ohne die Angabe einer Filtration aus an welche die
Brownsche Bewegung adaptiert ist. Jedoch, in späteren Kapiteln wird eine solche benötigt
und in diesem Falle heißt ein Prozess B eine Brownschen Bewegung bezüglich der Filtration (Ft )t≥0 falls dieser (a)–(c) erfüllt, an die Filtration (Ft )t≥0 adaptiert ist und für alle
s < t gilt Bt − Bs ist unabhängig von Fs . Es ist offensichhtlich, dass diese zusätzlichen Bedingungen bereits die Unabhängigkeit der Inkremente implizieren. Andererseits gilt, dass
die Unabhängigkeit der Inkremente impliziert, dass eine Brownsche Bewegung immer eine
Brownsche Bewegung bezüglich ihrer natürlichen Filtration (FtB )t≥0 ist.
2.1
Existenz der Brownschen Bewegung
Im folgenden ersten Satz zur Brownschen Bewegung beweisen wir deren Existenz und Eindeutigkeit mittels des Satzes von Kolmogorov. Im weiteren Verlauf werden wir noch weitere
17
18
KAPITEL 2. DIE BROWNSCHE BEWEGUNG
Möglichkeiten kennenlernen die Existenz und Eindeutigkeit zu beweisen. Klarerweise bezieht sich hier Eindeutigkeit auf die Verteilung der kanonischen Version.
Satz 2.1 (Existenz der Brownschen Bewegung). Es existiert genau ein stochastischer Prozess der die Bedingungen (a)–(c) erfüllt. Dieser heißt Brownsche Bewegung oder Wiener
Prozess.
Bemerkung 2.2. Aus dem Beweis folgt, dass die endlich-dimensionalen Verteilungen der
Brownschen Bewegung Normalverteilungen sind und für alle t, s ≥ 0 gilt Bt ∼ N (0, t) und
Cov(Bt , Bs ) = t ∧ s.
Beweis. Wir verwenden nun zum Beweis des Satzes den Kolmogorov Existenzsatz und das
Kolmogorov-Centsov Stetigkeitskriterium. Als Vorbemerkung zeigen wir, dass die endlichdimensionalen Verteilungen eines Prozesses der (a)–(c) erfüllt, multivariat normalverteilt
sind: Aus der Unabhängigkeit folgt für s < t, dass (Bs , Bt − Bs ) gemeinsam normalverteilt
sind und somit auch (1 0; 1 1)(Bs , Bt − Bs ) = (Bs , Bt ) mit Kovarianzmatrix (s s; s t) und
somit gilt Cov(Bs , Bt ) = s ∧ t. Analog folgt die gemeinsame Verteilung aller endlichen
Vektoren (Bt1 , . . . , Btn ).
Als nächstes konstruieren wir aus den Eigenschaften (a) und (b) eindeutig eine Familie endlich-dimensionaler Verteilungen – bestehend aus Normalverteilungen – und um die
Existenz und Eindeutigkeit eines Prozesses zu erhalten, ist zu zeigen, dass diese Familie
projektiv ist. Die Existenz einer regulären bedingten Erwartung garantiert, dass für t1 < t2
Z
P[Bt1 ∈ A1 , Bt2 ∈ A2 ] =
P[Bt2 ∈ A2 | Bt1 ] dPBt1
A1
wobei PBt1 die Verteilung von Bt1 bezeichnet. Aus der Unabhängigkeit der Inkremente folgt
nun
Z
(x − B )2 2
t1
dx2 ,
P Bt2 ∈ A2 Bt1 =
(2π(t2 − t1 ))−1/2 exp −
2(t
−
t
2
1)
A2
|
{z
}
=:p(t2 −t1 ,x2 −Bt1 )
da Bt1 + (Bt2 − Bt1 )|Bt1 ∼ N (Bt1 , t2 − t1 ), und somit gilt
Z Z
P[Bt1 ∈ A1 , Bt2 ∈ A2 ] =
p(t2 − t1 , x2 − x1 ) dx2 p(t1 , x1 ) dx1 .
A1
A2
Sei J = {t1 , . . . , tn } ⊂ R+ dann bezeichnen wir mit (t(1) , . . . , t(n) ) das Tupel der aufsteigend
angeordneten Elemente von J und wir bestimmen nach den obigen Überlegungen rekursiv
die Familie der endlich dimensionalen Verteilungen
PJ Bt1 ∈ A1 , . . . , Btn ∈ An =
Z
Z
Z
p(t(n) − t(n−1) , xn − xn−1 ) dxn p(t(n−1) − t(n−2) , xn−1 − xn−2 ) dxn−1 . . . p(t(1) , x1 ) dx1 .
...
A(1)
A(n−1)
A(n)
2.1. EXISTENZ DER BROWNSCHEN BEWEGUNG
19
Diese Familie ist offensichtlich projektiv, da der Ausdruck in der rechten Seite invariant
bezüglich Permutationen ist und es gilt
PJ Bt1 ∈ A1 , . . . , Btn ∈ R = PJ\{tn } Bt1 ∈ A1 , . . . , Btn−1 ∈ An−1 .
Aus dem Satz von Kolmogorov, Satz 1.1, folgt nun die Existenz eines eindeutigen stochastischen Prozesses B der die Bedingungen (a) und (b) erfüllt. Um schlussendlich die
Brownsche Bewegung zu erhalten müssen wir noch zeigen, dass dieser Prozess eine stetige
Modifikation besitzt. Damit ist dann die eindeutige Existenz eines Prozesses der zusätzlich
auch Eigenschaft (c) erfüllt bewiesen. Dazu bemühen wir das Kolmogorov-Centsov Stetigkeitskriterium, Satz 1.2. Da die Inkremente Bt − Bs einer N (0, |t − s|)-Verteilung folgen,
erhalten wir aus den bekannten Resultaten betreffend der Momente der Normalverteilung,
E|Bt − Bs |4 = 3|t − s|2
und somit sind die Bedingungen des Kriteriums erfüllt.
Als nächstes sammeln wir einige einfache Symmetrieeigenschaften der Brownschen Bewegung, sodass wir durch Transformationen eine Brownschen Bewegung wiederum Brownsche
Bewegungen erhalten. Im folgenden sei (Ω, F, P) ein Wahrscheinlichkeitsraum auf dem eine
Brownsche Bewegung B definiert ist.
Proposition 2.1. (i) (Symmetrie) Der Prozess −Bt , t ≥ 0, ist eine Brownsche Bewegung.
(ii) (Homogenität) Der Prozess Bs+t − Bs , t ≥ 0, ist für beliebiges s ≥ 0 eine Brownsche
Bewegung unabhängig von σ(Bu ; u ≤ s).
(iii) (Skalierung) Der Prozess cBt/c2 , t ≥ 0, ist für beliebiges c > 0 eine Brownsche Bewegung.
(iv) (Inversion) Der Prozess definiert durch X0 = 0 und Xt = tB1/t , t > 0, ist eine
Brownsche Bewegung.
Beweis. Die Eigenschaften (i)–(iii) sind klar und wir beweisen nur (iv). Aus der Definition gilt die Eigenschaft (a) der Brownschen Bewegung und wir betrachten die Inkremente
Xt − Xs . Diese sind normalverteilt, da die endlich-dimensionalen Verteilungen von B normalverteilt sind, mit E(Xt − Xs ) = 0 und
2
2
− 2tsEB1/t B1/s = t + s −
+ s2 EB1/s
E(Xt − Xs )2 = t2 EB1/t
2ts
= |t − s|.
max{t, s}
Daher sind die Inkremente stationär und ebenfalls durch Ausmultiplizieren der Kovarianz
folgt die Unabhängigkeit der Inkremente, da für t1 ≤ t2 ≤ t3 ≤ t4 gilt
E(Xt2 − Xt1 )(Xt4 − Xt3 ) =
t1 t3
t1 t4
t2 t3
t2 t4
+
−
−
= t2 + t1 − t1 − t2 = 0 .
t2 ∨ t4 t1 ∨ t3 t1 ∨ t4 t2 ∨ t3
20
KAPITEL 2. DIE BROWNSCHE BEWEGUNG
Es bleibt die Stetigkeit der Pfade zu betrachten, wobei der einzig kritische Punkt an t = 0
ist. Da die Prozesse Xt , t ∈ (0, ∞) und Bt , t ∈ (0, ∞) dieselben endlich dimensionalen
Verteilungen besitzen gilt wegen limt→0, t∈Q+ Bt = 0 f.s. auch limt→0, t∈Q+ Xt = 0 f.s. . Da
aber Xt f.s. stetige Pfade auf (0, ∞) besitzt folgt auch limt→0, t∈R+ Xt = 0.
Die soeben bewiesene Eigenschaft der Inversion der Brownschen Bewegung liefert einen einfachen Beweis des folgenden starkes Gesetzes der Großen Zahlen, das sublineares Wachstum
der Brownschen Pfade liefert.
Korollar 2.1 (Starkes Gesetz der Großen Zahlen). Für eine Brownsche Bewegung B gilt
limt→∞
Bt
=0
t
f.s. .
Beweis. Wegen Prop. 2.1(iv) gilt 0 = lims→0 sB1/s = limt→∞ Bt /t f.s. wobei t = 1/s.
Bemerkung 2.3. Eine präzisere Beschreibung des lokalen Verhaltens von Brownschen Pfaden für t → ∞ und t → 0 liefert das Gesetz des iterierten Logarithmus und Lèvy’s modulus
of continuity. Diese Resultate werden wir aber nicht behandeln.
2.2
Pfadeigenschaften der Brownschen Bewegung
Als nächsten untersuchen wir Eigenschaften der Pfade der Brownschen Bewegung und
beginnen mit Eigenschaften, die das lokale Oszillationsverhalten betreffen.
Satz 2.2. (i) Eine Brownsche Bewegung besitzt endliche quadratische Variation und es
gilt
X
qm-lim|P[0,t] |→0
|Bti − Bti−1 |2 = t = L2[0,t] (B) .
i
(ii) Eine Brownsche Bewegung besitzt f.s. Pfade von unendlicher totaler Variation, d.h.,
X
1
V[0,t]
(B) = sup
|Bti − Bti−1 | = ∞ f.s. .
P[0,t]
i
(Genau genommen wird im Beweis nur gezeigt, dass die Menge der Pfade von endlicher totaler Variation in einer Nullmenge enthalten sind.)
Bemerkung 2.4. Der Quadratmittel Limes in (i) ist interpretiert als der Limes einer beliebigen Folge von Partitionen von [0, t], deren Feinheit gegen 0 konvergiert. Die Konvergenz
in (i) gilt fast sicher, falls die Folge
P der Partitionen aufsteigend ist (Pn ⊂ Pn+1 ) oder
der Radius genügend schnell fällt ( n |Pn | < ∞) . Die Eigenschaft (ii) erlaubt nun nicht
mehr ein Integral bezüglich einer Brownschen Bewegung pfadweise im Sinne des RiemannStieltjes Integral zu definieren und ist der Grund für die Entwicklung einer stochastischen
Integrationstheorie in der die Rolle der “klassischen” Variation (ii) durch die quadratische
Variation in (i) ersetzt wird. Die Resultate gelten natürlich analog für beliebige endliche
Intervall [a, b] und resultierender quadratischer Variation b − a.
2.2. PFADEIGENSCHAFTEN DER BROWNSCHEN BEWEGUNG
21
Beweis. (i) Wegen der Unabhängigkeit der Inkremente und da EZ 4 = 3EZ 2 für normalverteiltes Z gilt
hX
i2
hX
i2
(Bti − Bti−1 )2 − (ti − ti1 )
E
(Bti − Bti−1 )2 − t
= E
i
i
i2
X h
2
=
E (Bti − Bti−1 ) − (ti − ti1 )
(unabhängige Inkremente)
i
≤ 2
X
E(Bti − Bti−1 )4 + 2
i
X
≤ 8
(ti − ti−1 )2
X
(ti − ti1 )2
i
i
≤ 8t |P[0,t] |
und die Aussage folgt da |P[0,t] | → 0.
(ii) Konvergenz im Quadratmittel impliziert Konvergenz in der Wahrscheinlichkeit und
diese wiederum impliziert, es existiert eine Teilfolge die fast sicher konvergiert. Sei nun
n
P[0,t]
ein Folge von Partitionen, sodass
lim
|P[0,t] |→0
X
|Bti (ω) − Bti−1 (ω)|2 = t
(∗)
i
für alle ω ∈ Ω0 ∈ F mit P(Ω0 ) = 1 und o.B.d.A. können wir annehmen, dass alle diese
Pfade stetig sind. Dann gilt
X
X
2
|Bti (ω)−Bti−1 (ω)| ≤ sup |Bti (ω)−Bti−1 (ω)| sup
|Bti (ω)−Bti−1 (ω)| ∀ ω ∈ Ω0 .
i
i
P[0,t]
i
Ist nun die totale Variation endlich, dann konvergiert wegen der Stetigkeit der Brownschen
Pfade die obere Schranke gegen null. Dies ist ein Widerspruch zu (∗) und daher muss die
totale Variation auf Ω0 unendlich sein.
Satz 2.3. Eine Brownschen Bewegung besitzt f.s. lokal Hölder-stetige Pfade mit Hölderexponent γ < 1/2 und ist f.s. nirgends lokal Hölder-stetig mit Exponent γ > 1/2. Genauer
ausgedrückt gilt die zum Exponent γ > 1/2 an einem Punkt lokal Hölder-stetigen Pfade
sind in einer Nullmenge enthalten.
Beweis. Der erste Teil des Satzes folgt wie schon die Stetigkeit aus dem Satz von KolmogorovCentsov, Satz 1.2. Da die Inkrement normalverteilt sind existiert für jedes p > 0 eine
Konstante Cp , sodass
E|Bt − Bs |2p = Cp |t − s|p .
Daher sind die Pfade lokal Hölder-stetig für alle γ < (p − 1)/(2p) = 1/2 − 1/(2p). Da p
beliebig groß gewählt werden kann folgt die f.s. lokale Hölder-stetigkeit für alle γ < 1/2.
22
KAPITEL 2. DIE BROWNSCHE BEWEGUNG
Der zweite Teil des Satzes ist analog zum Beweis von Satz 2.2(ii). Sei wieder um P[0,t] ein
Folge von Partitionen, sodass
X
lim
|Bti (ω) − Bti−1 (ω)|2 = t
(∗)
|P[0,t] |→0
i
für alle ω ∈ Ω0 mit P(Ω0 ) = 1. Falls |Bs1 (ω) − Bs2 (ω)| ≤ K|s1 − s2 |γ für alle s1 , s2 ≤ t und
ein γ > 1/2, dann gilt
X
|Bti (ω) − Bti−1 (ω)|2 ≤
X
i
i
K 2 |ti − ti−1 |2γ ≤ K 2 t sup |ti − ti−1 |2γ−1 .
i
Da |P[0,t] | → 0 konvergiert die rechte Seite gegen null. Wiederum erhalten wir einen Widerspruch zu (∗) und es folgt, die Pfade sind fast sicher nicht Hölder-stetig mit Exponent
γ > 1/2 auf [0, t]. Dasselbe Argument lässt sich nun für beliebige Intervalle wiederholen
und dies impliziert, dass die Brownsche Bewegung f.s. nirgends lokal Hölder-stetig mit
Exponent γ > 1/2 ist.
Bemerkung 2.5. Der obige Satz lässt die lokale Hölder-Stetigkeit für den Fall γ = 12 unbeantwortet. Das Gesetz des iterierten Logarithmus impliziert, dass der Pfad nicht überall
lokal Hölder-stetig mit Exponent γ = 1/2 sein kann. Dies heißt aber nicht, dass ein solcher Pfad diese Eigenschaft nirgends auf [0, ∞) haben kann. Eine detailliertere Diskussion
dieses Aspekts findet sich in [KS91, S. 113].
Schlussendlich zeigen wir noch, dass die Pfade eine Brownschen Bewegung fast sicher nirgends differenzierbar sind. Die umständliche Formulierung des Satzes trägt dem Umstand
Rechnung, dass nicht bekannt ist, ob die Menge der an einem Punkt differenzierbaren Pfade
messbar ist.
Satz 2.4. Die Menge der an einem Punkt differenzierbaren Pfade einer Brownschen Bewegung sind in einer Nullmenge enthalten.
Beweis. Es ist ausreichend, Brownsche Pfade über den Intervall [0, 1] zu betrachten, da
abzählbare Vereinigungen von Nullmengen wieder um Nullmengen sind. Wir definieren
(t)
D+ f (t) = lim suph↓0 f (t+h)−f
und bezeichnen analog mit D+ f (t) den Limes inferior.
h
Klarerweise gilt, ist f differenzierbar an t dann ist −∞ < D+ f (t) = D+ f (t) < ∞. Wir
betrachten nun die Menge
C := ω ∈ Ω : −∞ < D+ Bt (ω) ≤ D+ Bt (ω) < ∞ für ein t ∈ [0, 1] ,
die alle an einer Stelle t ∈ [0, 1] differenzierbaren Brownschen Pfade enthält, und zeigen,
dass C in einer Nullmenge liegt. Wir definieren weiters die Mengen
[
\ Ajk :=
ω ∈ Ω : |Bt+h (ω) − Bt (ω)| ≤ jh ,
j, k ∈ N,
t∈[0,1] h∈[0,1/k]
2.2. PFADEIGENSCHAFTEN DER BROWNSCHEN BEWEGUNG
und es gilt
C⊆
∞ [
∞
[
23
Ajk
(∗)
j=1 k=1
aus folgendem Grund: Sei t so, dass für eine Pfad ω ∈ C gilt −∞ < D+ Bt (ω) und
D+ Bt (ω) < ∞, d.h., für alle h klein genug, z.B., für alle h ≤ 1/k mit k groß, gilt, dann
existieren reelle Konstanten C ± mit
Bt+h (ω) − Bt (ω)
≤ C+
h
und C − ≤
Bt+h (ω) − Bt (ω)
h
für h klein und somit gilt
hC − ≤ Bt+h (ω) − Bt (ω) ≤ hC +
⇒
|Bt+h (ω) − Bt (ω)| ≤ h max{|C − |, |C + |}.
Es folgt nun dieser Pfad ω liegt in Ajk für große j und k. Die Inklusion (∗) folgt. Auf Grund
dieser reicht es nun aber für den Beweis des Satzes aus zu zeigen, dass für alle j, k ∈ N eine
Nullmenge C ∈ F, d.h., P(C) = 0, existiert, die Ajk enthält, da abzählbare Vereinigungen
von Nullmengen wiederum Nullmengen sind.
Wir wählen j, k fix und fixieren einen bestimmten Pfad ω ∈ Ajk . Für diesen gilt
∃ t ∈ [0, 1] :
|Bt+h (ω) − Bt (ω)| ≤ jh
∀ h ∈ [0, 1/k] .
(∗∗)
Ein derartiges t sei nun ebenfalls fix und wir wählen ein n ≥ 4k. Dann können wir eine
natürliche Zahl i in {1, . . . , n} so wählen, dass
i−1
i
≤t≤
n
n
und somit
i+m
m+1
1
−t≤
≤
n
n
k
für m = 0, 1, 2, 3 .
(∗ ∗ ∗)
Wir benutzen (∗∗) und (∗ ∗ ∗) und erhalten
|B(i+1)/n (ω) − Bi/n (ω)| ≤ |B(i+1)/n (ω) − Bt (ω)| + |Bi/n (ω) − Bt (ω)|
i + 1
i
≤
−t j+
−t j
n
n
2j
j
≤
+ .
n
n
Wichtig ist nun, dass wir durch ω ∈ Ajk nicht nur die Inkremente über [i/n, (i + 1)/n]
sondern auch über die nachfolgenden Intervalle [(i+1)/n, (i+2)/n] und [(i+2)/n, (i+3)/n]
erhalten. Dieselbe Abschätzung wie zuvor ergibt wegen (∗∗) und (∗ ∗ ∗), dass
|B(i+2)/n (ω) − B(i+1)/n (ω)| ≤ |B(i+2)/n (ω) − Bt (ω)| + |B(i+1)/n (ω) − Bt (ω)| ≤
3j 2j
+
n
n
und
|B(i+3)/n (ω) − B(i+3)/n (ω)| ≤ |B(i+3)/n (ω) − Bt (ω)| + |B(i+2)/n (ω) − Bt (ω)| ≤
4j 3j
+
.
n
n
24
KAPITEL 2. DIE BROWNSCHE BEWEGUNG
Damit haben wir gezeigt, dass mit
(n)
Ci
:=
3
[
ω ∈ Ω : |B(i+m)/n (ω) − B(i+m−1)/n (ω)| ≤ (2m + 1)j/n
m=1
Sn
(n)
(n)
gilt Ajk ∈ i=1 Ci falls n ≥ 4k. Klarerweise gilt Ci ∈ F, da die Elemente nur von
endlich vielen Koordinaten abhängen. Nun gilt aber, dass
√
n (B(i+m)/n − B(i+m−1)/n ) ∼ u.i.v. N (0, 1)
und, da für Z ∼ N (0, 1) gilt P[|Z| ≤ δ] ≤ δ, folgt
(n)
P(Ci )
3
h√
Y
=
P n|B(i+m)/n − B(i+m−1)/n | ≤
m=1
Wählt man nun C als
C :=
n
∞ [
\
(n)
Ci
(2m+1)j
√
n
i
105j 3
≤ 3/2 .
n
∈ F,
n=4k i=1
dann gilt Ajk ∈ C. Der Beweis ist nun abgeschlossen, da
n
[
105j 3
(n)
P(C) ≤ inf n≥4k P
Ci
≤ inf n≥4k 3/2 = 0 .
n
i=1
2.3
Verwandte Prozesse
In diesem Abschnitt betrachten wir kurz einige weitere wichtige stochastische Prozesse, die
sich aus der Brownschen Bewegung ergeben. Die Pfade der besprochenen Prozesse sind in
Abbildung 2.1 illustriert.
Beispiel 2.1 (Brownsche Bewegung in x). Der Prozess Xt = x + Bt , t ≥ 0, heißt Brownsche
Bewegung in x. Da die Bedingung B0 = 0 nicht immer Teil der Definition einer Brownschen
Bewegung ist, heißt B auch standard Brownsche Bewegung.
Beispiel 2.2 (Brownsche Brücke). Der Prozess Xt = Bt − tB1 definiert für t ∈ [0, 1] heißt
Brownsche Brücke. Er besitzt offensichtlich stetige Pfade und erfüllt X0 = X1 = 0 fast
sicher.
Beispiel 2.3 (Ornstein-Uhlenbeck Prozess). Ein Prozess X definiert als
√
Xt = c e−βt Bexp(2βt) , t ≥ 0
mit c, β > 0
heißt Ornstein-Uhlenbeck Prozess. Der Ornstein-Uhlenbeck Prozess ist – im Gegensatz zur
Brownschen Bewegung – stationär.
2.3. VERWANDTE PROZESSE
25
Brownsche Bewegung
Brownsche Brücke
3
1.5
2
1
1
0.5
0
0
−1
−0.5
−2
−1
−3
0
0.2
0.4
0.6
0.8
1
−1.5
0
t
Ornstein−Uhlenbeck Prozess
4
0.2
0.4
0.6
0.8
t
Geometrische Brownsche Bewegung
1
0.4
1
5
(c=1,β=1)
(µ=0,σ=1)
4
2
3
0
2
−2
−4
1
0
0.2
0.4
0.6
0.8
1
0
0
t
Geometrische Brownsche Bewegung
15
0.6
0.8
t
Geometrische Brownsche Bewegung
1.5
(µ=2,σ=1)
(µ=−2,σ=1)
10
1
5
0.5
0
0.2
0
0.2
0.4
0.6
t
0.8
1
0
0
0.2
0.4
0.6
0.8
1
t
Abbildung 2.1: Jeweils 10 Pfade verschiedener, in diesem Kapitel besprochener Prozesse.
26
KAPITEL 2. DIE BROWNSCHE BEWEGUNG
Beispiel 2.4 (Geometrische Brownsche Bewegung). Ein Prozess X definiert als
2
Xt = c exp µ − σ /2 t − σBt , t ≥ 0
mit c, µ, σ ∈ R
heißt geometrische Brownsche Bewegung. Er besitzt für c > 0, bzw., c < 0, positive bzw.
negative Pfade. Die wichtigste Anwendung ist in der Finanzmathematik als einfachster
Preisprozess, vgl. Black-Scholes Modell.
Bemerkung 2.6. Der Ornstein-Uhlenbeck Prozess und die geometrische Brownsche Bewegung lösen gewisse stochastische Differentialgleichungen. Speziell gilt, die Lösungen zu
skalaren, linearen stochastischen Differentialgleichungen mit additiven bzw. linearen multiplikativen Wiener Rauschen sind Versionen der Prozesse definiert in Beispiel 2.3 bzw. 2.4.
Die meisten der Prozesse, die wir bis jetzt betrachtet haben besitzen die Eigenschaft, dass
ihre endlich-dimensionalen Verteilungen Normalverteilungen sind. Daher sind sie Beispiele
für die folgende Klasse von stochastischen Prozessen.
Definition 2.1. Ein stochastischer Prozess X heißt Gaussprozess, falls seine endlichdimensionalen Verteilungen eine Familie von Normalverteilungen ist, d.h., jeder endliche
Vektor (Xt1 , . . . , Xtn ), n ∈ N und t1 , . . . , tn ∈ I, besitzt eine n-dimensionale Normalverteilung.
Bekanntermaßen sind Normalverteilungen durch ihre ersten beiden Momente eindeutig
festgelegt und ähnliches gilt auch für Gaussprozesse. Wir bezeichnen mit
t 7→ m(t) := EXt
und (s, t) 7→ K(s, t) := E(Xs − m(s))(Xt − m(t))
die Mittelwert- und die Kovarianzfunktion eines Prozesses. Ein Prozess heißt zentriert falls
m(t) = 0 für all P
t ≥ 0. Es gilt, die Kovarianzfunktion eines Gaussprozesses ist positiv
semidefinit, d.h., ni,j=1 K(ti , tj )ai aj ≥ 0 für alle ti , . . . , tn ∈ I und alle a1 , . . . , an ∈ R.
Dies folgt da die Kovarianzmatrix einer Normalverteilung positiv semidefinit ist. Der folgende Satz liefert nun die Charakterisierung von Gaussprozessen aus ihrer Mittelwert- und
Kovarianzfunktion.
Satz 2.5. Zu jeder Mittelwertfunktion m und jeder positiv semidefiniten Kovarianzfunktion
K existiert ein (bis auf Versionen) eindeutiger Gaussprozess.
Beweis. Da m + X ein eindeutiger Gaussprozess mit Mittelwertfunktion m und K ist,
falls X der eindeutige zentrierte Gaussprozess mit Kovarianz K ist, ist es ausreichend die
Existenz und Eindeutigkeit von zentrierten Gaussprozessen zu zeigen. Dazu verwenden wir
den Satz von Kolmogorov, d.h., die Aufgabe ist es aus Kovarianzfunktion eine eindeutige
projektive Familie von Verteilungen zu konstruieren. Da diese bei Gaussprozessen eine
Familie von zentrierten Gaussverteilungen ist, müssen wir nur deren Kovarianzmatrizen
eindeutig bestimmen.
Zu je endlich-vielen Indices t1 , . . . , tn ∈ I konstruieren wir mittels der Kovarianzfunktion
eiPn
ne Matrix (σij )i,j=1,...,n mit σij := K(ti , tj ). Diese ist positiv semidefinit, d.h., i,j=1 σij ai aj
2.3. VERWANDTE PROZESSE
27
Gauss‘sches Weißes Rauschen
Gauss‘sches Weißes Rauschen
4
4
2
2
0
0
−2
−2
−4
0
0.2
0.4
0.6
t
0.8
1
−4
0
0.2
0.4
0.6
0.8
1
t
Abbildung 2.2: Illustration zweier Pfade von Gauss’schem Weißen Rauschen. Beachte, die
Pfade des Prozesses sind eigentlich nicht stetig.
für alle a1 , . . . , an ∈ R, da K positiv semidefinit ist. Die Matrix definiert eine eindeutige,
zentrierte Normalverteilung. Somit, definiert die Kovarianzfunktion eindeutig die Familie
der endlich-dimensionalen Verteilungen. Das diese Familie endlich-dimensionaler Verteilungen projektiv ist, folgt analog zu den Argumenten im Existenzsatz zur Brownschen
Bewegung, Satz 2.1, und der Beweis ist abgeschlossen.
Aus diesem Satz folgt nun eine zweite Charakterisierung der Brownschen Bewegung: Die
Brownsche Bewegung ist der eindeutige f.s. stetige, zentrierte Gaussprozess zur Kovarianzfunktion K(s, t) = s ∧ t . Die Existenz des Prozesses folgt aus Satz 2.5, die Unabhängigkeit
der Inkremente folgt aus der Kovarianzfunktion, da im Falle von Normalverteilungen Unkorreliertheit und Unabhängigkeit äquivalent sind, und die Existenz einer stetigen Modifikation folgt auch hier wiederum aus dem Satz von Kolmogorov-Centsov.
Analoges gilt auch für die oben beschriebenen Prozesse. So ist die Brownsche Bewegung
gestartet in x die stetige Version des Gaussprozesses zur Kovarianzfunktion K(s, t) = s ∧ t
und Mittelwertfunktion m(t) = x, der Ornstein-Uhlenbeck Prozess die stetige Version des
zentrierten Gausprozesses zu K(s, t) = c exp(−β|t − s|) und die Brownsche Brücke ist
die stetige Version des zentrierten Gaussprozesses auf [0, 1] definiert durch die Kovarianz
K(s, t) = s(1 − t) für s ≤ t. Klarerweise ist aber die geometrische Brownsche Bewegung
kein Gaussprozess, da die eindimensionale Verteilungen log-Normalverteilungen sind.
Weitere wichtige Beispiele von Gaussprozessen sind die folgenden stochastischen Prozesse.
Beispiel 2.5 (Fraktionale Brownsche Bewegung). Der zentrierter, stetige Gaussprozess X
zur Kovarianzfunktion
1 2H
2H
2H
,
K(s, t) =
t + s + |t − s|
2
mit H ∈ (0, 1), heißt Fraktionale Brownsche Bewegung. Für H = 1/2 stimmt die Fraktionale Brownsche Bewegung mit der Brownschen Bewegung überein. Die Konstante H heißt
Hurst Parameter des Prozesses und ist ein Mass für das Langzeitgedächtnis des Prozesses.
28
KAPITEL 2. DIE BROWNSCHE BEWEGUNG
Beispiel 2.6 (Gauss’sches Weißes Rauschen). Wir betrachten den zentrierten Gaussprozess
X, der durch die Kovarianzfunktion K(s, t) = I[t=s] definiert ist. Dieser heißt Gauss’sches
Weißes Rauschen. Gauss’sches Weißes Rauchen besitzt keine guten Eigenschaften, nicht
einmal eine messbare (und somit auch keine f.s. stetige) Version existiert. Gauss’sches
Weißes Rauschen ist die Ableitung der Brownschen Bewegung im Sinne von Distributionen.
2.4
Reihenentwicklung der Brownschen Bewegung
Im folgenden beschränken wir uns auf Prozesse über der Indexmenge [0, 1], aber die Ergebnisse sind klarerweise ohne Einschränkung für beliebige endliche Indexmengen [a, b] ∈ R+
gültig. Weiters erhalten wir Prozesse auf R+ durch Aneinaderfügen von Ergebnissen auf
endlichen Intervallen.
2.4.1
Satz von Levy-Ciesielski und die Paley-Wiener Entwicklung
Gegeben sei ein Wahrscheinlichkeitsraum (Ω, F, P) mit einer darauf definierten Folge von
unabhängigen, standard normalverteilten Zufallsvariablen ξn , n ∈ N. Der folgende Satz
liefert Reihendarstellungen von Brownschen Bewegungen in dem Sinne, das eine Brownsche
Bewegung der Limes einer zufällig gewichteten Funktionenreihe ist. Weiters liefert der Satz
eine alternative Methode um die Existenz einer Brownschen Bewegung zu erhalten bei der
wir die Schwierigkeiten im Zusammenhang mit kanonischen Wahrscheinlichkeitsräumen
aus überabzählbaren Produkträumen vermeiden.
Satz 2.6 (Levy-Ciesielski). Sei ξn , n ∈ N, eine Folge unabhängig, standard normalverteilter Zufallsvariablen und ϕn , n ∈ N, eine Orthonormalbasis (ONB) von L2 (0, 1). Dann
konvergiert die Summe
Z t
∞
X
Bt =
ξn
ϕn (s) ds
n=1
0
fast sicher in C[0, 1] und B ist eine Brownsche Bewegung auf [0, 1].
Bemerkung 2.7. Durch Aneinanderfügen von unabhängigen Brownschen Bewegungen auf
[0, 1] erhält man sofort die Existenz einer Brownschen Bewegung auf R+ . Im Unterschied
zum ersten Existenzbeweis mittels des Satz von Kolmogorov in Satz 2.1, der eine reine Existenzaussage ist, ist dieser Beweis tatsächlich eine Konstruktion einer Brownschen
Bewegung. Die Umkehrung des Satzes - die Existenz einer Zerlegung zu gegebener Brownschen Bewegung mit obigen Eigenschaften und die Konvergenz - ist einfacher zu zeigen.
Die Zerlegung im Satz 2.6 heißt einfach orthogonal, da die ξn orthonormal im√Raum der
quadrat-integrierbaren Zufallsvariablen sind. Für die Wahl der ONB ϕn (t) = 2 sin(nπt)
entspricht dieses Resultat (nicht die Beweistechnik) dem ursprünglichen Existenzbeweis der
Brownschen Bewegung von N. Wiener. Ein Spezialfall dieses Satzes ist die Paley-Wiener
Entwicklung der Brownsche Bewegung:
X Z t
X e2inπt − 1
e2inπs ds
ξn =
ξn
Bt =
2inπ
0
n∈Z
n∈Z
2.4. REIHENENTWICKLUNG DER BROWNSCHEN BEWEGUNG
29
0.4
0.2
0
−0.2
−0.4
−0.6
N=5
N=10
N=20
n=40
N=1000
−0.8
−1
0
0.1
0.2
0.3
0.4
0.5
t
0.6
0.7
0.8
0.9
1
Abbildung
√ 2.3: Approximation eines Brownschen Pfades mittels Satzes 2.6 aus der ONB
ϕn (t) = 2 sin(nπt) durch endliche Reihen mit N Summanden.
mit ONB (e2inπt )n∈Z . Meist wird in modernen Büchern zum Beweis der Existenz eine ONB
(n)
mittels der Haar’schen Funktionen Hk , n ≥ 0 und k ≤ 2n mit k ungerade, gewählt, wobei
(0)
H1 (t) = 1, t ∈ [0, 1], und
 (n−1)/2
für k−1
≤ t < 2kn ,

2n
 2
(n)
Hk (t) =
2(n−1)/2 für 2kn ≤ t < k+1
,
2n


0 sonst.
Bei dieser Wahl einer ONB konvergiert die Summe in Satz 2.6 sogar f.s. punktweise absolut
was die Beweisführung erleichtert. Die Integrale von Haar’schen Funktionen, die in der
Reihenentwicklung auftreten, sind die Schauderfunktionen.
Beweis. Im Beweis benutzen wir folgende Resultate der Theorie unendlicher Summen unabhängigen Zufallsvariablen. Erstens, verwenden wir den Satz von Itô-Nisio: In einem separablen Banachraum ist die fast sichere Konvergenz einer unendlichen Summe unabhängiger
30
KAPITEL 2. DIE BROWNSCHE BEWEGUNG
Zufallsvariablen äquivalent zur Konvergenz in Wahrscheinlichkeit. Für reelle, zentrierte unabhängige Zufallsvariable ist die Konvergenz der Summe der Varianzen eine hinreichende
Bedingung für die Konvergenz der Summe von Zufallsvariablen. Weiters ist dann die unendliche Summe ebenfalls eine f.s. endliche Zufallsvariable. Schlussendlich ist klarerweise
ein konvergente Reihe normalverteilter Zufallsvariablen wiederum normalverteilt und der
Erwartungswert und die Varianz sind durch die Summe der Erwartungswerte und Varianzen gegeben.
(i) Konvergenz der Summe: Wir definieren für Funktionen f auf [0, 1] für alle α ∈ (0, 1]
den linearen Operator
Z t
α
D f (t) :=
Γ−1 (α)(t − s)α−1 f (s) ds
und somit Bt =
–
0
P∞
n=1 ξn
D1 ϕn (t). Für diese Operatoren gilt
Dβ+α = Dβ Dα , da wegen dem Assoziativgesetz für Faltungen gilt
Dβ Dα f = kβ ∗ (kα ∗ f ) = (kβ ∗ kα ) ∗ f
mit kα (s) = Γ−1 (α)sα−1 . Mittels Substitution s = tr ist sofort ersichtlich, dass
Z t
1
(kβ ∗ kα )(t) =
(t − s)β−1 sα−1 ds
Γ(α)Γ(β) 0
Z 1
tβ+α−1
(1 − r)β−1 rα−1 dr
=
Γ(α)Γ(β) 0
= Γ−1 (β + α) tβ+α−1 .
–
Dα , α > 12 , ist ein stetiger Operator L2 (0, 1) → Lp (0, 1), p < ∞, da
Z 1Z t
p
p
α
−1
α−1
kD f kLp =
Γ (α)(t − s) f (s) ds dt
Z0 1 Z 0t
p/2 Z t
p/2
−1
α−1 2
(Cauchy-Schwarz Ungl.) ≤
Γ (α)(t − s)
ds
f 2 (s) ds
dt
0
≤
–
0
0
cα,p kf kpL2
.
Dβ , β > p1 , ist ein stetiger Operator Lp (0, 1) → C[0, 1], da
Z t
−1
β−1
β
Γ (α)(t − s) f (s) ds
kD f k0 = sup t∈[0,1]
(Hölder Ungl., p
−1
+q
−1
= 1) ≤
Z
1
0
−1
|Γ (α)(t − s)
0
≤ c0β,p kf kLp .
| ds
α−1 q
1/q Z
1
1/p
|f (s)| ds
p
0
2.4. REIHENENTWICKLUNG DER BROWNSCHEN BEWEGUNG
31
Unter Verwendung dieser Operatoren mit 2 < p < ∞, α > 12 , β > p1 und α + β = 1 folgt
aus der Markov Ungleichung, dass
∞
m
∞
m
hX
i
X
p
X
X
1 P ξn D1 ϕn −
ξn D1 ϕn ≥ ≤ p EDβ
ξn Dα ϕn −
ξn Dα ϕn 0
0
n=1
n=1
n=1
n=1
∞
m
p
X
c0β,p X
α
α
E
ξ
D
ϕ
−
ξ
D
ϕ
≤
p.
n
n
n
n
p
L
n=1
n=1
Angenommen die Konvergenz der letzten Summe hält im p-ten Mittel in Lp (0, 1), dann
erhalten wir die Konvergenz in Wahrscheinlichkeit von B in C[0, 1] und, da C[0, 1] ein
separabler Banachraum ist, aus dem Satz von Itô-Nisio P
die fast sichere Konvergenz. Daher
α
p
reicht es im Folgenden aus, die Konvergenz der Reihe ∞
n=1 ξn D ϕn in L (0, 1) im p-ten
Mittel zu beweisen.
P
α
Wir zeigen nun zuerst, dass für jedes t ∈ [0, 1] die Summe ∞
n=1 ξn D ϕn (t) f.s. konvergiert.
Klarerweise ist dann diese Summe zentriert normalverteilt mit Varianz gleich der Summe
der Varianzen. Laut oben zitierten Resultat müssen wir dazu nur zeigen, dass die Summe
der Varianzen konvergiert:
∞
∞ Z 1
X
X
2 1/2
2 1/2
α
D ϕn (t)
=
Γ−1 (α)(t − s)α−1 ϕn (s)I[0,t) (s) ds
n=1
n=1
1
Z
0
2 1/2
Γ−1 (α)(t − s)α−1 I[0,t) (s) ds
0
Z t
1/2
−1
2α−2
= Γ (α)
(t − s)
ds
(Parseval Gleichung) =
0
α−1/2
t
Γ(α)(2α − 1)1/2
1
≤
.
Γ(α)(2α − 1)1/2
=
(∗)
Aus der Normalverteilung dieser Zufallsvariablen folgt nun auch, dass die p-ten Momente
von Bt in t beschränkt sind, denn
∞
∞
X
p
X
2 p/2
E
Dα ϕn (t)ξn =
Dα ϕn (t)
E|Y |p ≤ C < ∞
(∗∗)
n=1
n=1
mit Y ∼ N (0, 1) und die obere Schranke C kann wegen der Abschätzung (∗) unäbhängig
von t ∈ [0, 1] gewählt
Mittels des Satzes von Fubini – die gemeinsame Messbarkeit
P werden.
α
D
ϕ
folgt, da (ω, t) 7→ ∞
n (t)ξn (ω) eine Carathéodory-Funktion ist – und des Satzes
n=1
von der Dominierten Konvergenz – dominiert durch (∗∗) – können wir nun punktweise
Konvergenz von Bt im p-ten Mittel zur Konvergenz im p-ten Mittel von B in Lp (0, 1)
ausdehnen:
Z 1 X
Z 1 X
∞
∞
∞
p
X
p
2 p/2
p
α
α
dt < ∞ .
E
ξn D ϕn (t) dt = E|Y |
Dα ϕn (t)
E
ξn D ϕn =
n=1
Lp
0
n=1
0
n=1
32
KAPITEL 2. DIE BROWNSCHE BEWEGUNG
Somit erhalten wir das die Folge der Partialsummen in der Norm in Lp (0, 1) im p-ten Mittel
gegen eine Lp (0, 1)-wertige Zufallsvariable konvergiert, die wir mit der unendlichen Summe
bezeichnen.
Wir haben nun die Existenz des Prozesses B im Satz 2.6 gezeigt. Es bleibt noch zu zeigen,
dass dieser Prozess eine Brownsche Bewegung ist. Klarerweise gilt, dass B f.s. stetig ist, da
B f.s. der gleichmässige Limes stetiger Funktionen auf einem kompakten Intervall ist. Dies
erhält die Stetigkeit für die Grenzfunktion. Um den Beweis abzuschließen reicht es also die
Kovarianz der Brownschen Bewegung zu zeigen, die ja die Unabhängigkeit der Inkremente
impliziert.
(ii) Kovarianzfunktion: Da die Reihe in C[0, 1] f.s. konvergiert und somit auch punktweise
f.s. konvergiert, gilt, dass für fixes t die Summe zentriert normalverteilt ist mit Varianz
gleich Summe der Varianzen, d.h., mittels der Parseval Gleichung
∞ Z t
∞
2
X
X
2
2
EBt =
ϕn (s) ds =
ϕn , I[0,t] L2 = kI[0,t] k2L2 = t .
n=1
0
n=1
Daher bleibt nur noch die Kovarianz zu zeigen. Zur Vertauschung der Erwartungswertes
und der unendlichen Summe mittels des Satzes A.3 benötigen wir die gleichgradige Integrierbarkeit der Zufallsvariablen Btn Bsn , n ∈ N, t, s ∈ [0, 1]. Diese folgt wegen Satz A.2 aus
der Abschätzung
E(Btn Bsn )2 ≤
1
1
1
1
E|Btn |2 + E|Bsn |2 ≤ E|Bt |2 + E|Bs |2 ≤ 1
2
2
2
2
und daraus resultierender gleichmässiger Beschränktheit der zweiten Momente. Daher gilt
Z t
Z s
∞
∞
X
X
EBt Bs = E
ξn
ϕn (r) dr
ξn
ϕn (r) dr
= E
=
n=1
∞
X
0
Z
ξn ξm
n,m=1
∞
XZ 1
Z
t
ϕm (r) dr
0
ϕn (r) I[0,t] (r) dr
s
ϕn (r) dr
0
n=1
1
Z
0
n=1
0
Z
1
ϕn (r) I[0,t] (r) dr
0
I[0,t] (r) I[0,s] (r) dr
(Parseval Gleichung) =
0
= t ∧ s.
2.4.2
Karhunen-Loève Entwicklung
Eine weitere Reihendarstellung einer Brownschen Bewegung, oder auch allgemeinerer stochastischer Prozesse, erhält man wenn man pfadweise deren Fourierentwicklung betrachtet.
2.4. REIHENENTWICKLUNG DER BROWNSCHEN BEWEGUNG
33
Im folgenden Rsei X ein quadrat-integrierbarer, messbarer reeller Prozess mit Indexmenge
1
[0, 1], sodass 0 EXt2 dt < ∞. Somit gilt wegen des Satzes von Fubini auch X ∈ L2 (0, 1)
fast sicher.
Sei nun ϕ
bn , n ∈ N, eine ONB in L2 (0, 1). Dann ist für fast alle Pfade die FourierreihenDarstellung
∞ Z 1
X
b
Xt (ω) :=
Xs (ω) ϕ
bn (s) ds ϕ
bn (t)
(2.1)
n=1
0
b L2 = 0 fast sicher. Unter gewissen Bedingungen an die Pfadefiniert und es gilt kX − Xk
de von X und / oder die gewählte ONB kann man auch fast sichere punktweise und
bt − Xt | = 0 für alle t ∈ [0, 1] fast sicher
fast sichere glm. Konvergenz zeigen, d.h., |X
bt − Xt | fast sicher. Die Art der Konvergenz der Funktionenfolge für fixes
bzw. supt∈[0,1] |X
ω interessiert uns hier im Folgenden aber nicht mehr, dies ist eine Problemstellung in der
Fourieranalysis und nicht der Stochastik. Uns interessiert in welchem Sinne die stochastische Gleichheit gilt. Bedenke, die fast sichere Konvergenz impliziert im Allgemeinen nicht
b L2 6= 0.
die Konvergenz im Erwartungswert impliziert, d.h., unter Umständen gilt EkX − Xk
Weiters, ist es für eine Reihendarstellung von Vorteil, z. B., zu Simulationszwecken, dass
die Korrelationsstruktur und die gemeinsame Verteilung der stochastischen Fourierkoeffizienten bestimmt werden kann.
Der folgende Satz von Karhunen-Loéve gibt Auskunft darüber welchem, basierend auf der
Kovarianz des Prozesses, die optimale ONB für Fourierentwicklung ist, d .h., er gibt eine
ONB an, sodass die Fourierkoeffizienten unkorreliert sind und weiters der Quadratmittelfehler minimiert wird und man somit die beste Approximation durch Partialsummen
erhält. Zum Beweis des Satzes brauchen wir noch folgenden Satz aus der Analysis.
Satz 2.7 (Satz von Mercer). Die Abbildung K : [0, 1] × [0, 1] → R sei stetig, symmetrisch,
d.h., K(s, t) = K(t, s) für alle t, s ∈ [0, 1], und positiv semi-definit. Dann existiert eine
Orthonormalbasis (ϕn )n∈N von L2 (0, 1) bestehend aus Eigenfunktionen des Integraloperators
TK : L2 (0, 1) → L2 (0, 1) definiert mittels
Z 1
(TK f )(s) :=
K(s, t)f (t) dt
0
und die dazugehörigen Eigenwerte λn , n ∈ N, sind nicht-negativ. Weiters gilt, die Eigenfunktion zu positiven Eigenwerten sind stetig und es gilt
X
K(s, t) =
λn ϕn (s)ϕn (t)
n∈N
und diese Summe konvergiert gleichmässig und absolut.
Eine Abbildung K heißt Kern des durch sie definierten Integraloperators TK und ein Kern,
der die Bedingung des Satzes von Mercer erfüllt heißt Mercer-Kern. Die Karhunen-Loève
Zerlegung ist nun eine optimale Fourier-Entwicklung eines stochastischen Prozesses, dessen
Kovarianzfunktion ein Mercer-Kern ist.
34
KAPITEL 2. DIE BROWNSCHE BEWEGUNG
Satz 2.8 (Karhunen-Loève Entwicklung). Sei X = (Xt )t∈[0,1] ein zentrierter1 , quadratintegrierbarer stochastischer Prozess mit stetiger Kovarianzfunktion KX . Dann gilt
(i) KX ist ein Mercer-Kern und ϕn , n ∈ N, sei eine ONB von L2 (0, 1) wie im Satz von
Mercer mit den dazugehörigen Eigenwerten λn , n ∈ N;
(ii) die Zufallsvariablen
Z
Zn :=
t
Xs ϕn (s) ds
0
sind zentriert, besitzen Varianz λn und sind paarweise unkorreliert, d.h.,
EZn = 0,
EZn Zm = δnm λn
∀ m, n ∈ N ;
(iii) die Karhunen-Loève Zerlegung
Xt =
∞
X
Zn ϕn (t) ,
n=1
gilt im Quadratmittel und ist gleichmässig in t, d.h.,
n
2
X
lim sup EXt −
Zn ϕn (t) = 0 ;
n→∞ t∈[0,1]
i=1
(iv) Unter allen Reihendarstellungen der Form (2.1) ist die Karhunen-Loève Entwicklung
die einzige, sodass die stochastischen Fourierkoeffizienten unkorreliert sind, und die
Karhunen-Loève Entwicklung mit aufsteigend geordneten Eigenwerten minimiert den
Quadratmittelfehler.
Bemerkung 2.8. Die Karhunen-Loève ist nur für wenige Prozesse analytisch bekannt, kann
aber numerische durch numerisches Bestimmen der Eigenfunktionen und Eigenwerte der
Kovarianzfunktion gelöest werden. Im diskreten, endlichen Fall, d.h., für (Xt )t∈I = (X1 , . . . , Xn ),
entspricht die Karhunen-Loève Zerlegung der Hauptkomponentenanalyse in der multivariaten Statistik. Im Vergleich zur obigen Zerlegung der Brownschen Bewegung im Satz von
Levy-Ciesielski ist die Karhunen-Loève Entwicklung bi-orthogonal, da sowohl Zn orthogonal im Raum der quadrat-integrierbaren Zufallsvariablen als auch ϕn in L2 (0, 1) orthogonal
sind. Ist zusätzlich zu den Bedingungen in Satz 2.8 der Prozess X ein Gaussprozess, dann
sind die stochastischen Fourierkoeffizienten Zn unabängig normalverteilt.
Beweis von Satz 2.8. Es gilt die Kovarianzfunktion eines Prozesses X, der die Bedingungen
des Satzes 2.8 erfüllt, ist per definitionem ein Mercer-Kern. Somit ist (i) erfüllt und wir
können den Prozess als Fourierreihe bezüglich der ONB aus Eigenfunktionen schreiben,
Dies ist keine Einschränkung da wir aus jedem Prozess mittels Xt − EXt einen zentrierten Prozess
erhalten.
1
2.4. REIHENENTWICKLUNG DER BROWNSCHEN BEWEGUNG
35
wobei die Konvergenz vorerst f.s. in L2 (0, 1) gilt. Für die stochastischen Fourierkoeffizienten
gilt wegen des Satzes von Fubini
Z
1
EZn =
EXt ϕn (t) dt = 0
0
und
EZn Zm
hZ
= E
0
1
Z
0
1
Z 1Z 1
i
Xt Xs ϕn (t)ϕm (s) dt ds =
E[Xt Xs ]ϕn (t)ϕm (s) dt ds
0
0
Z 1Z 1
=
KX (s, t)ϕn (t)ϕm (s) dt ds
0
0
Z 1 Z 1
=
KX (s, t)ϕn (t) dt ϕm (s) ds
Z0 1 0
=
λn ϕn (s)ϕm (s) ds
0
= δnm λn .
Somit haben wir auch (ii) gezeigt. Aus diesen Gleichungen folgt auch sofort die Umkehrung
dieser Aussage in (iv). Wir sehen, dass für Zm unkorreliert zu allen Zn , n 6= m, gelten muss,
dass TKX ϕm orthogonal zu allen ϕn , n 6= m, ist. Daher liegt TKX ϕm im Orthognalraum zu
(ϕn )n6=m . Dieser ist aber durch {ϕm } aufgespannt und somit ist ϕm eine Eigenfunktion zu
TKX . Diese Überlegung gilt für alle m ∈ N und daher besteht eine ONB die unkorrelierte
Fourierkoeffizienten liefert aus Eigenfunktionen zu TKX .
Wir zeigen als nächstes (iii) die gleichmässige Konvergenz im Quadratmittel:
n
n
n
2
X
2
X
X
2
EXt −
Zn ϕn (t) = EXt + E
Zn ϕn (t) − 2EXt
Zn ϕn (t)
k=1
k=1
= KX (t, t) + E
= KX (t, t) +
= KX (t, t) −
k=1
n
X
Zk Zm ϕk (t)ϕk (t) − E
k,m=1
n
X
n
X
k=1
k=1
λk ϕ2k (t) − 2
n
X
n Z
X
k=1
1
Xt Xs ϕk (s)ϕk (t) ds
0
λk ϕ2k (t)
λk ϕ2k (t) .
k=1
Da der letzte Term laut dem Satz von Mercer gleichmässig gegen null konvergiert folgt
(iii). Es bleibt zu zeigen, dass die Karhunen-Loève Entwicklung den Quadratmittelfehler minimiert. Sei ϕ
bn , n ∈ N, eine beliebige ONB in L2 (0, 1) und Zbn die dazugehörigen
36
KAPITEL 2. DIE BROWNSCHE BEWEGUNG
stochastischen Fourierkoeffizienten. Dann erhalten wir den Quadratmittelfehler
∞
n
2
i
h X
X
b
b
b
b
Zk Z m ϕ
bk (t)ϕ
bm (t)
Zn ϕ
bn (t) = E
EXt −
k=1
=
k,m=n+1
∞
Z 1
X
k,m=n+1
Z
0
1
KX (s, r)ϕ
bk (r)ϕ
bm (s) ds dr ϕ
bk (t)ϕ
bm (t) .
0
Durch die Orthogonalität der Basisfunktionen erhalten wir weiters
Z 1 n
∞ Z 1Z 1
2
X
X
b
n 2
b
b
b
KX (s, t)ϕ
bk (t)ϕ
bk (s) ds dt .
EXt −
Zn ϕ
bn (t) dt =
EkX − X kL2 =
0
k=1
k=n+1
0
0
Wir minimieren diesen Term unter der Nebenbedingung der Normierung der Basisfunktionen mittels der Methode der Lagrange-Multiplikatoren und erhalten
∞ Z 1 Z 1
Z 1
X
F (ϕ
bn+1 , ϕ
bn+2 . . .) =
KX (s, t)ϕ
bk (t)ϕ
bk (s) ds dt − βk
ϕ
b2k (t) dt − 1
=
k=n+1
∞
X
0
0
0
TKX ϕ
bk , ϕ
bk
L2
− βk (ϕ
bk , ϕ
bk )L2 − 1 .
k=n+1
(Frèchet-)Ableiten liefert für jedes k ≥ n + 1
∂F
= 2 TKX ϕ
bk , · L2 − 2βk ϕ
bk , · L2 ∈ L(L2 (0, 1), R) = (L2 (0, 1))∗ , L2 (0, 1)
∂ϕ
bk
Nullsetzen der Frèchet-Ableitungen liefert die Gleichungen
TKX ϕ
bk = βk ϕ
bk
in L2 (0, 1)
∀ k ≥ n + 1.
Diese sind genau dann erfüllt falls ϕ
bk eine Eigenfunktion zu TKX mit Eigenwert βk ist.
Beispiel 2.7 (Brownsche Bewegung). Eine Brownschen Bewegung B hat Kovarianzfunktion
K(t, s) = t∧s. Diese ist ein Mercer-Kern und man erhält die orthogonalen Eigenfunktionen
mit dazugehörigen Eigenwerten
√
1
ϕn (t) = 2 sin n − 12 π t , λn =
2 , n ∈ N .
n − 12 π 2
Daher ist die Karhunen-Loève Entwicklung
1
∞
sin
n
−
πt
√ X
2
Bt = 2
Zn
2
n − 21 π 2
n=1
mit Zn u.i.v. N (0, 1).
∀ t ∈ [0, 1]
2.4. REIHENENTWICKLUNG DER BROWNSCHEN BEWEGUNG
37
Beispiel 2.8 (Brownsche Brücke). Eine Brownschen Brücke X hat Kovarianzfunktion K(t, s) =
t ∧ s − ts. Diese ist ein Mercer-Kern und man erhält die orthogonalen Eigenfunktionen mit
dazugehörigen Eigenwerten
ϕn (t) =
√
2 sin n π t ,
λn =
1
,
n2 π 2
n ∈ N.
Daher ist die Karhunen-Loève Entwicklung
∞
√ X
sin n π t
Xt = 2
Zn
nπ
n=1
mit Zn u.i.v. N (0, 1).
∀ t ∈ [0, 1]
38
KAPITEL 2. DIE BROWNSCHE BEWEGUNG
Kapitel 3
Martingale
Wir führen den Martingalbegriff und verwandte Definitionen ein. Wir zeigen,
dass jedes Submartingal unter den üblichen Bedingungen und die Filtration eine f. s. càdlàg Modifikation besitzt. Aus den dazu benötigen Hilfsresultaten ergeben sich allgemeine Lp -Maximalungleichungen, Martingalkonvergenzsätze und
das Optional Stopping Theorem. Wir behandeln ausführlich die quadratische Variation von Martingale und die Doob-Meyer Zerlegung. Zuletzt wird noch kurz die
schwache Konvergenz von Martingalen und das Konzept des Martingalproblems
erläutert.
In diesem Abschnitt behandeln wir grundlegende Eigenschaften von Martingalen in stetiger
Zeit, d.h., I = R+ = [0, ∞). Weiters ist in diesem Kapitel der Zustandsraum aller Prozesse
immer durch die reellen Zahlen und der dazugeörigen Borel-σ-Algebra, d.h., durch (E, E) =
(R, B(−∞, ∞)), gegeben. Wenn nicht speziell darauf hingewiesen, ist im Folgenden immer
ein fixer filtrierter Wahrscheinlichkeitsraum (Ω, F, (Ft )t≥0 , P) angenommen. Somit sind die
folgenden Definition eines Martingals immer bezüglich einer bestimmten Filtration, die
keinen (!) Beschränkungen , z.B., Vollständigkeit oder Rechts-stetigkeit, unterlegen ist.
Definition 3.1. Ein adaptierter, reeller, stochastischer Prozess X heißt Martingal falls
E|Xt | < ∞ für alle t ≥ 0 und
E Xt |Fs = Xs f.s.
∀s ≤ t.
(3.1)
Bemerkung 3.1. Die meisten Eigenschaften von Martingalen, die wir im Folgenden besprechen, bleiben erhalten wenn man in der Definition die Integrierbarkeit der Zufallsvariablen
durch die schwächere Bedingung der Integrierbarkeit des Positivteils, d.h., durch die Bedingung EXt+ < ∞ für alle t ≥ 0, ersetzt, vgl. [RY99]. In diesem Fall spricht man von einem
Martingal nach Definition 3.1 als ein integrierbares Martingal. Im Falle von rechts-stetigen
Martingalen sind beide Begriffe äquivalent, s. Bemerkung 3.2.
Klarerweise bleibt die Martingaleigenschaft erhalten wenn die Filtration durch eine gröbere
Filtration ersetzt wird aber es gibt keinen Grund warum das auch bei Ersetzung durch eine
feinere Filtration auch gelten sollte. Ausnahmen sind hier natürlich die Vervollständigung
und Augmentierung einer Filtration, welche die Martingaleigenschaft erhält.
39
40
KAPITEL 3. MARTINGALE
Beispiel 3.1 (Brownsche Bewegung). Ist B eine Brownsche Bewegung bezüglich (Ft )t≥0
dann ist B ein f.s. stetiges Martingal. Aus der Eigenschaft der unabhängig normalverteilten
Zuwächse folgt E|Bt | = (2t/π)1/2 < ∞ und
E[Bt |Fs ] = E[Bs + (Bt − Bs )|Fs ] = Bs + 0 .
Weiters sind auch die Prozesse Bt2 −t und die geometrische Brownsche Bewegung exp(σBt −
σ 2 t/2), σ ∈ R, Martingale. Im ersten Fall gilt E|Bt2 − t| ≤ 2t und die Unabhn̈gigkeit der
Inkremente gibt
E[Bt2 − t|Fs ] = Bs2 + 2 Bs E[Bt − Bs |Fs ] + E[(Bt − Bs )2 |Fs ] − t = Bs2 + 0 + (t − s) − t .
Im zweiten Fall verwenden wir die Momenterzeugende Funktion der Normalverteilung,
daher
2
2
2
2
E eσBt −σ t/2 = e−σ t/2 E eσBt = e−σ t/2 eσ t/2 = 1 < ∞
und
2
2
2
2
2
E eσBt −α t/2 Fs = eσBs −σ t/2 E eσ(Bt −Bs ) = eσBs −σ t/2 eσ (t−s)/2 = eσBs −σ s/2 .
Beispiel 3.2 (Kompensierter Poisson Prozess). Sei N = (Nt )t≥0 ein Poisson Prozess mit
e = (N
et )t≥0 definiert durch
Intensität λ > 0, dann ist der kompensierte Poisson Prozess N
et := Nt − λt
N
ein f.s. rechts-stetiges Martingal. Die Integrierbarkeit folgt aus der Integrierbarkeit des
Poisson-Prozesses da E|Nt − λt| ≤ E|Nt | + λt = 2λt < ∞ und die Martingaleigenschaft
folgt aus der Bedingung der unabhängigen poissonverteilten Zuwächsen:
et |Fs ] = E[Ns + (Nt − Ns )|Fs ] − λt = Ns + λ(t − s) − λt = N
es .
E[N
Die f.s. Rechts-stetigkeit folgt sofort aus der f.s. Rechts-stetigkeit des Poisson-Prozesses.
Beispiel 3.3. Sei Y eine integrierbare Zufallsvariable und (Ft )t≥0 eine Filtration dann erhalten wir ein Martingal X, wenn wir jeweils Xt = E[Y |Ft ] setzen. Die Integrierbarkeit
folgt aus der Jensen’schen Ungleichung und die Martingaleigenschaft aus der Projektionseigenschaft des bedingten Erwartungswertes.
Definition 3.2. Wird in der Definition 3.1 die Eigenschaft (3.1) durch
∀s ≤ t.
E Xt |Fs ≤ Xs f.s.
(3.2)
ersetzt, dann heißt der Prozess X ein Supermartingal, wird (3.1) durch
E Xt |Fs ≥ Xs f.s.
∀s ≤ t.
(3.3)
ersetzt, dann heißt der Prozess X ein Submartingal.
41
Trivialerweise gilt, dass ein Martingal sowohl ein Super- als auch ein Submartingal ist,
weiters ist X ein Supermartingal so ist −X ein Submartingal und X ist ein Martingal
falls sowohl X und −X ein Supermartingal sind. Durch diese Transformationen kann jede
bewiesene Eigenschaft eines Sub-/Supermartingals einfach in eine Eigenschaft des anderen
übertragen werden und gilt klarerweise auch für Martingale. Offenbar gilt, dass t 7→ EXt für
ein Martingal konstant, ein Supermartingal monoton fallend und Submartingal monoton
wachsend ist.
Beispiel 3.4 (Geometrische Brownsche Bewegung). Wir haben in Beispiel 3.1 bereits gezeigt, dass die geometrischen Brownsche Bewegung Xt = exp σBt + (µ − σ 2 /2)t für µ = 0
ein Martingal ist. Daraus sieht man sofort, dass die geometrische Brownsche Bewegung für
µ > 0 ein Submartingal und für µ < 0 ein Supermartingal ist.
Beispiel 3.5 (Poisson Prozess). Der Poisson Prozess N ist ein Submartingal da E|Nt | =
λt < ∞ und
E[Nt |Fs ] = Ns + E[Nt − Ns |Fs ] = Ns + λ(t − s) ≥ Ns .
Aus (Sub-/Super-)Martingalen erhält man durch einfache Transformationen wiederum
(Sub-/Super-)Martingale. Sind X, Y Martingale, dann ist auch aX + bY ein Martingal
für alle a, b ∈ R. Sind X, Y Supermartingale dann ist min{Xt , Yt } ein Supermartingal und
für alle a, b > 0 ist auch aX + bY ein Supermartingal. Sind X, Y Submartingale dann ist
max{Xt , Yt } ein Submartingal.
Beispiel 3.6 (Geburts-Todes-Prozess). Ein unreflektierter Geburts-Todes-Prozess Z kann
als die Differenz zweier unabhängiger Poisson-Prozesse N λ , N µ mit Geburtsrate λ und
Todesrate µ geschrieben werden, d.h., Zt = Ntλ − Ntµ , und somit gilt Zt − t(µ − λ) ist ein
Martingal.
Weitere Transformationen, die die Submartingal-Eigenschaft erhalten, ergeben sich aus der
Jensen’schen Ungleichung.
Proposition 3.1. (i) Sei X ein Martingal und ϕ eine konvexe Funktion, sodass für alle
t ≥ 0 gilt E|ϕ(Xt )| < ∞, dann ist ϕ(X) ein Submartingal.
(ii) Sei X ein Submartingal und ϕ zusätzlich zu den obigen Eigenschaften nicht-fallend,
dann ist ϕ(X) ein Submartingal.
Beweis. Die Jensen’sche Ungleichung gibt für s, t ≥ 0, dass
ϕ(Xt ) ≤ ϕ(E[Xt+s |Ft ]) ≤ E[ϕ(Xt+s )|Ft ] ,
wobei im Fall (i) die erste Ungleichung sogar eine Gleichung ist und im Fall (ii) gilt, da ϕ
nicht fallend ist.
Beispiel 3.7. Sei X ein Martingal dann sind (Xt − c)+ und (Xt − c)− Submartingale für
alle c ∈ R. Ist X für p ≥ 1 ein p-fach integrierbares Martingal oder positives Submartingal
dann ist |Xt |p ein Submartingal.
42
KAPITEL 3. MARTINGALE
Im den folgenden drei Abschnitten dieses Kapitel werden wir einige nützliche technische
Resultate für Submartingale beweisen, die wir vor allem dazu verwenden um die beiden
folgenden Aspekte zu behandeln.
1.
Stetigkeit der Pfade: Eine wünschenswerte Eigenschaft von stochastischen Prozessen ist, dass sie rechts-stetige Pfade besitzen. Dies gilt vor allem für viele Resultate von
(Sub-)Martingalen. Daher ist es eine Frage von Interesse ob Martingale gute Pfadeigenschaften haben. Mit Beispiel 3.3 haben wir eine einfache Methode um ein Martingal
zu konstruieren. Für dieses stellt sich natürlich die Frage welche Eigenschaften die Pfade eines derartigen Martingals oder einer Modifikation haben, die a-priori natürlich
nicht notwendigerweise gut sein müssen.
2.
Langzeitverhalten von Martingalen: Ein Prozess besitzt eine terminale Zufallsvariable X∞ falls Xt → X∞ f.s. für t → ∞. Die Frage ist wann gibt es terminale
Zufallsvariablen für Martingale und, z.B., im Falle von Martingalen wie in Beispiel
3.3 definiert, gilt X∞ = Y . Im Zusammenhang mit der ersten Frage ergibt sich: Kann
jedes Martingal auf diese Weise erzeugt werden?
3.1
Martingalungleichungen
Die folgenden Ungleichungen sind klassische Resultate der Martingaltheorie und gehen
meist auf J. L. Doob zurück. Wir präsentieren die Ungleichungen in Satz 3.1 und 3.2
über den Intervallen [0, T ]. Natürlich gelten die Ungleichungen für jedes beliebige endliche
Intervall und lassen sich, wann immer sinnvoll definiert, mittels T → ∞ auf ganz R+
ausdehnen. Zuerst behandeln wir aber eine erste, diskrete Version des Optimal Stopping
Theorems, welches im Kapitel 3.4 unter zusätzlichen Bedingungen verallgemeinert wird.
Lemma 3.1. Seien τ1 , τ2 beschränkte Stoppzeiten, die nur endlich viele Werte annehmen,
dann gilt für ein Submartingal X, dass
E Xτ1 Fτ2 ≥ Xτ1 ∧τ2 f.s.
(3.1)
Ist X ein Martingal, dann gilt in (3.1) sogar Gleichheit.
Beweis. Wir beweisen den Satz für Submartingale und im Falle von Martingalen werden
alle Ungleichungen zu Gleichungen. Es sind t1 < t2 < . . . tm jene Werte in R+ , welche die
Stoppzeiten annehmen, und wir müssen zeigen, dass
Z
Z
Xτ1 dP ≥
Xτ1 ∧τ2 dP
∀ A ∈ Fτ2 .
(∗)
A
Da aber A =
Sm
i=1
Z
A
A ∩ [τ2 = ti ] reicht es für alle i = 1, . . . , m
Z
Z
Xτ1 dP ≥
Xτ1 ∧τ2 dP =
A∩[τ2 =ti ]
A∩[τ2 =ti ]
A∩[τ2 =ti ]
Xτ1 ∧τi dP
3.1. MARTINGALUNGLEICHUNGEN
43
zu zeigen. Da aber aus Definition der gestoppten σ-Algebra A ∩ [τ2 = ti ] ∈ Fti folgt, gilt,
dass (∗) auf jedem Fall dann erfüllt ist, falls für alle i = 1, . . . , m gilt
E[Xτ1 |Fti ] ≥ Xτ1 ∧ti .
(∗∗)
Nun gilt aber weiters
E[Xτ1 ∧tk+1 |Ftk ] = E[Xtk+1 I[τ1 >tk ] + Xτ1 ∧tk+1 I[τ1 ≤tk ] |Ftk ]
= E[Xtk+1 |Ftk ] I[τ1 >tk ] + Xτ1 ∧tk+1 I[τ1 ≤tk ]
≥ Xtk I[τ1 >tk ] + Xτ1 ∧tk+1 I[τ1 ≤tk ]
= Xτ1 ∧tk .
Verwendet man diese Abschätzung iterativ startend mit k = m − 1, folgt (∗∗).
Nun folgen die ersten Ungleichungen für Submartingale. Die Ungleichungen gelten auch im
diskreten Fall, d.h., das Supremum wird über eine höchstens abzählbare Menge genommen.
In diesem Fall kann die Annahme der Rechts-stetigkeit fallengelassen werden.
Satz 3.1 (Doobsche Lp -Ungleichung). Sei X ein rechts-stetiges Martingal oder positives
Submartingal, dann gilt für p ≥ 1
h
i
1
P supt∈[0,T ] |Xt | ≥ ≤ p supt∈[0,T ] E|Xt |p
(3.2)
und für p > 1
E supt∈[0,T ] |Xt |p
1/p
≤
1/p
p
supt∈[0,T ] E|Xt |p
p−1
(3.3)
Wir bemerken and dieser Stelle, dass für p > 1 jedes p-fach integrierbare Submartingal,
was impliziert, dass die rechten Seiten der Ungleichungen in Satz 3.1 endlich sind, nach
Satz A.2 über endlichen Intervallen gleichgradig integrierbar ist.
Beweis. Wir nehmen im Folgenden an, dass X auf [0, T ] p-fach integrierbar ist, ansonsten
sind die Ungleichungen trivialerweise erfüllt. Seien t1 < t2 < . . . < tm beliebige endlich
viele Zeitpunkte in [0, T ]. Dann definiert
(
τ :=
inf{ti : Xti ≥ } falls ein derartiges i existiert,
tm
sonst
eine Stoppzeit, die nur endlich viele Werte annimmt. Der Prozess X sei vorerst ein beliebiges
Submartingal. Da τ ≤ tm f.s. folgt mittels Lemma 3.1
EXtm ≥ EXτ = E Xτ I[supi Xti ≥] + E Xτ I[supi Xti <]
≥ P supi Xti ≥ + E Xtm I[supi Xti <] .
44
KAPITEL 3. MARTINGALE
Wir ziehen den letzten Term auf beiden Seiten ab und erhalten
P supi Xti ≥ ≤ E Xtm I[supi Xti ≥] ≤ E|Xtm | .
(∗)
Wir zeigen nach diesen Vorbemerkungen nun die Doobschen Ungleichungen zuerst für
endliche Suprema und erweitern die Aussagen dann auf Suprema über dem Intervalle [0, T ].
(i) Sei nun X ein Martingal oder positives Submartingal, dann ist |X|p wegen Proposition
3.1, vgl. Bsp. 3.7, ein Submartingal und aus (∗) folgt
1
1 P supi |Xti | ≥ ≤ p E |Xtm |p ] = p supi E |Xti |p ] ,
wobei wir für die Gleichung verwendet haben, dass die Mittelwertfunktion für ein Submartingal monoton wachsend ist. Somit ist die endliche Version von (3.2) bewiesen.
Um die zweite Ungleichung (3.3) zu beweisen, definieren wir X ∗ := supi |Xti | und erhalten
aus (∗) für alle n ∈ N
hZ X ∗ ∧n
i
hZ n
i
∗
p
p−1
p−1
E[(X ∧ n) ] = E
p s ds = E
p s I[X ∗ ≥s] ds
0
Z n0
=
p sp−1 P X ∗ ≥ s ds
Z0 n
≤
p sp−2 E |Xtm | I[X ∗ ≥s] ds
0
Z X ∗ ∧n
h
i
p−2
= p E |Xtm |
s ds
0
p
E |Xtm | (X ∗ ∧ n)p−1 .
=
p−1
Als nächstes wenden wir die Hölder-Ungleichung auf die rechte Seite an und erhalten
E[(X ∗ ∧ n)p ] ≤
1/p
(p−1)/p
p
E|Xtm |p
E(X ∗ ∧ n)p
.
p−1
und nach Division der entsprechenden Terms
1/p
E[(X ∗ ∧ n)p ]
≤
1/p
1/p
p
p
≤
.
E|Xtm |p
supi E|Xtm |p
p−1
p−1
Wir betrachten den Limes für n → ∞ und erhalten wegen dem Satz von der Monotonen
Konvergenz die endliche Version der Lp -Ungleichung (3.3).
(ii) Der Beweis endet mit der Erweiterung der Resultate auf Intervalle. Da X ein rechtsstetiger Prozess ist, reicht es die Suprema auf einer dichten abzählbaren Menge D ⊂ [0, T ]
zu betrachten.
Weiters gibt es dann eine wachsende Folge von endlichen Mengen Dn sodass
S
D = n∈N Dn und wir können die obigen Ergebnisse auf die Indexmengen Dn anwenden.
3.1. MARTINGALUNGLEICHUNGEN
45
Die Ungleichung im Satz folgen nun im Limes von n → ∞ wegen der Monotonie der
Erwartungswertfunktion für Submartingale und einerseits wegen der Stetigkeit von unten
von Wahrscheinlichkeitsmaßen da
supDn Xt |p ≥ λ] ↑ supD Xt |p ≥ λ] = sup[0,T ] Xt |p ≥ λ]
und da
lim E supDn |Xt |p = E supD |Xt |p
n→∞
laut dem Satz von der Monotoner Konvergenz.
Grundlegend um die pfadweise Regularität von Submartingalen X zu untersuchen, s. den
folgenden Abschnitt, sind Abschätzungen der Anzahl der erwarteten Kreuzungen der Pfade
eines Submartingals X über ein Interval [a, b], die wir in einem separatem Lemma vorwegnehmen wollen. Sei F eine endliche Teilmenge von [0, ∞) und für jedes Intervall (a, b)
definieren wir rekursiv
τ1 := min{t ∈ F : Xt ≤ a}
(3.4)
für k ≥ 1
und für k ≥ 1
σk := min{t > τk : t ∈ F, Xt ≥ a}
(3.5)
τk+1 := min{t > σk : t ∈ F, Xt ≥ a} .
(3.6)
Die Zufallsvariable U (X, F, (a, b)) := max{k : σk < ∞} bezeichnet die Anzahl der Überkreuzungen des Intervalls (a, b) nach oben beschränkt auf die Zeiten in F . Analog bekommen wir die Definition der Kreuzungen nach unten. Für beliebige Teilmengen F von
R+ definieren wird die Anzahl der Kreuzungen als das Supremum über die Anzahl der
Kreuzungen aller endlichen Teilmengen von F . Diese Suprema sind Zufallsvariablen falls
entweder F abzählbar oder das Submartingal X zusätzlich rechts-stetig ist. Schlußendlich
verwenden wir für Intervalle die Notation
D(X, T, (a, b)) := sup D(X, F, (a, b)) ; F ⊂ [0, T ], F endlich ,
U (X, T, (a, b)) := sup U (X, F, (a, b)) ; F ⊂ [0, T ], F endlich .
Dann gelten folgenden Abschätzungen, wobei man für diskrete Indexmengen an Stelle des
Intervalls [0, T ] die Bedingung der rechts-stetigen Pfade fallen lassen kann.
Lemma 3.2 (Kreuzungsungleichungen). Sei X ein rechts-stetiges Submartingal, dann gilt
für jedes Interval (a, b) ⊂ [0, T ], dass die Kreuzungen nach unten
E D(X, T, (a, b)) ≤
1
supt∈[0,T ] E(Xt − b)+
b−a
(3.7)
erfüllen und die Kreuzungen nach oben erfüllen
E U (X, T, (a, b)) ≤
1
supt∈[0,T ] E(Xt − a)+ .
b−a
(3.8)
46
KAPITEL 3. MARTINGALE
Beweis. Ähnlich wie im Beweis der Lp -Ungleichungen zeigen wir die Resultate zuerst für
endliche und abzählbare Indexmengen und schließen dann mittels der Rechts-stetigkeit der
Pfade auf beschränkte Intervalle. Weiters zeigen wir die Ungleichung nur für die Kreuzungen nach oben, da das Resultat für die Kreuzungen nach unten analog bewiesen wird.
(i) Sei F ⊂ [0, T ] eine endliche Menge, dann folgt aus Satz 3.1, da σk ∧ T ≤ τk+1 ∧ T
(beides endliche Stoppzeiten mit nur endlich vielen Werten), dass
∞ hX
i
0 ≤ E
Xτk+1 ∧T − Xσk ∧T
k=1
hU (X,F,(a,b))
= E
X
Xτk+1 ∧T − Xσk ∧T
i
k=1
h
= E −
U (X,F,(a,b))
X
i
Xσk ∧T − Xτk ∧T − Xσ1 ∧T − a + XτU (X,F,(a,b))+1 ∧T − a
k=2
h
i
≤ E −(b − a) U (X, F, (a, b)) + XτU (X,F,(a,b))+1 ∧T − a
≤ −(b − a) EU (X, F, (a, b)) + E XT − a
+
.
Da nach Satz 3.1 der Prozess (Xt − a)+ ein Submartingal ist und daher E(XT − a)+ =
supt∈[0,T ] E(Xt −a)+ , folgt die Abschätzung (3.8), wobei die linken Seite durch EU (X, F, (a, b))
ersetzt wird.
(ii) Der Übergang von endlichem zu abzählbaren Indexmengen erfolgt mittels des Satzes
von der MonotonenSKonvergenz. Sei Fn ein wachsende Folge von endlichen Teilmengen von
[0, T ], sodass F = n Fn dicht in [0, T ] liegt. Dann gilt
U (X, Fn , (a, b)) ↑ U (X, F, (a, b)) = U (X, T, (a, b)) f.s.
wegen der Rechts-stetigkeit der Pfade und (3.8) folgt aus dem Satz von der Monotonen
Konvergenz.
3.2
Regularitätsatz für Submartingale
Ein Ziel dieses Kapitel ist der folgenden Satz, der erlaubt dass meistens ohne Beschränkung
der Allgemeinheit ein (Sub-/Super-)Martingal als càdlàg vorausgesetzt werden kann und
/ oder der Wahrscheinlichkeitsraum die üblichen Bedingungen erfüllt. Dieses Ergebnis
ergibt sich als Folgerung zum Regularitätssatzes von Submartingalen. Zum Beweis des
Regularitätssatzes benötigt man die Kreuzungsungleichungen im vorherigen Kapitel über
abzählbaren Indexmengen, d.h., wir benötigen keine Annahmen an die Rechts-stetigkeit
der Pfade, die ja gerade das Ziel des Regularitätssatzes ist.
Satz 3.2 (Regularitätssatz). Sei X ein Submartingal. Dann gilt für fast alle ω ∈ Ω, dass
für alle t ∈ (0, ∞) der linksseitige Limes lims↑t,s∈Q Xs (ω) und für alle t ∈ [0, ∞) der
rechtsseitige Limes lims↓t,s∈Q Xs (ω) existiert.
3.3. MARTINGALKONVERGENZSÄTZE
47
Beweis. Es reicht aus die Aussage des Satzes für die Intervalle [0, T ], T > 0, zu zeigen. Es
gilt
E(Xt − b)+ ≤ b− + EXT+ < ∞
∀ t ∈ [0, T ]
und daher gilt wegen der diskreten Version der Kreuzungsungleichungen in Lemma 3.2,
für welche wir die Annahme rechts-stetiger Pfade nicht benötigen, dass ein Ω0 ⊂ Ω mit
P(Ω0 ) = 1 existiert und
D(X(ω), [0, T ] ∩ Q, (a, b)) < ∞
∀ a < b, a, b ∈ Q, ω ∈ Ω0 .
(∗)
Wir zeigen die f.s. Existenz der linken Limiten mit einem Widerspruch zu (∗). Die Existenz
der rechten Limiten folgt mit einem analogen Argument. Sei t ∈ [0, T ], dann gilt, falls der
Grenzwert lims↑t,s∈Q Xs nicht f.s. existiert, dass es zwei rationale Zahlen a, b gibt, so dass
lim inf Xs < a < b < lim sup Xs
s↑t,s∈Q
s↑t,s∈Q
mit positiver Wahrscheinlichkeit. Das heißt aber, dass D(X, [0, T ] ∩ Q, (a, b)) = ∞ mit
positiver Wahrscheinlichkeit. Das aber gibt einen Widerspruch zu (∗).
Konsequenzen des Regularitätssatzes sind, dass o.B.d.A. für rechts-stetige Submartingale angenommen werden kann, dass der zugrundeliegende Wahrscheinlichkeitsraum die
üblichen Bedingungen erfüllt und umgekehrt, dass ein Submartingal auf einem Wahrscheinlichkeitsraum, der die üblichen Bedingungen erfüllt, o.B.d.A. als càdlàg angenommen werde
kann. Insbesondere gilt, dass jedes Martingal, da ja t 7→ EXt konstant ist, eine f.s. càdlàg
Modifikation besitzt. Diese Resultate sind im folgenden Satz zusammengefasst, den wir
hier nicht beweisen werden und verweisen auf die Literatur [EK86, KS91, RY99].
Korollar 3.1. (i) Sei X ein rechts-stetiges (Sub-)Martingal bezüglich einer Filtration
(Ft )t≥0 , dann ist X f.s. càdlàg und X ist ein (Sub-)Martingal bezüglich der Filtration (Ft+ )t≥0 und der Vervollständigung / Augmentierung davon.
(ii) Sei X ein (Sub-)Martingale bezüglich einer rechts-stetigen, vollständigen Filtration
(Ft )t≥0 und die Mittelwertfunktion t 7→ EXt sei rechts-stetig, dann besitzt X eine
càdlàg Modifikation, die ebenfalls ein (Ft )t≥0 -(Sub-)Martingal ist.
3.3
Martingalkonvergenzsätze
Wir betrachten nun das Grenzverhalten von rechts-stetigen Submartingalen für t → ∞.
Anhand der Kreuzungsungleichungen erhält man eine einfache, hinreichende Bedingung
für die Existenz eines f.s. Grenzwertes X∞ . Danach werden wir Folgerungen davon und
auch hinreichend und notwendige Bedingungen betrachten.
Satz 3.3 (Konvergenzsatz für Submartingale). Sei X ein f.s. rechts-stetiges Submartingal.
Gilt supt≥0 EXt+ < ∞, dann konvergiert Xt f.s. gegen eine F∞ -messbare Zufallsvariable
X∞ und E|X∞ | < ∞.
48
KAPITEL 3. MARTINGALE
Beweis. Wegen der Kreuzungsungleichung gilt für alle T > 0
EU (X, T, (a, b)) ≤
E(XT − a)+
EXT+ − |a|
≤
<∞
b−a
b−a
und der Satz von der Monotonen Konvergent impliziert für T → ∞
EU (X, R+ , (a, b)) ≤
supt≥0 EXt+ − |a|
.
b−a
Daraus folgt, dass für alle −∞ < a < bS< ∞ die Mengen [U (X, R+ , (a, b)) = ∞] Nullmengen sind und ebenso die Menge N = a<b, a,b∈Q [U (X, R+ , (a, b)) = ∞] welche die Menge
[lim inf t→∞ Xt < lim supt→∞Xt ] beinhaltet. Daraus folgt limt→∞ Xt (ω) := X∞ (ω) existiert
für alle ω ∈ Ω\N . Weiters ist X∞ messbar als f.s. punktweiser Limes messbarer Funktionen
und die Annahme supt≥0 EXt+ < ∞ impliziert die Beschränktheit von Xt in L1 (P) da
sup E|Xt | ≤ sup 2EXt+ − EXt ≤ 2 sup EXt+ − EX0 .
t≥0
t≥0
t≥0
Aus Fatou’s Lemma – E|X∞ | ≤ limt→∞ E|Xt | – folgt nun die Integrierbarkeit von X∞ .
Bemerkung 3.2. Im Beweis haben wir gesehen, dass für ein rechts-stetiges Submartingal
die Bedingungen supt≥0 EXt+ < ∞ und supt≥0 E|Xt | < ∞ äquivalent sind.
Beispiel 3.8 (Supermartingal-Konvergenz). Jedes positive Supermartingal X konvergiert
fast sicher. Dies folgt sofort aus Satz 3.3 da −X ein negatives Submartingal ist und somit
supt≥0 E(−Xt )+ = 0 < ∞.
Beispiel 3.9 (Geometrische Brownsche Bewegung). Sei Xt = exp(σBt + (µ − σ 2 /2)t) eine
geometrische Brownsche Bewegung, dann ist X für µ ≤ 0 ein positives Supermartingal und
konvergiert somit nach dem vorherigen Beispiel f.s. gegen eine integrierbare Zufallsvariable
X∞ . In diesem Falle gilt X∞ = 0 f.s., vgl. Abb. 2.1, da man sogar zeigen kann, dass Xt → 0
f.s. falls µ − σ 2 /2 < 0. In diesem Fall gilt, dass die Verteilungsfunktion von Xt gegen durch
2 /2)t
√
Φ ln x−(µ−σ
I(0,∞) (x) −→ I[0,∞) (x)
∀ x ∈ R\{0} .
σ t
Die Heaviside-Funktion I[0,∞) ist aber der Verteilungsfunktion von X∞ = 0. Im Falle µ > 0,
bleibt nur noch zu zeigen, dass neben der schwachen Konvergenz auch die fast sichere
Konvergenz gilt. Aus der schwachen Konvergenz gegen eine Konstante folgt, dass jede Folge
Xtn , n ∈ N, eine f.s. konvergente Teilfolge besitzt. Da dies aber für jede Folge von Indices
gilt, kann man daraus schließen das jede Folge f.s. konvergent sein muss. Aus der Stetigkeit
der geometrischen Brownschen Bewegung schließt man auf den stetigen Grenzübergang.
Wir beschließen diesen Abschnitt in dem wir die f.s. Konvergenz noch zur Konvergenz im
Mittel und p-ten Mittel ausdehnen. Dieser Satz beantwortet auch die letzte offene Frage
zu Martingalen, die mittels Xt = E[Y |Ft ] erzeugt sind.
3.3. MARTINGALKONVERGENZSÄTZE
49
Satz 3.4 (Konvergenz im Mittel). Für ein f.s. rechts-stetiges Martingal oder positives
Submartingal sind die folgenden Bedingungen äquivalent.
(i) Die Familie {Xt , t ≥ 0} is gleichgradig integrierbar.
(ii) Xt konvergiert für t → ∞ in L1 (P).
(iii) Xt konvergiert für t → ∞ f.s. gegen eine integrierbare Zufallsvariable X∞ und (Xt )t∈[0,∞]
ist ein (Sub-)Martingal.
Ist X ein Martingal, dann sind die Bedingungen (i) – (iii) weiters äquivalent zu folgender
Bedingung:
(iv) Es existiert eine integrierbare Zufallsvariable Y sodass Xt = E[Y |Ft ] fast sicher.
Falls (iv) gilt, dann gilt auch, dass E[Y |F∞ ] = X∞ fast sicher mit X∞ aus (iii). Dieses ist
auch f.s. gleich dem L1 (P)-Grenzwert in (ii).
Bemerkung 3.3. Ist der Prozess X ein Submartingal aber nicht f.s. positiv, dann gelten
immer noch die Implikationen (i) ⇒ (ii) ⇒ (iii).
Bemerkung 3.4. Dieser Konvergenzsatz impliziert auch ein Konvergenzresultat für bedingte
Erwartungen bekannt unter dem Namen Lèvys 0-1-Gesetz. Sei Y integrierbar und (Ft )t≥0
eine rechts-stetige, vollständige Filtration, dann gilt
E[Y |Ft ] → E[Y |F∞ ]
f.s. und in L1 (P) .
Der Name resultiert aus der Anwendung, dass für A ∈ F∞ gilt P[A|Ft ] → IA ∈ {0, 1} fast
sicher. Heuristisch ausgedrückt heißt dies nichts anderes, dass wenn wir schrittweise alle
Informationen erhalten, die den Ausgang eines Ereignisses bestimmen, dann werden wir
schrittweise immer sicherer, ob das Ereignis eintritt oder nicht.
Beispiel 3.10 (Geometrische Brownsche Bewegung). Die geometrische Brownsche Bewegung Xt = exp(σBt − σ 2 t/2) ist ein Martingal und X∞ = 0 fast sicher. Es gilt aber
EXt = e0 = 1 und da EX∞ = 0, gilt dass die L1 (P)-Konvergenz sicherlich nicht erfüllt ist.
Um keinen Widerspruch zu Satz 3.4 zu erhalten folgt, das Martingal ist nicht gleichgradig
integrierbar.
Beweis. (i) ⇒ (ii): Da der Prozess X gleichgradig integrierbar ist, folgt die Beschränktheit
in L1 (P) (Satz A.2) und somit nach Satz 3.3 die Existenz eines f.s. integrierbaren Grenzwertes X∞ . Da Konvergenz in L1 (P) äquivalent zur Konvergenz in Wahrscheinlichkeit
(impliziert durch f.s. Konvergenz) und gleichgradige Integrierbarkeit ist, folgt (ii).
(ii) ⇒ (iii): Aus der Konvergenz in L1 (P) folgt die Beschränktheit in L1 (P) und somit nach Satz 3.3 die Existenz eines f.s. integrierbaren Grenzwertes X∞ . Weiters ist die
bedingte Erwartung ein stetiger Operator bezüglich L1 (P) und daher folgt die Submartingaleigenschaft aus Xt ≤ E[Xt+h |Ft ] und dem Grenzübergang h → ∞.
50
KAPITEL 3. MARTINGALE
(iii) ⇒ (i): Um die gleichgradige Integrierbarkeit der Familie {Xt , t ≥ 0} zu erhalten,
reicht es die gleichgradige Integrierbarkeit der Familie {E[X∞ |Ft ], t ≥ 0} zu zeigen, da
|Xt | ≤ |E[X∞ |Ft ]| für alle t ≥ 0. Wir setzen Nt := [|E[X∞ |Ft ]| > n] ∈ Ft und
Z
At :=
|E[X∞ |Ft ]| dP .
Nt
D.h. es bleibt zu zeigen, dass limn→∞ supt≥0 At = 0, vgl. die Definition A.1 der gleichgradigen Integrierbarkeit. Die bedingte Version der Jensen’schen Ungleichung liefert
Z
Z
At ≤
E[|X∞ ||Ft ]dP =
|X∞ | dP
Nt
Nt
und aus der Markov-Ungleichung folgt
E[|E[X∞ |Ft ]|]
E|X∞ |
≤
.
n
n
Daraus folgt aber, dass, wenn nur n groß genug gewählt wird, At unabhängig von t beliebig
klein wird.
P[Nt ] ≤
(iii) ⇒ (iv): Setze Y := X∞ .
(iv) ⇒ (i): Es gilt Xt = E[Y |Ft ] fast sicher und Y ist integrierbar. Da somit Y auch
gleichgradig integrierbar ist, existiert nach Satz A.2 eine nicht-negative, nicht-fallende,
konvexe Funktion G auf R+ , sodass limt→∞ G(t)/t = ∞ und EG(|Y |) < ∞. Wir verwenden
nun zweimal die Jensen’sche Ungleichung und erhalten
sup EG(|Xt |) = sup EG(|E[Y |Ft ]|) ≤ sup EG(E[|Y | |Ft ])
t≥0
t≥0
t≥0
≤ sup E E[G(|Y |)|Ft ]
t≥0
= EG(|Y |) < ∞ .
Daher folgt nach Satz A.2, dass die Familie {Xt , t ≥ 0} gleichgradig integrierbar ist.
Schlussendlich zeigen wir noch den Zusatz zu (iv). Da (iv) ⇒ (i) ⇒ (ii) & (iii) existiert
eine integrierbare, F∞ -messbare Zufallsvariable X∞ , sodass E[Y |Ft ] → X∞ fast sicher und
in L1 (P). Dann gilt für alle A ∈ Ft bei beliebigem t ≥ 0, dass
Z
Z
Z
Z
Y dP =
E[Y |Ft ] dP =
E[X∞ |Ft ] dP =
X∞ dP .
(∗)
S
A
A
A
A
Da aber t≥0 Ft ein Erzeuger von F∞ ist und die Mengen aus F, die (∗) erfüllen eine
monotone Klasse bilden, folgt mittels dem Monoton Class Theorem1 , dass EY IA = EX∞ IA
für alle A ∈ F∞ gilt. Daher ist X∞ eine Version der bedingten Erwartung E[Y |F∞ ].
Schlussendlich, dass im Falle (ii) und (iii) die Konvergenz E|Xt − X∞ | → 0 gilt, folgt
aus der Äquivalenz von Konvergenz im Mittel zur Konvergenz in Wahrscheinlichkeit von
gleichgradig integrierbaren Zufallsvariablen.
1
Sei A eine Algebra und M eine monotone Klasse über Ω. Dann gilt σ(A) ⊂ M.
3.4. OPTIONAL STOPPING THEOREM
51
Zuletzt erweitern wir noch das Konvergenzresultat für beschränkte Submartingale zur Konvergenz in Lp (P).
Satz 3.5 (Lp -Konvergenzsatz). Sei p > 1 und X ein f.s. rechts-stetiges Martingal oder positives Submartingal beschränkt in Lp (P), d.h., supt≥0 E|Xt |p < ∞. Dann ist das Submartingal |X|p gleichgradig integrierbar und es existiert eine p-fach integrierbare, F∞ -messbare
Zufallsvariable X∞ , sodass Xt → X∞ f.s. und in Lp (P).
Beweis. Aus der Lp -Beschränktheit folgt, dass X gleichgradig integrierbar ist und der
f.s. Grenzwert X∞ existiert. Aus der Doobschen Lp -Ungleichung folgt
p p
E supt≥0 |Xt |p ≤
supt≥0 E|Xt |p < ∞ .
p−1
Da somit supt≥0 |Xt |p eine integrierbare Majorante ist, folgt |X|p ist ein gleichgradig integrierbares Submartingal und es existiert ein f.s. integrierbarer Limes. Klarerweise gilt
|Xt |p → |X∞ |p f.s., also stimmt dieser mit dem Limes überein und es folgt E|X∞ |p < ∞.
Der Satz von der Dominierten Konvergenz mit Majorante |Xt − X∞ |p ≤ 2p supt≥0 |Xt |p
liefert nun die Konvergenz in Lp (P).
3.4
Optional Stopping Theorem
Als letztes Resultat erweitern wir Lemma 3.1 zu beliebigen Stoppzeiten. Insbesondere erhalten wir damit auch, dass die (Sub-)Martingaleigenschaft auch für zufällige Zeiten gilt.
Satz 3.6 (Optional Stopping Theorem). Sei X ein f.s. rechts-stetiges Submartingal und
τ1 , τ2 sind zwei beliebige Stoppzeiten.
(i) Ist τ1 is f.s. beschränkt, dann gilt fast sicher
E[Xτ1 |Fτ2 ] ≥ Xτ1 ∧τ2 .
(3.1)
(ii) Ist τ1 f.s. endlich, E|Xτ1 | < ∞ und limt→∞ E|Xt |I[τ1 >t] = 0, dann gilt fast sicher
E[Xτ1 |Fτ2 ] ≥ Xτ1 ∧τ2 .
(3.2)
(iii) Ist X gleichgradig integrierbar, dann gilt fast sicher
E[Xτ1 |Fτ2 ] ≥ Xτ1 ∧τ2 .
(3.3)
Falls X ein Martingal ist, dann gilt in (3.1) – (3.3) sogar Gleichheit.
Bemerkung 3.5. Im Falle τ2 f.s. endlich gilt (iii) ⇒ (ii): Klarerweise gilt |Xt |I[τ1 >t] ≤ |Xt |
und, da letztere gleichgradig integrierbar sind, sind auch |Xt |I[τ1 >t] gleichgradig integrierbar. Weiters konvergieren diese wegen der Endlichkeit der Stoppzeit f.s. gegen 0. Da die
gleichgradige Integrierbarkeit das Vertauschen von Limes und Erwartungswert erlaubt folgt
nun limt→∞ E|Xt |I[τ1 >t] = 0.
52
KAPITEL 3. MARTINGALE
Bemerkung 3.6. Im Falle unbeschränkter Stoppzeiten ist die gleichgradige Integrierbarkeit
in (iii) eine notwendige Bedingung. Wir illustrieren das an Hand eines Beispiels. Für das
nicht gleichgradig integrierbare Martingal Xt = exp(Bt − t/2), s. Bsp. 3.10, sei für ein
c < 1 die Stoppzeit τc := inf{t > 0 : Xt ≤ c} definiert. Dann gilt τc ist unbeschränkt aber
f.s. endlich, da Xt → 0 f.s., und Xτc = c fast sicher. Somit gilt EXτc = c. Andererseits, falls
das Optional Stopping Theorem gelten sollte, dann hätten wir EXτc = EX0 = 1. In Bezug
auf (ii) bedeutet dies, da E|Xτc | = c < ∞, dass EXn I[τc >n] nicht gegen null konvergiert.
Beweis von Satz 3.6. Wir führen den Beweis für Submartingale und es ist klar, dass im
Falle eines Martingals alle Ungleichungen zu Gleichungen werden. Das immer wiederkehrende Argument im folgenden Beweis ist die Konvergenz von Erwartungswerten, die aus der
f.s. Konvergenz und der gleichgradigen Integrierbarkeit der Argumente im Erwartungswert
folgt.
(i) Wir nehmen vorerst an, dass beide Stoppzeiten τ1 , τ2 durch T beschränkt sind, d.h.,
τ1 , τ2 < T fast sicher. Diese Stoppzeiten können dann mittels Folgen von Stoppzeiten, die
nur endlich viele Werten annehmen, punktweise von oben approximiert werden. Die erste
Variante des Optional Stopping Theorems, Lemma 3.1, angewendet auf das Submartingal2
X ∨ c, c ∈ R, liefert
Xτ1n ∧τ2n ∨ c ≤ E[Xτ1n ∨ c |Fτ2n ]
woraus
E[Xτ1n ∧τ2n ∨ c |Fτ2 ] ≤ E[Xτ1n ∨ c |Fτ2 ]
folgt. Nach Definition der bedingten Erwartung ist das aber
∀ A ∈ Fτ2
E (Xτ1n ∧τ2n ∨ c) IA ≤ E (Xτ1n ∨ c) IA
(∗)
und die beiden Integranden konvergieren punktweise. Eine weitere Anwendung des Optional Stopping Theorems für die konstante Stoppzeit T , o.B.d.A. können wir für n groß
genug annehmen, dass auch τ1n ≤ T f.s., liefert
c ≤ Xτ1n ∨ c ≤ E[XT ∨ c|Fτ1n ]
und analog für Xτ1n ∧τn2 ∨ c. Mit dieser beidseitigen Abschätzung erhalten wir eine gleichgradig integrierbare Familie von Majoranten, s. Bsp. A.3. Daraus folgt, dass die Zufallsvariablen {Xτ1n ∨ c, n ∈ N} und {Xτ1n ∧τ2n ∨ c, n ∈ N} gleichgradig integrierbar sind und
wir können in (∗) den Grenzwert für n → ∞ mit dem Erwartungswert vertauschen. Wir
erhalten
Xτ1 ∧τ2 ∨ c = E Xτ1 ∧τ2 ∨ c Fτ2 ≤ E Xτ1 ∨ c Fτ2 ,
was äquivalent zu
E (Xτ1 ∧τ2 ∨ c) IA ≤ E (Xτ1 ∨ c) IA
∀ A ∈ Fτ2
(∗∗)
x 7→ x ∨ c ist eine konvexe, nicht-fallende Funktion und somit ist nach Satz 3.1 der Prozess X ∨ c
ebenfalls ein (Sub-)Martingal.
2
3.4. OPTIONAL STOPPING THEOREM
53
ist. Der Grenzübergang c → −∞ liefert (3.1) unter der zusätzlichen Bedingung, dass τ2
f.s. beschränkt ist. Dies folgt, da man in (∗∗) wiederum Grenzwert und Anwendung der
Erwartung auf beiden Seiten der Ungleichung vertauschen kann: O.B.d.A. gilt c < 0 und
man zerlege
Xτ1 ∧τ2 ∨ c = (Xτ1 ∧τ2 )+ − (Xτ1 ∧τ2 ∨ c)− .
Hier gilt der erste Term auf der rechten Seite ist unabhängig von c und (Xτ1 ∧τ2 ∨ c)− ≥ 0
konvergiert punktweise monoton wachsend gegen (Xτ1 ∧τ2 )− . Der Satz von der Monotonen
Konvergenz impliziert nun
lim E (Xτ1 ∧τ2 ∨ c) IA = E Xτ1 ∧τ2 IA
∀ A ∈ Fτ2 .
c→−∞
Ein analoges Argument gilt für die rechte Seite in (∗∗) .
Schlussendlich, ist τ2 unbeschränkt, dann ist τ2 ∧ n ein Folge beschränkter Stoppzeiten, die
τ2 approximiert. Das Ergebnis bisher liefert für n grösser als die f.s. obere Schranke von
τ1 , dass
Xτ1 ∧τ2 ≤ E Xτ1 Fτ2 ∧n .
Es ist leicht zu überprüfen, dass für ein A ∈ Fτ2 gilt A ∩ [τ2 ≤ n] ∈ Fτ2 ∧n . Daher erhält
man
E Xτ1 IA∩[τ2 ≤n] ≤ E Xτ1 ∧τ2 IA∩[τ2 ≤n] .
In diesen Ungleichungen gilt wiederum die f.s. Konvergenz und die gleichgradige Integrierbarkeit der Integranden und somit er halten wir E[Xτ1 IA ] ≤ E[Xτ1 ∧τ2 IA ]. Der Beweis von
(i) ist abgeschlossen.
(ii) Für fast sicher endliches τ1 ist τ1 ∧ n eine Folge beschränkter Stoppzeiten, die τ1
punktweise approximiert. Mit dem Ergebnis von (i) gilt
E Xτ1 ∧τ2 ∧n I ≤ E[Xτ1 ∧n IA
∀ A ∈ Fτ2 .
Das Ergebnis (3.2) folgt aus dem Grenzübergang n → ∞ und den zusätzlichen Bedingungen, die die gleichgradige Integrierbarkeit der Integranden garantieren. Wir zeigen kurz die
Art des Arguments (analog für beide Seiten in der obigen Ungleichung), das das Vertauschen von Grenzwert und Erwartung erlaubt, welches aus der punktweisen Konvergenz der
Integranden und der Konvergenz der Erwartung der Absolutbeträge folgt, vgl. Satz A.3.
Es gilt
E|Xτ1 ∧n | IA = E |Xτ1 ∧n | IA I[τ1 ≤n] + E |Xτ1 ∧n | IA I[τ1 >n]
= E |Xτ1 | IA I[τ1 ≤n] + E |Xn | IA I[τ1 >n] ,
wobei der zweite Term für n → ∞ laut Voraussetzung verschwindet
und der erste Term
wegen des Satzes von der Monotonen Konvergenz gegen E |Xτ1 |IA < ∞ konvergiert.
Daraus folgt nun die gleichgradige Integrierbarkeit und es gilt limn→∞ EXτ1 ∧t IA = EXτ1 IA .
54
KAPITEL 3. MARTINGALE
(iii) Ist das Submartingal gleichgradig integrierbar existiert eine terminale Zufallsvariable
X∞ und die Zufallsvariablen Xτ1 und Xτ1 ∧τ2 sind auch für nicht f.s. endliche Stoppzeiten
definiert. Wir betrachten wiederum die Submartingale X ∨ c, c ∈ R, und erhalten aus dem
Resultat in (i) für die endlichen Stoppzeiten τ1 ∧ n, dass
Xτ1 ∧τ2 ∧n ∨ c ≤ E[Xτ1 ∧n ∨ c|Fτ2 ] .
(∗ ∗ ∗)
Wie im Beweis zuvor betrachten wir nun zuerst den Grenzübergang n → ∞ und dann c →
−∞, wobei wir die im ersten Fall eine gleichgradig integrierbare Familie von Majoranten
aus der beidseitigen Abschätzung für t ≥ n
c ≤ Xτ1 ∧n ∨ c = Xτ1 ∧n∧t ∨ c ≤ E[Xt ∨ c|Fτ1 ∧n ] ≤ E[E[X∞ |Ft ] ∨ c Fτ1 ∧n ≤ E[X∞ ∨ c|Fτi ∧n ]
erhalten. Hier haben wir für die letzte Ungleichung die Jensen’sche Ungleichung verwendet. Die bedingten Erwartungen auf der rechten Seite sind eine gleichgradig integrierbare
Familie und wir schließen daraus, dass auch Xτ1 ∧n ∨ c, n ∈ N, eine gleichgradig integrierbare Familie bilden. Ein analoges Argument gilt auch für die linke Seite in (∗ ∗ ∗). Da
nun in (∗ ∗ ∗) die f.s. Konvergenz gilt, erhalten wir durch Vertauschen von Limes und
Erwartungswert
Xτ1 ∧τ2 ∨ c ≤ E[Xτ1 ∨ c|Fτ2 ] .
Schlussendlich liefert der Grenzübergang c → −∞ die Ungleichung (3.3). Die Argumente
hierzu sind analog zum Beweis von (i).
Eine einfache Konsequenz des Optional Stopping Theorems ist, dass das Stoppen eines
Submartingals die Integrierbarkeit des Prozesses erhält.
Korollar 3.2. Sei X ein f.s. rechts-stetiges Submartingal und τ eine beliebige Stoppzeit,
dann gilt E|Xτ ∧s | < ∞ für alle s ≥ 0.
Beweis. Wie im Beweis von Satz 3.3 erhalten wir zuerst E|Xτ ∧s | = 2EXτ+∧s − EXτ ∧s und
aus dem Optional Stopping Theorem folgt E[Xτ ∧s |F0 ] ≥ X0 und somit −EXτ ∧s ≤ −EX0 .
Das impliziert
E|Xτ ∧s | ≤ 2EXτ+∧s − EX0
und es reicht nun aus die Integrierbarkeit von EXτ+∧s zu zeigen. Nach Satz 3.1 ist X + ein positives Submartingal und es gilt nach dem Optional Stopping Theorem Xτ+∧s ≤ E[Xs+ |Fτ ].
Eine Anwendung des Erwartungswertes auf beiden Seiten der letzten Ungleichung liefert
das gesuchte:
EXτ+∧s ≤ EXs+ ≤ E|Xs | < ∞ .
Abschließend beweisen wir, dass das Stoppen eines (Sub-)Martingals auch die (Sub-)Martingaleigenschaft erhält.
3.5. DIE DOOB-MEYER ZERLEGUNG & DIE QUADRATISCHE VARIATION
55
Korollar 3.3. Sei X ein rechts-stetiges (Sub-)Martingal und τ eine Stoppzeit. Dann ist
der gestoppte Prozess X τ ein rechts-stetiges (Sub-)Martingal, d.h., es gilt
Xs∧τ ≤ E[Xt∧τ |Fs ]
f.s.
∀s ≤ t
und falls X ein Martingal ist, gilt sogar Gleichheit.
Beweis. Der gestoppte Prozess ist offensichtlich ebenfalls rechts-stetig und, da X progressiv
messbar ist, auch adaptiert. Die Integrierbarkeit des gestoppten Prozesses folgt aus Korollar
3.2. Schlussendlich gilt mit Satz 3.6 (i) und den beiden Stoppzeiten s und t ∧ T , dass für
alle s ≤ t gilt
E[Xt∧τ |Fs ] ≥ Xs∧t∧τ = Xs∧τ
mit Gleichheit falls X ein Martingal ist.
3.5
Die Doob-Meyer Zerlegung & die quadratische Variation
In diesem Kapitel legen wir einen filtrierten Wahrscheinlichkeitsraum (Ω, F, (Ft )t≥0 , P)
zu Grunde, der die üblichen Bedingungen erfüllt. Das erlaubt im Folgenden, dass jeder
Grenzwert (f.s., im Mittel, etc.) eines adaptierten Prozesses wiederum adaptiert ist und
die Ununterscheidbarkeit, die Adaptiertheit erhält. Ein Prozess bezeichnet immer einen
reellen Prozess in stetiger Zeit mit Indexmenge R+ . Oft werden wir uns auf Prozesse X
beschränken, die f.s. im Ursprung starten, d.h., X0 = 0 fast sicher. Dies ist im Allgemeinen
keine Einschränkung, da wir für beliebige Prozess X mittels Xt0 = Xt − X0 einen derartigen Prozess erhalten und die Pfadeigenschaften (Stetigkeit, Variation etc.) von X 0 und X
übereinstimmen.
In diesem Abschnitt beschäftigen wir uns vor allem mit zwei (sehr eng verwandten) Aspekten: Erstens untersuchen wir, wie auch schon bei der Brownschen Bewegung, das Variationsverhalten der Pfade von Martingalen. Zweitens, haben wir in Beispielen gesehen, z.B.,
Nt − tλ und B 2 − t, dass man aus Submartingalen durch ‘Kompensation’, d.h., Abziehen
eines geeigneten ‘wachsenden’ Objekts, wiederum Martingale erhält. In diesem Abschnitt
werden wir diese Beobachtung verallgemeinern.
Das folgende erste Resultat zeigt einerseits, dass kein (interessantes) stetiges Martingal
Pfade von endlicher Variation besitzt. Andererseits liefert es eine einfache Bedingung, die
die Existenz der quadratischen Variation eines stetigen Martingals garantiert. Die Bedingung ist überaus restriktiv und gilt nicht einmal für das Standardbeispiel eines stetigen
Martingals, nämlich die Brownsche Bewegung. Wir werden diese zweite Aussage nicht beweisen nur den Beweis etwas später skizzieren, da wir wir auf einem anderen Weg ein
stärkeres Resultat zeigen werden. Ein direkter Beweis der Aussage findet sich in [RY99,
Thm. IV.1.3].
Satz 3.7. (i) Sei M ein f.s. stetiges Martingal mit endlicher Variation, dann ist M fast
sicher konstant.
56
KAPITEL 3. MARTINGALE
(ii) Sei M ein f.s. stetiges und beschränktes Martingal, dann ist M von endlicher quadratischer Variation.
Beweis. (i) Ohne Beschränkung der Allgemeinheit (s.o.) können wir annehmen, dass
M0 = 0 f.s. und wir werden zeigen, dass dann M fast sicher konstant gleich 0 ist.
Wir nehmen zuerst an die Variation von M ist f.s. beschränkt, d.h., V[0,t] (M ) < K fast
sicher. Dann gilt für eine beliebige Zerlegung P = {0 = t0 < t1 < . . . < tn = t} wegen der
Martingaleigenschaft
n−1
n−1
i
i
hX
hX
(Mti+1 − Mti )2 .
(Mt2i+1 − Mt2i ) = E
EMt2 = E
i=0
i=0
Daraus ergibt sich die Abschätzung
h
i
2
EMt ≤ E V[0,t] (M ) sup |Mti+1 − Mti | ≤ K E sup |Mti+1 − Mti | .
i
i
Hier gilt die obere Schranke konvergiert für Verfeinerungen der Zerlegung gegen null auf
Grund des Satzes von der Dominierten Konvergenz: Der Term im Erwartungswert konvergiert wegen der Stetigkeit von M f.s. gegen null und ist durch K beschränkt. Somit gilt
Mt = 0 f.s. für alle t ≥ 0.
Ist die Variation unbeschränkt, dann definieren wir die Stoppzeiten τn := inf{t ≥ 0 :
V[0,T ] ≥ n} und betrachten den gestoppte Prozess M τn , der nach Korollar 3.3 ebenfalls
ein Martingal ist. Diese Martingale sind von beschränkter Variation und es folgt aus dem
bereits bewiesenen Mτn ∧t = 0 fast sicher für alle t ≥ 0, n ∈ N. Wegen der Stetigkeit von
M gilt τn → ∞ f.s. und daraus folgt nun, dass auch für den ungestoppten Prozess M fast
sicher Mt = 0 gilt.
Bemerkung 3.7 (Lokalisierungsprinzip). Das Beweisprinzip, das im obigen Beweis angewendet wird, eine Eigenschaft zuerst für gestoppte Prozesse zu beweisen und dann aus
τn → ∞ f.s. auf die Aussage für den nicht gestoppten Prozess zu schließen, heißt Lokalisierung und ist von außerordentlicher Wichtigkeit. Die zentrale Rolle von Stoppzeiten in
Beweismethoden unterstreicht auch die Wichtigkeit das Optional Stopping Theorems.
Definition 3.3. Wir verwenden für die quadratische Variation eines adaptierten, f.s.
(rechts-)stetigen Prozesses X – falls sie existiert – die Notation hX, Xit := L2[0,t] (X), t ≥ 0.
Der quadratische Variationsprozess hX, Xi = (hX, Xit )t≥0 ist adaptiert und startet f.s. im
Ursprung, d.h., hX, Xi0 = 0 fast sicher.
Bemerkung 3.8. Im Allgemeinen gilt, dass Existenzaussagen über die quadratische Variation auch immer miteinschließen, dass der Prozess hX, Xi eine f.s. wachsende Modifikation
besitzt, die im Falle stetiger Prozesse ebenfalls stetig ist. Wie immer, identifizieren wir
dann den Prozess mit dieser Modifikation. Es ist klar, dass die quadratische Variation in t
3.5. DIE DOOB-MEYER ZERLEGUNG & DIE QUADRATISCHE VARIATION
57
wachsend und stetig im Falle stetiger Prozesse ist, wäre sie als f.s. Grenzwert definiert. Die
quadratische Variation ist aber ein in ω globales stochastisches Konzept – im Gegensatz
zur punktweise definierten totalen Variation – und der Grenzwert hält im Allgemeinen nur
in Wahrscheinlichkeit oder im Quadratmittel. Daher ist die Existenz einer stetigen und
wachsenden Modifikation eine nicht-triviale Eigenschaft.
Das folgende Resultat zeigt, warum in diesem Zusammenhang die quadratische Variation
von großem Interesse ist, da diese den geeigneten Kompensator für das Submartingal M 2
liefert
Proposition 3.2. Sei M ein f.s. stetiges Martingal mit f.s. stetiger quadratischer Variation
hM, M i, dann ist der Prozess M 2 − hM, M i ein Martingal. Die quadratische Variation
ist der bis auf Ununterscheidbarkeit eindeutige Prozess mit dieser Eigenschaft (und den
Eigenschaften in Definition 3.3).
Beweis. Es sei P = {0 < t1 < t2 < . . .} eine Zerlegung von R+ mit je endlich vielen
Gitterpunkten in jedem endlichen Intervall [0, t]. Dann definieren wir
X
k(t)+1
Tt (M ) := (Mt − Mtk ) +
2
(Mti+1 − Mti )2 ,
(3.1)
i=0
wobei k(t) so gewählt ist, dass tk ≤ t < tk+1 , und es gilt Tt (M ) konvergiert gegen hM, M it in
Wahrscheinlichkeit, wenn die Gitterweite |∆| der Zerlegung auf [0, t] gegen null konvergiert.
Dann erhält man
E[Tt (M ) − Ts (M )|Fs ] =
X
k(t)−1
= E[(Mt − Mtk(t) ) − (Ms − Mtk(s) ) |Fs ] +
2
2
E[(Mti+1 − Mti )2 |Fs ]
i=k(s)
X
k(t)−1
=
E[Mt2
−
Ms2
+
Mt2k(t)
−
Mt2k(t)
− 2Mt Mtk(t) + 2Ms Mtk(s) |Fs ] +
E[(Mti+1 − Mti )2 |Fs ] .
i=k(s)
Mit allen gemischten Termen verfährt man folgendermaßen, indem man die Martingaleigenschaft benutzt:
E[Mt Mtk(t) |Fs ] = E[E[Mt Mtk(t) |Ftk(t) ]|Fs ] = E[Mtk(t) E[Mt |Ftk(t) ]| Fs ] = E[Mt2k(t) |Fs ] .
Somit werden alle gemischten Terme zu Quadraten, die sich in der Summation passend
kürzen und man erhält
E[Tt (M ) − Ts (M )|Fs ] = E[Mt2 − Ms2 |Fs ]
⇔
E[Mt2 − Tt (M )|Fs ] = Ms2 − Ts (M ) ,
d.h., der Prozess Mt2 − Tt (M ) ist ein Martingal. Wir betrachten nun den Grenzwert (in
Wahrscheinlichkeit), der laut Voraussetzung existiert und zeigen dieser ist ebenfalls ein
Martingal. Dazu verwenden wir wiederum das Lokalisierungsprinzip.
58
KAPITEL 3. MARTINGALE
Ist das Martingal M beschränkt, dann ist auch Tt (M ) eine in Lp (P), p beliebig, beschränkte
Familie und daher gleichgradig integrierbar und es folgt für alle A ∈ Fs
lim E (Mt2 − Tt (M )) IA = E (Mt2 − hM, M it ) IA ,
|∆|→0
lim E (Ms2 − Ts (M )) IA = E (Ms2 − hM, M is ) IA .
|∆|→0
Daher gilt Mt2 − hM, M it ist ein Martingal. Falls M unbeschränkt ist, definieren wir die
Stoppzeiten τn := inf{t > 0 : |Mt | ≥ n oder |hM, M it | ≥ n} mit τn → ∞ f.s. und M τn ist
ein beschränktes Martingal. Daher ist auch
n
n
(M τ )2 − hM τn , M τn i = (M τ )2 − hM, M iτn
ein Martingal, wobei die Äquivalenz hM τn , M τn i = hM, M iτn eine Konsequenz des Optional
Stopping Theorems und von Satz 3.7 (i) ist. Nun schließt man auf die Konvergenz der (bedingten) Erwartungswerte aus folgenden Eigenschaften: Wir haben punktweise Konvergenz
der einzelnen Terme, da τn → ∞ f.s., und aus demselben Grund konvergieren auch |Mτn ∧t |2
und |hM, M iτn ∧t | monoton wachsend gegen |Mt |2 bzw. |hM, M it |. Aus Satz A.3 folgt die
gleichgradige Integrierbarkeit und somit die Konvergenz der (bedingten) Erwartungswerte.
Schlussendlich zeigen wir noch die Eindeutigkeitsaussage. Sei A ein zweiter Prozess, sodass
M 2 − A ein Martingal ist, dann folgt
Z := M 2 − hM, M i − M 2 + A = A − hM, M i
ist ein stetiges Martingal von endlicher totaler Variation3 mit Z0 = 0 fast sicher. Aus Satz
3.7 (i) folgt nun das A eine Modifikation von hM, M i ist und da beide rechts-stetig sind
folgt die Ununterscheidbarkeit.
Beweisskizze Satz 3.7 (ii). Um die Existenz der quadratischen Variation zu zeigen beginnt
man wie im Beweis zu Satz 3.2 und erhält die Martingale Mt2 − Tt (M ). Man muss nun
zeigen, dass Tt (M ) auf endlichen Intervallen [0, T ] gleichmässig in L2 (P) konvergiert, d.h.,
zu zeigen ist, die Tt (M ) bilden eine Cauchy-Folge und die Konvergenz der Cauchy-Folge
ist gleichmässig für t ≤ T (folgt aus der Doobschen Ungleichung). Aus der gleichmässigen
Konvergenz kann man dann auch auf die Existenz einer f.s. stetigen und wachsenden Modifikation schließen.
Weiters kann man auch das Lokalisierungsprinzip verwenden um die Existenz der quadratischen Variation auf nicht-notwendigerweise beschränkte Martingale ausdehnen. Wir
werden aber einen anderen – in den sich überschneidenden Ergebnissen aber äquivalenten
– Zugang wählen, s. [RY99, S. 123f], und das quadratische Variationskonzept für lokale
Martingale, s. Abschnitt 3.5.1.
3
Es ist aus der Analysis bekannt, dass die Differenz zweier wachsender Funktionen von beschränkter
Variation ist.
3.5. DIE DOOB-MEYER ZERLEGUNG & DIE QUADRATISCHE VARIATION
59
Beispiel 3.11 (Brownsche Bewegung). Die Brownsche Bewegung B ist ein stetiges Martingal mit quadratischer Variation hB, Bit = t und wir haben bereits in Beispiel 3.1 gesehen,
dass der Prozess Bt2 − t ein Martingal ist.
Das Problem mit der Existenz der quadratischen Variation im Satz 3.7 ist, dass dieser nicht
das klassische Beispiel eines stetigen Martingals, der Brownschen Bewegung abdeckt, die
ja nicht beschränkt ist. Nachfolgend werden wir diesen Makel beheben.
Definition 3.4. (a) Wir bezeichnen mit M2 bzw. Mc2 die Menge der f.s. rechts-stetigen
bzw. stetigen quadrat-integrierbaren Martingale.
(b) Wir bezeichnen mit S bzw. Sa , a > 0, die Familie aller f.s endlichen bzw. aller
f.s. durch a beschränkten Stoppzeiten. Dann ist der f.s. rechts-stetige Prozess X ein
Prozess der Klasse D, falls die Familie {Xτ , τ ∈ S} gleichgradig integrierbar ist und
X ist ein Prozess der Klasse DL, falls für jedes a ∈ (0, ∞) die Familie {Xτ , τ ∈ Sa }
gleichgradig integrierbar ist.
(c) Ein adaptierter Prozess X ist regulär falls für alle a > 0 gilt τn ∈ Sa mit τn → τ
impliziert EXτn → EXτ .
Bemerkung 3.9. Die Brownsche Bewegung ist ein Element von Mc2 und der kompensierte
Poisson Prozess ist ein Element von M2 . Weiters gilt ein Prozess der Klasse D ist auch
ein Prozess der Klasse DL und ein Prozess der Klasse D ist gleichgradig integrierbar, da
{Xt , t ≥ 0} ⊂ {Xτ , τ ∈ S}. Für die Klasse DL gilt die gleichgradige Integrierbarkeit
nur lokal, d.h., ist τ ein f.s. beschränkte Stoppzeit, dann ist der gestoppte Prozess X τ
gleichgradig integrierbar. Weiters gilt ein Prozess X ist genau dann von der Klasse DL,
wenn für alle t ≥ 0 der ‘gestoppte’ Prozess X t von der Klasse D ist.
Beispiel 3.12. Ein gleichgradig integrierbares, f.s. rechts-stetiges Martingal ist ein Prozess
der Klasse D: Aus dem Optional Stopping Theorem folgt Xτ = E[X∞ |Fτ ] und die Familie
{E[X∞ |Fτ ], τ ∈ S} ist nach Beispiel A.3 gleichgradig integrierbar. Für Martingale ist also
die gleichgradige Integrierbarkeit äquivalent zur Eigenschaft D. Für andere Prozesse muss
das nicht gelten, diese können gleichgradig integrierbar sein aber nicht von der Klasse D.
Beispiel 3.13. Wie im vorherigen Beispiel folgt sofort, dass jedes f.s. rechts-stetige Martingal ein Prozess der Klasse DL ist.
Beispiel 3.14. Ein f.s. rechts-stetiges, positives Submartingal ist ein Prozess der Klasse DL:
Aus dem Optional Stopping Theorem folgt |Xτ | ≤ |E[Xa |Fτ ]| für alle τ ∈ Sa und nach
Beispiel A.3 ist die Familie der Majoranten gleichgradig integrierbar. Dies ist vor allem
interessant für Martingale M ∈ M2 , da dann nach Proposition 3.1 der Prozess M 2 ein
positives Submartingal ist.
Beispiel 3.15. Sei M ein f.s. rechts-stetiges Martingal und A ein f.s. rechts-stetiger wachsender, adaptierter, integrierbarer Prozess, dann ist X = M + A ein Submartingal der Klasse
DL: Die Submartingaleigenschaft des Prozesses X ist klar. Aus dem Optional Stopping
Theorem und da A wachsend ist folgt
Mτ ≤ Xτ ≤ Mτ + E[Aa |Fτ ]
=⇒
|Xτ | ≤ |E[Ma |Fτ ]| + |E[Aa |Fτ ]|
60
KAPITEL 3. MARTINGALE
und wiederum bilden die Majoranten eine gleichgradig integrierbare Familie.
Wir betrachten das Martingal M 0 = M 2 − hM, M i aus Proposition 3.2. Umformen liefert
M 2 = M 0 + hM, M i und daher erhalten wir für den Prozess M 2 eine Zerlegung in ein
Martingal und einen wachsenden Prozess wie in Bsp. 3.15. Also folgt M 2 ist von der
Klasse DL, falls die quadratische Variation existiert. Weiters nach Bsp. 3.14 ist aber M 2
sicherlich von der Klasse DL, falls M quadrat-integrierbar ist.
Dies legt die Vermutung nahe, dass jedes quadrat-integrierbare Martingal M mit M 2 der
Klasse DL eine quadratische Variation besitzt. Oder umgekehrt, dass jedes Submartingal
der Klasse DL eine eindeutige Zerlegung in ein Martingal und einen wachsenden Prozess
besitzt. Die erste Vermutung lässt sich nicht direkt beweisen, die zweite aber schon. Das
Resultat ist eine Variante der Doob-Meyer Zerlegung und falls die quadratische Variation
existiert, ist sie – zumindest im stetigen Fall – Ununterscheidbar vom wachsenden Prozess
in der Zerlegung. Für den Beweis der Doob-Meyer Zerlegung sei auf die Literatur verwiesen.
Satz 3.8 (Doob-Meyer Zerlegung). Ein f.s. rechts-stetiges Submartingal X der Klasse DL
besitzt eine bis auf Unuterscheidbarkeit eindeutige Zerlegung X = M + A in ein f.s. rechtsstetiges Martingal M und einen adaptierten, wachsenden, vorhersehbaren Prozess A. Ist X
der Klasse D, dann ist A integrierbar4 und M ist gleichgradig integrierbar. Der wachsende
Prozess A ist f.s. stetig, genau dann wenn X regulär ist.
Beispiel 3.16 (Poisson Prozess). Der Poisson-Prozess Nt ist ein rechts-stetiges, positives
Submartingale und daher nach Bsp. 3.14 ein Prozess der Klasse DL. Es gilt At = λt und
die Martingaleigenschaft von Nt − λt haben wir bereits in Bsp. 3.2 behandelt.
Das folgende Korollar ergibt sich sofort aus der Doob-Meyer Zerlegung und dem zusätzlichen
Wissen, dass jedes nicht-negative, f.s. stetige Submartingal regulär ist.
Korollar 3.4. Sei M ein Martingal aus M2 , dann existiert ein eindeutiger, f.s. rechtsstetiger und wachsender, vorhersehbarer Prozess A mit A0 = 0 f.s., sodass der Prozess
M 2 − A ein Martingal ist. Falls M f.s. stetig ist, dann ist auch A f.s. stetig. Der Prozess
A heißt die quadratische Variation und wir verwenden die Notation A = hM, M i.
Beispiel 3.17 (Brownsche Bewegung). Wie bereits direkt gezeigt, ist der Prozess Bt2 − t ein
Martingal.
et = Nt − λt ein
Beispiel 3.18 (Poisson Prozess). Wie wir gesehen haben ist der Prozess N
e, N
e it = λt.
Martingal und es ist leicht zu zeigen, dass hN
4
Im Zusammenhang mit wachsenden, positiven Prozessen ist mit Integrierbarkeit des Prozesses meist
die Eigenschaft EA∞ < ∞ verbunden. Diese Eigenschaft ist aber tatsächlich äquivalent zur Integrierbarkeit
im Sinne von EhM, M it < ∞ für alle t ≥ 0, und der L1 (P)–Beschränktheit der Familie {hM, M it , t ≥ 0}.
Da nach dem Satz von der Monotonen Konvergenz gilt EhM, M it konvergiert monoton wachsend gegen
hM, M i∞ , folgt supt≥0 EhM, M it = hM, M i∞ < ∞ (L1 (P)–Beschränktheit) und somit auch EhM, M it <
∞ für alle t ≥ 0 (Integrierbarkeit). Ebenso gilt die Umkehrung, da aus monoton wachsend und beschränkt
die Konvergenz gegen einen endlichen Grenzwert folgt.
3.5. DIE DOOB-MEYER ZERLEGUNG & DIE QUADRATISCHE VARIATION
61
Da wegen der Eindeutigkeitsaussage in Satz 3.2 und Satz 3.4 im Falle stetiger Martingale
der wachsende Prozess A in der Zerlegung mit der quadratischen Variation definiert als
Grenzwert der quadrierten Inkremente – falls dieser ebenfalls existiert – übereinstimmt,
führt die Begriffs- und Notationsgleichheit hier zu keinem Widerspruch. Im Allgemeinen
ist die quadratische Variation eine Verallgemeinerung des Konzepts der quadratischen Variation im “ursprünglichem Sinne” aus Kapitel 1. Da in der Stochastischen Analysis vor
allem die Eigenschaft, dass der Prozess M 2 − hM, M i ein Martingal ist, von Bedeutung
ist und weniger die Konvergenz der Inkremente, führt dies dazu, dass normalerweise die
quadratische Variation mit dem wachsenden Prozess in der Doob-Meyer Zerlegung gleich
gesetzt wird. Im Falle, stetiger Martingale sind die Konzepte tatsächlich äquivalent und die
Existenz der Doob-Meyer Zerlegung impliziert die Existenz der quadratischen Variation im
“ursprünglichen Sinn”.5 Für Sprungprozesse gilt dies im Allgemeinen nicht.6 Ein Beweis
des folgenden Satzes, wiederum mittels des Lokalisierungsprinzips, findet sich in [KS91,
Thm. 5.8, Chap. 1].
Proposition 3.3. Für ein M ∈ Mc2 gilt hM, M i ist auch die quadratische Variation
im ursprünglichen Sinne, d.h., Tt (M ) definiert in (3.1) konvergiert in Wahrscheinlichkeit
gegen hM, M it für alle t ≥ 0. Weiters gilt für jede Stoppzeit τ , dass hM τ , M τ i = hM, M iτ .
Terminologie: Im (kurzen) Rest des Kapitels bezeichnet die quadratische Variation immer den wachsenden Prozess in der Doob-Meyer Zerlegung. In der Literatur wird die so
definierte quadratische Variation, u.a., auch als predictable quadratic variation [JS87], conditional quadratic variation [Pro04], quadratic characteristic [JS87], (natural) increasing
process [KS91, RY99] oder angle bracket [JS87, Pro04] bezeichnet. Das letztere ist im
Kontrast zum pfadweise definiertem bracket process [X, X], der ebenfalls quadratische Variation genannt wird und mit hX, Xi im Falle stetiger Martingale übereinstimmt, vgl. eine
kurze Diskussion in [Pro04, S. 122f]. Nicht genug der Verwirrung, in [Mét82, RY99] wird
der Prozess hM, M i bracket process genannt.
Die quadratische Variation ist vor allem auch deswegen von Interesse, da sich viele Eigenschaften eines Martingals durch Eigenschaften der quadratischen Variation angeben lassen
(und umgekehrt). Die Beweise der folgenden Eigenschaften der quadratischen Variation
sind Anwendungen der bisherigen Resultate (obwohl nicht immer ganz einfach) und finden
sich in, z.B., [KS91, RY99]. Da hM, M it f.s. monoton wachsend ist, existiert der punktweise Limes limt→∞ hM, M it =: hM, M i∞ ∈ R+ ∪ {∞} f.s. und hM, M i∞ ist eine messbare
Abbildung nach dem Satz von der Monotonen Konvergenz.
Proposition 3.4. Im folgende sei M jeweils ein quadrat-integrierbares, f.s. stetiges Martingal, d.h., M ∈ Mc2 .
5
Die Umkehrung ist nach Satz 3.2 klar, d.h., die Existenz einer f.s. wachsenden, stetigen quadratischen
Variation erlaubt eine Zerlegung von der Form einer Doob-Meyer Zerlegung.
6
Zum Beispiel, lässt sich für den kompensierten Poisson Prozess Nt − λt leicht zeigen, dass die Summe
der quadrierten Inkremente nicht gegen λt
P sonder f.s. gegen die Summe der quadrierten Sprunghöhen
konvergiert, d.h., der Grenzwert ist durch s≤t (Ns − Ns− )2 gegeben.
62
KAPITEL 3. MARTINGALE
(i) Die quadratische Variation ist genau dann f.s. konstant, d.h., hM, M i = 0 f.s., falls
M f.s. konstant ist, d.h. Mt = M0 f.s. für alle t ≥ 0. Genauer, die konstanten Pfadabschnitte von M und hM, M i stimmen f.s. überein, d.h., für fast alle ω ∈ Ω gilt für
alle 0 ≤ a < b < ∞, dass
∀ t ∈ [a, b]
Mt (ω) = Ma (ω)
⇐⇒
hM, M it (ω) = hM, M ia (ω)
∀ t ∈ [a, b] .
(ii) Das Martingal M ist beschränkt in L2 (P), d.h., supt≥0 EMt2 < ∞, genau dann wenn
für die quadratische Variation gilt EhM, M i∞ < ∞.
(iii) Das Martingal M konvergiert genau dann f.s. für t → ∞ falls hM, M i∞ < ∞ fast
sicher. Genauer, es gilt die Gleichheit der Mengen
ω ∈ Ω : lim Mt (ω) existiert in R = ω ∈ Ω : hM, M i∞ (ω) < ∞ .
t→∞
(iv) Die quadratische Variation von M ist genau dann deterministisch, d.h., es existiert
eine Funktion f : R+ → R+ mit hM, M it = f (t), wenn M ein Gauss-Prozess (Definition 2.1) ist. Dieser ist eindeutig durch die quadratische Variation (bestimmt eindeutig
die Kovarianzfunktion) und EM0 (bestimmt eindeutig die Mittelwertfunktion) festgelegt (Satz 2.5).
(v) (Bernstein-Ungleichung) Das Martingal M erfülle zusätzlich M0 = 0 f.s. und es existiert ein c > 0 so dass hM, M it ≤ ct f.s. für alle t ≥ 0, dann gilt für alle α > 0
α2 t
P sups≤t Ms ≥ αt ≤ e− 2c .
(vi) (Lenglart-Domination) Für jede Stoppzeit τ und alle a, b > 0 gilt
b
P supt≤τ |Mt |2 ≥ a ≤ + P hM, M iτ ≥ b .
a
(Diese Eigenschaft gilt ohne Einschränkung für alle càdlàg Martingale.)
Bemerkung 3.10. Die Aussage (ii) dieses Proposition hat einige interessante Folgerungen:
Aus EhM, M i∞ < ∞ folgt also nach Satz A.2 auch die gleichgradige Integrierbarkeit von
M . Daher existiert ein integrierbarer f.s. Grenzwert M∞ nach Satz 3.4. Weiters folgt aus
EMt2 = EhM, M it ≤ EhM, M i∞ < ∞ für alle t ≥ 0 dass supt≥0 EMt2 < ∞ und daher ist
2
< ∞. Daraus folgt
nach Satz 3.3 auch der f.s. Grenzwert von Mt2 integrierbar, d.h., EM∞
2
nun aus Satz 3.4, dass auch das positive Submartingal M gleichgradig integrierbar sind.
Das ergibt nun schlussendlich, dass aus EMt2 = EhM, M it für alle t ≥ 0 folgt
2
= EhM, M i∞ ,
EM∞
wobei das Vertauschen von Limes und Erwartungswert links durch die punktweise Konvergenz und die gleichgradige Integrierbarkeit und rechts durch den Satz von der Monotonen
Konvergenz gerechtfertigt ist.
3.5. DIE DOOB-MEYER ZERLEGUNG & DIE QUADRATISCHE VARIATION
63
Bemerkung 3.11. [Charakterisierung der Brownschen Bewegung] Aus Proposition 3.4 (iii)
folgt, dass die Brownsche Bewegung (zu gegebener Filtration) das (bis auf Versionen) eindeutige Martingal M mit hM, M it = t und EM0 = 0 ist. Diese Aussage ist ein Hinweis
darauf, dass die quadratische Variation im Zusammenspiel mit anderen charakteristischen
Grössen eines Prozesses, in diesem Fall, z.B., der Mittelwertfunktion, dazu benutzt werden
kann einen stochastischen Prozess eindeutig zu bestimmen, vgl. den Begriff des Martingalproblems in Definition 3.9.
3.5.1
Erweiterungen des Konzepts der quadratischen Variation
Mittels des Lokalisierungsprinzips kann man die Martingaleigenschaft lokalisieren und Satz
3.7 (ii) verwenden um einen allgemeinen quadratischen Variationsbegriff einzuführen.
Definition 3.5. Ein adaptierter, f.s. rechts-stetiger Prozess X heißt ein lokales Martingal,
falls eine wachsende Folge von Stoppzeiten τn , n ∈ N, existiert mit τn ↑ ∞ f.s., und für
jedes n ∈ N der Prozess X τn I[τn >0] ein Martingal ist.
Bemerkung 3.12. Ohne Beschränkung der Allgemeinheit kann in Definition 3.5 die Folge der
Stoppzeiten so gewählt werden, dass sie aus beschränkten Stoppzeiten besteht, z.B. τen =
τn ∧ n, und / oder, dass die gestoppten Prozesse X τn I[τn >0] gleichgradig integrierbar sind.
Weiters ist klarerweise jedes Martingal ein lokales Martingal.
Das zu lokalen Martingalen gehörige Zerlegungsresultat (für stetige) lokale Martingale findet sich, z.B., in [RY99].
Satz 3.9. Sei M ein f.s. stetiges lokales Martingal mit M0 = 0 f.s., dann existiert ein
eindeutiger f.s. wachsender stetiger Prozess A mit A0 = 0 f.s., so dass M 2 − A ein lokales
Martingal ist. Der Prozess hM, M i := A heißt die quadratische Variation des lokalen
Martingals. Der Prozess hM, M i ist auch die quadratische Variation ‘im ursprünglichen
Sinn’.
Die Verbindung zur Doob-Meyer Zerlegung folgt aus folgendem Resultat, s. [RY99]: Ein
lokales Martingal ist genau dann ein Martingal falls es ein Prozess der Klasse DL ist.
Ist also M ein quadrat-integrierbares lokales Martingal der Klasse DL, dann ist M ein
quadrat-integrierbares Martingal und Korollar 3.4 gilt. Weiters ist aber das lokale Martingal
M 2 − hM, M i ebenfalls ein Prozess der Klasse DL und somit ebenfalls ein Martingal. Es
folgt aus der Eindeutigkeit in Korollar 3.4, dass in diesem Falle die ‘beiden’ quadratischen
Variationsprozesse aus Satz 3.9 und Korollar 3.4 übereinstimmen.
Eine zweite Erweiterung der quadratischen Variation ergibt sich für eine Klasse von Prozessen, die aus der Struktur der Doob-Meyer Zerlegung definiert sind. Diese Prozessklasse
bildet vor allem in den Monographien [JS87, Pro04] den Ausgangspunkt der Untersuchungen.
Definition 3.6. Ein adaptierter Prozess X heißt ein Semimartingal, falls eine Zerlegung
X = M + A existiert, so dass M ein lokales Martingal und A ein Prozess von beschränkter
Variation ist.
64
KAPITEL 3. MARTINGALE
Klarerweise ist jedes Martingal ein Semimartingal und aus der Doob-Meyer Zerlegung folgt,
dass jedes f.s. rechts-stetige Submartingal der Klasse DL ein Semimartingal ist. Weiters
kann man zeigen, dass im Falle einer f.s. stetigen Semimartingals die Prozesse M und A
in der Zerlegung X = M + A ohne Beschränkung der Allgemeinheit als f.s. stetig und
eindeutig gewählt werden können.
Satz 3.10. Ein f.s. stetiges Semimartingal X = M + A besitzt endliche quadratische
Variation (‘im ursprünglichen Sinn’) und es gilt L2[0,t] (X) = hM, M it für alle t ≥ 0.
Hier bezeichnet hM, M i klarerweise die quadratische Variation des lokalen Martingals M .
Kann auf das Semimartingal X auch einer der oberen Zerlegungssätze angewandt werden, dann sind die quadratischen Variationsbegriffe natürlich wiederum verträglich, d.h.,
die Prozesse sind ununterscheidbar. Zum Beispiel, ist das Semimartingal X = M + A
ein f.s. rechts-stetiges Submartingal der Klasse DL, dann sind M und A die eindeutigen
Prozesse aus der Doob-Meyer Zerlegung.
Die Klassen der Prozesse, für welche wir bisher einen quadratischen Variationsbegriff definiert haben, d.h., quadrat-integrierbare Martingale, lokale Martingale und Semimartingale,
besitzen alle die Eigenschaft, dass eine Summe oder eine Differenz dieser Prozesse wiederum
ein Prozess derselben Klasse ist.7 Dies ist der Schlüssel um in allen Fällen die quadratische
Kovariation zu definieren.
Definition 3.7. Die Prozesse M, N seien Martingale in M2 / lokale Martingale / Semimartingale, dann ist die quadratischen Kovariation hN, M i definiert durch die Polarisationsformel
1
hN, M i := hM + N, M + N i − hM − N, M − N i .
4
Klarerweise ist die Notation mit der quadratischen Variation veträglich falls M = N , d.h.,
die‘qudratische Kovariation’ hM, M i ist jeweils gleich der qudratischen Variation hM, M i
im vorherigen Sinn
Es lässt sich im stetigen Fall auch für die Kovariation eine Konvergenz (in Wahrscheinlichkeit) der addierten multiplizierten Inkremente analog zu Proposition 3.3 zeigen. Weiters
gilt, die quadratische Kovariation ist, z.B., im Fall von Prozessen M, N ∈ Mc2 der eindeutige, adaptierte, stetige Prozess A von beschränkter Variation mit A0 = 0 f.s., sodass M N −A
ein f.s. stetiges Martingal ist und ähnliche Aussagen gelten auch im Falle rechts-stetiger
Martingale bzw. lokaler Martingale.
Es ist leicht zusehen, dass die quadratische Kovariation eine Bilinearform auf dem jeweiligen
Vektorraum der entsprechenden Familie von Prozessen ist. Prozesse M, N mit hM, N it = 0
f.s. für alle t ≥ 0 heißen daher auch orthogonal, was, z.B., im Falle von Prozessen ∈ M2
bedeutet, dass ihre Inkremente bedingt unabhängig sind.
7
Da allgemeiner beliebige Linearkombinationen derartiger Prozesse wiederum Prozesse der Klasse sind,
bilden diese Familien lineare Räume über R.
3.6. SCHWACHE KONVERGENZ VON MARTINGALEN
3.6
65
Schwache Konvergenz von Martingalen
In diesem letzten Teil untersuchen wir die Konvergenz von Martingalen im Sinne von stochastischen Prozessen im Gegensatz zur Konvergenz entlang des Zeithorizonts wie in Kapitel 3.3. Zuerst präsentieren wir hierzu kurz die entsprechenden grundlegenden Resultate.
Diese sind eine Verallgemeinerung des bekannten Konzepts der schwachen Konvergenz von
Rd -wertigen Zufallsvariablen gibt. Eine ausführliche Diskussion findet sich, z.B., in [EK86].
Im Folgenden bezeichnet E einen vollständigen, seperablen metrischen Raum und E die
von der Metrik erzeugte Borel-σ-Algebra. Weiters sind Pn und P Maße auf dem messbaren
Raum (E, E).
Definition 3.8. (a) Die Folge der Maße Pn , n ∈ N, konvergiert schwach gegen P falls
für alle stetigen und beschränkten Funktionen f : E → R gilt
Z
Z
n
lim
f dP = f dP .
n→∞
Eine Folge von Zufallsvariablen Xn , n ∈ N, mit Werten in E konvergiert schwach
gegen eine Zufallsvariable X mit Werten in E, falls die Folge der Bildmaße von Xn
schwach gegen das Bildmaß von X konvergiert.
(b) Ein Folge von Maßen Pn , n ∈ N heißt straff, wenn für jedes > 0 eine kompakte
Menge K ∈ E existiert, so dass
inf n∈N Pn (K ) ≥ 1 − .
Ein Folge von Zufallsvariablen Xn , n ∈ N, mit Werten in E heißt straff, falls die
Folge der Bildmaße straff ist.
Bemerkung 3.13. Die Zufallsvariablen Xn , n ∈ N, und X in der obigen Definition können
auf beliebigen auch unterschiedlichen Wahrscheinlichkeitsräumen definiert sein. Im Allgemeinen ist die schwache Konvergenz eine Aussage über Maße und in eine konvergente Folge
von Zufallsvariablen kann auch als ein konvergente Folge der Äquivalenzklasse aller Variationen aufgefasst werden. Klarerweise gilt, dass der schwache Grenzwert eindeutig ist. Der
Satz von Portmanteau liefert für die schwache Konvergenz weitere, zur Definition 3.8 (a)
äquivalente Bedingungen .
Den Zusammenhang von Straffheit und schwacher Konvergenz liefert der folgende Satz
[EK86].
Satz 3.11 (Satz von Prohorov). Sei E ein vollständiger, separabler metrischer Raum. Ein
Folge von Maßen Pn auf (E, E) bzw. von Zufallsvariablen Xn mit Werten in E besitzt
genau dann eine schwach konvergente Teilfolge falls die Maße bzw. die Zufallsvariablen
straff sind.
Bemerkung 3.14. In anderen Worten, besagt der Satz von Prohorov, dass Straffheit einer
Familie von Maßen äquivalent zur relativen Kompaktheit der Familie in der Topologie
66
KAPITEL 3. MARTINGALE
der schwachen Konvergenz von Maßen ist, d.h.,
R die gröbste Topolgie auf dem Raum der
Maße über (E, E), so dass die Abbildung µ 7→ f dµ stetig ist für alle f ∈ Cb (E), vgl. die
schwach∗ -Topologie in der Funktionalanalysis. Diese Topologie ist die durch die Prohorov
Metrik metrizierbar. Gilt, dass jede konvergente Teilfolge gegen dasselbe Maß / denselben
Grenzprozess konvergiert, dann sprechen wir o.B.d.A. davon, dass auch die Folge gegen
dieses / diesen konvergiert.
Der Satz von Prohorov soll nun auf eine Folge von adaptierten càdlàg Prozessen X n definiert auf filtrierten Wahrscheinlichkeitsräumen (Ωn , F n , (Ftn )t≥0 , Pn ) mit rechts-stetiger Filtration angewendet werden. Dazu werden Prozesse als Zufallsvariablen aufgefasst, die Werte in einem passenden kanonischen Wahrscheinlichkeitsraum annehmen, z.B., den Raum
der càdlàg Funktionen D(R+ , R) bzw. dem Raum der stetigen Funktionen C(R+ , R). Daher ist es zuerst notwendig, dass diese Räume die passende metrische Struktur bekommen,
so dass man auch die kompakten Mengen charakterisieren kann. Wir wollen darauf hier
nicht weiter eingehen und bemerken nur, dass man auf den beiden Räumen eine passende
Metrik definieren kann, die Skorokhod Metrik, so dass diese vollständige, metrische Räume
werden. Die Definition der Skorokhod Metrik ist eher umständlich und auch selten explizit von Nöten, da viele nützliche hinreichende Bedingungen für die Kompaktheit bekannt
sind. Im Speziellen sind folgende Bedingungen ausreichend, so dass reelle Prozess straff
sind [EK86, JS87]: für alle T, > 0 existieren ein k und ein N mit
supn≥N Pn supt∈[0,T ] |Xtn | ≥ k ≤ (3.1)
und X n erfüllt Aldous’ Kriterium, d.h., für alle T, , δ > 0 existieren ein h > 0 und ein
N > 0, so dass für jede Folge von Stoppzeiten σn mit σn < T f.s. gilt
supn≥N sup0≤s≤h Pn [|Xσnn +s − Xσnn | > δ] < .
(3.2)
Zusätzlich ist oft noch von Interesse ob Grenzprozesse f.s. stetig sind. In diesem Zusammenhang gilt, ist die Folge X n straff, dann ist jeder schwache Grenzwert einer Teilfolge genau
dann ein f.s. stetiger Prozess falls die Sprunghöhen der Prozesse auf kompakten Intervallen
in Wahrscheinlichkeit gegen null konvergieren, d.h., für alle T, > 0 gilt
n
lim Pn supt≤T |Xtn − Xt−
| > = 0.
(3.3)
n→∞
Dies bedeutet vor allem, dass der schwache Grenzwert von f.s. stetigen Prozessen ebenfalls
f.s. stetig ist.
Der folgende Satz zeigt, dass schwache Konvergenz von Prozessen das Analogon zu Konvergenz der endlich-dimensionalen Verteilungen ist, die ja eine Äquivalenzklasse von Variationen eindeutig bestimmen. Ein Beweis des folgenden Satzes findet sich, z.B., in [EK86, JS87].
Satz 3.12. (i) Konvergieren die càdlàg Prozesse Xn schwach gegen den càdlàg Prozess
X, dann konvergieren die endlich-dimensionalen Verteilungen von Xn schwach gegen
die endlich-dimensionalen Verteilungen von X.
3.6. SCHWACHE KONVERGENZ VON MARTINGALEN
67
(ii) Umgekehrt gilt, konvergieren die endlich-dimensionalen Verteilung von Xn gegen die
endlich-dimensionalen Verteilungen von X und es gilt, die Familie Xn ist straff, dann
konvergiert Xn schwach gegen X.
Wir kommen nun zur schwachen Konvergenz von Martingalen. Wir können dazu die quadratisch Variation benutzen, die einerseits ein Kriterium für die Existenz eines schwachen
Grenzwertes liefert, als auch den Grenzprozess charakterisiert. Wir bemerken, dass im Allgemeinen der Grenzwert von Martingalen nicht notwendigerweise wiederum ein Martingal
sein muss.
Satz 3.13. Sei M n eine Folge quadrat-integrierbarer Martingale. Erfüllt die Folge der
quadratischen Variationen hM n , M n i die Bedingungen (3.1) und (3.2), dann erfüllt auch
die Folge der Martingale M n die Bedingungen (3.1) und (3.2).
Beweis. Die Aussage des Satzes folgt sofort mittels der Lenglart-Domination Eigenschaft
in Satz 3.4 (f). Sei T, > 0 fest gewählt, dann wählen wir im ersten Fall a = k 2 und
b = k 2 /2 und somit gilt
Pn supt∈[0,T ] |Mtn | ≥ k ≤ + Pn hM n , M n iT ≥ k 2 /2 .
2
Da die Folge der quadratischen
(3.1)
n Variationen
erfüllt, existieren ein N und ein k, so
n
n
2
dass für alle n ≥ N gilt P hM , M it ≥ k /2 ≤ /2 und die Bedingung (3.1) folgt für
die Prozesse M n .
Die zweite Bedingung folgt analog. Aus dem Optional Stopping Theorems folgt, dass der
fn := M n − M n ein Martingal bezüglich der Filtration Fen := F n
Prozess s 7→ M
s
σn +s
σn
s
σn +s mit
n fn
n
n
n
n
f
quadratischer Variation hM , M is := hM , M iσn +s − hM , M iσn ist. Es folgt wiederum
aus der Lenglart-Domination Eigenschaft, dass für fixes , δ > 0 gilt
Pn |Mσnn +s − Mσnn | ≥ δ
≤
+ Pn hM n , M n iσn +s − hM n , M n iσn ≥ δ 2 /2 .
2
Nun erfüllt die Folge der quadratische Variationen hM n , M n i nach Voraussetzung Aldous’
Kriterium (3.2) und somit kann kann ein N, h > 0 so gewählt werden, dass die Wahrscheinlichkeit in der rechten Seite für alle n ≥ N und alle s ∈ [0, h] kleiner als /2 ist. Daraus
folgt, dass die Folge der Martingale M n ebenfalls die Bedingung (3.2) erfüllt.
Die Straffheit einer Folge garantiert nur die Existenz eines Grenzwert einer Teilfolge der
Prozesse. Die zweite Aufgabe ist es diesen Grenzwert, falls er existiert, genauer zu charakterisieren. Ein Beweis des folgenden Satzes findet sich in [JS87, IV.6.1, IX.1.1, IX.1.19].
Satz 3.14. (i) Sei M n eine gegen M schwach konvergente Folge von f.s. gleichmässig
beschränkten Martingalen, d.h., |Mtn | ≤ K f.s. für alle n ∈ N und t ≥ 0. Dann ist M
ein Martingal bezüglich der von M erzeugten Filtration.
68
KAPITEL 3. MARTINGALE
(ii) Sei M n eine gegen M schwach konvergente Folge von lokalen Martingalen mit f.s. gleichn
| ≤ K f.s. für alle n ∈ N und t ≥ 0.
mässig beschränkten Sprunghöhen, d.h., |Mtn −Mt−
Dann ist M ein lokales Martingal bezüglich der von M erzeugten Filtration.
Gilt in beiden Fällen noch zusätzlich, dass die Prozesse M n f.s. stetig sind, dann konvergiert die Folge der quadratischen Variationen hM n , M n i schwach gegen die quadratische
Variation des Grenzprozesses hM, M i.
Bemerkung 3.15. In Bezug auf die Konvergenz der quadratischen Variation ist noch anzumerken, dass in beiden Fällen des Satzes die quadratische Variation zu den Prozessen M n
und M existiert, s. Satz 3.7 und Satz 3.9. Insbesondere sei noch zu Teil (ii) dieses Satzes
zu bemerken, dass zusammen mit Bedingung (3.3) folgt, dass schwache Grenzwerte von
f.s. stetigen lokalen Martingalen wiederum f.s. stetige lokale Martingale sind.
Dieses Resultat der Konvergenz der quadratischen Variationen kann nun schlussendlich
dazu verwendet werden um den Grenzprozess M eindeutig zu charakterisieren.8 Diese
Aufgabenstellung fällt unter den Begriff des so genannten Martingalproblems. Das Martingalproblem als ein präzise definiertes eindeutiges Konzept existiert nicht in der Literatur,
sondern der Name Martingalproblem wird allgemein für Problemstellungen ähnlicher Art
verwendet: das Auffinden eines Wahrscheinlichkeitsmaßes, so dass ein Prozess oder eine
Familie von Prozessen ein Martingal (oder lokales Martingal oder Semimartingal) ist. Varianten dieses Konzepts werden ausführlich in den Monographien [EK86, JS87] behandelt.
Wir begnügen uns mit der folgenden Definition, die das Konzept im vorliegenden Fall
ausreichend darstellt.
Definition 3.9. Auf einem filtrierten messbaren Raum (Ω, F, (Ft )t≥0 ) mit rechts-stetiger
Filtration sei ein reeller càdlàg Prozess X, ein f.s. wachsender, stetiger reeller Prozess A
mit A0 = 0 f.s. und ein Maß P0 auf (Ω, F0 ) gegeben.
(a) Ein Wahrscheinlichkeitsmaß P auf (Ω, F) heißt eine Lösung des Martingalproblems
(A, P0 ) falls der Prozess X bezüglich (Ω, F, (Ft )t≥0 , P) ein lokales Martingal mit quadratischer Variation hX, Xi = A ist und PX0 = P0 gilt.
(b) Das Martingalproblem besitzt eine eindeutige Lösung, wenn es genau ein derartiges
Wahrscheinlichkeitsmaß P gibt.
Normalerweise, wird in einem Martingalproblem als der zu Grunde liegende filtrierte messbare Raum (Ω, F, (Ft )t≥0 ) ein passender kanonischer Raum gewählt, d.h., D(R+ , R) oder auch
C(R+ , R) ausgestattet mit dem kanonischen Prozess, der kanonischen σ-Algebra und der
kanonischen Filtration.
Beispiel 3.19 (Brownsche Bewegung). Auf dem kanonischen Raum C(R+ , R) ist das WienerMaß, d.h., das eindeutige Maß, so dass der kanonische Prozess eine Brownsche Bewegung
ist, die eindeutige Lösung des Martingalproblems zu At = t und P0 = δ0 , s. Bemerkung
3.11.
8
Eine weitere Möglichkeit einen Grenzprozess eindeutig zu charakterisieren ergibt sich aus der Konvergenz der endlich-dimensionalen Verteilungen in Satz 3.12, da diese ebenfalls einen stochastischen Prozess
(bis auf Variationen) eindeutig definieren.
3.6. SCHWACHE KONVERGENZ VON MARTINGALEN
69
Beispiel 3.20. Betrachtet man dasselbe Martingalproblem wie im vorherigen Beispiel auf
dem kanonischen Raum D(R+ , R), dann geht sofort die Eindeutigkeit verloren, da für Inet = Nt − t ebenfalls die quadratische
tensität λ = 1 der kompensierte Poisson Prozess N
Variation At = t besitzt. Es ist aber möglich ein restriktiveres Konzept eines Martingalproblem zu formulieren, so dass beide Prozesse auf D(R+ , R) eindeutige Lösungen eines
Martingalproblems sind.
Es gibt in der Literatur sehr viele Untersuchungen, wann Martingalprobleme eine Lösung
besitzen und wann diese eindeutig ist. Dies wollen wir an dieser Stelle nicht näher diskutieren. Zuletzt soll der folgende Satz aber zeigen, wie man aus diesem Wissen den Grenzwert
eines Martingals eindeutig charakterisieren kann.
Satz 3.15. Sei M n eine Folge f.s. stetiger lokaler Martingale und A sei ein f.s. wachsender
und stetiger Prozess mit A0 = 0. Unter den Bedingungen
(i) die Folge M n ist straff,
(ii) die Folge M0n konvergiert schwach gegen eine Verteilung P0 ,
(iii) die Folge der quadratischen Variationen hM n , M n i konvergiert schwach gegen A und
(iv) das Martingalproblem (A, P0 ) besitzt auf dem kanonischen Raum C(R+ , R) eine eindeutige Lösung P
gilt, dass M n schwach gegen P konvergiert.
Beweis. Da die Folge M n straff ist existiert zu einer Teilfolge ein schwacher Grenzwert M ,
der nach Satz 3.14 ein lokales Martingal ist. Da die schwache Konvergenz die Konvergenz
der eindimensionalen Verteilungen impliziert, folgt dass für jede konvergente Teilfolge das
Maß P die Verteilung von M0 ist. Weiters konvergieren auch die quadratischen Variationen gegen die quadratische Variation von M . Nach Voraussetzung konvergiert aber jede
Teilfolge von hM n , M n i schwach gegen A. Aus der Eindeutigkeit des schwachen Grenzwertes folgt, dass für jede konvergent Teilfolge der Grenzwert hM, M i = A erfüllt. Daraus
folgt aber, dass für jede konvergente Teilfolge die Verteilung von M das Martingalproblem
zu (A, P0 ) löst. Dieses besitzt laut Voraussetzung eine eindeutige Lösung, also stimmt der
Grenzwert jeder konvergenten Teilfolge mit der eindeutigen Lösung des Martingalproblems
überein.
70
KAPITEL 3. MARTINGALE
Anhang A
Gleichgradige Integrierbarkeit
Wir präsentieren die Bedingung der gleichgradigen Integrierbarkeit. Diese erlaubt
es von stochastischer Konvergenz auf Konvergenz im Mittel zu schliessen und wir
erhalten auch eine weitere Bedingung, die das Vertauschen von Grenzwertbildung
und Erwartungswert erlaubt.
Ein wichtige theoretische, doch eher technische Bedingung, für die Konvergenz von Mengen
von Zufallsvariablen ist deren gleichgradige Integrierbarkeit. Im folgenden sei {Xα , α ∈
M}, eine (beliebige auch überabzählbare) Familie von reellen Zufallsvariablen auf einem
Wahrscheinlichkeitsraum (Ω, F, P).1
Definition A.1 (Gleichgradige Integrierbarkeit). Die Familie {Xα , α ∈ M} heißt gleichgradig integrierbar, falls für alle > 0 ein c = c() > 0 existiert, sodass gilt
Z
|Xα | dP ≤ .
(A.1)
supα∈M
{|Xα |>c}
Die Bedingung (A.1) der Definition kann äquivalent auch als
Z
supα∈M E|Xα | I{|Xα |>c} ≤ bzw.
lim supα∈M
c→∞
{|Xα |≥c}
|Xα | dP = 0 .
geschrieben werden. Klarerweise gilt {Xα , α ∈ M} ist genau dann gleichgradig integrierbar
wenn {|Xα |, α ∈ M} gleichgradig integrierbar ist.
Beispiel A.1. Jede endliche Menge integrierbarer Zufallsvariablen ist gleichgradig integrierbar. Eine Zufallsvariable ist genau dann gleichgradig integrierbar falls sie integrierbar ist.
Endliche Vereinigungen gleichgradig integrierbarer Familien sind gleichgradig integrierbar.
Existiert zur Familie eine integrierbare Majorante, dann ist die Familie integrierbar. Existiert zu jedem Element eine Majorante und ist die Familie der Majoranten gleichgradig
integrierbar, dann ist auch die ursprüngliche Familie gleichgradig integrierbar.
1
Die Definitionen und Resultate in diesem Kapitel gelten ohne Einschränkungen auf einem beliebigen
Massraum mit endlichen Mass.
71
72
ANHANG A. GLEICHGRADIGE INTEGRIERBARKEIT
Eine wichtige Eigenschaft der gleichgradigen Integrierbarkeit ist, dass unter dieser die
Äquivalenz zwischen Konvergenz in Wahrscheinlichkeit und Konvergenz im p-ten Mittel
gilt.
Satz A.1. Sei 1 ≤ p < ∞, dann gilt eine Folge p-integrierbarer Zufallsvariablen (Xn )n∈N
konvergiert genau dann im p-ten Mittel falls diese in Wahrscheinlichkeit konvergiert und
{|Xn |p , n ∈ N} gleichgradig integrierbar ist.
Der nachfolgende Satz gibt nun notwendige und hinreichende Bedingungen für die gleichgradige Integrierbarkeit an. Vor allem sehen wir, dass die gleichgradige Integrierbarkeit
stärker als gleichmässige Beschränktheit der ersten Momente ist, doch die gleichgradige
Integrierbarkeit aus der gleichmässigen Beschränktheit der zweiten Momente folgt.
Satz A.2. Die folgenden Aussagen sind äquivalent.
(i) Die Familie {Xα , α ∈ M} ist gleichgradig integrierbar.
(ii) limc→∞ supα∈M E |Xα | − c ∧ |Xα | = 0
(iii) (Satz von de la Vallèe Poussin) Es existiert eine nicht-negative, nicht-fallende, konvexe
Funktion G auf R+ , sodass limt→∞ G(t)/t = ∞ und supα∈M EG(|Xα |) < ∞.
(iv) Die Familie {Xα , α ∈ M} ist beschränkt in L1 (P), d.h., supα∈M E|Xα | < ∞, und
absolut stetig, d.h., für jedes > 0 existiert ein δ > 0, so dass für jedes A ∈ F gilt
Z
P(A) ≤ δ =⇒
|Xα | dP ≤ ∀ α ∈ M .
A
(v) (Satz von Dunford-Pettis) Die Familie {Xα , α ∈ M} ⊂ L1 (P) ist relativ kompakt in
der schwachen Topologie, d.h., jede Folge aus der Familie besitzt eine Teilfolge Xnk
sodass ein X ∈ L1 (P) existiert und es gilt schwache Konvergenz, d.h.,
lim E[Xnk Z] = E[XZ]
k→∞
∀ Z ∈ L∞ (P) .
Beispiel A.2. Sei p > 1 dann ist jede in Lp (P)-beschränkte Menge gleichgradig integrierbar.
Beispiel A.3. Sei X eine integrierbare Zufallsvariable und {Fα , α ∈ M} eine Familie von
Teil-σ-Algebren von F. Dann ist die Familie {E[X|Fα ], α ∈ M} gleichgradig integrierbar.
Dies folgt aus der Jensen’schen Ungleichung: Die Zufallsvariable X ist gleichgradig integrierbar und daher existiert eine Funktion G, die die Bedingungen in Satz A.2 (iii) erfüllt.
Weiters gilt aber wegen zweimaliger Anwendung der bedingten Jensen’schen Ungleichung
sup EG(|Xα |) = sup EG(|E[X|Fα ]|) ≤ sup EG(E[|X| |Fα ])
α∈M
α∈M
α∈M
≤ sup E[E[G(|X|)Fα ]]
α∈M
= EG(|X|) < ∞ .
Aus Satz A.2 (iii) folgt nun auch die gleichgradige Integrierbarkeit der Familie {E[X|Fα ], α ∈
M}. Diese Aussage verallgemeinert sich sofort zu beliebigen Familien bedingter Erwartungen von Zufallsvariablen aus einer gleichgradig integrierbaren Familie.
73
Schlussendlich erhält man nun aus dem folgenden Sätzen eine Bedingungen, die die Vertauschbarkeit der Grenzwertbildung und des Erwartungswertes als eine Verallgemeinerung
des Satzes von der Dominierten Konvergenz erlaubt.
Satz A.3. Sei die Familie {Xn , n ∈ N} gleichgradig integrierbar und Xn konvergiert
schwach gegen X, dann gilt limn→∞ EXn = EX . Umgekehrt gilt, dass, falls Xn , n ∈ N,
integrierbar ist, schwach gegen X konvergiert und limn→∞ E|Xn | = E|X| gilt, dann ist
{Xn , n ∈ N} gleichgradig integrierbar.
Herunterladen