Skript - Uni Ulm

Werbung
ITÄT
U
M
·
Institut für Stochastik
Vorlesungsskript
Prof. Dr. Volker Schmidt
Stand: Wintersemester 2011/12
Ulm, im November 2011
Dieses Exemplar wurde aus Studiengebühren nanziert.
CENDO
Universität Ulm
DO
Stochastik II
·
C
UR
· SCIENDO
ANDO · U
N
ERS
L
IV
INHALTSVERZEICHNIS
2
Inhaltsverzeichnis
1 Einleitung
5
1.1
Grundbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
1.2
Endlichdimensionale Verteilungen; Existenzsatz von Kolmogorow
. . . . . . . . . .
6
1.3
Regularität der Trajektorien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.4
Modikationen von càdlàg Prozessen . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
1.5
Stationarität und Unabhängigkeit; stationäre bzw. unabhängige Zuwächse . . . . . .
11
2 Prozesse mit stückweise konstanten bzw. stetigen Trajektorien
2.1
2.2
2.3
2.4
Zählprozesse; Erneuerungsprozesse
13
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
2.1.1
Ergodensatz; Zentraler Grenzwertsatz
. . . . . . . . . . . . . . . . . . . . . .
13
2.1.2
Erneuerungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
2.1.3
Verzögerte Erneuerungprozesse; stationäre Zuwächse . . . . . . . . . . . . . .
19
Zählprozesse vom PoissonTyp
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
2.2.1
Homogener PoissonProzess . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
2.2.2
Zusammengesetzte PoissonProzesse . . . . . . . . . . . . . . . . . . . . . . .
26
2.2.3
Poissonsche Zählmaÿe; CoxProzesse; Simluationsalgorithmus . . . . . . . . .
28
MarkowProzesse mit endlich vielen Zuständen . . . . . . . . . . . . . . . . . . . . .
32
2.3.1
Anfangsverteilung und Übergangsfunktion . . . . . . . . . . . . . . . . . . . .
34
2.3.2
Übergangsintensitäten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
2.3.3
Kolmogorowsche Dierentialgleichungen . . . . . . . . . . . . . . . . . . . . .
38
2.3.4
Eingebettete MarkowKetten; Simulationsalgorithmus . . . . . . . . . . . . .
44
2.3.5
Stationäre Anfangsverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . .
49
WienerProzess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
2.4.1
Vollständige Orthonormalsysteme im
Funktionen
L2 ;
HaarFunktionen und Schauder
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
2.4.2
Eigenschaften normalverteilter Zufallsvariablen . . . . . . . . . . . . . . . . .
56
2.4.3
Konstruktion von WienerProzessen; Simulationsalgorithmus
. . . . . . . . .
59
2.4.4
Darstellung als MarkowProzess bzw. GauÿProzess
. . . . . . . . . . . . . .
63
2.4.5
Verteilung des Maximums . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65
2.4.6
Weitere Verteilungs und Pfadeigenschaften . . . . . . . . . . . . . . . . . . .
69
INHALTSVERZEICHNIS
3
3 LévyProzesse und Martingale
3.1
LévyProzesse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
76
3.1.1
Unbegrenzte Teilbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
76
3.1.2
LévyChintschinDarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . .
80
3.1.3
3.3
Beispiele: WienerProzess, zusammengesetzte PoissonProzesse, stabile Lévy
Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
Subordinatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
88
Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
93
3.2.1
Bedingte Erwartung und bedingte Wahrscheinlichkeit
. . . . . . . . . . . . .
93
3.2.2
Filtrationen und Stoppzeiten
. . . . . . . . . . . . . . . . . . . . . . . . . . .
97
3.2.3
Submartingale und Supermartingale; Beispiele
3.2.4
Gleichgradige Integrierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.2.5
Ungleichung von Doob . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.2.6
Gestoppte Martingale
3.2.7
Optionales SamplingTheorem
3.1.4
3.2
76
. . . . . . . . . . . . . . . . . 101
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
. . . . . . . . . . . . . . . . . . . . . . . . . . 111
Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.3.1
Regeneration von LévyProzessen zu Stoppzeiten . . . . . . . . . . . . . . . . 114
3.3.2
Reexionsprinzip des WienerProzesses; Verteilung des Maximums . . . . . . 117
3.3.3
WienerProzesse mit negativer Drift . . . . . . . . . . . . . . . . . . . . . . . 119
3.3.4
Subordinatoren als Prozesse von Ersterreichungszeiten . . . . . . . . . . . . . 121
4 Stochastische Prozesse mit allgemeineren Indexmengen
4.1
4.2
Zählprozesse im
R1
124
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
4.1.1
Homogener PoissonProzess . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.1.2
Allgemeines Konstruktionsprinzip für Zählprozesse mit stationären Zuwächsen 128
4.1.3
Erneuerungsprozesse mit stationären Zuwächsen
4.1.4
Semi-Markowsche Zählprozesse; Simulationsalgorithmus
Poissonsche Zählmaÿe im
R
d
. . . . . . . . . . . . . . . . 132
. . . . . . . . . . . . 133
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.2.1
Denition und elementare Eigenschaften . . . . . . . . . . . . . . . . . . . . . 136
4.2.2
Messbare Indizierung der Atome
4.2.3
Simulationsalgorithmus; Akzeptanz und Verwerfungsmethode
4.2.4
Transformationssätze; radiale Simulation von homogenen PoissonProzessen . 144
. . . . . . . . . . . . . . . . . . . . . . . . . 140
. . . . . . . . 142
LITERATUR
4
Literatur
[1]
Applebaum, D. (2004)
Lévy Processes and Stochastic Calculus. Cambridge University Press, Cambridge
[2]
Breiman, L. (1992)
Probability. SIAM, Philadelphia
[3]
Grimmett, G., Stirzaker, D. (2001)
Probability and Random Processes. Oxford University Press, Oxford
[4]
Kallenberg, O. (2001)
Foundations of Modern Probability. Springer-Verlag, New York
[5]
Kingman, J.F.C. (1993)
Poisson Processes. Oxford Univeristy Press, Oxford
[6]
Krylov, N.V. (2002)
Introduction to the Theory of Random Processes. AMS-Series: Graduate Studies in Mathematics, Providence
[7]
Lefebvre, M.. (2007)
Applied Stochastic Processes. Springer, Berlin
[8]
Prabhu, N.U. (2007)
Stochastic Processes: Basic Theory and Its Applications. World Scientic, Singapore
[9]
Resnick, S.I. (1992)
Adventures in Stochastic Processes. Birkhäuser, Boston
[10]
Rolski, T., Schmidli, H., Schmidt, V., Teugels, J. (1999)
Stochastic Processes for Insurance and Finance. J. Wiley & Sons, Chichester
[11]
Samorodnitsky, G., Taqqu, M.S. (1994)
Stable NonGaussian Random Processes. Chapman & Hall, New York
[12]
Sato, K.-I. (1999)
Lévy Processes and Innite Divisibility. Cambridge University Press, Cambridge
[13]
Serfozo, R. (2009)
Basics of Applied Stochastic Processes. Springer, Berlin
[14]
Skorokhod, A.V. (2005)
Basic Principles and Applications of Probability Theory. Springer-Verlag, Berlin/Heidelberg
1 EINLEITUNG
5
1 Einleitung
Die Vorlesung gibt eine Einführung in verschiedene Klassen stochastischer Prozesse. Schwerpunkte
der Vorlesung sind:
•
Zählprozesse (Erneuerungsprozesse, PoissonProzesse), Sprungprozesse
•
MarkowProzesse
•
WienerProzess (Brownsche Bewegung)
•
LévyProzesse
•
Martingale
Insbesondere werden analytische und asymptotische Eigenschaften dieser Modelle diskutiert, die
die Grundlage für statistische Methoden und Simulationsalgorithmen bilden.
Dabei werden wir in dieser Vorlesung vor allem stochastische Prozesse mit kontinuierlicher Zeit
betrachten, d.h., überabzählbare Familien von Zufallsvariablen.
Die Eigenschaften einzelner Zufallsvariablen bzw. von (endlichen oder abzählbar unendlichen) Folgen von Zufallsvariablen wurden ausführlich in der Vorlesung Wahrscheinlichkeitsrechnung behandelt, vgl. das Skript zur Vorlesung Elementare Wahrscheinlichkeitsrechnung und Statistik im WS
10/11.
Verweise auf dieses Vorlesungsmanuskript werden wir mit dem Zusatz WR vor der Nummer der
zitierten Abschnitte, Lemmata, Theoreme, Korollare bzw. Formeln kennzeichnen.
Gelegentlich werden wir auch auf Abschnitte, Lemmata, Theoreme, Korollare bzw. Formeln aus
dem Skript zur Vorlesung Markov Chains and MonteCarlo Simulation verweisen, wobei diese
Verweise dann mit dem Zusatz MC gekennzeichnet werden.
1.1 Grundbegrie
Stochastische Prozesse sind Familien
{Xt , t ∈ I} von Zufallsvariablen Xt : Ω → E , die über
(Ω, F, P ) deniert sind, wobei (Ω, F, P ) ein beliebiger
einunddemselben Wahrscheinlichkeitsraum
Wahrscheinlichkeitsraum sein kann, der oft nicht näher speziziert wird.
Die Indexmenge
I
(E, B(E))
{Xt }.
versehen ist, d.h., im allgemeinen ist
raum des stochastischen Prozesses
Man sagt dann, dass
{Xt }
ein beliebiger Messraum, der sogenannte Zustands-
ein stochastischer Prozess in
unterscheidet man verschiedene Arten von Indexmengen
•
Falls
I
E der Zufallsvariablen Xt kann
σ Algebra B(E) von Teilmengen von E
kann eine beliebige Menge sein. Der Bildraum
ebenfalls eine beliebige Menge sein, die lediglich mit einer
eine abzählbare Menge ist, zum Beispiel
I
mit Werten in
(E, B(E))
ist. Dabei
I.
I = {0, 1, 2, . . .}, dann wird {Xt } eine zufällige
Folge bzw. ein stochastischer Prozess mit diskreter Zeit genannt.
1 EINLEITUNG
•
6
Typische Beispiele von (überabzählbaren) Indexmengen
mit kontinuierlicher Zeit sind
Halbachse) bzw.
•
Falls
wird
•
I=R
I = (a, b)
I ⊂ B(Rd )
Werte annimmt und
I⊂R
I = [0, ∞)
(nichtnegative
euklidischen Raumes ist, wobei
d ≥ 2,
dann
d
eine Familie von Teilmengen des R ist, dann sagt man, dass {Xt } ein
I ⊂ B(Rd ) eine σ Algebra ist, {Xt } nur nichtnegative
mengenindizierter Prozess ist. Wenn
Wenn
für stochastische Prozesse
(reelle Achse).
I ⊂ Rd eine Teilmenge des ddimensionalen
{Xt } ein zufälliges Feld genannt.
Falls
I ⊂ R
(beschränktes Interval),
σ additiv
ist, dann wird
{Xt }
ein zufälliges Maÿ genannt.
ω ∈ Ω die Funktion {Xt (ω), t ∈ I}
{Xt } genannt.
gilt, dann wird für jedes
Pfad des stochastischen Prozesses
In dieser Vorlesung werden wir vorwiegend stochastische Prozesse mit
eine Trajektorie bzw. ein
I ⊂ [0, ∞)
und
E ⊂R
be-
trachten. Erst in dem abschlieÿenden Kapitel 4 werden einige Klassen von stochastischen Prozessen
mit allgemeineren Indexmengen diskutiert.
1.2 Endlichdimensionale Verteilungen; Existenzsatz von Kolmogorow
Sei
{Xt , t ∈ I}
Denition
ein stochastischer Prozess mit
I = [0, ∞)
und
E = R.
n = 1, 2, . . . und für jedes nTupel t1 , . . . , tn ≥ 0
Pt1 ,...,tn : B(Rn ) → [0, 1] mit
Für jedes
Mengenfunktion
Pt1 ,...,tn (B1 × . . . × Bn ) = P (Xt1 ∈ B1 , . . . , Xtn ∈ Bn ) ,
endlichdimensionale Verteilung von
Beachte
{Xt }
von Indizes wird die
B1 , . . . , Bn ∈ B(R)
(1)
genannt.
Es ist klar, dass die endlichdimensionalen Verteilungen von stochastischen Prozessen
die folgenden Konsistenzeigenschaften besitzen.
•
Sei
•
Dann gilt
n = 1, 2, . . .
(1, . . . , n).
eine beliebige natürliche Zahl, und sei
π
eine beliebige Permutation von
Pt1 ,...,tn (B1 × . . . × Bn ) = Ptπ(1) ,...,tπ(n) (Bπ(1) × . . . × Bπ(n) )
(2)
Pt1 ,...,tn ,tn+1 (B1 × . . . × Bn × R) = Pt1 ,...,tn (B1 × . . . × Bn )
(3)
und
für jedes
B(R).
(n + 1)Tupel t1 , . . . , tn+1 ≥ 0
Wir nehmen nun umgekehrt an, dass
und für beliebige BorelMengen
{Pt1 ,...,tn , t1 , . . . , tn ≥ 0, n = 1, 2, . . .}
B1 , . . . , B n ∈
eine beliebige Familie
von Wahrscheinlichkeitsmaÿen ist, die den Bedingungen (2) und (3) genügen.
Der folgende (Existenz-) Satz von Kolmogorow ist eine wichtige Fundamentalaussage in der Theorie
stochastischer Prozesse.
1 EINLEITUNG
7
Theorem 1.1 Für jede Familie von Wahrscheinlichkeitsmaÿen {Pt1 ,...,tn , t1 , . . . , tn ≥ 0, n =
1, 2, . . .}, die den Bedingungen (2) und (3) genügen, gibt es einen Wahrscheinlichkeitsraum (Ω, F, P )
und einen stochastischen Prozess {Xt , t ≥ 0} über diesem Wahrscheinlichkeitsraum, so dass {Pt1 ,...,tn }
die endlichdimensionalen Verteilungen von {Xt , t ≥ 0} sind.
Der Beweis von Theorem 1.1 beruht auf StandardTechniken der Maÿtheorie. Wir erwähnen hier
nur die Grundidee des Kolmogorowschen Konstruktionsprinzips. Ein detaillierter Beweis kann zum
Beispiel in Kallenberg (2001), S. 115116 nachgelesen werden.
Dabei wird bei der Wahl eines geeigneten Wahrscheinlichkeitsraumes
stochastischen Prozesses
•
{Xt }
Ω = E I , d.h., in unserem Fall ist Ω = R[0,∞)
von [0, ∞) in die Menge der reellen Zahlen R.
Sei
• F
sei die kleinste
(Ω, F, P ) bzw. des zugehörigen
wie folgt vorgegangen.
die Familie aller Abbildungen
ω : [0, ∞) → R
σ Algebra von Teilmengen von Ω, die sämtliche ZylinderMengen der Form
AB
t1 ,...,tn = {ω ∈ Ω : (ω(t1 ), . . . , ω(tn )) ∈ B}
enthält für jedes beliebige
•
•
(4)
B ∈ B(Rn ).
Mit Techniken der Maÿtheorie kann man zeigen, dass es ein (eindeutig bestimmtes) WahrB
scheinlichkeitsmaÿ P : F → [0, 1] gibt, für das P (At ,...,t ) = Pt1 ,...,tn (B) für beliebige
1
n
n
n = 1, 2, . . . und t1 , . . . , tn ≥ 0 sowie B ∈ B(R ) gilt.
Dann stimmen die endlichdimensionalen Verteilungen des Koordinaten-Prozesses
0},
der gegeben ist durch
lichkeitsmaÿen
{Pt1 ,...,tn }
Xt (ω) = ω(t)
für beliebige
t≥0
und
ω ∈ Ω,
{Xt , t ≥
mit den Wahrschein-
überein.
Beachte
•
Der Existenzsatz von Kolmogorow gilt auch für beliebige Indexmengen
•
Der stochastische KoordinatenProzess {Xt , t ∈ I} wird dann auf völlig analoge Weise
I
I
I
über dem Wahrscheinlichkeitsraum (E , F(E ), P ) konstruiert, wobei F(E ) die kleinste
I
σ Algebra ist, die alle ZylingerMengen von E enthält.
I
und für beliebige
Zustandsräume (E, B(E)), d.h., für Familien von Wahrscheinlichkeitsmaÿen {Pt1 ,...,tn ,
I} über (E n , B(E n )) mit n = 1, 2, . . ., die den Bedingungen (2) und (3) genügen.
t1 , . . . , tn ∈
1.3 Regularität der Trajektorien
Das folgende Beispiel zeigt, dass der gemäÿ Theorem 1.1 zu vorgegebenen Wahrscheinlichkeitsmaÿen
{Pt1 ,...,tn }
stets existierende stochastische Prozess, der diese Wahrscheinlichkeitsmaÿe als endlich
dimensionale Verteilungen hat, im allgemeinen nicht eindeutig bestimmt ist.
•
Sei
U
eine (gleichverteilte) Zufallsvariable über dem Wahrscheinlichkeitsraum
(Ω, F, P ) = ([0, 1], B([0, 1]), ν1 )
mit
U (ω) = ω ,
wobei
ν1
das LebesgueMaÿ bezeichnet.
1 EINLEITUNG
•
8
Die stochastischen Prozesse
Xt = 0
•
•
{Xt , t ∈ [0, 1]}
für jedes
P (U = t) = 0
Dennoch sind
{Xt }
und
t ∈ [0, 1]
{Xt }
Es ist klar, dass die Prozesse
besitzen, weil
{Yt } die gleichen
t ∈ [0, 1] gilt.
und
für jedes
{Yt }
{Yt , t ∈ [0, 1]} seien gegeben durch

 1 , falls U = t,
bzw.
Yt =
 0 , sonst.
und
endlichdimensionalen Verteilungen
zwei verschiedene stochastische Prozesse, denn es gilt beispiels-
weise
P (Xt = 0 für
jedes
t ∈ [0, 1]) = 1
P (Yt = 0 für
und
jedes
t ∈ [0, 1]) = 0 .
Denition
•
Stochastische Prozesse
{Xt }
und
{Yt },
deren endlichdimensionale Verteilungen über-
einstimmen, werden Versionen einunddesselben stochastischen Phänomens genannt.
•
Wenn die stochastischen Prozesse
lichkeitsraum
(Ω, F, P )
{Xt }
{Yt } über einunddemselben WahrscheinP (Xt = Yt ) = 1 für jedes t ∈ I gilt,
{Yt } eine Modikation von {Xt } (und umgekehrt)
und
gegeben sind und wenn
dann wird der stochastische Prozess
genannt.
Ein weiteres Problem besteht darin, dass Teilmengen von
Ω = R[0,∞) ,
die durch Eigenschaften der
Trajektorien gegeben sind, im allgemeinen nicht messbar bezüglich der
σ Algebra F
sein müssen,
die durch die ZylinderMengen in (4) erzeugt wird.
•
Ein Beispiel hierfür ist die Teilmenge
A = {ω ∈ Ω : Xt (ω) = 0 für
Ω,
0} ∈ F
von
•
jedes
t ∈ [0, 1]}
∩
t∈[0,1] {Xt = 0} der Ereignisse
ist und die deshalb im allgemeinen nicht messbar sein muss.
die der (überabzählbare) Durchschnitt
A =
{Xt =
Dieses Problem lässt sich dadurch lösen, dass man nur solche stochastischen Prozesse betrachtet, deren Trajektorien gewisse Regularitätseigenschaften besitzen.
•
Falls alle Trajektorien des Prozesses
{Xt } stetige Funktionen sind, dann wird {Xt } ein stetiger
Prozess genannt.
In diesem Fall lässt sich die in oben betrachtete Menge
abzählbar vielen Mengen aus
F
A⊂Ω
als der Durchschnitt von
darstellen.
Denn es gilt dann
A=
∩
t ∈ [0, 1], t
d.h.
A ∈ F.
{ω ∈ Ω : Xt (ω) = 0} ,
rational
1 EINLEITUNG
9
Die im folgenden Kapitel 2 betrachteten klassischen Beispiele von stochastischen Prozessen zeigen
jedoch, dass es nicht ausreicht, nur Prozesse mit stetigen Trajektorien zu betrachten.
•
Deshalb wird im allgemeinen eine gröÿere Klasse von stochastischen Prozessen betrachtet, die
alle praktisch relevanten Beispiele umfasst und deren Trajektorien gleichzeitig gute Regularitätseigenschaften besitzen.
•
Dabei wird nur gefordert, dass die Trajektorien überall rechtsstetig sind und linksseitige
Grenzwerte besitzen. Hinreichende Bedingungen hierfür sind durch das folgende Theorem
gegeben.
Theorem 1.2 Sei {Xt , t ≥ 0} ein beliebiger reellwertiger Prozess, und sei
abzählbare Menge, die dicht in [0, ∞) liegt. Falls
(i)
D ⊂ [0, ∞)
eine
P
{Xt } rechtsstetig in Wahrscheinlichkeit ist, d.h., für beliebige t ≥ 0 und h ↓ 0 gilt Xt+h −→ Xt ,
P
wobei −→ die Konvergenz in Wahrscheinlichkeit bezeichnet,
{Xt } für jedes t ∈ D mit Wahrscheinlichkeit 1 endliche rechts- und
linksseitige Grenzwerte besitzen, d.h., für jedes t ∈ D existieren die Grenzwerte limh↓0 Xt+h
und limh↑0 Xt+h mit Wahrscheinlichkeit 1,
(ii) die Trajektorien von
dann gibt es eine Version
{Yt , t ≥ 0}
(a) die Trajektorien von
{Yt }
von
{Xt , t ≥ 0},
so dass mit Wahrscheinlichkeit
1
rechtsstetig sind und
(b) linksseitige Grenzwerte besitzen, d.h.,
limh↑0 Yt+h
existiert für jedes
t ≥ 0.
Der Beweis von Theorem 1.2 geht über den Rahmen dieser Vorlesung hinaus und wird deshalb
weggelassen; er kann beispielsweise in Breiman (1992), S. 300 nachgelesen werden.
Theorem 1.3
Konstanten
(A.N. Kolmogorow) Sei
a, b, c ∈ (0, ∞)
{Xt , t ≥ 0}
ein beliebiger reellwertiger Prozess, so dass es
gibt mit
(
)
E |Xt − Xs |a ≤ c |t − s|1+b
Dann gibt es eine stetige Modikation von
∀ t, s ≥ 0 .
{Xt }.
Einen Beweis von Theorem 1.3 kann man zum Beispiel in Krylov (2002), S. 2021 nachlesen.
1 EINLEITUNG
10
1.4 Modikationen von càdlàg Prozessen
In diesem und in den nachfolgenden Abschnitten setzen wir stets (o.B.d.A.) voraus, dass
(Ω, F, P )
ein vollständiger Wahrscheinlichkeitsraum ist, d.h.,
•
sämtliche Nullmengen des Wahrscheinlichkeitsraumes
(Ω, F, P ) gehören zu F
bzw. (äquiva-
lent hierzu)
•
für
C ⊂ Ω gilt C ∈ F , falls es Teilmengen A, B ∈ F
gibt, so dass
A ⊂ C ⊂ B und P (B\A) = 0.
Beachte
•
Zur Erinnerung: Wenn für die stochastischen Prozesse
(Ω, F, P )
P (Xt = Yt ) = 1
gilt, dann wird
•
{Yt }
für jedes
{Xt }
eine Modikation von
und
{Yt , t ≥ 0}
t≥0
über
(5)
(und umgekehrt) genannt.
Manchmal wird eine verschärfte Version der Bedingung (5) betrachtet. Dabei sagt man,
dass die stochastischen Prozesse
{Xt }
und
P (Xt = Yt
•
{Xt , t ≥ 0}
{Yt }
für jedes
ununterscheidbar sind, wenn
t ≥ 0) = 1.
Auÿerdem sagt man, dass der stochastische Prozess
wenn fast alle Trajektorien von
{Xt }
{Xt , t ≥ 0}
càdlàg ist,
rechtsstetige Funktionen sind, die linksseitige
Grenzwerte besitzen,
wobei càdlàg eine Abkürzung der französischen Sprechweise continu à droite, limites à gauche ist.
•
Alle stochastischen Prozesse mit stückweise konstanten bzw. stetigen Trajektorien, die
in Kapitel 2 betrachtet werden, sind càdlàg.
Theorem 1.4
{Xt }
und
{Yt }
Seien {Xt , t ≥ 0} und {Yt , t ≥ 0} stochastische Prozesse über (Ω, F, P ), so dass
mit Wahrscheinlichkeit 1 rechtsstetige Trajektorien besitzen. Auÿerdem sei {Yt } eine
Modikation von
{Xt }.
Dann sind die Prozesse
{Xt }
und
{Yt }
ununterscheidbar.
Beweis
•
A, A′ ⊂ Ω
Ω, für die die Trajektorien von {Xt } bzw.
P (A) = P (A′ ) = 0.
∪
• Auÿerdem sei Ct = {ω ∈ Ω : Xt (ω) ̸= Yt (ω)} für jedes t ≥ 0 und C = t∈Q+ Ct , wobei
Q+ = Q ∩ [0, ∞) die Menge der rationalen Zahlen in [0, ∞) bezeichnet.
Seien
{Yt }
diejenigen Teilmengen von
nicht rechtsstetig sind, wobei dann
Weil
{Yt }
eine Modikation von
{Xt }
ist, gilt
P (C) = 0
und deshalb auch
P (C ′ ) = 0 ,
C ′ = C ∪ A ∪ A′ .
Somit ist klar, dass Xt (ω) = Yt (ω)
(6)
wobei
für beliebige
t ∈ Q+
und
ω ̸∈ C ′ .
1 EINLEITUNG
•
11
t ≥ 0 eine beliebige (nichtnegative)
tn > tn+1 ≥ t und tn ↓ t.
Sei nun
mit
Xtn (ω) = Ytn (ω)
Weil
für beliebige
Zahl und
n≥1
und
{tn }
ω ̸∈ C ′ ,
eine Folge rationaler Zahlen
ergibt sich nun, dass
Xt (ω) = lim Xtn (ω) = lim Ytn (ω) = Yt (ω)
n→∞
für beliebige
t≥0
und
n→∞
ω ̸∈ C ′ .
Wegen (6) folgt hieraus, dass die Prozesse
{Xt }
und
{Yt }
ununterscheidbar sind.
Aus Theorem 1.4 ergibt sich insbesondere das folgende Resultat.
Korollar 1.1
von
{Xt }
Die Prozesse {Xt , t ≥ 0} und {Yt , t ≥ 0} seien càdlàg, wobei
sei. Dann sind die Prozesse {Xt } und {Yt } ununterscheidbar.
{Yt }
eine Modikation
1.5 Stationarität und Unabhängigkeit; stationäre bzw. unabhängige Zuwächse
Von groÿer Bedeutung sind stochastische Prozesse, für die die in (1.2.1) eingeführten endlich
dimensionalen Verteilungen gewisse Invarianzeigenschaften besitzen. Zwei wichtige Klassen solcher
stochastischen Prozesse sind wie folgt deniert.
Denition
•
Seien
n = 1, 2, . . ., 0 ≤ t0 < t1 < . . . < tn
h≥0
beliebige Zahlen.
{Xt , t ≥ 0} heiÿt stationär, wenn die Verteilungen der Zufalls(Xt1 +h , . . . , Xtn +h ) nicht von h abhängen.
Der stochastische Prozess
vektoren
•
und
{Xt , t ≥ 0} ein Prozess mit stationären Zuwächsen ist, wenn die Verteilungen der Zufallsvektoren (Xt1 +h −Xt0 +h , . . . , Xtn +h −Xtn−1 +h )
Man sagt, dass der stochastische Prozess
nicht von
h
abhängen.
Eine andere wichtige Klasse von stochastischen Prozessen, die wir in dieser Vorlesung ausführlich
behandeln werden, ist wie folgt deniert.
Denition
und
{Xt , t ≥ 0} ein Prozess mit unabhängigen
Xt0 , Xt1 − Xt0 , . . . , Xtn − Xtn−1 für alle n = 1, 2, . . .
Man sagt, dass der stochastische Prozess
Zuwächsen ist, wenn die Zufallsvariablen
0 ≤ t0 < t 1 < . . . < t n
unabhängig sind.
Gelegentlich werden wir auch den Begri der Unabhängigkeit von zwei (oder mehreren) stochastischen Prozessen bzw. den Begri der Unabhängigkeit eines Prozesses von einer
Denition
Seien
{Xt , t ≥ 0}
und
{Yt , t ≥ 0} zwei beliebige stochastische Prozesse über einund(Ω, F, P ) und sei G ⊂ F eine beliebige Teilσ Algebra
demselben Wahrscheinlichkeitsraum
von
F.
σ Algebra benötigen.
1 EINLEITUNG
•
12
{Xt } und {Yt } unabhängig sind, wenn die Zufallsvektoren (Xt1 , . . . , Xtn )
(Ys1 , . . . , Ysm ) für beliebige (endliche) Folgen von nichtnegativen Zahlen t1 , . . . , tn
bzw. s1 , . . . , sm unabhängig sind.
Man sagt dann, dass
und
•
Auÿerdem sagt man, dass
{Xt }
von
G
unabhängig ist, wenn für jede Folge t1 , . . . , tn von
nichtnegativen Zahlen und für beliebige B1 , . . . , Bn ∈ B(R) und A ∈ G die Ereignisse
Xt−1
(B1 ) ∩ . . . ∩ Xt−1
(Bn ) und A unabhängig sind, wobei Xt−1 (B) = {ω ∈ Ω : Xt (ω) ∈
1
n
B}.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
13
2 Prozesse mit stückweise konstanten bzw. stetigen Trajektorien
In den ersten drei Abschnitten dieses Kapitels betrachten wir Beispiele von stochastischen Prozessen,
deren Pfade stückweise konstante (Sprung) Funktionen sind. Dagegen ist der in Abschnitt 2.4
betrachtete WienerProzess ein Beispiel von stochastischen Prozessen mit stetigen Trajektorien.
2.1 Zählprozesse; Erneuerungsprozesse
Sei
(Ω, F, P )
S1 , S2 , . . . : Ω → [0, ∞)
0 ≤ S1 ≤ S2 ≤ . . ..
ein beliebiger Wahrscheinlichkeitsraum, und sei
Folge von nichtnegativen Zufallsvariablen mit
In der Versicherungsmathematik können die Zufallsvariablen
Sn
eine beliebige
Zeitpunkte modellieren, zu de-
nen Schäden eines bestimmten Typs eintreten. Dies können beispielsweise Schäden sein, die durch
Naturkatastrophen wie Erdbeben oder schwere Stürme verursacht werden.
Denition
1. Der stochastische Prozess
{Nt , t ≥ 0}
mit
Nt =
∞
∑
1I(Sk ≤ t)
(1)
k=1
1I(A) der Indikator des
1I(A)(ω) = 0, falls ω ̸∈ A.
wird Zählprozess genannt, wobei
1I(A)(ω) = 1,
2. Sei
falls
ω ∈ A,
und
Ereignisses
A ∈ F
ist, d.h.
T1 , T2 , . . . : Ω → [0, ∞) eine Folge von unabhängigen und identisch verteilten Zufalls-
variablen, die nur nichtnegative Werte annehmen.
•
{Sn , n = 0, 1, . . .} mit
Erneuerungspunktprozess genannt, wobei
Dann wird die Folge
S0 = 0 und Sn = T1 +. . .+Tn für n ≥ 1 ein
Sn der n-te Erneuerungszeitpunkt heiÿt,
vgl. Abb. 1.
•
Der in (1) gegebene stochastische Prozess
•
Dabei wird stets vorausgesetzt, dass die Zwischenankunftszeiten
{Nt , t ≥ 0} wird in diesem Fall Erneuerungszählprozess bzw. kurz Erneuerungsprozess genannt, vgl. Abb. 2.
Wahrscheinlichkeit 1 gleich Null sind, d.h., es gelte
P (Tn > 0) > 0
Tn
nicht mit
für jedes
n ≥ 1.
2.1.1 Ergodensatz; Zentraler Grenzwertsatz
Aus dem starken Gesetz der groÿen Zahlen (vgl. Theorem WR5.15) ergibt sich die folgende asymptotische Eigenschaft des Erneuerungsprozesses
{Nt , t ≥ 0}; vgl.
auch Beispiel 6 in Abschnitt WR
5.2.3. Aussagen dieses Typs werden in der Literatur individueller Ergodensatz genannt.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
{Sn }
Abbildung 1: Punktprozess
mit Zwischenankunftszeiten
14
{Tn }
Theorem 2.1
Tn
Sei 0 < µ < ∞, wobei µ = E Tn den Erwartungswert der Zwischenankunftszeiten
bezeichnet. Dann gilt mit Wahrscheinlichkeit 1, dass
lim
t→∞
Nt
1
= .
t
µ
(2)
Beweis
•
Für jedes
t>0
gilt
P (Nt < ∞) = 1 ,
limn→∞ Sn = ∞
denn aus Theorem WR5.15 folgt, dass
•
Auÿerdem ist
limt→∞ Nt (ω)
•
Nt (ω)
für jedes
ω ∈ Ω monoton
ω ∈ Ω.
(3)
mit Wahrscheinlichkeit 1.
nichtfallend in
t ≥ 0,
d.h., der Grenzwert
existiert für jedes
Darüber hinaus gilt mit Wahrscheinlichkeit 1
lim Nt = ∞ ,
t→∞
weil
(
)
P lim Nt < ∞
=
t→∞
=
=
(4)
(
)
lim P lim Nt < k
k→∞
t→∞
lim lim P (Nt < k)
k→∞ t→∞
lim lim P (Sk > t)
(
t
t )
≤ lim lim P (T1 > ) + . . . + P (Tk > ) = 0 .
k→∞ t→∞
k
k
•
k→∞ t→∞
Aus Theorem WR5.15 folgt also, dass mit Wahrscheinlichkeit 1
lim
t→∞
SNt
=µ.
Nt
(5)
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
Abbildung 2: Zählprozess
•
t≥0
Auÿerdem gilt für beliebige
und
{Nt }
n ∈ N = {1, 2, . . .}
{Nt = n} = {Sn ≤ t < Sn+1 } .
•
Folglich gilt
SNt ≤ t < SNt +1
(6)
bzw.
SNt
t
SNt +1 Nt + 1
≤
≤
Nt
Nt
Nt + 1 Nt
•
15
∀t ≥ T1 .
Hieraus und aus (5) ergibt sich nun die Gültigkeit von (2).
Auÿerdem gilt der folgende zentrale Grenzwertsatz; vgl. auch Beispiel 4 in Abschnitt WR5.3.2.
Theorem 2.2
Sei
0 < µ = E T1 < ∞, E T12 < ∞
lim P
t→∞
wobei
c = Var T1 /µ3
und
und
Var T1 > 0.
Für jedes
( N − tµ−1
)
t
√
≤ x = Φ(x) ,
ct
Φ : R → [0, 1]
x∈R
gilt dann
(7)
die Verteilungsfunktion der Standardnormalverteilung ist.
Beweis
•
Aus dem Beweis des zentralen Grenzwertsatzes für Summen von unabhängigen und identisch verteilten Zufallsvariablen (vgl. den Beweis von Theorem WR5.16) ergibt sich, dass
die Konvergenz
gleichmäÿig in
x∈R
( S − nµ
)
n
lim P √
≤ x = Φ(x)
n→∞
nVar T1
erfolgt.
(8)
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Sei
⌊a⌋
gilt dann für jedes hinreichend
P
•
a ≥ 0.
groÿe t
der ganzzahlige Anteil von
Mit der Schreibweise
16
√
m(t) = ⌊x ct + tµ−1 ⌋
( N − tµ−1
)
√
t
√
≤x
= P (Nt ≤ x ct + tµ−1 )
ct
= P (Sm(t)+1 > t)
(S
t − µ(m(t) + 1) )
m(t)+1 − µ(m(t) + 1)
√
>√
.
= P
(m(t) + 1)Var T1
(m(t) + 1)Var T1
Also gilt
( N − tµ−1
)
t
√
≤ x − Φ(x)
P
ct
(S
( t − µ(m(t) + 1) ))
t − µ(m(t) + 1) ) (
m(t)+1 − µ(m(t) + 1)
√
≤ P
>√
− 1−Φ √
(m(t) + 1)Var T1
(m(t) + 1)Var T1
(m(t) + 1)Var T1
(
( t − µ(m(t) + 1) ))
+ 1 − Φ √
− Φ(x) .
(m(t) + 1)Var T1
•
Auÿerdem gilt für jedes
x∈R
√
lim m(t) = lim ⌊x ct + tµ−1 ⌋ = ∞ .
t→∞
•
t→∞
Wegen (8) und wegen der Symmetrieeigenschaft
1 − Φ(−x) = Φ(x)
der Verteilungsfunktion
Φ
∀x ∈ R
der N(0, 1)Verteilung genügt es somit noch zu zeigen, dass
t − µm(t)
lim √
= −x .
m(t)Var T1
(9)
t→∞
•
Weil
√
m(t) = x ct + tµ−1 + ε(t)
mit
0 ≤ |ε(t)| < 1
für jedes hinreichend groÿe
t≥0
gilt,
ergibt sich
t − µm(t)
√
m(t)Var T1
√
t − µx ct − t − µε(t)
√
=
m(t)Var T1
√
µ−1 Var T1 t
µε(t)
= −x √
−√
,
√
m(t)Var T1
µ−1 Var T1 t + xVar T1 ct + Var T1 ε(t)
wobei der erste Summand gegen
•
−x und der zweite Summand gegen 0 strebt für t → ∞.
Damit ist die Behauptung (7) bewiesen.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
17
2.1.2 Erneuerungsfunktion
Denition
Die Funktion
H : [0, ∞) → [0, ∞), wobei H(t) = E Nt die erwartete Anzahl von
[0, t] bezeichnet, wird Erneuerungsfunktion von {Nt }
Erneuerungszeitpunkten im Intervall
genannt. Aus (1) ergibt sich, dass
H(t) = E
∞
∑
1I(Sn ≤ t) =
n=1
∞
∑
E 1I(Sn ≤ t) =
n=1
∞
∑
F ∗n (t) ,
(10)
n=1
∗n
die Verteilungsfunktion der Zwischenankunftszeiten Tn und F
∗n
∗(n−1)
die n-te Faltungspotenz von F bezeichnet. Dabei gilt F
=F
∗ F und (G ∗ F )(t) =
∫t
∗1
∗0
∗0
G(t
−
s)
dF
(s)
mit F (t) = F (t) und F
=
1
I([0,
∞))
, d.h., F (t) = 1 für t ≥ 0 und
−∞
F ∗0 (t) = 0 für t < 0.
wobei
F : [0, ∞) → [0, 1]
Beachte
1. Es ist klar, dass die Erneuerungsfunktion
H : [0, ∞) → [0, ∞) monoton wachsend
H(t) < ∞ für jedes t ≥ 0 gilt.
ist.
Auÿerdem ist es nicht schwierig zu zeigen, dass
2. Allerdings ist es nur in wenigen Spezialfällen möglich, einfache geschlossene Formeln für
die Erneuerungsfunktion H herzuleiten. Die LaplaceStieltjesTransformierte ˆ
lH (s) =
∫ ∞ −sx
e
dH(x)
von H lässt sich jedoch immer durch die LaplaceStieltjesTransformierte
0
von F ausdrücken.
Theorem 2.3
Für jedes
s>0
gilt
ˆlH (s) =
Beweis
ˆlF (s)
.
1 − ˆlF (s)
(11)
Aus (10) ergibt sich, dass
∫
ˆlH (s) =
∞
0
e−sx d(
∞
∑
F ∗n (x)) =
n=1
∞ ∫
∑
n=1
wobei die geometrische Reihe
∑∞
∞
e−sx dF ∗n (x) =
0
ˆ
n=1 (lF (s))
∞
∑
ˆlF ∗n (s) =
n=1
n
konvergiert, weil ˆ
lF (s)
∞
∑
(ˆlF (s))n =
n=1
<1
für jedes
s>0
ˆlF (s)
,
1 − ˆlF (s)
gilt.
Aus Theorem 2.1 ergibt sich die Vermutung, dass die Erneuerungsfunktion
H(t) = E Nt ein ähnli{Nt } gezeigt
ches asymptotisches lineares Verhalten hat, wie es in (2) für den Erneuerungsprozess
wurde. Um dies zu zeigen, benötigen wir den folgenden Hilfssatz, der in der Literatur die Waldsche
Identität für Erneuerungsprozesse genannt wird.
Lemma 2.1
t≥0
Sei
g : [0, ∞) → [0, ∞)
E
t +1
(N∑
i=1
ein beliebige Borelmessbare Funktion. Dann gilt für jedes
)
g(Ti ) = E g(T1 )(E Nt + 1) .
(12)
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
18
Beweis
•
Um die Gültigkeit von (12) zu zeigen, führen wir die folgenden Hilfsvariablen ein: Sei

 0
Yi =
 1
•
falls
i > Nt + 1 ,
falls
i ≤ Nt + 1.
Dann ergibt sich aus dem Satz über die monotone Konvergenz, dass
E
t +1
(N∑
∞
∞
)
(∑
) ∑
g(Ti ) = E
g(Ti )Yi =
E (g(Ti )Yi ) ,
i=1
i=1
i=1
wobei die Erwartungswerte in der letzten Summe genauer bestimmt werden können, weil
g(Ti )
die Zufallsvariablen
•
unabhängig sind.
Dies gilt, weil die BernoulliVariable
Ereignis
•
Yi
und
{Yi = 1}
Es gilt jedoch
von
Ti
Yi
genau dann von
Ti
unabhängig ist, wenn das
unabhängig ist.
{Yi = 1} = {Nt + 1 ≥ i} = {Si−1 ≤ t},
Ti .
und das letzte Ereignis ist
unabhängig von
•
Hieraus folgt, dass
E
t +1
(N∑
∞
∞
) ∑
∑
g(Ti ) =
E g(Ti )E Yi = E g(T1 )
P (Yi = 1)
i=1
i=1
= E g(T1 )
∞
∑
i=1
P (Nt + 1 ≥ i) = E g(T1 )(E Nt + 1) .
i=1
Wir sind nun in der Lage, das folgende Theorem zu beweisen, das in der Literatur der elementare
Erneuerungssatz genannt wird.
Theorem 2.4
Sei
0 < µ < ∞.
Dann gilt
lim
t→∞
H(t)
1
= .
t
µ
(13)
Beweis
•
Aus Theorem 2.1 ergibt sich mit Hilfe des Lemmas von Fatou, dass
µ−1 = E lim inf t−1 Nt ≤ lim inf t−1 E Nt = lim inf t−1 H(t) .
t→∞
•
Andererseits gilt auch
t→∞
µ−1 ≥ lim sup t−1 H(t) .
t→∞
t→∞
(14)
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
•
Um dies zu zeigen, betrachten wir die gestutzten Zwischenankunftszeiten
′
für ein hinreichend groÿes b > 0, so dass E Tn > 0.
′
Sei {Nt , t ≥ 0} der entsprechende Zählprozess mit
∞
∑
Nt′ =
1I(Sn′ ≤ t) ,
Sn′ =
n
∑
n=1
H ′ (t) = E Nt′ .
• Dann gilt Nt′ ≥ Nt
19
Tn′ = min{Tn , b}
Ti′ ,
(15)
i=1
und
H ′ (t) ≥ H(t)
und somit
für jedes
t ≥ 0.
Hieraus und aus Lemma 2.1
ergibt sich, dass
′
E SN
′
t +1
lim sup t−1 H(t) ≤ lim sup t−1 H ′ (t) ≤ lim sup t−1
E T1′
t→∞
t→∞
t→∞
(
)
′
′
′ −1
≤ lim sup t−1 E SN
′ + TN ′ +1 (E T1 )
t
t
t→∞
≤ lim sup t−1 (t + b)(E T1′ )−1 = (E T1′ )−1 .
t→∞
•
Damit ist (14) bewiesen, denn es gilt
limb→∞ E T1′ = E T1 .
Auÿer der in Theorem 2.4 hergeleiteten asymptotischen Linearität lässt sich noch eine wesentliche
schärfere Aussage über das asymptotische Verhalten der Erneuerungsfunktion
H(t)
t → ∞
für
herleiten.
Der folgende Grenzwertsatz wird in der Literatur Erneuerungssatz von Blackwell bzw. Haupter-
neuerungssatz. genannt. Er besagt, dass sich das Erneuerungsmaÿ
H(B) =
∞ ∫
∑
n=0
dF ∗n (x) ,
H : B([0, ∞)) → [0, ∞]
mit
B ∈ B([0, ∞))
B
asymptotisch genauso wie das LebesgueMaÿ verhält.
Theorem 2.5
Sei
0 < µ < ∞, und die Verteilungsfunktion F sei nicht gitterförmig,
F liegen nicht auf einem regelmäÿigen Gitter. Dann gilt
y
lim (H((−∞, x]) − H((−∞, x − y])) =
∀y ≥ 0.
x→∞
µ
d.h., die
Wachstumspunkte von
(16)
Der Beweis von Theorem 2.5 geht über den Rahmen dieser Vorlesung hinaus und wird deshalb
weggelassen. Er kann beispielsweise in Kallenberg (2001), S. 172174 nachgelesen werden .
2.1.3 Verzögerte Erneuerungprozesse; stationäre Zuwächse
Wir betrachten nun ein etwas allgemeineres Modell von Erneuerungsprozessen. Dabei setzen wir
voraus, dass
T1 , T2 , . . . eine Folge von unabhängigen nichtnegativen Zufallsvariablen
T2 , T3 , . . . identisch verteilt sind mit der Verteilungsfunktion F .
ist und dass
die Zufallsvariablen
Wir lassen jedoch zu, dass
kann.
T1
eine beliebige Verteilungsfunktion
F1
hat, die von
F
verschieden sein
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
Denition
Die Folge {Sn , n ≥ 1} mit Sn
punktprozess genannt. Der Zählprozess
20
= T1 + . . . + Tn wird dann verzögerter Erneuerungs{Nt , t ≥ 0}, der wiederum so wie in (1) deniert wird,
heiÿt verzögerter Erneuerungszählprozess bzw. kurz verzögerter Erneuerungsprozess.
Völlig analog zu Theorem 2.4 lässt sich die folgende Aussage beweisen.
Theorem 2.6
Sei
0 < µ < ∞.
Dann gilt
lim
t→∞
H(t)
1
= ,
t
µ
wobei
H(t) = E Nt =
∞
∑
(17)
(F1 ∗ F ∗n )(t) .
(18)
n=0
Der Fall, wenn
F1
die sogenannte integrierte Tailverteilungsfunktion
rem Interesse, wobei
F s (x) =
Theorem 2.7
Es gelte
0<µ<∞
1
µ
∫
von
F
ist, ist von besonde-
x
(1 − F (y)) dy
∀x ≥ 0.
(19)
0
und
∀x ≥ 0.
F1 (x) = F s (x)
Dann ist die Erneuerungsfunktion
Fs
H(t)
(20)
gegeben durch
H(t) =
t
µ
∀t ≥ 0.
(21)
Beweis
•
Wenn auf beiden Seiten der Gleichung (18) zu den LaplaceStieltjesTransformierten
übergegangen wird, dann ergibt sich genauso wie im Beweis von Theorem 2.3, dass
ˆlH (s) =
ˆlF (s)
ˆlF s (s)
1
=
.
ˆ
1 − lF (s)
1 − ˆlF (s)
= (1−ˆlF (s))(sµ)−1 gilt, ergibt sich hieraus, dass ˆlH (s) = (sµ)−1 = µ−1
∫∞
e−sv dv .
•
Weil ˆ
lF s (s)
•
Wegen des eineindeutigen Zusammenhanges zwischen Erneuerungsfunktionen und Laplace
StieltjesTransformierten, ist damit die Gültigkeit von (21) bewiesen.
Für verzögerte Erneuerungsprozesse
{Nt , t ≥ 0},
0
die der Bedingung (20) genügen, lässt sich eine
wesentlich schärfere Aussage als in Theorem 2.7 herleiten. Hierfür benötigen wir den folgenden
Begri: Die Zufallsvariable
T (t) = SNt +1 − t
heiÿt Exzess zum Zeitpunkt
t ≥ 0.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
Theorem 2.8
{Nt , t ≥ 0}
Unter den Voraussetzungen von Theorem
2.7
21
ist der verzögerte Erneuerungsprozess
ein Prozess mit stationären Zuwächsen.
Beweis
•
T1 , T2 , . . . unabhängig sind, hängt die gemeinsame Verteilung
Nt1 +t − Nt0 +t , . . . , Ntn +t − Ntn−1 +t nicht von t ab, falls die Verteilung des
Weil die Zufallsvariablen
der Zuwächse
Exzesses
•
T (t)
diese Eigenschaft hat.
In Anbetracht der in Abschnitt 1.5 eingeführten Denition von Prozessen mit stationären
s
Zuwächsen genügt es zu zeigen, dass P (T (t) ≤ x) = F (x) für jedes x ≥ 0 gilt, und zwar
unabhängig von
•
t.
Dies ergibt sich aus den folgenden Überlegungen: Es gilt
P (T (t) ≤ x) =
∞
∑
P (Sn−1 ≤ t < Sn ≤ t + x)
n=1
= F (t + x) − F (t) +
s
s
∞ ∫
∑
n=1
= F (t + x) − F (t) + µ
s
s
−1
t
(F (t + x − y) − F (t − y)) d(F s ∗F ∗(n−1) )(y)
0
∫
t
(F (t + x − y) − F (t − y)) dy = F s (x) ,
0
wobei sich die dritte Gleichheit aus (18) und (21) ergibt.
Beachte
Weil
E Nt = E (Nt − Nt′ ) + E Nt′ für beliebige t, t′ ≥ 0 mit t′ ≤ t gilt, ergibt sich
E Nt eine lineare Funktion in t ist. Somit implizieren die
unmittelbar aus Theorem 2.8, dass
Theoreme 2.6 und 2.8 die Aussage von Theorem 2.7.
2.2 Zählprozesse vom PoissonTyp
2.2.1 Homogener PoissonProzess
In diesem Abschnitt betrachten wir (Erneuerungs-) Zählprozesse
Nt =
∞
∑
1I(Sk ≤ t)
{Nt , t ≥ 0}
mit
Sn = T1 + . . . + Tn ,
und
(22)
k=1
wobei
T1 , T2 , . . . : Ω → [0, ∞) eine Folge von unabhängigen und identisch verteilten Zufallsvariablen
Tn exponentialverteilt sind,
ist. Dabei setzen wir zusätzlich voraus, dass die Zwischenankunftszeiten
d.h.,
Tn ∼ Exp(λ)
Denition
für ein
Falls (23) gilt, dann wird der Zählprozess
mit der Intensität
λ
genannt.
λ > 0.
{Nt , t ≥ 0} ein homogener
(23)
PoissonProzess
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
22
Beachte
•
Eine grundlegende Eigenschaft homogener PoissonProzesse besteht darin, dass sie eine
Klasse stochastischer Prozesse mit unabhängigen und stationären Zuwächsen bilden.
•
Dies werden wir in dem folgenden Theorem genauer analysieren, das verschiedene äquivalente Denitionsmöglichkeiten des homogenen PoissonProzesses enthält wobei wir das
Adjektiv homogen der Kürze wegen weglassen.
Theorem 2.9
Sei
{Nt , t ≥ 0}
ein beliebiger Zählprozess. Dann sind die folgenden Aussagen äqui-
valent:
(a)
{Nt }
ist ein PoissonProzess mit Intensität
λ.
t ≥ 0 und n = 1, 2, . . . ist die Zufallsvariable Nt poissonverteilt mit Parameter λt,
Nt ∼ Poi(λt), und unter der Bedingung, dass {Nt = n}, hat der Zufallsvektor (S1 , . . . , Sn )
gleiche Verteilung wie die Ordnungsstatistik von n unabhängigen, in [0, t] gleichverteilten
(b) Für beliebige
d.h.
die
Zufallsvariablen.
(c)
{Nt }
E N1 = λ, und für beliebige t ≥ 0 und n = 1, 2, . . .
(S1 , . . . , Sn ) unter der Bedingung, dass {Nt = n}, die gleiche Verteilung
Ordnungsstatistik von n unabhängigen, in [0, t] gleichverteilten Zufallsvariablen.
hat unabhängige Zuwächse mit
der Zufallsvektor
die
(d)
{Nt }
hat stationäre und unabhängige Zuwächse, und für
P (Nh = 0) = 1 − λh + o(h) ,
(e)
h↓0
gilt
P (Nh = 1) = λh + o(h) .
{Nt } hat stationäre und unabhängige Zuwächse, und für jedes
verteilte Zufallsvariable.
Beweis
hat
wie
t ≥ 0
ist
(24)
Nt
eine
Poi(λt)
Wir führen einen zyklischen Beweis, d.h., wir zeigen, dass (a)⇒(b)⇒(c)⇒(d)⇒(e)⇒(a)
gilt.
(a)⇒(b)
•
Sn =
Verteilung mit den Parametern
•
∑n
i=1 Ti eine Summe von n unabhängigen und Exp(λ)
verteilten Zufallsvariablen ist, d.h., Sn ist Erl(n, λ)verteilt, wobei Erl(n, λ) die Erlang
Aus (a) ergibt sich, dass
Hieraus ergibt sich, dass
n
und
λ
bezeichnet.
P (Nt = 0) = P (S1 > t) = e−λt
P (Nt = n) =
und
P (Nt ≥ n) − P (Nt ≥ n + 1)
P (Sn ≤ t) − P (Sn+1 ≤ t)
∫ t n+1 n
∫ t n n−1
λ
v −λv
λ v
−λv
e
dv −
e
dv
=
n!
0
0 (n − 1)!
∫ t
(λt)n −λt
d ( (λv)n −λv )
dv =
=
e
e
n!
n!
0 dv
=
für jedes
n ≥ 1,
d.h.,
Nt
ist Poi(λt)verteilt.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Weil die gemeinsame Dichte
fS1 ,...,Sn+1 (t1 , . . . , tn+1 )
fS1 ,...,Sn+1 (t1 , . . . , tn+1 ) =
n+1
∏
von
S1 , . . . , Sn+1
23
gegeben ist durch
λe−λ(tk −tk−1 ) = λn+1 e−λtn+1
k=1
t0 = 0 ≤ t1 ≤ . . . ≤ tn ≤ tn+1 und fS1 ,...,Sn+1 (t1 , . . . , tn+1 ) = 0 sonst, gilt
fS1 ,...,Sn (t1 , . . . , tn | Nt = n) von S1 , . . . , Sn unter
Bedingung, dass Nt = n, die Formel
für beliebige
für die gemeinsame bedingte Dichte
der
fS1 ,...,Sn (t1 , . . . , tn | Nt = n) =
fS1 ,...,Sn (t1 , . . . , tn | S1 ≤ t, . . . , Sn ≤ t, Sn+1 > t)
∫ ∞ n+1 −λx
n+1
λ
e
dxn+1
= ∫t∫t
∫t t ∫∞
−λx
n+1
n+1 dx
. . . xn−1 t λ
e
n+1 . . . dx1
0 x1
=
für
•
0 ≤ t1 ≤ . . . ≤ tn ≤ t
und
n!
tn
fS1 ,...,Sn (t1 , . . . , tn | Nt = n) = 0
Das ist die Dichte der Ordnungsstatistik von
n
sonst.
unabhängigen, in
[0, t]
gleichverteilten
Zufallsvariablen.
(b)⇒(c)
•
Aus (b) ergibt sich ohne weiteres, dass
•
Sei nun
x1 , . . . , xn ∈ N
x = x1 + . . . + xn , dass
P
und
E N1 = λ.
t0 = 0 < t1 < . . . < tn .
Dann ergibt sich aus (b) für
n
n
(∩
(∩
)
{
})
{
} Ntk − Ntk−1 = xk
= P
Ntk − Ntk−1 = xk Ntn = x P (Ntn = x)
k=1
k=1
=
)x
n (
∏
tk − tk−1 k
(λtn )x −λtn
x!
e
x!
x1 ! . . . xn !
tn
k=1
=
n
∏
(λ(tk − tk−1 ))xk −λ(tk −tk−1 )
e
,
xk !
k=1
d.h., der Zählprozess
{Nt }
hat unabhängige Zuwächse.
(c)⇒(d)
•
Wir nehmen an, dass der Zufallsvektor (S1 , . . . , Sm ) unter der Bedingung, dass N (tn +
h) = m, die gleiche Verteilung hat wie die Ordnungsstatistik von m unabhängigen, in
[0, tn + h] gleichverteilten Zufallsvariablen.
•
Dann gilt für beliebige
P
x1 , . . . , xn ∈ N, t0 = 0 < t1 < . . . < tn
und
h > 0,
dass
n
n
(∩
)
(∩
)
{
}
{
}
Ntk +h − Ntk−1 +h = xk Ntn +h = m = P
Ntk − Ntk−1 = xk Ntn +h = m .
k=1
k=1
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
•
24
Mit Hilfe der Formel der totalen Wahrscheinlichkeit ergibt sich nun, dass der Zählprozess
{Nt }
stationäre Zuwächse hat.
Auÿerdem ergibt sich aus der bedingten Gleichverteilungseigenschaft, die in (c) vorausgesetzt wird, dass für
P (Nh = 0)
∞
∑
=
k=0
∞
∑
=
0<h<1
P (Nh = 0, N1 − Nh = k) =
∞
∑
P (N1 = k) P (N1 − Nh = k | N1 = k)
k=0
P (N1 = k)(1 − h)k .
k=0
•
Somit gilt
1
(1 − P (Nh = 0))
h
)
∑
1(
1−
P (N1 = k)(1 − h)k
h
∞
=
k=0
∞
∑
=
P (N1 = k)
k=1
•
1 − (1 − h)k
.
h
(1 − h)k ≥ 1 − kh, die für beliebige 0 < h < 1 und k = 1, 2, . . .
gh (k) = h−1 (1 − (1 − h)k ) in der letzten Summe die
Schranke g(k) = k besitzen.
Aus der Ungleichung
gilt, folgt, dass die Funktionen
gemeinsame
•
Diese Schranke ist integrierbar, denn es gilt
∞
∑
kP (N1 = k) = E N1 = λ < ∞ .
k=1
•
Durch Vertauschung von Summation und Grenzwert ergibt sich nun, dass
lim
h→0
1
P (Nh > 0) = λ
h
und somit der erste Teil von (24).
•
Auf die gleiche Weise erhalten wir, dass
∞
∑
1
lim
P (Nh = 1) = lim
P (N1 = k) k(1 − h)k−1 = λ ,
h→0 h
h→0
k=1
was äquivalent zum zweiten Teil von (24) ist.
(d)⇒(e)
•
Sei
n ∈ N, t ≥ 0
und
pn (t) = P (Nt = n).
Dann gilt für
h>0
p0 (t + h) = P (Nt = 0, Nt+h − Nt = 0) = p0 (t)(1 − λh + o(h))
und für
t≥h>0
p0 (t) = p0 (t − h)(1 − λh + o(h)) .
(25)
(26)
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Hieraus folgt, dass die Funktion
p0 (t)
stetig in
(0, ∞)
und rechtsstetig im Punkt
25
t=0
ist.
•
Weil
p0 (t − h) = p0 (t) + o(1),
ergibt sich aus (25) und (26), dass für beliebige
h ≥ −t
p0 (t + h) − p0 (t)
= −λp0 (t) + o(1) .
h
•
Die Funktion
p0 (t)
ist somit dierenzierbar, und sie genügt der Dierentialgleichung
(1)
p0 (t) = −λp0 (t)
für
•
t > 0.
Wegen
p0 (0) = P (N0 = 0) = 1
durch
•
ist die (eindeutig bestimmte) Lösung von (27) gegeben
p0 (t) = e−λt ,
Um zu zeigen, dass
für beliebige
n∈N
t ≥ 0.
(λt)n −λt
e ,
n!
pn (t) =
•
(27)
(28)
t≥0
(29)
gilt, kann man genauso wie im Beweis von (28) vorgehen.
Hierfür genügt es zu beachten, dass (24) die Gültigkeit von
P (Nh > 1) = o(h)
für
h↓0
impliziert.
•
Mit Hilfe von (28) ergibt sich nun durch vollständige Induktion nach
n,
dass (29) gilt.
(e)⇒(a)
•
Sei
P
b0 = 0 ≤ a1 < b1 ≤ . . . ≤ an < bn .
n
(∩
)
{ak < Sk ≤ bk }
=
P
Dann gilt
(n−1
∩{
}
Nak − Nbk−1 = 0, Nbk − Nak = 1
k=1
k=1
{
})
∩ Nan − Nbn−1 = 0, Nbn − Nan ≥ 1 ,
und aus (e) ergibt sich , dass
P
n
(∩
)
{ak < Sk ≤ bk }
=
e−λ(an −bn−1 ) (1 − e−λ(bn −an ) )
k=1
n−1
∏
e−λ(ak −bk−1 ) λ(bk − ak )e−λ(bk −ak )
k=1
=
(e−λan − e−λbn )λn−1
∫
∫
b1
=
n−1
∏
(bk − ak )
k=1
bn
...
λn e−λyn dyn . . . dy1
a1
an
∫ b1 ∫ b2 −x1
∫
bn −x1 −...−xn−1
...
=
a1
a2 −x1
an −x1 −...−xn−1
λn e−λ(x1 +...+xn ) dxn . . . dx1 .
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Die gemeinsame Dichte von
P
n
(∩
S1 , S2 − S1 , . . . , Sn − Sn−1
26
ist somit gegeben durch
)
{Sk − Sk−1 ∈ dxk } = λn e−λ(x1 +...+xn ) dx1 . . . dxn .
k=1
•
Dies bedeutet, dass die Zufallsvariablen
Exp(λ)verteilt sind, d.h.,
{Nt }
S1 , S2 − S1 , . . . , Sn − Sn−1
unabhängig und
ist ein PoissonProzess mit der Intensität
λ.
2.2.2 Zusammengesetzte PoissonProzesse
Wir verallgemeinern das mit Hilfe von (22) eingeführte Modell eines homogenen PoissonProzesses
{Nt , t ≥ 0}, indem wir nun zulassen, dass die Sprunghöhen beliebige Zufallsvariablen sind, die nicht
notwendig gleich Eins sein müssen.
•
Auÿer der Folge der Sprungzeitpunkte
S1 , S 2 , . . .
deshalb zusätzlich eine Folge von Zufallsvariablen
mit 0 < S1 < S2 < . . . betrachten wir
U1 , U2 , . . . : Ω → R, die die Sprunghöhen
des zu konstruierenden (Sprung-) Prozesses sein werden.
•
So wie in Abschnitt 2.2.1 nehmen wir an, dass
[0, ∞)
Sn = T1 + . . . + Tn
gilt, wobei
T1 , T2 , . . . : Ω →
eine Folge von unabhängigen und identisch Exp(λ)verteilten Zwischenankunftszeiten
ist.
•
Dabei wird vorausgesetzt, dass
U1 , U2 , . . . eine Folge von unabhängigen und identisch verteilten
T1 , T2 , . . . unabhängig
Zufallsvariablen ist, die von der Folge der Zwischenankunftszeitpunkte
ist.
Denition
Der stochastische Prozess
{Xt , t ≥ 0}
Xt =
∞
∑
mit
Uk 1I(Sk ≤ t) =
k=1
Nt
∑
Uk
(30)
k=1
heiÿt zusammengesetzter PoissonProzess mit den Charakteristiken
Verteilungsfunktion der Sprunghöhen
U1 , U2 , . . .
(λ, FU ),
wobei
FU
die
bezeichnet, vgl. Abb. 3.
Theorem 2.10
Sei {Xt } ein zusammengesetzter PoissonProzess mit den Charakteristiken (λ, FU ),
sU
so dass die momenterzeugende Funktion m̂U (s) = E e n von Un für jedes s ∈ R wohldeniert sei.
Dann gilt:
(a)
{Xt }
hat stationäre und unabhängige Zuwächse.
(b) Für beliebige
s∈R
und
t≥0
ist die momenterzeugende Funktion
m̂Xt (s) = E esXt
von
Xt
gegeben durch
m̂Xt (s) = eλt(m̂U (s)−1) ,
(31)
und es gilt
E Xt = λtµU ,
wobei
µU = E Un
und
(2)
µU = E Un2
(2)
Var Xt = λtµU ,
die ersten beiden Momente der Sprunghöhen
(32)
Un
sind.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
Abbildung 3: Zusammengesetzter PoissonProzess
27
{Xt }
Beweis
•
Um die Teilaussage (a) zu beweisen, genügt es zu zeigen, dass für beliebige
0
und
0 ≤ t0 < t 1 < . . . < t n
Nt1 +h
∑
∑
Ntn +h
Ui1 , . . . ,
i1 =Nt0 +h +1
Uin
in =Ntn−1 +h +1
unabhängig sind und dass ihre Verteilungen nicht von
•
Weil die Folge
{Un }
die unabhängig von
(
∑
sind, gilt für beliebige
∑
abhängen.
∑
x1 , . . . , xn ≥ 0
Ntn +h
Ui1 ≤ x1 , . . . ,
i1 =Nt0 +h +1
=
h
aus unabhängigen und identisch verteilten Zufallsvariablen besteht,
{Tn }
Nt1 +h
P
n = 1, 2, . . . , h ≥
die Zufallsvariablen
Uin ≤ xn
)
in =Ntn−1 +h +1
n
∏
∗k
FU j (xj )P (Nt1 +h − Nt0 +h = k1 , . . . , Ntn +h − Ntn−1 +h = kn ) .
k1 ,...,kn ≥0 j=1
•
Es genügt nun zu beachten, dass wir in Theorem 2.9 gezeigt hatten, dass der Poisson
Prozess
•
{Nt }
unabhängige und stationäre Zuwächse hat.
Unter Berücksichtigung unserer Unabhängigkeits- und Verteilungsannahmen ergibt sich
die Formel (31) in Teilaussage (b) unmittelbar aus der Formel der totalen Wahrscheinlicheit.
•
Beachte
Die Formeln in (32) ergeben sich durch Dierenzieren beider Seiten von (31).
Die Verteilung einer Zufallsvariablen, deren momenterzeugende Funktion die Form (31)
hat, heiÿt zusammengesetzte PoissonVerteilung mit den Charakteristiken
(λ, FU ).
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
28
2.2.3 Poissonsche Zählmaÿe; CoxProzesse; Simluationsalgorithmus
Der in Abschnitt 2.2.1 betrachtete Begri des Poissonschen Zählprozesses {Nt , t ≥ 0} mit Nt =
∑∞
k=1 1I(Sk ≤ t) und Sn = T1 + . . . + Tn , wobei die Zufallsvariablen T1 , T2 , . . . : Ω → [0, ∞)
unabhängig und identisch Exp(λ)verteilt sind, lässt sich wie folgt weiter verallgemeinern.
•
Anstelle die Anzahl
Nt
der Sprungpunkte
zu betrachten, kann man die Anzahl
B([0, ∞))
NB
{Sn }
nur in Intervallen der Form
[0, t]
für
t≥0
B∈
dieser Punkte in einer beliebigen BorelMenge
betrachten, wobei
NB =
∞
∑
1I(Sn ∈ B) .
(33)
n=1
•
Man kann leicht zeigen, dass der mengenindizierte Prozess
{NB , B ∈ B([0, ∞))}
die Eigen-
schaften eines zufälligen Zählmaÿes hat, d.h., es gilt
N∪∞
=
n=1 Bn
∞
∑
NBn
(34)
n=1
für beliebige BorelMengen
Denition
B1 , B2 , . . . ∈ B([0, ∞)),
die paarweise disjunkt sind.
{NB , B ∈ B([0, ∞))}, wobei Sn = T1 +. . .+Tn
T1 , T2 , . . . : Ω → [0, ∞) unabhängig und identisch Exp(λ)verteilt
Poissonsches Zählmaÿ mit der Intensität λ genannt.
Das in (33) gegebene zufällige Zählmaÿ
und die Zufallsvariablen
sind, wird homogenes
Unmittelbar aus Theorem 2.9 ergibt sich die Gültigkeit der folgende beiden Aussagen.
Theorem 2.11
Sei
{NB , B ∈ B([0, ∞))}
ein Poissonsches Zählmaÿ mit der Intensität
λ.
Dann
gilt:
•
•
NB1 , NB2 , . . . sind unabhängig für beliebige beschränkte und paarweise
disjunkte BorelMengen B1 , B2 , . . . ∈ B([0, ∞)).
Die Zufallsvariablen
Für jedes beschränkte
B ∈ B([0, ∞))
gilt
NB ∼ Poi(λν(B)),
wobei
ν : B([0, ∞)) → [0, ∞]
das
LebesgueMaÿ ist.
Beachte
Mit Hilfe des Satzes über die monotone Konvergenz kann man leicht zeigen, dass die
Mengenfunktion
µ : B([0, ∞)) → [0, ∞]
mit
µ(B) = E NB ,
die durch das zufällige Zählmaÿ
ist ein Maÿ.
{NB , B ∈ B([0, ∞))}
(35)
induziert wird,
σ additiv
ist, d.h.,
µ
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
Denition
Das in (35) gegebene Maÿ
µ
wird Intensitätsmaÿ des zufälligen Zählmaÿes
29
{NB }
genannt.
Beachte
•
Für das Intensitätsmaÿ
µ eines homogenen Poissonschen Zählmaÿes mit Intensität λ gilt
µ(B) = λν(B)
•
∀ B ∈ B([0, ∞)) .
(36)
Die am Ende von Abschnitt 1.2 erwähnte Variante des Existenzsatzes von Kolmogorow für beliebige Indexmengen
I
ermöglicht es, Poissonsche Zählmaÿe mit allgemeineren
Intensitätsmaÿen als in (36) zu betrachten.
Denition
µ : B([0, ∞)) → [0, ∞] ein beliebiges lokalendliches Maÿ, d.h., µ(B) < ∞ gilt für
B ∈ B([0, ∞)). Das zufällige Zählmaÿ {NB , B ∈ B([0, ∞))}
(inhomogenes) Poissonsches Zählmaÿ mit dem Intensitätsmaÿ µ genannt, wenn
Sei
jede beschränkte BorelMenge
wird
•
die Zufallsvariablen
NB1 , NB2 , . . . unabhängig sind für beliebige
B1 , B2 , . . . ∈ B([0, ∞)) und
beschränkte und paar-
weise disjunkte BorelMengen
• NB ∼ Poi(µ(B))
für jedes beschränkte
B ∈ B([0, ∞))
gilt.
Man kann sogar noch einen Schritt weiter gehen und sogenannte doppeltstochastische Poisson
Prozesse betrachten, die in der Literatur auch CoxProzesse genannt werden.
Denition
Sei
{ΛB , B ∈ B([0, ∞))}
ein beliebiges zufälliges Maÿ, das mit Wahrscheinlichkeit
1
lokalendlich ist.
•
Das zufällige Zählmaÿ
{NB , B ∈ B([0, ∞))} wird doppeltstochastisches PoissonZählmaÿ
Λ genannt, wenn
bzw. CoxZählmaÿ mit dem zufälligen Intensitätsmaÿ
∫ (∏
n
n Λk i
n µki
(∩
(∏
{
})
(
))
(
))
(ai ,bi ]
(ai ,bi ]
P
N(ai ,bi ] = ki
=E
exp −Λ(ai ,bi ] =
exp −µ(ai ,bi ] P (Λ ∈ dµ)
ki !
ki !
i=1
i=1
i=1
(37)
für beliebige
n ∈ N, k1 , . . . , kn ∈ {0, 1, . . .}
und
0 ≤ a1 < b1 ≤ a2 < b2 ≤ . . . ≤ an < bn
gilt.
•
Der durch (37) gegebene Zählprozess {Nt , t ≥ 0} mit Nt = N[0,t] heiÿt doppeltstochastischer
PoissonProzess bzw. CoxProzess mit dem zufälligen Intensitätsmaÿ Λ.
Ein wichtiger Spezialfall liegt dann vor,
•
wenn die Realisierungen des zufälligen Intensitätsmaÿes
stetig bezüglich des LebesgueMaÿes sind, d.h.,
Λ
mit Wahrscheinlichkeit 1 absolut-
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
{λt , t ≥ 0}
wenn es einen stochastischen Prozess
30
gibt, dessen Trajektorien (mit Wahrschein-
lichkeit 1) Borelmessbare und lokalintegrierbare nichtnegative Funktionen sind, so dass für
jede beschränkte Borel-Menge
B ∈ B([0, ∞))
∫
ΛB =
λt dt < ∞
(38)
B
mit Wahrscheinlichkeit
•
1
Der stochastische Prozess
gilt.
{λt }
wird dann Intensitätsprozess von
{NB }
genannt.
Im folgenden Theorem wird eine Zeittransformation von homogenen PoissonProzessen (mit Intensität
λ = 1)
betrachtet. Sie liefert einen Algorithmus zur Simulation von CoxProzessen mit
vorgegebenem Intensitätsprozess.
Theorem 2.12
•
Sei
{Nt′ , t ≥ 0} ein (homogener) PoissonProzess mit der Intensität λ = 1, und sei {λt , t ≥ 0}
ein beliebiger Intensitätsprozess.
•
Die stochastischen Prozesse
•
Dann ist der Zählprozess
{Nt′ }
und
{Nt , t ≥ 0}
{λt }
seien unabhängig.
mit
Nt = Ng′ t
∫
t
gt =
und
λv dv
(39)
0
ein CoxProzess mit dem Intensitätsprozess
{λt }.
Beweis
•
Wir müssen lediglich zeigen, dass (37) gilt.
•
Wegen der vorausgesetzten Unabhängigkeit der Prozesse
annehmen, dass der Wahrscheinlichkeitsraum
(Ω, F, P ),
{Nt′ }
und
{λt }
Form
(Ω, F, P ) = (Ω1 × Ω2 , F1 ⊗ F2 , P1 × P2 )
hat, wobei
{Nt′ }
über
(Ω1 , F1 , P1 )
und
{λt }
über
können wir
der beide Prozesse trägt, die
(Ω2 , F2 , P2 )
deniert ist.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Aus der Denitionsgleichung (39) des Zählprozesses
31
{Nt } und aus den in Abschnitt 3.2.1
diskutierten Eigenschaften der bedingten Erwartung ergibt sich, dass
P
n
(∩
n
)
(∩
)
{N(ai ,bi ] = ki } = P
{Nbi − Nai = ki }
i=1
= P
= E
∫
n
(∩
{
i=1
n
(∏
E
Ω2
∫
N∫′ bi λ
v
0
− N∫′ ai λv dv = ki
dv
0
v
− N∫′ ai λv dv = ki
dv
n
(∏
Ω2 i=1
v (ω2 ) dv
0
(
E 1I N∫′ bi λ
v (ω2
0
= E 1I
n
(∩
{ ′
N∫ bi λ
0
i=1
))
v
− N∫′ ai λv dv = ki
dv
})
0
0
n
(∏
(
1I N∫′ bi λ
i=1
})
0
(
1I N∫′ bi λ
i=1
=
=
i=1
))
− N∫′ ai λv (ω2 ) dv = ki P2 (dω2 )
0
))
∫′ ai
−
N
=
k
P2 (dω2 ) ,
i
λ
(ω
)
dv
v
2
) dv
0
wobei sich die beiden letzten Gleichheiten aus den Unabhängigkeitseigenschaften der
′
Prozesse {Nt } und {λt } und aus der Darstellungsformel (8) der regulären bedingten
Erwartung für Funktionale unabhängiger stochastischer Prozesse ergeben.
•
{Nt′ } ein homogener PoissonProzess mit der Intensität λ = 1 ist, der unabhängig
von {λt } ist, ergibt sich durch die erneute Anwendung der Darstellungsformel (8), dass
für jedes i = 1, . . . , n
(∫ bi
)ki
∫ bi
λ (ω2 ) dv
( ′
)
(
)
ai v
′
∫
E 1I N∫ bi λ (ω ) dv − N ai λv (ω2 ) dv = ki =
exp −
λv (ω2 ) dv .
0
v
2
k
!
0
i
ai
•
Hieraus ergibt sich, dass
Weil
P
n
(∩
{N(ai ,bi ]
n
)
(∏
= ki } = E
i=1
i=1
(∫ bi
ai
λv dv
ki !
)ki
(
exp −
∫
bi
λv dv
))
,
ai
wobei der letzte Ausdruck mit der rechten Seite von (37) übereinstimmt.
Bespiele
1. Eine spezielle Klasse von CoxProzessen sind die gemischten PoissonProzesse, deren
Intensitätsprozess
{λt }
durch
λt = Z
gegeben ist, wobei
Z : Ω → [0, ∞)
eine beliebige
nichtnegative Zufallsvariable ist.
λ′ : [0, ∞) → [0, ∞) eine periodische (und deterministische) Funktion mit der Periode
1, und sei {Nt′ , t ≥ 0} ein (homogener) PoissonProzess mit der Intensität λ = 1.
• Dann wird der Zählprozess {Nt , t ≥ 0} mit
∫ t
Nt = Ng′ t
und
gt =
λ′v dv
2. Sei
0
ein periodischer PoissonProzess genannt, der im allgemeinen keine stationären Zuwächse hat.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
32
Es ist jedoch möglich, auf die folgende Weise einen entsprechenden CoxProzess mit
stationären Zuwächsen zu konstruieren.
U : Ω → [0, 1] eine [0, 1]gleichverteilte
{Nt′ } ist. Auÿerdem sei
Sei nämlich
hängig von
∫
λt = λ′t+U
t
Λt =
und
Zufallsvariable, die unab-
λs ds .
0
Dann ergibt sich aus Theorem 2.12, dass
{Nt∗ , t ≥ 0}
mit
Nt∗ = NΛ′ t
ein Cox
Prozess ist.
Auÿerdem kann man sich leicht überlegen, dass der CoxProzess
{Nt∗ } stationäre
Zuwächse hat.
2.3 MarkowProzesse mit endlich vielen Zuständen
Wir beginnen mit einem kurzen Rückblick auf Markow-Prozesse mit diskreter Zeit, die in der
Literatur MarkowKetten genannt werden und die beispielsweise in der Vorlesung Markov Chains
and MonteCarlo Simulation ausführlich behandelt werden.
•
Das stochastische Modell der zeitdiskreten Markow-Ketten (mit endlich vielen Zuständen)
besteht aus den drei Komponenten: Zustandsraum, Anfangsverteilung und Übergangsmatrix.
Den Ausgangspunkt bildet die (endliche) Menge aller möglichen Zustände, die Zustands-
raum der Markow-Kette genannt wird und die o.B.d.A. mit der Menge
E = {1, 2, . . . , ℓ}
ℓ ∈ {1, 2, . . .}
eine beliebige, jedoch fest vorgegebene
i ∈ E sei αi die Wahrscheinlichkeit,
n = 0 im Zustand i bendet, wobei
dass sich das betrachtete System zum
identiziert werden kann, wobei
natürliche Zahl ist.
Für jedes
Zeitpunkt
αi ∈ [0, 1] ,
ℓ
∑
αi = 1
(1)
i=1
vorausgesetzt wird. Der Vektor
α1 , . . . , αℓ
α = (α1 , . . . , αℓ )⊤
Auÿerdem betrachten wir für jedes Paar
[0, 1],
der (Einzel-) Wahrscheinlichkeiten
bildet die Anfangsverteilung der Markow-Kette.
i, j ∈ E
die (bedingte) Wahrscheinlichkeit
dass das betrachtete System in einem Schritt aus dem Zustand
i
pij ∈
j
in den Zustand
übergeht.
Die
ℓ×ℓ
Matrix
P = (pij )i,j=1,...,ℓ
der Übergangswahrscheinlichkeiten
pij ≥ 0 ,
ℓ
∑
pij = 1 ,
j=1
heiÿt (einstuge) Übergangsmatrix der Markow-Kette.
pij
mit
(2)
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Für jede Menge
P = (pij ),
E = {1, 2, . . . , ℓ},
für jeden Vektor
α = (α1 , . . . , αℓ )⊤
33
bzw. jede Matrix
die den Bedingungen (1) und (2) genügen, kann nun der Begri der zugehörigen
Markow-Kette wie folgt eingeführt werden.
Denition
•
Sei
X 0 , X1 , . . . : Ω → E
Wahrscheinlichkeitsraum
{1, 2, . . . , ℓ}
•
eine Folge von Zufallsvariablen, die über einunddemselben
(Ω, F, P )
deniert sind und ihre Werte in der Menge
E =
annehmen.
X0 , X1 , . . . (homogene) Markow-Kette mit der Anfangsverteilung α = (α1 , . . . , αℓ )⊤
Übergangsmatrix P = (pij ), falls
Dann heiÿt
und der
P (X0 = i0 , X1 = i1 , . . . , Xn = in ) = αi0 pi0 i1 . . . pin−1 in
für beliebige
n = 0, 1, . . .
und
i0 , i1 , . . . , in ∈ E
(3)
gilt.
Beachte
•
Für beliebige
n ≥ 1 und i, j ∈ E kann das Produkt pii1 pi1 i2 . . . pin−1 j
i → i1 → . . . → in−1 → j aufgefasst werden.
als die Wahrschein-
lichkeit des Pfades
•
Analog hierzu kann die Summe
∑
(n)
pij =
pii1 pi1 i2 . . . pin−1 j
(4)
i1 ,...,in−1 ∈E
als die Wahrscheinlichkeit des Überganges vom Zustand
i in den Zustand j
in
n Schritten
aufgefasst werden, wobei
(n)
pij = P (Xn = j | X0 = i) ,
falls
•
P (X0 = i) > 0.
Die stochastische Matrix
Markow-Kette
•
{Xn }
(n)
P(n) = (pij )i,j=1,...,ℓ
wird die
n-stuge
Übergangsmatrix der
genannt.
P(0) = I, wobei I die ℓ × ℓ-dimensionale Einheitsmatrix bezeichnet,
(n)
mehrstugen Übergangsmatrizen P
wie folgt darstellen:
Mit der Schreibweise
lässt sich sich die
•
(5)
Für beliebige
n, m = 0, 1, . . .
gilt
P(n) = Pn
(6)
P(n+m) = P(n) P(m) .
(7)
und somit
Die Matrix-Identität (7) wird in der Literatur Gleichung von Chapman-Kolmogorov genannt.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
34
2.3.1 Anfangsverteilung und Übergangsfunktion
Um den Begri eines MarkowProzesses
E = {1, 2, . . . , ℓ}
{Xt , t ≥ 0} mit stetiger Zeit und mit Werten in der Menge
einzuführen, betrachten wir erneut
α = (α1 , . . . , αℓ )⊤
•
einen Vektor von Wahrscheinlichkeiten
•
eine Familie von stochastischen Matrizen
mit
∑
P(h) = (pij (h))i,j∈E
i∈E
αi = 1
für jedes
sowie
h ≥ 0.
Beachte
•
Im Unterschied zu MarkowProzessen mit diskreter Zeit muss nun vorausgesetzt werden,
dass
P(h1 + h2 ) = P(h1 )P(h2 )
(8)
h1 , h2 ≥ 0 gilt, wobei die Matrix-Identität (8) wiederum die Gleichung von
Chapman-Kolmogorow genannt wird.
für beliebige
•
Auÿerdem wird vorausgesetzt, dass
lim P(h) = P(0) = I .
(9)
h↓0
•
Es ist nicht schwierig zu zeigen, dass die MatrixFunktion
in
h≥0
P(h)
dann gleichmäÿig stetig
ist.
Denition
1. Eine Familie von stochastischen Matrizen
{P(h), h > 0},
die den Bedingungen (8) und
(9) genügt, wird MatrixÜbergangsfunktion bzw. kurz Übergangsfunktion genannt.
{Xt , t ≥ 0} mit Werten in E = {1, 2, . . . , ℓ} heiÿt homogener
MarkowProzess, wenn es eine Übergangsfunktion {P(h), h ≥ 0} und eine Wahrschein-
2. Ein stochastischer Prozess
lichkeitsfunktion
α
über
E
gibt, so dass
P (X0 = i0 , Xt1 = i1 , . . . , Xtn = in ) = αi0 pi0 i1 (t1 )pi1 i2 (t2 − t1 ) . . . pin−1 in (tn − tn−1 ) ,
(10)
n = 0, 1, . . . , i0 , i1 , . . . , in ∈ E, 0 ≤ t1 ≤ . . . ≤ tn gilt.
⊤
Die Wahrscheinlichkeitsfunktion α = (α1 , . . . , αℓ ) heiÿt Anfangsverteilung des Markow
Prozesses {Xt }.
für beliebige
3.
Eine typische Trajektorie eines MarkowProzesses mit stetiger Zeit ist in Abb. 4 gegeben.
Ähnlich wie für MarkowKetten in Theorem MC-2.1 lässt sich die folgende Charakterisierung von
homogenen MarkowProzessen mit stetiger Zeit herleiten, die wir deshalb ohne Beweis angeben.
Das Adjektiv homogen werden wir im Folgenden der Kürze wegen weglassen.
Theorem 2.13
Ein stochastischer Prozess {Xt , t ≥ 0} mit Werten in
dann ein MarkowProzess, wenn es eine Übergangsfunktion {P(h), h ≥
E = {1, 2, . . . , ℓ}
0} gibt, so dass
P (Xtn = in | Xtn−1 = in−1 , . . . , Xt1 = i1 , X0 = i0 ) = pin−1 in (tn − tn−1 )
für diejenigen n ≥ 1, i0 , i1 , . . . , in ∈ E
i1 , X0 = i0 ) > 0 gilt.
und
0 ≤ t1 ≤ . . . ≤ tn ,
für die
ist genau
(11)
P (Xtn−1 = in−1 , . . . , Xt1 =
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
35
Abbildung 4: Trajektorie eines MarkowProzesses (mit Sprungzeitpunkten)
Analog zu Korollar MC-2.1 gilt auch für MarkowProzesse mit stetiger Zeit die folgende bedingte
Unabhängigkeitseigenschaft.
Korollar 2.1
Sei
{Xt }
ein MarkowProzess. Dann gilt
P (Xtn = in | Xtn−1 = in−1 , . . . , Xt1 = i1 , X0 = i0 ) = P (Xtn = in | Xtn−1 = in−1 ) ,
falls
(12)
P (Xtn−1 = in−1 , . . . , Xt1 = i1 , X0 = i0 ) > 0.
2.3.2 Übergangsintensitäten
Mit der Schreibweise
δij = 1,
falls
i = j,
und
δij = 0,
falls
i ̸= j ,
können wir die folgende
grundlegende Dierenzierbarkeitseigenschaft von Übergangsfunktionen formulieren.
Theorem 2.14
Sei
{P(h), h ≥ 0}
eine Übergangsfunktion. Dann existieren die (endlichen) Grenz-
werte
qij = lim
h↓0
1
(pij (h) − δij ) .
h
(13)
Beweis
•
Weil in der Behauptung von Theorem 2.14 die Anfangsverteilung nicht näher speziziert
wird, können wir ohne Einschränkung der Allgemeinheit annehmen,
•
dass
P (X0 = i) > 0
für jedes
i∈E
gilt,
wobei wir die Gültigkeit von (13) zuerst für
j0
Dabei setzen wir pii (h)
=1
pjv
ii (h) =
v
fij
(h) =
i ̸= j
zeigen.
und
P (Xvh = i; Xkh ̸= j, 1 ≤ k < v | X0 = i) ,
P (Xvh = j; Xkh ̸= j, 1 ≤ k < v | X0 = i) .
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
36
Aus (8) ergibt sich dann, dass
pij (nh) ≥
n−1
∑
pjv
ii (h)pij (h)pjj ((n − v − 1)h)
(14)
v=0
und
pii (vh) = pjv
ii (h) +
•
Weil
∑v−1
m=1
v−1
∑
m
fij
(h)pji ((v − m)h) .
(15)
m=1
m
fij
(h) ≤ 1
gilt, ergibt sich aus (15) die Ungleichung
pjv
ii (h) ≥ pii (vh) − max pji ((v − m)h) .
(16)
1≤m<v
•
Mit Hilfe von (9) erhalten wir nun, dass es für beliebige
h0 > 0
min pii (h) > 1 − ε,
max pji (h) < ε,
0≤h≤h0
ε>0
und
i, j ∈ E
mit
i ̸= j
ein
gibt, so dass
Für
nh < h0
und
v≤n
0≤h≤h0
min pjj (h) > 1 − ε.
0≤h≤h0
ergibt sich somit aus (16), dass
(17)
pjv
ii (h) > 1 − 2ε.
Wenn man dies in (14) einsetzt, dann ergibt sich die Ungleichung
pij (nh) ≥ (1 − 2ε)
n−1
∑
pij (h)(1 − ε) ≥ (1 − 3ε)npij (h)
v=0
bzw.
für
•
pij (nh)
pij (h)
≥ (1 − 3ε)
nh
h
(18)
nh < h0 .
aij = lim inf h→0 pij (h)/h ergibt dies, dass aij < ∞.
= ∞ gelten würde, dann würde es ein beliebig kleines h
Mit der Schreibweise
dass
aij
pij (h)/h beliebig
Denn, wenn
Wegen (18), würde auch
Wenn andererseits
n
geben, so
groÿ ist.
pij (nh)/nh
beliebig groÿ werden.
so gewählt wird, dass
h0 /2 ≤ nh < h0 ,
dann ergibt (17), dass
pij (nh)
ε
<
< h−1
0 2ε .
nh
nh
•
Somit gilt
aij < ∞,
und es genügt zu zeigen, dass
lim sup
h→0
Aus der Denition von
Weil
pij (h)
aij
pij (h)
≤ aij .
h
folgt, dass es ein
h1 < h0
pij (t)
< aij + ε
t
h1 − t0 < t < h1 + t0 .
h−1
1 pij (h1 ) < aij + ε.
t0 mit h1 + t0 < h0 die Un-
gibt mit
stetig ist, gilt für jedes hinreichend kleine
gleichung
für
(19)
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
Aus (18) ergibt sich nun, dass man für jedes
h < t0
eine ganze Zahl
nh
37
nden kann,
so dass
h1 − t0 < nh h < h1 + t0
•
•
Weil
ε>0
Weil der Zustandsraum
lim
h↓0
pij (h)
pij (nh h)
≤
< aij + ε .
h
nh h
beliebig ist, ergibt sich hieraus die Gültigkeit von (19).
Damit ist die Existenz der Grenzwerte
dem
(1 − 3ε)
und
E
qij
endlich ist und
in (13) für
P(h)
i ̸= j
bewiesen.
eine stochastische Matrix ist, gilt auÿer-
∑ pij (h)
∑
∑
pij (h)
pii (h) − 1
lim
qij .
= − lim
=−
=−
h↓0
h↓0
h
h
h
j̸=i
j̸=i
(20)
j̸=i
Damit ist die Behauptung vollständig bewiesen.
Denition
Q = (qij )i,j=1,...,ℓ heiÿt Intensitätsmatrix des MarkowProzesses {Xt }.
qij von Q werden Übergangsintensitäten genannt.
Die Matrix
Die Eintragungen
Korollar 2.2
Für beliebige
i ̸= j
gilt
hierzu)
qij ≥ 0
∑
und
qij = 0
qii ≤ 0.
Auÿerdem gilt
Qe = 0
bzw. (äquivalent
∀i ∈ E ,
(21)
j∈E
wobei
e = (1, . . . , 1)⊤
bzw.
0 = (0, . . . , 0)⊤
den
ℓdimensionalen
Einheits bzw. Nullvektor bezeich-
net.
Beweis
•
Aus der Denition (13) der Übergangsintensitäten
0
•
und
qii ≤ 0
für beliebige
i ̸= j
qij
ergibt sich unmittelbar, dass
qij ≥
gilt.
Die Behauptung (21) folgt somit aus (20).
Beachte
•
Die Denition von MarkowProzessen und ihre Charakterisierung in Theorem 2.13 lassen
sich völlig analog für MarkowProzesse mit einem (abzählbar) unendlichen Zustandsraum
formulieren, beispielsweise für
•
E = N.
Die in Theorem 2.14 hergeleitete Dierenzierbarkeitseigenschaft der Übergangsfunktion
{P(h), h ≥ 0}
bleibt ebenfalls (in einer etwas modizierten Form) gültig.
Im Beweis von Theorem 2.14 wird nämlich die Endlichkeit des Zustandsraumes
nicht benötigt, um die Existenz und Endlichkeit der Übergangsintensitäten
i ̸= j
E
für
zu zeigen.
Auÿerdem kann man auch zeigen, dass die Grenzwerte
der Zustandsraum
qij
E
qii
in (13) existieren, wenn
unendlich ist; sie müssen aber nicht notwendig endlich sein.
für jedes
i∈E
−qii ≥
∑
j̸=i qij
gilt, wobei der Fall der Gleichheit von besonderer Bedeutung ist.
Im allgemeinen kann man dann (anstelle von (20)) nur zeigen, dass
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
Denition
Wenn der Zustandsraum
{P(h), h ≥ 0}
E
38
unendlich ist, dann sagt man, dass die Übergangsfunktion
konservativ ist, falls
∑
qij = −qii < ∞
∀i ∈ E .
(22)
j̸=i
Beachte
Die meisten Ergebnisse, die wir in dieser Vorlesung für MarkowProzesse mit endli-
chem Zustandsraum herleiten, bleiben für konservative Übergangsfunktionen in (abzählbar)
unendlichen Zustandsräumen gültig. Die Beweise sind dann jedoch oft wesentlich aufwändiger.
Beispiel
•
Man kann sich leicht überlegen, dass jeder stochastische Prozess
in
E = {0, 1, . . .},
{Xt , t ≥ 0} mit Werten
der unabhängige und stationäre Zuwächse hat, ein MarkowProzess
ist.
•
Insbesondere ist somit der (homogene) PoissonProzess mit Intensität
λ
ein Markow
Prozess.
In diesem Fall gilt
α0 = 1
und

j−i

 e−λh (λh)
,
(j − i)!
pij (h) =

 0,





Hieraus folgt, dass
qij =




falls
j ≥ i,
sonst.
λ,
falls
j = i + 1,
−λ ,
falls
j = i,
0,
(23)
sonst.
2.3.3 Kolmogorowsche Dierentialgleichungen
•
In diesem Abschnitt zeigen wir, dass es einen eineindeutigen Zusammenhang zwischen (Matrix) Übergangsfunktionen und ihren Intensitätsmatrizen gibt.
•
Dabei zeigen wir zunächst in Verallgemeinerung von Theorem 2.14, dass die Übergangsfunktionen
pij (h)
Theorem 2.15
für jedes
h≥0
Für beliebige
dierenzierbar sind.
i, j ∈ E
und
h≥0
sind die Übergangsfunktionen
pij (h)
dierenzier-
bar und genügen dem folgenden System von Dierentialgleichungen:
(1)
pij (h) =
∑
k∈E
qik pkj (h)
∀ i, j ∈ E, h ≥ 0 .
(24)
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
39
Beweis
•
Sei
h, h′ > 0
mit
h′ < h.
Aus der Gleichung von ChapmanKolmogorow, d.h. aus (8),
ergibt sich dann, dass
∑
pij (h + h′ ) − pij (h) =
k∈E
∑
=
pik (h′ )pkj (h) − pij (h)
(
)
pik (h′ )pkj (h) + pii (h′ ) − 1 pij (h) .
k̸=i
•
Auf die gleiche Weise erhalten wir die Gleichungen:
pij (h − h′ ) − pij (h) =
pij (h − h′ ) −
= −
∑
∑
pik (h′ )pkj (h − h′ )
k∈E
(
)
pik (h )pkj (h − h′ ) − pii (h′ ) − 1 pij (h − h′ ) .
′
k̸=i
•
Wenn wir nun beide Seiten durch
Stetigkeit von
•
pij (h)
h′
dividieren, den Grenzwert
h′ ↓ 0
bilden und die
beachten, dann erhalten wir (24).
Dabei nutzen wir die beiden folgenden Gleichungen, die sich aus Theorem 2.14 ergeben:
∑
1 ∑
qik pkj (h)
pik (h′ )pkj (h) =
′
h ↓0 h
lim
′
k̸=i
und
k̸=i
∑
1 ∑
pik (h′ )pkj (h − h′ ) =
qik pkj (h) .
′
h ↓0 h
lim
′
k̸=i
k̸=i
Beachte
•
Die Dierentialgleichungen in (24) werden Kolmogorowsche Rückwärtsgleichungen genannt.
•
In MatrixSchreibweise nimmt (24) die folgende Form an:
P(1) (h) = QP(h)
•
∀h ≥ 0.
(25)
Auf die gleiche Weise wie im Beweis von (24) lässt sich zeigen, dass
P(1) (h) = P(h)Q
∀h ≥ 0.
•
Dies ist die MatrixSchreibweise der Kolmogorowschen Vorwärtsgleichung.
•
Die Anfangsbedingung für beide Kolmogorowschen Dierentialgleichungen ist
(26)
P(0) = I.
Zur Lösung der Dierentialgleichungen (25) und (26) benötigen wir Hilfsmittel aus der Matrizenrechnung.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Dabei setzen wir in diesem Abschnitt stets voraus, dass die betrachteten Matrizen die Dimension
ℓ×ℓ
haben, wobei Vektoren die Dimension
1×ℓ
haben.
•
Die Konvergenz von Matrizen bzw. Vektoren erfolgt eintragungsweise.
•
Wenn beispielsweise
dass
•
40
(An )ij → 0
{An }
eine Folge von Matrizen ist, dann bedeutet
für beliebige
An → 0
für
n → ∞,
i, j = 1, . . . , ℓ.
Die MatrixNorm denieren wir so, dass die oben beschriebene Topologie induziert wird:
Für jeden Vektor
für jede
x = (x1 , . . . , xℓ )⊤
ℓ × ℓMatrix A = (aij )
sei
∑ℓ
∥x∥ = i=1 |xi |, und
∑
∥A∥ = i,j=1,...,ℓ |aij |.
sei
Beachte
•
Für jedes
h∈R
•
Es ist klar, dass
•
Auÿerdem gilt für beliebige
gilt
∥hA∥ = |h| ∥A∥,
An → 0
∥A∥ = 0
wobei
genau dann, wenn
Für jedes
Beweis
h ∈ [−h0 , h0 ], ε > 0
Sei
ℓ × ℓMatrizen A, B
h0 > 0 konvergiert die Reihe
und
A = 0.
∥An ∥ → 0.
∥A + B∥ ≤ ∥A∥ + ∥B∥ ,
Lemma 2.2
genau dann, wenn
m ∈ N.
∥AB∥ ≤ ∥A∥ ∥B∥ .
∑∞
n=0 (hA)
n
(27)
/(n!) gleichmäÿig in h ∈ [−h0 , h0 ].
Dann ergibt sich aus (27), dass
∞
m
∞
∞
∑
∞
∑
∑
(hA)n ∑ (hA)n |h|n ∥A∥n
hn0 ∥A∥n
∑ (hA)n −
=
≤
≤
<ε
n!
n!
n!
n!
n!
n=0
n=0
n=m+1
n=m+1
n=m+1
für jedes hinreichend groÿe
Denition
1. Die Reihe
jedes
m,
und zwar gleichmäÿig in
h ∈ [−h0 , h0 ].
∑∞
h∈R
n
n=0 (hA) /(n!) ist somit eine wohldenierte MatrixFunktion, die stetig für
ist. Sie wird MatrixExponentialfunktion genannt und mit
exp(hA) = I + hA + . . . +
(hA)n
+ ...
n!
(28)
bezeichnet.
A(h) eine beliebige MatrixFunktion, so dass sämtliche Eintragungen dierenzierbar
h sind. Dann ist die MatrixAbleitung A(1) (h) gegeben durch
2. Sei
in
A(1) (h) = lim
′
h →0
1
(A(h + h′ ) − A(h)) .
h′
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
Lemma 2.3
Die MatrixExponentialfunktion
exp(hA)
ist für jedes
h∈R
41
dierenzierbar, und es
gilt
d exp(hA)
= A exp(hA) = exp(hA)A .
dh
(29)
Beweis
•
Es gilt
∞
∞
∞
n
n
∑
∑
exp((h + h′ )A) − exp(hA) ∑ (h + h′ )n − hn An
n−1 A
′
′ A
=
nh
+h
r
(h,
h
)
,
=
n
h′
h′
n!
n!
n!
n=1
n=1
n=1
wobei für jedes
|h′ | ≤ |h|
0 ≤ |rn (h, h′ )| ≤ n(n − 1)(2|h|)n .
(30)
•
Die Schranke (30) ergibt sich dabei durch Taylor-Reihenentwicklung der Funktion
(h + x)n − hn .
•
Für ein
θ ∈ [0, 1]
gilt also
g(x) = xnhn−1 +
•
Für
h′ → 0
g(x) =
x2
n(n − 1)(h + θx)n−2 .
2
ergibt sich hieraus, dass
∞
d exp(hA) ∑ n−1 An
=
.
nh
dh
n!
n=1
•
Auÿerdem gilt oenbar
∞
∑
nhn−1
n=1
Beachte
Die
ℓ × ℓMatrizen A, A′
∞
∞
∑
∑
An
(hA)n
(hA)n
=A
=
A.
n!
n!
n!
n=0
n=0
heiÿen kommutativ, wenn
AA′ = A′ A
gilt. Es ist nicht
schwierig zu zeigen, dass in diesem Fall
exp(A + A′ ) = exp(A) exp(A′ ) .
(31)
Lemma 2.4
•
•
Sei
Q
eine beliebige
ℓ × ℓMatrix,
so dass
Dann ist die MatrixExponentialfunktion
Kolmogorowschen Dierentialgleichungen
qij ≥ 0
für
i ̸= j
und
Qe = 0
gilt.
{exp(hQ), h ≥ 0} eine Übergangsfunktion,
(25) und (26) genügt, d.h.,
die den
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
die Intensitätsmatrix der Übergangsfunktion
{exp(hQ), h ≥ 0}
ist gleich
42
Q.
Beweis
•
Wenn
•
Wir überprüfen zunächst, dass
•
Q = 0,
Weil
dann ist die Aussage oensichtlich. Es gelte also nun
exp(hQ)
n
Qe = 0, gilt Q e = 0
exp(hQ)e = e.
für jedes
für jedes
h≥0
Q ̸= 0.
eine stochastische Matrix ist.
n = 1, 2, . . .
und somit
exp(hQ)
Um zu zeigen, dass sämtliche Eintragungen von
nichtnegativ sind, setzen wir
a = max{−qii : i = 1, . . . , ℓ} .
Dann ist die Matrix
P̃
mit
nichtnegativ, und wegen
P̃ = a−1 Q + I
P̃e = a−1 Qe + Ie = e
ergibt sich nun, dass die Eintragungen von
•
P̃
auch stochastisch.
Aus der Darstellungsformel
exp(hQ) = exp(ah(P̃ − I)) =
ist
(32)
∞
∑
(ah)n (P̃)n −ah
e
n!
n=0
exp(hQ)
(33)
nichtnegativ sind.
Dabei wird bei der Herleitung von (33) die Identität (31) benutzt zusammen mit der
−ah
Tatsache, dass exp(−ahI) = e
I.
Auÿerdem ergibt sich aus (31), dass
exp(hQ)
der ChapmanKolmogorowGleichung (8)
genügt.
•
Mit Hilfe von (29) ergibt sich nun, dass
exp(hQ)
Theorem 2.16
matrix
Q
ist, d.h.,
exp(hQ)
Q
die Intensitätsmatrix der Übergangsfunktion
ist eine Lösung von (25) und (26).
Jede Übergangsfunktion
{P(h), h ≥ 0}
ausdrücken: Es gilt
P(h) = exp(hQ)
lässt sich wie folgt durch ihre Intensitäts-
∀h ≥ 0.
(34)
Beweis
•
Aus Lemma 2.4 folgt, dass die MatrixFunktion
{P′ (h)}
mit
P′ (h) = exp(hQ)
eine
Lösung der Kolmogorowschen Rückwärtsgleichung (25) ist, die der Anfangsbedingung
P′ (0) = I genügt.
•
Aus der Theorie der gewöhnlichen linearen Dierentialgleichungssysteme ergibt sich
dann, dass diese Lösung eindeutig bestimmt ist.
•
Somit gilt
P′ (h) = P(h)
für jedes
h ≥ 0.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
43
Beachte
•
Zusammen mit Theorem 2.16 ergibt sich aus (32) und (33)
die folgende Darstellungsformel der Übergangsfunktion
P(h) =
wobei
•
P̃ = a−1 Q + I
∞
∑
(ah)n (P̃)n −ah
e
n!
n=0
{P(h), h ≥ 0}:
∀h ≥ 0,
(35)
a = max{−qii : i = 1, . . . , ℓ}.
beliebige i ∈ E und h ≥ 0.
eine stochastische Matrix ist und
pii (h) > 0
Aus (35) folgt insbesondere, dass
für
Ähnlich wie bei MarkowKetten mit diskreter Zeit (vgl. Abschnitt MC-2.1.4) kann die
n
Spektraldarstellung von Q
zur Berechnung der Matrix-Exponentialfunktion P(h) =
exp(hQ)
verwendet werden, falls die Eigenwerte
θ1 , . . . , θℓ ̸= 0
von
Q
paarweise ver-
schieden sind.
•
Zur Erinnerung
Sei
A
eine beliebige
ℓ×ℓ
Matrix, seien
ϕ, ψ ̸= 0
zwei
ℓ-dimensionale (Spalten-)
0 verschieden ist,
Vektoren, so daÿ jeweils mindestens eine ihrer Komponenten von
und sei
θ
eine beliebige (reelle oder komplexe) Zahl.
Falls
Aϕ = θϕ
dann ist
θ
ein Eigenwert von
ψ ⊤ A = θψ ⊤ ,
bzw.
A,
und
ϕ
bzw.
ψ
(36)
ist ein rechter bzw. linker (zu
θ
gehörender) Eigenvektor.
Weil (36) und
(A − θI)ϕ = 0
äquivalent sind, ist
θ
ψ ⊤ (A − θI) = 0⊤ ,
bzw.
genau dann ein Eigenwert von
A,
wenn
θ
eine Lösung der
sogenannten charakteristischen Gleichung ist:
det(A − θI) = 0 .
(37)
Weil (37) eine algebraische Gleichung der Ordnung
ℓ ist, besitzt sie somit ℓ Lösungen
θ1 , . . . , θℓ ,
die komplex sein können und die nicht alle voneinander verschieden sein
müssen.
Wir nehmen o.B.d.A. an, dass die Eigenwerte
θ1 , . . . , θℓ
so numeriert sind, dass
|θ1 | ≥ |θ2 | ≥ . . . ≥ |θℓ | .
θi existieren (jeweils von 0 verschiedene) rechte bzw. linke
ϕi bzw. ψ i .
Φ = (ϕ1 , . . . , ϕℓ ) die ℓ × ℓ Matrix, die aus den rechten Eigenvektoren ϕ1 , . . . , ϕℓ
Für jeden Eigenwert
Eigenvektoren
Sei
besteht, und sei



Ψ=

die
ℓ×ℓ
ψ⊤
1
.
.
.
ψ⊤
ℓ





Matrix, die aus den linken Eigenvektoren
ψ1 , . . . , ψℓ
gebildet wird.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
Mit dieser Schreibweise ergibt sich, dass
AΦ = Φ diag(θ) ,
θ = (θ1 , . . . , θℓ )⊤
θ1 , . . . , θℓ bezeichnet.
wobei
•
Falls die Eigenwerte
toren
44
ϕ1 , . . . , ϕℓ
und
(38)
diag(θ) die Diagonalmatrix mit den Diagonalelementen
θ1 , . . . , θℓ ̸= 0
paarweise verschieden sind, dann sind die Eigenvek-
linear unabhängig (vgl. beispielsweise Lemma MC-2.2).
Somit existiert die inverse Matrix
Φ−1 ,
und wir können
Ψ = Φ−1
setzen.
Auÿerdem ergibt sich in diesem Fall aus (38), dass
A = Φ diag(θ)Φ−1 = Φ diag(θ)Ψ
bzw.
An = Φ( diag(θ))n Φ−1 = Φ( diag(θ))n Ψ .
Hieraus ergibt sich die Spektraldarstellung von
An =
ℓ
∑
An
mit
θin ϕi ψ ⊤
i .
(39)
i=1
•
Falls die Eigenwerte
θ1 , . . . , θℓ ̸= 0
Q
der Intensitätsmatrix
dann gilt also
P(h) =
ℓ
∑
paarweise verschieden sind,
ehθi ϕi ψ ⊤
i
(40)
i=1
für jedes
h ≥ 0,
wobei
ϕi , ψ i
(rechte bzw. linke) Eigenvektoren des Eigenwertes
θi
sind.
2.3.4 Eingebettete MarkowKetten; Simulationsalgorithmus
•
Sei
E = {1, 2, . . . , ℓ}
qij ≥ 0
und sei
Q = (qij )i,j∈E
für beliebige
i ̸= j
eine beliebige Intensitätsmatrix, d.h., es gelte
∑
und
qij = 0
für jedes
i ∈ E.
j∈E
•
Wir diskutieren nun eine Methode zur Konstruktion von MarkowProzessen mit vorgegebener
Intensitätsmatrix
Q, wobei wir zunächst die folgende eingebettete
MarkowKette
{X̃n , n ≥ 0}
(mit diskreter Zeit) betrachten, vgl. Abb. 5.
Sei
Auÿerdem sei die stochastische Matrix
α
eine beliebige Anfangsverteilung, und sei
e = (e
P
pij )
 q
 ij ,
q(i)
peij =

0,
für beliebige
i, j ∈ E
mit
q(i) > 0.
q(i) =
∑
j̸=i qij für jedes
i ∈ E.
gegeben durch
falls
i ̸= j ,
falls
i = j.
(41)
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
45
e gleich e⊤ = (0, . . . , 0, 1, 0, . . . , 0) gesetzt,
q(i) = 0, dann wird die ite Zeile von P
i
wobei die ite Komponente von ei gleich 1 ist.
Sei {Xen , n ≥ 0} eine MarkowKette mit der Anfangsverteilung α und der Übergangse.
matrix P
•
•
Falls
{Zn , n ≥ 0} eine
en } unabhängig
{X
Auÿerdem sei
Folge von unabhängigen und Exp(1)verteilten Zufallsvaria-
blen, die von
sind.
Mit Hilfe der Folgen
{Xt , t > 0},
en , n ≥ 0} konstruieren wir nun einen MarkowProzess
{Zn , n ≥ 0} und {X
dessen Trajektorien die Form
Xt =
∞
∑
en 1I(Sn ≤ t < Sn+1 )
X
(42)
n=0
haben, wobei
0 = S0 < S 1 < . . .
eine Folge von zufälligen (Sprung) Zeitpunkten ist:
Abbildung 5: Eingebettete MarkowKette
Schritt 1
Sei
S0 = 0
und
e0 ),
Z0′ = Z0 /q(X
wobei
Z0′ = ∞
en , n ≥ 0}
{X
gesetzt wird, falls
e 0 ) = 0.
q(X
Z0′ ist die Aufenthaltsdauer des zu konstruierenden MarkowProzesses
e0 , der zum Zeitpunkt S0 = 0 gewählt wird.
{Xt } im (zufälligen) Anfangszustand X
Dabei gilt P (Z0′ > x | Xe0 = i) = e−q(i)x für jedes i ∈ E mit P (Xe0 = i) > 0; x ≥ 0.
Die Zufallsvariable
′
e0 für S0 = 0
Sei S1 = S0 + Z0 und Xt = X
bis zum ersten Sprungzeitpunkt S1 gegeben ist.
Schritt 2
{Xt }
Schritt 3
(analog zu Schritt 1) Sei
die Aufenthaltsdauer von
wird, vgl. Abb. 6.
e 1 ),
Z1′ = Z1 /q(X
≤ t < S1 ,
wodurch die Trajektorie von
wodurch
e1 gegeben ist, der zum Zeitpunkt S1 gewählt
{Xt } im Zustand X
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
Abbildung 6: Aufenthaltsdauer
Dabei gilt
Schritt 4
Sei
S2 − S1
e1 = i) = e−q(i)x ,
P (Z1′ > x | X
S2 = S1 + Z1′
und
e1
Xt = X
falls
für
im Zustand
46
e1 = i1
X
e1 = i) > 0.
P (X
S1 ≤ t < S 2 .
.
.
.
Schritt 2n+1
Wir nehmen nun an, dass die Gröÿen
{Xt , t ∈ [0, Sn )}
für ein
Schritt 2(n + 1)
Sei
n≥1
bereits deniert worden
Sn+1 = Sn + Zn′
und
en
Xt = X
′
, S0 , S1 , . . . , Sn und
Z0′ , Z1′ , . . . , Zn−1
′
e n ).
sind, und setzen Zn = Zn /q(X
für
Sn ≤ t < Sn+1 .
Beachte
•
Auf diese Weise lassen sich die Trajektorien von
ieren, weil man sich leicht überlegen kann, dass
•
{Xt , t ≥ 0} für beliebige t ≥ 0
P (limn→∞ Sn = ∞) = 1.
konstru-
Somit ist durch das oben beschriebene Konstruktionsprinzip ein Algorithmus zur Simu-
lation des zeitstetigen Prozesses
{Xt , t ≥ 0}
gegeben, wobei vorausgesetzt wird, dass
Algorithmen
zur Simulation der Folge
{Zn , n ≥ 0}
fallsvariablen sowie
der eingebetteten MarlowKette
von unabhängigen und Exp(1)verteilten Zu-
en , n ≥ 0}
{X
vorhanden sind.
•
Auÿerdem kann man zeigen, dass die endlichdimensionalen Verteilungen des Prozesses
{Xt , t ≥ 0}
die Faktorisierungeigenschaft besitzen, die in der Denitionsgleichung (10)
von MarkowProzessen postuliert wird.
Theorem 2.17
Prozess.
Der in
(42) gegebene stochastische Prozess {Xt , t ≥ 0} ist ein homogener Markow
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
47
Beweis
•
Der Einfachheit wegen geben wir hier lediglich eine Beweisskizze an.
Einen ausführlicheren Beweis kann man beispielsweise in Resnick (1992), S. 378379
nden.
Dabei betrachten wir hier nur den folgenden Spezialfall: Sei
beliebige
•
Sei
i, j ∈ {1, . . . , ℓ}
mit
i ̸= j .
αi > 0
und
qij > 0
für
{Nt , t ≥ 0} der Zählprozess der Sprungzeitpunkte S1 , S2 , . . . mit Nt = max{n : Sn ≤
t}.
•
Dann ergibt sich unmittelbar aus dem Konstruktionsprinzip des stochastischen Prozesses
{Xt , t ≥ 0},
dass
P (X0 = i0 , Xt1 = i1 , . . . , Xtn = in )
∑
=
P (X̃0 = i0 , Nt1 = m1 , X̃m1 = i1 , Nt2 = m1 + m2 , X̃m1 +m2 = i2 ,
m1 ,...,mn ≥0
. . . , Ntn = m1 + . . . + mn , X̃m1 +...+mn = in ) > 0
für beliebige
•
n = 0, 1, . . . , i0 , i1 , . . . , in ∈ E, 0 ≤ t1 ≤ . . . ≤ tn .
Hieraus und aus der Gedächtnislosigkeit der Exponentialverteilung ergibt sich, dass
P (X0 = i0 , Xt1 = i1 , . . . , Xtn = in )
∑
P (X̃0 = i0 )P (Nt1 = m1 , X̃m1 = i1 | X̃0 = i0 )
=
m1 ,...,mn ≥0
P (Nt2 = m1 + m2 , X̃m1 +m2 = i2 | Nt1 = m1 , X̃m1 = i1 )
.
.
.
P (Ntn = m1 + . . . + mn , X̃m1 +...+mn = in | Ntn−1 = m1 + . . . + mn−1 , X̃m1 +...+mn−1 = in−1 )
∑
=
P (X̃0 = i0 )P (Nt1 = m1 , X̃m1 = i1 | X̃0 = i0 )
m1 ,...,mn ≥0
P (Nt2 −t1 = m2 , X̃m2 = i2 | X̃0 = i1 ) . . . P (Ntn −tn−1 = mn , X̃mn = in | X̃0 = in−1 )
∞
∑
= P (X̃0 = i0 )
P (Nt1 = m1 , X̃m1 = i1 | X̃0 = i0 )
m1 =0
∞
∑
P (Nt2 −t1 = m2 , X̃m2 = i2 | X̃0 = i1 ) . . .
m2 =0
•
∞
∑
P (Ntn −tn−1 = mn , X̃mn = in | X̃0 = in−1 ) .
mn =0
Es gilt also
P (X0 = i0 , Xt1 = i1 , . . . , Xtn = in ) = αi0 pi0 i1 (t1 )pi1 i2 (t2 − t1 ) . . . pin−1 in (tn − tn−1 ) ,
wobei
e0 = i) = P (X0 = i)
αi = P (X
pij (h) =
∞
∑
m=0
(43)
und
P (Nh = m, X̃m = j | X̃0 = i)
(
)
= P (Xh = j | X0 = i) .
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
•
Aus (43) ergibt sich insbesondere, dass
i, j ∈ E
und
h1 , h2 ≥ 0.
pij (h1 +h2 ) =
∑
48
pik (h1 ) pkj (h2 ) für beliebige
k∈E
Damit ist gezeigt, dass die endlichdimensionalen Verteilungen des Prozesses
die Faktorisierungeigenschaft (10) besitzen.
Wir zeigen nun, dass der in diesem Abschnitt konstruierte stochastische Prozess
{Xt , t ≥ 0}
{Xt , t ≥ 0}
der
richtige MarkowProzess ist, d.h., seine Intensitätsmatrix ist gleich der vorgegebenen Matrix
•
Hierfür muss gezeigt werden, dass sich die Übergangswahrscheinlichkeiten
Prozesses
{Xt , t ≥ 0}
durch die lokalen Charakteristiken
{q(i)}i∈E
Q.
pij (h) des Markow
e = (e
P
pij )i,j∈E
und
ausdrücken lassen.
•
Dabei sagt man, dass
Theorem 2.18
i∈E
h ≥ 0 gilt
∫ h
∑
pij (h) = δij e−q(i)h +
peik pkj (h − t) dt .
q(i)e−q(i)t
Für beliebige
i, j ∈ E
und
0
Insbesondere gilt
q(i) = 0.
ein absorbierender Zustand ist, falls
pij (h) = δij
für beliebige
j∈E
(44)
k̸=i
und
h ≥ 0,
wenn
i∈E
ein absorbierender Zustand
ist.
Beweis
•
So wie im Beweis von Theorem 2.14 können wir ohne Einschränkung der Allgemeinheit
annehmen, dass
•
P (X0 = i) > 0
für jedes
Iij (h) = P (Xh = j, S1 > h | X0 = i)
•
i ∈ E.
Es ist klar, dass sich die Übergangswahrscheinlichkeiten
′
(h) darstellen lassen, wobei
Iij (h) + Iij
Für die Zerlegungskomponenten
und
′
(h)
Iij
′
Iij
(h)
=
∑∫
k̸=i
=
0
∑∫
k̸=i
∫
=
0
h
h
pij (h) =
gilt dann

 P (Z ′ > h | X
e0 = i) = e−q(i)h ,
0
Iij (h) =
 0,
und
als Summe
′
(h) = P (Xh = j, S1 ≤ h | X0 = i) .
Iij
und
Iij (h)
pij (h)
falls
i = j,
falls
i ̸= j ,
e1 = k, X
e0 = i)
P (Xh = j, S1 ∈ dt, X
e0 = i)
P (X
h
P (Xh = j | Xt = k)P
0
q(i)e−q(i)t
∑
k̸=i
(Z
)
0
e1 = k | X
e0 = i)
∈ dt P (X
q(i)
peik pkj (h − t) dt .
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Falls
i ∈ E
ein absorbierender Zustand ist, dann verbleibt der in diesem Abschnitt
konstruierte Prozess
{Xt , t ≥ 0} für immer im Zustand i, sobald er diesen
pij (h) = δij für beliebige j ∈ E und h ≥ 0.
Zustand zum
ersten Mal erreicht. Somit gilt
Korollar 2.3
Für beliebige
i, j ∈ E

 −q(i) ,
(1)
pij (0+) = qij =
 pe q(i)
falls
i = j,
falls
i ̸= j .
(45)
Um (45) zu beweisen, genügt es, in (44) die Ableitung bezüglich
den Grenzwert für
Beachte
h↓0
gilt
ij
Beweis
49
h
zu bilden und danach
zu betrachten.
Wenn man die Formeln (13) und (45) miteinander vergleicht, dann erkennt man, dass
die Intensitätsmatrix des in diesem Abschnitt konstruierten MarkowProzesses
mit der vorgegebenen Matrix
Q
{Xt , t ≥ 0}
übereinstimmt.
Beispiel
•
{Xt , t ≥ 0} heiÿt Geburts und
1 < i < ℓ und pe12 = peℓ,ℓ−1 = 1 gilt.
Der in diesem Abschnitt konstruierte MarkowProzess
Todesprozess, wenn
pei,i−1 + pei,i+1 = 1
•
Die Produkte
•
Diese Begrisbildungen lassen sich damit begründen, dass die Gröÿen
pei,i−1 q(i)
pei,i+1 q(i)
und
pei,i−1 q(i)
für beliebige
heiÿen Geburtsrate bzw. Sterberate.
gemäÿ Korollar 2.3 mit den Übergangsintensitäten
Übergänge
i → i+1
bzw.
i → i−1
qi,i+1
und
pei,i+1 q(i) und
qi,i−1 für die
im Sinne der Denitionsgleichung (13) übereinstim-
men.
2.3.5 Stationäre Anfangsverteilungen
Ähnlich wie bei MarkowKetten mit diskreter Zeit (vgl. Abschnitt MC-2.2.4) betrachten wir nun
eine spezielle Klasse von Anfangsverteilungen, die invariant bezüglich der Übergangsfunktion von
MarkowProzessen sind.
Denition
α = (α1 , . . . , αℓ )⊤ heiÿt stationäre Anfangsverteilung
{P(h), h ≥ 0}, falls
Die Wahrscheinlichkeitsfunktion
bezüglich der Übergangsfunktion
α⊤ P(h) = α⊤
∀ h ≥ 0.
(46)
Beachte
•
Wegen der Endlichkeit des Zustandsraumes
α:
E
gilt für jede stationäre Anfangsverteilung
α⊤ (P(h) − I)
= α⊤ Q .
h→0
h
0 = lim
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Es gilt auch die umgekehrte Implikation: Aus
0
α⊤ Q = 0 folgt die Gültigkeit von α⊤ Qn =
und somit auch
α⊤ P(h) = α⊤
•
50
∞
∑
(hQ)n
= α⊤
n!
n=0
∀h ≥ 0.
Im allgemeinen muss jedoch die Existenz einer Wahrscheinlichkeitsfunktion
α = (α1 , . . . , αℓ )⊤ ,
die der Gleichung (46) genügt, bzw. die eindeutige Lösbarkeit von (46) nicht immer gewährleistet sein.
•
Andererseits lassen sich, ähnlich wie bei (zeitdiskreten) aperiodischen und irreduziblen
MarkowKetten, stationäre Anfangsverteilungen von MarkowProzessen auch als Grenzverteilungen charakterisieren.
Dabei ist die Situation im zeitstetigen Fall sogar einfacher, denn aus der Darstellungsformel (35) der Übergangsfunktion
beliebige
i∈E
und
h ≥ 0.
{P(h), h ≥ 0}
folgt, dass
pii (h) > 0
für
Die bei MarkowKetten betrachtete Bedingung der Aperiodizität muss also bei
MarkowProzessen nicht extra vorausgesetzt werden, sondern wir benötigen lediglich
die Irreduzibilität.
Denition
Die Übergangsfunktion
{P(h), h ≥ 0}
pij (h) > 0
Beachte
heiÿt irreduzibel, falls
∀ i ̸= j, h > 0 .
(47)
Man kann leicht zeigen, dass
•
die Bedingung (47) mit der Irreduzibilität der Intensitätsmatrix
•
d.h., für beliebige
mit
ik ̸= il ,
i, j ∈ E mit i ̸= j gibt
qii1 qi1 i2 . . . qin−1 j > 0.
Q
äquivalent ist,
es eine Folge von Zuständen
i1 , . . . , in−1 ∈ E
so dass
Das folgende Theorem zeigt darüber hinaus: Die Irreduzibilität der Übergangsfunktion
0}
bzw. der Intensitätsmatrix
Q
verteilung bezüglich der Übergangsfunktion
Theorem 2.19
{P(h), h ≥
impliziert, dass es eine (eindeutig bestimmte) stationäre Anfangs-
{P(h), h ≥ 0}
Wenn die Übergangsfunktion
gibt.
{P(h), h ≥ 0}
irreduzibel ist, dann existiert der
Grenzwert
lim P (Xt = i) = πi
(48)
t→∞
für jedes
bezüglich
i ∈ E , wobei π = (π1 , . . . , πℓ )⊤
{P(h), h ≥ 0} ist.
die (eindeutig bestimmte) stationäre Anfangsverteilung
Beweis
•
Die Übergangsfunktion
•
Wegen (35) gilt dann
{P(h), h ≥ 0}
pij (h) > 0
sei irreduzibel.
für beliebige
i, j ∈ E und h > 0,
P(h) positiv.
sind sämtliche Eintragungen der Übergangsmatrix
d.h., für jedes
h>0
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Aus Theorem MC-2.4 ergibt sich nun, dass die eingebettete MarkowKette
mit der (einstugen) Übergangsmatrix
P(h)
für jedes
•
Π
eine
ℓ × ℓMatrix
ist, deren Zeilen gleich
Weil die Übergangsfunktion
jedes
ε>0
{Xnh , n ≥ 0}
ergodisch ist, d.h., es gilt
∀h > 0
lim P(nh) = Π
n→∞
wobei
h>0
51
π⊤
sind.
{P(h), h ≥ 0} gleichmäÿig stetig in h ≥ 0 ist, gibt es für
h0 > 0, so dass es für jedes hinreichend groÿe t > 0 eine
eine (kleine) Zahl
natürliche Zahl
n
gibt mit
∥P(t) − Π∥ ≤ ∥P(t) − P(nh0 )∥ + ∥P(nh0 ) − Π∥ ≤ 2ε .
Beachte
•
Sei
{Xt , t ≥ 0}
ein MarkowProzess mit der Übergangsfunktion
stationären Anfangsverteilung
•
{P(h), h ≥ 0}
und der
α.
Dann kann man leicht zeigen, dass
{Xt , t ≥ 0} ein
{Xt } gilt
stationärer Prozess ist, d.h., für die
endlichdimensionalen Verteilungen von
P (X0 = i0 , Xt1 = i1 , . . . , Xtn = in ) = P (Xh = i0 , Xt1 +h = i1 , . . . , Xtn +h = in )
für beliebige
•
n = 0, 1, . . . , i0 , i1 , . . . , in ∈ E, 0 ≤ t1 ≤ . . . ≤ tn , h > 0.
Insbesondere ist dann
{Xt , t ≥ 0}
ein Prozess mit stationären Zuwächsen, die jedoch im
allgemeinen nicht unabhängig sein müssen.
2.4 WienerProzess
Der WienerProzess, der in der Literatur auch Brownsche Bewegung genannt wird, ist ein weiteres
grundlegendes Modell in der Theorie stochastischer Prozesse. Dabei nehmen wir für die Indexmenge
I
an, dass entweder
Denition
I = [0, b]
für eine (endliche) Zahl
Ein stochastischer Prozess
b ∈ (0, ∞)
oder
I = [0, ∞)
gilt.
{Xt , t ∈ I} über einem (im allgemeinen nicht näher
(Ω.F, P ) heisst WienerProzess (im Zeitintervall I ),
spezizierten) Wahrscheinlichkeitsraum
wenn
• {Xt , t ∈ I}
unabhängige Zuwächse hat,
• Xt2 − Xt1 ∼ N(0, t2 − t1 )
für beliebige
t 1 , t2 ∈ I
mit
t1 < t2 ,
• X0 = 0,
•
die Trajektorie
t → Xt (ω), t ∈ I ,
für jedes
ω∈Ω
eine stetige Funktion ist.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
52
Beachte
•
Aus dem Existenzsatz von Kolmogorow, d.h. aus Theorem 1.1, folgt, dass es einen
Wahrscheinlichkeitsraum und einen stochastischen Prozess
{Xt , t ∈ I}
über diesem
Wahrscheinlichkeitsraum gibt, so dass die ersten drei Bedingungen in der Denition des
WienerProzesses erfüllt sind.
•
Aus dem Stetigkeitssatz von Kolmogorow, d.h. aus Theorem 1.3, folgt auÿerdem, dass
zu jedem Prozess
{Xt , t ≥ 0},
der den ersten drei Bedingungen in der Denition des
WienerProzesses genügt, eine stetige Modikation existiert.
•
Weniger oensichtlich ist, ob bzw. wie man einen solchen Prozess (mit unabhängigen
und normalverteilten Zuwächsen) explizit konstruieren kann, dessen Trajektorien stetige
Funktionen sind.
•
In den drei folgenden Abschnitten erläutern wir eine Methode zur Konstruktion von
WienerProzessen (mit stetigen Trajektorien), die gleichzeitig zu einem Algorithmus zur
Simulation von WienerProzessen führt.
2.4.1 Vollständige Orthonormalsysteme im L2 ; HaarFunktionen und SchauderFunktionen
Wir betrachten zunächst den Fall, dass
Konstruktion von WienerProzessen in
•
Insbesondere betrachten wir den HilbertRaum
•
I = [0, 1] das Einheitsintervall ist. Dabei
[0, 1] einige analytische Hilfsmittel.
aller auf dem Einheitsintervall
[0, 1] → R, die bezüglich
∫1 2
f (s) ds < ∞ gilt.
0
Für beliebige
Eine Folge
L2
f, g ∈ L2
{fn , n ≥ 1}
I = [0, 1]
L2 = L2 ([0, 1])
denierten (Borelmessbaren) Funktionen
f :
des LebesgueMaÿes quadratisch integrierbar sind, d.h., für die
sei
(f, g) =
von Funktionen
∫1
0
f (s)g(s) ds
fn ∈ L2
das zugehörige Skalarprodukt.
wird ein vollständiges Orthonormalsystem in
genannt,
wenn
(fn , fn ) = 1
wenn für jedes
g(s) = 0
und
(fn , fm ) = 0
für beliebige
g ∈ L2 die Gültigkeit
s ∈ [0, 1].
von
n ̸= m
(g, fn ) = 0
und
für jedes
n ≥ 1
impliziert, dass
für fast jedes
Die Konstruktion von WienerProzessen in
•
benötigen wir zur
I = [0, 1]
ein speziell gewähltes Orthonormalsystem
beruht auf der Idee,
{Hn , n ≥ 1} in L2 (die sogenannten HaarFunktionen)
sowie
•
eine Folge
{Yn , n ≥ 1}
von unabhängigen und N(0, 1)verteilten Zufallsvariablen über einem
Wahrscheinlichkeitsraum
(Ω, F, P )
zu betrachten und zu zeigen, dass
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
der stochastische Prozess
{Xt , t ∈ [0, 1]}
Xt =
∞
∑
mit
∫
Yn
t
∀ t ∈ [0, 1]
Hn (s) ds
über einer gewissen Einschränkung des Wahrscheinlichkeitsraumes
und den Bedingungen eines WienerProzesses in
[0, 1]
(Ω, F, P )
wohldeniert ist
genügt.
Die durch den Ansatz
H1 (s)
=
1
für jedes

m


22




H2m+1 (s)
=

−2 2





0
m

m


22




H2m +k (s)
für
(1)
0
n=1
Denition
53
k = 1, 2, . . . , 2m − 1
=
und
m
−2 2





 0
für
für
s ∈ [0, 1],
(2)
2m+1 − 1 )
,
2m+1
[ 2m+1 − 1
]
s∈
,
1
,
2m+1
s∈
[ 2m − 1
2m
,
(3)
sonst,
für
für
2k − 1 )
,
2m
2m+1
[ 2k − 1
k )
s∈
,
,
2m+1
2m
s∈
[k − 1
,
(4)
sonst
m = 0, 1, 2, . . .
gegebenen Funktionen
Hn : [0, 1] → R
heiÿen
HaarFunktionen, vgl. Abb. 7 und 8.
Lemma 2.5
Die in
(2)
(4)
Hn : [0, 1] → R mit n = 1, 2, . . . bilden
Insbesondere gilt die sogenannte ParsevalIdentität
denierten HaarFunktionen
L2 .
ein vollständiges Orthonormalsystem in
(f, g) =
∞
∑
(f, Hn )(g, Hn )
∀ f, g ∈ L2 .
(5)
n=1
Beweis
•
Unmittelbar aus der Denition der HaarFunktionen folgt, dass
(Hn , Hm ) = 0
•
für beliebige
n, m ≥ 1
mit
n ̸= m
Auÿerdem kann man leicht zeigen, dass das Orthonormalsystem
in
L2
ist.
Sei
g ∈ L2
eine quadratisch integrierbare Funktion mit
∫
1
g(s) Hn (s) ds = 0
0
(Hn , Hn ) = 1
und
gilt.
∀n ≥ 1.
{Hn , n ≥ 1} vollständig
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
54
1
1
0,5
0,5
0
0
0
0,2
0,4
0,8
0,6
1
0
0,2
0,4
s
0,6
0,8
1
s
-0,5
-0,5
-1
-1
Abbildung 7: HaarFunktionen
Hieraus folgt, dass
∫ (k+1)/2m
und
H3
g(s) ds = 0 für beliebige m = 0, 1, . . . und k = 1, . . . , 2m −
k/2m
1.
H2
∫t
[0, 1] → R mit G(t) = 0 g(s) ds, dass
k = 1, . . . , 2m − 1.
hieraus, dass G(t) = 0 für jedes t ∈ [0, 1] und
Insbesondere gilt also für die Funktion G :
G(k/2m ) = 0 für beliebige m = 0, 1, . . . und
Weil
G eine stetige Funktion ist, folgt
g(s) = 0 für fast jedes s ∈ [0, 1].
somit
•
Die Gültigkeit von (5) ergibt sich aus der Vollständigkeit des Orthonormalsystems
1},
{Hn , n ≥
vgl. beispielsweise Satz 5.3.6 in W. Arendt (2002) Funktionalanalysis (Vorlesung-
skript, Universität Ulm) bzw. Satz V.4.9 in D. Werner (1997) Funktionalanalysis (Sprin-
ger, Berlin).
Lemma 2.6
Für jedes
n = 1, 2, . . .
sei die Funktion
∫
Sn : [0, 1] → R
gegeben durch
t
Sn (t) =
∀ t ∈ [0, 1] .
Hn (s) ds
(6)
0
Die in (6) denierten Funktionen S1 , S2 , . . .
besitzen die folgenden Eigenschaften:
1
Für beliebige
n≥1
2
Für beliebige
m = 1, 2, . . .
und
t ∈ [0, 1]
und
gilt
: [0, 1] → R,
Sn (t) ≥ 0.
t ∈ [0, 1]
2
∑
die SchauderFunktionen genannt werden,
gilt die Ungleichung
m
k=1
S2m +k (t) ≤
1 −m/2
2
.
2
(7)
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
55
1
0,5
0
0
0,2
0,4
0,6
0,8
1
s
-0,5
-1
Abbildung 8: HaarFunktion
3
H4
a 1 , a2 , . . . ∈ R
1/2
eine beliebige Folge reeller Zahlen mit an = O((log n)
) für
∑∞
a
S
(t)
absolut
und
gleichmäÿig
in
t
∈
[0,
1]
.
konvergiert die Reihe
n
n
n=1
Sei
n → ∞.
Dann
Beweis
•
Die Tatsache, dass die SchauderFunktionen
Sn
nur nichtnegative Werte haben, ergibt
sich unmittelbar aus den Denitionsgleichungen (2)(4) bzw. (6), vgl. auch Abb. 9 und
10.
•
Um die Gültigkeit der Ungleichung (7) zu zeigen, genügt es zu beachten, dass die Funkm
tionen S2m +k für k = 1, . . . , 2
disjunkte Träger haben und dass
S2m +k (t) ≤ S2m +k
•
Sei nun
c>0
= 2m/2
1
1 −m/2
=
2
2m+1
2
|an | ≤ c (log n)1/2
für ℓ → ∞
eine Konstante, so dass
|an |Sn (t) ≤ |a1 | +
∞
∑
m+1
2∑
m=ℓ k=2m +1
n=2ℓ +1
t ∈ [0, 1],
m + 1 < c′ 2εm für jedes m ≥ 0
für jedes
∞
c ∑
|ak |Sk (t) ≤ |a1 | +
2
∀ t ∈ [0, 1] .
n ≥ 1.
(
m=ℓ
log 2m+1
2m/2
)1/2
−→ 0
gleichmäÿig in
weil
und für gewisse Konstanten
c′ < ∞
bzw.
ε<1
und weil somit
∞
∑
m=ℓ
2m+1
Dann ergibt sich aus (7), dass
∞
∑
( 2k − 1 )
(
log 2m+1
2m/2
)1/2
= (log 2)1/2
∞ (
∞ (
)1/2
∑
∑
m + 1 )1/2
1
′
1/2
≤
(c
log
2)
−→ 0 .
2m
2(1−ε)m
m=ℓ
m=ℓ
Damit ist auch die dritte Teilaussage bewiesen.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
1
0,5
0,8
0,4
0,6
0,3
0,4
0,2
0,2
0,1
56
0
0
0
0,2
0,4
0,6
0,8
1
0
0,2
0,4
t
0,6
0,8
1
t
Abbildung 9: SchauderFunktionen
S1
und
S2
2.4.2 Eigenschaften normalverteilter Zufallsvariablen
Bei der Konstruktion von WienerProzessen benötigen wir noch die folgenden Eigenschaften von
normalverteilten Zufallsvariablen.
Lemma 2.7
Sei {Yn , n ≥ 1} eine Folge von (nicht notwendig unabhängigen) N(0, 1)verteilten
Zufallsvariablen über einunddemselben Wahrscheinlichkeitsraum (Ω, F, P ). Dann gilt mit Wahrscheinlichkeit
1,
dass
|Yn | = O((log n)1/2 )
für
n → ∞.
(8)
Beweis
•
Sei
X
eine beliebige N(0, 1)verteilte Zufallsvariable. Dann gilt für jedes
x > 0,
(
2
1 )−1 −x2 /2
(2π)−1/2 x +
e
≤ P (X > x) ≤ (2π)−1/2 x−1 e−x /2 .
x
Denn mit partieller Integration ergibt sich, dass
∫
∞
x
[ 1
]∞
1 −y2 /2
−y 2 /2
e
dy
=
−
e
−
y2
y
x
∫
und somit
∞(
1+
x
∫
∞
e−y
2
/2
dy
x
1 ) −y2 /2
1 −x2 /2
e
dy =
e
.
y2
x
Hieraus folgt, dass
1 −x2 /2
e
>
x
∫
∞
x
e−y
2
/2
dy >
1 )−1
1 −x2 /2 (
1+ 2
e
.
x
x
dass
(9)
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
0,35
0,35
0,3
0,3
0,25
0,25
0,2
0,2
0,15
0,15
0,1
0,1
0,05
0,05
0
0
0
0,2
0,4
0,6
0,8
0
1
0,2
0,4
Abbildung 10: SchauderFunktionen
√
P (|Yn | > c log n) ≤
√
1
S3
und
S4
c>
√
2π
geteilt werden,
√
2
∞
∞
( c2
) √1 ∑
2 ∑ 1
−1/2
(log n)
exp −
log n ≤
n−
π n=3 c
2
π n=3
n=3
•
0,8
Wenn sämtliche Ausdrücke der letzten Ungleichungskette durch
∫
−1/2 ∞ −y 2 /2
dann ergibt sich (9), weil P (X > x) = (2π)
e
dy .
x
Aus (9) ergibt sich, dass für jedes
∞
∑
0,6
s
s
•
c2
2
< ∞.
Aus dem Lemma von BorelCantelli (vgl. Lemma WR-2.3) ergibt sich nun die Behaup-
tung.
Lemma 2.8
dem seien
57
Y1 , Yn , . . . seien unabhängig und N(0, 1)normalverteilt. Auÿerbeliebige Konstanten, so dass für jedes m = 1, 2, . . .
Die Zufallsvariablen
ai , bi ∈ R
2
∑
2
∑
m
m
−m
2
|a2m +k | ≤ 2
und
k=1
Dann existieren die Grenzwerte
|b2m +k | ≤ 2− 2 .
m
(10)
k=1
U =
es gilt
U ∼ N(0,
∑∞
i=1
∞
∑
ai Yi
a2i )
und
V =
∑∞
i=1 bi Yi mit Wahrscheinlichkeit
V ∼ N(0,
und
i=1
∞
∑
b2i ) ,
1,
und
(11)
i=1
wobei
Cov (U, V ) =
∞
∑
ai bi .
(12)
i=1
Auÿerdem sind die Zufallsvariablen
U
und
V
sind genau dann unabhängig, wenn
Cov (U, V ) = 0.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
58
Beweis
•
Mit Hilfe von Lemma 2.7 ergibt sich auf die gleiche Weise wie im Beweis von Lemma 2.6, dass die Grenzwerte
U
und
V
mit Wahrscheinlichkeit
1
existieren und somit
wohldenierte Zufallsvariablen sind.
(m)
Für jedes m = 1, 2, . . . ergibt sich die Normalverteilheit der Zufallsvariablen U
=
• ∑
∑m
m
(m)
a
Y
und
V
=
b
Y
unmittelbar
aus
der
Faltungsstabilität
der
Normalveri=1 i i
i=1 i i
teilung (vgl. Korollar WR-3.2), wobei
U (m) ∼ N(0,
m
∑
a2i )
V (m) ∼ N(0,
und
i=1
m
∑
b2i ) .
i=1
d
U (m) −→ U
d
V (m) −→ V
m → ∞.
•
Hieraus folgt (11), weil
•
Die Formel (12) ergibt sich aus der Unabhängigkeit der Zufallsvariablen
bzw.
für
Y1 , . . . , Yn
und
aus den allgemeinen Rechenregeln für die Kovarianz, und zwar gilt
Cov (U, V ) =
=
=
lim Cov
m→∞
lim
m→∞
∞
∑
m
(∑
ai Y i ,
i=1
m
m
∑∑
m
∑
)
bj Yj = lim
m
∑
m→∞
j=1
ai bj Cov (Yi , Yj ) = lim
ai Cov Yi ,
i=1
m
∑
m→∞
i=1 j=1
(
m
∑
)
bj Yj
j=1
ai bi Cov (Yi , Yi )
i=1
ai bi .
i=1
•
Die Notwendigkeit der Bedingung in Teilaussage 2 ergibt sich aus der Multiplikationsformel für den Erwartungswert des Produktes von unabhängigen Zufallsvariablen; vgl.
Korollar WR-4.5.
•
Um die Hinlänglichkeit der Bedingung in Teilaussage 2 zu beweisen, betrachten wir die
(gemeinsame) charakteristische Funktion
Weil
d
(U (m) , V (m) ) −→ (U, V )
φU,V (t, s)
=
für
φU,V (t, s)
m → ∞,
des Zufallsvektors
gilt dann für beliebige
(U, V ).
t, s ∈ R
m
m
m
( ( ∑
))
( ∑
)
∑
lim E exp i t
ai Yi + s
bj Yj
= lim E exp i
(tai + sbi )Yi
m→∞
i=1
m→∞
j=1
i=1
m
(
)
( (ta + sb )2 )
∏
i
i
= lim
E exp i (tai + sbi )Yi = lim
exp −
m→∞
m→∞
2
i=1
i=1
m
∏
=
(
exp −
∞
∑
i=1
(tai + sbi )2 )
∞
∑
=
2
(∗)
(
= exp −
∞
∑
∞
∑
i=1
2
2
2
a2i )
( s j=1 bj )
( t
i=1
exp −
exp −
2
2
= φU (t) φV (s) ,
(tai )2 +
m
∑
j=1
2
(sbj )2 )
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
wobei sich die Gleichheit
und
•
V
(∗)
aus der Annahme ergibt, dass die Zufallsvariablen
∑∞
Cov (U, V ) = i=1 ai bi = 0 gilt.
59
U
unkorreliert sind und dass deshalb
Die Hinlänglichkeit der Bedingung in Teilaussage 2 ergibt sich nun
aus dem Eindeutigkeitssatz für charakteristische Funktionen von Zufallsvektoren
(der eine Verallgemeinerung des in Korollar WR-5.5 betrachteten eindimensionalen
Falles ist),
weil das Produkt der charakteristischen Funktionen von unabhängigen Zufallsvek′
′
toren Z und Z gleich der charakteristischen Funktion des Zufallsvektors (Z, Z ) ist.
2.4.3 Konstruktion von WienerProzessen; Simulationsalgorithmus
Aus Lemma 2.7 ergibt sich, dass man
•
von dem Wahrscheinlichkeitsraum
(Ω, F, P ),
über dem die Folge
{Yn , n ≥ 1}
von N(0, 1)
verteilten Zufallsvariablen gegeben ist,
•
zu dem folgenden (eingeschränkten) Wahrscheinlichkeitsraum
(Ω′ , F ′ , P ′ )
übergehen kann,
wobei
Ω′
= {ω ∈ Ω : |Xn (ω)| = O(
F′
P′
= F ∩ Ω′ ,
= P|F ′ ,
√
log n)
für
n → ∞ },
F ′ = {A ∩ Ω′ : A ∈ F } ,
′
P (A ∩ Ω′ ) = P (A) für jedes A ∈ F .
d.h.,
d.h.,
Beachte
•
Weil vorausgesetzt wird, dass die N(0, 1)verteilten Zufallsvariablen
gig sind, kann
(Ω, F, P )
Y 1 , Y2 , . . .
unabhän-
beispielsweise der sogenannte kanonische Wahrscheinlichkeits-
raum sein mit
(
)
(Ω, F, P ) = R × R × . . . , B(R) ⊗ B(R) ⊗ . . . , N(0, 1) × N(0, 1) × . . . .
•
′
′
Weil man sich leicht überlegen kann, dass Ω ∈ F gilt und weil P (Ω ) = 1 wegen Lem′
′
′
ma 2.7, ist somit (Ω , F , P ) ein wohldenierter Wahrscheinlichkeitsraum.
Insgesamt ergibt sich nun der folgende Ansatz zur Konstruktion von WienerProzessen in
[0, 1],
vgl. auch Abb. 11.
Theorem 2.20
•
{Yn , n ≥ 1} eine Folge von unabhängigen und N(0, 1)verteilten Zufallsvariablen über
einem Wahrscheinlichkeitsraum (Ω, F, P ), und sei S1 , S2 , . . . : [0, 1] → [0, ∞) das in (2)(4)
Sei
bzw.
(6)
gegebene System von SchauderFunktionen.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
60
Abbildung 11: Konstruktion von WienerProzessen
•
{Xt , t ∈ [0, 1]}
Dann ist der stochastische Prozess
∞
∑
Xt =
Yn Sn (t)
mit
∀ t ∈ [0, 1]
(13)
n=1
ein Prozess mit unabhängigen und normalverteilten Zuwächsen über dem Wahrscheinlichkeitsraum
(Ω, F, P ) und ein
(Ω′ , F ′ , P ′ ).
WienerProzess in
[0, 1]
über dem eingeschränkten Wahrscheinlich-
keitsraum
Beweis
•
Mit Hilfe von (7) ergibt sich aus der ersten Teilaussage von Lemma 2.8, dass die in (13)
eingeführte Gröÿe
Xt
für jedes
t ∈ [0, 1]
eine wohldenierte (normalverteilte) Zufallsva-
riable ist, wobei
Xt ∼ N(0, t)
(14)
Denn es gilt
∞
∑
Sn2 (t)
=
n=1
∀ t ∈ [0, 1] .
∞ (∫
∑
n=1
1
∞
)2 ∑
(
)2 (
)
Hn (s)1I([0, t])(s) ds =
Hn , 1I([0, t]) = 1I([0, t]), 1I([0, t]) = t ,
0
n=1
Dabei ergibt sich die vorletzte Gleichheit aus Lemma 2.5, weil
1I([0, t]) ∈ L2
und weil
somit aus (5) folgt, dass
∞
(
) ∑
(
)2
1I([0, t]), 1I([0, t]) =
Hn , 1I([0, t]) .
•
Auÿerdem gilt
Xt2 −Xt1 =
(
∑∞
n=1
n=1
)
Yn Sn (t2 )−Sn (t1 ) für beliebige t1 , t2 ≥ 0 mit t1 < t2 ,
und ähnlich wie beim Beweis von (14) kann man zeigen, dass
Xt2 − Xt1 ∼ N(0, t2 − t1 ) ,
weil
∞
∑
(
)2
Sn (t2 ) − Sn (t1 ) = t2 − t1 ,
n=1
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
d.h. insbesondere, dass die Zuwächse
Xt2 − Xt1
61
{Xt }
des stochastischen Prozesses
normalverteilt sind.
•
Wir zeigen nun, dass
{Xt }
ein Prozess mit unabhängigen Zuwächsen ist.
t1 , . . . , t4 ≥ 0
Aus (12) ergibt sich, dass für beliebige
mit
t1 < t 2 ≤ t3 < t 4
∞
) ∑
(
)(
)
(
Sn (t2 ) − Sn (t1 ) Sn (t4 ) − Sn (t3 ) .
Cov Xt2 − Xt1 , Xt4 − Xt3 =
n=1
Dabei ist
∞
∑
(
)(
)
Sn (t2 ) − Sn (t1 ) Sn (t4 ) − Sn (t3 )
n=1
=
∞ ∫
∑
n=1
=
(
∫
1
1
Hn (s)1I([t1 , t2 ])(s) ds
0
Hn (s)1I([t3 , t4 ])(s) ds =
0
)
m
∑
(
)(
)
Hn , 1I([t1 , t2 ]) Hn , 1I([t3 , t4 ])
n=1
1I([t1 , t2 ]) 1I([t3 , t4 ]) = 0 ,
wobei sich die vorletzte Gleichheit erneut aus Formel (5) in Lemma 2.5 ergibt.
Lemma
•
Teilaussage von
Schlieÿlich ergibt sich aus der dritten Teilaussage von Lemma 2.6 und aus Lemma 2.7,
dass sämtliche Trajektorien des Prozess {Xt , t ∈ [0, 1]} über dem eingeschränkten Wahr′
′
′
scheinlichkeitsraum (Ω , F , P ) stetige Funktionen sind, weil
•
(
)
Cov Xt2 − Xt1 , Xt4 − Xt3 = 0, und aus der zweiten
2.8 ergibt sich nun, dass {Xt } unabhängige Zuwächse hat.
Somit gilt
die Summe
∑m
Y S (t) für jedes m ≥ 1 eine stetige Funktion in t ist und
n=1
∑mn n
∑∞
n=1 Yn Sn (t) −→m→∞
n=1 Yn Sn (t) gleichmäÿig in t erfolgt.
die Konvergenz
Weil oenbar auch
X0 = 0
gilt, ist damit die Behauptung vollständig bewiesen.
Beachte
•
Die Aussage von Theorem 2.20 rechtfertigt den folgenden Algorithmus zur (näherungsweisen) Simulation des in (13) gegebenen WienerProzesses
•
k = 2m mit m ≥ 0
n=1 Yn Sn (t) des WienerProzesses {Xt }
Um für ein
∑k
Y1 , . . . , Yk
berechnet dann schrittweise die
2n
t ∈ [0, 1]}
mit
(k)
Xt
=
zu simulieren,
generiert man zunächst die Realisierungen
verteilten Zufallsvariablen
{Xt , t ∈ [0, 1]}.
(k)
die Approximation {Xt ,
y1 , . . . , yk
der unabhängigen und N(0, 1)
und
Segmente der Polygonzüge
(2n )
{Xt
, t ∈ [0, 1]}
für
n = 0, 1, . . . , m.
•
Dabei kann man zum Beispiel für
Schritt 0
m=2
und
n = 0, 1, 2
wie folgt vorgehen:
(1)
Für die Realisierung y1 von Y1 ergibt sich der Endpunkt (1, x1 ) = (1, y1 )
(1)
(1)
des Segmentes (0, 0) → (1, x1 ), das die entsprechende Trajektorie von {Xt , t ∈
[0, 1]} ist.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
Schritt 1
den Wert
Berechne den Mittelpunkt des Segmentes
y2 S2 (1/2) (= y2 /2)
(1)
(0, 0) → (1, x1 )
62
und addiere
zu dessen zweiter Komponente. Dies ergibt den Wert
(2)
x1/2 = y1 S1 (1/2) + y2 S2 (1/2) ,
wobei die Trajektorie von
(2)
{Xt , t ∈ [0, 1]}
(2)
(0, 0) → (1/2, x1/2 )
aus den zwei Segmenten
(2)
(1)
(2)
(1)
(1/2, x1/2 ) → (1, x1 )
und
besteht.
Schritt 2
Berechne die Mittelpunkte der Segmente
(2)
(0, 0) → (1/2, x1/2 )
(1/2, x1/2 ) → (1, x1 )
und
y3 S3 (1/4) (= y3 /23/2 )
und addiere jeweils die Werte
bzw.
y4 S4 (3/4) (= y4 /23/2 )
zu
deren zweiten Komponenten. Dies ergibt die Werte
(4)
x1/4 = y1 S1 (1/4)+y2 S2 (1/4)+y3 S3 (1/4)
wobei die Trajektorie von
(4)
{Xt , t ∈ [0, 1]}
(4)
(0, 0) → (1/4, x1/4 ) ,
und
und
(2)
(4)
x3/4 = y1 S1 (3/4)+y2 S2 (3/4)+y4 S4 (3/4) ,
nun aus vier Segmenten besteht:
(4)
(2)
(1/4, x1/4 ) → (1/2, x1/2 )
(4)
(1/2, x1/2 ) → (3/4, x3/4 ) ,
(4)
(1)
(3/4, x3/4 ) → (1, x1 ) .
Beachte
•
Die in Abschnitt 2.4.3 enthaltenen Darlegungen lassen sich auf völlig analoge Weise
zur Konstruktion und Simulation von WienerProzessen in beliebigen beschränkten
Intervallen der Form
I = [0, c]
verwenden, wobei
c<∞
eine beliebige positive Zahl
ist.
{Yt , t ∈ [0, c]} mit Yt =
{Xt , t ∈ [0, 1]} ein WienerProzess
Denn man kann sich leicht überlegen, dass
WienerProzess in
[0, c]
ist, wenn
√
c Xt/c
in [0, 1]
ein
ist;
vgl. auch Theorem 2.23 in Abschnitt 2.4.6.
•
Wir erwähnen nun noch eine Möglichkeit, wie WienerProzesse in dem unbeschränkten
Intervall
I = [0, ∞)
auf einfache Weise konstruiert werden können.
Hierfür genügt es, eine Doppelfolge
{Ynm , n, m ≥ 1} von unabhängigen und N([0, 1])
verteilten Zufallsvariablen zu betrachten, die über einunddemselben Wahrscheinlichkeitsraum
(Ω, F, P )
gegeben sind.
Gemäÿ Theorem 2.20 lässt sich über dem eingeschränkten Wahrscheinlichkeitsraum
(1)
(2)
(Ω′ , F ′ , P ′ ) eine Folge {Xt , t ∈ [0, 1]}, {Xt , t ∈ [0, 1]}, . . . von unabhängigen
WienerProzessen jeweils im Intervall [0, 1] konstruieren.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
63
Man kann sich leicht überlegen, dass dann durch den Ansatz
Xt =
 (1)

Xt




(1)
(2)


X1 + Xt−1




(3)

 X1(1) + X1(2) + Xt−2
für
t ∈ [0, 1],
für
t ∈ [1, 2],
für
t ∈ [2, 3],
für
t ∈ [n − 1, n],
.
.
.





∑n−1 (k)

(n)



k=1 X1 + Xt−(n−1)



 ..
.
ein stochastischer Prozess
{Xt , t ≥ 0}
gegeben ist, der ein WienerProzess in
(Ω′ , F ′ , P ′ ) ist.
[0, ∞)
über dem eingeschränkten Wahrscheinlichkeitsraum
2.4.4 Darstellung als MarkowProzess bzw. GauÿProzess
Wir zeigen nun, dass der WienerProzess ein MarkowProzess im Sinne der folgenden (verallgemeinerten) Denition dieses Begries ist, die ähnlich zu der in Abschnitt 2.3.1 betrachteten Denition
von MarkowProzessen mit endlichem Zustandsraum ist.
Sei
P(R)
die Familie sämtlicher Wahrscheinlichkeitsmaÿe auf der Borelσ Algebra
Begri eines MarkowProzesses
baren) Zustandsraum
E=R
{Xt , t ≥ 0}
Um den
einzuführen, betrachten wir
•
ein Wahrscheinlichkeitsmaÿ
•
einen stochastischen Kern
α : B(R) → [0, 1]
sowie
P : [0, ∞) × R × B(R) → [0, 1],
P(·, ·, B)
so dass
P(h, x, ·) ∈ P(R) ,
(15)
P(0, x, {x}) = 1 ,
(16)
ist eine messbare Funktion auf
∫
P(h1 + h2 , x, B) =
für beliebige
B(R).
mit stetiger Zeit und mit Werten in dem (überabzähl-
h, h1 , h2 ≥ 0, x ∈ R
und
R
[0, ∞) × R,
P(h2 , y, B) P(h1 , x, dy)
(17)
(18)
B ∈ B(R).
Denition
1. Ein stochastischer Kern
P,
der den Bedingungen (15)(18) genügt, wird Übergangskern
genannt.
{Xt , t ≥ 0} mit Werten in E = R heiÿt homogener Markow
Prozess, wenn es einen Übergangskern P und ein Wahrscheinlichkeitsmaÿ α über B(R)
2. Ein stochastischer Prozess
gibt, so dass
P (X0 ∈ B0 , Xt1 ∈ B1 , . . . , Xtn ∈ Bn )
∫ ∫
∫
=
...
P(tn − tn−1 , xn−1 , dxn ) . . . P(t1 , x0 , dx1 ) α(dx0 ) ,
B0
für beliebige
B1
Bn
n = 0, 1, . . ., B0 , B1 , . . . , Bn ∈ B(R), t0 = 0 ≤ t1 ≤ . . . ≤ tn .
(19)
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
64
Beachte
•
Das Wahrscheinlichkeitsmaÿ
•
Auÿerdem wird
h
in
d.h.,
in (19) wird Anfangsverteilung genannt.
P(h, x, B) als die Wahrscheinlichkeit interpretiert, dass der Prozess {Xt }
x in einen Zustand aus B übergeht.
Zeiteinheiten vom Zustand
Theorem 2.21
α = δ0 ,
α
Sei {Xt , t ≥ 0}
α({0}) = 1, und
ein WienerProzess. Dann ist
√
P(h, x, B) =
für beliebige
h > 0, x ∈ R
und
1
2πh
∫
{Xt }
ein MarkowProzess mit
( (y − x)2 )
exp −
dy
2h
B
(20)
B ∈ B(R).
Beweis
•
Wegen
X0 = 0
genügt es, anstelle von (19), zu zeigen, dass die folgende Desintegrations-
gleichung
∫
∫
P (Xt1 ∈ B1 , . . . , Xtn ∈ Bn ) =
für beliebige
•
P(tn − tn−1 , xn−1 , dxn ) . . . P(t1 , 0, dx1 ) ,
...
B1
(21)
Bn
n = 1, 2 . . ., B1 , . . . , Bn ∈ B(R)
und
0 < t1 < . . . < tn
Aus der Unabhängigkeit der Zuwächse des WienerProzesses
{Xt }
gilt.
ergibt sich, dass
P (Xt1 ∈ B1 , Xt2 ∈ B2 , . . . , Xtn ∈ Bn )
= P (Xt1 ∈ B1 , Xt2 − Xt1 ∈ B2 − Xt1 , . . . , Xtn − Xt1 ∈ Bn − Xt1 )
∫
=
P (Xt2 − Xt1 ∈ B2 − x1 , . . . , Xtn − Xt1 ∈ Bn − x1 )P (Xt1 ∈ dx1 )
∫B1 ∫
=
P (Xt3 − Xt2 ∈ B3 − x1 − x2 , . . . , Xtn − Xt2 ∈ Bn − x1 − x2 )
B2 −x1
B1
P (Xt2 − Xt1 ∈ dx2 ) P (Xt1 ∈ dx1 )
.
.
.
∫
∫
∫
=
...
B1
B2 −x1
P (Xtn − Xtn−1 ∈ dxn ) . . . P (Xt2 − Xt1 ∈ dx2 ) P (Xt1 ∈ dx1 )
Bn −x1 −...−xn−1
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Somit ergibt sich aus der Normalverteiltheit der Zuwächse von
{Xt },
65
dass
P (Xt1 ∈ B1 , Xt2 ∈ B2 , . . . , Xtn ∈ Bn )
√
∫ ∫
∫
=
...
(
)
1
x2n
exp −
dxn
2π(tn − tn−1 )
2(tn − tn−1 )
B1 B2 −x1
Bn −x1 −...−xn−1
√
√
(
)
( x2 )
1
x22
1
exp −
dx2
exp − 1 dx1
...
2π(t2 − t1 )
2(t2 − t1 )
2πt1
2t1
∫ ∫
∫ √
( (xn − xn−1 )2 )
1
=
...
exp −
dxn
2π(tn − tn−1 )
2(tn − tn−1 )
B1 B2
Bn
√
√
( (x2 − x1 )2 )
( x2 )
1
1
exp −
dx2
exp − 1 dx1 .
...
2π(t2 − t1 )
2(t2 − t1 )
2πt1
2t1
•
Damit ist die Gültigkeit von (21) gezeigt, wobei der Übergangskern
ist.
P durch (20) gegeben
Beachte
•
(Xt1 , . . . , Xtn )
ft1 ,...,tn : Rn → [0, ∞)
Aus dem Beweis von Theorem 2.21 ergibt sich insbesondere, dass
ein
absolutstetiger Zufallsvektor ist, dessen (gemeinsame) Dichte
für
0 < t1 < . . . < tn
gegeben ist durch
n
( 1 ∑
(
)−1/2
(xi − xi−1 )2 )
ft1 ,...,tn (x1 , . . . , xn ) = (2π)−n/2 t1 (t2 −t1 ) . . . (tn −tn−1 )
exp −
,
2 i=1 ti − ti−1
(22)
wobei
•
t0 = x0 = 0.
Aus (22) folgt, dass der Zufallsvektor
hat, wobei
•
Cov (Xs , Xt ) = min{s, t}
Ein stochastischer Prozess
(Xt1 , . . . , Xtn ) eine (multivariate) Normalverteilung
für beliebige s, t ≥ 0.
{Xt , t ≥ 0},
dessen endlichdimensionale Verteilungen (mul-
tivariate) Normalverteilungen sind, wird GauÿProzess genannt.
2.4.5 Verteilung des Maximums
In diesem Abschnitt setzen wir die Diskussion von Eigenschaften des WienerProzesses fort, die
mit relativ elementaren Hilfsmitteln gezeigt werden können. Dabei leiten wir zunächst eine obere
Schranke für die Tailfunktion des Maximums
maxt∈[0,1] Xt
von WienerProzessen in
[0, 1]
her.
Später zeigen wir in Kapitel 3 mit den Techniken von Martingalen bzw. LévyProzessen, dass diese
Schranke optimal ist, d.h., mit der Tailfunktion von
maxt∈[0,1] Xt
übereinstimmt.
Theorem 2.22
•
Sei
{Xt , t ∈ [0, 1]} ein WienerProzess über einem gewissen Wahrscheinlichkeitsraum (Ω, F, P ).
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Dann gilt
(
√
)
P max Xt > x ≤
t∈[0,1]
2
π
∫
∞
e−y
2
/2
∀x ≥ 0.
dy
66
(23)
x
Beachte
•
maxt∈[0,1] Xt : Ω → [0, ∞) ist eine wohldenierte
{Xt } stetige Funktionen sind und somit
(
)
(
)
max Xt (ω) = lim
max Xi/k (ω)
∀ω ∈ Ω.
(24)
Die in (23) betrachtete Abbildung
Zufallsvariable, weil die Trajektorien von
k→∞
t∈[0,1]
•
Aus (23) folgt, dass die Zufallsvariable
i=1,...,k
maxt∈[0,1] Xt
einen exponentiell beschränkten
Tail hat. Hieraus ergibt sich insbesondere, dass sämtliche Momente von
maxt∈[0,1] Xt
existieren (und endlich sind).
•
Im Beweis von Theorem 2.22 benötigen wir Bezeichnungen und Hilfsmittel, die teilweise
bereits in der Vorlesung Wahrscheinlichkeitsrechnung bereitgestellt wurden.
Sei
{Xt , t ≥ 0} ein
Z1 , Z2 , . . . eine Folge von unabhängigen
P (Zi = 1) = P (Zi = −1) = 1/2 für jedes i ≥ 1.
et(n) , t ∈
betrachten wir für jedes n ≥ 1 den stochastischen Prozess {X
WienerProzess, und sei
Zufallsvariablen mit
Auÿerdem
[0, 1]}
wobei
mit
√
√
et(n) = S⌊nt⌋ / n + (nt − ⌊nt⌋) Z⌊nt⌋+1 / n ,
X
Si = Z1 + . . . + Zi
S0 = 0.
für jedes
i≥1
und
⌊t⌋
(25)
t≥0
den ganzzahligen Teil von
bezeichnet;
•
Das folgende Lemma zeigt, dass
et }
{X
(n)
als Approximation des WienerProzesses
{Xt }
aufgefasst werden kann.
Allerdings konvergiert der in (25) gegebene Prozess
n→∞
gegen
während
∑n
k=1
Lemma 2.9
{Xt },
(n)
nur in Verteilung für
pfadweise für
k≥1
n→∞
gegen den
und für beliebige t1 , . . . , tk
∈ [0, 1]
( (n)
) d (
)
et , . . . , X
et(n) −→
X
Xt1 , . . . , Xtk
1
k
(n)
(n)
{Xt } mit Xt
=
WienerProzess {Xt } konvergiert.
die in Abschnitt 2.4.3 betrachtete Approximation
Yk Sk (t)
Für jedes
et }
{X
gilt
für
n → ∞.
(26)
Beweis
•
Wir zeigen die Behauptung nur für den Spezialfall
k = 2;
für beliebige
der Beweis analog. Auÿerdem nehmen wir o.B.d.A. an, dass
•
Dann gilt für beliebige
et(n) + s2 X
et(n)
s1 X
1
2
=
s1 , s2 ∈ R,
k ≥2
verläuft
t1 < t 2 .
dass
(
) √
√
(s1 + s2 )S⌊nt1 ⌋ / n + s2 S⌊nt2 ⌋ − S⌊nt1 ⌋+1 / n
(
√
√ )
√
+Z⌊nt1 ⌋+1 (nt1 − ⌊nt1 ⌋)s1 / n + s2 / n + Z⌊nt2 ⌋+1 (nt2 − ⌊nt2 ⌋)s2 / n ,
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
67
wobei die vier Summanden auf der rechten Seite der letzten Gleichheit unabhängige
Zufallsvariablen sind,
so dass die letzten beiden Summanden jeweils (in Verteilung) gegen Null konvergieren.
•
Aus der Charakterisierung der Verteilungskonvergenz mittels charakteristischer Funktionen (siehe Theorem WR-5.20) ergibt sich somit, dass die charakteristischen Funktionen
der beiden letzten Summanden punktweise gegen
•
1
konvergieren.
Insgesamt gilt also
e (n) +s2 X
e (n) )
lim E ei(s1 Xt1
t2
n→∞
(
√
√ )⌊nt1 ⌋ (
√ )⌊nt2 ⌋−⌊nt1 ⌋−1
= lim φ(s1 / n + s2 / n)
φ(s2 / n)
n→∞
φ(s) = E exp(isZ1 ) für s ∈ R.
√
φn (s/ n) die charakteristische
wobei
•
Weil
Funktion der Zufallsvariablen
√
(Z1 + . . . + Zn )/ n
ist,
ergibt sich aus dem zentralen Grenzwertsatz, dass
√
2
lim φn (s/ n) = e−s /2
n→∞
und somit
e (n) +s2 X
e (n) )
lim E ei(s1 Xt1
t2
n→∞
•
)
(
= exp −((s1 + s2 )2 t1 + s22 (t2 − t1 ))/2
(
)
= exp −(s21 t1 + 2s1 s2 min{t1 , t2 } + s22 t2 )/2 .
Weil der letzte Ausdruck die charakteristische Funktion des Zufallsvektors
(Xt1 , Xt2 ) ist,
ergibt sich nun die Behauptung
durch die erneute Anwendung der Charakterisierung der Verteilungskonvergenz mittels charakteristischer Funktionen
und aus dem eineindeutigen Zusammenhang zwischen charakteristischer Funktion
und Verteilung (vgl. Korollar WR-5.5 für den eindimensionalen Fall).
Lemma 2.10
Sei
e (n) = maxt∈[0,1] X
et(n) .
X
e (n) = √1
X
n
Dann gilt
max Sk
k=1,...,n
√
und
e (n) ≤ x) =
lim P (X
n→∞
2
π
∫
x
∀ n = 1, 2, . . .
e−y
2
/2
dy
∀x ≥ 0.
(27)
(28)
0
Beweis
•
Die Gleichung (27) folgt unmittelbar aus der in (25) gegebenen Denition von
•
Die Gleichung (28) beruht auf dem sogenannten
et(n) .
X
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
Reexionsprinzip der maximalen Gewinnsume bei
nmaligem
68
Münzwurf
und wurde bereits in Abschnitt WR-5.3.2 hergeleitet (vgl. Formel (68) in Abschnitt WR-
5.3.2).
Beweis von Theorem 2.22
•
Aus Lemma 2.9 ergibt sich, dass für beliebige
lim P (
max
t∈{t1 ,...,tk }
n→∞
•
et(n)
X
x ≥ 0, k ≥ 1
> x) = P (
max
t∈{t1 ,...,tk }
t1 , . . . , tk ∈ [0, 1]
Xt > x) .
Hieraus folgt, dass
et(n) > x) ≥ P (
lim P ( max X
n→∞
•
und
Mit
max
t∈{t1 ,...,tk }
t∈[0,1]
{t1 , . . . , tk } = {1/k, 2/k, . . . , k/k}
Xt > x) .
ergibt sich nun unter Beachtung von (24), dass
et(n) > x) ≥ P ( max Xt > x) .
lim P ( max X
n→∞
•
Beachte
t∈[0,1]
t∈[0,1]
Wegen Lemma 2.10 ist damit die Ungleichung (23) bewiesen.
Sei
{Xt , t ≥ 0} ein WienerProzess über (Ω, F, P ). Dabei setzen wir (wie stets in diesem
(Ω, F, P ) ein vollständiger Wahrscheinlichkeitsraum ist, d.h.,
Skript) voraus, dass
•
WienerProzess
•
(Ω, F, P ), über dem der
{Xt } gegeben ist, zu F gehören, bzw. (äquivalent hierzu)
C ∈ F , falls es Teilmengen A, B ∈ F gibt, so dass A ⊂ C ⊂ B und
dass sämtliche Nullmengen des Wahrscheinlichkeitsraumes
C ⊂ Ω gilt
P (B \ A) = 0.
für
Aus Theorem 2.22 ergibt sich nun die folgende asymptotische Eigenschaft des WienerPrrozesses.
Korollar 2.4
Sei
{Xt , t ≥ 0}
ein WienerProzess. Dann gilt mit Wahrscheinlichkeit
lim
t→∞
Xt
= 0.
t
1
(29)
Beweis
•
Für beliebige
n = 1, 2, . . . und t ∈ [n, n + 1) gilt
X
X
Xn Xn Xn
Xn t
t
−
−
−
≤ +
t
n
t
t
t
n
1
1
1
≤ |Xn | −
sup |Xt − Xn |
+
t
n
n t∈[n,n+1]
≤
Zn = supt∈[0,1] |Xn+t − Xn |
n ≥ 0.
wobei
sind;
|Xn |
Zn
+
,
n2
n
unabhängige und identisch verteilte Zufallsvariablen
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Hieraus und aus der Vollständigkeit des Wahrscheinlichkeitsraumes
dass
limt→∞ Xt /t
(Ω, F, P ) ergibt sich,
eine wohldenierte Zufallsvariable mit der Eigenschaft (29) ist,
wenn wir zeigen, dass mit Wahrscheinlichkeit
lim
n→∞
•
69
|Xn |
=0
n2
1
lim
und
n→∞
Zn
= 0.
n
(30)
Die erste Nullkonvergenz in (30) ergibt sich unmittelbar aus dem starken Gesetz der
groÿen Zahlen für Summen unabhängiger und identisch verteilter Zufallsvariablen, denn
es gilt
∑n (X − X ) |Xn |
i
i−1 = i=1
−→ |E X1 | = 0
n
n
und somit auch
•
|Xn |/n2 → 0
für
n → ∞.
Um auch die Gültigkeit der zweiten Nullkonvergenz in (30) mit dem starken Gesetz der
groÿen Zahlen begründen zu können, muss noch gezeigt werden, dass
Man kann sich leicht überlegen, dass
{−Xt , t ≥ 0}
E Z1 < ∞.
ebenfalls ein WienerProzess ist
(vgl. auch Theorem 2.23). Deshalb gilt
(
)
(
)
(
)
P (Z1 > x) ≤ P max Xt > x + P max (−Xt ) > x = 2 P max Xt > x .
t∈[0,1]
t∈[0,1]
Mit Hilfe von (23) ergibt sich somit, dass
√
P (Z1 > x) ≤ 2
t∈[0,1]
Hieraus folgt, dass
E Z1 =
∫∞
0
2
π
∫
∞
e−y
2
/2
dy
∀x ≥ 0.
x
P (Z1 > x) dx < ∞.
2.4.6 Weitere Verteilungs und Pfadeigenschaften
Wir zeigen nun einige Invarianzeigenschaften des WienerProzesses in
[0, ∞),
womit die Tatsache
gemeint ist, dass bestimmte Transformationen des WienerProzesses erneut zu einem Wiener
Prozess führen. In Abb. 12 wird beispielsweise die in (32) betrachtete Invarianz des Wiener
Prozesses gegenüber Verschiebungen des Nullpunktes illustriert.
Theorem 2.23
•
{Xt , t ≥ 0}
(Ω, F, P ).
Sei
ein WienerProzess über einem (vollständigen) Wahrscheinlichkeitsraum
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
70
Abbildung 12: Verschiebungsinvarianz von WienerProzessen
•
Die stochastischen Prozesse
(1)
(i)
{Yt , t ≥ 0}, i = 1, . . . , 4
mit
Yt
= −Xt ,
(Symmetrie)
(31)
(2)
Yt
(3)
Yt
= Xt+t0 − Xt0
für ein t0 > 0
√
cXt/c
für ein c > 0,
=

 tX
1/t für t > 0,
=
 0
für t = 0,
(Verschiebung des Nullpunktes)
(32)
(Skalierung)
(33)
(4)
Yt
(Spiegelung bei
t = ∞)
(34)
(i)
{Yt , t ≥ 0}, i = 1, 2, 3 über dem gleichen Wahr(4)
scheinlichkeitsraum (Ω, F, P ) wie {Xt } gegeben sind, während {Yt , t ≥ 0} über einem ein′
′
′
geschränkten Wahrscheinlichkeitsraum (Ω , F , P ) gegeben ist.
sind dann ebenfalls WienerProzesse, wobei
Beweis
•
Wir zeigen, dass die Prozesse
(i)
{Yt , t ≥ 0}
für
i = 1, . . . , 4
die vier Bedingungen in der
Denition des WienerProzesses erfüllen.
•
(i)
Man kann sich leicht überlegen, dass die Prozesse {Yt , t ≥ 0} unabhängige Zu(i)
(i)
wächse besitzen mit Yt
− Yt1 ∼ N(0, t2 − t1 ) für 0 ≤ t1 < t2 und i = 1, . . . , 4,
2
(i)
= 0 für i = 1, . . . , 4.
Oenbar gilt auch Y0
(i)
Auÿerdem ist klar, dass die Prozesse {Yt , t ≥ 0} für i = 1, 2, 3 stetige Trajektorien
besitzen.
Es bleibt also noch zu zeigen,
dass mit Wahrscheinlichkeit
1
(4)
lim Yt
t↓0
bzw. dass es für fast jedes
ω∈Ω
=0
und für jedes
sup
t∈(0,1/m]
(4)
(35)
n>0
|Yt (ω)| <
eine Zahl
1
,
n
m>0
gibt, so dass
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
(4)
{Yt , t ≥ 0} dann stetige Trajektorien über dem Wahrscheinlichkeitrsraum
(4)
(Ω , F ′ , P ′ ) hat, wobei Ω′ = {ω ∈ Ω : limt↓0 Yt (ω) = 0}, F ′ = F ∩ Ω′ und P ′ die
′
Einschränkung von P auf F bezeichnet.
weil
′
Weil die Trajektorien von
(4)
{Yt , t ≥ 0}
für jedes
(4)
|Yt | =
sup
t∈(0,1/m]
wobei
•
71
Q ⊂ (0, ∞)
t>0
stetig sind, gilt
(4)
|Yt | ,
sup
t∈Q∩(0,1/m]
die (abzählbar unendliche) Menge der positiven rationalen Zahlen ist.
Hieraus folgt, dass
(
)
(4)
P lim Yt = 0
t↓0
= P
(∩ ∪ {
sup
})
(4)
|Yt | < 1/n
n>0 m>0 t∈(0,1/m]
= P
(∩ ∪
{
sup
})
(4)
|Yt | < 1/n
n>0 m>0 t∈Q∩(0,1/m]
=
•
Beachte
wobei
Qk ⊂ Q
P
lim
′
P
n′ ,m ,k=∞
=
n′ ∪
m′
(∩
lim
′
n′ ,m ,k→∞
sup
n=1 m=1 t∈Qk ∩(0,1/m]
n′ ∪
m′
(∩
sup
{ (4)
})
|Yt | < 1/n
{
})
|Xt | < 1/n ,
n=1 m=1 t∈Qk ∩(0,1/m]
die (endliche) Menge der ersten
k
rationalen Zahlen ist
und sich die letzte Gleichheit aus der Tatsache ergibt, dass die (endlichdimensionalen)
(4)
Zufallsvektoren {Yt , t ∈ Qk } und {Xt , t ∈ Qk } identisch verteilt sind.
,
Weil die Trajektorien des WienerProzesses {Xt t ∈ [0, 1]} rechtsseitig stetig in t = 0
sind, ist der letzte Grenzwert gleich 1. Damit ist (35) bewiesen.
Die Gültigkeit von (35) kann auch direkt aus Korollar 2.4 gefolgert werden, denn es gilt
(4)
lim Yt
t↓0
Korollar 2.5
Sei
{Xt , ≥ 0}
= lim t X1/t = lim
t→∞
t↓0
Xt
= 0.
t
ein WienerProzess. Dann gilt
(
)
(
)
P sup Xt = ∞ = P inf Xt = −∞ = 1 .
t≥0
(36)
t≥0
Beweis
•
Aus der Skalierungseigenschaft (33) in Theorem 2.23 ergibt sich,
c, x > 0
(
)
(
)
(
√
√ )
P sup Xt > x = P sup cXt/c > x = P sup Xt > x/ c .
dass für beliebige
t≥0
t≥0
t≥0
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
d.h. insbesondere, dass die Wahrscheinlichkeit
(
)
P supt≥0 Xt > x
nicht von
x
72
ab-
hängt.
•
Hieraus folgt, dass
(
)
P {sup Xt = 0} ∪ {sup Xt = ∞} = 1 .
t≥0
•
(37)
t≥0
{Xt } unabhängige und stationäre Zuwächse hat, gilt
(
)
(
)
(
)
(
)
P sup Xt = 0 = P sup Xt ≤ 0 ≤ P X1 ≤ 0, sup Xt ≤ 0 = P X1 ≤ 0, sup (Xt − X1 ) ≤ −X1
Weil der WienerProzess
t≥0
∫
t≥0
0
=
(37)
−∞
0
∫
=
−∞
=
t≥1
(
)
P sup(Xt − X1 ) ≤ −x P (X1 ∈ dx) =
t≥1
∫
t≥1
0
−∞
(
)
P sup Xt ≤ −x P (X1 ∈ dx)
t≥0
(
)
(
)
P sup Xt = 0 P (X1 ∈ dx) = P (X1 ≤ 0) P sup Xt = 0
t≥0
t≥0
)
1 (
P sup Xt = 0 ,
2
t≥0
wobei sich die dritte Gleichheit aus der InvarianzEigenschaft von
{Xt }
bezüglich der
Verschiebung des Nullpunktes ergibt; vgl. die Formel (32).
•
Hieraus folgt, dass
•
Die Gültigkeit von
(
)
(
)
P supt≥0 Xt = 0 = 0 und somit P supt≥0 Xt = ∞ = 1.
(
)
P inf t≥0 Xt = −∞ = 1 ergibt sich auf analoge Weise.
Beachte
•
Die Aussage von Korollar 2.5 ist äquivalent mit
(
)
P supt≥0 Xt = ∞, inf t≥0 Xt = −∞ =
1.
•
Hieraus folgt insbesondere, dass fast alle Pfade des WienerProzesses
unbeschränkten Intervall
[0, ∞)
{Xt , t ≥ 0} in dem
unendlich oft zwischen positiven und negativen Werten
oszillieren.
•
Wir zeigen nun, dass die Pfade des WienerProzesses
{Xt }
auch in beschränkten Intervallen wild oszillieren (vgl. Abb. 13),
denn es stellt sich heraus, dass sie zwar stetige, jedoch mit Wahrscheinlichkeit
1
nirgendwo dierenzierbare Funktionen sind.
Theorem 2.24
Sei
{Xt , ≥ 0}
ein WienerProzess. Dann gilt
P (ω ∈ Ω : X· (ω) ist
nirgendwo dierenzierbar in
[0, ∞) ) = 1 .
Beweis
•
Wegen der Identität
{
ω ∈ Ω : X· (ω) ist nirgendwo dierenzierbar in [0, ∞)}
∩{
=
ω ∈ Ω : X· (ω) ist nirgendwo dierenzierbar in [i, i + 1]}
i≥0
(38)
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
73
Abbildung 13: Approximation der Realisierungen von WienerProzessen
genügt es zu zeigen, dass
P (ω ∈ Ω : X· (ω)
ist nirgendwo dierenzierbar in
[0, 1] ) = 1
bzw., äquivalent hierzu, dass
P (ω ∈ Ω : X· (ω) ist
•
dierenzierbar für ein
t0 = t0 (ω) ∈ [0, 1] ) = 0 .
(39)
Um die Gültigkeit von (39) zu beweisen, setzen wir für beliebige natürliche Zahlen
n, m ≥
1
{
Anm = ω ∈ Ω :
es gibt ein
t0 = t0 (ω) ∈ [0, 1]
mit
}
|Xt0 (ω)+h (ω)−Xt0 (ω) (ω)| ≤ mh, ∀ h ∈ [0, 4/n] .
Dann gilt
{
ω ∈ Ω : X· (ω) ist
dierenzierbar für ein
∪ ∪
}
t0 = t0 (ω) ⊂
Anm ,
m≥1 n≥1
und es genügt somit zu zeigen, dass
P (Anm ) = 0
∀ n, m ≥ 1 .
{
}
k0 (ω) = min k ∈ {0, 1, . . .} : k/n ≥ t0 (ω) . Dann gilt für jedes ω ∈ Anm
j = 0, 1, 2
X(k (ω)+j+1)/n (ω) − X(k (ω)+j)/n (ω)
0
0
≤ X(k0 (ω)+j+1)/n (ω) − Xt0 (ω) (ω) + X(k0 (ω)+j)/n (ω) − Xt0 (ω) (ω)
8m
≤
n
•
Sei
•
Mit der Schreibweise
∆n (k) = X(k+1)/n − Xk/n
Anm ⊂
gilt also
n ∩
2
∪
{
8m }
|∆n (k + j)| ≤
n
j=0
k=0
(40)
und für
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
74
und somit
P (Anm ) ≤
P
n ∩
2
(∪
{
|∆n (k + j)| ≤
k=0 j=0
8m })
n
2
n
(∩
∑
{
8m })
P
|∆n (k + j)| ≤
≤
n
j=0
k=0
(
8m )3
= (n + 1)P |∆n (0)| ≤
n
( 16 m )3
≤ (n + 1) √
−→ 0
für n → ∞ .
2πn
•
Weil
Anm ⊂ An+1,m
Korollar 2.6
für jedes
1
Mit Wahrscheinlichkeit
(
P sup
n ≥ 1,
ergibt sich hieraus die Gültigkeit von (40).
gilt
n
∑
sup
n≥1 0≤t0 <...<tn ≤1 i=1
d.h., fast alle Trajektorien des WienerProzesses
)
|Xti − Xti−1 | = ∞ = 1 ,
{Xt , t ∈ [0, 1]}
(41)
sind Funktionen mit unbeschränk-
ter Variation.
Beweis
Weil jede stetige Funktion
g : [0, 1] → R
mit beschränkter Variation fast überall dieren-
zierbar ist, ergibt sich die Behauptung unmittelbar aus Theorem 2.24.
Beachte
•
Ein direkter Beweis von Korollar 2.6 kann wie folgt geführt werden: Es genügt zu zeigen,
dass mit Wahrscheinlichkeit
1
2
∑
Xit/2n − X(i−1)t/2n = ∞
n
lim
n→∞
•
∀ t ∈ (0, 1] .
(42)
i=1
Um (42) zu beweisen, setzen wir
2
∑
(
n
Zn =
Xit/2n − X(i−1)t/2n
)2
− t.
i=1
E Zn = 0,
E (Zn2 ) = t2 2−n+1 .
•
Dann gilt
•
Aus der TschebyschewUngleichung (vgl. Abschnitt WR-4.4.3) ergibt sich, dass für jedes
ε>0
und somit
∑∞
n=1
und auÿerdem kann man leicht zeigen, dass
P (|Zn | ≥ ε) ≤ ε−2 E (Zn2 ) = (t/ε)2 2−n+1
P (|Zn | ≥ ε) < ∞.
2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN
•
Aus dem Lemma von BorelCantelli (vgl. Korollar WR-2.3) ergibt sich nun, dass
0
•
mit Wahrscheinlichkeit
75
limn→∞ Zn =
1.
Hieraus folgt, dass mit Wahrscheinlichkeit
1
2
∑
Xit/2n − X(i−1)t/2n .
0 < t ≤ lim inf max n Xkt/2n − X(k−1)t/2n
n
n→∞ 1≤k≤2
•
i=1
Damit ist die Gültigkeit von (42) bewiesen, weil der WienerProzess
jektorien hat und weil deshalb
lim
max n Xkt/2n − X(k−1)t/2n = 0 .
n→∞ 1≤k≤2
{Xt }
stetige Tra-
3 LÉVYPROZESSE UND MARTINGALE
76
3 LévyProzesse und Martingale
3.1 LévyProzesse
In Abschnitt 2.2.2 hatten wir zusammengesetzte PoissonProzesse betrachtet und gezeigt, dass sie
unabhängige und stationäre Zuwächse besitzen (vgl. Theorem 2.10). Der WienerProzess besitzt
ebenfalls diese beiden Eigenschaften, was sich unmittelbar aus seiner Denition ergibt (vgl. Abschnitt 2.4).
Wir betrachten nun eine allgemeine Klasse von stochastischen Prozessen mit unabhängigen und stationären Zuwächsen, die sowohl zusammengesetzte PoissonProzesse als auch den WienerProzess
als Spezialfälle umfasst.
Denition
Ein stochastischer Prozess
{Xt , t ≥ 0} über einem (im allgemeinen
(Ω, F, P ) heiÿt LévyProzess, wenn
nicht näher
spezizierten) Wahrscheinlichkeitsraum
• X0 = 0,
• {Xt }
unabhängige und stationäre Zuwächse hat,
• {Xt } stochastisch stetig ist, d.h., für beliebige ε > 0 und t0 ≥ 0 gilt limt→t0 P (|Xt −Xt0 | >
ε) = 0.
Beachte
•
Man kann sich leicht überlegen, dass für zusammengesetzte PoissonProzesse die dritte
Bedingung ebenfalls erfüllt ist. Denn es gilt dann für jedes
ε>0
und für
t → t0
P (|Xt − Xt0 | > ε) ≤ P (|Xt − Xt0 | > 0) ≤ 1 − e−λ|t−t0 | −→ 0 ,
wobei
•
λ>0
die Intensität der Sprungzeitpunkte bezeichnet.
ε>0
Darüber hinaus gilt auch im Fall des WienerProzesses für jedes
√
2
π|t − t0 |
P (|Xt −Xt0 | > ε) =
∫
∞
(
exp −
ε
)
y2
dy =
2|t − t0 |
√
2
π
∫
und für
∞
√
ε/
e−y
|t−t0 |
2
t → t0
/2
dy −→ 0 .
3.1.1 Unbegrenzte Teilbarkeit
Wir zeigen zunächst, dass für jeden LévyProzess
{Xt }
und für jedes
t≥0
die Zufallsvariable
Xt
unbegrenzt teilbar ist, und geben dann in Abschnitt 3.1.2 eine Darstellungsformel für die charakteristische Funktion von
Xt
an.
Denition
Sei X : Ω → R eine beliebige Zufallsvariable über einem Wahrscheinlichkeitsraum
(Ω, F, P ). Man sagt, dass X bzw. die Verteilung PX von X unbegrenzt teilbar ist, wenn es für
(n)
(n)
jedes n ≥ 1 unabhängige und identisch verteilte Zufallsvariablen Y1 , . . . , Yn
: Ω → R gibt
mit
d
(n)
X = Y1
(n)
+ . . . + Yn
.
3 LÉVYPROZESSE UND MARTINGALE
Theorem 3.1
Sei
{Xt , t ≥ 0}
77
ein LévyProzess. Dann ist die Zufallsvariable
Xt
für jedes
t≥0
unbegrenzt teilbar.
Beweis
•
Für beliebige
t≥0
und
n≥1
gilt oenbar, dass
Xt = Xt/n + (X2t/n − Xt/n ) + . . . + (Xnt/n − X(n−1)t/n ) .
•
Weil
{Xt } unabhängige und stationäre Zuwächse hat, sind die Summanden auf der rech-
ten Seite der letzten Gleichheit unabhängige und identische verteilte Zufallsvariablen.
Das folgende Lemma enthält ein einfaches (jedoch nützliches) Hilfsmittel zur Untersuchung von
unbegrenzt teilbaren Zufallsvariablen.
Lemma 3.1
wobei
φn
X : Ω → R ist genau dann unbegrenzt
X für jedes n ≥ 1 darstellen lässt in der
(
)n
φX (s) = φn (s)
∀s ∈ R,
Die Zufallsvariable
charakteristische Funktion
φX
von
teilbar, wenn sich die
Form
(1)
die charakteristische Funktion einer Zufallsvariablen ist.
Beweis
•
Die Notwendigkeit der Bedingung (1) ergibt sich unmittelbar
aus der Denition der unbegrenzten Teilbarkeit und aus der Tatsache, dass
die charakteristische Funktion der Summe von unabhängigen Zufallsvariablen gleich
dem Produkt der charakteristischen Funktionen der Summanden ist (vgl. Theorem WR-5.18).
•
der charakteristischen Funktion
(n)
(n)
Y1 , . . . , Yn
φn .
Es gelte nun umgekehrt (1), und
seien unabhängige Zufallsvariablen mit
(
)n
Dann ergibt sich durch die erneute Anwendung von Theorem WR-5.18, dass φn (s)
(n)
(n)
die charakteristische Funktion der Summe Y1
+ . . . + Yn ist.
(n)
+ ... +
Wegen (1) stimmen also die charakteristischen Funktionen von X und Y1
(n)
Yn überein.
Aus dem Eindeutigkeitssatz für charakteristische Funktionen (vgl. Korollar WR-5.5)
(n)
(n)
ergibt sich nun, dass auch die Verteilungen von X und Y1 +. . .+Yn
übereinstimen.
Wir benötigen noch einen Stetigkeitssatz für charakteristische Funktionen, der eine (teilweise) Verschärfung von Theorem WR-5.20 ist und den wir hier ohne Beweis angeben.
3 LÉVYPROZESSE UND MARTINGALE
78
Lemma 3.2
•
Sei X1 , X2 , . . . : Ω → R eine beliebige Folge
R → C ihre charakteristischen Funktionen.
•
Falls es eine Funktion
φ(s)
für jedes
dann ist
s∈R
φ
und es gilt
von Zufallsvariablen, und seien
φX1 , φX2 , . . . :
φ : R → C gibt, so dass φ(s) stetig im Punkt s = 0 ist und limn→∞ φn (s) =
gilt,
die charakteristische Funktion einer Zufallsvariablen
X,
d
Xn −→ X .
Auÿerdem spielt der Begri des LévyMaÿes eine wichtige Rolle bei der Untersuchung von unbegrenzt teilbaren Verteilungen.
Denition
wenn
Sei ν ein Maÿ
ν({0}) = 0 und
über dem Messraum
(R, B(R)).
Man sagt, dass
ν
ein LévyMaÿ ist,
∫
R
min{y 2 , 1} ν(dy) < ∞ .
(2)
Beachte
•
Eine graphische Darstellung des Integranden in der Integierbarkeitsbedingung (2) von
LévyMaÿen ist in Abb. 14 gegeben.
•
ein
σ endliches Maÿ ist und dass
∀ε > 0,
(3)
Man kann sich leicht überlegen, dass jedes LévyMaÿ
ν((−ε, ε)c ) < ∞
wobei
ν
(−ε, ε)c = R \ (−ε, ε).
•
Insbesondere ist jedes endliche Maÿ
•
Eine zu (2) äquivalente Bedingung ist
∫
R
ν
über
(R, B(R))
ein LévyMaÿ, falls
ν({0}) = 0.
y2
ν(dy) < ∞ ,
1 + y2
(4)
denn es gilt
y2
y2
2
≤
min{y
,
1}
≤
2
1 + y2
1 + y2
∀y ∈ R.
Der folgende Ansatz zur Konstruktion charakteristischer Funktionen von unbegrenzt teilbaren Verteilungen wird in der Literatur die LévyChintschinFormel genannt.
Theorem 3.2
a ∈ R und b ≥ 0 beliebige Konstanten, und sei ν ein beliebiges
φ : R → C mit
∫
(
)
( isy
)
bs2
+
φ(s) = exp ias −
e − 1 − isy1I(−1,1) (y) ν(dy)
∀s ∈ R
2
R
Seien
LévyMaÿ.
Dann ist durch die Funktion
die charakteristische Funktion einer unbegrenzt teilbaren Zufallsvariablen gegeben.
(5)
3 LÉVYPROZESSE UND MARTINGALE
79
1,4
1,2
1
0,8
0,6
0,4
0,2
0
-3
-2
-1
0
1
2
3
x
Abbildung 14: Integrand in der Integierbarkeitsbedingung (2) von LévyMaÿen
Beweis
•
Weil es für jedes
s∈R
eine Konstante
c<∞
gibt, so dass
|eisy − 1 − isy| ≤ cy 2
∀ y ∈ (−1, 1) ,
folgt aus (2) und (3), dass die in (5) gegebene Funktion
•
Sei nun
{cn }
φn : R → C
∫
( (
exp is a −
Dann ist die Funktion
φn (s)
eine beliebige Zahlenfolge mit
φ:R→C
cn > cn+1 > 0
und
wohldeniert ist.
limn→∞ cn = 0.
mit
∫
)
)
( isy
)
bs2
y ν(dy) −
+
e − 1 ν(dy)
2
[−cn ,cn ]c ∩(−1,1)
[−cn ,cn ]c
∫
( (
(∫
)
2)
)
( isy
)
bs
= exp is a −
y ν(dy) −
exp
e − 1 ν(dy)
(7)
2
[−cn ,cn ]c ∩(−1,1)
[−cn ,cn ]c
=
die charakteristische Funktion der Summe
(n)
(n)
fallsvariablen Z1
und Z2 ,
(n)
Z1
(n)
+ Z2
von zwei unabhängigen Zu-
denn der erste Faktor in (7) ist die charakteristische Funktion der Normalverteilung
mit Erwartungswert
(6)
a−
∫
[−cn ,cn ]c ∩(−1,1)
y ν(dy)
und Varianz
b,
während der zweite Faktor in (7) die charakteristische Funktion der zusammengec
setzten PoissonVerteilung mit den Charakteristiken λ = ν([−cn , cn ] ) und PU =
c
c
ν(· ∩ [−cn , cn ] )/ν([−cn , cn ] ) ist; vgl. die Teilaussage (b) von Theorem 2.10.
3 LÉVYPROZESSE UND MARTINGALE
•
80
Auÿerdem gilt
∀s ∈ R,
lim φn (s) = φ(s)
n→∞
wobei man sich leicht überlegen kann, dass die in (5) gegebene Funktion
stetig im Punkt
s=0
φ : R → C
ist.
ψ : R → C im Exponent von (5) mit
∫
( isy
)
ψ(s) =
e − 1 − isy1I(−1,1) (y) ν(dy)
∀s ∈ R
Denn für die Funktion
R
gilt wegen (6), dass
∫
∫
|ψ(s)| ≤ cs2
(−1,1)
(−1,1)c
Hieraus und aus (3) folgt nun mit Hilfe des Satzes von Lebesgue über die majorisierte
Konvergenz, dass
•
isy
e − 1 ν(dy).
y 2 ν(dy) +
lims→0 ψ(s) = 0.
Aus Lemma 3.2 ergibt sich somit, dass die in (5) gegebene Funktion
φ : R → C
die
charakteristische Funktion einer Zufallsvariablen ist.
•
Die unbegrenzte Teilbarkeit dieser Zufallsvariablen folgt schlieÿlich aus Lemma 3.1 und
n ≥ 1 mit ν auch ν(·)/n ein LévyMaÿ ist
∫
))n
( isy
)
+
e − 1 − isy1I(−1,1) (y) (ν/n)(dy)
aus der Tatsache, dass für jedes
(
( a
φ(s) = exp i s −
n
b
n
s2
2
und dass
R
∀ s ∈ R.
Beachte
•
Das Tripel
(a, b, ν), das in der LévyChintschinFormel (5) auftritt, wird LévyCharakteristik
der zugehörigen unbegrenzt teilbaren Verteilung genannt.
•
Die Abbildung
η:R→C
mit
bs2
η(s) = ias −
+
2
∫
R
( isy
)
e − 1 − isy1I(−1,1) (y) ν(dy)
∀s ∈ R
(8)
im Exponent von (5) heiÿt LévyExponent dieser unbegrenzt teilbaren Verteilung.
3.1.2 LévyChintschinDarstellung
In diesem Abschnitt zeigen wir, dass für jeden LévyProzess
ristische Funktion der unbegrenzt teilbaren Zufallsvariablen
{Xt } und für jedes t ≥ 0 die charakteXt durch die LévyChintschinFormel
(5) dargestellt werden kann.
Dabei zeigen wir zunächst, dass die charakteristische Funktion von
charakteristische Funktion von
Hilfssatz.
X1
Xt
auf einfache Weise durch die
ausgedrückt werden kann. Hierfür benötigen wir den folgenden
3 LÉVYPROZESSE UND MARTINGALE
Lemma 3.3
Sei
{Xt , t ≥ 0}
81
ein stochastisch stetiger Prozess, d.h. für beliebige
gelte
x>0
und t0
≥0
lim P (|Xt − Xt0 | > x) = 0 .
t→t0
Dann ist für jedes
s∈R
durch
t → φXt (s)
eine stetige Abbildung von
[0, ∞)
nach
C
gegeben.
Beweis
•
s ∈ R ist die Abbildung y → eisy
ε > 0 gibt es ein δ1 > 0, so dass
Für jedes
jedes
oenbar stetig im Punkt
|eisy − 1| <
sup
y∈(−δ1 ,δ1 )
•
Weil
{Xt }
sup
•
|φXt (s) − φXt0 (s)| =
≤
=
δ2 > 0 ,
P (|Xt − Xt0 | > δ1 ) <
Hieraus ergibt sich, dass für beliebige
s∈R
und
t≥0
mit
so dass für jedes
|t − t0 | < δ2
(−δ1 ,δ1 )c
(−δ1 ,δ1 )
≤
sup
|e
t0 ≥ 0
ε
.
4
∫
(
)
eisXt0 (ω) eis(Xt −Xt0 )(ω) − 1 P (dω)
Ω
∫
isy
e − 1 PXt −Xt (dy)
0
∫R
∫
isy
e − 1 PX −X (dy) +
t
t0
isy
d.h., für
ε
.
2
stochastisch stetig ist, gibt es auÿerdem ein
t≥0, |t−t0 |<δ2
y = 0,
isy
e − 1 PX −X (dy)
t
t0
− 1| + 2 P (|Xt − Xt0 | > δ1 )
y∈(−δ1 ,δ1 )
≤
•
Damit ist die Behauptung bewiesen.
Theorem 3.3
Funktion
ε.
φXt
Sei
von
Xt
{Xt , t ≥ 0}
ein LévyProzess. Dann ist für jedes
φXt (s) = et η(s)
η:R→C
s ∈ R, t ≥ 0.
wobei
t≥0
die charakteristische
gegeben durch
∀s ∈ R,
eine stetige Funktion ist. Insbesondere gilt somit
(9)
φXt (s) = (φX1 (s))t
für beliebige
Beweis
•
{Xt } unabhängige und stationäre Zuwächse hat, gilt für beliebige s ∈ R und t, t′ ≥ 0
(
)
φXt+t′ (s) = E eisXt+t′ = E eisXt eis(Xt+t′ −Xt ) = E eisXt E eisXt′ = φXt (s)φXt′ (s) .
Weil
3 LÉVYPROZESSE UND MARTINGALE
•
Für jedes
s∈R
82
gilt also für die Funktion
gs : [0, ∞) → C
gs (t + t′ ) = gs (t)gs (t′ )
•
Weil
X0 = 0,
gilt auÿerdem für jedes
mit
gs (t) = φXt (s),
dass
∀ t, t′ ≥ 0 .
(10)
s∈R
gs (0) = 1 ,
und in Lemma 3.3 hatten wir gezeigt, dass die Funktion
(11)
gs : [0, ∞) → C
für jedes
s∈R
stetig ist.
•
gs :
Man kann sich leicht überlegen, dass es für jede Familie von stetigen Funktionen
[0, ∞) → C,
die den Bedingungen (10) und (11) genügen, eine Funktion
η:R→C
gibt,
so dass
gs (t) = et η(s)
•
∀ s ∈ R, t ≥ 0 .
(12)
t = 1 zu setzen, um zu erkennen, dass φX1 (s) = eη(s)
somit η : R → C eine stetige Funktion ist.
Es genügt nun,
und dass
Wir zeigen nun, dass für jeden LévyProzess
{Xt }
für jedes
die charakteristische Funktion von
X1
s∈R
gilt
durch die
LévyChintschinFormel (5) dargestellt werden kann. Hierfür benötigen wir den folgenden Hilfssatz
zur Charakterisierung der relativen Kompaktheit von Familien (gleichmäÿig beschränkter) endlicher
Maÿe.
Lemma 3.4
Sei
µ1 , µ2 , . . . eine Folge von endlichen
supn≥1 µn (R) < c für ein c < ∞
deniert sind. Falls
Menge
Bε ∈ B(R)
gibt, so dass
Maÿen, die über der Borelσ Algebra
und falls es für jedes
ε>0
B(R)
eine kompakte
sup µn (Bεc ) ≤ ε ,
(13)
n≥1
dann gibt es eine Teilfolge
und beschränkte Funktion
µn1 , µn2 , . . . und ein endliches Maÿ µ über B(R),
f :R→C
∫
∫
lim
f (y) µnk (dy) =
f (y) µ(dy) .
k→∞
R
so dass für jede stetige
(14)
R
Der Beweis von Lemma 3.4 geht über den Rahmen dieser Vorlesung hinaus und wird deshalb
weggelassen; er kann beispielsweise im Buch von A.V. Skorokhod (2005), S. 122123 nachgelesen
werden.
Theorem 3.4
LévyMaÿ
ν,
Sei
{Xt , t ≥ 0}
ein LévyProzess. Dann gibt es Konstanten
a ∈ R, b ≥ 0
und ein
so dass
∫
(
)
( isy
)
bs2
φX1 (s) = exp ias −
+
e − 1 − isy1I(−1,1) (y) ν(dy)
2
R
∀s ∈ R.
(15)
3 LÉVYPROZESSE UND MARTINGALE
83
Beweis
•
Aus Theorem 3.3 ergibt sich, dass für jede Nullfolge
positiver Zahlen
φXtn (s) − 1
etn η(s) − 1
= lim
.
n→∞
tn
tn
η(s) = lim
n→∞
•
t 1 , t2 , . . .
(16)
η : R → C eine stetige Funktion ist, ergibt sich durch TaylorReihenentwicklung
et η(s) nach t, dass für jedes s0 < ∞ die Konvergenz in (16) gleichmäÿig in
s ∈ [−s0 , s0 ] erfolgt.
Weil
der Funktion
•
tn = 1/n
Wir setzen nun
∫
lim n
n→∞
R
mit
Pn .
Mit dieser
( isy
)
e − 1 Pn (dy) = η(s)
(17)
s ∈ [−s0 , s0 ].
gleichmäÿig in
X1/n
und bezeichnen die Verteilung von
Schreibweise gilt
Wenn auf beiden Seiten dieser Gleichung über
s ∈ [−s0 , s0 ]
integriert wird,
dann ergibt sich aus dem Satz von Lebesgue über die majorisierte Konvergenz (und
nach Vertauschung der Integrationsreihenfolge auf der linken Seite), dass für jedes
s0 < ∞
∫ (
lim n
n→∞
•
Weil
η:R→C
R
eine stetige Funktion ist mit
so dass
•
1
2s0
Weil auÿerdem
sin(s0 y) )
1
Pn (dy) = −
s0 y
2s0
1−
dass es für jedes
ε>0
ein
s0 > 0
bzw. dass es für jedes
ε>0
∫
ein
auch für jedes
•
s0 > 0 weiter
n ∈ {1, . . . , n0 } gilt.
η(s) ds .
(18)
−s0
gibt es für jedes
ε>0
ein
s0 > 0,
η(s) ds < ε .
für
|s0 y| ≥ 2,
ergibt sich somit aus (18),
gibt, so dass
∫
{y: |y|≥2/s0 }
s0 > 0
{y: |y|≥2/s0 }
Wir verkleinern nun
η(0) = 0,
s0
−s0
n
•
s0
1 − sin(s0 y)/(s0 y) ≥ 1/2
n
lim sup
2
n→∞
∫
∫
und ein
Pn (dy) ≤ ε ,
n0 > 0
Pn (dy) ≤ 4 ε
gibt, so dass
∀ n ≥ n0 .
(19)
(falls erforderlich), so dass die Ungleichung in (19)
Insgesamt haben wir somit gezeigt, dass es für jedes
ε>0
ein
s0 > 0
gibt, so dass
∫
sup n
n≥1
{y: |y|≥2/s0 }
Pn (dy) ≤ 4 ε .
(20)
3 LÉVYPROZESSE UND MARTINGALE
•
Weil es ein
c<∞
84
gibt, so dass
(
y2
sin y )
≤c 1−
2
1+y
y
ergibt sich aus (18), dass es eine Konstante
∫
•
Für jedes
n≥1
R
sei das (endliche) Maÿ
∫
B
Wegen (21) sind die Maÿe
gibt, so dass
µn : B(R) → [0, ∞)
y2
Pn (dy)
1 + y2
µn (B) = n
c′ < ∞
y2
Pn (dy) ≤ c′ .
1 + y2
sup n
n≥1
∀ y ̸= 0 ,
{µn , n ≥ 1}
gegeben durch
∀ B ∈ B(R) .
gleichmäÿig beschränkt, und wegen
y2
≤1
1 + y2
ergibt sich aus (20), dass die Folge
(21)
∀y ∈ R
{µn , n ≥ 1}
relativ kompakt ist, d.h. der Bedin-
gung (13) genügt.
Aus Lemma 3.4 folgt also, dass es eine Teilfolge
µ
über
B(R)
∫
k→∞
Weil für jedes
und ein endliches Maÿ
∫
lim
•
µn1 , µn2 , . . .
gibt, so dass für jede stetige und beschränkte Funktion
s∈R
R
die Funktion
f (y) µnk (dy) =
fs : R → C
f :R→C
f (y) µ(dy) .
(22)
R
mit

(
) 1 + y2

 eisy − 1 − is sin y
y2
fs (y) =
2

s
 −
2
für
y ̸= 0,
für
y=0
stetig und beschränkt ist, ergibt sich aus (17) und (22), dass
∫
∫
(∫
)
)
η(s) = lim n
e − 1 Pn (dy) = lim
fs (y) µn (dy) + isn sin yPn (dy)
n→∞
n→∞
R
R
R
∫
(∫
)
= lim
fs (y) µnk (dy) + isnk
sin yPnk (dy)
k→∞
R
∫
∫ R
=
fs (y) µ(dy) + is lim nk
sin yPnk (dy) ,
(
isy
k→∞
R
R
wobei sich die Existenz und Endlichkeit des letzten Grenzwertes aus der Tatsache ergibt,
das alle übrigen Grenzwerte in dieser Gleichungskette existieren und endlich sind.
•
Hieraus folgt, dass
bs2
η(s) = ia s −
+
2
′
∫
(
R
)
eisy − 1 − is sin y ν(dy)
∀s ∈ R,
(23)
3 LÉVYPROZESSE UND MARTINGALE
wobei
a′ = lim nk
∫
k→∞
und das LévyMaÿ
•
85
R
sin yPnk (dy) ,
ν : B(R) → [0, ∞] gegeben ist durch

2

 1 + y µ(dy) für y =
̸ 0,
2
y
ν(dy) =

 0
für y = 0.
∫
Auÿerdem gilt
R
weil es eine Konstante
|y1I(−1,1) (y) − sin y| ν(dy) < ∞ ,
c′′ < ∞
gibt, so dass
|y1I(−1,1) (y) − sin y|
•
b = µ({0})
1 + y2
< c′′
y2
∀ y ̸= 0 .
Aus (23) ergibt sich somit, dass
η(s) = ias −
a = a′ +
wobei
Korollar 3.1
∫ (
R
bs2
+
2
∫
R
(
)
eisy − 1 − isy1I(−1,1) (y) ν(dy)
∀s ∈ R,
)
y1I(−1,1) (y) − sin y ν(dy).
{Xt , t ≥ 0} ein LévyProzess. Dann sind sämtliche endlichdimensionalen
{Xt } eindeutig durch die LévyCharakteristik (a, b, ν) von X1 bestimmt.
Sei
Verteilungen von
Beweis
•
Aus den Theoremen 3.3 und 3.4 ergibt sich zusammen mit dem Eindeutigkeitssatz für
charakteristische Funktionen (vgl. Korollar WR-5.5), dass die Verteilung von
t≥0
•
eindeutig durch die LévyCharakteristik
(a, b, ν)
von
X1
Xt
für jedes
bestimmt ist.
{Xt } unabhängige und stationäre Zuwächse hat, sind damit auch sämtliche endlich
{Xt } eindeutig durch die LévyCharakteristik von X1
bestimmt.
Weil
dimensionalen Verteilungen von
3.1.3 Beispiele: WienerProzess, zusammengesetzte PoissonProzesse, stabile Lévy
Prozesse
Bereits am Anfang von Abschnitt 3.1 hatten wir gezeigt, dass sowohl der WienerProzess als auch
beliebige zusammengesetzte PoissonProzesse den drei Bedingungen in der Denition von Lévy
Prozessen genügen.
Wir bestimmen nun die LévyCharakteristik
Prozessen.
(a, b, ν)
für diese und weitere Beispiele von Lévy
3 LÉVYPROZESSE UND MARTINGALE
1.
WienerProzess (mit Drift)
•
Sei
•
Dann gilt also
•
{Xt , t ≥ 0}
•
ein (Standard) WienerProzess, d.h., insbesondere, dass
φX1 (s) = e−s
2
X1 ∼ N(0, 1).
∀s ∈ R.
/2
Hieraus und aus der LévyChintschinFormel (5) ergibt sich nun, dass die LévyCharakteristik
(a, b, ν)
Beachte: Für beliebige
{Xt }
des WienerProzesse
Yt = c Xt + µ t
2.
86
µ∈R
und
gegeben ist durch
c ̸= 0
a = 0, b = 1
und
ν = 0.
wird der stochastische Prozess
{Yt , t ≥ 0}
mit
ein WienerProzess mit Drift genannt.
{Yt } ebenfalls ein LévyProzess ist und
(a, b, ν) gegeben ist durch a = µ, b = c2 und ν = 0.
Man kann sich leicht überlegen, dass
und dass seine Charakteristik
zusammengesetzte PoissonProzesse
•
Sei
{Xt , t ≥ 0} ein zusammengesetzter PoissonProzess mit den Charakteristiken (λ, PU ),
λ > 0 die Intensität der Sprungzeitpunkte und PU die Verteilung der Sprunghöhen
wobei
bezeichnet.
•
Dann gilt
( ∫ (
)
)
φX1 (s) = exp λ
eisy − 1 PU (dy)
R
∀s ∈ R,
vgl. die Teilaussage (b) von Theorem 2.10.
•
Hieraus und aus (5) ergibt sich, dass die LévyCharakteristik
∫
ist durch
−1
y PU (dy) ,
b = 0,
{Xt }
Beachte: Für das in (24) betrachtete LévyMaÿ
ν
ν = λ PU .
ist
Sprüngen je Zeiteinheit mit Sprunghöhen in der Menge
3.
von
gegeben
1
a=λ
•
(a, b, ν)
(24)
ν(B) die erwartete
B ∈ B(R).
Anzahl von
LévyProzesse vom GauÿPoissonTyp
•
•
•
(1)
{Xt , t ≥ 0} ein zusammengesetzter PoissonProzess (mit den
(2)
(λ, PU )), und sei {Xt , t ≥ 0} ein WienerProzess mit Drift (mit den
(µ, c)).
Sei
Auÿerdem seien die stochastischen Prozesse
(1)
{Xt }
und
(2)
{Xt }
Charakteristiken
Charakteristiken
unabhängig.
Dann kann man sich leicht überlegen, dass der überlagerte Prozess {Xt , t ≥ 0} mit
(1)
(2)
+ Xt ein LévyProzess ist, dessen Charakteristik (a, b, ν) gegeben ist durch
Xt = Xt
∫
1
a=µ+λ
−1
4.
y PU (dy) ,
b = c2 ,
ν = λ PU .
stabile LévyProzesse
•
Eine wichtige Eigenschaft der Normalverteilung ist ihre Faltungsstabilität (vgl. Korollar WR-3.2), die sich wie folgt charakterisieren lässt:
3 LÉVYPROZESSE UND MARTINGALE
Sei
X ∼ N(µ, σ 2 )
Zufallsvariablen mit
87
µ ∈ R und σ 2 > 0, und X1 , . . . , Xn
Xk ∼ N(µ, σ 2 ) für jedes k = 1, . . . , n.
mit
Dann gilt
d
X1 + . . . + Xn =
•
(
√
√ )
nX + µ n − n
∀n ≥ 1.
(25)
Die Faltungsgleichung (25) lässt sich auf die folgende Weise verallgemeinern.
Die unbegrenzt teilbare Zufallsvariable
es für jedes
so dass
n≥1
d
Xk = X
X
für jedes
k = 1, . . . , n
und
d
wobei
PX heiÿt stabil, falls
X1 , . . . , Xn gibt,
bzw. ihre Verteilung
eine Folge von unabhängigen Zufallsvariablen
∀n ≥ 1,
X1 + . . . + Xn = n1/α X + dn
•
seien unabhängige
α ∈ (0, 2] und dn ∈ R für jedes n ≥ 1 gewisse
α ∈ (0, 2] der Stabilitätsindex von X .
(26)
Konstanten sind.
Dabei heiÿt
Man kann zeigen, dass für jedes
α ∈ (0, 2]
eine Lösung der (verallgemeinerten) Faltungs-
gleichung (26) existiert, vgl. Samorodnitsky und Taqqu (1994) bzw. K.-I. Sato (1999).
Dabei gilt für ein
•
µ∈R

 µ(n − n1/α ) ,
dn =
 µ n log n ,
Neben dem klassischen Fall
α = 2,
falls
α ̸= 1,
falls
α = 1.
der zur Normalverteilung führt, gibt es weitere wohl-
bekannte Beispiele stabiler Verteilungen, für die man zeigen kann, dass sie der Gleichung
(26) genügen. Und zwar
α = 1: die CauchyVerteilung
f : R → [0, ∞) gegeben ist durch
für
f (x) =
•
•
mit den Parametern
σ
1
π (x − µ)2 + σ 2
µ ∈ R, σ 2 > 0,
deren Dichte
∀x ∈ R,
α = 1/2: die LévyVerteilung mit den Parametern µ ∈ R, σ 2 > 0, deren
f : R → [0, ∞) gegeben ist durch
 ( )
)
(
1/2
1
σ

 σ
, falls x > µ,
exp −
3/2
2π
2(x − µ)
(x − µ)
f (x) =

 0,
sonst.
für
Dichte
Es ist klar, dass die Faltungsgleichung (26) genau dann gilt, wenn
(
Wenn
d
X = −X
dann gilt
φX (s)
)n
∀ s ∈ R, n ≥ 1 .
= eidn s φX (n1/α s)
(wie beispielsweise bei der CauchyVerteilung mit
dn = 0
für jedes
(27)
µ = 0),
n ≥ 1,
und aus (27) folgt, dass es eine Konstante
φX (s) = e−c|s|
c>0
α
gibt, so dass
∀s ∈ R.
(28)
3 LÉVYPROZESSE UND MARTINGALE
•
X die Charakteristik
(a, b, ν) in der LévyChintschinDarstellung (5) von φX gegeben ist durch eine (beliebige)
reelle Zahl a ∈ R,

 c2 , falls α = 2,
b=
 0 , falls α < 2,
Auÿerdem kann man zeigen, dass für jede stabile Zufallsvariable

 0,
ν(dy) =
c2
c1

1I(0,∞) (y) dy + 1+α 1I(−∞,0) (y) dy ,
y 1+α
|y|
und
wobei
•
88
c ̸= 0
und
c1 , c2 ≥ 0
gewisse Konstanten sind mit
falls
α = 2,
falls
α < 2,
(29)
c1 + c2 > 0.
Die Tails von stabilen Zufallsvariablen können entweder exponentiell beschränkt sein (für
α = 2)
oder polynomial abklingen (für
Wenn
X ∼ N(µ, σ ),
2
d.h.,
X
α < 2):
hat eine stabile Verteilung mit Stabilitätsindex
α = 2,
dann gilt
P (|X| > x)
= 0,
e−x2 /(2σ2 )
lim
x→∞
d.h.,
X hat sogenannte leichte (exponentiell beschränkte) Tails.
X dagegen eine stabile Zufallsvariable mit Stabilitätsindex α < 2
Wenn
ist, dann
kann man zeigen, dass
P (|X| > x)
= cα
x−α
lim
x→∞
für ein
•
cα < ∞,
d.h.,
X
Beachte: Der LévyProzess
hat schwere (polynomial abklingende) Tails.
{Xt , t ≥ 0}
heiÿt stabiler LévyProzess, falls
X1
eine stabile
Verteilung hat.
3.1.4 Subordinatoren
Eine weitere Klasse von LévyProzessen, die insbesondere die zusammengesetzten PoissonProzesse
mit positiven Sprunghöhen als Spezialfall umfassen, sind die sogenannten Subordinatoren.
Denition
Ein LévyProzess
{Xt , t ≥ 0}
heiÿt Subordinator, wenn mit Wahrscheinlichkeit
Xt1 ≤ Xt2
wobei sich aus (30) wegen
X0 = 0
∀ t1 , t2 ≥ 0
sofort ergibt, dass
mit
Xt ≥ 0
t1 ≤ t2 ,
für jedes
1
(30)
t ≥ 0.
Bevor wir einige konkrete Beispiele von Subordinatoren näher diskutieren, zeigen wir zunächst, wie
sich die LévyChintschinDarstellung (15) von
ist.
φX1
spezizieren lässt, wenn
{Xt } ein Subordinator
3 LÉVYPROZESSE UND MARTINGALE
Theorem 3.5
89
{Xt , t ≥ 0} ist genau dann ein Subordinator, wenn sich der
darstellen lässt in der Form
Der LévyProzess
η(s)
LévyExponent
von
X1
∫
∞(
η(s) = ias +
)
eisy − 1 ν(dy)
∀s ∈ R,
(31)
0
wobei
a≥0
und für das LévyMaÿ
ν
zusätzlich gilt, dass
∫
ν((−∞, 0)) = 0
∞
und
min{y, 1} ν(dy) < ∞ .
(32)
0
Beweis
Wir zeigen zuerst die Hinlänglichkeit der Bedingungen (31) und (32).
•
Falls
•
ν = 0,
dann gilt
X1 = a ≥ 0,
und aus Theorem 3.3 ergibt sich,
φXt (s) = eiats und somit Xt = at
d.h., {Xt } ist ein Subordinator.
dass
für jedes
t≥0
gilt,
ν(1/n, ∞) > 0 für jedes hinreichend groÿe n ≥ n0 . Aus (31) und (32) ergibt sich
s∈R
(∫ ∞ (
)
(∫ ∞ (
)
)
)
ias
isy
ias
φX1 (s) = e
exp
e − 1 ν(dy) = e
lim exp
eisy − 1 ν(dy) .
Sei nun
dann, dass für jedes
n→∞
0
•
Für jedes
n ≥ n0
φn : R → C mit
(∫ ∞ (
)
)
φn (s) = exp
eisy − 1 ν(dy)
1/n
ist dabei
∀s ∈ R
1/n
die charakteristische Funktion einer nichtnegativen Zufallsvariablen
Zn ,
die eine zusammengesetzte PoissonVerteilung mit den Charakteristiken
und zwar mit der PoissonIntensität
und mit der Sprunghöhen-Verteilung
(λ, PU ) hat
λ = ν(1/n, ∞), wobei 0 < λ < ∞,
PU (·) = ν(· ∩ (1/n, ∞))/ν(1/n, ∞),
vgl. Ab-
schnitt 2.2.2.
•
Es gilt also
d
X1 = a + lim Zn ,
(33)
n→∞
wobei
a≥0
und
{Zn }
eine Folge von nichtnegativen Zufallsvariablen ist.
Aus (33) folgt insbesondere, dass
P (X1 ≥ 0) = 1 .
Auÿerdem gilt für jedes
(34)
n≥1
(
)
(
)
d
X1 = X1/n + X2/n − X1/n + . . . + Xn/n − X(n−1)/n ,
wobei die Zufallsvariablen
identisch verteilt sind.
X1/n , X2/n −X1/n , . . . , Xn/n −X(n−1)/n
unabhängig und
3 LÉVYPROZESSE UND MARTINGALE
90
Hieraus und aus (34) folgt, dass mit Wahrscheinlichkeit
Xk/n − X(k−1)/n ≥ 0
1
∀ n ≥ 1, k = 1, . . . , n .
Aus der Stationarität der Zuwächse des LévyProzesses
Xk/n − X(k−1)/n ≥ 0
{Xt }
ergibt sich nun, dass
∀ k, n ≥ 1
bzw.
Xq2 − Xq1 ≥ 0
•
∀ q 1 , q2 ∈ Q
0 ≤ q1 ≤ q2 .
(35)
ε>0
)
)
(
(
< −ε) = P Xt2 − Xq(2) + Xq(2) − Xq(1) + Xq(1) − Xt1 < −ε
n
n
n
n
(
)
≤ P Xt2 − Xq(2) + Xq(1) − Xt1 < −ε −→n→∞ 0 ,
Dann ergibt sich aus (35), dass für jedes
P (Xt2 − Xt1
n
n
wobei sich der letzte Grenzwert aus der Tatsache ergibt, dass wegen der stochastischen Stetigkeit von
{Xt }
P
Xt2 − Xq(2) −→ 0
n
•
mit
(1)
(2)
Für t1 , t2 ≥ 0 mit t1 < t2 seien {qn } und {qn } zwei Folgen rationaler Zahlen, so dass
(1)
(2)
(1)
(2)
qn < qn für jedes n ≥ 1 und qn ↓ t1 bzw. qn ↑ t2 .
Damit ist gezeigt, dass
P (Xt2 − Xt1 ≥ 0) = 1,
und
P
Xq(1) − Xt1 −→ 0 .
n
P (Xt2 − Xt1 < 0) = limε↓0 P (Xt2 − Xt1 < −ε) = 0
{Xt } ist ein Subordinator.
bzw.
d.h.,
Die Notwendigkeit der Bedingungen (31) und (32) kann man sich wie folgt überlegen.
•
Der LévyProzess
{Xt , t ≥ 0}
X1 ≥ 0.
Dann ergibt sich unmittelbar aus dem Beweis von Theorem 3.4, dass die Lévy
Charakteristik
sei ein Subordinator, d.h. insbesondere, dass
(a, b, ν)
von
X1
so gewählt werden kann, dass
ν((−∞, 0)) = 0.
φX1 von X1 ,
Gemäÿ Theorem 3.4 gilt somit für die charakteristische Funktion
für jedes
s∈R
dass
∫ ∞
(
)
( isy
)
bs2
exp ias −
+
e − 1 − isy1I(0,1) (y) ν(dy)
2
0
(
(∫ ∞ (
)
)
bs2 )
= exp ias −
exp
eisy − 1 − isy1I(0,1) (y) ν(dy) .
2
0
φX1 (s) =
Hieraus ergibt sich mit Hilfe von Theorem 3.2 und dem Eindeutigkeitssatz für chad
rakteristische Funktionen (vgl. Korollar WR-5.5), dass X1 = Y1 + Y2 , wobei Y1 , Y2
zwei unabhängige und unbegrenzt teilbare Zufallsvariablen sind mit
sind.
Weil andererseits
X1 ≥ 0
gilt, ist dies nur möglich, wenn
b = 0.
Y1 ∼ N(a, b)
3 LÉVYPROZESSE UND MARTINGALE
•
91
Wir haben somit gezeigt, dass für beliebige
φX1 (s) = eias
(∫
exp
∞
=
=
∫
( (
exp is a −
und
ε ∈ (0, 1)
)
( isy
)
e − 1 − isy1I(0,1) (y) ν(dy)
0
∫
( (
exp is a −
s∈R
1
y ν(dy)
ε
1
y ν(dy)
(∫
exp
))
))
ε
(
e
isy
)
(∫
− 1 − isy ν(dy) exp
∞
)
0
(
)
)
eisy − 1 ν(dy)
ε
φ1 (s) φ2 (s) ,
ε
wobei
(∫
ε
φ1 (s) = exp
(
)
)
eisy − 1 − isy ν(dy) ,
(∫
0
•
Dabei sind
φ1
und
∞
φ2 (s) = exp
(
)
)
eisy − 1 ν(dy) .
ε
φ2
die charakteristischen Funktionen von gewissen (unabhängigen)
Z2 bezeichnen, wobei
∫ 1
d
y ν(dy) + Z1 + Z2 .
X1 = a −
Zufallsvariablen, die wir mit
Z1
bzw.
(36)
ε
zweimal an der Stelle s = 0 dif(1)
Z1 , wobei E Z1 = φ1 (0)/i; vgl.
beispielsweise S. 183 im Buch von Grimmett und Stirzaker (2001).
Weil die charakteristische Funktion
φ1 (s)
von
Z1
ferenzierbar ist, existiert der Erwartungswert von
Auÿerdem kann man sich leicht überlegen, dass
P (Z1 ≤ 0) > 0.
auch P (Z2 ≤ 0) > 0,
(1)
φ1 (0) = 0
und somit
E Z1 = 0,
d.h. insbesondere
Andererseits gilt
weil
Z2
für jedes
ε ∈ (0, 1)
eine zusammenge-
setzte PoissonVerteilung hat.
Wegen der (angenommenen) Unabhängigkeit der Zufallsvariablen
Z1
und
Z2
folgt
hieraus, dass
P (Z1 + Z2 ≤ 0) ≥ P (Z1 ≤ 0) P (Z2 ≤ 0) > 0 .
•
X1 ≥ 0
Wegen (36) und (37) kann also
∫
nur dann mit Wahrscheinlichkeit
(37)
1
gelten, wenn
1
a−
y ν(dy) ≥ 0
∀ ε ∈ (0, 1) .
ε
•
Hieraus folgt, dass
a≥0
und
∫∞
0
min{y, 1} ν(dy) < ∞.
Beachte
•
Das Paar
•
Es ist klar, dass die in (32) betrachtete (verschärfte) Integrierbarkeitseigenschaft des
(a, ν)
LévyMaÿes
ν
in (31) wird LévyCharakteristik des Subordinators
{Xt }
genannt.
äquivalent ist mit der Bedingung, dass
∫
∞
0
y
ν(dy) < ∞ .
1+y
(38)
3 LÉVYPROZESSE UND MARTINGALE
•
92
Auÿerdem kann man sich leicht überlegen,
dass für jedes
0}
t ≥ 0 die Abbildung s → E eisXt
analytisch in die Teilmenge
{iu : u ≥
der komplexen Ebene fortgesetzt werden kann und
dass sich dabei die folgende Formel für die LaplaceTransformierte
ergibt: Für beliebige
t, u ≥ 0
gilt
E e−uXt = e−t ξ(u) ,
∫
von
∞(
)
1 − e−uy ν(dy) .
ξ(u) = au +
wobei
E e−uXt
Xt
(39)
0
•
Die Funktion
ξ : [0, ∞) → [0, ∞)
in (39) wird LaplaceExponent des Subordinators
{Xt }
genannt.
Auÿer den zusammengesetzten PoissonProzessen mit positiven Sprunghöhen, die wir bereits am
Anfang dieses Abschnittes erwähnt haben und deren LévyMaÿ
ν
endlich ist, gibt es noch weitere
Klassen von Subordinatoren (mit unendlichem LévyMaÿ).
Beispiel (αstabile Subordinatoren)
•
Sei
{Xt , t ≥ 0}
ein Subordinator mit



ν(dy) =
wobei
α ∈ (0, 1)
und
a = 0,
dessen LévyMaÿ
α
1
dy
Γ(1 − α) y 1+α

 0
ν
für
y > 0,
für
y ≤ 0,
gegeben ist durch
(40)
Γ : (0, ∞) → (0, ∞) die Gammafunktion bezeichnet
∫ ∞
Γ(p) =
e−y y p−1 dy ,
∀p > 0.
mit
0
•
•
Beachte: Das in (40) gegebene LévyMaÿ
ν
hat die Form (29).
Auÿerdem kann man in diesem Fall leicht zeigen, dass (28) gilt bzw. (äquivalent hierzu)
dass
E e−uXt = e−tu
α
∀ t, u ≥ 0 .
Denn für beliebige
Dies ergibt sich aus den folgenden Überlegungen: Es gilt
∫
∞
u≥0
α ∈ (0, 1) gilt die Identität
∫ ∞
α
dy
uα =
(1 − e−uy ) 1+α .
Γ(1 − α) 0
y
und
(1 − e−uy ) y −1−α dy
∫
=
∞ (∫ y
)
ue−uz dz y −1−α dy
∫0 ∞ (∫0 ∞
0
=
=
=
)
y −1−α dy ue−uz dz
0
∫ ∞z
∫ ∞
u
uα
−uz −α
e
z dz =
e−x x−α dx
α 0
α 0
uα
Γ(1 − α) .
α
(41)
3 LÉVYPROZESSE UND MARTINGALE
93
Aus (39) und (40) ergibt sich nun, dass die LaplaceTransformierte
E e−uXt
von
Xt
durch (41) gegeben ist.
Xt hat also für jedes t ≥ 0 eine stabile Verteilung mit dem
α ∈ (0, 1), d.h., der Subordinator {Xt } mit dem in (40) gegebenen
LévyMaÿ ν ist ein αstabiler LévyProzess.
Die Zufallsvariable
Stabilitätsindex
(unendlichen)
3.2 Martingale
In diesem Abschnitt diskutieren wir einige grundlegende Begrie und Ergebnisse der Martingaltheorie, die wir dann in Abschnitt 3.3 bei der weiteren Untersuchung von LévyProzessen anwenden
werden.
3.2.1 Bedingte Erwartung und bedingte Wahrscheinlichkeit
Als Hilfsmittel benötigen wir die Begrie der bedingten Erwartung bzw. der bedingten Wahrscheinlichkeit bezüglich einer beliebigen Teilσ Algebra
liegenden Wahrscheinlichkeitsraumes
•
(Ω, F, P ).
G⊂F
der Ereignisσ Algebra
F
des zugrunde-
Zur Illustration betrachten wir zunächst den folgenden (elementaren) Spezialfall.
σ Algebra G = σ(A1 , . . . , An ) sei eine endliche Familie
∪n von Teilmengen von Ω, die
A1 , . . . , An ∈ F generiert wird, wobei i=1 Ai = Ω und Ai ∩ Aj = ∅
für beliebige i, j ∈ {1, . . . , n} mit i ̸= j gelte.
Auÿerdem sei X : Ω → R eine beliebige Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P ) mit E |X| < ∞.
Die
durch die Mengen
•
Dann ist bedingte Erwartung
Ω → R,
E (X | G)
von
X
bezüglich
G
eine Zufallsvariable
E (X | G) :
deren (Funktions) Werte gegeben sind durch
E (X | G)(ω) =
n
∑
E (X | Ai ) 1I(Ai )(ω)
∀ ω ∈ Ω,
(1)
i=1
E (X | Ai ) gegeben ist durch


 E (X1I(Ai )) , falls P (Ai ) > 0,
P (Ai )
E (X | Ai ) =

 0,
sonst.
wobei der bedingte Erwartungswert
(2)
Beachte
•
P (Ai ) > 0, dann ist die in (2) gegebene Zahl E (X|Ai ) der bedingte ErwartungsX unter der Bedingung Ai , d.h., der Erwartungswert bezüglich der bedingten
Verteilung {PX|Ai (B), B ∈ B(R)}, wobei
Falls
wert von
PX|Ai (B) =
P ({Xi ∈ B} ∩ Ai )
P (Ai )
∀ B ∈ B(R) .
3 LÉVYPROZESSE UND MARTINGALE
•
94
Von besonderer Wichtigkeit ist der Fall, dass die
(diskreten) Zufallsvariablen
Y
σ Algebra G
durch die Urbilder einer
erzeugt wird, die nur endlich viele verschiedene Werte mit
positiver Wahrscheinlichkeit annimmt:
Sei
Y : Ω → {0, 1, . . . , n}
eine Zufallsvariable, die nur die Werte
0, 1, . . . , n
mit
positiver Wahrscheinlichkeit annimmt, beispielsweise eine binomialverteilte Zufallsvariable, und
G die σ Algebra σ(Y ) = Y −1 (B(R)), d.h., die kleinste (endliche) Teilσ Algebra
−1
von F , die die Urbilder Y
(0), Y −1 (1), . . . , Y −1 (n) enthält,
dann wird die bedingte Erwartung E (X | G) auch mit dem Symbol E (X | Y )
bezeichnet (und bedingte Erwartung von X bezüglich Y genannt).
•
sei
ω ∈ Ω, so dass Y (ω) = i. Dann ist der Funktionswert E (X|Y )(ω) der Zufallsvariablen
E (X|Y ) gegeben durch den bedingten Erwartungswert
Sei
E (X | Y )(ω) = E (X | Y = i) ,
wobei
•
E (X | Y = i)
eine Kurzschreibweise ist für
E (X | {Y = i}).
Die bisher erläuterte Vorgehensweise bei der Denition der bedingten Erwartung
bezüglich einer (Teil)
wenn
G
σ Algebra G ⊂ F
aus abzählbar unendlich vielen Teilmengen von
d.h., wenn
G
E (X|G)
kann auch dann beibehalten werden,
Ω
besteht,
beispielsweise durch die Urbilder einer Poissonverteilten Zufallsvaria-
blen erzeugt wird,
wobei dann lediglich die endliche Summe in (1) durch eine unendliche Summe ersetzt
werden muss.
•
Die folgenden Eigenschaften der bedingten Erwartung
E (X|Y ) ergeben sich unmittelbar
aus der Denitionsgleichungen (1) und (2):
E (X|Y ) : Ω → R ist (G, B(R))messbar.
A ∈ G gilt
∫
∫
E (X|Y )(ω)P (dω) = X(ω)P (dω) .
Die Zufallsvariable
Für beliebige
A
Insbesondere gilt
(3)
A
E (E (X|Y )) = E X .
Die folgende (allgemeine) Denition der bedingten Erwartung beruht auf dem Satz von Radon
Nikodym der Maÿ und Integrationstheorie. Sie enthält die oben betrachteten Denitionsgleichungen (1) und (2) als Spezialfall.
•
Sei X : Ω → R eine beliebige Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P ) mit
E |X| < ∞,
•
und sei
G⊂F
eine beliebige Teilσ Algebra von
F.
3 LÉVYPROZESSE UND MARTINGALE
•
95
Dann können wir das (endliche) signierte Maÿ
∫
Q(A) =
Q:G→R
betrachten, wobei
∀A∈G.
X(ω)P (dω)
(4)
A
•
•
Für jedes
A∈G
gilt somit die Implikation:
falls
Mit anderen Worten: Das in (4) denierte signierte Maÿ
Einschränkung von
•
Q(A) = 0,
P
auf die Teilσ Algebra
P (A) = 0.
Q
G.
Aus dem Satz von RadonNikodym folgt nun, dass es eine
Z:Ω→R
(G, B(R))messbare
Abbildung
gibt, so dass
∫
∫
Z(ω)P (dω) =
A
Jede
X(ω)P (dω)
∀A ∈ G ,
(5)
A
wobei die Funktionswerte der Abbildung
Dention
ist absolutstetig bezüglich der
Z
mit Wahrscheinlichkeit
1 eindeutig bestimmt sind.
(G, B(R))messbare Abbildung Z : Ω → R, für die (5) gilt, heiÿt
X bezüglich G und wird mit E (X | G) bezeichnet.
eine Version der
bedingten Erwartung von
Aus der Denitionsgleichung (5) und aus den allgemeinen Rechenregeln für das LebesgueIntegral
ergeben sich die folgenden Eigenschaften der bedingten Erwartung, die wir hier lediglich (ohne
Beweis) erwähnen.
Theorem 3.6
Seien
X, Y : Ω → R
beliebige Zufallsvariablen über
E |X| < ∞ ,
und sei
G⊂F
E |Y | < ∞ ,
eine beliebige Teilσ Algebra von
F.
(Ω, F, P )
mit
E |XY | < ∞ ,
Dann gilt
1.
E (X | {∅, Ω}) = E X, E (X | F) = X ,
2.
E (aX + bY | G) = a E (X | G) + b E (Y | G)
3.
E (X | G) ≤ E (Y | G),
4.
E (XY | G) = Y E (X | G), falls Y eine (G, B(R))messbare Zufallsvariable ist,
(
)
E E (X | G2 ) | G1 = E (X | G1 ), falls G1 und G2 Teilσ Algebren von F sind mit G1 ⊂ G2 ,
5.
6.
7.
falls
für beliebige
a, b ∈ R,
X ≤Y,
E (X | G) = E X , falls die σ Algebren G und σ(X) = X −1 (B(R)) unabhängig sind, d.h., falls
P (A ∩ A′ ) = P (A)P (A′ ) für beliebige A ∈ G und A′ ∈ σ(X).
(
)
(
)
E f (X) | G ≥ f E (X | G) , falls f : R → R eine konvexe Funktion ist, so dass E |f (X)| <
∞.
3 LÉVYPROZESSE UND MARTINGALE
Beachte
96
Auÿerdem sind die folgenden Eigenschaften bzw. Schreib und Sprechweisen von Inter-
esse.
•
Unmittelbar aus der Denitionsgleichung (5) ergibt sich, dass
(
)
E E (X | G) = E X , wenn A = Ω gesetzt wird,
E (a | G) = a für beliebige a ∈ R und G ⊂ F ,
E (Y | G) = Y für jede (G, B(R))messbare Zufallsvariable Y .
•
Seien
X, Y : Ω → R
und sei
beliebige Zufallsvariablen über
G = Y −1 (B(R))
(Ω, F, P )
die Teilσ Algebra von
F,
mit
E |X| < ∞,
die durch die Urbilder von
Y
erzeugt wird.
Dann heiÿt
E (X | G) die bedingte Erwartung
E (X | Y ) benutzt wird.
von
X
bezüglich
Y,
wobei auch die
Schreibweise
•
g : R → R gibt, so dass sich die bedingte ErwarE (X | Y ) = g(Y ) darstellen lässt, dann spricht man von
Wenn es eine Borelmessbare Funktion
tung
E (X | Y )
in der Form
regulärer bedingter Erwartung.
Beispiele
1. Absolutstetige Zufallsvektoren
•
(X, Y ) : Ω → R2 ein beliebiger absolutstetiger Zufallsvektor mit der gemeinsa2
men Dichte fX,Y : R → [0, ∞] und der Randdichte fY : R → [0, ∞] von Y , wobei
∫
fY (y) = R fX,Y (x, y) dx.
∫
• Die Funktion g : R → [0, ∞) mit g(y) = R |x|fX,Y (x, y) dx sei beschränkt.
• Dann ist eine Version der bedingten Erwartung E (X | Y ) gegeben durch
 ∫

 R x fX,Y (x, Y (ω)) dx , falls fY (Y (ω)) > 0,
fY (Y (ω))
E (X | Y )(ω) =
(6)

 0,
falls fY (Y (ω)) = 0.
Sei
2. Funktionale unabhängiger Zufallsvariablen
•
Seien
X, Y : Ω → R
2
unabhängige Zufallsvariablen, und sei g : R → R eine Borel
′
′
messbare Abbildung, so dass die Funktion g : R → [0, ∞) mit g (y) = E |g(X, y)|
•
Dann ist eine Version der bedingten Erwartung
beschränkt ist.
E (g(X, Y ) | Y )
gegeben durch
E (g(X, Y ) | Y ) = g ′′ (Y ) ,
wobei die Abbildung
g ′′ : R → R
gegeben ist durch
(7)
g ′′ (y) = E g(X, y).
3. Funktionale unabhängiger stochastischer Prozesse
•
Seien
{Xt , t ≥ 0}
und
{Yt , t ≥ 0}
unabhängige stochastische Prozesse, d.h.,
{Xt } und {Yt } seien unabhängige Familien von (F, B(R))messbaren Abbildungen, und
G=σ
von
(∪
F.
t≥0
Yt−1 (B(R))
)
sei die durch den Prozess
{Yt } erzeugte Teilσ Algebra
3 LÉVYPROZESSE UND MARTINGALE
97
: (R∞ )2 → R eine Borelmessbare Abbildung, so dass die Funktion g ′ :
R → [0, ∞) mit g ′ (y) = E |g({Xt }, y)| beschränkt ist.
• Für X = g({Xt }, {Yt }) gilt dann E |X| < ∞, und die bedingte Erwartung E (X | G)
wird mit dem Symbol E (X | {Yt }) bezeichnet.
• Auÿerdem ist eine Version der bedingten Erwartung E (X | {Yt }) gegeben durch
Sei g
∞
E (X | {Yt }) = g ′′ ({Yt }) ,
wobei die Abbildung
g ′′ : R∞ → R
gegeben ist durch
(8)
g ′′ (y) = E g({Xt }, y).
Schlieÿlich erwähnen wir noch kurz den Begri bedingter Wahrscheinlichkeiten bezüglich
σ Algebren.
Denition
•
Sei
A∈F
•
Dann ist die bedingte Wahrscheinlichkeit
ein beliebiges Ereignis, und sei
G⊂F
eine beliebige Teilσ Algebra von
P (A | G)
von
A
bezüglich
G
F.
gegeben durch
P (A | G) = E (1I(A) | G) ,
σ Algebren
d.h., die Denition bedingter Wahrscheinlichkeiten bezüglich
wird auf den
in (5) denierten Begri der bedingten Erwartung zurückgeführt.
3.2.2 Filtrationen und Stoppzeiten
Denition
•
Sei
(Ω, F, P )
Eine Familie
für beliebige
•
ein vollständiger Wahrscheinlichkeitsraum.
{Ft , t ≥ 0} von Teilσ Algebren von F
s, t ≥ 0 mit s ≤ t gilt.
Die Filtration
t ≥ 0)
{Ft , t ≥ 0}
heiÿt Filtration, wenn
heiÿt vollständig, wenn
F0
(und damit auch
sämtliche Nullmengen enthält.
Die Filtration
{Ft , t ≥ 0}
heiÿt rechtsstetig, wenn
{Xt , t ≥ 0} ein stochastischer
kleinste σ Algebra, für die
Sei
Prozess über
Ft =
(Ω, F, P ),
Fs ⊂ Ft ⊂ F
∩
u>t
Fu
Ft
für jedes
und für jedes
t≥0
für jedes
t ≥ 0.
FtX
die
{FtX , t ≥ 0}
die
sei
{ω ∈ Ω : (Xt1 (ω), . . . , Xtn (ω)) ∈ B} ∈ FtX
n ≥ 1, B ∈ B(Rn ) und t1 , . . . , tn ∈ [0, t]
Filtration, die von {Xt } erzeugt wird.
für beliebige
natürliche
•
Sei
gilt. Dann heiÿt
{Ft , t ≥ 0} eine beliebige Filtration, und sei T : Ω → [0, ∞] eine beliebige Zufalls(Ω, F, P ). Man sagt, dass T eine Stoppzeit (bezüglich der Filtration {Ft })
variable über
ist, wenn
{ω ∈ Ω : T (ω) ≤ t} ∈ Ft
Beachte
∀ t ∈ [0, ∞) .
Wir werden stets (o.B.d.A.) voraussetzen, dass die jeweils betrachtete Filtration
vollständig ist.
(9)
{Ft }
3 LÉVYPROZESSE UND MARTINGALE
98
Lemma 3.5 Sei {Ft , t ≥ 0} eine rechtsstetige Filtration. Die Zufallsvariable
genau dann eine Stoppzeit, wenn
{T < t} ∈ Ft
∀ t ∈ [0, ∞) .
Beweis
Für jedes
•
Aus (10) und aus der Rechtsstetigkeit der Filtration
gilt oenbar, dass
{T ≤ t} ∈
{T ≤ t} =
∩
u∈(t,t+ε) {T
Fu = Ft
ist
(10)
∩
•
ε>0
T : Ω → [0, ∞]
{Ft }
< u}.
ergibt sich somit, dass
∀ t ∈ [0, ∞) .
u>t
•
Sei nun
T
eine Stoppzeit. Dann gilt
{T < t} =
∪
ε∈(0,t)
Denition
∪
{T ≤ t − ε} ∈
Ft−ε ⊂ Ft
∀ t ∈ [0, ∞) .
ε∈(0,t)
{Xt , t ≥ 0} ein stochastischer Prozess über dem Wahrscheinlichkeitsraum (Ω, F, P )
{Ft , t ≥ 0}. Man sagt, dass der Prozess {Xt } adaptiert (bezüglich der Fil{Ft }) ist, wenn
Sei
mit der Filtration
tration
{Xt ∈ B} ∈ Ft
TB :
Ersterreichungszeit der BorelMenge
Auÿerdem heiÿt die Abbildung
∀ t ≥ 0, B ∈ B(R) .
(11)
Ω → [0, ∞] mit TB (ω) = inf{t ≥ 0 : Xt (ω) ∈ B}
B ∈ B(R) durch den Prozess {Xt }.
Für càdlàg Prozesse, deren Trajektorien mit Wahrscheinlichkeit
1
die
rechtsstetige Funktionen mit
linksseitigen Grenzwerten sind (vgl. Abschnitt 1.4), diskutieren wir nun einige Beispiele von Stoppzeiten.
Theorem 3.7 Sei {Ft , t ≥ 0} eine rechtsstetige Filtration und sei {Xt , t ≥
càdlàg Prozess. Für jede oene Menge B ∈ B(R) ist dann die Ersterreichungszeit
Wenn
B ∈ B(R)
eine abgeschlossene Menge ist, dann ist die Abbildung
TeB (ω) = inf{t ≥ 0 : Xt (ω) ∈ B
eine Stoppzeit, wobei
oder
0} ein adaptierter
TB eine Stoppzeit.
TeB : Ω → [0, ∞] mit
Xt− (ω) ∈ B}
Xt− = lims↑t Xs .
Beweis
•
Sei
B ∈ B(R)
zunächst eine oene Menge.
Wegen Lemma 3.5 genügt es zu zeigen, dass
{TB < t} ∈ Ft
für jedes
t ∈ [0, ∞)
gilt.
3 LÉVYPROZESSE UND MARTINGALE
99
Andererseits gilt
∪
{TB < t} =
{Xs ∈ B} ,
s∈Q∩[0,t)
B
weil
Sei nun
s ≤ t.
B ∈ B(R)
Bε
für
Bε = {x ∈ R : d(x, B) < ε} die sogenannte
d(x, B) = min{|x − y| : y ∈ B} der kleinste
x ∈ R zu einem Punkt von B ist.
ε > 0 bezeichnen wir
εParallelmenge der Menge B ,
Für jedes
Dann ist
{Xs ∈ B} ∈ Fs ⊂ Ft
eine abgeschlossene Menge.
mit
wobei
euklidische Abstand des Punktes
rechtsstetige Trajektorien hat.
Hieraus ergibt sich der erste Teil der Behauptung, weil
jedes
•
{Xt }
eine oene Menge ist und
eine oene Menge, und man kann sich leicht überlegen, dass
{TeB ≤ t} = {Xt ∈ B} ∪ {Xt− ∈ B} ∪
∩
∪
{Xs ∈ B1/n } .
n≥1 s∈Q∩[0,t)
Weil
{Xt } adaptiert ist, gehören sämtliche Ereignisse auf der rechten Seite der letzten
Ft .
Gleichheit zu
Theorem 3.8
′
max{T, T }, T +
′
Seien T, T : Ω →
′
T bzw. αT für jedes
[0, ∞] beliebige Stoppzeiten.
α > 1 Stoppzeiten.
Dann sind auch
min{T, T ′ },
Beweis
•
Weil
T
und
T′
Stoppzeiten sind, gilt
{T ≤ t} ∈ Ft
bzw.
{T ′ ≤ t} ∈ Ft
und somit
{min{T, T ′ } ≤ t} = {T ≤ t} ∪ {T ′ ≤ t} ∈ Ft ,
d.h.,
•
min{T, T ′ }
ist eine Stoppzeit.
Völlig analog ergibt sich, dass
{T ′ ≤ t} ∈ Ft folgt, dass
max{T, T ′ }
ein Stoppzeit ist, denn aus
{T ≤ t} ∈ Ft
und
{max{T, T ′ } ≤ t} = {T ≤ t} ∩ {T ′ ≤ t} ∈ Ft .
•
Um zu zeigen, dass auch
t} ∈ Ft
für jedes
T + T′
eine Stoppzeit ist, genügt es zu zeigen, dass
t ≥ 0.
{T + T ′ >
Dies ergibt sich aus der Identität
{T + T ′ > t} = {T > t} ∪ {T ′ > t} ∪ {T ≥ t, T ′ > 0} ∪ {0 < T < t, T + T ′ > t} .
Denn es ist klar, dass die ersten drei Ereignisse auf der rechten Seite der letzten
Gleichheit zu
Ft
gehören,
und für das vierte Ereignis gilt
{0 < T < t, T + T ′ > t} =
∪
s∈Q∩[0,t)
{s < T < t, T ′ > t − s} ∈ Ft .
3 LÉVYPROZESSE UND MARTINGALE
•
Auÿerdem gilt für jedes
α > 1,
dass
100
{αT ≤ t} = {T ≤ t/α} ∈ Ft/α ⊂ Ft .
Manchmal ist es nützlich, beliebige (nichtnotwendig diskrete) Stoppzeiten durch monotone Folgen
von Stoppzeiten zu approximieren, die jeweils nur abzählbar unendlich viele Werte mit positiver
Wahrscheinlichkeit annehmen können. Aus dem Beweis des folgenden Theorems ergibt sich, wie
eine solche monotone Folge von diskreten Stoppzeiten konstruiert werden kann.
Theorem 3.9
raum
T : Ω → (0, ∞] eine beliebige endliche Stoppzeit über dem WahrscheinlichkeitsP (T < ∞) = 1. Dann gibt es eine Folge {T (n) , n ≥ 1} von diskreten
dass mit Wahrscheinlichkeit 1
Sei
(Ω, F, P ),
Stoppzeiten, so
d.h., es gelte
T (1) ≥ T (2) ≥ . . .
und
lim T (n) = T .
(12)
n→∞
Beweis
•
Für jedes
n≥1
sei die Zufallsvariable
T (n)
•
Für

 0,
=
 k+1 ,
2n
k/2n ≤ t < (k + 1)/2n
falls
falls
T (n) : Ω → [0, ∞)
T = 0,
k
k+1
<T ≤
n
2
2n
gegeben durch
(13)
für ein
k = 0, 1, . . ..
gilt dann
{
k} {
k}
{T (n) ≤ t} = T (n) ≤ n = T ≤ n ∈ Fk/2n ⊂ Ft .
2
2
•
Hieraus folgt, dass
Korollar 3.2
Sei
T (n) eine Stoppzeit ist, wobei T (1) ≥ T (2) ≥ . . . und limn→∞ T (n) = T .
T : Ω → [0, ∞]
für jedes
{Xt , t
Dann gilt
eine beliebige endliche Stoppzeit. Der Prozess
(Ω, F, P ) wie T gegeben.
Abbildung XT : Ω → R mit
càdlàg und über dem gleichen Wahrscheinlichkeitsraum
XT (ω) (ω) ∈ B} ∈ F
(14)
B ∈ B(R),
d.h., die
≥ 0} sei
{ω ∈ Ω :
XT (ω) = XT (ω) (ω)
ist
(15)
(F, B(R))messbar.
Beweis
•
Weil
{X(t)}
•
Es genügt nun zu beachten, dass
càdlàg ist, ergibt sich aus (12) und (14), dass
denn für jedes
B ∈ B(R)
XT (n) : Ω → R
eine
XT = limn→∞ XT (n) .
(F, B(R))messbare
Abbildung ist,
gilt
{XT (n) ∈ B} =
∞ (
∪
{
} {
k })
∈F.
Xk/2n ∈ B ∩ T (n) = n
2
k=0
3 LÉVYPROZESSE UND MARTINGALE
101
3.2.3 Submartingale und Supermartingale; Beispiele
Denition
Sei
{Xt , t ≥ 0} ein stochastischer Prozess über dem Wahrscheinlichkeitsraum (Ω, F, P )
{Ft , t ≥ 0}.
mit der Filtration
•
•
Der Prozess
{Xt }
sei adaptiert, und es gelte
{Xt } ein Martingal ist,
E (Xt | Fs ) die bedingte
E |Xt | < ∞
t ≥ 0.
E (Xt | Fs ) = Xs für beliebige s, t ≥ 0 mit
Xt bezüglich der σ Algebra Fs
Man sagt, dass
wenn
s ≤ t,
Erwartung von
wobei
für jedes
bezeichnet; vgl. Abschnitt 3.2.1.
•
{Xt } ein Submartingal bzw. Supermartingal
E (Xt | Fs ) ≤ Xs für beliebige s, t ≥ 0 mit s ≤ t.
Auÿerdem sagt man, dass
Fs ) ≥ Xs
bzw.
ist, wenn
E (Xt |
Beispiele
1.
PoissonProzess
•
•
{Xt , t ≥ 0}
λ > 0.
{Yt , t ≥ 0} mit
Yt = Xt − tλ ein Martingal bezüglich der (natürlichen) Filtration {FtX , t ≥ 0} ist.
Aus der Unabhängigkeit und Stationarität der Zuwächse von {Xt } und aus den
Sei
ein (homogener) PoissonProzess mit der Intensität
Dann kann man sich leicht überlegen, dass der stochastische Prozess
Teilaussagen 4 und 6 von Theorem 3.6 ergibt sich nämlich, dass
E (Xt | FsX )
für beliebige
•
= E (Xs + (Xt − Xs ) | FsX ) = E (Xs | FsX ) + E (Xt − Xs | FsX )
= Xs + E (Xt − Xs ) = Xs + (t − s)λ
s, t ≥ 0
mit
s ≤ t,
d.h.,
E (Xt − tλ | FsX ) = Xs − sλ
∀s ≤ t.
Auÿerdem kann man zeigen, dass der stochastische Prozess
(Xt − tλ)2 − tλ ein Martingal ist.
Sei
{Yt′ , t ≥ 0}
et = Xt − tλ.
X
Dann ergibt sich aus der Unabhängigkeit der Zuwächse von
et }
{X
mit
Yt′ =
und aus den
Eigenschaften der bedingten Erwartung (vgl. Theorem 3.6), dass für beliebige
s, t ≥ 0
mit
s≤t
E (Yt′ | FsX )
et2 − tλ | FsX )
E (X
((
)
)
e s + (X
et − X
es ) 2 − tλ | FsX
= E X
)
( 2
e + 2X
e s (X
et − X
es ) + (X
et − X
es )2 − tλ | F X
= E X
s
s
(
)
(
)
et − X
e s + E (X
es2 − sλ + 2X
es E X
et − X
es )2 − (t − s)λ
= X
es2 − sλ = Ys′ ,
= X
=
wobei in der vorletzten Gleichheit die Tatsache genutzt wurde, dass
es ) = (t − s)λ.
X
et −
Var (X
3 LÉVYPROZESSE UND MARTINGALE
2.
102
zusammengesetzte PoissonProzesse
•
{Xt , t ≥ 0} ein zusammengesetzter PoissonProzess mit den Charakteristiken
(λ, PU ), wobei λ > 0 die Intensität der Sprungzeitpunkte und PU die Verteilung der
Sei
Sprunghöhen bezeichnet.
•
stochastische Prozess
•
E |U | < ∞ erfüllt ist,
Yt = Xt − tλE U ein Martingal.
Wenn die zusätzliche Integrierbarkeitsbedingung
{Yt , t ≥ 0}
mit
dann ist der
Denn genauso wie in dem oben diskutierten Fall des (nicht zusammengesetzten)
PoissonProzesses ergibt sich, dass
E (Xt − tλE U | FsX ) = Xs − sλE U
3.
∀s ≤ t.
WienerProzess
•
•
Sei
{Xt , t ≥ 0}
ein WienerProzess. Dann kann man auf die gleiche Weise wie bei
den beiden vorhergehenden Beispielen zeigen, dass {Xt } ein Martingal bezüglich der
X
natürlichen Filtration {Ft , t ≥ 0} dieses Prozesses ist.
′
Auÿerdem kann man zeigen, dass auch die stochstischen Prozesse {Yt , t ≥ 0} und
{Yet , t ≥ 0}
Martingale sind, wobei
Yt′ = Xt2 − t
und
•
u∈R
2
Yet = euXt −u t/2
bzw.
eine beliebige (jedoch xierte) Zahl ist.
s, t ≥ 0 mit s ≤ t
)
E (Yt′ | FsX ) = . . . = Xs2 −s+2Xs E (Xt −Xs )+E (Xt −Xs )2 −(t−s) = Xs2 −s = Ys′ ,
(
)
2
weil E (Xt − Xs ) = 0 und E (Xt − Xs )
= t − s, d.h., {Yt′ } ist ein Martingal.
• Auf ähnliche Weise ergibt sich, dass für beliebige s, t ≥ 0 mit s ≤ t
Denn genauso wie im PoissonFall ergibt sich, dass für beliebige
(
E (euXt −u
2
woaus folgt, dass
4.
{Yet }
t/2
| FsX ) = E eu(Xt −Xs ) euXs −u
2
ein Martingale ist, weil
t/2
E eu(Xt −Xs ) = eu
,
2
(t−s)/2
.
LévyProzesse
•
Genauso wie bei den ersten drei Beispielen lässt sich für jeden LévyProzess
0}
mit
E |X1 | < ∞
{Xt , t ≥
ein Martingal konstruieren.
Denn für beliebige
s, t ≥ 0
mit
s≤t
gilt
E (Xt | FsX ) = Xs + (t − s) E X1 ,
•
d.h., {Yt , t ≥ 0}
{FtX , t ≥ 0}.
mit
Yt = Xt − t E X1
Im allgemeinen, d.h., wenn
ist ein Martingal bezüglich der Filtration
E |X1 | < ∞ nicht vorausgesetzt wird,
{Yet , t ≥ 0} gegeben durch
ist für jedes
u∈R
ein (komplexwertiges) Martingal
Yet = eiuXt −tη(u) ,
wobei
η : R → C
schnitt 3.1.
der LévyExponent von
{Xt }
ist; vgl. die Formel (8) in Ab-
3 LÉVYPROZESSE UND MARTINGALE
103
t ≥ 0 gilt E |Yet | = e−tη(u) < ∞.
Auÿerdem gilt für beliebige u ∈ R und s, t ≥ 0 mit s ≤ t
(
)
E (Yet | FsX ) = E eiuXt −tη(u) | FsX
)
(
= E eiuXs −sη(u) eiu(Xt −Xs )−(t−s)η(u) | FsX
(
)
= eiuXs −sη(u) E eiu(Xt −Xs )−(t−s)η(u) | FsX
Denn für beliebige
u∈R
und
= eiuXs −sη(u) E eiu(Xt −Xs )−(t−s)η(u)
= eiuXs −sη(u) E eiuXt−s −(t−s)η(u) = eiuXs −sη(u) = Yes ,
wobei sich die dritte Gleichheit aus Teilaussage 4 in Theorem 3.6 ergibt, während
die vorletzte Gleichheit aus Theorem 3.3 folgt.
5.
MarkowProzesse
•
Wir zeigen nun, wie Martingale für Funktionen von MarkowProzessen (mit endlich
vielen Zuständen) konstruiert werden können.
{Xt , t ≥ 0} ein MarkowProzess mit Werten in der Menge E = {1, 2, . . . , ℓ},
und sei Q die in Abschnitt 2.3.2 eingeführte Intensitätsmatrix von {Xt }.
• Für jeden Vektor b = (b1 , . . . , bℓ )⊤ ∈ Rℓ ist dann der stochastische Prozess {Yt , t ≥
0} mit
∫ t
Yt = bXt − bX0 −
(Qb)Xv dv
∀t ≥ 0
(16)
Sei also
0
ein Martingal, wobei das Integral in (16) pfadweise gebildet wird.
{Xt } ein homogener
s, t ≥ 0 mit s ≤ t
Weil
MarkowProzess ist, gilt für beliebige
∫
(
E bXt − bXs −
(
= E bXt−s
i ∈ E
und
)
(Qb)Xv dv Xs = i
s
∫ t−s
)
− bX0 −
(Qb)Xv dv X0 = i .
t
0
{Yt }
h≥0
Um zu zeigen, dass der in (16) gegebene Prozess
es also zu zeigen, dass für beliebige
i∈E
∫
und
ein Martingal ist, genügt
h
E (bXh | X0 = i) − bi =
E ((Qb)Xv | X0 = i) dv ,
(17)
0
denn man kann sich leicht überlegen, dass
E
(
∫
)
h
(Qb)Xv dv | X0 = i =
0
∫
h
E ((Qb)Xv | X0 = i) dv .
0
{P(h), h ≥ 0}
P(h) = exp(hQ) gegeben ist.
In Theorem 2.16 hatten wir gezeigt, dass die Übergangsfunktion
des MarkowProzesse
{Xt }
für jedes
h≥0
durch
3 LÉVYPROZESSE UND MARTINGALE
Hieraus folgt, dass
und
wobei
e⊤
i
ten gleich
ein
0
104
E (bXh | X0 = i) = e⊤
i exp(Qh)b
(18)
(
)
E (Qb)Xv | X0 = i = e⊤
i exp(Qv)Qb ,
(19)
ℓ-dimensionaler (Zeilen) Vektor ist, für den sämtliche Komponenite Komponente, die gleich 1 ist.
sind, bis auf die
Aus (18) und (19) ergibt sich nun, dass (17) äquivalent ist mit
e⊤
i
∫
h
exp(Qh)b − bi =
e⊤
i exp(Qv)Qb dv ,
(20)
0
wobei sich die Gültigkeit dieser Gleichung aus Lemma 2.3 ergibt, wenn auf beiden
Seiten von (20) die Ableitung nach
h
gebildet wird.
abgeschlossene Martingale
6.
•
Sei
X :Ω→R
eine beliebige Zufallsvariable mit
E |X| < ∞,
und sei
{Ft , t ≥ 0}
eine beliebige Filtration.
•
Dann kann man sich leicht überlegen, dass der stochastische Prozess
Yt = E (X | Ft )
{Yt , t ≥ 0} mit
(21)
ein Martingal ist, denn aus Teilaussage 6 von Theorem 3.6 ergibt sich, dass für
beliebige
s, t ≥ 0
mit
s≤t
(
)
E E (X | Ft ) | Fs = E (X | Fs ) .
•
Manchmal sagt man, dass der in (21) gegebene stochastische Prozess ein abgeschlos-
senes Martingal ist.
Beachte
•
′
Für die Martingale {Yt } und {Yt }, die in den Beispielen 1 4 betrachtet wurden, gilt
′
E Yt = E Yt = 0 für jedes t ≥ 0. Ein Martingal mit dieser Eigenschaft wird ein zentriertes
Martingal genannt.
•
Für die Martingale
•
E Yet = 1
für jedes
{Yet },
t ≥ 0.
die in den Beispielen 3 und 4 betrachtet wurden, gilt dagegen
Die Denitionsgleichung (16) des Martingals
{Yt }
in Beispiel 5 wird DynkinFormel für
MarkowProzesse genannt.
Aus den Monotonieeigenschaften der bedingten Erwartung (vgl. die Teilaussage 3 von Theorem 3.6)
ergibt sich, dass jeder adaptierte Prozess
E |Xt | < ∞
für jedes
t≥0
{Xt , t ≥ 0}
mit nichtfallenden Trajektorien und mit
ein Submartingal ist.
Insbesondere ist jeder integrierbare Subordinator ein Submartingal, d.h. jeder (nichtnegative)
LévyProzess
{Xt , t ≥ 0}
mit nichtfallenden Trajektorien, so dass
E |X1 | < ∞.
3 LÉVYPROZESSE UND MARTINGALE
Theorem 3.10
so dass
Der Prozess
E |f (Xt )| < ∞
{Xt , t ≥ 0} sei adaptiert und f : R → R sei eine konvexe
t ≥ 0. Dann ist {f (Xt ), t ≥ 0} ein Submartingal, wenn
Funktion,
für jedes
• {Xt }
ein Martingal oder
• {Xt }
ein Submartingal und
Beweis
105
f :R→R
eine nichtfallende konvexe Funktion ist.
Aus der JensenUngleichung für bedingte Erwartungen (vgl. die Teilaussage 7 von Theo-
s, t ≥ 0 mit s ≤ t
(
)
(
)
E f (Xt ) | Fs ≥ f E (Xt | Fs ) ≥ f (Xs ) .
rem 3.6) ergibt sich in beiden Fällen, dass für beliebige
3.2.4 Gleichgradige Integrierbarkeit
Sei
T
{Xt , t ≥ 0} sei càdlàg mit E |Xt | < ∞
t ∈ R. In Korollar 3.2 hatten wir gezeigt, dass dann XT eine wohldenierte Zufallsvariable
eine endliche Stoppzeit, und der stochastische Prozess
für jedes
ist.
Zur Herleitung von Bedingungen, so dass auch
E |XT | < ∞
gilt, benötigen wir den Begri der
gleichgradigen Integrierbarkeit von Zufallsvariablen.
X : Ω → R eine
E [X; A] = E (X1I(A)).
Hierfür benutzen wir die folgende Schreibweise: Sei
E |X| < ∞.
Denition
wenn
Für jedes
A∈F
beliebige Zufallsvariable mit
X1 , X2 , . . . : Ω :→ R von Zufallsvariablen heiÿt
n ≥ 1 und
(
)
lim sup E [|Xn |; |Xn | > x] = 0 .
Die Folge
E |Xn | < ∞
setzen wir dann
gleichgradig integrierbar,
für jedes
(22)
x→∞ n≥1
Lemma 3.6
(i)
Die Folge
{Xn , n ≥ 1}
supn≥1 E |Xn | < ∞
und
ε>0
P (A) < δ .
(ii) wenn es für jedes
A∈F
mit
ist genau dann gleichgradig integrierbar, wenn
ein
δ>0
gibt, so dass
E [|Xn |; A] < ε
für jedes
n≥1
und für jedes
Beweis
•
Wir zeigen zuerst, dass (22) gilt, wenn die Bedingungen (i) und (ii) erfüllt sind.
Oenbar gilt
xP (|Xn | > x) ≤ E |Xn | für beliebige n ≥ 1 und x > 0. Hieraus
δ > 0 und für jedes hinreichend groÿe x > 0
aus (i) folgt, dass für jedes
sup P (|Xn | > x) ≤
n≥1
1
sup E |Xn | < δ .
x n≥1
und
3 LÉVYPROZESSE UND MARTINGALE
106
(
)
lim supx→∞ supn≥1 E [|Xn |; |Xn | > x] ≤ ε für jedes ε > 0.
die Gültigkeit von (22), weil ε > 0 beliebig klein gewählt werden
Wegen (ii) gilt somit
Hieraus ergibt sich
kann.
•
Sei nun
{Xn , n ≥ 1}
gleichgradig integrierbar.
x>0
{
}
sup E |Xn | ≤ sup E [|Xn |; |Xn | > x] + x < ∞ ,
Dann gilt für jedes hinreichend groÿe
n≥1
n≥1
d.h., die Bedingung (i) ist erfüllt.
Für jedes
Für jedes
ε>0
δ>0
x > 0 so gewählt, dass supn≥1 E [|Xn |; |Xn | > x] < ε/2 .
δ < ε/(2x) und für jedes A ∈ F mit P (A) < δ gilt dann
sei nun
mit
E [|Xn |; A] ≤ E [|Xn |; |Xn | > x] + xP (A) ≤ ε ,
d.h., die Bedingung (ii) ist ebenfalls erfüllt.
Die Bedeutung der gleichgradigen Integrierbarkeit für die Konvergenz von Zufallsvariablen wird
durch das folgende Lemma deutlich.
Lemma 3.7
Sei X1 , X2 , . . . : Ω → R eine beliebige Folge von Zufallsvariablen mit E |Xn | < ∞
n ≥ 1 und limn→∞ Xn = X mit Wahrscheinlichkeit 1 für eine gewisse Zufallsvariable
X : Ω → R. Dann sind die beiden folgenden Aussagen äquivalent: (a) {Xn , n ≥ 1} ist gleichgradig
integrierbar. (b) Es gilt E |X| < ∞ und limn→∞ E |Xn − X| = 0.
für jedes
Beweis
•
Sei
{Xn , n ≥ 1}
supn≥1 E |Xn | < ∞ wegen Teilaussage (i) in Lemma 3.6 und weil limn→∞ Xn
vorausgesetzt wird, ergibt sich aus dem Lemma von Fatou, dass E |X| < ∞.
Weil
X
gleichgradig integrierbar.
Andererseits kann man sich leicht überlegen (vgl. Korollar WR-5.1), dass aus der
Konvergenz
limn→∞ Xn = X
mit Wahrscheinlichkeit
1
folgt, dass für jedes
ε>0
lim P (|Xn − X| > ε) = 0 .
(23)
n→∞
=
Auÿerdem gilt für jedes
ε>0
E |Xn − X| ≤ E [|Xn − X|; |Xn − X| ≤ ε] + E [|Xn − X|; |Xn − X| > ε]
≤ ε + E [|Xn |; |Xn − X| > ε] + E [|X|; |Xn − X| > ε] .
Wegen (23) ergibt sich dann aus der Teilaussage (ii) in Lemma 3.6 mit
X| > ε},
0
E |X| < ∞.
dass der zweite Summand des letzten Ausdruckes gegen
A = {|Xn −
strebt.
0, weil
Hieraus folgt, dass limn→∞ E |Xn − X| = 0, weil ε > 0 beliebig klein gewählt werden
Der ditte Summand konvergiert ebenfalls gegen
kann.
3 LÉVYPROZESSE UND MARTINGALE
•
107
Wir nehmen nun umgekehrt an, dass (b) gilt.
Dann gilt
sup E |Xn | ≤ sup E |Xn − X| + E |X| < ∞ .
n≥1
Für jedes
ε>0
sei
n0 ≥ 1
so gewählt, dass für beliebige
E [|Xn − X|; A] ≤ E |Xn − X| ≤
Sei nun
δ>0
so gewählt, dass
P (A) < δ
n ≥ n0
max E [|Xn − X|; A] + E [|X|; A] ≤
ε>0
ein
A∈F
die Gültigkeit der folgenden Ungleichung
0≤n≤n0
Hieraus folgt, dass es für jedes
und
ε
.
2
impliziert:
(24)
n≥1
δ >0
ε
.
2
gibt, so dass für jedes
A∈F
mit
P (A) < δ
sup E [|Xn |; A] ≤ sup E [|Xn − X|; A] + E [|X|; A] ≤ ε .
n≥1
•
n≥1
Wegen Lemma 3.6 ergibt sich hieraus und aus (24), dass
{Xn , n ≥ 1}
grierbar ist.
gleichgradig inte-
Korollar 3.3
n≥1
Sei X1 , X2 , . . . : Ω → R eine Folge von Zufallsvariablen, so dass E |Xn | < ∞ für jedes
limn→∞ Xn = X mit Wahrscheinlichkeit 1. Wenn {Xn , n ≥ 1} gleichgradig integrierbar
gilt E |X| < ∞ und limn→∞ E Xn = E X .
und
ist, dann
Beweis
Wegen
|E Xn −E X| ≤ E |Xn −X| ergibt sich die Behauptung unmittelbar aus Lemma 3.7.
3.2.5 Ungleichung von Doob
Ein wichtiges (beweistechnisches) Hilfsmittel ist die folgende Ungleichung von Doob für Submartingale. Dabei benutzen wir die Schreibweise
Theorem 3.11
{Xt , t ≥ 0} sei
x > 0 und t ≥ 0
Der Prozess
ist, dann gilt für beliebige
P
Beweis
x+ = max{x, 0}
(
für jedes
x ∈ R.
adaptiert und càdlàg. Wenn
) E (Xt )+
sup Xv > x ≤
.
x
0≤v≤t
{Xt }
ein Submartingal
(25)
3 LÉVYPROZESSE UND MARTINGALE
•
108
Wir können o.B.d.A. annehmen, dass
x≥0
gilt
P
(
P (Xt ≥ 0) = 1
für jedes
0≤v≤t
und aus Theorem 3.10 ergibt sich, dass der stochastische Prozess
•
Sei nun
denn für jedes
)
(
)
sup Xv > x = P sup max{Xv , 0} > x
0≤v≤t
max{Xt , 0}
t ≥ 0,
et , t ≥ 0}
{X
mit
et =
X
ebenfalls ein Submartingal ist.
{Xt , t ≥ 0} ein nichtnegatives Submartingal,
t1 , . . . , tn ∈ [0, t] mit t1 ≤ . . . ≤ tn .
und sei
A = {max1≤k≤n Xtk > x}
für beliebige
Man kann sich leicht überlegen, dass sich das Ereignis
A = A1 ∪. . .∪An
einigung
A
darstellen lässt als die Ver-
einer Folge von paarweise disjunkten Mengen
A1 , . . . , An ,
wobei
A1 = {Xt1 > x} ∈ Ft1 ,
Weil
{Xt , t ≥ 0}
Ak = {Xt1 ≤ x, . . . , Xtk−1 ≤ x, Xtk > x} ∈ Ftk
∀ k ∈ {2, . . . , n} .
ein nichtnegatives Submartingal ist, gilt
E [Xtn ; Ak ] ≥ E [Xtk ; Ak ] ≥ x P (Ak ) .
Hieraus folgt, dass
E Xtn ≥ E [Xtn ; A] =
n
∑
E [Xtn ; Ak ] ≥
k=1
•
Sei nun
B
n
∑
eine beliebige endliche Teilmenge des Intervalls
Dann gilt also
x P (Ak ) = xP (A) .
k=1
[0, t] so, dass 0 ∈ B
und
t ∈ B.
(
)
xP max Xv > x ≤ E Xt .
(26)
v∈B
Wegen der Monotonie von Wahrscheinlichkeitsmaÿen gilt auÿerdem für jede monoton
B1 , B2 , . . . ⊂ [0, t] von endlichen Mengen,
(
)
(∪{
})
({
lim P max Xv > x = P
max Xv > x = P
wachsende Folge
n→∞
v∈Bn
n≥1
Hieraus und aus (26) folgt, dass für
sup
∪
v∈ n≥1 Bn
v∈Bn
B=
dass
∪
n≥1
})
Xv > x .
Bn = ([0, t) ∩ Q) ∪ {t}
(
)
xP sup Xv > x ≤ E Xt .
v∈B
•
Weil
{X(t)}
rechtsstetige Trajektorien hat, ergibt sich hieraus die Gültigkeit von (25).
Beachte
•
{Xt , t ≥ 0} ein (Standard) WienerProzess, und
Yt = Xt − tµ ein WienerProzess mit negativer Drift.
Sei
für
µ > 0
sei
{Yt , t ≥ 0}
2
mit
{eu(Yt +tµ)−u t/2 , t ≥ 0}
X
für jedes u ∈ R ein Martingal bezüglich der (natürlichen) Filtration {Ft , t ≥ 0} ist.
In Beispiel 3 von Abschnitt 3.2.3 hatten wir gezeigt, dass
3 LÉVYPROZESSE UND MARTINGALE
Für
u = 2µ
109
ergibt also insbesondere, dass
Weil die Ungleichung
{e2µYt , t ≥ 0}
ein Martingal ist.
supv∈[0,t] Yv > x genau dann gilt, wenn supv∈[0,t] e2µYv > e2µx ,
ergibt sich aus Theorem 3.11, dass
) limt→∞ E e2µYt
(
)
(
)
(
P sup Yt > x = lim P sup Yv > x = lim P sup e2µYv > e2µx ≤
.
t→∞
t→∞
e2µx
t≥0
v∈[0,t]
v∈[0,t]
Weil
E e2µYt = 1
t ≥ 0, ergibt sich hieraus, dass
(
)
P sup Yt > x ≤ e−2µx
∀x ≥ 0.
für jedes
(27)
t≥0
•
Um zu zeigen, dass in (27) sogar die Gleichheit gilt, benötigen wir ein optionales Sampling
Theorem, für dessen Herleitung wir zunächst sogenannte gestoppte Martingale betrachten.
3.2.6 Gestoppte Martingale
Lemma 3.8
•
•
{Xt , t ≥ 0} sei adaptiert und càdlàg. Auÿerdem sei T : Ω → [0, ∞) eine endliche
(n)
Stoppzeit und sei {T
, n ≥ 1} die in (13) eingeführte Folge von diskreten Stoppzeiten mit
(n)
(n+1)
(n)
T
≥T
und limn→∞ T
= T.
Der Prozess
Wenn
{Xt } ein Martingal ist, dann ist die
t ≥ 0, wobei s ∧ t = min{s, t}.
Folge
XT (1) ∧t , XT (2) ∧t , . . .
gleichgradig integrierbar
für jedes
Beweis
•
∑
{k: k<2n t} E Xk/2n + E |Xt | < ∞ für beliebige n ≥ 1 und t ≥
0, genügt es zu zeigen, dass die Bedingung (22) in der Denition der gleichgradigen
Weil
E |XT (n) ∧t | ≤
Integrierbarkeit erfüllt ist.
Aus Theorem 3.10 folgt, dass
{|Xt |, t ≥ 0}
ein Submartingal ist. Somit gilt
sup E [|XT (n) ∧t |; |XT (n) ∧t | > x]
n≥1
=
(
sup
n≥1
≤
(
sup
n≥1
∑
E [|Xk/2n |; {T (n) =
{k: k<2n t}
k
} ∩ {|XT (n) ∧t | > x}]
2n
+E [|Xt |; {T (n) ≥ t} ∩ {|XT (n) ∧t | > x}]
∑
E [|Xt |; {T (n) =
{k: k<2n t}
k
} ∩ {|XT (n) ∧t | > x}]
2n
+E [|Xt |; {T (n) ≥ t} ∩ {|XT (n) ∧t | > x}]
=
sup E [|Xt |; |XT (n) ∧t | > x] ≤ sup E [|Xt | ; Y > x] = E [|Xt |; Y > x] ,
n≥1
wobei
Y = supn≥1 |XT (n) ∧t |.
)
n≥1
)
3 LÉVYPROZESSE UND MARTINGALE
110
Andererseits ergibt die Anwendung von Theorem 3.11 auf das Submartingal
0},
dass
E |Xt |
x
P (Y > x) ≤ P ( sup |Xv | > x) ≤
0≤v≤t
•
Hieraus folgt insbesondere, dass
{|Xt |, t ≥
∀ t, x > 0 .
limx→∞ P (Y > x) = 0.
Aus dem Satz von Lebesgue über die majorisierte Konvergenz ergibt sich nun insgesamt,
dass
lim sup E [|XT (n) ∧t |; |XT (n) ∧t | > x] ≤ lim E [|Xt |; Y > x] = 0 .
x→∞ n≥1
Theorem 3.12
T : Ω → [0, ∞)
x→∞
Der Prozess {Xt , t ≥ 0} sei adaptiert und càdlàg. Wenn {Xt } ein Martingal und
eine endliche Stoppzeit ist, dann ist auch der stochastische Prozess {XT ∧t , t ≥ 0}
ein Martingal.
Beweis
•
•
Ähnlich wie im Beweis von Korollar 3.2 kann man zeigen, dass
Ft messbare
Es muss also lediglich noch gezeigt werden, dass für beliebige
E |XT ∧t | < ∞
•
XT ∧t
für jedes
t≥0
eine
Zufallsvariable ist.
und
t ≥ 0, v ∈ [0, t) und A ∈ Fv
E [XT ∧t ; A] = E [XT ∧v ; A] .
(28)
(13) eingeführte Folge {T (n) , n ≥ 1} von diskreten
jedes n ≥ 1 und für beliebige t ≥ 0, v ∈ [0, t) und
Dabei betrachten wir zunächst die in
Stoppzeiten und zeigen, dass für
A ∈ Fv
E |XT (n) ∧t | < ∞
und
E [XT (n) ∧t ; A] = E [XT (n) ∧v ; A] .
E |XT (n) ∧t | < ∞.
(n)
Stoppzeit T
mit positiver
(29)
Genauso wie im Beweis von Lemma 3.8 ergibt sich, dass
Seien nun
t1 , . . . , tk ∈ (v, t) die Werte, die die
v und t annehmen kann.
Wahr-
scheinlichkeit zwischen
Dann ergibt sich aus den Teilaussagen 4 und 5 von Theorem 3.6, dass
(
)
E (XT (n) ∧t | Fv ) = E E (XT (n) ∧t | Ftk ) | Fv
= E (E (1I(T (n) ≤ tk )XT (n) ∧t | Ftk ) | Fv ) + E (E (1I(T (n) > tk )XT (n) ∧t | Ftk ) | Fv )
= E (1I(T (n) ≤ tk )E (XT (n) ∧tk | Ftk ) | Fv ) + E (1I(T (n) > tk )E (Xt | Ftk ) | Fv )
= E (1I(T (n) ≤ tk )XT (n) ∧tk | Fv ) + E (1I(T (n) > tk )Xtk | Fv )
= E (1I(T (n) ≤ tk )XT (n) ∧tk | Fv ) + E (1I(T (n) > tk )XT (n) ∧tk | Fv )
= E (XT (n) ∧tk | Fv )
.
.
.
= E (XT (n) ∧t1 | Fv ) = E (XT (n) ∧v | Fv ) = XT (n) ∧v .
3 LÉVYPROZESSE UND MARTINGALE
•
•
111
Damit ist (29) bewiesen.
Weil
{Xt }
is càdlàg ist, gilt
limn→∞ XT (n) ∧t = XT ∧t
Gemäÿ Lemma 3.8 sind die Folgen
und
{XT (n) ∧v , n ≥ 1}
limn→∞ XT (n) ∧v = XT ∧v .
und
{XT (n) ∧t , n ≥ 1}
auÿerdem
gleichgradig integrierbar.
•
Wegen (29) ergibt sich somit die Gültigkeit von (28) mit Hilfe von Korollar 3.3.
3.2.7 Optionales SamplingTheorem
Für jede endliche Stoppzeit
T : Ω → [0, ∞) betrachten wir die σ Algebra FT , die gegeben ist durch
FT = {A ∈ F : A ∩ {T ≤ t} ∈ Ft
wobei die folgenden Eigenschaften der gestoppten
Lemma 3.9
Für beliebige endliche Stoppzeiten
für jedes
σ Algebra FT
S, T : Ω → [0, ∞)
{Xt , t ≥ 0}
t ≥ 0},
(30)
nützlich sind.
mit
P (S ≤ T ) = 1
gilt
FS ⊂ FT .
Auÿerdem gilt für jeden adaptierten càdlàg Prozess
d.h.,
XT
ist eine
(
{ω ∈ Ω : XT (ω) ∈ B} ∈ FT
)
FT , B(R) messbare Zufallsvariable.
∀ B ∈ B(R) ,
(31)
Beweis
•
Wir zeigen zunächst, dass
Sei
A ∈ FS ,
FS ⊂ FT ,
wenn
P (S ≤ T ) = 1.
t ≥ 0 gelte A ∩ {S ≤ t} ∈ Ft .
A ∩ {T ≤ t} = A ∩ {S ≤ t} ∩ {T ≤ t} ∈ Ft
d.h., für jedes
Hieraus folgt, dass
{T ≤ t} = {S ≤ t} ∩ {T ≤ t}
•
Wir zeigen nun, dass
Für jedes
und
{XT ∈ B} ∩ {T ≤ t} ∈ Ft
für jedes
{T ≤ t} ∈ Ft
für beliebige
t ≥ 0 fassen wir dabei den (eingeschränkten)
X : [0, t] × Ω → R auf, die gegeben ist durch
weil
∀t ≥ 0.
B ∈ B(R)
Prozess
t ≥ 0,
und
t ≥ 0.
{Xs , s ∈ [0, t]}
als
Abbildung
(s, ω) 7→ Xs (ω) .
Weil der Prozess
{Xt }
càdlàg ist, gilt für beliebige
2
∑
(32)
(s, ω) ∈ [0, t] × Ω
n
Xs (ω) = X0 (ω)1I{0} (s) + lim
n→∞
Weil
1I((k−1)t/2n , kt/2n ] (s)Xkt/2n (ω) .
k=1
{Xt } adaptiert
ist, sind sämtliche Summanden auf der rechten Seite des letzten
(
)
B([0, t]) ⊗ Ft , B(R) messbar.
Ausdruckes
Damit besitzt auch ihr Grenzwert diese Messbarkeitseigenschaft, d.h., die in (32)
gegebene Abbildung ist
(
)
B([0, t]) ⊗ Ft , B(R) messbar.
3 LÉVYPROZESSE UND MARTINGALE
112
g : Ω ∩ {T ≤ t} → [0, t] × Ω mit
(
)
g(ω) = T (ω), ω ,
)
(
wobei diese Abbildung Ft ∩ {T ≤ t}, B([0, t]) ⊗ Ft messbar ist.
Hieraus folgt, dass die Superposition
X ◦ g : )Ω ∩ {T ≤ t} → R der in (32)
(
gegebenen Abbildungen Ft ∩ {T ≤ t}, B(R) messbar ist.
Auÿerdem betrachten wir die Abbildung
(33)
bzw. (33)
Wir kommen nun zum sogenannten optionalen SamplingTheorem für Martingale bzw. für gestoppte
Martingale.
Theorem 3.13
T : Ω → [0, ∞)
Der Prozess {Xt , t ≥ 0} sei adaptiert und càdlàg. Wenn
eine endliche Stoppzeit ist, dann gilt
E (Xt | FT ) = XT ∧t
{Xt }
ein Martingal und
∀t ≥ 0.
(34)
Beweis
•
Wir zeigen zunächst, dass
(
)
E Xt | FT (n) = XT (n) ∧t
wobei
{T (n) , n ≥ 1}
die in
(13)
∀ n ≥ 1, t ≥ 0 ,
(35)
eingeführte Folge von diskreten Stoppzeiten ist.
Hierfür sei tk = t und t1 ≤ . . . ≤ tk−1 ≤ t bezeichne die Werte, die die Zufallsvariable
T (n) ∧ t mit positiver Wahrscheinlichkeit annehmen kann.
Dann gilt für jedes
A ∈ FT (n)
(Xt − XT (n) ∧t )1I(A) =
k−1
∑
(Xt − Xti )1I(T (n) ∧ t = ti )1I(A)
i=1
=
k
∑
(Xti − Xti−1 )1I(T (n) ∧ t < ti )1I(A) .
i=2
Hieraus folgt, dass
(
k
)
(
)
∑
E (Xt − XT (n) ∧t )1I(A)
=
E (Xti − Xti−1 )1I(T (n) ∧ t < ti )1I(A)
i=2
=
k
∑
( (
))
E E (Xti − Xti−1 )1I(T (n) ∧ t < ti )1I(A) Fti−1
i=2
=
k
∑
(
(
))
E 1I(T (n) ∧ t < ti )1I(A) E Xti − Xti−1 Fti−1
i=2
= 0,
wobei sich die vorletzte Gleichheit aus der Denitionsgleichung (30) der
FT (n)
und aus Teilaussage 4 von Theorem 3.6 ergibt.
σ Algebra
3 LÉVYPROZESSE UND MARTINGALE
Somit gilt
weil
XT (n) ∧t
eine
113
(
)
(
)
E Xt | FT (n) = E XT (n) ∧t | FT (n) = XT (n) ∧t ,
(
)
FT (n) , B(R) messbare Zufallsvariable ist; vgl. Lemma
FT ⊂ FT (n) ,
3.9.
•
Aus Lemma 3.9 folgt auÿerdem, dass
•
Mit Hilfe der Teilaussage 5 von Theorem 3.6 ergibt sich nun hieraus und aus (35), dass
weil
T ≤ T (n) .
E (Xt | FT ) = E (E (Xt | FT (n) ) | FT ) = E (XT (n) ∧t | FT ) .
•
limn→∞ T (n) ↓ T ,
{XT (n) ∧t , n ≥ 1} gemäÿ
Weil
weil der Prozess
{Xt , t ≥ 0}
càdlàg ist und weil die Folge
Lemma 3.8 gleichgradig integrierbar ist, gilt also
E (Xt | FT ) = lim E (XT (n) ∧t | FT ) = E (XT ∧t | FT ) = XT ∧t ,
n→∞
wobei sich die letzte Gleichheit aus Lemma 3.9 ergibt.
Korollar 3.4
{Xt , t ≥ 0} sei adaptiert und càdlàg. Wenn {Xt } ein Martingal und
beliebige endliche Stoppzeiten mit P (S ≤ T ) = 1 sind, dann gilt
Der Prozess
S, T : Ω → [0, ∞)
E (XT ∧t | FS ) = XS∧t
Insbesondere gilt
E XT ∧t = E X0
∀t ≥ 0.
(36)
∀t ≥ 0.
(37)
Beweis
•
{Xt } ein Martingal. Aus Theorem 3.12
{XT ∧t , t ≥ 0} ebenfalls ein Martingal ist.
Sei
Es ist klar, dass mit
ma 3.9, dass
{XT ∧t }
{Xt }
auch
{XT ∧t }
folgt dann, dass der stochastische Prozess
càdlàg ist. Auÿerdem ergibt sich aus Lem-
adaptiert ist.
Wir können also Theorem 3.13 auf das Martingal
{XT ∧t , t ≥ 0}
anwenden und
erhalten, dass
E (XT ∧t | FS ) = XT ∧(S∧t) = XS∧t
•
wobei sich die letzte Gleichheit aus der Annahme ergibt, dass
Wenn wir die Stoppzeit
X0
∀t ≥ 0,
bzw.
E XT ∧t = E X0
S ≤ T.
S = 0 in (36) einsetzen, dann ergibt sich, dass E (XT ∧t | F0 ) =
t ≥ 0.
für jedes
3.3 Anwendungsbeispiele
Um die in Abschnitt 3.2 dargelegten Begrie und Ergebnisse der Martingaltheorie bei der Untersuchung von LévyProzessen anwenden zu können, benötigen wir noch zwei weitere grundlegende
Eigenschaften von LévyProzessen, die wir hier ohne Beweis angeben.
3 LÉVYPROZESSE UND MARTINGALE
Theorem 3.14
•
Sei
{Xt , t ≥ 0}
114
ein LévyProzess mit den Charakteristiken
Dann gibt es eine càdlàg Modikation
et , t ≥ 0}
{X
LévyProzess ist und zwar mit den gleichen
•
(a, b, ν).
et }
{Xt }, so dass {X
Charakteristiken (a, b, ν) wie {Xt }.
von
Wenn der LévyProzess {Xt , t ≥ 0} càdlàg ist, dann ist die (durch
X
Filtration {Ft , t ≥ 0} rechtsstetig.
{Xt }
ebenfalls ein
erzeugte) natürliche
Ein Beweis von Theorem 3.14 kann zum Beispiel in Applebaum (2004), S. 7477 nachgelesen werden.
Wegen Theorem 3.14 werden wir in den weiteren Abschnitten dieses Skriptes (o.B.d.A.) voraussetzen, das die jeweils betrachteten LévyProzesse càdlàg sind.
3.3.1 Regeneration von LévyProzessen zu Stoppzeiten
{Xt , t ≥ 0} ein
maxt∈[0,1] Xt hergeleitet.
In Theorem 2.22 hatten wir für Fall, dass
Schranke für die Tailfunktion von
(Standard) WienerProzess ist, ein
Im nachfolgenden Abschnitt 3.3.2 werden wir zeigen, dass diese Schranke optimal ist, d.h. mit der
Tailfunktion von
maxt∈[0,1] Xt
übereinstimmt. Hierfür zeigen wir zunächst, dass LévyProzesse zu
endlichen Stoppzeiten die folgende Regenerationseigenschaft besitzen.
Theorem 3.15
•
Sei
{Xt , t ≥ 0} ein LévyProzess über (Ω, F, P ) und sei T
X
Stoppzeit bezüglich der natürlichen Filtration {Ft , t ≥ 0} von
•
Dann ist der Prozess {Yt , t
ist bezüglich der Filtration
: Ω → [0, ∞)
{Xt }.
eine endliche
≥ 0} mit Yt = XT +t −XT ebenfalls ein LévyProzess, der adaptiert
{Gt , t ≥ 0} mit Gt = FTX+t , wobei
der LévyProzess {Yt } unabhängig von FTX ist und
{Yt } die gleiche LévyCharakteristik wie {Xt } hat.
Beweis
•
T : Ω → [0, ∞)
c < ∞.
Wir betrachten zunächst den Fall, dass
d.h., es gelte
P (T < c) = 1
Für beliebige
n≥1
für ein
und
u1 , . . . , un ∈ R
eine beschränkte Stoppzeit ist,
sind dann durch den Ansatz
(j)
Yet = eiuj Xt −tη(uj )
{Yet , t ≥ 0} für jedes j = 1, . . . , n gegeben, wobei
LévyExponent von {Xt } ist; vgl. Beispiel 4 in Abschnitt 3.2.3.
(komplexwertige) Martingale
η:R→C
der
(j)
3 LÉVYPROZESSE UND MARTINGALE
A ∈ FTX
Dann gilt für beliebige
115
und
t0 , t 1 , . . . , t n ≥ 0
mit
t0 < t1 < . . . < tn
n
n
(
∏
( ∑
))
E 1I(A) exp i
uj (XT +tj − XT +tj−1 ) = E 1I(A)
(j)
YeT +tj
(
j=1
j=1
(j)
YeT +tj
n
(
∏
= E 1I(A)
j=1
e(tj −tj−1 )η(uj )
(j)
YeT +tj−1
(j)
YeT +tj
n
( (
∏
= E E 1I(A)
j=1
(j)
YeT +tj−1
(j)
YeT +tj−1
e(T +tj )η(uj ) )
e(T +tj−1 )η(uj )
)
e(tj −tj−1 )η(uj ) | FTX+tn−1
))
,
wobei sich die letzte Gleichheit aus Teilaussage 5 von Theorem 3.6 ergibt.
Aus Lemma 3.9 und aus Teilaussage 4 von Theorem 3.6 ergibt sich nun, dass
n
( (
∏
E E 1I(A)
j=1
(
= E 1I(A)
(j)
YeT +tj
(j)
YeT +tj−1
(n−1
∏
j=1
(
= E 1I(A)
(n−1
∏
j=1
e(tj −tj−1 )η(uj ) | FTX+tn−1
(j)
YeT +tj
(j)
YeT +tj−1
(j)
YeT +tj
(j)
YeT +tj−1
e(tj −tj−1 )η(uj )
))
) e(tn −tn−1 )η(un ) (
))
e (n) | FTX+t
E
Y
T +tn
n−1
(n)
Ye
T +tn−1
)
)
e(tj −tj−1 )η(uj ) e(tn −tn−1 )η(un ) ,
weil aus dem optionalen SamplingTheorem in Korollar 3.4 folgt, dass
( (n)
)
(n)
E YeT +tn | FTX+tn−1 = YeT +tn−1 ,
wobei der Zeitpunkt
c + tn ≤ t.
t ≥ 0 in der Formel (36) des Korollars 3.4 so zu wählen ist, dass
Durch Iteration dieser Überlegungen ergibt sich dann insgesamt, dass
n
n
(
(
( ∑
))
( ∑
))
E 1I(A) exp i
uj (Ytj − Ytj−1 ) = E 1I(A) exp i
uj (XT +tj − XT +tj−1 )
j=1
=
P (A)
n
∏
j=1
e(tj −tj−1 )η(uj )
n
( ∑
))
= P (A) E exp i
uj (Xtj − Xtj−1 ) ,
j=1
(
j=1
d.h., für beliebige
A ∈ FTX
und
t 0 , t1 , . . . , t n ≥ 0
mit
t0 < t 1 < . . . < t n
gilt
n
n
(
(
( ∑
))
( ∑
))
E 1I(A) exp i
uj (Ytj − Ytj−1 ) = P (A) E exp i
uj (Xtj − Xtj−1 ) .
j=1
•
(1)
j=1
Wir zeigen nun, dass (1) auch für endliche (nicht notwendig beschränkte) Stoppzeiten
gilt.
Sei also
T : Ω → [0, ∞)
eine beliebige endliche Stoppzeit.
3 LÉVYPROZESSE UND MARTINGALE
116
Man kann sich leicht überlegen, dass dann
X
und A ∈ FT .
A ∩ {T ≤ k} ∈ FTX∧k
für beliebige
k≥1
Somit ergibt sich aus (1), dass
n
n
(
(
))
))
( ∑
( ∑
uj (Xtj − Xtj−1 ) ,
E 1I(Ak ) exp i
uj (Yk,tj − Yk,tj−1 ) = P (Ak ) E exp i
j=1
j=1
(2)
wobei
Ak = A ∩ {T ≤ k}
Yk,t = X(T ∧k)+t − XT ∧k .
k → ∞ auf beiden Seiten von
und
Durch Grenzübergang für
(2) ergibt sich nun mit
Hilfe des Satzes von Lebesgue über die majorisierte Konvergenz, dass (1) auch für
beliebige endliche Stoppzeiten gilt.
•
Für A = Ω
{Xt } ist.
•
Auÿerdem ergibt sich aus Lemma 3.9, dass der LévyProzess
X
der Filtration {Gt , t ≥ 0} mit Gt = FT +t .
•
Es bleibt also noch zu zeigen, dass
•
folgt aus (1), dass
{Yt }
ein LévyProzess mit der gleichen Verteilung wie
{Yt }
unabhängig von
ist, d.h., dass
t1 , . . . , tn von nichtnegativen Zahlen und für beliebige B1 , . . . , Bn ∈
A ∈ FTX
−1
−1
Ereignisse Yt (B1 ) ∩ . . . ∩ Yt (Bn ) und A unabhängig sind.
1
n
für jede Folge
B(R)
die
und
Hierfür betrachten wir die bedingte Verteilung
PYt1 ,...,Ytn |FTX : B(Rn ) × Ω → [0, 1]
(
)
PYt1 ,...,Ytn |FTX (B, ω) = P (Yt1 , . . . , Ytn )−1 (B) | FTX (ω)
wobei
FTX
{Yt } adaptiert ist bezüglich
mit
∀ B ∈ B(Rn ), ω ∈ Ω ,
(3)
P (A | FTX ) = E (1I(A) | FTX ).
Man kann sich leicht überlegen, dass (3) impliziert, dass mit Wahrscheinlichkeit
(
)
E g(Yt1 , . . . , Ytn ) | FTX (ω) =
1
∫
Rn
g(y) PYt1 ,...,Ytn |FTX (dy, ω)
(4)
g : Rn → C mit E g(Yt1 , . . . , Ytn ) < ∞.
X
beliebige A ∈ FT und t1 , . . . , tn ≥ 0
für jede Borelmessbare Funktion
Auÿerdem folgt aus (1), dass für
n
n
(
(
( ∑
))
( ∑
))
E 1I(A) exp i
uj Ytj = P (A) E exp i
uj Ytj .
j=1
Hieraus und aus (4) ergibt sich, dass die charakteristischen Funktionen von
und
PYt1 ,...,Ytn
mit Wahrscheinlichkeit
1
übereinstimmen.
PYt1 ,...,Ytn |FTX
Aus dem Eindeutigkeitssatz für charakteristische Funktionen folgt nun, dass auch die
Verteilungen
j=1
PYt1 ,...,Ytn |FTX
und
PYt1 ,...,Ytn
mit Wahrscheinlichkeit
1 übereinstimmen.
Dies ist gleichbedeutend damit, dass für beliebige B1 , . . . , Bn ∈ B(R) und
−1
−1
die Ereignisse Yt (B1 ) ∩ . . . ∩ Yt (Bn ) und A unabhängig sind.
1
n
A ∈ FTX
3 LÉVYPROZESSE UND MARTINGALE
117
3.3.2 Reexionsprinzip des WienerProzesses; Verteilung des Maximums
Mit Hilfe von Theorem 3.15 leiten wir nun das folgende Reexionsprinzip des WienerProzesses her;
vgl. hierzu Abb. 15. Es betrit eine weitere Invarianzeigenschaft des WienerProzesses (zusätzlich
zu den bereits in Theorem 2.23 hergeleiteten Eigenschaften dieses Typs).
Theorem 3.16
•
Sei
{Xt , t ≥ 0} ein (Standard) WienerProzess über
endliche Stoppzeit bezüglich der natürlichen Filtration
•
Dann hat
{Xt }
(Ω, F, P ) und sei T : Ω → [0, ∞)
{FtX , t ≥ 0} von {Xt }.
die gleiche Verteilung wie der reektierte Prozess
{Yt , t ≥ 0}
eine
mit
Yt = XT ∧t − (Xt − XT ∧t ) ,
d.h.,
{Yt }
(5)
ist ebenfalls ein (Standard) WienerProzess.
Beweis
•
Die stochastischen Prozesse
{Xt′ , t ≥ 0}
Xt′ = XT ∧t
•
und
bzw.
et , t ≥ 0}
{X
seien gegeben durch
et = XT +t − XT .
X
Aus Theorem 3.15 folgt dann, dass
{Xet } ein WienerProzess ist, der unabhängig von (T, {Xt′ }) ist.
d
et }.
{−X
Auÿerdem ergibt sich aus Teilaussage 1 von Theorem 2.23, dass {Xet } =
Insgesamt gilt also
(
•
) d (
)
et } =
et } .
T, {Xt′ }, {X
T, {Xt′ }, −{X
(6)
Es genügt nun zu beachten,
e(t−T )
Xt = Xt′ + X
+
max{x, 0}.
dass
D.h.,
Wegen (6) gilt somit
und
e(t−T )
Yt = Xt′ − X
+
für jedes
t ≥ 0,
wobei
x+ =
)
)
(
(
et } .
et } bzw. T, {Xt′ }, −{X
Xt bzw. Yt sind messbare Abbildungen von T, {Xt′ }, {X
d
{Xt } = {Yt }.
Beachte
•
Sei
{Xt , t ≥ 0}
ein WienerProzess. Die natürliche Filtration
{FtX , t ≥ 0}
von
{Xt }
ist
dann gemäÿ Theorem 3.14 rechtsstetig.
•
0 : Xt = z}
•
X
z > 0 die Ersterreichungszeit T{z}
= min{t ≥
{FtX } ist.
Aus Theorem 3.7 folgt somit, dass für jedes
eine Stoppzeit bezüglich
Auÿerdem ergibt sich aus Korollar 2.5, dass
Stoppzeit.
X
X
P (T{z}
< ∞) = 1, d.h., T{z}
ist eine endliche
3 LÉVYPROZESSE UND MARTINGALE
118
Abbildung 15: Reexionsprinzip des Wiener Prozesses
Die Anwendung von Theorem 3.16 auf die Ersterreichungszeit
Identität.
Korollar 3.5
Sei
{Xt , t ≥ 0}
ein WienerProzess und sei
mit
s∈[0,t]
y≥0
und
führt nun zu der folgenden
{Mt , t ≥ 0}
der MaximumProzess
∀t ≥ 0.
Mt = max Xs
Dann gilt für beliebige
X
T{z}
(7)
z>0
P (Xt < z − y, Mt ≥ z) = P (Xt > y + z) .
(8)
Beweis
•
Die in (7) betrachtete Abbildung
weil die Trajektorien von
{Xt }
Mt : Ω → [0, ∞) ist eine wohldenierte Zufallsvariable,
stetige Funktionen sind, vgl. auch die Formel (24) in
Abschnitt 2.4.5.
Für die endliche Stoppzeit
Theorem 3.16, dass
X
T = T{z}
= min{t ≥ 0 : Xt = z}
d
{Xt } = {Yt }
wobei
die Ersterreichungszeit des Niveaus
in (5) eingeführten WienerProzess
( X
) d ( Y
)
T{z} , {Xt } = T{z}
, {Yt } ,
bzw.
Y
T{z}
= min{t ≥ 0 : Yt = z}
ergibt sich dann aus
{Yt }
durch den
Hieraus folgt, dass
X
Y
P (T{z}
≤ t, Xt < z − y) = P (T{z}
≤ t, Yt < z − y) ,
•
z
ist.
Weil auÿerdem
X
Y
T{z}
(ω) = T{z}
(ω)
für jedes
ω ∈ Ω,
ergibt sich aus (5), dass
Y
X
{T{z}
≤ t} ∩ {Yt < z − y} = {T{z}
≤ t} ∩ {2z − Xt < z − y} .
(9)
3 LÉVYPROZESSE UND MARTINGALE
119
Hieraus und aus (9) folgt nun, dass
X
X
X
P (T{z}
≤ t, Xt < z − y) = P (T{z}
≤ t, 2z − Xt < z − y) = P (T{z}
≤ t, Xt > z + y) .
Damit ist die Behauptung (8) beweisen, weil oenbar
X
P (T{z}
≤ t, Xt > z + y) = P (Xt > z + y)
und
X
P (T{z}
≤ t, Xt < z − y) = P (Mt ≥ z, Xt < z − y) .
Mit Hilfe von Korollar 3.5 können wir nun zeigen, dass die in Theorem 2.22 hergeleitete Schranke für die Tailfunktion von
Mt = maxs∈[0,t] Xs
optimal ist, d.h. mit der Tailfunktion von
Mt
übereinstimmt.
Theorem 3.17
Sei
{Xt , t ∈ [0, 1]}
ein WienerProzess. Dann gilt für beliebige
√
P (Mt > x) =
2
πt
∫
∞
e−y
2
/2t
t>0
und
x≥0
dy .
(10)
x
Beweis
•
•
Für
y=0
ergibt sich aus Korollar 3.5, dass
P (Xt < z, Mt ≥ z) = P (Xt > z).
Wenn wir nun auf beiden Seiten dieser Gleichung die Wahrscheinlichkeit
addieren und dabei berücksichtigen, dass
P (Mt ≥ z) = 2 P (Xt > z)
P (Xt = z) = 0 für
z) = 0 für jedes z ≥ 0.
weil
{Xt > z} = {Xt > z, Mt ≥ z},
bzw.
∀z ≥ 0,
P (Mt > z) = 2 P (Xt > z)
die (normalverteilte) Zufallsvariable
Xt
P (Xt > x)
ergibt sich
und somit auch
P (Mt =
3.3.3 WienerProzesse mit negativer Drift
Sei
{Xt , t ≥ 0}
ein (Standard) WienerProzess und für
µ>0
sei
{Yt , t ≥ 0}
mit
Yt = Xt − tµ
ein
WienerProzess mit negativer Drift.
supt≥0 Yt , wobei P (supt≥0 Yt ≥
über dem unendlichen Zeithorizont [0, ∞) aufgefasst
Wir beweisen nun eine Formel für die Tailfunktion des Supremums
x) für jedes x ≥ 0 als Ruinwahrscheinlichkeit
werden kann.
Dabei zeigen wir insbesondere, dass die Schranke für
P (supt≥0 Yt ≥ x)
exakt ist, die wir bereits
in Formel (27) des Abschnittes 3.2.5 hergeleitet hatten.
Theorem 3.18
Sei
{Xt , t ≥ 0} ein WienerProzess. Dann gilt für beliebige µ > 0
(
)
P sup Yt > x = e−2µx ,
wobei Yt = Xt − tµ.
t≥0
und
x≥0
(11)
3 LÉVYPROZESSE UND MARTINGALE
120
Beweis
•
Für beliebige
u, x ≥ 0
betrachten wir das Martingal
{euYt −t(u
2
/2−µu)
, t ≥ 0}
und die
(endliche) Stoppzeit
T{x} ∧ t = inf{s ≥ 0 : Ys = x} ∧ t
•
∀t ≥ 0.
u, t, x ≥ 0
(
)
E exp uYT{x} ∧t − (T{x} ∧ t)(u2 /2 − µu) = E euY0 = 1
Aus Korollar 3.4 ergibt sich dann, dass für beliebige
bzw.
[
(
)
]
[
(
)
]
E exp ux − T{x} (u2 /2 − µu) ; T{x} < t + E exp uYt − t(u2 /2 − µu) ; T{x} ≥ t = 1 .
(12)
•
Weil aus Korollar 2.4 folgt, dass
u ≥ 2µ
limt→∞ Yt = −∞ mit Wahrscheinlichkeit 1, gilt für jedes
(
(
) (
))
lim exp uYt − t(u2 /2 − µu) 1I T{x} ≥ t = 0
t→∞
mit Wahrscheinlichkeit
•
1.
Auÿerdem gilt
(
) (
)
(
) (
)
exp uYt − t(u2 /2 − µu) 1I T{x} ≥ t ≤ exp ux − t(u2 /2 − µu) 1I T{x} ≥ t , ≤ eux
wobei der letzte Ausdruck eine (bezüglich
•
P)
integrierbare Majorante ist.
Aus dem Satz von Lebesgue über die majorisierte Konvergenz folgt also, dass für jedes
u ≥ 2µ
[
(
)
]
lim E exp uYt − t(u2 /2 − µu) ; T{x} ≥ t = 0 .
t→∞
•
Hieraus und aus (12) ergibt sich nun, dass
[
(
)
]
e−ux = E exp −T{x} (u2 /2 − µu) ; T{x} < ∞
•
Insbesondere ergibt sich für
u = 2µ,
Damit gilt auch
x≥0
(
)
< ∞) = P sup Yt ≥ x .
dass für jedes
e−2µx = P (T{x}
•
∀ u ≥ 2µ .
(
)
P supt≥0 Yt > x = e−2µx
t≥0
für jedes
x ≥ 0.
3 LÉVYPROZESSE UND MARTINGALE
121
3.3.4 Subordinatoren als Prozesse von Ersterreichungszeiten
In diesem Abschnitt diskutieren wir zwei weitere Beispiele, bei dem Theorem 3.16 auf die ErsterreiX
chungszeit T{z} = min{t ≥ 0 : Xt = z} des (Standard) WienerProzesses {Xt , t ≥ 0} angewendet
wird; z ≥ 0.
{Yt , t ≥ 0} heiÿt αstabiler LévyProzess
ν gegeben ist durch

1
α


dy für y > 0,
1+α
Γ(1 − α) y
ν(dy) =

 0
für y ≤ 0,
Zur Erinnerung: Ein Subordinator
α ∈ (0, 1),
wobei
wenn
α ∈ (0, 1)
a=b=0
und
mit Stabilitätsindex
und das LévyMaÿ
Γ : (0, ∞) → (0, ∞) die Gammafunktion bezeichnet
∫ ∞
Γ(p) =
e−y y p−1 dy ,
∀p > 0.
(13)
mit
0
Beachte
•
In Formel (41) des Abschnittes 3.1.4 hatten wir gezeigt, dass in diesem Fall
E e−uYt = e−tu
α
•
Der
αstabile
LévyProzess
{Yt }
mit
∀ t, u ≥ 0 .
α = 1/2
(14)
wird manchmal LévySubordinator ge-
nannt.
Theorem 3.19
Sei
zeiten
mit
{Tt , t ≥ 0}
{Xt , t ≥ 0}
ein WienerProzess. Dann ist der Prozess der Ersterreichungs-
√
Tt = min{s ≥ 0 : Xs = t/ 2}
(15)
ein LévyProzess, der die gleiche Verteilung wie der LévySubordinator hat.
Beweis
•
Wir zeigen zunächst, dass der in (15) gegebene Prozess
Oenbar gilt
{Tt }
ein LévyProzess ist.
T0 = 0.
Aus Theorem 3.15 folgt, dass
{Tt }
unabhängige und stationäre Zuwächse hat.
ε>0
√ )
lim P (Tt > ε) = lim P max Xs < t/ 2 = 0 ,
Auÿerdem ergibt sich aus Theorem 3.17, dass für jedes
(
t→0
d.h.,
{Tt }
ist stochastisch stetig.
t→0
s∈[0,ε]
3 LÉVYPROZESSE UND MARTINGALE
•
122
Es ist nun noch zu zeigen, dass (14) gilt mit
α = 1/2.
Dabei können wir ähnlich wie im Beweis von Theorem 3.18 vorgehen.
t, u ≥ 0 und n ≥ 1 betrachten wir das Martingal {euXs −su /2 , s ≥ 0}
X
und die Stoppzeit Tt ∧ n bezüglich der natürlichen Filtration {Fs , s ≥ 0} von {Xs }.
Aus Korollar 3.4 ergibt sich dann, dass für beliebige t, u ≥ 0 und n ≥ 1
(
)
E exp uXTt ∧n − (Tt ∧ n)u2 /2 = E euX0 = 1
2
Für beliebige
bzw.
[
( √
)
]
[
(
)
]
E exp ut/ 2 − Tt u2 /2 ; Tt < n + E exp uXn − nu2 /2 ; Tt ≥ n = 1 .
√
Weil P (Tt < ∞) = 1 und weil Xn ≤ t/ 2, wenn Tt ≥ n, ergibt sich genauso
(16)
wie im
Beweis von Theorem 3.18, dass
[
(
)
]
lim E exp uXn − nu2 /2 ; Tt ≥ n = 0
n→∞
∀ t, u ≥ 0 .
Hieraus und aus (16) folgt, dass
( √
)
E exp ut/ 2 − Tt u2 /2 = 1
u′ = u2 /2
(√
)
E exp t u − Tt u = 1
∀ t, u ≥ 0
bzw. mit der Substitution
∀ t, u ≥ 0 .
Wir verallgemeinern nun das Modell von Theorem 3.19 und betrachten Prozesse von Ersterreichungszeiten für WienerProzesse mit Drift.
Theorem 3.20 Sei {Xt , t ≥ 0} ein WienerProzess. Für beliebige
Prozess der Ersterreichungszeiten {Tt , t ≥ 0} mit
µ∈R
und
δ>0
Tt = min{s ≥ 0 : Xs + µs = δt}
ein LévyProzess, wobei
√
(
)
E e−uTt = exp −tδ( 2u + µ2 − µ
ist dann der
(17)
∀ t, u ≥ 0 .
(18)
Der Beweis von Theorem 3.20 verläuft ähnlich wie der Beweis von Theorem 3.19. Er wird deshalb
weggelassen.
Beachte
•
Tt mit der in (18) gegebenen
x≥0
Für die in Theorem 3.20 betrachteten Ersterreichungszeiten
LaplaceTransformierten kann man zeigen, dass für jedes
δt δtµ
e
P (Tt ≤ x) = √
2π
∫
0
x
( 1
)
y −3/2 exp − (t2 δ 2 y −1 + µ2 y) dy .
2
(19)
3 LÉVYPROZESSE UND MARTINGALE
•
123
Man sagt, dass Zufallsvariablen mit der in (19) gegebenen Verteilungsfunktion eine in-
verse GauÿVerteilung besitzen.
Die in den Theoremen 3.19 bzw. 3.20 betrachteten Subordinatoren
{Tt , t ≥ 0} spielen eine wichtige
Rolle bei der Zeitransformation von LévyProzessen.
Es gilt nämlich die folgende InvarianzEigenschaft von LévyProzessen, die wir hier ohne Beweis
angeben.
Theorem 3.21
•
Sei
{Xt , t ≥ 0} ein LévyProzess und sei {Yt , t ≥ 0} ein Subordinator, der über dem gleichen
Wahrscheinlichkeitsraum (Ω, F, P ) wie {Xt } gegeben ist.
•
Wenn
{Xt }
und
{Yt }
unabhängig sind, dann ist der Prozess
Zt (ω) = XYt (ω) (ω)
{Zt , t ≥ 0}
mit
∀ω ∈ Ω
ebenfalls ein LévyProzess.
Ein Beweis von Theorem 3.21 kann zum Beispiel in Applebaum (2004), S. 5355 nachgelesen werden.
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
124
4 Stochastische Prozesse mit allgemeineren Indexmengen
In diesem Kapitel betrachten wir Beispiele von stochastischen Prozessen bzw. zufälligen Feldern
{Xt , t ∈ I}, für die die Indexmenge I
d
Raum R für d ≥ 2 ist.
R oder der ddimensionale euklidische
die gesamte reelle Achse
Darüber hinaus werden wir auch den Fall diskutieren, dass
wobei
I
dann eine
σ Algebra
{Xt , t ∈ I}
ein zufälliges Maÿ ist,
ist. Dabei betrachten wir insbesondere stochastische Prozesse mit
stationären Zuwächsen bzw. stationäre zufällige Maÿe.
4.1 Zählprozesse im R1
Wir modizieren das in Abschnitt 2.1 eingeführte Konzept von Zählprozessen
{Nt , t ≥ 0}
dahinge-
hend, dass wir Zählprozesse mit Vergangenheit betrachten, d.h., die in Abschnitt 2.1 betrachteten
Ereigniszeitpunkte
Achse
R
Sn
liegen jetzt nicht nur in
[0, ∞),
sondern sie sind auf der gesamten reellen
verteilt.
Denition
•
Sei
(Ω, F, P )
ein beliebiger Wahrscheinlichkeitsraum, und sei
eine (monotone) Folge von reellwertigen Zufallsvariablen über
S0 ≤ 0 < S1 < S2 < . . .,
so dass mit Wahrscheinlichkeit
lim Sn = ∞
n→∞
•
und
{Sn , n = 0, ±1, ±2, . . .}
(Ω, F, P ) mit . . . S−1 <
1
lim Sn = −∞ .
n→−∞
{Nt , t ∈ R} mit

∑∞

k=1 1I(Sk ≤ t)
Nt =
 − ∑0
k=−∞ 1I(Sk > t)
Der stochastische Prozess
wird Zählprozess genannt. Die Zufallsvariablen
Sn
für
t ≥ 0,
für
t < 0,
(1)
heiÿen Ereigniszeitpunkte.
Beachte
•
Der in (1) gegebene Zählprozess
{Nt , t ∈ R}
ist càdlàg und hat stückweise konstante
Trajektorien, deren Unstetigkeitsstellen die Ereigniszeitpunkte
für
•
t≥0
und
Nt ≤ 0
für
Sn sind. Dabei gilt Nt ≥ 0
t < 0.
Durch den Ansatz
NB = #{n : Sn ∈ B}
ist dann ein zufälliges Zählmaÿ
{NB , B ∈ B(R)}
∀ B ∈ B(R)
über
(Ω, F, P )
(2)
gegeben.
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
125
Denition
•
{Nt , t ∈ R} stationäre Zuwächse hat, wenn für beliet0 , . . . , tn ∈ R mit t0 ≤ . . . ≤ tn die Verteilungen der Zufallsvektoren (Nt1 +h −
Nt0 +h , . . . , Ntn +h − Ntn−1 +h ) nicht von h > 0 abhängen.
Man sagt, dass der Zählprozess
bige
•
ist,
wenn die Zufallsvariablen
mit
t0 ≤ . . . ≤ tn
•
{Nt , t ∈ R} ein Prozess mit unabhängigen Zuwächsen
(Nt1 − Nt0 , . . . , Ntn − Ntn−1 ) für beliebige t0 , . . . , tn ∈ R
Auÿerdem sagt man, dass
unabhängig sind.
Das zufällige Zählmaÿ
B(R)
und
h∈R
{NB , B ∈ B(R)} heiÿt stationär, wenn für beliebige B1 , . . . , Bn ∈
(NB1 +h , . . . , NBn +h ) nicht von h
die Verteilungen der Zufallsvektoren
abhängen.
Theorem 4.1
B(R)}
{Nt , t ∈ R} ein Zählprozess über (Ω, F, P ), und das Zählmaÿ {NB , B ∈ B(R)}
(2). Der Prozess {Nt , t ∈ R} hat genau dann stationäre Zuwächse, wenn {NB , B ∈
Sei
sei gegeben durch
stationär ist.
Beweis
•
{NB , B ∈ B(R)} stationär ist, dann gilt für beliebige h ∈ R
t0 ≤ . . . ≤ tn
Wenn das zufällige Zählmaÿ
und
t0 , . . . , tn ∈ R
mit
(Nt1 +h − Nt0 +h , . . . , Ntn +h − Ntn−1 +h ) = (N(t1 ,t2 ]+h , . . . , N(tn−1 ,tn ]+h )
d
=
(N(t1 ,t2 ] , . . . , N(tn−1 ,tn ] ) = (Nt1 − Nt0 , . . . , Ntn − Ntn−1 ) ,
d.h., der Zählprozess
•
Sei nun umgekehrt
{Nt , t ∈ R}
{Nt , t ∈ R}
hat stationäre Zuwächse.
ein Zählprozess mit stationären Zuwächsen.
Dann ist das Mengensystem
G ⊂ B(R)
derjenigen BorelMengen
B ∈ B(R),
für die
d
NB+h = NB
h ∈ R gilt, ein sogenanntes dSystem,
(t2 , t1 ] enthält, vgl. Abschnitt WR-3.2.3.
für jedes
Form
dass die Familie aller Intervalle der
Aus dem Satz über monotone Klassen (vgl. Theorem WR-3.2) ergibt sich nun, dass
Auf ähnliche Weise kann man zeigen, dass
G = B(R).
d
(NB1 +h , . . . , NBn +h ) = (NB1 , . . . , NBn )
für jedes
gilt.
n ≥ 1,
für beliebige BorelMengen
B1 , . . . , Bn ∈ B(R)
und für jedes
h∈R
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
126
4.1.1 Homogener PoissonProzess
In diesem Abschnitt betrachten wir zunächst den Fall, dass die Zwischenankunftszeiten
Sn − Sn−1
zwischen den aufeinanderfolgenden Ereigniszeitpunkten
Tn =
S1 , S 2 , . . .
•
eine Folge {Tn , n ≥ 2} von unabhängigen und identisch verteilten Zufalllsvariablen bilden mit
Tn ∼ Exp(λ) für ein λ > 0.
•
Auÿerdem sei
•
S1
unabhängig von
Dann ist der Zählprozess
Prozess in
[0, ∞)
{Tn , n ≥ 2},
und es gelte
∑∞
S1 ∼ Exp(λ).
{Nt , t ≥ 0} mit Nt = k=1 1I(Sk ≤ t)
λ; vgl. Abschnitt 2.2.1.
ein (homogener) Poisson
mit der Intensität
Wir zeigen, wie der Zählprozess
auf der gesamten reellen Achse
{Nt , t ≥ 0} auf einfache Weise zu einem Zählprozess {Nt , t ∈ R}
R fortgesetzt werden kann, so dass {Nt , t ∈ R} stationäre und
unabhängige (poissonverteilte) Zuwächse hat.
Theorem 4.2
Sei
Zufallsvariablen mit
Dann hat der in
|Nt | ∼ Poi(|t|λ)
(1)
{Tn , n = 0, ±1, ±2, . . .} eine Folge von unabhängigen
Tn ∼ Exp(λ) für ein λ > 0. Auÿerdem sei

∑n

für n ≥ 1,

k=1 Tk
Sn =

 ∑0
− k=n Tk für n ≤ 0.
gegebene Zählprozess
für jedes
t ∈ R.
{Nt , t ∈ R}
und identisch verteilten
(3)
stationäre und unabhängige Zuwächse, wobei
Beweis
•
Für jedes
t≥0
sei
Nt′ = −N−t .
Mit Hilfe von Theorem 2.9 ergibt sich dann aus (1) und
(3), dass
die stochastischen Prozesse
{Nt , t ≥ 0}
und
{Nt′ , t ≥ 0}
stationäre und unabhängige
Zuwächse besitzen,
•
wobei
Nt ∼ Exp(tλ)
und
Nt′ ∼ Exp(tλ)
für jedes
t ≥ 0.
Auÿerdem ergibt sich aus (1) und (3), dass
die beiden Prozesse
{Nt , t ≥ 0}
und
{Nt′ , t ≥ 0}
unabhängig sind.
Hieraus und aus der Faltungsstabilität der PoissonVerteilung ergibt sich insbesondere, dass
(
)
′
Nt2 − Nt1 = Nt2 + N−t
∼ Poi (t2 − t1 )λ
1
•
t0 , . . . , tn ∈ R mit t0 ≤ . . . ≤ tn und für h > 0 die
(Nt1 +h − Nt0 +h , . . . , Ntn +h − Ntn−1 +h ) unabhängige
ihre Verteilungen nicht von h abhängen.
Damit ist klar, dass für beliebige
Komponenten der Zufallsvektoren
Zufallsvariablen sind und dass
∀ t1 < 0, t2 > 0 .
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
127
Beachte
•
Manchmal wird die in (3) eingeführte Folge von Ereigniszeitpunkten
modiziert, dass der Ereignispunkt
variablen
Sn
für
n ̸= 0
{Sn }
dahingehend
zusätzlich hinzufügt wird und die Zufalls-
deniert werden durch


Sn =
•
S0 = 0
∑n
k=1 Tk
 − ∑0
k=n+1 Tk
Dann bilden die Zwischenankunftszeiten
für
n ≥ 1,
für
n < 0.
Tn = Sn − Sn−1
(4)
eine stationäre Folge
{Tn }
von
unabhängigen und identisch (exponentiell) verteilten Zufallsvariablen.
•
Andererseits sieht man leicht, dass der in (1) gegebene Zählprozess
Fall keine stationären Zuwächse hat, denn wegen
lim(N0 − Nt ) = − lim Nt = 1
t↑0
t↑0
S0 = 0
{Nt , t ∈ R} in diesem
gilt
lim(Nt − N0 ) = lim Nt = 0 .
und
t↓0
t↓0
Das folgende Resultat zeigt,
•
wie sich das in (4) betrachtete Modell eines (inhomogenen) Zählprozesses vom PoissonTyp
durch Grenzübergang aus einer bedingten Version des in (3) eingeführten Modells des homogenen PoissonProzesses ergibt.
•
Dabei wird das letztere Modell unter der Bedingung betrachtet, dass in einer (kleinen)
ε
Umgebung des Nullpunktes ein Ereigniszeitpunkt liegt.
Hierfür benötigen wir die folgenden Bezeichnungen. Sei
t 1 , t2 ∈ R
sei
Nt1 ,t2

 N −N ,
t2
t1
=
 N −N ,
t1
t2
Tmin = min{T0 , T1 },
falls
t1 ≤ t2 ,
falls
t1 > t 2 .
und für beliebige
Theorem 4.3
•
Sei
{Nt , t ∈ R} der in Theorem
hängigen Zuwächsen.
•
′
′
′
Auÿerdem sei {Nt , t ∈ R} ein Zählprozess mit S0 = 0, dessen Zwischenankunftszeiten Tn =
′
′
Sn − Sn−1 eine stationäre Folge von unabhängigen und identisch verteilten Zufallsvariablen
′
bilden mit Tn ∼ Exp(λ).
•
Dann gilt für jedes
k1 , . . . , kn ≥ 0
n = 1, 2, . . .,
P (Nt′1 ≤ k1 , . . . , Nt′n ≤ kn )
4.2
betrachtete PoissonProzess mit stationären und unab-
für beliebige t1 , . . . , tn
∈R
mit t1
≤ . . . ≤ tn
und für beliebige
( (
)
= lim P Nt1 −T0 ,−T0 ≤ k1 , . . . , Ntn −T0 ,−T0 ≤ kn , T0 < T1 | Tmin ≤ ε
ε↓0
(
))
+P Nt1 +T1 ,T1 ≤ k1 , . . . , Ntn +T1 ,T1 ≤ kn , T0 > T1 | Tmin ≤ ε . (5)
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
128
Beweis
•
Wir zeigen die Gültigkeit von (5) nur für
n = 1.
Für beliebige
Auf die gleiche Weise ergibt sich, dass für
t ≥ 0 und k ≥ 0 gilt dann
( (
)
(
))
lim P Nt−T0 ,−T0 ≤ k, T0 < T1 | Tmin ≤ ε + P Nt+T1 ,T1 ≤ k, T0 > T1 | Tmin ≤ ε
ε↓0
( (
)
= lim P T0 + . . . + Tk+1 > t, T0 < T1 | Tmin ≤ ε
ε↓0
(
))
+P T2 + . . . + Tk+2 > t, T0 > T1 | Tmin ≤ ε
( P (T ≤ ε)
(
)
0
= lim
P T0 + . . . + Tk+1 > t, T0 < T1 | T0 ≤ ε
ε↓0 P (Tmin ≤ ε)
( P (T ≤ ε)
(
))
1
+ lim
P T2 + . . . + Tk+2 > t, T0 > T1 | T1 ≤ ε
ε↓0 P (Tmin ≤ ε)
(
) 1 (
)
1
=
P T1 + . . . + Tk+1 > t + P T2 + . . . + Tk+2 > t
2(
2
)
= P T1 + . . . + Tk+1 > t = P (Nt′ ≤ k) .
t < 0 und k ≥ 0
( (
)
(
))
lim P Nt−T0 ,−T0 ≤ k, T0 < T1 | Tmin ≤ ε +P Nt+T1 ,T1 ≤ k, T0 > T1 | Tmin ≤ ε = P (Nt′ ≤ k) .
ε↓0
•
Die Gültigkeit von (5) für
n≥2
ergibt sich durch ähnliche Überlegungen.
4.1.2 Allgemeines Konstruktionsprinzip für Zählprozesse mit stationären Zuwächsen
•
Der am Ende von Abschnitt 4.1.1 erwähnte Zuhammenhang
zwischen (Poissonschen) Zählprozessen mit stationären Zuwächsen und stationären Folgen von (unabhängigen und exponentiell verteilten) Zwischenankunftszeiten
•
kann als Spezialfall eines wesentlich allgemeineren Szenarios aufgefasst werden.
Dabei gehen wir nun umgekehrt vor und setzen voraus,
dass
S0 = 0
gilt und
dass die Zwischenankunftszeiten
eigniszeitpunkten
Sn−1
und
Sn
Tn = Sn − Sn−1
zwischen den aufeinanderfolgenden Er-
eine beliebige stationäre Folge
{Tn } von (nichtnotwendig
unabhängigen) positiven Zufallsvariablen über einem gewissen Wahrscheinlichkeitsraum
(Ω, F, P )
bilden.
Es gelte also
d
{Tn } = {Tn+1 }
und damit auch
d
{Tn } = {Tn+n0 }
für jede natürliche Zahl
(6)
n0 ≥ 1 .
Auÿerdem setzen wir in diesem
Abschnitt lediglich voraus, dass
0 < µ = E Tn < ∞ .
(7)
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
129
Beachte
•
Es ist klar, dass die Invarianzeigenschaft (6) insbesondere dann gilt, wenn
{Tn }
eine
Folge von unabhängigen und identisch verteilten Zufallsvariablen ist.
•
Weitere Beispiele von stationären Folgen
{Tn },
die nicht aus unabhängigen Zufallsva-
riablen bestehen, lassen sich mit Hilfe der Sprungzeitpunkte von reversiblen Markow
Prozessen konstruieren, die ihre Werte in dem endlichen Zustandsraum
annehmen, wobei
ℓ>1
E = {1, . . . , ℓ}
eine beliebige, jedoch vorgegebene natürliche Zahl ist; vgl. Ab-
schnitt 4.1.4.
{Tn } von positiven Zufallsvariablen
e F,
e Pe) und einen Zählprozess {N
et , t ∈ R} über
(Ω, F, P ) einen Wahrscheinlichkeitsraum (Ω,
e F,
e Pe) konstruieren kann, so dass {N
et } stationäre Zuwächse hat.
(Ω,
Wir zeigen nun, wie man ausgehend von einer stationären Folge
über
Hierfür führen wir zunächst einige Bezeichnungen ein.
•
K =
•
und mit
B(K) =
⊗∞
Die Verteilung von
n=−∞
{Tn }
B(0, ∞)
über
die
σ Algebra
(K, B(K))
der BorelMengen in
{Tn }
K.
Q.
bezeichnen wir mit
Auÿerdem betrachten wir den Verschiebungsoperator
Weil
U
U:K→K
mit
U({tn }) = {tn−1 }.
{Tn } stationär ist, ergibt sich aus (6), dass die Verteilung Q von {Tn } invariant bezüglich
ist, d.h., es gilt
wobei
•
∏∞
n=−∞ (0, ∞) bezeichnen wir den Produktraum, in dem die zufällige Folge
ihre Werte annimmt,
Mit
Q(U(B)) = Q(B)
{
}
U(B) = U(t) : t = {tn } ∈ B .
Ausgehend von der folgenstationären Verteilung
∀ B ∈ B(K) ,
(8)
Q über (K, B(K)), die die Invarianzeigenet , t ∈ R} mit stationären Zuwächsen
{N
schaft (8) besitzt, kann man nun einen Zählprozess
konstruieren.
Hierfür sei
L
die Menge aller Folgen
s = {sn , n = 0, ±1, ±2, . . .}
. . . s−1 < s0 ≤ 0 < s1 < s2 < . . .
•
Mit
B(L)
bezeichnen wir die
σ Algebra
Auÿerdem betrachten wir für jedes
Th : L → L
der die Punkte
um
h
h ∈ R
von
s = {sn } ∈ L
um
lim |sn | = ∞ ,
|n|→∞
der BorelMengen in
L.
den (zeitkontinuierlichen) Verschiebungsoperator
Th ({sn }) = {sn − h}
sn
und
reeller Zahlen, so dass
h
∀ {sn } ∈ L ,
(9)
Längeneinheiten nach links bzw. den Ursprung
Längeneinheiten nach rechts verschiebt, falls
h > 0.
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
•
{
}
L0 = s = {sn } ∈ L : s0 = 0
Schlieÿlich sei
und für jedes
t = {tn } ∈ K
130
sei die Abbildung
t 7→ s(t) = {s(t)
n } ∈ L0





gegeben durch
s(t)
n
Denition
=
∑n
k=1 tk
0


∑

 − 0
k=n+1 tk
P
Ein Wahrscheinlichkeitsmaÿ
über
für
n = 0,
für
n < 0.
heiÿt
Tinvariant,
wenn
∀ h ∈ R, A ∈ B(L) ,
(10)
Th (A) = {Th (s) : s ∈ A}.
Theorem
4.4
∫
Q
Sei
t Q(dt) < ∞.
K 1
ein
U-invariantes
Wahrscheinlichkeitsmaÿ über
(K, B(K))
mit
0 < µ =
Dann ist durch den Ansatz
PQ (A) =
ein
n ≥ 1,
(L, B(L))
P (Th (A)) = P (A)
wobei
für
Tinvariantes
1
µ
∫ ∫
K
t1
(
)
1IA Th (s(t) ) dh Q(dt)
∀ A ∈ B(L)
(11)
0
Wahrscheinlichkeitsmaÿ
PQ
über
(L, B(L))
gegeben.
Beweis
•
Für beliebige
t = {tn } ∈ K, A ∈ B(L)
∫
Uj (t)1
und
j≥0
(
)
j
1IA Th (s(U (t)) ) dh =
∫
0
•
Weil
Q
k=1 tk
∑j
(
)
1IA Th (s(t) ) dh .
(12)
k=1 tk
U-invariantes Wahrscheinlichkeitsmaÿ ist,
n≥0
∫ t1
(
)
PQ (A) =
1IA Th (s(t) ) dh Q(dt)
ein
für jedes
gilt oenbar
∑j+1
ergibt sich aus (11) und (12), dass
0
=
n ∫ ∫ Uj (t)1
∑
(
)
j
1
1IA Th (s(U (t)) ) dh Q(dt)
(n + 1)µ j=0 K 0
=
n ∫ ∫
∑
k=1 tk
(
)
1
1IA Th (s(t) ) dh Q(dt)
(n + 1)µ j=0 K ∑jk=1 tk
=
1
(n + 1)µ
∑j+1
∫ ∫
K
0
∑n+1
k=1
tk
(
)
1IA Th (s(t) ) dh Q(dt) .
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
•
Hieraus folgt, dass für jedes
•
t∈R
PQ (Tt (A)) =
1
(n + 1)µ
=
1
(n + 1)µ
1
(n + 1)µ
=
∫ ∫
K
0
∫ ∫
K
0
∫ ∫
K
∑n+1
k=1
∑n+1
k=1
∑n+1
k=1
tk
(
)
1ITt (A) Th (s(t) ) dh Q(dt)
tk
(
)
1IA Th−t (s(t) ) dh Q(dt)
tk +t
(
)
1IA Th (s(t) ) dh Q(dt) .
t
Insgesamt ergibt sich also die Abschätzung
|PQ (A) − PQ (Tt (A))| ≤
•
131
2|t|
(n + 1)µ
Weil die linke Seite des letzten Ausdruckes nicht von
gewählt werden kann, gilt also
PQ (A) = PQ (Tt (A))
∀n ≥ 0.
n
n beliebig groÿ
A ∈ B(L) und t ∈ R.
abhängt und
für beliebige
Beachte
Durch Vertauschung der Integrationsreihenfolge ergibt sich, dass (11) äquivalent ist mit
PQ (A) =
1
µ
∫
∞
(
)
Q t : t1 > h, Th (s(t) ) ∈ A dh
∀ A ∈ B(L) .
(13)
0
Korollar 4.1
•
deniert, wobei
PQ
•
{Sen } sei über dem kanonischen Wahrscheinlichkeitsraum (L, B(L), PQ )
Sek ({sn }) = sk für jedes k ∈ {0, ±1, ±2, . . .} und das Wahrscheinlichkeitsmaÿ
Die Folge von Zufallsvariablen
durch
(11)
gegeben ist.
Durch den Ansatz
et =
N
ist dann ein Zählprozess
Beweis


∑∞
1I(Sek ≤ t)
für
t ≥ 0,
e
k=−∞ 1I(Sk > t)
für
t<0
k=1
−
et , t ∈ R}
{N
(14)
∑0
über
(L, B(L), PQ )
gegeben, der stationäre Zuwächse hat.
Die Behauptung ergibt sich unmittelbar aus der in Theorem 4.4 gezeigten
des Wahrscheinlichkeitsmaÿes
Beachte



PQ .
TInvarianz
Für den in Abschnitt 4.1.1 betrachteten Spezialfall, bei dem die Zwischenankunftszeiten
Tn = Sn − Sn−1
eine Folge von unabhängigen und identisch (exponentiell) verteilten Zufalls-
variablen bilden, kann man sich leicht überlegen, dass dann der in (14) gegebene Zählprozess
et , t ∈ R}
{N
ein homogener PoissonProzess ist.
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
132
4.1.3 Erneuerungsprozesse mit stationären Zuwächsen
Wir setzen nun voraus, dass
S0 = 0 und dass die Zwischenankunftszeiten Tn = Sn −Sn−1
eine Folge
von unabhängigen und identisch verteilten Zufallsvariablen mit einer beliebigen Verteilungsfunktion
F
bilden.
•
Sei
{Sen }
die in Korollar 4.1 betrachtete Folge von zufälligen Zeitpunkten mit
. . . Se−1 < Se0 < 0 < Se1 < Se2 < . . . .
•
Wir zeigen, dass dann
die neuen Zwischenankunftszeiten
Ten = Sen − Sen−1
für
n ̸= 1
ebenfalls eine Folge von
unabhängigen und identisch verteilten Zufallsvariablen mit der gleichen Verteilungsfunktion
F
wie
Tn
bilden,
wobei jedoch die Abstände
Se1
Se1 und −Se0 vom Nullpunkt zum kleinsten positiven Zeitpunkt
Se0 eine besondere Rolle spielen,
bzw. zum gröÿten negativen Zeitpunkt
denn im allgemeinen müssen die Zufallsvariablen
noch die Verteilungsfunktion
F
der Abstände
Ten
−Se0 und Se1
n ̸∈ {0, 1}
mit
weder unabhängig sein
besitzen.
Beachte
•
Wenn die Zwischenankunftszeiten
Tn = Sn − Sn−1
eine Folge von unabhängigen und
identisch verteilten Zufallsvariablen bilden, dann sagt man, dass der in (1) gegebene
stochastische Prozess
{Nt , t ∈ R} ein gewöhnlicher Erneuerungszählprozess bzw. kurz
Sn der n-te Erneuerungszeitpunkt heiÿt.
et , t ∈ R} mit stationären
dass der in (14) gegebene Zählprozess {N
ein Erneuerungsprozess ist, wobei
•
Auÿerdem sagt man,
Zuwächsen ein verzögerter Erneuerungsprozess ist.
Theorem 4.5
•
Die Verteilung
Q von {Tn } über (K, B(K)) sei das Produktmaÿ,∫ das durch die (eindimensionale
∞
Rand) Verteilungsfunktion F erzeugt wird, so dass 0 < µ = 0 (1 − F (y)) dy < ∞.
•
Für die in Korollar
1. Für
n ̸= 1
4.1
betrachtete Folge
sind die Zufallsvariablen
F.
{
}
e
Tn , n ̸= 1
{Sen }
von zufälligen Zeitpunkten gilt dann:
Ten = Sen − Sen−1
unabhängig und identisch verteilt
mit der Verteilungsfunktion
2. Die zufällige Folge
und der Zufallsvektor
(−Se0 , Se1 )
(−Se0 , Se1 ) ist gegeben durch
∫ ∞
1
PQ (−Se0 > u, Se1 > v) =
(1 − F (y) dy
µ u+v
sind unabhängig.
3. Die gemeinsame Verteilung von
∀ u, v ≥ 0 .
(15)
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
133
Beweis
•
Für
k ≥ 1, für beliebige u, v, u1 , . . . , uk ≥ 0 und für beliebige n1 , . . . , nk ̸= 1 mit n1 <
. . . < nk sei
{
}
A = −Se0 > u, Se1 > v, Sen1 − Sen1 −1 > u1 , . . . , Senk − Senk −1 > uk .
•
Dann ergibt sich aus (13), dass
(
)
PQ −Se0 > u, Se1 > v, Sen1 − Sen1 −1 > u1 , . . . , Senk − Senk −1 > uk
∫ ∞
(
)
1
Q t : t1 > h, Th (s(t) ) ∈ A dh
=
µ 0
∫ ∞
(
)
1
=
Q t : t1 > h, h > u, t1 − h > v, tn1 > u1 , . . . , tnk > uk dh
µ 0
∫ ∞
k
∏
(
)
1
=
Q t : t1 > h, h > u, t1 − h > v dh
(1 − F (uj ))
µ 0
j=1
=
1
µ
∫
∞
(1 − F (h)) dh
u+v
k
∏
(1 − F (uj )) ,
j=1
wobei sich die vorletzte Gleichheit aus der Annahme ergibt, dass
(K, B(K))
ist.
Q ein Produktmaÿ über
4.1.4 Semi-Markowsche Zählprozesse; Simulationsalgorithmus
R
Eine weitere Klasse von Zählprozessen in
Theorem 4.4 betrachtete
U-invariante
mit stationären Zuwächsen ergibt sich, wenn das in
Wahrscheinlichkeitsmaÿ
Q
über
(K, B(K))
die folgende (ver-
allgemeinerte) Produktdarstellung besitzt. Dabei verwenden wir einige grundlegende Begrie aus
der Theorie der zeitdiskreten MarkowKetten, vgl. das Skript zur Vorlesung MarkowKetten und
MonteCarloSimulation im SS 2003.
Theorem 4.6
•
Sei
ℓ≥1
eine beliebige natürliche Zahl und sei
Auÿerdem sei
P = (pij )i,j=1,...,ℓ
E = {1, . . . , ℓ}
ein endlicher Zustandsraum.
eine irreduzible und aperiodische
pij ≥ 0 ,
ℓ
∑
ℓ×ℓ
Matrix mit
pij = 1 ,
(16)
j=1
sei
π = (π1 , . . . , πℓ )⊤
die (eindeutig bestimmte) positive Lösung der Gleichung
π⊤ = π⊤ P ,
(17)
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
•
und für beliebige
Die Verteilung
Q
i, j ∈ E
sei
Fij : R → [0, 1]
der stationären Folge
{Tn }
eine Verteilungsfunktion mit
über
(K, B(K))
∑
(
)
Q t ∈ K : tn ≤ u0 , tn+1 ≤ u1 . . . , tn+m ≤ um =
n ∈ {0, ±1, ±2, . . .}, m ≥ 0
πi0
m−1
∏
pik ik+1 Fik ik+1 (uk )
u0 , . . . , um ≥ 0, so dass
∫ ∞
(
)
∑
µ = E T1 =
πi0 pij
(1 − Fij (y)) dy < ∞ .
0
4.1 betrachtete Folge {Sen } von zufälligen
v, un , . . . , um ≥ 0
∩
(
)
PQ {−Se0 > u0 , Se1 > v} ∩
{Sek − Sek−1 > uk }
Dann gilt für die in Korollar
n < 0, m > 0
beliebige
1
µ
=
(18)
k=0
und
i,j∈E
•
Fij (0) = 0.
sei gegeben durch
i0 ,...,im ∈E
für beliebige
134
∑
Zeitpunkten, dass für
und
∫
pi0 i1
in ,...,im ∈E
k∈{n,...,m}\{0}
∞ (
∏
)
1 − Fi0 i1 (y) dy
u0 +v
(
)
πin pik ik+1 1 − Fik ik+1 (uk )(19)
.
k∈{n,...,m}\{0}
Der Beweis von Theorem 4.6 verläuft ähnlich wie der Beweis von Theorem 4.4. Er wird deshalb
weggelassen.
Denition
•
Wenn die Verteilung
Q
der Zwischenankunftszeiten
Tn = Sn − Sn−1
durch (18) gegeben
ist, dann sagt man,
dass der in (1) gegebene stochastische Prozess
{Nt , t ∈ R}
Zählprozess ist.
In diesem Fall wird der in
(14)
gegebene Zählprozess
ein semiMarkowscher
et , t ∈ R}
{N
ein verzögerter
semiMarkowscher Zählprozess (mit stationären Zuwächsen) genannt.
•
Für
ℓ=1
ergeben sich die in Abschnitt 4.1.3 betrachteten Erneuerungprozesse als Spe-
zialfall.
Beachte
•
P
Die in (16) betrachtete stochastische Matrix
MarkowKette aufgefasst werden, wobei
π
kann als die Übergangsmatrix einer
die zugehörige stationäre Anfangsverteilung
ist, vgl. Theorem MC-2.5.
•
Wenn die Verteilungsfunktionen
Fij
nicht von
j
1 − Fij (x) = e−q(i)x
wobei
q(1), . . . , q(ℓ)
abhängen und gegeben sind durch
∀x ≥ 0,
eine beliebige Folge positiver Zahlen ist,
(20)
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
{Sen } die Folge von Sprungzeitpunkten eines stationären
{Xt , t ∈ R} ist, vgl. auch Theorem 2.17.
dann kann man zeigen, dass
MarkowProzesses
•
Wenn der MarkowProzess
135
wenn die Eintragungen
{Xt , t ∈ R}
qij
zusätzlich reversibel ist, d.h.,
seiner Intensitätsmatrix
π
ei qij = π
ej qji
Q = (qij ) dem Gleichungssystem
∀ i, j ∈ E
e = (e
π
π1 , . . . , π
eℓ )⊤ die (zeit) stationäre Anfangsverteilung des Markow
⊤
{Xt } ist mit π Q = 0,
genügen, wobei
Prozesses
dann ist durch Theorem 4.6 ein Algorithmus zur Simulation des stationären Markow
Prozesses
{Xt , t ∈ R}
gegeben.
4.2 Poissonsche Zählmaÿe im Rd
•
alle Quader der Form
i = 1, . . . , d
n≥1
Das
B = (a1 , b1 ] × . . . × (ad , bd ]
für beliebige
B(Rd ) der Borel
G von Teilmengen
a i , bi ∈ R
mit
ai ≤ bi
für
enthält und
die abgeschlossen ist bezüglich der Bildung des Komplementes sowie der Vereinigung von
d
abzählbar vielen Mengen aus G , d.h., für beliebige A, A1 , A2 , . . . ∈ G gilt R \ A ∈ G und
∪
•
d ≥ 2
eine beliebige natürliche Zahl. Die σ Algebra
d
Mengen im ddimensionalen euklidischen Raum R ist die kleinste Familie
d
des R , die
Zur Erinnerung: Sei
Ai ∈ G .
ddimensionale
LebesgueMaÿ
νd : B(Rd ) → [0, ∞]
Werte
νd (B) =
d
∏
wird eindeutig bestimmt durch seine
(bi − ai )
i=1
für alle BorelMengen der Form
jedes
B = (a1 , b1 ] × . . . × (ad , bd ]
mit
a i , bi ∈ R
und
ai ≤ bi
für
i = 1, . . . , d.
Theorem 4.7
•
Sei
{NB , B ∈ B(Rd )} ein zufälliges Zählmaÿ, d.h., für paarweise disjunkte B1 , B2 , . . . ∈ B(Rd )
gelte
N∪∞
=
n=1 Bn
∞
∑
N Bn ,
(1)
n=1
und sei
Md
die Familie der halboenen
{
ddimensionalen
Quader in
Rd ,
d.h.,
}
Md = B ⊂ Rd : B = (a1 , b1 ] × . . . × (ad , bd ], ai , bi ∈ R, ai ≤ bi ∀ i = 1, . . . , d .
(2)
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
•
Dann ist die Verteilung des zufälligen Zählmaÿes
136
{NB } eindeutig bestimmt durch die Familie
{PB1 ,...,Bn (k1 , . . . , kn ) : n ≥ 1, k1 , . . . , kn ≥
der endlichdimensionalen Wahrscheinlichkeiten
0, B1 , . . . , Bn ∈ Md }, wobei
PB1 ,...,Bn (k1 , . . . , kn ) = P (NB1 = k1 , . . . , NBn = kn ) .
Der Beweis von Theorem 4.7 kann mit Hilfe des Satzes über monotone Klassen geführt werden (vgl.
Theorem WR-3.2), wobei man ähnlich wie im Beweis von Theorem 4.1 vorgehen kann.
4.2.1 Denition und elementare Eigenschaften
Wir führen nun den Begri des Poissonschen Zählmaÿes im
ddimensionalen euklidischen Raum Rd
ein.
Denition
[0, ∞]
•
Sei
B0 (Rd )
die Familie aller beschränkten BorelMengen in
ein beliebiges lokalendliches Maÿ, d.h.,
Man sagt, dass
Intensitätsmaÿ
{NB , B ∈ B(Rd )}
µ ist, wenn
1. die Zufallsvariablen
B0 (Rd ) und
2.
•
NB ∼ Poi(µ(B))
µ(B) < ∞
Rd
gilt für jedes
µ : B(Rd ) →
B ∈ B0 (Rd ).
und sei
ein (inhomogenes) Poissonsches Zählmaÿ mit dem
NB1 , NB2 , . . . unabhängig sind für paarweise disjunkte B1 , B2 , . . . ∈
für jedes
B ∈ B0 (Rd )
gilt.
µ proportional
λ < ∞ gilt
Wenn zusätzlich vorausgesetzt wird, dass das Intensitätsmaÿ
dimensionalen LebesgueMaÿ
νd
ist, d.h., für eine Konstante
µ(B) = λνd (B)
dann sagt man, dass
{NB }
zum
d
∀ B ∈ B(Rd ) ,
ein homogenes Poissonsches Zählmaÿ mit der Intensität
Rd ist.
λ
(bzw. kurz ein homogener PoissonProzess) im
Beachte
Aus Theorem 4.7 ergibt sich, dass die Bedingungen 1 und 2 in der Denition des
PoissonProzesses durch die folgenden (scheinbar schwächeren) Bedingungen ersetzt werden
können:
1∗ .
Die Zufallsvariablen
Md und
2∗ . NB ∼ Poi(µ(B))
NB1 , NB2 , . . .
gilt für jedes
sind unabhängig für paarweise disjunkte
B 1 , B2 , . . . ∈
B ∈ Md .
Wir diskutieren zunächst einige elementare Eigenschaften von PoissonProzessen im
Rd .
Theorem 4.8
µ.
Sei
{NB , B ∈ B(Rd )}
ein PoissonProzess mit dem Intensitätsmaÿ
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
•
Dann gilt
P (NB1 = k1 , . . . , NBn = kn ) =
für beliebige
•
137
n ≥ 1, k1 , . . . , kn ≥ 0
n
( ∑
)
µk1 (B1 ) . . . µkn (Bn )
exp −
µ(Bi )
k1 ! . . . kn !
i=1
und paarweise disjunkte
(3)
B1 , . . . , Bn ∈ B0 (Rd ).
Auÿerdem genügen die bedingten Wahrscheinlichkeiten P (NB1 = k1 , . . . , NBn = kn | NB = k)
B ∈ B0 (Rd ) mit 0 < µ(B) < ∞ und für paarweise disjunkte B1 , . . . , Bn ∈ B0 (Rd )
für jedes
∪n
mit
i=1
Bi = B
einer Multinomialverteilung, d.h., es gilt
P (NB1 = k1 , . . . , NBn = kn | NB = k) =
für beliebige
k, k1 , . . . , kn ≥ 0
mit
k!
µk1 (B1 ) . . . µkn (Bn )
k1 ! . . . kn !
µk (B)
(4)
k = k1 + . . . + kn .
Der Beweis von Theorem 4.8 ergibt sich unmittelbar aus den Bedingungen 1 und 2 in der Denition
des homogenen PoissonProzesses.
Mit Hilfe der Theoreme 4.7 und 4.8 lässt sich eine einfache Methode zur Konstruktion von Poisson
Prozessen mit endlichem Intensitätsmaÿ herleiten.
Korollar 4.2
bzw.
µ : B(Rd ) → [0, ∞) ein beliebiges Maÿ mit 0 < µ(Rd ) < ∞, und N : Ω → [0, ∞)
S1 , S2 , . . . : Ω → Rd seien unabhängige Zufallsvariablen mit
Sei
N ∼ Poi(µ(Rd )) ,
Dann ist das zufällige Zählmaÿ
Si ∼
{NB , B ∈ B(Rd )}
µ(·)
µ(Rd )
(5)
∀ B ∈ B(Rd )
(6)
mit
NB = #{i : 1 ≤ i ≤ N, Si ∈ B}
ein PoissonProzess mit dem Intensitätsmaÿ
∀i ≥ 1.
µ.
Beweis
•
Mit der Schreibweise
p(B) =
µ(B)
µ(Rd )
∀ B ∈ B(Rd )
ergibt sich aus (5) und (6), dass
P (NB1 = k1 , . . . , NBn = kn | N = k) =
n ≥ 1, für beliebige, paarweise disjunkte∪B1 , . . . , Bn ∈ B(Rd ) und für k0 , k1 , . . . , kn ≥
n
k = k0 + k1 + . . . + kn , wobei B0 = Rd \ i=1 Bi .
für jedes
0
mit
k!
pk0 (B0 ) pk1 (B1 ) . . . pkn (Bn )
k0 !k1 ! . . . kn !
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
•
138
Hieraus folgt, dass
∞
∑
P (NB1 = k1 , . . . , NBn = kn ) =
P (N = k) P (NB1 = k1 , . . . , NBn = kn | N = k)
k=k1 +...+kn
∞
∑
=
d
k=k1 +...+kn
∞
∑
=
k=k1 +...+kn
e−µ(B0 ) µk−k1 −...−kn (B0 ) e−µ(R \B0 ) k1
µ (B1 ) . . . µkn (Bn )
(k − k1 − . . . − kn )!
k1 ! . . . k n !
d
d
n
∏
e−µ(Bi ) µki (Bi )
e−µ(R \B0 ) k1
µ (B1 ) . . . µkn (Bn ) =
.
k1 ! . . . kn !
ki !
i=1
=
•
e−µ(R ) µk (Rd )
k!
pk−k1 −...−kn (B0 ) pk1 (B1 ) . . . pkn (Bn )
k!
(k − k1 − . . . − kn )!k1 ! . . . kn !
Vergleicht man dieses Ergebnis mit der Formel (3) in Theorem 4.8, dann erkennt man,
dass das in (6) gegebene zufällige Zählmaÿ die gleichen endlich-dimensionalen Verteilungen hat wie ein PoissonProzess mit dem Intensitätsmaÿ
•
µ.
Hieraus und aus Theorem 4.7 ergibt sich sich nun die Behauptung.
Beachte
•
µ
Wenn das Intensitätsmaÿ
λ<∞
die in (5) betrachteten (unabhängigen) Zufallsvektoren
•
= λνd (B ∩ C) hat für ein
0 < νd (C) < ∞, dann sind
S1 , S2 , . . . gleichverteilt in C .
in Korollar 4.2 die Form µ(B)
C ∈ B0 (Rd ) mit
und eine beschränkte BorelMenge
Wenn zusätzlich angenommen wird, dass die Menge
C
ein
ddimensionaler
Quader der
Form
C = (a1 , b1 ] × . . . × (ad , bd ]
ist, dann hat der Zufallsvektor
Komponenten
•
Si1 , . . . , Sid ,
Si = (Si1 , . . . , Sid ) für jedes i = 1, . . . , n
Sij ∼ U(aj , bj ) für jedes j = 1, . . . , d.
(7)
unabhängige
wobei
Die Aussage von Korollar 4.2 wird deshalb manchmal die bedingte Gleichverteilungsei-
genschaft von homogenen PoissonProzessen in beschränkten BorelMengen genannt.
Das folgende Resultat über die Summation von unabhängigen PoissonProzessen ist ein Analogon
der Faltungsstabilität von PoissonVerteilungen.
Theorem 4.9
(1)
(2)
d
{NB }, {NB }, . . . eine Folge ∑
unabhängiger PoissonProzesse in R
∞
Intensitätsmaÿen µ1 , µ2 , . . ., so dass das Maÿ µ =
i=1 µi lokal endlich ist. Dann ist das
∑∞
(i)
Zählmaÿ {NB } mit NB =
i=1 NB ein PoissonProzess mit dem Intensitätsmaÿ µ.
Sei
mit den
zufällige
Beweis
•
Wir zeigen zunächst, dass
NB ∼ Poi(µ(B))
∀ B ∈ B0 (Rd ) .
(8)
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
(1)
(2)
(1)
Aus der Faltungsstabilität von PoissonVerteilungen ergibt sich somit, dass für jedes
n ≥ 1 und für jedes B ∈ B0 (Rd )
n
∑
(i)
NB ∼ Poi(
µi (B)) .
i=1
i=1
Hieraus und aus der Monotonie von Wahrscheinlicheitsmaÿen ergibt sich, dass für
d
beliebige k ≥ 0 und B ∈ B0 (R )
P (NB ≤ k)
=
P
∞
(∑
(i)
NB
)
≤ k = lim P
n→∞
i=1
n
(∑
(i)
NB ≤ k
)
i=1
( ∑n
) (∑n
)j
k
∑
exp − i=1 µi (B)
i=1 µi (B)
= lim
n→∞
j!
j=0
(
)
(
)
j
k
∑
exp −µ(B) µ(B)
.
=
j!
j=0
•
Damit ist (8) bewiesen.
Um den Beweis zu beenden, ist noch zu zeigen, dass die Zufallsvariablen NB1 , NB2 , . . . , NBn
n ≥ 2 und paarweise disjunkte B1 , . . . , Bn ∈ B0 (Rd ) unabhängig sind.
für jedes
Weil die Zufallsvariablen
(i)
{NBj , i = 1, . . . , m, j = 1, . . . , n} für beliebige m, n ≥ 1 un-
abhängig sind, ergibt sich aus dem Satz über die Unabhängigkeit zusammengesetzter
∑m
(i)
Abbildungen (vgl. Theorem WR-3.18), dass auch die Zufallsvariablen {
i=1 NBj , j =
1, . . . , n}
unabhängig sind.
Wegen der Monotonie von Wahrscheinlicheitsmaÿen kann man nun leicht zeigen,
dass die Zufallsvariablen
∞
{
} {∑
}
(i)
NBj , j = 1, . . . , n =
NBj , j = 1, . . . , n
i=1
ebenfalls unabhängig sind.
Wir zeigen nun noch, dass die Einschränkung von PoissonProzessen auf Borelsche Teilmengen des
Rd erneut zu PoissonProzessen führt.
Theorem 4.10
Sei
B0 ∈ B(R ) eine
eB = NB∩B ein
N
0
B ∈ B(Rd ).
d
(2)
{NB }, {NB }, . . . unabhängige Zählmaÿe sind, sind die Zufallsvariablen NB , NB , . . .
(i)
d
unabhängig, wobei NB ∼ Poi(µi (B)) für jedes i ≥ 1 und für jedes B ∈ B0 (R ).
Weil
n
∑
139
{NB , B ∈ B(Rd )}
µ, und sei
eB , B ∈ B(Rd )} mit
{N
µ
e(B) = µ(B ∩ B0 ) für jedes
ein PoissonProzess mit dem Intensitätsmaÿ
beliebige BorelMenge. Dann ist das zufällige Zählmaÿ
PoissonProzess mit dem Intensitätsmaÿ
µ
e,
wobei
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
140
Beweis
•
Weil
{NB }
eB = NB∩B
N
0
•
µ
(
)
∼ Poi µ(B ∩ B0 ) = Poi(e
µ(B))
ein PoissonProzess mit dem Intensitätsmaÿ
ist, gilt
∀ B ∈ B0 (Rd ) .
auch die Mengen B1 ∩
eB = NB ∩B , . . . , N
eB =
B0 , . . . , Bn ∩B0 paarweise disjunkt sind, sind die Zufallsvariablen N
1
1
0
n
NBn ∩B0 unabhängig.
Weil für beliebige paarweise disjunkte
B1 , . . . , Bn ∈ B0 (Rd )
4.2.2 Messbare Indizierung der Atome
In diesem Abschnitt betrachten wir den Begri der messbaren Indizierung der (zufälligen) Atome
d
von PoissonProzessen, der einen konstruktiven Zugang zu PoissonProzessen im R und somit die
mathematische Grundlage von Simulationsalgorithmen bildet, vgl. auch die Abschnitte 4.2.3 und
4.2.4.
Beachte
Man sagt, dass die Folge
{Sei }
von Zufallsvektoren

 S ,
i
Sei =
 ∞,
falls
Se1 , Se2 , . . . : Ω → Rd ∪ {∞}
mit
N ≥ i,
(9)
sonst
eine messbare Indizierung der (zufälligen) Atome des in (6) gegebenen zufälligen Zählmaÿes
{NB }
ist.
Von nun an werden wir stets voraussetzen, dass das Intensitätsmaÿ
µ : B(Rd ) → [0, ∞]
dius ist,
d.h., es gelte
µ({x}) = 0
∀ x ∈ Rd .
(10)
Der folgende Hilfssatz wird manchmal Disjunktheitstheorem genannt. Wir nutzen dieses Ergebnis,
um zu zeigen, dass man auch für Poissonsche Zählmaÿe mit einem beliebigen (diusen und lokal
endlichen) Intensitätsmaÿ eine messbare Indizierung der Atome konstruieren kann.
Lemma 4.1
•
den
(1)
(2)
{NB , B ∈ B(Rd )} und {NB , B ∈ B(Rd )} zwei unabhängige
d
d
Intensitätsmaÿen µ1 bzw. µ2 , so dass 0 < µ1 (R ), µ2 (R ) < ∞.
Seien
PoissonProzesse mit
•
e(1) } und {Se(2) } unabhängige messbare Indizierungen der Atome von
Auÿerdem seien {S
i
i
(2)
bzw. {NB }, die gemäÿ (9) gegeben sind.
•
Dann gilt für beliebige
i, j ≥ 1
( (1)
)
(2)
(1)
(2)
P {Sei ̸= Sej } ∪ {Sei = Sej = ∞} = 1 .
(1)
{NB }
(11)
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
141
Beweis
•
Es genügt zu zeigen, dass für beliebige
i, j ≥ 1
i ̸= j
)
̸= ∞} = 0 .
•
p(i) (B) = µi (B)/µi (Rd ) für i = 1, 2 und B ∈ B(Rd ) ergibt sich aus
e(1) und Se(2) , dass
der Unabhängigkeit der Zufallsvektoren S
i
j
( (1)
)
(
)
(2)
(2)
(1)
(2)
P {Sei = Sej } ∩ {Sej ̸= ∞} = P {Si = Sj } ∩ {N (2) ≥ j}
∫
)
( (1)
(2)
(2)
(2)
(2)
(1)
(2)
(2)
P Si = Sj | Sj = s P (Sj ∈ ds)
= P (N ≥ j)P (Si = Sj ) = P (N ≥ j)
d
R
∫
∫
(1)
(2)
(2)
= P (N ≥ j)
P (Si = s) p (ds) = P (N (2) ≥ j)
p(1) ({s}) p(2) (ds) = 0 ,
mit
( (1)
(2)
(2)
P {Sei = Sej } ∩ {Sej
Mit der Schreibweise
Rd
Rd
wobei in der letzten Gleichheit die Tatsache genutzt wurde, dass das Intensitätsmaÿ
(1)
dius ist und dass somit p
({s}) = 0 für jedes s ∈ Rd .
Beachte
Aus Lemma 4.1 ergibt sich insbesondere, dass durch

(1)


Si ,





(2)
e
Si =
S
(1) ,

i−N d

R




 ∞
{Sei }
µ1
mit
(1)
falls
NRd ≥ i,
falls
NRd + NRd ≥ i > NRd
(1)
(2)
(1)
(12)
,
sonst
eine messbare Indizierung der Atome des zufälligen Maÿes
{NB }
mit
(1)
(2)
NB = NB + NB
gegeben ist.
Wir übertragen nun den in (12) gegebenen Ansatz auf den Fall von beliebigen (endlichen bzw.
abzählbar unendlichen) Summen unabhängiger PoissonProzesse.
Theorem 4.11
µ : B(Rd ) → [0, ∞] ein
S1 , S2 , . . . : Ω → Rd ∪ {∞}
Sei
gibt es eine Folge
{NB , B ∈ B(Rd )} mit
beliebiges diuses und lokal endliches Maÿ. Dann
von Zufallsvektoren, so dass das zufällige Zählmaÿ
NB = #{i : Si ∈ B}
ein PoissonProzess mit dem Intensitätsmaÿ
µ
∀ B ∈ Rd
(13)
ist.
Beweis
•
Man kann sich leicht überlegen, dass sich µ als (abzählbar unendliche) Summe von endd
lichen Maÿen µ1 , µ2 , . . . : B(R ) → [0, ∞) darstellen lässt, so dass
µ(B) =
∞
∑
j=1
µj (B)
∀ B ∈ B(Rd ) .
(14)
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
•
Dabei können wir o.B.d.A. annehmen, dass
•
Gemäÿ Korollar 4.2 gibt es dann für jedes
µj (Rd ) > 0
j ≥ 1.
(j)
(j)
j ≥ 1 unabhängige Zufallsvariablen N (j) , S1 , S2 , . . .
mit
(j)
N (j) ∼ Poi(µj (Rd )) ,
für jedes
142
Si
∼
µj (·)
µj (Rd )
∀i ≥ 1,
so dass durch den Ansatz
(j)
(j)
NB = #{i : 1 ≤ i ≤ N (j) , Si
∈ B}
∀ B ∈ B(Rd )
(j)
{NB , B ∈ B(Rd )}
mit dem Intensitätsmaÿ µj gegeben ist.
(1)
(1)
(2)
(2)
Dabei können die Folgen {N
, S1 , S2 , . . .}, {N (2) , S1 , S2 , . . .}, . . . so gewählt
werden, dass sie ihrerseits unabhängig sind.
(1)
(2)
Damit sind auch die PoissonProzesse {NB }, {NB }, . . . unabhängig.
∑∞
(i)
Aus Theorem 4.9 ergibt sich nun, dass das zufällige Zählmaÿ {NB } mit NB =
i=1 NB
ein PoissonProzess mit dem Intensitätsmaÿ µ ist.
ein PoissonProzess
(1)
•
•
Darüber hinaus ergibt sich aus Lemma 4.1, dass durch die Folge
{Si } von Zufallsvektoren
mit

(1)

Si ,





(2)

S
,


 i−N (1)
Si =
falls
N (1) ≥ i,
falls
N (1) + N (2) ≥ i > N (1) ,
falls
N (1) + . . . + N (j) ≥ i > N (1) + . . . + N (j−1)
.
.
.



(j)


Si−N (1) −...−N (j−1) ,




 ∞
für ein
j > 2,
sonst
eine messbare Indizierung der Atome von
{NB }
gegeben ist, so dass (13) gilt.
4.2.3 Simulationsalgorithmus; Akzeptanz und Verwerfungsmethode
{NB , B ∈ B(Rd )} ein PoissonProzess mit dem (diusen und lokal endlichen) Intensitätsmaÿ
µ, und seien B1 , . . . , Bn ∈ Md paarweise disjunkte Quader mit der in (2) gegebenen Form, so dass
µ(Bi ) > 0 für jedes i = 1, . . . , n.
∪n
Um den PoissonProzess {NB } in der beschränkten BorelMenge C =
i=1 Bi zu simulieren,
Sei
genügt es zu beachten,
•
dass das zufällige Zählmaÿ
eB } mit N
eB = NB∩C gemäÿ Theorem
{N
µ
e ist wobei µ
e(B) = µ(B ∩ C),
4.10 ein PoissonProzess
mit dem endlichen Zählmaÿ
•
und dass man deshalb gemäÿ Theorem 4.8 bzw. Korollar 4.2 wie folgt vorgehen kann:
Schritt 0
Generiere eine Realisierung von
NC ∼ Poi(µ(C)).
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
Schritt 1
Falls
NC = k ,
143
dann generiere eine Realisierung des multinomial verteilten Zufalls-
vektors
(N1 , . . . , Nn ) ∼ Mult(k; p1 , . . . , pn ) ,
wobei
pi = µ(Bi )/µ(C)
Schritt 2
k1
Falls
für jedes
i = 1, . . . , n.
(N1 , . . . , Nn ) = (k1 , . . . , kn ),
dann generiere
(1)
(1)
(n)
(n)
unabhängige Zufallsvektoren
S1 , . . . , Sk1 ∼ µ(· ∩ B1 )/µ(B1 ),
unabhängige Zufallsvektoren
S1 , . . . , Skn ∼ µ(· ∩ Bn )/µ(Bn ),
.
.
.
kn
wobei die Zufallsvektoren
(1)
(1)
(n)
(n)
(S1 , . . . , Sk1 ), . . . , (S1 , . . . , Skn )
ebenfalls unabhängig sind.
Beachte
(1)
(1)
(n)
(n)
(1)
(1)
(n)
•
Seien
•
(1)
(1)
(n)
(n)
Dann ist die (nichtgeordnete) Menge {s1 , . . . , sk , . . . , s1 , . . . , sk } von Punkten im
1
n
∪n
Rd eine Realisierung der Atome des PoissonProzesses {NB } in der Menge C = i=1 Bi .
B1 , . . . , Bn ∈ Md
∪n
i=1 Bi
besteht, dann kann die praktische Umsetzung der Simulationsschritte 1 und 2 mit einem groÿen
Wenn die Anzahl
n
der Quader
groÿ ist, aus denen die Menge
C =
Rechenaufwand verbunden sein.
•
In diesem Fall kann es ezienter sein, den PoissonProzess
und Verwerfungsmethode in
•
C
{NB } mit der folgenden Akzeptanz
zu simulieren.
Diese Methode hat darüber hinaus den Vorteil, dass das Gebiet
Prozess
{NB }
Sei also
C ⊂ Rd ,
in dem Poisson
simuliert wird, eine beliebige beschränkte BorelMenge sein kann.
C ∈ B0 (Rd ) eine beliebige beschränkte BorelMenge mit 0 < µ(C) < ∞, und sei
e = (a1 , b1 ] × . . . × (ad , bd ]
C
ddimensionaler
PoissonProzess {NB } in
ein (beschränkter)
Quader mit
Um den
der Menge
e.
C⊂C
C zu simulieren,
kann man nun gemäÿ
Theorem 4.10 wie folgt vorgehen:
Schritt 0
Generiere eine Realisierung von
Schritt 1
Falls
Zufallsvektoren
Menge
C
NC ∼ Poi(µ(C)).
NC = k , dann generiere so lange Realisierungen s1 , s2 , . . . der unabhängigen
e
e , bis k der Pseudozufallszahlen s1 , . . . , sn in der
S1 , S2 , . . . ∼ µ(· ∩ C)/µ(
C)
liegen, wobei
{
}
n = min #{i : si ∈ C, 1 ≤ i ≤ j} ≥ k .
j≥1
Schritt 3
(n)
(s1 , . . . , sk1 ), . . . , (s1 , . . . , skn ) Realisierungen von (S1 , . . . , Sk1 ), . . . , (S1 , . . . , Skn ).
{si : si ∈ C, 1 ≤ i ≤ n} von
PoissonProzesses {NB } in der Menge C .
Dann ist die (nichtgeordnete) Menge
eine Realisierung der Atome des
Punkten im
Rd
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
144
4.2.4 Transformationssätze; radiale Simulation von homogenen PoissonProzessen
In diesem Abschnitt betrachten wir zwei verschiedene Arten von Transformationen von Poisson
d
Prozesse im R .
Für beliebige
•
d, d′ ≥ 1
Auÿerdem sei
seien die BorelMengen
T : E → E′
E ∈ B(Rd )
′
E ′ ∈ B(Rd )
und
eine Borelmessbare Abbildung, d.h., es gelte
T−1 (B ′ ) = {x ∈ E : T(x) ∈ B ′ } ∈ B(E)
•
gegeben.
∀ B ′ ∈ B(E ′ ) ,
wobei die Urbilder von beschränkten BorelMengen beschränkt seien, d.h., es gelte
T−1 (B ′ ) ∈ B0 (E)
Beachte
Sei
[0, ∞].
{NB , B ∈ B(E)}
∀ B ′ ∈ B0 (E ′ ) .
ein beliebiges Zählmaÿ in
E
mit dem Intensitätsmÿ
µ : B(E) →
Man kann sich leicht überlegen, dass dann durch den Ansatz
∀ B ′ ∈ B(E ′ )
NB′ ′ = NT−1 (B ′ )
′
′
′
ein zufälliges Zählmaÿ {NB ′ , B ∈ B(E )} in
′
′
B(E ) → [0, ∞] von {NB ′ } gegeben ist durch
E′
(15)
Sei
{NB , B ∈ B(E)}
µ.
µ′ :
gegeben ist, wobei das Intensitätsmaÿ
µ′ (B ′ ) = E NB′ ′ = E NT−1 (B ′ ) = µ(T−1 (B ′ ))
Theorem 4.12
(15)
ein PoissonProzess in
E
∀ B ′ ∈ B(E ′ ) .
(16)
mit dem (diusen und lokal end-
lichem) Intensitätsmaÿ
•
′
Dann ist das in (15) gegebene zufällige Zählmaÿ {NB ′ ,
′
′
E , dessen Intensitätsmaÿ µ durch (16) gegeben ist.
•
Wenn
{Si } eine messbare Indizierung der
E → E ′ eineindeutig ist, dann ist durch
Atome von
B ′ ∈ B(E ′ )}
{NB }
ein PoissonProzess in
ist und wenn die Abbildung
Si′ = T′ (Si )
′
eine messbare Indizierung {Si } der Atome von
′
E ∪ {∞} → E ∪ {∞} gegeben ist durch

 T(x) ,
T′ (x) =
 ∞,
T:
(17)
{NB′ ′ }
gegeben, wobei die Abbildung
falls
x ∈ E,
falls
x = ∞.
T′ :
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
145
Beweis
•
Oenbar gilt
•
Wenn
NB′ ′ = NT−1 (B ′ ) ∼ Poi(µ(T−1 (B ′ )).
′
B1′ , . . . , Bn′ ∈ B0d (E ′ ) paarweise disjunkte BorelMengen sind, dann sind
−1
Urbilder T
(B1′ ), . . . , T−1 (Bn′ ) paarweise disjunkt und die Zufallsvariablen
auch die
NB′ 1′ = NT−1 (B1′ ) , . . . , NB′ n′ = NT−1 (Bn′ )
sind somit unabhängig.
•
Si′ = T′ (Si ) : Ω → E ′ ∪ {∞} für jedes i ≥ 1 messbar,
′
′
die Abbildungen Si : Ω → E ∪ {∞} und T : E ∪ {∞} → E ∪ {∞} messbar sind,
′
′
es gilt für jedes B ∈ B(E )
Auÿerdem ist die Abbildung
weil
und
NB′ ′ = NT−1 (B ′ ) = #{i : Si ∈ T−1 (B ′ )} = #{i : T′ (Si ) ∈ B ′ } .
•
Also ist
Beispiele
Sei
{T′ (Si )}
eine messbare Indizierung der Atome von
{NB , B ∈ B(E)}
ein homogener PoissonProzess in
{NB′ ′ }.
E = (0, ∞)
mit der Intensität
λ = 1.
1. Sei
•
•
E ′ = E = (0, ∞)
Dann ist
{NB′ ′ }
und
T(x) = x2 .
(0, ∞).
µ′ von {NB′ ′ } ist absolutstetig bezüglich dem (1dimensionalen)
ν1 (· ∩ (0, ∞)), wobei die Dichte gegeben ist durch
ein PoissonProzess in
Das Intensitätsmaÿ
LebesgueMaÿ
dµ′
1
(x) = √
dx
2 x
2. Sei
•
E′ = E × E
und die Abbildung
T: E →E×E
∀x > 0.
sei gegeben durch
T(x) = (x, x2 ).
{Si } der Sprungzeitpunkte des (Poissonschen) Zählprozesses
Nt = N(0,t] eine messbare Indizierung der Atome von {NB }.
• Auÿerdem ist {Si′ } = {(Si , Si2 )} eine messbare Indizierung der Atome eines Poisson
′
2
Prozesses {NB ′ } in (0, ∞) ,
′
• dessen Intensitätsmaÿ µ auf dem Funktionsgraphen {(x, x2 ) : x > 0} konzentriert
Dann ist die Folge
{Nt , t > 0}
mit
ist.
•
′
Beachte: Das heiÿt insbesondere, dass die Atome von {NB ′ } mit Wahrscheinlichkeit
2
1 in einer 1dimensionalen Teilmenge von (0, ∞) liegen.
d
Wir betrachten nun noch eine andere Art der Transformation von PoissonProzessen in R , mit
′
{NB′ ′ } in höherdimensionalen Räumen E ′ ⊂ Rd mit d′ > d
′
′
′
konstruieren kann, so dass der Träger des Intensitätsmaÿes µ von {NB ′ } eine d dimensionale
deren Hilfe man PoissonProzesse
Menge ist.
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
146
Theorem 4.13
•
Sei {NB , B ∈ B(E)} ein PoissonProzess in E mit dem Intensitätsmaÿ
und sei {Si } eine messbare Indizierung der Atome von {NB }.
•
Auÿerdem sei
m≥1
eine beliebige natürliche Zahl und
µ,
so dass
U1 , U2 , . . . : Ω → Rm
sei eine Folge
von unabhängigen und identisch verteilten Zufallsvariablen mit der Verteilung
{Si }
•
µ(E) > 0,
PU ,
die von
unabhängig sind.
Dann ist durch
N ′ (B × C) = #{i : (Si , Ui ) ∈ B × C}
ein PoissonProzess
{NB′ ′ }
in
E ′ = E × Rm
∀ B ∈ B(E), C ∈ B(Rm )
mit dem Intensitätsmaÿ
(18)
µ ′ = µ × PU
gegeben.
Beweis
•
Wir betrachten zunächst den Fall, dass
{NB }
{Si } der Atome
durch (5) und (9) gegeben ist.
Dann sind die Zufallsvektoren
S1′ , S2′ , . . .
Si′ ∼
ein endliches Maÿ ist.
Dann können wir o.B.d.A. annehmen, dass die messbare Indizierung
von
µ
mit
Si′ = (Si , Ui )
µ(·)
× PU
µ(E)
unabhängig, und es gilt
∀i ≥ 1.
Aus Korollar 4.2 ergibt sich nun, dass durch den Ansatz
NB′ ′ = #{i : 1 ≤ i ≤ N, Si′ ∈ B ′ }
ein PoissonProzess
NB′ ′
in
E ′ = E × Rm
∀ B ′ ∈ ( E × R⇕ )
mit dem Intensitätsmaÿ
µ′
gegeben ist,
wobei
( µ(B)
)
µ′ (B × C) = µ(E)
× PU (C) = µ(B) × PU (C)
µ(E)
∀ B ∈ B(E), C ∈ B(Rm ) .
Damit ist die Behauptung unter der zusätzlichen Annahme bewiesen, dass
µ endlich
ist.
•
Wenn
µ
ein beliebiges (diuses und lokal endliches) Maÿ ist,
′
dann können wir µ = µ ×
′
′
Maÿen µ1 , µ2 , . . . darstellen
PU
als (abzählbar unendliche) Summe von endlichen
und anschlieÿend so wie im Beweis von Theorem 4.11 vorgehen.
Beachte
•
Ähnlich wie bei den zusammengesetzten PoissonProzessen in
[0, ∞), die in Abschnitt 2.2.2
Ui als
eingeführt worden sind, können die in Theorem 4.13 betrachteten Zufallsvariablen
Marken der Atome
Si
aufgefasst werden.
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
•
Dabei sagt man, dass die Folge
{(Si , Ui )}
147
der markierten Atome eine messbare Indizie-
rung eines unabhängig markierten PoissonProzesses ist.
Mit Hilfe der Theoreme 4.12 und 4.13 konstruieren wir nun einen Algorithmus zur radialen Simu2
lation von homogenen PoissonProzessen im R .
•
Sei
T1 , T2 , . . . : Ω → [0, ∞)
Ti ∼ Exp(1) für
riablen mit
•
Für jedes
λ>0
eine Folge von unabhängigen und identisch verteilten Zufallsvajedes
i ≥ 1,
ergibt sich dann aus Theorem 4.12, dass durch
v
i
{ u
}
u∑
Tk
t
NB = # i :
∈B
πλ
∀ B ∈ B([0, ∞))
k=1
ein PoissonProzess
{NB , B ∈ B([0, ∞))}
[0, ∞)
in
gegeben ist, dessen Intensitätsmaÿ
µ
absolutstetig ist mit der Dichte
dµ
(x) = 2πλx
dx
•
∀x ≥ 0.
v
u i
u∑ Ti
Si = t
πλ
Dabei ist durch
∀i ≥ 1
k=1
eine messbare Indizierung
•
Auÿerdem sei
{Si }
der Atome von
{NB }
gegeben.
U1 , U2 , . . . : Ω → [0, 2π) eine Folge von unabhängigen
Ui ∼ U([0, 2π)), die unabhängig von {Ti } ist.
und identisch verteilten
Zufallsvariablen mit
•
Dann ergibt sich aus Theorem 4.13, dass
PoissonProzesses in
[0, ∞) × [0, 2π)
{(Si , Ui )} eine messbare Indizierung der Atome eines
µ × U(0, 2π) gegeben
ist, dessen Intensitätsmaÿ durch
ist.
•
Die erneute Anwendung von Theorem 4.12 auf die Abbildung
∀ s ≥ 0, u ∈ [0, 2π)
T(s, u) = (s cos u, s sin u)
{T(Si , Ui )} eine messbare
R2 mit der Intensität λ ist.
ergibt schlieÿlich, dass
PoissonProzessen in
r>0
Schritt 0
wobei
mit
(19)
Indizierung der Atome eines homogenen
Um einen homogenen PoissonProzess mit der Intensität
mit Radius
T : [0, ∞) × [0, 2π) → R2
λ
im Kreis
B(0, r) = {x ∈ R2 : |x| ≤ r}
zu simulieren, kann man also wie folgt vorgehen:
t1 , t2 , . . . , tn(r) gemäÿ
v
i
}
{ u
u∑
tk
≤r .
n(r) = max i : t
πλ
Generiere die Pseudozufallszahlen
k=1
der Verteilung
Exp(1),
4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN
Schritt 1
Generiere die Pseudozufallszahlen
Schritt 2
Berechne die Pseudozufallsvektoren
u1 , u2 , . . . , un(r)
v
u i
u∑ tk
si = t
πλ
148
gemäÿ der Verteilung
(s1 , u1 ), . . . , (un(r) , un(r) ),
U(0, 2π).
wobei
∀i ≥ 1.
k=1
Schritt 3
Schritt 4
(s1 , u1 ), . . . , (un(r) , un(r) )
T : [0, ∞) × [0, 2π) → R2 .
Transformiere die Pseudozufallsvektoren
in (19) gegebenen Abbildung
Generiere so die Realisierung
Prozesses mit der Intensität
λ
im Kreis
mit Hilfe der
T(s1 , u1 ), . . . , T(un(r) , un(r) ) eines homogenen Poisson
B(0, r) = {x ∈ R2 : |x| ≤ r}.
Herunterladen