ITÄT U M · Institut für Stochastik Vorlesungsskript Prof. Dr. Volker Schmidt Stand: Wintersemester 2011/12 Ulm, im November 2011 Dieses Exemplar wurde aus Studiengebühren nanziert. CENDO Universität Ulm DO Stochastik II · C UR · SCIENDO ANDO · U N ERS L IV INHALTSVERZEICHNIS 2 Inhaltsverzeichnis 1 Einleitung 5 1.1 Grundbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.2 Endlichdimensionale Verteilungen; Existenzsatz von Kolmogorow . . . . . . . . . . 6 1.3 Regularität der Trajektorien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.4 Modikationen von càdlàg Prozessen . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.5 Stationarität und Unabhängigkeit; stationäre bzw. unabhängige Zuwächse . . . . . . 11 2 Prozesse mit stückweise konstanten bzw. stetigen Trajektorien 2.1 2.2 2.3 2.4 Zählprozesse; Erneuerungsprozesse 13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.1.1 Ergodensatz; Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . 13 2.1.2 Erneuerungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.1.3 Verzögerte Erneuerungprozesse; stationäre Zuwächse . . . . . . . . . . . . . . 19 Zählprozesse vom PoissonTyp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.2.1 Homogener PoissonProzess . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.2.2 Zusammengesetzte PoissonProzesse . . . . . . . . . . . . . . . . . . . . . . . 26 2.2.3 Poissonsche Zählmaÿe; CoxProzesse; Simluationsalgorithmus . . . . . . . . . 28 MarkowProzesse mit endlich vielen Zuständen . . . . . . . . . . . . . . . . . . . . . 32 2.3.1 Anfangsverteilung und Übergangsfunktion . . . . . . . . . . . . . . . . . . . . 34 2.3.2 Übergangsintensitäten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.3.3 Kolmogorowsche Dierentialgleichungen . . . . . . . . . . . . . . . . . . . . . 38 2.3.4 Eingebettete MarkowKetten; Simulationsalgorithmus . . . . . . . . . . . . . 44 2.3.5 Stationäre Anfangsverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . 49 WienerProzess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 2.4.1 Vollständige Orthonormalsysteme im Funktionen L2 ; HaarFunktionen und Schauder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.4.2 Eigenschaften normalverteilter Zufallsvariablen . . . . . . . . . . . . . . . . . 56 2.4.3 Konstruktion von WienerProzessen; Simulationsalgorithmus . . . . . . . . . 59 2.4.4 Darstellung als MarkowProzess bzw. GauÿProzess . . . . . . . . . . . . . . 63 2.4.5 Verteilung des Maximums . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 2.4.6 Weitere Verteilungs und Pfadeigenschaften . . . . . . . . . . . . . . . . . . . 69 INHALTSVERZEICHNIS 3 3 LévyProzesse und Martingale 3.1 LévyProzesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 3.1.1 Unbegrenzte Teilbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 3.1.2 LévyChintschinDarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 3.1.3 3.3 Beispiele: WienerProzess, zusammengesetzte PoissonProzesse, stabile Lévy Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 Subordinatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 3.2.1 Bedingte Erwartung und bedingte Wahrscheinlichkeit . . . . . . . . . . . . . 93 3.2.2 Filtrationen und Stoppzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 3.2.3 Submartingale und Supermartingale; Beispiele 3.2.4 Gleichgradige Integrierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 3.2.5 Ungleichung von Doob . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 3.2.6 Gestoppte Martingale 3.2.7 Optionales SamplingTheorem 3.1.4 3.2 76 . . . . . . . . . . . . . . . . . 101 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 3.3.1 Regeneration von LévyProzessen zu Stoppzeiten . . . . . . . . . . . . . . . . 114 3.3.2 Reexionsprinzip des WienerProzesses; Verteilung des Maximums . . . . . . 117 3.3.3 WienerProzesse mit negativer Drift . . . . . . . . . . . . . . . . . . . . . . . 119 3.3.4 Subordinatoren als Prozesse von Ersterreichungszeiten . . . . . . . . . . . . . 121 4 Stochastische Prozesse mit allgemeineren Indexmengen 4.1 4.2 Zählprozesse im R1 124 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 4.1.1 Homogener PoissonProzess . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 4.1.2 Allgemeines Konstruktionsprinzip für Zählprozesse mit stationären Zuwächsen 128 4.1.3 Erneuerungsprozesse mit stationären Zuwächsen 4.1.4 Semi-Markowsche Zählprozesse; Simulationsalgorithmus Poissonsche Zählmaÿe im R d . . . . . . . . . . . . . . . . 132 . . . . . . . . . . . . 133 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 4.2.1 Denition und elementare Eigenschaften . . . . . . . . . . . . . . . . . . . . . 136 4.2.2 Messbare Indizierung der Atome 4.2.3 Simulationsalgorithmus; Akzeptanz und Verwerfungsmethode 4.2.4 Transformationssätze; radiale Simulation von homogenen PoissonProzessen . 144 . . . . . . . . . . . . . . . . . . . . . . . . . 140 . . . . . . . . 142 LITERATUR 4 Literatur [1] Applebaum, D. (2004) Lévy Processes and Stochastic Calculus. Cambridge University Press, Cambridge [2] Breiman, L. (1992) Probability. SIAM, Philadelphia [3] Grimmett, G., Stirzaker, D. (2001) Probability and Random Processes. Oxford University Press, Oxford [4] Kallenberg, O. (2001) Foundations of Modern Probability. Springer-Verlag, New York [5] Kingman, J.F.C. (1993) Poisson Processes. Oxford Univeristy Press, Oxford [6] Krylov, N.V. (2002) Introduction to the Theory of Random Processes. AMS-Series: Graduate Studies in Mathematics, Providence [7] Lefebvre, M.. (2007) Applied Stochastic Processes. Springer, Berlin [8] Prabhu, N.U. (2007) Stochastic Processes: Basic Theory and Its Applications. World Scientic, Singapore [9] Resnick, S.I. (1992) Adventures in Stochastic Processes. Birkhäuser, Boston [10] Rolski, T., Schmidli, H., Schmidt, V., Teugels, J. (1999) Stochastic Processes for Insurance and Finance. J. Wiley & Sons, Chichester [11] Samorodnitsky, G., Taqqu, M.S. (1994) Stable NonGaussian Random Processes. Chapman & Hall, New York [12] Sato, K.-I. (1999) Lévy Processes and Innite Divisibility. Cambridge University Press, Cambridge [13] Serfozo, R. (2009) Basics of Applied Stochastic Processes. Springer, Berlin [14] Skorokhod, A.V. (2005) Basic Principles and Applications of Probability Theory. Springer-Verlag, Berlin/Heidelberg 1 EINLEITUNG 5 1 Einleitung Die Vorlesung gibt eine Einführung in verschiedene Klassen stochastischer Prozesse. Schwerpunkte der Vorlesung sind: • Zählprozesse (Erneuerungsprozesse, PoissonProzesse), Sprungprozesse • MarkowProzesse • WienerProzess (Brownsche Bewegung) • LévyProzesse • Martingale Insbesondere werden analytische und asymptotische Eigenschaften dieser Modelle diskutiert, die die Grundlage für statistische Methoden und Simulationsalgorithmen bilden. Dabei werden wir in dieser Vorlesung vor allem stochastische Prozesse mit kontinuierlicher Zeit betrachten, d.h., überabzählbare Familien von Zufallsvariablen. Die Eigenschaften einzelner Zufallsvariablen bzw. von (endlichen oder abzählbar unendlichen) Folgen von Zufallsvariablen wurden ausführlich in der Vorlesung Wahrscheinlichkeitsrechnung behandelt, vgl. das Skript zur Vorlesung Elementare Wahrscheinlichkeitsrechnung und Statistik im WS 10/11. Verweise auf dieses Vorlesungsmanuskript werden wir mit dem Zusatz WR vor der Nummer der zitierten Abschnitte, Lemmata, Theoreme, Korollare bzw. Formeln kennzeichnen. Gelegentlich werden wir auch auf Abschnitte, Lemmata, Theoreme, Korollare bzw. Formeln aus dem Skript zur Vorlesung Markov Chains and MonteCarlo Simulation verweisen, wobei diese Verweise dann mit dem Zusatz MC gekennzeichnet werden. 1.1 Grundbegrie Stochastische Prozesse sind Familien {Xt , t ∈ I} von Zufallsvariablen Xt : Ω → E , die über (Ω, F, P ) deniert sind, wobei (Ω, F, P ) ein beliebiger einunddemselben Wahrscheinlichkeitsraum Wahrscheinlichkeitsraum sein kann, der oft nicht näher speziziert wird. Die Indexmenge I (E, B(E)) {Xt }. versehen ist, d.h., im allgemeinen ist raum des stochastischen Prozesses Man sagt dann, dass {Xt } ein beliebiger Messraum, der sogenannte Zustands- ein stochastischer Prozess in unterscheidet man verschiedene Arten von Indexmengen • Falls I E der Zufallsvariablen Xt kann σ Algebra B(E) von Teilmengen von E kann eine beliebige Menge sein. Der Bildraum ebenfalls eine beliebige Menge sein, die lediglich mit einer eine abzählbare Menge ist, zum Beispiel I mit Werten in (E, B(E)) ist. Dabei I. I = {0, 1, 2, . . .}, dann wird {Xt } eine zufällige Folge bzw. ein stochastischer Prozess mit diskreter Zeit genannt. 1 EINLEITUNG • 6 Typische Beispiele von (überabzählbaren) Indexmengen mit kontinuierlicher Zeit sind Halbachse) bzw. • Falls wird • I=R I = (a, b) I ⊂ B(Rd ) Werte annimmt und I⊂R I = [0, ∞) (nichtnegative euklidischen Raumes ist, wobei d ≥ 2, dann d eine Familie von Teilmengen des R ist, dann sagt man, dass {Xt } ein I ⊂ B(Rd ) eine σ Algebra ist, {Xt } nur nichtnegative mengenindizierter Prozess ist. Wenn Wenn für stochastische Prozesse (reelle Achse). I ⊂ Rd eine Teilmenge des ddimensionalen {Xt } ein zufälliges Feld genannt. Falls I ⊂ R (beschränktes Interval), σ additiv ist, dann wird {Xt } ein zufälliges Maÿ genannt. ω ∈ Ω die Funktion {Xt (ω), t ∈ I} {Xt } genannt. gilt, dann wird für jedes Pfad des stochastischen Prozesses In dieser Vorlesung werden wir vorwiegend stochastische Prozesse mit eine Trajektorie bzw. ein I ⊂ [0, ∞) und E ⊂R be- trachten. Erst in dem abschlieÿenden Kapitel 4 werden einige Klassen von stochastischen Prozessen mit allgemeineren Indexmengen diskutiert. 1.2 Endlichdimensionale Verteilungen; Existenzsatz von Kolmogorow Sei {Xt , t ∈ I} Denition ein stochastischer Prozess mit I = [0, ∞) und E = R. n = 1, 2, . . . und für jedes nTupel t1 , . . . , tn ≥ 0 Pt1 ,...,tn : B(Rn ) → [0, 1] mit Für jedes Mengenfunktion Pt1 ,...,tn (B1 × . . . × Bn ) = P (Xt1 ∈ B1 , . . . , Xtn ∈ Bn ) , endlichdimensionale Verteilung von Beachte {Xt } von Indizes wird die B1 , . . . , Bn ∈ B(R) (1) genannt. Es ist klar, dass die endlichdimensionalen Verteilungen von stochastischen Prozessen die folgenden Konsistenzeigenschaften besitzen. • Sei • Dann gilt n = 1, 2, . . . (1, . . . , n). eine beliebige natürliche Zahl, und sei π eine beliebige Permutation von Pt1 ,...,tn (B1 × . . . × Bn ) = Ptπ(1) ,...,tπ(n) (Bπ(1) × . . . × Bπ(n) ) (2) Pt1 ,...,tn ,tn+1 (B1 × . . . × Bn × R) = Pt1 ,...,tn (B1 × . . . × Bn ) (3) und für jedes B(R). (n + 1)Tupel t1 , . . . , tn+1 ≥ 0 Wir nehmen nun umgekehrt an, dass und für beliebige BorelMengen {Pt1 ,...,tn , t1 , . . . , tn ≥ 0, n = 1, 2, . . .} B1 , . . . , B n ∈ eine beliebige Familie von Wahrscheinlichkeitsmaÿen ist, die den Bedingungen (2) und (3) genügen. Der folgende (Existenz-) Satz von Kolmogorow ist eine wichtige Fundamentalaussage in der Theorie stochastischer Prozesse. 1 EINLEITUNG 7 Theorem 1.1 Für jede Familie von Wahrscheinlichkeitsmaÿen {Pt1 ,...,tn , t1 , . . . , tn ≥ 0, n = 1, 2, . . .}, die den Bedingungen (2) und (3) genügen, gibt es einen Wahrscheinlichkeitsraum (Ω, F, P ) und einen stochastischen Prozess {Xt , t ≥ 0} über diesem Wahrscheinlichkeitsraum, so dass {Pt1 ,...,tn } die endlichdimensionalen Verteilungen von {Xt , t ≥ 0} sind. Der Beweis von Theorem 1.1 beruht auf StandardTechniken der Maÿtheorie. Wir erwähnen hier nur die Grundidee des Kolmogorowschen Konstruktionsprinzips. Ein detaillierter Beweis kann zum Beispiel in Kallenberg (2001), S. 115116 nachgelesen werden. Dabei wird bei der Wahl eines geeigneten Wahrscheinlichkeitsraumes stochastischen Prozesses • {Xt } Ω = E I , d.h., in unserem Fall ist Ω = R[0,∞) von [0, ∞) in die Menge der reellen Zahlen R. Sei • F sei die kleinste (Ω, F, P ) bzw. des zugehörigen wie folgt vorgegangen. die Familie aller Abbildungen ω : [0, ∞) → R σ Algebra von Teilmengen von Ω, die sämtliche ZylinderMengen der Form AB t1 ,...,tn = {ω ∈ Ω : (ω(t1 ), . . . , ω(tn )) ∈ B} enthält für jedes beliebige • • (4) B ∈ B(Rn ). Mit Techniken der Maÿtheorie kann man zeigen, dass es ein (eindeutig bestimmtes) WahrB scheinlichkeitsmaÿ P : F → [0, 1] gibt, für das P (At ,...,t ) = Pt1 ,...,tn (B) für beliebige 1 n n n = 1, 2, . . . und t1 , . . . , tn ≥ 0 sowie B ∈ B(R ) gilt. Dann stimmen die endlichdimensionalen Verteilungen des Koordinaten-Prozesses 0}, der gegeben ist durch lichkeitsmaÿen {Pt1 ,...,tn } Xt (ω) = ω(t) für beliebige t≥0 und ω ∈ Ω, {Xt , t ≥ mit den Wahrschein- überein. Beachte • Der Existenzsatz von Kolmogorow gilt auch für beliebige Indexmengen • Der stochastische KoordinatenProzess {Xt , t ∈ I} wird dann auf völlig analoge Weise I I I über dem Wahrscheinlichkeitsraum (E , F(E ), P ) konstruiert, wobei F(E ) die kleinste I σ Algebra ist, die alle ZylingerMengen von E enthält. I und für beliebige Zustandsräume (E, B(E)), d.h., für Familien von Wahrscheinlichkeitsmaÿen {Pt1 ,...,tn , I} über (E n , B(E n )) mit n = 1, 2, . . ., die den Bedingungen (2) und (3) genügen. t1 , . . . , tn ∈ 1.3 Regularität der Trajektorien Das folgende Beispiel zeigt, dass der gemäÿ Theorem 1.1 zu vorgegebenen Wahrscheinlichkeitsmaÿen {Pt1 ,...,tn } stets existierende stochastische Prozess, der diese Wahrscheinlichkeitsmaÿe als endlich dimensionale Verteilungen hat, im allgemeinen nicht eindeutig bestimmt ist. • Sei U eine (gleichverteilte) Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P ) = ([0, 1], B([0, 1]), ν1 ) mit U (ω) = ω , wobei ν1 das LebesgueMaÿ bezeichnet. 1 EINLEITUNG • 8 Die stochastischen Prozesse Xt = 0 • • {Xt , t ∈ [0, 1]} für jedes P (U = t) = 0 Dennoch sind {Xt } und t ∈ [0, 1] {Xt } Es ist klar, dass die Prozesse besitzen, weil {Yt } die gleichen t ∈ [0, 1] gilt. und für jedes {Yt } {Yt , t ∈ [0, 1]} seien gegeben durch 1 , falls U = t, bzw. Yt = 0 , sonst. und endlichdimensionalen Verteilungen zwei verschiedene stochastische Prozesse, denn es gilt beispiels- weise P (Xt = 0 für jedes t ∈ [0, 1]) = 1 P (Yt = 0 für und jedes t ∈ [0, 1]) = 0 . Denition • Stochastische Prozesse {Xt } und {Yt }, deren endlichdimensionale Verteilungen über- einstimmen, werden Versionen einunddesselben stochastischen Phänomens genannt. • Wenn die stochastischen Prozesse lichkeitsraum (Ω, F, P ) {Xt } {Yt } über einunddemselben WahrscheinP (Xt = Yt ) = 1 für jedes t ∈ I gilt, {Yt } eine Modikation von {Xt } (und umgekehrt) und gegeben sind und wenn dann wird der stochastische Prozess genannt. Ein weiteres Problem besteht darin, dass Teilmengen von Ω = R[0,∞) , die durch Eigenschaften der Trajektorien gegeben sind, im allgemeinen nicht messbar bezüglich der σ Algebra F sein müssen, die durch die ZylinderMengen in (4) erzeugt wird. • Ein Beispiel hierfür ist die Teilmenge A = {ω ∈ Ω : Xt (ω) = 0 für Ω, 0} ∈ F von • jedes t ∈ [0, 1]} ∩ t∈[0,1] {Xt = 0} der Ereignisse ist und die deshalb im allgemeinen nicht messbar sein muss. die der (überabzählbare) Durchschnitt A = {Xt = Dieses Problem lässt sich dadurch lösen, dass man nur solche stochastischen Prozesse betrachtet, deren Trajektorien gewisse Regularitätseigenschaften besitzen. • Falls alle Trajektorien des Prozesses {Xt } stetige Funktionen sind, dann wird {Xt } ein stetiger Prozess genannt. In diesem Fall lässt sich die in oben betrachtete Menge abzählbar vielen Mengen aus F A⊂Ω als der Durchschnitt von darstellen. Denn es gilt dann A= ∩ t ∈ [0, 1], t d.h. A ∈ F. {ω ∈ Ω : Xt (ω) = 0} , rational 1 EINLEITUNG 9 Die im folgenden Kapitel 2 betrachteten klassischen Beispiele von stochastischen Prozessen zeigen jedoch, dass es nicht ausreicht, nur Prozesse mit stetigen Trajektorien zu betrachten. • Deshalb wird im allgemeinen eine gröÿere Klasse von stochastischen Prozessen betrachtet, die alle praktisch relevanten Beispiele umfasst und deren Trajektorien gleichzeitig gute Regularitätseigenschaften besitzen. • Dabei wird nur gefordert, dass die Trajektorien überall rechtsstetig sind und linksseitige Grenzwerte besitzen. Hinreichende Bedingungen hierfür sind durch das folgende Theorem gegeben. Theorem 1.2 Sei {Xt , t ≥ 0} ein beliebiger reellwertiger Prozess, und sei abzählbare Menge, die dicht in [0, ∞) liegt. Falls (i) D ⊂ [0, ∞) eine P {Xt } rechtsstetig in Wahrscheinlichkeit ist, d.h., für beliebige t ≥ 0 und h ↓ 0 gilt Xt+h −→ Xt , P wobei −→ die Konvergenz in Wahrscheinlichkeit bezeichnet, {Xt } für jedes t ∈ D mit Wahrscheinlichkeit 1 endliche rechts- und linksseitige Grenzwerte besitzen, d.h., für jedes t ∈ D existieren die Grenzwerte limh↓0 Xt+h und limh↑0 Xt+h mit Wahrscheinlichkeit 1, (ii) die Trajektorien von dann gibt es eine Version {Yt , t ≥ 0} (a) die Trajektorien von {Yt } von {Xt , t ≥ 0}, so dass mit Wahrscheinlichkeit 1 rechtsstetig sind und (b) linksseitige Grenzwerte besitzen, d.h., limh↑0 Yt+h existiert für jedes t ≥ 0. Der Beweis von Theorem 1.2 geht über den Rahmen dieser Vorlesung hinaus und wird deshalb weggelassen; er kann beispielsweise in Breiman (1992), S. 300 nachgelesen werden. Theorem 1.3 Konstanten (A.N. Kolmogorow) Sei a, b, c ∈ (0, ∞) {Xt , t ≥ 0} ein beliebiger reellwertiger Prozess, so dass es gibt mit ( ) E |Xt − Xs |a ≤ c |t − s|1+b Dann gibt es eine stetige Modikation von ∀ t, s ≥ 0 . {Xt }. Einen Beweis von Theorem 1.3 kann man zum Beispiel in Krylov (2002), S. 2021 nachlesen. 1 EINLEITUNG 10 1.4 Modikationen von càdlàg Prozessen In diesem und in den nachfolgenden Abschnitten setzen wir stets (o.B.d.A.) voraus, dass (Ω, F, P ) ein vollständiger Wahrscheinlichkeitsraum ist, d.h., • sämtliche Nullmengen des Wahrscheinlichkeitsraumes (Ω, F, P ) gehören zu F bzw. (äquiva- lent hierzu) • für C ⊂ Ω gilt C ∈ F , falls es Teilmengen A, B ∈ F gibt, so dass A ⊂ C ⊂ B und P (B\A) = 0. Beachte • Zur Erinnerung: Wenn für die stochastischen Prozesse (Ω, F, P ) P (Xt = Yt ) = 1 gilt, dann wird • {Yt } für jedes {Xt } eine Modikation von und {Yt , t ≥ 0} t≥0 über (5) (und umgekehrt) genannt. Manchmal wird eine verschärfte Version der Bedingung (5) betrachtet. Dabei sagt man, dass die stochastischen Prozesse {Xt } und P (Xt = Yt • {Xt , t ≥ 0} {Yt } für jedes ununterscheidbar sind, wenn t ≥ 0) = 1. Auÿerdem sagt man, dass der stochastische Prozess wenn fast alle Trajektorien von {Xt } {Xt , t ≥ 0} càdlàg ist, rechtsstetige Funktionen sind, die linksseitige Grenzwerte besitzen, wobei càdlàg eine Abkürzung der französischen Sprechweise continu à droite, limites à gauche ist. • Alle stochastischen Prozesse mit stückweise konstanten bzw. stetigen Trajektorien, die in Kapitel 2 betrachtet werden, sind càdlàg. Theorem 1.4 {Xt } und {Yt } Seien {Xt , t ≥ 0} und {Yt , t ≥ 0} stochastische Prozesse über (Ω, F, P ), so dass mit Wahrscheinlichkeit 1 rechtsstetige Trajektorien besitzen. Auÿerdem sei {Yt } eine Modikation von {Xt }. Dann sind die Prozesse {Xt } und {Yt } ununterscheidbar. Beweis • A, A′ ⊂ Ω Ω, für die die Trajektorien von {Xt } bzw. P (A) = P (A′ ) = 0. ∪ • Auÿerdem sei Ct = {ω ∈ Ω : Xt (ω) ̸= Yt (ω)} für jedes t ≥ 0 und C = t∈Q+ Ct , wobei Q+ = Q ∩ [0, ∞) die Menge der rationalen Zahlen in [0, ∞) bezeichnet. Seien {Yt } diejenigen Teilmengen von nicht rechtsstetig sind, wobei dann Weil {Yt } eine Modikation von {Xt } ist, gilt P (C) = 0 und deshalb auch P (C ′ ) = 0 , C ′ = C ∪ A ∪ A′ . Somit ist klar, dass Xt (ω) = Yt (ω) (6) wobei für beliebige t ∈ Q+ und ω ̸∈ C ′ . 1 EINLEITUNG • 11 t ≥ 0 eine beliebige (nichtnegative) tn > tn+1 ≥ t und tn ↓ t. Sei nun mit Xtn (ω) = Ytn (ω) Weil für beliebige Zahl und n≥1 und {tn } ω ̸∈ C ′ , eine Folge rationaler Zahlen ergibt sich nun, dass Xt (ω) = lim Xtn (ω) = lim Ytn (ω) = Yt (ω) n→∞ für beliebige t≥0 und n→∞ ω ̸∈ C ′ . Wegen (6) folgt hieraus, dass die Prozesse {Xt } und {Yt } ununterscheidbar sind. Aus Theorem 1.4 ergibt sich insbesondere das folgende Resultat. Korollar 1.1 von {Xt } Die Prozesse {Xt , t ≥ 0} und {Yt , t ≥ 0} seien càdlàg, wobei sei. Dann sind die Prozesse {Xt } und {Yt } ununterscheidbar. {Yt } eine Modikation 1.5 Stationarität und Unabhängigkeit; stationäre bzw. unabhängige Zuwächse Von groÿer Bedeutung sind stochastische Prozesse, für die die in (1.2.1) eingeführten endlich dimensionalen Verteilungen gewisse Invarianzeigenschaften besitzen. Zwei wichtige Klassen solcher stochastischen Prozesse sind wie folgt deniert. Denition • Seien n = 1, 2, . . ., 0 ≤ t0 < t1 < . . . < tn h≥0 beliebige Zahlen. {Xt , t ≥ 0} heiÿt stationär, wenn die Verteilungen der Zufalls(Xt1 +h , . . . , Xtn +h ) nicht von h abhängen. Der stochastische Prozess vektoren • und {Xt , t ≥ 0} ein Prozess mit stationären Zuwächsen ist, wenn die Verteilungen der Zufallsvektoren (Xt1 +h −Xt0 +h , . . . , Xtn +h −Xtn−1 +h ) Man sagt, dass der stochastische Prozess nicht von h abhängen. Eine andere wichtige Klasse von stochastischen Prozessen, die wir in dieser Vorlesung ausführlich behandeln werden, ist wie folgt deniert. Denition und {Xt , t ≥ 0} ein Prozess mit unabhängigen Xt0 , Xt1 − Xt0 , . . . , Xtn − Xtn−1 für alle n = 1, 2, . . . Man sagt, dass der stochastische Prozess Zuwächsen ist, wenn die Zufallsvariablen 0 ≤ t0 < t 1 < . . . < t n unabhängig sind. Gelegentlich werden wir auch den Begri der Unabhängigkeit von zwei (oder mehreren) stochastischen Prozessen bzw. den Begri der Unabhängigkeit eines Prozesses von einer Denition Seien {Xt , t ≥ 0} und {Yt , t ≥ 0} zwei beliebige stochastische Prozesse über einund(Ω, F, P ) und sei G ⊂ F eine beliebige Teilσ Algebra demselben Wahrscheinlichkeitsraum von F. σ Algebra benötigen. 1 EINLEITUNG • 12 {Xt } und {Yt } unabhängig sind, wenn die Zufallsvektoren (Xt1 , . . . , Xtn ) (Ys1 , . . . , Ysm ) für beliebige (endliche) Folgen von nichtnegativen Zahlen t1 , . . . , tn bzw. s1 , . . . , sm unabhängig sind. Man sagt dann, dass und • Auÿerdem sagt man, dass {Xt } von G unabhängig ist, wenn für jede Folge t1 , . . . , tn von nichtnegativen Zahlen und für beliebige B1 , . . . , Bn ∈ B(R) und A ∈ G die Ereignisse Xt−1 (B1 ) ∩ . . . ∩ Xt−1 (Bn ) und A unabhängig sind, wobei Xt−1 (B) = {ω ∈ Ω : Xt (ω) ∈ 1 n B}. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 13 2 Prozesse mit stückweise konstanten bzw. stetigen Trajektorien In den ersten drei Abschnitten dieses Kapitels betrachten wir Beispiele von stochastischen Prozessen, deren Pfade stückweise konstante (Sprung) Funktionen sind. Dagegen ist der in Abschnitt 2.4 betrachtete WienerProzess ein Beispiel von stochastischen Prozessen mit stetigen Trajektorien. 2.1 Zählprozesse; Erneuerungsprozesse Sei (Ω, F, P ) S1 , S2 , . . . : Ω → [0, ∞) 0 ≤ S1 ≤ S2 ≤ . . .. ein beliebiger Wahrscheinlichkeitsraum, und sei Folge von nichtnegativen Zufallsvariablen mit In der Versicherungsmathematik können die Zufallsvariablen Sn eine beliebige Zeitpunkte modellieren, zu de- nen Schäden eines bestimmten Typs eintreten. Dies können beispielsweise Schäden sein, die durch Naturkatastrophen wie Erdbeben oder schwere Stürme verursacht werden. Denition 1. Der stochastische Prozess {Nt , t ≥ 0} mit Nt = ∞ ∑ 1I(Sk ≤ t) (1) k=1 1I(A) der Indikator des 1I(A)(ω) = 0, falls ω ̸∈ A. wird Zählprozess genannt, wobei 1I(A)(ω) = 1, 2. Sei falls ω ∈ A, und Ereignisses A ∈ F ist, d.h. T1 , T2 , . . . : Ω → [0, ∞) eine Folge von unabhängigen und identisch verteilten Zufalls- variablen, die nur nichtnegative Werte annehmen. • {Sn , n = 0, 1, . . .} mit Erneuerungspunktprozess genannt, wobei Dann wird die Folge S0 = 0 und Sn = T1 +. . .+Tn für n ≥ 1 ein Sn der n-te Erneuerungszeitpunkt heiÿt, vgl. Abb. 1. • Der in (1) gegebene stochastische Prozess • Dabei wird stets vorausgesetzt, dass die Zwischenankunftszeiten {Nt , t ≥ 0} wird in diesem Fall Erneuerungszählprozess bzw. kurz Erneuerungsprozess genannt, vgl. Abb. 2. Wahrscheinlichkeit 1 gleich Null sind, d.h., es gelte P (Tn > 0) > 0 Tn nicht mit für jedes n ≥ 1. 2.1.1 Ergodensatz; Zentraler Grenzwertsatz Aus dem starken Gesetz der groÿen Zahlen (vgl. Theorem WR5.15) ergibt sich die folgende asymptotische Eigenschaft des Erneuerungsprozesses {Nt , t ≥ 0}; vgl. auch Beispiel 6 in Abschnitt WR 5.2.3. Aussagen dieses Typs werden in der Literatur individueller Ergodensatz genannt. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN {Sn } Abbildung 1: Punktprozess mit Zwischenankunftszeiten 14 {Tn } Theorem 2.1 Tn Sei 0 < µ < ∞, wobei µ = E Tn den Erwartungswert der Zwischenankunftszeiten bezeichnet. Dann gilt mit Wahrscheinlichkeit 1, dass lim t→∞ Nt 1 = . t µ (2) Beweis • Für jedes t>0 gilt P (Nt < ∞) = 1 , limn→∞ Sn = ∞ denn aus Theorem WR5.15 folgt, dass • Auÿerdem ist limt→∞ Nt (ω) • Nt (ω) für jedes ω ∈ Ω monoton ω ∈ Ω. (3) mit Wahrscheinlichkeit 1. nichtfallend in t ≥ 0, d.h., der Grenzwert existiert für jedes Darüber hinaus gilt mit Wahrscheinlichkeit 1 lim Nt = ∞ , t→∞ weil ( ) P lim Nt < ∞ = t→∞ = = (4) ( ) lim P lim Nt < k k→∞ t→∞ lim lim P (Nt < k) k→∞ t→∞ lim lim P (Sk > t) ( t t ) ≤ lim lim P (T1 > ) + . . . + P (Tk > ) = 0 . k→∞ t→∞ k k • k→∞ t→∞ Aus Theorem WR5.15 folgt also, dass mit Wahrscheinlichkeit 1 lim t→∞ SNt =µ. Nt (5) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN Abbildung 2: Zählprozess • t≥0 Auÿerdem gilt für beliebige und {Nt } n ∈ N = {1, 2, . . .} {Nt = n} = {Sn ≤ t < Sn+1 } . • Folglich gilt SNt ≤ t < SNt +1 (6) bzw. SNt t SNt +1 Nt + 1 ≤ ≤ Nt Nt Nt + 1 Nt • 15 ∀t ≥ T1 . Hieraus und aus (5) ergibt sich nun die Gültigkeit von (2). Auÿerdem gilt der folgende zentrale Grenzwertsatz; vgl. auch Beispiel 4 in Abschnitt WR5.3.2. Theorem 2.2 Sei 0 < µ = E T1 < ∞, E T12 < ∞ lim P t→∞ wobei c = Var T1 /µ3 und und Var T1 > 0. Für jedes ( N − tµ−1 ) t √ ≤ x = Φ(x) , ct Φ : R → [0, 1] x∈R gilt dann (7) die Verteilungsfunktion der Standardnormalverteilung ist. Beweis • Aus dem Beweis des zentralen Grenzwertsatzes für Summen von unabhängigen und identisch verteilten Zufallsvariablen (vgl. den Beweis von Theorem WR5.16) ergibt sich, dass die Konvergenz gleichmäÿig in x∈R ( S − nµ ) n lim P √ ≤ x = Φ(x) n→∞ nVar T1 erfolgt. (8) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Sei ⌊a⌋ gilt dann für jedes hinreichend P • a ≥ 0. groÿe t der ganzzahlige Anteil von Mit der Schreibweise 16 √ m(t) = ⌊x ct + tµ−1 ⌋ ( N − tµ−1 ) √ t √ ≤x = P (Nt ≤ x ct + tµ−1 ) ct = P (Sm(t)+1 > t) (S t − µ(m(t) + 1) ) m(t)+1 − µ(m(t) + 1) √ >√ . = P (m(t) + 1)Var T1 (m(t) + 1)Var T1 Also gilt ( N − tµ−1 ) t √ ≤ x − Φ(x) P ct (S ( t − µ(m(t) + 1) )) t − µ(m(t) + 1) ) ( m(t)+1 − µ(m(t) + 1) √ ≤ P >√ − 1−Φ √ (m(t) + 1)Var T1 (m(t) + 1)Var T1 (m(t) + 1)Var T1 ( ( t − µ(m(t) + 1) )) + 1 − Φ √ − Φ(x) . (m(t) + 1)Var T1 • Auÿerdem gilt für jedes x∈R √ lim m(t) = lim ⌊x ct + tµ−1 ⌋ = ∞ . t→∞ • t→∞ Wegen (8) und wegen der Symmetrieeigenschaft 1 − Φ(−x) = Φ(x) der Verteilungsfunktion Φ ∀x ∈ R der N(0, 1)Verteilung genügt es somit noch zu zeigen, dass t − µm(t) lim √ = −x . m(t)Var T1 (9) t→∞ • Weil √ m(t) = x ct + tµ−1 + ε(t) mit 0 ≤ |ε(t)| < 1 für jedes hinreichend groÿe t≥0 gilt, ergibt sich t − µm(t) √ m(t)Var T1 √ t − µx ct − t − µε(t) √ = m(t)Var T1 √ µ−1 Var T1 t µε(t) = −x √ −√ , √ m(t)Var T1 µ−1 Var T1 t + xVar T1 ct + Var T1 ε(t) wobei der erste Summand gegen • −x und der zweite Summand gegen 0 strebt für t → ∞. Damit ist die Behauptung (7) bewiesen. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 17 2.1.2 Erneuerungsfunktion Denition Die Funktion H : [0, ∞) → [0, ∞), wobei H(t) = E Nt die erwartete Anzahl von [0, t] bezeichnet, wird Erneuerungsfunktion von {Nt } Erneuerungszeitpunkten im Intervall genannt. Aus (1) ergibt sich, dass H(t) = E ∞ ∑ 1I(Sn ≤ t) = n=1 ∞ ∑ E 1I(Sn ≤ t) = n=1 ∞ ∑ F ∗n (t) , (10) n=1 ∗n die Verteilungsfunktion der Zwischenankunftszeiten Tn und F ∗n ∗(n−1) die n-te Faltungspotenz von F bezeichnet. Dabei gilt F =F ∗ F und (G ∗ F )(t) = ∫t ∗1 ∗0 ∗0 G(t − s) dF (s) mit F (t) = F (t) und F = 1 I([0, ∞)) , d.h., F (t) = 1 für t ≥ 0 und −∞ F ∗0 (t) = 0 für t < 0. wobei F : [0, ∞) → [0, 1] Beachte 1. Es ist klar, dass die Erneuerungsfunktion H : [0, ∞) → [0, ∞) monoton wachsend H(t) < ∞ für jedes t ≥ 0 gilt. ist. Auÿerdem ist es nicht schwierig zu zeigen, dass 2. Allerdings ist es nur in wenigen Spezialfällen möglich, einfache geschlossene Formeln für die Erneuerungsfunktion H herzuleiten. Die LaplaceStieltjesTransformierte ˆ lH (s) = ∫ ∞ −sx e dH(x) von H lässt sich jedoch immer durch die LaplaceStieltjesTransformierte 0 von F ausdrücken. Theorem 2.3 Für jedes s>0 gilt ˆlH (s) = Beweis ˆlF (s) . 1 − ˆlF (s) (11) Aus (10) ergibt sich, dass ∫ ˆlH (s) = ∞ 0 e−sx d( ∞ ∑ F ∗n (x)) = n=1 ∞ ∫ ∑ n=1 wobei die geometrische Reihe ∑∞ ∞ e−sx dF ∗n (x) = 0 ˆ n=1 (lF (s)) ∞ ∑ ˆlF ∗n (s) = n=1 n konvergiert, weil ˆ lF (s) ∞ ∑ (ˆlF (s))n = n=1 <1 für jedes s>0 ˆlF (s) , 1 − ˆlF (s) gilt. Aus Theorem 2.1 ergibt sich die Vermutung, dass die Erneuerungsfunktion H(t) = E Nt ein ähnli{Nt } gezeigt ches asymptotisches lineares Verhalten hat, wie es in (2) für den Erneuerungsprozess wurde. Um dies zu zeigen, benötigen wir den folgenden Hilfssatz, der in der Literatur die Waldsche Identität für Erneuerungsprozesse genannt wird. Lemma 2.1 t≥0 Sei g : [0, ∞) → [0, ∞) E t +1 (N∑ i=1 ein beliebige Borelmessbare Funktion. Dann gilt für jedes ) g(Ti ) = E g(T1 )(E Nt + 1) . (12) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 18 Beweis • Um die Gültigkeit von (12) zu zeigen, führen wir die folgenden Hilfsvariablen ein: Sei 0 Yi = 1 • falls i > Nt + 1 , falls i ≤ Nt + 1. Dann ergibt sich aus dem Satz über die monotone Konvergenz, dass E t +1 (N∑ ∞ ∞ ) (∑ ) ∑ g(Ti ) = E g(Ti )Yi = E (g(Ti )Yi ) , i=1 i=1 i=1 wobei die Erwartungswerte in der letzten Summe genauer bestimmt werden können, weil g(Ti ) die Zufallsvariablen • unabhängig sind. Dies gilt, weil die BernoulliVariable Ereignis • Yi und {Yi = 1} Es gilt jedoch von Ti Yi genau dann von Ti unabhängig ist, wenn das unabhängig ist. {Yi = 1} = {Nt + 1 ≥ i} = {Si−1 ≤ t}, Ti . und das letzte Ereignis ist unabhängig von • Hieraus folgt, dass E t +1 (N∑ ∞ ∞ ) ∑ ∑ g(Ti ) = E g(Ti )E Yi = E g(T1 ) P (Yi = 1) i=1 i=1 = E g(T1 ) ∞ ∑ i=1 P (Nt + 1 ≥ i) = E g(T1 )(E Nt + 1) . i=1 Wir sind nun in der Lage, das folgende Theorem zu beweisen, das in der Literatur der elementare Erneuerungssatz genannt wird. Theorem 2.4 Sei 0 < µ < ∞. Dann gilt lim t→∞ H(t) 1 = . t µ (13) Beweis • Aus Theorem 2.1 ergibt sich mit Hilfe des Lemmas von Fatou, dass µ−1 = E lim inf t−1 Nt ≤ lim inf t−1 E Nt = lim inf t−1 H(t) . t→∞ • Andererseits gilt auch t→∞ µ−1 ≥ lim sup t−1 H(t) . t→∞ t→∞ (14) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • • Um dies zu zeigen, betrachten wir die gestutzten Zwischenankunftszeiten ′ für ein hinreichend groÿes b > 0, so dass E Tn > 0. ′ Sei {Nt , t ≥ 0} der entsprechende Zählprozess mit ∞ ∑ Nt′ = 1I(Sn′ ≤ t) , Sn′ = n ∑ n=1 H ′ (t) = E Nt′ . • Dann gilt Nt′ ≥ Nt 19 Tn′ = min{Tn , b} Ti′ , (15) i=1 und H ′ (t) ≥ H(t) und somit für jedes t ≥ 0. Hieraus und aus Lemma 2.1 ergibt sich, dass ′ E SN ′ t +1 lim sup t−1 H(t) ≤ lim sup t−1 H ′ (t) ≤ lim sup t−1 E T1′ t→∞ t→∞ t→∞ ( ) ′ ′ ′ −1 ≤ lim sup t−1 E SN ′ + TN ′ +1 (E T1 ) t t t→∞ ≤ lim sup t−1 (t + b)(E T1′ )−1 = (E T1′ )−1 . t→∞ • Damit ist (14) bewiesen, denn es gilt limb→∞ E T1′ = E T1 . Auÿer der in Theorem 2.4 hergeleiteten asymptotischen Linearität lässt sich noch eine wesentliche schärfere Aussage über das asymptotische Verhalten der Erneuerungsfunktion H(t) t → ∞ für herleiten. Der folgende Grenzwertsatz wird in der Literatur Erneuerungssatz von Blackwell bzw. Haupter- neuerungssatz. genannt. Er besagt, dass sich das Erneuerungsmaÿ H(B) = ∞ ∫ ∑ n=0 dF ∗n (x) , H : B([0, ∞)) → [0, ∞] mit B ∈ B([0, ∞)) B asymptotisch genauso wie das LebesgueMaÿ verhält. Theorem 2.5 Sei 0 < µ < ∞, und die Verteilungsfunktion F sei nicht gitterförmig, F liegen nicht auf einem regelmäÿigen Gitter. Dann gilt y lim (H((−∞, x]) − H((−∞, x − y])) = ∀y ≥ 0. x→∞ µ d.h., die Wachstumspunkte von (16) Der Beweis von Theorem 2.5 geht über den Rahmen dieser Vorlesung hinaus und wird deshalb weggelassen. Er kann beispielsweise in Kallenberg (2001), S. 172174 nachgelesen werden . 2.1.3 Verzögerte Erneuerungprozesse; stationäre Zuwächse Wir betrachten nun ein etwas allgemeineres Modell von Erneuerungsprozessen. Dabei setzen wir voraus, dass T1 , T2 , . . . eine Folge von unabhängigen nichtnegativen Zufallsvariablen T2 , T3 , . . . identisch verteilt sind mit der Verteilungsfunktion F . ist und dass die Zufallsvariablen Wir lassen jedoch zu, dass kann. T1 eine beliebige Verteilungsfunktion F1 hat, die von F verschieden sein 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN Denition Die Folge {Sn , n ≥ 1} mit Sn punktprozess genannt. Der Zählprozess 20 = T1 + . . . + Tn wird dann verzögerter Erneuerungs{Nt , t ≥ 0}, der wiederum so wie in (1) deniert wird, heiÿt verzögerter Erneuerungszählprozess bzw. kurz verzögerter Erneuerungsprozess. Völlig analog zu Theorem 2.4 lässt sich die folgende Aussage beweisen. Theorem 2.6 Sei 0 < µ < ∞. Dann gilt lim t→∞ H(t) 1 = , t µ wobei H(t) = E Nt = ∞ ∑ (17) (F1 ∗ F ∗n )(t) . (18) n=0 Der Fall, wenn F1 die sogenannte integrierte Tailverteilungsfunktion rem Interesse, wobei F s (x) = Theorem 2.7 Es gelte 0<µ<∞ 1 µ ∫ von F ist, ist von besonde- x (1 − F (y)) dy ∀x ≥ 0. (19) 0 und ∀x ≥ 0. F1 (x) = F s (x) Dann ist die Erneuerungsfunktion Fs H(t) (20) gegeben durch H(t) = t µ ∀t ≥ 0. (21) Beweis • Wenn auf beiden Seiten der Gleichung (18) zu den LaplaceStieltjesTransformierten übergegangen wird, dann ergibt sich genauso wie im Beweis von Theorem 2.3, dass ˆlH (s) = ˆlF (s) ˆlF s (s) 1 = . ˆ 1 − lF (s) 1 − ˆlF (s) = (1−ˆlF (s))(sµ)−1 gilt, ergibt sich hieraus, dass ˆlH (s) = (sµ)−1 = µ−1 ∫∞ e−sv dv . • Weil ˆ lF s (s) • Wegen des eineindeutigen Zusammenhanges zwischen Erneuerungsfunktionen und Laplace StieltjesTransformierten, ist damit die Gültigkeit von (21) bewiesen. Für verzögerte Erneuerungsprozesse {Nt , t ≥ 0}, 0 die der Bedingung (20) genügen, lässt sich eine wesentlich schärfere Aussage als in Theorem 2.7 herleiten. Hierfür benötigen wir den folgenden Begri: Die Zufallsvariable T (t) = SNt +1 − t heiÿt Exzess zum Zeitpunkt t ≥ 0. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN Theorem 2.8 {Nt , t ≥ 0} Unter den Voraussetzungen von Theorem 2.7 21 ist der verzögerte Erneuerungsprozess ein Prozess mit stationären Zuwächsen. Beweis • T1 , T2 , . . . unabhängig sind, hängt die gemeinsame Verteilung Nt1 +t − Nt0 +t , . . . , Ntn +t − Ntn−1 +t nicht von t ab, falls die Verteilung des Weil die Zufallsvariablen der Zuwächse Exzesses • T (t) diese Eigenschaft hat. In Anbetracht der in Abschnitt 1.5 eingeführten Denition von Prozessen mit stationären s Zuwächsen genügt es zu zeigen, dass P (T (t) ≤ x) = F (x) für jedes x ≥ 0 gilt, und zwar unabhängig von • t. Dies ergibt sich aus den folgenden Überlegungen: Es gilt P (T (t) ≤ x) = ∞ ∑ P (Sn−1 ≤ t < Sn ≤ t + x) n=1 = F (t + x) − F (t) + s s ∞ ∫ ∑ n=1 = F (t + x) − F (t) + µ s s −1 t (F (t + x − y) − F (t − y)) d(F s ∗F ∗(n−1) )(y) 0 ∫ t (F (t + x − y) − F (t − y)) dy = F s (x) , 0 wobei sich die dritte Gleichheit aus (18) und (21) ergibt. Beachte Weil E Nt = E (Nt − Nt′ ) + E Nt′ für beliebige t, t′ ≥ 0 mit t′ ≤ t gilt, ergibt sich E Nt eine lineare Funktion in t ist. Somit implizieren die unmittelbar aus Theorem 2.8, dass Theoreme 2.6 und 2.8 die Aussage von Theorem 2.7. 2.2 Zählprozesse vom PoissonTyp 2.2.1 Homogener PoissonProzess In diesem Abschnitt betrachten wir (Erneuerungs-) Zählprozesse Nt = ∞ ∑ 1I(Sk ≤ t) {Nt , t ≥ 0} mit Sn = T1 + . . . + Tn , und (22) k=1 wobei T1 , T2 , . . . : Ω → [0, ∞) eine Folge von unabhängigen und identisch verteilten Zufallsvariablen Tn exponentialverteilt sind, ist. Dabei setzen wir zusätzlich voraus, dass die Zwischenankunftszeiten d.h., Tn ∼ Exp(λ) Denition für ein Falls (23) gilt, dann wird der Zählprozess mit der Intensität λ genannt. λ > 0. {Nt , t ≥ 0} ein homogener (23) PoissonProzess 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 22 Beachte • Eine grundlegende Eigenschaft homogener PoissonProzesse besteht darin, dass sie eine Klasse stochastischer Prozesse mit unabhängigen und stationären Zuwächsen bilden. • Dies werden wir in dem folgenden Theorem genauer analysieren, das verschiedene äquivalente Denitionsmöglichkeiten des homogenen PoissonProzesses enthält wobei wir das Adjektiv homogen der Kürze wegen weglassen. Theorem 2.9 Sei {Nt , t ≥ 0} ein beliebiger Zählprozess. Dann sind die folgenden Aussagen äqui- valent: (a) {Nt } ist ein PoissonProzess mit Intensität λ. t ≥ 0 und n = 1, 2, . . . ist die Zufallsvariable Nt poissonverteilt mit Parameter λt, Nt ∼ Poi(λt), und unter der Bedingung, dass {Nt = n}, hat der Zufallsvektor (S1 , . . . , Sn ) gleiche Verteilung wie die Ordnungsstatistik von n unabhängigen, in [0, t] gleichverteilten (b) Für beliebige d.h. die Zufallsvariablen. (c) {Nt } E N1 = λ, und für beliebige t ≥ 0 und n = 1, 2, . . . (S1 , . . . , Sn ) unter der Bedingung, dass {Nt = n}, die gleiche Verteilung Ordnungsstatistik von n unabhängigen, in [0, t] gleichverteilten Zufallsvariablen. hat unabhängige Zuwächse mit der Zufallsvektor die (d) {Nt } hat stationäre und unabhängige Zuwächse, und für P (Nh = 0) = 1 − λh + o(h) , (e) h↓0 gilt P (Nh = 1) = λh + o(h) . {Nt } hat stationäre und unabhängige Zuwächse, und für jedes verteilte Zufallsvariable. Beweis hat wie t ≥ 0 ist (24) Nt eine Poi(λt) Wir führen einen zyklischen Beweis, d.h., wir zeigen, dass (a)⇒(b)⇒(c)⇒(d)⇒(e)⇒(a) gilt. (a)⇒(b) • Sn = Verteilung mit den Parametern • ∑n i=1 Ti eine Summe von n unabhängigen und Exp(λ) verteilten Zufallsvariablen ist, d.h., Sn ist Erl(n, λ)verteilt, wobei Erl(n, λ) die Erlang Aus (a) ergibt sich, dass Hieraus ergibt sich, dass n und λ bezeichnet. P (Nt = 0) = P (S1 > t) = e−λt P (Nt = n) = und P (Nt ≥ n) − P (Nt ≥ n + 1) P (Sn ≤ t) − P (Sn+1 ≤ t) ∫ t n+1 n ∫ t n n−1 λ v −λv λ v −λv e dv − e dv = n! 0 0 (n − 1)! ∫ t (λt)n −λt d ( (λv)n −λv ) dv = = e e n! n! 0 dv = für jedes n ≥ 1, d.h., Nt ist Poi(λt)verteilt. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Weil die gemeinsame Dichte fS1 ,...,Sn+1 (t1 , . . . , tn+1 ) fS1 ,...,Sn+1 (t1 , . . . , tn+1 ) = n+1 ∏ von S1 , . . . , Sn+1 23 gegeben ist durch λe−λ(tk −tk−1 ) = λn+1 e−λtn+1 k=1 t0 = 0 ≤ t1 ≤ . . . ≤ tn ≤ tn+1 und fS1 ,...,Sn+1 (t1 , . . . , tn+1 ) = 0 sonst, gilt fS1 ,...,Sn (t1 , . . . , tn | Nt = n) von S1 , . . . , Sn unter Bedingung, dass Nt = n, die Formel für beliebige für die gemeinsame bedingte Dichte der fS1 ,...,Sn (t1 , . . . , tn | Nt = n) = fS1 ,...,Sn (t1 , . . . , tn | S1 ≤ t, . . . , Sn ≤ t, Sn+1 > t) ∫ ∞ n+1 −λx n+1 λ e dxn+1 = ∫t∫t ∫t t ∫∞ −λx n+1 n+1 dx . . . xn−1 t λ e n+1 . . . dx1 0 x1 = für • 0 ≤ t1 ≤ . . . ≤ tn ≤ t und n! tn fS1 ,...,Sn (t1 , . . . , tn | Nt = n) = 0 Das ist die Dichte der Ordnungsstatistik von n sonst. unabhängigen, in [0, t] gleichverteilten Zufallsvariablen. (b)⇒(c) • Aus (b) ergibt sich ohne weiteres, dass • Sei nun x1 , . . . , xn ∈ N x = x1 + . . . + xn , dass P und E N1 = λ. t0 = 0 < t1 < . . . < tn . Dann ergibt sich aus (b) für n n (∩ (∩ ) { }) { } Ntk − Ntk−1 = xk = P Ntk − Ntk−1 = xk Ntn = x P (Ntn = x) k=1 k=1 = )x n ( ∏ tk − tk−1 k (λtn )x −λtn x! e x! x1 ! . . . xn ! tn k=1 = n ∏ (λ(tk − tk−1 ))xk −λ(tk −tk−1 ) e , xk ! k=1 d.h., der Zählprozess {Nt } hat unabhängige Zuwächse. (c)⇒(d) • Wir nehmen an, dass der Zufallsvektor (S1 , . . . , Sm ) unter der Bedingung, dass N (tn + h) = m, die gleiche Verteilung hat wie die Ordnungsstatistik von m unabhängigen, in [0, tn + h] gleichverteilten Zufallsvariablen. • Dann gilt für beliebige P x1 , . . . , xn ∈ N, t0 = 0 < t1 < . . . < tn und h > 0, dass n n (∩ ) (∩ ) { } { } Ntk +h − Ntk−1 +h = xk Ntn +h = m = P Ntk − Ntk−1 = xk Ntn +h = m . k=1 k=1 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • • 24 Mit Hilfe der Formel der totalen Wahrscheinlichkeit ergibt sich nun, dass der Zählprozess {Nt } stationäre Zuwächse hat. Auÿerdem ergibt sich aus der bedingten Gleichverteilungseigenschaft, die in (c) vorausgesetzt wird, dass für P (Nh = 0) ∞ ∑ = k=0 ∞ ∑ = 0<h<1 P (Nh = 0, N1 − Nh = k) = ∞ ∑ P (N1 = k) P (N1 − Nh = k | N1 = k) k=0 P (N1 = k)(1 − h)k . k=0 • Somit gilt 1 (1 − P (Nh = 0)) h ) ∑ 1( 1− P (N1 = k)(1 − h)k h ∞ = k=0 ∞ ∑ = P (N1 = k) k=1 • 1 − (1 − h)k . h (1 − h)k ≥ 1 − kh, die für beliebige 0 < h < 1 und k = 1, 2, . . . gh (k) = h−1 (1 − (1 − h)k ) in der letzten Summe die Schranke g(k) = k besitzen. Aus der Ungleichung gilt, folgt, dass die Funktionen gemeinsame • Diese Schranke ist integrierbar, denn es gilt ∞ ∑ kP (N1 = k) = E N1 = λ < ∞ . k=1 • Durch Vertauschung von Summation und Grenzwert ergibt sich nun, dass lim h→0 1 P (Nh > 0) = λ h und somit der erste Teil von (24). • Auf die gleiche Weise erhalten wir, dass ∞ ∑ 1 lim P (Nh = 1) = lim P (N1 = k) k(1 − h)k−1 = λ , h→0 h h→0 k=1 was äquivalent zum zweiten Teil von (24) ist. (d)⇒(e) • Sei n ∈ N, t ≥ 0 und pn (t) = P (Nt = n). Dann gilt für h>0 p0 (t + h) = P (Nt = 0, Nt+h − Nt = 0) = p0 (t)(1 − λh + o(h)) und für t≥h>0 p0 (t) = p0 (t − h)(1 − λh + o(h)) . (25) (26) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Hieraus folgt, dass die Funktion p0 (t) stetig in (0, ∞) und rechtsstetig im Punkt 25 t=0 ist. • Weil p0 (t − h) = p0 (t) + o(1), ergibt sich aus (25) und (26), dass für beliebige h ≥ −t p0 (t + h) − p0 (t) = −λp0 (t) + o(1) . h • Die Funktion p0 (t) ist somit dierenzierbar, und sie genügt der Dierentialgleichung (1) p0 (t) = −λp0 (t) für • t > 0. Wegen p0 (0) = P (N0 = 0) = 1 durch • ist die (eindeutig bestimmte) Lösung von (27) gegeben p0 (t) = e−λt , Um zu zeigen, dass für beliebige n∈N t ≥ 0. (λt)n −λt e , n! pn (t) = • (27) (28) t≥0 (29) gilt, kann man genauso wie im Beweis von (28) vorgehen. Hierfür genügt es zu beachten, dass (24) die Gültigkeit von P (Nh > 1) = o(h) für h↓0 impliziert. • Mit Hilfe von (28) ergibt sich nun durch vollständige Induktion nach n, dass (29) gilt. (e)⇒(a) • Sei P b0 = 0 ≤ a1 < b1 ≤ . . . ≤ an < bn . n (∩ ) {ak < Sk ≤ bk } = P Dann gilt (n−1 ∩{ } Nak − Nbk−1 = 0, Nbk − Nak = 1 k=1 k=1 { }) ∩ Nan − Nbn−1 = 0, Nbn − Nan ≥ 1 , und aus (e) ergibt sich , dass P n (∩ ) {ak < Sk ≤ bk } = e−λ(an −bn−1 ) (1 − e−λ(bn −an ) ) k=1 n−1 ∏ e−λ(ak −bk−1 ) λ(bk − ak )e−λ(bk −ak ) k=1 = (e−λan − e−λbn )λn−1 ∫ ∫ b1 = n−1 ∏ (bk − ak ) k=1 bn ... λn e−λyn dyn . . . dy1 a1 an ∫ b1 ∫ b2 −x1 ∫ bn −x1 −...−xn−1 ... = a1 a2 −x1 an −x1 −...−xn−1 λn e−λ(x1 +...+xn ) dxn . . . dx1 . 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Die gemeinsame Dichte von P n (∩ S1 , S2 − S1 , . . . , Sn − Sn−1 26 ist somit gegeben durch ) {Sk − Sk−1 ∈ dxk } = λn e−λ(x1 +...+xn ) dx1 . . . dxn . k=1 • Dies bedeutet, dass die Zufallsvariablen Exp(λ)verteilt sind, d.h., {Nt } S1 , S2 − S1 , . . . , Sn − Sn−1 unabhängig und ist ein PoissonProzess mit der Intensität λ. 2.2.2 Zusammengesetzte PoissonProzesse Wir verallgemeinern das mit Hilfe von (22) eingeführte Modell eines homogenen PoissonProzesses {Nt , t ≥ 0}, indem wir nun zulassen, dass die Sprunghöhen beliebige Zufallsvariablen sind, die nicht notwendig gleich Eins sein müssen. • Auÿer der Folge der Sprungzeitpunkte S1 , S 2 , . . . deshalb zusätzlich eine Folge von Zufallsvariablen mit 0 < S1 < S2 < . . . betrachten wir U1 , U2 , . . . : Ω → R, die die Sprunghöhen des zu konstruierenden (Sprung-) Prozesses sein werden. • So wie in Abschnitt 2.2.1 nehmen wir an, dass [0, ∞) Sn = T1 + . . . + Tn gilt, wobei T1 , T2 , . . . : Ω → eine Folge von unabhängigen und identisch Exp(λ)verteilten Zwischenankunftszeiten ist. • Dabei wird vorausgesetzt, dass U1 , U2 , . . . eine Folge von unabhängigen und identisch verteilten T1 , T2 , . . . unabhängig Zufallsvariablen ist, die von der Folge der Zwischenankunftszeitpunkte ist. Denition Der stochastische Prozess {Xt , t ≥ 0} Xt = ∞ ∑ mit Uk 1I(Sk ≤ t) = k=1 Nt ∑ Uk (30) k=1 heiÿt zusammengesetzter PoissonProzess mit den Charakteristiken Verteilungsfunktion der Sprunghöhen U1 , U2 , . . . (λ, FU ), wobei FU die bezeichnet, vgl. Abb. 3. Theorem 2.10 Sei {Xt } ein zusammengesetzter PoissonProzess mit den Charakteristiken (λ, FU ), sU so dass die momenterzeugende Funktion m̂U (s) = E e n von Un für jedes s ∈ R wohldeniert sei. Dann gilt: (a) {Xt } hat stationäre und unabhängige Zuwächse. (b) Für beliebige s∈R und t≥0 ist die momenterzeugende Funktion m̂Xt (s) = E esXt von Xt gegeben durch m̂Xt (s) = eλt(m̂U (s)−1) , (31) und es gilt E Xt = λtµU , wobei µU = E Un und (2) µU = E Un2 (2) Var Xt = λtµU , die ersten beiden Momente der Sprunghöhen (32) Un sind. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN Abbildung 3: Zusammengesetzter PoissonProzess 27 {Xt } Beweis • Um die Teilaussage (a) zu beweisen, genügt es zu zeigen, dass für beliebige 0 und 0 ≤ t0 < t 1 < . . . < t n Nt1 +h ∑ ∑ Ntn +h Ui1 , . . . , i1 =Nt0 +h +1 Uin in =Ntn−1 +h +1 unabhängig sind und dass ihre Verteilungen nicht von • Weil die Folge {Un } die unabhängig von ( ∑ sind, gilt für beliebige ∑ abhängen. ∑ x1 , . . . , xn ≥ 0 Ntn +h Ui1 ≤ x1 , . . . , i1 =Nt0 +h +1 = h aus unabhängigen und identisch verteilten Zufallsvariablen besteht, {Tn } Nt1 +h P n = 1, 2, . . . , h ≥ die Zufallsvariablen Uin ≤ xn ) in =Ntn−1 +h +1 n ∏ ∗k FU j (xj )P (Nt1 +h − Nt0 +h = k1 , . . . , Ntn +h − Ntn−1 +h = kn ) . k1 ,...,kn ≥0 j=1 • Es genügt nun zu beachten, dass wir in Theorem 2.9 gezeigt hatten, dass der Poisson Prozess • {Nt } unabhängige und stationäre Zuwächse hat. Unter Berücksichtigung unserer Unabhängigkeits- und Verteilungsannahmen ergibt sich die Formel (31) in Teilaussage (b) unmittelbar aus der Formel der totalen Wahrscheinlicheit. • Beachte Die Formeln in (32) ergeben sich durch Dierenzieren beider Seiten von (31). Die Verteilung einer Zufallsvariablen, deren momenterzeugende Funktion die Form (31) hat, heiÿt zusammengesetzte PoissonVerteilung mit den Charakteristiken (λ, FU ). 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 28 2.2.3 Poissonsche Zählmaÿe; CoxProzesse; Simluationsalgorithmus Der in Abschnitt 2.2.1 betrachtete Begri des Poissonschen Zählprozesses {Nt , t ≥ 0} mit Nt = ∑∞ k=1 1I(Sk ≤ t) und Sn = T1 + . . . + Tn , wobei die Zufallsvariablen T1 , T2 , . . . : Ω → [0, ∞) unabhängig und identisch Exp(λ)verteilt sind, lässt sich wie folgt weiter verallgemeinern. • Anstelle die Anzahl Nt der Sprungpunkte zu betrachten, kann man die Anzahl B([0, ∞)) NB {Sn } nur in Intervallen der Form [0, t] für t≥0 B∈ dieser Punkte in einer beliebigen BorelMenge betrachten, wobei NB = ∞ ∑ 1I(Sn ∈ B) . (33) n=1 • Man kann leicht zeigen, dass der mengenindizierte Prozess {NB , B ∈ B([0, ∞))} die Eigen- schaften eines zufälligen Zählmaÿes hat, d.h., es gilt N∪∞ = n=1 Bn ∞ ∑ NBn (34) n=1 für beliebige BorelMengen Denition B1 , B2 , . . . ∈ B([0, ∞)), die paarweise disjunkt sind. {NB , B ∈ B([0, ∞))}, wobei Sn = T1 +. . .+Tn T1 , T2 , . . . : Ω → [0, ∞) unabhängig und identisch Exp(λ)verteilt Poissonsches Zählmaÿ mit der Intensität λ genannt. Das in (33) gegebene zufällige Zählmaÿ und die Zufallsvariablen sind, wird homogenes Unmittelbar aus Theorem 2.9 ergibt sich die Gültigkeit der folgende beiden Aussagen. Theorem 2.11 Sei {NB , B ∈ B([0, ∞))} ein Poissonsches Zählmaÿ mit der Intensität λ. Dann gilt: • • NB1 , NB2 , . . . sind unabhängig für beliebige beschränkte und paarweise disjunkte BorelMengen B1 , B2 , . . . ∈ B([0, ∞)). Die Zufallsvariablen Für jedes beschränkte B ∈ B([0, ∞)) gilt NB ∼ Poi(λν(B)), wobei ν : B([0, ∞)) → [0, ∞] das LebesgueMaÿ ist. Beachte Mit Hilfe des Satzes über die monotone Konvergenz kann man leicht zeigen, dass die Mengenfunktion µ : B([0, ∞)) → [0, ∞] mit µ(B) = E NB , die durch das zufällige Zählmaÿ ist ein Maÿ. {NB , B ∈ B([0, ∞))} (35) induziert wird, σ additiv ist, d.h., µ 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN Denition Das in (35) gegebene Maÿ µ wird Intensitätsmaÿ des zufälligen Zählmaÿes 29 {NB } genannt. Beachte • Für das Intensitätsmaÿ µ eines homogenen Poissonschen Zählmaÿes mit Intensität λ gilt µ(B) = λν(B) • ∀ B ∈ B([0, ∞)) . (36) Die am Ende von Abschnitt 1.2 erwähnte Variante des Existenzsatzes von Kolmogorow für beliebige Indexmengen I ermöglicht es, Poissonsche Zählmaÿe mit allgemeineren Intensitätsmaÿen als in (36) zu betrachten. Denition µ : B([0, ∞)) → [0, ∞] ein beliebiges lokalendliches Maÿ, d.h., µ(B) < ∞ gilt für B ∈ B([0, ∞)). Das zufällige Zählmaÿ {NB , B ∈ B([0, ∞))} (inhomogenes) Poissonsches Zählmaÿ mit dem Intensitätsmaÿ µ genannt, wenn Sei jede beschränkte BorelMenge wird • die Zufallsvariablen NB1 , NB2 , . . . unabhängig sind für beliebige B1 , B2 , . . . ∈ B([0, ∞)) und beschränkte und paar- weise disjunkte BorelMengen • NB ∼ Poi(µ(B)) für jedes beschränkte B ∈ B([0, ∞)) gilt. Man kann sogar noch einen Schritt weiter gehen und sogenannte doppeltstochastische Poisson Prozesse betrachten, die in der Literatur auch CoxProzesse genannt werden. Denition Sei {ΛB , B ∈ B([0, ∞))} ein beliebiges zufälliges Maÿ, das mit Wahrscheinlichkeit 1 lokalendlich ist. • Das zufällige Zählmaÿ {NB , B ∈ B([0, ∞))} wird doppeltstochastisches PoissonZählmaÿ Λ genannt, wenn bzw. CoxZählmaÿ mit dem zufälligen Intensitätsmaÿ ∫ (∏ n n Λk i n µki (∩ (∏ { }) ( )) ( )) (ai ,bi ] (ai ,bi ] P N(ai ,bi ] = ki =E exp −Λ(ai ,bi ] = exp −µ(ai ,bi ] P (Λ ∈ dµ) ki ! ki ! i=1 i=1 i=1 (37) für beliebige n ∈ N, k1 , . . . , kn ∈ {0, 1, . . .} und 0 ≤ a1 < b1 ≤ a2 < b2 ≤ . . . ≤ an < bn gilt. • Der durch (37) gegebene Zählprozess {Nt , t ≥ 0} mit Nt = N[0,t] heiÿt doppeltstochastischer PoissonProzess bzw. CoxProzess mit dem zufälligen Intensitätsmaÿ Λ. Ein wichtiger Spezialfall liegt dann vor, • wenn die Realisierungen des zufälligen Intensitätsmaÿes stetig bezüglich des LebesgueMaÿes sind, d.h., Λ mit Wahrscheinlichkeit 1 absolut- 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • {λt , t ≥ 0} wenn es einen stochastischen Prozess 30 gibt, dessen Trajektorien (mit Wahrschein- lichkeit 1) Borelmessbare und lokalintegrierbare nichtnegative Funktionen sind, so dass für jede beschränkte Borel-Menge B ∈ B([0, ∞)) ∫ ΛB = λt dt < ∞ (38) B mit Wahrscheinlichkeit • 1 Der stochastische Prozess gilt. {λt } wird dann Intensitätsprozess von {NB } genannt. Im folgenden Theorem wird eine Zeittransformation von homogenen PoissonProzessen (mit Intensität λ = 1) betrachtet. Sie liefert einen Algorithmus zur Simulation von CoxProzessen mit vorgegebenem Intensitätsprozess. Theorem 2.12 • Sei {Nt′ , t ≥ 0} ein (homogener) PoissonProzess mit der Intensität λ = 1, und sei {λt , t ≥ 0} ein beliebiger Intensitätsprozess. • Die stochastischen Prozesse • Dann ist der Zählprozess {Nt′ } und {Nt , t ≥ 0} {λt } seien unabhängig. mit Nt = Ng′ t ∫ t gt = und λv dv (39) 0 ein CoxProzess mit dem Intensitätsprozess {λt }. Beweis • Wir müssen lediglich zeigen, dass (37) gilt. • Wegen der vorausgesetzten Unabhängigkeit der Prozesse annehmen, dass der Wahrscheinlichkeitsraum (Ω, F, P ), {Nt′ } und {λt } Form (Ω, F, P ) = (Ω1 × Ω2 , F1 ⊗ F2 , P1 × P2 ) hat, wobei {Nt′ } über (Ω1 , F1 , P1 ) und {λt } über können wir der beide Prozesse trägt, die (Ω2 , F2 , P2 ) deniert ist. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Aus der Denitionsgleichung (39) des Zählprozesses 31 {Nt } und aus den in Abschnitt 3.2.1 diskutierten Eigenschaften der bedingten Erwartung ergibt sich, dass P n (∩ n ) (∩ ) {N(ai ,bi ] = ki } = P {Nbi − Nai = ki } i=1 = P = E ∫ n (∩ { i=1 n (∏ E Ω2 ∫ N∫′ bi λ v 0 − N∫′ ai λv dv = ki dv 0 v − N∫′ ai λv dv = ki dv n (∏ Ω2 i=1 v (ω2 ) dv 0 ( E 1I N∫′ bi λ v (ω2 0 = E 1I n (∩ { ′ N∫ bi λ 0 i=1 )) v − N∫′ ai λv dv = ki dv }) 0 0 n (∏ ( 1I N∫′ bi λ i=1 }) 0 ( 1I N∫′ bi λ i=1 = = i=1 )) − N∫′ ai λv (ω2 ) dv = ki P2 (dω2 ) 0 )) ∫′ ai − N = k P2 (dω2 ) , i λ (ω ) dv v 2 ) dv 0 wobei sich die beiden letzten Gleichheiten aus den Unabhängigkeitseigenschaften der ′ Prozesse {Nt } und {λt } und aus der Darstellungsformel (8) der regulären bedingten Erwartung für Funktionale unabhängiger stochastischer Prozesse ergeben. • {Nt′ } ein homogener PoissonProzess mit der Intensität λ = 1 ist, der unabhängig von {λt } ist, ergibt sich durch die erneute Anwendung der Darstellungsformel (8), dass für jedes i = 1, . . . , n (∫ bi )ki ∫ bi λ (ω2 ) dv ( ′ ) ( ) ai v ′ ∫ E 1I N∫ bi λ (ω ) dv − N ai λv (ω2 ) dv = ki = exp − λv (ω2 ) dv . 0 v 2 k ! 0 i ai • Hieraus ergibt sich, dass Weil P n (∩ {N(ai ,bi ] n ) (∏ = ki } = E i=1 i=1 (∫ bi ai λv dv ki ! )ki ( exp − ∫ bi λv dv )) , ai wobei der letzte Ausdruck mit der rechten Seite von (37) übereinstimmt. Bespiele 1. Eine spezielle Klasse von CoxProzessen sind die gemischten PoissonProzesse, deren Intensitätsprozess {λt } durch λt = Z gegeben ist, wobei Z : Ω → [0, ∞) eine beliebige nichtnegative Zufallsvariable ist. λ′ : [0, ∞) → [0, ∞) eine periodische (und deterministische) Funktion mit der Periode 1, und sei {Nt′ , t ≥ 0} ein (homogener) PoissonProzess mit der Intensität λ = 1. • Dann wird der Zählprozess {Nt , t ≥ 0} mit ∫ t Nt = Ng′ t und gt = λ′v dv 2. Sei 0 ein periodischer PoissonProzess genannt, der im allgemeinen keine stationären Zuwächse hat. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • 32 Es ist jedoch möglich, auf die folgende Weise einen entsprechenden CoxProzess mit stationären Zuwächsen zu konstruieren. U : Ω → [0, 1] eine [0, 1]gleichverteilte {Nt′ } ist. Auÿerdem sei Sei nämlich hängig von ∫ λt = λ′t+U t Λt = und Zufallsvariable, die unab- λs ds . 0 Dann ergibt sich aus Theorem 2.12, dass {Nt∗ , t ≥ 0} mit Nt∗ = NΛ′ t ein Cox Prozess ist. Auÿerdem kann man sich leicht überlegen, dass der CoxProzess {Nt∗ } stationäre Zuwächse hat. 2.3 MarkowProzesse mit endlich vielen Zuständen Wir beginnen mit einem kurzen Rückblick auf Markow-Prozesse mit diskreter Zeit, die in der Literatur MarkowKetten genannt werden und die beispielsweise in der Vorlesung Markov Chains and MonteCarlo Simulation ausführlich behandelt werden. • Das stochastische Modell der zeitdiskreten Markow-Ketten (mit endlich vielen Zuständen) besteht aus den drei Komponenten: Zustandsraum, Anfangsverteilung und Übergangsmatrix. Den Ausgangspunkt bildet die (endliche) Menge aller möglichen Zustände, die Zustands- raum der Markow-Kette genannt wird und die o.B.d.A. mit der Menge E = {1, 2, . . . , ℓ} ℓ ∈ {1, 2, . . .} eine beliebige, jedoch fest vorgegebene i ∈ E sei αi die Wahrscheinlichkeit, n = 0 im Zustand i bendet, wobei dass sich das betrachtete System zum identiziert werden kann, wobei natürliche Zahl ist. Für jedes Zeitpunkt αi ∈ [0, 1] , ℓ ∑ αi = 1 (1) i=1 vorausgesetzt wird. Der Vektor α1 , . . . , αℓ α = (α1 , . . . , αℓ )⊤ Auÿerdem betrachten wir für jedes Paar [0, 1], der (Einzel-) Wahrscheinlichkeiten bildet die Anfangsverteilung der Markow-Kette. i, j ∈ E die (bedingte) Wahrscheinlichkeit dass das betrachtete System in einem Schritt aus dem Zustand i pij ∈ j in den Zustand übergeht. Die ℓ×ℓ Matrix P = (pij )i,j=1,...,ℓ der Übergangswahrscheinlichkeiten pij ≥ 0 , ℓ ∑ pij = 1 , j=1 heiÿt (einstuge) Übergangsmatrix der Markow-Kette. pij mit (2) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Für jede Menge P = (pij ), E = {1, 2, . . . , ℓ}, für jeden Vektor α = (α1 , . . . , αℓ )⊤ 33 bzw. jede Matrix die den Bedingungen (1) und (2) genügen, kann nun der Begri der zugehörigen Markow-Kette wie folgt eingeführt werden. Denition • Sei X 0 , X1 , . . . : Ω → E Wahrscheinlichkeitsraum {1, 2, . . . , ℓ} • eine Folge von Zufallsvariablen, die über einunddemselben (Ω, F, P ) deniert sind und ihre Werte in der Menge E = annehmen. X0 , X1 , . . . (homogene) Markow-Kette mit der Anfangsverteilung α = (α1 , . . . , αℓ )⊤ Übergangsmatrix P = (pij ), falls Dann heiÿt und der P (X0 = i0 , X1 = i1 , . . . , Xn = in ) = αi0 pi0 i1 . . . pin−1 in für beliebige n = 0, 1, . . . und i0 , i1 , . . . , in ∈ E (3) gilt. Beachte • Für beliebige n ≥ 1 und i, j ∈ E kann das Produkt pii1 pi1 i2 . . . pin−1 j i → i1 → . . . → in−1 → j aufgefasst werden. als die Wahrschein- lichkeit des Pfades • Analog hierzu kann die Summe ∑ (n) pij = pii1 pi1 i2 . . . pin−1 j (4) i1 ,...,in−1 ∈E als die Wahrscheinlichkeit des Überganges vom Zustand i in den Zustand j in n Schritten aufgefasst werden, wobei (n) pij = P (Xn = j | X0 = i) , falls • P (X0 = i) > 0. Die stochastische Matrix Markow-Kette • {Xn } (n) P(n) = (pij )i,j=1,...,ℓ wird die n-stuge Übergangsmatrix der genannt. P(0) = I, wobei I die ℓ × ℓ-dimensionale Einheitsmatrix bezeichnet, (n) mehrstugen Übergangsmatrizen P wie folgt darstellen: Mit der Schreibweise lässt sich sich die • (5) Für beliebige n, m = 0, 1, . . . gilt P(n) = Pn (6) P(n+m) = P(n) P(m) . (7) und somit Die Matrix-Identität (7) wird in der Literatur Gleichung von Chapman-Kolmogorov genannt. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 34 2.3.1 Anfangsverteilung und Übergangsfunktion Um den Begri eines MarkowProzesses E = {1, 2, . . . , ℓ} {Xt , t ≥ 0} mit stetiger Zeit und mit Werten in der Menge einzuführen, betrachten wir erneut α = (α1 , . . . , αℓ )⊤ • einen Vektor von Wahrscheinlichkeiten • eine Familie von stochastischen Matrizen mit ∑ P(h) = (pij (h))i,j∈E i∈E αi = 1 für jedes sowie h ≥ 0. Beachte • Im Unterschied zu MarkowProzessen mit diskreter Zeit muss nun vorausgesetzt werden, dass P(h1 + h2 ) = P(h1 )P(h2 ) (8) h1 , h2 ≥ 0 gilt, wobei die Matrix-Identität (8) wiederum die Gleichung von Chapman-Kolmogorow genannt wird. für beliebige • Auÿerdem wird vorausgesetzt, dass lim P(h) = P(0) = I . (9) h↓0 • Es ist nicht schwierig zu zeigen, dass die MatrixFunktion in h≥0 P(h) dann gleichmäÿig stetig ist. Denition 1. Eine Familie von stochastischen Matrizen {P(h), h > 0}, die den Bedingungen (8) und (9) genügt, wird MatrixÜbergangsfunktion bzw. kurz Übergangsfunktion genannt. {Xt , t ≥ 0} mit Werten in E = {1, 2, . . . , ℓ} heiÿt homogener MarkowProzess, wenn es eine Übergangsfunktion {P(h), h ≥ 0} und eine Wahrschein- 2. Ein stochastischer Prozess lichkeitsfunktion α über E gibt, so dass P (X0 = i0 , Xt1 = i1 , . . . , Xtn = in ) = αi0 pi0 i1 (t1 )pi1 i2 (t2 − t1 ) . . . pin−1 in (tn − tn−1 ) , (10) n = 0, 1, . . . , i0 , i1 , . . . , in ∈ E, 0 ≤ t1 ≤ . . . ≤ tn gilt. ⊤ Die Wahrscheinlichkeitsfunktion α = (α1 , . . . , αℓ ) heiÿt Anfangsverteilung des Markow Prozesses {Xt }. für beliebige 3. Eine typische Trajektorie eines MarkowProzesses mit stetiger Zeit ist in Abb. 4 gegeben. Ähnlich wie für MarkowKetten in Theorem MC-2.1 lässt sich die folgende Charakterisierung von homogenen MarkowProzessen mit stetiger Zeit herleiten, die wir deshalb ohne Beweis angeben. Das Adjektiv homogen werden wir im Folgenden der Kürze wegen weglassen. Theorem 2.13 Ein stochastischer Prozess {Xt , t ≥ 0} mit Werten in dann ein MarkowProzess, wenn es eine Übergangsfunktion {P(h), h ≥ E = {1, 2, . . . , ℓ} 0} gibt, so dass P (Xtn = in | Xtn−1 = in−1 , . . . , Xt1 = i1 , X0 = i0 ) = pin−1 in (tn − tn−1 ) für diejenigen n ≥ 1, i0 , i1 , . . . , in ∈ E i1 , X0 = i0 ) > 0 gilt. und 0 ≤ t1 ≤ . . . ≤ tn , für die ist genau (11) P (Xtn−1 = in−1 , . . . , Xt1 = 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 35 Abbildung 4: Trajektorie eines MarkowProzesses (mit Sprungzeitpunkten) Analog zu Korollar MC-2.1 gilt auch für MarkowProzesse mit stetiger Zeit die folgende bedingte Unabhängigkeitseigenschaft. Korollar 2.1 Sei {Xt } ein MarkowProzess. Dann gilt P (Xtn = in | Xtn−1 = in−1 , . . . , Xt1 = i1 , X0 = i0 ) = P (Xtn = in | Xtn−1 = in−1 ) , falls (12) P (Xtn−1 = in−1 , . . . , Xt1 = i1 , X0 = i0 ) > 0. 2.3.2 Übergangsintensitäten Mit der Schreibweise δij = 1, falls i = j, und δij = 0, falls i ̸= j , können wir die folgende grundlegende Dierenzierbarkeitseigenschaft von Übergangsfunktionen formulieren. Theorem 2.14 Sei {P(h), h ≥ 0} eine Übergangsfunktion. Dann existieren die (endlichen) Grenz- werte qij = lim h↓0 1 (pij (h) − δij ) . h (13) Beweis • Weil in der Behauptung von Theorem 2.14 die Anfangsverteilung nicht näher speziziert wird, können wir ohne Einschränkung der Allgemeinheit annehmen, • dass P (X0 = i) > 0 für jedes i∈E gilt, wobei wir die Gültigkeit von (13) zuerst für j0 Dabei setzen wir pii (h) =1 pjv ii (h) = v fij (h) = i ̸= j zeigen. und P (Xvh = i; Xkh ̸= j, 1 ≤ k < v | X0 = i) , P (Xvh = j; Xkh ̸= j, 1 ≤ k < v | X0 = i) . 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • 36 Aus (8) ergibt sich dann, dass pij (nh) ≥ n−1 ∑ pjv ii (h)pij (h)pjj ((n − v − 1)h) (14) v=0 und pii (vh) = pjv ii (h) + • Weil ∑v−1 m=1 v−1 ∑ m fij (h)pji ((v − m)h) . (15) m=1 m fij (h) ≤ 1 gilt, ergibt sich aus (15) die Ungleichung pjv ii (h) ≥ pii (vh) − max pji ((v − m)h) . (16) 1≤m<v • Mit Hilfe von (9) erhalten wir nun, dass es für beliebige h0 > 0 min pii (h) > 1 − ε, max pji (h) < ε, 0≤h≤h0 ε>0 und i, j ∈ E mit i ̸= j ein gibt, so dass Für nh < h0 und v≤n 0≤h≤h0 min pjj (h) > 1 − ε. 0≤h≤h0 ergibt sich somit aus (16), dass (17) pjv ii (h) > 1 − 2ε. Wenn man dies in (14) einsetzt, dann ergibt sich die Ungleichung pij (nh) ≥ (1 − 2ε) n−1 ∑ pij (h)(1 − ε) ≥ (1 − 3ε)npij (h) v=0 bzw. für • pij (nh) pij (h) ≥ (1 − 3ε) nh h (18) nh < h0 . aij = lim inf h→0 pij (h)/h ergibt dies, dass aij < ∞. = ∞ gelten würde, dann würde es ein beliebig kleines h Mit der Schreibweise dass aij pij (h)/h beliebig Denn, wenn Wegen (18), würde auch Wenn andererseits n geben, so groÿ ist. pij (nh)/nh beliebig groÿ werden. so gewählt wird, dass h0 /2 ≤ nh < h0 , dann ergibt (17), dass pij (nh) ε < < h−1 0 2ε . nh nh • Somit gilt aij < ∞, und es genügt zu zeigen, dass lim sup h→0 Aus der Denition von Weil pij (h) aij pij (h) ≤ aij . h folgt, dass es ein h1 < h0 pij (t) < aij + ε t h1 − t0 < t < h1 + t0 . h−1 1 pij (h1 ) < aij + ε. t0 mit h1 + t0 < h0 die Un- gibt mit stetig ist, gilt für jedes hinreichend kleine gleichung für (19) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN Aus (18) ergibt sich nun, dass man für jedes h < t0 eine ganze Zahl nh 37 nden kann, so dass h1 − t0 < nh h < h1 + t0 • • Weil ε>0 Weil der Zustandsraum lim h↓0 pij (h) pij (nh h) ≤ < aij + ε . h nh h beliebig ist, ergibt sich hieraus die Gültigkeit von (19). Damit ist die Existenz der Grenzwerte dem (1 − 3ε) und E qij endlich ist und in (13) für P(h) i ̸= j bewiesen. eine stochastische Matrix ist, gilt auÿer- ∑ pij (h) ∑ ∑ pij (h) pii (h) − 1 lim qij . = − lim =− =− h↓0 h↓0 h h h j̸=i j̸=i (20) j̸=i Damit ist die Behauptung vollständig bewiesen. Denition Q = (qij )i,j=1,...,ℓ heiÿt Intensitätsmatrix des MarkowProzesses {Xt }. qij von Q werden Übergangsintensitäten genannt. Die Matrix Die Eintragungen Korollar 2.2 Für beliebige i ̸= j gilt hierzu) qij ≥ 0 ∑ und qij = 0 qii ≤ 0. Auÿerdem gilt Qe = 0 bzw. (äquivalent ∀i ∈ E , (21) j∈E wobei e = (1, . . . , 1)⊤ bzw. 0 = (0, . . . , 0)⊤ den ℓdimensionalen Einheits bzw. Nullvektor bezeich- net. Beweis • Aus der Denition (13) der Übergangsintensitäten 0 • und qii ≤ 0 für beliebige i ̸= j qij ergibt sich unmittelbar, dass qij ≥ gilt. Die Behauptung (21) folgt somit aus (20). Beachte • Die Denition von MarkowProzessen und ihre Charakterisierung in Theorem 2.13 lassen sich völlig analog für MarkowProzesse mit einem (abzählbar) unendlichen Zustandsraum formulieren, beispielsweise für • E = N. Die in Theorem 2.14 hergeleitete Dierenzierbarkeitseigenschaft der Übergangsfunktion {P(h), h ≥ 0} bleibt ebenfalls (in einer etwas modizierten Form) gültig. Im Beweis von Theorem 2.14 wird nämlich die Endlichkeit des Zustandsraumes nicht benötigt, um die Existenz und Endlichkeit der Übergangsintensitäten i ̸= j E für zu zeigen. Auÿerdem kann man auch zeigen, dass die Grenzwerte der Zustandsraum qij E qii in (13) existieren, wenn unendlich ist; sie müssen aber nicht notwendig endlich sein. für jedes i∈E −qii ≥ ∑ j̸=i qij gilt, wobei der Fall der Gleichheit von besonderer Bedeutung ist. Im allgemeinen kann man dann (anstelle von (20)) nur zeigen, dass 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN Denition Wenn der Zustandsraum {P(h), h ≥ 0} E 38 unendlich ist, dann sagt man, dass die Übergangsfunktion konservativ ist, falls ∑ qij = −qii < ∞ ∀i ∈ E . (22) j̸=i Beachte Die meisten Ergebnisse, die wir in dieser Vorlesung für MarkowProzesse mit endli- chem Zustandsraum herleiten, bleiben für konservative Übergangsfunktionen in (abzählbar) unendlichen Zustandsräumen gültig. Die Beweise sind dann jedoch oft wesentlich aufwändiger. Beispiel • Man kann sich leicht überlegen, dass jeder stochastische Prozess in E = {0, 1, . . .}, {Xt , t ≥ 0} mit Werten der unabhängige und stationäre Zuwächse hat, ein MarkowProzess ist. • Insbesondere ist somit der (homogene) PoissonProzess mit Intensität λ ein Markow Prozess. In diesem Fall gilt α0 = 1 und j−i e−λh (λh) , (j − i)! pij (h) = 0, Hieraus folgt, dass qij = falls j ≥ i, sonst. λ, falls j = i + 1, −λ , falls j = i, 0, (23) sonst. 2.3.3 Kolmogorowsche Dierentialgleichungen • In diesem Abschnitt zeigen wir, dass es einen eineindeutigen Zusammenhang zwischen (Matrix) Übergangsfunktionen und ihren Intensitätsmatrizen gibt. • Dabei zeigen wir zunächst in Verallgemeinerung von Theorem 2.14, dass die Übergangsfunktionen pij (h) Theorem 2.15 für jedes h≥0 Für beliebige dierenzierbar sind. i, j ∈ E und h≥0 sind die Übergangsfunktionen pij (h) dierenzier- bar und genügen dem folgenden System von Dierentialgleichungen: (1) pij (h) = ∑ k∈E qik pkj (h) ∀ i, j ∈ E, h ≥ 0 . (24) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 39 Beweis • Sei h, h′ > 0 mit h′ < h. Aus der Gleichung von ChapmanKolmogorow, d.h. aus (8), ergibt sich dann, dass ∑ pij (h + h′ ) − pij (h) = k∈E ∑ = pik (h′ )pkj (h) − pij (h) ( ) pik (h′ )pkj (h) + pii (h′ ) − 1 pij (h) . k̸=i • Auf die gleiche Weise erhalten wir die Gleichungen: pij (h − h′ ) − pij (h) = pij (h − h′ ) − = − ∑ ∑ pik (h′ )pkj (h − h′ ) k∈E ( ) pik (h )pkj (h − h′ ) − pii (h′ ) − 1 pij (h − h′ ) . ′ k̸=i • Wenn wir nun beide Seiten durch Stetigkeit von • pij (h) h′ dividieren, den Grenzwert h′ ↓ 0 bilden und die beachten, dann erhalten wir (24). Dabei nutzen wir die beiden folgenden Gleichungen, die sich aus Theorem 2.14 ergeben: ∑ 1 ∑ qik pkj (h) pik (h′ )pkj (h) = ′ h ↓0 h lim ′ k̸=i und k̸=i ∑ 1 ∑ pik (h′ )pkj (h − h′ ) = qik pkj (h) . ′ h ↓0 h lim ′ k̸=i k̸=i Beachte • Die Dierentialgleichungen in (24) werden Kolmogorowsche Rückwärtsgleichungen genannt. • In MatrixSchreibweise nimmt (24) die folgende Form an: P(1) (h) = QP(h) • ∀h ≥ 0. (25) Auf die gleiche Weise wie im Beweis von (24) lässt sich zeigen, dass P(1) (h) = P(h)Q ∀h ≥ 0. • Dies ist die MatrixSchreibweise der Kolmogorowschen Vorwärtsgleichung. • Die Anfangsbedingung für beide Kolmogorowschen Dierentialgleichungen ist (26) P(0) = I. Zur Lösung der Dierentialgleichungen (25) und (26) benötigen wir Hilfsmittel aus der Matrizenrechnung. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Dabei setzen wir in diesem Abschnitt stets voraus, dass die betrachteten Matrizen die Dimension ℓ×ℓ haben, wobei Vektoren die Dimension 1×ℓ haben. • Die Konvergenz von Matrizen bzw. Vektoren erfolgt eintragungsweise. • Wenn beispielsweise dass • 40 (An )ij → 0 {An } eine Folge von Matrizen ist, dann bedeutet für beliebige An → 0 für n → ∞, i, j = 1, . . . , ℓ. Die MatrixNorm denieren wir so, dass die oben beschriebene Topologie induziert wird: Für jeden Vektor für jede x = (x1 , . . . , xℓ )⊤ ℓ × ℓMatrix A = (aij ) sei ∑ℓ ∥x∥ = i=1 |xi |, und ∑ ∥A∥ = i,j=1,...,ℓ |aij |. sei Beachte • Für jedes h∈R • Es ist klar, dass • Auÿerdem gilt für beliebige gilt ∥hA∥ = |h| ∥A∥, An → 0 ∥A∥ = 0 wobei genau dann, wenn Für jedes Beweis h ∈ [−h0 , h0 ], ε > 0 Sei ℓ × ℓMatrizen A, B h0 > 0 konvergiert die Reihe und A = 0. ∥An ∥ → 0. ∥A + B∥ ≤ ∥A∥ + ∥B∥ , Lemma 2.2 genau dann, wenn m ∈ N. ∥AB∥ ≤ ∥A∥ ∥B∥ . ∑∞ n=0 (hA) n (27) /(n!) gleichmäÿig in h ∈ [−h0 , h0 ]. Dann ergibt sich aus (27), dass ∞ m ∞ ∞ ∑ ∞ ∑ ∑ (hA)n ∑ (hA)n |h|n ∥A∥n hn0 ∥A∥n ∑ (hA)n − = ≤ ≤ <ε n! n! n! n! n! n=0 n=0 n=m+1 n=m+1 n=m+1 für jedes hinreichend groÿe Denition 1. Die Reihe jedes m, und zwar gleichmäÿig in h ∈ [−h0 , h0 ]. ∑∞ h∈R n n=0 (hA) /(n!) ist somit eine wohldenierte MatrixFunktion, die stetig für ist. Sie wird MatrixExponentialfunktion genannt und mit exp(hA) = I + hA + . . . + (hA)n + ... n! (28) bezeichnet. A(h) eine beliebige MatrixFunktion, so dass sämtliche Eintragungen dierenzierbar h sind. Dann ist die MatrixAbleitung A(1) (h) gegeben durch 2. Sei in A(1) (h) = lim ′ h →0 1 (A(h + h′ ) − A(h)) . h′ 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN Lemma 2.3 Die MatrixExponentialfunktion exp(hA) ist für jedes h∈R 41 dierenzierbar, und es gilt d exp(hA) = A exp(hA) = exp(hA)A . dh (29) Beweis • Es gilt ∞ ∞ ∞ n n ∑ ∑ exp((h + h′ )A) − exp(hA) ∑ (h + h′ )n − hn An n−1 A ′ ′ A = nh +h r (h, h ) , = n h′ h′ n! n! n! n=1 n=1 n=1 wobei für jedes |h′ | ≤ |h| 0 ≤ |rn (h, h′ )| ≤ n(n − 1)(2|h|)n . (30) • Die Schranke (30) ergibt sich dabei durch Taylor-Reihenentwicklung der Funktion (h + x)n − hn . • Für ein θ ∈ [0, 1] gilt also g(x) = xnhn−1 + • Für h′ → 0 g(x) = x2 n(n − 1)(h + θx)n−2 . 2 ergibt sich hieraus, dass ∞ d exp(hA) ∑ n−1 An = . nh dh n! n=1 • Auÿerdem gilt oenbar ∞ ∑ nhn−1 n=1 Beachte Die ℓ × ℓMatrizen A, A′ ∞ ∞ ∑ ∑ An (hA)n (hA)n =A = A. n! n! n! n=0 n=0 heiÿen kommutativ, wenn AA′ = A′ A gilt. Es ist nicht schwierig zu zeigen, dass in diesem Fall exp(A + A′ ) = exp(A) exp(A′ ) . (31) Lemma 2.4 • • Sei Q eine beliebige ℓ × ℓMatrix, so dass Dann ist die MatrixExponentialfunktion Kolmogorowschen Dierentialgleichungen qij ≥ 0 für i ̸= j und Qe = 0 gilt. {exp(hQ), h ≥ 0} eine Übergangsfunktion, (25) und (26) genügt, d.h., die den 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • die Intensitätsmatrix der Übergangsfunktion {exp(hQ), h ≥ 0} ist gleich 42 Q. Beweis • Wenn • Wir überprüfen zunächst, dass • Q = 0, Weil dann ist die Aussage oensichtlich. Es gelte also nun exp(hQ) n Qe = 0, gilt Q e = 0 exp(hQ)e = e. für jedes für jedes h≥0 Q ̸= 0. eine stochastische Matrix ist. n = 1, 2, . . . und somit exp(hQ) Um zu zeigen, dass sämtliche Eintragungen von nichtnegativ sind, setzen wir a = max{−qii : i = 1, . . . , ℓ} . Dann ist die Matrix P̃ mit nichtnegativ, und wegen P̃ = a−1 Q + I P̃e = a−1 Qe + Ie = e ergibt sich nun, dass die Eintragungen von • P̃ auch stochastisch. Aus der Darstellungsformel exp(hQ) = exp(ah(P̃ − I)) = ist (32) ∞ ∑ (ah)n (P̃)n −ah e n! n=0 exp(hQ) (33) nichtnegativ sind. Dabei wird bei der Herleitung von (33) die Identität (31) benutzt zusammen mit der −ah Tatsache, dass exp(−ahI) = e I. Auÿerdem ergibt sich aus (31), dass exp(hQ) der ChapmanKolmogorowGleichung (8) genügt. • Mit Hilfe von (29) ergibt sich nun, dass exp(hQ) Theorem 2.16 matrix Q ist, d.h., exp(hQ) Q die Intensitätsmatrix der Übergangsfunktion ist eine Lösung von (25) und (26). Jede Übergangsfunktion {P(h), h ≥ 0} ausdrücken: Es gilt P(h) = exp(hQ) lässt sich wie folgt durch ihre Intensitäts- ∀h ≥ 0. (34) Beweis • Aus Lemma 2.4 folgt, dass die MatrixFunktion {P′ (h)} mit P′ (h) = exp(hQ) eine Lösung der Kolmogorowschen Rückwärtsgleichung (25) ist, die der Anfangsbedingung P′ (0) = I genügt. • Aus der Theorie der gewöhnlichen linearen Dierentialgleichungssysteme ergibt sich dann, dass diese Lösung eindeutig bestimmt ist. • Somit gilt P′ (h) = P(h) für jedes h ≥ 0. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 43 Beachte • Zusammen mit Theorem 2.16 ergibt sich aus (32) und (33) die folgende Darstellungsformel der Übergangsfunktion P(h) = wobei • P̃ = a−1 Q + I ∞ ∑ (ah)n (P̃)n −ah e n! n=0 {P(h), h ≥ 0}: ∀h ≥ 0, (35) a = max{−qii : i = 1, . . . , ℓ}. beliebige i ∈ E und h ≥ 0. eine stochastische Matrix ist und pii (h) > 0 Aus (35) folgt insbesondere, dass für Ähnlich wie bei MarkowKetten mit diskreter Zeit (vgl. Abschnitt MC-2.1.4) kann die n Spektraldarstellung von Q zur Berechnung der Matrix-Exponentialfunktion P(h) = exp(hQ) verwendet werden, falls die Eigenwerte θ1 , . . . , θℓ ̸= 0 von Q paarweise ver- schieden sind. • Zur Erinnerung Sei A eine beliebige ℓ×ℓ Matrix, seien ϕ, ψ ̸= 0 zwei ℓ-dimensionale (Spalten-) 0 verschieden ist, Vektoren, so daÿ jeweils mindestens eine ihrer Komponenten von und sei θ eine beliebige (reelle oder komplexe) Zahl. Falls Aϕ = θϕ dann ist θ ein Eigenwert von ψ ⊤ A = θψ ⊤ , bzw. A, und ϕ bzw. ψ (36) ist ein rechter bzw. linker (zu θ gehörender) Eigenvektor. Weil (36) und (A − θI)ϕ = 0 äquivalent sind, ist θ ψ ⊤ (A − θI) = 0⊤ , bzw. genau dann ein Eigenwert von A, wenn θ eine Lösung der sogenannten charakteristischen Gleichung ist: det(A − θI) = 0 . (37) Weil (37) eine algebraische Gleichung der Ordnung ℓ ist, besitzt sie somit ℓ Lösungen θ1 , . . . , θℓ , die komplex sein können und die nicht alle voneinander verschieden sein müssen. Wir nehmen o.B.d.A. an, dass die Eigenwerte θ1 , . . . , θℓ so numeriert sind, dass |θ1 | ≥ |θ2 | ≥ . . . ≥ |θℓ | . θi existieren (jeweils von 0 verschiedene) rechte bzw. linke ϕi bzw. ψ i . Φ = (ϕ1 , . . . , ϕℓ ) die ℓ × ℓ Matrix, die aus den rechten Eigenvektoren ϕ1 , . . . , ϕℓ Für jeden Eigenwert Eigenvektoren Sei besteht, und sei Ψ= die ℓ×ℓ ψ⊤ 1 . . . ψ⊤ ℓ Matrix, die aus den linken Eigenvektoren ψ1 , . . . , ψℓ gebildet wird. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN Mit dieser Schreibweise ergibt sich, dass AΦ = Φ diag(θ) , θ = (θ1 , . . . , θℓ )⊤ θ1 , . . . , θℓ bezeichnet. wobei • Falls die Eigenwerte toren 44 ϕ1 , . . . , ϕℓ und (38) diag(θ) die Diagonalmatrix mit den Diagonalelementen θ1 , . . . , θℓ ̸= 0 paarweise verschieden sind, dann sind die Eigenvek- linear unabhängig (vgl. beispielsweise Lemma MC-2.2). Somit existiert die inverse Matrix Φ−1 , und wir können Ψ = Φ−1 setzen. Auÿerdem ergibt sich in diesem Fall aus (38), dass A = Φ diag(θ)Φ−1 = Φ diag(θ)Ψ bzw. An = Φ( diag(θ))n Φ−1 = Φ( diag(θ))n Ψ . Hieraus ergibt sich die Spektraldarstellung von An = ℓ ∑ An mit θin ϕi ψ ⊤ i . (39) i=1 • Falls die Eigenwerte θ1 , . . . , θℓ ̸= 0 Q der Intensitätsmatrix dann gilt also P(h) = ℓ ∑ paarweise verschieden sind, ehθi ϕi ψ ⊤ i (40) i=1 für jedes h ≥ 0, wobei ϕi , ψ i (rechte bzw. linke) Eigenvektoren des Eigenwertes θi sind. 2.3.4 Eingebettete MarkowKetten; Simulationsalgorithmus • Sei E = {1, 2, . . . , ℓ} qij ≥ 0 und sei Q = (qij )i,j∈E für beliebige i ̸= j eine beliebige Intensitätsmatrix, d.h., es gelte ∑ und qij = 0 für jedes i ∈ E. j∈E • Wir diskutieren nun eine Methode zur Konstruktion von MarkowProzessen mit vorgegebener Intensitätsmatrix Q, wobei wir zunächst die folgende eingebettete MarkowKette {X̃n , n ≥ 0} (mit diskreter Zeit) betrachten, vgl. Abb. 5. Sei Auÿerdem sei die stochastische Matrix α eine beliebige Anfangsverteilung, und sei e = (e P pij ) q ij , q(i) peij = 0, für beliebige i, j ∈ E mit q(i) > 0. q(i) = ∑ j̸=i qij für jedes i ∈ E. gegeben durch falls i ̸= j , falls i = j. (41) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 45 e gleich e⊤ = (0, . . . , 0, 1, 0, . . . , 0) gesetzt, q(i) = 0, dann wird die ite Zeile von P i wobei die ite Komponente von ei gleich 1 ist. Sei {Xen , n ≥ 0} eine MarkowKette mit der Anfangsverteilung α und der Übergangse. matrix P • • Falls {Zn , n ≥ 0} eine en } unabhängig {X Auÿerdem sei Folge von unabhängigen und Exp(1)verteilten Zufallsvaria- blen, die von sind. Mit Hilfe der Folgen {Xt , t > 0}, en , n ≥ 0} konstruieren wir nun einen MarkowProzess {Zn , n ≥ 0} und {X dessen Trajektorien die Form Xt = ∞ ∑ en 1I(Sn ≤ t < Sn+1 ) X (42) n=0 haben, wobei 0 = S0 < S 1 < . . . eine Folge von zufälligen (Sprung) Zeitpunkten ist: Abbildung 5: Eingebettete MarkowKette Schritt 1 Sei S0 = 0 und e0 ), Z0′ = Z0 /q(X wobei Z0′ = ∞ en , n ≥ 0} {X gesetzt wird, falls e 0 ) = 0. q(X Z0′ ist die Aufenthaltsdauer des zu konstruierenden MarkowProzesses e0 , der zum Zeitpunkt S0 = 0 gewählt wird. {Xt } im (zufälligen) Anfangszustand X Dabei gilt P (Z0′ > x | Xe0 = i) = e−q(i)x für jedes i ∈ E mit P (Xe0 = i) > 0; x ≥ 0. Die Zufallsvariable ′ e0 für S0 = 0 Sei S1 = S0 + Z0 und Xt = X bis zum ersten Sprungzeitpunkt S1 gegeben ist. Schritt 2 {Xt } Schritt 3 (analog zu Schritt 1) Sei die Aufenthaltsdauer von wird, vgl. Abb. 6. e 1 ), Z1′ = Z1 /q(X ≤ t < S1 , wodurch die Trajektorie von wodurch e1 gegeben ist, der zum Zeitpunkt S1 gewählt {Xt } im Zustand X 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN Abbildung 6: Aufenthaltsdauer Dabei gilt Schritt 4 Sei S2 − S1 e1 = i) = e−q(i)x , P (Z1′ > x | X S2 = S1 + Z1′ und e1 Xt = X falls für im Zustand 46 e1 = i1 X e1 = i) > 0. P (X S1 ≤ t < S 2 . . . . Schritt 2n+1 Wir nehmen nun an, dass die Gröÿen {Xt , t ∈ [0, Sn )} für ein Schritt 2(n + 1) Sei n≥1 bereits deniert worden Sn+1 = Sn + Zn′ und en Xt = X ′ , S0 , S1 , . . . , Sn und Z0′ , Z1′ , . . . , Zn−1 ′ e n ). sind, und setzen Zn = Zn /q(X für Sn ≤ t < Sn+1 . Beachte • Auf diese Weise lassen sich die Trajektorien von ieren, weil man sich leicht überlegen kann, dass • {Xt , t ≥ 0} für beliebige t ≥ 0 P (limn→∞ Sn = ∞) = 1. konstru- Somit ist durch das oben beschriebene Konstruktionsprinzip ein Algorithmus zur Simu- lation des zeitstetigen Prozesses {Xt , t ≥ 0} gegeben, wobei vorausgesetzt wird, dass Algorithmen zur Simulation der Folge {Zn , n ≥ 0} fallsvariablen sowie der eingebetteten MarlowKette von unabhängigen und Exp(1)verteilten Zu- en , n ≥ 0} {X vorhanden sind. • Auÿerdem kann man zeigen, dass die endlichdimensionalen Verteilungen des Prozesses {Xt , t ≥ 0} die Faktorisierungeigenschaft besitzen, die in der Denitionsgleichung (10) von MarkowProzessen postuliert wird. Theorem 2.17 Prozess. Der in (42) gegebene stochastische Prozess {Xt , t ≥ 0} ist ein homogener Markow 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 47 Beweis • Der Einfachheit wegen geben wir hier lediglich eine Beweisskizze an. Einen ausführlicheren Beweis kann man beispielsweise in Resnick (1992), S. 378379 nden. Dabei betrachten wir hier nur den folgenden Spezialfall: Sei beliebige • Sei i, j ∈ {1, . . . , ℓ} mit i ̸= j . αi > 0 und qij > 0 für {Nt , t ≥ 0} der Zählprozess der Sprungzeitpunkte S1 , S2 , . . . mit Nt = max{n : Sn ≤ t}. • Dann ergibt sich unmittelbar aus dem Konstruktionsprinzip des stochastischen Prozesses {Xt , t ≥ 0}, dass P (X0 = i0 , Xt1 = i1 , . . . , Xtn = in ) ∑ = P (X̃0 = i0 , Nt1 = m1 , X̃m1 = i1 , Nt2 = m1 + m2 , X̃m1 +m2 = i2 , m1 ,...,mn ≥0 . . . , Ntn = m1 + . . . + mn , X̃m1 +...+mn = in ) > 0 für beliebige • n = 0, 1, . . . , i0 , i1 , . . . , in ∈ E, 0 ≤ t1 ≤ . . . ≤ tn . Hieraus und aus der Gedächtnislosigkeit der Exponentialverteilung ergibt sich, dass P (X0 = i0 , Xt1 = i1 , . . . , Xtn = in ) ∑ P (X̃0 = i0 )P (Nt1 = m1 , X̃m1 = i1 | X̃0 = i0 ) = m1 ,...,mn ≥0 P (Nt2 = m1 + m2 , X̃m1 +m2 = i2 | Nt1 = m1 , X̃m1 = i1 ) . . . P (Ntn = m1 + . . . + mn , X̃m1 +...+mn = in | Ntn−1 = m1 + . . . + mn−1 , X̃m1 +...+mn−1 = in−1 ) ∑ = P (X̃0 = i0 )P (Nt1 = m1 , X̃m1 = i1 | X̃0 = i0 ) m1 ,...,mn ≥0 P (Nt2 −t1 = m2 , X̃m2 = i2 | X̃0 = i1 ) . . . P (Ntn −tn−1 = mn , X̃mn = in | X̃0 = in−1 ) ∞ ∑ = P (X̃0 = i0 ) P (Nt1 = m1 , X̃m1 = i1 | X̃0 = i0 ) m1 =0 ∞ ∑ P (Nt2 −t1 = m2 , X̃m2 = i2 | X̃0 = i1 ) . . . m2 =0 • ∞ ∑ P (Ntn −tn−1 = mn , X̃mn = in | X̃0 = in−1 ) . mn =0 Es gilt also P (X0 = i0 , Xt1 = i1 , . . . , Xtn = in ) = αi0 pi0 i1 (t1 )pi1 i2 (t2 − t1 ) . . . pin−1 in (tn − tn−1 ) , wobei e0 = i) = P (X0 = i) αi = P (X pij (h) = ∞ ∑ m=0 (43) und P (Nh = m, X̃m = j | X̃0 = i) ( ) = P (Xh = j | X0 = i) . 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • • Aus (43) ergibt sich insbesondere, dass i, j ∈ E und h1 , h2 ≥ 0. pij (h1 +h2 ) = ∑ 48 pik (h1 ) pkj (h2 ) für beliebige k∈E Damit ist gezeigt, dass die endlichdimensionalen Verteilungen des Prozesses die Faktorisierungeigenschaft (10) besitzen. Wir zeigen nun, dass der in diesem Abschnitt konstruierte stochastische Prozess {Xt , t ≥ 0} {Xt , t ≥ 0} der richtige MarkowProzess ist, d.h., seine Intensitätsmatrix ist gleich der vorgegebenen Matrix • Hierfür muss gezeigt werden, dass sich die Übergangswahrscheinlichkeiten Prozesses {Xt , t ≥ 0} durch die lokalen Charakteristiken {q(i)}i∈E Q. pij (h) des Markow e = (e P pij )i,j∈E und ausdrücken lassen. • Dabei sagt man, dass Theorem 2.18 i∈E h ≥ 0 gilt ∫ h ∑ pij (h) = δij e−q(i)h + peik pkj (h − t) dt . q(i)e−q(i)t Für beliebige i, j ∈ E und 0 Insbesondere gilt q(i) = 0. ein absorbierender Zustand ist, falls pij (h) = δij für beliebige j∈E (44) k̸=i und h ≥ 0, wenn i∈E ein absorbierender Zustand ist. Beweis • So wie im Beweis von Theorem 2.14 können wir ohne Einschränkung der Allgemeinheit annehmen, dass • P (X0 = i) > 0 für jedes Iij (h) = P (Xh = j, S1 > h | X0 = i) • i ∈ E. Es ist klar, dass sich die Übergangswahrscheinlichkeiten ′ (h) darstellen lassen, wobei Iij (h) + Iij Für die Zerlegungskomponenten und ′ (h) Iij ′ Iij (h) = ∑∫ k̸=i = 0 ∑∫ k̸=i ∫ = 0 h h pij (h) = gilt dann P (Z ′ > h | X e0 = i) = e−q(i)h , 0 Iij (h) = 0, und als Summe ′ (h) = P (Xh = j, S1 ≤ h | X0 = i) . Iij und Iij (h) pij (h) falls i = j, falls i ̸= j , e1 = k, X e0 = i) P (Xh = j, S1 ∈ dt, X e0 = i) P (X h P (Xh = j | Xt = k)P 0 q(i)e−q(i)t ∑ k̸=i (Z ) 0 e1 = k | X e0 = i) ∈ dt P (X q(i) peik pkj (h − t) dt . 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Falls i ∈ E ein absorbierender Zustand ist, dann verbleibt der in diesem Abschnitt konstruierte Prozess {Xt , t ≥ 0} für immer im Zustand i, sobald er diesen pij (h) = δij für beliebige j ∈ E und h ≥ 0. Zustand zum ersten Mal erreicht. Somit gilt Korollar 2.3 Für beliebige i, j ∈ E −q(i) , (1) pij (0+) = qij = pe q(i) falls i = j, falls i ̸= j . (45) Um (45) zu beweisen, genügt es, in (44) die Ableitung bezüglich den Grenzwert für Beachte h↓0 gilt ij Beweis 49 h zu bilden und danach zu betrachten. Wenn man die Formeln (13) und (45) miteinander vergleicht, dann erkennt man, dass die Intensitätsmatrix des in diesem Abschnitt konstruierten MarkowProzesses mit der vorgegebenen Matrix Q {Xt , t ≥ 0} übereinstimmt. Beispiel • {Xt , t ≥ 0} heiÿt Geburts und 1 < i < ℓ und pe12 = peℓ,ℓ−1 = 1 gilt. Der in diesem Abschnitt konstruierte MarkowProzess Todesprozess, wenn pei,i−1 + pei,i+1 = 1 • Die Produkte • Diese Begrisbildungen lassen sich damit begründen, dass die Gröÿen pei,i−1 q(i) pei,i+1 q(i) und pei,i−1 q(i) für beliebige heiÿen Geburtsrate bzw. Sterberate. gemäÿ Korollar 2.3 mit den Übergangsintensitäten Übergänge i → i+1 bzw. i → i−1 qi,i+1 und pei,i+1 q(i) und qi,i−1 für die im Sinne der Denitionsgleichung (13) übereinstim- men. 2.3.5 Stationäre Anfangsverteilungen Ähnlich wie bei MarkowKetten mit diskreter Zeit (vgl. Abschnitt MC-2.2.4) betrachten wir nun eine spezielle Klasse von Anfangsverteilungen, die invariant bezüglich der Übergangsfunktion von MarkowProzessen sind. Denition α = (α1 , . . . , αℓ )⊤ heiÿt stationäre Anfangsverteilung {P(h), h ≥ 0}, falls Die Wahrscheinlichkeitsfunktion bezüglich der Übergangsfunktion α⊤ P(h) = α⊤ ∀ h ≥ 0. (46) Beachte • Wegen der Endlichkeit des Zustandsraumes α: E gilt für jede stationäre Anfangsverteilung α⊤ (P(h) − I) = α⊤ Q . h→0 h 0 = lim 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Es gilt auch die umgekehrte Implikation: Aus 0 α⊤ Q = 0 folgt die Gültigkeit von α⊤ Qn = und somit auch α⊤ P(h) = α⊤ • 50 ∞ ∑ (hQ)n = α⊤ n! n=0 ∀h ≥ 0. Im allgemeinen muss jedoch die Existenz einer Wahrscheinlichkeitsfunktion α = (α1 , . . . , αℓ )⊤ , die der Gleichung (46) genügt, bzw. die eindeutige Lösbarkeit von (46) nicht immer gewährleistet sein. • Andererseits lassen sich, ähnlich wie bei (zeitdiskreten) aperiodischen und irreduziblen MarkowKetten, stationäre Anfangsverteilungen von MarkowProzessen auch als Grenzverteilungen charakterisieren. Dabei ist die Situation im zeitstetigen Fall sogar einfacher, denn aus der Darstellungsformel (35) der Übergangsfunktion beliebige i∈E und h ≥ 0. {P(h), h ≥ 0} folgt, dass pii (h) > 0 für Die bei MarkowKetten betrachtete Bedingung der Aperiodizität muss also bei MarkowProzessen nicht extra vorausgesetzt werden, sondern wir benötigen lediglich die Irreduzibilität. Denition Die Übergangsfunktion {P(h), h ≥ 0} pij (h) > 0 Beachte heiÿt irreduzibel, falls ∀ i ̸= j, h > 0 . (47) Man kann leicht zeigen, dass • die Bedingung (47) mit der Irreduzibilität der Intensitätsmatrix • d.h., für beliebige mit ik ̸= il , i, j ∈ E mit i ̸= j gibt qii1 qi1 i2 . . . qin−1 j > 0. Q äquivalent ist, es eine Folge von Zuständen i1 , . . . , in−1 ∈ E so dass Das folgende Theorem zeigt darüber hinaus: Die Irreduzibilität der Übergangsfunktion 0} bzw. der Intensitätsmatrix Q verteilung bezüglich der Übergangsfunktion Theorem 2.19 {P(h), h ≥ impliziert, dass es eine (eindeutig bestimmte) stationäre Anfangs- {P(h), h ≥ 0} Wenn die Übergangsfunktion gibt. {P(h), h ≥ 0} irreduzibel ist, dann existiert der Grenzwert lim P (Xt = i) = πi (48) t→∞ für jedes bezüglich i ∈ E , wobei π = (π1 , . . . , πℓ )⊤ {P(h), h ≥ 0} ist. die (eindeutig bestimmte) stationäre Anfangsverteilung Beweis • Die Übergangsfunktion • Wegen (35) gilt dann {P(h), h ≥ 0} pij (h) > 0 sei irreduzibel. für beliebige i, j ∈ E und h > 0, P(h) positiv. sind sämtliche Eintragungen der Übergangsmatrix d.h., für jedes h>0 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Aus Theorem MC-2.4 ergibt sich nun, dass die eingebettete MarkowKette mit der (einstugen) Übergangsmatrix P(h) für jedes • Π eine ℓ × ℓMatrix ist, deren Zeilen gleich Weil die Übergangsfunktion jedes ε>0 {Xnh , n ≥ 0} ergodisch ist, d.h., es gilt ∀h > 0 lim P(nh) = Π n→∞ wobei h>0 51 π⊤ sind. {P(h), h ≥ 0} gleichmäÿig stetig in h ≥ 0 ist, gibt es für h0 > 0, so dass es für jedes hinreichend groÿe t > 0 eine eine (kleine) Zahl natürliche Zahl n gibt mit ∥P(t) − Π∥ ≤ ∥P(t) − P(nh0 )∥ + ∥P(nh0 ) − Π∥ ≤ 2ε . Beachte • Sei {Xt , t ≥ 0} ein MarkowProzess mit der Übergangsfunktion stationären Anfangsverteilung • {P(h), h ≥ 0} und der α. Dann kann man leicht zeigen, dass {Xt , t ≥ 0} ein {Xt } gilt stationärer Prozess ist, d.h., für die endlichdimensionalen Verteilungen von P (X0 = i0 , Xt1 = i1 , . . . , Xtn = in ) = P (Xh = i0 , Xt1 +h = i1 , . . . , Xtn +h = in ) für beliebige • n = 0, 1, . . . , i0 , i1 , . . . , in ∈ E, 0 ≤ t1 ≤ . . . ≤ tn , h > 0. Insbesondere ist dann {Xt , t ≥ 0} ein Prozess mit stationären Zuwächsen, die jedoch im allgemeinen nicht unabhängig sein müssen. 2.4 WienerProzess Der WienerProzess, der in der Literatur auch Brownsche Bewegung genannt wird, ist ein weiteres grundlegendes Modell in der Theorie stochastischer Prozesse. Dabei nehmen wir für die Indexmenge I an, dass entweder Denition I = [0, b] für eine (endliche) Zahl Ein stochastischer Prozess b ∈ (0, ∞) oder I = [0, ∞) gilt. {Xt , t ∈ I} über einem (im allgemeinen nicht näher (Ω.F, P ) heisst WienerProzess (im Zeitintervall I ), spezizierten) Wahrscheinlichkeitsraum wenn • {Xt , t ∈ I} unabhängige Zuwächse hat, • Xt2 − Xt1 ∼ N(0, t2 − t1 ) für beliebige t 1 , t2 ∈ I mit t1 < t2 , • X0 = 0, • die Trajektorie t → Xt (ω), t ∈ I , für jedes ω∈Ω eine stetige Funktion ist. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 52 Beachte • Aus dem Existenzsatz von Kolmogorow, d.h. aus Theorem 1.1, folgt, dass es einen Wahrscheinlichkeitsraum und einen stochastischen Prozess {Xt , t ∈ I} über diesem Wahrscheinlichkeitsraum gibt, so dass die ersten drei Bedingungen in der Denition des WienerProzesses erfüllt sind. • Aus dem Stetigkeitssatz von Kolmogorow, d.h. aus Theorem 1.3, folgt auÿerdem, dass zu jedem Prozess {Xt , t ≥ 0}, der den ersten drei Bedingungen in der Denition des WienerProzesses genügt, eine stetige Modikation existiert. • Weniger oensichtlich ist, ob bzw. wie man einen solchen Prozess (mit unabhängigen und normalverteilten Zuwächsen) explizit konstruieren kann, dessen Trajektorien stetige Funktionen sind. • In den drei folgenden Abschnitten erläutern wir eine Methode zur Konstruktion von WienerProzessen (mit stetigen Trajektorien), die gleichzeitig zu einem Algorithmus zur Simulation von WienerProzessen führt. 2.4.1 Vollständige Orthonormalsysteme im L2 ; HaarFunktionen und SchauderFunktionen Wir betrachten zunächst den Fall, dass Konstruktion von WienerProzessen in • Insbesondere betrachten wir den HilbertRaum • I = [0, 1] das Einheitsintervall ist. Dabei [0, 1] einige analytische Hilfsmittel. aller auf dem Einheitsintervall [0, 1] → R, die bezüglich ∫1 2 f (s) ds < ∞ gilt. 0 Für beliebige Eine Folge L2 f, g ∈ L2 {fn , n ≥ 1} I = [0, 1] L2 = L2 ([0, 1]) denierten (Borelmessbaren) Funktionen f : des LebesgueMaÿes quadratisch integrierbar sind, d.h., für die sei (f, g) = von Funktionen ∫1 0 f (s)g(s) ds fn ∈ L2 das zugehörige Skalarprodukt. wird ein vollständiges Orthonormalsystem in genannt, wenn (fn , fn ) = 1 wenn für jedes g(s) = 0 und (fn , fm ) = 0 für beliebige g ∈ L2 die Gültigkeit s ∈ [0, 1]. von n ̸= m (g, fn ) = 0 und für jedes n ≥ 1 impliziert, dass für fast jedes Die Konstruktion von WienerProzessen in • benötigen wir zur I = [0, 1] ein speziell gewähltes Orthonormalsystem beruht auf der Idee, {Hn , n ≥ 1} in L2 (die sogenannten HaarFunktionen) sowie • eine Folge {Yn , n ≥ 1} von unabhängigen und N(0, 1)verteilten Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P ) zu betrachten und zu zeigen, dass 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • der stochastische Prozess {Xt , t ∈ [0, 1]} Xt = ∞ ∑ mit ∫ Yn t ∀ t ∈ [0, 1] Hn (s) ds über einer gewissen Einschränkung des Wahrscheinlichkeitsraumes und den Bedingungen eines WienerProzesses in [0, 1] (Ω, F, P ) wohldeniert ist genügt. Die durch den Ansatz H1 (s) = 1 für jedes m 22 H2m+1 (s) = −2 2 0 m m 22 H2m +k (s) für (1) 0 n=1 Denition 53 k = 1, 2, . . . , 2m − 1 = und m −2 2 0 für für s ∈ [0, 1], (2) 2m+1 − 1 ) , 2m+1 [ 2m+1 − 1 ] s∈ , 1 , 2m+1 s∈ [ 2m − 1 2m , (3) sonst, für für 2k − 1 ) , 2m 2m+1 [ 2k − 1 k ) s∈ , , 2m+1 2m s∈ [k − 1 , (4) sonst m = 0, 1, 2, . . . gegebenen Funktionen Hn : [0, 1] → R heiÿen HaarFunktionen, vgl. Abb. 7 und 8. Lemma 2.5 Die in (2) (4) Hn : [0, 1] → R mit n = 1, 2, . . . bilden Insbesondere gilt die sogenannte ParsevalIdentität denierten HaarFunktionen L2 . ein vollständiges Orthonormalsystem in (f, g) = ∞ ∑ (f, Hn )(g, Hn ) ∀ f, g ∈ L2 . (5) n=1 Beweis • Unmittelbar aus der Denition der HaarFunktionen folgt, dass (Hn , Hm ) = 0 • für beliebige n, m ≥ 1 mit n ̸= m Auÿerdem kann man leicht zeigen, dass das Orthonormalsystem in L2 ist. Sei g ∈ L2 eine quadratisch integrierbare Funktion mit ∫ 1 g(s) Hn (s) ds = 0 0 (Hn , Hn ) = 1 und gilt. ∀n ≥ 1. {Hn , n ≥ 1} vollständig 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 54 1 1 0,5 0,5 0 0 0 0,2 0,4 0,8 0,6 1 0 0,2 0,4 s 0,6 0,8 1 s -0,5 -0,5 -1 -1 Abbildung 7: HaarFunktionen Hieraus folgt, dass ∫ (k+1)/2m und H3 g(s) ds = 0 für beliebige m = 0, 1, . . . und k = 1, . . . , 2m − k/2m 1. H2 ∫t [0, 1] → R mit G(t) = 0 g(s) ds, dass k = 1, . . . , 2m − 1. hieraus, dass G(t) = 0 für jedes t ∈ [0, 1] und Insbesondere gilt also für die Funktion G : G(k/2m ) = 0 für beliebige m = 0, 1, . . . und Weil G eine stetige Funktion ist, folgt g(s) = 0 für fast jedes s ∈ [0, 1]. somit • Die Gültigkeit von (5) ergibt sich aus der Vollständigkeit des Orthonormalsystems 1}, {Hn , n ≥ vgl. beispielsweise Satz 5.3.6 in W. Arendt (2002) Funktionalanalysis (Vorlesung- skript, Universität Ulm) bzw. Satz V.4.9 in D. Werner (1997) Funktionalanalysis (Sprin- ger, Berlin). Lemma 2.6 Für jedes n = 1, 2, . . . sei die Funktion ∫ Sn : [0, 1] → R gegeben durch t Sn (t) = ∀ t ∈ [0, 1] . Hn (s) ds (6) 0 Die in (6) denierten Funktionen S1 , S2 , . . . besitzen die folgenden Eigenschaften: 1 Für beliebige n≥1 2 Für beliebige m = 1, 2, . . . und t ∈ [0, 1] und gilt : [0, 1] → R, Sn (t) ≥ 0. t ∈ [0, 1] 2 ∑ die SchauderFunktionen genannt werden, gilt die Ungleichung m k=1 S2m +k (t) ≤ 1 −m/2 2 . 2 (7) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 55 1 0,5 0 0 0,2 0,4 0,6 0,8 1 s -0,5 -1 Abbildung 8: HaarFunktion 3 H4 a 1 , a2 , . . . ∈ R 1/2 eine beliebige Folge reeller Zahlen mit an = O((log n) ) für ∑∞ a S (t) absolut und gleichmäÿig in t ∈ [0, 1] . konvergiert die Reihe n n n=1 Sei n → ∞. Dann Beweis • Die Tatsache, dass die SchauderFunktionen Sn nur nichtnegative Werte haben, ergibt sich unmittelbar aus den Denitionsgleichungen (2)(4) bzw. (6), vgl. auch Abb. 9 und 10. • Um die Gültigkeit der Ungleichung (7) zu zeigen, genügt es zu beachten, dass die Funkm tionen S2m +k für k = 1, . . . , 2 disjunkte Träger haben und dass S2m +k (t) ≤ S2m +k • Sei nun c>0 = 2m/2 1 1 −m/2 = 2 2m+1 2 |an | ≤ c (log n)1/2 für ℓ → ∞ eine Konstante, so dass |an |Sn (t) ≤ |a1 | + ∞ ∑ m+1 2∑ m=ℓ k=2m +1 n=2ℓ +1 t ∈ [0, 1], m + 1 < c′ 2εm für jedes m ≥ 0 für jedes ∞ c ∑ |ak |Sk (t) ≤ |a1 | + 2 ∀ t ∈ [0, 1] . n ≥ 1. ( m=ℓ log 2m+1 2m/2 )1/2 −→ 0 gleichmäÿig in weil und für gewisse Konstanten c′ < ∞ bzw. ε<1 und weil somit ∞ ∑ m=ℓ 2m+1 Dann ergibt sich aus (7), dass ∞ ∑ ( 2k − 1 ) ( log 2m+1 2m/2 )1/2 = (log 2)1/2 ∞ ( ∞ ( )1/2 ∑ ∑ m + 1 )1/2 1 ′ 1/2 ≤ (c log 2) −→ 0 . 2m 2(1−ε)m m=ℓ m=ℓ Damit ist auch die dritte Teilaussage bewiesen. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 1 0,5 0,8 0,4 0,6 0,3 0,4 0,2 0,2 0,1 56 0 0 0 0,2 0,4 0,6 0,8 1 0 0,2 0,4 t 0,6 0,8 1 t Abbildung 9: SchauderFunktionen S1 und S2 2.4.2 Eigenschaften normalverteilter Zufallsvariablen Bei der Konstruktion von WienerProzessen benötigen wir noch die folgenden Eigenschaften von normalverteilten Zufallsvariablen. Lemma 2.7 Sei {Yn , n ≥ 1} eine Folge von (nicht notwendig unabhängigen) N(0, 1)verteilten Zufallsvariablen über einunddemselben Wahrscheinlichkeitsraum (Ω, F, P ). Dann gilt mit Wahrscheinlichkeit 1, dass |Yn | = O((log n)1/2 ) für n → ∞. (8) Beweis • Sei X eine beliebige N(0, 1)verteilte Zufallsvariable. Dann gilt für jedes x > 0, ( 2 1 )−1 −x2 /2 (2π)−1/2 x + e ≤ P (X > x) ≤ (2π)−1/2 x−1 e−x /2 . x Denn mit partieller Integration ergibt sich, dass ∫ ∞ x [ 1 ]∞ 1 −y2 /2 −y 2 /2 e dy = − e − y2 y x ∫ und somit ∞( 1+ x ∫ ∞ e−y 2 /2 dy x 1 ) −y2 /2 1 −x2 /2 e dy = e . y2 x Hieraus folgt, dass 1 −x2 /2 e > x ∫ ∞ x e−y 2 /2 dy > 1 )−1 1 −x2 /2 ( 1+ 2 e . x x dass (9) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 0,35 0,35 0,3 0,3 0,25 0,25 0,2 0,2 0,15 0,15 0,1 0,1 0,05 0,05 0 0 0 0,2 0,4 0,6 0,8 0 1 0,2 0,4 Abbildung 10: SchauderFunktionen √ P (|Yn | > c log n) ≤ √ 1 S3 und S4 c> √ 2π geteilt werden, √ 2 ∞ ∞ ( c2 ) √1 ∑ 2 ∑ 1 −1/2 (log n) exp − log n ≤ n− π n=3 c 2 π n=3 n=3 • 0,8 Wenn sämtliche Ausdrücke der letzten Ungleichungskette durch ∫ −1/2 ∞ −y 2 /2 dann ergibt sich (9), weil P (X > x) = (2π) e dy . x Aus (9) ergibt sich, dass für jedes ∞ ∑ 0,6 s s • c2 2 < ∞. Aus dem Lemma von BorelCantelli (vgl. Lemma WR-2.3) ergibt sich nun die Behaup- tung. Lemma 2.8 dem seien 57 Y1 , Yn , . . . seien unabhängig und N(0, 1)normalverteilt. Auÿerbeliebige Konstanten, so dass für jedes m = 1, 2, . . . Die Zufallsvariablen ai , bi ∈ R 2 ∑ 2 ∑ m m −m 2 |a2m +k | ≤ 2 und k=1 Dann existieren die Grenzwerte |b2m +k | ≤ 2− 2 . m (10) k=1 U = es gilt U ∼ N(0, ∑∞ i=1 ∞ ∑ ai Yi a2i ) und V = ∑∞ i=1 bi Yi mit Wahrscheinlichkeit V ∼ N(0, und i=1 ∞ ∑ b2i ) , 1, und (11) i=1 wobei Cov (U, V ) = ∞ ∑ ai bi . (12) i=1 Auÿerdem sind die Zufallsvariablen U und V sind genau dann unabhängig, wenn Cov (U, V ) = 0. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 58 Beweis • Mit Hilfe von Lemma 2.7 ergibt sich auf die gleiche Weise wie im Beweis von Lemma 2.6, dass die Grenzwerte U und V mit Wahrscheinlichkeit 1 existieren und somit wohldenierte Zufallsvariablen sind. (m) Für jedes m = 1, 2, . . . ergibt sich die Normalverteilheit der Zufallsvariablen U = • ∑ ∑m m (m) a Y und V = b Y unmittelbar aus der Faltungsstabilität der Normalveri=1 i i i=1 i i teilung (vgl. Korollar WR-3.2), wobei U (m) ∼ N(0, m ∑ a2i ) V (m) ∼ N(0, und i=1 m ∑ b2i ) . i=1 d U (m) −→ U d V (m) −→ V m → ∞. • Hieraus folgt (11), weil • Die Formel (12) ergibt sich aus der Unabhängigkeit der Zufallsvariablen bzw. für Y1 , . . . , Yn und aus den allgemeinen Rechenregeln für die Kovarianz, und zwar gilt Cov (U, V ) = = = lim Cov m→∞ lim m→∞ ∞ ∑ m (∑ ai Y i , i=1 m m ∑∑ m ∑ ) bj Yj = lim m ∑ m→∞ j=1 ai bj Cov (Yi , Yj ) = lim ai Cov Yi , i=1 m ∑ m→∞ i=1 j=1 ( m ∑ ) bj Yj j=1 ai bi Cov (Yi , Yi ) i=1 ai bi . i=1 • Die Notwendigkeit der Bedingung in Teilaussage 2 ergibt sich aus der Multiplikationsformel für den Erwartungswert des Produktes von unabhängigen Zufallsvariablen; vgl. Korollar WR-4.5. • Um die Hinlänglichkeit der Bedingung in Teilaussage 2 zu beweisen, betrachten wir die (gemeinsame) charakteristische Funktion Weil d (U (m) , V (m) ) −→ (U, V ) φU,V (t, s) = für φU,V (t, s) m → ∞, des Zufallsvektors gilt dann für beliebige (U, V ). t, s ∈ R m m m ( ( ∑ )) ( ∑ ) ∑ lim E exp i t ai Yi + s bj Yj = lim E exp i (tai + sbi )Yi m→∞ i=1 m→∞ j=1 i=1 m ( ) ( (ta + sb )2 ) ∏ i i = lim E exp i (tai + sbi )Yi = lim exp − m→∞ m→∞ 2 i=1 i=1 m ∏ = ( exp − ∞ ∑ i=1 (tai + sbi )2 ) ∞ ∑ = 2 (∗) ( = exp − ∞ ∑ ∞ ∑ i=1 2 2 2 a2i ) ( s j=1 bj ) ( t i=1 exp − exp − 2 2 = φU (t) φV (s) , (tai )2 + m ∑ j=1 2 (sbj )2 ) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN wobei sich die Gleichheit und • V (∗) aus der Annahme ergibt, dass die Zufallsvariablen ∑∞ Cov (U, V ) = i=1 ai bi = 0 gilt. 59 U unkorreliert sind und dass deshalb Die Hinlänglichkeit der Bedingung in Teilaussage 2 ergibt sich nun aus dem Eindeutigkeitssatz für charakteristische Funktionen von Zufallsvektoren (der eine Verallgemeinerung des in Korollar WR-5.5 betrachteten eindimensionalen Falles ist), weil das Produkt der charakteristischen Funktionen von unabhängigen Zufallsvek′ ′ toren Z und Z gleich der charakteristischen Funktion des Zufallsvektors (Z, Z ) ist. 2.4.3 Konstruktion von WienerProzessen; Simulationsalgorithmus Aus Lemma 2.7 ergibt sich, dass man • von dem Wahrscheinlichkeitsraum (Ω, F, P ), über dem die Folge {Yn , n ≥ 1} von N(0, 1) verteilten Zufallsvariablen gegeben ist, • zu dem folgenden (eingeschränkten) Wahrscheinlichkeitsraum (Ω′ , F ′ , P ′ ) übergehen kann, wobei Ω′ = {ω ∈ Ω : |Xn (ω)| = O( F′ P′ = F ∩ Ω′ , = P|F ′ , √ log n) für n → ∞ }, F ′ = {A ∩ Ω′ : A ∈ F } , ′ P (A ∩ Ω′ ) = P (A) für jedes A ∈ F . d.h., d.h., Beachte • Weil vorausgesetzt wird, dass die N(0, 1)verteilten Zufallsvariablen gig sind, kann (Ω, F, P ) Y 1 , Y2 , . . . unabhän- beispielsweise der sogenannte kanonische Wahrscheinlichkeits- raum sein mit ( ) (Ω, F, P ) = R × R × . . . , B(R) ⊗ B(R) ⊗ . . . , N(0, 1) × N(0, 1) × . . . . • ′ ′ Weil man sich leicht überlegen kann, dass Ω ∈ F gilt und weil P (Ω ) = 1 wegen Lem′ ′ ′ ma 2.7, ist somit (Ω , F , P ) ein wohldenierter Wahrscheinlichkeitsraum. Insgesamt ergibt sich nun der folgende Ansatz zur Konstruktion von WienerProzessen in [0, 1], vgl. auch Abb. 11. Theorem 2.20 • {Yn , n ≥ 1} eine Folge von unabhängigen und N(0, 1)verteilten Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P ), und sei S1 , S2 , . . . : [0, 1] → [0, ∞) das in (2)(4) Sei bzw. (6) gegebene System von SchauderFunktionen. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 60 Abbildung 11: Konstruktion von WienerProzessen • {Xt , t ∈ [0, 1]} Dann ist der stochastische Prozess ∞ ∑ Xt = Yn Sn (t) mit ∀ t ∈ [0, 1] (13) n=1 ein Prozess mit unabhängigen und normalverteilten Zuwächsen über dem Wahrscheinlichkeitsraum (Ω, F, P ) und ein (Ω′ , F ′ , P ′ ). WienerProzess in [0, 1] über dem eingeschränkten Wahrscheinlich- keitsraum Beweis • Mit Hilfe von (7) ergibt sich aus der ersten Teilaussage von Lemma 2.8, dass die in (13) eingeführte Gröÿe Xt für jedes t ∈ [0, 1] eine wohldenierte (normalverteilte) Zufallsva- riable ist, wobei Xt ∼ N(0, t) (14) Denn es gilt ∞ ∑ Sn2 (t) = n=1 ∀ t ∈ [0, 1] . ∞ (∫ ∑ n=1 1 ∞ )2 ∑ ( )2 ( ) Hn (s)1I([0, t])(s) ds = Hn , 1I([0, t]) = 1I([0, t]), 1I([0, t]) = t , 0 n=1 Dabei ergibt sich die vorletzte Gleichheit aus Lemma 2.5, weil 1I([0, t]) ∈ L2 und weil somit aus (5) folgt, dass ∞ ( ) ∑ ( )2 1I([0, t]), 1I([0, t]) = Hn , 1I([0, t]) . • Auÿerdem gilt Xt2 −Xt1 = ( ∑∞ n=1 n=1 ) Yn Sn (t2 )−Sn (t1 ) für beliebige t1 , t2 ≥ 0 mit t1 < t2 , und ähnlich wie beim Beweis von (14) kann man zeigen, dass Xt2 − Xt1 ∼ N(0, t2 − t1 ) , weil ∞ ∑ ( )2 Sn (t2 ) − Sn (t1 ) = t2 − t1 , n=1 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN d.h. insbesondere, dass die Zuwächse Xt2 − Xt1 61 {Xt } des stochastischen Prozesses normalverteilt sind. • Wir zeigen nun, dass {Xt } ein Prozess mit unabhängigen Zuwächsen ist. t1 , . . . , t4 ≥ 0 Aus (12) ergibt sich, dass für beliebige mit t1 < t 2 ≤ t3 < t 4 ∞ ) ∑ ( )( ) ( Sn (t2 ) − Sn (t1 ) Sn (t4 ) − Sn (t3 ) . Cov Xt2 − Xt1 , Xt4 − Xt3 = n=1 Dabei ist ∞ ∑ ( )( ) Sn (t2 ) − Sn (t1 ) Sn (t4 ) − Sn (t3 ) n=1 = ∞ ∫ ∑ n=1 = ( ∫ 1 1 Hn (s)1I([t1 , t2 ])(s) ds 0 Hn (s)1I([t3 , t4 ])(s) ds = 0 ) m ∑ ( )( ) Hn , 1I([t1 , t2 ]) Hn , 1I([t3 , t4 ]) n=1 1I([t1 , t2 ]) 1I([t3 , t4 ]) = 0 , wobei sich die vorletzte Gleichheit erneut aus Formel (5) in Lemma 2.5 ergibt. Lemma • Teilaussage von Schlieÿlich ergibt sich aus der dritten Teilaussage von Lemma 2.6 und aus Lemma 2.7, dass sämtliche Trajektorien des Prozess {Xt , t ∈ [0, 1]} über dem eingeschränkten Wahr′ ′ ′ scheinlichkeitsraum (Ω , F , P ) stetige Funktionen sind, weil • ( ) Cov Xt2 − Xt1 , Xt4 − Xt3 = 0, und aus der zweiten 2.8 ergibt sich nun, dass {Xt } unabhängige Zuwächse hat. Somit gilt die Summe ∑m Y S (t) für jedes m ≥ 1 eine stetige Funktion in t ist und n=1 ∑mn n ∑∞ n=1 Yn Sn (t) −→m→∞ n=1 Yn Sn (t) gleichmäÿig in t erfolgt. die Konvergenz Weil oenbar auch X0 = 0 gilt, ist damit die Behauptung vollständig bewiesen. Beachte • Die Aussage von Theorem 2.20 rechtfertigt den folgenden Algorithmus zur (näherungsweisen) Simulation des in (13) gegebenen WienerProzesses • k = 2m mit m ≥ 0 n=1 Yn Sn (t) des WienerProzesses {Xt } Um für ein ∑k Y1 , . . . , Yk berechnet dann schrittweise die 2n t ∈ [0, 1]} mit (k) Xt = zu simulieren, generiert man zunächst die Realisierungen verteilten Zufallsvariablen {Xt , t ∈ [0, 1]}. (k) die Approximation {Xt , y1 , . . . , yk der unabhängigen und N(0, 1) und Segmente der Polygonzüge (2n ) {Xt , t ∈ [0, 1]} für n = 0, 1, . . . , m. • Dabei kann man zum Beispiel für Schritt 0 m=2 und n = 0, 1, 2 wie folgt vorgehen: (1) Für die Realisierung y1 von Y1 ergibt sich der Endpunkt (1, x1 ) = (1, y1 ) (1) (1) des Segmentes (0, 0) → (1, x1 ), das die entsprechende Trajektorie von {Xt , t ∈ [0, 1]} ist. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN Schritt 1 den Wert Berechne den Mittelpunkt des Segmentes y2 S2 (1/2) (= y2 /2) (1) (0, 0) → (1, x1 ) 62 und addiere zu dessen zweiter Komponente. Dies ergibt den Wert (2) x1/2 = y1 S1 (1/2) + y2 S2 (1/2) , wobei die Trajektorie von (2) {Xt , t ∈ [0, 1]} (2) (0, 0) → (1/2, x1/2 ) aus den zwei Segmenten (2) (1) (2) (1) (1/2, x1/2 ) → (1, x1 ) und besteht. Schritt 2 Berechne die Mittelpunkte der Segmente (2) (0, 0) → (1/2, x1/2 ) (1/2, x1/2 ) → (1, x1 ) und y3 S3 (1/4) (= y3 /23/2 ) und addiere jeweils die Werte bzw. y4 S4 (3/4) (= y4 /23/2 ) zu deren zweiten Komponenten. Dies ergibt die Werte (4) x1/4 = y1 S1 (1/4)+y2 S2 (1/4)+y3 S3 (1/4) wobei die Trajektorie von (4) {Xt , t ∈ [0, 1]} (4) (0, 0) → (1/4, x1/4 ) , und und (2) (4) x3/4 = y1 S1 (3/4)+y2 S2 (3/4)+y4 S4 (3/4) , nun aus vier Segmenten besteht: (4) (2) (1/4, x1/4 ) → (1/2, x1/2 ) (4) (1/2, x1/2 ) → (3/4, x3/4 ) , (4) (1) (3/4, x3/4 ) → (1, x1 ) . Beachte • Die in Abschnitt 2.4.3 enthaltenen Darlegungen lassen sich auf völlig analoge Weise zur Konstruktion und Simulation von WienerProzessen in beliebigen beschränkten Intervallen der Form I = [0, c] verwenden, wobei c<∞ eine beliebige positive Zahl ist. {Yt , t ∈ [0, c]} mit Yt = {Xt , t ∈ [0, 1]} ein WienerProzess Denn man kann sich leicht überlegen, dass WienerProzess in [0, c] ist, wenn √ c Xt/c in [0, 1] ein ist; vgl. auch Theorem 2.23 in Abschnitt 2.4.6. • Wir erwähnen nun noch eine Möglichkeit, wie WienerProzesse in dem unbeschränkten Intervall I = [0, ∞) auf einfache Weise konstruiert werden können. Hierfür genügt es, eine Doppelfolge {Ynm , n, m ≥ 1} von unabhängigen und N([0, 1]) verteilten Zufallsvariablen zu betrachten, die über einunddemselben Wahrscheinlichkeitsraum (Ω, F, P ) gegeben sind. Gemäÿ Theorem 2.20 lässt sich über dem eingeschränkten Wahrscheinlichkeitsraum (1) (2) (Ω′ , F ′ , P ′ ) eine Folge {Xt , t ∈ [0, 1]}, {Xt , t ∈ [0, 1]}, . . . von unabhängigen WienerProzessen jeweils im Intervall [0, 1] konstruieren. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 63 Man kann sich leicht überlegen, dass dann durch den Ansatz Xt = (1) Xt (1) (2) X1 + Xt−1 (3) X1(1) + X1(2) + Xt−2 für t ∈ [0, 1], für t ∈ [1, 2], für t ∈ [2, 3], für t ∈ [n − 1, n], . . . ∑n−1 (k) (n) k=1 X1 + Xt−(n−1) .. . ein stochastischer Prozess {Xt , t ≥ 0} gegeben ist, der ein WienerProzess in (Ω′ , F ′ , P ′ ) ist. [0, ∞) über dem eingeschränkten Wahrscheinlichkeitsraum 2.4.4 Darstellung als MarkowProzess bzw. GauÿProzess Wir zeigen nun, dass der WienerProzess ein MarkowProzess im Sinne der folgenden (verallgemeinerten) Denition dieses Begries ist, die ähnlich zu der in Abschnitt 2.3.1 betrachteten Denition von MarkowProzessen mit endlichem Zustandsraum ist. Sei P(R) die Familie sämtlicher Wahrscheinlichkeitsmaÿe auf der Borelσ Algebra Begri eines MarkowProzesses baren) Zustandsraum E=R {Xt , t ≥ 0} Um den einzuführen, betrachten wir • ein Wahrscheinlichkeitsmaÿ • einen stochastischen Kern α : B(R) → [0, 1] sowie P : [0, ∞) × R × B(R) → [0, 1], P(·, ·, B) so dass P(h, x, ·) ∈ P(R) , (15) P(0, x, {x}) = 1 , (16) ist eine messbare Funktion auf ∫ P(h1 + h2 , x, B) = für beliebige B(R). mit stetiger Zeit und mit Werten in dem (überabzähl- h, h1 , h2 ≥ 0, x ∈ R und R [0, ∞) × R, P(h2 , y, B) P(h1 , x, dy) (17) (18) B ∈ B(R). Denition 1. Ein stochastischer Kern P, der den Bedingungen (15)(18) genügt, wird Übergangskern genannt. {Xt , t ≥ 0} mit Werten in E = R heiÿt homogener Markow Prozess, wenn es einen Übergangskern P und ein Wahrscheinlichkeitsmaÿ α über B(R) 2. Ein stochastischer Prozess gibt, so dass P (X0 ∈ B0 , Xt1 ∈ B1 , . . . , Xtn ∈ Bn ) ∫ ∫ ∫ = ... P(tn − tn−1 , xn−1 , dxn ) . . . P(t1 , x0 , dx1 ) α(dx0 ) , B0 für beliebige B1 Bn n = 0, 1, . . ., B0 , B1 , . . . , Bn ∈ B(R), t0 = 0 ≤ t1 ≤ . . . ≤ tn . (19) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 64 Beachte • Das Wahrscheinlichkeitsmaÿ • Auÿerdem wird h in d.h., in (19) wird Anfangsverteilung genannt. P(h, x, B) als die Wahrscheinlichkeit interpretiert, dass der Prozess {Xt } x in einen Zustand aus B übergeht. Zeiteinheiten vom Zustand Theorem 2.21 α = δ0 , α Sei {Xt , t ≥ 0} α({0}) = 1, und ein WienerProzess. Dann ist √ P(h, x, B) = für beliebige h > 0, x ∈ R und 1 2πh ∫ {Xt } ein MarkowProzess mit ( (y − x)2 ) exp − dy 2h B (20) B ∈ B(R). Beweis • Wegen X0 = 0 genügt es, anstelle von (19), zu zeigen, dass die folgende Desintegrations- gleichung ∫ ∫ P (Xt1 ∈ B1 , . . . , Xtn ∈ Bn ) = für beliebige • P(tn − tn−1 , xn−1 , dxn ) . . . P(t1 , 0, dx1 ) , ... B1 (21) Bn n = 1, 2 . . ., B1 , . . . , Bn ∈ B(R) und 0 < t1 < . . . < tn Aus der Unabhängigkeit der Zuwächse des WienerProzesses {Xt } gilt. ergibt sich, dass P (Xt1 ∈ B1 , Xt2 ∈ B2 , . . . , Xtn ∈ Bn ) = P (Xt1 ∈ B1 , Xt2 − Xt1 ∈ B2 − Xt1 , . . . , Xtn − Xt1 ∈ Bn − Xt1 ) ∫ = P (Xt2 − Xt1 ∈ B2 − x1 , . . . , Xtn − Xt1 ∈ Bn − x1 )P (Xt1 ∈ dx1 ) ∫B1 ∫ = P (Xt3 − Xt2 ∈ B3 − x1 − x2 , . . . , Xtn − Xt2 ∈ Bn − x1 − x2 ) B2 −x1 B1 P (Xt2 − Xt1 ∈ dx2 ) P (Xt1 ∈ dx1 ) . . . ∫ ∫ ∫ = ... B1 B2 −x1 P (Xtn − Xtn−1 ∈ dxn ) . . . P (Xt2 − Xt1 ∈ dx2 ) P (Xt1 ∈ dx1 ) Bn −x1 −...−xn−1 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Somit ergibt sich aus der Normalverteiltheit der Zuwächse von {Xt }, 65 dass P (Xt1 ∈ B1 , Xt2 ∈ B2 , . . . , Xtn ∈ Bn ) √ ∫ ∫ ∫ = ... ( ) 1 x2n exp − dxn 2π(tn − tn−1 ) 2(tn − tn−1 ) B1 B2 −x1 Bn −x1 −...−xn−1 √ √ ( ) ( x2 ) 1 x22 1 exp − dx2 exp − 1 dx1 ... 2π(t2 − t1 ) 2(t2 − t1 ) 2πt1 2t1 ∫ ∫ ∫ √ ( (xn − xn−1 )2 ) 1 = ... exp − dxn 2π(tn − tn−1 ) 2(tn − tn−1 ) B1 B2 Bn √ √ ( (x2 − x1 )2 ) ( x2 ) 1 1 exp − dx2 exp − 1 dx1 . ... 2π(t2 − t1 ) 2(t2 − t1 ) 2πt1 2t1 • Damit ist die Gültigkeit von (21) gezeigt, wobei der Übergangskern ist. P durch (20) gegeben Beachte • (Xt1 , . . . , Xtn ) ft1 ,...,tn : Rn → [0, ∞) Aus dem Beweis von Theorem 2.21 ergibt sich insbesondere, dass ein absolutstetiger Zufallsvektor ist, dessen (gemeinsame) Dichte für 0 < t1 < . . . < tn gegeben ist durch n ( 1 ∑ ( )−1/2 (xi − xi−1 )2 ) ft1 ,...,tn (x1 , . . . , xn ) = (2π)−n/2 t1 (t2 −t1 ) . . . (tn −tn−1 ) exp − , 2 i=1 ti − ti−1 (22) wobei • t0 = x0 = 0. Aus (22) folgt, dass der Zufallsvektor hat, wobei • Cov (Xs , Xt ) = min{s, t} Ein stochastischer Prozess (Xt1 , . . . , Xtn ) eine (multivariate) Normalverteilung für beliebige s, t ≥ 0. {Xt , t ≥ 0}, dessen endlichdimensionale Verteilungen (mul- tivariate) Normalverteilungen sind, wird GauÿProzess genannt. 2.4.5 Verteilung des Maximums In diesem Abschnitt setzen wir die Diskussion von Eigenschaften des WienerProzesses fort, die mit relativ elementaren Hilfsmitteln gezeigt werden können. Dabei leiten wir zunächst eine obere Schranke für die Tailfunktion des Maximums maxt∈[0,1] Xt von WienerProzessen in [0, 1] her. Später zeigen wir in Kapitel 3 mit den Techniken von Martingalen bzw. LévyProzessen, dass diese Schranke optimal ist, d.h., mit der Tailfunktion von maxt∈[0,1] Xt übereinstimmt. Theorem 2.22 • Sei {Xt , t ∈ [0, 1]} ein WienerProzess über einem gewissen Wahrscheinlichkeitsraum (Ω, F, P ). 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Dann gilt ( √ ) P max Xt > x ≤ t∈[0,1] 2 π ∫ ∞ e−y 2 /2 ∀x ≥ 0. dy 66 (23) x Beachte • maxt∈[0,1] Xt : Ω → [0, ∞) ist eine wohldenierte {Xt } stetige Funktionen sind und somit ( ) ( ) max Xt (ω) = lim max Xi/k (ω) ∀ω ∈ Ω. (24) Die in (23) betrachtete Abbildung Zufallsvariable, weil die Trajektorien von k→∞ t∈[0,1] • Aus (23) folgt, dass die Zufallsvariable i=1,...,k maxt∈[0,1] Xt einen exponentiell beschränkten Tail hat. Hieraus ergibt sich insbesondere, dass sämtliche Momente von maxt∈[0,1] Xt existieren (und endlich sind). • Im Beweis von Theorem 2.22 benötigen wir Bezeichnungen und Hilfsmittel, die teilweise bereits in der Vorlesung Wahrscheinlichkeitsrechnung bereitgestellt wurden. Sei {Xt , t ≥ 0} ein Z1 , Z2 , . . . eine Folge von unabhängigen P (Zi = 1) = P (Zi = −1) = 1/2 für jedes i ≥ 1. et(n) , t ∈ betrachten wir für jedes n ≥ 1 den stochastischen Prozess {X WienerProzess, und sei Zufallsvariablen mit Auÿerdem [0, 1]} wobei mit √ √ et(n) = S⌊nt⌋ / n + (nt − ⌊nt⌋) Z⌊nt⌋+1 / n , X Si = Z1 + . . . + Zi S0 = 0. für jedes i≥1 und ⌊t⌋ (25) t≥0 den ganzzahligen Teil von bezeichnet; • Das folgende Lemma zeigt, dass et } {X (n) als Approximation des WienerProzesses {Xt } aufgefasst werden kann. Allerdings konvergiert der in (25) gegebene Prozess n→∞ gegen während ∑n k=1 Lemma 2.9 {Xt }, (n) nur in Verteilung für pfadweise für k≥1 n→∞ gegen den und für beliebige t1 , . . . , tk ∈ [0, 1] ( (n) ) d ( ) et , . . . , X et(n) −→ X Xt1 , . . . , Xtk 1 k (n) (n) {Xt } mit Xt = WienerProzess {Xt } konvergiert. die in Abschnitt 2.4.3 betrachtete Approximation Yk Sk (t) Für jedes et } {X gilt für n → ∞. (26) Beweis • Wir zeigen die Behauptung nur für den Spezialfall k = 2; für beliebige der Beweis analog. Auÿerdem nehmen wir o.B.d.A. an, dass • Dann gilt für beliebige et(n) + s2 X et(n) s1 X 1 2 = s1 , s2 ∈ R, k ≥2 verläuft t1 < t 2 . dass ( ) √ √ (s1 + s2 )S⌊nt1 ⌋ / n + s2 S⌊nt2 ⌋ − S⌊nt1 ⌋+1 / n ( √ √ ) √ +Z⌊nt1 ⌋+1 (nt1 − ⌊nt1 ⌋)s1 / n + s2 / n + Z⌊nt2 ⌋+1 (nt2 − ⌊nt2 ⌋)s2 / n , 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 67 wobei die vier Summanden auf der rechten Seite der letzten Gleichheit unabhängige Zufallsvariablen sind, so dass die letzten beiden Summanden jeweils (in Verteilung) gegen Null konvergieren. • Aus der Charakterisierung der Verteilungskonvergenz mittels charakteristischer Funktionen (siehe Theorem WR-5.20) ergibt sich somit, dass die charakteristischen Funktionen der beiden letzten Summanden punktweise gegen • 1 konvergieren. Insgesamt gilt also e (n) +s2 X e (n) ) lim E ei(s1 Xt1 t2 n→∞ ( √ √ )⌊nt1 ⌋ ( √ )⌊nt2 ⌋−⌊nt1 ⌋−1 = lim φ(s1 / n + s2 / n) φ(s2 / n) n→∞ φ(s) = E exp(isZ1 ) für s ∈ R. √ φn (s/ n) die charakteristische wobei • Weil Funktion der Zufallsvariablen √ (Z1 + . . . + Zn )/ n ist, ergibt sich aus dem zentralen Grenzwertsatz, dass √ 2 lim φn (s/ n) = e−s /2 n→∞ und somit e (n) +s2 X e (n) ) lim E ei(s1 Xt1 t2 n→∞ • ) ( = exp −((s1 + s2 )2 t1 + s22 (t2 − t1 ))/2 ( ) = exp −(s21 t1 + 2s1 s2 min{t1 , t2 } + s22 t2 )/2 . Weil der letzte Ausdruck die charakteristische Funktion des Zufallsvektors (Xt1 , Xt2 ) ist, ergibt sich nun die Behauptung durch die erneute Anwendung der Charakterisierung der Verteilungskonvergenz mittels charakteristischer Funktionen und aus dem eineindeutigen Zusammenhang zwischen charakteristischer Funktion und Verteilung (vgl. Korollar WR-5.5 für den eindimensionalen Fall). Lemma 2.10 Sei e (n) = maxt∈[0,1] X et(n) . X e (n) = √1 X n Dann gilt max Sk k=1,...,n √ und e (n) ≤ x) = lim P (X n→∞ 2 π ∫ x ∀ n = 1, 2, . . . e−y 2 /2 dy ∀x ≥ 0. (27) (28) 0 Beweis • Die Gleichung (27) folgt unmittelbar aus der in (25) gegebenen Denition von • Die Gleichung (28) beruht auf dem sogenannten et(n) . X 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN Reexionsprinzip der maximalen Gewinnsume bei nmaligem 68 Münzwurf und wurde bereits in Abschnitt WR-5.3.2 hergeleitet (vgl. Formel (68) in Abschnitt WR- 5.3.2). Beweis von Theorem 2.22 • Aus Lemma 2.9 ergibt sich, dass für beliebige lim P ( max t∈{t1 ,...,tk } n→∞ • et(n) X x ≥ 0, k ≥ 1 > x) = P ( max t∈{t1 ,...,tk } t1 , . . . , tk ∈ [0, 1] Xt > x) . Hieraus folgt, dass et(n) > x) ≥ P ( lim P ( max X n→∞ • und Mit max t∈{t1 ,...,tk } t∈[0,1] {t1 , . . . , tk } = {1/k, 2/k, . . . , k/k} Xt > x) . ergibt sich nun unter Beachtung von (24), dass et(n) > x) ≥ P ( max Xt > x) . lim P ( max X n→∞ • Beachte t∈[0,1] t∈[0,1] Wegen Lemma 2.10 ist damit die Ungleichung (23) bewiesen. Sei {Xt , t ≥ 0} ein WienerProzess über (Ω, F, P ). Dabei setzen wir (wie stets in diesem (Ω, F, P ) ein vollständiger Wahrscheinlichkeitsraum ist, d.h., Skript) voraus, dass • WienerProzess • (Ω, F, P ), über dem der {Xt } gegeben ist, zu F gehören, bzw. (äquivalent hierzu) C ∈ F , falls es Teilmengen A, B ∈ F gibt, so dass A ⊂ C ⊂ B und dass sämtliche Nullmengen des Wahrscheinlichkeitsraumes C ⊂ Ω gilt P (B \ A) = 0. für Aus Theorem 2.22 ergibt sich nun die folgende asymptotische Eigenschaft des WienerPrrozesses. Korollar 2.4 Sei {Xt , t ≥ 0} ein WienerProzess. Dann gilt mit Wahrscheinlichkeit lim t→∞ Xt = 0. t 1 (29) Beweis • Für beliebige n = 1, 2, . . . und t ∈ [n, n + 1) gilt X X Xn Xn Xn Xn t t − − − ≤ + t n t t t n 1 1 1 ≤ |Xn | − sup |Xt − Xn | + t n n t∈[n,n+1] ≤ Zn = supt∈[0,1] |Xn+t − Xn | n ≥ 0. wobei sind; |Xn | Zn + , n2 n unabhängige und identisch verteilte Zufallsvariablen 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Hieraus und aus der Vollständigkeit des Wahrscheinlichkeitsraumes dass limt→∞ Xt /t (Ω, F, P ) ergibt sich, eine wohldenierte Zufallsvariable mit der Eigenschaft (29) ist, wenn wir zeigen, dass mit Wahrscheinlichkeit lim n→∞ • 69 |Xn | =0 n2 1 lim und n→∞ Zn = 0. n (30) Die erste Nullkonvergenz in (30) ergibt sich unmittelbar aus dem starken Gesetz der groÿen Zahlen für Summen unabhängiger und identisch verteilter Zufallsvariablen, denn es gilt ∑n (X − X ) |Xn | i i−1 = i=1 −→ |E X1 | = 0 n n und somit auch • |Xn |/n2 → 0 für n → ∞. Um auch die Gültigkeit der zweiten Nullkonvergenz in (30) mit dem starken Gesetz der groÿen Zahlen begründen zu können, muss noch gezeigt werden, dass Man kann sich leicht überlegen, dass {−Xt , t ≥ 0} E Z1 < ∞. ebenfalls ein WienerProzess ist (vgl. auch Theorem 2.23). Deshalb gilt ( ) ( ) ( ) P (Z1 > x) ≤ P max Xt > x + P max (−Xt ) > x = 2 P max Xt > x . t∈[0,1] t∈[0,1] Mit Hilfe von (23) ergibt sich somit, dass √ P (Z1 > x) ≤ 2 t∈[0,1] Hieraus folgt, dass E Z1 = ∫∞ 0 2 π ∫ ∞ e−y 2 /2 dy ∀x ≥ 0. x P (Z1 > x) dx < ∞. 2.4.6 Weitere Verteilungs und Pfadeigenschaften Wir zeigen nun einige Invarianzeigenschaften des WienerProzesses in [0, ∞), womit die Tatsache gemeint ist, dass bestimmte Transformationen des WienerProzesses erneut zu einem Wiener Prozess führen. In Abb. 12 wird beispielsweise die in (32) betrachtete Invarianz des Wiener Prozesses gegenüber Verschiebungen des Nullpunktes illustriert. Theorem 2.23 • {Xt , t ≥ 0} (Ω, F, P ). Sei ein WienerProzess über einem (vollständigen) Wahrscheinlichkeitsraum 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 70 Abbildung 12: Verschiebungsinvarianz von WienerProzessen • Die stochastischen Prozesse (1) (i) {Yt , t ≥ 0}, i = 1, . . . , 4 mit Yt = −Xt , (Symmetrie) (31) (2) Yt (3) Yt = Xt+t0 − Xt0 für ein t0 > 0 √ cXt/c für ein c > 0, = tX 1/t für t > 0, = 0 für t = 0, (Verschiebung des Nullpunktes) (32) (Skalierung) (33) (4) Yt (Spiegelung bei t = ∞) (34) (i) {Yt , t ≥ 0}, i = 1, 2, 3 über dem gleichen Wahr(4) scheinlichkeitsraum (Ω, F, P ) wie {Xt } gegeben sind, während {Yt , t ≥ 0} über einem ein′ ′ ′ geschränkten Wahrscheinlichkeitsraum (Ω , F , P ) gegeben ist. sind dann ebenfalls WienerProzesse, wobei Beweis • Wir zeigen, dass die Prozesse (i) {Yt , t ≥ 0} für i = 1, . . . , 4 die vier Bedingungen in der Denition des WienerProzesses erfüllen. • (i) Man kann sich leicht überlegen, dass die Prozesse {Yt , t ≥ 0} unabhängige Zu(i) (i) wächse besitzen mit Yt − Yt1 ∼ N(0, t2 − t1 ) für 0 ≤ t1 < t2 und i = 1, . . . , 4, 2 (i) = 0 für i = 1, . . . , 4. Oenbar gilt auch Y0 (i) Auÿerdem ist klar, dass die Prozesse {Yt , t ≥ 0} für i = 1, 2, 3 stetige Trajektorien besitzen. Es bleibt also noch zu zeigen, dass mit Wahrscheinlichkeit 1 (4) lim Yt t↓0 bzw. dass es für fast jedes ω∈Ω =0 und für jedes sup t∈(0,1/m] (4) (35) n>0 |Yt (ω)| < eine Zahl 1 , n m>0 gibt, so dass 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • (4) {Yt , t ≥ 0} dann stetige Trajektorien über dem Wahrscheinlichkeitrsraum (4) (Ω , F ′ , P ′ ) hat, wobei Ω′ = {ω ∈ Ω : limt↓0 Yt (ω) = 0}, F ′ = F ∩ Ω′ und P ′ die ′ Einschränkung von P auf F bezeichnet. weil ′ Weil die Trajektorien von (4) {Yt , t ≥ 0} für jedes (4) |Yt | = sup t∈(0,1/m] wobei • 71 Q ⊂ (0, ∞) t>0 stetig sind, gilt (4) |Yt | , sup t∈Q∩(0,1/m] die (abzählbar unendliche) Menge der positiven rationalen Zahlen ist. Hieraus folgt, dass ( ) (4) P lim Yt = 0 t↓0 = P (∩ ∪ { sup }) (4) |Yt | < 1/n n>0 m>0 t∈(0,1/m] = P (∩ ∪ { sup }) (4) |Yt | < 1/n n>0 m>0 t∈Q∩(0,1/m] = • Beachte wobei Qk ⊂ Q P lim ′ P n′ ,m ,k=∞ = n′ ∪ m′ (∩ lim ′ n′ ,m ,k→∞ sup n=1 m=1 t∈Qk ∩(0,1/m] n′ ∪ m′ (∩ sup { (4) }) |Yt | < 1/n { }) |Xt | < 1/n , n=1 m=1 t∈Qk ∩(0,1/m] die (endliche) Menge der ersten k rationalen Zahlen ist und sich die letzte Gleichheit aus der Tatsache ergibt, dass die (endlichdimensionalen) (4) Zufallsvektoren {Yt , t ∈ Qk } und {Xt , t ∈ Qk } identisch verteilt sind. , Weil die Trajektorien des WienerProzesses {Xt t ∈ [0, 1]} rechtsseitig stetig in t = 0 sind, ist der letzte Grenzwert gleich 1. Damit ist (35) bewiesen. Die Gültigkeit von (35) kann auch direkt aus Korollar 2.4 gefolgert werden, denn es gilt (4) lim Yt t↓0 Korollar 2.5 Sei {Xt , ≥ 0} = lim t X1/t = lim t→∞ t↓0 Xt = 0. t ein WienerProzess. Dann gilt ( ) ( ) P sup Xt = ∞ = P inf Xt = −∞ = 1 . t≥0 (36) t≥0 Beweis • Aus der Skalierungseigenschaft (33) in Theorem 2.23 ergibt sich, c, x > 0 ( ) ( ) ( √ √ ) P sup Xt > x = P sup cXt/c > x = P sup Xt > x/ c . dass für beliebige t≥0 t≥0 t≥0 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN d.h. insbesondere, dass die Wahrscheinlichkeit ( ) P supt≥0 Xt > x nicht von x 72 ab- hängt. • Hieraus folgt, dass ( ) P {sup Xt = 0} ∪ {sup Xt = ∞} = 1 . t≥0 • (37) t≥0 {Xt } unabhängige und stationäre Zuwächse hat, gilt ( ) ( ) ( ) ( ) P sup Xt = 0 = P sup Xt ≤ 0 ≤ P X1 ≤ 0, sup Xt ≤ 0 = P X1 ≤ 0, sup (Xt − X1 ) ≤ −X1 Weil der WienerProzess t≥0 ∫ t≥0 0 = (37) −∞ 0 ∫ = −∞ = t≥1 ( ) P sup(Xt − X1 ) ≤ −x P (X1 ∈ dx) = t≥1 ∫ t≥1 0 −∞ ( ) P sup Xt ≤ −x P (X1 ∈ dx) t≥0 ( ) ( ) P sup Xt = 0 P (X1 ∈ dx) = P (X1 ≤ 0) P sup Xt = 0 t≥0 t≥0 ) 1 ( P sup Xt = 0 , 2 t≥0 wobei sich die dritte Gleichheit aus der InvarianzEigenschaft von {Xt } bezüglich der Verschiebung des Nullpunktes ergibt; vgl. die Formel (32). • Hieraus folgt, dass • Die Gültigkeit von ( ) ( ) P supt≥0 Xt = 0 = 0 und somit P supt≥0 Xt = ∞ = 1. ( ) P inf t≥0 Xt = −∞ = 1 ergibt sich auf analoge Weise. Beachte • Die Aussage von Korollar 2.5 ist äquivalent mit ( ) P supt≥0 Xt = ∞, inf t≥0 Xt = −∞ = 1. • Hieraus folgt insbesondere, dass fast alle Pfade des WienerProzesses unbeschränkten Intervall [0, ∞) {Xt , t ≥ 0} in dem unendlich oft zwischen positiven und negativen Werten oszillieren. • Wir zeigen nun, dass die Pfade des WienerProzesses {Xt } auch in beschränkten Intervallen wild oszillieren (vgl. Abb. 13), denn es stellt sich heraus, dass sie zwar stetige, jedoch mit Wahrscheinlichkeit 1 nirgendwo dierenzierbare Funktionen sind. Theorem 2.24 Sei {Xt , ≥ 0} ein WienerProzess. Dann gilt P (ω ∈ Ω : X· (ω) ist nirgendwo dierenzierbar in [0, ∞) ) = 1 . Beweis • Wegen der Identität { ω ∈ Ω : X· (ω) ist nirgendwo dierenzierbar in [0, ∞)} ∩{ = ω ∈ Ω : X· (ω) ist nirgendwo dierenzierbar in [i, i + 1]} i≥0 (38) 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 73 Abbildung 13: Approximation der Realisierungen von WienerProzessen genügt es zu zeigen, dass P (ω ∈ Ω : X· (ω) ist nirgendwo dierenzierbar in [0, 1] ) = 1 bzw., äquivalent hierzu, dass P (ω ∈ Ω : X· (ω) ist • dierenzierbar für ein t0 = t0 (ω) ∈ [0, 1] ) = 0 . (39) Um die Gültigkeit von (39) zu beweisen, setzen wir für beliebige natürliche Zahlen n, m ≥ 1 { Anm = ω ∈ Ω : es gibt ein t0 = t0 (ω) ∈ [0, 1] mit } |Xt0 (ω)+h (ω)−Xt0 (ω) (ω)| ≤ mh, ∀ h ∈ [0, 4/n] . Dann gilt { ω ∈ Ω : X· (ω) ist dierenzierbar für ein ∪ ∪ } t0 = t0 (ω) ⊂ Anm , m≥1 n≥1 und es genügt somit zu zeigen, dass P (Anm ) = 0 ∀ n, m ≥ 1 . { } k0 (ω) = min k ∈ {0, 1, . . .} : k/n ≥ t0 (ω) . Dann gilt für jedes ω ∈ Anm j = 0, 1, 2 X(k (ω)+j+1)/n (ω) − X(k (ω)+j)/n (ω) 0 0 ≤ X(k0 (ω)+j+1)/n (ω) − Xt0 (ω) (ω) + X(k0 (ω)+j)/n (ω) − Xt0 (ω) (ω) 8m ≤ n • Sei • Mit der Schreibweise ∆n (k) = X(k+1)/n − Xk/n Anm ⊂ gilt also n ∩ 2 ∪ { 8m } |∆n (k + j)| ≤ n j=0 k=0 (40) und für 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN 74 und somit P (Anm ) ≤ P n ∩ 2 (∪ { |∆n (k + j)| ≤ k=0 j=0 8m }) n 2 n (∩ ∑ { 8m }) P |∆n (k + j)| ≤ ≤ n j=0 k=0 ( 8m )3 = (n + 1)P |∆n (0)| ≤ n ( 16 m )3 ≤ (n + 1) √ −→ 0 für n → ∞ . 2πn • Weil Anm ⊂ An+1,m Korollar 2.6 für jedes 1 Mit Wahrscheinlichkeit ( P sup n ≥ 1, ergibt sich hieraus die Gültigkeit von (40). gilt n ∑ sup n≥1 0≤t0 <...<tn ≤1 i=1 d.h., fast alle Trajektorien des WienerProzesses ) |Xti − Xti−1 | = ∞ = 1 , {Xt , t ∈ [0, 1]} (41) sind Funktionen mit unbeschränk- ter Variation. Beweis Weil jede stetige Funktion g : [0, 1] → R mit beschränkter Variation fast überall dieren- zierbar ist, ergibt sich die Behauptung unmittelbar aus Theorem 2.24. Beachte • Ein direkter Beweis von Korollar 2.6 kann wie folgt geführt werden: Es genügt zu zeigen, dass mit Wahrscheinlichkeit 1 2 ∑ Xit/2n − X(i−1)t/2n = ∞ n lim n→∞ • ∀ t ∈ (0, 1] . (42) i=1 Um (42) zu beweisen, setzen wir 2 ∑ ( n Zn = Xit/2n − X(i−1)t/2n )2 − t. i=1 E Zn = 0, E (Zn2 ) = t2 2−n+1 . • Dann gilt • Aus der TschebyschewUngleichung (vgl. Abschnitt WR-4.4.3) ergibt sich, dass für jedes ε>0 und somit ∑∞ n=1 und auÿerdem kann man leicht zeigen, dass P (|Zn | ≥ ε) ≤ ε−2 E (Zn2 ) = (t/ε)2 2−n+1 P (|Zn | ≥ ε) < ∞. 2 PROZESSE MIT STÜCKWEISE KONSTANTEN BZW. STETIGEN TRAJEKTORIEN • Aus dem Lemma von BorelCantelli (vgl. Korollar WR-2.3) ergibt sich nun, dass 0 • mit Wahrscheinlichkeit 75 limn→∞ Zn = 1. Hieraus folgt, dass mit Wahrscheinlichkeit 1 2 ∑ Xit/2n − X(i−1)t/2n . 0 < t ≤ lim inf max n Xkt/2n − X(k−1)t/2n n n→∞ 1≤k≤2 • i=1 Damit ist die Gültigkeit von (42) bewiesen, weil der WienerProzess jektorien hat und weil deshalb lim max n Xkt/2n − X(k−1)t/2n = 0 . n→∞ 1≤k≤2 {Xt } stetige Tra- 3 LÉVYPROZESSE UND MARTINGALE 76 3 LévyProzesse und Martingale 3.1 LévyProzesse In Abschnitt 2.2.2 hatten wir zusammengesetzte PoissonProzesse betrachtet und gezeigt, dass sie unabhängige und stationäre Zuwächse besitzen (vgl. Theorem 2.10). Der WienerProzess besitzt ebenfalls diese beiden Eigenschaften, was sich unmittelbar aus seiner Denition ergibt (vgl. Abschnitt 2.4). Wir betrachten nun eine allgemeine Klasse von stochastischen Prozessen mit unabhängigen und stationären Zuwächsen, die sowohl zusammengesetzte PoissonProzesse als auch den WienerProzess als Spezialfälle umfasst. Denition Ein stochastischer Prozess {Xt , t ≥ 0} über einem (im allgemeinen (Ω, F, P ) heiÿt LévyProzess, wenn nicht näher spezizierten) Wahrscheinlichkeitsraum • X0 = 0, • {Xt } unabhängige und stationäre Zuwächse hat, • {Xt } stochastisch stetig ist, d.h., für beliebige ε > 0 und t0 ≥ 0 gilt limt→t0 P (|Xt −Xt0 | > ε) = 0. Beachte • Man kann sich leicht überlegen, dass für zusammengesetzte PoissonProzesse die dritte Bedingung ebenfalls erfüllt ist. Denn es gilt dann für jedes ε>0 und für t → t0 P (|Xt − Xt0 | > ε) ≤ P (|Xt − Xt0 | > 0) ≤ 1 − e−λ|t−t0 | −→ 0 , wobei • λ>0 die Intensität der Sprungzeitpunkte bezeichnet. ε>0 Darüber hinaus gilt auch im Fall des WienerProzesses für jedes √ 2 π|t − t0 | P (|Xt −Xt0 | > ε) = ∫ ∞ ( exp − ε ) y2 dy = 2|t − t0 | √ 2 π ∫ und für ∞ √ ε/ e−y |t−t0 | 2 t → t0 /2 dy −→ 0 . 3.1.1 Unbegrenzte Teilbarkeit Wir zeigen zunächst, dass für jeden LévyProzess {Xt } und für jedes t≥0 die Zufallsvariable Xt unbegrenzt teilbar ist, und geben dann in Abschnitt 3.1.2 eine Darstellungsformel für die charakteristische Funktion von Xt an. Denition Sei X : Ω → R eine beliebige Zufallsvariable über einem Wahrscheinlichkeitsraum (Ω, F, P ). Man sagt, dass X bzw. die Verteilung PX von X unbegrenzt teilbar ist, wenn es für (n) (n) jedes n ≥ 1 unabhängige und identisch verteilte Zufallsvariablen Y1 , . . . , Yn : Ω → R gibt mit d (n) X = Y1 (n) + . . . + Yn . 3 LÉVYPROZESSE UND MARTINGALE Theorem 3.1 Sei {Xt , t ≥ 0} 77 ein LévyProzess. Dann ist die Zufallsvariable Xt für jedes t≥0 unbegrenzt teilbar. Beweis • Für beliebige t≥0 und n≥1 gilt oenbar, dass Xt = Xt/n + (X2t/n − Xt/n ) + . . . + (Xnt/n − X(n−1)t/n ) . • Weil {Xt } unabhängige und stationäre Zuwächse hat, sind die Summanden auf der rech- ten Seite der letzten Gleichheit unabhängige und identische verteilte Zufallsvariablen. Das folgende Lemma enthält ein einfaches (jedoch nützliches) Hilfsmittel zur Untersuchung von unbegrenzt teilbaren Zufallsvariablen. Lemma 3.1 wobei φn X : Ω → R ist genau dann unbegrenzt X für jedes n ≥ 1 darstellen lässt in der ( )n φX (s) = φn (s) ∀s ∈ R, Die Zufallsvariable charakteristische Funktion φX von teilbar, wenn sich die Form (1) die charakteristische Funktion einer Zufallsvariablen ist. Beweis • Die Notwendigkeit der Bedingung (1) ergibt sich unmittelbar aus der Denition der unbegrenzten Teilbarkeit und aus der Tatsache, dass die charakteristische Funktion der Summe von unabhängigen Zufallsvariablen gleich dem Produkt der charakteristischen Funktionen der Summanden ist (vgl. Theorem WR-5.18). • der charakteristischen Funktion (n) (n) Y1 , . . . , Yn φn . Es gelte nun umgekehrt (1), und seien unabhängige Zufallsvariablen mit ( )n Dann ergibt sich durch die erneute Anwendung von Theorem WR-5.18, dass φn (s) (n) (n) die charakteristische Funktion der Summe Y1 + . . . + Yn ist. (n) + ... + Wegen (1) stimmen also die charakteristischen Funktionen von X und Y1 (n) Yn überein. Aus dem Eindeutigkeitssatz für charakteristische Funktionen (vgl. Korollar WR-5.5) (n) (n) ergibt sich nun, dass auch die Verteilungen von X und Y1 +. . .+Yn übereinstimen. Wir benötigen noch einen Stetigkeitssatz für charakteristische Funktionen, der eine (teilweise) Verschärfung von Theorem WR-5.20 ist und den wir hier ohne Beweis angeben. 3 LÉVYPROZESSE UND MARTINGALE 78 Lemma 3.2 • Sei X1 , X2 , . . . : Ω → R eine beliebige Folge R → C ihre charakteristischen Funktionen. • Falls es eine Funktion φ(s) für jedes dann ist s∈R φ und es gilt von Zufallsvariablen, und seien φX1 , φX2 , . . . : φ : R → C gibt, so dass φ(s) stetig im Punkt s = 0 ist und limn→∞ φn (s) = gilt, die charakteristische Funktion einer Zufallsvariablen X, d Xn −→ X . Auÿerdem spielt der Begri des LévyMaÿes eine wichtige Rolle bei der Untersuchung von unbegrenzt teilbaren Verteilungen. Denition wenn Sei ν ein Maÿ ν({0}) = 0 und über dem Messraum (R, B(R)). Man sagt, dass ν ein LévyMaÿ ist, ∫ R min{y 2 , 1} ν(dy) < ∞ . (2) Beachte • Eine graphische Darstellung des Integranden in der Integierbarkeitsbedingung (2) von LévyMaÿen ist in Abb. 14 gegeben. • ein σ endliches Maÿ ist und dass ∀ε > 0, (3) Man kann sich leicht überlegen, dass jedes LévyMaÿ ν((−ε, ε)c ) < ∞ wobei ν (−ε, ε)c = R \ (−ε, ε). • Insbesondere ist jedes endliche Maÿ • Eine zu (2) äquivalente Bedingung ist ∫ R ν über (R, B(R)) ein LévyMaÿ, falls ν({0}) = 0. y2 ν(dy) < ∞ , 1 + y2 (4) denn es gilt y2 y2 2 ≤ min{y , 1} ≤ 2 1 + y2 1 + y2 ∀y ∈ R. Der folgende Ansatz zur Konstruktion charakteristischer Funktionen von unbegrenzt teilbaren Verteilungen wird in der Literatur die LévyChintschinFormel genannt. Theorem 3.2 a ∈ R und b ≥ 0 beliebige Konstanten, und sei ν ein beliebiges φ : R → C mit ∫ ( ) ( isy ) bs2 + φ(s) = exp ias − e − 1 − isy1I(−1,1) (y) ν(dy) ∀s ∈ R 2 R Seien LévyMaÿ. Dann ist durch die Funktion die charakteristische Funktion einer unbegrenzt teilbaren Zufallsvariablen gegeben. (5) 3 LÉVYPROZESSE UND MARTINGALE 79 1,4 1,2 1 0,8 0,6 0,4 0,2 0 -3 -2 -1 0 1 2 3 x Abbildung 14: Integrand in der Integierbarkeitsbedingung (2) von LévyMaÿen Beweis • Weil es für jedes s∈R eine Konstante c<∞ gibt, so dass |eisy − 1 − isy| ≤ cy 2 ∀ y ∈ (−1, 1) , folgt aus (2) und (3), dass die in (5) gegebene Funktion • Sei nun {cn } φn : R → C ∫ ( ( exp is a − Dann ist die Funktion φn (s) eine beliebige Zahlenfolge mit φ:R→C cn > cn+1 > 0 und wohldeniert ist. limn→∞ cn = 0. mit ∫ ) ) ( isy ) bs2 y ν(dy) − + e − 1 ν(dy) 2 [−cn ,cn ]c ∩(−1,1) [−cn ,cn ]c ∫ ( ( (∫ ) 2) ) ( isy ) bs = exp is a − y ν(dy) − exp e − 1 ν(dy) (7) 2 [−cn ,cn ]c ∩(−1,1) [−cn ,cn ]c = die charakteristische Funktion der Summe (n) (n) fallsvariablen Z1 und Z2 , (n) Z1 (n) + Z2 von zwei unabhängigen Zu- denn der erste Faktor in (7) ist die charakteristische Funktion der Normalverteilung mit Erwartungswert (6) a− ∫ [−cn ,cn ]c ∩(−1,1) y ν(dy) und Varianz b, während der zweite Faktor in (7) die charakteristische Funktion der zusammengec setzten PoissonVerteilung mit den Charakteristiken λ = ν([−cn , cn ] ) und PU = c c ν(· ∩ [−cn , cn ] )/ν([−cn , cn ] ) ist; vgl. die Teilaussage (b) von Theorem 2.10. 3 LÉVYPROZESSE UND MARTINGALE • 80 Auÿerdem gilt ∀s ∈ R, lim φn (s) = φ(s) n→∞ wobei man sich leicht überlegen kann, dass die in (5) gegebene Funktion stetig im Punkt s=0 φ : R → C ist. ψ : R → C im Exponent von (5) mit ∫ ( isy ) ψ(s) = e − 1 − isy1I(−1,1) (y) ν(dy) ∀s ∈ R Denn für die Funktion R gilt wegen (6), dass ∫ ∫ |ψ(s)| ≤ cs2 (−1,1) (−1,1)c Hieraus und aus (3) folgt nun mit Hilfe des Satzes von Lebesgue über die majorisierte Konvergenz, dass • isy e − 1 ν(dy). y 2 ν(dy) + lims→0 ψ(s) = 0. Aus Lemma 3.2 ergibt sich somit, dass die in (5) gegebene Funktion φ : R → C die charakteristische Funktion einer Zufallsvariablen ist. • Die unbegrenzte Teilbarkeit dieser Zufallsvariablen folgt schlieÿlich aus Lemma 3.1 und n ≥ 1 mit ν auch ν(·)/n ein LévyMaÿ ist ∫ ))n ( isy ) + e − 1 − isy1I(−1,1) (y) (ν/n)(dy) aus der Tatsache, dass für jedes ( ( a φ(s) = exp i s − n b n s2 2 und dass R ∀ s ∈ R. Beachte • Das Tripel (a, b, ν), das in der LévyChintschinFormel (5) auftritt, wird LévyCharakteristik der zugehörigen unbegrenzt teilbaren Verteilung genannt. • Die Abbildung η:R→C mit bs2 η(s) = ias − + 2 ∫ R ( isy ) e − 1 − isy1I(−1,1) (y) ν(dy) ∀s ∈ R (8) im Exponent von (5) heiÿt LévyExponent dieser unbegrenzt teilbaren Verteilung. 3.1.2 LévyChintschinDarstellung In diesem Abschnitt zeigen wir, dass für jeden LévyProzess ristische Funktion der unbegrenzt teilbaren Zufallsvariablen {Xt } und für jedes t ≥ 0 die charakteXt durch die LévyChintschinFormel (5) dargestellt werden kann. Dabei zeigen wir zunächst, dass die charakteristische Funktion von charakteristische Funktion von Hilfssatz. X1 Xt auf einfache Weise durch die ausgedrückt werden kann. Hierfür benötigen wir den folgenden 3 LÉVYPROZESSE UND MARTINGALE Lemma 3.3 Sei {Xt , t ≥ 0} 81 ein stochastisch stetiger Prozess, d.h. für beliebige gelte x>0 und t0 ≥0 lim P (|Xt − Xt0 | > x) = 0 . t→t0 Dann ist für jedes s∈R durch t → φXt (s) eine stetige Abbildung von [0, ∞) nach C gegeben. Beweis • s ∈ R ist die Abbildung y → eisy ε > 0 gibt es ein δ1 > 0, so dass Für jedes jedes oenbar stetig im Punkt |eisy − 1| < sup y∈(−δ1 ,δ1 ) • Weil {Xt } sup • |φXt (s) − φXt0 (s)| = ≤ = δ2 > 0 , P (|Xt − Xt0 | > δ1 ) < Hieraus ergibt sich, dass für beliebige s∈R und t≥0 mit so dass für jedes |t − t0 | < δ2 (−δ1 ,δ1 )c (−δ1 ,δ1 ) ≤ sup |e t0 ≥ 0 ε . 4 ∫ ( ) eisXt0 (ω) eis(Xt −Xt0 )(ω) − 1 P (dω) Ω ∫ isy e − 1 PXt −Xt (dy) 0 ∫R ∫ isy e − 1 PX −X (dy) + t t0 isy d.h., für ε . 2 stochastisch stetig ist, gibt es auÿerdem ein t≥0, |t−t0 |<δ2 y = 0, isy e − 1 PX −X (dy) t t0 − 1| + 2 P (|Xt − Xt0 | > δ1 ) y∈(−δ1 ,δ1 ) ≤ • Damit ist die Behauptung bewiesen. Theorem 3.3 Funktion ε. φXt Sei von Xt {Xt , t ≥ 0} ein LévyProzess. Dann ist für jedes φXt (s) = et η(s) η:R→C s ∈ R, t ≥ 0. wobei t≥0 die charakteristische gegeben durch ∀s ∈ R, eine stetige Funktion ist. Insbesondere gilt somit (9) φXt (s) = (φX1 (s))t für beliebige Beweis • {Xt } unabhängige und stationäre Zuwächse hat, gilt für beliebige s ∈ R und t, t′ ≥ 0 ( ) φXt+t′ (s) = E eisXt+t′ = E eisXt eis(Xt+t′ −Xt ) = E eisXt E eisXt′ = φXt (s)φXt′ (s) . Weil 3 LÉVYPROZESSE UND MARTINGALE • Für jedes s∈R 82 gilt also für die Funktion gs : [0, ∞) → C gs (t + t′ ) = gs (t)gs (t′ ) • Weil X0 = 0, gilt auÿerdem für jedes mit gs (t) = φXt (s), dass ∀ t, t′ ≥ 0 . (10) s∈R gs (0) = 1 , und in Lemma 3.3 hatten wir gezeigt, dass die Funktion (11) gs : [0, ∞) → C für jedes s∈R stetig ist. • gs : Man kann sich leicht überlegen, dass es für jede Familie von stetigen Funktionen [0, ∞) → C, die den Bedingungen (10) und (11) genügen, eine Funktion η:R→C gibt, so dass gs (t) = et η(s) • ∀ s ∈ R, t ≥ 0 . (12) t = 1 zu setzen, um zu erkennen, dass φX1 (s) = eη(s) somit η : R → C eine stetige Funktion ist. Es genügt nun, und dass Wir zeigen nun, dass für jeden LévyProzess {Xt } für jedes die charakteristische Funktion von X1 s∈R gilt durch die LévyChintschinFormel (5) dargestellt werden kann. Hierfür benötigen wir den folgenden Hilfssatz zur Charakterisierung der relativen Kompaktheit von Familien (gleichmäÿig beschränkter) endlicher Maÿe. Lemma 3.4 Sei µ1 , µ2 , . . . eine Folge von endlichen supn≥1 µn (R) < c für ein c < ∞ deniert sind. Falls Menge Bε ∈ B(R) gibt, so dass Maÿen, die über der Borelσ Algebra und falls es für jedes ε>0 B(R) eine kompakte sup µn (Bεc ) ≤ ε , (13) n≥1 dann gibt es eine Teilfolge und beschränkte Funktion µn1 , µn2 , . . . und ein endliches Maÿ µ über B(R), f :R→C ∫ ∫ lim f (y) µnk (dy) = f (y) µ(dy) . k→∞ R so dass für jede stetige (14) R Der Beweis von Lemma 3.4 geht über den Rahmen dieser Vorlesung hinaus und wird deshalb weggelassen; er kann beispielsweise im Buch von A.V. Skorokhod (2005), S. 122123 nachgelesen werden. Theorem 3.4 LévyMaÿ ν, Sei {Xt , t ≥ 0} ein LévyProzess. Dann gibt es Konstanten a ∈ R, b ≥ 0 und ein so dass ∫ ( ) ( isy ) bs2 φX1 (s) = exp ias − + e − 1 − isy1I(−1,1) (y) ν(dy) 2 R ∀s ∈ R. (15) 3 LÉVYPROZESSE UND MARTINGALE 83 Beweis • Aus Theorem 3.3 ergibt sich, dass für jede Nullfolge positiver Zahlen φXtn (s) − 1 etn η(s) − 1 = lim . n→∞ tn tn η(s) = lim n→∞ • t 1 , t2 , . . . (16) η : R → C eine stetige Funktion ist, ergibt sich durch TaylorReihenentwicklung et η(s) nach t, dass für jedes s0 < ∞ die Konvergenz in (16) gleichmäÿig in s ∈ [−s0 , s0 ] erfolgt. Weil der Funktion • tn = 1/n Wir setzen nun ∫ lim n n→∞ R mit Pn . Mit dieser ( isy ) e − 1 Pn (dy) = η(s) (17) s ∈ [−s0 , s0 ]. gleichmäÿig in X1/n und bezeichnen die Verteilung von Schreibweise gilt Wenn auf beiden Seiten dieser Gleichung über s ∈ [−s0 , s0 ] integriert wird, dann ergibt sich aus dem Satz von Lebesgue über die majorisierte Konvergenz (und nach Vertauschung der Integrationsreihenfolge auf der linken Seite), dass für jedes s0 < ∞ ∫ ( lim n n→∞ • Weil η:R→C R eine stetige Funktion ist mit so dass • 1 2s0 Weil auÿerdem sin(s0 y) ) 1 Pn (dy) = − s0 y 2s0 1− dass es für jedes ε>0 ein s0 > 0 bzw. dass es für jedes ε>0 ∫ ein auch für jedes • s0 > 0 weiter n ∈ {1, . . . , n0 } gilt. η(s) ds . (18) −s0 gibt es für jedes ε>0 ein s0 > 0, η(s) ds < ε . für |s0 y| ≥ 2, ergibt sich somit aus (18), gibt, so dass ∫ {y: |y|≥2/s0 } s0 > 0 {y: |y|≥2/s0 } Wir verkleinern nun η(0) = 0, s0 −s0 n • s0 1 − sin(s0 y)/(s0 y) ≥ 1/2 n lim sup 2 n→∞ ∫ ∫ und ein Pn (dy) ≤ ε , n0 > 0 Pn (dy) ≤ 4 ε gibt, so dass ∀ n ≥ n0 . (19) (falls erforderlich), so dass die Ungleichung in (19) Insgesamt haben wir somit gezeigt, dass es für jedes ε>0 ein s0 > 0 gibt, so dass ∫ sup n n≥1 {y: |y|≥2/s0 } Pn (dy) ≤ 4 ε . (20) 3 LÉVYPROZESSE UND MARTINGALE • Weil es ein c<∞ 84 gibt, so dass ( y2 sin y ) ≤c 1− 2 1+y y ergibt sich aus (18), dass es eine Konstante ∫ • Für jedes n≥1 R sei das (endliche) Maÿ ∫ B Wegen (21) sind die Maÿe gibt, so dass µn : B(R) → [0, ∞) y2 Pn (dy) 1 + y2 µn (B) = n c′ < ∞ y2 Pn (dy) ≤ c′ . 1 + y2 sup n n≥1 ∀ y ̸= 0 , {µn , n ≥ 1} gegeben durch ∀ B ∈ B(R) . gleichmäÿig beschränkt, und wegen y2 ≤1 1 + y2 ergibt sich aus (20), dass die Folge (21) ∀y ∈ R {µn , n ≥ 1} relativ kompakt ist, d.h. der Bedin- gung (13) genügt. Aus Lemma 3.4 folgt also, dass es eine Teilfolge µ über B(R) ∫ k→∞ Weil für jedes und ein endliches Maÿ ∫ lim • µn1 , µn2 , . . . gibt, so dass für jede stetige und beschränkte Funktion s∈R R die Funktion f (y) µnk (dy) = fs : R → C f :R→C f (y) µ(dy) . (22) R mit ( ) 1 + y2 eisy − 1 − is sin y y2 fs (y) = 2 s − 2 für y ̸= 0, für y=0 stetig und beschränkt ist, ergibt sich aus (17) und (22), dass ∫ ∫ (∫ ) ) η(s) = lim n e − 1 Pn (dy) = lim fs (y) µn (dy) + isn sin yPn (dy) n→∞ n→∞ R R R ∫ (∫ ) = lim fs (y) µnk (dy) + isnk sin yPnk (dy) k→∞ R ∫ ∫ R = fs (y) µ(dy) + is lim nk sin yPnk (dy) , ( isy k→∞ R R wobei sich die Existenz und Endlichkeit des letzten Grenzwertes aus der Tatsache ergibt, das alle übrigen Grenzwerte in dieser Gleichungskette existieren und endlich sind. • Hieraus folgt, dass bs2 η(s) = ia s − + 2 ′ ∫ ( R ) eisy − 1 − is sin y ν(dy) ∀s ∈ R, (23) 3 LÉVYPROZESSE UND MARTINGALE wobei a′ = lim nk ∫ k→∞ und das LévyMaÿ • 85 R sin yPnk (dy) , ν : B(R) → [0, ∞] gegeben ist durch 2 1 + y µ(dy) für y = ̸ 0, 2 y ν(dy) = 0 für y = 0. ∫ Auÿerdem gilt R weil es eine Konstante |y1I(−1,1) (y) − sin y| ν(dy) < ∞ , c′′ < ∞ gibt, so dass |y1I(−1,1) (y) − sin y| • b = µ({0}) 1 + y2 < c′′ y2 ∀ y ̸= 0 . Aus (23) ergibt sich somit, dass η(s) = ias − a = a′ + wobei Korollar 3.1 ∫ ( R bs2 + 2 ∫ R ( ) eisy − 1 − isy1I(−1,1) (y) ν(dy) ∀s ∈ R, ) y1I(−1,1) (y) − sin y ν(dy). {Xt , t ≥ 0} ein LévyProzess. Dann sind sämtliche endlichdimensionalen {Xt } eindeutig durch die LévyCharakteristik (a, b, ν) von X1 bestimmt. Sei Verteilungen von Beweis • Aus den Theoremen 3.3 und 3.4 ergibt sich zusammen mit dem Eindeutigkeitssatz für charakteristische Funktionen (vgl. Korollar WR-5.5), dass die Verteilung von t≥0 • eindeutig durch die LévyCharakteristik (a, b, ν) von X1 Xt für jedes bestimmt ist. {Xt } unabhängige und stationäre Zuwächse hat, sind damit auch sämtliche endlich {Xt } eindeutig durch die LévyCharakteristik von X1 bestimmt. Weil dimensionalen Verteilungen von 3.1.3 Beispiele: WienerProzess, zusammengesetzte PoissonProzesse, stabile Lévy Prozesse Bereits am Anfang von Abschnitt 3.1 hatten wir gezeigt, dass sowohl der WienerProzess als auch beliebige zusammengesetzte PoissonProzesse den drei Bedingungen in der Denition von Lévy Prozessen genügen. Wir bestimmen nun die LévyCharakteristik Prozessen. (a, b, ν) für diese und weitere Beispiele von Lévy 3 LÉVYPROZESSE UND MARTINGALE 1. WienerProzess (mit Drift) • Sei • Dann gilt also • {Xt , t ≥ 0} • ein (Standard) WienerProzess, d.h., insbesondere, dass φX1 (s) = e−s 2 X1 ∼ N(0, 1). ∀s ∈ R. /2 Hieraus und aus der LévyChintschinFormel (5) ergibt sich nun, dass die LévyCharakteristik (a, b, ν) Beachte: Für beliebige {Xt } des WienerProzesse Yt = c Xt + µ t 2. 86 µ∈R und gegeben ist durch c ̸= 0 a = 0, b = 1 und ν = 0. wird der stochastische Prozess {Yt , t ≥ 0} mit ein WienerProzess mit Drift genannt. {Yt } ebenfalls ein LévyProzess ist und (a, b, ν) gegeben ist durch a = µ, b = c2 und ν = 0. Man kann sich leicht überlegen, dass und dass seine Charakteristik zusammengesetzte PoissonProzesse • Sei {Xt , t ≥ 0} ein zusammengesetzter PoissonProzess mit den Charakteristiken (λ, PU ), λ > 0 die Intensität der Sprungzeitpunkte und PU die Verteilung der Sprunghöhen wobei bezeichnet. • Dann gilt ( ∫ ( ) ) φX1 (s) = exp λ eisy − 1 PU (dy) R ∀s ∈ R, vgl. die Teilaussage (b) von Theorem 2.10. • Hieraus und aus (5) ergibt sich, dass die LévyCharakteristik ∫ ist durch −1 y PU (dy) , b = 0, {Xt } Beachte: Für das in (24) betrachtete LévyMaÿ ν ν = λ PU . ist Sprüngen je Zeiteinheit mit Sprunghöhen in der Menge 3. von gegeben 1 a=λ • (a, b, ν) (24) ν(B) die erwartete B ∈ B(R). Anzahl von LévyProzesse vom GauÿPoissonTyp • • • (1) {Xt , t ≥ 0} ein zusammengesetzter PoissonProzess (mit den (2) (λ, PU )), und sei {Xt , t ≥ 0} ein WienerProzess mit Drift (mit den (µ, c)). Sei Auÿerdem seien die stochastischen Prozesse (1) {Xt } und (2) {Xt } Charakteristiken Charakteristiken unabhängig. Dann kann man sich leicht überlegen, dass der überlagerte Prozess {Xt , t ≥ 0} mit (1) (2) + Xt ein LévyProzess ist, dessen Charakteristik (a, b, ν) gegeben ist durch Xt = Xt ∫ 1 a=µ+λ −1 4. y PU (dy) , b = c2 , ν = λ PU . stabile LévyProzesse • Eine wichtige Eigenschaft der Normalverteilung ist ihre Faltungsstabilität (vgl. Korollar WR-3.2), die sich wie folgt charakterisieren lässt: 3 LÉVYPROZESSE UND MARTINGALE Sei X ∼ N(µ, σ 2 ) Zufallsvariablen mit 87 µ ∈ R und σ 2 > 0, und X1 , . . . , Xn Xk ∼ N(µ, σ 2 ) für jedes k = 1, . . . , n. mit Dann gilt d X1 + . . . + Xn = • ( √ √ ) nX + µ n − n ∀n ≥ 1. (25) Die Faltungsgleichung (25) lässt sich auf die folgende Weise verallgemeinern. Die unbegrenzt teilbare Zufallsvariable es für jedes so dass n≥1 d Xk = X X für jedes k = 1, . . . , n und d wobei PX heiÿt stabil, falls X1 , . . . , Xn gibt, bzw. ihre Verteilung eine Folge von unabhängigen Zufallsvariablen ∀n ≥ 1, X1 + . . . + Xn = n1/α X + dn • seien unabhängige α ∈ (0, 2] und dn ∈ R für jedes n ≥ 1 gewisse α ∈ (0, 2] der Stabilitätsindex von X . (26) Konstanten sind. Dabei heiÿt Man kann zeigen, dass für jedes α ∈ (0, 2] eine Lösung der (verallgemeinerten) Faltungs- gleichung (26) existiert, vgl. Samorodnitsky und Taqqu (1994) bzw. K.-I. Sato (1999). Dabei gilt für ein • µ∈R µ(n − n1/α ) , dn = µ n log n , Neben dem klassischen Fall α = 2, falls α ̸= 1, falls α = 1. der zur Normalverteilung führt, gibt es weitere wohl- bekannte Beispiele stabiler Verteilungen, für die man zeigen kann, dass sie der Gleichung (26) genügen. Und zwar α = 1: die CauchyVerteilung f : R → [0, ∞) gegeben ist durch für f (x) = • • mit den Parametern σ 1 π (x − µ)2 + σ 2 µ ∈ R, σ 2 > 0, deren Dichte ∀x ∈ R, α = 1/2: die LévyVerteilung mit den Parametern µ ∈ R, σ 2 > 0, deren f : R → [0, ∞) gegeben ist durch ( ) ) ( 1/2 1 σ σ , falls x > µ, exp − 3/2 2π 2(x − µ) (x − µ) f (x) = 0, sonst. für Dichte Es ist klar, dass die Faltungsgleichung (26) genau dann gilt, wenn ( Wenn d X = −X dann gilt φX (s) )n ∀ s ∈ R, n ≥ 1 . = eidn s φX (n1/α s) (wie beispielsweise bei der CauchyVerteilung mit dn = 0 für jedes (27) µ = 0), n ≥ 1, und aus (27) folgt, dass es eine Konstante φX (s) = e−c|s| c>0 α gibt, so dass ∀s ∈ R. (28) 3 LÉVYPROZESSE UND MARTINGALE • X die Charakteristik (a, b, ν) in der LévyChintschinDarstellung (5) von φX gegeben ist durch eine (beliebige) reelle Zahl a ∈ R, c2 , falls α = 2, b= 0 , falls α < 2, Auÿerdem kann man zeigen, dass für jede stabile Zufallsvariable 0, ν(dy) = c2 c1 1I(0,∞) (y) dy + 1+α 1I(−∞,0) (y) dy , y 1+α |y| und wobei • 88 c ̸= 0 und c1 , c2 ≥ 0 gewisse Konstanten sind mit falls α = 2, falls α < 2, (29) c1 + c2 > 0. Die Tails von stabilen Zufallsvariablen können entweder exponentiell beschränkt sein (für α = 2) oder polynomial abklingen (für Wenn X ∼ N(µ, σ ), 2 d.h., X α < 2): hat eine stabile Verteilung mit Stabilitätsindex α = 2, dann gilt P (|X| > x) = 0, e−x2 /(2σ2 ) lim x→∞ d.h., X hat sogenannte leichte (exponentiell beschränkte) Tails. X dagegen eine stabile Zufallsvariable mit Stabilitätsindex α < 2 Wenn ist, dann kann man zeigen, dass P (|X| > x) = cα x−α lim x→∞ für ein • cα < ∞, d.h., X Beachte: Der LévyProzess hat schwere (polynomial abklingende) Tails. {Xt , t ≥ 0} heiÿt stabiler LévyProzess, falls X1 eine stabile Verteilung hat. 3.1.4 Subordinatoren Eine weitere Klasse von LévyProzessen, die insbesondere die zusammengesetzten PoissonProzesse mit positiven Sprunghöhen als Spezialfall umfassen, sind die sogenannten Subordinatoren. Denition Ein LévyProzess {Xt , t ≥ 0} heiÿt Subordinator, wenn mit Wahrscheinlichkeit Xt1 ≤ Xt2 wobei sich aus (30) wegen X0 = 0 ∀ t1 , t2 ≥ 0 sofort ergibt, dass mit Xt ≥ 0 t1 ≤ t2 , für jedes 1 (30) t ≥ 0. Bevor wir einige konkrete Beispiele von Subordinatoren näher diskutieren, zeigen wir zunächst, wie sich die LévyChintschinDarstellung (15) von ist. φX1 spezizieren lässt, wenn {Xt } ein Subordinator 3 LÉVYPROZESSE UND MARTINGALE Theorem 3.5 89 {Xt , t ≥ 0} ist genau dann ein Subordinator, wenn sich der darstellen lässt in der Form Der LévyProzess η(s) LévyExponent von X1 ∫ ∞( η(s) = ias + ) eisy − 1 ν(dy) ∀s ∈ R, (31) 0 wobei a≥0 und für das LévyMaÿ ν zusätzlich gilt, dass ∫ ν((−∞, 0)) = 0 ∞ und min{y, 1} ν(dy) < ∞ . (32) 0 Beweis Wir zeigen zuerst die Hinlänglichkeit der Bedingungen (31) und (32). • Falls • ν = 0, dann gilt X1 = a ≥ 0, und aus Theorem 3.3 ergibt sich, φXt (s) = eiats und somit Xt = at d.h., {Xt } ist ein Subordinator. dass für jedes t≥0 gilt, ν(1/n, ∞) > 0 für jedes hinreichend groÿe n ≥ n0 . Aus (31) und (32) ergibt sich s∈R (∫ ∞ ( ) (∫ ∞ ( ) ) ) ias isy ias φX1 (s) = e exp e − 1 ν(dy) = e lim exp eisy − 1 ν(dy) . Sei nun dann, dass für jedes n→∞ 0 • Für jedes n ≥ n0 φn : R → C mit (∫ ∞ ( ) ) φn (s) = exp eisy − 1 ν(dy) 1/n ist dabei ∀s ∈ R 1/n die charakteristische Funktion einer nichtnegativen Zufallsvariablen Zn , die eine zusammengesetzte PoissonVerteilung mit den Charakteristiken und zwar mit der PoissonIntensität und mit der Sprunghöhen-Verteilung (λ, PU ) hat λ = ν(1/n, ∞), wobei 0 < λ < ∞, PU (·) = ν(· ∩ (1/n, ∞))/ν(1/n, ∞), vgl. Ab- schnitt 2.2.2. • Es gilt also d X1 = a + lim Zn , (33) n→∞ wobei a≥0 und {Zn } eine Folge von nichtnegativen Zufallsvariablen ist. Aus (33) folgt insbesondere, dass P (X1 ≥ 0) = 1 . Auÿerdem gilt für jedes (34) n≥1 ( ) ( ) d X1 = X1/n + X2/n − X1/n + . . . + Xn/n − X(n−1)/n , wobei die Zufallsvariablen identisch verteilt sind. X1/n , X2/n −X1/n , . . . , Xn/n −X(n−1)/n unabhängig und 3 LÉVYPROZESSE UND MARTINGALE 90 Hieraus und aus (34) folgt, dass mit Wahrscheinlichkeit Xk/n − X(k−1)/n ≥ 0 1 ∀ n ≥ 1, k = 1, . . . , n . Aus der Stationarität der Zuwächse des LévyProzesses Xk/n − X(k−1)/n ≥ 0 {Xt } ergibt sich nun, dass ∀ k, n ≥ 1 bzw. Xq2 − Xq1 ≥ 0 • ∀ q 1 , q2 ∈ Q 0 ≤ q1 ≤ q2 . (35) ε>0 ) ) ( ( < −ε) = P Xt2 − Xq(2) + Xq(2) − Xq(1) + Xq(1) − Xt1 < −ε n n n n ( ) ≤ P Xt2 − Xq(2) + Xq(1) − Xt1 < −ε −→n→∞ 0 , Dann ergibt sich aus (35), dass für jedes P (Xt2 − Xt1 n n wobei sich der letzte Grenzwert aus der Tatsache ergibt, dass wegen der stochastischen Stetigkeit von {Xt } P Xt2 − Xq(2) −→ 0 n • mit (1) (2) Für t1 , t2 ≥ 0 mit t1 < t2 seien {qn } und {qn } zwei Folgen rationaler Zahlen, so dass (1) (2) (1) (2) qn < qn für jedes n ≥ 1 und qn ↓ t1 bzw. qn ↑ t2 . Damit ist gezeigt, dass P (Xt2 − Xt1 ≥ 0) = 1, und P Xq(1) − Xt1 −→ 0 . n P (Xt2 − Xt1 < 0) = limε↓0 P (Xt2 − Xt1 < −ε) = 0 {Xt } ist ein Subordinator. bzw. d.h., Die Notwendigkeit der Bedingungen (31) und (32) kann man sich wie folgt überlegen. • Der LévyProzess {Xt , t ≥ 0} X1 ≥ 0. Dann ergibt sich unmittelbar aus dem Beweis von Theorem 3.4, dass die Lévy Charakteristik sei ein Subordinator, d.h. insbesondere, dass (a, b, ν) von X1 so gewählt werden kann, dass ν((−∞, 0)) = 0. φX1 von X1 , Gemäÿ Theorem 3.4 gilt somit für die charakteristische Funktion für jedes s∈R dass ∫ ∞ ( ) ( isy ) bs2 exp ias − + e − 1 − isy1I(0,1) (y) ν(dy) 2 0 ( (∫ ∞ ( ) ) bs2 ) = exp ias − exp eisy − 1 − isy1I(0,1) (y) ν(dy) . 2 0 φX1 (s) = Hieraus ergibt sich mit Hilfe von Theorem 3.2 und dem Eindeutigkeitssatz für chad rakteristische Funktionen (vgl. Korollar WR-5.5), dass X1 = Y1 + Y2 , wobei Y1 , Y2 zwei unabhängige und unbegrenzt teilbare Zufallsvariablen sind mit sind. Weil andererseits X1 ≥ 0 gilt, ist dies nur möglich, wenn b = 0. Y1 ∼ N(a, b) 3 LÉVYPROZESSE UND MARTINGALE • 91 Wir haben somit gezeigt, dass für beliebige φX1 (s) = eias (∫ exp ∞ = = ∫ ( ( exp is a − und ε ∈ (0, 1) ) ( isy ) e − 1 − isy1I(0,1) (y) ν(dy) 0 ∫ ( ( exp is a − s∈R 1 y ν(dy) ε 1 y ν(dy) (∫ exp )) )) ε ( e isy ) (∫ − 1 − isy ν(dy) exp ∞ ) 0 ( ) ) eisy − 1 ν(dy) ε φ1 (s) φ2 (s) , ε wobei (∫ ε φ1 (s) = exp ( ) ) eisy − 1 − isy ν(dy) , (∫ 0 • Dabei sind φ1 und ∞ φ2 (s) = exp ( ) ) eisy − 1 ν(dy) . ε φ2 die charakteristischen Funktionen von gewissen (unabhängigen) Z2 bezeichnen, wobei ∫ 1 d y ν(dy) + Z1 + Z2 . X1 = a − Zufallsvariablen, die wir mit Z1 bzw. (36) ε zweimal an der Stelle s = 0 dif(1) Z1 , wobei E Z1 = φ1 (0)/i; vgl. beispielsweise S. 183 im Buch von Grimmett und Stirzaker (2001). Weil die charakteristische Funktion φ1 (s) von Z1 ferenzierbar ist, existiert der Erwartungswert von Auÿerdem kann man sich leicht überlegen, dass P (Z1 ≤ 0) > 0. auch P (Z2 ≤ 0) > 0, (1) φ1 (0) = 0 und somit E Z1 = 0, d.h. insbesondere Andererseits gilt weil Z2 für jedes ε ∈ (0, 1) eine zusammenge- setzte PoissonVerteilung hat. Wegen der (angenommenen) Unabhängigkeit der Zufallsvariablen Z1 und Z2 folgt hieraus, dass P (Z1 + Z2 ≤ 0) ≥ P (Z1 ≤ 0) P (Z2 ≤ 0) > 0 . • X1 ≥ 0 Wegen (36) und (37) kann also ∫ nur dann mit Wahrscheinlichkeit (37) 1 gelten, wenn 1 a− y ν(dy) ≥ 0 ∀ ε ∈ (0, 1) . ε • Hieraus folgt, dass a≥0 und ∫∞ 0 min{y, 1} ν(dy) < ∞. Beachte • Das Paar • Es ist klar, dass die in (32) betrachtete (verschärfte) Integrierbarkeitseigenschaft des (a, ν) LévyMaÿes ν in (31) wird LévyCharakteristik des Subordinators {Xt } genannt. äquivalent ist mit der Bedingung, dass ∫ ∞ 0 y ν(dy) < ∞ . 1+y (38) 3 LÉVYPROZESSE UND MARTINGALE • 92 Auÿerdem kann man sich leicht überlegen, dass für jedes 0} t ≥ 0 die Abbildung s → E eisXt analytisch in die Teilmenge {iu : u ≥ der komplexen Ebene fortgesetzt werden kann und dass sich dabei die folgende Formel für die LaplaceTransformierte ergibt: Für beliebige t, u ≥ 0 gilt E e−uXt = e−t ξ(u) , ∫ von ∞( ) 1 − e−uy ν(dy) . ξ(u) = au + wobei E e−uXt Xt (39) 0 • Die Funktion ξ : [0, ∞) → [0, ∞) in (39) wird LaplaceExponent des Subordinators {Xt } genannt. Auÿer den zusammengesetzten PoissonProzessen mit positiven Sprunghöhen, die wir bereits am Anfang dieses Abschnittes erwähnt haben und deren LévyMaÿ ν endlich ist, gibt es noch weitere Klassen von Subordinatoren (mit unendlichem LévyMaÿ). Beispiel (αstabile Subordinatoren) • Sei {Xt , t ≥ 0} ein Subordinator mit ν(dy) = wobei α ∈ (0, 1) und a = 0, dessen LévyMaÿ α 1 dy Γ(1 − α) y 1+α 0 ν für y > 0, für y ≤ 0, gegeben ist durch (40) Γ : (0, ∞) → (0, ∞) die Gammafunktion bezeichnet ∫ ∞ Γ(p) = e−y y p−1 dy , ∀p > 0. mit 0 • • Beachte: Das in (40) gegebene LévyMaÿ ν hat die Form (29). Auÿerdem kann man in diesem Fall leicht zeigen, dass (28) gilt bzw. (äquivalent hierzu) dass E e−uXt = e−tu α ∀ t, u ≥ 0 . Denn für beliebige Dies ergibt sich aus den folgenden Überlegungen: Es gilt ∫ ∞ u≥0 α ∈ (0, 1) gilt die Identität ∫ ∞ α dy uα = (1 − e−uy ) 1+α . Γ(1 − α) 0 y und (1 − e−uy ) y −1−α dy ∫ = ∞ (∫ y ) ue−uz dz y −1−α dy ∫0 ∞ (∫0 ∞ 0 = = = ) y −1−α dy ue−uz dz 0 ∫ ∞z ∫ ∞ u uα −uz −α e z dz = e−x x−α dx α 0 α 0 uα Γ(1 − α) . α (41) 3 LÉVYPROZESSE UND MARTINGALE 93 Aus (39) und (40) ergibt sich nun, dass die LaplaceTransformierte E e−uXt von Xt durch (41) gegeben ist. Xt hat also für jedes t ≥ 0 eine stabile Verteilung mit dem α ∈ (0, 1), d.h., der Subordinator {Xt } mit dem in (40) gegebenen LévyMaÿ ν ist ein αstabiler LévyProzess. Die Zufallsvariable Stabilitätsindex (unendlichen) 3.2 Martingale In diesem Abschnitt diskutieren wir einige grundlegende Begrie und Ergebnisse der Martingaltheorie, die wir dann in Abschnitt 3.3 bei der weiteren Untersuchung von LévyProzessen anwenden werden. 3.2.1 Bedingte Erwartung und bedingte Wahrscheinlichkeit Als Hilfsmittel benötigen wir die Begrie der bedingten Erwartung bzw. der bedingten Wahrscheinlichkeit bezüglich einer beliebigen Teilσ Algebra liegenden Wahrscheinlichkeitsraumes • (Ω, F, P ). G⊂F der Ereignisσ Algebra F des zugrunde- Zur Illustration betrachten wir zunächst den folgenden (elementaren) Spezialfall. σ Algebra G = σ(A1 , . . . , An ) sei eine endliche Familie ∪n von Teilmengen von Ω, die A1 , . . . , An ∈ F generiert wird, wobei i=1 Ai = Ω und Ai ∩ Aj = ∅ für beliebige i, j ∈ {1, . . . , n} mit i ̸= j gelte. Auÿerdem sei X : Ω → R eine beliebige Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P ) mit E |X| < ∞. Die durch die Mengen • Dann ist bedingte Erwartung Ω → R, E (X | G) von X bezüglich G eine Zufallsvariable E (X | G) : deren (Funktions) Werte gegeben sind durch E (X | G)(ω) = n ∑ E (X | Ai ) 1I(Ai )(ω) ∀ ω ∈ Ω, (1) i=1 E (X | Ai ) gegeben ist durch E (X1I(Ai )) , falls P (Ai ) > 0, P (Ai ) E (X | Ai ) = 0, sonst. wobei der bedingte Erwartungswert (2) Beachte • P (Ai ) > 0, dann ist die in (2) gegebene Zahl E (X|Ai ) der bedingte ErwartungsX unter der Bedingung Ai , d.h., der Erwartungswert bezüglich der bedingten Verteilung {PX|Ai (B), B ∈ B(R)}, wobei Falls wert von PX|Ai (B) = P ({Xi ∈ B} ∩ Ai ) P (Ai ) ∀ B ∈ B(R) . 3 LÉVYPROZESSE UND MARTINGALE • 94 Von besonderer Wichtigkeit ist der Fall, dass die (diskreten) Zufallsvariablen Y σ Algebra G durch die Urbilder einer erzeugt wird, die nur endlich viele verschiedene Werte mit positiver Wahrscheinlichkeit annimmt: Sei Y : Ω → {0, 1, . . . , n} eine Zufallsvariable, die nur die Werte 0, 1, . . . , n mit positiver Wahrscheinlichkeit annimmt, beispielsweise eine binomialverteilte Zufallsvariable, und G die σ Algebra σ(Y ) = Y −1 (B(R)), d.h., die kleinste (endliche) Teilσ Algebra −1 von F , die die Urbilder Y (0), Y −1 (1), . . . , Y −1 (n) enthält, dann wird die bedingte Erwartung E (X | G) auch mit dem Symbol E (X | Y ) bezeichnet (und bedingte Erwartung von X bezüglich Y genannt). • sei ω ∈ Ω, so dass Y (ω) = i. Dann ist der Funktionswert E (X|Y )(ω) der Zufallsvariablen E (X|Y ) gegeben durch den bedingten Erwartungswert Sei E (X | Y )(ω) = E (X | Y = i) , wobei • E (X | Y = i) eine Kurzschreibweise ist für E (X | {Y = i}). Die bisher erläuterte Vorgehensweise bei der Denition der bedingten Erwartung bezüglich einer (Teil) wenn G σ Algebra G ⊂ F aus abzählbar unendlich vielen Teilmengen von d.h., wenn G E (X|G) kann auch dann beibehalten werden, Ω besteht, beispielsweise durch die Urbilder einer Poissonverteilten Zufallsvaria- blen erzeugt wird, wobei dann lediglich die endliche Summe in (1) durch eine unendliche Summe ersetzt werden muss. • Die folgenden Eigenschaften der bedingten Erwartung E (X|Y ) ergeben sich unmittelbar aus der Denitionsgleichungen (1) und (2): E (X|Y ) : Ω → R ist (G, B(R))messbar. A ∈ G gilt ∫ ∫ E (X|Y )(ω)P (dω) = X(ω)P (dω) . Die Zufallsvariable Für beliebige A Insbesondere gilt (3) A E (E (X|Y )) = E X . Die folgende (allgemeine) Denition der bedingten Erwartung beruht auf dem Satz von Radon Nikodym der Maÿ und Integrationstheorie. Sie enthält die oben betrachteten Denitionsgleichungen (1) und (2) als Spezialfall. • Sei X : Ω → R eine beliebige Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P ) mit E |X| < ∞, • und sei G⊂F eine beliebige Teilσ Algebra von F. 3 LÉVYPROZESSE UND MARTINGALE • 95 Dann können wir das (endliche) signierte Maÿ ∫ Q(A) = Q:G→R betrachten, wobei ∀A∈G. X(ω)P (dω) (4) A • • Für jedes A∈G gilt somit die Implikation: falls Mit anderen Worten: Das in (4) denierte signierte Maÿ Einschränkung von • Q(A) = 0, P auf die Teilσ Algebra P (A) = 0. Q G. Aus dem Satz von RadonNikodym folgt nun, dass es eine Z:Ω→R (G, B(R))messbare Abbildung gibt, so dass ∫ ∫ Z(ω)P (dω) = A Jede X(ω)P (dω) ∀A ∈ G , (5) A wobei die Funktionswerte der Abbildung Dention ist absolutstetig bezüglich der Z mit Wahrscheinlichkeit 1 eindeutig bestimmt sind. (G, B(R))messbare Abbildung Z : Ω → R, für die (5) gilt, heiÿt X bezüglich G und wird mit E (X | G) bezeichnet. eine Version der bedingten Erwartung von Aus der Denitionsgleichung (5) und aus den allgemeinen Rechenregeln für das LebesgueIntegral ergeben sich die folgenden Eigenschaften der bedingten Erwartung, die wir hier lediglich (ohne Beweis) erwähnen. Theorem 3.6 Seien X, Y : Ω → R beliebige Zufallsvariablen über E |X| < ∞ , und sei G⊂F E |Y | < ∞ , eine beliebige Teilσ Algebra von F. (Ω, F, P ) mit E |XY | < ∞ , Dann gilt 1. E (X | {∅, Ω}) = E X, E (X | F) = X , 2. E (aX + bY | G) = a E (X | G) + b E (Y | G) 3. E (X | G) ≤ E (Y | G), 4. E (XY | G) = Y E (X | G), falls Y eine (G, B(R))messbare Zufallsvariable ist, ( ) E E (X | G2 ) | G1 = E (X | G1 ), falls G1 und G2 Teilσ Algebren von F sind mit G1 ⊂ G2 , 5. 6. 7. falls für beliebige a, b ∈ R, X ≤Y, E (X | G) = E X , falls die σ Algebren G und σ(X) = X −1 (B(R)) unabhängig sind, d.h., falls P (A ∩ A′ ) = P (A)P (A′ ) für beliebige A ∈ G und A′ ∈ σ(X). ( ) ( ) E f (X) | G ≥ f E (X | G) , falls f : R → R eine konvexe Funktion ist, so dass E |f (X)| < ∞. 3 LÉVYPROZESSE UND MARTINGALE Beachte 96 Auÿerdem sind die folgenden Eigenschaften bzw. Schreib und Sprechweisen von Inter- esse. • Unmittelbar aus der Denitionsgleichung (5) ergibt sich, dass ( ) E E (X | G) = E X , wenn A = Ω gesetzt wird, E (a | G) = a für beliebige a ∈ R und G ⊂ F , E (Y | G) = Y für jede (G, B(R))messbare Zufallsvariable Y . • Seien X, Y : Ω → R und sei beliebige Zufallsvariablen über G = Y −1 (B(R)) (Ω, F, P ) die Teilσ Algebra von F, mit E |X| < ∞, die durch die Urbilder von Y erzeugt wird. Dann heiÿt E (X | G) die bedingte Erwartung E (X | Y ) benutzt wird. von X bezüglich Y, wobei auch die Schreibweise • g : R → R gibt, so dass sich die bedingte ErwarE (X | Y ) = g(Y ) darstellen lässt, dann spricht man von Wenn es eine Borelmessbare Funktion tung E (X | Y ) in der Form regulärer bedingter Erwartung. Beispiele 1. Absolutstetige Zufallsvektoren • (X, Y ) : Ω → R2 ein beliebiger absolutstetiger Zufallsvektor mit der gemeinsa2 men Dichte fX,Y : R → [0, ∞] und der Randdichte fY : R → [0, ∞] von Y , wobei ∫ fY (y) = R fX,Y (x, y) dx. ∫ • Die Funktion g : R → [0, ∞) mit g(y) = R |x|fX,Y (x, y) dx sei beschränkt. • Dann ist eine Version der bedingten Erwartung E (X | Y ) gegeben durch ∫ R x fX,Y (x, Y (ω)) dx , falls fY (Y (ω)) > 0, fY (Y (ω)) E (X | Y )(ω) = (6) 0, falls fY (Y (ω)) = 0. Sei 2. Funktionale unabhängiger Zufallsvariablen • Seien X, Y : Ω → R 2 unabhängige Zufallsvariablen, und sei g : R → R eine Borel ′ ′ messbare Abbildung, so dass die Funktion g : R → [0, ∞) mit g (y) = E |g(X, y)| • Dann ist eine Version der bedingten Erwartung beschränkt ist. E (g(X, Y ) | Y ) gegeben durch E (g(X, Y ) | Y ) = g ′′ (Y ) , wobei die Abbildung g ′′ : R → R gegeben ist durch (7) g ′′ (y) = E g(X, y). 3. Funktionale unabhängiger stochastischer Prozesse • Seien {Xt , t ≥ 0} und {Yt , t ≥ 0} unabhängige stochastische Prozesse, d.h., {Xt } und {Yt } seien unabhängige Familien von (F, B(R))messbaren Abbildungen, und G=σ von (∪ F. t≥0 Yt−1 (B(R)) ) sei die durch den Prozess {Yt } erzeugte Teilσ Algebra 3 LÉVYPROZESSE UND MARTINGALE 97 : (R∞ )2 → R eine Borelmessbare Abbildung, so dass die Funktion g ′ : R → [0, ∞) mit g ′ (y) = E |g({Xt }, y)| beschränkt ist. • Für X = g({Xt }, {Yt }) gilt dann E |X| < ∞, und die bedingte Erwartung E (X | G) wird mit dem Symbol E (X | {Yt }) bezeichnet. • Auÿerdem ist eine Version der bedingten Erwartung E (X | {Yt }) gegeben durch Sei g ∞ E (X | {Yt }) = g ′′ ({Yt }) , wobei die Abbildung g ′′ : R∞ → R gegeben ist durch (8) g ′′ (y) = E g({Xt }, y). Schlieÿlich erwähnen wir noch kurz den Begri bedingter Wahrscheinlichkeiten bezüglich σ Algebren. Denition • Sei A∈F • Dann ist die bedingte Wahrscheinlichkeit ein beliebiges Ereignis, und sei G⊂F eine beliebige Teilσ Algebra von P (A | G) von A bezüglich G F. gegeben durch P (A | G) = E (1I(A) | G) , σ Algebren d.h., die Denition bedingter Wahrscheinlichkeiten bezüglich wird auf den in (5) denierten Begri der bedingten Erwartung zurückgeführt. 3.2.2 Filtrationen und Stoppzeiten Denition • Sei (Ω, F, P ) Eine Familie für beliebige • ein vollständiger Wahrscheinlichkeitsraum. {Ft , t ≥ 0} von Teilσ Algebren von F s, t ≥ 0 mit s ≤ t gilt. Die Filtration t ≥ 0) {Ft , t ≥ 0} heiÿt Filtration, wenn heiÿt vollständig, wenn F0 (und damit auch sämtliche Nullmengen enthält. Die Filtration {Ft , t ≥ 0} heiÿt rechtsstetig, wenn {Xt , t ≥ 0} ein stochastischer kleinste σ Algebra, für die Sei Prozess über Ft = (Ω, F, P ), Fs ⊂ Ft ⊂ F ∩ u>t Fu Ft für jedes und für jedes t≥0 für jedes t ≥ 0. FtX die {FtX , t ≥ 0} die sei {ω ∈ Ω : (Xt1 (ω), . . . , Xtn (ω)) ∈ B} ∈ FtX n ≥ 1, B ∈ B(Rn ) und t1 , . . . , tn ∈ [0, t] Filtration, die von {Xt } erzeugt wird. für beliebige natürliche • Sei gilt. Dann heiÿt {Ft , t ≥ 0} eine beliebige Filtration, und sei T : Ω → [0, ∞] eine beliebige Zufalls(Ω, F, P ). Man sagt, dass T eine Stoppzeit (bezüglich der Filtration {Ft }) variable über ist, wenn {ω ∈ Ω : T (ω) ≤ t} ∈ Ft Beachte ∀ t ∈ [0, ∞) . Wir werden stets (o.B.d.A.) voraussetzen, dass die jeweils betrachtete Filtration vollständig ist. (9) {Ft } 3 LÉVYPROZESSE UND MARTINGALE 98 Lemma 3.5 Sei {Ft , t ≥ 0} eine rechtsstetige Filtration. Die Zufallsvariable genau dann eine Stoppzeit, wenn {T < t} ∈ Ft ∀ t ∈ [0, ∞) . Beweis Für jedes • Aus (10) und aus der Rechtsstetigkeit der Filtration gilt oenbar, dass {T ≤ t} ∈ {T ≤ t} = ∩ u∈(t,t+ε) {T Fu = Ft ist (10) ∩ • ε>0 T : Ω → [0, ∞] {Ft } < u}. ergibt sich somit, dass ∀ t ∈ [0, ∞) . u>t • Sei nun T eine Stoppzeit. Dann gilt {T < t} = ∪ ε∈(0,t) Denition ∪ {T ≤ t − ε} ∈ Ft−ε ⊂ Ft ∀ t ∈ [0, ∞) . ε∈(0,t) {Xt , t ≥ 0} ein stochastischer Prozess über dem Wahrscheinlichkeitsraum (Ω, F, P ) {Ft , t ≥ 0}. Man sagt, dass der Prozess {Xt } adaptiert (bezüglich der Fil{Ft }) ist, wenn Sei mit der Filtration tration {Xt ∈ B} ∈ Ft TB : Ersterreichungszeit der BorelMenge Auÿerdem heiÿt die Abbildung ∀ t ≥ 0, B ∈ B(R) . (11) Ω → [0, ∞] mit TB (ω) = inf{t ≥ 0 : Xt (ω) ∈ B} B ∈ B(R) durch den Prozess {Xt }. Für càdlàg Prozesse, deren Trajektorien mit Wahrscheinlichkeit 1 die rechtsstetige Funktionen mit linksseitigen Grenzwerten sind (vgl. Abschnitt 1.4), diskutieren wir nun einige Beispiele von Stoppzeiten. Theorem 3.7 Sei {Ft , t ≥ 0} eine rechtsstetige Filtration und sei {Xt , t ≥ càdlàg Prozess. Für jede oene Menge B ∈ B(R) ist dann die Ersterreichungszeit Wenn B ∈ B(R) eine abgeschlossene Menge ist, dann ist die Abbildung TeB (ω) = inf{t ≥ 0 : Xt (ω) ∈ B eine Stoppzeit, wobei oder 0} ein adaptierter TB eine Stoppzeit. TeB : Ω → [0, ∞] mit Xt− (ω) ∈ B} Xt− = lims↑t Xs . Beweis • Sei B ∈ B(R) zunächst eine oene Menge. Wegen Lemma 3.5 genügt es zu zeigen, dass {TB < t} ∈ Ft für jedes t ∈ [0, ∞) gilt. 3 LÉVYPROZESSE UND MARTINGALE 99 Andererseits gilt ∪ {TB < t} = {Xs ∈ B} , s∈Q∩[0,t) B weil Sei nun s ≤ t. B ∈ B(R) Bε für Bε = {x ∈ R : d(x, B) < ε} die sogenannte d(x, B) = min{|x − y| : y ∈ B} der kleinste x ∈ R zu einem Punkt von B ist. ε > 0 bezeichnen wir εParallelmenge der Menge B , Für jedes Dann ist {Xs ∈ B} ∈ Fs ⊂ Ft eine abgeschlossene Menge. mit wobei euklidische Abstand des Punktes rechtsstetige Trajektorien hat. Hieraus ergibt sich der erste Teil der Behauptung, weil jedes • {Xt } eine oene Menge ist und eine oene Menge, und man kann sich leicht überlegen, dass {TeB ≤ t} = {Xt ∈ B} ∪ {Xt− ∈ B} ∪ ∩ ∪ {Xs ∈ B1/n } . n≥1 s∈Q∩[0,t) Weil {Xt } adaptiert ist, gehören sämtliche Ereignisse auf der rechten Seite der letzten Ft . Gleichheit zu Theorem 3.8 ′ max{T, T }, T + ′ Seien T, T : Ω → ′ T bzw. αT für jedes [0, ∞] beliebige Stoppzeiten. α > 1 Stoppzeiten. Dann sind auch min{T, T ′ }, Beweis • Weil T und T′ Stoppzeiten sind, gilt {T ≤ t} ∈ Ft bzw. {T ′ ≤ t} ∈ Ft und somit {min{T, T ′ } ≤ t} = {T ≤ t} ∪ {T ′ ≤ t} ∈ Ft , d.h., • min{T, T ′ } ist eine Stoppzeit. Völlig analog ergibt sich, dass {T ′ ≤ t} ∈ Ft folgt, dass max{T, T ′ } ein Stoppzeit ist, denn aus {T ≤ t} ∈ Ft und {max{T, T ′ } ≤ t} = {T ≤ t} ∩ {T ′ ≤ t} ∈ Ft . • Um zu zeigen, dass auch t} ∈ Ft für jedes T + T′ eine Stoppzeit ist, genügt es zu zeigen, dass t ≥ 0. {T + T ′ > Dies ergibt sich aus der Identität {T + T ′ > t} = {T > t} ∪ {T ′ > t} ∪ {T ≥ t, T ′ > 0} ∪ {0 < T < t, T + T ′ > t} . Denn es ist klar, dass die ersten drei Ereignisse auf der rechten Seite der letzten Gleichheit zu Ft gehören, und für das vierte Ereignis gilt {0 < T < t, T + T ′ > t} = ∪ s∈Q∩[0,t) {s < T < t, T ′ > t − s} ∈ Ft . 3 LÉVYPROZESSE UND MARTINGALE • Auÿerdem gilt für jedes α > 1, dass 100 {αT ≤ t} = {T ≤ t/α} ∈ Ft/α ⊂ Ft . Manchmal ist es nützlich, beliebige (nichtnotwendig diskrete) Stoppzeiten durch monotone Folgen von Stoppzeiten zu approximieren, die jeweils nur abzählbar unendlich viele Werte mit positiver Wahrscheinlichkeit annehmen können. Aus dem Beweis des folgenden Theorems ergibt sich, wie eine solche monotone Folge von diskreten Stoppzeiten konstruiert werden kann. Theorem 3.9 raum T : Ω → (0, ∞] eine beliebige endliche Stoppzeit über dem WahrscheinlichkeitsP (T < ∞) = 1. Dann gibt es eine Folge {T (n) , n ≥ 1} von diskreten dass mit Wahrscheinlichkeit 1 Sei (Ω, F, P ), Stoppzeiten, so d.h., es gelte T (1) ≥ T (2) ≥ . . . und lim T (n) = T . (12) n→∞ Beweis • Für jedes n≥1 sei die Zufallsvariable T (n) • Für 0, = k+1 , 2n k/2n ≤ t < (k + 1)/2n falls falls T (n) : Ω → [0, ∞) T = 0, k k+1 <T ≤ n 2 2n gegeben durch (13) für ein k = 0, 1, . . .. gilt dann { k} { k} {T (n) ≤ t} = T (n) ≤ n = T ≤ n ∈ Fk/2n ⊂ Ft . 2 2 • Hieraus folgt, dass Korollar 3.2 Sei T (n) eine Stoppzeit ist, wobei T (1) ≥ T (2) ≥ . . . und limn→∞ T (n) = T . T : Ω → [0, ∞] für jedes {Xt , t Dann gilt eine beliebige endliche Stoppzeit. Der Prozess (Ω, F, P ) wie T gegeben. Abbildung XT : Ω → R mit càdlàg und über dem gleichen Wahrscheinlichkeitsraum XT (ω) (ω) ∈ B} ∈ F (14) B ∈ B(R), d.h., die ≥ 0} sei {ω ∈ Ω : XT (ω) = XT (ω) (ω) ist (15) (F, B(R))messbar. Beweis • Weil {X(t)} • Es genügt nun zu beachten, dass càdlàg ist, ergibt sich aus (12) und (14), dass denn für jedes B ∈ B(R) XT (n) : Ω → R eine XT = limn→∞ XT (n) . (F, B(R))messbare Abbildung ist, gilt {XT (n) ∈ B} = ∞ ( ∪ { } { k }) ∈F. Xk/2n ∈ B ∩ T (n) = n 2 k=0 3 LÉVYPROZESSE UND MARTINGALE 101 3.2.3 Submartingale und Supermartingale; Beispiele Denition Sei {Xt , t ≥ 0} ein stochastischer Prozess über dem Wahrscheinlichkeitsraum (Ω, F, P ) {Ft , t ≥ 0}. mit der Filtration • • Der Prozess {Xt } sei adaptiert, und es gelte {Xt } ein Martingal ist, E (Xt | Fs ) die bedingte E |Xt | < ∞ t ≥ 0. E (Xt | Fs ) = Xs für beliebige s, t ≥ 0 mit Xt bezüglich der σ Algebra Fs Man sagt, dass wenn s ≤ t, Erwartung von wobei für jedes bezeichnet; vgl. Abschnitt 3.2.1. • {Xt } ein Submartingal bzw. Supermartingal E (Xt | Fs ) ≤ Xs für beliebige s, t ≥ 0 mit s ≤ t. Auÿerdem sagt man, dass Fs ) ≥ Xs bzw. ist, wenn E (Xt | Beispiele 1. PoissonProzess • • {Xt , t ≥ 0} λ > 0. {Yt , t ≥ 0} mit Yt = Xt − tλ ein Martingal bezüglich der (natürlichen) Filtration {FtX , t ≥ 0} ist. Aus der Unabhängigkeit und Stationarität der Zuwächse von {Xt } und aus den Sei ein (homogener) PoissonProzess mit der Intensität Dann kann man sich leicht überlegen, dass der stochastische Prozess Teilaussagen 4 und 6 von Theorem 3.6 ergibt sich nämlich, dass E (Xt | FsX ) für beliebige • = E (Xs + (Xt − Xs ) | FsX ) = E (Xs | FsX ) + E (Xt − Xs | FsX ) = Xs + E (Xt − Xs ) = Xs + (t − s)λ s, t ≥ 0 mit s ≤ t, d.h., E (Xt − tλ | FsX ) = Xs − sλ ∀s ≤ t. Auÿerdem kann man zeigen, dass der stochastische Prozess (Xt − tλ)2 − tλ ein Martingal ist. Sei {Yt′ , t ≥ 0} et = Xt − tλ. X Dann ergibt sich aus der Unabhängigkeit der Zuwächse von et } {X mit Yt′ = und aus den Eigenschaften der bedingten Erwartung (vgl. Theorem 3.6), dass für beliebige s, t ≥ 0 mit s≤t E (Yt′ | FsX ) et2 − tλ | FsX ) E (X (( ) ) e s + (X et − X es ) 2 − tλ | FsX = E X ) ( 2 e + 2X e s (X et − X es ) + (X et − X es )2 − tλ | F X = E X s s ( ) ( ) et − X e s + E (X es2 − sλ + 2X es E X et − X es )2 − (t − s)λ = X es2 − sλ = Ys′ , = X = wobei in der vorletzten Gleichheit die Tatsache genutzt wurde, dass es ) = (t − s)λ. X et − Var (X 3 LÉVYPROZESSE UND MARTINGALE 2. 102 zusammengesetzte PoissonProzesse • {Xt , t ≥ 0} ein zusammengesetzter PoissonProzess mit den Charakteristiken (λ, PU ), wobei λ > 0 die Intensität der Sprungzeitpunkte und PU die Verteilung der Sei Sprunghöhen bezeichnet. • stochastische Prozess • E |U | < ∞ erfüllt ist, Yt = Xt − tλE U ein Martingal. Wenn die zusätzliche Integrierbarkeitsbedingung {Yt , t ≥ 0} mit dann ist der Denn genauso wie in dem oben diskutierten Fall des (nicht zusammengesetzten) PoissonProzesses ergibt sich, dass E (Xt − tλE U | FsX ) = Xs − sλE U 3. ∀s ≤ t. WienerProzess • • Sei {Xt , t ≥ 0} ein WienerProzess. Dann kann man auf die gleiche Weise wie bei den beiden vorhergehenden Beispielen zeigen, dass {Xt } ein Martingal bezüglich der X natürlichen Filtration {Ft , t ≥ 0} dieses Prozesses ist. ′ Auÿerdem kann man zeigen, dass auch die stochstischen Prozesse {Yt , t ≥ 0} und {Yet , t ≥ 0} Martingale sind, wobei Yt′ = Xt2 − t und • u∈R 2 Yet = euXt −u t/2 bzw. eine beliebige (jedoch xierte) Zahl ist. s, t ≥ 0 mit s ≤ t ) E (Yt′ | FsX ) = . . . = Xs2 −s+2Xs E (Xt −Xs )+E (Xt −Xs )2 −(t−s) = Xs2 −s = Ys′ , ( ) 2 weil E (Xt − Xs ) = 0 und E (Xt − Xs ) = t − s, d.h., {Yt′ } ist ein Martingal. • Auf ähnliche Weise ergibt sich, dass für beliebige s, t ≥ 0 mit s ≤ t Denn genauso wie im PoissonFall ergibt sich, dass für beliebige ( E (euXt −u 2 woaus folgt, dass 4. {Yet } t/2 | FsX ) = E eu(Xt −Xs ) euXs −u 2 ein Martingale ist, weil t/2 E eu(Xt −Xs ) = eu , 2 (t−s)/2 . LévyProzesse • Genauso wie bei den ersten drei Beispielen lässt sich für jeden LévyProzess 0} mit E |X1 | < ∞ {Xt , t ≥ ein Martingal konstruieren. Denn für beliebige s, t ≥ 0 mit s≤t gilt E (Xt | FsX ) = Xs + (t − s) E X1 , • d.h., {Yt , t ≥ 0} {FtX , t ≥ 0}. mit Yt = Xt − t E X1 Im allgemeinen, d.h., wenn ist ein Martingal bezüglich der Filtration E |X1 | < ∞ nicht vorausgesetzt wird, {Yet , t ≥ 0} gegeben durch ist für jedes u∈R ein (komplexwertiges) Martingal Yet = eiuXt −tη(u) , wobei η : R → C schnitt 3.1. der LévyExponent von {Xt } ist; vgl. die Formel (8) in Ab- 3 LÉVYPROZESSE UND MARTINGALE 103 t ≥ 0 gilt E |Yet | = e−tη(u) < ∞. Auÿerdem gilt für beliebige u ∈ R und s, t ≥ 0 mit s ≤ t ( ) E (Yet | FsX ) = E eiuXt −tη(u) | FsX ) ( = E eiuXs −sη(u) eiu(Xt −Xs )−(t−s)η(u) | FsX ( ) = eiuXs −sη(u) E eiu(Xt −Xs )−(t−s)η(u) | FsX Denn für beliebige u∈R und = eiuXs −sη(u) E eiu(Xt −Xs )−(t−s)η(u) = eiuXs −sη(u) E eiuXt−s −(t−s)η(u) = eiuXs −sη(u) = Yes , wobei sich die dritte Gleichheit aus Teilaussage 4 in Theorem 3.6 ergibt, während die vorletzte Gleichheit aus Theorem 3.3 folgt. 5. MarkowProzesse • Wir zeigen nun, wie Martingale für Funktionen von MarkowProzessen (mit endlich vielen Zuständen) konstruiert werden können. {Xt , t ≥ 0} ein MarkowProzess mit Werten in der Menge E = {1, 2, . . . , ℓ}, und sei Q die in Abschnitt 2.3.2 eingeführte Intensitätsmatrix von {Xt }. • Für jeden Vektor b = (b1 , . . . , bℓ )⊤ ∈ Rℓ ist dann der stochastische Prozess {Yt , t ≥ 0} mit ∫ t Yt = bXt − bX0 − (Qb)Xv dv ∀t ≥ 0 (16) Sei also 0 ein Martingal, wobei das Integral in (16) pfadweise gebildet wird. {Xt } ein homogener s, t ≥ 0 mit s ≤ t Weil MarkowProzess ist, gilt für beliebige ∫ ( E bXt − bXs − ( = E bXt−s i ∈ E und ) (Qb)Xv dv Xs = i s ∫ t−s ) − bX0 − (Qb)Xv dv X0 = i . t 0 {Yt } h≥0 Um zu zeigen, dass der in (16) gegebene Prozess es also zu zeigen, dass für beliebige i∈E ∫ und ein Martingal ist, genügt h E (bXh | X0 = i) − bi = E ((Qb)Xv | X0 = i) dv , (17) 0 denn man kann sich leicht überlegen, dass E ( ∫ ) h (Qb)Xv dv | X0 = i = 0 ∫ h E ((Qb)Xv | X0 = i) dv . 0 {P(h), h ≥ 0} P(h) = exp(hQ) gegeben ist. In Theorem 2.16 hatten wir gezeigt, dass die Übergangsfunktion des MarkowProzesse {Xt } für jedes h≥0 durch 3 LÉVYPROZESSE UND MARTINGALE Hieraus folgt, dass und wobei e⊤ i ten gleich ein 0 104 E (bXh | X0 = i) = e⊤ i exp(Qh)b (18) ( ) E (Qb)Xv | X0 = i = e⊤ i exp(Qv)Qb , (19) ℓ-dimensionaler (Zeilen) Vektor ist, für den sämtliche Komponenite Komponente, die gleich 1 ist. sind, bis auf die Aus (18) und (19) ergibt sich nun, dass (17) äquivalent ist mit e⊤ i ∫ h exp(Qh)b − bi = e⊤ i exp(Qv)Qb dv , (20) 0 wobei sich die Gültigkeit dieser Gleichung aus Lemma 2.3 ergibt, wenn auf beiden Seiten von (20) die Ableitung nach h gebildet wird. abgeschlossene Martingale 6. • Sei X :Ω→R eine beliebige Zufallsvariable mit E |X| < ∞, und sei {Ft , t ≥ 0} eine beliebige Filtration. • Dann kann man sich leicht überlegen, dass der stochastische Prozess Yt = E (X | Ft ) {Yt , t ≥ 0} mit (21) ein Martingal ist, denn aus Teilaussage 6 von Theorem 3.6 ergibt sich, dass für beliebige s, t ≥ 0 mit s≤t ( ) E E (X | Ft ) | Fs = E (X | Fs ) . • Manchmal sagt man, dass der in (21) gegebene stochastische Prozess ein abgeschlos- senes Martingal ist. Beachte • ′ Für die Martingale {Yt } und {Yt }, die in den Beispielen 1 4 betrachtet wurden, gilt ′ E Yt = E Yt = 0 für jedes t ≥ 0. Ein Martingal mit dieser Eigenschaft wird ein zentriertes Martingal genannt. • Für die Martingale • E Yet = 1 für jedes {Yet }, t ≥ 0. die in den Beispielen 3 und 4 betrachtet wurden, gilt dagegen Die Denitionsgleichung (16) des Martingals {Yt } in Beispiel 5 wird DynkinFormel für MarkowProzesse genannt. Aus den Monotonieeigenschaften der bedingten Erwartung (vgl. die Teilaussage 3 von Theorem 3.6) ergibt sich, dass jeder adaptierte Prozess E |Xt | < ∞ für jedes t≥0 {Xt , t ≥ 0} mit nichtfallenden Trajektorien und mit ein Submartingal ist. Insbesondere ist jeder integrierbare Subordinator ein Submartingal, d.h. jeder (nichtnegative) LévyProzess {Xt , t ≥ 0} mit nichtfallenden Trajektorien, so dass E |X1 | < ∞. 3 LÉVYPROZESSE UND MARTINGALE Theorem 3.10 so dass Der Prozess E |f (Xt )| < ∞ {Xt , t ≥ 0} sei adaptiert und f : R → R sei eine konvexe t ≥ 0. Dann ist {f (Xt ), t ≥ 0} ein Submartingal, wenn Funktion, für jedes • {Xt } ein Martingal oder • {Xt } ein Submartingal und Beweis 105 f :R→R eine nichtfallende konvexe Funktion ist. Aus der JensenUngleichung für bedingte Erwartungen (vgl. die Teilaussage 7 von Theo- s, t ≥ 0 mit s ≤ t ( ) ( ) E f (Xt ) | Fs ≥ f E (Xt | Fs ) ≥ f (Xs ) . rem 3.6) ergibt sich in beiden Fällen, dass für beliebige 3.2.4 Gleichgradige Integrierbarkeit Sei T {Xt , t ≥ 0} sei càdlàg mit E |Xt | < ∞ t ∈ R. In Korollar 3.2 hatten wir gezeigt, dass dann XT eine wohldenierte Zufallsvariable eine endliche Stoppzeit, und der stochastische Prozess für jedes ist. Zur Herleitung von Bedingungen, so dass auch E |XT | < ∞ gilt, benötigen wir den Begri der gleichgradigen Integrierbarkeit von Zufallsvariablen. X : Ω → R eine E [X; A] = E (X1I(A)). Hierfür benutzen wir die folgende Schreibweise: Sei E |X| < ∞. Denition wenn Für jedes A∈F beliebige Zufallsvariable mit X1 , X2 , . . . : Ω :→ R von Zufallsvariablen heiÿt n ≥ 1 und ( ) lim sup E [|Xn |; |Xn | > x] = 0 . Die Folge E |Xn | < ∞ setzen wir dann gleichgradig integrierbar, für jedes (22) x→∞ n≥1 Lemma 3.6 (i) Die Folge {Xn , n ≥ 1} supn≥1 E |Xn | < ∞ und ε>0 P (A) < δ . (ii) wenn es für jedes A∈F mit ist genau dann gleichgradig integrierbar, wenn ein δ>0 gibt, so dass E [|Xn |; A] < ε für jedes n≥1 und für jedes Beweis • Wir zeigen zuerst, dass (22) gilt, wenn die Bedingungen (i) und (ii) erfüllt sind. Oenbar gilt xP (|Xn | > x) ≤ E |Xn | für beliebige n ≥ 1 und x > 0. Hieraus δ > 0 und für jedes hinreichend groÿe x > 0 aus (i) folgt, dass für jedes sup P (|Xn | > x) ≤ n≥1 1 sup E |Xn | < δ . x n≥1 und 3 LÉVYPROZESSE UND MARTINGALE 106 ( ) lim supx→∞ supn≥1 E [|Xn |; |Xn | > x] ≤ ε für jedes ε > 0. die Gültigkeit von (22), weil ε > 0 beliebig klein gewählt werden Wegen (ii) gilt somit Hieraus ergibt sich kann. • Sei nun {Xn , n ≥ 1} gleichgradig integrierbar. x>0 { } sup E |Xn | ≤ sup E [|Xn |; |Xn | > x] + x < ∞ , Dann gilt für jedes hinreichend groÿe n≥1 n≥1 d.h., die Bedingung (i) ist erfüllt. Für jedes Für jedes ε>0 δ>0 x > 0 so gewählt, dass supn≥1 E [|Xn |; |Xn | > x] < ε/2 . δ < ε/(2x) und für jedes A ∈ F mit P (A) < δ gilt dann sei nun mit E [|Xn |; A] ≤ E [|Xn |; |Xn | > x] + xP (A) ≤ ε , d.h., die Bedingung (ii) ist ebenfalls erfüllt. Die Bedeutung der gleichgradigen Integrierbarkeit für die Konvergenz von Zufallsvariablen wird durch das folgende Lemma deutlich. Lemma 3.7 Sei X1 , X2 , . . . : Ω → R eine beliebige Folge von Zufallsvariablen mit E |Xn | < ∞ n ≥ 1 und limn→∞ Xn = X mit Wahrscheinlichkeit 1 für eine gewisse Zufallsvariable X : Ω → R. Dann sind die beiden folgenden Aussagen äquivalent: (a) {Xn , n ≥ 1} ist gleichgradig integrierbar. (b) Es gilt E |X| < ∞ und limn→∞ E |Xn − X| = 0. für jedes Beweis • Sei {Xn , n ≥ 1} supn≥1 E |Xn | < ∞ wegen Teilaussage (i) in Lemma 3.6 und weil limn→∞ Xn vorausgesetzt wird, ergibt sich aus dem Lemma von Fatou, dass E |X| < ∞. Weil X gleichgradig integrierbar. Andererseits kann man sich leicht überlegen (vgl. Korollar WR-5.1), dass aus der Konvergenz limn→∞ Xn = X mit Wahrscheinlichkeit 1 folgt, dass für jedes ε>0 lim P (|Xn − X| > ε) = 0 . (23) n→∞ = Auÿerdem gilt für jedes ε>0 E |Xn − X| ≤ E [|Xn − X|; |Xn − X| ≤ ε] + E [|Xn − X|; |Xn − X| > ε] ≤ ε + E [|Xn |; |Xn − X| > ε] + E [|X|; |Xn − X| > ε] . Wegen (23) ergibt sich dann aus der Teilaussage (ii) in Lemma 3.6 mit X| > ε}, 0 E |X| < ∞. dass der zweite Summand des letzten Ausdruckes gegen A = {|Xn − strebt. 0, weil Hieraus folgt, dass limn→∞ E |Xn − X| = 0, weil ε > 0 beliebig klein gewählt werden Der ditte Summand konvergiert ebenfalls gegen kann. 3 LÉVYPROZESSE UND MARTINGALE • 107 Wir nehmen nun umgekehrt an, dass (b) gilt. Dann gilt sup E |Xn | ≤ sup E |Xn − X| + E |X| < ∞ . n≥1 Für jedes ε>0 sei n0 ≥ 1 so gewählt, dass für beliebige E [|Xn − X|; A] ≤ E |Xn − X| ≤ Sei nun δ>0 so gewählt, dass P (A) < δ n ≥ n0 max E [|Xn − X|; A] + E [|X|; A] ≤ ε>0 ein A∈F die Gültigkeit der folgenden Ungleichung 0≤n≤n0 Hieraus folgt, dass es für jedes und ε . 2 impliziert: (24) n≥1 δ >0 ε . 2 gibt, so dass für jedes A∈F mit P (A) < δ sup E [|Xn |; A] ≤ sup E [|Xn − X|; A] + E [|X|; A] ≤ ε . n≥1 • n≥1 Wegen Lemma 3.6 ergibt sich hieraus und aus (24), dass {Xn , n ≥ 1} grierbar ist. gleichgradig inte- Korollar 3.3 n≥1 Sei X1 , X2 , . . . : Ω → R eine Folge von Zufallsvariablen, so dass E |Xn | < ∞ für jedes limn→∞ Xn = X mit Wahrscheinlichkeit 1. Wenn {Xn , n ≥ 1} gleichgradig integrierbar gilt E |X| < ∞ und limn→∞ E Xn = E X . und ist, dann Beweis Wegen |E Xn −E X| ≤ E |Xn −X| ergibt sich die Behauptung unmittelbar aus Lemma 3.7. 3.2.5 Ungleichung von Doob Ein wichtiges (beweistechnisches) Hilfsmittel ist die folgende Ungleichung von Doob für Submartingale. Dabei benutzen wir die Schreibweise Theorem 3.11 {Xt , t ≥ 0} sei x > 0 und t ≥ 0 Der Prozess ist, dann gilt für beliebige P Beweis x+ = max{x, 0} ( für jedes x ∈ R. adaptiert und càdlàg. Wenn ) E (Xt )+ sup Xv > x ≤ . x 0≤v≤t {Xt } ein Submartingal (25) 3 LÉVYPROZESSE UND MARTINGALE • 108 Wir können o.B.d.A. annehmen, dass x≥0 gilt P ( P (Xt ≥ 0) = 1 für jedes 0≤v≤t und aus Theorem 3.10 ergibt sich, dass der stochastische Prozess • Sei nun denn für jedes ) ( ) sup Xv > x = P sup max{Xv , 0} > x 0≤v≤t max{Xt , 0} t ≥ 0, et , t ≥ 0} {X mit et = X ebenfalls ein Submartingal ist. {Xt , t ≥ 0} ein nichtnegatives Submartingal, t1 , . . . , tn ∈ [0, t] mit t1 ≤ . . . ≤ tn . und sei A = {max1≤k≤n Xtk > x} für beliebige Man kann sich leicht überlegen, dass sich das Ereignis A = A1 ∪. . .∪An einigung A darstellen lässt als die Ver- einer Folge von paarweise disjunkten Mengen A1 , . . . , An , wobei A1 = {Xt1 > x} ∈ Ft1 , Weil {Xt , t ≥ 0} Ak = {Xt1 ≤ x, . . . , Xtk−1 ≤ x, Xtk > x} ∈ Ftk ∀ k ∈ {2, . . . , n} . ein nichtnegatives Submartingal ist, gilt E [Xtn ; Ak ] ≥ E [Xtk ; Ak ] ≥ x P (Ak ) . Hieraus folgt, dass E Xtn ≥ E [Xtn ; A] = n ∑ E [Xtn ; Ak ] ≥ k=1 • Sei nun B n ∑ eine beliebige endliche Teilmenge des Intervalls Dann gilt also x P (Ak ) = xP (A) . k=1 [0, t] so, dass 0 ∈ B und t ∈ B. ( ) xP max Xv > x ≤ E Xt . (26) v∈B Wegen der Monotonie von Wahrscheinlichkeitsmaÿen gilt auÿerdem für jede monoton B1 , B2 , . . . ⊂ [0, t] von endlichen Mengen, ( ) (∪{ }) ({ lim P max Xv > x = P max Xv > x = P wachsende Folge n→∞ v∈Bn n≥1 Hieraus und aus (26) folgt, dass für sup ∪ v∈ n≥1 Bn v∈Bn B= dass ∪ n≥1 }) Xv > x . Bn = ([0, t) ∩ Q) ∪ {t} ( ) xP sup Xv > x ≤ E Xt . v∈B • Weil {X(t)} rechtsstetige Trajektorien hat, ergibt sich hieraus die Gültigkeit von (25). Beachte • {Xt , t ≥ 0} ein (Standard) WienerProzess, und Yt = Xt − tµ ein WienerProzess mit negativer Drift. Sei für µ > 0 sei {Yt , t ≥ 0} 2 mit {eu(Yt +tµ)−u t/2 , t ≥ 0} X für jedes u ∈ R ein Martingal bezüglich der (natürlichen) Filtration {Ft , t ≥ 0} ist. In Beispiel 3 von Abschnitt 3.2.3 hatten wir gezeigt, dass 3 LÉVYPROZESSE UND MARTINGALE Für u = 2µ 109 ergibt also insbesondere, dass Weil die Ungleichung {e2µYt , t ≥ 0} ein Martingal ist. supv∈[0,t] Yv > x genau dann gilt, wenn supv∈[0,t] e2µYv > e2µx , ergibt sich aus Theorem 3.11, dass ) limt→∞ E e2µYt ( ) ( ) ( P sup Yt > x = lim P sup Yv > x = lim P sup e2µYv > e2µx ≤ . t→∞ t→∞ e2µx t≥0 v∈[0,t] v∈[0,t] Weil E e2µYt = 1 t ≥ 0, ergibt sich hieraus, dass ( ) P sup Yt > x ≤ e−2µx ∀x ≥ 0. für jedes (27) t≥0 • Um zu zeigen, dass in (27) sogar die Gleichheit gilt, benötigen wir ein optionales Sampling Theorem, für dessen Herleitung wir zunächst sogenannte gestoppte Martingale betrachten. 3.2.6 Gestoppte Martingale Lemma 3.8 • • {Xt , t ≥ 0} sei adaptiert und càdlàg. Auÿerdem sei T : Ω → [0, ∞) eine endliche (n) Stoppzeit und sei {T , n ≥ 1} die in (13) eingeführte Folge von diskreten Stoppzeiten mit (n) (n+1) (n) T ≥T und limn→∞ T = T. Der Prozess Wenn {Xt } ein Martingal ist, dann ist die t ≥ 0, wobei s ∧ t = min{s, t}. Folge XT (1) ∧t , XT (2) ∧t , . . . gleichgradig integrierbar für jedes Beweis • ∑ {k: k<2n t} E Xk/2n + E |Xt | < ∞ für beliebige n ≥ 1 und t ≥ 0, genügt es zu zeigen, dass die Bedingung (22) in der Denition der gleichgradigen Weil E |XT (n) ∧t | ≤ Integrierbarkeit erfüllt ist. Aus Theorem 3.10 folgt, dass {|Xt |, t ≥ 0} ein Submartingal ist. Somit gilt sup E [|XT (n) ∧t |; |XT (n) ∧t | > x] n≥1 = ( sup n≥1 ≤ ( sup n≥1 ∑ E [|Xk/2n |; {T (n) = {k: k<2n t} k } ∩ {|XT (n) ∧t | > x}] 2n +E [|Xt |; {T (n) ≥ t} ∩ {|XT (n) ∧t | > x}] ∑ E [|Xt |; {T (n) = {k: k<2n t} k } ∩ {|XT (n) ∧t | > x}] 2n +E [|Xt |; {T (n) ≥ t} ∩ {|XT (n) ∧t | > x}] = sup E [|Xt |; |XT (n) ∧t | > x] ≤ sup E [|Xt | ; Y > x] = E [|Xt |; Y > x] , n≥1 wobei Y = supn≥1 |XT (n) ∧t |. ) n≥1 ) 3 LÉVYPROZESSE UND MARTINGALE 110 Andererseits ergibt die Anwendung von Theorem 3.11 auf das Submartingal 0}, dass E |Xt | x P (Y > x) ≤ P ( sup |Xv | > x) ≤ 0≤v≤t • Hieraus folgt insbesondere, dass {|Xt |, t ≥ ∀ t, x > 0 . limx→∞ P (Y > x) = 0. Aus dem Satz von Lebesgue über die majorisierte Konvergenz ergibt sich nun insgesamt, dass lim sup E [|XT (n) ∧t |; |XT (n) ∧t | > x] ≤ lim E [|Xt |; Y > x] = 0 . x→∞ n≥1 Theorem 3.12 T : Ω → [0, ∞) x→∞ Der Prozess {Xt , t ≥ 0} sei adaptiert und càdlàg. Wenn {Xt } ein Martingal und eine endliche Stoppzeit ist, dann ist auch der stochastische Prozess {XT ∧t , t ≥ 0} ein Martingal. Beweis • • Ähnlich wie im Beweis von Korollar 3.2 kann man zeigen, dass Ft messbare Es muss also lediglich noch gezeigt werden, dass für beliebige E |XT ∧t | < ∞ • XT ∧t für jedes t≥0 eine Zufallsvariable ist. und t ≥ 0, v ∈ [0, t) und A ∈ Fv E [XT ∧t ; A] = E [XT ∧v ; A] . (28) (13) eingeführte Folge {T (n) , n ≥ 1} von diskreten jedes n ≥ 1 und für beliebige t ≥ 0, v ∈ [0, t) und Dabei betrachten wir zunächst die in Stoppzeiten und zeigen, dass für A ∈ Fv E |XT (n) ∧t | < ∞ und E [XT (n) ∧t ; A] = E [XT (n) ∧v ; A] . E |XT (n) ∧t | < ∞. (n) Stoppzeit T mit positiver (29) Genauso wie im Beweis von Lemma 3.8 ergibt sich, dass Seien nun t1 , . . . , tk ∈ (v, t) die Werte, die die v und t annehmen kann. Wahr- scheinlichkeit zwischen Dann ergibt sich aus den Teilaussagen 4 und 5 von Theorem 3.6, dass ( ) E (XT (n) ∧t | Fv ) = E E (XT (n) ∧t | Ftk ) | Fv = E (E (1I(T (n) ≤ tk )XT (n) ∧t | Ftk ) | Fv ) + E (E (1I(T (n) > tk )XT (n) ∧t | Ftk ) | Fv ) = E (1I(T (n) ≤ tk )E (XT (n) ∧tk | Ftk ) | Fv ) + E (1I(T (n) > tk )E (Xt | Ftk ) | Fv ) = E (1I(T (n) ≤ tk )XT (n) ∧tk | Fv ) + E (1I(T (n) > tk )Xtk | Fv ) = E (1I(T (n) ≤ tk )XT (n) ∧tk | Fv ) + E (1I(T (n) > tk )XT (n) ∧tk | Fv ) = E (XT (n) ∧tk | Fv ) . . . = E (XT (n) ∧t1 | Fv ) = E (XT (n) ∧v | Fv ) = XT (n) ∧v . 3 LÉVYPROZESSE UND MARTINGALE • • 111 Damit ist (29) bewiesen. Weil {Xt } is càdlàg ist, gilt limn→∞ XT (n) ∧t = XT ∧t Gemäÿ Lemma 3.8 sind die Folgen und {XT (n) ∧v , n ≥ 1} limn→∞ XT (n) ∧v = XT ∧v . und {XT (n) ∧t , n ≥ 1} auÿerdem gleichgradig integrierbar. • Wegen (29) ergibt sich somit die Gültigkeit von (28) mit Hilfe von Korollar 3.3. 3.2.7 Optionales SamplingTheorem Für jede endliche Stoppzeit T : Ω → [0, ∞) betrachten wir die σ Algebra FT , die gegeben ist durch FT = {A ∈ F : A ∩ {T ≤ t} ∈ Ft wobei die folgenden Eigenschaften der gestoppten Lemma 3.9 Für beliebige endliche Stoppzeiten für jedes σ Algebra FT S, T : Ω → [0, ∞) {Xt , t ≥ 0} t ≥ 0}, (30) nützlich sind. mit P (S ≤ T ) = 1 gilt FS ⊂ FT . Auÿerdem gilt für jeden adaptierten càdlàg Prozess d.h., XT ist eine ( {ω ∈ Ω : XT (ω) ∈ B} ∈ FT ) FT , B(R) messbare Zufallsvariable. ∀ B ∈ B(R) , (31) Beweis • Wir zeigen zunächst, dass Sei A ∈ FS , FS ⊂ FT , wenn P (S ≤ T ) = 1. t ≥ 0 gelte A ∩ {S ≤ t} ∈ Ft . A ∩ {T ≤ t} = A ∩ {S ≤ t} ∩ {T ≤ t} ∈ Ft d.h., für jedes Hieraus folgt, dass {T ≤ t} = {S ≤ t} ∩ {T ≤ t} • Wir zeigen nun, dass Für jedes und {XT ∈ B} ∩ {T ≤ t} ∈ Ft für jedes {T ≤ t} ∈ Ft für beliebige t ≥ 0 fassen wir dabei den (eingeschränkten) X : [0, t] × Ω → R auf, die gegeben ist durch weil ∀t ≥ 0. B ∈ B(R) Prozess t ≥ 0, und t ≥ 0. {Xs , s ∈ [0, t]} als Abbildung (s, ω) 7→ Xs (ω) . Weil der Prozess {Xt } càdlàg ist, gilt für beliebige 2 ∑ (32) (s, ω) ∈ [0, t] × Ω n Xs (ω) = X0 (ω)1I{0} (s) + lim n→∞ Weil 1I((k−1)t/2n , kt/2n ] (s)Xkt/2n (ω) . k=1 {Xt } adaptiert ist, sind sämtliche Summanden auf der rechten Seite des letzten ( ) B([0, t]) ⊗ Ft , B(R) messbar. Ausdruckes Damit besitzt auch ihr Grenzwert diese Messbarkeitseigenschaft, d.h., die in (32) gegebene Abbildung ist ( ) B([0, t]) ⊗ Ft , B(R) messbar. 3 LÉVYPROZESSE UND MARTINGALE 112 g : Ω ∩ {T ≤ t} → [0, t] × Ω mit ( ) g(ω) = T (ω), ω , ) ( wobei diese Abbildung Ft ∩ {T ≤ t}, B([0, t]) ⊗ Ft messbar ist. Hieraus folgt, dass die Superposition X ◦ g : )Ω ∩ {T ≤ t} → R der in (32) ( gegebenen Abbildungen Ft ∩ {T ≤ t}, B(R) messbar ist. Auÿerdem betrachten wir die Abbildung (33) bzw. (33) Wir kommen nun zum sogenannten optionalen SamplingTheorem für Martingale bzw. für gestoppte Martingale. Theorem 3.13 T : Ω → [0, ∞) Der Prozess {Xt , t ≥ 0} sei adaptiert und càdlàg. Wenn eine endliche Stoppzeit ist, dann gilt E (Xt | FT ) = XT ∧t {Xt } ein Martingal und ∀t ≥ 0. (34) Beweis • Wir zeigen zunächst, dass ( ) E Xt | FT (n) = XT (n) ∧t wobei {T (n) , n ≥ 1} die in (13) ∀ n ≥ 1, t ≥ 0 , (35) eingeführte Folge von diskreten Stoppzeiten ist. Hierfür sei tk = t und t1 ≤ . . . ≤ tk−1 ≤ t bezeichne die Werte, die die Zufallsvariable T (n) ∧ t mit positiver Wahrscheinlichkeit annehmen kann. Dann gilt für jedes A ∈ FT (n) (Xt − XT (n) ∧t )1I(A) = k−1 ∑ (Xt − Xti )1I(T (n) ∧ t = ti )1I(A) i=1 = k ∑ (Xti − Xti−1 )1I(T (n) ∧ t < ti )1I(A) . i=2 Hieraus folgt, dass ( k ) ( ) ∑ E (Xt − XT (n) ∧t )1I(A) = E (Xti − Xti−1 )1I(T (n) ∧ t < ti )1I(A) i=2 = k ∑ ( ( )) E E (Xti − Xti−1 )1I(T (n) ∧ t < ti )1I(A) Fti−1 i=2 = k ∑ ( ( )) E 1I(T (n) ∧ t < ti )1I(A) E Xti − Xti−1 Fti−1 i=2 = 0, wobei sich die vorletzte Gleichheit aus der Denitionsgleichung (30) der FT (n) und aus Teilaussage 4 von Theorem 3.6 ergibt. σ Algebra 3 LÉVYPROZESSE UND MARTINGALE Somit gilt weil XT (n) ∧t eine 113 ( ) ( ) E Xt | FT (n) = E XT (n) ∧t | FT (n) = XT (n) ∧t , ( ) FT (n) , B(R) messbare Zufallsvariable ist; vgl. Lemma FT ⊂ FT (n) , 3.9. • Aus Lemma 3.9 folgt auÿerdem, dass • Mit Hilfe der Teilaussage 5 von Theorem 3.6 ergibt sich nun hieraus und aus (35), dass weil T ≤ T (n) . E (Xt | FT ) = E (E (Xt | FT (n) ) | FT ) = E (XT (n) ∧t | FT ) . • limn→∞ T (n) ↓ T , {XT (n) ∧t , n ≥ 1} gemäÿ Weil weil der Prozess {Xt , t ≥ 0} càdlàg ist und weil die Folge Lemma 3.8 gleichgradig integrierbar ist, gilt also E (Xt | FT ) = lim E (XT (n) ∧t | FT ) = E (XT ∧t | FT ) = XT ∧t , n→∞ wobei sich die letzte Gleichheit aus Lemma 3.9 ergibt. Korollar 3.4 {Xt , t ≥ 0} sei adaptiert und càdlàg. Wenn {Xt } ein Martingal und beliebige endliche Stoppzeiten mit P (S ≤ T ) = 1 sind, dann gilt Der Prozess S, T : Ω → [0, ∞) E (XT ∧t | FS ) = XS∧t Insbesondere gilt E XT ∧t = E X0 ∀t ≥ 0. (36) ∀t ≥ 0. (37) Beweis • {Xt } ein Martingal. Aus Theorem 3.12 {XT ∧t , t ≥ 0} ebenfalls ein Martingal ist. Sei Es ist klar, dass mit ma 3.9, dass {XT ∧t } {Xt } auch {XT ∧t } folgt dann, dass der stochastische Prozess càdlàg ist. Auÿerdem ergibt sich aus Lem- adaptiert ist. Wir können also Theorem 3.13 auf das Martingal {XT ∧t , t ≥ 0} anwenden und erhalten, dass E (XT ∧t | FS ) = XT ∧(S∧t) = XS∧t • wobei sich die letzte Gleichheit aus der Annahme ergibt, dass Wenn wir die Stoppzeit X0 ∀t ≥ 0, bzw. E XT ∧t = E X0 S ≤ T. S = 0 in (36) einsetzen, dann ergibt sich, dass E (XT ∧t | F0 ) = t ≥ 0. für jedes 3.3 Anwendungsbeispiele Um die in Abschnitt 3.2 dargelegten Begrie und Ergebnisse der Martingaltheorie bei der Untersuchung von LévyProzessen anwenden zu können, benötigen wir noch zwei weitere grundlegende Eigenschaften von LévyProzessen, die wir hier ohne Beweis angeben. 3 LÉVYPROZESSE UND MARTINGALE Theorem 3.14 • Sei {Xt , t ≥ 0} 114 ein LévyProzess mit den Charakteristiken Dann gibt es eine càdlàg Modikation et , t ≥ 0} {X LévyProzess ist und zwar mit den gleichen • (a, b, ν). et } {Xt }, so dass {X Charakteristiken (a, b, ν) wie {Xt }. von Wenn der LévyProzess {Xt , t ≥ 0} càdlàg ist, dann ist die (durch X Filtration {Ft , t ≥ 0} rechtsstetig. {Xt } ebenfalls ein erzeugte) natürliche Ein Beweis von Theorem 3.14 kann zum Beispiel in Applebaum (2004), S. 7477 nachgelesen werden. Wegen Theorem 3.14 werden wir in den weiteren Abschnitten dieses Skriptes (o.B.d.A.) voraussetzen, das die jeweils betrachteten LévyProzesse càdlàg sind. 3.3.1 Regeneration von LévyProzessen zu Stoppzeiten {Xt , t ≥ 0} ein maxt∈[0,1] Xt hergeleitet. In Theorem 2.22 hatten wir für Fall, dass Schranke für die Tailfunktion von (Standard) WienerProzess ist, ein Im nachfolgenden Abschnitt 3.3.2 werden wir zeigen, dass diese Schranke optimal ist, d.h. mit der Tailfunktion von maxt∈[0,1] Xt übereinstimmt. Hierfür zeigen wir zunächst, dass LévyProzesse zu endlichen Stoppzeiten die folgende Regenerationseigenschaft besitzen. Theorem 3.15 • Sei {Xt , t ≥ 0} ein LévyProzess über (Ω, F, P ) und sei T X Stoppzeit bezüglich der natürlichen Filtration {Ft , t ≥ 0} von • Dann ist der Prozess {Yt , t ist bezüglich der Filtration : Ω → [0, ∞) {Xt }. eine endliche ≥ 0} mit Yt = XT +t −XT ebenfalls ein LévyProzess, der adaptiert {Gt , t ≥ 0} mit Gt = FTX+t , wobei der LévyProzess {Yt } unabhängig von FTX ist und {Yt } die gleiche LévyCharakteristik wie {Xt } hat. Beweis • T : Ω → [0, ∞) c < ∞. Wir betrachten zunächst den Fall, dass d.h., es gelte P (T < c) = 1 Für beliebige n≥1 für ein und u1 , . . . , un ∈ R eine beschränkte Stoppzeit ist, sind dann durch den Ansatz (j) Yet = eiuj Xt −tη(uj ) {Yet , t ≥ 0} für jedes j = 1, . . . , n gegeben, wobei LévyExponent von {Xt } ist; vgl. Beispiel 4 in Abschnitt 3.2.3. (komplexwertige) Martingale η:R→C der (j) 3 LÉVYPROZESSE UND MARTINGALE A ∈ FTX Dann gilt für beliebige 115 und t0 , t 1 , . . . , t n ≥ 0 mit t0 < t1 < . . . < tn n n ( ∏ ( ∑ )) E 1I(A) exp i uj (XT +tj − XT +tj−1 ) = E 1I(A) (j) YeT +tj ( j=1 j=1 (j) YeT +tj n ( ∏ = E 1I(A) j=1 e(tj −tj−1 )η(uj ) (j) YeT +tj−1 (j) YeT +tj n ( ( ∏ = E E 1I(A) j=1 (j) YeT +tj−1 (j) YeT +tj−1 e(T +tj )η(uj ) ) e(T +tj−1 )η(uj ) ) e(tj −tj−1 )η(uj ) | FTX+tn−1 )) , wobei sich die letzte Gleichheit aus Teilaussage 5 von Theorem 3.6 ergibt. Aus Lemma 3.9 und aus Teilaussage 4 von Theorem 3.6 ergibt sich nun, dass n ( ( ∏ E E 1I(A) j=1 ( = E 1I(A) (j) YeT +tj (j) YeT +tj−1 (n−1 ∏ j=1 ( = E 1I(A) (n−1 ∏ j=1 e(tj −tj−1 )η(uj ) | FTX+tn−1 (j) YeT +tj (j) YeT +tj−1 (j) YeT +tj (j) YeT +tj−1 e(tj −tj−1 )η(uj ) )) ) e(tn −tn−1 )η(un ) ( )) e (n) | FTX+t E Y T +tn n−1 (n) Ye T +tn−1 ) ) e(tj −tj−1 )η(uj ) e(tn −tn−1 )η(un ) , weil aus dem optionalen SamplingTheorem in Korollar 3.4 folgt, dass ( (n) ) (n) E YeT +tn | FTX+tn−1 = YeT +tn−1 , wobei der Zeitpunkt c + tn ≤ t. t ≥ 0 in der Formel (36) des Korollars 3.4 so zu wählen ist, dass Durch Iteration dieser Überlegungen ergibt sich dann insgesamt, dass n n ( ( ( ∑ )) ( ∑ )) E 1I(A) exp i uj (Ytj − Ytj−1 ) = E 1I(A) exp i uj (XT +tj − XT +tj−1 ) j=1 = P (A) n ∏ j=1 e(tj −tj−1 )η(uj ) n ( ∑ )) = P (A) E exp i uj (Xtj − Xtj−1 ) , j=1 ( j=1 d.h., für beliebige A ∈ FTX und t 0 , t1 , . . . , t n ≥ 0 mit t0 < t 1 < . . . < t n gilt n n ( ( ( ∑ )) ( ∑ )) E 1I(A) exp i uj (Ytj − Ytj−1 ) = P (A) E exp i uj (Xtj − Xtj−1 ) . j=1 • (1) j=1 Wir zeigen nun, dass (1) auch für endliche (nicht notwendig beschränkte) Stoppzeiten gilt. Sei also T : Ω → [0, ∞) eine beliebige endliche Stoppzeit. 3 LÉVYPROZESSE UND MARTINGALE 116 Man kann sich leicht überlegen, dass dann X und A ∈ FT . A ∩ {T ≤ k} ∈ FTX∧k für beliebige k≥1 Somit ergibt sich aus (1), dass n n ( ( )) )) ( ∑ ( ∑ uj (Xtj − Xtj−1 ) , E 1I(Ak ) exp i uj (Yk,tj − Yk,tj−1 ) = P (Ak ) E exp i j=1 j=1 (2) wobei Ak = A ∩ {T ≤ k} Yk,t = X(T ∧k)+t − XT ∧k . k → ∞ auf beiden Seiten von und Durch Grenzübergang für (2) ergibt sich nun mit Hilfe des Satzes von Lebesgue über die majorisierte Konvergenz, dass (1) auch für beliebige endliche Stoppzeiten gilt. • Für A = Ω {Xt } ist. • Auÿerdem ergibt sich aus Lemma 3.9, dass der LévyProzess X der Filtration {Gt , t ≥ 0} mit Gt = FT +t . • Es bleibt also noch zu zeigen, dass • folgt aus (1), dass {Yt } ein LévyProzess mit der gleichen Verteilung wie {Yt } unabhängig von ist, d.h., dass t1 , . . . , tn von nichtnegativen Zahlen und für beliebige B1 , . . . , Bn ∈ A ∈ FTX −1 −1 Ereignisse Yt (B1 ) ∩ . . . ∩ Yt (Bn ) und A unabhängig sind. 1 n für jede Folge B(R) die und Hierfür betrachten wir die bedingte Verteilung PYt1 ,...,Ytn |FTX : B(Rn ) × Ω → [0, 1] ( ) PYt1 ,...,Ytn |FTX (B, ω) = P (Yt1 , . . . , Ytn )−1 (B) | FTX (ω) wobei FTX {Yt } adaptiert ist bezüglich mit ∀ B ∈ B(Rn ), ω ∈ Ω , (3) P (A | FTX ) = E (1I(A) | FTX ). Man kann sich leicht überlegen, dass (3) impliziert, dass mit Wahrscheinlichkeit ( ) E g(Yt1 , . . . , Ytn ) | FTX (ω) = 1 ∫ Rn g(y) PYt1 ,...,Ytn |FTX (dy, ω) (4) g : Rn → C mit E g(Yt1 , . . . , Ytn ) < ∞. X beliebige A ∈ FT und t1 , . . . , tn ≥ 0 für jede Borelmessbare Funktion Auÿerdem folgt aus (1), dass für n n ( ( ( ∑ )) ( ∑ )) E 1I(A) exp i uj Ytj = P (A) E exp i uj Ytj . j=1 Hieraus und aus (4) ergibt sich, dass die charakteristischen Funktionen von und PYt1 ,...,Ytn mit Wahrscheinlichkeit 1 übereinstimmen. PYt1 ,...,Ytn |FTX Aus dem Eindeutigkeitssatz für charakteristische Funktionen folgt nun, dass auch die Verteilungen j=1 PYt1 ,...,Ytn |FTX und PYt1 ,...,Ytn mit Wahrscheinlichkeit 1 übereinstimmen. Dies ist gleichbedeutend damit, dass für beliebige B1 , . . . , Bn ∈ B(R) und −1 −1 die Ereignisse Yt (B1 ) ∩ . . . ∩ Yt (Bn ) und A unabhängig sind. 1 n A ∈ FTX 3 LÉVYPROZESSE UND MARTINGALE 117 3.3.2 Reexionsprinzip des WienerProzesses; Verteilung des Maximums Mit Hilfe von Theorem 3.15 leiten wir nun das folgende Reexionsprinzip des WienerProzesses her; vgl. hierzu Abb. 15. Es betrit eine weitere Invarianzeigenschaft des WienerProzesses (zusätzlich zu den bereits in Theorem 2.23 hergeleiteten Eigenschaften dieses Typs). Theorem 3.16 • Sei {Xt , t ≥ 0} ein (Standard) WienerProzess über endliche Stoppzeit bezüglich der natürlichen Filtration • Dann hat {Xt } (Ω, F, P ) und sei T : Ω → [0, ∞) {FtX , t ≥ 0} von {Xt }. die gleiche Verteilung wie der reektierte Prozess {Yt , t ≥ 0} eine mit Yt = XT ∧t − (Xt − XT ∧t ) , d.h., {Yt } (5) ist ebenfalls ein (Standard) WienerProzess. Beweis • Die stochastischen Prozesse {Xt′ , t ≥ 0} Xt′ = XT ∧t • und bzw. et , t ≥ 0} {X seien gegeben durch et = XT +t − XT . X Aus Theorem 3.15 folgt dann, dass {Xet } ein WienerProzess ist, der unabhängig von (T, {Xt′ }) ist. d et }. {−X Auÿerdem ergibt sich aus Teilaussage 1 von Theorem 2.23, dass {Xet } = Insgesamt gilt also ( • ) d ( ) et } = et } . T, {Xt′ }, {X T, {Xt′ }, −{X (6) Es genügt nun zu beachten, e(t−T ) Xt = Xt′ + X + max{x, 0}. dass D.h., Wegen (6) gilt somit und e(t−T ) Yt = Xt′ − X + für jedes t ≥ 0, wobei x+ = ) ) ( ( et } . et } bzw. T, {Xt′ }, −{X Xt bzw. Yt sind messbare Abbildungen von T, {Xt′ }, {X d {Xt } = {Yt }. Beachte • Sei {Xt , t ≥ 0} ein WienerProzess. Die natürliche Filtration {FtX , t ≥ 0} von {Xt } ist dann gemäÿ Theorem 3.14 rechtsstetig. • 0 : Xt = z} • X z > 0 die Ersterreichungszeit T{z} = min{t ≥ {FtX } ist. Aus Theorem 3.7 folgt somit, dass für jedes eine Stoppzeit bezüglich Auÿerdem ergibt sich aus Korollar 2.5, dass Stoppzeit. X X P (T{z} < ∞) = 1, d.h., T{z} ist eine endliche 3 LÉVYPROZESSE UND MARTINGALE 118 Abbildung 15: Reexionsprinzip des Wiener Prozesses Die Anwendung von Theorem 3.16 auf die Ersterreichungszeit Identität. Korollar 3.5 Sei {Xt , t ≥ 0} ein WienerProzess und sei mit s∈[0,t] y≥0 und führt nun zu der folgenden {Mt , t ≥ 0} der MaximumProzess ∀t ≥ 0. Mt = max Xs Dann gilt für beliebige X T{z} (7) z>0 P (Xt < z − y, Mt ≥ z) = P (Xt > y + z) . (8) Beweis • Die in (7) betrachtete Abbildung weil die Trajektorien von {Xt } Mt : Ω → [0, ∞) ist eine wohldenierte Zufallsvariable, stetige Funktionen sind, vgl. auch die Formel (24) in Abschnitt 2.4.5. Für die endliche Stoppzeit Theorem 3.16, dass X T = T{z} = min{t ≥ 0 : Xt = z} d {Xt } = {Yt } wobei die Ersterreichungszeit des Niveaus in (5) eingeführten WienerProzess ( X ) d ( Y ) T{z} , {Xt } = T{z} , {Yt } , bzw. Y T{z} = min{t ≥ 0 : Yt = z} ergibt sich dann aus {Yt } durch den Hieraus folgt, dass X Y P (T{z} ≤ t, Xt < z − y) = P (T{z} ≤ t, Yt < z − y) , • z ist. Weil auÿerdem X Y T{z} (ω) = T{z} (ω) für jedes ω ∈ Ω, ergibt sich aus (5), dass Y X {T{z} ≤ t} ∩ {Yt < z − y} = {T{z} ≤ t} ∩ {2z − Xt < z − y} . (9) 3 LÉVYPROZESSE UND MARTINGALE 119 Hieraus und aus (9) folgt nun, dass X X X P (T{z} ≤ t, Xt < z − y) = P (T{z} ≤ t, 2z − Xt < z − y) = P (T{z} ≤ t, Xt > z + y) . Damit ist die Behauptung (8) beweisen, weil oenbar X P (T{z} ≤ t, Xt > z + y) = P (Xt > z + y) und X P (T{z} ≤ t, Xt < z − y) = P (Mt ≥ z, Xt < z − y) . Mit Hilfe von Korollar 3.5 können wir nun zeigen, dass die in Theorem 2.22 hergeleitete Schranke für die Tailfunktion von Mt = maxs∈[0,t] Xs optimal ist, d.h. mit der Tailfunktion von Mt übereinstimmt. Theorem 3.17 Sei {Xt , t ∈ [0, 1]} ein WienerProzess. Dann gilt für beliebige √ P (Mt > x) = 2 πt ∫ ∞ e−y 2 /2t t>0 und x≥0 dy . (10) x Beweis • • Für y=0 ergibt sich aus Korollar 3.5, dass P (Xt < z, Mt ≥ z) = P (Xt > z). Wenn wir nun auf beiden Seiten dieser Gleichung die Wahrscheinlichkeit addieren und dabei berücksichtigen, dass P (Mt ≥ z) = 2 P (Xt > z) P (Xt = z) = 0 für z) = 0 für jedes z ≥ 0. weil {Xt > z} = {Xt > z, Mt ≥ z}, bzw. ∀z ≥ 0, P (Mt > z) = 2 P (Xt > z) die (normalverteilte) Zufallsvariable Xt P (Xt > x) ergibt sich und somit auch P (Mt = 3.3.3 WienerProzesse mit negativer Drift Sei {Xt , t ≥ 0} ein (Standard) WienerProzess und für µ>0 sei {Yt , t ≥ 0} mit Yt = Xt − tµ ein WienerProzess mit negativer Drift. supt≥0 Yt , wobei P (supt≥0 Yt ≥ über dem unendlichen Zeithorizont [0, ∞) aufgefasst Wir beweisen nun eine Formel für die Tailfunktion des Supremums x) für jedes x ≥ 0 als Ruinwahrscheinlichkeit werden kann. Dabei zeigen wir insbesondere, dass die Schranke für P (supt≥0 Yt ≥ x) exakt ist, die wir bereits in Formel (27) des Abschnittes 3.2.5 hergeleitet hatten. Theorem 3.18 Sei {Xt , t ≥ 0} ein WienerProzess. Dann gilt für beliebige µ > 0 ( ) P sup Yt > x = e−2µx , wobei Yt = Xt − tµ. t≥0 und x≥0 (11) 3 LÉVYPROZESSE UND MARTINGALE 120 Beweis • Für beliebige u, x ≥ 0 betrachten wir das Martingal {euYt −t(u 2 /2−µu) , t ≥ 0} und die (endliche) Stoppzeit T{x} ∧ t = inf{s ≥ 0 : Ys = x} ∧ t • ∀t ≥ 0. u, t, x ≥ 0 ( ) E exp uYT{x} ∧t − (T{x} ∧ t)(u2 /2 − µu) = E euY0 = 1 Aus Korollar 3.4 ergibt sich dann, dass für beliebige bzw. [ ( ) ] [ ( ) ] E exp ux − T{x} (u2 /2 − µu) ; T{x} < t + E exp uYt − t(u2 /2 − µu) ; T{x} ≥ t = 1 . (12) • Weil aus Korollar 2.4 folgt, dass u ≥ 2µ limt→∞ Yt = −∞ mit Wahrscheinlichkeit 1, gilt für jedes ( ( ) ( )) lim exp uYt − t(u2 /2 − µu) 1I T{x} ≥ t = 0 t→∞ mit Wahrscheinlichkeit • 1. Auÿerdem gilt ( ) ( ) ( ) ( ) exp uYt − t(u2 /2 − µu) 1I T{x} ≥ t ≤ exp ux − t(u2 /2 − µu) 1I T{x} ≥ t , ≤ eux wobei der letzte Ausdruck eine (bezüglich • P) integrierbare Majorante ist. Aus dem Satz von Lebesgue über die majorisierte Konvergenz folgt also, dass für jedes u ≥ 2µ [ ( ) ] lim E exp uYt − t(u2 /2 − µu) ; T{x} ≥ t = 0 . t→∞ • Hieraus und aus (12) ergibt sich nun, dass [ ( ) ] e−ux = E exp −T{x} (u2 /2 − µu) ; T{x} < ∞ • Insbesondere ergibt sich für u = 2µ, Damit gilt auch x≥0 ( ) < ∞) = P sup Yt ≥ x . dass für jedes e−2µx = P (T{x} • ∀ u ≥ 2µ . ( ) P supt≥0 Yt > x = e−2µx t≥0 für jedes x ≥ 0. 3 LÉVYPROZESSE UND MARTINGALE 121 3.3.4 Subordinatoren als Prozesse von Ersterreichungszeiten In diesem Abschnitt diskutieren wir zwei weitere Beispiele, bei dem Theorem 3.16 auf die ErsterreiX chungszeit T{z} = min{t ≥ 0 : Xt = z} des (Standard) WienerProzesses {Xt , t ≥ 0} angewendet wird; z ≥ 0. {Yt , t ≥ 0} heiÿt αstabiler LévyProzess ν gegeben ist durch 1 α dy für y > 0, 1+α Γ(1 − α) y ν(dy) = 0 für y ≤ 0, Zur Erinnerung: Ein Subordinator α ∈ (0, 1), wobei wenn α ∈ (0, 1) a=b=0 und mit Stabilitätsindex und das LévyMaÿ Γ : (0, ∞) → (0, ∞) die Gammafunktion bezeichnet ∫ ∞ Γ(p) = e−y y p−1 dy , ∀p > 0. (13) mit 0 Beachte • In Formel (41) des Abschnittes 3.1.4 hatten wir gezeigt, dass in diesem Fall E e−uYt = e−tu α • Der αstabile LévyProzess {Yt } mit ∀ t, u ≥ 0 . α = 1/2 (14) wird manchmal LévySubordinator ge- nannt. Theorem 3.19 Sei zeiten mit {Tt , t ≥ 0} {Xt , t ≥ 0} ein WienerProzess. Dann ist der Prozess der Ersterreichungs- √ Tt = min{s ≥ 0 : Xs = t/ 2} (15) ein LévyProzess, der die gleiche Verteilung wie der LévySubordinator hat. Beweis • Wir zeigen zunächst, dass der in (15) gegebene Prozess Oenbar gilt {Tt } ein LévyProzess ist. T0 = 0. Aus Theorem 3.15 folgt, dass {Tt } unabhängige und stationäre Zuwächse hat. ε>0 √ ) lim P (Tt > ε) = lim P max Xs < t/ 2 = 0 , Auÿerdem ergibt sich aus Theorem 3.17, dass für jedes ( t→0 d.h., {Tt } ist stochastisch stetig. t→0 s∈[0,ε] 3 LÉVYPROZESSE UND MARTINGALE • 122 Es ist nun noch zu zeigen, dass (14) gilt mit α = 1/2. Dabei können wir ähnlich wie im Beweis von Theorem 3.18 vorgehen. t, u ≥ 0 und n ≥ 1 betrachten wir das Martingal {euXs −su /2 , s ≥ 0} X und die Stoppzeit Tt ∧ n bezüglich der natürlichen Filtration {Fs , s ≥ 0} von {Xs }. Aus Korollar 3.4 ergibt sich dann, dass für beliebige t, u ≥ 0 und n ≥ 1 ( ) E exp uXTt ∧n − (Tt ∧ n)u2 /2 = E euX0 = 1 2 Für beliebige bzw. [ ( √ ) ] [ ( ) ] E exp ut/ 2 − Tt u2 /2 ; Tt < n + E exp uXn − nu2 /2 ; Tt ≥ n = 1 . √ Weil P (Tt < ∞) = 1 und weil Xn ≤ t/ 2, wenn Tt ≥ n, ergibt sich genauso (16) wie im Beweis von Theorem 3.18, dass [ ( ) ] lim E exp uXn − nu2 /2 ; Tt ≥ n = 0 n→∞ ∀ t, u ≥ 0 . Hieraus und aus (16) folgt, dass ( √ ) E exp ut/ 2 − Tt u2 /2 = 1 u′ = u2 /2 (√ ) E exp t u − Tt u = 1 ∀ t, u ≥ 0 bzw. mit der Substitution ∀ t, u ≥ 0 . Wir verallgemeinern nun das Modell von Theorem 3.19 und betrachten Prozesse von Ersterreichungszeiten für WienerProzesse mit Drift. Theorem 3.20 Sei {Xt , t ≥ 0} ein WienerProzess. Für beliebige Prozess der Ersterreichungszeiten {Tt , t ≥ 0} mit µ∈R und δ>0 Tt = min{s ≥ 0 : Xs + µs = δt} ein LévyProzess, wobei √ ( ) E e−uTt = exp −tδ( 2u + µ2 − µ ist dann der (17) ∀ t, u ≥ 0 . (18) Der Beweis von Theorem 3.20 verläuft ähnlich wie der Beweis von Theorem 3.19. Er wird deshalb weggelassen. Beachte • Tt mit der in (18) gegebenen x≥0 Für die in Theorem 3.20 betrachteten Ersterreichungszeiten LaplaceTransformierten kann man zeigen, dass für jedes δt δtµ e P (Tt ≤ x) = √ 2π ∫ 0 x ( 1 ) y −3/2 exp − (t2 δ 2 y −1 + µ2 y) dy . 2 (19) 3 LÉVYPROZESSE UND MARTINGALE • 123 Man sagt, dass Zufallsvariablen mit der in (19) gegebenen Verteilungsfunktion eine in- verse GauÿVerteilung besitzen. Die in den Theoremen 3.19 bzw. 3.20 betrachteten Subordinatoren {Tt , t ≥ 0} spielen eine wichtige Rolle bei der Zeitransformation von LévyProzessen. Es gilt nämlich die folgende InvarianzEigenschaft von LévyProzessen, die wir hier ohne Beweis angeben. Theorem 3.21 • Sei {Xt , t ≥ 0} ein LévyProzess und sei {Yt , t ≥ 0} ein Subordinator, der über dem gleichen Wahrscheinlichkeitsraum (Ω, F, P ) wie {Xt } gegeben ist. • Wenn {Xt } und {Yt } unabhängig sind, dann ist der Prozess Zt (ω) = XYt (ω) (ω) {Zt , t ≥ 0} mit ∀ω ∈ Ω ebenfalls ein LévyProzess. Ein Beweis von Theorem 3.21 kann zum Beispiel in Applebaum (2004), S. 5355 nachgelesen werden. 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN 124 4 Stochastische Prozesse mit allgemeineren Indexmengen In diesem Kapitel betrachten wir Beispiele von stochastischen Prozessen bzw. zufälligen Feldern {Xt , t ∈ I}, für die die Indexmenge I d Raum R für d ≥ 2 ist. R oder der ddimensionale euklidische die gesamte reelle Achse Darüber hinaus werden wir auch den Fall diskutieren, dass wobei I dann eine σ Algebra {Xt , t ∈ I} ein zufälliges Maÿ ist, ist. Dabei betrachten wir insbesondere stochastische Prozesse mit stationären Zuwächsen bzw. stationäre zufällige Maÿe. 4.1 Zählprozesse im R1 Wir modizieren das in Abschnitt 2.1 eingeführte Konzept von Zählprozessen {Nt , t ≥ 0} dahinge- hend, dass wir Zählprozesse mit Vergangenheit betrachten, d.h., die in Abschnitt 2.1 betrachteten Ereigniszeitpunkte Achse R Sn liegen jetzt nicht nur in [0, ∞), sondern sie sind auf der gesamten reellen verteilt. Denition • Sei (Ω, F, P ) ein beliebiger Wahrscheinlichkeitsraum, und sei eine (monotone) Folge von reellwertigen Zufallsvariablen über S0 ≤ 0 < S1 < S2 < . . ., so dass mit Wahrscheinlichkeit lim Sn = ∞ n→∞ • und {Sn , n = 0, ±1, ±2, . . .} (Ω, F, P ) mit . . . S−1 < 1 lim Sn = −∞ . n→−∞ {Nt , t ∈ R} mit ∑∞ k=1 1I(Sk ≤ t) Nt = − ∑0 k=−∞ 1I(Sk > t) Der stochastische Prozess wird Zählprozess genannt. Die Zufallsvariablen Sn für t ≥ 0, für t < 0, (1) heiÿen Ereigniszeitpunkte. Beachte • Der in (1) gegebene Zählprozess {Nt , t ∈ R} ist càdlàg und hat stückweise konstante Trajektorien, deren Unstetigkeitsstellen die Ereigniszeitpunkte für • t≥0 und Nt ≤ 0 für Sn sind. Dabei gilt Nt ≥ 0 t < 0. Durch den Ansatz NB = #{n : Sn ∈ B} ist dann ein zufälliges Zählmaÿ {NB , B ∈ B(R)} ∀ B ∈ B(R) über (Ω, F, P ) (2) gegeben. 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN 125 Denition • {Nt , t ∈ R} stationäre Zuwächse hat, wenn für beliet0 , . . . , tn ∈ R mit t0 ≤ . . . ≤ tn die Verteilungen der Zufallsvektoren (Nt1 +h − Nt0 +h , . . . , Ntn +h − Ntn−1 +h ) nicht von h > 0 abhängen. Man sagt, dass der Zählprozess bige • ist, wenn die Zufallsvariablen mit t0 ≤ . . . ≤ tn • {Nt , t ∈ R} ein Prozess mit unabhängigen Zuwächsen (Nt1 − Nt0 , . . . , Ntn − Ntn−1 ) für beliebige t0 , . . . , tn ∈ R Auÿerdem sagt man, dass unabhängig sind. Das zufällige Zählmaÿ B(R) und h∈R {NB , B ∈ B(R)} heiÿt stationär, wenn für beliebige B1 , . . . , Bn ∈ (NB1 +h , . . . , NBn +h ) nicht von h die Verteilungen der Zufallsvektoren abhängen. Theorem 4.1 B(R)} {Nt , t ∈ R} ein Zählprozess über (Ω, F, P ), und das Zählmaÿ {NB , B ∈ B(R)} (2). Der Prozess {Nt , t ∈ R} hat genau dann stationäre Zuwächse, wenn {NB , B ∈ Sei sei gegeben durch stationär ist. Beweis • {NB , B ∈ B(R)} stationär ist, dann gilt für beliebige h ∈ R t0 ≤ . . . ≤ tn Wenn das zufällige Zählmaÿ und t0 , . . . , tn ∈ R mit (Nt1 +h − Nt0 +h , . . . , Ntn +h − Ntn−1 +h ) = (N(t1 ,t2 ]+h , . . . , N(tn−1 ,tn ]+h ) d = (N(t1 ,t2 ] , . . . , N(tn−1 ,tn ] ) = (Nt1 − Nt0 , . . . , Ntn − Ntn−1 ) , d.h., der Zählprozess • Sei nun umgekehrt {Nt , t ∈ R} {Nt , t ∈ R} hat stationäre Zuwächse. ein Zählprozess mit stationären Zuwächsen. Dann ist das Mengensystem G ⊂ B(R) derjenigen BorelMengen B ∈ B(R), für die d NB+h = NB h ∈ R gilt, ein sogenanntes dSystem, (t2 , t1 ] enthält, vgl. Abschnitt WR-3.2.3. für jedes Form dass die Familie aller Intervalle der Aus dem Satz über monotone Klassen (vgl. Theorem WR-3.2) ergibt sich nun, dass Auf ähnliche Weise kann man zeigen, dass G = B(R). d (NB1 +h , . . . , NBn +h ) = (NB1 , . . . , NBn ) für jedes gilt. n ≥ 1, für beliebige BorelMengen B1 , . . . , Bn ∈ B(R) und für jedes h∈R 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN 126 4.1.1 Homogener PoissonProzess In diesem Abschnitt betrachten wir zunächst den Fall, dass die Zwischenankunftszeiten Sn − Sn−1 zwischen den aufeinanderfolgenden Ereigniszeitpunkten Tn = S1 , S 2 , . . . • eine Folge {Tn , n ≥ 2} von unabhängigen und identisch verteilten Zufalllsvariablen bilden mit Tn ∼ Exp(λ) für ein λ > 0. • Auÿerdem sei • S1 unabhängig von Dann ist der Zählprozess Prozess in [0, ∞) {Tn , n ≥ 2}, und es gelte ∑∞ S1 ∼ Exp(λ). {Nt , t ≥ 0} mit Nt = k=1 1I(Sk ≤ t) λ; vgl. Abschnitt 2.2.1. ein (homogener) Poisson mit der Intensität Wir zeigen, wie der Zählprozess auf der gesamten reellen Achse {Nt , t ≥ 0} auf einfache Weise zu einem Zählprozess {Nt , t ∈ R} R fortgesetzt werden kann, so dass {Nt , t ∈ R} stationäre und unabhängige (poissonverteilte) Zuwächse hat. Theorem 4.2 Sei Zufallsvariablen mit Dann hat der in |Nt | ∼ Poi(|t|λ) (1) {Tn , n = 0, ±1, ±2, . . .} eine Folge von unabhängigen Tn ∼ Exp(λ) für ein λ > 0. Auÿerdem sei ∑n für n ≥ 1, k=1 Tk Sn = ∑0 − k=n Tk für n ≤ 0. gegebene Zählprozess für jedes t ∈ R. {Nt , t ∈ R} und identisch verteilten (3) stationäre und unabhängige Zuwächse, wobei Beweis • Für jedes t≥0 sei Nt′ = −N−t . Mit Hilfe von Theorem 2.9 ergibt sich dann aus (1) und (3), dass die stochastischen Prozesse {Nt , t ≥ 0} und {Nt′ , t ≥ 0} stationäre und unabhängige Zuwächse besitzen, • wobei Nt ∼ Exp(tλ) und Nt′ ∼ Exp(tλ) für jedes t ≥ 0. Auÿerdem ergibt sich aus (1) und (3), dass die beiden Prozesse {Nt , t ≥ 0} und {Nt′ , t ≥ 0} unabhängig sind. Hieraus und aus der Faltungsstabilität der PoissonVerteilung ergibt sich insbesondere, dass ( ) ′ Nt2 − Nt1 = Nt2 + N−t ∼ Poi (t2 − t1 )λ 1 • t0 , . . . , tn ∈ R mit t0 ≤ . . . ≤ tn und für h > 0 die (Nt1 +h − Nt0 +h , . . . , Ntn +h − Ntn−1 +h ) unabhängige ihre Verteilungen nicht von h abhängen. Damit ist klar, dass für beliebige Komponenten der Zufallsvektoren Zufallsvariablen sind und dass ∀ t1 < 0, t2 > 0 . 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN 127 Beachte • Manchmal wird die in (3) eingeführte Folge von Ereigniszeitpunkten modiziert, dass der Ereignispunkt variablen Sn für n ̸= 0 {Sn } dahingehend zusätzlich hinzufügt wird und die Zufalls- deniert werden durch Sn = • S0 = 0 ∑n k=1 Tk − ∑0 k=n+1 Tk Dann bilden die Zwischenankunftszeiten für n ≥ 1, für n < 0. Tn = Sn − Sn−1 (4) eine stationäre Folge {Tn } von unabhängigen und identisch (exponentiell) verteilten Zufallsvariablen. • Andererseits sieht man leicht, dass der in (1) gegebene Zählprozess Fall keine stationären Zuwächse hat, denn wegen lim(N0 − Nt ) = − lim Nt = 1 t↑0 t↑0 S0 = 0 {Nt , t ∈ R} in diesem gilt lim(Nt − N0 ) = lim Nt = 0 . und t↓0 t↓0 Das folgende Resultat zeigt, • wie sich das in (4) betrachtete Modell eines (inhomogenen) Zählprozesses vom PoissonTyp durch Grenzübergang aus einer bedingten Version des in (3) eingeführten Modells des homogenen PoissonProzesses ergibt. • Dabei wird das letztere Modell unter der Bedingung betrachtet, dass in einer (kleinen) ε Umgebung des Nullpunktes ein Ereigniszeitpunkt liegt. Hierfür benötigen wir die folgenden Bezeichnungen. Sei t 1 , t2 ∈ R sei Nt1 ,t2 N −N , t2 t1 = N −N , t1 t2 Tmin = min{T0 , T1 }, falls t1 ≤ t2 , falls t1 > t 2 . und für beliebige Theorem 4.3 • Sei {Nt , t ∈ R} der in Theorem hängigen Zuwächsen. • ′ ′ ′ Auÿerdem sei {Nt , t ∈ R} ein Zählprozess mit S0 = 0, dessen Zwischenankunftszeiten Tn = ′ ′ Sn − Sn−1 eine stationäre Folge von unabhängigen und identisch verteilten Zufallsvariablen ′ bilden mit Tn ∼ Exp(λ). • Dann gilt für jedes k1 , . . . , kn ≥ 0 n = 1, 2, . . ., P (Nt′1 ≤ k1 , . . . , Nt′n ≤ kn ) 4.2 betrachtete PoissonProzess mit stationären und unab- für beliebige t1 , . . . , tn ∈R mit t1 ≤ . . . ≤ tn und für beliebige ( ( ) = lim P Nt1 −T0 ,−T0 ≤ k1 , . . . , Ntn −T0 ,−T0 ≤ kn , T0 < T1 | Tmin ≤ ε ε↓0 ( )) +P Nt1 +T1 ,T1 ≤ k1 , . . . , Ntn +T1 ,T1 ≤ kn , T0 > T1 | Tmin ≤ ε . (5) 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN 128 Beweis • Wir zeigen die Gültigkeit von (5) nur für n = 1. Für beliebige Auf die gleiche Weise ergibt sich, dass für t ≥ 0 und k ≥ 0 gilt dann ( ( ) ( )) lim P Nt−T0 ,−T0 ≤ k, T0 < T1 | Tmin ≤ ε + P Nt+T1 ,T1 ≤ k, T0 > T1 | Tmin ≤ ε ε↓0 ( ( ) = lim P T0 + . . . + Tk+1 > t, T0 < T1 | Tmin ≤ ε ε↓0 ( )) +P T2 + . . . + Tk+2 > t, T0 > T1 | Tmin ≤ ε ( P (T ≤ ε) ( ) 0 = lim P T0 + . . . + Tk+1 > t, T0 < T1 | T0 ≤ ε ε↓0 P (Tmin ≤ ε) ( P (T ≤ ε) ( )) 1 + lim P T2 + . . . + Tk+2 > t, T0 > T1 | T1 ≤ ε ε↓0 P (Tmin ≤ ε) ( ) 1 ( ) 1 = P T1 + . . . + Tk+1 > t + P T2 + . . . + Tk+2 > t 2( 2 ) = P T1 + . . . + Tk+1 > t = P (Nt′ ≤ k) . t < 0 und k ≥ 0 ( ( ) ( )) lim P Nt−T0 ,−T0 ≤ k, T0 < T1 | Tmin ≤ ε +P Nt+T1 ,T1 ≤ k, T0 > T1 | Tmin ≤ ε = P (Nt′ ≤ k) . ε↓0 • Die Gültigkeit von (5) für n≥2 ergibt sich durch ähnliche Überlegungen. 4.1.2 Allgemeines Konstruktionsprinzip für Zählprozesse mit stationären Zuwächsen • Der am Ende von Abschnitt 4.1.1 erwähnte Zuhammenhang zwischen (Poissonschen) Zählprozessen mit stationären Zuwächsen und stationären Folgen von (unabhängigen und exponentiell verteilten) Zwischenankunftszeiten • kann als Spezialfall eines wesentlich allgemeineren Szenarios aufgefasst werden. Dabei gehen wir nun umgekehrt vor und setzen voraus, dass S0 = 0 gilt und dass die Zwischenankunftszeiten eigniszeitpunkten Sn−1 und Sn Tn = Sn − Sn−1 zwischen den aufeinanderfolgenden Er- eine beliebige stationäre Folge {Tn } von (nichtnotwendig unabhängigen) positiven Zufallsvariablen über einem gewissen Wahrscheinlichkeitsraum (Ω, F, P ) bilden. Es gelte also d {Tn } = {Tn+1 } und damit auch d {Tn } = {Tn+n0 } für jede natürliche Zahl (6) n0 ≥ 1 . Auÿerdem setzen wir in diesem Abschnitt lediglich voraus, dass 0 < µ = E Tn < ∞ . (7) 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN 129 Beachte • Es ist klar, dass die Invarianzeigenschaft (6) insbesondere dann gilt, wenn {Tn } eine Folge von unabhängigen und identisch verteilten Zufallsvariablen ist. • Weitere Beispiele von stationären Folgen {Tn }, die nicht aus unabhängigen Zufallsva- riablen bestehen, lassen sich mit Hilfe der Sprungzeitpunkte von reversiblen Markow Prozessen konstruieren, die ihre Werte in dem endlichen Zustandsraum annehmen, wobei ℓ>1 E = {1, . . . , ℓ} eine beliebige, jedoch vorgegebene natürliche Zahl ist; vgl. Ab- schnitt 4.1.4. {Tn } von positiven Zufallsvariablen e F, e Pe) und einen Zählprozess {N et , t ∈ R} über (Ω, F, P ) einen Wahrscheinlichkeitsraum (Ω, e F, e Pe) konstruieren kann, so dass {N et } stationäre Zuwächse hat. (Ω, Wir zeigen nun, wie man ausgehend von einer stationären Folge über Hierfür führen wir zunächst einige Bezeichnungen ein. • K = • und mit B(K) = ⊗∞ Die Verteilung von n=−∞ {Tn } B(0, ∞) über die σ Algebra (K, B(K)) der BorelMengen in {Tn } K. Q. bezeichnen wir mit Auÿerdem betrachten wir den Verschiebungsoperator Weil U U:K→K mit U({tn }) = {tn−1 }. {Tn } stationär ist, ergibt sich aus (6), dass die Verteilung Q von {Tn } invariant bezüglich ist, d.h., es gilt wobei • ∏∞ n=−∞ (0, ∞) bezeichnen wir den Produktraum, in dem die zufällige Folge ihre Werte annimmt, Mit Q(U(B)) = Q(B) { } U(B) = U(t) : t = {tn } ∈ B . Ausgehend von der folgenstationären Verteilung ∀ B ∈ B(K) , (8) Q über (K, B(K)), die die Invarianzeigenet , t ∈ R} mit stationären Zuwächsen {N schaft (8) besitzt, kann man nun einen Zählprozess konstruieren. Hierfür sei L die Menge aller Folgen s = {sn , n = 0, ±1, ±2, . . .} . . . s−1 < s0 ≤ 0 < s1 < s2 < . . . • Mit B(L) bezeichnen wir die σ Algebra Auÿerdem betrachten wir für jedes Th : L → L der die Punkte um h h ∈ R von s = {sn } ∈ L um lim |sn | = ∞ , |n|→∞ der BorelMengen in L. den (zeitkontinuierlichen) Verschiebungsoperator Th ({sn }) = {sn − h} sn und reeller Zahlen, so dass h ∀ {sn } ∈ L , (9) Längeneinheiten nach links bzw. den Ursprung Längeneinheiten nach rechts verschiebt, falls h > 0. 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN • { } L0 = s = {sn } ∈ L : s0 = 0 Schlieÿlich sei und für jedes t = {tn } ∈ K 130 sei die Abbildung t 7→ s(t) = {s(t) n } ∈ L0 gegeben durch s(t) n Denition = ∑n k=1 tk 0 ∑ − 0 k=n+1 tk P Ein Wahrscheinlichkeitsmaÿ über für n = 0, für n < 0. heiÿt Tinvariant, wenn ∀ h ∈ R, A ∈ B(L) , (10) Th (A) = {Th (s) : s ∈ A}. Theorem 4.4 ∫ Q Sei t Q(dt) < ∞. K 1 ein U-invariantes Wahrscheinlichkeitsmaÿ über (K, B(K)) mit 0 < µ = Dann ist durch den Ansatz PQ (A) = ein n ≥ 1, (L, B(L)) P (Th (A)) = P (A) wobei für Tinvariantes 1 µ ∫ ∫ K t1 ( ) 1IA Th (s(t) ) dh Q(dt) ∀ A ∈ B(L) (11) 0 Wahrscheinlichkeitsmaÿ PQ über (L, B(L)) gegeben. Beweis • Für beliebige t = {tn } ∈ K, A ∈ B(L) ∫ Uj (t)1 und j≥0 ( ) j 1IA Th (s(U (t)) ) dh = ∫ 0 • Weil Q k=1 tk ∑j ( ) 1IA Th (s(t) ) dh . (12) k=1 tk U-invariantes Wahrscheinlichkeitsmaÿ ist, n≥0 ∫ t1 ( ) PQ (A) = 1IA Th (s(t) ) dh Q(dt) ein für jedes gilt oenbar ∑j+1 ergibt sich aus (11) und (12), dass 0 = n ∫ ∫ Uj (t)1 ∑ ( ) j 1 1IA Th (s(U (t)) ) dh Q(dt) (n + 1)µ j=0 K 0 = n ∫ ∫ ∑ k=1 tk ( ) 1 1IA Th (s(t) ) dh Q(dt) (n + 1)µ j=0 K ∑jk=1 tk = 1 (n + 1)µ ∑j+1 ∫ ∫ K 0 ∑n+1 k=1 tk ( ) 1IA Th (s(t) ) dh Q(dt) . 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN • Hieraus folgt, dass für jedes • t∈R PQ (Tt (A)) = 1 (n + 1)µ = 1 (n + 1)µ 1 (n + 1)µ = ∫ ∫ K 0 ∫ ∫ K 0 ∫ ∫ K ∑n+1 k=1 ∑n+1 k=1 ∑n+1 k=1 tk ( ) 1ITt (A) Th (s(t) ) dh Q(dt) tk ( ) 1IA Th−t (s(t) ) dh Q(dt) tk +t ( ) 1IA Th (s(t) ) dh Q(dt) . t Insgesamt ergibt sich also die Abschätzung |PQ (A) − PQ (Tt (A))| ≤ • 131 2|t| (n + 1)µ Weil die linke Seite des letzten Ausdruckes nicht von gewählt werden kann, gilt also PQ (A) = PQ (Tt (A)) ∀n ≥ 0. n n beliebig groÿ A ∈ B(L) und t ∈ R. abhängt und für beliebige Beachte Durch Vertauschung der Integrationsreihenfolge ergibt sich, dass (11) äquivalent ist mit PQ (A) = 1 µ ∫ ∞ ( ) Q t : t1 > h, Th (s(t) ) ∈ A dh ∀ A ∈ B(L) . (13) 0 Korollar 4.1 • deniert, wobei PQ • {Sen } sei über dem kanonischen Wahrscheinlichkeitsraum (L, B(L), PQ ) Sek ({sn }) = sk für jedes k ∈ {0, ±1, ±2, . . .} und das Wahrscheinlichkeitsmaÿ Die Folge von Zufallsvariablen durch (11) gegeben ist. Durch den Ansatz et = N ist dann ein Zählprozess Beweis ∑∞ 1I(Sek ≤ t) für t ≥ 0, e k=−∞ 1I(Sk > t) für t<0 k=1 − et , t ∈ R} {N (14) ∑0 über (L, B(L), PQ ) gegeben, der stationäre Zuwächse hat. Die Behauptung ergibt sich unmittelbar aus der in Theorem 4.4 gezeigten des Wahrscheinlichkeitsmaÿes Beachte PQ . TInvarianz Für den in Abschnitt 4.1.1 betrachteten Spezialfall, bei dem die Zwischenankunftszeiten Tn = Sn − Sn−1 eine Folge von unabhängigen und identisch (exponentiell) verteilten Zufalls- variablen bilden, kann man sich leicht überlegen, dass dann der in (14) gegebene Zählprozess et , t ∈ R} {N ein homogener PoissonProzess ist. 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN 132 4.1.3 Erneuerungsprozesse mit stationären Zuwächsen Wir setzen nun voraus, dass S0 = 0 und dass die Zwischenankunftszeiten Tn = Sn −Sn−1 eine Folge von unabhängigen und identisch verteilten Zufallsvariablen mit einer beliebigen Verteilungsfunktion F bilden. • Sei {Sen } die in Korollar 4.1 betrachtete Folge von zufälligen Zeitpunkten mit . . . Se−1 < Se0 < 0 < Se1 < Se2 < . . . . • Wir zeigen, dass dann die neuen Zwischenankunftszeiten Ten = Sen − Sen−1 für n ̸= 1 ebenfalls eine Folge von unabhängigen und identisch verteilten Zufallsvariablen mit der gleichen Verteilungsfunktion F wie Tn bilden, wobei jedoch die Abstände Se1 Se1 und −Se0 vom Nullpunkt zum kleinsten positiven Zeitpunkt Se0 eine besondere Rolle spielen, bzw. zum gröÿten negativen Zeitpunkt denn im allgemeinen müssen die Zufallsvariablen noch die Verteilungsfunktion F der Abstände Ten −Se0 und Se1 n ̸∈ {0, 1} mit weder unabhängig sein besitzen. Beachte • Wenn die Zwischenankunftszeiten Tn = Sn − Sn−1 eine Folge von unabhängigen und identisch verteilten Zufallsvariablen bilden, dann sagt man, dass der in (1) gegebene stochastische Prozess {Nt , t ∈ R} ein gewöhnlicher Erneuerungszählprozess bzw. kurz Sn der n-te Erneuerungszeitpunkt heiÿt. et , t ∈ R} mit stationären dass der in (14) gegebene Zählprozess {N ein Erneuerungsprozess ist, wobei • Auÿerdem sagt man, Zuwächsen ein verzögerter Erneuerungsprozess ist. Theorem 4.5 • Die Verteilung Q von {Tn } über (K, B(K)) sei das Produktmaÿ,∫ das durch die (eindimensionale ∞ Rand) Verteilungsfunktion F erzeugt wird, so dass 0 < µ = 0 (1 − F (y)) dy < ∞. • Für die in Korollar 1. Für n ̸= 1 4.1 betrachtete Folge sind die Zufallsvariablen F. { } e Tn , n ̸= 1 {Sen } von zufälligen Zeitpunkten gilt dann: Ten = Sen − Sen−1 unabhängig und identisch verteilt mit der Verteilungsfunktion 2. Die zufällige Folge und der Zufallsvektor (−Se0 , Se1 ) (−Se0 , Se1 ) ist gegeben durch ∫ ∞ 1 PQ (−Se0 > u, Se1 > v) = (1 − F (y) dy µ u+v sind unabhängig. 3. Die gemeinsame Verteilung von ∀ u, v ≥ 0 . (15) 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN 133 Beweis • Für k ≥ 1, für beliebige u, v, u1 , . . . , uk ≥ 0 und für beliebige n1 , . . . , nk ̸= 1 mit n1 < . . . < nk sei { } A = −Se0 > u, Se1 > v, Sen1 − Sen1 −1 > u1 , . . . , Senk − Senk −1 > uk . • Dann ergibt sich aus (13), dass ( ) PQ −Se0 > u, Se1 > v, Sen1 − Sen1 −1 > u1 , . . . , Senk − Senk −1 > uk ∫ ∞ ( ) 1 Q t : t1 > h, Th (s(t) ) ∈ A dh = µ 0 ∫ ∞ ( ) 1 = Q t : t1 > h, h > u, t1 − h > v, tn1 > u1 , . . . , tnk > uk dh µ 0 ∫ ∞ k ∏ ( ) 1 = Q t : t1 > h, h > u, t1 − h > v dh (1 − F (uj )) µ 0 j=1 = 1 µ ∫ ∞ (1 − F (h)) dh u+v k ∏ (1 − F (uj )) , j=1 wobei sich die vorletzte Gleichheit aus der Annahme ergibt, dass (K, B(K)) ist. Q ein Produktmaÿ über 4.1.4 Semi-Markowsche Zählprozesse; Simulationsalgorithmus R Eine weitere Klasse von Zählprozessen in Theorem 4.4 betrachtete U-invariante mit stationären Zuwächsen ergibt sich, wenn das in Wahrscheinlichkeitsmaÿ Q über (K, B(K)) die folgende (ver- allgemeinerte) Produktdarstellung besitzt. Dabei verwenden wir einige grundlegende Begrie aus der Theorie der zeitdiskreten MarkowKetten, vgl. das Skript zur Vorlesung MarkowKetten und MonteCarloSimulation im SS 2003. Theorem 4.6 • Sei ℓ≥1 eine beliebige natürliche Zahl und sei Auÿerdem sei P = (pij )i,j=1,...,ℓ E = {1, . . . , ℓ} ein endlicher Zustandsraum. eine irreduzible und aperiodische pij ≥ 0 , ℓ ∑ ℓ×ℓ Matrix mit pij = 1 , (16) j=1 sei π = (π1 , . . . , πℓ )⊤ die (eindeutig bestimmte) positive Lösung der Gleichung π⊤ = π⊤ P , (17) 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN • und für beliebige Die Verteilung Q i, j ∈ E sei Fij : R → [0, 1] der stationären Folge {Tn } eine Verteilungsfunktion mit über (K, B(K)) ∑ ( ) Q t ∈ K : tn ≤ u0 , tn+1 ≤ u1 . . . , tn+m ≤ um = n ∈ {0, ±1, ±2, . . .}, m ≥ 0 πi0 m−1 ∏ pik ik+1 Fik ik+1 (uk ) u0 , . . . , um ≥ 0, so dass ∫ ∞ ( ) ∑ µ = E T1 = πi0 pij (1 − Fij (y)) dy < ∞ . 0 4.1 betrachtete Folge {Sen } von zufälligen v, un , . . . , um ≥ 0 ∩ ( ) PQ {−Se0 > u0 , Se1 > v} ∩ {Sek − Sek−1 > uk } Dann gilt für die in Korollar n < 0, m > 0 beliebige 1 µ = (18) k=0 und i,j∈E • Fij (0) = 0. sei gegeben durch i0 ,...,im ∈E für beliebige 134 ∑ Zeitpunkten, dass für und ∫ pi0 i1 in ,...,im ∈E k∈{n,...,m}\{0} ∞ ( ∏ ) 1 − Fi0 i1 (y) dy u0 +v ( ) πin pik ik+1 1 − Fik ik+1 (uk )(19) . k∈{n,...,m}\{0} Der Beweis von Theorem 4.6 verläuft ähnlich wie der Beweis von Theorem 4.4. Er wird deshalb weggelassen. Denition • Wenn die Verteilung Q der Zwischenankunftszeiten Tn = Sn − Sn−1 durch (18) gegeben ist, dann sagt man, dass der in (1) gegebene stochastische Prozess {Nt , t ∈ R} Zählprozess ist. In diesem Fall wird der in (14) gegebene Zählprozess ein semiMarkowscher et , t ∈ R} {N ein verzögerter semiMarkowscher Zählprozess (mit stationären Zuwächsen) genannt. • Für ℓ=1 ergeben sich die in Abschnitt 4.1.3 betrachteten Erneuerungprozesse als Spe- zialfall. Beachte • P Die in (16) betrachtete stochastische Matrix MarkowKette aufgefasst werden, wobei π kann als die Übergangsmatrix einer die zugehörige stationäre Anfangsverteilung ist, vgl. Theorem MC-2.5. • Wenn die Verteilungsfunktionen Fij nicht von j 1 − Fij (x) = e−q(i)x wobei q(1), . . . , q(ℓ) abhängen und gegeben sind durch ∀x ≥ 0, eine beliebige Folge positiver Zahlen ist, (20) 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN {Sen } die Folge von Sprungzeitpunkten eines stationären {Xt , t ∈ R} ist, vgl. auch Theorem 2.17. dann kann man zeigen, dass MarkowProzesses • Wenn der MarkowProzess 135 wenn die Eintragungen {Xt , t ∈ R} qij zusätzlich reversibel ist, d.h., seiner Intensitätsmatrix π ei qij = π ej qji Q = (qij ) dem Gleichungssystem ∀ i, j ∈ E e = (e π π1 , . . . , π eℓ )⊤ die (zeit) stationäre Anfangsverteilung des Markow ⊤ {Xt } ist mit π Q = 0, genügen, wobei Prozesses dann ist durch Theorem 4.6 ein Algorithmus zur Simulation des stationären Markow Prozesses {Xt , t ∈ R} gegeben. 4.2 Poissonsche Zählmaÿe im Rd • alle Quader der Form i = 1, . . . , d n≥1 Das B = (a1 , b1 ] × . . . × (ad , bd ] für beliebige B(Rd ) der Borel G von Teilmengen a i , bi ∈ R mit ai ≤ bi für enthält und die abgeschlossen ist bezüglich der Bildung des Komplementes sowie der Vereinigung von d abzählbar vielen Mengen aus G , d.h., für beliebige A, A1 , A2 , . . . ∈ G gilt R \ A ∈ G und ∪ • d ≥ 2 eine beliebige natürliche Zahl. Die σ Algebra d Mengen im ddimensionalen euklidischen Raum R ist die kleinste Familie d des R , die Zur Erinnerung: Sei Ai ∈ G . ddimensionale LebesgueMaÿ νd : B(Rd ) → [0, ∞] Werte νd (B) = d ∏ wird eindeutig bestimmt durch seine (bi − ai ) i=1 für alle BorelMengen der Form jedes B = (a1 , b1 ] × . . . × (ad , bd ] mit a i , bi ∈ R und ai ≤ bi für i = 1, . . . , d. Theorem 4.7 • Sei {NB , B ∈ B(Rd )} ein zufälliges Zählmaÿ, d.h., für paarweise disjunkte B1 , B2 , . . . ∈ B(Rd ) gelte N∪∞ = n=1 Bn ∞ ∑ N Bn , (1) n=1 und sei Md die Familie der halboenen { ddimensionalen Quader in Rd , d.h., } Md = B ⊂ Rd : B = (a1 , b1 ] × . . . × (ad , bd ], ai , bi ∈ R, ai ≤ bi ∀ i = 1, . . . , d . (2) 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN • Dann ist die Verteilung des zufälligen Zählmaÿes 136 {NB } eindeutig bestimmt durch die Familie {PB1 ,...,Bn (k1 , . . . , kn ) : n ≥ 1, k1 , . . . , kn ≥ der endlichdimensionalen Wahrscheinlichkeiten 0, B1 , . . . , Bn ∈ Md }, wobei PB1 ,...,Bn (k1 , . . . , kn ) = P (NB1 = k1 , . . . , NBn = kn ) . Der Beweis von Theorem 4.7 kann mit Hilfe des Satzes über monotone Klassen geführt werden (vgl. Theorem WR-3.2), wobei man ähnlich wie im Beweis von Theorem 4.1 vorgehen kann. 4.2.1 Denition und elementare Eigenschaften Wir führen nun den Begri des Poissonschen Zählmaÿes im ddimensionalen euklidischen Raum Rd ein. Denition [0, ∞] • Sei B0 (Rd ) die Familie aller beschränkten BorelMengen in ein beliebiges lokalendliches Maÿ, d.h., Man sagt, dass Intensitätsmaÿ {NB , B ∈ B(Rd )} µ ist, wenn 1. die Zufallsvariablen B0 (Rd ) und 2. • NB ∼ Poi(µ(B)) µ(B) < ∞ Rd gilt für jedes µ : B(Rd ) → B ∈ B0 (Rd ). und sei ein (inhomogenes) Poissonsches Zählmaÿ mit dem NB1 , NB2 , . . . unabhängig sind für paarweise disjunkte B1 , B2 , . . . ∈ für jedes B ∈ B0 (Rd ) gilt. µ proportional λ < ∞ gilt Wenn zusätzlich vorausgesetzt wird, dass das Intensitätsmaÿ dimensionalen LebesgueMaÿ νd ist, d.h., für eine Konstante µ(B) = λνd (B) dann sagt man, dass {NB } zum d ∀ B ∈ B(Rd ) , ein homogenes Poissonsches Zählmaÿ mit der Intensität Rd ist. λ (bzw. kurz ein homogener PoissonProzess) im Beachte Aus Theorem 4.7 ergibt sich, dass die Bedingungen 1 und 2 in der Denition des PoissonProzesses durch die folgenden (scheinbar schwächeren) Bedingungen ersetzt werden können: 1∗ . Die Zufallsvariablen Md und 2∗ . NB ∼ Poi(µ(B)) NB1 , NB2 , . . . gilt für jedes sind unabhängig für paarweise disjunkte B 1 , B2 , . . . ∈ B ∈ Md . Wir diskutieren zunächst einige elementare Eigenschaften von PoissonProzessen im Rd . Theorem 4.8 µ. Sei {NB , B ∈ B(Rd )} ein PoissonProzess mit dem Intensitätsmaÿ 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN • Dann gilt P (NB1 = k1 , . . . , NBn = kn ) = für beliebige • 137 n ≥ 1, k1 , . . . , kn ≥ 0 n ( ∑ ) µk1 (B1 ) . . . µkn (Bn ) exp − µ(Bi ) k1 ! . . . kn ! i=1 und paarweise disjunkte (3) B1 , . . . , Bn ∈ B0 (Rd ). Auÿerdem genügen die bedingten Wahrscheinlichkeiten P (NB1 = k1 , . . . , NBn = kn | NB = k) B ∈ B0 (Rd ) mit 0 < µ(B) < ∞ und für paarweise disjunkte B1 , . . . , Bn ∈ B0 (Rd ) für jedes ∪n mit i=1 Bi = B einer Multinomialverteilung, d.h., es gilt P (NB1 = k1 , . . . , NBn = kn | NB = k) = für beliebige k, k1 , . . . , kn ≥ 0 mit k! µk1 (B1 ) . . . µkn (Bn ) k1 ! . . . kn ! µk (B) (4) k = k1 + . . . + kn . Der Beweis von Theorem 4.8 ergibt sich unmittelbar aus den Bedingungen 1 und 2 in der Denition des homogenen PoissonProzesses. Mit Hilfe der Theoreme 4.7 und 4.8 lässt sich eine einfache Methode zur Konstruktion von Poisson Prozessen mit endlichem Intensitätsmaÿ herleiten. Korollar 4.2 bzw. µ : B(Rd ) → [0, ∞) ein beliebiges Maÿ mit 0 < µ(Rd ) < ∞, und N : Ω → [0, ∞) S1 , S2 , . . . : Ω → Rd seien unabhängige Zufallsvariablen mit Sei N ∼ Poi(µ(Rd )) , Dann ist das zufällige Zählmaÿ Si ∼ {NB , B ∈ B(Rd )} µ(·) µ(Rd ) (5) ∀ B ∈ B(Rd ) (6) mit NB = #{i : 1 ≤ i ≤ N, Si ∈ B} ein PoissonProzess mit dem Intensitätsmaÿ ∀i ≥ 1. µ. Beweis • Mit der Schreibweise p(B) = µ(B) µ(Rd ) ∀ B ∈ B(Rd ) ergibt sich aus (5) und (6), dass P (NB1 = k1 , . . . , NBn = kn | N = k) = n ≥ 1, für beliebige, paarweise disjunkte∪B1 , . . . , Bn ∈ B(Rd ) und für k0 , k1 , . . . , kn ≥ n k = k0 + k1 + . . . + kn , wobei B0 = Rd \ i=1 Bi . für jedes 0 mit k! pk0 (B0 ) pk1 (B1 ) . . . pkn (Bn ) k0 !k1 ! . . . kn ! 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN • 138 Hieraus folgt, dass ∞ ∑ P (NB1 = k1 , . . . , NBn = kn ) = P (N = k) P (NB1 = k1 , . . . , NBn = kn | N = k) k=k1 +...+kn ∞ ∑ = d k=k1 +...+kn ∞ ∑ = k=k1 +...+kn e−µ(B0 ) µk−k1 −...−kn (B0 ) e−µ(R \B0 ) k1 µ (B1 ) . . . µkn (Bn ) (k − k1 − . . . − kn )! k1 ! . . . k n ! d d n ∏ e−µ(Bi ) µki (Bi ) e−µ(R \B0 ) k1 µ (B1 ) . . . µkn (Bn ) = . k1 ! . . . kn ! ki ! i=1 = • e−µ(R ) µk (Rd ) k! pk−k1 −...−kn (B0 ) pk1 (B1 ) . . . pkn (Bn ) k! (k − k1 − . . . − kn )!k1 ! . . . kn ! Vergleicht man dieses Ergebnis mit der Formel (3) in Theorem 4.8, dann erkennt man, dass das in (6) gegebene zufällige Zählmaÿ die gleichen endlich-dimensionalen Verteilungen hat wie ein PoissonProzess mit dem Intensitätsmaÿ • µ. Hieraus und aus Theorem 4.7 ergibt sich sich nun die Behauptung. Beachte • µ Wenn das Intensitätsmaÿ λ<∞ die in (5) betrachteten (unabhängigen) Zufallsvektoren • = λνd (B ∩ C) hat für ein 0 < νd (C) < ∞, dann sind S1 , S2 , . . . gleichverteilt in C . in Korollar 4.2 die Form µ(B) C ∈ B0 (Rd ) mit und eine beschränkte BorelMenge Wenn zusätzlich angenommen wird, dass die Menge C ein ddimensionaler Quader der Form C = (a1 , b1 ] × . . . × (ad , bd ] ist, dann hat der Zufallsvektor Komponenten • Si1 , . . . , Sid , Si = (Si1 , . . . , Sid ) für jedes i = 1, . . . , n Sij ∼ U(aj , bj ) für jedes j = 1, . . . , d. (7) unabhängige wobei Die Aussage von Korollar 4.2 wird deshalb manchmal die bedingte Gleichverteilungsei- genschaft von homogenen PoissonProzessen in beschränkten BorelMengen genannt. Das folgende Resultat über die Summation von unabhängigen PoissonProzessen ist ein Analogon der Faltungsstabilität von PoissonVerteilungen. Theorem 4.9 (1) (2) d {NB }, {NB }, . . . eine Folge ∑ unabhängiger PoissonProzesse in R ∞ Intensitätsmaÿen µ1 , µ2 , . . ., so dass das Maÿ µ = i=1 µi lokal endlich ist. Dann ist das ∑∞ (i) Zählmaÿ {NB } mit NB = i=1 NB ein PoissonProzess mit dem Intensitätsmaÿ µ. Sei mit den zufällige Beweis • Wir zeigen zunächst, dass NB ∼ Poi(µ(B)) ∀ B ∈ B0 (Rd ) . (8) 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN (1) (2) (1) Aus der Faltungsstabilität von PoissonVerteilungen ergibt sich somit, dass für jedes n ≥ 1 und für jedes B ∈ B0 (Rd ) n ∑ (i) NB ∼ Poi( µi (B)) . i=1 i=1 Hieraus und aus der Monotonie von Wahrscheinlicheitsmaÿen ergibt sich, dass für d beliebige k ≥ 0 und B ∈ B0 (R ) P (NB ≤ k) = P ∞ (∑ (i) NB ) ≤ k = lim P n→∞ i=1 n (∑ (i) NB ≤ k ) i=1 ( ∑n ) (∑n )j k ∑ exp − i=1 µi (B) i=1 µi (B) = lim n→∞ j! j=0 ( ) ( ) j k ∑ exp −µ(B) µ(B) . = j! j=0 • Damit ist (8) bewiesen. Um den Beweis zu beenden, ist noch zu zeigen, dass die Zufallsvariablen NB1 , NB2 , . . . , NBn n ≥ 2 und paarweise disjunkte B1 , . . . , Bn ∈ B0 (Rd ) unabhängig sind. für jedes Weil die Zufallsvariablen (i) {NBj , i = 1, . . . , m, j = 1, . . . , n} für beliebige m, n ≥ 1 un- abhängig sind, ergibt sich aus dem Satz über die Unabhängigkeit zusammengesetzter ∑m (i) Abbildungen (vgl. Theorem WR-3.18), dass auch die Zufallsvariablen { i=1 NBj , j = 1, . . . , n} unabhängig sind. Wegen der Monotonie von Wahrscheinlicheitsmaÿen kann man nun leicht zeigen, dass die Zufallsvariablen ∞ { } {∑ } (i) NBj , j = 1, . . . , n = NBj , j = 1, . . . , n i=1 ebenfalls unabhängig sind. Wir zeigen nun noch, dass die Einschränkung von PoissonProzessen auf Borelsche Teilmengen des Rd erneut zu PoissonProzessen führt. Theorem 4.10 Sei B0 ∈ B(R ) eine eB = NB∩B ein N 0 B ∈ B(Rd ). d (2) {NB }, {NB }, . . . unabhängige Zählmaÿe sind, sind die Zufallsvariablen NB , NB , . . . (i) d unabhängig, wobei NB ∼ Poi(µi (B)) für jedes i ≥ 1 und für jedes B ∈ B0 (R ). Weil n ∑ 139 {NB , B ∈ B(Rd )} µ, und sei eB , B ∈ B(Rd )} mit {N µ e(B) = µ(B ∩ B0 ) für jedes ein PoissonProzess mit dem Intensitätsmaÿ beliebige BorelMenge. Dann ist das zufällige Zählmaÿ PoissonProzess mit dem Intensitätsmaÿ µ e, wobei 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN 140 Beweis • Weil {NB } eB = NB∩B N 0 • µ ( ) ∼ Poi µ(B ∩ B0 ) = Poi(e µ(B)) ein PoissonProzess mit dem Intensitätsmaÿ ist, gilt ∀ B ∈ B0 (Rd ) . auch die Mengen B1 ∩ eB = NB ∩B , . . . , N eB = B0 , . . . , Bn ∩B0 paarweise disjunkt sind, sind die Zufallsvariablen N 1 1 0 n NBn ∩B0 unabhängig. Weil für beliebige paarweise disjunkte B1 , . . . , Bn ∈ B0 (Rd ) 4.2.2 Messbare Indizierung der Atome In diesem Abschnitt betrachten wir den Begri der messbaren Indizierung der (zufälligen) Atome d von PoissonProzessen, der einen konstruktiven Zugang zu PoissonProzessen im R und somit die mathematische Grundlage von Simulationsalgorithmen bildet, vgl. auch die Abschnitte 4.2.3 und 4.2.4. Beachte Man sagt, dass die Folge {Sei } von Zufallsvektoren S , i Sei = ∞, falls Se1 , Se2 , . . . : Ω → Rd ∪ {∞} mit N ≥ i, (9) sonst eine messbare Indizierung der (zufälligen) Atome des in (6) gegebenen zufälligen Zählmaÿes {NB } ist. Von nun an werden wir stets voraussetzen, dass das Intensitätsmaÿ µ : B(Rd ) → [0, ∞] dius ist, d.h., es gelte µ({x}) = 0 ∀ x ∈ Rd . (10) Der folgende Hilfssatz wird manchmal Disjunktheitstheorem genannt. Wir nutzen dieses Ergebnis, um zu zeigen, dass man auch für Poissonsche Zählmaÿe mit einem beliebigen (diusen und lokal endlichen) Intensitätsmaÿ eine messbare Indizierung der Atome konstruieren kann. Lemma 4.1 • den (1) (2) {NB , B ∈ B(Rd )} und {NB , B ∈ B(Rd )} zwei unabhängige d d Intensitätsmaÿen µ1 bzw. µ2 , so dass 0 < µ1 (R ), µ2 (R ) < ∞. Seien PoissonProzesse mit • e(1) } und {Se(2) } unabhängige messbare Indizierungen der Atome von Auÿerdem seien {S i i (2) bzw. {NB }, die gemäÿ (9) gegeben sind. • Dann gilt für beliebige i, j ≥ 1 ( (1) ) (2) (1) (2) P {Sei ̸= Sej } ∪ {Sei = Sej = ∞} = 1 . (1) {NB } (11) 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN 141 Beweis • Es genügt zu zeigen, dass für beliebige i, j ≥ 1 i ̸= j ) ̸= ∞} = 0 . • p(i) (B) = µi (B)/µi (Rd ) für i = 1, 2 und B ∈ B(Rd ) ergibt sich aus e(1) und Se(2) , dass der Unabhängigkeit der Zufallsvektoren S i j ( (1) ) ( ) (2) (2) (1) (2) P {Sei = Sej } ∩ {Sej ̸= ∞} = P {Si = Sj } ∩ {N (2) ≥ j} ∫ ) ( (1) (2) (2) (2) (2) (1) (2) (2) P Si = Sj | Sj = s P (Sj ∈ ds) = P (N ≥ j)P (Si = Sj ) = P (N ≥ j) d R ∫ ∫ (1) (2) (2) = P (N ≥ j) P (Si = s) p (ds) = P (N (2) ≥ j) p(1) ({s}) p(2) (ds) = 0 , mit ( (1) (2) (2) P {Sei = Sej } ∩ {Sej Mit der Schreibweise Rd Rd wobei in der letzten Gleichheit die Tatsache genutzt wurde, dass das Intensitätsmaÿ (1) dius ist und dass somit p ({s}) = 0 für jedes s ∈ Rd . Beachte Aus Lemma 4.1 ergibt sich insbesondere, dass durch (1) Si , (2) e Si = S (1) , i−N d R ∞ {Sei } µ1 mit (1) falls NRd ≥ i, falls NRd + NRd ≥ i > NRd (1) (2) (1) (12) , sonst eine messbare Indizierung der Atome des zufälligen Maÿes {NB } mit (1) (2) NB = NB + NB gegeben ist. Wir übertragen nun den in (12) gegebenen Ansatz auf den Fall von beliebigen (endlichen bzw. abzählbar unendlichen) Summen unabhängiger PoissonProzesse. Theorem 4.11 µ : B(Rd ) → [0, ∞] ein S1 , S2 , . . . : Ω → Rd ∪ {∞} Sei gibt es eine Folge {NB , B ∈ B(Rd )} mit beliebiges diuses und lokal endliches Maÿ. Dann von Zufallsvektoren, so dass das zufällige Zählmaÿ NB = #{i : Si ∈ B} ein PoissonProzess mit dem Intensitätsmaÿ µ ∀ B ∈ Rd (13) ist. Beweis • Man kann sich leicht überlegen, dass sich µ als (abzählbar unendliche) Summe von endd lichen Maÿen µ1 , µ2 , . . . : B(R ) → [0, ∞) darstellen lässt, so dass µ(B) = ∞ ∑ j=1 µj (B) ∀ B ∈ B(Rd ) . (14) 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN • Dabei können wir o.B.d.A. annehmen, dass • Gemäÿ Korollar 4.2 gibt es dann für jedes µj (Rd ) > 0 j ≥ 1. (j) (j) j ≥ 1 unabhängige Zufallsvariablen N (j) , S1 , S2 , . . . mit (j) N (j) ∼ Poi(µj (Rd )) , für jedes 142 Si ∼ µj (·) µj (Rd ) ∀i ≥ 1, so dass durch den Ansatz (j) (j) NB = #{i : 1 ≤ i ≤ N (j) , Si ∈ B} ∀ B ∈ B(Rd ) (j) {NB , B ∈ B(Rd )} mit dem Intensitätsmaÿ µj gegeben ist. (1) (1) (2) (2) Dabei können die Folgen {N , S1 , S2 , . . .}, {N (2) , S1 , S2 , . . .}, . . . so gewählt werden, dass sie ihrerseits unabhängig sind. (1) (2) Damit sind auch die PoissonProzesse {NB }, {NB }, . . . unabhängig. ∑∞ (i) Aus Theorem 4.9 ergibt sich nun, dass das zufällige Zählmaÿ {NB } mit NB = i=1 NB ein PoissonProzess mit dem Intensitätsmaÿ µ ist. ein PoissonProzess (1) • • Darüber hinaus ergibt sich aus Lemma 4.1, dass durch die Folge {Si } von Zufallsvektoren mit (1) Si , (2) S , i−N (1) Si = falls N (1) ≥ i, falls N (1) + N (2) ≥ i > N (1) , falls N (1) + . . . + N (j) ≥ i > N (1) + . . . + N (j−1) . . . (j) Si−N (1) −...−N (j−1) , ∞ für ein j > 2, sonst eine messbare Indizierung der Atome von {NB } gegeben ist, so dass (13) gilt. 4.2.3 Simulationsalgorithmus; Akzeptanz und Verwerfungsmethode {NB , B ∈ B(Rd )} ein PoissonProzess mit dem (diusen und lokal endlichen) Intensitätsmaÿ µ, und seien B1 , . . . , Bn ∈ Md paarweise disjunkte Quader mit der in (2) gegebenen Form, so dass µ(Bi ) > 0 für jedes i = 1, . . . , n. ∪n Um den PoissonProzess {NB } in der beschränkten BorelMenge C = i=1 Bi zu simulieren, Sei genügt es zu beachten, • dass das zufällige Zählmaÿ eB } mit N eB = NB∩C gemäÿ Theorem {N µ e ist wobei µ e(B) = µ(B ∩ C), 4.10 ein PoissonProzess mit dem endlichen Zählmaÿ • und dass man deshalb gemäÿ Theorem 4.8 bzw. Korollar 4.2 wie folgt vorgehen kann: Schritt 0 Generiere eine Realisierung von NC ∼ Poi(µ(C)). 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN Schritt 1 Falls NC = k , 143 dann generiere eine Realisierung des multinomial verteilten Zufalls- vektors (N1 , . . . , Nn ) ∼ Mult(k; p1 , . . . , pn ) , wobei pi = µ(Bi )/µ(C) Schritt 2 k1 Falls für jedes i = 1, . . . , n. (N1 , . . . , Nn ) = (k1 , . . . , kn ), dann generiere (1) (1) (n) (n) unabhängige Zufallsvektoren S1 , . . . , Sk1 ∼ µ(· ∩ B1 )/µ(B1 ), unabhängige Zufallsvektoren S1 , . . . , Skn ∼ µ(· ∩ Bn )/µ(Bn ), . . . kn wobei die Zufallsvektoren (1) (1) (n) (n) (S1 , . . . , Sk1 ), . . . , (S1 , . . . , Skn ) ebenfalls unabhängig sind. Beachte (1) (1) (n) (n) (1) (1) (n) • Seien • (1) (1) (n) (n) Dann ist die (nichtgeordnete) Menge {s1 , . . . , sk , . . . , s1 , . . . , sk } von Punkten im 1 n ∪n Rd eine Realisierung der Atome des PoissonProzesses {NB } in der Menge C = i=1 Bi . B1 , . . . , Bn ∈ Md ∪n i=1 Bi besteht, dann kann die praktische Umsetzung der Simulationsschritte 1 und 2 mit einem groÿen Wenn die Anzahl n der Quader groÿ ist, aus denen die Menge C = Rechenaufwand verbunden sein. • In diesem Fall kann es ezienter sein, den PoissonProzess und Verwerfungsmethode in • C {NB } mit der folgenden Akzeptanz zu simulieren. Diese Methode hat darüber hinaus den Vorteil, dass das Gebiet Prozess {NB } Sei also C ⊂ Rd , in dem Poisson simuliert wird, eine beliebige beschränkte BorelMenge sein kann. C ∈ B0 (Rd ) eine beliebige beschränkte BorelMenge mit 0 < µ(C) < ∞, und sei e = (a1 , b1 ] × . . . × (ad , bd ] C ddimensionaler PoissonProzess {NB } in ein (beschränkter) Quader mit Um den der Menge e. C⊂C C zu simulieren, kann man nun gemäÿ Theorem 4.10 wie folgt vorgehen: Schritt 0 Generiere eine Realisierung von Schritt 1 Falls Zufallsvektoren Menge C NC ∼ Poi(µ(C)). NC = k , dann generiere so lange Realisierungen s1 , s2 , . . . der unabhängigen e e , bis k der Pseudozufallszahlen s1 , . . . , sn in der S1 , S2 , . . . ∼ µ(· ∩ C)/µ( C) liegen, wobei { } n = min #{i : si ∈ C, 1 ≤ i ≤ j} ≥ k . j≥1 Schritt 3 (n) (s1 , . . . , sk1 ), . . . , (s1 , . . . , skn ) Realisierungen von (S1 , . . . , Sk1 ), . . . , (S1 , . . . , Skn ). {si : si ∈ C, 1 ≤ i ≤ n} von PoissonProzesses {NB } in der Menge C . Dann ist die (nichtgeordnete) Menge eine Realisierung der Atome des Punkten im Rd 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN 144 4.2.4 Transformationssätze; radiale Simulation von homogenen PoissonProzessen In diesem Abschnitt betrachten wir zwei verschiedene Arten von Transformationen von Poisson d Prozesse im R . Für beliebige • d, d′ ≥ 1 Auÿerdem sei seien die BorelMengen T : E → E′ E ∈ B(Rd ) ′ E ′ ∈ B(Rd ) und eine Borelmessbare Abbildung, d.h., es gelte T−1 (B ′ ) = {x ∈ E : T(x) ∈ B ′ } ∈ B(E) • gegeben. ∀ B ′ ∈ B(E ′ ) , wobei die Urbilder von beschränkten BorelMengen beschränkt seien, d.h., es gelte T−1 (B ′ ) ∈ B0 (E) Beachte Sei [0, ∞]. {NB , B ∈ B(E)} ∀ B ′ ∈ B0 (E ′ ) . ein beliebiges Zählmaÿ in E mit dem Intensitätsmÿ µ : B(E) → Man kann sich leicht überlegen, dass dann durch den Ansatz ∀ B ′ ∈ B(E ′ ) NB′ ′ = NT−1 (B ′ ) ′ ′ ′ ein zufälliges Zählmaÿ {NB ′ , B ∈ B(E )} in ′ ′ B(E ) → [0, ∞] von {NB ′ } gegeben ist durch E′ (15) Sei {NB , B ∈ B(E)} µ. µ′ : gegeben ist, wobei das Intensitätsmaÿ µ′ (B ′ ) = E NB′ ′ = E NT−1 (B ′ ) = µ(T−1 (B ′ )) Theorem 4.12 (15) ein PoissonProzess in E ∀ B ′ ∈ B(E ′ ) . (16) mit dem (diusen und lokal end- lichem) Intensitätsmaÿ • ′ Dann ist das in (15) gegebene zufällige Zählmaÿ {NB ′ , ′ ′ E , dessen Intensitätsmaÿ µ durch (16) gegeben ist. • Wenn {Si } eine messbare Indizierung der E → E ′ eineindeutig ist, dann ist durch Atome von B ′ ∈ B(E ′ )} {NB } ein PoissonProzess in ist und wenn die Abbildung Si′ = T′ (Si ) ′ eine messbare Indizierung {Si } der Atome von ′ E ∪ {∞} → E ∪ {∞} gegeben ist durch T(x) , T′ (x) = ∞, T: (17) {NB′ ′ } gegeben, wobei die Abbildung falls x ∈ E, falls x = ∞. T′ : 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN 145 Beweis • Oenbar gilt • Wenn NB′ ′ = NT−1 (B ′ ) ∼ Poi(µ(T−1 (B ′ )). ′ B1′ , . . . , Bn′ ∈ B0d (E ′ ) paarweise disjunkte BorelMengen sind, dann sind −1 Urbilder T (B1′ ), . . . , T−1 (Bn′ ) paarweise disjunkt und die Zufallsvariablen auch die NB′ 1′ = NT−1 (B1′ ) , . . . , NB′ n′ = NT−1 (Bn′ ) sind somit unabhängig. • Si′ = T′ (Si ) : Ω → E ′ ∪ {∞} für jedes i ≥ 1 messbar, ′ ′ die Abbildungen Si : Ω → E ∪ {∞} und T : E ∪ {∞} → E ∪ {∞} messbar sind, ′ ′ es gilt für jedes B ∈ B(E ) Auÿerdem ist die Abbildung weil und NB′ ′ = NT−1 (B ′ ) = #{i : Si ∈ T−1 (B ′ )} = #{i : T′ (Si ) ∈ B ′ } . • Also ist Beispiele Sei {T′ (Si )} eine messbare Indizierung der Atome von {NB , B ∈ B(E)} ein homogener PoissonProzess in {NB′ ′ }. E = (0, ∞) mit der Intensität λ = 1. 1. Sei • • E ′ = E = (0, ∞) Dann ist {NB′ ′ } und T(x) = x2 . (0, ∞). µ′ von {NB′ ′ } ist absolutstetig bezüglich dem (1dimensionalen) ν1 (· ∩ (0, ∞)), wobei die Dichte gegeben ist durch ein PoissonProzess in Das Intensitätsmaÿ LebesgueMaÿ dµ′ 1 (x) = √ dx 2 x 2. Sei • E′ = E × E und die Abbildung T: E →E×E ∀x > 0. sei gegeben durch T(x) = (x, x2 ). {Si } der Sprungzeitpunkte des (Poissonschen) Zählprozesses Nt = N(0,t] eine messbare Indizierung der Atome von {NB }. • Auÿerdem ist {Si′ } = {(Si , Si2 )} eine messbare Indizierung der Atome eines Poisson ′ 2 Prozesses {NB ′ } in (0, ∞) , ′ • dessen Intensitätsmaÿ µ auf dem Funktionsgraphen {(x, x2 ) : x > 0} konzentriert Dann ist die Folge {Nt , t > 0} mit ist. • ′ Beachte: Das heiÿt insbesondere, dass die Atome von {NB ′ } mit Wahrscheinlichkeit 2 1 in einer 1dimensionalen Teilmenge von (0, ∞) liegen. d Wir betrachten nun noch eine andere Art der Transformation von PoissonProzessen in R , mit ′ {NB′ ′ } in höherdimensionalen Räumen E ′ ⊂ Rd mit d′ > d ′ ′ ′ konstruieren kann, so dass der Träger des Intensitätsmaÿes µ von {NB ′ } eine d dimensionale deren Hilfe man PoissonProzesse Menge ist. 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN 146 Theorem 4.13 • Sei {NB , B ∈ B(E)} ein PoissonProzess in E mit dem Intensitätsmaÿ und sei {Si } eine messbare Indizierung der Atome von {NB }. • Auÿerdem sei m≥1 eine beliebige natürliche Zahl und µ, so dass U1 , U2 , . . . : Ω → Rm sei eine Folge von unabhängigen und identisch verteilten Zufallsvariablen mit der Verteilung {Si } • µ(E) > 0, PU , die von unabhängig sind. Dann ist durch N ′ (B × C) = #{i : (Si , Ui ) ∈ B × C} ein PoissonProzess {NB′ ′ } in E ′ = E × Rm ∀ B ∈ B(E), C ∈ B(Rm ) mit dem Intensitätsmaÿ (18) µ ′ = µ × PU gegeben. Beweis • Wir betrachten zunächst den Fall, dass {NB } {Si } der Atome durch (5) und (9) gegeben ist. Dann sind die Zufallsvektoren S1′ , S2′ , . . . Si′ ∼ ein endliches Maÿ ist. Dann können wir o.B.d.A. annehmen, dass die messbare Indizierung von µ mit Si′ = (Si , Ui ) µ(·) × PU µ(E) unabhängig, und es gilt ∀i ≥ 1. Aus Korollar 4.2 ergibt sich nun, dass durch den Ansatz NB′ ′ = #{i : 1 ≤ i ≤ N, Si′ ∈ B ′ } ein PoissonProzess NB′ ′ in E ′ = E × Rm ∀ B ′ ∈ ( E × R⇕ ) mit dem Intensitätsmaÿ µ′ gegeben ist, wobei ( µ(B) ) µ′ (B × C) = µ(E) × PU (C) = µ(B) × PU (C) µ(E) ∀ B ∈ B(E), C ∈ B(Rm ) . Damit ist die Behauptung unter der zusätzlichen Annahme bewiesen, dass µ endlich ist. • Wenn µ ein beliebiges (diuses und lokal endliches) Maÿ ist, ′ dann können wir µ = µ × ′ ′ Maÿen µ1 , µ2 , . . . darstellen PU als (abzählbar unendliche) Summe von endlichen und anschlieÿend so wie im Beweis von Theorem 4.11 vorgehen. Beachte • Ähnlich wie bei den zusammengesetzten PoissonProzessen in [0, ∞), die in Abschnitt 2.2.2 Ui als eingeführt worden sind, können die in Theorem 4.13 betrachteten Zufallsvariablen Marken der Atome Si aufgefasst werden. 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN • Dabei sagt man, dass die Folge {(Si , Ui )} 147 der markierten Atome eine messbare Indizie- rung eines unabhängig markierten PoissonProzesses ist. Mit Hilfe der Theoreme 4.12 und 4.13 konstruieren wir nun einen Algorithmus zur radialen Simu2 lation von homogenen PoissonProzessen im R . • Sei T1 , T2 , . . . : Ω → [0, ∞) Ti ∼ Exp(1) für riablen mit • Für jedes λ>0 eine Folge von unabhängigen und identisch verteilten Zufallsvajedes i ≥ 1, ergibt sich dann aus Theorem 4.12, dass durch v i { u } u∑ Tk t NB = # i : ∈B πλ ∀ B ∈ B([0, ∞)) k=1 ein PoissonProzess {NB , B ∈ B([0, ∞))} [0, ∞) in gegeben ist, dessen Intensitätsmaÿ µ absolutstetig ist mit der Dichte dµ (x) = 2πλx dx • ∀x ≥ 0. v u i u∑ Ti Si = t πλ Dabei ist durch ∀i ≥ 1 k=1 eine messbare Indizierung • Auÿerdem sei {Si } der Atome von {NB } gegeben. U1 , U2 , . . . : Ω → [0, 2π) eine Folge von unabhängigen Ui ∼ U([0, 2π)), die unabhängig von {Ti } ist. und identisch verteilten Zufallsvariablen mit • Dann ergibt sich aus Theorem 4.13, dass PoissonProzesses in [0, ∞) × [0, 2π) {(Si , Ui )} eine messbare Indizierung der Atome eines µ × U(0, 2π) gegeben ist, dessen Intensitätsmaÿ durch ist. • Die erneute Anwendung von Theorem 4.12 auf die Abbildung ∀ s ≥ 0, u ∈ [0, 2π) T(s, u) = (s cos u, s sin u) {T(Si , Ui )} eine messbare R2 mit der Intensität λ ist. ergibt schlieÿlich, dass PoissonProzessen in r>0 Schritt 0 wobei mit (19) Indizierung der Atome eines homogenen Um einen homogenen PoissonProzess mit der Intensität mit Radius T : [0, ∞) × [0, 2π) → R2 λ im Kreis B(0, r) = {x ∈ R2 : |x| ≤ r} zu simulieren, kann man also wie folgt vorgehen: t1 , t2 , . . . , tn(r) gemäÿ v i } { u u∑ tk ≤r . n(r) = max i : t πλ Generiere die Pseudozufallszahlen k=1 der Verteilung Exp(1), 4 STOCHASTISCHE PROZESSE MIT ALLGEMEINEREN INDEXMENGEN Schritt 1 Generiere die Pseudozufallszahlen Schritt 2 Berechne die Pseudozufallsvektoren u1 , u2 , . . . , un(r) v u i u∑ tk si = t πλ 148 gemäÿ der Verteilung (s1 , u1 ), . . . , (un(r) , un(r) ), U(0, 2π). wobei ∀i ≥ 1. k=1 Schritt 3 Schritt 4 (s1 , u1 ), . . . , (un(r) , un(r) ) T : [0, ∞) × [0, 2π) → R2 . Transformiere die Pseudozufallsvektoren in (19) gegebenen Abbildung Generiere so die Realisierung Prozesses mit der Intensität λ im Kreis mit Hilfe der T(s1 , u1 ), . . . , T(un(r) , un(r) ) eines homogenen Poisson B(0, r) = {x ∈ R2 : |x| ≤ r}.