Ausarbeitung: Der Wienerprozess von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 19. Februar 2010 Inhaltsverzeichnis 6 Der 6.1 6.2 6.3 6.4 Wienerprozess Fortsetzung des Wienerprozesses auf [0, ∞) . . . Die (quadratische) Variation des Wienerprozesses Lévy’s Konstruktion des Wienerprozesses . . . . Stetigkeitseigenschaften des Wienerprozesses . . . 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 3 4 7 10 6 Der Wienerprozess Definition 6.1. (i) Das Wahrscheinlichkeitsmaß µ auf dem messbaren Raum (C[0, 1], BC[0,1] ) mit Randverteilungen µ ◦ πt−1 = N (0, (ti ∧ tj )i,j=1,...,m ) 1 ,...,tm für m ∈ N und t1 , . . . , tm ∈ [0, 1] heißt Wienermaß. Weiterhin heißt (C[0, 1], BC[0,1] , µ) Wienerraum und der auf dem Wienerraum durch X = (Xt ) = (πt )t∈[0,1] definierte stochastische Prozess kanonischer Wienerprozess. (ii) Sei W = (Wt )t∈[0,1] ein stochastischer Prozess auf einem Wahrscheinlichkeitsraum (Ω, F, P). Ist W fast sicher stetig, d.h. ∃Ω0 ∈ F mit P(Ω0 ) = 1 und X(ω) = (Xt (ω))t∈[0,1] stetig ∀ω ∈ Ω0 , und gilt PΩ0 ◦ W −1 = µ, (1) so heißt W Wienerprozess. Bemerkung 6.2. Da PΩ0 ◦ W −1 ein Maß auf (C[0, 1], BC[0,1] ) definiert (und BC[0,1] = σ(πt : t ∈ [0, 1])) kann die Forderung (1) durch die Forderung, dass PWt1 ,...Wtm = N (0, (ti ∧ tj )i,j=1,...,m ) für m ∈ N und t1 , . . . , tm ∈ [0, 1] gilt, ersetzt werden. Satz 6.3 (Charakterisierung des Wienerprozesses). Sei X = (Xt )t∈[0,1] ein fast sicher stetiger stochastischer Prozess. Dann sind die folgenden Aussagen äquivalent. (a) X ist ein Wienerprozess (b) (i) ∀0 ≤ s < t ≤ 1 : L(Xt − Xs ) = N (0, t − s) und (ii) ∀m ∈ N, 0 ≤ t1 < · · · < tm ≤ 1 sind die Inkremente Xt1 , Xt2 − Xt1 , . . . , Xtm − Xtm−1 unabhängig. (c) (i) wie oben und (ii’) ∀0 ≤ s < t ≤ 1 sind Xt − Xs und FsX = σ(Xu : u ∈ [0, s]) unabhängig. Bemerkung 6.4. Die Eigenschaften von (c) implizieren insbesondere, dass der Wienerprozess ein Martingal ist. Beweis. (a)⇒(c): Für0 ≤ s < t ≤ 1 ist (Xs , Xt ) normalverteilt mit Erwartungswert 0 und s s Kovarianzmatrix und somit ist Xt − Xs normalverteilt mit EW 0 und Varianz s t var(Xt − Xs ) = cov(Xt − Xs , Xt − Xs ) = t − 2s + s = t − s. 2 Es verbleibt (ii’) zu zeigen. Wir nutzen, dass die Vereinigung der Mengensysteme Ft1 ,...,tm := σ(Xt1 , . . . , Xtm ) mit m ∈ N und 0 ≤ t1 < · · · < tm ≤ s ein ∩-stabiles Erzeugendensystem von FsX ist. Nun ist (Xt1 , . . . , Xtm , Xt ) Gaußsch und wir erhalten für j = 1, . . . , m cov(Xtj , Xt − Xs ) = cov(Xtj , Xt ) − cov(Xtj , Xs ) = 0 {z } | {z } | =tj =tj Damit ist Ft1 ,...,tm unabhängig von σ(Xt − Xs ) und es folgt (ii’). (c)⇒(b): Für m ∈ N und 0 = t0 ≤ t1 , . . . , tm ≤ 1 ist (Xt1 , Xt2 − Xt1 , . . . , Xtm − Xtm−1 ) Gaußsch mit cov(Xtj −Xtj−1 , Xtk −Xtk−1 ) = 0 für 1 ≤ j < k ≤ m (da Xtj −Xtj−1 Ftk−1 -messbar ist und damit unabhängig von Xtk − Xtk−1 ist). Somit folgt (ii). (b)⇒(a): Für m ∈ N und 0 ≤ t1 < · · · < tm ≤ 1 ist (Xt1 , . . . , Xtm ) Gaußsch mit Erwartungswert 0, da es sich als lineare Abbildung der Inkremente darstellen lässt. Weiterhin ist für 1 ≤ j ≤ k≤m cov(Xtj , Xtk ) = cov(Xtj , Xtj ) + cov(Xtj , Xtk − Xtj ) = tj . | {z } | {z } =tj =0 6.1 Fortsetzung des Wienerprozesses auf [0, ∞) Wir führen als nächstes einen Wienerprozess auf dem Zeitintervall [0, ∞) ein. Seien hierzu W (0) , W (1) , . . . unabhängige Wienerprozesse auf [0, 1] und setze für t ≥ 0 Wt := ∞ X (n) W0∨(t−n)∧1 . n=0 Dann ist W = (Wt )t≥0 ein fast sicher stetiger Prozess. Es sind wieder alle Randverteilungen Gaußsch mit Erwartingswert 0 und cov(Ws , Wt ) = s ∧ t (s, t ∈ [0, ∞)). Wie zuvor kann man das Wienermaß, den Wienerraum und den kanonischen Wienerprozess über dem Zeitintervall [0, ∞) definieren. Weiterhin gilt der Charakterisierungssatz von oben. Im folgenden bezeichne W = (Wt )t≥0 ein Wienerprozess auf [0, ∞). Lemma 6.5. Für a ∈ R\{0} und b ∈ [0, ∞) ist B = (Bt )t≥0 gegeben durch Bt = a1 Wa2 (t+b) − Wa2 b wieder ein Wienerprozess. 3 Beweis. Da (Bt1 , . . . , Btm ) sich als lineare Abbildung von einem Gaußschen Zufallsvektor darstellen lässt reicht es die Kovarianz zu überprüfen. Für 0 ≤ s ≤ t gilt cov(Bs , Bt ) = 1 cov(Wa2 (s+b) − Wa2 b , Wa2 (t+b) − Wa2 b ) = s + b − b − b + b = s ∧ t. a2 Lemma 6.6 (Zeitumkehr). Ist W = (Wt )t≥0 ein Wienerprozess, so ist auch ( 0 t=0 Bt = tW1/t sonst. Beweis. Teil 1: Wir bemerken zunächst, dass B ein auf (0, ∞) fast sicher stetiger Prozess ist mit Gaußschen Randverteilungen mit Erwartungswert 0 und Kovarianzen cov(Bs , Bt ) = st cov(B1/s , B1/t ) = s = s ∧ t für 0 < s ≤ t. und cov(B0 , Bt ) = 0 für t ≥ 0. Teil 2: Es verbleibt die fast sichere Stetigkeit in 0 zu überprüfen. Hierzu bemerken wir, dass C = {f : [0, ∞) → R : lim t↓0 t∈ ∩(0,∞) = 0} Q eine Menge in B[0,∞) ist. Weiterhin charakterisieren die Randverteilungen eines Prozesses die induzierte Verteilung auf B[0,∞) (wegen der ∩-Stabilität der Mengensysteme πt−1 (Bm ) (m ∈ 1 ,...,tm N, t1 , . . . , tm ≥ 0)). Also folgt P(B ∈ C) = P(W ∈ C) = 1. Weiterhin folgt aus der fast sicheren Stetigkeit von (Bt )t∈(0,∞) , dass limt↓0 Bt = 0, fast sicher. Als nächstes sei X = (Xt )t∈R der fast sicher stetigen stochastischen Prozess gegeben durch Xt = e−t We2t , der sogenannte Ornsein-Uhlenbeck-Prozess. Als Übungsaufgabe kann man überprüfen, dass (Xt )t∈R und (X−t )t∈R gleichverteilt sind. Die Prozesse sind zeitreversibel. 6.2 Die (quadratische) Variation des Wienerprozesses Definition 6.7. Für t > 0 heißt eine rechtsstetige Funktion f : [0, t] → R von beschränkter Variation, wenn (1) Vf (t) m X := sup{ |f (tk ) − f (tk−1 )| : m ∈ N, 0 = t0 < · · · < tm = t} k=1 endlich ist. Andernfalls heißt f von unbeschränkter Variation. Satz 6.8. Der Wienerprozess ist fast sicher von unbeschränkter Variation (für jedes t > 0). 4 Beweis. Wir brachten nur den Fall t = 1 (der allgemeine Fall folgt dann direkt aus den Skalierungseigenschaften des Wienerprozesses). Für einen Wienerprozess W betrachten wir n Zn = 2 X |Xk2−n − X(k−1)2−n | k=1 n 2 √ 1 X √ n = 2n n | 2 (Xk2−n − X(k−1)2−n )| . 2 k=1 | {z } n→∞ −→ E[|X1 |] in Wahrscheinlichkeit (GGZ) Die Konvergenz in Wahrscheinlichkeit folgt mit dem Gesetz der großen Zahlen, da die Summanden alle unabhängig und wie |X1 | verteilt sind. Damit konvergiert Zn gegen ∞ in Wahrscheinlichkeit. Wegen der ∆-Ungleichung sind die Zufallsvariablen Zn montoton wachsend und Zn konvergiert damit auch fast sicher gegen unendlich. Bemerkung 6.9. Dass der Wienerprozess von unbeschränkter Variation ist lässt sich intuitiv wie folgt erklären. Betrachtet man die Inkremente eines Wienerprozesses so sieht man, dass die √ Fluktuation bei halber Schrittweite 1/ 2 mal so groß ist wie bei voller Schrittweite. D.h. um einen Limes erhalten zu können würde es Sinn machen die Inkremente zu quadrieren. Dann ist der Beitrag bei halber Schrittweite gerade die hälfte des Beitrags bei voller Schrittweite. m m Proposition 6.10. Seien πm : 0 = tm 0 < t1 < · · · < tm = t (m ∈ N) Partitionen von [0, t] deren Feinheiten gegen 0 konvergieren. Dann gilt lim m→∞ Beweis. Wir setzen Zm = m X )2 = t, in Wahrscheinlichkeit. − Xt m (Xtm k−1 k k=1 Pm k=1 (Xtk m )2 . Nun gilt − Xt m k−1 E[Zm ] = m X )2 ] = t − Xt m E[(Xtm k−1 k {z } k=1 | m =tm k −tk−1 und var(Zm ) = m X var((X k=1 | tm k −X {z tm k−1 2 ) ) ≤ sup } k=1,...,m (tm k m 2 2 =(tm k −tk−1 ) var(X1 ) = var(X12 ) t − tm k−1 ) m X m 2 (tm k − tk−1 ) var(X1 ) k=1 m→∞ m sup (tm k − tk−1 ) −→ 0. k=1,...,m Damit folgt die Konvergenz in Wahrscheinlichkeit mittels der Chebychev Ungleichung. Satz 6.11. Seien πm (m ∈ N) Partitionen von [0, t] wie in der vorherigen Proposition. Ist jeweils πm+1 eine Verfeinerung von πm , so gilt lim m→∞ m X (Xtm − Xtm )2 = t, fast sicher. k k−1 k=1 5 Wegen vorhergehender Proposition verbleibt es die fast sichere Konvergenz der Zufallsvariablen Zm m X = (Xtm − Xtm )2 k k−1 (m ∈ N) k=1 zu zeigen. Wir werden zeigen, dass (Zm )m∈N ein Rückwärtsmartingal ist. Hierzu verwenden wir folgendes Lemma. Lemma 6.12. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und π : Ω → Ω eine maßerhaltende Transformation auf (Ω, F, P), d.h. • π ist F-F-messbar und • P ◦ π −1 = P. Nun gilt für eine π-invariante Zufallsvriable X (d.h. X = X ◦ π) und eine integrierbare Zufallsvariable Y : E[Y |σ(X)] = E[π(Y )|σ(X)]. Beweis. Sei X eine Zufallsvariable mit Werten im messbaren Raum (E, E). Für eine Menge A = X −1 (B) ∈ σ(X) (B ∈ E) gilt nun Z Z Z Z −1 ) Y ◦ π dP = Y ◦ π dP. Y dP = 1lB (X) Y d P ◦ π = 1 l (X ◦ π B | {z } | {z } A P A =X = Beweis des Satzes. Zum Beweis nehmen wir an, dass X = (Xs )s∈[0,∞) der kanonische Wienerprozess ist, d.h. Ω = C[0, ∞), F = σ(πt : t ≥ 0), P ist das Wienermaß und Xs = πs ist gerade die Auswertungsfunktion an der Stelle s. )2 und Fm = σ(Xk,n : n ≥ m, k = 1, . . . n). − Xtm Für m ∈ N und k = 1, . . . , m sei Xk,m = (Xtm k−1 k (Fm )m∈N ist eine absteigende Folge von σ-Algebren und jedes Zm ist Fm -messbar. Wir zeigen nun, dass (Zm ) ein (Fm )-Rückwärtsmartingal ist, d.h. dass E[Zm |Fm+1 ] = Zm+1 für alle m ∈ N, und damit (Zm ) fast sicher konvergiert. Sei hierzu u das neue Partitionselement in πm+1 . Wir betrachten ( ! ωs s≤u π : Ω → Ω, ω 7→ 2ωu − ωs s ≥ u , s≥0 d.h. π spiegelt auf dem Zeitinterval [u, ∞) den Pfad an der Achse y = ωu . Wir überprüfen, dass π und {Xk,m : n ≥ m + 1, k = 1, . . . n} die Voraussetzungen des vorhergehenden Lemmas erfüllen: π ist linear und eine Überprüfung der Erwartungswerte und Kovarianzen liefert direkt, dass P ◦ π −1 wieder das Wienermaß ist und damit π eine maßerhaltende Transformation ist. Weiterhin gilt Xk,n = Xk,n ◦ π für n ≥ m + 1 und k = 1, . . . , n, da die Inkremente jeweils über Intervalle in [0, u] oder [u, ∞) genommen werden und die Spiegelung keinen Einfluss auf die 6 Beträge der Inkremente hat. Seien l, r der linke und rechte Nachbar von u in πm . Wir setzen nun A = Xu −Xl und B = Xr −Xu und folgern E[Zm − Zm+1 |Fm+1 ] = E[(Xr − Xl )2 − (Xu − Xl )2 − (Xr − Xu )2 |Fm+1 ] | {z } | {z } | {z } A+B B A (∗) = 2E[AB|Fm+1 ] = E[AB|Fm+1 ] + E[(AB) ◦ π |Fm+1 ] = 0, | {z } =−AB wobei wir im Schritt (∗) obiges Lemma verwandt haben. 6.3 Lévy’s Konstruktion des Wienerprozesses Zur Konstruktion des Wienerprozesses nach Lévy gehen wir wie folgt vor. Zunächst definieren wir die Werte des Prozesses sukzessive für dyadischen Zeiten D0 , D1 , . . . , wobei Dn = (2−n Z) ∩ [0, 1]. Zur Konstruktion verwenden wir unabhängige standardnormalverteilte Zufallsvariablen {Zt : S t ∈ D}, wobei D = Dn . Induktiv definieren wir nun die Werte des Prozesses wie folgt: Wir setzen X0 = 0 und X1 = Z1 und ist X bereits auf Dn−1 definiert, so setzen wir für die Zeiten t ∈ Dn \Dn−1 : Xt = 21 (Xt−2−n + Xt+2−n ) + 2− n+1 2 Zt . (2) Lemma 6.13. Für n ∈ N sind die Dn -Inkremente X2−n , X2·2−n − X2−n , . . . , X1 − X1−2−n unabängig und N (0, 2−n )-verteilt. Weiterhin sind sie σ(Zt : t ∈ Dn )-messbar. Beweis. Wir beweisen den Satz mittels Induktion über n. Für n = 0 ist die Aussage trivial und wir betrachten nun den Induktionsschritt von n − 1 nach n. Zunächst impliziert die Darstellung (2) zusammen mit der Induktionsvorasussetzung, dass die Inkremente σ(Zt : t ∈ Dn )-messbar sind. Weiterhin lässt sich jedes Dn -Inkrement in einem Dn−1 -Fenster [s, t] = [(k − 1)2−n+1 , k2−n+1 ] (k ∈ {1, . . . , 2n }) als lineare Funktion von Xt − Xs und Z s+t darstellen: 2 X s+t − Xs = 12 (Xt − Xs ) + 2− 2 n+1 2 Z s+t und Xt − X s+t = 12 (Xt − Xs ) − 2− 2 2 n+1 2 Z s+t . 2 Nach der Induktionsvoraussetzung sind die Dn−1 -Inkremente σ(Zt : t ∈ Dn−1 )-messbar und damit unabhängig von (Zt : t ∈ Dn \Dn−1 ). Wegen der Unabhängigkeit der Dn−1 -Inkremente folgt also, dass zwei Dn -Inkremente, die nicht in ein Dn−1 -Fenster fallen, unabhängig voneinander sind. Es verbleibt noch die Unabhängigkeit von zwei aufeinanderfolgenden Inkrementen in einem 7 Dn−1 -Fenster [s, t] = [(k − 1)2−n+1 , k2−n+1 ] zu zeigen. Wir setzen u = 12 (s + t) und bemerken, dass (Xu − Xs , Xt − Xu ) Gauß’sch ist. Somit reicht es die Unkorreliertheit zu überprüfen: n+1 cov(Xu − Xs , Xt − Xu ) = cov( 21 (Xt − Xs ) + 2− 2 Zu , 12 (Xt − Xs ) − 2− 1 = 2−n+1 − 2−(n+1) = 0. 4 n+1 2 Zu ) Nun rechnen wir noch die Varianz eines Dn -Inkrements aus. Für s, u, t wie oben, hat man var(Xu − Xs ) = var( 12 (Xt − Xs ) + 2− n+1 2 Zu ) = 14 var(Xt − Xs ) + 2−(n+1) var(Zu ) = 2−n . Analog erhält man var(Xt − Xu ) = 2−n . Weiterhin folgt direkt, dass der Erwartungswert gleich 0 ist und somit ist das Lemma bewiesen. Nun betrachten wir folgende zufällige Funktionen: t=1 Z1 F0 (t) = 0 t=0 lineare Interpolation dazwischen und für n ∈ N n+1 − 2 2 Zt t ∈ Dn \Dn−1 Fn (t) = 0 t ∈ Dn−1 lineare Interpolation dazwischen Nun gilt für n ∈ N0 und t ∈ Dn Xt = n X Fj (t) = j=0 ∞ X Fj (t). j=0 (n) In der Tat sieht man leicht mittels Induktion, dass X (n) = (Xt )t∈[0,1] (n ∈ N) gegeben durch (n) Xt = n X Fj (t) j=0 gerade die lineare Interpolation von X Dn ist. Satz 6.14. Die stochastischen Prozesse {X (n) : n ∈ N0 } konvergieren für n → ∞ fast sicher gleichmäßig (d.h. im Raum C[0, 1]) gegen einen Wiener Prozess. Bevor wir den Satz beweisen leiten wir noch eine Tail-Abschätzung für die Standardnormalverteilung her, die auch von generellem Interesse ist. Lemma 6.15 (Tail-Abschätzung der Standardnormalverteilung). Für eine standardnormalverteilte Zufallsvariable Z und x > 0 gilt 1 1 1 x 2 2 √ e−x /2 ≤ P(Z > x) ≤ √ e−x /2 . x2 + 1 2π x 2π 8 Beweis. Die rechte Ungleichung folgt direkt aus Z ∞ Z ∞ 1 1 u −u2 /2 1 1 2 −u2 /2 P(Z > x) = √ e du ≤ √ e du = √ e−x /2 . x 2π 2π x 2π x x Zum Beweis der linken Ungleichung betrachtet man Z ∞ 2 −x2 /2 2 f (x) = xe − (x + 1) e−u /2 du (x ≥ 0). (3) (4) x Es gilt limx→∞ f (x) = 0. Es reicht nun zu zeigen, dass f monoton wachsend ist. Damit ist f (x) ≤ 0 für jedes x ≥ 0 und die linke Ungleichung folgt durch Umstellen von (4). Es gilt Z 0 2 2 f (x) = (1 − x + x + 1)e −x2 /2 ∞ − 2x e −u2 /2 du = 2x x Z e−x2 /2 | ∞ − x 2 /2 e−u x {z du ≥ 0. } ≥0 wegen (3) Beweis (Lévy p Konstruktion). 1. Schritt (Konvergenz): Nach dem vorhergehenden Lemma gilt für y ≥ π/2 2 P(|Zt | ≥ y) ≤ e−y /2 (t ∈ D) und wir erhalten für c > 0 (mit der Konvention D−1 = {0}) ∞ X ∞ X √ √ n+1 P(kFn k∞ ≥ c n2− 2 ) = P(∃t ∈ Dn \Dn−1 : |Zt | ≥ c n) n=0 ≤ n=0 ∞ X n=0 c2 n n − 2 |2 e{z } + const =en(log 2− c2 ) 2 √ Für c > 2 log 2 ist die obige Summe endlich und nach dem Lemma von Borel-Cantelli gilt fast √ n+1 sicher kFn k∞ ≤ c n2− 2 für alle bis auf endlich viele n ∈ N0 . D.h. X X √ n+1 kFn k∞ ≤ c n2− 2 + const(ω) < ∞, fast sicher. N0 n∈ N0 n∈ Hierbei steht const(ω) für den zufälligen fast sicher endlichen Beitrag, den die Summanden liefern √ n+1 für die die Ungleichung kFn k∞ ≤ c n2− 2 nicht gilt. Da die Reihe fast sicher konvergiert ist X (n) fast sicher eine Cauchy-Folge in C[0, 1] und konvergiert damit fast sicher gegen eine C[0, 1]wertige Zufallsvariable (einen stochastischen Prozess) X. Diese stimmt für Zeitpunkte in D mit der vorhergehenden Definition überein. 2. Schritt (Überprüfung der Unabhängigkeit und Stationarität der Ikremente): Wir müssen nun noch die Randverteilungen überprüfen. Seien hierzu m ∈ N und 0 ≤ tm 0 < t1 < n n n n · · · < tm ≤ 1. Wir wählen Zerlegungen 0 = t0 < t1 < · · · < tm ≤ 1 (n ∈ N) mit t1 , . . . , tnm ∈ D und tnj → tj für n → ∞ und j = 1, . . . , m. Nun gilt wegen der fast sicheren Stetigkeit von X n→∞ (Xtn1 , Xtn2 − Xtn1 , . . . , Xtnm − Xtnm−1 ) −→ (Xt1 , Xt2 − Xt1 , . . . , Xtm − Xtm−1 ), fast sicher. 9 Damit konvergiert inbesondere die Verteilung der linken Seite (in Verteilung) gegen die gmeinsame Verteilung der Inkremente. Mithilfe von Lemma 6.13 erhalten wir L(Xtn1 , Xtn2 − Xtn1 , . . . , Xtnm − Xtnm−1 ) = m O n→∞ N (0, tnj − tnj−1 ) =⇒ j=1 m O N (0, tj − tj−1 ) j=1 und damit ist X nach dem vorhergehenden Charakterisierungssatz ein Wienerprozess. 6.4 Stetigkeitseigenschaften des Wienerprozesses Die Konstruktion des Wienerprozesses nach Lévy liefert auch direkt eine Regularitätsaussage für den Wienerprozess. Satz 6.16. Es existiert eine Konstante C > 0, sodass fast sicher für alle hinreichend kleinen h ∈ (0, 1] und für alle t ∈ [0, 1 − h] p |Wt+h − Wt | ≤ C h log 1/h. Beweis. Wir stellen den Wienerprozess als Grenzwert obiger X (n) ’s dar. Nun sind die Fn ’s Lipschitz stetig mit kFn kLip = 2n kFn k∞ . √ Damit ist wegen Schritt 1 des obigen Beweises fast sicher kFn k∞ ≤ c n2−n/2 und kFn kLip ≤ √ c n 2n/2 für alle bis auf endlich viele n ∈ N0 . D.h. es gibt eine Zufallsvariable N0 sodass die Gleichungen für alle n > N0 gelten. Nun ist für h ∈ (0, 1], t ∈ [0, 1 − h] und l ∈ N0 |Wt+h − Wt | ≤ ∞ X |Fn (t + h) − Fn (t)| ≤ n=0 ≤ N0 X l∨N X0 hkFn kLip + n=0 ∞ X 2kFn k∞ n=l∨N0 +1 l ∞ X X √ √ n/2 hkFn kLip + c n2 h + 2c n 2−n/2 |n=0 {z } n=0 n=l+1 =const(ω)·h Nun sei h ∈ (0, 1/e] hinreichend klein, sodass der erste Summand kleiner als wähle l ∈ N mit 2−l < h ≤ 2−l+1 . p h log 1/h ist und Elementare Rechnungen zeigen nun, dass sowohl die zweite als auch die dritte Summe gegen ein p Vielfaches von h log(1/h) abgeschätzt werden kann. Die Abschätzung des letzten Satzes ist von der optimalen Ordnung wie der folgende Satz zeigt. √ Satz 6.17. Für alle c < 2 und ε > 0 existieren fast sicher h ∈ (0, ε] und t ∈ [0, 1 − h] mit p |Wt+h − Wt | ≥ c h log(1/h). 10 Beweis. Sei c < √ 2. Wir betrachten die Ereignisse √ Ak,n = {W(k+1)e−n − Wke−n > c ne−n/2 } Die Tail-Abschätzung der Standardnormalverteilung liefert P(Ak,n ) = P(We−n √ √ > c ne−n/2 ) = P(W1 > c n) ≥ √ c n 1 2 √ e−c n/2 2 c n + 1 2π und wir sehen, dass für unsere Wahl von c gerade limn→∞ en P(A0,n ) = ∞ gilt. Für festes n ∈ N sind die Ereignisse A0,n , A1,n , . . . unabhängig und wir erhalten P n −1c be\ k=0 n Ack,n = (1 − P(A0,n ))be c = exp{ben c log(1 − P(A0,n )} → 0 | {z } für n → ∞. P ≤− (A0,n ) Sben −1c Damit treten fast sicher unendlich viele der Ereignisse Bn = k=0 Ak,n (n ∈ N) ein. Tritt Ak,n ein, so folgt für h = e−n und t = k e−n p √ Wt+h − Wt > c ne−n/2 = c h log h. √ Man kann nun noch einen Schritt weiter gehen und fragen, ob die Voraussetzung c < 2 für die Schlussfolgerung des Sazes notwendig ist. Die Antwort auf die Frage lautet “ja”: Satz 6.18 (Lévys Stetigkeitsmodul). Es gilt lim sup h↓0 |W − Wt | p t+h = 1, 2h log(1/h) 0≤t≤1−h sup fast sicher. Um die verbleibende Richtung zu zeigen betrachten wir zunächst nur die Inkremente über eine besondere Menge von Intervallen. Für n, m ∈ N bezeichnen wir mit Λn (m) die Menge der Intervalle [(k − 1+b)2−n+a , (k+b)2−n+a ], S 1 mit k ∈ {1, . . . , 2n } und a, b ∈ {0, m , . . . , m−1 n∈N Λn (m). Man m }. Weiterhin setzen wir Λ(m) := bermerke, dass ohne die blauen Terme die Menge gerade die Menge der dyadischen Intervalle wäre. √ Lemma 6.19. Für jedes feste m ∈ N und c > 2 existiert fast sicher ein n0 ∈ N, sodass für alle n ≥ n0 und [s, t] ∈ Λn (m) r 1 |Wt − Ws | ≤ c (t − s) log t−s gilt. 11 1 Beweis. Für n ∈ N, k ∈ {1, . . . , 2n } und a, b ∈ {0, m , . . . , m−1 m } erhalten wir mithilfe der Skalierungseigenschaften des Wienerprouzesses: p P |W(k+b)2−n+a − W(k−1+b)2−n+a | > c 2−n+a log(2n+a ) p p = P(|W1 | > c log(2n+a )) ≤ 2 P(W1 > c log(2n )) Diese Abschätzung liefert nun zusammen mit obiger Tail-Abschätzung r X 1 P |Wt − Ws | > c (t − s) log t−s [s,t]∈Λ(m) n = 2 XX N X P |W(k+b)2−n+a − W(k−1+b)2−n+a | > c p 2−n+a log(2n+a ) n∈ k=1 a,b∈{0,..., m−1 } m ≤ X N p 2 · 2n m2 P(W1 ≥ c log(2n )) n∈ ≤ X 1 2m2 2 p √ 2n(1−c /2) < ∞. n c log(2 ) 2π n∈N Wegen des Lemmas von Borel-Cantelli gilt also fast sicher, dass r 1 |Wt − Ws | ≤ c (t − s) log t−s für alle bis auf endlich viele Intervalle [s, t] ∈ Λ(m) gilt. Lemma 6.20. Für ε > 0 existiert ein m ∈ N sodass für 0 ≤ s < t ≤ 1 ein Intervall [s0 , t0 ] ∈ Λ(m) existiert mit |t − t0 | ≤ ε(t − s) und |s − s0 | ≤ ε(t − s). Beweis. Für gegebenes ε > 0 wählen wir m ∈ N so groß, dass 1/m < ε/4 und 21/m < 1 + ε/2. Sei nun [s, t] ein gegebenes Intervall. Jedes Intervall aus Λ(m) lässt sich als [s0 , t0 ] = [(k − 1 + b)2−n+a , (k + b)2−n+a ] ∈ Λ(m), mit Parametern n ∈ N, a, b ∈ {0, 1/m, . . . , (m − 1)/m} und k ∈ {1, . . . , 2n } darstellen. Wir wählen nun die Parameter nacheinander. Zuerst wählen wir n und a, sodass 2−n ≤ t − s < 2−n+1 und 2−n+a ≤ t − s < 2−n+a+1/m gelten. Als nächstes wählen wir k und b mit (k − 1)2−n+a < s ≤ k2−n+a und (k − 1 + b)2−n+a < s ≤ (k − 1 + b + 1/m)2−n+a . Nun folgt |s − s0 | ≤ 1 −n+a m2 ≤ 4ε 2−n+1 ≤ 2ε (t − s). 12 und |t − t0 | ≤ |s − s0 | + |(t − s) − (t0 − s0 )| ≤ 2ε (t − s) + 2−n+a+1/m − 2−n+a ≤ 2ε (t − s) + 2ε 2−n+a ≤ ε(t − s). Nun können wir die verbleibende beweisen. √ Richtung des Lévy’schen Stetigkeitsmoduls √ Beweis. Für gegebenes c > 2 und ε ∈ (0, 1) wählen wir c̃ := 12 (c + 2) und m = m(ε) wie im obigen Lemma. Wir wissen bereits, dass es eine fast sicher endliche Zufallsvariable n0 gibt, sodass für n ≥ n0 und [s0 , t0 ] ∈ Λn (m) (siehe Lemma 6.19) r 1 |Wt0 − Ws0 | ≤ c̃ (t0 − s0 ) log 0 t − s0 und für 0 ≤ s < t ≤ 1 mit t − s ≤ 2−n0 r |Wt − Ws | ≤ C (t − s) log 1 t−s für eine feste Konstante C (siehe Satz 6.16). Sei nun 0 ≤ s < t ≤ 1 mit t − s < 2−n0 −1 ∧ ((1 + 2ε)e)−1 und wähle [s0 , t0 ] ∈ Λ(m) wie im letzten Lemma. Es folgt |Wt − Ws | ≤ |Wt − Wt0 | + |Wt0 − Ws0 | + |Ws0 − Ws | s s s 1 1 1 + c̃ |t0 − s0 | log 0 + C |s − s0 | log ≤ C |t − t0 | log 0 0 |t − t | |t − s | |s − s0 | s s 1 1 ≤ 2C ε(t − s) log + c̃ (1 + 2ε)(t − s) log ε(t − s) (1 + 2ε)(t − s) r r r p 1 1 1 + c̃ (1 + 2ε) (t − s) log ≤ 4C ε log (t − s) log ε t−s t−s q 1 und für hinreichend kleines ε > 0 ist dies kleiner gleich c (t − s) log t−s . Wir zeigen nun, dass der Wienerprozess fast sicher in keinem Punkt differenzierbar ist. Satz 6.21. Der Wienerprozess ist fast sicher zu keiner Zeit in [0, 1) rechtsseitig differenzierbar. Wir nutzen folgendes Lemma. Lemma 6.22. Sei f : [0, 1) → R eine stetige Funktion. Ist f in einem Zeitpunkt rechtsseitig differenzierbar, so gibt es M > 0 sodass für jedes hinreichend große n ∈ N drei aufeinanderfolgende Dn -Intervalle [u, v] mit |f (u) − f (v)| ≤ M · 2−n gibt. 13 Beweis. Ist f rechtsseitig differenzierbar in t ∈ [0, 1) so gibt es ein M > 0 und ein Intervall I = [t, t + ε] ⊂ [0, 1) (ε > 0) mit ∀s ∈ I : |f (s) − f (t)| ≤ M 8 (s − t) Sei nun n ∈ N mit 4 · 2−n ≤ ε. Dann liegen die ersten drei Dn -Intervalle rechts von t im Intervall I. Da für jedes der drei Intervalle [u, v] die Abschätzung t ≤ u ≤ v ≤ t + 4 2−n gilt folgt mithilfe der ∆-Ungleichung |f (u) − f (v)| ≤ |f (u) − f (t)| + |f (t) − f (v)| ≤ M 8 2 · 4 · 2−n = M 2−n . Beweis der Nichtdifferenzierbarkeit. Nach dem letzen Lemma reicht es zu zeigen, dass für beliebiges M > 0 fast sicher unendlich viele der Ereignisse Bn = n −3 3 2[ \ c {|W(k+l)2−n − W(k+l−1)2−n | ≤ M 2−n } k=0 l=1 eintreten. Es gilt P(Bnc ) n ≤ 2 P( 3 \ {|Wl2−n − W(l−1)2−n | ≤ M 2−n }) l=1 3 n ≤ 2 P(|W2−n | ≤ M )3 = 2n P(|W1 | ≤ 2−n/2 M ) | {z } √ −n/2 ≤ ≤ const(M ) 2 2/π 2 M −n/2 n→∞ −→ 0 und damit treten fast sicher unendlich viele der Ereignisse Bn (n ∈ N) ein. Bemerkung 6.23. Eine leichte Modifikation des Beweises zeigt sogar die stärkere Aussage, dass fast sicher für alle t ∈ [0, 1) lim sup h↓0 |W (t + h) − W (t)| =∞ h gilt. 14