Ausarbeitung: Der Wienerprozess - Fachbereich Mathematik und

Werbung
Ausarbeitung: Der Wienerprozess
von
Steffen Dereich
Fachbereich Mathematik und Informatik
Philipps-Universität Marburg
Version vom 19. Februar 2010
Inhaltsverzeichnis
6 Der
6.1
6.2
6.3
6.4
Wienerprozess
Fortsetzung des Wienerprozesses auf [0, ∞) . . .
Die (quadratische) Variation des Wienerprozesses
Lévy’s Konstruktion des Wienerprozesses . . . .
Stetigkeitseigenschaften des Wienerprozesses . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
3
4
7
10
6
Der Wienerprozess
Definition 6.1. (i) Das Wahrscheinlichkeitsmaß µ auf dem messbaren Raum (C[0, 1], BC[0,1] )
mit Randverteilungen
µ ◦ πt−1
= N (0, (ti ∧ tj )i,j=1,...,m )
1 ,...,tm
für m ∈ N und t1 , . . . , tm ∈ [0, 1] heißt Wienermaß. Weiterhin heißt (C[0, 1], BC[0,1] , µ)
Wienerraum und der auf dem Wienerraum durch X = (Xt ) = (πt )t∈[0,1] definierte stochastische Prozess kanonischer Wienerprozess.
(ii) Sei W = (Wt )t∈[0,1] ein stochastischer Prozess auf einem Wahrscheinlichkeitsraum (Ω, F, P).
Ist W fast sicher stetig, d.h.
∃Ω0 ∈ F mit P(Ω0 ) = 1 und X(ω) = (Xt (ω))t∈[0,1] stetig ∀ω ∈ Ω0 ,
und gilt
PΩ0 ◦ W −1 = µ,
(1)
so heißt W Wienerprozess.
Bemerkung 6.2. Da PΩ0 ◦ W −1 ein Maß auf (C[0, 1], BC[0,1] ) definiert (und BC[0,1] = σ(πt :
t ∈ [0, 1])) kann die Forderung (1) durch die Forderung, dass
PWt1 ,...Wtm = N (0, (ti ∧ tj )i,j=1,...,m )
für m ∈ N und t1 , . . . , tm ∈ [0, 1] gilt, ersetzt werden.
Satz 6.3 (Charakterisierung des Wienerprozesses). Sei X = (Xt )t∈[0,1] ein fast sicher stetiger
stochastischer Prozess. Dann sind die folgenden Aussagen äquivalent.
(a) X ist ein Wienerprozess
(b)
(i) ∀0 ≤ s < t ≤ 1 : L(Xt − Xs ) = N (0, t − s) und
(ii) ∀m ∈ N, 0 ≤ t1 < · · · < tm ≤ 1 sind die Inkremente
Xt1 , Xt2 − Xt1 , . . . , Xtm − Xtm−1
unabhängig.
(c)
(i) wie oben und
(ii’) ∀0 ≤ s < t ≤ 1 sind Xt − Xs und FsX = σ(Xu : u ∈ [0, s]) unabhängig.
Bemerkung 6.4. Die Eigenschaften von (c) implizieren insbesondere, dass der Wienerprozess
ein Martingal ist.
Beweis. (a)⇒(c):
Für0 ≤ s < t ≤ 1 ist (Xs , Xt ) normalverteilt mit Erwartungswert 0 und
s s
Kovarianzmatrix
und somit ist Xt − Xs normalverteilt mit EW 0 und Varianz
s t
var(Xt − Xs ) = cov(Xt − Xs , Xt − Xs ) = t − 2s + s = t − s.
2
Es verbleibt (ii’) zu zeigen. Wir nutzen, dass die Vereinigung der Mengensysteme
Ft1 ,...,tm := σ(Xt1 , . . . , Xtm )
mit m ∈ N und 0 ≤ t1 < · · · < tm ≤ s ein ∩-stabiles Erzeugendensystem von FsX ist. Nun ist
(Xt1 , . . . , Xtm , Xt ) Gaußsch und wir erhalten für j = 1, . . . , m
cov(Xtj , Xt − Xs ) = cov(Xtj , Xt ) − cov(Xtj , Xs ) = 0
{z
} |
{z
}
|
=tj
=tj
Damit ist Ft1 ,...,tm unabhängig von σ(Xt − Xs ) und es folgt (ii’).
(c)⇒(b): Für m ∈ N und 0 = t0 ≤ t1 , . . . , tm ≤ 1 ist
(Xt1 , Xt2 − Xt1 , . . . , Xtm − Xtm−1 )
Gaußsch mit cov(Xtj −Xtj−1 , Xtk −Xtk−1 ) = 0 für 1 ≤ j < k ≤ m (da Xtj −Xtj−1 Ftk−1 -messbar
ist und damit unabhängig von Xtk − Xtk−1 ist). Somit folgt (ii).
(b)⇒(a): Für m ∈ N und 0 ≤ t1 < · · · < tm ≤ 1 ist (Xt1 , . . . , Xtm ) Gaußsch mit Erwartungswert
0, da es sich als lineare Abbildung der Inkremente darstellen lässt. Weiterhin ist für 1 ≤ j ≤
k≤m
cov(Xtj , Xtk ) = cov(Xtj , Xtj ) + cov(Xtj , Xtk − Xtj ) = tj .
|
{z
} |
{z
}
=tj
=0
6.1
Fortsetzung des Wienerprozesses auf [0, ∞)
Wir führen als nächstes einen Wienerprozess auf dem Zeitintervall [0, ∞) ein. Seien hierzu
W (0) , W (1) , . . . unabhängige Wienerprozesse auf [0, 1] und setze für t ≥ 0
Wt :=
∞
X
(n)
W0∨(t−n)∧1 .
n=0
Dann ist W = (Wt )t≥0 ein fast sicher stetiger Prozess. Es sind wieder alle Randverteilungen
Gaußsch mit Erwartingswert 0 und
cov(Ws , Wt ) = s ∧ t
(s, t ∈ [0, ∞)).
Wie zuvor kann man das Wienermaß, den Wienerraum und den kanonischen Wienerprozess über
dem Zeitintervall [0, ∞) definieren. Weiterhin gilt der Charakterisierungssatz von oben.
Im folgenden bezeichne W = (Wt )t≥0 ein Wienerprozess auf [0, ∞).
Lemma 6.5. Für a ∈ R\{0} und b ∈ [0, ∞) ist B = (Bt )t≥0 gegeben durch
Bt = a1 Wa2 (t+b) − Wa2 b
wieder ein Wienerprozess.
3
Beweis. Da (Bt1 , . . . , Btm ) sich als lineare Abbildung von einem Gaußschen Zufallsvektor darstellen lässt reicht es die Kovarianz zu überprüfen. Für 0 ≤ s ≤ t gilt
cov(Bs , Bt ) =
1
cov(Wa2 (s+b) − Wa2 b , Wa2 (t+b) − Wa2 b ) = s + b − b − b + b = s ∧ t.
a2
Lemma 6.6 (Zeitumkehr). Ist W = (Wt )t≥0 ein Wienerprozess, so ist auch
(
0
t=0
Bt =
tW1/t sonst.
Beweis. Teil 1: Wir bemerken zunächst, dass B ein auf (0, ∞) fast sicher stetiger Prozess ist
mit Gaußschen Randverteilungen mit Erwartungswert 0 und Kovarianzen
cov(Bs , Bt ) = st cov(B1/s , B1/t ) = s = s ∧ t für 0 < s ≤ t.
und cov(B0 , Bt ) = 0 für t ≥ 0.
Teil 2: Es verbleibt die fast sichere Stetigkeit in 0 zu überprüfen. Hierzu bemerken wir, dass
C = {f : [0, ∞) → R :
lim
t↓0
t∈ ∩(0,∞)
= 0}
Q
eine Menge in B[0,∞) ist. Weiterhin charakterisieren die Randverteilungen eines Prozesses die
induzierte Verteilung auf B[0,∞) (wegen der ∩-Stabilität der Mengensysteme πt−1
(Bm ) (m ∈
1 ,...,tm
N, t1 , . . . , tm ≥ 0)). Also folgt
P(B ∈ C) = P(W ∈ C) = 1.
Weiterhin folgt aus der fast sicheren Stetigkeit von (Bt )t∈(0,∞) , dass limt↓0 Bt = 0, fast sicher. Als nächstes sei X = (Xt )t∈R der fast sicher stetigen stochastischen Prozess gegeben durch
Xt = e−t We2t ,
der sogenannte Ornsein-Uhlenbeck-Prozess. Als Übungsaufgabe kann man überprüfen, dass (Xt )t∈R
und (X−t )t∈R gleichverteilt sind. Die Prozesse sind zeitreversibel.
6.2
Die (quadratische) Variation des Wienerprozesses
Definition 6.7. Für t > 0 heißt eine rechtsstetige Funktion f : [0, t] → R von beschränkter
Variation, wenn
(1)
Vf (t)
m
X
:= sup{
|f (tk ) − f (tk−1 )| : m ∈ N, 0 = t0 < · · · < tm = t}
k=1
endlich ist. Andernfalls heißt f von unbeschränkter Variation.
Satz 6.8. Der Wienerprozess ist fast sicher von unbeschränkter Variation (für jedes t > 0).
4
Beweis. Wir brachten nur den Fall t = 1 (der allgemeine Fall folgt dann direkt aus den Skalierungseigenschaften des Wienerprozesses). Für einen Wienerprozess W betrachten wir
n
Zn =
2
X
|Xk2−n − X(k−1)2−n |
k=1
n
2
√
1 X √ n
= 2n n
| 2 (Xk2−n − X(k−1)2−n )| .
2
k=1
|
{z
}
n→∞
−→ E[|X1 |] in Wahrscheinlichkeit (GGZ)
Die Konvergenz in Wahrscheinlichkeit folgt mit dem Gesetz der großen Zahlen, da die Summanden alle unabhängig und wie |X1 | verteilt sind. Damit konvergiert Zn gegen ∞ in Wahrscheinlichkeit. Wegen der ∆-Ungleichung sind die Zufallsvariablen Zn montoton wachsend und
Zn konvergiert damit auch fast sicher gegen unendlich.
Bemerkung 6.9. Dass der Wienerprozess von unbeschränkter Variation ist lässt sich intuitiv
wie folgt erklären. Betrachtet man die Inkremente
eines Wienerprozesses so sieht man, dass die
√
Fluktuation bei halber Schrittweite 1/ 2 mal so groß ist wie bei voller Schrittweite. D.h. um
einen Limes erhalten zu können würde es Sinn machen die Inkremente zu quadrieren. Dann ist
der Beitrag bei halber Schrittweite gerade die hälfte des Beitrags bei voller Schrittweite.
m
m
Proposition 6.10. Seien πm : 0 = tm
0 < t1 < · · · < tm = t (m ∈ N) Partitionen von [0, t]
deren Feinheiten gegen 0 konvergieren. Dann gilt
lim
m→∞
Beweis. Wir setzen Zm =
m
X
)2 = t, in Wahrscheinlichkeit.
− Xt m
(Xtm
k−1
k
k=1
Pm
k=1 (Xtk
m
)2 . Nun gilt
− Xt m
k−1
E[Zm ] =
m
X
)2 ] = t
− Xt m
E[(Xtm
k−1
k
{z
}
k=1 |
m
=tm
k −tk−1
und
var(Zm ) =
m
X
var((X
k=1 |
tm
k
−X
{z
tm
k−1
2
) ) ≤ sup
} k=1,...,m
(tm
k
m
2
2
=(tm
k −tk−1 ) var(X1 )
= var(X12 ) t
−
tm
k−1 )
m
X
m
2
(tm
k − tk−1 ) var(X1 )
k=1
m→∞
m
sup (tm
k − tk−1 ) −→ 0.
k=1,...,m
Damit folgt die Konvergenz in Wahrscheinlichkeit mittels der Chebychev Ungleichung.
Satz 6.11. Seien πm (m ∈ N) Partitionen von [0, t] wie in der vorherigen Proposition. Ist
jeweils πm+1 eine Verfeinerung von πm , so gilt
lim
m→∞
m
X
(Xtm
− Xtm
)2 = t, fast sicher.
k
k−1
k=1
5
Wegen vorhergehender Proposition verbleibt es die fast sichere Konvergenz der Zufallsvariablen
Zm
m
X
=
(Xtm
− Xtm
)2
k
k−1
(m ∈ N)
k=1
zu zeigen. Wir werden zeigen, dass (Zm )m∈N ein Rückwärtsmartingal ist. Hierzu verwenden wir
folgendes Lemma.
Lemma 6.12. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und π : Ω → Ω eine maßerhaltende
Transformation auf (Ω, F, P), d.h.
• π ist F-F-messbar und
• P ◦ π −1 = P.
Nun gilt für eine π-invariante Zufallsvriable X (d.h. X = X ◦ π) und eine integrierbare Zufallsvariable Y :
E[Y |σ(X)] = E[π(Y )|σ(X)].
Beweis. Sei X eine Zufallsvariable mit Werten im messbaren Raum (E, E). Für eine Menge
A = X −1 (B) ∈ σ(X) (B ∈ E) gilt nun
Z
Z
Z
Z
−1
)
Y
◦
π
dP
=
Y ◦ π dP.
Y dP = 1lB (X) Y d P
◦
π
=
1
l
(X
◦
π
B | {z }
| {z }
A
P
A
=X
=
Beweis des Satzes. Zum Beweis nehmen wir an, dass X = (Xs )s∈[0,∞) der kanonische Wienerprozess ist, d.h. Ω = C[0, ∞), F = σ(πt : t ≥ 0), P ist das Wienermaß und Xs = πs ist gerade
die Auswertungsfunktion an der Stelle s.
)2 und Fm = σ(Xk,n : n ≥ m, k = 1, . . . n).
− Xtm
Für m ∈ N und k = 1, . . . , m sei Xk,m = (Xtm
k−1
k
(Fm )m∈N ist eine absteigende Folge von σ-Algebren und jedes Zm ist Fm -messbar. Wir zeigen
nun, dass (Zm ) ein (Fm )-Rückwärtsmartingal ist, d.h. dass
E[Zm |Fm+1 ] = Zm+1 für alle m ∈ N,
und damit (Zm ) fast sicher konvergiert.
Sei hierzu u das neue Partitionselement in πm+1 . Wir betrachten
(
!
ωs
s≤u
π : Ω → Ω, ω 7→
2ωu − ωs s ≥ u
,
s≥0
d.h. π spiegelt auf dem Zeitinterval [u, ∞) den Pfad an der Achse y = ωu . Wir überprüfen,
dass π und {Xk,m : n ≥ m + 1, k = 1, . . . n} die Voraussetzungen des vorhergehenden Lemmas
erfüllen: π ist linear und eine Überprüfung der Erwartungswerte und Kovarianzen liefert direkt,
dass P ◦ π −1 wieder das Wienermaß ist und damit π eine maßerhaltende Transformation ist.
Weiterhin gilt Xk,n = Xk,n ◦ π für n ≥ m + 1 und k = 1, . . . , n, da die Inkremente jeweils über
Intervalle in [0, u] oder [u, ∞) genommen werden und die Spiegelung keinen Einfluss auf die
6
Beträge der Inkremente hat.
Seien l, r der linke und rechte Nachbar von u in πm . Wir setzen nun A = Xu −Xl und B = Xr −Xu
und folgern
E[Zm − Zm+1 |Fm+1 ] = E[(Xr − Xl )2 − (Xu − Xl )2 − (Xr − Xu )2 |Fm+1 ]
| {z }
| {z }
| {z }
A+B
B
A
(∗)
= 2E[AB|Fm+1 ] = E[AB|Fm+1 ] + E[(AB) ◦ π |Fm+1 ] = 0,
| {z }
=−AB
wobei wir im Schritt (∗) obiges Lemma verwandt haben.
6.3
Lévy’s Konstruktion des Wienerprozesses
Zur Konstruktion des Wienerprozesses nach Lévy gehen wir wie folgt vor. Zunächst definieren
wir die Werte des Prozesses sukzessive für dyadischen Zeiten D0 , D1 , . . . , wobei
Dn = (2−n Z) ∩ [0, 1].
Zur Konstruktion verwenden wir unabhängige standardnormalverteilte Zufallsvariablen {Zt :
S
t ∈ D}, wobei D = Dn . Induktiv definieren wir nun die Werte des Prozesses wie folgt: Wir
setzen X0 = 0 und X1 = Z1 und ist X bereits auf Dn−1 definiert, so setzen wir für die Zeiten
t ∈ Dn \Dn−1 :
Xt = 21 (Xt−2−n + Xt+2−n ) + 2−
n+1
2
Zt .
(2)
Lemma 6.13. Für n ∈ N sind die Dn -Inkremente
X2−n , X2·2−n − X2−n , . . . , X1 − X1−2−n
unabängig und N (0, 2−n )-verteilt. Weiterhin sind sie σ(Zt : t ∈ Dn )-messbar.
Beweis. Wir beweisen den Satz mittels Induktion über n. Für n = 0 ist die Aussage trivial und
wir betrachten nun den Induktionsschritt von n − 1 nach n.
Zunächst impliziert die Darstellung (2) zusammen mit der Induktionsvorasussetzung, dass die
Inkremente σ(Zt : t ∈ Dn )-messbar sind.
Weiterhin lässt sich jedes Dn -Inkrement in einem Dn−1 -Fenster [s, t] = [(k − 1)2−n+1 , k2−n+1 ]
(k ∈ {1, . . . , 2n }) als lineare Funktion von Xt − Xs und Z s+t darstellen:
2
X s+t − Xs = 12 (Xt − Xs ) + 2−
2
n+1
2
Z s+t und Xt − X s+t = 12 (Xt − Xs ) − 2−
2
2
n+1
2
Z s+t .
2
Nach der Induktionsvoraussetzung sind die Dn−1 -Inkremente σ(Zt : t ∈ Dn−1 )-messbar und
damit unabhängig von (Zt : t ∈ Dn \Dn−1 ). Wegen der Unabhängigkeit der Dn−1 -Inkremente
folgt also, dass zwei Dn -Inkremente, die nicht in ein Dn−1 -Fenster fallen, unabhängig voneinander
sind.
Es verbleibt noch die Unabhängigkeit von zwei aufeinanderfolgenden Inkrementen in einem
7
Dn−1 -Fenster [s, t] = [(k − 1)2−n+1 , k2−n+1 ] zu zeigen. Wir setzen u = 12 (s + t) und bemerken,
dass (Xu − Xs , Xt − Xu ) Gauß’sch ist. Somit reicht es die Unkorreliertheit zu überprüfen:
n+1
cov(Xu − Xs , Xt − Xu ) = cov( 21 (Xt − Xs ) + 2− 2 Zu , 12 (Xt − Xs ) − 2−
1
= 2−n+1 − 2−(n+1) = 0.
4
n+1
2
Zu )
Nun rechnen wir noch die Varianz eines Dn -Inkrements aus. Für s, u, t wie oben, hat man
var(Xu − Xs ) = var( 12 (Xt − Xs ) + 2−
n+1
2
Zu ) = 14 var(Xt − Xs ) + 2−(n+1) var(Zu ) = 2−n .
Analog erhält man var(Xt − Xu ) = 2−n . Weiterhin folgt direkt, dass der Erwartungswert gleich
0 ist und somit ist das Lemma bewiesen.
Nun betrachten wir folgende zufällige Funktionen:


t=1

Z1
F0 (t) = 0
t=0


lineare Interpolation dazwischen
und für n ∈ N
 n+1
−


2 2 Zt t ∈ Dn \Dn−1
Fn (t) = 0
t ∈ Dn−1


lineare Interpolation dazwischen
Nun gilt für n ∈ N0 und t ∈ Dn
Xt =
n
X
Fj (t) =
j=0
∞
X
Fj (t).
j=0
(n)
In der Tat sieht man leicht mittels Induktion, dass X (n) = (Xt )t∈[0,1] (n ∈ N) gegeben durch
(n)
Xt
=
n
X
Fj (t)
j=0
gerade die lineare Interpolation von X Dn ist.
Satz 6.14. Die stochastischen Prozesse {X (n) : n ∈ N0 } konvergieren für n → ∞ fast sicher
gleichmäßig (d.h. im Raum C[0, 1]) gegen einen Wiener Prozess.
Bevor wir den Satz beweisen leiten wir noch eine Tail-Abschätzung für die Standardnormalverteilung her, die auch von generellem Interesse ist.
Lemma 6.15 (Tail-Abschätzung der Standardnormalverteilung). Für eine standardnormalverteilte Zufallsvariable Z und x > 0 gilt
1
1 1
x
2
2
√ e−x /2 ≤ P(Z > x) ≤ √ e−x /2 .
x2 + 1 2π
x 2π
8
Beweis. Die rechte Ungleichung folgt direkt aus
Z ∞
Z ∞
1
1
u −u2 /2
1 1
2
−u2 /2
P(Z > x) = √
e
du ≤ √
e
du = √ e−x /2 .
x 2π
2π x
2π x x
Zum Beweis der linken Ungleichung betrachtet man
Z ∞
2
−x2 /2
2
f (x) = xe
− (x + 1)
e−u /2 du
(x ≥ 0).
(3)
(4)
x
Es gilt limx→∞ f (x) = 0. Es reicht nun zu zeigen, dass f monoton wachsend ist. Damit ist
f (x) ≤ 0 für jedes x ≥ 0 und die linke Ungleichung folgt durch Umstellen von (4). Es gilt
Z
0
2
2
f (x) = (1 − x + x + 1)e
−x2 /2
∞
− 2x
e
−u2 /2
du = 2x
x
Z
e−x2 /2
|
∞
−
x
2 /2
e−u
x
{z
du ≥ 0.
}
≥0 wegen (3)
Beweis (Lévy p
Konstruktion). 1. Schritt (Konvergenz): Nach dem vorhergehenden Lemma gilt für y ≥ π/2
2
P(|Zt | ≥ y) ≤ e−y /2
(t ∈ D)
und wir erhalten für c > 0 (mit der Konvention D−1 = {0})
∞
X
∞
X
√
√
n+1
P(kFn k∞ ≥ c n2− 2 ) =
P(∃t ∈ Dn \Dn−1 : |Zt | ≥ c n)
n=0
≤
n=0
∞
X
n=0
c2 n
n − 2
|2 e{z } + const
=en(log 2−
c2 )
2
√
Für c > 2 log 2 ist die obige Summe endlich und nach dem Lemma von Borel-Cantelli gilt fast
√
n+1
sicher kFn k∞ ≤ c n2− 2 für alle bis auf endlich viele n ∈ N0 . D.h.
X
X √
n+1
kFn k∞ ≤
c n2− 2 + const(ω) < ∞, fast sicher.
N0
n∈
N0
n∈
Hierbei steht const(ω) für den zufälligen fast sicher endlichen Beitrag, den die Summanden liefern
√
n+1
für die die Ungleichung kFn k∞ ≤ c n2− 2 nicht gilt. Da die Reihe fast sicher konvergiert ist
X (n) fast sicher eine Cauchy-Folge in C[0, 1] und konvergiert damit fast sicher gegen eine C[0, 1]wertige Zufallsvariable (einen stochastischen Prozess) X. Diese stimmt für Zeitpunkte in D mit
der vorhergehenden Definition überein.
2. Schritt (Überprüfung der Unabhängigkeit und Stationarität der Ikremente): Wir
müssen nun noch die Randverteilungen überprüfen. Seien hierzu m ∈ N und 0 ≤ tm
0 < t1 <
n
n
n
n
· · · < tm ≤ 1. Wir wählen Zerlegungen 0 = t0 < t1 < · · · < tm ≤ 1 (n ∈ N) mit t1 , . . . , tnm ∈ D
und tnj → tj für n → ∞ und j = 1, . . . , m. Nun gilt wegen der fast sicheren Stetigkeit von X
n→∞
(Xtn1 , Xtn2 − Xtn1 , . . . , Xtnm − Xtnm−1 ) −→ (Xt1 , Xt2 − Xt1 , . . . , Xtm − Xtm−1 ), fast sicher.
9
Damit konvergiert inbesondere die Verteilung der linken Seite (in Verteilung) gegen die gmeinsame Verteilung der Inkremente. Mithilfe von Lemma 6.13 erhalten wir
L(Xtn1 , Xtn2 − Xtn1 , . . . , Xtnm − Xtnm−1 ) =
m
O
n→∞
N (0, tnj − tnj−1 ) =⇒
j=1
m
O
N (0, tj − tj−1 )
j=1
und damit ist X nach dem vorhergehenden Charakterisierungssatz ein Wienerprozess.
6.4
Stetigkeitseigenschaften des Wienerprozesses
Die Konstruktion des Wienerprozesses nach Lévy liefert auch direkt eine Regularitätsaussage
für den Wienerprozess.
Satz 6.16. Es existiert eine Konstante C > 0, sodass fast sicher für alle hinreichend kleinen
h ∈ (0, 1] und für alle t ∈ [0, 1 − h]
p
|Wt+h − Wt | ≤ C h log 1/h.
Beweis. Wir stellen den Wienerprozess als Grenzwert obiger X (n) ’s dar. Nun sind die Fn ’s
Lipschitz stetig mit
kFn kLip = 2n kFn k∞ .
√
Damit ist wegen Schritt 1 des obigen Beweises fast sicher kFn k∞ ≤ c n2−n/2 und kFn kLip ≤
√
c n 2n/2 für alle bis auf endlich viele n ∈ N0 . D.h. es gibt eine Zufallsvariable N0 sodass die
Gleichungen für alle n > N0 gelten.
Nun ist für h ∈ (0, 1], t ∈ [0, 1 − h] und l ∈ N0
|Wt+h − Wt | ≤
∞
X
|Fn (t + h) − Fn (t)| ≤
n=0
≤
N0
X
l∨N
X0
hkFn kLip +
n=0
∞
X
2kFn k∞
n=l∨N0 +1
l
∞
X
X
√
√ n/2
hkFn kLip +
c n2 h +
2c n 2−n/2
|n=0 {z
}
n=0
n=l+1
=const(ω)·h
Nun sei h ∈ (0, 1/e] hinreichend klein, sodass der erste Summand kleiner als
wähle l ∈ N mit
2−l < h ≤ 2−l+1 .
p
h log 1/h ist und
Elementare Rechnungen
zeigen nun, dass sowohl die zweite als auch die dritte Summe gegen ein
p
Vielfaches von h log(1/h) abgeschätzt werden kann.
Die Abschätzung des letzten Satzes ist von der optimalen Ordnung wie der folgende Satz zeigt.
√
Satz 6.17. Für alle c < 2 und ε > 0 existieren fast sicher h ∈ (0, ε] und t ∈ [0, 1 − h] mit
p
|Wt+h − Wt | ≥ c h log(1/h).
10
Beweis. Sei c <
√
2. Wir betrachten die Ereignisse
√
Ak,n = {W(k+1)e−n − Wke−n > c ne−n/2 }
Die Tail-Abschätzung der Standardnormalverteilung liefert
P(Ak,n ) = P(We−n
√
√
> c ne−n/2 ) = P(W1 > c n) ≥
√
c n
1
2
√ e−c n/2
2
c n + 1 2π
und wir sehen, dass für unsere Wahl von c gerade limn→∞ en P(A0,n ) = ∞ gilt. Für festes n ∈ N
sind die Ereignisse A0,n , A1,n , . . . unabhängig und wir erhalten
P
n −1c
be\
k=0
n
Ack,n = (1 − P(A0,n ))be c = exp{ben c log(1 − P(A0,n )} → 0
|
{z
}
für n → ∞.
P
≤− (A0,n )
Sben −1c
Damit treten fast sicher unendlich viele der Ereignisse Bn = k=0 Ak,n (n ∈ N) ein. Tritt
Ak,n ein, so folgt für h = e−n und t = k e−n
p
√
Wt+h − Wt > c ne−n/2 = c h log h.
√
Man kann nun noch einen Schritt weiter gehen und fragen, ob die Voraussetzung c < 2 für die
Schlussfolgerung des Sazes notwendig ist. Die Antwort auf die Frage lautet “ja”:
Satz 6.18 (Lévys Stetigkeitsmodul). Es gilt
lim sup
h↓0
|W
− Wt |
p t+h
= 1,
2h log(1/h)
0≤t≤1−h
sup
fast sicher.
Um die verbleibende Richtung zu zeigen betrachten wir zunächst nur die Inkremente über eine
besondere Menge von Intervallen. Für n, m ∈ N bezeichnen wir mit Λn (m) die Menge der
Intervalle
[(k − 1+b)2−n+a , (k+b)2−n+a ],
S
1
mit k ∈ {1, . . . , 2n } und a, b ∈ {0, m
, . . . , m−1
n∈N Λn (m). Man
m }. Weiterhin setzen wir Λ(m) :=
bermerke, dass ohne die blauen Terme die Menge gerade die Menge der dyadischen Intervalle
wäre.
√
Lemma 6.19. Für jedes feste m ∈ N und c > 2 existiert fast sicher ein n0 ∈ N, sodass für
alle n ≥ n0 und [s, t] ∈ Λn (m)
r
1
|Wt − Ws | ≤ c (t − s) log
t−s
gilt.
11
1
Beweis. Für n ∈ N, k ∈ {1, . . . , 2n } und a, b ∈ {0, m
, . . . , m−1
m } erhalten wir mithilfe der Skalierungseigenschaften des Wienerprouzesses:
p
P |W(k+b)2−n+a − W(k−1+b)2−n+a | > c 2−n+a log(2n+a )
p
p
= P(|W1 | > c log(2n+a )) ≤ 2 P(W1 > c log(2n ))
Diese Abschätzung liefert nun zusammen mit obiger Tail-Abschätzung
r
X
1 P |Wt − Ws | > c (t − s) log
t−s
[s,t]∈Λ(m)
n
=
2
XX
N
X
P |W(k+b)2−n+a − W(k−1+b)2−n+a | > c
p
2−n+a log(2n+a )
n∈ k=1 a,b∈{0,..., m−1 }
m
≤
X
N
p
2 · 2n m2 P(W1 ≥ c log(2n ))
n∈
≤
X
1
2m2
2
p
√ 2n(1−c /2) < ∞.
n
c log(2 ) 2π
n∈N
Wegen des Lemmas von Borel-Cantelli gilt also fast sicher, dass
r
1
|Wt − Ws | ≤ c (t − s) log
t−s
für alle bis auf endlich viele Intervalle [s, t] ∈ Λ(m) gilt.
Lemma 6.20. Für ε > 0 existiert ein m ∈ N sodass für 0 ≤ s < t ≤ 1 ein Intervall [s0 , t0 ] ∈ Λ(m)
existiert mit
|t − t0 | ≤ ε(t − s) und |s − s0 | ≤ ε(t − s).
Beweis. Für gegebenes ε > 0 wählen wir m ∈ N so groß, dass 1/m < ε/4 und 21/m < 1 + ε/2.
Sei nun [s, t] ein gegebenes Intervall. Jedes Intervall aus Λ(m) lässt sich als
[s0 , t0 ] = [(k − 1 + b)2−n+a , (k + b)2−n+a ] ∈ Λ(m),
mit Parametern n ∈ N, a, b ∈ {0, 1/m, . . . , (m − 1)/m} und k ∈ {1, . . . , 2n } darstellen. Wir
wählen nun die Parameter nacheinander. Zuerst wählen wir n und a, sodass
2−n ≤ t − s < 2−n+1 und 2−n+a ≤ t − s < 2−n+a+1/m
gelten. Als nächstes wählen wir k und b mit
(k − 1)2−n+a < s ≤ k2−n+a und (k − 1 + b)2−n+a < s ≤ (k − 1 + b + 1/m)2−n+a .
Nun folgt
|s − s0 | ≤
1 −n+a
m2
≤ 4ε 2−n+1 ≤ 2ε (t − s).
12
und
|t − t0 | ≤ |s − s0 | + |(t − s) − (t0 − s0 )| ≤ 2ε (t − s) + 2−n+a+1/m − 2−n+a
≤ 2ε (t − s) + 2ε 2−n+a ≤ ε(t − s).
Nun können wir die verbleibende
beweisen.
√ Richtung des Lévy’schen Stetigkeitsmoduls
√
Beweis. Für gegebenes c > 2 und ε ∈ (0, 1) wählen wir c̃ := 12 (c + 2) und m = m(ε) wie
im obigen Lemma. Wir wissen bereits, dass es eine fast sicher endliche Zufallsvariable n0 gibt,
sodass für n ≥ n0 und [s0 , t0 ] ∈ Λn (m) (siehe Lemma 6.19)
r
1
|Wt0 − Ws0 | ≤ c̃ (t0 − s0 ) log 0
t − s0
und für 0 ≤ s < t ≤ 1 mit t − s ≤ 2−n0
r
|Wt − Ws | ≤ C
(t − s) log
1
t−s
für eine feste Konstante C (siehe Satz 6.16). Sei nun 0 ≤ s < t ≤ 1 mit t − s < 2−n0 −1 ∧ ((1 +
2ε)e)−1 und wähle [s0 , t0 ] ∈ Λ(m) wie im letzten Lemma. Es folgt
|Wt − Ws | ≤ |Wt − Wt0 | + |Wt0 − Ws0 | + |Ws0 − Ws |
s
s
s
1
1
1
+ c̃ |t0 − s0 | log 0
+ C |s − s0 | log
≤ C |t − t0 | log
0
0
|t − t |
|t − s |
|s − s0 |
s
s
1
1
≤ 2C ε(t − s) log
+ c̃ (1 + 2ε)(t − s) log
ε(t − s)
(1 + 2ε)(t − s)
r
r
r
p
1
1
1
+ c̃ (1 + 2ε) (t − s) log
≤ 4C ε log
(t − s) log
ε
t−s
t−s
q
1
und für hinreichend kleines ε > 0 ist dies kleiner gleich c (t − s) log t−s
.
Wir zeigen nun, dass der Wienerprozess fast sicher in keinem Punkt differenzierbar ist.
Satz 6.21. Der Wienerprozess ist fast sicher zu keiner Zeit in [0, 1) rechtsseitig differenzierbar.
Wir nutzen folgendes Lemma.
Lemma 6.22. Sei f : [0, 1) → R eine stetige Funktion. Ist f in einem Zeitpunkt rechtsseitig differenzierbar, so gibt es M > 0 sodass für jedes hinreichend große n ∈ N drei aufeinanderfolgende
Dn -Intervalle [u, v] mit
|f (u) − f (v)| ≤ M · 2−n
gibt.
13
Beweis. Ist f rechtsseitig differenzierbar in t ∈ [0, 1) so gibt es ein M > 0 und ein Intervall
I = [t, t + ε] ⊂ [0, 1) (ε > 0) mit
∀s ∈ I : |f (s) − f (t)| ≤
M
8 (s
− t)
Sei nun n ∈ N mit 4 · 2−n ≤ ε. Dann liegen die ersten drei Dn -Intervalle rechts von t im Intervall
I. Da für jedes der drei Intervalle [u, v] die Abschätzung t ≤ u ≤ v ≤ t + 4 2−n gilt folgt mithilfe
der ∆-Ungleichung
|f (u) − f (v)| ≤ |f (u) − f (t)| + |f (t) − f (v)| ≤
M
8 2
· 4 · 2−n = M 2−n .
Beweis der Nichtdifferenzierbarkeit. Nach dem letzen Lemma reicht es zu zeigen, dass für
beliebiges M > 0 fast sicher unendlich viele der Ereignisse
Bn =
n −3 3
2[
\
c
{|W(k+l)2−n − W(k+l−1)2−n | ≤ M 2−n }
k=0 l=1
eintreten. Es gilt
P(Bnc )
n
≤ 2 P(
3
\
{|Wl2−n − W(l−1)2−n | ≤ M 2−n })
l=1
3
n
≤ 2 P(|W2−n | ≤ M )3 = 2n P(|W1 | ≤ 2−n/2 M )
|
{z
}
√
−n/2
≤
≤ const(M ) 2
2/π 2
M
−n/2 n→∞
−→ 0
und damit treten fast sicher unendlich viele der Ereignisse Bn (n ∈ N) ein.
Bemerkung 6.23. Eine leichte Modifikation des Beweises zeigt sogar die stärkere Aussage,
dass fast sicher für alle t ∈ [0, 1)
lim sup
h↓0
|W (t + h) − W (t)|
=∞
h
gilt.
14
Herunterladen
Random flashcards
lernen

2 Karten oauth2_google_6c83f364-3e0e-4aa6-949b-029a07d782fb

Erstellen Lernkarten