Die Brownsche Bewegung

Werbung
Eingereicht von
Alexander Lindenberger
Angefertigt am
Institut für Analysis
Betreuer
Ao. Univ.-Prof. DI Dr.
Paul F. X. Müller
Februar 2017
Die Brownsche
Bewegung
Bachelorarbeit
zur Erlangung des akademischen Grades
Bachelor of Science
im Bachelorstudium
Technische Mathematik
JOHANNES KEPLER
UNIVERSITÄT LINZ
Altenbergerstraße 69
4040 Linz, Österreich
www.jku.at
DVR 0093696
Eidesstattliche Erklärung
Ich, Alexander Lindenberger, erkläre an Eides statt, dass ich die vorliegende Bachelorarbeit selbstständig und ohne fremde Hilfe verfasst, andere als die angegebenen Quellen und Hilfsmittel nicht
benutzt bzw. die wörtlich oder sinngemäß entnommenen Stellen als solche kenntlich gemacht habe.
Die vorliegende Bachelorarbeit ist mit dem elektronisch übermittelten Textdokument identisch.
...........................
...........................
Ort, Datum
Unterschrift
Vorwort
Unter dem Titel Random Walk werden mathematische Modelle für Bewegungen zusammengefasst,
deren Schritte zufällig erfolgen. Derartige Modelle können etwa die Entwicklung von Aktienkursen,
die Futtersuche von Tieren oder den Kontostand eines Spielers beschreiben. Ein spezieller Random
Walk, der in der Physik häufig zur Modellierung von Teilchenbewegungen in Flüssigkeiten oder Gasen verwendet wird, ist die sogenannte Brownsche Bewegung. In dieser Arbeit beschäftigen wir uns
mit mathematischen Eigenschaften der Brownschen Bewegung. Dafür ist es zunächst notwendig,
grundlegende Begriffe aus der Stochastik, insbesondere im Zusammenhang mit Stochastischen
Prozessen einzuführen. Anschließend können wir die Brownsche Bewegung als einen speziellen
Stochastischen Prozess definieren und ihre Existenz beweisen. Um die Brücke zu anderen mathematischen Gebieten, insbesondere der Analysis, zu schlagen, werden wir daraufhin die Grundlagen
des Zusammenhangs zwischen der Brownschen Bewegung und harmonischen Funktionen klären,
welche unter anderem zu stochastischen Lösungen spezieller partieller Differentialgleichungen führen. Weiters interessieren wir uns für Aussagen über das asymptotische Verhalten der Brownschen
Bewegung. Das Gesetz des iterierten Logarithmus liefert diesbezüglich erstaunlich präzise Aussagen
und stellt somit einen wesentlichen Eckpfleiler dieser Arbeit dar.
St. Valentin, Februar 2017
Alexander Lindenberger
Inhaltsverzeichnis
1 Stochastische Grundlagen
1.1 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Filtrationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Stoppzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Die Brownsche Bewegung
2.1 Der Satz von Wiener . . . . . . . . . . . . . . . . . . . . .
2.2 Die Markow-Eigenschaften und ihre Anwendungen . . . . .
2.2.1 Die (schwache) Markow-Eigenschaft . . . . . . . .
2.2.2 Das Blumenthalsche 0-1-Gesetz . . . . . . . . . . .
2.2.3 Die starke Markow-Eigenschaft . . . . . . . . . . .
2.2.4 Das Reflexionsprinzip . . . . . . . . . . . . . . . .
2.3 Der Zusammenhang mit harmonischen Funktionen . . . . .
2.4 Aussagen über das asymptotische Verhalten der Brownschen
2.4.1 Das Gesetz der großen Zahlen . . . . . . . . . . . .
2.4.2 Das 0-1-Gesetz von Hewitt-Savage . . . . . . . . .
2.4.3 Das Gesetz des iterierten Logarithmus . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
Bewegung
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
5
6
7
7
11
11
11
12
14
15
17
17
19
21
3 Anhang
23
3.1 Wichtige Sätze aus der Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . . 23
3.2 Eigenschaften normalverteilter Zufallsvariablen . . . . . . . . . . . . . . . . . . . 25
5
1
Stochastische Grundlagen
In diesem Abschnitt werden wesentliche Begriffe eingeführt, die zur Betrachtung stochastischer
Prozesse essentiell sind. Dazu folgen wir der Notation in [Kle13, Kapitel 9.1, S. 193 ff.]. Maßtheoretische Grundlagen werden hier vorausgesetzt und können bei Bedarf beispielsweise in [Hal76]
oder in [Kle13, Kapitel 1] nachgelesen werden.
1.1
Stochastische Prozesse
Definition 1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum, (Z, Z) ein mit einer σ-Algebra
versehener Raum (meist die reellen Zahlen mit der Borelschen σ-Algebra) und T eine Indexmenge (meist T ∈ {N0 , R+
0 }). Ein stochastischer Prozess X mit Zeitbereich T ist eine
Abbildung X : Ω × T → Z, sodass Xt : Ω → Z, ω 7→ X(ω, t) für alle t ∈ T eine Zufallsvariable, also eine F-Z-messbare Abbildung, ist.
Für jedes ω ∈ Ω nennt man die Abbildung X(ω, ·) : T → Z, t 7→ X(ω, t) einen Pfad von X.
Man kann also einen stochastischen Prozess entweder als Familie von Zufallsvariablen, oder aber
als funktionswertige Zufallsvariable, deren Werte die Pfade des Prozesses sind, betrachten.
Ein wichtiges Konzept der Wahrscheinlichkeitstheorie ist die Unabhängigkeit von Ereignissen oder
Zufallsvariablen. Mit dem stochastischen Prozess haben wir ein weiteres Konstrukt eingeführt, für
das wir einen Unabhängigkeitsbegriff definieren können.
Definition 1.2. Seien {Xt : t ∈ T1 } und {Yt : t ∈ T2 } zwei stochastische Prozesse über
demselben Wahrscheinlichkeitsraum (Ω, F, P) und sei G ⊆ F eine beliebige Teil-σ-Algebra
von F.
{Xt : t ∈ T1 } und {Yt : t ∈ T2 } heißen unabhängig, wenn für alle m, n ∈ N, s1 , . . . , sm ∈ T1
und t1 , . . . , tn ∈ T2 die Zufallsvektoren (Xs1 , . . . , Xsm ) und (Yt1 , . . . , Ytn ) unabhängig sind.
Weiters sagt man, dass {Xt : t ∈ T1 } von G unabhängig ist, wenn für alle n ∈ N, t1 , . . . , tn ∈ T1 ,
B1 , . . . , Bn ∈ B(Rd ) und A ∈ G die Ereignisse Xt−1
(B1 ) ∩ . . . ∩ Xt−1
(Bn ) und A unabhängig
n
1
sind.
1.2
Filtrationen
Definition 1.3. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum, T eine linear geordnete Indexmenge und {Ft }t∈T eine Familie von Teil-σ-Algebren von F mit
∀m, n ∈ T : m ≤ n ⇒ Fm ⊆ Fn
Dann heißt {Ft }t∈T eine F ilterung oder F iltration auf dem Wahrschlichkeitsraum mit Zeitbereich T . Das Quadrupel (Ω, F, {Ft }t∈T , P) heißt dann ein gefilterter Wahrscheinlichkeitsraum.
Definition 1.4. Sei (Ω, F, {Ft }t∈T , P) ein gefilterter Wahrscheinlichkeitsraum. Wir schreiben
[
F∞ := σ( Ft ).
t∈T
F∞ ist also die kleinste σ-Algebra, die alle Ft , t ∈ T enthält.
Definition 1.5. Sei X ein stochastischer Prozess mit Zeitbereich T und sei {Ft }t∈T eine
Filterung. X heißt angepasst zur Filterung {Ft }t∈T , falls für jedes t ∈ T die Zufallsvariable
Xt messbar bezüglich Ft ist.
6
1 STOCHASTISCHE GRUNDLAGEN
Definition 1.6. Sei X ein stochastischer Prozess mit Zeitbereich T und sei für alle t ∈ T
FtX := σ({Xs : s ≤ t}) die von {Xs : s ≤ t} erzeugte Initial-σ-Algebra. Dann heißt {FtX }t∈T
die von X erzeugte Filterung.
Offensichtlich ist jeder Prozess an die von ihm erzeugte Filterung angepasst.
1.3
Stoppzeiten
Definition 1.7. Sei (Ω, F, {Ft }t∈R+0 , P) ein gefilterter Raum. Eine Zufallsvariable T : Ω →
[0, ∞] heißt eine Stoppzeit, falls {T ≤ t} ∈ Ft für alle t ∈ R+
0.
Bemerkung 1.8. Wir geben ein paar grundlegende Beispiele für Stoppzeiten an:
1. Für jede Filterung ist jede deterministische Zufallsvariable ω 7→ t ∈ R+
0 eine Stoppzeit.
2. Wenn (Tn )n∈N eine monototon wachsende Folge von Stoppzeiten ist und Tn ↑ T , dann
ist T ebenfalls eine Stoppzeit bezüglich der gleichen Filterung. Dies gilt, weil
{T ≤ t} =
∞
\
{Tn ≤ t} ∈ Ft .
n=1
3. Sei T eine Stoppzeit. Wir definieren für n ∈ N


falls T (ω) = 0
0
−n
Tn (ω) := (m + 1)2
falls T (ω) ∈ (m2−n , (m + 1)2−n ] .


∞
falls T (ω) = ∞
−n
Sei t ∈ R+
so, dass t ∈ [k2−n , (k + 1)2−n ). Dann gilt
0 und s = k2
{Tn ≤ t} = {T ≤ s} ∈ Fs ⊆ Ft .
Also ist Tn eine Stoppzeit. Wir werden diese später als diskrete Approximation von T
verwenden.
Definition 1.9. Für eine Stoppzeit T definieren wir
FT := {A ∈ F∞ : A ∩ {T ≤ t} ∈ Ft für alle t ≥ 0}.
FT heißt die σ-Algebra der Ereignisse vor T .
Bemerkung 1.10. Falls T eine deterministische Stoppzeit ist, also T (ω) = c mit c ∈ [0, ∞],
gilt FT = Fc , denn
1. falls c = ∞, folgt
FT = {A ∈ F∞ |∀t ≥ 0 : A ∩ {T ≤ t} ∈ Ft }
= {A ∈ F∞ |∀t ≥ 0 : A ∩ ∅ ∈ Ft }
= {A ∈ F∞ |∀t ≥ 0 : ∅ ∈ Ft } = F∞ ,
2. falls c 6= ∞, folgt
FT = {A ∈ F∞ |∀t ≥ 0 : A ∩ {T ≤ t} ∈ Ft }
= {A ∈ F∞ |∀t ≥ c : A ∈ Ft ∧ ∀t < c : ∅ ∈ Ft }
= {A ∈ F∞ |∀t ≥ c : A ∈ Ft } = Fc .
Es kommt daher nicht zu einem Notationskonflikt.
7
2
Die Brownsche Bewegung
Mithilfe der Begriffe aus Kapitel 1 können wir nun die Brownsche Bewegung als einen speziellen
stochastischen Prozess definieren und ihre Existenz beweisen. Anschließend werden wir einige ihrer
grundlegenden Eigenschaften betrachten, die einerseits unser Verständnis dieser mathematischen
Struktur verbessern und andererseits die Voraussetzung für den Beweis weiterführender Aussagen sind. Insbesondere erlaubt es die starke Markow-Eigenschaft, einen Zusammenhang zwischen
der Brownschen Bewegung und harmonischen Funktionen herzustellen, dessen Grundlagen wir im
Weiteren skizzieren werden. Danach werden wir Aussagen über das asymptotische Verhalten der
Brownschen Bewegung tätigen, wobei hier vor allem das Gesetz der großen Zahlen und das Gesetz
des iterierten Logarithmus hervorzuheben sind.
Definition 2.1. Ein reellwertiger stochastischer Prozess B = {Bt : t ∈ R+
0 } auf dem Wahrscheinlichkeitsraum (Ω, A, P) heißt (lineare) Brownsche Bewegung mit Startwert x ∈ R, wenn
gilt:
1. B0 = x fast sicher
2. B hat unabhängige Zuwächse, d. h. für alle n ∈ N und t1 , . . . , tn ∈ R+
0 mit t1 ≤ . . . ≤ tn
sind die Zufallsvariablen Btn − Btn−1 , Btn−1 − Btn−2 , . . . , Bt2 − Bt1 unabhängig.
3. Für alle t ≥ 0 und h > 0 sind die Zuwächse Bt+h −Bt normalverteilt mit Erwartungswert
0 und Varianz h.
4. Die Pfade von B sind fast sicher stetig.
Weiters nennt man B eine (lineare) Standard-Brownsche Bewegung, falls x = 0.
2.1
Der Satz von Wiener
Die Existenz der Brownschen Bewegung wurde 1923 vom US-amerikanischen Mathematiker Norbert Wiener bewiesen, weshalb sie in der Mathematik häufig Wiener Prozess genannt wird. Wir
werden nun einen konstuktiven Beweis für die Existenz einer Brownschen Bewegung angeben und
folgen dabei [MP10, Satz 1.3, S. 9]. Eine weitere Beweismöglichkeit basiert auf dem Stetigkeitssatz
von Kolmogorov-Chentsov (siehe zum Beispiel [Kle13, S. 470 ff.]).
Man beobachte, dass {x + Bt : t ≥ 0} eine Brownsche Bewegung mit Startwert x ∈ R ist, falls
{Bt : t ≥ 0} eine Standard-Brownsche Bewegung ist. Demnach folgt aus dem Satz von Wiener
direkt die Existenz einer linearen Brownschen Bewegung mit Startwert x ∈ R.
Satz 2.2 (Wiener). Es existiert eine lineare Standard-Brownsche Bewegung.
S
Beweis. Für alle n ∈ N0 definieren wir Dn := { 2kn : k ∈ {0, . . . , 2n }} und D := ∞
n=0 Dn .
Sei (Ω, A, P) ein Wahrscheinlichkeitsraum, auf dem eine Familie unabhängiger, standardnormalverteilter Zufallsvariablen {Zt : t ∈ D} existiert. Die Existenz dieser Strukturen ist gesichert, da wie in [ABL14, S. 209] einfach ein Wahrscheinlichkeitsraum mit einer standardnormalverteilten Zufallsvariablen konstruiert werden kann und damit aufgrund des sogenannten
Klonsatzes (siehe zB [Beh12, Satz 4.5.1, S. 142]) auch ein Wahrscheinlichkeitsraum mit einer
abzählbaren Menge unabhängiger, standardnormalverteilter Zufallsvariablen existiert.
Für alle n ∈ N0 definieren wir nun Zufallsvariablen Bd , d ∈ Dn , sodass gilt:
1. B0 = 0.
8
2 DIE BROWNSCHE BEWEGUNG
2. Für alle k ∈ N und t1 , . . . , tk ∈ Dn mit t1 ≤ . . . ≤ tk sind die Zufallsvariablen Btk −Btk−1 ,
Btk−1 − Btk−2 , . . . , Bt2 − Bt1 unabhängig.
3. Für alle s, t ∈ Dn mit s < t ist die Zufallsvariable Bt − Bs normalverteilt mit Erwartungswert 0 und Varianz t − s.
Wir gehen dabei induktiv vor. Aus der Definition B0 := 0 und B1 := Z1 sieht man leicht,
dass die Bedingungen (1) - (3) für D0 erfüllt sind. Wir gehen nun davon aus, dass unsere
Konstruktion für n − 1 bereits erfolgreich war. Sei d ∈ Dn \ Dn−1 und definiere d− := d − 2−n
und d+ := d + 2−n . Dann sind d− und d+ aufeinanderfolgende Elemente in Dn−1 . Weiters
definieren wir
Bd + Bd+
Zd
+ n+1 .
Bd := −
2
2 2
Nun gilt
Bd − Bd− =
Bd+ − Bd−
Bd − Bd−
Zd
Zd
+ n+1 und Bd+ − Bd = +
− n+1 .
2
2
2 2
2 2
Bd −Bd
Da Nd := + 2 − eine Kombination von Elementen aus {Zt : t ∈ Dn−1 } ist, sind Nd und
Zd
nach dem Blockungslemma (Lemma 3.1) unabhängig. Laut Induktionshypothese
Nd0 := n+1
2 2
und mithilfe elementarer Eigenschaften der Normalverteilung sind sowohl Nd als auch Nd0
normalverteilt mit Erwartungswert 0 und Varianz 2−(n+1) . Nach Korollar 3.8 sind damit die
Zuwächse Bd − Bd− = Nd + Nd0 und Bd+ − Bd = Nd − Nd0 unabhängig und normalverteilt mit
Erwartungswert 0 und Varianz 2−n .
Wir zeigen nun, dass die Zuwächse {Bd − Bd− : d ∈ Dn \ {0}} unabhängig sind. Wegen
Korollar 3.10 reicht es zu zeigen, dass sie paarweise unabhängig sind. Wir haben bereits
gesehen, dass die Paare Bd − Bd− , Bd+ − Bd mit d ∈ Dn \ Dn−1 unabhängig sind. Für die
anderen Fälle gibt es ein d ∈ Dn−1 , das zwischen den Zuwachsintervallen liegt. Wähle d ∈ Dj
mit dieser Eigenschaft und minimalem j. Dann sind die beiden Zuwachsintervalle in [d−2−j , d]
bzw. [d, d + 2−j ] enthalten. Wegen der Induktionshypothese sind Bd+2−j − Bd und Bd − Bd−2−j
unabhängig. Nun werden aber die Zuwächse über die Intervalle der Länge 2−n aus Bd+2−j −Bd
respektive Bd − Bd−2−j zusammen mit disjunkten Teilmengen von {Zt : t ∈ Dn } konstruiert
und sind damit nach dem Blockungslemma unabhängig. Damit ist Eigenschaft (2) erfüllt.
Wir zeigen nun, dass auch Eigenschaft (3) erfüllt ist. Seien dazu r, s ∈ Dn mit r < s. Dann
gibt es t0 , . . . , t(s−r)2n ∈ Dn mit r = t0 < . . . < t(s−r)2n = s und
Bs − Br = Bt(s−r)2n − Bt(s−r)2n −1 + Bt(s−r)2n −1 − . . . − Bt1 + Bt1 − Bt0
Wegen Eigenschaft (2) ist Bs −Br also die Summe von (s−r)2n -vielen unabhängigen, normalverteilten Zufallsvariablen mit Erwartungswert 0 und Varianz 2−n und ist damit normalverteilt
mit Erwartungswert 0 und Varianz s − r. Somit ist der Induktionsschritt gezeigt.
Wir haben nun also passende Werte für unseren Prozess an den dyadischen Punkten. Durch
Interpolation erhalten wir einen Kandidaten für eine Brownsche Bewegung. Wir definieren
dazu
F0 (t) := tZ1 für t ∈ [0, 1]
und für jedes n ∈ N:
 n+1
−

2 2 Zt
Fn (t) := 0


linear
für t ∈ Dn \ Dn−1
für t ∈ Dn−1
zwischen aufeinanderfolgenden Punkten in Dn
2.1 Der Satz von Wiener
9
Diese Funktionen besitzen stetige Pfade auf [0, 1] und für alle n ∈ N0 und d ∈ Dn gilt
Bd =
n
X
Fi (d) =
i=0
∞
X
Fi (d),
(2.1)
i=0
wie man mittels Induktion nachprüfen kann. Der Fall n = 0 ist trivial. Wir nehmen an, 2.1
gelte für n−1. Sei d ∈ Dn \Dn−1 . Da für i ∈ {0, . . . , n−1} die Funktion Fi auf [d−2−n , d+2−n ]
linear ist, erhalten wir mithilfe der Induktionshypothese
n−1
X
n−1
X
Fi (d − 2−n ) + Fi (d + 2−n )
Fi (d) =
i=1
Mit Fn (d) = 2−
2
i=1
n+1
2
=
Bd−2−n + Bd+2−n
.
2
Zd folgt dann
n
X
Fi (d) =
i=1
n+1
Bd−2−n + Bd+2−n
+ 2− 2 Zd = Bd ,
2
womit 2.1 gezeigt ist.
Aufgrund von Lemma 3.5 gilt für c > 1 und n ≥ π2 , dass
√
√
−c2 n
c2 n
2
P(|Zd | ≥ c n) = 2P(Zd ≥ c n) ≤ √
e− 2 ≤ e 2 ,
c 2πn
womit die Reihe
∞
X
n=0
P(
[
√
{|Zd | ≥ c n}) ≤
∞ X
X
√
P(|Zd | ≥ c n)
n=0 d∈Dn
∞
X
d∈Dn
(2n + 1)e
≤2+
=2+
n=1
∞
X
en ln 2+
−c2 n
2
−c2 n
2
+e
−c2 n
2
n=1
für c >
nun
√
2 ln 2 konvergiert. Nach dem ersten Teil des Borel-Cantelli-Lemmas (Satz 3.3) gilt
[
√
P(lim sup
{|Zd | ≥ c n}) = 0,
n→∞
d∈Dn
d. h. für fast
√ alle ω ∈ Ω gilt, dass nur für endlich viele n ∈ N ein d ∈ Dn existiert, sodass
|Zd (ω)| ≥ c√ n, also gibt es für fast alle ω ∈ Ω ein N ∈ N, sodass für alle n ≥ N gilt, dass
|Zd (ω)| < c n. Es folgt für fast alle ω ∈ Ω und alle n ≥ N
n √
kFn k∞ = sup |Fn (t)| < 2− 2 c n.
t∈[0,1]
Das bedeutet, dass die Reihe
Bt :=
∞
X
Fn (t)
n=0
nach dem Weierstraßschem Majorantenkriterum auf [0, 1] für fast alle ω ∈ Ω absolut und
gleichmäßig konvergiert. Aus der gleichmäßigen Konvergenz folgt sofort die Stetigkeit der so
definierten Pfade.
10
2 DIE BROWNSCHE BEWEGUNG
Wir müssen noch überprüfen, ob die Zuwächse dieses Prozesses die geforderten Eigenschaften
erfüllen. Dazu nutzen wir aus, dass D dicht in [0, 1] liegt. Seien t1 < t2 < . . . < tn aus [0, 1].
Dann gibt es für i ∈ {1, . . . , n} Folgen (ti,k )k∈N ∈ DN , sodass t1,k ≤ t2,k ≤ . . . ≤ tn,k für alle
k ∈ N und lim ti,k = ti für alle i ∈ {1, . . . , n}. Für i ∈ {1, . . . , n − 1} gilt dann wegen der
k→∞
Stetigkeit der Pfade
Bti+1 − Bti = lim Bti+1,k − Bti,k , f.s.
k→∞
Nun gilt, dass
lim E(Bti+1,k − Bti,k ) = 0
k→∞
und
lim Cov(Bti+1,k − Bti,k , Btj+1,k − Btj,k ) = lim δij (ti+1,k − ti,k ) = δij (ti+1 − ti ),
k→∞
k→∞
womit nach Satz 3.11 und Korollar 3.10 folgt, dass Bti+1 − Bti unabhängige, normalverteilte
Zufallsvariablen mit Erwartungswert 0 und Varianz ti+1,k − ti,k sind.
Damit haben wir also einen stetigen Prozess am Zeitbereich [0, 1] konstruiert, der die Eigenschaften der Brownschen Bewegung erfüllt. Um diesen nun auf [0, ∞) zu erweitern, können
wir aus einer Folge unabhängiger, standardnormalverteilter Zufallsvariablen mittels CantorDiagonalisierung eine abzählbare Menge solcher Folgen gewinnen und aus diesen wie oben eine
Folge B 0 , B 1 , . . . von unabhängigen Prozessen auf [0, 1] mit den gewünschten Eigenschaften
konstruieren. Anschließend definiert man B = {Bt : t ∈ R+
0 } als
btc−1
Bt :=
btc
Bt−btc
+
X
B1i für alle t ∈ R+
0
i=0
Aus dem bisher gezeigten sieht man schnell, dass dadurch eine lineare Standard-Brownsche
Bewegung definiert ist.
Bemerkung 2.3. Mittels Cantor-Diagonalisierung kann man aus einer Folge unabhängiger,
standardnormalverteilter Zufallsvariablen eine Folge von Folgen unabhängiger, standardnormalverteilter Zufallsvariablen gewinnen. Aus jeder dieser Folgen kann wie im Beweis von Satz
2.2 eine Brownsche Bewegung konstruiert werden. Auf diese Art und Weise erhält man eine
Folge unabhängiger Brownscher Bewegungen.
Bisher haben wir nur von eindimensionalen Brownschen Bewegungen gesprochen. Den mehrdimensionalen Wiener Prozess definieren wir einfach als Vektor, deren Komponenten unabhängige
lineare Brownsche Bewegungen sind.
Definition 2.4. Seien B 1 , . . . , B d unabhängige lineare Brownsche Bewegungen mit Startwerten x1 , . . . , xd ∈ R. Den stochastischen Prozess B = {Bt : t ∈ R+
0 }, definiert durch
Bt := (Bt1 , . . . , Btd )T ,
nennt man d-dimensionale Brownsche Bewegung mit Startwert (x1 , . . . , xd )T ∈ Rd . Falls
(x1 , . . . , xd )T = 0, heißt B auch (d-dimensionale) Standard-Brownsche Bewegung. Die eindimensionale Brownsche Bewegung wird auch linear, die zweidimensionale planar genannt.
Bemerkung 2.5. Wenn man Brownsche Bewegungen mit verschiedenen Startpunkten benötigt, ist es oft hilfreich, anstelle von unterschiedlichen Prozessen nur einen Prozess, aber für
jeden Startwert ein anderes Wahrscheinlichkeitsmaß zu betrachten. Wenn B eine StandardBrownsche Bewegung ist, schreiben wir Px für das Maß, welches aus B eine Brownsche Bewegung mit Startwert x ∈ Rd macht, und Ex für den entsprechenden Erwartungswert.
2.2 Die Markow-Eigenschaften und ihre Anwendungen
11
40
y
20
0
−20
−10
0
10
x
20
30
Abbildung 1: Zwei simulierte Pfade einer planaren Standard-Brownschen Bewegung mit Startwert (0,0) bis t=1000
2.2
Die Markow-Eigenschaften und ihre Anwendungen
Wir widmen uns nun wesentlichen Eigenschaften der Brownschen Bewegung, die im Umgang mit
dieser Struktur oftmals von Bedeutung sind und folgen dabei [MP10, Kapitel 2, S. 36 ff.].
2.2.1
Die (schwache) Markow-Eigenschaft
Intuitiv besagt die Markow-Eigenschaft, dass die Kenntnis einer Brownschen Bewegung {Bt , t ∈
R+
0 } am Intervall [0, s], s > 0 für Aussagen über die Zukunft des Prozesses genau so nützlich ist,
wie die Kenntnis des Endpunktes Bs . Die Vergangenheit des Prozesses hat also keinen Einfluss auf
seine weitere Entwicklung, er hat sozusagen ein kurzes Gedächtnis. Prozesse mit dieser Eigenschaft
werden allgemein als Markow-Prozesse bezeichnet.
Satz 2.6 (Markow-Eigenschaft). Sei B eine Brownsche Bewegung mit Startwert x ∈ Rd und
sei s > 0. Der stochastische Prozess {Bt+s − Bs : t ≥ 0} ist eine Brownsche Bewegung, die
im Ursprung startet und unabhängig vom Prozess {Bt : t ∈ [0, s]} ist.
Beweis. Die Eigenschaften der Brownschen Bewegung können einfach komponentenweise nachgewiesen werden und folgen direkt aus den entsprechenden Eigenschaften von B. Die Unabhängigkeitseigenschaft folgt aus der Unabhängigkeit der Zuwächse.
2.2.2
Das Blumenthalsche 0-1-Gesetz
Im Weiteren bezeichnen wir mit {Ft0 }t∈R+0 die von der Brownschen Bewegung erzeugte Filterung.
Diese modelliert alle Informationen, die man durch Beobachtung der Brownschen Bewegung bin
zum Zeitpunkt t erfährt. Wir betrachten nun aber auch die Filterung {Ft+ }t∈R+0 , definiert durch
Ft+ :=
\
Fs0
s>t
Offensichtlich ist {Ft+ }t∈R+0 eine Filterung und es gilt Ft0 ⊆ Ft+ für alle t ∈ R+
0 . Intuitiv ist für
+
+
+
0
t ∈ R0 Ft ein bisschen feiner als Ft und man könnte sagen, dass Ft Information aus einem
Zeitpunkt, der ein unendlich kleines Stück in der Zukunft liegt, enthält.
12
2 DIE BROWNSCHE BEWEGUNG
Falls T eine Stoppzeit ist, bezeichnen wir die σ-Algebra der Ereignisse vor T bezüglich {Ft+ }t∈R+0
(vgl. Definition 1.9) mit FT+ .
Lemma 2.7. Sei H ⊆ Rd eine abgeschlossene Menge (zum Beispiel eine einelementige Menge). Dann ist die Zufallsvariable T := inf{t ≥ 0 : Bt ∈ H} eine Stoppzeit bezüglich {Ft0 }t∈R+0 .
Beweis. Für t ∈ R+
0 gilt
{T ≤ t} =
∞
\
[
[
n=1 s∈Q∩(0,t) x∈Qd ∩H
1
{Bs ∈ Bx ( )} ∈ Ft0 .
n
Satz 2.8. Für jedes s ∈ R+
0 ist der Prozess {Bt+s − Bs : t ≥ 0} unabhängig von der σ-Algebra
+
Fs .
Beweis. Sei (sn )n∈N eine streng monoton fallende Folge in R+
0 mit lim sn = s. Wegen der
n→∞
Pfadstetigkeit gilt Bt+s − Bs = lim Bt+sn − Bsn fast sicher. Seien A ∈ Fs+ und t1 , . . . , tm ≥ 0.
n→∞
Mit Fs+ ⊆ Fsn und Satz 2.6 folgt, dass {Bt+sn − Bsn : t ≥ 0} unabhängig von Fs+ ist. Für alle
stetigen und beschränkten Funktionen f und g gilt dann mit dem Satz über die dominierte
Konvergenz
E(f (Bt1 +s − Bs , . . . , Btm +s − Bs )g(1A ))
= lim E(f (Bt1 +sn − Bsn , . . . , Btm +sn − Bsn )g(1A ))
n→∞
= lim E(f (Bt1 +sn − Bsn , . . . , Btm +sn − Bsn ))E(g(1A ))
n→∞
= E(f (Bt1 +s − Bs , . . . , Btm +s − Bs ))E(g(1A )).
Mithilfe von Satz 3.2 folgt daraus die behauptete Unabhängigkeit.
Als Korollar von Satz 2.8 erhalten wir direkt das Blumenthalsche 0-1-Gesetz, wonach F0+ trivial
ist.
Satz 2.9 (Blumenthalsches 0-1-Gesetz). Sei A ∈ F0+ . Dann gilt P(A) ∈ {0, 1}.
Beweis. Sei A ∈ F0+ . Dann gilt A ∈ Ft0 für alle t > 0, also insbesondere A ∈ σ({Bt : t ≥ 0}).
Aus Satz 2.8 mit s = 0 folgt, dass σ({Bt : t ≥ 0}) und F0+ unabhängig sind. Damit gilt
P(A) = P(A ∩ A) = P(A)2 ,
also P(A) ∈ {0, 1}.
2.2.3
Die starke Markow-Eigenschaft
Die Markow-Eigenschaft der Brownschen Bewegung besagt, dass sie zu jeder deterministischen
Zeit neu startet. Die starke Markow-Eigenschaft verallgemeinert diese Aussage auf Stoppzeiten.
Satz 2.10 (Starke Markow-Eigenschaft). Sei B eine Brownsche Bewegung mit Startwert
x ∈ Rd und sei T eine fast überall endliche Stoppzeit. Dann ist der stochastische Prozess
{BT +t − BT : t ≥ 0}
eine Standard-Brownsche Bewegung, die unabhängig von der σ-Algebra FT+ ist.
2.2 Die Markow-Eigenschaften und ihre Anwendungen
13
Beweis. Wir zeigen die Aussage zuerst für diskrete Stoppzeiten Tn , die T approximieren (siehe
Bemerkung 1.8), also


falls T (ω) = 0
0
−n
Tn (ω) := (m + 1)2
falls T (ω) ∈ (m2−n , (m + 1)2−n ]


∞
falls T (ω) = ∞
für n ∈ N. Aufgrund der Markow-Eigenschaft (Satz 2.6) wissen wir, dass für alle k ∈ N durch
{Bt+ kn − B kn : t ≥ 0} eine Brownsche Bewegung definiert ist. Wir bezeichnen diese mit
2
2
(k)
B (k) = {Bt
durch
: t ≥ 0}. Weiters definieren wir einen stochastischen Prozess B ∗ = {Bt∗ : t ≥ 0}
Bt∗ := Bt+Tn − BTn .
Wir zeigen, dass B ∗ eine Brownsche Bewegung und unabhängig von FT+n ist. Seien also N ∈
+
d
N, t1 , . . . , tN ∈ R+
0 , A1 , . . . , AN ∈ B(R ) und E ∈ FTn . Dann gilt
P({Bt∗1 ∈ A1 } ∩ . . . ∩ {Bt∗N ∈ AN } ∩ E)
∞
X
=
P({Bt∗1 ∈ A1 } ∩ . . . ∩ {Bt∗N ∈ AN } ∩ E ∩ {Tn = k2−n })
k=0
=
∞
X
(k)
(k)
(k)
(k)
P({Bt1 ∈ A1 } ∩ . . . ∩ {BtN ∈ AN } ∩ E ∩ {Tn = k2−n })
k=0
=
∞
X
P({Bt1 ∈ A1 } ∩ . . . ∩ {BtN ∈ AN })P(E ∩ {Tn = k2−n }),
k=0
(k)
da wegen Satz 2.8 FtBN
+
und Fk2
−n unabhängig sind und
E ∩ {Tn = k2−n } = E ∩ {T ∈ ((k − 1)2−n , k2−n ]}
+
= E ∩ ({T ≤ k2−n } \ {T ≤ (k − 1)2−n }) ∈ Fk2
−n
gilt. Da B (k) für jedes k ∈ N0 eine Standard-Brownsche Bewegung ist, gilt für eine ddimensionale Standard Brownsche Bewegung W
(k)
(k)
P({Bt1 ∈ A1 } ∩ . . . ∩ {BtN ∈ AN }) = P({Wt1 ∈ A1 } ∩ . . . ∩ {WtN ∈ AN })
und damit
∞
X
(k)
(k)
P({Bt1 ∈ A1 } ∩ . . . ∩ {BtN ∈ AN })P(E ∩ {Tn = k2−n })
k=0
= P({Wt1 ∈ A1 } ∩ . . . ∩ {WtN ∈ AN })
∞
X
P(E ∩ {Tn = k2−n })
k=0
= P({Wt1 ∈ A1 } ∩ . . . ∩ {WtN ∈ AN })P(E),
also insgesamt
P({Bt∗1 ∈ A1 } ∩ . . . ∩ {Bt∗N ∈ AN } ∩ E) = P({Wt1 ∈ A1 } ∩ . . . ∩ {WtN ∈ AN })P(E).
Wenn wir E als den ganzen Raum wählen, folgt
P({Bt∗1 ∈ A1 } ∩ . . . ∩ {Bt∗N ∈ AN }) = P({Wt1 ∈ A1 } ∩ . . . ∩ {WtN ∈ AN }),
14
2 DIE BROWNSCHE BEWEGUNG
weshalb B ∗ eine Standard-Brownsche Bewegung ist. Zusätzlich folgt daraus
P({Bt∗1 ∈ A1 } ∩ . . . ∩ {Bt∗N ∈ AN } ∩ E) = P({Wt1 ∈ A1 } ∩ . . . ∩ {WtN ∈ AN })P(E)
+
d
∗
für alle N ∈ N, t1 , . . . , tN ∈ R+
0 , A1 , . . . , AN ∈ B(R ) und E ∈ FTn . Also ist B unabhängig
von FT+n .
Dieses Ergebnis müssen wir nun noch auf allgemeine Stoppzeiten T übertragen. Wegen der
Pfadstetigkeit der Brownschen Bewegung gilt
Bt+s+T − Bs+T = lim (Bt+s+Tn − Bs+Tn ) fast sicher.
n→∞
Da für s ≥ 0 die Zuwächse Bt+s+Tn − Bs+Tn unabhängig und normalverteilt mit Erwartungswert 0 und Varianz t sind und Bt+s+Tn − Bs+Tn fast sicher gegen Bt+s+T − Bs+T konvergiert,
sind nach Satz 3.11 auch die Zuwächse Bt+s+T − Bs+T normalverteilt mit Erwartungswert 0
und Varianz t. Da die Pfade des Prozesses {BT +t − BT : t ≥ 0} fast sicher stetig sind, ist er
also eine Brownsche Bewegung.
Zu zeigen bleibt die Unabhängigkeit von FT+ . Seien A ∈ FT+ und t1 , . . . , tk ≥ 0. Wir zeigen
dazu, dass für jede stetige und beschränkte Funktion F : (Rd )k → R
E(1A F (Bt1 +T − BT , . . . , Btk +T − BT )) = P(A)E(F (Bt1 +T − BT , . . . , Btk +T − BT )).
gilt, sodass die Behauptung mit Satz 3.2 folgt. Mithilfe der Pfadstetigkeit und des Satzes über
die dominierte Konvergenz erhalten wir
E(1A F (Bt1 +T − BT , . . . , Btk +T − BT )) = lim E(1A F (Bt1 +Tn − BTn , . . . , Btk +Tn − BTn )).
n→∞
Wegen T ≤ Tn gilt FT+ ⊆ FT+n , also A ∈ FT+n . Wir wissen aber bereits, dass der Prozess
{Bt+Tn − BTn : t ≥ 0} unabhängig von FT+n ist. Also gilt
E(1A F (Bt1 +T − BT , . . . , Btk +T − BT )) = lim E(1A F (Bt1 +Tn − BTn , . . . , Btk +Tn − BTn ))
n→∞
= P(A) lim E(F (Bt1 +Tn − BTn , . . . , Btk +Tn − BTn ))
n→∞
= P(A)E(F (Bt1 +T − BT , . . . , Btk +T − BT )),
wobei wir den Satz über die dominierte Konvergenz ein weiteres Mal verwendet haben.
Bemerkung 2.11. Eine alternative Formulierung der starken Markow-Eigenschaft ist, dass
für eine d-dimensionale Standard-Brownsche Bewegung B, jede fast sichere Stoppzeit T , alle
k ∈ N, jede beschränkte, messbare Funktion f : C([0, ∞), Rd )k → Rd , alle t1 , . . . , tk ∈ R+
0 und
d
jeden Startpunkt x ∈ R fast sicher
Ex (f (BT +t1 , . . . , BT +tk )|FT+ ) = Ex+BT (f (Bt1 , . . . , Btk ))
gilt.
2.2.4
Das Reflexionsprinzip
Eine Anwendung der starken Markow-Eigenschaft ist das Reflexionsprinzip, wonach man durch
Spiegelung der Pfade einer Brownschen Bewegung an einer Stoppzeit wieder eine Brownsche
Bewegung erhält. Wir folgen hier [MP10, Kapitel 2.2.1, S. 44 f.].
2.3 Der Zusammenhang mit harmonischen Funktionen
15
Satz 2.12 (Reflexionsprinzip). Seien B = {Bt : t ∈ R+
0 } eine Standard-Brownsche Bewegung
und T eine fast sicher endliche Stoppzeit. Der Prozess B ∗ = {Bt∗ : t ∈ R+
0 }, definiert durch
Bt∗ := Bt 1{t≤T } + (2BT − Bt )1{t>T } ,
ist ebenfalls eine Standard-Brownsche Bewegung.
Beweis. Siehe [MP10, Satz 2.19, S. 44-45].
Definition 2.13. Seien B = {Bt : t ∈ R+
0 } eine Standard-Brownsche Bewegung und T
eine fast sicher endliche Stoppzeit. Der Prozess B ∗ aus Satz 2.12 wird die bei T reflektierte
Brownsche Bewegung genannt.
Das Reflexionsprinzip erlaubt uns nun, die Verteilung der Zufallsvariablen max Bs , t ∈ R+
0 zu
s∈[0,t]
bestimmen, welche für Aussagen über das asymptotische Verhalten der Brownschen Bewegung
nützlich ist.
Satz 2.14. Sei B eine lineare Standard-Brownsche Bewegung und durch Mt := max Bs für
s∈[0,t]
jedes t ∈ R+
0 eine Zufallsvariable definiert. Für a > 0 gilt
P(Mt > a) = 2P(Bt > a) = P(|Bt | > a).
∗
Beweis. Sei T := inf{t ∈ R+
0 : Bt = a}. Nach Lemma 2.7 ist T eine Stoppzeit. Sei B die bei
T reflektierte Brownsche Bewegung. Es gilt
{Mt > a} = {Bt > a} ∪ {Mt > a, Bt ≤ a}.
Diese Zerlegung ist offensichtlich disjunkt. Weiters gilt {Mt > a, Bt ≤ a} = {Bt∗ ≥ a} und
damit
P(Mt > a) = P(Bt > a) + P(Bt∗ ≥ a) = 2P(Bt > a) = P(Bt > a) + P(−Bt > a)
= P(Bt > a) + P(Bt < −a) = P(|Bt | > a),
da B ∗ und −B lineare Standard-Brownsche Bewegungen sind.
2.3
Der Zusammenhang mit harmonischen Funktionen
Die Brownsche Bewegung ist nicht nur für die Stochastik interessant, sondern findet auch in der
Analysis, insbesondere im Zusammenhang mit harmonischen Funktionen und partiellen Differentialgleichungen, Anwendung. In diesem Kapitel möchten wir eine Einführung in dieses Thema
liefern, wozu wir uns zuerst mit einigen Grundlagen harmonischer Funktionen befassen und dabei
[MP10, Kapitel 3.1, S. 65 ff.] folgen. Details und Weiterführendes können unter anderem in [Bas94]
nachgelesen werden.
Definition 2.15. Sei U ⊆ Rd ein Gebiet, d. h. eine offene, nichtleere und zusammenhängende
Menge. Eine Funktion u : U → R heißt harmonisch, wenn sie zweimal stetig differenzierbar
ist und für jedes x ∈ U
d
X
∂2
∆u(x) :=
u(x) = 0
∂x2j
j=1
gilt. Falls stattdessen nur ∆u(x) ≥ 0 gilt, heißt u subharmonisch.
16
2 DIE BROWNSCHE BEWEGUNG
Wir beginnen mit zwei nützlichen äquivalenten Bedingungen, in denen nicht explizit von Differenzierbarkeit gesprochen wird.
Satz 2.16 (Mittelwerteigenschaften). Sei U ∈ Rd ein Gebiet und u : U → R messbar und
lokal beschränkt. Dann sind folgende Aussagen äquivalent:
1. u ist harmonisch.
2. Für jede Kugel Bx (r) ⊆ U gilt
Z
1
u(x) =
λ(Bx (r))
u(y)dy.
Bx (r)
3. Für jede Kugel Bx (r) ⊆ U gilt
1
u(x) =
σx,r (∂Bx (r))
Z
u(y)dσx,r (y),
∂Bx (r)
wobei σx,r das Oberflächenmaß auf ∂Bx (r) ist.
Beweis. Siehe [MP10, Satz 3.2, S. 65].
Bemerkung 2.17. Ähnlich zu Satz 2.16 kann auch zeigen, dass eine zweimal stetig differenzierbare Funktion u : U → R genau dann subharmonisch ist, wenn für alle Kugeln Bx (r) ⊆ U
Z
1
u(y)dy
u(x) ≤
λ(Bx (r)) Bx (r)
gilt.
Eine wichtige Eigenschaft subharmonischer Funktionen ist das sogenannte Maximumprinzip, welches in der Analysis eine wichtige Rolle spielt.
Satz 2.18 (Maximumprinzip). Sei u : Rd → R eine Funktion, die auf einem Gebiet U ⊆ Rd
subharmonisch ist. Dann gilt:
1. Wenn u in U sein Maximum annimmt, ist u auf U konstant.
2. Wenn u auf Ū stetig und U beschränkt ist, gilt
max u(x) = max u(x).
x∈Ū
Beweis.
x∈∂U
1. Seien M := max u(x) und V := {x ∈ U : u(x) = M }. Da U offen ist, gibt es für
x∈U
jedes x ∈ V eine Kugel Bx (r) ⊆ U . Mithilfe der Mittelwerteigenschaft (siehe Bemerkung
2.17) folgt
Z
Z
1
1
M = u(x) ≤
u(y)dy ≤
M dy = M
λ(Bx (r)) Bx (r)
λ(Bx (r)) Bx (r)
und damit
1
M = u(x) =
λ(Bx (r))
Z
u(y)dy.
Bx (r)
Aus u(y) ≤ M für y ∈ Bx (r) folgt nun u = M fast überall auf Bx (r). Wegen der
Stetigkeit von u auf U gilt dann Bx (r) ⊆ V . Also gibt es für jedes x ∈ V eine Umgebung, die wieder in V liegt, d. h. V ist offen. Andererseits sieht man anhand seiner
Definition, dass V relativ abgeschlossen bezüglich U ist. Da weiters V nicht leer und U
zusammenhängend ist, erhalten wir V = U . Also ist u konstant auf U .
2.4 Aussagen über das asymptotische Verhalten der Brownschen Bewegung
17
2. Da u stetig und Ū abgeschlossen und beschränkt ist, nimmt u sein Maximum auf Ū an.
Aus der ersten Aussage folgt, dass dieses in jedem Fall auf ∂U angenommen wird.
Bemerkung 2.19. Wenn u harmonisch ist, kann Satz 2.18 sowohl auf u als auch auf −u
angewandt werden. Damit folgt, dass die Aussagen des Maxiumprinzips in diesem Fall auch
für das Minimum gelten.
Korollar 2.20. Sei U ∈ Rd ein beschränktes Gebiet. Seien u1 , u2 : Rd → R Funktionen, die
auf U harmonisch und auf Ū stetig sind. Wenn u1 und u2 auf ∂U übereinstimmen, dann auch
auf Ū .
Beweis. Wenn wir die zweite Aussage des Maximumprinzips (Satz 2.18) auf die Funktion
u1 − u2 anwenden, erhalten wir
max u1 (x) − u2 (x) = max u1 (x) − u2 (x) = 0,
x∈Ū
x∈∂U
also u1 (x) ≤ u2 (x) für alle x ∈ Ū . Analog erhalten wir durch die Anwendung des Maximumprinzips auf u2 − u1 , dass für alle x ∈ Ū die Ungleichung u2 (x) ≤ u1 (x) und damit insgesamt
u2 (x) = u1 (x) gilt.
Nun können wir den folgenden Satz formulieren, der die Grundlage des Zusammenhangs zwischen
der Brownschen Bewegung und harmonischen Funktionen bildet.
Satz 2.21. Sei U ⊆ Rd ein Gebiet, {Bt : t ≥ 0} eine Standard-Brownsche Bewegung und
τ := inf{t ≥ 0 : Bt ∈ ∂U }. Sei weiters φ : ∂U → R messbar und so, dass die Funktion
u : U → R, definiert durch
u(x) := Ex (φ(Bτ )1{τ <∞} ), für jedes x ∈ U
lokal beschränkt ist. Dann ist u eine harmonische Funktion.
Beweis. Sei δ > 0 so, dass Bx (δ) ⊆ U und τ̃ := inf{t ≥ 0 : Bt ∈
/ Bx (δ)}. Mithilfe der starken
Markow-Eigenschaft gilt
u(x) = Ex (φ(Bτ )1{τ <∞} ) = Ex (Ex (φ(Bτ )1{τ <∞} |Fτ̃+ )) = Ex (u(Bτ̃ )).
Da Bτ̃ auf der Sphäre ∂Bx (δ) gleichverteilt ist, folgt
1
u(x) = Ex (u(Bτ̃ )) =
σx,δ (∂Bx (δ))
Z
u(y)dσx,δ (y).
∂Bx (δ)
Also besitzt u die Mittelwerteigenschaft. Da u auch lokal beschränkt ist, folgt aus Satz 2.16,
dass u harmonisch ist.
2.4
2.4.1
Aussagen über das asymptotische Verhalten der Brownschen Bewegung
Das Gesetz der großen Zahlen
Aus der Wahrscheinlichkeitstheorie sind diverse Gesetze der großen Zahlen bekannt, die Aussagen
über den Grenzwert des arithmetischen Mittels einer Folge von Zufallsvariablen (Xi )i∈N tätigen.
Wenn man einen diskreten stochastischen Prozess B auf den natürlichen Zahlen definiert, deren
18
2 DIE BROWNSCHE BEWEGUNG
Zuwächse Bi − Bi−1 für i ∈ N gleich Xi sind, entspricht dies dem Grenzwert der Folge Btt für
t → ∞. Deshalb erscheint es naheliegend, sich auch im Zusammenhang kontinuierlicher Prozesse
wie der Brownschen Bewegung für den Grenzwert von Btt zu interessieren. Tatsächlich liefert uns
eine weitere Eigenschaft der Brownschen Bewegung diesbezüglich eine Antwort. Wir folgen hier
der Darstellung aus [MP10, Kapitel 1.1.3, S. 12 ff.].
Satz 2.22 (Zeitumkehr). Sei B = {Bt : t ∈ R+
0 } eine lineare Standard-Brownsche Bewegung.
Dann ist der Prozess {Xt : t ∈ R+
},
definiert
durch
0
(
0
falls t = 0
Xt :=
tB 1 falls t > 0
t
ebenfalls eine Brownsche Bewegung.
Beweis. Seien n ∈ N und t0 , . . . , tn ∈ R+
0 mit 0 ≤ t0 < . . . < tn . Die Zufallsvektoren
(Bt0 , . . . , Btn ) folgen einer n-dimensionalen Normalverteilung mit Erwartungswert 0. Für die
Kovarianzen gilt
Cov(Bti , Btj ) = E((Bti − E(Bti )(Btj − E(Btj )) = E(Bti Btj ) = E(Bti (Btj − Bti + Bti ))
= E(Bti (Btj − Bti )) + E(Bt2i ) = Var(Bti ) = ti , falls i < j.
Es ist nun ausreichend zu zeigen, dass X stetige Pfade besitzt und (Xt0 , . . . , Xtn ) die gleiche
Verteilung wie (Bt0 , . . . , Btn ) besitzt. Aus elementaren Eigenschaften der Normalverteilung
folgt, dass Xti = ti B 1 normalverteilt mit Erwartungeswert 0 und Varianz ti ist. Weiters gilt
ti
für i < j
1
Cov(Xti , Xtj ) = ti tj Cov(B 1 , B 1 ) = ti tj = ti .
ti
tj
tj
Damit besitzt (Xt0 , . . . , Xtn ) die gleiche Verteilung wie (Bt0 , . . . , Btn ).
Die Pfadstetigkeit von X für t > 0 folgt direkt aus jener von B. Zu zeigen bleibt, dass die
Pfade auch im Punkt t = 0 stetig sind. Sei also (tn )n∈N eine Folge in (0, ∞) mit lim tn = 0.
n→∞
Für jedes n ∈ N sei sn :=
lim mn = ∞ und
1
tn
und mn ∈ N0 so, dass sn ∈ [mn , mn + 1). Dann gilt, dass
n→∞
|
1
1
1
1
1
1
Bsn −
Bmn | ≤ | Bsn − Bmn | + | Bmn −
Bmn |
sn
mn
sn
sn
sn
mn
1
1
1
≤
max
|Br − Bmn | + |Bmn ||
−
|
mn r∈[mn ,mn +1)
sm m n
1
2
≤
max
|Br − Bmn | +
|Bmn |.
mn r∈[mn ,mn +1)
mn
Für den zweiten Summanden gilt
mn
2
1 X
|Bmn | = 2|
(Bi − Bi−1 )|.
mn
mn i=1
Aus E(Bi − Bi−1 ) = 0 und dem starken Gesetz der großen Zahl von Etemadi (Satz 3.4) folgt,
mn
P
dass m1n (Bi − Bi−1 ) und somit auch m2n |Bmn | für n → ∞ fast sicher gegen 0 konvergiert.
i=1
2.4 Aussagen über das asymptotische Verhalten der Brownschen Bewegung
19
Sei Zn := max |Br − Bn |. Wir werden zeigen, dass für alle > 0
r∈[n,n+1)
1
P(lim sup{ Zn > }) = 0
n
n→∞
(2.2)
gilt. Da Zn nicht negativ ist und weil Zk für alle k ∈ N identisch verteilt ist, gilt
∞
Z
P(Zn > x)dx =
E(Zn ) =
0
∞ Z
X
k=1
k
P(Zn > x)dx ≥ (k−1)
∞
X
P(Zn > k) =
∞
X
P(Zn > n).
n=1
k=1
Nun gilt
E(Zn ) = E( max |Br −Bn |) = E( max |Br |) ≤ E(| max Br |+| max −Br |) = 2E(| max Br |).
r∈[n,n+1)
r∈[0,1)
r∈[0,1)
r∈[0,1)
r∈[0,1)
Aufgrund von Satz 2.14 gilt E( max Br ) < ∞ und somit auch E(Zn ) ≤ 2E(| max Br |) < ∞.
r∈[0,1)
∞
P
Damit erhalten wir
k=1
r∈[0,1)
P( n1 Zn > ) < ∞, woraus mit dem Borel-Cantelli-Lemma (siehe
1
Zn
n→∞ n
Satz 3.3) die Behauptung 2.2 folgt. Diese ist äquivalent zu P( lim
P( lim | s1n Bsn
n→∞
−
1
B |
mn mn
= 0) = 1. Also gilt
= 0) = 1 und folglich
|Xtn | = |tn B 1 | = |
tn
1
1
1
1
Bsn | ≤ |
Bmn | + | Bsn −
Bmn | → 0
sn
mn
sn
mn
fast sicher für n → 0.
Satz 2.22 ist ein nützliches Hilfsmittel, um das Verhalten der Brownschen Bewegung im Unendlichen mit ihrem Verhalten in einer Umgebung von t = 0 in Verbindung zu bringen. Auf diese Weise
erhalten wir das Gesetz der großen Zahlen als einfaches Korollar.
Korollar 2.23 (Gesetz der großen Zahlen für die Brownsche Bewegung). Sei B eine lineare
Standard-Brownsche Bewegung. Dann gilt lim Btt = 0 fast sicher.
t→∞
Beweis. Sei X = {Xt : t ∈ R+
0 } wie in Satz 2.22. Wegen der Pfadstetigkeit gilt fast sicher
Bt
= lim X 1 = X0 = 0.
t
t→∞
t→∞ t
lim
2.4.2
Das 0-1-Gesetz von Hewitt-Savage
Das Gesetz der großen Zahlen besagt intuitiv, dass eine √
Brownsche Bewegung langsamer als t
wächst. Nun möchten wir zeigen, dass sie schneller als t wächst. Da in diesem Beweis das
0-1-Gesetz von Hewitt-Savage Anwendung findet, führen wir zuerst ein paar Begriffe im Zusammenhang mit austauschbaren Ereignissen ein, wobei wir der Darstellung in [Kle13, S. 237-242]
folgen und auf Details verzichten.
Definition 2.24. Seien X und Y zwei Mengen. Eine Funktion f : X n → Y heißt symmetrisch,
wenn für alle Permutationen σ und alle Elemente x1 , . . . , xn ∈ X gilt
f (x1 , . . . , xn ) = f (xσ(1) , . . . , xσ(n) ).
20
2 DIE BROWNSCHE BEWEGUNG
Eine Funktion f : X N → Y heißt n-symmetrisch, wenn für alle Permutationen σ und alle
Elements xi ∈ X gilt
f (x1 , . . . , xn , xn+1 , . . .) = f (xσ(1) , . . . , xσ(n) , xn+1 , . . .).
Eine n-symmetrische Funktion ist also in den ersten n Argumenten symmetrisch. Eine Funktion f : X N → Y heißt symmetrisch, wenn sie n-symmetrisch für alle n ∈ N ist.
Definition 2.25. Sei X = {Xn : n ∈ N} ein stochastischer Prozess, wobei jedes Xn Werte
im messbaren Raum E hat. Sei
Fn := {f : E N → R|f ist messbar und n-symmetrisch}
die Menge aller messbaren, n-symmetrischen Abbildungen und Sn := σ(Fn ) die von diesen
Funktionen erzeugte σ-Algebra. Dann ist En := X −1 (Sn ) die σ-Algebra aller unter Permutationen der ersten n Indizes des stochastischen Prozesses invarianten Ereignisse. Die austauschbare
σ-Algebra ist dann definiert als
∞
\
E :=
En .
n=1
E ist somit die σ-Algebra aller unter Permutationen endlich vieler Indizes des stochastischen
Prozesses invarianten Ereignisse. Ein Element E ∈ E wird auch austauschbares Ereignis genannt.
Satz 2.26 (Null-Eins-Gesetz von Hewitt-Savage). Sei (Xn )n∈N eine Folge unabhängiger, identisch verteilter Zufallsvariablen und E die austauschbare σ-Algebra der Folge. Dann gilt für
E ∈ E entweder P(E) = 0 oder P(E) = 1.
Beweis. Siehe [Kle13, Korollar 12.19, S. 242].
Mit dem 0-1-Gesetz von Hewitt-Savage steht uns ein Werkzeug zur Verfügung, dass uns den
Beweis des folgenden Resultats ermöglicht, wie er in [MP10, Proposition 1.23, S. 19] zu finden
ist.
Satz 2.27. Sei B eine lineare Standard-Brownsche Bewegung, dann gilt
Bt
lim sup √ = +∞
t
t→∞
und
Bt
lim inf √ = −∞
t→∞
t
fast sicher.
Beweis. Sei c ∈ N. Nach dem Lemma von Fatou gilt
√
√
P(lim sup{Bn > c n}) ≥ lim sup P(Bn > c n) = lim sup P(B1 > c) = P(B1 > c) > 0
n→∞
n→∞
n→∞
Sei Xn := Bn − Bn−1 . Aus
n
X
√
√
lim sup{Bn > c n} = lim sup{
Xj > c n}
n→∞
n→∞
j=1
√
sieht man, dass lim sup{Bn > c n} ein austauschbares Ereignis bezüglich des Prozesses {Xn :
n→∞
n ∈ N} ist. Laut dem Null-Eins-Gesetz von Hewitt-Savage (Satz 2.26) gilt also P(lim sup{Bn >
n→∞
√
Bn
Bt
√
c n}) = 1. Damit ist lim sup √
>
c
fast
sicher
für
alle
c
∈
N,
woraus
lim
sup
= ∞ f. s.
n
t
n→∞
folgt. Die zweite Aussage kann ähnlich bewiesen werden.
t→∞
2.4 Aussagen über das asymptotische Verhalten der Brownschen Bewegung
2.4.3
21
Das Gesetz des iterierten Logarithmus
Nach den Resultaten von Satz 2.27 und Satz 2.23 stellt sich die Frage, ob es eine Funktion
+
Bt
φ : R+
0 → R0 gibt, sodass lim sup φ(t) größer als 0, aber kleiner als ∞, ist. Eine positive Antwort
t→∞
liefert das Gesetz des iterierten Logarithmus. Im Beweis desselben folgen wir [MP10, Satz 5.1, S.
119-120].
Satz 2.28 (Gesetz des iterierten Logarithmus für die Brownsche Bewegung). Sei B = {Bt :
t ∈ R+
0 } eine lineare Standard-Brownsche Bewegung. Dann gilt
lim sup √
t→∞
Bt
=1
2t ln ln t
und
Bt
lim inf √
= −1
t→∞
2t ln ln t
fast sicher.
Beweis. Sei ψ(t) :=
√
2t ln ln t. Wir fixieren > 0 und q > 1. Sei nun für n ∈ N
An := { maxn Bt ≥ (1 + )ψ(q n )}.
t∈[0,q ]
Wegen Satz 2.14 gilt
ψ(q n )
Bqn
P(An ) = P(|Bqn | ≥ (1 + )ψ(q n )) = 2P(Bqn ≥ (1 + )ψ(q n )) = 2P( √ n ≥ (1 + ) √ n ).
q
q
B
n
Da √qqn standardnormalverteilt ist, können wir Lemma 3.5 anwenden und erhalten für hinreichend großes n ∈ N (also etwa so, dass 2 ln ln(q n ) > 1)
√ n
(1+)2 ψ(q n )2
q
2
1
2
2
n
−
2q n
p
e
=√
e−(1+) ln ln(q )
P(An ) ≤ √
n
2π (1 + )ψ(q )
2π (1 + ) 2 ln ln(q n )
2
2
n
≤ 2e−(1+) ln ln(q ) =
.
(n ln q)(1+)2
Wegen > 0 gilt also
∞
P
P(An ) < ∞. Mithilfe des Borel-Cantelli-Lemmas folgt P(lim sup An ) =
n→∞
n=1
0, d. h. fast sicher gilt maxt∈[0,qn ] Bt ≥ (1 + )ψ(q n ) nur für endlich viele n ∈ N. Für große
n−1
t ∈ R+
≤ t < q n gilt also
0 , und n ∈ N so, dass q
Bt ψ(q n ) t q n
Bt ψ(q n ) q n q n
Bt
=
≤
≤ (1 + )q,
ψ(t)
ψ(q n ) q n ψ(t) t
ψ(q n ) q n ψ(q n ) t
wobei hier zusätzlich verwendet wurde, dass die Funktion s 7→
gilt nun
Bt
lim sup
≤ (1 + )q
t→∞ ψ(t)
s
ψ(s)
monoton fallend ist. Damit
fast sicher. Da dies für beliebige > 0 und q > 1 gilt, folgt
lim sup
t→∞
Bt
≤1
ψ(t)
fast sicher.
Für die andere Richtung fixieren wir wieder q > 1 und definieren eine Folge unabhängiger
Ereignisse durch
Dn := {Bqn − Bqn−1 ≥ ψ(q n − q n−1 )}
22
2 DIE BROWNSCHE BEWEGUNG
für alle n ∈ N. Aus Lemma 3.5 folgt für eine standardnormalverteilte Zufallsvariable Z und der
2
Tatsache, dass x2x+1 für x → ∞ streng monoton wachsend gegen 1 konvergiert, für hinreichend
großes x und c := 2√12π :
P(Z > x) ≥
x2 1 − x 2
1 − x2
x
1
c − x2
2 = √
2 ≥
√
e
e
e 2.
x2 + 1 2π
x
2π x2 + 1 x
Damit gilt nun für hinreichend großes n ∈ N und der Konstanten c0 :=
c
2 ln(q)(1+ln ln q)
ψ(q n − q n−1 )
P(Dn ) = P(Z ≥ p
)
q n − q n−1
n
n−1
ce− ln(n ln q)
c
ce− ln ln(q −q )
p
≥p
=
≥p
2 ln ln(q n − q n−1 )
2 ln(n ln q)
(n ln q) 2 ln(n ln q)
c
c
≥
=
n ln(q)2 ln(n ln q)
n ln(q)2(ln n + ln ln q)
c
c0
≥
=
n ln(q)2(1 + ln ln q) ln n
n ln n
und damit
∞
P
P(Dn ) = ∞. Die zweite Aussage des Lemmas von Borel-Cantelli besagt nun,
n=1
dass P(lim sup Dn ) = 1 gilt, d. h. es gilt fast sicher für unendlich viele n ∈ N
n→∞
Bqn ≥ Bqn−1 + ψ(q n − q n−1 ) ≥ −2ψ(q n−1 ) + ψ(q n − q n−1 ),
wobei die zweite Ungleichung gilt, weil Bqn−1 ≤ 2ψ(q n−1 ) für hinreichend große n, wie im
ersten Teil des Beweises bereits gezeigt wurde. Weiters stellen wir fest, dass
√
√
ψ(q n−1 ) q n 1
ψ(q n ) q n 1
1
ψ(q n−1 )
= p
√ ≤ √ n
√ =√
n
n
n
n−1
ψ(q )
ψ(q ) q
q ψ(q ) q
q
q
und dass die Abbildung s 7→
ψ(t)
t
monoton fallend ist, woraus
ψ(q n − q n−1 )
ψ(q n )
≥
q n − q n−1
qn
bzw.
ψ(q n − q n−1 )
q n − q n−1
≥
ψ(q n )
qn
folgt. Damit erhalten wir, dass fast sicher für unendlich viele n ∈ N
Bqn
−2ψ(q n−1 ) + ψ(q n − q n−1 )
−2 q n − q n−1
2
1
≥
≥√ +
=1− √ −
n
n
n
ψ(q )
ψ(q )
q
q
q q
gilt. Dies bedeutet
lim sup
t→∞
Bt
2
1
≥1− √ −
ψ(t)
q q
fast sicher. Da q > 1 beliebig war, folgt das Resultat
lim sup
t→∞
Bt
≥ 1 fast sicher.
ψ(t)
Die zweite Aussage kann ähnlich gezeigt werden.
Bemerkung 2.29. Betrachtet man also ein beliebig kleines > 0,√so gibt es für jeden Pfad
einen von abhängigen Zeitpunkt t0 < ∞, sodass |Bt | ≤ (1 + √
) 2t ln ln t für alle t > t0 ,
während beliebig große Zahlen t existieren, sodass |Bt | ≥ (1 − ) 2t ln ln t.
23
B(t)
50
0
−50
0
100
200
300
400
500
t
600
700
800
900 1,000
Abbildung 2: Vier
√ simulierte Pfade einer
√ linearen Standard-Brownschen Bewegung sowie die
Funktionen t 7→ 2t ln ln t und t 7→ − 2t ln ln t
3
Anhang
In diesem Kapitel sammeln wir wichtige Aussagen, die in den vorangegangenen Abschnitten ohne
Beweis verwendet wurden. Es handelt sich hierbei um grundlegende Sätze aus der Wahrscheinlichkeitstheorie, die nicht im Fokus dieser Arbeit liegen, deren Formulierung aber dennoch wichtig für
das Verständnis der präsentierten Beweise ist.
3.1
Wichtige Sätze aus der Wahrscheinlichkeitstheorie
Oftmals erweist es sich als schwierig, die Unabhängigkeit von Zufallsvariablen zu beweisen. Zusätzlich zu den bekannten Kriterien stellen sich die folgenden Sätze für unsere Zwecke als hilfreich
heraus.
Lemma 3.1 (Blockungslemma). Seien n ∈ N und X1 , . . . , Xn reellwertige, unabhängige Zufallsvariable, k ∈ {1, . . . , n − 1} und g : Rk → R, h : Rn−k → R messbare Funktionen. Dann
sind auch g(X1 , . . . , Xk ) und h(Xk+1 , . . . , Xn ) unabhängige Zufallsvariable.
Beweis. Siehe [Hen16, Satz 17.12, S. 140] für diskret verteilte Zufallsvariablen. Der stetige
Fall kann analog bewiesen werden.
Lemma 3.2. Die Zufallsvektoren X : Ω → Rm und Y : Ω → Rn sind genau dann unabhängig,
wenn für beliebige beschränkte, stetige Funktionen f : Rm → R und g : Rn → R
E(f (X)g(Y )) = E(f (X))E(g(Y ))
gilt.
Beweis. Seien X und Y unabhängig und A ∈ B(R). Weil f als stetige Funktion insbesondere
messbar ist, gilt f −1 (A) ∈ B(Rm ) und damit X −1 (f −1 (A)) ∈ σ(X). Es folgt σ(f (X)) ⊆
σ(X). Analog gilt σ(g(Y )) ⊆ (Y ). Weil X und Y unabhängig sind, sind also auch f (X) und
g(X) unabhängig. Da f und g beschränkt sind, haben sie endliche Erwartungswerte, also gilt
E(f (X)g(Y )) = E(f (X))E(g(Y )).
24
3 ANHANG
Wir nehmen nun an, für alle beliebigen beschränkten, stetigen Funktionen f : Rm → R und
g : Rn → R gilt E(f (X)g(Y )) = E(f (X))E(g(Y )) und zeigen, dass dann X und Y unabhängig
sind. Seien x1 , . . . , xm , y1 , . . . , yn ∈ R. Wir definieren für alle k ∈ N
(
1
falls min{xi − ξi : i ∈ {1, . . . , m}} ≥ 0
fk (ξ1 , . . . , ξm ) :=
k min{xi −ξi :i∈{1,...,m}}
e
sonst
und
(
1
gk (ζ1 , . . . , ζn ) :=
ek min{yi −ζi :i∈{1,...,n}}
falls min{yi − ζi : i ∈ {1, . . . , n}} ≥ 0
.
sonst
Diese Funktionen sind stetig und beschränkt. Weiters konvergieren (fk )k∈N und (gk )k∈N punktweise gegen 1(−∞,x1 ]×...×(−∞,xm ] respektive 1(−∞,y1 ]×...×(−∞,yn ] , weshalb mithilfe des Satzes über
dominierte Konvergenz aus
E(fk (X)gk (Y )) = E(fk (X))E(gk (Y ))
durch beidseitige Grenzwertbildung (k → ∞)
E(1(−∞,x1 ]×...×(−∞,xm ] (X)1(−∞,y1 ]×...×(−∞,yn ] (Y )) = E(1(−∞,x1 ]×...×(−∞,xm ] (X))E(1(−∞,y1 ]×...×(−∞,yn ] (Y ))
folgt. Es gilt also
P(X1 ≤ x1 , . . . , Xm ≤ xm , Y1 ≤ y1 , . . . , Yn ≤ yn ) = P(X1 ≤ x1 , . . . , Xm ≤ xm )P(Y1 ≤ y1 , . . . , Yn ≤ yn ),
d. h. X und Y sind unabhängig.
Das Borel-Cantelli-Lemma wird in den meisten grundlegenden Präsentationen der Wahrscheinlichkeitstheorie behandelt. Es liefert Aussagen über die fast sichere Konvergenz von Zufallsvariablen
und bildet eine wesentliche Grundlage für die Beweise aus Kapitel 2.
Lemma 3.3 (Borel-Cantelli). Seien A1 , A2 , . . . Ereignisse und sei A∗ := lim sup An . Dann
n→∞
gilt:
1. Ist
∞
P
P(An ) < ∞, so ist P(A∗ ) = 0.
n=1
2. Ist (An )n∈N unabhängig und
∞
P
P(An ) = ∞, so ist P(A∗ ) = 1.
n=1
Beweis. Siehe [Kle13, Satz 2.7, S. 53].
Eine Reihe von Sätzen, die asymptotische Aussagen über eine Folge von Zufallsvariablen treffen,
sind die Gesetze der großen Zahl. Eine detailierte Abhandlung dieser Satzgruppe kann etwa in
[Kle13, Kapitel 5, S. 110 ff.] nachgelesen werden.
Satz 3.4 (Starkes Gesetz der großen Zahl von Etemadi). Seien X1 , X2 , . . . paarweise unabhängige, identisch verteilte Zufallsvariablen mit E(|Xi |) < ∞, i ∈ N. Dann gilt
n
1X
(Xi − E(Xi )) = 0
n→∞ n
i=1
lim
fast sicher.
Beweis. Siehe [Kle13, Satz 5.17, S. 114].
3.2 Eigenschaften normalverteilter Zufallsvariablen
3.2
25
Eigenschaften normalverteilter Zufallsvariablen
Zum Beweis von Konvergenzaussagen ist häufig eine Abschätzung normalverteilter Zufallsvariablen
hilfreich. Die folgende Aussage ist für große x recht präzise.
Lemma 3.5. Sei X standardnormalverteilt. Dann gilt für alle x > 0:
x
1 − x2
1 1 − x2
2 ≤ P(X > x) ≤
√
√ e 2
e
x2 + 1 2π
x 2π
Beweis. Siehe [MP10, Lemma 12.9, S. 349].
Wir betrachten nun Sätze über mehrdimensionale Normalverteilungen und folgen dabei [MP10,
Kapitel 12.2, S. 349 ff.].
Definition 3.6. Für d ∈ N hat eine Zufallsvariable X = (X1 , . . . , Xd )T mit Werten in Rd die
d-dimensionale Standardnormalverteilung, wenn ihre d Koordinaten standardnormalverteilt
und unabhängig sind.
Eine Zufallsvariable Y mit Werten in Rd heißt normalverteilt, wenn es eine m-dimensional
standardnormalverteilte Zufallsvariable X, eine d × m-Matrix A und einen d-dimensionalen
Vektor b gibt, sodass Y = AX + b.
Nun kann man zeigen, dass sich die Kovarianzenmatrix einer d-dimensional normalverteilten Zufallsvariablen Y , welche in der (i, j)-ten Kompenente die Kovarianz von Zufallsvariablen mit der
Randverteilung von Yi respektive Yj enthält, durch Cov(Y ) = AAT berechnen lässt.
Der folgende Satz besagt, dass die Multiplikation mit einer orthogonalen d×d-Matrix die Verteilung
einer d-dimensionalen Standardnormalverteilung nicht ändert.
Satz 3.7. Sei A eine orthogonale d×d-Matrix (d. h. AAT = Id ) und sei X eine d-dimensionale
standardnormalverteilte Zufallsvariable. Dann ist AX ebenfalls eine d-dimensional standardnormalverteilte Zufallsvariable.
Beweis. Da die Komponenten von X unabhängig und standardnormalverteilt sind, gilt für
die Dichtefunktion von X
d
Y
d
Y
1
1
2
2
√ e−xi /2 =
e−kxk /2 .
fX (x) =
fXi (xi ) =
d/2
(2π)
2π
i=1
i=1
Mithilfe der Substitutionsregel gilt
Z
1
2
e−kxk /2 dx
d/2
(2π)
A−1 B
Z
Z
1
1
2
−kA−1 xk2 /2
−1
=
e
| det(A )|dx =
e−kxk /2 dx,
d/2
d/2
(2π)
(2π)
−1
P(AX ∈ B) = P(X ∈ A B) =
B
B
wobei zusätzlich verwendet wurde, dass der Betrag der Determinante orthogonaler Matrizen
stets 1 ist und dass sich die Euklidische Norm eines Vektors durch die Multiplikation mit einer
orthogonalen Matrix nicht ändert.
Es gilt also fAX = fX . Insbesondere hat fAX die gleichen Randdichten wie fX , das heißt die
d
Q
einzelnen Komponenten sind standardnormalverteilt und wegen fAX (x) = fX (x) =
fXi (xi )
i=1
sind sie auch unabhängig.
26
3 ANHANG
Daraus folgt ein einfaches Korollar, das wir im konstruktiven Beweis der Existenz der Brownschen
Bewegung verwendet haben.
Korollar 3.8. Seien X1 und X2 unabhängig und normalverteilt mit Erwartungswert 0 und
Varianz σ 2 > 0. Dann sind X1 + X2 und X1 − X2 unabhängig und normalverteilt mit Erwartungswert 0 und Varianz 2σ 2 .
Beweis. Der Vektor ( Xσ1 , Xσ2 )T ist 2-dimensional standardnormalverteilt. Die Matrix
!
A :=
√1
2
√1
2
√1
2
− √12
2
2 X√
, 1 −X
). Mithilfe von Satz 3.7 folgt die Behauptung.
ist orthogonal und AX = ( X√1 +X
2σ 2
2σ 2
Die nächste Aussage besagt, dass die Verteilung einer mehrdimensional normalverteilten Zufallsvariablen durch ihren Erwartungswert und ihre Kovarianzenmatrix vollständig bestimmt ist.
Satz 3.9. Seien X und Y d-dimensional normalverteilte Zufallsvariablen mit E(X) = E(Y )
und Cov(X) = Cov(Y ). Dann haben X und Y dieselbe Verteilung.
Beweis. Siehe [MP10, Proposition 12.13, S. 350].
Wenn wir nun eine d-dimensional normalverteilte Zufallsvariable X mit Cov(X) = Id mit einer
d-dimensional normalverteilten Zufallsvariablen mit unabhängigen Komponenten und demselben
Erwartungswert vergleichen, erhalten wir nun das folgende Korollar.
Korollar 3.10. Eindimensionale Zufallsvariablen, die nach den Randverteilungen einer ddimensional normalverteilten Zufallsvariablen verteilt sind, sind genau dann unabhängig, wenn
ihre Kovarianzenmatrix eine Diagonalmatrix ist.
Eine weitere interessante Eigenschaft ist, dass die Eigenschaften der Normalverteilung bei Limesbildung in gewissem Sinne beibehalten werden.
Satz 3.11. Sei {Xn }n∈N eine Folge d-dimensional normalverteilter Zufallsvariablen und X eine Zufallsvariable, sodass Xn → X fast sicher. Falls b := lim E(Xn ) und C := lim Cov(Xn )
n→∞
n→∞
existieren, dann ist X d-dimensional normalverteilt mit Erwartungswert b und Kovarianzenmatrix C.
Beweis. Siehe [MP10, Proposition 12.15, S. 351].
LITERATUR
27
Literatur
[ABL14] R. B. Ash, Z. W. Birnbaum, and E. Lukacs. Real Analysis and Probability: Probability
and Mathematical Statistics: A Series of Monographs and Textbooks. Elsevier Science,
2014.
[Bas94] R. F. Bass. Probabilistic Techniques in Analysis. Probability and Its Applications. Springer
New York, 1994.
[Beh12] E. Behrends. Elementare Stochastik: Ein Lernbuch - von Studierenden mitentwickelt.
Vieweg+Teubner Verlag, 2012.
[Hal76] P. R. Halmos. Measure Theory. Graduate Texts in Mathematics. Springer New York,
1976.
[Hen16] N. Henze. Stochastik für Einsteiger: Eine Einführung in die faszinierende Welt des Zufalls.
Springer Fachmedien Wiesbaden, 2016.
[Kle13] A. Klenke. Wahrscheinlichkeitstheorie. Springer-Lehrbuch Masterclass. Springer Berlin
Heidelberg, 2013.
[MP10] P. Mörters and Y. Peres. Brownian Motion. Cambridge University Press, Cambridge,
UK, 2010.
Herunterladen