Eingereicht von Alexander Lindenberger Angefertigt am Institut für Analysis Betreuer Ao. Univ.-Prof. DI Dr. Paul F. X. Müller Februar 2017 Die Brownsche Bewegung Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science im Bachelorstudium Technische Mathematik JOHANNES KEPLER UNIVERSITÄT LINZ Altenbergerstraße 69 4040 Linz, Österreich www.jku.at DVR 0093696 Eidesstattliche Erklärung Ich, Alexander Lindenberger, erkläre an Eides statt, dass ich die vorliegende Bachelorarbeit selbstständig und ohne fremde Hilfe verfasst, andere als die angegebenen Quellen und Hilfsmittel nicht benutzt bzw. die wörtlich oder sinngemäß entnommenen Stellen als solche kenntlich gemacht habe. Die vorliegende Bachelorarbeit ist mit dem elektronisch übermittelten Textdokument identisch. ........................... ........................... Ort, Datum Unterschrift Vorwort Unter dem Titel Random Walk werden mathematische Modelle für Bewegungen zusammengefasst, deren Schritte zufällig erfolgen. Derartige Modelle können etwa die Entwicklung von Aktienkursen, die Futtersuche von Tieren oder den Kontostand eines Spielers beschreiben. Ein spezieller Random Walk, der in der Physik häufig zur Modellierung von Teilchenbewegungen in Flüssigkeiten oder Gasen verwendet wird, ist die sogenannte Brownsche Bewegung. In dieser Arbeit beschäftigen wir uns mit mathematischen Eigenschaften der Brownschen Bewegung. Dafür ist es zunächst notwendig, grundlegende Begriffe aus der Stochastik, insbesondere im Zusammenhang mit Stochastischen Prozessen einzuführen. Anschließend können wir die Brownsche Bewegung als einen speziellen Stochastischen Prozess definieren und ihre Existenz beweisen. Um die Brücke zu anderen mathematischen Gebieten, insbesondere der Analysis, zu schlagen, werden wir daraufhin die Grundlagen des Zusammenhangs zwischen der Brownschen Bewegung und harmonischen Funktionen klären, welche unter anderem zu stochastischen Lösungen spezieller partieller Differentialgleichungen führen. Weiters interessieren wir uns für Aussagen über das asymptotische Verhalten der Brownschen Bewegung. Das Gesetz des iterierten Logarithmus liefert diesbezüglich erstaunlich präzise Aussagen und stellt somit einen wesentlichen Eckpfleiler dieser Arbeit dar. St. Valentin, Februar 2017 Alexander Lindenberger Inhaltsverzeichnis 1 Stochastische Grundlagen 1.1 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Filtrationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Stoppzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Die Brownsche Bewegung 2.1 Der Satz von Wiener . . . . . . . . . . . . . . . . . . . . . 2.2 Die Markow-Eigenschaften und ihre Anwendungen . . . . . 2.2.1 Die (schwache) Markow-Eigenschaft . . . . . . . . 2.2.2 Das Blumenthalsche 0-1-Gesetz . . . . . . . . . . . 2.2.3 Die starke Markow-Eigenschaft . . . . . . . . . . . 2.2.4 Das Reflexionsprinzip . . . . . . . . . . . . . . . . 2.3 Der Zusammenhang mit harmonischen Funktionen . . . . . 2.4 Aussagen über das asymptotische Verhalten der Brownschen 2.4.1 Das Gesetz der großen Zahlen . . . . . . . . . . . . 2.4.2 Das 0-1-Gesetz von Hewitt-Savage . . . . . . . . . 2.4.3 Das Gesetz des iterierten Logarithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bewegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 5 6 7 7 11 11 11 12 14 15 17 17 19 21 3 Anhang 23 3.1 Wichtige Sätze aus der Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . . 23 3.2 Eigenschaften normalverteilter Zufallsvariablen . . . . . . . . . . . . . . . . . . . 25 5 1 Stochastische Grundlagen In diesem Abschnitt werden wesentliche Begriffe eingeführt, die zur Betrachtung stochastischer Prozesse essentiell sind. Dazu folgen wir der Notation in [Kle13, Kapitel 9.1, S. 193 ff.]. Maßtheoretische Grundlagen werden hier vorausgesetzt und können bei Bedarf beispielsweise in [Hal76] oder in [Kle13, Kapitel 1] nachgelesen werden. 1.1 Stochastische Prozesse Definition 1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum, (Z, Z) ein mit einer σ-Algebra versehener Raum (meist die reellen Zahlen mit der Borelschen σ-Algebra) und T eine Indexmenge (meist T ∈ {N0 , R+ 0 }). Ein stochastischer Prozess X mit Zeitbereich T ist eine Abbildung X : Ω × T → Z, sodass Xt : Ω → Z, ω 7→ X(ω, t) für alle t ∈ T eine Zufallsvariable, also eine F-Z-messbare Abbildung, ist. Für jedes ω ∈ Ω nennt man die Abbildung X(ω, ·) : T → Z, t 7→ X(ω, t) einen Pfad von X. Man kann also einen stochastischen Prozess entweder als Familie von Zufallsvariablen, oder aber als funktionswertige Zufallsvariable, deren Werte die Pfade des Prozesses sind, betrachten. Ein wichtiges Konzept der Wahrscheinlichkeitstheorie ist die Unabhängigkeit von Ereignissen oder Zufallsvariablen. Mit dem stochastischen Prozess haben wir ein weiteres Konstrukt eingeführt, für das wir einen Unabhängigkeitsbegriff definieren können. Definition 1.2. Seien {Xt : t ∈ T1 } und {Yt : t ∈ T2 } zwei stochastische Prozesse über demselben Wahrscheinlichkeitsraum (Ω, F, P) und sei G ⊆ F eine beliebige Teil-σ-Algebra von F. {Xt : t ∈ T1 } und {Yt : t ∈ T2 } heißen unabhängig, wenn für alle m, n ∈ N, s1 , . . . , sm ∈ T1 und t1 , . . . , tn ∈ T2 die Zufallsvektoren (Xs1 , . . . , Xsm ) und (Yt1 , . . . , Ytn ) unabhängig sind. Weiters sagt man, dass {Xt : t ∈ T1 } von G unabhängig ist, wenn für alle n ∈ N, t1 , . . . , tn ∈ T1 , B1 , . . . , Bn ∈ B(Rd ) und A ∈ G die Ereignisse Xt−1 (B1 ) ∩ . . . ∩ Xt−1 (Bn ) und A unabhängig n 1 sind. 1.2 Filtrationen Definition 1.3. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum, T eine linear geordnete Indexmenge und {Ft }t∈T eine Familie von Teil-σ-Algebren von F mit ∀m, n ∈ T : m ≤ n ⇒ Fm ⊆ Fn Dann heißt {Ft }t∈T eine F ilterung oder F iltration auf dem Wahrschlichkeitsraum mit Zeitbereich T . Das Quadrupel (Ω, F, {Ft }t∈T , P) heißt dann ein gefilterter Wahrscheinlichkeitsraum. Definition 1.4. Sei (Ω, F, {Ft }t∈T , P) ein gefilterter Wahrscheinlichkeitsraum. Wir schreiben [ F∞ := σ( Ft ). t∈T F∞ ist also die kleinste σ-Algebra, die alle Ft , t ∈ T enthält. Definition 1.5. Sei X ein stochastischer Prozess mit Zeitbereich T und sei {Ft }t∈T eine Filterung. X heißt angepasst zur Filterung {Ft }t∈T , falls für jedes t ∈ T die Zufallsvariable Xt messbar bezüglich Ft ist. 6 1 STOCHASTISCHE GRUNDLAGEN Definition 1.6. Sei X ein stochastischer Prozess mit Zeitbereich T und sei für alle t ∈ T FtX := σ({Xs : s ≤ t}) die von {Xs : s ≤ t} erzeugte Initial-σ-Algebra. Dann heißt {FtX }t∈T die von X erzeugte Filterung. Offensichtlich ist jeder Prozess an die von ihm erzeugte Filterung angepasst. 1.3 Stoppzeiten Definition 1.7. Sei (Ω, F, {Ft }t∈R+0 , P) ein gefilterter Raum. Eine Zufallsvariable T : Ω → [0, ∞] heißt eine Stoppzeit, falls {T ≤ t} ∈ Ft für alle t ∈ R+ 0. Bemerkung 1.8. Wir geben ein paar grundlegende Beispiele für Stoppzeiten an: 1. Für jede Filterung ist jede deterministische Zufallsvariable ω 7→ t ∈ R+ 0 eine Stoppzeit. 2. Wenn (Tn )n∈N eine monototon wachsende Folge von Stoppzeiten ist und Tn ↑ T , dann ist T ebenfalls eine Stoppzeit bezüglich der gleichen Filterung. Dies gilt, weil {T ≤ t} = ∞ \ {Tn ≤ t} ∈ Ft . n=1 3. Sei T eine Stoppzeit. Wir definieren für n ∈ N falls T (ω) = 0 0 −n Tn (ω) := (m + 1)2 falls T (ω) ∈ (m2−n , (m + 1)2−n ] . ∞ falls T (ω) = ∞ −n Sei t ∈ R+ so, dass t ∈ [k2−n , (k + 1)2−n ). Dann gilt 0 und s = k2 {Tn ≤ t} = {T ≤ s} ∈ Fs ⊆ Ft . Also ist Tn eine Stoppzeit. Wir werden diese später als diskrete Approximation von T verwenden. Definition 1.9. Für eine Stoppzeit T definieren wir FT := {A ∈ F∞ : A ∩ {T ≤ t} ∈ Ft für alle t ≥ 0}. FT heißt die σ-Algebra der Ereignisse vor T . Bemerkung 1.10. Falls T eine deterministische Stoppzeit ist, also T (ω) = c mit c ∈ [0, ∞], gilt FT = Fc , denn 1. falls c = ∞, folgt FT = {A ∈ F∞ |∀t ≥ 0 : A ∩ {T ≤ t} ∈ Ft } = {A ∈ F∞ |∀t ≥ 0 : A ∩ ∅ ∈ Ft } = {A ∈ F∞ |∀t ≥ 0 : ∅ ∈ Ft } = F∞ , 2. falls c 6= ∞, folgt FT = {A ∈ F∞ |∀t ≥ 0 : A ∩ {T ≤ t} ∈ Ft } = {A ∈ F∞ |∀t ≥ c : A ∈ Ft ∧ ∀t < c : ∅ ∈ Ft } = {A ∈ F∞ |∀t ≥ c : A ∈ Ft } = Fc . Es kommt daher nicht zu einem Notationskonflikt. 7 2 Die Brownsche Bewegung Mithilfe der Begriffe aus Kapitel 1 können wir nun die Brownsche Bewegung als einen speziellen stochastischen Prozess definieren und ihre Existenz beweisen. Anschließend werden wir einige ihrer grundlegenden Eigenschaften betrachten, die einerseits unser Verständnis dieser mathematischen Struktur verbessern und andererseits die Voraussetzung für den Beweis weiterführender Aussagen sind. Insbesondere erlaubt es die starke Markow-Eigenschaft, einen Zusammenhang zwischen der Brownschen Bewegung und harmonischen Funktionen herzustellen, dessen Grundlagen wir im Weiteren skizzieren werden. Danach werden wir Aussagen über das asymptotische Verhalten der Brownschen Bewegung tätigen, wobei hier vor allem das Gesetz der großen Zahlen und das Gesetz des iterierten Logarithmus hervorzuheben sind. Definition 2.1. Ein reellwertiger stochastischer Prozess B = {Bt : t ∈ R+ 0 } auf dem Wahrscheinlichkeitsraum (Ω, A, P) heißt (lineare) Brownsche Bewegung mit Startwert x ∈ R, wenn gilt: 1. B0 = x fast sicher 2. B hat unabhängige Zuwächse, d. h. für alle n ∈ N und t1 , . . . , tn ∈ R+ 0 mit t1 ≤ . . . ≤ tn sind die Zufallsvariablen Btn − Btn−1 , Btn−1 − Btn−2 , . . . , Bt2 − Bt1 unabhängig. 3. Für alle t ≥ 0 und h > 0 sind die Zuwächse Bt+h −Bt normalverteilt mit Erwartungswert 0 und Varianz h. 4. Die Pfade von B sind fast sicher stetig. Weiters nennt man B eine (lineare) Standard-Brownsche Bewegung, falls x = 0. 2.1 Der Satz von Wiener Die Existenz der Brownschen Bewegung wurde 1923 vom US-amerikanischen Mathematiker Norbert Wiener bewiesen, weshalb sie in der Mathematik häufig Wiener Prozess genannt wird. Wir werden nun einen konstuktiven Beweis für die Existenz einer Brownschen Bewegung angeben und folgen dabei [MP10, Satz 1.3, S. 9]. Eine weitere Beweismöglichkeit basiert auf dem Stetigkeitssatz von Kolmogorov-Chentsov (siehe zum Beispiel [Kle13, S. 470 ff.]). Man beobachte, dass {x + Bt : t ≥ 0} eine Brownsche Bewegung mit Startwert x ∈ R ist, falls {Bt : t ≥ 0} eine Standard-Brownsche Bewegung ist. Demnach folgt aus dem Satz von Wiener direkt die Existenz einer linearen Brownschen Bewegung mit Startwert x ∈ R. Satz 2.2 (Wiener). Es existiert eine lineare Standard-Brownsche Bewegung. S Beweis. Für alle n ∈ N0 definieren wir Dn := { 2kn : k ∈ {0, . . . , 2n }} und D := ∞ n=0 Dn . Sei (Ω, A, P) ein Wahrscheinlichkeitsraum, auf dem eine Familie unabhängiger, standardnormalverteilter Zufallsvariablen {Zt : t ∈ D} existiert. Die Existenz dieser Strukturen ist gesichert, da wie in [ABL14, S. 209] einfach ein Wahrscheinlichkeitsraum mit einer standardnormalverteilten Zufallsvariablen konstruiert werden kann und damit aufgrund des sogenannten Klonsatzes (siehe zB [Beh12, Satz 4.5.1, S. 142]) auch ein Wahrscheinlichkeitsraum mit einer abzählbaren Menge unabhängiger, standardnormalverteilter Zufallsvariablen existiert. Für alle n ∈ N0 definieren wir nun Zufallsvariablen Bd , d ∈ Dn , sodass gilt: 1. B0 = 0. 8 2 DIE BROWNSCHE BEWEGUNG 2. Für alle k ∈ N und t1 , . . . , tk ∈ Dn mit t1 ≤ . . . ≤ tk sind die Zufallsvariablen Btk −Btk−1 , Btk−1 − Btk−2 , . . . , Bt2 − Bt1 unabhängig. 3. Für alle s, t ∈ Dn mit s < t ist die Zufallsvariable Bt − Bs normalverteilt mit Erwartungswert 0 und Varianz t − s. Wir gehen dabei induktiv vor. Aus der Definition B0 := 0 und B1 := Z1 sieht man leicht, dass die Bedingungen (1) - (3) für D0 erfüllt sind. Wir gehen nun davon aus, dass unsere Konstruktion für n − 1 bereits erfolgreich war. Sei d ∈ Dn \ Dn−1 und definiere d− := d − 2−n und d+ := d + 2−n . Dann sind d− und d+ aufeinanderfolgende Elemente in Dn−1 . Weiters definieren wir Bd + Bd+ Zd + n+1 . Bd := − 2 2 2 Nun gilt Bd − Bd− = Bd+ − Bd− Bd − Bd− Zd Zd + n+1 und Bd+ − Bd = + − n+1 . 2 2 2 2 2 2 Bd −Bd Da Nd := + 2 − eine Kombination von Elementen aus {Zt : t ∈ Dn−1 } ist, sind Nd und Zd nach dem Blockungslemma (Lemma 3.1) unabhängig. Laut Induktionshypothese Nd0 := n+1 2 2 und mithilfe elementarer Eigenschaften der Normalverteilung sind sowohl Nd als auch Nd0 normalverteilt mit Erwartungswert 0 und Varianz 2−(n+1) . Nach Korollar 3.8 sind damit die Zuwächse Bd − Bd− = Nd + Nd0 und Bd+ − Bd = Nd − Nd0 unabhängig und normalverteilt mit Erwartungswert 0 und Varianz 2−n . Wir zeigen nun, dass die Zuwächse {Bd − Bd− : d ∈ Dn \ {0}} unabhängig sind. Wegen Korollar 3.10 reicht es zu zeigen, dass sie paarweise unabhängig sind. Wir haben bereits gesehen, dass die Paare Bd − Bd− , Bd+ − Bd mit d ∈ Dn \ Dn−1 unabhängig sind. Für die anderen Fälle gibt es ein d ∈ Dn−1 , das zwischen den Zuwachsintervallen liegt. Wähle d ∈ Dj mit dieser Eigenschaft und minimalem j. Dann sind die beiden Zuwachsintervalle in [d−2−j , d] bzw. [d, d + 2−j ] enthalten. Wegen der Induktionshypothese sind Bd+2−j − Bd und Bd − Bd−2−j unabhängig. Nun werden aber die Zuwächse über die Intervalle der Länge 2−n aus Bd+2−j −Bd respektive Bd − Bd−2−j zusammen mit disjunkten Teilmengen von {Zt : t ∈ Dn } konstruiert und sind damit nach dem Blockungslemma unabhängig. Damit ist Eigenschaft (2) erfüllt. Wir zeigen nun, dass auch Eigenschaft (3) erfüllt ist. Seien dazu r, s ∈ Dn mit r < s. Dann gibt es t0 , . . . , t(s−r)2n ∈ Dn mit r = t0 < . . . < t(s−r)2n = s und Bs − Br = Bt(s−r)2n − Bt(s−r)2n −1 + Bt(s−r)2n −1 − . . . − Bt1 + Bt1 − Bt0 Wegen Eigenschaft (2) ist Bs −Br also die Summe von (s−r)2n -vielen unabhängigen, normalverteilten Zufallsvariablen mit Erwartungswert 0 und Varianz 2−n und ist damit normalverteilt mit Erwartungswert 0 und Varianz s − r. Somit ist der Induktionsschritt gezeigt. Wir haben nun also passende Werte für unseren Prozess an den dyadischen Punkten. Durch Interpolation erhalten wir einen Kandidaten für eine Brownsche Bewegung. Wir definieren dazu F0 (t) := tZ1 für t ∈ [0, 1] und für jedes n ∈ N: n+1 − 2 2 Zt Fn (t) := 0 linear für t ∈ Dn \ Dn−1 für t ∈ Dn−1 zwischen aufeinanderfolgenden Punkten in Dn 2.1 Der Satz von Wiener 9 Diese Funktionen besitzen stetige Pfade auf [0, 1] und für alle n ∈ N0 und d ∈ Dn gilt Bd = n X Fi (d) = i=0 ∞ X Fi (d), (2.1) i=0 wie man mittels Induktion nachprüfen kann. Der Fall n = 0 ist trivial. Wir nehmen an, 2.1 gelte für n−1. Sei d ∈ Dn \Dn−1 . Da für i ∈ {0, . . . , n−1} die Funktion Fi auf [d−2−n , d+2−n ] linear ist, erhalten wir mithilfe der Induktionshypothese n−1 X n−1 X Fi (d − 2−n ) + Fi (d + 2−n ) Fi (d) = i=1 Mit Fn (d) = 2− 2 i=1 n+1 2 = Bd−2−n + Bd+2−n . 2 Zd folgt dann n X Fi (d) = i=1 n+1 Bd−2−n + Bd+2−n + 2− 2 Zd = Bd , 2 womit 2.1 gezeigt ist. Aufgrund von Lemma 3.5 gilt für c > 1 und n ≥ π2 , dass √ √ −c2 n c2 n 2 P(|Zd | ≥ c n) = 2P(Zd ≥ c n) ≤ √ e− 2 ≤ e 2 , c 2πn womit die Reihe ∞ X n=0 P( [ √ {|Zd | ≥ c n}) ≤ ∞ X X √ P(|Zd | ≥ c n) n=0 d∈Dn ∞ X d∈Dn (2n + 1)e ≤2+ =2+ n=1 ∞ X en ln 2+ −c2 n 2 −c2 n 2 +e −c2 n 2 n=1 für c > nun √ 2 ln 2 konvergiert. Nach dem ersten Teil des Borel-Cantelli-Lemmas (Satz 3.3) gilt [ √ P(lim sup {|Zd | ≥ c n}) = 0, n→∞ d∈Dn d. h. für fast √ alle ω ∈ Ω gilt, dass nur für endlich viele n ∈ N ein d ∈ Dn existiert, sodass |Zd (ω)| ≥ c√ n, also gibt es für fast alle ω ∈ Ω ein N ∈ N, sodass für alle n ≥ N gilt, dass |Zd (ω)| < c n. Es folgt für fast alle ω ∈ Ω und alle n ≥ N n √ kFn k∞ = sup |Fn (t)| < 2− 2 c n. t∈[0,1] Das bedeutet, dass die Reihe Bt := ∞ X Fn (t) n=0 nach dem Weierstraßschem Majorantenkriterum auf [0, 1] für fast alle ω ∈ Ω absolut und gleichmäßig konvergiert. Aus der gleichmäßigen Konvergenz folgt sofort die Stetigkeit der so definierten Pfade. 10 2 DIE BROWNSCHE BEWEGUNG Wir müssen noch überprüfen, ob die Zuwächse dieses Prozesses die geforderten Eigenschaften erfüllen. Dazu nutzen wir aus, dass D dicht in [0, 1] liegt. Seien t1 < t2 < . . . < tn aus [0, 1]. Dann gibt es für i ∈ {1, . . . , n} Folgen (ti,k )k∈N ∈ DN , sodass t1,k ≤ t2,k ≤ . . . ≤ tn,k für alle k ∈ N und lim ti,k = ti für alle i ∈ {1, . . . , n}. Für i ∈ {1, . . . , n − 1} gilt dann wegen der k→∞ Stetigkeit der Pfade Bti+1 − Bti = lim Bti+1,k − Bti,k , f.s. k→∞ Nun gilt, dass lim E(Bti+1,k − Bti,k ) = 0 k→∞ und lim Cov(Bti+1,k − Bti,k , Btj+1,k − Btj,k ) = lim δij (ti+1,k − ti,k ) = δij (ti+1 − ti ), k→∞ k→∞ womit nach Satz 3.11 und Korollar 3.10 folgt, dass Bti+1 − Bti unabhängige, normalverteilte Zufallsvariablen mit Erwartungswert 0 und Varianz ti+1,k − ti,k sind. Damit haben wir also einen stetigen Prozess am Zeitbereich [0, 1] konstruiert, der die Eigenschaften der Brownschen Bewegung erfüllt. Um diesen nun auf [0, ∞) zu erweitern, können wir aus einer Folge unabhängiger, standardnormalverteilter Zufallsvariablen mittels CantorDiagonalisierung eine abzählbare Menge solcher Folgen gewinnen und aus diesen wie oben eine Folge B 0 , B 1 , . . . von unabhängigen Prozessen auf [0, 1] mit den gewünschten Eigenschaften konstruieren. Anschließend definiert man B = {Bt : t ∈ R+ 0 } als btc−1 Bt := btc Bt−btc + X B1i für alle t ∈ R+ 0 i=0 Aus dem bisher gezeigten sieht man schnell, dass dadurch eine lineare Standard-Brownsche Bewegung definiert ist. Bemerkung 2.3. Mittels Cantor-Diagonalisierung kann man aus einer Folge unabhängiger, standardnormalverteilter Zufallsvariablen eine Folge von Folgen unabhängiger, standardnormalverteilter Zufallsvariablen gewinnen. Aus jeder dieser Folgen kann wie im Beweis von Satz 2.2 eine Brownsche Bewegung konstruiert werden. Auf diese Art und Weise erhält man eine Folge unabhängiger Brownscher Bewegungen. Bisher haben wir nur von eindimensionalen Brownschen Bewegungen gesprochen. Den mehrdimensionalen Wiener Prozess definieren wir einfach als Vektor, deren Komponenten unabhängige lineare Brownsche Bewegungen sind. Definition 2.4. Seien B 1 , . . . , B d unabhängige lineare Brownsche Bewegungen mit Startwerten x1 , . . . , xd ∈ R. Den stochastischen Prozess B = {Bt : t ∈ R+ 0 }, definiert durch Bt := (Bt1 , . . . , Btd )T , nennt man d-dimensionale Brownsche Bewegung mit Startwert (x1 , . . . , xd )T ∈ Rd . Falls (x1 , . . . , xd )T = 0, heißt B auch (d-dimensionale) Standard-Brownsche Bewegung. Die eindimensionale Brownsche Bewegung wird auch linear, die zweidimensionale planar genannt. Bemerkung 2.5. Wenn man Brownsche Bewegungen mit verschiedenen Startpunkten benötigt, ist es oft hilfreich, anstelle von unterschiedlichen Prozessen nur einen Prozess, aber für jeden Startwert ein anderes Wahrscheinlichkeitsmaß zu betrachten. Wenn B eine StandardBrownsche Bewegung ist, schreiben wir Px für das Maß, welches aus B eine Brownsche Bewegung mit Startwert x ∈ Rd macht, und Ex für den entsprechenden Erwartungswert. 2.2 Die Markow-Eigenschaften und ihre Anwendungen 11 40 y 20 0 −20 −10 0 10 x 20 30 Abbildung 1: Zwei simulierte Pfade einer planaren Standard-Brownschen Bewegung mit Startwert (0,0) bis t=1000 2.2 Die Markow-Eigenschaften und ihre Anwendungen Wir widmen uns nun wesentlichen Eigenschaften der Brownschen Bewegung, die im Umgang mit dieser Struktur oftmals von Bedeutung sind und folgen dabei [MP10, Kapitel 2, S. 36 ff.]. 2.2.1 Die (schwache) Markow-Eigenschaft Intuitiv besagt die Markow-Eigenschaft, dass die Kenntnis einer Brownschen Bewegung {Bt , t ∈ R+ 0 } am Intervall [0, s], s > 0 für Aussagen über die Zukunft des Prozesses genau so nützlich ist, wie die Kenntnis des Endpunktes Bs . Die Vergangenheit des Prozesses hat also keinen Einfluss auf seine weitere Entwicklung, er hat sozusagen ein kurzes Gedächtnis. Prozesse mit dieser Eigenschaft werden allgemein als Markow-Prozesse bezeichnet. Satz 2.6 (Markow-Eigenschaft). Sei B eine Brownsche Bewegung mit Startwert x ∈ Rd und sei s > 0. Der stochastische Prozess {Bt+s − Bs : t ≥ 0} ist eine Brownsche Bewegung, die im Ursprung startet und unabhängig vom Prozess {Bt : t ∈ [0, s]} ist. Beweis. Die Eigenschaften der Brownschen Bewegung können einfach komponentenweise nachgewiesen werden und folgen direkt aus den entsprechenden Eigenschaften von B. Die Unabhängigkeitseigenschaft folgt aus der Unabhängigkeit der Zuwächse. 2.2.2 Das Blumenthalsche 0-1-Gesetz Im Weiteren bezeichnen wir mit {Ft0 }t∈R+0 die von der Brownschen Bewegung erzeugte Filterung. Diese modelliert alle Informationen, die man durch Beobachtung der Brownschen Bewegung bin zum Zeitpunkt t erfährt. Wir betrachten nun aber auch die Filterung {Ft+ }t∈R+0 , definiert durch Ft+ := \ Fs0 s>t Offensichtlich ist {Ft+ }t∈R+0 eine Filterung und es gilt Ft0 ⊆ Ft+ für alle t ∈ R+ 0 . Intuitiv ist für + + + 0 t ∈ R0 Ft ein bisschen feiner als Ft und man könnte sagen, dass Ft Information aus einem Zeitpunkt, der ein unendlich kleines Stück in der Zukunft liegt, enthält. 12 2 DIE BROWNSCHE BEWEGUNG Falls T eine Stoppzeit ist, bezeichnen wir die σ-Algebra der Ereignisse vor T bezüglich {Ft+ }t∈R+0 (vgl. Definition 1.9) mit FT+ . Lemma 2.7. Sei H ⊆ Rd eine abgeschlossene Menge (zum Beispiel eine einelementige Menge). Dann ist die Zufallsvariable T := inf{t ≥ 0 : Bt ∈ H} eine Stoppzeit bezüglich {Ft0 }t∈R+0 . Beweis. Für t ∈ R+ 0 gilt {T ≤ t} = ∞ \ [ [ n=1 s∈Q∩(0,t) x∈Qd ∩H 1 {Bs ∈ Bx ( )} ∈ Ft0 . n Satz 2.8. Für jedes s ∈ R+ 0 ist der Prozess {Bt+s − Bs : t ≥ 0} unabhängig von der σ-Algebra + Fs . Beweis. Sei (sn )n∈N eine streng monoton fallende Folge in R+ 0 mit lim sn = s. Wegen der n→∞ Pfadstetigkeit gilt Bt+s − Bs = lim Bt+sn − Bsn fast sicher. Seien A ∈ Fs+ und t1 , . . . , tm ≥ 0. n→∞ Mit Fs+ ⊆ Fsn und Satz 2.6 folgt, dass {Bt+sn − Bsn : t ≥ 0} unabhängig von Fs+ ist. Für alle stetigen und beschränkten Funktionen f und g gilt dann mit dem Satz über die dominierte Konvergenz E(f (Bt1 +s − Bs , . . . , Btm +s − Bs )g(1A )) = lim E(f (Bt1 +sn − Bsn , . . . , Btm +sn − Bsn )g(1A )) n→∞ = lim E(f (Bt1 +sn − Bsn , . . . , Btm +sn − Bsn ))E(g(1A )) n→∞ = E(f (Bt1 +s − Bs , . . . , Btm +s − Bs ))E(g(1A )). Mithilfe von Satz 3.2 folgt daraus die behauptete Unabhängigkeit. Als Korollar von Satz 2.8 erhalten wir direkt das Blumenthalsche 0-1-Gesetz, wonach F0+ trivial ist. Satz 2.9 (Blumenthalsches 0-1-Gesetz). Sei A ∈ F0+ . Dann gilt P(A) ∈ {0, 1}. Beweis. Sei A ∈ F0+ . Dann gilt A ∈ Ft0 für alle t > 0, also insbesondere A ∈ σ({Bt : t ≥ 0}). Aus Satz 2.8 mit s = 0 folgt, dass σ({Bt : t ≥ 0}) und F0+ unabhängig sind. Damit gilt P(A) = P(A ∩ A) = P(A)2 , also P(A) ∈ {0, 1}. 2.2.3 Die starke Markow-Eigenschaft Die Markow-Eigenschaft der Brownschen Bewegung besagt, dass sie zu jeder deterministischen Zeit neu startet. Die starke Markow-Eigenschaft verallgemeinert diese Aussage auf Stoppzeiten. Satz 2.10 (Starke Markow-Eigenschaft). Sei B eine Brownsche Bewegung mit Startwert x ∈ Rd und sei T eine fast überall endliche Stoppzeit. Dann ist der stochastische Prozess {BT +t − BT : t ≥ 0} eine Standard-Brownsche Bewegung, die unabhängig von der σ-Algebra FT+ ist. 2.2 Die Markow-Eigenschaften und ihre Anwendungen 13 Beweis. Wir zeigen die Aussage zuerst für diskrete Stoppzeiten Tn , die T approximieren (siehe Bemerkung 1.8), also falls T (ω) = 0 0 −n Tn (ω) := (m + 1)2 falls T (ω) ∈ (m2−n , (m + 1)2−n ] ∞ falls T (ω) = ∞ für n ∈ N. Aufgrund der Markow-Eigenschaft (Satz 2.6) wissen wir, dass für alle k ∈ N durch {Bt+ kn − B kn : t ≥ 0} eine Brownsche Bewegung definiert ist. Wir bezeichnen diese mit 2 2 (k) B (k) = {Bt durch : t ≥ 0}. Weiters definieren wir einen stochastischen Prozess B ∗ = {Bt∗ : t ≥ 0} Bt∗ := Bt+Tn − BTn . Wir zeigen, dass B ∗ eine Brownsche Bewegung und unabhängig von FT+n ist. Seien also N ∈ + d N, t1 , . . . , tN ∈ R+ 0 , A1 , . . . , AN ∈ B(R ) und E ∈ FTn . Dann gilt P({Bt∗1 ∈ A1 } ∩ . . . ∩ {Bt∗N ∈ AN } ∩ E) ∞ X = P({Bt∗1 ∈ A1 } ∩ . . . ∩ {Bt∗N ∈ AN } ∩ E ∩ {Tn = k2−n }) k=0 = ∞ X (k) (k) (k) (k) P({Bt1 ∈ A1 } ∩ . . . ∩ {BtN ∈ AN } ∩ E ∩ {Tn = k2−n }) k=0 = ∞ X P({Bt1 ∈ A1 } ∩ . . . ∩ {BtN ∈ AN })P(E ∩ {Tn = k2−n }), k=0 (k) da wegen Satz 2.8 FtBN + und Fk2 −n unabhängig sind und E ∩ {Tn = k2−n } = E ∩ {T ∈ ((k − 1)2−n , k2−n ]} + = E ∩ ({T ≤ k2−n } \ {T ≤ (k − 1)2−n }) ∈ Fk2 −n gilt. Da B (k) für jedes k ∈ N0 eine Standard-Brownsche Bewegung ist, gilt für eine ddimensionale Standard Brownsche Bewegung W (k) (k) P({Bt1 ∈ A1 } ∩ . . . ∩ {BtN ∈ AN }) = P({Wt1 ∈ A1 } ∩ . . . ∩ {WtN ∈ AN }) und damit ∞ X (k) (k) P({Bt1 ∈ A1 } ∩ . . . ∩ {BtN ∈ AN })P(E ∩ {Tn = k2−n }) k=0 = P({Wt1 ∈ A1 } ∩ . . . ∩ {WtN ∈ AN }) ∞ X P(E ∩ {Tn = k2−n }) k=0 = P({Wt1 ∈ A1 } ∩ . . . ∩ {WtN ∈ AN })P(E), also insgesamt P({Bt∗1 ∈ A1 } ∩ . . . ∩ {Bt∗N ∈ AN } ∩ E) = P({Wt1 ∈ A1 } ∩ . . . ∩ {WtN ∈ AN })P(E). Wenn wir E als den ganzen Raum wählen, folgt P({Bt∗1 ∈ A1 } ∩ . . . ∩ {Bt∗N ∈ AN }) = P({Wt1 ∈ A1 } ∩ . . . ∩ {WtN ∈ AN }), 14 2 DIE BROWNSCHE BEWEGUNG weshalb B ∗ eine Standard-Brownsche Bewegung ist. Zusätzlich folgt daraus P({Bt∗1 ∈ A1 } ∩ . . . ∩ {Bt∗N ∈ AN } ∩ E) = P({Wt1 ∈ A1 } ∩ . . . ∩ {WtN ∈ AN })P(E) + d ∗ für alle N ∈ N, t1 , . . . , tN ∈ R+ 0 , A1 , . . . , AN ∈ B(R ) und E ∈ FTn . Also ist B unabhängig von FT+n . Dieses Ergebnis müssen wir nun noch auf allgemeine Stoppzeiten T übertragen. Wegen der Pfadstetigkeit der Brownschen Bewegung gilt Bt+s+T − Bs+T = lim (Bt+s+Tn − Bs+Tn ) fast sicher. n→∞ Da für s ≥ 0 die Zuwächse Bt+s+Tn − Bs+Tn unabhängig und normalverteilt mit Erwartungswert 0 und Varianz t sind und Bt+s+Tn − Bs+Tn fast sicher gegen Bt+s+T − Bs+T konvergiert, sind nach Satz 3.11 auch die Zuwächse Bt+s+T − Bs+T normalverteilt mit Erwartungswert 0 und Varianz t. Da die Pfade des Prozesses {BT +t − BT : t ≥ 0} fast sicher stetig sind, ist er also eine Brownsche Bewegung. Zu zeigen bleibt die Unabhängigkeit von FT+ . Seien A ∈ FT+ und t1 , . . . , tk ≥ 0. Wir zeigen dazu, dass für jede stetige und beschränkte Funktion F : (Rd )k → R E(1A F (Bt1 +T − BT , . . . , Btk +T − BT )) = P(A)E(F (Bt1 +T − BT , . . . , Btk +T − BT )). gilt, sodass die Behauptung mit Satz 3.2 folgt. Mithilfe der Pfadstetigkeit und des Satzes über die dominierte Konvergenz erhalten wir E(1A F (Bt1 +T − BT , . . . , Btk +T − BT )) = lim E(1A F (Bt1 +Tn − BTn , . . . , Btk +Tn − BTn )). n→∞ Wegen T ≤ Tn gilt FT+ ⊆ FT+n , also A ∈ FT+n . Wir wissen aber bereits, dass der Prozess {Bt+Tn − BTn : t ≥ 0} unabhängig von FT+n ist. Also gilt E(1A F (Bt1 +T − BT , . . . , Btk +T − BT )) = lim E(1A F (Bt1 +Tn − BTn , . . . , Btk +Tn − BTn )) n→∞ = P(A) lim E(F (Bt1 +Tn − BTn , . . . , Btk +Tn − BTn )) n→∞ = P(A)E(F (Bt1 +T − BT , . . . , Btk +T − BT )), wobei wir den Satz über die dominierte Konvergenz ein weiteres Mal verwendet haben. Bemerkung 2.11. Eine alternative Formulierung der starken Markow-Eigenschaft ist, dass für eine d-dimensionale Standard-Brownsche Bewegung B, jede fast sichere Stoppzeit T , alle k ∈ N, jede beschränkte, messbare Funktion f : C([0, ∞), Rd )k → Rd , alle t1 , . . . , tk ∈ R+ 0 und d jeden Startpunkt x ∈ R fast sicher Ex (f (BT +t1 , . . . , BT +tk )|FT+ ) = Ex+BT (f (Bt1 , . . . , Btk )) gilt. 2.2.4 Das Reflexionsprinzip Eine Anwendung der starken Markow-Eigenschaft ist das Reflexionsprinzip, wonach man durch Spiegelung der Pfade einer Brownschen Bewegung an einer Stoppzeit wieder eine Brownsche Bewegung erhält. Wir folgen hier [MP10, Kapitel 2.2.1, S. 44 f.]. 2.3 Der Zusammenhang mit harmonischen Funktionen 15 Satz 2.12 (Reflexionsprinzip). Seien B = {Bt : t ∈ R+ 0 } eine Standard-Brownsche Bewegung und T eine fast sicher endliche Stoppzeit. Der Prozess B ∗ = {Bt∗ : t ∈ R+ 0 }, definiert durch Bt∗ := Bt 1{t≤T } + (2BT − Bt )1{t>T } , ist ebenfalls eine Standard-Brownsche Bewegung. Beweis. Siehe [MP10, Satz 2.19, S. 44-45]. Definition 2.13. Seien B = {Bt : t ∈ R+ 0 } eine Standard-Brownsche Bewegung und T eine fast sicher endliche Stoppzeit. Der Prozess B ∗ aus Satz 2.12 wird die bei T reflektierte Brownsche Bewegung genannt. Das Reflexionsprinzip erlaubt uns nun, die Verteilung der Zufallsvariablen max Bs , t ∈ R+ 0 zu s∈[0,t] bestimmen, welche für Aussagen über das asymptotische Verhalten der Brownschen Bewegung nützlich ist. Satz 2.14. Sei B eine lineare Standard-Brownsche Bewegung und durch Mt := max Bs für s∈[0,t] jedes t ∈ R+ 0 eine Zufallsvariable definiert. Für a > 0 gilt P(Mt > a) = 2P(Bt > a) = P(|Bt | > a). ∗ Beweis. Sei T := inf{t ∈ R+ 0 : Bt = a}. Nach Lemma 2.7 ist T eine Stoppzeit. Sei B die bei T reflektierte Brownsche Bewegung. Es gilt {Mt > a} = {Bt > a} ∪ {Mt > a, Bt ≤ a}. Diese Zerlegung ist offensichtlich disjunkt. Weiters gilt {Mt > a, Bt ≤ a} = {Bt∗ ≥ a} und damit P(Mt > a) = P(Bt > a) + P(Bt∗ ≥ a) = 2P(Bt > a) = P(Bt > a) + P(−Bt > a) = P(Bt > a) + P(Bt < −a) = P(|Bt | > a), da B ∗ und −B lineare Standard-Brownsche Bewegungen sind. 2.3 Der Zusammenhang mit harmonischen Funktionen Die Brownsche Bewegung ist nicht nur für die Stochastik interessant, sondern findet auch in der Analysis, insbesondere im Zusammenhang mit harmonischen Funktionen und partiellen Differentialgleichungen, Anwendung. In diesem Kapitel möchten wir eine Einführung in dieses Thema liefern, wozu wir uns zuerst mit einigen Grundlagen harmonischer Funktionen befassen und dabei [MP10, Kapitel 3.1, S. 65 ff.] folgen. Details und Weiterführendes können unter anderem in [Bas94] nachgelesen werden. Definition 2.15. Sei U ⊆ Rd ein Gebiet, d. h. eine offene, nichtleere und zusammenhängende Menge. Eine Funktion u : U → R heißt harmonisch, wenn sie zweimal stetig differenzierbar ist und für jedes x ∈ U d X ∂2 ∆u(x) := u(x) = 0 ∂x2j j=1 gilt. Falls stattdessen nur ∆u(x) ≥ 0 gilt, heißt u subharmonisch. 16 2 DIE BROWNSCHE BEWEGUNG Wir beginnen mit zwei nützlichen äquivalenten Bedingungen, in denen nicht explizit von Differenzierbarkeit gesprochen wird. Satz 2.16 (Mittelwerteigenschaften). Sei U ∈ Rd ein Gebiet und u : U → R messbar und lokal beschränkt. Dann sind folgende Aussagen äquivalent: 1. u ist harmonisch. 2. Für jede Kugel Bx (r) ⊆ U gilt Z 1 u(x) = λ(Bx (r)) u(y)dy. Bx (r) 3. Für jede Kugel Bx (r) ⊆ U gilt 1 u(x) = σx,r (∂Bx (r)) Z u(y)dσx,r (y), ∂Bx (r) wobei σx,r das Oberflächenmaß auf ∂Bx (r) ist. Beweis. Siehe [MP10, Satz 3.2, S. 65]. Bemerkung 2.17. Ähnlich zu Satz 2.16 kann auch zeigen, dass eine zweimal stetig differenzierbare Funktion u : U → R genau dann subharmonisch ist, wenn für alle Kugeln Bx (r) ⊆ U Z 1 u(y)dy u(x) ≤ λ(Bx (r)) Bx (r) gilt. Eine wichtige Eigenschaft subharmonischer Funktionen ist das sogenannte Maximumprinzip, welches in der Analysis eine wichtige Rolle spielt. Satz 2.18 (Maximumprinzip). Sei u : Rd → R eine Funktion, die auf einem Gebiet U ⊆ Rd subharmonisch ist. Dann gilt: 1. Wenn u in U sein Maximum annimmt, ist u auf U konstant. 2. Wenn u auf Ū stetig und U beschränkt ist, gilt max u(x) = max u(x). x∈Ū Beweis. x∈∂U 1. Seien M := max u(x) und V := {x ∈ U : u(x) = M }. Da U offen ist, gibt es für x∈U jedes x ∈ V eine Kugel Bx (r) ⊆ U . Mithilfe der Mittelwerteigenschaft (siehe Bemerkung 2.17) folgt Z Z 1 1 M = u(x) ≤ u(y)dy ≤ M dy = M λ(Bx (r)) Bx (r) λ(Bx (r)) Bx (r) und damit 1 M = u(x) = λ(Bx (r)) Z u(y)dy. Bx (r) Aus u(y) ≤ M für y ∈ Bx (r) folgt nun u = M fast überall auf Bx (r). Wegen der Stetigkeit von u auf U gilt dann Bx (r) ⊆ V . Also gibt es für jedes x ∈ V eine Umgebung, die wieder in V liegt, d. h. V ist offen. Andererseits sieht man anhand seiner Definition, dass V relativ abgeschlossen bezüglich U ist. Da weiters V nicht leer und U zusammenhängend ist, erhalten wir V = U . Also ist u konstant auf U . 2.4 Aussagen über das asymptotische Verhalten der Brownschen Bewegung 17 2. Da u stetig und Ū abgeschlossen und beschränkt ist, nimmt u sein Maximum auf Ū an. Aus der ersten Aussage folgt, dass dieses in jedem Fall auf ∂U angenommen wird. Bemerkung 2.19. Wenn u harmonisch ist, kann Satz 2.18 sowohl auf u als auch auf −u angewandt werden. Damit folgt, dass die Aussagen des Maxiumprinzips in diesem Fall auch für das Minimum gelten. Korollar 2.20. Sei U ∈ Rd ein beschränktes Gebiet. Seien u1 , u2 : Rd → R Funktionen, die auf U harmonisch und auf Ū stetig sind. Wenn u1 und u2 auf ∂U übereinstimmen, dann auch auf Ū . Beweis. Wenn wir die zweite Aussage des Maximumprinzips (Satz 2.18) auf die Funktion u1 − u2 anwenden, erhalten wir max u1 (x) − u2 (x) = max u1 (x) − u2 (x) = 0, x∈Ū x∈∂U also u1 (x) ≤ u2 (x) für alle x ∈ Ū . Analog erhalten wir durch die Anwendung des Maximumprinzips auf u2 − u1 , dass für alle x ∈ Ū die Ungleichung u2 (x) ≤ u1 (x) und damit insgesamt u2 (x) = u1 (x) gilt. Nun können wir den folgenden Satz formulieren, der die Grundlage des Zusammenhangs zwischen der Brownschen Bewegung und harmonischen Funktionen bildet. Satz 2.21. Sei U ⊆ Rd ein Gebiet, {Bt : t ≥ 0} eine Standard-Brownsche Bewegung und τ := inf{t ≥ 0 : Bt ∈ ∂U }. Sei weiters φ : ∂U → R messbar und so, dass die Funktion u : U → R, definiert durch u(x) := Ex (φ(Bτ )1{τ <∞} ), für jedes x ∈ U lokal beschränkt ist. Dann ist u eine harmonische Funktion. Beweis. Sei δ > 0 so, dass Bx (δ) ⊆ U und τ̃ := inf{t ≥ 0 : Bt ∈ / Bx (δ)}. Mithilfe der starken Markow-Eigenschaft gilt u(x) = Ex (φ(Bτ )1{τ <∞} ) = Ex (Ex (φ(Bτ )1{τ <∞} |Fτ̃+ )) = Ex (u(Bτ̃ )). Da Bτ̃ auf der Sphäre ∂Bx (δ) gleichverteilt ist, folgt 1 u(x) = Ex (u(Bτ̃ )) = σx,δ (∂Bx (δ)) Z u(y)dσx,δ (y). ∂Bx (δ) Also besitzt u die Mittelwerteigenschaft. Da u auch lokal beschränkt ist, folgt aus Satz 2.16, dass u harmonisch ist. 2.4 2.4.1 Aussagen über das asymptotische Verhalten der Brownschen Bewegung Das Gesetz der großen Zahlen Aus der Wahrscheinlichkeitstheorie sind diverse Gesetze der großen Zahlen bekannt, die Aussagen über den Grenzwert des arithmetischen Mittels einer Folge von Zufallsvariablen (Xi )i∈N tätigen. Wenn man einen diskreten stochastischen Prozess B auf den natürlichen Zahlen definiert, deren 18 2 DIE BROWNSCHE BEWEGUNG Zuwächse Bi − Bi−1 für i ∈ N gleich Xi sind, entspricht dies dem Grenzwert der Folge Btt für t → ∞. Deshalb erscheint es naheliegend, sich auch im Zusammenhang kontinuierlicher Prozesse wie der Brownschen Bewegung für den Grenzwert von Btt zu interessieren. Tatsächlich liefert uns eine weitere Eigenschaft der Brownschen Bewegung diesbezüglich eine Antwort. Wir folgen hier der Darstellung aus [MP10, Kapitel 1.1.3, S. 12 ff.]. Satz 2.22 (Zeitumkehr). Sei B = {Bt : t ∈ R+ 0 } eine lineare Standard-Brownsche Bewegung. Dann ist der Prozess {Xt : t ∈ R+ }, definiert durch 0 ( 0 falls t = 0 Xt := tB 1 falls t > 0 t ebenfalls eine Brownsche Bewegung. Beweis. Seien n ∈ N und t0 , . . . , tn ∈ R+ 0 mit 0 ≤ t0 < . . . < tn . Die Zufallsvektoren (Bt0 , . . . , Btn ) folgen einer n-dimensionalen Normalverteilung mit Erwartungswert 0. Für die Kovarianzen gilt Cov(Bti , Btj ) = E((Bti − E(Bti )(Btj − E(Btj )) = E(Bti Btj ) = E(Bti (Btj − Bti + Bti )) = E(Bti (Btj − Bti )) + E(Bt2i ) = Var(Bti ) = ti , falls i < j. Es ist nun ausreichend zu zeigen, dass X stetige Pfade besitzt und (Xt0 , . . . , Xtn ) die gleiche Verteilung wie (Bt0 , . . . , Btn ) besitzt. Aus elementaren Eigenschaften der Normalverteilung folgt, dass Xti = ti B 1 normalverteilt mit Erwartungeswert 0 und Varianz ti ist. Weiters gilt ti für i < j 1 Cov(Xti , Xtj ) = ti tj Cov(B 1 , B 1 ) = ti tj = ti . ti tj tj Damit besitzt (Xt0 , . . . , Xtn ) die gleiche Verteilung wie (Bt0 , . . . , Btn ). Die Pfadstetigkeit von X für t > 0 folgt direkt aus jener von B. Zu zeigen bleibt, dass die Pfade auch im Punkt t = 0 stetig sind. Sei also (tn )n∈N eine Folge in (0, ∞) mit lim tn = 0. n→∞ Für jedes n ∈ N sei sn := lim mn = ∞ und 1 tn und mn ∈ N0 so, dass sn ∈ [mn , mn + 1). Dann gilt, dass n→∞ | 1 1 1 1 1 1 Bsn − Bmn | ≤ | Bsn − Bmn | + | Bmn − Bmn | sn mn sn sn sn mn 1 1 1 ≤ max |Br − Bmn | + |Bmn || − | mn r∈[mn ,mn +1) sm m n 1 2 ≤ max |Br − Bmn | + |Bmn |. mn r∈[mn ,mn +1) mn Für den zweiten Summanden gilt mn 2 1 X |Bmn | = 2| (Bi − Bi−1 )|. mn mn i=1 Aus E(Bi − Bi−1 ) = 0 und dem starken Gesetz der großen Zahl von Etemadi (Satz 3.4) folgt, mn P dass m1n (Bi − Bi−1 ) und somit auch m2n |Bmn | für n → ∞ fast sicher gegen 0 konvergiert. i=1 2.4 Aussagen über das asymptotische Verhalten der Brownschen Bewegung 19 Sei Zn := max |Br − Bn |. Wir werden zeigen, dass für alle > 0 r∈[n,n+1) 1 P(lim sup{ Zn > }) = 0 n n→∞ (2.2) gilt. Da Zn nicht negativ ist und weil Zk für alle k ∈ N identisch verteilt ist, gilt ∞ Z P(Zn > x)dx = E(Zn ) = 0 ∞ Z X k=1 k P(Zn > x)dx ≥ (k−1) ∞ X P(Zn > k) = ∞ X P(Zn > n). n=1 k=1 Nun gilt E(Zn ) = E( max |Br −Bn |) = E( max |Br |) ≤ E(| max Br |+| max −Br |) = 2E(| max Br |). r∈[n,n+1) r∈[0,1) r∈[0,1) r∈[0,1) r∈[0,1) Aufgrund von Satz 2.14 gilt E( max Br ) < ∞ und somit auch E(Zn ) ≤ 2E(| max Br |) < ∞. r∈[0,1) ∞ P Damit erhalten wir k=1 r∈[0,1) P( n1 Zn > ) < ∞, woraus mit dem Borel-Cantelli-Lemma (siehe 1 Zn n→∞ n Satz 3.3) die Behauptung 2.2 folgt. Diese ist äquivalent zu P( lim P( lim | s1n Bsn n→∞ − 1 B | mn mn = 0) = 1. Also gilt = 0) = 1 und folglich |Xtn | = |tn B 1 | = | tn 1 1 1 1 Bsn | ≤ | Bmn | + | Bsn − Bmn | → 0 sn mn sn mn fast sicher für n → 0. Satz 2.22 ist ein nützliches Hilfsmittel, um das Verhalten der Brownschen Bewegung im Unendlichen mit ihrem Verhalten in einer Umgebung von t = 0 in Verbindung zu bringen. Auf diese Weise erhalten wir das Gesetz der großen Zahlen als einfaches Korollar. Korollar 2.23 (Gesetz der großen Zahlen für die Brownsche Bewegung). Sei B eine lineare Standard-Brownsche Bewegung. Dann gilt lim Btt = 0 fast sicher. t→∞ Beweis. Sei X = {Xt : t ∈ R+ 0 } wie in Satz 2.22. Wegen der Pfadstetigkeit gilt fast sicher Bt = lim X 1 = X0 = 0. t t→∞ t→∞ t lim 2.4.2 Das 0-1-Gesetz von Hewitt-Savage Das Gesetz der großen Zahlen besagt intuitiv, dass eine √ Brownsche Bewegung langsamer als t wächst. Nun möchten wir zeigen, dass sie schneller als t wächst. Da in diesem Beweis das 0-1-Gesetz von Hewitt-Savage Anwendung findet, führen wir zuerst ein paar Begriffe im Zusammenhang mit austauschbaren Ereignissen ein, wobei wir der Darstellung in [Kle13, S. 237-242] folgen und auf Details verzichten. Definition 2.24. Seien X und Y zwei Mengen. Eine Funktion f : X n → Y heißt symmetrisch, wenn für alle Permutationen σ und alle Elemente x1 , . . . , xn ∈ X gilt f (x1 , . . . , xn ) = f (xσ(1) , . . . , xσ(n) ). 20 2 DIE BROWNSCHE BEWEGUNG Eine Funktion f : X N → Y heißt n-symmetrisch, wenn für alle Permutationen σ und alle Elements xi ∈ X gilt f (x1 , . . . , xn , xn+1 , . . .) = f (xσ(1) , . . . , xσ(n) , xn+1 , . . .). Eine n-symmetrische Funktion ist also in den ersten n Argumenten symmetrisch. Eine Funktion f : X N → Y heißt symmetrisch, wenn sie n-symmetrisch für alle n ∈ N ist. Definition 2.25. Sei X = {Xn : n ∈ N} ein stochastischer Prozess, wobei jedes Xn Werte im messbaren Raum E hat. Sei Fn := {f : E N → R|f ist messbar und n-symmetrisch} die Menge aller messbaren, n-symmetrischen Abbildungen und Sn := σ(Fn ) die von diesen Funktionen erzeugte σ-Algebra. Dann ist En := X −1 (Sn ) die σ-Algebra aller unter Permutationen der ersten n Indizes des stochastischen Prozesses invarianten Ereignisse. Die austauschbare σ-Algebra ist dann definiert als ∞ \ E := En . n=1 E ist somit die σ-Algebra aller unter Permutationen endlich vieler Indizes des stochastischen Prozesses invarianten Ereignisse. Ein Element E ∈ E wird auch austauschbares Ereignis genannt. Satz 2.26 (Null-Eins-Gesetz von Hewitt-Savage). Sei (Xn )n∈N eine Folge unabhängiger, identisch verteilter Zufallsvariablen und E die austauschbare σ-Algebra der Folge. Dann gilt für E ∈ E entweder P(E) = 0 oder P(E) = 1. Beweis. Siehe [Kle13, Korollar 12.19, S. 242]. Mit dem 0-1-Gesetz von Hewitt-Savage steht uns ein Werkzeug zur Verfügung, dass uns den Beweis des folgenden Resultats ermöglicht, wie er in [MP10, Proposition 1.23, S. 19] zu finden ist. Satz 2.27. Sei B eine lineare Standard-Brownsche Bewegung, dann gilt Bt lim sup √ = +∞ t t→∞ und Bt lim inf √ = −∞ t→∞ t fast sicher. Beweis. Sei c ∈ N. Nach dem Lemma von Fatou gilt √ √ P(lim sup{Bn > c n}) ≥ lim sup P(Bn > c n) = lim sup P(B1 > c) = P(B1 > c) > 0 n→∞ n→∞ n→∞ Sei Xn := Bn − Bn−1 . Aus n X √ √ lim sup{Bn > c n} = lim sup{ Xj > c n} n→∞ n→∞ j=1 √ sieht man, dass lim sup{Bn > c n} ein austauschbares Ereignis bezüglich des Prozesses {Xn : n→∞ n ∈ N} ist. Laut dem Null-Eins-Gesetz von Hewitt-Savage (Satz 2.26) gilt also P(lim sup{Bn > n→∞ √ Bn Bt √ c n}) = 1. Damit ist lim sup √ > c fast sicher für alle c ∈ N, woraus lim sup = ∞ f. s. n t n→∞ folgt. Die zweite Aussage kann ähnlich bewiesen werden. t→∞ 2.4 Aussagen über das asymptotische Verhalten der Brownschen Bewegung 2.4.3 21 Das Gesetz des iterierten Logarithmus Nach den Resultaten von Satz 2.27 und Satz 2.23 stellt sich die Frage, ob es eine Funktion + Bt φ : R+ 0 → R0 gibt, sodass lim sup φ(t) größer als 0, aber kleiner als ∞, ist. Eine positive Antwort t→∞ liefert das Gesetz des iterierten Logarithmus. Im Beweis desselben folgen wir [MP10, Satz 5.1, S. 119-120]. Satz 2.28 (Gesetz des iterierten Logarithmus für die Brownsche Bewegung). Sei B = {Bt : t ∈ R+ 0 } eine lineare Standard-Brownsche Bewegung. Dann gilt lim sup √ t→∞ Bt =1 2t ln ln t und Bt lim inf √ = −1 t→∞ 2t ln ln t fast sicher. Beweis. Sei ψ(t) := √ 2t ln ln t. Wir fixieren > 0 und q > 1. Sei nun für n ∈ N An := { maxn Bt ≥ (1 + )ψ(q n )}. t∈[0,q ] Wegen Satz 2.14 gilt ψ(q n ) Bqn P(An ) = P(|Bqn | ≥ (1 + )ψ(q n )) = 2P(Bqn ≥ (1 + )ψ(q n )) = 2P( √ n ≥ (1 + ) √ n ). q q B n Da √qqn standardnormalverteilt ist, können wir Lemma 3.5 anwenden und erhalten für hinreichend großes n ∈ N (also etwa so, dass 2 ln ln(q n ) > 1) √ n (1+)2 ψ(q n )2 q 2 1 2 2 n − 2q n p e =√ e−(1+) ln ln(q ) P(An ) ≤ √ n 2π (1 + )ψ(q ) 2π (1 + ) 2 ln ln(q n ) 2 2 n ≤ 2e−(1+) ln ln(q ) = . (n ln q)(1+)2 Wegen > 0 gilt also ∞ P P(An ) < ∞. Mithilfe des Borel-Cantelli-Lemmas folgt P(lim sup An ) = n→∞ n=1 0, d. h. fast sicher gilt maxt∈[0,qn ] Bt ≥ (1 + )ψ(q n ) nur für endlich viele n ∈ N. Für große n−1 t ∈ R+ ≤ t < q n gilt also 0 , und n ∈ N so, dass q Bt ψ(q n ) t q n Bt ψ(q n ) q n q n Bt = ≤ ≤ (1 + )q, ψ(t) ψ(q n ) q n ψ(t) t ψ(q n ) q n ψ(q n ) t wobei hier zusätzlich verwendet wurde, dass die Funktion s 7→ gilt nun Bt lim sup ≤ (1 + )q t→∞ ψ(t) s ψ(s) monoton fallend ist. Damit fast sicher. Da dies für beliebige > 0 und q > 1 gilt, folgt lim sup t→∞ Bt ≤1 ψ(t) fast sicher. Für die andere Richtung fixieren wir wieder q > 1 und definieren eine Folge unabhängiger Ereignisse durch Dn := {Bqn − Bqn−1 ≥ ψ(q n − q n−1 )} 22 2 DIE BROWNSCHE BEWEGUNG für alle n ∈ N. Aus Lemma 3.5 folgt für eine standardnormalverteilte Zufallsvariable Z und der 2 Tatsache, dass x2x+1 für x → ∞ streng monoton wachsend gegen 1 konvergiert, für hinreichend großes x und c := 2√12π : P(Z > x) ≥ x2 1 − x 2 1 − x2 x 1 c − x2 2 = √ 2 ≥ √ e e e 2. x2 + 1 2π x 2π x2 + 1 x Damit gilt nun für hinreichend großes n ∈ N und der Konstanten c0 := c 2 ln(q)(1+ln ln q) ψ(q n − q n−1 ) P(Dn ) = P(Z ≥ p ) q n − q n−1 n n−1 ce− ln(n ln q) c ce− ln ln(q −q ) p ≥p = ≥p 2 ln ln(q n − q n−1 ) 2 ln(n ln q) (n ln q) 2 ln(n ln q) c c ≥ = n ln(q)2 ln(n ln q) n ln(q)2(ln n + ln ln q) c c0 ≥ = n ln(q)2(1 + ln ln q) ln n n ln n und damit ∞ P P(Dn ) = ∞. Die zweite Aussage des Lemmas von Borel-Cantelli besagt nun, n=1 dass P(lim sup Dn ) = 1 gilt, d. h. es gilt fast sicher für unendlich viele n ∈ N n→∞ Bqn ≥ Bqn−1 + ψ(q n − q n−1 ) ≥ −2ψ(q n−1 ) + ψ(q n − q n−1 ), wobei die zweite Ungleichung gilt, weil Bqn−1 ≤ 2ψ(q n−1 ) für hinreichend große n, wie im ersten Teil des Beweises bereits gezeigt wurde. Weiters stellen wir fest, dass √ √ ψ(q n−1 ) q n 1 ψ(q n ) q n 1 1 ψ(q n−1 ) = p √ ≤ √ n √ =√ n n n n−1 ψ(q ) ψ(q ) q q ψ(q ) q q q und dass die Abbildung s 7→ ψ(t) t monoton fallend ist, woraus ψ(q n − q n−1 ) ψ(q n ) ≥ q n − q n−1 qn bzw. ψ(q n − q n−1 ) q n − q n−1 ≥ ψ(q n ) qn folgt. Damit erhalten wir, dass fast sicher für unendlich viele n ∈ N Bqn −2ψ(q n−1 ) + ψ(q n − q n−1 ) −2 q n − q n−1 2 1 ≥ ≥√ + =1− √ − n n n ψ(q ) ψ(q ) q q q q gilt. Dies bedeutet lim sup t→∞ Bt 2 1 ≥1− √ − ψ(t) q q fast sicher. Da q > 1 beliebig war, folgt das Resultat lim sup t→∞ Bt ≥ 1 fast sicher. ψ(t) Die zweite Aussage kann ähnlich gezeigt werden. Bemerkung 2.29. Betrachtet man also ein beliebig kleines > 0,√so gibt es für jeden Pfad einen von abhängigen Zeitpunkt t0 < ∞, sodass |Bt | ≤ (1 + √ ) 2t ln ln t für alle t > t0 , während beliebig große Zahlen t existieren, sodass |Bt | ≥ (1 − ) 2t ln ln t. 23 B(t) 50 0 −50 0 100 200 300 400 500 t 600 700 800 900 1,000 Abbildung 2: Vier √ simulierte Pfade einer √ linearen Standard-Brownschen Bewegung sowie die Funktionen t 7→ 2t ln ln t und t 7→ − 2t ln ln t 3 Anhang In diesem Kapitel sammeln wir wichtige Aussagen, die in den vorangegangenen Abschnitten ohne Beweis verwendet wurden. Es handelt sich hierbei um grundlegende Sätze aus der Wahrscheinlichkeitstheorie, die nicht im Fokus dieser Arbeit liegen, deren Formulierung aber dennoch wichtig für das Verständnis der präsentierten Beweise ist. 3.1 Wichtige Sätze aus der Wahrscheinlichkeitstheorie Oftmals erweist es sich als schwierig, die Unabhängigkeit von Zufallsvariablen zu beweisen. Zusätzlich zu den bekannten Kriterien stellen sich die folgenden Sätze für unsere Zwecke als hilfreich heraus. Lemma 3.1 (Blockungslemma). Seien n ∈ N und X1 , . . . , Xn reellwertige, unabhängige Zufallsvariable, k ∈ {1, . . . , n − 1} und g : Rk → R, h : Rn−k → R messbare Funktionen. Dann sind auch g(X1 , . . . , Xk ) und h(Xk+1 , . . . , Xn ) unabhängige Zufallsvariable. Beweis. Siehe [Hen16, Satz 17.12, S. 140] für diskret verteilte Zufallsvariablen. Der stetige Fall kann analog bewiesen werden. Lemma 3.2. Die Zufallsvektoren X : Ω → Rm und Y : Ω → Rn sind genau dann unabhängig, wenn für beliebige beschränkte, stetige Funktionen f : Rm → R und g : Rn → R E(f (X)g(Y )) = E(f (X))E(g(Y )) gilt. Beweis. Seien X und Y unabhängig und A ∈ B(R). Weil f als stetige Funktion insbesondere messbar ist, gilt f −1 (A) ∈ B(Rm ) und damit X −1 (f −1 (A)) ∈ σ(X). Es folgt σ(f (X)) ⊆ σ(X). Analog gilt σ(g(Y )) ⊆ (Y ). Weil X und Y unabhängig sind, sind also auch f (X) und g(X) unabhängig. Da f und g beschränkt sind, haben sie endliche Erwartungswerte, also gilt E(f (X)g(Y )) = E(f (X))E(g(Y )). 24 3 ANHANG Wir nehmen nun an, für alle beliebigen beschränkten, stetigen Funktionen f : Rm → R und g : Rn → R gilt E(f (X)g(Y )) = E(f (X))E(g(Y )) und zeigen, dass dann X und Y unabhängig sind. Seien x1 , . . . , xm , y1 , . . . , yn ∈ R. Wir definieren für alle k ∈ N ( 1 falls min{xi − ξi : i ∈ {1, . . . , m}} ≥ 0 fk (ξ1 , . . . , ξm ) := k min{xi −ξi :i∈{1,...,m}} e sonst und ( 1 gk (ζ1 , . . . , ζn ) := ek min{yi −ζi :i∈{1,...,n}} falls min{yi − ζi : i ∈ {1, . . . , n}} ≥ 0 . sonst Diese Funktionen sind stetig und beschränkt. Weiters konvergieren (fk )k∈N und (gk )k∈N punktweise gegen 1(−∞,x1 ]×...×(−∞,xm ] respektive 1(−∞,y1 ]×...×(−∞,yn ] , weshalb mithilfe des Satzes über dominierte Konvergenz aus E(fk (X)gk (Y )) = E(fk (X))E(gk (Y )) durch beidseitige Grenzwertbildung (k → ∞) E(1(−∞,x1 ]×...×(−∞,xm ] (X)1(−∞,y1 ]×...×(−∞,yn ] (Y )) = E(1(−∞,x1 ]×...×(−∞,xm ] (X))E(1(−∞,y1 ]×...×(−∞,yn ] (Y )) folgt. Es gilt also P(X1 ≤ x1 , . . . , Xm ≤ xm , Y1 ≤ y1 , . . . , Yn ≤ yn ) = P(X1 ≤ x1 , . . . , Xm ≤ xm )P(Y1 ≤ y1 , . . . , Yn ≤ yn ), d. h. X und Y sind unabhängig. Das Borel-Cantelli-Lemma wird in den meisten grundlegenden Präsentationen der Wahrscheinlichkeitstheorie behandelt. Es liefert Aussagen über die fast sichere Konvergenz von Zufallsvariablen und bildet eine wesentliche Grundlage für die Beweise aus Kapitel 2. Lemma 3.3 (Borel-Cantelli). Seien A1 , A2 , . . . Ereignisse und sei A∗ := lim sup An . Dann n→∞ gilt: 1. Ist ∞ P P(An ) < ∞, so ist P(A∗ ) = 0. n=1 2. Ist (An )n∈N unabhängig und ∞ P P(An ) = ∞, so ist P(A∗ ) = 1. n=1 Beweis. Siehe [Kle13, Satz 2.7, S. 53]. Eine Reihe von Sätzen, die asymptotische Aussagen über eine Folge von Zufallsvariablen treffen, sind die Gesetze der großen Zahl. Eine detailierte Abhandlung dieser Satzgruppe kann etwa in [Kle13, Kapitel 5, S. 110 ff.] nachgelesen werden. Satz 3.4 (Starkes Gesetz der großen Zahl von Etemadi). Seien X1 , X2 , . . . paarweise unabhängige, identisch verteilte Zufallsvariablen mit E(|Xi |) < ∞, i ∈ N. Dann gilt n 1X (Xi − E(Xi )) = 0 n→∞ n i=1 lim fast sicher. Beweis. Siehe [Kle13, Satz 5.17, S. 114]. 3.2 Eigenschaften normalverteilter Zufallsvariablen 3.2 25 Eigenschaften normalverteilter Zufallsvariablen Zum Beweis von Konvergenzaussagen ist häufig eine Abschätzung normalverteilter Zufallsvariablen hilfreich. Die folgende Aussage ist für große x recht präzise. Lemma 3.5. Sei X standardnormalverteilt. Dann gilt für alle x > 0: x 1 − x2 1 1 − x2 2 ≤ P(X > x) ≤ √ √ e 2 e x2 + 1 2π x 2π Beweis. Siehe [MP10, Lemma 12.9, S. 349]. Wir betrachten nun Sätze über mehrdimensionale Normalverteilungen und folgen dabei [MP10, Kapitel 12.2, S. 349 ff.]. Definition 3.6. Für d ∈ N hat eine Zufallsvariable X = (X1 , . . . , Xd )T mit Werten in Rd die d-dimensionale Standardnormalverteilung, wenn ihre d Koordinaten standardnormalverteilt und unabhängig sind. Eine Zufallsvariable Y mit Werten in Rd heißt normalverteilt, wenn es eine m-dimensional standardnormalverteilte Zufallsvariable X, eine d × m-Matrix A und einen d-dimensionalen Vektor b gibt, sodass Y = AX + b. Nun kann man zeigen, dass sich die Kovarianzenmatrix einer d-dimensional normalverteilten Zufallsvariablen Y , welche in der (i, j)-ten Kompenente die Kovarianz von Zufallsvariablen mit der Randverteilung von Yi respektive Yj enthält, durch Cov(Y ) = AAT berechnen lässt. Der folgende Satz besagt, dass die Multiplikation mit einer orthogonalen d×d-Matrix die Verteilung einer d-dimensionalen Standardnormalverteilung nicht ändert. Satz 3.7. Sei A eine orthogonale d×d-Matrix (d. h. AAT = Id ) und sei X eine d-dimensionale standardnormalverteilte Zufallsvariable. Dann ist AX ebenfalls eine d-dimensional standardnormalverteilte Zufallsvariable. Beweis. Da die Komponenten von X unabhängig und standardnormalverteilt sind, gilt für die Dichtefunktion von X d Y d Y 1 1 2 2 √ e−xi /2 = e−kxk /2 . fX (x) = fXi (xi ) = d/2 (2π) 2π i=1 i=1 Mithilfe der Substitutionsregel gilt Z 1 2 e−kxk /2 dx d/2 (2π) A−1 B Z Z 1 1 2 −kA−1 xk2 /2 −1 = e | det(A )|dx = e−kxk /2 dx, d/2 d/2 (2π) (2π) −1 P(AX ∈ B) = P(X ∈ A B) = B B wobei zusätzlich verwendet wurde, dass der Betrag der Determinante orthogonaler Matrizen stets 1 ist und dass sich die Euklidische Norm eines Vektors durch die Multiplikation mit einer orthogonalen Matrix nicht ändert. Es gilt also fAX = fX . Insbesondere hat fAX die gleichen Randdichten wie fX , das heißt die d Q einzelnen Komponenten sind standardnormalverteilt und wegen fAX (x) = fX (x) = fXi (xi ) i=1 sind sie auch unabhängig. 26 3 ANHANG Daraus folgt ein einfaches Korollar, das wir im konstruktiven Beweis der Existenz der Brownschen Bewegung verwendet haben. Korollar 3.8. Seien X1 und X2 unabhängig und normalverteilt mit Erwartungswert 0 und Varianz σ 2 > 0. Dann sind X1 + X2 und X1 − X2 unabhängig und normalverteilt mit Erwartungswert 0 und Varianz 2σ 2 . Beweis. Der Vektor ( Xσ1 , Xσ2 )T ist 2-dimensional standardnormalverteilt. Die Matrix ! A := √1 2 √1 2 √1 2 − √12 2 2 X√ , 1 −X ). Mithilfe von Satz 3.7 folgt die Behauptung. ist orthogonal und AX = ( X√1 +X 2σ 2 2σ 2 Die nächste Aussage besagt, dass die Verteilung einer mehrdimensional normalverteilten Zufallsvariablen durch ihren Erwartungswert und ihre Kovarianzenmatrix vollständig bestimmt ist. Satz 3.9. Seien X und Y d-dimensional normalverteilte Zufallsvariablen mit E(X) = E(Y ) und Cov(X) = Cov(Y ). Dann haben X und Y dieselbe Verteilung. Beweis. Siehe [MP10, Proposition 12.13, S. 350]. Wenn wir nun eine d-dimensional normalverteilte Zufallsvariable X mit Cov(X) = Id mit einer d-dimensional normalverteilten Zufallsvariablen mit unabhängigen Komponenten und demselben Erwartungswert vergleichen, erhalten wir nun das folgende Korollar. Korollar 3.10. Eindimensionale Zufallsvariablen, die nach den Randverteilungen einer ddimensional normalverteilten Zufallsvariablen verteilt sind, sind genau dann unabhängig, wenn ihre Kovarianzenmatrix eine Diagonalmatrix ist. Eine weitere interessante Eigenschaft ist, dass die Eigenschaften der Normalverteilung bei Limesbildung in gewissem Sinne beibehalten werden. Satz 3.11. Sei {Xn }n∈N eine Folge d-dimensional normalverteilter Zufallsvariablen und X eine Zufallsvariable, sodass Xn → X fast sicher. Falls b := lim E(Xn ) und C := lim Cov(Xn ) n→∞ n→∞ existieren, dann ist X d-dimensional normalverteilt mit Erwartungswert b und Kovarianzenmatrix C. Beweis. Siehe [MP10, Proposition 12.15, S. 351]. LITERATUR 27 Literatur [ABL14] R. B. Ash, Z. W. Birnbaum, and E. Lukacs. Real Analysis and Probability: Probability and Mathematical Statistics: A Series of Monographs and Textbooks. Elsevier Science, 2014. [Bas94] R. F. Bass. Probabilistic Techniques in Analysis. Probability and Its Applications. Springer New York, 1994. [Beh12] E. Behrends. Elementare Stochastik: Ein Lernbuch - von Studierenden mitentwickelt. Vieweg+Teubner Verlag, 2012. [Hal76] P. R. Halmos. Measure Theory. Graduate Texts in Mathematics. Springer New York, 1976. [Hen16] N. Henze. Stochastik für Einsteiger: Eine Einführung in die faszinierende Welt des Zufalls. Springer Fachmedien Wiesbaden, 2016. [Kle13] A. Klenke. Wahrscheinlichkeitstheorie. Springer-Lehrbuch Masterclass. Springer Berlin Heidelberg, 2013. [MP10] P. Mörters and Y. Peres. Brownian Motion. Cambridge University Press, Cambridge, UK, 2010.