Numerische Lösung stochastischer Differentialgleichungen: (Brownsche Bewegung, Laser ) Numerische Physik SS 07, Aufgabe 2, Ausdruck: 23. April 2007 P.Z.,M.F.,H.E.,H.R. 1 Motivation Historisch gesehen stellte die Beschreibung der Brown’schen Bewegung den Ausgangspunkt der Entwicklung eines mathematisch-stochastischen Kalküls dar. Dabei wird ein Massenpunkt in einem viskosen Medium einer zufälligen gepulsten Kraft unterworfen. Die heutigen Anwendungen reichen von Gebieten in der Quantenoptik und Elektronik bis zur stochastischen Kontrolle von Prozessen in der Wirtschaft. Das Beispiel, das uns noch in einiger Ausführlichkeit beschäftigen wird, ist die Beschreibung der Brown’schen Bewegung eines Teilchens in einem viskosen Medium( Ornstein-Uhlenbeck-Prozeß). Mit analytischen Methoden können nur sehr einfache Probleme gelöst werden. In der Praxis treten aber meist nichtlineare SDG auf, sodaß nur eine numerische Simulation zum Lösen der Probleme bleibt. Dabei wird die SDG wiederholt für verschiedene Realisierungen der Rauschterme integriert um Mittelwerte und Varianzen der relevanten Größen zu bekommen. Um die Bedeutung stochastischer Methoden für die Physik zu motivieren, betrachten wir zum Aufwärmen folgendes einfache Modell einer Populationsentwicklung: dN = a(t) · N (t) , dt N (0) = A , (1) wobei N (t) die Größe der Population und a(t) die relative Zuwachsrate zur Zeit t bezeichnen. Für konstantes a(t) = a0 ergibt dies je nach Vorzeichen einen genau vorhersagbaren exponentiellen Anstieg oder Zerfall N (t) = N (0)ea0 t . Wenn nun a(t) zufälligen Einflüssen unterliegt, z.B.: a(t) = −1/2 + “Rauschen” = −1/2 + R(t), (2) überträgt sich der zufällige Charakter von R(t) auch auf N (t). Oft ist der Physik das exakte Verhalten des Rauschtermes nicht bekannt, aber dessen statistische Eigenschaften, wie z.B. Mittelwert und Varianz von R(t). Wir wollen die Lösungen von Gl.1 finden und nehmen hier zum Beispiel an, das R(t) jeweils für einen Tag konstant ist, aber von Tag zu Tag zufällig zwischen 0 und 1 schwankt. Dabei ist jeder Wert gleich wahrscheinlich und hngt nicht vom Wert des Vortages ab. Dies führt zu einer sogenannten stochastischen Differentialleichung (SDG) für N (t), deren Lösung abhängig vom zufälligen Verhalten von R(t) immer anders aussieht. Wir werden nun versuchen durch Mittelung über verschiedene Realisierungen statistische Aussagen über die Populationsgrösse N (t) abzuleiten. Aufgabe 1.1 Simulieren Sie das Verhalten der Population N (t) aus Gleichung (1) für 300 Tage, wenn am Beginn N (t = 0) = 100 Exemplare vorhanden sind. R(t) sei dabei für den i-ten Tag eine konstante zufällige Zahl ri ∈ (0, 1), wobei jeder Wert gleich wahrscheinlich sei. Generieren Sie zunächst einige Beispieltrajektorien (siehe Hinweis). Welche Vorhersagen ergeben sich für die Population am Ende N (t = 300) (Mittelwert, Streuung) ? Hinweis: Wählen Sie als Zeiteinheit Tage. Wenn dann N (ti ) die Population am Anfang des i-ten Tages ist und R(ti ) = ri ∈ [01] für diesen Tag ist, gilt N (ti + 1) = N (ti )eri −1/2 für die Population am Beginn des nächsten Tages (Warum ??). Generieren sie nun durch Iteration dieser Gleichung mehere Folgen von Zahlen {Ni = N (ti )} für zufällig gewählte Zahlen ri (verwenden Sie die Matlab Funktion rand, sammeln Sie die Ergebnisse und stellen Sie sie grafisch dar. Es erweist sich als hilfreich die Population auf einer logarithmischen Skala darszustellen. 1 1.1 Mathematische Beschreibung stochastischer Prozesse In diesem Kapitel werden die grundlegenden mathematischen Ideen zur Lösung stochastischer Differentialgleichungen eingeführt. Es wird versucht qualitativen Begriffen, wie z.B. zufällige Fluktuationen, weißes Rauschen, etc., einen mathematisch genauer definierten Sinn zu geben. Lassen Sie sich von den technisch komplizert klingenden Definitionen nicht abschrecken. Nicht alle Details sind dann beim praktischen Lösen der Aufgaben nötig. Vieles wird später bei der eigenhändigen Implementation der physikalischen Gleichungen in Kapitel 2 klarer. Mathematisch Interessierte finden eine umfassendere Einführung in das Gebiet der stochastischen Differentialgleichungen z.B. in folgenden Büchern [1, 2, 8, 9, 5]. Betrachten wir ein Ensemble von identischen Sytemen von Teilchen {Si }i∈I und führen wir zu einer fixen Zeit t z.B. eine Orts- oder Geschwindigkeitsmessung eines Partikels durch, so stellen wir fest, daß jedes der Systeme Si einen verschiedenen Wert für x oder v liefert. Es ist daher sinnvoll, nur Wahrscheinlichkeitsverteilungen für Observablen zu betrachten. Die Observablen werden durch Zufallsvariable X (mit Werten in Rd ) beschrieben, ihre Wahrscheinlichkeitsverteilung durch ein Wahrscheinlichkeitsmaß auf dem Spektrum der möglichen Werte der Observablen: Z P [X ∈ B] ≡ PX (B) = p(x) dx , für B ⊂ SpecX . (3) B PX (B) ist die Wahrscheinlichkeit, für X einen Wert x aus der Teilmenge B zu beobachten. Man nennt p(x) die Dichtefunktion der Verteilung PX von X. Der Erwartungswert einer (integrablen) Zufallsvariablen X ist definiert durch Z x p(x) dx . (4) hXi := SpecX D E Var(X) := (X − hXi)2 = hX 2 i − hXi2 Für d = 1 heißt die Varianz der (quadratintegrablen) Zufallsvariablen X und Cov(X, Y ) := (X − hXi)(Y − hY i) = hXY i − hXi hY i (5) (6) die Covarianz der zwei (quadratintegrablen) Zufallsvariablen X und Y . Ein stochastischer Prozeß ist eine durch t parametrisierte Familie von (Rd -wertigen) Zufallsvariablen X ≡ {Xt }t∈T ; für jedes t ∈ T ist Xt eine Zufallsvariable mit Dichtefunktion p(t, x), die von t abhängt. Der Parameterraum T ist gewöhnlich ein Intervall, N0 oder die Halbgerade R+ . In der Regel sind die Zufallsvariablen Xti (i = 1, 2, . . . , n) zu verschiedenen Zeitpunkten nicht voneinander unabhängig.2 Ihre Abhängigkeit ist gerade ein Ausdruck der Dynamik des Zufallsprozesses Xt und macht sich unter anderem in der Form der Dichte pn (t1 , x1 ; t2 , x2 ; . . . ; tn , xn ) der gemeinsamen Verteilung von (Xt1 , . . . , Xtn ) bemerkbar. 1.2 Wiener Prozeß Wir beschränken uns hier auf den speziellen Fall von stetigen Prozessen, d.h. die Realisierungen (≡ Wege, Trajektorien) x(t) von Xt sind mit Wahrscheinlichkeit 1 in t stetig. Zu diesen gehören z.B. alle Diffusionsprozesse. Das wichtigste Beispiel dieser Gruppe von Prozessen ist der sogenannte (d-dimensionale) WienerProzeß W ≡ {Wt }t∈R+ . Er bildet die zentrale Komponente bei der Behandlung von Diffusionsprozessen. Wenn ti ∈ R, 0 < t1 < t2 < · · · < tn , n verschiedene Zeitpunkte fixieren und E1 , . . . , En Teilmengen des Rd sind, so ist die Wahrscheinlichkeit, daß Wt1 ∈ E1 , . . . , Wtn ∈ En und zur Zeit t = 0 der Wert x ∈ Rd realisiert ist, durch folgendes Faltungsintegral gegeben: Ptx1 ,...,tn (E1 × · · · ×En ) = Z = p(tn − tn−1 , xn − xn−1 ) · · · p(t2 − t1 , x2 − x1 ) p(t1 , x1 − x) dx1 · · · dxn , E1 ×···×En 2 O Bemerkung: Die Zufallsvariablen X1 , . . . , Xn heißen (stochastisch) unabhängig, falls gilt: n P(X1 ,...,Xn ) = i=1 2 PXi . (7) wobei p(t, y) die Gauß’sche Glockenkurve ist, p(t, y) = (2πt) −d/2 |y|2 , exp − 2t für y ∈ Rd , t > 0 , (8) und die Konvention getroffen wurde, daß p(0, y) = δ(y) ist (d.h. Start des Prozesses bei x : W0 ≡ x). Für die Wahrscheinlichkeit, nach einer Zeit t einen Wert aus E ⊂ Rd zu erhalten, ergibt sich: Z 2 (2πt)−d/2 e−|y−x| /2t dy . (9) Ptx (E) = E Die Varianz von Wt steigt also linear in t, der Erwartungswert bleibt jedoch für alle Zeiten konstant gleich x. Um mit dem Wiener-Prozeß besser vertraut zu werden, seien einige grundlegende Eigenschaften erwähnt (siehe [1, Kap. II, S. 11] und [2, Kap. 3]): (i) Wt ist ein Gauß’scher Prozess, d.h. ∀ 0 < t1 < . . . < tn ist die Zufallsvariable Z ≡ (Wt1 , . . . , Wtn ) ∈ Rnd normalverteilt mit Dichte: nd −nd/2 X (2π) 1 q(u1 , . . . , und ) = √ (ui − mi ) [C −1 ]ij (uj − mj ) , (10) exp − 2 det C i,j=1 wobei m = (mi ) ∈ Rnd und C = (cij ) eine positiv-definite nd×nd -Matrix ist. Für Wt ist konkret m = (x, . . . , x) | {z } n−mal und C = t1 Id t1 Id .. . t1 Id t2 Id .. . ··· ··· .. . t1 Id t2 Id .. . t1 Id t2 Id ··· tn Id (Covarianzmatrix ) , wobei Id die d×d -Einheitsmatrix bezeichnet. Damit folgt: i hZi = m und (Z − mi )(Z j − mj ) = cij , insbesondere also: hWt iW0 ≡x = x , ∀ t ≥ 0 , d.h. hWt − Ws iW0 ≡x = 0 , ∀ t, s ∈ R+ , i (Wt − xi ) · (Wsj − xj ) W0 ≡x = δ ij · min(t, s) , i, j = 1, . . . , d, (12) (Wt − x)2 W0 ≡x = d · t , (13) (Wt − Ws )2 W0 ≡x = d · |t − s| . (14) (11) (ii) Wt hat unabhängige Inkremente, d.h. die Zufallsvariablen Wt1 , Wt2 − Wt1 , . . . , Wtk − Wtk−1 sind stochastisch unabhängig für 0 ≤ t1 < . . . < tk . (Diese Eigenschaft ist wesentlich für die numerische Integration von SDGn.) Die Inkremente sind stationär, d.h. die Verteilung von Wt − Ws (für t > s) hängt nur von t − s ab. (iii) Die Realisierungen von t 7→ Wt sind fast sicher (d.h. mit Wahrscheinlichkeit 1) stetig aber fast sicher nirgends differenzierbar. Sie sind nicht von lokal-beschränkter Variation, d.h. die Länge der Wege für jedes kompakte t-Intervall ist nicht endlich. (iv) Falls Wt = (Wt1 , . . . , Wtd ) ein d-dimensionaler Wiener-Prozeß ist, dann sind die 1-dimensionalen Prozesse {Wtj }t∈R+ (1 ≤ j ≤ d) unabhängige 1-dimensionale Wiener-Prozesse. 3 Aufgabe 1.2 Simulieren Sie den eindimensionalen Wiener-Prozeß Wt (Start bei x = 0) im Intervall [0, T ] für eine endliche Schrittweite τ := T /N an den Stellen tj := jτ (j = 1, . . . , N ) und stellen Sie die Realisierungen graphisch dar. Kontrollieren Sie (graphisch) an einzelnen Zeitpunkten tn , ob die so bestimmten Realisierungen Gauß-verteilt sind mit Erwartungswert 0 und Varianz tn . Rt R t+δ (0 ≤ t0 ≤ t ≤ T ); wobei ∆Wδ = t dWt geeignet gewählte (Hinweis: Es gilt:Wt = Wt0 + t0 dWs Zufallszahlen (gauß-verteilt mit Mittelwert 0) sind. Siehe auch die “help-files” der Matlab-Funktionen rand, hist, bar, mean, std, cov, corrcoef und cumsum.) 1.3 Stochastische Integration: Lösen von DGL mit Rauschterm Dieses und das folgende Kapitel wendet sich an mathematisch Interessierte zur genaueren Erklärung der in den darauffolgenden Kapiteln verwendeten mathematischen Terminologie. Es behandelt das Problem, eine wohldefinierte mathematische Interpretation des “Rausch”-termes in Gl. (1) bzw. allgemeiner in Gleichungen der Form dXt = b(t, Xt ) + σ(t, Xt ) · “Rauschen” (15) dt zu finden. (b und σ seien Funktionen auf [0, T ]×Rn mit Werten in Rn bzw. in den reelen n×d-Matrizen). Man möchte den Rausch-Term durch einen (Rd -wertigen) stochastischen Prozeß {ξt }t∈R+ modellieren, sodaß aus Gl.(15) eine Differentialgleichung für einen (Rn -wertigen) stochastischen Prozeß {Xt }t∈R+ wird: dXt = b(t, Xt ) + σ(t, Xt ) · ξt . dt (16) Da die Korrelationszeiten des “Rausch”-Prozesses — er beschreibt den Einfluß eines Badsystems B mit einer inneren Relaxationszeit τB auf ein System S, z.B. ein Teilchen in einer Flüssigkeit — auf der Zeitskala der Xt -Entwicklung oft sehr klein sind, suchen wir für ξt einen Prozeß mit folgenden Eigenschaften [1, Kap. III, S. 13]: (i) Falls t1 6= t2 , sind ξt1 und ξt2 stochastisch unabhängig; (ii) {ξt }t∈R+ ist stationär, d.h. die gemeinsame Verteilung von (ξt1 +τ , . . . , ξtk +τ ) hängt nicht von τ ab; (iii) hξt i = 0, für alle t. (Man kann sonst den Erwartungswert in b(t, Xt ) absorbieren). Es stellt sich bei genauerer Untersuchung heraus, daß kein stetiger stochastischer Prozeß existiert, der (i) und (ii) erfüllt. (Nichtsdestoweniger existiert ξt als verallgemeinerter stochastischer Prozeß, “white noise process” genannt, analog der Erweiterung des Begriffs der Funktion durch den der Distribution; siehe dazu [2, Kap. 3.2] oder [6].) Wir wollen diese Schwierigkeit aber vermeiden, indem wir Gleichung (16) in eine Form bringen, die das Ersetzen von ξt durch einen geeigneten stochastischen Prozeß zuläßt: für eine Zerlegung 0 = t0 < t1 < . . . < tk = t des Intervalls [0, t] betrachten wir folgende diskrete Version der SDG (16): Xj+1 − Xj = b(tj , Xj ) ∆tj + σ(tj , Xj ) ξj ∆tj , (17) mit ∆tj := tj+1 − tj , ξj := ξtj , Xj := Xtj , für j = 0, . . . , k − 1. Wir ersetzen nun den Ausdruck ξj ∆tj durch ∆Vj := Vtj+1 − Vtj , wobei {Vt }t≥0 ein “passender” stochastischer Prozeß ist. Die Annahmen (i), (ii) und (iii) für ξt legen nahe, von Vt stationäre unabhängige Inkremente ∆Vj mit Mittelwert 0 zu verlangen. Es zeigt sich, daß der einzige solche Prozeß mit stetigen Realisierungen der Wiener-Prozeß ist [1, Kap. III, S. 17]. Damit folgt aus (17): k−1 k−1 X X b(tj , Xj ) ∆tj + σ(tj , Xj ) ∆Wj . (18) Xk = X0 + j=0 j=0 Falls es nun gelingt zu zeigen, daß der Limes auf der rechten Seite von Gl. (18) für ∆tj → 0 in irgendeiner Weise existiert und einen stochastischen Prozeß definiert, erhält man (unter Verwendung der üblichen Notation für die Integration) Z t Z t Xt = X0 + b(s, Xs ) ds + σ(s, Xs ) · dWs , (19) 0 0 4 und man sagt, die mathematische Interpretation der SDG (16) ist die Integralgleichung (19).1 Bemerkung: Um die Problematik bei der Definition des stochastischen Integrals von Riemann-Stieltjes-Summen k X Sk := G(τj ) (Wtj − Wtj−1 ) Rt t0 G(s) dWs als Grenzwert (20) j=1 mit t0 ≤ t1 ≤ . . . ≤ tk = t und tj−1 ≤ τj ≤ tj (j = 1, . . . , k) klar zu machen, betrachten wir folgenden Erwartungswert eines 1-dimensionalen Wiener-Prozesses: + * k k X X min(τj , tj ) − min(τj , tj−1 ) = α·(t − t0 ) , Wτj (Wtj − Wtj−1 ) = (21) j=1 j=1 W0 ≡0 wobei wir τj := tj−1 + α·(tj − tj−1 ) mit 0 ≤ α ≤ 1 und δk := max{tj − tj−1 }j=1,...,k gesetzt haben (siehe Gln. (11) und (12)). Im Gegensatz zum gewöhnlichen Riemann-Stieltjes-Integral hängt also der Grenzwert von Sk Rt für k → ∞ und δk → 0, und damit die Definition des Integrals t0 G(s) dWs im allgemeinen von der Wahl der Stützstellen τj ab. Die Ursache dafür liegt in den “beliebig schnellen” Fluktuationen des Wiener-Prozesses (siehe Kapitel 3.2 (iii) oben). 1.4 Ito und Stratonovic Integrale Die folgenden zwei Definitionen von stochastischen Integralen (bzgl. eines d-dimensionalen Wiener-Prozesses Wt ) erweisen sich als besonders nützlich: für k ∈ N sei 0 ≤ t0 ≤ t1 ≤ . . . ≤ tk = t ≤ T eine Zerlegung des Intervalls [t0 , t] mit Feinheit δk := max{tj − tj−1 }j=1,...,k . Die n×d-matrixwertige (meßbare) Zufallsfunktion RT G(t) mit (fast sicher) t0 |G(s)|2 ds < ∞ (wobei | . | die euklidische Norm in Rnd bezeichnet) sei auf [t0 , T ] (fast sicher) stetig und nicht-vorgreifend (“non-anticipating”), d.h. G(t) ist für alle s ≥ t stochastisch unabhängig von Ws −Wt (G(t) ist sozusagen unabhängig vom Verhalten des Wiener-Prozesses in der Zukunft von Zeitpunkt t). {Xt }t∈[t0 ,T ] sei n×d-matrixwertiger stochastischer Prozeß mit Differential (siehe Gl. (27) unten): • Itô-Definition (siehe [1, Kap. III], [2, Kap. 4] und [8, Kap. 4.2]): Z t G(s) · dWs := st-lim δk →0 t0 k X G(tj−1 ) (Wtj − Wtj−1 ) ; (22) j=1 • Stratonovich-Definition (siehe [2, Kap. 10.2] und [5, Kap. III, § 1]): Z t Xs ◦ dWs := st-lim δk →0 t0 k X 1 j=1 2 (Xtj + Xtj−1 )(Wtj − Wtj−1 ) . (23) Mit “st-lim” bezeichnen wir den stochastischen Grenzwert (“limit in probability”): für Zufallsvariable {Xk }k∈N und X ist st-lim Xk = X k→∞ : ⇐⇒ ∀ > 0 gilt: lim P [ |Xk − X| > ] = 0 . k→∞ Im folgenden seien einige wichtige Eigenschaften des Itô-Integrals erwähnt [2, Kap. 4 und 5]: Rt Rt Rt (i) t0 [c G(s) + H(s)] · dWs = c t0 G(s) · dWs + t0 H(s) · dWs (c ∈ R) . Rt Rs Rt (ii) t0 G(u) · dWu = t0 G(u) · dWu + s G(u) · dWu (t0 ≤ s ≤ t ≤ T ) . RT (iii) Falls t0 |G(s)|2 ds < ∞, gilt: Z t G(s) · dWs = 0 . (24) t0 (Das Itô-Rauschen beeinflußt nicht den Erwartungswert.) 1 (Bemerkung: Gl. (19) wird oft in verkürzter symbolischer Notation als “Differentialform” dX = b(t, X ) dt + σ(t, X ) · dW t t t t geschrieben. Gleichungen mit Differentialen sind daher als Integralgleichungen zu interpretieren!) 5 (iv) Falls RT RT 2 ds < ∞ und t0 |H(s)|2 ds < ∞, gilt (i, j = 1, . . . , n): t0 |G(s)| *Z t G(u)·dWu i Z t0 s H(u)·dWu j + = t0 insbesondere: * min(t,s) Z d X i [G(u)] k [H(u)] j + k du , t0 *Z 2 + Z t t G(s) · dWu = |G(u)|2 du . t0 (25) k=1 (26) t0 (v) Sei Xt0 eine für alle t ≥ t0 von Wt − Wt0 stochastisch unabhängige (Rn -wertige) Zufallsvariable, f (t) RT eine (Rn -wertige, meßbare) nicht-vorgreifende Zufallsfunktion, die (fast sicher) t0 |f (s)| ds < ∞ erf llt, und G(t) wie in der Definition oben. Dann ist für t ∈ [t0 , T ] Z t Z t f (s) ds + G(s) · dWs (27) Xt := Xt0 + t0 t0 n ein stetiger, nicht-vorgreifender (R -wertiger) stochastischer Prozeß. Man schreibt für (27) kurz dXt = f (t) dt + G(t) · dWt (28) und nennt (28) das stochastische Differential von Xt [2, Kap. 5.3]. (vi) Falls G(t) ∈ L2 ([t0 , T ]) keine Zufallsvariable sondern eine gewöhnliche quadratintegrable Funktion ist, Rt dann ist t0 G(s) · dWs (für t ∈ [t0 , T ]) ein n-dimensionaler Gauß’scher Prozeß mit Erwartungwert 0 und Covarianzmatrix [2, Corollary (4.5.6)] cij = d Z X k=1 t [G(s)]i k [G(s)]j k ds (i, j = 1, . . . , n) . (29) t0 für den 1-dimensionalen Wiener-Prozeß zum Beispiel ergibt das Itô-Integral: Z t 1 1 Ws · dWs = (Wt )2 − (Wt0 )2 − (t − t0 ) . 2 2 t0 (30) Wie der Zusatzterm − 21 (t − t0 ) zeigt, l ßt sich das Itô-Integral nicht durch formales Anwenden der Integrationsregeln gewöhnlicher Integrale auswerten. Eine nützliche Hilfe für die Berechnung von Itô-Integralen ist die sogenannte Itô-Formel, die Version der Kettenregel für das Itô-Integral (siehe [1, Kap. 4] und [2, Kap. 5.3]): Satz Sei g(t, x) eine 2-mal stetig differenzierbare Funktion von [t0 , T ] × Rn nach R, {Xt }t∈[t0 ,T ] ein n × dmatrixwertiger stochastischer Prozeß mit Differential (28). Dann ist Yt := g(t, Xt ) für t ∈ [t0 , T ] ein stochastischer Prozeß mit Differential dYt = gt dt + n X gxi · dXti + i=1 n 1 X g i j dXti · dXtj , 2 i,j=1 x x (31) 2 ∂g ∂ g wobei gt := ∂g ∂t , gxi := ∂xi , gxi xj := ∂xi ∂xj die partiellen Ableitungen von g bedeuten und für die Berechnung j i der “Produkte” dXt · dXt folgende Regeln zu beachten sind: dWti · dWtj = δ ij dt (i, j = 1, . . . , d) , dWt · dt = 0 = dt · dWt , (32) dt · dt = 0 . Speziell für g ∈ C 2 (R+ ×R) und Xt = Wt einen 1-dimensionalen Wiener-Prozeß erhalten wir 1 dg(t, Wt ) = gt (t, Wt ) + gxx (t, Wt ) dt + gx (t, Wt ) · dWt , 2 6 (33) insbesondere also für g(x) = xk (k ∈ N): d (Wt )k = k(k−1) 2 (Wt )k−2 dt + k (Wt )k−1 · dWt . (34) Daraus folgt mit k = 2 sofort Gl. (30). Die Itô-Interpretation des stochastischen Integrals in Gl. (19) ermöglicht durch seine Eigenschaften zwar eine einfache numerische Behandlung, für physikalische Anwendungen liefert aber meist das StratonovichIntegral das “richtige” mathematische Modell für die SDG (16), wie die folgende Überlegung zeigt (siehe [1, Kap. III, S. 30] und [2, Kap. 10.3]): Der “white noise”-Limes des “Rausch”-Prozesses in Gl. (16) ist als (k) (k) Idealisierung eines korrelierten Rauschens ξt im Limes τB → 0 zu sehen. Konkret betrachte man eine Folge (k) (k) dW (k) von in t stetig differenzierbaren Prozessen Wt (d.h. ξt ≡ dtt sei eine Folge von stetigen Prozessen) mit (k) Wt → Wt , für k → ∞ (und fast alle Realisierungen), gleichmäßig (in t) auf beschränkten Intervallen. Unter (k) bestimmten Voraussetzungen für die Funktionen b und σ konvergiert die Lösung Xt der (für jede Realisierung deterministischen) Differentialgleichung (k) dXt dt (k) (k) (k) = b(t, Xt ) + σ(t, Xt ) ξt (35) (bzw. der dazu äquivalenten Integralgleichung (k) Xt = X0 + Z t b(s, Xs(k) ) ds + Z 0 t σ(s, Xs(k) ) dWs(k) , (36) 0 wobei nunmehr das zweite Integral ein gewöhnliches Riemann-Stieltjes-Integral ist), für k → ∞ (und fast alle Realisierungen) auf beschränkten Intervallen gleichmäßig gegen einen stochastischen Prozeß Xt , der die SDG (19) bei Verwendung des Stratonovich-Integrals erfüllt: Xt = X0 + Z t b(s, Xs ) ds + Z 0 t σ(s, Xs ) ◦ dWs . (37) 0 Sind also die Badkorrelationenzeiten “klein” genug, liefert die Stratonovich-Interpretation ein gutes Modell für das durch Gl. (16) beschriebene physikalische Problem. In der Physik rechnet man aber meist mit “weißem Rauschen”, indem man dWt formal durch ξt dt ersetzt und folgende Beziehungen für Erwartungswert und Korrelation verwendet [9, Kap. 3]: (38) hξt i = 0 , hξt ξs i = δ(t − s) . Da die Itô-Form für das numerische Lösen von SDGn nach Cauchy-Euler wesentlich ist, ist man daran interessiert, eine Verbindung zwischen beiden Interpretationsm glichkeiten herzustellen. Mit folgender Relation kann man beide Typen von Integralen ineinander umrechnen [5, Kap. III, § 1]: Xt ◦ dWt = Xt · dWt + 1 dXt · dWt . 2 (39) Dabei sind auch hier bei der “Multiplikation” der Differentiale die Regeln (32) zu beachten. Zum Beispiel gilt: Wt ◦ dWt = Wt · dWt + 1 dt 2 (40) (Man sieht also, DR E daß “Stratonovich-Rauschen” im allgemeinen den Erwartungswert des Prozesses beeinflußt: t Ws ◦ dWs = 2t 6= 0). für die der Stratonovich-SDG (37) quivalente Itô-SDG erhält man auf diese Weise 0 (i = 1, . . . , n): dXti d n d X 1 XX i i k = [b(t, Xt )] + [σxk (t, Xt )] j [σ(t, Xt )] j dt + [σ(t, Xt ) · dWt ]i . 2 j=1 j=1 (41) k=1 Bemerkung: Weitere Bedingungen an die Funktionen b und σ für Existenz und Eindeutigkeit von stetigen nicht-vorgreifenden Lösungen der Itô-SDG (19) sind in [1, Theorem 5.5], [2, Kap. 6] und [8, Kap. 4.3] zu finden. 7 1.5 Numerische Lösung von SDGen nach Cauchy-Euler 1.5.1 Analytisches Vergleichsmodell Als Beispiel sei hier die lineare oder Gauß’sche Diffusion beschrieben. Spezialfälle dieses Prozesses beschreiben die Bewegung einer Partikel in einem viskosen Medium. Sei σ = (σ i k ) eine konstante n×d-Matrix und β = (β i k ) eine konstante n×n-Matrix. Dann wird die Gauß’sche Diffusion durch folgende SDG beschrieben: dYt = β Yt + σ · ξt . dt (42) Im “white noise”-Limes entspricht das folgender Itô-Gleichung dYt = β Yt dt + σ dWt . (43) (Bemerkung: Da σ eine konstante Matrix ist, stimmen Itô- und Stratonovich-Interpretation von Gl. (42) berein. Daraus folgt z.B., daß der Rauschterm nicht den Mittelwert der Bewegung beeinflußt.) Wir betrachten hier den Fall n = d = 1: dVt = − γ Vt dt + σ dWt (γ > 0, σ ∈ R) . (44) Die eindeutige analytische Lösung von (44) zu einem (für alle t ≥ 0 von Wt − W0 unabhängigen) Anfangswert V0 ist der stetige stochastische Prozeß [2, Kap. 8.3]: Z t Vt = e−γt V0 + σ e−γ(t−s) dWs (t ∈ R+ ) . (45) 0 2 Falls V0 < ∞ ist, folgt mit Gln. (24) und (25) für den Erwartungswert und die Covarianz hVt i = hV0 i e−γt (46) σ2 σ 2 −γ|t−s| Cov(Vt , Vs ) = Var(V0 ) − e−γ(t+s) + e . 2γ 2γ (47) 2 Die Varianz von Vt konvergiert also für t → ∞ gegen den konstanten Wert σ2γ : σ2 σ2 σ2 e−2γt + → . Var(Vt ) = Var(V0 ) − 2γ 2γ 2γ (48) −γt Da für einen beliebigen Anfangswert V0 gilt: st-lim = 0 , konvergiert für t → ∞ die Verteilung von t→∞ V0 e 2 Vt gegen eine Normalverteilung mit Mittelwert 0 und Varianz σ2γ (siehe Gl. (29)). Für einen normalverteilten oder konstanten Anfangswert V0 ist Vt ein Gauß’scher Prozeß, der sogenannte Ornstein-Uhlenbeck-Prozeß. 2 Insbesondere ist Vt für hV0 i = 0 und V02 = σ2γ ein stationärer Gauß’scher Prozeß mit hVt Vs i = σ 2 −γ|t−s| e . 2γ (49) Durch Integration des Ornstein-Uhlenbeck-Prozesses Vt erhält man den Prozeß (der Anfangswert X0 sei von V0 und, für alle t ≥ 0, von Wt − W0 stochastisch unabhängig) Z Z t 1 − e−γt σ t Xt := X0 + V0 + 1 − e−γ(t−s) dWs , Vs ds = X0 + (50) γ γ 0 0 der zusammen mit Vt die Lösung des SDG-Systems dXt = Vt dt dVt = − γ Vt dt + σ dWt (51) darstellt und für X0 konstant oder normalverteilt ebenso wie Vt ein Gauß’scher Prozeß ist. Falls X02 < ∞ ist, folgt analog zu Gln. (46) und (47) für den Erwartungswert hXt i = hX0 i + 8 1 − e−γt hV0 i γ (52) und die Covarianzen Cov(Xt , Xs ) + Cov(Xt , Vs ) (1 − e−γt )(1 − e−γs ) σ2 Var(V ) + min(t, s) 0 γ2 γ2 n o 2e−γt + 2e−γs − e−γ(t+s) − e−γ|t−s| − 2 , = Var(X0 ) + = σ2 2γ 3 e−γs (1 − e−γt ) Var(V0 ) γ o σ2 n + 2 2e−γs (eγ min(t,s) − 1) + e−γ(t+s) − e−γ|t−s| . 2γ (53) (54) Insbesondere gilt: Var(Xt ) = Var(X0 ) + Cov(Xt , Vt ) = 1.5.2 (1 − e−γt )2 σ2 Var(V ) + 2γt + 1 − (2 − e−γt )2 , 0 γ2 2γ 3 2 e−γt (1 − e−γt ) σ2 Var(V0 ) + 1 − e−γt . 2 γ 2γ (55) (56) Implementation in der Praxis Wir wollen uns nun der numerischen Lösung der SDG (43) zuwenden. Da wir nur an Ausdrücken der Form hf (Yt )i interessiert sind, wählen wir dafür das Cauchy-Euler-Verfahren (siehe [8, Kap. 4.3], [9, Kap. 3.6] und [7, Abschn. 8.2]). Die zentrale Idee dabei ist, den Rauschterm (Wiener-Prozeß) durch Zufallszahlen am Computer zu simulieren, und die SDG mit diesem numerisch simulierten Term zu integrieren. Dies erlaubt die gewünschten Mittelwerte für eine große Zahl so erzeugter Realisierungen (≡ Ensemblezahl) zu bilden. Die Computersimulation von Wt und die numerische Integration können dabei simultan ausgeführt werden. Um die Methode an einem Beispiel zu demonstrieren, betrachten wir die Itô-SDG (43). Als erstes unterteilen wir das Zeitintervall [0, T ] in N kleine endliche Teilintervalle der Länge τ := T /N , während derer sich die Systemvariablen nur unwesentlich ändern: tj := jτ, j = 0, . . . , N . Andererseits muß τ wesentlich größer sein als die internen Badkorrelationszeiten τB , um den “white noise”-Limes aufrecht zu erhalten. Die SDG (43) schreiben wir nun in eine Differenzengleichung um (j = 0, . . . , N − 1): Ytj+1 = Ytj + β Ytj · τ + σ ∆Wtj , mit ∆Wtj := Wtj+1 − Wtj . (57) Man erhält also den Wert der stochastischen Variable Ytj+1 zu einem späteren Zeitpunkt tj+1 aus dem bekannten Wert Ytj zur Zeit tj durch Addition eines “deterministischen” Terms β Ytj · τ und eines stochastischen Terms σ ∆Wtj , wobei das Wiener-Inkrement ∆Wtj für alle j ≥ i von Yti unabhängig ist. Nach Voraussetzung ist die Funktionen b (insbesondere auch β Yt ) und σ nicht-vorgreifend und Y0 für alle t ≥ 0 von Wt − W0 unabhängig. (Bemerkung: Die Itô-Form von Gl. (42) ist für die Unabhängikeit unbedingt notwendig!) Jedes der Wiener-Inkremente ∆W0 , ∆Wτ , . . . , ∆WT ist nach Gln. (11) und (14) Gauß-verteilt mit Mittelwert 0 und Varianz τ und unabhängig von den übrigen Inkrementen. Man kann daher bei der Konstruktion einer NäherungsLösung der SDG (43) mit Hilfe von Gl. (57) schrittweise in der Zeit nach vor schreiten, ohne die Vergangenheit bzw. die Zukunft des Prozesses in Betracht ziehen zu müssen (Markov -Eigenschaft), und erhält so eine Folge von Zufallsvariablen {Yjτ }j=0,...,N , deren Realisierungen durch Simulation der normalverteilten Wiener-Inkremente (randn) am Computer mit einem Zufallsgenerator erzeugt werden können. (Der Fehler bei diesem Verfahren ist für einen Schritt von der Ordnung τ 2 und nach N Schritten von der Ordnung τ .) Die Erwartungswerte hf (Yt )i zu den einzelnen Zeitpunkten t = jτ berechnet man dann dadurch, daß man eine große Zahl verschiedener Realisierungen von (Y0 , Yτ , . . . , YT ) abspeichert und statistisch auswertet. Zusammenfassend erhalten wir folgenden Algorithmus: (i) Anfangswert entsprechend der Verteilung von Y0 wählen; (ii) ∆W0 wird aus einer Gauß’schen Verteilung mit Mittelwert 0 und Varianz τ ein Wert zugeordnet; (iii) Mit Punkt (i) und (ii) erhält man die Werte für Yτ ; (iv) Induktives Vorgehen jτ 7→ (j + 1)τ mit Hilfe von Gl. (57); 9 (v) Dadurch bekommt man eine Realisierung des Prozesses (Y0 , Yτ , . . . , YT ). Speichert man “viele” solcher Realisierungen, kann man leicht alle gewünschten Eigenschaften des Prozesses errechnen. (Bemerkung: Da für ein solches Vorgehen sehr viel Speicherplatz notwendig wäre und man ohnehin nur an Mittelwerten und Varianzen interessiert ist, ist es angebracht Schritt (v) nach Schritt (iii) einzuschieben und die stochastische Auswertung für jeden Zeitpunkt durchzuführen.) 1.6 Brown’sche Bewegung Aufgabe 1.3 Ort Xt und Geschwindigkeit Vt eines Brown’schen Teilchens genügen dem folgenden System von SDGn dXt = Vt dt dVt = − γ Vt dt + p 2γ hV 2 istat dWt (58) wobei γ die Dämpfung, V 2 stat der stationäre (d.h. der sich im Limes t → ∞ einstellende) Erwartungswert des Quatrates der Geschwindigkeit und dWt ein Wiener-Inkrement bedeuten. Integrieren Sie die SDG (58) numerisch (zu den Anfangsbedingungen X0 = 0 und V0 normalverteilt oder konstant) und zeichnen Sie nach einer jeweils festen Zahl von Zeitschritten die Phasenraumdichte und die Verteilungen (Histogramme) von Xt und Vt . Stellen Sie die zeitliche Entwicklung von Varianz und Covarianz von Xt und Vt zusammen mit den analytischen Resultaten sowie einzelne Realisierungen dieser Prozesse graphisch dar. Diskutieren Sie die Abhängigkeit der numerischen Ergebnisse von der Ensemblezahl und der Größe des Zeitschrittes. (Hinweis: Durch Umskalieren von Xt , Vt und t kann γ = 1 und V 2 stat = 1 erreicht werden.) 2 Klassische Dynamik eines Einmodenlasers Die elektrische Feldamplitude eines Einmodenlasers läßt sich in guter Näherung durch eine beinahe monochromatisches ebene Welle mit kleinen zufälligen Schwankungen der Feldstärke und Phase beschreiben. Für einen fixen Ort x = 0 wählt man daher einen Ansatz der Form: El (x = 0, t) := E(t)eiφ(t) e−iωt + c.c. = (x(t) + iy(t))e−iωt + c.c.. (59) Dabei ist ω die mittlere Laserfrequenz, sowie E(t) bzw. φ(t) die momentane reelle Amplitude bzw. Phase des Laserfeldes. Weit oberhalb der Laserschwelle findet man, daß die Laseramplitude (oder Intensität) nur sehr gering schwankt, während die Laserphase ein zufälliges Verhalten ähnlich einer Brown’schen Bewegung zeigt. Diese Verhalten nennt man Phasendiffusion und es führt zu einer Linienbreite (Frequenzungenauigkeit) des Lasers. Unterhalb der Laserschwelle findet man starke Schwankungen von Laseramplitude und Phase und das elektrische ist sehr ähnlich dem thermischen Strahlungsfeld, wie es z.B. eine Glühlampe abstrahlt. Dieser Übergang von einem thermischen Strahlungsfeld zu einem kohärenten Laserfeld läßt sich sehr gut anhand der sogenannten Rotating Wave van der Pol Gleichung beschreiben ( siehe: H. Risken : The Fokker-Planck equation, Springer 1984 , Seite 37 oder C.W. Gardiner, Handbook of stochastic Methods ). Für den Real- x(t) und Imaginärteil y(t) der elektrischen Feldamplitude erhält man dabei folgende stochastische Differentialgleichung: √ dx(t) = −x(t)(I(t) − c)dt + 2dW1 (t) (60) √ dy(t) = −y(t)(I(t) − c)dt + 2dW2 (t), (61) mit 2 (62) 2 I(t) = (x (t) + y (t)). W1 und W2 sind dabei zwei unabhängige Wienerprozesse. Den Parameter c nennt man normierten Pumpparameter. Er ist proportional zur Leistung die dem Laser zugeführt wird. c = 0 entspricht dabei genau der Schwellbedingung für den Laser. 2.1 Aufgabenstellung Aufgabe 2.1 10 Simulieren Sie mittels der obigen Lasergleichungen den Anschwingvorgang des Lasers (Start bei x = y = 0). Vergleichen Sie das Verhalten von Intensität und Phase unterhalb und oberhalb Schwelle (verwende z.B. polarplot). Wann stellt sich ein stationärer Zustand ein ? Aufgabe 2.2 Betrachten Sie nun im stationären Fall den Laser genügend weit über der Schwelle. Wie groß sind die relative Intensitätsschwankungen ∆2 I/ < I >2 . Wie hängt die Stärke der Phasendiffusion von c ab ? Hinweis: Setzen Sie fuer einen bestimmten Zeitpunkt t = t0 die Phase auf einen vorgegebenen Wert φ(t0 ) = φ0 und berechnen Sie ∆2 φ(t) =< (φ(t) − φ0 )2 >. Literatur [1] B. Øksental, Stochastic Differential Equations: An Introduction with Applications, Springer, Berlin 1985. [2] L. Arnold, Stochastic Differential Equations: Theory and Applications, Wiley-Interscience, New York 1974. [3] C. W. Gardiner, Handbook of Stochastic Methods, Springer Series Synergetics, Vol. 13, Berlin 1983. [4] H. Risken, The Fokker-Planck-Equation: Methods of Solution and Applications, Springer Series Synergetics, Vol. 18, Berlin 1984. [5] N. Ikeda, S. Watanabe, Stochastic Differential Equations and Diffusion Processes, North-Holland Mathematical Library, Vol. 24, 1981. [6] T. Hida, Brownian Motion, Springer, 1980. [7] J. Honerkamp, Stochastische Dynamische Systeme, VCH Verlagsgesellschaft 1990. [8] C. W. Gardiner, Handbook of Stochastic Methods, Springer Series Synergetics, Vol. 13, Berlin 1983. [9] H. Risken, The Fokker-Planck-Equation: Methods of Solution and Applications, Springer Series Synergetics, Vol. 18, Berlin 1984. 11