Numerische Lösung stochastischer Differentialgleichungen

Werbung
Numerische Lösung stochastischer Differentialgleichungen:
(Brownsche Bewegung, Laser )
Numerische Physik SS 07, Aufgabe 2, Ausdruck: 23. April 2007
P.Z.,M.F.,H.E.,H.R.
1
Motivation
Historisch gesehen stellte die Beschreibung der Brown’schen Bewegung den Ausgangspunkt der Entwicklung
eines mathematisch-stochastischen Kalküls dar. Dabei wird ein Massenpunkt in einem viskosen Medium einer
zufälligen gepulsten Kraft unterworfen. Die heutigen Anwendungen reichen von Gebieten in der Quantenoptik
und Elektronik bis zur stochastischen Kontrolle von Prozessen in der Wirtschaft. Das Beispiel, das uns noch
in einiger Ausführlichkeit beschäftigen wird, ist die Beschreibung der Brown’schen Bewegung eines Teilchens
in einem viskosen Medium( Ornstein-Uhlenbeck-Prozeß).
Mit analytischen Methoden können nur sehr einfache Probleme gelöst werden. In der Praxis treten aber meist
nichtlineare SDG auf, sodaß nur eine numerische Simulation zum Lösen der Probleme bleibt. Dabei wird die
SDG wiederholt für verschiedene Realisierungen der Rauschterme integriert um Mittelwerte und Varianzen
der relevanten Größen zu bekommen.
Um die Bedeutung stochastischer Methoden für die Physik zu motivieren, betrachten wir zum Aufwärmen
folgendes einfache Modell einer Populationsentwicklung:
dN
= a(t) · N (t) ,
dt
N (0) = A ,
(1)
wobei N (t) die Größe der Population und a(t) die relative Zuwachsrate zur Zeit t bezeichnen. Für konstantes
a(t) = a0 ergibt dies je nach Vorzeichen einen genau vorhersagbaren exponentiellen Anstieg oder Zerfall
N (t) = N (0)ea0 t . Wenn nun a(t) zufälligen Einflüssen unterliegt, z.B.:
a(t) = −1/2 + “Rauschen” = −1/2 + R(t),
(2)
überträgt sich der zufällige Charakter von R(t) auch auf N (t). Oft ist der Physik das exakte Verhalten des
Rauschtermes nicht bekannt, aber dessen statistische Eigenschaften, wie z.B. Mittelwert und Varianz von R(t).
Wir wollen die Lösungen von Gl.1 finden und nehmen hier zum Beispiel an, das R(t) jeweils für einen Tag konstant ist, aber von Tag zu Tag zufällig zwischen 0 und 1 schwankt. Dabei ist jeder Wert gleich wahrscheinlich
und hngt nicht vom Wert des Vortages ab. Dies führt zu einer sogenannten stochastischen Differentialleichung
(SDG) für N (t), deren Lösung abhängig vom zufälligen Verhalten von R(t) immer anders aussieht. Wir werden
nun versuchen durch Mittelung über verschiedene Realisierungen statistische Aussagen über die Populationsgrösse N (t) abzuleiten.
Aufgabe 1.1 Simulieren Sie das Verhalten der Population N (t) aus Gleichung (1) für 300 Tage, wenn am
Beginn N (t = 0) = 100 Exemplare vorhanden sind. R(t) sei dabei für den i-ten Tag eine konstante zufällige Zahl
ri ∈ (0, 1), wobei jeder Wert gleich wahrscheinlich sei. Generieren Sie zunächst einige Beispieltrajektorien (siehe
Hinweis). Welche Vorhersagen ergeben sich für die Population am Ende N (t = 300) (Mittelwert, Streuung) ?
Hinweis: Wählen Sie als Zeiteinheit Tage. Wenn dann N (ti ) die Population am Anfang des i-ten Tages ist
und R(ti ) = ri ∈ [01] für diesen Tag ist, gilt N (ti + 1) = N (ti )eri −1/2 für die Population am Beginn des
nächsten Tages (Warum ??). Generieren sie nun durch Iteration dieser Gleichung mehere Folgen von Zahlen
{Ni = N (ti )} für zufällig gewählte Zahlen ri (verwenden Sie die Matlab Funktion rand, sammeln Sie die
Ergebnisse und stellen Sie sie grafisch dar. Es erweist sich als hilfreich die Population auf einer logarithmischen
Skala darszustellen.
1
1.1
Mathematische Beschreibung stochastischer Prozesse
In diesem Kapitel werden die grundlegenden mathematischen Ideen zur Lösung stochastischer Differentialgleichungen eingeführt. Es wird versucht qualitativen Begriffen, wie z.B. zufällige Fluktuationen, weißes Rauschen,
etc., einen mathematisch genauer definierten Sinn zu geben. Lassen Sie sich von den technisch komplizert klingenden Definitionen nicht abschrecken. Nicht alle Details sind dann beim praktischen Lösen der Aufgaben
nötig. Vieles wird später bei der eigenhändigen Implementation der physikalischen Gleichungen in Kapitel
2 klarer. Mathematisch Interessierte finden eine umfassendere Einführung in das Gebiet der stochastischen
Differentialgleichungen z.B. in folgenden Büchern [1, 2, 8, 9, 5].
Betrachten wir ein Ensemble von identischen Sytemen von Teilchen {Si }i∈I und führen wir zu einer fixen Zeit
t z.B. eine Orts- oder Geschwindigkeitsmessung eines Partikels durch, so stellen wir fest, daß jedes der Systeme
Si einen verschiedenen Wert für x oder v liefert. Es ist daher sinnvoll, nur Wahrscheinlichkeitsverteilungen für
Observablen zu betrachten. Die Observablen werden durch Zufallsvariable X (mit Werten in Rd ) beschrieben,
ihre Wahrscheinlichkeitsverteilung durch ein Wahrscheinlichkeitsmaß auf dem Spektrum der möglichen Werte
der Observablen:
Z
P [X ∈ B] ≡ PX (B) =
p(x) dx ,
für B ⊂ SpecX .
(3)
B
PX (B) ist die Wahrscheinlichkeit, für X einen Wert x aus der Teilmenge B zu beobachten. Man nennt p(x)
die Dichtefunktion der Verteilung PX von X. Der Erwartungswert einer (integrablen) Zufallsvariablen X ist
definiert durch
Z
x p(x) dx .
(4)
hXi :=
SpecX
D
E
Var(X) := (X − hXi)2 = hX 2 i − hXi2
Für d = 1 heißt
die Varianz der (quadratintegrablen) Zufallsvariablen X und
Cov(X, Y ) := (X − hXi)(Y − hY i) = hXY i − hXi hY i
(5)
(6)
die Covarianz der zwei (quadratintegrablen) Zufallsvariablen X und Y .
Ein stochastischer Prozeß ist eine durch t parametrisierte Familie von (Rd -wertigen) Zufallsvariablen
X ≡ {Xt }t∈T ; für jedes t ∈ T ist Xt eine Zufallsvariable mit Dichtefunktion p(t, x), die von t abhängt. Der
Parameterraum T ist gewöhnlich ein Intervall, N0 oder die Halbgerade R+ . In der Regel sind die Zufallsvariablen Xti (i = 1, 2, . . . , n) zu verschiedenen Zeitpunkten nicht voneinander unabhängig.2 Ihre Abhängigkeit
ist gerade ein Ausdruck der Dynamik des Zufallsprozesses Xt und macht sich unter anderem in der Form der
Dichte pn (t1 , x1 ; t2 , x2 ; . . . ; tn , xn ) der gemeinsamen Verteilung von (Xt1 , . . . , Xtn ) bemerkbar.
1.2
Wiener Prozeß
Wir beschränken uns hier auf den speziellen Fall von stetigen Prozessen, d.h. die Realisierungen (≡ Wege,
Trajektorien) x(t) von Xt sind mit Wahrscheinlichkeit 1 in t stetig. Zu diesen gehören z.B. alle Diffusionsprozesse. Das wichtigste Beispiel dieser Gruppe von Prozessen ist der sogenannte (d-dimensionale) WienerProzeß W ≡ {Wt }t∈R+ . Er bildet die zentrale Komponente bei der Behandlung von Diffusionsprozessen. Wenn
ti ∈ R, 0 < t1 < t2 < · · · < tn , n verschiedene Zeitpunkte fixieren und E1 , . . . , En Teilmengen des Rd sind,
so ist die Wahrscheinlichkeit, daß Wt1 ∈ E1 , . . . , Wtn ∈ En und zur Zeit t = 0 der Wert x ∈ Rd realisiert ist,
durch folgendes Faltungsintegral gegeben:
Ptx1 ,...,tn (E1 × · · · ×En ) =
Z
=
p(tn − tn−1 , xn − xn−1 ) · · · p(t2 − t1 , x2 − x1 ) p(t1 , x1 − x) dx1 · · · dxn ,
E1 ×···×En
2
O
Bemerkung: Die Zufallsvariablen X1 , . . . , Xn heißen (stochastisch) unabhängig, falls gilt:
n
P(X1 ,...,Xn ) =
i=1
2
PXi .
(7)
wobei p(t, y) die Gauß’sche Glockenkurve ist,
p(t, y) = (2πt)
−d/2
|y|2
,
exp −
2t
für y ∈ Rd , t > 0 ,
(8)
und die Konvention getroffen wurde, daß p(0, y) = δ(y) ist (d.h. Start des Prozesses bei x : W0 ≡ x). Für die
Wahrscheinlichkeit, nach einer Zeit t einen Wert aus E ⊂ Rd zu erhalten, ergibt sich:
Z
2
(2πt)−d/2 e−|y−x| /2t dy .
(9)
Ptx (E) =
E
Die Varianz von Wt steigt also linear in t, der Erwartungswert bleibt jedoch für alle Zeiten konstant gleich x.
Um mit dem Wiener-Prozeß besser vertraut zu werden, seien einige grundlegende Eigenschaften erwähnt (siehe
[1, Kap. II, S. 11] und [2, Kap. 3]):
(i) Wt ist ein Gauß’scher Prozess, d.h. ∀ 0 < t1 < . . . < tn ist die Zufallsvariable Z ≡ (Wt1 , . . . , Wtn ) ∈ Rnd
normalverteilt mit Dichte:


nd
−nd/2
X
(2π)
1
q(u1 , . . . , und ) = √
(ui − mi ) [C −1 ]ij (uj − mj ) ,
(10)
exp −
2
det C
i,j=1
wobei m = (mi ) ∈ Rnd und C = (cij ) eine positiv-definite nd×nd -Matrix ist.
Für Wt ist konkret
m = (x, . . . , x)
| {z }
n−mal
und



C = 

t1 Id
t1 Id
..
.
t1 Id
t2 Id
..
.
···
···
..
.
t1 Id
t2 Id
..
.
t1 Id
t2 Id
···
tn Id





(Covarianzmatrix ) ,
wobei Id die d×d -Einheitsmatrix bezeichnet. Damit folgt:
i
hZi = m
und
(Z − mi )(Z j − mj ) = cij ,
insbesondere also:
hWt iW0 ≡x = x , ∀ t ≥ 0 ,
d.h. hWt − Ws iW0 ≡x = 0 , ∀ t, s ∈ R+ ,
i
(Wt − xi ) · (Wsj − xj ) W0 ≡x = δ ij · min(t, s) , i, j = 1, . . . , d,
(12)
(Wt − x)2 W0 ≡x = d · t ,
(13)
(Wt − Ws )2 W0 ≡x = d · |t − s| .
(14)
(11)
(ii) Wt hat unabhängige Inkremente, d.h. die Zufallsvariablen Wt1 , Wt2 − Wt1 , . . . , Wtk − Wtk−1 sind
stochastisch unabhängig für 0 ≤ t1 < . . . < tk . (Diese Eigenschaft ist wesentlich für die numerische
Integration von SDGn.) Die Inkremente sind stationär, d.h. die Verteilung von Wt − Ws (für t > s)
hängt nur von t − s ab.
(iii) Die Realisierungen von t 7→ Wt sind fast sicher (d.h. mit Wahrscheinlichkeit 1) stetig aber fast sicher
nirgends differenzierbar. Sie sind nicht von lokal-beschränkter Variation, d.h. die Länge der
Wege für jedes kompakte t-Intervall ist nicht endlich.
(iv) Falls Wt = (Wt1 , . . . , Wtd ) ein d-dimensionaler Wiener-Prozeß ist, dann sind die 1-dimensionalen Prozesse
{Wtj }t∈R+ (1 ≤ j ≤ d) unabhängige 1-dimensionale Wiener-Prozesse.
3
Aufgabe 1.2
Simulieren Sie den eindimensionalen Wiener-Prozeß Wt (Start bei x = 0) im Intervall [0, T ] für eine endliche
Schrittweite τ := T /N an den Stellen tj := jτ (j = 1, . . . , N ) und stellen Sie die Realisierungen graphisch dar.
Kontrollieren Sie (graphisch) an einzelnen Zeitpunkten tn , ob die so bestimmten Realisierungen Gauß-verteilt
sind mit Erwartungswert 0 und Varianz tn .
Rt
R t+δ
(0 ≤ t0 ≤ t ≤ T ); wobei ∆Wδ = t dWt geeignet gewählte
(Hinweis: Es gilt:Wt = Wt0 + t0 dWs
Zufallszahlen (gauß-verteilt mit Mittelwert 0) sind. Siehe auch die “help-files” der Matlab-Funktionen rand,
hist, bar, mean, std, cov, corrcoef und cumsum.)
1.3
Stochastische Integration: Lösen von DGL mit Rauschterm
Dieses und das folgende Kapitel wendet sich an mathematisch Interessierte zur genaueren Erklärung der in
den darauffolgenden Kapiteln verwendeten mathematischen Terminologie. Es behandelt das Problem, eine
wohldefinierte mathematische Interpretation des “Rausch”-termes in Gl. (1) bzw. allgemeiner in Gleichungen
der Form
dXt
= b(t, Xt ) + σ(t, Xt ) · “Rauschen”
(15)
dt
zu finden. (b und σ seien Funktionen auf [0, T ]×Rn mit Werten in Rn bzw. in den reelen n×d-Matrizen). Man
möchte den Rausch-Term durch einen (Rd -wertigen) stochastischen Prozeß {ξt }t∈R+ modellieren, sodaß aus
Gl.(15) eine Differentialgleichung für einen (Rn -wertigen) stochastischen Prozeß {Xt }t∈R+ wird:
dXt
= b(t, Xt ) + σ(t, Xt ) · ξt .
dt
(16)
Da die Korrelationszeiten des “Rausch”-Prozesses — er beschreibt den Einfluß eines Badsystems B mit einer
inneren Relaxationszeit τB auf ein System S, z.B. ein Teilchen in einer Flüssigkeit — auf der Zeitskala der
Xt -Entwicklung oft sehr klein sind, suchen wir für ξt einen Prozeß mit folgenden Eigenschaften [1, Kap. III,
S. 13]:
(i) Falls t1 6= t2 , sind ξt1 und ξt2 stochastisch unabhängig;
(ii) {ξt }t∈R+ ist stationär, d.h. die gemeinsame Verteilung von (ξt1 +τ , . . . , ξtk +τ ) hängt nicht von τ ab;
(iii) hξt i = 0, für alle t. (Man kann sonst den Erwartungswert in b(t, Xt ) absorbieren).
Es stellt sich bei genauerer Untersuchung heraus, daß kein stetiger stochastischer Prozeß existiert, der (i) und
(ii) erfüllt. (Nichtsdestoweniger existiert ξt als verallgemeinerter stochastischer Prozeß, “white noise process”
genannt, analog der Erweiterung des Begriffs der Funktion durch den der Distribution; siehe dazu [2, Kap. 3.2]
oder [6].)
Wir wollen diese Schwierigkeit aber vermeiden, indem wir Gleichung (16) in eine Form bringen, die das Ersetzen
von ξt durch einen geeigneten stochastischen Prozeß zuläßt: für eine Zerlegung 0 = t0 < t1 < . . . < tk = t des
Intervalls [0, t] betrachten wir folgende diskrete Version der SDG (16):
Xj+1 − Xj = b(tj , Xj ) ∆tj + σ(tj , Xj ) ξj ∆tj ,
(17)
mit ∆tj := tj+1 − tj , ξj := ξtj , Xj := Xtj , für j = 0, . . . , k − 1. Wir ersetzen nun den Ausdruck ξj ∆tj durch
∆Vj := Vtj+1 − Vtj , wobei {Vt }t≥0 ein “passender” stochastischer Prozeß ist. Die Annahmen (i), (ii) und (iii)
für ξt legen nahe, von Vt stationäre unabhängige Inkremente ∆Vj mit Mittelwert 0 zu verlangen. Es zeigt sich,
daß der einzige solche Prozeß mit stetigen Realisierungen der Wiener-Prozeß ist [1, Kap. III, S. 17]. Damit
folgt aus (17):
k−1
k−1
X
X
b(tj , Xj ) ∆tj +
σ(tj , Xj ) ∆Wj .
(18)
Xk = X0 +
j=0
j=0
Falls es nun gelingt zu zeigen, daß der Limes auf der rechten Seite von Gl. (18) für ∆tj → 0 in irgendeiner
Weise existiert und einen stochastischen Prozeß definiert, erhält man (unter Verwendung der üblichen Notation
für die Integration)
Z t
Z t
Xt = X0 +
b(s, Xs ) ds +
σ(s, Xs ) · dWs ,
(19)
0
0
4
und man sagt, die mathematische Interpretation der SDG (16) ist die Integralgleichung (19).1
Bemerkung: Um die Problematik bei der Definition des stochastischen Integrals
von Riemann-Stieltjes-Summen
k
X
Sk :=
G(τj ) (Wtj − Wtj−1 )
Rt
t0
G(s) dWs als Grenzwert
(20)
j=1
mit t0 ≤ t1 ≤ . . . ≤ tk = t und tj−1 ≤ τj ≤ tj (j = 1, . . . , k) klar zu machen, betrachten wir folgenden
Erwartungswert eines 1-dimensionalen Wiener-Prozesses:
+
* k
k
X
X
min(τj , tj ) − min(τj , tj−1 ) = α·(t − t0 ) ,
Wτj (Wtj − Wtj−1 )
=
(21)
j=1
j=1
W0 ≡0
wobei wir τj := tj−1 + α·(tj − tj−1 ) mit 0 ≤ α ≤ 1 und δk := max{tj − tj−1 }j=1,...,k gesetzt haben (siehe Gln.
(11) und (12)). Im Gegensatz zum gewöhnlichen Riemann-Stieltjes-Integral hängt also der Grenzwert von Sk
Rt
für k → ∞ und δk → 0, und damit die Definition des Integrals t0 G(s) dWs im allgemeinen von der Wahl
der Stützstellen τj ab. Die Ursache dafür liegt in den “beliebig schnellen” Fluktuationen des Wiener-Prozesses
(siehe Kapitel 3.2 (iii) oben).
1.4
Ito und Stratonovic Integrale
Die folgenden zwei Definitionen von stochastischen Integralen (bzgl. eines d-dimensionalen Wiener-Prozesses
Wt ) erweisen sich als besonders nützlich: für k ∈ N sei 0 ≤ t0 ≤ t1 ≤ . . . ≤ tk = t ≤ T eine Zerlegung des
Intervalls [t0 , t] mit Feinheit δk := max{tj − tj−1 }j=1,...,k . Die n×d-matrixwertige (meßbare) Zufallsfunktion
RT
G(t) mit (fast sicher) t0 |G(s)|2 ds < ∞ (wobei | . | die euklidische Norm in Rnd bezeichnet) sei auf [t0 , T ] (fast
sicher) stetig und nicht-vorgreifend (“non-anticipating”), d.h. G(t) ist für alle s ≥ t stochastisch unabhängig
von Ws −Wt (G(t) ist sozusagen unabhängig vom Verhalten des Wiener-Prozesses in der Zukunft von Zeitpunkt
t). {Xt }t∈[t0 ,T ] sei n×d-matrixwertiger stochastischer Prozeß mit Differential (siehe Gl. (27) unten):
• Itô-Definition (siehe [1, Kap. III], [2, Kap. 4] und [8, Kap. 4.2]):
Z
t
G(s) · dWs := st-lim
δk →0
t0
k
X
G(tj−1 ) (Wtj − Wtj−1 ) ;
(22)
j=1
• Stratonovich-Definition (siehe [2, Kap. 10.2] und [5, Kap. III, § 1]):
Z
t
Xs ◦ dWs := st-lim
δk →0
t0
k
X
1
j=1
2
(Xtj + Xtj−1 )(Wtj − Wtj−1 ) .
(23)
Mit “st-lim” bezeichnen wir den stochastischen Grenzwert (“limit in probability”): für Zufallsvariable
{Xk }k∈N und X ist
st-lim Xk = X
k→∞
: ⇐⇒
∀ > 0 gilt: lim P [ |Xk − X| > ] = 0 .
k→∞
Im folgenden seien einige wichtige Eigenschaften des Itô-Integrals erwähnt [2, Kap. 4 und 5]:
Rt
Rt
Rt
(i) t0 [c G(s) + H(s)] · dWs = c t0 G(s) · dWs + t0 H(s) · dWs
(c ∈ R) .
Rt
Rs
Rt
(ii) t0 G(u) · dWu = t0 G(u) · dWu + s G(u) · dWu
(t0 ≤ s ≤ t ≤ T ) .
RT (iii) Falls t0 |G(s)|2 ds < ∞, gilt:
Z t
G(s) · dWs = 0 .
(24)
t0
(Das Itô-Rauschen beeinflußt nicht den Erwartungswert.)
1 (Bemerkung: Gl. (19) wird oft in verkürzter symbolischer Notation als “Differentialform” dX = b(t, X ) dt + σ(t, X ) · dW
t
t
t
t
geschrieben. Gleichungen mit Differentialen sind daher als Integralgleichungen zu interpretieren!)
5
(iv) Falls
RT RT 2
ds < ∞ und t0 |H(s)|2 ds < ∞, gilt (i, j = 1, . . . , n):
t0 |G(s)|
*Z
t
G(u)·dWu
i Z
t0
s
H(u)·dWu
j +
=
t0
insbesondere:
*
min(t,s)
Z
d
X
i
[G(u)] k [H(u)]
j
+
k
du ,
t0
*Z
2 + Z t
t
G(s) · dWu =
|G(u)|2 du .
t0
(25)
k=1
(26)
t0
(v) Sei Xt0 eine für alle t ≥ t0 von Wt − Wt0 stochastisch unabhängige (Rn -wertige) Zufallsvariable, f (t)
RT
eine (Rn -wertige, meßbare) nicht-vorgreifende Zufallsfunktion, die (fast sicher) t0 |f (s)| ds < ∞ erf llt,
und G(t) wie in der Definition oben. Dann ist für t ∈ [t0 , T ]
Z t
Z t
f (s) ds +
G(s) · dWs
(27)
Xt := Xt0 +
t0
t0
n
ein stetiger, nicht-vorgreifender (R -wertiger) stochastischer Prozeß. Man schreibt für (27) kurz
dXt = f (t) dt + G(t) · dWt
(28)
und nennt (28) das stochastische Differential von Xt [2, Kap. 5.3].
(vi) Falls G(t) ∈ L2 ([t0 , T ]) keine Zufallsvariable sondern eine gewöhnliche quadratintegrable Funktion ist,
Rt
dann ist t0 G(s) · dWs (für t ∈ [t0 , T ]) ein n-dimensionaler Gauß’scher Prozeß mit Erwartungwert 0 und
Covarianzmatrix [2, Corollary (4.5.6)]
cij =
d Z
X
k=1
t
[G(s)]i k [G(s)]j k ds
(i, j = 1, . . . , n) .
(29)
t0
für den 1-dimensionalen Wiener-Prozeß zum Beispiel ergibt das Itô-Integral:
Z t
1
1
Ws · dWs =
(Wt )2 − (Wt0 )2 − (t − t0 ) .
2
2
t0
(30)
Wie der Zusatzterm − 21 (t − t0 ) zeigt, l ßt sich das Itô-Integral nicht durch formales Anwenden der Integrationsregeln gewöhnlicher Integrale auswerten. Eine nützliche Hilfe für die Berechnung von Itô-Integralen ist
die sogenannte Itô-Formel, die Version der Kettenregel für das Itô-Integral (siehe [1, Kap. 4] und [2, Kap. 5.3]):
Satz Sei g(t, x) eine 2-mal stetig differenzierbare Funktion von [t0 , T ] × Rn nach R, {Xt }t∈[t0 ,T ] ein n × dmatrixwertiger stochastischer Prozeß mit Differential (28). Dann ist Yt := g(t, Xt ) für t ∈ [t0 , T ] ein stochastischer Prozeß mit Differential
dYt = gt dt +
n
X
gxi · dXti +
i=1
n
1 X
g i j dXti · dXtj ,
2 i,j=1 x x
(31)
2
∂g
∂ g
wobei gt := ∂g
∂t , gxi := ∂xi , gxi xj := ∂xi ∂xj die partiellen Ableitungen von g bedeuten und für die Berechnung
j
i
der “Produkte” dXt · dXt folgende Regeln zu beachten sind:
dWti · dWtj = δ ij dt
(i, j = 1, . . . , d) ,
dWt · dt = 0 = dt · dWt ,
(32)
dt · dt = 0 .
Speziell für g ∈ C 2 (R+ ×R) und Xt = Wt einen 1-dimensionalen Wiener-Prozeß erhalten wir
1
dg(t, Wt ) = gt (t, Wt ) + gxx (t, Wt ) dt + gx (t, Wt ) · dWt ,
2
6
(33)
insbesondere also für g(x) = xk (k ∈ N):
d (Wt )k =
k(k−1)
2
(Wt )k−2 dt + k (Wt )k−1 · dWt .
(34)
Daraus folgt mit k = 2 sofort Gl. (30).
Die Itô-Interpretation des stochastischen Integrals in Gl. (19) ermöglicht durch seine Eigenschaften zwar
eine einfache numerische Behandlung, für physikalische Anwendungen liefert aber meist das StratonovichIntegral das “richtige” mathematische Modell für die SDG (16), wie die folgende Überlegung zeigt (siehe
[1, Kap. III, S. 30] und [2, Kap. 10.3]): Der “white noise”-Limes des “Rausch”-Prozesses in Gl. (16) ist als
(k)
(k)
Idealisierung eines korrelierten Rauschens ξt im Limes τB → 0 zu sehen. Konkret betrachte man eine Folge
(k)
(k)
dW
(k)
von in t stetig differenzierbaren Prozessen Wt (d.h. ξt ≡ dtt sei eine Folge von stetigen Prozessen) mit
(k)
Wt → Wt , für k → ∞ (und fast alle Realisierungen), gleichmäßig (in t) auf beschränkten Intervallen. Unter
(k)
bestimmten Voraussetzungen für die Funktionen b und σ konvergiert die Lösung Xt der (für jede Realisierung
deterministischen) Differentialgleichung
(k)
dXt
dt
(k)
(k)
(k)
= b(t, Xt ) + σ(t, Xt ) ξt
(35)
(bzw. der dazu äquivalenten Integralgleichung
(k)
Xt
= X0 +
Z
t
b(s, Xs(k) ) ds +
Z
0
t
σ(s, Xs(k) ) dWs(k) ,
(36)
0
wobei nunmehr das zweite Integral ein gewöhnliches Riemann-Stieltjes-Integral ist), für k → ∞ (und fast alle
Realisierungen) auf beschränkten Intervallen gleichmäßig gegen einen stochastischen Prozeß Xt , der die SDG
(19) bei Verwendung des Stratonovich-Integrals erfüllt:
Xt = X0 +
Z
t
b(s, Xs ) ds +
Z
0
t
σ(s, Xs ) ◦ dWs .
(37)
0
Sind also die Badkorrelationenzeiten “klein” genug, liefert die Stratonovich-Interpretation ein gutes Modell für
das durch Gl. (16) beschriebene physikalische Problem. In der Physik rechnet man aber meist mit “weißem
Rauschen”, indem man dWt formal durch ξt dt ersetzt und folgende Beziehungen für Erwartungswert und
Korrelation verwendet [9, Kap. 3]:
(38)
hξt i = 0 , hξt ξs i = δ(t − s) .
Da die Itô-Form für das numerische Lösen von SDGn nach Cauchy-Euler wesentlich ist, ist man daran interessiert, eine Verbindung zwischen beiden Interpretationsm glichkeiten herzustellen. Mit folgender Relation
kann man beide Typen von Integralen ineinander umrechnen [5, Kap. III, § 1]:
Xt ◦ dWt = Xt · dWt +
1
dXt · dWt .
2
(39)
Dabei sind auch hier bei der “Multiplikation” der Differentiale die Regeln (32) zu beachten. Zum Beispiel gilt:
Wt ◦ dWt = Wt · dWt +
1
dt
2
(40)
(Man
sieht also,
DR
E daß “Stratonovich-Rauschen” im allgemeinen den Erwartungswert des Prozesses beeinflußt:
t
Ws ◦ dWs = 2t 6= 0). für die der Stratonovich-SDG (37) quivalente Itô-SDG erhält man auf diese Weise
0
(i = 1, . . . , n):
dXti
d
n
d
X
1 XX
i
i
k
= [b(t, Xt )] +
[σxk (t, Xt )] j [σ(t, Xt )] j dt +
[σ(t, Xt ) · dWt ]i .
2
j=1
j=1
(41)
k=1
Bemerkung: Weitere Bedingungen an die Funktionen b und σ für Existenz und Eindeutigkeit von stetigen
nicht-vorgreifenden Lösungen der Itô-SDG (19) sind in [1, Theorem 5.5], [2, Kap. 6] und [8, Kap. 4.3] zu
finden.
7
1.5
Numerische Lösung von SDGen nach Cauchy-Euler
1.5.1
Analytisches Vergleichsmodell
Als Beispiel sei hier die lineare oder Gauß’sche Diffusion beschrieben. Spezialfälle dieses Prozesses beschreiben
die Bewegung einer Partikel in einem viskosen Medium. Sei σ = (σ i k ) eine konstante n×d-Matrix und β = (β i k )
eine konstante n×n-Matrix. Dann wird die Gauß’sche Diffusion durch folgende SDG beschrieben:
dYt
= β Yt + σ · ξt .
dt
(42)
Im “white noise”-Limes entspricht das folgender Itô-Gleichung
dYt = β Yt dt + σ dWt .
(43)
(Bemerkung: Da σ eine konstante Matrix ist, stimmen Itô- und Stratonovich-Interpretation von Gl. (42) berein.
Daraus folgt z.B., daß der Rauschterm nicht den Mittelwert der Bewegung beeinflußt.)
Wir betrachten hier den Fall n = d = 1:
dVt = − γ Vt dt + σ dWt
(γ > 0, σ ∈ R) .
(44)
Die eindeutige analytische Lösung von (44) zu einem (für alle t ≥ 0 von Wt − W0 unabhängigen) Anfangswert
V0 ist der stetige stochastische Prozeß [2, Kap. 8.3]:
Z t
Vt = e−γt V0 + σ
e−γ(t−s) dWs
(t ∈ R+ ) .
(45)
0
2
Falls V0
< ∞ ist, folgt mit Gln. (24) und (25) für den Erwartungswert
und die Covarianz
hVt i = hV0 i e−γt
(46)
σ2
σ 2 −γ|t−s|
Cov(Vt , Vs ) = Var(V0 ) −
e−γ(t+s) +
e
.
2γ
2γ
(47)
2
Die Varianz von Vt konvergiert also für t → ∞ gegen den konstanten Wert σ2γ :
σ2
σ2
σ2
e−2γt +
→
.
Var(Vt ) = Var(V0 ) −
2γ
2γ
2γ
(48)
−γt
Da für einen beliebigen Anfangswert V0 gilt: st-lim
= 0 , konvergiert für t → ∞ die Verteilung von
t→∞ V0 e
2
Vt gegen eine Normalverteilung mit Mittelwert 0 und Varianz σ2γ (siehe Gl. (29)). Für einen normalverteilten
oder konstanten Anfangswert V0 ist Vt ein Gauß’scher Prozeß, der sogenannte Ornstein-Uhlenbeck-Prozeß.
2
Insbesondere ist Vt für hV0 i = 0 und V02 = σ2γ ein stationärer Gauß’scher Prozeß mit
hVt Vs i =
σ 2 −γ|t−s|
e
.
2γ
(49)
Durch Integration des Ornstein-Uhlenbeck-Prozesses Vt erhält man den Prozeß (der Anfangswert X0 sei von
V0 und, für alle t ≥ 0, von Wt − W0 stochastisch unabhängig)
Z
Z t
1 − e−γt
σ t
Xt := X0 +
V0 +
1 − e−γ(t−s) dWs ,
Vs ds = X0 +
(50)
γ
γ 0
0
der zusammen mit Vt die Lösung des SDG-Systems
dXt
= Vt dt
dVt
= − γ Vt dt + σ dWt
(51)
darstellt und für X0 konstant oder normalverteilt ebenso wie Vt ein Gauß’scher Prozeß ist. Falls X02 < ∞
ist, folgt analog zu Gln. (46) und (47) für den Erwartungswert
hXt i = hX0 i +
8
1 − e−γt
hV0 i
γ
(52)
und die Covarianzen
Cov(Xt , Xs )
+
Cov(Xt , Vs )
(1 − e−γt )(1 − e−γs )
σ2
Var(V
)
+
min(t, s)
0
γ2
γ2
n
o
2e−γt + 2e−γs − e−γ(t+s) − e−γ|t−s| − 2 ,
= Var(X0 ) +
=
σ2
2γ 3
e−γs (1 − e−γt )
Var(V0 )
γ
o
σ2 n
+ 2 2e−γs (eγ min(t,s) − 1) + e−γ(t+s) − e−γ|t−s| .
2γ
(53)
(54)
Insbesondere gilt:
Var(Xt ) = Var(X0 ) +
Cov(Xt , Vt ) =
1.5.2
(1 − e−γt )2
σ2 Var(V
)
+
2γt + 1 − (2 − e−γt )2 ,
0
γ2
2γ 3
2
e−γt (1 − e−γt )
σ2
Var(V0 ) +
1 − e−γt .
2
γ
2γ
(55)
(56)
Implementation in der Praxis
Wir wollen uns nun der numerischen Lösung der SDG (43) zuwenden. Da wir nur an Ausdrücken der Form
hf (Yt )i interessiert sind, wählen wir dafür das Cauchy-Euler-Verfahren (siehe [8, Kap. 4.3], [9, Kap. 3.6]
und [7, Abschn. 8.2]). Die zentrale Idee dabei ist, den Rauschterm (Wiener-Prozeß) durch Zufallszahlen am
Computer zu simulieren, und die SDG mit diesem numerisch simulierten Term zu integrieren. Dies erlaubt
die gewünschten Mittelwerte für eine große Zahl so erzeugter Realisierungen (≡ Ensemblezahl) zu bilden.
Die Computersimulation von Wt und die numerische Integration können dabei simultan ausgeführt werden.
Um die Methode an einem Beispiel zu demonstrieren, betrachten wir die Itô-SDG (43). Als erstes unterteilen
wir das Zeitintervall [0, T ] in N kleine endliche Teilintervalle der Länge τ := T /N , während derer sich die
Systemvariablen nur unwesentlich ändern: tj := jτ, j = 0, . . . , N . Andererseits muß τ wesentlich größer sein
als die internen Badkorrelationszeiten τB , um den “white noise”-Limes aufrecht zu erhalten.
Die SDG (43) schreiben wir nun in eine Differenzengleichung um (j = 0, . . . , N − 1):
Ytj+1 = Ytj + β Ytj · τ + σ ∆Wtj ,
mit ∆Wtj := Wtj+1 − Wtj .
(57)
Man erhält also den Wert der stochastischen Variable Ytj+1 zu einem späteren Zeitpunkt tj+1 aus dem bekannten Wert Ytj zur Zeit tj durch Addition eines “deterministischen” Terms β Ytj · τ und eines stochastischen
Terms σ ∆Wtj , wobei das Wiener-Inkrement ∆Wtj für alle j ≥ i von Yti unabhängig ist. Nach Voraussetzung
ist die Funktionen b (insbesondere auch β Yt ) und σ nicht-vorgreifend und Y0 für alle t ≥ 0 von Wt − W0
unabhängig. (Bemerkung: Die Itô-Form von Gl. (42) ist für die Unabhängikeit unbedingt notwendig!) Jedes
der Wiener-Inkremente ∆W0 , ∆Wτ , . . . , ∆WT ist nach Gln. (11) und (14) Gauß-verteilt mit Mittelwert 0
und Varianz τ und unabhängig von den übrigen Inkrementen. Man kann daher bei der Konstruktion einer
NäherungsLösung der SDG (43) mit Hilfe von Gl. (57) schrittweise in der Zeit nach vor schreiten, ohne die
Vergangenheit bzw. die Zukunft des Prozesses in Betracht ziehen zu müssen (Markov -Eigenschaft), und erhält
so eine Folge von Zufallsvariablen {Yjτ }j=0,...,N , deren Realisierungen durch Simulation der normalverteilten
Wiener-Inkremente (randn) am Computer mit einem Zufallsgenerator erzeugt werden können. (Der Fehler
bei diesem Verfahren ist für einen Schritt von der Ordnung τ 2 und nach N Schritten von der Ordnung τ .) Die
Erwartungswerte hf (Yt )i zu den einzelnen Zeitpunkten t = jτ berechnet man dann dadurch, daß man eine
große Zahl verschiedener Realisierungen von (Y0 , Yτ , . . . , YT ) abspeichert und statistisch auswertet.
Zusammenfassend erhalten wir folgenden Algorithmus:
(i) Anfangswert entsprechend der Verteilung von Y0 wählen;
(ii) ∆W0 wird aus einer Gauß’schen Verteilung mit Mittelwert 0 und Varianz τ ein Wert zugeordnet;
(iii) Mit Punkt (i) und (ii) erhält man die Werte für Yτ ;
(iv) Induktives Vorgehen jτ 7→ (j + 1)τ mit Hilfe von Gl. (57);
9
(v) Dadurch bekommt man eine Realisierung des Prozesses (Y0 , Yτ , . . . , YT ). Speichert man “viele” solcher
Realisierungen, kann man leicht alle gewünschten Eigenschaften des Prozesses errechnen.
(Bemerkung: Da für ein solches Vorgehen sehr viel Speicherplatz notwendig wäre und man ohnehin nur an
Mittelwerten und Varianzen interessiert ist, ist es angebracht Schritt (v) nach Schritt (iii) einzuschieben
und die stochastische Auswertung für jeden Zeitpunkt durchzuführen.)
1.6
Brown’sche Bewegung
Aufgabe 1.3
Ort Xt und Geschwindigkeit Vt eines Brown’schen Teilchens genügen dem folgenden System von SDGn
dXt
= Vt dt
dVt
= − γ Vt dt +
p
2γ hV 2 istat dWt
(58)
wobei γ die Dämpfung, V 2 stat der stationäre (d.h. der sich im Limes t → ∞ einstellende) Erwartungswert
des Quatrates der Geschwindigkeit und dWt ein Wiener-Inkrement bedeuten. Integrieren Sie die SDG (58)
numerisch (zu den Anfangsbedingungen X0 = 0 und V0 normalverteilt oder konstant) und zeichnen Sie nach
einer jeweils festen Zahl von Zeitschritten die Phasenraumdichte und die Verteilungen (Histogramme) von
Xt und Vt . Stellen Sie die zeitliche Entwicklung von Varianz und Covarianz von Xt und Vt zusammen mit
den analytischen Resultaten sowie einzelne Realisierungen dieser Prozesse graphisch dar. Diskutieren Sie die
Abhängigkeit der numerischen Ergebnisse von der Ensemblezahl
und
der Größe des Zeitschrittes.
(Hinweis: Durch Umskalieren von Xt , Vt und t kann γ = 1 und V 2 stat = 1 erreicht werden.)
2
Klassische Dynamik eines Einmodenlasers
Die elektrische Feldamplitude eines Einmodenlasers läßt sich in guter Näherung durch eine beinahe monochromatisches ebene Welle mit kleinen zufälligen Schwankungen der Feldstärke und Phase beschreiben. Für einen
fixen Ort x = 0 wählt man daher einen Ansatz der Form:
El (x = 0, t) := E(t)eiφ(t) e−iωt + c.c. = (x(t) + iy(t))e−iωt + c.c..
(59)
Dabei ist ω die mittlere Laserfrequenz, sowie E(t) bzw. φ(t) die momentane reelle Amplitude bzw. Phase des
Laserfeldes. Weit oberhalb der Laserschwelle findet man, daß die Laseramplitude (oder Intensität) nur sehr
gering schwankt, während die Laserphase ein zufälliges Verhalten ähnlich einer Brown’schen Bewegung zeigt.
Diese Verhalten nennt man Phasendiffusion und es führt zu einer Linienbreite (Frequenzungenauigkeit) des
Lasers. Unterhalb der Laserschwelle findet man starke Schwankungen von Laseramplitude und Phase und das
elektrische ist sehr ähnlich dem thermischen Strahlungsfeld, wie es z.B. eine Glühlampe abstrahlt.
Dieser Übergang von einem thermischen Strahlungsfeld zu einem kohärenten Laserfeld läßt sich sehr gut anhand
der sogenannten Rotating Wave van der Pol Gleichung beschreiben ( siehe: H. Risken : The Fokker-Planck
equation, Springer 1984 , Seite 37 oder C.W. Gardiner, Handbook of stochastic Methods ). Für den Real- x(t) und
Imaginärteil y(t) der elektrischen Feldamplitude erhält man dabei folgende stochastische Differentialgleichung:
√
dx(t) = −x(t)(I(t) − c)dt + 2dW1 (t)
(60)
√
dy(t) = −y(t)(I(t) − c)dt + 2dW2 (t),
(61)
mit
2
(62)
2
I(t) = (x (t) + y (t)).
W1 und W2 sind dabei zwei unabhängige Wienerprozesse. Den Parameter c nennt man normierten Pumpparameter. Er ist proportional zur Leistung die dem Laser zugeführt wird. c = 0 entspricht dabei genau der
Schwellbedingung für den Laser.
2.1
Aufgabenstellung
Aufgabe 2.1
10
Simulieren Sie mittels der obigen Lasergleichungen den Anschwingvorgang des Lasers (Start bei x = y = 0).
Vergleichen Sie das Verhalten von Intensität und Phase unterhalb und oberhalb Schwelle (verwende z.B.
polarplot).
Wann stellt sich ein stationärer Zustand ein ?
Aufgabe 2.2
Betrachten Sie nun im stationären Fall den Laser genügend weit über der Schwelle. Wie groß sind die relative
Intensitätsschwankungen ∆2 I/ < I >2 .
Wie hängt die Stärke der Phasendiffusion von c ab ?
Hinweis: Setzen Sie fuer einen bestimmten Zeitpunkt t = t0 die Phase auf einen vorgegebenen Wert φ(t0 ) = φ0
und berechnen Sie ∆2 φ(t) =< (φ(t) − φ0 )2 >.
Literatur
[1] B. Øksental, Stochastic Differential Equations: An Introduction with Applications, Springer, Berlin 1985.
[2] L. Arnold, Stochastic Differential Equations: Theory and Applications, Wiley-Interscience, New York 1974.
[3] C. W. Gardiner, Handbook of Stochastic Methods, Springer Series Synergetics, Vol. 13, Berlin 1983.
[4] H. Risken, The Fokker-Planck-Equation: Methods of Solution and Applications, Springer Series Synergetics, Vol. 18, Berlin 1984.
[5] N. Ikeda, S. Watanabe, Stochastic Differential Equations and Diffusion Processes, North-Holland Mathematical Library, Vol. 24, 1981.
[6] T. Hida, Brownian Motion, Springer, 1980.
[7] J. Honerkamp, Stochastische Dynamische Systeme, VCH Verlagsgesellschaft 1990.
[8] C. W. Gardiner, Handbook of Stochastic Methods, Springer Series Synergetics, Vol. 13, Berlin 1983.
[9] H. Risken, The Fokker-Planck-Equation: Methods of Solution and Applications, Springer Series Synergetics, Vol. 18, Berlin 1984.
11
Herunterladen