Skript zur Vorlesung: ” Numerische Dynamik“

Werbung
Skript zur Vorlesung:
Numerische Dynamik“
”
Prof. Dr. P.E. Kloeden
Institut für Mathematik
Goethe Universität
Zimmer 101, Robert-Mayer-Straße 10
Telefon: (069) 798 28622 — Sekretariat (069) 798 22422
email: [email protected]
21. Oktober 2011
Inhaltsverzeichnis
1 Gewöhnliche Differentialgleichungen
1.1 Lösungen von Differentialgleichungen . . . . . . . . .
1.1.1 Konstante Lösungen . . . . . . . . . . . . . .
1.1.2 Zeitperiodische Lösungen . . . . . . . . . . .
1.2 Allgemeine explizite Lösungen . . . . . . . . . . . . .
1.2.1 Lineare Differentialgleichungen: skalarer Fall
1.2.2 Skalare DGLen mit getrennten Variablen . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
6
7
7
8
8
9
2 1-Parameter-Familien von Lösungen
11
2.1 Anfangswertaufgabe . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Richtungsfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3 Integralgleichungsdarstellung einer AWA
19
3.1 Lipschitz-Bedingungen . . . . . . . . . . . . . . . . . . . . . . . . 22
4 Stetige Abhängigkeit der Lösungen
25
4.1 Lipschitz-Bedingungen nochmal . . . . . . . . . . . . . . . . . . . 27
5 Das Euler-Verfahren
32
6 Einschrittverfahren
38
6.1 Taylor-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
7 Einschrittverfahren durch
7.1 Rechteckregel . . . . . .
7.2 Trapezregel . . . . . . .
7.3 Runge-Kutta-Verfahren
Integralapproximation
42
. . . . . . . . . . . . . . . . . . . . . . . 42
. . . . . . . . . . . . . . . . . . . . . . . 43
. . . . . . . . . . . . . . . . . . . . . . . 44
8 Konvergenz und Konsistenz
47
8.1 Konsistenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
9 Numerische Instabilität
53
1
10 Ljapunov-Stabilität
59
10.1 Lineare Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
10.2 Linearisierte Stabilität . . . . . . . . . . . . . . . . . . . . . . . . 65
10.3 Allgemeine Systeme: Ljapunov-Funktionen . . . . . . . . . . . . . 69
11 Allgemeine Runge-Kutta-Verfahren
72
11.1 Numerische Ruhelagen . . . . . . . . . . . . . . . . . . . . . . . . 74
12 Der
12.1
12.2
12.3
lineare Fall
79
Das Euler-Verfahren im allgemeinen Fall . . . . . . . . . . . . . . 81
Runge-Kutta-Verfahren im linearen Fall . . . . . . . . . . . . . . 83
A-Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
13 Dynamische Systeme
86
13.1 Invariante Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . 88
13.2 Limesmengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
13.3 Attraktoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
14 Nichtlineare Systeme
14.1 Ljapunov-Funktionen . . . . . . . . . . . . . . . . .
14.1.1 Anwendung 1: Das linear Euler-Verfahren . . . .
14.1.2 Anwendung 2: Die nichtlineare DGL . . . . . . .
14.1.3 Anwendung 3: Das nichtlineare Euler-Verfahren
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
95
. 96
. 97
. 98
. 100
15 Dissipative Systeme
102
15.1 1. Fall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
16 Dissipative Systeme: zweiter Fall
108
16.1 Konvergenz der numerischen Attraktoren . . . . . . . . . . . . . 112
17 Mengenwertige Attraktoren
116
18 Diskretisierung eines Attraktors: allgemeiner Fall
121
19 Sattelpunkte
127
20 Sattelpunkte und das Euler-Verfahren
133
20.1 Ein nichtlineares Beispiel: . . . . . . . . . . . . . . . . . . . . . . 134
21 Geometrische Integratoren
139
21.1 Der harmonische Oszillator . . . . . . . . . . . . . . . . . . . . . 139
21.1.1 Hamiltonsche Systeme . . . . . . . . . . . . . . . . . . . . 140
21.1.2 Das “gemittelte“ Eulerverfahren . . . . . . . . . . . . . . 142
2
3
22 Symplektische Integratoren
22.1 Orientierte Fläche . . . . . . . . . . . . .
22.2 Symplektische Abbildungen . . . . . . . .
22.3 Symplektische numerische Verfahren . . .
22.3.1 Das symplektische Eulerverfahren
22.3.2 Das Störmer-Verlet-Verfahren . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
144
144
145
146
147
149
Kapitel 1
Gewöhnliche
Differentialgleichungen
Betrachte eine gewöhnliche Differentialgleichung erster Ordnung
dx
= f (t, x).
dt
(1.1)
Hier f ist ein bekanntes oder gegebenes Vektorfeld, d.h. eine Funktion
f:
⊂ R1 × Rd → Rd ,
(α, β) × S
| {z }
Def initionsbereich
wobei (i) −∞ ≤ α < β ≤ +∞, (ii) t ∈ (α, β) ⊆ R1 die unabhängige Variable ist
(daher eine gewöhnliche Differentialgleichung), und (iii) x ∈ S ⊆ Rd , die d ≥ 1
abhängige(n) Variable(n) sind.
In der Dynamik ist t = Zeit und x = d-dimensionale Zustandsvariable.
Eine Differentialgleichung (1.1) heißt
1. linear, falls jedes Glied von f linear bzg. x für jedes feste t ist oder unabhängig von x ist, z.B.
dx
= tx + cos t
dt
linear,
dx
= x2
dt
nichtlinear
2. autonom, falls f hängt nicht von t ab, d.h.
f (t, x) ≡ f (x) ∀t
Differentialgleichung ⇒
dx
= f (x)
dt
in welchem Fall f : S ⊆ R → Rd ∀t ∈ (α, β) ≡ R1 , z.B.
4
KAPITEL 1. GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN
dx
dt
= x2
dx
dt
= 2tx
5
autonom
nichtautonom.
Man kann viele mechanische Systeme durch gewöhnliche Differentialgleichungen beschreiben, d.h. mit den Variablen
x = Abstand,
d2 x
= Beschleunigung.
dt2
dx
= Geschwindigkeit,
dt
Das Newtonsches Gesetz ergibt eine Differentialgleichung zweiter Ordnung
dx
d2 x
=
g(t)
+ |{z}
bx
+ a
|{z}
dt2
| {zdt}
Rückzug
externe
Reibung
Treibkraft
Kraft
Wir können diese DGL als eine 2-dimensionale Differentialgleichung erster
Ordnung umschreiben mit den Zustandsvariablen
x1 = x,
x2 =
dx
dt
d.h. die Variablen, die wir brauchen, um die Dynamik vollständig zu beschreiben:
dx
dx1
=
dt
dt
=
x2
dx2
d dx
d2 x
=
= 2
dt
dt dt
dt
=
−a
=
− a x2 − bx1 + g(t)
dx
− bx + g(t)
dt
Wir erhalten das System von Differentialgleichgungen
dx1
dt
=
f1 (t, x1 , x2 ) = x2
dx2
dt
=
f1 (t, xt , x2 ) = − a x2 − bx1 + g(t)
oder eine äquivalente vektorwertige Differentialgleichgung
!
!
!
"
#
d
0
0
1
x1
x1
+
=
dt
g(t)
−b −a
x2
x2
6
KAPITEL 1. GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN
1.1
Lösungen von Differentialgleichungen
Eine Lösung einer Differentialgleichung
dx
= f (t, x)
dt
ist eine gesuchte Funktion x = ϕ(t) für welche
1. ϕ : (γ, δ) → S wo (γ, δ) ⊆ (α, β)
2. ϕ(t) ist differenzierbar ∀ t ∈ (ϕ, δ), und es gilt
3.
d
ϕ(t) = f (t, ϕ(t)), ∀t ∈ (γ, δ).
dt
Beispiel 1.
dx
= 2tx ,
dt
∀ t ∈ R1 , x ∈ R1
2
ϕ(t) = et ist eine Lösung ∀t ∈ R1
2 d
2
d t2
d
ϕ(t) =
{e } = et
{t2 } = 2t · et = 2tϕ(t), ∀t ∈ R1
dt
dt
dt
2
Andere Lösungen hier sind ϕ(t) = Cet , ∀t ∈ R1 , für jedes C ∈ R1 .
Beispiel 2.
dx
= x2 ,
dt
∀x ∈ R1
(auch implizit ∀t ∈ R1 )
1
ist eine Lösung für t ∈ (− ∞, 1) oder t ∈ (1, ∞), aber nie für
1−t
t ∈ (γ, δ) wo γ < 1 < δ
ϕ(t) =
1
d
d
ϕ(t) =
dt
dt 1 − t
=
d
−1
(1 − t)
(1 − t)2 dt
=
−1
· (−1) =
(1 − t)2
1
1−t
2
= ϕ(t)2 ,
Andere Lösungen : für jedes C ∈ R1
ϕC (t) =
1
für t ∈ (− ∞, C) oder t ∈ (C, ∞).
C −t
Fragen: Hat eine Differentialgleichung immer eine Lösung?
Wann ? (Welche Eigenschaft soll f haben?)
Existenzintervall?
Wieviele Lösungen?
Können wir immer Lösungen explizit finden? Wie?
∀t 6= 1
KAPITEL 1. GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN
7
Besondere einfache Lösungen sind wichtig in der Dynamik, z.B. konstante
und zeitperiodische Lösungen.
1.1.1
Konstante Lösungen
φ(t) ≡ x ∈ Rd eine Konstante, ∀t ∈ (α, β) ⇐⇒ 0 ≡ f (t, x) ∀t ∈ (α, β)
Beispiele:
dx
dt
= 2x ⇒ x = 0,
ϕ(t) ≡ 0, ∀t ∈ R
dx
dt
= tx ⇒ x = 0,
ϕ(t) ≡ 0, ∀t ∈ R
dx
dt
= x(1 − x) ⇒ x = 0 oder 1,

 ϕ1 (t) ≡ 0, ∀t ∈ R

ϕ2 (t) ≡ 1, ∀t ∈ R
In der Dynamik bezeichnet man eine konstante Lösung auch als Ruhelage.
1.1.2
Zeitperiodische Lösungen
Eine Lösungen ϕ heißt T -periodisch oder periodisch mit Periode T (6= 0), falls
ϕ(t) ≡ ϕ(t + T ) , ∀t ∈ R1 ,
d.h. ϕ ist eine T -periodische Funktion.
z.B. ϕ(t) = esin t ist eine 2π-periodische Lösungen der DGL
dx
= x · cos t
dt
z.B. ϕ(t) = (cos t, sin t) ist eine 2π-periodische Lösungen des Systems von
DGLen
dx
= − y + x 1 − x2 − y 2 ,
dt
Wir können dies direkt beweisen, d.h.
dx
dt
dy
dt
=
=
dy
= x + y 1 − x2 − y 2
dt
d
cos t = − sin t = − sin t + cos t (1 − sin2 t − cos2 t)
dt
d
sin t = cos t = cos t + sin t (1 − sin2 t − cos2 t)
dt
oder die DGL umschreiben als
dr
= r(1 − r2 ),
dt
dθ
=1
dt
KAPITEL 1. GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN
8
mit den Polarkoordinaten
(
(x, y) → (r, θ)
p
r = x1 + y 2
.
θ = arctan (y /x )
Die Ruhelage“ r = 1 (tatsächlich nur eine Ruhelage für die r-Gleichung, nicht
”
das System) entspricht der obigen periodischen Lösungen.
1.2
Allgemeine explizite Lösungen
Nur besondere Arten von Differentialgleichungen sind systematisch explizit“
”
oder analytisch“ lösbar – sie sind meistens 1-dimensional und die Lösungsmethoden
”
hängen direkt von der Struktur der Vektorfeldfunktion f (t, x) ab.
1.2.1
Lineare Differentialgleichungen: skalarer Fall
Wir benutzen die kanonische Form einer skalaren linearen Differentialgleichung
dx
+ p(t)x = q(t)
dt
d.h. dx
dt = f (t, x) = q(t) − p(t)x, wobei p und q gegebene stetige Koeffizientenfunktionen sind.
Die Lösungsmethode benutzt einen Integrierenden Faktor
µ(t) = e
Rt
p(s)ds
mit
dµ
d n R t p(s)ds o
e
(t) =
dt
dt
= e
= e
Z
t
Rt
p(s)ds
Rt
d
dt
p(s)ds
= µ(t) p(t).
p(s)ds
Wegen der Produktregel erhalten wir
d
{µ(t)x(t)}
dt
=
=
=
=
dx
dµ
(t) +
(t) x(t)
dt
dt
dx
µ(t)
(t) + µ(t)p(t)x(t)
dt
dx
(t) + p(t)x(t)
µ(t)
dt
µ(t)q(t) eine bekannte Funktion
µ(t)
Dann integrieren wir:
µ(t)x(t) =
Z
t
µ(s)q(s)ds + C,
KAPITEL 1. GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN
wobei C eine beliebige Konstante der Integration ist
Die explizite Lösung lautet
x(t) =
Rt
µ(s)q(s) ds + C
µ(t)
Beispiel
dx
+ 2tx = 4t
dt
Die explizite Lösung lautet
x(t)
Rt
2
es 4 s ds + C
et2
2
2
2 et + c
= 2 + C e−t
et2
=
=
1.2.2
2
⇒ µ(t) = et
p(t) = 2t, q(t) = 4 t
∀C ∈ R
Skalare DGLen mit getrennten Variablen
Wir betrachten eine skalare DGL der Form
dx
= g(t) h(x)
dt
d.h. mit f (t, x) ≡ g(t) h(x). Dann gilt
1
dx = g(t) dt
h(x)
und nach Integration
Z
x
1
dy =
h(y)
Z
t
g(s)ds,
die im Prinzip explizit lösbar für x = x(t) ist.
Beispiel 1.
Hier gilt
dx
= tx,
dt
1
dx = t dt
x
g(t) = t, h(x) = x
⇒
ln x =
1 2
t +C
2
und dann
2
x = x(t) = et
/2+C
2
= et
/2+ln K
2
= Ket
/2
.
Bemerkung Alle autonomen Differentialgleichungen sind von dieser Art
dx
= f (x),
dt
⇒
mit
1
dx = dt
f (x)
⇒
g(t) ≡ 1, h(x) ≡ f (x)
Z
x
1
dy = t + C
f (y)
9
KAPITEL 1. GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN
10
Bemerkung Die konstanten Lösungen x(t) ≡ x, wo f (x) = 0 sind Singularitäten des Integrals hier!
Beispiel 2.
dx
= x2
dt
⇒
1
dx = dt
x2
⇒
1
=t+C
x
−
⇒
x(t) =
Beispiel 3. Betrachte die logistische DGL:
dx
= ax(1 − x)
dt
⇒
1
a dt =
dx =
x(1 − x)
1
1
+
x
1−x
1
e
C −t
dx
(Partialbruchzerlegung). Integriere:
at + C = ln x − ln (1 − x) = ln
x
1−x
mit einer beliebiger Konstante C. Daher
x
1−x
= eat+C = eat+ln K = Keat
⇒ x = (1 − x)Keat ⇒ x(t) =
Keat
1+Keat
Wir haben auch die konstanten Lösungen x(t) ≡ 0 und x(t) ≡ 1 bzw. mit K
= 0 und K = ∞. (Die Integrale sind tatsächlich ungeeigentliche Integrale hier).
Genauer: würden wir den Betrag im Logarithmus benutzten, z.B. für
dx
= 2x ⇒
dt
Z
t
2 ds =
Z
x
1
dy
y
dann hätten wir 2t + C = ln |x| und die Lösungen wären
|x(t)| = e2t+C .
Frage: Warum können wir den Betrag hier wegfallen lassen?
Antwort: später!
Kapitel 2
1-Parameter-Familien von
Lösungen
Für jede 1-dimensionale explizit lösbare Differentialgleichung haben wir immer
eine Familie von Lösungen gefunden, die von einem beliebigen Parameter c ∈ R
abhängt. Z.B.
dx
= 2x
dt
⇒
x(t) = ce2t
dx
= tx
dt
⇒
x(t) = ce1/2 t
dx
= x2
dt
⇒
x(t) =
2
1
c−t
Frage: Sind diese Lösungen die einzigen Möglichkeiten ?
Beispiel
Die DGL
dx
= 3x2/3 ist explizit lösbar
dt
1 −2/3
x
dx = dt ⇐⇒ x1/3 = t + c ⇐⇒ x = x(t) = (t + c)3 ∀ c ∈ R
3
aber x(t) ≡ 0 ist auch eine Lösung, die wir nicht durch (t+c)3 darstellen können.
Dieses Beispiel ist etwas schief“, weil die Ableitung f ′ (x) = 2x−1/3 des Vek”
torfeldes f (x) = 3x2/3 eine Singularität in x = 0 hat.
Wir werden zu diesem Beispiel später zurückkommen.
11
12
KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN
2.1
Anfangswertaufgabe
Wie können wir eine bestimmte Lösung von einer 1-Parameter-Familie auswählen ?
x
Beispiel:
Lösungskurven
c=2
dx
= 2x
dt
c=1
c=0
mit Lösungen
x(t) = ce
t
c = −1
2t
c = −2
In der Dynamik brauchen wir oft eine Lösung, die einem bestimmten Anfangswert
x(t0 ) = x0 genügt (t0 , x0 hier vorgegeben)
d.h. wir wollen eine Lösung, für welche die Lösungskurve den Punkt (t0 , x0 )
enthält.
Wir können versuchen, den entsprechenden Parameterwert zu berechnen:
z.B.
x(t) = ce2t mit x(t0 ) = x0 ⇒ x0 = ce2t0 = x(t0 ) ⇒ c = x0 e−2t0
Daher lautet die gesuchte Lösung: x(t) = x0 e−2t0 e2t = x0 e2(t−t0 )
Um den Anfangswert klar darzustellen, schreiben wir eine solche Lösung:
x(t; t0 , x0 ), wobei x(t0 ; t0 , x0 ) = x0 .
Frage: Können wir immer eine solche Lösung finden?
Diese Aufgabe heißt Anfangswertaufgabe (AWA)


 DGL dx = f (t, x)
dt

 AW
x(t ) = x
0
Beispiel
dx
= 2x mit x(0) = 1 ⇒
dt
0
x(t; 0, 1) = e2t
Frage: Hat eine Anfangswertaufgabe immer mindestens eine Lösung ?
13
KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN
x
NEIN! Betrachte die AWA
dx
x
= , x(0) = 0
dt
t
f (t, x) =
x
t
⇒
f (0, 0) =
0
?
0
t
Betrachte auch den Anfangswert x(0) = 1
Die Vektorfeldfunktion f (t, x) existiert nicht für (t, x) = (0, 0).
Frage: Hat eine Anfangswertaufgabe nur eine Lösung ? (falls Lösungen
existieren)
NEIN! Betrachte die AWA
dx
= 3 x2/3 , x(0) = 0.
dt
Diese AWA hat mindestens zwei (tatsächlich unendlich viele) Lösungen.
x(t) ≡ 0
x(t) = t3
Merke: f (x) = 3 x2/3 mit f ′ (x) = 2x−1/3 und daher f ′ (0) = ±∞.
Beide Beispiele sind schlecht gestellt, da die rechte Seite für den Anfangswert
keinen Sinn macht.
Realistische Modelle erfordern die Existenz von einer und nur einer Lösung
für eine Anfangswertaufgabe – d.h. die Existenz und Eindeutigkeit von Lösungen
bzg. der AWA.
Im Allgemeinen haben wir keine explizite Lösungen. Was können wir dann
sagen? Können wir etwas aus den Eigenschaften des Vektorfeldes f schließen? Ja
Existenz- und Eindeutigkeitssatz (verschiedene Versionen).
Sei f = f (t, x) stetig differenzierbar in einer Umgebung des Anfangswertes
(t0 , x0 ). Dann hat die Anfangswertaufgabe
dx
= f (t, x), x(t0 ) = x0
dt
eine eindeutige Lösung
d.h. es existiert eine Lösung x(t) für γ < t < δ, wo t0 ∈ (γ, δ) und x(t0 ) =
x0 , und diese ist die einzige Lösung mit x(t0 ) = x0 .
Der Beweis ist leider nicht konstruktiv. Dennoch ist das Ergebnis sehr nützlich:
14
KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN
1. das Modell ist gut gestellt — nicht trivial unrealistisch
2. numerische Approximationen können wertvoll sein
3. andere praktische qualitative Folgen, z.B.
Beispiel 1
Die Lösungen einer autonomen Differentialgleichung
dx
= f (x)
dt
sind zeittranslationsinvariant, falls die Anfangswertaufgaben alle eindeutig lösbar
sind, d.h.
x(t) = x(t; t0 , x0 ) ≡ x(t − t0 ; 0, x0 )
∀t ∈ Existenzintervall .
Beweis Sei z(t) = x(t − t0 ; 0, x0 ). Daher z(t0 ) = x0 und
d
z(t) =
dt
=
=
=
d
x(t − t0 ; 0, x0 )
dt
ds
d
x(s; 0, x0 ) ·
ds
dt
f (x(s; 0, x0 )) · 1
f (x(t − t0 ; 0, x0 )) = f (z(t))
d.h. z(t) ist eine Lösung der AWA
x(t; t0 , x0 ) ist eindeutig
⇒
mit s = t − t0
dz
= f (z), z(t0 ) = x0 . Aber die Lösung
dt
z(t) ≡ x(t − t0 ; 0, x0 ) ≡ x(t; t0 , x0 )
für alle geeigneten t.
Autonome
Lösungen
hängen nur von t − t0
ab, nicht von t und t0
selbst. Daher sind die
idenIntegralkurven
tisch, nur verschoben.
Also x(t − t0 ; t0 , x0 ) =
x(t − t1 ; t0 , x1 ).
Beispiel 2
zierbar!
x
x0
t1
t
dx
= 2x, d.h. mit f (x) = 2x und f ′ (x) ≡ 2, stetig differendt
⇒ x(t; t0 , x0 ) = x0 e2(t−t0 )
eindeutig
KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN
15
Aber ohne diese explizite Lösung zu wissen, können wir die folgende Eigenschaft beweisen:
x0 > 0
⇒ x(t; t0 , x0 ) > 0
x0 < 0
⇒ x(t; t0 , x0 ) < 0
Beweis x(t) ≡ 0 ist offensichtlich eine Lösung: f (0) = 0. Sei
x0 6= 0 und x(T, t0 , x0 ) = 0
für T > t0 , dann haben wir
einen Widerspruch der Eindeutigkeit der Lösung x(t; T, 0) ≡ 0.


∀t im Existenzintervall

x
x1
nicht möglich
x2
t
Die Eindeutigkeit der Lösung erklärt, warum wir den Betrag in der Methode
der getrennten Variablen vernachlässigen können.
1
dx
= 2x ⇒
dx = 2t dt ⇒ ln |x| = 2t + c
dt
x
⇒ |x(t)| = e2t+c = e2t ec > 0
Sei c = ln |k| wobei
sign k
=
sign x(t0 ) für irgendwelches t0
≡
sign x(t)
|x(t)| = e2t eln |k| = |k|e2t
∀t ∈ (γ, δ)
⇒
x(t) = ke2t
k hat das richtige Vorzeichen.
2.2
Richtungsfelder
Betrachte den 1-dimensionalen Fall
dx
= f (t, x),
dt
x ∈ R, (t, x) ∈ R2 ,
mit f (t, x) stetig differenzierbar
⇒ x(t; t0 , x0 )
eindeutig ∀t ∈ γ(t0 ,x0 ) , δ(t0 ,x0 )
Die Tangentengerade zu der entsprechenden Lösungskurve im Punkt (t0 , x0 )
hat die Steigung tan θ(t0 ,x0 ) = f (t0 , x0 ).
16
KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN
x
Tangente
x(t; t0 , x0 )
x
Neigungswinkel θt0 ,x0
x0
x0
t0
t0
t
t
je größer |f (t0 , x0 )|, desto steiler
die Tangentengerade
Wir können viele Linienelemente durch gewählte Punkte skizzieren — Neigungswinkel θt0 ,x0 für den Punkt (t0 , x0 ) – und dann versuchen die Lösungskurven
zu skizzieren. Solche Bilder heissen
x
Richtungsfelder
systematisieren!
t
Bemerkungen:
1. Existenz und Eindeutigkeitssatz ⇒ die Kurven dürfen sich nicht überschneiden.
2. Konstante Lösungskurven sind die Grenzen von getrennten Lösungsgebieten.
3. für autonome Differentialgleichungen: die Neigung
θt0 ,x0 = tan−1 f (x0 ).
hängt nicht von t0 ab. (Nimm t0 = 0).
Beispiel
dx
= 4x(1 − x)
dt
f (x) = 4x(1 − x) stetig differenzierbar
⇒ Existenz und Eindeutigkeit
Konstante Lösungen
f (x) = 4x(1 − x) = 0 für x = 0 und x = 1
17
KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN
⇒
x(t) = 0, x(t) ≡ 1 sind Lösungen
Eindeutigkeit ⇒ x < 0, 0 < x < 1, x > 1 sind getrennte Lösungsgebiete
Steigung tan θ(t0 ,x0 ) = f (x0 ) autonom - unabhängig von t0
θ = konstante für eine Gerade x = x0 in der (t, x)−Ebene.
+∞
negative
positive
1
1
f (x)
positive
1
2
negative
x
1
0
negative
negative
−∞
x
x=1
x=0
t
Was passiert ?
x0 > 1
0 < x0 < 1
(
x(t) → 1
x(t) → 0
x(t) → 1
für t → +∞
für t → −∞
für t → +∞
18
KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN
x0 < 0
(
x(t) → 0
x(t) → −∞
für t → −∞
für t → ???
Die expliziten Lösungen hier sind
x(t) =
Sei x(0) = x0 =
⇒
ke4t
1 + ke4t
x0
k
⇒k=
1+k
1 − x0
x0
e4t
x0 e4t
1 − x0
x(t; 0, x0 ) =
=
x0
(1 − x0 ) + x0 e4t
1+
e4t
1 − x0
Dann gilt für den Nenner
(1 − x0 ) + x0 e4t = 1 + x0 (e4t − 1) > 0 ∀t > 0, falls x0 > 0.
für den Fall x0 < 0 haben wir
1
= e4t
x0
1
1
> 0, weil
ln 1 −
⇔ t=
4
x0
Daher x(t, 0, x0 ) → −∞ für t → 41 ln 1 − x10 < +∞.
1 + x0 (e4t − 1) = 0 ⇔ 1 −
1−
1
>1
x0
Kapitel 3
Integralgleichungsdarstellung
einer AWA
Wir betrachten eine Anfangswertaufgabe
dx
= f (t, x),
dt
x(t0 ) = x0 ,
(3.1)
wobei f : (α, β) × Rd → Rd ist mindestens stetig in beiden Variablen. Natürlich
ist t0 ∈ (α, β).
Sei ϕ : (γ, δ) → Rd eine Lösung der AWA (1). ϕ ist differenzierbar (daher
stetig !) und t0 ∈ (γ, δ) ⊆ (α, β)
d
ϕ(t) = f (t, ϕ(t)),
dt
∀t ∈ (γ, δ)
f (·, ϕ(·)) ist stetig, daher können wir integrieren:
ϕ(t) − ϕ(t0 ) =
Z
t
f (s, ϕ(s)) ds,
t0
∀t ∈ (γ, δ)
d.h., ϕ ist eine Lösung der Integralgleichung
ϕ(t) = x0 +
Z
t
f (s, ϕ(s)) ds,
t0
∀t ∈ (γ, δ).
(3.2)
Umgekehrt sei ϕ : [γ, δ] → Rd stetig und eine Lösung der IG (3.2).
⇒ f(·, ϕ(·)) ist auch stetig in t ∈ [γ, δ]. Durch den Hauptsatz der IntegralRt
rechnung folgt es, dass t0 f (ϕ(s))ds differenzierbar ist und
d
dt
Z
t
f (s, ϕ(s)) ds = f (t, ϕ(t)),
t0
19
∀t ∈ (γ, δ)
KAPITEL 3. INTEGRALGLEICHUNGSDARSTELLUNG EINER AWA
d
trivialerweise:
dt
Z
x0 +
t
f (s, ϕ(s)) ds
t0
20
= f (t, ϕ(t)).
Daher ist ϕ(t) nicht nur stetig, sondern auch differenzierbar in t ∈ (γ, δ) und
genügt der Differentialgleichung
d
ϕ(t) = f (t, ϕ(t)),
dt
∀t ∈ (γ, δ)
Schließich aus der IG (3.2) mit t = t0 ergibt sich der erwünschte Anfangswert
ϕ(t0 ) = x0 .
⇒ ϕ ist eine Lösung der AWA (3.1).
Bemerkung Die Darstellung der AWA (3.1) durch eine Integralgleichung
ist günstig – wir brauchen nur stetige Funktionen zu betrachten und wir haben
einen Zugang zur Fixpunkttheorie in der Analysis.
Betrachte den Vektorraum C([γ, δ], Rd ) von stetigen Funktionen
ϕ : [γ, δ] → Rd ,
wobei Addition und skalare Multiplikation punktweise definiert sind.
Sei t0 ∈ (γ, δ) gegeben und fest. Wir definieren einen Integraloperator ψ =
T ϕ durch
Z t
f (s, ϕ(s)) ds, t ∈ [γ, δ] .
ψ(t) = ϕ(t0 ) +
t0
Offensichtlich, T : C([γ, δ], Rd ) → C([γ, δ], Rd ).
Sei D(t0 , x0 ) die Teilmenge von C([γ, δ], Rd ) mit der Eigenschaft, dass ϕ(t0 ) =
x0 (x0 gegeben, fest).
Dann könne wir T umschreiben:
ψ(t) = (T ϕ)(t) = x0 +
Z
t
f (s, ϕ(s)) ds
t0
für ϕ ∈ D(t0 , x0 ). Es ist klar, dass T (D(t0 , x0 )) ⊆ D(t0 , x0 ) !
Sei eine stetige Funktion ϕ : [γ, δ] → Rd eine Lösung der Integralgleichung
(3.2), d.h.
Zt
f (s, ϕ̄(s)) ds = (T ϕ)(t) t ∈ [γ, δ]
ϕ̄(t) = x0 +
t0
oder äquivalent
ϕ̄ = T ϕ̄ in D(t0 , x0 ) ⊂ C([γ, δ], Rd )
(3.3)
KAPITEL 3. INTEGRALGLEICHUNGSDARSTELLUNG EINER AWA
21
d.h. ϕ̄ ist Fixpunkt des Integraloperators T in D(t0 , x0 ).
Frage: Wann existieren solche Fixpunkte?
Dazu wenden wir das Banach’sche Kontraktionsprinzip an.
SATZ (Fixpunktsatz für kontrahierende Abbildungen)
Es sei D eine nichtleere, abgeschlossene Teilmenge eines BanachRaumes (Bk · k). Der Operator T : D → B sei
1. eine Kontraktion, d.h. ∃ q [0, 1) mit
kT ϕ1 − T ϕ2 k ≤ qkϕ1 − ϕ2 k
∀ϕ1 , ϕ2 ∈ D
und
2. er bilde D in sich ab, d.h. T (D) ⊆ D.
Dann hat die Gleichung ϕ = T ϕ in D genau eine Lösung ϕ = ϕ̄, und
die sukzessiven Approximationen
n = 0, 1, . . . (beliebiges ϕ0 ∈ D)
ϕn+1 = T ϕn ,
konvergieren gegen ϕ̄.
Ein Banach-Raum ist ein vollständiger normierter Vektorraum, z.B.
C([γ, δ], Rd )
mit der Norm
kϕkmax = max |ϕ(t)|
γ≤t≤δ
Günstiger für uns wird die folgende Norm auf C([γ, δ], Rd ):
kϕkexp := max |ϕ(t)|e−k|t−t0 |
γ≤t≤δ
für gegebene Konstanten k > 0, t0 ∈ (γ, δ). Die Normen k · kmax und k · kexp
sind äquivalent, d.h. ∃ Konstanten C1 , C2 für welche gilt
C1 kϕkexp ≤ kϕkmax ≤ C2 kϕkexp
∀ϕ ∈ C([γ, δ], Rd )
Beweis Für jedes t ∈ [γ, δ] haben wir
|ϕ(t)|e−k|t−t0 | ≤ |ϕ(t)|
=
≤
|ϕ(t)e−k|t−t0 | e+k|t−t0 |
|ϕ(t)|e−k|t−t0 | max{ek|δ−t0 | , ek|γ−t0 | }
Das erwünschte Ergebnis folgt mit C1 = 1 und C2 = max{ek|δ−t0 | , ek|γ−t0 | }.
Äquivalente Normen genügen den gleichen Konvergenzeigenschaften. Daher
ist C([γ, δ], Rd ) mit der Norm k · kexp auch Banach-Raum.
KAPITEL 3. INTEGRALGLEICHUNGSDARSTELLUNG EINER AWA
3.1
22
Lipschitz-Bedingungen
Eine Funktion f : Rd → Rd genügt einer Lipschitz-Bedingung (mit LipschitzKonstante L > 0), wenn
|f (x) − f (y)| ≤ L|x − y|
∀x, y ∈ Rd
ist. Z.B. Eine Kontraktion genügt einer Lipschitz-Bedingung mit LipschitzKonstante L < 1.
N.B. Eine Funktion, die einer Lipschitz-Bedingung genügt, ist stetig.
In dem folgenden Existenz- und Eindeutigkeitssatz setzen wir voraus, dass
das Vektorfeld f (t, x) der DGL (3.1) einer Lipschitz-Bedingung bzg. x (gleichmäßig
in t) genügt.
Existenz- und Eindeutigkeitssatz [Lipschitz-Version]
Die Funktion f : [α, β] × Rd → Rd sei stetig und genüge einer LipschitzBedingung bzg. x gleichmäßig in t ∈ [α, β], d.h.
|f (t, x) − f (t, y)| ≤ L|x − y|
∀x, y ∈ Rd ,
∀t ∈ [α, β] .
Dann hat für jedes t0 ∈ (α, β) die Anfangswertaufgabe
dx
= f (t, x),
dt
x(t0 ) = x0
genau eine Lösung x = ϕ(t). Diese Lösung existiert im ganzen Intervall
[α, β].
Beweis Wir betrachten den Banach-Raum C([α, β], Rd ) mit der exp-Norm
k · kexp mit der Konstante k = 2L > 0, d.h.
kϕkexp = max |ϕ(t)|e−2L|t−t0 |
α≤t≤β
und die Teilmenge (nicht leer und abgeschlossen!)
D(t0 , x0 ) = {ϕ ∈ C([α, β], Rd ); ϕ(t0 ) = x0 } .
Dann definieren wir auf D(t0 , x0 ) den Integraloperator
(T ϕ)(t) = x0 +
Zt
t0
f (s, ϕ(s)) ds,
t ∈ [α, β] .
Offensichtlich ist ϕ → T ϕ ∈ D(t0 , x0 ) stetig mit T ϕ(t0 ) = x0 . Sei ϕ1 , ϕ2 ∈
D(t0 , x0 ). Dann gelten die Ungleichungen
Z t
|T ϕ1 (t) − T ϕ2 (t)| = {f (s, ϕ1 (s)) − f (s, ϕ2 (s))} ds
t0
KAPITEL 3. INTEGRALGLEICHUNGSDARSTELLUNG EINER AWA
≤
≤
=
Z
t
t0
Z
t
t0
Z
t
|f (s, ϕ1 (s)) − f (s, ϕ2 (s))| ds
L|ϕ1 (s) − ϕ2 (s)| ds
Le
+2L|s−t0 |
t0
≤
≤
Z
t
t0
23
o n
−2L|s−t0 |
ds
|ϕ1 (s) − ϕ2 (s)|e
Le2L|s−t0 | · kϕ1 − ϕ2 kexp ds
1
kϕ1 − ϕ2 kexp · e2L|t−t0 |
2
für jedes t ∈ [α, β]. Davon erhalten wir
|(T ϕ1 − T ϕ2 )(t)| e−2L|t−t0 |
≤
1
kϕ1 − ϕ2 kexp
2
für jedes t ∈ [α, β].
1
kϕ1 − ϕ2 kexp .
2
Wir können jetzt das Kontraktionsprinzip verwenden: T hat einen eindeutigen Fixpunkt
ϕ̄ = T ϕ̄ ∈ D(T0 , x0 ) .
⇒
kT ϕ1 − T ϕ2 kexp
≤
Diese Identität können wir in die Form der Integralgleichung (3.2) umschreiben:
ϕ̄(t) = x0 +
Zt
f (s, ϕ̄(s)) ds,
t0
t ∈ [α, β] .
ϕ̄ ist stetig ⇒ sie ist eine Lösung (tatsächlich die einzige Lösung) der
erwünschten Anfangswertaufgabe.
Bemerkung 1 Bezüglich der Norm k · kmax ist der Integraloperator T eine
Kontraktion nur für Teilintervalle der Form [t0 − h, t0 + h], [t0 , t0 + 2h], . . ., wo
2Lh < 1. Wir müssen das Kontraktionsprinzip in jedem Teilintervall wiederverwenden, und dann die entsprechenden Fixpunktlösungen aneinanderhängen.
Bemerkung 2 Im Prinzip konvergieren die sukzessiven Approximationen
Z t
f (s, ϕk (s)) ds, k = 0, 1, 2, . . . t ∈ [α, β]
ϕ0 (t) ≡ x0 ,
ϕk+1 (t) = x0 +
t0
gleichmäßig gegen die erwünschte Lösung ϕ. In der Praxis sind solche sukzessiven Approximationen praktisch nur für ganz einfache DGL, z.B.
dx
dt
=
2x, x(0) = 1,
KAPITEL 3. INTEGRALGLEICHUNGSDARSTELLUNG EINER AWA
ϕk+1 (t)
=
1+2
Z
24
t
ϕk (s) ds,
0
ϕk (t)
=
1 + 2t +
(2t)k
(2t)2
+ ... +
→ e2t =: ϕ̄(t)
2!
k!
(Die Konvergenz hier ist gleichmäßig auf jedem endlichen Intervall [−T, +T ]).
Kapitel 4
Stetige Abhängigkeit der
Lösungen
Die Lösung x(t) = x(t; t0 , x0 ) einer Anfangswertaufgabe
dx
= f (t, x), x(t0 ) = x0
dt
ist differenzierbar, daher stetig, in t für jedes feste (t0 , x0 ). Sie ist auch stetig in
(t0 , x0 ) für jedes t.
Beispiel
⇒
dx
= 2x, x(t0 ) = x0
dt
eindeutige, explizite Lösung x(t; t0 , x0 ) = x0 e2(t−t0 )
|x(t; t0 .x0 ) − x(t; t′0 , x′0 )|
′
= |x0 e2(t−t0 ) − x′0 e2(t−t0 ) |
≤
≤
n
′
|x0 − x′0 | + |x0 | · |e(t0 −t0 ) − 1|
o
′
· e2(t−t0 )
n
o
′
′
|x0 − x′0 | + |x0 | · |e(2(t0 −t0 ) − 1 · e2(t0 −t0 )
|
{z
}
→0 für x′0 →x0 , t′0 →t0
·
0)
e|2(t−t
{z }
t,t0 fest
NB die Konvergenz hier ist gleichmäßig bzg. t ∈ [T1 , T2 ] für alle −∞ < T1 <
T2 < ∞. Nimm
e2(t−t0 ) ≤ e2 max{|T1 −t0 |,|T2 −t0 |} < ∞
Aber in diesem Fall ist sie nicht gleichmäßig für alle t0 ≤ t < +∞.
25
KAPITEL 4. STETIGE ABHÄNGIGKEIT DER LÖSUNGEN
26
Wir können ein solches Ergebnis für eine allgemeine Anfangswertaufgabe
beweisen. Dafür brauchen wir eine berühmte Ungleichung.
Die Gronwall-Ungleichung
Die reelle Funktion ϕ(t) sei stetig in dem Intervall J : 0 ≤ t ≤ T , und
es sei
Z t
ϕ(t) ≤ α + β
ϕ(s)ds in J mit β > 0.
0
Dann ist
ϕ(t) ≤ αeβt
in J.
Beweis: Es sei ε > 0 und Ψ(t) = (α + ε)eβt . Diese Funktion Ψ genügt der
Anfangswertaufgabe
dΨ
= βΨ, Ψ(0) = α + ε,
dt
also der Integralgleichung
Z t
Ψ(t) = α + ε + β
Ψ(s) ds .
0
Es soll nun gezeigt werden, dass ϕ(t) < Ψ(t) in J ist. Diese Ungleichung ist
sicher richtig für t = 0, weil
ϕ(0) ≤ α < α + ε = Ψ(0).
Nehmen wir an, diese Behauptung sei falsch und es sei τ die erste Stelle mit
ϕ(τ ) = Ψ(τ ). Dann ist ϕ(s) ≤ Ψ(s) für 0 ≤ s ≤ τ und deshalb
Z τ
Z τ
ϕ(τ ) ≤ α + β
ϕ(s)ds < α + ε + β
Ψ(s)ds = Ψ(τ )
0
0
Dieser Widerspruch zeigt, dass tatsächlich ϕ < Ψ in J ist. Da ε > 0 beliebig
klein gewählt werden kann, gilt die Behauptung: ϕ(t) ≤ αeβt in J.
SATZ : Stetige Abhängigkeit
Die Funktion f : [α, β] × Rd → Rd sei stetig und genüge einer
Lipschitz-Bedingung in x ∈ Rd gleichmäßig in t ∈ [α, β], d.h.
|f (t, x) − f (t, y)| ≤ L|x − y|.
Dann ist die Lösung x(t; t0 , x0 ) der Anfangswertaufgabe
dx
= f (t, x),
dt
x(t0 ) = x0 ,
stetig in (t0 , x0 ) für jedes t ∈ [α, β].
27
KAPITEL 4. STETIGE ABHÄNGIGKEIT DER LÖSUNGEN
Beweis Sei (t0 , x0 ) fest und (t′0 , x′0 ) → (t0 , x0 ) in [α, β]×Rd . Ferner definiere
M
:=
max |f (t, x(t; t0 , x0 ))|,
α≤t≤β
da f stetig ist ist M < ∞. So dann gilt
|x(t; t0 , x0 ) − x(t; t′0 , x′0 )|
Z t
Z t
′
′
′
f (s, x(s; t0 , x0 )) ds
= x0 +
f (s, x(s; t0 , x0 ))ds − x0 −
′
t0
0
Z ′
t0
f (s, x(s; t0 , x0 )) ds
≤ |x0 − x′0 | + t0
Z
t
′
′
+ {f (s, x(s; t0 , x0 )) − f (s, x(s; t0 , x0 ))} ds
t′0
Z ′
t0
≤ |x0 − x′0 | + |f (s, x(s; t0 , x0 ))| ds
t0
Z
t
′
′
+ |f (s, x(s; t0 , x0 )) − f (s, x(s; t0 , x0 ))| ds
t′0
Z
t
≤ |x0 − x′0 | + M |t′0 − t0 | + L |x(s; t0 , x0 ) − x(s; t′0 , x′0 )| ds
t′0
Gronwall-Ungleichung (2 Fälle t ≥ t′0 , t ≤ t′0 ) ⇒
|x(t; t0 , x0 ) − x(t; t′0 , x′0 )| ≤
′
{|x0 − x′0 | + M |t′0 − t0 |} eL|t−t0 |
′
≤ {|x0 − x′0 | + M |t′0 − t0 |}eL|t0 −t0 |
{z
}
|
→0 für x′0 →x0 , t′0 →t0
·
L|t−t0 |
|e {z }
t,t0 fest
NB Tatsächlich haben wir eine Lipschitz-Bedingung in (t0 , x0 ) für jedes t !
4.1
Lipschitz-Bedingungen nochmal
Frage: Wann genügt eine Funktion f : Rd → Rd einer Lipschitz-Bedingung?
|f (x) − f (y)| ≤ L|x − y| ∀x, y ∈ Rd
z.B. d = 1, f linear
f (x) = 2x, →
|f (x) − f (y)| ≤ 2|x − y|.
Bemerkung Eine Lipschitz-Funktion ist immer stetig (sogar gleichmäßig
stetig: nimm δ(ε) = ε/L). Sie muss aber nicht differenzierbar sein:
d = 1,
f (x) = |x|, |f (x) − f (y)| = |x| − |y| ≤ |x − y|
28
KAPITEL 4. STETIGE ABHÄNGIGKEIT DER LÖSUNGEN
Aber viele differenzierbare Funktionen genügen einer Lipschitz-Bedingung.
Sei f : Rd → Rd stetig differenzierbar mit beschränkter Ableitung
|∇f (x)| ≤ L < ∞ ∀x ∈ Rd .
Dann genügt f einer Lipschitz-Bedingung mit Lipschitz-Konstante L. Wegen
des Mittelwertsatzes existiert ein ζx,y ∈ x, y (d.h. auf der Gerade zwischen x
und y), so dass gilt
f (x) − f (y) = ∇f (ζx,y ) (x − y)
und deshalb
|f (x) − f (y)| ≤ |∇f (ζx,y )| |x − y| ≤ L|x − y|
∀x, y ∈ Rd .
Zum Beispiel
2
2
f (x) = xe−x ,
f ′ (x) = (1 − 2x2 )e−x
⇒ |f ′ (x)| ≤ 1 ∀x ∈ R1
2
−x2
⇒
− ye−y ≤ |x − y|
xe
Leider gibt es viele interessante, stetig differenzierbare Funktionen, für welche die Ableitungen nicht beschränkt sind, z.B.
f (x) = x2 ,
f ′ (x) = 2x .
Aber solche Funktionen genügen einer lokalen Lipschitz-Bedingung, d.h. ∀ R >
0 ∃ LR > 0, so dass gilt
|f (x) − f (y)| ≤ LR |x − y|,
∀ |x|, |y| ≤ R .
wobei LR := max |f ′ (x)| < ∞.
|x|≤R
Frage: Gilt der Existenz-Eindeutigkeitssatz für solche Vektorfeldfunktionen?
JA — aber eventuell mit einer Beschränkung des Zeitintervalles !
Eine Schwierigkeit: Wir können mit |x0 | < R anfangen, aber die Lösung
braucht nicht der Ungleichung
|x(t; t0 , x0 )| ≤ R
für alle t ≥ t0 zu genügen. Eine solche Eigenschaft ist sicher gültig für |t − t0 |
klein genug (wegen der Stetigkeit bzg. t).
Sei |x(t; t0 , x0 )| ≤ R für |t − t0 | ≤ hR . Aus der Integralgleichungsdarstellung
der AWA
Z
t
f (s, x(s; t0 , x0 )) ds
x(t; t0 , x0 ) = x0 +
t0
erhalten wir
Z
|x(t; t0 , x0 ) − x0 | ≤ t
t0
f (s, x(s; t0 , x0 )) ds ≤ |t − t0 |
max
|s−t0 |≤|t−t0 |
|x|≤R
|f (s, x)| ,
KAPITEL 4. STETIGE ABHÄNGIGKEIT DER LÖSUNGEN
29
d.h.
MR := max |f (t, x)| < ∞.
|x(t; t0 , x0 ) − x0 | ≤ MR |t − t0 |,
α≤t≤β
|x|≤R
In diesem Fall liegt die Lösungskurve innerhalb des Kegels mit Grenzgeraden
y = x0 ± MR (t − t0 )
|x| = R
mit Steigung
±MR
x0
t
t0
0|
können wir sicher sein, dass die Lösung darin
So, für |t − t0 | ≤ hR := R−|x
MR
liegt. (Aber die Abschätzung hier ist sehr grob!).
Um den Existenz-Eindeutigkeitssatz zu beweisen, betrachten wir die AWA
dx
= fR (t, x),
dt
für |t − t0 | ≤ h, wobei
fR (t, x) : =
(
f (t,
x),
f t,
x
|x|
x(t0 ) = x0
R , falls |x| ≥ R
falls |x| ≤ R
Diese Funktion fR ist stetig in (t, x) ∈ [t0 − h, t0 + h] × Rd und genügt der
globalen Lipschitz-Bedingung
|fR (t, x) − fR (t, y)| ≤ LR |x − y|,
∀x, y ∈ Rd .
Aufgrund des ursprünglichen E-E-Satz wissen wir, dass die neue AWA eine
eindeutige Lösung hat, für welche
|x(t; t0 , x0 )| ≤ R
für |t − t0 | ≤ hR .
gilt.
Aber für |t − t0 | ≤ hR , |x| ≤ R haben wir fR ≡ f . Daher ist diese Lösung
KAPITEL 4. STETIGE ABHÄNGIGKEIT DER LÖSUNGEN
30
x(t; t0 , x0 ) auch eine Lösung der ursprünglichen Anfangswertaufgabe mit der
Vektorfeldfunktion f .
Bemerkung Die Lösung x(t; t0 , x0 ) könnte auch für t mit |t − t0 | ≥ hR
existieren, aber sie braucht nicht für alle solche t zu existieren, d.h. es könnte
ein T ∈ (t0 , ∞) existieren, so dass |x(t; t0 , x0 )| → ∞ für t → T − . Zum Beispiel
betrachte
dx
1
= x2
⇒ x(t; t0 , x0 ) = 1
dt
+
t0 − t
x0
Alles ist OK für t0 ≤ t ≤ t1 < T − (t0 , x0 ) :=
t ր T − (t0 , x0 )
⇒
1
x0
+ t0 , aber für
x(t; t0 , x0 ) → +∞
Explosion!
Bemerkung: Andere Eigenschaften der Funktion f können solche Explosionen ausschließen. Z.B. eine Lineare Wachstumsbedingung
|f (t, x)| ≤ K(1 + |x|),
∀ t ∈ [α, β],
x ∈ Rd .
Für den Integraloperator
T ϕ(t) = x0 +
Z
t
f (s, ϕ(s)) ds
t0
haben wir dann
Z
|T ϕ(t)| ≤ |x0 | + |f (s, ϕ(s))| ds
t0
Z t Z t
≤ |x0 | + K ds + K |ϕ(s)| ds
t0
t0
Z t
≤ |x0 | + K(β − α) + K |ϕ(s)| ds ∀ t ∈ [α, β] .
t
t0
Daher genügt jeder Fixpunkt ϕ̄ = T ϕ̄ der Ungleichung:
Z t
|ϕ̄(t)| ≤ |x0 | + K(β − α) + K |ϕ̄(s)| ds ∀ t ∈ [α, β] .
t0
Wegen der Gronwall-Ungleichung haben wir dann
|ϕ(t)| ≤ {|x0 | + K(β − α)} eK|t−t0 |
∀ t ∈ [α, β] .
KAPITEL 4. STETIGE ABHÄNGIGKEIT DER LÖSUNGEN
31
Eine Explosion in einer endlichen Zeit ist dabei unmöglich. (Es ist noch möglich,
dass |ϕ(t)| → ∞ für t → ∞, d.h. die Lösung wächst unbeschränkt).
Es gibt noch andere nützliche Eigenschaften, die solche Explosionen ausschließen. Z.B.
hx, f (t, x)i ≤ −K|x|2 , ∀ |x| ≥ R0 , ∀t
(Innerprodukt von x und f (t, x) hier) oder allgemeiner
hx, f (t, x)i ≤ K − L|x|2 ,
∀x ∈ Rd ,
∀t
mit K ≥0 und L > 0.
Diese Bedingungen sind stärker als die lineare Wachstumsbedingung — alle
Lösungen sind tatsächlich beschränkt für t → ∞. Betrachte eine Lösung x(t)
der DGL. Dann gilt
d
d
|x(t)|2 = 2 x, x(t) = 2 hx, f (t, x)i ≤ 2K − 2L|x(t)|2
dt
dt
⇒
d
|x(t)|2 + 2L |x(t)|2 ≤ 2K .
dt
Wir benutzen den integrierenden Faktor e2Lt in dieser Differentialungleichung
d 2Lt
e
|x(t)|2 ≤ 2Ke2Lt .
dt
Integration liefert uns die Abschätzung
K
(1 − e−2Lt ) + |x(0)|2 e−2Lt , ∀ t ≥ 0
L
K
2
2
, |x(0)| , ∀ t ≥ 0 .
|x(t)| ≤ max
L
|x(t)|2 ≤
⇒
Ein solcher Fall ist in der Dynamik (und in der Praxis) sehr interessant.
Kapitel 5
Das Euler-Verfahren
Wir betrachten eine Anfangswertaufgabe (AWA)
dx
= f (t, x), x(t0 ) = x0
dt
und setzen voraus, dass f mindestens stetig differenzierbar ist und eine eindeutige Lösung x(t) = x(t; t0 , x0 ) in einem Intervall [t0 , T ] existiert. Im Allgemeinen
ist x(t; t0 , x0 ) nicht explizit bekannt. Daher wollen wir eine numerische Approximation finden. Das einfachste Verfahren, das eine solche Approximation erzeugt,
ist das Euler-Verfahren.
Wir betrachten eine gleichmäßige Zerlegung des Zeitintervalles [t0 , T ] mit
konstanter Schrittweite
T − t0
h=
>0
N
d.h. die diskreten Zeiten t0 , t1 ,. . .,tN , wobei tn+1 = tn + h oder tn = t0 + nh für
n = 0,1,. . ., N .
x
x(T ; t0 , x0 )
x(t; t0 , x0 )
x0
t1
t2
t3
t4
t0
32
t5
t
T
33
KAPITEL 5. DAS EULER-VERFAHREN
Das Euler-Verfahren ist durch die Differenzengleichung
xn+1 = xn + h f (tn , xn ),
n = 0, 1, . . .
definiert. Es ist eine explizite Einschritt-Iterationsmethode, d.h. xn+1 hängt direkt nur von xn ab. Solche Methoden sind ideal für einen digitalen Computer.
Eine heuristische Herleitung ist wie folgt: in jedem Teilintervall [tn , tn+1 ]
genügt die Lösung x(t) der Integralgleichung
x(t) = x(tn ) +
Z
t
f (s, x(s)) ds .
tn
Wegen der Stetigkeit ist
f (s, x(s)) ≈ f (tn , x(tn ))
für alle s ∈ [tn , tn+1 ], falls h > 0 genügend klein ist. Davon haben wir die
Approximation
Z tn+1
f (s, x(s)) ds
x(tn+1 ) = x(tn ) +
tn
tn+1
Z
≈
x(tn ) +
=
x(tn ) + f (tn , x(tn ))
=
f (tn , x(tn )) ds
tn
x(tn ) + h f (tn , x(tn ))
Z
|
tn+1
tn
{z
=h
ds
}
Eine alternative, geometrischere Herleitung: wir approximieren die Integralkurve in den Intervallen [tn , tn+1 ] durch die Tangentengerade der Integralkurve
in dem Punkt (tn , x(tn )):
x(tn ) + (t − tn )f (tn , x(tn ))
x(tn ) + hf (tn , x(tn ))
x(tn )
x(tn+1 )
34
KAPITEL 5. DAS EULER-VERFAHREN
Wir haben offensichtlich einen Fehler
Ln+1 = |x(tn+1 ) − x(tn ) − h f (tn , x(tn ))|
hier. Er heißt lokaler Diskretisierungsfehler (Abschneidefehler)
Aber es gibt eine Schwierigkeit: Nur in dem ersten Teilintervall [t0 , t1 ] fängt
das Euler-Verfahren an derselben Stelle x0 an wie die Differentialgleichung.
Schon im nächsten (und folgenden) Teilintervall [t1 , t2 ] fängt das Euler-Verfahren
an der Stelle x1 = x0 + h f (t0 , x0 ) an. Im Allgemeinen ist x1 6= x(t1 ).
x(t3 ; t2 , x2 )
L3
x3
x2
L2
x1
x(t3 ; t1 , x1 )
L1
x0
x(t3 ; t0 , x0 )
gesuchte Lösung
t0
t1
t2
t3
Dann ist der lokale Diskretisierungsfehler
L2 = |x(t2 ; t1 , x1 ) − x1 − h f (t1 , x1 ))| = |x(t2 ; t1 , x1 ) − x2 |
im Allgemeinen nicht identisch dem echten Fehler
E2 = |x(t2 ; t0 , x0 ) − x2 | .
Vielleicht wegen der stetigen Abhängigkeit von x(t) bzg. der Anfangsbedingungen werden wir erwarten, dass E2 ∼ L2 für h > 0 klein genug ist. Das ist aber
zu heuristisch. Wir brauchen tatsächlich den globalen Diskretisierungsfehler
En := |x(tn ; t0 , x0 ) − xn |
für jedes n = 0, 1, . . . , N .
Offensichtlich ist E0 = 0 und E1 = L1 , aber im Allgemeinen ist En 6= Ln
für n ≥ 2.
Der lokale Diskretisierungsfehler ist ein wichtiges Hilfsmittel, um den globalen Diskretisierungsfehler abzuschätzen. Er ist leicht abzuschätzen durch eine
35
KAPITEL 5. DAS EULER-VERFAHREN
Tayler-Entwicklung.
Sei x(t) = x(t; tn , xn ). Dann existiert ein θn ∈ [tn , tn+1 ], so dass
x(tn+1 ) = x(tn ) + h x′ (tn ) +
wobei x′ (t) =
1
· x′′ (θn )
2!
d
x(t) = f (t, x(t)) ist ⇒ x′ (tn ) = f (tn , x(tn )) und
dt
x′′ (t) =
d2
x(t)
dt2
d
x(t)
dt
=
d
dt
=
d
{ f (t, x(t)) }
dt
=
Daher folgt
∂f
∂f
(t, x(t)) +
(t, x(t)) · f (t, x(t))
∂t
∂x{z
|
}
stetig, weil f stetig differenzierbar ist
Ln+1 = |x(tn+1 ) − x(tn ) − h f (tn , x(tn ))| =
wobei
M := max
t0 <t≤T
|x|≤R
1
1 2 ′′
h |x (θn )| ≤ h2 M
2!
2
∂f
∂f
+
· | f (t, x)|
(t,
x)
(t,
x)
< ∞.
∂t
∂x
Diese Abschätzung ist sehr grob, aber theoretisch sehr nützlich. Sie zeigt, dass
der lokale Diskretisierungsfehler von zweiter Ordnung ist, d.h. Ln ≈ 0(h2 ).
Aber, wir brauchen eine Abschätzung für den globalen Diskretisierungsfehler
En . Dafür werden wir eine Differenzenungleichung herleiten. Zunächst, von der
Taylor-Entwicklung (wie oben) bekommen wir für ein θn′ ∈ [tn , tn+1 ]
x(tn+1 ; t0 , x0 ) =
=
x(tn ; t0 , x0 ) + h x′ (tn ; t0 , x0 ) +
1 2 ′′ ′
h x (θn ; t0 , x0 )
2
x(tn ; t0 , x0 ) + h f (tn , x(tn ; t0 , x0 )) +
1 2 ′′ ′
h x (θn ; t0 , x0 ) .
2
Daraus folgt:
En+1
= |x(tn+1 ; t0 , x0 ) − xn+1 |
1
= x(tn ; t0 , x0 ) + h f (tn , x(tn ; t0 , x0 )) + h2 x′′ (θn′ ; t0 , x0 )
2
− xn − h f (tn , xn )
≤ |x(tn ; t0 , xn ) − xn | +h|f (tn , x(tn ; t0 , x0 )) − f (tn , xn )|
|
{z
}
En
36
KAPITEL 5. DAS EULER-VERFAHREN
1
+ h2 |x′′ (0′n ; t0 , x0 )|
2
1
≤ En + h L |x(tn ; t0 , x0 ) − xn | + h2 M
|
{z
} 2
En
d.h. En+1 ≤ (1 + h L)En +
1
2
M h2 ,
eine Differenzenungleichung !
Bemerkung Durch Induktion können wir zeigen, dass die Lösung“ der
”
allgemeinen Differenzenungleichung
Xn+1 ≤ αXn + β
mit α ≥ 0
der Abschätzung
Xn ≤ αn X0 + β(1 + α + . . . + αn−1 )
genügt (etwa wie eine diskrete Gronwall-Ungleichung!)
In unserem Fall haben wir
α = 1 + h L,
β=
1
M h2 ,
2
E0 = 0 .
Daher gilt
En ≤ β 1 + α + . . . + αn−1
=
αn − 1
· β,
α−1
=
(1 + h L)n − 1 1
· M h2
1 + hL − 1
2
=
{(1 + h L)n − 1}
≤
nhL
M
·h
e
−1 ·
2L
≤
d.h. En ≤ CT · h.
weil α > 1
M
· h1
2L
n
o M
eL(T −t0 ) − 1 ·
·h
2L
Die Iterationen xn und die globalen Diskretisierungsfehler En hängen offensichtlich von der Schrittweite h ab. Wir werden xn (h) bzw. En (h) schreiben.
Von oben haben wir die Fehlerabschätzungen
0 ≤ En (h) := |x(t0 +nh; t0 , x0 )−xn (h)| ≤ CT ·h
für n = 0, 1, . . . , Nh =
T − t0
h
Diese Abschätzung ist nur von der ersten Ordnung – wir haben eine Potenz
zwischen dem lokalen und dem globalen Diskretisierungsfehler verloren.
37
KAPITEL 5. DAS EULER-VERFAHREN
Wir haben die Konvergenz
lim
max En (h) = 0.
hց0 0≤n≤Nh
Insbesondere konvergieren die Euler-Polygonzüge gegen die erwünschte Lösungskurve
als h → 0.
x
x0
gesuchte Lösung
t
t0
T
Die Konstante CT hängt von der Länge des Zeitintervalles [t0 , T ] ab, sowie
von den Eigenschaften der Vektorfeldfunktion f . Wir haben CT ≈ eT . Daher
ist diese Abschätzung nutzlos für asymptotisches Verhalten, d.h. für T → ∞.
Kapitel 6
Einschrittverfahren
Das Euler-Verfahren
xn+1 = xn + h f (tn , xn )
ist das einfachste, nichttriviale Beispiel eines expliziten Einschrittverfahrens,
d.h. xn+1 hängt explizit von xn (und direkt nur von xn ) ab.
Die allgemeine Form eines expliziten Einschrittverfahrens mit konstanter
Schrittweite h > 0 ist
xn+h = xn + h F (tn , xn ; h),
wobei F Inkrementenfunktion heißt.
z.B. für das Euler-Verfahren ist F (t, x; h) ≡ f (t, x).
Im Allgemeinen hängt F auch von h ab. Z.B. für das Heun-Verfahren haben
wir
1
{ f (t, x) + f (t + h, x + h f (t, x)) } .
2
Offensichtlich muß die Inkrementfunktion F eine Beziehung zu der Vektorfeldfunktion f haben, wenn wir ein verträgliches“ numerisches Verfahren haben
”
wollen.
F (t, x; h) =
Frage:
Wie können wir solche F finden?
Wie in dem Euler-Fall können wir entweder
1. eine Taylor-Enwicklung der DGL-Lösung benutzen, oder
2. eine Approximation des Integrals in der Integralsgleichungsdarstellung der
Lösung benutzen.
38
39
KAPITEL 6. EINSCHRITTVERFAHREN
6.1
Taylor-Verfahren
Wir betrachten nur den 1-dimensionalen Fall, um alles zu vereinfachen.
Sei f p-mal stetig differenzierbar in beiden Variablen und sei x(t) = x(t; tn , xn )
die eindeutige Lösung der Anfangswertaufgabe
dx
= f (t, x),
dt
x(tn ) = xn .
Dann nehmen wir die Taylor-Entwicklung von p-ter Ordnung der Funktion
x(t) um (tn , x(tn )) in t = tn+1 . Es existiert θh′ ∈ [tn , tn+1 ], so dass
x(tn+1 ) = x(tn ) + h x(1) (tn ) +
1
1
1 2 (2)
h x (tn ) + . . . + hp x(p) (tn ) +
hp+1 x(p+1) (θh′ )
2!
p!
(p + 1)!
|
{z
}
Restterm
Hier sind die Ableitungen x(j) (t) rekursiv definiert durch
d
x(t)
dt
=
f (t, x(t))
x(2) (t) =
d (1)
x (t)
dt
=
d
f (t, x(t)) =
dt
x(3) (t) =
d (2)
x (t)
dt
=
x(1) (t) =
∂
∂
+f
∂t
∂x
∂f
∂f
+f
∂t
∂x
= D2 f (t, x(t))
Df (t, x(t))
(t, x(t)) =: Df (t, x(t))
=
=
∂ 2f
∂f ∂f
∂2f
∂2f
+
+
f
+
f
+f
∂t2
∂t ∂x
∂t∂x
∂x∂t
∂
∂
+f
∂t
∂x
∂f
∂f
+f
∂t
∂x
∂f
∂x
2
+ f2
∂2f
,
∂x2
wobei D totale Ableitung von f bzg. der DGL heißt.
Im Allgemeinen schreiben wir
x(j+1) (tn ) = Dj f (t, x(t))|t=tn = Dj f (tn , x(tn ))
für j = 0, 1, . . . , p, wobei D0 f ≡ f zu verstehen ist. Dann vernachlässigen wir
den Restterm. Es folgt die Approximation
p
X
1 j j−1
h D f (tn , x(tn )),
x(tn+1 ) ≈ x(tn ) +
j!
j=1
die das folgende iterative Verfahren motiviert
xn+1
p
X
hj j−1
D
f (tn , xn )
= xn +
j!
j=1
40
KAPITEL 6. EINSCHRITTVERFAHREN
oder
xn+1 = xn + h
p−1
X
i=0
hi
Di (tn , xn ) ,
(i + 1)!
d.h. ein explizites Einschrittverfahren mit der Inkrementenfunktion
F (t, x; h) =
p−1
X
i=0
hi
Di f (t, x) .
(i + 1)!
Dieses Verfahren heißt Taylor-Verfahren der p-ten Ordnung
Beispiele:
(p = 1)
xn+1 = xn + h f (tn , xn )
Euler-Verfahren
mit F (t, x; h) = f (t, x)
∂f
∂f
(tn , xn ) + f (tn , xn )
(tn , xn )
∂t
∂x
1
∂f
∂f
mit F (t, x; h) = f (t, x) + h
(t, x) + f (t, x) ·
(t, x)
2
∂t
∂x
(p = 2)
xn+1 = xn + h f (tn , xn ) +
1 2
h
2
Es ist leicht zu beweisen, dass der lokale Diskretisierungsfehler die (p + 1)-te
Ordnung besitzt:
Ln+1
:= |x(tn+1 ; tn , xn ) − xn+1 |
1
1
hp+1 |Dp f (θn , x(θn ))| ≤
Mp · hp+1
=
(p + 1)!
(p + 1)!
wobei die Konstante Mp durch
Mp := max |Dp f (t, x)|
t0 ≤t≤T
|x|≤R
für ein geeignetes R groß genug definiert ist. (R ist groß genug, so dass |x(t)| ≤ R
für alle betrachteten Lösungen).
Das obige Verfahren als ein Verfahren der p-ten Ordnung zu beschreiben ist
richtig wie wir später in einem Satz beweisen werden. Im Allgemeinen verlieren
wir eine Potenz in der Ordnung zwischen dem lokalen und dem globalen Diskretisierungsfehler.
⇒
Das Taylor-Verfahren der p-ten Ordnung hat Konvernzordnung p!
Beispiel
Betrachte f (t, x) = tx und die entsprechenede totale Ableitung
D=
∂
∂
∂
∂
+f
=
+ tx
∂t
∂x
∂t
∂x
KAPITEL 6. EINSCHRITTVERFAHREN
41
bzg. einer Lösung der Differentialgleichung. Hier gelten
Df
=
∂f
∂
∂
∂f
+f
= {tx} + {tx} {tx} = x + tx · t = x(1 + t2 )
∂t
∂x
∂t
∂x
D2 f
=
∂
∂
∂
∂
{Df } + f
{Df } = {x(1 + t2 )} + tx
{x(1 + t2 )}
∂t
∂x
∂t
∂x
=
x · 2t + tx · (1 + t2 ) = x · (3t + t3 )
Die Vorschriften für die entsprechenden Taylor-Verfahren von Ordnung p =
1, 2, 3, . . . lauten
p=1
xn+1
= xn + h f (tn , xn ) = xn + h tn xn
p=2
xn+1
= xn + h f (tn , xn ) +
= xn + htn xn +
p=3
xn+1
1 2
h D f (tn , xn )
2!
1 2
h xn (1 + t2n )
2
1 2
1
h D f (tn , xn ) + h3 D2 f (tn , xn )
2!
3!
1
1
= xn + h tn xn + h2 xn (t + t2n ) + h3 xn (3tn + t3n )
2
6
= xn + h f (tn , xn ) +
usw.!
Taylor-Verfahren sind in der Praxis selten benutzt – wegen der Notwendigkeit die höheren Ableitungen herzuleiten – obwohl, heutzutage kann maple
diese Aufgabe erleichtern.
Taylor-Verfahren sind theoretisch sehr nützlich, um die Ordnung des lokalen
Diskretisierungsfehlers eines anderen Einschrittverfahrens zu finden – man vergleicht eine Entwicklung des Verfahrens mit einem geeigneten Taylor-Verfahren.
Kapitel 7
Einschrittverfahren durch
Integralapproximation
Wir können eine andere Art Einschrittverfahren durch Approximationen des
Integrals in der Integralgleichungsdarstellung der DGL-Lösung herleiten. Solche
Verfahren brauchen nur die Berechnung von der Funktion f und nicht von deren
Ableitungen.
In den Teilintervallen [tn , tn+1 ] gilt es die Integralgleichung
x(t) = x(tn ) +
Z
t
f (s, x(s)) ds
tn
für eine Lösung x = x(t) der DGL. Die Integralfunktion F (t) = f (t, x(t)) ist
stetig, daher integrierbar in [tn , tn+1 ]. Wir können verschiedene IntegralapproRt
ximationsregeln für das Integral tnn+1 F (s) ds verwenden, z.B. Rechteckregel,
Trapezregel und Simpsonsregel.
7.1
Rechteckregel
Mit dem linken Randpunkt als Berechnungspunkt lautet die Rechteckregel
Z tn+1
Z tn+1
F (tn ) ds = (tn+1 − tn ) F (tn )
F (s) ds ≈
tn
tn
davon bekommen wir die Approximation
x(tn+1 ) ≈ x(tn ) + (tn+1 − tn ) f (tn , x(tn )) ,
die das Euler-Verfahren motiviert
xn+1 = xn + h f (tn , xn )
42
KAPITEL 7. EINSCHRITTVERFAHREN DURCH INTEGRALAPPROXIMATION43
Mit dem rechten Randpunkt als Berechnungspunkt
Z tn+1
Z tn+1
F (tn+1 ) ds = (tn+1 − tn ) F (tn+1 ) .
F (s) ≈
tn
tn
In diesem Fall bekommen wir ein impliziertes Verfahren
xn+1 = xn + h f (tn+1 , xn+1 )
das das implizite Euler-Verfahren heißt.
Bemerkung: Implizite Verfahren brauchen zusätzliche Arbeit in jedem
Iterationsschritt, um die implizite Gleichung für xn+1 zu lösen, z.B. mit der
Newton-Methode. Trotzdem sind diese Art Verfahren oft benutzt, wegen ihrer
höheren numerischen Stabilität und der Möglichkeit größerer Schrittweite zu
benutzen – mehr darüber später.
7.2
Hier ist
Trapezregel
Z
tn+1
tn
F (s) ds ≈
tn+1 − tn
[F (tn ) + F (tn+1 )]
2
und wir bekommen nochmal ein impliziertes Verfahren
xn+1 = xn +
h
[f (tn , xn ) + f (tn+1 , xn+1 )] ,
2
das das Trapez-Verfahren heißt.
Um zu vermeiden, eine implizite Gleichung zu lösen, könnten wir das xn+1
an der rechten Seite der Trapez-Regel durch das xn+1 des entsprechenden EulerVerfahrens ersetzen. Dann bekommen wir ein explizites Verfahren, das das
Heun-Verfahren genannt ist
xn+1 = xn +
h
[f (tn , xn ) + f (tn+1 , xn + h f (fn , xn ))] .
2
Es ist ein explizites Einschrittverfahren mit Inkrementenfunktion
F (t, x; h) =
1
[f (t, x) + f (t + h, x + h f (t, x))] .
2
Solche heuristischen Anpassungen sind typisch. Daher müssen wir aufpassen, dass das so hergeleitete Verfahren mit der ursprünglichen DGL verträglich
oder konsistent ist – mehr darüber später!
KAPITEL 7. EINSCHRITTVERFAHREN DURCH INTEGRALAPPROXIMATION44
7.3
Runge-Kutta-Verfahren
Das Heun-Verfahren ist das einfachste Beispiel aus der Familie der Runge-KuttaVerfahren. Es hat zwei Berechnungspunkte der Funktion f für jede Iteration
(=Teilintervall). Diese sind die Zwischenstadien oder Stufen des Verfahrens.
Typische Runge-Kutta-Verfahren haben s ≥ 2 Stufen. Im Fall von zwei Stufen
hat die Inkrementen-Funktion des Verfahrens die allgemeine Gestalt
F (t, x; h) = αf (t, x) + β f (t + γh, x + γh f (t, x))
für geeignete Konstanten α, β, γ. Das Heun-Verfahren hat α = 21 , β =
= 1.
1
2
und γ
Unsere Behandlung dieser Familie von Schemen ist typisch, aber leichter wie
für die komplizierten Runge-Kutta-Verfahren – wir leiten eine Taylor-Entwicklung
für die Funktion F (t, x; h) her und vergleichen das Ergebnis mit einem geeigneten Taylor-Verfahren – die entsprechenden Glieder sollen dieselben Koeffizienten
haben.
F (t, x; h) =
=
αf (t, x) + β f (t + γh, x + γh f (t, x))
∂f
∂f
αf (t, x) + β f (t, x) + γh (t, x) + γh f (t, x)
(t, x) + . . .
∂t
∂x
Wir werden die (t, x, h) ausfallen lassen um alles zu vereinfachen:
∂f
∂f
F (t, x; h) = αf + βf f + γh
+ γh f ·
∂t
∂x
2
2
2
2 2∂ f
2 2 ∂ f
2 2 2∂ f
γ h
+ T.h.O
+ 2γ h f
+γ h f
∂t2
∂t∂x
∂x2
∂f
∂f
= (α + β) + βγh
+f
∂t
∂x
1
+
2!
βγ 2 h2
+
2!
2
∂2f
∂2f
2∂ f
+
2
f
+
f
∂t2
∂t∂x
∂x2
+ T.h.O
Das Taylor-Verfahren mit p = 3 hat die Inkrementen-Funktion
(
)
2
2
h2
h
∂f
∂2f
∂f ∂f
∂f
∂2f
∂f
2 ∂ f
+
F3 = f +
+f
+
+f
+2f
+f
2!
∂t
∂x
3!
∂t2
∂t ∂x
∂t∂x
∂x
∂x2
Wir subtrahieren und erhalten
F3 − F
= (1 − α − β)f +
+
1
2
1
+ h2
6
h2
∂2f
∂ 2f
∂2f
+ 2f
+ f2 2
2
∂t
∂t∂x
∂x
∂f ∂f
+f
∂t ∂x
∂f
∂x
1
− βγ 2
3
(
1
∂f
∂f
− βγ h
+f
2
∂t
∂x
2 )
+ T.h.O
KAPITEL 7. EINSCHRITTVERFAHREN DURCH INTEGRALAPPROXIMATION45
Die ersten 2 Terme verschwinden durch die Wahl
1 − α − β = 0,
1
− βγ = 0 .
2
Der dritte Term wird durch die Wahl 13 − γ 2 β = 0 auch verschwinden — aber
wir haben nichts im Allgemeinen gewonnen, weil der vierte Term bleibt — er
ist auch von der Ordnung 0(h2 ) hier. Durch die Wahl
α + β = 1,
βγ = 1/2
bekommen wir die im allgemeinen bestmögliche Abschätzung
|F3 − F | = 0(h2 )
Das bedeutet, dass das Heun-Verfahren wie das Taylor-Verfahren der 3ten Ordnung einen lokalen Diskretisierungsfehler Ln+1 von 3ter Odnung hat
Ln+1
= |x(tn+1 ; tn , xn ) − xn − h F (tn , xn , h)|
≤ |x(tn+1 ; tn , xn ) − xn − h F3 (tn , xn , ; h)|
+h |F3 (tn , xn ; h) − F (tn , xn ; h)|
≈
+ h
0(h2 )
= 0(h3 )
0(h3 )
| {z }
| {z }
lokaler DF des
Vergleich der
Taylor-Verfahrens
Verfahren
Von dem schon angekündigten Satz können wir schließen: Das Heun-Verfahren
hat globalen DF mit 2ter Ordnung, d.h. Konvergenzordnung p = 2.
Bemerkung: Das meistbenutzte Runge-Kutta-Verfahren hat s = 4 Stufen
und Konvergenzordnung p = 4. Seine Gestalt lautet
xn+1 = xn + h F (tn , xn ; h)
mit
F (t, x; h) =
1
{k1 (t, x, h) + 2 k2 (t, x, h) + 2 k3 (t, x, h) + k4 (t, x, h)}
6
und Hilfsfunktionen
k1 (t, x, h)
= f (t, x)
k2 (t, x, h)
= f
k3 (t, x, h)
h
h
= f t + , x + k2 (t, x, h)
2
2
k4 (t, x, h)
= f (t + h, x + h k3 x(t, x, h))
h
h
t + , x + k1 (t, x, h)
2
2
KAPITEL 7. EINSCHRITTVERFAHREN DURCH INTEGRALAPPROXIMATION46
Für f (t, x) ≡ f (t) (d.h. unabhängig von x) entspricht es der Simpsonsregel
für das Integral
Z tn +1
h
h
f (tn ) + 4 f tn +
+ f (tn+1 ) .
f (s) ds ≈
6
2
tn
Kapitel 8
Konvergenz und Konsistenz
Wir betrachten eine Anfangswertaufgabe
dx
= f (t, x), x(t0 ) = x0
dt
und ein entsprechendes Einschrittverfahren mit konstanter Schrittweite h > 0,
xn+1 = xn + h F (tn , xn ; h),
wobei tn = t0 + nh, n = 0, 1, 2, . . . .
1. es ist leicht die Ordnung des lokalen Diskretisierungsfehlers abzuschätzen,
2. im Sonderfalle des Euler-Verfahrens ist die Ordnung des globalen Diskret
isierungsfehlers eine Potenz niedriger als die des lokalen Diskretisierungsfehlers.
Diese letzte Beobachtung ist eine gemeinsame Eigenschaft aller guten“ Ein”
schrittverfahren. Wir haben den folgenden Satz schon angekündigt.
Satz
Ein Einschrittverfahren
xn+1 = xn + h F (tn , xn ; h)
habe den lokalen Diskretisierungsfehler von (p + 1)ter Ordnung und die
Inkrementenfunktion F genüge einer Lipschitz-Bedingung in allen drei
Variablen (t, x, h).
Dann hat der globale Diskretisierungsfehler des Einschrittverfahrens die
Ordnung p.
47
KAPITEL 8. KONVERGENZ UND KONSISTENZ
48
Beweis Der Beweis ist ähnlich wie im Euler-Fall, aber jetzt mit einer allgemeinen Inkrementenfunktion. Zunächst schreiben wir
x(tn+1 ; t0 , x0 ) − xn+1
= {x(tn ; t0 , x0 ) − xn } + h{F (tn , x(tn ; t0 , x0 ); h) − F (tn , xn ; h)}
+{x(tn+1 ; t0 , x0 ) − x(tn ; t0 , x0 ) − h F (tn , x(tn ; t0 , x0 ); h)} .
Hier haben wir x(tn ; t0 , xn ) und h F (tn , x(tn ; t0 , x0 ); h) addiert und subtrahiert.
Mit der Dreiecksungleichung erhalten wir dann:
kx(tn+1 ; t0 , x0 ) − xn+1 k
≤
kx(tn ; t0 , x0 ) − xn k + hkF (tn , x(tn ; t0 , x0 ); h) − F (tn , xn ; h)k
+kx(tn+1 ; t0 , x0 ) − x(tn ; t0 , x0 ) − h F (tn , x(tn ; t0 , x0 ); h)k
Der letzte Term an der rechten Seite ist der lokale Diskretisierungsfehler des
Einschrittverfahrens:
kx(tn+1 ; t0 , x0 ) − x(tn ; t0 , x0 ) − h F (tn , x(tn ; t0 , x0 ); h)k ≤ M hp+1
wir
Mit En = kx(tn ; t0 , x0 ) − xn k und En+1 = kx(tn+1 ; t0 , x0 ) − xn+1 k haben
En+1 ≤ En + h kF (tn , x(tn ; t0 , x0 ); h) − F (tn , xn ; h)k +M hp+1
{z
}
|
≤ Lkx(tn ; t0 , x0 ) − x0 k = L En
wegen der Lipschitz-Bedingung
und deshalb gilt die Ungleichung
En+1 ≤ (1 + Lh)En + M hp+1 .
Hier ist E0 = 0. Wie im Euler-Fall haben wir dann
En
(1 + Lh)n − 1
· M hp+1
(1 + Lh) − 1
M p
M p
h ≤ (eL(T −t0 ) − 1) ·
h
= [(1 + Lh)n − 1]
L
L
≤
Unser globaler Diskretisierungsfehler 0(hp ) hat daher die Ordnung p.
Bemerkung
1. In der Tat haben wir nur eine Lipschitz-Bedingung für F (t, x; h) in x
gleichmäßig in t und h benutzt.
2. Die vorausgesetzte Lipschitz-Bedingung folgt von der Glattheit der Vektorfeldfunktion f (t, x) der Differentialgleichung.
KAPITEL 8. KONVERGENZ UND KONSISTENZ
49
Z.B. das p-Taylor-Verfahren hat die Inkrementenfunktion
F (t, x, h) =
p−1
X
hi
Di f (t, x)
(i + 1)!
i=0
mit höchster totaler Ableitung Dp−1 f – daher soll f mindestens p-mal stetig
differenzierbar sein!
Z.B. das Heun-Verfahren hat lokalen DF von 3ter Ordnung: p + 1 = 3,
daher ist p = 2. Dieses Verfahren hat Konvergenzordnung p = 2.
8.1
Konsistenz
Die Herleitung vieler Einschrittverfahren ist oft heuristisch. Daher müssen wir
uns versichern, dass ein solches Verfahren der ursprünglichen Differentialgleichung verträglich“ ist. Natürlich könnten wir direkt beweisen, dass das nume”
rische Verfahren konvergiert. Der Begriff Konsistenz“ ergibt uns ein einfaches
”
Hilfsmittel, sofort zu sehen oder zu prüfen, dass ein Verfahren konvergieren wird,
ohne diese Tatsache direkt zu beweisen.
Sei (t, x) fest. Die Lösung x(·; t, x) der DGL genügt der Gleichung
Z
x(t + h; t, x) = x +
t+h
f (s, x(s; t, x)) ds
t
Eine einzelne Iteration des Einschrittverfahrens vom Anfangspunkt (t, x) genügt
der Gleichung
x(h) = x + h F (t, x; h)
Daher genügt der entsprechende lokale Diskretisierungsfehler der Gleichung
Z
1 t+h
f (s, x(s; t, x)) ds − F (t, x; h)
L := |x(t + h; t, x) − x(h)| = h h t
Von dem obigen Konvergenzsatz haben wir gesehen, dass die Ordnung des globalen DFs immer eine Potenz niedriger als die des lokalen DFs ist. Daher, um
Konvergenz zu versichern, brauchen wir
Z
1 t+h
f (s, x(s; t, x)) ds − F (t, x; h) = 0
lim h→0+ h t
oder umgeschrieben
lim F (t, x; h) = lim
h→0+
h→0+
1
h
Z
t
t+h
f (s, x(s; t, x)) ds = f (t, x)
KAPITEL 8. KONVERGENZ UND KONSISTENZ
50
Im Allgemeinen ist F mindestens stetig bzg. aller Variablen, dann haben
wir, dass die Bedingung
F (t, x, 0) = f (t, x),
∀ (t, x)
notwendig für die Konvergenz des Einschrittverfahrens ist. Wir werden hier beweisen, dass sie auch eine hinreichende Bedingung ist.
Definition des Begriffs Konsistenz“
Ein Einschrittverfahren mit
”
Inkrementenfunktion F heißt konsistent“, wenn
”
lim F (t, x; h) = f (t, x),
h→0+
∀ (t, x)
z.B. Die Familie von Runge-Kutta-Verfahren mit 2 Zwischenstufen hat die
Inkrementenfunktion
F (t, x; h) = αf (t, x) + βf (t + γh, x + γh f (t, x)) .
Daher gilt es
lim F (t, x; h) = (α + β)f (t, x)
h→0+
Solche Verfahren sind konsistent genau dann, wenn α + β = 1.
Satz Die Inkrementenfunktion F genüge einer Lipschitz-Bedingung in
allen drei Variablen (t, x, h). Das Einschrittverfahren konvergiert genau
dann, wenn es konsistent ist.
Beweis: Wegen des Existenz- und Eindeutigkeitssatzes hat die (neue) Anfangswertaufgabe
dz
= F (t, z; 0), z(t0 ) = x0
dt
eine eindeutige Lösung z(t) = z(t; t0 , x0 ), die stetig differenzierbar in t ist. Deshalb existiert vom Mittelwertsatz ein θn ∈ [0, 1] so, dass
z(tn+1 ) − z(tn ) =
Z
tn+1
F (s, z(s); 0) ds = h F (tn + θn h, z(tn + θn h); 0).
tn
Dann betrachten wir die Iterationen des Einschrittverfahrens
xn+1 = xn + h F (tn , xn ; h)
für n = 0, 1, 2, . . . mit demselben Anfangspunkt x0 .
en := |z(tn ; t0 , x0 ) − xn |, als den globalen DiskretisierungsWir definieren: E
fehler für die neue AWA.
51
KAPITEL 8. KONVERGENZ UND KONSISTENZ
Ähnlich (aber nicht identisch) wie vorher haben wir
z(tn+1 ) − xn+1
=
{z(tn ) − xn } + {z(tn+1 ) − z(tn )} − h F (tn , xn ; h)
=
{z(tn ) − xn } + h{F (tn + θn h, z(tn + θn h); 0) − F (tn , xn ; h)}
Daher gilt die Ungleichung
en+1
E
en + h kF (tn + θn h, z(tn + θn h); 0) − F (tn , xn ; h)k
≤ E
en + h kF (tn + θn h, z(tn + θn h); 0) − F (tn , z(tn ); 0)k
≤ E
+ h kF (tn , z(tn ); 0) − F (tn , xn ; h)k
en + h L {|tn + θn h − tn | + kz(tn + θn h) − z(tn )k}
≤ E
+ h L{kz(tn) − xn k + |h − 0|}
Z
tn +θn h
2
e
≤ (1 + L h)En + 2L h + L h F (s, z(s), 0)ds
tn
⇒
⇒
en+1 ≤ (1 + Lh)E
en + (2L + LM )h2
E
en ≤ (eL(T −t0 ) − 1) · L(2 + M ) · h
E
L
en ≤ CT h
d.h. E
für ein festes CT .
e0 = 0
E
Daher konvergieren die Iterationen des Einschrittverfahrens gegen die Lösung
z(t; t0 , x0 ) in dem Intervallen t0 ≤ t ≤ T .
Fall 1. Konsistenz ⇒ Konvergenz Sei das Einschrittverfahren konsistent,
d.h. (wegen der Lipschituz-Bedingung) haben wir
F (t, x; 0) ≡ f (t, x)
∀ (t, x)
Dann ist die Lösung z(t; t0 , x0 ) eine Lösung der Anfangswertaufgabe
dx
= f (t, x), x(t0 ) = x0 .
dt
Wegen der Eindeutigkeit der Lösung haben wir
z(t; t0 , x0 ) ≡ x(t; t0 , x0 ),
∀ t ∈ [t0 , T ] .
Die numerischen Iterationen konvergieren deshalb gegen die Lösung x(t; t0 , x0 )
der ursprünglichen Anfangswertaufgabe – wir haben Konvergenz !
KAPITEL 8. KONVERGENZ UND KONSISTENZ
52
Fall 2. Konvergenz ⇒ Konsistenz Das numerische Verfahren konvergiere
(gegen die Lösung x(t; t0 , x0 )). Daher haben wir x(t; t0 , x0 ) ≡ z(t; t0 , x0 ) und es
folgen x′ (t) ≡ z ′ (t).
Sei F (t0 , x0 ; 0) 6= f (t0 , x0 ) für irgendwelches (t0 , x0 ). Daher gilt
z ′ (t0 ) 6= x′ (t0 ) ,
was der Identität z(t) ≡ x(t) widerspricht. Deshalb muß das Verfahren konsistent sein, wenn es konvergiert.
Kapitel 9
Numerische Instabilität
Wir betrachten eine Anfangswertaufgabe
dx
= f (t, x), x(t0 ) = x0 ,
dt
die eine eindeutige Lösung x(t; t0 , x0 ) in einem Zeitintervall t0 ≤ t ≤ T besitzt.
Wir wollen diese Lösung numerisch approximieren durch ein entsprechendes
Einschrittverfahren
xn+1 = xn + h F (tn , xn ; h)
mit konstanter Schrittweite h > 0. Dann gilt tn = t0 + nh.
Wir setzen voraus, dass dieses Einschrittverfahren Konvergenzordnung p hat,
das heißt der globale Diskretisierungsfehler
En(h) := |x(tn ; t0 , x0 ) − xn |
genügt der Abschätzung
max En(h) ≤ CT hp ,
0≤n≤Nh
wobei Nh = (T − t0 )/h.
53
54
KAPITEL 9. NUMERISCHE INSTABILITÄT
x
x0
x(t; t0 , x0 )
t0
T
Das Computerzahlenfeld ist nur endlich. Es existiert ein ε0 > 0 (das MaschinenEpsilon), so dass
|x − y| ≥ ε0
für alle x 6= y in diesem Computerzahlenfeld. Daher dürfen wir die Schrittweite
h nicht zu klein wählen!
Frage: Ist das ein Problem?
Ja!!—(Manchmal geht es aber gut)
Beispiel: Die Anfangswertaufgabe
dx
= − 10N x,
dt
x(0) = x0
N
hat die eindeutige Lösung x(t) = e−10 t x0 , die monoton gegen x = 0 strebt
für t → ∞ – diese Konvergenz gegen 0 kann sehr schnell sein für N >> 1.
x
t
55
KAPITEL 9. NUMERISCHE INSTABILITÄT
Jetzt betrachten wir das Euler-Verfahren für diese Differentialgleichung
xn+1 = xn + h −10N xn
⇒
xn = 1 − h10N
⇒
n
x0
xn+1 = 1 − h10N xn
n = 0, 1, 2, . . .
Es ist klar, dass xn = αn x0 monoton gegen 0 strebt genau dann, wenn 0 < α < 1
ist. In unserem Euler-Fall haben wir
α = 1 − h 10N
so brauchen wir
0 < 1 − h 10N < 1
oder
h < 10−N .
x
Euler
t
Das Problem ist, wir könnten N >> 1 haben, so dass 10−N < ε0 , dem
Maschinen-Epsilon.
Dann haben wir keine Wahl und müssen h > 10−N benutzen. Dann bekommen wir
α = 1 − h 10N < 0 .
Wenn − 1 < α < 0, oder 10−N < h < 2 · 10−N , streben die numerischen
Iterationen gegen 0, aber mit Vorzeichen wechselnen Schwankungen
KAPITEL 9. NUMERISCHE INSTABILITÄT
56
Das ist offensichtlich unrealistisch. Die Situation ist noch schlimmer für
größere h — dann bekommen wir zunehmende Schwankungen.
Z.B. Für h = 100 · 10−N ⇒ α = − 99 haben wir
xn = (− 99)n x0
Das obige Beispiel ist etwas künstlich, aber das Phänomen kann innerhalb
eines komplizierten Beispiels entstehen.
Beispiel: Betrachte ein 2-dimensionales lineares System
dx
dt
dy
dt
=
− 10N x
=
x−y
57
KAPITEL 9. NUMERISCHE INSTABILITÄT
oder
d
dt
x
y
!
=
"
− 10N
1
0
−1
#
A=
"
− 10N
1
0
−1
#
Die Matrix
x
y
!
hat Eigenwerte λ1 = − 10N , λ2 = − 1 mit entsprechenden Eigenvektoren
1 + 10N
1
V1 =
Die allgemeine Lösung ist
!
x(t)
=a
y(t)
!
1 + 10N
1
,
V2 =
!
N
e−10
t
0
1
+b
!
0
1
.
!
e−t ,
wobei a und b beliebige Konstanten sind.
Mit dem Anfangswert (x(0), y(0)) = (0, 1) haben wir die Lösung (x(t), y(t)) =
(0, e−t ) .
Das Euler-Verfahren hat hier die Vorschrift
xn+1 = xn − h 10N xn ,
yn+1 = yn + h xn − hyn .
Für x0 = 0, sehen wir, dass xn ≡ 0 und dann ist
yn+1 = yn − hyn = (1 − h)yn
d.h xn ≡ 0 und yn = (1 − h)n y0 → 0 monoton für n → ∞, falls 0 < h < 1.
Zum Beispiel wir können h = 100 · 10−N wählen. Dann ist das EulerVerfahren
xn+1 = − 99xn ,
yn+1 = 100 10−N xn + 1 − 10−N +2 yn
so xn = (−99)n x0 ≡ 0 für alle n ≥ 0, weil x0 ≡ 0. Alles was bleibt ist
yn+1 = 1 − 10−N +2 yn .
Aber wenn wir einen kleinen Fehler in x0 haben, so x0 6= 0, mit einer entsprechenden Wirkung in yn .
58
KAPITEL 9. NUMERISCHE INSTABILITÄT
Bemerkung: Implizite Verfahren werden oft benutzt, weil sie solche numerischen Instabilitäten vermeiden können, z.B. impliziertes Euler-Verfahren
xn+1 = xn + h f (tn+1 , xn+1 )
für die DGL
dx
= − 10N x,
dt
d.h. mit f (t, x) = − 10N x, lautet
xn+1 = xn − h + 10N xn+1
die algebraisch lösbar ist. Wir bekommen
1 + h 10N
und daher ist
xn+1 =
oder
xn =
1
1 + h 10N
xn+1 = xn
1
xn
1 + h 10N
n
x0 → 0 für
n→∞
für irgendwelches h > 0.
Dann können wir h ≫ 10−N hier benutzen.
Im Allgemeinen ist ein implizites Verfahren nur numerisch lösbar. Das braucht
zusätzliche Arbeit für jeden Zeitschritt. Aber wir können ein viel größeres h benutzen und die Gesamtarbeit kann tatsächlich weniger sein.
Kapitel 10
Ljapunov-Stabilität
Im Prinzip können wir die Lösung x(t; t0 , x0 ) einer AWA
dx
= f (t, x), x(t0 ) = x0 ,
dt
die für alle t ≥ t0 existiert, auf jedem endlichen Zeitintervall [t0 , T ] durch ein
Einschrittverfahren approximieren – wir brauchen nur die Schrittweite h > 0
klein genug zu wählen, um die Abschätzung CT hp des globalen Diskretisierungsfehlers klein genug zu machen.
Aber Die Konstante CT ∼ eT , so diese Abschätzung ist nutzlos, wenn wir
langfristiges Verhalten, d.h. das Verhalten von x(t) für t → ∞, untersuchen
wollen. Zunächst werden wir uns auf solche Fälle konzentrieren in denen die
erwünschte Lösung stabil ist.
Um alles zu vereinfachen, wenden wir uns dem autonomen Fall zu und beschränken uns auf die Betrachtung einer Ruhelage ϕ(t) ≡ x∗ ∀ t
dx
= f (x),
f (x∗ ) = 0.
dt
Die Lösung einer autonomonen DGL genügt der Eigenschaft x(t; t0 , x0 ) ≡ x(t −
t0 ; 0, x0 ). Daher können wir immer t0 = 0 nehmen und die entsprechende Lösung
einfach als x(t; x0 ) schreiben
Definition: Ljapunov-Stabilität einer Ruhelage“
Eine Ruhelage x∗
”
einer autonomen DGL heißt stabil (im Sinne von Ljapunov), wenn es zu jedem
ǫ > 0 ein δ = δ(ǫ) > 0 gibt, mit folgender Eigenschaft: Für jeden Anfangswert
x0 mit kx0 − x∗ k < δ existiert die Lösung x(t; x0 ) für alle t ≥ 0 und genügt
der Abschätzung
kx(t; x0 ) − x∗ k < ǫ für alle t ≥ 0.
Andernfalls heißt die Ruhelage x∗ instabil.
59
60
KAPITEL 10. LJAPUNOV-STABILITÄT
x∗ + ε
x∗ + δ
x∗
x∗ − δ
x∗ − ε
t
Beispiel: Betrachte die lineare skalare DGL
dx
= αx
dt
mit Lösung x(t; x0 ) = x0 eαt . Falls α 6= 0 ist die Ruhelage x∗ ≡ 0 eindeutig und
zusätzlich
stabil, falls α < 0. Nimm δ = ǫ !
instabil, falls α > 0, weil für jedes ǫ > 0 gilt für
x0,n =
1
n
⇒
kx(t, x0,n )k ≥ ǫ
∀t ≥ tn = ln(nǫ)
Bemerkung Von der stetigen Abhängigkeit bzg. des Anfangswertes haben
wir immer: ∃ δ = δ(ǫ, T ) > 0 für jedes ǫ > 0 und 0 < T < ∞, so dass
kx0 − x∗ k < δ
⇒
kx(t; x0 ) − x(t; x∗ ) k < ǫ
| {z }
∀0≤t≤T .
≡x∗
Aber im Allgemeinen ist inf T >0 δ(ǫ, T ) = 0 möglich, z.B. δ(ǫ, T ) = ǫe−T für die
DGL
dx
= x.
dt
In dem obigen Beispiel genügt die Ruhelage x∗ einer stärkeren Eigenschaft
für α < 0:
x(t, x0 ) → x∗ für t → ∞ ,
d.h. einer Attraktivitätseigenschaft.
61
KAPITEL 10. LJAPUNOV-STABILITÄT
Definition: Attraktivität“ Eine Ruhelage x∗ heißt attraktiv, wenn
”
es ein δ0 > 0 gibt mit folgender Eigenschaft: für jeden Anfangswert x0
mit kx0 − x∗ k < δ0 existiert die Lösung x(t; x0 ) für alle t ≥ 0 und es gilt
lim kx(t; x0 ) − x∗ k = 0
t→∞
Beispiel: Die nichtlineare DGL
dx
= x − x2
dt
hat Ruhelagen 0 und 1
x∗ = 1 stabil + attraktiv
x∗ = 0 instabil
Definition: asymptotische Stabilität“
Eine Ruhelage x∗ heißt
”
asymptotisch stabil, wenn sie stabil und attraktiv ist.
Bemerkung: In dem eindimensionalen Fall oder in dem linearen Fall:
Attraktiv ⇒ Stabil
.
Im Allgemeinen sind die beiden Begriffe unabhängig.
Beispiel: Betrachte die folgende 2-dimensionale DGL in Polarkoordinaten
dr
dθ
1
2
2
=r−r ,
= sin
θ .
dt
dt
2
Die Ruhelagen (in cartesischen Koordinaten) sind (x∗ , y ∗ ) = (0, 0) und (x∗ , y ∗ ) =
(1, 0). Der Einheitskreis r = 1 ist auch eine invariante Kurve.
62
KAPITEL 10. LJAPUNOV-STABILITÄT
Die
Ruhelage
(x∗ , y ∗ ) = (1, 0) ist
attraktiv aber nicht
stabil.
10.1
Lineare Systeme
Sei A eine d× d konstante Matrix und betrachte die d-dimensionale lineare DGL
dx
= Ax
dt
Ruhelagen: x∗ = 0 ist die einzige Ruhelage, falls det A 6= 0. Sonst gibt es
einen linearen Teilraum von Ruhelagen.
Die Lösung lautet x(t; x0 ) = eAt x0 , wobei
eAt =
∞
X
1 j j
t A
j!
j=0
eine d × d Matrix ist. (Die Reihe hier konvergiert für jede Matrix A und jedes t
≥ 0.
Betrachte die Eigenwerte und Eigenvektoren der Matrix A:
Avi = λi vi .
Im diagonalisierbaren Fall gibt es d linear-unabhängige Eigenvektoren v1 , v2 ,
. . ., vd , die Matrix P = [v1 , . . . , vd ] (die vi sind die Spalten hier) ist invertierbar
und


λ1
0


..
 = PΛ ,
AP = P 
.


0
λd
⇒
A = P ΛP −1
⇒
Aj = P Λj P −1 .
Daher gilt:

eAt = P 


X 1

tj Λj  P −1 = P eΛt P −1 = P 

j!
j=0
eλ1 t
0
..
0
.
eλd t

 −1
P ,

63
KAPITEL 10. LJAPUNOV-STABILITÄT
weil


Λj = 

λ1
0
..
.
0
λd
j



 =


λj1
0
..
.
λjd
0
Im folgenden ist die Lösung x(t; x0 ) eine
der Funktionen eλ1 t , . . ., eλd t :

eλ1 t
0

.
..
x(t; x0 ) = P 

0
eλd t




für jedes j ≥ 0 .
vektorwertige lineare Kombination

d
X
 −1
 P x0 =
cj eλj t

j=1
wobei c1 , . . ., cd d-dimensionale Vektoren sind.
In dem allgemeinen nichtdiagonalisierbaren Fall müssen wir die entsprechende Jordan-Form A = QJQ−1 verwenden. Dann hat die Lösung die Gestalt
x(t; x0 ) = QeJt Q−1 x0 =
j −1
NA dX
X
cl,j tl eλj t ,
j=1 l=0
wobei
PNA
j=1
dj = d.
Ein Eigenwert λj heißt halbeinfach, wenn dj = 1. In diesem Fall sind die
algebraische und geometrische Vielfachheiten identisch.
⇒ es gibt keine Funktionen wie ti eλj t für i ≥ 1 !
64
KAPITEL 10. LJAPUNOV-STABILITÄT
Satz: Eigenwertbedingungen für Stabilität“
”
= 0 des linearen Systems
dx
= Ax
dt
ist genau dann
Die Ruhelage x∗
1. stabil, wenn alle Eigenwerte von A nichtpositive Realteile (d.h.
≤ 0) haben und diejenigen mit Realteil = 0 halbeinfach sind.
In diesem Fall gibt es eine Konstante M ≥ 1 mit
keAt k ≤ M
für alle t ≥ 0
2. asymptotisch stabil, wenn alle Eigenwerte von A negative Realteile
besitzen. Für alle α mit 0 < α < −max(Re(λ)) (wobei λ Eigenwert
von A ist) gibt es eine Konstante K = K(α) ≥ 1 mit
keAt k ≤ Ke−αt
für alle
t≥0
Beweis (Skizze) Wir schätzen die verschiedenen Terme der Form eλj t oder
√
t e ab. Sei λj = αj + ıβj , wobei ı = −1 ist (βj = 0 ist möglich). Dann haben
wir
eλj t = eλj t eβj t
⇒ |eλj t | = eαj t
l λj t
und
tl eλj t = tl eαj t eıβj t
⇒
|tl eλj t | = tl eαj t
Es gibt verschiedene Fälle:
1. αj < 0 oder αj = 0 mit dj = 1 (halbeinfach)
Im ersten Fall haben wir
eαj t → 0,
tl eαj t → 0
und in dem zweiten Fall: l = 0 und t0 e0t ≡ 1 bleibt beschränkt.
2. αj > 0 oder αj = 0 mit dj > 1. Dann (durch eine geeignete Wahl des
Anfangswerts) wählen wir eine Lösung, so dass nur der Term eαj t oder
der Term tl eαj t = tl anwesend ist. Dann gilt
kx(t; x0 )k = eαj t
oder kx(t; x0 )k = tl
für diese Lösung, und wir haben unsere Stabilität oder asmptotische Stabilität verloren.
65
KAPITEL 10. LJAPUNOV-STABILITÄT
3. Im Fall αj < 0 für alle j = 1, . . ., d haben wir die Abschätzung
l λ t
t e j = tl eαj t ≤ tl eρmax t = tl e(ρmax +α)t e−αt
weil αj ≤ ρmax < 0 und ρmax + α < 0 gilt. Definiere
K̃(α) =
max
l=0,...,dj −1
j=1,...,NA
tl e(ρmax +α)t
l>1
1
l=0
Dann ist K̃(α) ≥ 1. Deshalb folgt die Abschätzung
keAt k ≤ K1 · K̃(α)e−αt
(mit einer anderen Konstante K1 ≥ 1, weil die Komponenten von eAt
linearer Kombinationen der Terme tl eλj t sind).
Bemerkung
In diesem linearen Fall gilt
attraktiv ⇒ stabil
weil alle αj = Re (λj ) < 0 sind – der Fall αj = 0 nur für einen halbeinfachen
Eigenwert entsteht hier nicht.
10.2
Linearisierte Stabilität
Sei x∗ eine Ruhelage der nichtlinearen DGL
dx
= f (x)
dt
mit A = ∇f (x∗ ) 6= 0. Mit der Koordinatentranslation x → z = x − x∗ erhalten
wir
dz
dx
=
= f (x) = f (z + x∗ ) = f (z + x∗ ) − f (x∗ ) = Az + r(z)
dt
dt
d.h. die DGL
dz
= Az + r(z)
dt
66
KAPITEL 10. LJAPUNOV-STABILITÄT
mit der Ruhelage z ∗ = 0, wobei r(0) = 0 in Rd und ∇r(0) = 0 in Rd×d . (Die
Funktion f muß glatt genug sein).
Satz: Linearisierte asymptotische Stabilität“
”
autonomes System der Form
Gegeben sei ein
dx
= Ax + r(x)
dt
(10.1)
mit A ∈ Rd×d und einer auf einer offenen Nullumgebung D ⊂ Rd definierten C 1 -Funktion r : D → Rd mit
r(0) = 0 ∈ Rd ,
∇r(0) = 0 ∈ Rd×d .
Besitzt die Matrix A nur Eigenwerte mit negativen Realteilen, so ist die
Ruhelage x∗ = 0 des Systems (10.1) asymptotisch stabil.
Vorbereitung (1) Für festes x0 genügt die Lösung x(t; x0 ) des nichtlinearen
Systems (10.1) der linearen nichtautonomen inhomogenen DGL
dx
= Ax + g(t),
dt
x(0) = x0 ,
mit g(t) := r(x(t; x0 )). Diese lineare DGL hat die explizite Lösung
Z
x(t) = eAt x0 +
t
eA(t−s) g(s) ds .
0
Daher genügt die obige nichtlineare Lösung x(t; x0 ) der Integralgleichung
x(t; x0 ) = eAt x0 +
Z
t
eA(t−s) r(x(s; x0 )) ds .
t0
Vorbereitung (2) Von dem vektorwertigen Mittelwertsatz
r(x) = r(x) − r(0) = ∇r(ξ∗ )x,
wobei ξ∗ = θx für ein bestimmtes θ ∈ [0, 1] ist. Sei M > 0 gegeben.
Wegen der Stetigkeit von ∇r(·) und ∇r(0) = 0 existiert ein ρ > 0, so dass
kxk ≤ ρ
⇒
k∇r(ξ∗ )k ≤ M
und daher kr(x)k ≤ M kxk für kxk ≤ ρ .
Beweis des Satzes Wegen der asymptotischen Stabilität des linearen Systems gibt es zwei Konstanten K ≥ 1 und α > 0, so dass
keAt k ≤ Ke−αt
∀t ≥ 0 .
67
KAPITEL 10. LJAPUNOV-STABILITÄT
Sei M beliebig mit 0 < M < α/K, dann ist M K − α < 0. Für dieses M
wähle ρ > 0, so dass
kr(x)k ≤ M kxk
kxk ≤ ρ .
für
Schließlich für jeden Anfangswert x0 mit kx0 k < ρ definieren wir die Endzeit“
”
T ∗ (x0 ) = sup {T > 0 : kx(t, x0 )k ≤ ρ ∀t ∈ [0, T ]} ,
zu der die Lösung x(t; x0 ) die ρ-Umgebung der Ruhelage verläßt (T ∗ (x0 ) = ∞
ist möglich).
Schritt 1: Wir werden zeigen, dass
kx(t; x0 )k ≤ Kkx0 ke(KM−α)t
für alle t ∈ [0, T ∗ (x0 )) .
Dafür betrachten wir die Integralgleichung
Z t
At
x(t; x0 ) = e x0 +
eA(t−s) r(x(s; x0 )) ds
0
für t ∈ [0, T ∗ (x0 )). Wir erhalten die Abschätzung
kx(t; x0 k
At
≤ ke k kx0 k +
≤ Ke
−αt
Zt
0
kx0 k +
keAt(t−s) k kr(x(s; x0 ))kds
Zt
0
Ke−α(t−s) M kx(s; x0 )kds
und deshalb gilt
αt
e kx(t; x0 )k ≤ Kkx0 k + KM
Z
0
t
eαs kx(s; x0 )k ds .
Wir schreiben U (t) = eαt kx(t; x0 )k so U (0) = kx0 k. Die obige Ungleichung
ist daher
Z t
U (t) ≤ KU (0) + KM
U (s) ds .
0
Von der Gronwall-Ungleichung folgt die Abschätzung
U (t) ≤ KU (0) eKMt ,
d.h.
eαt kx(t; x0 )k ≤ Kkx0 keKMt
oder
kx(t; x0 )k ≤ Kkx0 ke(KM−α)t
für alle
0 ≤ t < T ∗ (x0 )
68
KAPITEL 10. LJAPUNOV-STABILITÄT
Schritt 2: Mit KM − α < 0 fällt e(KM−α)t streng monoton ab für t → ∞.
Daher haben wir für kx0 k ≤ ρ/K ≤ ρ
kx(t; x0 )k ≤ ρe(KM−α)t ≤ ρ
für alle t ∈ [0, T ∗(x0 )). Dies zeigt zunächst, dass
T ∗ (x0 ) = ∞
für alle kx0 k ≤ ρ/K .
Schritt 3: Sei δ0 = ρ/K und KM − α < 0. Dann gilt
kx(t; x0 )k ≤ ρe(KM−α)t → 0
für alle x0 mit kx0 k ≤ δ0 := ρ/K
⇒
für
t→∞
Attraktivität.
Von der Attraktivität und der obigen Abschätzung
kx(t, x0 )k ≤ Kkx0 ke(KM−α)t
für t ∈ [0, T ∗ (x0 )] und kx0 k ≤ ρ bekommen wir die Abschätzung
kx(t; x0 )k < ε ∀ t ≥ 0,
für alle x0 mit kx0 k < δ(ε) :=
1
K
min{ε, ρ}
⇒ Stabilität.
ρ
wegen Attraktivität
ρ/K
T
wegen kx0 k ≤ ρ/K
Bemerkung Die Stabilität des linearen Systems allein (d.h. ohne Attraktivität) ist nicht stark genug, um die Stabilität des nichtlinearen Systems zu
versichern. Z.B. für die triviale DGL
dx
=0
dt
69
KAPITEL 10. LJAPUNOV-STABILITÄT
ist die Ruhelage x∗ = 0 stabil aber nicht attraktiv (sowie für alle anderen
Lösungen, da alle Lösungen konstant sind!). Diese DGL ist die Linearisierung
der folgenden DGLen
10.3
dx
dt
=
−x3
⇒
die Ruhelage x∗ = 0 ist stabil
dx
dt
=
+x3
⇒
die Ruhelage x∗ = 0 ist instabil
Allgemeine Systeme: Ljapunov-Funktionen
Wir betrachten eine allgemeine autonome DGL in Rd
dx
= f (x)
dt
mit einer Ruhelage x∗ = 0 (o.B.d.A., sonst können wir eine Koordinatentransformation für eine Ruhelage x∗ 6= 0 verwenden).
Sei x(t; x0 ) eine Lösung und sei V : Rd → R eine C 1 -Funktion.
Die totale Ableitung von V (x(t; x0 )) bzg. t lautet
∂V
dx
∂V
d
=
V (x(t; x0 )) =
(x(t; x0 )),
(x(t; x0 )), f (x(t; x0 )) .
dt
∂x
dt
∂x
Wir setzen voraus, dass die Funktionen V und f der algebraischen Bedingung
∂V
, f (x) ≤ 0,
∀ x ∈ Rd
∂x
genügen. Dann ist
d
V (x(t; x0 )) ≤ 0,
∀t ≥ 0.
dt
Wir integrieren und bekommen V (x(t; x0 )) ≤ V (x0 ) für alle t ≥ 0. Tatsächlich
haben wir
V (x(t; x0 )) ≤ V (x(s, x0 )),
t ≥ s ≥ 0.
Wir müssen die Lösung x(t, x0 ) hier nicht explizit kennen.
Zusätzlich sei V eine positiv-definite Funktion in dem Sinne: es existieren
monoton wachsende stetige Funktionen α,β : R+ → R+ mit
α(0) = β(0) = 0, 0 < α(r) < β(r)
∀ r > 0,
so dass
α(kxk) ≤ V (x) ≤ β(kxk) ∀ x ∈ Rd .
Für jedes ε > 0 definieren wir δ(ε) = β −1 (α(ε)) .
70
KAPITEL 10. LJAPUNOV-STABILITÄT
Dann haben wir
α(kx(t; x0 )k) ≤ V (x(t; x0 )) ≤ V (x0 ) ≤ β(kx0 k)
d.h. α(kx(t, x0 )k) ≤ β(kx0 k). Ist kx0 k < δ(ε), dann haben wir
α(kx(t, x0 )k) < β(δ(ε)) = β ◦ β −1 ◦ α(ε) = α(ε)
⇒
α(kx(t, x0 )k) < α(ε) ∀ t > 0
⇒
kx(t, x0 )k < ε ∀ t > 0
Daher ist die Ruhelage x∗ = 0 stabil.
Eine solche Funktion V heißt Ljapunov-Funktion.
Beispiel
Betrachte die DGL in R1
dx
= −x3
dt
d.h. mit f (x) = −x3 und der eindeutigen Ruhelage x∗ = 0. Betrachte die Funktion V (x) := x2 und z.B. α(r) = 1/2r2 ≤ β(r) = 2r2 . Dann gilt
dV
(x)f (x) = −2x4 ≤ 0
dx
⇒
∀x
x∗ = 0 ist stabil.
Dieses Beispiel genügt einer stärkeren algebraischen Bedingung:
dV
(x)f (x) < 0 ∀ x 6= x∗ = 0 .
dx
In diesem Fall ist die Ruhelage x∗ = 0 tatsächlich asymptotisch stabil.
x0 6= 0
⇒
V (x(t, x0 )) < V (x(s, x0 ))
t>s>0.
Daraus folgt
lim |x(t, x0 )| = 0.
t→∞
Der Beweis ist durch einen Widerspruch: Sei
lim V (x(t, x0 )) = V ∗ > 0
t→∞
Daher ∃ tj → ∞, so dass x(tj , x0 ) → x̄, wobei V (x̄) = V ∗ > 0.
Dann betrachten wir die Lösung x(t, x̄). Weil x̄ 6= x∗ = 0 ist, haben wir
dV
(x̄)f (x̄) < 0
dx
71
KAPITEL 10. LJAPUNOV-STABILITÄT
und daher ist
V (x(t, x̄) < V (x̄) = V ∗ ,
∀t > 0
Auch weil x(tj , x0 ) → x̄, wegen stetiger Abhängigkeit in Anfangsbedingungen
haben wir
x(tj + T, x0 ) = x(T, x(tj , x0 )) → x(T, x̄)
für jedes T > 0.
Aber V (x(tj + T, x0 )) > V ∗ > V (x(T, x̄)).
⇒
Widerspruch !
⇒
V ∗ = 0 und x(t) → x∗ = 0 .
Ein alternativer Beweis: Man beachte, dass V (x(t, x0 )) der folgenden Differentialungleichung genügt:
dV
d
V (x(t, x0 )) =
(x(t, x0 )) f (x(t, x0 )) ≤ −2|x(t, x0 )|4 = −2V (x(t, x0 ))2
dt
dx
daher gilt es
|x(t, x0 )|2 = V (x(t, x0 )) ≤
Bemerkung
V (x0 )
→0
1 + 2tV (x0 )
für t → ∞.
Ljapunov-Funktionen haben den
Vorteil: man braucht die Lösungen x(t, x0 ) nicht explizit zu kennen
Nachteil: man muß eine geeignete Funktion V finden.
Kapitel 11
Allgemeine
Runge-Kutta-Verfahren
Ein s-stufiges Runge-Kutta-Einschrittverfahren mit konstanter Schrittweite h
für eine autonome DGL hat die allgemeine Form
(n)
yi
= xn + h
s
X
(n)
,
ai,j f yj
s
X
(n)
bi f yi
j=1
xn+1
= xn + h
i=1
i = 1, . . . , s
wobei A = [ai,j ] eine s × s-Matrix und b = (bi ) ein s-dimensionaler Vektor ist.
Ps
Ps
Für Konsistenz brauchen wir i=1 bi = 1. Es ist günstig ci = j=1 ai,j zu
definieren. (Die ci sind notwendig für eine nichtautonome DGL: wir berechnen
(n) (n)
f (tn + ci hi , yi )).
Die Parameter eines Runge-Kutta-Verfahrens können durch ein Butcher-Tableau
c
A
b
dargestellt werden.
Beispiel 1
Das explizite Euler-Verfahren
xn+1 = xn + hf (xn )
(n)
(n)
hat y1 = xn und xn+1 = xn + hf (y1 ). Daher sind s = 1, a1,1 = 0, c1 = 0,
b1 = 1, und das Butcher-Tableau lautet
0
0
1
72
KAPITEL 11. ALLGEMEINE RUNGE-KUTTA-VERFAHREN
Beispiel 2
73
Das implizite Euler-Verfahren
xn+1 = xn + hf (xn+1 )
in der obigen Runge-Kutta-Darstellung lautet
y1
(n)
= xn + hf (y1 )
(n)
xn+1
= xn + hf (y1 )
(n)
Hier sind s = a1,1 = c1 = b1 = 1, und das Butcher-Tableau lautet
1
1
1
Beispiel 3
Das Heun-Verfahren
xn+1 = xn +
h
{f (xn ) + f (xn + hf (xn ))}
2
hat die Runge-Kutta-Darstellung
(n)
= xn
y2
(n)
= xn + hf (y1 )
xn+1
= xn + h 12 f (y1 ) + h 21 f (y2 )
y1
(n)
(n)
(n)
Das Butcher-Tableau lautet
0
1
0
0
1
0
1/2 1/2
NB Ein Runge-Kutta-Verfahren ist ein explizites Verfahren, falls ai,j = 0
für alle j ≥ i mit 1 ≤ i ≤ s. Sonst ist es ein implizites Verfahren.
Beispiel 4
Das Gauß-Runge-Kutta-Verfahren hat Butcher-Tableau
√
3− 3
6
√
3+ 3
6
1
4
√
3+2 3
12
1
2
√
3−2 3
12
1
4
1
2
Hier ist s = 2. Das Verfahren ist implizit.
Zwei wichtige Eigenschaften von Runge-Kutta-Verfahren sind
KAPITEL 11. ALLGEMEINE RUNGE-KUTTA-VERFAHREN
74
Satz 1 Die maximale Ordnung eines s-stufigen expliziten Runge-KuttaVerfahrens ist p = s.
Beispiel Euler-Verfahren ( p = s = 1), Heun-Verfahren (p = s = 2)
Satz 2
Die maximale Ordnung eines s-stufigen impliziten RungeKutta-Verfahrens ist p = 2s.
Beispiel Gauß-RK-Verfahren (p = 2s = 4).
Diese Ordnungen sind vergleichbar mit den Ordnungen der Newton-Cotesund Gauss-Quadratur-Formeln.
11.1
Numerische Ruhelagen
Wir betrachten eine autonome gewöhnliche DGL in Rd
dx
= f (x)
dt
und ein Einschrittverfahren mit konstanter Schrittweite
xn+1 = xn + h F (h, xn ),
das konsistent ist, d.h. F (0, x) ≡ f (x), ∀x.
Sei x∗ eine Ruhelage der DGL, d.h. f (x∗ ) = 0.
Beispiel Euler-Verfahren xn+1 = xn + hf (xn )
da f (x∗ ) = 0 so ist xn ≡ x∗ ∀n, ∀h
⇒
x∗ ist auch Ruhelage des Euler-Verfahrens für alle Schrittweiten h > 0.
Beispiel Heun-Verfahren xn+1 = xn +
F (h, x) =
h
{f (xn ) + f (xn + hf (xn ))} mit
2
1
{f (x) + f (x + hf (x))}
2
Es gilt
F (h, x∗ ) =
⇒
1
1
{f (x∗ ) + f (x∗ + hf (x∗ ))} = {0 + f (x∗ + 0)} = 0
2
2
x∗ ist Ruhelage des Heun-Verfahrens für alle Schrittweiten h > 0.
75
KAPITEL 11. ALLGEMEINE RUNGE-KUTTA-VERFAHREN
Insbesondere für die Runge-Kutta-Verfahren ist x∗h ≡ x∗ eine Ruhelage für
alle h > 0 (klein genug).
Aber im Allgemeinen muß eine Ruhelage x∗ der DGL keine Ruhelage des
numerischen Verfahrens sein, d.h. es gilt nicht immer
f (x∗ ) = 0
⇒
F (h, x∗ ) = 0 ∀h .
Beispiel Sei F (h, x) = f (x) + h in R1 . Das numerische Verfahren
xn+1 = xn + h{f (xn ) + h}
mit dieser Funktion F ist etwas künstlich, aber immer noch konsistent: F (0, x)
≡ f (x), ∀x.
Sei x∗ eine Ruhelage der DGL: d.h. f (x∗ ) = 0. Dann haben wir
F (h, x∗ ) = f (x∗ ) + h = 0 + h = h 6= 0,
∀h > 0
d.h. x∗ ist keine Ruhelage des numerischen Verfahrens für irgendwelche Schrittweiten h > 0.
Frage: Hat das NV eine naheliegende Ruhelage?
Leider nicht immer! z.B. nimm f (x) = x2 in dem obigen Verfahren. Dann
ist F (h, x) = f (x) + h = x2 + h, aber
x2 + h 6= 0 ∀x, falls h > 0
F (h, x)
f (x)
h
x
Die f -Kurve soll die x-Achse schneiden! Das heißt f ′ (x∗ ) 6= 0
eine hyperbolische Ruhelage.
⇒
x∗ ist
KAPITEL 11. ALLGEMEINE RUNGE-KUTTA-VERFAHREN
76
F (h, x) =
f (x) + h
f (x)
h
x∗
x
Dann, wegen des Satzes über implizite Funktionen, wissen wir, dass die Gleichung
F (h, x) = f (x) + h = 0
eine Lösung x∗h in der Nähe von x∗ hat, falls h > 0 genügend klein ist.
Beispiel Sei f (x) = αx mit α 6= 0. Dann ist x∗ = 0 die einzige Ruhelage.
Hier haben wir
f ′ (x∗ ) = α 6= 0
hyperbolisch .
Die Gleichung F (h, x) = αx + h = 0 hat die Lösung x∗h = −h/α und wir haben
den Approximationsfehler
|x∗h − x∗ | =
1
h = 0(h),
|α|
der die gleiche Ordnung (p = 1) wie das numerische Verfahren hat.
Diese Eigenschaft gilt im Allgemeinen für eine hyperbolische Ruhelage: d.h.
∃
mit
|x∗h − x∗ | = 0(hp )
x∗h
Aber solche Verfahren können auch andere Ruhelagen besitzen, die keinen Zusammenhang mit den Ruhelagen der DGL haben.
Beispiel Sei f (x) = −x3 in R1 . Die einzige Ruhelage ist x∗ = 0. Wir
betrachten das Heun-Verfahren:
xn+1 = xn +
h
{f (xn ) + f (xn + hf (xn ))} ,
2
wobei, das in diesem Fall,
F (h, x)
=
1
{f (x) + f (x + hf (x))}
2
KAPITEL 11. ALLGEMEINE RUNGE-KUTTA-VERFAHREN
=
77
1 3
−x − (x − hx3 )3
2
= −
1 3
x 1 + (1 − hx2 )3 ,
2
daher hat die Gleichung F (h, x) = 0 die Lösungen
r
2
∗
∗
x = 0 ∀h > 0, xh = ±
∀h > 0
h
x∗h
h
r
2
haben gar nichts mit der DGL zu tun — sie sind
h
falsche Lösungen/Phantom-Lösungen. (Englisch: spurious or ghost solutions).
Die Ruhelagen ±
Dieses Beispiel ist typisch. Es ist nicht nur, dass x∗h 6= x∗ sondern
1. Die falschen Lösungen divergieren:
r
2
|x∗h | =
→ ∞ für
h
h → 0+
2. Die falschen Lösungen sind instabil. Führen wir eine lineare Stabilitätsanalyse
durch: Wir linearisieren das Verfahren
h
xn+1 = G(xn ) := xn − x3n 1 + (1 − hx2n )3
2
um die Ruhelage x∗h :
⇒
zn+1 = G′ (x∗h ) zn ,
wobei
G′ (x)
=
1−
=
1−
3 o
2
h 3
h 2 n
+
1 + 1 − hx2
3x
x 6hx 1 − hx2
2
2
3 o
2
3h 2 n
x 1 + 1 − hx2
+ 3x4 h2 1 − hx2
2
78
KAPITEL 11. ALLGEMEINE RUNGE-KUTTA-VERFAHREN
Daher gilt
′
G
r !
2
3h 2 4
=1−
±
1 + 03 + 3h2 2 = 13
h
2 h
h
Wir haben das linearisierte System
zn+1 = 13zn ,
für welches z ∗ = 0 instabil ist.
3. Die echte Ruhelage ist asymptotisch stabil. Wir haben
xn+1 = G(xn ) = xn −
h 3
xn 1 + (1 − hx2n )3
2
Das linearisierte System (um x∗ = 0) ist
zn+1 = G′ (0)zn ≡ zn
weil G′ (0) = 1 hier. Das linearisierte System ist nur neutral stabil. Wir
müssen die nichtlineare Terme auch betrachten. Dafür verwenden wir die
Ljapunov-Funktion V (x) = x2 . Wir haben
V (xn+1 ) = x2n+1
=
G(xn )2
=
x2n
<
x2n ,
1−
3 h 2
xn 1 + 1 − hx2n
2
falls
2
x2n < 2/h .
Für x20 < 2/h haben wir x21 < x20 < 2/h, u.s.w. Daher ist V (xn ) streng monoton abfallend ⇒ V (xn ) = x2n → 0 ⇒ x∗ = 0 ist asymptotisch
stabil mit dem Einzugsbereich
Eh = x ∈ R1 : x2 < 2/h .
Er hängt offensichtlich von h ab!
Kapitel 12
Der lineare Fall
Betrachte eine autonome lineare DGL in Rd
dx
= Ax,
dt
für welche die Ruhelage x∗ = 0 asymptotisch stabil ist, d.h. alle Eigenwerte von
A haben negativen Realteil
Re(λA ) < 0
Das entsprechende Euler-Verfahren mit konstanter Schrittweite h > 0 ist
eine lineare Differenzengleichung
xn+1 = (I + hA)xn ,
für welche x∗ = 0 eine Ruhelage für jedes h > 0 ist. Die Lösung lautet
xn = (I + hA)n x0 .
Daher ist die Ruhelage x∗ = 0 asymptotisch stabil, wenn
kI + hAk < 1
ist [für eine geeignete Matrixnorm].
Im Allgemeinen müssen wir die Schrittweite h > 0 beschränken, um dieser
Ungleichung zu genügen.
Lineare DGL in R1
Betrachte jetzt die skalare lineare DGL
dx
= λx,
dt
A = [λ],
79
λ reellwertig
80
KAPITEL 12. DER LINEARE FALL
wobei λ < 0, so dass die Ruhelage x∗ = 0 asymptotisch stabil ist.
Das Euler-Verfahren hier ist
xn+1 = (1 + hλ)xn .
Die Ruhelage x∗ = 0 wird asymptotisch stabil genau dann, wenn |1 + hλ| < 1
ist, d.h.
−1 < 1 + hλ < 1.
Die obere Ungleichung ist immer gültig, weil h > 0 und λ < 0 sind. Die untere
Ungleichung ergibt −hλ < 2 oder h < −2/λ, weil λ < 0 ist. Daher müssen wir
die Schrittweite h beschränken,
h ∈ (0, −2/λ) ,
um asymptotische Stabilität zu versichern.
Lineare DGL in C1
Betrachte jetzt die komplexwertige lineare DGL
dz
= λ z,
dt
mit λ komplexwertig und Re(λ) < 0
tisch stabil.
z, λ ∈ C1 ,
⇒
die Ruhelage z ∗ = 0 ist asympto-
Dieser Fall enspricht dem 2-dimensionalen System reeller DGL
! "
#
!
d
x
α −β
x
=
dt
y
β α
y
wobei z = x + ıy und λ = α + ıβ sind, und die Matrix
"
#
α −β
β α
ein Paar komplexkonjugierter Eigenwerte λ = α + ıβ und λ = α − ıβ besitzt.
Natürlich gilt Re(λ) = α < 0.
Das entsprechende (komplexwertige) Euler-Verfahren lautet
zn+1 = (1 + hλ)zn .
Die Ruhelage z ∗ = 0 ist asymptotisch stabil genau dann, wenn
|1 + hλ| < 1
⇒
|(1 + hα) + iβh| < 1
81
KAPITEL 12. DER LINEARE FALL
d.h.
oder
1 + 2hα + h2 α2 + β 2 < 1
h <
⇔
2α + h(α2 + β 2 ) < 0
−2α
.
+ β2
α2
Auch in diesem Fall müssen wir die Schrittweite h beschränken, jetzt zu
−2α
.
h ∈ 0, 2
α + β2
12.1
Das Euler-Verfahren im allgemeinen Fall
Wir betrachten jetzt die allgemeine lineare DGL in Rd
dx
= Ax,
dt
mit Re(λ) < 0 für alle Eigenwerte von A.
Sei


J =

die Jordan-Form der Matrix A.

λ 1 ···
 0 λ ···

 . . .
..
Ji = 
 .. ..

 0 0 ···
0 0 ···

J1
..
.
Jp



Hier ist Ji entweder Ji = [λ] (d.h. 1 × 1) oder

0 0
0 0 

.. .. 

ni × ni , 1 < ni ≤ d.
. . 

λ 1 
0 λ
(Der Einfachheit halber erlauben wir λ hier komplexwertig zu sein).
Es existiert eine invertierbare Matrix Q, so dass
AQ = QJ oder J = Q−1 AQ .
Betrachte ein neues Koordinatensystem
x 7→ w = Q−1 x oder x = Qw
Bezüglich des neuen Koordinatensystems nimmt das Euler-Verfahren
xn+1 = (I + hA)xn
die Form Qwn+1 = (I + hA)Qwn
⇒
(Q−1 IQ + hQ−1 AQ)wn
wn+1 = Q−1 (I + hA)Qwn , d.h.
⇒
wn+1 = (I + hJ)wn
82
KAPITEL 12. DER LINEARE FALL
Aber I + hJ ist blockdiagonal ⇒



wn+1 = 



I1 + hJ1


 wn .


I2 + hJ2
..
.
Ip + hJp
Daher brauchen wir nur jedes Blocksystem allein zu betrachten:
(i)
wn+1 = (Ii + hJi ) wn(i) ,
i = 1, . . . , p .
Für asymptotische Stabilität brauchen wir
kIi + hJi k < 1,
i = 1, 2, . . . , p .
Wir haben schon die Fälle ni = 1 mit λi = αi + ıβi (reellwertig oder komplexwertig) betrachtet
−2αi
.
⇒
h ∈ 0, 2
αi + βi2
Wir müssen jetzt den Fall ni > 1 untersuchen. Dafür ist ni = 2 typisch. Wir
haben
λ 1
1 0
hλ h
I2 + h
=
+
0 λ
0 1
0 hλ
=
1 + hλ
0
h
1 + hλ
Das Euler-Verfahren für diese Komponenten ist daher
xn+1
=
(1 + hλ)xn + hyn
yn+1
=
(1 + hλ)yn .
Davon erhalten wir zunächst yn = (1 + hλ)n y0 , dann
xn+1 = (1 + hλ)xn + (1 + hλ)n hy0
und letztendlich die Lösung

 xn = (1 + hλ)n x0 + n(1 + hλ)n−1 hy0
 y
n
= (1 + hλ)n y0
Die Ruhelage (x∗ , y ∗ ) = (0, 0) ist asymptotisch stabil genau dann, wenn
|1 + hλ| < 1
83
KAPITEL 12. DER LINEARE FALL
weil dann haben wir
|1 + hλ|n → 0,
n|1 + hλ|n−1 → 0 für n → ∞ .
Für das ursprüngliche Euler-Verfahren brauchen wir daher
|1 + hλj | < 1
für jeden Eigenwert λj = αj +iβj der Matrix A, d.h. wir müssen die Schrittweite
beschränken
h ∈ (0, h∗ )
wobei
h∗ = min
j
12.2
−2αj
,
α2j + βj2
αj < 0 ∀ j
Runge-Kutta-Verfahren im linearen Fall
Wir beschränken uns auf die lineare DGL
dx
= λx
dt
in R1 oder C. Für diese DGL betrachten wir nur die folgenden numerischen
Verfahren:
explizites Euler-V
xn+1 = (1 + hλ)xn
implizites Euler-V
xn+1 =
1
xn
1 − hλ
xn+1 = 1 + hλ + 21 (hλ)2 xn
Heun-V
In jedem Fall: xn+1 = R(hλ)xn , wobei R(z) ein Polynom oder Reziprokal
eines Polynoms ist. Für asymptotische Stabilität brauchen wir
|R(hλ)| < 1,
Re(λ) < 0 .
Das allgemeine Runge-Kutta-Verfahren mit s Stufen lautet
(n)
yi
=
xn + h
s
X
ai,j f (yj ),
s
X
bi f (yi )
(n)
i = 1, . . . , s,
j=1
xn+1
=
xn + h
(n)
i=1
Für f (x) = λx erhalten wir
(n)
yi
= xn + hλ
s
X
ai,j yj
s
X
bi yi
(n)
j=1
xn+1
= xn + hλ
i=1
(n)
84
KAPITEL 12. DER LINEARE FALL
dass ist
Y (n)
=
xn 1s + hλAY (n)
xn+1
=
xn + hλb⊤ Y (n)
wobei wir die folgenden s-dimensionalen Vektoren verwenden
 (n) 
 
y1
1
 . 
 . 
(n)


Y
=
1s = 
 .. 
 ..  .
(n)
1
ys
Die erste Vektorgleichung ist lösbar für h genügend klein:
[I − hλA] Y (n) = xn 1s
Daher ist
wobei
Y (n) = [I − hλA]−1 1s xn .
⇒
xn+1 = 1 + hλb⊤ [I − hλA]−1 1s xn =: R(hλ)xn
R(z) := 1 + zb⊤ [I − zA]−1 1s ,
Aber
[I − zA]−1 =
und daher haben wir
R(z) = 1 +
z∈C.
adj(I − zA)
det(I − zA)
P (z)
zb⊤ adj(I − zA)1s
=
,
det(I − zA)
Q(z)
wobei P und Q Polynome mit Grad ≤ s sind .
Für asymptotische Stabilität brauchen wir
|R(λh)| =
12.3
|P (λh)|
<1
|Q(λh)|
mit Re(λ) < 0 .
A-Stabilität
Der schwedische Numeriker Dalquist hat den Begriff der A-Stabilität im Zusammenhang mit der numerischen Stabilität eingeführt: kleine Störungen sollen
nicht unbeschränkt zunehmen. Insbesondere für die lineare DGL
dx
= λx
dt
sollen die numerischen Iterationen der Abschätzung
|xn | ≤ C|x0 |
∀n
85
KAPITEL 12. DER LINEARE FALL
genügen, falls die Ruhelage x∗ = 0 soll Ljapunov-stabil sein sollen. Dafür brauchen wir
|R(λh)| ≤ 1
Der A-Stabilitätsbereich eines numerischen Verfahrens ist durch die Menge
S = {z ∈ C : |R(z)| < 1}
definiert – für λh ∈ S haben wir entweder asymptotische Stabilität des linearen
NVs oder numerische Stabilität.
Definition
A-stabil, falls
Ein Runge-Kutta-Verfahren heißt
C− = {z ∈ C : Re(z) ≤ 0} ⊆ S.
Dann ist die Ruhelage x∗ asymptotisch stabil für alle h > 0 !
Beispiel Das explizite Euler-Verfahren ist nicht A-stabil.
R(z) = 1 + z
⇒
|1 + z| < 1
Beispiel Das implizite Euler-Verfahren ist A-stabil
R(z) =
Satz
1
1−z
⇒
|R(z)| < 1
⇒
|1 − z| > 1
Kein explizites RK-Verfahren ist A-stabil.
Beweis R(z) ≡ P (z) mit grad(P (z) > 0 und |P (z)| < 1 für alle z ∈ C− ist
unmöglich.
Daher müssen wir immer die Schrittweiten beschränken.
Kapitel 13
Dynamische Systeme
Sei x(t; x0 ) die Lösung der Anfangswertaufgabe
dx
= f (x),
dt
x(0) = x0 .
Dann gilt für beliebige Zeiten s,t ≥ 0
x (t + s; x0 ) = x (t; x (s; x0 )) .
wegen der Eindeutigkeit der Lösungen einer Anfangswertaufgabe.
Außerdem gilt natürlich die Anfangsbedingung
x(0; x0 ) = x0 .
x
x0
x(·; x(s; x0 )) = x(· + s; x0 )
t
s
t1 + s
t1
Dies motiviert die folgende Definition:
86
87
KAPITEL 13. DYNAMISCHE SYSTEME
Definition: Dynamisches System“
Sei X ein metrischer Raum
”
mit Metrik d. Ein (zeitkontinuierliches) dynamisches System auf dem
Zustandsraum X ist gegeben durch eine Abbildung
Φ:R×X →X
mit der Gruppeneigenschaft
Φ(0, x) = x
und
Φ(t + s; x) = Φ(t, Φ(s, x))
∀t, s ∈ R, x ∈ X.
Ein zeitdiskretes dynamisches System ist analog mit Z statt R definiert.
Bemerkung: Üblicherweise schreibt man Φt (x) := Φ(t, x). Die Gruppeneigenschaft läßt sich dann für die Funktionen Φt : X → X formulieren und
lautet
Φt+s = Φt ◦ Φs , Φ0 = idX .
Wir erhalten so also tatsächlich eine allg. Gruppe von Abbildungen.
Bemerkung: Oft betrachten wir die Einschränkung dieser dynamischen
Systeme auf R+ oder Z+ , also keine negativen Zeiten. (Man spricht dann auch
von einem semi-dynamischen System und von einer Halbgruppeneigenschaft.)
Beispiel:
1. Die Lösungsabbildungen einer autonomen DGL in Rd für die Lösungen zu
allen Anfangswertaufgaben für alle Zeiten existiert liefern ein dynamisches
System auf X = Rd .
2. Für eine Abbildung f : X → X liefert die Lösung der zugehörigen Differenzengleichung xn+1 = f (xn ) ein zeitdiskretes (semi-) dynamisches System,
mittels
Φt := f ◦ f ◦ · ◦ f ,
t ∈ Z+ ,
|
{z
}
t−mal
falls die Lösungen zu allen Anfangswertaufgaben für alle (positiven) Zeiten
existieren.
Für invertierbares f können wir auch negative t ∈ Z zulassen.
3. Als speziellen Fall von (2) können wir numerische Einschrittverfahren betrachten; dort ist f (x) := x + hF (h, x). (Die numerische Diskretisierung
eines durch eine DGL definierten zeitkontinuierliches dynamisches System
ist also ein zeitdiskretes dynamisches System, falls die Lösungen zu allen
Anfangswertaufgaben für alle (positiven) Zeiten existieren).
88
KAPITEL 13. DYNAMISCHE SYSTEME
4. Als ein ganz abstraktes Beispiel betrachte man den Raum
X = {a : a = (a1 , a2 , a3 , . . .) mit ai ∈ {0, 1}}
der (0,1)- Folgen. Dann definiert
f : X → X,
f ((a1 , a2 , a3 , . . .)) := (a2 , a3 , a4 , . . .)
ein zeitdiskretes dynamisches System.
Wir definieren den positiven Orbit eines dynamischen Systems für einen
Punkt x0 ∈ X durch
[
O+ (x0 ) :=
Φt (x0 )
t≥0
und einen negativen Orbit O− (x0 ) als eine Menge von Punkten {xs } ⊂ X, s ≤ 0,
so dass Φt (xs ) = xt+s für t ≥ 0. (Der negative Orbit ist die Menge aller Punkte
auf einer Trajektorien, die den Punkt x0 in der Zukunft erreicht).
Beachte, dass negative Orbits weder existieren noch eindeutig sein müssen.
Eine Vereinigung eines negativen Orbits O− (x0 ) und eines positiven Orbits
O+ (x0 ) nennen wir Orbit.
13.1
Invariante Mengen
Eine Möglichkeit, Teilbereiche des Zustandsraums X zu charakterisieren, besteht in der Betrachtung der Invarianz einer Teilmenge.
Für eine Teilmenge B von X schreiben wir
[
Φt (B) :=
Φt (x).
x∈B
Definition Eine Menge B ⊂ X heißt
positivinvariant, f alls
Φt (B) ⊂ B,
∀t ≥ 0,
negativinvariant, f alls
B ⊂ Φt (B),
∀t ≥ 0,
invariant, f alls
Φt (B) = B,
∀t ≥ 0.
Anschaulicher läßt sich dies mit Orbits beschreiben:
89
KAPITEL 13. DYNAMISCHE SYSTEME
Lemma: Eine Menge B ⊂ X ist positiv invariant genau dann, wenn
der positive Orbit die Inklusion O+ (x0 ) ⊂ B erfüllt für alle x0 ∈ B.
Eine Menge B ⊂ X ist negativ invariant genau dann, wenn es für jedes
x0 ∈ B einen negativen Orbit gibt mit O− (x0 ) ⊂ B.
Eine Menge B ⊂ X ist invariant, falls für jedes x0 ein Orbit O(x0 ) mit
O(x0 ) ⊂ B.
Beweis: Für vorwärts-invariant: B ist positiv invariant
Φt (B) ⊂ B, ∀t ≥ 0
⇐⇒
⇐⇒
Φt (x0 ) ⊂ B, ∀x0 ∈ B, ∀t ≥ 0
⇐⇒
0+ (x0 ) ⊂ B, ∀x0 ∈ B.
Ähnlich für negative und allgemeine Invarianz.
Beispiel: Betrachte die lineare DGL in R1
dx
= ax,
dt
mit a < 0.
Das zugehörige dynamische System ist gegeben durch
Φt (x) = eat x
Sei b > 0. Dann gilt für alle t ≥ 0
Φt ([−b, b]) = −eat b, eat b ⊂ [−b, b]
also ist B = [−b, b] positiv invariant. Desweiteren ist
Φt (0) = eat 0, eat 0 = 0.
Also ist B = {0} invariant.
Beispiel: Für die nichlineare DGL in R2 in Polarkoordinaten
dr
= r(1 − r),
dt
dθ
=1
dt
ist die Einheitsscheibe (d.h. mit r ≤ 1) eine invariante Menge sowie der Einheitskreis (d.h. mit r = 1).
13.2
Limesmengen
In der Untersuchung des dynamischen Verhaltens interessiert uns insbesondere
das Verhalten der Lösungen für t → ∞. Die zugehörigen Punkte im Zustandsraum lassen sich durch die ω-Limesmenge charakterisieren. Wir beschränken
90
KAPITEL 13. DYNAMISCHE SYSTEME
uns jetzt zu dem Fall X = Rd
Definition: Limesmenge“
Für eine beschränkte Menge B
”
d
⊂ R definieren wir die ω-Limesmenge durch:
ω(B) = x ∈ Rd : ∃tk → ∞, yk ∈ B mit Φtk (yk ) → x
Falls B = {y} nur einen Punkt enthält schreiben wir auch ω(y) statt ω({y}).
Im Allgemeinen gilt
[
ω(B) ⊃
ω(y).
y∈B
Beispiel: (Siehe Stuart/Humphries p.16). Betrachte das zeitdiskrete semidynamische System yn = Φn (y0 ) = y02n erzeugt durch die differenzen Gleichung
yn+1 = Φ(y0 ) = y02 auf R. Dieses System hat Ruhelagen 0 and 1. Daher gilt
ω(0) = {0} und ω(1) = {1}. Darüberhinaus gilt ω((0, 1)) = {0}, weil y02n → 0
für n → ∞, falls y0 ∈ (0, 1). Deswegen gilt
[
ω(y) = {0, 1}.
y∈[0,1]
Aber ω([0, 1]) = [0, 1]. Um dies zu zeigen, betrachte ein beliebiges a ∈ (0, 1)
2
und die Folgen nk = k 2 → ∞ für k → ∞ und yk := a1/(2k ) ∈ [0, 1]. Dann gilt
2
2
Φnk (yk ) = (a1/(2k ) )2k ≡ a für alle k ∈ N, d.h., a ∈ ω([0, 1]).
Beispiel: Betrachte nochmal die lineare DGL in R1
dx
= ax,
dt
mit a < 0.
Sei B ⊂ R1 beschränkt. Dann gilt für jedes beliebige Paar von Folgen tk → ∞
in R1 und Punkten yk ∈ B:
Φtk (yk ) = eatk yk
also
|Φtk (yk )| = e
atk
|yk | ≤ e
atk
sup |y|
y∈B
→ 0 für k → ∞
und damit ω(B) = {0}.
Die ω-Limesmenge läßt sich wie folgt charakterisieren:
Satz:
Für eine beschränkte Menge B ⊂ Rd gilt:
ω(B) =
\ [
t≥0 s≥t
Φs (B) .
91
KAPITEL 13. DYNAMISCHE SYSTEME
Beweis: In der Übung für B = {y}. Für allgemeine beschränkte B analog.
Bemerkung: Offenbar ist
[
[
Φs (B)
Φs (B) ⊃
s≥t2
s≥t1
Daher ist
\ [
Φs (B) =
t≥0 s≥t
\ [
t≥T s≥t
∀t2 ≥ t1 .
Φs (B)
∀T > 0.
Satz: Eigenschaften der ω-Limesmengen“ Sei Φt : Rd → Rd stetig für
”
alle t. Dann ist die ω-Limesmenge ω(B) für jede beschränkte Menge B ⊂ Rd
eine abgeschlossene, positiv invariante Menge.
Ist
S
t≥0
Φt (B) darüberhinaus beschränkt, so ist ω(B) sogar invariant.
Beweis: Abgeschlossenheit: Betrachte eine konvergierende Folge xk ∈
ω(B) mit xk → x. Zu zeigen ist, dass x ∈ ω(B). Da xk ∈ ω(B), ∀k, gibt es
Folgen tki → ∞ für i → ∞ und yik ∈ B, so dass Φtk (yik ) → xk für i → ∞.
O.B.d.A. gilt
1
∀i ≥ k
xk − Φtki (yik ) ≤
k
und tki ≥ k für alle i ≥ k.
Bezeichne t∗i = tii und yi∗ = yii . Dann gilt t∗i → ∞ für i → ∞ und
kx − Φt∗I (yi∗ )k ≤ kx − xi k + kxi − Φt∗i (yi∗ )k ≤ kx − xi k + i−1 → 0 für i → ∞
Also konvergiert Φt∗ (yi∗ ) gegen x und damit ist x ∈ ω(B).
Positive Invarianz: Nach Voraussetzung ist Φt (·) stetig für jedes t. Also
Φti (yi ) → x
⇒
Φti +s (yi ) = Φs (Φti (yi )) → Φs (x)
Also ist Φs (x) ∈ ω(B) für alle x ∈ ω(B) und alle s ≥ 0, und damit ist O+ (x)
⊆ ω(B) – positive Invarianz!
Für die Invarianz im letzten Fall siehe Stuart/Humphries S. 18-19. Wir
müssen nur die negative Invarianz beweisen. Sei x ∈ ω(B). Es existieren Folgen
yk ∈ B und tk → ∞ für k → ∞. Betrachte ein beliebiges T > 0. O.B.d.A.
können wir voraussetzen, dass tk T + 1. Daher ist tk − T ≥ 1 mit tk − T → ∞
für k → ∞. Betrachte die Folge Φtk −T (yk ). Dieses Folge ist in der kompakten
S
Menge t≥0 Φt (B) (abgeschlossen und beschränkt in R ist kompakt). Daher
92
KAPITEL 13. DYNAMISCHE SYSTEME
S
existiert eine konvergierende Teilfolge Φtkj −T (ykj ) → y ∈ t≥0 Φt (B) für j →
∞. Aber t′j = tkj − T → ∞ für j → ∞ und yj′ = ykj ∈ B, so y ∈ ω(B). Wegen
der Halbgruppeneigenschaft und der vorasugesetzen Stetigkeit gilt
ΦT (y) = lim ΦT ◦ Φt′j −T (yj′ ) = lim Φt′j (yj′ ) = x.
j→∞
j→∞
D.h., es gilt x ∈ ΦT (ω(B)).
Bemerkung: ω(B) ist zusammenhängend für zeitkontinuierliche Systeme,
aber im Allgemeinen nicht für zeitdiskrete Systeme.
13.3
Attraktoren
Wir bezeichnen durch
Uε (A) := x ∈ Rd : dist(x, A) < ε
die ε-Umgebung einer Menge A, wobei
dist(x, A) := inf kx − ak.
a∈A
Definition: Attrahierende Menge“ Wir sagen, dass eine Menge A eine
”
andere Menge B attrahiert, falls für alle ε > 0 ein T ∗ = T ∗ (ε, B, A) existiert,
so dass gilt
Φt (B) ⊂ Uε (A), ∀t ≥ T ∗ .
Definition: Attraktor“ Eine Menge A heißt Attraktor, falls sie kompakt
”
und invariant ist und es eine offene Umgebung U ⊃ A gibt, die von A attrahiert
wird. (U heißt dann Attraktorumgebung).
Beispiel: Wie oben.
Frage: Wann sind ω-Limesmengen Attraktoren?
Satz: Sei Φt : Rd → Rd stetig für jedes t ≥ 0. Sei B ⊂ Rd eine beschränkte
Menge, so dass ein T > 0 existiert mit
Φt (B) ⊂ B
∀ t ≥ T.
Dann attrahiert A = ω(B) die Menge B. Zusätzlich gilt
\
ω(B) =
Φt (B) .
t≥0
93
KAPITEL 13. DYNAMISCHE SYSTEME
Beweis: Nach der Annahme gilt Φt (B) ⊂ B, also auch Φt (B) ⊂ B, ∀ t ≥ T .
Also
\ [
\ [
Φs (B) ⊂
B = B̄
(∗)
ω(B) =
t≥T s≥t
t≥T s≥t
Daher ist ω(B) beschränkt und damit kompakt (wir sind im Rd )! und außerdem
invariant (vorheriger Satz). Wir zeigen nun: ω(B) attrahiert B. Setze voraus,
dass ω(B) die Menge B nicht attrahiert .
Dann gibt es ε > 0 sowie Folgen tk → ∞ und xk ∈ B, so dass Φtk (xk ) ∈
/
Uε (ω(B)). Da Φtk (xk ) aber eine beschränkte Folge ist, gibt es eine konvergie/ Uε (ω(B)),
rende Teilfolge Φtki (xki ) → y ∈ B̄. Aus der Konstruktion folgt y ∈
was aber im Widerspruch zur Definition von ω(B) steht.
T
Es bleibt zu zeigen, dass ω(B) ⊂ B: Angenommen es gäbe ein y ∈ ω(B) ∂B
(mit ∂B= Rand von B). Aus der negativen Invarianz von ω(B) folgt, dass für
alle t ≥ T ein x ∈ ω(B) existiert mit Φt (x) = y. Da aber ω(B) ⊂ B̄ gilt (∗),
folgt x ∈ B̄ und damit Φt (x) ∈ B falls t ≥ T . Also ist y ∈ B im Widerspruch
zu der Annahme. Also attrahiert ω(B) die Menge B ⊃ ω(B).
Da ω(B) ⊂ B invariant ist, folgt
ω(B) = Φt (ω(B)) ⊂ Φt (B),
Also ist
ω(B) ⊆
\
Φt (B) ⊂
\
t≥0
Φt (B) ⊂
Φt (B).
t≥0
Da darüberhinaus
gilt, folgt
∀t ≥ 0.
[
Φs (B)
s≥t
\ [
Φs (B) = ω(B)
t≥0 s≥t
und damit die behauptete Gleichheit.
Bemerkung: Obwohl ω(B) die Menge B attrahiert und B ⊃ ω(B) gilt, ist
ω(B) nur ein Attraktor, wenn B eine Umgebung von ω(B) ist. Als Gegenbeispiel
betrachte das lineare System
dx
= −x,
dt
dy
= y,
dt
und die Menge B = [1−, 1] × {0}. Dann ist ω(B) = (0, 0), aber der Ursprung
ist kein Attraktor, sondern ein Sattelpunkt.
94
KAPITEL 13. DYNAMISCHE SYSTEME
Definition: Absorbierende Menge“
Eine kompakte positiv invariante
”
Menge B ⊂ Rd heißt absorbierende Menge, falls für jede beschränkte Menge E
⊂ Rd ein T ∗ = T ∗ (B, E) ≥ 0 existiert mit
Φt (E) ⊂ B
∀t ≥ T ∗ .
Ein dynamisches System mit einer absorbierenden Menge heißt dissipativ.
Korollar: Sei das semi-dynamische System {Φt , t ≥ 0} dissipativ mit der
absorbierenden Menge B. Dann besitzt Φt einen Attraktor A := ω(B), der jede
beschränkte Menge E attrahiert.
Der obige Attraktor A heißt globaler Attraktor.
Beweis: Nach Def. gibt es T mit Φt (B̄) ⊂ B für alle t ≥ T . Also ist der
obige Satz anwendbar.
Kapitel 14
Nichtlineare Systeme
Wir haben gesehen, dass die Ruhelage x∗ = 0 einer linearen DGL
dx
= Ax
dt
genau dann asymptotisch stabil ist, wenn jeder Eigenwert λj = αj + ıβj der
Matrix A negativen Realteil αj hat, d.h
Re(λj ) = αj < 0,
∀j.
Wir haben diese Eigenschaft benutzt um zu zeigen, dass die Ruhelage x∗ = 0
des entsprechenden Euler-Verfahrens
xn+1 = (I + hA)xn
auch asymptotisch stabil ist, falls die Schrittweite h > 0 der Ungleichung
0 < h < min
j
−2αj
α2j + βj2
genügt.
Wir haben die obige Eigenschaft auch benutzt, zu zeigen, dass die Ruhelage
x∗ = 0 des nichtlinearen Systems
dx
= Ax + n(x),
dt
n(0) = 0, ∇n(0) = 0
lokal asymptotisch stabil, falls die Schrittweite h > 0 klein genug ist. In diesem
Fall ist das entsprechende Euler-Verfahren
xn+1 = (I + hA)xn + hn(xn ) .
Um die asymptotische Stabilität der Ruhelage x∗ = 0 dieses nichtlinearen EulerVerfahrens zu untersuchen, ist eine Ljapunov-Funktion günstiger als die obige
Eigenwertcharakterisierung.
95
96
KAPITEL 14. NICHTLINEARE SYSTEME
14.1
Ljapunov-Funktionen
Wir haben Ljapunov-Funktionen schon benutzt, um die asymptotische Stabilität
einer Ruhelage x∗ = 0 einer DGL
dx
= f (x)
dt
zu etablieren. Dabei gemeint ist eine Funktion V : Rd → R+ , die den folgenden
Eigenschaften genügt:
h∇V (x), f (x)i < 0,
∀x 6= x∗ = 0 ,
und
α(kxk) ≤ V (x) ≤ β(kxk) ,
wobei α, β : R+ → R+ stetig und monoton wachsend sind, mit
α(0) = β(0) = 0,
0 < α(r) < β(r), ∀r > 0 .
Die Existenz einer solchen Ljapunov-Funktion ist hinreichend für die asymptotische Stabilität der Ruhelage x∗ . Sie ist auch notwendig. Wir werden diese
Behauptung hier in dem linearen Fall
dx
= Ax
dt
betrachten.
Satz
Die Ruhelage x∗ = 0 der linearen DGL
dx
= Ax
dt
ist genau dann asymptotisch stabil, wenn eine Ljapunov-Funktion der
Form V (x) = x⊤ P x existiert, wobei P symmetrisch und positiv definit
ist mit
P A + A⊤ P = −I .
Beweis: Angenommen P ist asymmetrisch positiv definit. Für eine solche
Funktion V (x) haben wir
(P )
)
2
λmin |x|2 ≤ V (x) ≤ λ(P
max |x|
und
d
V (x(t))
dt
=
=
d x(t)⊤ P x(t)
dt
dx(t)
dx(t)⊤
P x(t) + x(t)⊤ P
dt
dt
Produktregel
97
KAPITEL 14. NICHTLINEARE SYSTEME
=
=
x(t)⊤ A⊤ P x(t) + x(t)⊤ P Ax(t)
x(t)⊤ A⊤ P + P A x(t)
=
− x(t)⊤ Ix(t)
≤
−
=
− γ0 V (x(t))
1
(ρ)
λmax
x(t)⊤ P x(t)
wo γ0 :=
1
(ρ)
λmax
Daher gilt
V (x(t)) ≤ e−γ0 t V (x0 ).
Hinreichende Bedingung: Wenn eine solche Funktion existiert, dann haben wir
(P )
λmin |x(t)|2 ≤ V (x(t)) ≤ e−γ0 t V (x0 ) → 0
für t → ∞.
Daraus folgt die asymptotische Stabilität von x∗ = 0.
Notwendige Bedingung: Wenn die Ruhelage x∗ = 0 asymptotisch stabil ist,
dann ist Re(λj ) < 0 für jeden Eigenwert der Matrix A. Ein Satz von Ljapunov
ergibt die Existenz der erwünschten Matrix P . (Beweis in Lehrbücher)
Ljapunov-Satz: Die Matrix A sei stabil, dass ist Re(λj ) < 0 für jeden
Eigenwert von A. Dann existiert eine eindeutige Matrix P , für welche
P A + A⊤ P = −I .
Außerdem ist P symmetrisch und positiv definit.
14.1.1
Anwendung 1: Das linear Euler-Verfahren
Sei dx
dt = Ax gegeben, wobei A stabil ist. Dann existiert ein symmetrisches
positiv definites P mit P A + A⊤ P = −I.
Für das linear Euler-Verfahren
xn+1 = (I + hA)xn
haben wir
V (xn+1 ) =
⊤
x⊤
n (I + hA) P (I + hA)xn
=
⊤
⊤
2 ⊤ ⊤
x⊤
n P xn + hxh [A P + P A]xn + h xn A P Axn
=
⊤
2 ⊤ ⊤
x⊤
n P xn − hxn Ixn + h xn A P A xn
98
KAPITEL 14. NICHTLINEARE SYSTEME
≤
x⊤
n P xn −
h
(P )
λmax
⊤
2
x⊤
n P xn + h
PA
λA
max
(P )
λmin
x⊤
n P xn
1 − γ0 h + γ1 h2 V (xn )
=
wobei
γ0 =
(A⊤ P A)
1
(P )
λmax
> 0,
γ1 =
λmax
(P )
λmin
>0.
(Die Matrix A⊤ P A hier ist symmetrisch und positiv definit
positive Eigenwerte).
⇒
reellwertige
Daher existiert ein h∗ > 0, so dass
γ(h) := |1 − γ0 h + γ1 h2 | < 1,
∀h ∈ (0, h∗ ) .
Für h ∈ (0, h∗ ) haben wir
V (xn+1 ) ≤ γ(h)V (xn )
und daher
(P )
λmin |xn |2 ≤ V (xn ) ≤ (γ(h))n V (x0 ) → 0
⇒
xn → 0
für n → ∞.
für n → ∞.
Die Ruhelage x∗ = 0 ist asymptotisch stabil (wie zuvor müssen wir die Schrittweite beschränken).
Bemerkung: Wir haben tatsächlich nur die attrahierende Eigenschaft bewiesen. Der Beweis der Ljapunov-Stabilität ist wie in einem vorherigen Kapitel.
14.1.2
Anwendung 2: Die nichtlineare DGL
Betrachte jetzt das nichtlineare System in Rd
dx
= Ax + n(x) ,
dt
wobei n stetig differenzierbar ist mit n(0) = 0 und ∇n(0) = 0.
Hier ist x∗ = 0 eine Ruhelage. Wir werden uns auf die Betrachtung einer
Umgebung N0 von x∗ beschränken, weil die DGL auch andere Ruhelagen haben
könnte. Für diese DGL haben wir
d
V (x(t))
dt
=
=
d ⊤
x (t)P x(t)
dt
dx
dx⊤
P x + x⊤ P
dt
dt
99
KAPITEL 14. NICHTLINEARE SYSTEME
= [Ax + n(x)]⊤ P x + x⊤ P [Ax + n(x)]
= x⊤ A⊤ P + P A x + n(x)⊤ P x + x⊤ P n(x)
{z
}
|
=:N (x)
= − x⊤ Ix + N (x)
Die Funktion N : Rd → R definiert durch N (x) := n(x)⊤ P x + x⊤ P n(x) ist
stetig und O(|x|3 ). Für kxk ≤ 1 genügt N (x) der Abschätzung
|N (x)| ≤ K|x|3 = K|x|x⊤ Ix ≤
K
(P )
λmin
|x|V (x)
Die Ljapunov-Funktion V ist quadratisch ⇒ es existiert R(ε) → 0 für ε →
0, so dass
K
|x| ≤ ε falls V (x) ≤ R(ε) .
(P )
λmin
Wir wählen ε = ε0 , für welches
(P )
|x| ≤
ε0 λmin
≤ 1,
K
−
1
(P )
λmax
+ ε0 = −γ2 < 0 .
Dann gilt für x(t) ∈ N0 := {x ∈ Rd : V (x) ≤ R(ε0 )} die Ungleichung
d
V (x(t))
dt
=
− x(t)⊤ Ix(t) + N (x(t))
≤
−
1
(P )
λmax
V (x(t)) + ε0 V (x(t)) < 0
Dies bedeutet, dass V (x(t)) nicht zunehmen kann — daher ist die Menge N0
positiv invariant bezüglich des nichtlinearen Systems. Daher für x0 ∈ N0 , gilt
es x(t) ∈ N0 für alle t ≥ 0 und auch die Ungleichung
d
V (x, (t)) ≤ −γ2 V (x(t)),
dt
∀t ≥ 0 .
Daraus folgt die Ungleichung
V (x(t)) ≤ e−γ2 t V (x0 ) → 0
für t → ∞ .
Gleichzeitig haben wir die untere Schranke
(P )
λmin |x(t)|2 ≤ V (x(t)) ,
und somit
|x(t)|2 → 0
für t → ∞ für jedes x0 ∈ N0 .
Da die Konvergenz hier monoton ist, ist die Ruhelage x∗ = 0 asymptotisch
stabil, d.h. attrahierend und stabil!
100
KAPITEL 14. NICHTLINEARE SYSTEME
14.1.3
Anwendung 3: Das nichtlineare Euler-Verfahren
Das entsprechende Euler-Verfahren für die obige nichtlineare DGL lautet
xn+1 = (I + hA)xn + hn(xn ) .
Es hat auch die Ruhelage x∗ = 0 (vielleicht auch andere)
V (xn+1 ) =
=
=
x⊤
n+1 P xn+1
[(I + hA)xn + hn(xn )]⊤ P [(I + hA)xn + hn(xn )]
⊤
⊤
2 ⊤ ⊤
x⊤
n P xn + hxn A P + P A xn + h xn A P Axn
+ h n(xn )⊤ P xn + x⊤
n P n(xn )
=
⊤
⊤
⊤
+ h2 x⊤
n A P n(xn ) + n(xn ) P Axn + n(xn ) P n(xn )
2
2 ⊤ ⊤
V (xn ) − hx⊤
n Ixn + h xn A P Axn + hN (x) + h M (x),
dabei sind
N (x) = n(x)⊤ P x + x⊤ P n(x)
und
M (x) = x⊤ A⊤ P n(x) + n(x)⊤ P Ax + n(x)⊤ P n(x).
stetige Funktionen von Ordnung 0(|x|3 ) für |x| ≤ 1. Wie oben können wir R(ε)
→ 0 für ε → 0 finden, so dass
|N (x)| ≤ εV (x),
|M (x)| ≤ εV (x)
für V (x) ≤ R(ε) (und |x| ≤ 1). Dann gilt
V (xn+1 )
≤ V (xn ) − h
1
(P )
λmax
V (xn ) +
(A⊤ P A)
2 λmax
h
(P )
λmin
V (xn )
+ hεV (xn ) + h2 εV (xn )
=
1 − h (γ0 − ε) + h2 (γ1 + ε) V (xn ) .
Wir wählen ε0 := 21 γ0 und setzen
1
1
2
γ(h) := 1 − γ0 h + h γ1 + γ0 .
2
2
Dann gilt die Ungleichung γ(h) < 1, falls h ∈ (0, h∗ ) mit h∗ > 0 genügend klein.
Sei xn ∈ N0 := {x ∈ Rd : V (x) ≤ R(ε0 )} und h ∈ (0, h∗ ). Dann gilt die
Ungleichung
V (xn+1 ) < V (xn ) ,
101
KAPITEL 14. NICHTLINEARE SYSTEME
so xn+1 ∈ N0 . Die Menge N0 ist deshalb positiv invariant. Daher für x0 ∈ N0
und h ∈ (0, h∗ ) haben wir
V (xn+1 ) ≤ γ(h) V (xn ),
∀n ≥ 0,
und deshalb
V (xn ) ≤ γ(h)n V (x) → 0 für n → ∞.
Schließlich haben wir
xn → 0
für n → ∞ ∀x0 ∈ N0 .
Die Ruhelage x∗ = 0 des nichtlinearen Euler-Verfahrens ist daher attrahierend für h < h∗ . Sie ist auch Ljapunov-stabil mit
(P )
δ(ε) :=
λmax
(P )
λmin
und daher asymptotisch stabil.
ε falls
h < h∗ =
γ0
2γ1 + γ0
Kapitel 15
Dissipative Systeme
Jetzt werden wir eine autonome DGL
dx
= f (x), x ∈ Rd ,
dt
untersuchen, wobei die Vektorfeldfunktion f einer Dissipativitätsbedingung genügt,
zunächst
∃γ > 0 :
hx, f (x)i ≤ −γ|x|2 , ∀x ∈ Rd
und dann allgemeiner
∃α, β > 0 :
hx, f (x)i ≤ α − β|x|2 ,
∀x ∈ Rd .
Insbesondere wollen wir entdecken, was passieren kann, wenn wir ein numerisches Verfahren verwenden.
15.1
1. Fall
Sei f mindestens stetig differenzierbar mit f (0) = 0 und genüge f der ersten
Dissipativitätsbedingung
∃γ > 0 :
hx, f (x)i ≤ −γ|x|2 ,
∀x ∈ Rd .
Dann ist x∗ = 0 die einzige Ruhelage.
Beweis Sei x∗ 6= 0 eine Ruhelage. Dann ist f (x∗ ) = 0 und
0 = hx∗ , 0i = hx∗ , f (x∗ )i ≤ −γ|x∗ |2 < 0
Widerspruch!.
Diese eindeutige Ruhelage x∗ = 0 ist global asymptotisch stabil. Für den
Beweis benutzen wir die Ljapunov-Funktion V (x) = |x|2
d
d
dx
2
V (x(t)) =
|x(t)| = 2 x(t),
(t)
dt
dt
dt
102
KAPITEL 15. DISSIPATIVE SYSTEME
=
2 hx(t), f (x(t))i
≤
− γ|x(t)|2 = − γV (x(t)) .
103
Daher haben wir
|x(t)|2 = V (x(t))
≤
e−γt V (x0 ) ∀t ≥ 0, x0 ∈ Rd
→ 0 für t → ∞ .
Die Ruhelage x∗ = 0 ist daher global attrahierend. Sie ist auch Ljapunovstabil mit δ(ε) = ε, weil |x(t)|2 monoton abfallend ist.
Das entsprechende Euler-Verfahren lautet
xn+1 = xn + hf (xn ),
für welches x∗ = 0 die einzige Ruhelage ist. Um ihre asymptotische Stabilität
zu untersuchen, werden wir noch mal die Ljapunov-Funktion V (x) = |x|2 verwenden. Dann ist
V (xn+1 ) = |xn+1 |2
= hxn+1 , xn+1 i
= hxn + hf (xn ), xn + hf (xn )i
= hxn , xn i + 2h hxn , f (xn )i + h2 hf (xn ), f (xn )i
≤ |xn |2 − 2hγ|xn |2 + h2 |f (xn )|2
= (1 − 2hγ)V (xn ) + h2 |f (xn )|2
Wir wollen zeigen, dass V monoton abfallend ist — vielleicht für h > 0
genügend klein usw. Die Schwierigkeit hier ist der letzte Term h2 |f (xn )|2 . Wir
haben zwei Möglichkeiten.
Hilfsatz
Sei f ∈ C 1 . Dann gilt: ∀ R > 0 ∃ KR > 0 für welches
|f (x)|2 ≤ KR |x|2 , ∀ |x|2 ≤ R .
Beweis Zuerst werden wir zeigen, dass ∇f (0) 6= 0 ist. Sei ei der i-ten
Einheitsvektor in Rd . Dann gilt für h ∈ R
hfi (hei ) = hhei , f (hei )i ≤ − γ|hei |2 = − γh2 .
(fi ist die i-te Komponente von f ). Aber f (0) = 0, so fi (0) = 0. Dann haben
wir
h (fi (hei ) − fi (0)) ≤ − γh2 .
104
KAPITEL 15. DISSIPATIVE SYSTEME
Wir können durch h2 > 0 dividieren, ohne die Richtung der Ungleichung zu
verändern:
fi (hei ) − fi (0)
≤−γ
∀h 6= 0 .
h
Wir haben vorausgesetzt, dass ∇f (0) existiert. Dann haben wir
∂fi (0)
fi (hei ) − fi (0)
= lim
≤−γ<0.
h→0
∂xi
h
Daher hat die Vektorfeldfunktion f die Form
f (x) = Ax + n(x) ,
wobei die Matrix A 6= 0 und n(0) = 0, ∇n(0) = 0, so n(x) ∼ 0(|x|2 ).
Nun können wir die Hilfsaussage beweisen. Dazu beobachten wir, dass
|f (x)|2 ≤ |A|2 |x|2 + 2|A| |x| |n(x)| + |n(x)|2 ≤ KR · |x|2 ,
{z
} | {z }
|
∼0(|x|3 )
falls |x|2 ≤ R,
∼0(|x|4 )
weil |n(x)|/|x|2 und |n(x)|2 /|x|2 beschränkt sind für |x|2 ≤ R.
Bisher haben wir nur die Hilfsaussage bewiesen, aber eigentlich wollen wir
zeigen, dass das Euler-Verfahren stabil ist zumindest für genügend kleine h.
Also kehren wir zu der Ljapunov-Ungleichung zurück:
V (xn+1 ) ≤ (1 − 2γh) V (xn ) + h2 |f (xn |2 .
Sei |xn |2 ≤ R. Dann ist |f (xn )|2 ≤ KR |xn |2 = KR V (xn ) und
V (xn+1 ) ≤ (1 − 2γh)V (xn ) + h2 KR V (xn )
=
dass ist
1 − 2γh + h2 KR V (xn ) ,
V (xn+1 ) ≤ V (xn ) ≤ R ,
falls h ≤ hR ist, für ein hR klein genug, so dass 0 < 1 − 2γhR + h2R KR ≤ 1, also
hR = 2γ/KR .
Daher ist |xn+1 |2 ≤ R und der Ball BR := {x ∈ Rd : |x|2 ≤ R} ist deshalb
positiv invariant bzg. des Euler-Verfahrens für solche Schrittweiten.
Sei h ∈ (0, hR ) dann gilt 0 < γ(h) := 1 − 2γh + h2 KR < 1 und damit
V (xn+1 ) ≤ γ(h) V (xn ).
105
KAPITEL 15. DISSIPATIVE SYSTEME
Durch wiederholtes anwenden erhalten wir dann
V (xn ) ≤ γ(h)n V (x0 )
für x0 ∈ BR .
Die Ruhelage x∗ = 0 ist attrahierend und auch Ljapunov-stabil mit δ(ε) =
ε, insgesamt asymptotisch stabil, falls die Schrittweite klein genug ist.
Eine andere Möglichkeit ist nützlich, falls die obige Form der Vektorfeldfunktion f unbekannt ist. Das Ergebnis ist in diesem Fall nicht so stark,
trotzdem einsichtsvoll für den allgemeinen Fall, den wir später erörtern werden.
⇒
f ist stetig
∀ R > 0 ∃ MR > 0, so dass
|f (x)|2 ≤ MR
∀ |x|2 ≤ R .
In diesem Fall lautet die Ljapunov-Ungleichung
V (xn+1 ) ≤ (1 − 2γh) V (xn ) + h2 MR ,
Definiere hR :=
Ungleichung
falls |xn |2 ≤ R.
2γR
> 0. Für h ∈ (0; hR ] und xn ∈ BR gilt dann die
MR
|xn+1 |2 = V (xn+1 ) ≤ (1 − 2γh)R + h2 MR ≤ R ,
weil V (xn ) = |xn |2 ≤ R und h2 MR ≤ 2γhR.
Daher ist der Ball BR positiv invariant für Schrittweite h ∈ (0, hR ].
Definiere nun
h∗R :=
und
1
γR
,
hR =
2
MR
η(h, R) :=
MR
h
γ
Λ(h, R) := Bη(h,R) = x ∈ Rd : V (x) ≤ η(h, R)
für h ∈ (0, h∗R ].
Λ(h, R) besitzt die folgenden Eigenschaften
1. Λ(h, R) ist nicht leer, kompakt und
Λ(h, R) = Bη(h,R) ⊆ BR
für h ∈ (0, h∗R ], weil η(h, R) ≤ R ist.
KAPITEL 15. DISSIPATIVE SYSTEME
106
2. Λ(h, R) ist positiv invariant für h ∈ (0, h∗R ]:
Sei xn ∈ Λ(h, R). Dann ist
V (xn+1 ) ≤
≤
(1 − 2γh)V (xn ) + h2 MR
(1 − 2γh)η + γhη = (1 − γh)η < η .
3. Λ(h, R) ist eine absorbierende Menge für x0 ∈ BR und h ∈ (0, h∗R ].
Sei x0 ∈ BR \ Λ(h, R), so dass V (x0 ) > η. Dann haben wir
V (x1 )
≤ (1 − 2γh)V (x0 ) + h2 MR
= (1 − 2γh)V (x0 ) + γhη < (1 − γh)V (x0 ) .
Sei x1 ∈ BR \ Λ(h, R) auch, durch Wiederholung erhalten wir
V (x2 ) < (1 − γh)V (x1 ) < (1 − γh)2 V (x0 ) .
Seien x0 , x1 , . . ., xn ∈ BR \ Λ(h, R)), dann ist
V (xn+1 ) < (1 − γh)n V (x0 )
Offensichtlich gibt es eine ganz Zahl N ∗ = N ∗ (x0 ) < ∞, so dass
V (xN ∗ +1 ) ≤ η < V (xN ∗ ) .
In der Tat ist N ∗ (x0 ) ≤ NR∗ für alle x0 ∈ BR , wobei
ln(η/R)
NR∗ = 1 +
(Integerteil)
ln(1 − γh)
Insgesamt: für h > 0 klein genug, haben wir eine positiv invariante absorbierende Menge Λ(h, R), wobei
p
dist (Λ(h, R), {0}) = η(h, R) → 0 für h → 0
(R fest)
Das Euler-Verfahren hat deshalb einen Attraktor
\
Ah =
Φnh (Λ(h, R))
(R fest)
n≥o
wobei Φh (x) := x + hf (x).
KAPITEL 15. DISSIPATIVE SYSTEME
107
Wir haben x∗ = 0 ∈ Ah , weil Φh (0) = 0 ∈ Λ(h, R).
Aber können wir sicher sein, dass Ah = {0}?
Kann Ah andere Punkte enthalten?
Ohne zusätzliche Information über die Vektorfeldfunktion können wir keine
weitere Aussagen beweisen.
Kapitel 16
Dissipative Systeme:
zweiter Fall
Jetzt betrachten wir eine autonome DGL
dx
= f (x),
dt
x ∈ Rd ,
die der allgemeineren Dissipativitätsbedingung genügt:
∃ α, β > 0 :
hx, f (x)i ≤ α − β|x|2 ,
∀ x ∈ Rd .
Wir werden keine Voraussetzungen über die Existenz einer Ruhelage machen.
Sei V (x) = |x|2 = < x, x >. Dann haben wir
d
d
V (x(t)) =
hx(t), x(t)i
dt
dt
= 2 hx(t), f (x(t))i
≤ 2α − 2β|x(t)|2 = 2α − 2βV (x(t)),
dass ist
dV
+ 2βV ≤ 2α .
dt
Mit dem integrierenden Faktor e2βt erhalten wir
d
{e2βt V (x(t))} ≤ 2αe2βt
dt
und nach Integration
e2βt V (x(t)) − V (x0 ) ≤
oder
V (x(t)) ≤ V (x0 )e−2βt +
108
2α 2βt
(e − 1)
2β
α
(1 − e−2βt )
β
KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL
Definiere B0∗ :=
n
x ∈ Rd : |x|2 ≤
α
β
+1
o
109
.
Offensichtlich ist B0∗ nichtleer und kompakt. Sie ist auch positiv invariant,
weil
α
x0 ∈ B0∗ ⇒ V (x0 ) = |x0 |2 ≤ + 1,
β
und daher
|x(t)|2 = V (x(t))
α
(1 − e−2βt )
β
≤
|x0 |2 e−2βt +
≤
=
α
α
+ 1 · e−2βt ≤ + 1,
β
β
⇒
α
α
+ 1 e−2βt + (1 − e−2βt )
β
β
x(t) ∈ B ∗ ,
∀t ≥ 0
∀t ≥ 0
Außerdem ist B0∗ eine absorbierende Menge: Sei D ⊂ Rd \ B0∗ eine beschränkte Menge und definiere
kDk2 = sup |x0 |2
⇒ kDk2 >
x0 ∈D
Sei x0 ∈ D. Dann haben wir
V (x(t))
α
+1
β
α
(1 − e−2βt )
β
≤
kDk2 e−2βt +
=
α
α
α
kDk2 −
e−2βt + ≤ 1 + ,
β
β
β
falls
t ≥ TD :=
1
ln
2β
kDk2 −
α
β
> 0.
Daher folgt es, dass dieses dissipative System einen maximalen Attaktor A0
besitzt mit
\
A0 :=
x(t, B0∗ ) .
t≥0
A0 ist nichtleer, kompakt, invariant mit A0 ⊂ B0∗ .
Jetzt betrachten wir das entsprechende Euler-Verfahren:
xn+1 = xn + hf (xn ) .
KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL
110
Dann ist
|xn+1 |2
=
hxn+1 , xn+1 i
=
hxn + hf (xn ), xn + hf (xn )i
=
|xn |2 + h hxn , f (x)n i + h2 |f (xn )|2
≤
|xn |2 + 2h α − β|xn |2 + h2 |f (xn )|2
(1 − 2βh)|xn |2 + 2αh + h2 |f (xn )|2
=
Sei R ≫ 0 fest und definiere
MR :=
max
|x|2 ≤R+1
|f (x)|2 < ∞
(weil f stetig ist)
Ist |xn |2 ≤ R, dann haben wir
|xn+1 |2
≤
(1 − 2βh)|xn |2 + h(2α + hMR )
≤
(1 − 2βh)R + h(2α + hMR ) ≤ R
für h ∈ (0, hR ], wobei
hR :=
2βR − 2α
.
MR
Der Ball BR = {x ∈ Rd : |x|2 ≤ R} ist positiv invariant bzg. des EulerVerfahrens, falls die Schrittweite h ∈ (0, hR ]. Wir werden eine weitere Beschränkung machen: h ∈ (0, h∗R ), wobei
1
h∗R = min hR ,
,1 .
2β
Dann ist γ(h) := 1 − 2βh ∈ (0, 1). Für |x0 |2 ≤ R gilt die Ungleichung
|xn+1 |2 ≤ γ(h)|xn |2 + h(2α + hMR )
für jedes n = 0, 1, 2, . . . . Daher haben wir
|xn |2
≤
=
Definiere
Bh∗
1 − γ(h)n+1
h{2α + hMR }
1 − γ(h)
2α + hMR
γ(h)n |x0 |2 + {1 − γ(h)n+1 }
2β
γ(h)n |x0 |2 +
2α + hMR
d
2
:= x ∈ R : |x| ≤
+h .
2β
KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL
111
Bh∗ ist nichtleer und kompakt. Wir werden zeigen, dass sie auch positiv invariant
und absorbierend ist, falls die Schrittweite h ∈ (0, h∗R ) und |x0 |2 ≤ R.
Positive Invarianz
Sei x0 ∈ Bh∗ . Dann ist
|x0 |2 ≤
2α + hMR
+h
2β
( < R,
weil R ≫ 0 ist).
Deshalb haben wir
|x1 |2
≤
(1 − 2βh)|x0 |2 + h(2α + hMR )
≤
(1 − 2βh)
=
2α + hMR
2α + hMR
+ h − 2βh2 <
+h
2β
2β
2α + hMR
+ h + h(2α + hMR )
2β
u.s.f. für x2 , x3 , . . ., xn , . . . .
Absorbierende Eigenschaft
Sei D eine beschränkte Menge mit D ∩ Bh∗ = ∅ und kDk2 ≤ R, wobei kDk2
:= supx∈D |x|2 ist. Für x0 ∈ D haben wir
|xn |2
2α + hMR
2β
2α + hMR
≤ γ(h)n kDk2 + {1 − γ(n)n+1 } ·
2β
2α + hMR
≤
+ h für n ≥ ND,h
2β
≤ γ(h)n |x|2 + {1 − γ(h)n+1 }
wobei
ND,h
ln(h/kDk2 )
:= 1 +
ln(γ(h))
(Hinweis: löse γ(h)n kDk2 = h).
Integerteil
Wir schreiben
Φh (x) := x + hf (x)
für die Abbildung des Euler-Verfahrens. Dann ist Bh∗ nichtleer, kompakt, absorbierend und positiv invariant bzg. Φh . Deshalb existiert ein maximaler Attraktor
\
Ah :=
Φnh (Bh∗ ) .
n≥0
Hier ist Ah nichtleer, kompakt, Φh -invariant und attrahierend mit Ah ⊂ Bh∗ für
h ∈ (0, h∗R ] und kDk2 ≤ R.
KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL
16.1
112
Konvergenz der numerischen Attraktoren
Frage: Wie ist der Zusammenhang der Ah und A0 für h → 0+ ?
Wir werden den folgenden Konvergenzsatz beweisen.
Satz dist(Ah , A0 ) → 0 für h → 0
Hier definieren wir den Abstand zwischen kompakten Mengen in Rd durch
dist(A, B) := max dist(a, B),
a∈A
dist(a, B) := min ka − bk
b∈A
Beweis Wir setzen voraus, dass die Behauptung falsch sei. Dann existieren
ein ε0 > 0 und eine Folge hj → 0+ für j → ∞, so dass
dist(Ahj , A0 ) ≥ ε0 ,
∀j .
Die Mengen Ahj sind kompakt. Daher existiert ein aj ∈ Ahj , für welches
dist(aj , A0 ) = dist(Ahj , A0 ) ≥ ε0 ,
∀j .
Wir haben die folgende Abschätzung für den globalen Diskretisierungsfehler
des Euler-Verfahrens:
|x(nh, x0 ) − Φnh (x0 )| ≤ CT,D h
für jedes n = 0, 1, . . ., Nh := ⌊T /h⌋ (Integerteil) und x0 ∈ D, wobei D eine
beliebige kompakte Menge ist.
Wir werden D nehmen, so dass B0∗ ⊂ D und Bh∗ ⊂ D für alle h ∈ (0, h∗R ].
Dann wählen wir T > 0 so groß, dass
dist(x(T, D), B0 ) ≤ ε0 /4 .
Schließlich wählen wir b
hR ≤ h∗R , so dass
CT,D h ≤ ε0 /4,
∀h ∈ (0, b
hR ] .
Insbesondere haben wir
Nh
Φh (x0 ) − x(Nh h, x0 ) ≤ CT,D h
∀h ∈ (0, b
hR ] .
Zurück zu dem Beweis: Die Menge Ah ist Φh -invariant, d.h. ist Φh (Ah ) =
Ah . Daher ist
h
ΦN
h (Ah ) = Ah
KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL
und für jedes aj ∈ Ahj existiert bj ∈ Ahj , so dass
Nh
Φhj j (bj ) = aj
für jedes j = 1, 2, . . . . Dann haben wir
bj ∈ Ahj ⊂ Bh∗j ⊆ D,
so dass
gilt.
∀j ,
Nh
x(Nhj hj , bj ) − Φhj j (bj ) ≤ CT,D hj ≤ ε0 /4
Insgesamt haben wir dann
dist Ahj , A0
=
dist (aj , A0 )
≤
aj − x(Nhj hj , bj ) + dist x(Nhj hj , bj ), A0
≤
ε0 /4 + ε0 /4 = ε0 /2
Dieser Widerspruch beendet den Beweis.
Die Konvergenz
dist (Ah , A0 ) → 0 für h → 0
heißt: halbstetige Konvergenz von oben.
Sie ist nicht gleich
dist (A0 , Ah ) → 0
für h → 0,
die im Allgemeinen nicht gültig ist.
Gegenbeispiel Betrachte die DGL in R2
wobei
2
dx
,
= Rx − x max 0, |x|2 − 1
dt
R=
"
0 1
−1 0
#
.
113
114
KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL
Rotation innerhalb der Einheitsscheibe (|x| ≤ 1)
Rotation und Attraktion ausserhalb der Einheitsscheibe
Der globaler Attraktor hier ist die Einheitsscheibe
A0 = {x ∈ R2 : |x| ≤ 1}.
Das implizite Euler-Verfahren für diese DGL lautet
xn+1 = xn + h Rxn+1 − xn+1 (max{0, |xn+1 |2 − 1})2
oder
M xn+1 = xn ,
wobei
M :=
"
1 + h(max{0, |xn+1 |2 − 1})2
h
−h
1 + h(max{0, |xn+1 |2 − 1})2
#
Daher ist
⊤
2
x⊤
n+1 M M xn+1 = |xn | ,
dass ist
h
2 i
|xn+1 |2 = |xn |2
h2 + 1 + h max{0, |xn+1 |2 − 1}
und deshalb ist
|xn+1 |2 =
1
1
|xn |2 ≤ 2
|xn |2
h2 + (1 + h(max{0, |xn+1 |2 − 1})2 )2
h +1
für alle n ≥ 0. Davon bekommen wir
|xn |2 ≤
(h2
1
|x0 |2 → 0
+ 1)n
für n → ∞ ∀x0 ∈ R2
.
KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL
115
Der numerische Attraktor hier ist Ah = {0}.
Wir haben Ah ⊂ A0 für alle h > 0 ⇒ dist (Ah , A0 ) ≡ 0 für alle h > 0.
Aber
dist (A0 , Ah ) ≡ 1 für alle h > 0
Kapitel 17
Mengenwertige Attraktoren
Die folgende DGL in R1 hat einen einfachen nichttrivialen mengenwertigen Attraktor:
dx
= −x(x2 − 1),
x ∈ R1 .
dt
Die Ruhelagen sind 0 (instabil) und ± 1 (lokal asymptotisch stabil mit Einzugsbereiche ±x0 > 0).
x
Einzugsbereich x0 > 0
t
Einzugsbereich x0 < 0
Die Vektorfeldfunktion f (x) = −x(x2 −1) genügt der Dissipativitätsbedingung
hx, f (x)i = x2 − x4 ≤ 1 − x2 ,
∀ x ∈ R1 ,
und die Menge Bε := [−1−ε, 1+ε] ist eine positiv invariante absorbierende Menge
für jedes ε > 0.
Es existiert ein eindeutiger globaler Attraktor
A0 = [−1, 1] =
\
t≥0
116
Φ (t, Bε )
KAPITEL 17. MENGENWERTIGE ATTRAKTOREN
117
Wir können die attrahierende Eigenschaft von A0 auch durch eine LjapunovFunktion beschreiben. Definiere V : R1 → R+ durch
V (x) := max x2 − 1, 0 .
Offensichtlich ist V (x) ≥ 0 mit V (x) = 0 genau dann, wenn x ∈ A0 . Wir haben
die folgenden Abschätzungen
α(dist(x, A0 )) ≤ V (x) ≤ β(dist(x, A0 ))
wobei α(r) = r2 und β(r) = r(r + 2).
Beweis Fall (1) Für x < −1 ist dist(x, A0 ) = |x − (−1)| = |x + 1| und
|x + 1|2 = (x + 1)2 = x2 + 2x + 1 ≤ x2 − 1,
weil x < −1 .
Auch haben wir
x2 − 1 = (x − 1)(x + 1) =
(2 + {−x − 1}) (−x − 1)
=
(2 + |x + 1|)|x + 1| weil x < −1
=
[2 + dist(x, A0 ) ] dist(x, A0 ) .
Fall (2) Für x > 1 ist dist(x, A0 ) = x − 1 und
(x − 1)2 = x2 − 2x + 1 ≤ x2 − 1 für x > 1 .
Außerdem haben wir
x2 − 1 = (x − 1)(x + 1) = (x − 1)({x − 1} + 2) = |x − 1|(|x − 1| + 2) für x > 1.
Die Funktion V ist nicht überall differenzierbar: nur für x 6= ±1. Sie genügt
einer lokalen Lipschitz-Bedingung
|V (x) − V (y)| ≤ LR |x − y|,
∀ x, y mit |x|, |y| ≤ R .
für jedes R > 1.
Beweis: Betrachte ein festes R > 1 und die folgenden Fälle.
KAPITEL 17. MENGENWERTIGE ATTRAKTOREN
118
Fall (1) Sei x, y ∈
/ A0 mit |x|,|y| ≤ R.
2
(x − 1) − (y 2 − 1) = x2 − y 2 |V (x) − V (y)| =
≤
(|x| + |y|) |x − y| ≤ 2R |x − y|
Fall (2) Sei x, y ∈ A0
|V (x) − V (y)| = |0 − 0| = 0 ≤ 2R|x − y| .
Fall (3) Sei x ∈
/ A0 und y ∈ A0
|x2 − 1 − 0| ≤ |x2 − y 2 |
|V (x) − V (y)| =
≤
weil y 2 ≤ 1
2R|x − y|
Die Funktion V (x) = x2 − 1 für x2 > 1. Sie ist überall differenzierbar
/ A0
außerhalb des Attraktors. Deshalb haben wir für x0 ∈
d
V (x(t, x0 )) =
dt
=
∂
V (x(t, x0 )) · f (x(t, x0 ))
∂x
− 2x(t, x0 )2 x(t, x0 )2 − 1
weil x(t, x0 )2 > 1 für alle t ≥ 0, falls x20 > 1, dass ist, die Ljapunov-Funktion V
genügt der Differentialungleichung
d
V (x(t, x0 )) ≤ − 2V (x(t, x0 ))
dt
und deshalb der Ungleichung
V (x(t, x0 )) ≤ e−2t V (x0 ),
∀ t ≥ 0.
(Diese letzte Ungleichung ist auch gültig trivialerweise für x0 ∈ A0 , weil V (x)
= 0 für alle x ∈ A0 ).
Das obige Beispiel ist ganz einfach und die Ljapunov-Funktion ist kaum notwendig. Aber es existiert eine solche Ljapunov-Funktion auch für komplizierte
Attraktoren, z.B. wenn A0 eine fraktale Menge ist, wie für die Lorenz’ schen
Gleichungen. Weil dieser Attraktor die Nullmenge von V ist, können wir nicht
erwarten, dass V glatt ist. In der Praxis können wir eine explizite Funktion V
fast nie finden, aber deren theoretische Existenz und Eigenschaften sind noch
sehr nützlich.
Sei Φ(t, x0 ) die Lösungsabbildung einer autonomen DGL
dx
= f (x),
dt
x ∈ Rd ,
119
KAPITEL 17. MENGENWERTIGE ATTRAKTOREN
und sei A0 eine nichtleer kompakte Menge, die invariant bzg. Φ ist, dass ist, mit
Φ(t, A0 ) ≡ A0 ,
∀t ≥ 0.
Wir können die Begriffe Ljapunov-Stabilität“ und asymptotische Stabi”
”
lität“ von einer Ruhelage zu einer solchen Menge A0 verallgemeinern.
Definition 1:
Eine Menge A0 heißt Ljapunov-stabil, wenn zu jedem
ε > 0 es ein δ = δ(ε) > 0 existiert mit folgender Eigenschaft:
dist(x0 , A0 ) < δ
⇒
dist (Φ(t, x0 ), A0 ) < ε
∀t≥0.
Definition 2: Eine Menge A0 heißt (global) gleichmäßig attrahierend,
wenn zu jedem ε > 0 und zu jeder beschränkten Menge D ein TD,ε > 0
existiert mit der Eigenschaft:
dist (Φ(t, x0 ), A0 ) < ε
∀ t ≥ TD,ε und x0 ∈ D.
Definition 3:
Eine Menge A0 heißt (global) gleichmäßig
asymptotisch stabil, falls sie Ljapunov-stabil und (global) gleichmäßig
attrahierend ist.
Bemerkung: Eine Ljapunov-stabile Menge A0 ist mindestens Φ-positiv invariant, d.h., Φ(t, A0 ) ≡ A0 für alle t ≥ 0.
Bemerkung: Ein globaler Attraktor ist global gleichmäßig asymptotisch
stabil.
Der japanische Mathematiker T. Yoshizawa hat bewiesen, dass die Existenz
einer Ljapunov- Funktion wie in dem Beispiel eine hinreichende und notwendige
Bedingung für gleichmäßig asymptotische Stabilität sei. Der Beweis für Differenzengleichungen ist in dem Buch von Stuart/Humphries zu finden.
KAPITEL 17. MENGENWERTIGE ATTRAKTOREN
Satz (Yoshizawa)
120
Genüge die Vektorfeldfunktion der DGL
dx
= f (x),
dt
x ∈ Rd ,
einer lokalen Lipschitz-Bedingung. Eine nichtleer kompakte Menge A0
ist global gleichmäßig asymptotisch stabil genau dann, wenn es eine
Ljapunov-Funktion V : Rd → R+ existiert mit folgenden Eigenschaften:
(1) Es existieren Funkionen α, β : R+ → R+ , die stetig und streng
monoton wachsend sind, mit α(0) = β(0) = 0 und 0 < α(r) < β(r) für
r > 0, so dass
α(dist(x, A0 )) ≤ V (x) ≤ β(dist(x, A0 )),
(2)
V genügt einer lokalen Lipschitz-Bedingung:
|V (x) − V (y)| ≤ LR |x − y|
für alle x, y mit dist(x, A0 ), dist(y, A0 ) ≤ R, und jedes R > 0.
(3)
Es existiert eine Konstante c > 0, so dass
V (Φ(t, x0 )) ≤ e−ct V (x0 ) .
Wir werden die Existenz einer solchen Ljapunov-Funktion benutzen, um die
Existenz eines numerischen Attraktors zu etablieren.
Kapitel 18
Diskretisierung eines
Attraktors: allgemeiner Fall
Betrachte eine autonome DGL in Rd
dx
= f (x),
dt
die eine gleichmäßig asymptotische stabile Menge A0 besitzt. Dann betrachte
ein entsprechendes Einschrittverfahren
xn+1 = xn + hF (h, xn ),
mit konstanter Schrittweite h > 0, das konsistent ist und die globale Ordnung
p ≥ 1 hat.
Sei Φ(t, x0 ) die Lösung obiger DGL und Φh (x0 ) = x0 + hF (h, x0 ) die Abbildung des numerischen Verfahrens. Für eine (p + 1)-mal stetig differenzierbare
Funktion f haben wir die folgende Abschätzung für den globalen Diskretisierungsfehler:
kΦnh (x0 ) − Φ(nh, x0 )k ≤ CT,D · hp
für n = 0, 1, . . ., ⌊T /h⌋ (Integerteil) und x0 ∈ D, wobei D eine kompakte
Teilmenge von Rd ist. Eine solche Abschätzung ist nutzlos für den Fall T → ∞,
weil CT,D ∼ eαT → +∞.
Aber mit einer Ljapunov-Funktion V und dem lokalen Diskretisierungsfehler,
kΦh (x0 ) − Φ(h, (x0 )k ≤ KD · hp+1 , x0 ∈ D kompakt
können wir die Existenz eines naheliegenden numerischen Attraktors etablieren.
121
KAPITEL 18. DISKRETISIERUNG EINES ATTRAKTORS: ALLGEMEINER FALL122
Satz (Kloeden/Lorenz 1986) Sei f : Rd → Rd eine (p + 1)-mal stetig
differenzierbare Funktion und besitze die DGL
dx
= f (x),
dt
eine gleichmäßig asymptotisch stabile kompakte Menge A0 . Dann für h > 0
genügend klein besitzt das Einschrittverfahren
xn+1 = Φh (xn ) := xn + hF (h, xn )
einen maximalen Attraktor Ah , für welchen
dist (Ah , A0 ) → 0
für h → 0 + .
Beweis Sei V eine Ljapunov-Funktion, die die gleichmäßig asymptotische
Stabilität der Menge A0 charakterisiert.
Wähle R0 ≫ 0 und halte R0 fest. Schreibe
N (A0 , R0 ) = x ∈ Rd : dist(x, A0 ) < R0
für die R0 -Umgebung der Menge A0 . Als die Menge D in der Abschätzung des
lokalen Diskretisierungsfehlers wählen wir D = N (A0 , R0 ) und schreiben wir
KR0 für die entsprechende Konstante.
Definiere:
hR0 :=
R0
2KR0
Hilfssatz 1
1/(p+1)
,
R0
r0 := β −1 α
2
⇒
r0 ≤
R0
.
2
Φh (x0 ) ∈ N (A0 , R0 ) für x0 ∈ N (A0 , r0 ) und h ≤ hR0 .
Beweis Für die DGL-Lösung haben wir
α(dist (Φ(h, x0 ), A0 )) ≤ V (Φ(h, x0 )) ≤ e−ch V (x0 ) < V (x0 )
aber
V (x0 ) ≤ β(dist(x0 , A0 )) = β(r0 ) ≤ β ◦ β −1 ◦ α(R0 /2) = α(R0 /2) ,
dass ist
α(dist (Φ(h, x0 ), A0 )) < α(R0 /2)
oder
dist (Φ(h, x0 ), A0 ) < R0 /2 .
KAPITEL 18. DISKRETISIERUNG EINES ATTRAKTORS: ALLGEMEINER FALL123
Wegen der Dreiecksungleichung haben wir dann
dist (Φh (x0 ), A0 ) ≤
Hilfssatz 2
kΦh (x0 ) − Φ (h, x0 )k + dist (Φ(h, x0 ), A0 )
≤
KR0 hp+1 + R0 /2
≤
R0 /2 + R0 /2 = R0
für h ≤ hR0 .
Für x0 ∈ N (A0 , r0 ) und h ≤ hR0 gilt die Ljapunov-Ungleichung:
V (Φh (x0 )) ≤ e−ch V (x0 ) + LR0 KR0 hp+1 .
Beweis Sei Φh (x0 ), Φ(h, x0 ) ∈ N (A0 , R0 ). Dann folgen die Ungleichungen
V (Φh (x0 ))
≤
|V (Φh (x0 )) − V (Φ(h, x0 ))| + V (Φ(h, x0 ))
≤
LR0 kΦh (x0 ) − Φ(h, x0 )k + e−ch V (x0 )
≤
LR0 KR0 hp+1 + e−ch V (x0 ),
wobei wir die Lipschitz-Bedingung, die exponentielle abfallende Eigenschaft und
den lokalen Diskretisierungsfehler benutzt haben.
Jetzt wollen wir eine Φh -positiv invariante Menge finden, in welcher diese
Ungleichung für jede Iteration des numerischen Verfahrens gültig bleibt.
Hilfssatz 3
Die Menge
U :=
x ∈ Rd : V (x) < α(r0 )
ist offen mit A0 ⊂ U ⊂ N (A0 , r0 ).
Außerdem ist sie Φh -positiv invariant für jedes h < h∗R0 , wobei h∗R0 das größte
h ≤ hR0 ist, für welches
1
1 −1
KR0 LR0 hp+1
≤
α
β
(α(r
))
.
0
1 − e−ch
4
2
Wir verwenden, dass
KR0 LR0 hp+1
K R0 L R0 p
∼
h
1 − e−ch
c
gilt
Beweis V ist stetig und V −1 (0) = A0 . Daher ist A0 ⊂ U. Auch für x0 ∈ U
α(dist(x, A0 )) ≤ V (x) < α(r0 ) ,
KAPITEL 18. DISKRETISIERUNG EINES ATTRAKTORS: ALLGEMEINER FALL124
mit der Monotonie von α(·) erhalten wir für x ∈ U , dass dist(x, A0 ) < r0
x ∈ N (A0 , r0 ).
⇒
Sei x0 ∈ U. Dann ist x0 ∈ N (A0 , r0 ) und die Ljapunov-Ungleichung ergibt:
V (Φh (x0 )) ≤
e−ch V (x0 ) + KR0 LR0 hp+1
<
e−ch α(r0 ) + KR0 LR0 hp+1
1
2
β −1 (α(r0 )). Dann gilt
1 −1
α(r∗ ) < β(r∗ ) = β
β (α(r0 )) < β(β −1 (α(r0 ))) = α(r0 ) .
2
Definiere: r∗ :=
Auch für h < h∗R0 haben wir
1
1
KR0 LR0 hp+1
≤ α(r∗ ) ≤ α(r0 ) ,
−ch
1−e
4
4
und deshalb:
KR0 LR0 hp+1 ≤
1
α(r0 ) (1 − e−ch ) .
4
Von oben haben wir dann
1
(1 − e−ch )α(r0 )
4
1 3 −ch
α(r0 ) < α(r0 )
+ e
=
4 4
< e−ch α(r0 ) +
V (Φh (x0 ))
⇒
Φh (x0 ) ∈ U, dass ist Φh (U) ⊆ U.
Wir beschränken uns zu dieser Menge U und Schrittweite h < h∗R0 . Jetzt
wollen wir eine Φh -positiv invariante absorbierende Menge Λh konstruieren.
Hilfssatz 4
Definiere
η(h) :=
und
Λh :=
2KR0 LR0 hp+1
,
1 − e−ch
x ∈ Rd : V (x) ≤ η(h)
für jedes h < h∗R0 . Dann ist Λh nichtleer, kompakt und Φh -positiv invariant
mit
dist(Λh , A0 ) → 0 für h → 0+ .
Beweis Offensichtlich gelten die Ungleichungen
η(h) ≤
1
1
α(r∗ ) < α(r0 ) < R0 .
2
2
KAPITEL 18. DISKRETISIERUNG EINES ATTRAKTORS: ALLGEMEINER FALL125
V ist stetig, so V −1 ([0, η(h)]) ist abgeschlossen. Außerdem ist
A0 = V −1 (0) ⊂ V −1 ([0, η(h)]) = Λh .
Daher ist Λh nichtleer und genügt
dist(Λh , A0 ) ≤ α−1 (η(h)),
dist(A0 , Λh ) = 0,
weil α(dist(x, A0 )) ≤ V (x) ≤ η(h) für alle x ∈ Λh . Diese Ungleichung und die
Kompaktheit von A0 zeigen, dass Λh beschränkt ist – daher ist Λh auch kompakt.
Sei x0 ∈ Λh . Dann gilt die Ungleichung
V (Φh (x0 ))
≤ e−ch V (x0 ) + KR0 LR0 hp+1
≤ e−ch η(h) +
=
⇒
1
η(h) (1 − e−ch )
2
1
(1 + e−ch )η(h) < η(h)
2
Φh (x0 ) ∈ Λh , dass ist Φh (Λh ) ⊆ Λh .
Schließlich müssen wir zeigen, dass Λh absorbierend ist.
Es existiert h∗ ≤ h∗R0 , für welches
Hilfssatz 5
1
V (Φh (x0 )) ≤ e− 4 ch V (x0 )
für jedes x0 ∈ U \ Λh und h ∈ (0, h∗ ).
Beweis Sei x0 ∈ U \ Λh . Dann ist V (x0 ) > η. Deshalb folgt:
V (Φh (x0 )) ≤
=
e−ch V (x0 ) + KR0 LR0 hp+1
e−ch V (x0 ) +
1
2
1
1 − e−ch η(h) <
2
1
Jetzt betrachten wir die Ungleichung:
1
2
1
1 + e−ch < e− 4 ch .
1 + e−ch V (x0 ) .
1
2
die für alle 0 < h < h∗ gilt (wir wählen
ein geeignetes h∗ ≤ h∗R0 ).
1
e− 4 ch
h∗
KAPITEL 18. DISKRETISIERUNG EINES ATTRAKTORS: ALLGEMEINER FALL126
Deshalb haben wir
1
V (Φh (x0 )) < e− 4 ch V (x0 )
.
Hilfssatz 6
Die Menge Λh ist absorbierend (bzg. U) für h ∈ (0, h∗ ).
Beweis Sei x0 ∈ U \ Λh . Dann gilt die Ungleichung
1
V (Φh (x0 )) ≤ e− 4 ch V (x0 ) .
Sei x0 , Φh (x0 ) ∈ U \ Λh . Dann haben wir
V (Φ2h (x0 )) ≤ e− 4 ch V (Φh (x0 )) ≤ e−2( 4 ch) V (x0 ) .
1
1
Ähnlicherweise für x0 , Φh (x0 ), Φ2h (x0 ), . . ., Φjh (x0 ) ∈ U \ Λh haben wir
j
j
− 4 ch
V (Φj+1
V (x0 ) ≤ e− 4 ch α(r0 ) .
h (x0 )) ≤ e
Definiere:
Nh = 1 +
Dann gilt
4
ln
ch
α(r0 )
η(h)
h +1
V ΦN
(x0 ) ≤ η(h)
h
⇒
Integerteil
h +1
ΦN
(x0 ) ∈ Λh .
h
Wir können jetzt den maximalen (bzg. U) numerischen Attraktor definieren:
\ j
Φh (Λh ) .
Ah :=
j≥0
Offensichtlich gilt Ah ⊂ Λh . Deshalb folgt
dist (Ah , A0 ) ≤ dist (Ah , A0 ) → 0
für h → 0+ .
Wir haben den Satz bewiesen!
Gegenbeispiel: Im allgemeinen können wir nicht beweisen, dass
dist(A0 , Ah ) → 0 für h → 0+ .
(Siehe das Beispiel im Kapitel 16.)
Kapitel 19
Sattelpunkte
Jetzt wollen wir den Fall betrachten, für welchen eine Ruhelage ein Sattelpunkt
ist. Eine solche Ruhelage ist offensichtlich instabil. Wir werden durch eine Reihe
von Beispiele untersuchen was passieren kann.
Beispiel 1: Betrachte die lineare DGL in R2
! "
#
!
d
x
1 0
x
=
dt
y
0 −1
y
Die einzige Ruhelage ist (x∗ , y ∗ ) = (0, 0). Sie ist instabil, weil die Matrix
"
#
1 0
A=
0 −1
die Eigenwerte ±1 besitzt. Die entsprechenden Eigenvektoren sind
1
0
λ1 = +1, v1 =
und λ2 = − 1, v2 =
.
0
1
Die Matrix A ist eine diagonale Matrix. Daher sind die beiden Komponenten
entkoppelt und wir können jedes Teilsystem unabhängig lösen.
dx
=x
dt
⇒
x(t) = x0 et ,
dy
= −y ⇒ y(t) = y0 e−t
dt
Das Verhalten dieser Lösung hängt von dem Anfangswert (x0 , y0 ) ab.
Fall 1: x0 = y0 = 0
Fall 2: x0 6= 0, y0 = 0
⇒
x(t) ≡ y(t) ≡ 0
⇒
x(t) = x0 et mit y(t) ≡ 0
127
die Ruhelage!
128
KAPITEL 19. SATTELPUNKTE
ist)
Hier gilt es x(t) → ±∞ für t → ∞, wo ± = sign(x0 ), oder (was günstiger
x(t) → 0
für
t → −∞ .
Die Lösungskurve hier gehört zu der x-Achse, d.h. in der Richtung des instabilen
Eigenvektors.
Fall 3: x0 = 0, y0 6= 0
⇒
x(t) ≡ 0 mit y(t) → 0 für t → +∞.
Die Lösungskurve gehört zu der y-Achse, d.h. die Richtung des stabilen Eigenvektors.
Fall 4: x0 6= 0 und y0 6= 0. Hier gilt es
(x(t), y(t)) → (±∞, 0)
für t → +∞
(x(t), y(t)) → (0, ±∞)
für t → −∞
und
y
x
Die x-Achse heißt instabile Mannigfaltigkeit und die y-Achse stabile Mannigfaltigkeit.
Die beiden sind lineare Teilräume des Zustandsraums R2 , die wir durch E u und
E s beschreiben.
Beispiel 2: Betrachte die lineare DGL in R2
! "
#
d
x
1 0
=
dt
y
1 −1
x
y
!
129
KAPITEL 19. SATTELPUNKTE
Die einzige Ruhelage ist (x∗ , y ∗ ) = (0, 0), die instabil ist , weil die Matrix
"
#
1 0
A=
1 −1
die Eigenwerte ±1 besitzt. Die entsprechenden Eigenvektoren sind
2
0
λ1 = +1, v1 =
und λ2 = − 1, v2 =
.
1
1
Die Matrix A ist eine dreieckige Matrix. Daher können wir für den x-Komponenten
allein lösen und dann diese Lösung in die y-Gleichung einfügen:
dx
=x
dt
⇒
x(t) = x0 et ,
und daher
dy
= x − y = −y + x0 et
dt
⇒
1
1
y(t) = y0 − x0 e−t + x0 et
2
2
Für x0 = y0 = 0 haben wir x(t) ≡ y(t) ≡ 0 (die Ruhelage!) und für x0 = 0,
y0 6= 0 haben wir x(t) ≡ 0 und y(t) → 0 für t → +∞. In diesem Fall gehört die
Lösungskurve zu der y-Achse, d.h. zu der Richtung des stabilen Eigenvektors.
Daher ist die stabile Mannigfaltigkeit E s ≡ y-Achse.
Die instabile Mannigfaltigkeit E u ist nicht die x-Achse, sondern entlang dem
instabilen Eigenvektor, d.h. die Gerade y = 21 x. Um dies zu zeigen, definieren
wir
1
z := y − x
2
Dann lautet
dy 1 dx
1
1
dz
=
−
= x − y − x = − y − x = −z.
dt
dt
2 dt
2
2
Die DGL
dz
=−z
dt
hat die Ruhelage z ∗ = 0 und die Lösung z(t) = z0 e−t , die gegen 0 strebt für
t → ∞, d.h. die Ruhelage z ∗ = 0 ist asymptotisch stabil. Aber die Ruhelage
z ∗ = 0 entspricht auf der Gerade
y = Φu (x) :=
1
x,
2
die daher die instabile Mannigfaltigkeit E u ist. Daher ist die instabile Mannigfaltigkeit E u asymptotisch stabil! (das klingt wie ein Widerspruch!). Dieses
Beispiel ist tatsächlich nur eine transformierte Version des ersten Beispieles –
die Matrizen sind ähnliche Matrizen.
130
KAPITEL 19. SATTELPUNKTE
Es
E u (y = Φu (x) = 12 x
Beispiel 3: Betrachte jetzt die nichtlinearen DGL in R2
dx
dy
= x,
= −y + x2 ,
dt
dt
die die DGL im ersten Beispiel als ihre Linearisierung hat. Daher sind die
linearen (stabile bzw.instabile) Mannigfaltigkeiten E s bzw.E u die y− bzw. xAchsen. Offensichtlich haben wir
x(t) = x0 et
in dem nichtlinearen Fall. Aber x(t) = x0 et mit y(t) ≡ 0 ist keine Lösung der
nichtlinearen DGL und deshalb kann die x-Achse nicht die instabile Mannigfaltigkeit dieser DGL sein.
Aber x(t) ≡ 0 mit y(t) = y0 e−t ist eine Lösung der nichtlinearen DGL und
(x(t), y(t)) = (0, y0 e−t ) → (0, 0) für t → ∞ .
Hier bleibt die lineare stabile Mannigfaltigkeit E s (die y-Achse) die stabile Mannigfaltigkeit W s des nichtlinearen Systems.
Frage: Wie ist die nichtlineare instabile Mannigfaltigkeit
W u = {(x0 , y0 ) ∈ R2 | (x(t), y(t)) → (0, 0) für t → −∞} ?
(Die Konvergenz hier ist rückwärts in Zeit). Diese Kurve soll eine invariante
Kurve der DGL sein. Sei W u durch y := Φu (x) definiert. Dann müssen wir
y(t) = Φu (x(t))
∀t ≤ 0
131
KAPITEL 19. SATTELPUNKTE
haben, falls y0 = Φu (x0 ). Deshalb soll
d
d
y(t) ≡
Φu (x(t))
dt
dt
gelten, d.h.
dΦu
dx
dy
=
(x(t)) ·
dt
dx
dt
Aber
dx
dy
= x und
= −y + x2 = −Φu (x) + x2 .
dt
dt
Daher erhalten wir die DGL für Φu = Φu (x)
x
dΦu
+ Φu = x2
dx
(∗)
mit dem Anfangswert Φu (0) = 0 .
Die DGL (∗) ist linear in Φu mit
x2 = x
dΦu
d
+ Φu =
{xΦu (x)}
dx
dx
Wir integrieren die beiden Seiten und erhalten
x
1 3
1 3 x
x = xΦu (x)
x = xΦu (x)
⇒
3
3
0
0
oder
y = Φu (x) :=
1 2
x
3
.
Betrachte die Transformation
z := y − Φu (x) = y −
1 2
x .
3
Dann gilt:
dy
d
dz
=
−
dt
dt
dt
d.h., die DGL
1 2
x
3
=
dy 2 dx
1
− x
= −y + x2 = −z
dt
3
dt
3
dz
= −z ⇒ z(t) = z0 e−t → 0 = z ∗
dt
Wie oben, bedeutet dies , dass die instabile Mannigfaltigkeit W u der nichtlinearen DGL asymptotisch stabil ist.
132
KAPITEL 19. SATTELPUNKTE
y = Φu (x) = 31 x2
Wu
Eu
W s ≡ Es
Die nichtlineare instabile Mannigfaltigkeit W u und die lineare instabile Mannigfaltigkeit E u sind tangentiell in (x∗ , y ∗ ) = (0, 0), weil
y = Φu (x) =
1 2
x ⇒
3
dΦu
2
(x) = x ⇒ Φu (0) = 0,
dx
3
dΦu
(0) = 0 .
dx
Bemerkung: Der Hartmann-Grobmann-Satz sagt, dass die linearen und
nichtlinearen Phasenbilder hier homöomorphisch sind (mindestens in einer Umgebung der Ruhelage).
Kapitel 20
Sattelpunkte und das
Euler-Verfahren
Wir fangen mit dem linearen Fall an. Betrachte die lineare DGL
dx
= Ax
dt
und das entsprechende Euler-Verfahren
xn+1 = xn + hAxn = (I + hA) xn
Sei λ ein Eigenwert der Matrix A und V 6= 0 der entsprechende Eigenvektor,
also
AV = λV .
Dann ist V auch Eigenvektor der Euler-Matrix I + hA mit entsprechendem
Eigenwert 1 + λh:
(I + hA)V = V + hAV = V + hλV = (1 + hλ)V .
Jetzt sei die Ruhelage der DGL x∗ = 0 ein hyperbolischer Punkt (z.B.,
Sattelpunkt):
Re(λ) 6= 0.
Sei λ = α + iβ. Dann gilt
1 + hλ = (1 + αh) + iβh .
Die Ruhelage x∗ = 0 des Euler-Verfahrens ist auch ein hyperbolischer Punkt,
falls
1 6= |1 + hλ|2 = (1 + αh)2 + β 2 h2
Für α < 0 brauchen wir h genügend klein, um |1 + λh| < 1 zu erzwingen:
1 + 2αh + (α2 + β 2 )h2 < 1
133
⇒
0<h<
−2α
+ β2
α2
KAPITEL 20. SATTELPUNKTE UND DAS EULER-VERFAHREN
134
Für α > 0 gilt |1 + λh| > 1 für alle h > 0.
Jetzt betrachten wir den 2-dimensionalen Fall mit λ1 , λ2 reell, wobei λ1 < 0
< λ2 ist.
.
V1 stabil E s
V2 instabil E u
Für 0 < h < −2/λ1 haben wir ein ähnliches Bild für das Euler-Verfahren
mit stabiler Mannigfaltigkeit Ehs ≡ E s und instabiler Mannigfaltigkeit Ehu ≡ E u .
20.1
Ein nichtlineares Beispiel:
Der nichtlineare Fall ist komplizierter, weil die stabilen Mannigfaltigkeiten (bzw.
instabilen) nicht identisch zu sein brauchen.
Betrachte das nichtlineare System
dx
= x,
dt
dy
= −y + x2
dt
Das linearisierte DGL hat die folgende Matrix mit den Eigenwerten/Eigenvektoren

!

1


"
#
1, V1 =
⇒ Eu

 λ1 =
0
1
0
!
A=

0 −1
0


⇒ Es

 λ2 = −1, V2 =
1
Für das nichtlineare System sind
KAPITEL 20. SATTELPUNKTE UND DAS EULER-VERFAHREN
135
• stabile Mannigfaltigkeit: W s ≡ E s ,
• instabile Mannigfaltigkeit W u 6= E u , wobei W u entspricht dem Graph der
Abbildung
Y = Φu (x) =
1 2
x
3
y
Wu
x
Ws
Das Euler-Verfahren hat hier die Vorschrift
xn+1
=
xn + hxn
=
(1 + h)xn
yn+1
=
yn − hyh + hx2n
=
(1 − h)yn + hx2n .
Die linearen stabilen/unstabilen Mannigfaltigkeiten sind Ehs ≡ E s (y-Achse)
und Ehu ≡ E u (x-Achse).
Auch in diesem Beispiel ist Ehs ≡ y-Achse, die nichtlineare stabile Mannigfaltigkeit Whs , weil (für h < 1)
xn ≡ 0 ⇒ yn = (1 − h)h y0 → 0 für n → +∞
eine Lösung der Euler-Differenzengleichung ist. Also Whs = W s = Ehs = E s .
Aber, wie für die nichtlineare DGL, keine Lösung liegt auf der x-Achse (=
Deshalb müssen wir eine Funktion y = Φh (x) suchen, deren Graph die
nichtlineare instabile Mannigfaltigkeit Whu ist. Natürlich brauchen wir
Ehu ).
Φh (0) = 0
KAPITEL 20. SATTELPUNKTE UND DAS EULER-VERFAHREN
136
und der Graph von Φh soll eine invariante Kurve des Euler-Verfahrens sein, d.h.
yn = Φh (xn )
⇐⇒
yn+1 = Φh (xn+1 ) .
Wir können eine algebraische Gleichung für die unbekannte Funktion Φh
herleiten. Wir haben
yn+1 = Φh (xn+1 ) = Φh ((1 + h)xn )
sowie
yn+1 = (1 − h)yn + hx2n = (1 − h)Φh (xn ) + hx2n ,
dass ist, wir erhalten eine Funktionengleichung
Φh ((1 + h)x) = (1 − h)Φh (x) + hx2
∀x ∈ R
mit Φh (0) = 0
Wir können die quadratische Form der von W u , d.h. Φ(x) =
weis nehmen.
1
3
x2 als Hin-
Probiere: y = αx2 . Dann müssen wir haben:
(1 − h)αx2 + hx2 = α(1 + h)2 x2
oder
(1 − h)α + h = α(1 + h)2
Wir erhalten
⇒ α(1 + 2h + h2 − 1 + h) = h
y = Φh (x) :=
1
x2
3+h
⇒ α=
1
3+h
.
Wir haben den Approximationsfehler
1
1
1
h
− x2 =
x2 ≤ hx2 ,
|Φh (x) − Φ(x)| = 3+h 3
3(3 + h)
9
der die gleiche Ordnung (p = 1) des Euler-Verfahrens ist.
Die numerische nichtlinear instabile Mannigfaltigkeit Whu attrahiert alle andere Lösungen des Euler-Verfahrens. Definiere
z := y − Φh (x) = y −
Dann gilt
zn+1
=
yn+1 −
1
x2
3 + h n+1
1
x2
3+h
KAPITEL 20. SATTELPUNKTE UND DAS EULER-VERFAHREN
=
=
137
1
(1 + h)2 x2n
3+h
h(3 + h) − (1 + h)2
(1 − h)yn +
x2n
3+h
{(1 − h)yh + hx2n } −
=
(1 − h)yn +
=
(1 − h)yh −
(1 − h) 2
x
3+h n
=
(1 − h) yh −
=
(1 − h)zh
3h + h2 − 1 − 2h − h2 )
3+h
1
x2
3+h h
x2n
D.h. zn+1 = (1 − h)zn und daher haben wir zn = (1 − h)n z0 → 0 für n → ∞.
Deshalb haben wir ein ähnliches Phasenbild für das Euler-Verfahren.
Whu
Whs
Aber eine DGL-Lösung und eine numerische Lösung mit demselben Anfangswert (x0 , y0 ) können ein ganz anderes Verhalten haben.
Wir können dieses Phänomen besser veranschaulichen mit umgekehrten Zeitrichtungen in dem obigen Beispiel.
KAPITEL 20. SATTELPUNKTE UND DAS EULER-VERFAHREN
Wu
Whu
exakte Lösung
Whs
Ws
138
Whs
Ws
numerische Lösung
Whu
Wu
Wenn wir eine numerische Lösung brauchen, die einer bestimmten DGLLösung folgt, müssen wir entweder ein besseres numerisches Verfahren benutzen
oder den Anfangswert anpassen (so dass die beiden Lösungen an derselben Seite
der entsprechenden stabilen Mannigfaltigkeit liegen).
Wu
Whu
exakte Lösung
modifizierter Startpunkt
Whs
Whs
Startpunkt
Ws
Ws
e
Whu
Wu
Kapitel 21
Geometrische Integratoren
Geometrische Integratoren sind numerische Verfahren, die gewisse Invarianten
einer Differentialgleichung unter Diskretisierung erhalten. Sie sind wichtig in der
Mechanik.
21.1
Der harmonische Oszillator
Betrachte die lineare Differentialgleichung
dx
= Ax,
dt
mit der Rotationsmatrix
A=
"
x ∈ R2 ,
(21.1)
#
(21.2)
0
1
−1 0
.
Aufgabe: Zeigen Sie, dass A⊤ +A = 0, A⊤ A = I und x⊤ Ax ≡ 0 für alle x ∈ R2 .
Daher haben wir
d
d
x(t)⊤ x(t) = 2x(t)⊤ x(t) = 2x(t)⊤ Ax(t) ≡ 0
dt
dt
und es folgt, dass die Lösungskurven Kreise sind, d.h.,
x(t)⊤ x(t) ≡ x⊤
0 x0
for all t ∈ R
oder eine Ruhelage x0 = 0 im triviallen Fall. Die nichttriviallen Lösungen sind
in die Uhrzeitrichtung gerichtet. Warum? (Vektorfeld!).
Betrachte jetzt das explizite Eulerverfahren mit konstanter Schrittweite h >
0,
xn+1 = xn + hAxn .
139
KAPITEL 21. GEOMETRISCHE INTEGRATOREN
140
Dann gilt
⊤
x⊤
n+1 xn+1
= (xn + hAxn ) (xn + hAxn )
⊤
2 ⊤ ⊤
= x⊤
n xn + 2hxn .Axn + h xn A Axn
=
1 + h2 x⊤
n xn ,
⊤
weil x⊤
n Axn ≡ 0 für jedes n und A A = I.
Es folgt durch Induktion, dass
2 n ⊤
x0 x0 → ∞ für n → ∞
kxn k2 = x⊤
n xn = 1 + h
für alle x0 6= 0. Das Eulerverfahren konvergiert auf jedem endlichen Intervall,
aber es kann das asymptotische (“Langzeit”) Verhalten der Differentialgleichung
nicht wiedergeben.
Geht es mit dem impliziten Eulerverfahren mit konstanter Schrittweite h >
0 besser? Dieses Verfahren lautet
xn+1 = xn + hAxn+1
und es gilt
(I − hA) xn+1 = xn .
Wir erhalten
x⊤
n xn
⊤
= x⊤
n+1 (I − hA) (I − hA) xn+1
2 ⊤
= x⊤
n+1 I − 2hA + h A A xn+1
2
= x⊤
xn+1
n+1 1 + h
=
und daher gilt
1 + h2 x⊤
n+1 xn+1
2
kxn+1 k2 = x⊤
n+1 xn+1 = 1 + h
Es folgt, dass
−1
x⊤
n xn .
1
kx0 k2 → 0 für n → ∞,
(1 + h2 )n
d.h. alle numerische Lösungen streben gegen Null. Dies hat nichts mit dem langfristigen dynamischen Verhalten der Differentialgelicheung zu tun.
kxn k2 =
21.1.1
Hamiltonsche Systeme
Die lineare 2-dimensionale Differentialgleichung erster Ordnung (21.1) entspricht
der skalaren Differentialgleichung zweiter Ordnung
d2 x
+ x(t) = 0
dt2
(21.3)
KAPITEL 21. GEOMETRISCHE INTEGRATOREN
141
mit den Phasenvariablen x1 (t) = x(t) und x2 (t) = dx
dt (t). Diese DGL ist eine
Sonderform (mit ω = 1) der harmonsichen Oszillatorgleichung
d2 x
+ ω 2 x(t) = 0
dt2
(21.4)
in der Quantenmechanik, die ein einfaches Beispiel eines Hamiltonschen Systems
ist:
dp
∂H
dq
∂H
=−
,
=
(21.5)
dt
∂q
dt
∂p
für eine gegebene Hamiltonsche Funktion H = H(p, q), wobei p, p ∈ Rd für d
≥ 1 kanonische Phasenvariablen sind.
Beispiel 1. Die harmonsiche Oszillatorgleichung ist ein Hamiltonsches System
mit den skalaren Phasenvariablen q(t) = x(t), p(t) = dx
dt (t) (d = 1 hier). Die
Hamiltonschen Funktion ist
1 2
p + q2
H(p, q) :=
2
und die Differentialgleichung lautet
dp
∂H
=−
= −q,
dt
∂q
dq
∂H
=
= p.
dt
∂p
Beispiel 2. Das Keplersche Zweikörperproblem beschreibt die Bewegung von
zwei Planeten. In normalisierter Form lauten die Differentialgleichungen
!
!
!
!
−1
d
d
p1
p1
q1
q1
(21.6)
= 2
=
,
dt
dt
(q1 + q22 )3/2
p2
p2
q2
q2
Dieses System ist ein Hamiltonsches System auf R4 mit der Hamiltonschen
Funktion
1 2
1
H(p1 , p2 , q1 , q2 ) :=
p1 + p22 − p 2
.
2
q1 + q22
Der folgende Satz beschreibt eine wichtige Eigenschaft von Hamiltonschen
Systemen.
Satz Die Hamiltonsche Funktion ist konstant entlang der Lösungen eines
Hamiltonschen Systems.
Beweis:
gilt
Sei (p(t), q(t)) eine Lösung des Hamiltonschen Systems (21.5). Dann
d
H(p(t), q(t))
dt
=
∂H dp ∂H dq
+
∂p dt
∂q dt
=
−
∂H ∂H
∂H ∂H
+
≡ 0.
∂p ∂q
∂q ∂p
Daher haben wir
H(p(t), q(t)) ≡ H(p(t0 ), q(t0 )).
142
KAPITEL 21. GEOMETRISCHE INTEGRATOREN
Dieser Satz sagt, dass die Hamiltonsche Funktion eine Invariante des Hamiltonschen Systems ist. In der Mechanik ist eine Invariante oft die totale Energie
(kinetische plus potenzielle) des Systems. Aber ein Hamiltonsches System kann
auch andere Invarianten besitzen. Zum Beispiel, q1 p2 − q2 p1 ist auch eine Invariante des Keplerschen Zweikörperproblems (21.6) (angular momentum).
Aufgabe: Zeigen Sie, dass
d
(q1 (t)p2 (t) − q2 (t)p1 (t)) ≡ 0
dt
für das Differentialgleichungssystem (21.6).
21.1.2
Das “gemittelte“ Eulerverfahren
Frage: Gibt es numerische Verfahren, die gewisse Invarianten einer
Differentialgleichung unter Diskretisierung erhalten?
Berachte nochmal die lineare Differentialgleichung (21.1) mit der Rotationsmatrix A definiert durch (21.2). Die Lösungskurven sind Kreise um den Ursprung. Wir haben gesehen, dass weder das explizite Eulerverfahren noch das
implizite Eulerverfahren die Invarianz dieser Lösungskreise erhält. Im ersten Fall
explodieren die nichttrivaillen Lösungen und im zweiten Fall konvergieren alle
Lösungen gegen den Ursprung.
Was passiert, wenn wir das “gemittelte“ Verfahren betrachten, d.h.,
1
1
xn+1 = xn + hAxn + hAxn+1 ?
2
2
(21.7)
Vielleicht gleichen sich die zunehmende und abfallende Wirkung der einzelnen
Verfahren aus?
Wir können (21.7) umschreiben als
1
1
I − hA xn+1 = I + hA xn
(21.8)
2
2
und daher
⊤ ⊤ 1
1
1
1
⊤
⊤
I − hA xn+1 = xn I + hA
I + hA xn
xn+1 I − hA
2
2
2
2
⊤
Der Ausdruck I ± 21 hA
I ± 21 hA läßt sich entwickeln als
1 2 ⊤
1 2
1 ⊤
I ± (A + A) + h A A = 1 + h I,
2
4
4
weil A⊤ + A = 0 und A⊤ A = I sind.
KAPITEL 21. GEOMETRISCHE INTEGRATOREN
143
Dann ist der Term auf der linken Seite von (21.8) gleich
1
1 + h2 x⊤
n+1 xn+1 ,
4
und der Term auf der rechten Seite von (21.8) ist gleich
1
1 + h2 x⊤
n xn .
4
Daher lautet das “gemittelte“ Verfahren (21.7)
1
1 2
1 + h2 x⊤
x
=
1
+
x⊤
h
n+1 n+1
n xn
4
4
oder, einfacher,
⊤
x⊤
n+1 xn+1 = xn xn .
Dies bedeutet, dass
⊤
x⊤
n xn ≡ x0 x0 ,
n = 0, 1, 2, · · · ,
d.h., die Kreise um den Ursprung bleiben invariant unter Diskretisierung durch
das “gemittelte“ Verfahren (21.7).
Frage: Welche numerischen Verfahren erhalten welche Invarianten einer Differentialgleichung unter Diskretisierung?
Kapitel 22
Symplektische Integratoren
Die Dynamik des linearen harmonischen Oszillators (21.1) ist eine rigide Rotation. Die Fläche eines Gebietes (sowie die Gestalt des Gebietes) ist invariant unter
der Dynamik. Für eine nichtlineare Differentialgleichung können wir nicht erwarten, dass die Gestalt des Gebietes unverändert bleibt, aber die Fläche könnte
eine Invariante der Dynamik sein.
22.1
Orientierte Fläche
Seien x = xx12 und y = yy12 zwei Spaltenvektoren in der Ebene R2 . Die
orientierte Fläche des durch x und y erzeugten Parellelogramms ist gegeben
durch
#
"
x1 y1
= x1 y2 − x2 y1 .
Ω(x, y) := det[x, y] = det
x2 x2
Dann gilt
Ω(x, y) = x⊤ Jy,
wobei J die 2 × 2 Matrix
J=
"
0
1
−1 0
#
ist. (Diese Matrix J ist gleich die Matrix A in der linearen harmonischen Oszillatorgleichung (21.1)).
Betrachte eine lineare Abbildung x 7→ Ax von R2 in R2 , wobei A eine beliebige 2 × 2 Matrix ist. Diese Abbildung bildet das durch x und y erzeugte
Parellelogramm auf das durch Ax und Ay erzeugte Parellelogramm mit orientierter Fläche
Ω(Ax, Ay) := det[Ax, Ay] = (Ax)⊤ J(Ay) = x⊤ A⊤ JAy
144
145
KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN
ab. Die orientierte Fläche des Parellelogramms ist invariant unter dieser linearen
Abbildung, falls
A⊤ JA = J
ist. In diesem Fall sagen wir, dass die lineare Abbildung symplektisch ist. (Merke, dass det A = ±1 ist. Warum?).
Beispiel Die Matrix A in der linearen harmonischen Oszillatorgleichung (21.1)
ist symplektisch, weil A = J hier und deswegen gilt es A⊤ JA = (A⊤ A)A = IA
= A = J.
22.2
Symplektische Abbildungen
Eine nichtlineare Abbildung g : R2 → R2 heißt symplektisch, falls
∇g(x)⊤ J∇g(x) = J
für alle x ∈ R2 .
Definition: Eine 2-dimensionale Differentialgleichung
dx
= f (x)
dt
heißt symplektisch, wenn die Lösungsabbildung x0 7→ Φt (x0 ) symplektisch für t genügend klein ist, d.h., falls
∇Φt (x0 )⊤ J∇Φt (x0 ) = J
für alle x0 ∈ R2
(22.1)
mit t genügend klein.
Ein Hamiltonsches System (21.5) mit Hamiltonscher Funcktion H(p, q) kann
in folgende Form umgeschrieben werden:
wobei x :=
p
q
dx
= J −1 ∇H(x)
dt
(22.2)
ist.
Ein berühmter Satz von Poincaré sagt, dass ein Hamiltonsches System (21.5)
mit glatter Hamiltonscher Funcktion symplektisch ist.
Satz Sei eine Hamiltonsche Funktion 2-mal stetig differenzierbar in R2 .
Dann ist die Lösungsabbildung Φt (x0 ) für jedes feste t auf ihrem gesamten Definitionsgebiet symplektisch.
Beweis:
Schreibe x :=
p
q
und x0 :=
p0
q0
, und sei ∇0 der Gradientenope-
rator bezüglich x0 . Dann ist ∇0 Φt (x0 ) die Lösung der Variationsgleichung
d
∇0 Φt (x0 ) = J −1 ∇2 H (Φt (x0 )) ∇0 Φt (x0 ),
dt
∇0 Φt (x0 )t=0 = I2 ,
KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN
146
wobei I2 die 2 × 2 Identitätsmatrix und ∇2 H (Φt (x0 )) die 2 × 2 symmetrische
Hesse-Matrix ist.
Die Gleichgung (22.1) gilt trivialerweise für t = 0 wegen der Anfangsbedingung der Variationsgleichung. Sei t > 0. Dann gilt
d
∇Φt (x0 )⊤ J∇Φt (x0 ) =
dt
=
⊤
d
∇Φt (x0 )
J∇Φt (x0 )
dt
d
⊤
+∇Φt (x0 ) J
∇Φt (x0 )
dt
∇0 Φt (x0 )⊤ ∇2 H (Φt (x0 ))⊤ (J −1 )⊤ J∇0 Φt (x0 ),
+∇0 Φt (x0 )⊤ ∇2 H (Φt (x0 )) ∇0 Φt (x0 ),
=
0,
weil (J −1 )⊤ J = −I2 and J ⊤ = −J.
Daher hängt der Ausdruck ∇Φt (x0 )⊤ J∇Φt (x0 ) nicht von t ab und muss
gleich J sein, weil dessen Wert für t = 0 gleich J ist.
Bemerkung Im Allgemeinen sind symplektische und Hamiltonsche Systeme auf
R2d für d ≥ 1 definiert. In diesem Fall ist J eine 2d×2d Matrix deren Beiträgen
0 und I die d × d bzw Nullmatrix und Identitätsmatrix sind, und die Variablen
p und q des Hamiltonschen Systems sind d-dimensionale Vektoren.
Die lineare harmonische Oszillatorgleichung (21.3) ist die Linearisierung um
die Nulllösung des nichtlinearen Oszillators, der der folgenden skalaren Differentialgleichung genügt:
d2 x
+ sin x = 0.
(22.3)
dt2
Dieses System ist ein Hamiltonsches System mit der Hamiltonschen Funktion
H(p, q) :=
1 2
p + cos q
2
mit kanonsichen Koordinaten q(t) = x(t), p(t) = dx
dt (t) (für d = 1). Die Dynamik
is komplizierterer als im linearen Fall. Es gibt im Allgemeinen Rotationen, aber
diese sind nicht rigid. Die Dynamik erhält die Fläche von Gebieten aber nicht
deren Gestalt (siehe Bild im Buch von Hairer, Lubich und Wanner).
22.3
Symplektische numerische Verfahren
Ein impliziertes Einschrittverfahern mit konstanter Schrittweite h > 0 für eine
autonome Differentialgleichung auf R2 hat die allgemeine Form
xn+1 = xn + hφ(h, xn , xn+1 ).
(22.4)
147
KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN
Wann ist dieses Verfahren ist symplektisch? Die Abbildung ∇x y muss symplektisch sein, d.h., (∇x y)⊤ J∇x y = J, wobei y durch die implizierte Gleichung
y = x + hφ(x, y)
gegeben ist. Es gilt
∇x y = I + h∇x φ(x, y) + h∇y φ(x, y)∇x y
und daher
∇x y = [I − h∇y φ(x, y)]
−1
[I + h∇x φ(x, y)] .
Es ist oft einfacher, diesen Ausdruck direkt von der Differentialgleichung herzuleiten. Wir werden das Hamiltonsche System in der Form (22.2) betrachten.
22.3.1
Das symplektische Eulerverfahren
Dieses Verfahren ist ein implizites Verfahren, das eine Mischung des impliziten
Eulerverfahrens in der ersten Variable und des expliziten Eulerverfahrens in der
zweiten Variable ist. Es lautet
pn+1
= pn − h
∂H
(pn+1 , qn )
∂q
(22.5)
qn+1
= qn + h
∂H
(pn+1 , qn ) .
∂p
(22.6)
Es folgt, dass
∂pn+1
∂pn
= 1 − hHp,q (pn+1 , qn )
∂pn+1
∂qn
= −hHp,q (pn+1 , qn )
∂pn+1
∂pn
∂pn+1
− hHq,q (pn+1 , qn )
∂qn
und
∂pn+1
∂pn
∂qn+1
∂pn
=
hHp,p (pn+1 , qn )
∂qn+1
∂qn
=
1 + hHq,p (pn+1 , qn ) + hHp,p (pn+1 , qn )
2
∂pn+1
∂qn
∂ H
Hier Hp,q = ∂p∂q
, etc. Wir können dieses Gleichungssystem in die folgende
Matrixform umschreiben
#
"
# " ∂p
# "
∂pn+1
n+1
1 + hHp,q 0
1
−hH
q,q
∂pn
∂qn
,
=
∂qn+1
∂qn+1
−hHp,p
1
0 1 + hHq,p
∂pn
∂qn
KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN
148
wobei die Terme Hp,q , Hp,p etc ausgewertet für (pn+1 , qn ) sind. Man kann
zeigen, dass
#
" ∂p
∂p
P :=
n+1
n+1
∂pn
∂qn+1
∂pn
∂qn
∂qn+1
∂qn
symplektisch ist, d.h., es gilt P ⊤ JP = J. Viel einfacher ist die Determinante
auszuwerten. Von
#
#
"
"
#
" ∂p
∂pn+1
n+1
1
−hHq,q
1 + hHp,q 0
∂pn
∂qn
,
= det
det
det ∂qn+1 ∂qn+1
0 1 + hHq,p
−hHp,p
1
∂pn
∂qn
erhalten wir
(1 + hHp,q ) det P = (1 + hHq,p )
und dann
det P = det
"
∂pn+1
∂pn
∂qn+1
∂pn
∂pn+1
∂qn
∂qn+1
∂qn
#
= 1,
falls die Hamiltonsche Funtion 2-mal stetig differenzierbar ist – dann gilt Hq,p
≡ Hp,q .
Satz Das symplektische Eulerverfahren in R2 ist sympletisch für Hamiltonsche Funktionen, die 2-mal stetig differenzierbar sind.
Satz Das symplektische Eulerverfahren hat globale Diskretisierungordnung 1.
Viele Beispiele haben Hamiltonsche Funtionen, die separabel sind, d.h., haben die Form
H(p, q) = T (p) + V (q).
Dann lautet das symplektische Eulerverfahren
′
′
pn+1
=
pn − hV (qn )
qn+1
=
qn + hT (pn+1 ) ,
′
′
wobei V und T die Abbleitungen von V und T sind.
Die Hamiltonsche Funktion
1
H(p, q) := p2 + cos q
2
des nichtlinearen Oszillators (22.3) ist separabel mit
1 2
p ,
V (q) = cos q.
2
Das symplektische Eulerverfahren lautet in diesem Fall
T (p) =
pn+1
=
pn + h sin qn
qn+1
=
qn + hpn+1 ,
(22.7)
(22.8)
149
KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN
Hier kann man direkt zeigen, dass
" ∂p
∂p
P :=
n+1
n+1
∂pn
∂qn+1
∂pn
∂qn
∂qn+1
∂qn
#
=
"
1
0
h cos qp
1
#
.
Offensichtlich gilt det P = 1. Es ist auch leicht direkt zu zeigen, dass P ⊤ JP =
J.
22.3.2
Das Störmer-Verlet-Verfahren
Störmer (1874–1957) war norwegischer Astronom und Verlet (geb. 1931) ist
französischer Physiker, der im Gebiet “Molekulare Dynamik” geforscht hat.
Ihr Verfahren ist ein 2-Schrittverfahren für gewöhnliche Differentialgleichungen zweiter Ordnung mit der Form
d2 q
= f (q).
dt2
(22.9)
Diese Differentialgleichung ist ein Hamiltonsches System mit einer separablen
Hamiltonschen Funktion
H(p, q) :=
1 2
p + V (q),
2
′
wobei f (q) = −V (q) ist.
Das Störmer-Verlet Verfahren lautet
qn+1 − 2qn + qn−1 = h2 f (qn )
(22.10)
Man approximiert die Abbleitung zweiter Ordnung in der Differentialgleichung
durch den Zentraldifferenzenquotienten zweiter Ordnung
q(tn + h) − 2q(tn ) + q(tn − h)
d2 q
(tn ) ≈
.
dt2
h2
Das Störmer-Verlet-Verfahren wird oft leap-frog method gennant (in Zusammenhang mit numerischen Methoden für partieller Differentialgleichung).
Satz Das Störmer-Verlet-Verfahren hat globale Diskretisierungordnung 2.
Es gibt eine 1-Schrittversion des Verfahrens. Man ersetzt die skalare Differentialgleichung (22.9) zweiter Ordnung durch das Hamiltonsche System erster
Ordnung
dp
dq
= p,
= f (q).
dt
dt
KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN
150
Erstens ersetzten wir die Abbleitung in der ersten Gleichung durch den Zentraldifferenzenquotienten erster Ordnung:
pn =
1
(qn+1 − qn−1 ) .
2h
(22.11)
Dann erstezn wir qn−1 (22.10) durch
qn−1 = qn+1 − 2hpn
und erhalten
qn+1 = 2qn + h2 f (qn ) − qn−1 = 2qn + h2 f (qn ) − qn+1 + 2hpn
oder
1
qn+1 = qn + h pn + hf (qn ) = qn + hpn+ 12 ,
2
wobei
1
pn+ 21 = pn + hf (qn ).
2
d.h. das explizite Eulerverfahren mit Schrittweite 12 h auf dem Teilintervall [tn , tn +
1
1
2 h]. Ähnlich approximieren wir p auf dem Teilintervall [tn , tn + 2 h] durch das
implizite Eulerverfahren:
1
pn+1 = pn+ 12 + hf (qn+1 ).
2
Wir können pn+ 21 eliminieren und erhalten das 2-dimensionale numerische Verfahren erster Ordnung:
qn+1
=
1
qn + hpn + h2 f (qn )
2
(22.12)
pn+1
=
1
1
pn + hf (qn ) + hf (qn+1 ).
2
2
(22.13)
Satz Das Störmer-Verlet-Verfahren in R2 ist symplektisch, falls f stetig
differenzierbar ist.
Merke, dass f ist genau dann stetig differenzierbar, wenn die entsprechende
separable Hamiltonische Funktion 2-mal stetig differenzierbar ist.
Der Beweis des Satzes folgt durch eine direkte Berechnung.
∂pn+1
∂pn
=
1 ′
∂qn+1
1 + hf (qn+1 )
2
∂pn
151
KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN
∂pn+1
∂qn
=
1 ′
1 ′
∂qn+1
hf (qn ) + hf (qn+1 )
2
2
∂qn
∂qn+1
∂pn
=
h
∂qn+1
∂qn
=
1 2 ′
h f (qn )
2
Wer fügen die letzten zwei Ausdrücke in die ersten zwei ein und erhalten
∂pn+1
∂pn
=
′
1
1 + h2 f (qn+1 )
2
∂pn+1
∂qn
=
′
′
1 ′
1
hf (qn ) + h3 f (qn+1 )f (qn )
2
4
∂qn+1
∂pn
=
h
∂qn+1
∂qn
=
1 2 ′
h f (qn )
2
#
"
Daher gilt
P :=
"
∂pn+1
∂pn
∂qn+1
∂pn
mit det P = 1.
∂pn+1
∂qn
∂qn+1
∂qn
=
′
1 + 12 h2 f (qn+1 )
h
′
1
2 hf (qn )
′
′
+ 41 h3 f (qn+1 )f (qn )
1 2 ′
2 h f (qn )
#
Literaturverzeichnis
[1] B. Aulbach, Gewöhnliche Differentialgleichungen. Heidelberg: Spektrum
der Wissenschaften, 1998.
[2] W.–J. Beyn, On the numerical approximation of phase portraits near stationary points, SIAM J. Numer. Anal. 24 (1987), 1095–1113.
[3] P. Deuflhard und V. Bornemann, Numerische Mathematik II. Integration
gewöhnlicher Differentialgleichungen. Göttingen: de Gruyter, 1994.
[4] P. Griffiths und D. Higham, Numerical Methods for Ordinary Differential
Equations: Initial Value Problems. Springer, 2011.
[5] E. Hairer, C. Lubich and G. Wanner, Geometric Numerical Integration: Structure Preserving Algorithms for Ordinary Differential Equations,
Springer, 2002
[6] A. Iserles A First Course in the Numerical Analysis of Differential Equations, Cambridge: Cambridge University Press 1996.
[7] P.E. Kloeden und J. Lorenz, Stable attracting sets in dynamical systems
and in their one-step discretizations, SIAM J. Numer. Analysis 23 (1986),
986-995.
[8] P.E. Kloeden Skript zur Vorlesung: Einführung in die Numerische Mathematik, Universität Frankfurt WS2002/3 (auch im Internet)
[9] P.E. Kloeden Skript zur Vorlesung: Numerik für Anfangswertaufgaben,
Universität Frankfurt WS2003/4 (auch im Internet)
[10] A.M. Stuart, Numerical analysis of dynamical systems, Acta Numerica 2
(1994), 467–572.
[11] A.M. Stuart und A.R. Humphries, Numerical Analysis and Dynamical Systems, Cambridge University Press, Cambridge 1996.
[12] T. Yoshizawa, Stability Theory by Lyapunov’s Second Method, The Mathematical Society of Japan, Tokyo, 1966
152
Herunterladen