Skript zur Vorlesung: Numerische Dynamik“ ” Prof. Dr. P.E. Kloeden Institut für Mathematik Goethe Universität Zimmer 101, Robert-Mayer-Straße 10 Telefon: (069) 798 28622 — Sekretariat (069) 798 22422 email: [email protected] 21. Oktober 2011 Inhaltsverzeichnis 1 Gewöhnliche Differentialgleichungen 1.1 Lösungen von Differentialgleichungen . . . . . . . . . 1.1.1 Konstante Lösungen . . . . . . . . . . . . . . 1.1.2 Zeitperiodische Lösungen . . . . . . . . . . . 1.2 Allgemeine explizite Lösungen . . . . . . . . . . . . . 1.2.1 Lineare Differentialgleichungen: skalarer Fall 1.2.2 Skalare DGLen mit getrennten Variablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 6 7 7 8 8 9 2 1-Parameter-Familien von Lösungen 11 2.1 Anfangswertaufgabe . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2 Richtungsfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 3 Integralgleichungsdarstellung einer AWA 19 3.1 Lipschitz-Bedingungen . . . . . . . . . . . . . . . . . . . . . . . . 22 4 Stetige Abhängigkeit der Lösungen 25 4.1 Lipschitz-Bedingungen nochmal . . . . . . . . . . . . . . . . . . . 27 5 Das Euler-Verfahren 32 6 Einschrittverfahren 38 6.1 Taylor-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 7 Einschrittverfahren durch 7.1 Rechteckregel . . . . . . 7.2 Trapezregel . . . . . . . 7.3 Runge-Kutta-Verfahren Integralapproximation 42 . . . . . . . . . . . . . . . . . . . . . . . 42 . . . . . . . . . . . . . . . . . . . . . . . 43 . . . . . . . . . . . . . . . . . . . . . . . 44 8 Konvergenz und Konsistenz 47 8.1 Konsistenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 9 Numerische Instabilität 53 1 10 Ljapunov-Stabilität 59 10.1 Lineare Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 10.2 Linearisierte Stabilität . . . . . . . . . . . . . . . . . . . . . . . . 65 10.3 Allgemeine Systeme: Ljapunov-Funktionen . . . . . . . . . . . . . 69 11 Allgemeine Runge-Kutta-Verfahren 72 11.1 Numerische Ruhelagen . . . . . . . . . . . . . . . . . . . . . . . . 74 12 Der 12.1 12.2 12.3 lineare Fall 79 Das Euler-Verfahren im allgemeinen Fall . . . . . . . . . . . . . . 81 Runge-Kutta-Verfahren im linearen Fall . . . . . . . . . . . . . . 83 A-Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 13 Dynamische Systeme 86 13.1 Invariante Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . 88 13.2 Limesmengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 13.3 Attraktoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 14 Nichtlineare Systeme 14.1 Ljapunov-Funktionen . . . . . . . . . . . . . . . . . 14.1.1 Anwendung 1: Das linear Euler-Verfahren . . . . 14.1.2 Anwendung 2: Die nichtlineare DGL . . . . . . . 14.1.3 Anwendung 3: Das nichtlineare Euler-Verfahren . . . . . . . . . . . . . . . . 95 . 96 . 97 . 98 . 100 15 Dissipative Systeme 102 15.1 1. Fall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 16 Dissipative Systeme: zweiter Fall 108 16.1 Konvergenz der numerischen Attraktoren . . . . . . . . . . . . . 112 17 Mengenwertige Attraktoren 116 18 Diskretisierung eines Attraktors: allgemeiner Fall 121 19 Sattelpunkte 127 20 Sattelpunkte und das Euler-Verfahren 133 20.1 Ein nichtlineares Beispiel: . . . . . . . . . . . . . . . . . . . . . . 134 21 Geometrische Integratoren 139 21.1 Der harmonische Oszillator . . . . . . . . . . . . . . . . . . . . . 139 21.1.1 Hamiltonsche Systeme . . . . . . . . . . . . . . . . . . . . 140 21.1.2 Das “gemittelte“ Eulerverfahren . . . . . . . . . . . . . . 142 2 3 22 Symplektische Integratoren 22.1 Orientierte Fläche . . . . . . . . . . . . . 22.2 Symplektische Abbildungen . . . . . . . . 22.3 Symplektische numerische Verfahren . . . 22.3.1 Das symplektische Eulerverfahren 22.3.2 Das Störmer-Verlet-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 144 145 146 147 149 Kapitel 1 Gewöhnliche Differentialgleichungen Betrachte eine gewöhnliche Differentialgleichung erster Ordnung dx = f (t, x). dt (1.1) Hier f ist ein bekanntes oder gegebenes Vektorfeld, d.h. eine Funktion f: ⊂ R1 × Rd → Rd , (α, β) × S | {z } Def initionsbereich wobei (i) −∞ ≤ α < β ≤ +∞, (ii) t ∈ (α, β) ⊆ R1 die unabhängige Variable ist (daher eine gewöhnliche Differentialgleichung), und (iii) x ∈ S ⊆ Rd , die d ≥ 1 abhängige(n) Variable(n) sind. In der Dynamik ist t = Zeit und x = d-dimensionale Zustandsvariable. Eine Differentialgleichung (1.1) heißt 1. linear, falls jedes Glied von f linear bzg. x für jedes feste t ist oder unabhängig von x ist, z.B. dx = tx + cos t dt linear, dx = x2 dt nichtlinear 2. autonom, falls f hängt nicht von t ab, d.h. f (t, x) ≡ f (x) ∀t Differentialgleichung ⇒ dx = f (x) dt in welchem Fall f : S ⊆ R → Rd ∀t ∈ (α, β) ≡ R1 , z.B. 4 KAPITEL 1. GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN dx dt = x2 dx dt = 2tx 5 autonom nichtautonom. Man kann viele mechanische Systeme durch gewöhnliche Differentialgleichungen beschreiben, d.h. mit den Variablen x = Abstand, d2 x = Beschleunigung. dt2 dx = Geschwindigkeit, dt Das Newtonsches Gesetz ergibt eine Differentialgleichung zweiter Ordnung dx d2 x = g(t) + |{z} bx + a |{z} dt2 | {zdt} Rückzug externe Reibung Treibkraft Kraft Wir können diese DGL als eine 2-dimensionale Differentialgleichung erster Ordnung umschreiben mit den Zustandsvariablen x1 = x, x2 = dx dt d.h. die Variablen, die wir brauchen, um die Dynamik vollständig zu beschreiben: dx dx1 = dt dt = x2 dx2 d dx d2 x = = 2 dt dt dt dt = −a = − a x2 − bx1 + g(t) dx − bx + g(t) dt Wir erhalten das System von Differentialgleichgungen dx1 dt = f1 (t, x1 , x2 ) = x2 dx2 dt = f1 (t, xt , x2 ) = − a x2 − bx1 + g(t) oder eine äquivalente vektorwertige Differentialgleichgung ! ! ! " # d 0 0 1 x1 x1 + = dt g(t) −b −a x2 x2 6 KAPITEL 1. GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN 1.1 Lösungen von Differentialgleichungen Eine Lösung einer Differentialgleichung dx = f (t, x) dt ist eine gesuchte Funktion x = ϕ(t) für welche 1. ϕ : (γ, δ) → S wo (γ, δ) ⊆ (α, β) 2. ϕ(t) ist differenzierbar ∀ t ∈ (ϕ, δ), und es gilt 3. d ϕ(t) = f (t, ϕ(t)), ∀t ∈ (γ, δ). dt Beispiel 1. dx = 2tx , dt ∀ t ∈ R1 , x ∈ R1 2 ϕ(t) = et ist eine Lösung ∀t ∈ R1 2 d 2 d t2 d ϕ(t) = {e } = et {t2 } = 2t · et = 2tϕ(t), ∀t ∈ R1 dt dt dt 2 Andere Lösungen hier sind ϕ(t) = Cet , ∀t ∈ R1 , für jedes C ∈ R1 . Beispiel 2. dx = x2 , dt ∀x ∈ R1 (auch implizit ∀t ∈ R1 ) 1 ist eine Lösung für t ∈ (− ∞, 1) oder t ∈ (1, ∞), aber nie für 1−t t ∈ (γ, δ) wo γ < 1 < δ ϕ(t) = 1 d d ϕ(t) = dt dt 1 − t = d −1 (1 − t) (1 − t)2 dt = −1 · (−1) = (1 − t)2 1 1−t 2 = ϕ(t)2 , Andere Lösungen : für jedes C ∈ R1 ϕC (t) = 1 für t ∈ (− ∞, C) oder t ∈ (C, ∞). C −t Fragen: Hat eine Differentialgleichung immer eine Lösung? Wann ? (Welche Eigenschaft soll f haben?) Existenzintervall? Wieviele Lösungen? Können wir immer Lösungen explizit finden? Wie? ∀t 6= 1 KAPITEL 1. GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN 7 Besondere einfache Lösungen sind wichtig in der Dynamik, z.B. konstante und zeitperiodische Lösungen. 1.1.1 Konstante Lösungen φ(t) ≡ x ∈ Rd eine Konstante, ∀t ∈ (α, β) ⇐⇒ 0 ≡ f (t, x) ∀t ∈ (α, β) Beispiele: dx dt = 2x ⇒ x = 0, ϕ(t) ≡ 0, ∀t ∈ R dx dt = tx ⇒ x = 0, ϕ(t) ≡ 0, ∀t ∈ R dx dt = x(1 − x) ⇒ x = 0 oder 1, ϕ1 (t) ≡ 0, ∀t ∈ R ϕ2 (t) ≡ 1, ∀t ∈ R In der Dynamik bezeichnet man eine konstante Lösung auch als Ruhelage. 1.1.2 Zeitperiodische Lösungen Eine Lösungen ϕ heißt T -periodisch oder periodisch mit Periode T (6= 0), falls ϕ(t) ≡ ϕ(t + T ) , ∀t ∈ R1 , d.h. ϕ ist eine T -periodische Funktion. z.B. ϕ(t) = esin t ist eine 2π-periodische Lösungen der DGL dx = x · cos t dt z.B. ϕ(t) = (cos t, sin t) ist eine 2π-periodische Lösungen des Systems von DGLen dx = − y + x 1 − x2 − y 2 , dt Wir können dies direkt beweisen, d.h. dx dt dy dt = = dy = x + y 1 − x2 − y 2 dt d cos t = − sin t = − sin t + cos t (1 − sin2 t − cos2 t) dt d sin t = cos t = cos t + sin t (1 − sin2 t − cos2 t) dt oder die DGL umschreiben als dr = r(1 − r2 ), dt dθ =1 dt KAPITEL 1. GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN 8 mit den Polarkoordinaten ( (x, y) → (r, θ) p r = x1 + y 2 . θ = arctan (y /x ) Die Ruhelage“ r = 1 (tatsächlich nur eine Ruhelage für die r-Gleichung, nicht ” das System) entspricht der obigen periodischen Lösungen. 1.2 Allgemeine explizite Lösungen Nur besondere Arten von Differentialgleichungen sind systematisch explizit“ ” oder analytisch“ lösbar – sie sind meistens 1-dimensional und die Lösungsmethoden ” hängen direkt von der Struktur der Vektorfeldfunktion f (t, x) ab. 1.2.1 Lineare Differentialgleichungen: skalarer Fall Wir benutzen die kanonische Form einer skalaren linearen Differentialgleichung dx + p(t)x = q(t) dt d.h. dx dt = f (t, x) = q(t) − p(t)x, wobei p und q gegebene stetige Koeffizientenfunktionen sind. Die Lösungsmethode benutzt einen Integrierenden Faktor µ(t) = e Rt p(s)ds mit dµ d n R t p(s)ds o e (t) = dt dt = e = e Z t Rt p(s)ds Rt d dt p(s)ds = µ(t) p(t). p(s)ds Wegen der Produktregel erhalten wir d {µ(t)x(t)} dt = = = = dx dµ (t) + (t) x(t) dt dt dx µ(t) (t) + µ(t)p(t)x(t) dt dx (t) + p(t)x(t) µ(t) dt µ(t)q(t) eine bekannte Funktion µ(t) Dann integrieren wir: µ(t)x(t) = Z t µ(s)q(s)ds + C, KAPITEL 1. GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN wobei C eine beliebige Konstante der Integration ist Die explizite Lösung lautet x(t) = Rt µ(s)q(s) ds + C µ(t) Beispiel dx + 2tx = 4t dt Die explizite Lösung lautet x(t) Rt 2 es 4 s ds + C et2 2 2 2 et + c = 2 + C e−t et2 = = 1.2.2 2 ⇒ µ(t) = et p(t) = 2t, q(t) = 4 t ∀C ∈ R Skalare DGLen mit getrennten Variablen Wir betrachten eine skalare DGL der Form dx = g(t) h(x) dt d.h. mit f (t, x) ≡ g(t) h(x). Dann gilt 1 dx = g(t) dt h(x) und nach Integration Z x 1 dy = h(y) Z t g(s)ds, die im Prinzip explizit lösbar für x = x(t) ist. Beispiel 1. Hier gilt dx = tx, dt 1 dx = t dt x g(t) = t, h(x) = x ⇒ ln x = 1 2 t +C 2 und dann 2 x = x(t) = et /2+C 2 = et /2+ln K 2 = Ket /2 . Bemerkung Alle autonomen Differentialgleichungen sind von dieser Art dx = f (x), dt ⇒ mit 1 dx = dt f (x) ⇒ g(t) ≡ 1, h(x) ≡ f (x) Z x 1 dy = t + C f (y) 9 KAPITEL 1. GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN 10 Bemerkung Die konstanten Lösungen x(t) ≡ x, wo f (x) = 0 sind Singularitäten des Integrals hier! Beispiel 2. dx = x2 dt ⇒ 1 dx = dt x2 ⇒ 1 =t+C x − ⇒ x(t) = Beispiel 3. Betrachte die logistische DGL: dx = ax(1 − x) dt ⇒ 1 a dt = dx = x(1 − x) 1 1 + x 1−x 1 e C −t dx (Partialbruchzerlegung). Integriere: at + C = ln x − ln (1 − x) = ln x 1−x mit einer beliebiger Konstante C. Daher x 1−x = eat+C = eat+ln K = Keat ⇒ x = (1 − x)Keat ⇒ x(t) = Keat 1+Keat Wir haben auch die konstanten Lösungen x(t) ≡ 0 und x(t) ≡ 1 bzw. mit K = 0 und K = ∞. (Die Integrale sind tatsächlich ungeeigentliche Integrale hier). Genauer: würden wir den Betrag im Logarithmus benutzten, z.B. für dx = 2x ⇒ dt Z t 2 ds = Z x 1 dy y dann hätten wir 2t + C = ln |x| und die Lösungen wären |x(t)| = e2t+C . Frage: Warum können wir den Betrag hier wegfallen lassen? Antwort: später! Kapitel 2 1-Parameter-Familien von Lösungen Für jede 1-dimensionale explizit lösbare Differentialgleichung haben wir immer eine Familie von Lösungen gefunden, die von einem beliebigen Parameter c ∈ R abhängt. Z.B. dx = 2x dt ⇒ x(t) = ce2t dx = tx dt ⇒ x(t) = ce1/2 t dx = x2 dt ⇒ x(t) = 2 1 c−t Frage: Sind diese Lösungen die einzigen Möglichkeiten ? Beispiel Die DGL dx = 3x2/3 ist explizit lösbar dt 1 −2/3 x dx = dt ⇐⇒ x1/3 = t + c ⇐⇒ x = x(t) = (t + c)3 ∀ c ∈ R 3 aber x(t) ≡ 0 ist auch eine Lösung, die wir nicht durch (t+c)3 darstellen können. Dieses Beispiel ist etwas schief“, weil die Ableitung f ′ (x) = 2x−1/3 des Vek” torfeldes f (x) = 3x2/3 eine Singularität in x = 0 hat. Wir werden zu diesem Beispiel später zurückkommen. 11 12 KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN 2.1 Anfangswertaufgabe Wie können wir eine bestimmte Lösung von einer 1-Parameter-Familie auswählen ? x Beispiel: Lösungskurven c=2 dx = 2x dt c=1 c=0 mit Lösungen x(t) = ce t c = −1 2t c = −2 In der Dynamik brauchen wir oft eine Lösung, die einem bestimmten Anfangswert x(t0 ) = x0 genügt (t0 , x0 hier vorgegeben) d.h. wir wollen eine Lösung, für welche die Lösungskurve den Punkt (t0 , x0 ) enthält. Wir können versuchen, den entsprechenden Parameterwert zu berechnen: z.B. x(t) = ce2t mit x(t0 ) = x0 ⇒ x0 = ce2t0 = x(t0 ) ⇒ c = x0 e−2t0 Daher lautet die gesuchte Lösung: x(t) = x0 e−2t0 e2t = x0 e2(t−t0 ) Um den Anfangswert klar darzustellen, schreiben wir eine solche Lösung: x(t; t0 , x0 ), wobei x(t0 ; t0 , x0 ) = x0 . Frage: Können wir immer eine solche Lösung finden? Diese Aufgabe heißt Anfangswertaufgabe (AWA) DGL dx = f (t, x) dt AW x(t ) = x 0 Beispiel dx = 2x mit x(0) = 1 ⇒ dt 0 x(t; 0, 1) = e2t Frage: Hat eine Anfangswertaufgabe immer mindestens eine Lösung ? 13 KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN x NEIN! Betrachte die AWA dx x = , x(0) = 0 dt t f (t, x) = x t ⇒ f (0, 0) = 0 ? 0 t Betrachte auch den Anfangswert x(0) = 1 Die Vektorfeldfunktion f (t, x) existiert nicht für (t, x) = (0, 0). Frage: Hat eine Anfangswertaufgabe nur eine Lösung ? (falls Lösungen existieren) NEIN! Betrachte die AWA dx = 3 x2/3 , x(0) = 0. dt Diese AWA hat mindestens zwei (tatsächlich unendlich viele) Lösungen. x(t) ≡ 0 x(t) = t3 Merke: f (x) = 3 x2/3 mit f ′ (x) = 2x−1/3 und daher f ′ (0) = ±∞. Beide Beispiele sind schlecht gestellt, da die rechte Seite für den Anfangswert keinen Sinn macht. Realistische Modelle erfordern die Existenz von einer und nur einer Lösung für eine Anfangswertaufgabe – d.h. die Existenz und Eindeutigkeit von Lösungen bzg. der AWA. Im Allgemeinen haben wir keine explizite Lösungen. Was können wir dann sagen? Können wir etwas aus den Eigenschaften des Vektorfeldes f schließen? Ja Existenz- und Eindeutigkeitssatz (verschiedene Versionen). Sei f = f (t, x) stetig differenzierbar in einer Umgebung des Anfangswertes (t0 , x0 ). Dann hat die Anfangswertaufgabe dx = f (t, x), x(t0 ) = x0 dt eine eindeutige Lösung d.h. es existiert eine Lösung x(t) für γ < t < δ, wo t0 ∈ (γ, δ) und x(t0 ) = x0 , und diese ist die einzige Lösung mit x(t0 ) = x0 . Der Beweis ist leider nicht konstruktiv. Dennoch ist das Ergebnis sehr nützlich: 14 KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN 1. das Modell ist gut gestellt — nicht trivial unrealistisch 2. numerische Approximationen können wertvoll sein 3. andere praktische qualitative Folgen, z.B. Beispiel 1 Die Lösungen einer autonomen Differentialgleichung dx = f (x) dt sind zeittranslationsinvariant, falls die Anfangswertaufgaben alle eindeutig lösbar sind, d.h. x(t) = x(t; t0 , x0 ) ≡ x(t − t0 ; 0, x0 ) ∀t ∈ Existenzintervall . Beweis Sei z(t) = x(t − t0 ; 0, x0 ). Daher z(t0 ) = x0 und d z(t) = dt = = = d x(t − t0 ; 0, x0 ) dt ds d x(s; 0, x0 ) · ds dt f (x(s; 0, x0 )) · 1 f (x(t − t0 ; 0, x0 )) = f (z(t)) d.h. z(t) ist eine Lösung der AWA x(t; t0 , x0 ) ist eindeutig ⇒ mit s = t − t0 dz = f (z), z(t0 ) = x0 . Aber die Lösung dt z(t) ≡ x(t − t0 ; 0, x0 ) ≡ x(t; t0 , x0 ) für alle geeigneten t. Autonome Lösungen hängen nur von t − t0 ab, nicht von t und t0 selbst. Daher sind die idenIntegralkurven tisch, nur verschoben. Also x(t − t0 ; t0 , x0 ) = x(t − t1 ; t0 , x1 ). Beispiel 2 zierbar! x x0 t1 t dx = 2x, d.h. mit f (x) = 2x und f ′ (x) ≡ 2, stetig differendt ⇒ x(t; t0 , x0 ) = x0 e2(t−t0 ) eindeutig KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN 15 Aber ohne diese explizite Lösung zu wissen, können wir die folgende Eigenschaft beweisen: x0 > 0 ⇒ x(t; t0 , x0 ) > 0 x0 < 0 ⇒ x(t; t0 , x0 ) < 0 Beweis x(t) ≡ 0 ist offensichtlich eine Lösung: f (0) = 0. Sei x0 6= 0 und x(T, t0 , x0 ) = 0 für T > t0 , dann haben wir einen Widerspruch der Eindeutigkeit der Lösung x(t; T, 0) ≡ 0. ∀t im Existenzintervall x x1 nicht möglich x2 t Die Eindeutigkeit der Lösung erklärt, warum wir den Betrag in der Methode der getrennten Variablen vernachlässigen können. 1 dx = 2x ⇒ dx = 2t dt ⇒ ln |x| = 2t + c dt x ⇒ |x(t)| = e2t+c = e2t ec > 0 Sei c = ln |k| wobei sign k = sign x(t0 ) für irgendwelches t0 ≡ sign x(t) |x(t)| = e2t eln |k| = |k|e2t ∀t ∈ (γ, δ) ⇒ x(t) = ke2t k hat das richtige Vorzeichen. 2.2 Richtungsfelder Betrachte den 1-dimensionalen Fall dx = f (t, x), dt x ∈ R, (t, x) ∈ R2 , mit f (t, x) stetig differenzierbar ⇒ x(t; t0 , x0 ) eindeutig ∀t ∈ γ(t0 ,x0 ) , δ(t0 ,x0 ) Die Tangentengerade zu der entsprechenden Lösungskurve im Punkt (t0 , x0 ) hat die Steigung tan θ(t0 ,x0 ) = f (t0 , x0 ). 16 KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN x Tangente x(t; t0 , x0 ) x Neigungswinkel θt0 ,x0 x0 x0 t0 t0 t t je größer |f (t0 , x0 )|, desto steiler die Tangentengerade Wir können viele Linienelemente durch gewählte Punkte skizzieren — Neigungswinkel θt0 ,x0 für den Punkt (t0 , x0 ) – und dann versuchen die Lösungskurven zu skizzieren. Solche Bilder heissen x Richtungsfelder systematisieren! t Bemerkungen: 1. Existenz und Eindeutigkeitssatz ⇒ die Kurven dürfen sich nicht überschneiden. 2. Konstante Lösungskurven sind die Grenzen von getrennten Lösungsgebieten. 3. für autonome Differentialgleichungen: die Neigung θt0 ,x0 = tan−1 f (x0 ). hängt nicht von t0 ab. (Nimm t0 = 0). Beispiel dx = 4x(1 − x) dt f (x) = 4x(1 − x) stetig differenzierbar ⇒ Existenz und Eindeutigkeit Konstante Lösungen f (x) = 4x(1 − x) = 0 für x = 0 und x = 1 17 KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN ⇒ x(t) = 0, x(t) ≡ 1 sind Lösungen Eindeutigkeit ⇒ x < 0, 0 < x < 1, x > 1 sind getrennte Lösungsgebiete Steigung tan θ(t0 ,x0 ) = f (x0 ) autonom - unabhängig von t0 θ = konstante für eine Gerade x = x0 in der (t, x)−Ebene. +∞ negative positive 1 1 f (x) positive 1 2 negative x 1 0 negative negative −∞ x x=1 x=0 t Was passiert ? x0 > 1 0 < x0 < 1 ( x(t) → 1 x(t) → 0 x(t) → 1 für t → +∞ für t → −∞ für t → +∞ 18 KAPITEL 2. 1-PARAMETER-FAMILIEN VON LÖSUNGEN x0 < 0 ( x(t) → 0 x(t) → −∞ für t → −∞ für t → ??? Die expliziten Lösungen hier sind x(t) = Sei x(0) = x0 = ⇒ ke4t 1 + ke4t x0 k ⇒k= 1+k 1 − x0 x0 e4t x0 e4t 1 − x0 x(t; 0, x0 ) = = x0 (1 − x0 ) + x0 e4t 1+ e4t 1 − x0 Dann gilt für den Nenner (1 − x0 ) + x0 e4t = 1 + x0 (e4t − 1) > 0 ∀t > 0, falls x0 > 0. für den Fall x0 < 0 haben wir 1 = e4t x0 1 1 > 0, weil ln 1 − ⇔ t= 4 x0 Daher x(t, 0, x0 ) → −∞ für t → 41 ln 1 − x10 < +∞. 1 + x0 (e4t − 1) = 0 ⇔ 1 − 1− 1 >1 x0 Kapitel 3 Integralgleichungsdarstellung einer AWA Wir betrachten eine Anfangswertaufgabe dx = f (t, x), dt x(t0 ) = x0 , (3.1) wobei f : (α, β) × Rd → Rd ist mindestens stetig in beiden Variablen. Natürlich ist t0 ∈ (α, β). Sei ϕ : (γ, δ) → Rd eine Lösung der AWA (1). ϕ ist differenzierbar (daher stetig !) und t0 ∈ (γ, δ) ⊆ (α, β) d ϕ(t) = f (t, ϕ(t)), dt ∀t ∈ (γ, δ) f (·, ϕ(·)) ist stetig, daher können wir integrieren: ϕ(t) − ϕ(t0 ) = Z t f (s, ϕ(s)) ds, t0 ∀t ∈ (γ, δ) d.h., ϕ ist eine Lösung der Integralgleichung ϕ(t) = x0 + Z t f (s, ϕ(s)) ds, t0 ∀t ∈ (γ, δ). (3.2) Umgekehrt sei ϕ : [γ, δ] → Rd stetig und eine Lösung der IG (3.2). ⇒ f(·, ϕ(·)) ist auch stetig in t ∈ [γ, δ]. Durch den Hauptsatz der IntegralRt rechnung folgt es, dass t0 f (ϕ(s))ds differenzierbar ist und d dt Z t f (s, ϕ(s)) ds = f (t, ϕ(t)), t0 19 ∀t ∈ (γ, δ) KAPITEL 3. INTEGRALGLEICHUNGSDARSTELLUNG EINER AWA d trivialerweise: dt Z x0 + t f (s, ϕ(s)) ds t0 20 = f (t, ϕ(t)). Daher ist ϕ(t) nicht nur stetig, sondern auch differenzierbar in t ∈ (γ, δ) und genügt der Differentialgleichung d ϕ(t) = f (t, ϕ(t)), dt ∀t ∈ (γ, δ) Schließich aus der IG (3.2) mit t = t0 ergibt sich der erwünschte Anfangswert ϕ(t0 ) = x0 . ⇒ ϕ ist eine Lösung der AWA (3.1). Bemerkung Die Darstellung der AWA (3.1) durch eine Integralgleichung ist günstig – wir brauchen nur stetige Funktionen zu betrachten und wir haben einen Zugang zur Fixpunkttheorie in der Analysis. Betrachte den Vektorraum C([γ, δ], Rd ) von stetigen Funktionen ϕ : [γ, δ] → Rd , wobei Addition und skalare Multiplikation punktweise definiert sind. Sei t0 ∈ (γ, δ) gegeben und fest. Wir definieren einen Integraloperator ψ = T ϕ durch Z t f (s, ϕ(s)) ds, t ∈ [γ, δ] . ψ(t) = ϕ(t0 ) + t0 Offensichtlich, T : C([γ, δ], Rd ) → C([γ, δ], Rd ). Sei D(t0 , x0 ) die Teilmenge von C([γ, δ], Rd ) mit der Eigenschaft, dass ϕ(t0 ) = x0 (x0 gegeben, fest). Dann könne wir T umschreiben: ψ(t) = (T ϕ)(t) = x0 + Z t f (s, ϕ(s)) ds t0 für ϕ ∈ D(t0 , x0 ). Es ist klar, dass T (D(t0 , x0 )) ⊆ D(t0 , x0 ) ! Sei eine stetige Funktion ϕ : [γ, δ] → Rd eine Lösung der Integralgleichung (3.2), d.h. Zt f (s, ϕ̄(s)) ds = (T ϕ)(t) t ∈ [γ, δ] ϕ̄(t) = x0 + t0 oder äquivalent ϕ̄ = T ϕ̄ in D(t0 , x0 ) ⊂ C([γ, δ], Rd ) (3.3) KAPITEL 3. INTEGRALGLEICHUNGSDARSTELLUNG EINER AWA 21 d.h. ϕ̄ ist Fixpunkt des Integraloperators T in D(t0 , x0 ). Frage: Wann existieren solche Fixpunkte? Dazu wenden wir das Banach’sche Kontraktionsprinzip an. SATZ (Fixpunktsatz für kontrahierende Abbildungen) Es sei D eine nichtleere, abgeschlossene Teilmenge eines BanachRaumes (Bk · k). Der Operator T : D → B sei 1. eine Kontraktion, d.h. ∃ q [0, 1) mit kT ϕ1 − T ϕ2 k ≤ qkϕ1 − ϕ2 k ∀ϕ1 , ϕ2 ∈ D und 2. er bilde D in sich ab, d.h. T (D) ⊆ D. Dann hat die Gleichung ϕ = T ϕ in D genau eine Lösung ϕ = ϕ̄, und die sukzessiven Approximationen n = 0, 1, . . . (beliebiges ϕ0 ∈ D) ϕn+1 = T ϕn , konvergieren gegen ϕ̄. Ein Banach-Raum ist ein vollständiger normierter Vektorraum, z.B. C([γ, δ], Rd ) mit der Norm kϕkmax = max |ϕ(t)| γ≤t≤δ Günstiger für uns wird die folgende Norm auf C([γ, δ], Rd ): kϕkexp := max |ϕ(t)|e−k|t−t0 | γ≤t≤δ für gegebene Konstanten k > 0, t0 ∈ (γ, δ). Die Normen k · kmax und k · kexp sind äquivalent, d.h. ∃ Konstanten C1 , C2 für welche gilt C1 kϕkexp ≤ kϕkmax ≤ C2 kϕkexp ∀ϕ ∈ C([γ, δ], Rd ) Beweis Für jedes t ∈ [γ, δ] haben wir |ϕ(t)|e−k|t−t0 | ≤ |ϕ(t)| = ≤ |ϕ(t)e−k|t−t0 | e+k|t−t0 | |ϕ(t)|e−k|t−t0 | max{ek|δ−t0 | , ek|γ−t0 | } Das erwünschte Ergebnis folgt mit C1 = 1 und C2 = max{ek|δ−t0 | , ek|γ−t0 | }. Äquivalente Normen genügen den gleichen Konvergenzeigenschaften. Daher ist C([γ, δ], Rd ) mit der Norm k · kexp auch Banach-Raum. KAPITEL 3. INTEGRALGLEICHUNGSDARSTELLUNG EINER AWA 3.1 22 Lipschitz-Bedingungen Eine Funktion f : Rd → Rd genügt einer Lipschitz-Bedingung (mit LipschitzKonstante L > 0), wenn |f (x) − f (y)| ≤ L|x − y| ∀x, y ∈ Rd ist. Z.B. Eine Kontraktion genügt einer Lipschitz-Bedingung mit LipschitzKonstante L < 1. N.B. Eine Funktion, die einer Lipschitz-Bedingung genügt, ist stetig. In dem folgenden Existenz- und Eindeutigkeitssatz setzen wir voraus, dass das Vektorfeld f (t, x) der DGL (3.1) einer Lipschitz-Bedingung bzg. x (gleichmäßig in t) genügt. Existenz- und Eindeutigkeitssatz [Lipschitz-Version] Die Funktion f : [α, β] × Rd → Rd sei stetig und genüge einer LipschitzBedingung bzg. x gleichmäßig in t ∈ [α, β], d.h. |f (t, x) − f (t, y)| ≤ L|x − y| ∀x, y ∈ Rd , ∀t ∈ [α, β] . Dann hat für jedes t0 ∈ (α, β) die Anfangswertaufgabe dx = f (t, x), dt x(t0 ) = x0 genau eine Lösung x = ϕ(t). Diese Lösung existiert im ganzen Intervall [α, β]. Beweis Wir betrachten den Banach-Raum C([α, β], Rd ) mit der exp-Norm k · kexp mit der Konstante k = 2L > 0, d.h. kϕkexp = max |ϕ(t)|e−2L|t−t0 | α≤t≤β und die Teilmenge (nicht leer und abgeschlossen!) D(t0 , x0 ) = {ϕ ∈ C([α, β], Rd ); ϕ(t0 ) = x0 } . Dann definieren wir auf D(t0 , x0 ) den Integraloperator (T ϕ)(t) = x0 + Zt t0 f (s, ϕ(s)) ds, t ∈ [α, β] . Offensichtlich ist ϕ → T ϕ ∈ D(t0 , x0 ) stetig mit T ϕ(t0 ) = x0 . Sei ϕ1 , ϕ2 ∈ D(t0 , x0 ). Dann gelten die Ungleichungen Z t |T ϕ1 (t) − T ϕ2 (t)| = {f (s, ϕ1 (s)) − f (s, ϕ2 (s))} ds t0 KAPITEL 3. INTEGRALGLEICHUNGSDARSTELLUNG EINER AWA ≤ ≤ = Z t t0 Z t t0 Z t |f (s, ϕ1 (s)) − f (s, ϕ2 (s))| ds L|ϕ1 (s) − ϕ2 (s)| ds Le +2L|s−t0 | t0 ≤ ≤ Z t t0 23 o n −2L|s−t0 | ds |ϕ1 (s) − ϕ2 (s)|e Le2L|s−t0 | · kϕ1 − ϕ2 kexp ds 1 kϕ1 − ϕ2 kexp · e2L|t−t0 | 2 für jedes t ∈ [α, β]. Davon erhalten wir |(T ϕ1 − T ϕ2 )(t)| e−2L|t−t0 | ≤ 1 kϕ1 − ϕ2 kexp 2 für jedes t ∈ [α, β]. 1 kϕ1 − ϕ2 kexp . 2 Wir können jetzt das Kontraktionsprinzip verwenden: T hat einen eindeutigen Fixpunkt ϕ̄ = T ϕ̄ ∈ D(T0 , x0 ) . ⇒ kT ϕ1 − T ϕ2 kexp ≤ Diese Identität können wir in die Form der Integralgleichung (3.2) umschreiben: ϕ̄(t) = x0 + Zt f (s, ϕ̄(s)) ds, t0 t ∈ [α, β] . ϕ̄ ist stetig ⇒ sie ist eine Lösung (tatsächlich die einzige Lösung) der erwünschten Anfangswertaufgabe. Bemerkung 1 Bezüglich der Norm k · kmax ist der Integraloperator T eine Kontraktion nur für Teilintervalle der Form [t0 − h, t0 + h], [t0 , t0 + 2h], . . ., wo 2Lh < 1. Wir müssen das Kontraktionsprinzip in jedem Teilintervall wiederverwenden, und dann die entsprechenden Fixpunktlösungen aneinanderhängen. Bemerkung 2 Im Prinzip konvergieren die sukzessiven Approximationen Z t f (s, ϕk (s)) ds, k = 0, 1, 2, . . . t ∈ [α, β] ϕ0 (t) ≡ x0 , ϕk+1 (t) = x0 + t0 gleichmäßig gegen die erwünschte Lösung ϕ. In der Praxis sind solche sukzessiven Approximationen praktisch nur für ganz einfache DGL, z.B. dx dt = 2x, x(0) = 1, KAPITEL 3. INTEGRALGLEICHUNGSDARSTELLUNG EINER AWA ϕk+1 (t) = 1+2 Z 24 t ϕk (s) ds, 0 ϕk (t) = 1 + 2t + (2t)k (2t)2 + ... + → e2t =: ϕ̄(t) 2! k! (Die Konvergenz hier ist gleichmäßig auf jedem endlichen Intervall [−T, +T ]). Kapitel 4 Stetige Abhängigkeit der Lösungen Die Lösung x(t) = x(t; t0 , x0 ) einer Anfangswertaufgabe dx = f (t, x), x(t0 ) = x0 dt ist differenzierbar, daher stetig, in t für jedes feste (t0 , x0 ). Sie ist auch stetig in (t0 , x0 ) für jedes t. Beispiel ⇒ dx = 2x, x(t0 ) = x0 dt eindeutige, explizite Lösung x(t; t0 , x0 ) = x0 e2(t−t0 ) |x(t; t0 .x0 ) − x(t; t′0 , x′0 )| ′ = |x0 e2(t−t0 ) − x′0 e2(t−t0 ) | ≤ ≤ n ′ |x0 − x′0 | + |x0 | · |e(t0 −t0 ) − 1| o ′ · e2(t−t0 ) n o ′ ′ |x0 − x′0 | + |x0 | · |e(2(t0 −t0 ) − 1 · e2(t0 −t0 ) | {z } →0 für x′0 →x0 , t′0 →t0 · 0) e|2(t−t {z } t,t0 fest NB die Konvergenz hier ist gleichmäßig bzg. t ∈ [T1 , T2 ] für alle −∞ < T1 < T2 < ∞. Nimm e2(t−t0 ) ≤ e2 max{|T1 −t0 |,|T2 −t0 |} < ∞ Aber in diesem Fall ist sie nicht gleichmäßig für alle t0 ≤ t < +∞. 25 KAPITEL 4. STETIGE ABHÄNGIGKEIT DER LÖSUNGEN 26 Wir können ein solches Ergebnis für eine allgemeine Anfangswertaufgabe beweisen. Dafür brauchen wir eine berühmte Ungleichung. Die Gronwall-Ungleichung Die reelle Funktion ϕ(t) sei stetig in dem Intervall J : 0 ≤ t ≤ T , und es sei Z t ϕ(t) ≤ α + β ϕ(s)ds in J mit β > 0. 0 Dann ist ϕ(t) ≤ αeβt in J. Beweis: Es sei ε > 0 und Ψ(t) = (α + ε)eβt . Diese Funktion Ψ genügt der Anfangswertaufgabe dΨ = βΨ, Ψ(0) = α + ε, dt also der Integralgleichung Z t Ψ(t) = α + ε + β Ψ(s) ds . 0 Es soll nun gezeigt werden, dass ϕ(t) < Ψ(t) in J ist. Diese Ungleichung ist sicher richtig für t = 0, weil ϕ(0) ≤ α < α + ε = Ψ(0). Nehmen wir an, diese Behauptung sei falsch und es sei τ die erste Stelle mit ϕ(τ ) = Ψ(τ ). Dann ist ϕ(s) ≤ Ψ(s) für 0 ≤ s ≤ τ und deshalb Z τ Z τ ϕ(τ ) ≤ α + β ϕ(s)ds < α + ε + β Ψ(s)ds = Ψ(τ ) 0 0 Dieser Widerspruch zeigt, dass tatsächlich ϕ < Ψ in J ist. Da ε > 0 beliebig klein gewählt werden kann, gilt die Behauptung: ϕ(t) ≤ αeβt in J. SATZ : Stetige Abhängigkeit Die Funktion f : [α, β] × Rd → Rd sei stetig und genüge einer Lipschitz-Bedingung in x ∈ Rd gleichmäßig in t ∈ [α, β], d.h. |f (t, x) − f (t, y)| ≤ L|x − y|. Dann ist die Lösung x(t; t0 , x0 ) der Anfangswertaufgabe dx = f (t, x), dt x(t0 ) = x0 , stetig in (t0 , x0 ) für jedes t ∈ [α, β]. 27 KAPITEL 4. STETIGE ABHÄNGIGKEIT DER LÖSUNGEN Beweis Sei (t0 , x0 ) fest und (t′0 , x′0 ) → (t0 , x0 ) in [α, β]×Rd . Ferner definiere M := max |f (t, x(t; t0 , x0 ))|, α≤t≤β da f stetig ist ist M < ∞. So dann gilt |x(t; t0 , x0 ) − x(t; t′0 , x′0 )| Z t Z t ′ ′ ′ f (s, x(s; t0 , x0 )) ds = x0 + f (s, x(s; t0 , x0 ))ds − x0 − ′ t0 0 Z ′ t0 f (s, x(s; t0 , x0 )) ds ≤ |x0 − x′0 | + t0 Z t ′ ′ + {f (s, x(s; t0 , x0 )) − f (s, x(s; t0 , x0 ))} ds t′0 Z ′ t0 ≤ |x0 − x′0 | + |f (s, x(s; t0 , x0 ))| ds t0 Z t ′ ′ + |f (s, x(s; t0 , x0 )) − f (s, x(s; t0 , x0 ))| ds t′0 Z t ≤ |x0 − x′0 | + M |t′0 − t0 | + L |x(s; t0 , x0 ) − x(s; t′0 , x′0 )| ds t′0 Gronwall-Ungleichung (2 Fälle t ≥ t′0 , t ≤ t′0 ) ⇒ |x(t; t0 , x0 ) − x(t; t′0 , x′0 )| ≤ ′ {|x0 − x′0 | + M |t′0 − t0 |} eL|t−t0 | ′ ≤ {|x0 − x′0 | + M |t′0 − t0 |}eL|t0 −t0 | {z } | →0 für x′0 →x0 , t′0 →t0 · L|t−t0 | |e {z } t,t0 fest NB Tatsächlich haben wir eine Lipschitz-Bedingung in (t0 , x0 ) für jedes t ! 4.1 Lipschitz-Bedingungen nochmal Frage: Wann genügt eine Funktion f : Rd → Rd einer Lipschitz-Bedingung? |f (x) − f (y)| ≤ L|x − y| ∀x, y ∈ Rd z.B. d = 1, f linear f (x) = 2x, → |f (x) − f (y)| ≤ 2|x − y|. Bemerkung Eine Lipschitz-Funktion ist immer stetig (sogar gleichmäßig stetig: nimm δ(ε) = ε/L). Sie muss aber nicht differenzierbar sein: d = 1, f (x) = |x|, |f (x) − f (y)| = |x| − |y| ≤ |x − y| 28 KAPITEL 4. STETIGE ABHÄNGIGKEIT DER LÖSUNGEN Aber viele differenzierbare Funktionen genügen einer Lipschitz-Bedingung. Sei f : Rd → Rd stetig differenzierbar mit beschränkter Ableitung |∇f (x)| ≤ L < ∞ ∀x ∈ Rd . Dann genügt f einer Lipschitz-Bedingung mit Lipschitz-Konstante L. Wegen des Mittelwertsatzes existiert ein ζx,y ∈ x, y (d.h. auf der Gerade zwischen x und y), so dass gilt f (x) − f (y) = ∇f (ζx,y ) (x − y) und deshalb |f (x) − f (y)| ≤ |∇f (ζx,y )| |x − y| ≤ L|x − y| ∀x, y ∈ Rd . Zum Beispiel 2 2 f (x) = xe−x , f ′ (x) = (1 − 2x2 )e−x ⇒ |f ′ (x)| ≤ 1 ∀x ∈ R1 2 −x2 ⇒ − ye−y ≤ |x − y| xe Leider gibt es viele interessante, stetig differenzierbare Funktionen, für welche die Ableitungen nicht beschränkt sind, z.B. f (x) = x2 , f ′ (x) = 2x . Aber solche Funktionen genügen einer lokalen Lipschitz-Bedingung, d.h. ∀ R > 0 ∃ LR > 0, so dass gilt |f (x) − f (y)| ≤ LR |x − y|, ∀ |x|, |y| ≤ R . wobei LR := max |f ′ (x)| < ∞. |x|≤R Frage: Gilt der Existenz-Eindeutigkeitssatz für solche Vektorfeldfunktionen? JA — aber eventuell mit einer Beschränkung des Zeitintervalles ! Eine Schwierigkeit: Wir können mit |x0 | < R anfangen, aber die Lösung braucht nicht der Ungleichung |x(t; t0 , x0 )| ≤ R für alle t ≥ t0 zu genügen. Eine solche Eigenschaft ist sicher gültig für |t − t0 | klein genug (wegen der Stetigkeit bzg. t). Sei |x(t; t0 , x0 )| ≤ R für |t − t0 | ≤ hR . Aus der Integralgleichungsdarstellung der AWA Z t f (s, x(s; t0 , x0 )) ds x(t; t0 , x0 ) = x0 + t0 erhalten wir Z |x(t; t0 , x0 ) − x0 | ≤ t t0 f (s, x(s; t0 , x0 )) ds ≤ |t − t0 | max |s−t0 |≤|t−t0 | |x|≤R |f (s, x)| , KAPITEL 4. STETIGE ABHÄNGIGKEIT DER LÖSUNGEN 29 d.h. MR := max |f (t, x)| < ∞. |x(t; t0 , x0 ) − x0 | ≤ MR |t − t0 |, α≤t≤β |x|≤R In diesem Fall liegt die Lösungskurve innerhalb des Kegels mit Grenzgeraden y = x0 ± MR (t − t0 ) |x| = R mit Steigung ±MR x0 t t0 0| können wir sicher sein, dass die Lösung darin So, für |t − t0 | ≤ hR := R−|x MR liegt. (Aber die Abschätzung hier ist sehr grob!). Um den Existenz-Eindeutigkeitssatz zu beweisen, betrachten wir die AWA dx = fR (t, x), dt für |t − t0 | ≤ h, wobei fR (t, x) : = ( f (t, x), f t, x |x| x(t0 ) = x0 R , falls |x| ≥ R falls |x| ≤ R Diese Funktion fR ist stetig in (t, x) ∈ [t0 − h, t0 + h] × Rd und genügt der globalen Lipschitz-Bedingung |fR (t, x) − fR (t, y)| ≤ LR |x − y|, ∀x, y ∈ Rd . Aufgrund des ursprünglichen E-E-Satz wissen wir, dass die neue AWA eine eindeutige Lösung hat, für welche |x(t; t0 , x0 )| ≤ R für |t − t0 | ≤ hR . gilt. Aber für |t − t0 | ≤ hR , |x| ≤ R haben wir fR ≡ f . Daher ist diese Lösung KAPITEL 4. STETIGE ABHÄNGIGKEIT DER LÖSUNGEN 30 x(t; t0 , x0 ) auch eine Lösung der ursprünglichen Anfangswertaufgabe mit der Vektorfeldfunktion f . Bemerkung Die Lösung x(t; t0 , x0 ) könnte auch für t mit |t − t0 | ≥ hR existieren, aber sie braucht nicht für alle solche t zu existieren, d.h. es könnte ein T ∈ (t0 , ∞) existieren, so dass |x(t; t0 , x0 )| → ∞ für t → T − . Zum Beispiel betrachte dx 1 = x2 ⇒ x(t; t0 , x0 ) = 1 dt + t0 − t x0 Alles ist OK für t0 ≤ t ≤ t1 < T − (t0 , x0 ) := t ր T − (t0 , x0 ) ⇒ 1 x0 + t0 , aber für x(t; t0 , x0 ) → +∞ Explosion! Bemerkung: Andere Eigenschaften der Funktion f können solche Explosionen ausschließen. Z.B. eine Lineare Wachstumsbedingung |f (t, x)| ≤ K(1 + |x|), ∀ t ∈ [α, β], x ∈ Rd . Für den Integraloperator T ϕ(t) = x0 + Z t f (s, ϕ(s)) ds t0 haben wir dann Z |T ϕ(t)| ≤ |x0 | + |f (s, ϕ(s))| ds t0 Z t Z t ≤ |x0 | + K ds + K |ϕ(s)| ds t0 t0 Z t ≤ |x0 | + K(β − α) + K |ϕ(s)| ds ∀ t ∈ [α, β] . t t0 Daher genügt jeder Fixpunkt ϕ̄ = T ϕ̄ der Ungleichung: Z t |ϕ̄(t)| ≤ |x0 | + K(β − α) + K |ϕ̄(s)| ds ∀ t ∈ [α, β] . t0 Wegen der Gronwall-Ungleichung haben wir dann |ϕ(t)| ≤ {|x0 | + K(β − α)} eK|t−t0 | ∀ t ∈ [α, β] . KAPITEL 4. STETIGE ABHÄNGIGKEIT DER LÖSUNGEN 31 Eine Explosion in einer endlichen Zeit ist dabei unmöglich. (Es ist noch möglich, dass |ϕ(t)| → ∞ für t → ∞, d.h. die Lösung wächst unbeschränkt). Es gibt noch andere nützliche Eigenschaften, die solche Explosionen ausschließen. Z.B. hx, f (t, x)i ≤ −K|x|2 , ∀ |x| ≥ R0 , ∀t (Innerprodukt von x und f (t, x) hier) oder allgemeiner hx, f (t, x)i ≤ K − L|x|2 , ∀x ∈ Rd , ∀t mit K ≥0 und L > 0. Diese Bedingungen sind stärker als die lineare Wachstumsbedingung — alle Lösungen sind tatsächlich beschränkt für t → ∞. Betrachte eine Lösung x(t) der DGL. Dann gilt d d |x(t)|2 = 2 x, x(t) = 2 hx, f (t, x)i ≤ 2K − 2L|x(t)|2 dt dt ⇒ d |x(t)|2 + 2L |x(t)|2 ≤ 2K . dt Wir benutzen den integrierenden Faktor e2Lt in dieser Differentialungleichung d 2Lt e |x(t)|2 ≤ 2Ke2Lt . dt Integration liefert uns die Abschätzung K (1 − e−2Lt ) + |x(0)|2 e−2Lt , ∀ t ≥ 0 L K 2 2 , |x(0)| , ∀ t ≥ 0 . |x(t)| ≤ max L |x(t)|2 ≤ ⇒ Ein solcher Fall ist in der Dynamik (und in der Praxis) sehr interessant. Kapitel 5 Das Euler-Verfahren Wir betrachten eine Anfangswertaufgabe (AWA) dx = f (t, x), x(t0 ) = x0 dt und setzen voraus, dass f mindestens stetig differenzierbar ist und eine eindeutige Lösung x(t) = x(t; t0 , x0 ) in einem Intervall [t0 , T ] existiert. Im Allgemeinen ist x(t; t0 , x0 ) nicht explizit bekannt. Daher wollen wir eine numerische Approximation finden. Das einfachste Verfahren, das eine solche Approximation erzeugt, ist das Euler-Verfahren. Wir betrachten eine gleichmäßige Zerlegung des Zeitintervalles [t0 , T ] mit konstanter Schrittweite T − t0 h= >0 N d.h. die diskreten Zeiten t0 , t1 ,. . .,tN , wobei tn+1 = tn + h oder tn = t0 + nh für n = 0,1,. . ., N . x x(T ; t0 , x0 ) x(t; t0 , x0 ) x0 t1 t2 t3 t4 t0 32 t5 t T 33 KAPITEL 5. DAS EULER-VERFAHREN Das Euler-Verfahren ist durch die Differenzengleichung xn+1 = xn + h f (tn , xn ), n = 0, 1, . . . definiert. Es ist eine explizite Einschritt-Iterationsmethode, d.h. xn+1 hängt direkt nur von xn ab. Solche Methoden sind ideal für einen digitalen Computer. Eine heuristische Herleitung ist wie folgt: in jedem Teilintervall [tn , tn+1 ] genügt die Lösung x(t) der Integralgleichung x(t) = x(tn ) + Z t f (s, x(s)) ds . tn Wegen der Stetigkeit ist f (s, x(s)) ≈ f (tn , x(tn )) für alle s ∈ [tn , tn+1 ], falls h > 0 genügend klein ist. Davon haben wir die Approximation Z tn+1 f (s, x(s)) ds x(tn+1 ) = x(tn ) + tn tn+1 Z ≈ x(tn ) + = x(tn ) + f (tn , x(tn )) = f (tn , x(tn )) ds tn x(tn ) + h f (tn , x(tn )) Z | tn+1 tn {z =h ds } Eine alternative, geometrischere Herleitung: wir approximieren die Integralkurve in den Intervallen [tn , tn+1 ] durch die Tangentengerade der Integralkurve in dem Punkt (tn , x(tn )): x(tn ) + (t − tn )f (tn , x(tn )) x(tn ) + hf (tn , x(tn )) x(tn ) x(tn+1 ) 34 KAPITEL 5. DAS EULER-VERFAHREN Wir haben offensichtlich einen Fehler Ln+1 = |x(tn+1 ) − x(tn ) − h f (tn , x(tn ))| hier. Er heißt lokaler Diskretisierungsfehler (Abschneidefehler) Aber es gibt eine Schwierigkeit: Nur in dem ersten Teilintervall [t0 , t1 ] fängt das Euler-Verfahren an derselben Stelle x0 an wie die Differentialgleichung. Schon im nächsten (und folgenden) Teilintervall [t1 , t2 ] fängt das Euler-Verfahren an der Stelle x1 = x0 + h f (t0 , x0 ) an. Im Allgemeinen ist x1 6= x(t1 ). x(t3 ; t2 , x2 ) L3 x3 x2 L2 x1 x(t3 ; t1 , x1 ) L1 x0 x(t3 ; t0 , x0 ) gesuchte Lösung t0 t1 t2 t3 Dann ist der lokale Diskretisierungsfehler L2 = |x(t2 ; t1 , x1 ) − x1 − h f (t1 , x1 ))| = |x(t2 ; t1 , x1 ) − x2 | im Allgemeinen nicht identisch dem echten Fehler E2 = |x(t2 ; t0 , x0 ) − x2 | . Vielleicht wegen der stetigen Abhängigkeit von x(t) bzg. der Anfangsbedingungen werden wir erwarten, dass E2 ∼ L2 für h > 0 klein genug ist. Das ist aber zu heuristisch. Wir brauchen tatsächlich den globalen Diskretisierungsfehler En := |x(tn ; t0 , x0 ) − xn | für jedes n = 0, 1, . . . , N . Offensichtlich ist E0 = 0 und E1 = L1 , aber im Allgemeinen ist En 6= Ln für n ≥ 2. Der lokale Diskretisierungsfehler ist ein wichtiges Hilfsmittel, um den globalen Diskretisierungsfehler abzuschätzen. Er ist leicht abzuschätzen durch eine 35 KAPITEL 5. DAS EULER-VERFAHREN Tayler-Entwicklung. Sei x(t) = x(t; tn , xn ). Dann existiert ein θn ∈ [tn , tn+1 ], so dass x(tn+1 ) = x(tn ) + h x′ (tn ) + wobei x′ (t) = 1 · x′′ (θn ) 2! d x(t) = f (t, x(t)) ist ⇒ x′ (tn ) = f (tn , x(tn )) und dt x′′ (t) = d2 x(t) dt2 d x(t) dt = d dt = d { f (t, x(t)) } dt = Daher folgt ∂f ∂f (t, x(t)) + (t, x(t)) · f (t, x(t)) ∂t ∂x{z | } stetig, weil f stetig differenzierbar ist Ln+1 = |x(tn+1 ) − x(tn ) − h f (tn , x(tn ))| = wobei M := max t0 <t≤T |x|≤R 1 1 2 ′′ h |x (θn )| ≤ h2 M 2! 2 ∂f ∂f + · | f (t, x)| (t, x) (t, x) < ∞. ∂t ∂x Diese Abschätzung ist sehr grob, aber theoretisch sehr nützlich. Sie zeigt, dass der lokale Diskretisierungsfehler von zweiter Ordnung ist, d.h. Ln ≈ 0(h2 ). Aber, wir brauchen eine Abschätzung für den globalen Diskretisierungsfehler En . Dafür werden wir eine Differenzenungleichung herleiten. Zunächst, von der Taylor-Entwicklung (wie oben) bekommen wir für ein θn′ ∈ [tn , tn+1 ] x(tn+1 ; t0 , x0 ) = = x(tn ; t0 , x0 ) + h x′ (tn ; t0 , x0 ) + 1 2 ′′ ′ h x (θn ; t0 , x0 ) 2 x(tn ; t0 , x0 ) + h f (tn , x(tn ; t0 , x0 )) + 1 2 ′′ ′ h x (θn ; t0 , x0 ) . 2 Daraus folgt: En+1 = |x(tn+1 ; t0 , x0 ) − xn+1 | 1 = x(tn ; t0 , x0 ) + h f (tn , x(tn ; t0 , x0 )) + h2 x′′ (θn′ ; t0 , x0 ) 2 − xn − h f (tn , xn ) ≤ |x(tn ; t0 , xn ) − xn | +h|f (tn , x(tn ; t0 , x0 )) − f (tn , xn )| | {z } En 36 KAPITEL 5. DAS EULER-VERFAHREN 1 + h2 |x′′ (0′n ; t0 , x0 )| 2 1 ≤ En + h L |x(tn ; t0 , x0 ) − xn | + h2 M | {z } 2 En d.h. En+1 ≤ (1 + h L)En + 1 2 M h2 , eine Differenzenungleichung ! Bemerkung Durch Induktion können wir zeigen, dass die Lösung“ der ” allgemeinen Differenzenungleichung Xn+1 ≤ αXn + β mit α ≥ 0 der Abschätzung Xn ≤ αn X0 + β(1 + α + . . . + αn−1 ) genügt (etwa wie eine diskrete Gronwall-Ungleichung!) In unserem Fall haben wir α = 1 + h L, β= 1 M h2 , 2 E0 = 0 . Daher gilt En ≤ β 1 + α + . . . + αn−1 = αn − 1 · β, α−1 = (1 + h L)n − 1 1 · M h2 1 + hL − 1 2 = {(1 + h L)n − 1} ≤ nhL M ·h e −1 · 2L ≤ d.h. En ≤ CT · h. weil α > 1 M · h1 2L n o M eL(T −t0 ) − 1 · ·h 2L Die Iterationen xn und die globalen Diskretisierungsfehler En hängen offensichtlich von der Schrittweite h ab. Wir werden xn (h) bzw. En (h) schreiben. Von oben haben wir die Fehlerabschätzungen 0 ≤ En (h) := |x(t0 +nh; t0 , x0 )−xn (h)| ≤ CT ·h für n = 0, 1, . . . , Nh = T − t0 h Diese Abschätzung ist nur von der ersten Ordnung – wir haben eine Potenz zwischen dem lokalen und dem globalen Diskretisierungsfehler verloren. 37 KAPITEL 5. DAS EULER-VERFAHREN Wir haben die Konvergenz lim max En (h) = 0. hց0 0≤n≤Nh Insbesondere konvergieren die Euler-Polygonzüge gegen die erwünschte Lösungskurve als h → 0. x x0 gesuchte Lösung t t0 T Die Konstante CT hängt von der Länge des Zeitintervalles [t0 , T ] ab, sowie von den Eigenschaften der Vektorfeldfunktion f . Wir haben CT ≈ eT . Daher ist diese Abschätzung nutzlos für asymptotisches Verhalten, d.h. für T → ∞. Kapitel 6 Einschrittverfahren Das Euler-Verfahren xn+1 = xn + h f (tn , xn ) ist das einfachste, nichttriviale Beispiel eines expliziten Einschrittverfahrens, d.h. xn+1 hängt explizit von xn (und direkt nur von xn ) ab. Die allgemeine Form eines expliziten Einschrittverfahrens mit konstanter Schrittweite h > 0 ist xn+h = xn + h F (tn , xn ; h), wobei F Inkrementenfunktion heißt. z.B. für das Euler-Verfahren ist F (t, x; h) ≡ f (t, x). Im Allgemeinen hängt F auch von h ab. Z.B. für das Heun-Verfahren haben wir 1 { f (t, x) + f (t + h, x + h f (t, x)) } . 2 Offensichtlich muß die Inkrementfunktion F eine Beziehung zu der Vektorfeldfunktion f haben, wenn wir ein verträgliches“ numerisches Verfahren haben ” wollen. F (t, x; h) = Frage: Wie können wir solche F finden? Wie in dem Euler-Fall können wir entweder 1. eine Taylor-Enwicklung der DGL-Lösung benutzen, oder 2. eine Approximation des Integrals in der Integralsgleichungsdarstellung der Lösung benutzen. 38 39 KAPITEL 6. EINSCHRITTVERFAHREN 6.1 Taylor-Verfahren Wir betrachten nur den 1-dimensionalen Fall, um alles zu vereinfachen. Sei f p-mal stetig differenzierbar in beiden Variablen und sei x(t) = x(t; tn , xn ) die eindeutige Lösung der Anfangswertaufgabe dx = f (t, x), dt x(tn ) = xn . Dann nehmen wir die Taylor-Entwicklung von p-ter Ordnung der Funktion x(t) um (tn , x(tn )) in t = tn+1 . Es existiert θh′ ∈ [tn , tn+1 ], so dass x(tn+1 ) = x(tn ) + h x(1) (tn ) + 1 1 1 2 (2) h x (tn ) + . . . + hp x(p) (tn ) + hp+1 x(p+1) (θh′ ) 2! p! (p + 1)! | {z } Restterm Hier sind die Ableitungen x(j) (t) rekursiv definiert durch d x(t) dt = f (t, x(t)) x(2) (t) = d (1) x (t) dt = d f (t, x(t)) = dt x(3) (t) = d (2) x (t) dt = x(1) (t) = ∂ ∂ +f ∂t ∂x ∂f ∂f +f ∂t ∂x = D2 f (t, x(t)) Df (t, x(t)) (t, x(t)) =: Df (t, x(t)) = = ∂ 2f ∂f ∂f ∂2f ∂2f + + f + f +f ∂t2 ∂t ∂x ∂t∂x ∂x∂t ∂ ∂ +f ∂t ∂x ∂f ∂f +f ∂t ∂x ∂f ∂x 2 + f2 ∂2f , ∂x2 wobei D totale Ableitung von f bzg. der DGL heißt. Im Allgemeinen schreiben wir x(j+1) (tn ) = Dj f (t, x(t))|t=tn = Dj f (tn , x(tn )) für j = 0, 1, . . . , p, wobei D0 f ≡ f zu verstehen ist. Dann vernachlässigen wir den Restterm. Es folgt die Approximation p X 1 j j−1 h D f (tn , x(tn )), x(tn+1 ) ≈ x(tn ) + j! j=1 die das folgende iterative Verfahren motiviert xn+1 p X hj j−1 D f (tn , xn ) = xn + j! j=1 40 KAPITEL 6. EINSCHRITTVERFAHREN oder xn+1 = xn + h p−1 X i=0 hi Di (tn , xn ) , (i + 1)! d.h. ein explizites Einschrittverfahren mit der Inkrementenfunktion F (t, x; h) = p−1 X i=0 hi Di f (t, x) . (i + 1)! Dieses Verfahren heißt Taylor-Verfahren der p-ten Ordnung Beispiele: (p = 1) xn+1 = xn + h f (tn , xn ) Euler-Verfahren mit F (t, x; h) = f (t, x) ∂f ∂f (tn , xn ) + f (tn , xn ) (tn , xn ) ∂t ∂x 1 ∂f ∂f mit F (t, x; h) = f (t, x) + h (t, x) + f (t, x) · (t, x) 2 ∂t ∂x (p = 2) xn+1 = xn + h f (tn , xn ) + 1 2 h 2 Es ist leicht zu beweisen, dass der lokale Diskretisierungsfehler die (p + 1)-te Ordnung besitzt: Ln+1 := |x(tn+1 ; tn , xn ) − xn+1 | 1 1 hp+1 |Dp f (θn , x(θn ))| ≤ Mp · hp+1 = (p + 1)! (p + 1)! wobei die Konstante Mp durch Mp := max |Dp f (t, x)| t0 ≤t≤T |x|≤R für ein geeignetes R groß genug definiert ist. (R ist groß genug, so dass |x(t)| ≤ R für alle betrachteten Lösungen). Das obige Verfahren als ein Verfahren der p-ten Ordnung zu beschreiben ist richtig wie wir später in einem Satz beweisen werden. Im Allgemeinen verlieren wir eine Potenz in der Ordnung zwischen dem lokalen und dem globalen Diskretisierungsfehler. ⇒ Das Taylor-Verfahren der p-ten Ordnung hat Konvernzordnung p! Beispiel Betrachte f (t, x) = tx und die entsprechenede totale Ableitung D= ∂ ∂ ∂ ∂ +f = + tx ∂t ∂x ∂t ∂x KAPITEL 6. EINSCHRITTVERFAHREN 41 bzg. einer Lösung der Differentialgleichung. Hier gelten Df = ∂f ∂ ∂ ∂f +f = {tx} + {tx} {tx} = x + tx · t = x(1 + t2 ) ∂t ∂x ∂t ∂x D2 f = ∂ ∂ ∂ ∂ {Df } + f {Df } = {x(1 + t2 )} + tx {x(1 + t2 )} ∂t ∂x ∂t ∂x = x · 2t + tx · (1 + t2 ) = x · (3t + t3 ) Die Vorschriften für die entsprechenden Taylor-Verfahren von Ordnung p = 1, 2, 3, . . . lauten p=1 xn+1 = xn + h f (tn , xn ) = xn + h tn xn p=2 xn+1 = xn + h f (tn , xn ) + = xn + htn xn + p=3 xn+1 1 2 h D f (tn , xn ) 2! 1 2 h xn (1 + t2n ) 2 1 2 1 h D f (tn , xn ) + h3 D2 f (tn , xn ) 2! 3! 1 1 = xn + h tn xn + h2 xn (t + t2n ) + h3 xn (3tn + t3n ) 2 6 = xn + h f (tn , xn ) + usw.! Taylor-Verfahren sind in der Praxis selten benutzt – wegen der Notwendigkeit die höheren Ableitungen herzuleiten – obwohl, heutzutage kann maple diese Aufgabe erleichtern. Taylor-Verfahren sind theoretisch sehr nützlich, um die Ordnung des lokalen Diskretisierungsfehlers eines anderen Einschrittverfahrens zu finden – man vergleicht eine Entwicklung des Verfahrens mit einem geeigneten Taylor-Verfahren. Kapitel 7 Einschrittverfahren durch Integralapproximation Wir können eine andere Art Einschrittverfahren durch Approximationen des Integrals in der Integralgleichungsdarstellung der DGL-Lösung herleiten. Solche Verfahren brauchen nur die Berechnung von der Funktion f und nicht von deren Ableitungen. In den Teilintervallen [tn , tn+1 ] gilt es die Integralgleichung x(t) = x(tn ) + Z t f (s, x(s)) ds tn für eine Lösung x = x(t) der DGL. Die Integralfunktion F (t) = f (t, x(t)) ist stetig, daher integrierbar in [tn , tn+1 ]. Wir können verschiedene IntegralapproRt ximationsregeln für das Integral tnn+1 F (s) ds verwenden, z.B. Rechteckregel, Trapezregel und Simpsonsregel. 7.1 Rechteckregel Mit dem linken Randpunkt als Berechnungspunkt lautet die Rechteckregel Z tn+1 Z tn+1 F (tn ) ds = (tn+1 − tn ) F (tn ) F (s) ds ≈ tn tn davon bekommen wir die Approximation x(tn+1 ) ≈ x(tn ) + (tn+1 − tn ) f (tn , x(tn )) , die das Euler-Verfahren motiviert xn+1 = xn + h f (tn , xn ) 42 KAPITEL 7. EINSCHRITTVERFAHREN DURCH INTEGRALAPPROXIMATION43 Mit dem rechten Randpunkt als Berechnungspunkt Z tn+1 Z tn+1 F (tn+1 ) ds = (tn+1 − tn ) F (tn+1 ) . F (s) ≈ tn tn In diesem Fall bekommen wir ein impliziertes Verfahren xn+1 = xn + h f (tn+1 , xn+1 ) das das implizite Euler-Verfahren heißt. Bemerkung: Implizite Verfahren brauchen zusätzliche Arbeit in jedem Iterationsschritt, um die implizite Gleichung für xn+1 zu lösen, z.B. mit der Newton-Methode. Trotzdem sind diese Art Verfahren oft benutzt, wegen ihrer höheren numerischen Stabilität und der Möglichkeit größerer Schrittweite zu benutzen – mehr darüber später. 7.2 Hier ist Trapezregel Z tn+1 tn F (s) ds ≈ tn+1 − tn [F (tn ) + F (tn+1 )] 2 und wir bekommen nochmal ein impliziertes Verfahren xn+1 = xn + h [f (tn , xn ) + f (tn+1 , xn+1 )] , 2 das das Trapez-Verfahren heißt. Um zu vermeiden, eine implizite Gleichung zu lösen, könnten wir das xn+1 an der rechten Seite der Trapez-Regel durch das xn+1 des entsprechenden EulerVerfahrens ersetzen. Dann bekommen wir ein explizites Verfahren, das das Heun-Verfahren genannt ist xn+1 = xn + h [f (tn , xn ) + f (tn+1 , xn + h f (fn , xn ))] . 2 Es ist ein explizites Einschrittverfahren mit Inkrementenfunktion F (t, x; h) = 1 [f (t, x) + f (t + h, x + h f (t, x))] . 2 Solche heuristischen Anpassungen sind typisch. Daher müssen wir aufpassen, dass das so hergeleitete Verfahren mit der ursprünglichen DGL verträglich oder konsistent ist – mehr darüber später! KAPITEL 7. EINSCHRITTVERFAHREN DURCH INTEGRALAPPROXIMATION44 7.3 Runge-Kutta-Verfahren Das Heun-Verfahren ist das einfachste Beispiel aus der Familie der Runge-KuttaVerfahren. Es hat zwei Berechnungspunkte der Funktion f für jede Iteration (=Teilintervall). Diese sind die Zwischenstadien oder Stufen des Verfahrens. Typische Runge-Kutta-Verfahren haben s ≥ 2 Stufen. Im Fall von zwei Stufen hat die Inkrementen-Funktion des Verfahrens die allgemeine Gestalt F (t, x; h) = αf (t, x) + β f (t + γh, x + γh f (t, x)) für geeignete Konstanten α, β, γ. Das Heun-Verfahren hat α = 21 , β = = 1. 1 2 und γ Unsere Behandlung dieser Familie von Schemen ist typisch, aber leichter wie für die komplizierten Runge-Kutta-Verfahren – wir leiten eine Taylor-Entwicklung für die Funktion F (t, x; h) her und vergleichen das Ergebnis mit einem geeigneten Taylor-Verfahren – die entsprechenden Glieder sollen dieselben Koeffizienten haben. F (t, x; h) = = αf (t, x) + β f (t + γh, x + γh f (t, x)) ∂f ∂f αf (t, x) + β f (t, x) + γh (t, x) + γh f (t, x) (t, x) + . . . ∂t ∂x Wir werden die (t, x, h) ausfallen lassen um alles zu vereinfachen: ∂f ∂f F (t, x; h) = αf + βf f + γh + γh f · ∂t ∂x 2 2 2 2 2∂ f 2 2 ∂ f 2 2 2∂ f γ h + T.h.O + 2γ h f +γ h f ∂t2 ∂t∂x ∂x2 ∂f ∂f = (α + β) + βγh +f ∂t ∂x 1 + 2! βγ 2 h2 + 2! 2 ∂2f ∂2f 2∂ f + 2 f + f ∂t2 ∂t∂x ∂x2 + T.h.O Das Taylor-Verfahren mit p = 3 hat die Inkrementen-Funktion ( ) 2 2 h2 h ∂f ∂2f ∂f ∂f ∂f ∂2f ∂f 2 ∂ f + F3 = f + +f + +f +2f +f 2! ∂t ∂x 3! ∂t2 ∂t ∂x ∂t∂x ∂x ∂x2 Wir subtrahieren und erhalten F3 − F = (1 − α − β)f + + 1 2 1 + h2 6 h2 ∂2f ∂ 2f ∂2f + 2f + f2 2 2 ∂t ∂t∂x ∂x ∂f ∂f +f ∂t ∂x ∂f ∂x 1 − βγ 2 3 ( 1 ∂f ∂f − βγ h +f 2 ∂t ∂x 2 ) + T.h.O KAPITEL 7. EINSCHRITTVERFAHREN DURCH INTEGRALAPPROXIMATION45 Die ersten 2 Terme verschwinden durch die Wahl 1 − α − β = 0, 1 − βγ = 0 . 2 Der dritte Term wird durch die Wahl 13 − γ 2 β = 0 auch verschwinden — aber wir haben nichts im Allgemeinen gewonnen, weil der vierte Term bleibt — er ist auch von der Ordnung 0(h2 ) hier. Durch die Wahl α + β = 1, βγ = 1/2 bekommen wir die im allgemeinen bestmögliche Abschätzung |F3 − F | = 0(h2 ) Das bedeutet, dass das Heun-Verfahren wie das Taylor-Verfahren der 3ten Ordnung einen lokalen Diskretisierungsfehler Ln+1 von 3ter Odnung hat Ln+1 = |x(tn+1 ; tn , xn ) − xn − h F (tn , xn , h)| ≤ |x(tn+1 ; tn , xn ) − xn − h F3 (tn , xn , ; h)| +h |F3 (tn , xn ; h) − F (tn , xn ; h)| ≈ + h 0(h2 ) = 0(h3 ) 0(h3 ) | {z } | {z } lokaler DF des Vergleich der Taylor-Verfahrens Verfahren Von dem schon angekündigten Satz können wir schließen: Das Heun-Verfahren hat globalen DF mit 2ter Ordnung, d.h. Konvergenzordnung p = 2. Bemerkung: Das meistbenutzte Runge-Kutta-Verfahren hat s = 4 Stufen und Konvergenzordnung p = 4. Seine Gestalt lautet xn+1 = xn + h F (tn , xn ; h) mit F (t, x; h) = 1 {k1 (t, x, h) + 2 k2 (t, x, h) + 2 k3 (t, x, h) + k4 (t, x, h)} 6 und Hilfsfunktionen k1 (t, x, h) = f (t, x) k2 (t, x, h) = f k3 (t, x, h) h h = f t + , x + k2 (t, x, h) 2 2 k4 (t, x, h) = f (t + h, x + h k3 x(t, x, h)) h h t + , x + k1 (t, x, h) 2 2 KAPITEL 7. EINSCHRITTVERFAHREN DURCH INTEGRALAPPROXIMATION46 Für f (t, x) ≡ f (t) (d.h. unabhängig von x) entspricht es der Simpsonsregel für das Integral Z tn +1 h h f (tn ) + 4 f tn + + f (tn+1 ) . f (s) ds ≈ 6 2 tn Kapitel 8 Konvergenz und Konsistenz Wir betrachten eine Anfangswertaufgabe dx = f (t, x), x(t0 ) = x0 dt und ein entsprechendes Einschrittverfahren mit konstanter Schrittweite h > 0, xn+1 = xn + h F (tn , xn ; h), wobei tn = t0 + nh, n = 0, 1, 2, . . . . 1. es ist leicht die Ordnung des lokalen Diskretisierungsfehlers abzuschätzen, 2. im Sonderfalle des Euler-Verfahrens ist die Ordnung des globalen Diskret isierungsfehlers eine Potenz niedriger als die des lokalen Diskretisierungsfehlers. Diese letzte Beobachtung ist eine gemeinsame Eigenschaft aller guten“ Ein” schrittverfahren. Wir haben den folgenden Satz schon angekündigt. Satz Ein Einschrittverfahren xn+1 = xn + h F (tn , xn ; h) habe den lokalen Diskretisierungsfehler von (p + 1)ter Ordnung und die Inkrementenfunktion F genüge einer Lipschitz-Bedingung in allen drei Variablen (t, x, h). Dann hat der globale Diskretisierungsfehler des Einschrittverfahrens die Ordnung p. 47 KAPITEL 8. KONVERGENZ UND KONSISTENZ 48 Beweis Der Beweis ist ähnlich wie im Euler-Fall, aber jetzt mit einer allgemeinen Inkrementenfunktion. Zunächst schreiben wir x(tn+1 ; t0 , x0 ) − xn+1 = {x(tn ; t0 , x0 ) − xn } + h{F (tn , x(tn ; t0 , x0 ); h) − F (tn , xn ; h)} +{x(tn+1 ; t0 , x0 ) − x(tn ; t0 , x0 ) − h F (tn , x(tn ; t0 , x0 ); h)} . Hier haben wir x(tn ; t0 , xn ) und h F (tn , x(tn ; t0 , x0 ); h) addiert und subtrahiert. Mit der Dreiecksungleichung erhalten wir dann: kx(tn+1 ; t0 , x0 ) − xn+1 k ≤ kx(tn ; t0 , x0 ) − xn k + hkF (tn , x(tn ; t0 , x0 ); h) − F (tn , xn ; h)k +kx(tn+1 ; t0 , x0 ) − x(tn ; t0 , x0 ) − h F (tn , x(tn ; t0 , x0 ); h)k Der letzte Term an der rechten Seite ist der lokale Diskretisierungsfehler des Einschrittverfahrens: kx(tn+1 ; t0 , x0 ) − x(tn ; t0 , x0 ) − h F (tn , x(tn ; t0 , x0 ); h)k ≤ M hp+1 wir Mit En = kx(tn ; t0 , x0 ) − xn k und En+1 = kx(tn+1 ; t0 , x0 ) − xn+1 k haben En+1 ≤ En + h kF (tn , x(tn ; t0 , x0 ); h) − F (tn , xn ; h)k +M hp+1 {z } | ≤ Lkx(tn ; t0 , x0 ) − x0 k = L En wegen der Lipschitz-Bedingung und deshalb gilt die Ungleichung En+1 ≤ (1 + Lh)En + M hp+1 . Hier ist E0 = 0. Wie im Euler-Fall haben wir dann En (1 + Lh)n − 1 · M hp+1 (1 + Lh) − 1 M p M p h ≤ (eL(T −t0 ) − 1) · h = [(1 + Lh)n − 1] L L ≤ Unser globaler Diskretisierungsfehler 0(hp ) hat daher die Ordnung p. Bemerkung 1. In der Tat haben wir nur eine Lipschitz-Bedingung für F (t, x; h) in x gleichmäßig in t und h benutzt. 2. Die vorausgesetzte Lipschitz-Bedingung folgt von der Glattheit der Vektorfeldfunktion f (t, x) der Differentialgleichung. KAPITEL 8. KONVERGENZ UND KONSISTENZ 49 Z.B. das p-Taylor-Verfahren hat die Inkrementenfunktion F (t, x, h) = p−1 X hi Di f (t, x) (i + 1)! i=0 mit höchster totaler Ableitung Dp−1 f – daher soll f mindestens p-mal stetig differenzierbar sein! Z.B. das Heun-Verfahren hat lokalen DF von 3ter Ordnung: p + 1 = 3, daher ist p = 2. Dieses Verfahren hat Konvergenzordnung p = 2. 8.1 Konsistenz Die Herleitung vieler Einschrittverfahren ist oft heuristisch. Daher müssen wir uns versichern, dass ein solches Verfahren der ursprünglichen Differentialgleichung verträglich“ ist. Natürlich könnten wir direkt beweisen, dass das nume” rische Verfahren konvergiert. Der Begriff Konsistenz“ ergibt uns ein einfaches ” Hilfsmittel, sofort zu sehen oder zu prüfen, dass ein Verfahren konvergieren wird, ohne diese Tatsache direkt zu beweisen. Sei (t, x) fest. Die Lösung x(·; t, x) der DGL genügt der Gleichung Z x(t + h; t, x) = x + t+h f (s, x(s; t, x)) ds t Eine einzelne Iteration des Einschrittverfahrens vom Anfangspunkt (t, x) genügt der Gleichung x(h) = x + h F (t, x; h) Daher genügt der entsprechende lokale Diskretisierungsfehler der Gleichung Z 1 t+h f (s, x(s; t, x)) ds − F (t, x; h) L := |x(t + h; t, x) − x(h)| = h h t Von dem obigen Konvergenzsatz haben wir gesehen, dass die Ordnung des globalen DFs immer eine Potenz niedriger als die des lokalen DFs ist. Daher, um Konvergenz zu versichern, brauchen wir Z 1 t+h f (s, x(s; t, x)) ds − F (t, x; h) = 0 lim h→0+ h t oder umgeschrieben lim F (t, x; h) = lim h→0+ h→0+ 1 h Z t t+h f (s, x(s; t, x)) ds = f (t, x) KAPITEL 8. KONVERGENZ UND KONSISTENZ 50 Im Allgemeinen ist F mindestens stetig bzg. aller Variablen, dann haben wir, dass die Bedingung F (t, x, 0) = f (t, x), ∀ (t, x) notwendig für die Konvergenz des Einschrittverfahrens ist. Wir werden hier beweisen, dass sie auch eine hinreichende Bedingung ist. Definition des Begriffs Konsistenz“ Ein Einschrittverfahren mit ” Inkrementenfunktion F heißt konsistent“, wenn ” lim F (t, x; h) = f (t, x), h→0+ ∀ (t, x) z.B. Die Familie von Runge-Kutta-Verfahren mit 2 Zwischenstufen hat die Inkrementenfunktion F (t, x; h) = αf (t, x) + βf (t + γh, x + γh f (t, x)) . Daher gilt es lim F (t, x; h) = (α + β)f (t, x) h→0+ Solche Verfahren sind konsistent genau dann, wenn α + β = 1. Satz Die Inkrementenfunktion F genüge einer Lipschitz-Bedingung in allen drei Variablen (t, x, h). Das Einschrittverfahren konvergiert genau dann, wenn es konsistent ist. Beweis: Wegen des Existenz- und Eindeutigkeitssatzes hat die (neue) Anfangswertaufgabe dz = F (t, z; 0), z(t0 ) = x0 dt eine eindeutige Lösung z(t) = z(t; t0 , x0 ), die stetig differenzierbar in t ist. Deshalb existiert vom Mittelwertsatz ein θn ∈ [0, 1] so, dass z(tn+1 ) − z(tn ) = Z tn+1 F (s, z(s); 0) ds = h F (tn + θn h, z(tn + θn h); 0). tn Dann betrachten wir die Iterationen des Einschrittverfahrens xn+1 = xn + h F (tn , xn ; h) für n = 0, 1, 2, . . . mit demselben Anfangspunkt x0 . en := |z(tn ; t0 , x0 ) − xn |, als den globalen DiskretisierungsWir definieren: E fehler für die neue AWA. 51 KAPITEL 8. KONVERGENZ UND KONSISTENZ Ähnlich (aber nicht identisch) wie vorher haben wir z(tn+1 ) − xn+1 = {z(tn ) − xn } + {z(tn+1 ) − z(tn )} − h F (tn , xn ; h) = {z(tn ) − xn } + h{F (tn + θn h, z(tn + θn h); 0) − F (tn , xn ; h)} Daher gilt die Ungleichung en+1 E en + h kF (tn + θn h, z(tn + θn h); 0) − F (tn , xn ; h)k ≤ E en + h kF (tn + θn h, z(tn + θn h); 0) − F (tn , z(tn ); 0)k ≤ E + h kF (tn , z(tn ); 0) − F (tn , xn ; h)k en + h L {|tn + θn h − tn | + kz(tn + θn h) − z(tn )k} ≤ E + h L{kz(tn) − xn k + |h − 0|} Z tn +θn h 2 e ≤ (1 + L h)En + 2L h + L h F (s, z(s), 0)ds tn ⇒ ⇒ en+1 ≤ (1 + Lh)E en + (2L + LM )h2 E en ≤ (eL(T −t0 ) − 1) · L(2 + M ) · h E L en ≤ CT h d.h. E für ein festes CT . e0 = 0 E Daher konvergieren die Iterationen des Einschrittverfahrens gegen die Lösung z(t; t0 , x0 ) in dem Intervallen t0 ≤ t ≤ T . Fall 1. Konsistenz ⇒ Konvergenz Sei das Einschrittverfahren konsistent, d.h. (wegen der Lipschituz-Bedingung) haben wir F (t, x; 0) ≡ f (t, x) ∀ (t, x) Dann ist die Lösung z(t; t0 , x0 ) eine Lösung der Anfangswertaufgabe dx = f (t, x), x(t0 ) = x0 . dt Wegen der Eindeutigkeit der Lösung haben wir z(t; t0 , x0 ) ≡ x(t; t0 , x0 ), ∀ t ∈ [t0 , T ] . Die numerischen Iterationen konvergieren deshalb gegen die Lösung x(t; t0 , x0 ) der ursprünglichen Anfangswertaufgabe – wir haben Konvergenz ! KAPITEL 8. KONVERGENZ UND KONSISTENZ 52 Fall 2. Konvergenz ⇒ Konsistenz Das numerische Verfahren konvergiere (gegen die Lösung x(t; t0 , x0 )). Daher haben wir x(t; t0 , x0 ) ≡ z(t; t0 , x0 ) und es folgen x′ (t) ≡ z ′ (t). Sei F (t0 , x0 ; 0) 6= f (t0 , x0 ) für irgendwelches (t0 , x0 ). Daher gilt z ′ (t0 ) 6= x′ (t0 ) , was der Identität z(t) ≡ x(t) widerspricht. Deshalb muß das Verfahren konsistent sein, wenn es konvergiert. Kapitel 9 Numerische Instabilität Wir betrachten eine Anfangswertaufgabe dx = f (t, x), x(t0 ) = x0 , dt die eine eindeutige Lösung x(t; t0 , x0 ) in einem Zeitintervall t0 ≤ t ≤ T besitzt. Wir wollen diese Lösung numerisch approximieren durch ein entsprechendes Einschrittverfahren xn+1 = xn + h F (tn , xn ; h) mit konstanter Schrittweite h > 0. Dann gilt tn = t0 + nh. Wir setzen voraus, dass dieses Einschrittverfahren Konvergenzordnung p hat, das heißt der globale Diskretisierungsfehler En(h) := |x(tn ; t0 , x0 ) − xn | genügt der Abschätzung max En(h) ≤ CT hp , 0≤n≤Nh wobei Nh = (T − t0 )/h. 53 54 KAPITEL 9. NUMERISCHE INSTABILITÄT x x0 x(t; t0 , x0 ) t0 T Das Computerzahlenfeld ist nur endlich. Es existiert ein ε0 > 0 (das MaschinenEpsilon), so dass |x − y| ≥ ε0 für alle x 6= y in diesem Computerzahlenfeld. Daher dürfen wir die Schrittweite h nicht zu klein wählen! Frage: Ist das ein Problem? Ja!!—(Manchmal geht es aber gut) Beispiel: Die Anfangswertaufgabe dx = − 10N x, dt x(0) = x0 N hat die eindeutige Lösung x(t) = e−10 t x0 , die monoton gegen x = 0 strebt für t → ∞ – diese Konvergenz gegen 0 kann sehr schnell sein für N >> 1. x t 55 KAPITEL 9. NUMERISCHE INSTABILITÄT Jetzt betrachten wir das Euler-Verfahren für diese Differentialgleichung xn+1 = xn + h −10N xn ⇒ xn = 1 − h10N ⇒ n x0 xn+1 = 1 − h10N xn n = 0, 1, 2, . . . Es ist klar, dass xn = αn x0 monoton gegen 0 strebt genau dann, wenn 0 < α < 1 ist. In unserem Euler-Fall haben wir α = 1 − h 10N so brauchen wir 0 < 1 − h 10N < 1 oder h < 10−N . x Euler t Das Problem ist, wir könnten N >> 1 haben, so dass 10−N < ε0 , dem Maschinen-Epsilon. Dann haben wir keine Wahl und müssen h > 10−N benutzen. Dann bekommen wir α = 1 − h 10N < 0 . Wenn − 1 < α < 0, oder 10−N < h < 2 · 10−N , streben die numerischen Iterationen gegen 0, aber mit Vorzeichen wechselnen Schwankungen KAPITEL 9. NUMERISCHE INSTABILITÄT 56 Das ist offensichtlich unrealistisch. Die Situation ist noch schlimmer für größere h — dann bekommen wir zunehmende Schwankungen. Z.B. Für h = 100 · 10−N ⇒ α = − 99 haben wir xn = (− 99)n x0 Das obige Beispiel ist etwas künstlich, aber das Phänomen kann innerhalb eines komplizierten Beispiels entstehen. Beispiel: Betrachte ein 2-dimensionales lineares System dx dt dy dt = − 10N x = x−y 57 KAPITEL 9. NUMERISCHE INSTABILITÄT oder d dt x y ! = " − 10N 1 0 −1 # A= " − 10N 1 0 −1 # Die Matrix x y ! hat Eigenwerte λ1 = − 10N , λ2 = − 1 mit entsprechenden Eigenvektoren 1 + 10N 1 V1 = Die allgemeine Lösung ist ! x(t) =a y(t) ! 1 + 10N 1 , V2 = ! N e−10 t 0 1 +b ! 0 1 . ! e−t , wobei a und b beliebige Konstanten sind. Mit dem Anfangswert (x(0), y(0)) = (0, 1) haben wir die Lösung (x(t), y(t)) = (0, e−t ) . Das Euler-Verfahren hat hier die Vorschrift xn+1 = xn − h 10N xn , yn+1 = yn + h xn − hyn . Für x0 = 0, sehen wir, dass xn ≡ 0 und dann ist yn+1 = yn − hyn = (1 − h)yn d.h xn ≡ 0 und yn = (1 − h)n y0 → 0 monoton für n → ∞, falls 0 < h < 1. Zum Beispiel wir können h = 100 · 10−N wählen. Dann ist das EulerVerfahren xn+1 = − 99xn , yn+1 = 100 10−N xn + 1 − 10−N +2 yn so xn = (−99)n x0 ≡ 0 für alle n ≥ 0, weil x0 ≡ 0. Alles was bleibt ist yn+1 = 1 − 10−N +2 yn . Aber wenn wir einen kleinen Fehler in x0 haben, so x0 6= 0, mit einer entsprechenden Wirkung in yn . 58 KAPITEL 9. NUMERISCHE INSTABILITÄT Bemerkung: Implizite Verfahren werden oft benutzt, weil sie solche numerischen Instabilitäten vermeiden können, z.B. impliziertes Euler-Verfahren xn+1 = xn + h f (tn+1 , xn+1 ) für die DGL dx = − 10N x, dt d.h. mit f (t, x) = − 10N x, lautet xn+1 = xn − h + 10N xn+1 die algebraisch lösbar ist. Wir bekommen 1 + h 10N und daher ist xn+1 = oder xn = 1 1 + h 10N xn+1 = xn 1 xn 1 + h 10N n x0 → 0 für n→∞ für irgendwelches h > 0. Dann können wir h ≫ 10−N hier benutzen. Im Allgemeinen ist ein implizites Verfahren nur numerisch lösbar. Das braucht zusätzliche Arbeit für jeden Zeitschritt. Aber wir können ein viel größeres h benutzen und die Gesamtarbeit kann tatsächlich weniger sein. Kapitel 10 Ljapunov-Stabilität Im Prinzip können wir die Lösung x(t; t0 , x0 ) einer AWA dx = f (t, x), x(t0 ) = x0 , dt die für alle t ≥ t0 existiert, auf jedem endlichen Zeitintervall [t0 , T ] durch ein Einschrittverfahren approximieren – wir brauchen nur die Schrittweite h > 0 klein genug zu wählen, um die Abschätzung CT hp des globalen Diskretisierungsfehlers klein genug zu machen. Aber Die Konstante CT ∼ eT , so diese Abschätzung ist nutzlos, wenn wir langfristiges Verhalten, d.h. das Verhalten von x(t) für t → ∞, untersuchen wollen. Zunächst werden wir uns auf solche Fälle konzentrieren in denen die erwünschte Lösung stabil ist. Um alles zu vereinfachen, wenden wir uns dem autonomen Fall zu und beschränken uns auf die Betrachtung einer Ruhelage ϕ(t) ≡ x∗ ∀ t dx = f (x), f (x∗ ) = 0. dt Die Lösung einer autonomonen DGL genügt der Eigenschaft x(t; t0 , x0 ) ≡ x(t − t0 ; 0, x0 ). Daher können wir immer t0 = 0 nehmen und die entsprechende Lösung einfach als x(t; x0 ) schreiben Definition: Ljapunov-Stabilität einer Ruhelage“ Eine Ruhelage x∗ ” einer autonomen DGL heißt stabil (im Sinne von Ljapunov), wenn es zu jedem ǫ > 0 ein δ = δ(ǫ) > 0 gibt, mit folgender Eigenschaft: Für jeden Anfangswert x0 mit kx0 − x∗ k < δ existiert die Lösung x(t; x0 ) für alle t ≥ 0 und genügt der Abschätzung kx(t; x0 ) − x∗ k < ǫ für alle t ≥ 0. Andernfalls heißt die Ruhelage x∗ instabil. 59 60 KAPITEL 10. LJAPUNOV-STABILITÄT x∗ + ε x∗ + δ x∗ x∗ − δ x∗ − ε t Beispiel: Betrachte die lineare skalare DGL dx = αx dt mit Lösung x(t; x0 ) = x0 eαt . Falls α 6= 0 ist die Ruhelage x∗ ≡ 0 eindeutig und zusätzlich stabil, falls α < 0. Nimm δ = ǫ ! instabil, falls α > 0, weil für jedes ǫ > 0 gilt für x0,n = 1 n ⇒ kx(t, x0,n )k ≥ ǫ ∀t ≥ tn = ln(nǫ) Bemerkung Von der stetigen Abhängigkeit bzg. des Anfangswertes haben wir immer: ∃ δ = δ(ǫ, T ) > 0 für jedes ǫ > 0 und 0 < T < ∞, so dass kx0 − x∗ k < δ ⇒ kx(t; x0 ) − x(t; x∗ ) k < ǫ | {z } ∀0≤t≤T . ≡x∗ Aber im Allgemeinen ist inf T >0 δ(ǫ, T ) = 0 möglich, z.B. δ(ǫ, T ) = ǫe−T für die DGL dx = x. dt In dem obigen Beispiel genügt die Ruhelage x∗ einer stärkeren Eigenschaft für α < 0: x(t, x0 ) → x∗ für t → ∞ , d.h. einer Attraktivitätseigenschaft. 61 KAPITEL 10. LJAPUNOV-STABILITÄT Definition: Attraktivität“ Eine Ruhelage x∗ heißt attraktiv, wenn ” es ein δ0 > 0 gibt mit folgender Eigenschaft: für jeden Anfangswert x0 mit kx0 − x∗ k < δ0 existiert die Lösung x(t; x0 ) für alle t ≥ 0 und es gilt lim kx(t; x0 ) − x∗ k = 0 t→∞ Beispiel: Die nichtlineare DGL dx = x − x2 dt hat Ruhelagen 0 und 1 x∗ = 1 stabil + attraktiv x∗ = 0 instabil Definition: asymptotische Stabilität“ Eine Ruhelage x∗ heißt ” asymptotisch stabil, wenn sie stabil und attraktiv ist. Bemerkung: In dem eindimensionalen Fall oder in dem linearen Fall: Attraktiv ⇒ Stabil . Im Allgemeinen sind die beiden Begriffe unabhängig. Beispiel: Betrachte die folgende 2-dimensionale DGL in Polarkoordinaten dr dθ 1 2 2 =r−r , = sin θ . dt dt 2 Die Ruhelagen (in cartesischen Koordinaten) sind (x∗ , y ∗ ) = (0, 0) und (x∗ , y ∗ ) = (1, 0). Der Einheitskreis r = 1 ist auch eine invariante Kurve. 62 KAPITEL 10. LJAPUNOV-STABILITÄT Die Ruhelage (x∗ , y ∗ ) = (1, 0) ist attraktiv aber nicht stabil. 10.1 Lineare Systeme Sei A eine d× d konstante Matrix und betrachte die d-dimensionale lineare DGL dx = Ax dt Ruhelagen: x∗ = 0 ist die einzige Ruhelage, falls det A 6= 0. Sonst gibt es einen linearen Teilraum von Ruhelagen. Die Lösung lautet x(t; x0 ) = eAt x0 , wobei eAt = ∞ X 1 j j t A j! j=0 eine d × d Matrix ist. (Die Reihe hier konvergiert für jede Matrix A und jedes t ≥ 0. Betrachte die Eigenwerte und Eigenvektoren der Matrix A: Avi = λi vi . Im diagonalisierbaren Fall gibt es d linear-unabhängige Eigenvektoren v1 , v2 , . . ., vd , die Matrix P = [v1 , . . . , vd ] (die vi sind die Spalten hier) ist invertierbar und λ1 0 .. = PΛ , AP = P . 0 λd ⇒ A = P ΛP −1 ⇒ Aj = P Λj P −1 . Daher gilt: eAt = P X 1 tj Λj P −1 = P eΛt P −1 = P j! j=0 eλ1 t 0 .. 0 . eλd t −1 P , 63 KAPITEL 10. LJAPUNOV-STABILITÄT weil Λj = λ1 0 .. . 0 λd j = λj1 0 .. . λjd 0 Im folgenden ist die Lösung x(t; x0 ) eine der Funktionen eλ1 t , . . ., eλd t : eλ1 t 0 . .. x(t; x0 ) = P 0 eλd t für jedes j ≥ 0 . vektorwertige lineare Kombination d X −1 P x0 = cj eλj t j=1 wobei c1 , . . ., cd d-dimensionale Vektoren sind. In dem allgemeinen nichtdiagonalisierbaren Fall müssen wir die entsprechende Jordan-Form A = QJQ−1 verwenden. Dann hat die Lösung die Gestalt x(t; x0 ) = QeJt Q−1 x0 = j −1 NA dX X cl,j tl eλj t , j=1 l=0 wobei PNA j=1 dj = d. Ein Eigenwert λj heißt halbeinfach, wenn dj = 1. In diesem Fall sind die algebraische und geometrische Vielfachheiten identisch. ⇒ es gibt keine Funktionen wie ti eλj t für i ≥ 1 ! 64 KAPITEL 10. LJAPUNOV-STABILITÄT Satz: Eigenwertbedingungen für Stabilität“ ” = 0 des linearen Systems dx = Ax dt ist genau dann Die Ruhelage x∗ 1. stabil, wenn alle Eigenwerte von A nichtpositive Realteile (d.h. ≤ 0) haben und diejenigen mit Realteil = 0 halbeinfach sind. In diesem Fall gibt es eine Konstante M ≥ 1 mit keAt k ≤ M für alle t ≥ 0 2. asymptotisch stabil, wenn alle Eigenwerte von A negative Realteile besitzen. Für alle α mit 0 < α < −max(Re(λ)) (wobei λ Eigenwert von A ist) gibt es eine Konstante K = K(α) ≥ 1 mit keAt k ≤ Ke−αt für alle t≥0 Beweis (Skizze) Wir schätzen die verschiedenen Terme der Form eλj t oder √ t e ab. Sei λj = αj + ıβj , wobei ı = −1 ist (βj = 0 ist möglich). Dann haben wir eλj t = eλj t eβj t ⇒ |eλj t | = eαj t l λj t und tl eλj t = tl eαj t eıβj t ⇒ |tl eλj t | = tl eαj t Es gibt verschiedene Fälle: 1. αj < 0 oder αj = 0 mit dj = 1 (halbeinfach) Im ersten Fall haben wir eαj t → 0, tl eαj t → 0 und in dem zweiten Fall: l = 0 und t0 e0t ≡ 1 bleibt beschränkt. 2. αj > 0 oder αj = 0 mit dj > 1. Dann (durch eine geeignete Wahl des Anfangswerts) wählen wir eine Lösung, so dass nur der Term eαj t oder der Term tl eαj t = tl anwesend ist. Dann gilt kx(t; x0 )k = eαj t oder kx(t; x0 )k = tl für diese Lösung, und wir haben unsere Stabilität oder asmptotische Stabilität verloren. 65 KAPITEL 10. LJAPUNOV-STABILITÄT 3. Im Fall αj < 0 für alle j = 1, . . ., d haben wir die Abschätzung l λ t t e j = tl eαj t ≤ tl eρmax t = tl e(ρmax +α)t e−αt weil αj ≤ ρmax < 0 und ρmax + α < 0 gilt. Definiere K̃(α) = max l=0,...,dj −1 j=1,...,NA tl e(ρmax +α)t l>1 1 l=0 Dann ist K̃(α) ≥ 1. Deshalb folgt die Abschätzung keAt k ≤ K1 · K̃(α)e−αt (mit einer anderen Konstante K1 ≥ 1, weil die Komponenten von eAt linearer Kombinationen der Terme tl eλj t sind). Bemerkung In diesem linearen Fall gilt attraktiv ⇒ stabil weil alle αj = Re (λj ) < 0 sind – der Fall αj = 0 nur für einen halbeinfachen Eigenwert entsteht hier nicht. 10.2 Linearisierte Stabilität Sei x∗ eine Ruhelage der nichtlinearen DGL dx = f (x) dt mit A = ∇f (x∗ ) 6= 0. Mit der Koordinatentranslation x → z = x − x∗ erhalten wir dz dx = = f (x) = f (z + x∗ ) = f (z + x∗ ) − f (x∗ ) = Az + r(z) dt dt d.h. die DGL dz = Az + r(z) dt 66 KAPITEL 10. LJAPUNOV-STABILITÄT mit der Ruhelage z ∗ = 0, wobei r(0) = 0 in Rd und ∇r(0) = 0 in Rd×d . (Die Funktion f muß glatt genug sein). Satz: Linearisierte asymptotische Stabilität“ ” autonomes System der Form Gegeben sei ein dx = Ax + r(x) dt (10.1) mit A ∈ Rd×d und einer auf einer offenen Nullumgebung D ⊂ Rd definierten C 1 -Funktion r : D → Rd mit r(0) = 0 ∈ Rd , ∇r(0) = 0 ∈ Rd×d . Besitzt die Matrix A nur Eigenwerte mit negativen Realteilen, so ist die Ruhelage x∗ = 0 des Systems (10.1) asymptotisch stabil. Vorbereitung (1) Für festes x0 genügt die Lösung x(t; x0 ) des nichtlinearen Systems (10.1) der linearen nichtautonomen inhomogenen DGL dx = Ax + g(t), dt x(0) = x0 , mit g(t) := r(x(t; x0 )). Diese lineare DGL hat die explizite Lösung Z x(t) = eAt x0 + t eA(t−s) g(s) ds . 0 Daher genügt die obige nichtlineare Lösung x(t; x0 ) der Integralgleichung x(t; x0 ) = eAt x0 + Z t eA(t−s) r(x(s; x0 )) ds . t0 Vorbereitung (2) Von dem vektorwertigen Mittelwertsatz r(x) = r(x) − r(0) = ∇r(ξ∗ )x, wobei ξ∗ = θx für ein bestimmtes θ ∈ [0, 1] ist. Sei M > 0 gegeben. Wegen der Stetigkeit von ∇r(·) und ∇r(0) = 0 existiert ein ρ > 0, so dass kxk ≤ ρ ⇒ k∇r(ξ∗ )k ≤ M und daher kr(x)k ≤ M kxk für kxk ≤ ρ . Beweis des Satzes Wegen der asymptotischen Stabilität des linearen Systems gibt es zwei Konstanten K ≥ 1 und α > 0, so dass keAt k ≤ Ke−αt ∀t ≥ 0 . 67 KAPITEL 10. LJAPUNOV-STABILITÄT Sei M beliebig mit 0 < M < α/K, dann ist M K − α < 0. Für dieses M wähle ρ > 0, so dass kr(x)k ≤ M kxk kxk ≤ ρ . für Schließlich für jeden Anfangswert x0 mit kx0 k < ρ definieren wir die Endzeit“ ” T ∗ (x0 ) = sup {T > 0 : kx(t, x0 )k ≤ ρ ∀t ∈ [0, T ]} , zu der die Lösung x(t; x0 ) die ρ-Umgebung der Ruhelage verläßt (T ∗ (x0 ) = ∞ ist möglich). Schritt 1: Wir werden zeigen, dass kx(t; x0 )k ≤ Kkx0 ke(KM−α)t für alle t ∈ [0, T ∗ (x0 )) . Dafür betrachten wir die Integralgleichung Z t At x(t; x0 ) = e x0 + eA(t−s) r(x(s; x0 )) ds 0 für t ∈ [0, T ∗ (x0 )). Wir erhalten die Abschätzung kx(t; x0 k At ≤ ke k kx0 k + ≤ Ke −αt Zt 0 kx0 k + keAt(t−s) k kr(x(s; x0 ))kds Zt 0 Ke−α(t−s) M kx(s; x0 )kds und deshalb gilt αt e kx(t; x0 )k ≤ Kkx0 k + KM Z 0 t eαs kx(s; x0 )k ds . Wir schreiben U (t) = eαt kx(t; x0 )k so U (0) = kx0 k. Die obige Ungleichung ist daher Z t U (t) ≤ KU (0) + KM U (s) ds . 0 Von der Gronwall-Ungleichung folgt die Abschätzung U (t) ≤ KU (0) eKMt , d.h. eαt kx(t; x0 )k ≤ Kkx0 keKMt oder kx(t; x0 )k ≤ Kkx0 ke(KM−α)t für alle 0 ≤ t < T ∗ (x0 ) 68 KAPITEL 10. LJAPUNOV-STABILITÄT Schritt 2: Mit KM − α < 0 fällt e(KM−α)t streng monoton ab für t → ∞. Daher haben wir für kx0 k ≤ ρ/K ≤ ρ kx(t; x0 )k ≤ ρe(KM−α)t ≤ ρ für alle t ∈ [0, T ∗(x0 )). Dies zeigt zunächst, dass T ∗ (x0 ) = ∞ für alle kx0 k ≤ ρ/K . Schritt 3: Sei δ0 = ρ/K und KM − α < 0. Dann gilt kx(t; x0 )k ≤ ρe(KM−α)t → 0 für alle x0 mit kx0 k ≤ δ0 := ρ/K ⇒ für t→∞ Attraktivität. Von der Attraktivität und der obigen Abschätzung kx(t, x0 )k ≤ Kkx0 ke(KM−α)t für t ∈ [0, T ∗ (x0 )] und kx0 k ≤ ρ bekommen wir die Abschätzung kx(t; x0 )k < ε ∀ t ≥ 0, für alle x0 mit kx0 k < δ(ε) := 1 K min{ε, ρ} ⇒ Stabilität. ρ wegen Attraktivität ρ/K T wegen kx0 k ≤ ρ/K Bemerkung Die Stabilität des linearen Systems allein (d.h. ohne Attraktivität) ist nicht stark genug, um die Stabilität des nichtlinearen Systems zu versichern. Z.B. für die triviale DGL dx =0 dt 69 KAPITEL 10. LJAPUNOV-STABILITÄT ist die Ruhelage x∗ = 0 stabil aber nicht attraktiv (sowie für alle anderen Lösungen, da alle Lösungen konstant sind!). Diese DGL ist die Linearisierung der folgenden DGLen 10.3 dx dt = −x3 ⇒ die Ruhelage x∗ = 0 ist stabil dx dt = +x3 ⇒ die Ruhelage x∗ = 0 ist instabil Allgemeine Systeme: Ljapunov-Funktionen Wir betrachten eine allgemeine autonome DGL in Rd dx = f (x) dt mit einer Ruhelage x∗ = 0 (o.B.d.A., sonst können wir eine Koordinatentransformation für eine Ruhelage x∗ 6= 0 verwenden). Sei x(t; x0 ) eine Lösung und sei V : Rd → R eine C 1 -Funktion. Die totale Ableitung von V (x(t; x0 )) bzg. t lautet ∂V dx ∂V d = V (x(t; x0 )) = (x(t; x0 )), (x(t; x0 )), f (x(t; x0 )) . dt ∂x dt ∂x Wir setzen voraus, dass die Funktionen V und f der algebraischen Bedingung ∂V , f (x) ≤ 0, ∀ x ∈ Rd ∂x genügen. Dann ist d V (x(t; x0 )) ≤ 0, ∀t ≥ 0. dt Wir integrieren und bekommen V (x(t; x0 )) ≤ V (x0 ) für alle t ≥ 0. Tatsächlich haben wir V (x(t; x0 )) ≤ V (x(s, x0 )), t ≥ s ≥ 0. Wir müssen die Lösung x(t, x0 ) hier nicht explizit kennen. Zusätzlich sei V eine positiv-definite Funktion in dem Sinne: es existieren monoton wachsende stetige Funktionen α,β : R+ → R+ mit α(0) = β(0) = 0, 0 < α(r) < β(r) ∀ r > 0, so dass α(kxk) ≤ V (x) ≤ β(kxk) ∀ x ∈ Rd . Für jedes ε > 0 definieren wir δ(ε) = β −1 (α(ε)) . 70 KAPITEL 10. LJAPUNOV-STABILITÄT Dann haben wir α(kx(t; x0 )k) ≤ V (x(t; x0 )) ≤ V (x0 ) ≤ β(kx0 k) d.h. α(kx(t, x0 )k) ≤ β(kx0 k). Ist kx0 k < δ(ε), dann haben wir α(kx(t, x0 )k) < β(δ(ε)) = β ◦ β −1 ◦ α(ε) = α(ε) ⇒ α(kx(t, x0 )k) < α(ε) ∀ t > 0 ⇒ kx(t, x0 )k < ε ∀ t > 0 Daher ist die Ruhelage x∗ = 0 stabil. Eine solche Funktion V heißt Ljapunov-Funktion. Beispiel Betrachte die DGL in R1 dx = −x3 dt d.h. mit f (x) = −x3 und der eindeutigen Ruhelage x∗ = 0. Betrachte die Funktion V (x) := x2 und z.B. α(r) = 1/2r2 ≤ β(r) = 2r2 . Dann gilt dV (x)f (x) = −2x4 ≤ 0 dx ⇒ ∀x x∗ = 0 ist stabil. Dieses Beispiel genügt einer stärkeren algebraischen Bedingung: dV (x)f (x) < 0 ∀ x 6= x∗ = 0 . dx In diesem Fall ist die Ruhelage x∗ = 0 tatsächlich asymptotisch stabil. x0 6= 0 ⇒ V (x(t, x0 )) < V (x(s, x0 )) t>s>0. Daraus folgt lim |x(t, x0 )| = 0. t→∞ Der Beweis ist durch einen Widerspruch: Sei lim V (x(t, x0 )) = V ∗ > 0 t→∞ Daher ∃ tj → ∞, so dass x(tj , x0 ) → x̄, wobei V (x̄) = V ∗ > 0. Dann betrachten wir die Lösung x(t, x̄). Weil x̄ 6= x∗ = 0 ist, haben wir dV (x̄)f (x̄) < 0 dx 71 KAPITEL 10. LJAPUNOV-STABILITÄT und daher ist V (x(t, x̄) < V (x̄) = V ∗ , ∀t > 0 Auch weil x(tj , x0 ) → x̄, wegen stetiger Abhängigkeit in Anfangsbedingungen haben wir x(tj + T, x0 ) = x(T, x(tj , x0 )) → x(T, x̄) für jedes T > 0. Aber V (x(tj + T, x0 )) > V ∗ > V (x(T, x̄)). ⇒ Widerspruch ! ⇒ V ∗ = 0 und x(t) → x∗ = 0 . Ein alternativer Beweis: Man beachte, dass V (x(t, x0 )) der folgenden Differentialungleichung genügt: dV d V (x(t, x0 )) = (x(t, x0 )) f (x(t, x0 )) ≤ −2|x(t, x0 )|4 = −2V (x(t, x0 ))2 dt dx daher gilt es |x(t, x0 )|2 = V (x(t, x0 )) ≤ Bemerkung V (x0 ) →0 1 + 2tV (x0 ) für t → ∞. Ljapunov-Funktionen haben den Vorteil: man braucht die Lösungen x(t, x0 ) nicht explizit zu kennen Nachteil: man muß eine geeignete Funktion V finden. Kapitel 11 Allgemeine Runge-Kutta-Verfahren Ein s-stufiges Runge-Kutta-Einschrittverfahren mit konstanter Schrittweite h für eine autonome DGL hat die allgemeine Form (n) yi = xn + h s X (n) , ai,j f yj s X (n) bi f yi j=1 xn+1 = xn + h i=1 i = 1, . . . , s wobei A = [ai,j ] eine s × s-Matrix und b = (bi ) ein s-dimensionaler Vektor ist. Ps Ps Für Konsistenz brauchen wir i=1 bi = 1. Es ist günstig ci = j=1 ai,j zu definieren. (Die ci sind notwendig für eine nichtautonome DGL: wir berechnen (n) (n) f (tn + ci hi , yi )). Die Parameter eines Runge-Kutta-Verfahrens können durch ein Butcher-Tableau c A b dargestellt werden. Beispiel 1 Das explizite Euler-Verfahren xn+1 = xn + hf (xn ) (n) (n) hat y1 = xn und xn+1 = xn + hf (y1 ). Daher sind s = 1, a1,1 = 0, c1 = 0, b1 = 1, und das Butcher-Tableau lautet 0 0 1 72 KAPITEL 11. ALLGEMEINE RUNGE-KUTTA-VERFAHREN Beispiel 2 73 Das implizite Euler-Verfahren xn+1 = xn + hf (xn+1 ) in der obigen Runge-Kutta-Darstellung lautet y1 (n) = xn + hf (y1 ) (n) xn+1 = xn + hf (y1 ) (n) Hier sind s = a1,1 = c1 = b1 = 1, und das Butcher-Tableau lautet 1 1 1 Beispiel 3 Das Heun-Verfahren xn+1 = xn + h {f (xn ) + f (xn + hf (xn ))} 2 hat die Runge-Kutta-Darstellung (n) = xn y2 (n) = xn + hf (y1 ) xn+1 = xn + h 12 f (y1 ) + h 21 f (y2 ) y1 (n) (n) (n) Das Butcher-Tableau lautet 0 1 0 0 1 0 1/2 1/2 NB Ein Runge-Kutta-Verfahren ist ein explizites Verfahren, falls ai,j = 0 für alle j ≥ i mit 1 ≤ i ≤ s. Sonst ist es ein implizites Verfahren. Beispiel 4 Das Gauß-Runge-Kutta-Verfahren hat Butcher-Tableau √ 3− 3 6 √ 3+ 3 6 1 4 √ 3+2 3 12 1 2 √ 3−2 3 12 1 4 1 2 Hier ist s = 2. Das Verfahren ist implizit. Zwei wichtige Eigenschaften von Runge-Kutta-Verfahren sind KAPITEL 11. ALLGEMEINE RUNGE-KUTTA-VERFAHREN 74 Satz 1 Die maximale Ordnung eines s-stufigen expliziten Runge-KuttaVerfahrens ist p = s. Beispiel Euler-Verfahren ( p = s = 1), Heun-Verfahren (p = s = 2) Satz 2 Die maximale Ordnung eines s-stufigen impliziten RungeKutta-Verfahrens ist p = 2s. Beispiel Gauß-RK-Verfahren (p = 2s = 4). Diese Ordnungen sind vergleichbar mit den Ordnungen der Newton-Cotesund Gauss-Quadratur-Formeln. 11.1 Numerische Ruhelagen Wir betrachten eine autonome gewöhnliche DGL in Rd dx = f (x) dt und ein Einschrittverfahren mit konstanter Schrittweite xn+1 = xn + h F (h, xn ), das konsistent ist, d.h. F (0, x) ≡ f (x), ∀x. Sei x∗ eine Ruhelage der DGL, d.h. f (x∗ ) = 0. Beispiel Euler-Verfahren xn+1 = xn + hf (xn ) da f (x∗ ) = 0 so ist xn ≡ x∗ ∀n, ∀h ⇒ x∗ ist auch Ruhelage des Euler-Verfahrens für alle Schrittweiten h > 0. Beispiel Heun-Verfahren xn+1 = xn + F (h, x) = h {f (xn ) + f (xn + hf (xn ))} mit 2 1 {f (x) + f (x + hf (x))} 2 Es gilt F (h, x∗ ) = ⇒ 1 1 {f (x∗ ) + f (x∗ + hf (x∗ ))} = {0 + f (x∗ + 0)} = 0 2 2 x∗ ist Ruhelage des Heun-Verfahrens für alle Schrittweiten h > 0. 75 KAPITEL 11. ALLGEMEINE RUNGE-KUTTA-VERFAHREN Insbesondere für die Runge-Kutta-Verfahren ist x∗h ≡ x∗ eine Ruhelage für alle h > 0 (klein genug). Aber im Allgemeinen muß eine Ruhelage x∗ der DGL keine Ruhelage des numerischen Verfahrens sein, d.h. es gilt nicht immer f (x∗ ) = 0 ⇒ F (h, x∗ ) = 0 ∀h . Beispiel Sei F (h, x) = f (x) + h in R1 . Das numerische Verfahren xn+1 = xn + h{f (xn ) + h} mit dieser Funktion F ist etwas künstlich, aber immer noch konsistent: F (0, x) ≡ f (x), ∀x. Sei x∗ eine Ruhelage der DGL: d.h. f (x∗ ) = 0. Dann haben wir F (h, x∗ ) = f (x∗ ) + h = 0 + h = h 6= 0, ∀h > 0 d.h. x∗ ist keine Ruhelage des numerischen Verfahrens für irgendwelche Schrittweiten h > 0. Frage: Hat das NV eine naheliegende Ruhelage? Leider nicht immer! z.B. nimm f (x) = x2 in dem obigen Verfahren. Dann ist F (h, x) = f (x) + h = x2 + h, aber x2 + h 6= 0 ∀x, falls h > 0 F (h, x) f (x) h x Die f -Kurve soll die x-Achse schneiden! Das heißt f ′ (x∗ ) 6= 0 eine hyperbolische Ruhelage. ⇒ x∗ ist KAPITEL 11. ALLGEMEINE RUNGE-KUTTA-VERFAHREN 76 F (h, x) = f (x) + h f (x) h x∗ x Dann, wegen des Satzes über implizite Funktionen, wissen wir, dass die Gleichung F (h, x) = f (x) + h = 0 eine Lösung x∗h in der Nähe von x∗ hat, falls h > 0 genügend klein ist. Beispiel Sei f (x) = αx mit α 6= 0. Dann ist x∗ = 0 die einzige Ruhelage. Hier haben wir f ′ (x∗ ) = α 6= 0 hyperbolisch . Die Gleichung F (h, x) = αx + h = 0 hat die Lösung x∗h = −h/α und wir haben den Approximationsfehler |x∗h − x∗ | = 1 h = 0(h), |α| der die gleiche Ordnung (p = 1) wie das numerische Verfahren hat. Diese Eigenschaft gilt im Allgemeinen für eine hyperbolische Ruhelage: d.h. ∃ mit |x∗h − x∗ | = 0(hp ) x∗h Aber solche Verfahren können auch andere Ruhelagen besitzen, die keinen Zusammenhang mit den Ruhelagen der DGL haben. Beispiel Sei f (x) = −x3 in R1 . Die einzige Ruhelage ist x∗ = 0. Wir betrachten das Heun-Verfahren: xn+1 = xn + h {f (xn ) + f (xn + hf (xn ))} , 2 wobei, das in diesem Fall, F (h, x) = 1 {f (x) + f (x + hf (x))} 2 KAPITEL 11. ALLGEMEINE RUNGE-KUTTA-VERFAHREN = 77 1 3 −x − (x − hx3 )3 2 = − 1 3 x 1 + (1 − hx2 )3 , 2 daher hat die Gleichung F (h, x) = 0 die Lösungen r 2 ∗ ∗ x = 0 ∀h > 0, xh = ± ∀h > 0 h x∗h h r 2 haben gar nichts mit der DGL zu tun — sie sind h falsche Lösungen/Phantom-Lösungen. (Englisch: spurious or ghost solutions). Die Ruhelagen ± Dieses Beispiel ist typisch. Es ist nicht nur, dass x∗h 6= x∗ sondern 1. Die falschen Lösungen divergieren: r 2 |x∗h | = → ∞ für h h → 0+ 2. Die falschen Lösungen sind instabil. Führen wir eine lineare Stabilitätsanalyse durch: Wir linearisieren das Verfahren h xn+1 = G(xn ) := xn − x3n 1 + (1 − hx2n )3 2 um die Ruhelage x∗h : ⇒ zn+1 = G′ (x∗h ) zn , wobei G′ (x) = 1− = 1− 3 o 2 h 3 h 2 n + 1 + 1 − hx2 3x x 6hx 1 − hx2 2 2 3 o 2 3h 2 n x 1 + 1 − hx2 + 3x4 h2 1 − hx2 2 78 KAPITEL 11. ALLGEMEINE RUNGE-KUTTA-VERFAHREN Daher gilt ′ G r ! 2 3h 2 4 =1− ± 1 + 03 + 3h2 2 = 13 h 2 h h Wir haben das linearisierte System zn+1 = 13zn , für welches z ∗ = 0 instabil ist. 3. Die echte Ruhelage ist asymptotisch stabil. Wir haben xn+1 = G(xn ) = xn − h 3 xn 1 + (1 − hx2n )3 2 Das linearisierte System (um x∗ = 0) ist zn+1 = G′ (0)zn ≡ zn weil G′ (0) = 1 hier. Das linearisierte System ist nur neutral stabil. Wir müssen die nichtlineare Terme auch betrachten. Dafür verwenden wir die Ljapunov-Funktion V (x) = x2 . Wir haben V (xn+1 ) = x2n+1 = G(xn )2 = x2n < x2n , 1− 3 h 2 xn 1 + 1 − hx2n 2 falls 2 x2n < 2/h . Für x20 < 2/h haben wir x21 < x20 < 2/h, u.s.w. Daher ist V (xn ) streng monoton abfallend ⇒ V (xn ) = x2n → 0 ⇒ x∗ = 0 ist asymptotisch stabil mit dem Einzugsbereich Eh = x ∈ R1 : x2 < 2/h . Er hängt offensichtlich von h ab! Kapitel 12 Der lineare Fall Betrachte eine autonome lineare DGL in Rd dx = Ax, dt für welche die Ruhelage x∗ = 0 asymptotisch stabil ist, d.h. alle Eigenwerte von A haben negativen Realteil Re(λA ) < 0 Das entsprechende Euler-Verfahren mit konstanter Schrittweite h > 0 ist eine lineare Differenzengleichung xn+1 = (I + hA)xn , für welche x∗ = 0 eine Ruhelage für jedes h > 0 ist. Die Lösung lautet xn = (I + hA)n x0 . Daher ist die Ruhelage x∗ = 0 asymptotisch stabil, wenn kI + hAk < 1 ist [für eine geeignete Matrixnorm]. Im Allgemeinen müssen wir die Schrittweite h > 0 beschränken, um dieser Ungleichung zu genügen. Lineare DGL in R1 Betrachte jetzt die skalare lineare DGL dx = λx, dt A = [λ], 79 λ reellwertig 80 KAPITEL 12. DER LINEARE FALL wobei λ < 0, so dass die Ruhelage x∗ = 0 asymptotisch stabil ist. Das Euler-Verfahren hier ist xn+1 = (1 + hλ)xn . Die Ruhelage x∗ = 0 wird asymptotisch stabil genau dann, wenn |1 + hλ| < 1 ist, d.h. −1 < 1 + hλ < 1. Die obere Ungleichung ist immer gültig, weil h > 0 und λ < 0 sind. Die untere Ungleichung ergibt −hλ < 2 oder h < −2/λ, weil λ < 0 ist. Daher müssen wir die Schrittweite h beschränken, h ∈ (0, −2/λ) , um asymptotische Stabilität zu versichern. Lineare DGL in C1 Betrachte jetzt die komplexwertige lineare DGL dz = λ z, dt mit λ komplexwertig und Re(λ) < 0 tisch stabil. z, λ ∈ C1 , ⇒ die Ruhelage z ∗ = 0 ist asympto- Dieser Fall enspricht dem 2-dimensionalen System reeller DGL ! " # ! d x α −β x = dt y β α y wobei z = x + ıy und λ = α + ıβ sind, und die Matrix " # α −β β α ein Paar komplexkonjugierter Eigenwerte λ = α + ıβ und λ = α − ıβ besitzt. Natürlich gilt Re(λ) = α < 0. Das entsprechende (komplexwertige) Euler-Verfahren lautet zn+1 = (1 + hλ)zn . Die Ruhelage z ∗ = 0 ist asymptotisch stabil genau dann, wenn |1 + hλ| < 1 ⇒ |(1 + hα) + iβh| < 1 81 KAPITEL 12. DER LINEARE FALL d.h. oder 1 + 2hα + h2 α2 + β 2 < 1 h < ⇔ 2α + h(α2 + β 2 ) < 0 −2α . + β2 α2 Auch in diesem Fall müssen wir die Schrittweite h beschränken, jetzt zu −2α . h ∈ 0, 2 α + β2 12.1 Das Euler-Verfahren im allgemeinen Fall Wir betrachten jetzt die allgemeine lineare DGL in Rd dx = Ax, dt mit Re(λ) < 0 für alle Eigenwerte von A. Sei J = die Jordan-Form der Matrix A. λ 1 ··· 0 λ ··· . . . .. Ji = .. .. 0 0 ··· 0 0 ··· J1 .. . Jp Hier ist Ji entweder Ji = [λ] (d.h. 1 × 1) oder 0 0 0 0 .. .. ni × ni , 1 < ni ≤ d. . . λ 1 0 λ (Der Einfachheit halber erlauben wir λ hier komplexwertig zu sein). Es existiert eine invertierbare Matrix Q, so dass AQ = QJ oder J = Q−1 AQ . Betrachte ein neues Koordinatensystem x 7→ w = Q−1 x oder x = Qw Bezüglich des neuen Koordinatensystems nimmt das Euler-Verfahren xn+1 = (I + hA)xn die Form Qwn+1 = (I + hA)Qwn ⇒ (Q−1 IQ + hQ−1 AQ)wn wn+1 = Q−1 (I + hA)Qwn , d.h. ⇒ wn+1 = (I + hJ)wn 82 KAPITEL 12. DER LINEARE FALL Aber I + hJ ist blockdiagonal ⇒ wn+1 = I1 + hJ1 wn . I2 + hJ2 .. . Ip + hJp Daher brauchen wir nur jedes Blocksystem allein zu betrachten: (i) wn+1 = (Ii + hJi ) wn(i) , i = 1, . . . , p . Für asymptotische Stabilität brauchen wir kIi + hJi k < 1, i = 1, 2, . . . , p . Wir haben schon die Fälle ni = 1 mit λi = αi + ıβi (reellwertig oder komplexwertig) betrachtet −2αi . ⇒ h ∈ 0, 2 αi + βi2 Wir müssen jetzt den Fall ni > 1 untersuchen. Dafür ist ni = 2 typisch. Wir haben λ 1 1 0 hλ h I2 + h = + 0 λ 0 1 0 hλ = 1 + hλ 0 h 1 + hλ Das Euler-Verfahren für diese Komponenten ist daher xn+1 = (1 + hλ)xn + hyn yn+1 = (1 + hλ)yn . Davon erhalten wir zunächst yn = (1 + hλ)n y0 , dann xn+1 = (1 + hλ)xn + (1 + hλ)n hy0 und letztendlich die Lösung xn = (1 + hλ)n x0 + n(1 + hλ)n−1 hy0 y n = (1 + hλ)n y0 Die Ruhelage (x∗ , y ∗ ) = (0, 0) ist asymptotisch stabil genau dann, wenn |1 + hλ| < 1 83 KAPITEL 12. DER LINEARE FALL weil dann haben wir |1 + hλ|n → 0, n|1 + hλ|n−1 → 0 für n → ∞ . Für das ursprüngliche Euler-Verfahren brauchen wir daher |1 + hλj | < 1 für jeden Eigenwert λj = αj +iβj der Matrix A, d.h. wir müssen die Schrittweite beschränken h ∈ (0, h∗ ) wobei h∗ = min j 12.2 −2αj , α2j + βj2 αj < 0 ∀ j Runge-Kutta-Verfahren im linearen Fall Wir beschränken uns auf die lineare DGL dx = λx dt in R1 oder C. Für diese DGL betrachten wir nur die folgenden numerischen Verfahren: explizites Euler-V xn+1 = (1 + hλ)xn implizites Euler-V xn+1 = 1 xn 1 − hλ xn+1 = 1 + hλ + 21 (hλ)2 xn Heun-V In jedem Fall: xn+1 = R(hλ)xn , wobei R(z) ein Polynom oder Reziprokal eines Polynoms ist. Für asymptotische Stabilität brauchen wir |R(hλ)| < 1, Re(λ) < 0 . Das allgemeine Runge-Kutta-Verfahren mit s Stufen lautet (n) yi = xn + h s X ai,j f (yj ), s X bi f (yi ) (n) i = 1, . . . , s, j=1 xn+1 = xn + h (n) i=1 Für f (x) = λx erhalten wir (n) yi = xn + hλ s X ai,j yj s X bi yi (n) j=1 xn+1 = xn + hλ i=1 (n) 84 KAPITEL 12. DER LINEARE FALL dass ist Y (n) = xn 1s + hλAY (n) xn+1 = xn + hλb⊤ Y (n) wobei wir die folgenden s-dimensionalen Vektoren verwenden (n) y1 1 . . (n) Y = 1s = .. .. . (n) 1 ys Die erste Vektorgleichung ist lösbar für h genügend klein: [I − hλA] Y (n) = xn 1s Daher ist wobei Y (n) = [I − hλA]−1 1s xn . ⇒ xn+1 = 1 + hλb⊤ [I − hλA]−1 1s xn =: R(hλ)xn R(z) := 1 + zb⊤ [I − zA]−1 1s , Aber [I − zA]−1 = und daher haben wir R(z) = 1 + z∈C. adj(I − zA) det(I − zA) P (z) zb⊤ adj(I − zA)1s = , det(I − zA) Q(z) wobei P und Q Polynome mit Grad ≤ s sind . Für asymptotische Stabilität brauchen wir |R(λh)| = 12.3 |P (λh)| <1 |Q(λh)| mit Re(λ) < 0 . A-Stabilität Der schwedische Numeriker Dalquist hat den Begriff der A-Stabilität im Zusammenhang mit der numerischen Stabilität eingeführt: kleine Störungen sollen nicht unbeschränkt zunehmen. Insbesondere für die lineare DGL dx = λx dt sollen die numerischen Iterationen der Abschätzung |xn | ≤ C|x0 | ∀n 85 KAPITEL 12. DER LINEARE FALL genügen, falls die Ruhelage x∗ = 0 soll Ljapunov-stabil sein sollen. Dafür brauchen wir |R(λh)| ≤ 1 Der A-Stabilitätsbereich eines numerischen Verfahrens ist durch die Menge S = {z ∈ C : |R(z)| < 1} definiert – für λh ∈ S haben wir entweder asymptotische Stabilität des linearen NVs oder numerische Stabilität. Definition A-stabil, falls Ein Runge-Kutta-Verfahren heißt C− = {z ∈ C : Re(z) ≤ 0} ⊆ S. Dann ist die Ruhelage x∗ asymptotisch stabil für alle h > 0 ! Beispiel Das explizite Euler-Verfahren ist nicht A-stabil. R(z) = 1 + z ⇒ |1 + z| < 1 Beispiel Das implizite Euler-Verfahren ist A-stabil R(z) = Satz 1 1−z ⇒ |R(z)| < 1 ⇒ |1 − z| > 1 Kein explizites RK-Verfahren ist A-stabil. Beweis R(z) ≡ P (z) mit grad(P (z) > 0 und |P (z)| < 1 für alle z ∈ C− ist unmöglich. Daher müssen wir immer die Schrittweiten beschränken. Kapitel 13 Dynamische Systeme Sei x(t; x0 ) die Lösung der Anfangswertaufgabe dx = f (x), dt x(0) = x0 . Dann gilt für beliebige Zeiten s,t ≥ 0 x (t + s; x0 ) = x (t; x (s; x0 )) . wegen der Eindeutigkeit der Lösungen einer Anfangswertaufgabe. Außerdem gilt natürlich die Anfangsbedingung x(0; x0 ) = x0 . x x0 x(·; x(s; x0 )) = x(· + s; x0 ) t s t1 + s t1 Dies motiviert die folgende Definition: 86 87 KAPITEL 13. DYNAMISCHE SYSTEME Definition: Dynamisches System“ Sei X ein metrischer Raum ” mit Metrik d. Ein (zeitkontinuierliches) dynamisches System auf dem Zustandsraum X ist gegeben durch eine Abbildung Φ:R×X →X mit der Gruppeneigenschaft Φ(0, x) = x und Φ(t + s; x) = Φ(t, Φ(s, x)) ∀t, s ∈ R, x ∈ X. Ein zeitdiskretes dynamisches System ist analog mit Z statt R definiert. Bemerkung: Üblicherweise schreibt man Φt (x) := Φ(t, x). Die Gruppeneigenschaft läßt sich dann für die Funktionen Φt : X → X formulieren und lautet Φt+s = Φt ◦ Φs , Φ0 = idX . Wir erhalten so also tatsächlich eine allg. Gruppe von Abbildungen. Bemerkung: Oft betrachten wir die Einschränkung dieser dynamischen Systeme auf R+ oder Z+ , also keine negativen Zeiten. (Man spricht dann auch von einem semi-dynamischen System und von einer Halbgruppeneigenschaft.) Beispiel: 1. Die Lösungsabbildungen einer autonomen DGL in Rd für die Lösungen zu allen Anfangswertaufgaben für alle Zeiten existiert liefern ein dynamisches System auf X = Rd . 2. Für eine Abbildung f : X → X liefert die Lösung der zugehörigen Differenzengleichung xn+1 = f (xn ) ein zeitdiskretes (semi-) dynamisches System, mittels Φt := f ◦ f ◦ · ◦ f , t ∈ Z+ , | {z } t−mal falls die Lösungen zu allen Anfangswertaufgaben für alle (positiven) Zeiten existieren. Für invertierbares f können wir auch negative t ∈ Z zulassen. 3. Als speziellen Fall von (2) können wir numerische Einschrittverfahren betrachten; dort ist f (x) := x + hF (h, x). (Die numerische Diskretisierung eines durch eine DGL definierten zeitkontinuierliches dynamisches System ist also ein zeitdiskretes dynamisches System, falls die Lösungen zu allen Anfangswertaufgaben für alle (positiven) Zeiten existieren). 88 KAPITEL 13. DYNAMISCHE SYSTEME 4. Als ein ganz abstraktes Beispiel betrachte man den Raum X = {a : a = (a1 , a2 , a3 , . . .) mit ai ∈ {0, 1}} der (0,1)- Folgen. Dann definiert f : X → X, f ((a1 , a2 , a3 , . . .)) := (a2 , a3 , a4 , . . .) ein zeitdiskretes dynamisches System. Wir definieren den positiven Orbit eines dynamischen Systems für einen Punkt x0 ∈ X durch [ O+ (x0 ) := Φt (x0 ) t≥0 und einen negativen Orbit O− (x0 ) als eine Menge von Punkten {xs } ⊂ X, s ≤ 0, so dass Φt (xs ) = xt+s für t ≥ 0. (Der negative Orbit ist die Menge aller Punkte auf einer Trajektorien, die den Punkt x0 in der Zukunft erreicht). Beachte, dass negative Orbits weder existieren noch eindeutig sein müssen. Eine Vereinigung eines negativen Orbits O− (x0 ) und eines positiven Orbits O+ (x0 ) nennen wir Orbit. 13.1 Invariante Mengen Eine Möglichkeit, Teilbereiche des Zustandsraums X zu charakterisieren, besteht in der Betrachtung der Invarianz einer Teilmenge. Für eine Teilmenge B von X schreiben wir [ Φt (B) := Φt (x). x∈B Definition Eine Menge B ⊂ X heißt positivinvariant, f alls Φt (B) ⊂ B, ∀t ≥ 0, negativinvariant, f alls B ⊂ Φt (B), ∀t ≥ 0, invariant, f alls Φt (B) = B, ∀t ≥ 0. Anschaulicher läßt sich dies mit Orbits beschreiben: 89 KAPITEL 13. DYNAMISCHE SYSTEME Lemma: Eine Menge B ⊂ X ist positiv invariant genau dann, wenn der positive Orbit die Inklusion O+ (x0 ) ⊂ B erfüllt für alle x0 ∈ B. Eine Menge B ⊂ X ist negativ invariant genau dann, wenn es für jedes x0 ∈ B einen negativen Orbit gibt mit O− (x0 ) ⊂ B. Eine Menge B ⊂ X ist invariant, falls für jedes x0 ein Orbit O(x0 ) mit O(x0 ) ⊂ B. Beweis: Für vorwärts-invariant: B ist positiv invariant Φt (B) ⊂ B, ∀t ≥ 0 ⇐⇒ ⇐⇒ Φt (x0 ) ⊂ B, ∀x0 ∈ B, ∀t ≥ 0 ⇐⇒ 0+ (x0 ) ⊂ B, ∀x0 ∈ B. Ähnlich für negative und allgemeine Invarianz. Beispiel: Betrachte die lineare DGL in R1 dx = ax, dt mit a < 0. Das zugehörige dynamische System ist gegeben durch Φt (x) = eat x Sei b > 0. Dann gilt für alle t ≥ 0 Φt ([−b, b]) = −eat b, eat b ⊂ [−b, b] also ist B = [−b, b] positiv invariant. Desweiteren ist Φt (0) = eat 0, eat 0 = 0. Also ist B = {0} invariant. Beispiel: Für die nichlineare DGL in R2 in Polarkoordinaten dr = r(1 − r), dt dθ =1 dt ist die Einheitsscheibe (d.h. mit r ≤ 1) eine invariante Menge sowie der Einheitskreis (d.h. mit r = 1). 13.2 Limesmengen In der Untersuchung des dynamischen Verhaltens interessiert uns insbesondere das Verhalten der Lösungen für t → ∞. Die zugehörigen Punkte im Zustandsraum lassen sich durch die ω-Limesmenge charakterisieren. Wir beschränken 90 KAPITEL 13. DYNAMISCHE SYSTEME uns jetzt zu dem Fall X = Rd Definition: Limesmenge“ Für eine beschränkte Menge B ” d ⊂ R definieren wir die ω-Limesmenge durch: ω(B) = x ∈ Rd : ∃tk → ∞, yk ∈ B mit Φtk (yk ) → x Falls B = {y} nur einen Punkt enthält schreiben wir auch ω(y) statt ω({y}). Im Allgemeinen gilt [ ω(B) ⊃ ω(y). y∈B Beispiel: (Siehe Stuart/Humphries p.16). Betrachte das zeitdiskrete semidynamische System yn = Φn (y0 ) = y02n erzeugt durch die differenzen Gleichung yn+1 = Φ(y0 ) = y02 auf R. Dieses System hat Ruhelagen 0 and 1. Daher gilt ω(0) = {0} und ω(1) = {1}. Darüberhinaus gilt ω((0, 1)) = {0}, weil y02n → 0 für n → ∞, falls y0 ∈ (0, 1). Deswegen gilt [ ω(y) = {0, 1}. y∈[0,1] Aber ω([0, 1]) = [0, 1]. Um dies zu zeigen, betrachte ein beliebiges a ∈ (0, 1) 2 und die Folgen nk = k 2 → ∞ für k → ∞ und yk := a1/(2k ) ∈ [0, 1]. Dann gilt 2 2 Φnk (yk ) = (a1/(2k ) )2k ≡ a für alle k ∈ N, d.h., a ∈ ω([0, 1]). Beispiel: Betrachte nochmal die lineare DGL in R1 dx = ax, dt mit a < 0. Sei B ⊂ R1 beschränkt. Dann gilt für jedes beliebige Paar von Folgen tk → ∞ in R1 und Punkten yk ∈ B: Φtk (yk ) = eatk yk also |Φtk (yk )| = e atk |yk | ≤ e atk sup |y| y∈B → 0 für k → ∞ und damit ω(B) = {0}. Die ω-Limesmenge läßt sich wie folgt charakterisieren: Satz: Für eine beschränkte Menge B ⊂ Rd gilt: ω(B) = \ [ t≥0 s≥t Φs (B) . 91 KAPITEL 13. DYNAMISCHE SYSTEME Beweis: In der Übung für B = {y}. Für allgemeine beschränkte B analog. Bemerkung: Offenbar ist [ [ Φs (B) Φs (B) ⊃ s≥t2 s≥t1 Daher ist \ [ Φs (B) = t≥0 s≥t \ [ t≥T s≥t ∀t2 ≥ t1 . Φs (B) ∀T > 0. Satz: Eigenschaften der ω-Limesmengen“ Sei Φt : Rd → Rd stetig für ” alle t. Dann ist die ω-Limesmenge ω(B) für jede beschränkte Menge B ⊂ Rd eine abgeschlossene, positiv invariante Menge. Ist S t≥0 Φt (B) darüberhinaus beschränkt, so ist ω(B) sogar invariant. Beweis: Abgeschlossenheit: Betrachte eine konvergierende Folge xk ∈ ω(B) mit xk → x. Zu zeigen ist, dass x ∈ ω(B). Da xk ∈ ω(B), ∀k, gibt es Folgen tki → ∞ für i → ∞ und yik ∈ B, so dass Φtk (yik ) → xk für i → ∞. O.B.d.A. gilt 1 ∀i ≥ k xk − Φtki (yik ) ≤ k und tki ≥ k für alle i ≥ k. Bezeichne t∗i = tii und yi∗ = yii . Dann gilt t∗i → ∞ für i → ∞ und kx − Φt∗I (yi∗ )k ≤ kx − xi k + kxi − Φt∗i (yi∗ )k ≤ kx − xi k + i−1 → 0 für i → ∞ Also konvergiert Φt∗ (yi∗ ) gegen x und damit ist x ∈ ω(B). Positive Invarianz: Nach Voraussetzung ist Φt (·) stetig für jedes t. Also Φti (yi ) → x ⇒ Φti +s (yi ) = Φs (Φti (yi )) → Φs (x) Also ist Φs (x) ∈ ω(B) für alle x ∈ ω(B) und alle s ≥ 0, und damit ist O+ (x) ⊆ ω(B) – positive Invarianz! Für die Invarianz im letzten Fall siehe Stuart/Humphries S. 18-19. Wir müssen nur die negative Invarianz beweisen. Sei x ∈ ω(B). Es existieren Folgen yk ∈ B und tk → ∞ für k → ∞. Betrachte ein beliebiges T > 0. O.B.d.A. können wir voraussetzen, dass tk T + 1. Daher ist tk − T ≥ 1 mit tk − T → ∞ für k → ∞. Betrachte die Folge Φtk −T (yk ). Dieses Folge ist in der kompakten S Menge t≥0 Φt (B) (abgeschlossen und beschränkt in R ist kompakt). Daher 92 KAPITEL 13. DYNAMISCHE SYSTEME S existiert eine konvergierende Teilfolge Φtkj −T (ykj ) → y ∈ t≥0 Φt (B) für j → ∞. Aber t′j = tkj − T → ∞ für j → ∞ und yj′ = ykj ∈ B, so y ∈ ω(B). Wegen der Halbgruppeneigenschaft und der vorasugesetzen Stetigkeit gilt ΦT (y) = lim ΦT ◦ Φt′j −T (yj′ ) = lim Φt′j (yj′ ) = x. j→∞ j→∞ D.h., es gilt x ∈ ΦT (ω(B)). Bemerkung: ω(B) ist zusammenhängend für zeitkontinuierliche Systeme, aber im Allgemeinen nicht für zeitdiskrete Systeme. 13.3 Attraktoren Wir bezeichnen durch Uε (A) := x ∈ Rd : dist(x, A) < ε die ε-Umgebung einer Menge A, wobei dist(x, A) := inf kx − ak. a∈A Definition: Attrahierende Menge“ Wir sagen, dass eine Menge A eine ” andere Menge B attrahiert, falls für alle ε > 0 ein T ∗ = T ∗ (ε, B, A) existiert, so dass gilt Φt (B) ⊂ Uε (A), ∀t ≥ T ∗ . Definition: Attraktor“ Eine Menge A heißt Attraktor, falls sie kompakt ” und invariant ist und es eine offene Umgebung U ⊃ A gibt, die von A attrahiert wird. (U heißt dann Attraktorumgebung). Beispiel: Wie oben. Frage: Wann sind ω-Limesmengen Attraktoren? Satz: Sei Φt : Rd → Rd stetig für jedes t ≥ 0. Sei B ⊂ Rd eine beschränkte Menge, so dass ein T > 0 existiert mit Φt (B) ⊂ B ∀ t ≥ T. Dann attrahiert A = ω(B) die Menge B. Zusätzlich gilt \ ω(B) = Φt (B) . t≥0 93 KAPITEL 13. DYNAMISCHE SYSTEME Beweis: Nach der Annahme gilt Φt (B) ⊂ B, also auch Φt (B) ⊂ B, ∀ t ≥ T . Also \ [ \ [ Φs (B) ⊂ B = B̄ (∗) ω(B) = t≥T s≥t t≥T s≥t Daher ist ω(B) beschränkt und damit kompakt (wir sind im Rd )! und außerdem invariant (vorheriger Satz). Wir zeigen nun: ω(B) attrahiert B. Setze voraus, dass ω(B) die Menge B nicht attrahiert . Dann gibt es ε > 0 sowie Folgen tk → ∞ und xk ∈ B, so dass Φtk (xk ) ∈ / Uε (ω(B)). Da Φtk (xk ) aber eine beschränkte Folge ist, gibt es eine konvergie/ Uε (ω(B)), rende Teilfolge Φtki (xki ) → y ∈ B̄. Aus der Konstruktion folgt y ∈ was aber im Widerspruch zur Definition von ω(B) steht. T Es bleibt zu zeigen, dass ω(B) ⊂ B: Angenommen es gäbe ein y ∈ ω(B) ∂B (mit ∂B= Rand von B). Aus der negativen Invarianz von ω(B) folgt, dass für alle t ≥ T ein x ∈ ω(B) existiert mit Φt (x) = y. Da aber ω(B) ⊂ B̄ gilt (∗), folgt x ∈ B̄ und damit Φt (x) ∈ B falls t ≥ T . Also ist y ∈ B im Widerspruch zu der Annahme. Also attrahiert ω(B) die Menge B ⊃ ω(B). Da ω(B) ⊂ B invariant ist, folgt ω(B) = Φt (ω(B)) ⊂ Φt (B), Also ist ω(B) ⊆ \ Φt (B) ⊂ \ t≥0 Φt (B) ⊂ Φt (B). t≥0 Da darüberhinaus gilt, folgt ∀t ≥ 0. [ Φs (B) s≥t \ [ Φs (B) = ω(B) t≥0 s≥t und damit die behauptete Gleichheit. Bemerkung: Obwohl ω(B) die Menge B attrahiert und B ⊃ ω(B) gilt, ist ω(B) nur ein Attraktor, wenn B eine Umgebung von ω(B) ist. Als Gegenbeispiel betrachte das lineare System dx = −x, dt dy = y, dt und die Menge B = [1−, 1] × {0}. Dann ist ω(B) = (0, 0), aber der Ursprung ist kein Attraktor, sondern ein Sattelpunkt. 94 KAPITEL 13. DYNAMISCHE SYSTEME Definition: Absorbierende Menge“ Eine kompakte positiv invariante ” Menge B ⊂ Rd heißt absorbierende Menge, falls für jede beschränkte Menge E ⊂ Rd ein T ∗ = T ∗ (B, E) ≥ 0 existiert mit Φt (E) ⊂ B ∀t ≥ T ∗ . Ein dynamisches System mit einer absorbierenden Menge heißt dissipativ. Korollar: Sei das semi-dynamische System {Φt , t ≥ 0} dissipativ mit der absorbierenden Menge B. Dann besitzt Φt einen Attraktor A := ω(B), der jede beschränkte Menge E attrahiert. Der obige Attraktor A heißt globaler Attraktor. Beweis: Nach Def. gibt es T mit Φt (B̄) ⊂ B für alle t ≥ T . Also ist der obige Satz anwendbar. Kapitel 14 Nichtlineare Systeme Wir haben gesehen, dass die Ruhelage x∗ = 0 einer linearen DGL dx = Ax dt genau dann asymptotisch stabil ist, wenn jeder Eigenwert λj = αj + ıβj der Matrix A negativen Realteil αj hat, d.h Re(λj ) = αj < 0, ∀j. Wir haben diese Eigenschaft benutzt um zu zeigen, dass die Ruhelage x∗ = 0 des entsprechenden Euler-Verfahrens xn+1 = (I + hA)xn auch asymptotisch stabil ist, falls die Schrittweite h > 0 der Ungleichung 0 < h < min j −2αj α2j + βj2 genügt. Wir haben die obige Eigenschaft auch benutzt, zu zeigen, dass die Ruhelage x∗ = 0 des nichtlinearen Systems dx = Ax + n(x), dt n(0) = 0, ∇n(0) = 0 lokal asymptotisch stabil, falls die Schrittweite h > 0 klein genug ist. In diesem Fall ist das entsprechende Euler-Verfahren xn+1 = (I + hA)xn + hn(xn ) . Um die asymptotische Stabilität der Ruhelage x∗ = 0 dieses nichtlinearen EulerVerfahrens zu untersuchen, ist eine Ljapunov-Funktion günstiger als die obige Eigenwertcharakterisierung. 95 96 KAPITEL 14. NICHTLINEARE SYSTEME 14.1 Ljapunov-Funktionen Wir haben Ljapunov-Funktionen schon benutzt, um die asymptotische Stabilität einer Ruhelage x∗ = 0 einer DGL dx = f (x) dt zu etablieren. Dabei gemeint ist eine Funktion V : Rd → R+ , die den folgenden Eigenschaften genügt: h∇V (x), f (x)i < 0, ∀x 6= x∗ = 0 , und α(kxk) ≤ V (x) ≤ β(kxk) , wobei α, β : R+ → R+ stetig und monoton wachsend sind, mit α(0) = β(0) = 0, 0 < α(r) < β(r), ∀r > 0 . Die Existenz einer solchen Ljapunov-Funktion ist hinreichend für die asymptotische Stabilität der Ruhelage x∗ . Sie ist auch notwendig. Wir werden diese Behauptung hier in dem linearen Fall dx = Ax dt betrachten. Satz Die Ruhelage x∗ = 0 der linearen DGL dx = Ax dt ist genau dann asymptotisch stabil, wenn eine Ljapunov-Funktion der Form V (x) = x⊤ P x existiert, wobei P symmetrisch und positiv definit ist mit P A + A⊤ P = −I . Beweis: Angenommen P ist asymmetrisch positiv definit. Für eine solche Funktion V (x) haben wir (P ) ) 2 λmin |x|2 ≤ V (x) ≤ λ(P max |x| und d V (x(t)) dt = = d x(t)⊤ P x(t) dt dx(t) dx(t)⊤ P x(t) + x(t)⊤ P dt dt Produktregel 97 KAPITEL 14. NICHTLINEARE SYSTEME = = x(t)⊤ A⊤ P x(t) + x(t)⊤ P Ax(t) x(t)⊤ A⊤ P + P A x(t) = − x(t)⊤ Ix(t) ≤ − = − γ0 V (x(t)) 1 (ρ) λmax x(t)⊤ P x(t) wo γ0 := 1 (ρ) λmax Daher gilt V (x(t)) ≤ e−γ0 t V (x0 ). Hinreichende Bedingung: Wenn eine solche Funktion existiert, dann haben wir (P ) λmin |x(t)|2 ≤ V (x(t)) ≤ e−γ0 t V (x0 ) → 0 für t → ∞. Daraus folgt die asymptotische Stabilität von x∗ = 0. Notwendige Bedingung: Wenn die Ruhelage x∗ = 0 asymptotisch stabil ist, dann ist Re(λj ) < 0 für jeden Eigenwert der Matrix A. Ein Satz von Ljapunov ergibt die Existenz der erwünschten Matrix P . (Beweis in Lehrbücher) Ljapunov-Satz: Die Matrix A sei stabil, dass ist Re(λj ) < 0 für jeden Eigenwert von A. Dann existiert eine eindeutige Matrix P , für welche P A + A⊤ P = −I . Außerdem ist P symmetrisch und positiv definit. 14.1.1 Anwendung 1: Das linear Euler-Verfahren Sei dx dt = Ax gegeben, wobei A stabil ist. Dann existiert ein symmetrisches positiv definites P mit P A + A⊤ P = −I. Für das linear Euler-Verfahren xn+1 = (I + hA)xn haben wir V (xn+1 ) = ⊤ x⊤ n (I + hA) P (I + hA)xn = ⊤ ⊤ 2 ⊤ ⊤ x⊤ n P xn + hxh [A P + P A]xn + h xn A P Axn = ⊤ 2 ⊤ ⊤ x⊤ n P xn − hxn Ixn + h xn A P A xn 98 KAPITEL 14. NICHTLINEARE SYSTEME ≤ x⊤ n P xn − h (P ) λmax ⊤ 2 x⊤ n P xn + h PA λA max (P ) λmin x⊤ n P xn 1 − γ0 h + γ1 h2 V (xn ) = wobei γ0 = (A⊤ P A) 1 (P ) λmax > 0, γ1 = λmax (P ) λmin >0. (Die Matrix A⊤ P A hier ist symmetrisch und positiv definit positive Eigenwerte). ⇒ reellwertige Daher existiert ein h∗ > 0, so dass γ(h) := |1 − γ0 h + γ1 h2 | < 1, ∀h ∈ (0, h∗ ) . Für h ∈ (0, h∗ ) haben wir V (xn+1 ) ≤ γ(h)V (xn ) und daher (P ) λmin |xn |2 ≤ V (xn ) ≤ (γ(h))n V (x0 ) → 0 ⇒ xn → 0 für n → ∞. für n → ∞. Die Ruhelage x∗ = 0 ist asymptotisch stabil (wie zuvor müssen wir die Schrittweite beschränken). Bemerkung: Wir haben tatsächlich nur die attrahierende Eigenschaft bewiesen. Der Beweis der Ljapunov-Stabilität ist wie in einem vorherigen Kapitel. 14.1.2 Anwendung 2: Die nichtlineare DGL Betrachte jetzt das nichtlineare System in Rd dx = Ax + n(x) , dt wobei n stetig differenzierbar ist mit n(0) = 0 und ∇n(0) = 0. Hier ist x∗ = 0 eine Ruhelage. Wir werden uns auf die Betrachtung einer Umgebung N0 von x∗ beschränken, weil die DGL auch andere Ruhelagen haben könnte. Für diese DGL haben wir d V (x(t)) dt = = d ⊤ x (t)P x(t) dt dx dx⊤ P x + x⊤ P dt dt 99 KAPITEL 14. NICHTLINEARE SYSTEME = [Ax + n(x)]⊤ P x + x⊤ P [Ax + n(x)] = x⊤ A⊤ P + P A x + n(x)⊤ P x + x⊤ P n(x) {z } | =:N (x) = − x⊤ Ix + N (x) Die Funktion N : Rd → R definiert durch N (x) := n(x)⊤ P x + x⊤ P n(x) ist stetig und O(|x|3 ). Für kxk ≤ 1 genügt N (x) der Abschätzung |N (x)| ≤ K|x|3 = K|x|x⊤ Ix ≤ K (P ) λmin |x|V (x) Die Ljapunov-Funktion V ist quadratisch ⇒ es existiert R(ε) → 0 für ε → 0, so dass K |x| ≤ ε falls V (x) ≤ R(ε) . (P ) λmin Wir wählen ε = ε0 , für welches (P ) |x| ≤ ε0 λmin ≤ 1, K − 1 (P ) λmax + ε0 = −γ2 < 0 . Dann gilt für x(t) ∈ N0 := {x ∈ Rd : V (x) ≤ R(ε0 )} die Ungleichung d V (x(t)) dt = − x(t)⊤ Ix(t) + N (x(t)) ≤ − 1 (P ) λmax V (x(t)) + ε0 V (x(t)) < 0 Dies bedeutet, dass V (x(t)) nicht zunehmen kann — daher ist die Menge N0 positiv invariant bezüglich des nichtlinearen Systems. Daher für x0 ∈ N0 , gilt es x(t) ∈ N0 für alle t ≥ 0 und auch die Ungleichung d V (x, (t)) ≤ −γ2 V (x(t)), dt ∀t ≥ 0 . Daraus folgt die Ungleichung V (x(t)) ≤ e−γ2 t V (x0 ) → 0 für t → ∞ . Gleichzeitig haben wir die untere Schranke (P ) λmin |x(t)|2 ≤ V (x(t)) , und somit |x(t)|2 → 0 für t → ∞ für jedes x0 ∈ N0 . Da die Konvergenz hier monoton ist, ist die Ruhelage x∗ = 0 asymptotisch stabil, d.h. attrahierend und stabil! 100 KAPITEL 14. NICHTLINEARE SYSTEME 14.1.3 Anwendung 3: Das nichtlineare Euler-Verfahren Das entsprechende Euler-Verfahren für die obige nichtlineare DGL lautet xn+1 = (I + hA)xn + hn(xn ) . Es hat auch die Ruhelage x∗ = 0 (vielleicht auch andere) V (xn+1 ) = = = x⊤ n+1 P xn+1 [(I + hA)xn + hn(xn )]⊤ P [(I + hA)xn + hn(xn )] ⊤ ⊤ 2 ⊤ ⊤ x⊤ n P xn + hxn A P + P A xn + h xn A P Axn + h n(xn )⊤ P xn + x⊤ n P n(xn ) = ⊤ ⊤ ⊤ + h2 x⊤ n A P n(xn ) + n(xn ) P Axn + n(xn ) P n(xn ) 2 2 ⊤ ⊤ V (xn ) − hx⊤ n Ixn + h xn A P Axn + hN (x) + h M (x), dabei sind N (x) = n(x)⊤ P x + x⊤ P n(x) und M (x) = x⊤ A⊤ P n(x) + n(x)⊤ P Ax + n(x)⊤ P n(x). stetige Funktionen von Ordnung 0(|x|3 ) für |x| ≤ 1. Wie oben können wir R(ε) → 0 für ε → 0 finden, so dass |N (x)| ≤ εV (x), |M (x)| ≤ εV (x) für V (x) ≤ R(ε) (und |x| ≤ 1). Dann gilt V (xn+1 ) ≤ V (xn ) − h 1 (P ) λmax V (xn ) + (A⊤ P A) 2 λmax h (P ) λmin V (xn ) + hεV (xn ) + h2 εV (xn ) = 1 − h (γ0 − ε) + h2 (γ1 + ε) V (xn ) . Wir wählen ε0 := 21 γ0 und setzen 1 1 2 γ(h) := 1 − γ0 h + h γ1 + γ0 . 2 2 Dann gilt die Ungleichung γ(h) < 1, falls h ∈ (0, h∗ ) mit h∗ > 0 genügend klein. Sei xn ∈ N0 := {x ∈ Rd : V (x) ≤ R(ε0 )} und h ∈ (0, h∗ ). Dann gilt die Ungleichung V (xn+1 ) < V (xn ) , 101 KAPITEL 14. NICHTLINEARE SYSTEME so xn+1 ∈ N0 . Die Menge N0 ist deshalb positiv invariant. Daher für x0 ∈ N0 und h ∈ (0, h∗ ) haben wir V (xn+1 ) ≤ γ(h) V (xn ), ∀n ≥ 0, und deshalb V (xn ) ≤ γ(h)n V (x) → 0 für n → ∞. Schließlich haben wir xn → 0 für n → ∞ ∀x0 ∈ N0 . Die Ruhelage x∗ = 0 des nichtlinearen Euler-Verfahrens ist daher attrahierend für h < h∗ . Sie ist auch Ljapunov-stabil mit (P ) δ(ε) := λmax (P ) λmin und daher asymptotisch stabil. ε falls h < h∗ = γ0 2γ1 + γ0 Kapitel 15 Dissipative Systeme Jetzt werden wir eine autonome DGL dx = f (x), x ∈ Rd , dt untersuchen, wobei die Vektorfeldfunktion f einer Dissipativitätsbedingung genügt, zunächst ∃γ > 0 : hx, f (x)i ≤ −γ|x|2 , ∀x ∈ Rd und dann allgemeiner ∃α, β > 0 : hx, f (x)i ≤ α − β|x|2 , ∀x ∈ Rd . Insbesondere wollen wir entdecken, was passieren kann, wenn wir ein numerisches Verfahren verwenden. 15.1 1. Fall Sei f mindestens stetig differenzierbar mit f (0) = 0 und genüge f der ersten Dissipativitätsbedingung ∃γ > 0 : hx, f (x)i ≤ −γ|x|2 , ∀x ∈ Rd . Dann ist x∗ = 0 die einzige Ruhelage. Beweis Sei x∗ 6= 0 eine Ruhelage. Dann ist f (x∗ ) = 0 und 0 = hx∗ , 0i = hx∗ , f (x∗ )i ≤ −γ|x∗ |2 < 0 Widerspruch!. Diese eindeutige Ruhelage x∗ = 0 ist global asymptotisch stabil. Für den Beweis benutzen wir die Ljapunov-Funktion V (x) = |x|2 d d dx 2 V (x(t)) = |x(t)| = 2 x(t), (t) dt dt dt 102 KAPITEL 15. DISSIPATIVE SYSTEME = 2 hx(t), f (x(t))i ≤ − γ|x(t)|2 = − γV (x(t)) . 103 Daher haben wir |x(t)|2 = V (x(t)) ≤ e−γt V (x0 ) ∀t ≥ 0, x0 ∈ Rd → 0 für t → ∞ . Die Ruhelage x∗ = 0 ist daher global attrahierend. Sie ist auch Ljapunovstabil mit δ(ε) = ε, weil |x(t)|2 monoton abfallend ist. Das entsprechende Euler-Verfahren lautet xn+1 = xn + hf (xn ), für welches x∗ = 0 die einzige Ruhelage ist. Um ihre asymptotische Stabilität zu untersuchen, werden wir noch mal die Ljapunov-Funktion V (x) = |x|2 verwenden. Dann ist V (xn+1 ) = |xn+1 |2 = hxn+1 , xn+1 i = hxn + hf (xn ), xn + hf (xn )i = hxn , xn i + 2h hxn , f (xn )i + h2 hf (xn ), f (xn )i ≤ |xn |2 − 2hγ|xn |2 + h2 |f (xn )|2 = (1 − 2hγ)V (xn ) + h2 |f (xn )|2 Wir wollen zeigen, dass V monoton abfallend ist — vielleicht für h > 0 genügend klein usw. Die Schwierigkeit hier ist der letzte Term h2 |f (xn )|2 . Wir haben zwei Möglichkeiten. Hilfsatz Sei f ∈ C 1 . Dann gilt: ∀ R > 0 ∃ KR > 0 für welches |f (x)|2 ≤ KR |x|2 , ∀ |x|2 ≤ R . Beweis Zuerst werden wir zeigen, dass ∇f (0) 6= 0 ist. Sei ei der i-ten Einheitsvektor in Rd . Dann gilt für h ∈ R hfi (hei ) = hhei , f (hei )i ≤ − γ|hei |2 = − γh2 . (fi ist die i-te Komponente von f ). Aber f (0) = 0, so fi (0) = 0. Dann haben wir h (fi (hei ) − fi (0)) ≤ − γh2 . 104 KAPITEL 15. DISSIPATIVE SYSTEME Wir können durch h2 > 0 dividieren, ohne die Richtung der Ungleichung zu verändern: fi (hei ) − fi (0) ≤−γ ∀h 6= 0 . h Wir haben vorausgesetzt, dass ∇f (0) existiert. Dann haben wir ∂fi (0) fi (hei ) − fi (0) = lim ≤−γ<0. h→0 ∂xi h Daher hat die Vektorfeldfunktion f die Form f (x) = Ax + n(x) , wobei die Matrix A 6= 0 und n(0) = 0, ∇n(0) = 0, so n(x) ∼ 0(|x|2 ). Nun können wir die Hilfsaussage beweisen. Dazu beobachten wir, dass |f (x)|2 ≤ |A|2 |x|2 + 2|A| |x| |n(x)| + |n(x)|2 ≤ KR · |x|2 , {z } | {z } | ∼0(|x|3 ) falls |x|2 ≤ R, ∼0(|x|4 ) weil |n(x)|/|x|2 und |n(x)|2 /|x|2 beschränkt sind für |x|2 ≤ R. Bisher haben wir nur die Hilfsaussage bewiesen, aber eigentlich wollen wir zeigen, dass das Euler-Verfahren stabil ist zumindest für genügend kleine h. Also kehren wir zu der Ljapunov-Ungleichung zurück: V (xn+1 ) ≤ (1 − 2γh) V (xn ) + h2 |f (xn |2 . Sei |xn |2 ≤ R. Dann ist |f (xn )|2 ≤ KR |xn |2 = KR V (xn ) und V (xn+1 ) ≤ (1 − 2γh)V (xn ) + h2 KR V (xn ) = dass ist 1 − 2γh + h2 KR V (xn ) , V (xn+1 ) ≤ V (xn ) ≤ R , falls h ≤ hR ist, für ein hR klein genug, so dass 0 < 1 − 2γhR + h2R KR ≤ 1, also hR = 2γ/KR . Daher ist |xn+1 |2 ≤ R und der Ball BR := {x ∈ Rd : |x|2 ≤ R} ist deshalb positiv invariant bzg. des Euler-Verfahrens für solche Schrittweiten. Sei h ∈ (0, hR ) dann gilt 0 < γ(h) := 1 − 2γh + h2 KR < 1 und damit V (xn+1 ) ≤ γ(h) V (xn ). 105 KAPITEL 15. DISSIPATIVE SYSTEME Durch wiederholtes anwenden erhalten wir dann V (xn ) ≤ γ(h)n V (x0 ) für x0 ∈ BR . Die Ruhelage x∗ = 0 ist attrahierend und auch Ljapunov-stabil mit δ(ε) = ε, insgesamt asymptotisch stabil, falls die Schrittweite klein genug ist. Eine andere Möglichkeit ist nützlich, falls die obige Form der Vektorfeldfunktion f unbekannt ist. Das Ergebnis ist in diesem Fall nicht so stark, trotzdem einsichtsvoll für den allgemeinen Fall, den wir später erörtern werden. ⇒ f ist stetig ∀ R > 0 ∃ MR > 0, so dass |f (x)|2 ≤ MR ∀ |x|2 ≤ R . In diesem Fall lautet die Ljapunov-Ungleichung V (xn+1 ) ≤ (1 − 2γh) V (xn ) + h2 MR , Definiere hR := Ungleichung falls |xn |2 ≤ R. 2γR > 0. Für h ∈ (0; hR ] und xn ∈ BR gilt dann die MR |xn+1 |2 = V (xn+1 ) ≤ (1 − 2γh)R + h2 MR ≤ R , weil V (xn ) = |xn |2 ≤ R und h2 MR ≤ 2γhR. Daher ist der Ball BR positiv invariant für Schrittweite h ∈ (0, hR ]. Definiere nun h∗R := und 1 γR , hR = 2 MR η(h, R) := MR h γ Λ(h, R) := Bη(h,R) = x ∈ Rd : V (x) ≤ η(h, R) für h ∈ (0, h∗R ]. Λ(h, R) besitzt die folgenden Eigenschaften 1. Λ(h, R) ist nicht leer, kompakt und Λ(h, R) = Bη(h,R) ⊆ BR für h ∈ (0, h∗R ], weil η(h, R) ≤ R ist. KAPITEL 15. DISSIPATIVE SYSTEME 106 2. Λ(h, R) ist positiv invariant für h ∈ (0, h∗R ]: Sei xn ∈ Λ(h, R). Dann ist V (xn+1 ) ≤ ≤ (1 − 2γh)V (xn ) + h2 MR (1 − 2γh)η + γhη = (1 − γh)η < η . 3. Λ(h, R) ist eine absorbierende Menge für x0 ∈ BR und h ∈ (0, h∗R ]. Sei x0 ∈ BR \ Λ(h, R), so dass V (x0 ) > η. Dann haben wir V (x1 ) ≤ (1 − 2γh)V (x0 ) + h2 MR = (1 − 2γh)V (x0 ) + γhη < (1 − γh)V (x0 ) . Sei x1 ∈ BR \ Λ(h, R) auch, durch Wiederholung erhalten wir V (x2 ) < (1 − γh)V (x1 ) < (1 − γh)2 V (x0 ) . Seien x0 , x1 , . . ., xn ∈ BR \ Λ(h, R)), dann ist V (xn+1 ) < (1 − γh)n V (x0 ) Offensichtlich gibt es eine ganz Zahl N ∗ = N ∗ (x0 ) < ∞, so dass V (xN ∗ +1 ) ≤ η < V (xN ∗ ) . In der Tat ist N ∗ (x0 ) ≤ NR∗ für alle x0 ∈ BR , wobei ln(η/R) NR∗ = 1 + (Integerteil) ln(1 − γh) Insgesamt: für h > 0 klein genug, haben wir eine positiv invariante absorbierende Menge Λ(h, R), wobei p dist (Λ(h, R), {0}) = η(h, R) → 0 für h → 0 (R fest) Das Euler-Verfahren hat deshalb einen Attraktor \ Ah = Φnh (Λ(h, R)) (R fest) n≥o wobei Φh (x) := x + hf (x). KAPITEL 15. DISSIPATIVE SYSTEME 107 Wir haben x∗ = 0 ∈ Ah , weil Φh (0) = 0 ∈ Λ(h, R). Aber können wir sicher sein, dass Ah = {0}? Kann Ah andere Punkte enthalten? Ohne zusätzliche Information über die Vektorfeldfunktion können wir keine weitere Aussagen beweisen. Kapitel 16 Dissipative Systeme: zweiter Fall Jetzt betrachten wir eine autonome DGL dx = f (x), dt x ∈ Rd , die der allgemeineren Dissipativitätsbedingung genügt: ∃ α, β > 0 : hx, f (x)i ≤ α − β|x|2 , ∀ x ∈ Rd . Wir werden keine Voraussetzungen über die Existenz einer Ruhelage machen. Sei V (x) = |x|2 = < x, x >. Dann haben wir d d V (x(t)) = hx(t), x(t)i dt dt = 2 hx(t), f (x(t))i ≤ 2α − 2β|x(t)|2 = 2α − 2βV (x(t)), dass ist dV + 2βV ≤ 2α . dt Mit dem integrierenden Faktor e2βt erhalten wir d {e2βt V (x(t))} ≤ 2αe2βt dt und nach Integration e2βt V (x(t)) − V (x0 ) ≤ oder V (x(t)) ≤ V (x0 )e−2βt + 108 2α 2βt (e − 1) 2β α (1 − e−2βt ) β KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL Definiere B0∗ := n x ∈ Rd : |x|2 ≤ α β +1 o 109 . Offensichtlich ist B0∗ nichtleer und kompakt. Sie ist auch positiv invariant, weil α x0 ∈ B0∗ ⇒ V (x0 ) = |x0 |2 ≤ + 1, β und daher |x(t)|2 = V (x(t)) α (1 − e−2βt ) β ≤ |x0 |2 e−2βt + ≤ = α α + 1 · e−2βt ≤ + 1, β β ⇒ α α + 1 e−2βt + (1 − e−2βt ) β β x(t) ∈ B ∗ , ∀t ≥ 0 ∀t ≥ 0 Außerdem ist B0∗ eine absorbierende Menge: Sei D ⊂ Rd \ B0∗ eine beschränkte Menge und definiere kDk2 = sup |x0 |2 ⇒ kDk2 > x0 ∈D Sei x0 ∈ D. Dann haben wir V (x(t)) α +1 β α (1 − e−2βt ) β ≤ kDk2 e−2βt + = α α α kDk2 − e−2βt + ≤ 1 + , β β β falls t ≥ TD := 1 ln 2β kDk2 − α β > 0. Daher folgt es, dass dieses dissipative System einen maximalen Attaktor A0 besitzt mit \ A0 := x(t, B0∗ ) . t≥0 A0 ist nichtleer, kompakt, invariant mit A0 ⊂ B0∗ . Jetzt betrachten wir das entsprechende Euler-Verfahren: xn+1 = xn + hf (xn ) . KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL 110 Dann ist |xn+1 |2 = hxn+1 , xn+1 i = hxn + hf (xn ), xn + hf (xn )i = |xn |2 + h hxn , f (x)n i + h2 |f (xn )|2 ≤ |xn |2 + 2h α − β|xn |2 + h2 |f (xn )|2 (1 − 2βh)|xn |2 + 2αh + h2 |f (xn )|2 = Sei R ≫ 0 fest und definiere MR := max |x|2 ≤R+1 |f (x)|2 < ∞ (weil f stetig ist) Ist |xn |2 ≤ R, dann haben wir |xn+1 |2 ≤ (1 − 2βh)|xn |2 + h(2α + hMR ) ≤ (1 − 2βh)R + h(2α + hMR ) ≤ R für h ∈ (0, hR ], wobei hR := 2βR − 2α . MR Der Ball BR = {x ∈ Rd : |x|2 ≤ R} ist positiv invariant bzg. des EulerVerfahrens, falls die Schrittweite h ∈ (0, hR ]. Wir werden eine weitere Beschränkung machen: h ∈ (0, h∗R ), wobei 1 h∗R = min hR , ,1 . 2β Dann ist γ(h) := 1 − 2βh ∈ (0, 1). Für |x0 |2 ≤ R gilt die Ungleichung |xn+1 |2 ≤ γ(h)|xn |2 + h(2α + hMR ) für jedes n = 0, 1, 2, . . . . Daher haben wir |xn |2 ≤ = Definiere Bh∗ 1 − γ(h)n+1 h{2α + hMR } 1 − γ(h) 2α + hMR γ(h)n |x0 |2 + {1 − γ(h)n+1 } 2β γ(h)n |x0 |2 + 2α + hMR d 2 := x ∈ R : |x| ≤ +h . 2β KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL 111 Bh∗ ist nichtleer und kompakt. Wir werden zeigen, dass sie auch positiv invariant und absorbierend ist, falls die Schrittweite h ∈ (0, h∗R ) und |x0 |2 ≤ R. Positive Invarianz Sei x0 ∈ Bh∗ . Dann ist |x0 |2 ≤ 2α + hMR +h 2β ( < R, weil R ≫ 0 ist). Deshalb haben wir |x1 |2 ≤ (1 − 2βh)|x0 |2 + h(2α + hMR ) ≤ (1 − 2βh) = 2α + hMR 2α + hMR + h − 2βh2 < +h 2β 2β 2α + hMR + h + h(2α + hMR ) 2β u.s.f. für x2 , x3 , . . ., xn , . . . . Absorbierende Eigenschaft Sei D eine beschränkte Menge mit D ∩ Bh∗ = ∅ und kDk2 ≤ R, wobei kDk2 := supx∈D |x|2 ist. Für x0 ∈ D haben wir |xn |2 2α + hMR 2β 2α + hMR ≤ γ(h)n kDk2 + {1 − γ(n)n+1 } · 2β 2α + hMR ≤ + h für n ≥ ND,h 2β ≤ γ(h)n |x|2 + {1 − γ(h)n+1 } wobei ND,h ln(h/kDk2 ) := 1 + ln(γ(h)) (Hinweis: löse γ(h)n kDk2 = h). Integerteil Wir schreiben Φh (x) := x + hf (x) für die Abbildung des Euler-Verfahrens. Dann ist Bh∗ nichtleer, kompakt, absorbierend und positiv invariant bzg. Φh . Deshalb existiert ein maximaler Attraktor \ Ah := Φnh (Bh∗ ) . n≥0 Hier ist Ah nichtleer, kompakt, Φh -invariant und attrahierend mit Ah ⊂ Bh∗ für h ∈ (0, h∗R ] und kDk2 ≤ R. KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL 16.1 112 Konvergenz der numerischen Attraktoren Frage: Wie ist der Zusammenhang der Ah und A0 für h → 0+ ? Wir werden den folgenden Konvergenzsatz beweisen. Satz dist(Ah , A0 ) → 0 für h → 0 Hier definieren wir den Abstand zwischen kompakten Mengen in Rd durch dist(A, B) := max dist(a, B), a∈A dist(a, B) := min ka − bk b∈A Beweis Wir setzen voraus, dass die Behauptung falsch sei. Dann existieren ein ε0 > 0 und eine Folge hj → 0+ für j → ∞, so dass dist(Ahj , A0 ) ≥ ε0 , ∀j . Die Mengen Ahj sind kompakt. Daher existiert ein aj ∈ Ahj , für welches dist(aj , A0 ) = dist(Ahj , A0 ) ≥ ε0 , ∀j . Wir haben die folgende Abschätzung für den globalen Diskretisierungsfehler des Euler-Verfahrens: |x(nh, x0 ) − Φnh (x0 )| ≤ CT,D h für jedes n = 0, 1, . . ., Nh := ⌊T /h⌋ (Integerteil) und x0 ∈ D, wobei D eine beliebige kompakte Menge ist. Wir werden D nehmen, so dass B0∗ ⊂ D und Bh∗ ⊂ D für alle h ∈ (0, h∗R ]. Dann wählen wir T > 0 so groß, dass dist(x(T, D), B0 ) ≤ ε0 /4 . Schließlich wählen wir b hR ≤ h∗R , so dass CT,D h ≤ ε0 /4, ∀h ∈ (0, b hR ] . Insbesondere haben wir Nh Φh (x0 ) − x(Nh h, x0 ) ≤ CT,D h ∀h ∈ (0, b hR ] . Zurück zu dem Beweis: Die Menge Ah ist Φh -invariant, d.h. ist Φh (Ah ) = Ah . Daher ist h ΦN h (Ah ) = Ah KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL und für jedes aj ∈ Ahj existiert bj ∈ Ahj , so dass Nh Φhj j (bj ) = aj für jedes j = 1, 2, . . . . Dann haben wir bj ∈ Ahj ⊂ Bh∗j ⊆ D, so dass gilt. ∀j , Nh x(Nhj hj , bj ) − Φhj j (bj ) ≤ CT,D hj ≤ ε0 /4 Insgesamt haben wir dann dist Ahj , A0 = dist (aj , A0 ) ≤ aj − x(Nhj hj , bj ) + dist x(Nhj hj , bj ), A0 ≤ ε0 /4 + ε0 /4 = ε0 /2 Dieser Widerspruch beendet den Beweis. Die Konvergenz dist (Ah , A0 ) → 0 für h → 0 heißt: halbstetige Konvergenz von oben. Sie ist nicht gleich dist (A0 , Ah ) → 0 für h → 0, die im Allgemeinen nicht gültig ist. Gegenbeispiel Betrachte die DGL in R2 wobei 2 dx , = Rx − x max 0, |x|2 − 1 dt R= " 0 1 −1 0 # . 113 114 KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL Rotation innerhalb der Einheitsscheibe (|x| ≤ 1) Rotation und Attraktion ausserhalb der Einheitsscheibe Der globaler Attraktor hier ist die Einheitsscheibe A0 = {x ∈ R2 : |x| ≤ 1}. Das implizite Euler-Verfahren für diese DGL lautet xn+1 = xn + h Rxn+1 − xn+1 (max{0, |xn+1 |2 − 1})2 oder M xn+1 = xn , wobei M := " 1 + h(max{0, |xn+1 |2 − 1})2 h −h 1 + h(max{0, |xn+1 |2 − 1})2 # Daher ist ⊤ 2 x⊤ n+1 M M xn+1 = |xn | , dass ist h 2 i |xn+1 |2 = |xn |2 h2 + 1 + h max{0, |xn+1 |2 − 1} und deshalb ist |xn+1 |2 = 1 1 |xn |2 ≤ 2 |xn |2 h2 + (1 + h(max{0, |xn+1 |2 − 1})2 )2 h +1 für alle n ≥ 0. Davon bekommen wir |xn |2 ≤ (h2 1 |x0 |2 → 0 + 1)n für n → ∞ ∀x0 ∈ R2 . KAPITEL 16. DISSIPATIVE SYSTEME: ZWEITER FALL 115 Der numerische Attraktor hier ist Ah = {0}. Wir haben Ah ⊂ A0 für alle h > 0 ⇒ dist (Ah , A0 ) ≡ 0 für alle h > 0. Aber dist (A0 , Ah ) ≡ 1 für alle h > 0 Kapitel 17 Mengenwertige Attraktoren Die folgende DGL in R1 hat einen einfachen nichttrivialen mengenwertigen Attraktor: dx = −x(x2 − 1), x ∈ R1 . dt Die Ruhelagen sind 0 (instabil) und ± 1 (lokal asymptotisch stabil mit Einzugsbereiche ±x0 > 0). x Einzugsbereich x0 > 0 t Einzugsbereich x0 < 0 Die Vektorfeldfunktion f (x) = −x(x2 −1) genügt der Dissipativitätsbedingung hx, f (x)i = x2 − x4 ≤ 1 − x2 , ∀ x ∈ R1 , und die Menge Bε := [−1−ε, 1+ε] ist eine positiv invariante absorbierende Menge für jedes ε > 0. Es existiert ein eindeutiger globaler Attraktor A0 = [−1, 1] = \ t≥0 116 Φ (t, Bε ) KAPITEL 17. MENGENWERTIGE ATTRAKTOREN 117 Wir können die attrahierende Eigenschaft von A0 auch durch eine LjapunovFunktion beschreiben. Definiere V : R1 → R+ durch V (x) := max x2 − 1, 0 . Offensichtlich ist V (x) ≥ 0 mit V (x) = 0 genau dann, wenn x ∈ A0 . Wir haben die folgenden Abschätzungen α(dist(x, A0 )) ≤ V (x) ≤ β(dist(x, A0 )) wobei α(r) = r2 und β(r) = r(r + 2). Beweis Fall (1) Für x < −1 ist dist(x, A0 ) = |x − (−1)| = |x + 1| und |x + 1|2 = (x + 1)2 = x2 + 2x + 1 ≤ x2 − 1, weil x < −1 . Auch haben wir x2 − 1 = (x − 1)(x + 1) = (2 + {−x − 1}) (−x − 1) = (2 + |x + 1|)|x + 1| weil x < −1 = [2 + dist(x, A0 ) ] dist(x, A0 ) . Fall (2) Für x > 1 ist dist(x, A0 ) = x − 1 und (x − 1)2 = x2 − 2x + 1 ≤ x2 − 1 für x > 1 . Außerdem haben wir x2 − 1 = (x − 1)(x + 1) = (x − 1)({x − 1} + 2) = |x − 1|(|x − 1| + 2) für x > 1. Die Funktion V ist nicht überall differenzierbar: nur für x 6= ±1. Sie genügt einer lokalen Lipschitz-Bedingung |V (x) − V (y)| ≤ LR |x − y|, ∀ x, y mit |x|, |y| ≤ R . für jedes R > 1. Beweis: Betrachte ein festes R > 1 und die folgenden Fälle. KAPITEL 17. MENGENWERTIGE ATTRAKTOREN 118 Fall (1) Sei x, y ∈ / A0 mit |x|,|y| ≤ R. 2 (x − 1) − (y 2 − 1) = x2 − y 2 |V (x) − V (y)| = ≤ (|x| + |y|) |x − y| ≤ 2R |x − y| Fall (2) Sei x, y ∈ A0 |V (x) − V (y)| = |0 − 0| = 0 ≤ 2R|x − y| . Fall (3) Sei x ∈ / A0 und y ∈ A0 |x2 − 1 − 0| ≤ |x2 − y 2 | |V (x) − V (y)| = ≤ weil y 2 ≤ 1 2R|x − y| Die Funktion V (x) = x2 − 1 für x2 > 1. Sie ist überall differenzierbar / A0 außerhalb des Attraktors. Deshalb haben wir für x0 ∈ d V (x(t, x0 )) = dt = ∂ V (x(t, x0 )) · f (x(t, x0 )) ∂x − 2x(t, x0 )2 x(t, x0 )2 − 1 weil x(t, x0 )2 > 1 für alle t ≥ 0, falls x20 > 1, dass ist, die Ljapunov-Funktion V genügt der Differentialungleichung d V (x(t, x0 )) ≤ − 2V (x(t, x0 )) dt und deshalb der Ungleichung V (x(t, x0 )) ≤ e−2t V (x0 ), ∀ t ≥ 0. (Diese letzte Ungleichung ist auch gültig trivialerweise für x0 ∈ A0 , weil V (x) = 0 für alle x ∈ A0 ). Das obige Beispiel ist ganz einfach und die Ljapunov-Funktion ist kaum notwendig. Aber es existiert eine solche Ljapunov-Funktion auch für komplizierte Attraktoren, z.B. wenn A0 eine fraktale Menge ist, wie für die Lorenz’ schen Gleichungen. Weil dieser Attraktor die Nullmenge von V ist, können wir nicht erwarten, dass V glatt ist. In der Praxis können wir eine explizite Funktion V fast nie finden, aber deren theoretische Existenz und Eigenschaften sind noch sehr nützlich. Sei Φ(t, x0 ) die Lösungsabbildung einer autonomen DGL dx = f (x), dt x ∈ Rd , 119 KAPITEL 17. MENGENWERTIGE ATTRAKTOREN und sei A0 eine nichtleer kompakte Menge, die invariant bzg. Φ ist, dass ist, mit Φ(t, A0 ) ≡ A0 , ∀t ≥ 0. Wir können die Begriffe Ljapunov-Stabilität“ und asymptotische Stabi” ” lität“ von einer Ruhelage zu einer solchen Menge A0 verallgemeinern. Definition 1: Eine Menge A0 heißt Ljapunov-stabil, wenn zu jedem ε > 0 es ein δ = δ(ε) > 0 existiert mit folgender Eigenschaft: dist(x0 , A0 ) < δ ⇒ dist (Φ(t, x0 ), A0 ) < ε ∀t≥0. Definition 2: Eine Menge A0 heißt (global) gleichmäßig attrahierend, wenn zu jedem ε > 0 und zu jeder beschränkten Menge D ein TD,ε > 0 existiert mit der Eigenschaft: dist (Φ(t, x0 ), A0 ) < ε ∀ t ≥ TD,ε und x0 ∈ D. Definition 3: Eine Menge A0 heißt (global) gleichmäßig asymptotisch stabil, falls sie Ljapunov-stabil und (global) gleichmäßig attrahierend ist. Bemerkung: Eine Ljapunov-stabile Menge A0 ist mindestens Φ-positiv invariant, d.h., Φ(t, A0 ) ≡ A0 für alle t ≥ 0. Bemerkung: Ein globaler Attraktor ist global gleichmäßig asymptotisch stabil. Der japanische Mathematiker T. Yoshizawa hat bewiesen, dass die Existenz einer Ljapunov- Funktion wie in dem Beispiel eine hinreichende und notwendige Bedingung für gleichmäßig asymptotische Stabilität sei. Der Beweis für Differenzengleichungen ist in dem Buch von Stuart/Humphries zu finden. KAPITEL 17. MENGENWERTIGE ATTRAKTOREN Satz (Yoshizawa) 120 Genüge die Vektorfeldfunktion der DGL dx = f (x), dt x ∈ Rd , einer lokalen Lipschitz-Bedingung. Eine nichtleer kompakte Menge A0 ist global gleichmäßig asymptotisch stabil genau dann, wenn es eine Ljapunov-Funktion V : Rd → R+ existiert mit folgenden Eigenschaften: (1) Es existieren Funkionen α, β : R+ → R+ , die stetig und streng monoton wachsend sind, mit α(0) = β(0) = 0 und 0 < α(r) < β(r) für r > 0, so dass α(dist(x, A0 )) ≤ V (x) ≤ β(dist(x, A0 )), (2) V genügt einer lokalen Lipschitz-Bedingung: |V (x) − V (y)| ≤ LR |x − y| für alle x, y mit dist(x, A0 ), dist(y, A0 ) ≤ R, und jedes R > 0. (3) Es existiert eine Konstante c > 0, so dass V (Φ(t, x0 )) ≤ e−ct V (x0 ) . Wir werden die Existenz einer solchen Ljapunov-Funktion benutzen, um die Existenz eines numerischen Attraktors zu etablieren. Kapitel 18 Diskretisierung eines Attraktors: allgemeiner Fall Betrachte eine autonome DGL in Rd dx = f (x), dt die eine gleichmäßig asymptotische stabile Menge A0 besitzt. Dann betrachte ein entsprechendes Einschrittverfahren xn+1 = xn + hF (h, xn ), mit konstanter Schrittweite h > 0, das konsistent ist und die globale Ordnung p ≥ 1 hat. Sei Φ(t, x0 ) die Lösung obiger DGL und Φh (x0 ) = x0 + hF (h, x0 ) die Abbildung des numerischen Verfahrens. Für eine (p + 1)-mal stetig differenzierbare Funktion f haben wir die folgende Abschätzung für den globalen Diskretisierungsfehler: kΦnh (x0 ) − Φ(nh, x0 )k ≤ CT,D · hp für n = 0, 1, . . ., ⌊T /h⌋ (Integerteil) und x0 ∈ D, wobei D eine kompakte Teilmenge von Rd ist. Eine solche Abschätzung ist nutzlos für den Fall T → ∞, weil CT,D ∼ eαT → +∞. Aber mit einer Ljapunov-Funktion V und dem lokalen Diskretisierungsfehler, kΦh (x0 ) − Φ(h, (x0 )k ≤ KD · hp+1 , x0 ∈ D kompakt können wir die Existenz eines naheliegenden numerischen Attraktors etablieren. 121 KAPITEL 18. DISKRETISIERUNG EINES ATTRAKTORS: ALLGEMEINER FALL122 Satz (Kloeden/Lorenz 1986) Sei f : Rd → Rd eine (p + 1)-mal stetig differenzierbare Funktion und besitze die DGL dx = f (x), dt eine gleichmäßig asymptotisch stabile kompakte Menge A0 . Dann für h > 0 genügend klein besitzt das Einschrittverfahren xn+1 = Φh (xn ) := xn + hF (h, xn ) einen maximalen Attraktor Ah , für welchen dist (Ah , A0 ) → 0 für h → 0 + . Beweis Sei V eine Ljapunov-Funktion, die die gleichmäßig asymptotische Stabilität der Menge A0 charakterisiert. Wähle R0 ≫ 0 und halte R0 fest. Schreibe N (A0 , R0 ) = x ∈ Rd : dist(x, A0 ) < R0 für die R0 -Umgebung der Menge A0 . Als die Menge D in der Abschätzung des lokalen Diskretisierungsfehlers wählen wir D = N (A0 , R0 ) und schreiben wir KR0 für die entsprechende Konstante. Definiere: hR0 := R0 2KR0 Hilfssatz 1 1/(p+1) , R0 r0 := β −1 α 2 ⇒ r0 ≤ R0 . 2 Φh (x0 ) ∈ N (A0 , R0 ) für x0 ∈ N (A0 , r0 ) und h ≤ hR0 . Beweis Für die DGL-Lösung haben wir α(dist (Φ(h, x0 ), A0 )) ≤ V (Φ(h, x0 )) ≤ e−ch V (x0 ) < V (x0 ) aber V (x0 ) ≤ β(dist(x0 , A0 )) = β(r0 ) ≤ β ◦ β −1 ◦ α(R0 /2) = α(R0 /2) , dass ist α(dist (Φ(h, x0 ), A0 )) < α(R0 /2) oder dist (Φ(h, x0 ), A0 ) < R0 /2 . KAPITEL 18. DISKRETISIERUNG EINES ATTRAKTORS: ALLGEMEINER FALL123 Wegen der Dreiecksungleichung haben wir dann dist (Φh (x0 ), A0 ) ≤ Hilfssatz 2 kΦh (x0 ) − Φ (h, x0 )k + dist (Φ(h, x0 ), A0 ) ≤ KR0 hp+1 + R0 /2 ≤ R0 /2 + R0 /2 = R0 für h ≤ hR0 . Für x0 ∈ N (A0 , r0 ) und h ≤ hR0 gilt die Ljapunov-Ungleichung: V (Φh (x0 )) ≤ e−ch V (x0 ) + LR0 KR0 hp+1 . Beweis Sei Φh (x0 ), Φ(h, x0 ) ∈ N (A0 , R0 ). Dann folgen die Ungleichungen V (Φh (x0 )) ≤ |V (Φh (x0 )) − V (Φ(h, x0 ))| + V (Φ(h, x0 )) ≤ LR0 kΦh (x0 ) − Φ(h, x0 )k + e−ch V (x0 ) ≤ LR0 KR0 hp+1 + e−ch V (x0 ), wobei wir die Lipschitz-Bedingung, die exponentielle abfallende Eigenschaft und den lokalen Diskretisierungsfehler benutzt haben. Jetzt wollen wir eine Φh -positiv invariante Menge finden, in welcher diese Ungleichung für jede Iteration des numerischen Verfahrens gültig bleibt. Hilfssatz 3 Die Menge U := x ∈ Rd : V (x) < α(r0 ) ist offen mit A0 ⊂ U ⊂ N (A0 , r0 ). Außerdem ist sie Φh -positiv invariant für jedes h < h∗R0 , wobei h∗R0 das größte h ≤ hR0 ist, für welches 1 1 −1 KR0 LR0 hp+1 ≤ α β (α(r )) . 0 1 − e−ch 4 2 Wir verwenden, dass KR0 LR0 hp+1 K R0 L R0 p ∼ h 1 − e−ch c gilt Beweis V ist stetig und V −1 (0) = A0 . Daher ist A0 ⊂ U. Auch für x0 ∈ U α(dist(x, A0 )) ≤ V (x) < α(r0 ) , KAPITEL 18. DISKRETISIERUNG EINES ATTRAKTORS: ALLGEMEINER FALL124 mit der Monotonie von α(·) erhalten wir für x ∈ U , dass dist(x, A0 ) < r0 x ∈ N (A0 , r0 ). ⇒ Sei x0 ∈ U. Dann ist x0 ∈ N (A0 , r0 ) und die Ljapunov-Ungleichung ergibt: V (Φh (x0 )) ≤ e−ch V (x0 ) + KR0 LR0 hp+1 < e−ch α(r0 ) + KR0 LR0 hp+1 1 2 β −1 (α(r0 )). Dann gilt 1 −1 α(r∗ ) < β(r∗ ) = β β (α(r0 )) < β(β −1 (α(r0 ))) = α(r0 ) . 2 Definiere: r∗ := Auch für h < h∗R0 haben wir 1 1 KR0 LR0 hp+1 ≤ α(r∗ ) ≤ α(r0 ) , −ch 1−e 4 4 und deshalb: KR0 LR0 hp+1 ≤ 1 α(r0 ) (1 − e−ch ) . 4 Von oben haben wir dann 1 (1 − e−ch )α(r0 ) 4 1 3 −ch α(r0 ) < α(r0 ) + e = 4 4 < e−ch α(r0 ) + V (Φh (x0 )) ⇒ Φh (x0 ) ∈ U, dass ist Φh (U) ⊆ U. Wir beschränken uns zu dieser Menge U und Schrittweite h < h∗R0 . Jetzt wollen wir eine Φh -positiv invariante absorbierende Menge Λh konstruieren. Hilfssatz 4 Definiere η(h) := und Λh := 2KR0 LR0 hp+1 , 1 − e−ch x ∈ Rd : V (x) ≤ η(h) für jedes h < h∗R0 . Dann ist Λh nichtleer, kompakt und Φh -positiv invariant mit dist(Λh , A0 ) → 0 für h → 0+ . Beweis Offensichtlich gelten die Ungleichungen η(h) ≤ 1 1 α(r∗ ) < α(r0 ) < R0 . 2 2 KAPITEL 18. DISKRETISIERUNG EINES ATTRAKTORS: ALLGEMEINER FALL125 V ist stetig, so V −1 ([0, η(h)]) ist abgeschlossen. Außerdem ist A0 = V −1 (0) ⊂ V −1 ([0, η(h)]) = Λh . Daher ist Λh nichtleer und genügt dist(Λh , A0 ) ≤ α−1 (η(h)), dist(A0 , Λh ) = 0, weil α(dist(x, A0 )) ≤ V (x) ≤ η(h) für alle x ∈ Λh . Diese Ungleichung und die Kompaktheit von A0 zeigen, dass Λh beschränkt ist – daher ist Λh auch kompakt. Sei x0 ∈ Λh . Dann gilt die Ungleichung V (Φh (x0 )) ≤ e−ch V (x0 ) + KR0 LR0 hp+1 ≤ e−ch η(h) + = ⇒ 1 η(h) (1 − e−ch ) 2 1 (1 + e−ch )η(h) < η(h) 2 Φh (x0 ) ∈ Λh , dass ist Φh (Λh ) ⊆ Λh . Schließlich müssen wir zeigen, dass Λh absorbierend ist. Es existiert h∗ ≤ h∗R0 , für welches Hilfssatz 5 1 V (Φh (x0 )) ≤ e− 4 ch V (x0 ) für jedes x0 ∈ U \ Λh und h ∈ (0, h∗ ). Beweis Sei x0 ∈ U \ Λh . Dann ist V (x0 ) > η. Deshalb folgt: V (Φh (x0 )) ≤ = e−ch V (x0 ) + KR0 LR0 hp+1 e−ch V (x0 ) + 1 2 1 1 − e−ch η(h) < 2 1 Jetzt betrachten wir die Ungleichung: 1 2 1 1 + e−ch < e− 4 ch . 1 + e−ch V (x0 ) . 1 2 die für alle 0 < h < h∗ gilt (wir wählen ein geeignetes h∗ ≤ h∗R0 ). 1 e− 4 ch h∗ KAPITEL 18. DISKRETISIERUNG EINES ATTRAKTORS: ALLGEMEINER FALL126 Deshalb haben wir 1 V (Φh (x0 )) < e− 4 ch V (x0 ) . Hilfssatz 6 Die Menge Λh ist absorbierend (bzg. U) für h ∈ (0, h∗ ). Beweis Sei x0 ∈ U \ Λh . Dann gilt die Ungleichung 1 V (Φh (x0 )) ≤ e− 4 ch V (x0 ) . Sei x0 , Φh (x0 ) ∈ U \ Λh . Dann haben wir V (Φ2h (x0 )) ≤ e− 4 ch V (Φh (x0 )) ≤ e−2( 4 ch) V (x0 ) . 1 1 Ähnlicherweise für x0 , Φh (x0 ), Φ2h (x0 ), . . ., Φjh (x0 ) ∈ U \ Λh haben wir j j − 4 ch V (Φj+1 V (x0 ) ≤ e− 4 ch α(r0 ) . h (x0 )) ≤ e Definiere: Nh = 1 + Dann gilt 4 ln ch α(r0 ) η(h) h +1 V ΦN (x0 ) ≤ η(h) h ⇒ Integerteil h +1 ΦN (x0 ) ∈ Λh . h Wir können jetzt den maximalen (bzg. U) numerischen Attraktor definieren: \ j Φh (Λh ) . Ah := j≥0 Offensichtlich gilt Ah ⊂ Λh . Deshalb folgt dist (Ah , A0 ) ≤ dist (Ah , A0 ) → 0 für h → 0+ . Wir haben den Satz bewiesen! Gegenbeispiel: Im allgemeinen können wir nicht beweisen, dass dist(A0 , Ah ) → 0 für h → 0+ . (Siehe das Beispiel im Kapitel 16.) Kapitel 19 Sattelpunkte Jetzt wollen wir den Fall betrachten, für welchen eine Ruhelage ein Sattelpunkt ist. Eine solche Ruhelage ist offensichtlich instabil. Wir werden durch eine Reihe von Beispiele untersuchen was passieren kann. Beispiel 1: Betrachte die lineare DGL in R2 ! " # ! d x 1 0 x = dt y 0 −1 y Die einzige Ruhelage ist (x∗ , y ∗ ) = (0, 0). Sie ist instabil, weil die Matrix " # 1 0 A= 0 −1 die Eigenwerte ±1 besitzt. Die entsprechenden Eigenvektoren sind 1 0 λ1 = +1, v1 = und λ2 = − 1, v2 = . 0 1 Die Matrix A ist eine diagonale Matrix. Daher sind die beiden Komponenten entkoppelt und wir können jedes Teilsystem unabhängig lösen. dx =x dt ⇒ x(t) = x0 et , dy = −y ⇒ y(t) = y0 e−t dt Das Verhalten dieser Lösung hängt von dem Anfangswert (x0 , y0 ) ab. Fall 1: x0 = y0 = 0 Fall 2: x0 6= 0, y0 = 0 ⇒ x(t) ≡ y(t) ≡ 0 ⇒ x(t) = x0 et mit y(t) ≡ 0 127 die Ruhelage! 128 KAPITEL 19. SATTELPUNKTE ist) Hier gilt es x(t) → ±∞ für t → ∞, wo ± = sign(x0 ), oder (was günstiger x(t) → 0 für t → −∞ . Die Lösungskurve hier gehört zu der x-Achse, d.h. in der Richtung des instabilen Eigenvektors. Fall 3: x0 = 0, y0 6= 0 ⇒ x(t) ≡ 0 mit y(t) → 0 für t → +∞. Die Lösungskurve gehört zu der y-Achse, d.h. die Richtung des stabilen Eigenvektors. Fall 4: x0 6= 0 und y0 6= 0. Hier gilt es (x(t), y(t)) → (±∞, 0) für t → +∞ (x(t), y(t)) → (0, ±∞) für t → −∞ und y x Die x-Achse heißt instabile Mannigfaltigkeit und die y-Achse stabile Mannigfaltigkeit. Die beiden sind lineare Teilräume des Zustandsraums R2 , die wir durch E u und E s beschreiben. Beispiel 2: Betrachte die lineare DGL in R2 ! " # d x 1 0 = dt y 1 −1 x y ! 129 KAPITEL 19. SATTELPUNKTE Die einzige Ruhelage ist (x∗ , y ∗ ) = (0, 0), die instabil ist , weil die Matrix " # 1 0 A= 1 −1 die Eigenwerte ±1 besitzt. Die entsprechenden Eigenvektoren sind 2 0 λ1 = +1, v1 = und λ2 = − 1, v2 = . 1 1 Die Matrix A ist eine dreieckige Matrix. Daher können wir für den x-Komponenten allein lösen und dann diese Lösung in die y-Gleichung einfügen: dx =x dt ⇒ x(t) = x0 et , und daher dy = x − y = −y + x0 et dt ⇒ 1 1 y(t) = y0 − x0 e−t + x0 et 2 2 Für x0 = y0 = 0 haben wir x(t) ≡ y(t) ≡ 0 (die Ruhelage!) und für x0 = 0, y0 6= 0 haben wir x(t) ≡ 0 und y(t) → 0 für t → +∞. In diesem Fall gehört die Lösungskurve zu der y-Achse, d.h. zu der Richtung des stabilen Eigenvektors. Daher ist die stabile Mannigfaltigkeit E s ≡ y-Achse. Die instabile Mannigfaltigkeit E u ist nicht die x-Achse, sondern entlang dem instabilen Eigenvektor, d.h. die Gerade y = 21 x. Um dies zu zeigen, definieren wir 1 z := y − x 2 Dann lautet dy 1 dx 1 1 dz = − = x − y − x = − y − x = −z. dt dt 2 dt 2 2 Die DGL dz =−z dt hat die Ruhelage z ∗ = 0 und die Lösung z(t) = z0 e−t , die gegen 0 strebt für t → ∞, d.h. die Ruhelage z ∗ = 0 ist asymptotisch stabil. Aber die Ruhelage z ∗ = 0 entspricht auf der Gerade y = Φu (x) := 1 x, 2 die daher die instabile Mannigfaltigkeit E u ist. Daher ist die instabile Mannigfaltigkeit E u asymptotisch stabil! (das klingt wie ein Widerspruch!). Dieses Beispiel ist tatsächlich nur eine transformierte Version des ersten Beispieles – die Matrizen sind ähnliche Matrizen. 130 KAPITEL 19. SATTELPUNKTE Es E u (y = Φu (x) = 12 x Beispiel 3: Betrachte jetzt die nichtlinearen DGL in R2 dx dy = x, = −y + x2 , dt dt die die DGL im ersten Beispiel als ihre Linearisierung hat. Daher sind die linearen (stabile bzw.instabile) Mannigfaltigkeiten E s bzw.E u die y− bzw. xAchsen. Offensichtlich haben wir x(t) = x0 et in dem nichtlinearen Fall. Aber x(t) = x0 et mit y(t) ≡ 0 ist keine Lösung der nichtlinearen DGL und deshalb kann die x-Achse nicht die instabile Mannigfaltigkeit dieser DGL sein. Aber x(t) ≡ 0 mit y(t) = y0 e−t ist eine Lösung der nichtlinearen DGL und (x(t), y(t)) = (0, y0 e−t ) → (0, 0) für t → ∞ . Hier bleibt die lineare stabile Mannigfaltigkeit E s (die y-Achse) die stabile Mannigfaltigkeit W s des nichtlinearen Systems. Frage: Wie ist die nichtlineare instabile Mannigfaltigkeit W u = {(x0 , y0 ) ∈ R2 | (x(t), y(t)) → (0, 0) für t → −∞} ? (Die Konvergenz hier ist rückwärts in Zeit). Diese Kurve soll eine invariante Kurve der DGL sein. Sei W u durch y := Φu (x) definiert. Dann müssen wir y(t) = Φu (x(t)) ∀t ≤ 0 131 KAPITEL 19. SATTELPUNKTE haben, falls y0 = Φu (x0 ). Deshalb soll d d y(t) ≡ Φu (x(t)) dt dt gelten, d.h. dΦu dx dy = (x(t)) · dt dx dt Aber dx dy = x und = −y + x2 = −Φu (x) + x2 . dt dt Daher erhalten wir die DGL für Φu = Φu (x) x dΦu + Φu = x2 dx (∗) mit dem Anfangswert Φu (0) = 0 . Die DGL (∗) ist linear in Φu mit x2 = x dΦu d + Φu = {xΦu (x)} dx dx Wir integrieren die beiden Seiten und erhalten x 1 3 1 3 x x = xΦu (x) x = xΦu (x) ⇒ 3 3 0 0 oder y = Φu (x) := 1 2 x 3 . Betrachte die Transformation z := y − Φu (x) = y − 1 2 x . 3 Dann gilt: dy d dz = − dt dt dt d.h., die DGL 1 2 x 3 = dy 2 dx 1 − x = −y + x2 = −z dt 3 dt 3 dz = −z ⇒ z(t) = z0 e−t → 0 = z ∗ dt Wie oben, bedeutet dies , dass die instabile Mannigfaltigkeit W u der nichtlinearen DGL asymptotisch stabil ist. 132 KAPITEL 19. SATTELPUNKTE y = Φu (x) = 31 x2 Wu Eu W s ≡ Es Die nichtlineare instabile Mannigfaltigkeit W u und die lineare instabile Mannigfaltigkeit E u sind tangentiell in (x∗ , y ∗ ) = (0, 0), weil y = Φu (x) = 1 2 x ⇒ 3 dΦu 2 (x) = x ⇒ Φu (0) = 0, dx 3 dΦu (0) = 0 . dx Bemerkung: Der Hartmann-Grobmann-Satz sagt, dass die linearen und nichtlinearen Phasenbilder hier homöomorphisch sind (mindestens in einer Umgebung der Ruhelage). Kapitel 20 Sattelpunkte und das Euler-Verfahren Wir fangen mit dem linearen Fall an. Betrachte die lineare DGL dx = Ax dt und das entsprechende Euler-Verfahren xn+1 = xn + hAxn = (I + hA) xn Sei λ ein Eigenwert der Matrix A und V 6= 0 der entsprechende Eigenvektor, also AV = λV . Dann ist V auch Eigenvektor der Euler-Matrix I + hA mit entsprechendem Eigenwert 1 + λh: (I + hA)V = V + hAV = V + hλV = (1 + hλ)V . Jetzt sei die Ruhelage der DGL x∗ = 0 ein hyperbolischer Punkt (z.B., Sattelpunkt): Re(λ) 6= 0. Sei λ = α + iβ. Dann gilt 1 + hλ = (1 + αh) + iβh . Die Ruhelage x∗ = 0 des Euler-Verfahrens ist auch ein hyperbolischer Punkt, falls 1 6= |1 + hλ|2 = (1 + αh)2 + β 2 h2 Für α < 0 brauchen wir h genügend klein, um |1 + λh| < 1 zu erzwingen: 1 + 2αh + (α2 + β 2 )h2 < 1 133 ⇒ 0<h< −2α + β2 α2 KAPITEL 20. SATTELPUNKTE UND DAS EULER-VERFAHREN 134 Für α > 0 gilt |1 + λh| > 1 für alle h > 0. Jetzt betrachten wir den 2-dimensionalen Fall mit λ1 , λ2 reell, wobei λ1 < 0 < λ2 ist. . V1 stabil E s V2 instabil E u Für 0 < h < −2/λ1 haben wir ein ähnliches Bild für das Euler-Verfahren mit stabiler Mannigfaltigkeit Ehs ≡ E s und instabiler Mannigfaltigkeit Ehu ≡ E u . 20.1 Ein nichtlineares Beispiel: Der nichtlineare Fall ist komplizierter, weil die stabilen Mannigfaltigkeiten (bzw. instabilen) nicht identisch zu sein brauchen. Betrachte das nichtlineare System dx = x, dt dy = −y + x2 dt Das linearisierte DGL hat die folgende Matrix mit den Eigenwerten/Eigenvektoren ! 1 " # 1, V1 = ⇒ Eu λ1 = 0 1 0 ! A= 0 −1 0 ⇒ Es λ2 = −1, V2 = 1 Für das nichtlineare System sind KAPITEL 20. SATTELPUNKTE UND DAS EULER-VERFAHREN 135 • stabile Mannigfaltigkeit: W s ≡ E s , • instabile Mannigfaltigkeit W u 6= E u , wobei W u entspricht dem Graph der Abbildung Y = Φu (x) = 1 2 x 3 y Wu x Ws Das Euler-Verfahren hat hier die Vorschrift xn+1 = xn + hxn = (1 + h)xn yn+1 = yn − hyh + hx2n = (1 − h)yn + hx2n . Die linearen stabilen/unstabilen Mannigfaltigkeiten sind Ehs ≡ E s (y-Achse) und Ehu ≡ E u (x-Achse). Auch in diesem Beispiel ist Ehs ≡ y-Achse, die nichtlineare stabile Mannigfaltigkeit Whs , weil (für h < 1) xn ≡ 0 ⇒ yn = (1 − h)h y0 → 0 für n → +∞ eine Lösung der Euler-Differenzengleichung ist. Also Whs = W s = Ehs = E s . Aber, wie für die nichtlineare DGL, keine Lösung liegt auf der x-Achse (= Deshalb müssen wir eine Funktion y = Φh (x) suchen, deren Graph die nichtlineare instabile Mannigfaltigkeit Whu ist. Natürlich brauchen wir Ehu ). Φh (0) = 0 KAPITEL 20. SATTELPUNKTE UND DAS EULER-VERFAHREN 136 und der Graph von Φh soll eine invariante Kurve des Euler-Verfahrens sein, d.h. yn = Φh (xn ) ⇐⇒ yn+1 = Φh (xn+1 ) . Wir können eine algebraische Gleichung für die unbekannte Funktion Φh herleiten. Wir haben yn+1 = Φh (xn+1 ) = Φh ((1 + h)xn ) sowie yn+1 = (1 − h)yn + hx2n = (1 − h)Φh (xn ) + hx2n , dass ist, wir erhalten eine Funktionengleichung Φh ((1 + h)x) = (1 − h)Φh (x) + hx2 ∀x ∈ R mit Φh (0) = 0 Wir können die quadratische Form der von W u , d.h. Φ(x) = weis nehmen. 1 3 x2 als Hin- Probiere: y = αx2 . Dann müssen wir haben: (1 − h)αx2 + hx2 = α(1 + h)2 x2 oder (1 − h)α + h = α(1 + h)2 Wir erhalten ⇒ α(1 + 2h + h2 − 1 + h) = h y = Φh (x) := 1 x2 3+h ⇒ α= 1 3+h . Wir haben den Approximationsfehler 1 1 1 h − x2 = x2 ≤ hx2 , |Φh (x) − Φ(x)| = 3+h 3 3(3 + h) 9 der die gleiche Ordnung (p = 1) des Euler-Verfahrens ist. Die numerische nichtlinear instabile Mannigfaltigkeit Whu attrahiert alle andere Lösungen des Euler-Verfahrens. Definiere z := y − Φh (x) = y − Dann gilt zn+1 = yn+1 − 1 x2 3 + h n+1 1 x2 3+h KAPITEL 20. SATTELPUNKTE UND DAS EULER-VERFAHREN = = 137 1 (1 + h)2 x2n 3+h h(3 + h) − (1 + h)2 (1 − h)yn + x2n 3+h {(1 − h)yh + hx2n } − = (1 − h)yn + = (1 − h)yh − (1 − h) 2 x 3+h n = (1 − h) yh − = (1 − h)zh 3h + h2 − 1 − 2h − h2 ) 3+h 1 x2 3+h h x2n D.h. zn+1 = (1 − h)zn und daher haben wir zn = (1 − h)n z0 → 0 für n → ∞. Deshalb haben wir ein ähnliches Phasenbild für das Euler-Verfahren. Whu Whs Aber eine DGL-Lösung und eine numerische Lösung mit demselben Anfangswert (x0 , y0 ) können ein ganz anderes Verhalten haben. Wir können dieses Phänomen besser veranschaulichen mit umgekehrten Zeitrichtungen in dem obigen Beispiel. KAPITEL 20. SATTELPUNKTE UND DAS EULER-VERFAHREN Wu Whu exakte Lösung Whs Ws 138 Whs Ws numerische Lösung Whu Wu Wenn wir eine numerische Lösung brauchen, die einer bestimmten DGLLösung folgt, müssen wir entweder ein besseres numerisches Verfahren benutzen oder den Anfangswert anpassen (so dass die beiden Lösungen an derselben Seite der entsprechenden stabilen Mannigfaltigkeit liegen). Wu Whu exakte Lösung modifizierter Startpunkt Whs Whs Startpunkt Ws Ws e Whu Wu Kapitel 21 Geometrische Integratoren Geometrische Integratoren sind numerische Verfahren, die gewisse Invarianten einer Differentialgleichung unter Diskretisierung erhalten. Sie sind wichtig in der Mechanik. 21.1 Der harmonische Oszillator Betrachte die lineare Differentialgleichung dx = Ax, dt mit der Rotationsmatrix A= " x ∈ R2 , (21.1) # (21.2) 0 1 −1 0 . Aufgabe: Zeigen Sie, dass A⊤ +A = 0, A⊤ A = I und x⊤ Ax ≡ 0 für alle x ∈ R2 . Daher haben wir d d x(t)⊤ x(t) = 2x(t)⊤ x(t) = 2x(t)⊤ Ax(t) ≡ 0 dt dt und es folgt, dass die Lösungskurven Kreise sind, d.h., x(t)⊤ x(t) ≡ x⊤ 0 x0 for all t ∈ R oder eine Ruhelage x0 = 0 im triviallen Fall. Die nichttriviallen Lösungen sind in die Uhrzeitrichtung gerichtet. Warum? (Vektorfeld!). Betrachte jetzt das explizite Eulerverfahren mit konstanter Schrittweite h > 0, xn+1 = xn + hAxn . 139 KAPITEL 21. GEOMETRISCHE INTEGRATOREN 140 Dann gilt ⊤ x⊤ n+1 xn+1 = (xn + hAxn ) (xn + hAxn ) ⊤ 2 ⊤ ⊤ = x⊤ n xn + 2hxn .Axn + h xn A Axn = 1 + h2 x⊤ n xn , ⊤ weil x⊤ n Axn ≡ 0 für jedes n und A A = I. Es folgt durch Induktion, dass 2 n ⊤ x0 x0 → ∞ für n → ∞ kxn k2 = x⊤ n xn = 1 + h für alle x0 6= 0. Das Eulerverfahren konvergiert auf jedem endlichen Intervall, aber es kann das asymptotische (“Langzeit”) Verhalten der Differentialgleichung nicht wiedergeben. Geht es mit dem impliziten Eulerverfahren mit konstanter Schrittweite h > 0 besser? Dieses Verfahren lautet xn+1 = xn + hAxn+1 und es gilt (I − hA) xn+1 = xn . Wir erhalten x⊤ n xn ⊤ = x⊤ n+1 (I − hA) (I − hA) xn+1 2 ⊤ = x⊤ n+1 I − 2hA + h A A xn+1 2 = x⊤ xn+1 n+1 1 + h = und daher gilt 1 + h2 x⊤ n+1 xn+1 2 kxn+1 k2 = x⊤ n+1 xn+1 = 1 + h Es folgt, dass −1 x⊤ n xn . 1 kx0 k2 → 0 für n → ∞, (1 + h2 )n d.h. alle numerische Lösungen streben gegen Null. Dies hat nichts mit dem langfristigen dynamischen Verhalten der Differentialgelicheung zu tun. kxn k2 = 21.1.1 Hamiltonsche Systeme Die lineare 2-dimensionale Differentialgleichung erster Ordnung (21.1) entspricht der skalaren Differentialgleichung zweiter Ordnung d2 x + x(t) = 0 dt2 (21.3) KAPITEL 21. GEOMETRISCHE INTEGRATOREN 141 mit den Phasenvariablen x1 (t) = x(t) und x2 (t) = dx dt (t). Diese DGL ist eine Sonderform (mit ω = 1) der harmonsichen Oszillatorgleichung d2 x + ω 2 x(t) = 0 dt2 (21.4) in der Quantenmechanik, die ein einfaches Beispiel eines Hamiltonschen Systems ist: dp ∂H dq ∂H =− , = (21.5) dt ∂q dt ∂p für eine gegebene Hamiltonsche Funktion H = H(p, q), wobei p, p ∈ Rd für d ≥ 1 kanonische Phasenvariablen sind. Beispiel 1. Die harmonsiche Oszillatorgleichung ist ein Hamiltonsches System mit den skalaren Phasenvariablen q(t) = x(t), p(t) = dx dt (t) (d = 1 hier). Die Hamiltonschen Funktion ist 1 2 p + q2 H(p, q) := 2 und die Differentialgleichung lautet dp ∂H =− = −q, dt ∂q dq ∂H = = p. dt ∂p Beispiel 2. Das Keplersche Zweikörperproblem beschreibt die Bewegung von zwei Planeten. In normalisierter Form lauten die Differentialgleichungen ! ! ! ! −1 d d p1 p1 q1 q1 (21.6) = 2 = , dt dt (q1 + q22 )3/2 p2 p2 q2 q2 Dieses System ist ein Hamiltonsches System auf R4 mit der Hamiltonschen Funktion 1 2 1 H(p1 , p2 , q1 , q2 ) := p1 + p22 − p 2 . 2 q1 + q22 Der folgende Satz beschreibt eine wichtige Eigenschaft von Hamiltonschen Systemen. Satz Die Hamiltonsche Funktion ist konstant entlang der Lösungen eines Hamiltonschen Systems. Beweis: gilt Sei (p(t), q(t)) eine Lösung des Hamiltonschen Systems (21.5). Dann d H(p(t), q(t)) dt = ∂H dp ∂H dq + ∂p dt ∂q dt = − ∂H ∂H ∂H ∂H + ≡ 0. ∂p ∂q ∂q ∂p Daher haben wir H(p(t), q(t)) ≡ H(p(t0 ), q(t0 )). 142 KAPITEL 21. GEOMETRISCHE INTEGRATOREN Dieser Satz sagt, dass die Hamiltonsche Funktion eine Invariante des Hamiltonschen Systems ist. In der Mechanik ist eine Invariante oft die totale Energie (kinetische plus potenzielle) des Systems. Aber ein Hamiltonsches System kann auch andere Invarianten besitzen. Zum Beispiel, q1 p2 − q2 p1 ist auch eine Invariante des Keplerschen Zweikörperproblems (21.6) (angular momentum). Aufgabe: Zeigen Sie, dass d (q1 (t)p2 (t) − q2 (t)p1 (t)) ≡ 0 dt für das Differentialgleichungssystem (21.6). 21.1.2 Das “gemittelte“ Eulerverfahren Frage: Gibt es numerische Verfahren, die gewisse Invarianten einer Differentialgleichung unter Diskretisierung erhalten? Berachte nochmal die lineare Differentialgleichung (21.1) mit der Rotationsmatrix A definiert durch (21.2). Die Lösungskurven sind Kreise um den Ursprung. Wir haben gesehen, dass weder das explizite Eulerverfahren noch das implizite Eulerverfahren die Invarianz dieser Lösungskreise erhält. Im ersten Fall explodieren die nichttrivaillen Lösungen und im zweiten Fall konvergieren alle Lösungen gegen den Ursprung. Was passiert, wenn wir das “gemittelte“ Verfahren betrachten, d.h., 1 1 xn+1 = xn + hAxn + hAxn+1 ? 2 2 (21.7) Vielleicht gleichen sich die zunehmende und abfallende Wirkung der einzelnen Verfahren aus? Wir können (21.7) umschreiben als 1 1 I − hA xn+1 = I + hA xn (21.8) 2 2 und daher ⊤ ⊤ 1 1 1 1 ⊤ ⊤ I − hA xn+1 = xn I + hA I + hA xn xn+1 I − hA 2 2 2 2 ⊤ Der Ausdruck I ± 21 hA I ± 21 hA läßt sich entwickeln als 1 2 ⊤ 1 2 1 ⊤ I ± (A + A) + h A A = 1 + h I, 2 4 4 weil A⊤ + A = 0 und A⊤ A = I sind. KAPITEL 21. GEOMETRISCHE INTEGRATOREN 143 Dann ist der Term auf der linken Seite von (21.8) gleich 1 1 + h2 x⊤ n+1 xn+1 , 4 und der Term auf der rechten Seite von (21.8) ist gleich 1 1 + h2 x⊤ n xn . 4 Daher lautet das “gemittelte“ Verfahren (21.7) 1 1 2 1 + h2 x⊤ x = 1 + x⊤ h n+1 n+1 n xn 4 4 oder, einfacher, ⊤ x⊤ n+1 xn+1 = xn xn . Dies bedeutet, dass ⊤ x⊤ n xn ≡ x0 x0 , n = 0, 1, 2, · · · , d.h., die Kreise um den Ursprung bleiben invariant unter Diskretisierung durch das “gemittelte“ Verfahren (21.7). Frage: Welche numerischen Verfahren erhalten welche Invarianten einer Differentialgleichung unter Diskretisierung? Kapitel 22 Symplektische Integratoren Die Dynamik des linearen harmonischen Oszillators (21.1) ist eine rigide Rotation. Die Fläche eines Gebietes (sowie die Gestalt des Gebietes) ist invariant unter der Dynamik. Für eine nichtlineare Differentialgleichung können wir nicht erwarten, dass die Gestalt des Gebietes unverändert bleibt, aber die Fläche könnte eine Invariante der Dynamik sein. 22.1 Orientierte Fläche Seien x = xx12 und y = yy12 zwei Spaltenvektoren in der Ebene R2 . Die orientierte Fläche des durch x und y erzeugten Parellelogramms ist gegeben durch # " x1 y1 = x1 y2 − x2 y1 . Ω(x, y) := det[x, y] = det x2 x2 Dann gilt Ω(x, y) = x⊤ Jy, wobei J die 2 × 2 Matrix J= " 0 1 −1 0 # ist. (Diese Matrix J ist gleich die Matrix A in der linearen harmonischen Oszillatorgleichung (21.1)). Betrachte eine lineare Abbildung x 7→ Ax von R2 in R2 , wobei A eine beliebige 2 × 2 Matrix ist. Diese Abbildung bildet das durch x und y erzeugte Parellelogramm auf das durch Ax und Ay erzeugte Parellelogramm mit orientierter Fläche Ω(Ax, Ay) := det[Ax, Ay] = (Ax)⊤ J(Ay) = x⊤ A⊤ JAy 144 145 KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN ab. Die orientierte Fläche des Parellelogramms ist invariant unter dieser linearen Abbildung, falls A⊤ JA = J ist. In diesem Fall sagen wir, dass die lineare Abbildung symplektisch ist. (Merke, dass det A = ±1 ist. Warum?). Beispiel Die Matrix A in der linearen harmonischen Oszillatorgleichung (21.1) ist symplektisch, weil A = J hier und deswegen gilt es A⊤ JA = (A⊤ A)A = IA = A = J. 22.2 Symplektische Abbildungen Eine nichtlineare Abbildung g : R2 → R2 heißt symplektisch, falls ∇g(x)⊤ J∇g(x) = J für alle x ∈ R2 . Definition: Eine 2-dimensionale Differentialgleichung dx = f (x) dt heißt symplektisch, wenn die Lösungsabbildung x0 7→ Φt (x0 ) symplektisch für t genügend klein ist, d.h., falls ∇Φt (x0 )⊤ J∇Φt (x0 ) = J für alle x0 ∈ R2 (22.1) mit t genügend klein. Ein Hamiltonsches System (21.5) mit Hamiltonscher Funcktion H(p, q) kann in folgende Form umgeschrieben werden: wobei x := p q dx = J −1 ∇H(x) dt (22.2) ist. Ein berühmter Satz von Poincaré sagt, dass ein Hamiltonsches System (21.5) mit glatter Hamiltonscher Funcktion symplektisch ist. Satz Sei eine Hamiltonsche Funktion 2-mal stetig differenzierbar in R2 . Dann ist die Lösungsabbildung Φt (x0 ) für jedes feste t auf ihrem gesamten Definitionsgebiet symplektisch. Beweis: Schreibe x := p q und x0 := p0 q0 , und sei ∇0 der Gradientenope- rator bezüglich x0 . Dann ist ∇0 Φt (x0 ) die Lösung der Variationsgleichung d ∇0 Φt (x0 ) = J −1 ∇2 H (Φt (x0 )) ∇0 Φt (x0 ), dt ∇0 Φt (x0 )t=0 = I2 , KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN 146 wobei I2 die 2 × 2 Identitätsmatrix und ∇2 H (Φt (x0 )) die 2 × 2 symmetrische Hesse-Matrix ist. Die Gleichgung (22.1) gilt trivialerweise für t = 0 wegen der Anfangsbedingung der Variationsgleichung. Sei t > 0. Dann gilt d ∇Φt (x0 )⊤ J∇Φt (x0 ) = dt = ⊤ d ∇Φt (x0 ) J∇Φt (x0 ) dt d ⊤ +∇Φt (x0 ) J ∇Φt (x0 ) dt ∇0 Φt (x0 )⊤ ∇2 H (Φt (x0 ))⊤ (J −1 )⊤ J∇0 Φt (x0 ), +∇0 Φt (x0 )⊤ ∇2 H (Φt (x0 )) ∇0 Φt (x0 ), = 0, weil (J −1 )⊤ J = −I2 and J ⊤ = −J. Daher hängt der Ausdruck ∇Φt (x0 )⊤ J∇Φt (x0 ) nicht von t ab und muss gleich J sein, weil dessen Wert für t = 0 gleich J ist. Bemerkung Im Allgemeinen sind symplektische und Hamiltonsche Systeme auf R2d für d ≥ 1 definiert. In diesem Fall ist J eine 2d×2d Matrix deren Beiträgen 0 und I die d × d bzw Nullmatrix und Identitätsmatrix sind, und die Variablen p und q des Hamiltonschen Systems sind d-dimensionale Vektoren. Die lineare harmonische Oszillatorgleichung (21.3) ist die Linearisierung um die Nulllösung des nichtlinearen Oszillators, der der folgenden skalaren Differentialgleichung genügt: d2 x + sin x = 0. (22.3) dt2 Dieses System ist ein Hamiltonsches System mit der Hamiltonschen Funktion H(p, q) := 1 2 p + cos q 2 mit kanonsichen Koordinaten q(t) = x(t), p(t) = dx dt (t) (für d = 1). Die Dynamik is komplizierterer als im linearen Fall. Es gibt im Allgemeinen Rotationen, aber diese sind nicht rigid. Die Dynamik erhält die Fläche von Gebieten aber nicht deren Gestalt (siehe Bild im Buch von Hairer, Lubich und Wanner). 22.3 Symplektische numerische Verfahren Ein impliziertes Einschrittverfahern mit konstanter Schrittweite h > 0 für eine autonome Differentialgleichung auf R2 hat die allgemeine Form xn+1 = xn + hφ(h, xn , xn+1 ). (22.4) 147 KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN Wann ist dieses Verfahren ist symplektisch? Die Abbildung ∇x y muss symplektisch sein, d.h., (∇x y)⊤ J∇x y = J, wobei y durch die implizierte Gleichung y = x + hφ(x, y) gegeben ist. Es gilt ∇x y = I + h∇x φ(x, y) + h∇y φ(x, y)∇x y und daher ∇x y = [I − h∇y φ(x, y)] −1 [I + h∇x φ(x, y)] . Es ist oft einfacher, diesen Ausdruck direkt von der Differentialgleichung herzuleiten. Wir werden das Hamiltonsche System in der Form (22.2) betrachten. 22.3.1 Das symplektische Eulerverfahren Dieses Verfahren ist ein implizites Verfahren, das eine Mischung des impliziten Eulerverfahrens in der ersten Variable und des expliziten Eulerverfahrens in der zweiten Variable ist. Es lautet pn+1 = pn − h ∂H (pn+1 , qn ) ∂q (22.5) qn+1 = qn + h ∂H (pn+1 , qn ) . ∂p (22.6) Es folgt, dass ∂pn+1 ∂pn = 1 − hHp,q (pn+1 , qn ) ∂pn+1 ∂qn = −hHp,q (pn+1 , qn ) ∂pn+1 ∂pn ∂pn+1 − hHq,q (pn+1 , qn ) ∂qn und ∂pn+1 ∂pn ∂qn+1 ∂pn = hHp,p (pn+1 , qn ) ∂qn+1 ∂qn = 1 + hHq,p (pn+1 , qn ) + hHp,p (pn+1 , qn ) 2 ∂pn+1 ∂qn ∂ H Hier Hp,q = ∂p∂q , etc. Wir können dieses Gleichungssystem in die folgende Matrixform umschreiben # " # " ∂p # " ∂pn+1 n+1 1 + hHp,q 0 1 −hH q,q ∂pn ∂qn , = ∂qn+1 ∂qn+1 −hHp,p 1 0 1 + hHq,p ∂pn ∂qn KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN 148 wobei die Terme Hp,q , Hp,p etc ausgewertet für (pn+1 , qn ) sind. Man kann zeigen, dass # " ∂p ∂p P := n+1 n+1 ∂pn ∂qn+1 ∂pn ∂qn ∂qn+1 ∂qn symplektisch ist, d.h., es gilt P ⊤ JP = J. Viel einfacher ist die Determinante auszuwerten. Von # # " " # " ∂p ∂pn+1 n+1 1 −hHq,q 1 + hHp,q 0 ∂pn ∂qn , = det det det ∂qn+1 ∂qn+1 0 1 + hHq,p −hHp,p 1 ∂pn ∂qn erhalten wir (1 + hHp,q ) det P = (1 + hHq,p ) und dann det P = det " ∂pn+1 ∂pn ∂qn+1 ∂pn ∂pn+1 ∂qn ∂qn+1 ∂qn # = 1, falls die Hamiltonsche Funtion 2-mal stetig differenzierbar ist – dann gilt Hq,p ≡ Hp,q . Satz Das symplektische Eulerverfahren in R2 ist sympletisch für Hamiltonsche Funktionen, die 2-mal stetig differenzierbar sind. Satz Das symplektische Eulerverfahren hat globale Diskretisierungordnung 1. Viele Beispiele haben Hamiltonsche Funtionen, die separabel sind, d.h., haben die Form H(p, q) = T (p) + V (q). Dann lautet das symplektische Eulerverfahren ′ ′ pn+1 = pn − hV (qn ) qn+1 = qn + hT (pn+1 ) , ′ ′ wobei V und T die Abbleitungen von V und T sind. Die Hamiltonsche Funktion 1 H(p, q) := p2 + cos q 2 des nichtlinearen Oszillators (22.3) ist separabel mit 1 2 p , V (q) = cos q. 2 Das symplektische Eulerverfahren lautet in diesem Fall T (p) = pn+1 = pn + h sin qn qn+1 = qn + hpn+1 , (22.7) (22.8) 149 KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN Hier kann man direkt zeigen, dass " ∂p ∂p P := n+1 n+1 ∂pn ∂qn+1 ∂pn ∂qn ∂qn+1 ∂qn # = " 1 0 h cos qp 1 # . Offensichtlich gilt det P = 1. Es ist auch leicht direkt zu zeigen, dass P ⊤ JP = J. 22.3.2 Das Störmer-Verlet-Verfahren Störmer (1874–1957) war norwegischer Astronom und Verlet (geb. 1931) ist französischer Physiker, der im Gebiet “Molekulare Dynamik” geforscht hat. Ihr Verfahren ist ein 2-Schrittverfahren für gewöhnliche Differentialgleichungen zweiter Ordnung mit der Form d2 q = f (q). dt2 (22.9) Diese Differentialgleichung ist ein Hamiltonsches System mit einer separablen Hamiltonschen Funktion H(p, q) := 1 2 p + V (q), 2 ′ wobei f (q) = −V (q) ist. Das Störmer-Verlet Verfahren lautet qn+1 − 2qn + qn−1 = h2 f (qn ) (22.10) Man approximiert die Abbleitung zweiter Ordnung in der Differentialgleichung durch den Zentraldifferenzenquotienten zweiter Ordnung q(tn + h) − 2q(tn ) + q(tn − h) d2 q (tn ) ≈ . dt2 h2 Das Störmer-Verlet-Verfahren wird oft leap-frog method gennant (in Zusammenhang mit numerischen Methoden für partieller Differentialgleichung). Satz Das Störmer-Verlet-Verfahren hat globale Diskretisierungordnung 2. Es gibt eine 1-Schrittversion des Verfahrens. Man ersetzt die skalare Differentialgleichung (22.9) zweiter Ordnung durch das Hamiltonsche System erster Ordnung dp dq = p, = f (q). dt dt KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN 150 Erstens ersetzten wir die Abbleitung in der ersten Gleichung durch den Zentraldifferenzenquotienten erster Ordnung: pn = 1 (qn+1 − qn−1 ) . 2h (22.11) Dann erstezn wir qn−1 (22.10) durch qn−1 = qn+1 − 2hpn und erhalten qn+1 = 2qn + h2 f (qn ) − qn−1 = 2qn + h2 f (qn ) − qn+1 + 2hpn oder 1 qn+1 = qn + h pn + hf (qn ) = qn + hpn+ 12 , 2 wobei 1 pn+ 21 = pn + hf (qn ). 2 d.h. das explizite Eulerverfahren mit Schrittweite 12 h auf dem Teilintervall [tn , tn + 1 1 2 h]. Ähnlich approximieren wir p auf dem Teilintervall [tn , tn + 2 h] durch das implizite Eulerverfahren: 1 pn+1 = pn+ 12 + hf (qn+1 ). 2 Wir können pn+ 21 eliminieren und erhalten das 2-dimensionale numerische Verfahren erster Ordnung: qn+1 = 1 qn + hpn + h2 f (qn ) 2 (22.12) pn+1 = 1 1 pn + hf (qn ) + hf (qn+1 ). 2 2 (22.13) Satz Das Störmer-Verlet-Verfahren in R2 ist symplektisch, falls f stetig differenzierbar ist. Merke, dass f ist genau dann stetig differenzierbar, wenn die entsprechende separable Hamiltonische Funktion 2-mal stetig differenzierbar ist. Der Beweis des Satzes folgt durch eine direkte Berechnung. ∂pn+1 ∂pn = 1 ′ ∂qn+1 1 + hf (qn+1 ) 2 ∂pn 151 KAPITEL 22. SYMPLEKTISCHE INTEGRATOREN ∂pn+1 ∂qn = 1 ′ 1 ′ ∂qn+1 hf (qn ) + hf (qn+1 ) 2 2 ∂qn ∂qn+1 ∂pn = h ∂qn+1 ∂qn = 1 2 ′ h f (qn ) 2 Wer fügen die letzten zwei Ausdrücke in die ersten zwei ein und erhalten ∂pn+1 ∂pn = ′ 1 1 + h2 f (qn+1 ) 2 ∂pn+1 ∂qn = ′ ′ 1 ′ 1 hf (qn ) + h3 f (qn+1 )f (qn ) 2 4 ∂qn+1 ∂pn = h ∂qn+1 ∂qn = 1 2 ′ h f (qn ) 2 # " Daher gilt P := " ∂pn+1 ∂pn ∂qn+1 ∂pn mit det P = 1. ∂pn+1 ∂qn ∂qn+1 ∂qn = ′ 1 + 12 h2 f (qn+1 ) h ′ 1 2 hf (qn ) ′ ′ + 41 h3 f (qn+1 )f (qn ) 1 2 ′ 2 h f (qn ) # Literaturverzeichnis [1] B. Aulbach, Gewöhnliche Differentialgleichungen. Heidelberg: Spektrum der Wissenschaften, 1998. [2] W.–J. Beyn, On the numerical approximation of phase portraits near stationary points, SIAM J. Numer. Anal. 24 (1987), 1095–1113. [3] P. Deuflhard und V. Bornemann, Numerische Mathematik II. Integration gewöhnlicher Differentialgleichungen. Göttingen: de Gruyter, 1994. [4] P. Griffiths und D. Higham, Numerical Methods for Ordinary Differential Equations: Initial Value Problems. Springer, 2011. [5] E. Hairer, C. Lubich and G. Wanner, Geometric Numerical Integration: Structure Preserving Algorithms for Ordinary Differential Equations, Springer, 2002 [6] A. Iserles A First Course in the Numerical Analysis of Differential Equations, Cambridge: Cambridge University Press 1996. [7] P.E. Kloeden und J. Lorenz, Stable attracting sets in dynamical systems and in their one-step discretizations, SIAM J. Numer. Analysis 23 (1986), 986-995. [8] P.E. Kloeden Skript zur Vorlesung: Einführung in die Numerische Mathematik, Universität Frankfurt WS2002/3 (auch im Internet) [9] P.E. Kloeden Skript zur Vorlesung: Numerik für Anfangswertaufgaben, Universität Frankfurt WS2003/4 (auch im Internet) [10] A.M. Stuart, Numerical analysis of dynamical systems, Acta Numerica 2 (1994), 467–572. [11] A.M. Stuart und A.R. Humphries, Numerical Analysis and Dynamical Systems, Cambridge University Press, Cambridge 1996. [12] T. Yoshizawa, Stability Theory by Lyapunov’s Second Method, The Mathematical Society of Japan, Tokyo, 1966 152