Analysis II - Vorlesungs-Script Prof. Dr. Camillo De Lellis Frühlingssemester 2017 Mitschrift: Simon Hafner, Paolo Fortunati Inhaltsverzeichnis 1. Metrik und Topologie des Euklidischen Raumes 1.1. Das Skaparprodukt . . . . . . . . . . . . . . . 1.2. Die Euklidische Norm . . . . . . . . . . . . . . 1.3. Die Euklidische Metrik . . . . . . . . . . . . . 1.4. Die Euklidische Topologie . . . . . . . . . . . 1.5. Konvergenz . . . . . . . . . . . . . . . . . . . 1.6. Mehr Topologie . . . . . . . . . . . . . . . . . 1.7. Stetigkeit . . . . . . . . . . . . . . . . . . . . 1.8. Rechenregeln für Grenzwerte und Stetigkeit . 1.9. Die Bolzano-Weierstrass Eigenschaft . . . . . 1.10. Kompaktheit . . . . . . . . . . . . . . . . . . 1.11. Maxima und Minima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 3 4 6 8 10 13 19 21 22 26 2. Differenzierbare Funktionen 2.1. Lineare Abbildungen . . . . . . . . . . . . . . 2.2. Differenzierbare Funktionen . . . . . . . . . . 2.3. Die Richtungsableitung . . . . . . . . . . . . . 2.4. Die partiellen Ableitungen und die Darstellung 2.5. Die Jacobi-Matrix und der Gradient . . . . . . 2.6. Das Hauptkriterium für die Differenzierbarkeit 2.7. Kurven und die erste Version der Kettenregel 2.8. Der Mittelwert- und der Schrankensatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . des Differentials . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 28 31 34 35 37 38 40 44 3. Höhere Ableitungen und die Taylorentwicklung 3.1. Höhere partielle Ableitungen . . . . . . . . . 3.2. Das Lemma von Schwarz . . . . . . . . . . . 3.3. Das Taylorpolynom . . . . . . . . . . . . . . 3.4. Das Taylorpolynom zweiter Ordnung . . . . 3.5. Maxima, Minima und die Hesse Matrix . . . 3.6. Konvexität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 46 47 52 55 57 62 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. Differentiation parameterabhängiger Integrale 69 4.1. Differentationssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 4.2. Folgerungen des Differentiationssatzes . . . . . . . . . . . . . . . . . . 74 i Inhaltsverzeichnis 4.3. Der Satz von Fubini ii . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 5. Differenzierbare Abbildungen 5.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Differentiationsregeln . . . . . . . . . . . . . . . . . . . . . . . . 5.3. Die Kettenregel . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4. Der verallgemeinerte Schrankensatz . . . . . . . . . . . . . . . . 5.5. Umkehrbare Abbildungen und Diffeomorphismen . . . . . . . . 5.6. Der Satz von der lokalen Umkehrbarkeit . . . . . . . . . . . . . 5.7. Beweis des Satzes über die lokale Umkehrbarkeit . . . . . . . . . 5.7.1. Schritt 1: . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.2. Schritt 2: . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.3. Schritt 3: . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.4. Schritt 4: . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.5. Schritt 5: . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.6. Schritt 6: . . . . . . . . . . . . . . . . . . . . . . . . . . 5.8. Lösungen von Gleichungen: Der Satz über implizite Funktionen 5.9. Untermannigfaltigkeiten des Rn . . . . . . . . . . . . . . . . . . 5.10. Die Multiplikationsregel von Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 79 82 85 90 96 101 103 103 104 106 106 107 107 110 117 119 6. Gewöhnliche Differentialgleichungen 6.1. Lineare gewöhnliche Differentialgleichungen . . 6.2. Das Anfangswertproblem . . . . . . . . . . . . . 6.3. Differentialgleichungen mit getrennten Variablen 6.4. Lineare GDGL mit konstanten Koeffizienten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 125 128 129 133 7. Systeme von gewöhnlichen Differentialgleichungen 7.1. Lineare Systeme mit konstanten Koeffizienten . 7.2. Das Theorem von Picard-Lindelöf . . . . . . . . 7.3. Eindeutigkeit und stetige Abhängigkeit . . . . . 7.4. Fluss eines Vektorfeldes . . . . . . . . . . . . . 7.5. Differenzierbare Abhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 142 149 155 159 160 8. Differenzierbare Mannigfaltigkeiten 8.1. Karten für Untermannigfaltigkeiten Euklidischer Räume . . . . . . 8.2. Parametrisierungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3. Kartenwechseln und Atlanten für Untermmanigfaltigkeiten . . . . . 8.4. Abstrakte Mannigfaltigkeiten . . . . . . . . . . . . . . . . . . . . . 8.5. Der Tangentialraum für Untermannigfaltigkeiten . . . . . . . . . . . 8.6. Derivationen: der Tangentialraum für abstrakte differenzierbare Mannigfaltigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 . 170 . 173 . 176 . 177 . 180 . 183 Inhaltsverzeichnis iii 8.7. Lokale Koordinaten und der Tangentialraum . . . . . . . . . . . . . . 184 A. Das Cantor-Diagonalargument 189 B. Lineare unabhängigkeit der Exponentialen 190 1. Metrik und Topologie des Euklidischen Raumes Sei Rn = {(x1 , · · · , xn ) , xi ∈ R}. Wir führen folgende neue Begriffe in Rn ein: • das Euklidische Skalarprodukt • die Euklidische Norm • der Euklidische Abstand • die dadurch induzierte Topologie. Wir betrachten gleichzeitig auch die entsprechenden Verallgemeinerungen, d.h. die “Abstrakte Theorie” der • Skalarprodukte; • normierten Vektorräume; • metrischen Räume; • topologischen Räume. 1.1. Das Skaparprodukt Definition 1.1.1. Das Euklidische Skalarprodukt ist die folgende bilineare Abbildung n n R × R 3 (x, y) 7→ hx, yi := n X i=1 1 xi yi , Kapitel 1. Metrik und Topologie des Euklidischen Raumes 2 wobei x1 , . . . , xn und y1 , . . . , yn die Koordinaten der Vektoren x und y sind. Lemma 1.1.2 (Die drei fundamentalen Eigenschaften des Skalarproduktes). Es gelten (a) hx, xi ≥ 0, wobei die Gleichung gilt genau dann, wenn x = 0 ( Positivität); (b) hx, yi = hy, xi ∀x, y ∈ Rn ( Symmetrie); (c) hλx + µy, zi = λhx, zi + µhy, zi ∀λ, µ ∈ R und ∀x, y, z ∈ Rn ( Bilinearität). Beweis. Die Eigenschaften sind alle trivial. Definition 1.1.3. Sei V ein reeller Vektorraum. Ein Skalarprodukt auf V ist eine Abbildung V × V 3 (x, y) 7→ hx, yi ∈ R die die Eigenschaften (a), (b) und (c) in Lemma 1.1.2 besitzt (wobei x, y, z ∈ V statt x, y, z ∈ Rn ). Satz 1.1.4 (Cauchy-Schwarz-Ungleichung). Sei V ein reeller Vekttoraum und h, i ein Skalarprodukt auf V . Dann gilt hx, yi2 ≤ hx, xihy, yi ∀x, y ∈ V . (1.1) Im Falle des Euklidischen Skalarproduktes erhalten wir die Euklidische CauchySchwarz Ungleichung: v v u n u n n X uX uX 2t t xi y i ≤ xi yi2 . (1.2) i=1 i=1 i=1 Beweis. O.B.d.A. sei y 6= 0 (falls y = 0, dann ist die Aussage trivial: hx, 0i = 0 wegen der Bilinearität). Wir definieren die quadratische Funktion t 7→ g(t) = hx + ty, x + tyi = hx, xi + 2thx, yi + t2 hy, yi . Kapitel 1. Metrik und Topologie des Euklidischen Raumes 3 g ist imnmer positiv und besitzt ein einizges Minimum an der Stelle tmin = − hx, yi . hy, yi Deswegen hx, yi2 . 0 ≤ g(tmin ) = hx, xi − hy, yi (1.2) folgt aus (1.1) 1.2. Die Euklidische Norm Definition 1.2.1. Sei x ∈ Rn (x = (x1 , · · · , xn ), xi ∈ R). Die Euklidische Norm von x ist |x|e := q v u n p uX 2 2 x1 + · · · + xn = t x2i = hx, xi . i=1 Wir schreiben oft |x| statt |x|e . Lemma 1.2.2. Die Euklidische Norm | · | erfüllt folgende Regeln: (a) |x| ≥ 0 und |x| = 0 ⇐⇒ x = 0 ( Positivität); (b) |λx| = |λ||x| ∀λ ∈ R, ∀x ∈ R ( Homogenität); (c) |x + y| ≤ |x| + |y| ∀x, y ∈ R ( Dreiecksungleichung). Beweis. (a) folgt aus der Positivität des Skalarproduktes. (b) folgt aus der Bilinearität des Skalarproduktes. (c) ist äquivalent zu |x + y|2 ≤ |x|2 + |y|2 + 2|x||y| . Durch Ausrechnen erhalten wir |x|2 + 2hx, yi + |y|2 ≤ |x|2 + |y|2 + 2|x||y| . Kapitel 1. Metrik und Topologie des Euklidischen Raumes 4 Deswegen ist (c) äquivalent zu |hx, yi| ≤ |x||y|. Dies ist aber die Ungleichung von Cauchy-Schwarz. Definition 1.2.3. Ein normierter Vektorraum ist ein reeller Vektorraum V mit einer Abbildung V 3 x 7→ |x| ∈ R die die Eigenschaften (a), (b) und (c) in Lemma 1.2.2 erfüllt. Eine solche Abbildung heisst Norm. Der Beweis von Lemma 1.2.2 nutzt nur die drei Eigenschaften die jedes Skalarprodukt erfüllt. Deswegen schliessen wir den folgenden Satz 1.2.4. Sei V ein reeller Vektorraum und h, i ein Skalarprodukt auf V . Die Abbildung x 7→ p kxk := hx, xi ist eine Norm auf V (k · k heisst die von h, i induzierte Norm). Beispiel 1.2.5. Sei V = Rn , mit n ≥ 2. Dann definiert kxk∞ := max |xi | i eine Norm auf V . Diese Norm wird aber von keinem Skalarprodukt induziert. In der Tat ist es einfach zu sehen dass, wenn k · k von einem Skalarprodukt induziert wird, dann gilt die Parallelogrammungleichung kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2 ∀x, y ∈ Rn . Solche Gleichung ist aber falsch für k·k∞ (nehmen Sie zum Beispiel x = (1, 1, 0, . . . , 0) und y = (−1, 1, 0, . . . , 0)). 1.3. Die Euklidische Metrik Sei x ∈ Rn . Intuitiv ist |x| =”der Abstand zwischen x und 0“. In der Tat, wenn n = 2, zeigt der Satz von Pytaghoras, dass |x| die Länge des Segments mit Anfangsbzw. Endpunkt x und 0 ist. Definition 1.3.1. Kapitel 1. Metrik und Topologie des Euklidischen Raumes 5 Seien x, y ∈ Rn . Dann definieren wir die Euklidische Metrik mittels de (x, y) := |x−y| (oft einfach mit d bezeichnet). Lemma 1.3.2. Es gelten (a) d(x, y) ≥ 0 und d(x, y) = 0 ⇐⇒ x = y ( Positivität); (b) d(x, y) = d(y, x) ( Symmetrie); (c) d(x, z) ≤ d(x, y) + d(y, z) ( Dreiecksungleichung). Beweis. Die ersten zwei Aussagen sind trivial. Um die letzte zu beweisen, erhalten wir zuerst |x − z| ≤ | x − y | + | y − z | | {z } | {z } =:v =:w von Lemma 1.2.2(c) (da x − z = v + w). Deshalb d(x, z) = |v + w| ≤ |v| + |w| = d(x, y) + d(y, z) . Definition 1.3.3. Ein metrischer Raum besteht aus einer Menge X zusammen mit einer Abbildung d : X × X → R (x, y) 7→ d(x, y) ∈ R , so dass die Eigenschaften (a), (b) und (c) in Lemma 1.3.2 für jedes x, y, z ∈ X gelten. Lemma 1.3.4. Sei (V , k·k) ein normierter Vektorraum. Dann bildet V zusammen mit d(x, y) = kx − yk einen metrischen Raum. Beweis. Wir nutzen das gleiche Argument wie in Lemma 1.3.2. Kapitel 1. Metrik und Topologie des Euklidischen Raumes 6 1.4. Die Euklidische Topologie Definition 1.4.1. Die offene Kugel mit Radius r > 0 und Mittelpunkt x ∈ Rn ist die Menge Kr (x) = {y ∈ Rn : d(x, y) < r} . Definition 1.4.2. Eine Menge V ⊂ Rn heisst Umgebung von x, wenn sie eine offene Kugel mit Mittelpunkt x enthält. In diesem Fall sagen wir auch dass x ein interner Punkt von V ist. Definition 1.4.3. Eine Menge U ⊂ Rn heisst offen wenn jeder Punkt x ∈ U ein interner Punkt von U ist (d.h., ∀x ∈ U ist U eine Umgebung von x). Bemerkung 1.4.4. Die Dreiecksungleichung impliziert, dass jede offene Kugel eine offene Menge ist. In der Tat sei y ∈ Kr (x). Dann ist ρ := d(x, y) < r. Sei τ := r − ρ > 0. Falls z ∈ Kτ (y), dann ist d(x, z) ≤ d(x, y) + d(y, z) = ρ + d(y, z) < ρ + τ = r. D.h., Kτ (y) ⊂ Kr (x). Dies beweist, dass Kr (x) eine Umgebung für alle darin enthaltenen Elemente ist, d.h. Kr (x) ist offen. Satz 1.4.5. Es gilt: (a) ∅ und Rn sind offen. (b) Der Durchschnitt endlich vieler offener Mengen ist offen. (c) Die Vereinigung einer beliebigen Familie offener Mengen ist offen. Beweis. 1. Der Rn ist trivialerweise offen, wie auch ∅. 2. Sei x ∈ U1 ∩ · · · ∩ UN , wobei jedes Ui eine offene Menge ist. Dann gilt ∀i ∈ {1, . . . , N } ∃ri > 0 so dass Kri (x) ⊂ Ui . Kapitel 1. Metrik und Topologie des Euklidischen Raumes 7 Sei nun r = min {r1 , . . . , rN } > 0, dann folgt Kr (x) ⊂ Ui ∀i =⇒ Kr (x) ⊂ U1 ∩ · · · ∩ UN . 3. Wir betrachten eine beliebige Familie {Uλ }λ∈Λ offener Mengen. Sei U := S λ∈Λ Uλ . Dann gilt x ∈ U =⇒ x ∈ Uλ für ein λ ∈ Λ =⇒ ∃Kr (x) ⊂ Uλ ⊂ U. Definition 1.4.6. Ein topologischer Raum ist eine Menge X und eine Menge O ⊂ P(X), so dass 1. ∅, X ∈ O; 2. U1 ∩ · · · ∩ UN ∈ O, falls Ui ∈ O ∀i ∈ {1, . . . , N }; 3. S λ∈Λ Uλ ∈ O, falls Uλ ∈ O ∀λ ∈ Λ. O heisst die Topologie auf X. Der Beweis vom Satz 1.4.5 nutzt nur die fundamentalen Eigenschaften einer Metrik. Deswegen schliessen wir auch den folgenden allgemeineren Satz 1.4.7. Sei (X, d) ein metrischer Raum. Wir definieren die offene Kugel mit Mittelpunkt x ∈ X und Radius r > 0 wie folgt: Kr (x) = {y ∈ X : d(x, y) < r} . Umgebungen und offene Mengen sind wie im Euklidischen Fall definiert. Dann definiert O = {A ⊂ X : A ist eine offene Menge} eine Topologie auf X. Kapitel 1. Metrik und Topologie des Euklidischen Raumes 8 1.5. Konvergenz Definition 1.5.1. Die Folge xk k∈N in Rn (oder, allgemeiner, in einem metrischen Raum X mit Metrik d) konvergiert gegen x ∈ Rn , falls lim d(xk , x) = 0 . k→∞ In diesem Fall schreiben wir x = lim xk k→∞ oder auch xk → x . Bemerkung 1.5.2 (ε − δ Formulierung der Konvergenz). Die Folge {xk }k∈N konvergiert genau dann gegen x, wenn ∀ε > 0, ∃N ∈ N so dass d(xk , x) < ε ∀k ≥ N . (1.3) Eine äquivalente Formulierung von (1.3) ist Jede Kugel Kε (x) (und deswegen jede Umgebung U von x) enthält fast alle xk . (1.4) Satz 1.5.3 (Koordinatenkriterium für die Konvergenz einer Folge {xk }k∈N ⊂ Rn ). Sei {xk }k∈N ⊂ Rn , xk = xk1 , · · · , xkn . Es gilt xk → x ⇐⇒ xki → xi ∀i ∈ {1, · · · , n} . Beweis. Wir bemerken, dass v u n uX 2 k xki − xi ≥ xki − xi ≥ 0 . |x − x| = t i=1 Deshalb folgt die Richtung =⇒ . Für die andere Richtung nutzen wir die Rechen- Kapitel 1. Metrik und Topologie des Euklidischen Raumes 9 regeln für Grenzwerte reeller Folgen: aus lim xki = xi k→∞ folgt v u n uX 2 lim t xki − xi = 0 . k→∞ i=1 Definition 1.5.4. Eine Folge xk k∈N in Rn (allgemeiner in einem metrischen Raum X mit Metrik d) heisst Cauchy-Folge, falls gilt: ∀ε > 0 ∃N ∈ N so dass d(xk , xj ) < ε ∀j, k ≥ N. Lemma 1.5.5. k x k∈N ⊂ Rn konvergiert genau dann, wenn xk k∈N eine Cauchy-Folge ist. Beweis. Sei xk k∈N eine Cauchy-Folge. Dann ist auch {xki }k∈N , für jedes fixierte i, eine Cauchy-Folge, weil k xi − xj ≤ |xk − xj | . i k xi k∈N ist eine Cauchy-Folge reeller Zahlen und aus der Analysis I schliessen wir dass xki gegen irgendeine reelle Zahl xi konvergiert. Wenn wir x = (x1 , . . . , xn ) betrachten, impliziert der Satz 1.5.3 die Konvergenz von {xk }k∈N nach x. Nun beweisen wir die Umkehrung: {xk }k∈N konvergiert =⇒ Cauchy-Folge. Sei x = lim xk k→∞ und ε eine positive Zahl. Dann ∃N ∈ N so dass d(xk , x) < ε 2 ∀k ≥ N . Kapitel 1. Metrik und Topologie des Euklidischen Raumes 10 Aus der Dreiecksungleichung folgt d(xk , xj ) ≤ d(xk , x) + d(xj , x) < ε ε + =ε 2 2 ∀k, j ≥ N . Bemerkung 1.5.6. Im zweiten Teil des letzten Beweis haben wir nur die Dreiecksungleichung benutzt. Deshalb gilt die folgende Aussage in jedem metrischen Raum: Jede konvergente Folge ist eine Cauchy-Folge. Aber die Cauchy-Bedingung impliziert nicht die Konvergenz in jedem metrischen Raum. Falls jede Cauchy-Folge in einem metrischen Raum konvergiert, dann heisst der metrische Raum vollständig. 1.6. Mehr Topologie Definition 1.6.1. Eine Menge G ⊂ Rn heisst abgeschlossen, falls Gc (:= Rn \ G) eine offene Menge ist. Bemerkung 1.6.2. In diesem Teil der Vorlesung werden wir oft die folgenden elementaren Eigenschaften verwenden: (Ac )c = A (A ∪ B)c = Ac ∩ B c (A ∩ B)c = Ac ∪ B c (A \ B)c = (A ∩ B c )c = Ac ∪ (B c )c = Ac ∪ B und allgemeiner !c [ Uλ = λ∈Λ \ Uλc λ∈Λ !c \ λ∈Λ Satz 1.6.3. Uλ = [ λ∈Λ Uλc . Kapitel 1. Metrik und Topologie des Euklidischen Raumes 11 Es gilt: 1. ∅ und Rn sind abgeschlossen. 2. G1 , · · · , GN abgeschlossen =⇒ G1 ∪ G2 ∪ · · · ∪ GN abgeschlossen. T 3. {Gλ }λ∈Λ abgeschlossen =⇒ λ∈Λ Gλ abgeschlossen. Beweis. Diese Eigenschaften sind Folgerungen aus den entsprechenden Eigenschaften der offenen Mengen und den Identitäten in Bemerkung 1.6.2. Satz 1.6.4. G ⊂ Rn ist genau dann abgeschlossen, wenn gilt: Für jede konvergente Folge xk k∈N ⊂ G gehört der Grenzwert zu G. (1.5) Bemerkung 1.6.5. Es ist leicht zu sehen, dass der folgende Beweis auch für allgemeine metrische Räume gilt. Beweis. ⇐= : Wir nehmen an, dass (1.5) gilt. Zu beweisen: Gc ist offen. Sei x ∈ Gc . Wir müssen nun eine Kugel Kr (x) ⊂ Gc finden. Widerspruchsbeweis: falls K 1 (x) 6⊂ Gc , j ∈ N \ {0}, dann gilt j ∃xj ∈ K 1 (x) ∩ G . j Die Folge {xj } gehört zu G und xj → x 6∈ G. Aber diese letzte Aussage widerspricht (1.5). Also muss Gc offen sein. =⇒ : Wir beweisen nun die andere Aussage. Widerspruchsbeweis: Gc ist offen, aber ∃ xk ⊂ G mit Grenzwert x 6∈ G, d.h. x ∈ Gc . Da Gc offen ist, ∃Kr (x) ⊂ Gc so dass Kr (x) ∩ G = ∅ . Aber die Konvergenz gegen x impliziert die Existenz einer Zahl N ∈ N, so dass d(xk , x) < r für jede k ≥ N . Da xk ∈ G, kann G ∩ Kr (x) nicht lehr sein. Kapitel 1. Metrik und Topologie des Euklidischen Raumes 12 Beispiel 1.6.6. Die offene Kugel Kr (x) ⊂ Rn ist nicht abgeschlossen. In der Tat sei z ∈ Rn mit |z| = r. Dann 1 k z ∈ Kr (x) ∀k , y := x + 1 − k+1 aber y k → x + z 6∈ Kr (x). Trotzdem, in einem allgemeinen metrischen Raum können offene Kugeln auch abgeschlossen sein: finden Sie ein Beispiel. Definition 1.6.7. Die abgeschlossene Kugel (in Rn oder in einem metrischen Raum (X, d)) ist wie folgt definiert: K r (x) := {y ∈ X : d(y, x) ≤ r}. Übung 1.6.8. K r (x) ist tatsächlich eine abgeschlossene Menge. Definition 1.6.9. x ∈ Rn (bzw. x ∈ X metrischer Raum) heisst Randpunkt von M , falls ∀r > 0 ∃y ∈ Kr (x) ∩ M und ∃z ∈ Kr (x) ∩ M c . Definition 1.6.10. Sei M eine beliebige Teilmenge in Rn (bzw. im metrischen Raum X). Dann ist der Rand von M wie folgt definiert: ∂M = {x ∈ Rn | x ist ein Randpunkt von M } . Übung 1.6.11. Die Sphäre Sr (x) := {y ∈ Rn : d(y, x) = r} ist der Rand der offenen Kugel Kr (x) ⊂ Rn und deswegen wird mit ∂Kr (x) bezeichnet. Diese Behaputung gilt aber nicht in jedem metrischen Raum: Allgemein gilt nur, dass der Rand von Kr (x) in Sr (x) enthalten ist. Satz 1.6.12. Sei M ⊂ Rn . Dann ist ∂M c = ∂M . Zudem gilt: 1. M \ ∂M ist die grösste offene Menge, die in M enthalten ist. Sie heisst der Kapitel 1. Metrik und Topologie des Euklidischen Raumes 13 offene Kern von M und wird mit M̊ bezeichnet. 2. M ∪ ∂M ist die kleinste geschlossene Menge, die M enthält. Sie heisst die abgeschlossene Hülle von M und wird mit M bezeichnet. Beweis. Die Aussage ∂M = ∂M c ist offensichtlich wahr. Beweis von 1. Zuerst zeigen wir, dass M \ ∂M offen ist: x ∈ M \ ∂M =⇒ x ∈ M und ∃Kr (x) mit Kr (x) ∩ M c = ∅ =⇒ Kr (x) ⊂ M. Sei y ∈ Kr (x), dann folgt |y − x| = ρ < r =⇒ Kr−ρ (y) ⊂ Kr (x) ⊂ M =⇒ y ∈ M, y 6∈ ∂M, und damit Kr (x) ⊂ M \ ∂M. Da x beliebig war, folgt dass M \ ∂M offen ist. Sei nun A ⊂ M eine offene Menge und sei x ∈ A. Das Ziel ist, zu zeigen, dass x 6∈ ∂M . A offen =⇒ ∃Kr (x) ⊂ A ⊂ M =⇒ x 6∈ ∂M . Beweis von 2. Wegen 1. folgt, dass M c \ ∂M c die grösste offene Teilmenge von M c ist. Deswegen ist (M c \ ∂M c )c die kleinste abgeschlossene Menge, die M enthält. Aber (M c \ ∂M c )c = (M c )c ∪ ∂M c = M ∪ ∂M c = M ∪ ∂M . 1.7. Stetigkeit Definition 1.7.1. Sei E ⊂ Rn . Ein Punkt x ∈ Rn ist ein Häufungspunkt von E falls jede Kugel Kr (x) Kapitel 1. Metrik und Topologie des Euklidischen Raumes 14 unendlich viele Elemente von E enthält. Ein Punkt x ∈ E, der kein Häufungspunkt ist, heisst ein isolierter Punkt. Bemerkung 1.7.2. x ist ein Häufungspunkt von E genau dann, wenn E eine Folge {xk }k∈N enthält mit xk 6= x und limk xk = x. E ist abgeschlossen genau dann, wenn alle Häufungspunkte von E zu E gehören. Definition 1.7.3. Sei Ω ⊂ Rn , x ein Häufungspunkt von Ω und f : Ω → Rm eine Abbildung. Der Limes ` := lim f (y) y→x existiert, wenn für jedes ε > 0 ∃δ > 0 so dass d(x, y) < δ und y ∈ Ω \ {x} =⇒ d(f (y), `) < ε . Definition 1.7.4. Sei f : Rn ⊃ Ω → Rm . f ist stetig an der Stelle x ∈ Ω, falls • entweder x ein isolierter Punkt ist; • oder lim f (y) = f (x) . y→x Satz 1.7.5 (Folgenkriterium für die Stetigkeit). Eine Funktion f : Ω → Rm ist stetig in x ∈ Ω genau dann, wenn für jede Folge {xk }k∈N ⊂ Ω mit xk → x gilt f (xk ) → f (x). Sei x in Häufungspunkt von Ω. Der Limes lim f (y) y→x existiert und ist ` genau dann, wenn für jede Folge {xk }k∈N ⊂ Ω \ {x} mit xk → x gilt f (xk ) → `. Beweis. Die erste Behauptung folgt aus der zweiten, da die Aussage trivial ist wenn Kapitel 1. Metrik und Topologie des Euklidischen Raumes 15 x ein isolierter Punkt ist. Sei nun x ein Häufungspunkt von Ω und ` = lim f (y) . y→x Sei {xk } ⊂ Ω \ {x} mit xk → x. Für jedes ε > 0 ∃δ > 0 so dass d(f (y), `) < ε für alle y ∈ Ω \ {x} mit d(x, y) < δ. Sei nun N ∈ N so dass d(xk , x) < δ ∀k ≥ N . Dann d(f (xk ), `) < ε für jede k ≥ N . Daher folgt die Konvergenz von {f (xk )} nach `. Umgekehrt, nehmen wir an dass der Limes nicht existiert oder nicht ` ist. Dann ∃ε > 0 so dass, für jede δ > 0 ∃xδ ∈ Ω \ {x} mit d(xδ , x) < δ aber d(f (xδ ), `) ≥ ε. 1 und xj := xδ . Die Folge {xj }j∈N gehört zu Ω\{x} und konvergiert Wir sezten δ = j+1 nach x, aber f (xδ ) konvergiert nicht nach `. Lemma 1.7.6. Eine äquivalente Definition der Stetigkeit an der Stelle x ist ∀ε > 0, ∃δ > 0 so dass f (Kδ (x) ∩ Ω) ⊂ Kε (f (x)). Beweis. Die Aussage folgt direkt aus der Definition. Definition 1.7.7. Die allgemeine Definition der Stetigkeit für metrische Räume lautet wie folgt: Seien (X, d) und (Y, d) zwei metrische Räume. Sei f : X → Y . f ist stetig an der Stelle x, falls ¯ (y), f (x)) < ε, ∀ε > 0 ∃δ > 0 mit d(y, x) < δ =⇒ d(f das heisst f (Kδ (x)) ⊂ Kε (f (x)) . Definition 1.7.8. Eine Abbildung f : X → Y heisst stetig, falls f an jeder Stelle x ∈ X stetig ist. Satz 1.7.9 (Charakterisierung der Stetigkeit durch offene Mengen). Sei f : X → Y , wobei (X, d) und (Y, d) metrische Räume sind. Dann gilt: 1. f ist stetig in x ⇐⇒ ∀ Umgebung U von f (x) ist f −1 (U ) eine Umgebung von x. Kapitel 1. Metrik und Topologie des Euklidischen Raumes 16 2. f ist stetig ⇐⇒ f −1 (U ) ist offen ∀ U offen. Beweis. 1. • Stetigkeit =⇒ Umgebung. Sei U eine Umgebung von f (x). Dann gibt es ein δ > 0 mit Kδ (f (x)) ⊂ U . Dann folgt aus der Stetigkeit ∃ε > 0 : f (Kε (x)) ⊂ Kδ (f (x)) und damit f −1 (U ) ⊃ f −1 (Kδ (f (x))) ⊃ Kε (x). Also ist f −1 (U ) eine Umgebung von x. • Umgebung =⇒ Stetigkeit. Sei ε > 0 und U := Kε (f (x)). Dann ist U eine Umgebung von f (x). Weiter ist f −1 (U ) eine Umgebung von x. Also gilt ∃δ > 0 so dass Kδ (x) ⊂ f −1 (U ) und damit folgt f (Kδ (x)) ⊂ U = Kε (f (x)). 2. • Stetigkeit =⇒ offen. Sei U offen ⇐⇒ ∀y ∈ U ist U eine Umgebung von y. Nun gilt: f −1 (U ) 3 x =⇒ f (x) ∈ U Stetigkeit in x =⇒ f −1 (U ) ist eine Umgebung von x . Also ist f −1 (U ) offen. • offen =⇒ Stetigkeit. Sei x ∈ X, und ε > 0. Dann ist Kε (f (x)) eine offene Menge und somit auch f −1 (Kε (f (x))). Aber x gehört zu f −1 (Kε (f (x))), also folgt (aus der Offenheit von f −1 (Kε (f (x)))) ∃δ > 0 so dass Kδ (x) ⊂ f −1 (Kε (f (x))) =⇒ f (Kδ (x)) ⊂ Kε (f (x)). Wir führen deshalb den Begriff der Stetigkeit für Abbildungen zwischen topologischen Räumen ein. Kapitel 1. Metrik und Topologie des Euklidischen Raumes 17 Definition 1.7.10. Seien (X, τX ) und (Y, τY ) zwei topologische Räume. Eine Abbildung f : X → Y heisst stetig in x ∈ X wenn: für jede Umgebung U von f (x) ist f −1 (U ) eine Umgebung von x. (1.6) Die Abbildung heisst überall stetig, wenn das Urbild jeder offenen Menge U ∈ τY eine offene Menge (d.h. ein Element von τX ) ist. Korollar 1.7.11. Sei Ω ⊂ Rn und f : Ω → Rm . f ist stetig genau dann, wenn ∀U ⊂ Rm offen ∃V ⊂ Rn offen mit f −1 (U ) = V ∩ Ω . Beweis. Wir definieren den folgenden metrischen Raum: X = Ω und d(x, y) = |x−y| (d.h. d ist die Einschränkung der üblichen Euklidischen Abstandfunktion auf Ω×Ω). Die Stetigkeit von f ist dann äquivalent zur Stetigkeit von f : X → Rm . Aus dem Satz 1.7.9 folgt, dass f stetig ist genau dann, wenn V ⊂ Rn offen =⇒ f −1 (V ) offen als Teilmenge von X. Wir wollen nun zeigen, dass W ⊂ X offen ist genau dann, wenn ∃U ⊂ Rn offen mit W = U ∩ Ω. Sei U offen und x ∈ U ∩ Ω. Dann ∃r > 0 so dass |y − x| < r =⇒ y∈U. Die Kugel Kr (x) ⊂ X ist aber Kr (x) = {y ∈ Ω : |y − x| < r} und deswegen Kr (x) ⊂ U ∩ Ω, d.h. x ist ein interner Punkt von U ∩ Ω. Umgekehrt, sei W ⊂ X eine offene Menge. Dann für jedes x ∈ W ∃rx > 0 mit Krx (x) ⊂ W . Sei nun Krex (x) die Euklidische Kugel, d.h. Krex (x) := {y ∈ Rm : |y − x| < rx } . Kapitel 1. Metrik und Topologie des Euklidischen Raumes 18 Wir definieren U := [ Krex (x) . x∈W U ist offen und enthält W . Auf der anderen Seite, Krex (x) ∩ Ω = Krx (x) ⊂ W für jedes x. Deswegen U ∩ Ω ⊂ W . Wir schliessen dass W = U ∩ Ω. Bemerkung 1.7.12. Wenn (X, τ ) ein topologischer Raum ist und Y ⊂ X, ist es möglich, eine entsprechende Topologie τY auf Y einzuführen, welche Unterraumtopologie genannt wird: τY := {U ∩ Y : U ∈ τ } . Das Korollar 1.7.11 hat, deswegen, die folgende Interpretation: die Stetigkeit der Abbildung f : Ω → Rm (im Sinne der Definition 1.7.4) ist äquivalent zur Stetigkeit der Abbildung im Sinne der Definition 1.7.10, wenn wir die Euklidische Topologie auf Rm und die Unterraumtopologie auf Ω betrachten. Um die Stetigkeit einer Funktion f zu beweisen, nutzen wir oft eine “Abschätzung”. Zwei wichtige Beispiele sind die Lipschitz-stetigen und die Hölder-stetigen Funktionen. Definition 1.7.13. ¯ metrische Räume. Eine Abbildung f : X → Y heisst Seien (X, d) und (Y, d) Lipschitz-stetig wenn ∃C mit ¯ (x), f (y)) ≤ Cd(x, y) d(f ∀x, y ∈ X . Sei α ∈]0, 1]. Die Abbildung f heisst Hölder-stetig mit Hölder-exponent α wenn ∃C mit ¯ (x), f (y)) ≤ Cd(x, y)α d(f ∀x, y ∈ X . Übung 1.7.14. Lipschitz-stetige und Hölder-stetige Funktionen sind tatsächlich stetig. Übung 1.7.15. Kapitel 1. Metrik und Topologie des Euklidischen Raumes 19 Sei α > 1, C ≥ 0 und f : Rn → Rm eine Abbildung so dass |f (x) − f (y)| ≤ C|x − y|α ∀x, y ∈ Rn . Dann ist f konstant. 1.8. Rechenregeln für Grenzwerte und Stetigkeit Korollar 1.8.1. Sei Ω ⊂ Rn und f : Ω → Rm eine Abbildung f = (f1 , . . . , fm ). Die Abbildung ist stetig an der Stelle x genau dann, wenn jede Funktion fi an dieser Stelle stetig ist. Beweis. Die Aussage ist eine direkte Folgerung des Folgenkriteriums für die Stetigkeit und des Koordinatenkriteriums für die Konvergenz einer Folge von Vektoren. Aus dem gleichen Argument folgt die Identität lim f (y) = y→x lim f1 (x), . . . , lim fn (x) , y→x y→x sobald eine der zwei Seiten wohldefiniert ist. Satz 1.8.2. Seien f : Rn ⊃ Ω → Γ ⊂ Rk und g : Γ → Rm . Wenn f stetig in x und g stetig in f (x) sind, dann ist g ◦ f stetig in x. Beweis. Wir nutzen das Folgenkriterium. Sei {x` }`∈N ⊂ Ω eine Folge mit x` → x. Die Stetigkeit von f impliziert f (x` ) → f (x): wir können deswegen nochmals das Folgenkriterium anwenden um zu schliessen dass g ◦ f (x` ) = g(f (x` )) → g(f (x)) = g ◦ f (x). Die letzte Aussage gilt dann für jede Folge {x` }`∈N ⊂ Ω mit x` → x. Das Folgenkriterium impliziert den Satz. Bemerkung 1.8.3. Das folgende ist ein interessantes alternatives Argument für die Stetigkeit der Komposition wenn beide Funktionen überall stetig sind. Sei A eine offene Menge. Wir Kapitel 1. Metrik und Topologie des Euklidischen Raumes 20 wenden ein erstes Mal das Korollar 1.7.11 um eine offene Menge B zu finden mit B ∩ Γ = g −1 (A). Wir wenden dann das Korollar ein zweites Mal um eine offene Menge C zu finden, so dass C ∩ Ω = f −1 (B). Deshalb C ∩ Ω = f −1 (B) = f −1 (B ∩ Γ) = f −1 (g −1 (A)) = (g ◦ f )−1 (A) . Deswegen impliziert das Korollar 1.7.11 die Stetigkeit von g ◦ f . Der Satz 1.8.2 hat verschiedene wichtige Anwendungen. 1. Summe und Produkte von stetigen Funktionen sind stetig. Beweis. Wir definieren Φ, Ψ : R2 → R wie folgt: Φ(x1 , x2 ) = x1 + x2 Ψ(x1 , x2 ) = x1 x2 . Beide Funktionen sind stetig (in der Tat Φ ist Lipschitz und Ψ|KR (0) ist Lipschitz ∀R). Seien f, g : Ω → R stetig. Dann ist auch Λ = (f, g) stetig (aus Korollar 1.8.1). Da f + g = Φ ◦ Λ und f g = Ψ ◦ Λ, sind f + g und f g stetig. 2. Jede lineare Abbildung L : Rm → Rn ist stetig Beweis. Es genügt den Fall n = 1 zu betrachten. Wenn n = 1 ∃v1 , . . . , vn ∈ R mit L(x) = v1 x1 + . . . + vn xn . Aus der Cauchy-Schwarz Ungleichung folgt dass L Lipschitz ist. 3. Jedes Polynom P : Rm → R ist stetig. Beweis. Benutzen Sie 1. und 2. 4. f /g ist stetig falls f und g stetig sind und g nirgendwo null ist. Beweis. Nutzten Sie ein ähnliches Argument wie in 1. Kapitel 1. Metrik und Topologie des Euklidischen Raumes 21 1.9. Die Bolzano-Weierstrass Eigenschaft Definition 1.9.1. Eine Folge xk k∈N ⊂ Rn heisst beschränkt, falls die Folge reeller Zahlen {|xk |}k∈N beschränkt ist. Satz 1.9.2. Es gilt: 1. Jede konvergente Folge ist beschränkt. 2. k x k∈N beschränkt Weierstrass). =⇒ ∃ Teilfolge xkj j∈N , die konvergiert (Bolzano- Beweis. Die erste Aussage ist eine triviale Folgerung der Dreiecksungleichung: Wenn xk gegen x konvergiert, dann ist |xk − x| eine Nullfolge. Deswegen ist |xk − x| eine beschränkte Folge. Da aber 0 ≤ |xk | ≤ |x| + |xk − x|, ist auch {|xk |}k∈N beschränkt. Wir beweisen nun die zweite Aussage. Sei (xk1 , . . . , xkn ) = xk ∈ Rn . Dann k k x k∈N beschränkt =⇒ xk1 k∈N beschränkt =⇒ ∃xkj mit x1j → x1 ∈ R. k Wir definieren (y1j , . . . , ynj ) = y j := xkj . Wir wissen schon dass y1j = x1j → x1 . Wir nutzen nun das obige Argument um die Existenz einer Teilfolge j` zu schliessen so dass y2jl → x2 ∈ R . Setzen wir (z1` , . . . , zn` ) = z ` := y j` , dann haben wir kj z1` = y1j` = x1 ` → x1 und z2` = y2j` → x2 . Wir wenden dieses Verfahren noch n − 2 Mal an um eine Teilfolge {ws }s∈N (mit ws = (w1s , . . . , wns )) von {xk }k∈N und n reelle Zahlen x1 , . . . , xn zu finden so dass wis → xi ∈ R ∀i ∈ {1, . . . , n} . Kapitel 1. Metrik und Topologie des Euklidischen Raumes 22 Wir setzten x := (x1 , . . . , xn ). Die Konvergenz von ws nach x folgt aus dem Koordinatenkriterium. 1.10. Kompaktheit Definition 1.10.1. Eine Menge E in einem metrischen Raum X heisst folgenkompakt falls jede Folge {xk }k∈N ⊂ E eine Teilfolge {xkj }j∈N besitzt, die gegen einen Punkt x ∈ E konvergiert. Definition 1.10.2. Eine Menge E ⊂ Rn heisst beschränkt falls ∃r mit E ⊂ Kr (0). Korollar 1.10.3. Eine Teilmenge E ⊂ Rn ist folgenkompakt genau dann, wenn E abgeschlossen und beschränkt ist. Beweis. Sei E beschränkt und {xk }k∈N ⊂ E. Dann ist {xk }k∈N beschränkt und besitzt eine konvergente Teilfolge (Bolzano-Weierstrass). Wenn E auch abgeschlossen ist, muss der Limes dieser Teilfolge zu E gehören. Wenn E nicht abgeschlossen ist dann finden wir {xk }k∈N ⊂ E mit xk → x 6∈ E: jede Teilfolge von {xk }k∈N konvergiert eben gegen x 6∈ E. Wenn E nicht beschränkt ist, dann finden wir für jedes k ∈ N ein Element xk ∈ E mit |xk | ≥ k. {xk }k∈N ⊂ E und keine Teilfolge von {xk }k∈N konvergiert. Definition 1.10.4. E ⊂ Rn heisst überdeckungskompakt, wenn jede offene Überdeckung von E (= {Uλ }λ∈Λ Familie offener Mengen mit E⊂ [ Uλ λ∈Λ eine endliche Teilüberdeckung besitzt (d.h. ∃λ1 , . . . , λN ∈ Λ mit E⊂ N [ i=1 Uλi . Kapitel 1. Metrik und Topologie des Euklidischen Raumes 23 Satz 1.10.5. Die folgenden Aussagen sind äquivalent 1. E ⊂ Rn ist folgenkompakt; 2. E ⊂ Rn ist überdeckungskompakt; 3. E besitzt die Heine-Borel Eigenschaft, d.h. für jede familie {Eλ }λ∈Λ mit Eλ abgeschlossen und so dass E ∩ Eλ1 ∩ . . . ∩ EλN 6= ∅ ∀λ1 , . . . , λN ∈ Λ, gilt \ E∩ Eλ 6= ∅ . λ∈Λ Bemerkung 1.10.6. Die Heine-Borel Eigenschaft ist eine Verallgemeinerung des Intervallschachtelungsprinzips der Analysis I. Beweis. 2. =⇒ 3. Sei E Überdeckungskompakt und {Eλ }λ∈Λ eine beliebige Familie abgeschlossener Mengen mit E∩ \ Eλ = ∅ . λ∈Λ Dann ist {Eλc }λ∈Λ eine offene Überdeckung von E und aus 2. folgt die Existenz einer endlichen Teilüberdeckung Eλc 1 , . . . , Eλc N . Damit gilt E∩ N \ Eλi = ∅ . i=1 3. =⇒ 1. Nehmen wir an, dass E die Heine-Borel Eigenschaft besitzt. Sei {x } ⊂ E eine Folge. ∀k definieren wir k Fk = {xj : j ≥ k} und Ek := F k . Nun, wenn k1 < k2 < . . . < kN , dann ∅= 6 FkN ⊂ Ek1 ∩ . . . ∩ EkN ∩ E . Kapitel 1. Metrik und Topologie des Euklidischen Raumes 24 Deswegen, aus der Heine-Borel Eigenschaft schliessen wir die Existenz einer Stelle x∈ ∞ \ Fk ∩ E . k=0 Nun ∀k haben wir K1/k (x) ∩ Fk 6= ∅ sonst wäre x ein interner Punkt von Fkc und x könnte nicht zu F k gehören. So ∃x`k ∈ Fk mit |x − x`k | < k1 . Deshalb `k ≥ k und so {x`k }k∈N ist eine Teilfolge von {xk }k∈N die gegen x ∈ E konvergiert. 1. =⇒ 2. Wir führen einen Beweis durch Widerspruch: E ist also beschränkt und abgeschlossen. Sei {Uλ }λ∈Λ eine Familie von offenen Mengen mit E ⊂ {Uλ }λ∈Λ . Wir überdecken nun die Menge E mit Würfeln. Jeder Würfel hat die Form [k1 , k1 + 1] × [k2 , k2 + 1] × · · · × [kn , kn + 1] , (1.7) wobei k1 , . . . kn ∈ Z. Da E beschränkt ist, ∃N ∈ N, so dass [−N, N ]n ⊃ E. Aber [−N, N ]n können wir mit M = (2N )n Würfel der Form (1.7) überdecken: E ⊂ W1 ∪ · · · ∪ WM . Falls jede Menge E ∩ Wi mit einer endlichen Familie von {Uλ } überdeckt werden kann, finden wir eine endliche Teilüberdeckung von E, indem wir die Vereinigung der entsprechenden endlichen Teilüberdeckungen von E ∩ Wi wählen. Nun nehmen wir an, die Überdeckungseigenschaft gilt nicht, d.h. ∃E1 := E ∩ Wi , so dass 1. {Uλ }λ∈Λ eine Überdeckung von E1 ist, 2. keine endliche Teilfamilie überdeckt E1 . Teilen wir den Würfel Wi in 2n Würfel mit Seitenlänge 21 : W̃1 , · · · , W̃2n . Kapitel 1. Metrik und Topologie des Euklidischen Raumes 25 Mit dem obigen Argument finden wir die Menge E2 := E ∩ W̃i : und die Eigenschaften 1. und 2. gelten auch für E2 statt E1 . Induktiv erhalten wir eine Folge von Mengen mit E ⊃ E1 ⊃ E2 ⊃ · · · und für jede Menge gilt, Ei ⊂ Wi , wobei Wi ein Würfel mit Seitenlänge 2−i+1 ist. Zudem gelten die beiden Eigenschaften 1. und 2. auch für Ei . Weiter sind die Mengen Ei nicht leer. Für jedes i wählen wir ein xi ∈ Ei . Dann ist xk k∈N ⊂ E. Aber xk k∈N ist eine Cauchy-Folge, denn: Falls j, k > i, sind xk , xj ⊂ Ei und Ei ist in einem Würfel mit Seitenlänge 2−i+1 enthalten. Deswegen √ ist |xj − xk | ≤ n2−i+1 . Die Vollständigkeit des Rn garantiert die Existenz von x ∈ Rn , so dass xk → x. Da E abgeschlossen ist, ist x ∈ E. Deswegen ∃Uµ ∈ {Uλ }λ , so dass x ∈ Uµ . Da Uµ offen ist, gibt es eine Kugel Kr (x) ⊂ Uµ . Aber x ∈ Ei für jedes i (weil {xk }k≥i ⊂ Ei und die Ei sind abgeschlossen!). Sei nun k ∈ N, √ √ so dass n2−k+1 < r. Falls y ∈ Ek , dann ist |y − x| ≤ n2−k+1 < r. Deswegen ist Ek ⊂ Kr (x) ⊂ Uµ . Nun ist die Familie {Uµ } endlich (sie enthält sogar nur ein einziges Element!) und überdeckt Ek : dies ist ein Widerspruch. Die Definition der Überdeckungskompaktheit kann man auf topologische Räume erweitern. Definition 1.10.7. Eine Teilmenge K eines topologischen Raumes (X, τ ) heisst überdeckungskompakt, falls jede offene Überdeckung von Y eine endliche Teilüberdeckung enthält. Falls X eine kompakte Teilmenge von sich selber ist, dann sagen wir, dass X ein kompakter topologischer Raum ist. Bemerkung 1.10.8. Die Folgenkompaktheit und die Überdeckungskompaktheit sind für Teilmengen metrischer Räumen zwei äquivalente Eigenschaften. Der Beweis ist aber ein bisschen anders als der vom Satz 1.10.5: in der Tat, in einem allgmeinen metrischen Raum kann es beschränkte und abgeschlossene Mengen geben die nicht kompakt sind. Kapitel 1. Metrik und Topologie des Euklidischen Raumes 26 Es ist möglich, einen Begriff der Folgenkompaktheit auch für allgemeine topologische Räume einzuführen. Diese ist aber im Allgemeinen nicht äquivalent zur Überdeckungskompaktheit. Bemerkung 1.10.9. Falls K eine kompakte Teilmenge des topologischen Raumes (X, τ ) ist und τK ihre Unterraumtopologie bezeichnet, dann ist (K, τK ) ein kompakter topologischer Raum. 1.11. Maxima und Minima Wir haben gesehen, dass die Stetigkeit einer Funktion f die Offenheit der Urbilder offener Mengen impliziert, d.h. f −1 (U ) offen, falls U offen ist. Diese mächtige Charakterisierung der Stetigkeit werden wir nun im Weiteren nutzen. Korollar 1.11.1. Sei E ⊂ Rn kompakt und f : E → Rk stetig. Dann ist f (E) kompakt. Beweis. Sei {Uλ } eine Überdeckung (mit offenen Mengen) von f (E), dann ist f −1 (Uλ ) eine Überdeckung von E. Aus dem Korollar 1.7.11 folgt die Existenz offener Menge Vλ mit Vλ ∩ E = f −1 (Uλ ). Deshalb ist {Vλ } eine offene Überdeckung von E. Mit der Kompaktheit folgt die Existenz einer endlichen Teilüberdeckung {Vλ1 , . . . , VλN } von E und f −1 (Uλ1 ), · · · , f −1 (UλN ) ist auch eine Überdeckung von E. Somit ist Uλi , · · · , UλN aber eine Überdeckung von f (E) und dies impliziert die Kompaktheit von f (E). Korollar 1.11.2. Wenn f : Rn → R stetig ist und E ⊂ Rn kompakt, dann besitzt f ein Maximum und ein Minimum in E. Kapitel 1. Metrik und Topologie des Euklidischen Raumes 27 Beweis. Wir wissen, dass f (E) ⊂ R kompakt ist. Sei nun s := sup f (E) < +∞. Dann gibt es eine Folge {xk }k∈N ⊂ f (E) mit xk → s. Wegen der Abgeschlossenheit von f (E) folgt, dass s ∈ f (E) ist. Also ist s ein Maximum. Der Beweis für die Existenz eines Minimums geht analog. 2. Differenzierbare Funktionen 2.1. Lineare Abbildungen Zur Erinnerung aus der Linearen Algebra: Definition 2.1.1. Seien V und W zwei reelle Vektorräume. Eine Abbildung L : V → W heisst linear, falls L(λ1 v1 + λ2 v2 ) = λ1 L(v1 ) + λ2 L(v2 ) ∀v1 , v2 ∈ V, ∀λ1 , λ2 ∈ R. Falls L, L0 : V → W zwei lineare Abbildungen sind und λ, µ ∈ R, dann ist die Abbildung v 7→ λL(v) + µL0 (v) auch linear. Deshalb ist der Raum L (V, W ) := {L : V → W : L ist linear} ein reeller Vektorraum. Falls V = Rm und W = Rk , dann ∃ eine Matrix (Lij ) (wobei i ∈ {1, . . . , k} und j ∈ {1, . . . , m}) mit L(x) = n X j=1 L1j xj , n X L2j xj , · · · , j=1 n X ! Lkj xj . j=1 (Lij ) ist die Matrixdarstellung der linearen Abbildung L. Definition 2.1.2. Sei Lij eine Matrix, die die lineare Abbildung L ∈ L (Rn , Rk ) darstellt. Die Hilbert- 28 Kapitel 2. Differenzierbare Funktionen 29 Schmidt Norm von L ist gegeben durch kLkHS v u k n uX X L2 . := t ij i=1 j=1 Bemerkung 2.1.3. L (Rn , Rk ) ∼ {L : (Lij ) k × n Matrizen} ∼ Rnk . D.h. der Raum der k × n Matrizen wird mit dem Euklidischen Raum Rnk identifiziert und es ist leicht zu sehen, dass mit dieser Indentifizierung k.kHS die Euklidische Norm ist. Bemerkung 2.1.4. Sei L ∈ L (Rn , Rk ) eine lineare Abbildung und x ∈ Rn . Dann gilt die Ungleichung |L(x)| ≤ |x| kLkHS . (2.1) Beweis. Die Ungleichung ist eine einfache Folgerung der Cauchy-Schwarz-Ungleichung. Sei L(x) = y. Es ist |L(x)|2 = k X yi2 = i=1 = k X n X i=1 j=1 k n X X i=1 !2 C.-S.-Ungl. ≤ Lij xj j=1 L2ij |x|2 = |x|2 k n X X i=1 k X n X ! L2ij j=1 n X ! x2j j=1 ! L2ij = |x|2 kLk2HS . i=1 j=1 Korollar 2.1.5. Jede L ∈ L (Rn , Rk ) ist Lipschitz-stetig. Definition 2.1.6. Sei L ∈ L (Rn , Rk ). Die Operatornorm von L ist definiert durch kLkO := sup |L(v)| . |v|≤1 Satz 2.1.7. k.kO ist eine Norm auf L (Rn , Rk ). Ausserdem (2.2) Kapitel 2. Differenzierbare Funktionen 30 (a) Das Supremum in (2.2) ist ein Maximum. (b) kLkO ist die kleinste relle Zahl C mit der Eigenschaft |L(v)| ≤ C|v| ∀v ∈ Rn . (2.3) (c) kLkO ≤ kLkHS . Beweis. (a) Die Abgeschlossene Kugel ist abgeschlossen und beschränkt und deswegen kompakt. Die Abbildung v 7→ |L(v)| ist Lipschitz-stetig weil ||L(v)| − |L(w)|| ≤ |L(v) − L(w)| ≤ kLkHS |v − w| und deswegen folgt (a) aus dem Korollar 1.11.2. (b). Sei v ∈ Rn mit v 6= 0. Dann v ≤ |v| max |L(w)| = kLkO |v| . |L(v)| = |v| L |w|≤1 |v| Da L(0) = 0 schliessen wir dass (2.3) mit C = kLkO gilt. Sei nun C eine Konstante so dass (2.3) gilt. Dann kLkO = max |L(w)| ≤ max C|w| = C |w|≤1 |w|≤1 und (b) folgt. (c) ist eine direkte Konsequenz von (b) und (2.1). k · kO ist eine Norm. L 7→ kLkO ist eine Abbildung k · kO : L (Rn , Rk ) → [0, ∞[. Ausserdem: 1. Aus (b) folgt, dass wenn kLkO = 0, dann L(v) = 0 ∀v ∈ Rn . D.h. L = 0. 2. Sei L ∈ L (Rn , Rk ) und λ ∈ R. Dann kλLkO = max |λL(v)| = max |λ| |L(v)| = |λ| max |L(v)| = |λ| kLkO . |v|≤1 |v|≤1 |v|≤1 Kapitel 2. Differenzierbare Funktionen 31 3. Seien L, L0 ∈ L (Rn , Rk ). Dann kL + L0 kO = max |(L + L0 )(v)| = max |L(v) + L0 (v)| |v|≤1 |v|≤1 ≤ max (|L(v)| + |L0 (v)|) ≤ max |L(v)| + max |L0 (v)| |v|≤1 |v|≤1 |v|≤1 0 = kLkO + kL kO 2.2. Differenzierbare Funktionen Zur Erinnerung: f : R → R heisst differenzierbar in a ∈ R, falls der Limes f (a + h) − f (a) h→0 h f 0 (a) = lim (2.4) existiert. Wenn wir die Funktion h 7→ L(h) := f 0 (a)h definieren, dann ist L eine lineare Abbildung L : R → R. Die Bedingung (2.4) ist dann zur folgenden äquivalent: f (x0 + h) − f (x0 ) − L(h) = 0. h→0 h lim (2.5) f (x0 ) + L(h) + o(|h|) . | {z } | {z } Taylor Polynom ersten Grades “Restglied” (2.6) Man schreibt auch f (x0 + h) = (Die Schreibweise o(|h|) bezeichnet eine Funktion die “in 0 schneller als |h| verschwindet”, d.h. o(|h|) lim =0 . h→0 |h| Definition 2.2.1. Eine Funktion f : U → Rk , wobei U ⊂ Rn offen ist, heisst differenzierbar in a ∈ U , Kapitel 2. Differenzierbare Funktionen 32 falls es eine lineare Abbildung L : Rn → Rk gibt, so dass f (a + v) − f (a) − L(v) = 0. v→0 |v| lim (2.7) Bemerkung 2.2.2. Die lineare Abbilung L in (2.7) ist eindeutig bestimmt: Seien L0 und L zwei lineare Abbildungen, die (2.7) erfüllen. Sei v ∈ Rn mit |v| = 1. Wegen der Linearität und (2.7) mit h = tv gilt: (L − L0 )(v) = lim t↓0 (L − L0 )(tv) = 0. |tv| Deswegen ist L = L0 . Definition 2.2.3. Die lineare Abbildung L heisst Differential von f in a. Wir schreiben dafür d f |a . Seien nun {e1 , · · · , en } die Standardbasis des Rn , h = (h1 , · · · , hn ) ∈ Rn . Dann folgt d f |a (h) = d f |a n X i=1 ! hi ei = n X hi d f |a (ei ). i=1 Satz 2.2.4. Es gilt: f differenzierbar in a =⇒ f ist stetig in a. Beweis. Es ist |f (a + b) − f (a)| = |d f |a (b) + o(|b|)| ≤ k d f |a kO |b| + |o(|b|)| | {z } | {z } →0 →0 (wenn b → 0). Beispiel 2.2.5. Sei f (x) = A·x+b, A ∈ Rk×n , b ∈ Rk . Dann ist f differenzierbar und df |a (h) = A·h: Denn die Abbildung L(h) := A · h ist linear und f (a + h) − f (a) − L(h) = 0 =: R(h) . Kapitel 2. Differenzierbare Funktionen Damit folgt trivialerweise R(h) |h| 33 → 0. Beispiel 2.2.6. Sei f : Rn → R die Abbildung n X T f (x) := x · A · x = hi Aij hj i,j=1 mit A = (aij ) ∈ Rn×n symmetrisch (d.h. AT = A). Es ist T A · h} . f (a + h) − f (a) = |2aT {z · A · h} + h | ·{z L(h) Nun ist L linear (in h) und R(h) = hT · A · h (= |hT · A · h| = | hT · (A · h) | | {z } R(h) P Cauchy-Schwartz ≤ ij hi aij hj ) erfüllt |h||A · h| ≤ kAkO |h|2 . =hh,Ahi Deswegen ist |Rh| = 0. h→0 |h| lim f ist dann differenzierbar an jeder Stelle a und L ist das Differential d f |a . Lemma 2.2.7. Seien U ⊂ Rn eine offene Menge, a ∈ U und f : U → Rk eine Abbildung mit f = (f1 , . . . , fk ). f ist differenzierbar in a genau dann, wenn jede Funktion fi in a differenzierbar ist. In dem Fall gilt auch d f |a (v) = d f1 |a (v), . . . , d fk |a (v) . Beweis. Sei f differenzierbar in a. Wir schreiben d fa (v) = (L1 (v), . . . , Lk (v)) wobei jede Li : Rn → R eine lineare Funktion ist (wenn Aij die Matrixdarstellung Kapitel 2. Differenzierbare Funktionen 34 von L ist, dann Li (v) = X Aij vj . j Wir haben |fi (x + v) − fi (x) − Li (v)| ≤ |f (x + v) − f (x) − L(v)| und deshalb |fi (x + v) − fi (x) − Li (v)| = 0. v→0 |v| lim Daraus folgt dass jede fi differenzierbar in a ist und dass d fi |a = Li . Umgekehrt, nehmen wir an dass jede fi differenzierbar in a ist. Wir betrachten die lineare Abbildung Rn 3 v 7→ L(v) = d f1 (v), . . . , d fk (v) . Aus v u k X fi (a + v) − fi (a) − d fi |a (v) 2 |f (a + v) − f (v) − L(v)| u t = |v| |v| i=1 folgt lim v→0 |f (a + v) − f (v) − L(v)| = 0. |v| Deshalb ist f differenzierbar in a und d f |a = L. 2.3. Die Richtungsableitung Wir wollen nun d f |a (h) berechnen. Seien Ω ⊂ Rn offen, a ∈ Ω und f : Ω → R eine Funktion, die in a differenzierbar ist. Sei t ∈ R und h ∈ Rn \ {0} ein Vektor. Dann ist f (a + th) = f (a) + d f |a (th) + R(th) = f (a) + t d f |a (h) + R(th) | {z } o(|th|)=o(|t|) . Kapitel 2. Differenzierbare Funktionen 35 (Die Schreibeweise o(|th|) bedeutet “eine Fuktion die schneller als die Funktion t 7→ |th| in 0 verschwindet”. Da aber |h| eine Konstante ist, verschwindet eine solche Funktion auch schneller als t 7→ |t|!) Somit d f |a (h) = lim t→0 f (a + th) − f (a) . t (2.8) Definition 2.3.1. Sei f : U → R, a ∈ U ⊂ Rn . Die Richtungsableitung von f in Richtung h ∈ Rn \ {0} ist der Grenzwert (falls er existiert) ∂f f (a + th) − f (a) (a) := lim . t→0 ∂h t (Oft werden wir auch die einfachere Notation ∂h f (a) nutzen). Bemerkung 2.3.2. In der obigen Definition haben wir nicht vorausgesetzt, dass f in a differenzierbar ist! Lemma 2.3.3. Sei f : Ω → R in a differenzierbar (wobei a ∈ Ω und Ω offen ist). Dann existieren die Richtungsableitungen ∂h f (a) in jede Richtung h ∈ Rn \ 0 und es gilt d f |a (h) = ∂h f (a). Beweis. Die Existenz der Richtungsableitung ist die Herleitung von (2.8). 2.4. Die partiellen Ableitungen und die Darstellung des Differentials Sei e1 , . . . en die Standardbasis von Rn , d.h. ei = (0, . . . 0, |{z} 1 , 0, . . . 0) . i Stelle Kapitel 2. Differenzierbare Funktionen 36 Die Ableitungen in Richtung e1 , · · · , en heissen partielle Ableitungen in a. Wir verwenden die folgende Notation: ∂ei f (a) = ∂i f (a) = ∂f (a) . ∂xi Manchmal werden wir auch die Schreibweise fxi (a) nutzen. Die partiellen Ableitungen sind ziemlich einfach zu berechnen. In der Tat, sei i ∈ {1, . . . , n} und a1 , . . . , an die Koordinaten von a. Wenn wir die Funktion ] − ε, ε[3 t 7→ g(t) = f (a1 , . . . , ai−1 , ai + t, ai+1 , . . . , an ) betrachten, dann schliessen wir ∂f (a) = g 0 (0) ∂xi (die Funktion g ist wohldefiniert wenn ε klein genug ist: Ω ist offen!). Die partielle ∂f ist deswegen eine “gewöhnliche Ableitung”, wo wir nur die Variabel Ableitung ∂x i xi “varieren” und die anderen Variablen “ignorieren”. Nehmen wir nun an, dass f : Ω → R differenzierbar an der Stelle a ist. Aus dem Lemma 2.3.3 wissen wir, dass die partiellen Ableitungen existieren. Nun können wir die Linearität des Differentials nutzen um zu rechnen: ! n n X X ∂v f (a) = d f |a (v) = d f |a vi ei = vi d f |a (ei ) i=1 = n X i=1 vi ∂f (a) . ∂xi i=1 (2.9) Die Identität (2.9) ist die “Darstellung des Differentials” durch die partiellen Ableitungen: Sie ist eine sehr wichtige Identität, weil sie die Berechnung des Differentials erlaubt. Kapitel 2. Differenzierbare Funktionen 37 2.5. Die Jacobi-Matrix und der Gradient Es gibt eine ähnliche Darstellung auch für vektorwertige Funktionen. In der Tat, sei f : Ω → Rm differenzierbar in a ∈ Ω. Wenn wir das Lemma 2.2.7 mit der Identität (2.9) kombinieren, dann erreichen wir ∂f1 ∂f1 ∂f1 (a) (a) · · · (a) h 1 ∂x1 ∂x2 ∂xn d f1 |a (h) . . . . h 2 . . . . . . . . . . . .. d f |a (h) = · = . ∂fi .. .. .. .. . . (a) . . . ∂xj hn−1 ∂fm ∂fm d fm |a (h) (a) ··· ··· (a) hn ∂x1 ∂xn | {z } J (2.10) Die Matrix J heisst Jacobi-Matrix. Schliesslich, für reellwertige differenzierbare Funktionen g : Ω → R führen wir den Gradient ein. Definition 2.5.1. Sei g : Rn ⊃ U → R differenzierbar an der Stelle a ∈ U . Dann heisst ∇g(a) = ∂g ∂g (a), . . . , (a) ∂x1 ∂xn der Gradient von g in a. Die Darstellung des Differentials (2.9) können wir folgendermassen umschreiben: d g|a (v) = h∇g(a), vi . Ausserdem, die Spalten der Jacobi-Matrix J in (2.10) sind die Gradienten der Funktionen fi . Kapitel 2. Differenzierbare Funktionen 38 2.6. Das Hauptkriterium für die Differenzierbarkeit Frage: Folgt aus der Existenz der partiellen Ableitungen die Differenzierbarkeit der Funktion? Beispiel 2.6.1. Sei f (x, y) = x2 y x2 +y 2 0 (x, y) 6= (0, 0) (x, y) = (0, 0). f besitzt alle Richtungsableitungen in (0, 0). Trotzdem ist f nicht differenzierbar in (0, 0). Damit folgt insbesondere, dass die Existenz der Richtungsableitungen nicht hinreichend für die Differenzierbarkeit von f ist. Daher impliziert die Existenz der partiellen Ableitungen (d.h. spezielle Richtungsableitungen) nicht die Differenzierbarkeit von f . Satz 2.6.2 (Hauptkriterium der Differenzierbarkeit). Sei f : U → R, wobei U ⊂ Rn eine offene Umgebung von y ist. Falls in U existieren und stetig in y sind, dann ist f in y differenzierbar. ∂f ∂f ,..., ∂x1 ∂xn Bemerkung 2.6.3. Aber Vorsicht: Die Differenzierbarkeit von f impliziert nicht die Stetigkeit der partiellen Ableitungen! Beweis. Sei h = (h1 , . . . , hn ) ∈ Rn . Wir setzen n X ∂f (y)hi . L(h) := ∂xi i=1 Wir behaupten, dass L das Differential von f an der Stelle y ist, d.h. f (y + h) − f (y) − L(h) = 0. h→0 |h| lim (2.11) Kapitel 2. Differenzierbare Funktionen 39 Wir schreiben f (y + h) − f (y) (2.12) = f (y + (h1 , . . . , hn )) − f (y + (h1 , . . . , hn−1 , 0)) +f (y + (h1 , . . . , hn−1 , 0)) − f (y + (h1 , . . . , hn−2 , 0, 0)) +... +f (y + (h1 , . . . , hi , 0, . . . 0)) − f (y + (h1 , . . . , hi−1 , 0, 0, . . . 0)) (i-te Zeile) +... +f (y + (h1 , 0, . . . , 0)) − f (y). (2.13) Sei nun gi (t) = f (y + (h1 , . . . , hi−1 , thi , 0, . . . , 0). Die i-te Zeile in (2.13) ist dann gi (1) − gi (0). Aber es ist gi (t + ε) − gi (t) ε→0 ε gi0 (t) = lim f (y1 + h1 , . . . , yi−1 + hi−1 , yi + (t + ε)hi , yi+1 . . . , yn ) − f (y1 + h1 , . . . , yi + thi , . . . , yn ) ε→0 εhi = hi lim = hi ∂f (y1 + h1 , . . . , yi + thi , yi+1 , . . . , yn ) . ∂xi Daher garantiert die Existenz der Richtungsableitungen in einer Ungebung von y die Differenzierbarkeit der Funktion gi , falls |h| klein genug ist. Zudem, aus dem Mittelwertsatz (siehe Analysis I; der Satz wird oft auch Satz von Lagrange genannt) folgt die Existenz eines ξi mit ξi ∈ ]0, 1[ : i-te Zeile von (2.13) = gi (1) − gi (0) = gi0 (ξi ) und somit ist i-te Zeile = hi ∂f ∂f (y1 + h1 , . . . , yi−1 + hi−1 , yi + ξi hi , yi+1 , . . . , yn ) = hi (y + ζi ), ∂xi ∂xi (2.14) Kapitel 2. Differenzierbare Funktionen 40 wobei ζi = (h1 , . . . , hi−1 , ξhi , 0, . . . , 0). Wir setzen (2.14) in (2.13) ein und erhalten: f (y + h) − f (y) = n X hi i=1 ∂f (y + ζi ) ∂xi und deswegen ist f (x + h) − f (x) − L(h) = n X i=1 hi ∂f ∂f (y + ζi ) − (y) . ∂xi ∂xi (2.15) Also haben wir ∂f ∂f (y + ζ ) − (y) |h | n i i ∂xi |f (x + h) − f (x) − L(h)| (2.15) X ∂xi ≤ |h| |h| i=1 n X ∂f ∂f ≤ ∂xi (y + ζi ) − ∂xi (y) . i=1 Ausserdem |ζi | ≤ |h|. Deshalb ζi → 0 wenn |h| → 0. Die Stetigkeit von impliziert (2.16) ∂f in y ∂xi ∂f ∂f (y + ζi ) → ∂xi ∂xi wenn ζi → 0. D.h. die rechte Seite von (2.16) → 0, wenn h → 0 und dies impliziert (2.11). 2.7. Kurven und die erste Version der Kettenregel Definition 2.7.1. Eine Kurve ist eine Abbildung γ : [a, b] → Rn , wobei a, b ∈ R. Dies bedeutet, dass γ(t) ∈ Rn ∀t. Seien nun γi (t) die Koordinaten des Vektors γ(t), d.h. γ(t) = (γ1 (t), · · · , γn (t)) . Jede Abbildung t → γi (t) ∈ R ist eine reellwertige Funktion in einer Variablen. Aus dem Lemma 2.2.7 folgt dass die Kurve γ überall differenzierbar ist genau Kapitel 2. Differenzierbare Funktionen 41 dann, wenn jedes γi differenzierbar ist. Ausserdem, haben wir d γ|t0 (s) = s(γ10 (t), . . . , γn0 (t)) . In diesem Fall nutzen wir die folgende Notation für die “Ableitung” von γ: γ̇(t) := (γ10 (t), · · · , γn0 (t)). Satz 2.7.2 (Kettenregel 1. Version). Sei f : U → R, wobei U ⊂ Rn eine Umgebung von x0 und f differenzierbar in x0 ist. Sei γ : [a, b] → U eine differenzierbare Kurve mit γ(t0 ) = x0 . Sei g = f ◦ γ (d.h. g(t) = f (γ(t))). Dann ist g in t0 differenzierbar mit g 0 (t0 ) = d f |γ(t0 ) (γ̇(t0 )) = h∇f (γ(t0 )), γ̇(t0 )i . Beweis. Das Ziel ist, zu zeigen, dass g(t0 + h) − g(t0 ) − h d f |γ(t0 ) (γ̇(t0 )) = 0. lim h→0 h Wir definieren R(h) := g(t0 + h) − g(t0 ) − h d f |γ(t0 ) (γ̇(t0 )) . (2.17) Nun beweisen wir die folgende Behauptung: R(h) = 0, h→0 |h| (2.18) lim d.h. R(h) = o(|h|). Aus der Differenzierbarkeit von f folgt: f (x0 + k) − f (x0 ) − d f |x0 (k) lim k→0 |k| r(k) =: = 0, |k| Kapitel 2. Differenzierbare Funktionen 42 d.h. r(k) = o(|k|). Die Differenzierbarkeit von γ impliziert γ(t0 + h) − γ(t0 ) − γ̇(t0 )h lim k→0 h p(h) =: h = 0, d.h. p(h) = o(|h|). Wir setzen k := γ(t0 + h) − γ(t0 ) und schreiben =x g(t0 + h) − g(t0 ) = z }|0{ f (γ(t0 + h)) − f (γ(t0 )) = f (γ(t0 ) + k) − f (γ(t0 )) = d f |γ(t0 ) (k) + r(k) = d f |γ(t0 ) (γ(t0 + h) − γ(t0 )) + r(k) = d f |γ(t0 ) (hγ̇(t0 ) + p(h)) + r(k) Lin. von d f = h d f |γ(t0 ) (γ̇(t0 )) + d f |γ(t0 ) (p(h)) + r(k) . Also ist R(h) = g(t0 + h) − g(t0 ) − h d f |γ(t0 ) (γ̇(t0 )) = df |γ(t0 ) (p(h)) + r(γ(t0 + h) − γ(t0 )) und |R(h)| ≤ | df |γ(t0 ) (p(h))| + |r(γ(t0 + h) − γ(t0 ))| | {z } =L ≤ kLkO |p(h)| + |r(γ(t0 + h) − γ(t0 )| . Aber p(h) = o(|h|) =⇒ kLkO |p(h)| = o(|h|). Nun beweisen wir auch r(γ(t0 + h) − γ(t0 )) = 0. h→0 |h| lim Kapitel 2. Differenzierbare Funktionen 43 Wir unterscheiden zwei Fälle. Falls γ(t0 + h) − γ(t0 ) = 0, dann ist r(γ(t0 + h) − γ(t0 )) = r(0) = 0. Wenn γ(t0 + h) − γ(t0 ) 6= 0, dann schreiben wir r(γ(t0 + h) − γ(t0 ) |γ(t0 + h) − γ(t0 )| r(γ(t0 + h) − γ(t0 )) = . |h| |γ(t0 + h) − γ(t0 )| |h| Nun ist r(γ(t0 + h) − γ(t0 ) r(k) = →0 |γ(t0 + h) − γ(t0 )| |k| (weil k = γ(t0 + h) − γ(t0 ) → 0, wenn h → 0). Ausserdem ist p(h) γ(t0 + h) − γ(t0 ) = γ̇(t0 ) + . | {z } | {z h h} konstant →0 Folglich gilt: |γ(t0 + h) − γ(t0 )| = |γ̇(t0 )| h→0 |h| |R(h)| →0 =⇒ |h| lim und dies zeigt die Differenzierbarkeit und die Kettenregel. Bemerkung 2.7.3. Als Folgerung der Kettenregel erhalten wir das folgende geometrische Korollar: Der Gradient ist orthogonal zur Niveaumenge der Funktion (Höhenlinien, wenn der Definitionsbreich der Funktion 2-dimensional ist). In der Tat sei γ : [a, b] → U eine differenzierbare Kurve, wobei U ⊂ Rn offen ist. Sei f : U → R differenzierbar. Wenn f (γ(t)) ≡ c0 (d.h. c0 hängt nicht von t ab), dann gilt ∇f (γ(t))⊥γ̇(t), Kapitel 2. Differenzierbare Funktionen 44 d.h. h∇f (γ(t)), γ̇(t)i = 0, weil 0 = g 0 (t) = (f (γ(t)))0 Kettenregel = h∇f (γ(t)), γ̇(t)i. 2.8. Der Mittelwert- und der Schrankensatz Sei f : [a, b] → R eine differenzierbare Funktion. Der Mittelwersatz (oder Satz von Lagrange) behauptet die Existenz eines ξ ∈]a, b[, so dass f (b) − f (a) = f 0 (ξ)(b − a). Sei nun f : U → R differenzierbar in U mit U ⊂ Rn offen und seien x, y ∈ U , so dass das Segment [x, y] ⊂ U ist. Das Segment [x, y] ist die Menge [x, y] = {x + t(y − x) |t ∈ [0, 1]} . Wir definieren nun die Abbildungen γ(t) := x + t(y − x) und g =f ◦γ (d.h. g(t) = f (γ(t))) . Dann ist f (y) − f (x) = g(1) − g(0) . Zudem ist γ differenzierbar mit γ̇(τ ) = (γ10 (τ ), · · · , γn0 (τ )) = (y1 − x1 , · · · , yn − xn ) = y − x Aus dem Mittelwertsatz für reellwertige Funktionen in einer Variablen folgt die Existenz einer Zahl τ ∈]0, 1[, so dass f (y) − f (x) = g(1) − g(0) = g 0 (τ ) Kettenregel = d f |γ(τ ) (γ̇(τ )) = d f |γ(τ ) (y − x). Kapitel 2. Differenzierbare Funktionen 45 D.h. ∃ξ ∈ [x, y], so dass f (y) − f (x) = d f |ξ (y − x) = ∂y−x f (ξ). (2.19) Satz 2.8.1 (Mittelwertsatz). Sei U ⊂ Rn offen, [x, y] ⊂ U und f : U → R differenzierbar. Dann ∃ξ ∈]x, y[, so dass (2.19) gilt. Definition 2.8.2. Sei U ⊂ Rn eine Menge. U heisst sternförmig mit Zentrum x0 ∈ U , wenn gilt [x0 , x] ⊂ U ∀x ∈ U . Korollar 2.8.3 (Schrankensatz). Seien U ⊂ Rn eine offene Menge, die sternförmig ist und f : U → R eine differenzierbare Funktion mit sup kd f |x kO = sup |∇f (x)| =: S < ∞ . x∈U x∈U Dann gilt: |f (x) − f (0)| ≤ S|x|. Wenn U konvex ist, d.h. das Segment [x, y] ⊂ U ∀x, y ∈ U , dann gilt: |f (x) − f (y)| ≤ S|y − x|, und deshalb ist f Lipschitz-stetig. 3. Höhere Ableitungen und die Taylorentwicklung 3.1. Höhere partielle Ableitungen Sei f : Rn ⊃ Ω → R. Die partiellen Ableitungen von f sind gegeben durch f (x + εei ) − f (x) ∂f (x) = lim , ε→0 ∂xi ε wobei ei = (0, · · · , 0, 1, 0, · · · , 0). ∂f Falls die partielle Ableitung ∂x überall existiert, dann erhalten wir eine neue Funki tion ∂f Ω3x 7→ (x) ∈ R . ∂xi Wir können diese neue Funktion wieder ableiten. Wir definieren ∂f ∂f ∂f ∂ (x + εej ) − (x) 2 ∂ f ∂xi ∂xi ∂xi (x) := (x) = lim . ε↓0 ∂xj ∂xi ∂xj ε Wenn auch diese partielle Ableitung überall existiert, dann können wir weiter ableiten: 2f ∂2f (x + εek ) − ∂x∂j ∂x (x) ∂ 3f ∂xj ∂xi i (x) := lim , ε↓0 ∂xk ∂xj ∂xi ε und so weiter. Die Anzahl der Ableitungen heisst die Ordnung der höheren partiellen Ableitung. D.h. ∂kf ∂xi1 . . . ∂xik 46 Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 47 ist eine partielle Ableitung der Ordnung k (wobei ij ∈ {1, . . . , n} und es könnte sein dass ij = i` auch wenn j 6= `). Wir nutzen die folgende Notation: ∂ 2f ∂ 2f = , ∂x2i ∂xi ∂xi ∂ 3f ∂ 3f = , ∂x3i ∂xi ∂xi ∂xi und so weiter. 3.2. Das Lemma von Schwarz Satz 3.2.1 (Lemma von Schwarz). Sei f : Ω → R eine Funktion, die in einer Umgebung von p ∈ Ω die partiellen 2f 2f ∂f ∂f Ableitungen ∂x , ∂x und ∂x∂i ∂x besitzt. Falls ∂x∂i ∂x stetig in p ist, dann existiert i j j j ∂2f (p) ∂xj ∂xi und es gilt: ∂ 2f ∂ 2f (p) = (p) . ∂xi ∂xj ∂xj ∂xi Beispiel 3.2.2. Wir kontrollieren die Plausibilität dieses Satzes anhand einer ziemlich grossen Famile von Funktionen: die Polynome. Sei f (x1 , x2 ) = N1 X N2 X aij xi1 xj2 . i=1 j=1 Dann können wir explizit die folgenden partiellen Ableitungen berechnen: N N N N N N 1 X 2 X ∂f j = iaij xi−1 1 x2 ∂x1 i=2 j=1 1 X 2 X ∂ 2f = ijaij x1i−1 xj−1 2 ∂x2 ∂x1 i=2 j=2 1 X 2 X ∂f = jaij xi1 xj−1 2 ∂x2 i=1 j=2 Kapitel 3. Höhere Ableitungen und die Taylorentwicklung N 48 N 1 X 2 X ∂ 2f = ijaij x1i−1 xj−1 . 2 ∂x1 ∂x2 i=2 j=2 Beispiel 3.2.3. Aber ohne die Voraussetzungen ist der Satz falsch: Sei zum Beispiel V : R → R eine Funktion, die nicht differenzierbar ist. Wir definieren f : R2 → R Dann ist Aber ∂f ∂x2 ∂f =0 ∂x1 f (x1 , x2 ) = V (x2 ) und existiert nicht und somit auch ∂ 2f = 0. ∂x2 ∂x1 ∂2f ∂x1 ∂x2 nicht. Beweis. [Beweis des Lemmas von Schwarz] Die Idee ist, eine Art von Mittelwertsatz zu benutzen: Schritt 1: Reduktion des Beweises auf Dimension n = 2: Seien f (x1 , · · · , xi , · · · , xj , · · · , xn ) p = (p1 , · · · , pi , · · · , pj , · · · , pn ). Wir definieren g : R2 ⊃ U → R als g(y, z) := f (p1 , · · · , pi−1 , y, pi+1 , · · · , pj−1 , z, pj+1 , · · · , pn ) . Dann sind ∂f ∂g (p) = (pi , pj ) ∂xi ∂y ∂f ∂ 2g (p) = (pi , pj ) ∂ 2 xj ∂xi ∂z∂y ∂f ∂g (p) = (pi , pj ) ∂xj ∂z ∂f ∂ 2g (p) = (pi , pj ) ∂xi ∂xj ∂y∂z Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 49 (Wir berechnen zum Beispiel f (p1 , . . . , pi + ε, . . . , pj , . . . pn ) − f (p) ∂f (p) = lim ε→0 ∂xi ε g(p1 + ε, p2 ) − g(p1 , p2 ) ∂g = lim = (pi , pj ). ε→0 ε ∂y Daher können wir ohne Beschränkung der Allgemeinheit den Satz nur für den Fall n = 2 beweisen. ∂f ∂f Schritt 2: Sei f : R2 ⊃ Ω → R und p = (a, b) ∈ Ω. Wir wissen, dass ∂x , ∂x 1 2 2f ∂2f in einer Umgebung von p = (a, b) existieren und stetig in p ist. Zu und ∂x∂2 ∂x ∂x2 ∂x1 1 2f beweisen ist nun, dass ∂x∂1 ∂x (p) existiert und 2 ∂ 2f ∂ 2f (p) = (p) . ∂x2 ∂x1 ∂x1 ∂x2 Für jedes h, k ∈ R \ {0} definieren wir das Rechteck Q mit Eckpunkten (a, b), (a + h, b), (a, b + k), (a + h, b + k). D.h. Q = [a, a + h] × [b, b + k], wenn h, k > 0. Weiter setzen wir DQ f := f (a + h, b + k) − f (a + h, b) − f (a, b + k) + f (a, b) und bemerken, dass DQ f k→0 h→0 hk lim lim f (a + h, b + k) − f (a, b + k) f (a + h, b) − f (a, b) − k→0 h→0 hk hk ∂f ∂f (a, b + k) − (a, b) ∂ 2f ∂x1 ∂x1 = lim = (a, b) (3.1) k→0 k ∂x2 ∂x1 = lim lim und DQ f lim lim h→0 k→0 hk ∂f ∂f (a + h, b) − (a, b) ∂x2 ∂x2 = lim . h→0 h (3.2) Die Existenz des Grenzwerts in (3.2) impliziert die Existenz der partiellen Ableitung Kapitel 3. Höhere Ableitungen und die Taylorentwicklung ∂2f (a, b). ∂x1 ∂2 50 In diesem Fall ist auch DQ f ∂ 2f = (a, b). h→0 k→0 hk ∂x1 ∂x2 lim lim Wir werden nun die Existenz dieses zweiten Grenzwerts beweisen. Gleichzeitig erhalten wir, dass die Grenzwerte in (3.1) und (3.2) gleich sind (d.h. wir können “h und k im Grenzwert vertauschen”). Wir behaupten (∀h, k klein genug) die Existenz einer Stelle (ξ, ζ) ∈ Q, so dass ∂ 2f DQ f = (ξ, ζ). hk ∂x2 ∂x1 (3.3) Diese Behauptung folgt durch zweimaliges Anwenden des Mittelwertsatzes. O.B.d.A. sei h, k > 0 an. Dann ist DQ f 1 f (a + h, b + k) − f (a + h, b) f (a, b + k) − f (a, b) = − hk h k k 1 Mittelwertsatz 0 = g (ξ), = {g(a + h) − g(a)} h wobei f (z, b + k) − f (z, b) k und ξ eine Stelle in ]a, a + h[ (bzw. in ]a + h, a[ wenn h < 0) ist. g ist in der Tat differenzierbar mit 1 ∂f ∂f 0 g (z) = (z, b + k) − (z, b) . k ∂x1 ∂x1 g(z) := Daraus erhalten wir durch eine weitere Anwendung des Mittelwertsatzes DQ f hk 1 ∂f ∂f = (ξ, b + k) − (ξ, b) k ∂x1 ∂x1 ∂ ∂f ∂ 2f = (ξ, ζ) = (ξ, ζ) . ∂x2 ∂x1 ∂x2 ∂x1 Kapitel 3. Höhere Ableitungen und die Taylorentwicklung Nun nutzen wir die Stetigkeit der Funktion DQ f lim lim k→0 h→0 hk 51 ∂2f : ∂x2 ∂x1 ∂ 2f = lim lim (ξ, ζ) ζ→b ξ→a ∂x2 ∂x1 ∂ 2f ∂ 2f (a, b) = lim lim (ξ, ζ) = ξ→a ζ→b ∂x2 ∂x1 ∂x2 ∂x1 DQ f = lim lim . h→0 k→0 hk Bemerkung 3.2.4. Im letzten Argument haben wir ein kleines “Hilfslemma” benutzt: Sei h : [a, a + h] × [b, b + k] → R eine Funktion mit den folgenden Eigenschaften: • h ist stetig in (a, b). • Der Grenzwert lim h(s, t) s↓a existiert für jedes t ∈]b, b + k]. Dann ist lim lim h(s, t) = h(a, b) . t↓b s↓a Beweisen Sie das Lemma! Vorsicht: die Funktion h ist nicht überall stetig und deswegen dürfen wir nicht die Identität lim h(s, t) = h(a, t) s↓a schliessen. Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 52 3.3. Das Taylorpolynom Definition 3.3.1. Seien a ∈ Ω ⊂ Rn , f : Ω → R und w ∈ Rn . Falls alle partielle Ableitungen der Ordnung k in a existieren, dann definieren wir die Abbildung x 7→ n X n X ∂ k f (a) xi · · · xi k . d f |a (x) := ··· ∂xi1 · · · ∂xik 1 i =1 i =1 (k) 1 k Wenn die Funktion f differenzierbar ist, dann ist d(1) f |a das Differenzial von f . d(k) f |a ist eine “Verallgemeinerung” der gewöhnlichen Ableitung g (k) wenn g : R → R. Ausserdem ist d(k) f |a ein homogenes Polynom vom Grad k. Das Taylor Polynom vom Grad k an der Stelle a ist dann so definiert: Tak f (x) = f (a) + d f |a (x − a) + · · · + 1 d f (k) |a (x − a) . k! Definition 3.3.2. Eine Funktion f : Ω → R heisst C k -Funktion oder kurz f ∈ C k (Ω) (manchmal auch f ∈ C k (Ω, R), wobei der zweite Raum der Bildbereich der Funktion ist), falls alle partiellen Ableitungen der Ordnung ≤ k überall existieren und stetig sind. Satz 3.3.3 (Verallgemeinerte Fehlerabschätzung von Lagrange). Sei f ∈ C k+1 (Ω) und Kr (a) ⊂ Ω. Dann gilt: ∀x ∈ Kr (a) ∃ξ ∈ [a, x], so dass Rak f (x) := f (x) − Tak f (x) = 1 d f (k+1) |ξ (x − a) . (k + 1)! (3.4) Falls f ∈ C k , dann ist f (x) − Txk f (x) = o(|x − a|k ) . Beweis. Teil 1: Beweis von (3.4): Sei g(t) := f (tx + (1 − t)a). Wir wenden die Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 53 Kettenregel (k + 1)-mal und erhalten: g 0 (t) = df |tx+(1−t)a (x − a) g 00 (t) = d2 f |tx+(1−t)a (x − a) .. .. .. . . . (3.5) g (k+1) (t) = d(k+1) f |tx+(1−t)a (x − a). Die Lagrangsche Fehlerabschätzung für Funktionen in einer Variablen (siehe das Skript Analysis I oder das Übungsblatt) garantiert die Existenz einer Stelle τ ∈]0, 1[, so dass k X 1 (i) 1 g (0) + g (k+1) (τ ) . (3.6) g(1) = i! (k + 1)! i=0 Zur Erinnerung: Wir nutzen, in einer reellen Variabel, die Konvention g (0) (0) = g(0). Daher setzen wir auch 1 d f (0) |a (x − a)0 := f (a) . 0! Die Stelle ξ := τ x + (1 − τ )a liegt im Segment [a, x]. Mit den Formeln in (3.5) schreiben wir (3.6) als k X 1 1 (i) df |a (x − a) + df (k+1) |ξ (x − a) f (x) = g(1) = i! (k + 1)! i=0 = Tak f (x) + 1 df (k+1) |ξ (x − a). (k + 1)! Teil 2: Sei nun f ∈ C k (Ω). Wir nutzen (3.4) und schreiben f (x) = Tak−1 f (x − a) + 1 (k) df |ξ (x − a), k! wobei x ∈ Kr (a) und ξ ein Punkt auf dem Segment [a, x] ist. (3.7) Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 54 Damit folgt: 1 (k) 1 (k) k f (x) − Ta f (x) = df |ξ (x − a) − df |a (x − a) k! k! n n k k X X 1 ∂ f ∂ f = ... (a) − (ξ) (xi1 − ai1 ) . . . (xik − aik ) k! i =1 i =1 ∂xi1 . . . ∂xik ∂xi1 . . . ∂xik 1 k n n X |x − a|k X ∂kf ∂kf . ≤ (a) − (ξ) (3.8) ... k! i =1 i =1 ∂xi1 . . . ∂xik ∂xi1 . . . ∂xik 1 k Da |ξ − a| ≤ |x − a|, wenn x → a haben wir auch ξ → a. Die Stetigkeit der partiellen Ableitungen impliziert dann lim x→a ∂kf ∂kf (a) − (ξ) ∂xi1 . . . ∂xik ∂xi1 . . . ∂xik = 0. So aus (3.8) schliessen wir lim x→a f (x) − Tak f (x) |x − a|k = 0. Falls eine Funktion f beliebig oft differenzierbar ist (mit stetigen partiellen Ableitungen aller Ordnungen) dann schreiben wir f ∈ C ∞ (Ω). Wir können dann die Taylorreihe schreiben (das bedeutet aber nicht, dass die Reihe auch tatsächlich konvergiert und mit der Funktion übereinstimmt!): ∞ X 1 d f (k) |a (x − a). k! k=0 (3.9) Definition 3.3.4. Eine Funktion f ∈ C ∞ (Ω) heisst analytisch, wenn ∀a ∈ Ω ∃Kr (a) ⊂ Ω mit der Eigenschaft, dass die Reihe (3.9) für alle x ∈ Kr (a) nach eine reelle Zahl Ta (x) konvergiert und Ta f (x) = f (x) ∀x ∈ Kr (a) . Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 55 In diesem Fall schreiben wir f ∈ C ω (Ω). 3.4. Das Taylorpolynom zweiter Ordnung Wir schreiben noch einmal die Approximation einer Funktion f ∈ C 2 (Ω) mittels Taylorpolynom zweiter Ordnung auf: f (z) =f (x) + n X ∂f (x)(zi − xi ) ∂x i i=1 | {z } (3.10) h∇f (x),z−xi + 1 2 n X n X i=1 j=1 ∂ 2f (x)(zi − xi )(zj − xj ) + R(z). ∂xi ∂xj Wegen Satz 3.3.3 wissen wir, dass R(z) = o(|z−x|2 ). Falls f ∈ C 3 (Ω) ist, dann wissen wir noch mehr: R(z) = O(|z − x|3 ) (wir führen hier eine neue Notation ein: Wenn g eine nichtnegative Funktion ist, dann bedeutet die Notation R(z) = O(g(z)), dass eine Umgebung U von x und eine Konstant C existieren, so dass |R(z)| ≤ Cg(z) ∀z ∈ U ). Wir definieren nun die so genannte Hesse-Matrix wie folgt: Hf (x) := ∂f (x) . ∂xi ∂xj (3.11) Zum Beispiel für Funktionen von drei Variablen sieht die Hesse-Matrix so aus: ∂2f 2 ∂∂x2 f1 ∂x2 ∂x1 ∂2f ∂x3 ∂x1 ∂2f ∂x1 ∂x2 ∂2f ∂x22 ∂2f ∂x3 ∂x2 ∂2f ∂x1 ∂x3 ∂2f ∂x2 ∂x3 ∂2f ∂x23 Bemerkung 3.4.1. Aus dem Lemma von Schwarz folgt, dass Hf (x) symmetrisch ist, sobald alle Ableitungen zweiter Ordnung stetig sind. Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 56 Wir betrachten nun den Vektor ! X ∂ 2f X ∂ 2f (x)(zi − xi ), · · · , (x)(zi − xi ) ∂x1 ∂xj ∂xn ∂xi i i | {z } =Hf (x)·(z−x) und daher ist n X n X ∂ 2f (x)(zi − xi ) (zj − xj ) ∂x ∂x j i j=1 i=1 =hz − x, Hf (x) · (z − x)i = (z − x)T · Hf (x) · (z − x). Wenn A eine n × n-Matrix ist, so handelt es sich bei der Abbildung w 7→ wT · A · w (= hw, A · wi) um eine so genannte “quadratische Form” auf Rn . wT · A · w ist das Matrix-Produkt der 1 × n-Matrix wT (“eine Zeile”), der n × n-Matrix A und der n × 1-Matrix w (“eine Spalte”). In der Zukunft werden wir unsere Notation vereinfachen und wT Aw (bzw. Aw) statt wT · A · w (bzw. A · w) schreiben. Das Taylorpolynom zweiter Ordnung ist damit gegeben durch 1 Tx2 f (z) = f (x) + h∇f (x), z − xi + (z − x)T Hf (x)(z − x). 2 Korollar 3.4.2. Falls f ∈ C 3 (Ω) und K r (x) ⊂ Ω, dann ist f (z) = Tx2 f (z) + O(|x − z|3 ) , d.h. f (z) − Tx2 f (z) ≤ C|z − x|3 . Korollar 3.4.3. Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 57 Falls f ∈ C 2 (Ω) und Kr (x) ⊂ Ω, dann ist f (z) = Tx2 f (z) + o(|z − x|2 ), d.h. f (z) − Tx2 f (z) lim = 0. z→x |z − x|2 3.5. Maxima, Minima und die Hesse Matrix Definition 3.5.1. Seien X ⊂ Rn und f : X → R. f hat in a ∈ X ein lokales Minimum bzw. Maximum genau dann, wenn ∃ eine Umgebung V von a, so dass f (a) ≤ f (x) (bzw. ≥ f (x)) ∀x ∈ V ∩ X . Wir sagen das Minimum bzw. Maximum sei strikt (oder isoliert) genau dann, wenn f (a) < f (x) (bzw. > f (x)) ∀x ∈ (V ∩ X) \ {a} . Satz 3.5.2. (Notwendiges Kriterium für lokale Extrema). Sei U ⊂ Rn offen und f : U → R eine Funktion die alle partielle Ableitungen erster Ordnung besitzt und die ein Extremum in a ∈ U hat. Dann gilt: ∂f ∂f (a) = · · · = (a) = 0. ∂x1 ∂xn D.h. wenn f differenzierbar ist, dann gilt d f |a = 0. Beweis. Wir definieren die Funktion F (t) := f (a + tei ), wobei t so klein gewählt wird, dass a + tei ∈ U . Dann hat F ein lokales Extremum in 0 und deswegen 0 = F 0 (0) = ∂f (a) = 0 . ∂xi Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 58 Definition 3.5.3. Sei f differenzierbar. Eine Stelle a mit d f |a = 0 heisst kritischer Punkt. Wir sagen auch, dass f in a stationär sei. Bemerkung 3.5.4. Ein lokales Extremum einer differenzierbaren Funktion ist immer auch ein kritischer Punkt, aber nicht umgekehrt: ein kritischer Punkt muss kein Extremum sein! Definition 3.5.5. Sei A ∈ Rn×n . A heisst • positiv semidefinit, falls v t Av ≥ 0 ∀v ∈ Rn , und in dem Fall schreiben wir A ≥ 0; • positiv definit, falls v t Av > 0 ∀v ∈ Rn \{0}, in in dem Fall schreiben wir A > 0; • negativ semidefinit, falls v t Av ≤ 0 ∀v ∈ Rn , und in dem Fall schreiben wir A ≤ 0; • negativ definit, falls v t Av < 0 ∀v ∈ Rn \ {0}, und in dem Fall schreiben wir A < 0; • indefinit, falls zwei Vektoren v und w existieren mit v t Av > 0 und wt ·A·w < 0. Eine wichtige Tatsache aus der linearen Algebra. Satz 3.5.6. Jede symmetrische Matrix A besitzt eine orthonormale Basis von Eigenvektoren. Als Korollar kriegen wir eine sichere Methode, um herauszufinden ob eine Matrix positiv (bzw. negativ) definit (bzw. semidefinit) ist. Korollar 3.5.7. Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 59 Sei A eine symmetrische Matrix. ⇐⇒ kein Eigenwert von A ist negativ A positiv definit ⇐⇒ alle Eigenwerte von A sind positiv A negativ semidefinit ⇐⇒ kein Eigenwert von A ist positiv A negativ definit ⇐⇒ alle Eigenwerte von A sind negativ A indefinit ⇐⇒ A besitzt (mindestens) einen negativen A positiv semidefinit und einen positiven Eigenwert. Bemerkung 3.5.8. Das obige Kriterium wird besonders einfach, wenn A eine 2 × 2 Matrix ist, weil die Determinante von A das Produkt der Eigenwerten ist und die Spur die Summe. Dann ist A genau dann indefinit, wenn die Determinante negativ ist. A ist genau dann positiv definit (bzw. semidefinit), wenn die Determinante und die Spur beide positiv sind (bzw. beide nichtnegativ sind). A ist genau dann negativ definit (bzw. semidefinit), wenn die Determinante positiv und die Spur negativ ist (bzw. die Determinante nichtnegativ und die Spur nichtpositiv ist). Satz 3.5.9 (Kriterium für lokale Extrema). Seien U ⊂ Rn offen, a ∈ U und f ∈ C 2 (U, R) mit d f |a = 0. Dann gilt: a lokales Minimum =⇒ Hf (a) positiv semidefinit a lokales Maximum =⇒ Hf (a) negativ semidefinit Hf (a) > 0 (positiv definit) =⇒ a lokales (striktes!) Minimum Hf (a) < 0 (negativ definit) =⇒ a lokales (striktes!) Maximum Hf (a) (indefinit) =⇒ a kein Extremum Im indefiniten Fall gilt: ∃ Geraden G1 , G2 durch a, so dass f |G1 ∩U in a ein lokales Minimum und f |G2 ∩U in a ein lokales Maximum hat, d.h. a ist ein Sattelpunkt. Beweis. Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 60 • Sei Hf (a) > 0. Dann gilt: 1 Taylor d f |a = 0 ===⇒ f (a + h) = f (a) + hT Hf (a)h + R(h) 2 mit R(h) → 0, |h|2 wenn |h| → 0. Da die Abbildung h 7→ hT Hf (a)h ein Polynom ist, gilt weiter – h 7→ hT Hf (a)h ist stetig – h 7→ hT Hf (a)h hat ein Minimum m auf ∂K1 (0) = {|h| = 1} (Kompaktheit) und m > 0 (da Hf (a) > 0). – Nun ist hT Hf (a)h ≥ m|h|2 . In der Tat hT Hf (a)h = 0 für h = 0 und h =: |h|e und wenn h 6= 0 haben wir h = |h| |h| hT Hf (a)h = |h|2 eT Hf (a)e ≥ |h|2 m . Eigentlich, mit dem Satz 3.5.6 kann man sofort schliessen dass die obige Ungleichung mit der expliziten Konstanten m = min der Eigenwerte von Hf (a) gilt. Wir wählen nun ε > 0 so klein, dass Kε (a) ⊂ U und |R(h)| ≤ m 2 |h| 4 ∀h ∈ Kε (0) . Dann 1 f (a + h) − f (a) = hT Hf (a)h + R(h) 2 m 2 m 2 m 2 ≥ |h| − |h| ≥ |h| 2 4 4 ∀h ∈ Kε (0) , d.h. f hat in a ein lokales striktes Minimum. • Sei nun Hf (a) < 0: Dann folgt, dass −Hf (a) > 0. Es folgt aus dem obigen Argument, dass −f ein lokales striktes Minimum in a hat. Deswegen hat f ein lokales striktes Maximum in a. Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 61 • Sei Hf (a) indefinit. Dann gilt: ∃v, w : v T Hf (a)v > 0, wT Hf (a)w < 0. Wir setzen nun Fv (t) := f (a + tv), Fw (t) = f (a + tw). Dann folgt Fv00 (0) > 0 =⇒ Fv hat ein lokales Minimum in 0 und Fw00 (0) < 0 =⇒ Fw hat ein lokales Maximum in 0, und daraus folgt die Behauptung. • Sei nun a ein lokales Minimum, dann hat die obige Funktion Fv ein lokales Minimum in 0 und deshalb muss Fv00 (0) ≥ 0. Da v aber beliebig ist, kriegen wir v t Hf (a)v ≥ 0 für alle v, d.h. Hf (a) ist positiv semidefinit. • Sei nun a ein lokales Maximum. Dann ist a ein lokales Minimum für −f und deswegen ist −Hf (a) positiv semidefinit. Das beweist, dass Hf (a) negativ semidefinit ist. Beispiel 3.5.10. Sei f (x, y) = y 2 (x − 1) + x2 (x + 1). Dann ist d f |(x,y) = (y 2 + 3x2 + 2x, 2(x − 1)y) Für die kritischen Punkte muss gelten: d f |(x,y) = (0, 0). Das gilt für P1 = (0, 0), 2 P2 = − , 0 3 Kapitel 3. Höhere Ableitungen und die Taylorentwicklung Wir berechnen noch Hf (x, y) = 6x + 2 2y 2y 2(x − 1) , d.h. die Hesse-Matrix Hf (P1 ) = 62 ! ! 2 0 0 −2 ist indefinit, d.h. es handelt sich um einen Sattelpunkt. Für P2 gilt: Hf (P2 ) = −2 0 0 − 10 3 ! < 0, d.h. es handelt sich um ein lokales Maximum. Beispiel 3.5.11. Seien f (x, y) = x2 + y 3 und g(x, y) = x2 + y 4 . Im Punkt 0 (welches ein kritischer Punkt!für beide Funktionen ist) ist die Hesse-Matrix in beiden Fällen gegeben durch 2 0 . Daraus schliessen wir dass der Punkt 0 kein lokales Maximum sein kann. 0 0 Aber für f ist 0 auch kein Minimum und für g ist 0 ein striktes Minimum. 3.6. Konvexität Definition 3.6.1. Eine Menge U ⊂ Rn heisst konvex, falls ∀x, y ∈ U : [x, y] ⊂ U. Definition 3.6.2. Eine Funktion f : U → R heisst konvex, falls f (tx + (1 − t)y) ≤ tf (x) + (1 − t)f (y) ∀x, y ∈ U ∀t ∈]0, 1[ . (3.12) • Falls die linke Seite von (3.12) ∀x, y ∈ U ∀t ∈]0, 1[ strikt kleiner als die rechte Seite ist, so heisst die Funktion streng konvex. Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 63 • f heisst (streng) konkav, falls −f (streng) konvex ist. Bemerkung 3.6.3. Eine Funktion f ist genau dann konvex, wenn, für alle x 6= y ∈ U , die Abbildung t 7→ Fx,y (t) = f (x + t(y − x)) konvex auf [0, 1] ist. Satz 3.6.4 (Die diskrete Jensensche Ungleichung). Seien Ω eine konvexe Menge und f : Ω eine konvexe Funktion. Falls x1 , . . . , xk ∈ Ω P und λ1 , . . . , λk ∈ [0, ∞[ mit i λi = 1, dann ! f X λ i xi ≤ X λi f (xi ) . (3.13) i i Beweis. Wir beweisen den Satz mittels des Prinzips der vollständigen Induktion. Für k = 2 ist die Aussage genau die Definition einer konvenxen Funktion. Wir bemerken, dass Ω konvex ist, deswegen gehört der Punkt λ1 x1 + λ2 x2 zu Ω. Angenommen dass die Ungleichung für jede Wahl von k Punkten gilt, beweisen wie sie für k + 1 Punkte. Wir bemerken auch dass, als konsequenz der Annahme, P λi xi ein Punkt von Ω ist. Seien deswegen x1 , . . . , xk+1 und λ1 , . . . , λk+1 ≥ 0 mit Pi i λi = 1. Falls λk+1 = 1, dann gibt es nichts zu beweisen, weil λ1 = . . . = λk = 0. Sonst, setzen wir λi . µi := 1 − λk+1 Deshalb, aus der Induktionsannahme folgt, dass y= k X µ i xi ∈ Ω i=1 und f (y) ≤ k X µi f (xi ) . (3.14) i=1 Nun, aus der Konvexität von Ω folgt, dass (1 − λk+1 )y + λk+1 xk+1 ∈ Ω, weil (1 − λk+1 )y + λk+1 xk+1 ein Punkt auf dem Segment [y, xk+1 ] ist. Aus der Definition von Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 64 Konvexität haben wir dann ! ! k+1 k X X f λi xi = f (1 − λk+1 ) µi xi + λk+1 xk+1 = f ((1 − λk+1 )y + λk+1 xk+1 ) i=1 i=1 ≤ (1 − λk+1 )f (y) + λk+1 f (xk+1 ) (3.14) ≤ (1 − λk+1 ) k X i µi x + λk+1 f (x i=1 k+1 )= k X λi f (xi ) + λk+1 f (xk+1 ) . i=1 Das beweist den Induktionsschritt und, deshalb, den Satz. Konvexe Funktionen sind nicht unbedingt differenzierbar. Zum Beispiel ist die Funktion x 7→ |x| konvex. Die konvexen Funktionen sind aber lokal Lipschitz stetig. In der Tat werden wir die folgende Aussage beweisen: Lemma 3.6.5. Sei f : Ω → R eine konvexe Funktion auf der abgeschlossenen Kugel K̄r (x0 ). Falls supx∈K̄r (x0 ) f =: M < ∞, dann gilt |f (x) − f (x0 )| ≤ M − f (x0 ) |x − x0 | . r Als Folgerung des Lemmas, falls f eine beschränkte konvexe Funktion auf K4r (x) mit sup |f | ≤ C < ∞ ist, dann |f (z) − f (w)| ≤ supξ∈K̄2r (z) f − f (z) 2C |z − w| ≤ |z − w| r r für alle z, w ∈ Kr (x). Deshalb ist die Funktion stetig auf Kr (x). Mit einem einfachen Argument folgt dann, dass jede beschränkte konvexe Funktion, die auf einer offenen konvexen Menge Ω definiert ist, Lipschitz auf jeder kompakten Teilmenge K ⊂ Ω ist. In der Tat, jede konvexe Funktion ist “lokal beschränkt” und deshalb reicht die Konvexität allein aus, aber das Argument ist aufwendig und wir werden es weglassen: Satz 3.6.6. Sei f : Ω → R eine konvexe Funktion auf einem offenen konvexen Definitionsbereich Ω und K ⊂ Ω eine kompakte Menge. Dann supx∈K |f (x)| < ∞. Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 65 Beweis des Lemmas 3.6.5. Wir bemerken dass die Funktion g(x) = f (x+x0 )−f (x0 ) auch konvex ist und beschränkt auf ihrem Definitionsbereich K̄r (0) ist. Ausserdem ist sup g = M − f (x0 ) und deswegen, falls wir beweisen dass |g(z)| ≤ sup g |z| , r dann folgt die Behauptung des Lemmas. Betrachten wir dann x ∈ Kr (0). Falls x = 0, x x und z = −r |x| . Dann dann ist die Ungleichung trivial. Sonst betrachten wir y = r |x| |x| |x| x = r y + (1 − r )y und die Konvexität von g impliziert |x| |x| |x| M |x| g(x) ≤ g(y) + 1 − g(0) = g(y) ≤ . r r r r Ähnlicherweise 0 = |x| z r+|x| + 1− 0 = g(0) ≤ |x| r+|x| x= |x| z r+|x| + r x r+|x| und deshalb r |x| g(z) + g(x) , r + |x| r + |x| d.h. −g(x) ≤ |x| |x| g(z) ≤ M. r r Schliesslich |g(x)| = max{g(x), −g(x)} ≤ |x|M . r Satz 3.6.7 (Konvexitätskriterium für differenzierbare Funktionen). Sei Ω eine offene konvexe Menge und f eine differenzierbare Funktion. Die folgende Aussagen sind äquivalent zur Konvexität von f : (a) f (x) ≥ f (x0 ) + h∇f (x0 ), x − x0 i für alle x0 , x ∈ Ω; (b) h∇f (y) − ∇f (w), y − wi ≥ 0 für alle y, w ∈ Ω. Beweis. Konvexität =⇒ (a). Wir wissen, dass f (tx + (1 − t)x0 ) ≤ tf (x) + (1 − t)f (x0 ) ∀t ∈ [0, 1] . Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 66 Die obige Ungleichung können wir auch als f (x0 + t(x − x0 )) ≤ f (x0 ) + t(f (x) − f (x0 )) schreiben. Wenn t > 0, f (x0 + t(x − x0 )) − f (x0 ) ≤ f (x) − f (x0 ) . t Aber, wenn t ↓ 0 haben wir dann h∇f (x0 ), (x − x0 )i = lim+ t↓0 f (x0 + t(x − x0 )) − f (x0 ) ≤ f (x) − f (x0 ) , t d.h. (a). (a) =⇒ (b). Aus (a) folgen die zwei Ungleichungen f (y) ≥ f (w) + h∇f (y), w − yi f (w) ≥ f (y) + h∇f (w), y − wi = f (y) − h∇f (w), w − yi . Die Summe der zwei Ungleichungen gibt dann f (w) + f (y) ≥ f (y) + f (w) + h∇f (y) − ∇f (w), w − yi , d.h. 0 ≥ −h∇f (w) − ∇f (y), w − yi . (b) =⇒ (a). Aus dem Mittlewertsatz wissen wir dass es eine Stelle ξ ∈]x0 , x[ gibt so dass f (x) − f (x0 ) = h∇f (ξ), (x − x0 )i . Da ξ ∈][x0 , x[, existiert ein λ ∈]0, 1[ so dass ξ = x0 + λ(x − x0 ). Aus (b) folgt h∇f (ξ) − ∇f (x0 ), x − x0 i = 1 h∇f (ξ) − ∇f (x0 ), ξ − x0 i ≥ 0 λ Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 67 und deshalb h∇f (ξ), x − x0 i ≥ h∇f (x0 ), x − x0 i . Daraus folgt (a). (a) =⇒ Konvexität. Seien z, y ∈ Ω und t ∈ [0, 1]. Aus (a) folgen die Ungleichungen: f (z) ≥ f (y + t(z − y)) + h∇f (y + t(z − y)), (1 − t)(z − y)i f (y) ≥ f (y + t(z − y)) + h∇f (y + t(z − y)), −t(z − y)i . Wir multiplizieren die erste Ungleichung mit t, die zweite Ungleichung mit 1 − t und nehmen dann die Summe. Wir schliessen tf (z) + (1 − t)f (y) ≥ f (y + t(z − y)) = f (tz + (1 − t)y) . Satz 3.6.8 (Konvexitätskriterium). Sei f : U → R, f zwei Mal differenzierbar und U ⊂ Rn offen und konvex. Dann gilt: 1. f konvex ⇐⇒ Hf (x) ≥ 0 ∀x ∈ U 2. Hf (x) > 0 ∀x ∈ U =⇒ f streng konvex. Bemerkung 3.6.9. Die Umkehrung von 2 gilt nicht: Betrachte z.B. f (x, y) = x4 + y 4 . Beweis. ist 1. Sei f konvex: ∀x ∈ U wählen wir ein r > 0, so dass Kr (x) ⊂ U . Dann Fx,x+h (t) konvex ∀h ∈ Kr (0) und daraus folgt 00 hT Hf (x)h = Fx,x+h (0) ≥ |{z} 0 ∀h ∈ Kr (0) Konvexität in Dimension 1 und somit hT Hf (x)h ≥ 0 ∀h ∈ Rn , d.h. Hf (x) ist positiv semidefinit, d.h. Hf (x) ≥ 0 ∀x ∈ U . Kapitel 3. Höhere Ableitungen und die Taylorentwicklung 68 Wir beweisen nun die andere Richtung. Angenommen dass Hf (x) ≥ 0 ∀x ∈ U , also gilt: 00 a, b ∈ U =⇒ Fa,b (t) = (b − a)T Hf (a + t(b − a))(b − a) ≥ 0. Dies zeigt, dass Fa,b konvex ist für alle a, b ∈ U und daraus folgt die Behauptung. 2. Analog wie die zweite Richtung im Beweis der ersten Aussage. 4. Differentiation parameterabhängiger Integrale Sei U ⊂ Rn offen und f : U × [a, b] → R stetig. Wir definieren für alle x ∈ U die Funktion Z b f (x, t) d t. F (x) := a In diesem Kapitel untersuchen wir die Ableitungen der Funktion F . 4.1. Differentationssatz Der folgende Satz enthält hinreichende Bedingungen um die Ableitung und das Integral zu vertauschen ∂ ∂xi Z b b Z f (x, t) d t = a a ∂f (x, t) d t. ∂xi Satz 4.1.1 (Differentiationssatz). Falls gilt: 1. ∀t ∈ [a, b] ist x 7→ f (x, t) nach xi partiell differenzierbar, d.h. ∃ 2. und ∂f (x, t) ∂xi ∀(x, t) ∈ U × [a, b] ∂f ist stetig, ∂xi 69 Kapitel 4. Differentiation parameterabhängiger Integrale dann existiert auch 70 ∂F (x) mit ∂xi ∂F (x) = ∂xi Z a b ∂f (x, t) d t. ∂xi Beweis. Sei x ∈ U und ei = (0, · · · , |{z} 1 , · · · , 0). Dann ist ite Stelle ∂F F (x + εei ) − F (x) (x) = lim ε→0 ∂xi ε Z b Z b 1 f (x + εei , t) d t − f (x, t) d t = lim ε→0 ε a a Z b f (x + εei , t) − f (x, t) = lim d t. ε→0 a ε Daher ist Z b ∂f ∂F (x, t) − (x, t) d t ∂xi a ∂xi Z b Z b f (x + εei , t) − f (x, t) ∂f = lim dt − (x, t) d t ε→0 a ε a ∂xi Z b ∂f f (x + εei , t) − f (x, t) − (x, t) d t . = lim ε→0 a ε ∂xi Wir behaupten nun Z b f (x + εe , t) − f (x, t) ∂f ε→0 i A(ε) := − (x, t) dt → 0, ε a | {z } ∂xi ∂f (Mittelwetsatz)= (ξε (x,t),t) ∂xi wobei ξε (x, t) ∈ [x, x + εei ]. Wir bemerken dass lim ξε (x, t) = x ε→0 (4.1) Kapitel 4. Differentiation parameterabhängiger Integrale und mit der Stetigkeit von 71 ∂f folgt: ∂xi ∂f ∂f (ξε (t), t) → (x, t) . ∂xi ∂xi Wir behaupten nun, dass die Konvergenz sogar gleichmässig in t ist, d.h. (G) ∀δ > 0 ∃ε0 > 0, so dass ∂f ∂f |ε| ≤ ε0 =⇒ sup (ξε (x, t), t) − (x, t) < δ. ∂xi t∈[a,b] ∂xi Aus dieser Behauptung folgt dann Z lim sup A(ε) ≤ sup A(ε) ≤ ε→0 |ε|<ε0 b δ d t = δ(b − a), a wobei δ beliebig war, d.h. lim A(ε) = 0. ε→0 Die Behauptung (G) folgt aus dem nächsten Lemma. Lemma 4.1.2. Sei g : U × [a, b] → R stetig, wobei U ⊂ Rn eine offene Menge ist. Weiter sei x ∈ U . Dann gilt: ∀δ > 0 ∃ε > 0 mit sup sup |g(y, t) − g(x, t)| < δ . y∈Kε (x) t∈[a,b] Wir können die Funktionen t 7→ gy (t) := g(y, t) als eine “Parameterabhängige Familie” betrachten. Definition 4.1.3. Sei U ⊂ Rn und I ⊂ R ein Intervall. Sei {gy }y∈U eine Familie von Funktionen gy : I → R und y0 ∈ U . Wir sagen dass gy → gy0 gleichmässig konvergiert falls (G) Für jede δ > 0 ∃ε > 0 so dass sup |gy (t) − gy (t0 )| < δ t∈I ∀y ∈ Kε (y0 ) ∩ U . Kapitel 4. Differentiation parameterabhängiger Integrale 72 Ähnlicherweise, eine Folge von Funktionen fk : I → R konvergiert gleichmässig nach f wenn (G) Für jedes η > 0 ∃N ∈ N so dass sup |fn (t) − f (t)| < η ∀n ≥ N . t∈I Deshalb eine alternative Formulierung des Lemmas 4.1.2 ist die folgende: Lemma 4.1.4. Sei g : U × [a, b] → R stetig und definieren wir gy (t) := g(y, t). Dann, für jedes x ∈ U , konvergiert gy gleichmässig gegen gx für y → x. Bemerkung 4.1.5. Das Lemma basiert nur auf der Kompaktheit von [a, b]: in der Behauptung können wir [a, b] durch eine beliebige kompakte Menge K ⊂ R ersetzen. Ausserdem, es genügt die Stetigkeit in jeder Stelle (x, t) ∈ {x} × [a, b] um die gleichmässige Konvergenz von gy gegen gx zu schliessen. Beweis. Sei ε > 0 gegeben. ∀(x, t) ∃δ(x, t) > 0, so dass |g(ξ, τ ) − g(x, t)| < ε 2 ∀(ξ, τ ) mit | (ξ, τ ) − (x, t) | < δ(x, t) . | {z } | {z } ∈Rn+1 ∈Rn+1 Hier haben wir |(ξ, τ ) − (x, t)| | {z } Euklidische Norm in ∀(x, t) sei = p |ξ − x|2 + (t − τ )2 . Rn+1 " √ √ 2 2 := K √2 δ(x,t) (x) × t − δ(x, t), t + δ(x, t) . 2 2 2 | {z } # Ux,t ⊂Rn Aus (y, τ ) ∈ Ux,t , folgt √ 2 2 |y − x| ≤ δ(x, t) und |t − τ | < δ(x, t) 2 2 √ Kapitel 4. Differentiation parameterabhängiger Integrale und r |(y, τ ) − (x, t)| < 73 1 2 1 δ (x, t) + δ 2 (x, t) = δ(x, t) . 2 2 Deshalb Ux,t ⊂ Kδ(x,t) (x, t). Sei nun K := {x} × [a, b]. Wir bemerken, dass K kompakt ist, weil R 3 t 7→ (x, t) eine stetige Funktion ist und K das Bild von [a, b] unter dieser Abbildung ist. Nun ist {Ux,t : t ∈ [a, b]} eine offene Überdeckung von K. Die Kompaktheit impliziert die Existenz einer Teilüberdeckung {Ux,ti : i ∈ {1, · · · , N }} von K. Wir definieren (√ ) 2 δ := min δ(x, ti ) : i ∈ {1, · · · , N } > 0 2 und wir behaupten dass δ die Bedingung (G) erfüllt. In der Tat, sei t ∈ [a, b]. Dann ist (x, t) ∈ Ux,ti für mindestens ein i ∈ {1, · · · , N }. Sei nun y so gewählt, dass y −x < δ ist. Wir wissen dass auch (y, t) in Ux,ti enthalten ist. Deshalb (x, t), (y, t) ∈ Kδ(x,ti ) (x, ti ). Es folgt |f (x, t) − f (y, t)| ≤|f (x, t) − f (x, ti )| + |f (x, ti ) − f (y, t)| ε ε < + = ε. 2 2 Wir schliessen |f (x, t) − f (y, t)| < ε d.h. (G). ∀t ∈ [a, b] , ∀y ∈ Kδ (x) , Kapitel 4. Differentiation parameterabhängiger Integrale 4.2. Folgerungen des Differentiationssatzes Korollar 4.2.1. Sei g : U × [a, b] → R stetig. Dann gilt: b Z g(x, t) d t F (x) = a ist eine stetige Funktion. Beweis. Seien x ∈ U und ε > 0. Das Lemma 4.1.2 impliziert: ∃δ > 0, so dass |g(x, t) − g(y, t)| ≤ ε b−a ∀t und ∀y mit |y − x| < δ. Deswegen gilt für |y − x| < δ: Z b Z b |g(x, t) − g(y, t)| d t |F (y) − F (x)| = (g(x, t) − g(y, t)) d t ≤ a a Z b ε < dt = ε. a b−a Bemerkung 4.2.2. Im Differentiationssatz ist ∂f eine stetige Funktion. Desewgen ist auch ∂xi ∂F (x) = ∂xi b Z a ∂f (x, t) d t ∂xi eine stetige Funktion. Korollar 4.2.3. Sei g : U × [a, b] → R eine C 1 Funktion. Dann gilt: Z F (x) = g(x, t) d t a ist eine C 1 Funktion. b 74 Kapitel 4. Differentiation parameterabhängiger Integrale 75 4.3. Der Satz von Fubini Der folgende Satz ist eine sehr wichtige Konsequenz des Differentiationssatzes. Satz 4.3.1 (Satz von Fubini für stetige Funktionen). Seien U ⊂ R2 offen, f : U → R eine stetige Funktion und R = [a, b] × [c, d] ⊂ U . Dann gilt: Z Z Z Z b b d d f (s, t) d s d t . f (s, t) d t d s = a a c c Beweis. Wir definieren x Z y Z Φ(x, y) := f (s, t) d t d s a und c y Z x Z f (s, t) d s d t. Ψ(x, y) := c Wir verwenden folgende Konvention: a Rβ =− α Rα β , falls β < α und Rα α = 0. Schritt 1: Φ und Ψ sind stetig differenzierbar und ∇Φ = ∇Ψ. (Die Funktionen sind wohldefiniert für (x, y) ∈]a − ε, b + ε[×]c − ε, d + ε[, wenn ε > 0 klein genug ist). Sei y fixiert. Dann setzen wir Z y f (x, t) d t. φy (x) = c Da f stetig ist, ist auch x 7→ φy (x) stetig (für jede y). Der Fundamentalsatz der Integralrechnung ergibt ∂Φ (x, y) = φy (x) = ∂x Z y f (x, t) d t. (4.2) c ∂Φ ∂Φ ist eine stetige Funktion in der Variablen x. Wir beweisen nun, dass eine ∂x ∂x stetige Funktion in zwei Variablen ist: Sei (x0 , y0 ), ε > 0. Dann ∃δ > 0, so dass ∂Φ (x, y0 ) − ∂Φ (x0 , y0 ) < ε ∂x 2 ∂x für |x − x0 | < ε. Kapitel 4. Differentiation parameterabhängiger Integrale 76 Sei x fixiert, dann gilt: Z y Z y0 ∂Φ ∂Φ = (x, y0 ) − f (x, t) d t f (x, t) d t − (x, y) ∂x ∂x c c Z y Z y f (x, t) d t ≤ |f (x, t)| d t = y0 y0 ≤ M |y − y0 | , wobei M das Maximum von f ist. ε Damit folgt für δ̄ ≤ 2M ε ∂Φ ∂Φ (x, y) < . |y − y0 | < δ̄ =⇒ (x, y0 ) − ∂x ∂x 2 Wenn nun |(x, y) − (x0 , y0 )| < min δ, δ̄ , dann folgt |x − x0 | < δ und |y − y0 | < δ̄ und somit ≤ ∂Φ (x, y) − ∂x ∂Φ (x, y) − ∂x ∂Φ (x0 , y0 ) ∂x ∂Φ ε ε ∂Φ ∂Φ (x, y0 ) + (x, y0 ) − (x0 , y0 ) < + = ε . ∂x ∂x ∂x 2 2 Mit dem gleichen Argument folgt, dass ∂Ψ existiert und stetig ist. Sei nun ∂y x Z ψ(x, y) := f (s, y) d s . a Dürfen wir die letzte Identität in der folgenden Zeile schliessen? ∂Ψ ∂ = ∂x ∂x Z y ? Z ψ(x, t) d t = c Wir brauchen hier die Stetigkeit von c ∂ψ . ∂x y ∂ψ (x, t) d t ∂x Das haben wir mit dem letzten Argument Kapitel 4. Differentiation parameterabhängiger Integrale 77 gezeigt, also ist, wegen des Differentiationssatzes, ∂Ψ (x, y) = ∂x y Z c ∂ψ (x, t) d t = ∂x Z c y ∂ ∂x Z x f (s, t) d s d t Fundamentalsatz Z y f (x, t) d t . = c a (4.3) Aber aus (4.2) und (4.3) schliessen wir auch ∂Ψ ∂Φ = . ∂x ∂x Ähnlicherweise können wir zeigen dass ∂Ψ ∂Φ = . ∂y ∂y Schritt 2: Φ = Ψ. Sei α := Φ − Ψ. Dank Schritt 1 wissen wir, dass α differenzierbar ist und d α = 0. Seien nun (x0 , y0 ), (x1 , y1 ) ∈ [a − ε, b + ε[×]c − ε, d + ε[. Da [(x0 , y0 ), (x1 , y1 )] Teil des Definitionsbereiches ist, dürfen wir den Schrankensatz anwenden: |α(x0 , y0 ) − α(x1 , y1 )| ≤ |(x1 , y1 ) − (x0 , y0 )| max |∇α| = 0. R Daher ist Φ − Ψ = α = konstant = Φ(a, c) − Ψ(a, c) = 0 − 0 = 0 und daraus folgt Φ(x, y) = Ψ(x, y) ∀(x, y) ∈]a − ε, b + ε[×]c − ε, d + ε[. Nun folgt die Aussage des Satzes mit y = d, x = b. Das letzte Argument kann man folgendermassen verallgemeinern Lemma 4.3.2. Seien U ⊂ Rn eine offene Menge und f : U → R eine differenzierbare Funktion mit Kapitel 4. Differentiation parameterabhängiger Integrale df = 0. Falls V ⊂ U eine konvexe Teilmenge ist, dann ist f |V konstant. 78 5. Differenzierbare Abbildungen 5.1. Definition Wir haben die Definition schon gegeben. Zur Erinnerung: Definition 5.1.1. Sei f : Rn ⊃ Ω → Rm . f ist in x0 differenzierbar, falls es eine lineare Abbildung L : Rn → Rm gibt mit f (x0 + h) − f (x0 ) − L(h) = 0. h→0 |h| lim D.h. wenn R(h) := f (x0 + h) − f (x0 ) − L(h), dann gilt: |R(h)| = 0. h→0 |h| lim Die (ε − δ)-Definition lautet: ∀ε > 0, ∃δ > 0, so dass 0 < |h| < δ =⇒ |R(h)| < ε. |h| D.h. |R(h)| geht schneller gegen 0 als |h|, in der o-Notation heisst dies: R(h) = o(|h|). Deshalb gilt: f diff. in x0 ⇐⇒ ∃L linear, s.d. f (x0 + h) = f (x0 ) + L(h) + o(|h|) . Bemerkung 5.1.2. Ist f differenzierbar in x0 , dann ist f auch stetig in x0 . 79 (5.1) Kapitel 5. Differenzierbare Abbildungen 80 Falls f differenzierbar ist in x0 , dann gibt es eine lineare Abbildung L, die (5.1) erfüllt. Wir nennen L das Differential von f und verwenden die Notation d f |x0 . Sei f : U → Rm , wobei U ⊂ Rn ist. Dann ist f von der Form f (x) = (f1 (x), · · · , fm (x)) . | {z } m Funktionen ∂fi . Die Matrixdarstellung einer ∂xj linearen Abbildung L : Rn → Rm besteht aus m × n Koeffizienten: ∀i gibt es n verschiedene partielle Ableitungen: L11 L21 L= .. . · · · L1n L1 · · · L2n L2 .. = . . .. Lm1 · · · Lmn Lm wobei Lj die j-Zeile der Matrix L bezeichnet (jede solche Zeile ist dann eine 1 × n matrix). Wir haben deshalb L(x) = L · x = L11 x1 + L12 x2 + · · · + L1n xn L21 x1 + L22 x2 + · · · + L2n xn .. . Lm1 x1 + Lm2 x2 + · · · + Lmn xn = L1 · x L2 · x .. . Lm · x , wobei · das Matrixprodukt bezeichnet. Wir definieren nun m lineare Abbildungen Li : Rn → R als Li (x) = Li ·x = hLi , xi. Dann ist L1 (x) L2 (x) L(x) = . . .. Ln (x) Kapitel 5. Differenzierbare Abbildungen 81 Sei f : U → Rm differenzierbar in x0 und sei L = d f |x0 . Dann folgt =:A z }| { f (x0 + h) − f (x0 ) − L(h) → 0, |h| (5.2) wobei A f1 (x + h) f1 (x0 ) L1 (h) . . .. − .. − .. := . fm (x0 + h) fm (x0 ) Lm (h) f1 (x0 + h) − f1 (x0 ) − L1 (h) .. = . fm (x0 + h) − fm (x0 ) − Lm (h) und somit A = |h| f f1 (x0 +h)−f1 (x0 )−L1 (h) |h| .. . m (x0 +h)−fm (x0 )−Lm (h) . |h| Deswegen gilt: (5.2) ⇐⇒ ⇐⇒ fi (x0 + h) − fi (x0 ) − Li (h) = 0 ∀i ∈ {1, · · · , m} h→0 |h| fi ist differenzierbar in x0 und Li = d fi |x0 . lim Im nächsten Satz fassen wir die Konsequenzen dieses Arguments zusammen. Satz 5.1.3. Sei f : U → Rm , wobei U ⊂ Rn offen ist und f = (f1 , · · · , fm ). Dann gelten: 1. f ist differenzierbar in x0 ⇐⇒ fi differenzierbar in x0 ∀i ∈ {1, · · · , m}. 2. d f1 |x0 (h) .. . d f |x0 (h) = . d fm |x0 (h) Kapitel 5. Differenzierbare Abbildungen 3. 82 h∇f1 (x0 ), hi .. = d f |x0 (h) = . h∇fm (x0 ), hi ∂f1 ∂f1 ∂f1 (x ) (x ) · · · (x ) h 0 0 0 1 ∂x1 ∂x2 ∂xn h . . . . 2 . . . . . . . . . .. = . ∂fi .. .. .. . (x0 ) . . ∂xj hn−1 ∂fm ∂fm (x0 ) ··· ··· (x0 ) hn ∂x1 ∂xn Diese Matrix ist die Jacobi-Matrix die wir schon gesehen haben. 5.2. Differentiationsregeln Die erste Differentiationsregel ist eine einfache Folgerung von Satz 5.1.3. Satz 5.2.1. Seien f, g : U → Rm beide differenzierbar in x0 und λ, µ ∈ R. Dann ist auch λf1 + µg1 .. λf + µg = . λfm + µgm differenzierbar in x0 und d(λf + µg)|x0 = λ d f |x0 + µ d g|x0 . Seien nun f : U → Rm und g : U → R differenzierbar in x0 und g(x)f1 (x) .. (g · f )(x) = g(x) · f (x) = . g(x)fm (x) Dann ist jede Funktion gfi differenzierbar und somit auch die Funktion gf . Eigent- Kapitel 5. Differenzierbare Abbildungen 83 lich aus der Differenzierbarkeit von f und gi schliessen wir fi (x0 + h) = fi (x0 ) + d fi |x0 (h) + o(|h|) (5.3) g(x0 + h) = g(x0 ) + d g|x0 (h) + o(|h|) . (5.4) Wir multiplizieren die letzte zwei Gleichungen: fi (x0 + h)g(x0 + h) =fi (x0 )g(x0 ) + g(x0 ) d fi |x0 (h) + fi (x0 ) d g|x0 (h) | {z } =d(fi g)|x0 (h) + o(|h|)(d fi |x0 (h) + d g|x0 (h) + o(|h|) . | {z } =o(|h|) Wir schliessen deshalb die Formel d(fi g)|x0 = g(x0 ) d fi |x0 + fi (x0 ) d g|x0 . Damit berechnen wir nun das Differential d(gf ): gf1 d(gf1 )|x0 (h) . .. .. (h) = d |x0 (gf )(h) = d . gfm d(gfm )|x0 (h) x0 d g|x0 (h)f1 (x0 ) + g(x0 ) d f1 |x0 (h) .. . = . d g|x0 (h)fm (x0 ) + g(x0 ) d fm |x0 (h) (5.5) Kapitel 5. Differenzierbare Abbildungen 84 Dann sieht die Jacobi-Matrix wie folgt aus: ∂f1 ∂g ∂f1 ∂g (x )f (x ) + g(x ) (x ) · · · (x )f (x ) + g(x ) (x ) 0 0 0 1 0 0 0 ∂x1 0 1 0 ∂x1 ∂xn ∂xn .. .. .. . . . ∂g ∂fm ∂g ∂fm (x0 )fm (x0 ) + g(x0 ) (x0 ) · · · (x0 )fm (x0 ) + g(x0 ) (x0 ) ∂x1 ∂x1 ∂xn ∂xn ∂g ∂f1 ∂g ∂f1 ∂x1 (x0 )f1 (x0 ) · · · ∂xn (x0 )f1 (x0 ) g(x0 ) ∂x1 (x0 ) · · · g(x0 ) ∂xn (x0 ) .. .. .. .. .. .. + = . . . . . . ∂g ∂g ∂fm ∂fm (x0 )fm (x0 ) · · · (x0 )fm (x0 ) g(x0 ) (x0 ) · · · g(x0 ) (x0 ) ∂x1 ∂xn ∂x1 ∂xn Jacobi-M von f z }| { ∂g ∂fi (x0 )fi (x0 ) + g(x0 ) (x0 ) . = ∂xj ∂xj | {z } | {z } =B =:A Also ist lineare Abbildung B mit Rang 1 d(gf )|x0 = g(x0 ) d f |x0 + | {z } z }| { T f (x0 ) · d g|x0 A und somit d(gf )|x0 (h) = g(x0 ) [d f |x0 (h)] + [f (x0 )] d g|x0 (h). Die Koeffizienten der Matrix-Darstellung der linearen Abbildung B sind fi (x0 ) ∂g (x0 ) . ∂xj Diese sind übrigens die Koeffizienten des Tensorproduktes f (x0 ) ⊗ ∇g(x0 ). Im nächsten Satz fassen wir die Konsequenzen dieses Arguments zusammen (welches eine Verallgemeinerung der Leibniz Regel (f g)0 = f g 0 + gf 0 von Analysis I ist). Satz 5.2.2. Seien f : U → Rm und g : U → R differenzierbar in x0 ∈ U , wobei U ⊂ Rn offen Kapitel 5. Differenzierbare Abbildungen 85 ist. Dann ist auch f g differenzierbar in x0 und ∀h ∈ Rn . d(f g)|x0 (h) = g(x0 ) d f |x0 (h) + f (x0 ) d g|x0 (h) (5.6) 5.3. Die Kettenregel Satz 5.3.1. Seien U ⊂ Rn , V ⊂ Rm offen und f :U →V und g : V → Rk . Falls f in a und g in b = f (a) differenzierbar sind, dann ist auch g ◦ f in a differenzierbar mit d(g ◦ f )|a = d g|b ◦ d f |a . (5.7) Beweis. Die Differenzierbarkeit von f in a bedeutet f (a + h) = f (a) + d f |a (h) + R(h) . | {z } =o(|h|) Die Differenzierbarkeit von g in b bedeutet g(b + h̄) = g(b) + d g|b (h̄) + R̄(h̄) . | {z } =o(|h̄|) Nun ist g(f (a + h)) = g(f (a) +h̄) = g(b) + d g|b (h̄) + R̄(h̄) |{z} =b = g(b) + d g|b (d f |a (h) + R(h)) + R̄(h̄) , wobei h̄ = f (a + h) − f (a) = d f |a (h) + o(|h|) . Kapitel 5. Differenzierbare Abbildungen 86 Mit der Linearität des Differentials d g|b folgt: g ◦ f (a + h) = g(b) + d g|b (d f |a (h)) + d g|b (R(h)) + R̄(h̄) {z } | {z } |{z} | g◦f (a) ist linear in h :=ρ(h) Wir werden nun zeigen, dass ρ(h) = o(|h|) . Schritt 1: Die Linearität von h 7→ d g|b (d f |a (h)). Seien λ1 , λ2 ∈ R und h1 , h2 ∈ R . Dann ist n d g|b ◦ d f |a (λ1 h1 + λ2 h2 ) = d g|b (d f |a (λ1 h1 + λ2 h2 )) ∈Rm ∈Rm z }| { z }| { = d g|b λ1 d f |a (h1 ) +λ2 d f |a (h2 ) = λ1 d g|b (d f |a (h1 )) + λ2 d g|b (d f (h2 )) = λ1 d g|b ◦ d f |a (h1 ) + λ2 d g|b ◦ d f |a (h2 ). Schritt 2: ρ(h) = o(|h|). Es ist ρ(h) |h| |d g|b (R(h))| |R̄(h̄)| + |h| |h| kd g|b kO |R(h)| |R̄(h̄)| + . ≤ |h| |h| ≤ Wir wissen, dass lim h→0 |R(h)| =0 |h| und damit konvergiert der erste Teil von (5.8) gegen Null. Zudem ist 0, falls h̄ = 0 |R̄(h̄)| = |R̄(h̄)| |h̄| , falls h̄ 6= 0. |h| |h̄| |h| (5.8) Kapitel 5. Differenzierbare Abbildungen 87 Nun ist |h̄| = | d f |a (h) + R(h)| ≤ | d f |a (h)| + |R(h)| ≤ k d f |a kO |h| + |R(h)|. Da |R(h)| = 0, h→0 |h| lim gibt es für jedes ε > 0 ein δ > 0, so dass |h| < δ |R(h)| < ε. |h| =⇒ Falls |h| < δ folgt |h̄| ≤ (| d f |a |O + ε)|h| . Deswegen gilt: Wenn |h| → 0, dann |h̄| → 0 und für |h| < δ folgt: |R̄(h̄)| ≤ |h| |R̄(h̄)| |h̄| | {z } (k d f |a kO + ε) . →0, wenn |h|→0 Also gilt: 0 |ρ(h)| |h| h→0 | d g|b (R(h))| |R̄(h̄)| + lim =0+0=0 ≤ lim h→0 h→0 |h| |h| ≤ lim sup und deshalb |ρ(h)| = 0. h→0 |h| lim Damit folgt die Aussage. Bemerkung 5.3.2. (5.9) Kapitel 5. Differenzierbare Abbildungen 88 Sei n = m = k = 1 und b = f (a). Dann ist d f |a (h) = f 0 (a)h d g|b (h̄) = g 0 (b)h̄ = g 0 (f (a))h̄ und somit d g|b ◦ d f |a (h) = d g|b (d f |a (h)) = d g|b (f 0 (a)h) = g 0 (b)f 0 (a)h = g 0 (f (a))f 0 (a)h. (5.10) Sei nun φ := g ◦ f . Folglich ist d φ|a (h) = φ0 (a)h = (g ◦ f )0 (a)h, d.h. die verallgemeinerte Kettenregel impliziert d φ|a (h) = (5.10) = d(g ◦ f )|a (h) = d g|b ◦ d f |a (h) g 0 (f (a))f 0 (a)h =⇒ (g ◦ f )0 (a) 6 h = g 0 (f (a))f 0 (a) 6 h =⇒ (g ◦ f )0 (a) = g 0 (f (a))f 0 (a) {z } | alte Kettenregel die bereits bekannte Kettenregel, d.h. die beiden Kettenregeln stimmen im eindimensionalen Fall überein. Bemerkung 5.3.3. Wir betrachten nun die Kettenregel für die Jacobi-Matrizen. Sei M die JacobiMatrix von d g|b=f (a) und N die Jabobi-Matrix von d f |a . Die Jacobi-Matrix von d(g ◦ f )|a ist gemäss der verallgemeinerten Kettenregel M · N : wir wollen diese Formel hier herleiten. Es ist g = (g1 , · · · , gk ) und f = (f1 , · · · , fm ) und d g|b ◦ d g|a (w) = d g|b (d f |a (w)). | {z } =v Kapitel 5. Differenzierbare Abbildungen 89 In Matrixschreibweise erhalten wir dann d g|b ◦ d f |a (w) = d g|b (v) ! m m m X X X = M1i vi , M2i vi , · · · , Mki vi , i=1 i=1 i=1 wobei v = d f |a (w) = n X N1j wj , · · · , j=1 n X ! Nmj vj . j=1 Also ist d g|b ◦ d f |a (v) = m X n X M1i Nij vj , · · · , i=1 j=1 m X n X ! Mki Nij vj . i=1 j=1 Sei A die Matrix Alj = m X Mli Nij , d.h. A = M · N . i=1 Dann d g|b ◦ d f |a (v) = n X j=1 A1j vj , · · · , n X ! Akj vj . j=1 Daher ist A die Matrixdarstellung von d g|b ◦ d f |a = d(g ◦ f )|a ⇐⇒ A ist die Jacobi-Matrix von d(g ◦ f )|a . Bemerkung 5.3.4. Sei f : U → V ⊂ Rm mit f = (f1 , · · · , fm ), fi (x) = fi (x1 , · · · , xn ) Kapitel 5. Differenzierbare Abbildungen 90 und g : V → Rk mit g = (g1 , · · · , gk ), gj (y) = g(y1 , · · · , ym ). Dann gilt: g ◦ f (x) = (g1 (f (x)), · · · , gk (f (x))) gj (f (x)) = gj (f1 (x1 , · · · , xn ) ∂ (gl ◦ f )(a) Alj = ∂xj ∂gl ∂gl Mli = (b) = (f (a)) ∂yi ∂yi ∂fi Nij = (a). ∂xj Also ist ∂ (gl ◦ f )(a) ∂xj = Alj = X Mli Nij i=1 = m X ∂gl i=1 ∂yi (f (a)) ∂fi (a). ∂xj Korollar 5.3.5. Sei f : U → V (⊂ Rm ) und φ : V → R mit: • a ∈ U und U offen; • b ∈ V , V offen und b = f (a); • f differenzierbar in a und φ differenzierbar in b. Dann ist φ ◦ f differenzierbar in a mit m X ∂φ ∂fi ∂(φ ◦ f ) (a) = (f (a)) (a). ∂xj ∂y ∂x i j i=1 Das ist die “konkrete” allgemeine Kettenregel. 5.4. Der verallgemeinerte Schrankensatz Definition 5.4.1. Sei f : U → Rm eine Abbildung f = (f1 , . . . fm ). Wir schreiben f ∈ C k (U, Rm ), falls Kapitel 5. Differenzierbare Abbildungen 91 alle partiellen Ableitungen der Ordnung ≤ k der Funktionen fi existieren und stetig sind. Satz 5.4.2. Sei Ω ⊂ Rn eine offene Menge, f ∈ C 1 (Ω, Rk ) und γ : [a, b] → Ω eine C 1 -Kurve. Dann gilt die folgende Abschätzung: " |f (γ(b)) − f (γ(a))| ≤ # Z sup d f |γ(t) O t∈[a,b] a | b |γ̇(t)| d t {z } . =die Länge der Kurve Zur Erinnerung: γ : [a, b] → Ω ⊂ Rn , γ = (γ1 , · · · , γn ), γ̇ = (γ10 , · · · , γn0 ). Beweis. Sei φ : [a, b] → Rk die Funktion φ(t) := f (γ(t)) = (f ◦ γ)(t). Wegen der Kettenregel ist d φ|t = d f |γ(t) ◦ d γ|t (5.11) und d φ|t : R → Rk ist eine lineare Abbildung. Weiter ist φ = (φ1 , · · · , φk ) und somit ist ∂φ1 φ0 ∂t . .1 .. = .. =: φ̇ ∂φk φ0k ∂t die Jacobi-Matrix von φ (d.h. d φ|t (h) = hφ̇(t)). Sei nun A(x) die Jacobi-Matrix von ∂fi f and der stelle x d.h. Aij (x) = (x) . Wieder wenden wir die Kettenregel an: ∂xj φ̇(t) = A(γ(t)) · γ̇(t) . | {z } Matrix-Darstellung von (5.11) Kapitel 5. Differenzierbare Abbildungen Dann ist 92 φ1 (b) − φ1 (a) .. . f (γ(b)) − f (γ(a)) = φ(b) − φ(a) = . φk (b) − φk (a) Ferner ist φ0i eine stetige Funktion: φ0i (t) = n X n X ∂fi (γ(t))γj0 (t). ∂x j j=1 Aij (γ(t))γj0 (t) = j=1 Nun ist und R φ01 (t) d t .. φ(b) − φ(a) = . R b 0 φ (t) d t a k b a v u k Z b 2 uX t 0 |f (γ(b)) − f (γ(a))| = |φ(b) − φ(a)| = φi (t) d t . i=1 a Wir brauchen nun die folgende Ungleichung: v u k Z b 2 Z b uX t 0 |φ̇(t)| d t . φi (t) d t ≤ (5.12) a a i=1 Diese Ungleichung folgt aus Lemma 5.4.4 (siehe unten). Mit dieser Ungleichung schliessen wir: Z |f (γ(b)) − f (γ(a))| ≤ b b Z |φ̇(t)| d t = |A(γ(t)) · γ̇(t)| d t Z b Z b ≤ kA(γ(t))kO |γ̇(t)| d t = kdf |γ(t) kO |γ̇(t)| d t a a Z b ≤ sup d f |γ(t) O |γ̇(t)| d t. a t∈[a,b] Bemerkung 5.4.3. a a Kapitel 5. Differenzierbare Abbildungen 93 In der Tat ist supt∈[a,b] d f |γ(t) O ein Maximum wegen der Stetigkeit der Abbildung t 7→ d f |γ(t) O . Lemma 5.4.4. Sei g : [a, b] → Rk eine stetige Funktion. Dann gilt folgende verallgemeinerte Dreiecksungleichung: v u k Z b 2 Z b uX t |g(s)| d s . g (s) ds ≤ i a a i=1 Beweis. Sei ε > 0 gegeben und Treppenfunktionen αi , so dass gi − ε ≤ αi ≤ gi + ε, αi − ε ≤ gi ≤ αi + ε. Dann folgt: Z b Z αi − (b − a)ε ≤ b Z gi ≤ a a d.h. b αi + (b − a)ε, a Z b Z b gi − αi ≤ (b − a)ε. a a Wir nutzen die Dreiecksungleichung für Vektoren in Rk und die Linearität des Riemannschen Integrals um zu schliessen v v v u k Z u u 2 Z Z k k Z 2 2 uX uX X √ u t t ≤t g − α g − α ≤ k(b − a)ε. i i i i i=1 i=1 i=1 (5.13) Sei nun α = (α1 , . . . , αk ). Dann haben wir Z b Z b√ Z b Z b Z b √ ||g| − |α|| ≤ |g − α| ≤ |α| ≤ kε = k(b − a)ε . (5.14) |g| − a a a a a Wir behaupten nun, dass v u k Z b 2 Z b uX t αi ≤ |α| . i=1 a a (5.15) Kapitel 5. Differenzierbare Abbildungen 94 Mit (5.13), (5.14) und der Behauptung (5.15) folgt: v u k Z b 2 uX t gi ≤ i=1 v u k Z b 2 uX √ t αi + (b − a) kε a a i=1 b Z ≤ Z b √ √ |α| + (b − a) kε ≤ |g| + 2(b − a) kε. a a Wenn nun ε ↓ 0, erhalten wir v u k Z b 2 Z b uX t |g| . gi ≤ i=1 a a Beweis von (5.15). O.B.d.A. ∃ eine Zerlegung von [a, b] mit a = c0 < c1 < · · · < cN = b, so dass jedes αi konstant auf [cj−1 , cj ] = Ij ist. Sei ai,j diese Konstante. D.h. α1 . . α= . αk ist konstant auf Ij mit Wert a1,j . . aj = . . ak,j Nun ist v v !2 u k Z b 2 u k N uX X uX t αi = t |Ij |αi,j = |a| , i=1 a i=1 j=1 Kapitel 5. Differenzierbare Abbildungen 95 wobei |Ij | = cj − cj−1 und a := N X j=1 P N j=1 |Ij |α1,j |Ij |aj = .. . . PN |I |α j=1 j 1,j Damit erhalten wir N X |a| = |Ij |aj Dreiecksungl. ≤ j=1 = N X N X |Ij |aj j=1 Z b |α|. |Ij ||aj | = a j=1 Korollar 5.4.5. Sei f ∈ C 1 (Ω, Rk ) und [p, q] ⊂ Ω. Dann gilt: |f (p) − f (q)| ≤ max kd f |z kO |p − q|. z∈[p,q] Beweis. Wir wenden den Schrankensatz auf f und γ : [0, 1] → Ω an, wobei γ(s) = (1 − s)p + sq. Da γ̇ = q − p, ist |f (p) − f (q)| ≤ max d f |γ(s) O Z s∈[0,1] 0 | 1 |γ̇(s)| d s = max kd f |z kO |p − q| . z∈[p,q] {z } |p−q| Bemerkung 5.4.6. Für k = 1 gibt es eine stärkere Aussage: Der Mittelwertsatz garantiert die Existenz einer Stelle z ∈ [p, q] mit f (p) − f (q) = d f |z (p − q). Diese Aussage ist aber falsch, wenn k > 1 ist. Korollar 5.4.7. Sei U sternförmig mit Zentrum 0 (bzw. konvex), p ∈ U (bzw. p, q ∈ U ) und f : U → Kapitel 5. Differenzierbare Abbildungen 96 Rm eine differenzierbare Abbildung. Dann gilt folgende Abschätzung: |f (p) − f (0)| ≤ sup kdf |x kO |p| bzw. |f (p) − f (q)| ≤ sup kdf |x kO |p − q| . x∈U x∈U Beweis. Da [0, p] ⊂ U (bzw. [p, q] ⊂ U ) können wir Korollar 5.4.5 anwenden und die Behauptung folgt. 5.5. Umkehrbare Abbildungen und Diffeomorphismen Bemerkung 5.5.1. Sei U ⊂ Rn und f : U → f (U ) ⊂ Rn . Dann gilt: f ist umkehrbar ⇐⇒ f ist injektiv. Bemerkung 5.5.2. Aus der linearen Algebra wissen wir folgendes: Seien V und W zwei Vektorräume der Dimension m und n und sei A : V → W linear und bijektiv. Dann ist m = dim V = dim W = n. Sei V = W = Rm = Rn . Sei a = (aij ) die Matrixdarstellung für A. Weiter seien v = (v1 , . . . , vm ), w = (w1 , · · · , wm ) ∈ Rm . Dann gilt: w = A(v) ⇐⇒ wi = m X aij vj ∀i ∈ {1, . . . , n}. j=1 Die Umkehrbarkeit von A impliziert die Surjektivität und Injektivität, d.h. A ist surjektiv ⇐⇒ ∀w ∈ W ∃v : A(v) = w, A ist injektiv ⇐⇒ v von oben ist eindeutig bestimmt. Bemerkung 5.5.3. 1. A ist bijektiv ⇐⇒ m = n und a ∈ Rn×n ist eine inver- Kapitel 5. Differenzierbare Abbildungen 97 tierbare Matrix ( ⇐⇒ det a 6= 0). 2. A bijektiv =⇒ die Umkehrabbildung von A (das heisst A−1 ) ist auch eine lineare Abbildung und die Matrixdarstellung von A−1 ist die Inverse von a, die wir mit a−1 bezeichnen, d.h. die einzige Matrix a−1 mit a−1 · a = Em (die Einheitsmatrix). Für die Matrix a−1 haben wir eine explizite Formel aus der Linearen Algebra. Definition 5.5.4. Sei b eine n × n Matrix mit n ≥ 2 und i, j ∈ {1, . . . n}. Sei M ij die (m − 1) × (m − 1) Matrix die wir erhalten wenn wir die i-te Zeile und die j-te Spalte von a eliminieren. Die Matrix Cij = (−1)i+j det M ji wird Matrix der Kofaktoren von b genannt. Lemma 5.5.5. Sei a eine n × n Matrix mit det a 6= 0. Sei c die Matrix der Kofaktoren von a. Dann a−1 = c . det a Beispiel 5.5.6. Als Beispiel betrachten wir eine lineare Abbildung in Dimension zwei: Sei A : R2 → R2 linear , d.h. A(v) = a · v mit a ∈ R2×2 . Nehmen wir an dass a= α β γ δ ! und det a = αδ − βγ 6= 0 . Wir haben dann c= δ −β −γ α ! und a−1 1 = det a δ −β −γ α ! . Kapitel 5. Differenzierbare Abbildungen 98 Tatsächlich, 1 a−1 · a = det a δ −β −γ α ! α β γ δ ! 1 = det a αδ − βγ 0 0 αδ − βγ ! = ! 1 0 . 0 1 Definition 5.5.7. Seien U ⊂ Rn und V ⊂ Rm zwei offene Mengen. Eine C 1 Abbildung Φ : U → V mit Umkehrabbildung Ψ welche auch C 1 ist heisst Diffeomorphismus. Lemma 5.5.8. Seien U ⊂ Rn , V ⊂ Rm zwei offene Mengen und Φ : U → V eine C 1 Abbildung mit Umkehrabbildung Ψ : V → U . Sei Ψ überall differenzierbar. Dann gilt: 1. m = n; 2. d Φ|p ist eine umkehrbare lineare Funktion ∀p ∈ U ; −1 3. d Ψ|q = d Φ|Ψ(q) (d.h. die Jacobi-Matrix von Ψ an der Stelle q ist die inverse der Jacobi Matrix von Φ an der Stelle Ψ(q)); 4. Ψ ∈ C 1 und deswegen ist Φ ein Diffeomorphismums. Bemerkung 5.5.9. Falls m = n = 1 ist, bedeutet die Formel 3.: Ψ0 (q) = 1 Φ0 (Ψ(q)) , d.h. die uns bereits bekannte Formel für die Ableitung einer Umkehrfunktion in einer reellen Variablen. Beweis. Es ist Φ(Ψ(q)) = q = Id(q), wobei Id die Identität bezeichnet. D.h. V 3 q 7→ Id(q) = q ∈ V . Kapitel 5. Differenzierbare Abbildungen 99 Id können wir auch als die identische lineare Abbildung auf Rm betrachten und deshalb d Id |q = Id ∀q ∈ V . Mit der Kettenregel erhalten wir d Φ|Ψ(q) ◦ d Ψ|q = d |q Id = Id | {z } | {z } lin. Abb. A ⇐⇒ A(B(v)) = v ∀v ∈ Rm (5.16) lin. Abb. B und dies ist äquivalent dazu, dass A umkehrbar und linear ist und B die Umkehrabbildung. 1. Diese Aussage folgt aus der linearen Algebra. 2. ist die Aussage “A ist umkehrbar an der Stelle Ψ(q)” (Ψ ist die Umkehrfunktion von Φ =⇒ ∀p ∈ U , ∃q ∈ V mit Ψ(q) = p). 3. Es ist d Ψ|q = d Φ|Ψ(q) −1 −1 (5.16) ◦ d Φ|Ψ(q) ◦ d Ψ|q = d Φ|Ψ(q) ◦ Id = d Φ|Ψ(q) −1 . 4. Sei a(q) die Jacobi Matrix von Φ an der Stelle q, mit Koeffizienten aij (q) = ∂Φi (q) . ∂xj Es folgt dass jede Abbildung q 7→ aij (q) eine stetige Funktion ist. Wir haben deshalb dass q 7→ det a(q) eine stetige Abbildung ist, weil det a eine endliche Summe von Produkten einiger Koeffizienten von a ist. Sei c(q) die Matrix der Kofaktoren von a(q). Aus dem gleichen Argument folgt dass q 7→ cij (q) stetig ist. Schliesslich, aus 3. folgt auch dass det a(q) 6= 0, weil a(q) eine invertierbare Matrix ist. Deshalb schliessen wir dass q 7→ 1 cij (Ψ(q)) det a(Ψ(q)) Kapitel 5. Differenzierbare Abbildungen 100 eine stetige Abbildung ist. Aus Lemma 5.5.5 folgt, dass 1 c(Ψ(q)) det a(Ψ(q)) die Jacobi-Matrix von Ψ an der Stelle q ist. D.h. ∂Ψi 1 (q) = cij (Ψ(q)) . ∂xj det a(Ψ(q) Dies bedeutet dass Ψ ∈ C 1 . Beispiel 5.5.10. Seien Φ : R2 ⊃ U → V ⊂ R2 mit Φ(x1 , x2 ) = (f1 (x1 , x2 ), f2 (x1 , x2 )) Ψ : V → U mit Φ(y1 , y2 ) = (g1 (y1 , y2 ), g2 (y1 , y2 )) Φ ◦ Ψ : V → V mit Φ ◦ Ψ(y1 , y2 ) = (y1 , y2 ). Dann ist Φ ◦ Ψ = (f1 (g1 (y1 , y2 ), g2 (y1 , y2 )), f2 (g1 (y1 , y2 ), g2 (y1 , y2 ))) d Φ|(p1 ,p2 ) ∂f1 (p) 1 = ∂x ∂f2 (p) ∂x1 ∂f1 (p) ∂x2 ∂f2 (p) ∂x2 d Ψ|(p1 ,p2 ) ∂g1 (p) ∂x1 = ∂g 2 (p) ∂x1 ∂g1 (p) ∂x2 ∂g2 (p) ∂x2 Kapitel 5. Differenzierbare Abbildungen ∆(p) = ∂f2 ∂f1 ∂f1 ∂f2 − ∂x1 ∂x2 ∂x1 ∂x2 101 (p) ∂f2 ∂f1 (Ψ(q)) − (Ψ(q)) 1 ∂x2 ∂x2 = . ∂f ∂f 1 2 ∆(Ψ(q)) − (Ψ(q)) (Ψ(q)) ∂x1 ∂x1 d Ψ|q = d Φ|Ψ(q) −1 Zum Beispiel gilt ∂g1 (q1 , q2 ) ∂y1 ∂f2 (Ψ(q)) ∂x2 = ∆(Ψ(q)) ∂f2 (g1 (q1 , q2 ), g2 (q1 , q2 )) ∂x2 = . ∂f1 ∂f2 ∂f2 ∂f1 − (g1 (q1 , q2 ), g2 (q1 , q2 )) ∂x1 ∂x2 ∂x1 ∂x2 5.6. Der Satz von der lokalen Umkehrbarkeit Der folgende Satz ist eine der wichtigsten Ergebnisse der Differentialrechnung in mehreren Variablen: er behauptet die Umkehrbarkeit einer C 1 Abbildung in einer Umgebung jeder Stelle des Definitionsbereichs. Satz 5.6.1. Sei U ⊂ Rn offen und Φ : U → Rn eine C 1 -Abbildung. Weiter sei a ∈ U , so dass d Φ|a umkehrbar ist. Dann gibt es eine offene Umgebung U0 von a, so dass V := Φ(U0 ) eine offene Umgebung von Φ(a) ist und die Einschränkung Φ : U0 → V ein Diffeomorphismus ist. Der Beweis nutzt ein elegantes Lemma das eine zentrale Rolle in der modernen Analysis spielt. Kapitel 5. Differenzierbare Abbildungen 102 Lemma 5.6.2. (Banachscher Fixpunktsatz) Sei C ⊂ Rn eine abgeschlossene Menge und sei φ : C → C eine Abbildung mit folgender Eigenschaft: |φ(x) − φ(y)| ≤ λ|x − y| ∀x, y ∈ C, wobei 0 ≤ λ < 1 eine Konstante unabhängig von x, y ist. Dann gibt es einen einizigen Punkt x ∈ C, so dass φ(x) = x, d.h. es gibt einen einzigen Fixpunkt von φ. In der Tat gilt eine viel allgemeinere Form des Banachschen Fixpunktsatzes. Definition 5.6.3. Sei φ : X → X eine Abbildung, wobei X mit einer Metrik d ausgestattet ist. Dann heisst φ Kontraktion, falls ∃λ ∈ [0, 1[, so dass d(φ(x), φ(y)) ≤ λ d(x, y) ∀x, y ∈ X. Satz 5.6.4. Jede Kontraktion auf einem vollständigen metrischen Raum besitzt einen Fixpunkt. Beweis. Sei x0 ∈ X (bzw. ∈ C ⊂ Rn mit C abgeschlossen). Wir konstruieren folgende Folge: x1 = φ(x0 ), x2 = φ(x1 ), . . . , xk = φ(xk−1 ). Wir behaupten nun: 1. {xk }k∈N ist eine Cauchy-Folge. Dann gibt es wegen der Vollständigkeit von X (bzw. C ⊂ Rn , weil C abgeschlossen ist) ein x ∈ X (bzw. x ∈ C), so dass x = lim xk . k→∞ 2. φ(x) = x. Aus 1. folgt 2. mit der Stetigkeit von φ: φ(x) = lim φ(xk ) = lim xk+1 = x. k→∞ k→∞ Wir beweisen nun, dass {xk }k∈N eine Cauchy-Folge ist. Dazu setzen wir M := d(x0 , x1 ) ≥ 0. Kapitel 5. Differenzierbare Abbildungen 103 Dann ist d(xk+1 , xk ) = d (φ(xk ), φ(xk−1 )) ≤ λ d(xk , xk−1 ) = λ d(φ(xk−1 ), φ(xk−2 )) ≤ λ2 d(xk−1 , xk−2 ) = · · · ≤ λk d(x1 , x0 ) = λk M und d(xk+j , xk ) ≤ d(xk+j , xk+j−1 ) + d(xk+j−1 , xk+j−2 ) + · · · + d(xk+1 , xk ) ≤ λk+j−1 M + λk+j−2 M + · · · + M λk ∞ X M λk k j−1 k . λi = = M λ (1 + λ + · · · + λ ) < M λ 1 − λ i=0 Daher gilt ∀j + k > k ≥ N : d(xk+j , xk ) ≤ M N λ . 1−λ Da λN → 0, wenn N → +∞, folgt: ∀ε > 0, ∃N , so dass M λN < ε. 1−λ Daraus folgt, dass d(xk+j , xk ) < ε ∀k+j > k ≥ N . Aber dies ist gerade die Definition einer Cauchy-Folge, d.h. {xk }k∈N ist tatsächlich eine Cauchy-Folge und damit ist der Satz bewiesen. 5.7. Beweis des Satzes über die lokale Umkehrbarkeit 5.7.1. Schritt 1: O.B.d.A. nehmen wir an, dass a = 0 und d Φ|0 = Id Das ist keine Beschränkung aus folgendem Grund: Sei L = d Φ|a . Dann setzen wir Φ0 (x) = L−1 ◦ Φ(a + x) Kapitel 5. Differenzierbare Abbildungen 104 und deshalb d Φ0 |0 = L−1 ◦ d Φ|a . Dann ist Φ0 eine C 1 -Funktion und d Φ|0 = L−1 ◦ d Φ|a = L−1 ◦ L = Id . D.h. wir können den Satz einfach auf Φ0 anwenden und die Existenz einer C 1 Funktion Ψ0 (zusammen mit den offenen Umgebungen W0 von 0 und V 0 = Φ0 (W0 ) von Φ0 (0) = L−1 (Φ(a))) schliessen, so dass Ψ0 : V → W0 die Umkehrung der Einschräkung Ψ0 : W0 → V ist. Wir setzen dann U0 = {a + w : w ∈ W0 }, V = L(V 0 ) und Ψ0 (Φ0 (x)) = x ⇐⇒ Ψ0 (L−1 (Φ(a + x))) = x Dann ist Ψ(y) = a + Ψ0 (L−1 (y)) die gesuchte Umkehrung von Φ : U0 → V . 5.7.2. Schritt 2: Wir suchen nun eine Umgebung V = Kδ (Φ(0)) von Φ(0), so dass wir ein Urbild für jedes y ∈ V finden. D.h. die Gleichung Φ(x) = y besitzt eine Lösung x. Diese Gleichung ist zu y + x − Φ(x) = x {z } | x7→φy (x) äquivalent. D.h. eine Lösung von (5.17) ist ein Fixpunkt von φy . Wir suchen nun ein η > 0, so dass φy (K η (0)) ⊂ K η (0) und die Abbildung φy : K η (0) 7→ K η (0) (5.17) Kapitel 5. Differenzierbare Abbildungen 105 eine Kontraktion ist. Denn, falls η klein genug ist, gelten folgende Behauptungen: 1. φy bildet K η (0) in Kη (0) ⊂ K η (0) ab; 2. |φy (z) − φy (w)| ≤ 12 |z − w| ∀z, w ∈ K η (0). Zur zweiten Behauptung: Es ist |φy (z) − φy (w)| = |y + z − Φ(z) − y − w + Φ(w)| = |(Φ(w) − Φ(z)) − (w − z)| = | Φ(w) − w − Φ(z) − z |. | {z } | {z } =Λ(w) =Λ(z) Λ ist C 1 und d Λ|0 = d Φ|0 − Id = 0 . Aus der Stetigkeit der partiellen Ableitungen der Komponenten von Λ folgt die Existenz eines η > 0, so dass 1 x ∈ K η (0) =⇒ kd Λ|x kHS ≤ . 2 Seien z, w ∈ K η (0). Dann gilt: |φy (z) − φy (w)| = |Λ(z) − Λ(w)| Schrankensatz ≤ max kd ΛkO |z − w| Bη (0) ≤ 1 |z − w| 2 ∀z, w ∈ K η (0) . Weiter bemerken wir, dass φy (0) = y − Φ(0) + 0 = y − Φ(0). Nun können wir unser δ wählen: Wir setzen δ := η2 . Dann ist |φy (0)| ≤ η2 . Sei nun z ∈ K η (0). Dann gilt: |φy (z)| ≤ |φy (z) − φy (0)| + |φy (0)| < |φy (z) − φy (0)| + 1 η 1 1 ≤ |z − 0| + ≤ η + η = η. 2 2 2 2 η 2 Kapitel 5. Differenzierbare Abbildungen 106 Also ist φy (K η (0)) ⊂ Kη (0). Mit dem Banachschen Fixpunktsatz folgt nun: ∀y ∈ V = K η2 (Φ(0)), ∃x ∈ K η (0) mit φy (x) = x x ist dann die gesuchte L osung von (5.17). Da aber φy (K η (0)) ⊂ Kη (0), schliessen wir dass diese Lösung x zu Kη (0) gehört. 5.7.3. Schritt 3: V ist eine offene Umgebung von Φ(0). Wir setzen U0 := Kη (0) ∩ Φ−1 (V ) . {z } | ist eine offene Menge U0 ist also offen und eine Umgebung von 0. Weiter bildet Φ U0 in V ab. Nun gilt: 1. Φ|U0 ist surjektiv: ∀y ∈ V , ∃x ∈ Kη (0) mit Φ(x) = y =⇒ x ∈ Φ−1 (V ) ∩ Kη (0) = U0 . 2. Φ|U0 ist injektiv |Φ(x) − Φ(z)| = |(x + Λ(x)) − (z + Λ(z))| =⇒ 1 |Φ(x) − Φ(z)| ≥ |x − z| − |Λ(x) − Λ(z)| ≥ |x − z| − |x − z| 2 1 (5.18) = |x − z| 2 Daraus folgt, dass Φ injektiv ist. 5.7.4. Schritt 4: Sei Ψ : V → U0 die Umkehrfunktion von Φ. Nun ist Ψ stetig. Seien ξ, ζ ∈ V und x = Ψ(ξ), z = Ψ(ζ). Dann folgt: Φ(x) = ξ, Φ(z) = ζ. Aus (5.18) folgt weiter: 1 |Φ(x) − Φ(z)| ≥ |x − z| =⇒ 2|ξ − ζ| ≥ |Ψ(ξ) − Ψ(ζ)| . | {z } 2 Lipschitz-Bedingung für Ψ: stetig Kapitel 5. Differenzierbare Abbildungen 107 5.7.5. Schritt 5: Φ : U0 → V ist differenzierbar und d Φ|x ist umkehbar ∀x ∈ U0 . Es ist Φ(x) = x − Λ(x) und d Φ|x = Id − d Λ|x . Wir wissen, dass kd Λ|x kHS ≤ 1 2 ∀x ∈ U0 ⊂ Bη (0) und d Φ|x (v) = v − d Λ|x (v). Also ist 1 1 | d Φ|x (v)| ≥ |v| − | d Λ|x (v)| ≥ |v| − |v| = |v|. 2 2 D.h. Ker(d Φ|x ) = {0} und somit ist d Φ|x injektiv und daraus folgt auch die Surjektivität. Also ist d Φ|x umkehrbar. 5.7.6. Schritt 6: Wir brauchen nun das folgende Lemma: Lemma 5.7.1. Falls Φ : U0 → V eine umkehrbare C 1 -Abbildung ist so, dass • d Φ|x umkehrbar ∀x ∈ U0 ist; • die Umkehrfunktion Ψ : V → U0 stetig ist, dann ist auch Ψ eine differenzierbare Abbildung. Beweis. Wir fixieren y0 ∈ V und setzen x0 := Ψ(y0 ). Es folgt Φ(x0 ) = y0 . Weiter definieren wir L := (d Φ|x0 )−1 . Kapitel 5. Differenzierbare Abbildungen 108 Sei Φ0 = L ◦ Φ, Φ ∈ C 1 . Dann ist d Φ0 |x0 = L ◦ d Φ|x0 = Id und d Φ0 |x = L ◦ d Φ|x . | {z } umkehrbar Zusätzlich ist Ψ0 = Ψ ◦ L−1 die Umkehrfunktion von Φ0 . Falls Ψ0 an der Stelle y00 = Φ0 (x0 ) = L(Φ(x0 )) = L(y0 ) differenzierbar ist, dann ist Ψ = Ψ0 ◦ L an der Stelle y0 differenzierbar und d Ψ|y0 = d Ψ0 |L(y0 ) ◦ L . Die Stetigkeit der Abbildung z 7→ d Ψ0 |z an der Stelle L(y0 ) impliziert dann die Stetigkeit der Abbildung y 7→ d Ψ|y an der Stelle y0 . Dieses Argument zeigt, dass wir zusätzlich d Φ|x0 = Id annehmen dürfen. Wir behaupten nun die Existenz einer Kugel Kδ (y0 ), so dass |Ψ(z) − Ψ(w)| ≤ 2|z − w| ∀z, w ∈ Kδ (y0 ). In der Tat haben wir diese Eigenschaft schon im Schritt 4 gesehen: wir repetieren hier das gleiche Argument. Falls δ klein genug ist, dann gehören Ψ(z) und Ψ(w) zu einer Umgebung Kε (x0 ) | {z } | {z } =ζ =ω von x0 . Wir wählen nun ε klein genug so dass kd Λ|x kHS ≤ 1 ∀x ∈ K ε (x0 ) . 2 Dies ist möglich weil d Λ|x0 = d Φ|x0 − Id = 0 und die partiellen Ableitungen von Λ Kapitel 5. Differenzierbare Abbildungen 109 stetif sind. Wir erhalten desahlb |(Φ(ζ) − Φ(ω)) − (ζ − ω)| = | (Φ(ζ) − ζ) − (Φ(ω) − ω) | | {z } | {z } =Λ(ζ) =Λ(ω) 1 ≤ |ζ − ω| 2 Deshalb 1 |ζ − ω| ≤ |Φ(ζ) − Φ(ω)| 2 und, da ζ = Ψ(z) und ω = Ψ(w), |Ψ(z) − Ψ(w)| ≤ 2|z − w| . Die Differenzierbarkeit von Φ an der Stelle x0 bedeutet: Φ(x) − Φ(x0 ) = d Φ|x0 (x − x0 ) + R(x) . | {z } | {z } =Id =o(|x−x0 |) Wir ersetzen x und x0 durch Ψ(y) und Ψ(y0 ) und erhalten y − y0 = Ψ(y) − Ψ(y0 ) + R(Ψ(y)) ∀y ∈ Kδ (y0 ), d.h. (Ψ(y) − Ψ(y0 )) = Id(y − y0 ) − R(Ψ(y)). Für die Differenzierbarkeit brauchen wir R(Ψ(y)) = o(|y − y0 |): |Ψ(y))| |R(x)| |R(Ψ(y))| |Ψ(y) − Ψ(y0 )| = ≤2 |y − y0 | |Ψ(y) − Ψ(y0 )| |y − y0 | |x − x0 | Wenn nun y → y0 , dann x = Ψ(y) → Ψ(y0 ) = x0 , wegen der Stetigkeit von Ψ. Deshalb, |R(Ψ(y))| |R(x)| lim 2 = lim = 0. y→y0 x→x |y − y0 | 0 |x − x0 | Aus den zwei Lemmata 5.7.1 und 5.5.8 schliessen wir dass Ψ eine C 1 Funktion Kapitel 5. Differenzierbare Abbildungen 110 ist. Das endet den Beweis des Satzes von der lokalen Umkehrbarkeit. 5.8. Lösungen von Gleichungen: Der Satz über implizite Funktionen Beispiel 5.8.1. Wir betrachten die Gleichung y 2 + x1 y + x2 = 0 (5.19) wobei die Unbekannte y eine reelle Zahl ist und die Zahlen x1 , x2 ∈ R “fixierte Parameter” sind. In diesem sehr bekannten Fall wissen wir dass: • Falls ∆ := x21 − 4x2 < 0 gibt es keine (reelle) Lösung. • Falls ∆ > 0 gibt es genau zwei Lösungen und wenn ∆ = 0 genau eine. Für diese Lösungen haben wir eine explizite Formel: x1 y± = − ± 2 p x21 − 4x2 . 2 (5.20) Wenn wir die Abbildung f : R3 → R so definieren f (x1 , x2 , y) = y 2 + x1 y + x2 , können wir die Gleichung (5.19) als f (x, y) = 0 (5.21) umschreiben. Sei nun Ω := {x = (x1 , x2 ) ∈ R2 : ∆ = x21 − 4x2 > 0}. Ω ist eine offene Menge und die Funktion Ω3x 7→ x1 g(x) = − + 2 p x21 − 4x2 2 Kapitel 5. Differenzierbare Abbildungen 111 ist C 1 . Ausserdem, eine solche Funktion g “löst die Gleichung (5.21)”, d.h. f (x, g(x)) = 0 ∀x ∈ Ω . Wir können sogar ein bisschen mehr sagen: sei (x?1 , x?2 ) = x? ∈ Ω und x? y =− 1 + 2 ? p (x?1 )2 − 4x?2 2 eine der zwei Lösungen von (5.19) mit x = x? . Dann existieren δ, ε > 0 so dass: • Falls |x−x? | < δ, dann ist y = g(x) die einzige Lösung von (5.19) mit |y−y ? | < ε. Das obige sehr bekannte Beispiel motiviert die folgende allgemeine Frage: Sei U ⊂ Rm = Rn+k = Rn × Rk offen und U 3 (x, y) = (x1 , . . . , xn , y1 , . . . , yk ) 7→ f (x, y) = (f1 (x, y), . . . , fk (x, y)) ∈ Rk eine Abbildung. Wir betrachten f1 (x1 , · · · , xn , y1 , · · · , yk ) = 0 f2 (x1 , · · · , xn , y1 , · · · , yk ) = 0 .. . fk (x1 , · · · , xn , y1 , · · · , yk ) = 0 (5.22) als ein System von k Gleichungen in den k Unbekannten y1 , . . . , yk ∈ R, das von n Parametern x1 , . . . , xn abhängt. Wann gibt es eine Funktion (x1 , . . . , xn ) 7→ y(x) = (y1 (x1 , . . . , xn ), . . . , yk (x1 , . . . , xn )) , die das System (5.22) löst, also f (x, y(x)) = 0 erfüllt? Der Satz über die implizite Funktion ist eine elegante Antwort zur obigen Frage. Um den Satz zu behaupten führen wir folgende Notation ein. Angenommen dass die Kapitel 5. Differenzierbare Abbildungen 112 Funktion f differenzierbar ist, berechnen wir die Jacobi Matrix J von f an einer Stelle z ? = (a, b) ∂f1 ∂x1 ∂f2 ∂x1 . .. ∂fk ∂x1 ∂f1 ∂f1 ··· ∂x2 ∂xn ∂f2 ∂f2 ··· ∂x2 ∂xn .. .. .. . . . ∂fk ∂fk ··· ∂x2 ∂xn ∂f1 ∂f1 ··· ∂y1 ∂yk ∂f2 ∂f2 ··· ∂y1 ∂yk .. .. .. . . . ∂fk ∂fk ··· ∂y1 ∂yk ∂f1 ∂f1 ? statt (z ) geschrieben um die Notation leichter zu machen). Wir ∂x1 ∂x1 betrachten deswegen die Matrizen (wir haben ∂f1 ∂x1 ∂f2 ∂x A := .1 .. ∂fk ∂x1 und ∂f1 ∂f1 ··· ∂x2 ∂xn ∂f2 ∂f2 ··· ∂x2 ∂xn .. .. .. . . . ∂fk ∂fk ··· ∂x2 ∂xn ∂f1 ∂f1 ∂y1 · · · ∂yk ∂f2 ∂f2 ··· ∂y ∂yk B := .1 . .. .. .. . ∂fk ∂fk ··· ∂y1 ∂yk und die entsprechende Lineare Abbildungen Rn 3 v 7→ dx f |z? (v) := A · v ∈ Rk Rk 3 w 7→ dy f |z? (w) := B · w ∈ Rk . Wir haben dann d f |z? (v, w) = dx f |z? (v) + dy f |z? (w) Kapitel 5. Differenzierbare Abbildungen 113 und schreiben deswegen d f |z? = (dx f |z? , dy f |z? ) . J können wir als eine “Blockmatrix” der Form J = (A B) betrachten. Satz 5.8.2. Sei f : U → Rk eine C 1 -Abbildung, wobei U eine offene Menge in Rn × Rk ist. Sei z ? = (a, b) ∈ U mit der Eigenschaft, dass dy f |z? umkehrbar ist und f (a, b) = 0. Dann gilt: ∃ U 0 , U 00 offene Umgebungen von a und b und eine C 1 -Abbildung g : U 0 → U 00 , so dass {(x, y) ∈ U 0 × U 00 f (x, y) = 0} = {(x, g(x)) x ∈ U 0 } . Bemerkung 5.8.3. Im Fall n = k = 1, ist f = f1 (x1 , y1 ) und die Jacobi Matrix ist gegeben durch wobei ∂f1 ∂y1 ∂f1 ∂f1 ∂x1 ∂y1 , die Matrixdarstellung von dy f ist. Die Voraussetzung des Satzes ∂f1 6= 0. ∂y1 Bemerkung 5.8.4. Der Satz darf allgemein nicht benutzt werden, wenn dy f |z? nicht umkehrbar ist. Zum Beispiel, sei f : R2 → R durch f (x, y) = x2 − y 2 gegeben und z ? = (0, 0). ∂f (0, 0) = 0. Ausserdem {f = 0} = {x = 0} ∪ {y = 0}. Diese Menge ist in keiner ∂y Umgebung von (0, 0) der Graph einer Funktion. lautet dann Kapitel 5. Differenzierbare Abbildungen 114 Beweis. Sei Φ : U → Rn × Rk mit Φ(x, y) = (|{z} x , f (x, y)) ∈ Rn × Rk . | {z } n ∈R ∈Rk Die folgende Blockmatrix En 0 Jx Jy ! ist die Matrixdarstellung von d Φ|(a,b) , wobei En die n×n-Einheitsmatrix, 0 die n×kNullmatrix, Jx die Matrixdarstellung von dx f |(a,b) und Jy die Matrixdarstellung von dy f |(a,b) sind. Da dy f |(a,b) eine umkehrbare lineare Abbildung ist, ist auch d Φ|(a,b) umkehrbar. Wir wenden den Satz von der lokalen Umkehrbarkeit an: ∃ U0 offene Umgebung von (a, b), ∃ V offene Umgebung von (a, 0) = Φ(a, b) und eine C 1 Abbildung Ψ : V → U0 , so dass Ψ(Φ(x, y)) = (x, y) ∀(x, y) ∈ U0 Φ(Ψ(x, y)) = (x, y) ∀(x, y) ∈ V . D.h. Ψ = (Φ|U0 )−1 . Nun sei Rn × Rk 3 Ψ(x, y) = (ξ(x, y), ζ(x, y)) | {z } | {z } ∈Rn ∈Rk Dann (x, y) = Φ(Ψ(x, y)) = Φ(ξ(x, y), ζ(x, y)) ∀(x, y) ∈ V , d.h. (x, y) = (ξ(x, y), f (x, ζ(x, y))) . Deshalb x = ξ(x, y) y = f (x, ζ(x, y)) Ψ(x, y) = (x, ζ(x, y)) . (5.23) Wie setzen g(x) := ζ(x, 0). Aus den Gleichungen (5.23) folgt: 0 = f (x, ζ(x, 0)) = Kapitel 5. Differenzierbare Abbildungen 115 f (x, g(x)). Da V eine offene Umgebung von (a, 0) ist, ∃r > 0, so dass K n (a) × K k (0) ⊂ V , | r{z } | r{z } ⊂Rn ⊂Rk wobei Kρj (c) ⊂ Rj die j-dimensionale offene Kugel bezeichnet, d. h. Kρj (c) = {w ∈ Rj : |w − c| < ρ} . Wir bemerken, dass Ψ(Krn (a)×Krk (0)) eine offene Menge ist. Daher enthält diese die Menge Krn (a)×Kρk (b), falls ρ klein genug ist. (Da Ψ(a, 0) = (a, ζ(a, 0)) muss ζ(a, 0) = b sein, weil Ψ die Umkehrung von Φ ist und f (a, ζ(a, 0)) = 0 = f (a, b)). Nun ist g eine stetige Funktion und g(a) = ζ(a, 0) = b. Deswegen ist U 0 := g −1 (Kρk (b)) eine offene Menge, die a enthält. Wir setzen nun U 00 := Kρk (b). Die Funktion g bildet U 0 in U 00 ab und f (x, g(x)) = 0 =⇒ {(x, y) ∈ U 0 × U 00 : f (x, y) = 0} ⊃ {(x, g(x)) : x ∈ U 0 } . Sei (x, y) ∈ {U 0 × U 00 : f (x, y) = 0}. Es ist auch (x, y) ∈ U0 =⇒ Φ(x, y) = (x, f (x, y)) = (x, 0) ∈ V =⇒ Ψ(x, 0) = (x, y), weil Ψ die Umkehrung von Φ ist. Also folgt Ψ(x, 0) = (x, ζ(x, 0)) = (x, g(x)) =⇒ y = g(x) =⇒ {(x, y) ∈ U 0 × U 00 : f (x, y) = 0} ⊂ {(x, g(x)) : x ∈ U 0 } . g ist deswgen die gesuchte Funktion. Seien f und g wie im letzten Satz. Dann gilt: f (x, g (x)) = 0 |{z} |{z} ∈C 1 ∈C 1 ∀x ∈ U 0 . Kapitel 5. Differenzierbare Abbildungen 116 Sei nun Λ die Abbildung x 7→ (x, g(x)). Λ ist auch eine C 1 Abbildung und es folgt ∀x ∈ U 0 . d(f ◦ Λ)|x = 0 Wir haben d f |(x,g(x)) = dx f |(x,g(x)) , dy f |(x,g(x)) . Mit der gleichen Konvention haben wir auch dΛ|x = ! Id . d g|x Das heisst, wenn Gx die Jacobi-Matrix von g an der Stelle x ist, dann ist die folgende Blockmatrix ! En Gx die Jacobi-Matrix von Λ an der Stelle x. Also folgt 0 = d(f ◦ Λ|x ) = dx f |(x,g(x)) + dy f |(x,g(x)) ◦ d g|x (5.24) Wenn die lineare Abbildung dy f |(x,g(x)) umkehrbar ist, folgt d g|x = − dy f |(x,g(x)) −1 ◦ dx f |(x,g(x)) . Die Annahme des Satzes über implizite Funktionen ist dass dy f umkehrbar an der Stelle (a, b) = (a, g(a)) ist. Aus der Stetigkeit von g und z 7→ dy f |z folgt die Umkehrbarkeit der linearen Abbildung dy f |(x,g(x)) wenn x zu einer Umgebung von a gehört. Das obige Argument beweist das folgende Korollar 5.8.5. Seien f und g wie im Satz über implizite Funktionen. Dann gilt dx g|x = − dy f |(x,g(x)) −1 ◦ dx f |(x,g(x)) , (5.25) Kapitel 5. Differenzierbare Abbildungen 117 für jede Stelle x in einer Umgebung von a. Beispiel 5.8.6. Seien k = n = 1, f : R2 → R C 1 und a ∈ R, b ∈ R so dass f (a, b) = 0 und ∂f (a, b) 6= 0. ∂y (5.26) Der Satz über implizite Funktionen garantiert die Existenz einer C 1 Funktion g : U 0 → U 00 mit f (x, g(x)) = 0, wobei U 0 ⊂ R ein offenes Intervall mit a ∈ U 0 ist. Aus dem Korollar folgt: ∂f (x, g(x)) g 0 (x) = − ∂x . (5.27) ∂f (x, g(x)) ∂y Eigentlich ist das Argument des Korollars ganz einfach in diesem Fall: wenn wir die Gleichung f (x, g(x)) = 0 in x ableiten, folgt aus der Kettenregel ∂f ∂f (x, g(x)) + (x, g(x))g 0 (x) = 0 . ∂x ∂y Die Annahme (5.26) bedeutet (5.28) ∂f ∂f (a, g(a)) = (a, b) 6= 0 und die Stetigkeit von f ∂y ∂y ∂f (x, g(x)) 6= 0 für alle x in einem offenen Intervall I 3 a. ∂y Deshalb ist (5.27) eine triviale Konsequenz von (5.28). und g implizieren dass 5.9. Untermannigfaltigkeiten des Rn Definition 5.9.1. Seien Ω ⊂ RN eine offene Menge und k ∈ [1, N − 1] eine natürliche Zahl. Eine Menge E ⊂ Ω ist eine C 1 -Untermannigfaltigkeit von Ω der Dimension d := N − k, falls ∀p ∈ E die folgende Eigenschaft gilt: ∃ eine Ordnung der Koordinaten (x1 , · · · , xN −k , y1 , · · · , yk ), so dass • p = ( |{z} a , |{z} b ) ∈RN −k ∈Rk Kapitel 5. Differenzierbare Abbildungen 118 • ∃ Umgebungen U und V von a und b • ∃f : U → V C 1 , so dass (U × V ) ∩ E = {(x, f (x)) : x ∈ U } . Definition 5.9.2. Sei N ≥ k + 1 und f : RN ⊃ U → Rk eine C 1 -Abbildung. Dann heisst c ∈ Rk ein regulärer Wert von f , falls ∀x0 ∈ U mit f (x0 ) = c das Differential d f |x0 maximalen Rang k hat. Satz 5.9.3. Falls c ein regulärer Wert ist, dann ist f −1 ({c}) = {z : f (z) = c} eine Untermannigfaltigkeit der Dimension N − k. Beweis. Sei p, so dass f (p) = c. Dann gilt für das Differential d f |p die Matrixdarstellung ∂f ∂f ∂f ··· ··· , ∂z1 ∂z2 ∂zN wobei ∂f1 ∂z1 . ∂f .. . = ∂z1 ∂fk ∂z1 Da das Differential Rang k hat, folgt die lineare Unabhängigkeit von k der Spalten ∂f . Nach Umordnung der Koordinaten dürfen wir annehmen dass die letzte k ∂zj Spalten linear Unabhängig sind. Wir setzen x = (z1 , . . . , zN −k ) und y = (zN −k+1 , . . . , zN ) . Kapitel 5. Differenzierbare Abbildungen 119 Die Abbildung dy f |p wird dann von der k × k Matrix mit Spalten ∂f ∂f = , ∂y1 ∂zN −k+1 ··· , ∂f ∂f = ∂yk ∂zN dargestellt. Der Rang dieser Matrix ist dann k, d.h. die Matrix ist umkehrbar. So ist dy f |p umkehrbar und wir dürfen den Satz über implizite Funktionen an der Funktion f − c anwenden. Deshalb ∃ eine offene Umgebung U 0 × U 00 =: U von p = (a, b) und eine C 1 Funktion g : U 0 → U 00 mit U ∩ E = {q ∈ U : f (q) − c = 0} = {(x, g(x)) : x ∈ U 0 } . 5.10. Die Multiplikationsregel von Lagrange Definition 5.10.1. Sei U ⊂ Rn und seien φ1 , · · · , φj verschiedene C 1 -Funktionen mit φi : U → R. Sei f : U → R eine C 1 -Funktion und p ein Punkt mit φ1 (p) = · · · = φj (p) = 0 . (5.29) p heisst p Maximum (bzw. Minimum) von f mit Nebenbedingungen φ1 , . . . , φj falls f (p) ≥ f (q) (bzw. f (p) ≤ f (q)) ∀q mit φ1 (q) = · · · φj (q) = 0 . Satz 5.10.2. Sei p ein Maximum (bzw. Minimum) von f mit Nebenbedingungen φ1 , . . . , φj , wie in der Definition 5.10.1. Falls U offen ist und ∇φ1 (p), · · · , ∇φj (p) linear unabhängige Vektoren sind, dann gilt: ∃λ1 , · · · , λj , so dass ∇f (p) = λ1 ∇φ1 (p) + · · · + λj ∇φj (p) . (5.30) Die Identität (5.30) heisst die Multiplikationsregel (oder Multiplikatorenregel) von Lagrange und die Zahlen λ1 , . . . , λj heissen die Multiplikatoren von Lagrange. Kapitel 5. Differenzierbare Abbildungen 120 Bemerkung 5.10.3. (5.29) und (5.30) bilden ein System von n + j Gleichungen mit n + j Unbekannten λ1 , · · · , λj , p1 , . . . , pn . Bemerkung 5.10.4. ∇φi ist die i-te Zeile der Matrixdarstellung von d φ: d.h. die Jacobi-Matrix von φ an der Stelle p ist ∇φ1 (p) . . J(p) = . ∇φj (p) {z } | j×n-Matrix Die lineare Unabhängigkeit von ∇φ1 (p), . . . , ∇φj (p) impliziert, dass J(p) maximalen Rang hat, d.h. Rang j. Deswegen gibt es j Spalten von J(p) die linear unabhängig sind. Wir können nun wie im Beweis des Satzes 5.9.3 vorgehen: O.B.d.A. dürfen wir annehmen dass diese Spalten die letzte k Spalten sind und deshalb den Satz über implizite Funktionen anwenden. Es folgt nun: {φ = 0} ∩ U 0 × U 00 = {(x, g(x)), x ∈ U 0 }, wobei U 0 × U 00 eine Umgebung von p und g : Rn−j ⊃ U 0 → Rj eine C 1 -Abbildung sind. Sei nun (a, g(a)) =: p und wir betrachten die Funktion h(x) := f (x, g(x)). Diese Funktion hat ein Maximum (bzw. ein Minimum) in a, d.h. d h|a = 0 . (5.31) Beweis. [Beweis der Multiplikatorregel] Wir betrachten die Funktion h aus Bemerkung 5.10.4. Mit (5.31) und der Kettenregel folgt: dx h|a = dx f |(a,g(a)) + dy f |p ◦ dx g|a =⇒ 0 = dx f |p + dy f |p ◦ dx g|a . Mit Korollar 5.8.5 folgt weiter: dx g|a = −(dy φ|p )−1 ◦ dx φ|p Kapitel 5. Differenzierbare Abbildungen 121 und daher ist dx f |p = − dy f |p ◦ dx g|a = dy f |p ◦ (dy φ|p )−1 ◦ dx φ|p . Wir definieren die Matrizen A, B und C wie folgt. A ist die Matrixdarstellung der linearen Abbildung ! dx f |p (v) v 7→ , dx φ|p (v) B ist die Matrixdarstellung der linearen Abbildung w 7→ dy f |p (w) dy φ|p (w) ! und C die Matrixdarstellung von (dy φ|p )−1 ◦ dx φ|p . Wir haben dann dx f |p = dy f |p ◦ (dy φ|p )−1 ◦ dx φ|p dx φ|p = dy φ|p ◦ (dy φ|p )−1 ◦ dx φ|p . Diese Gleichungen bedeuten, dass A = BC, d.h. jede Spalte von A ist eine Linearkombination der Spalten von B. Deswegen ist der Rang der Matrix D = (A B) echt kleiner als j + 1 (siehe Lemma 5.10.5 unten). Das bedeutet dass die j + 1 Zeilen von D eine linear abhängige Familie von Vektoren ist. Wir betrachten noch einmal die Matrix D: ∂f ∂f ∂f ∂f ··· ··· ∂x1 ∂xn−j ∂y1 ∂yj ∂φ ∂φ ∂φ ∂φ 1 1 1 1 · · · · · · ∂x1 ∂xn−j ∂y1 ∂yj . . .. .. .. .. . . . ∂φj ∂φj ∂φj ∂φj ··· ··· ∂x1 ∂xn−j ∂y1 ∂yj Die lineare Abhängigkeit der Zeilen impliziert die Existenz von µ0 , . . . , µj ∈ R, die nicht alle Null sind, so dass µ0 ∇f (p) + µ1 ∇φ1 (p) + · · · + µj ∇φj (p) = 0 . Kapitel 5. Differenzierbare Abbildungen 122 Es muss aber µ0 6= 0, sonst hätten wir µ1 ∇φ1 (p) + · · · + µj ∇φj (p) = 0 . Wir setzen daher λi = − µµ0i und erhalten damit die Multiplikationsregel. Lemma 5.10.5. Seien A, B und C Matrizen, so dass A = BC. Dann sind die Spalten von A Linearkombinationen der Spalten von B. Beweis. A ist eine n × k-Matrix, B eine n × j-Matrix und C eine j × k-Matrix: A = (ail ), B = (bαβ ) und C = (cst ). Die Identität A = BC impliziert ail = j X biα cαl . α=1 Die λ-te Spalte von A ist P j b c a1λ 1α αλ . α=1 . . .. = .. Pj b c anλ α=1 nα αλ Wir setzen nun µj := cjλ und schliessen a1λ . .. anλ | {z } Die λ-te Spalte von A = µ1 b11 . .. bn1 | {z } erste Spalte von B + µ2 b12 . .. bn2 | {z } zweite Spalte von B b1j . . + · · · + µj . . bnj 6. Gewöhnliche Differentialgleichungen Die Unbekannte einer gewöhnlichen Differentialgleichung ist eine Funktion y : I → R (oder C), wobei I eine Teilmenge von R ist (in diesem Kapitel ist I immer ein Intervall, eine Halbgerade oder die ganze reelle Achse). Eine gewöhnliche Differentialgleichung hat die Gestalt: F (t, y(t), y 0 (t), · · · , y (n) (t)) = 0, (6.1) wobei F eine (bekannte!) Abbildung von I × R × R × ... × R → R | {z } (n + 1)-mal bzw. I × C × C × ... × C | {z } (n + 1) mal →C ist. Eine Lösung von (6.1) ist eine Funktion die auf I n-mal differenzierbar ist und für die die Identität (6.1) für alle t ∈ I gilt. Manchmal ist die Abbildung F auch nur auf einer Teilmenge A ⊂ I×R×R×. . .×R definiert. In diesem Fall ist eine Lösung der Differentialgleichung eine Funktion y, so dass (i) (t, y(t), y 0 (t), . . . , y (h) (t)) ∈ A ∀t ∈ I, (ii) die Identität (6.1) gilt ∀t ∈ I. Beispiel 6.0.1. Sei g : [a, b] → R. Wir haben bereits die Differentialgleichung y 0 (t) − g(t) = 0 ∀t ∈ [a, b] 123 (6.2) Kapitel 6. Gewöhnliche Differentialgleichungen 124 gesehen (d.h. y ist eine Stammfunktion von g). In diesem Fall ist die Abbildung F : [a, b] × R × R → R durch die Formel F (t, y, z) = z − g(t) gegeben. Falls g eine stetige Funktion ist, dann gilt: Z t g(s)ds y(t) := a Rt ist eine Lösung von (6.2). Genauer ist ∀c0 ∈ R, auch y(t) = c0 + a g(s)ds eine Lösung. Umgekehrt ist jede Lösung von (6.1) durch obige Formel gegeben: Sei y Rt eine solche Lösung. Wir definieren ỹ(t) := y(t) − a g(s)ds. Die Funktion ỹ ist dann auf [a, b] differenzierbar und ỹ 0 = 0 überall in I. Mit dem Satz von Lagrange folgt, t Z ỹ = Konstante =: c0 =⇒ g(s)ds. y(t) = c0 + a Wir haben damit folgenden Satz bewiesen: Satz 6.0.2. Sei g eine stetige Funktion. Dann gilt: Z y löst (6.2) ⇐⇒ ∃c0 ∈ R(bzw. C), so dass y(t) = c0 + t g(s)ds ∀t ∈ [a, b]. a Beispiel 6.0.3. Sei p ein Teilchen und y(t) := die Position von p zum Zeitpunkt t. D.h. y(t) = (y1 (t), y2 (t), y3 (t)). Für unser Modell nehmen wir an, dass die Bewegungen des Teilchens auf eine Gerade eingeschränkt sind, d.h. y(t) ∈ R. Das Newtonsche Gesetz besagt nun, dass F = ma ist. Sei also a(t) die Beschleunigung des Teilchens, d.h. a(t) = y 00 (t). Weiter sei F (t) eine Kraft, die auf das Teilchen zum Zeitpunkt t einwirkt. Oft hängt diese Kraft nur von der Position des Teilchens ab, d.h. F (t) = g(y(t)), wobei g eine bekannte Funktion ist. Es ist aber auch möglich, dass die Kraft auch von der Geschwindigkeit und/oder von der Zeit abhängt, d.h. F = f (t, y(t), y 0 (t)). Sei m die Masse des Teilchens (in der klassischen Mechanik ist die Masse eine positive Konstante). Also Kapitel 6. Gewöhnliche Differentialgleichungen 125 ist die Funktion y eine Lösung der Differentialgleichung my 00 (t) − f (t, y(t), y 0 (t)) = 0. Beispiel 6.0.4. Sei A(t) die Anzahl Tiere in einem Wald dividiert durch das Maximum aller in einem Wald platzfindenden Tiere (Annahme: Es gibt so viele Tiere, dass wir A als eine reellwertige Funktion beschreiben können). Das Wachstum von A ist dann gegeben durch A0 (t) = f (A(t)) − g(1 − A(t)), wobei f, g : [0, 1[→ R zwei monoton wachsende Funktionen sind und lims→1 g(s) = +∞. Zum Beispiel K1 , A0 (t) = K0 A(t) − 1 − A(t) wobei K0 und K1 zwei positive Konstante sind. (In der Literatur: “Lotka-Volterra population models”). 6.1. Lineare gewöhnliche Differentialgleichungen Definition 6.1.1. Eine inhomogene lineare Differentialgleichung (kurz: LDGL) ist eine Gleichung der Form y 0 (t) = g(t)y(t) + h(t), (6.3) wobei g, h : I → R zwei bekannte Funktionen sind und y die Unbekannte ist. Falls h ≡ 0 ist, heisst (6.3) homogene lineare Differentialgleichung (kurz: HDGL), d.h. y 0 (t) = g(t)y(t). (6.4) Falls y1 , y2 : I → R (6.4) lösen, dann ist auch jede lineare Kombination von y1 , y2 eine Lösung von (6.4) (eine lineare Kombination von y1 und y2 ist eine Funktion y der Form y = λy1 + µy2 , wobei λ, µ ∈ R). Falls y und z zwei Lösungen von (6.3) Kapitel 6. Gewöhnliche Differentialgleichungen 126 sind, dann löst w := z − y (6.4): w0 (t) = (z − y)0 (t) = z 0 (t) − y 0 (t) = g(t)z(t) + h(t) − (g(t)y(t) + h(t)) = g(t) (z(t) − y(t)) =⇒ w0 (t) = y(t)w(t). {z } | =w(t) Wir fassen diese Bemerkungen im folgenden Satz zusammen: Satz 6.1.2. Sei V := {y : I → R : y löst (6.4)}. Dann ist V ist ein Vektorraum. Ferner gilt für eine Lösung z von (6.3), y löst (6.3) ⇐⇒ ∃v ∈ V : y = z + v. Satz 6.1.2 gilt auch für andere Differentialgleichungen (d.h. auch für andere lineare Differentialgleichungen). Wenn wir eine Basis für den Vektorraum V haben und eine spezielle Lösung von (6.3) kennen, dann haben wir eine allgemeine Formel für alle Lösungen von (6.3). Aus diesem Grund betrachten wir zuerst die homogene Gleichung y 0 (t) = y(t)g(t). Angenommen y > 0. Dann gilt, y 0 (t) = g(t) =⇒ (ln(y(t)))0 = g(t). y(t) Setzen wir nun z(t) := ln(y(t)), dann folgt z 0 (t) = g(t). Falls g stetig ist, gilt: Z z(t) = c0 + t g(s)ds a =⇒ y(t) = ez(t) = ec0 e Bemerkung 6.1.3. Rt a g(s)ds Rt = Ce a g(s)ds . Kapitel 6. Gewöhnliche Differentialgleichungen Rt ∀C ∈ R: y(t) := Ce a g(s)ds löst (6.4), auch wenn C negativ ist! Denn: Rt 0 127 y (t) = Ce a g(s)ds 0 t Z g(s)ds Rt = Ce a g(s)ds g(t). a Theorem 6.1.4. Rt Sei g stetig. Dann löst y (6.4) auf I ⇐⇒ ∃C ∈ R mit y(t) = Ce a g(s)ds . (Zur Erinnerung: I ist entweder ein Intervall, oder eine Halbgerade, oder die ganz R. Ohne diese Annahme stimmt die obige Behauptung nicht!) Beweis. “⇐=”: Diese Aussage haben wir bereits bewiesen (siehe Bemerkung 6.1.3). “=⇒”: Sei y(t) eine Lösung von (6.4). Wir definieren nun z(t) := e− Rt a y(s)ds y(t). Leiten wir z(t) ab, so erhalten wir z 0 (t) = −g(y)e− Rt a g(s)ds y(t) + e− Rt a y(s)ds g(t)y(t) = 0. Daraus folgt, dass z eine Konstante ist (in dieser letzten Behauptung haben wir benutzt, dass I ein Intervall, eine Halbgerade oder ganz R ist). Wir suchen nun eine Lösung der inhomogenen Gleichung, d.h. von y 0 (t) = g(t)y(t) + h(t). Dazu sei ȳ(t) := e− Rt a g(s)ds y(t). Rt g(s)ds Dann ist ȳ 0 (t) = −g(t)e− = e− Rt a Rt a g(s)ds g(s)ds h(t). y(t) + e− a (g(t)y(t)) + h(t) Kapitel 6. Gewöhnliche Differentialgleichungen D.h. ȳ ist eine Stammfunktion von e− Z ȳ(t) = Rt a g(s)ds t e− Rτ a 128 h(t) und somit gilt, g(s)ds h(τ )dτ. 0 Wir haben also eine spezielle Lösung von (6.3) gefunden: Rt y(t) = e a g(s)ds Z t e− Rτ a g(s)ds h(τ )dτ. a Diese Bemerkungen fassen wir im folgenden Theorem zusammen: Theorem 6.1.5. Seien g und h zwei stetige Funktionen. Dann gilt: y ist genau dann eine Lösung von (6.3) auf I, wenn ∃C ∈ R, so dass Rt y(t) = e a g(s)ds Z t R − aτ g(s)ds e h(τ )dτ . C+ (6.5) a 6.2. Das Anfangswertproblem Wie wir im letzten Kapitel gesehen haben, hat die Differentialgleichung y 0 (t) = g(t)y(t) + h(t) unendlich viele Lösungen: Die Wahl der Konstanten C in der Formel (6.5) ist frei. Das ist typisch für gewöhnliche Differentialgleichungen und normalerweise brauchen wir zusätzliche Informationen um die “freie” Konstante zu bestimmen, damit die Lösung eindeutig ist. Definition 6.2.1. Ein Anfangswertproblem für die GDGL y (n) (t) = F (t, y(t), y 0 (t), · · · , y (n−1) (t)) Kapitel 6. Gewöhnliche Differentialgleichungen 129 hat die zusätzlichen Anfangsbedingungen y(t0 ) = y0 , y 0 (t ) = y , 0 1 . .. y (n−1) (t ) = y , 0 n−1 wobei t0 ∈ I und y0 , y1 , . . . , yn−1 ∈ R (bzw. C). 6.3. Differentialgleichungen mit getrennten Variablen Eine gewöhnliche Differentialgleichung erster Ordnung mit getrennten Variablen ist eine Differentialgleichung der Form y 0 (t) = g(t)F (y(t)). In diesem Unterkapitel werden wir eine (lokale) Lösung für das folgende Anfangswertproblem suchen: y 0 (t) = g(t)F (y(t)) y(t ) = y . 0 (6.6) 0 Wir unterscheiden hierbei zwei Fälle: 1. F (y0 ) = 0. In diesem Fall ist y(t) ≡ y0 eine Lösung von (6.6), weil F (y(t))g(t) = F (y0 )g(t) = 0 = y 0 (t) ∀t. 2. F (y0 ) 6= 0. Falls y :]a, b[→ R eine Lösung von (6.6) ist und F stetig ist, gilt: ∃δ > 0, so dass F (y(t)) 6= 0, wenn t ∈]t0 − δ, t0 + δ[. Dann ist y 0 (t) = g(t) ∀t ∈]t0 − δ, t0 + δ[. F (y(t)) Kapitel 6. Gewöhnliche Differentialgleichungen 130 Falls g stetig ist, gilt: Z t t0 y 0 (t) dt = F (y(t)) Z t Z g(t)dt t0 y(t) =⇒ y(t0 ) dσ = F (σ) Z t g(t)dt. t0 Sei H eine Stammfunktion von F1 (und G eine Stammfunktion von g), dann ist H(y(t)) − H(y(t0 )) = G(t) − G(t0 ) und H(y(t)) = G(t) − G(t0 ) + H(y0 ) . (6.7) Wenn H umkehrbar ist, dann können wir mittels (6.7) die Unbekannte y(t) bestimmen. Manchmal gelingt es uns eine explizite Umkehrfunktion für H zu finden. Aber es kann auch sein, dass die Funktion H auf ihrem ganzen Definitionsbereich nicht umkehrbar ist. Wir sehen trotzdem, dass wenn |t − t0 | klein ist, liegt der Wert G(t) − G(t0 ) + H(y0 ) in der Nähe von H(y0 ), weil G stetig ist. Ferner ist 1 6= 0. H 0 (y0 ) = F (y0 ) Nehmen wir an dass F (y0 ) > 0 (der Fall F (y0 ) < 0 ist ähnlich). Da F stetig ist, ∃ε > 0, so dass H 0 > 0 auf ]y0 − ε, y0 + ε[, also folgt, H :]y0 − ε, y0 + ε[−→]H(y0 − ε), H(y0 + ε)[ ist umkehrbar. Daher können wir diese eingeschränkte Funktion umkehren. Wir bezeichnen mit H −1 diese “lokale” Umkehrung von H. Für |t − t0 | klein genug ist die folgende Formel wohldefiniert: y(t) = H −1 (G(t) − G(t0 ) + H(y0 )) . (6.8) Wenn g und F stetig sind und y0 eine Stelle ist, so dass F (y0 ) 6= 0, dann ist die Funktion in (6.8) eine Lösung von (6.6) in einer Umgebung von t0 ; das ist leicht zu überprüfen. Wir fassen diese Bemerkungen im nächsten Satz zusammen. Kapitel 6. Gewöhnliche Differentialgleichungen 131 Satz 6.3.1. Seien F und g zwei stetige Funktionen und y0 und t0 zwei Stellen, die im Inneren der Definitionsbereiche von F und g liegen. Ferner sei F (y0 ) 6= 0 und H eine Stammfunktion von F1 , deren Definitionsbereich eine Umgebung von y0 enthält. Schliesslich sei G eine Stammfunktion von g, deren Definitionsbereich eine Umgebung von t enthält. Dann gibt es in einer Umgebung von t0 eine eindeutige Lösung von (6.6), die durch die Formel (6.8) gegeben ist. Beispiel 6.3.2. Wir betrachten noch einmal die homogene lineare Differentialgleichung y 0 (t) = g(t)y(t). Wir setzen F (y) := y und betrachten das Anfangswertproblem y 0 (t) = g(t)F (y(t)) y(0) = y . (6.9) 0 Die Formel für die Lösung von (6.9) können wir mittels Theorem 6.1.4 finden. Dieses Theorem garantiert die Existenz einer Konstanten C, so dass Rt y(t) = Ce 0 g(t)dt = y0 e Rt 0 g(s)ds . (6.10) Die Konstante C ist leicht zu bestimmen: Wir können einfach den Wert t = t0 = 0 in (6.10) einsetzen: R0 y0 = y(0) = Ce 0 g(s)ds = Ce0 = C. Nehmen wir nun an, dass F (y0 ) 6= 0, d.h. y0 6= 0. Als Stammfunktion von F1 wählen wir H(σ) = ln(σ). Der Definitionsbereich von H ist dann die Halbgerade ]0, ∞[, die Rt die positive Zahl y0 enthält. Eine globale Stammfunktion von g ist G(t) := 0 g(τ )dτ . F , g, H, G, y0 und t0 = 0 erfüllen nun die Bedingungen von Satz 6.3.1. Daher wissen Kapitel 6. Gewöhnliche Differentialgleichungen 132 wir, dass wenn y eine Lösung von (6.9) ist, gilt: y(t) = H −1 (G(t) − G(0) + H(y0 )) Z t −1 g(t)dt + H(y0 ) =H 0 1 in einer Umgebung von 0. H ist die Stammfunktion von F (σ) = σ1 auf einem Intervall, das y0 enthält. OBdA nehmen wir y0 > 0 an. Die Umkehrfunktion von H ist dann H −1 (ξ) = eξ und damit ist Rt y(t) = e( 0 g(s)ds+ln(y0 )) Rt = eln y0 e 0 g(s)ds Rt = y0 e 0 g(s)ds . Auch im Fall y0 < 0 können wir Satz 6.3.1 anwenden, wenn wir H(σ) = − ln(−σ) als Stammfunktion wählen. Beispiel 6.3.3. Das nächste Beispiel ist ein Spezialfall der Bernoullischen Differentialgleichung: y 0 (t) = a(t)(y(t))α y(0) = y . mit α < 1 0 Es ist jedoch Vorsicht geboten: die GDGL macht nur Sinn, wenn y(t) ≥ 0! Wir schreiben die Gleichung als y 0 (t) = a(t)F (y(t)), wobei F (σ) := σ α . Der Definitionsbereich von F ist dann [0, +∞[. Wenn wir Satz 6.3.1 anwenden wollen, dann muss unbedingt y0 > 0 sein. Ist dies der Fall, so ist F (y0 ) = y0α . Wir brauchen nun eine Stammfunktion H von F1 , die y0 im Definitionsbereich enthält. D.h. 1 = σ −α F (σ) und H(σ) = 1 σ 1−α (weil α 6= 1). (1 − α) Kapitel 6. Gewöhnliche Differentialgleichungen 133 Die Funktion H :]0, +∞[→]0, ∞[ ist umkehrbar. Also ist y(t) = H −1 t Z a(s)ds + H(y0 ) 0 1 =⇒ H(σ) = σ 1−α =: η (1 − α) 1 =⇒ H −1 (η) = σ = ((1 − α)η) 1−α . Damit folgt, Z t y(t) = (1 − α) a(s)ds + 1 y01−α 1 − α 0 1 1−α Z t 1−α . = y0 + (1 − α) a(s)ds 1 1−α 0 NB: Die Funktion ist wohldefiniert, wenn y01−α + (1 − α) |t| klein genug ist. Rt 0 a(s)ds ≥ 0. Das gilt, falls 6.4. Lineare GDGL mit konstanten Koeffizienten Definition 6.4.1. Eine lineare gewöhnliche Differentialgleichung mit konstanten Koeffizienten ist eine Differentialgleichung von der Form y (n) (t) + an−1 y (n−1) (t) + · · · + a1 y 0 (t) + a0 y(t) = q(t), (6.11) wobei a0 , . . . , an−1 reelle (bzw. komplexe) Konstanten sind. Falls q 6= 0 ist, heisst die Gleichung inhomogen und sonst homogen. Das folgende Lemma ist einfach zu beweisen (ähnlich wie Satz 6.1.2). Lemma 6.4.2. Sei I ein Intervall. Dann ist die Menge V := {y : I → R(bzw. C) : y löst (6.11) mit q = 0} Kapitel 6. Gewöhnliche Differentialgleichungen 134 ein reeller (bzw. komplexer) Vektorraum. Wenn q 6= 0 und u eine spezielle Lösung von (6.11) auf I ist, dann gilt: w löst (6.11) auf I ⇐⇒ ∃v ∈ V : w = u + v . In diesem Kapitel untersuchen wir die reellen (bzw. komplexen) Lösungen des homogenen Falls von (6.11). Unser Ziel ist, das folgende Haupttheorem zu beweisen: Theorem 6.4.3. Seien y0 , y1 , · · · , yn−1 ∈ R (bzw. C). Dann ∃ eine eindeutige Lösung des Anfangswertproblems y (n) + an+1 y (n−1) + · · · + a1 y 0 + a0 y = 0, y(0) = y0 , (6.12) y 0 (0) = y1 , . .. y (n−1) (0) = y n−1 auf ganz R. Wir werden nicht nur dieses Theorem beweisen, sondern auch eine explizite Formel für die Lösung angeben. Zuerst beweisen wir die Eindeutigkeit einer Lösung von (6.12). Lemma 6.4.4. Sei I ein beliebiges Intervall mit 0 ∈ I und L : V → Cn (bzw. Rn ), die folgende lineare Abbildung: V 3 y 7→ L(y) = y(0), y 0 (0), · · · , y (n−1) . Dann ist L injektiv und somit ist dim(V ) ≤ n. Aus dem Lemma folgt, dass das Anfangswertproblem (6.12) höchstens eine Lösung besitzt. Beweis. Die Linearität von L ist trivial. Um die Injektivität zu zeigen, brauchen Kapitel 6. Gewöhnliche Differentialgleichungen 135 wir nur die Identität ker (L) = {0} zu zeigen (d.h. dass L(v) = 0 =⇒ v = 0). Die Injektivität folgt dann aus elementaren Bemerkungen der Linearen Algebra. (Sei v, w ∈ V , so dass L(v) = L(w); dann folgt mit der Linearität von L, dass L(v − w) = 0.) Sei nun y eine Lösung von (6.12) mit y0 = y1 = . . . = yn−1 = 0. Wir setzen 2 Y (t) := (y(t))2 + (y 0 (t)) + · · · + y (n−1) (t) 2 . Dann ist Y differenzierbar mit |Y 0 (t)| = |2y(t)y 0 (t) + 2y 0 (t)y 00 (t) + · · · + 2y (n−2) (t)y (n−1) + 2y (n−1) (t)y n (t)| ≤ 2|y(t)||y 0 (t)| + · · · + 2|y (n−2) (t)||y (n−1) (t)| | } | √ {z√ } √ {z√ ≤2 Y (t) Y (t) ≤2 Y (t) Y (t) + 2|y (n−1) (t)| −an−1 y (n−1) (t) − · · · − a0 y(t) | {z } √ √ =2 Y (t)(|an−1 |+···+|a0 |) Y (t) ≤ 2 n − 1 + |a0 | + · · · + |an−1 | Y (t) = CY (t). D.h. Y ist eine nichtnegative differenzierbare Funktion, die auf einem Intervall I definiert ist mit (a) 0 ∈ I und Y (0) = 0 und (b) |Y 0 (t)| ≤ CY (t). Mit dem Lemma von Gronwall (siehe Lemma 6.4.6 unten) folgt Y ≡ 0 und somit ist y ≡ 0. Das Lemma von Gronwall ist ein berühmtes Resultat aus der Theorie der Differentialgleichungen und wird oft benutzt, um die Eindeutigkeit von Lösungen zu beweisen (manchmal auch für partielle Differentialgleichungen!). Lemma 6.4.5 (Gronwall, 1. Version). Sei Y : [0, c[→ [0, +∞[ eine differenzierbare Funktion mit (i) Y (0) = 0, Kapitel 6. Gewöhnliche Differentialgleichungen 136 (ii) Y 0 (t) ≤ CY (t) ∀t ∈ [0, c[, wobei C unabhängig von t ist. Dann ist Y ≡ 0. Beweis. Wir definieren z(t) := e−Ct Y (t). Dann ist z nichtnegativ und differenzierbar. Des Weiteren gilt, z 0 (t) = e−Ct Y 0 (t) − Ce−Ct Y (t) = e−Ct (Y 0 (t) − CY (t)) ≤ 0, d.h. z ist eine monoton fallende Funktion. Das impliziert, dass z(t) ≤ z(0) = 0 ∀t ∈ [0, c[ und da z eine nicht negative Funktion ist, gilt: z ≡ 0 auf [0, c[. Lemma 6.4.6 (Gronwall, 2. Version). Sei Y :]a, b[→ R eine differenzierbare Funktion mit (i) Y (0) = 0 und a < 0 < b, (ii) |Y 0 (t)| ≤ C|Y (t)| ∀t ∈]a, b[. Dann ist Y ≡ 0. Beweis. Sei z(t) := Y (t)2 . Dann ist z 0 (t) = 2Y (t)Y 0 (t) ≤ 2|Y (t)|C|Y (t)| ≤ 2Cz(t). Da z(0) = 0 ist, folgt mit Lemma 6.4.5, dass z(t) = 0 ∀t ∈ [0, b[. Daher ist Y ≡ 0 auf [0, b[. Sei nun w : [0, |a|[→ [0, +∞[ mit w(t) := Y (−t)2 . Dann ist w0 (t) = −2Y (−t)Y 0 (−t) ≤ 2C|Y (−t)|2 = 2Cw(t). Mit Lemma 6.4.5 folgt nun w(t) = 0 ∀t ∈ [0, |a|[; das beweist auch, dass Y (t) = 0 ∀t ∈]a, 0]. Wir beweisen nun, dass dim V = n ist: Dazu werden wir n linear unabhängige explizite Lösungen der homogenen Differentialgleichung y (n) + an−1 y (n−1) + . . . + a1 y 0 + a0 y = 0 (6.13) Kapitel 6. Gewöhnliche Differentialgleichungen 137 konstruieren. Definition 6.4.7. Das Polynom P (x) = xn + an−1 xn−1 + . . . + a1 x + a0 heisst charakteristisches Polynom der Differentialgleichung (6.13). Als nächstes brauchen wir einige wichtige Ergebnisse aus der (abstrakten) Algebra. Theorem 6.4.8 (Fundamentalsatz der Algebra). Seien a0 , . . . , an−1 ∈ C und P (x) = xn + an−1 xn−1 + . . . + a1 x + a0 . Dann gibt es (i) r verschiedene komplexe Zahlen λ1 , . . . , λr und (ii) r positive natürliche Zahlen k1 , . . . , kr , so dass P (x) = (x − λ1 )k1 (x − λ2 )k2 · . . . · (x − λr )kr . (6.14) Die Zahlen λ1 , . . . , λr heissen Nullstellen des Polynoms. Die Zahl kj bezeichnet die Vielfachheit der Nullstelle λj . Wenn das Polynom reell ist (d.h. a0 , . . . , an−1 ∈ R), können wir einiges mehr über die Nullstellen sagen. Satz 6.4.9 (Reelle Faktorisierung). Seien a0 , . . . , an−1 ∈ R und P (x) = xn + an−1 xn−1 + . . . + a1 x + a0 . Dann gilt: Falls λ ∈ C eine Nullstelle von P ist, so ist auch λ̄ eine Nullstelle von P mit der gleichen Vielfachheit. Nehmen wir an, dass das Polynom P reell ist. Wir können diese zusätzliche Information nutzen, um die rechte Seite von (6.14) wie folgt umzuschreiben: Zuerst ordnen wir die Nullstellen: µ1 , . . . , µ` , z1 , z̄1 , . . . , zs , z̄s , wobei µj ∈ R und zj = αj + iβj ∈ C \ R (d.h. βj 6= 0). Nun ordnen wir auch die entsprechenden Vielfachheiten der Nullstellen: k1 , . . . , k` , m1 , m1 , . . . , ms , ms . Kapitel 6. Gewöhnliche Differentialgleichungen 138 Dann folgt aus (6.14), m ms P (x) = (x − µ1 )k1 · · · (x − µ` )k` · (x − z1 )(x − z̄1 ) 1 · · · (x − zs )(x − z̄s ) (6.15) ms m . = (x − µ1 )k1 · · · (x − µ` )k` · x2 + 2α1 x + (α12 + β12 ) 1 · · · x2 + 2αs x + (αs2 + βs2 ) (6.16) Nun sind wir bereit, um eine Basis von V zu konstruieren. Satz 6.4.10. Seien a0 , . . . , an−1 ∈ C, V der (komplexe) Vektorraum der komplexwertigen Lösungen von (6.13) auf R, P das charakteristische Polynom von (6.13), λ1 , . . . , λr seine Nullstellen und k1 , . . . , kr deren Vielfachheiten. Dann bilden die folgenden Funktionen eine Basis von V : • eλ1 t , teλ1 t , . . . , tk1 −1 eλ1 t , • eλ2 t , teλ2 t , . . . , tk2 −1 eλ2 t , . • .. • eλr t , teλr t , . . . , tkr −1 eλr t . Seien a0 , . . . , an−1 ∈ C, V der (reelle) Vektorraum der reellwertigen Lösungen von (6.13) auf R und P das charakteristische Polynom von (6.13). Ferner seien µ1 , . . . , µ` die reellen Nullstellen von P und k1 , . . . , k` deren Vielfachheiten; z1 , z̄1 , . . . , zs , z̄s die nichtreellen Nullstellen von P und m1 , . . . , ms deren Vielfachheiten (wobei zj = αj + iβj ). Dann bilden die folgenden Funktionen eine Basis von V : • eµ1 t , teµ1 t , . . . , tk1 −1 eµ1 t , . • .. • eµ` t , teµ` t , . . . , tkr −1 eµ` t , • eα1 t sin(β1 t), eα1 t cos(β1 t), . . . , tm1 −1 eα1 t sin(β1 t), tm1 −1 eα1 t cos(β1 t), Kapitel 6. Gewöhnliche Differentialgleichungen 139 . • .. • eαs t sin(βs t), eαs t cos(βs t), . . . , tms −1 eαs t sin(βs t), tms −1 eαs t cos(βs t). Beweis. Es ist nicht schwer zu sehen, dass die obigen Funktionen linear unabhängig sind: das Argument braucht aber eine interessante Tatsache aus der linearen Algebra, die keine direkte Verbindung mit dem Stoff der Vorlesung hat. Deswegen werden wir das Argument in Appendix B geben. Aus (6.14) folgt, dass k1 + . . . + ks = n (und aus (6.16) folgt k1 +. . .+k` +2m1 +. . .+2ms = n). Aber Lemma 6.4.4 zeigt, dass die Dimension von V höchstens n sein kann. D.h. es genügt zu zeigen, dass jede Funktion in der obigen Liste eine Lösung von (6.13) ist: Da ezj t + ez̄j t = 2eαj t cos(βj t) und ezj t − ez̄j t = 2eαj t sin(βj t) ist, haben wir nur die folgende Behauptung zu beweisen: tm eλt löst (6.13), wenn λ = λj eine Nullstelle von P ist und m ≤ kj − 1. (6.17) Wir skizzieren den Beweis von (6.17) mithilfe der sogenannten Operatorrechnung. Ein Operator ist eine Funktion von Funktionen. D.h., wenn A ein Operator und f eine Funktion ist, dann ist A(f ) (kurz Af ) auch eine Funktion. Um einen wohldefinierten Operator zu haben, müssen wir seinen Definitionsbereich angeben. In unserem Fall werden wir annehmen, dass der Definitionsbereich immer X := C ∞ (R; C) ist, d.h. der Vektorraum der beliebig oft differenzierbaren komplexwertigen Funktionen mit einer reellen Variablen. Die Ableitung ist dann ein Operator, den wir mit D bezeichnen. D.h. wenn f eine Differenzierbare Funktion ist, dann ist Df ihre Ableitung. Falls λ ∈ X = C ∞ (R; C) ist, dann bezeichnet der Operator λ die “Funktion” X 3 f 7→ λf ∈ X. Falls A und B zwei Operatoren sind, können wir damit weitere Operatoren definieren: (i) die Summe A + B ist ein Operator: f 7→ Af + Bf ; (ii) das Produkt A · B ist auch ein Operator: f 7→ A(B(f )) und (iii) die k-te Potenz von A ist wieder ein Operator: f 7→ A(A(A . . . A(f )) . . .) . {z } | k-mal Kapitel 6. Gewöhnliche Differentialgleichungen 140 Falls A = D ist, dann ist Dn f einfach die n-te Ableitung von f . Die Summe ist kommutativ (A + B = B + A) aber Vorsicht: das Produkt ist im Allgemeinen nicht kommutativ! Sei nun P (D) der Operator Dn + an−1 Dn−1 + . . . + a1 D + a0 . Dann ist f ∈ X eine Lösung von (6.13) genau dann, wenn P (D)f = 0. Zudem folgt aus der Faktorisierung (6.14), dass P (D) = (D − λ1 )k1 · . . . · (D − λr )kr . Es ist leicht zu sehen, dass für alle λ, µ ∈ C die folgende Vertauschungsregel gilt: (D − µ)(D − λ) = (D − λ)(D − µ). Sei nun f = tm eλj t wie in (6.17). Dann ist P (D)f = Q(D) (D − λj )kj f , (6.18) wobei Q(D) := (D − λ1 )k1 · · · (D − λj−1 )kj−1 · (D − λj+1 )kj+1 · · · (D − λr )kr . Wir zeigen nun, dass (D − µ)k g = 0, falls g(t) = tm eµt und m < k. (6.19) Aus (6.18) und (6.19) folgt nun (6.17), weil Q(D)0 = 0 (diese Identität gilt für jedes Polynom Q!). Es bleibt noch die Identität (6.19) zu zeigen. Diese Identität ist jedoch leicht zu beweisen, wenn wir k-mal die folgende allgemeine Regel anwenden: Sei Q ein Polynom vom Grad s und h(t) = Q(t)eµt . Dann ist [(D − µ)h] eine Funktion der Form R(t)eµt , wobei R ein Polynom vom Grad s − 1 ist. Um diese Regel zu beweisen, rechnen wir einfach (D − µ)(t` eµt ) = `t`−1 eµt + t` µeµt − µt` eµt = `t`−1 eµt , und nutzen die Linearität des Operators D. 7. Systeme von gewöhnlichen Differentialgleichungen Sei F : I ×Rn ×. . .×Rn → Rn (bzw. F : I ×Cn ×. . .×Cn ), wobei I ⊂ R ein Intervall ist. In diesem Kapitel betrachten wir nur solche Abbildungen F , die mindestens stetig sind. Eine Funktion y : I → Rn (bzw. y : I → Cn ), die k-mal differenzierbar ist, ist eine Lösung des Systems F (t, y, y 0 , ..., y (k) ) = 0 , (7.1) falls F (t, y(t), y 0 (t), ..., y (k) (t)) = 0 ∀t ∈ I. Wenn n = 1 ist, ist (7.1) eine gewöhnliche Differentialgleichung. Beispiel 7.0.1. Sei f : I → R stetig und F : I × R × R → R wie folgt definiert: F (t, x1 , x2 ) := x2 − f (t) . Eine Lösung y : I → R ist eine differenzierbare Funktion, so dass y 0 (t) − f (t) = 0 ∀ t ∈ I. D.h. y ist eine Stammfunktion von f . Wenn I = [a, b] ist, dann gilt: Z y(t) = t f (τ ) dτ + C, a wobei C ∈ R die Integrationskonstante ist. 141 Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 142 Beispiel 7.0.2. Seien f, g : I → R zwei stetige Funktionen und F (t, x1 , x2 ) = x2 − f (t)x1 − g(t). (7.1) ist dann gegeben durch y 0 (t) − f (t)y(t) − g(t) = 0, d.h. eine inhomogene lineare Differentialgleichung erster Ordnung. Die Formel, die alle Lösungen dieser Gleichung beschreibt, haben wir bereits im Kapitel 6 hergeleitet. 7.1. Lineare Systeme mit konstanten Koeffizienten Definition 7.1.1. Sei A : Rn → Rn (bzw. A : Cn → Cn ) eine lineare Funktion, d.h. ∃ M ∈ Rn×n (bzw. Cn×n ), so dass A(x) = M · x P ( A(x) = (A1 (x), . . . , An (x)) und Aj (x) = ni=1 Mji xi ). Das System y 0 (t) = A(y(t)) = M · y(t) heisst homogenes lineares System erster Ordnung mit konstanten Koeffizienten. Eine differenzierbare Funktion v : [a, b] → Rn (bzw. ist genau dann eine Lösung von v 0 = A(v) = M · v, wenn v 0 (t) = A(v(t)) = M · v(t) ∀ t ∈ [a, b]. Ausgeschrieben bedeutet dies: Pn v10 (t) = i=1 M1i vi (t) P n v 0 (t) = 2 i=1 M2i vi (t) . .. Pn 0 vn (t) = i=1 Mni vi (t) , wobei Mij die Einträge der Matrix M sind. Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 143 Beispiel 7.1.2. Für n = 1 haben wir A(x) = cx, d.h. M = (M11 ) = (c). Die Differentialgleichung lautet nun also v 0 = cv und wir wissen schon, dass jede Lösung (auf einem Intervall!) von der Form v(t) = Cect ist. Beispiel 7.1.3. Sei A : R2 → R2 mit A(x) = M · x gegeben durch M := ! 0 1 . −1 0 In diesem Fall haben wir ein System von zwei Differentialgleichungen: ( v10 = v2 v20 = −v1 . (7.2) Wenn v eine Lösung von (7.2) ist, dann ist v1 zweimal differenzierbar. Falls wir y := v1 setzen, dann ist y 00 = −y. Umgekehrt gilt, falls y zwei mal differenzierbar ist und y 00 = −y, dann ist (v1 , v2 ) := (y, y 0 ) eine Lösung von (7.2). Die zwei letzten Beispiele sind Spezialfälle des folgenden Lemmas: Lemma 7.1.4. Seien c0 , ..., ck−1 ∈ R und sei M ∈ Rk×k die folgende Matrix: ck−1 ck−2 . . . . . . c0 1 0 0 ... 0 0 1 0 . . . 0 M := . . .. .. .. .. . . . 0 ... ... 1 0 (7.3) Die Funktion y : I → R (bzw. C) löst die Gleichung y (k) = ck−1 y (k−1) + ck−2 y (k−2) + . . . + c1 y 0 + c0 y genau dann, wenn die vektorwertige Abbildung v := (y (k−1) , . . . , y 0 , y) das System Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 144 v 0 = M · v löst. Beweis. Trivial. Nun wollen wir eine allgemeine Formel für die Lösung des Systems v 0 = M · v herleiten. Dazu brauchen wir eine Art “Exponential der Matrix tM ”. Definition 7.1.5. Sei M ∈ Rn×n (bzw. Cn×n ) eine Matrix. Dann ist exp(M ) := ∞ X Mk k=0 k! = Id + ∞ X Mk k=1 k! , (7.4) wobei Id die identische Matrix bezeichnet. Hier nutzen wir die Konvention, dass M 0 = Id, auch wenn M = 0. Deswegen ist exp(0) = Id. Beispiel 7.1.6. Wenn λ1 . . . 0 . . . . . ... M := . 0 . . . λn eine Diagonalmatrix ist, dann ist exp (λ1 ) . . . 0 .. .. ... . exp(M ) = . . 0 . . . exp (λn ) Der folgende Satz ist der Hauptsatz dieses Kapitels: Satz 7.1.7. Für jede Matrix M ∈ Rn×n (bzw. ∈ Cn×n ) ist exp(M ) eine wohldefinierte Matrix, d.h. die Reihe in (7.4) konvergiert. Zudem ist die Abbildung t 7→ exp(tM ) analytisch und für jeden Vektor v0 ∈ Rn (bzw. C) ist die Funktion t 7→ [exp(tM )]·v0 eine Lösung des Systems v 0 = M · v auf ganz R. Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 145 Die Partialsumme von (7.4) ist einfach die Matrix SN := N X Mk k=0 k! . Wenn wir die entsprechenden Einträge mit (SN )ij bezeichnen, erhalten wir eine Folge {(SN )ij }N ∈N für jede Wahl von i, j ∈ {1, . . . , n}. Die Konvergenz von (7.4) bedeutet dann, dass jede solche Folge gegen eine reelle (bzw. komplexe) Zahl konvergiert. Deswegen ist exp(tM ) eine Matrix und [exp(tM )]ij sind die entsprechenden Einträge. Dass die Abbildung t 7→ [exp(tM )] analytisch ist, bedeutet, dass jede der reellwertigen Funktionen t 7→ [exp(tM )]ij analytisch ist. Um Satz 7.1.7 zu beweisen, brauchen wir einige Lemmata. Wir erinnern uns an die Definition der Hilbert-Schmidt-Norm sX sX bzw. (Mij )2 |Mij |2 wenn M ∈ Cn×n kM kHS := ij ij und der Operator-Norm kM kO := max v∈Rn ,|v|=1 |M · v| bzw. max v∈Cn ,|v|=1 |M · v| p (für v = (v1 , . . . , vn ) ∈ Cn setzen wir |v| = |v1 |2 + . . . + |vn |2 .) Die Operator-Norm ist die kleinste positive Zahl C ∈ [0, ∞[, so dass die Ungleichung kM · vk ≤ Ckvk für alle Vektoren v gilt. Lemma 7.1.8. Für jede Matrix M ∈ Rn×n (bzw. M ∈ Cn×n ) gilt: kM kO ≤ kM kHS ≤ kM k kO ≤ kM kkO √ nkM kO (7.5) ∀k ∈ N . (7.6) Beweis. Für die Ungleichung kM kO ≤ kM kHS siehe Satz 2.1.7. Nun sei für jedes Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 146 i ∈ {1, . . . , n} ei := (0, . . . 0, |{z} 1 , 0, . . . , 0) . i-te Stelle Dann ist X |Mij |2 = |M · ei |2 ≤ kM k2O |ei |2 = kM k2O j und somit kM k2HS = X |Mij |2 ≤ nkM k2O . i,j Wir beweisen nun (7.6) mittels vollständiger Induktion. Der Induktionsanfang ist kM 0 kO = kIdkO = 1 = kM k0O . Der Induktionsschritt ist einfach: ∀v ∈ Rn (bzw. ∈ Cn ) gilt: |M k · v| = |M · (M k−1 · v)| ≤ kM kO · |M k−1 · v| ≤ kM kO kM k−1 kO |v| . k−1 Wegen der Induktionsannahme, |M k−1 · v| ≤ kM kO |v|, ist |M k · v| ≤ kM kkO |v| . Da v ein beliebiger Vektor war, folgt kM k kO ≤ kM kkO . Lemma 7.1.9. P Sei {Ak } eine Folge von Matrizen, so dass die entsprechenden Reihen k Ak absolut P P konvergieren (d.h. k kAk kHS < ∞). Dann konvergiert auch die Reihe k Ak , d.h. auch die Reihen der Koeffizienten der Partialsummen konvergieren. Beweis. Der Raum der Matrizen Rn×n (bzw. Cn×n ) versehen mit der Norm k · kHS 2 2 ist der übliche Euklidische Raum Rn (bzw. Cn ). Deswegen gelten die Dreiecksungleichung und die Charakterisierung der Konvergenz durch die Cauchy-Eigenschaft. Es genügt also zu zeigen, dass N X SN := Ak k=0 Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 147 die Cauchy-Eigenschaft erfüllt. Seien nun N ≤ r < s ∈ N. Dann ist kSs − Sr kHS ≤ s X ∞ X kAk kHS ≤ k=r+1 kAk kHS . k=N +1 Die Cauchy-Eigenschaft folgt dann aus der Konvergenz von P∞ k=0 kAk kHS . Beweis des Satzes 7.1.7. Wohldefiniertheit: Aus (7.5) und (7.6) folgt kM k kHS ≤ √ nkM kkO . Deswegen ist ∞ X Mk k! HS k=0 ∞ √ X kM kkO √ kM kO = ne ≤ n < ∞, k! k=0 d.h. die Reihe in (7.4) konvergiert absolut. Lemma 7.1.9 impliziert nun, dass exp(M ) wohldefiniert ist. Analytizität: Wir betrachten die Funktion R 3 t 7→ E(t) := exp(tM ). Weiter seien Eij (t) die Einträge der Matrix E(t). Wenn (M k )ij die Einträge der Matrix M k bezeichnet, dann ist ∞ X (M k )ij k Eij (t) := t . (7.7) k! k=0 Die Wohldefiniertheit von exp(tM ) impliziert die Konvergenz der Reihe (7.7) für jedes t ∈ R. Aber dann ist die Funktion Eij analytisch. Ableitung: Die Ableitung einer Potenzreihe ist die Reihe der Ableitungen. Deshalb ist ∞ X (M k )ij k−1 0 k Eij (t) = t . (7.8) k! k=1 Nun schreiben wir die Identität (7.8) wie folgt um: 0 E (t) = ∞ X k=1 = M· ∞ M k k−1 X t = M· (k − 1)! k=1 ∞ X Mj j=0 j! tj = M E(t) . M k−1 k−1 t (k − 1)! ∞ X M k−1 k−1 =M· t (k − 1)! k=1 (7.9) Matrixwertige Funktionen werden als Vektorfunktionen behandelt: die Ableitung ist Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 148 einfach eine Matrixfunktion, deren Einträge die Ableitungen der Koeffizienten der ursprünglichen Funktion sind. Deswegen gilt die Leibniz-Regel auch für Produkte von Matrizen und Vektoren. Sei v0 ∈ Rn und v(t) := [exp(tM )] · v0 Dann folgt: 0 v (t) = d [exp(tM )] · v0 = (M · exp(tM )) · v0 = M · (exp(tM ) · v0 ) = M · v(t) . dt Korollar 7.1.10. Die Funktion t 7→ [exp(tM )] · v0 löst das Anfagswertproblem v 0 = M · v v(0) = v . (7.10) 0 Beweis. Satz 7.1.7 impliziert v 0 (t) = M · v(t). Zudem ist v(0) = [exp(0 · M )] · v0 = [exp 0] · v0 = Id · v0 = v0 . Als Konsequenz des Eindeutigkeitsatzes 7.3.5 werden wir späte sehen dass v(t) = exp (tM ) · v0 die einzige Lösung von (7.10) ist. Beispiel 7.1.11. Sei M ∈ R1×1 , d.h. M = c und wir setzen v := y, v0 := y0 , wobei y : I → R und y0 ∈ R. In diesem Fall ist (7.10) einfach v 0 = M · v v(0) = v ⇐⇒ 0 y 0 = cy y(0) = y . 0 (7.11) Ausserdem ist v(t) = exp tM · v0 ⇔ y(t) = ect y0 . Wir haben schon gesehen dass ect y0 die einzige Lösung von (7.11) ist. Beispiel 7.1.12. Sei n = 2 und A := Dann ist ! 0 1 . −1 0 v 0 = v 2 1 v 0 = −v . 1 2 Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 149 Wir bemerken, dass A0 = Id, A1 = A, 0 1 −1 0 A2 = A3 = A2 · A = −A, ! · 0 1 −1 0 ! ! −1 0 = −Id, 0 −1 = A4 = A3 · A = −A · A = Id. Deswegen ist ! ∞ ∞ ∞ X X 0 t tk k X t2i t2i+1 i exp (tA) = exp = A = (−1) Id + (−1)i A k! (2i)! (2i + 1)! −t 0 i=0 i=0 ! k=0 cos t sin t = . − sin t cos t Daraus folgt nun auch, ! v1 (t) = v(t) = exp (t · A) · v0 = v2 (t) ! cos t sin t · − sin t cos t c1 c2 ! = ! c1 cos t + c2 sin t c1 sin t + c2 cos t und somit ist v1 (t) = c1 cos t+c2 sin t. Wir haben wieder die Formel für die Lösungen der Differentialgleichung v100 = −v1 gefunden. 7.2. Das Theorem von Picard-Lindelöf Wir betrachen nun das Anfangswertproblem 0 γ (t) = F (t, γ(t)) (7.12) γ(t0 ) = x0 , d.h. ein System von gewöhnlichen Differentialgleichungen mit der zusätzlichen Bedingung, dass die Lösung einen bestimmten Wert zu einem bestimmten Zeitpunkt annimmt. Die Unbekannte ist die Abbildung γ : I → Rn , wobei I ein Intervall mit t0 ∈ I ist. Die Abbildung F : I × Rn → Rn heisst auch Vektorfeld. Beispiel 7.2.1. Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 150 Wenn F (t, x) = M · x mit M ∈ Rn×n ist, dann ist (7.12) ein homogenes lineares System mit konstanten Koeffizienten. Manchmal ist die Funktion F nur auf einer Teilmenge I × D ⊂ I × Rn definiert. Dann macht das System (7.12) nur dann Sinn, wenn der Wertebereich der Unbekannten γ in D enthalten ist. Das ist aber nur dann möglich, wenn x0 ∈ D. In diesem Kapitel werden wir sehen, dass die Lipschitz-Stetigkeit von F die Existenz einer Lösung von (7.12) garantiert. Dieser berühmte Satz heisst Satz von Picard-Lindelöf. Satz 7.2.2 (von Picard-Lindelöf (allgemeine Form)). Sei J ⊂ R ein Intervall und D ⊂ Rn eine offene Teilmenge. Sei weiter (t0 , x0 ) ∈ J × D und F : J × D → Rn eine Lipschitz-stetige Funktion. Dann ∃ α ∈ R mit α > 0, so dass das Anfangswertproblem ( x0 (t) = F (t, x(t)) x(t0 ) = x0 (7.13) auf [t0 − α, t0 + α] ∩ J eine eindeutige Lösung hat. Die Lösung des Satzes 7.2.2 ist eine “lokale” Lösung, weil ihr Definitionsbereich kleiner als der Definitionsbereich von F sein kann. Beispiel 7.2.3. Wir betrachten folgendes Anfangswertproblem: y 0 (t) = t y 2 (t) y(0) = y . 0 Falls y(0) 6= 0 ist, so hat die (einzige!) Lösung folgende Gestalt und den folgenden Definitionsbereich: r r 2 2 , →R y: − y0 y0 mit y(t) = 1 y0 1 − t2 2 . Es gibt also keine Lösung auf ganz R. Die Funktion F ist nicht Lipschitz-stetig. Aber wenn wir F auf D := B1 (y0 ) einschränken, dann ist diese Einschränkung Lipschitz-stetig. Satz 7.2.2 garantiert dann die Existenz einer Lösung auf einem Interval [−α, α]. Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 151 Wenn die Abbildung F auf dem ganzen Bereich J × Rn definiert und Lipschitzstetig ist, dann gibt es eine “globale” Lösung, wie das folgende Korollar zeigt: Korollar 7.2.4 (Picard-Lindelöf (globale Lösung)). Seien D, J, t0 und F wie in Satz 7.2.2. Falls D = Rn ist, dann gibt es eine eindeutige Lösung von (7.13) auf dem ganzen Intervall J. Dieses Korollar werden wir später beweisen, nachdem wir die Eindeutigkeit der Lösungen untersucht haben. In diesem Kapitel beweisen wir Satz 7.2.2, aber dazu brauchen wir einige Definitionen und Lemmata. Wir erinnern uns an die Definitionen eines metrischen Raums, einer konvergenten Folge und einer Cauchy-Folge. Definition 7.2.5. Sei X eine Menge und d : X × X → [0, ∞[ mit 1. d(x, y) ≥ 0 und d(x, y) = 0 ⇔ x = y 2. d(x, y) = d(y, x) 3. d(x, z) ≤ d(x, y) + d(y, z). Dann heisst die Abbildung d Metrik und das Paar (X, d) metrischer Raum. Beispiel 7.2.6 (Metrik auf dem Raum der stetigen Funktionen). Sei K ⊂ Rn eine kompakte Menge und C(K, Rm ) die Menge der stetigen Funktionen f : K → Rm . Wir definieren auf diesem Raum eine Norm durch kf kC(K) := max|f (t)|. t∈K Desweiteren definieren wir mithilfe dieser Norm die Metrik d(f, g) := kf − gkC(K) . Dann ist (C(K, Rm ), d) ein metrischer Raum. Definition 7.2.7. Sei (X, d) ein metrischer Raum und {gn }n∈N ⊂ X eine Folge. Dann definieren wir folgende Begriffe: Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 152 • {gk }k∈N heisst Cauchy-Folge genau dann, wenn ∀ ε > 0, ∃ N ∈ N, so dass d(gn , gm ) < ε ∀ n, m ≥ N . • {gk }k∈N konvergiert gegen g genau dann, wenn limk→∞ d(gk , g) = 0. • A ⊂ X ist abgeschlossen genau dann, wenn der Limes jeder konvergenten Folge {gn }n∈N ⊂ A zu A gehört. Zur Erinnerung: eine konvergente Folge ist immer eine Cauchy-Folge, aber die Umkehrung dieser Aussage ist im Allgemeinen falsch. Definition 7.2.8. Ein metrischer Raum heisst vollständig, falls jede Cauchy-Folge konvergiert. Bemerkung 7.2.9. Zur Erinnerung: jede abgeschlossene Teilmenge eines vollständigen metrischen Raumes ist selbst wieder ein vollständiger metrischer Raum. Lemma 7.2.10. Wenn K ⊂ Rn eine kompakte Menge ist, dann ist C(K, Rm ) ein vollständiger metrischer Raum. Beweis. Sei {gk } ⊂ C(K, Rm ) eine Cauchy-Folge und x ∈ K. Betrachte |gk (x) − gj (x)| ≤ max|gk (y) − gj (y)| = kgk − gj kC(K) . y∈K Deswegen ist {gk (x)}k eine Cauchy-Folge in Rm . Die Vollständigkeit des Euklidischen Raumes impliziert die Existenz des Limes Rm 3 g(x) := lim gk (x) . k→∞ Wir behaupten nun, dass {gk } gleichmässig gegen g konvergiert: Sei ε > 0 gegeben. Die Cauchy-Eigenschaft impliziert die Existenz einer Zahl N ∈ N, so dass kgk − gj kC(K) < ε 2 ∀k, j ≥ N . (7.14) Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 153 Sei nun x ∈ K und k ≥ N . Dann ist (7.14) |g(x) − gk (x)| = lim |gj (x) − gk (x)| ≤ lim sup kgj − gk kC(K) ≤ j→∞ j→∞ ε , 2 und somit ist sup |g(x) − gk (x)| < ε ∀k ≥ N . x∈K Dies beweist die gleichmässige Konvergenz der Folge {gk }. In der Vorlesung Analysis I haben wir gesehen, dass der Limes einer gleichmässigen konvergenten Folge stetiger Funktionen wieder stetig ist. Deswegen g ∈ C(K, Rm ) und der Satz ist damit bewiesen. Um Satz 7.2.2 zu beweisen, brauchen wir noch einen wichtigen Satz, den wir schon bewiesen haben, siehe Satz 5.6.4. Satz 7.2.11 (Banachscher Fixpunktsatz). Sei (X, d) ein vollständiger metrischer Raum und c : X → X eine Kontraktion, d.h. es gibt eine Konstante α ∈ [0, 1[, so dass d(c(x), c(y)) ≤ α d(x, y) ∀ x, y ∈ X. Dann gilt: c besitzt einen eindeutigen Fixpunkt, d.h. eine eindeutige Stelle x ∈ X, die die Gleichung c(x) = x löst. Beweis von Satz 7.2.2. 1. Voraussetzungen: • ∃ a, b > 0, so dass R := ([t0 −a, t0 +a]∩J)×B b (x0 ) ⊂ J ×D kompakt ist. Die Aussage ist klar, wenn t0 im Inneren von J liegt. Sonst haben wir J = [t0 , d[ oder J =]c, t0 ], aber auch in diesem Fall ist die Aussage einfach zu beweisen. • F Lipschitz ⇒ ∃ L > 0, so dass |F (t, x) − F (t, y)| < L |x − y| ∀ (t, x), (t, y) ∈ R • R kompakt und F stetig ⇒ ∃ M > 0, so dass |F (t, x)| ≤ M R. 2. Definitionen: 1 • α := min{a, Mb , 2L } ∀ (t, x) ∈ Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 154 • I := [t0 − α, t0 + α] ∩ J; • X := C(I, B b (x0 )) ist die Menge der stetigen Funktionen mit Definitionsbereich I und mit Wertebereich in B b (x0 ); • Wir definieren die Abbildung T : X → X wie folgt: Z t F (τ, y(τ ))dτ T (y)(t) := x0 + ∀ y ∈ X, ∀t ∈ I . t0 Wir behaupten: (a) X ist eine abgeschlossene Teilmenge von C(I, Rn ); (b) T : X → X ist eine Kontraktion. Diese zwei Tatsachen und der Banachsche Fixpunktssatz implizieren die Existenz eines Fixpunktes x von T . D.h. x : I → B b (x0 ) ⊂ D ist eine stetige Funktion, so dass Z t x(t) = x0 + F (τ, x(τ )) dτ ∀t ∈ I . (7.15) t0 Da τ 7→ F (τ, x(τ )) eine stetige Funktion ist, folgt dass x eine C 1 -Funktion ist. Wenn wir die Gleichung (7.15) ableiten, erhalten wir x0 (t) = F (t, x(t)) ∀t ∈ I, und dies beweist, dass x eine Lösung des Anfangswertproblems (7.13) ist. Beweis von (a). Sei {gk } eine Folge von Funktionen in X = C(I, B b (x0 )) und g eine stetige Funktion mit kgk − gkC(K) → 0. Ferner sei t ∈ I. Da gk (t) → g(t) und B b (x0 ) abgeschlossen ist, ist g(t) ∈ B b (x0 ) und somit ist g ∈ X. Beweis von (b). Zuerst zeigen wir die Wohldefiniertheit der Abbildung T . Sei y ∈ X. Dann ist t 7→ T (y)(t) eine stetige Funktion. Ausserdem gilt: Z t |T (y)(t) − x0 | = F (τ, x(τ )) dτ ≤ |t − t0 |M ≤ αM ≤ b . t0 D.h. die Werte der Abbildung T (y) sind in B b (x0 ) enthalten. Also ist T (y) ∈ X. Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 155 T ist eine Kontraktion, denn: ∀ y, z ∈ X, ∀ t ∈ I gilt: Z t |T (y)(t) − T (z)(t)| = F (τ, y(τ )) − F (τ, z(τ ))dτ t0 ≤ α max |F (τ, y(τ )) − F (τ, z(τ ))| τ ∈I = α L max |y(τ ) − z(τ )| Lipschitz τ ∈I 1 ≤ ky − zkC(I) . Def. von α 2 Wir schliessen, dass kT (y) − T (z)kC(I) ≤ 21 ky − zkC(I) . Bemerkung 7.2.12. Der Beweis von Satz 7.2.2 liefert auch gleich eine konkrete Methode, um die Lösung per Algorithmus zu approximieren. Jedoch muss dabei bei jedem Schritt integriert werden. Wir setzen y0 = x0 und ym+1 := T (ym ), d.h. Z t ym+1 (t) := x0 + F (τ, ym (τ )) dτ. t0 Dann konvergiert ym → x gleichmässig auf [t0 − α, t0 + α] ∩ J, wobei x die gesuchte Lösung ist. 7.3. Eindeutigkeit und stetige Abhängigkeit Wir erinnern uns an das folgende Lemma, das wir schon im Kapitel 6 bewiesen haben. Lemma 7.3.1. (von Gronwall) Sei f : [a, b[ → [0, +∞[ differenzierbar und c ≥ 0 eine Konstante, so dass f 0 (t) ≤ cf (t) ∀ t ∈ [a, b[, c > 0 . (7.16) f (t) ≤ f (a) exp(c(t − a)) ∀t ∈ [a, b[ . (7.17) Dann gilt: Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 156 Definition 7.3.2. Sei F eine Lipschitz-stetige Funktion. Dann definieren wir die Lipschitz-Konstante wie folgt: Lip(F ) := min {M ≥ 0 : |F (a) − F (b)| ≤ M |a − b|, ∀ a, b} . Beispiel 7.3.3. Wir betrachten die Abbildung F : [−1, 1] → R mit F (x) := |x|. Dann ist |F (x) − F (y)| ≤ |x − y|. Aber ∀ ε > 0, ∃ x, y : |F (x) − F (y)| ≥ (1 − ε)|x − y|. Deshalb ist Lip(F ) = 1. Satz 7.3.4. Sei F : [a, b] × D → Rn Lipschitz-stetig und seien g und f zwei Lösungen von y 0 = F (t, y) auf [a, b]. Dann ist |g(t) − f (t)| ≤ |g(τ ) − f (τ )| exp(Lip(F )|t − τ |) ∀ t, τ ∈ [a, b] . (7.18) Dieser Satz impliziert die Eindeutigkeit der Lösung von (7.13): Korollar 7.3.5. Sei F Lipschitz-stetig und seien y, x zwei Lösungen von (7.13). Dann ist x ≡ y. Beweis. Aus (7.18) folgt, |f (t) − g(t)| ≤ |f (t0 ) − g(t0 )| exp(Lip(F )|t − t0 ) = 0. Nun sind wir bereit, um auch Korollar 7.2.4 zu beweisen. Beweis. [Beweis von Korollar 7.2.4] Wir betrachten die Menge L der Paare (K, y), so dass • t0 ∈ K ⊂ J und K ein Intervall ist; • y : K → Rn (7.13) löst. Aus Satz 7.2.2 folgt, dass L 6= ∅. Seien nun (K1 , y 1 ), (K 2 , y 2 ) ∈ L. Auf der Menge K1 ∩ K2 haben wir y1 = y2 wegen Korollar 7.3.5. Nun können wir auf dem Intervall K1 ∪ K2 eine Funktion y wie folgt definieren: y = y1 auf K1 und y = y2 auf K2 . y Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 157 ist differenzierbar und löst (7.13) auf K1 ∪ K2 . Wir können deshalb eine maximale Lösung auf dem Intervall [ K := L (L,y)∈L definieren. Wir wollen nun zeigen, dass K = J ist. Nun haben wir folgende Möglichkeiten: (i) das rechte Extremum b von K gehört nicht zu K, aber zu J; (ii) das rechte Extremum b von K gehört zu K, aber ∃τ > b mit τ ∈ J; (iii) das linke Extremum a von K gehört nicht zu K, aber zu J; (iv) das linke Extremum a von K gehört zu K, aber ∃τ < a mit τ ∈ J. Wir untersuchen nur die Fälle (i) und (ii). (i) kann nicht sein: Wegen Satz 7.2.2 wissen, wir dass eine lokale Lösung x von x0 (t) = F (t, x(t)) auf [b − α, b + α] existiert mit x(b) = y(b). Aber dann ist, wegen Korollar 7.3.5, x = y auf [b − α, b] ∩ K. Somit finden wir eine Lösung von (7.13) auf K ∪ [b − α, b + α], aber das ist ein Widerspruch zur Maximalität von K. Für den Fall (ii) bemerken wir, dass die Funktion y Lipschitz-stetig ist. Zuerst beweisen wir dass y beschränkt ist. Wir definieren B(t) = |y(t)|2 und wir rechnen B 0 (t) = 2hy(t), y 0 (t)i = 2hγ(t), F (t, y(t))i = 2hγ(t), F (t, γ(t)) − F (t, 0)i + 2hγ(t), F (t, 0i ≤ 2|γ(t)||F (t, γ(t)) − F (t, 0)| + 2|γ(t)||F (t, 0)| ≤ 2L|γ(t)|2 + 2M |γ(t)| , wobei L = Lip (F ) und M = max{|F (t, 0)| : t ∈ [b0 , b]}. Deshalb B 0 (t) ≤ 2LB(t) + |γ(t)|2 + M 2 ≤ (2L + 1)B(t) + M 2 ≤ (2L + 1)(B(t) + M 2 ) . Sein nun A(t) := B(t) + M 2 . Dann A0 (t) = B 0 (t) ≤ (2L + 1)A(t) und deshalb 0 A(t) ≤ A(b0 )e(2L+1)(t−b ) für alle t ∈ [b0 , b[. Wir schliessen dass 0 |y(t)|2 ≤ (|y(b0 )|2 + M 2 )e(2L+1)(b −b) ∀t ∈ [b0 , b[ . Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 158 Aus der Beschränktheit von y folgt (durch die Formel y 0 (t) = F (y(t), t)) die beschränktheit von y 0 . Deshalb, wenn wir S := sup{|y 0 (t)| : t ∈ [b0 , b[} , dann haben wir S < ∞ und |y(s) − y(t)| ≤ S|s − t| ∀s, t ∈ [b0 , b[ . Die Abbildung y ist dann gleichmässig stetig auf dem Intervall [b0 , b[. Also gibt es eine stetige Fortsetzung ỹ von y auf K ∪ {b}. Wir behaupten nun, dass ỹ auch in b differenzierbar ist und dort ỹ 0 (b) = F (t, ỹ(b)) gilt. Sei nun i ∈ {1, . . . , n}. Der Satz von Lagrange (Mittelwertsatz) impliziert: ∀t ∈ K gibt es eine Stelle ξ ∈]t, b[, so dass ỹi (b) − ỹi (t) = ỹi0 (ξ)(b − t) = Fi (ξ, y(ξ))(b − t) (wobei ỹ(s) = (ỹ1 (s), . . . , ỹn (s)) und F (t, x) = (F1 (t, x), . . . , Fn (t, x)). Wenn nun t → b, dann konvergiert ξ → b und damit auch Fi (ξ, y(ξ)) → Fi (b, ỹ(b)). Dies beweist, dass ỹ differenzierbar ist und (7.13) löst. Aber auch dies ist ein Widerspruch zur Maximalität von K. Beweis von Satz 7.3.4. Falls t ≥ τ ist, setzen wir α(s) := |f (τ + s) − g(τ + s)|2 und sonst α(s) := |f (τ − s) − g(τ − s)|2 . Das Argument ist das gleiche wie im vorherigen Beweis, daher nehmen wir an, dass t ≥ τ = 0. Dann ist α0 (t) = 2[f (t) − g(t)][f 0 (t) − g 0 (t)] = 2[f (t) − g(t)][F (t, f (t))) − F (t, g(t)] ≤ 2|f (t) − g(t)||F (t, f (t)) − F (t, g(t))| F Lipschitz ≤ 2|f (t) − g(t)|Lip(F )|f (t) − g(t)| = 2Lip(F )α(t) . Aus dem Lemma von Gronwall folgt, α(t) ≤ α(0) exp(2Lip(F )t) . Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 159 Da α eine nicht-negative Funktion ist, folgt |g(t) − f (t)| = p α(t) ≤ p α(0) exp(Lip(F )t) = |g(0) − f (0)| exp(Lip(F )t) . 7.4. Fluss eines Vektorfeldes Definition 7.4.1. Sei F : [a, b] × Rn → Rn Lipschitz-stetig und 0 ∈ [a, b]. Der Fluss von F ist dann die Abbildung Φ : [a, b] × Rn → Rn mit Φ(t, x0 ) = y(t), wobei y die eindeutige Lösung von (7.13) mit t0 = 0 ist. Korollar 7.4.2. Φ ist stetig. Falls F beschränkt ist, dann ist Φ sogar Lipschitz-stetig. Beweis. Seien {tk } und {xk } zwei Folgen mit tk → t and xk → x. O.B.d.A. nehmen wir an, dass tk ≥ t ist. Dann ist |Φ(tk , xk ) − Φ(t, x)| ≤ |Φ(tk , xk ) − Φ(tk , x)| + |Φ(tk , x) − Φ(t, x)| Z tk ≤ |x − xk | exp(Lip(F )(tk − t)) + |F (τ, Φ(τ, x))| dτ . t Da die Abbildung [a, b] 3 τ 7→ |F (t, Φ(τ, x))| stetig ist, besitzt sie ein endliches Maximum. Daraus folgt, dass |Φ(tk , xk ) − Φ(t, x)| ≤ C(|x − xk | + |t − tk |), wobei die Konstante C unabhängig von k ist. Wenn F beschränkt ist, so kann man die Konstante C auch unabhängig von (x, t) wählen und dies beweist die LipschitzStetigkeit. Bemerkung 7.4.3. Ohne die Beschränktheit von F ist Φ nur lokal Lipschitz-stetig, d.h. Φ|K ist Lipschitzstetig für jede kompakte Menge K ⊂ [a, b] × Rn . Korollar 7.4.4. Die Abbildung Φ(t, ·) : Rn → Rn ist umkehrbar ∀ t ∈ [a, b]. Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 160 Beweis. Sei t ∈ R und Φ−1 (t, y0 ) := f (0), wobei f die eindeutige Lösung von f 0 (τ ) = F (τ, f (τ )) f (t) = y ∀ τ ∈ [a, t] 0 ist. Zudem löst die Funktion f auch das Anfangswertproblem f 0 (τ ) = F (τ, f (τ )) ∀ τ ∈ [a, t] f (0) = Φ−1 (t, y ) . 0 Aber dieses Anfangswertproblem wird auch von τ 7→ Φ(τ, Φ−1 (t, y0 )) gelöst. Mit Korollar 7.3.5 folgt, dass f (τ ) = Φ(τ, Φ−1 (t, y0 )). Wenn wir τ := t setzen, so ist y0 = f (t) = Φ(t, Φ−1 (t, y0 )). Analog zeigt man, dass Φ−1 (t, Φ(t, y0 )) = y0 ist. Zudem zeigt das letzte Argument auch die Stetigkeit von Φ−1 (t, ·). Korollar 7.4.5. Φ−1 (t, ·) ist stetig. Zur Erinnerung: Definition 7.4.6. Sei Ω ⊂ Rn eine Menge. Ein Homöomorphismus von Ω ist eine stetige Abbildung ψ : Ω → Ω mit stetiger Umkehrung. Falls die Funktion ψ und ihre Umkehrung C 1 -Funktionen sind, dann nennen wir ψ einen Diffeomorphismus. Also ist Φ(t, ·) ein Homöomorphismus von Rn . 7.5. Differenzierbare Abhängigkeit Satz 7.5.1. Sei F : [a, b] × Rn → Rn Lipschitz-stetig und differenzierbar mit stetigen partiellen Ableitungen und sei 0 ∈ [a, b]. Dann ist der Fluss Φ von F differenzierbar mit stetigen Ableitungen. Wir halten fest, dass der obige Satz auch das folgende Korollar liefert: Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 161 Korollar 7.5.2. Sei F wie in Satz 7.5.1. Dann ist die Umkehrfunktion von Φ(t, ·) auch eine C 1 Abbildung. D.h. Φ(t, ·) ist ein Diffeomorphismus von Rn . Satz 7.5.1 ist ein Korollar des folgenden Satzes: Satz 7.5.3. Seien F und Φ wie oben. Dann existieren die partiellen Ableitungen von Φ und sind stetig. Um Satz 7.5.3 zu beweisen, brauchen wir das Theorem von Arzelá-Ascoli. Zuerst führen wir aber die dafür notwendigen Begriffe ein. Definition 7.5.4. Sei {fk } eine Folge von Funktionen fk : Ω → Rn . Dann sagen wir, dass 1. {fk } gleichmässig beschränkt ist, wenn ∃ c ≥ 0, so dass |fk (x)| ≤ c ∀ x ∈ Ω und ∀ k ∈ N. 2. {fk } gleichgradig stetig ist, wenn ∀ ε > 0, ∃ δ > 0, so dass |fk (x) − fk (y)| < ε ∀ k ∈ N und ∀ x, y mit |x − y| < δ. Theorem 7.5.5. (Arzelá-Ascoli) Sei {fk } eine Folge von Funktionen mit fk : [a, b] → Rn , die gleichmässig beschränkt und gleichgradig stetig ist. Dann ∃ f : [a, b] → Rn stetig und eine Teilfolge {fkj } ⊂ {fk }, so dass limj→∞ kfkj − f kC([a,b]) = 0. Beweis. Das Ziel ist, eine Cauchy-Teilfolge zu finden , d.h. {fkj } ⊂ {fk }, so dass ∀ ε > 0, ∃ N ∈ N mit kfkj − fki kC([a,b]) < ε ∀ kj , ki > N . (7.19) Sei {q` }`∈N =: A ⊂ [a, b] dicht und abzählbar (begründen Sie die Existenz einer solchen Menge). Dann ist {fk (q` )} eine beschränkte Folge im Rn . Das CantorDiagonalargument (siehe Lemma A.0.1) garantiert die Existenz einer Teilfolge, so dass {fkj (qi )} ∀ qi ∈ A (7.20) Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 162 konvergiert. Statt fkj schreiben wir der Einfachheit halber nur noch fk . Wir behaupten nun, dass diese neue Folge eine Cauchy-Folge ist. Dazu: 1. Sei ε > 0 gegeben. Dann ∃ δ > 0, so dass |fk (x) − fk (y)| < |x − y| < δ. ε 3 ∀k und ∀ x, y mit 2. Wegen der Dichtheit von A und der Kompaktheit von [a, b], ∃ A := {a1 , ..., aM } ⊂ A, so dass ∀ x ∈ [a, b], ∃ qi ∈ A mit |x − qi | < 2δ . 3. Da A endlich ist, ∃N , so dass |fk (qi ) − fh (qi )| < ε 3 ∀ k, h > N und ∀ qi ∈ A. Sei nun x ∈ [a, b] gegeben. Wir wählen ein qi ∈ A mit |x − qi | ≤ 2δ . Für h, k > N gilt dann: |fk (x) − fh (x)| = |(fk (x0 ) − fk (qi )) + (fk (qi ) − fh (qi )) + (fh (qi ) − fh (x0 ))| ≤ |fk (x0 ) − fk (qi )| + |fk (qi ) − fh (qi )| + |fh (qi ) − fh (x0 )| < ε . | {z } | {z } | {z } < 3ε folgt aus (1) < 3ε folgt aus (3) < 3ε folgt aus (1) Daher schliessen wir, dass kfk − fh kC([a,b]) < ε ∀h, k > N , d.h. (7.19) ist gezeigt. Bemerkung 7.5.6. Es gibt viele Verallgemeinerungen dieses Theorems. Wichtig ist, dass das Theorem auch gilt, wenn fk : K → Rn und K ⊂ Rm kompakt ist. Wir kommen nun zum Beweis von Satz 7.5.3. mit h 6= 0, x ∈ Beweis von Satz 7.5.3. Sei e ∈ Rn und sei dh,x (t) := Φ(t,x+he)−Φ(t,x) h Rn . Wir teilen den Beweis des Satzes in zwei Behauptungen auf: Behauptung 1: ∀ t, x existiert der Limes limh→0 dh,x (t), t ∈ [a, b]. Behauptung 2: limh→0 dh,x (t) = ∂Φ (t, x) ∂e ist stetig in x und t. (a) Folgerung aus Gronwalls Lemma: |dh,x (t)| ≤ |e| exp(Lip(F )(t)). Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 163 Dabei ist {dh,x }h6=0 gleichmässig beschränkt, weil kdh,x kC(I) = maxt∈I |dh,x (t)| ≤ |e| exp(Lip(F )(b − a)) . {z } | unabhängig von h (b) Es ist |F (t, Φ(t, x + he)) − F (t, Φ(t, x))| h |Φ(t, x + he)) − Φ(t, x))| = Lip(F )|dh,x (t)| ≤ Lip(F ) h ≤ Lip(F )|e| exp(Lip(Φ)(b − a)) . |d0h,x (t)| = (7.21) Zur Erinnerung: Die gleichmässige Stetigkeit bedeutet: ∀ ε > 0, ∃ δ > 0 : |τ − σ| < δ ⇒ |dh,x (τ ) − dh,x (σ)| < ε. (7.22) Nun ist |dh,x (τ ) − dh,x (σ)| ≤ max |d0h,x (t)| t∈[σ,τ ] |τ − σ| ≤ {Lip(F )|e| exp(Lip(F )(b − a))}|τ − σ|. Deshalb gilt (7.21) =⇒ (7.22) für δ := ε . Lip(F )|e| exp(Lip(F )(b−a)) Aus dem Satz von Arzelà-Ascoli folgt: ∀ {hk } mit hk → 0 existiert eine Teilfolge ˜ C(I) −→ 0. Wir {hkj } und eine stetige Funktion d˜ : I → Rn , so dass kdhkj ,x − dk brauchen aber die Konvergenz der ganzen Folge {dhk ,x }. Dies erreichen wir jedoch mit der folgenden Behauptung: Behauptung 1bis : d˜ ist eindeutig, d.h. d˜ hängt nicht von den Folgen {hk } und {hkj } ab. Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 164 Damit ist dann die Behauptung 1 bewiesen. Das Vorgehen für den Beweis von Behauptung 1bis ist, eine gewöhnliche DGL für d˜ zu finden. Wir schreiben F (t, Φ(t, x + he)) − F (t, Φ(t, x)) h Φ(t, x + he) − Φ(t, x) + Fehlerh (t), = dy F (t, Φ(t, x)) | {z } h d0h,x (t) = (7.23) =:y wobei lim max |Fehlerh (t)| = 0 . h↓0 (7.24) t Die Abschätzung (7.24) folgt aus der Taylorentwicklung. Sei z := Φ(t, x + he) und y := Φ(h, x). Dann ist F (t, z) − F (t, y) = dF (t, y)(z − y) + hFehlerh (t) . Wir benutzen nun die Fehlerabschätzung von Lagrange: |h||Fehlerh (t)| ≤ |z − y| max kdF (t, w) − dF (t, y)k . w∈[y,z] Deswegen ist |Φ(t, x + he) − Φ(t, x)| max kdF (t, Φ(t, x + he)) − dF (t, Φ(t, x))k t∈I |h| ≤ CLip(Φ) max kdF (t, Φ(t, x + he)) − dF (t, Φ(t, x))k . Fehlerh (t) ≤ t∈I Wegen der Stetigkeit von dF und Φ haben wir aber lim max kdF (t, Φ(t, x + he)) − dF (t, Φ(t, x))k = 0 . h↓0 t∈I Wir integrieren (7.23) zwischen 0 und τ ∈ [a, b] und erhalten: Z dh,x (τ ) − dh,x (0) = 0 τ d0h,x (t)dt Z = τ Z dy F (t, Φ(t, x))dh,x (t)dt + 0 τ Fehlerh (t) dt . 0 (7.25) Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen Aus (7.24) folgt Z τ lim h↓0 165 Fehlerh (τ ) dτ = 0 . 0 Sei nun {hk } eine Folge mit hk → 0, {hkj } eine konvergente Teilfolge (deren Existenz vom obigen Argument garantiert ist) und d˜ : I → Rn die Abbildung, so dass kdhkj − ˜ C(I) −→ 0. Wir bemerken zudem, dass dk dh,x (0) = (x + he) − x Φ(0, x + he) − Φ(0, x) = = e. h h ˜ erhalten wir Zusammen mit der gleichmässigen Konvergenz von dh,x (t) gegen d(t) ˜ ) − d(0) ˜ = d(τ Z 0 | τ ˜ dy F (t, Φ(t, x))d(t)dt . {z } (7.26) stetig (7.26) ist der Limes von (7.25). Das hat zur Folge, dass d˜ differenzierbar ist und d˜0 (t) = d F (t, Φ(t, x))d(t), ˜ y d(0) ˜ = e. (7.27) ˜ das AnfangswertDa x fixiert ist, setzen wir a(t) := dFy (t, Φ(t, x)). Dann löst d(t) problem ( z 0 (t) = a(t) · z(t), z(0) = e. Da die Lösung eindeutig ist (siehe Korollar 7.3.5), folgt dass d˜ nicht von den Folgen {hk } und {hkj } abhängt, d.h. Behauptung 1bis ist gezeigt. Wir wollen nun die Behauptung 2, d.h. die Stetigkeit von ∂Φ zeigen. Wir fixieren ∂e ∂Φ ∂Φ t und x. Um die Stetigkeit zu zeigen, müssen wir | ∂e (t, x) − ∂e (τ, y)| abschätzen, ˜ = ∂Φ (σ, x). Aus (7.27) folgt nun: wobei (τ, y) ein anderer Punkt ist. Sei d(σ) ∂e d̃0 (σ) = dy F (σ, Φ(σ, x)) | {z } ˜ d(σ) |{z} stetig⇒beschränkt stetig⇒beschränkt ⇒ d̃0 (σ)beschränkt . Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 166 Damit gilt: Z t ∂Φ ∂Φ = d̃0 (σ)dσ ≤ C|t − τ | , (t, x) − (τ, x) ∂e ∂e τ (7.28) und weiter ∂Φ ∂Φ ∂Φ ∂Φ ∂Φ ∂Φ (t, x) − ≤ (t, x) − + (τ, x) − (τ, y) (τ, x) (τ, y) ∂e ∂e ∂e ∂e ∂e ∂e (7.28) ∂Φ ∂Φ ≤ C 0 |t − τ | + (τ, x) − (τ, y) . (7.29) ∂e ∂e ¯ ˜ ) − d(τ ¯ )|2 abschätzen. Dafür Wir setzen d(σ) := ∂Φ (σ, y) und wollen α(τ ) := |d(τ ∂e ¯ nutzen wir (7.27) und die entsprechende Differentialgleichung für d: d̄0 (σ) = d F (σ, Φ(σ, y))d(σ), ¯ y d(0) ¯ = e. O.B.d.A. sei τ ≥ 0. Dann gilt: ˜ − d(σ))(d ¯ ˜ − dy F (σ, Φ(σ, y))d(σ) ¯ 2(d(σ) F (σ, Φ(σ, x))d(σ) ny ˜ − d(σ)) ¯ ˜ = 2(d(σ) [dy F (σ, Φ(σ, x)) − dy F (σ, Φ(σ, y))] d(σ) o ˜ − d(σ)] ¯ +dy F (σ, Φ(σ, y))[d(σ) n ˜ − d(σ)| ¯ ˜ ≤ 2|d(σ) kdy F (σ, Φ(σ, x)) − dy F (σ, Φ(σ, y))k|d(σ)| o ˜ − d(σ)| ¯ +kdy F (σ, Φ(σ, y))k|d(σ) (7.30) α0 (σ) = ˜ − d(σ)| ¯ 2 ≤ 2kdy F (σ, Φ(σ, y)k|d(σ) ˜ − d(σ)|kd ¯ ˜ +2|d(σ) y F (σ, Φ(σ, x)) − dy F (σ, Φ(σ, y))k|d(σ)| . (7.31) O.B.d.A. nehmen wir an, dass |y − x| = ε ≤ 1. Dann haben wir max 2kdy F (σ, Φ(σ, y))k =: C1 < ∞ . σ,y Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 167 Wir haben aber auch ˜ max |d(σ)| =: C2 < ∞ σ,y (dies ist eine Konsequenz des Lemmas von Gronwall) und setzen M (ε)2 := max max kdy F (σ, Φ(σ, x)) − dy F (σ, Φ(σ, y))k . |y−x|≤ε σ Deswegen ist 2 ˜ 2 ˜ − d(σ)|kd ¯ ˜ ¯ 2 2|d(σ) y F (σ, Φ(σ, x)) − dy F (σ, Φ(σ, y))k|d(σ)| ≤ C2 |d(σ) − d(σ)| + M (ε) . Nun setzen wir C := 2C1 + C22 . Wenn wir diese Abschätzungen in (7.31) nutzen, 2 dann folgt α0 (σ) ≤ Cα(σ) + M (ε)2 . Sei nun β(σ) := α(σ) + M C(ε) . Dann erhalten wir β 0 (σ) = α0 (σ) ≤ Cβ(σ), β(0) = M (ε)2 . C Aus dem Lemma von Gronwall folgt β(σ) ≤ β(0) exp(Cσ) für σ ≥ 0. Eine ähnliche Abschätzung ergibt β(σ) ≤ β(0) exp(C|σ|) für alle σ ∈ [a, b]. Daher ist 2 2 2 ∂Φ (σ, x) − ∂Φ (σ, y) = α(σ) ≤ M (ε) exp(C|σ|) ≤ M (ε) exp(C(b − a)) . ∂e ∂e C C Zusammenfassend gilt nun also: Für (t, x) und (τ, y) mit |y − x| ≤ ε haben wir ∂Φ (t, x) − ∂Φ (τ, y) ≤ C|t − τ | + CM (ε) exp(C(b − a)), ∂e ∂e (7.32) wobei die Konstante C unabhängig von (τ, y) ist. Schliesslich folgt aus der Stetigkeit von dF und Φ, dass lim M (ε) = 0 ε↓0 und damit folgt aus (7.32): ∂Φ ∂Φ lim (t, x) − (τ, y) = 0 . (τ,y)→(t,x) ∂e ∂e Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen 168 Das Argument des letzten Beweises ist nur “lokal” und deshalb gilt auch die folgende lokale Version des Satzes 7.5.1: Satz 7.5.7. Seien Ω eine kompakte Menge, F : [a, b] × Ω eine C 1 Abbildung, Ω0 ⊂ Ω eine offene Teilmenge und Φ : Ω0 × [a, b] → Ω eine stetige Abbildung die die partielle Ableitung ∂Φ besitzt und das folgende System löst: ∂t ∂Φ (t, x) ∂t Φ(0, x) = x . Dann ist Φ eine C 1 Abbildung. = F (t, Φ(t, x)) 8. Differenzierbare Mannigfaltigkeiten In diesem Kapitel werden wir näher auf die Untermannigfaltigkeiten der Euklidischen Räumen eingehen und die Theorie der abstrakten Mannigfaltigkeiten einführen. Der Satz von der lokalen Umkehrbarkeit und der Satz über implizite Funktionen werden eine zentrale Rolle spielen und tatsächlich brauchen wir zwei leichte Verallgemeinerungen daran. Lemma 8.0.1. Seien U, V ⊂ Rn zwei offene Mengen und Φ : U → V ein Diffeomorphismus. Falls Φ ∈ C k , dann Φ−1 ∈ C k . Beweis. Per Definition ist Φ−1 ∈ C 1 . Wir nehmen deshalb an dass k ≥ 2. Das Lemma 5.5.8 gibt uns eine explizite Formel für das Differential dΦ−1 |q , nähmlich dΦ−1 |q = dΦ|Φ−1 (q) −1 . (8.1) Die Koeffizienten Jk` (p) der Matrix J(p), die die lineare Abbildung (dΦ|p )−1 dargestellt, sind Summen von Produkten einiger partieller Ableitungen erster Ordnung der Komponenten von Φ = (Φ1 , . . . , Φn ), dividiert durch die Determinante der Matrixdarstellung von dΦp . Deshalb ist jede Funktion p 7→ Jk` (p) ein Quotient von C k−1 Funktionen. Der Nenner ist nie Null und daraus folgt, dass Jk` ∈ C k−1 . Jk` (Φ−1 (q)) ist dann die Komposition einer C k−1 Funktion und einer C 1 Funktion: sie ist deswegen C 1 . Auf der anderen Seite (8.1) bedeutet, dass ∂(Φ−1 )k (q) = Jk` (Φ−1 (q)) . ∂x` 169 (8.2) Kapitel 8. Differenzierbare Mannigfaltigkeiten 170 −1 Wir schliessen deshalb dass jede partielle Ableitung ∂(Φ∂x` )k eine C 1 Funktion ist. Das impliziert aber dass Φ−1 ∈ C 2 . Nun, falls k = 2 sind wir fertig, ansonsten ist −1 k ≥ 3 und aus (8.2) folgt, dass ∂(Φ∂x` )k ∈ C 2 , d.h. Φ−1 ∈ C 3 . Mit diesem Verfahren und mit Hilfe der vollständingen Induktion schliessen wir dann die Behauptung des Satzes für alle k ∈ N. Insbesondere ist Φ−1 beliebig oft differenzierbar falls Φ ist. Also gilt auch der Fall k = ∞. Ein leichtes Korollar des Lemmas ist dass die (lokale) Umkehrung der Funktion Φ im Satz 5.6.1 ist so glatt wie Φ. Eine ähnliche Verallgemeinerung gilt fuer den Satz über implizite Funktionen. Der Beweis ist änlich zum Beweis des vorherigen Lemmas und ist dem Leser verlassen. Satz 8.0.2. Seien f und g die Funktionen im Satz 5.8.2. Falls f ∈ C k , so ist g ∈ C k . 8.1. Karten für Untermannigfaltigkeiten Euklidischer Räume Wir erinnern zuerst an die Definition der C 1 Untermannigfaltigkeiten des Rn (siehe Definition 5.9.1) und geben eine leichte Verallgemeinerung: Definition 8.1.1. Seien Ω ⊂ Rn eine offene Menge, k ∈ [1, n − 1] eine natürliche Zahl und j ∈ {∞} ∪ N \ {0}. Eine Menge E ⊂ Ω ist eine C j -Untermannigfaltigkeit von Ω der Dimension k, falls ∀p ∈ E die folgende Eigenschaft gilt: ∃ eine Ordnung der Koordinaten (x1 , · · · , xk , y1 , · · · , yn−k ), so dass • p = (|{z} a , |{z} b ) ∈Rk ∈Rn−k • ∃ Umgebungen U und V von a und b • ∃f : U → V C j , so dass (U × V ) ∩ E = {(x, f (x)) : x ∈ U } . Kapitel 8. Differenzierbare Mannigfaltigkeiten 171 Im Satz 5.9.3 haben wir gesehen dass die Urbilder (durch C 1 Funktionen) regularärer Werte C 1 -Untermannigfaltigkeiten sind (siehe auch Definition 5.9.2). Eine angepasste lokale Version dieses Satzes gibt eine Charakterisierung der Untermannigfaltigkeiten. Im nächsten Satz werden wir auch eine zweite Charakterisierung sehen. Satz 8.1.2. Die folgenden Aussagen sind äquivalent: (i) Σ ⊂ Rn ist eine k-dimensionale C j -Untermannigfaltigkeit. (ii) Für jeden Punkt p ∈ Σ gibt es eine offene Umgebung W von p und eine C j Abbildung h : W → Rn−k so dass 0 ein regulärer Wert von h ist und W ∩ Σ = h−1 ({0}). (iii) Für jeden Punkt p ∈ Σ gibt es eine offene Umgebung W von p und einen C j Diffeomorphismus Φ : W → W 0 so dass Φ(Σ ∩ W ) = W 0 ∩ {z ∈ Rn : zk+1 = . . . = zn = 0}. Definition 8.1.3. Ein Paar (W, Φ) wie im Satz 8.1.2(iii) werden wir eine Karte für die Untermannigfaltigkeit Σ nennen. Beweis. (ii) =⇒ (i). Das Argument ist eine einfache Anpassung des Arguments vom Satz 5.9.3. (i) =⇒ (ii). Seien U , V , die Koordinaten (x, y) und die Funktion f wie in der Definition 8.1.1. Wir setzen dann W = U × V und h(x, y) = y − f (x). Es ist dann klar, dass h ∈ C j und Σ ∩ W = h−1 ({0}). Wir müssen nur kontrollieren ob 0 ein Kapitel 8. Differenzierbare Mannigfaltigkeiten 172 regularär Wert von h ist. Wir berechnen die Jacobi Matrix von h: ∂f1 − ∂x 1 ∂f1 · · · − ∂x k 1 0 ··· 0 0 ∂f2 − ∂x 1 ∂f2 · · · − ∂x k 0 1 ··· 0 0 .. .. .. .. . . . . . 0 0 ··· 1 0 0 0 ··· 0 1 .. . .. . · · · − ∂fn−k+1 − ∂fn−k+1 ∂x1 ∂xk − ∂f∂xn−k 1 · · · − ∂f∂xn−k k Die letzten n − k Spalten sind immer linear unabhägig: deshalb ist der Rang von dh|p Maximal für jeden Punkt p. Insbesondere ist jeder Wert von h ein regulär Wert. (iii) =⇒ (i). Seien W und Φ wie in (iii) und sei h = (Φk+1 , . . . , Φn ). Dann ist h : W → Rn−k eine C j Abbildung. Ausserdem, Σ ∩ W = h−1 ({0}). Wir müssen nur kontrollieren ob 0 ein regularär Wert von h ist und dann haben wir (iii) =⇒ (ii) bewiesen, aber wir wissen schon, dass (ii) =⇒ (i). Nun, die Zeilen der Jacobi Matrix von h an der Stelle p sind ∇h1 (p) , . . . , ∇hn−k (p) . Aber ∇hj (p) = ∇Φk+j (p). Anderseits sind ∇Φ1 (p), . . . , ∇Φn (p) die Zeilen der Jacobi Matrix von Φ an der Stelle p. Da Φ ein Diffeomorphismus ist, ist das Differential dΦ|p umkehrbar und deshalb sind die n Vektoren ∇Φ1 (p), . . . , ∇Φn (p) linear unbhängig. Die n − k Zeilen der Jacobi Matrix von h an der Stelle p sind also linear unabhängig und dh|p hat maximalen Rang für alle p. Also, jeder Wert von h ist regulär. (i) =⇒ (iii). Seien U , V , die Koordinaten (x, y) und die Funktion f wie in der Kapitel 8. Differenzierbare Mannigfaltigkeiten 173 Definition 8.1.1. Wir definieren Φ(x, y) = (x, y − f (x)). Die Jacobi Matrix von Φ ist 1 0 . .. 0 0 ∂f − 1 ∂x1 ∂f2 − ∂x 1 . .. ∂f − n−k+1 ∂x1 ∂fn−k − ∂x1 0 1 ··· 0 ··· 0 0 0 .. . .. . .. . 0 0 ∂f1 − ∂x 2 ··· 1 ··· 0 1 · · · − ∂x∂fk−1 0 1 ∂f1 − ∂x k ∂f2 − ∂x 2 2 · · · − ∂x∂fk−1 ∂f2 − ∂x k .. . .. . .. . − ∂fn−k+1 − ∂fn−k+1 · · · − ∂f∂xn−k+1 ∂x2 ∂xk k−1 − ∂f∂xn−k 2 n−k · · · − ∂f ∂xk−1 − ∂f∂xn−k k 0 0 ··· 0 0 0 0 ··· 0 0 .. .. .. .. . . . . 0 0 ··· 0 0 0 0 ··· 0 0 1 0 ··· 0 0 0 1 ··· 0 0 .. .. .. .. . . . . 0 0 ··· 1 0 0 0 ··· 0 1 Die Determinante ist also 1 und die Abbildung Φ ist ein lokaler Diffeomorphismus. Für jede Stelle q ∈ Φ(W ) gibt es dann ein p mit Φ(p) = q und auch eine offene Umgebung Ω von p so dass Φ(Ω) offen ist. Deshalb ist q ∈ Φ(Ω) ⊂ Φ(W ). Also ist W 0 = Φ(W ) eine offene Menge. Ausserdem, es ist sehr leicht zu sehen, dass Φ injektiv ist. Also ist Φ global umkehrbar und ein Diffeomorphismus. Nun, falls p ∈ Σ ∩ W , dann p = (x, f (x)) und Φ(p) ∈ {z ∈ Rn : zk+1 = . . . = zn = 0}. Anderseits falls q ∈ {z : zk+1 = . . . = zn = 0} ∩ W 0 , dann gibt es p ∈ W so dass Φ(p) = q und, wenn wir q = (x, y) setzen, y − f (x) = 0, d.h. p = (x, f (x)) ∈ Σ. Wir haben also bewiesen dass Φ(W ∩ Σ) = W 0 ∩ {z ∈ Rn : zk+1 = . . . = zn = 0}. 8.2. Parametrisierungen Wir erinnern uns, dass eine Teilmenge Σ des Euklidischen Raums Rn die Unterraumtopologie besitzt: die offenen Mengen dieser Topologie sind einfach die Schnitte von Σ mit offenen Mengen des Euklidischen Raums. Sei Σ eine Untermannigfaltigkeit ist Kapitel 8. Differenzierbare Mannigfaltigkeiten 174 und (U, Φ) eine Karte. Die Einschränkung von Φ auf U ∩ Σ ist ein Homömorphismus der zwei topologischen Räume Σ ∩ U und π ∩ Φ(U ), wobei π = {z ∈ Rn : zk+1 = . . . = zn = 0}. Lemma 8.2.1. Sei Σ ⊂ Rn eine k-dimensional C ` -Untermannigfaltigkeit, π ⊂ Rn die Ebene {z ∈ Rn : zk+1 = . . . = zn = 0} und (Φ, U ) eine Karte von Σ. Wir betrachten Σ ∩ U und π ∩ Φ(U ) mit den Unterraumtopologien. Die Einschränkung von Φ auf Σ ∩ U ist dann ein Homöomorphismus zwischen Σ ∩ U und π ∩ Φ(U ). Beweis. Seien X und Y die topologischen Räume Σ ∩ U und π ∩ Φ(U ) mit der Unterraumtopologie und ϕ die Einschränkung von Φ auf X. ϕ ist umkehrbar: ϕ−1 ist einfach die Einschränkung von Φ−1 auf Y . Um die Stetigkeit von ϕ zu beweisen müssen wir zeigen, dass, für jede offene Teilmenge Ω ⊂ Y , ϕ−1 (Ω) eine offene Menge von X ist. Ω ⊂ Y offen bedeutet, dass Ω = W ∩ Y für irgendein offenes W ⊂ Rn . ϕ nimmt ihre Werte in Φ(U ), welches ebenfalls eine offene Menge ist. Deshalb haben wir ϕ−1 (Ω) = ϕ−1 ((W ∩ Φ(U )) ∩ π). Aber wegen der Eigenschaften von Φ haben wir ϕ−1 ((W ∩ Φ(U )) ∩ π) = Φ−1 (W ∩ Φ(U )) ∩ Σ . Da Φ stetig ist, ist Φ−1 (W ∩ Φ(U )) eine offene Menge von Rn . Deshalb ist ϕ−1 ((W ∩ Φ(U )) ∩ π) eine offene Menge von X. Ein ähnliches Argument zeigt dass, für jedes offene Ω ⊂ X, ϕ(Ω) = (ϕ−1 )−1 (Ω) eine offene Menge von X ist. n Die Abbildung ψ = Φ|−1 Φ(U )∩π : Φ(U ) ∩ π → R hat auch eine andere bemerkenswerte Eigenschaft: ihres Differential hat überall Maximalen Rang. In der Tat, die −1 −1 Spalten der Matrixdarstellung des differential dΦ−1 |q sind ∂Φ (q), . . . , ∂Φ (q). Sie ∂z1 ∂zk sind aber linear unabhängig, weil dΦ−1 |q umkehrbar ist. Definition 8.2.2. Sei Σ ⊂ Rn , 1 ≤ k ≤ n − 1 und V ⊂ Rk , U ⊂ Rn zwei offene Mengen. Eine C 1 Abbildung ψ : V → U ist eine Parametrisierung von U ∩ Σ falls: (i) ψ(V ) = U ∩ Σ und ψ : V → Σ ∩ U ein Homöomorphismus ist; Kapitel 8. Differenzierbare Mannigfaltigkeiten 175 (ii) das Differential von ψ überall maximalen Rang hat. Durch die Existenz der Paramaterisierungen können wir eine dritte Charakterisierung der Untermannigfaltigkeit von Rn geben. Satz 8.2.3. Sei Σ ⊂ Rn und 1 ≤ k ≤ n − 1. Σ ist eine k-dimensionale C ` -Untermannigfaltigkeit genau dann wenn: (iv) Für jede p ∈ Σ gibt es eine offene Umgebung U von p und eine C ` Parametrisierung ψ von U ∩ Σ. Beweis. Untermannigfaltigkeit =⇒ (iv). Sei p ∈ Σ Aus dem Satz 8.1.2 wissen wir dass es eine Karte (U, Φ) existiert so dass U eine Umgebung von p ist. Oben haben wir aber schon gesehen dass ψ := Φ−1 |π∩Φ(U ) eine Parametrierung von U ∩ Σ ist. (iv) =⇒ Untermannigfaltigkeit. Wir beweisen dass (iv) die Eigenschaft vom Satz 8.1.2(iii) (d.h. die Existenz einer Karte auf einer Umgebung jeder Stelle p ∈ Σ) impliziert. Seien p ∈ Σ, W eine Umgebung von p und ψ : V → W eine C ` Parametrisierung von Σ ∩ W . Sei x0 ∈ V die einzige Stelle mit ψ(x0 ) = p. Wir betrachten die Spalten der Matrixdarstellung des Differential dψ|x0 , d.h. die Vektoren ∂ψ ∂ψ (x0 ). Wie schon bemerkt, sie sind linear unabhängig (x0 ), . . . , wk = ∂z w1 = ∂z 1 k weil der Rang von dψ|x0 k ist. Wir vervollständigen {w1 , . . . , wk } zu einer Basis {w1 , . . . , wn } von Rn und definieren die folgende Abbildung Ψ : V × Rn−k → Rn Ψ(z, y) = ψ(z) + n−k X yi wk+i . j=1 Sei q = (x0 , 0) ∈ V × Rn−k ⊂ Rn . Ψ ist eine C ` Abbildung. Die Spalten der Matrixdarstellung des Differentials dΨ|(z0 ,0) sind w1 , . . . , wn und deshalb ist das Diffrential umkehrbar. Aus dem Inverse Funktion Theorem folgt die Existenz einer offenen Umgebung Z von q und eine offene Umgebung W 0 von p so dass Ψ : Z → W 0 ein C ` Diffeomorphismus ist. Wir behaupten dass das Paar (U, Ψ−1 ), für eine geeignete offene Umgebung U von p, eine Karte ist. Wir müssen nur zeigen dass Φ = Ψ−1 die Kapitel 8. Differenzierbare Mannigfaltigkeiten 176 Menge Σ ∩ U in π ∩ Φ(U ) abbildet. Als U wählen wir eine Kugel Kr (p) ⊂ Z mit radius r = 1/j, j ∈ N gross genug. Wir behaupten (a) Falls j gross genug ist, dann Φ(U ∩ Σ) ⊂ π. (b) Falls j gross genug ist, dann hat kein q 0 ∈ Φ(U ) ∩ π ein Urbild in U \ Σ. Falls (a) falsch ist, dann gibt es eine Folge js ↑ ∞ und eine Folge von Punkten pjs ∈ Kjs−1 (p)∩Σ so dass Φ(pjs ) 6∈ π. In dem Fall sei xjs = ψ −1 (pjs ) ∈ π. Da pjs → p, xjs → x0 wegen der Stetigkeit von ψ −1 (zur Erinnerung: ψ ist ein Homöomorphismus). Aber dann (xjs , 0) ∈ W 0 für s gross genug. Auf der anderen Seite Ψ(xjs , 0) = ψ(xjs ) = pjs und Ψ(Φ(pjs )) = pjs . Also sind (xjs , 0) und Φ(pjs ) sind zwei verschiedene Punkte auf welchen die Abbildung Ψ den gleichen Wert annimmt: da Ψ ein Diffeomorphismus ist, haben wir ein Wiederspruch. Falls (b) falsch ist, dann gibt es eine Folge pjs ∈ Kjs−1 (p) \ Σ so dass Φ(pjs ) = xjs ∈ π. Wegen der Stetigkeit von Φ haben wir xjs → x0 . Also, wenn js gross genug ist, xjs ∈ W 0 ∩ π. Deshalb p0js = Ψ(xjs , 0) = ψ(xjs ) ∈ Σ und p0js → p. Wir schliessen dass p0js ∈ Z falls js gross genug ist. Aber dann sind p0js und pjs zwei verschiedene Stellen auf welchen Φ den gleichen Wert annimmt. Das widerspricht der Injektivität von Φ. 8.3. Kartenwechseln und Atlanten für Untermmanigfaltigkeiten Sei Σ eine C ` Untermannigfaltigkeit und (U1 , Φ1 ), (U2 , Φ2 ) zwei Karten mit Ω = U1 ∩ U2 ∩ Σ 6= ∅. Wenn ψ1 : V1 → U1 und ψ2 : V2 → U2 zwei Parametrisierungen sind, dann können wir Ω1 = ψ1−1 (U1 ∩ U2 ), Ω2 = ψ2−1 (U1 ∩ U2 ) und die Abbildung ψ12 = ψ2−1 ◦ ψ1 = Φ2 ◦ ψ1 definieren. ψ12 : Ω1 → Ω2 ist umkehrbar: ihre Umkehrfunktion ist einfach ψ21 = ψ1−1 ◦ ψ2 = Φ1 ◦ ψ2 . Da beide Funktionen C ` sind, sie sind eigentlich Diffeomorphismen. Solche Abbildungen werden Kartenwechseln für die Untermannigfaltigkeit Σ gennant. Ein Atlas einer Untermannigfaltigkeit Σ ist eine Familie {(U` , Φ` )}`∈Λ von Karten so dass {U` } eine Überdeckung von Σ ist. Ein Atlas könnte unendlich und sogar Kapitel 8. Differenzierbare Mannigfaltigkeiten 177 überabzählbar sein. Falls Σ eine kompakte Menge ist, dann können wir aus jedem Atlas ein endliches Atlas wählen. Allgemein brauchen wir unendlich viele Karten aber nie mehr als abzählbar viele. Lemma 8.3.1. Sei {U` }`∈Λ eine Familie offener Mengen U` ⊂ Rn . Es gibt dann eine endliche oder abzählbare Teilfamilie {U`i }i∈N so dass [ `∈Λ U` = [ U`i . (8.3) i∈N Beweis. Wir betrachten zuerst die Familie von Kugeln Kr (q) mit Mittelpunkten q ∈ Qn und Radien r ∈ Q+ . Wir nehmen dann die Teilfamilie F von solchen Kugeln die mindenstens in einer Menge U` enthalten ist. Die ursprüngliche Familie ist abzählbar und die neue ist abzählbar oder endlich. Nehmen wir an dass F abzählbar ist (das Argument für den endlichen Fall ist praktisch gleich) und nehmen wir eine Enumerierung {K j }j∈N . Für jedes j wählen wir ein `j so dass K j ⊂ U`j . Wir behaupten dass (8.3) gilt. Die Inklusion ⊃ ist trivial. Wir wollen nun die andere Inklusion ⊂ zeigen. Sei also S p ∈ `∈Λ Uλ : dann gibt es ein ` so dass p ∈ U` und so eine Kugel Kρ (p) ⊂ Uλ . Sei nun q ∈ Qn so dass |q − p| < ρ2 und r ∈ Q∩]|q − p|, ρ2 [. Wir haben Kr (q) ⊂ Kρ (p) ⊂ U` . Also Kr (q) ∈ F und deshalb Kr (q) = K j für irgendeine j ∈ N. Wir schliessen S p ∈ K i ⊂ U`j , d.h. p ∈ i∈N U`i . 8.4. Abstrakte Mannigfaltigkeiten Die C ` -Untermannigfaltigkeiten des Euklidischen Raums sind eine Klasse von abstrakten differenzierbaren Mannigfaltigkeiten. Definition 8.4.1. Seien k ≥ 1 und ` ≥ 1. Eine abstrakte Mannigfaltigkeit ist ein Topologischer Raum X zusammen mit einem Atlas A von Karten {(Uλ , ϕλ )}λ∈Λ mit den folgenden Eigenschaften: (i) {Uλ }λ∈Λ ist eine offene Überdeckung von X. Kapitel 8. Differenzierbare Mannigfaltigkeiten 178 (ii) ϕλ : Uλ → Rk ist ein Homöomorphismus zwischen Uλ und einer offenen Menge ϕ(Uλ ) von Rk . ` (iii) Falls Uλ1 λ2 = Uλ1 ∩ Uλ2 6= ∅ dann ist die Abbildung ϕ21 = ϕ2 ◦ ϕ−1 1 ein C Diffeomorphismus zwischen ϕ1 (Uλ1 λ2 ) und ϕ2 (Uλ1 λ2 ). (iv) A ist endlich oder abzählbar. (v) Für alle p 6= p0 ∈ X gibt es zwei offene Umgebungen U ⊃ p und U 0 ⊃ p0 mit U ∩ U 0 = ∅. Wir können die Definition auch im Fall ` = 0 geben: die Bedingung (iii) ist dann lehr und X wird eine topologische Mannigfaltigkeit gennant. Falls ` ≥ 1, dann heisst X eine differenzierbare Mannigfaltigkeit. Allgemein, eine Familie {(Uλ , ϕλ )} die die Eigenschaften (i), (ii) und (iii) besitzt heisst ein Atlas für die Mannigfaltigkeit (ein Atlas ist also nicht unbedingt abzählbar oder endlich, obwohl unsere Definition die Existenz von mindestens einem abzählbaren Atlas verlangt!). Eine Karte ist allgemein ein Homöomorphismus zwischen einer offenen Menge U von X und einer offenen Menge von Rk . Wenn (U, ϕ) und (V, ψ) zwei Karten mit U ∩ V 6= ∅ sind, dann heisst die Abbildung ϕ ◦ ψ −1 wie in (iii) Kartenwechsel. Zwei C ` Atlanten A1 und A2 sind dann C ` kompatibel wenn jeder Kartenwechsel zwischen einer Karte von A1 und einer Karte von A2 ein C ` -Diffeomorphismus ist. Auf dem gleichen topologischen Raum könnte es mehr als einen C 1 Atlas geben, aber ein interessantes Ergebnis der Theorie ist das folgende Theorem, das wir nicht beweisen. Satz 8.4.2. Falls (X, A) eine C 1 Mannigfaltigkeit ist, dann gibt es einen C ∞ -Atlas Ā auf X so dass A und Ā C 1 -kompatibel sind. Bemerkung 8.4.3. Wenn Σ ⊂ Rn eine C ` -Untermannigfaltigkeit ist, dann ist sie auch eine C ` abstrakte Mannigfaltigkeit. In der Tat Kapitel 8. Differenzierbare Mannigfaltigkeiten 179 • Der topologische Raum X ist Σ mit der Unterraumtopologie (die Eigenschaft (v) ist dann trivial!). • Ein Atlas A = {(Uλ , Φλ )}λ∈Λ für die Untermannigfaltigkeit induziert einen Atlas A0 = {(Uλ ∩ Σ, Φλ |Σ )}λ∈Λ als abstrakte Mannigfaltigkeit. • Wegen des Lemmas 8.3.1 können wir den obigen Atlas endlich oder abzählbar wählen. Mit Hilfe der Atlanten können wir differenzierbare Funktionen auf (und zwischen!) Untermannigfaltigkeiten definieren. Definition 8.4.4. Sei (Σ, A) eine C ` Mannigfaltigkeit und `¯ ≤ `. Seien U ⊂ Σ eine offene Menge und ¯ f : U → Rj eine Abbildung. f ∈ C ` falls, für jede Karte (U, ϕ) ∈ A, die Abbildung ¯ f ◦ ϕ−1 : ϕ(U ) → Rj C ` ist. ˜ ¯ Eine Abbildung f : U → Γ ist Sei nun (Γ, A0 ) eine C ` -Mannigfaltigkeit mit `˜ ≥ `. ¯ ¯ C ` falls, für jede Karte (V, ψ), die Abbildung ψ ◦ f : f −1 (V ) ∩ U → ψ(V ) eine C ` Abbildung ist. ¯ Schliesslich, eine Abbildung f : Σ → Γ ist ein C ` Diffeomorphismus, falls f ∈ ¯ ¯ C ` und sie eine C ` Umkehrfunktion besitzt. In dem Fall sagen wir, dass die zwei ¯ Mannigfaltigkeiten C ` -Diffeomorph sind. Mit der obigen Sprache können wir das Theorem 8.4.2 so behaupten: jede C 1 Mannigfaltigkeit ist C 1 -Diffeomorph zu einer C ∞ -Mannigfaltigkeit. Eine zentrale Frage der Theorie ist, ob die abstrakten Mannigfaltigkeiten “mehr” sind als die Untermannigfaltigkeiten des Rn sind (wenn wir letztere mit den entsprechenden abstrakten Mannigfaltigkeiten wie in der Bemerkung 8.4.3 identifizIeren). Die Frage können wir auch wie folgt stellen: (E) Sei (X, A) eine C 1 Mannigfaltigkeit. Gibt es eine C 1 Untermannigfaltigkeit Γ ⊂ Rn und einen Diffeomorphismus f : Σ → Γ. Ein Diffeomorphismus zwischen einer abstrakten Mannigfaltigkeit (X, A) und einer Untermannigfaltigkeit von Rn wird oft eine “euklidische Einbettung” genannt. Die Kapitel 8. Differenzierbare Mannigfaltigkeiten 180 Frage ist also ob jede abstrakte Mannigfaltigkeit in einem Euklidischen Raum eingebettet werden kann. Die Antwort ist ja und wurde im letzten Jahrhundert von Hassler Whitney gegeben. Satz 8.4.5. Für jede C 1 k-dimensionale Mannigfaltigkeit gibt es eine Einbettung in R2k+1 . 8.5. Der Tangentialraum für Untermannigfaltigkeiten Sei f : Rk ⊃ Ω → Rn−k eine C 1 Funktion und q ∈ Ω. Die Taylorentwicklung erster Ordnung an der Stelle q ist die Abbildung: A(x) = f (q) + df |q (x − q) . Diese Abbildung ist eine gute Approximation der Funktion f an der Stelle q. Der Graph der Abbildung A ist eine k-dimensionale affine Ebene in Rn . Im Fall k = n − k = 1 ist dieser Graph die tangente Gerade am Graphen von f an der Stelle (q, f (q)). Diese affine Ebene ist einfach eine Verschiebung des Unterraums V = {(y, df |q (y)) : y ∈ Rk } . Dieser Raum heisst Tangentialraum zum Graphen Γ von f an der Stelle p = (q, f (q)). NB: Der Graph von A, nämlich die affine Ebene V +(q, f (q)) = {v+(q, f (q)) : v ∈ V } ist die “geometrische” tangente Ebene und der Tangentialraum ist sozusagen der “lineare Teil” dieser Ebene. Die obige Überlegung motiviert die folgende Definition. Definition 8.5.1. Sei Σ ⊂ Rn eine k-dimensionale C 1 -Untermannigfaltigkeit und p ∈ Σ. Seien: • (x, y) ∈ Rk × Rn−k eine Umordnung der Standardkoordinaten, • x0 , y0 so dass p = (x0 , y0 ), • U ⊂ Rk und V ⊂ Rn−k zwei Umgebungen von x0 und y0 Kapitel 8. Differenzierbare Mannigfaltigkeiten 181 • und f : U → V eine C 1 Abbildung so dass Σ ∩ (U × V ) = {(x, f (x)) : x ∈ Rk }. Der Tangentialraum von Σ an der Stelle p ist der Unterraum Tp Σ = {(x, df |x0 (x)) : x ∈ Rk } . (8.4) Wir müssen aber zeigen dass der Tangentialraum wohldefiniert ist: für die meisten Stellen p einer Untermannigfaltigkeit gibt es mehr als eine Umordnung der Variablen in welcher eine Umbegung in Σ von p durch den Graphen einer C 1 Funktion beschrieben werden kann. Die Eindeutigkeit des Tangentialsraums ist in der Tat eine Konsequenz des folgenden Satzes: Satz 8.5.2. Sei Σ ⊂ Rn und p ∈ Σ. (i) Falls ϕ : Rk ⊃ Z → Σ eine Parametrisierung einer Umgebung von p mit ϕ(z0 ) = p ist, dann Tp Σ = {dϕ|z0 (v) : v ∈ Rk } . (8.5) (ii) Sei C der Raum der C 1 Kurven γ : I → Σ ⊂ Rn so dass (a) I ein beliebiges offenes Intervall mit 0 ∈ I ist; (b) γ(0) = p. Dann Tp Σ = {γ̇(0) : γ ∈ C } . (8.6) Beweis. (ii). Wir beweisen zuerst (8.6). Wir fixieren deswegen x0 , y0 , U , V und f wie in der Definition 8.5.1 und wir setzen Z = {γ̇(0) : γ ∈ C } . Wir wollen Z ⊂ Tp Σ und Tp Σ ⊂ Z zeigen. Sei nun v ∈ Rk . Da U offen ist, bildet die Abbildung t 7→ x0 + tv irgendein offenes Intervall I 3 0 in U ab. Deshalb ist die Kurve t 7→ γ(t) = (x0 + tv, f (x0 + tv)) Kapitel 8. Differenzierbare Mannigfaltigkeiten 182 ein Element von C . Wir schliessen γ̇(0) ∈ Z. Aber die Kettenregel impliziert γ̇(0) = (v, df |x0 (v)) . Das beweist dass (v, df |x0 (v)) ∈ Z für jedes v ∈ Rk , d.h. Tp Σ ⊂ Z. Sei nun γ ∈ C . Es gibt ein offenes Intervall J 3 0 so dass γ(J) ⊂ U × V . Sei η(t) = (γ1 (t), . . . , γk (t)). Für t ∈ J haben wir η(t) ∈ U und γ(t) ∈ (U × V ) ∩ Σ. Deshalb muss γ(t) = (η(t), f (η(t))) sein. Wir leiten also diese Identität ab und erhalten γ̇(0) = (η̇(0), df |x0 (η̇(0))) . Da v := η̇(0) ∈ Rk , schliessen wir, dass γ̇(0) ∈ Tp Σ. Dieses Argument beweist also dass Tp Σ ⊂ Z. (i). Wir setzen W = {dϕ|z0 (v) : v ∈ Rk } und nutzen die Charakterisierung in (ii) um die zwei Inklusionen W ⊂ Tp Σ und Tp Σ ⊂ W zu zeigen. Zuerst sei v ∈ Rk und betrachte die Kurve γ(t) = ϕ(z0 + tv). Die Kurve ist wohldefiniert und C 1 auf einem offenen Intervall I ⊃ 0 und γ(0) = ϕ(z0 ) = p: deshalb γ ∈ C und γ̇(0) ∈ Tp Σ. Andeseits γ̇(0) = dϕ|z0 (v) und so dϕ|z0 (v) ∈ Tp Σ. Das beweist W ⊂ Tp Σ. Sei nun γ ∈ C . Im Satz 8.2.3 haben wir bewiesen dass es eine offene Umgebung Ω von p und ein Diffeomorphismus Φ : Ω → Ω0 gibt so dass ϕ(Φ1 (p), . . . , Φk (p)) = p für jedes p ∈ Ω und (Φ1 (ϕ(z)), . . . , Φk (ϕ(z)) = z für jeden (z, 0) ∈ Ω0 . Für t klein genug haben wir γ(t) ∈ Ω und deshalb ist die Kurve η(t) = (Φ1 (γ(t)), . . . , Φk (γ(t))) wohldefiniert. Ausserdem ϕ(η(t)) = γ(t) und η(0) = z0 . Die Kettenregel gibt also γ̇(0) = dϕ|z0 (η̇(0)) und da v = η̇(0) ∈ Rk , wir haben γ̇(0) ∈ W bewiesen. Das zeigt Tp Σ ⊂ W . Kapitel 8. Differenzierbare Mannigfaltigkeiten 183 8.6. Derivationen: der Tangentialraum für abstrakte differenzierbare Mannigfaltigkeiten Sei Σ eine abstrakte C 1 Mannigfaltigkeit und f : Σ → R eine C 1 Funktion. Sei nun γ : I → Σ eine C 1 Kurve, wobei 0 ∈ I und I ein offenes Intervall ist. Wir behaupten dass f ◦γ : I → R eine C 1 Abbildung ist. In der Tat, seien t ∈ I irgendeine Stelle und (U, ϕ) eine Karte die p = γ(t) enthält. Da U offen ist und γ eine stetige Funktion ist, gibt es ein offenes Intervall J 3 p so dass γ(J) ⊂ U . Nun, f ◦ ϕ−1 und ϕ ◦ γ|J sind zwei C 1 Funktionen. Somit ist auch die Funktion f ◦ γ|J = (f ◦ ϕ−1 ) ◦ (ϕ ◦ γ|J ) C 1. Wir können deswegen die “Ableitung entlang der Kurve γ” an der Stelle q = γ(0) definieren: D(f ) = (f ◦ γ)0 (0) . (8.7) Wir definieren nun den folgenden Raum: Definition 8.6.1. Sei Σ eine differenzierbare Mannigfaltigkeit und sei p ∈ Σ. Die Menge J (p) ist die Menge der C ∞ reellwertigen Abbildungen die auf irgendeiner Umgebung von p definiert sind und wir identifizieren zwei Funktionen, falls sie auf einer Umgebung von p gleich sind. Der Raum J ist “linear” im folgenden Sinne: wenn f : U → R und g : V → R zwei Elementen von J (p) sind und λ, µ ∈ R, dann ist die lineare Kombination λf +µg wohldefiniert auf der Umgebung U ∩V und also auch ein Element von J (p). Wir können dann die Abbildung f 7→ D(f ) in (8.7) als ein Operator betrachten, d.h. als eine lineare Abbildung D : J (p) → R: der Operator ist wohldefiniert, weil D(f ) = D(g) falls f = g auf einer Umgebung von p. Der Operator D hat aber mindenstens eine zusätzliche bemerkenswerte Eigenschaft, nähmlich erfüllt er die Leibnitz Regel: (L) D(f g) = f (p)D(g) + g(p)D(f ) für alle f, g ∈ J (p). Definition 8.6.2. Seien Σ eine C ∞ Mannigfaltigkeit und p ∈ Σ. Ein linearer Operator D : J (p) → R, welcher die Leibnitz Regel (L) erfüllt wird eine Derivation genannt. Kapitel 8. Differenzierbare Mannigfaltigkeiten 184 Die Leibnitz Regel charakterisiert die “Ableitungen entlang einer Kurve”, d.h. Satz 8.6.3. Für jede Derivation D : J (p) → R gibt es eine C 1 Kurve γ : I → Σ so dass I 3 0 offen ist, γ(0) = p und (8.7) gilt. Wir werden den Satz später beweisen. Zuerst bemerken wir das folgende. Wenn Σ eine Untermannigfaltigkeit ist und p ∈ Σ, können wir eine Karte (U, ϕ) mit p ∈ U nutzen um jede Funktion f ∈ J (p) auf einer offenen Umgebung W ⊂ Rn von p fortzusetzen. Wenn wir diese neue Funktion immernoch f nennen und γ eine Kurve in Σ mit γ(0) = p ist, dann (f ◦ γ)0 (0) = hγ̇(0), ∇f (p)i . Deswegen, falls γ̄ eine andere Kurve in Σ mit γ(0) = p ist, dann gilt (f ◦ γ)0 (0) = (f ◦ γ̄)0 (0) ∀f , ˙ genau dann wenn γ̇(0) = γ̄(0), d.h. genau dann wenn die zwei Ableitungen γ̇(0) und ˙ γ̄(0) den gleichen Tangentialvektor an der Stelle p identifizieren. Das motiviert die folgende Definition Definition 8.6.4. Sei Σ eine abstrakte C ∞ Mannigfaltigkeit und p ∈ Σ. Der Tangentialraum Tp Σ ist der Raum der Derivationen D : J (p) → R. 8.7. Lokale Koordinaten und der Tangentialraum Sei nun (U, ϕ) eine Karte die p enthält. Ein Punkt p ∈ U können wir mit einem Punkt x = ϕ(p) ∈ Rk identifizieren. Die Komponenten x1 , . . . , xk des Vektors x, d.h. die Koordinaten des Punktes x in Rk , werden lokale Koordinaten in der Karte U gennant. Wenn f eine Funktion auf einer Umgebung von p ist, dann können wir f als eine Funktion auf einem Teil von ϕ(U ) beschreiben: f¯(x) = f ◦ ϕ−1 (x). Seien nun x0 so dass ϕ(p) = x0 und v = (v 1 , . . . , v k ) ∈ Rk ein Vektor. Es ist leicht zu sehen dass die Kapitel 8. Differenzierbare Mannigfaltigkeiten 185 Richtungsableitung f 7→ k X vi i=1 ∂ f¯ (x0 ) ∂xi eine Derivation definiert. Eigentlich ist sie die Ableitung entlang der Kurve γ(t) = ϕ−1 (x0 + tv). Diese Derivation werden wir mit dem Symbol k X vi i=1 ∂ ∂xi bezeichnen und im Satz unten werden wir zeigen, dass eigentlich jede Derivation eine solche Darstellung hat. Wenn (V, ψ) eine andere Karte ist und y 1 , . . . , y k die entsprechende lokale Koordinaten sind, dann können wir jede Derivation auch als k X wj j=1 ∂ ∂y j schreiben. Welche beziehung gibt es zwischen den zwei Darstellungen? Der folgende Satz gibt eine genaue Antwort. Satz 8.7.1. Seien: • Σ eine k-dimensionale C ∞ Mannigfaltigkeit, • p ∈ Σ, • (U, ϕ) eine Karte mit p ∈ U und ϕ(p) = x0 und lokale Koordinaten x1 , . . . , xk . Für jede Derivation D ∈ Tp Σ gibt es dann einen einzigen Vektor v ∈ Rk so dass D= k X i=1 vi ∂ . ∂xi Insbesondere ist Tp Σ ein k-dimensionaler Vektorraum. Kapitel 8. Differenzierbare Mannigfaltigkeiten 186 Sei nun (V, ψ) eine andere Karte mit p ∈ U und ψ(p) = y0 . Sei x 7→ y(x) = (y (x), . . . , y k (x)) der Variabenwechsel zwischen den zwei Karten. Dann 1 D= k X `=1 wobei ` w = k X vi i=1 w` ∂ ∂y ` ∂y ` (x0 ) . ∂xi Beweis. Wir setzen f¯ = f ◦ ϕ−1 ein und definieren die Menge J (x0 ) der C ∞ Funktionen f¯ : U → R wobei U eine Umgebung von x0 ist (schliesslich ist auch ϕ(U ) eine C ∞ Mannigfaltigkeit!). Wir bemerken dass jede Derivation auf J (p) eine Derivation auf J (x0 ) induziert und vice versa. Die erste Aussage des Satzes bedeutet dann dass jede Derivation D : J (x0 ) → R eine lineare Kombination der partiellen Ableitungen ∂x∂ i ist. Durch eine Verschiebung der Stelle x0 in dem Ursprung können wir OBdA x0 = 0 annehmen. Wir fixieren dann eine Derivation D : J (0) → R. Wir setzen v i = D(xi ), wobei xi die Koordinatfunktion x 7→ xi ist. P Wir behaupten dass D = ki=1 v i ∂x∂ i . Sei f ∈ J (0). Lemma 8.7.2 unten zeigt die Existenz von k Funktionen g1 , . . . , gk ∈ J (0) so dass f (x) = f (0) + k X gi (x)xi ∀x in einer Umgebung von 0 i=1 und ∂f (0) . ∂xi Jede Derivation D verschwindet auf der konstanten Funktionen, weil die Leibnitz Regel D(1) = D(1 · 1) = 1 · D(1) + D(1) · 1 = 2D(1) gi (0) = impliziert. Wir nutzen dann die Linearität und die Leibnitz Regel um zu schliessen dass k k X X ∂f gi (0)D(xi ) = v i i (0) . D(f ) = D(f (0)) + ∂x i=1 i=1 Kapitel 8. Differenzierbare Mannigfaltigkeiten 187 P i ∂ Schliesslich, sei v ∈ Rn so dass D = v ∂xi = 0. Die Identität oben bedeutet auch i dass v = D(xi ) = 0 für jede i. Wir haben also bewiesen dass ∂x∂ 1 , . . . , ∂x∂ k eine Basis von Tp Σ ist: Tp Σ hat deshalb Dimension k. Seien nun (V, ψ) eine andere Karte, y 1 , . . . , y k die entsprechenden Koordinaten und x 7→ y(x) der Variablenwechsel. Wir fixieren eine Derivation D ∈ Tp Σ und eine Vektoren v so dass k X ∂ D= vi i . ∂x i=1 Sei f ∈ J (p). Wir f¯(x) = f ◦ ϕ−1 (x) und f˜(y) = f ◦ ψ −1 (y). Dann f¯(x) = f˜(y(x)). Deshalb k X k k k X X X ˜ ∂ f¯ ∂y ` ∂ f˜ i ∂(f ◦ y) i D(f ) = v (x ) = v (x ) = v (y(x )) (x0 ) 0 0 0 ∂xi ∂xi ∂y ` ∂xi i=1 i=1 i=1 `=1 ! k k ` X X ∂ f˜ ∂y (y ) . = v i i (x0 ) ` 0 ∂x ∂y i=1 `=1 i Wenn wir ` z = k X vi i=1 ∂y ` (x0 ) , ∂xi die obige Identität zeigt D= k X `=1 z` ∂ . ∂y ` Lemma 8.7.2. Seien Kr (0) ⊂ Rk und f : Kr (0) → R eine C ∞ Funktion. Dann es gibt k C ∞ ∂f Funktionen g1 . . . , gk : K1 (0) → R mit gi (0) = ∂x i (0) und f (x) = f (0) + k X i=1 gi (x)xi ∀x ∈ K1 (0) . Kapitel 8. Differenzierbare Mannigfaltigkeiten 188 Beweis. Wir nutzen den Fundamentalsatz der Integralrechnung und schreiben Z f (x) = f (0) + 0 1 k X d (f (tx)) dt = f (0) + xi dt i=1 Also setzen wir Z gi (x) = 0 1 Z 0 1 ∂f (tx) dt . ∂xi (8.8) ∂f (tx) dt ∂xi und es ist leicht zu sehen, dass diese Funktionen die nötigen Eigenschaften haben. Wir könnten nun den Satz 8.4.2 nutzen um einen C ∞ Atlas A0 auf einer C 1 Mannigfaltigkeit zu finden und einen entsprechende Definition des Tangentialraums zu geben: aus dem Satz 8.7.1 folgt dass der Raum wohldefiniert ist. In der Tat wir könnten auch die folgende direkte Definition geben. Definition 8.7.3. Seien Σ eine C 1 abstrakte Mannigfaltigkeit und p ∈ Σ. Wir definieren der Raum J 1 (p) der C 1 reelwertigen Abbildungen die auf einer Umgebung von p definiert sind und wir identifizieren zwei solche Abbildungen wenn Sie auf einer Umgebung von p gleich sind. Die Derivationen auf J 1 (p) sind die lineare Operatoren die die Leibnitzregel erfüllen. Sei nun ϕ : U → Rk eine Karte die p enthält, mit Koordinaten x1 , . . . , xk . Der Tangentialraum Tp Σ ist der Unterraum der Derivationen der von den k Derivationen ∂ erzeugt wird. ∂xi A. Das Cantor-Diagonalargument Lemma A.0.1. Sei {fk } mit fk : I → R eine Folge von Funktionen und {qi }i∈N eine abzählbare Menge, so dass die Folge {fk (qi )}k∈N ∀i ∈ N (A.1) beschränkt ist. Dann gibt es eine Teilfolge {fkj }, so dass die Folge {fkj (qi )}j∈N ∀i ∈ N (A.2) konvergiert. Beweis. Sei {kj1 }j eine Teilfolge von {k}, so dass lim fkj1 (q1 ) j↑∞ existiert. Wegen (A.1) folgt die Existenz von {kj1 } aus dem Theorem von Bolzano. Wir geben nun eine rekursive Definition der Folge {fji }j mit i ∈ N. Für i ≥ 2 wählen wir eine Folge {kji }j , so dass {kji } eine Teilfolge von {kji−1 } ist und lim fkji (qi ) existiert. j↑∞ Wir bemerken, die folgende Eigenschaft: Wenn l > i ist, dann ist kll ein Element von {kji }j . Also existiert lim fkll (qi ) l↑∞ für jedes i. Deshalb ist {fkll } die gesuchte Teilfolge von {fk }k . 189 B. Lineare unabhängigkeit der Exponentialen In diesem Kapitel zeigen wir einen Teil des Satzes 6.4.10. Lemma B.0.1. Seien λ1 , . . . , λr ∈ C (mit λj 6= λk für j 6= k) und k1 , . . . , kr ∈ N \ {0}. Dann sind die folgende Funktionen C-linear unabhängig: • eλ1 t , teλ1 t , . . . , tk1 −1 eλ1 t , • eλ2 t , teλ2 t , . . . , tk2 −1 eλ2 t , . • .. • eλr t , teλr t , . . . , tkr −1 eλr t . Zuerst bemerken wir das folgende Korollar Korollar B.0.2. Seien µ1 , . . . , µ` ∈ R, z1 = α1 +iβ1 , . . . , zs = αs +iβs ∈ C\R und k1 , . . . , k` m1 , . . . , ms ∈ N \ {0}. Dann sind die folgenden Funktionen R-linear unabhängig: • eµ1 t , teµ1 t , . . . , tk1 −1 eµ1 t , . • .. • eµ` t , teµ` t , . . . , tkr −1 eµ` t , • eα1 t sin(β1 t), eα1 t cos(β1 t), . . . , tm1 −1 eα1 t sin(β1 t), tm1 −1 eα1 t cos(β1 t), . • .. 190 Anhang B. Lineare unabhängigkeit der Exponentialen 191 • eαs t sin(βs t), eαs t cos(βs t), . . . , tms −1 eαs t sin(βs t), tms −1 eαs t cos(βs t). Beweis. Sei A die Menge der obigen Funktionen. Wir werden zeigen dass A C-linear unabhängig ist, d.h. eine stärkere Aussage. Wir setzen r = ` + 2s und • λj = µj , nj = kj für j = 1, . . . , `; • λj = zj−` , nj = mj−` für j = ` + 1, . . . , ` + s; • λj = zj−`−s , nj = mj−`−s für j = ` + s + 1, . . . , ` + 2s = r. Wir nehmen dann die Menge B der Funktionen vom Lemma B.0.1. Die Kardinalität von A und B ist gleich, d.h. r. Sei nun V der von B erzeugte (komplexe) Vektorraum. Da eiβt − e−iβt eiβt + e−iβt cos βt = und sin βt = , 2 2i ist jedes Element von V ist eine lineare Kombination von Elementen von A. Anderseits ist B eine Basis von V und die (komplexe) Dimension von V ist dann r. Da A r Elemente enthält, müssen diese linear unabhängig sein. Das Lemma B.0.1 ist besonders einfach wenn ki = 1 für alle i. In dem Fall sei n = k1 + . . . + kr . Wir schreiben A = {f1 , . . . , fn }. Die lineare Unabhängigkeit bedeutet: µ1 f1 + . . . µn fn = 0 =⇒ µ1 = . . . = µn = 0 . Seien also µ1 , . . . , µn ∈ C so dass µ1 f1 + . . . + µn fn = 0. Dann haben wir (k) µ1 f1 + . . . + µn fn(k) = 0 für alle k . Zu jeder Funktion fj werden wir einen Vektor wj ∈ Rn zuordenen: (n−1) wj = (fj (0), fj0 (0), . . . , fj (0)) . Deshalb haben wir µ1 w 1 + . . . + µn w n = 0 . (B.1) Anhang B. Lineare unabhängigkeit der Exponentialen 192 Wir betrachten nun die Matrix B deren j-te Spalte der Vektor wj ist. Falls µ = (µ1 , . . . , µn ) ∈ Rn , dann (B.1) wird B · µ = 0. (B.2) Wir behaupten, dass die Matrix B invertierbar ist: diese Behauptung impliziert sofort dass µ = 0 und dann sind wir fertig. In der Tat ist B eine Vandermonde Matrix: 1 1 ... 1 λ1 λ . . . λ 2 n λ2 λ22 ... λ2n 1 B= (B.3) .. .. .. . . . n−1 n−1 n−1 λ1 λ2 ... λn Es ist nicht schwer die Determinante der Matrix B zu berechnen: det B = Y (λj − λk ) . 1≤k<j≤n Da λi alle verschieden sind, ist det B 6= 0. Um den allgemeinen Fall zu begründen, werden wir die folgende einfache Bemerkung nutzen: Lemma B.0.3. Seien µ, λ ∈ C und sei P (t) ein Polynom mit Grad k. Dann ist (D − λ)(P (t)eµt ) = Q(t)eµt wobei: • Q ist ein Polynom mit Grad k wenn λ 6= µ; • Q ist ein Polynom mit Grad k − 1 wenn λ = µ und k ≥ 1; • Q = 0 wenn λ = µ und P eine Konstante ist. Beweis. Trivial. Anhang B. Lineare unabhängigkeit der Exponentialen 193 Beweis des Lemmas B.0.1. Zuerst bemerken wir, dass falls die Funktionen linear abhängig sind, dann gibt es Polynome P1 , . . . , Pr , so dass P1 (t)eλ1 t + . . . + Pr (t)eλr t identisch null ist, aber mindenstens ein Pj nicht trivial ist. OBdA nehmen wir an dass P1 nicht trivial ist. Sei Q(D) der Operator Q(D) = (D − λ2 )k2 (D − λ3 )k3 · · · (D − λr )kr . Aus dem Lemma B.0.3 folgt dass: • Q(D)(Pj (t)eλj t ) = 0 für jedes j 6= i; • Q(D)(P1 (t)eλ1 t ) = P̄1 (t)eλ1 t , wobei P̄1 den gleichen Grad hat wie P1 und deshalb nichttrivial ist. P Anderseits muss die Funktion P̄1 (t)eλ1 t = Q(D)( rk=1 Pk (t)eλk t ) identisch null sein. Da eλ1 t 6= 0 für alle t, muss P̄1 überall null sein: das ist aber ein Widerspruch. Index C k -Funktion, 52 Derivation, 183 Diffeomorphismus, 98, 160 Differential einer Funktion, 32 Umkehrfunktion, 98 Differential der Umkehrfunktion, 98 Differentialgleichung gewöhnliche, 123 gewöhnliche 1. Ordnung mit getrennten Variablen, 129 lineare gewöhnliche, 125 lineare gewöhnliche mit konstanten Koeffizienten, 133 lineare homogene, 125 von Bernoulli, 132 Differentiationsregeln, 82 Differentiationssatz, 69 differenzierbare Mannigfaltigkeit, 178 Differenzierbarkeit, 79 einer Funktion, 31 Hauptkriterium der, 38 Abbildung differenzierbare, 79 abgeschlossene Hülle, 13 abgeschlossene Kugel, 12 abgeschlossene Menge, 10, 151 Ableitung k-te, 47 der Ordnung k, 47 partielle, 35 Richtungs-, 35 Ableitungsoperator, 139 abstrakte Mannigfaltigkeit, 177 analytische Funktion, 54 Anfangswertproblem, 128 Atlas, 176, 178 Banachscher Fixpunktsatz, 102, 153 Bernoullische Differentialgleichung, 132 Bolzano-Weierstrass Eigenschaft, 21 Cauchy-Folge, 9, 151 Cauchy-Schwarz-Ungleichung, 2 charakteristisches Polynom einer Differentialgleichung, 137 Einbettung, 180 Eindeutigkeitssatz, 156 Euklidische Metrik, 4 194 Index Euklidische Norm, 3 Existenzsatz für Systeme von gewöhnlichen Differentialgleichungen, 150 Exponential einer Matrix, 144 Faktorisierung reelle eines Polynoms, 137 Fehlerabschätzung von Lagrange, 52 Fixpunkt, 102 Fixpunktsatz Banachscher, 153 Banachscher, 102 Fluss, 159 Fundamentalsatz der Algebra, 137 Funktion C k -, 52 analytische, 54 konkave, 62 konvexe, 62 strikt konkave, 62 strikt konvexe, 62 Funktionenfolge gleichgradig stetige, 161 gleichmässig beschränkte, 161 gewöhnliche Differentialgleichung, 123 gewöhnlichen Differentialgleichungen, Systeme von, 141 gleichgradig stetige Funktionenfolge, 161 gleichmässig beschränkte Funktionenfolge, 161 gleichmässige Konvergenz, 71 195 globale Ls̈oung eines Systems von gewöhnlichen Differentialgleichungen, 151 Gradient, 37 Gronwallsches Lemma 1. Version, 135 2. Version, 136 Häufungspunkt, 13 Hölder-Stetigkeit, 18 Haupkriterium der Differenzierbarkeit, 38 Heine-Borel Eigenschaft, 23 Hesse-Matrix, 55 Hilbert-Schmidt-Norm, 28 Homöomorphismus, 160 homogene lineare Differentialgleichung, 125 indefinit, 58 Integral parameterabhängiges, 69 Inverse einer Matrix, 97 Jacobi-Matrix, 37, 82 Kartenwechsel, 176, 178 Kettenregel, 41, 85, 90 Kofaktor, 97 Kompaktheit, 22 Kompaktheit, Überdeckungskompaktheit, 22 Kompaktheit, Folgenkompaktheit, 22 konkave Funktion, 62 Kontraktion, 102, 153 Index Konvergenz einer Folge, 8 gleichmässige, 71 konvexe Funktion, 62 konvexe Menge, 62 Konvexitätskriterium für zwei Mal differenzierbare Funktionen, 67 Kriterium für Extrema, 59 kritischer Punkt, 57 Kugel abgeschlossene, 12 offene, 6 Kurve, 40 Länge einer Kurve, 91 Lagrangsche Multiplikatorenregel, 119 Lagrangsche Fehlerabschätzung, 52 Leibniz Regel, 84 Lemma von Gronwall (1. Version), 135 von Gronwall (2. Version), 136 von Schwarz, 47 Lemma von Gronwall, 155 lineare Abbildung, 28 lineare gewöhnliche Differentialgleichung, 125 lineare gewöhnliche Differentialgleichung mit konstanten Koeffizienten, 133 lineares System mit konstanten Koeffizienten, 142 Lipschitz-Konstante, 156 196 Lipschitz-Stetigkeit, 18 lokale Lösung eines Systems von gewöhnlichen Differentialgleichungen, 150 lokale Umkehrbarkeit Satz über, 101 lokales Maximum, 57 lokales Minimum, 57 Mannigfaltigkeit, 177 Matrix Hessesche, 55 indefinite, 58 Jabobi-, 37, 82 negativ definite, 58 positiv definite, 58 Maximum lokales, 57 mit Nebenbedingungen, 119 Menge abgeschlossene, 151 abgeschlossene, 10 konvexe, 62 offene, 6 sternförmige, 45 Metrik, 5, 151 Euklidische, 4 metrischer Raum, 5, 151 Minimum mit Nebenbedingungen, 119 lokales, 57 Mittelwertsatz, 45 Multiplikationsregel von Lagrange, 119 Index Multiplikatoren von Lagrange, 119 Nebenbedingung, 119 negativ definit, 58 Norm, 4 Euklidische, 3 Hilbert-Schmidtsche, 28 Operator-, 29 normierter Vektorraum, 4 offene Kugel, 6 offene Menge, 6 offener Kern, 13 Operator, 139 Operatornorm, 29 Parametrisierung, 174 partielle Ableitung, 35 Polynom charakteristisches einer Differentialgleichung, 137 positiv definit, 58 Punkt kritischer, 57 stationärer, 57 Rand topologischer, 12 Randpunkt, 12 Raum metrischer, 151 metrischer, 5 topologischer, 7 197 reelle Faktorisierung eines Polynoms, 137 regulärer Wert, 118 Richtungsableitung, 35 Sattelpunkt, 59 Satz von Arzelá-Ascoli, 161 von Picard-Lindelöf, 150 Satz über die lokale Umkehrbarkeit, 101 Schrankensatz, 45, 91 Skalarprodukt, 2 stationärer Punkt, 57 sternförmige Menge, 45 Stetigkeit, 14 Hölder-, 18 Lipschitz-, 18 Stetigkeit der Komposition, 19 strikt konkave Funktion, 62 strikt konvexe Funktion, 62 Systeme von gewöhnlichen Differentialgleichungen, 141 Taylorapproximation, 52 Taylorpolynom, 52 topologische Mannigfaltigkeit, 178 topologischer Rand, 12 topologischer Raum, 7 Umgebung, 6 Ungleichung von Cauchy-Schwartz, 2 Untermannigfaltigkeit, 117, 170 Vandermonde-Matrix, 192 Index Vektorfeld, 149 Vektorraum normierter, 4 Vielfachheit einer Nullstelle, 137 vollständiger metrischer Raum, 152 Wert regulärer, 118 198