Analysis II

Werbung
Analysis II - Vorlesungs-Script
Prof. Dr. Camillo De Lellis
Frühlingssemester 2017
Mitschrift:
Simon Hafner, Paolo Fortunati
Inhaltsverzeichnis
1. Metrik und Topologie des Euklidischen Raumes
1.1. Das Skaparprodukt . . . . . . . . . . . . . . .
1.2. Die Euklidische Norm . . . . . . . . . . . . . .
1.3. Die Euklidische Metrik . . . . . . . . . . . . .
1.4. Die Euklidische Topologie . . . . . . . . . . .
1.5. Konvergenz . . . . . . . . . . . . . . . . . . .
1.6. Mehr Topologie . . . . . . . . . . . . . . . . .
1.7. Stetigkeit . . . . . . . . . . . . . . . . . . . .
1.8. Rechenregeln für Grenzwerte und Stetigkeit .
1.9. Die Bolzano-Weierstrass Eigenschaft . . . . .
1.10. Kompaktheit . . . . . . . . . . . . . . . . . .
1.11. Maxima und Minima . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
3
4
6
8
10
13
19
21
22
26
2. Differenzierbare Funktionen
2.1. Lineare Abbildungen . . . . . . . . . . . . . .
2.2. Differenzierbare Funktionen . . . . . . . . . .
2.3. Die Richtungsableitung . . . . . . . . . . . . .
2.4. Die partiellen Ableitungen und die Darstellung
2.5. Die Jacobi-Matrix und der Gradient . . . . . .
2.6. Das Hauptkriterium für die Differenzierbarkeit
2.7. Kurven und die erste Version der Kettenregel
2.8. Der Mittelwert- und der Schrankensatz . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
des Differentials
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
28
28
31
34
35
37
38
40
44
3. Höhere Ableitungen und die Taylorentwicklung
3.1. Höhere partielle Ableitungen . . . . . . . . .
3.2. Das Lemma von Schwarz . . . . . . . . . . .
3.3. Das Taylorpolynom . . . . . . . . . . . . . .
3.4. Das Taylorpolynom zweiter Ordnung . . . .
3.5. Maxima, Minima und die Hesse Matrix . . .
3.6. Konvexität . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
46
46
47
52
55
57
62
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4. Differentiation parameterabhängiger Integrale
69
4.1. Differentationssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.2. Folgerungen des Differentiationssatzes . . . . . . . . . . . . . . . . . . 74
i
Inhaltsverzeichnis
4.3. Der Satz von Fubini
ii
. . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5. Differenzierbare Abbildungen
5.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Differentiationsregeln . . . . . . . . . . . . . . . . . . . . . . . .
5.3. Die Kettenregel . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.4. Der verallgemeinerte Schrankensatz . . . . . . . . . . . . . . . .
5.5. Umkehrbare Abbildungen und Diffeomorphismen . . . . . . . .
5.6. Der Satz von der lokalen Umkehrbarkeit . . . . . . . . . . . . .
5.7. Beweis des Satzes über die lokale Umkehrbarkeit . . . . . . . . .
5.7.1. Schritt 1: . . . . . . . . . . . . . . . . . . . . . . . . . .
5.7.2. Schritt 2: . . . . . . . . . . . . . . . . . . . . . . . . . .
5.7.3. Schritt 3: . . . . . . . . . . . . . . . . . . . . . . . . . .
5.7.4. Schritt 4: . . . . . . . . . . . . . . . . . . . . . . . . . .
5.7.5. Schritt 5: . . . . . . . . . . . . . . . . . . . . . . . . . .
5.7.6. Schritt 6: . . . . . . . . . . . . . . . . . . . . . . . . . .
5.8. Lösungen von Gleichungen: Der Satz über implizite Funktionen
5.9. Untermannigfaltigkeiten des Rn . . . . . . . . . . . . . . . . . .
5.10. Die Multiplikationsregel von Lagrange . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
79
79
82
85
90
96
101
103
103
104
106
106
107
107
110
117
119
6. Gewöhnliche Differentialgleichungen
6.1. Lineare gewöhnliche Differentialgleichungen . .
6.2. Das Anfangswertproblem . . . . . . . . . . . . .
6.3. Differentialgleichungen mit getrennten Variablen
6.4. Lineare GDGL mit konstanten Koeffizienten . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
123
125
128
129
133
7. Systeme von gewöhnlichen Differentialgleichungen
7.1. Lineare Systeme mit konstanten Koeffizienten .
7.2. Das Theorem von Picard-Lindelöf . . . . . . . .
7.3. Eindeutigkeit und stetige Abhängigkeit . . . . .
7.4. Fluss eines Vektorfeldes . . . . . . . . . . . . .
7.5. Differenzierbare Abhängigkeit . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
141
142
149
155
159
160
8. Differenzierbare Mannigfaltigkeiten
8.1. Karten für Untermannigfaltigkeiten Euklidischer Räume . . . . . .
8.2. Parametrisierungen . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3. Kartenwechseln und Atlanten für Untermmanigfaltigkeiten . . . . .
8.4. Abstrakte Mannigfaltigkeiten . . . . . . . . . . . . . . . . . . . . .
8.5. Der Tangentialraum für Untermannigfaltigkeiten . . . . . . . . . . .
8.6. Derivationen: der Tangentialraum für abstrakte differenzierbare Mannigfaltigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
169
. 170
. 173
. 176
. 177
. 180
. 183
Inhaltsverzeichnis
iii
8.7. Lokale Koordinaten und der Tangentialraum . . . . . . . . . . . . . . 184
A. Das Cantor-Diagonalargument
189
B. Lineare unabhängigkeit der Exponentialen
190
1. Metrik und Topologie des
Euklidischen Raumes
Sei Rn = {(x1 , · · · , xn ) , xi ∈ R}. Wir führen folgende neue Begriffe in Rn ein:
• das Euklidische Skalarprodukt
• die Euklidische Norm
• der Euklidische Abstand
• die dadurch induzierte Topologie.
Wir betrachten gleichzeitig auch die entsprechenden Verallgemeinerungen, d.h. die
“Abstrakte Theorie” der
• Skalarprodukte;
• normierten Vektorräume;
• metrischen Räume;
• topologischen Räume.
1.1. Das Skaparprodukt
Definition 1.1.1.
Das Euklidische Skalarprodukt ist die folgende bilineare Abbildung
n
n
R × R 3 (x, y)
7→
hx, yi :=
n
X
i=1
1
xi yi ,
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
2
wobei x1 , . . . , xn und y1 , . . . , yn die Koordinaten der Vektoren x und y sind.
Lemma 1.1.2 (Die drei fundamentalen Eigenschaften des Skalarproduktes).
Es gelten
(a) hx, xi ≥ 0, wobei die Gleichung gilt genau dann, wenn x = 0 ( Positivität);
(b) hx, yi = hy, xi ∀x, y ∈ Rn ( Symmetrie);
(c) hλx + µy, zi = λhx, zi + µhy, zi ∀λ, µ ∈ R und ∀x, y, z ∈ Rn ( Bilinearität).
Beweis. Die Eigenschaften sind alle trivial.
Definition 1.1.3.
Sei V ein reeller Vektorraum. Ein Skalarprodukt auf V ist eine Abbildung
V × V 3 (x, y)
7→
hx, yi ∈ R
die die Eigenschaften (a), (b) und (c) in Lemma 1.1.2 besitzt (wobei x, y, z ∈ V
statt x, y, z ∈ Rn ).
Satz 1.1.4 (Cauchy-Schwarz-Ungleichung).
Sei V ein reeller Vekttoraum und h, i ein Skalarprodukt auf V . Dann gilt
hx, yi2 ≤ hx, xihy, yi
∀x, y ∈ V .
(1.1)
Im Falle des Euklidischen Skalarproduktes erhalten wir die Euklidische CauchySchwarz Ungleichung:
v
v
u n
u n
n
X
uX uX
2t
t
xi y i ≤
xi
yi2 .
(1.2)
i=1
i=1
i=1
Beweis. O.B.d.A. sei y 6= 0 (falls y = 0, dann ist die Aussage trivial: hx, 0i = 0
wegen der Bilinearität). Wir definieren die quadratische Funktion
t 7→ g(t) = hx + ty, x + tyi = hx, xi + 2thx, yi + t2 hy, yi .
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
3
g ist imnmer positiv und besitzt ein einizges Minimum an der Stelle
tmin = −
hx, yi
.
hy, yi
Deswegen
hx, yi2
.
0 ≤ g(tmin ) = hx, xi −
hy, yi
(1.2) folgt aus (1.1)
1.2. Die Euklidische Norm
Definition 1.2.1.
Sei x ∈ Rn (x = (x1 , · · · , xn ), xi ∈ R). Die Euklidische Norm von x ist
|x|e :=
q
v
u n
p
uX
2
2
x1 + · · · + xn = t
x2i = hx, xi .
i=1
Wir schreiben oft |x| statt |x|e .
Lemma 1.2.2.
Die Euklidische Norm | · | erfüllt folgende Regeln:
(a) |x| ≥ 0 und |x| = 0 ⇐⇒ x = 0 ( Positivität);
(b) |λx| = |λ||x| ∀λ ∈ R, ∀x ∈ R ( Homogenität);
(c) |x + y| ≤ |x| + |y| ∀x, y ∈ R ( Dreiecksungleichung).
Beweis. (a) folgt aus der Positivität des Skalarproduktes. (b) folgt aus der Bilinearität des Skalarproduktes. (c) ist äquivalent zu
|x + y|2 ≤ |x|2 + |y|2 + 2|x||y| .
Durch Ausrechnen erhalten wir
|x|2 + 2hx, yi + |y|2 ≤ |x|2 + |y|2 + 2|x||y| .
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
4
Deswegen ist (c) äquivalent zu |hx, yi| ≤ |x||y|. Dies ist aber die Ungleichung von
Cauchy-Schwarz.
Definition 1.2.3.
Ein normierter Vektorraum ist ein reeller Vektorraum V mit einer Abbildung V 3
x 7→ |x| ∈ R die die Eigenschaften (a), (b) und (c) in Lemma 1.2.2 erfüllt. Eine
solche Abbildung heisst Norm.
Der Beweis von Lemma 1.2.2 nutzt nur die drei Eigenschaften die jedes Skalarprodukt erfüllt. Deswegen schliessen wir den folgenden
Satz 1.2.4.
Sei V ein reeller Vektorraum und h, i ein Skalarprodukt auf V . Die Abbildung x 7→
p
kxk := hx, xi ist eine Norm auf V (k · k heisst die von h, i induzierte Norm).
Beispiel 1.2.5.
Sei V = Rn , mit n ≥ 2. Dann definiert
kxk∞ := max |xi |
i
eine Norm auf V . Diese Norm wird aber von keinem Skalarprodukt induziert. In der
Tat ist es einfach zu sehen dass, wenn k · k von einem Skalarprodukt induziert wird,
dann gilt die Parallelogrammungleichung
kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2
∀x, y ∈ Rn .
Solche Gleichung ist aber falsch für k·k∞ (nehmen Sie zum Beispiel x = (1, 1, 0, . . . , 0)
und y = (−1, 1, 0, . . . , 0)).
1.3. Die Euklidische Metrik
Sei x ∈ Rn . Intuitiv ist |x| =”der Abstand zwischen x und 0“. In der Tat, wenn
n = 2, zeigt der Satz von Pytaghoras, dass |x| die Länge des Segments mit Anfangsbzw. Endpunkt x und 0 ist.
Definition 1.3.1.
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
5
Seien x, y ∈ Rn . Dann definieren wir die Euklidische Metrik mittels de (x, y) := |x−y|
(oft einfach mit d bezeichnet).
Lemma 1.3.2.
Es gelten
(a) d(x, y) ≥ 0 und d(x, y) = 0 ⇐⇒ x = y ( Positivität);
(b) d(x, y) = d(y, x) ( Symmetrie);
(c) d(x, z) ≤ d(x, y) + d(y, z) ( Dreiecksungleichung).
Beweis. Die ersten zwei Aussagen sind trivial. Um die letzte zu beweisen, erhalten
wir zuerst
|x − z| ≤ | x − y | + | y − z |
| {z }
| {z }
=:v
=:w
von Lemma 1.2.2(c) (da x − z = v + w). Deshalb
d(x, z) = |v + w| ≤ |v| + |w| = d(x, y) + d(y, z) .
Definition 1.3.3.
Ein metrischer Raum besteht aus einer Menge X zusammen mit einer Abbildung
d : X × X → R (x, y)
7→
d(x, y) ∈ R ,
so dass die Eigenschaften (a), (b) und (c) in Lemma 1.3.2 für jedes x, y, z ∈ X
gelten.
Lemma 1.3.4.
Sei (V , k·k) ein normierter Vektorraum. Dann bildet V zusammen mit d(x, y) =
kx − yk einen metrischen Raum.
Beweis. Wir nutzen das gleiche Argument wie in Lemma 1.3.2.
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
6
1.4. Die Euklidische Topologie
Definition 1.4.1.
Die offene Kugel mit Radius r > 0 und Mittelpunkt x ∈ Rn ist die Menge
Kr (x) = {y ∈ Rn : d(x, y) < r} .
Definition 1.4.2.
Eine Menge V ⊂ Rn heisst Umgebung von x, wenn sie eine offene Kugel mit Mittelpunkt x enthält. In diesem Fall sagen wir auch dass x ein interner Punkt von V
ist.
Definition 1.4.3.
Eine Menge U ⊂ Rn heisst offen wenn jeder Punkt x ∈ U ein interner Punkt von U
ist (d.h., ∀x ∈ U ist U eine Umgebung von x).
Bemerkung 1.4.4.
Die Dreiecksungleichung impliziert, dass jede offene Kugel eine offene Menge ist. In
der Tat sei y ∈ Kr (x). Dann ist ρ := d(x, y) < r. Sei τ := r − ρ > 0. Falls z ∈ Kτ (y),
dann ist d(x, z) ≤ d(x, y) + d(y, z) = ρ + d(y, z) < ρ + τ = r. D.h., Kτ (y) ⊂ Kr (x).
Dies beweist, dass Kr (x) eine Umgebung für alle darin enthaltenen Elemente ist,
d.h. Kr (x) ist offen.
Satz 1.4.5.
Es gilt:
(a) ∅ und Rn sind offen.
(b) Der Durchschnitt endlich vieler offener Mengen ist offen.
(c) Die Vereinigung einer beliebigen Familie offener Mengen ist offen.
Beweis.
1. Der Rn ist trivialerweise offen, wie auch ∅.
2. Sei x ∈ U1 ∩ · · · ∩ UN , wobei jedes Ui eine offene Menge ist. Dann gilt
∀i ∈ {1, . . . , N }
∃ri > 0 so dass Kri (x) ⊂ Ui .
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
7
Sei nun r = min {r1 , . . . , rN } > 0, dann folgt
Kr (x) ⊂ Ui
∀i =⇒ Kr (x) ⊂ U1 ∩ · · · ∩ UN .
3. Wir betrachten eine beliebige Familie {Uλ }λ∈Λ offener Mengen. Sei U :=
S
λ∈Λ Uλ . Dann gilt
x ∈ U =⇒ x ∈ Uλ für ein λ ∈ Λ
=⇒ ∃Kr (x) ⊂ Uλ ⊂ U.
Definition 1.4.6.
Ein topologischer Raum ist eine Menge X und eine Menge O ⊂ P(X), so dass
1. ∅, X ∈ O;
2. U1 ∩ · · · ∩ UN ∈ O, falls Ui ∈ O ∀i ∈ {1, . . . , N };
3.
S
λ∈Λ
Uλ ∈ O, falls Uλ ∈ O ∀λ ∈ Λ.
O heisst die Topologie auf X.
Der Beweis vom Satz 1.4.5 nutzt nur die fundamentalen Eigenschaften einer Metrik. Deswegen schliessen wir auch den folgenden allgemeineren
Satz 1.4.7.
Sei (X, d) ein metrischer Raum. Wir definieren die offene Kugel mit Mittelpunkt
x ∈ X und Radius r > 0 wie folgt:
Kr (x) = {y ∈ X : d(x, y) < r} .
Umgebungen und offene Mengen sind wie im Euklidischen Fall definiert. Dann definiert O = {A ⊂ X : A ist eine offene Menge} eine Topologie auf X.
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
8
1.5. Konvergenz
Definition 1.5.1.
Die Folge xk k∈N in Rn (oder, allgemeiner, in einem metrischen Raum X mit Metrik
d) konvergiert gegen x ∈ Rn , falls
lim d(xk , x) = 0 .
k→∞
In diesem Fall schreiben wir
x = lim xk
k→∞
oder auch
xk → x .
Bemerkung 1.5.2 (ε − δ Formulierung der Konvergenz).
Die Folge {xk }k∈N konvergiert genau dann gegen x, wenn
∀ε > 0, ∃N ∈ N
so dass
d(xk , x) < ε ∀k ≥ N .
(1.3)
Eine äquivalente Formulierung von (1.3) ist
Jede Kugel Kε (x) (und deswegen jede Umgebung U von x) enthält fast alle xk .
(1.4)
Satz 1.5.3 (Koordinatenkriterium für die Konvergenz einer Folge {xk }k∈N ⊂ Rn ).
Sei {xk }k∈N ⊂ Rn , xk = xk1 , · · · , xkn . Es gilt
xk → x
⇐⇒
xki → xi ∀i ∈ {1, · · · , n} .
Beweis. Wir bemerken, dass
v
u n
uX
2 k
xki − xi ≥ xki − xi ≥ 0 .
|x − x| = t
i=1
Deshalb folgt die Richtung =⇒ . Für die andere Richtung nutzen wir die Rechen-
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
9
regeln für Grenzwerte reeller Folgen: aus
lim xki = xi
k→∞
folgt
v
u n
uX
2
lim t
xki − xi = 0 .
k→∞
i=1
Definition 1.5.4.
Eine Folge xk k∈N in Rn (allgemeiner in einem metrischen Raum X mit Metrik d)
heisst Cauchy-Folge, falls gilt:
∀ε > 0 ∃N ∈ N
so dass
d(xk , xj ) < ε ∀j, k ≥ N.
Lemma 1.5.5.
k
x k∈N ⊂ Rn konvergiert genau dann, wenn xk k∈N eine Cauchy-Folge ist.
Beweis. Sei xk k∈N eine Cauchy-Folge. Dann ist auch {xki }k∈N , für jedes fixierte i,
eine Cauchy-Folge, weil
k
xi − xj ≤ |xk − xj | .
i
k
xi k∈N ist eine Cauchy-Folge reeller Zahlen und aus der Analysis I schliessen wir
dass xki gegen irgendeine reelle Zahl xi konvergiert. Wenn wir x = (x1 , . . . , xn )
betrachten, impliziert der Satz 1.5.3 die Konvergenz von {xk }k∈N nach x.
Nun beweisen wir die Umkehrung: {xk }k∈N konvergiert =⇒ Cauchy-Folge. Sei
x = lim xk
k→∞
und ε eine positive Zahl. Dann ∃N ∈ N so dass
d(xk , x) <
ε
2
∀k ≥ N .
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
10
Aus der Dreiecksungleichung folgt
d(xk , xj ) ≤ d(xk , x) + d(xj , x) <
ε ε
+ =ε
2 2
∀k, j ≥ N .
Bemerkung 1.5.6.
Im zweiten Teil des letzten Beweis haben wir nur die Dreiecksungleichung benutzt.
Deshalb gilt die folgende Aussage in jedem metrischen Raum: Jede konvergente Folge
ist eine Cauchy-Folge. Aber die Cauchy-Bedingung impliziert nicht die Konvergenz
in jedem metrischen Raum. Falls jede Cauchy-Folge in einem metrischen Raum
konvergiert, dann heisst der metrische Raum vollständig.
1.6. Mehr Topologie
Definition 1.6.1.
Eine Menge G ⊂ Rn heisst abgeschlossen, falls Gc (:= Rn \ G) eine offene Menge ist.
Bemerkung 1.6.2.
In diesem Teil der Vorlesung werden wir oft die folgenden elementaren Eigenschaften
verwenden:
(Ac )c = A
(A ∪ B)c = Ac ∩ B c
(A ∩ B)c = Ac ∪ B c
(A \ B)c = (A ∩ B c )c = Ac ∪ (B c )c = Ac ∪ B
und allgemeiner
!c
[
Uλ
=
λ∈Λ
\
Uλc
λ∈Λ
!c
\
λ∈Λ
Satz 1.6.3.
Uλ
=
[
λ∈Λ
Uλc .
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
11
Es gilt:
1. ∅ und Rn sind abgeschlossen.
2. G1 , · · · , GN abgeschlossen =⇒ G1 ∪ G2 ∪ · · · ∪ GN abgeschlossen.
T
3. {Gλ }λ∈Λ abgeschlossen =⇒ λ∈Λ Gλ abgeschlossen.
Beweis. Diese Eigenschaften sind Folgerungen aus den entsprechenden Eigenschaften der offenen Mengen und den Identitäten in Bemerkung 1.6.2.
Satz 1.6.4.
G ⊂ Rn ist genau dann abgeschlossen, wenn gilt:
Für jede konvergente Folge xk k∈N ⊂ G gehört der Grenzwert zu G.
(1.5)
Bemerkung 1.6.5.
Es ist leicht zu sehen, dass der folgende Beweis auch für allgemeine metrische Räume
gilt.
Beweis. ⇐= : Wir nehmen an, dass (1.5) gilt. Zu beweisen: Gc ist offen. Sei x ∈ Gc .
Wir müssen nun eine Kugel Kr (x) ⊂ Gc finden. Widerspruchsbeweis: falls
K 1 (x) 6⊂ Gc , j ∈ N \ {0}, dann gilt
j
∃xj ∈ K 1 (x) ∩ G .
j
Die Folge {xj } gehört zu G und xj → x 6∈ G. Aber diese letzte Aussage widerspricht (1.5). Also muss Gc offen sein.
=⇒ : Wir beweisen nun die andere Aussage. Widerspruchsbeweis: Gc ist offen, aber
∃ xk ⊂ G mit Grenzwert x 6∈ G, d.h. x ∈ Gc . Da Gc offen ist,
∃Kr (x) ⊂ Gc
so dass Kr (x) ∩ G = ∅ .
Aber die Konvergenz gegen x impliziert die Existenz einer Zahl N ∈ N, so
dass d(xk , x) < r für jede k ≥ N . Da xk ∈ G, kann G ∩ Kr (x) nicht lehr sein.
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
12
Beispiel 1.6.6.
Die offene Kugel Kr (x) ⊂ Rn ist nicht abgeschlossen. In der Tat sei z ∈ Rn mit
|z| = r. Dann
1
k
z ∈ Kr (x)
∀k ,
y := x + 1 −
k+1
aber y k → x + z 6∈ Kr (x). Trotzdem, in einem allgemeinen metrischen Raum können
offene Kugeln auch abgeschlossen sein: finden Sie ein Beispiel.
Definition 1.6.7.
Die abgeschlossene Kugel (in Rn oder in einem metrischen Raum (X, d)) ist wie folgt
definiert: K r (x) := {y ∈ X : d(y, x) ≤ r}.
Übung 1.6.8.
K r (x) ist tatsächlich eine abgeschlossene Menge.
Definition 1.6.9.
x ∈ Rn (bzw. x ∈ X metrischer Raum) heisst Randpunkt von M , falls
∀r > 0
∃y ∈ Kr (x) ∩ M und ∃z ∈ Kr (x) ∩ M c .
Definition 1.6.10.
Sei M eine beliebige Teilmenge in Rn (bzw. im metrischen Raum X). Dann ist der
Rand von M wie folgt definiert:
∂M = {x ∈ Rn | x ist ein Randpunkt von M } .
Übung 1.6.11.
Die Sphäre Sr (x) := {y ∈ Rn : d(y, x) = r} ist der Rand der offenen Kugel Kr (x) ⊂
Rn und deswegen wird mit ∂Kr (x) bezeichnet. Diese Behaputung gilt aber nicht in
jedem metrischen Raum: Allgemein gilt nur, dass der Rand von Kr (x) in Sr (x)
enthalten ist.
Satz 1.6.12.
Sei M ⊂ Rn . Dann ist ∂M c = ∂M . Zudem gilt:
1. M \ ∂M ist die grösste offene Menge, die in M enthalten ist. Sie heisst der
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
13
offene Kern von M und wird mit M̊ bezeichnet.
2. M ∪ ∂M ist die kleinste geschlossene Menge, die M enthält. Sie heisst die
abgeschlossene Hülle von M und wird mit M bezeichnet.
Beweis. Die Aussage ∂M = ∂M c ist offensichtlich wahr.
Beweis von 1. Zuerst zeigen wir, dass M \ ∂M offen ist:
x ∈ M \ ∂M =⇒ x ∈ M und ∃Kr (x) mit Kr (x) ∩ M c = ∅
=⇒
Kr (x) ⊂ M.
Sei y ∈ Kr (x), dann folgt
|y − x| = ρ < r =⇒ Kr−ρ (y) ⊂ Kr (x) ⊂ M =⇒ y ∈ M, y 6∈ ∂M,
und damit
Kr (x) ⊂ M \ ∂M.
Da x beliebig war, folgt dass M \ ∂M offen ist.
Sei nun A ⊂ M eine offene Menge und sei x ∈ A. Das Ziel ist, zu zeigen, dass
x 6∈ ∂M .
A offen =⇒ ∃Kr (x) ⊂ A ⊂ M =⇒ x 6∈ ∂M .
Beweis von 2. Wegen 1. folgt, dass M c \ ∂M c die grösste offene Teilmenge von
M c ist. Deswegen ist (M c \ ∂M c )c die kleinste abgeschlossene Menge, die M enthält.
Aber
(M c \ ∂M c )c = (M c )c ∪ ∂M c = M ∪ ∂M c = M ∪ ∂M .
1.7. Stetigkeit
Definition 1.7.1.
Sei E ⊂ Rn . Ein Punkt x ∈ Rn ist ein Häufungspunkt von E falls jede Kugel Kr (x)
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
14
unendlich viele Elemente von E enthält. Ein Punkt x ∈ E, der kein Häufungspunkt
ist, heisst ein isolierter Punkt.
Bemerkung 1.7.2.
x ist ein Häufungspunkt von E genau dann, wenn E eine Folge {xk }k∈N enthält mit
xk 6= x und limk xk = x. E ist abgeschlossen genau dann, wenn alle Häufungspunkte
von E zu E gehören.
Definition 1.7.3.
Sei Ω ⊂ Rn , x ein Häufungspunkt von Ω und f : Ω → Rm eine Abbildung. Der
Limes
` := lim f (y)
y→x
existiert, wenn für jedes ε > 0 ∃δ > 0 so dass
d(x, y) < δ und y ∈ Ω \ {x}
=⇒
d(f (y), `) < ε .
Definition 1.7.4.
Sei f : Rn ⊃ Ω → Rm . f ist stetig an der Stelle x ∈ Ω, falls
• entweder x ein isolierter Punkt ist;
• oder
lim f (y) = f (x) .
y→x
Satz 1.7.5 (Folgenkriterium für die Stetigkeit).
Eine Funktion f : Ω → Rm ist stetig in x ∈ Ω genau dann, wenn für jede Folge
{xk }k∈N ⊂ Ω mit xk → x gilt f (xk ) → f (x).
Sei x in Häufungspunkt von Ω. Der Limes
lim f (y)
y→x
existiert und ist ` genau dann, wenn für jede Folge {xk }k∈N ⊂ Ω \ {x} mit xk → x
gilt f (xk ) → `.
Beweis. Die erste Behauptung folgt aus der zweiten, da die Aussage trivial ist wenn
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
15
x ein isolierter Punkt ist. Sei nun x ein Häufungspunkt von Ω und
` = lim f (y) .
y→x
Sei {xk } ⊂ Ω \ {x} mit xk → x. Für jedes ε > 0 ∃δ > 0 so dass d(f (y), `) < ε für
alle y ∈ Ω \ {x} mit d(x, y) < δ. Sei nun N ∈ N so dass d(xk , x) < δ ∀k ≥ N . Dann
d(f (xk ), `) < ε für jede k ≥ N . Daher folgt die Konvergenz von {f (xk )} nach `.
Umgekehrt, nehmen wir an dass der Limes nicht existiert oder nicht ` ist. Dann
∃ε > 0 so dass, für jede δ > 0 ∃xδ ∈ Ω \ {x} mit d(xδ , x) < δ aber d(f (xδ ), `) ≥ ε.
1
und xj := xδ . Die Folge {xj }j∈N gehört zu Ω\{x} und konvergiert
Wir sezten δ = j+1
nach x, aber f (xδ ) konvergiert nicht nach `.
Lemma 1.7.6.
Eine äquivalente Definition der Stetigkeit an der Stelle x ist
∀ε > 0, ∃δ > 0
so dass
f (Kδ (x) ∩ Ω) ⊂ Kε (f (x)).
Beweis. Die Aussage folgt direkt aus der Definition.
Definition 1.7.7.
Die allgemeine Definition der Stetigkeit für metrische Räume lautet wie folgt: Seien
(X, d) und (Y, d) zwei metrische Räume. Sei f : X → Y . f ist stetig an der Stelle x,
falls
¯ (y), f (x)) < ε,
∀ε > 0 ∃δ > 0 mit d(y, x) < δ =⇒ d(f
das heisst
f (Kδ (x)) ⊂ Kε (f (x)) .
Definition 1.7.8.
Eine Abbildung f : X → Y heisst stetig, falls f an jeder Stelle x ∈ X stetig ist.
Satz 1.7.9 (Charakterisierung der Stetigkeit durch offene Mengen).
Sei f : X → Y , wobei (X, d) und (Y, d) metrische Räume sind. Dann gilt:
1. f ist stetig in x ⇐⇒ ∀ Umgebung U von f (x) ist f −1 (U ) eine Umgebung von
x.
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
16
2. f ist stetig ⇐⇒ f −1 (U ) ist offen ∀ U offen.
Beweis.
1.
• Stetigkeit =⇒ Umgebung. Sei U eine Umgebung von f (x).
Dann gibt es ein δ > 0 mit Kδ (f (x)) ⊂ U . Dann folgt aus der Stetigkeit
∃ε > 0 : f (Kε (x)) ⊂ Kδ (f (x))
und damit
f −1 (U ) ⊃ f −1 (Kδ (f (x))) ⊃ Kε (x).
Also ist f −1 (U ) eine Umgebung von x.
• Umgebung =⇒ Stetigkeit. Sei ε > 0 und U := Kε (f (x)). Dann
ist U eine Umgebung von f (x). Weiter ist f −1 (U ) eine Umgebung von x.
Also gilt
∃δ > 0 so dass Kδ (x) ⊂ f −1 (U )
und damit folgt
f (Kδ (x)) ⊂ U = Kε (f (x)).
2.
• Stetigkeit =⇒ offen. Sei U offen ⇐⇒ ∀y ∈ U ist U eine Umgebung
von y. Nun gilt:
f −1 (U ) 3 x =⇒ f (x) ∈ U
Stetigkeit in x
=⇒
f −1 (U ) ist eine Umgebung von x .
Also ist f −1 (U ) offen.
• offen =⇒ Stetigkeit. Sei x ∈ X, und ε > 0. Dann ist Kε (f (x))
eine offene Menge und somit auch f −1 (Kε (f (x))). Aber x gehört zu
f −1 (Kε (f (x))), also folgt (aus der Offenheit von f −1 (Kε (f (x))))
∃δ > 0 so dass Kδ (x) ⊂ f −1 (Kε (f (x))) =⇒ f (Kδ (x)) ⊂ Kε (f (x)).
Wir führen deshalb den Begriff der Stetigkeit für Abbildungen zwischen topologischen Räumen ein.
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
17
Definition 1.7.10.
Seien (X, τX ) und (Y, τY ) zwei topologische Räume. Eine Abbildung f : X → Y
heisst stetig in x ∈ X wenn:
für jede Umgebung U von f (x) ist f −1 (U ) eine Umgebung von x.
(1.6)
Die Abbildung heisst überall stetig, wenn das Urbild jeder offenen Menge U ∈ τY
eine offene Menge (d.h. ein Element von τX ) ist.
Korollar 1.7.11.
Sei Ω ⊂ Rn und f : Ω → Rm . f ist stetig genau dann, wenn
∀U ⊂ Rm offen ∃V ⊂ Rn offen mit f −1 (U ) = V ∩ Ω .
Beweis. Wir definieren den folgenden metrischen Raum: X = Ω und d(x, y) = |x−y|
(d.h. d ist die Einschränkung der üblichen Euklidischen Abstandfunktion auf Ω×Ω).
Die Stetigkeit von f ist dann äquivalent zur Stetigkeit von f : X → Rm . Aus dem
Satz 1.7.9 folgt, dass f stetig ist genau dann, wenn
V ⊂ Rn offen
=⇒
f −1 (V ) offen als Teilmenge von X.
Wir wollen nun zeigen, dass W ⊂ X offen ist genau dann, wenn ∃U ⊂ Rn offen mit
W = U ∩ Ω. Sei U offen und x ∈ U ∩ Ω. Dann ∃r > 0 so dass
|y − x| < r
=⇒
y∈U.
Die Kugel Kr (x) ⊂ X ist aber Kr (x) = {y ∈ Ω : |y − x| < r} und deswegen
Kr (x) ⊂ U ∩ Ω, d.h. x ist ein interner Punkt von U ∩ Ω.
Umgekehrt, sei W ⊂ X eine offene Menge. Dann für jedes x ∈ W ∃rx > 0 mit
Krx (x) ⊂ W . Sei nun Krex (x) die Euklidische Kugel, d.h.
Krex (x) := {y ∈ Rm : |y − x| < rx } .
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
18
Wir definieren
U :=
[
Krex (x) .
x∈W
U ist offen und enthält W . Auf der anderen Seite, Krex (x) ∩ Ω = Krx (x) ⊂ W für
jedes x. Deswegen U ∩ Ω ⊂ W . Wir schliessen dass W = U ∩ Ω.
Bemerkung 1.7.12.
Wenn (X, τ ) ein topologischer Raum ist und Y ⊂ X, ist es möglich, eine entsprechende Topologie τY auf Y einzuführen, welche Unterraumtopologie genannt wird:
τY := {U ∩ Y : U ∈ τ } .
Das Korollar 1.7.11 hat, deswegen, die folgende Interpretation: die Stetigkeit der
Abbildung f : Ω → Rm (im Sinne der Definition 1.7.4) ist äquivalent zur Stetigkeit
der Abbildung im Sinne der Definition 1.7.10, wenn wir die Euklidische Topologie
auf Rm und die Unterraumtopologie auf Ω betrachten.
Um die Stetigkeit einer Funktion f zu beweisen, nutzen wir oft eine “Abschätzung”.
Zwei wichtige Beispiele sind die Lipschitz-stetigen und die Hölder-stetigen Funktionen.
Definition 1.7.13.
¯ metrische Räume. Eine Abbildung f : X → Y heisst
Seien (X, d) und (Y, d)
Lipschitz-stetig wenn ∃C mit
¯ (x), f (y)) ≤ Cd(x, y)
d(f
∀x, y ∈ X .
Sei α ∈]0, 1]. Die Abbildung f heisst Hölder-stetig mit Hölder-exponent α wenn ∃C
mit
¯ (x), f (y)) ≤ Cd(x, y)α
d(f
∀x, y ∈ X .
Übung 1.7.14.
Lipschitz-stetige und Hölder-stetige Funktionen sind tatsächlich stetig.
Übung 1.7.15.
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
19
Sei α > 1, C ≥ 0 und f : Rn → Rm eine Abbildung so dass
|f (x) − f (y)| ≤ C|x − y|α
∀x, y ∈ Rn .
Dann ist f konstant.
1.8. Rechenregeln für Grenzwerte und Stetigkeit
Korollar 1.8.1.
Sei Ω ⊂ Rn und f : Ω → Rm eine Abbildung f = (f1 , . . . , fm ). Die Abbildung ist
stetig an der Stelle x genau dann, wenn jede Funktion fi an dieser Stelle stetig ist.
Beweis. Die Aussage ist eine direkte Folgerung des Folgenkriteriums für die Stetigkeit und des Koordinatenkriteriums für die Konvergenz einer Folge von Vektoren.
Aus dem gleichen Argument folgt die Identität
lim f (y) =
y→x
lim f1 (x), . . . , lim fn (x) ,
y→x
y→x
sobald eine der zwei Seiten wohldefiniert ist.
Satz 1.8.2.
Seien f : Rn ⊃ Ω → Γ ⊂ Rk und g : Γ → Rm . Wenn f stetig in x und g stetig in
f (x) sind, dann ist g ◦ f stetig in x.
Beweis. Wir nutzen das Folgenkriterium. Sei {x` }`∈N ⊂ Ω eine Folge mit x` → x.
Die Stetigkeit von f impliziert f (x` ) → f (x): wir können deswegen nochmals das
Folgenkriterium anwenden um zu schliessen dass g ◦ f (x` ) = g(f (x` )) → g(f (x)) =
g ◦ f (x). Die letzte Aussage gilt dann für jede Folge {x` }`∈N ⊂ Ω mit x` → x. Das
Folgenkriterium impliziert den Satz.
Bemerkung 1.8.3.
Das folgende ist ein interessantes alternatives Argument für die Stetigkeit der Komposition wenn beide Funktionen überall stetig sind. Sei A eine offene Menge. Wir
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
20
wenden ein erstes Mal das Korollar 1.7.11 um eine offene Menge B zu finden mit
B ∩ Γ = g −1 (A). Wir wenden dann das Korollar ein zweites Mal um eine offene
Menge C zu finden, so dass C ∩ Ω = f −1 (B). Deshalb
C ∩ Ω = f −1 (B) = f −1 (B ∩ Γ) = f −1 (g −1 (A)) = (g ◦ f )−1 (A) .
Deswegen impliziert das Korollar 1.7.11 die Stetigkeit von g ◦ f .
Der Satz 1.8.2 hat verschiedene wichtige Anwendungen.
1. Summe und Produkte von stetigen Funktionen sind stetig.
Beweis. Wir definieren Φ, Ψ : R2 → R wie folgt:
Φ(x1 , x2 ) = x1 + x2
Ψ(x1 , x2 ) = x1 x2 .
Beide Funktionen sind stetig (in der Tat Φ ist Lipschitz und Ψ|KR (0) ist Lipschitz ∀R). Seien f, g : Ω → R stetig. Dann ist auch Λ = (f, g) stetig (aus
Korollar 1.8.1). Da f + g = Φ ◦ Λ und f g = Ψ ◦ Λ, sind f + g und f g stetig.
2. Jede lineare Abbildung L : Rm → Rn ist stetig
Beweis. Es genügt den Fall n = 1 zu betrachten. Wenn n = 1 ∃v1 , . . . , vn ∈ R
mit L(x) = v1 x1 + . . . + vn xn . Aus der Cauchy-Schwarz Ungleichung folgt dass
L Lipschitz ist.
3. Jedes Polynom P : Rm → R ist stetig.
Beweis. Benutzen Sie 1. und 2.
4. f /g ist stetig falls f und g stetig sind und g nirgendwo null ist.
Beweis. Nutzten Sie ein ähnliches Argument wie in 1.
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
21
1.9. Die Bolzano-Weierstrass Eigenschaft
Definition 1.9.1.
Eine Folge xk k∈N ⊂ Rn heisst beschränkt, falls die Folge reeller Zahlen {|xk |}k∈N
beschränkt ist.
Satz 1.9.2.
Es gilt:
1. Jede konvergente Folge ist beschränkt.
2.
k
x k∈N beschränkt
Weierstrass).
=⇒
∃ Teilfolge
xkj
j∈N
, die konvergiert (Bolzano-
Beweis. Die erste Aussage ist eine triviale Folgerung der Dreiecksungleichung: Wenn
xk gegen x konvergiert, dann ist |xk − x| eine Nullfolge. Deswegen ist |xk − x| eine
beschränkte Folge. Da aber 0 ≤ |xk | ≤ |x| + |xk − x|, ist auch {|xk |}k∈N beschränkt.
Wir beweisen nun die zweite Aussage. Sei (xk1 , . . . , xkn ) = xk ∈ Rn . Dann
k
k
x k∈N beschränkt =⇒ xk1 k∈N beschränkt =⇒ ∃xkj mit x1j → x1 ∈ R.
k
Wir definieren (y1j , . . . , ynj ) = y j := xkj . Wir wissen schon dass y1j = x1j → x1 . Wir
nutzen nun das obige Argument um die Existenz einer Teilfolge j` zu schliessen so
dass
y2jl → x2 ∈ R .
Setzen wir
(z1` , . . . , zn` ) = z ` := y j` ,
dann haben wir
kj
z1` = y1j` = x1 ` → x1
und
z2` = y2j` → x2 .
Wir wenden dieses Verfahren noch n − 2 Mal an um eine Teilfolge {ws }s∈N (mit
ws = (w1s , . . . , wns )) von {xk }k∈N und n reelle Zahlen x1 , . . . , xn zu finden so dass
wis → xi ∈ R
∀i ∈ {1, . . . , n} .
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
22
Wir setzten x := (x1 , . . . , xn ). Die Konvergenz von ws nach x folgt aus dem Koordinatenkriterium.
1.10. Kompaktheit
Definition 1.10.1.
Eine Menge E in einem metrischen Raum X heisst folgenkompakt falls jede Folge
{xk }k∈N ⊂ E eine Teilfolge {xkj }j∈N besitzt, die gegen einen Punkt x ∈ E konvergiert.
Definition 1.10.2.
Eine Menge E ⊂ Rn heisst beschränkt falls ∃r mit E ⊂ Kr (0).
Korollar 1.10.3.
Eine Teilmenge E ⊂ Rn ist folgenkompakt genau dann, wenn E abgeschlossen und
beschränkt ist.
Beweis. Sei E beschränkt und {xk }k∈N ⊂ E. Dann ist {xk }k∈N beschränkt und besitzt eine konvergente Teilfolge (Bolzano-Weierstrass). Wenn E auch abgeschlossen
ist, muss der Limes dieser Teilfolge zu E gehören.
Wenn E nicht abgeschlossen ist dann finden wir {xk }k∈N ⊂ E mit xk → x 6∈ E:
jede Teilfolge von {xk }k∈N konvergiert eben gegen x 6∈ E. Wenn E nicht beschränkt
ist, dann finden wir für jedes k ∈ N ein Element xk ∈ E mit |xk | ≥ k. {xk }k∈N ⊂ E
und keine Teilfolge von {xk }k∈N konvergiert.
Definition 1.10.4.
E ⊂ Rn heisst überdeckungskompakt, wenn jede offene Überdeckung von E (=
{Uλ }λ∈Λ Familie offener Mengen mit
E⊂
[
Uλ
λ∈Λ
eine endliche Teilüberdeckung besitzt (d.h. ∃λ1 , . . . , λN ∈ Λ mit
E⊂
N
[
i=1
Uλi
.
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
23
Satz 1.10.5.
Die folgenden Aussagen sind äquivalent
1. E ⊂ Rn ist folgenkompakt;
2. E ⊂ Rn ist überdeckungskompakt;
3. E besitzt die Heine-Borel Eigenschaft, d.h. für jede familie {Eλ }λ∈Λ mit Eλ
abgeschlossen und so dass E ∩ Eλ1 ∩ . . . ∩ EλN 6= ∅ ∀λ1 , . . . , λN ∈ Λ, gilt
\
E∩
Eλ 6= ∅ .
λ∈Λ
Bemerkung 1.10.6.
Die Heine-Borel Eigenschaft ist eine Verallgemeinerung des Intervallschachtelungsprinzips der Analysis I.
Beweis. 2. =⇒ 3. Sei E Überdeckungskompakt und {Eλ }λ∈Λ eine beliebige
Familie abgeschlossener Mengen mit
E∩
\
Eλ = ∅ .
λ∈Λ
Dann ist {Eλc }λ∈Λ eine offene Überdeckung von E und aus 2. folgt die Existenz einer
endlichen Teilüberdeckung Eλc 1 , . . . , Eλc N . Damit gilt
E∩
N
\
Eλi = ∅ .
i=1
3. =⇒ 1. Nehmen wir an, dass E die Heine-Borel Eigenschaft besitzt. Sei
{x } ⊂ E eine Folge. ∀k definieren wir
k
Fk = {xj : j ≥ k}
und
Ek := F k .
Nun, wenn k1 < k2 < . . . < kN , dann
∅=
6 FkN ⊂ Ek1 ∩ . . . ∩ EkN ∩ E .
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
24
Deswegen, aus der Heine-Borel Eigenschaft schliessen wir die Existenz einer Stelle
x∈
∞
\
Fk ∩ E .
k=0
Nun ∀k haben wir
K1/k (x) ∩ Fk 6= ∅
sonst wäre x ein interner Punkt von Fkc und x könnte nicht zu F k gehören.
So ∃x`k ∈ Fk mit |x − x`k | < k1 . Deshalb `k ≥ k und so {x`k }k∈N ist eine Teilfolge
von {xk }k∈N die gegen x ∈ E konvergiert.
1. =⇒ 2. Wir führen einen Beweis durch Widerspruch:
E ist also beschränkt und abgeschlossen. Sei {Uλ }λ∈Λ eine Familie von offenen Mengen mit E ⊂ {Uλ }λ∈Λ . Wir überdecken nun die Menge E mit Würfeln. Jeder Würfel
hat die Form
[k1 , k1 + 1] × [k2 , k2 + 1] × · · · × [kn , kn + 1] ,
(1.7)
wobei k1 , . . . kn ∈ Z. Da E beschränkt ist, ∃N ∈ N, so dass [−N, N ]n ⊃ E. Aber
[−N, N ]n können wir mit M = (2N )n Würfel der Form (1.7) überdecken:
E ⊂ W1 ∪ · · · ∪ WM .
Falls jede Menge E ∩ Wi mit einer endlichen Familie von {Uλ } überdeckt werden
kann, finden wir eine endliche Teilüberdeckung von E, indem wir die Vereinigung
der entsprechenden endlichen Teilüberdeckungen von E ∩ Wi wählen. Nun nehmen
wir an, die Überdeckungseigenschaft gilt nicht, d.h. ∃E1 := E ∩ Wi , so dass
1. {Uλ }λ∈Λ eine Überdeckung von E1 ist,
2. keine endliche Teilfamilie überdeckt E1 .
Teilen wir den Würfel Wi in 2n Würfel mit Seitenlänge 21 :
W̃1 , · · · , W̃2n .
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
25
Mit dem obigen Argument finden wir die Menge
E2 := E ∩ W̃i : und die Eigenschaften 1. und 2. gelten auch für E2 statt E1 .
Induktiv erhalten wir eine Folge von Mengen mit
E ⊃ E1 ⊃ E2 ⊃ · · ·
und für jede Menge gilt, Ei ⊂ Wi , wobei Wi ein Würfel mit Seitenlänge 2−i+1 ist.
Zudem gelten die beiden Eigenschaften 1. und 2. auch für Ei .
Weiter sind die Mengen Ei nicht leer. Für jedes i wählen wir ein xi ∈ Ei . Dann
ist xk k∈N ⊂ E. Aber xk k∈N ist eine Cauchy-Folge, denn: Falls j, k > i, sind
xk , xj ⊂ Ei und Ei ist in einem Würfel mit Seitenlänge 2−i+1 enthalten. Deswegen
√
ist |xj − xk | ≤ n2−i+1 . Die Vollständigkeit des Rn garantiert die Existenz von
x ∈ Rn , so dass xk → x. Da E abgeschlossen ist, ist x ∈ E. Deswegen ∃Uµ ∈ {Uλ }λ ,
so dass x ∈ Uµ . Da Uµ offen ist, gibt es eine Kugel Kr (x) ⊂ Uµ . Aber x ∈ Ei
für jedes i (weil {xk }k≥i ⊂ Ei und die Ei sind abgeschlossen!). Sei nun k ∈ N,
√
√
so dass n2−k+1 < r. Falls y ∈ Ek , dann ist |y − x| ≤ n2−k+1 < r. Deswegen
ist Ek ⊂ Kr (x) ⊂ Uµ . Nun ist die Familie {Uµ } endlich (sie enthält sogar nur ein
einziges Element!) und überdeckt Ek : dies ist ein Widerspruch.
Die Definition der Überdeckungskompaktheit kann man auf topologische Räume
erweitern.
Definition 1.10.7.
Eine Teilmenge K eines topologischen Raumes (X, τ ) heisst überdeckungskompakt,
falls jede offene Überdeckung von Y eine endliche Teilüberdeckung enthält. Falls X
eine kompakte Teilmenge von sich selber ist, dann sagen wir, dass X ein kompakter
topologischer Raum ist.
Bemerkung 1.10.8.
Die Folgenkompaktheit und die Überdeckungskompaktheit sind für Teilmengen metrischer Räumen zwei äquivalente Eigenschaften. Der Beweis ist aber ein bisschen
anders als der vom Satz 1.10.5: in der Tat, in einem allgmeinen metrischen Raum
kann es beschränkte und abgeschlossene Mengen geben die nicht kompakt sind.
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
26
Es ist möglich, einen Begriff der Folgenkompaktheit auch für allgemeine topologische Räume einzuführen. Diese ist aber im Allgemeinen nicht äquivalent zur
Überdeckungskompaktheit.
Bemerkung 1.10.9.
Falls K eine kompakte Teilmenge des topologischen Raumes (X, τ ) ist und τK ihre Unterraumtopologie bezeichnet, dann ist (K, τK ) ein kompakter topologischer
Raum.
1.11. Maxima und Minima
Wir haben gesehen, dass die Stetigkeit einer Funktion f die Offenheit der Urbilder offener Mengen impliziert, d.h. f −1 (U ) offen, falls U offen ist. Diese mächtige
Charakterisierung der Stetigkeit werden wir nun im Weiteren nutzen.
Korollar 1.11.1.
Sei E ⊂ Rn kompakt und f : E → Rk stetig. Dann ist f (E) kompakt.
Beweis. Sei {Uλ } eine Überdeckung (mit offenen Mengen) von f (E), dann ist
f −1 (Uλ )
eine Überdeckung von E. Aus dem Korollar 1.7.11 folgt die Existenz offener Menge
Vλ mit Vλ ∩ E = f −1 (Uλ ). Deshalb ist {Vλ } eine offene Überdeckung von E. Mit der
Kompaktheit folgt die Existenz einer endlichen Teilüberdeckung {Vλ1 , . . . , VλN } von
E und
f −1 (Uλ1 ), · · · , f −1 (UλN ) ist auch eine Überdeckung von E.
Somit ist Uλi , · · · , UλN aber eine Überdeckung von f (E) und dies impliziert die
Kompaktheit von f (E).
Korollar 1.11.2.
Wenn f : Rn → R stetig ist und E ⊂ Rn kompakt, dann besitzt f ein Maximum und
ein Minimum in E.
Kapitel 1. Metrik und Topologie des Euklidischen Raumes
27
Beweis. Wir wissen, dass f (E) ⊂ R kompakt ist. Sei nun
s := sup f (E) < +∞.
Dann gibt es eine Folge {xk }k∈N ⊂ f (E) mit xk → s. Wegen der Abgeschlossenheit
von f (E) folgt, dass s ∈ f (E) ist. Also ist s ein Maximum.
Der Beweis für die Existenz eines Minimums geht analog.
2. Differenzierbare Funktionen
2.1. Lineare Abbildungen
Zur Erinnerung aus der Linearen Algebra:
Definition 2.1.1.
Seien V und W zwei reelle Vektorräume. Eine Abbildung L : V → W heisst linear,
falls
L(λ1 v1 + λ2 v2 ) = λ1 L(v1 ) + λ2 L(v2 )
∀v1 , v2 ∈ V, ∀λ1 , λ2 ∈ R.
Falls L, L0 : V → W zwei lineare Abbildungen sind und λ, µ ∈ R, dann ist die
Abbildung
v 7→ λL(v) + µL0 (v)
auch linear. Deshalb ist der Raum
L (V, W ) := {L : V → W : L ist linear}
ein reeller Vektorraum.
Falls V = Rm und W = Rk , dann ∃ eine Matrix (Lij ) (wobei i ∈ {1, . . . , k} und
j ∈ {1, . . . , m}) mit
L(x) =
n
X
j=1
L1j xj ,
n
X
L2j xj , · · · ,
j=1
n
X
!
Lkj xj
.
j=1
(Lij ) ist die Matrixdarstellung der linearen Abbildung L.
Definition 2.1.2.
Sei Lij eine Matrix, die die lineare Abbildung L ∈ L (Rn , Rk ) darstellt. Die Hilbert-
28
Kapitel 2. Differenzierbare Funktionen
29
Schmidt Norm von L ist gegeben durch
kLkHS
v
u k n
uX X
L2 .
:= t
ij
i=1 j=1
Bemerkung 2.1.3.
L (Rn , Rk ) ∼ {L : (Lij ) k × n Matrizen} ∼ Rnk . D.h. der Raum der k × n Matrizen
wird mit dem Euklidischen Raum Rnk identifiziert und es ist leicht zu sehen, dass
mit dieser Indentifizierung k.kHS die Euklidische Norm ist.
Bemerkung 2.1.4.
Sei L ∈ L (Rn , Rk ) eine lineare Abbildung und x ∈ Rn . Dann gilt die Ungleichung
|L(x)| ≤ |x| kLkHS .
(2.1)
Beweis. Die Ungleichung ist eine einfache Folgerung der Cauchy-Schwarz-Ungleichung.
Sei L(x) = y. Es ist
|L(x)|2 =
k
X
yi2 =
i=1
=
k X
n
X
i=1 j=1
k
n
X
X
i=1
!2
C.-S.-Ungl.
≤
Lij xj
j=1
L2ij |x|2 = |x|2
k
n
X
X
i=1
k X
n
X
!
L2ij
j=1
n
X
!
x2j
j=1
!
L2ij
= |x|2 kLk2HS .
i=1 j=1
Korollar 2.1.5.
Jede L ∈ L (Rn , Rk ) ist Lipschitz-stetig.
Definition 2.1.6.
Sei L ∈ L (Rn , Rk ). Die Operatornorm von L ist definiert durch
kLkO := sup |L(v)| .
|v|≤1
Satz 2.1.7.
k.kO ist eine Norm auf L (Rn , Rk ). Ausserdem
(2.2)
Kapitel 2. Differenzierbare Funktionen
30
(a) Das Supremum in (2.2) ist ein Maximum.
(b) kLkO ist die kleinste relle Zahl C mit der Eigenschaft
|L(v)| ≤ C|v|
∀v ∈ Rn .
(2.3)
(c) kLkO ≤ kLkHS .
Beweis. (a) Die Abgeschlossene Kugel ist abgeschlossen und beschränkt und deswegen kompakt. Die Abbildung v 7→ |L(v)| ist Lipschitz-stetig weil ||L(v)| − |L(w)|| ≤
|L(v) − L(w)| ≤ kLkHS |v − w| und deswegen folgt (a) aus dem Korollar 1.11.2.
(b). Sei v ∈ Rn mit v 6= 0. Dann
v ≤ |v| max |L(w)| = kLkO |v| .
|L(v)| = |v| L
|w|≤1
|v| Da L(0) = 0 schliessen wir dass (2.3) mit C = kLkO gilt.
Sei nun C eine Konstante so dass (2.3) gilt. Dann
kLkO = max |L(w)| ≤ max C|w| = C
|w|≤1
|w|≤1
und (b) folgt.
(c) ist eine direkte Konsequenz von (b) und (2.1).
k · kO ist eine Norm. L 7→ kLkO ist eine Abbildung k · kO : L (Rn , Rk ) → [0, ∞[.
Ausserdem:
1. Aus (b) folgt, dass wenn kLkO = 0, dann L(v) = 0 ∀v ∈ Rn . D.h. L = 0.
2. Sei L ∈ L (Rn , Rk ) und λ ∈ R. Dann
kλLkO = max |λL(v)| = max |λ| |L(v)| = |λ| max |L(v)| = |λ| kLkO .
|v|≤1
|v|≤1
|v|≤1
Kapitel 2. Differenzierbare Funktionen
31
3. Seien L, L0 ∈ L (Rn , Rk ). Dann
kL + L0 kO = max |(L + L0 )(v)| = max |L(v) + L0 (v)|
|v|≤1
|v|≤1
≤ max (|L(v)| + |L0 (v)|) ≤ max |L(v)| + max |L0 (v)|
|v|≤1
|v|≤1
|v|≤1
0
= kLkO + kL kO
2.2. Differenzierbare Funktionen
Zur Erinnerung: f : R → R heisst differenzierbar in a ∈ R, falls der Limes
f (a + h) − f (a)
h→0
h
f 0 (a) = lim
(2.4)
existiert.
Wenn wir die Funktion h 7→ L(h) := f 0 (a)h definieren, dann ist L eine lineare
Abbildung L : R → R. Die Bedingung (2.4) ist dann zur folgenden äquivalent:
f (x0 + h) − f (x0 ) − L(h)
= 0.
h→0
h
lim
(2.5)
f (x0 ) + L(h)
+ o(|h|)
.
|
{z
}
| {z }
Taylor Polynom ersten Grades “Restglied”
(2.6)
Man schreibt auch
f (x0 + h) =
(Die Schreibweise o(|h|) bezeichnet eine Funktion die “in 0 schneller als |h| verschwindet”, d.h.
o(|h|)
lim
=0 .
h→0 |h|
Definition 2.2.1.
Eine Funktion f : U → Rk , wobei U ⊂ Rn offen ist, heisst differenzierbar in a ∈ U ,
Kapitel 2. Differenzierbare Funktionen
32
falls es eine lineare Abbildung L : Rn → Rk gibt, so dass
f (a + v) − f (a) − L(v)
= 0.
v→0
|v|
lim
(2.7)
Bemerkung 2.2.2.
Die lineare Abbilung L in (2.7) ist eindeutig bestimmt: Seien L0 und L zwei lineare
Abbildungen, die (2.7) erfüllen. Sei v ∈ Rn mit |v| = 1. Wegen der Linearität und
(2.7) mit h = tv gilt:
(L − L0 )(v) = lim
t↓0
(L − L0 )(tv)
= 0.
|tv|
Deswegen ist L = L0 .
Definition 2.2.3.
Die lineare Abbildung L heisst Differential von f in a. Wir schreiben dafür d f |a .
Seien nun {e1 , · · · , en } die Standardbasis des Rn , h = (h1 , · · · , hn ) ∈ Rn . Dann folgt
d f |a (h) = d f |a
n
X
i=1
!
hi ei
=
n
X
hi d f |a (ei ).
i=1
Satz 2.2.4.
Es gilt: f differenzierbar in a =⇒ f ist stetig in a.
Beweis. Es ist
|f (a + b) − f (a)| = |d f |a (b) + o(|b|)| ≤ k d f |a kO |b| + |o(|b|)|
| {z } | {z }
→0
→0
(wenn b → 0).
Beispiel 2.2.5.
Sei f (x) = A·x+b, A ∈ Rk×n , b ∈ Rk . Dann ist f differenzierbar und df |a (h) = A·h:
Denn die Abbildung L(h) := A · h ist linear und
f (a + h) − f (a) − L(h) = 0 =: R(h) .
Kapitel 2. Differenzierbare Funktionen
Damit folgt trivialerweise
R(h)
|h|
33
→ 0.
Beispiel 2.2.6.
Sei f : Rn → R die Abbildung
n
X
T
f (x) := x · A · x =
hi Aij hj
i,j=1
mit A = (aij ) ∈ Rn×n symmetrisch (d.h. AT = A). Es ist
T
A · h} .
f (a + h) − f (a) = |2aT {z
· A · h} + h
| ·{z
L(h)
Nun ist L linear (in h) und R(h) = hT · A · h (=
|hT · A · h| = | hT · (A · h) |
| {z }
R(h)
P
Cauchy-Schwartz
≤
ij
hi aij hj ) erfüllt
|h||A · h| ≤ kAkO |h|2 .
=hh,Ahi
Deswegen ist
|Rh|
= 0.
h→0 |h|
lim
f ist dann differenzierbar an jeder Stelle a und L ist das Differential d f |a .
Lemma 2.2.7.
Seien U ⊂ Rn eine offene Menge, a ∈ U und f : U → Rk eine Abbildung mit
f = (f1 , . . . , fk ). f ist differenzierbar in a genau dann, wenn jede Funktion fi in a
differenzierbar ist. In dem Fall gilt auch
d f |a (v) = d f1 |a (v), . . . , d fk |a (v) .
Beweis. Sei f differenzierbar in a. Wir schreiben
d fa (v) = (L1 (v), . . . , Lk (v))
wobei jede Li : Rn → R eine lineare Funktion ist (wenn Aij die Matrixdarstellung
Kapitel 2. Differenzierbare Funktionen
34
von L ist, dann
Li (v) =
X
Aij vj
.
j
Wir haben
|fi (x + v) − fi (x) − Li (v)| ≤ |f (x + v) − f (x) − L(v)|
und deshalb
|fi (x + v) − fi (x) − Li (v)|
= 0.
v→0
|v|
lim
Daraus folgt dass jede fi differenzierbar in a ist und dass d fi |a = Li .
Umgekehrt, nehmen wir an dass jede fi differenzierbar in a ist. Wir betrachten
die lineare Abbildung
Rn 3 v
7→
L(v) = d f1 (v), . . . , d fk (v) .
Aus
v
u k X fi (a + v) − fi (a) − d fi |a (v) 2
|f (a + v) − f (v) − L(v)| u
t
=
|v|
|v|
i=1
folgt
lim
v→0
|f (a + v) − f (v) − L(v)|
= 0.
|v|
Deshalb ist f differenzierbar in a und d f |a = L.
2.3. Die Richtungsableitung
Wir wollen nun d f |a (h) berechnen. Seien Ω ⊂ Rn offen, a ∈ Ω und f : Ω → R eine
Funktion, die in a differenzierbar ist. Sei t ∈ R und h ∈ Rn \ {0} ein Vektor. Dann
ist
f (a + th) = f (a) + d f |a (th) + R(th) = f (a) + t d f |a (h) +
R(th)
| {z }
o(|th|)=o(|t|)
.
Kapitel 2. Differenzierbare Funktionen
35
(Die Schreibeweise o(|th|) bedeutet “eine Fuktion die schneller als die Funktion
t 7→ |th| in 0 verschwindet”. Da aber |h| eine Konstante ist, verschwindet eine solche
Funktion auch schneller als t 7→ |t|!) Somit
d f |a (h) = lim
t→0
f (a + th) − f (a)
.
t
(2.8)
Definition 2.3.1.
Sei f : U → R, a ∈ U ⊂ Rn . Die Richtungsableitung von f in Richtung h ∈ Rn \ {0}
ist der Grenzwert (falls er existiert)
∂f
f (a + th) − f (a)
(a) := lim
.
t→0
∂h
t
(Oft werden wir auch die einfachere Notation ∂h f (a) nutzen).
Bemerkung 2.3.2.
In der obigen Definition haben wir nicht vorausgesetzt, dass f in a differenzierbar
ist!
Lemma 2.3.3.
Sei f : Ω → R in a differenzierbar (wobei a ∈ Ω und Ω offen ist). Dann existieren
die Richtungsableitungen ∂h f (a) in jede Richtung h ∈ Rn \ 0 und es gilt d f |a (h) =
∂h f (a).
Beweis. Die Existenz der Richtungsableitung ist die Herleitung von (2.8).
2.4. Die partiellen Ableitungen und die Darstellung
des Differentials
Sei e1 , . . . en die Standardbasis von Rn , d.h.
ei = (0, . . . 0, |{z}
1 , 0, . . . 0) .
i Stelle
Kapitel 2. Differenzierbare Funktionen
36
Die Ableitungen in Richtung e1 , · · · , en heissen partielle Ableitungen in a. Wir verwenden die folgende Notation:
∂ei f (a) = ∂i f (a) =
∂f
(a) .
∂xi
Manchmal werden wir auch die Schreibweise fxi (a) nutzen.
Die partiellen Ableitungen sind ziemlich einfach zu berechnen. In der Tat, sei
i ∈ {1, . . . , n} und a1 , . . . , an die Koordinaten von a. Wenn wir die Funktion
] − ε, ε[3 t
7→
g(t) = f (a1 , . . . , ai−1 , ai + t, ai+1 , . . . , an )
betrachten, dann schliessen wir
∂f
(a) = g 0 (0)
∂xi
(die Funktion g ist wohldefiniert wenn ε klein genug ist: Ω ist offen!). Die partielle
∂f
ist deswegen eine “gewöhnliche Ableitung”, wo wir nur die Variabel
Ableitung ∂x
i
xi “varieren” und die anderen Variablen “ignorieren”.
Nehmen wir nun an, dass f : Ω → R differenzierbar an der Stelle a ist. Aus dem
Lemma 2.3.3 wissen wir, dass die partiellen Ableitungen existieren. Nun können wir
die Linearität des Differentials nutzen um zu rechnen:
!
n
n
X
X
∂v f (a) = d f |a (v) = d f |a
vi ei =
vi d f |a (ei )
i=1
=
n
X
i=1
vi
∂f
(a) .
∂xi
i=1
(2.9)
Die Identität (2.9) ist die “Darstellung des Differentials” durch die partiellen Ableitungen: Sie ist eine sehr wichtige Identität, weil sie die Berechnung des Differentials
erlaubt.
Kapitel 2. Differenzierbare Funktionen
37
2.5. Die Jacobi-Matrix und der Gradient
Es gibt eine ähnliche Darstellung auch für vektorwertige Funktionen. In der Tat, sei
f : Ω → Rm differenzierbar in a ∈ Ω. Wenn wir das Lemma 2.2.7 mit der Identität
(2.9) kombinieren, dann erreichen wir
 

∂f1
∂f1
∂f1
(a)
(a)
·
·
·
(a)
h
1
 ∂x1
∂x2
∂xn 
d f1 |a (h)

 
 .




.
.
.
h


2
.
.
.
.
.



  .
.
.
.
.

.

 .. 
 

d f |a (h) = 
·
=

.

∂fi
.. 
..
..
..

 . 
 
.
(a)
.
.


.


 
∂xj
 
hn−1 


∂fm
∂fm
d fm |a (h)
(a)
···
···
(a)
hn
∂x1
∂xn
|
{z
}



J
(2.10)
Die Matrix J heisst Jacobi-Matrix.
Schliesslich, für reellwertige differenzierbare Funktionen g : Ω → R führen wir den
Gradient ein.
Definition 2.5.1.
Sei g : Rn ⊃ U → R differenzierbar an der Stelle a ∈ U . Dann heisst
∇g(a) =
∂g
∂g
(a), . . . ,
(a)
∂x1
∂xn
der Gradient von g in a.
Die Darstellung des Differentials (2.9) können wir folgendermassen umschreiben:
d g|a (v) = h∇g(a), vi .
Ausserdem, die Spalten der Jacobi-Matrix J in (2.10) sind die Gradienten der Funktionen fi .
Kapitel 2. Differenzierbare Funktionen
38
2.6. Das Hauptkriterium für die Differenzierbarkeit
Frage: Folgt aus der Existenz der partiellen Ableitungen die Differenzierbarkeit
der Funktion?
Beispiel 2.6.1.
Sei
f (x, y) =


x2 y
x2 +y 2
0
(x, y) 6= (0, 0)
(x, y) = (0, 0).
f besitzt alle Richtungsableitungen in (0, 0). Trotzdem ist f nicht differenzierbar in
(0, 0).
Damit folgt insbesondere, dass die Existenz der Richtungsableitungen nicht hinreichend für die Differenzierbarkeit von f ist. Daher impliziert die Existenz der
partiellen Ableitungen (d.h. spezielle Richtungsableitungen) nicht die Differenzierbarkeit von f .
Satz 2.6.2 (Hauptkriterium der Differenzierbarkeit).
Sei f : U → R, wobei U ⊂ Rn eine offene Umgebung von y ist. Falls
in U existieren und stetig in y sind, dann ist f in y differenzierbar.
∂f
∂f
,...,
∂x1
∂xn
Bemerkung 2.6.3.
Aber Vorsicht: Die Differenzierbarkeit von f impliziert nicht die Stetigkeit der
partiellen Ableitungen!
Beweis. Sei h = (h1 , . . . , hn ) ∈ Rn . Wir setzen
n
X
∂f
(y)hi .
L(h) :=
∂xi
i=1
Wir behaupten, dass L das Differential von f an der Stelle y ist, d.h.
f (y + h) − f (y) − L(h)
= 0.
h→0
|h|
lim
(2.11)
Kapitel 2. Differenzierbare Funktionen
39
Wir schreiben
f (y + h) − f (y)
(2.12)
= f (y + (h1 , . . . , hn )) − f (y + (h1 , . . . , hn−1 , 0))
+f (y + (h1 , . . . , hn−1 , 0)) − f (y + (h1 , . . . , hn−2 , 0, 0))
+...
+f (y + (h1 , . . . , hi , 0, . . . 0)) − f (y + (h1 , . . . , hi−1 , 0, 0, . . . 0))
(i-te Zeile)
+...
+f (y + (h1 , 0, . . . , 0)) − f (y).
(2.13)
Sei nun gi (t) = f (y + (h1 , . . . , hi−1 , thi , 0, . . . , 0). Die i-te Zeile in (2.13) ist dann
gi (1) − gi (0). Aber es ist
gi (t + ε) − gi (t)
ε→0
ε
gi0 (t) = lim
f (y1 + h1 , . . . , yi−1 + hi−1 , yi + (t + ε)hi , yi+1 . . . , yn ) − f (y1 + h1 , . . . , yi + thi , . . . , yn )
ε→0
εhi
= hi lim
= hi
∂f
(y1 + h1 , . . . , yi + thi , yi+1 , . . . , yn ) .
∂xi
Daher garantiert die Existenz der Richtungsableitungen in einer Ungebung von y
die Differenzierbarkeit der Funktion gi , falls |h| klein genug ist. Zudem, aus dem
Mittelwertsatz (siehe Analysis I; der Satz wird oft auch Satz von Lagrange genannt)
folgt die Existenz eines ξi mit
ξi ∈ ]0, 1[ :
i-te Zeile von (2.13) = gi (1) − gi (0) = gi0 (ξi )
und somit ist
i-te Zeile = hi
∂f
∂f
(y1 + h1 , . . . , yi−1 + hi−1 , yi + ξi hi , yi+1 , . . . , yn ) = hi
(y + ζi ),
∂xi
∂xi
(2.14)
Kapitel 2. Differenzierbare Funktionen
40
wobei ζi = (h1 , . . . , hi−1 , ξhi , 0, . . . , 0). Wir setzen (2.14) in (2.13) ein und erhalten:
f (y + h) − f (y) =
n
X
hi
i=1
∂f
(y + ζi )
∂xi
und deswegen ist
f (x + h) − f (x) − L(h) =
n
X
i=1
hi
∂f
∂f
(y + ζi ) −
(y) .
∂xi
∂xi
(2.15)
Also haben wir
∂f
∂f
(y
+
ζ
)
−
(y)
|h
|
n
i
i
∂xi
|f (x + h) − f (x) − L(h)| (2.15) X
∂xi ≤
|h|
|h|
i=1
n
X
∂f
∂f
≤
∂xi (y + ζi ) − ∂xi (y) .
i=1
Ausserdem |ζi | ≤ |h|. Deshalb ζi → 0 wenn |h| → 0. Die Stetigkeit von
impliziert
(2.16)
∂f
in y
∂xi
∂f
∂f
(y + ζi ) →
∂xi
∂xi
wenn ζi → 0. D.h. die rechte Seite von (2.16) → 0, wenn h → 0 und dies impliziert
(2.11).
2.7. Kurven und die erste Version der Kettenregel
Definition 2.7.1.
Eine Kurve ist eine Abbildung γ : [a, b] → Rn , wobei a, b ∈ R.
Dies bedeutet, dass γ(t) ∈ Rn ∀t. Seien nun γi (t) die Koordinaten des Vektors
γ(t), d.h.
γ(t) = (γ1 (t), · · · , γn (t)) .
Jede Abbildung t → γi (t) ∈ R ist eine reellwertige Funktion in einer Variablen.
Aus dem Lemma 2.2.7 folgt dass die Kurve γ überall differenzierbar ist genau
Kapitel 2. Differenzierbare Funktionen
41
dann, wenn jedes γi differenzierbar ist. Ausserdem, haben wir
d γ|t0 (s) = s(γ10 (t), . . . , γn0 (t)) .
In diesem Fall nutzen wir die folgende Notation für die “Ableitung” von γ:
γ̇(t) := (γ10 (t), · · · , γn0 (t)).
Satz 2.7.2 (Kettenregel 1. Version).
Sei f : U → R, wobei U ⊂ Rn eine Umgebung von x0 und f differenzierbar in x0
ist. Sei γ : [a, b] → U eine differenzierbare Kurve mit γ(t0 ) = x0 . Sei g = f ◦ γ (d.h.
g(t) = f (γ(t))). Dann ist g in t0 differenzierbar mit
g 0 (t0 ) = d f |γ(t0 ) (γ̇(t0 )) = h∇f (γ(t0 )), γ̇(t0 )i .
Beweis. Das Ziel ist, zu zeigen, dass
g(t0 + h) − g(t0 ) − h d f |γ(t0 ) (γ̇(t0 ))
= 0.
lim
h→0
h
Wir definieren
R(h) := g(t0 + h) − g(t0 ) − h d f |γ(t0 ) (γ̇(t0 )) .
(2.17)
Nun beweisen wir die folgende Behauptung:
R(h)
= 0,
h→0 |h|
(2.18)
lim
d.h. R(h) = o(|h|).
Aus der Differenzierbarkeit von f folgt:
f (x0 + k) − f (x0 ) − d f |x0 (k)
lim
k→0
|k|
r(k)
=:
= 0,
|k|
Kapitel 2. Differenzierbare Funktionen
42
d.h. r(k) = o(|k|). Die Differenzierbarkeit von γ impliziert
γ(t0 + h) − γ(t0 ) − γ̇(t0 )h
lim
k→0
h
p(h)
=:
h
= 0,
d.h.
p(h) = o(|h|).
Wir setzen
k := γ(t0 + h) − γ(t0 )
und schreiben
=x
g(t0 + h) − g(t0 )
=
z }|0{
f (γ(t0 + h)) − f (γ(t0 )) = f (γ(t0 ) + k) − f (γ(t0 ))
=
d f |γ(t0 ) (k) + r(k)
=
d f |γ(t0 ) (γ(t0 + h) − γ(t0 )) + r(k)
=
d f |γ(t0 ) (hγ̇(t0 ) + p(h)) + r(k)
Lin. von d f
=
h d f |γ(t0 ) (γ̇(t0 )) + d f |γ(t0 ) (p(h)) + r(k) .
Also ist
R(h) = g(t0 + h) − g(t0 ) − h d f |γ(t0 ) (γ̇(t0 )) = df |γ(t0 ) (p(h)) + r(γ(t0 + h) − γ(t0 ))
und
|R(h)| ≤ | df |γ(t0 ) (p(h))| + |r(γ(t0 + h) − γ(t0 ))|
| {z }
=L
≤ kLkO |p(h)| + |r(γ(t0 + h) − γ(t0 )| .
Aber p(h) = o(|h|) =⇒ kLkO |p(h)| = o(|h|). Nun beweisen wir auch
r(γ(t0 + h) − γ(t0 ))
= 0.
h→0
|h|
lim
Kapitel 2. Differenzierbare Funktionen
43
Wir unterscheiden zwei Fälle. Falls
γ(t0 + h) − γ(t0 ) = 0,
dann ist r(γ(t0 + h) − γ(t0 )) = r(0) = 0. Wenn
γ(t0 + h) − γ(t0 ) 6= 0,
dann schreiben wir
r(γ(t0 + h) − γ(t0 ) |γ(t0 + h) − γ(t0 )|
r(γ(t0 + h) − γ(t0 ))
=
.
|h|
|γ(t0 + h) − γ(t0 )|
|h|
Nun ist
r(γ(t0 + h) − γ(t0 )
r(k)
=
→0
|γ(t0 + h) − γ(t0 )|
|k|
(weil k = γ(t0 + h) − γ(t0 ) → 0, wenn h → 0). Ausserdem ist
p(h)
γ(t0 + h) − γ(t0 )
= γ̇(t0 ) +
.
| {z } | {z
h
h}
konstant
→0
Folglich gilt:
|γ(t0 + h) − γ(t0 )|
= |γ̇(t0 )|
h→0
|h|
|R(h)|
→0
=⇒
|h|
lim
und dies zeigt die Differenzierbarkeit und die Kettenregel.
Bemerkung 2.7.3.
Als Folgerung der Kettenregel erhalten wir das folgende geometrische Korollar: Der
Gradient ist orthogonal zur Niveaumenge der Funktion (Höhenlinien, wenn der Definitionsbreich der Funktion 2-dimensional ist). In der Tat sei γ : [a, b] → U eine
differenzierbare Kurve, wobei U ⊂ Rn offen ist. Sei f : U → R differenzierbar. Wenn
f (γ(t)) ≡ c0 (d.h. c0 hängt nicht von t ab), dann gilt
∇f (γ(t))⊥γ̇(t),
Kapitel 2. Differenzierbare Funktionen
44
d.h.
h∇f (γ(t)), γ̇(t)i = 0,
weil
0 = g 0 (t) = (f (γ(t)))0
Kettenregel
=
h∇f (γ(t)), γ̇(t)i.
2.8. Der Mittelwert- und der Schrankensatz
Sei f : [a, b] → R eine differenzierbare Funktion. Der Mittelwersatz (oder Satz von
Lagrange) behauptet die Existenz eines ξ ∈]a, b[, so dass
f (b) − f (a) = f 0 (ξ)(b − a).
Sei nun f : U → R differenzierbar in U mit U ⊂ Rn offen und seien x, y ∈ U , so
dass das Segment [x, y] ⊂ U ist. Das Segment [x, y] ist die Menge
[x, y] = {x + t(y − x) |t ∈ [0, 1]} .
Wir definieren nun die Abbildungen
γ(t) := x + t(y − x)
und
g =f ◦γ
(d.h. g(t) = f (γ(t))) .
Dann ist
f (y) − f (x) = g(1) − g(0) .
Zudem ist γ differenzierbar mit
γ̇(τ ) = (γ10 (τ ), · · · , γn0 (τ )) = (y1 − x1 , · · · , yn − xn ) = y − x
Aus dem Mittelwertsatz für reellwertige Funktionen in einer Variablen folgt die
Existenz einer Zahl τ ∈]0, 1[, so dass
f (y) − f (x) = g(1) − g(0) = g 0 (τ )
Kettenregel
=
d f |γ(τ ) (γ̇(τ )) = d f |γ(τ ) (y − x).
Kapitel 2. Differenzierbare Funktionen
45
D.h. ∃ξ ∈ [x, y], so dass
f (y) − f (x) = d f |ξ (y − x) = ∂y−x f (ξ).
(2.19)
Satz 2.8.1 (Mittelwertsatz).
Sei U ⊂ Rn offen, [x, y] ⊂ U und f : U → R differenzierbar. Dann ∃ξ ∈]x, y[, so
dass (2.19) gilt.
Definition 2.8.2.
Sei U ⊂ Rn eine Menge. U heisst sternförmig mit Zentrum x0 ∈ U , wenn gilt
[x0 , x] ⊂ U ∀x ∈ U .
Korollar 2.8.3 (Schrankensatz).
Seien U ⊂ Rn eine offene Menge, die sternförmig ist und f : U → R eine differenzierbare Funktion mit
sup kd f |x kO = sup |∇f (x)| =: S < ∞ .
x∈U
x∈U
Dann gilt:
|f (x) − f (0)| ≤ S|x|.
Wenn U konvex ist, d.h. das Segment [x, y] ⊂ U ∀x, y ∈ U , dann gilt:
|f (x) − f (y)| ≤ S|y − x|,
und deshalb ist f Lipschitz-stetig.
3. Höhere Ableitungen und die
Taylorentwicklung
3.1. Höhere partielle Ableitungen
Sei f : Rn ⊃ Ω → R. Die partiellen Ableitungen von f sind gegeben durch
f (x + εei ) − f (x)
∂f
(x) = lim
,
ε→0
∂xi
ε
wobei ei = (0, · · · , 0, 1, 0, · · · , 0).
∂f
Falls die partielle Ableitung ∂x
überall existiert, dann erhalten wir eine neue Funki
tion
∂f
Ω3x
7→
(x) ∈ R .
∂xi
Wir können diese neue Funktion wieder ableiten. Wir definieren
∂f
∂f
∂f
∂
(x + εej ) −
(x)
2
∂ f
∂xi
∂xi
∂xi
(x) :=
(x) = lim
.
ε↓0
∂xj ∂xi
∂xj
ε
Wenn auch diese partielle Ableitung überall existiert, dann können wir weiter ableiten:
2f
∂2f
(x + εek ) − ∂x∂j ∂x
(x)
∂ 3f
∂xj ∂xi
i
(x) := lim
,
ε↓0
∂xk ∂xj ∂xi
ε
und so weiter. Die Anzahl der Ableitungen heisst die Ordnung der höheren partiellen
Ableitung. D.h.
∂kf
∂xi1 . . . ∂xik
46
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
47
ist eine partielle Ableitung der Ordnung k (wobei ij ∈ {1, . . . , n} und es könnte sein
dass ij = i` auch wenn j 6= `).
Wir nutzen die folgende Notation:
∂ 2f
∂ 2f
=
,
∂x2i
∂xi ∂xi
∂ 3f
∂ 3f
=
,
∂x3i
∂xi ∂xi ∂xi
und so weiter.
3.2. Das Lemma von Schwarz
Satz 3.2.1 (Lemma von Schwarz).
Sei f : Ω → R eine Funktion, die in einer Umgebung von p ∈ Ω die partiellen
2f
2f
∂f
∂f
Ableitungen ∂x
, ∂x
und ∂x∂i ∂x
besitzt. Falls ∂x∂i ∂x
stetig in p ist, dann existiert
i
j
j
j
∂2f
(p)
∂xj ∂xi
und es gilt:
∂ 2f
∂ 2f
(p) =
(p) .
∂xi ∂xj
∂xj ∂xi
Beispiel 3.2.2.
Wir kontrollieren die Plausibilität dieses Satzes anhand einer ziemlich grossen Famile
von Funktionen: die Polynome. Sei
f (x1 , x2 ) =
N1 X
N2
X
aij xi1 xj2 .
i=1 j=1
Dann können wir explizit die folgenden partiellen Ableitungen berechnen:
N
N
N
N
N
N
1 X
2
X
∂f
j
=
iaij xi−1
1 x2
∂x1
i=2 j=1
1 X
2
X
∂ 2f
=
ijaij x1i−1 xj−1
2
∂x2 ∂x1
i=2 j=2
1 X
2
X
∂f
=
jaij xi1 xj−1
2
∂x2
i=1 j=2
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
N
48
N
1 X
2
X
∂ 2f
=
ijaij x1i−1 xj−1
.
2
∂x1 ∂x2
i=2 j=2
Beispiel 3.2.3.
Aber ohne die Voraussetzungen ist der Satz falsch: Sei zum Beispiel V : R → R eine
Funktion, die nicht differenzierbar ist. Wir definieren
f : R2 → R
Dann ist
Aber
∂f
∂x2
∂f
=0
∂x1
f (x1 , x2 ) = V (x2 )
und
existiert nicht und somit auch
∂ 2f
= 0.
∂x2 ∂x1
∂2f
∂x1 ∂x2
nicht.
Beweis. [Beweis des Lemmas von Schwarz] Die Idee ist, eine Art von Mittelwertsatz
zu benutzen:
Schritt 1: Reduktion des Beweises auf Dimension n = 2: Seien
f (x1 , · · · , xi , · · · , xj , · · · , xn )
p = (p1 , · · · , pi , · · · , pj , · · · , pn ).
Wir definieren g : R2 ⊃ U → R als
g(y, z) := f (p1 , · · · , pi−1 , y, pi+1 , · · · , pj−1 , z, pj+1 , · · · , pn ) .
Dann sind
∂f
∂g
(p) =
(pi , pj )
∂xi
∂y
∂f
∂ 2g
(p)
=
(pi , pj )
∂ 2 xj ∂xi
∂z∂y
∂f
∂g
(p) =
(pi , pj )
∂xj
∂z
∂f
∂ 2g
(p) =
(pi , pj )
∂xi ∂xj
∂y∂z
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
49
(Wir berechnen zum Beispiel
f (p1 , . . . , pi + ε, . . . , pj , . . . pn ) − f (p)
∂f
(p) = lim
ε→0
∂xi
ε
g(p1 + ε, p2 ) − g(p1 , p2 )
∂g
= lim
=
(pi , pj ).
ε→0
ε
∂y
Daher können wir ohne Beschränkung der Allgemeinheit den Satz nur für den Fall
n = 2 beweisen.
∂f
∂f
Schritt 2: Sei f : R2 ⊃ Ω → R und p = (a, b) ∈ Ω. Wir wissen, dass ∂x
, ∂x
1
2
2f
∂2f
in
einer
Umgebung
von
p
=
(a,
b)
existieren
und
stetig
in
p
ist.
Zu
und ∂x∂2 ∂x
∂x2 ∂x1
1
2f
beweisen ist nun, dass ∂x∂1 ∂x
(p)
existiert
und
2
∂ 2f
∂ 2f
(p) =
(p) .
∂x2 ∂x1
∂x1 ∂x2
Für jedes h, k ∈ R \ {0} definieren wir das Rechteck Q mit Eckpunkten (a, b),
(a + h, b), (a, b + k), (a + h, b + k). D.h. Q = [a, a + h] × [b, b + k], wenn h, k > 0.
Weiter setzen wir
DQ f := f (a + h, b + k) − f (a + h, b) − f (a, b + k) + f (a, b)
und bemerken, dass
DQ f
k→0 h→0 hk
lim lim
f (a + h, b + k) − f (a, b + k) f (a + h, b) − f (a, b)
−
k→0 h→0
hk
hk
∂f
∂f
(a, b + k) −
(a, b)
∂ 2f
∂x1
∂x1
= lim
=
(a, b)
(3.1)
k→0
k
∂x2 ∂x1
= lim lim
und
DQ f
lim lim
h→0 k→0 hk
∂f
∂f
(a + h, b) −
(a, b)
∂x2
∂x2
= lim
.
h→0
h
(3.2)
Die Existenz des Grenzwerts in (3.2) impliziert die Existenz der partiellen Ableitung
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
∂2f
(a, b).
∂x1 ∂2
50
In diesem Fall ist auch
DQ f
∂ 2f
=
(a, b).
h→0 k→0 hk
∂x1 ∂x2
lim lim
Wir werden nun die Existenz dieses zweiten Grenzwerts beweisen. Gleichzeitig erhalten wir, dass die Grenzwerte in (3.1) und (3.2) gleich sind (d.h. wir können “h
und k im Grenzwert vertauschen”).
Wir behaupten (∀h, k klein genug) die Existenz einer Stelle (ξ, ζ) ∈ Q, so dass
∂ 2f
DQ f
=
(ξ, ζ).
hk
∂x2 ∂x1
(3.3)
Diese Behauptung folgt durch zweimaliges Anwenden des Mittelwertsatzes. O.B.d.A.
sei h, k > 0 an. Dann ist
DQ f
1 f (a + h, b + k) − f (a + h, b) f (a, b + k) − f (a, b)
=
−
hk
h
k
k
1
Mittelwertsatz 0
=
g (ξ),
= {g(a + h) − g(a)}
h
wobei
f (z, b + k) − f (z, b)
k
und ξ eine Stelle in ]a, a + h[ (bzw. in ]a + h, a[ wenn h < 0) ist. g ist in der Tat
differenzierbar mit
1 ∂f
∂f
0
g (z) =
(z, b + k) −
(z, b) .
k ∂x1
∂x1
g(z) :=
Daraus erhalten wir durch eine weitere Anwendung des Mittelwertsatzes
DQ f
hk
1 ∂f
∂f
=
(ξ, b + k) −
(ξ, b)
k ∂x1
∂x1
∂
∂f
∂ 2f
=
(ξ, ζ) =
(ξ, ζ) .
∂x2 ∂x1
∂x2 ∂x1
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
Nun nutzen wir die Stetigkeit der Funktion
DQ f
lim lim
k→0 h→0 hk
51
∂2f
:
∂x2 ∂x1
∂ 2f
= lim lim
(ξ, ζ)
ζ→b ξ→a ∂x2 ∂x1
∂ 2f
∂ 2f
(a, b) = lim lim
(ξ, ζ)
=
ξ→a ζ→b ∂x2 ∂x1
∂x2 ∂x1
DQ f
= lim lim
.
h→0 k→0 hk
Bemerkung 3.2.4.
Im letzten Argument haben wir ein kleines “Hilfslemma” benutzt:
Sei h : [a, a + h] × [b, b + k] → R eine Funktion mit den folgenden Eigenschaften:
• h ist stetig in (a, b).
• Der Grenzwert
lim h(s, t)
s↓a
existiert für jedes t ∈]b, b + k].
Dann ist
lim lim h(s, t) = h(a, b) .
t↓b s↓a
Beweisen Sie das Lemma! Vorsicht: die Funktion h ist nicht überall stetig und deswegen dürfen wir nicht die Identität
lim h(s, t) = h(a, t)
s↓a
schliessen.
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
52
3.3. Das Taylorpolynom
Definition 3.3.1.
Seien a ∈ Ω ⊂ Rn , f : Ω → R und w ∈ Rn . Falls alle partielle Ableitungen der
Ordnung k in a existieren, dann definieren wir die Abbildung
x
7→
n
X
n
X
∂ k f (a)
xi · · · xi k .
d f |a (x) :=
···
∂xi1 · · · ∂xik 1
i =1
i =1
(k)
1
k
Wenn die Funktion f differenzierbar ist, dann ist d(1) f |a das Differenzial von f .
d(k) f |a ist eine “Verallgemeinerung” der gewöhnlichen Ableitung g (k) wenn g : R →
R. Ausserdem ist d(k) f |a ein homogenes Polynom vom Grad k.
Das Taylor Polynom vom Grad k an der Stelle a ist dann so definiert:
Tak f (x) = f (a) + d f |a (x − a) + · · · +
1
d f (k) |a (x − a) .
k!
Definition 3.3.2.
Eine Funktion f : Ω → R heisst C k -Funktion oder kurz f ∈ C k (Ω) (manchmal auch
f ∈ C k (Ω, R), wobei der zweite Raum der Bildbereich der Funktion ist), falls alle
partiellen Ableitungen der Ordnung ≤ k überall existieren und stetig sind.
Satz 3.3.3 (Verallgemeinerte Fehlerabschätzung von Lagrange).
Sei f ∈ C k+1 (Ω) und Kr (a) ⊂ Ω. Dann gilt: ∀x ∈ Kr (a) ∃ξ ∈ [a, x], so dass
Rak f (x) := f (x) − Tak f (x) =
1
d f (k+1) |ξ (x − a) .
(k + 1)!
(3.4)
Falls f ∈ C k , dann ist f (x) − Txk f (x) = o(|x − a|k ) .
Beweis. Teil 1: Beweis von (3.4): Sei g(t) := f (tx + (1 − t)a). Wir wenden die
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
53
Kettenregel (k + 1)-mal und erhalten:
g 0 (t) = df |tx+(1−t)a (x − a)
g 00 (t) = d2 f |tx+(1−t)a (x − a)
.. .. ..
. . .
(3.5)
g (k+1) (t) = d(k+1) f |tx+(1−t)a (x − a).
Die Lagrangsche Fehlerabschätzung für Funktionen in einer Variablen (siehe das
Skript Analysis I oder das Übungsblatt) garantiert die Existenz einer Stelle τ ∈]0, 1[,
so dass
k
X
1 (i)
1
g (0) +
g (k+1) (τ ) .
(3.6)
g(1) =
i!
(k
+
1)!
i=0
Zur Erinnerung: Wir nutzen, in einer reellen Variabel, die Konvention g (0) (0) = g(0).
Daher setzen wir auch
1
d f (0) |a (x − a)0 := f (a) .
0!
Die Stelle ξ := τ x + (1 − τ )a liegt im Segment [a, x]. Mit den Formeln in (3.5)
schreiben wir (3.6) als
k
X
1
1 (i)
df |a (x − a) +
df (k+1) |ξ (x − a)
f (x) = g(1) =
i!
(k + 1)!
i=0
= Tak f (x) +
1
df (k+1) |ξ (x − a).
(k + 1)!
Teil 2: Sei nun f ∈ C k (Ω). Wir nutzen (3.4) und schreiben
f (x) = Tak−1 f (x − a) +
1 (k)
df |ξ (x − a),
k!
wobei x ∈ Kr (a) und ξ ein Punkt auf dem Segment [a, x] ist.
(3.7)
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
54
Damit folgt:
1 (k)
1
(k)
k
f (x) − Ta f (x) = df |ξ (x − a) − df |a (x − a)
k!
k!
n
n
k
k
X
X
1 ∂ f
∂ f
=
...
(a) −
(ξ) (xi1 − ai1 ) . . . (xik − aik )
k! i =1 i =1 ∂xi1 . . . ∂xik
∂xi1 . . . ∂xik
1
k
n
n
X
|x − a|k X
∂kf
∂kf
.
≤
(a)
−
(ξ)
(3.8)
...
k! i =1 i =1 ∂xi1 . . . ∂xik
∂xi1 . . . ∂xik 1
k
Da |ξ − a| ≤ |x − a|, wenn x → a haben wir auch ξ → a. Die Stetigkeit der partiellen
Ableitungen impliziert dann
lim
x→a
∂kf
∂kf
(a) −
(ξ)
∂xi1 . . . ∂xik
∂xi1 . . . ∂xik
= 0.
So aus (3.8) schliessen wir
lim
x→a
f (x) − Tak f (x)
|x − a|k
= 0.
Falls eine Funktion f beliebig oft differenzierbar ist (mit stetigen partiellen Ableitungen aller Ordnungen) dann schreiben wir f ∈ C ∞ (Ω). Wir können dann die
Taylorreihe schreiben (das bedeutet aber nicht, dass die Reihe auch tatsächlich konvergiert und mit der Funktion übereinstimmt!):
∞
X
1
d f (k) |a (x − a).
k!
k=0
(3.9)
Definition 3.3.4.
Eine Funktion f ∈ C ∞ (Ω) heisst analytisch, wenn ∀a ∈ Ω ∃Kr (a) ⊂ Ω mit der
Eigenschaft, dass die Reihe (3.9) für alle x ∈ Kr (a) nach eine reelle Zahl Ta (x)
konvergiert und
Ta f (x) = f (x)
∀x ∈ Kr (a) .
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
55
In diesem Fall schreiben wir f ∈ C ω (Ω).
3.4. Das Taylorpolynom zweiter Ordnung
Wir schreiben noch einmal die Approximation einer Funktion f ∈ C 2 (Ω) mittels
Taylorpolynom zweiter Ordnung auf:
f (z) =f (x) +
n
X
∂f
(x)(zi − xi )
∂x
i
i=1
|
{z
}
(3.10)
h∇f (x),z−xi
+
1
2
n X
n
X
i=1 j=1
∂ 2f
(x)(zi − xi )(zj − xj ) + R(z).
∂xi ∂xj
Wegen Satz 3.3.3 wissen wir, dass R(z) = o(|z−x|2 ). Falls f ∈ C 3 (Ω) ist, dann wissen
wir noch mehr: R(z) = O(|z − x|3 ) (wir führen hier eine neue Notation ein: Wenn g
eine nichtnegative Funktion ist, dann bedeutet die Notation R(z) = O(g(z)), dass
eine Umgebung U von x und eine Konstant C existieren, so dass |R(z)| ≤ Cg(z)
∀z ∈ U ).
Wir definieren nun die so genannte Hesse-Matrix wie folgt:
Hf (x) :=
∂f
(x) .
∂xi ∂xj
(3.11)
Zum Beispiel für Funktionen von drei Variablen sieht die Hesse-Matrix so aus:
∂2f
2
 ∂∂x2 f1

 ∂x2 ∂x1
∂2f
∂x3 ∂x1

∂2f
∂x1 ∂x2
∂2f
∂x22
∂2f
∂x3 ∂x2
∂2f
∂x1 ∂x3

∂2f 
∂x2 ∂x3 
∂2f
∂x23

Bemerkung 3.4.1.
Aus dem Lemma von Schwarz folgt, dass Hf (x) symmetrisch ist, sobald alle Ableitungen zweiter Ordnung stetig sind.
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
56
Wir betrachten nun den Vektor
!
X ∂ 2f
X ∂ 2f
(x)(zi − xi ), · · · ,
(x)(zi − xi )
∂x1 ∂xj
∂xn ∂xi
i
i
|
{z
}
=Hf (x)·(z−x)
und daher ist
n
X
n
X
∂ 2f
(x)(zi − xi )
(zj − xj )
∂x
∂x
j
i
j=1
i=1
=hz − x, Hf (x) · (z − x)i = (z − x)T · Hf (x) · (z − x).
Wenn A eine n × n-Matrix ist, so handelt es sich bei der Abbildung
w 7→ wT · A · w
(= hw, A · wi)
um eine so genannte “quadratische Form” auf Rn . wT · A · w ist das Matrix-Produkt
der 1 × n-Matrix wT (“eine Zeile”), der n × n-Matrix A und der n × 1-Matrix w
(“eine Spalte”). In der Zukunft werden wir unsere Notation vereinfachen und wT Aw
(bzw. Aw) statt wT · A · w (bzw. A · w) schreiben.
Das Taylorpolynom zweiter Ordnung ist damit gegeben durch
1
Tx2 f (z) = f (x) + h∇f (x), z − xi + (z − x)T Hf (x)(z − x).
2
Korollar 3.4.2.
Falls f ∈ C 3 (Ω) und K r (x) ⊂ Ω, dann ist
f (z) = Tx2 f (z) + O(|x − z|3 ) ,
d.h.
f (z) − Tx2 f (z) ≤ C|z − x|3 .
Korollar 3.4.3.
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
57
Falls f ∈ C 2 (Ω) und Kr (x) ⊂ Ω, dann ist
f (z) = Tx2 f (z) + o(|z − x|2 ),
d.h.
f (z) − Tx2 f (z)
lim
= 0.
z→x
|z − x|2
3.5. Maxima, Minima und die Hesse Matrix
Definition 3.5.1.
Seien X ⊂ Rn und f : X → R. f hat in a ∈ X ein lokales Minimum bzw. Maximum
genau dann, wenn
∃ eine Umgebung V von a, so dass f (a) ≤ f (x) (bzw. ≥ f (x)) ∀x ∈ V ∩ X .
Wir sagen das Minimum bzw. Maximum sei strikt (oder isoliert) genau dann, wenn
f (a) < f (x) (bzw. > f (x)) ∀x ∈ (V ∩ X) \ {a} .
Satz 3.5.2.
(Notwendiges Kriterium für lokale Extrema). Sei U ⊂ Rn offen und f : U → R eine
Funktion die alle partielle Ableitungen erster Ordnung besitzt und die ein Extremum
in a ∈ U hat. Dann gilt:
∂f
∂f
(a) = · · · =
(a) = 0.
∂x1
∂xn
D.h. wenn f differenzierbar ist, dann gilt d f |a = 0.
Beweis. Wir definieren die Funktion F (t) := f (a + tei ), wobei t so klein gewählt
wird, dass a + tei ∈ U . Dann hat F ein lokales Extremum in 0 und deswegen
0 = F 0 (0) =
∂f
(a) = 0 .
∂xi
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
58
Definition 3.5.3.
Sei f differenzierbar. Eine Stelle a mit d f |a = 0 heisst kritischer Punkt. Wir sagen
auch, dass f in a stationär sei.
Bemerkung 3.5.4.
Ein lokales Extremum einer differenzierbaren Funktion ist immer auch ein kritischer
Punkt, aber nicht umgekehrt: ein kritischer Punkt muss kein Extremum sein!
Definition 3.5.5.
Sei A ∈ Rn×n . A heisst
• positiv semidefinit, falls v t Av ≥ 0 ∀v ∈ Rn , und in dem Fall schreiben wir
A ≥ 0;
• positiv definit, falls v t Av > 0 ∀v ∈ Rn \{0}, in in dem Fall schreiben wir A > 0;
• negativ semidefinit, falls v t Av ≤ 0 ∀v ∈ Rn , und in dem Fall schreiben wir
A ≤ 0;
• negativ definit, falls v t Av < 0 ∀v ∈ Rn \ {0}, und in dem Fall schreiben wir
A < 0;
• indefinit, falls zwei Vektoren v und w existieren mit v t Av > 0 und wt ·A·w < 0.
Eine wichtige Tatsache aus der linearen Algebra.
Satz 3.5.6.
Jede symmetrische Matrix A besitzt eine orthonormale Basis von Eigenvektoren.
Als Korollar kriegen wir eine sichere Methode, um herauszufinden ob eine Matrix
positiv (bzw. negativ) definit (bzw. semidefinit) ist.
Korollar 3.5.7.
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
59
Sei A eine symmetrische Matrix.
⇐⇒
kein Eigenwert von A ist negativ
A positiv definit
⇐⇒
alle Eigenwerte von A sind positiv
A negativ semidefinit
⇐⇒
kein Eigenwert von A ist positiv
A negativ definit
⇐⇒
alle Eigenwerte von A sind negativ
A indefinit
⇐⇒
A besitzt (mindestens) einen negativen
A positiv semidefinit
und einen positiven Eigenwert.
Bemerkung 3.5.8.
Das obige Kriterium wird besonders einfach, wenn A eine 2 × 2 Matrix ist, weil
die Determinante von A das Produkt der Eigenwerten ist und die Spur die Summe.
Dann ist A genau dann indefinit, wenn die Determinante negativ ist. A ist genau
dann positiv definit (bzw. semidefinit), wenn die Determinante und die Spur beide positiv sind (bzw. beide nichtnegativ sind). A ist genau dann negativ definit
(bzw. semidefinit), wenn die Determinante positiv und die Spur negativ ist (bzw.
die Determinante nichtnegativ und die Spur nichtpositiv ist).
Satz 3.5.9 (Kriterium für lokale Extrema).
Seien U ⊂ Rn offen, a ∈ U und f ∈ C 2 (U, R) mit d f |a = 0. Dann gilt:
a lokales Minimum
=⇒
Hf (a) positiv semidefinit
a lokales Maximum
=⇒
Hf (a) negativ semidefinit
Hf (a) > 0 (positiv definit)
=⇒
a lokales (striktes!) Minimum
Hf (a) < 0 (negativ definit)
=⇒
a lokales (striktes!) Maximum
Hf (a) (indefinit)
=⇒
a kein Extremum
Im indefiniten Fall gilt: ∃ Geraden G1 , G2 durch a, so dass f |G1 ∩U in a ein lokales
Minimum und f |G2 ∩U in a ein lokales Maximum hat, d.h. a ist ein Sattelpunkt.
Beweis.
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
60
• Sei Hf (a) > 0. Dann gilt:
1
Taylor
d f |a = 0 ===⇒ f (a + h) = f (a) + hT Hf (a)h + R(h)
2
mit
R(h)
→ 0,
|h|2
wenn |h| → 0.
Da die Abbildung h 7→ hT Hf (a)h ein Polynom ist, gilt weiter
– h 7→ hT Hf (a)h ist stetig
– h 7→ hT Hf (a)h hat ein Minimum m auf ∂K1 (0) = {|h| = 1} (Kompaktheit) und m > 0 (da Hf (a) > 0).
– Nun ist hT Hf (a)h ≥ m|h|2 . In der Tat hT Hf (a)h = 0 für h = 0 und
h
=: |h|e und
wenn h 6= 0 haben wir h = |h| |h|
hT Hf (a)h = |h|2 eT Hf (a)e ≥ |h|2 m .
Eigentlich, mit dem Satz 3.5.6 kann man sofort schliessen dass die obige Ungleichung mit der expliziten Konstanten m = min der Eigenwerte von Hf (a)
gilt.
Wir wählen nun ε > 0 so klein, dass Kε (a) ⊂ U und
|R(h)| ≤
m 2
|h|
4
∀h ∈ Kε (0) .
Dann
1
f (a + h) − f (a) = hT Hf (a)h + R(h)
2
m 2 m 2 m 2
≥ |h| − |h| ≥ |h|
2
4
4
∀h ∈ Kε (0) ,
d.h. f hat in a ein lokales striktes Minimum.
• Sei nun Hf (a) < 0: Dann folgt, dass −Hf (a) > 0. Es folgt aus dem obigen
Argument, dass −f ein lokales striktes Minimum in a hat. Deswegen hat f ein
lokales striktes Maximum in a.
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
61
• Sei Hf (a) indefinit. Dann gilt:
∃v, w : v T Hf (a)v > 0,
wT Hf (a)w < 0.
Wir setzen nun
Fv (t) := f (a + tv),
Fw (t) = f (a + tw).
Dann folgt
Fv00 (0) > 0 =⇒ Fv hat ein lokales Minimum in 0
und
Fw00 (0) < 0 =⇒ Fw hat ein lokales Maximum in 0,
und daraus folgt die Behauptung.
• Sei nun a ein lokales Minimum, dann hat die obige Funktion Fv ein lokales
Minimum in 0 und deshalb muss Fv00 (0) ≥ 0. Da v aber beliebig ist, kriegen
wir v t Hf (a)v ≥ 0 für alle v, d.h. Hf (a) ist positiv semidefinit.
• Sei nun a ein lokales Maximum. Dann ist a ein lokales Minimum für −f und
deswegen ist −Hf (a) positiv semidefinit. Das beweist, dass Hf (a) negativ
semidefinit ist.
Beispiel 3.5.10.
Sei f (x, y) = y 2 (x − 1) + x2 (x + 1). Dann ist
d f |(x,y) = (y 2 + 3x2 + 2x, 2(x − 1)y)
Für die kritischen Punkte muss gelten: d f |(x,y) = (0, 0). Das gilt für
P1 = (0, 0),
2
P2 = − , 0
3
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
Wir berechnen noch
Hf (x, y) =
6x + 2
2y
2y
2(x − 1) ,
d.h. die Hesse-Matrix
Hf (P1 ) =
62
!
!
2 0
0 −2
ist indefinit, d.h. es handelt sich um einen Sattelpunkt. Für P2 gilt:
Hf (P2 ) =
−2 0
0 − 10
3
!
< 0,
d.h. es handelt sich um ein lokales Maximum.
Beispiel 3.5.11.
Seien f (x, y) = x2 + y 3 und g(x, y) = x2 + y 4 . Im Punkt 0 (welches ein kritischer
Punkt!für beide Funktionen ist) ist die Hesse-Matrix in beiden Fällen gegeben durch
2 0
. Daraus schliessen wir dass der Punkt 0 kein lokales Maximum sein kann.
0 0
Aber für f ist 0 auch kein Minimum und für g ist 0 ein striktes Minimum.
3.6. Konvexität
Definition 3.6.1.
Eine Menge U ⊂ Rn heisst konvex, falls
∀x, y ∈ U : [x, y] ⊂ U.
Definition 3.6.2.
Eine Funktion f : U → R heisst konvex, falls
f (tx + (1 − t)y) ≤ tf (x) + (1 − t)f (y)
∀x, y ∈ U ∀t ∈]0, 1[ .
(3.12)
• Falls die linke Seite von (3.12) ∀x, y ∈ U ∀t ∈]0, 1[ strikt kleiner als die rechte
Seite ist, so heisst die Funktion streng konvex.
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
63
• f heisst (streng) konkav, falls −f (streng) konvex ist.
Bemerkung 3.6.3.
Eine Funktion f ist genau dann konvex, wenn, für alle x 6= y ∈ U ,
die Abbildung t 7→ Fx,y (t) = f (x + t(y − x)) konvex auf [0, 1] ist.
Satz 3.6.4 (Die diskrete Jensensche Ungleichung).
Seien Ω eine konvexe Menge und f : Ω eine konvexe Funktion. Falls x1 , . . . , xk ∈ Ω
P
und λ1 , . . . , λk ∈ [0, ∞[ mit i λi = 1, dann
!
f
X
λ i xi
≤
X
λi f (xi ) .
(3.13)
i
i
Beweis. Wir beweisen den Satz mittels des Prinzips der vollständigen Induktion.
Für k = 2 ist die Aussage genau die Definition einer konvenxen Funktion. Wir
bemerken, dass Ω konvex ist, deswegen gehört der Punkt λ1 x1 + λ2 x2 zu Ω.
Angenommen dass die Ungleichung für jede Wahl von k Punkten gilt, beweisen
wie sie für k + 1 Punkte. Wir bemerken auch dass, als konsequenz der Annahme,
P
λi xi ein Punkt von Ω ist. Seien deswegen x1 , . . . , xk+1 und λ1 , . . . , λk+1 ≥ 0 mit
Pi
i λi = 1. Falls λk+1 = 1, dann gibt es nichts zu beweisen, weil λ1 = . . . = λk = 0.
Sonst, setzen wir
λi
.
µi :=
1 − λk+1
Deshalb, aus der Induktionsannahme folgt, dass
y=
k
X
µ i xi ∈ Ω
i=1
und
f (y) ≤
k
X
µi f (xi ) .
(3.14)
i=1
Nun, aus der Konvexität von Ω folgt, dass (1 − λk+1 )y + λk+1 xk+1 ∈ Ω, weil (1 −
λk+1 )y + λk+1 xk+1 ein Punkt auf dem Segment [y, xk+1 ] ist. Aus der Definition von
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
64
Konvexität haben wir dann
!
!
k+1
k
X
X
f
λi xi = f (1 − λk+1 )
µi xi + λk+1 xk+1 = f ((1 − λk+1 )y + λk+1 xk+1 )
i=1
i=1
≤ (1 − λk+1 )f (y) + λk+1 f (xk+1 )
(3.14)
≤ (1 − λk+1 )
k
X
i
µi x + λk+1 f (x
i=1
k+1
)=
k
X
λi f (xi ) + λk+1 f (xk+1 ) .
i=1
Das beweist den Induktionsschritt und, deshalb, den Satz.
Konvexe Funktionen sind nicht unbedingt differenzierbar. Zum Beispiel ist die
Funktion x 7→ |x| konvex. Die konvexen Funktionen sind aber lokal Lipschitz stetig.
In der Tat werden wir die folgende Aussage beweisen:
Lemma 3.6.5.
Sei f : Ω → R eine konvexe Funktion auf der abgeschlossenen Kugel K̄r (x0 ). Falls
supx∈K̄r (x0 ) f =: M < ∞, dann gilt
|f (x) − f (x0 )| ≤
M − f (x0 )
|x − x0 | .
r
Als Folgerung des Lemmas, falls f eine beschränkte konvexe Funktion auf K4r (x)
mit sup |f | ≤ C < ∞ ist, dann
|f (z) − f (w)| ≤
supξ∈K̄2r (z) f − f (z)
2C
|z − w| ≤
|z − w|
r
r
für alle z, w ∈ Kr (x).
Deshalb ist die Funktion stetig auf Kr (x). Mit einem einfachen Argument folgt dann,
dass jede beschränkte konvexe Funktion, die auf einer offenen konvexen Menge Ω
definiert ist, Lipschitz auf jeder kompakten Teilmenge K ⊂ Ω ist. In der Tat, jede
konvexe Funktion ist “lokal beschränkt” und deshalb reicht die Konvexität allein
aus, aber das Argument ist aufwendig und wir werden es weglassen:
Satz 3.6.6.
Sei f : Ω → R eine konvexe Funktion auf einem offenen konvexen Definitionsbereich
Ω und K ⊂ Ω eine kompakte Menge. Dann supx∈K |f (x)| < ∞.
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
65
Beweis des Lemmas 3.6.5. Wir bemerken dass die Funktion g(x) = f (x+x0 )−f (x0 )
auch konvex ist und beschränkt auf ihrem Definitionsbereich K̄r (0) ist. Ausserdem
ist sup g = M − f (x0 ) und deswegen, falls wir beweisen dass
|g(z)| ≤
sup g
|z| ,
r
dann folgt die Behauptung des Lemmas. Betrachten wir dann x ∈ Kr (0). Falls x = 0,
x
x
und z = −r |x|
. Dann
dann ist die Ungleichung trivial. Sonst betrachten wir y = r |x|
|x|
|x|
x = r y + (1 − r )y und die Konvexität von g impliziert
|x|
|x|
|x|
M |x|
g(x) ≤
g(y) + 1 −
g(0) =
g(y) ≤
.
r
r
r
r
Ähnlicherweise 0 =
|x|
z
r+|x|
+ 1−
0 = g(0) ≤
|x|
r+|x|
x=
|x|
z
r+|x|
+
r
x
r+|x|
und deshalb
r
|x|
g(z) +
g(x) ,
r + |x|
r + |x|
d.h.
−g(x) ≤
|x|
|x|
g(z) ≤
M.
r
r
Schliesslich
|g(x)| = max{g(x), −g(x)} ≤
|x|M
.
r
Satz 3.6.7 (Konvexitätskriterium für differenzierbare Funktionen).
Sei Ω eine offene konvexe Menge und f eine differenzierbare Funktion. Die folgende
Aussagen sind äquivalent zur Konvexität von f :
(a) f (x) ≥ f (x0 ) + h∇f (x0 ), x − x0 i für alle x0 , x ∈ Ω;
(b) h∇f (y) − ∇f (w), y − wi ≥ 0 für alle y, w ∈ Ω.
Beweis. Konvexität =⇒ (a). Wir wissen, dass
f (tx + (1 − t)x0 ) ≤ tf (x) + (1 − t)f (x0 )
∀t ∈ [0, 1] .
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
66
Die obige Ungleichung können wir auch als
f (x0 + t(x − x0 )) ≤ f (x0 ) + t(f (x) − f (x0 ))
schreiben. Wenn t > 0,
f (x0 + t(x − x0 )) − f (x0 )
≤ f (x) − f (x0 ) .
t
Aber, wenn t ↓ 0 haben wir dann
h∇f (x0 ), (x − x0 )i = lim+
t↓0
f (x0 + t(x − x0 )) − f (x0 )
≤ f (x) − f (x0 ) ,
t
d.h. (a).
(a) =⇒ (b). Aus (a) folgen die zwei Ungleichungen
f (y) ≥ f (w) + h∇f (y), w − yi
f (w) ≥ f (y) + h∇f (w), y − wi = f (y) − h∇f (w), w − yi .
Die Summe der zwei Ungleichungen gibt dann
f (w) + f (y) ≥ f (y) + f (w) + h∇f (y) − ∇f (w), w − yi ,
d.h.
0 ≥ −h∇f (w) − ∇f (y), w − yi .
(b) =⇒ (a). Aus dem Mittlewertsatz wissen wir dass es eine Stelle ξ ∈]x0 , x[ gibt
so dass
f (x) − f (x0 ) = h∇f (ξ), (x − x0 )i .
Da ξ ∈][x0 , x[, existiert ein λ ∈]0, 1[ so dass ξ = x0 + λ(x − x0 ). Aus (b) folgt
h∇f (ξ) − ∇f (x0 ), x − x0 i =
1
h∇f (ξ) − ∇f (x0 ), ξ − x0 i ≥ 0
λ
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
67
und deshalb
h∇f (ξ), x − x0 i ≥ h∇f (x0 ), x − x0 i .
Daraus folgt (a).
(a) =⇒ Konvexität. Seien z, y ∈ Ω und t ∈ [0, 1]. Aus (a) folgen die Ungleichungen:
f (z) ≥ f (y + t(z − y)) + h∇f (y + t(z − y)), (1 − t)(z − y)i
f (y) ≥ f (y + t(z − y)) + h∇f (y + t(z − y)), −t(z − y)i .
Wir multiplizieren die erste Ungleichung mit t, die zweite Ungleichung mit 1 − t und
nehmen dann die Summe. Wir schliessen
tf (z) + (1 − t)f (y) ≥ f (y + t(z − y)) = f (tz + (1 − t)y) .
Satz 3.6.8 (Konvexitätskriterium).
Sei f : U → R, f zwei Mal differenzierbar und U ⊂ Rn offen und konvex. Dann gilt:
1. f konvex ⇐⇒ Hf (x) ≥ 0 ∀x ∈ U
2. Hf (x) > 0 ∀x ∈ U =⇒ f streng konvex.
Bemerkung 3.6.9.
Die Umkehrung von 2 gilt nicht: Betrachte z.B. f (x, y) = x4 + y 4 .
Beweis.
ist
1. Sei f konvex: ∀x ∈ U wählen wir ein r > 0, so dass Kr (x) ⊂ U . Dann
Fx,x+h (t) konvex ∀h ∈ Kr (0)
und daraus folgt
00
hT Hf (x)h = Fx,x+h
(0)
≥
|{z}
0
∀h ∈ Kr (0)
Konvexität in Dimension 1
und somit hT Hf (x)h ≥ 0 ∀h ∈ Rn , d.h. Hf (x) ist positiv semidefinit, d.h.
Hf (x) ≥ 0 ∀x ∈ U .
Kapitel 3. Höhere Ableitungen und die Taylorentwicklung
68
Wir beweisen nun die andere Richtung. Angenommen dass Hf (x) ≥ 0 ∀x ∈ U ,
also gilt:
00
a, b ∈ U =⇒ Fa,b
(t) = (b − a)T Hf (a + t(b − a))(b − a) ≥ 0.
Dies zeigt, dass Fa,b konvex ist für alle a, b ∈ U und daraus folgt die Behauptung.
2. Analog wie die zweite Richtung im Beweis der ersten Aussage.
4. Differentiation
parameterabhängiger Integrale
Sei U ⊂ Rn offen und f : U × [a, b] → R stetig. Wir definieren für alle x ∈ U die
Funktion
Z b
f (x, t) d t.
F (x) :=
a
In diesem Kapitel untersuchen wir die Ableitungen der Funktion F .
4.1. Differentationssatz
Der folgende Satz enthält hinreichende Bedingungen um die Ableitung und das
Integral zu vertauschen
∂
∂xi
Z
b
b
Z
f (x, t) d t =
a
a
∂f
(x, t) d t.
∂xi
Satz 4.1.1 (Differentiationssatz).
Falls gilt:
1. ∀t ∈ [a, b] ist x 7→ f (x, t) nach xi partiell differenzierbar, d.h.
∃
2. und
∂f
(x, t)
∂xi
∀(x, t) ∈ U × [a, b]
∂f
ist stetig,
∂xi
69
Kapitel 4. Differentiation parameterabhängiger Integrale
dann existiert auch
70
∂F
(x) mit
∂xi
∂F
(x) =
∂xi
Z
a
b
∂f
(x, t) d t.
∂xi
Beweis. Sei x ∈ U und ei = (0, · · · , |{z}
1 , · · · , 0). Dann ist
ite Stelle
∂F
F (x + εei ) − F (x)
(x) = lim
ε→0
∂xi
ε
Z b
Z b
1
f (x + εei , t) d t −
f (x, t) d t
= lim
ε→0 ε
a
a
Z b
f (x + εei , t) − f (x, t)
= lim
d t.
ε→0 a
ε
Daher ist
Z b
∂f
∂F
(x, t) −
(x, t) d t
∂xi
a ∂xi
Z b
Z b
f (x + εei , t) − f (x, t)
∂f
= lim
dt −
(x, t) d t
ε→0 a
ε
a ∂xi
Z b
∂f
f (x + εei , t) − f (x, t)
−
(x, t) d t .
= lim
ε→0 a
ε
∂xi
Wir behaupten nun
Z b f
(x
+
εe
,
t)
−
f
(x,
t)
∂f
ε→0
i
A(ε) :=
−
(x,
t)
dt → 0,
ε
a
|
{z
} ∂xi
∂f
(Mittelwetsatz)=
(ξε (x,t),t)
∂xi
wobei ξε (x, t) ∈ [x, x + εei ].
Wir bemerken dass
lim ξε (x, t) = x
ε→0
(4.1)
Kapitel 4. Differentiation parameterabhängiger Integrale
und mit der Stetigkeit von
71
∂f
folgt:
∂xi
∂f
∂f
(ξε (t), t) →
(x, t) .
∂xi
∂xi
Wir behaupten nun, dass die Konvergenz sogar gleichmässig in t ist, d.h.
(G) ∀δ > 0 ∃ε0 > 0, so dass
∂f
∂f
|ε| ≤ ε0 =⇒ sup (ξε (x, t), t) −
(x, t) < δ.
∂xi
t∈[a,b] ∂xi
Aus dieser Behauptung folgt dann
Z
lim sup A(ε) ≤ sup A(ε) ≤
ε→0
|ε|<ε0
b
δ d t = δ(b − a),
a
wobei δ beliebig war, d.h.
lim A(ε) = 0.
ε→0
Die Behauptung (G) folgt aus dem nächsten Lemma.
Lemma 4.1.2.
Sei g : U × [a, b] → R stetig, wobei U ⊂ Rn eine offene Menge ist. Weiter sei x ∈ U .
Dann gilt: ∀δ > 0 ∃ε > 0 mit
sup
sup |g(y, t) − g(x, t)| < δ .
y∈Kε (x) t∈[a,b]
Wir können die Funktionen t 7→ gy (t) := g(y, t) als eine “Parameterabhängige
Familie” betrachten.
Definition 4.1.3.
Sei U ⊂ Rn und I ⊂ R ein Intervall. Sei {gy }y∈U eine Familie von Funktionen
gy : I → R und y0 ∈ U . Wir sagen dass gy → gy0 gleichmässig konvergiert falls
(G) Für jede δ > 0 ∃ε > 0 so dass
sup |gy (t) − gy (t0 )| < δ
t∈I
∀y ∈ Kε (y0 ) ∩ U .
Kapitel 4. Differentiation parameterabhängiger Integrale
72
Ähnlicherweise, eine Folge von Funktionen fk : I → R konvergiert gleichmässig
nach f wenn
(G) Für jedes η > 0 ∃N ∈ N so dass
sup |fn (t) − f (t)| < η
∀n ≥ N .
t∈I
Deshalb eine alternative Formulierung des Lemmas 4.1.2 ist die folgende:
Lemma 4.1.4.
Sei g : U × [a, b] → R stetig und definieren wir gy (t) := g(y, t). Dann, für jedes
x ∈ U , konvergiert gy gleichmässig gegen gx für y → x.
Bemerkung 4.1.5.
Das Lemma basiert nur auf der Kompaktheit von [a, b]: in der Behauptung können
wir [a, b] durch eine beliebige kompakte Menge K ⊂ R ersetzen. Ausserdem, es
genügt die Stetigkeit in jeder Stelle (x, t) ∈ {x} × [a, b] um die gleichmässige Konvergenz von gy gegen gx zu schliessen.
Beweis. Sei ε > 0 gegeben. ∀(x, t) ∃δ(x, t) > 0, so dass
|g(ξ, τ ) − g(x, t)| <
ε
2
∀(ξ, τ ) mit | (ξ, τ ) − (x, t) | < δ(x, t) .
| {z } | {z }
∈Rn+1
∈Rn+1
Hier haben wir
|(ξ, τ ) − (x, t)|
|
{z
}
Euklidische Norm in
∀(x, t) sei
=
p
|ξ − x|2 + (t − τ )2 .
Rn+1
"
√
√
2
2
:= K √2 δ(x,t) (x) × t −
δ(x, t), t +
δ(x, t) .
2
2
2
|
{z
}
#
Ux,t
⊂Rn
Aus (y, τ ) ∈ Ux,t , folgt
√
2
2
|y − x| ≤
δ(x, t) und |t − τ | <
δ(x, t)
2
2
√
Kapitel 4. Differentiation parameterabhängiger Integrale
und
r
|(y, τ ) − (x, t)| <
73
1 2
1
δ (x, t) + δ 2 (x, t) = δ(x, t) .
2
2
Deshalb Ux,t ⊂ Kδ(x,t) (x, t).
Sei nun K := {x} × [a, b]. Wir bemerken, dass K kompakt ist, weil
R 3 t 7→ (x, t)
eine stetige Funktion ist und K das Bild von [a, b] unter dieser Abbildung ist. Nun
ist {Ux,t : t ∈ [a, b]} eine offene Überdeckung von K. Die Kompaktheit impliziert die
Existenz einer Teilüberdeckung {Ux,ti : i ∈ {1, · · · , N }} von K. Wir definieren
(√
)
2
δ := min
δ(x, ti ) : i ∈ {1, · · · , N } > 0
2
und wir behaupten dass δ die Bedingung (G) erfüllt.
In der Tat, sei t ∈ [a, b]. Dann ist (x, t) ∈ Ux,ti für mindestens ein i ∈ {1, · · · , N }.
Sei nun y so gewählt, dass y −x < δ ist. Wir wissen dass auch (y, t) in Ux,ti enthalten
ist. Deshalb (x, t), (y, t) ∈ Kδ(x,ti ) (x, ti ). Es folgt
|f (x, t) − f (y, t)| ≤|f (x, t) − f (x, ti )| + |f (x, ti ) − f (y, t)|
ε ε
< + = ε.
2 2
Wir schliessen
|f (x, t) − f (y, t)| < ε
d.h. (G).
∀t ∈ [a, b] , ∀y ∈ Kδ (x) ,
Kapitel 4. Differentiation parameterabhängiger Integrale
4.2. Folgerungen des Differentiationssatzes
Korollar 4.2.1.
Sei g : U × [a, b] → R stetig. Dann gilt:
b
Z
g(x, t) d t
F (x) =
a
ist eine stetige Funktion.
Beweis. Seien x ∈ U und ε > 0. Das Lemma 4.1.2 impliziert: ∃δ > 0, so dass
|g(x, t) − g(y, t)| ≤
ε
b−a
∀t und ∀y mit |y − x| < δ.
Deswegen gilt für |y − x| < δ:
Z b
Z b
|g(x, t) − g(y, t)| d t
|F (y) − F (x)| = (g(x, t) − g(y, t)) d t ≤
a
a
Z b
ε
<
dt = ε.
a b−a
Bemerkung 4.2.2.
Im Differentiationssatz ist
∂f
eine stetige Funktion. Desewgen ist auch
∂xi
∂F
(x) =
∂xi
b
Z
a
∂f
(x, t) d t
∂xi
eine stetige Funktion.
Korollar 4.2.3.
Sei g : U × [a, b] → R eine C 1 Funktion. Dann gilt:
Z
F (x) =
g(x, t) d t
a
ist eine C 1 Funktion.
b
74
Kapitel 4. Differentiation parameterabhängiger Integrale
75
4.3. Der Satz von Fubini
Der folgende Satz ist eine sehr wichtige Konsequenz des Differentiationssatzes.
Satz 4.3.1 (Satz von Fubini für stetige Funktionen).
Seien U ⊂ R2 offen, f : U → R eine stetige Funktion und R = [a, b] × [c, d] ⊂ U .
Dann gilt:
Z Z
Z Z
b
b
d
d
f (s, t) d s d t .
f (s, t) d t d s =
a
a
c
c
Beweis. Wir definieren
x
Z
y
Z
Φ(x, y) :=
f (s, t) d t d s
a
und
c
y
Z
x
Z
f (s, t) d s d t.
Ψ(x, y) :=
c
Wir verwenden folgende Konvention:
a
Rβ
=−
α
Rα
β
, falls β < α und
Rα
α
= 0.
Schritt 1: Φ und Ψ sind stetig differenzierbar und ∇Φ = ∇Ψ.
(Die Funktionen sind wohldefiniert für (x, y) ∈]a − ε, b + ε[×]c − ε, d + ε[, wenn ε > 0
klein genug ist). Sei y fixiert. Dann setzen wir
Z
y
f (x, t) d t.
φy (x) =
c
Da f stetig ist, ist auch x 7→ φy (x) stetig (für jede y). Der Fundamentalsatz der
Integralrechnung ergibt
∂Φ
(x, y) = φy (x) =
∂x
Z
y
f (x, t) d t.
(4.2)
c
∂Φ
∂Φ
ist eine stetige Funktion in der Variablen x. Wir beweisen nun, dass
eine
∂x
∂x
stetige Funktion in zwei Variablen ist: Sei (x0 , y0 ), ε > 0. Dann ∃δ > 0, so dass
∂Φ
(x, y0 ) − ∂Φ (x0 , y0 ) < ε
∂x
2
∂x
für |x − x0 | < ε.
Kapitel 4. Differentiation parameterabhängiger Integrale
76
Sei x fixiert, dann gilt:
Z y
Z y0
∂Φ
∂Φ
= (x, y0 ) −
f
(x,
t)
d
t
f
(x,
t)
d
t
−
(x,
y)
∂x
∂x
c
c
Z y
Z y
f (x, t) d t ≤
|f (x, t)| d t
= y0
y0
≤ M |y − y0 | ,
wobei M das Maximum von f ist.
ε
Damit folgt für δ̄ ≤ 2M
ε
∂Φ
∂Φ
(x, y) < .
|y − y0 | < δ̄ =⇒ (x, y0 ) −
∂x
∂x
2
Wenn nun
|(x, y) − (x0 , y0 )| < min δ, δ̄ ,
dann folgt |x − x0 | < δ und |y − y0 | < δ̄ und somit
≤
∂Φ
(x, y) −
∂x
∂Φ
(x, y) −
∂x
∂Φ
(x0 , y0 )
∂x
∂Φ
ε ε
∂Φ
∂Φ
(x, y0 ) + (x, y0 ) −
(x0 , y0 ) < + = ε .
∂x
∂x
∂x
2 2
Mit dem gleichen Argument folgt, dass
∂Ψ
existiert und stetig ist. Sei nun
∂y
x
Z
ψ(x, y) :=
f (s, y) d s .
a
Dürfen wir die letzte Identität in der folgenden Zeile schliessen?
∂Ψ
∂
=
∂x
∂x
Z
y
?
Z
ψ(x, t) d t =
c
Wir brauchen hier die Stetigkeit von
c
∂ψ
.
∂x
y
∂ψ
(x, t) d t
∂x
Das haben wir mit dem letzten Argument
Kapitel 4. Differentiation parameterabhängiger Integrale
77
gezeigt, also ist, wegen des Differentiationssatzes,
∂Ψ
(x, y) =
∂x
y
Z
c
∂ψ
(x, t) d t =
∂x
Z
c
y
∂
∂x
Z
x
f (s, t) d s d t
Fundamentalsatz
Z
y
f (x, t) d t .
=
c
a
(4.3)
Aber aus (4.2) und (4.3) schliessen wir auch
∂Ψ
∂Φ
=
.
∂x
∂x
Ähnlicherweise können wir zeigen dass
∂Ψ
∂Φ
=
.
∂y
∂y
Schritt 2: Φ = Ψ. Sei α := Φ − Ψ. Dank Schritt 1 wissen wir, dass α differenzierbar ist und d α = 0. Seien nun
(x0 , y0 ), (x1 , y1 ) ∈ [a − ε, b + ε[×]c − ε, d + ε[.
Da [(x0 , y0 ), (x1 , y1 )] Teil des Definitionsbereiches ist, dürfen wir den Schrankensatz
anwenden:
|α(x0 , y0 ) − α(x1 , y1 )| ≤ |(x1 , y1 ) − (x0 , y0 )| max |∇α| = 0.
R
Daher ist
Φ − Ψ = α = konstant = Φ(a, c) − Ψ(a, c) = 0 − 0 = 0
und daraus folgt
Φ(x, y) = Ψ(x, y)
∀(x, y) ∈]a − ε, b + ε[×]c − ε, d + ε[.
Nun folgt die Aussage des Satzes mit y = d, x = b.
Das letzte Argument kann man folgendermassen verallgemeinern
Lemma 4.3.2.
Seien U ⊂ Rn eine offene Menge und f : U → R eine differenzierbare Funktion mit
Kapitel 4. Differentiation parameterabhängiger Integrale
df = 0. Falls V ⊂ U eine konvexe Teilmenge ist, dann ist f |V konstant.
78
5. Differenzierbare Abbildungen
5.1. Definition
Wir haben die Definition schon gegeben. Zur Erinnerung:
Definition 5.1.1.
Sei f : Rn ⊃ Ω → Rm . f ist in x0 differenzierbar, falls es eine lineare Abbildung
L : Rn → Rm gibt mit
f (x0 + h) − f (x0 ) − L(h)
= 0.
h→0
|h|
lim
D.h. wenn
R(h) := f (x0 + h) − f (x0 ) − L(h),
dann gilt:
|R(h)|
= 0.
h→0
|h|
lim
Die (ε − δ)-Definition lautet:
∀ε > 0, ∃δ > 0, so dass 0 < |h| < δ =⇒
|R(h)|
< ε.
|h|
D.h. |R(h)| geht schneller gegen 0 als |h|, in der o-Notation heisst dies: R(h) = o(|h|).
Deshalb gilt:
f diff. in x0 ⇐⇒ ∃L linear, s.d. f (x0 + h) = f (x0 ) + L(h) + o(|h|) .
Bemerkung 5.1.2.
Ist f differenzierbar in x0 , dann ist f auch stetig in x0 .
79
(5.1)
Kapitel 5. Differenzierbare Abbildungen
80
Falls f differenzierbar ist in x0 , dann gibt es eine lineare Abbildung L, die (5.1)
erfüllt. Wir nennen L das Differential von f und verwenden die Notation d f |x0 .
Sei f : U → Rm , wobei U ⊂ Rn ist. Dann ist f von der Form
f (x) = (f1 (x), · · · , fm (x)) .
|
{z
}
m Funktionen
∂fi
. Die Matrixdarstellung einer
∂xj
linearen Abbildung L : Rn → Rm besteht aus m × n Koeffizienten:
∀i gibt es n verschiedene partielle Ableitungen:

L11

 L21
L=
 ..
 .
  
· · · L1n
L1
  
· · · L2n   L2 
 
.. 
= . 
.   .. 
Lm1 · · · Lmn
Lm
wobei Lj die j-Zeile der Matrix L bezeichnet (jede solche Zeile ist dann eine 1 × n
matrix). Wir haben deshalb



L(x) = L · x = 


L11 x1 + L12 x2 + · · · + L1n xn
L21 x1 + L22 x2 + · · · + L2n xn
..
.
Lm1 x1 + Lm2 x2 + · · · + Lmn xn


 
 
=
 
 
L1 · x
L2 · x
..
.






Lm · x ,
wobei · das Matrixprodukt bezeichnet.
Wir definieren nun m lineare Abbildungen Li : Rn → R als Li (x) = Li ·x = hLi , xi.
Dann ist


L1 (x)


 L2 (x) 

L(x) =  . 
.
 .. 
Ln (x)
Kapitel 5. Differenzierbare Abbildungen
81
Sei f : U → Rm differenzierbar in x0 und sei L = d f |x0 . Dann folgt
=:A
z
}|
{
f (x0 + h) − f (x0 ) − L(h)
→ 0,
|h|
(5.2)
wobei

A
 
 

f1 (x + h)
f1 (x0 )
L1 (h)

  .   . 
..
 −  ..  −  .. 
:= 
.

 
 

fm (x0 + h)
fm (x0 )
Lm (h)


f1 (x0 + h) − f1 (x0 ) − L1 (h)


..

=
.


fm (x0 + h) − fm (x0 ) − Lm (h)
und somit


A
=
|h|  f
f1 (x0 +h)−f1 (x0 )−L1 (h)
|h|
..
.
m (x0 +h)−fm (x0 )−Lm (h)


.

|h|
Deswegen gilt:
(5.2) ⇐⇒
⇐⇒
fi (x0 + h) − fi (x0 ) − Li (h)
= 0 ∀i ∈ {1, · · · , m}
h→0
|h|
fi ist differenzierbar in x0 und Li = d fi |x0 .
lim
Im nächsten Satz fassen wir die Konsequenzen dieses Arguments zusammen.
Satz 5.1.3.
Sei f : U → Rm , wobei U ⊂ Rn offen ist und f = (f1 , · · · , fm ). Dann gelten:
1. f ist differenzierbar in x0 ⇐⇒ fi differenzierbar in x0 ∀i ∈ {1, · · · , m}.
2.


d f1 |x0 (h)


..
.
d f |x0 (h) = 
.


d fm |x0 (h)
Kapitel 5. Differenzierbare Abbildungen
3.
82


h∇f1 (x0 ), hi


..
=
d f |x0 (h) = 
.


h∇fm (x0 ), hi


∂f1
∂f1
∂f1
(x
)
(x
)
·
·
·
(x
)
h
0
0
0
1
 ∂x1

∂x2
∂xn

 h 
.
.
.
.
 2 

.
.
.
.
.
.
.
.

 . 

  .. 
=
.
∂fi
..
..
..


.
(x0 )
.
.


∂xj

 hn−1 

 ∂fm

∂fm
(x0 )
···
···
(x0 )
hn
∂x1
∂xn

Diese Matrix ist die Jacobi-Matrix die wir schon gesehen haben.
5.2. Differentiationsregeln
Die erste Differentiationsregel ist eine einfache Folgerung von Satz 5.1.3.
Satz 5.2.1.
Seien f, g : U → Rm beide differenzierbar in x0 und λ, µ ∈ R. Dann ist auch


λf1 + µg1


..

λf + µg = 
.


λfm + µgm
differenzierbar in x0 und d(λf + µg)|x0 = λ d f |x0 + µ d g|x0 .
Seien nun f : U → Rm und g : U → R differenzierbar in x0 und


g(x)f1 (x)


..

(g · f )(x) = g(x) · f (x) = 
.


g(x)fm (x)
Dann ist jede Funktion gfi differenzierbar und somit auch die Funktion gf . Eigent-
Kapitel 5. Differenzierbare Abbildungen
83
lich aus der Differenzierbarkeit von f und gi schliessen wir
fi (x0 + h) = fi (x0 ) + d fi |x0 (h) + o(|h|)
(5.3)
g(x0 + h) = g(x0 ) + d g|x0 (h) + o(|h|) .
(5.4)
Wir multiplizieren die letzte zwei Gleichungen:
fi (x0 + h)g(x0 + h) =fi (x0 )g(x0 ) + g(x0 ) d fi |x0 (h) + fi (x0 ) d g|x0 (h)
|
{z
}
=d(fi g)|x0 (h)
+ o(|h|)(d fi |x0 (h) + d g|x0 (h) + o(|h|) .
|
{z
}
=o(|h|)
Wir schliessen deshalb die Formel
d(fi g)|x0 = g(x0 ) d fi |x0 + fi (x0 ) d g|x0 .
Damit berechnen wir nun das Differential d(gf ):



gf1 d(gf1 )|x0 (h)
 . 


..

..  (h) = 
d |x0 (gf )(h) = d 
.




gfm
d(gfm )|x0 (h)
x0


d g|x0 (h)f1 (x0 ) + g(x0 ) d f1 |x0 (h)


..
.
=
.


d g|x0 (h)fm (x0 ) + g(x0 ) d fm |x0 (h)

(5.5)
Kapitel 5. Differenzierbare Abbildungen
84
Dann sieht die Jacobi-Matrix wie folgt aus:

∂f1
∂g
∂f1
∂g
(x
)f
(x
)
+
g(x
)
(x
)
·
·
·
(x
)f
(x
)
+
g(x
)
(x
)
0
0
0 1 0
0
0

 ∂x1 0 1 0
∂x1
∂xn
∂xn


..
..
..


.
.
.



 ∂g
∂fm
∂g
∂fm
(x0 )fm (x0 ) + g(x0 )
(x0 ) · · ·
(x0 )fm (x0 ) + g(x0 )
(x0 )
∂x1
∂x1
∂xn
∂xn
 


∂g
∂f1
∂g
∂f1
 ∂x1 (x0 )f1 (x0 ) · · · ∂xn (x0 )f1 (x0 )   g(x0 ) ∂x1 (x0 ) · · · g(x0 ) ∂xn (x0 ) 
 


..
..
..
..
..
..
+

=
.
.
.
.
.
.
 




 ∂g

∂g
∂fm
∂fm
(x0 )fm (x0 ) · · ·
(x0 )fm (x0 )
g(x0 )
(x0 ) · · · g(x0 )
(x0 )
∂x1
∂xn
∂x1
∂xn

Jacobi-M von f
z }| {
∂g
∂fi
(x0 )fi (x0 ) + g(x0 )
(x0 ) .
=
∂xj
∂xj
|
{z
} |
{z
}
=B
=:A
Also ist
lineare Abbildung B mit Rang 1
d(gf )|x0 = g(x0 ) d f |x0 +
| {z }
z
}|
{
T
f (x0 ) · d g|x0
A
und somit
d(gf )|x0 (h) = g(x0 ) [d f |x0 (h)] + [f (x0 )] d g|x0 (h).
Die Koeffizienten der Matrix-Darstellung der linearen Abbildung B sind
fi (x0 )
∂g
(x0 ) .
∂xj
Diese sind übrigens die Koeffizienten des Tensorproduktes f (x0 ) ⊗ ∇g(x0 ).
Im nächsten Satz fassen wir die Konsequenzen dieses Arguments zusammen (welches eine Verallgemeinerung der Leibniz Regel (f g)0 = f g 0 + gf 0 von Analysis I
ist).
Satz 5.2.2.
Seien f : U → Rm und g : U → R differenzierbar in x0 ∈ U , wobei U ⊂ Rn offen
Kapitel 5. Differenzierbare Abbildungen
85
ist. Dann ist auch f g differenzierbar in x0 und
∀h ∈ Rn .
d(f g)|x0 (h) = g(x0 ) d f |x0 (h) + f (x0 ) d g|x0 (h)
(5.6)
5.3. Die Kettenregel
Satz 5.3.1.
Seien U ⊂ Rn , V ⊂ Rm offen und
f :U →V
und
g : V → Rk .
Falls f in a und g in b = f (a) differenzierbar sind, dann ist auch g ◦ f in a differenzierbar mit
d(g ◦ f )|a = d g|b ◦ d f |a .
(5.7)
Beweis. Die Differenzierbarkeit von f in a bedeutet
f (a + h) = f (a) + d f |a (h) + R(h) .
| {z }
=o(|h|)
Die Differenzierbarkeit von g in b bedeutet
g(b + h̄) = g(b) + d g|b (h̄) + R̄(h̄) .
| {z }
=o(|h̄|)
Nun ist
g(f (a + h))
= g(f (a) +h̄) = g(b) + d g|b (h̄) + R̄(h̄)
|{z}
=b
= g(b) + d g|b (d f |a (h) + R(h)) + R̄(h̄) ,
wobei
h̄ = f (a + h) − f (a) = d f |a (h) + o(|h|) .
Kapitel 5. Differenzierbare Abbildungen
86
Mit der Linearität des Differentials d g|b folgt:
g ◦ f (a + h) = g(b) + d g|b (d f |a (h)) + d g|b (R(h)) + R̄(h̄)
{z
} |
{z
}
|{z} |
g◦f (a)
ist linear in h
:=ρ(h)
Wir werden nun zeigen, dass
ρ(h) = o(|h|) .
Schritt 1: Die Linearität von h 7→ d g|b (d f |a (h)). Seien λ1 , λ2 ∈ R und h1 , h2 ∈
R . Dann ist
n
d g|b ◦ d f |a (λ1 h1 + λ2 h2 )
= d g|b (d f |a (λ1 h1 + λ2 h2 ))


∈Rm
∈Rm
z }| {
z }| {
= d g|b λ1 d f |a (h1 ) +λ2 d f |a (h2 )
= λ1 d g|b (d f |a (h1 )) + λ2 d g|b (d f (h2 ))
= λ1 d g|b ◦ d f |a (h1 ) + λ2 d g|b ◦ d f |a (h2 ).
Schritt 2: ρ(h) = o(|h|).
Es ist
ρ(h)
|h|
|d g|b (R(h))| |R̄(h̄)|
+
|h|
|h|
kd g|b kO |R(h)| |R̄(h̄)|
+
.
≤
|h|
|h|
≤
Wir wissen, dass
lim
h→0
|R(h)|
=0
|h|
und damit konvergiert der erste Teil von (5.8) gegen Null. Zudem ist

0,
falls h̄ = 0
|R̄(h̄)|
=
 |R̄(h̄)| |h̄| , falls h̄ 6= 0.
|h|
|h̄| |h|
(5.8)
Kapitel 5. Differenzierbare Abbildungen
87
Nun ist
|h̄|
= | d f |a (h) + R(h)| ≤ | d f |a (h)| + |R(h)|
≤ k d f |a kO |h| + |R(h)|.
Da
|R(h)|
= 0,
h→0
|h|
lim
gibt es für jedes ε > 0 ein δ > 0, so dass
|h| < δ
|R(h)|
< ε.
|h|
=⇒
Falls |h| < δ folgt
|h̄| ≤ (| d f |a |O + ε)|h| .
Deswegen gilt: Wenn |h| → 0, dann |h̄| → 0 und für |h| < δ folgt:
|R̄(h̄)|
≤
|h|
|R̄(h̄)|
|h̄|
| {z }
(k d f |a kO + ε) .
→0, wenn |h|→0
Also gilt:
0
|ρ(h)|
|h|
h→0
| d g|b (R(h))|
|R̄(h̄)|
+ lim
=0+0=0
≤ lim
h→0
h→0
|h|
|h|
≤ lim sup
und deshalb
|ρ(h)|
= 0.
h→0 |h|
lim
Damit folgt die Aussage.
Bemerkung 5.3.2.
(5.9)
Kapitel 5. Differenzierbare Abbildungen
88
Sei n = m = k = 1 und b = f (a). Dann ist
d f |a (h) = f 0 (a)h
d g|b (h̄) = g 0 (b)h̄ = g 0 (f (a))h̄
und somit
d g|b ◦ d f |a (h) = d g|b (d f |a (h)) = d g|b (f 0 (a)h)
= g 0 (b)f 0 (a)h = g 0 (f (a))f 0 (a)h.
(5.10)
Sei nun φ := g ◦ f . Folglich ist
d φ|a (h) = φ0 (a)h = (g ◦ f )0 (a)h,
d.h. die verallgemeinerte Kettenregel impliziert
d φ|a (h)
=
(5.10)
=
d(g ◦ f )|a (h) = d g|b ◦ d f |a (h)
g 0 (f (a))f 0 (a)h
=⇒ (g ◦ f )0 (a) 6 h = g 0 (f (a))f 0 (a) 6 h
=⇒ (g ◦ f )0 (a) = g 0 (f (a))f 0 (a)
{z
}
|
alte Kettenregel
die bereits bekannte Kettenregel, d.h. die beiden Kettenregeln stimmen im eindimensionalen Fall überein.
Bemerkung 5.3.3.
Wir betrachten nun die Kettenregel für die Jacobi-Matrizen. Sei M die JacobiMatrix von d g|b=f (a) und N die Jabobi-Matrix von d f |a . Die Jacobi-Matrix von
d(g ◦ f )|a ist gemäss der verallgemeinerten Kettenregel M · N : wir wollen diese
Formel hier herleiten. Es ist g = (g1 , · · · , gk ) und f = (f1 , · · · , fm ) und
d g|b ◦ d g|a (w) = d g|b (d f |a (w)).
| {z }
=v
Kapitel 5. Differenzierbare Abbildungen
89
In Matrixschreibweise erhalten wir dann
d g|b ◦ d f |a (w)
= d g|b (v)
!
m
m
m
X
X
X
=
M1i vi ,
M2i vi , · · · ,
Mki vi ,
i=1
i=1
i=1
wobei
v = d f |a (w) =
n
X
N1j wj , · · · ,
j=1
n
X
!
Nmj vj
.
j=1
Also ist
d g|b ◦ d f |a (v) =
m X
n
X
M1i Nij vj , · · · ,
i=1 j=1
m X
n
X
!
Mki Nij vj
.
i=1 j=1
Sei A die Matrix
Alj =
m
X
Mli Nij ,
d.h. A = M · N .
i=1
Dann
d g|b ◦ d f |a (v) =
n
X
j=1
A1j vj , · · · ,
n
X
!
Akj vj
.
j=1
Daher ist A die Matrixdarstellung von
d g|b ◦ d f |a = d(g ◦ f )|a ⇐⇒ A ist die Jacobi-Matrix von d(g ◦ f )|a .
Bemerkung 5.3.4.
Sei f : U → V ⊂ Rm mit f = (f1 , · · · , fm ), fi (x) = fi (x1 , · · · , xn )
Kapitel 5. Differenzierbare Abbildungen
90
und g : V → Rk mit g = (g1 , · · · , gk ), gj (y) = g(y1 , · · · , ym ). Dann gilt:
g ◦ f (x) = (g1 (f (x)), · · · , gk (f (x)))
gj (f (x)) = gj (f1 (x1 , · · · , xn )
∂
(gl ◦ f )(a)
Alj =
∂xj
∂gl
∂gl
Mli =
(b) =
(f (a))
∂yi
∂yi
∂fi
Nij =
(a).
∂xj
Also ist
∂
(gl ◦ f )(a)
∂xj
= Alj =
X
Mli Nij
i=1
=
m
X
∂gl
i=1
∂yi
(f (a))
∂fi
(a).
∂xj
Korollar 5.3.5.
Sei f : U → V (⊂ Rm ) und φ : V → R mit:
• a ∈ U und U offen;
• b ∈ V , V offen und b = f (a);
• f differenzierbar in a und φ differenzierbar in b.
Dann ist φ ◦ f differenzierbar in a mit
m
X ∂φ
∂fi
∂(φ ◦ f )
(a) =
(f (a))
(a).
∂xj
∂y
∂x
i
j
i=1
Das ist die “konkrete” allgemeine Kettenregel.
5.4. Der verallgemeinerte Schrankensatz
Definition 5.4.1.
Sei f : U → Rm eine Abbildung f = (f1 , . . . fm ). Wir schreiben f ∈ C k (U, Rm ), falls
Kapitel 5. Differenzierbare Abbildungen
91
alle partiellen Ableitungen der Ordnung ≤ k der Funktionen fi existieren und stetig
sind.
Satz 5.4.2.
Sei Ω ⊂ Rn eine offene Menge, f ∈ C 1 (Ω, Rk ) und γ : [a, b] → Ω eine C 1 -Kurve.
Dann gilt die folgende Abschätzung:
"
|f (γ(b)) − f (γ(a))| ≤
#
Z
sup d f |γ(t) O
t∈[a,b]
a
|
b
|γ̇(t)| d t
{z
}
.
=die Länge der Kurve
Zur Erinnerung: γ : [a, b] → Ω ⊂ Rn , γ = (γ1 , · · · , γn ), γ̇ = (γ10 , · · · , γn0 ).
Beweis. Sei φ : [a, b] → Rk die Funktion
φ(t) := f (γ(t)) = (f ◦ γ)(t).
Wegen der Kettenregel ist
d φ|t = d f |γ(t) ◦ d γ|t
(5.11)
und
d φ|t : R → Rk ist eine lineare Abbildung.
Weiter ist φ = (φ1 , · · · , φk ) und somit ist


 
∂φ1
φ0
 ∂t 
 .   .1 
 ..  =  ..  =: φ̇

  
 ∂φk 
φ0k
∂t
die Jacobi-Matrix von
φ (d.h. d φ|t (h) = hφ̇(t)). Sei nun A(x) die Jacobi-Matrix von
∂fi
f and der stelle x d.h. Aij (x) =
(x) . Wieder wenden wir die Kettenregel an:
∂xj
φ̇(t) = A(γ(t)) · γ̇(t) .
|
{z
}
Matrix-Darstellung von (5.11)
Kapitel 5. Differenzierbare Abbildungen
Dann ist
92


φ1 (b) − φ1 (a)


..
.
f (γ(b)) − f (γ(a)) = φ(b) − φ(a) = 
.


φk (b) − φk (a)
Ferner ist φ0i eine stetige Funktion:
φ0i (t) =
n
X
n
X
∂fi
(γ(t))γj0 (t).
∂x
j
j=1
Aij (γ(t))γj0 (t) =
j=1
Nun ist
und
R

φ01 (t) d t


..

φ(b) − φ(a) = 
.
R

b 0
φ (t) d t
a k
b
a
v
u k Z b
2
uX
t
0
|f (γ(b)) − f (γ(a))| = |φ(b) − φ(a)| =
φi (t) d t .
i=1
a
Wir brauchen nun die folgende Ungleichung:
v
u k Z b
2 Z b
uX
t
0
|φ̇(t)| d t .
φi (t) d t ≤
(5.12)
a
a
i=1
Diese Ungleichung folgt aus Lemma 5.4.4 (siehe unten). Mit dieser Ungleichung
schliessen wir:
Z
|f (γ(b)) − f (γ(a))| ≤
b
b
Z
|φ̇(t)| d t =
|A(γ(t)) · γ̇(t)| d t
Z b
Z b
≤
kA(γ(t))kO |γ̇(t)| d t =
kdf |γ(t) kO |γ̇(t)| d t
a
a
Z b
≤ sup d f |γ(t) O
|γ̇(t)| d t.
a
t∈[a,b]
Bemerkung 5.4.3.
a
a
Kapitel 5. Differenzierbare Abbildungen
93
In der Tat ist supt∈[a,b] d f |γ(t) O ein Maximum wegen der Stetigkeit der Abbildung
t 7→ d f |γ(t) O .
Lemma 5.4.4.
Sei g : [a, b] → Rk eine stetige Funktion. Dann gilt folgende verallgemeinerte Dreiecksungleichung:
v
u k Z b
2 Z b
uX
t
|g(s)| d s .
g (s) ds ≤
i
a
a
i=1
Beweis. Sei ε > 0 gegeben und Treppenfunktionen αi , so dass gi − ε ≤ αi ≤ gi + ε,
αi − ε ≤ gi ≤ αi + ε. Dann folgt:
Z
b
Z
αi − (b − a)ε ≤
b
Z
gi ≤
a
a
d.h.
b
αi + (b − a)ε,
a
Z b
Z b gi −
αi ≤ (b − a)ε.
a
a
Wir nutzen die Dreiecksungleichung für Vektoren in Rk und die Linearität des Riemannschen Integrals um zu schliessen
v
v
v
u k Z
u
u
2
Z
Z
k
k Z
2
2
uX
uX
X
√
u
t
t
≤t
g
−
α
g
−
α
≤
k(b − a)ε.
i
i
i
i
i=1
i=1
i=1
(5.13)
Sei nun α = (α1 , . . . , αk ). Dann haben wir
Z b
Z b√
Z b Z b
Z b
√
||g|
−
|α||
≤
|g
−
α|
≤
|α|
≤
kε
=
k(b − a)ε . (5.14)
|g|
−
a
a
a
a
a
Wir behaupten nun, dass
v
u k Z b 2 Z b
uX
t
αi ≤
|α| .
i=1
a
a
(5.15)
Kapitel 5. Differenzierbare Abbildungen
94
Mit (5.13), (5.14) und der Behauptung (5.15) folgt:
v
u k Z b 2
uX
t
gi
≤
i=1
v
u k Z b 2
uX
√
t
αi + (b − a) kε
a
a
i=1
b
Z
≤
Z b
√
√
|α| + (b − a) kε ≤
|g| + 2(b − a) kε.
a
a
Wenn nun ε ↓ 0, erhalten wir
v
u k Z b 2 Z b
uX
t
|g| .
gi ≤
i=1
a
a
Beweis von (5.15). O.B.d.A. ∃ eine Zerlegung von [a, b] mit
a = c0 < c1 < · · · < cN = b,
so dass jedes αi konstant auf [cj−1 , cj ] = Ij ist. Sei ai,j diese Konstante. D.h.


α1
.
.
α=
.
αk
ist konstant auf Ij mit Wert


a1,j
 . 
. 
aj = 
 . .
ak,j
Nun ist
v
v
!2
u k Z b 2 u k
N
uX X
uX
t
αi = t
|Ij |αi,j
= |a| ,
i=1
a
i=1
j=1
Kapitel 5. Differenzierbare Abbildungen
95
wobei |Ij | = cj − cj−1 und
a :=
N
X
j=1
P
N
j=1 |Ij |α1,j

|Ij |aj = 



..
.
.

PN
|I
|α
j=1 j 1,j
Damit erhalten wir
N
X
|a| = |Ij |aj Dreiecksungl.
≤
j=1
=
N
X
N
X
|Ij |aj j=1
Z
b
|α|.
|Ij ||aj | =
a
j=1
Korollar 5.4.5.
Sei f ∈ C 1 (Ω, Rk ) und [p, q] ⊂ Ω. Dann gilt:
|f (p) − f (q)| ≤ max kd f |z kO |p − q|.
z∈[p,q]
Beweis. Wir wenden den Schrankensatz auf f und γ : [0, 1] → Ω an, wobei γ(s) =
(1 − s)p + sq. Da γ̇ = q − p, ist
|f (p) − f (q)| ≤ max d f |γ(s) O
Z
s∈[0,1]
0
|
1
|γ̇(s)| d s = max kd f |z kO |p − q| .
z∈[p,q]
{z
}
|p−q|
Bemerkung 5.4.6.
Für k = 1 gibt es eine stärkere Aussage: Der Mittelwertsatz garantiert die Existenz
einer Stelle z ∈ [p, q] mit f (p) − f (q) = d f |z (p − q). Diese Aussage ist aber falsch,
wenn k > 1 ist.
Korollar 5.4.7.
Sei U sternförmig mit Zentrum 0 (bzw. konvex), p ∈ U (bzw. p, q ∈ U ) und f : U →
Kapitel 5. Differenzierbare Abbildungen
96
Rm eine differenzierbare Abbildung. Dann gilt folgende Abschätzung:
|f (p) − f (0)| ≤ sup kdf |x kO |p|
bzw. |f (p) − f (q)| ≤ sup kdf |x kO |p − q| .
x∈U
x∈U
Beweis. Da [0, p] ⊂ U (bzw. [p, q] ⊂ U ) können wir Korollar 5.4.5 anwenden und
die Behauptung folgt.
5.5. Umkehrbare Abbildungen und Diffeomorphismen
Bemerkung 5.5.1.
Sei U ⊂ Rn und f : U → f (U ) ⊂ Rn . Dann gilt:
f ist umkehrbar ⇐⇒ f ist injektiv.
Bemerkung 5.5.2.
Aus der linearen Algebra wissen wir folgendes: Seien V und W zwei Vektorräume
der Dimension m und n und sei A : V → W linear und bijektiv. Dann ist
m = dim V = dim W = n.
Sei V = W = Rm = Rn . Sei a = (aij ) die Matrixdarstellung für A. Weiter seien
v = (v1 , . . . , vm ), w = (w1 , · · · , wm ) ∈ Rm .
Dann gilt:
w = A(v) ⇐⇒ wi =
m
X
aij vj ∀i ∈ {1, . . . , n}.
j=1
Die Umkehrbarkeit von A impliziert die Surjektivität und Injektivität, d.h.
A ist surjektiv ⇐⇒ ∀w ∈ W ∃v : A(v) = w,
A ist injektiv ⇐⇒ v von oben ist eindeutig bestimmt.
Bemerkung 5.5.3.
1. A ist bijektiv ⇐⇒ m = n und a ∈ Rn×n ist eine inver-
Kapitel 5. Differenzierbare Abbildungen
97
tierbare Matrix ( ⇐⇒ det a 6= 0).
2. A bijektiv =⇒ die Umkehrabbildung von A (das heisst A−1 ) ist auch eine
lineare Abbildung und die Matrixdarstellung von A−1 ist die Inverse von a,
die wir mit a−1 bezeichnen, d.h. die einzige Matrix a−1 mit a−1 · a = Em (die
Einheitsmatrix).
Für die Matrix a−1 haben wir eine explizite Formel aus der Linearen Algebra.
Definition 5.5.4.
Sei b eine n × n Matrix mit n ≥ 2 und i, j ∈ {1, . . . n}. Sei M ij die (m − 1) × (m − 1)
Matrix die wir erhalten wenn wir die i-te Zeile und die j-te Spalte von a eliminieren.
Die Matrix
Cij = (−1)i+j det M ji
wird Matrix der Kofaktoren von b genannt.
Lemma 5.5.5.
Sei a eine n × n Matrix mit det a 6= 0. Sei c die Matrix der Kofaktoren von a. Dann
a−1 =
c
.
det a
Beispiel 5.5.6.
Als Beispiel betrachten wir eine lineare Abbildung in Dimension zwei: Sei A : R2 →
R2 linear , d.h. A(v) = a · v mit a ∈ R2×2 . Nehmen wir an dass
a=
α β
γ δ
!
und det a = αδ − βγ 6= 0 .
Wir haben dann
c=
δ −β
−γ α
!
und
a−1
1
=
det a
δ −β
−γ α
!
.
Kapitel 5. Differenzierbare Abbildungen
98
Tatsächlich,
1
a−1 · a =
det a
δ −β
−γ α
!
α β
γ δ
!
1
=
det a
αδ − βγ
0
0
αδ − βγ
!
=
!
1 0
.
0 1
Definition 5.5.7.
Seien U ⊂ Rn und V ⊂ Rm zwei offene Mengen. Eine C 1 Abbildung Φ : U → V mit
Umkehrabbildung Ψ welche auch C 1 ist heisst Diffeomorphismus.
Lemma 5.5.8.
Seien U ⊂ Rn , V ⊂ Rm zwei offene Mengen und Φ : U → V eine C 1 Abbildung mit
Umkehrabbildung Ψ : V → U . Sei Ψ überall differenzierbar. Dann gilt:
1. m = n;
2. d Φ|p ist eine umkehrbare lineare Funktion ∀p ∈ U ;
−1
3. d Ψ|q = d Φ|Ψ(q)
(d.h. die Jacobi-Matrix von Ψ an der Stelle q ist die
inverse der Jacobi Matrix von Φ an der Stelle Ψ(q));
4. Ψ ∈ C 1 und deswegen ist Φ ein Diffeomorphismums.
Bemerkung 5.5.9.
Falls m = n = 1 ist, bedeutet die Formel 3.:
Ψ0 (q) =
1
Φ0 (Ψ(q))
,
d.h. die uns bereits bekannte Formel für die Ableitung einer Umkehrfunktion in einer
reellen Variablen.
Beweis. Es ist
Φ(Ψ(q)) = q = Id(q),
wobei Id die Identität bezeichnet. D.h.
V 3
q 7→
Id(q) = q ∈ V .
Kapitel 5. Differenzierbare Abbildungen
99
Id können wir auch als die identische lineare Abbildung auf Rm betrachten und
deshalb
d Id |q = Id
∀q ∈ V .
Mit der Kettenregel erhalten wir
d Φ|Ψ(q) ◦ d Ψ|q = d |q Id = Id
| {z }
| {z }
lin. Abb. A
⇐⇒
A(B(v)) = v ∀v ∈ Rm
(5.16)
lin. Abb. B
und dies ist äquivalent dazu, dass A umkehrbar und linear ist und B die Umkehrabbildung.
1. Diese Aussage folgt aus der linearen Algebra.
2. ist die Aussage “A ist umkehrbar an der Stelle Ψ(q)” (Ψ ist die Umkehrfunktion
von Φ =⇒ ∀p ∈ U , ∃q ∈ V mit Ψ(q) = p).
3. Es ist
d Ψ|q =
d Φ|Ψ(q)
−1
−1
(5.16)
◦ d Φ|Ψ(q) ◦ d Ψ|q = d Φ|Ψ(q)
◦ Id
=
d Φ|Ψ(q)
−1
.
4. Sei a(q) die Jacobi Matrix von Φ an der Stelle q, mit Koeffizienten
aij (q) =
∂Φi
(q) .
∂xj
Es folgt dass jede Abbildung q 7→ aij (q) eine stetige Funktion ist. Wir haben
deshalb dass q 7→ det a(q) eine stetige Abbildung ist, weil det a eine endliche
Summe von Produkten einiger Koeffizienten von a ist. Sei c(q) die Matrix der
Kofaktoren von a(q). Aus dem gleichen Argument folgt dass q 7→ cij (q) stetig
ist. Schliesslich, aus 3. folgt auch dass det a(q) 6= 0, weil a(q) eine invertierbare
Matrix ist. Deshalb schliessen wir dass
q
7→
1
cij (Ψ(q))
det a(Ψ(q))
Kapitel 5. Differenzierbare Abbildungen
100
eine stetige Abbildung ist. Aus Lemma 5.5.5 folgt, dass
1
c(Ψ(q))
det a(Ψ(q))
die Jacobi-Matrix von Ψ an der Stelle q ist. D.h.
∂Ψi
1
(q) =
cij (Ψ(q)) .
∂xj
det a(Ψ(q)
Dies bedeutet dass Ψ ∈ C 1 .
Beispiel 5.5.10.
Seien
Φ : R2 ⊃ U → V ⊂ R2 mit
Φ(x1 , x2 ) = (f1 (x1 , x2 ), f2 (x1 , x2 ))
Ψ : V → U mit
Φ(y1 , y2 ) = (g1 (y1 , y2 ), g2 (y1 , y2 ))
Φ ◦ Ψ : V → V mit
Φ ◦ Ψ(y1 , y2 ) = (y1 , y2 ).
Dann ist
Φ ◦ Ψ = (f1 (g1 (y1 , y2 ), g2 (y1 , y2 )), f2 (g1 (y1 , y2 ), g2 (y1 , y2 )))
d Φ|(p1 ,p2 )
∂f1
(p)
 1
=  ∂x
∂f2
(p)
∂x1

∂f1
(p)
∂x2 
∂f2 
(p)
∂x2
d Ψ|(p1 ,p2 )
∂g1
(p)
 ∂x1
=  ∂g
2
(p)
∂x1

∂g1
(p)
∂x2 
∂g2 
(p)
∂x2


Kapitel 5. Differenzierbare Abbildungen
∆(p) =
∂f2 ∂f1
∂f1 ∂f2
−
∂x1 ∂x2 ∂x1 ∂x2
101
(p)

∂f2
∂f1
(Ψ(q))
−
(Ψ(q))
1

 ∂x2
∂x2
=
.
 ∂f
∂f
1
2
∆(Ψ(q)) −
(Ψ(q))
(Ψ(q))
∂x1
∂x1

d Ψ|q = d Φ|Ψ(q)
−1
Zum Beispiel gilt
∂g1
(q1 , q2 )
∂y1
∂f2
(Ψ(q))
∂x2
=
∆(Ψ(q))
∂f2
(g1 (q1 , q2 ), g2 (q1 , q2 ))
∂x2
=
.
∂f1 ∂f2
∂f2 ∂f1
−
(g1 (q1 , q2 ), g2 (q1 , q2 ))
∂x1 ∂x2 ∂x1 ∂x2
5.6. Der Satz von der lokalen Umkehrbarkeit
Der folgende Satz ist eine der wichtigsten Ergebnisse der Differentialrechnung in
mehreren Variablen: er behauptet die Umkehrbarkeit einer C 1 Abbildung in einer
Umgebung jeder Stelle des Definitionsbereichs.
Satz 5.6.1.
Sei U ⊂ Rn offen und Φ : U → Rn eine C 1 -Abbildung. Weiter sei a ∈ U , so
dass d Φ|a umkehrbar ist. Dann gibt es eine offene Umgebung U0 von a, so dass
V := Φ(U0 ) eine offene Umgebung von Φ(a) ist und die Einschränkung
Φ : U0 → V
ein Diffeomorphismus ist.
Der Beweis nutzt ein elegantes Lemma das eine zentrale Rolle in der modernen
Analysis spielt.
Kapitel 5. Differenzierbare Abbildungen
102
Lemma 5.6.2.
(Banachscher Fixpunktsatz) Sei C ⊂ Rn eine abgeschlossene Menge und sei φ : C →
C eine Abbildung mit folgender Eigenschaft:
|φ(x) − φ(y)| ≤ λ|x − y|
∀x, y ∈ C,
wobei 0 ≤ λ < 1 eine Konstante unabhängig von x, y ist.
Dann gibt es einen einizigen Punkt x ∈ C, so dass φ(x) = x, d.h. es gibt einen
einzigen Fixpunkt von φ.
In der Tat gilt eine viel allgemeinere Form des Banachschen Fixpunktsatzes.
Definition 5.6.3.
Sei φ : X → X eine Abbildung, wobei X mit einer Metrik d ausgestattet ist. Dann
heisst φ Kontraktion, falls ∃λ ∈ [0, 1[, so dass
d(φ(x), φ(y)) ≤ λ d(x, y)
∀x, y ∈ X.
Satz 5.6.4.
Jede Kontraktion auf einem vollständigen metrischen Raum besitzt einen Fixpunkt.
Beweis. Sei x0 ∈ X (bzw. ∈ C ⊂ Rn mit C abgeschlossen). Wir konstruieren
folgende Folge: x1 = φ(x0 ), x2 = φ(x1 ), . . . , xk = φ(xk−1 ). Wir behaupten nun:
1. {xk }k∈N ist eine Cauchy-Folge. Dann gibt es wegen der Vollständigkeit von X
(bzw. C ⊂ Rn , weil C abgeschlossen ist) ein x ∈ X (bzw. x ∈ C), so dass
x = lim xk .
k→∞
2. φ(x) = x.
Aus 1. folgt 2. mit der Stetigkeit von φ:
φ(x) = lim φ(xk ) = lim xk+1 = x.
k→∞
k→∞
Wir beweisen nun, dass {xk }k∈N eine Cauchy-Folge ist. Dazu setzen wir
M := d(x0 , x1 ) ≥ 0.
Kapitel 5. Differenzierbare Abbildungen
103
Dann ist
d(xk+1 , xk ) = d (φ(xk ), φ(xk−1 ))
≤ λ d(xk , xk−1 ) = λ d(φ(xk−1 ), φ(xk−2 ))
≤ λ2 d(xk−1 , xk−2 ) = · · · ≤ λk d(x1 , x0 ) = λk M
und
d(xk+j , xk ) ≤ d(xk+j , xk+j−1 ) + d(xk+j−1 , xk+j−2 ) + · · · + d(xk+1 , xk )
≤ λk+j−1 M + λk+j−2 M + · · · + M λk
∞
X
M λk
k
j−1
k
.
λi =
= M λ (1 + λ + · · · + λ ) < M λ
1
−
λ
i=0
Daher gilt ∀j + k > k ≥ N :
d(xk+j , xk ) ≤
M N
λ .
1−λ
Da λN → 0, wenn N → +∞, folgt: ∀ε > 0, ∃N , so dass
M λN
< ε.
1−λ
Daraus folgt, dass d(xk+j , xk ) < ε ∀k+j > k ≥ N . Aber dies ist gerade die Definition
einer Cauchy-Folge, d.h. {xk }k∈N ist tatsächlich eine Cauchy-Folge und damit ist der
Satz bewiesen.
5.7. Beweis des Satzes über die lokale Umkehrbarkeit
5.7.1. Schritt 1:
O.B.d.A. nehmen wir an, dass a = 0 und d Φ|0 = Id
Das ist keine Beschränkung aus folgendem Grund: Sei L = d Φ|a . Dann setzen wir
Φ0 (x) = L−1 ◦ Φ(a + x)
Kapitel 5. Differenzierbare Abbildungen
104
und deshalb
d Φ0 |0 = L−1 ◦ d Φ|a .
Dann ist Φ0 eine C 1 -Funktion und
d Φ|0 = L−1 ◦ d Φ|a = L−1 ◦ L = Id .
D.h. wir können den Satz einfach auf Φ0 anwenden und die Existenz einer C 1 Funktion Ψ0 (zusammen mit den offenen Umgebungen W0 von 0 und V 0 = Φ0 (W0 ) von
Φ0 (0) = L−1 (Φ(a))) schliessen, so dass Ψ0 : V → W0 die Umkehrung der Einschräkung Ψ0 : W0 → V ist. Wir setzen dann U0 = {a + w : w ∈ W0 }, V = L(V 0 )
und
Ψ0 (Φ0 (x)) = x
⇐⇒
Ψ0 (L−1 (Φ(a + x))) = x
Dann ist
Ψ(y) = a + Ψ0 (L−1 (y))
die gesuchte Umkehrung von Φ : U0 → V .
5.7.2. Schritt 2:
Wir suchen nun eine Umgebung V = Kδ (Φ(0)) von Φ(0), so dass wir ein Urbild für
jedes y ∈ V finden. D.h. die Gleichung
Φ(x) = y
besitzt eine Lösung x.
Diese Gleichung ist zu
y + x − Φ(x) = x
{z
}
|
x7→φy (x)
äquivalent. D.h. eine Lösung von (5.17) ist ein Fixpunkt von φy .
Wir suchen nun ein η > 0, so dass φy (K η (0)) ⊂ K η (0) und die Abbildung
φy : K η (0) 7→ K η (0)
(5.17)
Kapitel 5. Differenzierbare Abbildungen
105
eine Kontraktion ist. Denn, falls η klein genug ist, gelten folgende Behauptungen:
1. φy bildet K η (0) in Kη (0) ⊂ K η (0) ab;
2. |φy (z) − φy (w)| ≤ 12 |z − w| ∀z, w ∈ K η (0).
Zur zweiten Behauptung: Es ist
|φy (z) − φy (w)| = |y + z − Φ(z) − y − w + Φ(w)| = |(Φ(w) − Φ(z)) − (w − z)|
= | Φ(w) − w − Φ(z) − z |.
| {z } | {z }
=Λ(w)
=Λ(z)
Λ ist C 1 und
d Λ|0 = d Φ|0 − Id = 0 .
Aus der Stetigkeit der partiellen Ableitungen der Komponenten von Λ folgt die
Existenz eines η > 0, so dass
1
x ∈ K η (0) =⇒ kd Λ|x kHS ≤ .
2
Seien z, w ∈ K η (0). Dann gilt:
|φy (z) − φy (w)| = |Λ(z) − Λ(w)|
Schrankensatz
≤
max kd ΛkO |z − w|
Bη (0)
≤
1
|z − w|
2
∀z, w ∈ K η (0) .
Weiter bemerken wir, dass
φy (0) = y − Φ(0) + 0 = y − Φ(0).
Nun können wir unser δ wählen: Wir setzen δ := η2 . Dann ist |φy (0)| ≤ η2 . Sei nun
z ∈ K η (0). Dann gilt:
|φy (z)|
≤ |φy (z) − φy (0)| + |φy (0)| < |φy (z) − φy (0)| +
1
η
1
1
≤ |z − 0| + ≤ η + η = η.
2
2
2
2
η
2
Kapitel 5. Differenzierbare Abbildungen
106
Also ist φy (K η (0)) ⊂ Kη (0). Mit dem Banachschen Fixpunktsatz folgt nun: ∀y ∈
V = K η2 (Φ(0)), ∃x ∈ K η (0) mit
φy (x) = x
x ist dann die gesuchte L osung von (5.17). Da aber φy (K η (0)) ⊂ Kη (0), schliessen
wir dass diese Lösung x zu Kη (0) gehört.
5.7.3. Schritt 3:
V ist eine offene Umgebung von Φ(0). Wir setzen
U0 := Kη (0) ∩ Φ−1 (V ) .
{z
}
|
ist eine offene Menge
U0 ist also offen und eine Umgebung von 0. Weiter bildet Φ U0 in V ab. Nun gilt:
1. Φ|U0 ist surjektiv: ∀y ∈ V , ∃x ∈ Kη (0) mit Φ(x) = y
=⇒ x ∈ Φ−1 (V ) ∩ Kη (0) = U0 .
2. Φ|U0 ist injektiv
|Φ(x) − Φ(z)| = |(x + Λ(x)) − (z + Λ(z))|
=⇒
1
|Φ(x) − Φ(z)| ≥ |x − z| − |Λ(x) − Λ(z)| ≥ |x − z| − |x − z|
2
1
(5.18)
= |x − z|
2
Daraus folgt, dass Φ injektiv ist.
5.7.4. Schritt 4:
Sei Ψ : V → U0 die Umkehrfunktion von Φ. Nun ist Ψ stetig. Seien ξ, ζ ∈ V und
x = Ψ(ξ), z = Ψ(ζ). Dann folgt: Φ(x) = ξ, Φ(z) = ζ. Aus (5.18) folgt weiter:
1
|Φ(x) − Φ(z)| ≥ |x − z| =⇒ 2|ξ − ζ| ≥ |Ψ(ξ) − Ψ(ζ)| .
|
{z
}
2
Lipschitz-Bedingung für Ψ: stetig
Kapitel 5. Differenzierbare Abbildungen
107
5.7.5. Schritt 5:
Φ : U0 → V ist differenzierbar und d Φ|x ist umkehbar ∀x ∈ U0 . Es ist
Φ(x) = x − Λ(x)
und
d Φ|x = Id − d Λ|x .
Wir wissen, dass
kd Λ|x kHS ≤
1
2
∀x ∈ U0 ⊂ Bη (0)
und
d Φ|x (v) = v − d Λ|x (v).
Also ist
1
1
| d Φ|x (v)| ≥ |v| − | d Λ|x (v)| ≥ |v| − |v| = |v|.
2
2
D.h. Ker(d Φ|x ) = {0} und somit ist d Φ|x injektiv und daraus folgt auch die Surjektivität. Also ist d Φ|x umkehrbar.
5.7.6. Schritt 6:
Wir brauchen nun das folgende Lemma:
Lemma 5.7.1.
Falls Φ : U0 → V eine umkehrbare C 1 -Abbildung ist so, dass
• d Φ|x umkehrbar ∀x ∈ U0 ist;
• die Umkehrfunktion Ψ : V → U0 stetig ist,
dann ist auch Ψ eine differenzierbare Abbildung.
Beweis. Wir fixieren y0 ∈ V und setzen x0 := Ψ(y0 ). Es folgt Φ(x0 ) = y0 . Weiter
definieren wir
L := (d Φ|x0 )−1 .
Kapitel 5. Differenzierbare Abbildungen
108
Sei Φ0 = L ◦ Φ, Φ ∈ C 1 . Dann ist
d Φ0 |x0 = L ◦ d Φ|x0 = Id
und
d Φ0 |x = L ◦ d Φ|x .
| {z }
umkehrbar
Zusätzlich ist Ψ0 = Ψ ◦ L−1 die Umkehrfunktion von Φ0 .
Falls Ψ0 an der Stelle
y00 = Φ0 (x0 ) = L(Φ(x0 )) = L(y0 )
differenzierbar ist, dann ist Ψ = Ψ0 ◦ L an der Stelle y0 differenzierbar und
d Ψ|y0 = d Ψ0 |L(y0 ) ◦ L .
Die Stetigkeit der Abbildung z 7→ d Ψ0 |z an der Stelle L(y0 ) impliziert dann die
Stetigkeit der Abbildung y 7→ d Ψ|y an der Stelle y0 . Dieses Argument zeigt, dass
wir zusätzlich d Φ|x0 = Id annehmen dürfen.
Wir behaupten nun die Existenz einer Kugel Kδ (y0 ), so dass
|Ψ(z) − Ψ(w)| ≤ 2|z − w|
∀z, w ∈ Kδ (y0 ).
In der Tat haben wir diese Eigenschaft schon im Schritt 4 gesehen: wir repetieren
hier das gleiche Argument.
Falls δ klein genug ist, dann gehören Ψ(z) und Ψ(w) zu einer Umgebung Kε (x0 )
| {z }
| {z }
=ζ
=ω
von x0 . Wir wählen nun ε klein genug so dass
kd Λ|x kHS ≤
1
∀x ∈ K ε (x0 ) .
2
Dies ist möglich weil d Λ|x0 = d Φ|x0 − Id = 0 und die partiellen Ableitungen von Λ
Kapitel 5. Differenzierbare Abbildungen
109
stetif sind. Wir erhalten desahlb
|(Φ(ζ) − Φ(ω)) − (ζ − ω)| = | (Φ(ζ) − ζ) − (Φ(ω) − ω) |
| {z } | {z }
=Λ(ζ)
=Λ(ω)
1
≤
|ζ − ω|
2
Deshalb
1
|ζ − ω| ≤ |Φ(ζ) − Φ(ω)|
2
und, da ζ = Ψ(z) und ω = Ψ(w),
|Ψ(z) − Ψ(w)| ≤ 2|z − w| .
Die Differenzierbarkeit von Φ an der Stelle x0 bedeutet:
Φ(x) − Φ(x0 ) = d Φ|x0 (x − x0 ) + R(x) .
| {z }
| {z }
=Id
=o(|x−x0 |)
Wir ersetzen x und x0 durch Ψ(y) und Ψ(y0 ) und erhalten
y − y0 = Ψ(y) − Ψ(y0 ) + R(Ψ(y))
∀y ∈ Kδ (y0 ),
d.h.
(Ψ(y) − Ψ(y0 )) = Id(y − y0 ) − R(Ψ(y)).
Für die Differenzierbarkeit brauchen wir R(Ψ(y)) = o(|y − y0 |):
|Ψ(y))|
|R(x)|
|R(Ψ(y))|
|Ψ(y) − Ψ(y0 )|
=
≤2
|y − y0 |
|Ψ(y) − Ψ(y0 )|
|y − y0 |
|x − x0 |
Wenn nun y → y0 , dann x = Ψ(y) → Ψ(y0 ) = x0 , wegen der Stetigkeit von Ψ.
Deshalb,
|R(Ψ(y))|
|R(x)|
lim 2
= lim
= 0.
y→y0
x→x
|y − y0 |
0 |x − x0 |
Aus den zwei Lemmata 5.7.1 und 5.5.8 schliessen wir dass Ψ eine C 1 Funktion
Kapitel 5. Differenzierbare Abbildungen
110
ist. Das endet den Beweis des Satzes von der lokalen Umkehrbarkeit.
5.8. Lösungen von Gleichungen: Der Satz über
implizite Funktionen
Beispiel 5.8.1.
Wir betrachten die Gleichung
y 2 + x1 y + x2 = 0
(5.19)
wobei die Unbekannte y eine reelle Zahl ist und die Zahlen x1 , x2 ∈ R “fixierte
Parameter” sind. In diesem sehr bekannten Fall wissen wir dass:
• Falls ∆ := x21 − 4x2 < 0 gibt es keine (reelle) Lösung.
• Falls ∆ > 0 gibt es genau zwei Lösungen und wenn ∆ = 0 genau eine. Für
diese Lösungen haben wir eine explizite Formel:
x1
y± = − ±
2
p
x21 − 4x2
.
2
(5.20)
Wenn wir die Abbildung f : R3 → R so definieren
f (x1 , x2 , y) = y 2 + x1 y + x2 ,
können wir die Gleichung (5.19) als
f (x, y) = 0
(5.21)
umschreiben. Sei nun Ω := {x = (x1 , x2 ) ∈ R2 : ∆ = x21 − 4x2 > 0}. Ω ist eine offene
Menge und die Funktion
Ω3x
7→
x1
g(x) = − +
2
p
x21 − 4x2
2
Kapitel 5. Differenzierbare Abbildungen
111
ist C 1 . Ausserdem, eine solche Funktion g “löst die Gleichung (5.21)”, d.h.
f (x, g(x)) = 0
∀x ∈ Ω .
Wir können sogar ein bisschen mehr sagen: sei (x?1 , x?2 ) = x? ∈ Ω und
x?
y =− 1 +
2
?
p
(x?1 )2 − 4x?2
2
eine der zwei Lösungen von (5.19) mit x = x? . Dann existieren δ, ε > 0 so dass:
• Falls |x−x? | < δ, dann ist y = g(x) die einzige Lösung von (5.19) mit |y−y ? | <
ε.
Das obige sehr bekannte Beispiel motiviert die folgende allgemeine
Frage: Sei U ⊂ Rm = Rn+k = Rn × Rk offen und
U 3 (x, y) = (x1 , . . . , xn , y1 , . . . , yk )
7→
f (x, y) = (f1 (x, y), . . . , fk (x, y)) ∈ Rk
eine Abbildung. Wir betrachten


f1 (x1 , · · · , xn , y1 , · · · , yk ) = 0



 f2 (x1 , · · · , xn , y1 , · · · , yk ) = 0
..

.




fk (x1 , · · · , xn , y1 , · · · , yk ) = 0
(5.22)
als ein System von k Gleichungen in den k Unbekannten y1 , . . . , yk ∈ R, das von n
Parametern x1 , . . . , xn abhängt.
Wann gibt es eine Funktion
(x1 , . . . , xn )
7→
y(x) = (y1 (x1 , . . . , xn ), . . . , yk (x1 , . . . , xn )) ,
die das System (5.22) löst, also f (x, y(x)) = 0 erfüllt?
Der Satz über die implizite Funktion ist eine elegante Antwort zur obigen Frage.
Um den Satz zu behaupten führen wir folgende Notation ein. Angenommen dass die
Kapitel 5. Differenzierbare Abbildungen
112
Funktion f differenzierbar ist, berechnen wir die Jacobi Matrix J von f an einer
Stelle z ? = (a, b)
∂f1
 ∂x1

 ∂f2

 ∂x1
 .
 ..

 ∂fk
∂x1

∂f1
∂f1
···
∂x2
∂xn
∂f2
∂f2
···
∂x2
∂xn
..
..
..
.
.
.
∂fk
∂fk
···
∂x2
∂xn

∂f1
∂f1
···
∂y1
∂yk 

∂f2
∂f2 
···

∂y1
∂yk 
..
..
.. 
.
.
. 

∂fk
∂fk 
···
∂y1
∂yk
∂f1
∂f1 ?
statt
(z ) geschrieben um die Notation leichter zu machen). Wir
∂x1
∂x1
betrachten deswegen die Matrizen
(wir haben

∂f1
 ∂x1

 ∂f2

∂x
A := 
 .1
 ..

 ∂fk
∂x1
und

∂f1
∂f1
···
∂x2
∂xn 

∂f2
∂f2 

···
∂x2
∂xn 
..
..
.. 
.
.
. 

∂fk
∂fk 
···
∂x2
∂xn

∂f1
∂f1
 ∂y1 · · · ∂yk 


∂f2 
 ∂f2
···


∂y
∂yk 
B := 
 .1 .
.. 
..
 ..
. 


 ∂fk
∂fk 
···
∂y1
∂yk

und die entsprechende Lineare Abbildungen
Rn 3 v
7→
dx f |z? (v) := A · v ∈ Rk
Rk 3 w
7→
dy f |z? (w) := B · w ∈ Rk .
Wir haben dann
d f |z? (v, w) = dx f |z? (v) + dy f |z? (w)
Kapitel 5. Differenzierbare Abbildungen
113
und schreiben deswegen
d f |z? = (dx f |z? , dy f |z? ) .
J können wir als eine “Blockmatrix” der Form
J = (A B)
betrachten.
Satz 5.8.2.
Sei f : U → Rk eine C 1 -Abbildung, wobei U eine offene Menge in Rn × Rk ist.
Sei z ? = (a, b) ∈ U mit der Eigenschaft, dass dy f |z? umkehrbar ist und f (a, b) = 0.
Dann gilt: ∃ U 0 , U 00 offene Umgebungen von a und b und eine C 1 -Abbildung g : U 0 →
U 00 , so dass
{(x, y) ∈ U 0 × U 00 f (x, y) = 0} = {(x, g(x)) x ∈ U 0 } .
Bemerkung 5.8.3.
Im Fall n = k = 1, ist f = f1 (x1 , y1 ) und die Jacobi Matrix ist gegeben durch
wobei
∂f1
∂y1
∂f1 ∂f1
∂x1 ∂y1
,
die Matrixdarstellung von dy f ist. Die Voraussetzung des Satzes
∂f1
6= 0.
∂y1
Bemerkung 5.8.4.
Der Satz darf allgemein nicht benutzt werden, wenn dy f |z? nicht umkehrbar ist.
Zum Beispiel, sei f : R2 → R durch f (x, y) = x2 − y 2 gegeben und z ? = (0, 0).
∂f
(0, 0) = 0. Ausserdem {f = 0} = {x = 0} ∪ {y = 0}. Diese Menge ist in keiner
∂y
Umgebung von (0, 0) der Graph einer Funktion.
lautet dann
Kapitel 5. Differenzierbare Abbildungen
114
Beweis. Sei Φ : U → Rn × Rk mit
Φ(x, y) = (|{z}
x , f (x, y)) ∈ Rn × Rk .
| {z }
n
∈R
∈Rk
Die folgende Blockmatrix
En 0
Jx Jy
!
ist die Matrixdarstellung von d Φ|(a,b) , wobei En die n×n-Einheitsmatrix, 0 die n×kNullmatrix, Jx die Matrixdarstellung von dx f |(a,b) und Jy die Matrixdarstellung von
dy f |(a,b) sind. Da dy f |(a,b) eine umkehrbare lineare Abbildung ist, ist auch d Φ|(a,b)
umkehrbar. Wir wenden den Satz von der lokalen Umkehrbarkeit an: ∃ U0 offene
Umgebung von (a, b), ∃ V offene Umgebung von (a, 0) = Φ(a, b) und eine C 1 Abbildung Ψ : V → U0 , so dass
Ψ(Φ(x, y)) = (x, y)
∀(x, y) ∈ U0
Φ(Ψ(x, y)) = (x, y)
∀(x, y) ∈ V .
D.h. Ψ = (Φ|U0 )−1 . Nun sei
Rn × Rk 3 Ψ(x, y) = (ξ(x, y), ζ(x, y))
| {z } | {z }
∈Rn
∈Rk
Dann
(x, y) = Φ(Ψ(x, y)) = Φ(ξ(x, y), ζ(x, y))
∀(x, y) ∈ V ,
d.h.
(x, y) = (ξ(x, y), f (x, ζ(x, y))) .
Deshalb


 x = ξ(x, y)
y = f (x, ζ(x, y))


Ψ(x, y) = (x, ζ(x, y)) .
(5.23)
Wie setzen g(x) := ζ(x, 0). Aus den Gleichungen (5.23) folgt: 0 = f (x, ζ(x, 0)) =
Kapitel 5. Differenzierbare Abbildungen
115
f (x, g(x)). Da V eine offene Umgebung von (a, 0) ist, ∃r > 0, so dass
K n (a) × K k (0) ⊂ V ,
| r{z } | r{z }
⊂Rn
⊂Rk
wobei Kρj (c) ⊂ Rj die j-dimensionale offene Kugel bezeichnet, d. h.
Kρj (c) = {w ∈ Rj : |w − c| < ρ} .
Wir bemerken, dass Ψ(Krn (a)×Krk (0)) eine offene Menge ist. Daher enthält diese die
Menge Krn (a)×Kρk (b), falls ρ klein genug ist. (Da Ψ(a, 0) = (a, ζ(a, 0)) muss ζ(a, 0) =
b sein, weil Ψ die Umkehrung von Φ ist und f (a, ζ(a, 0)) = 0 = f (a, b)). Nun ist g
eine stetige Funktion und g(a) = ζ(a, 0) = b. Deswegen ist U 0 := g −1 (Kρk (b)) eine
offene Menge, die a enthält. Wir setzen nun U 00 := Kρk (b). Die Funktion g bildet U 0
in U 00 ab und
f (x, g(x)) = 0 =⇒ {(x, y) ∈ U 0 × U 00 : f (x, y) = 0} ⊃ {(x, g(x)) : x ∈ U 0 } .
Sei (x, y) ∈ {U 0 × U 00 : f (x, y) = 0}. Es ist auch
(x, y) ∈ U0 =⇒ Φ(x, y) = (x, f (x, y)) = (x, 0) ∈ V =⇒ Ψ(x, 0) = (x, y),
weil Ψ die Umkehrung von Φ ist. Also folgt
Ψ(x, 0) = (x, ζ(x, 0)) = (x, g(x)) =⇒ y = g(x)
=⇒
{(x, y) ∈ U 0 × U 00 : f (x, y) = 0} ⊂ {(x, g(x)) : x ∈ U 0 } .
g ist deswgen die gesuchte Funktion.
Seien f und g wie im letzten Satz. Dann gilt:
f (x, g (x)) = 0
|{z} |{z}
∈C 1
∈C 1
∀x ∈ U 0 .
Kapitel 5. Differenzierbare Abbildungen
116
Sei nun Λ die Abbildung x 7→ (x, g(x)). Λ ist auch eine C 1 Abbildung und es folgt
∀x ∈ U 0 .
d(f ◦ Λ)|x = 0
Wir haben
d f |(x,g(x)) = dx f |(x,g(x)) , dy f |(x,g(x)) .
Mit der gleichen Konvention haben wir auch
dΛ|x =
!
Id
.
d g|x
Das heisst, wenn Gx die Jacobi-Matrix von g an der Stelle x ist, dann ist die folgende
Blockmatrix
!
En
Gx
die Jacobi-Matrix von Λ an der Stelle x. Also folgt
0 = d(f ◦ Λ|x ) = dx f |(x,g(x)) + dy f |(x,g(x)) ◦ d g|x
(5.24)
Wenn die lineare Abbildung dy f |(x,g(x)) umkehrbar ist, folgt
d g|x = − dy f |(x,g(x))
−1
◦ dx f |(x,g(x)) .
Die Annahme des Satzes über implizite Funktionen ist dass dy f umkehrbar an
der Stelle (a, b) = (a, g(a)) ist. Aus der Stetigkeit von g und z 7→ dy f |z folgt die
Umkehrbarkeit der linearen Abbildung dy f |(x,g(x)) wenn x zu einer Umgebung von
a gehört.
Das obige Argument beweist das folgende
Korollar 5.8.5.
Seien f und g wie im Satz über implizite Funktionen. Dann gilt
dx g|x = − dy f |(x,g(x))
−1
◦ dx f |(x,g(x)) ,
(5.25)
Kapitel 5. Differenzierbare Abbildungen
117
für jede Stelle x in einer Umgebung von a.
Beispiel 5.8.6.
Seien k = n = 1, f : R2 → R C 1 und a ∈ R, b ∈ R so dass f (a, b) = 0 und
∂f
(a, b) 6= 0.
∂y
(5.26)
Der Satz über implizite Funktionen garantiert die Existenz einer C 1 Funktion g :
U 0 → U 00 mit f (x, g(x)) = 0, wobei U 0 ⊂ R ein offenes Intervall mit a ∈ U 0 ist. Aus
dem Korollar folgt:
∂f
(x, g(x))
g 0 (x) = − ∂x
.
(5.27)
∂f
(x, g(x))
∂y
Eigentlich ist das Argument des Korollars ganz einfach in diesem Fall: wenn wir die
Gleichung f (x, g(x)) = 0 in x ableiten, folgt aus der Kettenregel
∂f
∂f
(x, g(x)) +
(x, g(x))g 0 (x) = 0 .
∂x
∂y
Die Annahme (5.26) bedeutet
(5.28)
∂f
∂f
(a, g(a)) =
(a, b) 6= 0 und die Stetigkeit von f
∂y
∂y
∂f
(x, g(x)) 6= 0 für alle x in einem offenen Intervall I 3 a.
∂y
Deshalb ist (5.27) eine triviale Konsequenz von (5.28).
und g implizieren dass
5.9. Untermannigfaltigkeiten des Rn
Definition 5.9.1.
Seien Ω ⊂ RN eine offene Menge und k ∈ [1, N − 1] eine natürliche Zahl. Eine
Menge E ⊂ Ω ist eine C 1 -Untermannigfaltigkeit von Ω der Dimension d := N −
k, falls ∀p ∈ E die folgende Eigenschaft gilt: ∃ eine Ordnung der Koordinaten
(x1 , · · · , xN −k , y1 , · · · , yk ), so dass
• p = ( |{z}
a , |{z}
b )
∈RN −k
∈Rk
Kapitel 5. Differenzierbare Abbildungen
118
• ∃ Umgebungen U und V von a und b
• ∃f : U → V C 1 , so dass
(U × V ) ∩ E = {(x, f (x)) : x ∈ U } .
Definition 5.9.2.
Sei N ≥ k + 1 und f : RN ⊃ U → Rk eine C 1 -Abbildung. Dann heisst c ∈ Rk ein
regulärer Wert von f , falls ∀x0 ∈ U mit f (x0 ) = c das Differential d f |x0 maximalen
Rang k hat.
Satz 5.9.3.
Falls c ein regulärer Wert ist, dann ist
f −1 ({c}) = {z : f (z) = c}
eine Untermannigfaltigkeit der Dimension N − k.
Beweis. Sei p, so dass f (p) = c. Dann gilt für das Differential d f |p die Matrixdarstellung
∂f
∂f
∂f
···
···
,
∂z1
∂z2
∂zN
wobei

∂f1
 ∂z1 
 . 
∂f
..  .
=

∂z1 
 ∂fk 
∂z1

Da das Differential Rang k hat, folgt die lineare Unabhängigkeit von k der Spalten
∂f
. Nach Umordnung der Koordinaten dürfen wir annehmen dass die letzte k
∂zj
Spalten linear Unabhängig sind. Wir setzen
x = (z1 , . . . , zN −k )
und
y = (zN −k+1 , . . . , zN ) .
Kapitel 5. Differenzierbare Abbildungen
119
Die Abbildung dy f |p wird dann von der k × k Matrix mit Spalten
∂f
∂f
=
,
∂y1
∂zN −k+1
···
,
∂f
∂f
=
∂yk
∂zN
dargestellt. Der Rang dieser Matrix ist dann k, d.h. die Matrix ist umkehrbar. So ist
dy f |p umkehrbar und wir dürfen den Satz über implizite Funktionen an der Funktion
f − c anwenden. Deshalb ∃ eine offene Umgebung U 0 × U 00 =: U von p = (a, b) und
eine C 1 Funktion g : U 0 → U 00 mit
U ∩ E = {q ∈ U : f (q) − c = 0} = {(x, g(x)) : x ∈ U 0 } .
5.10. Die Multiplikationsregel von Lagrange
Definition 5.10.1.
Sei U ⊂ Rn und seien φ1 , · · · , φj verschiedene C 1 -Funktionen mit φi : U → R. Sei
f : U → R eine C 1 -Funktion und p ein Punkt mit
φ1 (p) = · · · = φj (p) = 0 .
(5.29)
p heisst p Maximum (bzw. Minimum) von f mit Nebenbedingungen φ1 , . . . , φj falls
f (p) ≥ f (q) (bzw. f (p) ≤ f (q))
∀q mit φ1 (q) = · · · φj (q) = 0 .
Satz 5.10.2.
Sei p ein Maximum (bzw. Minimum) von f mit Nebenbedingungen φ1 , . . . , φj , wie in
der Definition 5.10.1. Falls U offen ist und ∇φ1 (p), · · · , ∇φj (p) linear unabhängige
Vektoren sind, dann gilt: ∃λ1 , · · · , λj , so dass
∇f (p) = λ1 ∇φ1 (p) + · · · + λj ∇φj (p) .
(5.30)
Die Identität (5.30) heisst die Multiplikationsregel (oder Multiplikatorenregel) von
Lagrange und die Zahlen λ1 , . . . , λj heissen die Multiplikatoren von Lagrange.
Kapitel 5. Differenzierbare Abbildungen
120
Bemerkung 5.10.3.
(5.29) und (5.30) bilden ein System von n + j Gleichungen mit n + j Unbekannten
λ1 , · · · , λj , p1 , . . . , pn .
Bemerkung 5.10.4.
∇φi ist die i-te Zeile der Matrixdarstellung von d φ: d.h. die Jacobi-Matrix von φ
an der Stelle p ist


∇φ1 (p)
 . 
. 
J(p) = 
 . 
∇φj (p)
{z
}
|
j×n-Matrix
Die lineare Unabhängigkeit von ∇φ1 (p), . . . , ∇φj (p) impliziert, dass J(p) maximalen
Rang hat, d.h. Rang j. Deswegen gibt es j Spalten von J(p) die linear unabhängig
sind. Wir können nun wie im Beweis des Satzes 5.9.3 vorgehen: O.B.d.A. dürfen wir
annehmen dass diese Spalten die letzte k Spalten sind und deshalb den Satz über implizite Funktionen anwenden. Es folgt nun: {φ = 0} ∩ U 0 × U 00 = {(x, g(x)), x ∈ U 0 },
wobei U 0 × U 00 eine Umgebung von p und g : Rn−j ⊃ U 0 → Rj eine C 1 -Abbildung
sind.
Sei nun (a, g(a)) =: p und wir betrachten die Funktion h(x) := f (x, g(x)). Diese
Funktion hat ein Maximum (bzw. ein Minimum) in a, d.h.
d h|a = 0 .
(5.31)
Beweis. [Beweis der Multiplikatorregel] Wir betrachten die Funktion h aus Bemerkung 5.10.4. Mit (5.31) und der Kettenregel folgt:
dx h|a = dx f |(a,g(a)) + dy f |p ◦ dx g|a
=⇒
0 = dx f |p + dy f |p ◦ dx g|a .
Mit Korollar 5.8.5 folgt weiter:
dx g|a = −(dy φ|p )−1 ◦ dx φ|p
Kapitel 5. Differenzierbare Abbildungen
121
und daher ist
dx f |p = − dy f |p ◦ dx g|a = dy f |p ◦ (dy φ|p )−1 ◦ dx φ|p .
Wir definieren die Matrizen A, B und C wie folgt. A ist die Matrixdarstellung der
linearen Abbildung
!
dx f |p (v)
v 7→
,
dx φ|p (v)
B ist die Matrixdarstellung der linearen Abbildung
w
7→
dy f |p (w)
dy φ|p (w)
!
und C die Matrixdarstellung von (dy φ|p )−1 ◦ dx φ|p . Wir haben dann
dx f |p = dy f |p ◦ (dy φ|p )−1 ◦ dx φ|p
dx φ|p = dy φ|p ◦ (dy φ|p )−1 ◦ dx φ|p .
Diese Gleichungen bedeuten, dass A = BC, d.h. jede Spalte von A ist eine Linearkombination der Spalten von B. Deswegen ist der Rang der Matrix D = (A B)
echt kleiner als j + 1 (siehe Lemma 5.10.5 unten). Das bedeutet dass die j + 1 Zeilen
von D eine linear abhängige Familie von Vektoren ist. Wir betrachten noch einmal
die Matrix D:
 ∂f
∂f
∂f
∂f 
···
···
 ∂x1
∂xn−j ∂y1
∂yj 

 ∂φ
∂φ
∂φ
∂φ
 1
1
1
1
·
·
·
·
·
·


 ∂x1
∂xn−j ∂y1
∂yj  .
 .
..
..
.. 
 ..
.
.
. 


 ∂φj
∂φj
∂φj
∂φj 
···
···
∂x1
∂xn−j ∂y1
∂yj
Die lineare Abhängigkeit der Zeilen impliziert die Existenz von µ0 , . . . , µj ∈ R, die
nicht alle Null sind, so dass
µ0 ∇f (p) + µ1 ∇φ1 (p) + · · · + µj ∇φj (p) = 0 .
Kapitel 5. Differenzierbare Abbildungen
122
Es muss aber µ0 6= 0, sonst hätten wir
µ1 ∇φ1 (p) + · · · + µj ∇φj (p) = 0 .
Wir setzen daher λi = − µµ0i und erhalten damit die Multiplikationsregel.
Lemma 5.10.5.
Seien A, B und C Matrizen, so dass A = BC. Dann sind die Spalten von A Linearkombinationen der Spalten von B.
Beweis. A ist eine n × k-Matrix, B eine n × j-Matrix und C eine j × k-Matrix:
A = (ail ), B = (bαβ ) und C = (cst ). Die Identität A = BC impliziert
ail =
j
X
biα cαl .
α=1
Die λ-te Spalte von A ist

 P
j
b
c
a1λ
1α
αλ

 .   α=1 .
.
 ..  = 
..

  
Pj
b
c
anλ
α=1 nα αλ

Wir setzen nun µj := cjλ und schliessen


a1λ
 . 
 .. 
 
anλ
| {z }
Die λ-te Spalte von A

= µ1

b11
 . 
 .. 
 
bn1
| {z }
erste Spalte von B

+ µ2

b12
 . 
 .. 
 
bn2
| {z }
zweite Spalte von B


b1j
 . 
. 
+ · · · + µj 
 . .
bnj
6. Gewöhnliche
Differentialgleichungen
Die Unbekannte einer gewöhnlichen Differentialgleichung ist eine Funktion y : I → R
(oder C), wobei I eine Teilmenge von R ist (in diesem Kapitel ist I immer ein Intervall, eine Halbgerade oder die ganze reelle Achse). Eine gewöhnliche Differentialgleichung hat die Gestalt:
F (t, y(t), y 0 (t), · · · , y (n) (t)) = 0,
(6.1)
wobei F eine (bekannte!) Abbildung von
I × R × R × ... × R → R
|
{z
}
(n + 1)-mal
bzw.
I × C × C × ... × C
|
{z
}
(n + 1) mal
→C
ist. Eine Lösung von (6.1) ist eine Funktion die auf I n-mal differenzierbar ist und
für die die Identität (6.1) für alle t ∈ I gilt.
Manchmal ist die Abbildung F auch nur auf einer Teilmenge A ⊂ I×R×R×. . .×R
definiert. In diesem Fall ist eine Lösung der Differentialgleichung eine Funktion y,
so dass
(i) (t, y(t), y 0 (t), . . . , y (h) (t)) ∈ A ∀t ∈ I,
(ii) die Identität (6.1) gilt ∀t ∈ I.
Beispiel 6.0.1.
Sei g : [a, b] → R. Wir haben bereits die Differentialgleichung
y 0 (t) − g(t) = 0 ∀t ∈ [a, b]
123
(6.2)
Kapitel 6. Gewöhnliche Differentialgleichungen
124
gesehen (d.h. y ist eine Stammfunktion von g). In diesem Fall ist die Abbildung
F : [a, b] × R × R → R durch die Formel F (t, y, z) = z − g(t) gegeben.
Falls g eine stetige Funktion ist, dann gilt:
Z
t
g(s)ds
y(t) :=
a
Rt
ist eine Lösung von (6.2). Genauer ist ∀c0 ∈ R, auch y(t) = c0 + a g(s)ds eine
Lösung. Umgekehrt ist jede Lösung von (6.1) durch obige Formel gegeben: Sei y
Rt
eine solche Lösung. Wir definieren ỹ(t) := y(t) − a g(s)ds. Die Funktion ỹ ist dann
auf [a, b] differenzierbar und ỹ 0 = 0 überall in I. Mit dem Satz von Lagrange folgt,
t
Z
ỹ = Konstante =: c0
=⇒
g(s)ds.
y(t) = c0 +
a
Wir haben damit folgenden Satz bewiesen:
Satz 6.0.2.
Sei g eine stetige Funktion. Dann gilt:
Z
y löst (6.2) ⇐⇒ ∃c0 ∈ R(bzw. C), so dass y(t) = c0 +
t
g(s)ds
∀t ∈ [a, b].
a
Beispiel 6.0.3.
Sei p ein Teilchen und y(t) := die Position von p zum Zeitpunkt t. D.h.
y(t) = (y1 (t), y2 (t), y3 (t)).
Für unser Modell nehmen wir an, dass die Bewegungen des Teilchens auf eine Gerade
eingeschränkt sind, d.h. y(t) ∈ R. Das Newtonsche Gesetz besagt nun, dass F = ma
ist. Sei also a(t) die Beschleunigung des Teilchens, d.h. a(t) = y 00 (t). Weiter sei F (t)
eine Kraft, die auf das Teilchen zum Zeitpunkt t einwirkt. Oft hängt diese Kraft
nur von der Position des Teilchens ab, d.h. F (t) = g(y(t)), wobei g eine bekannte
Funktion ist. Es ist aber auch möglich, dass die Kraft auch von der Geschwindigkeit
und/oder von der Zeit abhängt, d.h. F = f (t, y(t), y 0 (t)). Sei m die Masse des
Teilchens (in der klassischen Mechanik ist die Masse eine positive Konstante). Also
Kapitel 6. Gewöhnliche Differentialgleichungen
125
ist die Funktion y eine Lösung der Differentialgleichung
my 00 (t) − f (t, y(t), y 0 (t)) = 0.
Beispiel 6.0.4.
Sei A(t) die Anzahl Tiere in einem Wald dividiert durch das Maximum aller in
einem Wald platzfindenden Tiere (Annahme: Es gibt so viele Tiere, dass wir A
als eine reellwertige Funktion beschreiben können). Das Wachstum von A ist dann
gegeben durch
A0 (t) = f (A(t)) − g(1 − A(t)),
wobei f, g : [0, 1[→ R zwei monoton wachsende Funktionen sind und lims→1 g(s) =
+∞. Zum Beispiel
K1
,
A0 (t) = K0 A(t) −
1 − A(t)
wobei K0 und K1 zwei positive Konstante sind. (In der Literatur: “Lotka-Volterra
population models”).
6.1. Lineare gewöhnliche Differentialgleichungen
Definition 6.1.1.
Eine inhomogene lineare Differentialgleichung (kurz: LDGL) ist eine Gleichung der
Form
y 0 (t) = g(t)y(t) + h(t),
(6.3)
wobei g, h : I → R zwei bekannte Funktionen sind und y die Unbekannte ist. Falls
h ≡ 0 ist, heisst (6.3) homogene lineare Differentialgleichung (kurz: HDGL), d.h.
y 0 (t) = g(t)y(t).
(6.4)
Falls y1 , y2 : I → R (6.4) lösen, dann ist auch jede lineare Kombination von y1 , y2
eine Lösung von (6.4) (eine lineare Kombination von y1 und y2 ist eine Funktion y
der Form y = λy1 + µy2 , wobei λ, µ ∈ R). Falls y und z zwei Lösungen von (6.3)
Kapitel 6. Gewöhnliche Differentialgleichungen
126
sind, dann löst w := z − y (6.4):
w0 (t) = (z − y)0 (t) = z 0 (t) − y 0 (t) = g(t)z(t) + h(t) − (g(t)y(t) + h(t))
= g(t) (z(t) − y(t)) =⇒ w0 (t) = y(t)w(t).
{z
}
|
=w(t)
Wir fassen diese Bemerkungen im folgenden Satz zusammen:
Satz 6.1.2.
Sei V := {y : I → R : y löst (6.4)}. Dann ist V ist ein Vektorraum. Ferner gilt für
eine Lösung z von (6.3),
y löst (6.3)
⇐⇒
∃v ∈ V : y = z + v.
Satz 6.1.2 gilt auch für andere Differentialgleichungen (d.h. auch für andere lineare
Differentialgleichungen). Wenn wir eine Basis für den Vektorraum V haben und eine
spezielle Lösung von (6.3) kennen, dann haben wir eine allgemeine Formel für alle
Lösungen von (6.3).
Aus diesem Grund betrachten wir zuerst die homogene Gleichung
y 0 (t) = y(t)g(t).
Angenommen y > 0. Dann gilt,
y 0 (t)
= g(t) =⇒ (ln(y(t)))0 = g(t).
y(t)
Setzen wir nun z(t) := ln(y(t)), dann folgt z 0 (t) = g(t). Falls g stetig ist, gilt:
Z
z(t) = c0 +
t
g(s)ds
a
=⇒ y(t) = ez(t) = ec0 e
Bemerkung 6.1.3.
Rt
a
g(s)ds
Rt
= Ce
a
g(s)ds
.
Kapitel 6. Gewöhnliche Differentialgleichungen
Rt
∀C ∈ R: y(t) := Ce
a
g(s)ds
löst (6.4), auch wenn C negativ ist! Denn:
Rt
0
127
y (t) = Ce
a g(s)ds
0
t
Z
g(s)ds
Rt
= Ce a g(s)ds g(t).
a
Theorem 6.1.4.
Rt
Sei g stetig. Dann löst y (6.4) auf I ⇐⇒ ∃C ∈ R mit y(t) = Ce a g(s)ds .
(Zur Erinnerung: I ist entweder ein Intervall, oder eine Halbgerade, oder die ganz
R. Ohne diese Annahme stimmt die obige Behauptung nicht!)
Beweis. “⇐=”: Diese Aussage haben wir bereits bewiesen (siehe Bemerkung 6.1.3).
“=⇒”: Sei y(t) eine Lösung von (6.4). Wir definieren nun
z(t) := e−
Rt
a
y(s)ds
y(t).
Leiten wir z(t) ab, so erhalten wir
z 0 (t) = −g(y)e−
Rt
a
g(s)ds
y(t) + e−
Rt
a
y(s)ds
g(t)y(t) = 0.
Daraus folgt, dass z eine Konstante ist (in dieser letzten Behauptung haben wir
benutzt, dass I ein Intervall, eine Halbgerade oder ganz R ist).
Wir suchen nun eine Lösung der inhomogenen Gleichung, d.h. von
y 0 (t) = g(t)y(t) + h(t).
Dazu sei
ȳ(t) := e−
Rt
a
g(s)ds
y(t).
Rt
g(s)ds
Dann ist
ȳ 0 (t) = −g(t)e−
= e−
Rt
a
Rt
a
g(s)ds
g(s)ds
h(t).
y(t) + e−
a
(g(t)y(t)) + h(t)
Kapitel 6. Gewöhnliche Differentialgleichungen
D.h. ȳ ist eine Stammfunktion von e−
Z
ȳ(t) =
Rt
a
g(s)ds
t
e−
Rτ
a
128
h(t) und somit gilt,
g(s)ds
h(τ )dτ.
0
Wir haben also eine spezielle Lösung von (6.3) gefunden:
Rt
y(t) = e
a g(s)ds
Z
t
e−
Rτ
a
g(s)ds
h(τ )dτ.
a
Diese Bemerkungen fassen wir im folgenden Theorem zusammen:
Theorem 6.1.5.
Seien g und h zwei stetige Funktionen. Dann gilt: y ist genau dann eine Lösung von
(6.3) auf I, wenn ∃C ∈ R, so dass
Rt
y(t) = e
a g(s)ds
Z t R
− aτ g(s)ds
e
h(τ )dτ .
C+
(6.5)
a
6.2. Das Anfangswertproblem
Wie wir im letzten Kapitel gesehen haben, hat die Differentialgleichung
y 0 (t) = g(t)y(t) + h(t)
unendlich viele Lösungen: Die Wahl der Konstanten C in der Formel (6.5) ist frei.
Das ist typisch für gewöhnliche Differentialgleichungen und normalerweise brauchen
wir zusätzliche Informationen um die “freie” Konstante zu bestimmen, damit die
Lösung eindeutig ist.
Definition 6.2.1.
Ein Anfangswertproblem für die GDGL
y (n) (t) = F (t, y(t), y 0 (t), · · · , y (n−1) (t))
Kapitel 6. Gewöhnliche Differentialgleichungen
129
hat die zusätzlichen Anfangsbedingungen



y(t0 ) = y0 ,




 y 0 (t ) = y ,
0
1
.

 ..




 y (n−1) (t ) = y ,
0
n−1
wobei t0 ∈ I und y0 , y1 , . . . , yn−1 ∈ R (bzw. C).
6.3. Differentialgleichungen mit getrennten Variablen
Eine gewöhnliche Differentialgleichung erster Ordnung mit getrennten Variablen ist
eine Differentialgleichung der Form y 0 (t) = g(t)F (y(t)). In diesem Unterkapitel werden wir eine (lokale) Lösung für das folgende Anfangswertproblem suchen:

y 0 (t) = g(t)F (y(t))
y(t ) = y .
0
(6.6)
0
Wir unterscheiden hierbei zwei Fälle:
1. F (y0 ) = 0. In diesem Fall ist y(t) ≡ y0 eine Lösung von (6.6), weil
F (y(t))g(t) = F (y0 )g(t) = 0 = y 0 (t) ∀t.
2. F (y0 ) 6= 0. Falls y :]a, b[→ R eine Lösung von (6.6) ist und F stetig ist, gilt:
∃δ > 0, so dass F (y(t)) 6= 0, wenn t ∈]t0 − δ, t0 + δ[.
Dann ist
y 0 (t)
= g(t) ∀t ∈]t0 − δ, t0 + δ[.
F (y(t))
Kapitel 6. Gewöhnliche Differentialgleichungen
130
Falls g stetig ist, gilt:
Z
t
t0
y 0 (t)
dt =
F (y(t))
Z
t
Z
g(t)dt
t0
y(t)
=⇒
y(t0 )
dσ
=
F (σ)
Z
t
g(t)dt.
t0
Sei H eine Stammfunktion von F1 (und G eine Stammfunktion von g), dann
ist
H(y(t)) − H(y(t0 )) = G(t) − G(t0 )
und
H(y(t)) = G(t) − G(t0 ) + H(y0 ) .
(6.7)
Wenn H umkehrbar ist, dann können wir mittels (6.7) die Unbekannte y(t)
bestimmen. Manchmal gelingt es uns eine explizite Umkehrfunktion für H
zu finden. Aber es kann auch sein, dass die Funktion H auf ihrem ganzen
Definitionsbereich nicht umkehrbar ist. Wir sehen trotzdem, dass wenn |t − t0 |
klein ist, liegt der Wert G(t) − G(t0 ) + H(y0 ) in der Nähe von H(y0 ), weil G
stetig ist. Ferner ist
1
6= 0.
H 0 (y0 ) =
F (y0 )
Nehmen wir an dass F (y0 ) > 0 (der Fall F (y0 ) < 0 ist ähnlich). Da F stetig
ist, ∃ε > 0, so dass H 0 > 0 auf ]y0 − ε, y0 + ε[, also folgt,
H :]y0 − ε, y0 + ε[−→]H(y0 − ε), H(y0 + ε)[
ist umkehrbar. Daher können wir diese eingeschränkte Funktion umkehren.
Wir bezeichnen mit H −1 diese “lokale” Umkehrung von H. Für |t − t0 | klein
genug ist die folgende Formel wohldefiniert:
y(t) = H −1 (G(t) − G(t0 ) + H(y0 )) .
(6.8)
Wenn g und F stetig sind und y0 eine Stelle ist, so dass F (y0 ) 6= 0, dann ist die
Funktion in (6.8) eine Lösung von (6.6) in einer Umgebung von t0 ; das ist leicht zu
überprüfen. Wir fassen diese Bemerkungen im nächsten Satz zusammen.
Kapitel 6. Gewöhnliche Differentialgleichungen
131
Satz 6.3.1.
Seien F und g zwei stetige Funktionen und y0 und t0 zwei Stellen, die im Inneren der
Definitionsbereiche von F und g liegen. Ferner sei F (y0 ) 6= 0 und H eine Stammfunktion von F1 , deren Definitionsbereich eine Umgebung von y0 enthält. Schliesslich
sei G eine Stammfunktion von g, deren Definitionsbereich eine Umgebung von t
enthält. Dann gibt es in einer Umgebung von t0 eine eindeutige Lösung von (6.6),
die durch die Formel (6.8) gegeben ist.
Beispiel 6.3.2.
Wir betrachten noch einmal die homogene lineare Differentialgleichung
y 0 (t) = g(t)y(t).
Wir setzen F (y) := y und betrachten das Anfangswertproblem

y 0 (t) = g(t)F (y(t))
y(0) = y .
(6.9)
0
Die Formel für die Lösung von (6.9) können wir mittels Theorem 6.1.4 finden. Dieses
Theorem garantiert die Existenz einer Konstanten C, so dass
Rt
y(t) = Ce
0
g(t)dt
= y0 e
Rt
0
g(s)ds
.
(6.10)
Die Konstante C ist leicht zu bestimmen: Wir können einfach den Wert t = t0 = 0
in (6.10) einsetzen:
R0
y0 = y(0) = Ce 0 g(s)ds = Ce0 = C.
Nehmen wir nun an, dass F (y0 ) 6= 0, d.h. y0 6= 0. Als Stammfunktion von F1 wählen
wir H(σ) = ln(σ). Der Definitionsbereich von H ist dann die Halbgerade ]0, ∞[, die
Rt
die positive Zahl y0 enthält. Eine globale Stammfunktion von g ist G(t) := 0 g(τ )dτ .
F , g, H, G, y0 und t0 = 0 erfüllen nun die Bedingungen von Satz 6.3.1. Daher wissen
Kapitel 6. Gewöhnliche Differentialgleichungen
132
wir, dass wenn y eine Lösung von (6.9) ist, gilt:
y(t) = H −1 (G(t) − G(0) + H(y0 ))
Z t
−1
g(t)dt + H(y0 )
=H
0
1
in einer Umgebung von 0. H ist die Stammfunktion von F (σ)
= σ1 auf einem Intervall,
das y0 enthält. OBdA nehmen wir y0 > 0 an. Die Umkehrfunktion von H ist dann
H −1 (ξ) = eξ und damit ist
Rt
y(t) = e(
0
g(s)ds+ln(y0 ))
Rt
= eln y0 e
0
g(s)ds
Rt
= y0 e
0
g(s)ds
.
Auch im Fall y0 < 0 können wir Satz 6.3.1 anwenden, wenn wir H(σ) = − ln(−σ)
als Stammfunktion wählen.
Beispiel 6.3.3.
Das nächste Beispiel ist ein Spezialfall der Bernoullischen Differentialgleichung:

y 0 (t) = a(t)(y(t))α
y(0) = y .
mit α < 1
0
Es ist jedoch Vorsicht geboten: die GDGL macht nur Sinn, wenn y(t) ≥ 0! Wir
schreiben die Gleichung als
y 0 (t) = a(t)F (y(t)),
wobei F (σ) := σ α . Der Definitionsbereich von F ist dann [0, +∞[. Wenn wir Satz
6.3.1 anwenden wollen, dann muss unbedingt y0 > 0 sein. Ist dies der Fall, so ist
F (y0 ) = y0α . Wir brauchen nun eine Stammfunktion H von F1 , die y0 im Definitionsbereich enthält. D.h.
1
= σ −α
F (σ)
und
H(σ) =
1
σ 1−α (weil α 6= 1).
(1 − α)
Kapitel 6. Gewöhnliche Differentialgleichungen
133
Die Funktion H :]0, +∞[→]0, ∞[ ist umkehrbar. Also ist
y(t) = H
−1
t
Z
a(s)ds + H(y0 )
0
1
=⇒ H(σ) =
σ 1−α =: η
(1 − α)
1
=⇒ H −1 (η) = σ = ((1 − α)η) 1−α .
Damit folgt,
Z t
y(t) = (1 − α)
a(s)ds +
1
y01−α
1
−
α
0
1
1−α
Z t
1−α
.
= y0 + (1 − α)
a(s)ds
1
1−α
0
NB: Die Funktion ist wohldefiniert, wenn y01−α + (1 − α)
|t| klein genug ist.
Rt
0
a(s)ds ≥ 0. Das gilt, falls
6.4. Lineare GDGL mit konstanten Koeffizienten
Definition 6.4.1.
Eine lineare gewöhnliche Differentialgleichung mit konstanten Koeffizienten ist eine
Differentialgleichung von der Form
y (n) (t) + an−1 y (n−1) (t) + · · · + a1 y 0 (t) + a0 y(t) = q(t),
(6.11)
wobei a0 , . . . , an−1 reelle (bzw. komplexe) Konstanten sind. Falls q 6= 0 ist, heisst
die Gleichung inhomogen und sonst homogen.
Das folgende Lemma ist einfach zu beweisen (ähnlich wie Satz 6.1.2).
Lemma 6.4.2.
Sei I ein Intervall. Dann ist die Menge
V := {y : I → R(bzw. C) : y löst (6.11) mit q = 0}
Kapitel 6. Gewöhnliche Differentialgleichungen
134
ein reeller (bzw. komplexer) Vektorraum. Wenn q 6= 0 und u eine spezielle Lösung
von (6.11) auf I ist, dann gilt:
w löst (6.11) auf I
⇐⇒
∃v ∈ V : w = u + v .
In diesem Kapitel untersuchen wir die reellen (bzw. komplexen) Lösungen des
homogenen Falls von (6.11). Unser Ziel ist, das folgende Haupttheorem zu beweisen:
Theorem 6.4.3.
Seien y0 , y1 , · · · , yn−1 ∈ R (bzw. C). Dann ∃ eine eindeutige Lösung des Anfangswertproblems



y (n) + an+1 y (n−1) + · · · + a1 y 0 + a0 y = 0,






y(0) = y0 ,


(6.12)
y 0 (0) = y1 ,


.


..





y (n−1) (0) = y
n−1
auf ganz R.
Wir werden nicht nur dieses Theorem beweisen, sondern auch eine explizite Formel
für die Lösung angeben. Zuerst beweisen wir die Eindeutigkeit einer Lösung von
(6.12).
Lemma 6.4.4.
Sei I ein beliebiges Intervall mit 0 ∈ I und L : V → Cn (bzw. Rn ), die folgende
lineare Abbildung:
V 3 y 7→ L(y) = y(0), y 0 (0), · · · , y (n−1) .
Dann ist L injektiv und somit ist dim(V ) ≤ n.
Aus dem Lemma folgt, dass das Anfangswertproblem (6.12) höchstens eine Lösung
besitzt.
Beweis. Die Linearität von L ist trivial. Um die Injektivität zu zeigen, brauchen
Kapitel 6. Gewöhnliche Differentialgleichungen
135
wir nur die Identität ker (L) = {0} zu zeigen (d.h. dass L(v) = 0 =⇒ v = 0).
Die Injektivität folgt dann aus elementaren Bemerkungen der Linearen Algebra.
(Sei v, w ∈ V , so dass L(v) = L(w); dann folgt mit der Linearität von L, dass
L(v − w) = 0.)
Sei nun y eine Lösung von (6.12) mit y0 = y1 = . . . = yn−1 = 0. Wir setzen
2
Y (t) := (y(t))2 + (y 0 (t)) + · · · + y (n−1) (t)
2
.
Dann ist Y differenzierbar mit
|Y 0 (t)| = |2y(t)y 0 (t) + 2y 0 (t)y 00 (t) + · · · + 2y (n−2) (t)y (n−1) + 2y (n−1) (t)y n (t)|
≤ 2|y(t)||y 0 (t)| + · · · + 2|y (n−2) (t)||y (n−1) (t)|
|
}
| √ {z√ }
√ {z√
≤2
Y (t)
Y (t)
≤2
Y (t)
Y (t)
+ 2|y (n−1) (t)| −an−1 y (n−1) (t) − · · · − a0 y(t)
|
{z
}
√
√
=2
Y (t)(|an−1 |+···+|a0 |)
Y (t)
≤ 2 n − 1 + |a0 | + · · · + |an−1 | Y (t) = CY (t).
D.h. Y ist eine nichtnegative differenzierbare Funktion, die auf einem Intervall I
definiert ist mit
(a) 0 ∈ I und Y (0) = 0 und
(b) |Y 0 (t)| ≤ CY (t).
Mit dem Lemma von Gronwall (siehe Lemma 6.4.6 unten) folgt Y ≡ 0 und somit
ist y ≡ 0.
Das Lemma von Gronwall ist ein berühmtes Resultat aus der Theorie der Differentialgleichungen und wird oft benutzt, um die Eindeutigkeit von Lösungen zu
beweisen (manchmal auch für partielle Differentialgleichungen!).
Lemma 6.4.5 (Gronwall, 1. Version).
Sei Y : [0, c[→ [0, +∞[ eine differenzierbare Funktion mit
(i) Y (0) = 0,
Kapitel 6. Gewöhnliche Differentialgleichungen
136
(ii) Y 0 (t) ≤ CY (t) ∀t ∈ [0, c[, wobei C unabhängig von t ist.
Dann ist Y ≡ 0.
Beweis. Wir definieren z(t) := e−Ct Y (t). Dann ist z nichtnegativ und differenzierbar. Des Weiteren gilt,
z 0 (t) = e−Ct Y 0 (t) − Ce−Ct Y (t) = e−Ct (Y 0 (t) − CY (t)) ≤ 0,
d.h. z ist eine monoton fallende Funktion. Das impliziert, dass z(t) ≤ z(0) = 0
∀t ∈ [0, c[ und da z eine nicht negative Funktion ist, gilt: z ≡ 0 auf [0, c[.
Lemma 6.4.6 (Gronwall, 2. Version).
Sei Y :]a, b[→ R eine differenzierbare Funktion mit
(i) Y (0) = 0 und a < 0 < b,
(ii) |Y 0 (t)| ≤ C|Y (t)| ∀t ∈]a, b[.
Dann ist Y ≡ 0.
Beweis. Sei z(t) := Y (t)2 . Dann ist
z 0 (t) = 2Y (t)Y 0 (t) ≤ 2|Y (t)|C|Y (t)| ≤ 2Cz(t).
Da z(0) = 0 ist, folgt mit Lemma 6.4.5, dass z(t) = 0 ∀t ∈ [0, b[. Daher ist Y ≡ 0
auf [0, b[.
Sei nun w : [0, |a|[→ [0, +∞[ mit w(t) := Y (−t)2 . Dann ist
w0 (t) = −2Y (−t)Y 0 (−t) ≤ 2C|Y (−t)|2 = 2Cw(t).
Mit Lemma 6.4.5 folgt nun w(t) = 0 ∀t ∈ [0, |a|[; das beweist auch, dass Y (t) = 0
∀t ∈]a, 0].
Wir beweisen nun, dass dim V = n ist: Dazu werden wir n linear unabhängige
explizite Lösungen der homogenen Differentialgleichung
y (n) + an−1 y (n−1) + . . . + a1 y 0 + a0 y = 0
(6.13)
Kapitel 6. Gewöhnliche Differentialgleichungen
137
konstruieren.
Definition 6.4.7.
Das Polynom
P (x) = xn + an−1 xn−1 + . . . + a1 x + a0
heisst charakteristisches Polynom der Differentialgleichung (6.13).
Als nächstes brauchen wir einige wichtige Ergebnisse aus der (abstrakten) Algebra.
Theorem 6.4.8 (Fundamentalsatz der Algebra).
Seien a0 , . . . , an−1 ∈ C und P (x) = xn + an−1 xn−1 + . . . + a1 x + a0 . Dann gibt es
(i) r verschiedene komplexe Zahlen λ1 , . . . , λr und
(ii) r positive natürliche Zahlen k1 , . . . , kr ,
so dass
P (x) = (x − λ1 )k1 (x − λ2 )k2 · . . . · (x − λr )kr .
(6.14)
Die Zahlen λ1 , . . . , λr heissen Nullstellen des Polynoms. Die Zahl kj bezeichnet die
Vielfachheit der Nullstelle λj . Wenn das Polynom reell ist (d.h. a0 , . . . , an−1 ∈ R),
können wir einiges mehr über die Nullstellen sagen.
Satz 6.4.9 (Reelle Faktorisierung).
Seien a0 , . . . , an−1 ∈ R und P (x) = xn + an−1 xn−1 + . . . + a1 x + a0 . Dann gilt: Falls
λ ∈ C eine Nullstelle von P ist, so ist auch λ̄ eine Nullstelle von P mit der gleichen
Vielfachheit.
Nehmen wir an, dass das Polynom P reell ist. Wir können diese zusätzliche Information nutzen, um die rechte Seite von (6.14) wie folgt umzuschreiben: Zuerst
ordnen wir die Nullstellen:
µ1 , . . . , µ` , z1 , z̄1 , . . . , zs , z̄s ,
wobei µj ∈ R und zj = αj + iβj ∈ C \ R (d.h. βj 6= 0). Nun ordnen wir auch die
entsprechenden Vielfachheiten der Nullstellen:
k1 , . . . , k` , m1 , m1 , . . . , ms , ms .
Kapitel 6. Gewöhnliche Differentialgleichungen
138
Dann folgt aus (6.14),
m
ms
P (x) = (x − µ1 )k1 · · · (x − µ` )k` · (x − z1 )(x − z̄1 ) 1 · · · (x − zs )(x − z̄s )
(6.15)
ms
m
.
= (x − µ1 )k1 · · · (x − µ` )k` · x2 + 2α1 x + (α12 + β12 ) 1 · · · x2 + 2αs x + (αs2 + βs2 )
(6.16)
Nun sind wir bereit, um eine Basis von V zu konstruieren.
Satz 6.4.10.
Seien a0 , . . . , an−1 ∈ C, V der (komplexe) Vektorraum der komplexwertigen Lösungen
von (6.13) auf R, P das charakteristische Polynom von (6.13), λ1 , . . . , λr seine Nullstellen und k1 , . . . , kr deren Vielfachheiten. Dann bilden die folgenden Funktionen
eine Basis von V :
• eλ1 t , teλ1 t , . . . , tk1 −1 eλ1 t ,
• eλ2 t , teλ2 t , . . . , tk2 −1 eλ2 t ,
.
• ..
• eλr t , teλr t , . . . , tkr −1 eλr t .
Seien a0 , . . . , an−1 ∈ C, V der (reelle) Vektorraum der reellwertigen Lösungen von
(6.13) auf R und P das charakteristische Polynom von (6.13).
Ferner seien µ1 , . . . , µ` die reellen Nullstellen von P und k1 , . . . , k` deren Vielfachheiten; z1 , z̄1 , . . . , zs , z̄s die nichtreellen Nullstellen von P und m1 , . . . , ms deren Vielfachheiten (wobei zj = αj + iβj ).
Dann bilden die folgenden Funktionen eine Basis von V :
• eµ1 t , teµ1 t , . . . , tk1 −1 eµ1 t ,
.
• ..
• eµ` t , teµ` t , . . . , tkr −1 eµ` t ,
• eα1 t sin(β1 t), eα1 t cos(β1 t), . . . , tm1 −1 eα1 t sin(β1 t), tm1 −1 eα1 t cos(β1 t),
Kapitel 6. Gewöhnliche Differentialgleichungen
139
.
• ..
• eαs t sin(βs t), eαs t cos(βs t), . . . , tms −1 eαs t sin(βs t), tms −1 eαs t cos(βs t).
Beweis. Es ist nicht schwer zu sehen, dass die obigen Funktionen linear unabhängig
sind: das Argument braucht aber eine interessante Tatsache aus der linearen Algebra,
die keine direkte Verbindung mit dem Stoff der Vorlesung hat. Deswegen werden wir
das Argument in Appendix B geben. Aus (6.14) folgt, dass k1 + . . . + ks = n (und
aus (6.16) folgt k1 +. . .+k` +2m1 +. . .+2ms = n). Aber Lemma 6.4.4 zeigt, dass die
Dimension von V höchstens n sein kann. D.h. es genügt zu zeigen, dass jede Funktion
in der obigen Liste eine Lösung von (6.13) ist: Da ezj t + ez̄j t = 2eαj t cos(βj t) und
ezj t − ez̄j t = 2eαj t sin(βj t) ist, haben wir nur die folgende Behauptung zu beweisen:
tm eλt löst (6.13), wenn λ = λj eine Nullstelle von P ist und m ≤ kj − 1.
(6.17)
Wir skizzieren den Beweis von (6.17) mithilfe der sogenannten Operatorrechnung.
Ein Operator ist eine Funktion von Funktionen. D.h., wenn A ein Operator und f
eine Funktion ist, dann ist A(f ) (kurz Af ) auch eine Funktion. Um einen wohldefinierten Operator zu haben, müssen wir seinen Definitionsbereich angeben. In unserem Fall werden wir annehmen, dass der Definitionsbereich immer X := C ∞ (R; C)
ist, d.h. der Vektorraum der beliebig oft differenzierbaren komplexwertigen Funktionen mit einer reellen Variablen. Die Ableitung ist dann ein Operator, den wir
mit D bezeichnen. D.h. wenn f eine Differenzierbare Funktion ist, dann ist Df ihre
Ableitung. Falls λ ∈ X = C ∞ (R; C) ist, dann bezeichnet der Operator λ die “Funktion” X 3 f 7→ λf ∈ X.
Falls A und B zwei Operatoren sind, können wir damit weitere Operatoren definieren:
(i) die Summe A + B ist ein Operator: f 7→ Af + Bf ;
(ii) das Produkt A · B ist auch ein Operator: f 7→ A(B(f )) und
(iii) die k-te Potenz von A ist wieder ein Operator:
f 7→ A(A(A . . . A(f )) . . .) .
{z
}
|
k-mal
Kapitel 6. Gewöhnliche Differentialgleichungen
140
Falls A = D ist, dann ist Dn f einfach die n-te Ableitung von f . Die Summe ist
kommutativ (A + B = B + A) aber Vorsicht: das Produkt ist im Allgemeinen nicht
kommutativ!
Sei nun P (D) der Operator Dn + an−1 Dn−1 + . . . + a1 D + a0 . Dann ist f ∈ X eine
Lösung von (6.13) genau dann, wenn P (D)f = 0. Zudem folgt aus der Faktorisierung
(6.14), dass
P (D) = (D − λ1 )k1 · . . . · (D − λr )kr .
Es ist leicht zu sehen, dass für alle λ, µ ∈ C die folgende Vertauschungsregel gilt:
(D − µ)(D − λ) = (D − λ)(D − µ).
Sei nun f = tm eλj t wie in (6.17). Dann ist
P (D)f = Q(D) (D − λj )kj f ,
(6.18)
wobei
Q(D) := (D − λ1 )k1 · · · (D − λj−1 )kj−1 · (D − λj+1 )kj+1 · · · (D − λr )kr .
Wir zeigen nun, dass
(D − µ)k g = 0,
falls g(t) = tm eµt und m < k.
(6.19)
Aus (6.18) und (6.19) folgt nun (6.17), weil Q(D)0 = 0 (diese Identität gilt für jedes
Polynom Q!). Es bleibt noch die Identität (6.19) zu zeigen. Diese Identität ist jedoch
leicht zu beweisen, wenn wir k-mal die folgende allgemeine Regel anwenden: Sei Q
ein Polynom vom Grad s und h(t) = Q(t)eµt . Dann ist [(D − µ)h] eine Funktion
der Form R(t)eµt , wobei R ein Polynom vom Grad s − 1 ist. Um diese Regel zu
beweisen, rechnen wir einfach
(D − µ)(t` eµt ) = `t`−1 eµt + t` µeµt − µt` eµt = `t`−1 eµt ,
und nutzen die Linearität des Operators D.
7. Systeme von gewöhnlichen
Differentialgleichungen
Sei F : I ×Rn ×. . .×Rn → Rn (bzw. F : I ×Cn ×. . .×Cn ), wobei I ⊂ R ein Intervall
ist. In diesem Kapitel betrachten wir nur solche Abbildungen F , die mindestens
stetig sind. Eine Funktion y : I → Rn (bzw. y : I → Cn ), die k-mal differenzierbar
ist, ist eine Lösung des Systems
F (t, y, y 0 , ..., y (k) ) = 0 ,
(7.1)
falls
F (t, y(t), y 0 (t), ..., y (k) (t)) = 0
∀t ∈ I.
Wenn n = 1 ist, ist (7.1) eine gewöhnliche Differentialgleichung.
Beispiel 7.0.1.
Sei f : I → R stetig und F : I × R × R → R wie folgt definiert:
F (t, x1 , x2 ) := x2 − f (t) .
Eine Lösung y : I → R ist eine differenzierbare Funktion, so dass
y 0 (t) − f (t) = 0 ∀ t ∈ I.
D.h. y ist eine Stammfunktion von f . Wenn I = [a, b] ist, dann gilt:
Z
y(t) =
t
f (τ ) dτ + C,
a
wobei C ∈ R die Integrationskonstante ist.
141
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
142
Beispiel 7.0.2.
Seien f, g : I → R zwei stetige Funktionen und F (t, x1 , x2 ) = x2 − f (t)x1 − g(t).
(7.1) ist dann gegeben durch
y 0 (t) − f (t)y(t) − g(t) = 0,
d.h. eine inhomogene lineare Differentialgleichung erster Ordnung. Die Formel, die
alle Lösungen dieser Gleichung beschreibt, haben wir bereits im Kapitel 6 hergeleitet.
7.1. Lineare Systeme mit konstanten Koeffizienten
Definition 7.1.1.
Sei A : Rn → Rn (bzw. A : Cn → Cn ) eine lineare Funktion, d.h. ∃ M ∈ Rn×n (bzw.
Cn×n ), so dass
A(x) = M · x
P
( A(x) = (A1 (x), . . . , An (x)) und Aj (x) = ni=1 Mji xi ). Das System
y 0 (t) = A(y(t)) = M · y(t)
heisst homogenes lineares System erster Ordnung mit konstanten Koeffizienten.
Eine differenzierbare Funktion v : [a, b] → Rn (bzw. ist genau dann eine Lösung
von v 0 = A(v) = M · v, wenn
v 0 (t) = A(v(t)) = M · v(t) ∀ t ∈ [a, b].
Ausgeschrieben bedeutet dies:

Pn

v10 (t) =

i=1 M1i vi (t)

P

n
 v 0 (t) =
2
i=1 M2i vi (t)
.
..




Pn
 0
vn (t) =
i=1 Mni vi (t) ,
wobei Mij die Einträge der Matrix M sind.
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
143
Beispiel 7.1.2.
Für n = 1 haben wir A(x) = cx, d.h. M = (M11 ) = (c). Die Differentialgleichung
lautet nun also v 0 = cv und wir wissen schon, dass jede Lösung (auf einem Intervall!)
von der Form v(t) = Cect ist.
Beispiel 7.1.3.
Sei A : R2 → R2 mit A(x) = M · x gegeben durch
M :=
!
0 1
.
−1 0
In diesem Fall haben wir ein System von zwei Differentialgleichungen:
(
v10 = v2
v20 = −v1 .
(7.2)
Wenn v eine Lösung von (7.2) ist, dann ist v1 zweimal differenzierbar. Falls wir
y := v1 setzen, dann ist y 00 = −y. Umgekehrt gilt, falls y zwei mal differenzierbar ist
und y 00 = −y, dann ist (v1 , v2 ) := (y, y 0 ) eine Lösung von (7.2).
Die zwei letzten Beispiele sind Spezialfälle des folgenden Lemmas:
Lemma 7.1.4.
Seien c0 , ..., ck−1 ∈ R und sei M ∈ Rk×k die folgende Matrix:


ck−1 ck−2 . . . . . . c0


 1
0
0 ... 0



 0
1
0
.
.
.
0
M := 
.
 .
..
.. 
..
 ..
.
.
.


0
... ... 1 0
(7.3)
Die Funktion y : I → R (bzw. C) löst die Gleichung
y (k) = ck−1 y (k−1) + ck−2 y (k−2) + . . . + c1 y 0 + c0 y
genau dann, wenn die vektorwertige Abbildung v := (y (k−1) , . . . , y 0 , y) das System
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
144
v 0 = M · v löst.
Beweis. Trivial.
Nun wollen wir eine allgemeine Formel für die Lösung des Systems v 0 = M · v
herleiten. Dazu brauchen wir eine Art “Exponential der Matrix tM ”.
Definition 7.1.5.
Sei M ∈ Rn×n (bzw. Cn×n ) eine Matrix. Dann ist
exp(M ) :=
∞
X
Mk
k=0
k!
= Id +
∞
X
Mk
k=1
k!
,
(7.4)
wobei Id die identische Matrix bezeichnet. Hier nutzen wir die Konvention, dass
M 0 = Id, auch wenn M = 0. Deswegen ist exp(0) = Id.
Beispiel 7.1.6.
Wenn


λ1 . . . 0
. .

.
. . ... 
M := 
.

0 . . . λn
eine Diagonalmatrix ist, dann ist


exp (λ1 ) . . .
0


..
..
...
.
exp(M ) = 
.
.


0
. . . exp (λn )
Der folgende Satz ist der Hauptsatz dieses Kapitels:
Satz 7.1.7.
Für jede Matrix M ∈ Rn×n (bzw. ∈ Cn×n ) ist exp(M ) eine wohldefinierte Matrix,
d.h. die Reihe in (7.4) konvergiert. Zudem ist die Abbildung t 7→ exp(tM ) analytisch
und für jeden Vektor v0 ∈ Rn (bzw. C) ist die Funktion t 7→ [exp(tM )]·v0 eine Lösung
des Systems v 0 = M · v auf ganz R.
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
145
Die Partialsumme von (7.4) ist einfach die Matrix
SN :=
N
X
Mk
k=0
k!
.
Wenn wir die entsprechenden Einträge mit (SN )ij bezeichnen, erhalten wir eine
Folge {(SN )ij }N ∈N für jede Wahl von i, j ∈ {1, . . . , n}. Die Konvergenz von (7.4)
bedeutet dann, dass jede solche Folge gegen eine reelle (bzw. komplexe) Zahl konvergiert. Deswegen ist exp(tM ) eine Matrix und [exp(tM )]ij sind die entsprechenden
Einträge. Dass die Abbildung t 7→ [exp(tM )] analytisch ist, bedeutet, dass jede der
reellwertigen Funktionen t 7→ [exp(tM )]ij analytisch ist.
Um Satz 7.1.7 zu beweisen, brauchen wir einige Lemmata. Wir erinnern uns an
die Definition der Hilbert-Schmidt-Norm


sX
sX
bzw.
(Mij )2
|Mij |2 wenn M ∈ Cn×n 
kM kHS :=
ij
ij
und der Operator-Norm
kM kO :=
max
v∈Rn ,|v|=1
|M · v|
bzw.
max
v∈Cn ,|v|=1
|M · v|
p
(für v = (v1 , . . . , vn ) ∈ Cn setzen wir |v| = |v1 |2 + . . . + |vn |2 .) Die Operator-Norm
ist die kleinste positive Zahl C ∈ [0, ∞[, so dass die Ungleichung kM · vk ≤ Ckvk
für alle Vektoren v gilt.
Lemma 7.1.8.
Für jede Matrix M ∈ Rn×n (bzw. M ∈ Cn×n ) gilt:
kM kO ≤ kM kHS ≤
kM k kO ≤ kM kkO
√
nkM kO
(7.5)
∀k ∈ N .
(7.6)
Beweis. Für die Ungleichung kM kO ≤ kM kHS siehe Satz 2.1.7. Nun sei für jedes
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
146
i ∈ {1, . . . , n}
ei := (0, . . . 0, |{z}
1 , 0, . . . , 0) .
i-te Stelle
Dann ist
X
|Mij |2 = |M · ei |2 ≤ kM k2O |ei |2 = kM k2O
j
und somit
kM k2HS =
X
|Mij |2 ≤ nkM k2O .
i,j
Wir beweisen nun (7.6) mittels vollständiger Induktion. Der Induktionsanfang ist
kM 0 kO = kIdkO = 1 = kM k0O . Der Induktionsschritt ist einfach: ∀v ∈ Rn (bzw.
∈ Cn ) gilt:
|M k · v| = |M · (M k−1 · v)| ≤ kM kO · |M k−1 · v| ≤ kM kO kM k−1 kO |v| .
k−1
Wegen der Induktionsannahme, |M k−1 · v| ≤ kM kO
|v|, ist
|M k · v| ≤ kM kkO |v| .
Da v ein beliebiger Vektor war, folgt kM k kO ≤ kM kkO .
Lemma 7.1.9.
P
Sei {Ak } eine Folge von Matrizen, so dass die entsprechenden Reihen k Ak absolut
P
P
konvergieren (d.h. k kAk kHS < ∞). Dann konvergiert auch die Reihe k Ak , d.h.
auch die Reihen der Koeffizienten der Partialsummen konvergieren.
Beweis. Der Raum der Matrizen Rn×n (bzw. Cn×n ) versehen mit der Norm k · kHS
2
2
ist der übliche Euklidische Raum Rn (bzw. Cn ). Deswegen gelten die Dreiecksungleichung und die Charakterisierung der Konvergenz durch die Cauchy-Eigenschaft.
Es genügt also zu zeigen, dass
N
X
SN :=
Ak
k=0
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
147
die Cauchy-Eigenschaft erfüllt. Seien nun N ≤ r < s ∈ N. Dann ist
kSs − Sr kHS ≤
s
X
∞
X
kAk kHS ≤
k=r+1
kAk kHS .
k=N +1
Die Cauchy-Eigenschaft folgt dann aus der Konvergenz von
P∞
k=0
kAk kHS .
Beweis des Satzes 7.1.7. Wohldefiniertheit: Aus (7.5) und (7.6) folgt kM k kHS ≤
√
nkM kkO . Deswegen ist
∞ X
Mk k! HS
k=0
∞
√ X
kM kkO √ kM kO
= ne
≤ n
< ∞,
k!
k=0
d.h. die Reihe in (7.4) konvergiert absolut. Lemma 7.1.9 impliziert nun, dass exp(M )
wohldefiniert ist.
Analytizität: Wir betrachten die Funktion R 3 t 7→ E(t) := exp(tM ). Weiter
seien Eij (t) die Einträge der Matrix E(t). Wenn (M k )ij die Einträge der Matrix M k
bezeichnet, dann ist
∞
X
(M k )ij k
Eij (t) :=
t .
(7.7)
k!
k=0
Die Wohldefiniertheit von exp(tM ) impliziert die Konvergenz der Reihe (7.7) für
jedes t ∈ R. Aber dann ist die Funktion Eij analytisch.
Ableitung: Die Ableitung einer Potenzreihe ist die Reihe der Ableitungen. Deshalb ist
∞
X
(M k )ij k−1
0
k
Eij (t) =
t .
(7.8)
k!
k=1
Nun schreiben wir die Identität (7.8) wie folgt um:
0
E (t) =
∞
X
k=1
= M·
∞
M k k−1 X
t
=
M·
(k − 1)!
k=1
∞
X
Mj
j=0
j!
tj = M E(t) .
M k−1 k−1
t
(k − 1)!
∞
X
M k−1 k−1
=M·
t
(k − 1)!
k=1
(7.9)
Matrixwertige Funktionen werden als Vektorfunktionen behandelt: die Ableitung ist
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
148
einfach eine Matrixfunktion, deren Einträge die Ableitungen der Koeffizienten der
ursprünglichen Funktion sind. Deswegen gilt die Leibniz-Regel auch für Produkte
von Matrizen und Vektoren. Sei v0 ∈ Rn und v(t) := [exp(tM )] · v0 Dann folgt:
0
v (t) =
d
[exp(tM )] · v0 = (M · exp(tM )) · v0 = M · (exp(tM ) · v0 ) = M · v(t) .
dt
Korollar 7.1.10.
Die Funktion t 7→ [exp(tM )] · v0 löst das Anfagswertproblem

v 0 = M · v
v(0) = v .
(7.10)
0
Beweis. Satz 7.1.7 impliziert v 0 (t) = M · v(t). Zudem ist v(0) = [exp(0 · M )] · v0 =
[exp 0] · v0 = Id · v0 = v0 .
Als Konsequenz des Eindeutigkeitsatzes 7.3.5 werden wir späte sehen dass v(t) =
exp (tM ) · v0 die einzige Lösung von (7.10) ist.
Beispiel 7.1.11.
Sei M ∈ R1×1 , d.h. M = c und wir setzen v := y, v0 := y0 , wobei y : I → R und
y0 ∈ R. In diesem Fall ist (7.10) einfach

v 0 = M · v
v(0) = v
⇐⇒
0

y 0 = cy
y(0) = y .
0
(7.11)
Ausserdem ist v(t) = exp tM · v0 ⇔ y(t) = ect y0 . Wir haben schon gesehen dass ect y0
die einzige Lösung von (7.11) ist.
Beispiel 7.1.12.
Sei n = 2 und A :=
Dann ist
!
0 1
.
−1 0

v 0 = v
2
1
v 0 = −v .
1
2
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
149
Wir bemerken, dass
A0 = Id,
A1 = A,
0 1
−1 0
A2 =
A3 = A2 · A = −A,
!
·
0 1
−1 0
!
!
−1 0
= −Id,
0 −1
=
A4 = A3 · A = −A · A = Id.
Deswegen ist
!
∞
∞
∞
X
X
0 t
tk k X t2i
t2i+1
i
exp (tA) = exp
=
A =
(−1) Id +
(−1)i A
k!
(2i)!
(2i
+
1)!
−t 0
i=0
i=0
! k=0
cos t sin t
=
.
− sin t cos t
Daraus folgt nun auch,
!
v1 (t)
= v(t) = exp (t · A) · v0 =
v2 (t)
!
cos t sin t
·
− sin t cos t
c1
c2
!
=
!
c1 cos t + c2 sin t
c1 sin t + c2 cos t
und somit ist v1 (t) = c1 cos t+c2 sin t. Wir haben wieder die Formel für die Lösungen
der Differentialgleichung v100 = −v1 gefunden.
7.2. Das Theorem von Picard-Lindelöf
Wir betrachen nun das Anfangswertproblem

0

 γ (t) = F (t, γ(t))


(7.12)
γ(t0 ) = x0 ,
d.h. ein System von gewöhnlichen Differentialgleichungen mit der zusätzlichen Bedingung, dass die Lösung einen bestimmten Wert zu einem bestimmten Zeitpunkt
annimmt. Die Unbekannte ist die Abbildung γ : I → Rn , wobei I ein Intervall mit
t0 ∈ I ist. Die Abbildung F : I × Rn → Rn heisst auch Vektorfeld.
Beispiel 7.2.1.
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
150
Wenn F (t, x) = M · x mit M ∈ Rn×n ist, dann ist (7.12) ein homogenes lineares
System mit konstanten Koeffizienten.
Manchmal ist die Funktion F nur auf einer Teilmenge I × D ⊂ I × Rn definiert.
Dann macht das System (7.12) nur dann Sinn, wenn der Wertebereich der Unbekannten γ in D enthalten ist. Das ist aber nur dann möglich, wenn x0 ∈ D. In diesem
Kapitel werden wir sehen, dass die Lipschitz-Stetigkeit von F die Existenz einer
Lösung von (7.12) garantiert. Dieser berühmte Satz heisst Satz von Picard-Lindelöf.
Satz 7.2.2 (von Picard-Lindelöf (allgemeine Form)).
Sei J ⊂ R ein Intervall und D ⊂ Rn eine offene Teilmenge. Sei weiter (t0 , x0 ) ∈
J × D und F : J × D → Rn eine Lipschitz-stetige Funktion. Dann ∃ α ∈ R mit
α > 0, so dass das Anfangswertproblem
(
x0 (t) = F (t, x(t))
x(t0 ) = x0
(7.13)
auf [t0 − α, t0 + α] ∩ J eine eindeutige Lösung hat.
Die Lösung des Satzes 7.2.2 ist eine “lokale” Lösung, weil ihr Definitionsbereich
kleiner als der Definitionsbereich von F sein kann.
Beispiel 7.2.3.
Wir betrachten folgendes Anfangswertproblem:

y 0 (t) = t y 2 (t)
y(0) = y .
0
Falls y(0) 6= 0 ist, so hat die (einzige!) Lösung folgende Gestalt und den folgenden
Definitionsbereich:
r r
2
2
,
→R
y: −
y0
y0
mit
y(t) =
1
y0
1
−
t2
2
.
Es gibt also keine Lösung auf ganz R.
Die Funktion F ist nicht Lipschitz-stetig. Aber wenn wir F auf D := B1 (y0 )
einschränken, dann ist diese Einschränkung Lipschitz-stetig. Satz 7.2.2 garantiert
dann die Existenz einer Lösung auf einem Interval [−α, α].
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
151
Wenn die Abbildung F auf dem ganzen Bereich J × Rn definiert und Lipschitzstetig ist, dann gibt es eine “globale” Lösung, wie das folgende Korollar zeigt:
Korollar 7.2.4 (Picard-Lindelöf (globale Lösung)).
Seien D, J, t0 und F wie in Satz 7.2.2. Falls D = Rn ist, dann gibt es eine eindeutige
Lösung von (7.13) auf dem ganzen Intervall J.
Dieses Korollar werden wir später beweisen, nachdem wir die Eindeutigkeit der
Lösungen untersucht haben. In diesem Kapitel beweisen wir Satz 7.2.2, aber dazu
brauchen wir einige Definitionen und Lemmata.
Wir erinnern uns an die Definitionen eines metrischen Raums, einer konvergenten
Folge und einer Cauchy-Folge.
Definition 7.2.5.
Sei X eine Menge und d : X × X → [0, ∞[ mit
1. d(x, y) ≥ 0 und d(x, y) = 0 ⇔ x = y
2. d(x, y) = d(y, x)
3. d(x, z) ≤ d(x, y) + d(y, z).
Dann heisst die Abbildung d Metrik und das Paar (X, d) metrischer Raum.
Beispiel 7.2.6 (Metrik auf dem Raum der stetigen Funktionen).
Sei K ⊂ Rn eine kompakte Menge und C(K, Rm ) die Menge der stetigen Funktionen
f : K → Rm . Wir definieren auf diesem Raum eine Norm durch
kf kC(K) := max|f (t)|.
t∈K
Desweiteren definieren wir mithilfe dieser Norm die Metrik
d(f, g) := kf − gkC(K) .
Dann ist (C(K, Rm ), d) ein metrischer Raum.
Definition 7.2.7.
Sei (X, d) ein metrischer Raum und {gn }n∈N ⊂ X eine Folge. Dann definieren wir
folgende Begriffe:
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
152
• {gk }k∈N heisst Cauchy-Folge genau dann, wenn
∀ ε > 0,
∃ N ∈ N,
so dass d(gn , gm ) < ε ∀ n, m ≥ N .
• {gk }k∈N konvergiert gegen g genau dann, wenn limk→∞ d(gk , g) = 0.
• A ⊂ X ist abgeschlossen genau dann, wenn der Limes jeder konvergenten Folge
{gn }n∈N ⊂ A zu A gehört.
Zur Erinnerung: eine konvergente Folge ist immer eine Cauchy-Folge, aber die
Umkehrung dieser Aussage ist im Allgemeinen falsch.
Definition 7.2.8.
Ein metrischer Raum heisst vollständig, falls jede Cauchy-Folge konvergiert.
Bemerkung 7.2.9.
Zur Erinnerung: jede abgeschlossene Teilmenge eines vollständigen metrischen Raumes ist selbst wieder ein vollständiger metrischer Raum.
Lemma 7.2.10.
Wenn K ⊂ Rn eine kompakte Menge ist, dann ist C(K, Rm ) ein vollständiger metrischer Raum.
Beweis. Sei {gk } ⊂ C(K, Rm ) eine Cauchy-Folge und x ∈ K. Betrachte
|gk (x) − gj (x)| ≤ max|gk (y) − gj (y)| = kgk − gj kC(K) .
y∈K
Deswegen ist {gk (x)}k eine Cauchy-Folge in Rm . Die Vollständigkeit des Euklidischen
Raumes impliziert die Existenz des Limes
Rm 3 g(x) := lim gk (x) .
k→∞
Wir behaupten nun, dass {gk } gleichmässig gegen g konvergiert: Sei ε > 0 gegeben.
Die Cauchy-Eigenschaft impliziert die Existenz einer Zahl N ∈ N, so dass
kgk − gj kC(K) <
ε
2
∀k, j ≥ N .
(7.14)
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
153
Sei nun x ∈ K und k ≥ N . Dann ist
(7.14)
|g(x) − gk (x)| = lim |gj (x) − gk (x)| ≤ lim sup kgj − gk kC(K) ≤
j→∞
j→∞
ε
,
2
und somit ist
sup |g(x) − gk (x)| < ε
∀k ≥ N .
x∈K
Dies beweist die gleichmässige Konvergenz der Folge {gk }. In der Vorlesung Analysis
I haben wir gesehen, dass der Limes einer gleichmässigen konvergenten Folge stetiger Funktionen wieder stetig ist. Deswegen g ∈ C(K, Rm ) und der Satz ist damit
bewiesen.
Um Satz 7.2.2 zu beweisen, brauchen wir noch einen wichtigen Satz, den wir schon
bewiesen haben, siehe Satz 5.6.4.
Satz 7.2.11 (Banachscher Fixpunktsatz).
Sei (X, d) ein vollständiger metrischer Raum und c : X → X eine Kontraktion, d.h.
es gibt eine Konstante α ∈ [0, 1[, so dass d(c(x), c(y)) ≤ α d(x, y) ∀ x, y ∈ X. Dann
gilt: c besitzt einen eindeutigen Fixpunkt, d.h. eine eindeutige Stelle x ∈ X, die die
Gleichung c(x) = x löst.
Beweis von Satz 7.2.2.
1. Voraussetzungen:
• ∃ a, b > 0, so dass R := ([t0 −a, t0 +a]∩J)×B b (x0 ) ⊂ J ×D kompakt ist.
Die Aussage ist klar, wenn t0 im Inneren von J liegt. Sonst haben wir
J = [t0 , d[ oder J =]c, t0 ], aber auch in diesem Fall ist die Aussage einfach
zu beweisen.
• F Lipschitz ⇒ ∃ L > 0, so dass |F (t, x) − F (t, y)| < L |x − y|
∀ (t, x), (t, y) ∈ R
• R kompakt und F stetig ⇒ ∃ M > 0, so dass |F (t, x)| ≤ M
R.
2. Definitionen:
1
• α := min{a, Mb , 2L
}
∀ (t, x) ∈
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
154
• I := [t0 − α, t0 + α] ∩ J;
• X := C(I, B b (x0 )) ist die Menge der stetigen Funktionen mit Definitionsbereich I und mit Wertebereich in B b (x0 );
• Wir definieren die Abbildung T : X → X wie folgt:
Z
t
F (τ, y(τ ))dτ
T (y)(t) := x0 +
∀ y ∈ X,
∀t ∈ I .
t0
Wir behaupten:
(a) X ist eine abgeschlossene Teilmenge von C(I, Rn );
(b) T : X → X ist eine Kontraktion.
Diese zwei Tatsachen und der Banachsche Fixpunktssatz implizieren die Existenz
eines Fixpunktes x von T . D.h. x : I → B b (x0 ) ⊂ D ist eine stetige Funktion, so
dass
Z t
x(t) = x0 +
F (τ, x(τ )) dτ
∀t ∈ I .
(7.15)
t0
Da τ 7→ F (τ, x(τ )) eine stetige Funktion ist, folgt dass x eine C 1 -Funktion ist. Wenn
wir die Gleichung (7.15) ableiten, erhalten wir x0 (t) = F (t, x(t)) ∀t ∈ I, und dies
beweist, dass x eine Lösung des Anfangswertproblems (7.13) ist.
Beweis von (a). Sei {gk } eine Folge von Funktionen in X = C(I, B b (x0 )) und g
eine stetige Funktion mit kgk − gkC(K) → 0. Ferner sei t ∈ I. Da gk (t) → g(t) und
B b (x0 ) abgeschlossen ist, ist g(t) ∈ B b (x0 ) und somit ist g ∈ X.
Beweis von (b). Zuerst zeigen wir die Wohldefiniertheit der Abbildung T . Sei
y ∈ X. Dann ist t 7→ T (y)(t) eine stetige Funktion. Ausserdem gilt:
Z t
|T (y)(t) − x0 | = F (τ, x(τ )) dτ ≤ |t − t0 |M ≤ αM ≤ b .
t0
D.h. die Werte der Abbildung T (y) sind in B b (x0 ) enthalten. Also ist T (y) ∈ X.
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
155
T ist eine Kontraktion, denn: ∀ y, z ∈ X, ∀ t ∈ I gilt:
Z t
|T (y)(t) − T (z)(t)| = F (τ, y(τ )) − F (τ, z(τ ))dτ t0
≤ α max |F (τ, y(τ )) − F (τ, z(τ ))|
τ ∈I
=
α L max |y(τ ) − z(τ )|
Lipschitz
τ ∈I
1
≤
ky − zkC(I) .
Def. von α 2
Wir schliessen, dass kT (y) − T (z)kC(I) ≤ 21 ky − zkC(I) .
Bemerkung 7.2.12.
Der Beweis von Satz 7.2.2 liefert auch gleich eine konkrete Methode, um die Lösung
per Algorithmus zu approximieren. Jedoch muss dabei bei jedem Schritt integriert
werden. Wir setzen y0 = x0 und ym+1 := T (ym ), d.h.
Z
t
ym+1 (t) := x0 +
F (τ, ym (τ )) dτ.
t0
Dann konvergiert ym → x gleichmässig auf [t0 − α, t0 + α] ∩ J, wobei x die gesuchte
Lösung ist.
7.3. Eindeutigkeit und stetige Abhängigkeit
Wir erinnern uns an das folgende Lemma, das wir schon im Kapitel 6 bewiesen
haben.
Lemma 7.3.1.
(von Gronwall) Sei f : [a, b[ → [0, +∞[ differenzierbar und c ≥ 0 eine Konstante,
so dass
f 0 (t) ≤ cf (t) ∀ t ∈ [a, b[, c > 0 .
(7.16)
f (t) ≤ f (a) exp(c(t − a)) ∀t ∈ [a, b[ .
(7.17)
Dann gilt:
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
156
Definition 7.3.2.
Sei F eine Lipschitz-stetige Funktion. Dann definieren wir die Lipschitz-Konstante
wie folgt:
Lip(F ) := min {M ≥ 0 : |F (a) − F (b)| ≤ M |a − b|, ∀ a, b} .
Beispiel 7.3.3.
Wir betrachten die Abbildung F : [−1, 1] → R mit F (x) := |x|. Dann ist |F (x) −
F (y)| ≤ |x − y|. Aber ∀ ε > 0, ∃ x, y : |F (x) − F (y)| ≥ (1 − ε)|x − y|. Deshalb ist
Lip(F ) = 1.
Satz 7.3.4.
Sei F : [a, b] × D → Rn Lipschitz-stetig und seien g und f zwei Lösungen von
y 0 = F (t, y) auf [a, b]. Dann ist
|g(t) − f (t)| ≤ |g(τ ) − f (τ )| exp(Lip(F )|t − τ |)
∀ t, τ ∈ [a, b] .
(7.18)
Dieser Satz impliziert die Eindeutigkeit der Lösung von (7.13):
Korollar 7.3.5.
Sei F Lipschitz-stetig und seien y, x zwei Lösungen von (7.13). Dann ist x ≡ y.
Beweis. Aus (7.18) folgt, |f (t) − g(t)| ≤ |f (t0 ) − g(t0 )| exp(Lip(F )|t − t0 ) = 0.
Nun sind wir bereit, um auch Korollar 7.2.4 zu beweisen.
Beweis. [Beweis von Korollar 7.2.4] Wir betrachten die Menge L der Paare (K, y),
so dass
• t0 ∈ K ⊂ J und K ein Intervall ist;
• y : K → Rn (7.13) löst.
Aus Satz 7.2.2 folgt, dass L 6= ∅. Seien nun (K1 , y 1 ), (K 2 , y 2 ) ∈ L. Auf der Menge
K1 ∩ K2 haben wir y1 = y2 wegen Korollar 7.3.5. Nun können wir auf dem Intervall
K1 ∪ K2 eine Funktion y wie folgt definieren: y = y1 auf K1 und y = y2 auf K2 . y
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
157
ist differenzierbar und löst (7.13) auf K1 ∪ K2 . Wir können deshalb eine maximale
Lösung auf dem Intervall
[
K :=
L
(L,y)∈L
definieren. Wir wollen nun zeigen, dass K = J ist. Nun haben wir folgende Möglichkeiten:
(i) das rechte Extremum b von K gehört nicht zu K, aber zu J;
(ii) das rechte Extremum b von K gehört zu K, aber ∃τ > b mit τ ∈ J;
(iii) das linke Extremum a von K gehört nicht zu K, aber zu J;
(iv) das linke Extremum a von K gehört zu K, aber ∃τ < a mit τ ∈ J.
Wir untersuchen nur die Fälle (i) und (ii). (i) kann nicht sein: Wegen Satz 7.2.2
wissen, wir dass eine lokale Lösung x von x0 (t) = F (t, x(t)) auf [b − α, b + α] existiert
mit x(b) = y(b). Aber dann ist, wegen Korollar 7.3.5, x = y auf [b − α, b] ∩ K. Somit
finden wir eine Lösung von (7.13) auf K ∪ [b − α, b + α], aber das ist ein Widerspruch
zur Maximalität von K.
Für den Fall (ii) bemerken wir, dass die Funktion y Lipschitz-stetig ist. Zuerst
beweisen wir dass y beschränkt ist. Wir definieren B(t) = |y(t)|2 und wir rechnen
B 0 (t) = 2hy(t), y 0 (t)i = 2hγ(t), F (t, y(t))i
= 2hγ(t), F (t, γ(t)) − F (t, 0)i + 2hγ(t), F (t, 0i
≤ 2|γ(t)||F (t, γ(t)) − F (t, 0)| + 2|γ(t)||F (t, 0)| ≤ 2L|γ(t)|2 + 2M |γ(t)| ,
wobei L = Lip (F ) und M = max{|F (t, 0)| : t ∈ [b0 , b]}. Deshalb
B 0 (t) ≤ 2LB(t) + |γ(t)|2 + M 2 ≤ (2L + 1)B(t) + M 2
≤ (2L + 1)(B(t) + M 2 ) .
Sein nun A(t) := B(t) + M 2 . Dann A0 (t) = B 0 (t) ≤ (2L + 1)A(t) und deshalb
0
A(t) ≤ A(b0 )e(2L+1)(t−b ) für alle t ∈ [b0 , b[. Wir schliessen dass
0
|y(t)|2 ≤ (|y(b0 )|2 + M 2 )e(2L+1)(b −b)
∀t ∈ [b0 , b[ .
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
158
Aus der Beschränktheit von y folgt (durch die Formel y 0 (t) = F (y(t), t)) die beschränktheit von y 0 . Deshalb, wenn wir
S := sup{|y 0 (t)| : t ∈ [b0 , b[} ,
dann haben wir S < ∞ und
|y(s) − y(t)| ≤ S|s − t|
∀s, t ∈ [b0 , b[ .
Die Abbildung y ist dann gleichmässig stetig auf dem Intervall [b0 , b[. Also gibt es
eine stetige Fortsetzung ỹ von y auf K ∪ {b}. Wir behaupten nun, dass ỹ auch in b
differenzierbar ist und dort ỹ 0 (b) = F (t, ỹ(b)) gilt. Sei nun i ∈ {1, . . . , n}. Der Satz
von Lagrange (Mittelwertsatz) impliziert: ∀t ∈ K gibt es eine Stelle ξ ∈]t, b[, so dass
ỹi (b) − ỹi (t) = ỹi0 (ξ)(b − t) = Fi (ξ, y(ξ))(b − t)
(wobei ỹ(s) = (ỹ1 (s), . . . , ỹn (s)) und F (t, x) = (F1 (t, x), . . . , Fn (t, x)). Wenn nun
t → b, dann konvergiert ξ → b und damit auch Fi (ξ, y(ξ)) → Fi (b, ỹ(b)). Dies
beweist, dass ỹ differenzierbar ist und (7.13) löst. Aber auch dies ist ein Widerspruch
zur Maximalität von K.
Beweis von Satz 7.3.4. Falls t ≥ τ ist, setzen wir α(s) := |f (τ + s) − g(τ + s)|2 und
sonst α(s) := |f (τ − s) − g(τ − s)|2 . Das Argument ist das gleiche wie im vorherigen
Beweis, daher nehmen wir an, dass t ≥ τ = 0. Dann ist
α0 (t)
=
2[f (t) − g(t)][f 0 (t) − g 0 (t)]
=
2[f (t) − g(t)][F (t, f (t))) − F (t, g(t)]
≤
2|f (t) − g(t)||F (t, f (t)) − F (t, g(t))|
F Lipschitz
≤
2|f (t) − g(t)|Lip(F )|f (t) − g(t)|
=
2Lip(F )α(t) .
Aus dem Lemma von Gronwall folgt,
α(t) ≤ α(0) exp(2Lip(F )t) .
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
159
Da α eine nicht-negative Funktion ist, folgt
|g(t) − f (t)| =
p
α(t) ≤
p
α(0) exp(Lip(F )t) = |g(0) − f (0)| exp(Lip(F )t) .
7.4. Fluss eines Vektorfeldes
Definition 7.4.1.
Sei F : [a, b] × Rn → Rn Lipschitz-stetig und 0 ∈ [a, b]. Der Fluss von F ist dann die
Abbildung Φ : [a, b] × Rn → Rn mit Φ(t, x0 ) = y(t), wobei y die eindeutige Lösung
von (7.13) mit t0 = 0 ist.
Korollar 7.4.2.
Φ ist stetig. Falls F beschränkt ist, dann ist Φ sogar Lipschitz-stetig.
Beweis. Seien {tk } und {xk } zwei Folgen mit tk → t and xk → x. O.B.d.A. nehmen
wir an, dass tk ≥ t ist. Dann ist
|Φ(tk , xk ) − Φ(t, x)| ≤ |Φ(tk , xk ) − Φ(tk , x)| + |Φ(tk , x) − Φ(t, x)|
Z tk
≤ |x − xk | exp(Lip(F )(tk − t)) +
|F (τ, Φ(τ, x))| dτ .
t
Da die Abbildung [a, b] 3 τ 7→ |F (t, Φ(τ, x))| stetig ist, besitzt sie ein endliches
Maximum. Daraus folgt, dass |Φ(tk , xk ) − Φ(t, x)| ≤ C(|x − xk | + |t − tk |), wobei
die Konstante C unabhängig von k ist. Wenn F beschränkt ist, so kann man die
Konstante C auch unabhängig von (x, t) wählen und dies beweist die LipschitzStetigkeit.
Bemerkung 7.4.3.
Ohne die Beschränktheit von F ist Φ nur lokal Lipschitz-stetig, d.h. Φ|K ist Lipschitzstetig für jede kompakte Menge K ⊂ [a, b] × Rn .
Korollar 7.4.4.
Die Abbildung Φ(t, ·) : Rn → Rn ist umkehrbar ∀ t ∈ [a, b].
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
160
Beweis. Sei t ∈ R und Φ−1 (t, y0 ) := f (0), wobei f die eindeutige Lösung von

f 0 (τ ) = F (τ, f (τ ))
f (t) = y
∀ τ ∈ [a, t]
0
ist. Zudem löst die Funktion f auch das Anfangswertproblem

f 0 (τ ) = F (τ, f (τ ))
∀ τ ∈ [a, t]
f (0) = Φ−1 (t, y ) .
0
Aber dieses Anfangswertproblem wird auch von τ 7→ Φ(τ, Φ−1 (t, y0 )) gelöst. Mit
Korollar 7.3.5 folgt, dass f (τ ) = Φ(τ, Φ−1 (t, y0 )). Wenn wir τ := t setzen, so ist
y0 = f (t) = Φ(t, Φ−1 (t, y0 )). Analog zeigt man, dass Φ−1 (t, Φ(t, y0 )) = y0 ist.
Zudem zeigt das letzte Argument auch die Stetigkeit von Φ−1 (t, ·).
Korollar 7.4.5.
Φ−1 (t, ·) ist stetig.
Zur Erinnerung:
Definition 7.4.6.
Sei Ω ⊂ Rn eine Menge. Ein Homöomorphismus von Ω ist eine stetige Abbildung
ψ : Ω → Ω mit stetiger Umkehrung. Falls die Funktion ψ und ihre Umkehrung
C 1 -Funktionen sind, dann nennen wir ψ einen Diffeomorphismus.
Also ist Φ(t, ·) ein Homöomorphismus von Rn .
7.5. Differenzierbare Abhängigkeit
Satz 7.5.1.
Sei F : [a, b] × Rn → Rn Lipschitz-stetig und differenzierbar mit stetigen partiellen
Ableitungen und sei 0 ∈ [a, b]. Dann ist der Fluss Φ von F differenzierbar mit stetigen
Ableitungen.
Wir halten fest, dass der obige Satz auch das folgende Korollar liefert:
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
161
Korollar 7.5.2.
Sei F wie in Satz 7.5.1. Dann ist die Umkehrfunktion von Φ(t, ·) auch eine C 1 Abbildung. D.h. Φ(t, ·) ist ein Diffeomorphismus von Rn .
Satz 7.5.1 ist ein Korollar des folgenden Satzes:
Satz 7.5.3.
Seien F und Φ wie oben. Dann existieren die partiellen Ableitungen von Φ und sind
stetig.
Um Satz 7.5.3 zu beweisen, brauchen wir das Theorem von Arzelá-Ascoli. Zuerst
führen wir aber die dafür notwendigen Begriffe ein.
Definition 7.5.4.
Sei {fk } eine Folge von Funktionen fk : Ω → Rn . Dann sagen wir, dass
1. {fk } gleichmässig beschränkt ist, wenn ∃ c ≥ 0, so dass |fk (x)| ≤ c ∀ x ∈ Ω
und ∀ k ∈ N.
2. {fk } gleichgradig stetig ist, wenn ∀ ε > 0, ∃ δ > 0, so dass |fk (x) − fk (y)| < ε
∀ k ∈ N und ∀ x, y mit |x − y| < δ.
Theorem 7.5.5.
(Arzelá-Ascoli) Sei {fk } eine Folge von Funktionen mit fk : [a, b] → Rn , die
gleichmässig beschränkt und gleichgradig stetig ist. Dann ∃ f : [a, b] → Rn stetig
und eine Teilfolge {fkj } ⊂ {fk }, so dass limj→∞ kfkj − f kC([a,b]) = 0.
Beweis. Das Ziel ist, eine Cauchy-Teilfolge zu finden , d.h. {fkj } ⊂ {fk }, so dass
∀ ε > 0, ∃ N ∈ N mit
kfkj − fki kC([a,b]) < ε
∀ kj , ki > N .
(7.19)
Sei {q` }`∈N =: A ⊂ [a, b] dicht und abzählbar (begründen Sie die Existenz einer
solchen Menge). Dann ist {fk (q` )} eine beschränkte Folge im Rn . Das CantorDiagonalargument (siehe Lemma A.0.1) garantiert die Existenz einer Teilfolge, so
dass
{fkj (qi )}
∀ qi ∈ A
(7.20)
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
162
konvergiert. Statt fkj schreiben wir der Einfachheit halber nur noch fk . Wir behaupten nun, dass diese neue Folge eine Cauchy-Folge ist. Dazu:
1. Sei ε > 0 gegeben. Dann ∃ δ > 0, so dass |fk (x) − fk (y)| <
|x − y| < δ.
ε
3
∀k und ∀ x, y mit
2. Wegen der Dichtheit von A und der Kompaktheit von [a, b], ∃ A := {a1 , ..., aM } ⊂
A, so dass ∀ x ∈ [a, b], ∃ qi ∈ A mit |x − qi | < 2δ .
3. Da A endlich ist, ∃N , so dass |fk (qi ) − fh (qi )| <
ε
3
∀ k, h > N und ∀ qi ∈ A.
Sei nun x ∈ [a, b] gegeben. Wir wählen ein qi ∈ A mit |x − qi | ≤ 2δ . Für h, k > N
gilt dann:
|fk (x) − fh (x)| = |(fk (x0 ) − fk (qi )) + (fk (qi ) − fh (qi )) + (fh (qi ) − fh (x0 ))|
≤ |fk (x0 ) − fk (qi )| + |fk (qi ) − fh (qi )| + |fh (qi ) − fh (x0 )| < ε .
|
{z
} |
{z
} |
{z
}
< 3ε folgt aus (1)
< 3ε folgt aus (3)
< 3ε folgt aus (1)
Daher schliessen wir, dass kfk − fh kC([a,b]) < ε ∀h, k > N , d.h. (7.19) ist gezeigt.
Bemerkung 7.5.6.
Es gibt viele Verallgemeinerungen dieses Theorems. Wichtig ist, dass das Theorem
auch gilt, wenn fk : K → Rn und K ⊂ Rm kompakt ist.
Wir kommen nun zum Beweis von Satz 7.5.3.
mit h 6= 0, x ∈
Beweis von Satz 7.5.3. Sei e ∈ Rn und sei dh,x (t) := Φ(t,x+he)−Φ(t,x)
h
Rn . Wir teilen den Beweis des Satzes in zwei Behauptungen auf:
Behauptung 1: ∀ t, x existiert der Limes limh→0 dh,x (t), t ∈ [a, b].
Behauptung 2: limh→0 dh,x (t) =
∂Φ
(t, x)
∂e
ist stetig in x und t.
(a) Folgerung aus Gronwalls Lemma:
|dh,x (t)| ≤ |e| exp(Lip(F )(t)).
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
163
Dabei ist {dh,x }h6=0 gleichmässig beschränkt, weil
kdh,x kC(I) = maxt∈I |dh,x (t)| ≤ |e| exp(Lip(F )(b − a)) .
{z
}
|
unabhängig von h
(b) Es ist
|F (t, Φ(t, x + he)) − F (t, Φ(t, x))|
h
|Φ(t, x + he)) − Φ(t, x))|
= Lip(F )|dh,x (t)|
≤ Lip(F )
h
≤ Lip(F )|e| exp(Lip(Φ)(b − a)) .
|d0h,x (t)| =
(7.21)
Zur Erinnerung: Die gleichmässige Stetigkeit bedeutet:
∀ ε > 0, ∃ δ > 0 : |τ − σ| < δ ⇒ |dh,x (τ ) − dh,x (σ)| < ε.
(7.22)
Nun ist
|dh,x (τ ) − dh,x (σ)| ≤
max |d0h,x (t)|
t∈[σ,τ ]
|τ − σ|
≤ {Lip(F )|e| exp(Lip(F )(b − a))}|τ − σ|.
Deshalb gilt (7.21) =⇒ (7.22) für δ :=
ε
.
Lip(F )|e| exp(Lip(F )(b−a))
Aus dem Satz von Arzelà-Ascoli folgt: ∀ {hk } mit hk → 0 existiert eine Teilfolge
˜ C(I) −→ 0. Wir
{hkj } und eine stetige Funktion d˜ : I → Rn , so dass kdhkj ,x − dk
brauchen aber die Konvergenz der ganzen Folge {dhk ,x }. Dies erreichen wir jedoch
mit der folgenden Behauptung:
Behauptung 1bis : d˜ ist eindeutig, d.h. d˜ hängt nicht von den Folgen {hk } und
{hkj } ab.
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
164
Damit ist dann die Behauptung 1 bewiesen. Das Vorgehen für den Beweis von
Behauptung 1bis ist, eine gewöhnliche DGL für d˜ zu finden. Wir schreiben
F (t, Φ(t, x + he)) − F (t, Φ(t, x))
h
Φ(t, x + he) − Φ(t, x)
+ Fehlerh (t),
= dy F (t, Φ(t, x))
| {z }
h
d0h,x (t) =
(7.23)
=:y
wobei
lim max |Fehlerh (t)| = 0 .
h↓0
(7.24)
t
Die Abschätzung (7.24) folgt aus der Taylorentwicklung. Sei z := Φ(t, x + he) und
y := Φ(h, x). Dann ist
F (t, z) − F (t, y) = dF (t, y)(z − y) + hFehlerh (t) .
Wir benutzen nun die Fehlerabschätzung von Lagrange:
|h||Fehlerh (t)| ≤ |z − y| max kdF (t, w) − dF (t, y)k .
w∈[y,z]
Deswegen ist
|Φ(t, x + he) − Φ(t, x)|
max kdF (t, Φ(t, x + he)) − dF (t, Φ(t, x))k
t∈I
|h|
≤ CLip(Φ) max kdF (t, Φ(t, x + he)) − dF (t, Φ(t, x))k .
Fehlerh (t) ≤
t∈I
Wegen der Stetigkeit von dF und Φ haben wir aber
lim max kdF (t, Φ(t, x + he)) − dF (t, Φ(t, x))k = 0 .
h↓0 t∈I
Wir integrieren (7.23) zwischen 0 und τ ∈ [a, b] und erhalten:
Z
dh,x (τ ) − dh,x (0) =
0
τ
d0h,x (t)dt
Z
=
τ
Z
dy F (t, Φ(t, x))dh,x (t)dt +
0
τ
Fehlerh (t) dt .
0
(7.25)
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
Aus (7.24) folgt
Z
τ
lim
h↓0
165
Fehlerh (τ ) dτ = 0 .
0
Sei nun {hk } eine Folge mit hk → 0, {hkj } eine konvergente Teilfolge (deren Existenz
vom obigen Argument garantiert ist) und d˜ : I → Rn die Abbildung, so dass kdhkj −
˜ C(I) −→ 0. Wir bemerken zudem, dass
dk
dh,x (0) =
(x + he) − x
Φ(0, x + he) − Φ(0, x)
=
= e.
h
h
˜ erhalten wir
Zusammen mit der gleichmässigen Konvergenz von dh,x (t) gegen d(t)
˜ ) − d(0)
˜ =
d(τ
Z
0
|
τ
˜
dy F (t, Φ(t, x))d(t)dt
.
{z
}
(7.26)
stetig
(7.26) ist der Limes von (7.25). Das hat zur Folge, dass d˜ differenzierbar ist und

d˜0 (t) = d F (t, Φ(t, x))d(t),
˜
y
d(0)
˜ = e.
(7.27)
˜ das AnfangswertDa x fixiert ist, setzen wir a(t) := dFy (t, Φ(t, x)). Dann löst d(t)
problem
(
z 0 (t) = a(t) · z(t),
z(0) = e.
Da die Lösung eindeutig ist (siehe Korollar 7.3.5), folgt dass d˜ nicht von den Folgen
{hk } und {hkj } abhängt, d.h. Behauptung 1bis ist gezeigt.
Wir wollen nun die Behauptung 2, d.h. die Stetigkeit von ∂Φ
zeigen. Wir fixieren
∂e
∂Φ
∂Φ
t und x. Um die Stetigkeit zu zeigen, müssen wir | ∂e (t, x) − ∂e (τ, y)| abschätzen,
˜ = ∂Φ (σ, x). Aus (7.27) folgt nun:
wobei (τ, y) ein anderer Punkt ist. Sei d(σ)
∂e
d̃0 (σ) = dy F (σ, Φ(σ, x))
|
{z
}
˜
d(σ)
|{z}
stetig⇒beschränkt stetig⇒beschränkt
⇒ d̃0 (σ)beschränkt .
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
166
Damit gilt:
Z t
∂Φ
∂Φ
= d̃0 (σ)dσ ≤ C|t − τ | ,
(t, x) −
(τ,
x)
∂e
∂e
τ
(7.28)
und weiter
∂Φ
∂Φ
∂Φ
∂Φ
∂Φ
∂Φ
(t, x) −
≤ (t, x) −
+ (τ, x) −
(τ,
y)
(τ,
x)
(τ,
y)
∂e
∂e
∂e
∂e
∂e
∂e
(7.28)
∂Φ
∂Φ
≤ C 0 |t − τ | + (τ, x) −
(τ, y) .
(7.29)
∂e
∂e
¯
˜ ) − d(τ
¯ )|2 abschätzen. Dafür
Wir setzen d(σ)
:= ∂Φ
(σ, y) und wollen α(τ ) := |d(τ
∂e
¯
nutzen wir (7.27) und die entsprechende Differentialgleichung für d:

d̄0 (σ) = d F (σ, Φ(σ, y))d(σ),
¯
y
d(0)
¯ = e.
O.B.d.A. sei τ ≥ 0. Dann gilt:
˜ − d(σ))(d
¯
˜ − dy F (σ, Φ(σ, y))d(σ)
¯
2(d(σ)
F (σ, Φ(σ, x))d(σ)
ny
˜ − d(σ))
¯
˜
= 2(d(σ)
[dy F (σ, Φ(σ, x)) − dy F (σ, Φ(σ, y))] d(σ)
o
˜ − d(σ)]
¯
+dy F (σ, Φ(σ, y))[d(σ)
n
˜ − d(σ)|
¯
˜
≤ 2|d(σ)
kdy F (σ, Φ(σ, x)) − dy F (σ, Φ(σ, y))k|d(σ)|
o
˜ − d(σ)|
¯
+kdy F (σ, Φ(σ, y))k|d(σ)
(7.30)
α0 (σ) =
˜ − d(σ)|
¯ 2
≤ 2kdy F (σ, Φ(σ, y)k|d(σ)
˜ − d(σ)|kd
¯
˜
+2|d(σ)
y F (σ, Φ(σ, x)) − dy F (σ, Φ(σ, y))k|d(σ)| . (7.31)
O.B.d.A. nehmen wir an, dass |y − x| = ε ≤ 1. Dann haben wir
max 2kdy F (σ, Φ(σ, y))k =: C1 < ∞ .
σ,y
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
167
Wir haben aber auch
˜
max |d(σ)|
=: C2 < ∞
σ,y
(dies ist eine Konsequenz des Lemmas von Gronwall) und setzen
M (ε)2 := max max kdy F (σ, Φ(σ, x)) − dy F (σ, Φ(σ, y))k .
|y−x|≤ε
σ
Deswegen ist
2 ˜
2
˜ − d(σ)|kd
¯
˜
¯ 2
2|d(σ)
y F (σ, Φ(σ, x)) − dy F (σ, Φ(σ, y))k|d(σ)| ≤ C2 |d(σ) − d(σ)| + M (ε) .
Nun setzen wir C := 2C1 + C22 . Wenn wir diese Abschätzungen in (7.31) nutzen,
2
dann folgt α0 (σ) ≤ Cα(σ) + M (ε)2 . Sei nun β(σ) := α(σ) + M C(ε) . Dann erhalten
wir

β 0 (σ) = α0 (σ) ≤ Cβ(σ),
β(0) = M (ε)2 .
C
Aus dem Lemma von Gronwall folgt β(σ) ≤ β(0) exp(Cσ) für σ ≥ 0. Eine ähnliche
Abschätzung ergibt β(σ) ≤ β(0) exp(C|σ|) für alle σ ∈ [a, b]. Daher ist
2
2
2
∂Φ
(σ, x) − ∂Φ (σ, y) = α(σ) ≤ M (ε) exp(C|σ|) ≤ M (ε) exp(C(b − a)) .
∂e
∂e
C
C
Zusammenfassend gilt nun also: Für (t, x) und (τ, y) mit |y − x| ≤ ε haben wir
∂Φ
(t, x) − ∂Φ (τ, y) ≤ C|t − τ | + CM (ε) exp(C(b − a)),
∂e
∂e
(7.32)
wobei die Konstante C unabhängig von (τ, y) ist. Schliesslich folgt aus der Stetigkeit
von dF und Φ, dass
lim M (ε) = 0
ε↓0
und damit folgt aus (7.32):
∂Φ
∂Φ
lim (t, x) −
(τ, y) = 0 .
(τ,y)→(t,x) ∂e
∂e
Kapitel 7. Systeme von gewöhnlichen Differentialgleichungen
168
Das Argument des letzten Beweises ist nur “lokal” und deshalb gilt auch die
folgende lokale Version des Satzes 7.5.1:
Satz 7.5.7.
Seien Ω eine kompakte Menge, F : [a, b] × Ω eine C 1 Abbildung, Ω0 ⊂ Ω eine offene
Teilmenge und Φ : Ω0 × [a, b] → Ω eine stetige Abbildung die die partielle Ableitung
∂Φ
besitzt und das folgende System löst:
∂t



∂Φ
(t, x)
∂t


Φ(0, x) = x .
Dann ist Φ eine C 1 Abbildung.
= F (t, Φ(t, x))
8. Differenzierbare
Mannigfaltigkeiten
In diesem Kapitel werden wir näher auf die Untermannigfaltigkeiten der Euklidischen Räumen eingehen und die Theorie der abstrakten Mannigfaltigkeiten einführen.
Der Satz von der lokalen Umkehrbarkeit und der Satz über implizite Funktionen
werden eine zentrale Rolle spielen und tatsächlich brauchen wir zwei leichte Verallgemeinerungen daran.
Lemma 8.0.1.
Seien U, V ⊂ Rn zwei offene Mengen und Φ : U → V ein Diffeomorphismus. Falls
Φ ∈ C k , dann Φ−1 ∈ C k .
Beweis. Per Definition ist Φ−1 ∈ C 1 . Wir nehmen deshalb an dass k ≥ 2. Das
Lemma 5.5.8 gibt uns eine explizite Formel für das Differential dΦ−1 |q , nähmlich
dΦ−1 |q = dΦ|Φ−1 (q)
−1
.
(8.1)
Die Koeffizienten Jk` (p) der Matrix J(p), die die lineare Abbildung (dΦ|p )−1 dargestellt, sind Summen von Produkten einiger partieller Ableitungen erster Ordnung
der Komponenten von Φ = (Φ1 , . . . , Φn ), dividiert durch die Determinante der Matrixdarstellung von dΦp . Deshalb ist jede Funktion p 7→ Jk` (p) ein Quotient von C k−1
Funktionen. Der Nenner ist nie Null und daraus folgt, dass Jk` ∈ C k−1 . Jk` (Φ−1 (q))
ist dann die Komposition einer C k−1 Funktion und einer C 1 Funktion: sie ist deswegen C 1 . Auf der anderen Seite (8.1) bedeutet, dass
∂(Φ−1 )k
(q) = Jk` (Φ−1 (q)) .
∂x`
169
(8.2)
Kapitel 8. Differenzierbare Mannigfaltigkeiten
170
−1
Wir schliessen deshalb dass jede partielle Ableitung ∂(Φ∂x` )k eine C 1 Funktion ist.
Das impliziert aber dass Φ−1 ∈ C 2 . Nun, falls k = 2 sind wir fertig, ansonsten ist
−1
k ≥ 3 und aus (8.2) folgt, dass ∂(Φ∂x` )k ∈ C 2 , d.h. Φ−1 ∈ C 3 .
Mit diesem Verfahren und mit Hilfe der vollständingen Induktion schliessen wir
dann die Behauptung des Satzes für alle k ∈ N. Insbesondere ist Φ−1 beliebig oft
differenzierbar falls Φ ist. Also gilt auch der Fall k = ∞.
Ein leichtes Korollar des Lemmas ist dass die (lokale) Umkehrung der Funktion
Φ im Satz 5.6.1 ist so glatt wie Φ. Eine ähnliche Verallgemeinerung gilt fuer den
Satz über implizite Funktionen. Der Beweis ist änlich zum Beweis des vorherigen
Lemmas und ist dem Leser verlassen.
Satz 8.0.2.
Seien f und g die Funktionen im Satz 5.8.2. Falls f ∈ C k , so ist g ∈ C k .
8.1. Karten für Untermannigfaltigkeiten Euklidischer
Räume
Wir erinnern zuerst an die Definition der C 1 Untermannigfaltigkeiten des Rn (siehe
Definition 5.9.1) und geben eine leichte Verallgemeinerung:
Definition 8.1.1.
Seien Ω ⊂ Rn eine offene Menge, k ∈ [1, n − 1] eine natürliche Zahl und j ∈ {∞} ∪
N \ {0}. Eine Menge E ⊂ Ω ist eine C j -Untermannigfaltigkeit von Ω der Dimension
k, falls ∀p ∈ E die folgende Eigenschaft gilt: ∃ eine Ordnung der Koordinaten
(x1 , · · · , xk , y1 , · · · , yn−k ), so dass
• p = (|{z}
a , |{z}
b )
∈Rk
∈Rn−k
• ∃ Umgebungen U und V von a und b
• ∃f : U → V C j , so dass
(U × V ) ∩ E = {(x, f (x)) : x ∈ U } .
Kapitel 8. Differenzierbare Mannigfaltigkeiten
171
Im Satz 5.9.3 haben wir gesehen dass die Urbilder (durch C 1 Funktionen) regularärer Werte C 1 -Untermannigfaltigkeiten sind (siehe auch Definition 5.9.2). Eine
angepasste lokale Version dieses Satzes gibt eine Charakterisierung der Untermannigfaltigkeiten. Im nächsten Satz werden wir auch eine zweite Charakterisierung
sehen.
Satz 8.1.2.
Die folgenden Aussagen sind äquivalent:
(i) Σ ⊂ Rn ist eine k-dimensionale C j -Untermannigfaltigkeit.
(ii) Für jeden Punkt p ∈ Σ gibt es eine offene Umgebung W von p und eine
C j Abbildung h : W → Rn−k so dass 0 ein regulärer Wert von h ist und
W ∩ Σ = h−1 ({0}).
(iii) Für jeden Punkt p ∈ Σ gibt es eine offene Umgebung W von p und einen C j
Diffeomorphismus Φ : W → W 0 so dass Φ(Σ ∩ W ) = W 0 ∩ {z ∈ Rn : zk+1 =
. . . = zn = 0}.
Definition 8.1.3.
Ein Paar (W, Φ) wie im Satz 8.1.2(iii) werden wir eine Karte für die Untermannigfaltigkeit Σ nennen.
Beweis. (ii) =⇒ (i). Das Argument ist eine einfache Anpassung des Arguments
vom Satz 5.9.3.
(i) =⇒ (ii). Seien U , V , die Koordinaten (x, y) und die Funktion f wie in der
Definition 8.1.1. Wir setzen dann W = U × V und h(x, y) = y − f (x). Es ist dann
klar, dass h ∈ C j und Σ ∩ W = h−1 ({0}). Wir müssen nur kontrollieren ob 0 ein
Kapitel 8. Differenzierbare Mannigfaltigkeiten
172
regularär Wert von h ist. Wir berechnen die Jacobi Matrix von h:


∂f1
− ∂x
1
∂f1
· · · − ∂x
k
1 0 ··· 0 0













∂f2
− ∂x
1
∂f2
· · · − ∂x
k

0 1 ··· 0 0 



.. ..
.. .. 
. .
. . 
.



0 0 ··· 1 0 

0 0 ··· 0 1
..
.
..
.
· · · − ∂fn−k+1
− ∂fn−k+1
∂x1
∂xk
− ∂f∂xn−k
1
· · · − ∂f∂xn−k
k
Die letzten n − k Spalten sind immer linear unabhägig: deshalb ist der Rang von
dh|p Maximal für jeden Punkt p. Insbesondere ist jeder Wert von h ein regulär Wert.
(iii) =⇒ (i). Seien W und Φ wie in (iii) und sei h = (Φk+1 , . . . , Φn ). Dann ist
h : W → Rn−k eine C j Abbildung. Ausserdem, Σ ∩ W = h−1 ({0}). Wir müssen nur
kontrollieren ob 0 ein regularär Wert von h ist und dann haben wir (iii) =⇒ (ii)
bewiesen, aber wir wissen schon, dass (ii) =⇒ (i). Nun, die Zeilen der Jacobi Matrix
von h an der Stelle p sind
∇h1 (p) , . . . , ∇hn−k (p) .
Aber ∇hj (p) = ∇Φk+j (p). Anderseits sind ∇Φ1 (p), . . . , ∇Φn (p) die Zeilen der Jacobi
Matrix von Φ an der Stelle p. Da Φ ein Diffeomorphismus ist, ist das Differential dΦ|p
umkehrbar und deshalb sind die n Vektoren ∇Φ1 (p), . . . , ∇Φn (p) linear unbhängig.
Die n − k Zeilen der Jacobi Matrix von h an der Stelle p sind also linear unabhängig
und dh|p hat maximalen Rang für alle p. Also, jeder Wert von h ist regulär.
(i) =⇒ (iii). Seien U , V , die Koordinaten (x, y) und die Funktion f wie in der
Kapitel 8. Differenzierbare Mannigfaltigkeiten
173
Definition 8.1.1. Wir definieren Φ(x, y) = (x, y − f (x)). Die Jacobi Matrix von Φ ist

1

 0



 .
 ..




 0


 0
 ∂f
 − 1
 ∂x1
 ∂f2
 − ∂x
1



 .
 ..



 ∂f
 − n−k+1

∂x1
∂fn−k
− ∂x1
0
1
··· 0
··· 0
0
0
..
.
..
.
..
.
0
0
∂f1
− ∂x
2
··· 1
··· 0
1
· · · − ∂x∂fk−1
0
1
∂f1
− ∂x
k
∂f2
− ∂x
2
2
· · · − ∂x∂fk−1
∂f2
− ∂x
k
..
.
..
.
..
.
− ∂fn−k+1
− ∂fn−k+1
· · · − ∂f∂xn−k+1
∂x2
∂xk
k−1
− ∂f∂xn−k
2
n−k
· · · − ∂f
∂xk−1
− ∂f∂xn−k
k

0 0 ··· 0 0

0 0 ··· 0 0 



.. ..
.. .. 
. .
. . 




0 0 ··· 0 0 


0 0 ··· 0 0 

1 0 ··· 0 0 


0 1 ··· 0 0 



.. ..
.. .. 
. .
. . 




0 0 ··· 1 0 

0 0 ··· 0 1
Die Determinante ist also 1 und die Abbildung Φ ist ein lokaler Diffeomorphismus.
Für jede Stelle q ∈ Φ(W ) gibt es dann ein p mit Φ(p) = q und auch eine offene
Umgebung Ω von p so dass Φ(Ω) offen ist. Deshalb ist q ∈ Φ(Ω) ⊂ Φ(W ). Also ist
W 0 = Φ(W ) eine offene Menge. Ausserdem, es ist sehr leicht zu sehen, dass Φ injektiv
ist. Also ist Φ global umkehrbar und ein Diffeomorphismus. Nun, falls p ∈ Σ ∩ W ,
dann p = (x, f (x)) und Φ(p) ∈ {z ∈ Rn : zk+1 = . . . = zn = 0}. Anderseits falls
q ∈ {z : zk+1 = . . . = zn = 0} ∩ W 0 , dann gibt es p ∈ W so dass Φ(p) = q und, wenn
wir q = (x, y) setzen, y − f (x) = 0, d.h. p = (x, f (x)) ∈ Σ. Wir haben also bewiesen
dass Φ(W ∩ Σ) = W 0 ∩ {z ∈ Rn : zk+1 = . . . = zn = 0}.
8.2. Parametrisierungen
Wir erinnern uns, dass eine Teilmenge Σ des Euklidischen Raums Rn die Unterraumtopologie besitzt: die offenen Mengen dieser Topologie sind einfach die Schnitte von
Σ mit offenen Mengen des Euklidischen Raums. Sei Σ eine Untermannigfaltigkeit ist
Kapitel 8. Differenzierbare Mannigfaltigkeiten
174
und (U, Φ) eine Karte. Die Einschränkung von Φ auf U ∩ Σ ist ein Homömorphismus
der zwei topologischen Räume Σ ∩ U und π ∩ Φ(U ), wobei π = {z ∈ Rn : zk+1 =
. . . = zn = 0}.
Lemma 8.2.1.
Sei Σ ⊂ Rn eine k-dimensional C ` -Untermannigfaltigkeit, π ⊂ Rn die Ebene {z ∈
Rn : zk+1 = . . . = zn = 0} und (Φ, U ) eine Karte von Σ. Wir betrachten Σ ∩ U
und π ∩ Φ(U ) mit den Unterraumtopologien. Die Einschränkung von Φ auf Σ ∩ U
ist dann ein Homöomorphismus zwischen Σ ∩ U und π ∩ Φ(U ).
Beweis. Seien X und Y die topologischen Räume Σ ∩ U und π ∩ Φ(U ) mit der
Unterraumtopologie und ϕ die Einschränkung von Φ auf X. ϕ ist umkehrbar: ϕ−1
ist einfach die Einschränkung von Φ−1 auf Y . Um die Stetigkeit von ϕ zu beweisen
müssen wir zeigen, dass, für jede offene Teilmenge Ω ⊂ Y , ϕ−1 (Ω) eine offene Menge
von X ist. Ω ⊂ Y offen bedeutet, dass Ω = W ∩ Y für irgendein offenes W ⊂ Rn . ϕ
nimmt ihre Werte in Φ(U ), welches ebenfalls eine offene Menge ist. Deshalb haben
wir ϕ−1 (Ω) = ϕ−1 ((W ∩ Φ(U )) ∩ π). Aber wegen der Eigenschaften von Φ haben wir
ϕ−1 ((W ∩ Φ(U )) ∩ π) = Φ−1 (W ∩ Φ(U )) ∩ Σ .
Da Φ stetig ist, ist Φ−1 (W ∩ Φ(U )) eine offene Menge von Rn . Deshalb ist ϕ−1 ((W ∩
Φ(U )) ∩ π) eine offene Menge von X.
Ein ähnliches Argument zeigt dass, für jedes offene Ω ⊂ X, ϕ(Ω) = (ϕ−1 )−1 (Ω)
eine offene Menge von X ist.
n
Die Abbildung ψ = Φ|−1
Φ(U )∩π : Φ(U ) ∩ π → R hat auch eine andere bemerkenswerte Eigenschaft: ihres Differential hat überall Maximalen Rang. In der Tat, die
−1
−1
Spalten der Matrixdarstellung des differential dΦ−1 |q sind ∂Φ
(q), . . . , ∂Φ
(q). Sie
∂z1
∂zk
sind aber linear unabhängig, weil dΦ−1 |q umkehrbar ist.
Definition 8.2.2.
Sei Σ ⊂ Rn , 1 ≤ k ≤ n − 1 und V ⊂ Rk , U ⊂ Rn zwei offene Mengen. Eine C 1
Abbildung ψ : V → U ist eine Parametrisierung von U ∩ Σ falls:
(i) ψ(V ) = U ∩ Σ und ψ : V → Σ ∩ U ein Homöomorphismus ist;
Kapitel 8. Differenzierbare Mannigfaltigkeiten
175
(ii) das Differential von ψ überall maximalen Rang hat.
Durch die Existenz der Paramaterisierungen können wir eine dritte Charakterisierung der Untermannigfaltigkeit von Rn geben.
Satz 8.2.3.
Sei Σ ⊂ Rn und 1 ≤ k ≤ n − 1. Σ ist eine k-dimensionale C ` -Untermannigfaltigkeit
genau dann wenn:
(iv) Für jede p ∈ Σ gibt es eine offene Umgebung U von p und eine C ` Parametrisierung ψ von U ∩ Σ.
Beweis. Untermannigfaltigkeit =⇒ (iv). Sei p ∈ Σ Aus dem Satz 8.1.2 wissen
wir dass es eine Karte (U, Φ) existiert so dass U eine Umgebung von p ist. Oben
haben wir aber schon gesehen dass ψ := Φ−1 |π∩Φ(U ) eine Parametrierung von U ∩ Σ
ist.
(iv) =⇒ Untermannigfaltigkeit. Wir beweisen dass (iv) die Eigenschaft vom
Satz 8.1.2(iii) (d.h. die Existenz einer Karte auf einer Umgebung jeder Stelle p ∈ Σ)
impliziert. Seien p ∈ Σ, W eine Umgebung von p und ψ : V → W eine C ` Parametrisierung von Σ ∩ W . Sei x0 ∈ V die einzige Stelle mit ψ(x0 ) = p. Wir betrachten die Spalten der Matrixdarstellung des Differential dψ|x0 , d.h. die Vektoren
∂ψ
∂ψ
(x0 ). Wie schon bemerkt, sie sind linear unabhängig
(x0 ), . . . , wk = ∂z
w1 = ∂z
1
k
weil der Rang von dψ|x0 k ist. Wir vervollständigen {w1 , . . . , wk } zu einer Basis
{w1 , . . . , wn } von Rn und definieren die folgende Abbildung Ψ : V × Rn−k → Rn
Ψ(z, y) = ψ(z) +
n−k
X
yi wk+i .
j=1
Sei q = (x0 , 0) ∈ V × Rn−k ⊂ Rn . Ψ ist eine C ` Abbildung. Die Spalten der Matrixdarstellung des Differentials dΨ|(z0 ,0) sind w1 , . . . , wn und deshalb ist das Diffrential umkehrbar. Aus dem Inverse Funktion Theorem folgt die Existenz einer offenen
Umgebung Z von q und eine offene Umgebung W 0 von p so dass Ψ : Z → W 0 ein
C ` Diffeomorphismus ist. Wir behaupten dass das Paar (U, Ψ−1 ), für eine geeignete
offene Umgebung U von p, eine Karte ist. Wir müssen nur zeigen dass Φ = Ψ−1 die
Kapitel 8. Differenzierbare Mannigfaltigkeiten
176
Menge Σ ∩ U in π ∩ Φ(U ) abbildet. Als U wählen wir eine Kugel Kr (p) ⊂ Z mit
radius r = 1/j, j ∈ N gross genug. Wir behaupten
(a) Falls j gross genug ist, dann Φ(U ∩ Σ) ⊂ π.
(b) Falls j gross genug ist, dann hat kein q 0 ∈ Φ(U ) ∩ π ein Urbild in U \ Σ.
Falls (a) falsch ist, dann gibt es eine Folge js ↑ ∞ und eine Folge von Punkten pjs ∈
Kjs−1 (p)∩Σ so dass Φ(pjs ) 6∈ π. In dem Fall sei xjs = ψ −1 (pjs ) ∈ π. Da pjs → p, xjs →
x0 wegen der Stetigkeit von ψ −1 (zur Erinnerung: ψ ist ein Homöomorphismus). Aber
dann (xjs , 0) ∈ W 0 für s gross genug. Auf der anderen Seite Ψ(xjs , 0) = ψ(xjs ) = pjs
und Ψ(Φ(pjs )) = pjs . Also sind (xjs , 0) und Φ(pjs ) sind zwei verschiedene Punkte auf
welchen die Abbildung Ψ den gleichen Wert annimmt: da Ψ ein Diffeomorphismus
ist, haben wir ein Wiederspruch.
Falls (b) falsch ist, dann gibt es eine Folge pjs ∈ Kjs−1 (p) \ Σ so dass Φ(pjs ) =
xjs ∈ π. Wegen der Stetigkeit von Φ haben wir xjs → x0 . Also, wenn js gross genug
ist, xjs ∈ W 0 ∩ π. Deshalb p0js = Ψ(xjs , 0) = ψ(xjs ) ∈ Σ und p0js → p. Wir schliessen
dass p0js ∈ Z falls js gross genug ist. Aber dann sind p0js und pjs zwei verschiedene
Stellen auf welchen Φ den gleichen Wert annimmt. Das widerspricht der Injektivität
von Φ.
8.3. Kartenwechseln und Atlanten für
Untermmanigfaltigkeiten
Sei Σ eine C ` Untermannigfaltigkeit und (U1 , Φ1 ), (U2 , Φ2 ) zwei Karten mit Ω =
U1 ∩ U2 ∩ Σ 6= ∅. Wenn ψ1 : V1 → U1 und ψ2 : V2 → U2 zwei Parametrisierungen
sind, dann können wir Ω1 = ψ1−1 (U1 ∩ U2 ), Ω2 = ψ2−1 (U1 ∩ U2 ) und die Abbildung
ψ12 = ψ2−1 ◦ ψ1 = Φ2 ◦ ψ1 definieren. ψ12 : Ω1 → Ω2 ist umkehrbar: ihre Umkehrfunktion ist einfach ψ21 = ψ1−1 ◦ ψ2 = Φ1 ◦ ψ2 . Da beide Funktionen C ` sind, sie
sind eigentlich Diffeomorphismen. Solche Abbildungen werden Kartenwechseln für
die Untermannigfaltigkeit Σ gennant.
Ein Atlas einer Untermannigfaltigkeit Σ ist eine Familie {(U` , Φ` )}`∈Λ von Karten
so dass {U` } eine Überdeckung von Σ ist. Ein Atlas könnte unendlich und sogar
Kapitel 8. Differenzierbare Mannigfaltigkeiten
177
überabzählbar sein. Falls Σ eine kompakte Menge ist, dann können wir aus jedem
Atlas ein endliches Atlas wählen. Allgemein brauchen wir unendlich viele Karten
aber nie mehr als abzählbar viele.
Lemma 8.3.1.
Sei {U` }`∈Λ eine Familie offener Mengen U` ⊂ Rn . Es gibt dann eine endliche oder
abzählbare Teilfamilie {U`i }i∈N so dass
[
`∈Λ
U` =
[
U`i .
(8.3)
i∈N
Beweis. Wir betrachten zuerst die Familie von Kugeln Kr (q) mit Mittelpunkten
q ∈ Qn und Radien r ∈ Q+ . Wir nehmen dann die Teilfamilie F von solchen Kugeln die mindenstens in einer Menge U` enthalten ist. Die ursprüngliche Familie ist
abzählbar und die neue ist abzählbar oder endlich. Nehmen wir an dass F abzählbar
ist (das Argument für den endlichen Fall ist praktisch gleich) und nehmen wir eine Enumerierung {K j }j∈N . Für jedes j wählen wir ein `j so dass K j ⊂ U`j . Wir
behaupten dass (8.3) gilt.
Die Inklusion ⊃ ist trivial. Wir wollen nun die andere Inklusion ⊂ zeigen. Sei also
S
p ∈ `∈Λ Uλ : dann gibt es ein ` so dass p ∈ U` und so eine Kugel Kρ (p) ⊂ Uλ . Sei nun
q ∈ Qn so dass |q − p| < ρ2 und r ∈ Q∩]|q − p|, ρ2 [. Wir haben Kr (q) ⊂ Kρ (p) ⊂ U` .
Also Kr (q) ∈ F und deshalb Kr (q) = K j für irgendeine j ∈ N. Wir schliessen
S
p ∈ K i ⊂ U`j , d.h. p ∈ i∈N U`i .
8.4. Abstrakte Mannigfaltigkeiten
Die C ` -Untermannigfaltigkeiten des Euklidischen Raums sind eine Klasse von abstrakten differenzierbaren Mannigfaltigkeiten.
Definition 8.4.1.
Seien k ≥ 1 und ` ≥ 1. Eine abstrakte Mannigfaltigkeit ist ein Topologischer Raum
X zusammen mit einem Atlas A von Karten {(Uλ , ϕλ )}λ∈Λ mit den folgenden Eigenschaften:
(i) {Uλ }λ∈Λ ist eine offene Überdeckung von X.
Kapitel 8. Differenzierbare Mannigfaltigkeiten
178
(ii) ϕλ : Uλ → Rk ist ein Homöomorphismus zwischen Uλ und einer offenen Menge
ϕ(Uλ ) von Rk .
`
(iii) Falls Uλ1 λ2 = Uλ1 ∩ Uλ2 6= ∅ dann ist die Abbildung ϕ21 = ϕ2 ◦ ϕ−1
1 ein C
Diffeomorphismus zwischen ϕ1 (Uλ1 λ2 ) und ϕ2 (Uλ1 λ2 ).
(iv) A ist endlich oder abzählbar.
(v) Für alle p 6= p0 ∈ X gibt es zwei offene Umgebungen U ⊃ p und U 0 ⊃ p0 mit
U ∩ U 0 = ∅.
Wir können die Definition auch im Fall ` = 0 geben: die Bedingung (iii) ist dann
lehr und X wird eine topologische Mannigfaltigkeit gennant. Falls ` ≥ 1, dann heisst
X eine differenzierbare Mannigfaltigkeit.
Allgemein, eine Familie {(Uλ , ϕλ )} die die Eigenschaften (i), (ii) und (iii) besitzt heisst ein Atlas für die Mannigfaltigkeit (ein Atlas ist also nicht unbedingt
abzählbar oder endlich, obwohl unsere Definition die Existenz von mindestens einem abzählbaren Atlas verlangt!). Eine Karte ist allgemein ein Homöomorphismus
zwischen einer offenen Menge U von X und einer offenen Menge von Rk . Wenn (U, ϕ)
und (V, ψ) zwei Karten mit U ∩ V 6= ∅ sind, dann heisst die Abbildung ϕ ◦ ψ −1 wie
in (iii) Kartenwechsel.
Zwei C ` Atlanten A1 und A2 sind dann C ` kompatibel wenn jeder Kartenwechsel
zwischen einer Karte von A1 und einer Karte von A2 ein C ` -Diffeomorphismus ist.
Auf dem gleichen topologischen Raum könnte es mehr als einen C 1 Atlas geben,
aber ein interessantes Ergebnis der Theorie ist das folgende Theorem, das wir nicht
beweisen.
Satz 8.4.2.
Falls (X, A) eine C 1 Mannigfaltigkeit ist, dann gibt es einen C ∞ -Atlas Ā auf X so
dass A und Ā C 1 -kompatibel sind.
Bemerkung 8.4.3.
Wenn Σ ⊂ Rn eine C ` -Untermannigfaltigkeit ist, dann ist sie auch eine C ` abstrakte
Mannigfaltigkeit. In der Tat
Kapitel 8. Differenzierbare Mannigfaltigkeiten
179
• Der topologische Raum X ist Σ mit der Unterraumtopologie (die Eigenschaft
(v) ist dann trivial!).
• Ein Atlas A = {(Uλ , Φλ )}λ∈Λ für die Untermannigfaltigkeit induziert einen
Atlas A0 = {(Uλ ∩ Σ, Φλ |Σ )}λ∈Λ als abstrakte Mannigfaltigkeit.
• Wegen des Lemmas 8.3.1 können wir den obigen Atlas endlich oder abzählbar
wählen.
Mit Hilfe der Atlanten können wir differenzierbare Funktionen auf (und zwischen!)
Untermannigfaltigkeiten definieren.
Definition 8.4.4.
Sei (Σ, A) eine C ` Mannigfaltigkeit und `¯ ≤ `. Seien U ⊂ Σ eine offene Menge und
¯
f : U → Rj eine Abbildung. f ∈ C ` falls, für jede Karte (U, ϕ) ∈ A, die Abbildung
¯
f ◦ ϕ−1 : ϕ(U ) → Rj C ` ist.
˜
¯ Eine Abbildung f : U → Γ ist
Sei nun (Γ, A0 ) eine C ` -Mannigfaltigkeit mit `˜ ≥ `.
¯
¯
C ` falls, für jede Karte (V, ψ), die Abbildung ψ ◦ f : f −1 (V ) ∩ U → ψ(V ) eine C `
Abbildung ist.
¯
Schliesslich, eine Abbildung f : Σ → Γ ist ein C ` Diffeomorphismus, falls f ∈
¯
¯
C ` und sie eine C ` Umkehrfunktion besitzt. In dem Fall sagen wir, dass die zwei
¯
Mannigfaltigkeiten C ` -Diffeomorph sind.
Mit der obigen Sprache können wir das Theorem 8.4.2 so behaupten: jede C 1 Mannigfaltigkeit ist C 1 -Diffeomorph zu einer C ∞ -Mannigfaltigkeit.
Eine zentrale Frage der Theorie ist, ob die abstrakten Mannigfaltigkeiten “mehr”
sind als die Untermannigfaltigkeiten des Rn sind (wenn wir letztere mit den entsprechenden abstrakten Mannigfaltigkeiten wie in der Bemerkung 8.4.3 identifizIeren).
Die Frage können wir auch wie folgt stellen:
(E) Sei (X, A) eine C 1 Mannigfaltigkeit. Gibt es eine C 1 Untermannigfaltigkeit
Γ ⊂ Rn und einen Diffeomorphismus f : Σ → Γ.
Ein Diffeomorphismus zwischen einer abstrakten Mannigfaltigkeit (X, A) und einer
Untermannigfaltigkeit von Rn wird oft eine “euklidische Einbettung” genannt. Die
Kapitel 8. Differenzierbare Mannigfaltigkeiten
180
Frage ist also ob jede abstrakte Mannigfaltigkeit in einem Euklidischen Raum eingebettet werden kann. Die Antwort ist ja und wurde im letzten Jahrhundert von
Hassler Whitney gegeben.
Satz 8.4.5.
Für jede C 1 k-dimensionale Mannigfaltigkeit gibt es eine Einbettung in R2k+1 .
8.5. Der Tangentialraum für Untermannigfaltigkeiten
Sei f : Rk ⊃ Ω → Rn−k eine C 1 Funktion und q ∈ Ω. Die Taylorentwicklung erster
Ordnung an der Stelle q ist die Abbildung:
A(x) = f (q) + df |q (x − q) .
Diese Abbildung ist eine gute Approximation der Funktion f an der Stelle q. Der
Graph der Abbildung A ist eine k-dimensionale affine Ebene in Rn . Im Fall k =
n − k = 1 ist dieser Graph die tangente Gerade am Graphen von f an der Stelle
(q, f (q)).
Diese affine Ebene ist einfach eine Verschiebung des Unterraums
V = {(y, df |q (y)) : y ∈ Rk } .
Dieser Raum heisst Tangentialraum zum Graphen Γ von f an der Stelle p = (q, f (q)).
NB: Der Graph von A, nämlich die affine Ebene V +(q, f (q)) = {v+(q, f (q)) : v ∈ V }
ist die “geometrische” tangente Ebene und der Tangentialraum ist sozusagen der
“lineare Teil” dieser Ebene.
Die obige Überlegung motiviert die folgende Definition.
Definition 8.5.1.
Sei Σ ⊂ Rn eine k-dimensionale C 1 -Untermannigfaltigkeit und p ∈ Σ. Seien:
• (x, y) ∈ Rk × Rn−k eine Umordnung der Standardkoordinaten,
• x0 , y0 so dass p = (x0 , y0 ),
• U ⊂ Rk und V ⊂ Rn−k zwei Umgebungen von x0 und y0
Kapitel 8. Differenzierbare Mannigfaltigkeiten
181
• und f : U → V eine C 1 Abbildung so dass Σ ∩ (U × V ) = {(x, f (x)) : x ∈ Rk }.
Der Tangentialraum von Σ an der Stelle p ist der Unterraum
Tp Σ = {(x, df |x0 (x)) : x ∈ Rk } .
(8.4)
Wir müssen aber zeigen dass der Tangentialraum wohldefiniert ist: für die meisten
Stellen p einer Untermannigfaltigkeit gibt es mehr als eine Umordnung der Variablen in welcher eine Umbegung in Σ von p durch den Graphen einer C 1 Funktion
beschrieben werden kann. Die Eindeutigkeit des Tangentialsraums ist in der Tat eine
Konsequenz des folgenden Satzes:
Satz 8.5.2.
Sei Σ ⊂ Rn und p ∈ Σ.
(i) Falls ϕ : Rk ⊃ Z → Σ eine Parametrisierung einer Umgebung von p mit
ϕ(z0 ) = p ist, dann
Tp Σ = {dϕ|z0 (v) : v ∈ Rk } .
(8.5)
(ii) Sei C der Raum der C 1 Kurven γ : I → Σ ⊂ Rn so dass
(a) I ein beliebiges offenes Intervall mit 0 ∈ I ist;
(b) γ(0) = p.
Dann
Tp Σ = {γ̇(0) : γ ∈ C } .
(8.6)
Beweis. (ii). Wir beweisen zuerst (8.6). Wir fixieren deswegen x0 , y0 , U , V und f
wie in der Definition 8.5.1 und wir setzen
Z = {γ̇(0) : γ ∈ C } .
Wir wollen Z ⊂ Tp Σ und Tp Σ ⊂ Z zeigen. Sei nun v ∈ Rk . Da U offen ist, bildet
die Abbildung t 7→ x0 + tv irgendein offenes Intervall I 3 0 in U ab. Deshalb ist die
Kurve
t 7→ γ(t) = (x0 + tv, f (x0 + tv))
Kapitel 8. Differenzierbare Mannigfaltigkeiten
182
ein Element von C . Wir schliessen γ̇(0) ∈ Z. Aber die Kettenregel impliziert
γ̇(0) = (v, df |x0 (v)) .
Das beweist dass (v, df |x0 (v)) ∈ Z für jedes v ∈ Rk , d.h. Tp Σ ⊂ Z.
Sei nun γ ∈ C . Es gibt ein offenes Intervall J 3 0 so dass γ(J) ⊂ U × V . Sei
η(t) = (γ1 (t), . . . , γk (t)). Für t ∈ J haben wir η(t) ∈ U und γ(t) ∈ (U × V ) ∩ Σ.
Deshalb muss γ(t) = (η(t), f (η(t))) sein. Wir leiten also diese Identität ab und
erhalten
γ̇(0) = (η̇(0), df |x0 (η̇(0))) .
Da v := η̇(0) ∈ Rk , schliessen wir, dass γ̇(0) ∈ Tp Σ. Dieses Argument beweist also
dass Tp Σ ⊂ Z.
(i). Wir setzen
W = {dϕ|z0 (v) : v ∈ Rk }
und nutzen die Charakterisierung in (ii) um die zwei Inklusionen W ⊂ Tp Σ und
Tp Σ ⊂ W zu zeigen.
Zuerst sei v ∈ Rk und betrachte die Kurve γ(t) = ϕ(z0 + tv). Die Kurve ist
wohldefiniert und C 1 auf einem offenen Intervall I ⊃ 0 und γ(0) = ϕ(z0 ) = p:
deshalb γ ∈ C und γ̇(0) ∈ Tp Σ. Andeseits
γ̇(0) = dϕ|z0 (v)
und so dϕ|z0 (v) ∈ Tp Σ. Das beweist W ⊂ Tp Σ.
Sei nun γ ∈ C . Im Satz 8.2.3 haben wir bewiesen dass es eine offene Umgebung
Ω von p und ein Diffeomorphismus Φ : Ω → Ω0 gibt so dass ϕ(Φ1 (p), . . . , Φk (p)) = p
für jedes p ∈ Ω und (Φ1 (ϕ(z)), . . . , Φk (ϕ(z)) = z für jeden (z, 0) ∈ Ω0 . Für t klein
genug haben wir γ(t) ∈ Ω und deshalb ist die Kurve η(t) = (Φ1 (γ(t)), . . . , Φk (γ(t)))
wohldefiniert. Ausserdem ϕ(η(t)) = γ(t) und η(0) = z0 . Die Kettenregel gibt also
γ̇(0) = dϕ|z0 (η̇(0))
und da v = η̇(0) ∈ Rk , wir haben γ̇(0) ∈ W bewiesen. Das zeigt Tp Σ ⊂ W .
Kapitel 8. Differenzierbare Mannigfaltigkeiten
183
8.6. Derivationen: der Tangentialraum für abstrakte
differenzierbare Mannigfaltigkeiten
Sei Σ eine abstrakte C 1 Mannigfaltigkeit und f : Σ → R eine C 1 Funktion. Sei nun
γ : I → Σ eine C 1 Kurve, wobei 0 ∈ I und I ein offenes Intervall ist. Wir behaupten
dass f ◦γ : I → R eine C 1 Abbildung ist. In der Tat, seien t ∈ I irgendeine Stelle und
(U, ϕ) eine Karte die p = γ(t) enthält. Da U offen ist und γ eine stetige Funktion
ist, gibt es ein offenes Intervall J 3 p so dass γ(J) ⊂ U . Nun, f ◦ ϕ−1 und ϕ ◦ γ|J
sind zwei C 1 Funktionen. Somit ist auch die Funktion f ◦ γ|J = (f ◦ ϕ−1 ) ◦ (ϕ ◦ γ|J )
C 1.
Wir können deswegen die “Ableitung entlang der Kurve γ” an der Stelle q = γ(0)
definieren:
D(f ) = (f ◦ γ)0 (0) .
(8.7)
Wir definieren nun den folgenden Raum:
Definition 8.6.1.
Sei Σ eine differenzierbare Mannigfaltigkeit und sei p ∈ Σ. Die Menge J (p) ist
die Menge der C ∞ reellwertigen Abbildungen die auf irgendeiner Umgebung von p
definiert sind und wir identifizieren zwei Funktionen, falls sie auf einer Umgebung
von p gleich sind.
Der Raum J ist “linear” im folgenden Sinne: wenn f : U → R und g : V → R
zwei Elementen von J (p) sind und λ, µ ∈ R, dann ist die lineare Kombination
λf +µg wohldefiniert auf der Umgebung U ∩V und also auch ein Element von J (p).
Wir können dann die Abbildung f 7→ D(f ) in (8.7) als ein Operator betrachten,
d.h. als eine lineare Abbildung D : J (p) → R: der Operator ist wohldefiniert, weil
D(f ) = D(g) falls f = g auf einer Umgebung von p. Der Operator D hat aber
mindenstens eine zusätzliche bemerkenswerte Eigenschaft, nähmlich erfüllt er die
Leibnitz Regel:
(L) D(f g) = f (p)D(g) + g(p)D(f ) für alle f, g ∈ J (p).
Definition 8.6.2.
Seien Σ eine C ∞ Mannigfaltigkeit und p ∈ Σ. Ein linearer Operator D : J (p) → R,
welcher die Leibnitz Regel (L) erfüllt wird eine Derivation genannt.
Kapitel 8. Differenzierbare Mannigfaltigkeiten
184
Die Leibnitz Regel charakterisiert die “Ableitungen entlang einer Kurve”, d.h.
Satz 8.6.3.
Für jede Derivation D : J (p) → R gibt es eine C 1 Kurve γ : I → Σ so dass I 3 0
offen ist, γ(0) = p und (8.7) gilt.
Wir werden den Satz später beweisen. Zuerst bemerken wir das folgende. Wenn
Σ eine Untermannigfaltigkeit ist und p ∈ Σ, können wir eine Karte (U, ϕ) mit p ∈ U
nutzen um jede Funktion f ∈ J (p) auf einer offenen Umgebung W ⊂ Rn von p
fortzusetzen. Wenn wir diese neue Funktion immernoch f nennen und γ eine Kurve
in Σ mit γ(0) = p ist, dann
(f ◦ γ)0 (0) = hγ̇(0), ∇f (p)i .
Deswegen, falls γ̄ eine andere Kurve in Σ mit γ(0) = p ist, dann gilt
(f ◦ γ)0 (0) = (f ◦ γ̄)0 (0)
∀f ,
˙
genau dann wenn γ̇(0) = γ̄(0),
d.h. genau dann wenn die zwei Ableitungen γ̇(0) und
˙
γ̄(0)
den gleichen Tangentialvektor an der Stelle p identifizieren. Das motiviert die
folgende Definition
Definition 8.6.4.
Sei Σ eine abstrakte C ∞ Mannigfaltigkeit und p ∈ Σ. Der Tangentialraum Tp Σ ist
der Raum der Derivationen D : J (p) → R.
8.7. Lokale Koordinaten und der Tangentialraum
Sei nun (U, ϕ) eine Karte die p enthält. Ein Punkt p ∈ U können wir mit einem
Punkt x = ϕ(p) ∈ Rk identifizieren. Die Komponenten x1 , . . . , xk des Vektors x,
d.h. die Koordinaten des Punktes x in Rk , werden lokale Koordinaten in der Karte
U gennant.
Wenn f eine Funktion auf einer Umgebung von p ist, dann können wir f als eine
Funktion auf einem Teil von ϕ(U ) beschreiben: f¯(x) = f ◦ ϕ−1 (x). Seien nun x0 so
dass ϕ(p) = x0 und v = (v 1 , . . . , v k ) ∈ Rk ein Vektor. Es ist leicht zu sehen dass die
Kapitel 8. Differenzierbare Mannigfaltigkeiten
185
Richtungsableitung
f 7→
k
X
vi
i=1
∂ f¯
(x0 )
∂xi
eine Derivation definiert. Eigentlich ist sie die Ableitung entlang der Kurve γ(t) =
ϕ−1 (x0 + tv).
Diese Derivation werden wir mit dem Symbol
k
X
vi
i=1
∂
∂xi
bezeichnen und im Satz unten werden wir zeigen, dass eigentlich jede Derivation
eine solche Darstellung hat.
Wenn (V, ψ) eine andere Karte ist und y 1 , . . . , y k die entsprechende lokale Koordinaten sind, dann können wir jede Derivation auch als
k
X
wj
j=1
∂
∂y j
schreiben. Welche beziehung gibt es zwischen den zwei Darstellungen? Der folgende
Satz gibt eine genaue Antwort.
Satz 8.7.1.
Seien:
• Σ eine k-dimensionale C ∞ Mannigfaltigkeit,
• p ∈ Σ,
• (U, ϕ) eine Karte mit p ∈ U und ϕ(p) = x0 und lokale Koordinaten x1 , . . . , xk .
Für jede Derivation D ∈ Tp Σ gibt es dann einen einzigen Vektor v ∈ Rk so dass
D=
k
X
i=1
vi
∂
.
∂xi
Insbesondere ist Tp Σ ein k-dimensionaler Vektorraum.
Kapitel 8. Differenzierbare Mannigfaltigkeiten
186
Sei nun (V, ψ) eine andere Karte mit p ∈ U und ψ(p) = y0 . Sei x 7→ y(x) =
(y (x), . . . , y k (x)) der Variabenwechsel zwischen den zwei Karten. Dann
1
D=
k
X
`=1
wobei
`
w =
k
X
vi
i=1
w`
∂
∂y `
∂y `
(x0 ) .
∂xi
Beweis. Wir setzen f¯ = f ◦ ϕ−1 ein und definieren die Menge J (x0 ) der C ∞
Funktionen f¯ : U → R wobei U eine Umgebung von x0 ist (schliesslich ist auch
ϕ(U ) eine C ∞ Mannigfaltigkeit!). Wir bemerken dass jede Derivation auf J (p)
eine Derivation auf J (x0 ) induziert und vice versa. Die erste Aussage des Satzes
bedeutet dann dass jede Derivation D : J (x0 ) → R eine lineare Kombination
der partiellen Ableitungen ∂x∂ i ist. Durch eine Verschiebung der Stelle x0 in dem
Ursprung können wir OBdA x0 = 0 annehmen. Wir fixieren dann eine Derivation
D : J (0) → R. Wir setzen v i = D(xi ), wobei xi die Koordinatfunktion x 7→ xi ist.
P
Wir behaupten dass D = ki=1 v i ∂x∂ i . Sei f ∈ J (0). Lemma 8.7.2 unten zeigt die
Existenz von k Funktionen g1 , . . . , gk ∈ J (0) so dass
f (x) = f (0) +
k
X
gi (x)xi
∀x in einer Umgebung von 0
i=1
und
∂f
(0) .
∂xi
Jede Derivation D verschwindet auf der konstanten Funktionen, weil die Leibnitz
Regel
D(1) = D(1 · 1) = 1 · D(1) + D(1) · 1 = 2D(1)
gi (0) =
impliziert. Wir nutzen dann die Linearität und die Leibnitz Regel um zu schliessen
dass
k
k
X
X
∂f
gi (0)D(xi ) =
v i i (0) .
D(f ) = D(f (0)) +
∂x
i=1
i=1
Kapitel 8. Differenzierbare Mannigfaltigkeiten
187
P i ∂
Schliesslich, sei v ∈ Rn so dass D =
v ∂xi = 0. Die Identität oben bedeutet auch
i
dass v = D(xi ) = 0 für jede i. Wir haben also bewiesen dass ∂x∂ 1 , . . . , ∂x∂ k eine Basis
von Tp Σ ist: Tp Σ hat deshalb Dimension k.
Seien nun (V, ψ) eine andere Karte, y 1 , . . . , y k die entsprechenden Koordinaten
und x 7→ y(x) der Variablenwechsel. Wir fixieren eine Derivation D ∈ Tp Σ und eine
Vektoren v so dass
k
X
∂
D=
vi i .
∂x
i=1
Sei f ∈ J (p). Wir f¯(x) = f ◦ ϕ−1 (x) und f˜(y) = f ◦ ψ −1 (y). Dann f¯(x) = f˜(y(x)).
Deshalb
k
X
k
k
k
X
X
X
˜
∂ f¯
∂y `
∂ f˜
i ∂(f ◦ y)
i
D(f ) =
v
(x
)
=
v
(x
)
=
v
(y(x
))
(x0 )
0
0
0
∂xi
∂xi
∂y `
∂xi
i=1
i=1
i=1
`=1
!
k
k
`
X
X
∂ f˜
∂y
(y ) .
=
v i i (x0 )
` 0
∂x
∂y
i=1
`=1
i
Wenn wir
`
z =
k
X
vi
i=1
∂y `
(x0 ) ,
∂xi
die obige Identität zeigt
D=
k
X
`=1
z`
∂
.
∂y `
Lemma 8.7.2.
Seien Kr (0) ⊂ Rk und f : Kr (0) → R eine C ∞ Funktion. Dann es gibt k C ∞
∂f
Funktionen g1 . . . , gk : K1 (0) → R mit gi (0) = ∂x
i (0) und
f (x) = f (0) +
k
X
i=1
gi (x)xi
∀x ∈ K1 (0) .
Kapitel 8. Differenzierbare Mannigfaltigkeiten
188
Beweis. Wir nutzen den Fundamentalsatz der Integralrechnung und schreiben
Z
f (x) = f (0) +
0
1
k
X
d
(f (tx)) dt = f (0) +
xi
dt
i=1
Also setzen wir
Z
gi (x) =
0
1
Z
0
1
∂f
(tx) dt .
∂xi
(8.8)
∂f
(tx) dt
∂xi
und es ist leicht zu sehen, dass diese Funktionen die nötigen Eigenschaften haben.
Wir könnten nun den Satz 8.4.2 nutzen um einen C ∞ Atlas A0 auf einer C 1
Mannigfaltigkeit zu finden und einen entsprechende Definition des Tangentialraums
zu geben: aus dem Satz 8.7.1 folgt dass der Raum wohldefiniert ist. In der Tat wir
könnten auch die folgende direkte Definition geben.
Definition 8.7.3.
Seien Σ eine C 1 abstrakte Mannigfaltigkeit und p ∈ Σ. Wir definieren der Raum
J 1 (p) der C 1 reelwertigen Abbildungen die auf einer Umgebung von p definiert
sind und wir identifizieren zwei solche Abbildungen wenn Sie auf einer Umgebung
von p gleich sind. Die Derivationen auf J 1 (p) sind die lineare Operatoren die die
Leibnitzregel erfüllen.
Sei nun ϕ : U → Rk eine Karte die p enthält, mit Koordinaten x1 , . . . , xk . Der
Tangentialraum Tp Σ ist der Unterraum der Derivationen der von den k Derivationen
∂
erzeugt wird.
∂xi
A. Das Cantor-Diagonalargument
Lemma A.0.1.
Sei {fk } mit fk : I → R eine Folge von Funktionen und {qi }i∈N eine abzählbare
Menge, so dass die Folge
{fk (qi )}k∈N
∀i ∈ N
(A.1)
beschränkt ist. Dann gibt es eine Teilfolge {fkj }, so dass die Folge
{fkj (qi )}j∈N
∀i ∈ N
(A.2)
konvergiert.
Beweis. Sei {kj1 }j eine Teilfolge von {k}, so dass
lim fkj1 (q1 )
j↑∞
existiert.
Wegen (A.1) folgt die Existenz von {kj1 } aus dem Theorem von Bolzano. Wir geben
nun eine rekursive Definition der Folge {fji }j mit i ∈ N. Für i ≥ 2 wählen wir eine
Folge {kji }j , so dass
{kji } eine Teilfolge von {kji−1 } ist und lim fkji (qi ) existiert.
j↑∞
Wir bemerken, die folgende Eigenschaft: Wenn l > i ist, dann ist kll ein Element von
{kji }j . Also existiert
lim fkll (qi )
l↑∞
für jedes i. Deshalb ist {fkll } die gesuchte Teilfolge von {fk }k .
189
B. Lineare unabhängigkeit der
Exponentialen
In diesem Kapitel zeigen wir einen Teil des Satzes 6.4.10.
Lemma B.0.1.
Seien λ1 , . . . , λr ∈ C (mit λj 6= λk für j 6= k) und k1 , . . . , kr ∈ N \ {0}. Dann sind
die folgende Funktionen C-linear unabhängig:
• eλ1 t , teλ1 t , . . . , tk1 −1 eλ1 t ,
• eλ2 t , teλ2 t , . . . , tk2 −1 eλ2 t ,
.
• ..
• eλr t , teλr t , . . . , tkr −1 eλr t .
Zuerst bemerken wir das folgende Korollar
Korollar B.0.2.
Seien µ1 , . . . , µ` ∈ R, z1 = α1 +iβ1 , . . . , zs = αs +iβs ∈ C\R und k1 , . . . , k` m1 , . . . , ms ∈
N \ {0}. Dann sind die folgenden Funktionen R-linear unabhängig:
• eµ1 t , teµ1 t , . . . , tk1 −1 eµ1 t ,
.
• ..
• eµ` t , teµ` t , . . . , tkr −1 eµ` t ,
• eα1 t sin(β1 t), eα1 t cos(β1 t), . . . , tm1 −1 eα1 t sin(β1 t), tm1 −1 eα1 t cos(β1 t),
.
• ..
190
Anhang B. Lineare unabhängigkeit der Exponentialen
191
• eαs t sin(βs t), eαs t cos(βs t), . . . , tms −1 eαs t sin(βs t), tms −1 eαs t cos(βs t).
Beweis. Sei A die Menge der obigen Funktionen. Wir werden zeigen dass A C-linear
unabhängig ist, d.h. eine stärkere Aussage. Wir setzen r = ` + 2s und
• λj = µj , nj = kj für j = 1, . . . , `;
• λj = zj−` , nj = mj−` für j = ` + 1, . . . , ` + s;
• λj = zj−`−s , nj = mj−`−s für j = ` + s + 1, . . . , ` + 2s = r.
Wir nehmen dann die Menge B der Funktionen vom Lemma B.0.1. Die Kardinalität
von A und B ist gleich, d.h. r. Sei nun V der von B erzeugte (komplexe) Vektorraum.
Da
eiβt − e−iβt
eiβt + e−iβt
cos βt =
und
sin βt =
,
2
2i
ist jedes Element von V ist eine lineare Kombination von Elementen von A. Anderseits ist B eine Basis von V und die (komplexe) Dimension von V ist dann r. Da A
r Elemente enthält, müssen diese linear unabhängig sein.
Das Lemma B.0.1 ist besonders einfach wenn ki = 1 für alle i. In dem Fall sei
n = k1 + . . . + kr . Wir schreiben A = {f1 , . . . , fn }. Die lineare Unabhängigkeit
bedeutet:
µ1 f1 + . . . µn fn = 0 =⇒ µ1 = . . . = µn = 0 .
Seien also µ1 , . . . , µn ∈ C so dass µ1 f1 + . . . + µn fn = 0. Dann haben wir
(k)
µ1 f1 + . . . + µn fn(k) = 0
für alle k .
Zu jeder Funktion fj werden wir einen Vektor wj ∈ Rn zuordenen:
(n−1)
wj = (fj (0), fj0 (0), . . . , fj
(0)) .
Deshalb haben wir
µ1 w 1 + . . . + µn w n = 0 .
(B.1)
Anhang B. Lineare unabhängigkeit der Exponentialen
192
Wir betrachten nun die Matrix B deren j-te Spalte der Vektor wj ist. Falls µ =
(µ1 , . . . , µn ) ∈ Rn , dann (B.1) wird
B · µ = 0.
(B.2)
Wir behaupten, dass die Matrix B invertierbar ist: diese Behauptung impliziert
sofort dass µ = 0 und dann sind wir fertig. In der Tat ist B eine Vandermonde
Matrix:


1
1
...
1



 λ1
λ
.
.
.
λ
2
n


 λ2
λ22
...
λ2n 
 1




B=
(B.3)


 ..

..
..
 .

.
.






n−1
n−1
n−1
λ1
λ2
...
λn
Es ist nicht schwer die Determinante der Matrix B zu berechnen:
det B =
Y
(λj − λk ) .
1≤k<j≤n
Da λi alle verschieden sind, ist det B 6= 0.
Um den allgemeinen Fall zu begründen, werden wir die folgende einfache Bemerkung nutzen:
Lemma B.0.3.
Seien µ, λ ∈ C und sei P (t) ein Polynom mit Grad k. Dann ist (D − λ)(P (t)eµt ) =
Q(t)eµt wobei:
• Q ist ein Polynom mit Grad k wenn λ 6= µ;
• Q ist ein Polynom mit Grad k − 1 wenn λ = µ und k ≥ 1;
• Q = 0 wenn λ = µ und P eine Konstante ist.
Beweis. Trivial.
Anhang B. Lineare unabhängigkeit der Exponentialen
193
Beweis des Lemmas B.0.1. Zuerst bemerken wir, dass falls die Funktionen linear
abhängig sind, dann gibt es Polynome P1 , . . . , Pr , so dass P1 (t)eλ1 t + . . . + Pr (t)eλr t
identisch null ist, aber mindenstens ein Pj nicht trivial ist. OBdA nehmen wir an
dass P1 nicht trivial ist. Sei Q(D) der Operator
Q(D) = (D − λ2 )k2 (D − λ3 )k3 · · · (D − λr )kr .
Aus dem Lemma B.0.3 folgt dass:
• Q(D)(Pj (t)eλj t ) = 0 für jedes j 6= i;
• Q(D)(P1 (t)eλ1 t ) = P̄1 (t)eλ1 t , wobei P̄1 den gleichen Grad hat wie P1 und deshalb nichttrivial ist.
P
Anderseits muss die Funktion P̄1 (t)eλ1 t = Q(D)( rk=1 Pk (t)eλk t ) identisch null sein.
Da eλ1 t 6= 0 für alle t, muss P̄1 überall null sein: das ist aber ein Widerspruch.
Index
C k -Funktion, 52
Derivation, 183
Diffeomorphismus, 98, 160
Differential
einer Funktion, 32
Umkehrfunktion, 98
Differential der Umkehrfunktion, 98
Differentialgleichung
gewöhnliche, 123
gewöhnliche 1. Ordnung mit getrennten Variablen, 129
lineare gewöhnliche, 125
lineare gewöhnliche mit konstanten Koeffizienten, 133
lineare homogene, 125
von Bernoulli, 132
Differentiationsregeln, 82
Differentiationssatz, 69
differenzierbare Mannigfaltigkeit, 178
Differenzierbarkeit, 79
einer Funktion, 31
Hauptkriterium der, 38
Abbildung
differenzierbare, 79
abgeschlossene Hülle, 13
abgeschlossene Kugel, 12
abgeschlossene Menge, 10, 151
Ableitung
k-te, 47
der Ordnung k, 47
partielle, 35
Richtungs-, 35
Ableitungsoperator, 139
abstrakte Mannigfaltigkeit, 177
analytische Funktion, 54
Anfangswertproblem, 128
Atlas, 176, 178
Banachscher Fixpunktsatz, 102, 153
Bernoullische Differentialgleichung, 132
Bolzano-Weierstrass Eigenschaft, 21
Cauchy-Folge, 9, 151
Cauchy-Schwarz-Ungleichung, 2
charakteristisches Polynom
einer Differentialgleichung, 137
Einbettung, 180
Eindeutigkeitssatz, 156
Euklidische Metrik, 4
194
Index
Euklidische Norm, 3
Existenzsatz für Systeme von gewöhnlichen
Differentialgleichungen, 150
Exponential einer Matrix, 144
Faktorisierung
reelle eines Polynoms, 137
Fehlerabschätzung von Lagrange, 52
Fixpunkt, 102
Fixpunktsatz
Banachscher, 153
Banachscher, 102
Fluss, 159
Fundamentalsatz
der Algebra, 137
Funktion
C k -, 52
analytische, 54
konkave, 62
konvexe, 62
strikt konkave, 62
strikt konvexe, 62
Funktionenfolge
gleichgradig stetige, 161
gleichmässig beschränkte, 161
gewöhnliche Differentialgleichung, 123
gewöhnlichen Differentialgleichungen, Systeme von, 141
gleichgradig stetige Funktionenfolge, 161
gleichmässig beschränkte Funktionenfolge, 161
gleichmässige Konvergenz, 71
195
globale Ls̈oung eines Systems von gewöhnlichen
Differentialgleichungen, 151
Gradient, 37
Gronwallsches Lemma
1. Version, 135
2. Version, 136
Häufungspunkt, 13
Hölder-Stetigkeit, 18
Haupkriterium der Differenzierbarkeit,
38
Heine-Borel Eigenschaft, 23
Hesse-Matrix, 55
Hilbert-Schmidt-Norm, 28
Homöomorphismus, 160
homogene lineare Differentialgleichung,
125
indefinit, 58
Integral
parameterabhängiges, 69
Inverse einer Matrix, 97
Jacobi-Matrix, 37, 82
Kartenwechsel, 176, 178
Kettenregel, 41, 85, 90
Kofaktor, 97
Kompaktheit, 22
Kompaktheit, Überdeckungskompaktheit,
22
Kompaktheit, Folgenkompaktheit, 22
konkave Funktion, 62
Kontraktion, 102, 153
Index
Konvergenz
einer Folge, 8
gleichmässige, 71
konvexe Funktion, 62
konvexe Menge, 62
Konvexitätskriterium für zwei Mal differenzierbare Funktionen, 67
Kriterium für Extrema, 59
kritischer Punkt, 57
Kugel
abgeschlossene, 12
offene, 6
Kurve, 40
Länge einer Kurve, 91
Lagrangsche
Multiplikatorenregel, 119
Lagrangsche Fehlerabschätzung, 52
Leibniz Regel, 84
Lemma
von Gronwall (1. Version), 135
von Gronwall (2. Version), 136
von Schwarz, 47
Lemma von Gronwall, 155
lineare Abbildung, 28
lineare gewöhnliche Differentialgleichung,
125
lineare gewöhnliche Differentialgleichung
mit konstanten Koeffizienten,
133
lineares System mit konstanten Koeffizienten, 142
Lipschitz-Konstante, 156
196
Lipschitz-Stetigkeit, 18
lokale Lösung eines Systems von gewöhnlichen
Differentialgleichungen, 150
lokale Umkehrbarkeit
Satz über, 101
lokales Maximum, 57
lokales Minimum, 57
Mannigfaltigkeit, 177
Matrix
Hessesche, 55
indefinite, 58
Jabobi-, 37, 82
negativ definite, 58
positiv definite, 58
Maximum
lokales, 57
mit Nebenbedingungen, 119
Menge
abgeschlossene, 151
abgeschlossene, 10
konvexe, 62
offene, 6
sternförmige, 45
Metrik, 5, 151
Euklidische, 4
metrischer Raum, 5, 151
Minimum
mit Nebenbedingungen, 119
lokales, 57
Mittelwertsatz, 45
Multiplikationsregel
von Lagrange, 119
Index
Multiplikatoren
von Lagrange, 119
Nebenbedingung, 119
negativ definit, 58
Norm, 4
Euklidische, 3
Hilbert-Schmidtsche, 28
Operator-, 29
normierter Vektorraum, 4
offene Kugel, 6
offene Menge, 6
offener Kern, 13
Operator, 139
Operatornorm, 29
Parametrisierung, 174
partielle Ableitung, 35
Polynom
charakteristisches einer Differentialgleichung, 137
positiv definit, 58
Punkt
kritischer, 57
stationärer, 57
Rand
topologischer, 12
Randpunkt, 12
Raum
metrischer, 151
metrischer, 5
topologischer, 7
197
reelle Faktorisierung
eines Polynoms, 137
regulärer Wert, 118
Richtungsableitung, 35
Sattelpunkt, 59
Satz
von Arzelá-Ascoli, 161
von Picard-Lindelöf, 150
Satz über die lokale Umkehrbarkeit, 101
Schrankensatz, 45, 91
Skalarprodukt, 2
stationärer Punkt, 57
sternförmige Menge, 45
Stetigkeit, 14
Hölder-, 18
Lipschitz-, 18
Stetigkeit der Komposition, 19
strikt konkave Funktion, 62
strikt konvexe Funktion, 62
Systeme von gewöhnlichen Differentialgleichungen, 141
Taylorapproximation, 52
Taylorpolynom, 52
topologische Mannigfaltigkeit, 178
topologischer Rand, 12
topologischer Raum, 7
Umgebung, 6
Ungleichung
von Cauchy-Schwartz, 2
Untermannigfaltigkeit, 117, 170
Vandermonde-Matrix, 192
Index
Vektorfeld, 149
Vektorraum
normierter, 4
Vielfachheit einer Nullstelle, 137
vollständiger metrischer Raum, 152
Wert
regulärer, 118
198
Herunterladen