Analysis II für Physikstudiengänge

Werbung
Analysis II für Physikstudiengänge
Ein Kompendium zur Vorlesung von L. Recke
Inhaltsverzeichnis
1 Konvergenz und Stetigkeit in metrischen Räumen
2
1.1
Metriken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.2
Normen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.3
Vergleich von Metriken und Normen . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.4
Konvergenz von Folgen in metrischen Räumen
. . . . . . . . . . . . . . . . . . .
5
1.5
Vollständigkeit. Der Banachsche Fixpunktsatz . . . . . . . . . . . . . . . . . . . .
5
1.6
Konvergenz von Folgen und Reihen in Kn . . . . . . . . . . . . . . . . . . . . . .
6
1.7
Teilfolgen, Häufungspunkte und der Satz von Bolzano-Weierstraß in Kn . . . . .
8
1.8
Offene Mengen, abgeschlossene Mengen und Rand . . . . . . . . . . . . . . . . .
8
1.9
Konvergenz von Abbildungen zwischen metrischen Räumen . . . . . . . . . . . .
10
1.10 Iterierte Grenzwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
1.11 Stetige Abbildungen zwischen metrischen Räumen . . . . . . . . . . . . . . . . .
12
1.12 Grenzwerte und Stetigkeit von Abbildungen Kn → Km . . . . . . . . . . . . . .
12
2 Differenzierbare Abbildungen von Rn in Rm
13
2.1
Differenzierbarkeit und Ableitung
. . . . . . . . . . . . . . . . . . . . . . . . . .
14
2.2
Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
2.3
Interpretationen der Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
2.4
Die zentralen Sätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
2.5
Untermannigfaltigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
2.6
Höhere Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
2.7
Taylor-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
2.8
Lokale Extrema mit und ohne Nebenbedingungen . . . . . . . . . . . . . . . . . .
28
3 Mehrdimensionale Integralrechnung
3.1
29
Integrierbarkeit und Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
29
3.2
Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
3.3
Mehrfachintegrale und der Satz von Fubini . . . . . . . . . . . . . . . . . . . . .
32
3.4
Transformationsformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
3.5
Kurvenintegrale. Gradientenfelder und ihre Potentiale . . . . . . . . . . . . . . .
33
3.6
Flächenintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
3.7
Satz von Stokes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
3.8
Satz von Gauß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
1
1.1
Konvergenz und Stetigkeit in metrischen Räumen
Metriken
Es seien X eine Menge und ρ : X × X → [0, ∞) eine Abbildung, so dass für all x, y, z ∈ X gilt
Definitheit: ρ(x, y) = 0 ⇔ x = y,
Symmetrie: ρ(x, y) = ρ(y, x),
Dreiecksungleichung: ρ(x, y) + ρ(y, z) ≥ ρ(x, z).
Dann heißt ρ Metrik auf X, und das Paar (X, ρ) heißt metrischer Raum.
Beispiele: (i) Standard-Metrik in R: X := R, ρst (x, y) := |x − y|
(ii) X ⊆ C, ρ(x, y) := |x − y|
(iii) X := {(x1 , x2 , x3 ) ∈ R3 : x21 + x22 + x23 = 1}, ρ((x1 , x2 , x3 ), (y1 , y2 , y3 )) := Länge der
kürzesten Kurve in X (der sogenannten geodätischen Kurve) von (x1 , x2 , x3 ) nach (y1 , y2 , y3 )
(iv) Kompaktifizierung von R: X := R ∪ {−∞, ∞},
 x
y 
−
für x, y ∈ R

1+|x|
1+|y|



 x

für x ∈ R, y = ∞
1+|x| − 1





x

für x ∈ R, y = −∞
+ 1
 1+|x|
(1.1)
ρ(x, y) :=
y
für x = ∞, y ∈ R
1 − 1+|y| 




y 
für x = ∞, y ∈ R
+
1

1+|y| 



0
für x = y = ∞ oder x = y = −∞



2
für x = ∞, y = −∞ order x = −∞, y = ∞
Weitere Ungleichungen: Es sei (X, ρ) ein metrischer Raum, dann gilt für alle a, b, c, d ∈ X
Dreiecksungleichung nach unten: |ρ(a, b) − ρ(b, c)| ≤ ρ(a, c),
Vierecksungleichung: |ρ(a, b) − ρ(c, d)| ≤ ρ(a, c) + ρ(b, d).
Unterräume metrischer Räume: Wenn (X, ρ) ein metrischer Raum ist und Y eine Untermenge von X ist, so ist (die Einschränkung auf Y × Y von) ρ eine Metrik auf Y , und der
metrische Raum (Y, ρ) heißt Unterraum von (X, ρ).
2
Produkte metrischer Räume: Wenn (X1 , ρ1 ), . . . , (Xn , ρn ) metrische Räume sind, so kann
man in X1 × . . . × Xn folgende Metriken einführen:
σ∞ ((x1 , . . . , xn ), (y1 , . . . , yn )) :=
max ρj (xj , yj ),
(1.2)
1≤j≤n

1/p
n
X
ρj (xj , yj )p 
σp ((x1 , . . . , xn ), (y1 , . . . , yn )) := 
für p ∈ [1, ∞).
(1.3)
j=1
Zum Beweis der Dreiecksungleichung für die Metriken σp benötigt man die folgenden Ungleichungen:
Youngsche Ungleichung: Für alle rellen Zahlen x, y ≥ 0 und p, q > 1 mit 1/p + 1/q = 1 gilt
xy ≤
Höldersche Ungleichung:
1/p + 1/q = 1 gilt
n
X
j=1
xp y q
+ .
p
q
Für alle reellen Zahlen x1 , . . . , xn , y1 , . . . , yn und p, q > 1 mit
1/p 
1/q

n
n
X
X
|xj |p  
|yj |q  .
|xj yj | ≤ 
j=1
j=1
Minkowskische Ungleichung: Für alle reellen Zahlen x1 , . . . , xn , y1 , . . . , yn und p ≥ 1 gilt

1/p 
1/p 
1/p
n
n
n
X
X
X

|xj + yj |p  ≤ 
|xj |p  + 
|yj |p  .
j=1
j=1
j=1
Metriken in C([a, b]) : Die Menge aller stetigen Funktionen x : [a, b] → R wird mit C([a, b])
bezeichnet. In C([a, b]) kann man folgende Metriken einführen:
σ∞ (x, y) :=
σp (x, y) :=
1.2
max |x(t) − y(t)|,
(1.4)
a≤t≤b
Z
b
p
|x(t) − y(t)| dt
a
1/p
für p ∈ [1, ∞).
(1.5)
Normen
In diesem Unterkapitel unterscheidet sich (weil im Mono-Bachelor-Studiengang an der HU die
Lineare Algebra erst in zweiten Semester gelesen wird) meine Vorlesung von dem, was sinnvoll
und allgemein üblich ist, nämlich den Begriff der Norm für allgemeine Vektorräume einzuführen
und nicht nur für die konkreten Vektorräume Rn und Cn . Der wesentliche Nachteil dieser eingeschränkten Präsentation ist, dass der Zusammenhang zwischen den analytischen Begriffen
“Norm” und “Konvergenz” einerseits und dem algebraischen Begriff “Dimension” andererseits
nicht ersichtlich wird.
Im folgenden steht die Bezeichnung K für den Körper R oder den Körper C. Folglich ist dann
Kn die Menge aller n-Tupel reeller Zahlen oder aller n-Tupel komplexer Zahlen. Wie üblich
3
werden Elemente von Kn Vektoren genannt und mit x = (x1 , . . . , xn ) oder y = (y1 , . . . , yn )
usw. bezeichnet, und Elemente von K werden Skalare genannt und mit λ, µ usw. bezeichnet.
Die skalare Null 0 ∈ K und der Nullvektor 0 := (0, . . . , 0) ∈ Kn werde mit demselben Symbol
bezeichnet. Ferner benutzen wir die üblichen Operationen “Addition” und “Multiplikation mit
einem Skalar”, die definiert sind durch
(x1 , . . . , xn ) + (y1 , . . . , yn ) := (x1 + y1 , . . . , xn + yn ),
λ(x1 , . . . , xn ) := (λx1 , . . . , λxn ).
Eine Abbildung k · k : Kn → [0, ∞) heißt Norm in Kn , wenn für alle x, y ∈ Kn und λ ∈ K gilt
Definitheit: kxk = 0 ⇔ x = 0,
Homogenität: kλxk = |λ|kxk,
Dreiecksungleichung: kx + yk ≤ kxk + kyk.
Beispiele:

kxkp := 
kxk∞ :=
n
X
j=1
1/p
|xj |p 
für p ≥ 1,
max |xj |.
1≤j≤n
p
Norm in
Im Spezialfall K = R und p = 2 wird die Norm kxk2 = x21 + . . . + x2n Euklidische
p
Rn genannt, und im Spezialfall K = C und p = 2 wird die Norm kxk2 = |x1 |2 + . . . + |xn |2
Hermitesche Norm in Cn genannt.
Normen erzeugen Metriken: (i) Wenn k · k eine Norm in Kn ist, so ist
ρ(x, y) := kx − yk
(1.6)
eine Metrik in Kn .
(ii) Eine Metrik ρ auf Kn wird genau dann im Sinn von (1.6) durch eine Norm auf Kn erzeugt,
wenn für alle x, y, z ∈ Kn und λ ∈ K gilt ρ(x + z, y + z) = ρ(x, y) und ρ(λx, λy) = |λ|ρ(x, y).
Beispiel: Die Einschränkung auf R der Metrik (1.1) ist nicht durch eine Norm erzeugt.
1.3
Vergleich von Metriken und Normen
Es seien X eine Menge und ρ und σ zwei Metriken in X. Wenn gilt
∃c > 0 ∀x, y ∈ X : ρ(x, y) ≤ cσ(x, y),
so nennt man σ stärker als ρ, und man schreibt ρ ≺ σ. Wenn ρ ≺ σ und gleichzeitig σ ≺ ρ
gilt, so nennte man ρ und σ äquivalent, und man schreibt ρ ∼ σ. Die Relation “∼” ist eine
Äquivalenzrelation in der Menge aller Metriken in X.
Analog für Normen: Es seien k · k und ||| · ||| zwei Normen in Kn , und es gelte
∃c > 0 ∀x ∈ Kn : kxk ≤ c|||x|||,
4
dann nennt man ||| · ||| stärker als k · k. Wenn k · k stärker als ||| · ||| ist und gleichzeitig ||| · |||
stärker als k · k, so nennte man k · k und ||| · ||| äquivalent.
Beispiele: (i) Es sei ρ die Einschränkung auf R der Metrik (1.1) der Kompktifizierung von R.
Dann ist die Standard-Metrik in R stärker als ρ, aber beide Metriken sind nicht äquivalent.
(ii) Es seien σp und σ∞ die in (1.4) und (1.5) eingeführten Metriken in C([a, b]). Dann gilt
σp ≺ σq ≺ σ∞ für 1 ≤ p < q < ∞,
und alle diese Metriken sind nicht äquivalent.
(iii) Alle Normen in Kn sind äquivalent.
(iv) Die in (1.2) und (1.3) eingeführten Metriken im Produkt X1 × . . . × Xn sind äquivalent.
1.4
Konvergenz von Folgen in metrischen Räumen
Es sei (X, ρ) ein metrischer Raum. Eine Folge x1 , x2 , . . . ∈ X heißt konvergent, wenn ein x ∈ X
existiert, so dass gilt
∀ε > 0 ∃n0 ∈ N ∀n ≥ n0 : ρ(xn , x) ≤ ε.
(1.7)
Das Element x ist durch (1.7) eindeutig bestimmt und heißt Grenzwert der Folge bzgl. ρ, und
man schreibt xn → x bzgl. ρ oder, wenn aus dem Kontext klar ist, welche Metrik betrachtet
wird, limn→∞ xn = x. Die Bedingung (1.7) ist äquivalent zu
lim ρ(xn , x) = 0,
n→∞
(1.8)
wobei der Grenzwert in (1.8) der klassische Grenzwert von Zahlenfolgen ist.
Stärkere Metriken implizieren Konvergenz: Es seien ρ und σ Metriken auf X mit ρ ≺ σ,
und es gelte xn → x bzgl. σ. Dann gilt auch xn → x bzgl. ρ.
Beispiele: (i) Es seien ρst die Standard-Metrik in R und x, x1 , x2 , . . . ∈ R. Dann gilt xn → X
bzgl. ρst genau dann, wenn xn → x im Sinn der klassischen Definition gilt.
(ii) Es seien ρ die Metrik (1.1) der Kompaktifizierung von R und x, x1 , x2 , . . . ∈ R. Dann gilt
xn → x bzgl. ρ genau dann, wenn xn → x bzgl. ρst , obwohl ρ und ρst nicht äquivalent sind.
Ferner gilt xn → ∞ bzgl. ρ bzw. xn → −∞ bzgl. ρ genau dann, wenn xn → ∞ bzw. t xn → −∞
im Sinn der klassischen Definitionen gilt.
(iii) Es seien σ∞ die in (1.4) eingeführte Metrik in C([a, b]) und x, x1 , x2 , . . . ∈ C([a, b]). Dann
gilt xn → x bzgl. σ∞ genau dann, wenn die Funktionenfolge x1 , x2 , . . . gleichmäßig gegen die
Funktion x strebt.
1.5
Vollständigkeit. Der Banachsche Fixpunktsatz
Cauchy-Folgen: Es seien (X, ρ) ein einmetrischer Raum und x1 , x2 , . . . ∈ X eine Folge mit
∀ε > 0 ∃n0 ∈ N ∀m ≥ n ≥ n0 : ρ(xm , xn ) ≤ ε.
Dann heißt die Folge Cauchy-Folge oder Fundamentalfolge in (X, ρ). Jede konvergente Folge ist
eine Cauchy-Folge.
5
Vollständigkeit: Ein metrischer Raum heißt vollständig, wenn jede Cauchy-Folge konvergent
ist. Analoge Terminologie wird in Kn bzgl. einer Norm k · k benutzt, wobei die Begriffe nicht
davon abhängen, welche Norm gewählt worden ist.
Beispiele: (i) Die Menge der rationalen Zahlen Q ist mit der Standard-Metrik ρst (x, y) = |x−y|
nicht vollständig.
(ii) Die Menge der reellen Zahlen R ist mit der Standard-Metrik ρst (x, y) = |x−y| vollständig.
(iii) Die Mengen Rn und Cn sind bzgl. jeder Norm vollständig.
(iv) Die Funktionenräume C([a, b]) sind vollständig bzgl, der Metrik σ∞ (vgl. (1.4)), aber nicht
vollständig bzgl. der Metriken σp (vgl. (1.5)) für p ∈ [1, ∞). Zum Beispiel ist durch xn (t) := tn
ist eine Cauchy-Folge bzgl. σp gegeben, die aber keinen Grenzwert in C([a, b]) bzgl. σp besitzt
(für p ∈ [1, ∞)).
Banachscher Fixpunktsatz: Es seien (X, ρ) ein vollständiger metrischer Raum und f : X →
X eine Abbildung, und es exitiere ein c < 1, so daß gilt
kf (x) − f (y)k ≤ ckx − yk für alle x, y ∈ X.
Dann existiert genau ein x0 ∈ X mit f (x0 ) = x0 (ein sogenannter Fixpunkt von f ). Ferner gilt:
Wenn x1 ∈ X beliebig gewählt ist und wenn die Folge x2 , x3 , . . . ∈ X induktiv definiert ist durch
xj+1 := f (xj ) für j = 1, 2, . . . ,
dann folgt x0 = limj→∞ xj und
ρ(xj , x0 ) ≤
1.6
cj
c
ρ(xj , xj−1 ) ≤
ρ(x2 , x1 ) für j = 1, 2, . . . .
1−c
1−c
Konvergenz von Folgen und Reihen in Kn
In diesem Unterkapitel ist k · k eine beliebige Norm in Kn . Alle folgenden Definitionen und
Aussagen hängen nicht von der Wahl der Norm k · k ab.
Eine Vektorfolge x1 , x2 , . . . ∈ Kn heißt konvergent, wenn sie konvergent bzgl. der durch k · k
erzeugten Metrik ρ(x, y) = kx − yk ist, d.h. wenn ein Vektor x ∈ Kn existiert mit
∀ε > 0 ∃j0 ∈ N ∀j ≥ j0 : kxj − xk ≤ ε.
(1.9)
Konvergenz ist komponentenweise Konvergenz: Es seien k · k eine Norm in Kn ,
(x11 , . . . , xn1 ), (x12 , . . . , xn2 ), . . . , (x1j , . . . , xnj ), . . .
(1.10)
eine Folge von Vektoren aus Kn und x = (x1 , . . . , xn ) ein Vektor aus Kn . Dann gilt: Die Vektorenfolge (1.10) konvergiert bzgl. k · k gegen den Vektor x genau dann, wenn für jedes k = 1, . . . , n
die Zahlenfolge (xkj )∞
j=1 gegen die Zahl xk konvergiert. In diesem Sinne gilt
lim (x1j , . . . , xnj ) =
j→∞
lim x1j , . . . , lim xnj .
j→∞
6
j→∞
Konvergenz und algebraische Operationen: Es seien x1 , x2 , . . . , y1 , y2 , . . . ∈ Kn zwei konvergente Vektorfolgen und λ1 , λ2 , . . . , µ1 , µ2 , . . . ∈ K zwei konvergente Zahlenfolgen. Dann ist
auch die Vektorfolge λ1 x1 + µ1 y1 , λ2 x2 + µ2 y2 , . . . konvergent, und
lim (λj xj + µj yj ) = lim λj lim xj + lim µj lim yj .
j→∞
j→∞
j→∞
j→∞
j→∞
Vektorreihen: Zu jeder Vektorfolge x0 , x1 , x2 , . . . ∈ Kn kann man die Folge
s0 := x0 , s1 := x0 + x1 , s2 := x0 + x1 + x2 , . . .
betrachten. Diese nennt man dann wie im skaleren Fall Reihe mit den Summanden xj und
den Partialsummen sk , und die Reihe heißt konvergent, wenn die Folge ihrer Partialsummen
konvergent ist. Man schreibt dann wieder
∞
X
xj := lim
j=0
k→∞
k
X
xj ,
j=0
und dieser Vektor heißt dann Grenzwert der Reihe.
Cauchy-Kriterium: Eine Vektorreihe mit den Summanden x1 , x2 , . . . ∈ Kn konvergiert genau
dann, wenn gilt:
X
k
∀ε > 0 ∃j0 ∈ N ∀k ≥ j ≥ j0 : xl ≤ ε.
l=j n
Majorantenkriterium: Eine Vektorreihe mit
P den Summanden x1 , x2 , . . . ∈ K konvergiert,
wenn eine konvergente Reihe reeller Zahlen
yn und ein j0 ∈ N existieren , so daß für alle
j ≥ j0 gilt kxn k ≤ yn . Wenn j0 = 0 gewählt werden kann, so gilt ferner
X
∞
∞
X
∞ X
yj .
kx
k
≤
x
≤
j
j
j=0 j=0
j=0
Wurzelkriterium: Eine Vektorreihe mit den Summanden x1 , x2 , . . . ∈ Kn konvergiert , wenn
gilt
q
lim sup j kxj k < 1.
j→∞
Neumannsche Reihe: Es seien k · k eine Norm in Kn , A eine n × n-Matrix mit Koeffizienten
in K, und es gelte
sup kAξk < 1.
kξk≤1
Dann existiert für jedes y ∈ Kn genau ein x ∈ Kn mit x = Ax + y, und dieses x läßt sich
konvergente Reihe berechnen:
∞
X
Aj y.
x=
j=0
7
1.7
Teilfolgen, Häufungspunkte und der Satz von Bolzano-Weierstraß in Kn
Beschränktheit: Es seien (X, ρ) ein metrischer Raum, x1 , x2 , . . . ∈ X eine Folge in X, und es
gelte
∃x0 ∈ X ∃c > 0 ∀n ∈ N : ρ(xn , x0 ) ≤ c.
(1.11)
Dann heißt die Folge x1 , x2 , . . . beschränkt bzgl. ρ. Die Bedingung (1.11) ist äquivalent zu
∀x0 ∈ X ∃c > 0 ∀n ∈ N : ρ(xn , x0 ) ≤ c.
Konvergenz impliziert Beschränktheit: Es seien (X, ρ) ein metrischer Raum und x1 , x2 , . . . ∈
X eine bzgl. ρ konvergente Folge. Dann ist diese Folge auch beschränkt bzgl. ρ.
Häufungspunkte: Es seien (X, ρ) ein metrischer Raum, x1 , x2 , . . . ∈ X eine Folge in X und
x ∈ X, dann sind folgende Bedingungen äquivalent:
(i) Es existiert eine Teilfolge xn1 , xn2 , . . . von mit xnj → x bzgl. ρ für j → ∞.
(ii) Für alle ε > 0 existieren unendlich viele verschiedene n ∈ N mit ρ(xn , x) < ε.
Wenn eine dieser Bedingungen erfüllt ist (und folglich beide Bedingungen erfüllt sind), so heißt
x Häufungspunkt bzgl. ρ der Folge x1 , x2 , . . ..
Satz von Bolzano-Weierstraß in Kn : Es sei x1 , x2 , . . . ∈ Kn eine Folge, die beschränkt
(bzgl. einer und folglich bzgl. jeder Norm in Kn ) ist. Dann besitzt diese Folge mindestens einen
Häufungspunkt (bzgl. einer und folglich bzgl. jeder Norm in Kn ).
Beispiel: Durch xn (t) := tn ist eine Folge in C([0, 1]) definiert, die beschränkt bzgl. σ∞ (vgl.
(1.4)) ist, aber keinen Häufungspunkt bzgl. σ∞ besitzt.
1.8
Offene Mengen, abgeschlossene Mengen und Rand
In diesem Unterkapitel sind (X, ρ) ein metrischer Raum und M ⊆ X eine Teilmenge von X.
Kugeln: Es seien x ∈ X und r > 0. Dann heißen die Menge
K(x, r) := {y ∈ X : ρ(x, y) < r} bzw. K̄(x, r) := {y ∈ X : ρ(x, y) ≤ r}
offene bzw. abgeschlossene Kugel um x mit dem Radius r.
Innere Punkte, innerer Kern und Offenheit: Ein Punkt x ∈ M heißt innerer Punkt von
M , wenn ein r > 0 existiert mit K(x, r) ⊆ M . Die Menge aller inneren Punkte von M heißt
◦
innerer Kern von M und wird mit intM (oder M ) bezeichnet. Man sagt, dass M offen ist, wenn
M = intM ist.
Randpunkte, Rand, abgeschlossene Hülle und Abgeschlossenheit: Ein Punkt x ∈ X
heißt Randpunkt von M , wenn für alle r > 0 gilt K(x, r) ∩ M 6= ∅ und K(x, r) ∩ (X \ M ) 6= ∅.
Die Menge aller Randpunkte von M heißt Rand von M und wird mit ∂M bezeichnet. Die Menge
M ∪ ∂M heißt abgeschlossene Hülle von M und wird mit clM (oder M̄ ) bezeichnet. Man sagt,
dass M abgeschlossen ist, wenn M = clM ist.
Äquivalente Charakterisierungen: (i) Die Menge intM ist die größte offene Teilmenge von
M , d.h. für jede offene Menge A ⊆ M gilt A ⊆ intM .
8
(ii) Die Menge clM ist die kleinste abgeschlossene Menge, die M enthält, d.h. für jede abgeschlossene Menge A ⊆ X mit M ⊂ A gilt clM ⊂ A.
(iii) Es gilt x ∈ ∂M genau dann, wenn Folgen y1 , y2 , . . . ∈ M und z1 , z2 , . . . ∈ X \ M existieren
mit yn → x und zn → x.
(iv) M ist abgeschlossen genau dann, wenn für jede konvergente Tolge x1 , x2 , . . . ∈ M gilt
limn→∞ xn ∈ M .
Dualität von Offenheit und Abgeschlossenheit: (i) M ist offen genau dann, wenn X \ M
abgeschlossen ist, und M ist abgeschlossen genau dann, wenn X \ M offen ist.
(ii) Der Durchschnitt beliebig vieler und die Vereinigung endlich vieler abgeschlossenener
Mengen ist wieder abgeschlossen.
(iii) Die Vereinigung beliebig vieler und der Durchschnitt endlich vieler offener Mengen ist
wieder offen.
(iv) Eine Menge ist abgeschlossen (bzw. offen) genau dann, wenn sie alle ihre Randpunkte
(bzw. keinen ihrer Randpunkte) enthält.
Offenheit und Abgeschlossenheit bzgl. vergleichbarer Metriken: Es sei σ eine zweite
Metrik in X, und es gelte ρ ≺ σ. Dann folgt: Wenn M offen bzw. abgeschlossen bzgl. σ ist, so
ist M auch offen bzw. abgeschlossen bzgl. ρ.
Beispiele: (i) In jedem metrischen Raum (X, ρ) gilt: Endliche Mengen sind abgeschlossen.
Die Menge X ist sowohl offen als auch abgeschlossen, die Kugeln K(x, r) sind offen, die Kugeln
K̄(x, r) sind abgeschlossen, und clK(x, r) = K̄(x, r).
(ii) Es sei X = Kn , und ρ sei durch eine Norm k · k erzeugt. Dann ist Kn die einzige nichtleere
Menge, die sowohl offen als auch abgeschlossen ist. Ferner gilt für alle x ∈ Kn und r > 0
∂K(x, r) = ∂ K̄(x, r) = {y ∈ Kn : kx − yk = r}.
(iii) Es sei X = R mit der Standard-Metrik ρ(x, y) = |x − y|. Dann gilt für alle a < b, dass
(a, b) offen ist, dass [a, b] abgeschlossen ist, dass [a, b) weder offen noch abgeschlossen ist und
∂(a, b) = ∂[a, b) = ∂[a, b] = {a, b}.
Die Intervalle (−1/j, 1/j), j = 1, 2, . . . sind offen, aber ihr Durchschnitt
∞ \
1 1
= {0}
− ,
j j
j=1
ist nicht offen.Die Intervalle [−1/j, 1/j[, j = 1, 2, . . . sind abgeschlossen, aber ihre Vereinigung
∞ [
1 1
− ,
= (−1, 1)
j j
j=1
ist nicht abgeschlossen. Ferner gilt
intQ = ∅, ∂Q = clQ = R.
(iv) Es sei X = R2 , ρ sei durch eine Norm k · k erzeugt, und M sei eine Gerade in R2 , z.B.
die x-Achse {(x, 0) ∈ R2 : x ∈ R}. Dann besitzt M keine inneren Punkte.
9
1.9
Konvergenz von Abbildungen zwischen metrischen Räumen
In diesem Unterkapitel sind (X, ρ) und (Y, σ) metrische Räume, M ⊆ X eine Teilmenge von X
und f : M → Y eine Abbildung.
Häufungspunkte von M : Eine Element x0 ∈ X heißt Häufungspunkt von M , wenn für alle
δ > 0 ein x ∈ M existiert mit 0 < ρ(x, x0 ) < δ, d.h. wenn eine Folge x1 , x2 , . . . ∈ M \ {x0 }
existiert mit xn → x0 , d.h. wenn K(x0 , r) ∩ M eine unendliche Menge ist für jedes r > 0.
Grenzwerte von f : Es seien x0 Häufungspunkt von M , y0 ∈ Y , und es gelte
∀ε > 0 ∃δ > 0 ∀x ∈ M : 0 < ρ(x, x0 ) ≤ δ ⇒ σ(f (x), y0 ) ≤ ε.
(1.12)
Dann nennt man f konvergent für x gegen x0 , y0 heißt Grenzwert von f für x gegen x0 , und
man schreibt
x→x
lim f (x) = y0 oder f (x) → y0 für x → x0 oder f (x) −→0 y0 .
x→x0
Bemerkungen zur Terminologie: (i) Weil x0 Häufungspunkt von M ist, ist y0 durch die
Bedingung (1.12) eindeutig bestimmt. Wenn x0 nicht Häufungspunkt von M wäre, so würde
jedes y0 ∈ Y die Bedingung (1.12) erfüllen.
(ii) Die Bedingung (1.12) hängt nicht davon ab, ob f in x0 definiert ist oder nicht (d.h. ob
x0 ∈ M oder x0 ∈
/ M ), und sie hängt im Fall x0 ∈ X nicht von dem Wert f (x0 ) ab.
Äquivalenz von εδ-Sprache und Folgensprache: Es seien x0 Häufungspunkt von M und
y0 ∈ Y . Dann sind folgende Bedingungen äquivalent:
(i) limx→x0 f (x) = y0 .
(ii) Für jede Folge x1 , x2 , . . . ∈ M \ {x0 } mit limn→∞ xn = x0 gilt limn→∞ f (xn ) = y0 .
1.10
Iterierte Grenzwerte
In diesem Unterkapitel sind (X, ρ), (Y, σ) und (Z, τ ) metrische Räume, M ⊆ X und N ⊆ Y
Teilmengen, x0 ∈ X bzw. y0 ∈ Y Häufungspunkte von M bzw. N und f : M × N → Y
eine Abbildung. Die Menge X × Y wird als metrischer Raum mit einer der in (1.2) und (1.3)
eingeführten äquivalenten Metriken betrachtet. Dann ist (x0 , y0 ) Häufungspunkt von M × N ,
und man kann die folgenden Fragen betrachten: Existieren der sogenannte allgemeine Grenzwert
lim
(x,y)→(x0 ,y0 )
f (x, y),
(1.13)
bzw. die sogenannten iterierten Grenzwerte
lim lim f (x, y)
(1.14)
lim lim f (x, y),
(1.15)
x→x0 y→y0
und
y→y0 x→x0
impliziert die Existenz eines von ihnen die Exixstenz eines anderen und sind die entsprechenden
Grenzwerte dann gleich? Nach Definition existiert der iterierte Grenzwert (1.14) und ist gleich
z0 ∈ Z, wenn ein r > 0 und eine Abbildung g : K(x0 , r) ∩ M → Z existieren, so dass gilt
y→y0
∀x ∈ K(x0 , r) ∩ M : f (x, y) −→ g(x)
10
(1.16)
und
x→x
g(x) −→0 z0 .
(1.17)
Die Bedingung (1.16) bedeutet
∀x ∈ M ∀ε > 0 ∃δ > 0 ∀y ∈ N : ρ(x, x0 ) ≤ r, σ(y, y0 ) ≤ δ ⇒ τ (f (x, y), g(x)) ≤ ε,
(1.18)
und man sagt, wenn diese Bedingung erfüllt ist, dass für x → x0 die Funktionen f (x, ·) punktweise gegen die Funktion g streben. Eine Verstärkung von (1.18) ist
∀ε > 0 ∃δ > 0 ∀x ∈ M ∀y ∈ N : ρ(x, x0 ) ≤ r, σ(y, y0 ) ≤ δ ⇒ τ (f (x, y), g(x)) ≤ ε.
(1.19)
Wenn (1.19) erfüllt ist, so sagt man, dass für x → x0 die Funktionen f (x, ·) gleichmäßig gegen
die Funktion g streben.
Eine hinreichende Bedingung, dass (1.13) nicht existiert: Wenn die iterierten Grenzwerte (1.14) und (1.15) existieren, aber ungleich sind, so existiert (1.13) nicht.
Eine hinreichende Bedingung, dass (1.13) existiert: Wenn (1.17) und (1.19) gilt, so
existiert (1.13) und ist gleich z0 .
Beispiele: Wir setzen X = Y = Z = R mit der Standard-Metrik, M = N = (0, ∞) und
x0 = y0 = 0.
(i) (1.14) und (1.15) existieren und sind ungleich (und folglich existiert (1.13) nicht):
f (x, y) =
x2
.
x2 + y 2
(ii) (1.14) und (1.15) existieren und sind gleich, trotzdem existiert (1.13) nicht:
f (x, y) =
x2
xy
.
+ y2
(iii) (1.13) und (1.14) existieren und sind gleich, trotzdem existiert (1.15) nicht:
1
f (x, y) = x sin .
y
(iii) Wir verifizieren die obige hinreichende Bedingung, dass der allgemeine Grenzwert (1.13)
existiert und welchen Wert er annimmt, im Beispiel
1
x
f (x, y) = sin
sin y :
x
y
Nach der l’Hospital-Regel gilt
x
x
1
1
1
sin y = lim cos
sin y
sin y = sin y.
lim sin
x→0
x→0 x
y
y
y
y
Also strebt x1 sin xy sin y für x → 0 punktweise gegen y1 sin y. Diese Konvergenz ist sogar
gleichmäßig weil nach der Taylor-Formel gilt
2
x
x
1
x
sin y = sin y − sin θ
sin y
sin
y
y
2
y
11
und folglich
Wegen
1
y
x sin y 2
1
x
1
≤
sin
sin
y
−
sin
y
≤ const x.
2
x
y
y
y
sin y → 1 für y → 0 folgt also
1
sin
(x,y)→(0,0) x
lim
1.11
x
sin y
y
= 1.
Stetige Abbildungen zwischen metrischen Räumen
In diesem Unterkapitel sind wieder (X, ρ) und (Y, σ) metrische Räume, M ⊆ X eine Teilmenge
von X und f : M → Y eine Abbildung.
Stetigkeit: Die Abbildung f heißt stetig in einem Punkt x0 ∈ M , wenn gilt
∀ε > 0 ∃δ > 0 ∀x ∈ X : ρ(x, x0 ) ≤ δ ⇒ σ(f (x), f (x0 )) ≤ ε.
Die Funktion f heißt stetig, wenn sie stetig in jedem x0 ∈ M ist.
Bemerkung zur Terminologie: Wenn x0 ∈ M nicht Häufungspunkt von M ist, dann ist jede
Abbildung f : M → Y stetig in x0 . Wenn aber x0 ∈ M Häufungspunkt von M ist, dann ist eine
Abbildung f : M → Y stetig in x0 genau dann, wenn
lim f (x) = f (x0 ).
x→x0
Stetigkeit und Superposition: Es seien f stetig in einem Punkt x0 ∈ M , (Z, τ ) ein weiterer
metrischer Raum und g : f (X) → Z eine Abbildung, die stetig in f (x0 ) ist. Dann ist die
Superposition g ◦ f ebenfalls stetig in x0 .
1.12
Grenzwerte und Stetigkeit von Abbildungen Kn → Km
In diesem Unterkapitel betrachten wir Abbildungen vom Typ f : X ⊆ Kn → Km , wobei Kn
und Km als metrische Räume, deren Metriken durch eine Norm erzeugt sind, betrachtet werden.
Dann gilt


f1 (x)
 f2 (x) 


f (x) = 
,
..


.
fm (x)
und die Abbildungen f1 , . . . , fm : X → K heißen Komponentenabbildungen der Abbildung f .
Lemma: Grenzwert und Stetigkeit gelten komponentenweise. Es sei x0 ein Häufungspunkt
von X. Dann gilt


limx→x0 f1 (x),
 limx→x0 f2 (x), 
,
lim f (x) = 
(1.20)


x→x0
...
limx→x0 fm (x)
12
dabei existiert der Grenzwert auf der linken Seite von (1.20) genau dann, wenn alle Grenzwerte
auf der rechten Seite von (1.20) existieren.
Insbesondere gilt: Die Abbildung f ist stetig genau dann, wenn alle Abbildungen f1 , . . . , fm
stetig sind.
Satz: Grenzwert, Stetigkeit und algebraische Operationen Es seien λ : X ⊂ Kn → R
und g : X ⊂ Kn → Km Abbildungen, und x0 sei ein Häufungspunkt von X. Dann gilt
lim (λ(x)f (x)) =
x→x0
lim (f (x) + g(x)) =
x→x0
lim λ(x) lim f (x),
x→x0
x→x0
lim f (x) + lim g(x).
x→x0
x→x0
dabei existieren die Grenzwerte jeweils auf der linken Seite, wenn alle Grenzwerte jeweils auf
der rechten Seite existieren.
Insbesondere gilt: Wenn λ, f und g stetig sind, so sind auch λf , f + g stetig.
Extrema stetiger Abbildungen auf abgeschlossenen beschränkten Mengen Es seien
K = R, m = 1, X abgeschlossen und beschränkt, und f sei stetig. Dann existieren ein x∗ ∈ X
und ein x∗ ∈ X, so daß für alle x ∈ X gilt f (x∗ ) ≤ f (x) und f (x∗ ) ≥ f (x).
2
Differenzierbare Abbildungen von Rn in Rm
Gegenstand diese Kapitels sind Abbildungen vom Typ f : X ⊆ Rn → Rm . Wir schreiben

 

f1 (x1 , . . . , xn )
f1 (x)

 

..
..
f (x) = f (x1 , . . . , xn ) = 
,
=
.
.
fm (x1 , . . . , xn )
fm (x)
d.h. fj : X → R, j = 1, . . . , m sind die sogenannten Komponentenabbildungen der Abbildung f .
Man sagt, die Abbildung f besitzt n unabhängige und m abhängige Variable. Mit
 
 
1
0
 0 
 1 
 
 
 0 
 
e1 :=   , e2 :=  0  , . . .
 .. 
 .. 
 . 
 . 
0
0
bezeichnen wir die Vektoren der Standard-Basen in Rn und Rm . Mit k·k bezeichnen wir Normen
in Rn und Rm . Alle topologischen Begriffe (Grenzwerte, Stetigkeit, Offenheit von Mengem usw.)
werden bzgl. dieser Normen betrachtet und hängen nicht von der Wahl der Normen ab.
Mit M(m × n) bezeichnen wir die Menge aller m × n-Matrizen (m Zeilen und n Spalten). Wir benutzen die “üblichen” algebraischen Operationen mit Skalaren, Vektoren und Matrizen und die
zugehörigen Rechenregeln. Was “üblich” ist, wird als bekannt aus der Vorlesung “Mathematische
Grundlagen” vorausgesetzt und in der parallel laufenden Vorlesung “Lineare Algebra” systematisch vermittelt (insbesondere: M(m × n) kann mit dem Vektorraum der linearen Abbildungen
Rn → Rm identifiziert werden).
13
Eine weitere Schwierigkeit, die aus der Parallelität der Vorlesungen “Analysis II” und “Lineare
Algebra” folgt, ist, dass zu dem Zeitunkt, wenn in “Analysis II” der allgemeine Ableitungsbegriff
eingeführt wird, in “Linearer Algebra” noch nicht der abstrakte Vektorraum-Begriff eingeführt
ist. Folglich wird in dieser Vorlesung “Analysis II” der allgemeine Ableitungsbegriff nur auf den
konkreten Vektorräumen Rn und Rm eingeführt. Um aber z.B. wichtige Beispiele differenzierbarer Abbildungen, die Matrizen in Matrizen überführen, mit behandeln zu können, muß dann
z.B. eine m × n-Matrix mit einem entsprechenden Vektor in Rmn identifiziert werden. Diese
Identifizierung ist allerdings sowohl aus mathematischer als auch aus physikalischer Sicht höchst
unnatürlich.
2.1
Differenzierbarkeit und Ableitung
Es seien X ⊆ Rn offen und f : X → Rm .
Partielle Differenzierbarkeit:
k ∈ {1, . . . , n} der Grenzwert
(i) Es sei x ∈ X. Wenn für ein j ∈ {1, . . . , m} und ein
∂k fj (x) := lim (fj (x + tek ) − fj (x))
t→0
(2.1)
existiert, so sagt man, dass fj in x partiell differenzierbar nach xk ist, und der Grenzwert (2.1)
∂f
heißt partielle Ableitung von fj nach xk . Anstelle von ∂k fj (x) schreibt man auch ∂xjk oder
Dk fj (x) oder dk fj (x). Wenn für ein k ∈ {1, . . . , n} der Grenzwert
∂k f (x) := lim (f (x + tek ) − f (x))
t→0
(2.2)
existiert, so sagt man, dass f in x partiell differenzierbar nach xk ist, der Grenzwert (2.2) heißt
partielle Ableitung von f nach xk . Dann existieren die Grenzwerte (2.1) für alle j = 1, . . . , m,
und es gilt


∂k f1 (x)


..
∂k f (x) = 
(2.3)
.
.
∂k fm (x)
Damit in (2.1) und (2.2) die Werte fj (x + tek ) und f (x + tek ) für kleine t existieren, muß für
kleine t der Punkt x + tek im Definitionsbereich X liegen. Damit das für alle k und alle x ∈ X
der Fall ist, haben wir vorausgesetzt, dass X offen ist.
(ii) Wenn die partiellen Ableitungen ∂k fj (x) bzw. ∂k f (x) für alle x ∈ X existieren, so heißen fj
bzw. f partiell nach xk differenzierbar, und die Abbildungen ∂k fj : X → R bzw. ∂k f : X → Rm
heißen partielle Ableitungen von fj bzw. von f .
Differenzierbarkeit: (i) Es sei x ∈ X. Wenn ein A ∈ M(m × n) existiert, so dass
f (x + y) − f (x) − Ay
=0
y→x
kyk
lim
(2.4)
gilt, dann heißt f differenzierbar (oder total differenzierbar oder Frechet-differenzierbar) in x.
Die Matrix A ist dann eindeutig bestimmt, sie heißt Ableitung (oder totale Ableitung oder
Frechet-Ableitung oder Jacobi-Matrix oder Funktionalmatrix) von f in x, und man schreibt für
sie
∂(f1 , . . . , fm )
(x).
f ′ (x) oder Df (x) oder df (x) oder
∂(x1 , . . . , xn )
14
(ii) Wenn die Ableitungen f ′ (x) für alle x ∈ X existieren, so heißt f differenzierbar, und die
Abbildungen f ′ : X → M(m × n) (die Menge aller m × n-Matrizen) heißt Ableitung von f .
Verhältnis von Ableitung und partiellen Ableitungen: Wenn f in x ∈ X differenzierbar
ist, so existieren alle partiellen Ableitungen (2.1) und es gilt


∂1 f1 (x) ∂2 f1 (x) . . . ∂n f1 (x)
 ∂1 f2 (x) ∂2 f2 (x) . . . ∂n f2 (x) 


f ′ (x) = 
.
..
..
..
.
.


.
.
.
.
∂1 fm (x) ∂2 fm (x) . . . ∂n fm (x)
Insbesondere gilt
 Pn
k=1 ∂k f1 (x)vk

f ′ (x)v = 

n
 X
..
∂k f (x)vk für alle v ∈ Rn .
=
.
Pn
k=1
k=1 ∂k fm (x)vk
(2.5)
In (2.5) haben wir die Bezeichnung (2.3) benutzt.
Richtungsableitung: Wenn f in x ∈ X differenzierbar ist, so gilt für alle v ∈ Rn
1
f ′ (x0 )v = lim (f (x + tv) − f (x)).
t→0 t
Differenzierbarkeit impliziert Stetigkeit: Wenn f differenzierbar ist, so ist f auch stetig.
Stetige Differenzierbarkeit: Wenn alle partiellen Ableitungen (2.1) existieren und stetig von
x abhängen, so ist f differenzierbar, und man nennt dann f stetig differenzierbar.
2.2
Rechenregeln
Differenzierbarkeit von Linearkombinationen: Es seien X ⊆ Rn offen, und die Abbildungen f : X → Rm und g : X → Rm seien differenzierbar in x ∈ X. Dann sind für alle λ, µ ∈ R
auch die Abbildungen λf + µg in x differenzierbar, und es gilt
(λf + µg)′ (x) = λf ′ (x) + µg ′ (x).
Multilineare Abbildungen: Eine Abbildung M : Rn1 × . . . × Rnl → Rm heißt multilinear,
wenn für alle k = 1, . . . , l, v1 ∈ Rn1 , . . . , vk−1 ∈ Rnk−1 , v, w ∈ Rnk , vk+1 ∈ Rnk+1 , . . . , vl ∈ Rnl
gilt
M (v1 , . . . , vk−1 , λv + µw, vk+1 , . . . , vl )
= λM (v1 , . . . , vk−1 , v, vk+1 , . . . , vl ) + µM (v1 , . . . , vk−1 , w, vk+1 , . . . , vl ).
Beispiele bilinearer Abbildungen (l = 2): (i) Produkt Skalar × Vektor: Hier sind n1 = 1
und n2 = m = n und M (λ, v) = λv.
(ii) Euklidisches Skalarprodukt: Hier sind n1 = n2 = n und m = 1 und
M (v, w) = hu, vi :=
n
X
k=1
15
vk wk .
(iii) Vektorprodukt: Hier sind n1 = n2 = m = 3 und


v2 w3 − v3 v2
M (v, w) = v × w :=  v3 w1 − v1 w3  .
v1 w2 − v2 w1
(iv) Produkt Matrix × Vektor: Hier sind n1 = mn, n2 = n und M (A, v) = Av.
Beispiele multilinearer Abbildungen mit l > 2: (i) Determinante: Hier sind n1 = . . . =
nl = n = l und m = 1 und M (v1 , . . . , vl ) = det(v1 , . . . , vl ).
(ii) Produkt von Matrizen: Hier sind n1 = . . . = nl = m = n2 und M (A1 , . . . , Al ) = A1 ·. . .·Al .
Produktregel: Es seien M : Rn1 ×. . .×Rnl → Rm multilinear und f1 : X → Rn1 , . . . , fnl : X →
Rnl differenzierbar in x ∈ X. Dann ist auch die Abbildung x ∈ X 7→ M (f1 (x), . . . , fl (x)) ∈ Rm
differenzierbar in x, und es gilt für alle v ∈ Rn
(M (f1 , . . . , fl ))′ (x)v =
l
X
M ((f1 (x), . . . , fk−1 (x), fk′ (x)v, fk+1 (x), . . . , fl (x))).
k=1
Ableitung von Determinanten: Wenn man die Produktregel auf das obige Determinatenbeispiel anwendet, so erhält man für alle Abbildungen f1 , . . . , fl : X → Rl , die differenzierbar in
x ∈ X sind, und für alle v ∈ Rn
(det(f1 , . . . , fl ))′ (x)v =
l
X
det(f1 (x), . . . , fk−1 (x), fk′ (x)v, fk+1 (x), . . . , fl (x)).
k=1
Winkelgeschwindigkeit und virtuelle Drehachse: Es sei Q(t) eine 3 × 3-Matrix, die differenzierbar von der Zeit t ∈ R abhängt und die für alle Zeiten t orthogonal ist, d.h.
Q(t)Q(t)T = I,
(2.6)
die also eine zeitabhängige starre Drehung des Raumes R3 um den fixierten Nullpunkt beschreibt.
Wenn man die Identität (2.6) mit Hilfe der Produktregel differenziert, so erhält man
T
Q′ (t)Q(t)T + Q(t)Q′ (t)T = 0, also Q′ (t)Q(t)T = −Q(t)Q′ (t)T = − Q′ (t)Q(t)T .
Mit anderen Worten: Q′ (t)Q(t)T ist eine antisymmetrische 3 × 3-Matrix, d.h. vom Typ


0
−ω3 (t) ω2 (t)
Q′ (t)Q(t)T =  ω3 (t)
0
−ω1 (t)  .
−ω2 (t) ω1 (t)
0
Es sei nun u ∈ R3 ein beliebiger Vektor und v(t) := Q(t)u, dann folgt



0
−ω3 (t) ω2 (t)
v1 (t)
Q′ (t)u =  ω3 (t)
0
−ω1 (t)   v2 (t)  =
−ω2 (t) ω1 (t)
0
v3 (t)


ω2 (t)v3 (t) − ω3 (t)v2 (t)
=  ω3 (t)v1 (t) − ω1 (t)v3 (t)  = ω(t) × Q(t)u.
ω1 (t)v2 (t) − ω2 (t)v1 (t)
16
(2.7)
Der Vektor


ω1 (t)
ω(t) :=  ω2 (t) 
ω3 (t)
heißt Winkelgeschwindigkeit zum Zeitpunkt t. Er beschreibt die sogenannte virtuelle Drehachse
durch den Nullpunkt in R3 zum Zeitpnkt t, die folgende Eigenschaften besitzt: In allen Punkten
auf der Achse ist die Geschwindigkeit Null. In allen anderen Punkten ist die Geschwindigkeit
orthogonal zur Achse, und die Euklidische Norm der Geschwindigkeit ist proportional zum Abstand des Punktes von der Achse.
Kettenregel: Es seien X ⊆ Rn und Y ⊆ Rm offen, f : X → Y differenzierbar in x ∈ X, und
g : Y → Rl sei differenzierbar in f (x). Dann ist auch die Superposition g ◦ f differenzierbar in
x, und es gilt
(g ◦ f )′ (x) = g ′ (f (x))f ′ (x).
(2.8)
Dabei ist das Produkt auf der rechten Seite von (2.8) als Produkt der entsprechenden JacobiMatrizen zu verstehen. Insbesondere gilt für alle k = 1, . . . , n


∂j g1 (f (x))
m
X


..
∂j g(f (x))∂k fj (x) mit ∂j g(f (x)) := 
∂k (g ◦ f )(x) =
 ∈ Rl .
.
j=1
∂j gl (f (x))
Substantielle Zeitableitung: In der Kontinuumsmechanik bezeichnet man üblicherweise mit
x̂(t, ξ) ∈ R3 den Ort zum Zeitpunkt t ∈ R des Zeilchens, dass zum Zeitpunkt Null am Ort ξ ∈ R3
war. Folglich ist ∂t x̂(t, ξ) die Geschwindigkeit zum Zeitpunkt t dieses Teilchens. Es sei ξ̂(t, ·) die
inverse Funktion zu x̂(t, ·), d.h. ξ̂(t, x) ist der Ort zum Zeitpunkt Null des Teilchens, das zum
Zeitpunkt t am Ort x ist. Dann ist
ˆ x))
u(t, x) := ∂t x̂(t, ξ(t,
die Geschwindigkeit zum Zeitpunkt t am Ort x, und nach der Kettenregel ist
3
∂t2 x̂(t, ξ) =
X
d
u(t, x̂(t, ξ)) = ∂t u(t, x̂(t, ξ)) +
∂xk u(t, x̂(t, ξ))uk (t, x̂(t, ξ))
dt
k=1
die Beschleunigung zum Zeitpunkt t des Zeilchens ξ. Mit anderen Worten:
∂t u(t, x) +
3
X
∂xk u(x, t)uk (t, x)
(2.9)
k=1
ist die Beschleunigung zum Zeitpunkt t am Ort x. Diese vektorwertige Funktion von t und
x (die nichtlinear von u abhängt!) nennt man substantielle (oder materielle oder konvektive)
Zeitableitung von u, und sie geht in die Gleichgeweichtsgleichungen ein, die in der Hydrodynamik
zur Bestimmung der unbekannten Funktion u dienen. Die erstaunlichen Schwierigkeiten, die bei
der analytischen und/oder numerischen Behandlung dieser Gleichungen entstehen, wurzeln fast
alle in der Nichtlinearität (2.9).
17
2.3
Interpretationen der Ableitungen
Der Fall n = 1. Tangenten: Es sei X ⊆ R offen, und f : X → Rm sei differenzierbar in
x ∈ X. Dann artet f ′ (x) zu einem Spaltenvektor aus Rm aus,
 ′

f1 (x)
f (x + y) − f (x)


..
,
f ′ (x) = 
 = lim
.
t→0
y
′
fm (x)
d.h. f ′ (x) ist der Grenzwert der Sekantenvektoren (f (x+y)−f (x))/y für y → 0. Wenn f ′ (x) 6= 0,
dann heißt die Gerade
{f (x) + f ′ (x)y ∈ Rm : y ∈ R}
Tangente an die Kurve
{f (x) ∈ Rm : x ∈ X}
(2.10)
in x, und sie ist diejenige Gerade in Rm durch den Punkt f (x), die sich am besten an die Kurve
(2.10) in diesem Punkt anschmiegt. Genauer gesagt gilt folgendes: Wenn für ein a ∈ Rm gilt
lim
y→0
f (x + y) − f (x) − ay
= 0,
y
dann ist die Gerade {f (x) + ay ∈ Rm : y ∈ R} die Tangente an die Kurve (2.10) in x, d.h.
a = f ′ (x).
Der Fall m = 1. Gradienten: Es sei X ⊆ Rn offen, und f : X → R sei differenzierbar in
x ∈ X. Dann artet f ′ (x) zu einem Zeilenvektor aus Rn aus. Dieser Vektor wird auch Gradient
von f in x genannt und mit ∇f (x) bezeichnet, d.h.
∇f (x) := (∂1 f (x), . . . , ∂n f (x)),
und es gilt:
(i) Wenn t ∈ (−1, 1) 7→ γ(t) ∈ X differenzierbar ist mit γ(0) = x und f (γ(t)) = f (x) für
alle t ∈ (−1, 1) ist, d.h. wenn die Kurve γ(t) innerhalb der sogenannten Niveaumenge {y ∈ X :
f (y) = f (x)} (vom Niveau f (x)) liegt, so gilt
hγ ′ (0), ∇f (x)i = 0.
(ii) Wenn f stetig differenzierbar ist, dann existiert für alle v ∈ Rn mit kvk = k∇f (x)k ein
ε > 0, so daß gilt
f (x + tv) ≤ f (x + t∇f (x)) für alle t ∈ [0, ε],
d.h. der Vektor ∇f (x) zeigt in die Richtung des maximalen Wachsens von f , lokal in x.
2.4
Die zentralen Sätze
Matrizen-Normen: Wenn man den Vektorraum M(m × n) der m × n-Matrizen mit dem
Vektorraum Rmn der mn-Tupel identifiziert, so kann man in M(m × n) die in Rmn üblichen
18
Normen einführen, z.B. die Euklidische Norm

kAk2 := 
n
m X
X
j=1 k=1
1/2
a2jk 
für A = [ajk ] ∈ M(m × n).
Interessanter und nützlicher sind aber die sogenannten Matrizen-Normen (oder Operator-Normen), die folgendermaßen entstehen: Es seien k · k(m) und k · k(n) zwei Normen in Rm und Rn ,
dann ist durch
kAk(m,n) := sup{kAxk(m) : x ∈ Rn , kxk(n) ≤ 1}
eine Norm in M(m × n) definiert, die (zusätzlich zu den üblichen Norm-Eigenschaften, insbesondere der Dreicksungleichung) die Eigenschaft besitzt, dass
kAxk(m) ≤ kAk(m,n) kxk(n) für alle x ∈ Rn .
Wenn ferner k · k(l) eine Norm in Rl ist und k · k(l,m) bzw. k · k(l,n) die Matrizen-Normen in
M (l × m) bzw. M(l × n), die k · k(l) und k · k(m) bzw. k · k(n) entsprechen, so gilt
kBAk(l,n) ≤ kBk(l,m) kAk(m,n) für alle A ∈ M(m × n), B ∈ M(l × m).
(2.11)
Meistens sind in einem gegebene Kontext die Normen k · k(l) , k · k(m) und k · k(n) gegeben und
fixiert, und dann schreibt man (2.11) einfacher als
kBAk ≤ kBkkAk.
Beispiele: (i) Wenn man k · k(m) = k · k∞ und k · k(n) = k · k∞ wählt, so gilt
kAk(m,n) = max
1≤j≤m
n
X
|ajk |.
k=1
(ii) Wenn man k · k(m) = k · k1 und k · k(n) = k · k1 wählt, so gilt
kAk(m,n) = max
1≤k≤n
m
X
|ajk |.
j=1
(iii) Wenn man k · k(m) = k · k2 und k · k(n) = k · k2 wählt, so gilt

kAk(m,n) ≤ 
n
m X
X
j=1 k=1
1/2
a2jk 
.
Mittelwertsatz: Es seien X ⊆ Rn offen, f : X → Rm stetig differenzierbar, x, y ∈ X, und die
Strecke von x nach y gehöre zu X, d.h. für alle s ∈ [0, 1] gelte sx + (1 − s)y ∈ X. Ferner seien
Normen k · k(m) in Rm und k · k(n) in Rn gegeben. Dann folgt
kf (x) − f (y)k(m) ≤ sup kf ′ (sx + (1 − s)y)k(m,n) kx − yk(n) .
0≤s≤1
19
Satz über implizite Funktionen: Es seien U ⊂ Rm × Rn offen, f : U → Rn stetig differenzierbar, (λ0 , x0 ) ∈ U , f (λ0 , x0 ) = 0 und
det [∂xk fj (λ0 , x0 )]nj,k=1 6= 0.
Dann existieren offene Mengen Λ ⊆ Rm und X ⊆ Rn mit Λ × X ⊆ U , λ0 ∈ Λ und x0 ∈ X, und
es existiert eine stetig differenzierbare Funktion ϕ : Λ → X, so dass für alle λ ∈ Λ und x ∈ X
gilt
f (λ, x) = 0 genau dann, wenn x = ϕ(λ).
Ferner gilt für alle λ ∈ Λ
ϕ′ (λ) = −∂x f (λ, ϕ(λ))−1 ∂λ f (λ, ϕ(λ))
mit
∂x f (λ, x) := [∂xk fj (λ, x)] ∈ M(n × n), ∂λ f (λ, x) := [∂λl fj (λ, x)] ∈ M(n × m).
Satz über den lokalen Diffeomorphismus: Es seien X ⊂ Rn offen, x0 ∈ U , f : X → Rn
stetig differenzierbar und
det f ′ (x0 ) 6= 0.
(2.12)
Dann existieren offene Mengen U ⊆ X und V ⊆ Rn mit x0 ∈ U und f (x0 ) ∈ V , so dass
die Abbildung f die Menge U bijektiv auf die Menge V abbildet und dass die entsprechende
Umkehrabbildung f −1 ebenfalls stetig differenzierbar ist. Ferner gilt für alle x ∈ U
−1
′
.
f −1 (f (x)) = f ′ (x)
Beispiele: (i) Die Funktion f (x) = x3 ist stetig differenzierbar und bijektiv von R auf R,
aber ihre inverse Funktion ist nicht differenzierbar im Punkt Null. Der Satz über den lokalen
Diffeomorphismus arbeitet nicht im Punkt Null, weil f ′ (0) = 0 ist.
(ii) Die Abbildung f : R2 → R2 ,
x
e cos x
f (x, y) =
,
ex sin x
ist stetig differenzierbar, und es gilt
det f ′ (x, y) = det
ex cos x −ex sin x
ex sin x ex cos x
= ex 6= 0.
Folglich arbeitet der Satz über den lokalen Diffeomorphismus in jedem Punkt des R2 , d.h. f ist
in jedem Punkt des R2 lokal invertierbar. Aber f ist nicht injektiv, folglich ist f nicht (global)
invertierbar.
Newton-Verfahren: Es seien X ⊆ Rn offen, f : X → Rn differenzierbar, und es existiere ein
L > 0 mit
kf ′ (x) − f ′ (y)k ≤ Lkx − yk für alle x, y ∈ X.
Ferner gelte für ein x0 ∈ X (2.12) und f (x0 ) = 0. Dann existieren δ > 0 und c > 0, so dass für
alle x1 ∈ Rn mit kx1 − x0 k ≤ δ gilt x1 ∈ X und det f ′ (x1 ) 6= 0 und für alle k ∈ N
xk+1 := xk − f ′ (xk )−1 f (xk ) ∈ X, det f ′ (xk+1 ) 6= 0
und
k+1
kxk+1 − x0 k ≤ ckxk − x0 k2 und ckxk+1 − x0 k ≤ (cδ)2
20
.
2.5
Untermannigfaltigkeiten
Karten, Parametrisierungen und bestimmende Gleichungen: Es seien m ≤ n natürliche
Zahlen. Eine Menge M ⊆ Rn heißt m-dimensionale Untermannigfaltigkeit in Rn , wenn für jeden
Punkt x ∈ M eine (und folglich alle) der folgenden drei äquivalenten Bedingungen gilt:
(i) Es existieren eine offene Menge U ⊆ Rn mit x ∈ U und eine stetig differenzierbare
Abbildung Φ : U → Rn mit
det Φ′ (x) 6= 0, M ∩ U = {y ∈ U : Φm+1 (y) = . . . = Φn (y) = 0}.
(2.13)
Die Abbildung Φ heißt dann (lokale) Karte von M in x.
(ii) Es existieren offene Mengen U ⊆ Rn mit x ∈ U und V ⊆ Rm , eine stetig differenzierbare
Abbildung Ψ : V → Rn und ein ξ ∈ V mit
Ψ(ξ) = x, rang Ψ′ (ξ) = m, M ∩ U = {Ψ(η) : η ∈ V }.
(2.14)
Die Abbildung Ψ heißt dann (lokale) Parametrisierung von M in x, und für j = 1, . . . , m heißen
die Kurven s ≈ 0 7→ Ψ(ξ + sej ) ∈ M Koordinatenlinien auf M durch x (erzeugt durch Ψ).
(iii) Es existieren offene Mengen U ⊆ Rn mit x ∈ U und eine stetig differenzierbare Abbildung
F : U → Rn−m mit
rang F ′ (x) = n − m, M ∩ U = {y ∈ U : F (y) = 0}.
(2.15)
Die Gleichung F (y) = 0 heißt dann (lokal) bestimmende Gleichung von M in x.
Tangentialräume: Es seien M ⊆ Rn eine m-dimensionale Untermannigfaltigkeit in Rn und
x ∈ M . Ferner sei γ : (−1, 1) → Rn eine stetig differenzierbare Abbildung mit γ(t) ∈ M für alle
t ∈ (−1, 1) und γ(0) = x. Dann heißt der Vektor γ ′ (0) ∈ Rn Tangentialvektor an M in x. Der
affine Teilraum
Tx M := {x + v : v ist Tangentialvektor am M in x}
ist dann m-dimensional und heißt Tangentialraum an M in x, und es gilt:
(i) Aus (2.13) folgt Tx M = {x + v : Φ′m+1 (x)v = . . . = Φ′n (x)v = 0}.
(ii) Aus (2.14) folgt Tx M = {x + Ψ′ (ξ)w : w ∈ Rm }. Insbesondere bilden die Tangentialvektoren ∂1 Ψ(ξ), . . . , ∂m Ψ(ξ) an die Koordinatenlinien auf M durch x eine Basis in Tx M .
(iii) Aus (2.15) folgt Tx M = {x + v : F ′ (x)v = 0}.
Beispiel: Es sei f : R2 → R stetig differenzierbar. Dann ist der Graph von f



x1


 ∈ R3 : (x1 , x2 ) ∈ R2
x2
M := 


f (x1 , x2 )
eine zweidimensionale Untermannigfaltigkeit in R3 . Die Abbildung Φ : R3 → R3 :


x1

x2
Φ(x1 , x2 , x3 ) := 
x3 − f (x1 , x2 )
ist eine Karte von M in jedem Punkt von M . Die Abbildung Ψ : R2 → R3 :


ξ1

Ψ(ξ1 , ξ2 ) := 
ξ2
f (ξ1 , ξ2 )
21
ist eine Parametrisierung von M in jedem Punkt von M . Die Abbildung F : R3 → R:
F (x1 , x2 , x3 ) := x3 − f (x2 , x2 )
erzeugt eine bestimmennde Gleichung von M in jedem Punkt von M . Für jeden Punkt


x1
∈M
x2
P := 
f (x1 , x2 )
sind




x1 + s
x1

 und s ≈ 0 7→ 
s ≈ 0 7→ 
x2
x2 + s
f (x1 , x2 + s)
f (x1 + s, x2 )
die (von Ψ erzeugten) Koordinatenlinien auf M durch P , und




1
0
 und ∂2 Ψ(x1 , x2 ) = 

∂1 Ψ(x1 , x2 ) = 
0
1
∂1 f (x1 , x2 )
∂2 f (x1 , x2 )
sind die Tangentialvektoren an die Koordinatenlinien in P , und es gilt



x1 + w1


 ∈ R3 : (w1 , w2 ) ∈ R2 .
TP M = 
x2 + w2


f (x1 , x2 ) + ∂1 f (x1 , x2 )w1 + ∂2 f (x1 , x2 )w2
Die zweidimensionale Sphäre: Die Menge M := {x ∈ R3 : x21 + x22 + x23 = 1} heißt zweidimensionale Sphäre und ist eine zweidimensionale Untermannigfaltigkeit in R3 . Die Abbildung
F : R3 → R:
F (x1 , x2 , x3 ) := x21 + x22 + x23 − 1
erzeugt eine bestimmennde Gleichung von M in jedem Punkt von M . Wegen F ”(x)y = 2(x1 y1 +
x2 y2 + x3 y3 ) = 2hx, yi gilt
Tx M = {x + v ∈ R3 : hx, vi = 0}.
Die Abbildung Ψ : R2 → R3 ,


sin ψ cos ϕ
Ψ(ψ, ϕ) :=  sin ψ sin ϕ  ,
cos ψ
ist eine Parametrisierung von M in jedem Punkt von M außer im Nordpol (0, 0, 1) und im
Südpol (0, 0, −1), denn


cos ψ cos ϕ − sin ψ sin ϕ
rangΨ′ (ψ, ϕ) = rang  cos ψ sin ϕ sin ψ cos ϕ  = 2 genau dann, wenn ψ ∈
/ {kπ : k ∈ Z}.
− sin ψ
0
Ein Kegelschnitt: Die Menge {x ∈ R3 : x21 + x22 − 2x23 = x1 + x2 + x3 − 1 = 0} ist der Schnitt
des Kegels {x ∈ R3 : x21 + x22 = 2x23 } mit der Ebene {x ∈ R3 : x1 + x2 + x3 = 1}, eine Ellipse,
eine eindimensionale Untermannigfaltigkeit in R3 . Die Abbildung
x21 + x22 − 2x23
3
2
F : R → R : F (x) :=
x1 + x2 + x3 − 1
22
erzeugt eine bestimmende Gleichung für M in allen Punkten von M , denn
2x1 2x2 −4x3
rangF ′ (x) = rang
= 2 für alle x ∈ M.
1
1
1
Drehungen der Ebene: Die Menge aller orthogonalen 2 × 2-Matrizen mit positiver Determinate, d.h.
M := {Q ∈ M(2 × 2) : QQT = I, det Q > 0},
ist eine eindimensionale Untermannigfaltigkeit im vierdimensionalen Raum M(2 × 2). Die Abbildung F : M(2 × 2) → S(2 × 2) (S(2 × 2) ist der dreidimensionale Raum der symmetrischen
2 × 2-Matrizen),
F (A) := AAT − I,
erzeugt eine bestimmende Gleichung für M in jedem Punkt von M . Eine Parametrisierung für
M in jedem Punkt von M ist Ψ : R → M(2),
cos ξ − sin ξ
Ψ(ξ) =
.
sin ξ cos ξ
Der Tangentialraum an M in der Einheitsmatrix I ist
TI M = {I + A ∈ M(2 × 2) : F ′ (I)A = A + AT = 0} = {I + A ∈ M(2 × 2) : AT = −A}. (2.16)
Drehungen des Raumes und Eulersche Winkel: Die Menge aller orthogonalen 3 × 3Matrizen mit positiver Determinate, d.h.
M := {Q ∈ M(3 × 3) : QQT = I, det Q > 0}
ist eine dreidimensionale differenzierbare Untermannigfaltigkeit im 9-dimensionalen Vektorraum
M(3 × 3). Die Abbildung F : M(3 × 3) → S(3 × 3) (S(3 × 3) ist der 6-dimensionale Vektorraum
der symmetrischen 3 × 3-Matrizen),
F (A) := AAT − I,
erzeugt eine bestimmende Gleichung für M in jedem Punkt von M , wie die folgende Überlegung
zeigt: Nach der Produktregel gilt F ′ (Q)A = AQT + QAT . Nach dem Satz über Kern und
Bild linearer Abbildungen ist der Rang der linearen Abbildung A ∈ M(3 × 3) 7→ F ′ (Q)A =
AQT + QAT ∈ S(3 × 3) gleich sechs genau dann, wenn die Dimension des Kerns dieser linearen
Abbildung gleich drei ist, d.h. wenn für beliebiges Q ∈ M die Gleichung
AQT + QAT = 0
(2.17)
genau drei linear unabhängige Lösungen besitzt. A ∈ M(3×3) ist Lösung von (2.17) genau dann,
wenn AQT ∈ A(3 × 3) ist (A(3 × 3) ist der 3-dimensionale Vektorraum der antisymmetrischen
3 × 3-Matrizen), d.h. wenn A = BQ mit einem B ∈ A(3 × 3). Weil aber B ∈ M(3 × 3) 7→
BQ ∈ M(3 × 3) linear und bijektiv und folglich dimensionserhaltend ist, folgt dim{BQ : B ∈
A(3 × 3)} = 3.
Ferner gilt (vgl. (2.16))
TQ M = {Q + BQ ∈ M(3 × 3) : B T = −B}.
23
Eine Parametrisierung für M in jedem Punkt von M ist Ψ : R → M(3 × 3):


cos ξ cos ζ − sin ξ cos η sin ζ − cos ξ sin ζ − sin ξ cos η cos ζ
sin ξ sin η
Ψ(ξ, η, ζ) :=  sin ξ cos ζ + cos ξ cos η sin ζ − sin ξ sin ζ + cos ψ cos θ cos ϕ − cos ψ sin θ 
sin η sin ζ
sin η cos ζ
cos η
Wenn e1 , e2 , e3 die kanonische Basis in R3 ist, e′j = Ψ(ξ, η, ζ)ej die neue Orthonormalbasis
nach der Drehung Ψ(ξ, η, ζ) und v ∈ R3 ein Vektor in der Schnittgeraden von span{e1 , e2 } und
span{e′1 , e′2 } mit det[e3 , ψ(ξ, η, ζ)e3 , v] > 0, so gilt:
(i) Der sogenannte Präzessionswinkel ξ ist der Winkel von e1 nach v (Drehung um die e3 Achse gegen den Uhrzeigersinn der e1 , e2 -Ebene).
(ii) Der sogenannte Nutationswinkel η ist der Winkel zwischen e3 und e′3 (Drehung um die
v-Achse).
(iii) Der Winkel ζ ist der Winkel von v nach e′1 (Drehung um die e′3 -Achse gegen den Uhrzeigersinn der e′1 , e′2 -Ebene).
(iv) Ψ(ξ, η, ζ) ist die Nacheinanderausführung der obigen drei “einfachen” Drehungen, d.h.




cos ζ − sin ζ 0
1
0
0
cos ξ − sin ξ 0
Ψ(ξ, η, ζ) =  sin ζ cos ζ 0   0 cos η − sin η   − sin ξ cos ξ 0  .
0
0
1
0 sin η cos η
0
0
1
Die Winkel ξ, η und ζ heißen Eulersche Winkel der Drehung Ψ(ξ, η, ζ).
2.6
Höhere Ableitungen
In diesem Unterkapital sind X ⊆ Rn eine offene Menge und f : X → Rm eine Abbildung.
Höhere Differenzierbarkeit und höhere partielle Ableitungen: (i) Die Abbildung f
heißt zweifach differenzierbar, wenn f differenzierbar ist und wenn alle partiellen Ableitungen
von f differenzierbar sind. Die partiellen Ableitungen der partiellen Ableitungen von f werden
∂2f
zweite partielle Ableitungen von f genannt und mit ∂j ∂k f (x) oder ∂xk ∂xj k (x) bezeichnet, d.h.
∂j ∂k f (x) := lim
t→0
1
(∂k f (x + tej ) − ∂k f (x)) .
t
Ferner schreibt man zur Vereinfachung
∂j2 f (x) := ∂j ∂j f (x) oder
∂ 2 fi
∂ 2 fi
(x)
:=
(x).
∂xj ∂xj
∂x2j
(ii) Für l ∈ N heißt f l-fach differenzierbar, wenn f (l − 1)-fach differenzierbar ist und wenn
alle (l − 1)-ten partiellen Ableitungen von f differenzierbar sind. Die partiellen Ableitungen
dieser (l − 1)-ten partiellen Ableitungen werden l-te partielle Ableitungen von f genannt und
mit
∂ l fi
f (x) (k1 + . . . kr = l)
∂jk11 . . . ∂jkrr f (x) oder
∂xkj11 . . . ∂xkjrr
bezeichnet.
24
Satz von Schwarz: Wenn f zweifach differenzierbar ist, so gilt
∂j ∂k f (x) = ∂k ∂j f (x) für alle 1 ≤ j 6= k ≤ n und x ∈ X.
Höhere (totale) Ableitungen: Wenn f l-fach differenzierbar ist und x ∈ X, so heißt die
multilineare Abbildung
f (l) (x) : Rn × . . . × Rn → Rm : f (l) (x)(v1 , . . . , vl ) :=
n
X
∂k1 . . . ∂kl f (x)v1k1 . . . vlkl (2.18)
k1 ,...kl =1
l-te Ableitung von f in x. In (2.18) sind vjk die Komponenten des Vektors vj ∈ Rn , d.h.


vj1


vj =  ...  für j = 1, . . . , l.
vjn
Wegen dem Satz von Schwarz gilt f (l) (x)(v1 , . . . , vl ) = f (l) (x)(vk1 , . . . , vkl ) für jede Permutation
(k1 , . . . , kl ) von (1, . . . , l). Im Fall l = 2 gilt
′′
f (x)(v, w) =
n
X
X
∂k2 f (x)vk wk +
k
∂k ∂l f (x)(vk wl + vk wk ),
(2.19)
1≤k6=l≤n
und im Fall v1 = . . . = vl gilt
f (l) (x)(w, . . . , w) =
X
k1 +...+kn =l
l!
∂ k1 . . . ∂nkn f (x)w1k1 . . . wnkn .
k1 ! . . . kn ! 1
(2.20)
In (2.20) sind wk die Komponenten des Vektors w ∈ Rn , d.h.


w1


w =  ...  .
wn
Häufig schreibt man für (2.20) auch formal f (l) (x)(w, . . . , w) = (w1 ∂1 + . . . + wn ∂n )l f (x) oder
sogar f (l) (x)(w, . . . , w) = hw, ∇il f (x) wegen der Analogie zur verallgemeinerten binomischen
Formel
X
l!
(x1 + . . . + xn )l =
xk1 . . . xknn .
k1 ! . . . kn ! 1
k1 +...+kn =l
Im Fall n = 2 nimmt (2.20) die folgende Form an:
f (l) (x)(w, . . . , w) =
l X
l
k=0
k
∂1k ∂2l−k f (x)w1k w2l−k .
(2.21)
Hesse-Matrix: Im Fall m = 1 sind die n2 zweiten partiellen Ableitungen von f Zahlen. Diese
schreibt man auch als symmetrische n × n-Matrix
Hf (x) := [∂j ∂k f (x)]nj,k=1
25
und nennt diese Matrix Hesse-Matrix von f in x. Dann nimmt (2.19) die folgende Form an:
′′
f (x)(v, w) = hHf (x)v, wi.
Bemerkung zur Bezeichnungsweise: Wir haben mit Hilfe der höheren partiellen Ableitungen definiert, wann f l-fach differenzierbar ist. Diese Definition arbeitet durch Induktion bzgl. l
durch die Vorschrift
∂k1 ∂k2 . . . ∂kl f := ∂k1 (∂k2 . . . ∂kl f ) .
und das ist möglich, weil die l-ten partiellen Ableitungen und die l −1-ten partiellen Ableitungen
Objekte von derselben Sorte sind, nämlich Abbildungen von X in Rm . Analog kann man induktiv
mit Hilfe der höheren (totalen) Ableitungen durch die Vorschrift
′
(2.22)
f (l) := f (l−1)
definieren, wann f l-fach differenzierbar ist. Das ist allerdings nicht mehr so einfach wie bei
den partiellen Ableitungen, weil die l-te Ableitung und die l − 1-te Ableitung nur dann Objekte
von derselben Sorte sind, wenn man den Begriff “Objekte von derselben Sorte” hinreichend
allgemein faßt. Zum Beispiel müssen dabei die Ableitung nullter Ordnung, also die Abbildung
f : X → Rm , und die Ableitung erster Ordnung, also die Abbildung f ′ : X → M(m × n),
Objekte von derselben Sorte sein. Wir gehen in dieser Vorlesung diesen Weg nicht, weil wir
den Ableitungsbegriff nur für Abbildungen zwischen Rn und Rm eingeführt haben und nicht für
Abbildungen zwischen allgemeineren normierten Vektorräumen. Deshalb führen wir den Begriff
der höheren Ableitung nicht durch (2.22) ein sondern durch (2.18).
Coriolis-Kraft: Eine Punktmasse befinde sich zum Zeitpunkt t am Ort


cos ωt − sin ωt 0
p(t) = Q(t)x(t) mit Q(t) =  sin ωt cos ωt 0  ∈ M(3 × 3) und x(t) ∈ R3
0
0
1
(z.B. Bewegung auf der Erdoberfläche, überlagert mit der Rotation der Erde). Dann gilt nach
der Produktregel
p′′ (t) = Q(t)x′′ (t) + 2Q′ (t)x′ (t) + Q′′ (t)x(t).
Die Gesamtbeschleunigung p′′ (t) ist also die Summe aus der sogenannten relativen Beschleunigung Q(t)x′′ (t) (die Beschleunigung, die ein Beobachter, der sich mit der Masse bewegt und
nichts von der Überlagerung mit der Rotation Q(t) weiß, erwarten würde), der Zentrifugalbeschleunigung Q′′ (t)x(t) und der sogenannten Coriolis-Beschleunigung (vgl. (2.7))
2Q′ (t)x′ (t) = 2ωe3 × Q(t)x′ (t).
Die durch die Coriolis-Beschleunigung erzeugte Coriolis-Kraft −2mωe3 ×Q(t)x′ (t) (m > 0 ist die
Masse) ist orthogonal zu der Ebene, die durch e3 und die Relativgeschwindigkeit Q(t)x′ (t) aufgespannt ist, und sie verschwindet genau dann, wenn die Relativgeschwindigkeit und e3 parallel
sind. Wenn die Relativgeschwindigkeit und e3 nicht parallel sind, so bilden e3 , Coriolis-Kraft
und Relativgeschwindigkeit ein positiv orientiertes Dreibein.
Im Fall der Bewegung auf der Erdoberfläche bedeutet das folgendes: Wenn die Relativgeschwindigkeit z.B. zum Erdmittelpunkt zeigt (freier Fall), so wirkt die Coriolis-Kraft als nach Osten
26
ablenkende Kraft (maximal am Äquator und verschwindend an den Polen). Wenn die Relativgeschwindigkeit dagegen tangential zur Erdoberfläche ist, so bewirkt die Coriolis-Kraft auf der
nördlichen (bzw. südlichen) Halbkugel eine nach rechts (bzw. links) ablenkende Kraft (maximal
an den Polen und verschwindend am Äquator).
2.7
Taylor-Formel
Satz über die Taylor-Formel: Es seien X ⊆ Rn eine offene Menge, f : X → Rm l + 1-fach
differenzierbar, x ∈ X und v ∈ Rn so dass x + tv ∈ X für alle t ∈ [0, 1]. Dann existiert für alle
j = 1, . . . , m ein θj ∈ (0, 1), so daß gilt
fj (x + v) =
l
X
1
1 (k)
(l+1)
fj (x)(v, . . . , v) +
f
(x + θj v)(v, . . . , v).
k!
(l + 1)! j
k=0
Wegen (2.18) ist das äquivalent zu
fj (x + v) =
l
X
X
k=0 k1 +...+kn =k
X
+
k1 +...+kn =l+1
1
∂1k1 . . . ∂nkn fj (x)v1k1 . . . vnkn
k1 ! . . . kn !
1
∂ k1 . . . ∂nkn fj (x + θj v)v1k1 . . . vnkn .
k1 ! . . . kn ! 1
Das sogenannte Restglied kann man auch in Integralform schreiben:
Z 1
(1 − s)l (l+1)
1
(l+1)
fj
(x + θj v)(v, . . . , v) =
fj
(x + sv)(v, . . . , v)ds.
(l + 1)!
l!
0
Das Polynom
n
v = (v1 , . . . , vn ) ∈ R 7→
Plf,x (v)
:=
l
X
X
k=0 k1 +...+kn =k
1
∂ k1 . . . ∂nkn f (x)v1k1 . . . vnkn ∈ Rm
k1 ! . . . kn ! 1
heißtTaylor-Polynom der Ordnung l von f im Punkt x.
Spezialfälle: (i) l = 2: Wegen (2.19) gilt
P2f,x (v) = f (x) +
n
X
n
∂k f (x)vk +
1X 2
∂k f (x)vk2 +
2
k=1
k=1
X
1≤j<k≤n
(ii) l = 2, m = 1:
1
P2f,x (v) = f (x) + h∇f (x), vi + hHf (x)v, vi.
2
(iii) n = 2: Wegen (2.21) gilt
Plf,x (v) =
j l
X
1 X j k j−k
∂ ∂ f (x)v1k v2j−k .
j!
k 1 2
j=0
k=0
27
∂j ∂k f (x)vj vk .
2.8
Lokale Extrema mit und ohne Nebenbedingungen
In diesem Unterkapitel sind X ⊆ Rn offen, f : X → R und g : X → Rm mit m ∈ {0, 1, . . . , n},
f ist die Funktion, deren lokale Extrema gesucht werden, g beschreibt die Nebenbedingungen
dabei, und m ist die Anzahl der Nebenbedingungen. Insbesondere ist der Fall m = 0 (dann ist
g(x) = 0 für alle x ∈ X) der Fall ohne Nebenbedingungen.
Ein Punkt x0 ∈ X mit g(x0 ) = 0 heißt lokales Minimum von f unter der Nebenbedingung
g(x) = 0,
(2.23)
wenn ein ε > 0 existiert, so dass für alle x ∈ X mit (2.23) gilt f (x) ≥ f (x0 ). Analog sind lokale
Maxima von f unter der Nebenbedingung (2.23) sowie strenge lokale Minima und Maxima von
f unter der Nebenbedingung (2.23) definiert. Im Fall m = 0 spricht man nur von Extrema von
f.
Notwendige Bedingung für lokale Extrema. Lagrange-Multiplikatoren: Wenn f und
g stetig differenzierbar sind, x0 ∈ X ein lokales Extremum von f unter der Nebenbedingung
(2.23) ist und wenn
rang g ′ (x0 ) = m
(2.24)
ist, so existieren sogenannte Lagrange-Multiplikatoren λ1 , . . . , λm ∈ R mit
∇f (x0 ) =
m
X
λj ∇gj (x0 ).
(2.25)
j=1
Definitheit von Matrizen: Es seien A ∈ M(n × n) eine symmetrische Matrix und V ⊆ Rn
ein Unterraum.
(i) A heißt positiv (bzw. negativ) definit auf V , wenn für alle v ∈ V \ {0} gilt hAv, vi > 0
(bzw. hAv, vi < 0).
(ii) A heißt indefinit auf V , wenn v+ , v− ∈ V existieren mit hAv+ , v+ i > 0 und hAv− , v− i < 0.
Regeln von Sylvester: Es seien A = [ajk ] ∈ M(n × n) eine symmetrische Matrix und
Ml := [ajk ]lj,k=1 ∈ M(l × l) für l = 1, . . . , n
die sogenannten Hauptminore von A. Dann gilt:
(i) Wenn für alle l = 1, . . . , n gilt det Ml > 0, so ist A positiv definit auf Rn .
(ii) Wenn gilt det M1 < 0, det M2 > 0, det M3 < 0, . . ., so ist A negativ definit auf Rn .
(iii) Wenn gilt det M2 < 0, so ist A indefinit auf Rn .
(iv) Wenn gilt det M1 > 0, det M2 > 0, det M3 < 0, so ist A indefinit auf Rn .
(v) Wenn gilt det M1 < 0, det M2 > 0, det M3 > 0, so ist A indefinit auf Rn .
Hinreichende Bedingung für strenge lokale Extrema: Wenn f und g zweifach stetig
differenzierbar sind, x0 ∈ X und (λ1 , . . . , λm ) ∈ Rm (2.24) und (2.25) erfüllen und wenn
n
′
V := {v ∈ R : g (x0 )v = 0} und A := Hf (x0 ) −
m
X
λj ∇Hgj (x0 )
j=1
ist, so gilt:
(i) Wenn A positiv (bzw. negativ) definit auf V ist, so ist x0 ein strenges lokales Minimum
28
(bzw. Maximum) von f unter der Nebenbedingung (2.23).
(ii) Wenn A indefinit auf V ist, so ist x0 kein lokales Extremum von f unter der Nebenbedingung (2.23).
Der Fall m = 0, n = 2: (i) Wenn f stetig differenzierbar ist und x0 ∈ X ein lokales Extremum
von f ist, so gilt
∂1 f (x0 ) = ∂2 f (x0 ) = 0.
(2.26)
(ii) Wenn f zweifach stetig differenzierbar ist und wenn x0 ∈ X
∂12 f (x0 )∂22 f (x0 ) < (∂1 ∂2 f (x0 ))2
erfüllt, so ist x0 kein lokales Extremum von f .
(iii) Wenn f zweifach stetig differenzierbar ist und wenn x0 ∈ X (2.26) und
∂12 f (x0 )∂22 f (x0 ) > (∂1 ∂2 f (x0 ))2 , ∂12 f (x0 ) < 0
erfüllt, so ist x0 ein strenges lokales Minimum von f .
(iv) Wenn f zweifach stetig differenzierbar ist und wenn x0 ∈ X (2.26) und
∂12 f (x0 )∂22 f (x0 ) > (∂1 ∂2 f (x0 ))2 , ∂12 f (x0 ) > 0
erfüllt, so ist x0 ein strenges lokales Maximum von f .
3
3.1
Mehrdimensionale Integralrechnung
Integrierbarkeit und Integral
Quader, Zerlegungen, Zwischenwertevektoren, Riemannsche Summen, Integrierbarkeit und Integral: (i) Für j = 1, . . . , n seien reelle Zahlen aj ≤ bj gegeben. Dann heißt die
Menge
Q = {x = (x1 , . . . , xn ) ∈ Rn : aj ≤ xj ≤ bj für alle j = 1, . . . , n}
(beschränkter, abgeschlossener, achsenparalleler, n-dimensionaler ) Quader, und
mes Q := (b1 − a1 ) · . . . · (bn − an )
heißt Maß von Q.
(ii) Es seien Q1 , . . . , Qm ⊂ Q Quader mit
Q=
m
[
Qj ,
j=1
und für alle j 6= k gelte entweder Qj ∩ Qk = ∅ oder mes Qj ∩ Qk = 0. Dann heißt die Menge
Z = {Q1 , . . . , Qm } Zerlegung von Q. Das Maximum aller Seitenlängen aller Quader in Z heißt
Feinheit von Z.
(iii) Für j = 1, . . . , m seien Vektoren ξj ∈ Qj gegeben. Dann heißt der Vektor
ξ = (ξ1 , . . . , ξm ) ∈ Rmn
29
Zwischenwertevektor zu der Zerlegung Z.
(iv) Eine Funktion f : Q → R heißt integrierbar, wenn ein I ∈ R existiert, so daß folgendes
gilt: Für alle ε > 0 existiert ein δ > 0, so daß für alle Zerlegungen Z von Q, deren Feinheit
kleiner als δ ist, sowie für alle Zwischenwertevektoren ξ zu Z gilt
m
X
f (ξj ) mes Qj − I < ε.
j=1
Die Zahl I (die dann durch die obige Bedingung eindeutig bestimmt ist) heißt Integral von f
über Q, und man schreibt
Z
Z
f (x)dx := I.
f (x1 , . . . , xn )dx1 . . . dxn :=
Q
Q
Pm
Die Summe k=1 f (ξj ) mes Qj heißt Riemannsche Summe der Funktion f zur Zerlegung Z und
zu dem Zwischenwertevektor ξ.
(v) Es sei X eine beschränkte Teilmenge in Rn . Eine Funktion f : X → R heißt integrierbar,
wenn ein Quader Q in Rn mit X ⊆ Q existiert, so daß die Nullfortsetzung f˜ : Q → R von f auf
Q, d.h.
f (x) für x ∈ X,
˜
f (x) :=
0 für x ∈ Q \ X,
integrierbar ist. Die Zahl
Z
f (x)dx :=
X
Z
f˜(x)dx.
Q
heißt dann Integral von f über X (und ist, ebenso wie die Integrierbarkeitseigenschaft von f ,
nicht von der Wahl von Q abhängig).
Nullmengen: Eine Menge X ⊂ Rn heißt Nullmenge in Rn , wenn für alle ε > 0 eine Folge von
Quadern Q1 , Q2 , . . . in Rn existiert mit
X⊂
∞
[
Qj und
∞
X
mes Qj < ε.
n=1
j=1
Beispiele: (i) Eine abzählbare Vereinigung von Nullmengen ist wieder eine Nullmenge.
(ii) Es seien X ⊂ Rn−1 abgeschlossen und beschränkt und f : X → R stetig. Dann ist der
Graph von f
{(x1 , . . . , xn−1 , f (x1 , . . . , xn−1 ) ∈ Rn : (x1 , . . . , xn−1 ) ∈ X}
eine Nullmenge in Rn .
Meßbare Mengen und Maß: Es sei X eine beschränkte Teilmenge des Rn , dann sind folgende
Bedingungen äquivalent:
(i) ∂X ist eine Nullmenge.
(ii) Die konstante Funktion x ∈ X 7→ 1 ∈ R ist integrierbar.
Wenn (i) und (ii) erfüllt sind, so nennt man X meßbar, man definiert
Z
dx
mesX :=
X
30
und nennt diese Zahl Maß von X, und es gilt


∞
∞

X
[
Qj , mes Qj ∩ Qk = 0 für alle j 6= k
mesQj : Qj ⊂ Rn Quader, X ⊆
mesX = inf


j=1
j=1


∞

X
mesQj : Qj ⊆ X Quader, mes Qj ∩ Qk = 0 für alle j 6= k .
= sup


j=1
Satz von Lebesgue: Es sei X ⊂ Rn meßbar, dann gilt: Eine Funktion f : X → R ist
integrierbar genau dann, wenn f beschränkt ist und wenn die Menge ihrer Unstetigkeitspunkte
{x ∈ X : f ist in x unstetig} eine Nullmenge ist.
3.2
Rechenregeln
Linearität bzgl. des Integranden: Es seien X eine beschränkte Teilmenge des Rn , λ, µ ∈ R,
und die Funktionen f, g : X → R seien integrierbar. Dann ist auch die Funktion λf + µg
integrierbar, und es gilt
Z
Z
Z
g(x)dx.
f (x)dx + µ
(λf (x) + µg(x)) dx = λ
X
X
X
Additivität bzgl. des Integrationsgebiets: Es seien X, Y ⊂ Rn zwei meßbare Mengen. Dann
sind auch die Mengen X ∪ Y und X ∩ Y meßbar. Wenn ferner f : X ∪ Y → R eine integrierbare
Funktion ist, so sind auch ihre Einschränkungen f |X , f |Y und f |X ∩ Y integrierbar, und es gilt
Z
Z
Z
Z
f (x)dx.
f (x)dx −
f (x)dx +
f (x)dx =
X∪Y
Y
X
X∩Y
Integration von Ungleichungen: Es sei M ⊂ Rn beschränkt. Wenn zwei Funktionen f, g :
X → R integrierbar sind und wenn für alle x ∈ X gilt f (x) ≤ g(x), so gilt auch
Z
Z
g(x)dx.
f (x)dx ≤
X
X
Integralabschätzungen: Wenn X ⊂ Rn meßbar ist und wenn f : X → R integrierbar ist, so
gilt
Z
f (x)dx ≤ sup{f (x) : x ∈ X} mes X.
inf{f (x) : x ∈ X} mes X ≤
X
Ferner ist dann auch die Funktion |f | integrierbar, und es gilt
Z
Z
f (x)dx ≤
|f (x)|dx.
X
X
31
3.3
Mehrfachintegrale und der Satz von Fubini
Satz von Fubini: Es seien M ⊂ Rm × Rn eine beschränkte Menge und f : M → R eine
integrierbare Funktion. Ferner sei
X := {x ∈ RM : Es existiert ein y ∈ Rn mit (x, y) ∈ M .},
und für alle x ∈ X sei die Funktion f (x, ·) : Mx := {y ∈ Rn : (x, y) ∈ M } integrierbar. Dann ist
auch die Funktion
Z
f (x, y)dy
x ∈ X 7→
Mx
integrierbar, und es gilt
Z
f (x, y)dxdy =
Z Z
X
M
Mx
f (x, y)dy dx.
Beispiel: Es seien a < b zwei reelle Zahlen, ϕ+ , ϕ− : [a, b] → R zwei stetige Funktionen mit
ϕ− (x) ≤ ϕ+ (x) für alle x ∈ [a, b] und
ψ+ , ψ− : M0 := {(x, y) ∈ R2 : a ≤ x ≤ b, ϕ− (x) ≤ yϕ+ (x)} → R
zwei stetige Funktionen mit ψ− (x, y) ≤ ψ+ (x, y) für alle (x, y) ∈ M0 . Dann ist jede stetige
Funktion
f : M := {(x, y, z) ∈ R3 : a ≤ x ≤ b, ϕ− (x) ≤ y ≤ ϕ+ (x), ψ− (x, y) ≤ z ≤ ψ+ (x, y)} → R
integrierbar, und es gilt
Z
f (x, y, z)dxdydz =
Z
a
M
b
Z
ϕ+ (x)
ϕ− (x)
Z
ψ+ (x,y)
ψ− (x,y)
f (x, y, z)dz
!
!
dy dx.
Prinzip von Cavalieri: Es seien a < b zwei reelle Zahlen, und für jedes x ∈ [a, b] seien meßbare
Mengen Mx ⊂ Rn gegeben so dass die Funktion
x ∈ [a, b] 7→ mes Mx ∈ R
integrierbar ist. Dann ist auch die Menge M := {(x, y) ∈ Rn+1 : x ∈ [a, b], y ∈ Mx } meßbar,
und es gilt
Z b
mes Mx dx.
mes M =
a
3.4
Transformationsformel
Satz: Es seien U eine offene Teilmenge des Rn , X eine meßbare Teilmenge von U , g : U → Rn
eine injektive, stetig differenzierbare Abbildung mit det g′ (x) 6= 0 für alle x ∈ U und f : g(U ) →
R eine beschränkte stetige Funktion. Dann ist auch die Menge g(X) meßbar, und es gilt
Z
Z
f (g(x))| det g′ (x)|dx.
f (y)dy =
g(X)
X
32
Beispiele: (i) Polarkoordinaten: Wenn f : R2 → R stetig ist, so gilt für alle R > 0
Z
f (x, y)dxdy =
x2 +y 2 ≤R2
R
Z
r
Z
0
0
2π
f (r cos ϕ, r sin ϕ)dϕ dr.
(ii) Kugelkoordinaten: Wenn f : R3 → R stetig ist, so gilt für alle R > 0
Z
f (x, y, z)dxdydz
x2 +y 2 +z 2 ≤R2
Z R Z π
2
r
=
0
0
sin ψ
Z
2π
0
f (r cos ϕ sin ψ, r sin ϕ sin ψ, r cos ψ)dϕ dψ dr.
Guldinsche Regel: Es sei M ∈ R2 eine meßbare Menge, und es gelte x ≥ 0 für alle (x, z) ∈ M .
Dann ist auch die entsprechende Rotationsmenge (Rotation um die z-Achse)
X := {(r cos ϕ, r sin ϕ, z) ∈ R3 : (r, z) ∈ M, 0 ≤ ϕ ≤ 2π}
meßbar, und es gilt
mesX = 2π
3.5
Z
xdxdz.
M
Kurvenintegrale. Gradientenfelder und ihre Potentiale
In diesem und in den nächsten Unterkapiteln ist h·, ·i : Rn × Rn → R das Euklidische Skalarprodukt, und k · k : Rn → [0, ∞[ ist die Euklidische Norm, d.h. kxk2 = hx, xi für alle x ∈ Rn .
Kurven: Eine Menge K ⊂ Rn heißt (kompakte, stückweise stetig differenzierbare) Kurve (ohne
Selbstschneidung), wenn reelle Zahlen a ≤ s0 < s1 , . . . < sm ≤ b und eine stetige Abbildung
γ : [0, 1] → Rn existieren so dass gilt:
(i) K = {γ(s) : s ∈ [a, b]}.
(ii) Für alle a ≤ s 6= t ≤ b mit γ(s) = γ(t) gilt s, t ∈ {a, b}.
(iii) γ ist in [a, b] \ {s0 , s1 , . . . , sm } stetig differenzierbar, und es existieren Konstanten c+ >
c− > 0 mit c+ ≥ kγ ′ (s)k ≥ c− für alle s ∈ [a, b] \ {s0 , s1 , . . . , sm }.
Die Abbildung γ heißt dann Parametrisierung der Kurve K. Wenn γ(a) = γ(b) gilt für eine (und
dann für jede) Parametrisierung γ von K, so heißt K geschlossen.
C 1 -Kurven: Eine Kurve, für die für die eine Parametrisierung γ : [a, b] → K existiert, die
überall in [a, b] stetig differenzierbar ist, heißt C 1 -Kurve.
(Nichtorientiertes) Kurvenintegral von Funktionen: Es seien K ⊂ Rn eine Kurve, γ :
[a, b] → Rn eine Parametrisierung von K und f : K → R eine stetige Funktion. Dann heißt
Z
f dγ :=
Z
b
f (γ(s))kγ ′ (s)kds
a
K
Integral von f über K (und ist nur von f und K, nicht aber von γ abhängig). Insbesondere ist
Z
K
dγ =
Z
b
a
33
kγ ′ (s)kds
die Bogenlänge von K, d.h. das Supremum der Längen aller in K eingeschriebenen Polygonenzüge.
Interpretation: Wenn K ⊂ R3 einen Draht im RRaum beschreibt und f : K → [0, ∞[ die
Massedichte des Drahtes (Masse pro Länge), so ist K f dγ die Gesamtmasse des Drahtes.
Orientierte Kurven: Zwei Parametrisierungen γ1 und γ2 einer Kurve K heißen gleichorientiert, wenn γ1 ◦ γ2−1 monoton wachsend ist. Das ist eine Äquivalenzrelation in der Menge
aller Parametrisierungen von K, und es existieren genau zwei verschiedene Äquivalenzklassen.
Die Kurve K gemeinsam mit einer der beiden Äquivalenzklassen heißt orientierte Kurve oder
Kurve mit vorgegebener Durchlaufrichtung. Die Parametrisierungen aus dieser ausgewählten
Äquivalenzklasse heißen positiv orientiert. Wenn γ : [a, b] → Rn eine positiv orientierte Parametrisierung von K ist, so heißen die Punkte γ(a) bzw. γ(a) Anfangs- bzw. Endpunkt von K (und
sie hängen nicht von der Wahl von γ ab).
(Orientiertes) Kurvenintegral von Vektorfeldern: Es seien K ⊂ Rn eine orientierte Kurve,
γ : [a, b] → K eine positiv orientierte Parametrisierung von K und v : K → Rn ein stetiges
Vektorfeld. Dann heißt
Z
Z
b
v · dγ :=
hv(γ(s)), γ ′ (s)ids
a
K
Integral von v über K und ist nur von v und K, nicht aber von γ abhängig. Anstelle von
schreibt man auch
Z
Z
v1 dx1 + . . . vn dxn .
hv, dγi oder
K
K
R
Wenn K geschlossen ist, so nennt man K v · dγ Zirkulation von v entlang K.
R
K
v · dγ
(3.1)
Einheitstangentenfeld: Es seien K ⊂ Rn eine orientierte C 1 -Kurve und γ : [a, b] → K eine
positiv orientierte Parametrisierung, die überall in [a, b] stetig differenzierbar ist. Dann heißt die
Abbildung τ : K → Rn , die (unabhängig von der Wahl von γ) definiert ist durch
τ (γ(x)) :=
γ ′ (x)
,
kγ ′ (x)k
positiv orientiertes Einheitstangentenfeld an K, und es gilt für jedes stetige Vektorfeld v : K →
Rn
Z
Z
v · dγ = hv, τ idγ.
K
K
Dabei ist das rechte Integral das (nichtorientierte) Kurvenintegral von der Funktion x ∈ K 7→
hv(x), τ (x)i ∈ R.
Interpretation: Wenn K ⊂ R3 einen Weg im RRaum beschreibt (vom Anfangs- zum Endpunkt
von K) und v : K → R3 ein Kraftfeld, so ist K v · dγ die Arbeit, die notwendig ist, um eine
Punktmasse vom Anfangs- zum Endpunkt von K zu bewegen.
Bogenzusammenhängende Mengen: Eine Menge X ∈ Rn heißt bogenzusammenhängend,
wenn für alle x, y ∈ X eine stetige Abbildung γ : [0, 1] → X existiert mit γ(0) = x und γ(1) = y.
Einfach zusammenhängende Mengen: Eine Menge X ∈ Rn heißt einfach zusammenhängend,
wenn sie bogenzusammenhängend ist und wenn für alle stetigen Abbildungen γ : [0, 1] → X mit
γ(0) = γ(1) eine stetige Abbildung δ : [0, 1] × [0, 1] → X existiert mit
δ(0, t) = γ(t) und δ(1, s) = δ(1, t) für alle s, t ∈ [0, 1].
34
Notwendige und hinreichende Bedingungen für die Existenz eines Potentials: Es
seien X ⊆ Rn offen und v : X → Rn ein differenzierbares Vektorfeld auf X. Dann gilt:
(i) Wenn eine differenzierbare Abbildung Φ : X → R existiert mit
∇Φ(x) = v(x) für alle x ∈ X,
so heißt v Gradientenfeld, und Φ heißt Potential von v.
(ii) Das Vektorfeld v ist Gradientenfeld genau dann, wenn für alle orientierten geschlossenen
Kurven K ⊂ X gilt
Z
v · dγ = 0.
K
(iii) Wenn v Gradientenfeld ist, so gilt
∂k vj (x) = ∂j vk (x)für alle 1 ≤ j 6= k ≤ n und x ∈ X.
(3.2)
(iv) Wenn X einfach zusammenhängend ist und wenn (3.2) gilt, so ist v ein Gradientenfeld,
und ein Potential von v kann folgendermaßen berechnet werden: Fixiere ein x0 ∈ X. Für gegebenes x ∈ X wähle eine orientierte Kurve Kx ⊂ X, die eine positiv orientierte Parametrisierung
γx : [a, b] → Kx mit γx (a) = x0 und γx (b) = x besitzt. Dann gilt
Z
v · dγ.
Φ(x) =
Kx
(v) Es sei X einfach zusammenhängend, v ein Gradientenfeld, Φ ein Potential von v, und
K ⊂ X sei eine orientierte Kurve. Dann gilt für jede positiv orientierte Parametrisierung γ :
[a, b] → Rn von K
Z
v · dγ = Φ(γ(b)) − Φ(γ(b)).
K
Beispiele: (i) X ⊂ R ist genau dann bogenzusammenhängend, wenn X ein Intervall ist.
(ii) Die Menge {(x, y) ∈ R2 : xy = 0, x2 + y 2 > 0} ist nicht bogenzusammenhängend.
(iii) Die Menge R2 \{(0, 0} ist bogenzusammenhängend, aber nicht einfach zusammenhängend.
Die Menge R3 \ {(0, 0, 0} ist einfach zusammenhängend.
(iv) Das Vektorfeld v : R2 \ {(0, 0} → R2 ,
x
y
,
v(x, y) := − 2
x + y 2 x2 + y 2
erfüllt (2.26), ist aber kein Gradientenfeld.
Rotation von Vektorfeldern: Wenn X ⊆ R3 offen ist und v : X → R3 ein differenzierbares
Vektorfeld auf X, so nennt man das Vektorfeld rot v : X → R3 , das definiert ist durch


∂2 v3 (x) − ∂3 v2 (x)
rotv(x) :=  ∂3 v1 (x) − ∂1 v3 (x)  ,
∂1 v2 (x) − ∂2 v1 (x)
Rotation (oder flächenhafte Wirbeldichte) von v, und die Bedingung (3.2) kann man dann schreiben als rot v = 0. Anstelle von rot v schreibt man auch ∇ × v.
35
Wirbelfreie Vektorfelder: Es seien X ⊆ R3 eine offene Menge, v : X → R3 ein stetig
differenzierbares Vektorfeld, und es gelte rot v(x) = 0 für alle x ∈ X. Dann heißt v wirbelfrei.
Insbesondere ist jedes Gradientenfeld wirbelfrei. Wenn X zusätzlich einfach zusammenhängend
ist, so ist jedes wirbelfreie Vektorfeld ein Gradientenfeld, und seine Zirkulation entlang jeder
geschlossenen Kurve ist Null.
3.6
Flächenintegrale
Jordanscher Kurvensatz: Es sei K ⊂ R2 eine geschlossene Kurve. Dann existieren zwei
offene, bogenzusammenhängende Mengen G, G̃ ⊂ R2 mit folgenden Eigenschaften:
(i) G ∪ G̃ ∪ K = R2 .
(ii) G ∩ G̃ = ∅, ∂G = ∂ G̃ = K.
(iii) G ist beschränkt, und G̃ ist unbeschränkt.
Flächenstücke: Eine Menge F ⊂ R3 heißt (stetig differenzierbares) Flächenstück (mit stückweise
stetig differenzierbarem Rand), wenn offene Mengen G, U ⊆ R2 mit Ḡ ⊂ U und eine stetig differenzierbare Abbildung Φ : U → R3 existieren mit folgenden Eigenschaften:
(i) F = Φ(Ḡ).
(ii) Für alle x ∈ Ḡ gilt rang Φ′ (x) = 2.
(iii) Für alle x, y ∈ Ḡ mit x 6= y und Φ(x) = Φ(y) gilt x, y ∈ ∂G.
(iv) G ist beschränkt und bogenzusammenhängend, und ∂G ist eine geschlossene Kurve.
Die Abbildung Φ heißt dann Parametrisierung von F, und die Menge Ḡ heißt Parameterbereich
der Parametrisierung Φ.
(Geometrischer) Rand eines Flächenstücks: Es sei F ein Flächenstück. Ein Punkt y ∈ F
heißt Randpunkt von F wenn folgendes gilt:
∃r0 > 0 ∀r ∈ (0, r0 ) : K(y, r) \ F ist bogenzusammenhängend.
Dabei ist K(y, r) := {z ∈ R3 : ky − zk < r} die offene Kugel (bzgl. der Euklidischen Norm) um
y mit dem Radius r. Die Menge aller Randpunkte von F heißt (geometrischer) Rand von F und
wird mit ∂F bezeichnet. ∂F besteht aus endlich vielen disjunkten geschlossenen C 1 -Kurven und
ist eine teilmenge von Φ(∂G).
Bemerkung zur Terminologie: Ein Flächenstück F besitzt keine inneren Punkte (im Sinne
von Kapitel 1.8), folglich ist der topologische Rand von F (ebenfalls im Sinne von Kapitel 1.8)
die Menge F selbst, also nicht sehr interessant. Deshalb ist, wenn vom Rand eines Flächenstücks
F gesprochen wird oder wenn die Bezeichnung ∂F benutzt wird, stets der geometrische Rand gemeint. Im Gegensatz dazu ist, wenn Φ eine Parametrisierung von F mit einem Parameterbereich
Ḡ ist, mit der Bezeichnung ∂G der topologische Rand gemeint.
Beispiele: (i) Graphen: Es seien G ⊂ R2 beschränkt und bogenzusammenhängend, ∂G sei eine
geschlossene Kurve, U ⊆ R2 sei offen mit Ḡ ⊂ U , und φ : U → R sei stetig differenzierbar. Dann
ist der Graph F := {(x1 , x2 , φ(x1 , x2 )) ∈ R3 : (x1 , x2 ) ∈ Ḡ} von φ ein Flächenstück,
Φ : U → R3 , Φ(x1 , x2 ) := (x1 , x2 , φ(x1 , x2 ))
(3.3)
ist eine Parametrisierung von F mit dem Parameterbereich Ḡ, und es gilt ∂F = Φ(∂G).
(ii) Sphäre: Es seien U = R2 , G = (0, 2π)×(0, π), Φ(ϕ, ψ) = (cos ϕ sin ψ, sin ϕ sin ψ, cos ψ) und
36
F = {(x, y, z) ∈ R3 : x2 + y 2 + z 2 = 1}. Dann ist F ein Flächenstück mit der Parametrisierung
Φ, und ∂F = ∅.
(iii) Kegelmantel: Es seien U = R2 , G = (0, 2π)×(0, 1), Φ(ϕ, z) = ((1−z) cos ϕ, (1−z) sin ϕ, z)
und F = {(x, y, z) ∈ R3 : x2 + y 2 = (1 − z)2 , 0 ≤ z ≤ 1}. Dann ist F ein Flächenstück mit der
Parametrisierung Φ, und ∂F = {(x, y, 0) ∈ R3 : x2 + y 2 = 1}.
(iv) Zylindermantel: Es seien U = R2 , G = (0, 2π) × (0, 1), Φ(ϕ, z) = (cos ϕ, sin ϕ, z) und F =
{(x, y, z) ∈ R3 : x2 + y 2 = 1, 0 ≤ z ≤ 1}. Dann ist F ein Flächenstück mit der Parametrisierung
Φ, und ∂F = {(x, y, z) ∈ R3 : x2 + y 2 = 1, z = ±1}.
Tangentialebene, Normalenvektor und Gramsche Determinante: Es seien F ein Flächenstück und Φ eine Parametrisierung von F mit dem Parameterbereich Ḡ. Dann ist Φ(G) eine
zweidimensionale Untermannigfaltigkeit in R3 , und die Vektoren ∂1 Φ(x) und ∂2 Φ(x) bilden eine
Basis in der Tangentialebene an Φ(G) im Punkt Φ(x). Folglich ist der Vektor ∂1 Φ(x) × ∂2 Φ(x)
orthogonal zu diesem Tangentialraum (ein sogenannter Normalenvektor zu Φ(G) in Φ(x)), und
es gilt
k∂1 Φ(x) × ∂2 Φ(x)k2 = det [h∂j Φ(x), ∂k Φ(x)i]2j,k=1 .
(3.4)
Die rechte Seite von (3.4) heißt Gramsche Determinante der Parametrisierung Φ im Punkt x
und ist gleich dem Quadrat der Fläche des Parallelogramms, das durch die Vektoren ∂1 Φ(x) und
∂2 Φ(x) aufgespannt wird. Im Fall (3.3) gilt
k∂1 Φ(x) × ∂2 Φ(x)k2 = 1 + ∂1 φ(x)2 + ∂2 φ(x)2 .
(Nichtorientiertes) Flächenintegral von Funktionen: Es seien F ⊂ Rn ein Flächenstück,
Φ eine Parametrisierung von F mit dem Parameterbereich Ḡ und f : F → R eine stetige
Funktion. Dann heißt
Z
Z
f (Φ(x))k∂1 Φ(x) × ∂2 Φ(x)kdx
f dF :=
G
F
Integral von f über F (und ist nur von f und F, nicht aber von Φ abhängig). Die Zahl
Z
Z
k∂1 Φ(x) × ∂2 Φ(x)kdx
dF =
F
G
heißt Fläche von F.
Beispiel: Es sei G = (a, b) × (c, d) ein Rechteck. Dann ist
Z
k∂1 Φ(x, y) × ∂2 Φ(x, y)kdxdy
G
m
X
b−a
d−c
d−c b−a
(b − a)(d − c) .
,c + k
× ∂2 Φ a + j
= lim
∂1 Φ a + j m , c + k m
m→∞
m2
m
m j,k=1
Die Summanden in der rechten Seite sind die Flächen der Parallelogramme, die durch die Vektoren
b−a
d−c
b−a
d−c
b−a
d−c
∂1 Φ a + j
,c + k
∂2 Φ a + j
,c + k
und
m
m
m
m
m
m
aufgespannt sind.
37
Orientierbare und orientierte Flächenstücke: Zwei Parametrisierungen Φ und Ψ eines
Flächenstücks F mit Paremeterbereichen Ḡ und H̄ heißen gleichorientiert, wenn gilt
h∂1 Φ(x) × ∂2 Φ(x), ∂1 Ψ(y) × ∂2 Ψ(y)i > 0 für alle x ∈ G, y ∈ H mit Φ(x) = Ψ(y).
Das ist eine Äquivalenzrelation in der Menge aller Parametrisierungen von F, und es existieren mindestens zwei verschiedene Äquivalenzklassen. F heißt orientierbar, wenn genau zwei
verschiedene Äquivalenzklassen existieren. Wenn F orientierbar ist, so heißt F gemeinsam mit
einer der beiden Äquivalenzklassen orientiertes Flächenstück oder Flächenstück mit vorgegebener Drehrichtung. Die Parametrisierungen aus dieser ausgewählten Äquivalenzklasse heißen
positiv orientiert.
(Orientiertes) Flächenintegral von Vektorfeldern: Es seien F ein orientiertes Flächenstück, Φ eine positiv orientierte Parametrisierung von F mit dem Parameterbereich Ḡ und
v : F → R3 ein stetiges Vektorfeld. Dann heißt


Z
Z
Z
v1 (Φ(x)) v2 (Φ(x)) v2 (Φ(x))
det  ∂1 Φ1 (x) ∂1 Φ2 (x) ∂1 Φ3 (x)  dx
v · dF := hv(Φ(x)), ∂1 Φ(x) × ∂2 Φ(x)idx =
G
G
F
∂2 Φ1 (x) ∂2 Φ2 (x) ∂2 Φ3 (x)
Integral von v über F (oder Fluß von v durch F), und diese Zahl ist nur von v und F, nicht
aber von Φ abhängig.
Einheitsnormalenfelder: Es sei F ein Flächenstück, dann gilt:
(i) F ist orientierbar genau dann, wenn eine stetige Abbildung n : F → R3 existiert so dass
für alle y ∈ F gilt kn(y)k = 1 und hn(y), ui = 0 für alle Tangentialvektoren u an F in y. Die
Abbildung n heißt dann Einheitsnormalenfeld auf F, und es gilt für jede Parametrisierung Φ
von F
∂1 Φ(x) × ∂2 Φ(x)
(3.5)
n(Φ(x)) = ±
k∂1 Φ(x) × ∂2 Φ(x)k
In Fall (3.3) gilt


−∂1 φ(x)
 −∂2 φ(x)  .
n(Φ(x)) = ± p
1 + ∂1 φ(x)2 + ∂2 φ(x)2
1
1
(ii) Wenn F orientiert ist, so heißt das Einheitsnormalenfeld auf F, das durch (3.5) mit
dem Vorzeichen Plus und beliebiger positiv orientierter Parametrisierung Φ definiert ist, positiv
orientiert.
(iii) Wenn n das positiv orientierte Einheitsnormalenfeld auf F ist, so gilt
Z
Z
hv, nidF.
v · dF =
F
F
Dabei ist das rechte Integral das (nichtorientierte) Flächenintegral von der Funktion y ∈ F 7→
hv(y), n(y)i ∈ R.
Interpretation: WennRder Vektor v(x) ∈ R3 die Geschwindigkeit einer Flüssigkeit am Ort
x ∈ R3 beschreibt, so ist F v · dF das Volumen, das in einer Zeiteinheit durch das Flächenstück
F fließt.
38
3.7
Satz von Stokes
Induzierte Orientierung: Es sei F ⊂ R3 ein orientiertes Flächenstück, und ∂F = K1 ∪. . .∪Km
sei die (eindeutige) Zerlegung des Randes von F in disjunkte geschlossene C 1 -Kurven. Dann ist
die sogenannte induzierte Orientierung von Kj folgendermaßen definiert: Wähle eine (beliebige)
positiv orientierte Parametrisierung Φ mit Parameterbereich Ḡ von F und einen (beliebigen)
Punkt y = Φ(x) ∈ Kj (dann gilt x ∈ ∂G). Wähle eine stetig differenzierbare Abbildung δ :
[0, 1] → R2 mit δ(0) = y und δ(s) ∈ G für alle s ∈ (0, 1]. Definiere τ (y) als den Tangentialvektor
an Kj in y mit der Länge Eins, für den gilt, dass die drei Vektoren ∂1 Φ(x) × ∂2 Φ(x), τ (Φ(x))
und Φ′ (x)δ′ (0) ein positiv orientiertes Dreibein bilden. Mit anderen Worten: Wenn man von”
oben” (d.h. in Richtung von −∂1 Φ(x) × ∂2 Φ(x)) auf F schaut und sich in der Durchlaufrichtung
von Kj bewegt, so soll F links liegen. Das so (von der Wahl von δ unabhängig) definierte
Einheitstangentenfeld τ an Kj definiert nun die induzierte Durchlaufrichtung von Kj .
Satz von Stokes: Es seien X ⊆ R3 eine offene Menge, F ⊂ R3 ein orientiertes Flächenstück,
∂F = K1 ∪ . . . ∪ Km sei die (eindeutige) Zerlegung des Randes von F in disjunkte geschlossene
C 1 -Kurven, und v : X → R3 ein stetig differenzierbares Vektorfeld. Dann gilt
Z
Z
m Z
X
v · dγ.
v · dγ =:
rot v · dF =
F
j=1
Kj
∂F
Dabei sind auf der rechten Seite die orientierten Kurvenintegrale bzgl. der induzierten Orientierungen der geschlossenen Kurven Kj zu verstehen.
Punktweise Interpretation der Rotation: Es seien X ⊆ R3 eine offene Menge, v : X → R3
ein stetig differenzierbares Vektorfeld, x0 ∈ X fixiert, Fr ⊂ X eine Kreisscheibe mit Mittelpunkt
in x0 und Radius r > 0, n : Fr → R3 sei ein Einheitsnormalenvektorfeld auf Fr , Fr sei durch n
orientiert, und der Rand ∂Fr sei mit der induzierten Orientierung versehen. Dann gilt
Z
1
v · dγ.
hrot v, ni = lim 2
r→0 πr
∂Fr
Beispiel: Es sei ω ∈ R3 (ω 6= 0) die Winkelgeschwindigkeit einer gleichförmigen Drehung des
Raumes R3 um die durch ω aufgespannte Achse. Dann ist die Geschwindigkeit am Ort x ∈ R3
zeitlich konstant gleich ω × x, und die Rotation dieses Geschwindigkeitsfeldes ist
rot (ω × x) = 2ω.
Es sei Fr ⊂ R3 die Kreisscheibe mit Mittelpunkt im Nullpunkt und Radius r > 0, die orthogonal
zur Winkelgeschwindigkeit ω ist. Sie sei orientiert durch den Einheitsnormalenvektor ω/kωk,
und der Rand ∂Fr sei mit der induzierten Orientierung versehen. Dann ist die Zirkulation
des Geschwindigkeitsfeldes entlang des Kreise ∂Fr und damit der Fluß der Rotation dieses
Geschwindigkeitsfeldes durch die Kreisscheibe Fr gleich
Z
Z
Z
ω · dF = 2kωkπr 2 .
rot (ω × x) · dF = 2
(ω × x) · dγ =
∂Fr
Fr
Fr
Satz von Stokes für ebene Gebiete: Es seien X ⊆ R2 eine offene Menge K ⊂ X eine
geschlossene Kurve, und G ⊂ X sei das von K ⊂ R2 umschlossene beschränkte ebene Gebiet
39
(nach dem Jordanschen Kurvensatz). Die Orientierung von K sei als Durchlaufrichtung gegen
den Uhrzeigersinn gewählt. Dann gilt für alle stetig differenzierbaren Vektorfelder v : X → R2
Z
Z
v1 dx1 + v2 dx2 .
(∂1 v2 − ∂2 v1 ) dx1 dx2 =
K
G
Dabei ist das Integral auf der linken Seite ein zweidimensionales Integral im Sinne von Kapitel
3.1, und das Integral auf der rechten Seite ist ein Kurvenintegral (in der Schreibweise (3.1)).
3.8
Satz von Gauß
Gebiete mit stückweise glattem Rand: Es sei Ω ⊂ R3 beschränkt, offen und bogenzusammenhängend, und es gelte
m
[
∂Ω =
Fk ,
(3.6)
k=1
wobei F1 , . . . , F1 Flächenstücke (im Sinne von Kapitel 3.6) sind mit
Fj ∩ Fk ⊆ ∂Fj ∩ ∂Fk für j 6= k.
Jedes Flächenstück Fk sei orientiert durch ein Einheitsnormalenfeld nk : Fk → R3 , und es gelte
x + εnk (x) ∈
/ Ω, x − εnk (x) ∈ Ω für alle x ∈ Fk und alle hinreichend kleinen ε > 0.
(3.7)
Dann heißt Ω (beschränktes) Gebiet mit stückweise glattem Rand, und nk (x) heißt äußere
Einheitsnormale an Ω in x ∈ Fk . Die äußeren Einheitsnormalen sind überall im (topologischen)
Rand ∂Ω, evtl. mit Außnahme der (geometrischen) Ränder ∂Fk , definiert. Dieses Vektorfeld,
dass “fast überall” in ∂Ω (mit Außnahme von “Ecken und Kanten”) definiert ist, heißt äußeres
Einheitsnormalenfeld an ∂Ω. Die Bedingung (3.7) bedeutet, dass jede hinreichend kleine Kugel
um jeden Punkt x ∈ ∂Ω durch ∂Ω in einen “inneren” Teil (der Teilmege von Ω ist) und einen
“äußeren” Teil (der Teilmege von R3 \ Ω ist) zerschnitten wird.
Beispiele: (i) Polyeder, Zylinder, Kegel, Kugeln, Ellipsoide und Tori sind Gebiete mit stückweise
glattem Rand.
(ii) Wenn man z.B. aus einer Kugel einen inneren Punkt (z.B. den Mittelpunkt) oder eine
Strecke (z.B. eine Achse durch den Mittelpunkt) entfernt, so ist die so entstandene Menge kein
Gebiet mit stückweise glattem Rand, weil (3.6) nicht erfüllt ist.
(iii) Die “geschlitzte” Kugel
{(x, y, z) : x2 + y 2 + z 2 < 1} \ {(x, y, 0) : x > 0}
ist kein Gebiet mit stückweise glattem Rand, weil (3.7) nicht erfüllt ist (entlang des Schlitzes
gibt es kein “außen”).
Satz von Gauß: Es sei Ω ⊂ R3 ein Gebiet mit stückweise glattem Rand mit (3.6), und
v : Ω → R3 sei ein stetig differenzierbares Vektorfeld, das gemeinsam mit allen seinen partiellen
Ableitungen erster Ordnung stetig auf Ω fortgesetzt werden kann. Dann gilt
Z
div v dx =
Ω
m Z
X
k=1
v · dF =:
Fk
Z
v · dF mit div v :=
∂Ω
40
3
X
j=1
∂j vj ,
und die Funktion div v heißt Divergenz der Quellendichte des Vektorfeldes v. Anstelle von div v
schreibt man auch ∇ · v.
Punktweise Interpretation der Divergenz: Es seien X ⊆ R3 eine offene Menge, v : X → R3
ein stetig differenzierbares Vektorfeld, x0 ∈ X fixiert, Kr ⊂ X eine die Kugel mit Mittelpunkt
in x0 und Radius r > 0, und n : ∂Kr → R3 sei sei das äußere Einheitsnormalenvektorfeld. Dann
gilt
Z
4πr 3
3
hv,
n
idF
ist
das
Volumen
von
K
div v(x) = lim
r .
r→0 4πr 3 ∂Kr
3
Quellenfreie Vektorfelder: Es seien X ⊆ R3 eine offene Menge, v : X → R3 ein stetig
differenzierbares Vektorfeld, und es gelte div v(x) = 0 für alle x ∈ X. Dann heißt v quellenfrei,
und es gilt
Z
hv, nidF = 0
∂Ω
für jedes Gebiet Ω mit stückweise glattem Rand.
Spezialfälle des Satzes von Gauß: (i) Wenn v nur eine nicht verschwindende Komponente
hat, z.B. die j-te Komponente im Punkt x ∈ Ω sei f (x), alle anderen seien Null, dann folgt
Z
Z
f nj dF.
(3.8)
∂j f dx =
∂Ω
Ω
Dabei ist nj die j-te Komponente des äußeres Einheitsnormalenfeld an ∂Ω. Das kann man auch
schreiben als
Z
Z
f n dF,
(3.9)
∇f dx =
∂Ω
Ω
wenn man die Integrale über die Vektorfelder ∇f und f n in (3.9) als Vektoren versteht, deren
Komponenten die Zahlen in (3.8) sind. Wenn man ebenso komponentenweise das Integral über
die Vektorfelder rot v und v × n interpretiert und (3.8) anwendet, so folgt
Z
Z
v × n dF.
rot v dx =
∂Ω
Ω
(ii) Wenn f das Produkt zweier Funktionen g, h : Ω → R ist, so folgt die Formel der partiallen
Integration
Z
Z
Z
∂j gh dx = −
ghnj dF.
g∂j h dx +
∂Ω
Ω
Ω
(iii) Wenn v ein Gradientenfeld mit einem Potential Φ ist, so folgt
Z
Z
Z
h∇Φ, nidF.
∇Φ · dF =
∆Φ dx =
Ω
∂Ω
∂Ω
Dabei ist die Funktion
∆Φ := div∇Φ =
3
X
∂j2 Φ,
j=1
das Bild der Funktion Φ nach Anwendung des sogenannten Laplace-Operators ∆, und
h∇Φ(x), n(x)i = lim
ε→0
Φ(x + εn(x)) − Φ(x)
=: ∂n Φ(x)
ε
41
ist die sogenannte äußere Ableitung von Φ im Punkt x ∈ ∂Ω. Anstelle von ∆Ψ schreibt man
auch ∇2 Ψ.
(iv) Greensche Formeln: Wenn Φ das Produkt zweier Funktionen g, h : Ω → R ist, so folgt
Z
Z
f ∂n g dF
(f ∆g + h∇f, ∇gi) dx =
∂Ω
Ω
und deshalb
Z
Ω
(f ∆g − g∆f ) dx =
Z
42
(f ∂n g − g∂n f ) dF.
∂Ω
Herunterladen