1 Topologie des Rn

Werbung
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
1
Topologie des Rn
1
Bezeichnungen:
Es ist Rn = {(x1 , . . . , xn ) | xj ∈ R}. Hierbei sind die Vektoren des Rn durchweg als
Spaltenvektoren zu interpretieren. Sie werden hier nur aus typographischen Gründen als
Zeilenvektoren geschrieben.
Die j-te Koordinaten-Projektion ist die lineare Abbildung prj : Rn → R mit (x1 , . . . , xn ) 7→
xj .
Wir identifizieren Rm × Rn mit Rm+n .
p
P
Das Skalarprodukt h x, y i = j xj yj induziert die Norm k x k = h x, x i und den Abstand
d(x, y) = k x − y k .
Die ε-Umgebung von p ist Uε (p) = {x | d(x, p) < ε} (für ε > 0).
Statt des Rn können wir auch n-dimensionale normierte reelle Vektorräume V betrachten;
eine Basis von V definiert eine Bijektion zwischen V und Rn .
1.1
Folgen im Rn
1.1.1 Definition : Seien xk ∈ Rn für k ∈ N und y ∈ Rn .
1. y heißt Häufungswert der Folge (xk ), wenn für jedes ε > 0 gilt:
xk ∈ Uε (y) für unendlich viele k ∈ N .
2. y heißt Grenzwert der Folge (xk ) und man schreibt y = lim xk , wenn für jedes ε > 0
k→∞
gilt:
xk ∈ Uε (y) für fast alle k ∈ N .
1.1.2 Lemma : Sei xk = (xk,1 , . . . , xk,n ), y = (y1 , . . . , yn ).
1. Ist y Häufungswert der Folge (xk ), so ist yj Häufungswert der Folge (xk,j ) für jedes
j ∈ {1, . . . , n}.
2. y ist genau dann Grenzwert der Folge (xk ), wenn yj Grenzwert der Folge (xk,j ) ist für
jedes j ∈ {1, . . . , n}.
1.1.3 Definition : Die Folge (xk ) heißt Cauchy-Folge, wenn es zu jedem ε > 0 ein k0 ∈ N gibt,
so daß gilt
d(xr , xs ) < ε für r, s ≥ k0 .
1.1.4 Lemma : Die Folge (xk ) ist genau dann konvergent, wenn sie eine Cauchy-Folge ist.
1.1.5 Lemma : Seien (xk ) und (yk ) konvergente Folgen. Dann ist
1. lim (λxk + µyk ) = λ lim xk + µ lim yk (für λ,µ ∈ R),
k→∞
k→∞
k→∞
2. lim h xk , yk i = h lim xk , lim yk i.
k→∞
k→∞
k→∞
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
2
1.1.6 Lemma : y ∈ Rn ist genau dann Häufungswert der Folge (xk ), wenn es eine Teilfolge
(xkl )l∈N von (xk ) gibt, die gegen y konvergiert.
1.1.7 Satz (Bolzano-Weierstraß, I) : Sei (xk ) eine beschränkte Folge von Vektoren des Rn .
Dann hat (xk ) einen Häufungswert.
E.Ossa
1.2
Analysis II (SS 04)
Inhaltsübersicht
3
Topologische Grundbegriffe
Im folgenden sei M ⊂ Rn eine Teilmenge.
1.2.1 Definition :
1. p ∈ M heißt innerer Punkt von M , wenn es ein ε > 0 gibt mit Uε (p) ⊂ M . In diesem
Fall sagt man auch, daß M eine Umgebung von p ist.
2. M heißt offen, wenn jeder Punkt p ∈ M innerer Punkt von M ist.
3. Die Menge
◦
M := {p ∈ M | p ist innerer Punkt von M }
heißt der offene Kern von M.
1.2.2 Hilfssatz :
1. Uε (p) ist offen.
◦
2. M ist offen.
3. Sind K ⊂ Rm und L ⊂ Rn offen, so ist auch K × L ⊂ Rm+n offen.
1.2.3 Hilfssatz : Für Teilmengen von X = Rn gilt:
1. ∅ und X sind offen.
2. Sind M und N offen, so ist auch M ∩ N offen.
S
3. Sind alle Mi offen für i ∈ I, so ist auch i∈I Mi offen.
Bemerkung: Eine Familie von offenen“ Teilmengen einer Menge X, welche diese Eigen”
schaften hat, nennt man eine Topologie auf X.
◦
1.2.4 Hilfssatz : Sei M ⊂ Rn . Dann ist M die Vereinigung aller in M enthaltenen offenen
◦
Teilmengen des Rn . Insbesondere ist M die größte in M enthaltene offene Menge.
1.2.5 Definition : Eine Teilmenge A ⊂ Rn heißt abgeschlossen, wenn Rn − A offen ist.
1.2.6 Hilfssatz : Für Teilmengen von X = Rn gilt:
1. ∅ und X sind abgeschlossen.
2. Sind M und N abgeschlossen, so ist auch M ∪ N abgeschlossen.
T
3. Sind alle Mi abgeschlossen für i ∈ I, so ist auch i∈I Mi abgeschlossen.
1.2.7 Definition : Für M ⊂ Rn sei M der Durchschnitt aller abgeschlossenen Teilmengen des
Rn , welche M enthalten. Die Menge M heißt die abgeschlossene Hülle von M .
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
4
Bemerkung: M ist also die kleinste abgeschlossene Teilmenge des Rn , welche M enthält.
Nach Hilfssatz (1.2.4) ist
◦
◦
Rn − M = (Rn − M ) und Rn − M = Rn − M .
1.2.8 Definition : Sei M eine Teilmenge von Rn und p ∈ Rn .
1. p heißt Berührungspunkt von M , wenn für jedes ε > 0 der Schnitt Uε (p) ∩ M 6= ∅ ist.
2. p heißt Häufungspunkt von M , wenn für jedes ε > 0 der Schnitt Uε (p) ∩ (M − {p}) 6= ∅
ist.
3. p heißt isolierter Punkt von M , wenn p Berührungspunkt, aber nicht Häufungspunkt
von M ist.
4. p ∈ Rn heißt äußerer Punkt von M , wenn p kein Berührungspunkt von M ist.
5. p ∈ Rn heißt Randpunkt von M , wenn p Berührungspunkt von M und von Rn − M
ist. Die Menge der Randpunkte von M wird mit ∂M bezeichnet.
Bemerkungen: 1. Ist p ∈ M , so ist p Berührungspunkt von M .
2. p ist genau dann isolierter Punkt von M , wenn es ein ε > 0 gibt mit Uε (p) ∩ M = {p}.
3. p ist genau dann äußerer Punkt von M , wenn p innerer Punkt von Rn − M ist.
1.2.9 Lemma : M ist die Menge der Berührungspunkte von M .
1.2.10 Hilfssatz :
1. Uε (p) = {x | d(x, p) ≤ ε} (für ε > 0).
2. Sind K ⊂ Rm und L ⊂ Rn , also K × L ⊂ Rm+n , so ist
K ×L=K ×L .
1.2.11 Lemma : Sei M eine Teilmenge von Rn und p ∈ Rn .
1. p ist genau dann Häufungspunkt von M , wenn es eine Folge (xk ) gibt mit xk ∈ M −{p}
und lim xk = p.
k→∞
2. p ist genau dann Berührungspunkt von M , wenn es eine Folge (xk ) gibt mit xk ∈ M
und lim xk = p.
k→∞
3. p ist genau dann Randpunkt von M , wenn es Folgen (xk ) und (yk ) gibt mit xk ∈ M ,
yk 6∈ M und lim xk = p = lim yk .
k→∞
k→∞
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
5
1.2.12 Lemma : Für eine Teilmenge A ⊂ Rn sind die folgenden Aussagen äquivalent:
1. A ist abgeschlossen.
2. Sind xk ∈ A und ist y Häufungswert der Folge (xk ), so ist y ∈ A.
3. Sind xk ∈ A und ist y Grenzwert der Folge (xk ), so ist y ∈ A.
1.2.13 Lemma : Sei M eine Teilmenge von Rn . Dann gilt:
1. ∂M = ∂(Rn − M ).
◦
2. M − ∂M = M ist offen.
3. M ∪ ∂M = M ist abgeschlossen.
4. ∂M = M ∩ Rn − M ist abgeschlossen.
5. Sind K ⊂ Rm und L ⊂ Rn , also K × L ⊂ Rm+n , so ist
∂(K × L) = ∂K × L ∪ K × ∂L .
1.2.14 Definition : Sei X ⊂ Rn und M ⊂ X sowie p ∈ M .
1. M heißt Umgebung von p in X, wenn es eine Umgebung U ⊂ Rn von p gibt mit
M = U ∩ X.
2. M heißt offen in X, wenn es eine offene Teilmenge U ⊂ Rn gibt mit M = U ∩ X.
3. M heißt abgeschlossen in X, wenn es eine abgeschlossene Teilmenge A ⊂ Rn gibt mit
M = A ∩ X.
E.Ossa
1.3
Analysis II (SS 04)
Inhaltsübersicht
6
Stetige Abbildungen
Im folgenden seien D ⊂ Rn und E ⊂ Rm Teilmengen, sowie f : D → E eine Abbildung. Die
Funktionen fj = prj ◦ f : D → R (für j = 1, . . . , m) heißen die Komponenten-Funktionen
von f . Für x ∈ D können wir also schreiben
f (x) = (f1 (x), . . . , fm (x)) .
1.3.1 Definition :
1. f heißt stetig in p ∈ D, wenn zu jedem ε > 0 ein δ > 0 existiert, so daß für alle x ∈ D
gilt
d(x, p) < δ ⇒ d(f (x), f (p)) < ε .
2. f heißt stetig auf D, wenn f in jedem Punkt p ∈ D stetig ist.
1.3.2 Lemma : Sei p ∈ D. Dann sind folgende Aussagen äquivalent:
1. f ist stetig in p.
2. Sind die xk ∈ D mit lim xk = p, so ist lim f (xk ) = f (p).
k→∞
k→∞
3. Alle Komponenten-Funktion fj von f sind stetig in p.
4. Für jedes ε > 0 ist
f −1 (Uε (f (p))) ⊂ D
eine Umgebung von p in D.
1.3.3 Korollar : Die folgenden Aussagen sind äquivalent:
1. f ist stetig auf D.
2. Ist U ⊂ Rm offen, so ist f −1 (U ) ⊂ D offen in D.
3. Ist A ⊂ Rm abgeschlossen, so ist f −1 (A) ⊂ D abgeschlossen in D.
1.3.4 Lemma : Seien f , g : D → R stetig in p ∈ D. Sei D0 = {x | g(x) 6= 0}.
1. Für λ, µ ∈ R ist die Funktion λf + µg stetig in p.
2. Die Funktion f · g ist stetig in p.
3. Ist p ∈ D0 , so ist
f
: D0 → R stetig in p.
g
1.3.5 Korollar : Sei F : Rn → Rm linear. Dann ist F stetig.
1.3.6 Satz : Ist f : D → E stetig in p ∈ D und g : E → Rk stetig in f (p), so ist g ◦ f : D → Rk
stetig in p.
1.3.7 Korollar : Die Komposition stetiger Abbildungen ist stetig.
1.3.8 Definition : f : D → E heißt Homöomorphismus, wenn f bijektiv ist und wenn f und die
Umkehrabbildung f −1 : E → D beide stetig sind.
1.3.9 Lemma : Sei F : Rn → Rn linear und bijektiv. Dann ist F ein Homöomorphismus.
E.Ossa
1.4
Analysis II (SS 04)
Inhaltsübersicht
7
Kompaktheit und Zusammenhang
1.4.1 Definition : Sei K ⊂ Rn eine Teilmenge.
1. Eine Überdeckung
von K ist eine Familie U = {Ui | i ∈ I} von Teilmengen Ui ⊂ Rn ,
S
so daß K ⊂
Ui ist. Die Überdeckung U heißt offen, wenn jedes U ∈ U offen ist.
i∈I
0
Ist I ⊂ I eine Teilmenge, so heißt U 0 = {Ui | i ∈ I 0 } eine Teilüberdeckung von U,
wenn U 0 ebenfalls Überdeckung von K ist.
2. K heißt kompakt, wenn K die folgende Endliche-Überdeckungs-Eigenschaft hat:
Jede offene Überdeckung U = {Ui | i ∈ I} von K besitzt eine endliche Teilüberdeckung.
1.4.2 Satz : Sei K ⊂ Rn kompakt. Dann ist K beschränkt und abgeschlossen.
S
Beweis: Beschränktheit folgt aus K ⊂
Un (0).
n∈N+
S
Ist x ∈
/ K, so ist K ⊂
(Rn − U n1 (x)).
n∈N+
1.4.3 Satz : Ist K ⊂ Rn kompakt und A ⊂ K abgeschlossen, so ist A kompakt.
1.4.4 Satz : Sei Q der abgeschlossenen Quader
Q = {(x1 , . . . , xn ) ∈ Rn | aj ≤ xj ≤ bj } .
Dann ist Q kompakt.
1.4.5 Korollar (Heine-Borel) : Eine Teilmenge K ⊂ Rn ist genau dann kompakt, wenn K
beschränkt und abgeschlossen ist.
1.4.6 Satz (Satz vom Maximum) : Sei f : Rn → Rm stetig. Ist K ⊂ Rn kompakt, so auch
f (K) ⊂ Rm .
1.4.7 Satz (Lemma von Lebesgue) : Sei K ⊂ Rn kompakt und sei U = {Ui | i ∈ I} eine offene
Überdeckung von K. Dann gibt es ein λ > 0, so daß zu jedem p ∈ K ein i ∈ I existiert mit
Uλ (p) ⊂ Ui .
1.4.8 Definition : f : D → Rm heißt gleichmäßig stetig, wenn zu jedem ε > 0 ein δ > 0 existiert,
so daß für alle x, y ∈ D gilt
d(x, y) < δ ⇒ d(f (x), f (y)) < ε .
1.4.9 Satz : Sei f : D → Rm stetig. Ist D kompakt, so ist f gleichmäßig stetig.
1.4.10 Definition : Eine Teilmenge M ⊂ Rn heißt zusammenhängend, wenn gilt: Sind U1 , U2 ⊂
Rn offen mit M ⊂ U1 ∪ U2 und U1 ∩ U2 ∩ M = ∅, so ist M ⊂ U1 oder M ⊂ U2 .
1.4.11 Lemma : Eine zusammenhängende Teilmenge M ⊂ R ist ein Intervall.
1.4.12 Satz (Zwischenwertsatz) : Sei f : Rn → Rm stetig. Ist M ⊂ Rm zusammenhängend, so
auch f (M ) ⊂ Rn .
E.Ossa
2
Analysis II (SS 04)
Inhaltsübersicht
8
Differentialrechnung
2.1
Wege
2.1.1 Definition :
1. Sei U ⊂ Rn eine nicht-leere Teilmenge. Ein Weg in U ist eine stetige Abbildung
◦
γ : I → U , wobei I ⊂ R ein Intervall ist mit nicht-leerem Inneren I.
2. Ein Weg γ = (γ1 , . . . , γn ) heißt differenzierbar, wenn alle Komponentenfunktionen γj
differenzierbar sind.
3. Ein Weg γ = (γ1 , . . . , γn ) heißt stetig differenzierbar oder glatt, wenn alle Komponentenfunktionen γj stetig differenzierbar sind.
4. Ein Weg γ : I → Rn heißt stückweise glatt, wenn es eine Zerlegung I = I1 ∪ . . . ∪ Ik
◦
◦
in Teilintervalle Iν gibt, wobei γ auf I ν stetig differenzierbar ist und die I ν nicht leer
und paarweise disjunkt sind.
2.1.2 Definition : Sei γ : I → Rn ein differenzierbarer Weg. Für t0 ∈ I heißt
dγ
(t0 ) = (γ10 (t0 ), . . . , γn0 (t0 ))
dt
der Tangentenvektor bei t0 (oder auch Geschwindigkeitsvektor zum Zeitpunkt t0 ). Der Weg
γ heißt regulär, wenn γ̇(t0 ) 6= 0 ist für jedes t0 ∈ I, sonst singulär.
γ̇(t0 ) =
Beispiele wie im Netz.
2.1.3 Definition : Seien γ1 : I1 → Rn und γ2 : I → Rn differenzierbare Wege, und seien t1 ∈ I1
und t2 ∈ I2 mit γ1 (t1 ) = γ2 (t2 ) und γ˙1 (t1 ) 6= 0 6= γ˙2 (t2 ). Der Schnittwinkel von γ1 und γ2
in t1 bzw. t2 ist der Winkel ϑ ∈ [0, π] mit
cos(ϑ) =
h γ˙1 (t1 ), γ˙2 (t2 ) i
.
k γ˙1 (t1 ) k k γ˙2 (t2 ) k
2.1.4 Definition : Sei γ : [a, b] → Rn ein glatter Weg. Die Bogenlänge L von γ ist definiert durch
Z b
L=
k γ̇(t) k dt .
a
Beispiel: Der differenzierbare Weg γ : [0, 1] → R2
1
))
t2
ist im Nullpunkt nicht glatt. In der Tat ist k γ̇(t) k nicht integrierbar, so daß diesem Weg
keine Bogenlänge zukommt; man sagt auch, daß γ nicht rektifizierbar ist.
γ(t) = (t, t2 cos(
Beispiel: Die Bogenlänge der Ellipse γ(t) = (a cos t, b sin t) (mit a < b) führt auf das
elliptische Integral
Z 1r
1 − k 2 u2
L=4
du
1 − u2
0
mit k 2 =
b2 −a2
b2
.
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
9
2.1.5 Definition : Seien γ1 : I1 → Rn und γ2 : I2 → Rn glatte Wege.
1. Dann definieren γ1 und γ2 die gleiche glatte Kurve, wenn es eine bijektive Abbildung
ϕ : I1 → I2 gibt mit
γ1 (t) = γ2 (ϕ(t)) für t ∈ I1 ,
wobei ϕ und ϕ−1 stetig differenzierbar sind. Die Abbildung ϕ nennt man eine Parameter-Transformation; man sagt auch, daß γ1 durch Umparametrisierung mittels ϕ
aus γ2 entsteht.
2. γ1 und γ2 definieren die gleiche orientierte glatte Kurve, wenn zusätzlich ϕ streng
monoton wachsend ist.
2.1.6 Satz : Seien γ1 : I1 → Rn und γ2 : I2 → Rn glatte Wege. Ferner sei γ1 (t1 ) = γ2 (t2 )
sowie γ˙1 (t1 ) 6= 0 6= γ˙2 (t2 ). Sei γ3 : I3 → Rn aus γ2 durch Umparametrisierung mittels
ϕ : I3 → I2 entstanden und t3 = ϕ−1 (t2 ). Ist ϑ der Schnittwinkel zwischen γ1 und γ2 sowie
θ der Schnittwinkel zwischen γ1 und γ3 , so gilt
cos(θ) = ε · cos(ϑ)
mit ε = sign(ϕ0 (t3 )).
2.1.7 Satz : Sei γ : [a, b] → Rn ein glatter Weg und sei γ
e : [c, d] → Rn aus γ durch Umparametrisierung mittels ϕ : [c, d] → [a, b] entstanden. Dann haben γ und γ
e die gleiche
Bogenlänge.
2.1.8 Definition : Ein Weg γ : I → Rn heißt k-mal (stetig) differenzierbar, wenn alle Komponentenfunktionen γj : I → R k-mal (stetig) differenzierbar sind. In diesem Fall schreibt
man
dk γ
(k)
:= (γ1 , . . . , γn(k) ) .
dtk
Bemerkung: γ̈(t0 ) :=
d2 γ
(t0 ) ist der Beschleunigungsvektor von γ (zum Zeitppunkt t0 ).
dt2
E.Ossa
2.2
Analysis II (SS 04)
Inhaltsübersicht
10
Partielle Ableitungen
Im folgenden sei D ⊂ Rn offen und f : D → R eine Abbildung.
Es sei (e1 , . . . , en ) die kanonische Basis des Rn .
2.2.1 Definition : Sei p ∈ D.
1. f ist in p in der i-ten Koordinatenrichtung partiell differenzierbar, wenn der Grenzwert
∂f
f (p + hei ) − f (p)
(p) := lim
h→0
∂xi
h
existiert.
∂f
(p) heißt die i-te partielle Ableitung von f im Punkt p.
∂xi
2. f ist in D partiell differenzierbar, wenn in jedem p ∈ D alle partiellen Ableitungen
von f existieren.
3. f ist in D stetig partiell differenzierbar, wenn f in D partiell differenzierbar ist und
wenn alle partiellen Ableitungen von f stetig sind.
∂f ∂f ∂f
,
,
; analog für andere Variablen.
∂x ∂y ∂z
Bemerkung: Für f (x, y, z) schreibt man auch
Beispiele:
1. f (0, 0) = 0 und f (x, y) =
xy
sonst.
x2 + y 2
2. Für r(x1 , . . . , xn ) := k (x1 , . . . , xn ) k ist
∂r
xi
=
auf Rn − {0}.
∂xi
r
∂g
3. Sei f : R → R differenzierbar und g(x1 , . . . , xn ) := f (r(x1 , . . . , xn )). Dann ist
=
∂xi
xi
f 0 (r(x))
auf Rn − {0}.
r
2.2.2 Definition : Ist f in p partiell differenzierbar, so heißt der Vektor
grad(f )(p) :=
∂f
∂f
(p), . . . ,
(p)
∂x1
∂xn
der Gradient von f im Punkt p.
Zum Beispiel ist grad(r)(p) =
1
p auf Rn − {0}.
r
2.2.3 Definition : Sei v ∈ Rn . Dann besitzt f in p eine Richtungsableitung in Richtung v, wenn
der Grenzwert
f (p + hv) − f (p)
Dv (f )(p) := lim
h→0
h
existiert.
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
Beispiel: Ist v = (v1 , v2 ) 6= (0, 0) und f (x, y) =
Dv (f )(0) =
11
x2 y
, so existiert die Richtungsableitung
+ y2
x2
v12 v2
. Dagegen verschwinden die partiellen Ableitungen bei 0.
+ v22
v12
2.2.4 Satz : Sei f in einer Umgebung von p partiell differenzierbar und seien die partiellen Ableitungen stetig in p. Dann existiert an der Stelle p auch die Richtungsableitung von f in
Richtung v = (v1 , . . . , vn ) und es ist
Dv (f )(p) =
n
X
j=1
vj
∂f
(p) = h v, grad(f )(p) i .
∂xj
Beweis: Sei ein kleines h ∈ R − {0} gegeben. Definiere induktiv p0 := p und pj = pj−1 +
n f (p ) − f (p
P
f (p + hv) − f (p)
j
j−1 )
hvj ej . Dann ist
=
. Wenden wir auf die Funktion
h
h
j=1
t 7→ f (pj−1 + tej ) den Mittelwertsatz an, so erhalten wir
f (pj ) − f (pj−1 ) = hvj
∂f
(pj−1 + ϑj hvj ej )
∂xj
für ein ϑj mit 0 < ϑj < 1. Es folgt
n
f (p + hv) − f (p) X
∂f
=
vj
(pj−1 + ϑj hvj ej ) .
h
∂x
j
j=1
Für h → 0 konvergieren die pj gegen p, also die rechte Seite wegen der vorausgesetzten
n
P
∂f
(p).
Stetigkeit der partiellen Ableitungen in p gegen
vj
∂x
j
j=1
2.2.5 Satz : Seien die Voraussetzungen an f wie im vorigen Satz (2.2.4). Sei γ ein glatter Weg
mit γ(t0 ) = p. Dann ist t 7→ F (t) := f (γ(t)) in t0 differenzierbar und
df (γ(t))
(t0 ) = (Dγ̇(t0 ) f )(p) .
dt
Beweis: Sei ein kleines h ∈ R−{0} gegeben. Nach dem Mittelwertsatz ist γj (t0 +h)−γj (t0 ) =
hγj0 (t0 + θj h)) für ein θj mit 0 < θj < 1. Sei vj = γj0 (t0 + θj h)) und v der Vektor (v1 , . . . , vn ).
Dann wird γ(t0 + h) = p + hv und
f (γ(t0 + h)) − f (γ(t0 ))
f (p + hv) − f (p)
=
.
h
h
Wir gehen nun weiter vor wie im Beweis von Satz (2.2.4).
2.2.6 Korollar : Seien die Voraussetzungen des vorigen Satzes (2.2.5) gegeben. Ist f (γ(t)) konstant, so stehen γ̇(t0 ) und grad(f )(p) senkrecht aufeinander.
2.2.7 Satz (Mittelwertsatz) : Sei f auf D stetig partiell differenzierbar und γ : [a, b] → D ein
differenzierbarer Weg. Mit p = γ(a) und q = γ(b) gilt
Z b
f (q) − f (p) =
Dγ̇(t) f (γ(t)) dt .
a
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
12
Insbesondere gilt, wenn die Strecke von p nach q ganz in D enthalten ist, mit v = q − p,
Z 1
f (q) − f (p) =
Dv f (p + tv) dt .
0
2.2.8 Definition : Sei f auf D partiell differenzierbar.
1. Ist
∂f
in p partiell nach xi differenzierbar, so heißt
∂xj
∂ ∂f ∂2f
(p) :=
(p)
∂xi ∂xj
∂xi ∂xj
zweite partielle Ableitung von f in p.
2. f heißt zweimal partiell differenzierbar in p, wenn alle zweiten partiellen Ableitungen
∂2f
(p) existieren.
∂xi ∂xj
3. f heißt zweimal stetig partiell differenzierbar auf D, wenn alle partiellen Ableitungen
∂2f
∂f
und
auf D existieren und stetig sind.
∂xi
∂xi ∂xj
Bemerkung:
∂2f
∂2f
wird auch zu
abgekürzt.
∂xj ∂xj
∂x2j
2.2.9 Satz (H.A.Schwarz) : Sei f auf D partiell differenzierbar. Ferner möge
existieren und im Punkt p stetig sein. Dann existiert auch
∂2f
(p) und es ist
∂xi ∂xj
∂2f
∂2f
(p) =
(p) .
∂xi ∂xj
∂xj ∂xi
Beispiel: f (x, y) :=
∂2f
auf D
∂xj ∂xi
x3 y − xy 3
∂f
∂f
hat
(0, y) = −y und
(x, 0) = x.
2
2
x +y
∂x
∂y
E.Ossa
2.3
Analysis II (SS 04)
Inhaltsübersicht
13
Totale Differenzierbarkeit
Im folgenden sei U ⊂ Rn offen und f : U → Rm .
2.3.1 Definition : f heißt differenzierbar im Punkte p ∈ U , wenn es eine lineare Abbildung
A : Rn → Rm gibt, so daß gilt
lim
v→0
f (p + v) − f (p) − A(v)
=0.
kv k
Dann heißt Df (p) := A die Ableitung von f im Punkt p.
Bemerkung: Es ist klar, daß A eindeutig bestimmt ist. Klar ist auch, daß f genau dann
differenzierbar ist, wenn alle Komponenten fi es sind.
Eine äquivalente Formulierung ist die folgende: Es gibt eine lineare Abbildung A und eine
Abbildung ϕ = ϕ(p, v), so daß (für kleine v) gilt:
f (p + v) = f (p) + A(v) + ϕ(p, v) k v k ,
wobei lim ϕ(p, v) = 0 ist.
v→0
2.3.2 Satz : Sei f : U → Rm differenzierbar in p ∈ U .
1. f besitzt in p alle Richtungsableitungen und es ist
Dv f (p) = (Df (p))(v)
2. Bezüglich der kanonischen Basen hat Df (p) die Matrix
∂f
i
∂xj
(p)
i=1,...,m
j=1,...,n
Diese heißt auch Jacobi-Matrix oder Funktional-Matrix von f in p.
2.3.3 Lemma :
1. Seien f , g : U → Rm differenzierbar in p ∈ U . Für λ, ν ∈ R ist λf + νg in p differenzierbar und
D(λf + νg)(p) = λ · Df (p) + νDg(p) .
2. Ist f : Rn → Rm linear, so ist f differenzierbar und
Df (p) = f für jedes p ∈ Rn .
2.3.4 Satz : Sei U → R partiell differenzierbar und die partiellen Ableitungen seien stetig in p ∈ U .
Dann ist f differenzierbar in p.
2.3.5 Hilfssatz : Ist f differenzierbar in p, so ist f stetig in p.
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
14
2.3.6 Satz (Kettenregel) : Seien U ⊂ Rn und E ⊂ Rm offen und f : U → E sowie g : E → Rk
Abbildungen. Sei f differenzierbar in p ∈ U und g differenzierbar in f (p) ∈ E. Dann ist
g ◦ f : U → Rk differenzierbar in p und es gilt
D(g ◦ f )(p) = Dg(f (p)) ◦ Df (p) .
2.3.7 Korollar : Seien U ⊂ Rn und E ⊂ Rm offen und f : U → E sowie g : E → Rk Abbildungen.
Sei f differenzierbar in p ∈ U und g differenzierbar in f (p) ∈ E. Dann ist
m
X ∂gi
∂fl
∂(g ◦ f )i
(p) =
(f (p)) ·
(p)
∂xj
∂yl
∂xj
l=1
2.3.8 Satz : Sei h : Rm × Rn → Rk bilinear. Dann ist h differenzierbar und
Dh(p, q)(u, v) = h(p, v) + h(u, q)
für p, u ∈ Rm , q, v ∈ Rn .
Beweis: Sei A(u, v) = h(p, v) + h(u, q). Dann ist A linear und h(p + u, q + v) − h(p, q) −
P
A(u, v) = h(u, v). In Koordinaten ist h(u, v) =
Ci,j ui vj . Ist C = max{ k Ci,j k } und
i,j
δ = max{|ui |, |vj |} so wird k h(u, v) k ≤ mnCδ 2 und k (u, v) k ≥ δ. Es folgt
und damit
lim
(u,v) → (0,0)
k h(u, v) k
≤δ
k (u, v) k
h(u, v)
= 0.
k (u, v) k
2.3.9 Korollar : Seien f : Rn → Rk und g : Rn → Rk differenzierbar in p. Dann ist
ϕ(x) = h f (x), g(x) i
differenzierbar in p mit Ableitung
Dϕ(p)(v) = h f (p), Dg(p)(v) i + h Df (p)(v), g(p) i .
Insbesondere ist also
P
∂ϕ
∂gi
∂fi
(p) = i fi (p) ·
(p) +
(p) · gi (p) .
∂xj
∂xj
∂xj
2.3.10 Definition : Seien V , W endlich-dimensionale R-Vektorräume und α : V → Rn sowie β :
W → Rm Isomorphismen.
1. Eine Teilmenge U ⊂ V heißt offen, wenn α(V ) offen in Rn ist.
2. Ist U ⊂ V , so heißt eine Abbildung f : U → W stetig in p ∈ U , wenn die Abbildung
g := β ◦ f ◦ α−1 : α(U ) → Rm in α(p) stetig ist.
3. Ist U ⊂ V offen, so heißt eine Abbildung f : U → W differenzierbar in p ∈ U , wenn
g := β ◦ f ◦ α−1 : α(U ) → Rm in α(p) differenzierbar ist. In diesem Fall ist die
Ableitung von f im Punkte p die lineare Abbildung D(f )(p) : V → W mit D(f )(p) =
β −1 ◦ D(g)(α(p)) ◦ α.
Es ist klar, daß diese Definition unabhängig von der Wahl von α und β ist.
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
15
2.3.11 Definition : Seien V , W endlich-dimensionale R-Vektorräume. Es sei U ⊂ V offen und
f : U → W eine Abbildung. Dann heißt f differenzierbar auf U , wenn f in jedem Punkt
p ∈ U differenzierbar ist; in diesem Fall heißt die Abbildung
Df : U → Hom(V, W )
mit p 7→ Df (p) die Ableitung von f . Die Abbildung f heißt stetig differenzierbar, wenn sie
differenzierbar ist und wenn die Ableitung Df : U → Hom(V, W ) stetig ist.
E.Ossa
2.4
Analysis II (SS 04)
Inhaltsübersicht
16
Höhere Ableitungen
2.4.1 Definition : Seien V , W endlich-dimensionale R-Vektorräume. Sei V k das k-fache Produkt
V × V × . . . × V von V mit sich selbst. Eine k-fach multilineare Abbildung von V nach W
ist eine Abbildung g : V k → W , so daß für alle v1 , . . . , vk ∈ V und alle i ∈ {1, . . . , n} die
Abbildung
v 7→ g(v1 , . . . , vi−1 , v, vi+1 , . . . , vk )
linear ist. Es bezeichne Homk (V, W ) den R-Vektorraum aller k-fach multilinearen Abbildungen von V nach W .
2.4.2 Hilfssatz : Hom(V, Homk (V, W )) und Homk+1 (V, W ) sind kanonisch isomorph.
2.4.3 Definition : Seien V , W endlich-dimensionale R-Vektorräume. Es sei U ⊂ V eine offene
Teilmenge und f : U → W eine Abbildung. f heißt (k + 1)-mal differenzierbar auf U , wenn
Dk f : U → Homk (V, W ) differenzierbar auf U ist. In diesem Fall heißt
Dk+1 f := D(Dk f ) : U → Hom(V, Homk (V, W )) = Homk+1 (V, W )
die (k + 1)-te Ableitung von f . Ist Dk+1 f stetig, so sagt man, f sei (k + 1)-mal stetig
differenzierbar auf U .
2.4.4 Lemma : Seien V , W endlich-dimensionale R-Vektorräume, sei U ⊂ V offen und f : U → W
eine k-mal differenzierbare Abbildung. Dann gilt für p ∈ U und v1 , . . . ,vk ∈ V
Dk f (p)(v1 , . . . , vk )
= lim
=
(Dv1 Dv2 . . . Dvk f )(p)
k
X
X
1
(−1)k−s f (p + hi1 vi1 + . . . + his vis )
hk → 0 h1 . . . hk
s=0 i <... i
lim . . . lim
h1 → 0 h2 → 0
1
s
2.4.5 Hilfssatz : Sei U ⊂ Rn offen und f : U → R eine k-mal differenzierbare Funktion.
1. Seien vi = (vi,1 , . . . , vi,n ) ∈ Rn für i = 1, . . . ,k. Dann ist
Dk (f )(p)(v1 , . . . , vk ) =
n
X
i1 ,... ,ik
∂kf
(p) v1,i1 . . . vk,ik .
∂xi1 . . . ∂xik
=1
2. Seien p, v ∈ Rn und γ(t) := p + tv. Dann ist
dk f ◦ γ
(0) = Dk f (p)(v, . . . ,v) .
dtk
2.4.6 Korollar : Sei U ⊂ V offen und f : U → W eine k-mal stetig differenzierbare Abbildung.
Dann ist
Dk (f )(p) ∈ Homk (V, W )
eine symmetrische multilineare Abbildung.
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
17
2.4.7 Definition : Ein Multiindex ist ein Tupel α = (α1 , . . . , αn ) von natürlichen Zahlen. Für
einen Vektor x = (x1 , . . . , xn ) sei
αn
1
xα := xα
1 . . . xn .
Ferner sei |α| := α1 + . . . + αn und
|α|
α
Dα f (p) :=
:=
|α|!
sowie
α1 !. . . αn !
∂ |α| f
∂x1 α1 . . . ∂xn αn
(p) .
2.4.8 Korollar : Sei U ⊂ Rn offen und f : U → R eine k-mal stetig differenzierbare Funktion.
Dann ist für x = (x1 , . . . , xn )
X |α|
Dk (f )(p)(x, . . . x) =
Dα f (p) xα ,
α
α
wobei die Summe über alle Multiindizes α mit |α| = k zu erstrecken ist.
Zum Beispiel ist
D2 (f )(p)(x, x) =
n
X
∂2f
2
2 (p) xi
∂x
i
i=1
+2
X
i<j
∂2f
(p) xi xj .
∂xi ∂xj
2.4.9 Satz (Taylorformel) : Sei U ⊂ Rn offen und f : U → R (k + 1)-mal differenzierbar. Seien
p ∈ U und v ∈ Rn , so daß die Verbindungsstrecke von p nach p + v ganz in U enthalten ist.
Dann ist
k
X
1 j
f (p + v) =
D f (p)(v, . . . ,v) + Rk+1
j!
j=0
mit
Rk+1 =
1
Dk+1 f (p + ϑv)(v, . . . ,v)
(k + 1)!
für ein ϑ mit 0 < ϑ < 1.
2.4.10 Definition : Sei U ⊂ Rn offen und f : U → R 2-mal stetig differenzierbar. Die Hesse-Matrix
von f im Punkte p ist die Matrix
Hesse(f )(p) :=
∂2f
(p)
.
∂xi ∂xj
i,j=1,... ,n
2.4.11 Definition : Sei U ⊂ Rn offen und f : U → R eine Abbildung. f hat in p ∈ U ein lokales
Minimum, wenn es ein ε > 0 gibt, so daß für x ∈ U gilt
k x − p k < ε ⇒ f (x) ≥ f (p) .
f hat in p ein lokales Maximum, wenn −f in p ein lokales Minimum hat; f hat in p ein
lokales Extremum, wenn f in p ein lokales Minimum oder Maximum hat.
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
18
Wir erinnern daran, daß eine symmetrische reelle Matrix stets diagonalisierbar ist; sie heißt
positiv definit, wenn alle Eigenwerte positiv sind und positiv semidefinit, wenn alle Eigenwerte ≥ 0 sind.
2.4.12 Satz : Sei U ⊂ Rn offen und f : U → R eine 2-mal stetig differenzierbare Abbildung.
1. Hat f in p ∈ U ein lokales Minimum, so ist grad(f )(p) = 0 und die Hesse-Matrix
Hesse(f )(p) ist positiv semidefinit.
2. Ist grad(f )(p) = 0 und ist die Hesse-Matrix Hesse(f )(p) positiv definit, so hat f in p
ein (strenges) lokales Minimum.
Beispiele: f (x, y) = x2 + y 3 und g(x, y) = x2 + y 4 .
Sei grad(f )(p) = 0. Wir nehmen an, daß die Hesse-Matrix Hesse(f )(p) bezüglich der Basis
(ai , bj , ck ) Diagonalgestalt hat; genauer seien 1 ≤ i ≤ r, 1 ≤ j ≤ s, 1 ≤ k ≤ t und
ai
bj
ck
Eigenvektor zum Eigenwert λi > 0 ,
Eigenvektor zum Eigenwert − µj < 0 ,
Eigenvektor zum Eigenwert 0 .
P
P
P
Schreiben wir v := ξi ai + ηj bj + ζk ck , so wird
f (p + v) = f (p) +
r
X
λi ξi2 −
i=1
s
X
µj ηj2
j=1
+ϕ(ξi , ηj , ξk )
mit lim
v→0
ϕ(ξi , ηj , ξk )
= 0.
kv k
2.4.13 Definition :
1. p heißt kritischer Punkt von f wenn grad(f )(p) = 0 ist.
2. p heißt Sattelpunkt, wenn p kritischer Punkt ist und Hesse (f )(p) positive und negative
Eigenwerte hat.
E.Ossa
2.5
Analysis II (SS 04)
Inhaltsübersicht
19
Vektorfelder
2.5.1 Definition : Sei U ⊂ Rn eine offene Teilmenge. Ein stetiges Vektorfeld v auf U ist eine
stetige Abbildung. v : U → Rn . Das Vektorfeld heißt k-mal differenzierbar (bzw. stetig
differenzierbar), wenn v k-mal differenzierbar (bzw. stetig differenzierbar) ist.
Für ein Vektorfeld v bezeichnen wir die Komponenten-Funktionen mit v j : U → R. Wir
schreiben auch vp := v(p).
2.5.2 Definition : Sei U ⊂ Rn offen und v : U → Rn ein stetiges Vektorfeld. Sei γ : [a, b] → U
ein stückweise stetig differenzierbarer Weg. Das Weg-Integral von v entlang γ ist
Z
Z b
v :=
h vγ(t) , γ̇(t) i dt .
γ
a
Bemerkung: Man sollte dies nicht verwechseln mit dem Vektor
Z b
I :=
vγ(t) dt ,
a
dessen Komponenten
Ij =
Z
b
v j (γ(t)) dt
a
sind.
2.5.3 Lemma : Seien v, γ wie in der vorangehenden Definition.
1. Sei ϕ : [c, d] → [a, b] ein C 1 -Diffeomorphismus und δ = γ ◦ ϕ. Dann ist
Z
Z
v=
v.
δ
γ
2. Sei a < m < b und γ1 := γ| [a,m] , γ2 := γ| [m,b] . Dann ist
Z
Z
Z
v=
v+
v.
γ
Beweis: Es ist
δ̇(s) =
γ1
γ2
d(γ(ϕ(s))
= γ̇(ϕ(s)) · ϕ0 (s) ,
ds
also
Z
v
=
δ
Z
d
h vγ(ϕ(s)) , γ̇(ϕ(s))ϕ0 (s) i ds
c
=
Z
=
Z
d
h vγ(ϕ(s)) , γ̇(ϕ(s)) i ϕ0 (s) ds
c
b
h vγ(t) , γ̇(t) i dt
a
nach der Substitutionsregel.
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
20
2.5.4 Satz : Sei U ⊂ Rn offen, Φ : U → R eine stetig differenzierbare Funktion. Dann gilt für
jeden (stetig) differenzierbaren Weg γ : [a, b] → U mit γ(a) = p und γ(b) = q
Z
grad(Φ) = Φ(q) − Φ(p) .
γ
Beweis: Sei F (t) = Φ(γ(t)). Dann ist
F 0 (t) = Dγ̇(t) Φ(γ(t)) = h γ̇(t), grad(Φ)(γ(t)) i .
p
Beispiel: Es sei ρ(x, y, z) = x2 + y 2 und

,
 (−a y, a x, 0)
aR2 aR2
v(x,y,z) =
 (− 2 y, 2 x, 0) ,
ρ
ρ
falls ρ ≤ R ist,
falls ρ ≥ R ist.
aR2
für ρ ≥ R.
ρ
Die Jacobi-Matrix J ist dann wie folgt gegeben:
Es ist k v(x,y,z) k = aρ für ρ ≤ R und =
1. für ρ ≤ R:
2. für ρ ≥ R:


0 −a 0
J = a 0 0  ,
0 0 0
y 2 − x2
−2xy
0

2xy
aR2  2
y − x2
J= 4
ρ
0

0
0  .
0
Sei γ(t) = (r cos(2πt), r sin(2πt), 0) für 0 ≤ t ≤ 1. Dann ist h vγ(t) , γ̇(t) i = 2π r k vγ(t) k ,
also
Z
2πar2
für r ≤ R ,
v=
2
2πaR
für r ≥ R .
γ
2.5.5 Satz : Sei U ⊂ Rn offen und v : U → Rn ein stetiges Vektorfeld. Dann sind äquivalent:
1. Es gibt eine Funktion Φ mit v = grad(Φ).
2. Sind α, β : [a, b] → U stückweise glatte Wege mit α(a) = β(a), α(b) = β(b), so ist
Z
Z
v=
v.
α
β
3. Ist γ : [c, d] → U stückweise glatter Weg mit γ(c) = γ(d), so ist
Z
v=0.
γ
E.Ossa
Analysis II (SS 04)
Beweis: Die Ausssagen 2. und 3.
γ : [c, d] → U definiert durch
γ(t) =
Inhaltsübersicht
21
sind zueinander äquivalent: Mit c = a, d = 2b − a sei
α(t)
, c≤t≤b
β(2b − t) , b ≤ t ≤ d .
Die Implikation 1. ⇒ 2. folgt unmittelbar aus Satz 2.5.4.
Es bleibt die Implikation 2. ⇒ 1. zu beweisen.
Sei p ∈ U und für x ∈ U sei γx : [0, 1] → U ein stückweise glatter Weg mit γx (0) = p und
γx (1) = x. Nach Voraussetzung ist dann
Z
Φ(x) =
v
γx
wohldefiniert.
Wir müssen zeigen, daß Φ in x partiell differenzierbar ist mit
grad(Φ)(x) = vx .
Sei h ∈ R klein und α der Weg
α(t) = x + thej , 0 ≤ t ≤ 1
Dann ist nach Lemma (2.5.3)
Φ(x + hej ) − Φ(x) =
=
Z
v
α
Z 1
h v(x + tjej ), hej idt
0
= h
Z
1
v j (x + thej )dt
0
wobei v j die j-te Komponentenfunktion von v ist. Nach dem Mittelwertsatz der Integralrechnung gibt es ein ϑh mit 0 < ϑh < 1, so daß
Z 1
v j (x + thej ) dt = v j (x + ϑh hej )
0
ist. Es folgt
lim
h→0
Φ(x + hej ) − Φ(x)
h
=
lim v j (x + ϑh hej )
h→0
j
= v (x) .
2.5.6 Definition : Wenn die Bedingungen des Satzes erfüllt sind, nennt man das Vektorfeld v
integrabel oder integrierbar und die Funktion Φ eine Potentialfunktion für v.
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
22
2.5.7 Satz (Integrabilitäts-Bedingung) : Sei v ein stetig differenzierbares Vektorfeld auf U .
Wenn v eine Potentialfunktion besitzt, so ist für p ∈ U die Jacobi-Matrix von v in p symmetrisch.
Beweis: Die Jacobi-Matrix von v ist gerade die Hesse-Matrix der Potentialfunktion Φ. Bemerkung: Man nennt diese Bedingung an die Jacobi-Matrix auch die IntegrabilitätsBedingung für v.
2.5.8 Satz : Sei U ⊂ Rn offen und sternförmig bezüglich p ∈ U . Sei v ein stetig differenzierbares
Vektorfeld auf U . Sei für jedes q ∈ U die Jacobi-Matrix von v in q symmetrisch. Dann
besitzt v auf U eine Potentialfunktion Φ : U → R.
Beweis: Zur Vereinfachung der Bezeichungen nehmen wir an, daß p = 0 ist. Sei v =
(v 1 , . . . , v n ). Für x ∈ U sei dann
Z
Φ(x) =
1
h v(tx), x idt
0
n Z 1
X
=
j=1
v j (tx)xj dt .
0
Wir werden im Anschluß zeigen, daß für eine nach xk stetig partiell differenzierbare Funktion
ϕ(x1 , . . . , xn , t) gilt:
Z b
Z b
∂
∂ϕ
ϕ(x, t) dt =
(x, t) dt .
∂xk a
∂x
k
a
Wenden wir dies hier an, so erhalten wir
n Z
X
1
∂(v j (tx) · xj )
dt
∂xk
j=1 0
Z 1
n Z 1
X
∂v j
(tx) dt
=
v k (tx) dt +
txj
∂xk
0
j=1 0
∂Φ
(x)
∂xk
=
Sei nun
Ψ(t) = v k (tx)t
Dann wird
0
Ψ (t)
=
=
I.B.
k
v (tx) +
v k (tx) +
n
X
j=1
n
X
j=1
txj
∂v k
(tx)
∂xj
txj
∂v j
(tx)
∂xk
Es folgt
∂Φ
(x) = Ψ(1) − Ψ(0) = v k (x) .
∂xk
Damit ist der Satz bewiesen.
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
23
2.5.9 Satz : Seien I, J ⊂ R offenene Intervalle und sei ϕ = ϕ(x, t) : I × J → R stetig und nach x
stetig partiell differenzierbar. Dann ist (für [a, b] ⊂ J)
b
Z
F (x) :=
ϕ(x, t) dt
a
nach x differenzierbar mit
F 0 (x) =
Z
b
a
∂ϕ
(x, t) dt .
∂x
Beweis: Sei p ∈ I und sei g : I × J → R definiert durch

ϕ(x, t) − ϕ(p, t)


, x 6= p ,
x−p
g(x, t) =
∂ϕ


(p, t)
, x=p.
∂x
Nach dem Mittelwertsatz ist für x 6= p
g(x, t) =
∂ϕ
(p + ϑx,t (x − p), t) ;
∂x
es folgt, daß g stetig ist.
Sei nun [c, d] ⊂ I ein abgeschlossenes Intervall, das p im Innern enthält. Dann ist g auf
[c, d] × [a, b] gleichmäßig stetig. Seien xk ∈ [c, d] von p verschieden mit lim xk = p, und
k→∞
sei
gk (t) = g(xk , t) .
Es folgt, daß die Funktionfolge (gk ) gleichmäßig auf [a, b] gegen
g(p, t) =
∂ϕ
(p, t)
∂x
konvergiert. Damit erhalten wir
Z
a
b
∂ϕ
(p, t) dt
∂x
=
=
Z
b
lim gk (t) dt
a k→∞
Z b
lim
k→∞
gk (t) dt
a
F (xk ) − F (p)
xk − p
= F (p) .
=
lim
k→0
0
2.5.10 Definition : Sei U ⊂ R3 offen und v = (v 1 , v 2 , v 3 ) : U → R3 ein differenzierbares Vektorfeld.
Die Rotation von v ist das Vektorfeld
rot(v) :=
∂v 2 ∂v 1
∂v 3 ∂v 2
∂v 1 ∂v 3
−
,
−
,
−
.
∂x2
∂x3 ∂x3
∂x1 ∂x1
∂x2
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
24
Im Beispiel von Seite 20 wird
rot(v)(x, y, z) :=
(0, 0, 2a) ,
(0, 0, 0)
,
für ρ ≤ R ,
für ρ ≥ R .
2.5.11 Korollar : Sei U ⊂ R3 offen und sternförmig, und sei v : U → R3 ein stetig differenzierbares
Vektorfeld. Dann hat v genau dann eine Potentialfunktion, wenn rot(v) = 0 ist.
Bemerkung: In Physik und Technik führt man gerne den ∇-Operator als symbolischen
Vektor
∂ ∂ ∂ ,
,
∇=
∂x ∂y ∂z
ein. Dann ist, für eine Funktion f : U → R und ein Vektorfeld v : U → R3 ,
∇f = grad(f )
und
rot(v) = ∇ × v .
Das Skalarprodukt h ∇, v i definiert die Divergenz:
2.5.12 Definition : Sei U ⊂ Rn offen und v = (v 1 , . . . , v n ) : U → Rn ein differenzierbares Vektorfeld. Die Funktion
n
X
∂v j
div(v) =
:U →R
∂xj
j=1
heißt die Divergenz (oder Quellstärke) von v.
2.5.13 Satz : Sei U ⊂ R3 offen und v : U → R3 ein stetig differenzierbares Vektorfeld. Dann gilt
div(rot(v)) = 0 .
Ist w : U → R3 ein Vektorfeld, so nennt man ein ein Vektorfeld v mit w = rot(v) auch ein
Vektorpotential von w. Eine notwendige Bedingung für die Existenz eines Vektorpotentials
ist also div(w) = 0.
Sei U ⊂ R3 offen und J ⊂ R ein (nicht leeres) offenes Intervall. Unter einem zeitabängigen
Vektorfeld (für t ∈ J) versteht man eine Abbildung
v : U × J → R3 .
Für jedes t ∈ J ist also
(x, y, z) 7→ v(x, y, z, t)
ein Vektorfeld v(−, t) auf U . Wenn wir Operatoren wie rot oder div auf solche Vektorfelder
anwenden, ist stets gemeint, daß die Zeitvariable t dabei konstant gedacht ist.
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
25
In der Theorie des Elektromagnetismus betrachtet man das elektrische Feld E und das
magnetische Feld H. Dann gelten (in einem homogenen Medium) die folgenden Gleichungen:
div(E) = ρ ,
(1)
div(H) = 0 .
(2)
wobei ρ die Ladungsdichte ist, und
Die letzte Gleichung formuliert man auch dahingehend, daß es keine magnetischen Ladungen
gibt.
Ferner ist
∂H
,
∂t
∂E
+I ,
∂t
rot(E)
= −
(3)
rot(H)
=
(4)
wobei I die Stromdichte ist. Dies sind die Maxwellschen Gleichungen.
2.5.14 Definition : Sei V ein endlich-dimensionaler reeller Vektorraum und sei U ⊂ V offen. Sei
V ∗ = Hom(V, R) der Dualraum von V .
1. Eine Pfaffsche Form (oder 1-Form) auf U ist eine Abbildung
ω : U →V ∗ .
Wir schreiben meistens p 7→ ωp .
2. Für eine differenzierbare Funktion f : U → R sei df die Pfaffsche Form
df : p 7→ df |p = Df (p) .
3. Sei ω eine stetige Pfaffsche Form auf U . Für einen stückweise stetig differenzierbaren
Weg γ : [a, b] → U sei
Z
Z b
ω :=
ωγ(t) (γ̇(t)) dt .
γ
a
2.5.15 Hilfssatz : Sei V ein endlich-dimensionaler reeller Vektroraum.
1. Ist f : V → R linear, so ist
df |p = f
für jedes p ∈ V .
2. Seien x1 , . . . , xn : V → R Koordinatenfunktion für V . Sei U ⊂ R offen und ω eine
Pfaffsche Form auf U . Dann gibt es eine eindeutige Darstellung
ω=
n
X
j=1
mit Funktionen ω j : U → R.
ω j dxj
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
26
2.5.16 Hilfssatz : Sei U ⊂ Rn offen und f : U → R differenzierbar. Dann ist
n
X
∂f
dxj .
df =
∂x
j
j=1
Sei V ein endlich-dimensionaler euklidischer Vektorraum und
ι : V ∗ →V
der Isomorphismus mit
ω(v) = h ι(ω), v i
(für alle v ∈ V ).
Ist U ⊂ V offen und f : U → R differenzierbar, so ist der Gradient von f das Vektorfeld
grad(f ) : U → R mit
grad(f )(p) = ι(df |p ) .
E.Ossa
2.6
Analysis II (SS 04)
Inhaltsübersicht
27
Der Umkehrsatz
2.6.1 Definition : Seien U1 ⊂ Rn und U2 ⊂ Rm offen. Eine Abbildung f : U1 → U2 heißt ein
C 1 -Diffeomorphismus, wenn f bijektiv ist und wenn f und f −1 beide stetig differenzierbar
sind.
2.6.2 Lemma : Seien U1 ⊂ Rn und U2 ⊂ Rm offen. Ist f : U1 → U2 ein C 1 -Diffeomorphismus, so
ist für p ∈ U1 mit q := f (p)
Df −1 (q) = (Df (p))−1 .
Insbesondere ist also m = n. Ist f sogar k-mal stetig differenzierbar, so auch f −1 .
2.6.3 Definition : Für eine lineare Abbildung F : Rn → Rm sei die Operator-Norm von F definiert
durch
k F k := sup{ k F (x) k | k x k ≤ 1} .
2.6.4 Hilfssatz : Sei U ⊂ Rn konvex und f : U → Rm eine stetig differenzierbare Abbildung. Ist
k Df (p) k ≤ M für alle p ∈ U , so gilt für x, x0 ∈ U
k f (x0 ) − f (x) k ≤ M k x0 − x k .
Beweis: Dies folgt unmittelbar aus dem Mittelwertsatz (2.2.7), in Verbindung mit der
Abschätzung
Z b
Z b
k
g(t) dt k ≤
k g(t) k dt
a
a
(welche z.B. für stückweise stetiges g : [a, b] → U gilt).
2.6.5 Satz (Umkehrsatz) : Sei U ⊂ Rn offen und f : U → Rn stetig differenzierbar. Sei p ∈ U ,
so daß Df (p) ein Isomorphismus ist. Dann gibt es Umgebungen U1 ⊂ U von p und U2 von
f (p), so daß f |U1 : U1 → U2 ein C 1 -Diffeomorphismus ist.
Beweis: 1. Zur Vereinfachung der Bezeichnungen sei o.B.d.A.
p = 0,
f (p) = 0 und Df (p) = id .
Ferner sei Df (x) bijektiv für alle x ∈ U .
2. Sei h(x) := f (x) − x. Dann ist Dh(0) = 0. Wir können daher o.B.d.A. annehmen, daß
1
k Dh(x) k < ist für x ∈ U . Dann wird für x, x0 ∈ U
2
k h(x0 ) − h(x) k ≤
1
k x0 − x k ,
2
also, wegen h(x0 ) − h(x) = (f (x0 ) − f (x)) − (x0 − x),
k f (x0 ) − f (x) k ≥
Es folgt, daß f injektiv ist.
1
k x0 − x k .
2
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
28
3. Sei ε > 0 so gewählt, daß K := {x | k x k ≤ ε} in U enthalten sind. Sei L das Bild von
∂K unter f , also L = {f (x) | k x k = ε}. Da L kompakt ist, nimmt die stetige Funktion
d
k y k auf L ein Minimum d an; es ist dann d > 0. Sei nun y0 ∈ Rn mit k y0 k < . Für
3
d
y ∈ L ist dann k y − y0 k > .
3
Die Funktion ϕ(x) := k f (x) − y0 k muß nun auf der kompakten Menge K in einem Punkt x0
d
ein Minimum annehmen; wegen ϕ(0) < kann x0 nicht in ∂K liegen. Daher ist x0 innerer
3
Punkt von K und es folgt
D(ϕ2 )(x0 ) = 0 .
Es ist aber
Dv (ϕ2 )(x0 ) = 2h f (x0 ) − y0 , Dv f (x0 )) i .
Da Df (x0 ) bijektiv ist, folgt f (x0 ) = y0 . Mit
U2 := {y | k y k <
d
} und U1 := f −1 (U2 )
3
ist also f : U1 → U2 bijektiv.
4. Es bleibt zu zeigen, daß g := f −1 : U2 → U1 stetig differenzierbar ist.
1
3
Wegen k Dh(x) k < und f = h + id ist k Df (x) k < . Für x, x0 ∈ K ist daher
2
2
3
3
k x0 − x k ≤ k f (x0 ) − f (x) k ≤
k x0 − x0 k .
2
2
Hieraus folgt insbesondere, daß g auf U2 stetig ist.
(5)
Seien nun x, x0 ∈ U1 verschieden und zur Abkürzung y = f (x) und y 0 = f (x0 ). Da f
differenzierbar ist, gibt es eine Abbildung ϕ(x, x0 ), so daß mit Ax = Df (x) gilt
f (x0 ) − f (x) = Ax (x0 − x) + ϕ(x, x0 ) k x0 − x k ,
wobei lim
ϕ(x, x0 ) = 0 ist. Wir erhalten, indem wir By := A−1
x auf die letzte Gleichung
0
x →x
anwenden,
g(y 0 ) − g(y)
= x0 − x = By (y 0 − y) − By (ϕ(x, x0 )) k x0 − x k
k x0 − x k
= By (y 0 − y) − By (ϕ(x, x0 ))
k y0 − y k .
k y0 − y k
Der Bruch in der letzten Formel ist aber wegen der Abschätzung (5) beschränkt, womit folgt
lim
By (ϕ(x, x0 ))
0
y →y
k x0 − x k
=0.
k y0 − y k
Damit ist die Differenzierbarkeit von g bewiesen.
Da Ax stetig von x abhängt, hängt By = A−1
x stetig von y ab.
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
29
Beispiel: Polarkoordinaten:
Definiere P (2) : R2 → R2 durch
P (2) (r, ϕ) := (r cos(ϕ), r sin(ϕ)) .
Die Jacobi-Matrix von P (2) ist
J (2) =
cos(ϕ) −r sin(ϕ)
sin(ϕ)
r cos(ϕ)
Ihre Determinante ist det(J (2) ) = r. Es folgt, daß P (2) in allen Punkten (r, ϕ) mit r 6= 0 ein
lokaler C 1 -Diffeomorphismus ist.
Mit Jα := ]a, a + 2π[ und Sα := {(r cos(α), r sin(α)) | r ≥ 0} wird R+ × Jα durch P (2)
diffeomorph auf R2 − Sα abgebildet.
Die Spalten der Jacobi-Matrix sind orthogonal zueinander; die erste Spalte hat die Länge 1,
die zweite die Länge r.
Definiere P (3) : R3 → R3 durch
P (3) (r, ϕ, ψ) := (r cos(ϕ) cos(ψ), r sin(ϕ) cos(ψ), r sin(ψ)) .
Die Jacobi-Matrix von P (3) ist


cos(ϕ) cos(ψ) −r sin(ϕ) cos(ψ) −r cos(ϕ) sin(ψ)
(3)
r cos(ϕ) cos(ψ) −r sin(ϕ) sin(ψ) 
J =  sin(ϕ) cos(ψ)
sin(ψ))
0
r cos(ψ)
Ihre Determinante ist det(J (3) ) = r2 cos(ψ). Es folgt, daß P (2) in allen Punkten (r, ϕ, ψ)
mit r 6= 0 und cos(ψ) 6= 0 ein lokaler C 1 -Diffeomorphismus ist.
−π π
Mit I := ]
, [ wird R+ × Jα × I durch P (3) diffeomorph auf R3 − (Sα × R) abgebildet.
2 2
Die Spalten der Jacobi-Matrix sind orthogonal zueinander; die erste Spalte hat die Länge 1,
die zweite die Länge r cos(ψ) und die dritte die Länge r.
E.Ossa
2.7
Analysis II (SS 04)
Inhaltsübersicht
30
Implizite Funktionen
Problem: Sei F : R × R → R eine Abbildung. Läßt sich die Gleichung F (x, y) = 0 nach
y auflösen? Genauer: Sei F (a, b) = 0. Wann gibt es offene Umgebungen Ua von a und Ub
von b sowie eine Funktion ϕ : Ua → Ub , so daß für x ∈ Ua der Punkt (x, ϕ(x)) die einzige
Lösung von F (x, y) = 0 mit (x, y) ∈ Ua × Ub ist?
Beispiel: F (x, y) = x2 (1 − x2 ) − y 2 . In den Punkten (0, 0), (±1, 0) ist die Antwort negativ.
Fragt man, ob sich x analog als Funktion von y darstellen läßt, so ist die Antwort negativ
für die Punkte (0, 0) und (± √12 , ± 12 ).
Im folgenden sei U ⊂ Rn × Rm offen und F : U → Rm stetig differenzierbar. Wir können
dann für p ∈ U schreiben
DF (p)(ξ, η) = F10 (p)(ξ) + F20 (p)(η) .
2.7.1 Satz (über implizite Funktionen) : Sei (a, b) ∈ U mit F (a, b) = 0, und sei F20 (a, b) :
Rm → Rm bijektiv. Dann gibt es Umgebungen Ua von a in Rn und Ub von b in Rm sowie
eine stetig differenzierbare Funktion ϕ : Ua → Ub mit den folgenden Eigenschaften:
1. Für x ∈ Ua und y ∈ Ub ist genau dann F (x, y) = 0 ist, wenn y = ϕ(x) ist.
2. Für x ∈ Ua ist F20 (x, ϕ(x)) invertierbar und
−1
Dϕ(x)(ξ) = −F20 (x, ϕ(x))
(F10 (x, ϕ(x))(ξ)) .
Ist F k-mal stetig differenzierbar, so auch ϕ.
Beweis: Definiere G : U → Rn × Rm durch G(x, y) := (x, F (x, y)). Dann ist DG(a, b) ein
Isomorphismus. Nach dem Umkehrsatz gibt es Umgebungen Ua0 von a und Ub von b, so
daß die Einschränkung von G auf Ua0 × Ub ein C 1 -Diffeomorphismus auf G(Ua0 × Ub ) ist. Sei
Ua ⊂ Ua0 eine Umgebung von a in Ua0 , so daß Ua × {0} ⊂ G(Ua0 × Ub ) ist.
Für x ∈ Ua sei nun G−1 (x, 0) = (x, ϕ(x)).
2.7.2 Korollar : Sei U ∈ Rn offen und seien α1 , . . . , αk : U → R stetig differenzierbare Funktionen.
Für x ∈ U sei F (x, y) = y k + α1 (x)y k−1 + · · · + αk−1 (x)y + αk (x). Sei a ∈ U und b ∈ R
∂F
(a, b) 6= 0. Dann gibt es eine stetig differenzierbare Funktion ϕ auf
mit F (a, b) = 0 und
∂y
einer Umgebung V von a in U , so daß F (x, ϕ(x)) = 0 ist für x ∈ V und ϕ(a) = b.
2.7.3 Satz : Sei U ⊂ Rn+m offen, und seien F : U → Rm und g : U → R stetig differenzierbar. Sei
p ∈ M := F −1 (0) ,
so daß DF (p) : Rn+m → Rm surjektiv ist. Wenn g|M in p ein lokales Minimum hat, so gilt
Kern(DF (p)) ⊂ Kern(Dg(p)) .
Beweis: Wir wählen in Rn+m eine neue Basis (b1 , . . . , bn+m ) wie folgt:
Kern(DF (p)) = Spann{b1 , . . . , bn } ,
E.Ossa
Analysis II (SS 04)
Inhaltsübersicht
31
DF (p)(bn+i ) = ei ∈ Rm für i = 1, . . . , m .
Bezüglich dieser Basis ist dann F10 (p) = 0 und F20 (p) = id. Sei p = (a, b) und sei ϕ : Ua → Ub
wie oben definiert. Dann ist ϕ0 (a) = 0. Für x ∈ Ua ist F (x, ϕ(x)) = 0; es folgt, daß
die Funktion h : Ua → R mit h(x) = g(x, ϕ(x)) in x = a ein lokales Extremum hat. Für
i ∈ {1, . . . , n} ist daher 0 = Dbi h(a) = Dbi g(a, b).
2.7.4 Korollar : Seien die Voraussetzungen wie im vorangehenden Satz. Dann gibt es reelle Zahlen
λ1 , . . . , λm , so daß die Funktion
f = g − (λ1 F1 + · · · + λm Fm )
in p eine verschwindende Ableitung hat.
Beispiel: Sei A eine symmetrische n × n-Matrix, und
M := {x ∈ Rn | ||x|| = 1} .
Sei g : Rn → R definiert durch
g(x) := x> Ax .
Wenn g auf M ein lokales Extremun bei v ∈ M hat, so ist v ein Eigenvektor von A.
E.Ossa
2.8
Analysis II (SS 04)
Inhaltsübersicht
32
Variationsrechnung
Für eine offene Teilmenge U ⊂ Rn sei C (2) (U ) die Menge der zweimal stetig differenzierbaren
Funktion ϕ : U → R.
Sei [a, b] ⊂ R und U eine offene Umgebung von [a, b] × R × R in R × R × R. Sei
L : U →R
zweimal stetig differenzierbar. Die Koordinaten in [a, b] × R × R schreiben wir als (t, u, v).
Für c1 , c2 ∈ R sei
M = {ϕ ∈ C (2) ( [a, b] ) | ϕ(a) = c1 , ϕ(b) = c2 } .
Definiere J : M → R durch
J(ϕ) =
Z
b
L(t, ϕ(t), ϕ0 (t)) dt .
a
Wir benötigen den folgenden
2.8.1 Hilfssatz : Sei f : [a, b] → R stetig. Für jedes η ∈ C (2) ( [a, b] ) mit η(a) = η(b) = 0 sei
Z b
f (t)η(t) dt = 0
a
Dann ist f = 0.
Beweis: Andernfalls gibt es ein x ∈ [a, b] mit f (x) 6= 0. Sei > 0, so daß f in dem Intervall
K = {t ∈ [a, b] | |t − x| < } keine Nullstelle hat. Wähle nun ein η ≥ 0 mit η(x) > 0 und
η(t) = 0 für t 6∈ K.
2.8.2 Satz : Wenn J in ϕ ∈ M ein Minimum annimmt, so genügt ϕ der Differentialgleichung von
Euler-Lagrange:
∂L
d ∂L
E(t, ϕ) =
(t, ϕ(t), ϕ0 (t)) −
(t, ∂(t), ∂ 0 (t)) = 0 .
∂u
dt ∂v
Beweis: Sei η ∈ C (2) ( [a, b] ) mit η(a) = η(b) = 0. Für s ∈ R sei ψ(t) = ϕ(t) + sη(t) und
Z b
j(s) =
L(t, ψ(t), ψ 0 (t)) dt .
a
Dann hat j bei s = 0 ein Minimum. Es ist aber
Z b
Z b
∂L
∂L
j 0 (0) =
(t, ϕ(t), ϕ0 (t)) η(t) dt +
(t, ϕ(t), ϕ0 (t)) η 0 (t) dt ,
a ∂u
a ∂v
was mit partieller Integration zu
j 0 (0) =
Z
b
E(t, ϕ) η(t) dt
a
wird.
2.8.3 Korollar : Differentialgleichungen von Euler-Lagrange für ϕ : [a, b] → Rk .
Beispiel: Brachistochrone.
Herunterladen