E.Ossa Analysis II (SS 04) Inhaltsübersicht 1 Topologie des Rn 1 Bezeichnungen: Es ist Rn = {(x1 , . . . , xn ) | xj ∈ R}. Hierbei sind die Vektoren des Rn durchweg als Spaltenvektoren zu interpretieren. Sie werden hier nur aus typographischen Gründen als Zeilenvektoren geschrieben. Die j-te Koordinaten-Projektion ist die lineare Abbildung prj : Rn → R mit (x1 , . . . , xn ) 7→ xj . Wir identifizieren Rm × Rn mit Rm+n . p P Das Skalarprodukt h x, y i = j xj yj induziert die Norm k x k = h x, x i und den Abstand d(x, y) = k x − y k . Die ε-Umgebung von p ist Uε (p) = {x | d(x, p) < ε} (für ε > 0). Statt des Rn können wir auch n-dimensionale normierte reelle Vektorräume V betrachten; eine Basis von V definiert eine Bijektion zwischen V und Rn . 1.1 Folgen im Rn 1.1.1 Definition : Seien xk ∈ Rn für k ∈ N und y ∈ Rn . 1. y heißt Häufungswert der Folge (xk ), wenn für jedes ε > 0 gilt: xk ∈ Uε (y) für unendlich viele k ∈ N . 2. y heißt Grenzwert der Folge (xk ) und man schreibt y = lim xk , wenn für jedes ε > 0 k→∞ gilt: xk ∈ Uε (y) für fast alle k ∈ N . 1.1.2 Lemma : Sei xk = (xk,1 , . . . , xk,n ), y = (y1 , . . . , yn ). 1. Ist y Häufungswert der Folge (xk ), so ist yj Häufungswert der Folge (xk,j ) für jedes j ∈ {1, . . . , n}. 2. y ist genau dann Grenzwert der Folge (xk ), wenn yj Grenzwert der Folge (xk,j ) ist für jedes j ∈ {1, . . . , n}. 1.1.3 Definition : Die Folge (xk ) heißt Cauchy-Folge, wenn es zu jedem ε > 0 ein k0 ∈ N gibt, so daß gilt d(xr , xs ) < ε für r, s ≥ k0 . 1.1.4 Lemma : Die Folge (xk ) ist genau dann konvergent, wenn sie eine Cauchy-Folge ist. 1.1.5 Lemma : Seien (xk ) und (yk ) konvergente Folgen. Dann ist 1. lim (λxk + µyk ) = λ lim xk + µ lim yk (für λ,µ ∈ R), k→∞ k→∞ k→∞ 2. lim h xk , yk i = h lim xk , lim yk i. k→∞ k→∞ k→∞ E.Ossa Analysis II (SS 04) Inhaltsübersicht 2 1.1.6 Lemma : y ∈ Rn ist genau dann Häufungswert der Folge (xk ), wenn es eine Teilfolge (xkl )l∈N von (xk ) gibt, die gegen y konvergiert. 1.1.7 Satz (Bolzano-Weierstraß, I) : Sei (xk ) eine beschränkte Folge von Vektoren des Rn . Dann hat (xk ) einen Häufungswert. E.Ossa 1.2 Analysis II (SS 04) Inhaltsübersicht 3 Topologische Grundbegriffe Im folgenden sei M ⊂ Rn eine Teilmenge. 1.2.1 Definition : 1. p ∈ M heißt innerer Punkt von M , wenn es ein ε > 0 gibt mit Uε (p) ⊂ M . In diesem Fall sagt man auch, daß M eine Umgebung von p ist. 2. M heißt offen, wenn jeder Punkt p ∈ M innerer Punkt von M ist. 3. Die Menge ◦ M := {p ∈ M | p ist innerer Punkt von M } heißt der offene Kern von M. 1.2.2 Hilfssatz : 1. Uε (p) ist offen. ◦ 2. M ist offen. 3. Sind K ⊂ Rm und L ⊂ Rn offen, so ist auch K × L ⊂ Rm+n offen. 1.2.3 Hilfssatz : Für Teilmengen von X = Rn gilt: 1. ∅ und X sind offen. 2. Sind M und N offen, so ist auch M ∩ N offen. S 3. Sind alle Mi offen für i ∈ I, so ist auch i∈I Mi offen. Bemerkung: Eine Familie von offenen“ Teilmengen einer Menge X, welche diese Eigen” schaften hat, nennt man eine Topologie auf X. ◦ 1.2.4 Hilfssatz : Sei M ⊂ Rn . Dann ist M die Vereinigung aller in M enthaltenen offenen ◦ Teilmengen des Rn . Insbesondere ist M die größte in M enthaltene offene Menge. 1.2.5 Definition : Eine Teilmenge A ⊂ Rn heißt abgeschlossen, wenn Rn − A offen ist. 1.2.6 Hilfssatz : Für Teilmengen von X = Rn gilt: 1. ∅ und X sind abgeschlossen. 2. Sind M und N abgeschlossen, so ist auch M ∪ N abgeschlossen. T 3. Sind alle Mi abgeschlossen für i ∈ I, so ist auch i∈I Mi abgeschlossen. 1.2.7 Definition : Für M ⊂ Rn sei M der Durchschnitt aller abgeschlossenen Teilmengen des Rn , welche M enthalten. Die Menge M heißt die abgeschlossene Hülle von M . E.Ossa Analysis II (SS 04) Inhaltsübersicht 4 Bemerkung: M ist also die kleinste abgeschlossene Teilmenge des Rn , welche M enthält. Nach Hilfssatz (1.2.4) ist ◦ ◦ Rn − M = (Rn − M ) und Rn − M = Rn − M . 1.2.8 Definition : Sei M eine Teilmenge von Rn und p ∈ Rn . 1. p heißt Berührungspunkt von M , wenn für jedes ε > 0 der Schnitt Uε (p) ∩ M 6= ∅ ist. 2. p heißt Häufungspunkt von M , wenn für jedes ε > 0 der Schnitt Uε (p) ∩ (M − {p}) 6= ∅ ist. 3. p heißt isolierter Punkt von M , wenn p Berührungspunkt, aber nicht Häufungspunkt von M ist. 4. p ∈ Rn heißt äußerer Punkt von M , wenn p kein Berührungspunkt von M ist. 5. p ∈ Rn heißt Randpunkt von M , wenn p Berührungspunkt von M und von Rn − M ist. Die Menge der Randpunkte von M wird mit ∂M bezeichnet. Bemerkungen: 1. Ist p ∈ M , so ist p Berührungspunkt von M . 2. p ist genau dann isolierter Punkt von M , wenn es ein ε > 0 gibt mit Uε (p) ∩ M = {p}. 3. p ist genau dann äußerer Punkt von M , wenn p innerer Punkt von Rn − M ist. 1.2.9 Lemma : M ist die Menge der Berührungspunkte von M . 1.2.10 Hilfssatz : 1. Uε (p) = {x | d(x, p) ≤ ε} (für ε > 0). 2. Sind K ⊂ Rm und L ⊂ Rn , also K × L ⊂ Rm+n , so ist K ×L=K ×L . 1.2.11 Lemma : Sei M eine Teilmenge von Rn und p ∈ Rn . 1. p ist genau dann Häufungspunkt von M , wenn es eine Folge (xk ) gibt mit xk ∈ M −{p} und lim xk = p. k→∞ 2. p ist genau dann Berührungspunkt von M , wenn es eine Folge (xk ) gibt mit xk ∈ M und lim xk = p. k→∞ 3. p ist genau dann Randpunkt von M , wenn es Folgen (xk ) und (yk ) gibt mit xk ∈ M , yk 6∈ M und lim xk = p = lim yk . k→∞ k→∞ E.Ossa Analysis II (SS 04) Inhaltsübersicht 5 1.2.12 Lemma : Für eine Teilmenge A ⊂ Rn sind die folgenden Aussagen äquivalent: 1. A ist abgeschlossen. 2. Sind xk ∈ A und ist y Häufungswert der Folge (xk ), so ist y ∈ A. 3. Sind xk ∈ A und ist y Grenzwert der Folge (xk ), so ist y ∈ A. 1.2.13 Lemma : Sei M eine Teilmenge von Rn . Dann gilt: 1. ∂M = ∂(Rn − M ). ◦ 2. M − ∂M = M ist offen. 3. M ∪ ∂M = M ist abgeschlossen. 4. ∂M = M ∩ Rn − M ist abgeschlossen. 5. Sind K ⊂ Rm und L ⊂ Rn , also K × L ⊂ Rm+n , so ist ∂(K × L) = ∂K × L ∪ K × ∂L . 1.2.14 Definition : Sei X ⊂ Rn und M ⊂ X sowie p ∈ M . 1. M heißt Umgebung von p in X, wenn es eine Umgebung U ⊂ Rn von p gibt mit M = U ∩ X. 2. M heißt offen in X, wenn es eine offene Teilmenge U ⊂ Rn gibt mit M = U ∩ X. 3. M heißt abgeschlossen in X, wenn es eine abgeschlossene Teilmenge A ⊂ Rn gibt mit M = A ∩ X. E.Ossa 1.3 Analysis II (SS 04) Inhaltsübersicht 6 Stetige Abbildungen Im folgenden seien D ⊂ Rn und E ⊂ Rm Teilmengen, sowie f : D → E eine Abbildung. Die Funktionen fj = prj ◦ f : D → R (für j = 1, . . . , m) heißen die Komponenten-Funktionen von f . Für x ∈ D können wir also schreiben f (x) = (f1 (x), . . . , fm (x)) . 1.3.1 Definition : 1. f heißt stetig in p ∈ D, wenn zu jedem ε > 0 ein δ > 0 existiert, so daß für alle x ∈ D gilt d(x, p) < δ ⇒ d(f (x), f (p)) < ε . 2. f heißt stetig auf D, wenn f in jedem Punkt p ∈ D stetig ist. 1.3.2 Lemma : Sei p ∈ D. Dann sind folgende Aussagen äquivalent: 1. f ist stetig in p. 2. Sind die xk ∈ D mit lim xk = p, so ist lim f (xk ) = f (p). k→∞ k→∞ 3. Alle Komponenten-Funktion fj von f sind stetig in p. 4. Für jedes ε > 0 ist f −1 (Uε (f (p))) ⊂ D eine Umgebung von p in D. 1.3.3 Korollar : Die folgenden Aussagen sind äquivalent: 1. f ist stetig auf D. 2. Ist U ⊂ Rm offen, so ist f −1 (U ) ⊂ D offen in D. 3. Ist A ⊂ Rm abgeschlossen, so ist f −1 (A) ⊂ D abgeschlossen in D. 1.3.4 Lemma : Seien f , g : D → R stetig in p ∈ D. Sei D0 = {x | g(x) 6= 0}. 1. Für λ, µ ∈ R ist die Funktion λf + µg stetig in p. 2. Die Funktion f · g ist stetig in p. 3. Ist p ∈ D0 , so ist f : D0 → R stetig in p. g 1.3.5 Korollar : Sei F : Rn → Rm linear. Dann ist F stetig. 1.3.6 Satz : Ist f : D → E stetig in p ∈ D und g : E → Rk stetig in f (p), so ist g ◦ f : D → Rk stetig in p. 1.3.7 Korollar : Die Komposition stetiger Abbildungen ist stetig. 1.3.8 Definition : f : D → E heißt Homöomorphismus, wenn f bijektiv ist und wenn f und die Umkehrabbildung f −1 : E → D beide stetig sind. 1.3.9 Lemma : Sei F : Rn → Rn linear und bijektiv. Dann ist F ein Homöomorphismus. E.Ossa 1.4 Analysis II (SS 04) Inhaltsübersicht 7 Kompaktheit und Zusammenhang 1.4.1 Definition : Sei K ⊂ Rn eine Teilmenge. 1. Eine Überdeckung von K ist eine Familie U = {Ui | i ∈ I} von Teilmengen Ui ⊂ Rn , S so daß K ⊂ Ui ist. Die Überdeckung U heißt offen, wenn jedes U ∈ U offen ist. i∈I 0 Ist I ⊂ I eine Teilmenge, so heißt U 0 = {Ui | i ∈ I 0 } eine Teilüberdeckung von U, wenn U 0 ebenfalls Überdeckung von K ist. 2. K heißt kompakt, wenn K die folgende Endliche-Überdeckungs-Eigenschaft hat: Jede offene Überdeckung U = {Ui | i ∈ I} von K besitzt eine endliche Teilüberdeckung. 1.4.2 Satz : Sei K ⊂ Rn kompakt. Dann ist K beschränkt und abgeschlossen. S Beweis: Beschränktheit folgt aus K ⊂ Un (0). n∈N+ S Ist x ∈ / K, so ist K ⊂ (Rn − U n1 (x)). n∈N+ 1.4.3 Satz : Ist K ⊂ Rn kompakt und A ⊂ K abgeschlossen, so ist A kompakt. 1.4.4 Satz : Sei Q der abgeschlossenen Quader Q = {(x1 , . . . , xn ) ∈ Rn | aj ≤ xj ≤ bj } . Dann ist Q kompakt. 1.4.5 Korollar (Heine-Borel) : Eine Teilmenge K ⊂ Rn ist genau dann kompakt, wenn K beschränkt und abgeschlossen ist. 1.4.6 Satz (Satz vom Maximum) : Sei f : Rn → Rm stetig. Ist K ⊂ Rn kompakt, so auch f (K) ⊂ Rm . 1.4.7 Satz (Lemma von Lebesgue) : Sei K ⊂ Rn kompakt und sei U = {Ui | i ∈ I} eine offene Überdeckung von K. Dann gibt es ein λ > 0, so daß zu jedem p ∈ K ein i ∈ I existiert mit Uλ (p) ⊂ Ui . 1.4.8 Definition : f : D → Rm heißt gleichmäßig stetig, wenn zu jedem ε > 0 ein δ > 0 existiert, so daß für alle x, y ∈ D gilt d(x, y) < δ ⇒ d(f (x), f (y)) < ε . 1.4.9 Satz : Sei f : D → Rm stetig. Ist D kompakt, so ist f gleichmäßig stetig. 1.4.10 Definition : Eine Teilmenge M ⊂ Rn heißt zusammenhängend, wenn gilt: Sind U1 , U2 ⊂ Rn offen mit M ⊂ U1 ∪ U2 und U1 ∩ U2 ∩ M = ∅, so ist M ⊂ U1 oder M ⊂ U2 . 1.4.11 Lemma : Eine zusammenhängende Teilmenge M ⊂ R ist ein Intervall. 1.4.12 Satz (Zwischenwertsatz) : Sei f : Rn → Rm stetig. Ist M ⊂ Rm zusammenhängend, so auch f (M ) ⊂ Rn . E.Ossa 2 Analysis II (SS 04) Inhaltsübersicht 8 Differentialrechnung 2.1 Wege 2.1.1 Definition : 1. Sei U ⊂ Rn eine nicht-leere Teilmenge. Ein Weg in U ist eine stetige Abbildung ◦ γ : I → U , wobei I ⊂ R ein Intervall ist mit nicht-leerem Inneren I. 2. Ein Weg γ = (γ1 , . . . , γn ) heißt differenzierbar, wenn alle Komponentenfunktionen γj differenzierbar sind. 3. Ein Weg γ = (γ1 , . . . , γn ) heißt stetig differenzierbar oder glatt, wenn alle Komponentenfunktionen γj stetig differenzierbar sind. 4. Ein Weg γ : I → Rn heißt stückweise glatt, wenn es eine Zerlegung I = I1 ∪ . . . ∪ Ik ◦ ◦ in Teilintervalle Iν gibt, wobei γ auf I ν stetig differenzierbar ist und die I ν nicht leer und paarweise disjunkt sind. 2.1.2 Definition : Sei γ : I → Rn ein differenzierbarer Weg. Für t0 ∈ I heißt dγ (t0 ) = (γ10 (t0 ), . . . , γn0 (t0 )) dt der Tangentenvektor bei t0 (oder auch Geschwindigkeitsvektor zum Zeitpunkt t0 ). Der Weg γ heißt regulär, wenn γ̇(t0 ) 6= 0 ist für jedes t0 ∈ I, sonst singulär. γ̇(t0 ) = Beispiele wie im Netz. 2.1.3 Definition : Seien γ1 : I1 → Rn und γ2 : I → Rn differenzierbare Wege, und seien t1 ∈ I1 und t2 ∈ I2 mit γ1 (t1 ) = γ2 (t2 ) und γ˙1 (t1 ) 6= 0 6= γ˙2 (t2 ). Der Schnittwinkel von γ1 und γ2 in t1 bzw. t2 ist der Winkel ϑ ∈ [0, π] mit cos(ϑ) = h γ˙1 (t1 ), γ˙2 (t2 ) i . k γ˙1 (t1 ) k k γ˙2 (t2 ) k 2.1.4 Definition : Sei γ : [a, b] → Rn ein glatter Weg. Die Bogenlänge L von γ ist definiert durch Z b L= k γ̇(t) k dt . a Beispiel: Der differenzierbare Weg γ : [0, 1] → R2 1 )) t2 ist im Nullpunkt nicht glatt. In der Tat ist k γ̇(t) k nicht integrierbar, so daß diesem Weg keine Bogenlänge zukommt; man sagt auch, daß γ nicht rektifizierbar ist. γ(t) = (t, t2 cos( Beispiel: Die Bogenlänge der Ellipse γ(t) = (a cos t, b sin t) (mit a < b) führt auf das elliptische Integral Z 1r 1 − k 2 u2 L=4 du 1 − u2 0 mit k 2 = b2 −a2 b2 . E.Ossa Analysis II (SS 04) Inhaltsübersicht 9 2.1.5 Definition : Seien γ1 : I1 → Rn und γ2 : I2 → Rn glatte Wege. 1. Dann definieren γ1 und γ2 die gleiche glatte Kurve, wenn es eine bijektive Abbildung ϕ : I1 → I2 gibt mit γ1 (t) = γ2 (ϕ(t)) für t ∈ I1 , wobei ϕ und ϕ−1 stetig differenzierbar sind. Die Abbildung ϕ nennt man eine Parameter-Transformation; man sagt auch, daß γ1 durch Umparametrisierung mittels ϕ aus γ2 entsteht. 2. γ1 und γ2 definieren die gleiche orientierte glatte Kurve, wenn zusätzlich ϕ streng monoton wachsend ist. 2.1.6 Satz : Seien γ1 : I1 → Rn und γ2 : I2 → Rn glatte Wege. Ferner sei γ1 (t1 ) = γ2 (t2 ) sowie γ˙1 (t1 ) 6= 0 6= γ˙2 (t2 ). Sei γ3 : I3 → Rn aus γ2 durch Umparametrisierung mittels ϕ : I3 → I2 entstanden und t3 = ϕ−1 (t2 ). Ist ϑ der Schnittwinkel zwischen γ1 und γ2 sowie θ der Schnittwinkel zwischen γ1 und γ3 , so gilt cos(θ) = ε · cos(ϑ) mit ε = sign(ϕ0 (t3 )). 2.1.7 Satz : Sei γ : [a, b] → Rn ein glatter Weg und sei γ e : [c, d] → Rn aus γ durch Umparametrisierung mittels ϕ : [c, d] → [a, b] entstanden. Dann haben γ und γ e die gleiche Bogenlänge. 2.1.8 Definition : Ein Weg γ : I → Rn heißt k-mal (stetig) differenzierbar, wenn alle Komponentenfunktionen γj : I → R k-mal (stetig) differenzierbar sind. In diesem Fall schreibt man dk γ (k) := (γ1 , . . . , γn(k) ) . dtk Bemerkung: γ̈(t0 ) := d2 γ (t0 ) ist der Beschleunigungsvektor von γ (zum Zeitppunkt t0 ). dt2 E.Ossa 2.2 Analysis II (SS 04) Inhaltsübersicht 10 Partielle Ableitungen Im folgenden sei D ⊂ Rn offen und f : D → R eine Abbildung. Es sei (e1 , . . . , en ) die kanonische Basis des Rn . 2.2.1 Definition : Sei p ∈ D. 1. f ist in p in der i-ten Koordinatenrichtung partiell differenzierbar, wenn der Grenzwert ∂f f (p + hei ) − f (p) (p) := lim h→0 ∂xi h existiert. ∂f (p) heißt die i-te partielle Ableitung von f im Punkt p. ∂xi 2. f ist in D partiell differenzierbar, wenn in jedem p ∈ D alle partiellen Ableitungen von f existieren. 3. f ist in D stetig partiell differenzierbar, wenn f in D partiell differenzierbar ist und wenn alle partiellen Ableitungen von f stetig sind. ∂f ∂f ∂f , , ; analog für andere Variablen. ∂x ∂y ∂z Bemerkung: Für f (x, y, z) schreibt man auch Beispiele: 1. f (0, 0) = 0 und f (x, y) = xy sonst. x2 + y 2 2. Für r(x1 , . . . , xn ) := k (x1 , . . . , xn ) k ist ∂r xi = auf Rn − {0}. ∂xi r ∂g 3. Sei f : R → R differenzierbar und g(x1 , . . . , xn ) := f (r(x1 , . . . , xn )). Dann ist = ∂xi xi f 0 (r(x)) auf Rn − {0}. r 2.2.2 Definition : Ist f in p partiell differenzierbar, so heißt der Vektor grad(f )(p) := ∂f ∂f (p), . . . , (p) ∂x1 ∂xn der Gradient von f im Punkt p. Zum Beispiel ist grad(r)(p) = 1 p auf Rn − {0}. r 2.2.3 Definition : Sei v ∈ Rn . Dann besitzt f in p eine Richtungsableitung in Richtung v, wenn der Grenzwert f (p + hv) − f (p) Dv (f )(p) := lim h→0 h existiert. E.Ossa Analysis II (SS 04) Inhaltsübersicht Beispiel: Ist v = (v1 , v2 ) 6= (0, 0) und f (x, y) = Dv (f )(0) = 11 x2 y , so existiert die Richtungsableitung + y2 x2 v12 v2 . Dagegen verschwinden die partiellen Ableitungen bei 0. + v22 v12 2.2.4 Satz : Sei f in einer Umgebung von p partiell differenzierbar und seien die partiellen Ableitungen stetig in p. Dann existiert an der Stelle p auch die Richtungsableitung von f in Richtung v = (v1 , . . . , vn ) und es ist Dv (f )(p) = n X j=1 vj ∂f (p) = h v, grad(f )(p) i . ∂xj Beweis: Sei ein kleines h ∈ R − {0} gegeben. Definiere induktiv p0 := p und pj = pj−1 + n f (p ) − f (p P f (p + hv) − f (p) j j−1 ) hvj ej . Dann ist = . Wenden wir auf die Funktion h h j=1 t 7→ f (pj−1 + tej ) den Mittelwertsatz an, so erhalten wir f (pj ) − f (pj−1 ) = hvj ∂f (pj−1 + ϑj hvj ej ) ∂xj für ein ϑj mit 0 < ϑj < 1. Es folgt n f (p + hv) − f (p) X ∂f = vj (pj−1 + ϑj hvj ej ) . h ∂x j j=1 Für h → 0 konvergieren die pj gegen p, also die rechte Seite wegen der vorausgesetzten n P ∂f (p). Stetigkeit der partiellen Ableitungen in p gegen vj ∂x j j=1 2.2.5 Satz : Seien die Voraussetzungen an f wie im vorigen Satz (2.2.4). Sei γ ein glatter Weg mit γ(t0 ) = p. Dann ist t 7→ F (t) := f (γ(t)) in t0 differenzierbar und df (γ(t)) (t0 ) = (Dγ̇(t0 ) f )(p) . dt Beweis: Sei ein kleines h ∈ R−{0} gegeben. Nach dem Mittelwertsatz ist γj (t0 +h)−γj (t0 ) = hγj0 (t0 + θj h)) für ein θj mit 0 < θj < 1. Sei vj = γj0 (t0 + θj h)) und v der Vektor (v1 , . . . , vn ). Dann wird γ(t0 + h) = p + hv und f (γ(t0 + h)) − f (γ(t0 )) f (p + hv) − f (p) = . h h Wir gehen nun weiter vor wie im Beweis von Satz (2.2.4). 2.2.6 Korollar : Seien die Voraussetzungen des vorigen Satzes (2.2.5) gegeben. Ist f (γ(t)) konstant, so stehen γ̇(t0 ) und grad(f )(p) senkrecht aufeinander. 2.2.7 Satz (Mittelwertsatz) : Sei f auf D stetig partiell differenzierbar und γ : [a, b] → D ein differenzierbarer Weg. Mit p = γ(a) und q = γ(b) gilt Z b f (q) − f (p) = Dγ̇(t) f (γ(t)) dt . a E.Ossa Analysis II (SS 04) Inhaltsübersicht 12 Insbesondere gilt, wenn die Strecke von p nach q ganz in D enthalten ist, mit v = q − p, Z 1 f (q) − f (p) = Dv f (p + tv) dt . 0 2.2.8 Definition : Sei f auf D partiell differenzierbar. 1. Ist ∂f in p partiell nach xi differenzierbar, so heißt ∂xj ∂ ∂f ∂2f (p) := (p) ∂xi ∂xj ∂xi ∂xj zweite partielle Ableitung von f in p. 2. f heißt zweimal partiell differenzierbar in p, wenn alle zweiten partiellen Ableitungen ∂2f (p) existieren. ∂xi ∂xj 3. f heißt zweimal stetig partiell differenzierbar auf D, wenn alle partiellen Ableitungen ∂2f ∂f und auf D existieren und stetig sind. ∂xi ∂xi ∂xj Bemerkung: ∂2f ∂2f wird auch zu abgekürzt. ∂xj ∂xj ∂x2j 2.2.9 Satz (H.A.Schwarz) : Sei f auf D partiell differenzierbar. Ferner möge existieren und im Punkt p stetig sein. Dann existiert auch ∂2f (p) und es ist ∂xi ∂xj ∂2f ∂2f (p) = (p) . ∂xi ∂xj ∂xj ∂xi Beispiel: f (x, y) := ∂2f auf D ∂xj ∂xi x3 y − xy 3 ∂f ∂f hat (0, y) = −y und (x, 0) = x. 2 2 x +y ∂x ∂y E.Ossa 2.3 Analysis II (SS 04) Inhaltsübersicht 13 Totale Differenzierbarkeit Im folgenden sei U ⊂ Rn offen und f : U → Rm . 2.3.1 Definition : f heißt differenzierbar im Punkte p ∈ U , wenn es eine lineare Abbildung A : Rn → Rm gibt, so daß gilt lim v→0 f (p + v) − f (p) − A(v) =0. kv k Dann heißt Df (p) := A die Ableitung von f im Punkt p. Bemerkung: Es ist klar, daß A eindeutig bestimmt ist. Klar ist auch, daß f genau dann differenzierbar ist, wenn alle Komponenten fi es sind. Eine äquivalente Formulierung ist die folgende: Es gibt eine lineare Abbildung A und eine Abbildung ϕ = ϕ(p, v), so daß (für kleine v) gilt: f (p + v) = f (p) + A(v) + ϕ(p, v) k v k , wobei lim ϕ(p, v) = 0 ist. v→0 2.3.2 Satz : Sei f : U → Rm differenzierbar in p ∈ U . 1. f besitzt in p alle Richtungsableitungen und es ist Dv f (p) = (Df (p))(v) 2. Bezüglich der kanonischen Basen hat Df (p) die Matrix ∂f i ∂xj (p) i=1,...,m j=1,...,n Diese heißt auch Jacobi-Matrix oder Funktional-Matrix von f in p. 2.3.3 Lemma : 1. Seien f , g : U → Rm differenzierbar in p ∈ U . Für λ, ν ∈ R ist λf + νg in p differenzierbar und D(λf + νg)(p) = λ · Df (p) + νDg(p) . 2. Ist f : Rn → Rm linear, so ist f differenzierbar und Df (p) = f für jedes p ∈ Rn . 2.3.4 Satz : Sei U → R partiell differenzierbar und die partiellen Ableitungen seien stetig in p ∈ U . Dann ist f differenzierbar in p. 2.3.5 Hilfssatz : Ist f differenzierbar in p, so ist f stetig in p. E.Ossa Analysis II (SS 04) Inhaltsübersicht 14 2.3.6 Satz (Kettenregel) : Seien U ⊂ Rn und E ⊂ Rm offen und f : U → E sowie g : E → Rk Abbildungen. Sei f differenzierbar in p ∈ U und g differenzierbar in f (p) ∈ E. Dann ist g ◦ f : U → Rk differenzierbar in p und es gilt D(g ◦ f )(p) = Dg(f (p)) ◦ Df (p) . 2.3.7 Korollar : Seien U ⊂ Rn und E ⊂ Rm offen und f : U → E sowie g : E → Rk Abbildungen. Sei f differenzierbar in p ∈ U und g differenzierbar in f (p) ∈ E. Dann ist m X ∂gi ∂fl ∂(g ◦ f )i (p) = (f (p)) · (p) ∂xj ∂yl ∂xj l=1 2.3.8 Satz : Sei h : Rm × Rn → Rk bilinear. Dann ist h differenzierbar und Dh(p, q)(u, v) = h(p, v) + h(u, q) für p, u ∈ Rm , q, v ∈ Rn . Beweis: Sei A(u, v) = h(p, v) + h(u, q). Dann ist A linear und h(p + u, q + v) − h(p, q) − P A(u, v) = h(u, v). In Koordinaten ist h(u, v) = Ci,j ui vj . Ist C = max{ k Ci,j k } und i,j δ = max{|ui |, |vj |} so wird k h(u, v) k ≤ mnCδ 2 und k (u, v) k ≥ δ. Es folgt und damit lim (u,v) → (0,0) k h(u, v) k ≤δ k (u, v) k h(u, v) = 0. k (u, v) k 2.3.9 Korollar : Seien f : Rn → Rk und g : Rn → Rk differenzierbar in p. Dann ist ϕ(x) = h f (x), g(x) i differenzierbar in p mit Ableitung Dϕ(p)(v) = h f (p), Dg(p)(v) i + h Df (p)(v), g(p) i . Insbesondere ist also P ∂ϕ ∂gi ∂fi (p) = i fi (p) · (p) + (p) · gi (p) . ∂xj ∂xj ∂xj 2.3.10 Definition : Seien V , W endlich-dimensionale R-Vektorräume und α : V → Rn sowie β : W → Rm Isomorphismen. 1. Eine Teilmenge U ⊂ V heißt offen, wenn α(V ) offen in Rn ist. 2. Ist U ⊂ V , so heißt eine Abbildung f : U → W stetig in p ∈ U , wenn die Abbildung g := β ◦ f ◦ α−1 : α(U ) → Rm in α(p) stetig ist. 3. Ist U ⊂ V offen, so heißt eine Abbildung f : U → W differenzierbar in p ∈ U , wenn g := β ◦ f ◦ α−1 : α(U ) → Rm in α(p) differenzierbar ist. In diesem Fall ist die Ableitung von f im Punkte p die lineare Abbildung D(f )(p) : V → W mit D(f )(p) = β −1 ◦ D(g)(α(p)) ◦ α. Es ist klar, daß diese Definition unabhängig von der Wahl von α und β ist. E.Ossa Analysis II (SS 04) Inhaltsübersicht 15 2.3.11 Definition : Seien V , W endlich-dimensionale R-Vektorräume. Es sei U ⊂ V offen und f : U → W eine Abbildung. Dann heißt f differenzierbar auf U , wenn f in jedem Punkt p ∈ U differenzierbar ist; in diesem Fall heißt die Abbildung Df : U → Hom(V, W ) mit p 7→ Df (p) die Ableitung von f . Die Abbildung f heißt stetig differenzierbar, wenn sie differenzierbar ist und wenn die Ableitung Df : U → Hom(V, W ) stetig ist. E.Ossa 2.4 Analysis II (SS 04) Inhaltsübersicht 16 Höhere Ableitungen 2.4.1 Definition : Seien V , W endlich-dimensionale R-Vektorräume. Sei V k das k-fache Produkt V × V × . . . × V von V mit sich selbst. Eine k-fach multilineare Abbildung von V nach W ist eine Abbildung g : V k → W , so daß für alle v1 , . . . , vk ∈ V und alle i ∈ {1, . . . , n} die Abbildung v 7→ g(v1 , . . . , vi−1 , v, vi+1 , . . . , vk ) linear ist. Es bezeichne Homk (V, W ) den R-Vektorraum aller k-fach multilinearen Abbildungen von V nach W . 2.4.2 Hilfssatz : Hom(V, Homk (V, W )) und Homk+1 (V, W ) sind kanonisch isomorph. 2.4.3 Definition : Seien V , W endlich-dimensionale R-Vektorräume. Es sei U ⊂ V eine offene Teilmenge und f : U → W eine Abbildung. f heißt (k + 1)-mal differenzierbar auf U , wenn Dk f : U → Homk (V, W ) differenzierbar auf U ist. In diesem Fall heißt Dk+1 f := D(Dk f ) : U → Hom(V, Homk (V, W )) = Homk+1 (V, W ) die (k + 1)-te Ableitung von f . Ist Dk+1 f stetig, so sagt man, f sei (k + 1)-mal stetig differenzierbar auf U . 2.4.4 Lemma : Seien V , W endlich-dimensionale R-Vektorräume, sei U ⊂ V offen und f : U → W eine k-mal differenzierbare Abbildung. Dann gilt für p ∈ U und v1 , . . . ,vk ∈ V Dk f (p)(v1 , . . . , vk ) = lim = (Dv1 Dv2 . . . Dvk f )(p) k X X 1 (−1)k−s f (p + hi1 vi1 + . . . + his vis ) hk → 0 h1 . . . hk s=0 i <... i lim . . . lim h1 → 0 h2 → 0 1 s 2.4.5 Hilfssatz : Sei U ⊂ Rn offen und f : U → R eine k-mal differenzierbare Funktion. 1. Seien vi = (vi,1 , . . . , vi,n ) ∈ Rn für i = 1, . . . ,k. Dann ist Dk (f )(p)(v1 , . . . , vk ) = n X i1 ,... ,ik ∂kf (p) v1,i1 . . . vk,ik . ∂xi1 . . . ∂xik =1 2. Seien p, v ∈ Rn und γ(t) := p + tv. Dann ist dk f ◦ γ (0) = Dk f (p)(v, . . . ,v) . dtk 2.4.6 Korollar : Sei U ⊂ V offen und f : U → W eine k-mal stetig differenzierbare Abbildung. Dann ist Dk (f )(p) ∈ Homk (V, W ) eine symmetrische multilineare Abbildung. E.Ossa Analysis II (SS 04) Inhaltsübersicht 17 2.4.7 Definition : Ein Multiindex ist ein Tupel α = (α1 , . . . , αn ) von natürlichen Zahlen. Für einen Vektor x = (x1 , . . . , xn ) sei αn 1 xα := xα 1 . . . xn . Ferner sei |α| := α1 + . . . + αn und |α| α Dα f (p) := := |α|! sowie α1 !. . . αn ! ∂ |α| f ∂x1 α1 . . . ∂xn αn (p) . 2.4.8 Korollar : Sei U ⊂ Rn offen und f : U → R eine k-mal stetig differenzierbare Funktion. Dann ist für x = (x1 , . . . , xn ) X |α| Dk (f )(p)(x, . . . x) = Dα f (p) xα , α α wobei die Summe über alle Multiindizes α mit |α| = k zu erstrecken ist. Zum Beispiel ist D2 (f )(p)(x, x) = n X ∂2f 2 2 (p) xi ∂x i i=1 +2 X i<j ∂2f (p) xi xj . ∂xi ∂xj 2.4.9 Satz (Taylorformel) : Sei U ⊂ Rn offen und f : U → R (k + 1)-mal differenzierbar. Seien p ∈ U und v ∈ Rn , so daß die Verbindungsstrecke von p nach p + v ganz in U enthalten ist. Dann ist k X 1 j f (p + v) = D f (p)(v, . . . ,v) + Rk+1 j! j=0 mit Rk+1 = 1 Dk+1 f (p + ϑv)(v, . . . ,v) (k + 1)! für ein ϑ mit 0 < ϑ < 1. 2.4.10 Definition : Sei U ⊂ Rn offen und f : U → R 2-mal stetig differenzierbar. Die Hesse-Matrix von f im Punkte p ist die Matrix Hesse(f )(p) := ∂2f (p) . ∂xi ∂xj i,j=1,... ,n 2.4.11 Definition : Sei U ⊂ Rn offen und f : U → R eine Abbildung. f hat in p ∈ U ein lokales Minimum, wenn es ein ε > 0 gibt, so daß für x ∈ U gilt k x − p k < ε ⇒ f (x) ≥ f (p) . f hat in p ein lokales Maximum, wenn −f in p ein lokales Minimum hat; f hat in p ein lokales Extremum, wenn f in p ein lokales Minimum oder Maximum hat. E.Ossa Analysis II (SS 04) Inhaltsübersicht 18 Wir erinnern daran, daß eine symmetrische reelle Matrix stets diagonalisierbar ist; sie heißt positiv definit, wenn alle Eigenwerte positiv sind und positiv semidefinit, wenn alle Eigenwerte ≥ 0 sind. 2.4.12 Satz : Sei U ⊂ Rn offen und f : U → R eine 2-mal stetig differenzierbare Abbildung. 1. Hat f in p ∈ U ein lokales Minimum, so ist grad(f )(p) = 0 und die Hesse-Matrix Hesse(f )(p) ist positiv semidefinit. 2. Ist grad(f )(p) = 0 und ist die Hesse-Matrix Hesse(f )(p) positiv definit, so hat f in p ein (strenges) lokales Minimum. Beispiele: f (x, y) = x2 + y 3 und g(x, y) = x2 + y 4 . Sei grad(f )(p) = 0. Wir nehmen an, daß die Hesse-Matrix Hesse(f )(p) bezüglich der Basis (ai , bj , ck ) Diagonalgestalt hat; genauer seien 1 ≤ i ≤ r, 1 ≤ j ≤ s, 1 ≤ k ≤ t und ai bj ck Eigenvektor zum Eigenwert λi > 0 , Eigenvektor zum Eigenwert − µj < 0 , Eigenvektor zum Eigenwert 0 . P P P Schreiben wir v := ξi ai + ηj bj + ζk ck , so wird f (p + v) = f (p) + r X λi ξi2 − i=1 s X µj ηj2 j=1 +ϕ(ξi , ηj , ξk ) mit lim v→0 ϕ(ξi , ηj , ξk ) = 0. kv k 2.4.13 Definition : 1. p heißt kritischer Punkt von f wenn grad(f )(p) = 0 ist. 2. p heißt Sattelpunkt, wenn p kritischer Punkt ist und Hesse (f )(p) positive und negative Eigenwerte hat. E.Ossa 2.5 Analysis II (SS 04) Inhaltsübersicht 19 Vektorfelder 2.5.1 Definition : Sei U ⊂ Rn eine offene Teilmenge. Ein stetiges Vektorfeld v auf U ist eine stetige Abbildung. v : U → Rn . Das Vektorfeld heißt k-mal differenzierbar (bzw. stetig differenzierbar), wenn v k-mal differenzierbar (bzw. stetig differenzierbar) ist. Für ein Vektorfeld v bezeichnen wir die Komponenten-Funktionen mit v j : U → R. Wir schreiben auch vp := v(p). 2.5.2 Definition : Sei U ⊂ Rn offen und v : U → Rn ein stetiges Vektorfeld. Sei γ : [a, b] → U ein stückweise stetig differenzierbarer Weg. Das Weg-Integral von v entlang γ ist Z Z b v := h vγ(t) , γ̇(t) i dt . γ a Bemerkung: Man sollte dies nicht verwechseln mit dem Vektor Z b I := vγ(t) dt , a dessen Komponenten Ij = Z b v j (γ(t)) dt a sind. 2.5.3 Lemma : Seien v, γ wie in der vorangehenden Definition. 1. Sei ϕ : [c, d] → [a, b] ein C 1 -Diffeomorphismus und δ = γ ◦ ϕ. Dann ist Z Z v= v. δ γ 2. Sei a < m < b und γ1 := γ| [a,m] , γ2 := γ| [m,b] . Dann ist Z Z Z v= v+ v. γ Beweis: Es ist δ̇(s) = γ1 γ2 d(γ(ϕ(s)) = γ̇(ϕ(s)) · ϕ0 (s) , ds also Z v = δ Z d h vγ(ϕ(s)) , γ̇(ϕ(s))ϕ0 (s) i ds c = Z = Z d h vγ(ϕ(s)) , γ̇(ϕ(s)) i ϕ0 (s) ds c b h vγ(t) , γ̇(t) i dt a nach der Substitutionsregel. E.Ossa Analysis II (SS 04) Inhaltsübersicht 20 2.5.4 Satz : Sei U ⊂ Rn offen, Φ : U → R eine stetig differenzierbare Funktion. Dann gilt für jeden (stetig) differenzierbaren Weg γ : [a, b] → U mit γ(a) = p und γ(b) = q Z grad(Φ) = Φ(q) − Φ(p) . γ Beweis: Sei F (t) = Φ(γ(t)). Dann ist F 0 (t) = Dγ̇(t) Φ(γ(t)) = h γ̇(t), grad(Φ)(γ(t)) i . p Beispiel: Es sei ρ(x, y, z) = x2 + y 2 und , (−a y, a x, 0) aR2 aR2 v(x,y,z) = (− 2 y, 2 x, 0) , ρ ρ falls ρ ≤ R ist, falls ρ ≥ R ist. aR2 für ρ ≥ R. ρ Die Jacobi-Matrix J ist dann wie folgt gegeben: Es ist k v(x,y,z) k = aρ für ρ ≤ R und = 1. für ρ ≤ R: 2. für ρ ≥ R: 0 −a 0 J = a 0 0 , 0 0 0 y 2 − x2 −2xy 0 2xy aR2 2 y − x2 J= 4 ρ 0 0 0 . 0 Sei γ(t) = (r cos(2πt), r sin(2πt), 0) für 0 ≤ t ≤ 1. Dann ist h vγ(t) , γ̇(t) i = 2π r k vγ(t) k , also Z 2πar2 für r ≤ R , v= 2 2πaR für r ≥ R . γ 2.5.5 Satz : Sei U ⊂ Rn offen und v : U → Rn ein stetiges Vektorfeld. Dann sind äquivalent: 1. Es gibt eine Funktion Φ mit v = grad(Φ). 2. Sind α, β : [a, b] → U stückweise glatte Wege mit α(a) = β(a), α(b) = β(b), so ist Z Z v= v. α β 3. Ist γ : [c, d] → U stückweise glatter Weg mit γ(c) = γ(d), so ist Z v=0. γ E.Ossa Analysis II (SS 04) Beweis: Die Ausssagen 2. und 3. γ : [c, d] → U definiert durch γ(t) = Inhaltsübersicht 21 sind zueinander äquivalent: Mit c = a, d = 2b − a sei α(t) , c≤t≤b β(2b − t) , b ≤ t ≤ d . Die Implikation 1. ⇒ 2. folgt unmittelbar aus Satz 2.5.4. Es bleibt die Implikation 2. ⇒ 1. zu beweisen. Sei p ∈ U und für x ∈ U sei γx : [0, 1] → U ein stückweise glatter Weg mit γx (0) = p und γx (1) = x. Nach Voraussetzung ist dann Z Φ(x) = v γx wohldefiniert. Wir müssen zeigen, daß Φ in x partiell differenzierbar ist mit grad(Φ)(x) = vx . Sei h ∈ R klein und α der Weg α(t) = x + thej , 0 ≤ t ≤ 1 Dann ist nach Lemma (2.5.3) Φ(x + hej ) − Φ(x) = = Z v α Z 1 h v(x + tjej ), hej idt 0 = h Z 1 v j (x + thej )dt 0 wobei v j die j-te Komponentenfunktion von v ist. Nach dem Mittelwertsatz der Integralrechnung gibt es ein ϑh mit 0 < ϑh < 1, so daß Z 1 v j (x + thej ) dt = v j (x + ϑh hej ) 0 ist. Es folgt lim h→0 Φ(x + hej ) − Φ(x) h = lim v j (x + ϑh hej ) h→0 j = v (x) . 2.5.6 Definition : Wenn die Bedingungen des Satzes erfüllt sind, nennt man das Vektorfeld v integrabel oder integrierbar und die Funktion Φ eine Potentialfunktion für v. E.Ossa Analysis II (SS 04) Inhaltsübersicht 22 2.5.7 Satz (Integrabilitäts-Bedingung) : Sei v ein stetig differenzierbares Vektorfeld auf U . Wenn v eine Potentialfunktion besitzt, so ist für p ∈ U die Jacobi-Matrix von v in p symmetrisch. Beweis: Die Jacobi-Matrix von v ist gerade die Hesse-Matrix der Potentialfunktion Φ. Bemerkung: Man nennt diese Bedingung an die Jacobi-Matrix auch die IntegrabilitätsBedingung für v. 2.5.8 Satz : Sei U ⊂ Rn offen und sternförmig bezüglich p ∈ U . Sei v ein stetig differenzierbares Vektorfeld auf U . Sei für jedes q ∈ U die Jacobi-Matrix von v in q symmetrisch. Dann besitzt v auf U eine Potentialfunktion Φ : U → R. Beweis: Zur Vereinfachung der Bezeichungen nehmen wir an, daß p = 0 ist. Sei v = (v 1 , . . . , v n ). Für x ∈ U sei dann Z Φ(x) = 1 h v(tx), x idt 0 n Z 1 X = j=1 v j (tx)xj dt . 0 Wir werden im Anschluß zeigen, daß für eine nach xk stetig partiell differenzierbare Funktion ϕ(x1 , . . . , xn , t) gilt: Z b Z b ∂ ∂ϕ ϕ(x, t) dt = (x, t) dt . ∂xk a ∂x k a Wenden wir dies hier an, so erhalten wir n Z X 1 ∂(v j (tx) · xj ) dt ∂xk j=1 0 Z 1 n Z 1 X ∂v j (tx) dt = v k (tx) dt + txj ∂xk 0 j=1 0 ∂Φ (x) ∂xk = Sei nun Ψ(t) = v k (tx)t Dann wird 0 Ψ (t) = = I.B. k v (tx) + v k (tx) + n X j=1 n X j=1 txj ∂v k (tx) ∂xj txj ∂v j (tx) ∂xk Es folgt ∂Φ (x) = Ψ(1) − Ψ(0) = v k (x) . ∂xk Damit ist der Satz bewiesen. E.Ossa Analysis II (SS 04) Inhaltsübersicht 23 2.5.9 Satz : Seien I, J ⊂ R offenene Intervalle und sei ϕ = ϕ(x, t) : I × J → R stetig und nach x stetig partiell differenzierbar. Dann ist (für [a, b] ⊂ J) b Z F (x) := ϕ(x, t) dt a nach x differenzierbar mit F 0 (x) = Z b a ∂ϕ (x, t) dt . ∂x Beweis: Sei p ∈ I und sei g : I × J → R definiert durch ϕ(x, t) − ϕ(p, t) , x 6= p , x−p g(x, t) = ∂ϕ (p, t) , x=p. ∂x Nach dem Mittelwertsatz ist für x 6= p g(x, t) = ∂ϕ (p + ϑx,t (x − p), t) ; ∂x es folgt, daß g stetig ist. Sei nun [c, d] ⊂ I ein abgeschlossenes Intervall, das p im Innern enthält. Dann ist g auf [c, d] × [a, b] gleichmäßig stetig. Seien xk ∈ [c, d] von p verschieden mit lim xk = p, und k→∞ sei gk (t) = g(xk , t) . Es folgt, daß die Funktionfolge (gk ) gleichmäßig auf [a, b] gegen g(p, t) = ∂ϕ (p, t) ∂x konvergiert. Damit erhalten wir Z a b ∂ϕ (p, t) dt ∂x = = Z b lim gk (t) dt a k→∞ Z b lim k→∞ gk (t) dt a F (xk ) − F (p) xk − p = F (p) . = lim k→0 0 2.5.10 Definition : Sei U ⊂ R3 offen und v = (v 1 , v 2 , v 3 ) : U → R3 ein differenzierbares Vektorfeld. Die Rotation von v ist das Vektorfeld rot(v) := ∂v 2 ∂v 1 ∂v 3 ∂v 2 ∂v 1 ∂v 3 − , − , − . ∂x2 ∂x3 ∂x3 ∂x1 ∂x1 ∂x2 E.Ossa Analysis II (SS 04) Inhaltsübersicht 24 Im Beispiel von Seite 20 wird rot(v)(x, y, z) := (0, 0, 2a) , (0, 0, 0) , für ρ ≤ R , für ρ ≥ R . 2.5.11 Korollar : Sei U ⊂ R3 offen und sternförmig, und sei v : U → R3 ein stetig differenzierbares Vektorfeld. Dann hat v genau dann eine Potentialfunktion, wenn rot(v) = 0 ist. Bemerkung: In Physik und Technik führt man gerne den ∇-Operator als symbolischen Vektor ∂ ∂ ∂ , , ∇= ∂x ∂y ∂z ein. Dann ist, für eine Funktion f : U → R und ein Vektorfeld v : U → R3 , ∇f = grad(f ) und rot(v) = ∇ × v . Das Skalarprodukt h ∇, v i definiert die Divergenz: 2.5.12 Definition : Sei U ⊂ Rn offen und v = (v 1 , . . . , v n ) : U → Rn ein differenzierbares Vektorfeld. Die Funktion n X ∂v j div(v) = :U →R ∂xj j=1 heißt die Divergenz (oder Quellstärke) von v. 2.5.13 Satz : Sei U ⊂ R3 offen und v : U → R3 ein stetig differenzierbares Vektorfeld. Dann gilt div(rot(v)) = 0 . Ist w : U → R3 ein Vektorfeld, so nennt man ein ein Vektorfeld v mit w = rot(v) auch ein Vektorpotential von w. Eine notwendige Bedingung für die Existenz eines Vektorpotentials ist also div(w) = 0. Sei U ⊂ R3 offen und J ⊂ R ein (nicht leeres) offenes Intervall. Unter einem zeitabängigen Vektorfeld (für t ∈ J) versteht man eine Abbildung v : U × J → R3 . Für jedes t ∈ J ist also (x, y, z) 7→ v(x, y, z, t) ein Vektorfeld v(−, t) auf U . Wenn wir Operatoren wie rot oder div auf solche Vektorfelder anwenden, ist stets gemeint, daß die Zeitvariable t dabei konstant gedacht ist. E.Ossa Analysis II (SS 04) Inhaltsübersicht 25 In der Theorie des Elektromagnetismus betrachtet man das elektrische Feld E und das magnetische Feld H. Dann gelten (in einem homogenen Medium) die folgenden Gleichungen: div(E) = ρ , (1) div(H) = 0 . (2) wobei ρ die Ladungsdichte ist, und Die letzte Gleichung formuliert man auch dahingehend, daß es keine magnetischen Ladungen gibt. Ferner ist ∂H , ∂t ∂E +I , ∂t rot(E) = − (3) rot(H) = (4) wobei I die Stromdichte ist. Dies sind die Maxwellschen Gleichungen. 2.5.14 Definition : Sei V ein endlich-dimensionaler reeller Vektorraum und sei U ⊂ V offen. Sei V ∗ = Hom(V, R) der Dualraum von V . 1. Eine Pfaffsche Form (oder 1-Form) auf U ist eine Abbildung ω : U →V ∗ . Wir schreiben meistens p 7→ ωp . 2. Für eine differenzierbare Funktion f : U → R sei df die Pfaffsche Form df : p 7→ df |p = Df (p) . 3. Sei ω eine stetige Pfaffsche Form auf U . Für einen stückweise stetig differenzierbaren Weg γ : [a, b] → U sei Z Z b ω := ωγ(t) (γ̇(t)) dt . γ a 2.5.15 Hilfssatz : Sei V ein endlich-dimensionaler reeller Vektroraum. 1. Ist f : V → R linear, so ist df |p = f für jedes p ∈ V . 2. Seien x1 , . . . , xn : V → R Koordinatenfunktion für V . Sei U ⊂ R offen und ω eine Pfaffsche Form auf U . Dann gibt es eine eindeutige Darstellung ω= n X j=1 mit Funktionen ω j : U → R. ω j dxj E.Ossa Analysis II (SS 04) Inhaltsübersicht 26 2.5.16 Hilfssatz : Sei U ⊂ Rn offen und f : U → R differenzierbar. Dann ist n X ∂f dxj . df = ∂x j j=1 Sei V ein endlich-dimensionaler euklidischer Vektorraum und ι : V ∗ →V der Isomorphismus mit ω(v) = h ι(ω), v i (für alle v ∈ V ). Ist U ⊂ V offen und f : U → R differenzierbar, so ist der Gradient von f das Vektorfeld grad(f ) : U → R mit grad(f )(p) = ι(df |p ) . E.Ossa 2.6 Analysis II (SS 04) Inhaltsübersicht 27 Der Umkehrsatz 2.6.1 Definition : Seien U1 ⊂ Rn und U2 ⊂ Rm offen. Eine Abbildung f : U1 → U2 heißt ein C 1 -Diffeomorphismus, wenn f bijektiv ist und wenn f und f −1 beide stetig differenzierbar sind. 2.6.2 Lemma : Seien U1 ⊂ Rn und U2 ⊂ Rm offen. Ist f : U1 → U2 ein C 1 -Diffeomorphismus, so ist für p ∈ U1 mit q := f (p) Df −1 (q) = (Df (p))−1 . Insbesondere ist also m = n. Ist f sogar k-mal stetig differenzierbar, so auch f −1 . 2.6.3 Definition : Für eine lineare Abbildung F : Rn → Rm sei die Operator-Norm von F definiert durch k F k := sup{ k F (x) k | k x k ≤ 1} . 2.6.4 Hilfssatz : Sei U ⊂ Rn konvex und f : U → Rm eine stetig differenzierbare Abbildung. Ist k Df (p) k ≤ M für alle p ∈ U , so gilt für x, x0 ∈ U k f (x0 ) − f (x) k ≤ M k x0 − x k . Beweis: Dies folgt unmittelbar aus dem Mittelwertsatz (2.2.7), in Verbindung mit der Abschätzung Z b Z b k g(t) dt k ≤ k g(t) k dt a a (welche z.B. für stückweise stetiges g : [a, b] → U gilt). 2.6.5 Satz (Umkehrsatz) : Sei U ⊂ Rn offen und f : U → Rn stetig differenzierbar. Sei p ∈ U , so daß Df (p) ein Isomorphismus ist. Dann gibt es Umgebungen U1 ⊂ U von p und U2 von f (p), so daß f |U1 : U1 → U2 ein C 1 -Diffeomorphismus ist. Beweis: 1. Zur Vereinfachung der Bezeichnungen sei o.B.d.A. p = 0, f (p) = 0 und Df (p) = id . Ferner sei Df (x) bijektiv für alle x ∈ U . 2. Sei h(x) := f (x) − x. Dann ist Dh(0) = 0. Wir können daher o.B.d.A. annehmen, daß 1 k Dh(x) k < ist für x ∈ U . Dann wird für x, x0 ∈ U 2 k h(x0 ) − h(x) k ≤ 1 k x0 − x k , 2 also, wegen h(x0 ) − h(x) = (f (x0 ) − f (x)) − (x0 − x), k f (x0 ) − f (x) k ≥ Es folgt, daß f injektiv ist. 1 k x0 − x k . 2 E.Ossa Analysis II (SS 04) Inhaltsübersicht 28 3. Sei ε > 0 so gewählt, daß K := {x | k x k ≤ ε} in U enthalten sind. Sei L das Bild von ∂K unter f , also L = {f (x) | k x k = ε}. Da L kompakt ist, nimmt die stetige Funktion d k y k auf L ein Minimum d an; es ist dann d > 0. Sei nun y0 ∈ Rn mit k y0 k < . Für 3 d y ∈ L ist dann k y − y0 k > . 3 Die Funktion ϕ(x) := k f (x) − y0 k muß nun auf der kompakten Menge K in einem Punkt x0 d ein Minimum annehmen; wegen ϕ(0) < kann x0 nicht in ∂K liegen. Daher ist x0 innerer 3 Punkt von K und es folgt D(ϕ2 )(x0 ) = 0 . Es ist aber Dv (ϕ2 )(x0 ) = 2h f (x0 ) − y0 , Dv f (x0 )) i . Da Df (x0 ) bijektiv ist, folgt f (x0 ) = y0 . Mit U2 := {y | k y k < d } und U1 := f −1 (U2 ) 3 ist also f : U1 → U2 bijektiv. 4. Es bleibt zu zeigen, daß g := f −1 : U2 → U1 stetig differenzierbar ist. 1 3 Wegen k Dh(x) k < und f = h + id ist k Df (x) k < . Für x, x0 ∈ K ist daher 2 2 3 3 k x0 − x k ≤ k f (x0 ) − f (x) k ≤ k x0 − x0 k . 2 2 Hieraus folgt insbesondere, daß g auf U2 stetig ist. (5) Seien nun x, x0 ∈ U1 verschieden und zur Abkürzung y = f (x) und y 0 = f (x0 ). Da f differenzierbar ist, gibt es eine Abbildung ϕ(x, x0 ), so daß mit Ax = Df (x) gilt f (x0 ) − f (x) = Ax (x0 − x) + ϕ(x, x0 ) k x0 − x k , wobei lim ϕ(x, x0 ) = 0 ist. Wir erhalten, indem wir By := A−1 x auf die letzte Gleichung 0 x →x anwenden, g(y 0 ) − g(y) = x0 − x = By (y 0 − y) − By (ϕ(x, x0 )) k x0 − x k k x0 − x k = By (y 0 − y) − By (ϕ(x, x0 )) k y0 − y k . k y0 − y k Der Bruch in der letzten Formel ist aber wegen der Abschätzung (5) beschränkt, womit folgt lim By (ϕ(x, x0 )) 0 y →y k x0 − x k =0. k y0 − y k Damit ist die Differenzierbarkeit von g bewiesen. Da Ax stetig von x abhängt, hängt By = A−1 x stetig von y ab. E.Ossa Analysis II (SS 04) Inhaltsübersicht 29 Beispiel: Polarkoordinaten: Definiere P (2) : R2 → R2 durch P (2) (r, ϕ) := (r cos(ϕ), r sin(ϕ)) . Die Jacobi-Matrix von P (2) ist J (2) = cos(ϕ) −r sin(ϕ) sin(ϕ) r cos(ϕ) Ihre Determinante ist det(J (2) ) = r. Es folgt, daß P (2) in allen Punkten (r, ϕ) mit r 6= 0 ein lokaler C 1 -Diffeomorphismus ist. Mit Jα := ]a, a + 2π[ und Sα := {(r cos(α), r sin(α)) | r ≥ 0} wird R+ × Jα durch P (2) diffeomorph auf R2 − Sα abgebildet. Die Spalten der Jacobi-Matrix sind orthogonal zueinander; die erste Spalte hat die Länge 1, die zweite die Länge r. Definiere P (3) : R3 → R3 durch P (3) (r, ϕ, ψ) := (r cos(ϕ) cos(ψ), r sin(ϕ) cos(ψ), r sin(ψ)) . Die Jacobi-Matrix von P (3) ist cos(ϕ) cos(ψ) −r sin(ϕ) cos(ψ) −r cos(ϕ) sin(ψ) (3) r cos(ϕ) cos(ψ) −r sin(ϕ) sin(ψ) J = sin(ϕ) cos(ψ) sin(ψ)) 0 r cos(ψ) Ihre Determinante ist det(J (3) ) = r2 cos(ψ). Es folgt, daß P (2) in allen Punkten (r, ϕ, ψ) mit r 6= 0 und cos(ψ) 6= 0 ein lokaler C 1 -Diffeomorphismus ist. −π π Mit I := ] , [ wird R+ × Jα × I durch P (3) diffeomorph auf R3 − (Sα × R) abgebildet. 2 2 Die Spalten der Jacobi-Matrix sind orthogonal zueinander; die erste Spalte hat die Länge 1, die zweite die Länge r cos(ψ) und die dritte die Länge r. E.Ossa 2.7 Analysis II (SS 04) Inhaltsübersicht 30 Implizite Funktionen Problem: Sei F : R × R → R eine Abbildung. Läßt sich die Gleichung F (x, y) = 0 nach y auflösen? Genauer: Sei F (a, b) = 0. Wann gibt es offene Umgebungen Ua von a und Ub von b sowie eine Funktion ϕ : Ua → Ub , so daß für x ∈ Ua der Punkt (x, ϕ(x)) die einzige Lösung von F (x, y) = 0 mit (x, y) ∈ Ua × Ub ist? Beispiel: F (x, y) = x2 (1 − x2 ) − y 2 . In den Punkten (0, 0), (±1, 0) ist die Antwort negativ. Fragt man, ob sich x analog als Funktion von y darstellen läßt, so ist die Antwort negativ für die Punkte (0, 0) und (± √12 , ± 12 ). Im folgenden sei U ⊂ Rn × Rm offen und F : U → Rm stetig differenzierbar. Wir können dann für p ∈ U schreiben DF (p)(ξ, η) = F10 (p)(ξ) + F20 (p)(η) . 2.7.1 Satz (über implizite Funktionen) : Sei (a, b) ∈ U mit F (a, b) = 0, und sei F20 (a, b) : Rm → Rm bijektiv. Dann gibt es Umgebungen Ua von a in Rn und Ub von b in Rm sowie eine stetig differenzierbare Funktion ϕ : Ua → Ub mit den folgenden Eigenschaften: 1. Für x ∈ Ua und y ∈ Ub ist genau dann F (x, y) = 0 ist, wenn y = ϕ(x) ist. 2. Für x ∈ Ua ist F20 (x, ϕ(x)) invertierbar und −1 Dϕ(x)(ξ) = −F20 (x, ϕ(x)) (F10 (x, ϕ(x))(ξ)) . Ist F k-mal stetig differenzierbar, so auch ϕ. Beweis: Definiere G : U → Rn × Rm durch G(x, y) := (x, F (x, y)). Dann ist DG(a, b) ein Isomorphismus. Nach dem Umkehrsatz gibt es Umgebungen Ua0 von a und Ub von b, so daß die Einschränkung von G auf Ua0 × Ub ein C 1 -Diffeomorphismus auf G(Ua0 × Ub ) ist. Sei Ua ⊂ Ua0 eine Umgebung von a in Ua0 , so daß Ua × {0} ⊂ G(Ua0 × Ub ) ist. Für x ∈ Ua sei nun G−1 (x, 0) = (x, ϕ(x)). 2.7.2 Korollar : Sei U ∈ Rn offen und seien α1 , . . . , αk : U → R stetig differenzierbare Funktionen. Für x ∈ U sei F (x, y) = y k + α1 (x)y k−1 + · · · + αk−1 (x)y + αk (x). Sei a ∈ U und b ∈ R ∂F (a, b) 6= 0. Dann gibt es eine stetig differenzierbare Funktion ϕ auf mit F (a, b) = 0 und ∂y einer Umgebung V von a in U , so daß F (x, ϕ(x)) = 0 ist für x ∈ V und ϕ(a) = b. 2.7.3 Satz : Sei U ⊂ Rn+m offen, und seien F : U → Rm und g : U → R stetig differenzierbar. Sei p ∈ M := F −1 (0) , so daß DF (p) : Rn+m → Rm surjektiv ist. Wenn g|M in p ein lokales Minimum hat, so gilt Kern(DF (p)) ⊂ Kern(Dg(p)) . Beweis: Wir wählen in Rn+m eine neue Basis (b1 , . . . , bn+m ) wie folgt: Kern(DF (p)) = Spann{b1 , . . . , bn } , E.Ossa Analysis II (SS 04) Inhaltsübersicht 31 DF (p)(bn+i ) = ei ∈ Rm für i = 1, . . . , m . Bezüglich dieser Basis ist dann F10 (p) = 0 und F20 (p) = id. Sei p = (a, b) und sei ϕ : Ua → Ub wie oben definiert. Dann ist ϕ0 (a) = 0. Für x ∈ Ua ist F (x, ϕ(x)) = 0; es folgt, daß die Funktion h : Ua → R mit h(x) = g(x, ϕ(x)) in x = a ein lokales Extremum hat. Für i ∈ {1, . . . , n} ist daher 0 = Dbi h(a) = Dbi g(a, b). 2.7.4 Korollar : Seien die Voraussetzungen wie im vorangehenden Satz. Dann gibt es reelle Zahlen λ1 , . . . , λm , so daß die Funktion f = g − (λ1 F1 + · · · + λm Fm ) in p eine verschwindende Ableitung hat. Beispiel: Sei A eine symmetrische n × n-Matrix, und M := {x ∈ Rn | ||x|| = 1} . Sei g : Rn → R definiert durch g(x) := x> Ax . Wenn g auf M ein lokales Extremun bei v ∈ M hat, so ist v ein Eigenvektor von A. E.Ossa 2.8 Analysis II (SS 04) Inhaltsübersicht 32 Variationsrechnung Für eine offene Teilmenge U ⊂ Rn sei C (2) (U ) die Menge der zweimal stetig differenzierbaren Funktion ϕ : U → R. Sei [a, b] ⊂ R und U eine offene Umgebung von [a, b] × R × R in R × R × R. Sei L : U →R zweimal stetig differenzierbar. Die Koordinaten in [a, b] × R × R schreiben wir als (t, u, v). Für c1 , c2 ∈ R sei M = {ϕ ∈ C (2) ( [a, b] ) | ϕ(a) = c1 , ϕ(b) = c2 } . Definiere J : M → R durch J(ϕ) = Z b L(t, ϕ(t), ϕ0 (t)) dt . a Wir benötigen den folgenden 2.8.1 Hilfssatz : Sei f : [a, b] → R stetig. Für jedes η ∈ C (2) ( [a, b] ) mit η(a) = η(b) = 0 sei Z b f (t)η(t) dt = 0 a Dann ist f = 0. Beweis: Andernfalls gibt es ein x ∈ [a, b] mit f (x) 6= 0. Sei > 0, so daß f in dem Intervall K = {t ∈ [a, b] | |t − x| < } keine Nullstelle hat. Wähle nun ein η ≥ 0 mit η(x) > 0 und η(t) = 0 für t 6∈ K. 2.8.2 Satz : Wenn J in ϕ ∈ M ein Minimum annimmt, so genügt ϕ der Differentialgleichung von Euler-Lagrange: ∂L d ∂L E(t, ϕ) = (t, ϕ(t), ϕ0 (t)) − (t, ∂(t), ∂ 0 (t)) = 0 . ∂u dt ∂v Beweis: Sei η ∈ C (2) ( [a, b] ) mit η(a) = η(b) = 0. Für s ∈ R sei ψ(t) = ϕ(t) + sη(t) und Z b j(s) = L(t, ψ(t), ψ 0 (t)) dt . a Dann hat j bei s = 0 ein Minimum. Es ist aber Z b Z b ∂L ∂L j 0 (0) = (t, ϕ(t), ϕ0 (t)) η(t) dt + (t, ϕ(t), ϕ0 (t)) η 0 (t) dt , a ∂u a ∂v was mit partieller Integration zu j 0 (0) = Z b E(t, ϕ) η(t) dt a wird. 2.8.3 Korollar : Differentialgleichungen von Euler-Lagrange für ϕ : [a, b] → Rk . Beispiel: Brachistochrone.